id
stringlengths
9
9
text
stringlengths
8.54k
92.7k
title
stringclasses
1 value
V07N01-03
\section{はじめに} label{intro}言語処理の研究に名詞句の指示性の推定という問題がある\cite{murata_ref_nlp}.名詞句の指示性とは,名詞句の対象への指示の仕方のことであり,主に以下の三つに分類される.(指示性の詳細な説明は次節で行なう.)\begin{itemize}\item不定名詞句--その名詞句の意味する類の不特定の成員を意味する.(例文)\underline{犬}が三匹います.\item定名詞句--文脈中唯一のものを意味する.(例文)\underline{その犬}は役に立ちます.\item総称名詞句--その名詞句の類すべてを意味する.(例文)\underline{犬}は役に立つ動物です.(この例文の「犬」は犬一般を意味しており,総称名詞句に分類される.)\end{itemize}この指示性というものを,日本語文章中にある各名詞句について推定することは,(i)日英機械翻訳における冠詞の生成の研究や,(ii)名詞句の指示先などを推定する照応解析の研究に役に立つ.\begin{itemize}\item[(i)]冠詞生成の研究冠詞生成の研究では,不定名詞句と推定できれば単数名詞句なら不定冠詞をつけ,複数名詞句なら冠詞はつけないとわかるし,定名詞句と推定できれば定冠詞をつければよいとわかるし,総称名詞句の場合ならばtheをつける場合もaをつける場合も複数形にする場合もあり複雑であるが総称名詞句用の冠詞生成の方法に基づいて生成すればよいとわかる\footnote{名詞句の指示性を冠詞の生成に実際に用いている研究としては,Bondのもの\cite{Bond_94}がある.}.例えば,\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称名詞句であるので英語では``abook''にも``books''にも``thebook''にも訳すことができるとわかる.また,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は定名詞句であるので,英語では``thebook''と訳すことができるとわかる.\item[(ii)]照応解析の研究名詞句の指示先などを推定する照応解析の研究では,定名詞句でなければ前方の名詞句を指示することができないなどがわかる\cite{murata_noun_nlp}.例えば,\begin{equation}\begin{minipage}[h]{6.5cm}\vspace*{0.2cm}\underline{本}をお土産に買いました.\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.\vspace*{0.2cm}\end{minipage}\label{eqn:book_miyage}\end{equation}の例文では,二文目の「本」は総称名詞句であるので一文目の「本」を指示することはないと解析することができる.\end{itemize}以上のように総称や定・不定などの名詞句の指示性というものは,冠詞の生成や照応解析で利用されるものであり,これを推定することは言語処理研究の一つの重要な問題となっている.名詞句の指示性の推定の先行研究\cite{murata_ref_nlp}では,表層表現を用いた規則を人手で作成して指示性の推定を行なっていた.例えば,前述の例文(\ref{eqn:book_hito})の「本」だと,「というのは」という表現から総称名詞句であると,また例文(\ref{eqn:book_boku})の「本」だと,修飾節「昨日僕が貸した」が限定していることから定名詞句であると解析していた.また,規則は86個作成しており,複数の規則が競合しどの規則を信頼して解けばよいかが曖昧な場合については,規則に得点を与えることで競合を解消していた.本稿では,先行研究で行なった名詞句の指示性の推定における人手の介入が若干でも減少するように,規則の競合の際に人手でふっていた得点の部分において機械学習の手法を用いることで,人手で規則に得点をふるという調整を不要にすることを目的としている.本稿で用いる機械学習手法としては,データスパースネスに強い最大エントロピー法を採用した. \section{名詞句の指示性の分類} label{sec:riron}名詞句の指示性とは名詞句の対象への指示の仕方である.まず名詞句を,その名詞句の類の成員すべてか類自体を指示対象とする{\bf総称名詞句}と,類の成員の一部を指示対象とする{\bf非総称名詞句}に分ける.次に,非総称名詞句を指示対象が確定しているか否かで,{\bf定名詞句}と{\bf不定名詞句}に分ける(図\ref{fig:sijisei_bunrui})\footnote{ここでの名詞句の指示性の分類は先行研究\cite{murata_ref_nlp}での分類に基づく.}.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\begin{center}{\tiny\[\mbox{\normalsize名詞句}\left\{\begin{array}[h]{cc}\mbox{\normalsize総称名詞句}&\\&\\\mbox{\normalsize非総称名詞句}&\left\{\begin{array}[h]{c}\mbox{\normalsize定名詞句}\\\\\mbox{\normalsize不定名詞句}\end{array}\right.\end{array}\right.\]}\end{center}\caption{名詞句の指示性の分類}\label{fig:sijisei_bunrui}\end{minipage}}\end{center}\end{figure}\paragraph{総称名詞句}総称名詞句は,その名詞句が意味する類に属する任意の成員(単数でも,複数でも,不可算のものでもよい)のすべて,もしくはその名詞句が意味する類それ自身を指示する.例えば,次の文(\ref{eqn:doguse})の「犬」は総称名詞句である.\begin{equation}\underline{犬}は役に立つ動物です.\label{eqn:doguse}\end{equation}ここでの「犬」は「犬」という類に属する成員のすべてを指示対象としている.\paragraph{定名詞句}定名詞句は,その名詞句が意味する類に属する文脈上唯一の成員(単数でも複数でも不可算のものでもよい)を指示する.例えば,次の文(\ref{eqn:thedoguse})の「その犬」は定名詞句である.\begin{equation}\underline{その犬}は役に立ちます.\label{eqn:thedoguse}\end{equation}ここでの「その犬」は,「犬」という類に属する文脈上唯一の成員を指示対象としている.このことは,指示詞「その」によって表わされており,聞き手は「その犬」なるものを確定できる.\paragraph{不定名詞句}不定名詞句は,その名詞句が意味する類に属するある不特定の成員(単数でも複数でも不可算のものでもよい)を指示する.不特定の成員を指示するというのは,現時点での聞き手の情報ではその名詞句が成員のどれを指し示すのか確定していないという意味である.また,現時点での聞き手の情報では,その名詞句が成員のどれを指し示しているとしても,その文の解釈として間違っていないということでもある.不定名詞句は総称名詞句とは異なり,その名詞句の意味する類の成員のすべてを指示するのではなくて,その名詞句の意味する類の成員の一部を指示する.次の文の「犬」は不定名詞句である.\begin{equation}\underline{犬}が三匹います.\label{eqn:dog3}\end{equation}ここでの「犬」は犬という類に属する任意の三匹の成員を指示対象として持ちえる.これはどんな犬でも三匹いればこの文が使えるということである. \section{名詞句の指示性の推定方法} label{sec:decide}\subsection{先行研究での推定方法}\label{sec:decide_pre}先行研究\cite{murata_noun_nlp}では,「可能性」と「得点」という二つの評価値を用い,人手で作成した規則により,各指示性に「可能性」と「得点」を与えこの評価値により指示性を推定していた.各規則によって与えられる「可能性」と「得点」は,「可能性」については指示性ごとにANDをとり,「得点」については指示性ごとに足し算を行なう.その結果,「可能性」が存在し「得点」の合計が最も大きい指示性を解であると推定していた.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\baselineskip=12pt\hspace*{1.0cm}\protect\verb+(規則の適用条件)+\\\hspace*{2.0cm}\protect\verb++\{\verb+不定(可能性得点)+\\\hspace*{2.18cm}\protect\verb+定(可能性得点)+\\\hspace*{2.18cm}\protect\verb+総称(可能性得点)+\}\caption{名詞句の指示性を推定する規則}\label{fig:rule_kouzou_sijisei}\end{minipage}}\end{center}\end{figure}規則は図\ref{fig:rule_kouzou_sijisei}の構造をしており,図の「規則の適用条件」には,その規則が適用されるかどうかの条件として,文中の手がかりとなる表現を記述する.各分類には「可能性」と「得点」を一つずつ与えている.「可能性」は1か0のみであり,「得点」は0から10の間の整数である.「可能性」が1の分類がただ一つ求まった場合は,その分類を推定の結果とする.「可能性」が1の分類が複数ある場合は,その中で「得点」の合計が最も大きい分類を推定の結果としていた.この推定方法では,「得点」だけでなく「可能性」という評価値も用いている.これは,人手での調整を軽減するために,確実に決まりそうなところは「可能性」によって確実に決め「得点」の調整を不要にするためであった.規則は86個作成していた.全規則については文献\cite{murata_B}を参照のこと.主要なものをいくつか以下に示す.\begin{enumerate}\item指示詞(「この」や「その」など)によって修飾される時,\\\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(00)\}\footnote{各分類の「可能性」と「得点」を表わす.図\ref{fig:rule_kouzou_sijisei}参照.}\\(例文)\underline{\.こ\.の本}はおもしろい.\\(訳文)\underline{Thisbook}isinteresting.\item名詞句につく助詞が「は」で述語が過去形の時,\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(11)\}}\\(例文)\underline{犬}\.は向こうに\.行\.き\.ま\.し\.た.\\(訳文)\underline{Thedog}wentaway.\item名詞句につく助詞が「は」で述語が現在形の時,\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}}\\(例文)\underline{犬}\.は役に立つ動物\.で\.す.\\(訳文)\underline{Dogs}\footnote{主語が総称名詞句になる場合であるので``adog''でも``thedog''でもよい.}areusefulanimals.\end{enumerate}他にも,(i)「地球」「宇宙」のような名詞句自身から定名詞句と推定する規則\footnote{\label{foot:tikyuu}これは本来的には語の意味として取り扱うのが適切だろうが,これまで取り扱ってきた場合の特殊な場合と位置付けて規則の形で処理することにしている.},(ii)名詞句に数詞がかかることから総称名詞句以外と推定する規則,(iii)同一名詞の既出により定名詞句と推定する規則,(iv)「いつも」「昔は」「〜では」のような副詞が動詞にかかることから総称名詞句と推定する規則,(v)「〜が好き」「〜を楽しむ」のような動詞から総称名詞句と推定する規則,(vi)「用」「向き」のような接尾辞から総称名詞句と推定する規則などがある.手がかりとなる語がない時は不定名詞句と推定するようにしている例として,次の文の中に現れる名詞句「我々が昨日摘みとった果物」に注目し,これにどのような規則が適用され得点がどのようになるか,具体的に説明する.\begin{description}\item\underline{我々が昨日摘みとった果物}は味がいいです.\end{description}\underline{Thefruitthatwepickedyesterday}tastesdelicious.\\以下のように七つの規則が適用され,この「果物」は定名詞句と推定された.\begin{itemize}\item[(a)]名詞句につく助詞が「は」で述語が現在形の時,\\(果物\.は味が\.い\.い\.で\.す.)\footnote{規則が適用される手がかりとなる表現.}\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}}\item[(b)]述部が過去形の節が係る時,\\(摘み\.と\.っ\.た)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\item[(c)]「は」か「が」がついた定名詞句を含む節が係る時,\\(\.我\.々\.が)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\item[(d)]助詞がついた定名詞句を含む節が係る時,\\(\.我\.々が)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\item[(e)]代名詞を含む節が係る時,\\(\.我\.々が)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\item[(f)]名詞句につく助詞が「は」で述語が形容詞の時,\\(果物\.は味が\.い\.い\.で\.す.)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(14)\}}\item[(g)]主要部の名詞が普通名詞の時,\\(果物)\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(10)\,\mbox{総称名詞句}(10)\}}\end{itemize}これらすべての規則の適用の結果として「果物」の最終の「可能性」と「得点」は,\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(19)\,\mbox{総称名詞句}(17)\}}\\となり,定名詞句と推定される.このような解析を,対象とする文章の各名詞句について最初のものから順番に決定的に行なっていく.既に推定された指示性は後続の名詞句の解析において手がかりとして用いられる場合がある(例:上記の規則(c),(d)).先行研究での推定方法はおおよそ以上のとおりである.この方法では,「可能性」と「得点」という二つの評価値をうまく解析できるように人手で付与する必要があり,人手の介入が大きいものとなっている.規則の条件部分にある,解析に効果のある手がかり表現については人手で収集するのも有効かもしれないが,「可能性」と「得点」の二つの評価値についてはなんらかの機械学習手法で解決できるのではないかと考えた.そこで,本稿では次節で述べるような手法を利用することで,「可能性」と「得点」の二つの評価値を人手でふる必要性をないものとした.\subsection{本稿での推定方法}\label{sec:decide_now}本稿での指示性の推定は教師あり機械学習手法に基づいて行なう.機械学習手法としては,正解の名詞句の指示性を付与した大規模なコーパスを作成するのはコストが大きく困難であるので,データスパースネスに強い最大エントロピー法を利用することにした.最大エントロピー法とは,分類先の推定において,素性(解析に用いられる情報の細かい単位のこと)を定義しておくと,学習データから素性の各出現パターンに対して各分類になる確率を求めるもので,この確率を求める際に,エントロピーを最大にする操作を行なうため,この方法は最大エントロピー法と呼ばれている.このエントロピーを最大にする操作は,確率モデルを一様にする効果を示し,このことが最大エントロピー法がデータスパースネスに強い理由とされている.最大エントロピー法の詳細な説明は付録\ref{sec:me}最大エントロピー法(文献\protect\cite{uchimoto:nlp99}より)で行なっている.本研究の最大エントロピー法の利用では,文献\cite{ristad98}のシステムを用いた\footnote{今はWeb上に存在していない.文献としては\cite{ristad97}を参照のこと.}.解析は,そのシステムの出力から総称名詞句,定名詞句,不定名詞句の三つの確率を計算し,その確率の大きいものが解であると推定することによって行なう.最大エントロピー法の利用においては学習に用いる素性が必要となる.学習に用いる素性としては,先行研究で用いていた86個の人手で作成した規則の条件部を用いた.このため,学習に用いる素性の個数は86個となる.例えば,先にあげた\ref{sec:decide_pre}節の三つの規則1〜3だと,条件部分だけを取り出して以下のような三つの素性が得られる.\begin{enumerate}\item指示詞(「この」や「その」など)によって修飾されるか.\item名詞句につく助詞が「は」で述語が過去形か.\item名詞句につく助詞が「は」で述語が現在形か.\end{enumerate}最大エントロピー法によってどのように指示性が解析されるかを,前節であげた以下の同じ例文で具体的に説明する.\begin{description}\item\underline{我々が昨日摘みとった果物}は味がいいです.\end{description}\underline{Thefruitthatwepickedyesterday}tastesdelicious.\\前節と同じように「我々が昨日摘みとった果物」に注目する.規則としては前節と同じように以下の七つの規則が適用される.規則の指示性の各分類につけてある数は,各規則だけが適用される場合のその分類になる条件確率のことで,学習コーパスから最大エントロピー法によって計算される値である\footnote{この条件確率の詳細は付録\ref{sec:me}を参照のこと.付録\ref{sec:me}の式(\ref{eq:alpha})の$\alpha_{a,j}$を各指示性で正規化したものがここの条件確率に相当する.}.(ここで付与している値は実際に\ref{sec:jikken}節の機械学習2において得られたものである.)\begin{itemize}\item[(a)]名詞句につく助詞が「は」で述語が現在形の時,\\(果物\.は味が\.い\.い\.で\.す.)\footnote{規則が適用される手がかりとなる表現.}\\\mbox{\{\mbox{不定名詞句}\,0.31,\,\mbox{定名詞句}\,0.29,\,\mbox{総称名詞句}\,0.40\}}\item[(b)]述部が過去形の節が係る時,\\(摘み\.と\.っ\.た)\\\mbox{\{\mbox{不定名詞句}\,0.31,\,\mbox{定名詞句}\,0.49,\,\mbox{総称名詞句}\,0.19\}}\item[(c)]「は」か「が」がついた定名詞句を含む節が係る時,\\(\.我\.々\.が)\\\mbox{\{\mbox{不定名詞句}\,0.19,\,\mbox{定名詞句}\,0.61,\,\mbox{総称名詞句}\,0.19\}}\item[(d)]助詞がついた定名詞句を含む節が係る時,\\(\.我\.々が)\\\mbox{\{\mbox{不定名詞句}\,0.01,\,\mbox{定名詞句}\,0.80,\,\mbox{総称名詞句}\,0.18\}}\item[(e)]代名詞を含む節が係る時,\\(\.我\.々が)\\\mbox{\{\mbox{不定名詞句}\,0.20,\,\mbox{定名詞句}\,0.44,\,\mbox{総称名詞句}\,0.37\}}\item[(f)]名詞句につく助詞が「は」で述語が形容詞の時,\\(果物\.は味が\.い\.い\.で\.す.)\\\mbox{\{\mbox{不定名詞句}\,0.13,\,\mbox{定名詞句}\,0.80,\,\mbox{総称名詞句}\,0.07\}}\item[(g)]主要部の名詞が普通名詞の時,\\(果物)\\\mbox{\{\mbox{不定名詞句}\,0.72,\,\mbox{定名詞句}\,0.15,\,\mbox{総称名詞句}\,0.14\}}\end{itemize}最大エントロピー法を用いた方法では,上記の規則についている値を分類ごとに掛け合わせ,それらを正規化した結果が最も大きい分類を求める分類先とする(ここでのかけ算と正規化の演算は最大エントロピー法では付録\ref{sec:me}の式(\ref{eq:p})の演算を行なっていることに相当する.).この場合で,すべての規則にふられた数値を掛け合わせて正規化(各分類の数値を足すと1になるように)すると,\\\mbox{\{\mbox{不定名詞句}0.001,\,\mbox{定名詞句}0.996,\,\mbox{総称名詞句}0.002\}}\\となり,定名詞句の値が最も大きく定名詞句と正しく推定される.文章全体での解析の流れは,先行研究と全く同じで,対象とする文章の各名詞について最初のものから順番に決定的に指示性の推定を行なっていく. \section{実験と考察} label{sec:jikken}実験には,先行研究で用いていたものと全く同じデータを利用した.この実験に用いるデータは,名詞句の指示性の分類の付与がやりやすいように日英の対訳がある文章に限ったものだった.実験対象のテキストの各名詞句への正解の分類の付与は人手で行なっていた.正解の決定の際には対訳の英語文を見て行なったが,必ずしも冠詞にとらわれることなく\ref{sec:riron}節で説明した分類の定義によって正解を決定していた.指示性の分類のうち総称名詞句の判定は極めて困難であり,表~\ref{fig:sousyou}のようなものを総称名詞句としたが,付与した正解自体が間違っている可能性がある.以下,正解とはこの人手による分類のことをいう.\begin{table}[t]\small\caption{総称名詞句とした名詞句の例(下線部の名詞を主要部に持つ名詞句)}\label{fig:sousyou}{\begin{center}\begin{tabular}{|c@{}p{7.4cm}|}\hline(1)&\underline{ラクダ}は\underline{水}を飲まなくても長い間歩くことができます.\\(2)&ワシントンスクールから一クラスの学生たちが,昨日,\underline{見学}にいきました.\\(3)&多くの若い\underline{男}の\underline{人たち}は\underline{陸軍}に兵役します.\\(4)&\underline{紳士}は普通\underline{淑女}のために\underline{ドア}を開けます.\\(5)&有名なシャ−ロックホ−ムズ探偵の物語は大抵ロンドン地域を\underline{背景}にしたものです.\\(6)&彼はクリスマスの\underline{贈り物}に本を買いました.\\(7)&ワールドカップ大会の決勝戦は,\underline{タンゴ}のアルゼンチンと\underline{行進曲}の西ドイツとの勝負だ.\\[0.1cm]\hline\end{tabular}\end{center}}\end{table}本研究の推定で用いる素性では,形態素・構文情報が必要であるが,指示性の推定の前に形態素・構文解析を行なっている\cite{juman}\cite{csan2_ieice}.また,形態素・構文解析での誤りは人手で修正している.本研究の学習セット,テストセットは,先行研究のものとまったく同じものを使った.学習セットは,三つの資料\{英語冠詞用法辞典\cite{kanshi}から取り出した典型的な用法の例文(140文,解析した名詞句380個),物語の「こぶとりじいさん」\cite{kobu}全文(104文,解析した名詞句267個),86年7月1日の天声人語(23文,解析した名詞句98個)\}で,テストセットは,三つの資料\{物語の「つるのおんがえし」\cite{kobu}全文(263文,解析した名詞句699個),86年7月8,9,15日の天声人語の三回分(75文,解析した名詞句283個),冷戦後世界と太平洋アジア$\langle$国際文化会館会報Vol.3No.21992年4月号$\rangle$(22文,解析した名詞句192個)\}である.\ref{sec:decide}節で説明した86個の規則は学習セットを人手で調査して作成したものである.また,先行研究において86個の規則に人手で「得点」をふる際には,学習セットでの解析精度を確認しながら「得点」の微調整を行なっている.\begin{table}[t]\small\caption{人手ルールベース(学習セット)}\label{tab:kanshi_d}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{英語冠詞用法辞典(140文,380名詞句)}\\\hline正解&96&184&58&1&339\\不正解&4&28&8&1&41\\\hline正解率&96.0&86.8&87.9&50.0&89.2\\\hline\multicolumn{6}{|c|}{こぶとりじいさん(104文,267名詞句)}\\\hline正解&73&140&6&1&222\\不正解&14&27&4&0&45\\\hline正解率&83.9&84.0&60.0&100.0&83.2\\\hline\multicolumn{6}{|c|}{天声人語(23文,98名詞句)}\\\hline正解&25&35&16&0&76\\不正解&5&14&3&0&22\\\hline正解率&83.3&71.4&84.2&-----&77.6\\\hline全体での出現率&29.1&57.7&12.8&0.4&100.0\\全体での正解率&89.4&84.0&84.2&66.7&85.5\\\hline\end{tabular}}\end{center}\end{table}\begin{table}[t]\small\caption{人手ルールベース(テストセット)}\label{tab:turu_d}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|}\hline&\multicolumn{5}{|c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{つるのおんがえし(263文,699名詞句)}\\\hline正解&109&363&13&10&495\\不正解&38&160&6&0&204\\\hline正解率&74.2&69.4&68.4&100.0&70.8\\\hline\multicolumn{6}{|c|}{天声人語(75文,283名詞句)}\\\hline正解&75&81&16&0&172\\不正解&41&60&10&0&111\\\hline正解率&64.7&57.5&61.5&-----&60.8\\\hline\multicolumn{6}{|c|}{冷戦後世界と太平洋アジア(22文,192名詞句)}\\\hline正解&21&108&11&2&142\\不正解&17&31&2&0&50\\\hline正解率&55.3&77.7&84.6&100.0&74.0\\\hline全体での出現率&25.6&68.4&4.9&1.0&100.0\\全体での正解率&68.1&68.7&69.0&100.0&68.9\\\hline\end{tabular}}\end{center}\end{table}まず,このコーパスを用いて以下の二つの実験を行なった.\begin{itemize}\item人手ルールベースの手法---\ref{sec:decide_pre}節で述べた方法により指示性を推定する.(先行研究\cite{murata_ref_nlp}での実験結果を再掲しているのと等価)\item機械学習1---\ref{sec:decide_now}節で述べた方法により,指示性を推定する.\end{itemize}これらの実験結果を表\ref{tab:kanshi_d}〜表\ref{tab:turu_m1}に示す.ただし,機械学習1での学習においては,前述の規則(c),(d)のような既に推定された指示性を用いる場合はその学習において推定されるものではなく正解の指示性を用いて学習を行なっている.一方,表\ref{tab:kanshi_m1},表\ref{tab:turu_m1}のような精度を求める際の解析においては,正解の指示性ではなく,推定された指示性を用いている.表中の「出現率」は各分類の個数を総数で割ったものである.「その他」は,先行研究において指示性が曖昧な場合にふっていたタグに相当するもので,事例数が少なく本研究では無視してよい.\begin{table}[t]\small\caption{機械学習1(学習セット)}\label{tab:kanshi_m1}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{英語冠詞用法辞典(140文,380名詞句)}\\\hline正解&95&199&32&0&326\\不正解&5&13&34&2&54\\\hline正解率&95.0&93.9&48.5&0.0&85.8\\\hline\multicolumn{6}{|c|}{こぶとりじいさん(104文,267名詞句)}\\\hline正解&71&151&1&0&223\\不正解&16&18&9&1&44\\\hline正解率&81.6&89.4&10.0&0.0&83.5\\\hline\multicolumn{6}{|c|}{天声人語(23文,98名詞句)}\\\hline正解&21&46&5&0&72\\不正解&9&3&14&0&26\\\hline正解率&70.0&93.9&26.3&---&73.5\\\hline全体での出現率&29.1&57.7&12.8&0.4&100.0\\全体での正解率&86.2&92.1&40.0&0.0&83.4\\\hline\end{tabular}}\end{center}\end{table}\begin{table}[t]\small\caption{機械学習1(テストセット)}\label{tab:turu_m1}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|}\hline&\multicolumn{5}{|c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{つるのおんがえし(263文,699名詞句)}\\\hline正解&104&408&0&0&512\\不正解&43&115&19&10&187\\\hline正解率&70.8&78.0&0.0&0.0&73.3\\\hline\multicolumn{6}{|c|}{天声人語(75文,283名詞句)}\\\hline正解&72&108&2&0&182\\不正解&44&33&24&0&101\\\hline正解率&62.1&76.6&7.7&---&64.3\\\hline\multicolumn{6}{|c|}{冷戦後世界と太平洋アジア(22文,192名詞句)}\\\hline正解&21&130&1&0&152\\不正解&17&9&12&2&40\\\hline正解率&55.3&93.5&7.7&0.0&79.2\\\hline全体での出現率&25.6&68.4&4.9&1.0&100.0\\全体での正解率&65.5&80.5&5.2&0.00&72.1\\\hline\end{tabular}}\end{center}\end{table}テストセットの指示性全体での精度では,人手ルールベースで68.9\%(表\ref{tab:turu_d}),機械学習1で72.1\%(表\ref{tab:turu_m1})であった.人手ルールベースの方法では規則に人手で得点をふる必要があったが,規則に人手で得点をふる必要がない機械学習の方法でも,人手ルールベースの方法と同程度以上の精度を出すことができることがわかった.しかし,実験結果の表\ref{tab:turu_d}と表\ref{tab:turu_m1}を見比べるとわかるように,人手ルールベースの方法では各指示性ともに70\%弱で極端に精度の悪い分類はないが,機械学習1の方では不定名詞句と定名詞句は70\%前後で問題ないが総称名詞句での精度は5.2\%と極端に低いものとなっている.これでは,総称名詞句の出現率は4.9\%であり出現率が小さいので,総称名詞句での精度が悪くとも全体での精度が高くなっているだけで,あまり良い結果とはいえない.\begin{table}[t]\small\caption{機械学習2(学習セット)}\label{tab:kanshi_m2}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{英語冠詞用法辞典(140文,380名詞句)}\\\hline正解&97&188&57&0&342\\不正解&3&24&9&2&38\\\hline正解率&97.0&88.7&86.4&0.0&90.0\\\hline\multicolumn{6}{|c|}{こぶとりじいさん(104文,267名詞句)}\\\hline正解&80&137&6&0&223\\不正解&7&32&4&1&44\\\hline正解率&92.0&81.1&60.0&0.0&83.5\\\hline\multicolumn{6}{|c|}{天声人語(23文,98名詞句)}\\\hline正解&26&40&17&0&83\\不正解&4&9&2&0&15\\\hline正解率&86.7&81.6&89.5&---&84.7\\\hline全体での出現率&29.1&57.7&12.8&0.4&100.0\\全体での正解率&93.6&84.9&84.2&0.0&87.0\\\hline\end{tabular}}\end{center}\end{table}\begin{table}[t]\small\caption{機械学習2(テストセット)}\label{tab:turu_m2}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|}\hline&\multicolumn{5}{|c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{つるのおんがえし(263文,699名詞句)}\\\hline正解&112&360&13&0&485\\不正解&35&163&6&10&214\\\hline正解率&76.2&68.8&68.4&0.0&69.4\\\hline\multicolumn{6}{|c|}{天声人語(75文,283名詞句)}\\\hline正解&79&88&14&0&181\\不正解&37&53&12&0&102\\\hline正解率&68.1&62.4&53.9&---&64.0\\\hline\multicolumn{6}{|c|}{冷戦後世界と太平洋アジア(22文,192名詞句)}\\\hline正解&25&110&10&0&145\\不正解&13&29&3&2&47\\\hline正解率&65.8&79.1&76.9&0.0&75.5\\\hline全体での出現率&25.6&68.4&4.9&1.0&100.0\\全体での正解率&71.8&69.5&63.8&0.0&69.1\\\hline\end{tabular}}\end{center}\end{table}総称名詞句での精度が下がっているのは,学習データにおいて総称名詞句の頻度が小さく頻度が多い定名詞句に偏った学習がなされているためではないかと考えた.(例えば,表\ref{tab:kanshi_m1}の学習セットでの機械学習の精度では定名詞句の精度は92\%と高いが,総称名詞句の精度は40\%と学習セットにおいてもかなり低いものとなっており,定名詞句に偏った学習がなされていることを予想させる.)そこで,次に以下の実験を行なった.\begin{itemize}\item機械学習2---\ref{sec:decide_now}節で述べた方法により指示性を推定する際の最大エントロピー法の学習において,不定名詞句と定名詞句と総称名詞句に対しその出現率の逆数にみあう値を学習での頻度に掛け合わす.本研究は,不定名詞句と定名詞句と総称名詞句に対し4,2,9の値を掛け合わした.\end{itemize}つまり,総称名詞句は定名詞句の2/9ぐらいしか出現していないので,定名詞句がもとよりも2倍多めに出現していたこと,総称名詞句がもとよりも9倍多めに出現していたというように学習データでの頻度を操作する.この操作を行なうことで,学習データでの不定名詞句と定名詞句と総称名詞句の頻度は見かけ上均等になり,定名詞句に偏った解析にはならなくなると考えた.また,この操作は次のようなことを行なっているとも考えることができる.機械学習1では一般の学習と同じなので,\begin{equation}\label{eq:ml1}評価関数=(全体での正解率)\end{equation}の値を極力大きくするように学習するが,機械学習2では各指示性とも頻度をそろえるため,\begin{equation}\label{eq:ml2}\begin{minipage}[h]{6.5cm}\begin{tabular}[h]{l@{}l}評価関数=&(不定名詞句での正解率)と\\&(定名詞句での正解率)と\\&(総称名詞句での正解率)の平均\\\end{tabular}\end{minipage}\end{equation}の値を極力大きくするように学習を行なっていることになると思われる\footnote{表\ref{tab:turu_m1}と表\ref{tab:turu_m2}のテストセットのでの精度を見比べてほしい.全指示性での正解率では機械学習1の72.1\%は機械学習2の69.1\%を上回っており,機械学習1の式(\ref{eq:ml1})を最大にするという傾向にそった結果となっている.また,式(\ref{eq:ml2})の値では,機械学習1で50.4\%(=(65.5+80.5+5.2)/3),機械学習2で68.4\%(=(65.5+80.5+5.2)/3)となり,機械学習2で式(\ref{eq:ml2})を最大にするという効果のおかげで機械学習2の値が機械学習1の値を上回ったものと思われる.ところで,これを学習セットで考察すると思わしくない面がある.式(\ref{eq:ml2})の方はよいが,式(\ref{eq:ml1})の方では機械学習2の方が大きいものとなっている.これは学習セットにおいて既に解析した指示性を後続の名詞句の指示性の推定に用いる場合が影響しているものと思われる.前述のとおり既に推定された指示性を用いる場合は,学習においては正解の指示性を用い,表\ref{tab:kanshi_m1},表\ref{tab:kanshi_m2}での解析において精度を求める際には正解の指示性ではなく推定された指示性を用いている.学習セットで式(\ref{eq:ml1})の議論をする場合は学習で行なった条件での精度を見る必要がある.このため,学習セットでの解析精度を出すときにも学習時と同様正解の指示性を用いることにして精度を求めると,全指示性での正解率は機械学習1で88.1\%,機械学習2で87.5\%であった.この数値ならば,機械学習1の方で式(\ref{eq:ml1})を大きくするように学習するということと矛盾しない.}\footnote{ここで頻度をそろえることが式(\ref{eq:ml2})を最大にするように学習していることになると述べているが,厳密には証明が必要であろう.(実験的な確認は一つ前の脚注によっている.)事例の頻度の調整は付録\ref{sec:me}の式(\ref{eq:constraint})や式(\ref{eq:entropy})で事例で和をとっている部分に対して影響が出ると思われるが,厳密に理論をつめていない.このあたりの証明は理論よりの研究者にゆだねたい.}.機械学習2の実験結果を表\ref{tab:kanshi_m2},表\ref{tab:turu_m2}に示す.ただし,機械学習2と同様,前述の規則(c),(d)のような既に推定された指示性を用いる場合は,学習においては正解の指示性を用い,精度を求める際には正解の指示性ではなく推定された指示性を用いている.機械学習2のテストセットの指示性全体での精度では,69.1\%であった.これは人手ルールベースでの68.9\%とほぼ同じ値である.次に各指示性での精度を見てみると,機械学習2ではそれほど均等ではないがおおよそ70\%前後に集まっていることがわかる.一番悪い総称名詞句でも63.8\%の精度を出していることから,機械学習2の方法をとれば,指示性を均等な精度で解析できることがわかった.整理すると本研究において以下のことがわかったことになる.\begin{itemize}\item機械学習の方法により,規則の競合の解消に用いる得点を人手でふる必要性がなくなる場合がある.\item分類に均等な精度が得られていない場合には,学習データでの各分類の頻度を均等にすることである程度分類に均等な精度にできる場合がある.\end{itemize}以上の結果のように機械学習の手法を用いることで,規則の競合の解消用の得点を人手で調整する必要がなくなって,人手のコストが軽減できる場合があることがわかった.しかし,本研究で行なったことはまだ規則の競合の解消だけであり,規則の条件部分,つまり,どのような表現が手がかりとして有効かの部分の抽出は人手にゆだねられたままである.今後はどのような表現が手がかりとして有効かを調査する部分も自動化する方法を模索する予定であるが,有効な手がかりの抽出は難しい問題でこの部分だけは人手に頼らざるをえないのではないかとも考えている.次に機械学習2において最大エントロピー法を用いて規則にふった値について考察する.86個の規則のうち主要なものについて以下で考察する.それぞれ規則とも,条件部,人手で付与した得点,機械学習2によって付与した値の順で示している.\begin{enumerate}\item不定名詞句に関わる規則\begin{itemize}\item名詞句につく助詞が「が」である時,\\\mbox{\{\mbox{不定名詞句}(12)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\\\mbox{\{\mbox{不定名詞句}\,0.62,\,\mbox{定名詞句}\,0.21,\,\mbox{総称名詞句}\,0.17\}}助詞「が」つくと不定名詞句の傾向があるが,機械学習2による値でもその傾向が反映されている.また,0.99のような極端に大きい値でないことから,その傾向がそれほど強くないということも示している.また,「が」がつくと総称名詞句の可能性が低いがその傾向も示されている.\item名詞句の修飾語が連体詞「ある」である時,\\\mbox{\{\mbox{不定名詞句}(12)\,\mbox{定名詞句}(00)\,\mbox{総称名詞句}(00)\}}\\\mbox{\{\mbox{不定名詞句}\,0.99,\,\mbox{定名詞句}\,0.0001,\,\mbox{総称名詞句}\,0.0001\}}連体詞「ある」がつくときはほぼ不定名詞句だろうと考え,人手で付与した「可能性」は不定名詞句以外を0にしていたが,機械学習2による値でも不定名詞句以外の値が0.0001と極めて小さく上記の傾向がしっかりと得られている.連体詞「ある」と同様に,判定詞「だ」がつく場合,数詞がつく場合も不定名詞句の値が極端に高く,これらの表現により不定名詞句になりやすいことが機械学習2によっても正しく求めることができることがわかる.\item普通名詞である時,\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(10)\,\mbox{総称名詞句}(10)\}}\\\mbox{\{\mbox{不定名詞句}\,0.72,\,\mbox{定名詞句}\,0.15,\,\mbox{総称名詞句}\,0.14\}}この規則は他の規則が適用されないとき,つまり手がかりとなる表現がないときに不定名詞句であると推定するデフォルトの規則である.機械学習2により得られた値も不定名詞句が幾分大きな値を持つということで,適切にデフォルトの規則の役割を果たしていると思われる.\end{itemize}\item定名詞句に関わる規則\begin{itemize}\item解析する名詞句が代名詞の場合,\\\mbox{\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(00)\}}\\\mbox{\{\mbox{不定名詞句}\,0.005,\,\mbox{定名詞句}\,0.99,\,\mbox{総称名詞句}\,0.005\}}代名詞の場合はほぼ定名詞句だろうと考え,人手で付与した「可能性」は定名詞句以外を0にしていたが,機械学習2による値でも定名詞句以外の値が極めて小さく上記の傾向がしっかりと得られている.\item「は」か「が」がついた定名詞句を含む節が係る場合,\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(11)\}}\\\mbox{\{\mbox{不定名詞句}\,0.19,\,\mbox{定名詞句}\,0.61,\,\mbox{総称名詞句}\,0.19\}}単に「は」か「が」がついた定名詞句を含んでいるだけでは限定修飾になるとは限らないが,それでもそういう表現があると限定修飾になりやすく定名詞句になる傾向が強いと考えられるが,実際の値もそのような傾向(完全に定名詞句というわけではないが定名詞句の可能性が高い)に沿ったものとなっている.\item直前の五つの文のどれかに同じ名詞句が既に現れており,その名詞句の指示性が「不定名詞句」の場合,\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(10)\}}\\\mbox{\{\mbox{不定名詞句}\,0.07,\,\mbox{定名詞句}\,0.88,\,\mbox{総称名詞句}\,0.05\}}同一名詞句が既出の場合は,それを指示することが多く指示性は定名詞句になりやすいが,機械学習2の値はその傾向に沿ったものとなっている.\end{itemize}\item総称名詞句に関わる規則\begin{itemize}\item修飾語を持たない名詞句で,うしろにつく助詞が「は」である時,\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(11)\}}\\\mbox{\{\mbox{不定名詞句}\,0.03,\,\mbox{定名詞句}\,0.26,\,\mbox{総称名詞句}\,0.71\}}助詞「は」は旧情報の定名詞句と総称名詞句につきやすい表現として人手の得点ではそれぞれに1点ずつ与えるものを作成していた.機械学習2の値でも,定名詞句と総称名詞句の値が大きくその傾向はある.しかし,総称名詞句の値の方が大きくなっている.定名詞句を推定する他の規則が多くあるため,助詞「は」で手がかりが少ないときに総称名詞句と判定できるようになっているものと思われる.\item名詞句につく助詞が「は」で述語が形容詞の時,\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(14)\}}\\\mbox{\{\mbox{不定名詞句}\,0.13,\,\mbox{定名詞句}\,0.80,\,\mbox{総称名詞句}\,0.07\}}人手で作成した規則では総称名詞句になる可能性が高いとしていたが,機械学習2での値は定名詞句が大きいものとなっている.これは学習データの不足による機械学習2での推定ミスか,一つ上の規則などの他の規則との兼ね合いでこの規則では総称名詞句よりも定名詞句を重視するということになっているのか,もともとの人手での得点が良くなかったかのいずれかによると思われる.もし,学習データの不足であればデータを増やすことで改善が期待できる.\item名詞句に続く助詞が「とは」か「というのは」の時,\\\mbox{\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(10)\,\mbox{総称名詞句}(12)\}}\\\mbox{\{\mbox{不定名詞句}\,0.05,\,\mbox{定名詞句}\,0.05,\,\mbox{総称名詞句}\,0.90\}}助詞「とは」「というのは」が続く場合は,なんらかの概念について説明するということで総称名詞句になることが多いが,その傾向が反映されている.\item述語に総称副詞(例:「いつも」「一般に」「伝統的に」「昔は」「〜では」)などがかかる文中の語の時\footnote{この規則の条件部には多くの総称副詞を``or''の形で人手で列挙している.つまり,ここであげた総称副詞のどれが出現してもこの規則が適用されるように規則の抽象化がなされている.機械学習では,小量の学習データでも学習できるようにいかに抽象化した規則を獲得していくかが問題であるが,この規則の場合その規則の抽象化を人手で行なっているということになる.(例えば,森らのコーパスベースの形態素解析の研究\cite{mori_nlp98}では複数の形態素をまとめたクラスというものを用いることで情報の抽象化を実現し精度向上を行なっている.)今後,指示性の問題で規則の条件部も機械学習により獲得しようと思えば,この抽象化を考慮する必要があるということをこの規則が物語っている.},\\\mbox{\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(12)\}}\\\mbox{\{\mbox{不定名詞句}\,0.02,\,\mbox{定名詞句}\,0.09,\,\mbox{総称名詞句}\,0.89\}}この場合,総称副詞により総称名詞句になりやすいがその傾向が表れている.\end{itemize}\end{enumerate}以上のように機械学習2により得られた値は,人手でふった数値とほぼ同じ傾向のものであり,かつ,言葉に対する直観的な理由づけに沿ったものとなっている. \section{おわりに} label{sec:end}本研究では,名詞句の指示性の推定における規則の競合解消のため,人手で付与していた得点づけを,機械学習で自動化することに成功した.このことにより,規則の競合解消のために人手のコストを払う必要がないことになった.また,機械学習においては,学習データでの頻度を分野ごとに均等にすることで,解析結果の精度も分野ごとに均等にできる場合があることがわかった.また,機械学習によって得られた各規則に付与する値を考察し,これらの値が言語学的な理由づけとも矛盾しないことを確認した.しかし,本研究で行なったことはまだ規則の競合の解消を自動化しただけであり,規則の条件部分の抽出,つまり,どのような表現が手がかりとして有効かの特定の部分は人手にゆだねられたままである.現在の指示性の推定精度は70\%程度とそれほど高くなく精度向上を図る必要があるが,この精度向上には手がかりとなる表現を増やしていくことが不可欠である.そういう意味でもどのような表現が手がかりとして有効かを抽出する部分も自動化する必要性は大きい.今後,有効な表現を自動的に抽出する方法を模索する予定ではあるが,有効な手がかりの抽出は難しい問題でこの部分だけは人手に頼らざるをえないのではないかとも考えている.\appendix \section{最大エントロピー法(文献\protect\cite{uchimoto:nlp99}より)} label{sec:me}本付録では読者の便を考え最大エントロピー法について説明している.本付録の最大エントロピー法の説明は文献\cite{uchimoto:nlp99}での説明を一部改変のうえそのまま引用している.一般に確率モデルでは,文脈(観測される情報のこと)とそのときに得られる出力値との関係は既知のデータから推定される確率分布によって表される.いろいろな状況に対してできるだけ正確に出力値を予測するためには文脈を細かくする必要があるが,細かくしすぎると既知のデータにおいてそれぞれの文脈に対応する事例の数が少なくなりデータスパースネスの問題が生じる.最大エントロピー法では,文脈は素性と呼ばれる個々の要素によって表され,確率分布は素性を引数とした関数として表される.そして,各々の素性はトレーニングデータにおける確率分布のエントロピーが最大になるように重み付けされる.このエントロピーを最大にするという操作によって,既知データに観測されなかったような素性あるいはまれにしか観測されなかった素性については,それぞれの出力値に対して確率値が等確率になるようにあるいは近付くように重み付けされる.このため最大エントロピー法はデータスパースネスに強いとされている.このモデルは例えば言語現象などのように既知データにすべての現象が現れ得ないような現象を扱うのに適したモデルであると言える.以上のような性質を持つ最大エントロピー法では,確率分布の式は以下のように求められる.文脈$b(\in$$B)$で出力値$a(\in$$A)$となる事象$(a,b)$の確率分布$p(a,b)$を最大エントロピー法により推定することを考える.文脈$b$は$k$個の素性$f_j(1\leqj\leqk)$の集合で表す.そして,文脈$b$において,素性$f_j$が観測されかつ出力値が$a$となるときに1を返す以下のような関数を定義する.{\small\it\begin{eqnarray}\label{eq:f}g_{j}(a,b)&=&\left\{\begin{array}[c]{l}1\(exist(b,f_{j})=1\\&\出力値=a)\\0\(それ以外)\end{array}\right.\end{eqnarray}}これを素性関数と呼ぶ.ここで,$exist(b,f_j)$は,文脈$b$において素性$f_j$が観測されるか否かによって1あるいは0の値を返す関数とする.次に,それぞれの素性が既知のデータ中に現れた割合は未知のデータも含む全データ中においても変わらないとする制約を加える.つまり,推定するべき確率分布$p(a|b)$による素性$f_j$の期待値と,既知データにおける確率分布$\tilde{p}(a,b)$による素性$f_j$の期待値が等しいと仮定する.これは以下の制約式で表せる.{\small\it\begin{eqnarray}\label{eq:constraint}\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)g_{j}(a,b)\=\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\\\for\\forallf_{j}\(1\leqj\leqk)\nonumber\end{eqnarray}}ここで,$\tilde{p}(b)$,$\tilde{p}(a,b)$は,$freq(b)$,$freq(a,b)$をそれぞれ既知データにおける事象$b$,$(a,b)$の出現頻度として以下のように推定する.{\small\it\begin{eqnarray}\tilde{p}(b)&=&\frac{freq(b)}{\displaystyle\sum_{b\inB}freq(b)}\\\tilde{p}(a,b)&=&\frac{freq(a,b)}{\displaystyle\sum_{a\inA,b\inB}freq(a,b)}\end{eqnarray}}次に,式(\ref{eq:constraint})の制約を満たす確率分布$p(a,b)$のうち,エントロピー{\small\it\begin{eqnarray}\label{eq:entropy}H(p)&=&-\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)\log\left(p(a,b)\right)\end{eqnarray}}を最大にする確率分布を推定するべき確率分布とする.これは,最も一様な分布となる.このような確率分布は唯一存在し,以下の確率分布$p^{*}$として記述される.{\small\it\begin{eqnarray}\label{eq:p}p^{*}(a|b)&=&\frac{\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}{\sum_{a\inA}\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}\\&&(0\leq\alpha_{a,j}\leq\infty)\nonumber\end{eqnarray}}ただし,{\small\it\begin{eqnarray}\label{eq:alpha}\alpha_{a,j}&=&e^{\lambda_{a,j}}\end{eqnarray}}であり,$\lambda_{a,j}$は素性関数$g_{j}(a,b)$のパラメータである.このパラメータは文脈$b$のもとで出力値$a$となることを予測するのに素性$f_{j}$がどれだけ重要な役割を果たすかを表している.訓練集合が与えられたとき,パラメータの推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra95}などが用いられる.学習コーパスから実際に式(\ref{eq:p})の確率分布を求めるために,われわれはRistadのツール\cite{ristad98}を使っている.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V13N03-03
\section{はじめに} 自然言語は,多様性・曖昧性,規則性と例外性,広範性・大規模性,語彙・文法の経時変化などの性質を持っている.自然言語解析システムは,これらの性質をアプリケーションが要求するレベルで旨く扱う必要がある.なかでも多様性・曖昧性への対応,すなわち,形態素,構文,意味,文脈などの各種レベルにおける組合せ的な数の曖昧性の中からいかにして正しい解釈を認識するかがシステム構築上,最も重要な課題である.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/COM自然言語解析システムのモデル.eps,scale=0.7}\end{center}\myfiglabelskip\caption{自然言語解析システムのモデル}\label{fig:NLAnalysisModel}\end{figure}一般に自然言語解析システム(以下システムと省略する)は,入力文に対して可能な解釈の仮説を生成し({\bf仮説生成知識}の適用),ありえない仮説を棄却したり({\bf制約知識}の適用),仮説に対する順位付けを行ったり({\bf選好知識}の適用)することで,入力文に対する解析結果(文解釈となる構造)を求める.図\ref{fig:NLAnalysisModel}がこのモデルを示している.文の解釈は,仮説記述体系により規定される仮説空間に存在し,それぞれが実世界において,正解解釈(◎:correct),可能解釈(○:plausible),不可能解釈(×:implausible)に分類できる.仮説生成知識が可能な仮説集合を生成する.制約知識は仮説空間内の仮説が可能か不可能かを弁別し,選好知識は仮説空間内の仮説の順位付けを行う\footnote{制約知識は可能性ゼロの選好知識ともいえる.但し,制約知識の適用は解釈の枝仮りであり計算機処理の観点からは大きな差異がある.}.仮説生成・制約知識は,システムが受理可能な文の範囲,すなわち,システムの対象文カバレッジを規定する.仮説生成・制約・選好知識は,形態素,構文,意味といった各レベルにおいて存在し,システムの性能はこれらの総合として決定されると考えられる.例えば,各レベルの選好知識がそれぞれ異なった解釈を支持するという競合が生じるため,精度良く文解釈を行うにはこれらを総合的に判断する必要がある\cite{Hirakawa89a}.このように,システム設計においては,「生成\footnote{簡略のため「仮説生成知識」を単に「生成知識」と表現する.}・制約・選好知識をどのように扱うか」({\bf知識適用の課題}),「多レベルの知識をどのように融合するか」({\bf多レベル知識の課題})という2つの課題が存在する.生成・制約知識は,正文と非文とを弁別(あるいは,正文のみを生成)する,いわゆる,言語学の文法知識に相当する.従来,言語学からの知見を活用しながら計算機処理を前提とした各種の文法フレームワークが研究されてきている.文法フレームワークは,文の構造解釈を記述する解釈構造記述体系を基盤として構築されるが,これらには,句構造,依存構造,意味グラフ,論理式など様々ものが提案されている.一方,選好知識については意味プリファレンスの扱い\cite{Wilks75}を始めとして古くから多くの研究がなされているが,音声認識処理から自然言語処理への導入が始まった統計的手法が,単語系列から文脈自由文法,依存文法などへと適用範囲(解釈記述空間)を拡大・発展させ,広くシステムに利用されるようになってきている.例えば,句構造をベースの枠組みとして,文脈自由文法,LFG\cite{Kaplan89,Riezler02},HPSG\cite{Pollard94,Tsuruoka04},CCG\cite{Steedman00,Clark03}など\footnote{解析結果として依存構造を出力したりする場合もあるが,ここでは解析のベースとなっている解釈記述空間で分類している.},また依存構造をベースとした枠組みとして,確率依存文法\cite{Lee97},係り受け解析\cite{Shudo80,Ozeki94,Hirakawa01,Kudo05_j},制約依存文法(以降CDGと記述する)\cite{Maruyama90,Wang04},LinkGrammar\cite{Sleator91,Lafferty92}など文法フレームワークと統計手法の融合が広範に行われている.このように,文法フレームワークの研究は,生成・制約知識を対象とした研究から統計ベースの選好知識の扱いへと進展し,統計的手法は語系列,句構造,依存構造へと適用範囲を拡大し融合され,生成・制約・選好知識全体の統合のベースが整ってきている.多レベルの知識の融合という観点では,基本的に単一の解釈記述空間に基づくアプローチと複数の解釈記述空間に基づくアプローチがある.単一の文脈自由文法,依存文法などは前者の典型である.DCG\cite{Pereira80}やBUP\cite{Matsumoto83}などは文脈自由文法をベースにしているが,拡張条件が記述可能であり,例えば意味的な制約といった異レベルの知識を句構造という1つの解釈記述空間をベースとしながら融合することができる.CDGでは依存構造をベースにして構文的な制約を含む任意の制約条件を単項制約,2項制約という枠組みで記述できるようにしている\cite{Maruyama90}.LFGは,c-structure(句構造)とf-structure(機能構造)の2種類のレイヤを有し機能スキーマにより機能構造に関する制約条件が記述可能である\cite{Kaplan89}.また,統計ベースのアプローチにおいては,句構造情報だけではなく句のヘッドやその依存関係情報の利用が有効であることが判明し,句構造情報と依存構造情報を統合判断するモデルが利用されている\cite{Carroll92,Eisner96b,Collins99,Charniak00,Bikel04}.PDGは,複数の解釈記述空間に基づくアプローチを取っており,後に述べるように複数の解釈記述空間で対応付けられた圧縮共有データ構造をベースに多レベルの知識の融合を行っている.本稿では,PDGのモデル・概要について述べた後,PDGで採用している句構造と依存構造という2種類の中心的共有データ構造であるヘッド付き統語森(HPF:HeadedParseForest),依存森(DF:DependencyForest)について構築法を示し,それらに完全性と健全性が成立することを示す.また,例文解析実験により,PDGの振る舞いや特徴についても考察を加える. \section{選好依存文法(PDG)の概要と圧縮共有データ構造} \subsection{多レベル圧縮共有データ結合モデル}\begin{figure}[b]\begin{center}\epsfile{file=13-3ia3f2.eps}\end{center}\myfiglabelskip\caption{多レベル圧縮共有データ結合モデル}\label{fig:MultilevelPSDataConnectionModel}\end{figure}PDGは,自然言語の曖昧性・多義性の問題に焦点をあてて設計された形態素・構文・意味レベルの文解析を行うフレームワークである.ターゲットとしている課題は,\mygapskip\begin{itemize}\item[(a)]組み合わせ爆発の回避\item[(b)]生成・制約・選好知識の適切な扱い\item[(c)]多レベル知識のモジュラリティと統合\end{itemize}\mygapskip{\mynoindent}である.この課題に対して,図\ref{fig:MultilevelPSDataConnectionModel}に示す多レベルの圧縮共有データを結合した方式({\bf多レベル圧縮共有データ結合モデル})に基づく解析方式を採用している.各レベルは,入力文に対するそれぞれの解釈記述空間における言語解釈の全てを圧縮共有データ構造の形式で保持する.入力文に近い側を下位,出力に近い側を上位レベルと呼ぶ.各レベルの各解釈は上位・下位のレベルの解釈との対応が取られており(図\ref{fig:MultilevelPSDataConnectionModel}の「対応」でマークした点線),本稿では,これを{\bf解釈リンケージ}と呼ぶ.多レベル圧縮共有データ結合モデルでは,下位レベルの解釈はより上位のレベルの解釈を内包しており,入力文は,全ての解釈を内包している.各レベルにおいて,それぞれ生成・制約・選好知識が存在する.生成知識は,1つ下位のレベルの解釈から現在のレベルの解釈を生成(外延化)する(図\ref{fig:MultilevelPSDataConnectionModel}の$\longmapsto$矢印).制約知識は,現在のレベルの解釈を制限し,選好知識は,現在のレベルの解釈の優先度を設定する.このモデルにより,PDGは次の実現を狙っている.\begin{itemize}\item[(a)]句構造,依存構造等の複数のデータ構造(言語知識の記述ベース)を利用して,形態素,構文,意味の多レベルの知識をモジュール独立性良く扱う.\item[(b)]各レベルで圧縮共有型のデータ構造を用意し各レベルでの全曖昧性を効率良く保持することで基本的に枝刈りをしないで組合せ爆発を抑制する.\item[(c)]入力文から最上位レベルまでの解釈リンケージによりマルチレベルの選好知識(選好スコア)を統合し,精度向上を図る.\item[(d)]文解釈となる依存木を圧縮共有した選好スコア付き圧縮共有データ構造から制約と選好を組み合わせた最適解探索手法により最適解を探索する.\end{itemize}{\mynoindent}一般に各レベルの解釈の内で制約知識を満足する解釈を整合解釈(well-formedinterpretation)と呼ぶ.最適解釈の探索は各レベル毎に定義可能であり,各レベルの選好知識を利用して,そのレベルの最適解釈を取り出すことができる.先に述べたように文解析の深さ,出力をどうするかはアプリケーションが基本的に規定する事項である.例えば,同じ機械翻訳でも文の構造表現として同属言語の場合は句構造表現がよいが,語族が違うと依存構造表現が適切であったりする.また,解釈リンケージを利用することにより,上位レベルで最適な解釈を選択し,その解釈に対応する下位レベルの解釈を下位レベルの最適解釈として取り出す方法も考えられる.例えば,意味解析結果として最適な解釈に基づいたタガーなどが自然に実現できる.\subsection{選好依存文法(PDG)のモデル}\begin{figure}[b]\begin{center}\epsfile{file=13-3ia3f3.eps}\end{center}\myfiglabelskip\caption{PDGの解析モデル}\label{fig:PDGAnalysisModel}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=\myfigdir/COM_PDGの圧縮共有データ構造.eps,scale=0.8}\end{center}\myfiglabelskip\caption{PDGの圧縮共有データ構造}\label{fig:PDGPackedSharedDataStructures}\end{figure}PDGの全体モデルを図\ref{fig:PDGAnalysisModel}に示す.{\bf語品詞トレリス}\footnote{単語と品詞の組を語品詞(WPP:WordPosPair)と呼ぶ.単語timeは``time/v'',``time/n''等の語品詞を持つ.},{\bfヘッド付き統語森},{\bf機能依存森},{\bf意味依存森}の4つの圧縮共有データ構造により,それぞれ,語品詞系列,構文木(句構造),機能依存木,意味依存木の解釈の集合を保持する.それぞれを計算する処理を形態素解析,構文解析,構造生成,意味構造化と呼ぶ.各レベルのデータ構造の概要を図\ref{fig:PDGPackedSharedDataStructures}に示す.PDGでは,単語に対する解釈のレベルとして単語,語品詞,{\bf語彙概念}の3階層を採用し,各語に語彙情報として付与されていると想定している.語品詞トレリスは語品詞の隣接関係の解釈を表現する語品詞系列を保持する.ヘッド付き統語森は,後に述べるが,語や句のカテゴリの下位範疇化(あるいは系列関係)を表現する構文解析木を保持する.句構造頻度の選好知識,数の一致などの構文的制約など記述できる\footnote{数の一致などの制約を依存木のレベルで記述することも可能であり,両者で記述してもかまわない.それは実際の文法知識設計の課題である.一般的には制約知識は可能な限り下位のレベルで処理することが無駄な仮説生成の抑制に繋がるため効率的である.}.機能依存森は語品詞間の機能依存関係を表現する機能依存木を保持し,意味依存森は語彙概念間の意味関係を表現する意味依存木を保持する.以下では簡略のため単に依存森と表記した場合は,機能依存森を示す.各レベルのデータ構造に対してそれぞれの選好知識により優先度を与え,これをデータ構造間の対応関係(解釈リンケージ)を通じて統合し,最終的には,最適解釈探索により最も確からしい解釈(意味依存木)が計算される\cite{Hirakawa05d_j}.現在,依存森のレベルまでの処理システムが試作されており,最適解釈探索も依存森に対して行われ依存木を出力するモデルとなっている.意味依存森レベルは今後の課題とし,以下本稿では依存森までのモデルを対象とする.多レベル構成により他のレベルの知識を活用することが可能となる.例えば,依存関係をベースとした単一レベル圧縮共有構造モデルであるCDGは,基本的に全てのノード間に全ての依存関係(仮説)を生成してeliminativeparsingを行う.解釈の枝刈りを行わないという優れた利点があるが生成解釈数が多く効率面で問題があり,改善手法が提案されている\cite{Harper99}.PDGでは依存構造に対して全可能性を有する依存森を生成するが,これは下位レベルの統語森中の解釈\footnote{文脈自由文法により生成され句構造レベルの制約知識により絞り込まれた構文木}のみから派生する依存木であり,句構造レベルの知識の活用による効率化が行える.また,後述するが,句構造の記述体系を利用することにより,non-projectiveな依存構造を導入可能となり,依存構造としての記述能力の向上にもつながっている.以上のようにPDGでは,多レベルの圧縮共有データ構造が重要な役割を果たしている.以下では,PDGの共有データ構造であるヘッド付き統語森,依存森について説明してゆく.\subsection{圧縮共有データ構造の要件}\label{sec:PrerequisitesForPackedSharedDataStructure}多レベル圧縮共有データ結合モデルにおける圧縮共有データ構造には次の性質が必要である.\begin{itemize}\item[(a)]各レベルで組合せ爆発が起こらない\item[(b)]各種レベルの曖昧性を過不足なく表現できる\item[(c)]各レベルでの知識記述のベースとして適切である\item[(d)]各種レベル間の解釈リンケージが取れる\end{itemize}(a)は,実システムを構築する際に特に重要な課題である.一般に解釈の組合せ展開を行うと直ぐに扱いが困難になり,また,計算時間的にも不十分となる.(b)は,多レベルの知識を扱う場合に,各レベルの曖昧性を全て過不足なく表現できること,すなわち共有構造そのものに由来する解釈の枝刈り(あるべき解釈の欠落)や解釈の過生成(あるべきでない解釈の生成)が起こらないという性質である.この性質を保持した上でシステム構築上有効な枝刈りを導入できることは重要な好ましい性質である.(c)は,それぞれのレベルでの知識の記述が行いやすいこと,選好知識と制約知識が適切に扱えることであり\cite{Hirakawa02_j},(d)は各レベルの解釈の対応関係を取ることができるという性質である.\begin{comment}\subsection{句構造と依存構造の併用}文解析を精度良く行なうためには様々な知識を利用する必要がある.従来,文の構造を記述する代表的枠組みとして句構造と依存構造がある.句構造は,品詞への抽象化により語や句の順序に関する知識の記述に優れており,依存構造は語の間の種々の依存関係に関する知識の記述に優れている.それぞれの表現レベルでの制約知識・選好知識の記述を自然な形で可能とするため,PDGでは,句構造形式の共有データ構造(ヘッド付き統語森)と依存構造形式の共有データ構造(依存森)をそれぞれ関連付けて組み込んでいる.これは句構造(C-構造)と機能構造(F-構造)という2つの構文レベルの表現を持つLFG\cite{Kaplan89}において,SUBJECT,OBJECTなど構文的機能に関する制約がF-構造で記述され,文法の記述性を高めているのと類似している\footnote{LFGでは,1つの文解釈であるC-構造とそれから作られるF-構造の制約関係などを規定しているが,文に対する可能なC-構造全体とF-構造全体の扱いについては,特に規定していない点がPDGとの基本的違いである.}.なお,Early法,Chart法といった文脈自由文法の解析アルゴリズムを用いて依存文法を直接解析して依存構造を求める手法も提案されている\cite{Mertens02}が,句構造を作らない点で本手法とは異なっている.\end{comment}\subsection{圧縮共有データ構造の従来技術と問題点}\subsubsection{語品詞トレリスと圧縮共有統語森}語品詞トレリスは,全ての語品詞系列を圧縮共有するデータ構造であり,PDGでもそのまま利用する.構文レベルの解析手法としては文脈自由文法をベースにした解析が広く用いられておりPDGもこれを利用する.文脈自由文法で入力文を解析し文の可能な解釈全体を得る手法は広く知られており,例えば,富田により,グラフスタックを用いた構文解析手法と共に文の句構造解釈(構文木)全体を効率的に保持する圧縮共有統語森(PackedSharedParseForest)が提案されている\cite{Tomita87}.圧縮共有統語森中の構文木は,語品詞トレリス中の語品詞系列と対応関係が取れ多レベル圧縮共有データ結合モデルとして利用可能である.\subsubsection{意味係り受けグラフ}文献\cite{Hirakawa02_j}は,{\bf意味係り受けグラフ}を提案し,係り受けの多義(構文的多義)と係り受け意味関係の多義を効率良く保持する手法を提案した.意味係り受けグラフは,ATN文法を用いて句構造解析を行い係り受け関係を表す依存グラフを生成し,そこから意味係り受け関係を表す意味係り受けグラフを生成する.意味係り受けグラフは,修飾語が被修飾語の左に位置する,英語などに比べ品詞多義は殆どないという日本語の特徴を前提に設計されているため,多品詞を扱えないなど英語などに適用できないという汎用性に関する問題を有しており,PDGの圧縮共有データ構造としては採用しない.\subsubsection{構文グラフ/排他マトリックス}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF構文グラフ例.eps,scale=0.79}\end{center}\myfiglabelskip\caption{例文に対する構文グラフと排他マトリックス}\label{fig:KoubunGraph}\end{figure}Seoは,文の句構造解釈全体と対応する依存構造全体を効率良く保持する方法として{\bf構文グラフ}(SyntacticGraph)を提案した\cite{Seo89,Rim90}.構文グラフは,PDGの共有データ構造として有望であったが,大きな問題もありそのまま採用することはできないことが判明した.構文グラフは,単語間の依存関係をベースに文の可能な解釈を圧縮共有する枠組みである.構文グラフは,語品詞に対応するノードとノード間の依存関係を表現する名前付きアークで構成される有向グラフであり,{\bf排他マトリックス}(EM:ExclusionMatrix)と呼ばれるデータと組になって,入力文に含まれる依存構造の集合(文の解釈の集合)を表現する.構文グラフは,3次組(Triple)と呼ばれる,アーク名とその両端のノード(語品詞,表層位置などを持つ)の組からなる集合で表現される.図\ref{fig:KoubunGraph}は,``Timeflieslikeanarrow''に対する構文グラフ/排他マトリックスである.アークの括弧中の番号はそのIDである.1つのノードに入る複数のアークは修飾の曖昧性を表現している.Sは,開始記号に相当する\footnote{本稿では係り受け解析の慣習に従ってアークの方向を記述する.構文グラフとは逆向きであるが本質的な差はない.}.排他マトリックスは,構文グラフを構成するアークを行・列とし,アーク間の共起制約を記述するために導入されている.排他マトリックスの$i$行$j$列が1である場合には,$i$番目と$j$番目のアークは,いかなる解釈(依存木)においても共起しない.構文グラフ/排他マトリックスは,統語森に基づいたデータ構造から生成される.PDGでも同じデータ構造を用いており,これをヘッド付き統語森と呼ぶ.ヘッド付き統語森の詳細は,\ref{sec:datastructure}章で述べる.なお,以下では,単に統語森と言った場合はヘッド付き統語森を意味し,従来の統語森はヘッド無し統語森と記述することとする.文献\cite{Seo89}では,統語森と構文グラフ/排他マトリックス間の完全性(completeness),健全性(soundness)について言及している.完全性は,「統語森中の1つの構文木が存在した時に,構文グラフ/排他マトリックス中にそれに対応する依存木が存在する」という性質であり,健全性は,「構文グラフ/排他マトリックス中の1つの依存木が存在した時に,統語森中にそれに対応する構文木が存在する」という性質である.構文グラフ/排他マトリックスの完全性が成立することは示されているが,健全性については保証されていない.排他マトリックスは,3次組の間の共起関係を規定しているが,ある1つの構文木に対応する依存木が存在した場合,その依存木に含まれる3次組の間の共起排他制約を排他マトリックスから除外するという方法で構成される.排他マトリックスは,全ての依存構造の解釈を規定するため,この除外された共起排他制約が他の全ての解釈(依存木)において制約として必要でない場合にのみ健全性が保証されることになる.付録1に構文グラフで健全性が破綻する例を示す. \section{PDGにおける共有データ構造} label{sec:datastructure}PDGでは,前節で述べた従来手法の問題を解決するデータ保持方式として,文脈自由文法の構文構造の保存方式としてヘッド付き統語森を採用し,依存構造の保存方式として依存森を提案する.\subsection{ヘッド付き統語森}{\bfヘッド付き統語森}は統語森の一種であり,適用された書き換え規則に対応する弧(edge)から構成され,次の条件を満足する構文木を圧縮共有する.\begin{itemize}\item[(a)]句の非終端記号(カテゴリ)が同じ\item[(b)]句の被覆する単語範囲が同じ\item[(c)]句ヘッドとなる主構成素(語品詞)が同じ\end{itemize}(a),(b)の2つがヘッド無し統語森の共有条件である\cite{Schiehlen96}.ヘッド付き統語森中の構文木は,統語森中の構文木と対応が取れる.PDGにおける弧とヘッド付き統語森の具体例は構築アルゴリズムと共に\ref{sec:construction}章で述べる.\subsection{依存森}{\bf依存森}は,{\bf依存グラフ}(DG:DependencyGraph)と{\bf共起マトリックス}(CM:Co-occurrenceMatrix)より成る.以下,依存森の構造と依存木について説明する.\subsubsection{依存グラフと共起マトリックス}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_TimeFliesに対する初期依存森.eps,scale=0.75}\end{center}\myfiglabelskip\caption{``Timeflieslikeanarrow''に対する初期依存森}\label{fig:IDF}\end{figure}図\ref{fig:IDF}は,``Timeflieslikeanarrow''に対する依存森の例である.依存グラフは,語品詞に対応するノードと1つのルートノードrootならびに,ノード間の依存関係を表現する名前付きアークより構成される.依存グラフは,rootをルートノードとする有向グラフであり,実際には,アークとその両端のノードの組からなる{\bf依存片}(dependencypiece)\footnote{依存片とアークは1対1対応するので,特に区別の必要がない場合は依存片をアークと記述する.}の集合として表現する.アークは,アーク名とIDを有す.アークの元側を{\bf依存ノード}(dependentあるいはmodifier),先側を{\bf支配ノード}(governorあるいはmodificand)と呼ぶ.また,ノードには,表層位置などの情報も含まれている.アークの数を{\bf依存森のサイズ}と呼ぶ.また,依存グラフの部分集合で木構造を成すアーク集合が依存木であり,文や句の解釈を表現する.依存グラフは複数の依存木を含む圧縮共有データ構造となっている.共起マトリックスは,アークIDで示されたアーク集合を行と列に取り,アーク間の共起関係を規定する.共起マトリックスCM($i$,$j$)が○の場合に限り,アーク$i$と$j$は1つの依存木(解釈)において共起可能であるという制約を表現する.共起関係は双方向関係であり,CMは対称行列となる.\subsubsection{整依存木}依存森中の依存木のうち次の整依存木条件を満たす依存木を{\bf整依存木}(Well-formedDependencyTree)と呼ぶ.\begin{definition}\label{def:WellFormedDepTree}{\bf整依存木条件}とは,次の3つの条件(a)〜(c)全体をいう.\begin{itemize}\item[(a)]表層位置が同じノードは存在しない({\bf語品詞単一解釈条件})\item[(b)]入力文の単語と,入力文に対応する依存木のノードの間に1対1対応が取れる({\bf被覆条件})\item[(c)]共起マトリックスにおいて共起関係が成立する({\bf整共起条件})\end{itemize}\end{definition}(a)(b)の2つを纏めて{\bf整被覆条件}と呼び,これを満たす木を{\bf整被覆木}(Well-coveredDependencyTree)と呼ぶ.また,(c)を満たす依存木を{\bf整共起依存木}(Well-cooccurredDependencyTree)と呼ぶ.整依存木の集合が入力文に対する解釈の集合となる.図\ref{fig:IDF}の依存森では,「時は矢のように過ぎる」,「時ハエは矢を好む」,「矢のようにハエを計れ」,「矢のようなハエを計れ」に対応する4つの整依存木が存在する.なお,ノード1つからなる依存木(アークが存在しない)も,整依存木として扱う.この場合のみ依存木はノード1つからなる集合となる.\subsubsection{初期依存森と縮退依存森}複数の解釈に対するアークの共有の度合いによって,同じ依存木の集合を表すサイズの異なった複数の依存森を構成可能である.詳細は後述するが,PDGでは,{\bf初期依存森}(InitialDependencyForest)と,それから変換して得られる{\bf縮退依存森}(ReducedDependencyForest)の2種を扱う.それぞれ,{\bf初期依存グラフ}と{\bf初期共起マトリックス},ならびに,{\bf縮退依存グラフ}と{\bf縮退共起マトリックス}よりなる.単に依存森と呼んだ場合は,通常後者を示す.図\ref{fig:IDF}の初期依存グラフは,図\ref{fig:KoubunGraph}の構文グラフと比較すると,``fly/n''と``time/v''の間のアーク数が異なっている.対応する縮退依存森については後述する. \section{統語森と依存森の生成} label{sec:construction}PDGでは,形態素解析,構文解析,統語森・初期依存グラフの生成,縮退依存森導出の順で解析が進む.本稿では,形態素解析処理については省略し,構文解析以降について述べる.\subsection{文法規則}\label{sec:bunpoukisoku}PDGにおいて文法規則は,可能な句構造の定義と,句構造から依存構造へのマッピングとを規定する拡張文脈自由文法(extendedCFG)で記述される.文法規則は,次の形式をしている.\mygapskip{\mynoindent}y/$Y\rightarrow$x$_1$/$X_1$,$\ldots$,x$_n$/$X_n$:[arc($arcname_1$,$X_i$,$X_j$),$\ldots$,arc($arcname_{n-1}$,$X_k$,$X_l$)](0$<i$,$j$,$k$,$l{\leq}n$){\mynoindent}[例]vp/$V\rightarrow$v$/V$,np$/NP$,pp$/PP$:[arc(obj,$NP$,$V$),arc(vpp,$PP$,$V$)]\mygapskip{\mynoindent}規則は,``:''で区切られた{\bf書き換え規則部}と{\bf構造構築部}よりなる.書き換え規則の左辺の``y/$Y$''及び{\bf構成素}(constituent)``x$_i$/$X_i$''は,``{\bf構文カテゴリ}/{\bf構造変数}''を表す.$Y$は{\bf句ヘッド}(phrasehead)と呼ばれ,主構成素(headconstituent)に相当し,{\bf規則ボディ}(rulebody)である``$X_1{\ldots}X_n$''のいずれかと同一となる.構造構築部は,``arc(アーク名,構造変数1,構造変数2)''という形式のアークの集合であり\footnote{部分依存構造はアークの集合であるがプログラムの都合上リスト形式としている.本稿ではプログラム出力等の場合は[]で集合を表現する場合もある.},構造変数には,書き換え規則部の構成要素の句ヘッドとなる語品詞が束縛される.例は,$V$をヘッドとし,objアークで$NP$が,vppアークで$PP$が接続する依存構造を示している.規則中の部分依存構造は,次の部分依存構造条件を満足する整部分依存構造である.\begin{definition}\label{def:DSCondition}{\bf部分依存構造条件}とは次の2つの条件(a),(b)全体をいう.\begin{itemize}\item[(a)]主構成素に対応する句ヘッド$Y$をルートとする木構造である.(非主構成素は,他の構成素と依存関係(アーク)を持つ)\item[(b)]規則ボディの構成素の句ヘッドは,部分依存構造をなす木構造の構造変数と1対1対応が取れる\end{itemize}\end{definition}例文``Timeflieslikeanarrow''を解析するための文法規則と辞書を図\ref{fig:ExampleGrammar}に示す.規則(R0)は,規則ヘッドをroot,規則ボディをスタートシンボル(s)とし,{\bfトップノード}[root]-xを導入する特殊な規則であり,ルート規則と呼ぶ.ルート規則は,統語森のルートとなる弧と依存森のトップノードをそれぞれ1つにするために導入している\footnote{この規則は,PDGの完全性・健全性を保証するだけであれば本質的には不要である.}.\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF例文TimeFlyに対する文法規則.eps,scale=0.84}\end{center}\myfiglabelskip\caption{例文を解析する文法規則と辞書}\label{fig:ExampleGrammar}\end{figure}\subsection{構文解析}\label{sec:konokousei}PDGの構文解析は,本稿では,Bottom-upChartParsingのアルゴリズムをベースに,依存構造の生成が可能となるよう,弧の構成やアルゴリズムを拡張することにより実現している.\subsubsection{弧の構成と例}ChartParsingにおいて,弧は,{\bf始点}(FP),{\bf終点}(TP),{\bf規則ヘッド頂点}(C),{\bf既存構成素列}(FCS),{\bf残り構成素列}(RCS)の5次組$<$FP,TP,C,FCS,RCS$>$から構成される.文法規則のヘッドは,規則ヘッド頂点に,規則ボディは,既存構成素列と残り構成素列に対応し,ドット(・)で規則ボディ内の区切りを表現し,次の例のような形式で図式的に表現される.$<$0,1,s$\rightarrow$np・vppp$>${\mynoindent}この弧は,文法規則``s$\rightarrow$npvppp''から生成される例であり,FP=0,TP=1,C=s,FCS=[np],RCS=[vp,pp]である.また,入力単語に対する辞書の検索結果は,次の例のように,品詞をヘッドとし、単語をボディとする不活性弧として表現される.$<$0,1,n$\rightarrow$[time]・$>$\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF弧の構成と例.eps,scale=0.85}\end{center}\myfiglabelskip\caption{弧の構成と例}\label{fig:ArcStructure}\end{figure}PDGの構文解析では,文法規則の部分依存構造に対する処理と複数の弧の圧縮共有処理の2点で拡張を行っている.依存構造構築のため,通常のChartParsingの弧に句ヘッド(PH)と部分依存構造(DS)を追加しており,模式的に示すと次のようになる.通常の弧:$<$0,1,s$\rightarrow$np・vppp$>$PDGの弧:$<$0,1,s/PH$\rightarrow$np/NP・vp/PHpp/PP:DS$>${\mynoindent}\ref{sec:bunpoukisoku}節で述べたように,PHが句ヘッド(ノード),DSが部分依存構造(アーク集合)を示す.また,詳細は後述するが,不活性弧については圧縮共有を行うため,複数の弧を1つに纏めた{\bf圧縮弧}というデータ構造を利用する.圧縮弧は,既存構成素列(FCS)と部分依存構造(DS)の部分を,それぞれのリストに拡張したものである.圧縮弧に対して,1つの構成素列と部分依存構造を持つ弧を{\bf単一弧}と呼ぶ.圧縮弧は,共有可能な単一弧の集合と等価である.次にこれらの対応関係を模式的表現で例示する.単一弧:$<$0,5,s/PH$\rightarrow$np/NPvp/PHpp/PP・:DS1$>$$<$0,5,s/PH$\rightarrow$np/NPvp/PH・:DS2$>$圧縮弧:$<$0,5,s/PH$\rightarrow$[[np/NPvp/PHpp/PP],[np/NPvp/PH]]・:[DS1,DS2]$>${\mynoindent}この例で,PHは句ヘッド,[np/NPvp/PHpp/PP],[np/NPvp/PH]は構成素列,DS1,DS2は部分依存構造を示している.以下では簡便のため,圧縮弧は``E'',``$<$E${\ldots}>$'',「弧E」などで,単一弧は``e'',``$<$e${\ldots}>$'',「弧e」などで示す.曖昧でない場合や区別が必要でない場合などは単に「弧」とも記述する.また,不活性弧は,記号の前に*をつけて表現する.弧*Eは不活性圧縮弧,弧*eは不活性単一弧を示す.以下で示すPDGの構文解析は,圧縮弧のデータ形式で行われる.図\ref{fig:ArcStructure}に圧縮弧の構成を示す.圧縮弧は8次組で構成されている.FCSLとDSLは同じ長さのリストであり,i番目の要素を取り出した(FCS$_i$,DS$_i$)を{\bfCSDSペア}と呼ぶ.CSDSペアは,上記の単一弧に対応している.図\ref{fig:ArcStructure}の弧E1〜*E3は,名詞句規則に対応する弧が解析が進むにつれて生成されてゆく例である.弧*E3は,``anarrow''をnpとして解釈し,部分依存構造として\{arc(det-14,[an]-det-3,[arrow]-n-4)\}を持つ不活性弧(RCSが[])である.[arrow]-n-4は,単語[arrow],品詞n,位置4のノードである.弧*E4は,複数の解釈を持つ弧の例である.FCSLの2要素とDSLの2要素がそれぞれ対応し,([103,169]\{obj-25\}])\footnote{obj-25は略記であり,実際はarc(obj-25,[flies]-n-1,[time]-v-0)である.}と([103,119,165]\{obj-4,vpp-20\})の2つのCSDSペアが存在している.弧@E5のような,辞書引きにより生成される不活性弧は{\bf語彙弧}(lexicaledge)と呼ぶ.語彙弧の部分依存構造は,ノード1つからなる集合である.語彙弧は@をつけて@E,@eの様に表現する.\subsubsection{構文解析アルゴリズム}\begin{figure*}[b]\begin{center}\epsfile{file=\myfigdir/DFパースアルゴリズム.eps,width=\textwidth}\end{center}\myfiglabelskip\caption{PDGボトムアップチャートパージングアルゴリズム}\label{fig:ChartAlgotithm}\end{figure*}図\ref{fig:ChartAlgotithm}にPDGの構文解析アルゴリズムを示す.基本構成は,Agendaを用いた一般的なChartParsingアルゴリズム\cite{Winograd83}であり,先頭から順次入力単語を語彙弧化してAgendaに追加処理する処理((a),(b))とAgendaが空になるまでAgenda中の不活性弧に対して文法規則ならびにChart中の活性弧から可能な弧を生成・展開する弧の{\bf結合}の処理((e),(f))より成る.Agenda中の弧は,Chart中の弧と共有可能かどうかが判定され((c),(j)),共有可能な場合はマージされる((d))ことにより,圧縮共有が行なわれる.基本的に一般的なアルゴリズムであり,詳細な説明は省略するが,次にPDG特有の依存構造の構築の部分について説明する.本アルゴリズムは,弧を生成しながら弧の部分依存構造を構築する.これは句ヘッド(ノード)と依存構造中の構造変数を束縛することで実現される.この変数束縛は,不活性弧と文法規則から新しい弧が生成される時点((g)),ならびに,不活性弧とChart中の活性弧により新しい弧が生成される時点((h)),すなわち弧の結合が生じる時点で,bind\_varにより不活性弧の句ヘッドが他方の弧の残り構成素列の先頭の構造変数に束縛されることで行なわれる.さらに,この変数束縛により依存ノードと支配ノードの両方が束縛されたアーク({\bf確定アーク}と呼ぶ)に対して,add\_arcidによりユニークなアークIDが付与される((i)).図\ref{fig:ArcStructure}の弧E2の変数\$2にノード[arrow]-n-4が束縛されると弧*E3になる.それぞれの弧は弧IDで関連付けられており,弧からその下位の弧(構成要素に対応)を順次辿れる.図\ref{fig:ArcStructure}の弧*E3では,弧\#160(弧IDが160の弧)は,``np$\rightarrow$det,n''の規則から生成された弧であり,既存構成素列[153,156]は,弧\#153が文法規則中の構成素detに,弧\#156が構成素nに対応することを示している.また,弧*E4のように複数の既存構成素列を持つ弧は,merge\_csds((d))により生成される.構文解析に成功した場合には,Chartには句ヘッドが[root]-xで文全体を被覆する不活性弧が1つ存在する.これを{\bfルート弧}(rootedge)と呼ぶ.\subsection{統語森・初期依存森の生成}\label{sec:PFandDFseisei}構文解析後のChartは,活性弧,不活性弧より成る.この集合に対して,不活性弧*Eから辿れる弧の集合をhpf(*E)と記述する.ルート弧を*E$_{root}$とした時,統語森はhpf(*E$_{root}$)となる.ルート弧から到達できない不活性弧も存在するため,hpf(*E$_{root}$)はChart中の不活性弧全体の部分集合となる.初期依存グラフは,統語森中のアークの集合であり,hpf(*E$_{root}$)と同時に求められる.また,初期共起マトリックスも同時に求められる.図\ref{fig:HPF_IDF_Algorithm}に統語森・初期依存森を求めるアルゴリズム,また,図\ref{fig:PDGParseForest}に,図\ref{fig:ExampleGrammar}の文法を用いて例文を構文解析した結果得られる統語森を示す.統語森を構成する全ての弧は不活性弧であるため,残り構成素列([])は省略している.なお,統語森の圧縮弧の数を{\bf統語森のサイズ}と呼ぶ.弧の同一性において句ヘッドを考慮しているため(図\ref{fig:ChartAlgotithm}(j))ヘッド付き統語森のサイズは,ヘッド無し統語森のサイズ以上となる.\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF統語森依存森アルゴリズム.eps,scale=0.82}\end{center}\myfiglabelskip\caption{統語森・初期依存森を求めるアルゴリズム}\label{fig:HPF_IDF_Algorithm}\end{figure}\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DFヘッド付き統語森.eps,scale=0.95}\end{center}\myfiglabelskip\caption{``timeflieslikeanarrow''に対する統語森}\label{fig:PDGParseForest}\end{figure}図\ref{fig:HPF_IDF_Algorithm}のアルゴリズムは,try\_edge,try\_FCSL,try\_CSの3つの関数を再帰的に呼びながら,それぞれの引数(圧縮弧,構成素列リスト,構成素列)の下位の要素(構成素列リスト,構成素列,圧縮弧)を深さ優先で重複を避けてトラバースする構成となっている((d),(h),(j)).それぞれの関数の実行後は,その引数に対する統語森HPF,依存グラフDG,共起マトリックスCMの要素や値が追加設定されている.try\_edge(E),try\_FCSL(FCSL),try\_CS(CS)が返すアーク集合中のアークをそれぞれ弧E,構成素列リストFCSL,構成素列CSが{\bf支配するアーク}と呼ぶ.全体に対する処理は,図\ref{fig:HPF_IDF_Algorithm}の(a)の``try\_edge(ルート弧)''である.try\_edgeでは,(b)で既に実行済みか否かを判定し,実行済みの場合は,TERに記録済みのアーク集合を取り出して返す.TERへの登録を行なうのは(g)である.HPFに弧が追加されるのは,(c)と(e)においてである.(f)にあるように,弧Eが支配するアークは,弧EのDSL中のアークとFCSLの支配するアークの和集合である.try\_FCSLは,複数のCSDSペアを処理し,try\_CSは,その中の1つのCSを処理する.(i)にあるように,FCSLの支配するアーク集合は,その要素であるCSが支配するアークの和集合である.また,(k)にあるように,CSの支配するアーク集合は,その要素である圧縮弧が支配するアークの和集合である.\begin{figure}[tbh]\begin{center}\epsfile{file=\myfigdir/DF関数実行.eps,scale=0.9}\end{center}\myfiglabelskip\caption{アルゴリズムの実行例}\label{fig:TryEdgeFunctionExecution}\end{figure}図\ref{fig:PDGParseForest}の弧\#170を例に処理の具体例を図\ref{fig:TryEdgeFunctionExecution}に示す.(c\#)は関数の呼び出し,(r\#)はその結果(支配するアーク集合)を示す.(c1)〜(c4)は,図\ref{fig:HPF_IDF_Algorithm}(j),(d),(h)の再帰呼び出しである.弧\#103は語彙弧であるため,(c4)は(r4)の\{\}を返す.(c3)の処理が終了し(r3)を得ると,(c2)の2番目のCSDSペア([103,119,165],\{obj-4,vpp-20\})に対する処理(c5)が行なわれる.(c6)で再度``try\_edge(弧\#103)''が実行されるが,この時は,図\ref{fig:HPF_IDF_Algorithm}(b)でTERに保存された計算結果を検索して返す.最終的に(r1)が得られる.ここで,共起マトリックスの生成処理について説明する.共起マトリックスは,1つの構文木に同時に含まれるアークの間に共起可能性を設定するよう,次の共起設定条件により設定される.\begin{definition}\label{def:CoocCondition}{\bf共起設定条件}とは次の3つの条件(CM1),(CM2),(CM3)のいずれかをいう.\begin{itemize}\item[{\mysmallitemindent}(CM1)]\1つの部分依存構造DS中のアークは共起する\item[{\mysmallitemindent}(CM2)]\CSDSペア(CS,DS)において,CSが支配するアークは,DS中のアークと共起する\item[{\mysmallitemindent}(CM3)]\1つの構成素列CSが支配するアーク間には共起関係がある\end{itemize}\end{definition}これはそれぞれ図\ref{fig:HPF_IDF_Algorithm}のCM処理(1)〜(3)に対応している.弧\#170の例では,try\_FCSLの処理で2番目のCSDSペア([103,119,165],\{obj-4,vpp-20\})に対してCM処理(1)で(CM1)すなわちset\_CM(\{obj-4,vpp-20\},\{obj-4,vpp-20\})が実施される.また,CM処理(2)では,A\_CSは図\ref{fig:TryEdgeFunctionExecution}(r5)となり,(CM2)すなわちset\_CM(\{obj-4,vpp-20\},\{pre-15,det-14\})が実施される.また,try\_CS([103,119,165])の処理において,CM処理(3)により(CM3)すなわち弧\#103,\#119,\#165が支配するアーク間の共起関係のCMへのセットが行われる.例題に対するアルゴリズムの出力は,図\ref{fig:PDGParseForest}の統語森ならびに図\ref{fig:IDF}の初期依存森となる.弧\#181,\#176,\#174は,同じ非終端記号sと句の範囲(0から5)を持つが,句ヘッドとなるノードが異なるため共有されておらず,ヘッド無し統語森とは異なっている.\subsection{縮退依存森の生成}初期依存森には,図\ref{fig:IDF}におけるobj4とobj25のようにアークID以外は同一のアークが存在することがあり,これを{\bf同値アーク}と呼ぶ.同値アークは,1つの文法規則から生成されたり,複数の文法規則から生成されたりする.例えば,obj4とobj25は,図\ref{fig:ExampleGrammar}の(R9),(R10)の構成素列``vpnp''の部分から生成されている.(R9),(R10)は,前置詞句の有無という差はあるが,``vpnp''の関係は2つの規則で同一であり,依存構造の解釈という観点から同値アークは等価であると言える\footnote{文法規則の記法に任意要素を表す記号\{\}を導入すれば(R9),(R10)をvp/$V$$\rightarrow$v/$V$,np/$NP$,\{pp/$PP$\}:[arc(obj,$NP$,$V$),arc(vpp,$PP$,$V$)]のように1つの規則に統合できる.この規則からは同値アークは生成されない.}.同値性を扱うために,いくつかの定義を行う.ID付きアークのアークIDを``?''と置換したアークを{\bf汎化アーク}と呼ぶ.アークを全て汎化した依存木を{\bf汎化依存木}と呼ぶ.通常のID付きのアークからなる依存木を明示する時は{\bfID付き依存木}と記述する.また,アークXの汎化アークを?X,依存木DTの汎化依存木を?DTのように記述する.汎化依存木が等しい2つのID付き依存木は{\bf同値である}と言う.縮退依存森は,初期依存森を縮退することで得られる.依存森の縮退とは,依存森の健全性を保持しながら複数の同値アークを1つにマージする操作であり,結果として依存森のサイズは小さくなる.\subsubsection{同値アークのマージ操作}依存グラフDG中の同値アーク$X$,$Y$(equiv($X$,$Y$)と記述する)に対する{\bfマージ操作}を次のように定義する.\begin{definition}マージ操作\begin{itemize}\item[(1)]依存グラフDGより,$Y$を削除して新たな依存グラフDG'を得る.(DG'=DG$-\{Y\}$)\item[(2)]アーク$I$($I{\in}$DG,$I{\neq}X$,$I{\neq}Y$,CM($Y$,$I$)=○)に対して,set\_CM($X$,$I$)を行なうことにより共起マトリックスCMより新たな共起マトリックスCM'を得る.\end{itemize}\end{definition}マージ操作によりDG',CM'からなる新たな縮退依存森が得られる.図\ref{fig:ArcMerge}にマージの例を共起マトリックスの形式で模式的に示す.以下の議論で依存木の集合やアークの集合などを定義するが,マージ操作の前後の区別を示す場合には,``wrtDG,CM''あるいは``wrtDF''(wrt:withrespectto)の表現を付けて示す.例えば,以下で定義するアーク$X$を含む整依存木の集合dts($X$)に対して,``dts($X$)wrtDG,CM'',``dts($X$)wrtDG',CM'''はそれぞれマージ前と後の依存森に対する集合を示し,``dts($X$)wrtDG,CM=dts($X$)wrtDG',CM'''は,マージの前後でdts($X$)の値が同じことを示す.簡便のため,以下では``wrtDG,CM''の部分は基本的に省略している.初期依存グラフの全同値アークをマージする\footnote{これは構文解析時に同値アークを共有することと同じである.}と構文グラフと同じ構造になり,健全性を保てなくなる.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DFマージ操作.eps,scale=0.54}\end{center}\myfiglabelskip\caption{同値アークペア(X,Y)のマージ操作の例}\label{fig:ArcMerge}\end{figure}\subsubsection{同値アークのマージ条件}依存森の縮退の定義より,依存森の健全性を保持すること,すなわち,同値アークのマージの前後で新規の汎化依存木(新規の解釈)が生成されないことが縮退の条件である.\mygapskip\mynoindent{\bf[同値アークのマージ条件]}{\mynoindent}「同値アークX,Yのマージ前後の依存森をそれぞれDF,DF'とした時,縮退条件は,``DF中の汎化整依存木集合$=$DF'中の汎化整依存木集合''である.」{\mygapskip}{\mynoindent}この条件は,依存森DF'に新規の汎化依存木が存在しないことを検証することで検証できる.今,DFに対してDF'に新規の汎化依存木が存在するための条件を{\bf汎化依存木の増加条件}とすると,同値アークのマージ条件は,「汎化依存木の増加条件が満足されないこと」と等しい.依存森はID付きアークより構成されているため,ID付き依存木の集合と(それから得られる)汎化依存木の集合の2つを規定している.今,DFに対してDF'に新規のID付き依存木が存在する条件を{\bfID付き依存木の増加条件}(``DF中のID付き整依存木集合${\neq}$DF'中のID付き整依存木集合'')とする.ID付き依存木が増加しなければ汎化依存木の増加はなく,また,ID付き依存木が増加してもそれがDF中のID付き依存木と同値であれば汎化依存木の増加は起こらない.すなわち,ID付き依存木の増加条件は汎化依存木の増加条件の必要条件である.以下では,まず,ID付き依存木の増加条件を検証し,次に汎化依存木の増加条件を検証するという考え方で同値アークのX,Yのマージ条件を詳細化する.\subsubsection{ID付き依存木の増加条件}\label{subsec:IDDTZoukaJuoken}新たな(ID付き)整依存木の増加は,同値アークのマージにより新たにアーク間に共起関係が許されることに起因する.アークU,Vに対してCM(U,V)${\neq}$○がCM(U,V)$=$○に変化することを{\bfアークペア(U,V)の許諾}と呼び,次が成立する.\begin{lemma}[アークペアの許諾と整依存木の増加]\label{lem:ArcPairAndNewTree}アークペア(U,V)の許諾により新たな整依存木が増加する場合,その依存木はU,Vを要素として含んでいる.\end{lemma}{\mynoindent}補題\ref{lem:ArcPairAndNewTree}は,もしU,Vの許諾によりUとVの両方を同時に含まない新しい依存木が生成されると仮定するとその依存木は許諾の前でも存在してしまうことになることから明らかである.\mygapskip{\mynoindent}ここで,同値アークX,Yに対してuniq,diffを次のように定義する.\\\hspace{8mm}uniq(X,Y)=\{$I$${\mid}$CM(X,$I$)=○,CM(Y,$I$)${\neq}$○,$I{\in}$DG\}\\\hspace{8mm}diff(X,Y)=\{($I$,$J$)${\mid}$$I{\in}$uniq(X,Y),$J{\in}$uniq(Y,X)\}\\図\ref{fig:ArcMerge}の例では,uniq(X,Y)=\{j,n\},uniq(Y,X)=\{k\},diff(X,Y)=\{(j,k),(n,k)\}となる.一般に次が成立する.\begin{lemma}[新規の整依存木の含むアーク]\label{lem:ArcsInNewTree}同値アークX,Yのマージにより新たに整依存木が生成される場合には,その依存木は少なくとも1つの(A,B)$\in$diff(X,Y)であるA,Bを含む.\proof{X,Yのマージ前後の依存森をそれぞれDF,DF'とする.X,Yのマージで生じるアークペア(X,B$_i$)の許諾により新たな依存木DT$_x$が得られたとすると,補題\ref{lem:ArcPairAndNewTree}より,X,B$_i$は,DT$_x$の要素である.ここで,R$=$DT$_x-$\{X,B$_i$\}とする.U${\in}$Rを考えると,DT$_x$は整依存木であるからCM(X,U)$=$○wrtDF',CM(B$_i$,U)=○wrtDF'である.今,CM(Y,U)${\neq}$○wrtDFであるアークUが存在しない,すなわちCM(Y,U)$=$○wrtDF,U${\in}$Rを仮定すると,DT$_y$=\{Y,B$_i$\}+Rは,共起条件を満足する整依存木となる.DT$_x$とDT$_y$は,同値アークX,Yが異なるだけなので,DT$_x$は新たな依存木ではない.よって,新たな依存木DT$_x$には少なくとも1つCM(Y,U$_i$)${\neq}$○wrtDFなるU$_i$が存在する必要がある.(B$_i$,U$_i$)${\in}$diff(X,Y)であるので補題が成立する.}\end{lemma}{\mynoindent}補題\ref{lem:ArcsInNewTree}より,次のID付き依存木の増加条件が成立する.\begin{theorem}[ID付き依存木の増加条件]\label{the:IDedDepTreeIncreaseCond}DG,CMにおいて同値アークX,Yに対するアークペア(A,B)${\in}$diff(X,Y)とした時,YをXにマージして得られるDG',CM'において,\{X,A,B\}を含むID付き整依存木NDTが存在する時,またこの時に限り,ID付き依存木は増加する.\proof{新規に生成される整依存木は必ず\{X,A,B\}を含むこと,\{X,A,B\}を含む整依存木は必ず新規解であることを示せばよい.今,DG',CM'中の新たなID付き依存木をNDTとすると,補題\ref{lem:ArcsInNewTree}より,少なくとも1つのアークペア(A$_i$,B$_i$)${\in}$diff(X,Y),A$_i{\in}$NDT,B$_i{\in}$NDTが存在する.また,補題\ref{lem:ArcPairAndNewTree}より,X${\in}$NDTである.よって,新規に生成される整依存木は必ず\{X,A,B\}を含む.また,(A,B)${\in}$diff(X,Y)より\{X,A,B\}を含むID付き整依存木はDG,CMに存在しない.よって,\{X,A,B\}を含むID付き整依存木は必ず新規に生成される整依存木である.}\end{theorem}{\mynoindent}以下で解の増加条件を詳細化するため,ここでいくつかの関数や記法を導入する.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}\begin{itemize}\item[\myitemindentsame\_position($U$,$V$)]:アーク$U$,$V$の依存ノードの位置が等しい\item[\myitemindentdts($S$)wrt$DG$,$CM$]:$CM$の共起制約を満たしながら,アーク集合$S{\subset}DG$から得られるID付き整依存木の集合\item[\myitemindentco($U$)wrt$DG$,$CM$]:アーク$U$あるいは$U$と共起するアーク集合,\{$X$${\mid}$$X$=$U$またはCM($X$,$U$)=○,$X{\in}DG$\}である.\item[\myitemindentdts\_with\_arcs($A_1$,$A_2$,${\ldots}$,$A_n$)wrt$DG$,$CM$]:$DG$,$CM$中の整依存木でアーク$A_1$,$A_2$,${\ldots}$,$A_n$を含む整依存木の集合,すなわち,dts(co($A_1$)${\cup}{\cdots}{\cup}$co($A_n$))wrt$DG$,$CM$である.\end{itemize}\myhalfskip\end{minipage}}\myhalfskip{\mynoindent}同値アークX,Yに対するdiff(X,Y)中のアークペア(A,B)に関するID付き依存木の増加条件の判定は,定理\ref{the:IDedDepTreeIncreaseCond}よりX,A,Bを含む整依存木がDG',CM'に存在するか探索することにより基本的に実現できる.これをできるだけ効率的に行うため,X,A,Bに関して次の3つの場合に分けて考える.\begin{itemize}\item[\myitemindent(RC1)]\same\_position(A,B)またはsame\_position(X,A)またはsame\_position(X,B)が成立.\item[\myitemindent(RC2)]\CM(A,B)${\neq}$○である.\item[\myitemindent(RC3)]\(RC1)(RC2)以外の場合.\end{itemize}{\mynoindent}(RC1)が成立する場合は,整依存木の整被覆条件によりアークが排他関係となりX,A,B全てを含む整依存木は存在しないと判定できる.(RC2)の場合は,マージ後でもCM'(A,B)${\neq}$○であるためDG',CM'において\{X,A,B\}を含む整依存木は存在しないと判定できる.(RC3)の場合は\{X,A,B\}を含む整依存木が存在しない,すなわち,dts\_with\_arcs(X,A,B)wrtDG',CM'$=$\{\}の判定を行えば良い.\subsubsection{汎化依存木の増加条件}既に述べたようにID付き依存木の増加条件は汎化依存木の増加条件の必要条件である.このため,ID付き依存木の増加条件を満たす場合,すなわち,dts\_with\_arcs(X,A,B)wrtDF'($=$New\_DTsとする)${\neq}$\{\}の場合に,NDT${\in}$New\_DTsに対して,NDTが汎化依存木の増加となっている場合にのみ汎化依存木の増加が生じる.逆に言えば,NDTがDF'に存在した場合でも,汎化依存木?NDTがDFに存在していれば,汎化依存木の増加は起こらない.これより,ID付き依存木が増加する場合における同値アークのマージ条件は次のようになる.\mygapskip{\mynoindent}「同値アークX,Yのマージ前後の依存森DF,DF'に対して,新規に増加するDF'中のID付き依存木DT$_{new}$に対して,?DT$_{new}$=?DTなるID付き整依存木DTがDFに存在する」\mygapskip\subsubsection{依存森の縮退アルゴリズム}\begin{figure}[bt]\begin{center}\epsfile{file=\myfigdir/DF依存森縮退アルゴリズム.eps,scale=0.7}\end{center}\caption{依存森の縮退アルゴリズム}\label{fig:DFReductionAlgorithm}\end{figure}前節の依存森の縮退条件,すなわち同値アークのマージ条件に基づき依存森の縮退を行うアルゴリズムを図\ref{fig:DFReductionAlgorithm}に示す.アルゴリズムでは,共起マトリックスを集合として表現している.アークX,Yに対して,$<$X,Y$>{\in}$CMであれば共起関係が成立している.以下,アルゴリズムの動作を縮退条件に照らし合わせて図\ref{fig:DFReductionAlgorithm}を参照しながら説明する.図\ref{fig:DFReductionAlgorithm}(a)で依存グラフ中にある同値アークペアX,Yを順次取り出し,diff(X,Y)中のアークペア(A,B)について,許諾を行った場合に解(汎化依存木)の増加が起こるかを(b)-(h)でチェックする.全アークペアに対して汎化依存木の増加が起こらない場合に(i)で依存森の縮退が行なわれる.(A,B)の許諾の可否は,ID付き依存木の増加条件の確認の後に汎化依存木の増加条件の確認を行うことで判定される.(b)では,\ref{subsec:IDDTZoukaJuoken}節の(RC1),(RC2)の条件がチェックされ,いずれかを満たす場合は解の増加がないため,次のアークペアの確認に進む.そうでない場合は,ID付き依存木の増加条件の確認に進む.(c)では,YをXにマージしたDG',CM'を生成する.新規依存木の存在チェックは,基本的に依存森に対する解の探索により行うため,できるだけ探索空間を少なくすることで効率化が図れる.定理\ref{the:IDedDepTreeIncreaseCond}より新規のID付き依存木はX,A,Bを含むので,(d)ではco(X)${\cap}$co(A)${\cap}$co(B)によりX,A,B全てと共起するアーク以外を除いたアーク集合DG\_XABを計算し,(e)でsearch\_dtによりDG\_XABに対して依存木を探索する.依存木が得られなければ,このアークペアは同値アークのマージ条件を満たすので,次のアークペアの処理に進む.依存木DTが得られた場合,DTはX,A,Bを含む新規のID付き依存木である.(f)のnew\_generalized\_dt(DT,CM,DG)は,CM,DG中にDTの同値依存木が存在するかを探索することで,DTが汎化依存木として新規かをチェックする.詳細な説明は省略するが,(q)においてDTの同値アークのみにアーク集合を限定することで汎化依存木の探索を実現している.DTが汎化依存木として新規の場合は,X,Yのマージはできないため(g),(h)で同値アークX,Yに対する処理を終了し次の同値アークペアのマージにトライする.汎化依存木として解が存在しない場合には,(i)においてX,Yのマージ,すなわち,依存森の縮退が行われる.なお,(f)においてDTが汎化依存木として新規でない場合は,(e)においてDG\_XABに対して別の解の探索が行われる.search\_dtは,入力位置Pに関して深さ優先に共起条件を満足する解を探索するアルゴリズムである.(k)においてDG中の位置Pのノードを依存ノードとして持つアーク集合arcs\_at(DG,P)から1つアークを選択するが,(m)において,P+1以降で解が見つからなければ(k)で別のアークを選択することで,全解を探索する.\subsubsection{依存森縮退アルゴリズムの動作例}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_SynGrp不具合例に対する依存森処理.eps,scale=0.7}\end{center}\myfiglabelskip\caption{例文に対する初期依存森と縮退処理}\label{fig:IDFandRDFexample}\end{figure}最終的に縮退依存森に同値アークが残る例として付録1の``Tokyotaxidrivercallcenter''に対するアルゴリズムの動作を示す.例文に対する初期依存森を図\ref{fig:IDFandRDFexample}(a)に示す.初期依存森には(1,2),(5,7),(13,15),(25,26,27)の4種の同値アークが存在し,図のマトリックスでは2重線で括られたまとまりとして示されている.図\ref{fig:DFReductionAlgorithm}のアルゴリズムに従って縮退処理が行なわれる.最初の同値アークequiv(1,2)に対し$X$=1,$Y$=2となり,diff($X$,$Y$)は,uniq($X$,$Y$)=\{5,24,25\},uniq($Y$,$X$)=\{14,15,27\}の組合せ\{(5,14),(5,15),(5,27),$\ldots$\}となる.最初のアークペア(5,14)は,same\_position(5,14)であるため図\ref{fig:DFReductionAlgorithm}(b)において(RC1)の条件判定でスキップされ,次のアークペア(5,15)が選択される.(5,15)の場合は,(b)の条件に確定しないため,(c)においてCM',DG'が生成される.CM'=CM+\{$<$1,14$>$,$<$1,15$>$,$<$1,27$>$\}であり,図\ref{fig:IDFandRDFexample}(b)に示す.次に図\ref{fig:DFReductionAlgorithm}(d)において$DG\_XAB$が計算される.$X=$1,$A=$5,$B=$15であり,$DG\_XAB=$co(1)${\cap}$co(5)${\cap}$co(15)wrtDG',CM'=\{1,28\}となる.(e)のsearch\_dtによる$DG\_XAB$に対する解探索は失敗するため,(5,15)の許諾は新規の依存木を生成しない.さらにアークペア(5,27)のチェックへと処理が進む.以上のようにしてdiff(1,2)の全てのアークペアに関してチェックが行われるが,いずれもが新規解を生成することなく終了し,(i)において依存森の縮退が行われ,CM'DG'が新規のCM,DGに設定される.図\ref{fig:IDFandRDFexample}(c)は,最終的に得られる縮退依存森であり,同値アーク25,26,27を持つ.この依存森に対する縮退アルゴリズムの動作を示す.今,$X=$25,$Y=$26の時,uniq($X$,$Y$)$=$\{1,24\},uniq($Y$,$X$)$=$\{6,13\},diff($X$,$Y$)$=$\{(1,6),(1,13),(24,6),(24,23)\}である.アークペア(1,6)は(RC1)の条件を満たす.アークペア(1,13)は,(RC1),(RC2)を満足せず,図\ref{fig:DFReductionAlgorithm}(d)において$DG\_XAB$が計算される.$X=25$,$A=1$,$B=13$であり,$DG\_XAB=$co(25)${\cap}$co(1)${\cap}$co(13)wrtDG',CM'=\{25,1,13,5,28\}となる.$DG\_XAB$に対して(e)のsearch\_dtを実行すると\{25,1,13,5,28\}が新規のID付き依存木として検索される\footnote{実際,この木は図\ref{fig:SynGraphBadExample}(d)に相当する.}.次に(f)においてnew\_generalized\_dtが実行され,(q)でadd\_equiv\_arcsによりDT中の各アークに対する同値アークが追加されたアーク集合$DG\_X$が計算される.図\ref{fig:IDFandRDFexample}(c)では,25が同値アーク26,27を持つので,これらが追加され,$DG\_X=$\{25,26,27,1,13,5,28\}となる.図\ref{fig:DFReductionAlgorithm}(r)のsearch\_dtでは,解が計算されるが,同値アーク25,26,27のそれぞれに対して$<$25,13$>$,$<$26,1$>$,$<$27,5$>$がCMにおいて共起条件を満足しないためsearch\_dtはfalseとなる.この結果,(f)のnew\_generalized\_dtがtrue,すなわち汎化依存木として解の増加となるため,$X$=25,$Y$=26のマージは行われない.図\ref{fig:IDFandRDFexample}(c)の依存森は,付録1の図\ref{fig:SynGraphBadExample}の(a)〜(c)の3つの依存構造のみを保持しており,健全性が保たれている.縮退処理により生成される依存森は一意に決まるという訳ではなく,マージを試みる同値アークの順番により異なった結果が得られたりする.例えば,上記の例でも,同じ3つの汎化依存木を含む複数の縮退依存森が存在する.図\ref{fig:DFReductionAlgorithm}のアルゴリズムは最小の縮退依存森を得るという保証はなく,実際図\ref{fig:IDFandRDFexample}(c)よりサイズの小さい依存森も存在する.また,縮退アルゴリズムの計算量に関しても改善の余地がある.最小の依存森の構成法やアルゴリズム効率化などについては今後の課題とする\footnote{PDGでは文法規則で構成素列と依存構造のマッピングを規定するため,任意の入力構成素列に対して任意の依存木を定義・追加することが可能である.このため汎用的な縮退アルゴリズムの高速化だけでなく,文法規則の構造分析を行い新規解釈を生成しないアークを事前に計算するなどの最適化手法が有効であると考えられる.}.\subsection{統語森と依存森の対応関係}\label{sec:MappingBetweenPTAndDT}依存森は,統語森との間で完全性と健全性が成立する.付録2に初期依存森の完全性と健全性の証明を示す.縮退依存森は初期依存森と同じ(汎化)依存木の集合を保持しているため,統語森と(縮退)依存森に完全性と健全性が成立すると言える.統語森中の構文木(句構造)と依存森中の依存木(依存構造)の対応関係は単純な1対1対応ではなく,1つの構文木が複数の依存木に対応したり,複数の構文木が1つの依存木に対応したりする.言語表現の多様性(1つの意味を複数の表現で表現可能)と曖昧性(1つの表現で複数の意味を表現可能)を考えれば,こうした対応関係は自然な関係であると考えられる.構文木と依存木の対応関係については,次章の評価実験において例文の解析結果とともに述べる. \section{例文解析評価実験} PDGは依存森により整依存木集合を圧縮共有して表現することにより,各種の曖昧性により生じる組合せ爆発を抑制することを狙いの1つとしており,本稿では,PDGの構文解析から圧縮依存構造の構築までの方式を中心に述べている.本章では,自然言語の各種の曖昧性を記述したPDG文法を用いて,典型的な曖昧性例文の構文解析・依存森生成実験を行い,各種の曖昧性がどの様に処理されるかについて述べると共に,統語森と依存森との対応関係やNon-projectiveな依存木の生成についても実例も用いながら述べる.なお,アルゴリズムの効率も実用上重要なファクタであるが,本稿で示した構文解析アルゴリズム,統語森・依存森構成アルゴリズム,依存森縮退アルゴリズムは,PDGの解析方式の検証を行うことを主眼に実装をしており,実システムとしての実装では種々の改善が考えられる.PDGの実装上の検討,テストコーパスなどを使った性能評価などについては,今後の課題とする.なお,以下の実験では,Prolog上に実装されたPDGの試作システムを利用している.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF例文を解析する文法規則.eps,scale=0.85}\end{center}\myfiglabelskip\caption{例文を解析する文法規則}\label{fig:GrammarForExamples}\end{figure}\subsection{例文解析用文法}図\ref{fig:GrammarForExamples}は,例文解析に使用した文法規則であり,代表的な各種曖昧性構文を含んでいる.文法中の品詞det,n,be,ving,v,adv,pre,relcは,それぞれ,冠詞,名詞,BE動詞,動詞の現在分詞,動詞,副詞,前置詞,関係節を表している.また,図にはトップノードを導入するルート規則は明示されていないが,文全体(s)と名詞句(np)を解析結果として受理するルート規則を想定している.この文法は例題分析実験用のため,言語学的妥当性や厳密性は二義的である.文法には次のような構文的曖昧性が記述されている.\begin{itemize}\item[{\myitemindent}前置詞句付加の曖昧性(PP-attachment)]:R6(名詞修飾)とR10,R17(動詞修飾)の2種類がある\item[{\myitemindent}接続詞スコープ曖昧性(Coordination)]:R11(〜and〜),R12(〜or〜)の名詞句並列を表す規則が存在する\item[{\myitemindent}BE動詞構文解釈の曖昧性]:be動詞に対してR15(現在進行形の構文)とR16(copulaの構文)の構文解釈曖昧性規則が存在する\item[{\myitemindent}現在分詞形の曖昧性]:動詞の現在分詞形に関しては様々な解釈が可能であり,次のような用法が記述されている\begin{itemize}\item[(a)]名詞が現在分詞の主格を占める形容詞的用法(R7)\item[(b)]名詞が現在分詞の目的格を占める形容詞的用法(R8)\item[(c)]名詞句が動詞の目的格となる動名詞句(R9,R10)\end{itemize}\end{itemize}R8とR9は動詞と名詞の修飾関係としては類似しているが,どちらが主辞(句ヘッド)であるかという依存構造の観点からは異なった構造である.また,平叙文(R1)と命令文(R2)のパタンもあり,``Timeflieslikeanarrow''のような多品詞の曖昧性と組み合わさって種々の構文解釈を生成する.また,(R19)は,non-projectiveな依存木,すなわち,交差する依存関係を含む依存木を生成する規則である.以下では,上記文法を用いて代表的な曖昧性例文等を解析した結果について述べる.\subsection{典型的曖昧性例文の解析}多品詞に起因する曖昧性の解析例については,既に例題として述べている.以下では,自然言語の統語的な曖昧性の代表例として前置詞付加曖昧性,接続詞スコープ曖昧性,構造解釈曖昧性の3つについて前記PDG文法での解析例を示す.\subsubsection{前置詞付加曖昧性(PP-attachment)}\label{sec:PP-attachment}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/OS前置詞係り受け曖昧性例文の依存森JAPENG.eps,scale=0.6}\end{center}\myfiglabelskip\caption{前置詞句付加曖昧性例文に対する依存森}\label{fig:DFForISaw}\end{figure}図\ref{fig:DFForISaw}は,前置詞の付加(PP-attachment)曖昧性の例文``Isawagirlwithatelescopeintheforest''に対する依存森である.依存グラフのアークには,アーク名/アークIDと選好スコアが付与されている\footnote{アーク選好スコアは依存関係の良さを表すスコアであり,本稿では利用されない.}.各ノードの品詞や表層位置情報は依存グラフの下の対応表に示している.この例では多品詞曖昧性を持つ語はないが,前置詞``with''に2つ($npp13$,$vpp14$),``in''に3つ($npp23$,$npp25$,$vpp26$)の依存先の曖昧性が存在する.図に示すように,これらのアーク間には,共起マトリックスで○が存在しない組合せ,すなわち共起制約がかかっているアークの組がいくつか存在している.$npp13$と$vpp14$,$npp23$と$npp25$と$vpp26$は,それぞれ位置を同じくするアークであるため被覆制約の1種である単一役割制約がかかっている.また,$vpp14$と$npp25$の間には非交差制約がかかっている.この共起制約がなければ,前置詞句付加曖昧性の組合せにより$2*3=6$個の解が存在するが,CM(14,25)${\neq}$○によりNon-projectiveな依存木が排除され,この依存森は5つの整依存木(解釈)を含んでおり,例文に対して可能な前置詞句付加曖昧性を適切に表現している.例文に対して,統語森のサイズは25,初期依存森のサイズは18,縮退依存森のサイズは13である.統語森は5つの解釈に対応する5つの構文木からなる集合\footnote{ここでいう構文木の数は,始点,終点,規則ヘッド頂点,句ヘッド,既存構成素列に関して弧の同一性を判定することで構文木の同一性を判定した場合の数であり,部分依存構造(アーク集合)は同一性判定に含まれていない.},初期依存森と縮退依存森は,5つのID付き依存木(5つの汎化依存木に対応)の集合に対応している.初期依存森は,$obj5$,$npp13$,$vpp14$,$pre11$に関してそれぞれ2本,1本,1本,1本の同値アークを有している.例えば,$obj5$とその同値アークは,次に模式的に示す単一弧から生成されるが,これらは全て文法規則(R14)から生まれた弧である.\myhalfskip$<$1,4,vp/([saw]-v-1)$\rightarrow$v(ID:109)np(ID:126)・,\{arc(obj-5,[girl]-n-3,[saw]-v-1)\}$>$$<$1,7,vp/([saw]-v-1)$\rightarrow$v(ID:109)np(ID:163)・,\{arc(obj-15,[girl]-n-3,[saw]-v-1)\}$>$$<$1,10,vp/([saw]-v-1)$\rightarrow$v(ID:109)np(ID:203)・,\{arc(obj-28,[girl]-n-3,[saw]-v-1)\}$>$\myhalfskip{\mynoindent}最初の弧は,被覆範囲が1〜4(``sawagirl''に対応)で,句ヘッドが[saw]-v-1,圧縮弧v(ID:109)\footnote{規則ヘッド頂点(カテゴリ)がvで,弧IDが109の圧縮弧である.}とnp(ID:126)を構成素としてもち,アークIDが5で関係名がobjのアークを有する.これら同値アークは弧の範囲がそれぞれ異なった名詞句との結合により生成されている.これらは全て1つのアークにマージされ,縮退依存森では同値アークは存在していない.\begin{comment}同値アーク[[(5),15,28],[(13),32],[(14),33],[(11),27]]最終アーク30,4,5,13,14,10,11,25,23,26,20,21,35(obj-5):スコープが異なる:ノードの範囲とは無関係にマージ可能としている(できる場合とできない場合の弁別を入れることが考えられる)**newarcid:arc_share(obj-15,[girl]-n-3,[saw]-v-1)173:[1,7]vp/([saw]-v-1)-->[109163]*:[[arc(obj-15,[girl]-n-3,[saw]-v-1)]]**newarcid:arc_share(obj-5,[girl]-n-3,[saw]-v-1)135:[1,4]vp/([saw]-v-1)-->[109126]*:[[arc(obj-5,[girl]-n-3,[saw]-v-1)]]**newarcid:arc_share(obj-28,[girl]-n-3,[saw]-v-1)222:[1,10]vp/([saw]-v-1)-->[109203]*:[[arc(obj-28,[girl]-n-3,[saw]-v-1)]]163:[2,7]np/([girl]-n-3)-->[126161]*:[[arc(npp-13,[with]-pre-4,[girl]-n-3)]]126:[2,4]np/([girl]-n-3)-->[119122]*:[[arc(det-4,[a]-det-2,[girl]-n-3)]]203:[2,10]np/([girl]-n-3)-->[163199]*:[[arc(npp-25,[in]-pre-7,[girl]-n-3)]]--npp-13の同値アーク:163:[2,7]np/([girl]-n-3)-->[126161]*:[[arc(npp-13,[with]-pre-4,[girl]-n-3)]]228:[2,10]np/([girl]-n-3)-->[126213]*:[[arc(npp-32,[with]-pre-4,[girl]-n-3)]]======Numberofvarioustrees========[ParseForest](a)ParseForestSize:25(b)Numberofcollectionofparsetrees:5(c)Numberofsetofparsetrees:5[DependencyForest](I-1)InitialDFsize:18(I-2)InitialDFID-treecollectionnumber:5(I-3)InitialDFID-treesetnumber:5(I-4)InitialDFGeneralized-treenumber:5(R-1)ReducedDFsize:13(R-2)ReducedDFID-treecollectionnumber:5(R-3)ReducedDFID-treesetnumber:5(R-4)ReducedDFGeneralized-treenumber:5\end{comment}\begin{comment}\end{comment}\subsubsection{接続詞スコープの曖昧性}\begin{figure}[tb]\begin{center}\epsfile{file=\myfigdir/OS接続詞スコープ曖昧性例文の依存森JAPENG.eps,scale=0.66}\end{center}\caption{接続詞曖昧性例文に対する依存森}\label{fig:DFForEarthAndMoon}\end{figure}図\ref{fig:DFForEarthAndMoon}は,接続詞のスコープ曖昧性を含む名詞句``EarthandMoonorJupitorandGanymede''に対する依存森である.3つの接続詞のスコープの組合せに対応して``Earth''に3つ,``Moon''に2つのアークの依存先の曖昧性が存在する.前節の例と同様,被覆制約だけ満足する場合には,前置詞句スコープ曖昧性の組み合わせで6つの解釈が存在するが,$or22$と$and12$が非交差制約に対応する共起マトリックスの制約を持っているため,1つの依存木が排除され,この依存森は合計5つの整依存木を持っている.例文に対して,統語森のサイズは18,初期依存森のサイズは17,縮退依存森のサイズは10である.統語森は5つの解釈に対応する5つの構文木からなる集合,初期依存森と縮退依存森は,5つのID付き依存木(5つの汎化依存木に対応)からなる集合に対応している.初期依存森は,$or22$,$or9$,$cnj6$,$and18$,$cnj14$は各々1本,1本,1本,2本,2本の同値アークを有している.これらは全て1つのアークにマージされ,縮退依存森では同値アークは存在していない.接続詞スコープ曖昧性は,前置詞付加曖昧性と類似しているが,後に述べる修飾スコープの問題を持つという点で言語現象的には異なっている.\begin{comment}同値アーク[[(22),23],[(9),10],[(6),7],[(18),19,20],[(14),15,16]]最終アーク25,12,4,2,22,9,6,18,14,26-----dgarc(and-25,[earth]-n-0,[ganymede]-n-6)dgarc(and-12,[earth]-n-0,[jupitor]-n-4)dgarc(and-4,[earth]-n-0,[moon]-n-2)dgarc(cnj-2,[and]-and-1,[earth]-n-0)dgarc(or-22,[moon]-n-2,[ganymede]-n-6)dgarc(or-9,[moon]-n-2,[jupitor]-n-4)dgarc(cnj-6,[or]-or-3,[moon]-n-2)dgarc(and-18,[jupitor]-n-4,[ganymede]-n-6)dgarc(cnj-14,[and]-and-5,[jupitor]-n-4)dgarc(root-26,[ganymede]-n-6,[root]-x-root)×dgarc(or-23,[moon]-n-2,[ganymede]-n-6)×dgarc(or-10,[moon]-n-2,[jupitor]-n-4)×dgarc(cnj-7,[or]-or-3,[moon]-n-2)×dgarc(and-19,[jupitor]-n-4,[ganymede]-n-6)×dgarc(and-20,[jupitor]-n-4,[ganymede]-n-6)×dgarc(cnj-15,[and]-and-5,[jupitor]-n-4)×dgarc(cnj-16,[and]-and-5,[jupitor]-n-4)======Numberofvarioustrees========[ParseForest](a)ParseForestSize:18(b)Numberofcollectionofparsetrees:5(c)Numberofsetofparsetrees:5[DependencyForest](I-1)InitialDFsize:17(I-2)InitialDFID-treecollectionnumber:5(I-3)InitialDFID-treesetnumber:5(I-4)InitialDFGeneralized-treenumber:5(R-1)ReducedDFsize:10(R-2)ReducedDFID-treecollectionnumber:5(R-3)ReducedDFID-treesetnumber:5(R-4)ReducedDFGeneralized-treenumber:5\end{comment}\subsubsection{構造解釈の曖昧性}\label{sec:AmbiguityInStructuralInterpertation}図\ref{fig:DFForMyHobbyIs}は,構造解釈上の曖昧性を含む例文``Myhobbyiswatchingbirdswithtelescope''に対する依存森である.この例も,多品詞曖昧性を持たないが,``be''動詞の解釈(コピュラか進行形か),``watchingbirds''の解釈($adjs3$,$adjo4$,$obj5$),前置詞の付加曖昧性($npp21$,$vpp22$,$npp24$,$vpp25$)等を持っており,「私の趣味は双眼鏡で鳥を見ることです」,「私の趣味は,双眼鏡で鳥を見ています」,「私の趣味は双眼鏡を持った見る鳥です」など10の解釈に対応する整依存木を含んでいる.\begin{figure}[tb]\begin{center}\epsfile{file=\myfigdir/OS構造解釈曖昧性例文の依存森JAPENG.eps,scale=0.66}\end{center}\myfiglabelskip\caption{構造解釈曖昧性例文に対する依存森}\label{fig:DFForMyHobbyIs}\end{figure}例文に対して,統語森のサイズは23,初期依存森のサイズは24,縮退依存森のサイズは16である.統語森は10の解釈に対応する8つの構文木集合,初期依存森と縮退依存森は,10のID付き依存木(10個の汎化依存木に対応)の集合に対応している.初期依存森は,$dsc9$,$dsc8$,$obj5$,$npp21$,$vpp22$に関してそれぞれ2本,2本,5本,2本,2本の同値アークを有している.この例では,\ref{sec:PP-attachment}節の例とは異なり,複数の規則から同値アークが生成されている.例えば,$obj5$の同値アークは,(R9),(R10),(R15)などの文法規則から得られる次に示すような弧に含まれている.\myhalfskip(R9)⇒$<$3,5,np/([watching]-ving-3)$\rightarrow$ving(ID:121)np(ID:130)・,{\myitemindent}\{arc(obj-5,[birds]-n-4,[watching]-ving-3)\}$>$(R10)⇒$<$3,7,np/([watching]-ving-3)$\rightarrow$ving(ID:121)np(ID:130)pp(ID:176)・,{\myitemindent}\{arc(obj-6,[birds]-n-4,[watching]-ving-3),arc(vpp-22,[with]-pre-5,[watching]-ving-3)\}$>$(R15)⇒$<$2,5,vp/([watching]-ving-3)$\rightarrow$be(ID:117)ving(ID:121)np(ID:130)・,{\myitemindent}\{arc(prg-2,[is]-be-2,[watching]-ving-3),arc(obj-7,[birds]-n-4,[watching]-ving-3)\}$>$\myhalfskip{\mynoindent}これら同値アークは全て1つのアークにマージされ,結果として得られる縮退依存森では同値アークは存在していない.この例では,統語森が8つの構文木を持つのに対して解釈(汎化依存木)の数は10となっており,1つの構文木が複数の依存木に対応する例となっている.以下,構文木と依存木の対応関係について述べる.\begin{comment}##同じ依存片の組[[(9),30],[(8),31],[(5),6,7,27,29],[(21),23],[(22),25]]>CurrentSameArcIDList:[[9],[8],[5],[21],[22]]XM,1,35,33,2,4,3,9,8,5,21,24,26,22,20,41,38同値アークで違う規則からの期待(R9)np/V→ving/V,np/NP:[arc(obj,NP,V)](R10)np/V→ving/V,np/NP,pp/PP:[arc(obj,NP,V),arc(vpp,PP,V)]-->objアークdgarc(obj-5,[birds]-n-4,[watching]-ving-3)×dgarc(obj-6,[birds]-n-4,[watching]-ving-3)×dgarc(obj-7,[birds]-n-4,[watching]-ving-3)×dgarc(obj-27,[birds]-n-4,[watching]-ving-3)×dgarc(obj-29,[birds]-n-4,[watching]-ving-3)138:[3,5]np/([watching]-ving-3)-->[ving(121)np(130)]*:[[arc(obj-5,[birds]-n-4,[watching]-ving-3)]]139:<3,5>np/([watching]-ving-3)-->[ving(121)np(130)]*pp/C/true:[[arc(obj-6,[birds]-n-4,[watching]-ving-3),arc(vpp-_89026,C,[watching]-ving-3)]]140:[2,5]vp/([watching]-ving-3)-->[be(117)ving(121)np(130)]*:[[arc(prg-2,[is]-be-2,[watching]-ving-3),arc(obj-7,[birds]-n-4,[watching]-ving-3)]]187:[3,7]np/([watching]-ving-3)-->[121177]*:[[arc(obj-27,[birds]-n-4,[watching]-ving-3)]]188:<3,7>np/([watching]-ving-3)-->[121177]*pp/C/true:[[arc(obj-28,[birds]-n-4,[watching]-ving-3),arc(vpp-_106115,C,[watching]-ving-3)]]--117:[2,3]be/([is]-be-2)-->[lex([is]-be)]*:[[]]121:[3,4]ving/([watching]-ving-3)-->[lex([watching]-ving)]*:[[]]130:[4,5]np/([birds]-n-4)-->[n(128:birds)]*:[[]]177:[4,7]np/([birds]-n-4)-->[np(130)pp(176)]*:[[arc(npp-21,[with]-pre-5,[birds]-n-4)]]======Numberofvarioustrees========[ParseForest](a)ParseForestSize:23(b)Numberofcollectionofparsetrees:10(c)Numberofsetofparsetrees:8[DependencyForest](I-1)InitialDFsize:24(I-2)InitialDFID-treecollectionnumber:10(I-3)InitialDFID-treesetnumber:10(I-4)InitialDFGeneralized-treenumber:10(R-1)ReducedDFsize:16(R-2)ReducedDFID-treecollectionnumber:10(R-3)ReducedDFID-treesetnumber:10(R-4)ReducedDFGeneralized-treenumber:10==========================dgarc(det-1,[my]-det-0,[hobby]-n-1)dgarc(sub-35,[hobby]-n-1,[is]-be-2)dgarc(sub-33,[hobby]-n-1,[watching]-ving-3)dgarc(prg-2,[is]-be-2,[watching]-ving-3)dgarc(adjo-4,[watching]-ving-3,[birds]-n-4)dgarc(adjs-3,[watching]-ving-3,[birds]-n-4)dgarc(dsc-9,[watching]-ving-3,[is]-be-2)dgarc(dsc-8,[birds]-n-4,[is]-be-2)dgarc(obj-5,[birds]-n-4,[watching]-ving-3)dgarc(npp-21,[with]-pre-5,[birds]-n-4)dgarc(npp-24,[with]-pre-5,[watching]-ving-3)dgarc(vpp-26,[with]-pre-5,[is]-be-2)dgarc(vpp-22,[with]-pre-5,[watching]-ving-3)dgarc(pre-20,[telescope]-n-6,[with]-pre-5)dgarc(root-41,[is]-be-2,[root]-x-root)dgarc(root-38,[watching]-ving-3,[root]-x-root)======Numberofvarioustrees========[ParseForest](a)ParseForestSize:23(b)Numberofcollectionofparsetrees:10(c)Numberofsetofparsetrees:8[DependencyForest](I-1)InitialDFsize:24(I-2)InitialDFID-treecollectionnumber:10(I-3)InitialDFID-treesetnumber:10(I-4)InitialDFGeneralized-treenumber:10(R-1)ReducedDFsize:16(R-2)ReducedDFID-treecollectionnumber:10(R-3)ReducedDFID-treesetnumber:10(R-4)ReducedDFGeneralized-treenumber:10\end{comment}\subsection{構文木と依存木の1対多/多対1対応関係}統語森中の構文木と依存森中の依存木の対応関係は保証されているが,1つの構文木が複数の依存木に対応したり,複数の構文木が1つの依存木に対応したりする.以下では実験文法を用いて具体例を示しながら,同一意味解釈に対する構文構造と依存構造の表現力についても考察を加える.\subsubsection{1構文木の複数依存木への対応}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_1構文木2依存木対応の例JAPENG.eps,scale=0.8}\end{center}\myfiglabelskip\caption{1つの構文木が2つの依存木に対応する例}\label{fig:MapFromOnePTToTwoDTs}\end{figure}1つの構文木が複数の依存木に対応するのは,1つの構文構造に対する解釈が複数存在するような場合であり,例えば,``watchingbird''という文に対して動詞の現在分詞形が名詞を修飾しているという1つの構文構造をアサインした時,依存構造としてwatching${\xrightarrow[]{subj}}$birdとwatching${\xrightarrow[]{obj}}$birdの2つを対応させるような場合である.すなわち,同一の書き換え規則部を持つが異なった構造構築部を持つような規則が存在する場合である.図\ref{fig:GrammarForExamples}の文法では,(R7),(R8)がこれに対応する.(R7),(R8)は依存森の検証のため導入した恣意的な規則である.同一の書き換え規則に対して複数の部分依存構造を与えるのは,構文構造としては同一\footnote{構成素列をどの文法カテゴリに分類するかという構造}であるが依存関係としては異なっているような場合である.想定されるケースとしては,機能的関係の多義と意味的関係の多義が存在する.機能的多義は,文法機能関係(subject,objectなど)への曖昧性である.機能的関係は構文構造と密接な関係にあること,また,機能的関係の違いがある場合には構文構造自体にそれを反映する\footnote{例えば,書き換え規則の構文カテゴリを細分化し,異なった書き換え規則にする.}などにより異なった構文構造とするなどの文法上の対応も可能であることから,全く同一の書き換え規則に複数の機能的多義構造をアサインすることは必ずしも一般的であるとは考えにくい.これに対して,意味的関係の多義はきわめて一般的な現象であると言える.意味的な関係を構文規則に融合すること\footnote{これは構文解析に枝刈りのために制約知識を導入することではない.}は,組合せ爆発の問題やメンテナンス性の低下を招く恐れがある.このため,構文解析と意味解析に独立性を持たせたアプローチが広く提唱・利用されている.PDGでも意味的な曖昧性は語彙概念,概念間意味関係を表現する意味依存グラフとして扱うことを想定している.但し,統語森と依存森のマッピングの枠組み自体は,機能的・意味的多義という言語的分類の議論とは独立であり,文法設計に応じて適宜利用すればよい.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_N構文木1依存木対応(見せかけ曖昧性)を含む依存森JAPENG.eps,scale=0.6}\end{center}\myfiglabelskip\caption{N構文木1依存木対応(見せかけ曖昧性)を含む依存森}\label{fig:DFContainingNtoOneMapping}\end{figure}\ref{sec:AmbiguityInStructuralInterpertation}節の例(図\ref{fig:DFForMyHobbyIs})は,(R7),(R8)により2つの依存構造を生成する構文木を含んでいる.このため,統語森数の構文木の数(8)は,依存森の汎化依存木数(10)より少なくなっている.図\ref{fig:MapFromOnePTToTwoDTs}に実際の構文木と依存木を示す.\begin{comment}#ParseTree[1]s[0,7,is/be]:207+--np[0,2,hobby/n]:108|+--det[0,1,my/det]:101|+--n[1,2,hobby/n]:104+--vp[2,7,is/be]:182+--be[2,3,is/be]:117+--np[3,7,birds/n]:179+--np[3,5,birds/n]:132|+----ving[3,4,watching/ving]:121|+----n[4,5,birds/n]:128+--pp[5,7,with/pre]:176+----pre[5,6,with/pre]:165+----np[6,7,telescope/n]:170+----n[6,7,telescope/n]:168####DependencyStructure[1][is/be,2]+<-(dsc-31)-[birds/n,4]|+<-(adjs-3)-[watching/ving,3]|+<-(npp-23)-[with/pre,5]|+<-(pre-20)-[telescope/n,6]+<-(sub-35)-[hobby/n,1]+<-(det-1)-[my/det,0]####DependencyStructure[2][is/be,2]+<-(dsc-31)-[birds/n,4]|+<-(adjo-4)-[watching/ving,3]|+<-(npp-23)-[with/pre,5]|+<-(pre-20)-[telescope/n,6]+<-(sub-35)-[hobby/n,1]+<-(det-1)-[my/det,0]\end{comment}\subsubsection{複数構文木の1依存木への対応}\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF_N構文木1依存木対応(見せかけ曖昧性)JAPENG.eps,scale=0.75}\end{center}\myfiglabelskip\caption{N構文木1依存木対応(見せかけ曖昧性)の例}\label{fig:SuriousNtoOneMapping}\end{figure}複数の構文構造が1つの依存構造に対応するような現象の例としては,例えば見せかけの曖昧性が挙げられる\cite{Noro02}.構文構造とそれの表す意味との関係において,構文構造の違いが意味的な違いに対応する真の曖昧性と,構文構造は異なるが意味に違いがない構造,または,文法が不十分なために言語学的に誤った構造などの見せかけの曖昧性が存在し,特にコーパスからの文法学習での対応が重要となっている\cite{Noro05}.また,文脈自由文法ではないが,CCG(ConbinatoryCategorialGrammar)においては,多数のspuriousambiguityが存在するという類似の問題があり,標準形の木のみをただ1つ解析結果として出力する手法が提案されている\cite{Eisner96b}.この手法では,解析木の末端のカテゴリ(CCGのカテゴリ)が同一である木は同じ意味構造を有するという定義の基で,同じ意味を表す木(同じ意味クラスの木)はただ1つだけ取り出すことができる.PDGの枠組みでは,文の解釈は(汎化)依存木で表現するため,同一の(汎化)依存木を持つ構文木を同じクラスの木とするという関係になっていると見ることができる.図\ref{fig:DFContainingNtoOneMapping}は,``Shecuriouslysawacatintheforest''を例文文法で解析して得られる依存森であり,見せかけの曖昧性を含んでいる.共起制約が掛かっているのは依存先曖昧性に対応する$npp17$,$vpp18$に対する単一役割制約のみであり,``intheforest''の依存先が異なる2つの依存木(解釈)が存在している.統語森は3つの構文木,初期依存森は3つのID付き依存木(2つの汎化依存木),縮退依存森は2つのID付き依存木(2つの汎化依存木)を含んでいる.見せかけの曖昧性は,動詞句に対する2つの修飾句に関する規則(R17),(R18)の適用順序の違いにより生じている.図\ref{fig:SuriousNtoOneMapping}に構文木と依存木を示す.\begin{comment}======Numberofvarioustrees========[ParseForest](a)ParseForestSize:19(b)Numberofcollectionofparsetrees:3(c)Numberofsetofparsetrees:3[DependencyForest](I-1)InitialDFsize:12(I-2)InitialDFID-treecollectionnumber:3(I-3)InitialDFID-treesetnumber:3(I-4)InitialDFGeneralized-treenumber:2(R-1)ReducedDFsize:9(R-2)ReducedDFID-treecollectionnumber:2(R-3)ReducedDFID-treesetnumber:2(R-4)ReducedDFGeneralized-treenumber:2\end{comment}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_N構文木1依存木対応(真の曖昧性)を含む依存森JAPENG.eps,scale=0.5}\end{center}\myfiglabelskip\caption{N構文木1依存木対応(真の曖昧性)を含む依存森}\label{fig:DFContainingNtoOneMappingRealAmbiguity}\end{figure}言語解釈の意味的な違いについては,微妙な意味の違い\cite{Eisner96b}\footnote{``softlyknocktwice''の解釈候補softly(twice(knock))とtwice(softly(knock))は意味的に等しいが,``intentionallyknocktwice''の解釈候補``intentionally(twice(knock))''と``twice(intentionally(knock))''は意味が異なる.}や限量詞や数の解釈に関わる曖昧性\footnote{「3人が10本の花を買った」において,「各人が10本の花を買った」か「3人全員で10本の花を買った」のようなモデル理論的な意味解釈の曖昧性であり,句構造や依存構造では表現が困難.}なども考慮する必要があり,依存構造の同一性で意味の同一性を判定することはあくまで1つの側面に関する同一性の判定に過ぎない.\cite{Meluk88}は,依存構造での自然な構造表現が困難なケースを挙げ,それらには句構造では自然に表現できるもの,句構造でも自然に表現できないもの(句構造,依存構造の両方とも能力不足)があることを示している.PDGは,句構造と依存構造を扱うため,少なくとも前者については枠組みとしての検証が必要と考える.前者は,依存構造において句のヘッドワードに修飾語が存在する場合にそれがヘッドワードのみを修飾するのか,それともヘッドワード以下の全体を修飾するのかというスコープの曖昧性を表現できないという,標準的な依存構造一般に存在する問題(ここでは{\bf修飾スコープ問題}と呼ぶ)である.図\ref{fig:DFContainingNtoOneMappingRealAmbiguity}に``EarthandJupiterinSolarSystem''に対する依存森を示す.この文には,前置詞句が並列句のヘッド``Jupitor''のみを修飾する解釈と``EarthandJupitor''全体を修飾する解釈の2つが存在する.統語森には2つの解釈に対応する2つの構文木が存在し,初期依存森には2つのID付き依存木(1つの汎化依存木)が存在し,縮退依存森には1つのID付き依存木(1つの汎化依存木)が存在する.2つの構文木と1つの依存木の対応を図\ref{fig:RealNtoOneMapping}に示す.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_N構文木1依存木対応(真の曖昧性)JAPENG.eps,scale=0.7}\end{center}\myfiglabelskip\caption{N構文木1依存木対応(真の曖昧性)の例}\label{fig:RealNtoOneMapping}\end{figure}修飾スコープ問題への対応方法として\cite{Meluk88}は,Groupingという概念を導入している.Groupingは論理的にフレーズと同じでカバーする単語の範囲を示すものである.ただし,Groupingは,全てに記述されるものではなく,対象は曖昧性が生じる並列構造(conjoinedstructure),``not'',``only''と言ったオペレータ語(operatorword)などに限定されている.依存構造をベースにした大規模文法を有する機械翻訳システム\cite{Amano89}では,Groupingに相当する仕組み\footnote{スコープノードという特殊ノードの導入により依存構造の範囲を必要に応じて記述可能としている.}を導入している.工学的観点から言うと,一般にどの程度詳細に深いレベルの解釈構造を作るかという設定は,目的とするアプリケーションにより異なる.機械翻訳アプリケーションにおいては,修飾スコープ問題については並列構造に対する対応だけで実システムが構築されており\footnote{これは英日システムの例である.より詳細には言語対によっても要求レベルは異なってくると考えられる.例えば,英語とフランス語といった同族言語の場合は構文的曖昧性を保持したまま目的言語へ変換するという戦略を取ることにより修飾スコープ問題を回避できる可能性がある.},前記Grouping対象の限定は経験的に妥当であると考えている.また,修飾スコープ問題は,言語によって様相が異なってくる.例えば,ロシア語では形容詞の数,名詞の文法的格が一致(agreement)や支配(government)により統語的に導入され,解釈が決定されるために修飾スコープ問題が起こらないことがある\cite{Meluk88}.また,日本語では,係り受け文法(依存構造文法)に被修飾語は修飾語の左に位置するという制約が存在するため,そもそも修飾スコープ問題が発生せず,依存構造(係り受け構造)の表現力の問題として意識されることがほとんどない.PDGでは同値アークがノードのスコープの違いを表現しているので,依存構造の修飾スコープ問題は,Groupingの概念を同値アークに導入するという拡張により対応できる可能性があり,今後の検討課題である.\begin{comment}======Numberofvarioustrees========[ParseForest](a)Numberofcollectionofparsetrees:2(b)Numberofsetofparsetrees:2[DependencyForest](I-1)InitialDFsize:7(I-2)InitialDFID-treecollectionnumber:2(I-3)InitialDFID-treesetnumber:2(I-4)InitialDFGeneralized-treenumber:1(R-1)ReducedDFsize:5(R-2)ReducedDFID-treecollectionnumber:1(R-3)ReducedDFID-treesetnumber:1(R-4)ReducedDFGeneralized-treenumber:1------\end{comment}\begin{comment}依存構造での表現力の問題D-language単独で表現が困難な構造がある.節のヘッドワードを修飾している要素Xがある構造と,Xが句全体を修飾している構造との意味的な対比.hischeerfulnessandhisaccentastonishing(1a)hischeerfulnessand{hisaccentastonishing}(1b){hischeerfulnessandhisaccent}astonishingこの例は単純にスコープの問題で句構造では,表現されている.(平川)BobandDick'snovels(2a)novelswrittenbytheteam``Bob+Dick''{BobandDick}'snovels(2b)novelswrittenbyBobandnovelswrittenbyDick{Bob}and{Dick'snovels}→スコープの問題としてこの例は表現されていない要素の問題で単純にスコープの問題として扱うことは困難で,句構造なら表現できるというものでもない.3つの方法(a)ラベルに情報をつける→良くないmodif(ヘッドのみ)v.s.phrase-modif(句全体)(b)(1b)(2b)を省略の問題であるとしてとらえ全体構造で表現(1b'){hischeerfulnessastonishing}and{hisaccentastonishing}(2b'){Bob'snovels}and{Dick'snovels}(c)ノード属性の属性マーカを付けて弁別(注:次は正確でない.本と違う)ロシア語では,語のinflectionで数の情報が表現され,次の2文の構造が弁別される.NewYork(MASC.SG,NOM)andChicago(MASC.SG.NOM)University[masc](PK.NOM)(ニューヨークとシカゴの各1つの大学)NewYork(PL.NOM)andChicago(PL.NOM)University[masc](PK.NOM)(ニューヨークとシカゴの各いくつかの大学)-----・句構造でも自然に表現できないもの(両方とも能力不足)とできるものがある・表現できるものスコープの曖昧性・MelukではGroupingという概念を導入している(Groupingは論理的にフレーズと等しい)(=スコープノードと同じ)Groupingは,全てに入れているのではなく,限定されている-conjoinedstructure(曖昧性の出る場合)-``operator''word(not,onlyなど)・アプリケーションにも依存する(弁別の必要がないアプリケーションもある)大規模な英語文法では,conjoinedstructureのみにスコープノードで対応するだけで実用上ほぼ問題なく実現できている.・このヘッドワード修飾か全体修飾かというスコープの問題は対象言語によって異なる.ロシア語では形容詞の数,名詞の文法的格がsyntacticallyに導入されている(byagreementandgovernment)日本語では発生しない(係り受け文法の制約の存在)今後の課題.\end{comment}\subsection{Non-projective依存木の生成}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF_Non-projective依存木の生成例.eps,scale=0.55}\end{center}\myfiglabelskip\caption{Non-projectiveな依存木の生成例}\label{fig:Non-projectiveDT}\end{figure}非交差制約(Projectivityconstraint)\footnote{Projectivityの条件は,「依存関係が交差しない」ことの他に「トップノードがカバーされることはない」の2つであるが,文頭(または文末)に特殊なルートノードを想定することにより,この2番目の条件は不必要となる.日本語はトップノードが文末に位置するためProjectivityのためにはルートノードは必要としない.}は,多くの依存構造解析システムにより受け入れられている制約であり,これらシステムはProjectiveparserと呼ばれる.Projectiveparserはnon-projectiveな構造を持つ文の解析に失敗する.種々の言語の大半の文はprojectiveであるが,いくつかのタイプのnon-projectiveな文が多くの言語に存在する\cite{Meluk88}.英語では,``ShesawthecatcuriouslywhichwasPercian'',日本語では「私は本を東京に買いに昨日行きました」などがnon-projectiveな構造を持つ文である.英語に比べて自由度の高い語順を持つチェコ語の解析において,Non-projectiveparserがprojectiveparserに対して総合的な精度で上回るという報告もある\cite{McDonald05}.しかしながら,単純にNon-projectiveな解釈を許すだけでは,全体として性能の劣化に繋がる恐れもあり多くのシステムでは対象をprojectiveな依存木に限定していると思われる.PDGでは,\ref{sec:bunpoukisoku}節で述べたように,構成素列(規則ボディ)とアーク集合(部分依存構造)のマッピングが拡張CFG規則で定義される.この記述の枠組みにより,Allornothingではなく,規則により定義されたnon-projectiveな構造のみをWell-formedな構造として共起マトリックスの共起制約として表現することが可能である.これをコントロールされたnon-projectivityと呼ぶこととする.図\ref{fig:GrammarForExamples}の(R19)はNon-projectiveな構文に対する文法規則であり,関係節の前に副詞が挿入された構文に対応している.図\ref{fig:Non-projectiveDT}に``ShesawthecatcuriouslywhichwasPercian''に対して例文文法が生成する依存森を示す.依存森には,non-projectiveな整依存木が1つ存在している. \section{おわりに} 本稿では,PDGの基本モデルである多レベル圧縮共有データ結合モデルとPDGの概要について述べるとともに,特にPDGにおける圧縮共有データ構造である統語森と依存森について述べた.また,統語森と依存森の間には,完全性と健全性が成立することを示した.圧縮共有された句構造解釈(統語森)を圧縮共有された依存構造(依存森)に対応関係を持って変換でき,それぞれのレベルでの言語知識の適応が可能である点が最大の特徴である.また,自然言語の曖昧性例文に対してPDGの文法と試作システムを用いて解析実験を行い,各種曖昧性が依存森により圧縮共有表現できることを示し,さらに,PDGではNon-projectiveな構造を必要に応じて規則導入できることを示した.現状のPDGの実装は,方式のフィージビリティスタディを想定したものであり,文法記述の拡張(属性条件記述,任意構成素指定の導入など),解析アルゴリズム縮退アルゴリズムの効率化(文法解析による事前最適化,実装上の効率化)などを進める予定である.また,PDGの最適解探索の方式(グラフ分枝アルゴリズム)や評価方式については一部報告しているが,各種選好知識と組み合わせたPDG全体としての評価などについて報告してゆく予定である.\acknowledgment本研究を進めるにあたって依存森の完全性・健全性の証明に関して有意義なコメントをいただいたつくば大学数学科坂井公助教授に感謝いたします.\begin{comment}また,様々なコメントをいただいた査読者の方々に感謝いたします.\end{comment}\newpage\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Amano,Hirakawa,Nogami,\BBA\Kumano}{Amanoet~al.}{1989}]{Amano89}Amano,S.,Hirakawa,H.,Nogami,H.,\BBA\Kumano,A.\BBOP1989\BBCP.\newblock\BBOQTheToshibaMachineTranslationSystem\BBCQ\\newblock{\BemFutureComputingSystems},{\Bbf2}(3).\bibitem[\protect\BCAY{Bikel}{Bikel}{2004}]{Bikel04}Bikel,D.~M.\BBOP2004\BBCP.\newblock\BBOQIntricaciesofCollins'ParsingModel\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(4),\mbox{\BPGS\479--511}.\bibitem[\protect\BCAY{Carroll\BBA\Charniak}{Carroll\BBA\Charniak}{1992}]{Carroll92}Carroll,G.\BBACOMMA\\BBA\Charniak,E.\BBOP1992\BBCP.\newblock\BBOQTwoExperimentsonLearningProbablisticDependencyGrammarsformCorpora\BBCQ\\newblockTechnicalreport,DepartmentofComputerScience,Brownuniversity.\bibitem[\protect\BCAY{Charniak}{Charniak}{2000}]{Charniak00}Charniak,E.\BBOP2000\BBCP.\newblock\BBOQAmaximum-entropy-inspiredparser\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{Clark\BBA\Curran}{Clark\BBA\Curran}{2003}]{Clark03}Clark,S.\BBACOMMA\\BBA\Curran,J.~R.\BBOP2003\BBCP.\newblock\BBOQLog-LinearModelsforWide-CoverageCCGParsing\BBCQ\\newblockIn{\BemProceedingsoftheSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP'03)},\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{Collins}{Collins}{1999}]{Collins99}Collins,M.\BBOP1999\BBCP.\newblock{\BemHead-DrivenStatisticalModelsforNaturalLanguageParsing}.\newblockPh.D.\thesis,UniversityofPennsylvania.\bibitem[\protect\BCAY{Eisner}{Eisner}{1996}]{Eisner96b}Eisner,J.\BBOP1996\BBCP.\newblock\BBOQEfficientNormalFormParsingforCombinatoryCategorialGrammar\BBCQ\\newblockIn{\BemProceedingsofthe34thAnnualMeetingoftheACL},\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Harper,Hockema,\BBA\White}{Harperet~al.}{1999}]{Harper99}Harper,M.~P.,Hockema,S.~A.,\BBA\White,C.~M.\BBOP1999\BBCP.\newblock\BBOQEnhancedconstraintdependencygrammarparsers\BBCQ\\newblockIn{\BemProceedingsoftheIASTEDInternationalConferenceonArticialIntelligenceandSoftComputing}.\bibitem[\protect\BCAY{Hirakawa}{Hirakawa}{2001}]{Hirakawa01}Hirakawa,H.\BBOP2001\BBCP.\newblock\BBOQSemanticDependencyAnalysisMethodforJapaneseBasedonOptimumTreeSearchAlgorithm\BBCQ\\newblockIn{\BemProceedingsofthePACLING2001},\mbox{\BPGS\117--126}.\bibitem[\protect\BCAY{Hirakawa}{Hirakawa}{2005}]{Hirakawa05d_j}Hirakawa,H.\BBOP2005\BBCP.\newblock\BBOQGraphBranchAlgorithm:AnOptimumTreeSearchMethodforScoredDependencyGraphwithArcCo-occurrenceConstraints\BBCQ\\newblock\Jem{情報処理学会,自然言語処理研究会NL-169-16},\mbox{\BPGS\101--108}.\bibitem[\protect\BCAY{Kaplan}{Kaplan}{1989}]{Kaplan89}Kaplan,R.\BBOP1989\BBCP.\newblock\BBOQTheFormalArchitectureofLexical-FunctionalGrammar\BBCQ\\newblock{\BemJournalofInformationScienceandEngineering},{\Bbf5},\mbox{\BPGS\305--322}.\bibitem[\protect\BCAY{Lafferty,Sleator,\BBA\Temperley}{Laffertyet~al.}{1992}]{Lafferty92}Lafferty,J.,Sleator,D.,\BBA\Temperley,D.\BBOP1992\BBCP.\newblock\BBOQGrammaticalTrigrams:aProbabilisticModelofLinkGrammar\BBCQ\\newblockIn{\BemProbabilisticApproachestoNaturalLanguage}.\bibitem[\protect\BCAY{Lee\BBA\Choi}{Lee\BBA\Choi}{1997}]{Lee97}Lee,S.\BBACOMMA\\BBA\Choi,K.~S.\BBOP1997\BBCP.\newblock\BBOQReestimationandBest-FirstParsingAlgorithmforProbablisticDependencyGrammars\BBCQ\\newblockIn{\BemProceedingsoftheFifthWorkshoponVeryLargeCorpora},\mbox{\BPGS\41--55}.\bibitem[\protect\BCAY{Maruyama}{Maruyama}{1990}]{Maruyama90}Maruyama,H.\BBOP1990\BBCP.\newblock\BBOQConstraintDependencyGrammarandItsWeakGenerativeCapacity\BBCQ\\newblock{\BemComputerSoftware}.\bibitem[\protect\BCAY{Matsumoto,Tanaka,Hirakawa,Miyoshi,\BBA\Yasukawa}{Matsumotoet~al.}{1983}]{Matsumoto83}Matsumoto,Y.,Tanaka,H.,Hirakawa,H.,Miyoshi,H.,\BBA\Yasukawa,H.\BBOP1983\BBCP.\newblock\BBOQBUP:ABottom-UpParserEmbeddedinProlog\BBCQ\\newblock{\BemNewGenerationComputing},{\Bbf1}(2),\mbox{\BPGS\145--158}.\bibitem[\protect\BCAY{McDonald,Crammer,\BBA\Pereira}{McDonaldet~al.}{2005}]{McDonald05}McDonald,R.,Crammer,K.,\BBA\Pereira,F.\BBOP2005\BBCP.\newblock\BBOQSpanningTreeMethodsforDiscriminativeTrainingofDependencyParsers\BBCQ\\newblockTechnicalreport,UPennCIS.\bibitem[\protect\BCAY{Mel'uk}{Mel'uk}{1988}]{Meluk88}Mel'uk,I.~A.\BBOP1988\BBCP.\newblock{\BemDependencySyntax:TheoryandPractice}.\newblockStateUniversityofNewYorkPress,Albany,NewYork.\bibitem[\protect\BCAY{Ozeki}{Ozeki}{1994}]{Ozeki94}Ozeki,K.\BBOP1994\BBCP.\newblock\BBOQDependencyStructureAnalysisasCombinatorialOptimization\BBCQ\\newblock{\BemInformationSciences},{\Bbf78}(1-2),\mbox{\BPGS\77--99}.\bibitem[\protect\BCAY{Pereira\BBA\Warren}{Pereira\BBA\Warren}{1980}]{Pereira80}Pereira,F.\BBACOMMA\\BBA\Warren,D.\BBOP1980\BBCP.\newblock\BBOQDefiniteclausegrammarsforlanguageanalysis-asurveyoftheformalismandacomparisonwithaugmentedtransitionnetworks\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf13}(3),\mbox{\BPGS\231--278}.\bibitem[\protect\BCAY{Pollard\BBA\Sag}{Pollard\BBA\Sag}{1994}]{Pollard94}Pollard,C.\BBACOMMA\\BBA\Sag,I.~A.\BBOP1994\BBCP.\newblock{\BemHead-DrivenPhraseStructureGrammar}.\newblockUniversityofChicagoPress,Chicago.\bibitem[\protect\BCAY{Riezler,King,Kaplan,Crouch,Maxwell~III,\BBA\Johnson}{Riezleret~al.}{2002}]{Riezler02}Riezler,S.,King,T.~H.,Kaplan,R.~M.,Crouch,R.,Maxwell~III,J.~T.,\BBA\Johnson,M.\BBOP2002\BBCP.\newblock\BBOQParsingtheWallStreetJournalusingaLexical-FunctionalGrammarandDiscriminativeEstimationTechniques\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheACL(ACL-02)},\mbox{\BPGS\271--278}.\bibitem[\protect\BCAY{Rim,Seo,\BBA\Simmons}{Rimet~al.}{1990}]{Rim90}Rim,H.~C.,Seo,J.,\BBA\Simmons,R.~F.\BBOP1990\BBCP.\newblock\BBOQTransformingSyntacticGraphsintoSemanticGraphs\BBCQ\\newblockTechnicalreport,ArtificialIntelligenceLab,TexasatAustin.\bibitem[\protect\BCAY{Schiehlen}{Schiehlen}{1996}]{Schiehlen96}Schiehlen,M.\BBOP1996\BBCP.\newblock\BBOQSemanticConstructionfromParseForests\BBCQ\\newblockIn{\BemComputationalLinguistics(COLING'96)}.\bibitem[\protect\BCAY{Seo\BBA\Simmons}{Seo\BBA\Simmons}{1989}]{Seo89}Seo,J.\BBACOMMA\\BBA\Simmons,R.~F.\BBOP1989\BBCP.\newblock\BBOQASyntacticGraphs:ARepresentationfortheUnionofAllAmbiguousParseTrees\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf15}.\bibitem[\protect\BCAY{Shudo,Narahara,\BBA\Yoshida}{Shudoet~al.}{1980}]{Shudo80}Shudo,K.,Narahara,T.,\BBA\Yoshida,S.\BBOP1980\BBCP.\newblock\BBOQMorphologicalaspectsofJapaneselanguageprocessing\BBCQ\\newblockIn{\BemProceedingsofCOLING'80}.\bibitem[\protect\BCAY{Sleator\BBA\Temperley}{Sleator\BBA\Temperley}{1991}]{Sleator91}Sleator,D.\BBACOMMA\\BBA\Temperley,D.\BBOP1991\BBCP.\newblock\BBOQParsingEnglishwithaLinkGrammar\BBCQ\\newblockTechnicalreport,DepartmentofComputerScience,CarnegieMellonUniversity.\bibitem[\protect\BCAY{Steedman}{Steedman}{2000}]{Steedman00}Steedman,M.\BBOP2000\BBCP.\newblock{\BemTheSyntacticProcess}.\newblockTheMITPress,Cambridge,MA.\bibitem[\protect\BCAY{Tomita}{Tomita}{1987}]{Tomita87}Tomita,M.\BBOP1987\BBCP.\newblock\BBOQAnefficientaugmented-context-freeparsingalgorithm\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf13}(1-2),\mbox{\BPGS\31--46}.\bibitem[\protect\BCAY{Tsuruoka,Miyao,\BBA\Tsujii}{Tsuruokaet~al.}{2004}]{Tsuruoka04}Tsuruoka,Y.,Miyao,Y.,\BBA\Tsujii,J.\BBOP2004\BBCP.\newblock\BBOQTowardsefficientprobabilisticHPSGparsing:integratingsemanticandsyntacticpreferencetoguidetheparsing\BBCQ\\newblockIn{\BemIJCNLP-04Workshop:BeyondShallowAnalyses-FormalismsandStatisticalModelingforDeepAnalyses}.\bibitem[\protect\BCAY{Wang\BBA\Harper}{Wang\BBA\Harper}{2004}]{Wang04}Wang,W.\BBACOMMA\\BBA\Harper,M.~P.\BBOP2004\BBCP.\newblock\BBOQAStatisticalConstraintDependencyGrammar(CDG)Parser\BBCQ\\newblockIn{\BemWorkshoponIncrementalParsing:BringingEngineeringandCognitionTogether(ACL)},\mbox{\BPGS\42--49}.\bibitem[\protect\BCAY{Wilks}{Wilks}{1975}]{Wilks75}Wilks,Y.~A.\BBOP1975\BBCP.\newblock\BBOQAnIntelligentAnalyzerandUnder-standerofEnglish\BBCQ\\newblock{\BemCommunicationsoftheA.C.M.},{\Bbf18},\mbox{\BPGS\264--274}.\bibitem[\protect\BCAY{Winograd}{Winograd}{1983}]{Winograd83}Winograd,T.\BBOP1983\BBCP.\newblock{\BemLanguageasaCognitiveProcess:Volume1Syntax}.\newblockAddison-WesleyPublishing.\bibitem[\protect\BCAY{工藤拓\JBA松本裕治}{工藤拓\JBA松本裕治}{2005}]{Kudo05_j}工藤拓\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ相対的な係りやすさを考慮した日本語係り受け解析モデル\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(4),\mbox{\BPGS\1082--1092}.\bibitem[\protect\BCAY{平川秀樹}{平川秀樹}{2002}]{Hirakawa02_j}平川秀樹\BBOP2002\BBCP.\newblock\JBOQ最適解探索に基づく日本語意味係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(3),\mbox{\BPGS\696--707}.\bibitem[\protect\BCAY{平川秀樹\JBA天野真家}{平川秀樹\JBA天野真家}{1989}]{Hirakawa89a}平川秀樹\JBA天野真家\BBOP1989\BBCP.\newblock\JBOQ構文/意味優先規則による日本語解析\JBCQ\\newblock\Jem{人工知能学会第3回全国大会論文集},\mbox{\BPGS\363--366}.\bibitem[\protect\BCAY{野呂智哉\JBA岡崎篤\JBA徳永健伸\JBA田中穂積}{野呂智哉\Jetal}{2002}]{Noro02}野呂智哉\JBA岡崎篤\JBA徳永健伸\JBA田中穂積\BBOP2002\BBCP.\newblock\JBOQ大規模日本語文法構築に関する一考察\JBCQ\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\387--390}.\bibitem[\protect\BCAY{野呂智哉\JBA橋本泰一\JBA徳永健伸\JBA田中穂積}{野呂智哉\Jetal}{2005}]{Noro05}野呂智哉\JBA橋本泰一\JBA徳永健伸\JBA田中穂積\BBOP2005\BBCP.\newblock\JBOQ大規模日本語文法の開発\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(1),\mbox{\BPGS\3--32}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{平川秀樹}{昭和55年京都大学大学院工学研究科電気工学専攻修士課程修了.同年東京芝浦電気(株)入社.機械翻訳システムの研究開発に従事.昭和57-59年新世代コンピュータ開発機構(ICOT)研究員,平成6-7年MITMediaLab.派遣研究員,(株)東芝研究開発センター知識メディアラボラトリ所属,自然言語処理,知識処理,ヒューマンインタフェースに関する研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL,GSK各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\begin{comment}\end{comment}\newpage\subsection*{付録1:構文グラフの問題}\small\def\verbatimsize{}次の文法規則を与えて``Tokyotaxidrivercallcenter''をスタートシンボルをnpとして解析する場合を考える.{\rm\begin{verbatim}[GrammarRules]np/NP-->npc/NP:[]npc/Nb-->np1/NP1,n/Na,n/Nb:[arc(nj,NP1,Nb),arc(nc,Na,Nb)]npc/Na-->np2/NP2,n/Na:[arc(nc,NP2,Na)]npc/Na-->np3/NP3,n/Na:[arc(nc,NP3,Na)]np1/Nc-->n/Na,n/Nb,n/Nc:[arc(nc,Na,Nb),arc(nc,Nb,Nc)]np2/Nd-->n/Na,n/Nb,n/Nc,n/Nd:[arc(nj,Na,Nc),arc(nc,Nb,Nc),arc(nc,Nc,Nd)]np3/Nd-->n/Na,n/Nb,n/Nc,n/Nd]:[arc(nc,Na,Nb),arc(nj,Nb,Nd),arc(nc,Nc,Nd)][Lexicon]word(n,[Tokyo]).word(n,[taxi]).word(n,[driver]).word(n,[call]).word(n,[center]).\end{verbatim}}\begin{comment}\begin{figure}[h]\begin{center}\epsfile{file=\myfigdir/DF付録1−1.eps,scale=0.6}\end{center}\myfiglabelskip\end{figure}\end{comment}この例文では,図\ref{fig:SynGraphBadExample}の(a),(b),(c)の3つの依存木が解として存在する.依存木のnp1,np2,np3の箱は,句構造と依存構造の対応を分かりやすく示すために補助的に入れている.\begin{figure}[h]\begin{center}\epsfile{file=\myfigdir/DF付録1−2.eps,scale=0.6}\end{center}\myfiglabelskip\caption{依存木と構文グラフ/排他マトリックス}\label{fig:SynGraphBadExample}\end{figure}(a)では,nc-1,nc-2,(b)では,nc-2,nc-3,(c)では,nc-3,nc-1の間で共起関係が成立するため,図の構文グラフ/排他マトリックスにおいて,それぞれ対応する排他マトリックスは``''となっている.このため,(d)の依存木も依存グラフ/排他マトリックスに存在するが,これに対応する構文木は存在せず,健全性が損なわれている.\normalsize\subsection*{付録2:初期依存森の完全性と健全性の証明}\small以下では,統語森PFとそれから構成された依存森DF(依存グラフDG,共起マトリックスCM)を想定する.依存森の完全性・健全性の証明の前に,本文で示したアルゴリズムで生成される統語森と依存森の要素に成立する関係を示し,依存森の完全性・健全性を示すために必要な補題を示す.\subsection*{[圧縮弧と単一弧]}統語森は圧縮弧の集合として構成されている.\ref{sec:konokousei}節で説明したように圧縮弧は単一弧の集合と等価であり,以下では,圧縮弧は単一弧の集合として扱う.すなわち,図\ref{fig:ArcStructure}の圧縮弧\mygapskip圧縮弧:$<$ID,FP,TP,C,PH,FCSL,RCS,DSL$>$ここでFCSL=[CS$_1$,${\ldots}$,CS$_n$],DSL=[DS$_1$,${\ldots}$,DS$_n$]\mygapskip{\mynoindent}は次の単一弧の集合\{*e$_1$,${\ldots}$,*e$_n$\}に対応する.\mygapskip*e$_1$:$<$ID-1,FP,TP,C,PH,(CS$_1$DS$_1$),RCS$>$:*e$_n$:$<$ID-$n$,FP,TP,C,PH,(CS$_n$DS$_n$),RCS$>$\mygapskip{\mynoindent}例えば,図\ref{fig:ArcStructure}の弧*E4は,次の単一弧*e$_1$,*e$_2$からなる集合である\footnote{部分依存構造はアーク集合であるので証明部分では\{\}で表現する.}.\mygapskip単一弧*e$_1$:$<$170-1,0,5,vp,[time]-v-0,[103,169],[],\{arc(obj-25,[flies]-n-1,[time]-v-0)\}$>$単一弧*e$_2$:$<$170-2,0,5,vp,[time]-v-0,[103,119,165],[],\\\{arc(obj-4,[flies]-n-1,[time]-v-0),arc(vpp-20,[like]-pre-2,[time]-v-0)\}$>$\mygapskip{\mynoindent}単一弧は,圧縮弧のIDとCSDSペアのリスト中の位置番号の組合せ(例えば*e$_1$では170-1)で統語森中で一意に特定される.また,語彙弧も同様に1つの単一語彙弧よりなる集合として扱う.図\ref{fig:ArcStructure}の弧@E5は,次の単一語彙弧からなる集合\{@e$_3$\}である.\mygapskip単一弧@e$_3$:$<$156-1,4,5,n,[arrow]-n-4,[lex([arrow]-n)],\{[[arrow]-n-4]\}$>$\mygapskip圧縮弧や単一弧を構成する種々の要素は対応関係を持っている.次に証明で利用する用語や関係定義などを示す.例の*e$_1$は上記の単一弧*e$_1$である.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}弧とその要素の関係\begin{itemize}\item[\myitemindentcs($X$)]:単一弧$X$の構成素列CS.ex.cs(*e$_1$)=[103,169](103,169は圧縮弧のID)\item[\myitemindentds($X$)]:単一弧$X$の部分依存構造DSまたは単一語彙弧のノード\\ex.ds(*e$_1$)=\{arc(obj-25,[flies]-n-1,[time]-v-0)\},ds(@e$_3$)=\{[arrow]-n-4\}\item[\myitemindent統語森・弧中のアーク]:単一弧$X$中のアークとは$a{\in}$ds($X$),圧縮弧$Y$中のアークとは$a{\in}$ds($X$),$X{\in}Y$,統語森PF中のアークとは$a{\in}$ds($X$),$X{\in}Y$,$Y{\in}$PFをいう.\end{itemize}アークやノードの関係\begin{itemize}\item[\myitemindentgov($X$)]:アーク$X$の支配ノード.ex.gov(arc(obj-25,[flies]-n-1,[time]-v-0))=[time]-v-0\item[\myitemindentdep($X$)]:アーク$X$の依存ノード.ex.dep(arc(obj-25,[flies]-n-1,[time]-v-0)=[flies]-n-1\item[\myitemindenttop\_node($X$)]:依存木$X$のトップノード(どのアークの依存ノードにもなっていないノード).\end{itemize}依存木DT中のアーク$X$,$Y$に対する関係\begin{itemize}\item[\myitemindentbro($X$,$Y$)]:gov($X$)=gov($Y$).$X$,$Y$を兄弟アークと呼ぶ.\item[\myitemindent$X\:{\xrightarrow[{\rmDT}]{1}}\:Y$]:dep($X$)=gov($Y$).$X$は$Y$の親,$Y$は$X$の子と呼び,この関係を親子関係と呼ぶ.\item[\myitemindent$X\:{\xrightarrow[{\rmDT}]{+}}\:Y$]:$X$から$Y$に親子関係の連鎖(1段以上)が存在.$X$を$Y$の祖先アーク,$Y$を$X$の子孫アークと呼ぶ.\item[\myitemindent$X\:{\xrightarrow[{\rmDT}]{*}}\:Y$]:$X=Y$または$X{\xrightarrow[{\rmDT}]{+}}Y$.\end{itemize}\myhalfskip\end{minipage}}\subsection*{[統語森・統語森中の弧・構文木]}統語森PFは,ルート圧縮弧*E$_{root}$をルートとし語彙弧をリーフとする圧縮弧からなる非循環有向グラフ(DAG)である.統語森の構成より,次のようにパスを定義する.\begin{definition}{\bf統語森中のパス}とは,圧縮弧から1つの単一弧を選択すること,ならびに単一弧の構成素列CS(圧縮弧の列)から1つの圧縮弧を選択することにより,圧縮弧と単一弧を交互に辿ることにより得られる圧縮弧と単一弧からなる列である.\end{definition}{\mynoindent}今,統語森中の弧*E$_0$,*E$_1$,*E$_2{\cdots}$が次のようであるとする.\mygapskip\hspace{15mm}*E$_0=$\{*e$_1$,*e$_2$\},*E$_1=$\{*e$_3$\},*E$_2=$\{*e$_4$,*e$_5$\},*E$_3=$\{*e$_6$,*e$_7$\}${\ldots}$\hspace{15mm}cs(*e$_1$)=[*E$_1$,*E$_2$],cs(*e$_2$)=[*E$_3$],cs(*e$_3$)=[*E$_4$,*E$_5$]${\ldots}$\mygapskip{\mynoindent}次の4つはパスの例である.\mygapskip\hspace{15mm}[*E$_0$,*e$_1$,*E$_2$,*e$_5$],[*E$_0$,*e$_1$,*E$_2$],[*e$_1$,*E$_1$,*e$_3$,*E$_5$],[*e$_1$,*E$_1$,*e$_3$]\mygapskip{\mynoindent}以下に証明で用いる用語や関係定義を示す.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}\mygapskip統語森に関連する用語や関係定義\begin{itemize}\item[\myitemindent$X\:{\xrightarrow[{\rmPF}]{+}}\:Y$]:統語森PFにおいて単一弧または圧縮弧$X$から単一弧または圧縮弧$Y$に対して[$X,{\ldots},Y$]なるパスが存在する.$X$を$Y$の祖先とも呼ぶ.\item[\myitemindent$X\:{\xrightarrow[{\rmPF}]{*}}\:Y$]:単一弧または圧縮弧$X$,$Y$に対して,$X=Y$または$X{\xrightarrow[{\rmPF}]{{\tiny+}}}Y$が成立する.このとき,$X$から$Y$に{\bf到達可能}と呼ぶ.\item[\myitemindent$X\:{\swarrow}${\tiny[PF]}${\searrow}\:Y$]:単一弧または圧縮弧$X$,$Y$に対して,$X{\neq}Y$,$\neg$($X{\xrightarrow[{\rmPF}]{*}}Y$),$\neg$($Y{\xrightarrow[{\rmPF}]{*}}X$)であり,$Z{\xrightarrow[{\rmPF}]{*}}X$かつ$Z{\xrightarrow[{\rmPF}]{*}}Y$なる単一弧または圧縮弧$Z$が統語森PFに少なくとも1つ存在する.\item[\myitemindent弧が支配するアーク]:アーク$X$は$X{\in}$ds(*e),*E${\xrightarrow[{\rmPF}]{{\tiny*}}}$*eの時,弧*Eに支配されるという.\end{itemize}\myhalfskip\end{minipage}}\myhalfskip\myhalfskip{\mynoindent}統語森の定義よりルート圧縮弧*E$_{root}$から統語森PF中の全ての単一弧または圧縮弧へ到達するパスが存在する.以上定義した記法を用いると\ref{sec:PFandDFseisei}節の共起設定条件は次の様に定義できる.\begin{definition}共起設定条件:アーク$X$,$Y$は次のいずれかの条件を満たす時に共起可能である.\begin{itemize}\item[(C1)]:アーク$X$,$Y$に対し$X$,$Y{\in}$ds(*e),*e${\in}$*E,*E${\in}$PFなる*eが存在する.\item[(C2)]:アーク$X$,$Y$に対し$X{\in}$ds(*e$_x$),$Y{\in}$ds(*e$_y$),*e$_x{\xrightarrow[{\rmPF}]{{\tiny+}}}$*e$_y$又は*e$_y{\xrightarrow[{\rmPF}]{{\tiny+}}}$*e$_x$なる*e$_x$,*e$_y$が存在する.\item[(C3)]:アーク$X$,$Y$に対して$X{\in}$ds(*e$_x$),$Y{\in}$ds(*e$_y$),*e$_x{\swarrow}${\tiny[PF]}${\searrow}$*e$_y$なる*e$_x$,*e$_y$が存在する.\end{itemize}\end{definition}{\mynoindent}また,構文木を次のように定義する.\begin{definition}構文木は,統語森中の圧縮弧*Eに対して適用される図\ref{fig:get_parse_tree}の再帰的な手続きget\_tree(*E)により得られる単一弧の集合である.\end{definition}\clearpage\clearpage\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF付録2圧縮弧から構文木を得るアルゴリズム.eps,scale=0.7}\end{center}\myfiglabelskip\myfiglabelskippre\caption{圧縮弧から構文木を得るアルゴリズム}\myfiglabelskippost\label{fig:get_parse_tree}\end{figure}図のselect(RPE)では圧縮弧RPE中の任意の単一弧を1つ選択する.lexical\_edge(SE)はSEが語彙弧のときに真となる.また,構文木は,弧*Eの始点から終点の範囲の語を被覆する.\begin{definition}parse\_trees(*E)は,弧*Eに対する全構文木の集合である.\end{definition}\begin{figure}[b]\myfigskiptop\begin{center}\epsfile{file=\myfigdir/DF付録2弧の結合木.eps,scale=0.81}\end{center}\myfiglabelskip\myfiglabelskippre\caption{弧の結合木}\label{fig:EdgeCombinationTree}\myfiglabelskippost\end{figure}\subsection*{[弧とアーク・部分依存構造の関係]}図\ref{fig:ChartAlgotithm}のアルゴリズムはデータ構造として圧縮弧を用いて構成されている.但し,弧の圧縮共有は,不活性弧が生成された時点(図\ref{fig:ChartAlgotithm}(c),(d))でのみ行われる.このため,活性圧縮弧は1つの単一弧を要素として持つのみであり\footnote{活性弧も圧縮共有する解析アルゴリズムも考えられるため圧縮弧をベースとしている.},活性圧縮弧と単一弧は1対1対応している.以下の議論では,簡便のため,圧縮弧を単に弧と表現する.構文解析は,不活性弧を活性弧に結合(combine)し新しい弧が生成されることで進行する.模式的に言えば,弧の結合では,\ref{sec:konokousei}節で述べたように,活性弧の``・''を1つ右に移動し,結合する不活性弧の句ヘッド(ノード)との変数束縛を行った新たな弧の生成が行われる.図\ref{fig:EdgeCombinationTree}は,弧の結合により1つの文法規則から不活性弧が生成される様子を示した木であり,{\bf弧の結合木}と呼ぶ.弧の結合木は,ルートにある文法規則\footnote{文法規則を弧の形式で表現している.実際にはこの弧は生成されないが説明上導入している.}から,弧の結合により活性弧が生成され(中間に位置),最終的に不活性弧(リーフに位置)になる様子を示している.文法規則は次である.$${\rmy/}X_h\rightarrow{\rmx}_1{\rm/}X_1{\cdots}{\rmx}_h{\rm/}X_h{\cdots}{\rmx}_n{\rm/}X_n:\{A_1,A_2,{\ldots},A_{n-1}\}$$$A_i$はアークで,arc($a_i$,$X_k$,$X_l$)の形式($a_i$は任意のアーク名,1${\leq}k{\leq}n$,1${\leq}l{\leq}n$,$k{\neq}l$)をしている.\{$A_1$,${\ldots}$,$A_{n-1}$\}は,部分依存構造条件(\ref{sec:bunpoukisoku}節)を満足している.結合木中の弧は,「・」を用いた図式的表現で示しており,始点,終点は省略している.弧を結ぶ枝が弧の結合を表しており,枝の元の弧と枝に付けた不活性圧縮弧とが結合して枝の先の弧を新規に生成する.例えば,弧E$_{11}$(図\ref{fig:EdgeCombinationTree}(a))と弧$<$*Ex$_2$/n$_{21}$$\rightarrow$${\ldots}$$>$(図\ref{fig:EdgeCombinationTree}(b))が結合して弧E$_{21}$(図\ref{fig:EdgeCombinationTree}(c))が生成される.枝を下る毎に「・」が右に移動するので,E$_0$から葉の不活性弧までの深さは文法規則の規則ボディの要素数$n$である.弧の結合では,結合対象の弧の句ヘッド(ノード)が結合先の変数に束縛されるが,この変数の束縛状況を結合木の弧の後に\{\}で示している.例えば,E$_0$と(d)の弧(句ヘッドはn$_{11}$)との結合でE$_{11}$が生成され,さらに(b)の弧(句ヘッドはn$_{21}$)が結合して弧E$_{21}$が生成される.この結果(c)の弧E$_{21}$の変数束縛結果は\{$X_1$:=n$_{11}$,$X_2$:=n$_{21}$\}となっている\footnote{変数のスコープは1つの弧内であり,同じ名前の変数でも別の弧では異なった変数である.}.変数束縛により依存ノードと支配ノードの両者が確定したアークは{\bf確定アーク}と呼び,図\ref{fig:ChartAlgotithm}(i)のadd\_arcidにより新規のアークIDが付与される.確定アークは,図\ref{fig:EdgeCombinationTree}では,同図(e)のa$_1$ように小文字aで表現する.1回の変数束縛で複数のアークが確定する場合や1つも確定しない場合もあるが,確定されたアーク$a$に対しては,それを確定した変数束縛は一意に決定される.さらに,その変数束縛(あるいは弧の結合)により生じる弧は1つに特定される.この弧を(確定された){\bfアークを生成した弧}と呼び,src\_Edge(a)と記述する.例えば,図\ref{fig:EdgeCombinationTree}の(e)と(f)の結合では,変数$X_i$へのノードn$_{im}$(例えば[like]-pre-3とする)の束縛により,アーク$A_i$(例えば,arc(pre,$X_i$,[time]-v-0)とする)が確定されアークa$_i$(arc(pre-28,[like]-pre-3,[time]-v-0)(ユニークアークIDが28))になったとすると,アークa$_i$を生成した弧すなわちsrc\_Edge(a$_i$)は弧E$_{im}$(図\ref{fig:EdgeCombinationTree}(g))となる.リーフに位置する不活性弧(例えば図\ref{fig:EdgeCombinationTree}(h))では,部分依存構造条件より句ヘッドを含む全ての変数が束縛され,全てのアークが確定された状態となる.不活性弧は,弧の結合木のルートからリーフにいたる一連の弧の結合により生じる変数の束縛,アークの確定の結果を表している.次に結合木に関連する用語や関係定義などを示す.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}\mygapskip弧の結合木に関連する用語や関係定義\begin{itemize}\item[\myitemindent{\bf確定アーク}]:弧の結合時の変数束縛により依存ノードと支配ノードの両者が確定されたアーク\item[\myitemindentsrc\_Edge($a$)({\bf生成弧})]:確定アーク$a$を生成した弧(活性圧縮弧または不活性圧縮弧).確定アークから弧への対応は1対1,弧から確定アークへの対応は1対0〜多.\item[\myitemindent$X{\xrightarrow[{\rmCT}]{*}}Y$({\bfオリジン})]:弧の結合木CTにおいて,ルートから弧$Y$に至る経路に弧$X$が存在する,又は,$X=Y$である.$X$を$Y$のオリジンと呼ぶ.\item[\myitemindent{\bfオリジンの関係}]:弧の結合木CTにおいて弧$X$,$Y$に関して$X{\xrightarrow[{\rmCT}]{*}}Y$または$Y{\xrightarrow[{\rmCT}]{*}}X$が成り立つ時,$X$と$Y$はオリジンの関係にあるという.\item[\myitemindentedge($a$,$DT$)({\bf対応弧})]:確定アーク$a$と整依存木$DT$に対して次の条件(補題\ref{lem:app2-2})を満たす単一弧$e$を意味し,アーク$a$の整依存木$DT$に対する「対応弧」と呼ぶ.{\myitemindent}$DT{\supseteq}{\rmds(}e{\rm)},{\rma}{\in}{\rmds(}e{\rm)}$\end{itemize}\myhalfskip\end{minipage}}\myhalfskip{\mynoindent}上記の弧の結合木の構成より,部分依存構造中に存在する2つの確定アークa$_i$,a$_j$に関して,次の補題が成立する.\begin{lemma}[同一部分依存構造中のアークの関係]\label{lem:TwoArcsInOneDS}単一弧$e$中の確定アークa$_i$,a$_j{\in}${\rmds(}$e${\rm)}に対してそれらの生成弧src\_Edge(a$_i$)とsrc\_Edge(a$_j$)はオリジンの関係にある.\end{lemma}{\mynoindent}また,一度確定されたアークは,結合木上で下位に位置する弧の依存構造に含まれる.例えば,(g)で確定されたアークa$_i$は,(h)など(g)をオリジンとする弧全てに含まれる.このため,次の補題が成立する.\begin{lemma}[アークとアークを生成した弧の関係]\label{lem:app2-1}確定アークa$_i$,a$_j$に対して,src\_Edge(a$_i$)${\xrightarrow[{\rmCT}]{*}}$src\_Edge(a$_j$)の時,PF中の任意の単一弧*e(*e${\in}$*E,*E${\in}$PF)に対してa$_j{\in}$ds(*e)であればa$_i{\in}$ds(*e)である.\end{lemma}なお,アークが確定される毎にユニークなアークIDが生成されるため,結合木のリーフの不活性弧(図\ref{fig:EdgeCombinationTree}の*E$_{n1}{\cdots}$*E$_{no}{\ldots}$*E$_{nw}$)中の単一不活性弧は全て異なった部分依存構造を持つ.これから,PF中の任意の*e$_i$,*e$_j$(*e$_i{\neq}$*e$_j$)に対して,ds(*e$_i$)${\neq}$ds(*e$_j$)であり,単一不活性弧と部分依存構造は1対1対応すると言える.実際には,既に述べたように結合木のリーフの不活性弧は,複数の単一弧を含む弧にマージされる場合もあり,この結果得られる圧縮弧が統語森の要素となるが,マージ操作が単一弧の部分依存構造を更新することはないため,単一不活性弧と部分依存構造の1対1対応関係は保証される.また,前記共起設定条件(C2)に関連して,統語森に関する次の補題が成立する.\begin{lemma}[パス中の弧が含むアークに関する制約]\label{lem:ArcConstraintOfArcsOnOnePath}アークa$_i{\in}$ds(e$_i$),a$_j{\in}$ds(e$_j$)に関して,e$_i{\xrightarrow[{\rmPF}]{{\tiny+}}}$e$_j$であれば,dep(a$_i$)${\neq}$dep(a$_j$)である.また,逆にdep(a$_i$)$=$dep(a$_j$)であれば¬(e$_i{\xrightarrow[{\rmPF}]{{\tiny+}}}$e$_j$)である.\proof{部分依存構造条件(\ref{sec:bunpoukisoku}節)より,1つの単一弧の有する部分依存構造は句ヘッドをルートとした依存木となるため成立する.}\end{lemma}\begin{lemma}[対応弧の存在]\label{lem:app2-2}整依存木{\rmDT}中のアーク{\rma$_i$}({\rma$_i$}${\in}${\rmDT)}に対して次が成立する圧縮弧{\rmE}${\in}${\rmPF},単一弧{\rme}${\in}${\rmE}がただ1つ存在する.{\rmDT}⊇{\rmds(}e{\rm)},{\rma$_i$}${\in}${\rmds(}e{\rm)}\mygapskip{\mynoindent}補題\ref{lem:app2-2}は,アーク{\rma$_i$}が整依存木{\rmDT}の要素の時,{\rma$_i$}を含む部分依存構造{\rmds(}e{\rm)}の全体が{\rmDT}に含まれるところの単一弧{\rme}が統語森に存在することを意味している.\proof{DTのノード数を$n$(アーク数:$n-1$)とする.DTをアークa$_i$に関して次の2つのアーク集合IN\_ARCS,OUT\_ARCSに分ける.{\mygapskip}IN\_ARCS=\{$a_j$${\mid}$src\_Edge($a_i$)${\xrightarrow[{\rmCT}]{*}}$src\_Edge($a_j$)またはsrc\_Edge($a_j$)${\xrightarrow[{\rmCT}]{*}}$src\_Edge($a_i$)\}OUT\_ARCS=DT$-$IN\_ARCS{\mygapskip}{\mynoindent}また,IN\_ARCS中のアークに対する生成弧の集合をSRC\_EDGESとする.{\mygapskip}SRC\_EDGES=\{$E$${\mid}$$E$=src\_Edge($a$),$a{\in}$IN\_ARCS\}{\mygapskip}{\mynoindent}ここで,次が成立する.$$「{\rmSRC\_EDGES}中の任意の弧の間でオリジンの関係が成立する」\eqno{(A)}$$今,$U$,$V{\in}$SRC\_EDGESを考える.これらは定義よりE$_i=$src\_Edge(a$_i$)とオリジンの関係にあり,次の3つの場合のいずれかとなる.\begin{itemize}\item[\myitemindent(a)]片方がE$_i$のオリジン,E$_i$が他方のオリジン.$U{\xrightarrow[{\rmCT}]{*}}$E$_i$,E$_i{\xrightarrow[{\rmCT}]{*}}V$\item[\myitemindent(b)]両方がE$_i$のオリジン.$U{\xrightarrow[{\rmCT}]{*}}$E$_i$,$V{\xrightarrow[{\rmCT}]{*}}$E$_i$\item[\myitemindent(c)]E$_i$が両方のオリジン.E$_i{\xrightarrow[{\rmCT}]{*}}U$,E$_i{\xrightarrow[{\rmCT}]{*}}V$\end{itemize}{\mynoindent}(a),(b)の場合は,弧の結合木の構成から明らかに(A)が成立する.以下で(c)の場合に$U$と$V$がオリジンの関係にないと仮定すると矛盾が生じることを示す.$U$と$V$がオリジンの関係にないと仮定する.前提より$U$=src\_Edge(a$_u$),$V$=src\_Edge(a$_v$)なるa$_u$,a$_v{\in}$DTが存在する.DT中のアークは依存森中に存在する必要があるため,$U$,$V$をオリジンとする不活性弧が統語森に含まれる必要がある.この不活性弧を*E$_u$,*E$_v$,その中の単一弧を*e$_u$,*e$_v$(a$_u{\in}$*e$_u$,a$_v{\in}$*e$_v$)とする.補題\ref{lem:app2-1}より,*e$_u$,*e$_v$は共にa$_i$を含む.DTが整依存木なのでa$_u$,a$_v$の間に共起関係が成立する.すなわち,前記共起設定条件(C1)〜(C3)のいずれかが成立する.(C1)については,a$_u$,a$_v{\in}$ds($e$)なる$e$が存在すると補題\ref{lem:TwoArcsInOneDS}より$U$と$V$がオリジンの関係になり仮定と矛盾する.よって(C1)は成立しない.(C2)は,*e$_u{\xrightarrow[{\rmPF}]{+}}$*e$_v$(逆も同様に議論可能)が成立することである.ds(*e$_u$)中のアークを構成するノードは,部分依存構造条件よりcs(*e$_u$)の各構成素の句ヘッドである.このため,a$_i{\in}$ds(*e$_u$)に対してdep(a$_i$)またはgov(a$_i$)のいずれかは*e$_v$の被覆範囲の外のノードである.一方,a$_i{\in}$ds(*e$_v$)からは,dep(a$_i$),gov(a$_i$)ともに*e$_v$の被覆する範囲に存在しなければならない.これから矛盾が生じるため,(C2)は成立しない.(C3)は,*e$_u{\swarrow}${\tiny[PF]}${\searrow}$*e$_v$が成立することであるが,*e$_u$と*e$_v$が共にa$_i$を含むことから被覆範囲がオーバラップし成立しない.以上より,上記(c)の場合も,$U$と$V$がオリジンの関係にないと仮定するとa$_u$とa$_v$の共起関係が成立しないため,$U$と$V$はオリジンの関係にあるといえる.以上より,(A)が成立する.\begin{figure}[tb]\begin{center}\epsfile{file=\myfigdir/DF付録2依存木のアークを生成した弧.eps,scale=1.0}\end{center}\myfiglabelskip\myfiglabelskippre\caption{依存木のアークを生成した弧}\myfiglabelskippost\label{fig:CorrespondenceDT2Edge}\end{figure}\mygapskip{\mynoindent}今,E$_i$からつながる最後の弧,すなわち次の条件を満たす弧をE$_{last}$とおく.\mygapskipE$_i{\xrightarrow[{\rmCT}]{*}}$E$_{last}$E$_{last}{\xrightarrow[{\rmCT}]{*}}$E$_j$(E$_j{\in}$SRC\_EDGES)を満たすE$_j$はE$_{last}$のみである\mygapskip{\mynoindent}図\ref{fig:CorrespondenceDT2Edge}に説明のためIN\_ARCSとSRC\_EDGESの関係を模式的に示す.E$_{start}$は文法規則に対応する弧であり,文法規則をy/$X_h$$\rightarrow$x$_1$/$X_1{\cdots}$x$_z$/$X_z$:\{$A_1$,${\ldots}$,$A_{z-1}$\}とする.(A)よりSRC\_EDGES中の弧は全てオリジンの関係にあるため,SRC\_EDGESは,E$_{start}$をルートとし,E$_1$,${\ldots}$,E$_{last}$からなるCT上の経路を構成する.a$_i$の生成弧E$_i$はこのパス上のいずれかに存在する.また,E$_{last}$が生成したアークa$_{last}$が少なくとも1つIN\_ARCS中に存在する.E$_{last}$は,活性弧であるか不活性弧であるかのいずれかである(図\ref{fig:CorrespondenceDT2Edge}は,弧が活性弧の場合である)が,E$_{last}$を活性弧と仮定すると次に示すように矛盾が生じる.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF付録2整合部分依存構造の存在証明.eps,scale=0.82}\end{center}\myfiglabelskip\caption{対応弧の存在説明図}\label{fig:ActiveEdgeLast}\end{figure}E$_{last}$が活性弧であると仮定する.図\ref{fig:ActiveEdgeLast}に示すように,E$_{last}$(図\ref{fig:ActiveEdgeLast}(a))は少なくとも1つの残り構成素x$_{u+1}$(変数は省略,図\ref{fig:ActiveEdgeLast}(b))を有する.ここでE$_{last}$の始点をs1,終点をt1とする.依存グラフは統語森中のアークより構成されるため,前提a$_{last}{\in}$DTより,a$_{last}$を生成した弧E$_{last}$をオリジンとする少なくとも1つの不活性弧*E$_{x}$(図\ref{fig:ActiveEdgeLast}(c))が統語森PFに存在する.図に示すように*E$_{x}$は,活性弧E$_{last}$をオリジンとするため,始点はE$_{last}$の始点s1と等しく,終点t3は,E$_{last}$の終点t1より大きい.次に,位置t1+1のノードn$_{t1+1}$(図\ref{fig:ActiveEdgeLast}(d))を考える(DTは整依存木であるため,整被覆条件より必ずn$_{t1+1}$は存在する).DTにはn$_{t1+1}$を依存ノードとするアークが1つ存在し,これをa$_{next}$(dep(a$_{next}$)$=$n$_{t1+1}$,図\ref{fig:ActiveEdgeLast}(e))とする.a$_{next}$は,a$_{last}$の定義からOUT\_ARCSの要素である.a$_{next}{\in}$DTより,a$_{next}$の生成弧E$_{next}$をオリジンとする不活性弧*E$_{y}$が少なくとも1つ統語森PFに存在する.E$_{next}$は,その範囲中にa$_{next}$を含むので,その始点s2はt1以下(図\ref{fig:ActiveEdgeLast}(f)),その終点はt1+1以上である(図\ref{fig:ActiveEdgeLast}(g)).よって,図に示すように*E$_{y}$の始点はt1以下となる.以上より,E$_{last}$をオリジンとする不活性弧*E$_{x}$とE$_{next}$をオリジンとする不活性弧*E$_{y}$の弧の範囲は位置t1でオーバーラップする.ここで,a$_{last}$とa$_{next}$に対して共起設定条件(C1)〜(C3)のいずれもが成立しないことを示す.上記より*E$_{x}$と*E$_{y}$は被覆する範囲がオーバーラップするため,(C3)は成立しない.また,前提より*E$_{x}{\neq}$*E$_{y}$であり(C1)は成立しない.共起設定条件(C2)は*E$_{x}{\xrightarrow[{\rmPF}]{{\tiny+}}}$*E$_{y}$(またはその逆)が成立することである.今,*E$_x$中のアークで依存ノードをn$_{t1+1}$とするアークをa$_m$とすると,a$_m{\neq}$a$_{next}$である(もし,a$_m=$a$_{next}$であれば,src\_Edge(a$_{next}$)とE$_i$はオリジンの関係にあるため,前提a$_{next}{\in}$OUT\_ARCSと矛盾する).補題\ref{lem:ArcConstraintOfArcsOnOnePath}より*E$_{x}{\xrightarrow[{\rmPF}]{{\tiny+}}}$*E$_{y}$が成立することはなく,(C2)も成立しない.以上より,DTの要素であるa$_{last}$とa$_{next}$の間に共起関係が成立することはなく,これはDTが整依存木であることと矛盾する.よって,E$_{last}$は活性弧ではない.\mygapskip次に,E$_{last}$が不活性弧であるとする(不活性弧であるので,*E$_{last}$と記述する).\begin{itemize}\item[(a)]a$_{last}$を生成した弧*E$_{last}$は不活性弧(結合木のリーフ)であるのでa$_{last}$を含む圧縮弧は,*E$_{last}$のみである.また,a$_{last}{\in}$ds(*e$_{last}$),*e$_{last}{\in}$*E$_{last}$なる*e$_{last}$がただ1つ存在する.\item[(b)]a$_{last}{\in}$DTより,*E$_{last}{\in}$PFである.\item[(c)]a$_{last}{\in}$DTと補題\ref{lem:app2-1}より,DT${\supseteq}$ds(*e$_{last}$)である.\end{itemize}{\mynoindent}(a)〜(c)より,補題が成立する.}\end{lemma}\subsection*{[接続するアークと対応する弧の関係]}親子関係または兄弟関係にあるアークa$_i$,a$_j$(a$_i{\xrightarrow[{\rmDT}]{1}}$a$_j$またはbro(a$_i$,a$_j$))を「{\bf接続するアーク}」と呼び,整依存木DT中の接続するアークに対して以下の2つの補題が成立する.\begin{lemma}[接続するアークと対応する弧]\label{lem:app2-3}整依存木DT中の接続するアークa$_i$,a$_j$に対して,*e$_i$=edge(a$_i$,DT),*e$_j$=edge(a$_j$,DT)とした時に,次の(a),(b),(c)のいづれかが成立する.\begin{itemize}\item[(a)]*e$_i=$*e$_j$\item[(b)]*e$_i{\xrightarrow[{\rmPF}]{+}}$*e$_j$\item[(c)]*e$_j{\xrightarrow[{\rmPF}]{+}}$*e$_i$\end{itemize}インフォーマルな表現であるが,補題\ref{lem:app2-3}は,依存木中のアークが接続関係にあれば,それらの対応弧はPTにおいて到達可能であるということを示している.\proof{a$_i$,a$_j$は整共起条件を満足するので,共起設定条件より,*e$_i$,*e$_j$は次の(r1)〜(r3)のいずれかの関係を満足している必要がある.\begin{itemize}\item[(r1)]*e$_i$=*e$_j$\item[(r2)]*e$_i{\xrightarrow[{\rmPF}]{+}}$*e$_j$又は*e$_j{\xrightarrow[{\rmPF}]{+}}$*e$_i$\item[(r3)]*e$_i{\swarrow}${\tiny[PF]}${\searrow}$*e$_j$\end{itemize}今,接続するアークa$_i$,a$_j$が共有するノードを$n$とすると*e$_i$と*e$_j$は共に$n$を被覆する.(r3)の*e$_i$と*e$_j$が共に同一のノードを被覆することはないので,(r1)または(r2)のいずれかが成立している.よって補題\ref{lem:app2-3}が成立する.}\end{lemma}\begin{lemma}[子孫アークと対応する弧]\label{lem:app2-4}整依存木DT中のアークa$_i$,a$_j$(a$_i{\xrightarrow[{\rmDT}]{+}}$a$_j$)に対して,*e$_i$=edge(a$_i$,DT),*e$_j$=edge(a$_j$,DT)とした時に,次が成立する.\begin{itemize}\item[]*e$_i{\xrightarrow[{\rmPF}]{*}}$*e$_j$\end{itemize}\proof{a$_i$がa$_j$の親アーク(dep(a$_i$)=gov(a$_j$))の場合,補題\ref{lem:app2-3}(a),(b),(c)のいずれかが成立する.\ref{sec:bunpoukisoku}節の部分依存構造条件による位置関係より,子アークa$_j$の対応弧*e$_j$と親アークa$_i$の対応弧*e$_i$において$\neg$(*e$_j{\xrightarrow[{\rmPF}]{+}}$*e$_i$)なので(c)が成立することはない.このため,親子アークについては(a),(b)のいずれかが成立する.一般のa$_i{\xrightarrow[{\rmDT}]{*}}$a$_j$に対しては${\xrightarrow[{\rmPF}]{*}}$の推移性により補題\ref{lem:app2-4}が成立する.}\end{lemma}\subsection*{[トップ単一弧top\_edge(DT)]}ここでは,下記の証明で使用する依存木DTに対する{\bfトップ単一弧}top\_edgeを定義する.\begin{definition}{\bfトップ単一弧}top\_edge(DT)は,DTのトップノード直下のアークに対する対応弧の内で統語森中で最上位に位置する単一弧である.すなわち,top\_edge(DT)は,top\_node(DT)$=$gov(a$_i$)であり,top\_node(DT)$=$gov(a$_j$)となるどんなa$_j$に対してもedge(a$_i$)${\xrightarrow[{\rmPF}]{*}}$edge(a$_j$)である.DTが単一ノードからなる木の場合は,その単一ノードに対する単一語彙弧とする.\end{definition}{\mynoindent}DT中のアークとtop\_edge(DT)の間に次が成立する.\begin{lemma}[top\_edge(DT)とedge(a$_j$,DT)の関係]\label{lem:RelBetweenTopedgeAndEdge}整依存木DTのトップ単一弧*e$_t$=top\_edge(DT)とa$_j$(a$_j{\in}$DT)の対応弧*e$_j$=edge(a$_j$,DT)との間には*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_j$が成立する.\proof{a$_j$がDTのトップノードの直下のアーク,すなわちgov(a$_j$)$=$top\_node(DT)の場合は,補題\ref{lem:app2-3}とtop\_edgeの定義より,*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_j$が成立する.それ以外の場合は,a$_j$はDTのトップノード直下のアークの子孫アークとなるため,補題\ref{lem:app2-4}より*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_j$である.}\end{lemma}\subsection*{[整依存木{\rmDT}の分割]}\begin{figure}[t]\begin{center}\epsfile{file=\myfigdir/DF付録2整依存木の分割の説明図.eps,scale=0.8}\end{center}\myfiglabelskip\myfiglabelskippre\caption{整依存木の分割}\myfiglabelskippost\label{fig:DTGraphDivision}\end{figure}{\bf整依存木DTの分割}とは,DTからds(top\_edge(DT))のアークを除外し,部分依存木DT$_1$,${\ldots}$,DT$_m$($m$はds(top\_edge(DT))に含まれるノード数)を得ることである.アークの除外により他のノードから孤立するノードは,アークを持たない1つの依存木とする.例えば,図\ref{fig:DTGraphDivision}においてds(top\_edge(DT))=\{a$_s$,a$_t$,a$_u$,a$_w$\}の時,DTからこれらを除いた残りのアーク集合は,n$_s$,n$_t$,n$_u$,n$_v$,n$_w$をトップノードとする依存木群DT$_s$,DT$_t$,DT$_u$,DT$_v$,DT$_w$に分割できる.ノードn$_s$,n$_w$は孤立したノードとなるので,DT$_s$とDT$_w$は1つのノードからなる依存木\{n$_s$\},\{n$_w$\}となる.\ref{sec:bunpoukisoku}節の部分依存構造条件より,単一弧$e$において構成素列cs($e$)中の圧縮弧の句ヘッドと部分依存構造ds($e$)中のノードは1対1対応するので,DT$_i$(1${\leq}i{\leq}m$)のトップノードn$_i$を句ヘッドとする圧縮弧*E$_i$がcs(top\_edge(DT))に各1つだけ存在する.*E$_i$をDT$_i$の{\bfルート圧縮弧}と呼び,root\_Edge(DT$_i$)とする.\begin{definition}{\bfルート圧縮弧}root\_Edge(DT$_i$)とは,依存木DTの分割で生じた依存木DT$_i$に対して構成素列cs(top\_edge(DT))中の圧縮弧*E$_i$のうち句ヘッドがtop\_node(DT$_i$)であるもの.\end{definition}図\ref{fig:DTGraphDivision}では,top\_edge(DT)が*e$_v$であり,その構成素列cs$_v$は,n$_s$,n$_t$,n$_u$,n$_v$,n$_w$を句ヘッドとする弧*E$_s$,*E$_t$,*E$_u$,*E$_v$,*E$_w$より構成されている.root\_Edge(DT$_t$)=*E$_t$である.整依存木DTの分割に関して図\ref{fig:DTiObtainedFromDT}を参照しながら以下2つの補題を示す.\begin{comment}\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}\mygapskip依存木分割と圧縮弧\begin{itemize}\item[\myitemindentroot\_Edge(DT$_i$)]:ルート圧縮弧.依存木DTの分割で生じた依存木DT$_i$に対して構成素列cs(top\_edge(DT))中の圧縮弧*E$_i$のうち句ヘッドがtop\_node(DT$_i$)であるもの.\end{itemize}\myhalfskip\end{minipage}}\myhalfskip\end{comment}\begin{lemma}[ルート圧縮弧とトップ単一弧の関係]\label{lem:app2RootEdgeAndTopEdge}整依存木DTの分割により得られる部分依存木DT$_i$に対して,ルート圧縮弧を*E$_i=$root\_Edge(DT$_i$),トップ単一弧を*e$_{o}=$top\_edge(DT$_i$)とすると,*E$_i{\xrightarrow[{\rmPF}]{+}}$*e$_{o}$が成立する.\mygapskip\proof{DTのトップ単一弧を*e$_t$=top\_edge(DT),DT$_i$のトップノードをn$_i$とする(図\ref{fig:DTiObtainedFromDT}).今,DTが単一ノードからなる木,すなわち,DT$i=$\{n$_i$\}の場合,*e$_{o}$はn$_i$に対する単一語彙弧である.*E$_i$の句ヘッドはn$_i$であるので*E$_i{\xrightarrow[{\rmPF}]{+}}$*e$_{o}$が成立する.一方,DTがアークから成る木の場合,補題\ref{lem:app2-4}より,*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_{o}$が言える.これより,圧縮弧列cs(*e$_t$)中のいづれか1つの圧縮弧Xに対してX${\xrightarrow[{\rmPF}]{*}}$*e$_{o}$が成立する.今,定義より*E$_i$${\in}$cs(*e$_t$)であり,*E$_i$と*e$_{o}$の句ヘッドは同一であるため,X$=$*E$_i$である.}\end{lemma}\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/DF付録2分割部分依存木=整依存木の証明図.eps,scale=0.8}\end{center}\myfiglabelskip\myfiglabelskippre\caption{DTの分割で得られる部分整依存木DT$_i$}\label{fig:DTiObtainedFromDT}\end{figure}\begin{lemma}[分割で得る部分依存木の整依存木性]\label{lem:app2-6}整依存木DTの分割により得られる部分依存木DT$_i$のルート圧縮弧を*E$_i$,その始点と終点をそれぞれsp$_i$,tp$_i$とすると,DT$_i$は,sp$_i$からtp$_i$の範囲を被覆する整依存木である.\mygapskip\proof{DT$_i$が整共起条件と整被覆条件を満足することを示す.分割の元であるDTが整依存木であることから,DT$_i$が整共起条件を満たすことは明らかである.以下で整被覆条件を満足することを示す.DT$_i$が単一ノードからなる木の場合は,定義よりDT$_i$は整依存木である.DT$_i$がアークより成る場合,そのトップノードをn$_i$とし,DT$_i$中の任意のノードn$_j$(n$_j{\neq}$n$_i$)を考える.n$_j={\rmdep(a}_j$)なるアークa$_j$が存在する.また,a$_j{\in}$DT$_i$に対して,gov(a$_k$)$=$n$_i$,a$_k{\xrightarrow[{\rmDT}]{*}}$a$_j$なるa$_k{\in}$DT$_i$が存在する.今,対応弧*e$_j=$edge(a$_j$,DT),*e$_k=$edge(a$_k$,DT)とすると,a$_k$はa$_j$と等しいか,祖先ノードであるので補題\ref{lem:app2-4}より,*e$_k{\xrightarrow[{\rmPF}]{*}}$*e$_j$である.一方,DTのトップ単一弧を*e$_t$とすると補題\ref{lem:RelBetweenTopedgeAndEdge}より*e$_t{\xrightarrow[{\rmPF}]{*}}$*e$_k$であり,cs(*e$_t$)中の圧縮弧のうちの1つから*e$_k$に到達可能である.*e$_k$の句ヘッドはn$_i$であるので,*E$_i{\xrightarrow[{\rmPF}]{*}}$*e$_k$である.以上より*E$_i{\xrightarrow[{\rmPF}]{*}}$*e$_k{\xrightarrow[{\rmPF}]{*}}$*e$_j$が成立し,n$_j$は*E$_i$の範囲に存在する,すなわち,依存木DT$_i$中の全てのノードはsp$_i$からtp$_i$の範囲に存在するといえる.さらに,DT$_i$以外の部分依存木DT$_k$($k{\neq}i$)のノードはsp$_i$からtp$_i$の範囲に存在しないことも言える.分割元である$DT$が整被覆条件を満足することから,依存木DT$_i$中の全てのノードはsp$_i$からtp$_i$の全ての位置を占める.以上より,DT$_i$は,sp$_i$からtp$_i$の範囲を整被覆する整依存木である.}\end{lemma}\subsection*{[依存森の完全性・健全性の証明]}構文木PT=\{*e$_1$,${\ldots}$,*e$_m$\}が与えられた時,それに対応する依存木dependency\_tree(PT)を次のように定義する.\begin{definition}dependency\_tree(PT)=ds(*e$_1$)${\uplus}{\cdots}{\uplus}$ds(*e$_m$)\mynoindentここで,${\uplus}$は,基本的に和集合${\cup}$と同じであるが,部分依存構造dsがアーク集合の場合とノード1つからなる集合の場合に対応するために導入された関係である.${\uplus}$は,和集合(${\cup}$)を取った結果の要素にノードとアークが存在する場合にはノードを除外したアークのみの集合とする.例えば,n$_i$をノード,a$_i$をアークとすると次の例のようになる.\begin{itemize}\item[]\{n$_1$\}${\uplus}$\{a$_1$,a$_2$\}=\{a$_1$,a$_2$\}\item[]\{a$_1$\}${\uplus}$\{a$_2$,a$_3$\}=\{a$_1$,a$_2$,a$_3$\}\item[]\{n$_1$\}${\uplus}$\{\}=\{n$_1$\}\end{itemize}\end{definition}{\mynoindent}なお,部分依存構造ds(*e$_i$)は部分依存構造条件を満足するので,上記dependency\_tree(PT)は部分依存木の結合により構成されるため,木となる.\mytheorembeforegap\begin{theorem}[依存森の完全性]\label{the:CompletenessOfPF}統語森PF中の構文木PTに対してDT=dependency\_tree(PT)は,依存森DFに存在する整依存木である\proof{DTは,依存グラフの構築アルゴリズムから,DGに含まれる.また,DTとPTの含むノードは部分依存構造条件より1対1の対応関係があり,PTが文を被覆するので,DTは整被覆木である.また,DT中の全アークに関し,共起マトリックスの構築アルゴリズムより共起関係が成立しDTは整共起依存木となる.よって,統語森中の構文木PTに対応する整被覆整共起依存木dependency\_tree(PT)は依存森DFに存在する.}\end{theorem}\begin{theorem}[依存森の健全性]\label{the:SoundnessOfPF}依存森DF中の整依存木DTが与えられた時,DT=dependency\_tree(PT)なる構文木PTが統語森PFに存在する\proof{依存森DF中の整依存木DT,統語森PFのルート圧縮弧を*E$_{root}$とすると,PT${\in}$parse\_trees(*E$_{root}$),dependency\_tree(PT)=DTなる構文木PTが存在することを示す.今,入力文の単語数をnとする.次に示すアルゴリズムは,圧縮弧*E$_r$(始点sp$_r$,終点tp$_r$,1${\leq}$sp$_r<$tp$_r{\leq}$n)と整依存木DT(sp$_r$からtp$_r$を被覆)が与えられた時に,構文木を構成する構文木構成アルゴリズムである.これが上記条件を満たす構文木PTを構成するアルゴリズムであることをDTが含むアークの数に関する帰納法を用いて示す.\myhalfskip\hspace{-5mm}\fbox{\begin{minipage}{13.7cm}[構文木構成アルゴリズム]DTがアークからなる依存木の場合:\begin{itemize}\item[{\myitemindent}A-Step1[トップ単一弧の同定]:]整依存木DTのトップ単一弧top\_edge(DT)を取り出し*e$_t$とする.\item[{\myitemindent}A-Step2[パスの取り出し]:]与えられた圧縮弧*E$_r$から*e$_t$へのパスを取り出し,パス中に含まれる*e$_t$以外の単一弧の集合をPATHとする.\item[{\myitemindent}A-Step3[依存木DTの分割]:]依存木DTをds(top\_edge(DT))を除くことで分割し,部分依存木DT$_i$($1{\leq}i{\leq}m$)ならびにルート圧縮弧*E$_i$=root\_Edge(DT$_i$)を得る.\item[{\myitemindent}A-Step4[部分構文木計算]:]構文木構成アルゴリズムをDT$_i$,*E$_i$($1{\leq}i{\leq}m$)に適用し構文木PT$_i$を得る.\item[{\myitemindent}A-Step5[構文木構成]:]DT,*E$_r$に対する構文木としてPT=PATH${\cup}$\{*e$_t$\}${\cup}$PT$_1$${\cup}{\cdots}{\cup}$PT$_m$を返す.\end{itemize}DTが単一ノードからなる木(DT=\{n\})の場合:\begin{itemize}\item[{\myitemindent}N-Step1[語彙弧の同定]:]ノードnを生成した語彙弧@e$_{lex}$を得る.\item[{\myitemindent}N-Step2[パス取り出し]:]*E$_r$からe$_{lex}$へのパスを取り出し,パス中の単一弧の集合を構文木として返す.\end{itemize}\myhalfskip\end{minipage}}\mygapskip\mygapskipDTがアークからなる依存木の場合は,A-Step1〜A-Step5により構文木PTが構成される.図\ref{fig:DttoParseTreeExplain}に構文木構成アルゴリズムのA-Step1〜A-Step5の動作を図式的に示す.A-Step1では,図\ref{fig:DttoParseTreeExplain}(S1)のトップ単一弧*e$_t$($=$top\_edge(DT))を計算する.A-Step2では,図\ref{fig:DttoParseTreeExplain}(S2)に示すように*E$_r$から*e$_t$へ至るパスを求め,単一弧集合PATHを得る.*E$_r$から*e$_t$へ至るパスの存在(*E$_r{\xrightarrow[{\rmPF}]{+}}$*e$_t$)は,次のように保証される.すなわち,*E$_r$が統語森のルート圧縮弧*E$_{root}$の場合は明らかである.また,*E$_r$が分割により得られる圧縮弧(A-Step4の*E$_i$)の場合は,補題\ref{lem:app2RootEdgeAndTopEdge}より成立する.また,PATH中の単一弧については,その部分依存構造は全て\{\}である.これは,DT中の全てのノードが*e$_t$の範囲内に存在するため*E$_r$と*e$_t$の範囲が等しいことから明らかである.これより次が成立する.$$dependency\_tree(PATH)=\{\}\eqno{(A)}$$A-Step3では,DTの分割を行い図\ref{fig:DttoParseTreeExplain}(S3)に示すようにDT$_i$,*E$_i$($1{\leq}i{\leq}m$)を得る.この時,補題\ref{lem:app2-6}より,DT$_i$は*E$_i$の範囲を被覆する整依存木であるので,A-Step4において再帰的に構文木構成アルゴリズムを適用できる.A-Step5において構文木PTを計算する(図\ref{fig:DttoParseTreeExplain}(S5)).PT$_i$が構文木であればPTが構文木であることは,構文木の定義より明らかである.DTが単一ノードからなる木の場合は,N-Step1,N-Step2により構文木PTを得る.*E$_r$からe$_{lex}$へのパスの存在は,A-Step1の説明と同じ理由で保証される.\mygapskip以上のようにして構文木生成アルゴリズムにより生成される構文木PTがDT=dependency\_tree(PT)であることは以下のように示される.まず,1ノードからなる依存木DT=\{n$_r$\}に対しては,アルゴリズムは,N-Step2で構文木PTを生成する.PTは,1ノードn$_r$をのみを含む構文木であり,前記dependency\_treeの定義よりdependency\_tree(PT)=\{n$_r$\}である.次にDTがアークからなる木の場合を示す.構文木構成アルゴリズム,dependency\_treeの定義,(A)より,次のようになる.\mygapskip\hspace{5mm}dependency\_tree(PT)\hspace{7mm}=dependency\_tree(PATH${\cup}$\{*e$_t$\}${\cup}$PT$_1$${\cup}{\cdots}{\cup}$PT$_m$)\hspace{7mm}=dependency\_tree(PATH)${\uplus}$dependency\_tree(\{*e$_t$\})${\uplus}$dependency\_tree(PT$_1$)${\uplus}{\cdots}$\hspace{11mm}${\uplus}$dependency\_tree(PT$_m$)\hspace{7mm}=dependency\_tree(\{*e$_t$\})${\uplus}$dependency\_tree(PT$_1$)${\uplus}{\cdots}{\uplus}$dependency\_tree(PT$_m$)\mygapskip{\mynoindent}今,A-Step4において各DT$_i$,*E$_i$に対する構文木PT$_i$が次を満たすと仮定する.\mygapskip\hspace{5mm}dependency\_tree(PT$_i$)=DT$_i$(1${\leq}i{\leq}$m)\mygapskip{\mynoindent}するとA-Step5の構文木PTが生成する依存木は次のようにDTとなる.\mygapskip\hspace{5mm}dependency\_tree(PT)\hspace{7mm}=ds$_t$${\uplus}$DT$_1$${\uplus}{\cdots}{\uplus}$DT$_m$\hspace{7mm}=DT\mygapskip}\end{theorem}\begin{figure}[h]\begin{center}\epsfile{file=\myfigdir/DF付録2DTに対する構文解析木の構成説明図.eps,scale=0.8}\end{center}\myfiglabelskip\myfiglabelskippre\caption{整依存木とルート圧縮弧からの構文木の生成}\myfiglabelskippost\label{fig:DttoParseTreeExplain}\end{figure}\end{document}
V25N03-01
\section{はじめに} \label{section:first}語義曖昧性解消はコンピュータの意味理解において重要であり,古くから様々な手法が研究されている自然言語処理における課題の一つである\cite{Navigli:2009:WSD:1459352.1459355,Navigli2012}.語義曖昧性解消の手法には大きく分けて教師あり学習,教師なし学習,半教師あり学習の3つが存在する.教師なし学習を用いるものにはクラスタリングを用いた手法\cite{UnsupervisedWSDClustering}や分散表現を用いた手法\cite{wawer-mykowiecka:2017:SENSE2017}などが存在するが,どの手法においても精度は高くなく実用的な性能には至っていない.知識ベースを用いた教師なし学習の手法についても,単純な教師なし学習よりは高いものの教師あり学習を用いる手法と比べると精度が劣ることが報告されている\cite{raganato-camachocollados-navigli:2017:EACLlong}.それらに対して,教師あり学習を用いた語義曖昧性解消は比較的高い精度を得られることが知られており,SemEval2007\cite{pradhan-EtAl:2007:SemEval-2007}やSenseval3\cite{MihalceaEtAl2004}の英語語義曖昧性解消タスクにおいても教師あり学習を用いた手法が最も良い精度を記録している.一方,教師あり学習を用いて語義曖昧性解消を行う上で「訓練データが不足する」という問題が存在する.教師あり学習での語義曖昧性解消では訓練データの作成に人手での作業が必要になるため,コストの問題から大きなデータセットを用意することは難しい.語義曖昧性解消において周辺の文脈情報は有効な手掛かりであることが知られており,訓練データを増やし様々なパターンを学習させることが精度を上げる上で必要になる\cite{yarowsky:1995:ACL}.しかしながら,上述のSemEval2007Task17語義曖昧性解消タスクのLexicalSampleTaskにおいて,訓練データの1単語あたりの平均訓練事例数は約222と決して多い数字とは言えない.SemEval2010の日本語語義曖昧性解消タスク\cite{okumura-EtAl:2010:SemEval}に至っては1単語あたりの訓練事例数がおよそ50であり,圧倒的に訓練データが足りていないと言える.また,訓練データの不足に関連してデータスパースネスも語義曖昧性解消において大きな問題となる.先に述べたように周辺の文脈パターンを語義ごとに学習させるためには非常に大量の訓練事例が必要となりコストの問題から現実的でない.これらの問題を解決するため,半教師あり学習によって確度の高いデータを訓練データとして追加し学習を行う方法が研究されており,日本語語義曖昧性解消タスクにおいて高い精度が得られたことが報告されている(藤田,Duh,藤野,平,進藤2011;FujitaandFujino2013;井上,斎藤2011).\nocite{KevinDuh2011}\nocite{Fujita:2013:WSD:2461316.2461319}\nocite{2011inoue}また,これらを解決する別のアプローチとして語の分散表現を教師ありの語義曖昧性解消に用いる研究があり\cite{sugawara:2015:pacling,weko_146217_1,iacobacci-pilehvar-navigli:2016:P16-1},既存の素性と組み合わせることによって高い精度が得られたことを報告している.ところで,日本語の言語処理にはかな漢字換言というタスクがある.これは,入力された文中のひらがなについて漢字に換言できる対象がある場合,その周辺の文脈を考慮して正しい漢字に換言するというものである.例えば「私は犬を\underline{かって}いる」という文があった際,犬という単語から「かって」というひらがなが「買って」ではなく「飼って」を意味することは容易に理解できる.このようなひらがな語について漢字に換言を行うタスクを我々はかな漢字換言と呼んでおり,以前から研究を行ってきた\cite{Kazuhide2016}.ここで行っていることは語義曖昧性解消そのものであり,かな漢字換言の誤り分析を行うことは日本語語義曖昧性解消タスクにおいて誤り分析することとほぼ同義であると考えられる.また,通常の語義曖昧性解消タスクに比べかな漢字換言の訓練データは大量のコーパスから自動で構築することが可能なため,訓練データの増減による精度の変化や誤り分析などが容易に行えるという利点がある.本論文では日本語語義曖昧性解消タスクにおける問題点についてかな漢字換言タスクを通して確認し,既存の手法において何が不足しているのかを明らかにする.本論文の構成は以下の通りである.\ref{section:related-works}章にて本論文に関連する研究および本研究の位置付けについて述べ,\ref{section:kanakanji-conversion}章にて我々が今回行うかな漢字換言タスクについて日本語語義曖昧性解消タスクと比較しながら詳細を述べる.\ref{section:proposed-method}章では提案手法について既存手法との比較を行いながら説明をする.\ref{section:experimentation}章ではそれらの手法を用いてかな漢字換言と通常の語義曖昧性解消タスクにおける提案手法の有効性の検証を行い,語義曖昧性解消タスクにおける問題点を明確にする.\ref{section:conclusion}章にて結論を述べる. \section{関連研究} \label{section:related-works}本章ではまず教師あり学習に基づく語義曖昧性解消について先行研究を概観する.さらに,かな漢字換言タスクにおいて我々が以前行っていた研究について先行研究として併せて概観し,最後に本研究が本論文を通して明らかにしたいことについて示す.\subsection{教師あり語義曖昧性解消}\label{subsection:supervised-wsd}Yarowskyらの報告\cite{yarowsky:1995:ACL}によると教師あり学習に基づく語義曖昧性解消では周辺の文脈情報が有効だと言われている.そのため,教師あり学習での語義曖昧性解消では従来周辺に出現した単語を主に素性として用い,さらに品詞や文の構造情報,Bag-of-Words(BoW)等を素性として加えることで精度を向上させてきた\cite{Navigli:2009:WSD:1459352.1459355}.日本語の語義曖昧性解消においても同じであり,SemEval2010の日本語語義曖昧性解消タスクにおいて使われたベースラインのシステムでは対象単語前後の単語や品詞,係り受け関係などを素性として用い,高い精度を得ている\cite{okumura-EtAl:2010:SemEval}.また近年では単語のベクトル表現を用いて精度向上を図ろうとする取り組みも存在する\cite{cai-lee-teh:2007:EMNLP-CoNLL2007}.これらのベクトル表現は単語の意味的な特徴を捉えており,特にMikolovらが考案したWord2Vec\cite{DBLP:journals/corr/MikolovSCCD13}では,CountinuousBag-of-WordsとSkip-gramの各手法によって得られる単語のベクトルが従来のカウントモデルに比べて秀でた性能を持っていることが知られている\cite{baroni-dinu-kruszewski:2014:P14-1}.そのため,Word2Vecは語義曖昧性解消だけでなく係り受け解析\cite{bansal-gimpel-livescu:2014:P14-2}等様々なタスクにおいて利用されている.教師あり学習の語義曖昧性解消に対して単語の分散表現を用いる手法の研究にはSugawaraらの研究\cite{sugawara:2015:pacling}と山木らの研究\cite{weko_146217_1},Iacobacciらの研究\cite{iacobacci-pilehvar-navigli:2016:P16-1}がある.Sugawaraらの先行研究では曖昧性解消の対象となる単語の前後N単語の単語ベクトルをつなぎ合わせたものを素性とするContext-Word-Embeddings(CWE)という手法を提案し,BoWに比べて高い精度が得られたことを報告している.それに対し,山木らはCWEの手法における「単語の位置が規定される」点と「自立語以外の単語を考慮している」点について問題点として上げ,分散表現から得られる用例間類似度を用いる手法を提案している.この手法では既存の素性と組み合わせることで従来よりも高い精度が得られたことを報告している.またIacobacciらの論文では周辺単語のベクトルを足し合わせる際に単語間の距離を考慮する手法について提案し,SemEval2007等のデータセットで有効性を確認した結果最も良い性能が得られたことを報告している.\subsection{かな漢字換言}かな漢字換言は\ref{section:first}章で述べたように文中の一部のひらがなを漢字に直すタスクである.我々は以前,自己相互情報量(PointwiseMutualInformation;PMI)を用いて対象となるひらがなの換言候補の中で最もPMIが高い漢字について換言するという手法を実装している\cite{Kazuhide2016}.ここでは精度よく換言できないひらがなと漢字の対については換言対象から外す処理をしているが,換言対象となった71語の換言精度は94.1\%と非常に高いことを報告している.この換言手法は語義曖昧性解消に必要な情報が周辺単語1単語で決定できるという考察に基づいたものであるが,この論文中では周辺単語から換言を行えると考えられる対象のみを換言対象としていたため,すべての漢字に当てはめたときの精度は不明であり,語義曖昧性解消の分析としては不十分である.\subsection{本研究の目的}我々が本論文において明らかにしたい問題は主に3つである.1つ目は素性選択の手法である.従来,日本語語義曖昧性解消の手法として提案されてきたものの多くが素性として主に対象単語前後2単語の情報を使い,そこに係り受け関係やLDAの結果などを追加する形で精度を向上させてきた(Okumuraetal.2010;藤田他2011).分散表現を用いたSugawaraらの語義曖昧性解消においては対象単語前後5単語の分散表現を使い実際に精度が向上したことが報告されているが,日本語語義曖昧性解消において考慮する周辺単語の窓幅によって精度がどのように変化するのか調査した文献は存在しない.また,新納らは論文中で「特に対象単語からかなり離れた後方位置にある単語が対象単語の語義の選択に影響を与えているとは考えづらい」と述べている\cite{weko_182711_1}.我々はこれらについて改めて調査,報告を行った上で新たに自己相互情報量を用い,対象単語から離れた位置の単語を考慮する手法を提案する.2つ目は訓練データのサイズである.\ref{subsection:supervised-wsd}節で述べたように教師ありの語義曖昧性解消ではその精度評価として規模の小さい訓練データが使われることが多い.その為,曖昧性解消の精度が低い主な理由について「訓練データが不足している」と考察している論文も少なくない(藤田他2011;新納,村田,白井,福本,藤田,佐々木,古宮,乾2015).\nocite{新納浩幸2015}一方でそれらの論文中でどれくらいの訓練データが必要になるのかの考察はほぼ行われておらず,少ない訓練データを用いて精度の改善を行うことにのみ注力しているように見える.どのくらいの規模の訓練データを用意すれば十分な精度が得られるのかが明確に示されているのならば,まず訓練データを増やすことができるはずである.逆に訓練事例の数によって精度の差がないのであれば現状のタスクにおいてより精度を出せる手法を検討していくことが重要となる.そこで,我々はかな漢字換言の特性を活かして非常に大規模なデータを用意し,訓練データを増減させたときの精度の変化を調査する.3つ目は訓練データのドメインについてである.Fujitaらは対象語毎に訓練データの分野の組合せを変えて学習するより,分野に関係なくすべての訓練データを学習に用いる方が精度が良いと報告をしているが\cite{fujita-EtAl:2010:SemEval},ドメインごとに同量の訓練データを用いた際の精度の変化についてそれぞれ比較を行い,どのような訓練データがどの程度精度に寄与するのかを明らかにする.以上3点についてが,本論文において我々が報告したい内容である. \section{かな漢字換言} \label{section:kanakanji-conversion}\subsection{概要}かな漢字換言は文章中の特定のひらがなを漢字に換言するタスクである.例えば「私は犬を\underline{かって}いる」という文が存在した場合,ここでの「かって」という単語は「買う」ではなく「飼う」という意味での使われ方をしている.一方「購買でノートを\underline{かう}」という文の場合,ここでの「かう」という単語が「買う」という意味を示していることは容易く理解できる.このような換言対象となるひらがな語を含む文についてひらがな語を該当する漢字に同定するタスクを我々はかな漢字換言と呼んでいる.意味の曖昧性を持つひらがな語を特定の漢字に同定する処理はそのひらがな語の語義曖昧性を解消することに相当する.また,この換言はひらがな語と漢字語の表記ゆれ解消にもなっている.つまり,本タスクは語義曖昧性解消,換言処理,表記ゆれ解消のいずれにも該当する.我々が通常の語義曖昧性解消タスクではなくかな漢字換言による語義曖昧性解消で分析を行う理由に,その訓練データの作りやすさがある.通常の語義曖昧性解消では訓練データをコストをかけて人手で作る必要があるが,かな漢字換言では対象となる漢字さえ分かれば大量のコーパスから自動的に訓練データを増やすことが可能であり,訓練データの増減による精度の検証が容易い.そのため,今回我々はかな漢字換言を通して語義曖昧性解消の分析を行うこととした.かな漢字換言の対象となるひらがな語は同じ読みで異なる語義を持つ漢字が複数存在するものである.以前Yamamotoらが実装したかな漢字換言では換言の対象を手動にて抽出しているが\cite{Kazuhide2016},我々はかな漢字換言を通して日本語語義曖昧性解消について分析を行うため,語義の定義について形態素解析辞書UniDic\footnote{http://pj.ninjal.ac.jp/corpus\_center/unidic/}の語彙素を用いた.UniDicでは語彙素を選定する際の同語異語判別に明確な基準を設けている\cite{Corpus2010}.基準の一つとして「漢字表記の頻度よりも仮名表記の頻度が非常に高い場合,一つの語彙素にまとめることを優先する」というものがあり,これは例えば「収まる」や「治まる」の語彙素が「収まる」にまとめられるようなものである.この基準は通常のかな漢字換言では「収まる」と「治まる」のような漢字を対象にすることができないため不適当である.しかし,本論文の目的はかな漢字換言を通した日本語語義曖昧性解消の分析であるため,大規模なコーパスからデータセットを自動的に抽出する際,十分な訓練事例を用意できないこれらの語義を解析対象とするのは適当でない.さらに,明確に使い分けされていないこれらの漢字をデータセットとして抽出することは誤解析の原因となる.そのため,ここではこれらの語義を明確に分けている形態素解析辞書UniDicを用いている.かな漢字換言において活用を持つ動詞に関してはその語の形を用いることで一意に意味を決定できる場合がある.例えば「寝る」「練る」のような単語に関して「寝る」の未然形は「ね」なのに対し「練る」の未然形は「ねら」である.そのため,「私は蕎麦をねらない」といった文に含まれる「ねらない」は一意に「練らない」に変換することが可能である.しかし,本論文中ではかな漢字換言を通して語義曖昧性解消について分析することが目的であるため,語の形は素性として使わないこととした.以後の実験において使用する訓練データとテストデータについて,我々は現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://pj.ninjal.ac.jp/corpus\_center/bccwj/}に含まれる全文章の中から換言の対象となる文を,訓練データでは1語義あたり200文を,テストデータでは1語義あたり50文を無作為に抽出した.出現頻度が250文に満たない漢字については換言対象から除外している.抽出の対象となる文は日本語解析システム雪だるま\cite{40020961332}\footnote{http://snowman.jnlp.org/snowman}の出力単語が15語以上のものとした.文長を15語以上に制限する理由は「窓幅と素性の選び方」について調査する上で窓幅による精度への影響を調査しやすくするためである.換言対象のひらがなは計311語,換言の候補となる漢字は計734語である.換言対象のひらがな語はBCCWJ中において438,360回出現し,全約600万文章中約13.5文に1回出現する計算となる.以後の実験では特筆しない場合上記のデータセットを用いて行う.なお対象となったひらがなと漢字の対に関しては付録\ref{appendix:kanakanji-target}に記している.実際にデータセットとして抽出された文の一部を表\ref{tab:kanakanji-conversion-data}に示す.表中の下線部が換言の対象となるひらがなである.\begin{table}[t]\caption{かな漢字換言データセットの一部}\label{tab:kanakanji-conversion-data}\input{01table01.tex}\end{table}\subsection{他タスクとの比較}通常,語義曖昧性解消タスクの多くはWordNetや辞書などに存在する語義の定義に併せて単語を分類することが多い\cite{LNC3:LNC3131}.これらの語義曖昧性解消の語義タグは比較的細かいことから,実アプリケーションへの実装を考えた際にその粒度が問題となることが指摘されており\cite{lopezdelacalle-agirre:2015:*SEM2015},近年ではより粗い粒度を語義曖昧性解消へ用いる動きも見られる\cite{navigli-litkowski-hargraves:2007:SemEval-2007}.また,拡張固有表現階層を用いて構築した意味カテゴリに基づく語義曖昧性解消のアプローチも存在し,これは荒い粒度の語義曖昧性解消と同等だと考えられる\cite{weko_79539_1}.かな漢字換言では前述の通り語義が完全に異なる漢字のみを対象としており,語義同士の距離が近い漢字を曖昧性解消の対象としていないことから,かな漢字換言はこれらの語義曖昧性解消タスクと同等,またはそれ以上に粗い曖昧性解消と考えることが可能である.今回の分析に用いるかな漢字換言のデータと通常の語義曖昧性解消の間のその他の違いとして文長が考えられる.前節にて抽出したデータセットでは1文が15単語以上のものを語義曖昧性解消の対象として選択している.一方で,日本語語義曖昧性解消タスクでは文章自体は長いが1文1文がかな漢字換言のデータに比べて短くなっている.つまり1文のみを使うことによる語義曖昧性解消の難易度はかな漢字換言の方が易しいと考えられる.ここではかな漢字換言タスクと通常の語義曖昧性解消タスクとの関連性を調べるため,\linebreakSemeval2010の日本語語義曖昧性解消タスクとの比較を行う.白井らは語義曖昧性解消の難しさについて語義の頻度分布のエントロピーを用いて分析を行っている\cite{20033}.頻度分布のエントロピー$E(w)$は次式で求めることができる.\begin{equation}E(w)=-\sum_{i}p(s_{i}|w)\log{}p(s_{i}|w)\end{equation}ここで$p(s_{i}|w)$は単語$w$の語義が$s_{i}$である確率を表す.表\ref{tab:compare-kanakanji}に各タスクにおける平均語義数,頻度分布のエントロピーを示す.なおSemEval2010のタスクについては語義の頻度分布のエントロピーを用いて決められた難易度ごとのデータについても記す\cite{2011semeval}.前節で作成したかな漢字換言のデータセットでは各語義のデータ数を揃えているため,今回はエントロピーの計算にBCCWJの漢字の出現回数をカウントし用いている.各タスクにおける平均語義数を比較するとかな漢字換言の平均語義数は日本語語義曖昧性解消タスクの$D_{easy}$に相当することがわかる.一方でかな漢字換言のエントロピーの値は$0.87$と$D_{mid}$と同じ程度の値を取っている.かな漢字換言では対象となる漢字をコーパス中で250回以上出現するものに限定しているため,偏りが少なくなったことでエントロピーの値が大きくなったのだと考えられる.\begin{table}[b]\caption{各データセットの比較}\label{tab:compare-kanakanji}\input{01table02.tex}\end{table}これらを踏まえると,かな漢字換言タスクは日本語語義曖昧性解消タスクにおける$D_{easy}$と同等かそれ以上に簡単なものであると考えられる.白井らの報告によれば新聞記事中に出現する出現頻度10以上の単語に対して付与された語義タグの異なり数の多くは2であり,エントロピーに関しても1以下の形態素が多い\cite{110002935282}.それゆえに,$D_{easy}$相当と考えられるかな漢字換言は日本語の語義曖昧性解消の大きな部分タスクの一つであるとみなせる. \section{提案手法} \label{section:proposed-method}本章では,Yamamotoらが実装したPMIを用いたかな漢字換言\cite{Kazuhide2016}について改めて実験を行った結果を\ref{subsection:pmi-method}節に示し,その結果に基づいて提案した手法について\ref{subsection:embeddings-method}節にて説明する.\subsection{PMIのみを用いたかな漢字換言}\label{subsection:pmi-method}\subsubsection{手法の説明}以下に以前Yamamotoらが実装を行ったPMIに基づくかな漢字換言の手法について以下に説明を述べる\cite{Kazuhide2016}.また,その概略図を図\ref{fig:pmi-conversion}に示す.\begin{screen}\begin{enumerate}\item文全体を検索し,換言対象が含まれているかどうかを調べる.\item換言対象が含まれている場合対象から前後4単語の内容語と換言対象の漢字のPMIを計算する.\itemPMIが5以上の漢字の中から最もPMIが高い漢字の換言対象についてその漢字を出力する.\item計算結果がすべてPMI5以下である場合は換言を行わない.\end{enumerate}\end{screen}図\ref{fig:pmi-conversion}の各工程について詳しく説明していく.\begin{figure}[t]\begin{center}\includegraphics{25-3ia1f1.eps}\end{center}\caption{PMIを用いたかな漢字換言の換言過程}\label{fig:pmi-conversion}\end{figure}まず,入力文に対する手掛かりの選定を行う.この手法ではPMIが高い単語を用いてかな漢字換言を行っている.そのため,どの文においても頻出しPMIの値が低くなる助詞や記号等の機能語は計算から省いてしまっても結果に影響しないと考え,換言に用いる手掛かり語を内容語のみに絞ってPMIの計算を行うこととしている.また換言対象の前後4単語について手掛かりとする語の選定に用いているが,この数字は我々の経験に基づいて決めた数字である.2番目の工程として漢字候補の読み込みを行うが,ここでは\ref{section:kanakanji-conversion}章で説明したようにBCCWJとUniDicを用いて作成された日本語解析システム雪だるま\cite{40020961332}の辞書を基に手動で候補を作成しているため,候補の作り方の詳細な説明は省く.次に自己相互情報量の計算を行う.この換言方法において我々は共起する確率が高い漢字ほどそのかな漢字換言の候補として適切だと考え,共起する組み合わせを数値化するためにPMIを用いた.$p(x,y)$を$x$と$y$が同時に出現する確率,$p(x)$を$x$が出現する確率とした時2つの語$x,y$における自己相互情報量$PMI(x,y)$は次式で表される.\begin{equation}\label{equ:pmi}PMI(x,y)=\log{}\frac{p(x,y)}{p(x)p(y)}\end{equation}式(\ref{equ:pmi})から分かる通り自己相互情報量の計算にはそれぞれの出現確率が必要になる.出現確率はなるべく大量の文章から正しい頻度を数え正しい数字を計算する必要があるが,非常に大規模なテキストを用意するのは難しい.そのため,我々はWeb日本語Nグラム(第1版)\footnote{http://www.gsk.or.jp/catalog/gsk2007-c/}を利用し,擬似的に各単語の出現確率とそれぞれの単語の組み合わせが共起する確率の計算を行った.Web日本語Nグラムでは200億文について頻度が20回以上のngramを収録しており,頻度の計算としては十分な規模を持つ.ここで利用するのは7gramのデータであり,単語間の距離が7以内である場合にその単語ペアを共起したとみなし頻度の計算を行っている.PMIには閾値を設け,周辺単語と換言対象の漢字のペアのPMIすべてが閾値を下回った場合換言を行わないようにしているが,これは低いPMIの値の漢字を出力することによる換言器の精度低下を防ぐためである.以前の実装において我々は事前の調査からその閾値を5に設定している.今回,我々は改めて上記の手法を用いてかな漢字換言の精度を改めて調査することとした.以下にこの実験において調査した内容について示す.\begin{itemize}\itemPMIの閾値5は正しい設定なのか\item窓幅4の設定は正しい設定なのか\end{itemize}PMIの閾値の設定を上げることでその換言の適合率をあげられるのであれば,PMIが高い単語が含まれている文ではその単語を素性として使うことでより高精度な換言が行えるはずであり,逆に閾値の設定によらず適合率が上がらないのであればPMIのみを用いて語義曖昧性解消を行う手法があまり適さないということを明らかにできる.窓幅の設定に関する実験もまた重要である.これまでの語義曖昧性解消では周辺の2から5単語程度を素性とした手法が多く文全体を考慮する手法は少なかったが,それらの窓幅の設定が本当に正しいのかをこの実験で明らかにすることができ,今後の教師あり語義曖昧性解消において重要な設定の一つを明確にすることができる.\subsubsection{実験}\ref{section:kanakanji-conversion}章にて作成したかな漢字換言のテストデータを用いて周辺単語として考慮する単語の窓幅を変化させたときの精度と,PMIの閾値を変化させたときの精度を確認した.窓幅に関する実験の際はPMIの閾値を5に設定し窓幅を2から20まで1刻みで変化させたときの適合率と再現率,F値の変化を見る.PMIに関する実験の際は窓幅を20に固定し,PMIの閾値を0から20まで1刻みで変化させたときの適合率と再現率,F値の変化を見る.PMIの計算には前項での説明と同様にWeb日本語Nグラムの7gramから擬似的に計算した頻度情報を用いた.\begin{figure}[b]\noindent\begin{minipage}{201pt}\includegraphics{25-3ia1f2.eps}\caption{PMIの閾値を変化させたときの各値の変化}\label{fig:accuracy-minpmi-pmi}\end{minipage}\hfill\begin{minipage}{201pt}\includegraphics{25-3ia1f3.eps}\caption{窓幅を変化させたときの各値の変化}\label{fig:accuracy-windowsize-pmi}\end{minipage}\end{figure}図\ref{fig:accuracy-minpmi-pmi}にPMIの閾値を変化させたときの結果,図\ref{fig:accuracy-windowsize-pmi}に窓幅を変化させたときの結果を示す.まず,窓幅を固定しPMIの閾値を変化させていったときの影響について考察をする.図\ref{fig:accuracy-minpmi-pmi}を見ると,PMIの閾値が3までに関しては再現率と適合率がほぼ同じ値になっている.これは対象のひらがなの前後の内容語にPMIが3以下のものがなかったため,すべての文において何らかの換言が行われたからである.PMIの閾値を3より上げていくと再現率は下がり,それに対応してPMIが10まで適合率が上がっており,PMIが10を超えると換言の精度は95\%を超え高い精度での換言が行えていることが見て取れる.一般に閾値を上げることでよりPMIの高い候補を持つひらがなのみが換言されることから適合率は上がると考えられるが,この実験結果はそれが正しいことを示した形になる.一方で再現率はそれを上回る勢いで減少しており,結果としてF値は減少している.この結果は一部の単語についてPMIが高い語を素性として用いる方法が精度を上げる上で効果的であるということを示唆するものである.次にPMIの閾値を固定し窓幅を変化させていったときの影響について考察する.図\ref{fig:accuracy-windowsize-pmi}を見ると窓幅を上げることで再現率,F値をともに上げることができていることがわかる.これは換言対象の単語から遠いところにも素性となる単語が現れていることを示し,文全体を考慮することでより正しく多くのひらがなを換言することができている.しかしながら適合率の値は窓幅を大きくすることで減少しており,単純にPMIが高い単語を選ぶ方法では素性としては不充分であり,前後の文脈なども同時に考慮する必要があるといえる.\subsection{分散表現とPMIを用いたかな漢字換言}\label{subsection:embeddings-method}前節の結果から我々は分散表現とPMIを用いることで文全体の文脈を考慮してより正確にかな漢字換言を行う手法を提案する.ここで提案する手法はSugawaraらの提案手法に対して改善を加え,山木らが上げた「単語の位置が規定される」という問題を解消するものである.まずSugawaraらの手法について説明をする.Sugawaraらは周辺の単語の分散表現を用いて語義曖昧性解消を行う手法としてAVEとCWEの2手法を提案している.AVEは対象単語の周辺単語について分散表現を平均し素性として用いる手法である.CWEは周辺単語の分散表現をつなぎ合わせる手法である.具体的には,窓幅$N$を5,換言対象前の単語を$w_{-N},w_{-N+1},...,w_{N-1},w_{N}$とし,それらの分散表現を表すベクトルを$v_{w_{-N}},v_{w_{-N+1}},...,v_{w_{N-1}},v_{w_{N}}$とした時にAVEは素性$v_{ave}$(式\ref{equation:ave})を,CWEでは素性$v_{cwe}$として周辺の単語ベクトルをつなぎ合わせたベクトル(式\ref{equation:cwe})を素性として用いる手法である.この素性の次元は分散表現の次元を$L$とするとAVEでは$L$,CWEでは$2\timesN\timesL$となる.\begin{gather}v_{ave}=\frac{v_{w_{-N}}+v_{w_{-N+1}}+\ldots+v_{w_{N-1}}+v_{w_{N}}}{2N}\label{equation:ave}\\v_{cwe}=v_{w_{-N}},v_{w_{-N+1}},\ldots,v_{w_{N-1}},v_{w_{N}}\label{equation:cwe}\end{gather}Sugawaraらはこれらの素性を用いた手法について実験を行い,AVEよりもCWEのほうがより高い精度が得られたことを報告している.また,その理由としてAVEでは周辺の文脈情報が落ちるため精度が出ないとし,CWEは単語の位置が考慮できるためより精度が高くなったと考察している.しかし,山木らが挙げたようにCWEでは単語の位置が規定されるため,訓練データにおいて出現した単語がテストデータに出現したとしても,出現位置によってはその類似性が反映されないという問題があると考えられる.そこで我々はこの問題を解消する新たな手法を提案する.一つはCWEで素性として用いる周辺の単語ベクトルに対して,周辺単語の分散表現の平均ベクトルAVEを足し合わせる手法である.CWE,AVEの頭文字を取ってこの手法をCAと呼ぶ.換言対象前の単語を$w_{-N},w_{-N+1},...,w_{N-1},w_{N}$としたとき,それらのベクトルを足し合わせた$v_{w_{-N}}+v_{w_{-N+1}}+...+v_{w_{N-1}}+v_{w_{N}}$のベクトルは周辺単語のコンテキストをよく表すベクトルになっている.そこで我々はCWEの手法の各ベクトルに対してこのベクトルの平均AVEを足し合わせることによって単語の位置が規定され,精度が落ちるという問題に対処できると考えた\footnote{CWEに対して平均ベクトルAVEをつなぎ合わせる手法も考えられるが,\ref{section:experimentation}章と同等の条件で実験を行った結果精度の向上が見られなかったためここでは手法の説明について省略している.}.具体的には周辺単語の平均ベクトルとして考慮する窓幅を$N_{ave}=5$とし周辺単語の平均ベクトルを式\ref{equation:ave2}とした際に式\ref{equation:cweave}を素性として使う手法である.平均ベクトルとして考慮する単語の数は$N_{ave}\times2$となる.これによって各単語の位置を考慮しつつ周辺単語のコンテキストを考慮することができる.\begin{gather}v_{ave}=\frac{v_{w_{-N}}+v_{w_{-N+1}}+\ldots+v_{w_{N-1}}+v_{w_{N}}}{2N_{ave}}\label{equation:ave2}\\v_{CA}=v_{w_{-N}}+v_{ave},v_{w_{-N+1}}+v_{ave},\ldots,v_{w_{N-1}}+v_{ave},v_{w_{N}}+v_{ave}\label{equation:cweave}\end{gather}しかしながら,この手法でも窓幅の大きさ分しか周辺単語を考慮することができず,また窓幅を闇雲に大きくしても機能語などの本質的に文の周辺文脈と関係のないノイズ成分が増えてしまうため精度の向上は見込めない.そこでそれらの素性に対してさらに文中でPMIの大きい単語のベクトルを末尾につなぎ合わせる手法を提案する.CWE,AVE,PMIの頭文字を取ってこの手法をCAPと呼ぶ.これは対象となる文全体の中から換言候補となる漢字とPMIが最も高い単語の分散表現を末尾につなぎ合わせるという手法である.図\ref{fig:pmi-conversion}を例として説明すると,計算によって「ノート」と換言候補の「買う」が最もPMIが高くなった場合,単語「ノート」の分散表現を末尾につなぎ合わせる.かな漢字換言ではなく通常の語義曖昧性解消の場合,換言候補となる単語と周辺単語の間のPMIを計算し,最もPMIが高い単語を素性として選ぶ.これにより語義曖昧性解消において重要な単語のコンテキストを考慮することができ,かつ分散表現を用いることで似ている単語がテストデータに出てきた場合にも対応できると考えられる.これをまとめると,CAPで用いる素性は文中で最もPMIが高い単語のベクトルを$v_{w_{maxpmi}}$とすると式\ref{equation:cweavepmi}となり,素性の次元数は$(2\timesN+1)\timesL$となる.\begin{equation}v_{CAP}=v_{w_{-N}}+v_{ave},v_{w_{-N+1}}+v_{ave},\ldots,v_{w_{N-1}}+v_{ave},v_{w_{N}}+v_{ave},v_{w_{maxpmi}}\label{equation:cweavepmi}\end{equation}提案した素性についての説明図を図\ref{fig:exapmle-of-feature}に示す.\begin{figure}[t]\begin{center}\includegraphics{25-3ia1f4.eps}\end{center}\caption{分散表現を用いた各手法における素性の例}\label{fig:exapmle-of-feature}\end{figure} \section{実験} \label{section:experimentation}本章ではまず前章において提案した手法についてかな漢字換言タスクにおける評価を行う.続いて日本語語義曖昧性解消タスクでも同様に評価を行い提案手法の有効性を実証する.その後,教師データを増減させることによる精度への影響,データのドメインによる精度への影響について調査,考察する.\subsection{かな漢字換言による実験}\label{subsection:experiment-kanakanji-conversion}\subsubsection{実験設定}\ref{section:proposed-method}章で説明した素性を用いて既存の手法との精度の比較を行う.データセットには\ref{section:kanakanji-conversion}章でBCCWJとUniDicから抽出したデータを用い,分散表現の構築に用いるコーパスは2016年3月5日にダンプされた日本語のWikipediaのデータ\footnote{https://ja.wikipedia.org/wiki/Wikipedia:データベースダウンロード}からwp2txt\footnote{https://github.com/yohasebe/wp2txt}を用いて作成したものを用いる.単語分割に用いる解析器には我々の研究室で開発,研究している日本語解析システム雪だるま\cite{40020961332}を用いる.この解析器はUniDicを辞書として用いたMeCabのラッパーとして開発されており,その特徴として活用を持つ単語に関しては活用を落として出力し,活用は活用形態素と言う形で活用を持つ単語の後ろに対して1形態素として出力をするようになっている.また,「サ変名詞+する」のような組み合わせの単語を1単語として出力するようになっている.活用形態素を考慮するかしないかによって語義曖昧性解消の精度が変化する可能性は存在するが本論文の主旨からそれてしまうため,ここでの実験では活用を考慮せずに行う.作成したWikipediaコーパスを雪だるまにて解析し,それらをgensim\footnote{https://radimrehurek.com/gensim/}のWord2Vecの実装で学習させ単語の分散表現として使う.Word2Vecの学習ではSkip-gramを用い階層的ソフトマックスとネガティブサンプリング両方を使用する.学習に使用する窓幅の設定は5とし,ネガティブサンプリングの値は5,ダウンサンプリングの割合は$10^{-3}$に設定し各ベクトル表現はすべて200次元に設定した.分類器にはScikit-learn\footnote{http://scikit-learn.org/}で実装されているSupportVectorMachine(SVM)のLinearSVCを使用し,正則化パラメータとして$C=1.0$を使用した.比較する素性として対象単語の周辺単語の分散表現をつなぎ合わせるCWE,対象単語の周辺単語のベクトルを足し合わせるAVE,CWEに対して周辺単語のBoWを素性として加えたCWE+BoW,\ref{section:proposed-method}章にて提案したCWEとAVEを組み合わせる手法(CA),さらにPMIを組み合わせた手法(CAP)に関して精度の比較を行う.\subsubsection{結果}前項で説明した各素性を用いた手法について実験を行った.窓幅を2から20まで変化させたときの換言精度の変化を示したグラフを図\ref{fig:accuracy-windowsize}に示す.また,各手法について,一番精度が良かったときの窓幅の大きさとその時の精度を表\ref{tab:kanji-conversion-result-tab}に示す.なおグラフ中のAVE(CW)はAVEで足し合わせる単語を内容語のみに制限した時の結果となっている.\begin{figure}[b]\begin{center}\includegraphics{25-3ia1f5.eps}\end{center}\caption{各素性を用いたかな漢字換言精度}\label{fig:accuracy-windowsize}\end{figure}\begin{table}[t]\caption{素性ごとのかな漢字換言の精度比較}\label{tab:kanji-conversion-result-tab}\input{01table03.tex}\end{table}CAやCAPの手法において,足し合わせて使う周辺単語の窓幅は訓練データを用い4分割交差検定にて最も精度の良かった3に固定してある.結果として,CWEやAVE,CWE+BoWの精度をCAの精度が1ポイント以上上回り,さらにPMIを組み合わせたCAPの手法が最も高い精度を示した.CWEでは単語ごとのベクトルを並べることによって単語の出現位置を考慮することができているが,単語の位置が規定されることによって周辺単語のコンテキストを考慮することができなかった.これらの手法に対してCWE+BoWはBoWを素性として加えることで単語の位置が規定される問題を若干解消しているが精度の向上はあまり大きくない.一方CWEに対してAVEを加えた手法では大きく精度が向上している.これはAVEを素性として加えることにより似た文脈を持つ文などをより考慮することができるようになったからと考察できる.一般にBoW等のcountモデルに比べてWord2Vecなどのpredictモデルは性能が良いと言われており\cite{baroni-dinu-kruszewski:2014:P14-1}より密になったベクトルを使うことでモデルが特徴を学習しやすくなったのだと考えられる.また,それらの手法に対してPMIの高い単語の分散表現を加えた手法(CAP)では,周辺単語だけではなく対象単語から遠い位置にある重要な単語に関して考慮することができていることからより高い精度を示している.窓幅の設定に関して,窓幅をある一定まで増やしていくと顕著に精度が上がっていくが,ある程度の窓幅がある場合はそれ以上窓幅を大きくしても精度が上がらないことが見て取れ,一定以上の窓幅があればそれらから似た文脈を持つ文の語義曖昧性も解消できるということを表している.またAVEに関しては窓幅4までは精度が上がっているがそれ以降は精度が下がっている.AVEでは窓幅内の単語について分散表現をすべて平均する手法になっているため,対象単語から離れた機能語などが多く足し合わさることによって雑音が増え,正しく分類できない文が増えたからだと考えられる.実際に内容語のみを足し合わせた手法のグラフを確認すると内容語のみを足し合わせることで精度の低下が起こらなくなっていることがわかる.しかしその精度が通常のAVEに比べ非常に低いことから,対象単語の周辺の機能語が語義曖昧性解消において重要であることをこの結果は示している.次に実際にどのような文が正解に変わり,どのような文が換言できなかったのかについて誤り分析を通して考察をしていく.窓幅を10に設定した際にCWEで正しく換言できなかった文についてランダムに100文抽出しそれらに対して各手法における分析を行った.表\ref{tab:error-analysis}に入力文と各システムが出力した漢字の一部を示す.表内のHの列に関しては人間が同じ文を見たときに換言できるかどうかを著者が個人の主観で判断したものである.抽出した100文中人間の目で見て正しい漢字が選択できた対象は67文であり,その67文中CAPの手法で正しい漢字を選択できるようになった文は45文であった.\begin{table}[b]\caption{入力文とシステムが実際に出力した漢字}\label{tab:error-analysis}\input{01table04.tex}\end{table}表\ref{tab:error-analysis}中の1,2の例ではCWEに対してAVEの素性を組み合わせることで解けるようになっていることがわかる.例1においてCWEでは単語の位置が規定されることによって「勤め」という単語から帰るという言葉が連想されることを学習できずに「返る」という単語を出力してしまっているが,AVEの素性を足すことによって正しく換言が行えるようになったのだと推察できる.2に関しても同様でCWEでは「アダージオ」という音楽用語から本来は「弾く」という意味を導けていないが,AVEを素性として加えることで単語の位置が規定されるという問題を解消し正しい漢字が導けていることがわかる.3,4の例はPMIを素性として加えることで正しい漢字を導けている例である.3の例では窓幅10の設定では「練る」という単語を導くために必要な「構想」という単語を考慮することができないが,PMIを用いることで「構想」単語の分散表現を素性として加えることができるようになっている.そのため正解である「練る」という漢字を導けるようになったものだと考察できる.4の例も同様で人間が「共生」という漢字を導くために必要な「サンゴ」や「褐虫藻」といった単語は窓幅10では考慮できないがPMIを用いることで位置が離れた単語でも素性として使え,結果として正しい漢字が出力できるようになったのだと推察できる.実際にPMIによって素性として選ばれた単語は「褐虫」であった.一方で5,6の例はどの手法でも正しく換言できなかった文である.例5に関しては「暖かい」といった単語や「柔らかい」という単語に引っ張られて「感性」という単語をどの手法においても出力しているが,「部屋」を完成させていることが人間の場合わかるため「完成」が正しい漢字であることを我々は認識できる.このような例に関しては構文情報などのより高度な意味理解が必要になる.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{25-3ia1f6.eps}\end{center}\caption{PMIによって選ばれた単語の換言対象単語との距離}\label{fig:histogram-pmi-kanakanji}\end{figure}7,8は著者の主観では正しい漢字を導くことができなかった例である.例7に関しては「二五世紀の戦士」という固有名詞を認識し知識として学習させる必要があるため,このような対象は我々の手法では正しく解けない.そもそも固有名詞に関しては一部をひらがなで書くということはほぼ状況として無く,これらは固有表現抽出の問題になるはずである.例8に関しては「創作」「捜索」どちらの漢字が割り当てられても文としては自然なため曖昧性を解くのに必要な周辺文脈が不十分であることがわかる.最後にPMIによって選ばれた単語の換言対象単語との距離について考察をする.換言対象単語とPMIによって素性として選択された単語の距離のヒストグラムを図\ref{fig:histogram-pmi-kanakanji}に示す.図\ref{fig:histogram-pmi-kanakanji}を見るとPMIが高い単語の多くが周辺2単語に存在していることがわかる.PMIの計算時に使う頻度情報として距離が7単語以内に出現した単語を共起したとみなして計算しているため,距離が近いところにPMIが高い単語が出てくるのは当然であるが,それを考慮しても周辺2単語以内によく共起する単語が出現している.周辺2単語以内に最もPMIが高い単語が出現した割合は訓練データ中では約37\%であった.一方で換言対象からの距離が10以上と遠い位置でもPMIの高い単語がかなりの割合で出現しており,これらを素性として加えることで一部の文において正しいコンテキストを選択できるようになり,かな漢字換言の精度が0.8ポイント向上したのだと言える.距離10より大きい位置に最もPMIが高い単語が出現した文の割合は全データ158,750件中52,337件と約33\%の割合を占める.この結果からもより精度の高い語義曖昧性解消を行う際にはより幅広い周辺文脈から重要な素性を選択する必要があると言える.\subsection{日本語語義曖昧性解消タスクによる実験}\subsubsection{実験設定}続いて提案手法の日本語語義曖昧性解消タスクでの有効性を調査する.各手法を比較するために用いるデータとしてSemEval2010の日本語語義曖昧性解消タスク\cite{okumura-EtAl:2010:SemEval}を使用し検証を行う.SemEval2010のデータでは語義曖昧性解消の対象となる単語は50単語であり1語あたりの事例数は訓練データ,テストデータでそれぞれ50事例となっている.この数字は1語義あたり200の訓練事例があるかな漢字換言タスクに比べて非常に規模が小さい.また,\ref{section:kanakanji-conversion}章で述べたように日本語語義曖昧性解消タスクはかな漢字換言に比べ1語あたりの平均語義数が多く,頻度分布のエントロピーも大きいことからかな漢字換言よりも難しいと言える.実験設定は基本的に前節と同様のものを用いる.なお,データセット自体が単語分割されているため,単語分割について雪だるまは使用していない.比較する素性として前節同様対象単語の周辺単語の分散表現をつなぎ合わせるCWE,対象単語の周辺単語のベクトルを足し合わせるAVE,CWEに対して周辺単語のBoWを素性として加えたCWE+BoW,\ref{section:proposed-method}章にて提案したCWEとAVEを組み合わせる手法(CA),さらにPMIを組み合わせた手法(CAP)に関して精度の比較を行う.\subsubsection{結果}\ref{subsection:experiment-kanakanji-conversion}節で用いた素性を使用して日本語語義曖昧性解消タスクでの実験を行った.各素性において窓幅を変化させていったときの精度の変化のグラフを図\ref{fig:accuracy-windowsize-japanese}に示す.また,各素性において最も精度が良かったときの数字とその時の窓幅を表\ref{tab:japanese-wsd-result}に示す.なお,CAやCAPの手法において,足し合わせて使う周辺単語の窓幅は訓練データで5分割交差検定を行い最も精度の良かった2に固定してある.\begin{figure}[t]\begin{center}\includegraphics{25-3ia1f7.eps}\end{center}\caption{各素性を用いた日本語の語義曖昧性解消}\label{fig:accuracy-windowsize-japanese}\end{figure}\begin{table}[t]\caption{素性ごとの語義曖昧性解消の精度比較}\label{tab:japanese-wsd-result}\input{01table05.tex}\end{table}まず,図\ref{fig:accuracy-windowsize-japanese}から見て分かる通り,どの手法においても窓幅が小さい時の精度が非常に高く,窓幅を広げていくとその精度が落ちていっていることがわかる.この結果は粒度の粗いかな漢字換言と違い,細かい粒度の語義は前後の単語から決定的に行えるということを示している.CWEとCAの間に大きな精度の差が見られなかったのはこれが一つの理由であると考えられる.窓幅が小さい際は「単語の位置が規定される」という問題が少なく,周辺語の出現パターンを比較的少ない訓練事例で学習することが可能である.そのため2つの素性の間に差が生まれなかったのだと考察できる.一方でCWEに比べPMIを組み合わせた手法は約$1$ポイント精度が向上している.これは先程の考察の一方で一部の語義の決定には曖昧性解消の対象となる単語から離れた単語も有効であるということを示している.CAPの素性においてPMIで選んだ単語の曖昧性解消の対象となる単語の距離のヒストグラムは図\ref{fig:histogram-pmi-japanese}になっている.図\ref{fig:histogram-pmi-japanese}を見るとかな漢字換言での検証と同様,PMIが高い単語は前後2単語に集中していることがわかる.周辺2単語以内に最もPMIが高い単語が出現した割合は訓練データ中では約26\%であった.一方で換言対象からの距離が3以上のものも一定数出現しておりこれらを素性として加えることで一部の語義が正しく導くことができ,精度が約$1$ポイント向上したのだと考えられる.距離3以上の位置に最もPMIが高い単語が出現した文の割合は約74\%である.この結果からも日本語の語義曖昧性解消において遠くの位置の単語が語義を決定するのに有効であると言える.また,SemEval2010の日本語語義曖昧性解消タスクでは1文ではなく文章全体からPMIによって素性を選ぶ手法についても検討することができる.従来の日本語の語義曖昧性解消は1文単位での手法がほとんどである.しかしながら,同文章中であれば似た文が多く含まれていると考えられるため,精度の向上に寄与する可能性がある.図\ref{fig:accuracy-windowsize-pmethodpmi}に語義曖昧性解消の対象単語が含まれる文章を用い,PMIで考慮する窓幅を変化させていった時の精度の変化を示す.\begin{figure}[t]\setlength{\captionwidth}{208pt}\begin{minipage}[t]{212pt}\includegraphics{25-3ia1f8.eps}\hangcaption{PMIによって選ばれた単語の語義曖昧性解消の対象単語との距離}\label{fig:histogram-pmi-japanese}\end{minipage}\hfill\begin{minipage}[t]{206pt}\includegraphics{25-3ia1f9.eps}\caption{PMIの窓幅を変化させたときの精度の変化}\label{fig:accuracy-windowsize-pmethodpmi}\end{minipage}\end{figure}図\ref{fig:accuracy-windowsize-pmethodpmi}を見ると窓幅50以下でCWE等の手法に比べて高い精度を記録していることが見て取れる.また窓幅40において精度78.6\%を記録しており,PMIでの窓幅を適切に考慮することで1文ではなく文章単位でも精度を向上させることが可能であると言える.一方で,ある一定以上PMIの窓幅を上げていくとその精度は低下していき,その他の手法とあまり変わらない値となっている.これは距離が遠すぎる単語は対象単語を含む文と比べて周辺文脈が大きく変わっており,PMIが大きい単語でも曖昧性解消の素性として効果がないからであると言える.結論として日本語の語義曖昧性解消では,広い窓幅から重要な単語を適切に素性として加えることで一定の精度の向上が見込めることがわかる.\subsection{訓練データの増減による換言精度の変化}\subsubsection{実験設定}ここでは前節で有効性が確認できた各手法において,訓練データを増やすことによる換言精度への影響について調査する.Marquezらは訓練データの規模を1語義あたり200件以上に増やすことで分類精度が向上することを報告しているが\cite{SupervisedWSDDataSize},それ以上に規模を大きくした論文については存在しない.しかし,かな漢字換言を通した語義曖昧性解消の調査では訓練データを自動で抽出することが可能である.そこで今回,我々はかな漢字換言の特性を活かして訓練データを1語義あたり5,000件用意し,規模を増加させたときの精度の変化を確認した.訓練データを抽出する上でBCCWJではそのコーパスの大きさが不十分で,すべての漢字の例について十分な規模の訓練データを抽出することができなかったため,本実験ではすべて日本語ウェブコーパス(2010)\footnote{http://s-yata.jp/corpus/nwc2010/}のテキストアーカイブから\ref{section:kanakanji-conversion}章で抽出した方法と同様にして抽出したものを使った.BCCWJの規模はテキスト形式でおよそ600~MBであるがウェブコーパスの規模は396~GBであり,またその文数はBCCWJ約600万文に対してウェブコーパスでは約56億文と,かな漢字換言の訓練データ作成において十分な量である.訓練データには\ref{section:kanakanji-conversion}章で構築した1語義あたり200件の訓練データは使わず,全てウェブコーパスから抽出したもののみを使う.これはドメインの違うデータを用いることによる精度の変化の影響を排除するためである.語義曖昧性解消において訓練データはその大きさだけではなく多様性によっても左右される.そのため,より多様性に富んだデータを意図的に抽出することで訓練データを増やしていった時の精度をより向上させることが可能であると考えられる.しかし,ここでの調査は訓練データの大きさによる精度への影響を調べることに焦点を当てるため,恣意的に抽出するデータを選ぶようなことはせずウェブコーパスのみから無作為に訓練データを選択している.テストデータには\ref{section:kanakanji-conversion}章で構築したものと同じものを使用する.\subsubsection{実験結果}訓練事例数を増やしていった際のかな漢字換言における各手法の精度の変化を図\ref{fig:accuracy-datasize}に示す.なお,訓練データの規模を示す横軸は対数表示である.またグラフ中のCAP$_{J}$はSemEval2010の日本語語義曖昧性解消タスクについて訓練データを制限した際の数値を示す.かな漢字換言では横軸の値は1語義あたりの訓練事例なのに対し,日本語語義曖昧性解消タスクでは横軸の値は1単語あたりの訓練事例であることに注意されたい.また,日本語語義曖昧性解消タスクでは純粋な訓練事例の変化による精度を確認するため,訓練データ中の各語義のバランスを考慮し各語義の訓練データを順に追加している.\begin{figure}[t]\begin{center}\includegraphics{25-3ia1f10.eps}\end{center}\caption{訓練データの大きさによる精度の変化}\label{fig:accuracy-datasize}\end{figure}グラフを見ると,かな漢字換言においてある程度まではデータが増えることによって大きく精度が変わっているが,徐々にその傾きが緩やかになっていき,1語義あたりの訓練データが5,000件前後になるとほぼ精度が変わらなくなることがわかる.このことから,訓練データの規模は大きければ大きいほどよいが,1語義あたり1,000から5,000件程度訓練事例を用意することで精度が収束すると言える.また,訓練データが少ない10から100までの間では訓練データサイズの変化に応じて精度が大きく向上しており,このことからも一定量の訓練データを用意することが語義曖昧性解消において非常に重要であることを示している.日本語語義曖昧性解消タスクにおいてデータを制限した際の学習曲線においても訓練事例の増加に伴って精度の向上が確認できる.かな漢字換言に比べ学習曲線が緩やかになっているものの,データ数を指数関数的に増やすことによって一定の精度向上が見られる.かな漢字換言では横軸が1語義あたりのデータ数なのに対し日本語語義曖昧性解消タスクでは1単語あたりのデータ数である.平均語義数が多い日本語語義曖昧性解消タスクでは語義あたりのデータの増加量がかな漢字換言に比べ緩やかになっていると考えられ,グラフの傾きが緩やかになっているのだと考えられる.また,かな漢字換言と違い語義曖昧性解消タスクでの検証ではデータに語義の偏りが存在するためここでの比較は公平ではないが,訓練事例を指数関数的に増加させることが精度向上に寄与することはこのグラフから読み取ることができる.使う素性によってグラフの傾きも変わり,CAPのグラフは教師データが非常に少ない場合でもCWE単体に比べて10ポイント近く高い精度を示している.このことからCAPは分散表現の特徴をうまく捉え,似た文脈に関しても正しい漢字を予測することができていることがわかる.逆に教師データの量が大きければ大きいほど各手法の差は小さくなっている.訓練事例を1語義あたり10事例用意した際のCWEとCAPの精度の差は9.7ポイントであり,訓練事例を5,000事例用意した際の精度の差は1.2ポイントである.これは,CWEで問題であった単語の位置が規定されるという問題が,教師データの規模を非常に大きくすることで無理やり解消できたからだと考えられる.この結果からも一定数の訓練データを用意した上で手法の有効性を評価することが,実用的な語義曖昧性解消の検証につながると考えられる.また,ここでの実験では訓練データの多様性は考慮していないためこのような結果になっているが,より多様性を考慮したデータセットを作ることでより少ない訓練事例で精度が収束することも考えられる.しかしながら語義曖昧性解消のデータセットとして1語義あたり1,000事例の非常に大きな訓練データを作るのは非常にコストがかかるため現実的ではない.この結果からある一定量のデータと精度よく曖昧性解消できる手法を組み合わせることが最も高い精度を出すために重要であると言える.また,小規模な訓練データを用いて確度の高いデータを訓練データに追加し学習を行っていく半教師あり学習が語義曖昧性解消に有効であると考えられる.\subsection{訓練データのドメインによる精度の変化の確認}\subsubsection{実験設定}この節では訓練データのドメインとテストデータのドメインによって精度がどの程度変わるかを検証する.一般に異なるドメインのデータで学習させたモデルを,別のドメインのテストデータに合うようにチューニングすることは領域適応と呼ばれ構文解析や語義曖昧性解消において精度を上げる上で重要な研究の一つになっている\cite{mcclosky-charniak-johnson:2010:NAACLHLT}.また語義曖昧性解消において訓練データの多様性を考慮することは周辺の文脈パターンをモデルにより幅広く学習させることができ,精度の向上が期待できる.異なるドメインのデータを用いて語義曖昧性解消を行う実験は新納ら\cite{新納浩幸2013}などが行っているが,ここで使われているSemEval2010の日本語語義曖昧性解消タスクではドメインごとに訓練データのサイズが異なるため,単純なドメインの変化による精度の影響の調査としては不十分である.そこで,訓練データを大量のテキストから自動で作れるかな漢字換言の特性を活かし,異なるドメインのデータで学習したモデルを別のドメインのテストデータで用いた際の精度について検討する.また,複数ドメインの訓練データを混ぜて学習させることによる精度への影響についても検討する.この実験では訓練データ,テストデータとして使用するドメインの異なるデータセットとして\ref{section:kanakanji-conversion}章にてBCCWJより構築したデータセットと,2016年3月5日にダンプされた日本語のWikipediaのデータから抽出したテキストを元に\ref{section:kanakanji-conversion}章と同じ方法で構築したデータセットを用いる.BCCWJには新聞やWebデータなど様々なドメインの文章が含まれているが,Webデータとして使われているものはYahoo!知恵袋とYahoo!ブログから収集されたテキストデータである.そのため,Wikipedia等の事物を説明するための文章とは異なるドメインであると考え,実験を行う.訓練データ,テストデータの大きさはどちらのデータセットにおいても同じ量になっている.その他の実験設定は\ref{subsection:experiment-kanakanji-conversion}節と同じものを使用する.比較のための手法には\ref{subsection:experiment-kanakanji-conversion}節で最も精度の良かったCAPを用いる.周辺単語の分散表現を足し合わせる際の窓幅は3,分散表現をつなぎ合わせて考慮する窓幅の設定は10としている.\subsubsection{実験結果}BCCWJ,Wikipediaより構築された訓練データを用いてモデルを学習させ,それぞれ異なるテストセットで評価を行った.実験結果を表\ref{tab:experiment-domein-result}に示す.表中のBCCWJ+Wikipediaはそれぞれの訓練データ200件のうち,ランダムで100件ずつ抽出し統合したものを訓練データとして使用した場合となっている.\begin{table}[b]\caption{ドメイン変化時の精度}\label{tab:experiment-domein-result}\input{01table06.tex}\end{table}表を見るとそれぞれのドメインで学習させて同じドメインのテストデータで評価したものに比べて,相互にテストデータを入れ替えた結果は精度が落ちていることがわかる.特に訓練データとしてWikipediaから抽出したデータを使いBCCWJで曖昧性解消をしたものは約5ポイントほど精度が低下している.このことから,語義曖昧性解消においてドメインごとにあった訓練データを用いることが精度向上に大きく寄与するといえる.一方でBCCWJから抽出したデータを使いWikipediaのテストデータで評価したものは精度の減少はあるものの約1.2ポイントと少なくなっている.これはBCCWJが均衡コーパスであり様々なドメインのデータを含んでいるため多様性に富んでいるからだと考えられる.これは多様性に富んだ訓練データを用いることが精度向上に貢献することを示唆するものである.また,それぞれのドメインの訓練データを混ぜ学習させたモデルはBCCWJ,Wikipediaから作成したテストデータ両方において高い精度が発揮できており,それぞれのドメインの訓練データのみを学習させ,同ドメインのテストデータで評価したときの精度とほぼ変わらない値を得ることができている.この結果からも語義曖昧性解消で用いる訓練データは広いドメインから幅広い文を対象に抽出したほうが訓練データの多様性を考慮でき,より高い精度での曖昧性解消が期待できることを表している.また,この結果は「対象語毎に訓練データの分野の組合せを変えて学習するより,分野に関係なくすべての訓練データを学習に用いる方が精度が良い」というFujitaらの報告\cite{fujita-EtAl:2010:SemEval}が,訓練データの大きさが同じ場合でもほぼ変わらない精度を得ることができることを示している.結論として,\pagebreak語義曖昧性解消においてテストデータにあった訓練データを用いることが精度向上に大きく寄与する一方で,訓練データの多様性を考慮することで様々なドメインのデータにも対応できると言える. \section{結論} \label{section:conclusion}本論文ではかな漢字換言を通して日本語の語義曖昧性解消において幾つかの問題点を明らかにした.まず素性として使う単語の選び方である.我々は事前の実験を通して文全体を見て文中から正しく素性を選ぶことが重要であることを示し,分散表現とPMIを用いて周辺文脈と曖昧性解消の対象となる単語から離れた単語について考慮する手法を考案した.手法の有効性に関してBCCWJから作成したかな漢字換言のデータセットを用いて実験を行ったところ,ベースラインとなる単純な単語の分散表現のつなぎ合わせに比べ約2ポイント高い精度を得ることができた.また考慮する窓幅についても検討したところ,周辺5単語以上を考慮することでより高い精度を得ることができることを確認した.このことからより文中の様々な単語を考慮することがかな漢字換言において重要であるということを明らかにした.さらに日本語の語義曖昧性解消タスクを用いて提案手法の有効性について検証した.その結果,単純な単語の分散表現のつなぎ合わせに対して周辺単語の平均ベクトルを足し合わせる方法の有効性は確認できなかったが,PMIを用い文全体から適切な単語の分散表現を素性として加えることが有効であることを確認した.また,我々は訓練データの大きさによる語義曖昧性解消への影響も調査した.訓練データを10件から5,000件まで増やしていったときのかな漢字換言の精度を確認し,分散表現を用いた各手法で実験を行った.その結果,分散表現を用いた手法では,非常に大きな規模の訓練データを用意することでどの手法においてもほぼ変わらない精度を得られることを確認した.その一方で高い精度を得るために必要なデータは指数関数的に増えていくため,より少ないデータで高い精度を得られる手法が教師ありの語義曖昧性解消において重要であることを確認した.さらに我々は訓練データのドメインについても調査を行った.BCCWJとWikipediaから作成した訓練データとテストデータを相互に使い実験し,各ドメインにあった訓練データを使うことが精度向上において重要であることを確認した.また,各ドメインの訓練データを混ぜて学習させた結果から,幅広いドメインの文章から多様性に富んだ語義曖昧性解消のデータセットを作ることが語義曖昧性解消に対して有効であることを確認した.語義曖昧性解消はコンピュータの意味理解において重要な役割を果たすため,より精度の高い手法やツールが求められるはずである.本論文を通して自然言語処理における語義曖昧性解消という問題が少しでも解消できればいいと願う.\acknowledgment本研究は,平成27〜31年科学研究費補助・基盤(B)課題番号15H03216,課題名「日本語教育用テキスト解析ツールの開発と学習者向け誤用チェッカーへの展開」,及び平成29〜31年科学研究費助成事業挑戦的萌芽課題番号17K18481,課題名「やさしい日本語化実証実験による言語資源構築と自動平易化システムの試作」の助成を受けています.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bansal,Gimpel,\BBA\Livescu}{Bansalet~al.}{2014}]{bansal-gimpel-livescu:2014:P14-2}Bansal,M.,Gimpel,K.,\BBA\Livescu,K.\BBOP2014\BBCP.\newblock\BBOQTailoringContinuousWordRepresentationsforDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\809--815},Baltimore,Maryland.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Baroni,Dinu,\BBA\Kruszewski}{Baroniet~al.}{2014}]{baroni-dinu-kruszewski:2014:P14-1}Baroni,M.,Dinu,G.,\BBA\Kruszewski,G.\BBOP2014\BBCP.\newblock\BBOQDon'tCount,Predict!ASystematicComparisonofContext-Countingvs.Context-PredictingSemanticVectors.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\238--247},Baltimore,Maryland.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cai,Lee,\BBA\Teh}{Caiet~al.}{2007}]{cai-lee-teh:2007:EMNLP-CoNLL2007}Cai,J.,Lee,W.~S.,\BBA\Teh,Y.~W.\BBOP2007\BBCP.\newblock\BBOQImprovingWordSenseDisambiguationUsingTopicFeatures.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\1015--1023},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{藤田\JBA{Duh,K.}\JBA藤野\JBA平\JBA進藤}{藤田\Jetal}{2011}]{KevinDuh2011}藤田早苗\JBA{Duh,K.}\JBA藤野昭典\JBA平博順\JBA進藤裕之\BBOP2011\BBCP.\newblock日本語語義曖昧性解消のための訓練データの自動拡張.\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\273--291}.\bibitem[\protect\BCAY{Fujita,Duh,Fujino,Taira,\BBA\Shindo}{Fujitaet~al.}{2010}]{fujita-EtAl:2010:SemEval}Fujita,S.,Duh,K.,Fujino,A.,Taira,H.,\BBA\Shindo,H.\BBOP2010\BBCP.\newblock\BBOQMSS:InvestigatingtheEffectivenessofDomainCombinationsandTopicFeaturesforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\383--386},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Fujita\BBA\Fujino}{Fujita\BBA\Fujino}{2013}]{Fujita:2013:WSD:2461316.2461319}Fujita,S.\BBACOMMA\\BBA\Fujino,A.\BBOP2013\BBCP.\newblock\BBOQWordSenseDisambiguationbyCombiningLabeledDataExpansionandSemi-SupervisedLearningMethod.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing},{\Bbf12}(2),\mbox{\BPGS\7:1--7:26}.\bibitem[\protect\BCAY{Iacobacci,Pilehvar,\BBA\Navigli}{Iacobacciet~al.}{2016}]{iacobacci-pilehvar-navigli:2016:P16-1}Iacobacci,I.,Pilehvar,M.~T.,\BBA\Navigli,R.\BBOP2016\BBCP.\newblock\BBOQEmbeddingsforWordSenseDisambiguation:AnEvaluationStudy.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\897--907},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{井上\JBA斎藤}{井上\JBA斎藤}{2011}]{2011inoue}井上裁都\JBA斎藤博昭\BBOP2011\BBCP.\newblockラベルなしデータの二段階分類とアンサンブル学習に基づく半教師あり日本語語義曖昧性解消.\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\247--271}.\bibitem[\protect\BCAY{Lopez~deLacalle\BBA\Agirre}{Lopez~deLacalle\BBA\Agirre}{2015}]{lopezdelacalle-agirre:2015:*SEM2015}Lopez~deLacalle,O.\BBACOMMA\\BBA\Agirre,E.\BBOP2015\BBCP.\newblock\BBOQAMethodologyforWordSenseDisambiguationat90\%basedonLarge-scaleCrowdSourcing.\BBCQ\\newblockIn{\BemProceedingsofthe4thJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\61--70},Denver,Colorado.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Marquez,Escudero,Martinez,\BBA\Rigau}{Marquezet~al.}{2006}]{SupervisedWSDDataSize}Marquez,L.,Escudero,G.,Martinez,D.,\BBA\Rigau,G.\BBOP2006\BBCP.\newblock{\BemWordSenseDisambiguation:AlgorithmsandApplications},\BCH~7,\mbox{\BPGS\184--195}.\newblockSpringer.\bibitem[\protect\BCAY{McCarthy}{McCarthy}{2009}]{LNC3:LNC3131}McCarthy,D.\BBOP2009\BBCP.\newblock\BBOQWordSenseDisambiguation:AnOverview.\BBCQ\\newblock{\BemLanguageandLinguisticsCompass},{\Bbf3}(2),\mbox{\BPGS\537--558}.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2010}]{mcclosky-charniak-johnson:2010:NAACLHLT}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2010\BBCP.\newblock\BBOQAutomaticDomainAdaptationforParsing.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\28--36},LosAngeles,California.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Mihalcea,Chklovski,\BBA\Kilgarriff}{Mihalceaet~al.}{2004}]{MihalceaEtAl2004}Mihalcea,R.,Chklovski,T.,\BBA\Kilgarriff,A.\BBOP2004\BBCP.\newblock\BBOQTheSenseval-3EnglishLexicalSampleTask.\BBCQ\\newblockIn{\BemProceedingsofSenseval-3:3rdInternationalWorkshopontheEvaluationofSystemsfortheSemanticAnalysisofText,Barcelona,Spain,July2004}.AssociationforComputationalLinguistics(ACL).\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{DBLP:journals/corr/MikolovSCCD13}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1310.4546}.\bibitem[\protect\BCAY{村本\JBA鍜治\JBA吉永\JBA喜連川}{村本\Jetal}{2011}]{weko_79539_1}村本英明\JBA鍜治伸裕\JBA吉永直樹\JBA喜連川優\BBOP2011\BBCP.\newblockWebテキストを対象とした語義曖昧性解消のための言語資源の半自動構築.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3338--3348}.\bibitem[\protect\BCAY{Navigli}{Navigli}{2009}]{Navigli:2009:WSD:1459352.1459355}Navigli,R.\BBOP2009\BBCP.\newblock\BBOQWordSenseDisambiguation:ASurvey.\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf41}(2),\mbox{\BPGS\10:1--10:69}.\bibitem[\protect\BCAY{Navigli}{Navigli}{2012}]{Navigli2012}Navigli,R.\BBOP2012\BBCP.\newblock{\BemAQuickTourofWordSenseDisambiguation,InductionandRelatedApproaches},\mbox{\BPGS\115--129}.\newblockSpringerBerlinHeidelberg,Berlin,Heidelberg.\bibitem[\protect\BCAY{Navigli,Litkowski,\BBA\Hargraves}{Navigliet~al.}{2007}]{navigli-litkowski-hargraves:2007:SemEval-2007}Navigli,R.,Litkowski,K.~C.,\BBA\Hargraves,O.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task07:Coarse-GrainedEnglishAll-WordsTask.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)},\mbox{\BPGS\30--35},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{小椋\JBA原\JBA小木曽\JBA小磯\JBA宮内}{小椋\Jetal}{2010}]{Corpus2010}小椋秀樹\JBA原裕\JBA小木曽智信\JBA小磯花絵\JBA宮内佐夜香\BBOP2010\BBCP.\newblock形態素解析辞書UniDicにおける同語異語判別について.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\486--489}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{okumura-EtAl:2010:SemEval}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\69--74},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2011}]{2011semeval}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2011\BBCP.\newblock\BBOQOnSemEval-2010JapaneseWSDTask.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\293--307}.\bibitem[\protect\BCAY{Petersen}{Petersen}{2006}]{UnsupervisedWSDClustering}Petersen,T.\BBOP2006\BBCP.\newblock{\BemWordSenseDisambiguation:AlgorithmsandApplications},\BCH~6,\mbox{\BPGS\133--166}.\newblockSpringer.\bibitem[\protect\BCAY{Pradhan,Loper,Dligach,\BBA\Palmer}{Pradhanet~al.}{2007}]{pradhan-EtAl:2007:SemEval-2007}Pradhan,S.,Loper,E.,Dligach,D.,\BBA\Palmer,M.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task-17:EnglishLexicalSample,SRLandAllWords.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)},\mbox{\BPGS\87--92},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Raganato,Camacho-Collados,\BBA\Navigli}{Raganatoet~al.}{2017}]{raganato-camachocollados-navigli:2017:EACLlong}Raganato,A.,Camacho-Collados,J.,\BBA\Navigli,R.\BBOP2017\BBCP.\newblock\BBOQWordSenseDisambiguation:AUnifiedEvaluationFrameworkandEmpiricalComparison.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics:Volume1,LongPapers},\mbox{\BPGS\99--110},Valencia,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{新納\JBA古宮\JBA佐々木}{新納\Jetal}{2017}]{weko_182711_1}新納浩幸\JBA古宮嘉那子\JBA佐々木稔\BBOP2017\BBCP.\newblock順方向多層LSTMと分散表現を用いた教師あり学習による語義曖昧性解消.\\newblock\JTR~4,茨城大学工学部情報工学科.\bibitem[\protect\BCAY{新納\JBA村田\JBA白井\JBA福本\JBA藤田\JBA佐々木\JBA古宮\JBA乾}{新納\Jetal}{2015}]{新納浩幸2015}新納浩幸\JBA村田真樹\JBA白井清昭\JBA福本文代\JBA藤田早苗\JBA佐々木稔\JBA古宮嘉那子\JBA乾孝司\BBOP2015\BBCP.\newblockクラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け.\\newblock\Jem{自然言語処理},{\Bbf22}(5),\mbox{\BPGS\319--362}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2013}]{新納浩幸2013}新納浩幸\JBA佐々木稔\BBOP2013\BBCP.\newblockk近傍法とトピックモデルを利用した語義曖昧性解消の領域適応.\\newblock\Jem{自然言語処理},{\Bbf20}(5),\mbox{\BPGS\707--726}.\bibitem[\protect\BCAY{白井}{白井}{2003}]{20033}白井清昭\BBOP2003\BBCP.\newblockSENSEVAL-2日本語辞書タスク.\\newblock\Jem{自然言語処理},{\Bbf10}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{白井\JBA柏野\JBA橋本\JBA徳永\JBA有田\JBA井佐原\JBA荻野\JBA小船\JBA高橋\JBA長尾\JBA橋田\JBA村田}{白井\Jetal}{2001}]{110002935282}白井清昭\JBA柏野和佳子\JBA橋本三奈子\JBA徳永健伸\JBA有田英一\JBA井佐原均\JBA荻野紫穂\JBA小船隆一\JBA高橋裕信\JBA長尾確\JBA橋田浩一\JBA村田真樹\BBOP2001\BBCP.\newblock岩波国語辞典を利用した語義タグ付きテキストデータベースの作成.\\newblock\Jem{情報処理学会研究報告自然言語処理(NL)},{\Bbf2001}(9),\mbox{\BPGS\117--124}.\bibitem[\protect\BCAY{Sugawara,Takamura,Sasano,\BBA\Okumura}{Sugawaraet~al.}{2015}]{sugawara:2015:pacling}Sugawara,H.,Takamura,H.,Sasano,R.,\BBA\Okumura,M.\BBOP2015\BBCP.\newblock\BBOQContextRepresentationwithWordEmbeddingsforWSD.\BBCQ\\newblockIn{\BemInternationalConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\108--119}.\bibitem[\protect\BCAY{Wawer\BBA\Mykowiecka}{Wawer\BBA\Mykowiecka}{2017}]{wawer-mykowiecka:2017:SENSE2017}Wawer,A.\BBACOMMA\\BBA\Mykowiecka,A.\BBOP2017\BBCP.\newblock\BBOQSupervisedandUnsupervisedWordSenseDisambiguationonWordEmbeddingVectorsofUnambigousSynonyms.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponSense,ConceptandEntityRepresentationsandtheirApplications},\mbox{\BPGS\120--125},Valencia,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{山木\JBA新納\JBA古宮\JBA佐々木}{山木\Jetal}{2015}]{weko_146217_1}山木翔馬\JBA新納浩幸\JBA古宮嘉那子\JBA佐々木稔\BBOP2015\BBCP.\newblock分散表現を用いた教師あり機械学習による語義曖昧性解消.\\newblock\JTR~17,茨城大学工学部情報工学科.\bibitem[\protect\BCAY{Yamamoto,Gumizawa,\BBA\Mikami}{Yamamotoet~al.}{2017}]{Kazuhide2016}Yamamoto,K.,Gumizawa,Y.,\BBA\Mikami,Y.\BBOP2017\BBCP.\newblock\BBOQWordSenseImplantationbyOrthographicalConversion.\BBCQ\\newblock{\BemInternationalJournalofAsianLanguageProcessing},{\Bbf27}(2),\mbox{\BPGS\79--94}.\newblockChineseandOrientalLanguagesInformationProcessingSociety(2017.12).\bibitem[\protect\BCAY{山本\JBA高橋\JBA桾澤\JBA西山}{山本\Jetal}{2016}]{40020961332}山本和英\JBA高橋寛治\JBA桾澤優希\JBA西山浩気\BBOP2016\BBCP.\newblock日本語解析システム「雪だるま」(第2報)進捗報告と活用形態素の導入(言語理解とコミュニケーション)—(第9回テキストマイニング・シンポジウム).\\newblock\Jem{電子情報通信学会技術研究報告},{\Bbf116}(213),\mbox{\BPGS\63--68}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{yarowsky:1995:ACL}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingonAssociationforComputationalLinguistics},ACL'95,\mbox{\BPGS\189--196},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\end{thebibliography}\clearpage\appendix \section{換言対象となるひらがなと漢字候補} \label{appendix:kanakanji-target}\input{01tableA01.tex}\normalsize\clearpage\begin{biography}\bioauthor{桾澤優希}{2017年長岡技術科学大学工学部電気電子情報工学課程卒業.同年,同大学工学研究科修士課程電気電子情報工学専攻に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{山本和英}{1996年3月豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員.1998年中国科学院自動化研究所国外訪問学者.2002年から長岡技術科学大学,現在准教授.自然言語処理,人工知能(知識構築),日本語教育(支援ツール作成)の研究開発に従事.2012〜2014年電子情報通信学会言語理解とコミュニケーション(NLC)研究会委員長,2016年から言語処理学会理事.言語処理学会,人工知能学会,日本語教育学会,情報処理学会,電子情報通信学会,言語資源協会,アジア太平洋機械翻訳協会各会員.}\end{biography}\biodate\clearpage\clearpage\clearpage\end{document}
V25N04-04
\section{はじめに} 作文中における誤りの存在や位置を示すことができる文法誤り検出は,第二言語学習者の自己学習と語学教師の自動採点支援において有用である.一般的に文法誤り検出は典型的な教師あり学習のアプローチによって解決可能な系列ラベリングのタスクとして定式化できる.例えば,BidirectionalLongShort-TermMemory(Bi-LSTM)を用いて英語の文法誤り検出の世界最高精度を達成している研究\cite{rei-yannakoudakis:2016:P16-1}がある.彼らの手法は,言語学習者コーパスがネイティブが書いた生コーパスと比較してスパースである問題に対処するために,事前に単語分散表現を大規模なネイティブコーパスで学習している.しかし,ReiとYannakoudakisの研究を含む多くの文法誤り検出の研究において用いられている分散表現学習のアルゴリズムのほとんどは,ネイティブコーパスにおける単語の文脈をモデル化するだけであり,言語学習者に特有の文法誤りを考慮していない.一方で,単語分散表現に言語学習者に特有の文法誤りを考慮することは,より文法誤り検出に特化した単語分散表現を作成可能であり有用であると考えられる.そこで,我々は文法誤り検出における単語分散表現の学習に正誤情報と文法誤りパターンを考慮する3つの手法を示す.ただし,3つ目の手法は最初に提案する2つの手法を組み合わせたものである.1つ目の手法は,学習者の誤りパターンを用いて単語分散表現を学習する\textbf{Errorspecificwordembedding}(EWE)である.具体的には,単語列中のターゲット単語と学習者がターゲット単語に対して誤りやすい単語を入れ替え負例を作成することで,正しい表現と学習者の誤りやすい表現が区別されるように学習する.2つ目の手法は,正誤情報を考慮した単語分散表現を学習する\textbf{Grammaticalityspecificwordembedding}(GWE)である.単語分散表現の学習の際に,n-gramの正誤ラベルの予測を行うことで,正文に含まれる単語と誤文に含まれる単語を区別するように学習する.この研究において,正誤情報とは周囲の文脈に照らしてターゲット単語が正しいまたは間違っているというラベルとする.3つ目の手法は,EWEとGWEを組み合わせた\textbf{Error\&grammaticalityspecificwordembedding}(E\&GWE)である.E\&GWEは正誤情報と誤りパターンの両方を考慮することが可能である.本研究における実験では,英語学習者作文の文法誤り検出タスクにおいて,E\&GWEで学習した単語分散表現で初期化したBi-LSTMを用いた結果,世界最高精度を達成した.さらに,我々は大規模な英語学習者コーパスであるLang-8\cite{mizumoto-EtAl:2011:IJCNLP-2011}を使った実験も行った.その結果,文法誤り検出においてノイズを含むコーパスからは誤りパターンを抽出して学習することが有効であることが示された.本研究の主要な貢献は以下の通りである.\begin{itemize}\item正誤情報と文法誤りパターンを考慮する提案手法で単語分散表現を初期化したBi-LSTMを使い,FirstCertificateinEnglish(FCE-public)コーパス\cite{yannakoudakis-briscoe-medlock:2011:ACL-HLT2011}において世界最高精度を達成した.\itemFCE-publicとNUCLEデータ\cite{dahlmeier2013building}にLang-8から抽出した誤りパターンを追加し,単語分散表現を学習することで文法誤り検出の精度が大幅に向上することを示した.\item実験で使用したコードと提案手法で学習された単語分散表現を公開した\footnote{https://github.com/kanekomasahiro/grammatical-error-detection}.\end{itemize}本稿ではまず第2章で英語学習者作文における文法誤り検出に関する先行研究を紹介する.第3章では従来の単語分散表現の学習方法について述べる.次に,第4章では提案手法である正誤情報と誤りパターンを考慮した単語分散表現の学習モデルについて説明する.そして第5章ではFCE-publicとNUCLEの評価データであるCoNLLデータセットを使い提案手法を評価する.第6章では文法誤り検出モデルと学習された単語分散表現における分析を行い,最後に第7章でまとめる. \section{先行研究} 文法誤り検出の研究の多くは前置詞の正誤\cite{tetreault2008ups},冠詞の正誤\cite{han2006detecting}や形容詞と名詞の対の正誤\cite{kochmar2014detecting}のように特定のタイプの文法誤りに取り組むことに焦点が当てられている.一方で,特定のタイプの文法誤りではなく文法誤り全般に取り組んだ研究は少ない.ReiとYannakoudakis\citeyear{rei-yannakoudakis:2016:P16-1}は,word2vecを埋め込み層の初期値とした双方向のBi-LSTMを提案し,FCE-publicに対して全ての誤りを対象とする文法誤り検出タスクにおいて現在世界最高精度を達成している.我々も全ての文法誤り検出タスクの手法に取り組むが,正誤情報や学習者の誤りパターンを考慮した単語分散表現を使う.誤りパターンを考慮した研究としては,\citeA{sawai2013learner}の学習者誤りパターンを用いた動詞の訂正候補を提案する手法や,\citeA{liu2010srl}の類義語辞書および英中対訳辞書から作成した誤りパターンを元に中国人英語学習者作文の動詞置換誤りを自動訂正する手法がある.これらの研究とは,動詞置換誤りだけを検出対象としている点が異なり,Liuらの研究に関しては,我々が学習者コーパスから誤りパターンを作成している点が異なる.正誤情報のような正解ラベルを考慮した単語分散表現を学習する研究としては,英語学習者作のスコア予測タスクにおいて\citeA{alikaniotis-yannakoudakis-rei:2016:P16-1}は,各単語の作文スコアへの影響度を学習することによって単語分散表現を構築するモデルを提案した.具体的には,スコア予測により特定の単語の作文スコアに対する影響度を学習し,作成した負例とのランキングにより文脈を学習する.この研究では平均2乗誤差を用いて文書レベルのスコアから単語埋め込みを学習する.一方で,我々の研究ではヒンジ損失を用いて単語レベルの2値誤り情報から単語埋め込みを学習する.大規模な言語学習者コーパスであるLang-8を用いた文法誤り訂正の研究として,統計的機械翻訳手法\cite{xie2016neural}とニューラルネットワークを用いた同時解析モデル\cite{chollampatt2016neural}などがある.我々の研究では上記の研究のようにLang-8を直接学習データとして使うのではなく,Lang-8から文法誤りパターンを抽出し単語分散表現の学習に使用した.Lang-8を直接学習データとして使ったLSTMベースの分類器では期待するような結果は得られなかったが,誤りパターンとして有益な情報を抽出することで文法誤り検出の精度を向上させることが可能であることを示す. \section{単語分散表現学習の従来手法:C\&WEmbedding} 本研究での提案手法はCollobertとWeston\citeyear{collobert2008unified}の研究を正誤情報と誤りパターンを考慮できるように拡張している.そのため,まず初めにC\&Wの単語分散表現学習について説明する.C\&Wは局所的な文脈を元にターゲット単語の分散表現を学習するためのn-gramベースのニューラルネットワーク手法である.具体的には,サイズ$n$の単語列$S=(w_1,\ldots,w_t,\ldots,w_n)$中のターゲット単語$w_t$の表現を同じ単語列に存在する他の単語$(\forallw_i\inS|w_i\neqw_t)$を元に学習する.分散表現を学習するために,モデルはターゲット単語$w_t$を語彙$V$からランダムに選択した単語と入れ替えることにより作成した負例$S'=(w_1,\ldots,w_c,\ldots,w_n|w_c〜V)とS$を比較する.そして,負例$S'$ともともとの単語列$S$を区別するように学習する.単語列の単語を埋め込み層でベクトルに変換し,単語列$S$と負例$S'$をモデルに入力する.変換されたそれぞれのベクトルを連結し入力ベクトル$x∈\mathbb{R}^{n\times{D}}$とする.$D$は各単語の埋め込み層の次元数である.そして,入力ベクトル$x$は線形変換式(1)に渡される.その後,隠れ層のベクトル$i$は線形変換式(2)に渡され,出力$f(x)$を得る.\begin{align}i&=\sigma(W_{hi}x+b_h)\\f(x)&=W_{oh}i+b_o\end{align}$W_{hi}$は入力ベクトルと隠れ層の間の重み行列,$W_{oh}$は隠れ層のベクトルと出力層の重み行列,$b_oとb_h$はそれぞれバイアス,$\sigma$は要素ごとの非線形関数$\tanh$である.このモデルは正しい単語列$S$が単語を入れ替えたことによりノイズを含む負例$S'$よりランキングが高くなるようにすることで分散表現を学習する.そして式(3)によって正しい単語列とノイズを含む単語列の差が少なくとも1になるように最適化される.\begin{equation}loss_{context}(S,S')=\max(0,1-f(x)+f(x'))\end{equation}$x'$は負例$S'$の単語$w_c$を埋め込み層で変換されたベクトルに変換することで得られた値である.$1-f(x)+f(x')$の結果と$0$を比較し,大きい方の値を誤差とする. \section{正誤情報と誤りパターンを考慮した単語分散表現} この章では提案手法であるEWE,GWEとE\&GWEにおける単語分散表現の学習方法について詳しく述べていく.\subsection{文法誤りパターンを考慮した表現学習(EWE)}EWEは,C\&WEmbeddingと同じモデルで単語分散表現を学習する.ただし,負例をランダムで作成するのではなく,学習者がターゲット単語$w_t$に対して誤りやすい単語$w_c$と入れ替えることで作成する.こうすることで,学習者の誤りパターンを考慮して負例を作成し,ターゲット単語の分散表現が誤りやすい単語と区別されるように学習される.学習の際,$w_c$は条件付き確率$P(w_c|w_t)$によりサンプリングされる.\begin{equation}P(w_c|w_t)=\frac{|w_c,w_t|}{\sum_{w_c\prime}|w_c\prime,w_t|}\end{equation}ここで$w_t$はターゲット単語,$w_c'$は$w_t$と対応する$w_c$の集合である.学習者の誤りパターンとして,学習者コーパスから抽出した誤りの訂正前の単語に対して誤りの訂正後の単語を入れ替え候補とする.図\ref{fig:model}(a)はEWEの表現学習におけるネットワーク構造を示している.\begin{figure}[t]\begin{center}\includegraphics{25-4ia4f1.eps}\end{center}\hangcaption{単語分散表現を学習する提案手法(a)EWE(b)GWEの構造.両方のモデルはwindowサイズの単語列の単語ベクトルを結合し隠れ層に入力している.その際,EWEの出力はスカラー値であり,GWEの出力はスカラー値と単語列の中央単語のラベルである.}\label{fig:model}\end{figure}\vspace{0.5\Cvs}\centerline{\textit{IthinkIcanwinthis\textbf{price/*prize}.}}\vspace{0.5\Cvs}上の文はFCE-publicのテストデータに含まれている文である.この文では,priceが誤りでprizeが正しい単語である.この場合,$w_t$はpriceであり$w_c$がprizeである.今回の実験では,1対1の誤りパターンのみを使用する.一方,入れ替え候補を学習者が誤りやすい単語にすることで,入れ替え候補がない単語や頻度の少ない単語で文脈を適切に学習できないという問題が生じる.この問題をword2vecを使い事前学習したベクトルを単語それぞれの初期値とすることで解決する.文脈が既に学習されたベクトルをファインチューニングすることで,入れ替え候補がない単語や少ない単語も文脈を学習することが可能になる.\subsection{正誤情報を考慮した表現学習(GWE)}Alikaniotisら\citeyear{alikaniotis-yannakoudakis-rei:2016:P16-1}の作文スコア予測のように,C\&WEmbeddingをそれぞれの単語の局所的な言語情報だけでなく,ターゲット単語がどれだけ単語列の正誤ラベルに貢献しているかを考慮して学習するように拡張する.図\ref{fig:model}(b)はGWEの表現学習のネットワーク構造を示している.単語の正誤情報を分散表現に含めるために,我々は単語列の正誤ラベルを予測する出力層を追加し,式(3)を$2$つの出力の誤差関数から構成されるように拡張する.\begin{align}f_{grammar}(x)&=W_{oh1}i+b_{o1}\\y&=\textit{softmax}(f_{grammar}(x))\\loss_{predict}(S)&=-\sum\hat{y}\cdot\log(y)\\loss_{overall}(S,S')&=\alpha\cdotloss_{context}(S,S')+(1-\alpha)\cdotloss_{predict}(S)\end{align}式(5)の$f_{grammar}$は,単語列$S$のラベルの予測値である.式(6)のように,$f_{grammar}$に対してソフトマックス関数を用いて予測確率$y$を計算する.式(7)で交差エントロピー関数を用いて誤差$loss_{predict}$を計算する.ここで,$\hat{y}$はターゲット単語の正解ラベルのベクトルである.そして,式(8)のように2つの誤差を組み合わせて$loss_{overall}$を計算する.ここで$\alpha$は,2つの誤差関数の重み付けを決定するハイパーパラメータである.我々は,学習のための単語列の正誤情報としてFCE-publicにもともと付けられている正誤の2値ラベルを用いた.Lang-8に関しては動的計画法を使いタグ付けを行った.GWEの負例は,C\&Wと同様にランダムに作成されている.\subsection{誤りパターンと正誤情報を考慮した表現学習(E\&GWE)}E\&GWEは,EWEとGWEを組み合わせたモデルである.具体的には,E\&GWEモデルは負例をEWEのように誤りパターンから作成し,GWEのようにスコアと正誤の予測を行う. \section{文法誤り検出の実験設定} 我々は分類器と単語分散表現のための学習データとして,FCE-public学習データ,NUCLEデータとLang-8を用いる.そして,テストデータとしてFCE-publicテストデータとCoNLL-14\cite{ng2014conll}テストデータを用いる.表\ref{tab:data_info}はそれぞれのコーパスの統計情報を示している.我々の文法誤り検出ではFCE-public,NUCLE,CoNLLと同様に,ある程度英文が書けるような上級レベルの英語学習者を対象にしている\footnote{文法誤り検出または訂正で用いられているコーパスは上級者を対象としているものが多い.その他の代表的なコーパスとしてはJFLEG\cite{napoles-sakaguchi-tetreault:2017:EACLshort}とAWES\cite{daudaravicius-EtAl:2016:BEA11}がある.}.一方で,Lang-8にはさまざまなレベルの英語学習者が含まれている.開発データはそれぞれFCE-public開発データとCoNLL-13\cite{dahlmeier2013building}開発データとする.\begin{table}[b]\caption{コーパスの統計情報}\label{tab:data_info}\input{04table01.tex}\end{table}単語の削除誤りに関しては,削除誤りの直後の単語に誤りタグを付けた.過学習を防ぐために,学習データ上で頻度が1の単語を未知語とした.我々はまず単語分散表現の学習について,提案手法(EWE,GWEとE\&GWE)と既存手法(word2vecとC\&W)を比較する.そのために,従来手法と提案手法それぞれの単語分散表現で初期化された分類器Bi-LSTMをFCE-publicの学習データを使って学習し,文法誤り検出を行った.\textbf{\textit{FCE-publicデータセット.}}FCE-publicデータセットは文法誤り訂正における最も有名な英語学習者コーパスの1つである.このコーパスには上級レベルで英語を評価するFirstCertificateinEnglish(FCE)試験を受けた英語学習者によって書かれた作文が含まれている.そして,文法誤りの種類に基づいてタグ付けがされている.我々は公式に分割されたコーパスを使用した:学習データ30,953文,テストデータ2,720文と開発データ2,222文である.FCE-publicでは,誤りパターンのターゲット単語として4,184単語が含まれている.入れ替え候補としては9,834トークン,6,420タイプが含まれている.\textbf{\textit{NUCLEとCoNLL.}}提案手法による誤り検出精度の向上をFCE-publicだけではなく他のデータでも検証するために,CoNLL-13\cite{dahlmeier2013building},CoNLL-14\cite{ng2014conll}の共通タスクのデータとNUSCorpusofLearnerEnglish(NUCLE)\cite{dahlmeier2013building}を用いる.NUCLEは英語学習者であるシンガポールの大学の学生によって書かれた1,414個の作文が含まれている.作文のテーマとしては環境汚染や健康問題などがある.含まれている文法誤りは,英語を母語とするプロの英語教師によって訂正とアノテーションがされている.学習データとしてNUCLEの57,151文,開発データとしてCoNLL-13の1,381文そしてテストデータとしてCoNLL-14の1,312文を用いる.誤りパターンのターゲット単語として6,204単語が含まれている.入れ替え候補としては13,617トークン,9,249タイプが含まれている.誤った文に対して動的計画法により正誤のタグ付けを行った.\textbf{\textit{Lang-8コーパス.}}さらに,我々は単語分散表現の学習のために大規模な英語学習者コーパスLang-8をFCE-publicとNUCLEに追加し使う.その際,分類器Bi-LSTMの学習にはFCE-publicとNUCLEだけをそれぞれの実験で使う.Lang-8コーパスには,英語学習者によって書かれた英文を人手でタグ付けした100万文以上のデータがある.Lang-8を単語分散表現の学習に使うのは,大規模データにおける提案手法の効果について調べるためである.Lang-8は大規模な学習者コーパスであるが,専門家がアノテートしているわけではないため訂正されていない箇所が正用例と判断された結果訂正されていないとは限らず,単にアノテーションされていない場合もあるというノイズが含まれている\cite{mizumoto-EtAl:2011:IJCNLP-2011}.専門家にアノテートされているコーパスであれば教育的観点から意図的に誤りを訂正しなかった場合も考えられるが,Lang-8では意図しているのか意図していないのか区別することができない.一方で,訂正された箇所は正しい可能性が高いという特徴がある.そのため我々は,Lang-8を直接学習データとして用いるより誤りパターンを抽出し単語分散表現を学習したほうが文法誤り検出の精度が向上するのではないかと考え,これについても調査を行った.Lang-8は誤りパターンのターゲット単語として10,372タイプが含まれている.そして,入れ替え候補として272,561トークン,61,950タイプが含まれている.\subsection{動的計画法を用いたタグ付け}FCE-publicはもともとデータに正誤タグが付与されているがNUCLE,CoNLLとLang-8には付与されていない.そのため,誤文に対しては動的計画法を用いて原文と正解文の単語のアライメントを取り正誤タグの付与を行う.一致にはスコア$1$を与え,不一致と対応する単語がない場合にはスコア$0$を各単語に与える.各単語単位のスコアを足し合わせアライメントのスコアを計算し,Viterbiアルゴリズムでスコアが最大となるアライメントを求める.得られたアライメント結果を元に,対応する単語が不一致またはない場合は誤用タグを付与し,一致だった場合は正用タグを付与する.\subsection{評価尺度}先行研究\cite{rei-yannakoudakis:2016:P16-1}のように,我々はメインの評価手法として$F_{0.5}$を使う.\begin{equation}F_{0.5}=(1+0.5^2)\cdot\frac{precision\cdotrecall}{0.5^2\cdotprecision+recall}\end{equation}この評価尺度は,誤り訂正タスクのCoNLL-14の共通タスクでも用いられている\cite{ng2014conll}.$F_{0.5}$はprecisionとrecallの両方の組み合わせであり,precisionに2倍の重みを割り当てている.なぜなら,誤り検出においては正確なフィードバックがカバレッジより重要であるからである\cite{nagata2010evaluating}.\subsection{単語分散表現}先行研究\cite{rei-yannakoudakis:2016:P16-1}で用いられていた単語分散表現と揃え,C\&W,EWE,GWEとE\&GWEの埋め込み層の次元数は$300$とし,隠れ層の次元数は$200$とした.単語分散表現の事前学習で用いられるword2vec\cite{chelba2013one}としてGoogleNews\footnote{https://github.com/mmihaltz/word2vec-GoogleNews-vectors}からクロールしたデータから学習したモデルを用いる.単語列の長さは$3$,予備実験により単語列から作成する負例は$600$,式(8)の線形補間の$\alpha$は$0.03$,パラメータの初期学習率は$0.001$とし,ADAMアルゴリズム\cite{kingma2014adam}によって最適化した.そしてGWEの初期値はランダムとし,EWEは事前学習されたword2vecを初期値にした.Lang-8から誤りパターンを抽出した実験では,単語分散表現の学習のためにFCE-publicとLang-8の学習データを組み合わせて誤りパターンとした.しかしながら,Lang-8の誤りパターンの数がFCE-publicと比較して非常に多いため,我々はそれぞれの頻度の比率が1対1となるよう正規化した.単語分散表現を学習するためにLang-8から誤りパターンを抽出する負例作成の過程は以下の通りである:\begin{enumerate}\item動的計画法を使い正しい文と誤った文から単語のペアを抽出する.\item抽出された単語のペアがFCE-publicによって抽出された語彙に含まれていた場合誤りパターンとする.\end{enumerate}\subsection{分類器}EWE,GWEとE\&GWEをBi-LSTMを用いた文法誤り分類器の単語分散表現の初期値として使用し,入力文中の単語の正誤の予測を行う.Bi-LSTMはこのタスクにおいてConditionalRandomField(CRF)やConvolutionalNeuralNetworks(CNN)などの他のモデルと比較して高い精度(世界最高精度)を出しており,ReiとYannakoudakisの研究でも用いられている.彼らのBi-LSTMは隠れ層と出力層の間に線形変換を行う追加の隠れ層が導入されている.ネットワークおよびパラメータの設定は,word2vecを初期値にしたBi-LSTMを使った先行研究\cite{rei-yannakoudakis:2016:P16-1}と同じ設定である.具体的には,埋め込み層の次元数は$300$とし,隠れ層の次元数は$200$とし,隠れ層と出力層の間の隠れ層の次元数は50とした.初期学習率を$0.001$とした.そして,ADAMアルゴリズム\cite{kingma2014adam}で,バッチサイズを64文として最適化した.\begin{table}[b]\hangcaption{上表はFCE-publicだけ,下表はNUCLEだけで学習されたBi-LSTMと単語分散表現のそれぞれのテストデータにおける誤り検出精度}\label{tab:sub_first}\input{04table02.tex}\end{table} \section{文法誤り検出の実験結果} \subsection{FCE-publicとNUCLEを用いた実験結果}表\ref{tab:sub_first}は,Bi-LSTMを2つのベースラインで初期化したモデル(FCE+word2vec,FCE+C\&W,NUCLE+word2vecとNUCLE+C\&W)と提案手法を使ったモデル(FCE+EWE,FCE+GWE,FCE+E\&GWE,NUCLE+EWE,NUCLE+GWEとNUCLE+E\&GWE)のFCE-publicとNUCLEを用いて学習した誤り検出の結果である.アスタリスクはPrecision,Recallと$F_{0.5}$のそれぞれがFCE+word2vec((R\&Y2016)の再実装)またはNUCLE+word2vecに対して有意水準0.05で有意差があることを示す.FCE-publicで学習したモデルはFCE-publicのテストデータを使い,NUCLEで学習したモデルはCoNLL-14\cite{ng2014conll}のテストデータを使い評価した.FCE+word2vecに関しては2つのモデルがある.FCE+word2vec(R\&Y2016)は先行研究\cite{rei-yannakoudakis:2016:P16-1}で報告されている値である.FCE+word2vec((R\&Y2016)の再実装)は先行研究の再実装の結果である.NUCLE+E\&GWEとFCE+E\&GWEは,それぞれのコーパスのEWEとGWEを組み合わせためモデルである.まず,ベースラインと提案手法(FCE+EWE,FCE+GWE,NUCLE+EWEとNUCLE+GWE)を比較すると,一貫して精度が向上していることがわかる.このことから,誤りパターンと正誤情報を考慮する提案手法が文法誤り検出では有効であることがわかる.さらに,2つの手法を組み合わせたFCE+E\&GWEとNUCLE+E\&GWEのほうがEWEとGWEそれぞれを単体で使ったモデルより高い精度を出している.このことから,EWEとGWEを組み合わせることが有効であることがわかる.\begin{table}[b]\hangcaption{大規模なLang-8コーパスを追加で使いBi-LSTMか単語分散表現のどちらかを学習した場合のFCE-publicまたはNUCLEのテストデータにおける誤り検出精度}\label{tab:sub_second}\input{04table03.tex}\end{table}\subsection{Lang-8を用いた実験結果}Lang-8を直接学習データとして用いるより誤りパターンを抽出し単語分散表現を学習したほうが文法誤り検出の精度が向上につながることを検証するために,以下の2つの設定で比較する:(1)FCE-publicとNUCLEそれぞれの誤りパターンにLang-8から抽出した誤りパターンを追加する.そして,誤りパターンを用いて学習された単語分散表現によって初期化されたBi-LSTMをFCE-publicとNUCLEのそれぞれだけを使い学習する(FCE+EWE-L8,FCE+E\&GWE-L8,NUCLE+EWE-L8とNUCLE+E\&GWE-L8,表\ref{tab:sub_second});(2)word2vecで初期化Bi-LSTMの学習データとしてFCE-publicとNUCLEのそれぞれに直接Lang-8を追加する(FCE\&L8+W2VとNUCLE\&L8+W2V,表\ref{tab:sub_second}).表\ref{tab:sub_second}はLang-8を学習データに追加した文法誤り検出の結果である.アスタリスクはPrecision,Recallと$F_{0.5}$のそれぞれがFCE+word2vec((R\&Y2016)の再実装)またはNUCLE+word2veに対して有意水準0.05で有意差があることを示す.その際,我々はウィルコクソンの符号順位検定($p\leq0.05$)を5回行った.表\ref{tab:sub_first}と表\ref{tab:sub_second}から,Precision,Recallと$F_{0.5}$に関してそれぞれの手法を以下のようにランク付けすることができる:(FCE,NUCLE)+E\&GWE-L8$>$(FCE,NUCLE)+EWE-L8$>$(FCE,NUCLE)+E\&GWE$>$(FCE,NUCLE)+GWE$>$(FCE,NUCLE)+EWE$>$(FCE,NUCLE)+word2vec$>$(FCE,NUCLE)+C\&W.文法誤り検出において誤りパターンと正誤情報を考慮することで一貫して精度が向上している.このことから,提案手法が文法誤り検出では有効であることがわかる.そして,我々の提案手法はLang-8コーパスを使うことなく先行研究と比較して統計的有意差がある.我々の提案手法はFCE-publicにおいて全ての評価尺度において世界最高精度であるReiとYannakoudakisの先行研究を上回った.そして,FCE\&L8+word2vecとFCE+EWE-L8の結果から,直接分類器の学習データとして使うより誤りパターンとして抽出し使うほうが良いことがわかる.これはLang-8の正しい文にノイズが多く含まれているためと考えられる.Lang-8のような専門家がアノテートしたわけではないノイズを多く含むコーパスを直接学習データとして使わず,大規模である利点を活かし多様な誤りパターンを抽出するために使う.そして,FCE-publicやNUCLEのような小規模ではあるが専門家がアノテートしたコーパスを専門家のアノテーションの特徴を捉えた質の高い学習をするために使う.これにより,それぞれのコーパスの利点を活かした学習を行うことができていると言える.そして,上記の実験からGWEと組み合わせることでさらに精度が向上することがわかる.\begin{table}[b]\caption{誤りタイプごとの正解数と正解率}\label{tab:label_correct}\input{04table04.tex}\end{table} \section{考察} \label{考察}それぞれの手法ごとにどのような違いがあるかを調べるために,誤りタイプごとの正解数について見ていく.表\ref{tab:label_correct}は,FCE-publicのテストデータにおけるそれぞれのモデルの誤りタイプごとの正解数と正解率を示している.ここでは,比較対象のモデル同士でもっとも誤りタイプの正解数の差が大きかった2つの誤りタイプを上げている.従来手法と提案手法,Lang-8ありの提案手法とLang-8なしの提案手法を比較した.誤りタイプはFCE-publicにもともと付与されていた正解ラベルを用いる\footnote{誤りのタグ付け方法または種類については付録に掲載した.}.まず,従来手法と提案手法で最も正解数が異なる,動詞置換誤りと限定詞欠損誤りについて分析する(表\ref{tab:label_correct}の(a)と(b)).動詞置換誤りに関しては提案手法の正解数が多い.一方で,限定詞欠損誤りに関してはベースラインであるFCE+word2vecとFCE+C\&Wのほうが正解数が多い.提案手法のほうが限定詞欠損誤りの正解数が少ないのは,誤りパターンが単語ペアを抽出し作成されており,単語が欠落している誤りが含まれていないためと考えられる.1-gramベースの誤りパターンを用いた単語分散表現では入れ替え誤りに特化した学習を行うため,誤りパターンに含まれていないような他の誤りを文脈を手がかりに学習することは難しいと考えられる.次に,我々はLang-8から抽出した誤りパターンを使うことによる影響について調べる(表\ref{tab:label_correct}の(b)と(c)).FCE+EWEとFCE+EWE-L8は名詞置換誤りと名詞語形誤りにおいて最も正解数が異なる.名詞置換誤りとはsuggestionとadviceのような誤りであり,名詞語形誤りとはtimeとtimesのような誤りである.FCE+EWE-L8は,名詞置換誤りと名詞語形誤りの両方で正解数が多い.理由としては,名詞置換誤りと名詞語形誤りともにLang-8に含まれている誤りパターンの数がFCE-publicと比較して10倍ほど多いためと考えられる.\begin{table}[b]\caption{FCE+word2vecとFCE+E\&GWE-L8を用いた誤り検出の例}\label{tab:example}\input{04table05.tex}\end{table}表\ref{tab:example}は従来手法であるFCE+word2vecと最も精度の高い提案手法であるFCE+E\&GWE-L8のテストデータに対する検出例を示している.表\ref{tab:example}(a)は名詞置換誤りの検出例を示している\footnote{実際のFCE-publicでは,最初にenteryはentryに訂正され,その後entranceに訂正されている.}.FCE+word2vecは名詞置換誤りを検出できていないが,FCE+E\&GWE-L8は名詞置換誤りを検出することができている.名詞語形誤りに関しては表\ref{tab:example}(b)で示されている.ここで,FCE+word2vecは誤りを1つも検出することができていない.一方で,FCE+E\&GWE-L8は名詞語形誤りを検出することができている.これは,Lang-8から抽出した誤りパターンに含まれていたためと考えられる.saleとclothsの検出は両方のモデルが失敗している.しかし,前者は構文的情報を必要とし,後者は常識を必要とするため誤り検出が難しいと考えられる.表\ref{tab:example}(c)では,FCE+W2Vは限定詞欠損誤りの検出に成功したが,FCE+E\&GWE-L8は検出に失敗した.この結果は限定詞欠損誤りと同様に誤りパターンの構造上,挿入誤りを適切に学習できていないことを示している.\begin{figure}[b]\begin{center}\includegraphics{25-4ia4f2.eps}\end{center}\hangcaption{FCE+word2vecとFCE+E\&GWE-L8によって学習された単語分散表現のt-SNEによる可視化.大文字がFCE+word2vecの単語であり,小文字がFCE+E\&GWE-L8の単語である.}\label{fig:flow}\end{figure}図\ref{fig:flow}は,学習データ内で高頻度な誤りの単語分散表現(FCE+word2vecとFCE+E\&GWE-L8)をt-SNEを用いて可視化した図である.我々は誤りとして出現頻度が多い前置詞と動詞をいくつかプロットした.頻度を元に可視化したのは,高頻度で誤っているほど学習データに多く出現するため単語分散表現がよく学習され違いがわかりやすくなると考えたからである.ここでは誤りとして高頻度な単語を誤りやすい,低頻度な単語を誤りにくい単語としている.学習者が誤りにくい単語はFCE+E\&GWE-L8とFCE+word2vecで似たような位置として学習されている.一方で,学習者が誤りやすい単語に関しては誤りの出現頻度に比例してFCE+E\&GWE-L8とFCE+word2vecで離れた位置として学習されていることがわかる.例えば,underやwalkのようにあまり誤りとして出現しない単語はFCE+word2vecの近くに位置している.一方で,wasやatのようによく誤られる単語はFCE+E\&GWE+L8の点はFCE+word2vecと比較してより遠くに移動している.そして,この図中のほとんどすべての単語が上に移動しているので,上方向に移動する距離が誤りやすさに対応していると推測される.この可視化は学習者による誤りに対する分析に使うことができる. \section{まとめ} 本稿で我々は,文法誤り検出のための正誤情報と文法誤りパターンを考慮した単語分散表現の学習手法を提案した.その結果,FCE-publicとNUCLEの2つのコーパスにおいて文法誤り検出の精度向上を行うことができた.そして,提案手法で単語分散表現を初期化したBi-LSTMモデルを使いFCE-publicデータセットにおいて世界最高精度を達成した.学習者コーパスによって学習された単語分散表現は正しいフレーズと誤ったフレーズを区別することが可能である.さらに我々は,Lang-8コーパスを用いた追加の実験を行った.その結果,我々は誤りパターンを抽出して学習するほうが直接Lang-8コーパスを分類器の学習データに追加するより良いことがわかった.そして,いくつかの典型的な誤りに対して検出結果を分析し,学習された単語分散表現の特徴を明らかにした.今回の提案手法では,Lang-8の添削者を一律に誤りの見逃しなどのノイズを含む可能性があるとしている.一方で,Lang-8の添削者中でも専門家のように質の高い添削を行っている添削者もおり,Lang-8にも学習データとして直接使うことが可能な文が多く含まれていると考えられる.そのため,Lang-8の添削者の評価や添削数などのメタ情報を活用した文法誤り検出などが考えられる.また,学習者の母語などのメタ情報を活用した文法誤り訂正の研究\cite{chollampatt-hoang-ng:2016:EMNLP2016}が報告されている\footnote{ネイティブ言語と学習言語の文法的な近さによって,学習時に文法的に近いため文法を混同する問題や文法の大きな違いによる問題などが発生する.}.そこで,学習者の第二言語習得過程\cite{slam18}を考慮した文法誤り訂正にも取り組んでいきたい.\acknowledgment本研究はJSPS科研費JP16K16117の助成を受けたものである.\vspace{-0.1\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alikaniotis,Yannakoudakis,\BBA\Rei}{Alikaniotiset~al.}{2016}]{alikaniotis-yannakoudakis-rei:2016:P16-1}Alikaniotis,D.,Yannakoudakis,H.,\BBA\Rei,M.\BBOP2016\BBCP.\newblock\BBOQAutomaticTextScoringUsingNeuralNetworks.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\715--725}.\bibitem[\protect\BCAY{Chelba,Mikolov,Schuster,Ge,Brants,Koehn,\BBA\Robinson}{Chelbaet~al.}{2013}]{chelba2013one}Chelba,C.,Mikolov,T.,Schuster,M.,Ge,Q.,Brants,T.,Koehn,P.,\BBA\Robinson,T.\BBOP2013\BBCP.\newblock\BBOQOneBillionWordBenchmarkforMeasuringProgressinStatisticalLanguageModeling.\BBCQ\\newblock{\BemarXivpreprintarXiv:1312.3005}.\bibitem[\protect\BCAY{Chollampatt,Hoang,\BBA\Ng}{Chollampattet~al.}{2016a}]{chollampatt-hoang-ng:2016:EMNLP2016}Chollampatt,S.,Hoang,D.~T.,\BBA\Ng,H.~T.\BBOP2016a\BBCP.\newblock\BBOQAdaptingGrammaticalErrorCorrectionBasedontheNativeLanguageofWriterswithNeuralNetworkJointModels.\BBCQ\\newblockIn{\BemEMNLP},\mbox{\BPGS\1901--1911}.\bibitem[\protect\BCAY{Chollampatt,Taghipour,\BBA\Ng}{Chollampattet~al.}{2016b}]{chollampatt2016neural}Chollampatt,S.,Taghipour,K.,\BBA\Ng,H.~T.\BBOP2016b\BBCP.\newblock\BBOQNeuralNetworkTranslationModelsforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemIJCAI},\mbox{\BPGS\2768--2774}.\bibitem[\protect\BCAY{Collobert\BBA\Weston}{Collobert\BBA\Weston}{2008}]{collobert2008unified}Collobert,R.\BBACOMMA\\BBA\Weston,J.\BBOP2008\BBCP.\newblock\BBOQAUnifiedArchitectureforNaturalLanguageProcessing:DeepNeuralNetworkswithMultitaskLearning.\BBCQ\\newblockIn{\BemICML},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Dahlmeier,Ng,\BBA\Wu}{Dahlmeieret~al.}{2013}]{dahlmeier2013building}Dahlmeier,D.,Ng,H.~T.,\BBA\Wu,S.~M.\BBOP2013\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusofLearnerEnglish:TheNUSCorpusofLearnerEnglish.\BBCQ\\newblockIn{\BemBEA@NAACL-HLT},\mbox{\BPGS\22--31}.\bibitem[\protect\BCAY{Daudaravicius,Banchs,Volodina,\BBA\Napoles}{Daudaraviciuset~al.}{2016}]{daudaravicius-EtAl:2016:BEA11}Daudaravicius,V.,Banchs,R.~E.,Volodina,E.,\BBA\Napoles,C.\BBOP2016\BBCP.\newblock\BBOQAReportontheAutomaticEvaluationofScientificWritingSharedTask.\BBCQ\\newblockIn{\BemBEASharedTask},\mbox{\BPGS\53--62}.\bibitem[\protect\BCAY{Han,Chodorow,\BBA\Leacock}{Hanet~al.}{2006}]{han2006detecting}Han,N.-R.,Chodorow,M.,\BBA\Leacock,C.\BBOP2006\BBCP.\newblock\BBOQDetectingErrorsinEnglishArticleUsagebyNon-nativeSpeakers.\BBCQ\\newblock{\BemNaturalLanguageEngineering},\mbox{\BPGS\115--129}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{kingma2014adam}Kingma,D.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblock{\BemICLR}.\bibitem[\protect\BCAY{Kochmar\BBA\Briscoe}{Kochmar\BBA\Briscoe}{2014}]{kochmar2014detecting}Kochmar,E.\BBACOMMA\\BBA\Briscoe,T.\BBOP2014\BBCP.\newblock\BBOQDetectingLearnerErrorsintheChoiceofContentWordsUsingCompositionalDistributionalSemantics.\BBCQ\\newblockIn{\BemCOLING},\mbox{\BPGS\1740--1751}.\bibitem[\protect\BCAY{Liu,Han,Li,Stiller,\BBA\Zhou}{Liuet~al.}{2010}]{liu2010srl}Liu,X.,Han,B.,Li,K.,Stiller,S.~H.,\BBA\Zhou,M.\BBOP2010\BBCP.\newblock\BBOQSRL-basedVerbSelectionforESL.\BBCQ\\newblockIn{\BemEMNLP},\mbox{\BPGS\1068--1076}.\bibitem[\protect\BCAY{水本\JBA小町\JBA永田\JBA松本}{水本\Jetal}{2013}]{mizumoto-EtAl:2011:IJCNLP-2011}水本智也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2013\BBCP.\newblock日本語学習者の作文自動誤り訂正のための語学学習SNSの添削ログからの知識獲得.\\newblock\Jem{人工知能学会論文誌},{\Bbf28}(5),\mbox{\BPGS\420--432}.\bibitem[\protect\BCAY{Nagata\BBA\Nakatani}{Nagata\BBA\Nakatani}{2010}]{nagata2010evaluating}Nagata,R.\BBACOMMA\\BBA\Nakatani,K.\BBOP2010\BBCP.\newblock\BBOQEvaluatingPerformanceofGrammaticalErrorDetectiontoMaximizeLearningEffect.\BBCQ\\newblockIn{\BemCOLING},\mbox{\BPGS\894--900}.\bibitem[\protect\BCAY{Napoles,Sakaguchi,\BBA\Tetreault}{Napoleset~al.}{2017}]{napoles-sakaguchi-tetreault:2017:EACLshort}Napoles,C.,Sakaguchi,K.,\BBA\Tetreault,J.\BBOP2017\BBCP.\newblock\BBOQJFLEG:AFluencyCorpusandBenchmarkforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemEACL},\mbox{\BPGS\229--234}.\bibitem[\protect\BCAY{Ng,Wu,Briscoe,Hadiwinoto,Susanto,\BBA\Bryant}{Nget~al.}{2014}]{ng2014conll}Ng,H.~T.,Wu,S.~M.,Briscoe,T.,Hadiwinoto,C.,Susanto,R.~H.,\BBA\Bryant,C.\BBOP2014\BBCP.\newblock\BBOQTheCoNLL-2014SharedTaskonGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemCoNLLSharedTask},\mbox{\BPGS\1--14}.\bibitem[\protect\BCAY{Nicholls}{Nicholls}{2003}]{nicholls2003cambridge}Nicholls,D.\BBOP2003\BBCP.\newblock\BBOQTheCambridgeLearnerCorpus:ErrorCodingandAnalysisforLexicographyandELT.\BBCQ\\newblock{\BemCorpusLinguistics},\mbox{\BPGS\572--581}.\bibitem[\protect\BCAY{Rei\BBA\Yannakoudakis}{Rei\BBA\Yannakoudakis}{2016}]{rei-yannakoudakis:2016:P16-1}Rei,M.\BBACOMMA\\BBA\Yannakoudakis,H.\BBOP2016\BBCP.\newblock\BBOQCompositionalSequenceLabelingModelsforErrorDetectioninLearnerWriting.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\1181--1191}.\bibitem[\protect\BCAY{Sawai,Komachi,\BBA\Matsumoto}{Sawaiet~al.}{2013}]{sawai2013learner}Sawai,Y.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQALearnerCorpus-basedApproachtoVerbSuggestionforESL.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\708--713}.\bibitem[\protect\BCAY{Settles,Brust,Gustafson,Hagiwara,\BBA\Madnani}{Settleset~al.}{2018}]{slam18}Settles,B.,Brust,C.,Gustafson,E.,Hagiwara,M.,\BBA\Madnani,N.\BBOP2018\BBCP.\newblock\BBOQSecondLanguageAcquisitionModeling.\BBCQ\\newblockIn{\BemBEASharedTask},\mbox{\BPGS\56--65}.\bibitem[\protect\BCAY{Tetreault\BBA\Chodorow}{Tetreault\BBA\Chodorow}{2008}]{tetreault2008ups}Tetreault,J.~R.\BBACOMMA\\BBA\Chodorow,M.\BBOP2008\BBCP.\newblock\BBOQTheUpsandDownsofPrepositionErrorDetectioninESLWriting.\BBCQ\\newblockIn{\BemCOLING},\mbox{\BPGS\865--872}.\bibitem[\protect\BCAY{Xie,Avati,Arivazhagan,Jurafsky,\BBA\Ng}{Xieet~al.}{2016}]{xie2016neural}Xie,Z.,Avati,A.,Arivazhagan,N.,Jurafsky,D.,\BBA\Ng,A.~Y.\BBOP2016\BBCP.\newblock\BBOQNeuralLanguageCorrectionwithCharacter-basedAttention.\BBCQ\\newblock{\BemarXivpreprintarXiv:1603.09727}.\bibitem[\protect\BCAY{Yannakoudakis,Briscoe,\BBA\Medlock}{Yannakoudakiset~al.}{2011}]{yannakoudakis-briscoe-medlock:2011:ACL-HLT2011}Yannakoudakis,H.,Briscoe,T.,\BBA\Medlock,B.\BBOP2011\BBCP.\newblock\BBOQANewDatasetandMethodforAutomaticallyGradingESOLTexts.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\180--189}.\end{thebibliography}\vspace{1\Cvs}\appendix\ref{考察}章の考察で取り上げたFCE-publicで用いられている誤りタイプ\cite{nicholls2003cambridge}について説明する.2つのタグから誤りタイプは構成されている.1つ目のタグは誤りの種類を表しており,2つ目のタグは対象単語のクラスを表す.2つのタグを組み合わせることで誤りタイプを表現する.例えば,動詞置換誤りであれば1つ目のタグが置換のR,2つ目のタグは動詞のV,この2つを組み合わせたRVとして表す.\vspace{1\Cvs}\small\begin{tabbing}\hspace{1zw}\=AGA\hspace{1zw}\=可算名詞による限定詞誤り(wrongDeterminerbecauseofnouncountability)\kill\>\textbf{一般的な誤り(1つ目のタグ)}\\\>F\>語形誤り(wrongFormused)\\\>M\>欠損(somethingMissing)\\\>R\>置換(wordorphraseneedsReplacing)\\\>U\>不必要(wordorphraseisUnnecessary)\\\>D\>派生誤り(wordiswronglyDerived)\\\\\>\textbf{単語クラス(2つ目のタグ)}\\\>A\>照応(Anaphoric)\\\>C\>接続詞(Conjunction)\\\>D\>限定詞(Determiner)\\\>J\>形容詞(Adjective)\\\>N\>名詞(Noun)\\\>Q\>数量詞(Quantifier)\\\>T\>前置詞(Preposition)\\\>V\>動詞(Verb)\\\>Y\>副詞(Adverb)\\\\\>\textbf{記号誤り(誤りの種類+P)}\\\>MP\>記号欠損(punctuationMissing)\\\>MP\>記号置換(punctuationneedsReplacing)\\\>UP\>記号不必要(Unnecessarypunctuation)\\\\\>\textbf{一致誤り(AG+単語クラス)}\\\>AGA\>照応一致誤り(Anaphoricagreementerror)\\\>AGD\>限定詞一致誤り(Determineragreementerror)\\\>AGN\>名詞一致誤り(Nounagreementerror)\\\>AGV\>動詞一致誤り(Verbagreementerror)\\\\\>\textbf{可算名詞誤り(C+単語クラス)}\\\>CN\>可算名詞誤り(countabilityofNounerror)\\\>CQ\>可算名詞による数量詞誤り(wrongQuantifierbecauseofnouncountability)\\\>CD\>可算名詞による限定詞誤り(wrongDeterminerbecauseofnouncountability)\\\\\>\textbf{空似言葉(Falsefriend)(FF+単語クラス)}\\\>\parbox[t]{400pt}{全ての空似言葉はFFでタグ付けされる.必要な単語クラスはA,C,D,J,N,Q,T,VとYのいずれかである.この誤りは空似言葉を扱っていることが確実な場合にのみ使用される.その他の場合は置換Rが使われる.}\\\\\>\textbf{その他の誤り}\\\>AS\>項構造誤り(incorrectArgumentStructure)\\\>CE\>複合誤り(CompoundError)\\\>CL\>コロケーション誤り(CoLlocationerror)\\\>ID\>慣用句誤り(IDiomerror)\\\>IN\>名詞複数形の形成誤り(IncorrectformationofNounplural)\\\>IV\>動詞の不正な活用(IncorrectVerbinflection)\\\>L\>不適切なレジスター(inappropriateregister)\\\>S\>スペリング誤り(Spellingerror)\\\>SA\>アメリカ英語(AmericanSpelling)\\\>SX\>スペル混同誤り(Spellingconfusionerror)\\\>TV\>動詞の時制誤り(wrongTenseofVerb)\\\>W\>語順誤り(incorrectWordorder)\\\>X\>否定形誤り(incorrectformationofnegative)\end{tabbing}\normalsize\vspace{1\Cvs}CNは,学習者が意図された意味で利用できない名詞形を使用したことを表す.例えば,thecountry'snaturalbeautiesやtwotransportsなどである.一方で,可算または不可算に関わらず間違った形が使用された場合,その誤りはFNとする.例えば,vacationとvacationsである.AS(項構造誤り)はMT(前置詞の欠損,例えばheexplainedme)またはUT(不必要な前置詞,例えばhetoldtome)では網羅できない誤りを対象とする.ASは,特に第4文型をとる動詞に対して使用される.例えば,itcausedtroubletomeはitcausedmetroubleと1つの誤りとして訂正する.CE(複合誤り)は,意図した意味が推定できない複数の誤りや単語の集合をカバーする包括的な誤りである.この誤りを用いることで,学習者の誤りに関する有用な情報をほとんど得られない箇所を除外することができる.SX(スペル混同誤り)は,スペルの混同の可能性をカバーする.例えばtoとtoo,theirとthereやweatherとwhetherなどである.\begin{biography}\bioauthor{金子正弘}{2016年北見工業大学工学部情報システム工学科卒業.同年,首都大学東京システムデザイン研究科博士前期課程に進学.2018年博士前期課程修了.同年,首都大学東京システムデザイン研究科博士後期課程に進学.}\bioauthor{堺澤勇也}{2015年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,同大学院システムデザイン研究科博士前期課程に進学.2017年博士前期課程修了.現在株式会社ジャストシステム勤務.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V14N03-12
\section{はじめに} 近年,機器の高機能化がますます進み,我々の生活は非常に便利になってきている.しかし一方では,それらの機器を使いこなせないユーザが増えてきていることもまた事実である.この原因としては,高機能化に伴い,機器の操作が複雑化していることが考えられる.この問題を解決する一つの手段に,新しいユーザインタフェースの開発を挙げることができる.これまでにも,音声認識や手書き文字認識など,日常生活で慣れ親しんでいる入力を扱うことによる使いやすい機器の開発がなされており,一定の成果を挙げてはいるが,未だ万人に受け入れられるインタフェースとしては完成していない.これは,入力されたデータを規則に沿って処理しているだけであり,ユーザが置かれている状況や立場・気持ちを理解することなく,単純に処理していることにより,便利であるはずのインタフェースが,かえって人に不便さや不快感を与える結果になっていることが原因であると考えられる.そこで,我々は,新しいインタフェースとして,人間のコミュニケーションの仕組み,特に,常識的な判断の実現を目標に研究を行っている.人間はコミュニケーションにおいて,あいまいな情報を受け取った場合にも,適宜に解釈し円滑に会話を進めることができる.これは,人間が長年の経験により,言語における知識を蓄積し,その基本となる概念に関する「常識」を確立しているからである.人間が日常的に用いている常識には様々なものがある.例えば,言葉の論理性に関する常識,大きさや重さなどの量に関する常識,季節や時期などの時間に関する常識,暑い・騒がしい・美味しい・美しいといった感覚に関する常識,嬉しい・悲しいといった感情に関する常識などを挙げることができる.これらの常識を機器に理解させることができれば,ユーザは人とコミュニケーションをとるように機器をごく自然に使いこなすことができると考えられる.これまでにも,前述した常識に関する判断を実現する手法についての研究がなされている\cite{horiguchi:02,watabe:04,kometani:03,tsuchiya:05}.そこで本稿では,これらの常識の中の感情に着目し,ユーザの発話文章からそのユーザの感情を判断する手法を確立し,実システムによりその有効性を検証する.本システムにより例えば,提供しようとしている内容にユーザが不快感を覚える表現や不快な事象を想起させるような内容が含まれている場合に,別の適切な表現に変更することができるなどの効果が期待できる.本稿のように,感情に主眼を置いた研究はこれまでにもなされている.例えば,イソップワールドを研究の対象に置き,「喜び」,「悲しみ」など8種類の感情に応じた特徴を現在の状況から抽出し,それら複数の特徴を組み合わせることによってエージェントの感情を生成させる研究がある\cite{okada:92,okada:96,tokuhisa:98}.この手法では,エージェントの処理を内部から監視することによって,感情生成のための特徴を抽出している.また,\cite{mera:02}では,語彙に対する好感度を利用し,発話文章から話者の快・不快の感情を判断している.これらの先行研究では,あらかじめ知識として獲得している語彙以外は処理を行うことができない.また,判断できる感情の種類が少なく,表現力に乏しいという問題点が挙げられる.一方,本稿で提案する手法では,連想メカニズムを利用することにより,知識を獲得している語彙との意味的な関連性を評価することができ,知識として獲得していない語彙に関しても適切に処理を行うことが可能であると共に,多彩な感情を判断できることに独自性・優位性があると考えられる. \section{感情判断システム} label{system}\begin{figure}[b]\begin{center}\includegraphics[width=6cm]{14-3ia12f1.eps}\end{center}\caption{感情判断システムの構成}\label{emotion_judgment_system}\end{figure}\begin{table}[b]\caption{本研究で対象とする発話文章の例}\label{example_of_hatsuwabunnshou}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline発話文章&主体語&修飾語&目的語&変化語\\\hline\hline私は綺麗な宝石を貰う&私&綺麗な&宝石&貰う\\\hline私はお化けが怖い&私&-&お化け&怖い\\\hline\end{tabular}\end{center}\end{table}構築した感情判断システムの構成を図\ref{emotion_judgment_system}に示す.本研究はまだ初期段階であることから,その基本となる条件の下で研究を遂行した.そのため,話者の感情を判断するための発話文章の形式を「主体語」,「修飾語」,「目的語」,「変化語」の4要素に限定した.表\ref{example_of_hatsuwabunnshou}に本研究で処理の対象とする発話文章の例を示す.「主体語」とは,発話文章の主体となる名詞である.本研究では,今後,研究を発展する際に基本となる発話者自身,つまり,「私」を主体とする文章に限定した.「修飾語」とは,後に続く「目的語」を修飾する形容詞・形容動詞である.「修飾語」に関しては,文章表現において必ずしも必要でない場合があるため,省略を許可している.「目的語」とは,主体の行為・行動・状態の対象となる名詞である.以下,先に説明した「修飾語」と「目的語」を合わせて「対象語」と呼ぶ.「変化語」とは,主体の行為・行動・状態を表現する動詞や形容詞・形容動詞である.これらの「主体語」,「対象語」,「変化語」を基に発話者の感情を判断する.感情判断知識ベースには,「対象語」の「修飾語」,「変化語」,「感情判断」に関する少数の知識が登録されており,これを基に,語の連想を行うことにより,知識を常識の範囲で拡張し,多くの表現に対応している.語の連想は,複数の電子化辞書等から機械的に自動構築された大規模なデータベースである概念ベース\cite{hirose:02,kojima:02}と,語と語の間にある関連性を評価する関連度計算法\cite{watabe:01}(以下,これらを合わせて連想メカニズムと呼ぶ)を用いることにより実現している.「対象語」の「目的語」に関しては,名詞が持っている感覚・知覚の特徴を抽出することができる感覚・知覚判断メカニズム\cite{horiguchi:02,watabe:04,kometani:03}を用いて処理を行っている.人間の抱く感情はこれまで,心理学者や哲学者などによって数多く研究されてきた\cite{hukui:90,saitou:86,rita:99,suzan:01}.しかし,感情には実態がなく,非常にあいまいなものであるため,研究者ごとに解釈が異なり,定義する感情モデルも皆様々である.例えば,「嫌悪」,「恐怖」,「怒り」,「愛」を感情の基本と置き,色を混ぜ合わせるように感情を多様に表現できると定義するもの\cite{rita:99}や,人間が表現できる顔の表情から「悲しみ」,「満足」,「嫌悪」,「怒り」,「恐怖」が基本的な感情であると定義するもの\cite{suzan:01}などがある.そこで,我々は,「あるアクションが起こった際に瞬間的に感じる」ものを感情とみなし,判断する感情を「喜び」,「悲しみ」,「怒り」,「安心」,「恐れ」,「落胆」,「恥」,「後悔」,「罪悪感」と「感情なし」の計10種類と定義した.なお,我々は常識的な判断を実現するシステムの開発を目指しているため,人の好き嫌いに左右される「嫌悪」は判断の対象として扱わないことにした.また,これら10種類の感情を基本感情と定義し,より詳細な感情表現を可能とする手法も提案する.これについては,\ref{jugdement_emotion}章で詳しく説明する.\ref{association_mechanism}章で連想メカニズム,\ref{taishougo}章で対象語,\ref{hennkago}章で変化語,\ref{jugdement_emotion}章で感情判断について述べ,\ref{result_of_emotion_judgement_system}章で感情判断システムの性能評価を行う.なお,本研究では,人間の常識を機器上で表現し,扱うことを目標にしているため,人間の常識的な考え方・感じ方を基準にデータベースの構築や評価を行っている.また,処理性能としては,正答率8割以上を目標値として設定している. \section{連想メカニズム} label{association_mechanism}連想メカニズムは概念ベースと関連度計算法により構成されており,概念ベース\cite{hirose:02,kojima:02}は,ある語から語意の展開を行い,関連度計算法\cite{watabe:01}は,語意の展開結果を利用し,語の間にある関連性を数値として表す手法である.\subsection{概念ベース}\label{consept_base}概念ベースは,複数の電子化辞書などから各見出し語を概念,その見出し語の説明文中の自立語を概念の属性として,機械的に自動構築された大規模なデータベースである.本研究では,機械的に構築した後,人間の感覚からは不適切である属性を削除し,必要な属性を追加する自動精錬処理を行った概念ベース(概念数約9万)\cite{hirose:02}を利用している.\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f2.eps}\end{center}\caption{概念「電車」を二次属性まで展開した場合の例}\label{concept_base}\end{figure}概念ベースにおいて,任意の概念$A$は,概念の意味特徴を表す属性$a_i$と,この属性$a_i$が概念$A$を表す上でどれだけ重要かを表す重み$w_i$の対で表現される.概念$A$の属性数を$N$個とすると,概念$A$は以下のように表すことができる.ここで,属性$a_i$を概念$A$の一次属性と呼ぶ.\[A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_N,w_N)\}\]概念$A$の一次属性$a_i$は概念ベースに定義されている概念としているため,$a_i$からも同様に属性を導くことができる.$a_i$の属性$a_{ij}$を概念$A$の二次属性と呼ぶ.概念「電車」を二次属性まで展開した様子を図\ref{concept_base}に示す.\subsection{関連度計算法}\label{ra}関連度とは,概念と概念の関連の強さを定量的に評価するものであり,具体的には概念連鎖により概念を二次属性まで展開したところで,最も対応の良い一次属性同士を対応付け,それらの一致する属性の重みを評価することにより算出するものである.概念$A$と$B$の関連度$ChainW(A,B)$は以下のアルゴリズムにより計算する\cite{watabe:01}.\begin{enumerate}\itemまず,2つの概念$A$,$B$を一次属性$a_i,b_j$と重み$u_i,v_j$を用いて,{\allowdisplaybreaks\begin{align*}A&=\{(a_i,u_i)|i=1\simL\}\\B&=\{(b_j,v_j)|j=1\simM\}\end{align*}}と定義する.ここで,属性個数は重みの大きいものから30個を上限(実験的に検証された)\cite{watabe:01}として展開するものとする.\item一次属性数の少ない方の概念を概念$A$とし($L\leM$),概念$A$の一次属性の並びを固定する.\[A=((a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L))\]\item概念$B$の各一次属性を対応する概念$A$の各一次属性との一致度($MatchW$)の合計が最大になるように並べ替える.ただし,対応にあふれた概念$B$の一次属性($(b_{x_j},v_{x_j}),\j=L+1,\cdots,M$)は無視する.\[B_x=((b_{x_1},v_{x_1}),(b_{x_2},v_{x_2}),\cdots,(b_{x_L},v_{x_L}))\]\item概念$A$と概念$B$との関連度$ChainW(A,B)$は,\begin{align*}ChainW(A,B)&=(s_A/n_A+s_B/n_B)/2\label{Echain}\\s_A&=\sum_{i=1}^Lu_iMatchW(a_i,b_{x_i})\\s_B&=\sum_{i=1}^Lv_{x_i}MatchW(a_i,b_{x_i})\\n_A&=\sum_{i=1}^Lu_i\\n_B&=\sum_{j=1}^Mv_j\end{align*}とする.\end{enumerate}また,概念$A$と概念$B$の一致度$MatchW(A,B)$は,一致する一次属性の重み(すなわち,$a_i=b_j$なる$a_i,b_j$の重み)の合計をそれぞれ$w_A,w_B$とするとき,次式で定義する.\[MatchW(A,B)=(w_A/n_A+w_B/n_B)/2\]この式は,概念Aと概念Bの一致割合を評価する一つの方式として,概念$A$から見たときの一致している属性の重みの割合$w_A/n_A$と概念$B$から見たときの一致している属性の重みの割合$w_B/n_B$の平均を採用している. \section{対象語の処理} label{taishougo}対象語は発話者の行為・動作・状態の対象となり,修飾語(形容詞・形容動詞)と目的語(名詞)で構成される.修飾語は主に感情判断知識ベースを用いて意味分類の処理を行い,多義性の判断が処理のポイントである.目的語については,別の研究成果である感覚・知覚判断手法\cite{horiguchi:02,watabe:04,kometani:03}をサブシステムとして用いることで意味分類の処理を行う.\subsection{修飾語の処理}修飾語は,日常使用する語数が比較的少ないため(6358語),その全てを修飾の方法によって以下の4種類に分けて扱う.直接修飾型,依存修飾型については,それらを表現する形容詞(後述する感覚・知覚判断システムが判断する感覚語(目的語の意味分類)203分類)により意味的に分類し,感情判断知識ベースに登録している.(1)直接修飾型(785語):感情判断に直接関与し,後に続く名詞の意味分類を修飾語の意味分類に変換するもの(表\ref{example_of_direct_shuushoku}).\begin{table}[b]\caption{直接修飾型の「修飾語」の例}\label{example_of_direct_shuushoku}\begin{center}\begin{tabular}{|c|c|}\hline修飾語(785語)&修飾語の意味分類(203分類)\\\hline\hline綺麗な&美しい\\\hline不潔な&汚い\\\hline…&…\\\hline\end{tabular}\end{center}\end{table}(2)依存修飾型(54語):修飾される名詞によって意味分類が変化するもの(表\ref{Example_of_dependence_modification}).次節で処理方法を詳しく述べる.\begin{table}[b]\caption{依存修飾型の「修飾語」の例}\label{Example_of_dependence_modification}\begin{center}\begin{tabular}{|c|c|c|}\hline修飾語(54語)&修飾語の意味分類(203分類)&修飾する名詞\\\hline\hline&心強い&握手,誓い,…\\かたい&憂鬱な&頭,雰囲気,…\\&なし&食べ物,石,…\\\hline…&…&…\\\hline\end{tabular}\end{center}\end{table}(3)無修飾型:名詞の意味分類に影響を及ぼさないもの(例:丸い,赤い,…).(4)程度表現型:後に続く名詞に関する強さ(程度)を表現するもの(例:深い,大きい,…).本研究では,これら4種類の修飾語の内,直接修飾型と依存修飾型の修飾語のみを扱うことにした.これは,無修飾型と程度表現型の修飾語は,感情の程度を増減させる効果を持ち,感情そのものには影響を及ぼさないからである.\subsubsection{修飾語の多義性判断}\label{judgement_of_shuushokugo}直接修飾型の修飾語は感情判断知識ベースに登録されている知識を参照することにより,容易に意味分類の処理を行うことができる.依存修飾型の修飾語は,その後に続く名詞(目的語)によって,表現する意味が変化する.そこで,表\ref{Example_of_dependence_modification}に示すように,修飾語とその意味分類の他に,修飾する名詞で代表的な語を関連付けて感情判断知識ベースに登録している.多義性の判断は,この修飾する名詞と処理対象である修飾語の後に続く名詞との関連度(\ref{ra}節)を算出し,算出された関連度が最大となる名詞が関連付けられている修飾語の意味分類とすることで実現する.\subsubsection{多義性判断の性能評価}\label{result_of_shuushokugo}大学生40名に対して,「依存修飾語」を提示し,それに修飾される「名詞」を思いつくだけ挙げてもらうことにより収集したデータから,無作為に200組を抽出し評価データとして使用した.なお,関連度の有効性を評価するため,関連度計算法と同じように単語間の関連性を数値化する別の手法との比較を行う.本論文では,関連度の算出過程で用いる\ref{ra}節で説明した一致度($MatchW$)と\cite{nagao:96}で紹介されている以下の算出式によりシソーラス上の距離を定量化することで単語間の類似度を求める手法を比較対象とした.\[sim(n_1,n_2)=2d(c)/(d(n_1;c)+d(n_2;c))\]ここで,$d(a)$は$a$の深さ,すなわち,シソーラスのルートノードからノード$a$への最短パス長であり,$d(a;b)$は$b$を経由する$a$の深さ,すなわち,シソーラスのルートノードからノード$b$を経由してノード$a$へ至るパスの最短パス長である.また,実験に使用したシソーラスは,日本語語彙体系\cite{ntt:97}を使用した.多義性の判断についての処理結果を表\ref{result_of_shuushokugo_table}に示す.関連度を用いた処理は,シソーラス上の距離を用いた処理に比べて16.5{\kern0pt}%,一致度を用いた処理に比べて3.0{\kern0pt}%正答率が向上している.また,関連度を用いた処理のみ正答率が目標値を越えており,効果のある処理手法であると考えられる.\begin{table}[b]\caption{依存修飾型の修飾語における多義性判断の結果}\label{result_of_shuushokugo_table}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&シソーラス距離&一致度&関連度\\\hline\hline正答率&64.5{\kern0pt}%&78.0{\kern0pt}%&81.0{\kern0pt}%\\\hline\end{tabular}\end{center}\end{table}\subsection{目的語の処理}目的語の意味分類については,別の研究成果である感覚・知覚判断システム\cite{horiguchi:02,watabe:04,kometani:03}を用いて処理を行う.感覚・知覚判断システムは,ある語(名詞)に対して人間が常識的に抱く特徴を形容詞・形容動詞の形で判断するシステムである.「痛い」「臭い」などの人間が五感で感じる特徴を『五感感覚語』,「めでたい」,「不幸な」などの五感以外で感じる特徴を『知覚語』と呼ぶ.また,この2種類を総称して『感覚語』と呼び,計203語を定義している.感覚・知覚判断システムの処理は,語とその特徴である感覚・知覚の関係に関する代表的な知識を感覚・知覚判断知識ベース(図\ref{sense_judgment_knowledge_base_image})に登録し,その知識を基に\ref{association_mechanism}章で説明した連想メカニズムを用いて,あらゆる単語に関する感覚語を精度良く判断できるよう工夫されている.\begin{figure}[b]\begin{center}\includegraphics[width=8.5cm]{14-3ia12f3.eps}\end{center}\caption{感覚判断知識ベースのイメージ図}\label{sense_judgment_knowledge_base_image}\end{figure}なお,感覚・知覚判断システムが判断する感覚語203語により目的語を意味的に分類する.また,この203語の感覚語は前述した修飾語の意味分類と共通化させている.つまり,対象語の意味分類として感覚語203語を用いている.\subsubsection{感覚・知覚判断の処理手法}ここでは,感覚・知覚の判断についての処理手法を簡単に述べる.なお,詳細については参考文献\cite{horiguchi:02,watabe:04,kometani:03}を参照されたい.感覚・知覚判断知識ベースは,シソーラス構造をとっており,代表的な語(名詞)に対して,その語から想起される感覚・知覚を人手により付与している.感覚・知覚判断知識ベースに登録されていない未知語が処理の対象になった場合には,感覚・知覚判断知識ベースに登録されている既知語との関連度を算出し,関連性の強い語に帰着する.これにより,大まかな感覚・知覚を得ることができる.さらに,概念ベースの属性を参照することにより,その語特有の感覚・知覚を得る.概念ベースの属性にはその構成上,想起する感覚・知覚として不適切な語も含まれるため,関連度の考え方を用いて,適切な感覚・知覚を得る工夫をしている.\subsubsection{感覚・知覚判断システムの性能評価}感覚に関しては447語,知覚に関しては500語の目的語(名詞)を無作為に抽出し,評価データとして使用した.評価は,大学生3名を被験者として行った.処理対象の名詞に対して,意味的に関連が強い感覚・知覚を正しく判断すると「常識的(正答)」,誤った判断をすると「非常識(誤答)」とする.また,意味的な関連は強くないが,判断結果として不適切でないもの(感覚・知覚の観点から一般的に不適切でないもの)は「非常識ではない」とする.例えば,「林檎」の場合,「赤い」は常識的,「明るい」は非常識,「緑」は非常識ではない解と判断する.目的語における感覚の判断結果を図\ref{result_of_kannkaku}に,知覚の判断結果を図\ref{result_of_chikaku}に示す.なお,\ref{result_of_shuushokugo}節で述べた修飾語における多義性判断の性能評価方法と同様に,関連度の代わりに一致度とシソーラス距離を用いた場合の結果を比較対象として評価する.\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f4.eps}\end{center}\caption{目的語における感覚判断の結果}\label{result_of_kannkaku}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=10cm]{14-3ia12f5.eps}\end{center}\caption{目的語における知覚判断の結果}\label{result_of_chikaku}\end{figure}常識的な解において,関連度を用いた処理は,シソーラス上の距離を用いた処理に比べて約10〜12{\kern0pt}%,一致度を用いた処理に比べて約3〜5{\kern0pt}%向上している.また,関連度を用いた場合,常識的な解は,感覚・知覚判断においてそれぞれ84.6{\kern0pt}%と70.8{\kern0pt}%であり,非常識ではない解も正答に含めると98.0{\kern0pt}%と88.4{\kern0pt}%と非常に高い正答率となっており,連想メカニズムを用いた感覚・知覚判断システムは,感情判断システムにおける目的語の意味分類処理において有効であるといえる. \section{変化語の処理} label{hennkago}変化語は,発話者の行為・行動・状態を表現する語であり,動詞の他に,形容詞・形容動詞が対象となる.例えば,「私はお腹が痛い」という発話文章の場合,変化語は形容詞「痛い」である.変化語には,対象語から想起される感覚・知覚に関する特徴を変換する効果がある.感覚・知覚的に表現される特徴には大きくプラス的表現とマイナス的表現の2種類に分類できる.例えば,プラス的表現としては,「美しい」や「大切な」,マイナス的表現としては,「痛い」や「汚い」などを挙げることができる.また,感情も同じくプラスとマイナス的な感情の2種類に大別できる.「喜び」と「安心」がプラス的感情,「悲しみ」や「怒り」がマイナス的感情とすることができる.すると変化語には,4種類の作用を見出すことができる(図\ref{sayou_of_hennkago}).\begin{figure}[b]\begin{center}\includegraphics[width=7cm]{14-3ia12f6.eps}\end{center}\caption{変化語における4種類の作用のイメージ図}\label{sayou_of_hennkago}\end{figure}ここで,図\ref{sayou_of_hennkago}における【A】及び【B】は,対象語の情報に依存せず,変化語のみで一意に感情が決定する働きをもつ.【A】に関しては「喜ぶ」や「楽しむ」等が,【B】に関しては「悲しむ」や「恐れる」等を例として挙げることができる.また,【C】【D】の場合,対象語の意味分類により判断される感情が異なり,【C】の場合,対象語の意味分類を『継承』した感情を判断する.逆に【D】の場合では対象語の意味分類を『逆転』する感情を判断する.【C】に関しては「見る」「貰う」等が,【D】に関しては「失う」「捨てる」等が相当する.以下,【A】【B】の変化語を【感情一意想起型】,【C】【D】を【対象語依存型】と呼ぶ.また,感情一意想起型の変化語に関しては,「喜び」の感情を判断する〔喜び型〕,「悲しみ」の感情を判断する〔悲しみ型〕等のように,判断する感情として定義した10種類に細分類することができる.変化語に関する知識は,動詞を動作や状態によって体系付けられたシソーラス\footnote{学研シソーラス(類義語辞典)辞書,学研メディア開発事業部編}を利用して構築しており,自立語の動詞,及び,動作や状態を表す名詞(サ変接続名詞)17,676語をすべて感情判断知識ベースに登録している.動詞のシソーラスを用いることにより容易に且つ大量に分類作業を行うことができる.なお,形容詞・形容動詞については,修飾語の知識を流用する.\subsection{変化語における多義性判断}名詞の場合,語彙数は膨大であるが,多義性が少ないのに対し,動詞の場合,語彙数は少ないが,多義性が激しいという特徴がある.そのため,多くの動詞は複数の意味を有している.例えば,動詞「上がる」には,「継承」に分類される「低い所から高い所へ移動する」意味や「逆転」に分類される「終了する」意味,「喜び」の「地位が進む」意味,「悲しみ」の「費用が増える」意味など多岐に渡る.変化語単体では多義性を判断することができないため,修飾語の多義性判断と同様に,対象語の目的語の意味分類を利用する.そこで,国語辞書に記載されている変化語に対する解説文章から自立語を抽出し,対象語の目的語との関連度(\ref{ra}節)を算出する.算出された関連度が最大の自立語を含む説明文章が記載されている分類を変化語に対する多義性判断の結果とする.\subsection{変化語における多義性判断の性能評価}感情を想起できる「名詞」と「動詞」の組み合わせを大学生40名から収集し,無作為に370セットを抽出し,評価データとして使用した.各セットに対しては,多義性の判断結果として期待する「変化語の分類」をあらかじめ3名の被験者の多数決により決定した.変化語における多義性判断の結果を表\ref{result_of_doushi}に示す.なお,\ref{result_of_shuushokugo}節と同様に比較評価を行った.\begin{table}[b]\caption{変化語における多義性判断の結果}\label{result_of_doushi}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&シソーラス距離&一致度&関連度\\\hline\hline正答率&66.5{\kern0pt}%&70.5{\kern0pt}%&77.0{\kern0pt}%\\\hline\end{tabular}\end{center}\end{table}関連度を用いた処理は,シソーラス上の距離を用いた処理に比べて10.5{\kern0pt}%,一致度を用いた処理に比べて6.5{\kern0pt}%正答率が向上している. \section{感情判断の処理} label{jugdement_emotion}\ref{system}章で述べたように,人間が感じる感情の定義には様々な見解がある.そこで,我々は,「あるアクションが起こった際に瞬間的に感じる」ものを感情とみなし,判断する感情を「喜び」,「悲しみ」,「怒り」,「安心」,「恐れ」,「落胆」,「恥」,「後悔」,「罪悪感」と「感情なし」の計10種類と定義した.しかし,人間の感情は非常に複雑であり,高々10種類の感情だけでは,話者の感情を柔軟に判断することは困難である.そこで,先に述べた人手で定義した10種類の感情を基本感情と位置付け,より詳細に感情を表現するために機械的に多くの表現を付与する処理を行う.機械的に付与された詳細な感情を補足感情と呼ぶ.これにより作業量を最小限に抑え,且つ,より豊かに感情を表現することができる.感情判断には対象語の意味分類(203分類)と変化語の分類(継承と逆転の2分類)の組み合わせ計406種類について,想起する感情を人手で定義して感情判断知識ベースに登録している(表\ref{example_of_emotion_table}).なお,変化語の他の10種類の分類については,「喜び」や「怒り」など感情を直接表現しているため,感情判断の規則として感情判断知識ベースには登録していない.\begin{table}[b]\caption{感情判断のための知識の例}\label{example_of_emotion_table}\begin{center}\begin{tabular}{|c|c|c|}\hline対象語の意味分類(203分類)&変化語の分類(2分類)&判断感情\\\hline\hlineめでたい&継承&喜び\\\hlineめでたい&逆転&悲しみ\\\hline不吉な&継承&恐れ\\\hline…&…&…\\\hline\end{tabular}\end{center}\end{table}また,これらの組み合わせに対して,より柔軟に人間の感情を判断するために,補足感情を定義する必要がある.ここで問題になるのは,対象語の意味分類と補足感情との組み合わせ数が膨大になり,各組み合わせに対して手作業を行うことは効率が悪く,また主観による知識の偏りが生じる恐れがあることである.そこで,\ref{ra}節の関連度を利用して,対象語の意味分類と関連性が強い補足感情を機械的に定義する.なお,本研究において,扱う補足感情としては,唯一日本人の感情をモデル化した「情緒の系図」\cite{iki:91}に定義されている感情を用いることにした.\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f7.eps}\end{center}\caption{関連度の分布}\label{degree_of_assosiation_average_example}\end{figure}ここで,意味的な関連が強いと判断するための閾値の設定方法を述べる.概念に関する関連度合いを「女性−婦人」,「山−丘」などの極めて密接な関係,「山−川」,「夕焼け−赤い」などの密な関係,「山−机」,「電車−眼鏡」などの疎な関係の3種類に分類する教師データを概念ベース全体の中から人手で無作為に抽出した.それらの関係について被験者4名で評価を行い,4名が共にその関係が正しいと判断したものを200セット(計600データ)使用し,それらの関連度の平均を求め,これを関連の強さの判断に利用する.ある概念と極めて密接な関係,密な関係,疎な関係にある語の関連度の平均は,0.47,0.16,0.01であり,図\ref{degree_of_assosiation_average_example}のように各関係の間には関連度に十分有意な差が見られる.そこで,各関係における関連度平均の中間値である0.32,0.09を閾値と設定した.対象語の意味分類と補足感情との関連度が関連度平均0.32以上の場合は,意味的な関連が極めて強いと判断し機械的に関連付け,関連度平均0.32未満0.09以上の場合は,意味的な関連が強いと判断し手作業で関連付ける.また,関連度平均0.09未満の場合は,意味的な関連が弱いと判断し関連付けを行わない.このようにして定義した補足感情は,「愛」,「哀しみ」,「怨」,「恩」,「怪しい」,「悔しい」,「懐かしい」,「楽しい」,「希望」,「驚き」,「苦」,「誇り」,「寂しい」,「心配」,「親しみ」,「憎」,「妬み」,「美」,「満足」,「不安」,「不満」,「蔑み」,「憐れみ」,「なし」の計24種類であり,基本感情とは完全に独立した関係になっている.また,補足感情は,基本感情の定義方法と異なり,対象語の意味分類のみを基に定義している.つまり,変化語の意味分類が「継続」であることを前提として定義している.そこで,変化語の意味分類が「逆転」の場合,表\ref{pair_of_supplementation_emotion}に示す補足感情については感情を反転させる処理(プラス的感情を対応するマイナス的感情に変換,または,その逆の処理)を行う.\begin{table}[t]\caption{対となる補足感情}\label{pair_of_supplementation_emotion}\begin{center}\begin{tabular}{|c|c|}\hlineプラス的感情&マイナス的感情\\\hline\hline満足&不満\\\hline楽&苦,哀しい\\\hline希望&不安,心配\\\hline愛&憎\\\hline恩&怨\\\hline親しみ&寂しい\\\hline誇り&悔しい\\\hline\end{tabular}\end{center}\end{table}\ref{taishougo}章から本章までの各処理により感情を判断する流れを図\ref{flow_of_emotion_generation}に示す.発話文章の主体語は「私」に限定しているため,主体語について特別な処理は行わない.対象語について,修飾語がある場合には,修飾語により対象語の意味分類を行う.依存型修飾語の場合は,多義性の判断処理を行い対象語の意味分類を決定する.その他の修飾語の場合は,感情判断知識ベースを参照することにより対象語の意味分類を導き出す.修飾語がない場合には,目的語から対象語の意味分類を決定する.目的語の処理には,感覚・知覚判断システムを利用する.対象語の意味分類は203分類であるが,これは,感覚・知覚判断システムが判断可能な意味分類である203分類を用いている.つまり,修飾語の意味分類も同様の203分類を用いている.変化語については,すべての語を対象に多義性判断の処理を行い,変化語の意味分類を決定する.このように判断した対象語の意味分類と変化語の意味分類を用いて基本感情と補足感情を判断する.なお,基本感情と補足感情は階層構造などをとらず,完全独立なものとして定義している.\begin{figure}[t]\begin{center}\includegraphics[width=9cm]{14-3ia12f8.eps}\end{center}\caption{感情判断の流れ}\label{flow_of_emotion_generation}\end{figure} \section{感情判断システムの性能評価} label{result_of_emotion_judgement_system}感情判断システムの判断感情の妥当性を評価するために,大学生40名から感情が想起される対象語と変化語のセットを収集し,無作為に抽出した200セットを評価データとして使用した.評価としては,5名の被験者にシステムが判断した感情が常識的か非常識かを判断してもらい,4名以上が常識的と答えたものは「常識的な解(正答)」,2名以上3名以下が常識と判断したものは「非常識ではない」,1名以下が常識的と判断したものは「非常識な解(誤答)」とした.また,複数の感情が判断される場合には,すべての感情が常識的であれば「常識的な解(正答)」,一つでも非常識な感情があれば「非常識な解(誤答)」と判断し,その他は「非常識ではない」としている.\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f9.eps}\end{center}\caption{基本感情のみを判断した際の感情判断結果}\label{result_of_base_emotion_judgement}\end{figure}\begin{figure}[b]\begin{center}\includegraphics[width=10cm]{14-3ia12f10.eps}\end{center}\caption{基本感情と補足感情の両方を判断した際の感情判断結果}\label{result_of_supplementation_emotion_judgement}\end{figure}図\ref{result_of_base_emotion_judgement}に基本感情のみを判断した際の感情判断結果を,図\ref{result_of_supplementation_emotion_judgement}に基本感情と補足感情の両方を判断した際の感情判断結果を示す.両方の感情を判断する際には,基本感情と補足感情の両方が常識的なら常識的,どちらか一方でも非常識ならば非常識と評価している.なお,\ref{result_of_shuushokugo}節と同様に比較評価を行った.常識的な解において,関連度を用いた処理は,シソーラス上の距離を用いた処理に比べて9〜14{\kern0pt}%,一致度を用いた処理に比べて3.5〜4.5{\kern0pt}%向上している.また,図\ref{result_of_base_emotion_judgement}と図\ref{result_of_supplementation_emotion_judgement}を比較すると,正答率に差がないことが分かる.基本感情と補足感情は前述したように完全独立して定義している.そのため,基本的には両方の感情を判断する方が正解率は低下する.このことは,シソーラス距離を用いた処理結果から読み取ることができる.本節の結果で正答率に差が生じなかったことは偶然の結果であるが,半機械的に構築した補足感情を利用することにより,人手ですべてを定義した基本感情における感情判断結果の正答率を極力低下させることなく,判断する感情の表現を多様化し,感情をよりきめ細かに表現できたと考えている.\begin{table}[b]\caption{評価データと感情生判断の結果の例}\label{example_of_result}\begin{center}\begin{tabular}{|c|c|c|c|}\hline評価データ&基本感情&補足感情&評価結果\\\hline\hline私はつまらない映画を見る&落胆&不満&常識的な解\\\hline私は豊かな生活を送る&喜び&満足&常識的な解\\\hline私は一人ぼっちで生活する&悲しみ&寂しい,不安&常識的な解\\\hline私は貧しい生活を送る&恥&苦&常識的な解\\\hline私は珍しい現象に遭遇する&なし&驚き&常識的な解\\\hline私はいたずら電話をする&罪悪感&憎&常識的な解\\\hline私は優勝をする&喜び&楽しい,誇り&常識的な解\\\hline私は赤ん坊を出産する&喜び&愛&常識的な解\\\hline私は別れを告げる&悲しみ&苦,寂しい,不安&常識的な解\\\hline私は幽霊を見る&恐れ&怪しい,驚き&常識的な解\\\hline私は娘を出産する&喜び,悲しみ&愛,親しみ,不安&非常識ではない解\\\hline私は不正を見逃す&安心,喜び&なし&非常識な解\\\hline\end{tabular}\end{center}\end{table}評価データとその結果の例を表\ref{example_of_result}に示す.常識的と判定された例である「私はつまらない映画を見る」という評価データでは,基本感情が「落胆」であったが,「不満」という補足感情を判断することにより,話者の感情をより詳細に表現しているといえる.このように,基本感情のみでは,10種類の感情による表現であったものが,補足感情を用いることでより多様な感情を表現することができた.また,正答率は,両者共に76.5{\kern0pt}%であり,非常識ではない解を正答率に含めるとそれぞれ89.0{\kern0pt}%,88.0{\kern0pt}%と非常に高い結果であり,本システムは有効であると言える. \section{おわりに} 本稿では,人間がコミュニケーションの中で自然に行っている常識的な判断の一つである感情に着目し,「主体語」,「修飾語」,「目的語」,「変化語」の4要素から成るユーザの発話文章から,そのユーザの感情を基本感情10種類,補足感情24種類で判断する手法を提案した.また,実システムによりその性能を評価した結果,常識的な解の正答率は76.5{\kern0pt}%であり,非常識ではない解を正答率に含めると88.0{\kern0pt}%となった.このことから,本研究で構築した感情判断システムは非常に高い性能であり,提案した処理手法は有効であると言える.\vspace{0.5\baselineskip}\acknowledgment本研究は,文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\vspace{0.5\baselineskip}\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{hirose:02}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock\Jem{信学技報,NLC2001-93},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{Horiguchi,Tsuchiya,Kojima,Watabe,\BBA\Kawaoka}{Horiguchiet~al.}{2002}]{horiguchi:02}Horiguchi,A.,Tsuchiya,S.,Kojima,K.,Watabe,H.,\BBA\Kawaoka,T.\BBOP2002\BBCP.\newblock\BBOQConstructingaSensuousJudgmentSystemBasedonConceptualProcessing\BBCQ\\newblock{\BemComputationalLinguisticsandIntelligentTextProcessing(Proc.ofCICLing-2002)},\mbox{\BPGS\86--95}.\bibitem[\protect\BCAY{齊藤}{齊藤}{1986}]{saitou:86}齊藤勇\BBOP1986\BBCP.\newblock\Jem{感情と人間関係の心理}.\newblock川島書店.\bibitem[\protect\BCAY{福井}{福井}{1990}]{hukui:90}福井康之\BBOP1990\BBCP.\newblock\Jem{感情の心理学}.\newblock川島書店.\bibitem[\protect\BCAY{九鬼}{九鬼}{2001}]{iki:91}九鬼周造\BBOP2001\BBCP.\newblock\Jem{「いき」の構造}.\newblock岩波書店.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima:02}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法−属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{米谷\JBA渡部\JBA河岡}{米谷\Jetal}{2003}]{kometani:03}米谷彩\JBA渡部広一\JBA河岡司\BBOP2003\BBCP.\newblock\JBOQ常識的知覚判断システムの構築\JBCQ\\newblock\Jem{人工知能学会全国大会,3C1-07}.\bibitem[\protect\BCAY{目良\JBA市村\JBA相沢\JBA山下}{目良\Jetal}{2002}]{mera:02}目良和也\JBA市村匠\JBA相沢輝昭\JBA山下利之\BBOP2002\BBCP.\newblock\JBOQ語の好感度に基づく自然言語発話からの情緒生起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(3),\mbox{\BPGS\186--195}.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{nagao:96}長尾真\BBOP1996\BBCP.\newblock\Jem{岩波講座ソフトウェア科学15自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{ntt:97}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{Okada}{Okada}{1996}]{okada:96}Okada,N.\BBOP1996\BBCP.\newblock\BBOQIntegratingVision,MotionandLanguagethroughMind\BBCQ\\newblock{\BemArtificialIntelligenceReview},{\Bbf10},\mbox{\BPGS\209--234}.\bibitem[\protect\BCAY{Okada\BBA\Endo}{Okada\BBA\Endo}{1992}]{okada:92}Okada,N.\BBACOMMA\\BBA\Endo,T.\BBOP1992\BBCP.\newblock\BBOQStoryGenerationBasedonDynamicsoftheMind\BBCQ\\newblock{\BemComputationalIntelligence},{\Bbf8}(1),\mbox{\BPGS\123--160}.\bibitem[\protect\BCAY{リタ・カーター}{リタ・カーター}{1999}]{rita:99}リタ・カーター\BBOP1999\BBCP.\newblock\Jem{脳と心の地形図}.\newblock原書房.\bibitem[\protect\BCAY{スーザン・グリーンフィールド}{スーザン・グリーンフィールド}{2001}]{suzan:01}スーザン・グリーンフィールド\BBOP2001\BBCP.\newblock\Jem{脳の探究}.\newblock無名舎.\bibitem[\protect\BCAY{徳久\JBA岡田}{徳久\JBA岡田}{1998}]{tokuhisa:98}徳久雅人\JBA岡田直之\BBOP1998\BBCP.\newblock\JBOQパターン理解的手法に基づく知能エージェントの情緒生起\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(8),\mbox{\BPGS\2440--2451}.\bibitem[\protect\BCAY{土屋\JBA奥村\JBA渡部\JBA河岡}{土屋\Jetal}{2005}]{tsuchiya:05}土屋誠司\JBA奥村紀之\JBA渡部広一\JBA河岡司\BBOP2005\BBCP.\newblock\JBOQ連想メカニズムを用いた時間判断手法の提案\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(5),\mbox{\BPGS\111--129}.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe:01}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{渡部\JBA堀口\JBA河岡}{渡部\Jetal}{2004}]{watabe:04}渡部広一\JBA堀口敦史\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ常識的感覚判断システムにおける名詞からの感覚想起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),\mbox{\BPGS\73--82}.\end{thebibliography}\vspace{\baselineskip}\begin{biography}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.工学博士.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{吉村枝里子}{2004年同志社大学工学部知識工学科卒業.2006年同大学院工学研究科知識工学専攻博士前期課程修了.同年,大学院工学研究科知識工学専攻博士後期課程入学.主に,知識情報処理の研究に従事.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.2006年同教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\vspace{\baselineskip}\biodate\end{document}
V27N02-06
\section{はじめに} 言語による指示に加えて,その指示内容を示す動作途中の写真があれば,その写真を参考にして調理を行いやすくなる.したがって,各手順に写真が付与された「写真付きレシピ」により作業内容を示すことは有益である.しかし,写真付きレシピを作成するためには,写真を撮影しながら手順を実施し,実施後に各写真に対応する手順を記述する必要があり,作者にとって負担である.本研究の目的は,写真列を入力としてレシピを自動生成することで,写真付きレシピの作成を容易にすることである.この目的を達成するために,本論文では,写真列を入力として与え,システムは各写真ごとに手順を生成する問題として定式化した課題と,この課題を解決する手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia5f1.eps}\end{center}\hangcaption{写真列からのレシピの自動生成.入力が写真列であり(左),出力が複文からなる手順である(右).手順は写真列の各写真ごとに生成する.}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:task_overview}に本論文で対象とする課題の概要を示す.入力の写真列の各写真に対し,複数の文からなる手順が対応している.これらの手順全体を本論文ではレシピと呼ぶ.本論文で取り上げる写真列の各写真は手順実施の上で重要な場面で写真を撮影したものであり,手順途中の情報が十分に含まれている.また,各写真に対して1つの手順が対応するため,生成すべき手順数が既知である.システムはこの写真列を受け取り,写真列の各写真に対応する手順を生成し,それらをまとめて写真付きレシピとして出力する.この課題設定は入出力が共通しているという点で,Visualstorytelling\cite{visualstorytelling}に類似している.Visualstorytellingでは,図\ref{fig:task_overview}と同様に写真列を入力としてシステムが各写真に対応する文章を出力する.この課題では写真から説明文を生成するキャプション生成\cite{you2016cvpr,biten2019cvpr}と違い,出力の文章は写真列の時系列を考慮した一貫性があることが要求される.本論文で取り扱う課題はVisualstorytellingと比較して,出力のレシピは読者が読んで実行できるように,簡潔で具体的な記述であることが求められる.つまり,レシピにおける重要な物体や動作である食材,道具,調理者の動作を表す重要語と,それ含む表現が正しく生成されなければならない.例えば,図\ref{fig:task_overview}の工程1においては,「ちくわ」や「切り」が重要語であるが,写真を説明するためには「1/3の大きさに」といった表現も重要語に添えて生成する必要がある.これらをまとめて本論文では重要語を過不足なく含む表現と呼ぶ.これらの重要語を過不足なく含む表現は,手順を記述する上で必要不可欠である.そのため,これらの表現は,手順に付与している写真の内容を大きく反映しているものと言える.この性質をもとに,料理ドメインでは完成写真に適したレシピを得る課題が検索課題として提案され,その解法として完成写真とレシピの間で共有された潜在的な意味に基づく特徴空間を学習する共有潜在空間モデルが高い性能を発揮してきた\cite{im2recipe,R2GAN,chen2016deep}.しかしながら,完成写真とレシピの組ではなく,レシピの実行途中の写真と手順の組での共有潜在空間モデルは未だ提案されていない.この課題を解く場合,MSCOCO\cite{lin2014mscoco}やFlickr30k\cite{young2014tacl}などの一般的なドメインにおける写真とその説明文を対象とする既存の共有潜在空間モデル\cite{wang2017learning}で写真と手順の組を用いて学習しても高い性能を得ることは難しい.これは次の手順で何を記述するか,またその際に特に言及する必要がある前の手順からの差分は何かといった文脈に大きく影響を受けるためであると考えられる.これらを考慮するために,写真に対応する手順だけでなく,レシピ全体を考慮できるように既存の共有潜在空間モデルの手順側のエンコーダに工夫を加える.この工夫によって,このモデルに写真を入力した時,近傍の手順には重要語を過不足なく含む表現の情報が含まれていると期待できる.これにより,各入力写真に対応する共有潜在空間上のベクトルは重要語を過不足なく含む表現が強調されたものとなることが期待できる.提案手法では,このような共有潜在空間を用いて写真の埋め込みベクトルを獲得した後,その空間中での近傍点を利用しながら文生成を行うことで,これらの表現を正しく生成する.本手法を実装し,日本語のレシピを用いて評価実験を行った.その結果,提案した共有潜在空間モデルは既存のモデルと比較して高い検索性能を得られた.また,レシピ生成の点においても,提案手法はBLEU,ROUGE-L,CIDEr-Dといった生成文の自動評価尺度だけでなく,重要語を正しく生成できているかを測定した重要語生成の評価もVisualstorytellingの標準的なベースラインを上回ることを実験的に確認した.そして,提案手法は写真に適した重要語を正しく生成していることを実例により確認した.考察では,提案手法が入力写真列に適したレシピを生成することに成功したケースと失敗したケースを確認した.また,提案手法の重要な要素である,共有潜在空間についてのパラメータや,訓練データ量を変更した時の性能の変化を確認し,提案手法が性能を発揮する上で適当なパラメータやデータ量について検証した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 入力と出力がそれぞれ写真列と文章であるという点において,本論文の課題設定はVisualstorytelling\cite{visualstorytelling}と類似している.Visualstorytellingは,写真列を入力としてシステムが各写真に対応する文章を出力するという課題である.この課題では,システムは写真を説明する文章を生成するキャプション生成と異なり,写真列の前後関係を考慮した一貫性のある文章を出力することが求められる.Visualstorytellingの課題に対して,Liuら\cite{liu2017aaai}は写真とテキストの共有潜在空間を学習しながら文生成する手法を提案している.この研究では共有潜在空間と文生成のモデルを同時学習しているのに対し,本研究では学習済みの共有潜在空間中に埋め込まれた手順ベクトルを直接文生成の時に参照している点が異なる.こうすることで,写真に適した重要語を過不足なく含む表現を有する手順ベクトルの情報を明示的に入力へ含めることができ,重要語を過不足なく含む表現を生成しながらレシピを生成することができる.レシピの生成という課題としては,本研究での写真列を入力とする場合も含め,様々な研究がある.Salvadorら\cite{InverseCooking}は完成写真からレシピを生成する手法を提案している.この研究では,材料予測器と文生成器を同時に学習させることによって,完成写真からレシピのタイトル,材料,レシピを全て生成することで,Web上の完成写真から考えられるレシピの候補をユーザに提示するシステムを構築することを目的としている.Kiddonら\cite{checklist}はレシピのタイトルと材料を入力として与え,生成文で材料を利用したかどうかを注意機構\cite{attention}を用いて確認しながらレシピを生成する手法を提案している.しかし,本研究では材料だけでなく調理者の動作や道具も重要語として扱っている点が異なっており,これらを含めることで材料をどう扱うのかという点も考慮している.同じくタイトルと材料からレシピを生成する研究としては,Bosselutら\cite{bosselutDiscourse}の研究が挙げられる.この研究では,参照文と生成文の類似度を報酬とし,強化学習を用いて破綻がないように長文(レシピ)を生成する手法を提案している.概してこれらの研究では,レシピを高い精度で生成することよりも,いかに破綻させずに構造を持つ文書であるレシピを生成するかという点に着目している.そのため,入力に手順途中の情報が不足しており,十分な精度でレシピを生成するまでには至っていない.一方で,Moriら\cite{FlowGraph2Text}は手順の流れを重要語の有向グラフで表現したフローグラフ\cite{flowgraph}を入力としてレシピを生成する手法を提案している.手順途中の情報が与えられていない既存研究と比較し,実用的な精度でレシピを生成することに成功している.フローグラフではなく写真列を中間情報として与えるメリットとして,レシピを得ることが調理者にとって容易である点が挙げられる.フローグラフからレシピを得る場合,フローグラフをアノテーションし用意する必要がある.一方,写真列を入力とする場合は,調理者はレシピを実行する上で重要な写真を撮るだけでレシピを得ることができる.そのため,本研究では手順途中の状態を考慮するために,写真列を入力として与えている.同じく写真列である料理動画(フレーム列)を入力としてレシピを得る研究として,Ushikuら\cite{ushiku2017ijcnlp}の研究がある.この研究と本研究との違いは,扱っている写真列が異なっている点である.Ushikuら\cite{ushiku2017ijcnlp}の研究で入力とする料理動画は,キッチン全体を撮影した未編集の料理映像であり,手順実施の上で直接関係のないフレームや,調理者が待機しているフレームなどが多く含まれるため,生成すべき手順数は未知でかつ重要なフレームを予測しながら文生成を行う必要性がある.そのため,この重要フレームの予測誤差や文生成自体のミスなどの影響により,生成した手順書の精度は実用的な精度には至っていない.一方,本研究で対象とする写真列は,調理者が少なくとも手順実施の上で重要な場面で写真を撮影しており,これらの写真に1つの手順が紐づいているため,生成すべき手順数が既知である.これらの観点から,本論文で入力とする写真列には手順途中の情報が十分に含まれており,こうして撮影された写真に適した手順を生成することで,より高い精度でレシピを生成することが期待できる.本研究と同じく料理ドメインで写真列を入力として取り扱った研究として,Yagciogluら\cite{yagcioglu2018emnlp}のRecipeQAがある.この研究では,コンピュータが写真付きレシピをどの程度理解できるかを測定するためのマルチメディアQAデータセットを提案している.Chanduら\cite{chandu2019acl}は本研究と同じく写真列を入力としてレシピを生成する研究を行っている.この研究では,有限オートマトンモデルを用いて一貫性のあるレシピを生成することに着目したのに対し,本研究では,重要語を過不足なく含む表現が生成できているかという点に着目しレシピを生成している点が異なる.本研究ではレシピを実施する上で重要な単語である食材,道具,調理者の動作を重要語と定義し,これを含む表現を生成する手法を提案する.このように,写真を説明する上で重要な単語を生成することに焦点を当てた研究はキャプション生成の分野において行われている.Bitenら\cite{biten2019cvpr}は,写真からテンプレートを生成したのち,ニュース記事から人名や場所といった固有表現をテンプレートに当てはめて重要な単語を生成する手法を提案している.また,Youら\cite{you2016cvpr}の研究では,写真から重要な単語を多クラス分類などを用いて抽出し,それらの単語に注意機構\cite{attention}を用いながらキャプション生成を行う手法を提案している.本研究ではこの重要な単語を含む表現の生成に学習済みの共有潜在空間を用いている.この共有潜在空間上の各写真のベクトル,各写真に類似した手順には重要語を過不足なく含む表現の情報を含んでいると考えられ,これらを用いることで重要語を過不足なく含む表現を生成する手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-2ia5f2.eps}\end{center}\caption{提案手法の概要.}\label{fig:proposed_method}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 本章では,写真列を入力として,写真列に適した重要語を過不足なく含む表現を持つレシピを生成する手法について説明する.手順を記述する上で,これらの表現は欠かせない要素である.そのため,これらの表現は,手順に付与した写真の内容を大きく反映している.この性質をもとに,本論文では検索課題として取り組まれてきた手法を文生成の手法へ組み込むことで,重要語を過不足なく含む表現を持つ情報を利用しながらレシピを生成する手法を提案する.図\ref{fig:proposed_method}に提案手法の概要を示す.提案手法は以下の4つのプロセスで構成されている.\begin{enumerate}\renewcommand{\labelenumi}{(\roman{enumi})}\itemWeb上に存在する大量の写真と手順の組を用いて共有潜在空間をあらかじめ学習させておく.この時,前後の手順の文脈を考慮するために,共有潜在空間の手順側のエンコーダへbiLSTMを追加し学習する.その後,入力された写真列の各写真ごとに以下の(ii)から(iv)を繰り返して手順を1つずつ生成し,生成した全ての手順をあわせてレシピとして出力する.\item写真に適した重要語を過不足なく含む表現を有する手順ベクトルを得るために,共有潜在空間上における入力写真のベクトルを得た後,そのベクトルをもとに近傍の$K$個の手順ベクトルを検索する.\item検索した$K$個の手順ベクトルを平均したベクトルと写真の埋め込みベクトルを結合し,手順間の時系列を考慮したベクトルをbiLSTMを用いて計算する.\item最後に,写真ごとに手順を出力する.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{共有潜在空間}最初に,(i)の学習を行うために,Wangら\cite{wang2017learning}によって提案されたTwobranchnetworksを利用する.このモデルは,写真側,テキスト側にそれぞれ非線形な活性化関数と2層の多層パーセプトロンからなるニューラルネットワークを用いて,写真,テキストの間で共有された潜在的な意味に基づく特徴空間を学習する.この特徴空間では,写真に対してその写真の内容を記述する手順は近く位置する.そうでない場合,遠く位置することとなる.そのため,このモデルに手順と写真を与えることで,手順と写真の間での類似度を計算することができる.一般のテキストと異なり,レシピ中では,非常に多くの物体名がゼロ照応の形で省略される\cite{Malmaud_Semantics}.Malmaudらが分析対象としたレシピは英語のレシピであるが,本研究で対象とする日本語のレシピの中でも同様の傾向が見られる.例えば,図\ref{fig:task_overview}の工程3において,``きつね色になるまで焼きます''という手順中では,焼く対象である「チーズを挟んだちくわ」が省略されている.これらの省略のため,本研究の予備実験では元のTwobranchnetworksでは高い性能を得ることができなかった.この問題を解決するために,biLSTMを手順側に挿入することで,写真に対応する手順だけではなく,前の手順全体と後の手順全体も考慮することができるように変更を加える.これにより,省略された物体や,代名詞で表現される物体名を前後の手順から情報として加えることができるようになり,性能悪化を防ぐことができるようになる.入力の写真を$\Bdma{x}$,$M$個の手順からなる手順列を$\Bdma{Z}=(\Bdma{z}_1,\Bdma{z}_2,\ldots,\Bdma{z}_m,\ldots,\Bdma{z}_M)$と置き,この変更を以下のように数式を用いて表現する.写真$\Bdma{x}$を畳み込みニューラルネットワーク(CNN)に入力して得られた特徴ベクトルを$\dot{\Bdma{x}}$,各手順中の各単語をあらかじめ訓練データのレシピ全体で学習しておいたword2vec\cite{word2vec}で分散表現に変換し,その平均ベクトルを手順の特徴ベクトル$\dot{\Bdma{z}}_m$とする.Twobranchnetworksの写真側,手順側のニューラルネットワークをそれぞれ$f,g$と置くと,写真,手順の共通潜在空間での埋め込みベクトル$\hat{\Bdma{x}},\hat{\Bdma{z}}$は以下のように表される.\begin{align}\dot{\Bdma{x}}&={\rmCNN}(\Bdma{x})\\\hat{\Bdma{x}}&=f(\dot{\Bdma{x}})\\\ddot{\Bdma{z}}_m&={\rmbiLSTM}_1(\dot{\Bdma{z}}_1,\dot{\Bdma{z}}_2,\ldots,\dot{\Bdma{z}}_m,\ldots,\dot{\Bdma{z}}_M)\\\hat{\Bdma{z}}&=g(\ddot{\Bdma{z}}_m)\end{align}ここで,${\rmCNN(\cdot)}$は図中のCNNに対応し,${\rmbiLSTM}_1(\cdot)$は追加したbiLSTMである図中の${\rmbiLSTM}_1$に対応する.また,$\ddot{\Bdma{z}}_m$はbiLSTM$_1$の$m$番目の出力ベクトルを表す.得られたベクトル$\hat{\Bdma{x}},\hat{\Bdma{z}}$を用いて,Twobranchnetworksの損失関数として提案されている,構造を保ったTripletmarginloss\cite{balntas2016bmvc}を損失関数として最適化するようにbiLSTM$_1$,$f$,$g$,CNNの重みを更新する.この時,word2vecの重みのみ固定して学習する.また,Twobranchnetworksと同様に距離関数として余弦距離を用いた.学習後,以下のレシピ生成においてはこれらの重みを固定して利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{レシピ生成}入力の写真列を$\Bdma{V}=(\Bdma{v}_1,\Bdma{v}_2,\ldots,\Bdma{v}_n,\ldots,\Bdma{v}_N)$,出力の手順列を$\Bdma{Y}=(\Bdma{y}_1,\Bdma{y}_2,\ldots,\Bdma{y}_n,\ldots,\Bdma{y}_N)$とする.$n$番目の写真$\Bdma{v}_n$をCNNへ入力して特徴ベクトル$\dot{\Bdma{v}}_n$へ変換し,さらにそれをTwobranchnetworksの写真側のニューラルネットワークに入力する.こうすることで,共有潜在空間上の写真の埋め込みベクトルを得ることができる.共有潜在空間上の写真の埋め込みベクトル$\hat{\Bdma{v}}_n$は対応する手順との距離が近くなるように学習されているため,重要語を過不足なく含む表現の情報を考慮したベクトルを得ることが期待できる.この処理は${\rmCNN}(\cdot),f$を用いて以下のように表される.\begin{align}\dot{\Bdma{v}}_n&={\rmCNN}(\Bdma{v}_n)\\\hat{\Bdma{v}}_n&=f(\dot{\Bdma{v}}_n)\end{align}得られた写真列の各埋め込みベクトルを用いて,(ii)から(iv)の手続きで手順を生成する.以下に,それぞれのプロセスの詳細を述べる.\noindent\textbf{(ii)共有潜在空間上の手順ベクトルの検索}:写真の埋め込みベクトル$\hat{\Bdma{v}}_n$をもとに,その近傍の手順ベクトルを$K$個,共有潜在空間の学習に利用したデータセットから検索する.得られた$K$個のベクトルを,$R=(\Bdma{r}_1,\Bdma{r}_2,\ldots,\Bdma{r}_K)$とする.手順ベクトルの平均ベクトル$\bar{\Bdma{r}}_n$は以下のように計算される.\begin{equation}\bar{\Bdma{r}}_n=\frac{1}{K}\sum_{k=1}^{K}\Bdma{r}_k\end{equation}最後に,得られた手順ベクトルの平均ベクトルと,写真の埋め込みベクトルを結合する.こうして得られるベクトルを,$\Bdma{u}_n=(\hat{\Bdma{v}}_n,\bar{\Bdma{r}}_n)$と書く.\noindent\textbf{(iii)入力の中間表現への変換}:写真列の時系列の情報を考慮するために,(ii)で各写真ごとに得られたベクトル$\Bdma{u}_n$を写真列のエンコーダに入力する.ここで,前の手順だけでなく後ろの手順も考慮するために,エンコーダにはbiLSTMを用いる.\begin{equation}\Bdma{o}_n={\rmbiLSTM}_2(\Bdma{u}_1,\Bdma{u}_2,\ldots,\Bdma{u}_n,\ldots,\Bdma{u}_N)\end{equation}ここで,${\rmbiLSTM}_2(\cdot)$は写真列のエンコーダのbiLSTMである,図中の${\rmbiLSTM}_2$に対応する.\noindent\textbf{(iv)手順の生成}:LSTMをデコーダとして用いる.(iii)で得られた$\Bdma{o}_n$を入力として,手順の開始記号($\langle$step$\rangle$)から終端記号($\langle$/step$\rangle$)が生成されるまで,単語を一つ一つ出力し,手順を生成する.単語を出力する際に,検索した$K$個の手順ベクトルを参照しながら単語を選択するために,Luongらの注意機構\cite{attention}をモデルに組み込む.注意機構を用いることで,各手順ベクトルから必要な情報を参照しながら単語を選択できるため,より重要語を過不足なく含む表現を生成しやすくなると期待できる.手順ベクトル$\Bdma{r}_k$と,デコーダの隠れ層$\Bdma{h}$の間での注意機構の重みを計算するために,Luongらの注意機構の中からgeneralattentionを用いる.手順の$t$番目の単語を出力する時の隠れ層のベクトル$\Bdma{h}_t$と,検索された手順ベクトル$R$から計算される$k$個目の手順ベクトルへの注意機構の重み$a_t^k$,文脈ベクトル$\Bdma{c}_t$,それらから得られる注意ベクトル$\tilde{\Bdma{h}}_t$は,以下のように書くことができる.\begin{align}a_t^k&=\frac{\exp{(\Bdma{r}_k^{\RepMathA{T}}\Bdma{W}_a\Bdma{h}_t)}}{\sum_{j=1}^{K}\exp{(\Bdma{r}_j^{\RepMathA{T}}\Bdma{W}_a\Bdma{h}_t)}}\\\Bdma{c}_t&=\sum_{k=1}^{K}a_t^k\Bdma{r}_k\\\tilde{\Bdma{h}}_t&=\tanh(\Bdma{W}_c(\Bdma{c}_t,\Bdma{h}_t))\end{align}ここで,$\Bdma{W}_a$と$\Bdma{W}_c$は学習によって得られる重み行列である.これらの式より,出力単語の条件付き確率分布$p(y_t|y_{<t},\Bdma{o}_n)$はソフトマックス関数を用いて以下のように書くことができる.\begin{equation}p(y_t^n|y_{<t}^n,\Bdma{o}_n)={\rmsoftmax}(\Bdma{W}_o\tilde{\Bdma{h}}_t+\Bdma{b}_o)\end{equation}ここで,$\Bdma{W}_o$は注意ベクトル$\tilde{\Bdma{h}}_t$を語彙サイズのベクトルへ変換する重み行列であり,$\Bdma{b}_o$はバイアスを表す.推論する際には,条件付き確率分布の中で最も確率が高い単語を語彙から選択し,出力する.また,1つの手順を出力した後,デコーダの最後の隠れ層は次の手順を生成する時の最初の隠れ層として設定される.\\{\bf損失関数の計算:}学習を行うときは,写真列$\Bdma{V}$と手順列$\Bdma{Y}$の対の集合である訓練データ$\mathcal{D}$に対して,以下の負の対数尤度の合計が最小になるように学習を行う.\begin{equation}\Lagr(\Bdma{\theta})=-\sum_{(\Bdma{V},\Bdma{Y})\in\mathcal{D}}\sum_{n=1}^{N}\log{p(\Bdma{y}_n|\Bdma{v}_n;\Bdma{\theta})}\end{equation}ここで,$\Bdma{\theta}$はbiLSTM$_2$,$\Bdma{W}_a$,$\Bdma{W}_c$,$\Bdma{W}_o$,$\Bdma{b}_o$,LSTMの重みを表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}実験で利用するデータセットは,CookpadImageDataset\cite{harashima}である.CookpadImageDatasetは,Cookpadのユーザによって投稿された日本語のレシピと,レシピの完成写真,また,レシピの各手順に対して付与された写真からなるデータセットである.このデータセットから全ての手順に写真がアップロードされているものだけを対象に抽出した\footnote{CookpadImageDatasetは約310万の写真と手順からなるデータセットである.しかし,手順の中には写真がアップロードされていないものもある.}.その結果,約20万のレシピを得ることができた\footnote{データセットのCookpadImageDatasetとの対応は\url{http://www.ar.media.kyoto-u.ac.jp/member/nishimura/recipe_ids.html}からダウンロードできる.}.得られたレシピを学習:検証:評価に8:1:1で分割し,以下のようにデータセット中の全ての写真,レシピそれぞれに前処理を行い,共有潜在空間とレシピ生成を同じ分割単位で学習し評価した.写真の前処理として,CNNに入力するために写真の縦と横の長さで大きい方が256になるようにアスペクト比を保ったままサイズを変換した後,写真の中央からサイズが224$\times$224になるように切り抜いた.レシピの前処理として,KyTea\cite{neubig2011acl}を用いて単語分割を行った.この分割結果に対し,訓練データで出現頻度数が3回以下の単語は未知語とした.以下のレシピの生成においては,KyTeaによって得られた単語の分割単位で生成を行う.表\ref{tab:statistical_details}にデータセットの統計情報を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{データセットの統計結果}\label{tab:statistical_details}\input{05table01.tex}\vspace{4pt}\small手順あたりの文数はGiNZA(\protect\url{https://megagonlabs.github.io/ginza/})を用いて分割を行った結果をもとに数えている.なお,文数0は手順が空白のみの場合を表す.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{詳細設定}共有潜在空間への写真側のエンコーダとして,ImageNet\cite{ImageNet}で学習済みのResNet-50\cite{ResNet50}を用いた.ResNet-50の最終層のソフトマックス層を取り除いたため,写真側の出力の次元数は2,048である.共有潜在空間でのテキスト側のエンコーダのbiLSTM$_1$の隠れ層の次元数は1,024としたため,出力の次元数は双方向の出力ベクトルを結合し,2,048次元となる.学習手順はTwobranchnetworksと同じく,バッチサイズは1,500にし,ネガティブサンプリングの際にはミニバッチ内で最も損失関数の値が大きい50サンプルのみから損失関数を計算し,共有潜在空間の学習を行った\cite{wang2017learning}.文生成のモデルでは,隠れ層の次元数をエンコーダとデコーダ共に512に設定した.学習時には,共有潜在空間の重みは固定し,その他の重みはAdam\cite{Adam}を用いて最適化を行った.なお,バッチサイズは64とし,Adamの初期値は$\alpha=0.001,\beta_{1}=0.9,\beta_{2}=0.99$として設定した.毎エポックの終わりに検証用データセットで負の対数尤度を計算し,3エポック連続で負の対数尤度が下がらなかった場合に学習を停止した.また,検索する入力写真の近傍の手順ベクトル数は$K=10$とした.これらのハイパーパラメータは,検証用データセットを用いて決定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}\label{sec:result}提案手法を評価するために,以下の4点を評価した.\begin{enumerate}\renewcommand{\labelenumi}{(\roman{enumi})}\item{\bf共有潜在空間へのbiLSTM$_1$の影響}:前後の手順を考慮することによる共有潜在空間の性能の変化を検索課題として評価した.\item{\bf生成文の自動評価尺度による評価}:生成したレシピと正解のレシピの単語レベルの一致率をBLEU,ROUGE-L,CIDEr-Dを用いて評価した.\item{\bf重要語の性能評価}:生成したレシピは読者が読んで実行できるよう,前後の手順との差分を考慮しながら写真に沿った重要語を過不足なく含む表現を有する手順を生成しなければならない.そのため,参照文中の重要語をモデルが正しく言及できたかどうかを評価した.\item{\bf定性的評価}:実際に写真列から生成したレシピの一例を示し,提案手法の有用性を確認した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{共有潜在空間へのbiLSTM$_1$の影響}最初に,TwobranchnetworksへbiLSTM$_1$を追加したことによる影響を以下のように評価して確認した.まず,Twobranchnetworksやim2recipe\cite{im2recipe}といった複数の従来手法が慣例的に評価データの数を1,000程度としているため,これに習う形で,ランダムにテストセットから1,000個の写真と対応する手順のペアを取り出した.次に,写真を入力とした時には,手順集合を余弦類似度の降順にソートし,写真のペアとなる手順が現れる順位の中央値(MedR)と,写真のペアとなる手順が上位{\itk}番目以内に現れる割合(Recall@{\itk})を計算した.なお,手順を入力にした際にも,同様の基準で評価した.この結果を表\ref{tab:impact_on_biLSTM}に示す.この結果から,biLSTM$_1$がないオリジナルのTwobranchnetworksに比べ,大きく性能が向上していることがわかる.よって,biLSTM$_1$を追加したことによってモデルが手順間の文脈を参照することができるようになったため,性能を改善することができたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{TwobranchnetworksへbiLSTM$_1$を追加したときの共有潜在空間の検索性能の変化}\label{tab:impact_on_biLSTM}\input{05table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{自動評価尺度による生成したレシピの評価結果}\label{tab:quantitative_results}\input{05table03.tex}\\[4pt]\small実験では,$K=10$として設定した.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{定量的評価}提案手法を評価するために,評価データの全てのレシピを用いて文生成の自動評価尺度であるBLEU1,BLEU4,ROUGE-L,CIDEr-Dを評価した.この時,生成したレシピと正解のレシピの間で手順同士で評価したのではなく,レシピ同士で評価した.また,評価に用いる単語の分割単位はKyTeaで処理して得られた単語の分割単位で評価した.検索課題として取り組まれてきた手法を文生成の手法に組み込んだことによる性能の変化を見るため,Visualstorytelling\cite{visualstorytelling}で挙げられている,写真列をエンコーダのbiLSTMへ入力し,デコーダのLSTMで出力するニューラルネットワークをベースラインとした.加えて,レシピに付与した材料やタイトルの各単語をword2vec\cite{word2vec}を用いて分散表現に変換し,その平均ベクトルを写真列のResNet-50の出力ベクトルと結合し,エンコーダへの入力に加えたベースラインも用意した(表\ref{tab:quantitative_results}中の「写真列+タイトル」および「写真列+タイトル+材料」).なお,表\ref{tab:quantitative_results}中の提案手法の「写真の埋め込みベクトル」とベースラインの「写真列」の違いは共有潜在空間を利用するか否かが異なる.前者では,共有潜在空間中の写真のベクトルを用いているのに対し,後者ではResNet-50の出力ベクトルをそのまま利用している.また,提案手法においてはモデルが入力写真をもとに手順ベクトルの検索を行うが,この検索先となる手順ベクトルは訓練データのものとした.表\ref{tab:quantitative_results}に評価結果を示す.この結果により,提案手法が全ての指標でベースラインと比較して性能が向上したことを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{重要語生成の性能評価}前節で測定したBLEU,ROUGE-L,CIDEr-Dのような自動評価尺度に加えて,正解のレシピの重要語が,生成したレシピ中に正確に現れる割合を評価し,提案手法が写真に適した重要語を生成しているかどうかを評価した.この時,正解のレシピを比較対象としている.レシピにおいて物体名を省略することが頻繁に行われる理由として,手順の説明においては,前の状態からの差分にしか言及しないためであると考えられ,同様の理由から,前の状態との差分として言及すべき重要語が決定する.そのため,実際のレシピで言及されている重要語は状態の差分を反映しており,これが過不足なく言及されているかどうかを通して,レシピ文としての質を評価できる.料理ドメインにおいては,レシピフローグラフコーパス\cite{flowgraph}によると,食材(F),道具(T),調理者の動作(Ac)の3つがレシピ中に統計的に多く出現することが確認されている.よって,これらのカテゴリに属す単語を重要語とし,生成したレシピと正解のレシピに現れる重要語リストから以下のように計算される適合率,再現率,F値を測定することで,重要語生成の性能を評価した.\begin{align}再現率&=\frac{正解の重要語数}{参照文中のレシピに現れる重要語数}\\適合率&=\frac{正解の重要語数}{生成したレシピに現れる重要語数}\\F値&=\left(\frac{再現率^{-1}+適合率^{-1}}{2}\right)^{-1}\end{align}しかしながら,この評価は同義語や表記揺れの問題から,自動的に計算することができない.そのため,レシピを50個ランダムで評価データから抽出し,手動で同義語と表記揺れのみを修正し,笹田らの研究で定義されている基準\cite{sasada2015nlp}を参考に単語中からF,T,Acに限ってタグを割り当て,重要語生成の性能を評価した\footnote{重要語のアノテーションの結果,アノテーションした重要語の数は合計でそれぞれFは288,Tは85,Acは347得られた.これらのアノテーション結果は\url{http://www.ar.media.kyoto-u.ac.jp/member/nishimura/annotation.html}からダウンロードできる.}.表\ref{tab:ingredient_use}にその結果を示す.なお,表中のベースラインは表\ref{tab:quantitative_results}中の「写真列+タイトル+材料」を,Top1は提案手法の項目の,biLSTM$_1$(あり)の「写真への埋め込みベクトル+Top1の手順ベクトル」を,Top$K$は,提案手法の項目の,biLSTM$_1$(あり)の「写真への埋め込みベクトル+Top$K$の手順ベクトル」を表す.また,検索する手順ベクトル数$K$は10である.この表より,Top1の手法は明確にベースラインの結果を上回り,またTop$K$はさらにそのTop1を上回るという結果となった.よって,提案手法が重要語を正しく生成しながらレシピを生成していると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{重要語生成の性能評価}\label{tab:ingredient_use}\input{05table04.tex}\par\vspace{4pt}\small表中のベースラインは,表\ref{tab:quantitative_results}中の「写真列+タイトル+材料」を示す.\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{定性的評価}図\ref{fig:quantative_results}に入力の写真列と,ベースライン,提案手法によって生成されたレシピ,そして正解のレシピを載せる.この図より,ベースラインは写真に適したレシピを生成することに失敗している一方で,提案手法は写真に適した重要語を過不足なく含む表現を生成しているということが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-2ia5f3.eps}\end{center}\hangcaption{レシピの生成例.太字かつ二重線で書かれた箇所は正しく重要語が生成された箇所であり,下線部付きで書かれた箇所は重要語生成に失敗した箇所である.また,重要語のタグの種類(F(食材),T(道具),Ac(調理者の動作))を左下に付与した.}\label{fig:quantative_results}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{考察}次に,提案手法によって生成されたレシピと,正解のレシピを見比べることによって提案手法が手順を生成することに成功したケースと,生成に失敗したケースをそれぞれ取り上げ,提案手法の長所と短所を定性的に考察を行う.また,提案手法の性能に関わる重要な要素である,共有潜在空間へ検索する手順ベクトルの数$K$や,訓練データ量を変更することによる性能の変化を確認し,提案手法を実現するために必要な手順ベクトル数や訓練データ量を検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{重要語を過不足なく含む表現の生成に成功したケース}注意機構を用いることで,モデルは各単語を出力するときに共有潜在空間から検索した$K$個の手順ベクトルの中から,どの手順を参照して単語を選択するのかを各手順ベクトルに重みを付けて表現することができる.図\ref{fig:good_case}に重要語を過不足なく含む表現の生成に成功した手順,$K$個の入力写真の近傍手順ベクトル,注意機構による手順ベクトルへの重みを可視化したものを示す.提案手法によって重要語を過不足なく含む表現の生成に成功するケースでは,重要語である「たまねぎ(F)」や,「切り(Ac)」,加えて切り方を示す「みじん」と言った重要語を過不足なく含む表現を有する手順ベクトルに対して高い重みが割り当てられている.一方で,検索した手順ベクトル中の,重要語を過不足なく含む表現を生成する上で不要である手順については,低い重みが割り当てられていることが分かる.このことから,注意機構を導入したことによって,モデルは手順ベクトル中から必要な情報を参照しながら重要語を過不足なく含む表現を生成していることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{27-2ia5f4.eps}\end{center}\hangcaption{提案手法が重要語を過不足なく含む表現の生成に成功したケース.重要語である「玉ねぎ(F)」や「切り(Ac)」が現れる手順(図中の手順7,手順10)に高い重みが割り当てられ生成されている.}\label{fig:good_case}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{重要語を過不足なく含む表現の生成に失敗したケース}図\ref{fig:quantative_results}の結果にもあるように,正しく手順を生成できなかったケースも存在する.図\ref{fig:bad_case}に示すような例では,入力した写真で検索して得られた近傍の手順ベクトルに含まれる重要語は「薄揚げ(F)」ではなく,「パン(F)」として得られてしまったため,重要語を過不足なく含む表現を生成することができなかった.このように,入力した写真に近傍の手順ベクトル中に重要語を過不足なく含む表現が存在しない場合は,モデルが手順を正しく生成することは難しいと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{27-2ia5f5.eps}\end{center}\hangcaption{提案手法が重要語を過不足なく含む表現の生成に失敗したケース.入力画像で検索した時に得られた手順ベクトルが「食パン(F)」と得られ,正しく「薄揚げ(F)」を得られなかった.}\label{fig:bad_case}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{検索した手順ベクトル数$K$を変化させた時の自動評価尺度の結果}\label{tab:k_transition}\input{05table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{検索手順ベクトル数$K$を変更した時の性能の変化}検索する手順ベクトル数$K$を変更して学習し,評価することによって,必要な手順ベクトル数$K$を考察する.表\ref{tab:k_transition}に検索手順ベクトル数$K$を変更した時の,生成文の自動評価尺度の変化を示す.なお,表中の$K>1$の場合は注意機構がモデルに組み込まれているが,$K=1$の場合,注意機構はモデルに組み込まれていない.この実験の結果,$K=25$の場合にBLEU1,BLEU4,ROUGE-Lで最も高い性能を示し,$K=10$の場合にCIDEr-Dで最も高い性能を示した.注意機構がモデルに組み込まれている時,$K$が5から25までの間は,$K$を大きくするにつれて性能が全体的に上昇する傾向にあることが分かる.一方で,$K$が25を超えた$K=50,K=100$のモデルにおいては,$K=25$のモデルと比べて低い性能を示している.このことから,$K$の数を小さく設定すると,写真に適した重要語を過不足なく含む表現を有する手順ベクトルの検索に失敗し,性能が低くなるが,一方で,$K$の数を大きく設定すると,写真に適した重要語を過不足なく含む表現を有する手順ベクトルの他に写真に適さない手順ベクトルも手順生成に用いることとなる.そのため,モデルの性能が低下したものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{27-2ia5f6.eps}\end{center}\caption{訓練データ量を変更した時の性能の変化.}\label{fig:transiton_of_training_size}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{訓練データ量を変更した時の性能の変化}モデルが入力写真をもとに手順ベクトルを検索する時,訓練データの中から検索を行う.そのため,学習に利用した訓練データ量は,モデルの性能を決める重要な要素であると言える.よって以下では訓練データ量を変更して学習し評価することによって,モデルが性能を発揮する上で必要なデータ量を考察する.図\ref{fig:transiton_of_training_size}に,訓練データ量を20\%,40\%,60\%,80\%,100\%の割合で変更した時の,生成文の自動評価尺度の変化を示す.また,この実験においては検索する手順ベクトル数$K=10$として実験を行った.この実験の結果,以下の点が明らかになった.\begin{enumerate}\renewcommand{\labelenumi}{(\roman{enumi})}\itemBLEU4においては,ほぼ横ばいであるが訓練データ量の割合が20\%から80\%にかけて上昇し,100\%で80\%の結果と横ばいとなった.\itemBLEU1,ROUGE-L,CIDEr-Dにおいては,訓練データ量の割合が80\%の時にBLEU1,ROUGE-Lが最も高い性能を示した.また,CIDEr-Dに関しては40\%の時に最も高い性能を示した.\end{enumerate}以上の結果より,80\%の訓練データ量で学習した時,BLEU1,BLEU4,ROUGE-Lで最も高い性能を示した.CIDEr-Dにおいては40\%の時に最も高い性能を示したが,80\%の時との差は0.2ポイント(80\%:20.5,40\%:20.7)であり,差は小さい.よって,全体のデータ量の内80\%以上の訓練データ量を用いることで提案手法の性能を発揮することができると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本論文では,写真付きレシピの作成を支援するために,写真列からレシピを生成する課題を提案する.この課題では,生成したレシピは読者が読んで実行できるように重要語を過不足なく含む表現を正しく言及されていなければならない.これを達成するために,本論文では共有潜在空間モデルを文生成モデルに組み合わせる手法を提案する.従来の共有潜在空間モデルは一般的なドメインにおける写真と説明文を対象としていた.しかし,レシピにおいて,前後の手順の文脈に応じて言及すべき語が決まるため,前後の手順を考慮せずに写真と手順を1:1で学習する既存手法では高い性能を発揮できなかった.これを解決するために,前後の手順を考慮できるように既存の共有潜在空間モデルへ工夫を加える.こうして得られたモデルに写真を入力した時,近傍の手順は重要語を過不足なく含む表現の情報を有すると期待でき,また各入力写真に対応する共有潜在空間上の埋め込みベクトルは重要語を過不足なく含む表現が強調されたものとなることが期待できる.よって,この写真の埋め込みベクトルと,その空間中での近傍点を利用しながら文生成を行うことで,重要語を過不足なく含む表現を生成する手法を提案する.本手法を実装し,日本語のレシピを対象に評価実験を行った.その結果,提案した共有潜在空間モデルは既存のモデルと比較して高い検索性能を得られた.また,レシピ生成の点においても,提案手法はBLEU,ROUGE-L,CIDEr-Dといった生成文の自動評価尺度だけでなく,重要語を正しく生成できているかを測定した重要語生成の評価もVisualstorytellingの標準的なベースラインを上回ることを実験的に確認した.そして,提案手法は写真に適した重要語を過不足なく含む表現を正しく生成していることを実例により確認した.考察では,重要語生成に成功したケースと失敗したケースを見比べることで,提案手法の長所と短所を明らかにした.さらに,提案手法が性能を発揮する上で必要な要素である,検索する手順ベクトル数$K$や訓練データ量を変更した時の性能の変化を示し,必要な手順ベクトル数や訓練データ量を検証した.以上の実験と考察の結果,本論文の提案手法を用いて写真列に適したレシピを得ることができていることを実験的に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はクックパッド株式会社の協力の下に行われたものである.よってここに感謝の意を表する.本論文の内容の一部は,The12thInternationalConferenceonNaturalLanguageGeneration(INLG19)で発表したものである\cite{nishimura2019inlg}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{西村太一}{2019年九州大学芸術工学部卒業.京都大学大学院情報学研究科修士課程在籍中.マルチメディア,自然言語処理の研究を手掛ける.2019年The11thWorkshoponMultimediaforCookingandEatingActivitiesにて,BestPaperAwardを受賞.}\bioauthor{橋本敦史}{2005年京都大学工学部情報学科卒業.2006年経産省VulcanusinEuropeプログラム国費奨学生.2013年京大大学院情報学研究科にて博士(情報学)取得.現在オムロンサイニックエックス株式会社研究員.主に,料理や組立作業を対象として,未来予測に基づく人と機械のインタラクションに関する研究などに従事.IEEE,IEICE,IPSJ各会員.}\bioauthor{森信介}{1993年京都大学工学部電気工学第二学科卒業,1995年京都大学大学院工学研究科電気工学第二専攻修士課程修了,1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授.2016年同教授.現在に至る.計算言語学ならびに自然言語処理の研究に従事.工学博士.1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.言語処理学会,情報処理学会,日本データベース学会各会員.}\end{biography}\biodate\end{document}
V06N05-05
\section{はじめに} \label{sec:hajimeni}人間の翻訳作業を支援するシステムは,電子単語辞書から機械翻訳システムまでいろいろ提案されており関連する研究も多い\cite{MT97}.著者らはこの中の用例提示型の翻訳支援システムの研究を行っている.このシステムは一般的に巨大な対訳用例データベースと検索システムから構成される.このシステムに対して利用者は「翻訳がわからない」と思う表現を入力する.するとシステムは入力に一致した表現,あるいは類似した表現をデータベース中で検索してその翻訳例を提示する.利用者は提示された翻訳例を参考に翻訳を作成する.機械翻訳システムと違ってこの場合の翻訳の主体は利用者にあり,システムは利用者に参考となる情報を提示するだけである.このように利用者主体の翻訳作業を支援する考え方はKay\cite{Kay97}によって1980年に提案されている.この文献では電子化辞書を使った支援を提案しているが,対訳用例を使う翻訳支援もこの考えを基本的に踏襲したものである.また実際に対訳用例を使って日英翻訳支援システムを作成した例としては\cite{Naka89,Sumi91}等の先駆的なシステムがある.さらに最近では商用システムもいくつか販売されている.著者らは上記一連の研究と同一の考えに基づいて,日本語ニュースの英訳支援のためのシステムを開発している.このシステムには二つの特徴がある.一つは利用する日英用例の対応付けの粒度である.従来の研究では,表現の対応を集めた日英表現翻訳辞書や文間の対応付けを行ったデータベースなど詳細な単位で対応のとれたデータベースを利用することが多かった.これらに対して著者らのデータベースは記事という大きな単位での対応はとれているが,それより細かな対応はとれていない.これは日本語ニュース記事を英訳する場合に,英語視聴者の背景知識や興味に合わせて大きく意訳することがあるためである.極端な場合は日本語ニュースを参考にして英文ニュースを新たに作成する場合もある.このため入力の検索結果に対応する翻訳部分を提示するには,日英表現の自動的な照合が必要になる.そしてこの場合に表現が照合しないことも前提にしなくてはならない.第二点は「意訳の支援」である.従来,用例提示型のシステムはマニュアル翻訳のような定型的な翻訳に応用する場合が多かった.たしかにニュース翻訳の場合でも「株価」「天気予報」「新車販売台数月例報告」などの項目はほぼ定型的な文から成り立っており,これらを有効に支援できると思われる.しかし著者らは本システムで意訳を積極的に支援したいと考えている.なぜなら意訳こそニュース翻訳の難しい部分であり,また用例によって有効に支援できると考えるからである.例えば日本語の短い言い回し「いかがなものか」は本稿のデータベース中だけでも過去10通り程度に訳されている.同様に同じ単語や似たような文が文脈によってどのように意訳されているかを観察すれば,意訳のための知識を効果的に学ぶことができると考える.意訳であろうと定型的な翻訳を支援する場合であろうと,表現を検索する部分には同じ手法を利用できる.しかし,結果の表示には異なった配慮が必要である.定型的な翻訳であれば入力に対応する翻訳例を一つ示せば十分である.しかし意訳を支援するにはできるだけたくさんの翻訳例を文脈付きで利用者に提示する必要がある.このため著者らのシステムは検索速度を重視している.またどのような長さの入力であっても出力は日本語と英語の記事を提示した上で,対応個所を強調して表示している.本稿は上記のシステム中の検索部分を対象としている.著者らは一文字から一記事までの範囲を入力として類似検索ができるシステムを研究している.これは意訳が単語や短い表現から文や記事までの広い範囲で行われるためである.実際には一文字から一文までを対象にした検索システムと記事を対象にした検索システムの二つを作成した.本稿はこのうちの一文までの表現を対象として類似用例を検索する手法について報告する.著者らはこの検索を頑健で柔軟かつ高速に行うためキーワードのAND検索を基本的な手法として採用した.すなわち,入力を形態素解析してあらかじめ指定している品詞のキーワードを抽出してAND検索を行う手法である.しかし単純なAND検索を行うと不適切な結果を多数表示することが判明した.そこで著者らはAND検索に語順と「変位」と呼ぶ制限を加えることを提案する.これは表層的な情報を利用してAND検索に構文的な情報を反映させようという試みである.この手法は構文解析を利用していないため速度と頑健性に優れている.以下,本稿の構成を示す.まず~\ref{sec:gaiyou}~章で著者らの用例提示型翻訳支援システムの概要を説明して,この中の類似用例検索部分の設計方針を示す.\ref{sec:mondai}~章では類似用例検索にキーワードによるAND検索を利用した場合に起こる問題を示す.続く~\ref{sec:algo}~章ではAND検索に語順と変位を使う手法を提案する.またこの手法を使った検索手順をアルゴリズムの形で示す.そして~\ref{sec:jikken}~章で約160万用例からなるデータベースを使った検索実験を報告する.ここでは検索時間と,検索結果の主観的な満足度などを報告し,提案手法はAND検索にくらべてわずかに検索時間が増加するものの(約1.3倍)利用者の満足度は統計的に有意に優れていたことを示す.次に~\ref{sec:kanren}~章では関連研究を紹介して本研究との比較を行い最後に~\ref{sec:ketsuron}~章で本稿のまとめを行う. \section{用例提示システムの概要} \label{sec:gaiyou}\subsection{構成}用例提示システムは下記の部分から構成されている.\begin{itemize}\item日本語と英語の2言語ニュース記事データベース\item日本語類似用例検索システム\item検索結果の表示システム\end{itemize}このシステムは次のような形で利用する.まず英訳したい日本語ニュース記事がある.この中で翻訳を調査したい表現があればこれをシステムに入力する.このとき利用者は表現を編集せず,カットアンドペーストで入力することを想定している.システムは入力に一致する表現,あるいは最も近い表現を日本語記事データベースで検索する.結果は日本語,英語とも記事を表示単位として,日本語の検索結果を含む文とそれに対応する英文を強調して表示する.記事を単位として表示するのは,文脈を利用者に提供することが重要だと考えるからである.ユーザは提示された過去の翻訳例を参照して自分の翻訳を作成する.もし結果に満足できなければ次の検索結果をシステムに要求する.\vspace{-3mm}\subsection{データベース}\label{sec:database}\vspace{-1mm}2言語記事データベースはNHKの日本語ニュース記事とその人手による英訳を1995年3月から1997年2月までの期間蓄積して作成したものである.表~\ref{tab:database}~に本稿のシステムで使った日本語記事データベースの大きさを示す\footnote{表~\ref{tab:database}~中の文の数は,記事内容を表す文と,記事の作成者,タイトルといった付加情報を表す文を合わせた数である.検索ではこれらすべてを対象としている.記事内容を表す文は446,444件(76MB)である.}.また,英語の部分もほぼ同じ規模である.英語のニュース記事は日本語の記事全体を元にして作成しており,日本語文の単純な直訳を集めたものではない.これは英語視聴者の視点に立った分かりやすいニュースを作成するために意訳が求められるからである.このため文間の対応関係を単純に求めることは難しい.そこで\cite{Kuma97}で提案された手法を使って対応付けを実施した.さらに任意の日本語文字列を高速に検索できるように日本語データベースに対してポインタ表現の部分列インデックスを作成した\cite{Naga96}.このインデックスにより,任意長の入力文字列の出現位置を漏らさず高速に求めることができる.この時,どの記事のどの文に出現したかもわかるようにインデックスを作成している.\begin{table}\begin{center}\caption{日本語部分のデータベースの規模}\begin{tabular}{l|r}\hline\hline記事数&94,830件\\文の数&1,615,119件\\バイト数&104MB\\\hline\end{tabular}\label{tab:database}\end{center}\end{table}\subsection{検索部分の設計方針}\label{sec:houshin}\ref{sec:hajimeni}~章で述べたように著者らはこのシステムを使って定型的な翻訳だけでなく意訳を支援したいと考えている.この目標はシステムの想定利用者であるニュース翻訳者への面接調査を行って設定した.翻訳者は日本語,英語とも基本的に堪能である.しかし経験によってはニュース翻訳の知識が十分でない場合がある.面接調査によると,「固有名詞」や「複合語」などの主に定型的翻訳を行う表現と,単語,表現,文,記事のさまざまな段階で必要になる意訳を支援してほしいという要求があった.定型的翻訳,意訳とも多種類の表現が対象になる.そこで著者らのシステムではさまざまな長さの入力に対して検索できるようにした.具体的には一文字から一文までを入力対象にした検索システムと記事を入力対象にした検索システムの二つを作成した.日本語ニュース記事は5文程度からなっており段落がない.そこで実用上はこの分類で十分と考えたからである.本稿はこのうちの一文までの文字列を入力として類似用例を検索する手法について報告する\footnote{記事を入力とした検索および閲覧システムに付いては\cite{Tan97a,Tan97b,Tan99a}を参照されたい.}.なお本稿ではこの検索システムを表現検索システムと呼ぶ.表現検索システムには次の2種類の検索機能がある.\begin{itemize}\vspace{-0.25mm}\item完全一致検索\\\vspace{-0.25mm}\hspace*{-3pt}一文までの範囲の文字列を入力してこれに完全に一致する表現の出現位置を~\ref{sec:database}~節のインデックスを参照して漏らさず求める.この結果,これを含む記事と文とその中の位置を特定することができる.長い入力に対しては結果が得られない可能性が高いが,慣用的な表現を検索するのに有効である\vspace{-0.25mm}\item類似検索\\\vspace{-0.25mm}\hspace*{-3pt}入力文字列を形態素解析して自立語を抽出しこれをキーワードとする\footnote{このとき活用する自立語は活用形に展開し,さらに間違ったキーワードを検索しないように接続し得る機能語を付与した展開を行う.\ref{sec:jissou}~節参照.}.データベース中\breakの日本語の各文を対象にキーワードをなるべく多く含む文を検索する.すなわち入力表現と用例文の類似性は共有するキーワードの数で評価する.キーワードの出現位置は上記の完全一致検索を利用することで高速かつ完全に求めることができる.キーワードの組み合わせによる検索もあとで述べるように高速に実現できる.なお類似検索は一文を検索対象とするため,以後,一文と用例を同じ意味で使用する\end{itemize}類似検索は次のような手順で実行する.また具体例は図~\ref{fig:nagare}に示す.\begin{enumerate}\item最初はすべてのキーワードを含んだ用例を検索する.成功すればそれらを表示する.\itemもし,検索に失敗するか,成功しても利用者がさらに検索を要求した場合にはキーワード数を一つ減らして検索を続ける.この時一度表示した用例は検索の対象としない.なぜなら同じ用例を提示しても利用者は新たな情報を得られないからである.\end{enumerate}このようにキーワード数の条件を利用者の指示で徐々に緩和して検索を実行する.条件を緩和する場合にはキーワードすべてが同じ重要性を持つと仮定して,任意のキーワードが一つなくなった条件で検索を行う.ここで提案した検索は特殊な処理を想定していないため頑健である.またキーワードの選択方法,キーワードの緩和方法を変えることでさまざまな検索を実現できるため柔軟性も高い.このため将来の拡張も比較的簡単である.また高速なため,満足な解が得られない場合は何度でも検索できる.さらに類似検索の結果を提示する場合も根拠としてキーワードを提示できるため直感的な理解が容易になる.なお,完全一致検索はポインタ表現の部分列インデックスを参照することでそのまま実現できるので以降では類似検索部分のみ議論する.\begin{figure}\begin{center}\epsfile{file=98.eps,height=10cm}\caption{類似検索概念図}\label{fig:nagare}\end{center}\end{figure} \section{AND検索の問題点} \label{sec:mondai}\ref{sec:gaiyou}~章で述べた類似検索を実現するにあたり著者らは最初キーワードのAND検索を採用した\cite{Salt83}.すなわち入力キーワードと検索対象中のキーワードの語順の一致を考慮しない手法である.AND検索を採用した理由の1つは高速性である.データベース中での各キーワードの出現位置さえわかれば,これらをAND条件で含む記事を特定するのは容易で高速である.もう1つの理由は\ref{sec:kanren}~章で述べるようにAND検索を採用した用例検索システムが多く提案されており効果的であると報告されていたからである.しかし日本語ニュース原稿を対象にAND検索を使うと問題が発生することが明らかになった.問題の例を示そう.例えば「政府の作業」の類似用例を検索するのに\{政府{\bfand}作業\}で検索すると下記の文をすべて出力する.尚,用例中の照合キーワードを太字で強調している.\smallskip\begin{quote}例1外務省の橋本外務報道官も,きのうの記者会見で,「保証人委員会は一生懸命{\gt作業}をしているが,ペルー{\gt政府}と武装グループが,保証人委員会の努力を受け入れる所まで事態は進んでいない」と述べました.例2この問題に関する自民党の対外経済協力特別委員会が今日午後開かれ,{\gt政府}側は,「中国は去年七月に核実験を行なった後,今後の核実験を凍結すると表明しており,無償資金協力の再開に向けた準備{\gt作業}を進めていきたい.」と述べました.例3また池田外務大臣は,「日本{\gt政府}とペルー{\gt政府}との間は信頼関係が出来ている」と述べ,両国{\gt政府}の間で緊密に連絡を取っていることを明らかにするとともに,今後の日本の役割について「関係国の間で,バラバラの対応にならないよう,国際社会が一致してペルー{\gt政府}の進め方を支えていくことが重要だ.日本{\gt政府}は,事件の解決に向けたペルー\underline{{\gt政府}の{\gt作業}}がうまく運ぶよう,条件を整える努力をしてきており,今後はこうした努力が一層大切になる」と述べました.\end{quote}\smallskip例1には「政府」「作業」というキーワードが一文中に出現している.しかしこの順序が逆転しており,またその間に関連がなく類似用例とは考えられない.例2では2つのキーワードが出現しており語順も入力と同じである.しかし両者に係り受け関係はないため類似用例とは考えられない.例3では「政府」が6個所,「作業」が1個所出現している.この中で,下線部が入力表現と一致しており用例3は類似用例と判断できる.しかしこの用例には「政府」が6個所も出現しているため下線がなければ該当個所を見いだすのは容易ではない.ここで使った入力表現「政府の作業」は短いため,この中に重複するキーワードはない.しかし長い入力表現では同じキーワードが出現する可能性がある.この場合,照合部分を把握するのはさらに困難になる.まとめるとAND検索の問題は例1と例2で示したような不正解文を拾いやすいこと,正解であっても例3のように該当個所を確認しにくいことである.このような問題が発生する主な原因は日本語ニュースの文の平均長が88.9文字\cite{Kuma96}と長いことにある.短い用例を使ったシステムではこのような問題は発生しにくいであろう.これらの問題を解決するには構文解析を利用する手法が考えられる.入力のキーワード間の係り受け関係を認定して,同様の係り受け関係を持つ用例を検索する手法である\cite{Hyou94}.しかし現時点では構文解析器の精度が十分でないためこの手法は採用しにくい.そこで著者らはこれらの問題を構文解析せずに\ref{sec:algo}~章で提案する近似的な手法で解決することにした. \section{提案手法} \label{sec:algo}単純なAND検索手法には\ref{sec:mondai}~章で述べた問題がある.またこれらを解決するのに構文解析を使うことは困難である.そこで著者らはAND検索に語順と変位とよぶ制約を加えた検索手法を考案した.尚,以下ではこの手法をAND+W+D(AND+Wordorder+Deviation)検索とよぶ.この手法は構文解析をせずに,表層の単語のならびと位置情報を使って近似的に構文的な情報を捉えたものである.本章ではAND検索,AND検索に語順を加えた検索(AND+W検索)について説明し,その上で提案手法(AND+W+D検索)を説明する.次にその実装アルゴリズムを説明する.以下では次の入力例を用いて説明を行う.\begin{center}\begin{tabular}{ll}入力表現&**A*B**A*C*\end{tabular}\end{center}ここで``A,B,C''はキーワード,``*''はそれ以外の単語とする.また簡単のためキーワードや単語はすべて一文字とする.\subsection{AND検索}AND検索では次の4つの用例をすべて出力する.ここでは用例中の照合したキーワードを強調表示している.\begin{center}\begin{tabular}{ll}用例1&*\underline{\bfA}**\underline{\bfB}*\underline{\bfC}**\underline{\bfA}**\\用例2&*\underline{\bfAA}*\underline{\bfB}***\underline{\bfC}\\用例3&*\underline{\bfA}**\underline{\bfA}**\underline{\bfB}*\underline{\bfA}**\underline{\bfC}\\用例4&*\underline{\bfA}**\underline{\bfA}*\underline{\bfB}**\underline{\bfA}*\underline{\bfC}\end{tabular}\end{center}これらの用例は順序が違ってもキーワード``A,B,C''を含んでいるので条件を満たす.また4つの用例の間に優先順位はない.用例3と用例4には``A''が3つあるが,この中のどの2つと照合したかを決めることができない\footnote{入力に合わせて2つ``A''を選択するのであれば任意に選択するしかなくあいまいである.}.以上の問題は先に\ref{sec:mondai}~章の例3で具体例で説明した問題と同一である.\subsection{語順を考慮したAND検索}入力と語順が同じ表現はそうでない表現より近いであろう.なぜなら語順はある程度構文の情報を担うからである.そこでAND検索に語順の制約を付加することで類似性の低い不適切な検索結果を減らせると期待できる.例えば上記の例でキーワードの語順を考慮して検索すると用例3と用例4だけが出力される.\ref{sec:mondai}~章の例で言うと,「政府の作業」に対して例2と例3だけに解を絞ったことに相当する.\begin{center}\begin{tabular}{ll}用例3&*\underline{\bfA}**A**\underline{\bfB}*\underline{\bfA}**\underline{\bfC}\\用例4&*\underline{\bfA}**A*\underline{\bfB}**\underline{\bfA}*\underline{\bfC}\end{tabular}\end{center}しかし,語順だけでは不十分な点がある.まず用例3と4には最初にAが2つあるがどちらが照合キーワードなのか決めることができず照合個所を特定できない.また用例の間に優先順位をつけることができない.キーワードの数と語順が同じ用例が検索されたときにその提示の優先順位を決められない問題である.これは大規模なデータベースを対象にした場合に結果を絞り込めない問題につながる.\subsection{語順と変位を考慮したAND検索}\label{sec:teian}著者らは上記の問題を解決するために以下で説明するキーワードの「変位」を使った手法を利用した.まず入力中のキーワード$x_i$の出現位置を与える関数を$org(x_i)$とする.この値は任意のキーワードについて一意に決めることができる.これに対してキーワード$x_i$の用例内での出現位置を与える関数を$pos(x_i)$とする\footnote{$org(x_i),pos(x_i)$は差をとるためデータベース中での絶対位置であっても文毎の相対位置であってもかまわない.以下では文毎の相対位置とする.}.もし$pos(x_i)$の値が決まればキーワード$x_i$を入力と用例で照合できることになる.しかし,現在の例のように用例に同一キーワードが複数出現する場合には一意に照合できない.ここで入力中の$x_i$の右隣のキーワードが$x_{i+1}$であるとする.また用例中にも$x_i$と$x_{i+1}$と同じ2つのキーワードが出現しているとする.ただし用例にはこの2つのキーワードが複数出現しておりキーワードの対応があいまいだとする.この時,次式で定義するキーワード対の変位$dev(x_i,x_{i+1})$が最小になるように$pos(x_i),pos(x_{i+1})$を決めることにする.この基準を使えば変位が同じ場合を除いて一意に照合することができる.\begin{equation}dev(x_i,x_{i+1})=|(org(x_{i+1})-org(x_i))-(pos(x_{i+1})-pos(x_i))|\label{for:dev}\end{equation}(\ref{for:dev})~式は入力のキーワード対の間隔と用例のキーワード対の間隔の差である.これが最も小さくなるように照合するのは,キーワードの間隔が似ている場合には係り受け関係も近い可能性があると考えたからである.例えばこの経験則で~\ref{sec:mondai}~章の例3の「政府の作業」の照合を正しく行うことができる.一般に入力のキーワードが$n(n\ge2)$個ある場合には隣接キーワード対の変位を利用して,その合計が最小になるように照合する\footnote{隣接キーワード一組では必ずしも構文の近さを反映しない場合がある.「政府の作業」と「政府に作業」は係り受けは違うが変位は0である.キーワードが増えて制限が強くなるほど構文的近さの良い近似になる傾向がある.}.\begin{equation}\sum_{i=1}^{n-1}dev(x_i,x_{i+1})\end{equation}現在の例で入力には$\{A,B,A,C\}$というキーワードがある.そこで$dev(A,B)+dev(B,A)+dev(A,C)$が最小となるようキーワードを対応させる.また,この値の小さな順に用例を提示する.この結果は次の通りである.\begin{center}\begin{tabular}{lll}用例4&*A**\underline{\bfA}*\underline{\bfB}**\underline{\bfA}*\underline{\bfC}&変位合計0\\用例3&*A**\underline{\bfA}**\underline{\bfB}*\underline{\bfA}**\underline{\bfC}&変位合計3\end{tabular}\end{center}AND+W検索と同じ用例を検索しているが,照合したキーワードを特定できており,また検索用例に順位がついていることに注意されたい.ここでAND+W+D検索の特徴をまとめる.\begin{itemize}\itemキーワードのあいまい性の解消\\AND+W+D検索はキーワード照合にあいまい性がある場合にそれを解消する能力がある.\ref{sec:mondai}~章の例3の場合では「政府」の照合個所を下線部分に特定できる.この性質は結果を表示する場合に有用である.\item用例の順位付けが可能\\AND+W検索とAND+W+D検索が同じ入力キーワード群で出力する用例集合は上記の例のように常に一致する.違いの一つは用例に優先順位がつく点である.例えば,\ref{sec:mondai}~章の例の例2と例3のキーワード数は2で同じである.しかし例3の変位合計は0であるため1位となり例2は変位が大きいので2位の解となる.\item完全一致検索に近い\\名詞複合語を検索する場合は構成要素の名詞が連続した用例が正解である.AND+W+D検索ではもし入力と同一の複合語があればその変位合計は0となって第1位で出力される.すなわち完全一致検索の機能も包含した検索手法となっている.一方,AND+W検索ではこのような保証はない.この性質は特に名詞複合語の検索が多くなる場合に有利である.\end{itemize}一般的にAND検索は同じ入力キーワード群に対して語順を考慮したAND+W検索とAND+W+D検索より多くの文を検索する傾向がある.ただし,キーワード数を1まで減らして検索できる文の集合はいずれの手法も同じである.すなわちデータベース中の類似用例の正解がどう定義されていても最大限に条件を緩和すれば3手法の再現率は同じことになる.\subsection{アルゴリズムの概要}\label{sec:jissou}類似検索全体のアルゴリズムは~\ref{sec:houshin}~節に示した手順に従っている.すなわち利用者の要求に従ってキーワードの数を一つずつ減らして検索を行う.このとき利用者は途中で検索を打ち切ることが可能である\footnote{実際,キーワード数が一つになるまで条件を緩和することは考えにくい.}.また,用例はキーワードを最大個数含む段階で表示するものとし,それ以後のキーワードを削減した段階では表示しない.ここでは上記を考慮したAND+W+D検索アルゴリズムの概要を説明する.処理の大まかな流れは以下の通りである.\begin{itemize}\item入力表現の形態素解析を行ってキーワードを求める\item用例集合中でのキーワードの出現位置を完全一致検索で求める\itemキーワードが出現している用例についてはノードテーブルを作成する.ノードテーブルは検索に使うデータ構造である\item検索,表示処理のループ.ユーザの要求によって繰り返す\begin{itemize}\item検索処理\item表示処理\end{itemize}\end{itemize}入力表現は形態素解析されて自立語がキーワードとして抽出される.キーワードのうち活用語は活用語尾や「な(い)」「つつ」など接続し得る機能語をすべて付加して展開する.本システムではキーワードの出現位置を文字列検索(完全一致検索)によって求めている.このため活用するキーワードは可能な出現形で検索する必要がある.このとき活用語尾を付加しただけでは間違った品詞のキーワードを検索する場合がある.例えば一段動詞の未然形や連用形の「衰え」を検索すると名詞の「衰え」を検索する恐れがある.このため機能語も付加して検索することで誤検索を防いでいる.ただし,例えば否定の「ない」は「なかっ」「なかろ」「なく」「ない」「なけれ」と活用するが「な」だけを付加する.つまり誤検索を防ぐのに必要十分な機能語部分文字列を付加する戦略を取っている.入力には同じ表層形のキーワードが複数出現する場合があるため,出現順に付番してすべてを区別する.この番号をキーワードidと呼ぶ.ただし展開で得られる派生キーワードは同一のキーワードidとする.全用例集合を対象に各キーワード表層形を完全一致検索によって検索し,それぞれが出現した用例とその中での位置を求める.キーワードが一つ以上出現している用例については,ノードテーブルと呼ぶデータ構造を作成する.前節で使った入力と4つの用例に対応するノードテーブルの例を図~\ref{fig:dousa}~に示す.\begin{figure}\begin{center}\epsfile{file=104.eps,height=10cm}\caption{ノードテーブルと検索結果}\label{fig:dousa}\vspace*{-1mm}\end{center}\end{figure}この図の最上段は入力のキーワードの出現位置を示している.下部の$g_1$から$g_4$に示したノード群が用例1から4に対応するノードテーブルである.このテーブルは入力のキーワードを出現順,つまりキーワードid順に並べ,各idのキーワード表層形の出現位置をノードとして記述している.各ノードは対応するキーワードidで管理されている\footnote{活用する語の場合には同一キーワードidに複数の表層形があり,そのすべての出現位置を同一キーワードid下のノードとする.}.ここで入力中にキーワードが$M$個あるとする.このノードテーブルには次の性質がある.\begin{itemize}\item[(性質1)]用例のノードテーブルに対して任意のノードから右方向でかつ出現位置が増加するような経路を作成したとする.この経路上のノード集合は語順の条件を満たすキーワード集合である.図~\ref{fig:dousa}~の矢印が経路の例である.以後,経路とはこの条件を満たす経路であるとする.任意のノードからの経路を求める場合に,ノードをなるべく多く含んでかつ変位合計が最小となる経路はグラフの最短経路問題として定式化できるので従来のアルゴリズムで高速に求めることができる\footnote{ノード間の辺のスコアは式~(\ref{for:dev})~で定義する変位とする.}.すなわち各ノードを始点とする最適な検索結果を求めることができる.\item[(性質2)]$N$個のキーワードを含む経路はキーワードidが$M-N+1$以下(左)であるノードを開始点とする経路上にしかない.例えば図~\ref{fig:dousa}~においてキーワード数3の経路はキーワードidが1のノードと2のノードを開始点とする場合しかない.別な見方をするとキーワードidが$M-N+1$に属するノードを開始点として経路を求めると,$N$以下のキーワードを含む場合の経路を求めることができる.\end{itemize}以上の性質を利用して図~\ref{fig:shousai}~に示すAND+W+D検索を実現した.\begin{figure}\begin{quote}\baselineskip=12pt\sfcode`;=3000\def\q{}a1)\q入力のキーワードを抽出,展開する;\\a2)\q用例集合でのキーワードの出現位置(文と位置)をすべて求める;\\a3)\q$M$キーワード数;\\a4)\q$N=M$;\\[3mm]b1)\q$G\leftarrow\emptyset$;\\b2)\q{\bfforeach}\{$i\mids_i\inS$\}\{全用例に対して\\b3)\q\q{\bfif}(用例$s_i$がキーワードを一つ以上含むならば)\{\\b4)\q\q\q用例$s_i$のノードテーブル$g_i$を作成する;\\b5)\q\q\q$G\leftarrowG\cup\{i\}$;検索対象用例リストを作成する\\b6)\q\q\}\\b7)\q\}\\[3mm]c1)\q{\bfwhile}($N>0$)\{\\c2)\q\q$startId=M-N+1$;開始点のキーワードidの設定\\c3)\q\q{\bfforeach}\{$i\midi\inG$\}\{検索対象用例$i$に対して\\c4)\q\q\q{\bfforeach}\{$n\midg_i$の$startId$に属する各ノード\}\{\\c5-1)\q\q\q\q$g_i$のノード$n$から始まる最適経路を求める\\c5-2)\q\q\q\q最適経路上のノード数を$num$\\c5-3)\q\q\q\q変位を$newdev$\\c5-4)\q\q\q\qキーワード出現位置リストを$list$とする\\c6)\q\q\q\q{\bfif}($R(i).dev>newdev$)\{\\c7-1)\q\q\q\q\q$R(i).dev\leftarrownewdev;$\\c7-2)\q\q\q\q\q$R(i).kwd\_num\leftarrownum;$\\c7-3)\q\q\q\q\q$R(i).kwd\_list\leftarrowlist;$\\c8)\q\q\q\q\}\\c9)\q\q\q\}\\c10)\q\q\}\\[3mm]d1)\q\q{\bfforeach}\{$i\midi\in\{R(i).kwd\_num=N\}\}$\{\\d2)\q\q\q{\itdev}の小さい順に用例$i$とその照合キーワードを表示する;\\d3)\q\q\q$G\leftarrowG-\{i\}$;表示した集合を対象用例から削除する\\d4)\q\q\}\\d5)\q\q{\bfif}(利用者が終了を指示{\bfor}$G=\emptyset$)\{終了;\}\\d6)\q\q{\bfelse}\{$N\leftarrowN-1$;\}\\d7)\q\}\end{quote}\caption{AND+W+D検索の基本アルゴリズム}\label{fig:shousai}\end{figure}アルゴリズム中の変数$S$は全用例集合を示す$S=\{s_1,s_2,\ldotss_i,\ldots\}$.$G$は検索対象の用例の番号を記録するリスト変数である(b5).一度表示した用例はこのリストから削除することで以降の処理を行わないようにする(d3).$R(i)$は用例$s_i$に関する情報を格納する構造体の配列である.この変数には用例$s_i$の最大キーワード含有数$R(i).kwd\_num$,その変位合計$R(i).dev$,キーワード群の出現位置$R(i).kwd\_list$を記録する(c7).検索処理の中心部分は(c1--c10)である.キーワード数$N$の用例を検索するために開始キーワードidを(c2)で設定している.このあと各用例$i$の中でこのキーワードidに属するノードから最適経路を探索している(c5).検索開始キーワードidはキーワード数の緩和(d6)に伴って1から順に増加するように設定されている(c2).このため(性質2)から用例$i$でキーワード数$N$の経路が見つかった場合に,すでに同数の解が以前の開始キーワードid($\{1,\ldots,M-N\}$)での探索で発見されている可能性がある.そこでこのような場合には変位合計の小さい解だけを残す処理を行っている(c6--c7).図~\ref{fig:dousa}~の矢印で示す経路と変位は,キーワードid1のノードを開始点として最適経路を求めた結果である.用例1と2についてはキーワード数3の解が,用例3と4についてはキーワード数4の解が求められている.以上のように本手法はキーワードを最大限含む順に解を求めている.多くの場合利用者は条件緩和の途中で検索を打ち切るので,この順序で解を求めている.ただしこの手法では用例のノード集合を最初に全部保持するためデータベースの大きさによってはメモリの消費が問題になる可能性がある.この場合には各用例の最適解を最初に求めるなど変更する余地はある.いずれにせよ動的計画法を利用すれば実用的な速度で解を求めることができる. \section{検索実験} \label{sec:jikken}\subsection{実行時間}\label{sec:jikan}AND検索,AND+W検索,AND+W+D検索を対象に検索時間を評価した.AND+W検索はAND+W+D検索アルゴリズムをほぼそのまま利用して作成した.AND検索はキーワードのノード集合を作成する過程で出現キーワード数を計数することで実現した.検索対象データベースは1995年3月から1997年2月までに収集した日本語ニュースである(表~\ref{tab:database}).入力したのは1997年3月のニュース記事からランダムに選んだ500記事の各先頭行500行である.これらの記事は検索対象データベースに含まれていない.また入力の平均文字数は92.7文字と長い.このためキーワードが完全一致する用例はほとんどない.実験手順は以下のとおりである.\begin{table}\begin{center}\caption{検索時間の比較(秒)}\label{tab:jikan}\begin{tabular}{l|rrr}\hline\hline手法&\multicolumn{1}{c}{AND}&\multicolumn{1}{c}{AND+W}&\multicolumn{1}{c}{AND+W+D}\\\cline{2-4}総時間&25,573.1&33,201.6&33,426.9\\一回の緩和の平均時間&2.33&3.02&3.04\\\hline\end{tabular}\end{center}\end{table}入力の各文を形態素解析して自立語キーワードを抽出する.そして各文でキーワード数1になるまで条件を自動的に緩和しながら検索を行ってその累積時間を計測した\footnote{利用したワークステーションの記憶容量は256MBであり,処理速度は{\itSPECint92}$=202.9$,{\itSPECfp92}$=259.5$である.}.結果を表~\ref{tab:jikan}に示す.緩和の合計回数は3手法で等しく10,989回である.この表から語順を考慮したAND+W手法とAND+W+D手法でもAND検索にくらべて約1.3倍の時間増だったことがわかる.またAND+WとAND+W+Dを比較すると,時間の差はほとんどなく変位の有無の影響はほとんどなかったことがわかる.1回の緩和,すなわち利用者が1つキーワードを減少するよう指示した時に要した平均検索時間(総時間$/10,989$)を2行目に記した.これによればAND検索で2秒,AND+W,AND+W+Dで3秒程度である.ただし総時間にはキーワードの出現位置をディスクからメモリに転送する初期処理の時間を含めており,この時間がかなりの部分を占めている.初期処理が終了した後の1回の緩和に要する時間は語順と変位を考慮しても1ないし2秒であり実用上満足できる速度であった.以上の実験より語順と変位を考慮してもAND検索なみに十分高速に検索できることを確認した.\subsection{検索文数の絞り込み効果}\label{sec:siborikomi}\ref{sec:teian}~節の終わりに述べたようにキーワード数を1まで緩和すれば,AND,AND+W,AND+W+D手法で検索できる用例集合は同じである.しかし実際にはキーワード数の大きなところで検索を打ち切るので利用者の見る用例数は語順の制約の有無で違ってくる.この違いを前節と同じ入力を使って評価した.語順を考慮した手法AND+W\footnote{AND+WとAND+W+Dは同じキーワード集合に対して同じ用例集合を検索するので,ここではAND+Wで代表する.}とAND検索それぞれについて,各キーワード数での検索用例数を計測した.結果を図~\ref{fig:kazu}に示す.検索用例数は入力500文で合計したものである.横軸はキーワード数で縦軸は対数を取った検索数である.また,このグラフの一部の検索用例数を表~\ref{tab:kazu}に示す.\begin{figure}\begin{center}\epsfile{file=108.eps,height=10cm}\caption{各キーワード数での検索用例数(500入力での合計)}\label{fig:kazu}\end{center}\end{figure}\begin{table}\begin{center}\caption{各キーワード数での検索用例数(500入力での合計)}\label{tab:kazu}\begin{tabular}{r|r|r}\hline\hline\multicolumn{1}{c|}{キーワード数}&\multicolumn{1}{c|}{AND}&\multicolumn{1}{c}{AND+W(+D)}\\\cline{1-3}1&54,374,495&59,258,536\\2&13,923,270&11,338,161\\3&3,470,894&2,088,640\\$\vdots$&$\vdots$&$\vdots$\\\hline\end{tabular}\end{center}\end{table}アルゴリズムの説明で述べたように,文は含有キーワード数が最大の時に一度表示するだけである.このため図~\ref{fig:kazu}の2つのグラフの面積は等しくなる.表~\ref{tab:kazu}から明らかなようにキーワード数1の部分でAND+W検索の検索用例数がAND検索の結果を大きく超えている.この結果キーワード数が1以外の部分ではAND+W検索の検索数はANDより小さく押さえられている.すなわち語順制約を使うことでキーワード数が1より大きい部分で検索結果数を絞り込むことができたことが確認できる.しかし,語順による絞り込みの効果が十分であるとは言えない.キーワード数が小さい部分での絶対的な検索数が大きいのが問題である.例えば3語のキーワードで検索する用例数は平均で$4,177$($=2,088,640/500$)に達した.このような用例も検索する可能性があるため絞り込み効果は十分でない.逆に50程度の検索用例数を許容すると仮定すればキーワードの語順を考えない場合でも10語以上含む入力であれば許容範囲の検索数となる.語順を使った場合は8語以上で許容範囲となる.\vspace*{-4mm}\subsection{検索結果の満足度}\vspace*{-0.5mm}\label{sec:manzoku}語順に変位の制約を加えると検索結果に優先順位をつけることができる.この順位が妥当であれば検索用例数の多さの問題は解決できる.そこで著者らはこの順位の妥当性を検証するため3手法の検索結果の満足度の高さを主観的に評価して比較した.実験要領は以下の通りである.\begin{itemize}\item被験者\\翻訳者3名.このうち1名はニュース翻訳の経験が豊富である.残りの2名はニュース翻訳を直接担当しているわけではないが翻訳の経験は豊富である.いずれの被験者も検索手法については知らされていない.\item入力表現\\現実の入力を想定して58の日本語表現を作成した.具体的には先の実験で使用した500文から文をランダムに抽出し,それらの一部を切り出して作成した.すなわちカットアンドペーストで入力することを想定した.長さの平均は22.6文字,最大の入力は62文字,最小の入力は14文字である.\item出力\\一つの入力に対して各3手法の上位5個の日本語検索結果を印刷して提示した.この時,各手法の検索結果の提示順序を1つの入力ごとに変更して,検索手法と結果の対応がわからなくなるようにした.また照合したキーワードを$<>$で囲んで表示した.被験者は最初のキーワードから最後のキーワードが出現した区間を中心に評価した.これはキーワードで検索した部分以外に偶然類似した部分があった場合にこれを評価しないためである.\item評価手法\\検索した部分の正しい英訳があると想定したときの満足度を次の2種類で評価した.\begin{itemize}\item相対評価\\3手法すべての結果を見て,最も満足度の高い結果を5点として,以下この結果との満足度の差を下記の要領で評価した.\begin{center}\begin{tabular}{llr}全く差がない&&5\\わずかに差がある&(わずかに劣る)&4\\差がある&(劣る)&3\\かなり差がある&(かなり劣る)&2\\非常に差がある&(非常に劣る)&1\\\end{tabular}\end{center}\item絶対評価\\翻訳を行うときに英訳があればどの程度役に立つかを以下の5段階で絶対評価した.\begin{center}\begin{tabular}{llr}非常に役に立つ&(非常に良い)&5\\かなり役に立つ&(良い)&4\\まあ役に立つ&(ふつう)&3\\あまり役に立たない&(悪い)&2\\全然役に立たない&(非常に悪い)&1\\\end{tabular}\end{center}\end{itemize}\end{itemize}評価シートの実例を付録に示す.3名の評価結果の平均値を表~\ref{tab:soutai}と~\ref{tab:zettai}に示す.\begin{table}\begin{center}\caption{相対評価結果}\label{tab:soutai}\begin{tabular}{c|ccc}\hline\hline被験者&AND&AND+W&AND+W+D\\\hlineA&$2.88$&$2.94$&$3.60$\\B&$2.99$&$3.07$&$3.90$\\C&$3.07$&$3.21$&$3.80$\\\hline平均&$2.98$&$3.08$&$3.77$\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{絶対評価結果}\label{tab:zettai}\begin{tabular}{c|ccc}\hline\hline被験者&AND&AND+W&AND+W+D\\\hlineA&$2.78$&$2.81$&$3.13$\\B&$2.84$&$2.98$&$3.44$\\C&$3.02$&$3.10$&$3.44$\\\hline平均&$2.88$&$2.96$&$3.34$\\\hline\end{tabular}\end{center}\end{table}また各手法の違いを検定するため平均値の差の$t$--検定を行った.手法間の$t$--値を表~\ref{tab:soutaiT}と\ref{tab:zettaiT}に示す\footnote{二つの母分散が等しい場合とそうでない場合で計算したところ表中の桁数で値は変わらなかった.}.\begin{table}\vspace*{-4mm}\begin{center}\caption{相対評価の$t$--値}\label{tab:soutaiT}\begin{tabular}{c|rr}\hline\hline&AND&AND+W\\\hlineAND+W&1.55&\\AND+W+D&13.28&11.77\\\hline\end{tabular}\end{center}\bigskip\begin{center}\caption{絶対評価の$t$--値}\label{tab:zettaiT}\begin{tabular}{c|rr}\hline\hline&AND&AND+W\\\hlineAND+W&1.44&\\AND+W+D&8.73&7.23\\\hline\end{tabular}\end{center}\end{table}$t_{0.025}(\infty)=1.960$であるからどちらの表でもAND+W+DとAND,AND+W+DとAND+Wの組み合わせでは有意水準5\%で帰無仮説(平均値に差がない)を棄却できる\footnote{$t_{0.0005}(\infty)=3.291$であり0.1\%であっても棄却できる.}.一方,ANDとAND+Wでは5\%有意水準の棄却はできない.以上の結果より次のことが結論できる.\begin{itemize}\itemAND検索とAND検索に語順制約を加えたAND+W検索ではAND+W検索の方が満足度が高くなる傾向は認められたが,統計的に有意な差はなかった.\itemAND+W+D検索の満足度はAND検索とAND+W検索のいずれの満足度より高くなった.またこれは統計的に有意な差であった.\end{itemize}以上より提案手法の精度が最も高かったと結論できる.\vspace*{-1.5mm}\subsection{議論}\vspace*{-0.5mm}本章の実験結果のまとめを示す.\begin{itemize}\item検索時間はAND検索が有利であったが語順と変位を加えても1.3倍程度の時間増であった.\item語順制約を追加することで検索結果を絞り込む効果は確認できた.しかし,短い入力に対する絞り込み効果は十分ではなかった.\item変位の制約を加えると検索結果に順位付けができる.この効果を計測したところ有効性を有意に検出できた.\end{itemize}今回の実験から,カットアンドペースト方式の入力ではAND+W+D検索とAND検索を使うのが良いと著者らは考えている.AND+W+D検索は最も満足度が高かったからである.AND検索は今回の満足度の実験の結果は一番低かった.しかし,速度の面は最も優れている.また入力の表現が長い部分では検索結果の数も問題にならない.そこで長い表現を検索する場合にAND+W+D検索を補完する意味で利用する価値があると考える.一方AND+W検索とAND+W+D検索の両方を使う必要性は小さいと言える.両者は基本的に同じ検索結果となるからである.ただし,これは本稿のように入力表現を原文のカットアンドペーストで作成する場合に限る.利用者が直接キーワード列を入力する場合には変位の情報を使えない.このため語順だけを使ったAND+W検索を使う必要も生じる\footnote{著者らのシステムにもキーワードを直接入力する機能があり,この場合にはANDとAND+W検索を利用している.}. \section{関連研究} \label{sec:kanren}類似用例提示型翻訳支援システムの提案はこれまで多くなされている\cite{Naka89,Sumi91,Tera92,Sato93,Take94,Hyou94,Kitamu96,Aoya95}.ここではこのようなシステムの中で著者らの検索の研究と近い研究について比較を行う.中村\cite{Naka89}の研究は著者らの研究の出発点になったものである.この論文は用例検索による翻訳支援の考え方と構成を示している.中村はこの論文で入力表現と用例が共有する自立語の数に基づいて類似性を計算する手法を提案している.また,検索結果の順位を次の3つの条件で整列している:1)構成語(本研究のキーワード)がその他の語をはさまない,2)用例中の自立語の個数に対する構成語の数の比率,3)含んでいる構成語の数.このシステムを使った小規模な評価実験では長い(複数文節)表現を入力した場合に検索結果が「あいまい」となって被験者の評価が低くなったと報告している.これは検索結果の効果的な絞り込みの必要性を示唆した結果である.著者らはこれに対して語順と変位を考慮した検索を提案しその有効性を確認した.隅田ら\cite{Sumi91}は表現辞典の用例文を検索する翻訳支援システムを提案している.著者らとの主要な違いは2点ある.1)用例文はニュースの記事に比べて短く入力も単文に近い用例を想定している点,2)検索では構文的な類似性を重視している点である.類似検索は入力の自立語を順次無視して最後に付属語列のパターンまで検索条件を緩和する手法を採用している.ここで語順は考慮していない.隅田らは構文情報の把握に助詞を利用している.これは短い用例を対象にした場合に有効であるが,著者らのように長い用例を扱う場合には不適切である.なぜなら長い用例では表層の助詞だけで主要な構文構造を把握することができないからである.また,助詞は極めて多くの場所に出現するためこれを使う処理は遅くなる問題もある.実際著者らのシステムで助詞をキーワードに含めて検索実験を行ったところ自立語だけを対象にする場合の約23倍の時間がかかることが分かった.佐藤\cite{Sato93}は文字を連続して多く共有する2つの文を近いと考えた「最適照合検索」を提案している.この論文では1文字を照合単位としかつ順序を考慮した照合手法(CTM1)と2文字と3文字を照合単位とし,順序を無視した照合手法(CTM2)を提案している.またどちらの手法も文字列が連続して出現することを類似性の条件に含めている.文字と単語の違いを無視すれば,著者らの語順と変位を考えた手法がCTM1に,語順を無視した手法がCTM2に対応する.またこの二つの手法の検索結果の違いを次のような実験で検討している.1)100個の入力をそれぞれ検索し,上位5つの類似表現を得る,2)その英訳の中で最良の英訳の有用性を4段階で主観評価する\footnote{利用者は一つの有用な対訳が得られれば十分という考えによる.一方,著者らは多様な対訳の検索を重要視している.}.実験結果よると二つの手法の有用性は同等もしくはCTM2の方が若干良かったとなっている.著者らの結果と比べると出現順序を考えないCTM2の結果が良いのは意外である.原因は用例データベースの違い,入力表現の違い,評価法の違いがあるため断定できないが,CTM2の文字列の連続性の条件が貢献している可能性がある.この条件が著者らの変位と対応したと考えられる.著者らの実験結果でも語順だけでは効果が薄く変位が有効であった点を考えると両者の実験結果に矛盾はない. \section{おわりに} \label{sec:ketsuron}翻訳支援を目的とした類似文検索手法を提案してその有効性を実験で確認した.提案したのは入力と用例のキーワードの共有数,語順,その変位を類似性の基準とした検索手法である.提案手法は入力文の形態素解析以外は表層文字列の一致を使うため,高速かつ頑健という利点を持つ.今後の課題を述べる.現在はすべての自立語を同等の重要性を持ったキーワードとして検索を実行している.しかし,利用者が知りたい表現が特定のキーワードを含む場合があろう.また,動詞を含んだ表現で条件緩和をする場合に,一般的に動詞は削除しない方が良いと考えられる.このような特別な条件や経験則を現在の処理に追加するのは今後の課題である.このような変更は内容が明らかになれば現在の枠組みで簡単に実現できると考えている.現在,本検索部分を含んだ日英翻訳支援システムをニュースの翻訳現場で実際に使用し始めている.そこで検索条件の改良は実際の利用者の意見を取り入れて進めていきたいと考えている.また今回は日本語の検索部分だけの評価を行ったが,実際の英語の出力を使ってシステム全体の評価も行う予定である.これについては別途報告したい.今回は日本語を対象にした検索システムを報告した.今回の内容は言語に依存した部分がほとんどないためその他の言語への応用も簡単である.すでに英語の検索部分を作成しており,その有効性を調査したいと考えている.さらにその他の言語への適用可能性も検討したい.\vspace{-2mm}\bigskip\medskip\noindent{\Large\bf付録\quad評価シートの例}\bigskip\vspace{-2mm}\label{app:sheet}\baselineskip=0.98\normalbaselineskipこの場合はAND+W,AND+W+D,ANDの順に検索結果を表示している.評価文の最初の括弧付の数字が相対評価,2番目の数字が絶対評価の値を示す.++++++++++入力文++++++++++++++IN事故のあった施設の中を調査しました.++++++++++キーワード++++++++++KW$<$事故$>$の$<$あっ$>$た$<$施設$>$の中を$<$調査し$>$ました.++++++++++検索文++++++++++++++SR2-1(1)(2)この研究グループは,車に携帯電話を備えていて,軽い物損$<$事故$>$を起こ\breakしたことの$<$ある$>$ドライバー六百九十九人について,事故のデータと通話記録を$<$調査し$>$ま\breakした.SR2-2(1)(2)公海上でおきた今回の$<$事故$>$の原因調査は国際条約で船籍の$<$ある$>$ロシア\breakが行うことになりますが事故の原因を特定するためには船首部分の破断面などを詳しく分析す\breakる必要があるため,運輸省では引き続き外交ルートを通して共同で$<$調査す$>$ることをロシア側\breakに求めていくことにしています.SR2-3(1)(2)埼玉県内では小山代表が理事長を務める特別養護老人ホームが$<$ある$>$北本市\breakでもきょう臨時の市議会が開かれ,$<$施設$>$建設に至る経緯や運営について$<$調査す$>$る特別委\break員会を設けたほか,現在同じ社会福祉グループの特別養護老人ホームの建設が進んでいる上福岡市も,市役所の中に対策委員会を設置して補助金の使い途などについて調査を始めています.SR2-4(1)(2)埼玉県内では小山容疑者が理事長を務める特別養護老人ホームが$<$ある$>$北\break本市でもきょう臨時の市議会が開かれ,$<$施設$>$建設に至る経緯や運営について$<$調査す$>$る特\break別委員会を設けたほか,現在同じ社会福祉グループの特別養護老人ホームの建設が進んでいる\break上福岡市も,市役所の中に対策委員会を設置して補助金の使い途などについて調査を始めてい\breakます.SR2-5(1)(1)去年,山形県でジェット機の低空飛行が原因で女性が馬から落ちて怪我をし\breakた$<$事故$>$について在日アメリカ軍はこのジェット機がアメリカ軍機で$<$ある$>$ことを認め被害\break者に賠償の支払いに応じる意向を防衛$<$施設$>$庁に伝えてきていたことが分かりました.++++++++++検索文++++++++++++++SR2-1(5)(4)東京電力によりますと$<$事故$>$が$<$あっ$>$た$<$施設$>$は定期点検中でタービン\breakなどを分解して組み直し再び発電を始めるための試運転中に事故が起きたということです.SR2-2(3)(3)警察庁は今年六月に全国で起きた死者やケガ人のでたおよそ六万二千件の交\break通事故を対象に携帯電話が原因とみられる$<$事故$>$がどの程度$<$ある$>$のか初めて$<$調査し$>$ま\breakした.SR2-3(3)(3)警察庁は今年六月に全国で起きた死者やケガ人のでたおよそ六万二千件の交\break通事故を対象に携帯電話が原因とみられる$<$事故$>$がどの程度$<$ある$>$のか初めて$<$調査し$>$ま\breakした.SR2-4(1)(1)このため,ノースウエスト航空では問題のエンジンをアメリカのミネアポリ\breakスに$<$ある$>$本社の整備$<$施設$>$に運んで詳しく$<$調査す$>$る事にしたもので,きょう,機体か\breakら問題のエンジンを取り外して新しいエンジンと取り替え,このエンジンをきょうにもミネア\breakポリスに向け送る事にしています.SR2-5(1)(1)それによりますと,去年の六月二十四日,ワシントン州のフェアチャイルド\break空軍基地の上空で航空ショーのリハーサル飛行をしていたBー五十二戦略爆撃機が墜落し乗員\break四人全員が死亡した$<$\hspace{-0.2pt}事故\hspace{-0.2pt}$>$で,墜落地点は基地に$<$\hspace{-0.2pt}ある\hspace{-0.2pt}$>$\mbox{核兵器の貯蔵$<$\hspace{-0.2pt}施設\hspace{-0.2pt}$>$のすぐ近くで,}距離はわずか十五メートルしか離れていなかったいうことです.++++++++++検索文++++++++++++++SR2-1(1)(1)このうち,原子力の問題に取り組んでいる原子力資料情報室は,地球規模で\break環境に影響を及ぼす恐れの$<$ある$>$原子力発電所の$<$事故$>$について,去年十二月の高速増殖炉\break「もんじゅ」のナトリウム漏れ$<$事故$>$を例に挙げて▼地元への$<$事故$>$の報告を義務付けるこ\breakとや▼原子力$<$施設$>$での$<$事故$>$の原因を$<$調査す$>$る第三者機関を設けること,それに▼民\break間の調査に対しても情報を公開することなどを盛り込んだ「原子力$<$施設$>$$<$事故$>$対応法」の\break制定を提案しました.SR2-2(1)(1)沖縄県に$<$ある$>$アメリカ軍基地の排水管から高い濃度の有害物質PCBが\break検出された問題できょう基地をかかえる沖縄県内の自治体の代表らが防衛$<$施設$>$庁を訪れ,ア\breakメリカ軍による相次ぐ事件や$<$事故$>$の防止に全力をあげるよう要請しました.SR2-3(1)(1)NHKはこの問題の実態をつかむため保健所を持ち処理$<$施設$>$に許認可権\breakが$<$ある$>$各都道府県や市あわせて八十二の自治体を対象にアンケート方式で$<$調査し$>$すべて\breakの自治体から回答を得ました.SR2-4(1)(1)NHKはこの問題の実態をつかむため保健所を持ち処理$<$施設$>$に許認可権\breakが$<$ある$>$各都道府県や市あわせて八十二を対象にアンケート方式で$<$調査し$>$すべての自治体\breakから回答を得ました.SR2-5(1)(1)これに対して池田外務大臣は「在日アメリカ軍は今回の$<$事故$>$で使用され\breakたのと同様の劣化ウランを含む砲弾を日本国内の一部の$<$施設$>$に所蔵しているがこれは日本が\break攻撃を受けるなど緊急事態が発生した場合には使用する必要が$<$ある$>$ものでそうした意味で撤\break去を求めるのは適当ではない」と述べ,アメリカ軍に対して,日本国内に所蔵している同種の\break砲弾の撤去は求めないという考えを示しました.\baselineskip=\normalbaselineskip\bigskip\acknowledgment本研究は第一著者がNHK放送技術研究所勤務中に行った研究をまとめたものです.本論文をまとめる機会を与えていただいたATR音声翻訳通信研究所の山本誠一社長と横尾昭男室長に感謝いたします.また,プログラムの作成と実験に協力していただいた株式会社KISの松田伸洋氏に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n5_05}\bigskip\begin{biography}\biotitle{略歴}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士課程修了.同年,日本放送協会に入局.1987年同放送技術研究所勤務.1997年ATR音声翻訳通信研究所勤務.現在第4研究室主任研究員.機械翻訳,機械学習,情報検索の研究に従事.工学博士.情報処理学会,人工知能学会各会員.}\bioauthor{熊野正}{1993年東京工業大学工学部情報工学科卒業.1995年同学理工学研究科情報工学専攻修士課程修了.同年,日本放送協会に入局.放送技術研究所勤務.自然言語処理,人工知能の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{浦谷則好}{1975年東京大学大学院修士課程(電気工学)修了.同年,日本放送協会に入局.1979年同放送技術研究所勤務.1991年より3年間ATR自動翻訳電話研究所ならびに音声翻訳通信研究所に勤務.現在,NHK放送技術研究所ヒューマンサイエンス主任研究員.情報検索,自然言語処理の研究に従事.工学博士.情報処理学会,電子情報通信学会,映像情報メディア学会各会員.}\bioauthor{江原暉将}{1967年早稲田大学第一理工学部電気通信学科卒業.同年,日本放送協会に入局.1970年より放送技術研究所に勤務.現在,ヒューマンサイエンスグループ主任研究員.かな漢字変換,機械翻訳,音声認識などの研究に従事.工学博士.本会評議委員.情報処理学会,機械翻訳協会,電子情報通信学会,映像情報メディア学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V19N03-04
\section{はじめに} label{sec:hajimeni}法は章節/条項号という階層を有する,基本的に構造化された文書であり,国(国会)の制定する法律,地方自治体(議会)が制定する条例の二つがある.前者に規則を加え法規,後者に規則を加え例規と総称される.日本国内で法律を制定する主体は国家のみだが,条例を制定する地方自治体は多数存在する.そのため,同一の事柄について規定する多数の例規が地方自治体ごとに存在することになる.例えば,各県の象徴であり,旗に用いられる県章を定めた条例は全都道府県で制定されており,青少年の保護育成を目的とする条例は,長野県を除く46都道府県で制定されている.これら同一事項に関する条例は相互に類似しているものの,地方自治体の置かれた状況が異なるため,随所に相違点が存在している.一例として,青少年の保護育成を目的とした条例では,青少年の深夜外出を制限しているが,その制限される時間が異なっている事が挙げられる.東京都や愛媛県では午後11時から午前4時を深夜と定義している一方,高知県では午後10時から午前4時を深夜としている.また,大阪府では外出を制限する時間帯を年齢によって変えており,16歳未満の場合は午後8時から午前4時まで外出を制限される.このような違いを明確化するため例規比較が行われる.例規比較は,自治体間の違いを明らかにする教育・研究活動以外にも,企業法務や自治体法務においても発生する業務である.自治体法務における例としては,例規を制定・改正する際の参考資料作成,さらには自治体合併時に全例規を擦り合せて一つに纏めるための準備作業が挙げられる.特に自治体合併時には,対象となる全自治体の全例規に対する例規比較を短時日に行う必要がある仕事量の多い法務となっている\cite{加藤幸嗣:2006-05,伊佐美浩一:2005-05,伊佐美浩一:2005-08,藤井真知子:2007-07-31}.現在,この例規比較は専門家が手作業で実施しているため,計算機を利用した作業の省力化が望まれている.そこで本研究では,条文対応表の作成支援を目的とし,与えられた2つの例規の条文対応表を計算機で作成する手法の検討及び,得られた条文の対応関係の尤もらしさについての評価を行う.法を計算機で扱う研究は,法律の専門家を模倣するエキスパートシステムに関する研究として,人工知能研究の派生領域として発達してきた.本分野初期の国際会議として,1987年より隔年開催されているInternationalConferenceonArtificialIntelligenceandLaw\cite{ICAIL}と,1988年より毎年開催されているInternationalConferenceonLegalKnowledgeandInformationSystem\cite{JURIX}がある.日本では平成5年度から9年度の文部省化学研究費重点領域研究「法律エキスパートシステムの開発研究」において促進された\cite{吉野一}.この期間を通してインターネット上における法律の閲覧が可能となり,特に判例を計算機で利用する知的システムに関する多数の研究が実施された.法律や例規以外の法関係の文書に対する情報科学との融合研究としては,特許における公開特許公報中の請求項と発明の詳細な説明文との対応付けを行う研究が行われている\cite{ronbun2-4,ronbun2-2}.また,法律用語のオントロジー構築に対する研究も行われた\cite{山口高平:1998-03-01}.そして,日本においても2007年より人工知能学会全国大会の併設ワークショップとしてInternationalWorkshoponJuris-informatics(JURISIN:JURISINformatics)が毎年開催されている.自治体の情報化を支援する企業も多数存在し,例規のインターネット上での公開支援にとどまらず,例規改正の編集過程に基づき,改正前後の差異を表現した新旧対照表を自動作成する事も可能となっている\cite{kakuda}.現在では,官報を基に法務省行政管理局が整備した法令データ提供システムが日本の法令を提供している\cite{eGov}.また,多くの法律の英対訳も名古屋大学の日本法令外国語訳データベースシステムを通じて提供されている\cite{JaLII}.現在では法律だけでなく,多くの自治体が例規をインターネット上に公開するようになった.しかし例規を対象とした情報科学との融合研究は少なく,これまでに例規を分類する研究\cite{原田隆史2009}が存在するに留まっている.そのため,例規の条文対応表の自動作成に関する研究は本論文が嚆矢である.米国の連邦法と州法とで整合性の取れていない条文の発見を目的とした,法律体系の中から関連する条文を網羅的に抽出する研究がある\cite{ronbun3-1}.この研究は類似する条文を抽出する点で,例規の条文対応を推定する本研究と類似している.しかしながら,彼らの研究は米国における領域知識の利用を前提としている事及び,不整合性検出のために数値や単位に特化した処理を追加している点で日本の例規を対象とした条文対応表への適用は困難である.条文対応表は,条文を一般の文書と見なした場合,類似文書を探す研究と見なしうる.類似文書の探索に関する研究としては,英語で記された複数のコーパス間の類似する文を抜き出す研究や\cite{ronbun1-1}や,コーパス内に存在する類似文のクラスタを抜きだす研究がある\cite{ronbun1-3}.また日本語を対象とした研究も挙げられる\cite{ronbun2-1,ronbun2-3}.これらの論文では同一事象に対して記述された記事の抽出及び,記事の要約をその目的としている.これらはよく整備されたコーパスや類義語辞典を用いたり,豊富に収集された事例に基づく機械学習によりその性能向上を図っている.そのため研究事例のない例規を対象とした本研究に直接利用する事は困難である. \section{モデル化と問題定義} \label{sec:definition}\subsection{例規の構造}本研究で対象とする例規とは,法特有の階層構造を有する文章である.典型的な法では,例規名を表す「表題」,効力を発する日を記した「発令」,公布を宣言する「公布文」,例規の内容を記した「本則」,そして「制定附則」及び「改正附則」が第一番目の階層を構成する.このうち本則は,「章」「節」/「条」「項」「号」の階層を有している.図\ref{reikiStructure}に例規に共通する主要な階層構造を示す.ただし,実際の例規では章が存在しない場合も多く,特に制定時期が古い例規ではこの階層構造に従わない場合もある事を付記する.章と一部の条にはその内容を記載した見出しがついている.図\ref{reikiExample}に愛媛県青少年保護条例から抜粋した本則の一部を記す.図\ref{reikiExample}において章と条の右横に括弧で記載した文字列が章見出しおよび条見出しである.\begin{figure}[t]\noindent\begin{minipage}[b]{171.5pt}\begin{center}\includegraphics{19-3ia947f1.eps}\end{center}\caption{例規の主要な共通階層構造}\label{reikiStructure}\end{minipage}\begin{minipage}[b]{248.5pt}\begin{center}\includegraphics{19-3ia947f2.eps}\caption{本則の階層構造の例(抜粋)}\label{reikiExample}\end{center}\end{minipage}\end{figure}\subsection{条文対応表}\label{sec:taiouhyou}例規比較を行う際には,対応する条文の関係を記した比較対照表が作成される.この表を条文対応表と呼ぶ.表\ref{reikiHikakuTable}に,愛媛県青少年保護条例と香川県青少年保護育成条例の条文対応表の典型例を記す.表では,例規構造より表題,発令,公布文がまず並ぶ.その後,二つの条例において対応する条が左右に並ぶという形をとっている.条番号の一行上に書かれている括弧書きの文字列は条見出しである.表より以下のような事がわかる.\begin{itemize}\item愛媛県の第1条が香川県の第1条に,愛媛県の1条が香川県の4条に対応している.\item香川県の第3条に対応する愛媛県の条文が存在しない.\item香川県の第15条は,愛媛県の第12条と第13条の2つに対応している.\end{itemize}この表を利用する事により「青少年」の定義や,夜間の時間帯といった二つの条例の違いを網羅的に比較する事が行われている.\begin{table}[p]\caption{愛媛県と香川県の青少年保護に関する条例の条文比較表(一部抜粋)}\label{reikiHikakuTable}\input{04table01.txt}\end{table}条文比較表において対応する条文は類似する事が多い.これを示すため,表中で対応する両県の第一条の共通部分に下線を引いた.\begin{quote}愛媛県:\underline{この条例は、青少年の}健全な育成を\underline{阻害する恐れのある行為}から青少年を保護し、もって青少年の\underline{健全な育成をはかる事を目的とする。}香川県:\underline{この条例は、青少年の}福祉を\underline{阻害するおそれのある行為}を禁止し、その\underline{健全な保護育成を図る事を目的とする。}\end{quote}この場合,両方の条が大変よく一致している事がわかる.次に対応する条の文字数に差がある包含関係にある例として,愛媛県の第13条の3と第10条の3を挙げる.\begin{quote}愛媛県:\underline{何人も、青少年に}対し、ツーショットダイヤル等\underline{利用カード}(ツーショットダイヤル等営業に関して提供する役務の数量に応ずる対価を得ることを目的として発行する文書その他の物品をいう。以下同じ。)を\underline{販売}し、配布し、贈与し、又は貸し付けては\underline{ならない。}香川県:\underline{何人も、青少年に利用カード}の\underline{販売}等をしては\underline{ならない。}\end{quote}この例は「利用カード」の定義が条内で行われているか否により共通部分に偏りが出ている事を示している.そのため,香川県側は24文字中18文字(75\%)が一致しているが,愛媛県側は110文字中18文字(16\%)が一致しているにすぎない.ただし,共通部分が多い場合でも必ずしも対応する条であるとは限らない.例として愛媛県の第5条の8と香川県の第10条の2を示す.\begin{quote}愛媛県:自動販売機等業者は、次に掲げる施設の敷地の周囲から200メートル以内の区域に、(中略)設置しないように努めなければならない。\\(1)\underline{学校教育法(\mbox{昭和22年法律第26号})\mbox{第1条}に規定する学校(大学を除く。)}\\(2)児童福祉法(昭和22年法律第164号)第7条第1項に規定する児童福祉施設\\(3)\underline{図書館法\mbox{(昭和25年法律第118号)第2条第1項}に規定する図書館}\\(後略)香川県:卑わいな姿態等を被写体とした写真又は描写した絵を掲載した広告文書等は(中略)「有害広告文書等」(中略)とする。\\2何人も、次に掲げる行為をしてはならない。(中略)\\(3)次に掲げる施設の敷地内において有害広告文書等の配布をすること。\\ア\underline{学校教育法\mbox{(昭和22年法律第26号)第1条}に規定する学校(大学を除く。)}\\イ\underline{図書館法\mbox{(昭和25年法律第118号)第2条第1項}に規定する図書館}\\(後略)\end{quote}このように,共通部分が多い場合でも必ずしも対応するとは限らない事がわかる.\subsection{条文対応表のモデル化と推定問題}\label{sec:jidouseisei}本研究で目的とする計算機支援を達成するためには,与えられた2条例より条文比較表を自動生成する必要がある.そのためには,計算機で解決可能な形に問題をモデル化する必要がある.一般に条文対応表は,その名の通り表として表現されているが,条の対応関係は多対多であり,また対応する条がない場合も存在する.当然にして同一例規内の条の間には対応関係は存在しない.また,例規の主要構造のうち対応関係を決める必要があるのは本則に属する条のみであり,制定附則や改正附則に属する条の対応関係を決める必要はない.そこで,我々は条文比較表より本則の部分に着目し,各例規の本則に属する条を頂点とする2部グラフとしてモデル化する.2部グラフを構成する2つの頂点集合は例規ごとに構成され,対応する条の間に辺が引かれる.ここで2つの例規A,Bの条文対応表のモデルを以下のように定義する.\begin{description}\item二部グラフ$G=(V_A,V_B,E)$,ただし,\begin{itemize}\item頂点$v_a\inV_A$がAの本則に属する条に,$v_b\inV_B$がBの本則に属する条に対応し,\item辺$e=(v1\inV_A,v2\inV_B)$は,$v1$と$v2$が条文比較表において対応する事を表す.\end{itemize}\end{description}図\ref{taiouhyou}に,愛媛県と香川県の青少年保護に関する条例の条文対応表を示す.図中左側の四角が愛媛県側の,右側の四角が香川県側の各条を表す頂点である.左右の頂点間の辺が,両県の条例における条の対応関係を表現している.\begin{figure}[t]\begin{center}\includegraphics{19-3ia947f3.eps}\end{center}\caption{二部グラフによる条文対応表のモデル}\label{taiouhyou}\end{figure}条文対応表の推定問題とは,2つの例規$A,\B$を入力とし,法学者が作成する条文対応表と一致または類似した二部グラフ$G=(V_A,V_B,E)$を出力する問題と定義する.\subsection{条文対応表生成アルゴリズム}\label{algorithm}条文対応表の推定問題は,入力として与えられる二例規の各条間の類似度を計算し,その類似度に基づき条文が対応するか否かを判定する事で解く事ができる.本研究では,類似度の定義,すなわち類似尺度が与えられたとき以下のアルゴリズムによって条文の対応関係を推定する方法を提案する.\begin{description}\item[入力]2つの例規A,B\item[出力]二部グラフ$G(V_A,V_B,E)$\item[step1]2つの例規の本則に属する条に対応する頂点集合$V_A,V_B$を生成する.\item[step2]2つの頂点$v_a\inV_A,v_b\inV_B$間の辺重みを条$v_a,v_b$間の類似度とする重み付き完全二部グラフ$G_p=\{V_A,V_B,E_p\}$を生成する.\item[step3]$V_A$に属する各頂点$v_a$を端点とする辺集合$E_{v_a}=\{(v_a,v_b|v_b\inV_B)\}$のうち,最も重みの大きい辺を二部グラフ$G$の辺集合$E$に加える.\item[step4]$V_B$に属する各頂点$v_b$を端点とする辺集合$E_{v_b}=\{(v_a,v_b|v_a\inV_A)\}$のうち,最も重みの大きい辺を二部グラフ$G$の辺集合$E$に加える.\item[step5]二部グラフ$G$を出力する.\end{description}条文対応表では,図\ref{taiouhyou}に示したように一つの条に対して複数の条が対応する事例がある.提案アルゴリズムでは両方の例規からではなく,Step3と4において一方の例規の条からみて類似度の最も高い条に対応関係があると判定した辺をグラフに追加している.Step3とStep4は独立して辺,すなわち1つの条と対応関係にある条を選択しているため,一つの頂点が複数の辺の端点となりうる.結果的にStep5において多対多の二部グラフ,すなわち多対多の関係を含む条文対応表が出力される. \section{条間の類似尺度} \label{sec:method}前節のアルゴリズム内では条間の類似度を定義していない.この類似度は,法学者が二条間に対応関係が存在する場合に大きい値を,対応関係が存在しない場合に小さい値をとる事が求められる.しかしながら,法学者の暗黙知を適切に表現する類似尺度が明らかとなっていないため,本研究では既存の3種類の文書比較,文字列比較法に基づく類似尺度を用い,それらの比較評価を行った.\subsection{ベクトル空間モデル}与えられた文章を,単語の出現頻度を表現したベクトルとしてモデル化する方法をベクトル空間モデルと呼ぶ\cite{salton1975vector}.2つの文章に対応するベクトル間の距離を計算する事により,文章間の関連度を求める方法であり,情報抽出や情報フィルタリング等に用いられる.距離尺度としては,コサイン,内積,マンハッタン距離やユークリッド距離等が用いられる.要素数$n$個の単語集合$W=\{w_1,w2_,\cdots,w_n\}$が与えられたとき,ベクトル空間モデルによりある文章$T$は長さ$n$のベクトル$V_T=(v_1,v_2,\cdots,v_n)$で表現される.ここで,$v_i$は,文章$T$中における単語$w_i$の出現回数である.このベクトルはしばしばtf-idf(TermFrequenc,InverseDocumentFrequency)に基づく重みが加味される.この重みにより,多くの文章に出現する単語の重要度を下げ,特定の文章にしか出現しない単語の重要度を上げる事が可能となる.本研究では,条文対応表作成問題における各条文をこのベクトル空間モデルでベクトル化し,2つのベクトルの距離によって対応関係の強さを数値化する.なお,距離尺度としてコサインを用い,利用する単語を頻出順に10,50,100個選んだもの,及び全例規に出現する全単語の4種類を比較した.ベクトルの重み付けについては,定数重み及びtf-idf重みの2種類を比較した.また,利用する単語の品詞として,全品詞の利用,全品詞の原形を利用,名詞のみ利用,名詞,副詞,形容詞,動詞,連体詞の5種類を利用,の4種類を適用した.例規の条文はその長さ,すなわち単語数や文字数の分散値が大きい.これが本手法で計算される条文間の類似度は条文の長さの違いが影響を及ぼす可能性がある.そこで類似度を2つの条文のうち短い方の条文の文字数で割る事で正規化した値も類似尺度とする.以降,正規化前を「絶対スコア」,正規化後を「相対スコア」と呼ぶこととする.以上によりベクトル空間モデルに基づく類似尺度数は,$(\text{ベクトル長})\times(\text{対象品詞})\times(\text{重み})\times(\text{絶対}|\text{相対スコア})=4\times4\times2\times2=64$個となる.\subsection{最長共通部分列}\label{subsec:LCS}最長共通部分列(LongestCommonSubsequence)とは,入力として与えられた2つの文字列における最長の共通部分文字列をいう\cite{Maier:1978:CPS:322063.322075}.共通部分文字列とは,もとの文字列から文字を出現順序をかえずに取り出したものとなる.今,二本の文字列$X=(\text{アイウエオ})$,$Y=(\text{アイクエオ})$が与えられたとする.このとき最長共通部分列は,(アイエオ)となり,その長さは4である.最長共通部分列は動的計画法により計算する事が可能である.入力として2つの文字列$X=(x_1x_2\cdotsx_n)$と$Y=(y_1y_2\cdotsy_m)$が与えられたとき,最長共通部分列長を求めるアルゴリズムは以下の通りである.\begin{description}\item[Step1]$n+1$行,$m+1$列の行列$M$を準備する\item[Step2]行列$M$の値を以下の漸化式によって計算していく\begin{equation}M(i,j)=\begin{cases}0&(i=0\text{または}j=0)\\M(i-1,j-1)+1&(i,j>0\text{かつ}x_i=y_j)\\\text{max}(M(i-1,j),M(i,j-1))&(i,j>0\text{かつ}x_i\neqy_j)\nonumber\end{cases}\end{equation}\item[Step3]行列$M$の要素より最大値を出力する\end{description}本手法による条文の対応関係の強さは,最長共通部分列の長さとして定義する.比較する単位としては,文字単位と単語単位の比較を行った.文字単位では,ひらがなカタカナを含む全ての文字を対象とした場合と漢字のみを対象とした場合を,単語単位では,全品詞,全品詞の原形,名詞のみ,名詞,副詞,形容詞,動詞,連体詞の5種類の4つの場合の比較を行った.また,本手法の性能比較では,入力として条見出しを用いた場合の評価も行った.以上により最長共通部分列に基づく類似尺度数は,定数重みを用いたものが$(\text{条題}|\text{条文})\times(\text{対象文字})\times(\text{絶対}|\text{相対スコア})=2\times2\times2=8$個,tf-idf重みを用いたものが$(\text{対象品詞})\times(\text{絶対}|\text{相対スコア})=4\times2=8$個の合計16個となる.\subsection{文字列アライメント}文字列アライメントは,入力として与えられた文字列に存在する類似した領域を特定できるよう,文字列を整列させる事をいう.この整列に必要とする文字・単語の挿入や削除,置換コストの合計値によって文字列間の類似度が定義される.挿入・置換のコストを1,置換コストを2とした場合,レーベンシュタイン距離あるいは編集距離と呼ばれる類似尺度になる.挿入等のコストの異なる例としては,生物情報学におけるアミノ酸配列(タンパク質)に適用される手法がある\cite{smithwaterman,needleman}.この手法におけるコストは生物の進化において変化が発生する確率に基づいて決定されている.文字列アライメントは,文字列を整列させるため,一致しない事を表す文字として「—」を用いる.今,二本の文字列$X=(\text{アイウエオ})$,$Y=(\text{アイクエオ})$が与えられたとすると,(アイ—エオ)がアライメントである.アライメントは,例えば一致した文字に2点を加点し,一致しない場合(「—」の場合)に2点を減点する,といった基準を設定する事により,類似度の数値が行われる.上記のアライメントは6点となる.与えられた基準において最も高い類似度を持つアライメントの計算には動的計画法が用いられる.入力として2つの文字列$X=(x_1x_2\cdotsx_n)$と$Y=(y_1y_2\cdotsy_m)$が与えられたとき,最も高い類似度を求めるアルゴリズムは以下の通りである.\begin{description}\item[Step1]$n+1$行,$m+1$列の行列$M$を準備する\item[Step2]$0$行及び,$0$列の値を$0$にする\item[Step3]行列$M$の値を以下の漸化式によって計算していく\[M(i,j)=\text{max}\begin{pmatrix}0,&\\M(i-1,j-1)+s(x_i,y_j),&\\M(i-1,j)-g,&\\M(i,j-1)-g&\end{pmatrix}\]\item[Step4]行列Mの要素より最大値を出力する\end{description}ここで関数$s(x,y)$は,文字$x$と$y$をアライメントさせた場合の点数であり,上記の例の場合$2点$である.また,定数$g$は,一致しない場合,すなわち「—」の時の点数であり,上記の例では$-2$点である.一般に最長共通部分列や文字列アライメントでは,共通部分文字列の順序は保存される.しかし例規比較において対応させるべき条文は,必ずしも順序が保存されているとはいいがたい.例として,愛媛県と香川県の青少年の保護に関する条例を挙げる.愛媛県の5条の2及び香川県の8条の2はともに,有害ながん具類等の販売等の制限や禁止について規定している.愛媛県では,青少年に対する有害がん具の所持制限,有害がん具の定義の順で記述しているのに対し,香川県では,有害がん具の定義,所持制限の順で記述されている.表\ref{alignOrderReal}に該当部分の抜粋を記載する.そこで,本研究では,アライメントアルゴリズムを再帰的に適用する事により順序関係が保存されていない条文へ対応した手法も用いた.再帰的な適用法は,以下の通りである.\begin{description}\item[入力]長さ$l$の文字列Aと長さ$m$の文字列B\item[Step1]文字列にアライメントを行う.その結果,文字列Aの$l_s$〜$l_e$までの部分文字列と文字列Bの$m_s$〜$m_e$までの文字列のアライメントが得られたとする.\item[Step2]文字列Aと文字列Bの整列していない部分文字列の組合せ4種類に対してそれぞれアライメントを行う.4種類の組合せは以下の通りである.\begin{itemize}\item[(a)]文字列Aの$1$〜$l_s-1$文字と文字列Bの$1$〜$m_s-1$文字\item[(b)]文字列Aの$1$〜$l_s-1$文字と文字列Bの$m_e+1$〜$m$文字\item[(c)]文字列Aの$l_e+1$〜$l$文字と文字列Bの$1$〜$m_s-1$文字\item[(d)]文字列Aの$l_e+1$〜$l$文字と文字列Bの$m_e+1$〜$m$文字\end{itemize}\item[Step3]対角線に位置する(a)と(d)の類似度の和と(b)と(c)の類似度の和のうち大きい方のアライメント結果とStep1でえられたアライメント結果を出力する.\end{description}\begin{table}[b]\caption{青少年保護に関する条例における記述順序が異なっている箇所}\label{alignOrderReal}\input{04table02.txt}\end{table}文字列アライメントによる条文の対応関係の強さは,再帰的に得られた各アライメントの類似度の値の和とした.アライメントの単位としては,\ref{subsec:LCS}節に記した最長共通部分列と同様に文字単位と単語単位の比較を行った.関数$s(x,y)$の値としては,文字単位の場合は漢字が一致した場合に2点,漢字以外が一致した場合1点とし,単語単位の場合は各単語のtf-idfスコアを用いた.以上により文字列アライメントに基づく類似尺度数は,定数重みを用いたものが$(\text{順序の保存関係})\times(\text{対象文字})\times(\text{絶対}|\text{相対スコア})=2\times2\times2=8$個,tf-idf重みを用いたものが$(\text{対象品詞})\times(\text{絶対}|\text{相対スコア})=4\times2=8$個の合計16個となる. \section{評価実験} \label{sec:solution}\subsection{実験条件と評価項目}\label{sec:experiments}\begin{table}[b]\caption{条文対応表を作成した例規の組合せ一覧}\label{reikiIchiran}\input{04table03.txt}\end{table}\begin{table}[b]\caption{条文対応表の作成時間(分)}\label{reikiTime}\input{04table04.txt}\end{table}法学者の暗黙知を適切に表現し,条文対応表の作成に適した類似尺度を明らかにするため,愛媛県と香川県の22条例を対象とした性能評価を行った.対象とした条例を表\ref{reikiIchiran}に記す.また,若尾の監督下において3名の法学部生を被験者とした条文対応表の作成に要した時間を表\ref{reikiTime}に記す.なお被験者が条文対応表を作成するにあたり青少年保護に関する条例を対象とした講義を行ったため,表\ref{reikiTime}において条例対応ID3の青少年保護に関する条例の作成時間が欠損している.ベクトル空間モデルにおける距離にはコサインを用い,条文の品詞分解にはMecab\cite{mecab}を用いた.三種類の手法で計算される条文間の類似度は条文の文字数に依存する.そこで類似度を短い方の条文の文字数で割る事で正規化した値も類似尺度として比較した.自動生成した条文対応表の評価を行うため,若尾が作成した条文対応表を正解例として正解率の比較を行った.ここで正解率とは,正解となる条文対応表を表現する二部グラフにおける辺の数を母数とし,各類似尺度を用いて得られる二部グラフと一致する辺数を母数で割った値である.\subsection{類似尺度の正解率}\label{sec:results}表\ref{res:VS},\ref{res:LCS},\ref{res:alignment}に最長共通部分列,アライメント,ベクトル空間モデルに基づく手法の正解率を示す.表中の「五詞」は名詞,副詞,形容詞,動詞,連体詞を表している.正解率が上位5位の手法にはその順位を併記した.\begin{table}[b]\caption{ベクトル空間モデルの正解率}\label{res:VS}\input{04table05.txt}\end{table}\begin{table}[t]\caption{最長共通部分列の正解率}\label{res:LCS}\input{04table06.txt}\end{table}\begin{table}[t]\caption{文字列アライメントの正解率}\label{res:alignment}\input{04table07.txt}\end{table}各アルゴリズムにおいて最も高い正解率は,ベクトル空間モデルが85\%,最長共通部分列が75\%,文字列アライメントが81\%となっている.全ての場合において絶対スコアが相対スコアの正解率を上回っている事,定数重みがtf-idf重みの正解率を上回っている事がわかる.ベクトル空間モデルでは,ベクトル長が長いほど正解率が高くなっており,用いる品詞の影響はさほど大きくない.最長共通部分列では,条見出しのみを用いた場合でも最高で71\%の正解率となっている.全ての条には条見出しが存在しない事を考慮すると大変高い正解率であると考えられる.最長共通部分列と文字列アライメントでは,単語単位よりも文字単位の方が正解率が高かった.また,文字列アライメントにおける条文内容の記述順序を考慮する事による正解率の向上はみられなかった.\subsection{受信者操作特性曲線}\label{sec:roc}前節の結果が示す通り,本手法で得られた条文の対応関係の正解率は100\%でなく,必ずしも正しいとは限らない.すなわち,この結果を用いて条文対応を作成する法務関係者は,条文の対応関係が正しいか否かを判断する必要がある.そのため,本手法で得られる対応関係の信頼度,すなわち得られた対応関係が正解である尤もらしさを提示する事が望ましい.そこで,対応関係を得るために用いた類似尺度を信頼度として利用した場合の評価を受信者操作特性曲線(ROC曲線:ReceiverOperatingCharacteristiccurve)を用いて行った.受信者操作特性曲線とは,正解と判定する類似度の閾値を変化させた場合の敏感度と偽陽性率の変化を表現したものである.敏感度とは正解を正しく正解として捕捉する率であり,偽陽性率とは,不正解を誤って正解と判定する率である.なお,提案手法によって得られた条文の対応関係の類似度が閾値よりも大きい場合に正解と判定する.ベクトル空間モデル及び文字列アライメントにおいて最も正解率の高い類似尺度及び,条見出しを対象とする最長共通部分列において最も正解率の高い類似尺度の受信者操作特性曲線(ROC曲線)を図\ref{roc_score}に示す.図の縦軸は敏感度を,横軸は偽陽性率を表す.また,各類似尺度の受信者操作特性曲線下面積を表\ref{AUC}に記す.受信者操作特性曲線では,グラフの形状が敏感度1,偽陽性率0である左上点に近い凸形状を示し,曲線下面積が1に近づくほど良い指標である事を示す.図及び表より,文字列アライメントに基づく類似尺度の曲線下面積は0.5を下回っており,信頼度として利用ができない事を示している.また,ベクトル空間モデル及び最長共通部分文字列についても0.5を少し上回っている程度であり,信頼度として利用するには低いものとなっている.\begin{figure}[t]\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{19-3ia947f4.eps}\end{center}\caption{類似度を指標としたROC曲線}\label{roc_score}\end{minipage}\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{19-3ia947f5.eps}\end{center}\caption{二位との比率を用いた場合のROC曲線}\label{roc_ratio}\end{minipage}\end{figure}\begin{table}[t]\caption{受信者操作特性曲線下面積(AUC:AreaUnderCurve)}\label{AUC}\input{04table08.txt}\end{table}上の結果は,条文や条文の見出しの長さが異なる事が原因であると考えられる.そこで,\ref{algorithm}節に示すアルゴリズムにおいて対応条を決定する{\bfstep3}および{\bfstep4}において,頂点$v_a$または$v_b$と接続する辺集合ごとにその類似度を正規化する必要があると考える.そこで,信頼度を表す新たな尺度として{\bfstep3}および{\bfstep4}で選択される辺の類似度を二番目に大きい類似度の値で割った値(以降,二位との比率と呼ぶ)の評価を行う.この信頼度に対する受信者操作特性曲線を図\ref{roc_ratio}に,曲線下面積を表\ref{AUC}に示す.図\ref{roc_score}と図\ref{roc_ratio}を比較すると,二位との比率を用いる事により信頼度を表す評価尺度の性能が大幅に向上していることがわかる.また表\ref{AUC}に示す曲線下面積は最長共通部分文字列が0.80と最大の値となっており,ベクトル空間モデルが次いで0.79となっており,二位との比率の優位性を示している.\subsection{結果の考察}\ref{sec:results}節の結果より,本研究の条文対応表作成では全単語に基づくベクトル空間モデルを用いたtf-idf重みを使わない類似尺度が最も有効である事がわかった.文字列アライメントは公開特許公報における請求項と「発明の詳細な説明」との対応付けのような,2つの文章内で言及される事柄の出現順序が同じ場合には有効であるが\cite{ronbun2-4},事柄や単語の出現順に対応できないために一般の文書での利用は不適切であると言われている\cite{ronbun1-1}.本研究においてベクトル空間モデルが文字列アライメントの結果よりも良かったのは,条文間で言及される事柄の語順が,公開特許公報ほどには保存されておらず,一般の文書に近かったためであると考えている.次に,ベクトル空間モデルの軸を構成する単語数が多い方が,そしてtf-idf重みを用いない類似尺度の方が,推定精度が高かった理由を考察する.例規で用いられる単語を調べると,県名や地名等の固有名詞の出現頻度が高く,県名,地名等に加え,甲乙,委員,委員会,規定といった単語のtf-idf値が高かった.本研究におけるベクトル空間モデルの軸は単語の出現頻度に基づいて選択した.そのため,ベクトル空間モデルの軸を構成する単語数が少ない場合,都道府県名,たとえば「愛媛」のように都道府県固有の単語が占める率が高くなる.都道府県固有の単語は,すなわち他の都道府県には出現しない単語であるため,軸を構成する単語としては不適切である.これがベクトル空間を構成する単語数が多い方が推定精度のよかった一因だと推察する.また,都道府県固有の単語に加え,甲乙や委員会といった一般的とは言えないものの,法律用語としてはありふれている単語のtf-idf値が高い事が,対応する条文を特定する精度を低下させたと考えている.本論文で掲げた全ての手法はいずれも100\%の正解率を得る事はできなかった.また,今後の研究により正解率の向上は期待できるものの法学者の暗黙知を表す数式が明らかとなり正解率が100\%となる事は期待しがたい.そのため実用上は,計算機で作成した条文対応表を基づき専門家が最終的な条文対応表を作成する,という計算機支援システムの形にならざるを得ない.この場合計算機が提示する解の信頼度や尤もらしさを提示できる事が望ましい.そこで受信者操作特性曲線を用いた評価を\ref{sec:roc}節で行った.その結果,対応する条を決定するのに用いた類似度そのものではなく,二位との比率を信頼度を評価する尺度として用いる事により最長共通部分文字列及びベクトル空間モデルにおいて受信者操作特性曲線下面積が約0.8と高い値を示す事がわかった.以上の結果により,条文対応表の生成及び作成支援のためには条見出しに対して最長共通部分文字列を,条文に対してベクトル空間モデルを適用して得られる結果を併用することがよい事がわかった.実務で利用される条文対応表では,条文の対応関係だけでなく,対応する2つの条文の差異が明示されている.そのため条文対応表の作成支援の今後としては,条文の対応関係を明らかにするだけではなく,対応する2つの条文の差異を明確化する事が求められると考えている.この目的を達成する方法としてベクトル空間モデルは適切ではない.なぜならベクトル空間モデルは対応する条文を決定するのに留まり,専門家が最終的な条文対応表を作成するための手がかりとなる情報を提示する事はできないからである.一方,文字列アライメントを用いた場合には一致する文字列群とその出現順序,そして一致する文字列に挟まれた不一致の文字列といった情報を提示する事が可能である.そのため,文字列アライメントの正解率はベクトル空間モデルよりも低いが,条文対応表を作成するために条文の差異を提示する支援システムとしての利用価値は高いと考えている.支援システムとして考えるならば,ベクトル空間モデルと最長共通部分文字列により条文の対応関係をその信頼度と共に提示し,文字列アライメントにより条文の差異を示すという形が望ましいと考えている. \section{まとめ} 地方自治体の法である例規を比較する条文対応表の作成支援のための枠組みを提案した.条文対応表を二部グラフとして表現することで条文対応表の自動生成問題を定義した.情報科学的手法を適用するため,法学者の暗黙知に類似した類似尺度を探すため,3つの計算手法にもとづく96個の類似尺度の評価を行った.愛媛県と香川県の22条例を対象として行った比較により,ベクトル空間モデルに基づく手法が最も高い正解率である事を明らかにした.また提案手法で推定した条文の対応関係の信頼度を示す尺度としては,最も高い類似度を二番目に高い類似度で割った値を利用する事で高い操作特性曲線下面積が得られる事を明らかにした.特に条見出しを対象に最長共通部分文字列を適用した結果が良い事を示した.\acknowledgment本研究の一部は科研費JSPS(21500253)の助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\Elhadad}{Barzilay\BBA\Elhadad}{2003}]{ronbun1-1}Barzilay,R.\BBACOMMA\\BBA\Elhadad,N.\BBOP2003\BBCP.\newblock\BBOQSentencealignmentformonolingualcomparablecorpora.\BBCQ\\newblockIn{\BemProceedingsofthe2003conferenceonEmpiricalmethodsinnaturallanguageprocessing},\mbox{\BPGS\25--32},Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{藤井}{藤井}{2007}]{藤井真知子:2007-07-31}藤井真知子\BBOP2007\BBCP.\newblock市町村合併における自治体法務の現状と課題:甲賀市の条例整備を手がかりとして.\\newblock\Jem{龍谷大学大学院法学研究},{\Bbf9},\mbox{\BPGS\181--214}.\bibitem[\protect\BCAY{原田\JBA青木\JBA真島}{原田\Jetal}{2009}]{原田隆史2009}原田隆史\JBA青木淳一\JBA真島由里香\BBOP2009\BBCP.\newblockクラスタリング手法に基づく条例の自動分類.\\newblock\Jem{情報ネットワーク法学会第9回研究大会予稿集},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{Hatzivassiloglou,Klavans,Holcombe,Barzilay,yenKan,\BBA\McKeown}{Hatzivassiloglouet~al.}{2001}]{ronbun1-3}Hatzivassiloglou,V.,Klavans,J.~L.,Holcombe,M.~L.,Barzilay,R.,yenKan,M.,\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQSIMFINDER:AFlexibleClusteringToolforSummarization.\BBCQ\\newblockIn{\BemInProceedingsoftheNAACLWorkshoponAutomaticSummarization},\mbox{\BPGS\41--49}.\bibitem[\protect\BCAY{平尾\JBA鈴木\JBA磯崎\JBA前田}{平尾\Jetal}{20051015}]{ronbun2-3}平尾努\JBA鈴木潤\JBA磯崎秀樹\JBA前田英作\BBOP2005-10-15\BBCP.\newblock単一言語コーパスにおける文の自動対応付け手法(自然言語).\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(10),\mbox{\BPGS\2533--2545}.\bibitem[\protect\BCAY{法情報研究センター}{法情報研究センター}{}]{JaLII}法情報研究センター.\newblock日本法令外国語訳データベースシステム.\\newblock\Turl{http://japaneselawtranslation.\linebreak[2]go.jp}.\bibitem[\protect\BCAY{ICAIL}{ICAIL}{}]{ICAIL}ICAIL.\newblock\BBOQInternationalConferenceonArtificialIntelligenceandLaw(ICAIL).\BBCQ\\newblock\Turl{http://www.iaail.org/}.\bibitem[\protect\BCAY{伊佐美}{伊佐美}{2005a}]{伊佐美浩一:2005-05}伊佐美浩一\BBOP2005a\BBCP.\newblock市町村合併調整のポイント(1)合併に関する法的問題(1)条例・規則の調整西東京市.\\newblock\Jem{自治体法務研究},{\Bbf1},\mbox{\BPGS\108--114}.\bibitem[\protect\BCAY{伊佐美}{伊佐美}{2005b}]{伊佐美浩一:2005-08}伊佐美浩一\BBOP2005b\BBCP.\newblock市町村合併調整のポイント(2)合併に関する法的問題(2)合併関連法令の問題点西東京市.\\newblock\Jem{自治体法務研究},{\Bbf2},\mbox{\BPGS\108--113}.\bibitem[\protect\BCAY{JURIX}{JURIX}{}]{JURIX}JURIX.\newblock\BBOQInternationalConferenceonLegalKnowledgeandInformationSystems(JURIX).\BBCQ\\newblock\Turl{http://www.jurix.nl/}.\bibitem[\protect\BCAY{角田}{角田}{2010}]{kakuda}角田篤泰\BBOP2010\BBCP.\newblock\Jem{ソフトウェア工学との類似性に着目した立法支援方法(三){\kern-0.5zw}},237\JVOL,第二節\JCH,\mbox{\BPGS\191--252}.\newblock名古屋大學法學部.\bibitem[\protect\BCAY{加藤}{加藤}{2006}]{加藤幸嗣:2006-05}加藤幸嗣\BBOP2006\BBCP.\newblock比較分析市町村合併と条例制定--福知山市の公の施設条例等を題材として(自治体情報条例制定の動向).\\newblock\Jem{法令解説資料総覧},{\Bbf292},\mbox{\BPGS\76--78}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{mecab}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingconditionalrandomfieldstoJapanesemorphologicalanalysis.\BBCQ\\newblockIn{\BemProc.ofEMNLP},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Lau,Law,\BBA\Wiederhold}{Lauet~al.}{2006}]{ronbun3-1}Lau,G.~T.,Law,K.~H.,\BBA\Wiederhold,G.\BBOP2006\BBCP.\newblock\BBOQArelatednessanalysisofgovernmentregulationsusingdomainknowledgeandstructuralorganization.\BBCQ\\newblock{\BemInf.Retr.},{\Bbf9},\mbox{\BPGS\657--680}.\bibitem[\protect\BCAY{Maier}{Maier}{1978}]{Maier:1978:CPS:322063.322075}Maier,D.\BBOP1978\BBCP.\newblock\BBOQTheComplexityofSomeProblemsonSubsequencesandSupersequences.\BBCQ\\newblock{\BemJ.ACM},{\Bbf25},\mbox{\BPGS\322--336}.\bibitem[\protect\BCAY{丸川\JBA岩山\JBA奥村\JBA新森}{丸川\Jetal}{2002}]{ronbun2-4}丸川雄三\JBA岩山真\JBA奥村学\JBA新森昭宏\BBOP2002\BBCP.\newblockローカルアラインメントを用いたテキスト間の柔軟な対応付け.\\newblock\Jem{情報処理学会研究報告.情報学基礎研究会報告},{\Bbf2002}(87),\mbox{\BPGS\23--28}.\bibitem[\protect\BCAY{宮部\JBA高村\JBA奥村}{宮部\Jetal}{2006}]{ronbun2-1}宮部泰成\JBA高村大也\JBA奥村学\BBOP2006\BBCP.\newblock文書横断文間関係の特定.\\newblock\Jem{言語処理学会第12回年次大会},\mbox{\BPGS\496--499}.\bibitem[\protect\BCAY{Needleman\BBA\Wunsch}{Needleman\BBA\Wunsch}{1970}]{needleman}Needleman,S.\BBACOMMA\\BBA\Wunsch,C.\BBOP1970\BBCP.\newblock\BBOQAgeneralmethodapplicabletothesearchforsimilaritiesintheaminoacidsequenceoftwoproteins.\BBCQ\\newblock{\BemJournalofMolecularBiology},{\Bbf48},\mbox{\BPGS\443--453}.\bibitem[\protect\BCAY{新森\JBA奥村}{新森\JBA奥村}{2005}]{ronbun2-2}新森昭宏\JBA奥村学\BBOP2005\BBCP.\newblock特許請求項読解支援のための「発明の詳細な説明」との自動対応付け.\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\111--128}.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{salton1975vector}Salton,G.,Wong,A.,\BBA\Yang,C.-S.\BBOP1975\BBCP.\newblock\BBOQAvectorspacemodelforautomaticindexing.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(11),\mbox{\BPGS\613--620}.\bibitem[\protect\BCAY{Smith\BBA\Waterman}{Smith\BBA\Waterman}{1981}]{smithwaterman}Smith,T.\BBACOMMA\\BBA\Waterman,M.\BBOP1981\BBCP.\newblock\BBOQIdentificationofcommonmolecularsubsequences.\BBCQ\\newblock{\BemJournalofMolecularBiology},{\Bbf147},\mbox{\BPGS\195--197}.\bibitem[\protect\BCAY{総務省行政管理局}{総務省行政管理局}{}]{eGov}総務省行政管理局.\newblock法令データ提供システム.\\newblock\Turl{http://e-gov.go.jp/}.\bibitem[\protect\BCAY{山口\JBA槫松}{山口\JBA槫松}{1998}]{山口高平:1998-03-01}山口高平\JBA槫松理樹\BBOP1998\BBCP.\newblock法律オントロジー(小特集法律と人工知能).\\newblock\Jem{人工知能学会誌},{\Bbf13}(2),\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{吉野}{吉野}{2000}]{吉野一}吉野一\JED\\BBOP2000\BBCP.\newblock\Jem{法律人工知能ー法的知識の解明と法的推論の実現}.\newblock創成社.\end{thebibliography}\begin{biography}\bioauthor{竹中要一}{1995年大阪大学基礎工学部情報工学科飛び級中退.1997年同大基礎工学研究科博士前期課程修了.2000年同大基礎工学研究科博士後期課程修了.同年同大基礎工学研究科助手.2002年同大情報科学研究科助教授.2007年同大情報科学研究科准教授.現在に至る.博士(工学).生物情報学,法情報科学の研究に従事.}\bioauthor{若尾岳志}{1996年早稲田大学法学部卒.1999年早稲田大学大学院法学研究科修士課程修了.2004年早稲田大学大学院法学研究科博士後期課程満期退学.2004年大阪学院大学法学部専任講師.2008年大阪学院大学法学部准教授.2009年年獨協大学法学部総合政策学科准教授.現在に至る.刑事法学の研究に従事.}\end{biography}\biodate\end{document}
V26N01-08
\section{はじめに} 近年,ニューラルネットワークに基づく機械翻訳(ニューラル機械翻訳;NMT)は,単純な構造で高い精度の翻訳を実現できることが知られており,注目を集めている.NMTの中でも,特に,エンコーダデコーダモデルと呼ばれる,エンコーダ用とデコーダ用の2種類のリカレントニューラルネットワーク(RNN)を用いる方式が盛んに研究されている\cite{sutskever2014sequence}.エンコーダデコーダモデルは,まず,エンコーダ用のRNNにより原言語の文を固定長のベクトルに変換し,その後,デコーダ用のRNNにより変換されたベクトルから目的言語の文を生成する.通常,RNNには,GatedRecurrentUnits(GRU)\cite{cho-EtAl:2014:EMNLP2014}やLongShort-TermMemoryLSTM)\cite{hochreiter1997long,gers2000learning}が用いられる.このエンコーダデコーダモデルは,アテンション構造を導入することで飛躍的な精度改善を実現した\cite{bahdanau2015,luong-pham-manning:2015:EMNLP}.この拡張したエンコーダデコーダモデルをアテンションに基づくNMT(ANMT)と呼ぶ.ANMTでは,デコーダは,デコード時にエンコーダの隠れ層の各状態を参照し,原言語文の中で注目すべき単語を絞り込みながら目的言語文を生成する.NMTが出現するまで主流であった統計的機械翻訳など,機械翻訳の分野では,原言語の文,目的言語の文,またはその両方の文構造を活用することで性能改善が行われてきた\cite{lin2004path,DingP05-1067,QuirkP05-1034,LiuP06-1077,huang2006statistical}.ANMTにおいても,その他の機械翻訳の枠組み同様,文の構造を利用することで性能改善が実現されている.例えば,Eriguchiら\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}は,NMTによる英日機械翻訳において原言語側の文構造が有用であることを示している.従来の文構造に基づくNMTのほとんどは,事前に構文解析器により解析された文構造を活用する.そのため,構文解析器により解析誤りが生じた場合,その構造を利用する翻訳に悪影響を及ぼしかねない.また,必ずしも構文解析器で解析される構文情報が翻訳に最適とは限らない.そこで本論文では,予め構文解析を行うことなく原言語の文の構造を活用することでNMTの性能を改善することを目指し,CKYアルゴリズム\cite{Kasami65,Younger67}を模倣したCNNに基づく畳み込みアテンション構造を提案する.CKYアルゴリズムは,構文解析の有名なアルゴリズムの一つであり,文構造をボトムアップに解析する.CKYアルゴリズムでは,CKYテーブルを用いて,動的計画法により効率的に全ての可能な隣接する単語/句の組み合わせを考慮して文構造を表現している.提案手法は,このCKYアルゴリズムを参考にし,CKYテーブルを模倣したCNNをアテンション構造に組み込むことで,原言語文中の全ての可能な隣接する単語/句の組み合わせに対するアテンションスコアを考慮した翻訳を可能とする.具体的には,提案のアテンション構造は,CKYテーブルの計算手順と同様の順序でCNNを構築し,提案のアテンション構造を組み込んだANMTは,デコード時に,CKYテーブルの各セルに対応するCNNの隠れ層の各状態を参照することにより,注目すべき原言語の文の構造(隣接する単語/句の組み合わせ)を絞り込みながら目的言語の文を生成する.したがって,提案のアテンション構造を組み込んだANMTは,事前に構文解析器による構文解析を行うことなく,目的言語の各単語を予測するために有用な原言語の構造を捉えることが可能である.ASPECの英日翻訳タスク\cite{NAKAZAWA16.621}の評価実験において,提案のアテンション構造を用いることで従来のANMTと比較して,1.43ポイントBLEUスコアが上昇することを示す.また,FBISコーパスにおける中英翻訳タスクの評価実験において,提案手法は従来のANMTと同等もしくはそれ以上の精度を達成できることを示す. \section{関連研究} ANMTの性能を改善する方向性の一つとして,文の構造を活用するANMTが数多く提案されている.文構造に基づくANMTは,原言語の文構造を利用するANMT,目的言語の文構造を利用するANMT,原言語と目的言語の文構造を利用するANMTの3つに大別できる.原言語の文構造を利用するANMTとして,Eriguchiら\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}は,事前に解析した原言語文の句構造をTree-LSTM\cite{TaiP15-1150}によりボトムアップにエンコードするANMTを提案している.Yangら\cite{YangD17-1150},そしてChenら\cite{ChenP17-1177}は,このEriguchiらのモデルを拡張し,原言語文の句構造をボトムアップにエンコードした後でトップダウンにエンコードする双方向のエンコーダを用いるANMTを提案している.Sennrichら\cite{SennrichW16-2209}は,原言語の文の言語学的素性を埋め込み層でベクトル化し,原言語の単語の埋め込みベクトルと結合したベクトルをRNNエンコーダの入力とするANMTを提案している.様々な言語学的素性を用いているが,その中に,品詞タグや係り受け関係のタグといった文構造を表す素性を用いている.Chenら\cite{ChenD17-1304}は,原言語の文の係り受け解析結果に基づき,親ノード,子ノード,兄弟ノードの情報をCNNで畳み込み,畳み込んだベクトルをANMTで用いる方法を提案している.Bastingsら\cite{BastingsD17-1209}は,原言語文の係り受け構造をグラフ構造とみなし,GraphConvolutionalNetworksにより係り受け構造をエンコーディングするエンコーダを提案し,Bag-of-WordsエンコーダやCNNエンコーダ,双方向RNNエンコーダと組み合わせることで性能改善を行っている.Liら\cite{LiP17-1064}は,原言語の文の句構造解析木を線形化して得られた構造ラベル系列と原言語文の単語系列の2つの系列をエンコーディングするエンコーダを複数提案している.目的言語の文構造を利用するANMTとしては,Wuら\cite{WuP17-1065},そしてEriguchiら\cite{EriguchiP17-2012}がShift-Reduce法の依存構造解析をデコーダに組み込み,目的言語文の単語系列とその依存構造を同時にデコードすることで目的言語側の文構造を活用するANMTを提案している.Eriguchiら\cite{EriguchiP17-2012}は,構文解析モデルの一つであるRecurrentNeuralNetworkGrammars\cite{DyerN16-1024}をNMTのデコーダに適用することで,目的言語文の構文構造を翻訳に利用している.Aharoniら\cite{AharoniP17-2021}は目的言語側の文構造を翻訳で活用するために,目的言語文の句構造解析木を線形化した系列を出力するNMTを構築することを提案している.また,Wuら\cite{Wu2018}は,原言語側と目的言語側の両方の依存構造を活用するdependency-to-dependencyニューラル機械翻訳モデルを提案している.これらの文構造に基づく従来のANMTは,構文解析器により解析した文構造を活用する.したがって,構文解析器により解析誤りが生じた場合,その構造を利用する翻訳に悪影響を及ぼしかねない.また,必ずしも構文解析器で解析される構文情報が翻訳にとって最適とは限らない.そこで本研究では,予め構文解析を行うことなく原言語の文の構造を活用するANMTを提案する.構文解析器による解析を必要としない文構造を活用するANMTとして,Hashimotoら\linebreak\cite{hashimoto-tsuruoka:2017:EMNLP2017}のモデルがある.このモデルでは,原言語側の構文解析モデルと翻訳モデルを対訳コーパスから同時に学習し,翻訳タスクに適した構文解析モデルを学習することで翻訳精度を向上させている.このモデルは構文解析として係り受け解析を用いているが,本研究では,アテンション構造で目的言語の単語を予測する際に有効な単語のまとまりを捉えることに焦点をあて,句構造解析を前提としている.また,エンコーダにCNNを用いたNMTとしては,Choら\cite{DBLP:conf/ssst/ChoMBB14},そしてGehringら\cite{ConvEncGehring2017}の手法がある.Gehringらの手法では,2つのCNNをエンコーダとして使用する.一方のCNNは,デコード時にアテンションスコアを計算するための出力を生成するもので,原言語文の幅広い情報を扱う.一方,他方のCNNは,LSTMデコーダへ入力するベクトルを計算するためのもので,局所的な情報を扱う.この手法は構文構造に焦点をあてていないが,提案手法では原言語文の構文構造に着目する.Choらの手法は,GatedRecursiveConvolutionalNeuralNetworkを用いて,原言語文をボトムアップにエンコードしている.彼らは,提案のエンコーダで文の構造を教師なしで捉えられると主張している.このモデルと本研究の提案手法との違いは,Choらの手法では,隣接する二つの下位セルを畳み込むことで上位セルを計算するのに対して,提案手法では,CKYアルゴリズムを模倣することで複数の下位セルのペアから上位セルを計算する点である.提案手法では上位セルを計算する際に複数のセルを考慮できるため,翻訳モデルの学習過程で原言語文の構造を捉えやすくなると考えられる.また,提案手法はアテンション構造を有しているが,Choらの手法ではアテンション構造を有していない点も大きな違いである.定量的に比較してみると,Choらの手法はフレーズベース統計的機械翻訳Mosesより翻訳精度が低いことが報告されているが,我々のASPEC10万文対における実験では,本研究の提案手法はMosesより翻訳精度が高い(MosesのBLEUが18.69,提案手法のBLEUが26.99である)ことを確認している.同じデータセットによる直接の定量的な比較は行っていないが,これらの結果から,提案手法の方がChoらの手法より翻訳性能がよいと考えられる. \section{アテンションに基づくニューラル機械翻訳(ANMT)} \label{sect:baseline}本節では,提案手法のベースラインとなる従来の標準的なANMT\cite{luong-pham-manning:2015:EMNLP,bahdanau2015}について説明する.ANMTは,原言語文を固定長のベクトルに変換するエンコーダ用のRNNと,変換した固定長ベクトルから目的言語文を生成するデコーダ用のRNNを用いて翻訳を行う,エンコーダデコーダモデル\cite{sutskever2014sequence,cho-EtAl:2014:EMNLP2014}にアテンション構造を導入したモデルである.本研究では,2層の双方向LSTMをエンコーダ用RNNとして使用した.原言語文\({\bfx}=x_1,x_2,\cdots,x_{S}\)が入力として与えられたとき,エンコーダは,$i$番目の入力単語$x_i$を単語埋め込み層により$d$次元ベクトル$v_i$に変換する.その後,エンコーダは,$v_i$に対する隠れ状態$h_i$を次式の通り算出する\footnote{式(5)では,消費メモリを削減するため,両方向の隠れ状態を結合ではなく可算して,次元数を少なくしている.}.\begin{align}\overrightarrow{h_{i}^{(1)}}&=LSTM^{(f,1)}_{enc}(v_{i},\overrightarrow{h_{i-1}^{(1)}}),\\\overleftarrow{h_{i}^{(1)}}&=LSTM^{(b,1)}_{enc}(v_{i},\overleftarrow{h_{i+1}^{(1)}}),\\\overrightarrow{h_{i}^{(2)}}&=LSTM^{(f,2)}_{enc}(\overrightarrow{h_{i}^{(1)}},\overrightarrow{h_{i-1}^{(2)}})+\overrightarrow{h_{i}^{(1)}},\\\overleftarrow{h_{i}^{(2)}}&=LSTM^{(b,2)}_{enc}(\overleftarrow{h_{i}^{(1)}},\overleftarrow{h_{i+1}^{(2)}})+\overleftarrow{h_{i}^{(1)}},\\h_i&=\overrightarrow{h_i^{(2)}}+\overleftarrow{h_i^{(2)}}.\end{align}ここで,$\rightarrow$と$\leftarrow$はそれぞれ順方向と逆方向を表し,$LSTM^{(f,1)}_{enc},LSTM^{(b,1)}_{enc},LSTM^{(f,2)}_{enc},LSTM^{(b,2)}_{enc}$は,それぞれ第1層目の順方向,第1層目の逆方向,第2層目の順方向,第2層目の逆方向のLSTMエンコーダを表す.また,$\overleftarrow{h_{i}^{(1)}}$,$\overrightarrow{h_{i}^{(1)}}$,$\overleftarrow{h_{i}^{(2)}}$,$\overrightarrow{h_{i}^{(2)}}$,$h_{i}$の次元は$d$である.また,第2層目のLSTMエンコーダには,ResidualConnection\cite{he2016deep}を適用した.ResidualConnectionとは,ショートカット接続を持つ構造で,パラメータの最適化を容易にするものである.初期のエンコーダデコーダモデル\cite{sutskever2014sequence,cho-EtAl:2014:EMNLP2014}では,デコーダは,原言語の文をエンコードした固定長のベクトル$h_{S}$を初期値として目的言語の文を生成する.一方で,アテンション構造を導入したANMTでは,デコーダは,LSTMエンコーダの各隠れ層の状態$h_{i}(i=1,\cdots,S)$を参照しながら,目的言語の文を生成する.アテンション構造としては,\textit{AdditiveAttention}\cite{bahdanau2015}や\textit{Dot-ProductAttention}\cite{luong-pham-manning:2015:EMNLP}が主流である.本研究では,アテンション構造として\textit{Dot-ProductAttention}の一つである,\textit{GlobalDotAttention}\cite{luong-pham-manning:2015:EMNLP}を用いる.また,デコーダ用のRNNとして2層のLSTMを使用する.以下ではデコーダの動作を説明する.デコーダは,エンコーダによって与えられる原言語文の情報に基づき,目的言語文\({\bfy}=y_1,y_2,\cdots,y_T\)を出力する.まず,第1層目のLSTMデコーダ($LSTM^{(1)}_{dec}$)と第2層目のLSTMデコーダ($LSTM^{(2)}_{dec}$)の初期状態を,それぞれ,第1層目,第2層目の逆方向のLSTMエンコーダの内部状態に初期化する.その後,$j$番目のLSTMデコーダの第1層目,第2層目の隠れ層の状態$s_j^{(1)}$,$s_j^{(2)}$を,次式の通り,一つ前($j-1$番目)のデコーダの情報(出力単語や隠れ層の状態など)に基づいて算出する.\begin{align}s_j^{(1)}&=LSTM^{(1)}_{dec}([w_{j-1};{\hats_{j-1}}],s_{j-1}^{(1)}),\\s_j^{(2)}&=LSTM^{(2)}_{dec}(s_j^{(1)},s_{j-1}^{(2)}).\end{align}ここで,$w_{j-1}$は$j-1$番目の出力単語である$y_{j-1}$の単語埋め込みベクトル,「;」はベクトルの結合,${\hats_{j-1}}$は出力単語$y_{j-1}$の生成時に使用されたアテンションベクトルを表す\footnote{次の時刻のLSTMへの入力にアテンションベクトルを与える方式をinputfeeding\cite{luong-pham-manning:2015:EMNLP}と呼ぶ.}.なお,$w_{j-1}$と$\hat{s}_{j-1}$は$d$次元である.その後,$j$番目のアテンションベクトル$\hat{s}_{j}$を,コンテキストベクトル$c_j$を使用して,次式の通り算出する.\begin{equation}{\hats_{j}}=\mathrm{tanh}(W_c[s_{j}^{(2)};c_j]+b_c).\end{equation}ここで,$W_c\inR^{d\times2d}$は重み行列,$b_c\inR^{d}$はバイアス項,$\mathrm{tanh}$はハイパボリックタンジェント関数である.コンテキストベクトル$c_j$は,エンコーダの全状態$h_{i}(i=1\cdotsS)$の加重平均であり,次式の通り算出されたものである.\begin{equation}c_j=\sum^{S}_{i=1}\alpha_j(i)h_i.\end{equation}ここで,アテンションスコアと呼ばれる重み$\alpha_j(i)$は,デコーダの状態$s^{(2)}_{j}$において,エンコーダの状態$h_i$に対する重要度を表し,次式の通り算出される.\begin{equation}\alpha_j(i)=\frac{\exp(h_i\cdots_{j}^{(2)})}{\sum_{k=1}^{S}\exp(h_k\cdots_{j}^{(2)})}.\end{equation}ここで,$\mathrm{\exp}$は指数関数を表す.その後,$j$番目の出力単語$y_j$の確率分布は,アテンションベクトル${\hats_{j}}$に基づき次式の通り求めることができる.\begin{equation}p(y_j|y_{<j},{\bfx})=\mathrm{softmax}(W_s{\hats_{j}}+b_s).\end{equation}ここで,$W_s\inR^{|V|\timesd}$は重み行列,$b_s\inR^{|V|}$はバイアス項,$\mathrm{softmax}$はソフトマックス関数を表す.また,$|V|$は目的言語の辞書のサイズを表す.ANMTの目的関数は,次式で表される.\begin{equation}J(\theta)=-\sum_{(\bfx,\bfy)\inD}\logp(\bfy|\bfx).\end{equation}ここで,$D$はデータセット全体を表し,$\theta$は学習されるモデルパラメータである.このように,出力単語は,アテンションスコアを重みとした荷重平均であるコンテキストベクトルにしたがって算出したアテンションベクトルに基づいて決定されるため,ANMTでは,エンコーダの各状態の中から注目すべき状態(原言語の文の中で注目すべき単語)をしぼりこみながら目的言語の文を生成することができる. \section{提案モデル} \label{sect:proposed}\subsection{CKYアルゴリズム}CKYアルゴリズムは,チョムスキー標準形の文脈自由文法により,ボトムアップに構文を解析する手法である.チョムスキー標準形とは,$A,B,C$を非終端記号,$a$を終端記号としたとき,生成規則がすべて$A\rightarrowBC$または$A\rightarrowa$の形をしているものである.CKYアルゴリズムでは,図\ref{fig:cky-table}に示すCKYテーブルをボトムアップに埋めていくことで構文解析を行う.CKYテーブルのセルにある括弧中の数字は入力文中の単語のインデックスであり,括弧により入力文中の部分文字列を表現している.例えば,$[0,3]$のセルには,1単語目$w_{1}$から3単語目$w_{3}$までの部分文字列に相当する非終端記号が格納される.各セルに非終端記号を格納する際は,部分文字列を2つにわけ,そのすべての組み合わせに対する生成規則を満たす非終端記号を追加する.例えば,$[0,3]$のセルを埋める場合,$[0,1]$と$[1,3]$の組み合わせ及び$[0,2]$と$[2,3]$の組み合わせを考慮する.CKYテーブルの各セルをボトムアップに埋めていき,最上位のセル(図\ref{fig:cky-table}の場合,$[0,5]$のセル)が開始記号となれば,構文解析に成功する.\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f1.eps}\end{center}\caption{CKYテーブル}\label{fig:cky-table}\end{figure}\begin{table}[b]\input{08algo01.tex}\end{table}CKYアルゴリズムの疑似コードをAlgorithm1に示す.Algorithm1において,$R$は非終端記号の集合を表す.Algorithm1の2行目と3行目では,CKYテーブルの第一層目の初期化を行う.4行目で入力文中の単語数,5行目で句の開始位置,7行目で句の分割可能な位置について網羅的にforループで回すことで部分文字列の全組み合わせに対して処理を行う.8行目から10行目では,着目している2つのセルに含まれる非終端記号を生成する生成規則が存在するとき,新たな句を候補として追加している.このように,下位のセルからボトムアップに動的計画法で生成規則を考えていくことで,効率よく全ての隣接する単語/句の組み合わせを考慮した構文解析を可能としている.\subsection{CKYに基づく畳み込みアテンション構造による機械翻訳}図\ref{fig:overall}に提案モデルの全体の構造を示す.提案モデルのエンコーダ部では,通常のLSTMエンコーダ(\ref{sect:baseline}節参照)により原言語の文を単語列としてエンコードする.加えて,CKYアルゴリズムのCKYテーブルにおける計算手順を模倣し,CNNを用いて,原言語文中の隣接する単語/句の組み合わせをエンコードする.そしてデコーダ部では,LSTMエンコーダの各隠れ状態に対するアテンションスコアから算出したコンテキストベクトル$c_{j}$に加えて,原言語文中の単語の組み合わせのエンコード結果に対するアテンションスコアから算出したコンテキストベクトル$c_{j}^{'}$に基づき,アテンションベクトル${\hats_{j}}$を生成する.そして,注目すべき単語,注目すべき単語の組み合わせの情報を含んだアテンションベクトル${\hats_{j}}$に基づき目的言語の単語を予測する.以下で,提案モデルの具体的な計算方法を説明する.\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f2.eps}\end{center}\caption{CKYに基づく畳み込みアテンション構造の全体図}\label{fig:overall}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-1ia8f3.eps}\end{center}\caption{CKYに基づく畳み込みアテンション構造のDeductionUnit}\label{fig:residualconnections}\end{figure}提案手法のアテンション構造では,CKYアルゴリズムにおける生成規則を図\ref{fig:residualconnections}に示すネットワーク構造によって模倣する.具体的には,CKYアルゴリズムにおいて生成規則がCKYテーブルの2つのセルをボトムアップにまとめる動作を模倣して,図\ref{fig:residualconnections}のネットワーク構造により,CKYテーブルの2つのセル(具体的には$d$次元ベクトル)から,上位のセルの$d$次元ベクトルを算出する.ここで,CKYテーブルの各セルの$d$次元ベクトルは,セルが表現する単語の組み合わせの状態を表すベクトルと捉えることができる.このCKYアルゴリズムにおける生成規則に対応するネットワークをDeductionUnit(DU)と呼ぶ.DUは,4種類の1DCNNを残差接続し,その後LayerNormalization\cite{Ba2016LayerN}により,ベクトルを正規化して出力する構造である\footnote{予備実験において1種類のCNNで構成した単純なDUでは性能が悪かったため,Heら\cite{he2016deep}を参考にし,DUを図\ref{fig:residualconnections}のように構築した.}.図\ref{fig:residualconnections}では,各CNNのフィルタサイズと出力チャネル数を括弧内に記している.具体的には,CNN1,CNN2,CNN3,CNN4のフィルタサイズは,それぞれ,$1$,$2$,$1$,$2$であり,チャネル数は,それぞれ,$\frac{d}{2}$,$\frac{d}{2}$,$d$,$d$である.DUは入力として2つのベクトルを受け取る.CNN1では,DUに入力された2つのベクトルをフィルタサイズ1のCNNにより,チャネル数$\frac{d}{2}$に変換する.その後,フィルタサイズ2のCNN2により,2つのベクトルを1つのベクトルへ畳み込む.そして,畳み込まれたベクトルは,フィルタサイズ1のCNN3によりチャネル数$d$へと変換される.また,DUに入力された2つのベクトルはフィルタサイズ2のCNN4によって1つのベクトルに畳み込まれる\footnote{通常,ResidualConnectionは入力ベクトルをそのまま加算するが,提案手法では,入力が2つのベクトル,出力が1つのベクトルであるため,そのまま加算することができない.そこで図\ref{fig:residualconnections}においてCNN4を導入した.}.その後,CNN3の出力ベクトルとCNN4の出力ベクトルを加算し,LayerNormalizationにより正規化した後に,DUの出力として1つのベクトルを出力する.なお,DUのそれぞれのCNNへの入力ベクトルには,Relu関数を適用している.このDUを使うことで,CKYアルゴリズムの計算順序と同様の順序で下位セルの2つの状態を畳み込むことにより,CKYテーブルの各セルの状態を導出することができる.ただし,上位セルの状態を導出する際,CKYアルゴリズムと同様,複数のDUから当該上位セルの状態となりうるベクトルが算出される.その際は,候補となったベクトルのうち,要素和が最大であるベクトルに設定する.この全体のネットワークをCKY-CNNと呼ぶ.ここで,CKY-CNNは,レイヤーの数は文長と同等となり,また,各レイヤーにおいてDUのパラメータは共有されることに注意されたい.以降,$i$層目のCKY-CNNの$j$番目のセルの状態を$h^{(cky)}_{i,j}$と記述すると,CKY-CNNの具体的な動作は次の通りである.まず,CKY-CNNの第1層目の状態(${\bfh^{(cky)}_{1}}=(h^{(cky)}_{1,1},...,h^{(cky)}_{1,S})$)を,LSTMエンコーダの状態(${\bfh}=(h_1,...,h_S)$)に設定する.\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f4.eps}\end{center}\caption{CKY-CNNの例}\label{fig:CKY}\end{figure}そして,2層目より上の層のCKY-CNNのセルの状態を次のように算出する.\begin{equation}h_{i,j}^{(cky)}=\max_{1\lek\lei-1}DU(h_{k,j}^{(cky)},h_{i-k,j+k}^{(cky)}).\end{equation}ここで,$\max$関数は入力されたそれぞれのベクトルに対してベクトルの要素和を計算し,その値が最大となるベクトルを返す関数である.図\ref{fig:CKY}に,CKY-CNNにより,セル($h^{(cky)}_{4,1}$)を導出する畳み込みの例を示す.この導出過程では,以下が実行される.\begin{equation*}h^{(cky)}_{4,1}=\max(DU(h^{(cky)}_{1,1},h^{(cky)}_{3,2}),DU(h^{(cky)}_{2,1},h^{(cky)}_{2,3}),DU(h^{(cky)}_{3,1},h^{(cky)}_{1,4})).\end{equation*}具体的には,3つのDUが,それぞれ,2つのセル($h^{(cky)}_{3,1}$と$h^{(cky)}_{1,4}$),2つのセル($h^{(cky)}_{2,1}$と$h^{(cky)}_{2,3}$),2つのセル($h^{(cky)}_{1,1}$と$h^{(cky)}_{3,2}$)の状態に基づきベクトルを生成する.その後,ベクトルの要素和が最も大きいベクトルをセル($h^{(cky)}_{4,1}$)の状態に設定する.CKYに基づく畳み込みアテンション構造を用いたNMTでは,LSTMエンコーダの隠れ層の状態に加えて,CKY-CNNの隠れ層の状態(CKYテーブルの各セルの状態)を参照しながら目的言語の文を生成する.デコーダの状態$s^{(2)}_{j}$とCKY-CNNの隠れ層の状態$h^{(cky)}_{i,j}$とのアテンションスコアは\textit{GlobalDotAttetnion}\cite{luong-pham-manning:2015:EMNLP}を用いて次式の通り計算する.\begin{equation}\alpha^{'}(i_1,i_2,j)=\frac{\exp(h_{i_1,i_2}^{(cky)}\cdots_j^{(2)})}{\sum_{k=1}^{S}\sum_{l=1}^{S-k+1}\exp(h_{k,l}^{(cky)}\cdots_j^{(2)})}.\end{equation}ここで,$s_j^{(2)}$は第2層目のLSTMデコーダの隠れ層の状態である.そして,CKY-CNNのコンテキストベクトル$c_{j}^{'}$を次式の通り算出する.\begin{equation}c_{j}^{'}=\sum_{k=1}^{S}\sum_{l=1}^{S-k+1}\alpha^{'}(k,l,j)h_{k,l}^{(cky)}.\end{equation}その後,アテンションベクトル$\hat{s}_j$を,LSTMエンコーダのコンテキストベクトル($c_j$)とCKY-CNNのコンテキストベクトル($c_{j}^{'}$)に基づき次のように算出する.\begin{equation}{\hats_j}=\mathrm{tanh}({\hatW}[s_j^{(2)};c_j;c_j^{'}]+{\hatb}).\end{equation}ここで,${\hatW}\inR^{d\times3d}$は重み行列,${\hatb}\inR^{d}$はバイアス項である.また,LSTMエンコーダのコンテキストベクトル$c_j$は,式(9)の通り算出されたものであることを確認しておく.$j$番目の目的言語の単語は,従来のANMTと同様に,アテンションベクトル$\hat{s_j}$を用いて次のように計算する.\begin{equation}p(y_j|y_{<j},{\bfx})=\mathrm{softmax}(W_s{\hats_{j}}+b_s).\end{equation}ここで,$W_s\inR^{|V|\timesd}$は重み行列,$b_s\inR^{|V|}$はバイアス項を表す.提案手法の目的関数は,従来のANMTと同様,式(12)である.また,提案モデルの時間計算量は$\mathcal{O}(S^{3}+S^{2}T)$,空間計算量は$\mathcal{O}(S^{2}T)$である.ここで,$S$は原言語文の文長,$T$は目的言語文の文長である. \section{実験} 本節では,\ref{sect:proposed}節で提案したモデルの性能及び有効性を検証する.\subsection{実験設定}評価実験は,AsianScientificPaperExcerptCorpus(ASPEC)\footnote{http://orchid.kuee.kyoto-u.ac.jp/WAT/WAT2015/index.html}の英日翻訳タスク,新聞から作成されたFBISコーパスを用いた中英翻訳タスクにより行った.英文の単語分割はMosesDecoder,日本語文の単語分割はKytea\cite{neubig2011pointwise},中国語文の単語分割はStanfordChineseSegmenter\footnote{http://nlp.stanford.edu/software/segmenter.shtml}を使用した.また,各コーパスの文字は全て小文字に変換した.実験に使用した対訳文の数を表\ref{table:datasize}に示す.学習データとして,ASPECでは100,000文対,FBISでは172,400文対の対訳文を用いた.なお,ASPEC,FBISともに学習データとして単語の数が50単語以下の文を使用した.また,ASPEC,FBISともに学習データにおいて,出現数が2回未満の単語は特殊文字「UNK」に置き換えた.FBISについては,開発データとしてNIST02の評価データを使用し,テストデータとしてNIST03,NIST04,NIST05の評価データを用いた.\begin{table}[b]\caption{実験データの対訳文対}\label{table:datasize}\input{08table01.tex}\end{table}単語埋め込みベクトルと隠れ層の各状態のベクトルの次元数は256とした.モデルの各パラメータの学習にはAdam\cite{kingsma2014adam}を使用し,Adamのパラメータの初期値は,$\alpha=0.01$,$\beta_1=0.9$,$\beta_2=0.99$とした.学習率は,1エポック毎に開発データに対するパープレキシティを計算し,パープレキシティが以前のエポックと比較して増加した場合に半分にした.勾配はEriguchiら\cite{eriguchi2016character}に倣い,3.0でクリッピングした.また,過学習を防ぐために,Dropout\cite{srivastava2014dropout}とWeightDecay\footnote{Pytorch(https://pytorch.org/)で実装されているL2penaltyを使用した.}を用いた.Dropoutの比率は,LSTMでは0.2,CNNでは0.3とし,WeightDecayの係数は$10^{-6}$とした.バッチサイズは50とした.なお,ハイパーパラメータは,開発データに対するBLEUスコアにより決定した.また,目的言語の文は出現確率に基づいた貪欲法により生成した.\begin{table}[b]\caption{実験結果(BLEU($\%$))}\label{tab:bleu}\input{08table02.tex}\end{table}\begin{table}[b]\caption{学習時間及びデコード時間(秒)}\label{tab:time}\input{08table03.tex}\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f5.eps}\end{center}\caption{開発データにおけるBLEUの推移}\label{fig:BLEUTransition}\vspace{-1\Cvs}\end{figure}\subsection{実験結果}提案のCKYに基づく畳み込みアテンションの有効性を検証するため,提案のアテンションを用いたNMT(\ref{sect:proposed}節)と従来のアテンションを用いたNMT(\ref{sect:baseline}節)を比較した.ベースラインの従来モデルと提案モデルの違いは,アテンション構造のみである.表\ref{tab:bleu}に各モデルの翻訳精度を示す\footnote{デフォルト設定のMosesフレーズベース統計的機械翻訳\cite{koehn2007moses}のASPECに対するBLEUは$18.69$であったことを参考のために報告しておく.}.翻訳精度の評価尺度はBLEU\cite{papineni2002bleu}を用いた.また参考のために,表\ref{tab:time}に,ASPECにおける,1エポックあたりの平均学習時間及び一文ずつデコードした際のテストデータのデコードにかかった時間を示す\footnote{CPUはIntelXeonE5-1650,GPUはNVIDIAGeForceTITANXを用いた.}.図\ref{fig:BLEUTransition}には,ASPECにおける開発データに対するBLEUスコアの推移を示す.翻訳精度の有意差検定は,有意差水準$5\%$でブートストラップによる検定手法\cite{koehn2004statistical}により行った.表\ref{tab:bleu}の「*」は,提案モデルと従来のANMTモデルの翻訳精度の差が統計的に有意であることを示す.表\ref{tab:bleu}より,ASPEC,FBIS(NIST03),FBIS(NIST04)では,提案モデルが従来のANMTより統計的に有意に翻訳精度が良いことが分かる.また,FBIS(NIST05)では,提案モデルは従来のANMTと同等の翻訳精度であることが分かる.これらの結果より,提案のアテンション構造はNMTの性能改善に寄与することが実験的に確認できる. \section{考察} \subsection{提案モデルの各要素の有効性検証}本節では,提案モデルの各要素の有効性を検証するため,ASPEC10万文対の英日翻訳タスクにおいて提案モデルと以下の3つのモデルを比較する.1つ目は,提案モデルの式(16)においてLSTMエンコーダのコンテキストベクトル($c_j$)を取り除いたモデル,すなわち,CKY-CNNのコンテキストベクトル($c'_j$)のみを使用したモデル「提案モデル($c_j^{'}$のみ)」である.2つ目は,提案モデルのDU(図\ref{fig:residualconnections})において,CNN4の代わりに二つの入力ベクトルの要素和を演算に使用するモデル「提案モデル(要素和)」である.3つ目は,従来ANMTモデルのエンコーダLSTMを,提案モデルの計算時間と同等になるまで,再帰的に積み重ねたモデル「再帰的従来ANMTモデル」である.具体的には,エンコーダの2つのLSTMを6回再帰的に使用して原言語文をエンコードした.実験結果を表\ref{tab:etc_exp}に示す.「提案モデル($c_j^{'}$のみ)」は「従来モデル」よりも翻訳精度が高いことが分かる.ただし,「提案モデル」よりは翻訳精度が低い.このことから,CKY-CNNのコンテキストベクトルのみを用いた場合でも提案モデルはNMTの精度改善に寄与できるが,LSTMのコンテキストベクトルとCKY-CNNのコンテキストベクトルを同時に使用することで,NMTの翻訳精度がさらに改善されることが分かる.\begin{table}[b]\caption{提案モデルの各要素の有効性検証実験の結果(BLEU($\%$))}\label{tab:etc_exp}\input{08table04.tex}\end{table}「提案モデル」と「提案モデル(要素和)」を比較すると「提案モデル」の方が翻訳精度が高い.このことから,提案モデルのDUにおいて,CNN4を用いたresidualconnectionが有効であったことが分かる.また,「提案モデル」は,層を深くした従来モデルである「再帰的従来ANMTモデル」の翻訳精度を上回っており,このことからも提案モデルの有用性が実験的に確認できる.\subsection{大規模コーパスにおける有効性検証}本節では,大規模コーパスにおいても提案手法の有効性が確認できるかを検証する.具体的には,ASPECの英日翻訳で1,346,946文対の学習データを使った場合の性能を評価する.本実験では,3節で説明した従来のANMTと提案モデルに加え,Eriguchiらのモデル\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}とGehringらのモデル\cite{ConvEncGehring2017}との比較も行う.Eriguchiらのモデルの翻訳精度は,彼女らの論文で報告されている次元数1,024のモデルの翻訳精度である.Gehringらのモデルの翻訳精度は,公開されているモデルをデフォルトの設定で実験データに適用した翻訳精度である.本実験においては,単語埋め込みベクトルと隠れ層の各状態のベクトルの次元数は512とした.また,学習データにおいて出現回数が9回未満の単語を特殊文字「UNK」に置き換えた.LSTMのDropoutの比率は$0.2$,WeightDecayの係数は$10^{-8}$とし,目的言語文はビームサーチにより生成した.ビーム幅は5,10,15,20のうち,開発データに対するBLEUスコアが最も高いものを選択した.具体的には,従来のANMTモデルはビーム幅20,提案モデルはビーム幅15であった.その他の設定は,5.1節と同じである.\begin{table}[b]\caption{大規模コーパスにおける実験結果(BLEU($\%$))}\label{tab:big_exp}\input{08table05.tex}\end{table}表\ref{tab:big_exp}に実験結果を示す.表\ref{tab:big_exp}より,提案モデルは従来のANMTモデルよりも翻訳精度が良いことが分かる.また,先行研究と比較しても翻訳精度が高い.なお,提案モデルと従来のANMTモデルの翻訳精度の差及び提案モデルとGehringらのモデルの翻訳精度の差は有意差水準$5\%$で統計的に有意であった\footnote{Eriguchiらの翻訳精度は引用した値なので,有意差検定は行えなかった.}.これらのことから大規模データに対しても提案モデルが有効であることが分かった.\subsection{アテンションスコアの解析}本研究では,予め構文解析を行うことなく原言語の文の構造をANMTで活用することが目的であった.そこで,目的言語の単語を予測する際に,提案のアテンション構造により,原言語の文の構造(複数の隣接する単語/句の組み合わせ)を活用できているかを考察する.\begin{table}[p]\caption{翻訳結果の例}\label{tab:translation}\input{08table06.tex}\end{table}\begin{figure}[p]\begin{center}\includegraphics{26-1ia8f6.eps}\end{center}\caption{アテンションスコアの例1(左図:い(ついて),右図:し(した))}\label{fig:attention-score1}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{26-1ia8f7.eps}\end{center}\caption{アテンションスコアの例2(左図:絶縁,右図:結晶)}\label{fig:attention-score2}\end{figure}表\ref{tab:translation}に英日翻訳のテストデータ対する従来のANMTおよび提案モデルの翻訳結果の実例を示し,図\ref{fig:attention-score1}と図\ref{fig:attention-score2}に表\ref{tab:translation}の翻訳結果を生成した際の提案モデルのアテンションスコアを示す.また,図\ref{fig:attention-base}に表\ref{tab:translation}の翻訳結果を生成した際の従来のANMTのアテンションスコアを示す.図\ref{fig:attention-score1}の左図は「ついて」の「い」,右図は「した」の「し」を生成する際のアテンションスコア\footnote{Kyteaでの単語分割では,「ついて」は,「つ」,「い」,「て」の3単語,「した」は「し」と「た」に分割された.}であり,図\ref{fig:attention-score2}の左図は「絶縁」,右図は「結晶」を生成する際のアテンションスコアである.図\ref{fig:attention-score1},図\ref{fig:attention-score2},図8では,セルが濃い色であるほど(黒に近いほど),より高いアテンションスコアであることを表している.また,図6と図7においては,横軸は原言語の単語を示し,縦軸はCKY-CNNの深さを示す.なお,CKY-CNNの第1層目のアテンションスコアは,LSTMの隠れ層のアテンションスコアと一致する.つまり,第1層目のアテンションスコアが,原言語の単語に対するアテンション,第2層目より上のアテンションスコアが構造(隣接する単語/句の組み合わせ)に対するアテンションを示す.図\ref{fig:attention-score2}より,「絶縁」や「結晶」のような内容語のように単語単位のアライメントが明確に分かる単語に対しては,第1層目(LSTM層)のアテンションスコアが高くなっている.一方で,図\ref{fig:attention-score1}の「い」や「し」のような機能語のように単語単位のアライメントが明確にならない単語に対しては,高いアライメントスコアが2層目より上(CKY層)に位置していることが分かる.一方で,図\ref{fig:attention-base}の従来のANMTのアテンションスコアでは,「ため」と``technological'',「た」と``.(ピリオド)''のように対応関係にない単語に対してもアテンションスコアが高くなっている.\begin{figure}[b]\begin{center}\includegraphics{26-1ia8f8.eps}\end{center}\caption{従来のANMTのアテンションスコアの例}\label{fig:attention-base}\end{figure}また,表\ref{tab:pos}に,提案モデルにおける,品詞ごとのアテンションスコアの配置について示す.これは,Kyteaが特定した品詞ごとに最も高いアテンションスコアの層を数え上げたものである.表\ref{tab:pos}より,名詞,形容詞,副詞といった単語単位のアライメントが明確に分かる単語に対しては,第1層目にアテンションが多く張られていることが分かる.一方で,語尾,助詞,助動詞といった単語単位のアライメントが明確になりにくい単語に対しては,第2層目以降にアテンションが張られる傾向があることが分かる.\begin{table}[t]\caption{品詞ごとのアテンションスコアの配置}\label{tab:pos}\input{08table07.tex}\end{table}以上より,従来のANMTのアテンション構造が単語レベルでのアライメントを見つけるのに対して,提案のアテンション構造は2層目以降を活用して構造的なアライメントを捉えていることが分かる. \section{まとめ} 本論文では,NMTの性能を改善するため,CKYアルゴリズムを模倣したCNNに基づく新たなアテンション構造を提案した.提案のアテンション構造を用いることで,ASPECの英日翻訳タスクの評価では,従来のANMTと比較して1.43ポイントBLEUスコアが上昇し,FBISにおける中英翻訳タスクでは,従来のANMTと比較して同等かそれ以上の翻訳精度を達成できることを実験的に確認した.また,提案のアテンション構造は従来のANMTのアテンション構造では捉えることができない隣接する単語/句の組み合わせに対するアライメント(構造的なアライメント)を捉えることができることを実例により確認した.提案のアテンション構造は,CKYテーブルのすべてのセルの隠れ状態を保持する必要があるため,従来手法と比べて多くのメモリを使用する.今後は,メモリ消費の問題について提案手法を改善し,より少ないメモリ消費で動作するモデルに改善したい.また,提案手法では,上位セルの状態を導出する際,複数の候補から1つのみを選択するが.今後は,候補に対して重み付けを行うなどして複数の状態を考慮できるモデルに改良したい.\acknowledgment本論文は国際会議The8thInternationalJointConferenceonNaturalLanguageProcessingで発表した論文\cite{myI17-2001}に基づいて日本語で書き直し,説明や評価を追加したものである.本研究成果は,国立研究開発法人情報通信研究機構の委託研究により得られたものである.また,本研究の一部はJSPS科研費25280084及び18K18110の助成を受けたものである.ここに謝意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aharoni\BBA\Goldberg}{Aharoni\BBA\Goldberg}{2017}]{AharoniP17-2021}Aharoni,R.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2017\BBCP.\newblock\BBOQTowardsString-To-TreeNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\132--140}.\bibitem[\protect\BCAY{Ba,Kiros,\BBA\Hinton}{Baet~al.}{2016}]{Ba2016LayerN}Ba,J.,Kiros,R.,\BBA\Hinton,G.~E.\BBOP2016\BBCP.\newblock\BBOQLayerNormalization.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1607.06450}.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2015}]{bahdanau2015}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLearningRepresentations.}\bibitem[\protect\BCAY{Bastings,Titov,Aziz,Marcheggiani,\BBA\Simaan}{Bastingset~al.}{2017}]{BastingsD17-1209}Bastings,J.,Titov,I.,Aziz,W.,Marcheggiani,D.,\BBA\Simaan,K.\BBOP2017\BBCP.\newblock\BBOQGraphConvolutionalEncodersforSyntax-awareNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1957--1967}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chen,Huang,Chiang,\BBA\Chen}{Chenet~al.}{2017a}]{ChenP17-1177}Chen,H.,Huang,S.,Chiang,D.,\BBA\Chen,J.\BBOP2017a\BBCP.\newblock\BBOQImprovedNeuralMachineTranslationwithaSyntax-AwareEncoderandDecoder.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1936--1945}.\bibitem[\protect\BCAY{Chen,Wang,Utiyama,Liu,Tamura,Sumita,\BBA\Zhao}{Chenet~al.}{2017b}]{ChenD17-1304}Chen,K.,Wang,R.,Utiyama,M.,Liu,L.,Tamura,A.,Sumita,E.,\BBA\Zhao,T.\BBOP2017b\BBCP.\newblock\BBOQNeuralMachineTranslationwithSourceDependencyRepresentation.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2846--2852}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Bahdanau,\BBA\Bengio}{Choet~al.}{2014a}]{DBLP:conf/ssst/ChoMBB14}Cho,K.,vanMerrienboer,B.,Bahdanau,D.,\BBA\Bengio,Y.\BBOP2014a\BBCP.\newblock\BBOQOnthePropertiesofNeuralMachineTranslation:Encoder-DecoderApproaches.\BBCQ\\newblockIn{\BemProceedingsof8thWorkshoponSyntax,SemanticsandStructureinStatisticalTranslation},\mbox{\BPGS\103--111}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Gulcehre,Bahdanau,Bougares,Schwenk,\BBA\Bengio}{Choet~al.}{2014b}]{cho-EtAl:2014:EMNLP2014}Cho,K.,vanMerrienboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,\BBA\Bengio,Y.\BBOP2014b\BBCP.\newblock\BBOQLearningPhraseRepresentationsusingRNNEncoder--DecoderforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1724--1734}.\bibitem[\protect\BCAY{Ding\BBA\Palmer}{Ding\BBA\Palmer}{2005}]{DingP05-1067}Ding,Y.\BBACOMMA\\BBA\Palmer,M.\BBOP2005\BBCP.\newblock\BBOQMachineTranslationUsingProbabilisticSynchronousDependencyInsertionGrammars.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\541--548}.\bibitem[\protect\BCAY{Dyer,Kuncoro,Ballesteros,\BBA\Smith}{Dyeret~al.}{2016}]{DyerN16-1024}Dyer,C.,Kuncoro,A.,Ballesteros,M.,\BBA\Smith,N.~A.\BBOP2016\BBCP.\newblock\BBOQRecurrentNeuralNetworkGrammars.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\199--209}.\bibitem[\protect\BCAY{Eriguchi,Hashimoto,\BBA\Tsuruoka}{Eriguchiet~al.}{2016a}]{eriguchi2016character}Eriguchi,A.,Hashimoto,K.,\BBA\Tsuruoka,Y.\BBOP2016a\BBCP.\newblock\BBOQCharacter-basedDecodinginTree-to-SequenceAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianTranslation},\mbox{\BPGS\175--183}.\bibitem[\protect\BCAY{Eriguchi,Hashimoto,\BBA\Tsuruoka}{Eriguchiet~al.}{2016b}]{eriguchi-hashimoto-tsuruoka:2016:P16-1}Eriguchi,A.,Hashimoto,K.,\BBA\Tsuruoka,Y.\BBOP2016b\BBCP.\newblock\BBOQTree-to-SequenceAttentionalNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\823--833}.\bibitem[\protect\BCAY{Eriguchi,Tsuruoka,\BBA\Cho}{Eriguchiet~al.}{2017}]{EriguchiP17-2012}Eriguchi,A.,Tsuruoka,Y.,\BBA\Cho,K.\BBOP2017\BBCP.\newblock\BBOQLearningtoParseandTranslateImprovesNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\72--78}.\bibitem[\protect\BCAY{Gehring,Auli,Grangier,\BBA\Dauphin}{Gehringet~al.}{2017}]{ConvEncGehring2017}Gehring,J.,Auli,M.,Grangier,D.,\BBA\Dauphin,Y.\BBOP2017\BBCP.\newblock\BBOQAConvolutionalEncoderModelforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\123--135}.\bibitem[\protect\BCAY{Gers,Schmidhuber,\BBA\Cummins}{Gerset~al.}{2000}]{gers2000learning}Gers,F.~A.,Schmidhuber,J.,\BBA\Cummins,F.\BBOP2000\BBCP.\newblock\BBOQLearningtoForget:ContinualPredictionwithLSTM.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf12}(10),\mbox{\BPGS\2451--2471}.\bibitem[\protect\BCAY{Hashimoto\BBA\Tsuruoka}{Hashimoto\BBA\Tsuruoka}{2017}]{hashimoto-tsuruoka:2017:EMNLP2017}Hashimoto,K.\BBACOMMA\\BBA\Tsuruoka,Y.\BBOP2017\BBCP.\newblock\BBOQNeuralMachineTranslationwithSource-SideLatentGraphParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\125--135}.\bibitem[\protect\BCAY{He,Zhang,Ren,\BBA\Sun}{Heet~al.}{2016}]{he2016deep}He,K.,Zhang,X.,Ren,S.,\BBA\Sun,J.\BBOP2016\BBCP.\newblock\BBOQDeepResidualLearningforImageRecognition.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition},\mbox{\BPGS\770--778}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{hochreiter1997long}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-termMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Huang,Knight,\BBA\Joshi}{Huanget~al.}{2006}]{huang2006statistical}Huang,L.,Knight,K.,\BBA\Joshi,A.\BBOP2006\BBCP.\newblock\BBOQStatisticalSyntax-directedTranslationwithExtendedDomainofLocality.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceoftheAssociationforMachineTranslationintheAmericas},\mbox{\BPGS\66--73}.\bibitem[\protect\BCAY{Kasami}{Kasami}{1965}]{Kasami65}Kasami,T.\BBOP1965\BBCP.\newblock\BBOQAnEfficientRecognitionandSyntaxAlgorithmforContext-freeLanguages.\BBCQ\\newblock\BTR\AFCRL-65-758,AirForceCambridgeResearchLaboratory.\bibitem[\protect\BCAY{Kingsma\BBA\Ba}{Kingsma\BBA\Ba}{2014}]{kingsma2014adam}Kingsma,D.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn2004statistical}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,et~al.}{Koehnet~al.}{2007}]{koehn2007moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,et~al.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsonInteractivePosterandDemonstrationSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Li,Xiong,Tu,Zhu,Zhang,\BBA\Zhou}{Liet~al.}{2017}]{LiP17-1064}Li,J.,Xiong,D.,Tu,Z.,Zhu,M.,Zhang,M.,\BBA\Zhou,G.\BBOP2017\BBCP.\newblock\BBOQModelingSourceSyntaxforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\688--697}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin2004path}Lin,D.\BBOP2004\BBCP.\newblock\BBOQAPath-basedTransferModelforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPG\625}.\bibitem[\protect\BCAY{Liu,Liu,\BBA\Lin}{Liuet~al.}{2006}]{LiuP06-1077}Liu,Y.,Liu,Q.,\BBA\Lin,S.\BBOP2006\BBCP.\newblock\BBOQTree-to-StringAlignmentTemplateforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\609--616}.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{luong-pham-manning:2015:EMNLP}Luong,T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1412--1421}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{NAKAZAWA16.621}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2204--2208}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{neubig2011pointwise}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni2002bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Quirk,Menezes,\BBA\Cherry}{Quirket~al.}{2005}]{QuirkP05-1034}Quirk,C.,Menezes,A.,\BBA\Cherry,C.\BBOP2005\BBCP.\newblock\BBOQDependencyTreeletTranslation:SyntacticallyInformedPhrasalSMT.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\271--279}.\bibitem[\protect\BCAY{Sennrich\BBA\Haddow}{Sennrich\BBA\Haddow}{2016}]{SennrichW16-2209}Sennrich,R.\BBACOMMA\\BBA\Haddow,B.\BBOP2016\BBCP.\newblock\BBOQLinguisticInputFeaturesImproveNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation:Volume1,ResearchPapers},\mbox{\BPGS\83--91}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Srivastava,Hinton,Krizhevsky,Sutskever,\BBA\Salakhutdinov}{Srivastavaet~al.}{2014}]{srivastava2014dropout}Srivastava,N.,Hinton,G.~E.,Krizhevsky,A.,Sutskever,I.,\BBA\Salakhutdinov,R.\BBOP2014\BBCP.\newblock\BBOQDropout:ASimpleWaytoPreventNeuralNetworksfromOverfitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf15}(1),\mbox{\BPGS\1929--1958}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{sutskever2014sequence}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{TaiP15-1150}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1556--1566}.\bibitem[\protect\BCAY{Watanabe,Tamura,\BBA\Ninomiya}{Watanabeet~al.}{2017}]{myI17-2001}Watanabe,T.,Tamura,A.,\BBA\Ninomiya,T.\BBOP2017\BBCP.\newblock\BBOQCKY-basedConvolutionalAttentionforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Wu,Zhang,Yang,Li,\BBA\Zhou}{Wuet~al.}{2017}]{WuP17-1065}Wu,S.,Zhang,D.,Yang,N.,Li,M.,\BBA\Zhou,M.\BBOP2017\BBCP.\newblock\BBOQSequence-to-DependencyNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\698--707}.\bibitem[\protect\BCAY{Wu,Zhang,Zhang,Yang,Li,\BBA\Zhou}{Wuet~al.}{2018}]{Wu2018}Wu,S.,Zhang,D.,Zhang,Z.,Yang,N.,Li,M.,\BBA\Zhou,M.\BBOP2018\BBCP.\newblock\BBOQDependency-to-DependencyNeuralMachineTranslation.\BBCQ\\newblock{\BemIEEE/ACMTransactionsonAudio,Speech,andLanguageProcessing},{\Bbf10.119/TASLP.2018.2855968}.\bibitem[\protect\BCAY{Yang,Wong,Xiao,Chao,\BBA\Zhu}{Yanget~al.}{2017}]{YangD17-1150}Yang,B.,Wong,D.~F.,Xiao,T.,Chao,L.~S.,\BBA\Zhu,J.\BBOP2017\BBCP.\newblock\BBOQTowardsBidirectionalHierarchicalRepresentationsforAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1432--1441}.\bibitem[\protect\BCAY{Younger}{Younger}{1967}]{Younger67}Younger,D.~H.\BBOP1967\BBCP.\newblock\BBOQRecognitionandParsingofContext-freeLanguagesinTime$n^3$.\BBCQ\\newblock{\BemInformationandControl},{\Bbf2}(10),\mbox{\BPGS\189--208}.\end{thebibliography}\begin{biography}\bioauthor{渡邊大貴}{2017年愛媛大学工学部情報工学科卒業.2017年より同大学院理工学研究科修士課程に在学.情報処理学会学生会員.}\bioauthor{田村晃裕}{2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教となり,現在に至る.工学博士.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{二宮崇}{2001年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.東京大学博士(理学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\bioauthor[:]{TeguhBharataAdji}{HisbachelordegreewasfulfilledatUniversitasGadjahMadain1995andhisfirstMasterdegreewasreceivedfromthesameuniversityin1998.HealsofinishedmasterprogramfromDoshishaUniversity,Kyotoin2001.Hisdoctoraldegreewasthenobtainedin2010fromUniversitiTeknologiPetronas,Malaysia.HeisnowanassociateprofessorofUniversitasGadjahMada.HisresearchinterestandpublicationsareinthefieldsofNaturalLanguageProcessing,SocialMediaTechnology,BigData,DataSecurity.}\end{biography}\biodate\end{document}
V07N05-03
\section{はじめに} \label{はじめに}近年,カーナビゲーションシステムを初めとする種々の情報機器が自動車に搭載され,様々な情報通信サービスが始まりつつある.提供される情報には,交通情報,タウン情報,電子メール,ニュース記事等がある.自動車環境での情報提供では,文字表示よりも,音声による提示が重要との考えから\footnote{道路交通法第71条5の5で,運転中に画像表示用装置を注視することが禁じられている},文章データを入力して音声波形に変換するテキスト音声合成技術の重要性が増している.テキスト音声合成技術は,近年,コンピュータの性能の大幅な向上や自動車用途でのニーズの増大に牽引され,研究開発が進んでいるものの,品質面で,現在まだ,いろいろな問題が残されている\cite{山崎1995,矢頭1996,塚田1996,広瀬1997}.そのうち,韻律の制御が良くないと,不自然で,棒読みな感じを与え,悪くすると意味を取り違えることにもなる.音声の韻律には,イントネーション,ポーズ,リズム,アクセントなどが含まれる.本論文は,入力文から,ポーズ挿入位置を判定する技術において中心的な役割を果たす係り受け解析法および解析結果に基づくポーズ挿入位置判定法に関するものである.まず,文から係り受け構造を求めるための,係り受け解析では,文全体を係り受け解析する方法\cite{佐藤1999}と,局所係り受け解析する方法\cite{鈴木1995}があるが,韻律制御用途には,後述のごとく局所係り受け解析で十分なことから,計算量の面からも有利な局所解析が得策と考えられる.言語処理分野において,係り受け解析はいろいろな処理のベースとなる基本的解析手法との位置付けから,多くの研究が継続されており,近年では,コーパスからの機械学習に基づく方法が盛んである\cite{藤尾1997,白井1998,春野1998,江原1998,内元1999}.機械学習方式の場合,対象とする文章のジャンルの変更や,係り受け解析の前処理である形態素解析と文節まとめ上げ処理の変更に伴って必要となる解析規則辞書の更新が容易なため,保守と移植のコストが低いという利点を持つ.機械学習の枠組みの中で,文節間の属性の共起頻度による統計的解析手法\cite{藤尾1997}や決定木による係り受け解析手法\cite{春野1998}に比べて,最大エントロピー法(以下,ME法と略記)による係り受け解析手法\cite{江原1998,内元1999}が,最も高精度な手法と考えられている.しかしながら,ME法による係り受け解析では,学習によって得られた統計モデルを蓄えた解析辞書の容量を,設計の現場において削減することによりメモリ量と計算速度を調整するということは容易ではなく,あるいは,素性を削減して統計モデルを再構築するには,学習に膨大な計算時間を必要とする\cite{内元1999}.そのため,車載情報機器や携帯情報端末など,小型化,低価格化に厳しい要求があり,しかも極めて短い開発サイクルで設計する必要のある設計現場に向かないという問題がある.そこで,ME法と同等の精度で,かつ,メモリ容量と実行速度の調整が容易で開発現場に受け入れられやすい,という特徴を持つ係り受け解析手法を開発するため,\begin{itemize}\itemポーズ挿入位置決定の目的にあった,局所係り受け解析\itemメモリ容量と実行速度に関して容易に設定変更ができ,アルゴリズムがシンプルで移植・保守の容易な決定リスト\cite{Yarowsky1994}\end{itemize}を採用することにした.係り受け解析結果に基づくポーズ挿入位置判定では,文の構文的な構造とポーズ,イントネーションとの関係に関する研究がなされ\cite{杉藤1997,杉藤1989a},構文構造に基づいてポーズ挿入位置を決定する研究がなされている\cite{匂坂1993,海木1996,佐藤1999,清水1999}.その結果,近傍文節間の係り受け関係がポーズ挿入位置の決定に重要であることがわかってきている.近傍文節としてどの程度を考えるかに関しては,文節間距離を3文節分扱うもの\cite{鈴木1995}から距離=1,2,3,4以上の範囲を扱うもの\cite{佐藤1999}まである.また,ポーズ位置決定の要因は,係り受け構造の他にも,読点\cite{海木1996},文節の種類\cite{清水1999},生理的な息継ぎの必要性\cite{杉藤1989b}などがあり,ポーズ制御アルゴリズムの中に盛り込まれている.従来研究の中で,ポーズ挿入位置設定規則検討のための実験を最も大規模に行っているのは文献\cite{海木1996}の研究である.この研究では,アナウンサ10名によって発声させたATR音声データベースの503文のポーズ長を分析して,それに基づいてポーズ挿入規則を作成し,それを基にポーズ制御した合成音声100文と自然音声のポーズ長をそのまま使ってポーズ制御した合成音声100文を10名の被験者に提示してポーズ挿入規則の評価を行い,自然音声のポーズと同等なポーズ挿入規則が作成されたと報告されている.他の研究は,扱う文数が少なく,文献\cite{鈴木1995}では6文,文献\cite{河井1994}では5文などである.これらの従来研究では,係り受け関係を主要因としてその他いくつかの要因も加味した韻律規則が提案され,人間の発声する音声のポーズに比べて,8〜9割りの一致率を達成しているとされている.しかしながら,十分な文の数ではないため,言語構造の様々な面がポーズ制御規則に反映されているかどうかという疑問がある.本論文では,これらの研究から明らかになった,係り受け距離と句読点に基づくポーズ挿入規則をベースに作成した合成音声を用いて聴取実験を行い,悪い評価となった文を分析することによって,さらに追加すべき規則がないかどうか検討する.なお,聴取実験における文の数としては,従来研究で良好な制御と評価される文の割合が8〜9割であることを踏まえて,悪い評価となる文の数が分析に十分な数だけ得られるように,500文を用いることにする. \section{決定リストを用いた局所解析} \label{決定リストを用いた局所解析}\subsection{手法}\label{手法}本論文の手法は,決定リストを用いて,文節間係り受け関係を判定している.特に\cite{Yarowsky1994}で述べられた手法をベースにして決定リストを構築する.同文献の手法を単に説明する.同文献で扱っている問題は,フランス語とスペイン語の文でアクセント記号が欠落した単語(アルファベットに\^や'が付いた文字)を文脈情報を用いて復元する問題である.文脈中に証拠\(Collocation_i\)(例えば共起単語)が存在するときアクセント記号が\(Accent\_Pattern_1\)(例えば\^が必要)である条件付き確率\(Pr(Accent\_Pattern_1|Collocation_i)\)と,同じ証拠\(Collocation_i\)が存在するのに,アクセント記号が\(Accent\_Pattern_2\)(例えば\^は不要)である条件付き確率\(Pr(Accent\_Pattern_2|Collocation_i)\)から,この証拠によってアクセント記号を\(Accent\_Pattern_1\)であると推定するときの証拠能力の強さを次のように対数尤度比で計算する.\begin{displaymath}abs(\log\frac{Pr(Accent\_Pattern_1|Collocation_i)}{Pr(Accent\_Pattern_2|Collocation_i)})\end{displaymath}様々な証拠(\(Collocation_1,...\))に関して上式の尤度比を求め,大きいものから順に証拠\(Collocation_i\)と判定(\(Accent\_Pattern_1\)か\(Accent\_Pattern_2\)か)をリスト状に並べる.また,\begin{displaymath}abs(\log\frac{Pr(Accent\_Pattern_1)}{Pr(Accent\_Pattern_2)})\end{displaymath}をこのリストの下限とする.これを決定リストという.判定段階で,リストを尤度比の大きいものから順に読み込み,その証拠が入力文に合致するかどうかを調べ,合致すれば対応する判定を出力して終了し,合致しなければ,リストの次のものを調べる.このようにして順に調べ,いずれにも合致しなければリストの下限の判定を出力する.なお,証拠として何を使うかは,解析の対象が何であるかに依存し,一般論はなく,言語学上の知見や語の意味情報などを使う.次に,統計的係り受け解析を簡単に説明する.係り受け解析は,例えば,次のように,各々の文節が,どの文節に係るかを求める処理である.\begin{quote}例:ポーズ制御に大きく影響する近傍の係り受けを解析して\vspace{-2mm}─────────────────────────\vspace{-2mm}││↑↑││↑↑│↑\vspace{-2mm}│└─┘││└──┘│└──┘\vspace{-2mm}└──距離2───┘└距離2──┘\end{quote}文節間の係り受けを求めるに際して,日本語においては,通常次のような条件が成り立つことを利用する.\begin{enumerate}\item1つの文節は1つの文節に係る\item係り受け関係はお互いに交差しない\item前の文節から後ろの文節に係る\end{enumerate}通常,これらの条件を満足するいくつかの係り受け候補があるため,文節間の係りやすさの確率を統計的に求め,これを基に,文全体の最適な係り受け関係を求めるのが統計的係り受け解析である.係り受けを決定リストによって決定する方法として,従属節係り受けに決定リストを用いた解析\cite{宇津呂1999}が提案されている.同文献に示された従属節係り受けの例は次のようである.\begin{quote}値上げするが,なまじ3%なので,つい業者負担というケースがでてくるだろう\vspace{-2mm}─────────────────\vspace{-2mm}││↑↑\vspace{-2mm}│└────────────────┘│\vspace{-2mm}└─────────────────────────────┘\end{quote}我々の手法は,韻律制御において必要な局所係り受け解析に決定リストを適用したものである.ここで,本論文で取り上げる局所係り受け解析とは,係り元文節から係り先文節までの距離(文節数で定義)が1であるか2以上であるかを判定するタスクである.\begin{quote}例:ポーズ制御に大きく影響する近傍の係り受けを解析して\vspace{-2mm}─────────────────────────\vspace{-2mm}│↑\vspace{-2mm}└────┴──→‥‥\end{quote}なお,この局所解析の範囲をさらに1つ広げて,直後の文節に係るか,係り受け距離2の文節に係るか,係り受け距離3以上の文節に係るかを判定する次のタスクを考えることもできる.\begin{quote}例:ポーズ制御に大きく影響する近傍の係り受けを解析して\vspace{-2mm}─────────────────────────\vspace{-2mm}│↑↑\vspace{-2mm}└────┴───┴→‥‥\end{quote}その解析結果を韻律制御に用いて,係り受け距離の大きさが大きいほど長いポーズ長にするという制御方式もあるが,このような細かな制御の効果は薄い.そのため,以下では,係り受け距離1か2以上かの判定のタスクを局所係り受け解析として扱う.決定リストの素性(証拠)の構成に関しては,従来の統計的係り受け解析で用いられているものを参考にして,基本的な構成(素性1と称する)と複合的な構成(素性2と称する)の2タイプを定める.各々の内容を表1,表2に示す.なお,主辞は,最後の自立語として定義する.品詞と詳細品詞は,形態素解析ソフトJumanの定義に従う.\begin{figure}[t]\begin{center}\atari(105,108)\end{center}\end{figure}\setcounter{table}{2}\subsection{実験と結果}局所係り受け解析の性能評価を次の評価方法で行う.\begin{itemize}\item京大コーパスの5,000文で評価する\item「係り受け距離1ならポーズを挿入せず,2以上なら挿入する」という基準を正解とみなす\item次の定義のF値により評価する\\再現率=ポーズ挿入の正解箇所にシステムがポーズを挿入した数\\/ポーズ挿入の正解箇所の数\\適合率=ポーズ挿入の正解箇所にシステムがポーズを挿入した数\\/システムがポーズを挿入した数\\F値=(1/((1/再現率+1/適合率)/2))\\ここで,ポーズ挿入の正解とは,「係り受け距離1ならポーズを挿入せず,2以上なら挿入する」という操作を正解とみなす\item局所係り受け解析を評価するにあたり,前処理として100\%正解のものを与える.ここで,前処理とは,形態素解析と文節まとめ上げである.\end{itemize}\subsubsection{(1)人手による規則でのポーズ制御のF値}\begin{quote}人手による簡単な規則に基づく解析でどれだけのF値になるかを調べる.規則は,文献\cite{内元1999}で示された表\ref{人手規則}の規則を用いる.前述の5,000文に対するF値として,次の評価結果を得た.\\F値=75.35\%\end{quote}\begin{table*}\caption{人手規則}\label{人手規則}\begin{center}\begin{tabular}{ll}\hline{\it前文節語形の条件}&{\it係り先}\\\hlineの(接続助詞)&前文節の次の文節\\指示詞&前文節の次の文節\\連体詞&前文節の次の文節\\の(格助詞),かつ,読点あり&前文節の次の文節\\格助詞&動詞を含む最も近い文節\\は(副助詞)&動詞を含む最も近い文節\\連体形&名詞を含む最も近い文節\\タ形&名詞を含む最も近い文節\\連用形&動詞を含む最も近い文節\\テ形&動詞を含む最も近い文節\\接続詞&文末の文節\\名詞性述語接尾辞,かつ,読点あり&動詞を含む最も近い文節\\名詞性名詞接尾辞,かつ,読点あり&動詞を含む最も近い文節\\名詞性特殊接尾辞,かつ,読点あり&動詞を含む最も近い文節\\名詞性述語接尾辞&前文節の次の文節\\名詞性名詞接尾辞&前文節の次の文節\\名詞性特殊接尾辞&前文節の次の文節\\副詞&動詞を含む最も近い文節\\その他&前文節の次の文節\\\hline\end{tabular}\end{center}\end{table*}\subsubsection{(2)開発手法によるポーズ制御のF値}\ref{手法}で説明した2種類の素性,素性1,素性2を用いて決定リストを構成し,それを基にポーズ挿入位置の判定を行ったときのF値を求める.\begin{quote}素性1による結果:\\F値=88.18\%,正解率=92.22\%\\素性1と素性2を決定リストに統合した結果:\\F値=90.04\%,正解率=93.33\%\\以上の結果を図1に示す.\end{quote}\begin{figure}[t]\begin{center}\atari(56,32)\vspace{-3mm}\caption{素性の数や順序による精度の変化}\vspace{-5mm}\end{center}\end{figure}\subsubsection{(3)学習量によるF値の変化}\begin{quote}学習に用いる文の数を徐々に増加させて,正解率,F値が上昇する様子を調べる.学習の文数を1,000文から1,000文づつ1万文まで増加させる.評価は別の5,000文で行う.結果を表\ref{学習の文数と精度の関係}と図2に示す.1万文では完全に飽和はしていない.\end{quote}\begin{table*}\caption{学習の文数と精度の関係}\label{学習の文数と精度の関係}\begin{center}\begin{tabular}{rll}\hline{\it文数}&{\itF値\%}&{\it正解率\%}\\\hline1000&87.01&91.45\\2000&87.94&92.06\\3000&88.52&92.40\\4000&88.91&92.64\\5000&89.36&92.92\\6000&89.53&93.02\\7000&89.73&93.15\\8000&89.85&93.21\\9000&89.96&93.27\\10000&90.03&93.33\\\hline\end{tabular}\end{center}\end{table*}\begin{figure}[t]\begin{center}\atari(76,58)\vspace{-3mm}\caption{学習曲線}\vspace{-5mm}\end{center}\end{figure}\subsection{辞書容量の削減}統計的言語解析手法で高い正解率を得るためには,一般に,解析辞書として多くのメモリ容量を必要とし,計算時間も長くかかる.それに対して,本法では,メモリ容量と計算速度を目的とするシステムのリソースの状況に合わせて調整することが可能である.以下にその方法を述べる.辞書データ,すなわち,決定リストは,その原理上,判定のための証拠を重要な順に並べている.よって,メモリ容量を半減したければ,決定リストの上位から半分を残してそれ以下を削除すればよい.また,計算速度に関しても,決定リストのサイズを削減してゆくと,決定リストの上位から順に条件判定をする方式のため,単調に速度が向上して行くという性質を持つ.メモリ容量を減らして,計算速度を上げれば,その代償として正解率は低下する.以下に,決定リストのサイズを1/1,1/2,1/5,1/10,1/20,1/50,1/100に変化させて,正解率と判定時間を測定し,表\ref{決定リストの辞書容量削減と精度の関係},図3に示す.なお,実験条件の詳細は以下の通りである.\begin{itemize}\item学習量は1万文固定である.\item計算時間の算出は,実測によって行った.使用したプログラミング言語はLISPで,計算機は,PentiumIII450MHzである.また,形態素解析と文節まとめ上げ済みのデータがメモリに読み込まれており,決定リストもメモリに読み込まれているという前提で,各文節から直後の文節への係り受け関係を判定して,それを基にポーズ挿入の判定を行うまでの時間を測定する.\itemメモリ容量を算出するにあたっては,決定リストの1行に現れる素性の組合わせを表現するのに必要な情報量から,1行を3バイトにコーディング可能であるため,この数値を採用して計算した.\end{itemize}\begin{table*}\caption{決定リストの辞書容量削減と精度の関係}\label{決定リストの辞書容量削減と精度の関係}\begin{center}\begin{tabular}{lrrrr}\hline{\itサイズ}&{\it行数}&{\itメモリ\(バイト\)}&{時間/文(msec)}&{F値(\%)}\\\hline1/1&20626&61878&12.1206&90.03\\1/2&10313&30939&9.8716&87.97\\1/5&4120&12360&6.9882&84.91\\1/10&2057&6171&5.1746&77.87\\1/20&1025&3075&3.9918&75.76\\1/50&404&1212&3.1610&72.82\\1/100&183&549&2.7914&71.38\\\hline\end{tabular}\end{center}\end{table*}\begin{figure}[t]\begin{center}\atari(94,47)\caption{メモリ容量と精度(F値),計算時間の関係}\vspace{-5mm}\end{center}\end{figure} \section{ポーズ挿入規則} \subsection{予備検討}\cite{海木1996}において,作成された規則を基にポーズ制御した合成音声100文と自然音声のポーズ長をそのまま使ってポーズ制御した合成音声100文を10名の被験者に提示してポーズ挿入規則の評価を行っている.それに対し,我々は,従来規則の精緻化を検討するために,従来規則に基づいてポーズ挿入された合成音声を聴取実験によって収集した,悪い評価の文を,文の言語構造に着目して分析することによってポーズ挿入規則の精緻化を試みる.そのため,聴取実験においては,ベースとなるポーズ挿入規則で作った合成音声の各文の各文節間に挿入されたポーズの良し悪しを被験者に評価してもらい,評価結果を蓄積する.予備検討の結果,ポーズの挿入された個所に関して,ポーズの要不要を判定することはできるが,ポーズの挿入されていない個所に関して,ポーズに要不要を判定することは困難であることがわかった.必要なポーズが欠落している場合に,文全体が棒読みであるという印象を受けるが,どこのポーズが不足しているかを判断することは困難である.そこで,以下の聴取実験において,合成音声の各ポーズ挿入個所に関して,ポーズの要不要を判定し,あわせて,文全体としてポーズが不足しているかを判断してもらった.結果的に,文全体としてポーズが不足と評価された文はなかった.\subsection{実験方法}\begin{description}\item[対象とする文:]京大コーパスの1,000文を用いる.そのうち,500文を用いて,係り受け距離のみによるポーズ制御の評価を行う.別の500文を用いて,制御規則を精緻化したものの評価を行う.\item[被験者:]20代女性2名,20代男性1名の合計3名.ともに,文系大学生で愛知県出身2名,静岡県出身1名.\item[合成音声:]市販の音声合成システムを用いる.京大コーパスに付与された係り受け情報(解析誤りはほとんどない)を用いて,我々のポーズ制御規則に基づき,音声合成システムから出力される中間コード(韻律の制御コードを含むデータ)を変更してから,音声合成する.ヘッドホン受聴とし,音声合成される文を見てもよいとした.\end{description}次の2項目に関して官能評価する.\begin{description}\item[係り受け距離のみによるポーズ制御に基づく合成音声:]合成音声のポーズ個所に関し,ポーズが必要(合成音声のままでよい)かポーズが不要(合成音声に含まれるポーズがない方がいい)かを判断(評価対象のポーズの総数は1477個所)\item[制御規則を精緻化した合成音声:]合成音声のポーズ個所に関し,ポーズが必要(合成音声のままでよい)かポーズが不要(合成音声に含まれるポーズがない方がいい)かを判断(評価対象のポーズの総数は1584個所)\end{description}\subsection{実験結果—係り受け距離のみによるポーズ制御—}ベースとなる制御方式として,係り受け距離のみから次のようにポーズ制御する.\begin{itemize}\item係り受け距離1なら,ポーズなし.\item係り受け距離2なら,短いポーズ(以下,短ポーズと称する)\item係り受け距離3以上なら,長いポーズ(以下,長ポーズと称する)\end{itemize}\begin{table}┌ポーズ┌ポーズ\vspace{-2mm}↓↓\vspace{-2mm}例:ポーズ制御に大きく影響する近傍の係り受けに特化して\vspace{-2mm}─────────────────────────\vspace{-2mm}││↑↑││↑↑│↑\vspace{-2mm}│└d=1┘││└d=1┘│└d=1┘\vspace{-2mm}└係り受け距離d=2─┘└──d=2─┘\end{table}3名の被験者の判定結果を表\ref{係り受け距離のみに基づくポーズ制御の評価結果},図4に示す.合成音声のポーズ個所に関し,ポーズが必要(合成音声のままでよい)か不要か(合成音声に含まれているポーズがないほうがよい)かを判断してもらっているので,ポーズ必要は制御がよいことを意味し,ポーズ不要は制御が悪いことを意味する.よって,満足の割合をP/\(P+Q+N\),(P:ポーズ必要,Q:ポーズ不要,N:どちらとも言えない)あるいは,\(P+N\)/\(P+Q+N\),(P:ポーズ必要,Q:ポーズ不要,N:どちらとも言えない)で表すことができる.表\ref{係り受け距離のみに基づくポーズ制御の評価結果}にこれらの値も記載した.3名全員の満足度は,前者の指標で84.1\%,後者の指標で87.1\%である.\begin{table*}\caption{係り受け距離のみに基づくポーズ制御の評価結果}\label{係り受け距離のみに基づくポーズ制御の評価結果}\begin{center}\begin{tabular}{lrrrrr}\hline{\it被験者}&{\itP}&{\itQ}&{\itN}&{\itP/(P+Q+N)(\%)}&{\it(P+N)/(P+Q+N)(\%)}\\\hline被験者K&1325&22&130&89.7&98.5\\被験者N&1123&352&2&76.0&76.2\\被験者T&1277&197&3&86.5&86.7\\被験者全員&3725&571&135&84.1&87.1\\\hline\end{tabular}\end{center}\begin{center}(P:ポーズ必要,Q:ポーズ不要,N:どちらとも言えない)\\\end{center}\end{table*}\begin{figure}[t]\begin{center}\atari(85,111)\vspace{-3mm}\caption{官能評価結果}\vspace{-5mm}\end{center}\end{figure}また,被験者間の評価の重なりの割合を調べると次の通りである.\begin{quote}3名全員がPとした数/3名のいずれかがPとした数=68.1\%\\3名全員がQとした数/3名のいずれかがQとした数=1.3\%\end{quote}本節において,3通りの係り受け距離毎のポーズ制御をしているが,\ref{決定リストを用いた局所解析}章で実験した係り受け解析は,係り受け距離1か2以上かを判定するものであった.\footnote{係り受け解析の研究開発とポーズ挿入の聴取実験を同時並行で進めていたために,このような不整合が生じた}定性的には,係り受け距離が2の場合と3以上の場合で,ポーズ長を変える制御の効果は,あまり大きくはなく,聞きやすさの点で多少変わるものの,ポーズが必要か不要かの判定に影響が出るまでには至らない.これを確認するために,次のような確認実験を行った.係り受け距離2なら短ポーズ,3以上なら長ポーズという制御で作られた音声におけるポーズの必要不要の判断が,係り受け距離2以上で長ポーズという制御で作られた音声におけるポーズの必要不要の判断と異なるかを調べるには,表\ref{ポーズ長制御の有無とポーズの必要不要の判断の関係}の★印の個所で示しますような,\begin{quote}「短ポーズの個所でポーズ必要と判断されたものが,\\長ポーズであれば,ポーズ不要と判断されるか.」\end{quote}について調べれば確認できると考えられる.\begin{table*}\caption{ポーズ長制御の有無とポーズの必要不要の判断の関係}\label{ポーズ長制御の有無とポーズの必要不要の判断の関係}———————————————————————————————————\vspace{-2mm}<係り受け距離2なら短ポーズ,<係り受け距離2以上で長ポーズ>\vspace{-2mm}3以上なら長ポーズ>\vspace{-2mm}———————————————————————————————————\vspace{-2mm}<制御><判断><制御><判断>\vspace{-2mm}長ポーズ─┬→ポーズ必要……長ポーズ──→ポーズ必要\vspace{-2mm}└→ポーズ不要……長ポーズ──→ポーズ不要\vspace{-2mm}\vspace{-2mm}短ポーズ─┬→ポーズ必要★……長ポーズ─┬→ポーズ必要\vspace{-2mm}│└→ポーズ不要★\vspace{-2mm}└→ポーズ不要……長ポーズ─┬→ポーズ必要\vspace{-2mm}└→ポーズ不要\vspace{-2mm}———————————————————————————————————\end{table*}先の本実験とは異なる3名の被験者に,係り受け距離が2で短ポーズを挿入した文のポーズの必要不要を判定してもらい,同じ個所を長ポーズにして,ポーズの必要不要を判定してもらう.用いる文は,先の本実験の1名の被験者が係り受け距離2の短ポーズを必要と判断した112文(1文に複数個所,該当するポーズがある場合,初めの1つのみを対象とした)である.聴取実験の結果,3名全体で,短ポーズが必要で,長ポーズも必要と判断した数が270に対し,短ポーズが必要で,長ポーズは不要と判断した数が2であった.したがって,99.3\%の割合で,「短ポーズの個所でポーズ必要と判断されたものが,長ポーズでも,同じくポーズ必要と判断される」ことが確かめられた.以上から,本節で行った3通りの係り受け距離毎のポーズ制御を対象としたポーズの必要不要に関する判定と,\ref{決定リストを用いた局所解析}章で提案した係り受け解析に基づいて,係り受け距離1か2以上かにより長ポーズの挿入を制御した文を対象としたポーズの必要不要に関する判定は,ほとんど一致すると考えられる.\subsection{実験結果—制御規則の精緻化—}\label{実験結果—制御規則の精緻化—}先の係り受け距離によるポーズ制御に,従来研究で言われていることを次の規則にまとめ,先の係り受け距離による規則に追加する.\begin{enumerate}\item連続した複数文節の文節末にポーズがあり,それらのいずれの文節末にも句読点がない場合,初めの文節末にのみ長ポーズを入れ,その他の文節末に短ポーズを入れる\item連続した複数文節の文節末にポーズがあり,それらのいずれかの文節末に句読点がある場合,初めの句読点にのみ長ポーズを入れ,その他の文節末に短ポーズを入れる\item句読点と区切り記号「・」には,少なくとも短ポーズを入れる\end{enumerate}実行順序は,1),2)を並行して行い,その結果に対して3)を適用する.\\先の表\ref{係り受け距離のみに基づくポーズ制御の評価結果}に対応する値を求め,表\ref{精緻化したポーズ制御の評価結果},図4に示す.\begin{table*}\caption{精緻化したポーズ制御の評価結果}\label{精緻化したポーズ制御の評価結果}\begin{center}\begin{tabular}{lrrrrr}\hline{\it被験者}&{\itP}&{\itQ}&{\itN}&{\itP/(P+Q+N)(\%)}&{\it(P+N)/(P+Q+N)(\%)}\\\hline被験者K&1403&107&74&88.6&93.2\\被験者N&1457&127&0&92.0&92.0\\被験者T&1424&146&14&89.9&90.8\\被験者全員&4284&380&88&90.2&92.0\\\hline\end{tabular}\end{center}\begin{center}(P:ポーズ必要,Q:ポーズ不要,N:どちらとも言えない)\\\end{center}\end{table*}また,被験者間の評価の重なりの割合を調べると次の通りである.\begin{quote}3名全員がPとした数/3名のいずれかがPとした数=81.9\%\\3名全員がQとした数/3名のいずれかがQとした数=9.4\%\end{quote}\subsection{ポーズ不要判定を減らす方法の検討}ポーズ不要と判定されたものは,ポーズ挿入が良くないことを意味する.ポーズ不要の判定が少なくなるように,従来研究で指摘されていない規則まで広げてポーズ挿入規則の精緻化を検討する.まず,\ref{実験結果—制御規則の精緻化—}の聴取実験(3名×500文)でポーズ不要と判定された個所380個所に関して,その原因を人手で調査して傾向を把握する.その結果,次の5カテゴリとその他の計6カテゴリが得られた(傾向把握のための人手調査のため,厳密ではない).\begin{enumerate}\item京大コーパスの誤り14個所(係り先の誤り12,文節まとめ上げの誤り2)\item副詞55個所\\A(副詞)/B/Cで,AがCあるいはそれ以降に係る場合,Aの後にポーズが不要\\例:【すでに】(ポーズ不要)/凍結を/決め\\【首相は】(ポーズ必要)/凍結を/決め\item並列34個所\\A/(B/C)のようにBとCが並列の場合,AからCに係るがAの後にポーズが不要\\例:相手国の(ポーズ不要)/(政治、/経済情勢は)\item短い112個所\\A/B/Cにおいて文節Bが短い文節の場合,ポーズが不要\\例:日本政府に(ポーズ不要)/【強く】/指示し\item短い括弧内29個所\\文中に短い会話文が挿入されている場合,会話文中のポーズが不要\\例:「三年以内に(ポーズ不要)/結論を/出す」と/閣議決定\itemその他136個所\end{enumerate}これらのうちの(2)〜(5)は,意味解析等を必要としないため,現在の言語解析技術を用いれば実行可能な規則である.しかし,これら(2)〜(5)の条件を満たせば,ポーズを挿入しないという規則が妥当かどうかを検討する必要がある.そこで,次の条件を満たせば採用することにする.\begin{displaymath}Pr(ポーズ不要の判定|条件)>>Pr(ポーズ必要の判定|条件)\end{displaymath}なお,(4)における「文節が短い」とは,文節内に形態素が1つしかなく,かつ,文字数が,2文字以下の場合,あるいは,3文字以下の場合,あるいは,4文字以下の場合の合計3通りについて調べる.(5)における挿入会話文が短かいとは,当該文節から2文節以内で括弧が閉じられる場合とする.\ref{実験結果—制御規則の精緻化—}の聴取実験(3名×500文)の評価結果から,(2)〜(5)の条件毎にポーズの要不要の判定数を求める.表\ref{ポーズ不要判定減少のための規則}に結果を示す.条件(3)のみ,わずかにポーズ不要がポーズ必要を上回ったが,全体として,効果的な規則は得られなかった.\begin{table*}\caption{ポーズ不要判定減少のための規則}\label{ポーズ不要判定減少のための規則}\begin{center}\begin{tabular}{lrrr}\hline{\it条件}&{\itポーズ必要}&{\itポーズ不要}&{\it採否}\\\hline(2)副詞&131&49&×\\(3)並列&32&38&△\\(4)短い(4文字以下)&327&66&×\\短い(3文字以下)&276&53&×\\短い(2文字以下)&118&21&×\\(5)短い括弧内&76&25&×\\\hline\end{tabular}\end{center}\end{table*} \section{考察} \subsection{局所係り受け解析の精度}従来手法の中で最高性能を持つと考えられているME法に基づく係り受け解析と比較する.文献\cite{内元1999}は,本報の局所係り受けとは異なり,全係り受けを求めている.そこで,次のようにして,ME法を用いて本報のポーズ制御を行った場合のF値がどの程度かを以下のようにして推定する.同文献には,全文節の係り受けの正解率が,人手規則による場合と,ME法による場合の結果として記載されている.そこで,同文献と同じ人手規則を計算機上に実装して,人手規則による局所係り受け解析に基づくポーズ制御を行ったときのF値を求め,両者間で比率の増減量を求め,ME法の前文節の正解率にその増減量を加えることにより,ME法でポーズ制御を行うときのF値を推定する.\begin{tabbing}{\it<全文節の正解率>}\={→}\={<ポーズ制御のF値>}\\人手72.57\%\>→\>人手75.35\%\\ME法87.21\%\>→\>推測90.55\%(=87.21×75.35/72.57)\\\end{tabbing}ME法で用いた学習量は,約8000文であり,本報で学習量8000文のときのF値は89.85\%,学習量1万文のときのF値は90.3\%である.ME法は,少量の学習量でも高い精度が出るという特徴があり,同じ学習量のとき,本法は若干精度が低い.しかし,ME法は学習に膨大な計算時間がかかる点,また,メモリ容量と計算速度が変えられない点に問題がある.\subsection{メモリ容量と計算速度の可変性}本技術で,メモリ容量と計算速度を調整可能であることは,次の場面で特に効果的である.車載情報機器において,カーナビゲーション,通信を利用した情報提供サービス,音声対話による機器の操作と情報取得などの機能が盛り込まれつつある.この中で,特に,音声合成を用いた電子メール,交通情報,観光情報,ニュース情報の読み上げにおいては,構文解析を用いたポーズ,イントネーション制御が必要であるが,前述のように,車載情報機器に様々な機能が盛り込まれ,これを低価格で実現する必要があるため,各処理(音声合成,音声認識,画面表示など)に割り当てられるメモリを大きく取れないし,1つのCPUでいろいろな機能を同時に実行する(マルチタスク処理)必要があるため,計算速度に関しても厳しい要求がある.そのため,こういった要求を満たした車載情報機器全体のシステム設計を短い開発期間で行う際に,メモリ容量と計算速度の可変な処理モジュールは有用である.\subsection{ポーズ挿入規則}本論文における実験からも,従来から提案されている係り受け距離,句読点,ポーズの連続等の情報に基づくポーズ挿入規則の妥当性を確認できた.悪い評価結果の文を分析することによる規則の精緻化に関しては,並列構造の情報を使えば,有効な制御ができる可能性が見られた.この点を詳細に調べるためには,並列構造の情報を用いてポーズ制御した音声を作成して再度聴取実験を行うことが必要である.\subsection{係り受け解析とポーズ挿入規則}本論文におけるポーズ制御音声の聴取実験では,正解の係り受け情報に基づいてポーズ制御した音声を用いた.その理由は,本研究の過程における次の事情による.すなわち,1000文の聴取実験をするのに,3名の各被験者に1日2時間週2日間程度で,半年弱の期間を要したため,聴取実験と同時並行して,係り受け解析法の開発を進めた.そのため,聴取実験には,正解の係り受け解析結果に基づくポーズ制御の音声を用いた.したがって,係り受け解析の精度の評価と,係り受け解析が正しい状態でポーズ制御したときの被験者の満足度の評価を行ったが,提案手法の解析結果を用いてポーズ制御したときの被験者の満足度を,直接評価してはいない.係り受け解析の誤りによるポーズ制御の誤りが,官能評価でも誤りと評価されるものと,問題なしと評価されるものがあり得るため,今後,さらにその評価が必要である. \section{まとめ} 局所係り受けの精度は90\%強の高い精度で,かつ,実装しやすいポーズ制御のための係り受け解析手法を開発した.開発した係り受け解析は次の特徴を持つ.\begin{itemize}\item保守や移植に有利な機械学習方式である決定リストを採用\itemポーズ挿入位置決定の目的に十分な局所係り受け解析を採用\item処理アルゴリズムがシンプルなため,いろいろなシステムへ組み込む際の移植が低コストで行える\item使用するメモリの容量と処理速度に関して設定を容易に変更できる\item学会発表されている最高性能の手法であるME法に比べて,若干精度が低いが,ME法には,本法のようなメモリ容量と計算速度の可変性はない.\end{itemize}本手法のピーク性能(辞書の大きさを最大にしたとき)は,ポーズ制御のための係り受け解析としては,十分なものであり,さらに,いろいろなタイプの車載システムに応じて,メモリ容量と計算時間を調整できるというフレキシキビリティーを持つ.次に,音声合成におけるポーズ挿入位置制御のための規則を作成し,聴取実験によって性能を確認した.この規則の中心となる主要因は係り受け距離であり,係り受け距離のみに基づく制御で,約85\%のポーズ挿入位置が挿入適当という結果であった.さらに,句読点や,ポーズの連続などの要因を取り入れて規則の精緻化を行い,その結果,約91\%のポーズ挿入位置が挿入適当という結果が得られた.\acknowledgment本研究を進めるにあたって,プログラム,実験等でご協力をいただいた当研究所,菅原朋子殿,白木伸征殿に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{梅村祥之(正会員)}{1979年岐阜大学工学部電子工学科卒業.1981年名古屋大学大学院工学研究科修士課程修了.同年,東京芝浦電気(株)入社.1988年(株)豊田中央研究所入社.自然言語処理,音響・音声処理,画像処理の研究に従事.}\bioauthor{原田義久(非会員)}{1973年名古屋工業大学計測工学科卒業,1975年東京工業大学制御工学専攻修士課程修了,工学博士(京都大学),同年(株)豊田中央研究所入社,2000年名古屋商科大学教授,IEEEICCD'84優秀論文賞,IJCNNBestPresentationAward受賞.}\bioauthor{清水司(非会員)}{1993年東北大学工学部通信工学卒業.1996年京都大学大学院人間・環境学研究科修士課程修了.同年,(株)豊田中央研究所入社,現在,音声対話システムに関する研究に従事.}\bioauthor{杉本軍司(非会員)}{1972年名古屋大学大学院工学研究科博士課程(電子工学)修了.1973年(株)豊田中央研究所入社,以後,移動ロボット,ITSの研究に従事.現在,研究推進部部長.ロボット学会,神経回路学会等会員.工博.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V14N03-05
\section{はじめに} 日常生活の様々な体験において,その体験の素晴らしさを表現する言葉として,『感動』という言葉がしばしば用いられる.感動とは,『美しいものや素晴らしいことに接して強い印象を受け,心を奪われること』(大辞林\cite{Book_103})とあるように,体験に対する肯定的な評価であると共に,記憶の定着や感情の喚起を伴った心理状態の大きな変化である.そして,感動するような体験には,人のやる気を高めたり,価値観を変えたりするなどの効果があるといわれている\cite{Article_007}.また,このような感動を引き起こす対象としては,マスメディアが提供するドラマや映画,音楽などの割合が高いとされる\cite{Web_401}.本研究の目的は,放送番組の品質評価,とりわけ音の評価に,『感動』という言葉をキーワードとした評価指標を導入することにある.コンサートホールで演奏された音楽を聞くなど,音そのものに直接的に感動することもあれば,ドラマやスポーツ中継などのBGMや歓声,アナウンスなどの音が放送番組を盛り上げることで間接的に感動を喚起することもある.実際,音楽聴取における感情誘導効果や覚醒水準調整効果などの心理的な影響が,多くの実験によって確かめられており\cite{Book_101},音が引き起こす心理的な効果が,番組コンテンツの評価に与える影響は大きいと考えられる.従来の研究では,音の評価を行う際,言葉を使ってその評価を表現することが多い.難波ら\cite{Book_105}は,音の物理特性と人が受ける印象評価との関連を調べるために,形容詞対を用いたSD法による音色や音質の評価や,それに基づく音の分類を行っている.また,音響システムの展覧会などで配布される広告では,システムの目的や想定される購入者によって,音を表現する言葉を使い分けている.たとえば,映画を対象としたサラウンドシステムにおいては,『迫力』や『臨場感』,『低音の響き』,『余韻』といった言葉が多く使われている.これに対して,ピュアオーディオの分野では,『音像』や『サウンドステージ』,『静寂』,『実在感』,『反応のよさ』といった言葉が使われている.これらの言葉は,従来の研究では使われない評価語であるが,音響の特徴を表す表現として日常的に用いられ,映画音楽とクラシック音楽などの各コンテンツがもつ音の良さを表現しているものと思われる.広告が,消費者ニーズを満たすために洗練された表現を使い分けていることを考えると,コンテンツによって要求される音の印象評価の内容が異なることも考えられる.川上ら\cite{Inproc_201}は,感情語と『感動』を用いて音楽の印象評価を行ったが,印象評価としての『感動的な』音楽と,気分評価として実際に『感動した』音楽が異なることを指摘している.音楽の印象評価だけで音によって喚起される感動を一意に評価することは難しく,どういう人がどういう状況においてその音響特徴に良さを見出すのかを検討する必要がある.これは,ある状況において聴取者がその音をどのように聞きたいのかという価値観を調査することに他ならない.すなわち,現実の聴取場面を考えた場合,状況や音源,聴取者の心理状態や動機づけを無視して,物理的な音響特徴だけに焦点をあてて音の良さを論じることはナンセンスである.2005年秋の音響学会研究発表会において開かれた「なぜ音楽が心に響くのか」というスペシャルセッションでは,音楽に音の良さを見出している時の心理状態は,『感動する』の他に,『心に響く』,『心を躍らせる』,『深く内省する』,『揺り動かす』,『至高感』,『一体感』,『理解』,『共感』,『興奮』,『楽しい』,『悲しい』などの様々な言葉を用いて表現されていた\cite{Inproc_202}\cite{Inproc_204}.しかし,これらの言葉の語義や言葉から連想される心理状態は,かなり異なる.音の素晴らしさを表現する際,『感動』という言葉でまとめて記述することは可能であるが,どのように感動するのかを言及しなければ,用いる言葉の曖昧性から,音に対する評価が評定者間で一致しないことも考えられる.実際,感動は単一の感情価ではないが,喜びや悲しみといった感情を伴う\cite{Article_006}ことや,感動は感情の質ではなく,複合情動の総合的強度と相関がある\cite{Inproc_203}と言われており,研究者の中でも感動という心理状態の定義は曖昧である.そこで,我々は,『感動』という言葉で表現しようとしている心理状態を明確にするために,心理状態を言葉で評価するのではなく,言葉から心理状態を連想することで,『感動』という心理状態の分類を試みた.まず,アンケートを実施し,人が日常的にどういう対象に対して感動するのか,また,感動している心理状態をどういう言葉を用いて表現しているのかを調査した.さらに,アンケート結果から抽出した感動を表現する言葉(以下,感動語)を主観評価(一対比較)することによって,各々の感動語から連想される心理状態の類似度を求め,類似度ベクトルの距離に基づいて数学的に感動語を分類した.本稿では,感動を喚起した要因について考察するとともに,感動語間の類似度ベクトルに基づいて得られた感動語の分類結果について述べる. \section{感動に関する従来の心理学研究} 感情心理学の分野では,感情の種類を幾つかに分類する研究が多く行われてきた.感情は,時間的な側面から比較的長い期間持続する気分(mood)と一過的で強烈な感情である情動(emotion)などに分類されている\cite{Book_104}.また,感情の質的な分類として,喜怒哀楽のような特定のカテゴリー\cite{Book_108}\cite{Book_301}\cite{Book_302}や,快—不快,興奮—沈静,睡眠—覚醒などの少数の次元による記述\cite{Book_109}\cite{Article_002},肯定的—否定的という最も基本的な2分法などが提唱されている.さらに,感情を表現する言葉の分類から感情を分類する研究も行われている\cite{Article_004}\cite{Article_003}\cite{Article_005}.これらの感情の研究に対し,感動という心理状態の特異性が報告されている.戸梶\cite{Article_006}は,喜びを伴う感動はその対象を選ばないが,悲しみを伴う感動が喚起されるのは内容的に第三者の立場である場合に限定されることを指摘している.さらに,感動は複数の感情との間に密接な関係をもっており,従来の枠組みである単一感情価では捉えることができない上,感動に伴って喚起される感情は,喜びや悲しみ,驚きなどであり,恐怖や怒りといった感情は伴わないことを指摘している.同様に,中村ら\cite{Inproc_203}は,音楽聴取時の感動についても,基本的な情動理論を単純に当てはめることができず,種々の情動の強さの複合として議論する必要があると指摘している.安田ら\cite{Inproc_205}は,音楽聴取時の情動評定項目を,高揚感群(高揚感を感じる,興奮を感じる)と切なさ群(涙が出る,切なさを感じる,胸が締め付けられる),鳥肌群(背筋がぞくぞくする,鳥肌が立つ)に分けて,Hevner\cite{Article_003}が考案した8つの形容詞による印象評価を考察している.その結果,鳥肌群の情動は,高揚感群と切なさ群の両方と相関の高い形容詞と相関が高く,音楽聴取時の感動体験に共通する要因であることが示唆されている.Bloodら\cite{Article_001}は,自分にとって素晴らしい音楽を聴取した際に感じるゾクッとするような体験(``shivers-down-the-spine''or``chills'')において賦活する脳の部位が,脳の報酬系といわれる他の情動体験でも反応する部位と共通していることを示している.一方で,語義的には『美しいものや素晴らしいことに強い印象を受ける』とあるように,感動はある体験の統括的な評価として肯定的な印象を示す言葉であるとも考えられる.何に感動するか,何を肯定的に評価するかは,個人や状況によって異なる.また,情動の変化の「強さ」をどの程度に捉えるかによって,ある体験を感動とみなすかどうかが個人よって異なる可能性がある.実際,感動体験に関する世論調査\cite{Web_401}では,感動を経験する頻度が人によってかなり異なることや,感動の事由が,『期待以上であった』,『自分にはできない』,『共感できる』,『心配していた』,『期待にこたえた』,『自分にも似た経験がある』など多岐にわたること,感動を表現する言葉として,『ジーン』,『ウルウル』,『ドキドキ』,『グッと』,『ワクワク』,『ゾクゾク』,『ウキウキ』など多様であることなどが報告されている.このように,感動という心理状態は,感情以外にも実に様々な要素を含んでいるにも関わらず,言葉として『感動』というクラスがあるために,感動を一つの情動として捉えがちである.しかし,戸梶\cite{Article_006}が,感動に伴う感情の種類によって感動の分類を試みたように,むしろ幾つかの情動をまとめて感動と表現していると考えられる.確かに,感動とは,何かしらの感情を伴う心の動きではあるが,感動を喚起させる対象に依存することから,従来の感情そのものを対象とした心理現象ではなく,感動対象との関係も含めた複合的な心理状態を検討する必要がある.本稿では,以下,『感動』という言葉で表現している心理状態や感動対象をまとめて分類を試みる. \section{日常生活における感動の抽出} \subsection{感動に関するアンケート}まず,日常生活で『感動』という言葉がどのように用いられているのかを調べるために,自由記述方式のアンケートを実施した.アンケートの主項目は,感動を表現する言葉(感動語),最近感動した体験,音(音楽・音声)を聴取して感動した体験とした.今回の調査は,感動を表現する言葉を抽出することを目的とした探索的な調査であり,アンケートの対象者は,身近な母集団として,40歳前後を中心とした20歳代から50歳代の技術研究者25名(内音響研究者21名,内女性2名)と情報科学を専門とする大学生25名(内女性7名)の計50名とした.\subsection{感動体験の事例}感動した体験について116件(技術研究者67件,大学生49件),感動した音について61件(技術研究者37件,大学生24件)の事例が挙がった.感動の対象としては,『映画』,『音楽』,『スポーツ』,『人の優しさ』,『自然の景観』など,従来の研究\cite{Web_401}\cite{Article_007}と同じような事象が並んだ.感動を喚起する要因としては,『美しさ』,『切なさ』,『楽しさ』,『懐かしさ』,『優しさ』などの感動の対象に関する印象から記述できる側面があった.これらは従来の形容詞や感情語による印象評価で評価できる部分である.一方,映画の『ラストシーン』や『生死にかかわるシーン』,『実話に基づいたドキュメント』,『大学に合格する』,『スポーツで優勝する』など,印象評価というよりは,具体的な内容を伴う対象も多く含まれた.さらに,『落胆していたとき』,『卒業式で聴いた』,『ずっと行きたかった』,『自分の気持ちにあった』,『初めて聴くのに』,『映画のあるシーンを連想する』,『思いもよらない』,『予想を上回る』など,体験時の心理的な状態や音を聴く状況に関する条件を述べている例も多く見られた.このように,対象そのもの評価的印象以外に,日常の関心事項や自分の経験に基づいた知識や,その時の心理状態が,感動を喚起する要因として大きな影響を与えていることが示された.これが,音楽の印象評価としての『感動的な』音楽に,必ずしも聴取者が気分評定として『感動する』わけではない\cite{Inproc_201}理由と考えられる.\subsection{母集団による感動対象の傾向}\begin{table}[b]\begin{center}\caption{感動した体験}\begin{tabular*}{125mm}{|p{75mm}|p{12mm}|p{12mm}|p{12mm}|}\hline\multicolumn{1}{|c|}{感動体験}&合計&研究者&大学生\\\hline映画・テレビ・ラジオ・ゲーム&26&14&12\\\hlineスポーツに関すること&16&10&6\\\hline音楽&13&9&4\\\hline優しさ・親切にされて&10&3&7\\\hline自然の景観&9&6&3\\\hline家族・子供・恋愛・愛情&8&5&3\\\hline願い事がかなう・達成する&8&5&3\\\hlineアイディアや技術&8&7&1\\\hline偶発的な事象&6&0&6\\\hline美味しい食事&4&3&1\\\hlineその他&8&5&3\\\hline\end{tabular*}\\\par\vspace{1\baselineskip}\caption{感動した音}\begin{tabular*}{125mm}{|p{75mm}|p{12mm}|p{12mm}|p{12mm}|}\hline\multicolumn{1}{|c|}{感動した音・音楽・音声}&合計&研究者&大学生\\\hlineコンサートなどの生演奏&14&13&1\\\hline歌詞・優しい言葉・気の利いた台詞&10&2&8\\\hline音の響き・素晴らしさ・音楽そのもの&9&4&5\\\hlineその日の気分との相乗効果&7&4&3\\\hlineドラマや映画,ゲームの挿入曲&5&2&3\\\hline懐かしい・ある出来事を思い出す&4&2&2\\\hline予想を超える&4&3&1\\\hlineその他&8&7&1\\\hline\end{tabular*}\\\end{center}\end{table}感動した体験,音を聴いて感動した体験について,アンケートの回答事例を集計した.結果を表1,2に示す.『スポーツに関すること』は,実際に自分が体を動かして運動をすること以外に,スポーツ観戦や,応援しているスポーツチームが優勝するなどの体験も含んでいる.『その他』の項目は,『絵画を見て』,『真剣さを目の当たりにして』などであった.また,『偶発的な事象』とは,『安売りセール』や『出かける直前に雨がやむ』,『目的地までの信号が全部青であった』などの偶然起きた出来事を指している.また,感動した音としては,『コンサートなどで聴いた生演奏』の他,『歌詞に共感した』,『その日の気分と一致した』,『ドラマなどで使われた』などの事例が挙げられた.『その他』の項目としては,『除夜の鐘』,『産声』などがあった.アンケートに参加した多くの技術研究者が感動する事象は,知識やアイディアの意外性や技術の精巧さに関する項目であった.一方,大学生は偶発的な事象に感動する場合が多かった.また,感動した音についても,技術研究者が音楽の生演奏や音の響きを事例として挙げたのに対し,大学生は歌詞に共感した音楽や優しい言葉を挙げる例が多かった.このように,感動対象やその要因は,世代や職業,所属組織など母集団によってかなり割合に違いがあると考えられる.どういう母集団に分類するべきか,個人間のばらつきを超えてある程度共通する感動対象やその要因についても,多くの母集団を対象とした大規模で詳細な調査が必要であろう.以下の章では,大規模な感動対象の調査を目的として,評価語を選出するために,感動語をクラスに分類し,典型的な感動のパターンを得ることを試みた. \section{感動の分類} \subsection{感動語の抽出}これまで我々は感動という心理状態を区別せずに議論を進めてきた.従来,感動の体験は,感動に伴って喚起される感情の種類によって分類が行われている\cite{Article_006}.しかし,同じ『嬉しい』という言葉を用いても,落胆していたときに優しくされて感じる心暖まるような嬉しさと,応援していた野球チームが優勝したときに感じる喜びを爆発させるような嬉しさ,駅から目的の場所までの信号がすべて青だったときに感じる嬉しさは,心理状態としては大きく異なっていると考えられる.本研究では,こうした感動における多様な心理状態を体系的に捉えるために,アンケートの回答から感動語を抽出し,分類することで,表現されている心理状態を分類することを試みた.まず,アンケート調査において,感動を表現する言葉を記述させた.その結果,延べ170語(技術研究者84語,大学生86語)の感動語が得られた.アンケートより抽出した言葉は,なるべく言葉からイメージする心理状態をそのまま評価してもらうため,できる限りアンケートに書かれた言葉のまま使用した.ただし,『マジヤベェ』,『すげぇ』などの口語は,『やばい』,『すごい』と同じ感動語として扱った.その結果,感動を表現する言葉として,105語の感動語が得られた.また,アンケートの感動体験に記述されている用語で感動を表現する言葉として記述されていない表現(22語),その他感動に関する先行研究において用いられている言葉で今回抽出した感動語に含まれていない表現(10語),類語辞典から感動と似た語義の表現(13語)を選出した.その結果,得られた感動語は,150語になった.\subsection{1対比較による感動の距離}次に,前述の手続きで得られた150語について,ある感動語が別の感動語と同じ感動を表現しているか否かを一対比較する主観評価実験を行った.評価協力者は,アンケート調査を行ったどちらの母集団とも異なるように,感動に関するアンケートに参加していない20代から30代の女性11名(言語学,文学といった文系大学を卒業しており,心理実験には参加した経験がない)とした.実験は,3日間行い,1日の実験時間は5時間(途中,1時間と30分の休憩を取得)とし,実験時間中,自由に休憩を取らせた.評価協力者は,3グループに分けて召集され(5人,4人,2人),言葉の意味が近いかではなく,ある感動語から感動している状態を連想し,その状況や心理状態が別の感動語を用いて表現することが可能か否かを1/0の2件法で評価するよう集団で教示された.その後,各自,自分のペースで,50音順に並べてパソコンの画面に提示された150語の感動語を総当りで評価した.同じ感動を表現できると評定された割合を一致率とすると,ある感動語は他の感動語との一致率を用いて150次元のベクトルで表記することができる.$$X_i=(R_{i1},R_{i2},\cdots,R_{ij},\cdots,R_{iN})\eqno(1)$$また,感動語との心理状態上の距離をユークリッド距離を用いて,$$D_{ij}=\sqrt{\frac{1}{N}\sum_{k=1}^N(R_{ik}-R_{jk})^2}\eqno(2)$$とした.\subsection{感動の分類方法}感情心理学では,感情語を用いて感情状態を分類する研究が多く行われているが,その中に少数の次元を仮定して感情を記述しようとする次元研究がある.次元の数や種類は研究間で必ずしも一致しているわけではないが,共通しているのが,快—不快の快楽次元と覚醒—眠気といった覚醒次元の2次元である.(たとえば\cite{Article_002}).そこで,今回は,感動に関しても2分岐で分類することを試みた.2分岐の分類には,LBGアルゴリズム\cite{Article_008}を用い,ベクトル距離$D_{ij}$に応じた感動語の分類を行った.LBGアルゴリズムでは,2分岐を行う際の初期値として,あるクラス$k$の任意の2つの感動語$X_{ki}$,$X_{kj}$を用いる.残りの感動語が$X_{ki}$,$X_{kj}$のどちらに近いかを算出し,距離の近さで感動語を2つに分類する.これを初期クラス$k1$,$k2$とする.次に,各初期クラスの重心$C_{k1}$,$C_{k2}$を求め,各重心との距離が近い感動語を新しいクラス$k'1$,$k'2$とする.この新しいクラスの重心を求め,求めた重心との距離が近い感動語でさらに別のクラスを作成する.これを何度か繰り返すことで,感動語$X_{ki}$,$X_{kj}$を初期値としたクラス$k1ij$,$k2ij$が求まる.この分割において,両クラス内の感動語と両クラスの重心との距離の平均自乗誤差を歪$DS_{k1ij}$,$DS_{k2ij}$とする.クラス$k$内のすべての感動語を初期値として歪を求め,歪が最も小さくなる初期値を用いてクラス$k$を2つに分類した.最初に全感動語を2つに分類した後は,両クラスの重心と歪を求め,歪が大きいクラスについて,LBGアルゴリズムを用いて,2分岐による分類を行いった.さらに,各クラスについて重心と歪を求め,最も大きい歪のクラスについて分類を行い,最終的に各クラスが閾値として設定された歪の大きさになるまで分類を進めた.\subsection{感動の分類結果}ここでは,各クラスの中心となる概念をクラスの重心に近い感動語4つを用いて表現する.まず,分類する前の全感動語の中心概念は,『しみる』,『心にしみる』,『余韻』,『心をわしづかみにする』であった.これを歪の大きさに応じて14のクラス(AからN)まで分類した.その結果を表3に示す.表中の数字は,歪の大きい順に分類した分岐番号である.また,各クラスの中心概念を表す感動語を星印で表現した.\begin{table}[t]\begin{center}\caption{感動語の分類結果}\includegraphics[scale=0.75]{pic.eps}\par\vspace{1\baselineskip}\begin{tabular*}{142mm}{p{6mm}p{128mm}}A.&胸がいっぱいになる*,思わず涙*,涙*,愛*,ああ,言葉にできない,よい,泣く\\B.&心が暖まる*,癒される*,安らぎ*,家族愛*,ありがとう,幸せ,安堵,なんか良い\\C.&しみる*,黄昏*,ノスタルジー*,心にしみる*,落涙,泣けた,感涙,胸が詰まる,悲しい,感傷,寂しい,切なくなった,思い出,しみじみ,情緒,懐かしい,感じ入る,ジーンとする,心に残る,忘れられない,余韻,心に響く,ため息,ものあはれ\\D.&綺麗*,美しい*,素敵*,すばらしい*,憧れ,心を奪われる,しびれる,魅惑的,景色,感嘆,絶景,雄大,喜び\\E.&思わず無言*,無言*\\F.&胸を打つ*,グッとくる*,琴線に触れる*,心が熱くなる*,命,感銘,心が打たれる,感極まる,心が震える,こみあげる,感激,胸がキュンとなる\\G.&うぉー*,うわぁ*,わぁ*,おー*,すごい,気持ちが高鳴る,興奮する,人に言いたくなる\\H.&共感*,経験*,自己陶酔*,満足*,甘い,美味しい,感心,最終回\\I.&心が躍る*,ワクワクする*,わーい*,爽快*,おもしろい,たのしかった\\J.&ヤッター*,歓喜*,優勝*,達成*,嬉しい,おっしゃー,キター,やっとの思い,認められる,チームワーク,めっちゃ楽しい\\K.&背筋がゾッとする*,パニック*,混乱*,あぜん,驚愕*,焦り,ありえない,怖い,息が詰まる,緊迫,ゾクッとする,絶対笑うって\\L.&無情*,いたたまれない*,つらい*,やりきれない*,怒り,不条理,打ち震える,号泣,同調\\M.&鳥肌がたつ*,心をわしづかみにする*,やばい!*,身震い*,妖しい,畏敬,荘厳,心を射抜く,迫力がある,血が騒ぐ,臨場感がある,情動,震える,ドキドキする\\N.&マジ*,意外*,目が覚める*,見たことがない*,聴いたことがない,へー,発見,スピードがある,大きい,でかい,うそぉ,驚き,口があく,呆然,衝撃を受ける\\\end{tabular*}\end{center}\end{table}最初の分類(分岐番号1)において,クラスA,B,C(中心概念『しみる』,『情緒』,『心にしみる』,『余韻』)とそれ以外(『心をわしづかみにする』,『しびれる』,『心が震える』,『聴いたことがない』)に分かれた.ここでは,感情の動き方という観点から,動きを表現する言葉に着目する.前者のクラスには,『ジーンとする』,『しみる』などのじわじわと状態が続く表現が多く含まれる.後者のクラスでは,『心が打たれる』,『心を射抜く』などのするどく急激な動きを表す言葉,『心が震える』,『混乱』などの非定常な状態を表す言葉があった.幸せや思い出にしみじみと感じ入るような比較的静かな感情の変化が含まれる感動と,激しく表出するような鋭く,強い感情の変化を示すものが多い感動に分かれている.クラスA,B,Cを『受容』,それ以外のクラスを『表出』と呼ぶ.強度と時間的な継続性という観点では,比較的緩やかな感情である『気分』と鋭く短い反応である『情動』に似た分類との対応が可能であり,感情の2次元モデル(快—不快や肯定—否定)といった質的な分類とはならなかった.次に,『受容』と『表出』で歪が大きかったのは,『表出』の感動クラスであり,D〜J(中心概念『しびれる』,『心が熱くなる』,『心が震える』,『経験』)とK〜N(中心概念『驚愕』,『心をわしづかみにする』,『マジ』,『やばい!』)に分類された(分岐番号2).前者のクラスは,喜びや楽しみ,嬉しいといった正の感情を表現する感動語を多く含んでいる.これに対し,後者のクラスは,焦りや怒りといった負の感情(K,L)と驚きといった中立的な感情(M,N)を表現する感動語を多く含んでいる.従来の研究では,戸梶\cite{Article_006}が感動に伴う感情に着目し,『悲しみ』,『喜び』,『驚き』という感情で感動を分類している.『悲しみ』は,『受容』の感動であるクラスCに含まれており,感動に伴う3つの大きな感情は,今回分類した感動の大きな3つのクラス『受容』,『表出:正の感情』,『表出:負・中立の感情』のそれぞれに内包される.また,安田ら\cite{Inproc_205}が,音楽聴取時の感動として分類した『切なさ』,『高揚感』,『鳥肌』の3つの情動群を表現する言葉も,『受容』のクラスC,『表出:正の感情』のクラスG,『表出:負・中立の感情』のクラスMにそれぞれ内包される.このように,従来研究の知見を包含しえたのは,今回抽出した感動語の抽出結果と評価尺度による感動語の距離の求め方の妥当性を示すものと考えられる.今回実験に参加した評価協力者には偏りがあるが,感動を大きく分類する範囲においては,普遍性があることが考えられる.次に,『表出:正の感情』がクラスD,E,F,G(中心概念『しびれる』,『すばらしい』,『胸を打つ』,『琴線に触れる』)とクラスH,I,J(中心概念『認められる』,『心が躍る』,『ヤッター』,『たのしかった』)に別れた(分岐番号3).前者が,『美しい』『景色』が『胸を打つ』という比較的『受容』的な感動に近い,受動的な感動であるのに対し,後者は,『達成』して『認められる』ことで『心が躍る』と能動的,主体的な行為による感動を表現している.以下,『表出:受動的正の感情』,『表出:能動的正の感情』とする.次に,4つクラスは各々2つに分けることができ,以下の計8つとなる.『受容』の感動(分岐番号4)\par\begin{tabular}{p{20mm}l}A&『胸がいっぱいになる』,『涙』,『思わず涙』,『愛』\\B,C&『しみる』,『しみじみ』,『心にしみる』,『情緒』\\\end{tabular}\par『表出:受動的正の感情』の感動(分岐番号5)\par\begin{tabular}{p{20mm}l}D,E,F&『琴線に触れる』,『胸を打つ』,『しびれる』,『心が打たれる』\\G&『うぉー』,『うわぁ』,『わぁ』,『おー』\\\end{tabular}\par『表出:能動的正の感情』の感動(分岐番号7)\par\begin{tabular}{p{20mm}l}H,I&『たのしかった』,『共感』,『心が躍る』,『わーい』\\J&『ヤッター』,『歓喜』,『優勝』,『達成』\\\end{tabular}\par『表出:負,中立の感情』の感動(分岐番号6)\par\begin{tabular}{p{20mm}l}K,L&『不条理』,『混乱』,『息が詰まる』,『怒り』\\M,N&『見たことがない』,『心をわしづかみにする』,『マジ』,『やばい!』\\\end{tabular}\parさらに分類を進めると,最終的に分類された14のクラス(表3)のようになる. \section{考察} \subsection{類語辞典を用いた感動語の分類}本稿では,LBGアルゴリズムを用いたベクトル距離によって収集した感動語を分類・検討してきた.ところで,語彙の分類を行う際の非数量的方法として,類語辞典を用いることが考えられる.日本語の代表的なシソーラスとしては,分類語彙表\cite{Book_102}や日本語語彙体系\cite{Book_106},類語新辞典\cite{Book_107}などがある.分類語彙表では,まず,用の類(名詞の仲間),体の類(動詞の仲間)などで大分類されている.感動語の分類では,これらの区別は必要ではない.一方,日本語語彙大系は,精密に作られたシソーラスであるが,感動語の分類を扱うにはあまりにも分類が詳細すぎる.そこで,今回は,類語新辞典を用いて収集した感動語を分類した結果について検討する.類語新辞典では,言葉を自然,人事,文化に大きく3つに分類している.このうち,文化に分類される感動語は存在しなかった.さらに,感動語は,自然について,自然・性状・変動に分類され,人事について,行動・心情・性向に分類された.感動詞,間投詞などが語彙に含まれていなかったため,分類語彙表を参考としてその他という分類を設定した.分類結果を表4に示す.\begin{table}[tb]\begin{center}\caption{類語新辞典による感動語の分類}\begin{tabular*}{140mm}{|p{52mm}|p{8mm}|p{70mm}|}\hline\multicolumn{1}{|c|}{分類}&\multicolumn{1}{|c|}{語数}&\multicolumn{1}{|c|}{代表的な感動語}\\\hline自然(天文,景観,生理)&10語&絶景,命,癒される,涙,など\\\hline性状(形状,刺激,価値,程度,数量,時間,状態)&20語&大きい,美味しい,素敵,ありえない,美しい,もののあはれ,すごい,など\\\hline変動(動揺,情勢,関連)&6語&迫力がある,混乱,緊迫,など\\\hline行動(表情,見聞,陳述,労役)&12語&泣けた,震える,言葉にできない,など\\\hline心情(感覚,思考,学習,要求,誘導,闘争,意向,栄辱,愛憎,悲喜)&57語&共感,思い出,畏敬,情緒,感激,心が躍る,胸を打つ,興奮する,安堵,驚き,など\\\hline性向(姿態,身振り,態度,境遇,心境)&32語&懐かしい,ゾクッとする,切なくなった,たのしかった,心が暖まる,あぜん,など\\\hlineその他(間投詞)&13語&ああ,うぉー,へー,わぁ,など\\\hline\end{tabular*}\end{center}\end{table}分類の結果,心情(悲喜)や性向(心境)を表す言葉が多かった.これは,感動が自分の心的な状態を表現する言葉であるためと考えられる.一方で,性状を表す言葉として,価値を表す言葉が多かった.これは,『素晴らしい』,『ありえない』などの感動対象に対する自分の価値を表現したためと思われる.『絶景』や『迫力がある』などの自然・変動に分類される言葉は,感動の対象を,『泣ける』や『鳥肌がたつ』といった行動に関する言葉は,感動した際に起こる身体的な変化を表している.類語新辞典は,言葉の持つ意味で分類されており,その言葉を使う心理的な状態の類似性については配慮されているとは限らない.本稿では,感動の対象や身体的な反応,心理状態の区別無く,どの言葉が同じ心理状態を表現しているのかで感動語を分類した結果,類語新辞典を用いて分類した場合に比べ,対象の特徴と感動した心境・心情が混在した分類となった.これらのクラスは,感動しているという状況を表現するという観点において類義語であるといえる.つまり,『懐かしい』という心境は,『心にしみる』,『心に響く』という心情に近い心理状態を表しており,『ため息』という行為で感動を表現していると考えられる.これらの言葉は,その言葉が持つ意味としては異なるが,表現しようとした心理状態は近いのである.\subsection{感動語のあいまい性・多義性}感動語には,かなり抽象的な言葉が含まれていた.そのため,感動語そのものが広義な意味やイメージを持ち,言葉から連想される感動している状況が一意に決められないという可能性がある.そこで,一対比較実験において,評価協力者によって評価結果にばらつきがあった感動語と,ばらつきがなかった感動語をそれぞれ上位18語,リストアップした(表5).ただし,感動語$X_{i}$の評価のばらつき具合は,他の感動語との一致率$R_{ij}$を用いて$0.5-R_{ij}$の絶対値の和が大きいものをばらつきのなかった感動語とした.\begin{table}[tb]\begin{center}\caption{感動語の1対比較おける評価結果のばらつき}\begin{tabular*}{140mm}{|p{42mm}|p{91mm}|}\hlineばらつきがあった感動語&無言,経験,わあ,心に残る,よい,うぉー,思わず無言,言葉にできない,愛,胸がいっぱいになる,ああ,琴線に触れる,おー,忘れられない,こみあげる,すばらしい,憧れ,うわぁ\\\hlineばらつきがなかった感動語&緊迫,安らぎ,背筋がゾッとする,絶対笑うって,混乱,安堵,わーい,壮快,いたたまれない,同調,不条理,関心,口があく,つらい,息が詰まる,無常,感傷,やりきれない\\\hline\end{tabular*}\end{center}\end{table}ばらつきがあった感動語に関しては,間投詞などの抽象的な言葉が多く含まれており,これらの言葉を用いて感動を表現する場合,評価者によって異なる心理状態を想定していた可能性がある.逆に,ばらつきがなかった『緊迫した状況』や『安らぎを感じる状況』において感動する条件というのは限られていると言える.ばらつきがあった感動語は,主にクラスA,Gに多く含まれていた.これらの言葉は,評価に個人差がありながらも,似たような評価を受けており,共通したイメージが連想できたものと思われる.しかし,言葉が抽象的であるがゆえ,具体的な事象を述べた複数のクラスを包含している可能性が高い.たとえば,『ああ』は,同じ『受容』であれば,『安らぎ』も『懐かしい』も表現できる.これらの感動語は,評定協力者によって,思い描く感動が異なるため,今後,音の評価を行っていく評価語としては不適切であると思われる.\subsection{感動の心理状態}今回の感動語に含まれる感情としては,『受容』には,悲しみや切なさの他に,安らぎや幸せ,懐かしさなどがあった.また,『表出』に含まれる負の感情として,怒りや焦りといった感情も感動に関与することが示唆された.また,多面的感情状態尺度\cite{Article_005}の8つの感情群のうち,『活動的な快』,『非活動的な快』,『親和』,『驚愕』,『集中』,『抑鬱・不安』,『敵意』に相当する表現が含まれており,欠けている感情群は『倦怠』だけであった.特に,『活動的な快』,『非活動的な快』,『親和』,『驚愕』に関する感動語が多かった.感動は確かに複雑な感情の組み合わせによって成り立ってはいるが,基本的には体験に対する肯定的な評価であることを考えると当然といえる.感動語には多くの感情価が含まれるが,『受容』の感動であるクラスB,Cには,安らぎや,幸せ,悲しみ,切なさなどの複数の感情価が混在している.また,クラスA,G,Hは,『言葉にできない』,『泣く』,『気持ちが高鳴る』,『興奮する』,『感心』,『満足』など感情の種類を特定できる表現が含まれていなかった.このように,感動語のクラスは,喜怒哀楽というようないわゆる感情の種類では分かれなかった.これは,従来の感情の分類ではうまく感動を記述できないという戸梶\cite{Article_006}や中村ら\cite{Inproc_203}の指摘を支持するものである.また,肯定的な評価であるはずの感動に,怒りや悲しみが含まれるのは矛盾を感じるが,戸梶\cite{Article_006}は,悲しみを伴う場合,感動の対象に対して第三者的な立場である必要があると指摘している.つまり,負の感情を伴う場合,自分が体験するのではなく,サスペンスドラマなどを視聴し,主人公の死に悲しみを感じ,その犯人に怒りを覚え,その物語に切なさを感じるという体験が感動として認知されると考えられる.また,クラスDは,『景色』に『雄大』である,『美しい』,『すばらしい』と感じ,『心を奪われる』というような感動であり,クラスJは,『優勝』を『達成』して『嬉しい』という感動である.このように,感動とは,感情そのものではなく,感動の対象と心の動き,複数の感情が入り混じった状態の組み合わせによって分類することができる.ここで,『感動』という言葉で表現されるこういった様々な心の状態の共通要素について検討する.まず,『すごい』,『衝撃を受ける』,『言葉にできない』,『忘れられない』という言葉に代表されるように,心の動きの程度が強いことを表す言葉が多くのクラスに点在した.また,『思わず涙』,『認められる』,『癒される』,『忘れられない』,『心が打たれる』などの強制的,受動的にその感情が喚起されたことを表現する言葉が多く含まれていた.以上のことから,感動とは,ある対象から影響を受け,分類されたように心が動くが,その影響が自分では制御できないくらい強いという体験を表現する肯定的な評価の総称であると考えられる.\subsection{感動語を用いた音の評価に向けて}アンケート調査における感動を表現する言葉が多く含まれた感動語のクラスは,延べ23語のクラスC,延べ22語のクラスN,延べ22語のクラスG,延べ20語のクラスDであった.今回調査に参加した技術研究者の回答に多く含まれていた感動語のクラスは,N(技術研究者15語:大学生7語),F(6語:2語)であり,大学生の回答に多く含まれていた感動語のクラスは,J(大学生14語:技術研究者2語),K(7語:3語)であった.大学生で多く見られたクラスJの『嬉しい』という感情で表現される感動は,技術研究者では少なかった.アンケート調査における感動体験の記述においても同様に,大学生は,優しくされて嬉しい,雨が止んで嬉しいといった『嬉しい』に関係する感動が多かった.このような母集団による傾向の違いが生じる理由として,まず,言葉の定義の違いが考えられる.つまり,感動とは何かしらの感情の変化の強度と関係があると思われるが,どの程度の強さ,どういった感情の変化を『感動』として定義しているかが,母集団によって異なっている可能性がある.また,別の理由として,同じ体験から喚起される感情そのもの質的な変化が考えられる.例えば,感動体験の記述において,『卒業式で聞いた曲』といった表現があったが,大学生にとって卒業というイベントは現実性が高く,楽しい,悲しいという感情が比較的新しい記憶と結びつきやすいのに対し,技術研究者にとって卒業とは過去を懐かしむ気持ちが強いことも考えられる.今回実験に参加した評価協力者の150の感動語の重心は,『しみる』,『心にしみる』,『余韻』とクラスCが中心であった.しかし,母集団の年齢や知識,興味によって感動する対象に違いがあり,その結果喚起される感動の心理状態も異なる可能性がある.別の評価協力者で評価実験を行うと異なる結果となることも予想される.感動とは,いわゆる感情とは異なり,対象と強く結びついており,感情の強弱だけではなく,その対象との関わりや背景知識までも含めた議論が必要である.どういう人がどの対象に対してどういう感動をするのかという割合的な傾向については,大規模な調査研究が望まれる.従来,音楽や音,音響システムの評価を行う際,聞こえるか聞こえないか,印象としてどういう形容詞で評価できるかで,その価値を記述しようとしていた.つまり,物理的な音の特徴の類似性を主観的に評価するという手法である.しかし,感動対象として音の評価を行う際,どういう観点で感動したのかを区別して評価する必要があると思われる.今回の分類結果は,具体的に音を評価する上で,どういう評価語が必要であるかを感動表現から絞込んだものである.例えば,クラスCの『心にしみる』音楽と,クラスNの『目が覚める』音楽はまったく異なる曲調を連想する.高揚感のある明るい音楽に『心が躍る』(クラスI)ように感動することもあれば,自然環境音に『癒される』(クラスB)ように感動することも考えられる.悲しい印象を与えるような音楽がドラマに挿入される場合でも,ドラマに共感している人には『胸を打つ』(クラスF)という感動を与えるが,共感を覚えない人には退屈な音楽かもしれない.どういうシチュエーションで,どういう音の良さを引き出すことが,放送番組における感動の質をより豊かにすることに繋がるのかを今後も検討していく必要がある. \section{まとめ} 『感動』という心理状態をモデル化するために,アンケート調査と語彙分析を行い,感動という言葉で表現される心理状態の種類について検討した.アンケートの回答から抽出した感動語について,言葉の意味ではなく,言葉から連想した感動している状況を主観的に評価して類似度を求めた.そして,語彙間の類似度ベクトルの距離に応じて感動語の分類を行った.その結果,感動語は,いわゆる単一の感情では分類できなかった.しかし,感動に伴う感情や感動の対象,感情の動きの組み合わせによって典型的なパターンに分類できた.『感動』とは,情動そのものではなく,対象からの影響があまりにも強いために自分の感情がうまく制御できないという心理状態の肯定的な評価を表す総称であることがわかった.今後の課題として,どういう人がどういう対象にどういった感動するのかについては,大規模な調査研究が望まれる.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blood\BBA\Zatorre}{Blood\BBA\Zatorre}{2001}]{Article_001}Blood,A.~J.\BBACOMMA\\BBA\Zatorre,R.~J.\BBOP2001\BBCP.\newblock\BBOQIntenselyPleasurableResponsestoMusicCorrelatewithActivityinBrainRegionsImplicatedinRewardandEmotion\BBCQ\\newblock{\BemProceedingsofnationalacademyofscienceU.S.A.},{\Bbf98}(20),\mbox{\BPGS\11818--11823}.\bibitem[\protect\BCAY{Darwin}{Darwin}{1892}]{Book_108}Darwin,C.\BBOP1892\BBCP.\newblock{\BemTheexpressionoftheemotionsinmanandanimals}.\newblockD.appleton.\bibitem[\protect\BCAY{Ekman}{Ekman}{1984}]{Book_301}Ekman,P.\BBOP1984\BBCP.\newblock\BBOQExpressionandthenatureofemotion\BBCQ\\newblockIn{\BemInK.SchererandP.Ekman(Eds.),Approachestoemotion},\mbox{\BPGS\319--343}.Hillsdale,NJ:Erlbaum.\bibitem[\protect\BCAY{Hevner}{Hevner}{1936}]{Article_003}Hevner,K.\BBOP1936\BBCP.\newblock\BBOQExperimentalstudiesoftheelementsofexpressioninmusic\BBCQ\\newblock{\BemAmericanJournalofPsychology},{\Bbf48},\mbox{\BPGS\246--268}.\bibitem[\protect\BCAY{Linde,Buzo,\BBA\Gray}{Lindeet~al.}{1980}]{Article_008}Linde,Y.,Buzo,A.,\BBA\Gray,R.~M.\BBOP1980\BBCP.\newblock\BBOQAnAlgorithmforVectorQuantizerDesign\BBCQ\\newblock{\BemIEEETransactionsonCommunications},{\BbfCOM-28}(1),\mbox{\BPGS\84--95}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1984}]{Book_302}Plutchik,R.\BBOP1984\BBCP.\newblock\BBOQEmotions:Ageneralpsychoevolutionarytheory\BBCQ\\newblockIn{\BemInK.SchererandP.Ekman(Eds.),Approachestoemotion},\mbox{\BPGS\197--219}.Hillsdale,NJ:Erlbaum.\bibitem[\protect\BCAY{Russell}{Russell}{1980}]{Article_002}Russell,J.~A.\BBOP1980\BBCP.\newblock\BBOQAcircumplexmodelofaffect\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf39}(6),\mbox{\BPGS\1161--1178}.\bibitem[\protect\BCAY{Shaver,Schwartz,Kirson,\BBA\O'Connor}{Shaveret~al.}{1987}]{Article_004}Shaver,P.~R.,Schwartz,J.,Kirson,D.,\BBA\O'Connor,C.\BBOP1987\BBCP.\newblock\BBOQEmotionknowledge:Furtherexplorationofaprototypeapproach\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf52},\mbox{\BPGS\1061--1086}.\bibitem[\protect\BCAY{Wundt}{Wundt}{1910}]{Book_109}Wundt,W.\BBOP1910\BBCP.\newblock{\BemGrundzugederphysiologischenPsychologie.6thed.}\newblockLeipzig:WilhelmEngelmann.\bibitem[\protect\BCAY{戸梶}{戸梶}{2001}]{Article_006}戸梶亜紀彦\BBOP2001\BBCP.\newblock\JBOQ『感動』喚起のメカニズムについて\JBCQ\\newblock\Jem{認知科学},{\Bbf8}(4),\mbox{\BPGS\360--368}.\bibitem[\protect\BCAY{戸梶}{戸梶}{2004}]{Article_007}戸梶亜紀彦\BBOP2004\BBCP.\newblock\JBOQ『感動』体験の効果について—人が変化するメカニズム\JBCQ\\newblock\Jem{広島大学マネジメント研究第4号},\mbox{\BPGS\27--37}.\bibitem[\protect\BCAY{川上\JBA中村\JBA河瀬\JBA安田\JBA片平\JBA堀中}{川上\Jetal}{2005}]{Inproc_201}川上愛\JBA中村敏枝\JBA河瀬諭\JBA安田晶子\JBA片平建史\JBA堀中康行\BBOP2005\BBCP.\newblock\JBOQ演奏音の印象と演奏音聴取後の気分の関係—``感動''の視点から—\JBCQ\\newblock\Jem{ヒューマンインターフェイスシンポジウム2005論文集},\mbox{\BPGS\627--630}.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所\JBA池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{NTTコミュニケーション科学研究所\Jetal}{1997}]{Book_106}NTTコミュニケーション科学研究所監修\JBA池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{松山\JBA浜}{松山\JBA浜}{1974}]{Book_104}松山義則\JBA浜治世\BBOP1974\BBCP.\newblock\Jem{感情心理学1—理論と臨床—}.\newblock誠信書房.\bibitem[\protect\BCAY{谷口}{谷口}{2000}]{Book_101}谷口高士\JED\\BBOP2000\BBCP.\newblock\Jem{音は心の中で音楽になる}.\newblock北大路書房.\bibitem[\protect\BCAY{谷口}{谷口}{2005}]{Inproc_204}谷口高士\BBOP2005\BBCP.\newblock\JBOQなぜ音楽は心に響くのか(2)—心理学からのアプローチ—\JBCQ\\newblock\Jem{日本音響学会講演論文集},\mbox{\BPGS\733--736}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{Book_102}国立国語研究所\JED\\BBOP2004\BBCP.\newblock\Jem{分類語彙表}.\newblock大日本図書.\bibitem[\protect\BCAY{三菱総合研究所}{三菱総合研究所}{2003}]{Web_401}三菱総合研究所\BBOP2003\BBCP.\newblock\newblock\JBOQ2003年の感動に関するアンケート\JBCQ.\bibitem[\protect\BCAY{安田\JBA中村\JBA河瀬\JBA川上\JBA片平\JBA堀中}{安田\Jetal}{2005}]{Inproc_205}安田晶子\JBA中村敏枝\JBA河瀬諭\JBA川上愛\JBA片平建史\JBA堀中康\BBOP2005\BBCP.\newblock\JBOQ聴取者の感動体験に伴う情動と演奏音の音響的特性の関係\JBCQ\\newblock\Jem{ヒューマンインターフェイスシンポジウム2005論文集},\mbox{\BPGS\575--580}.\bibitem[\protect\BCAY{大野\JBA浜西}{大野\JBA浜西}{1981}]{Book_107}大野晋\JBA浜西正人\BBOP1981\BBCP.\newblock\Jem{類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{寺崎\JBA岸本\JBA古賀}{寺崎\Jetal}{1992}]{Article_005}寺崎正治\JBA岸本陽一\JBA古賀愛人\BBOP1992\BBCP.\newblock\JBOQ多面的感情状態尺度の作成\JBCQ\\newblock\Jem{心理学研究},{\Bbf62},\mbox{\BPGS\350--356}.\bibitem[\protect\BCAY{難波\JBA桑野}{難波\JBA桑野}{1998}]{Book_105}難波清一郎\JBA桑野園子\BBOP1998\BBCP.\newblock\Jem{音の評価のための心理学的測定法}.\newblockコロナ社.\bibitem[\protect\BCAY{永岡}{永岡}{2005}]{Inproc_202}永岡都\BBOP2005\BBCP.\newblock\JBOQなぜ音楽は心に響くのか(2)—美学からのアプローチ—\JBCQ\\newblock\Jem{日本音響学会講演論文集},\mbox{\BPGS\729--732}.\bibitem[\protect\BCAY{中村\JBA結城\JBA河瀬諭\JBAMaria~R.\JBA片岡}{中村\Jetal}{2004}]{Inproc_203}中村敏枝\JBA結城牧子\JBA河瀬諭\JBAMaria~R.Draguna\JBA片岡智嗣\BBOP2004\BBCP.\newblock\JBOQ音楽聴取時の感動体験に関わる情動について\JBCQ\\newblock\Jem{ヒューマンインターフェイスシンポジウム2004論文集},\mbox{\BPGS\815--818}.\bibitem[\protect\BCAY{松村}{松村}{1995}]{Book_103}松村明\JED\\BBOP1995\BBCP.\newblock\Jem{大辞林第二版}.\newblock三省堂.\end{thebibliography}\begin{biography}\bioauthor{大出訓史(非会員)\unskip}{1997年上智大学理工学部物理学科卒業.1999年東京工業大学大学院修士課程修了.同年,NHK入局,現在,放送技術研究所(人間・情報)研究員.音響認知,音声合成等の研究に従事.電子情報通信学会,日本音響学会,映像情報メディア学会各会員.}\bioauthor{今井篤(非会員)\unskip}{1989年埼玉大学工学部電気工学科卒業.同年,NHK入局,現在,放送技術研究所(人間・情報)主任研究員.話速変換,音声知覚,音声合成等の研究に従事.電子情報通信学会,日本音響学会,映像情報メディア学会各会員.}\bioauthor{安藤彰男(非会員)\unskip}{1978年九州芸術工科大学音響設計学科卒業.1980年同大学院修士課程修了.同年,日本放送協会入社.現在,放送技術研究所(人間・情報)高臨場感音響研究リーダ.高臨場感音響システム,音響デバイス,音響認知科学,音響信号処理などの研究に従事.工学博士.電子情報通信学会論文賞,日本音響学会技術開発賞.映像情報メディア学会業績賞など受賞.IEEE,AES,電子情報通信学会,日本音響学会,映像情報メディア学会会員.}\bioauthor{谷口高士(非会員)\unskip}{1987年京都大学教育学部教育心理学科卒業.1992年同大学院博士課程退学.同年,大阪学院短期大学専任講師,現在,大阪学院大学情報学部教授.1995年博士(教育学).音楽と感情,感情と認知をテーマに研究.日本心理学会,日本音楽知覚認知学会,日本感情心理学会会員.}\end{biography}\biodate\end{document}
V30N01-05
\section{はじめに} 会議や講義,プレゼンテーションなどの音声を自動で書き起こし,アーカイブ構築に用いることは,音声認識の重要な応用の一つである.その際,真に使いやすいアーカイブを構築するためには,単に音声認識誤りを最小化するだけでなく,システム出力の可読性も考慮する必要がある.従来の音声認識システムは,発話中のすべての単語を忠実に再現するように設計されているため,認識結果は必ずしも読みやすいものとはならない.自発的な発話はフィラーや言い誤りを含むだけでなく,流暢に話されたときでも,通常非文法的であり,書き言葉に相応しくない口語特有の表現も多い.また,文の区切りが明確でなく,通常の音声認識では句読点は付与されない.したがって,音声認識結果や忠実な書き起こしを元に可読性の高い文書を作成するためには,人手による相当量の修正が必要となる\cite{JONES:READABILITY}.音声認識結果の可読性を改善するために,話し言葉から書き言葉への自動変換の研究が数多く行われてきた.例えば,非流暢な区間の検出と削除\cite{LIU:ENRICHING,YEH:EDIT},句読点挿入\cite{PAULIK:SENTENCESEGMENTATION,GRAVANO:RESTORINGPUNCTUATION,AKITA:COMMAINSERTION},あるいはより一般的な話し言葉スタイル変換(spokenstyletransformation=SST)\cite{HORI:PARAPHRASING,SHITAOKA:TRANSFORMATION,NEUBIG:SST,SPROAT:TEXTNORMALIZATION}などの研究が挙げられる.これらの既存研究では,雑音のある通信路モデルやCRF(conditionalrandomfield),SVM(supportvectormachine),ディープニューラルネットワークなどの機械学習モデルを用いて,書き起こしから書き言葉へのテキストベースの変換が行われる.したがって,自動整形は音声認識の後処理として行われることが多く,音声認識誤りに起因する性能の低下が避けられない問題があった.また,これらのテキストベースの手法では,モデルの教師つき学習に書き言葉テキストと話し言葉テキストのペアデータを用いるため,音声に忠実な書き起こしを新たに作成する必要がある.通常コスト面の制約から大量の書き起こしは利用できないため,カバーできる音響的・言語的現象に限りがある.これに対して,本研究では,熟練した編集者が音声を聞き取りながら同時に記録文書に適した書き言葉を作成するときのように,フィラーや言い誤りの削除,句読点や脱落した助詞の挿入,また口語的な表現の修正など,適宜必要な編集を行いながら,音声から直接可読性の高い書き言葉スタイルの文を直接出力する新しい音声認識のアプローチを提案する.このアプローチでは,忠実な書き起こしをターゲットとする従来の音声認識モデルとは異なり,Transformer\cite{VASWANI:TRANSFORMER}に基づくsequence-to-sequenceモデルを音声と書き言葉のペアを用いてend-to-end(e2e)に写像を最適化する.また,推論時には音声から書き言葉を直接推論する.したがって,このアプローチは,上記のようなテキストベースの自動整形を用いたカスケード型アプローチの欠点を回避できる強みを持つ.特に,書き言葉予測では,修正の対象となるような非流暢な区間ほど認識誤りが生じやすい問題があるため,音声認識結果を用いないことは,大きな改善をもたらす可能性がある.さらに,提案法は,入力中の音響的な情報に基づいて修正・編集を行うことができる\cite{LIU:ENRICHING,NEUBIG:SST}.また,新たに忠実な書き起こしを作成する必要がないため,教師つき学習におけるデータスパースネスの問題も回避できる.本論文では,特に国会の審議音声から会議録テキストを生成するタスクに焦点を当て,提案手法の詳細な評価と分析を行う.本論文の構成は以下の通りである.2章では,本研究で衆議院審議音声を用いることの意義を明らかにした上で,国会会議録で行われる編集作業の分類・整理を行う.3章では,本研究の基盤となるe2e音声認識のための手法を概説する.4章で音声から書き言葉をe2eで予測するための提案手法について述べた後,5章でその実験的評価とシステム出力の詳細な分析を行う.6章で結論を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia4f1.pdf}\end{center}\caption{国会審議音声における忠実な書き起こしと会議録テキストのペアの例}\label{fig:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データセット} 国会の審議音声における忠実な書き起こしと会議録テキストの例を図\ref{fig:example}に示す.この例では,冒頭のフィラーと末尾の句末表現が削除され,話し言葉特有の「シンギュラリティー\underline{って}のは」という表現が,より改まった「シンギュラリティー\underline{という}のは」という語句に改められている.また,主語と修飾句の間に読点を挿入することで読みやすさの改善が図られている.本研究では,以下の理由から衆議院の音声と会議録から構成した「衆議院審議音声コーパス」を用いる.一つは,国会会議録作成の効率化と高精度化のためである.我々は衆議院審議音声の自動書き起こしシステムを開発しており,2011年度から衆議院のすべての会議の会議録\footnote{\url{https://www.shugiin.go.jp/internet/itdb_kaigiroku.nsf/html/kaigiroku/kaigi_l.htm}}の作成支援のために用いられている\cite{AKITA:IEICE-DIET-TRANSCRIPTION,KAWAHARA:AAAI-DIET,KAWAHARA:TIRO-CAPTION,AKITA:DIETTRANSCRIPTION}.現行のシステムでは,まずDNN-HMMハイブリッド型の音声認識システム\cite{MOHAMED:DNN-HMM,HINTON:DNN-ASR}を用いて音声を忠実に書き起こし,次にこの認識結果を元に編集者が必要な修正を施すことにより,最終的な会議録テキストが作成される.したがって,この工程において,音声認識モデルが直接書き言葉スタイルの文を出力することができれば,会議録作成のためのトータルな作業コストの軽減が期待される.また,本研究で用いるTransformer\cite{VASWANI:TRANSFORMER}などのe2eモデルの推論速度は,ハイブリッドシステムに比べて数十倍のオーダで速い.衆議院の会議の長さは,例えば本研究で評価に用いた2015年度のデータセットでは,平均で3.8時間,最大で12時間にも及ぶ.また,同時に多数の会議が開催される一方,並列処理のための計算機を十分確保することは困難であり,修正元となるドラフトを可能な限り迅速に作成することが求められる.したがって,処理速度は実用上重要な評価項目と言える.次に,国会の審議音声と会議録のペアが,話し言葉と書き言葉の関係を知る上で理想的なデータであるためである.国会の審議音声,特に本会議以外の専門委員会では,話者が用意された原稿を読み上げるのでなく,自発的な発話を行うことが多い.したがって,次節で詳しく見るように,実際に行われた発話と整形済みの会議録テキストには相当程度の相違がある.また,国会会議録の性格上,編集において発話の意図が変わりかねないようなパラフレーズ等は一切許されないため,書き言葉と話し言葉の差異のみに焦点を当てることができる.国会会議録は,熟練した職業的編集者により非常に厳格かつ一貫したルールに則って作成されるため,任意性が低く,機械学習のターゲットとしても適切である.さらには,信頼度の高い音声と会議録の大規模なペアデータが利用できるためである.話し言葉の整形の研究では,音声の書き起こしと書き言葉のペアデータを用いたテキストベースのアプローチが主であった.したがって,書き起こし作成のコストを考えると,学習データのサイズが限られていることが多かった.一方,本研究では,大量の音声-書き言葉のペアを用いて,人手による書き起こしを介することなく,直接音声から書き言葉への変換を実現することを目的とする.本研究では2015年度に行われた第189回国会の会議から構築したデータセットを用いた.各モデルの学習データには,2015年6月までに行われた14の本会議と194の委員会,計208会議から収集した708時間の音声を用いた.提案手法の評価と分析には,次節で述べる5会議,20時間のデータを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{会議録テキストにおける編集作業の分類}2015年度に行われた第189会国会の一部の会議に対して音声の忠実な書き起こしを作成し,会議録と書き起こしで異なる箇所をアノテーションした.このアノテーションをもとに,会議録作成時にどのような編集・修正作業が行われているかを分析した.2015年7月に行われた会議のうち,農林水産委員会第19号(話者ターン数229,異なり話者数22,5.5時間)\footnote{\url{https://www.shugiin.go.jp/internet/itdb_kaigirokua.nsf/html/kaigirokua/000918920150625019.htm}},内閣委員会第18号(話者ターン数201,異なり話者数21,3.2時間)\footnote{\url{https://www.shugiin.go.jp/internet/itdb_kaigirokua.nsf/html/kaigirokua/000218920150708018.htm}},厚生労働委員会第29号(話者ターン数174,異なり話者数17,4.1時間)\footnote{\url{https://www.shugiin.go.jp/internet/itdb_kaigirokua.nsf/html/kaigirokua/009718920150708029.htm}},消費者問題に関する特別委員会第4号(話者ターン数147,異なり話者数27,3.1時間)\footnote{\url{https://www.shugiin.go.jp/internet/itdb_kaigirokua.nsf/html/kaigirokua/019718920150709004.htm}},東日本大震災復興特別委員会第5号(話者ターン数197,異なり話者数26,4.4時間)\footnote{\url{https://www.shugiin.go.jp/internet/itdb_kaigirokua.nsf/html/kaigirokua/024218920150709005.htm}}の5つの会議を用いた.編集者が行う修正を,語句の削除操作によるもの,置換操作によるもの,挿入操作によるものの3つに大別した上で,以下の項目{\bfA}から{\bfM}のように分類した.なお,それぞれの例で,中括弧$\{\}$で囲まれた箇所は削除を,小括弧$()$で囲まれた箇所は挿入を表す.また,修正箇所は連続する場合が多いため,それぞれの例に句読点挿入など他の項目の修正箇所も含まれる場合がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{削除}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{A.フィラーの削除}}フィラー以外の機能を持たない形態を持つ語,すなわち「あー」「あのー」「いー」「うー」「えー」「えーと」「おー」「まあ」「んー」,およびそれらの変種(「えっと」など)を,この「フィラーの削除」に分類した.{\bf例:}「$\{$えー$\}$アメリカ議会におきまして」,「$\{$まあ$\}$しかし$\{$あのー$\}$(、)」また,複数のフィラーが連続した箇所は,まとめて一つのフィラーとカウントした.{\bf例:}「$\{$まあ、あのー、おー$\}$法律の審議でございますので(、)」,「$\{$えー、ま$\}$大体もう$\{$あの$\}$議論は出尽くしたところもありますけれども(,)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{B.句末表現の削除}}口語表現に特有の句末表現は削除する.{\bf例:}「正式な場におきまして$\{$ですね$\}$(、)」,「自民党は$\{$ね$\}$(、)本当に人情に厚くて$\{$ね$\}$(、)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{C.言い誤りや繰り返しの前半部分(reparandum)の削除}}言い誤りにおいて,後半の言い直された部分のみを残して前半を削除する.言い誤り部にはフィラーが伴うことも多い.同じ語句の繰り返しも同様に削除する.{\bf例:}「$\{$総理もこれまでああー$\}$(大臣もこれまで)」,「$\{$質問あの$\}$(決議)に基づきまして(、)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{D.その他}}「やはり」「もう」などの単語が間投詞的に用いられる例や,文脈上必要のない主語や指示語の削除が主である.これらを削除することで簡潔な文を作る.{\bf例:}「$\{$やはり$\}$事業を利用する組合員である農業者の利益(、)」,「そこは残念だと$\{$こう$\}$思っております(。)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{置換}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{E.助詞の修正}}言い誤りとは言えないが,助詞の用法が文法上誤りであるとき,正しい助詞に置換する.特に多い修正は,「が」から「は」(19回),「が」から「を」(19回),「の」から「に」(12回),「は」から「が」(12回)への置換であった.{\bf例:}「農業委員の方$\{$が$\}$(は)(、)任命制があるので(、)」,「制度自体の大きな枠組みの変更$\{$が$\}$(を)検討中だということでございました(。)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{F.口語表現の修正}}話し言葉に特有の表現を,書き言葉に相応しいより改まった語句に修正する.{\bf例:}「$\{$いろんな$\}$(いろいろな)声が$\{$えー$\}$あるということ」,「よく承知して$\{$ます$\}$(います)$\{$けども$\}$(けれども)(、)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{G.語順の入れ替え}}書き言葉として自然になるように,連続した語句の順序を入れ替える.ただし,近年はこの修正はほとんど行われていない.{\bf例:}「$\{$よくないと思うんです一方的すぎると$\}$(一方的すぎると良くないと思うんです)(。)」,「$\{$両方出し手と受け手と$\}$(出し手と受け手と両方)考えてやって」ただし,別の語句を挟んだ距離の離れた入れ替えについては,この項目ではなく,「その他の削除」および「その他の挿入」としてカウントする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{H.言い誤り}}言い誤りがあったが,言い直されてはいない箇所について,正しい語句に修正する.単に読みが非流暢な箇所だけでなく,意味を考慮した正しい語句への修正も含む.{\bf例:}「$\{$組長$\}$(首長)というのは最終的には」,「$\{$農林さんしょう$\}$(農林水産省)の元同僚の皆さんに」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{I.その他}}省略表現の補完や,意味を考慮した表現の補足などに相当するが,頻度は非常に少ない.{\bf例:}「第八条$\{$の四で$\}$(四項の二号で)」,「$\{$これ$\}$(農業関係は)二十万人どころじゃないんです(。)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{挿入}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{J.読点},\underline{K.句点}}句読点を適宜挿入することにより,読みやすさを改善する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{L.助詞の復元}}話し言葉では助詞の脱落が頻繁に発生する.脱落した箇所に正しい助詞を復元し,文法的な文を作る.特に多い修正は,「を」(604回),「は」(549回),「が」(204回),「に」(151回)の挿入であった.{\bf例:}「アメリカの議会(は)この法案の審議をめぐっては」,「ここにいらっしゃる議員(を)初め(、)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{\underline{M.その他}}項目{\bfH}で述べた離れた位置の語順の入れ替えの一部であることが多い.{\bf例:}「それを$\{私は\}$この場で議論しないのはおかしいと(私は)思うんですよ(。)」,「$\{比較的\}$まだそれでも(、)そういう方の数も(比較的)あるんですが(、)」%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{30-1ia4f2.pdf}\end{center}\caption{国会会議録における各編集の割合}\label{fig:edits}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{各修正項目の頻度}忠実な書き起こし(423,786文字)に対する会議録(403.813文字)の差異(編集距離)は,置換14,480(3.4\%),挿入19,727(4,7\%),脱落39,700(9.4\%)の計73,907文字(17.4\%)に上った.図\ref{fig:edits}に,各修正項目の会議内における割合を示す.句読点挿入を除けば,修正のほぼ半数はフィラーの除去であった.置換操作では口語表現の修正が最も多かったが,正しく行うためには,フィラーの削除より高度な規則を用いる必要があると考えられる.さらに難しいと考えられる助詞の挿入や言い誤りの削除なども相当回数出現した.一方,語順の入れ替えなど,単調なアライメントとならない修正はほとんど行われていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{End-to-end音声認識} 本研究で用いるe2e音声認識の手法について簡潔に述べる.e2e音声認識では,単一のニューラルネットワークを用いて,入力音響特徴量系列から異なる長さのラベル系列を予測する.出力にはサブワード\cite{SENNRICH:BPE,KUDO:SENTENCEPIECE}や文字など,書記素に基づく単位が用いられることが多く,直接単語系列を出力することも可能である\cite{AUDHKHASI:ACOUSTICS2WORD,SOLTAU:NSR,UENO:WORDATTENTION}.HMM音響モデル,統計的言語モデルおよび発音辞書から構成される従来のハイブリッド型システム\cite{HINTON:DNN-ASR}に比べて単純な構造を持ち,サーチエラーが少ないことも加えて,一般に遥かに高速にデコードを行うことができる.以下では,入力特徴量ベクトルの系列,または入力を畳み込みニューラルネットワークやフレームスタッキングと呼ばれる手法でサブサンプリングした系列を$\mat{X}=[\vec{x_1},\vec{x_2},...,\vec{x_T}]$,ターゲットラベル系列を$Y=[y_1,y_2,...,y_L]$とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{CTC損失関数を用いたモデル}CTC(connectionisttemporalclassification)損失関数に基づくモデル\cite{GRAVES:CTC}では,ブランク(blank)と呼ばれる特殊なトークンを用いることで,系列長の異なる入力-ターゲット間の写像を行う.まず,単方向または双方向型のRNN(reccurentneuralnetwork)や次節で述べるTransformerに基づくエンコーダを用いて,入力特徴量系列$\mat{X}$を同じ長さの表現系列へと変換する.\begin{equation}\mat{H}=\Encoder(\mat{X})\end{equation}この表現系列に線形変換$\Linear()$とソフトマックス関数$\Softmax()$を用いることで,時刻フレームごとの予測を行う.\begin{equation}\mat{O}=\Softmax(\Linear(\mat{H}))\end{equation}ブランクを正解のラベル系列の任意の箇所に挿入することと同一ラベルの任意の回数の重複を許すことで,与えられたラベル系列から入力と同じ長さを持つ拡張ラベル系列を作ることができる.この拡張ラベル系列の一つを$\vec{\pi}$としたとき,$\vec{\pi}$の条件付き確率は,\begin{equation}p(\vec{\pi}|\mat{X})=\prod_{t=1}^{T}\vec{o}_{t,\pi_t}\end{equation}で与えられる.$\vec{o}_{t,\pi_t}$は,出力$\vec{o}_t$の拡張ラベル$\pi_t$に対応する次元の値を表す.ブランクと重複ラベルの削除を操作$\beta$で表すとき,$\beta$によりラベル系列$Y$へ縮退するすべてのアライメントパス$\vec{\pi}$について上の条件付き確率の総和を取ることで,ラベル系列$Y$の確率を計算する.\begin{equation}p(Y|\mat{X})=\sum_{\vec{\pi}\in\beta^{-1}(Y)}^{T}p(\vec{\pi}|\mat{X})\end{equation}この確率の負の対数をCTC損失関数と定義する.\begin{equation}loss_{CTC}(\mat{X},Y)=-\log(p(Y|\mat{X}))\end{equation}損失関数の性質から明らかなように,CTCに基づくモデルでは入力-ラベル系列間に単調なアライメントを仮定している.なお,推論時は,式(3)に従ってラベル事後確率を計算し,各時刻で最大の確率を与えるラベルを選んだ上で,ブランクの除去と連続して出現した同一ラベルを一つにまとめることで認識結果を得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Transformer}Transformer\cite{VASWANI:TRANSFORMER}はエンコーダとデコーダサブネットワークから構成されるseq2seq型モデルの一種であり,最初機械翻訳のためのモデルとして提案されたが,後に音声認識を含む種々の音声アプリケーションでも再帰型ニューラルネットワーク(RNN)より高い性能を持つことが示された\cite{KARITA:TRANSFORMERCTC,DONG:SPEECHTRANSFORMER,KARITA:TRANSFORMERVSRNN}.Transformerに基づく音声認識モデルのアーキテクチャを図\ref{fig:transformer}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{30-1ia4f3.pdf}\end{center}\caption{Transformerに基づく音声認識モデル}\label{fig:transformer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Transformerでは,以下のようなマルチヘッドアテンション機構に基づき,各層の出力を順次計算する.\begin{gather}\Multihead(\mat{Q},\mat{K},\mat{V})=\Concat(head_{1},head_{2},...,head_{h})\mat{R}^{o}\\head_{i}=\Attention(\mat{Q}\mat{R}_{i}^{Q},\mat{K}\mat{R}_{i}^{K},\mat{V}\mat{R}_{i}^{V})\\\Attention(\mat{Q},\mat{K},\mat{V})=\Softmax(\frac{\mat{Q}\mat{K}^T}{\sqrt{d_k}})\mat{V}\end{gather}ここで,出力の次元数を$d_{model}$,ヘッド数を$h$として,$\mat{Q}\in\mathbb{R}^{t_{q}\timesd_{q}}$,$\mat{K}\in\mathbb{R}^{t_{k}\timesd_{k}}$,$\mat{V}\in\mathbb{R}^{t_{v}\timesd_{v}}$,$\mat{R}_{i}^{Q}\in\mathbb{R}^{d_{model}\timesd_{q}}$,$\mat{R}_{i}^{K}\in\mathbb{R}^{d_{model}\timesd_{k}}$,$\mat{R}_{i}^{V}\in\mathbb{R}^{d_{model}\timesd_{v}}$,$\mat{R}^{O}\in\mathbb{R}^{hd_{v}\timesd_{model}}$,であり,通常$t_{k}=t_{v}$,また$d_{q}=d_{k}=d_{v}=d_{model}/h$である.このマルチヘッドアテンション機構を用いて,エンコーダの各層の出力$\mat{X}^{enc}_{n}$は,\begin{align}\mat{A}^{enc}_{n}&=\LayerNorm(\mat{X}^{enc}_{n-1})\\\mat{B}^{enc}_{n}&=\mat{X}^{enc}_{n-1}+\Multihead(\mat{A}^{enc}_{n},\mat{A}^{enc}_{n},\mat{A}^{enc}_{n})\\\mat{C}^{enc}_{n}&=\LayerNorm(\mat{B}^{enc}_{n})\\\mat{X}^{enc}_{n}&=\mat{B}^{enc}_{n}+\FFN(\mat{C}^{enc}_{n})\end{align}のように計算される.ここで,{$\FFN()$}は文献\cite{VASWANI:TRANSFORMER}におけるPosition-wiseFeed-ForwardNetworkコンポーネントと同一であり,ふたつの線形層{$\Linear_{FFN1}$},{$\Linear_{FFN2}$},およびReLU活性化関数\cite{NAIR:RELU}を用いて,{$\FFN(\mat{C}^{enc}_{n})=\Linear_{FFN2}(\ReLU\linebreak(\Linear_{FFN1}(\mat{C}^{enc}_{n})))$}と計算される.なお,主に正弦関数に基づく位置埋め込み$\mat{P}$を用いて,$\mat{X}^{enc}_{0}=\mat{X}+\mat{P}$と定義する.一方,デコーダの各層では,デコーダの前層の出力$\mat{X}^{dec}_{m-1}$とエンコーダ出力$\mat{X}^{enc}_{N}$の二つを用いて各層の出力を計算する.ただし,$\mat{X}^{dec}_{0}=\Embedding(Y)+\mat{P}$と定義する.\begin{align}\mat{A}^{dec}_{m}&=\LayerNorm(\mat{X}^{dec}_{m-1})\\\mat{B}^{dec}_{m}&=\mat{A}^{dec}_{m-1}+\Multihead(\mat{A}^{dec}_{m},\mat{A}^{dec}_{m},\mat{A}^{dec}_{m})\\\mat{C}^{dec}_{m}&=\LayerNorm(\mat{B}^{dec}_{m})\\\mat{D}^{dec}_{m}&=\mat{B}^{dec}_{m}+\Multihead(\mat{C}^{dec}_{m},\mat{X}^{enc}_{N},\mat{X}^{enc}_{N})\\\mat{E}^{dec}_{m}&=\LayerNorm(\mat{D}^{dec}_{m})\\\mat{X}^{dec}_{m}&=\mat{D}^{dec}_{m}+\FFN(\mat{E}^{dec}_{m})\end{align}デコーダの最終層の出力$\mat{X}^{dec}_{M}$を用いて,ネットワークのラベル単位の予測は,\begin{equation}\mat{O}=\Softmax(\Linear(\mat{X}^{dec}_{M}))\end{equation}で与えられる.この予測とターゲットラベルのクロスエントロピ(crossentropy=CE)としてTransformerの損失関数を定義する.\begin{equation}loss_{CE}(\mat{X},Y)=\sum_{l=1}^{L}\onehot(y_{l})\log(\vec{o}_{l})\end{equation}ここで,$\onehot(y_{l})$は,トークン$y_{l}$に対応する次元のみが1であり,その他の次元が0であるような出力クラス数と同じサイズのベクトルとする.CTCとは異なり,Transformerでは入力-ターゲット間のアライメントにどのような制約も仮定しておらず,各デコーダステップにおいて入力中の任意の箇所に注目することで,より柔軟な系列間の変換が行える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 本研究では,音声を入力,書き言葉をターゲットに用いて単一のニューラルネットワークをe2eで最適化し,推論時にはこのネットワークを用いて音声から書き言葉を直接予測する.以降ではこのアプローチをダイレクト書き言葉予測,用いるモデルをダイレクトモデルなどと呼ぶ.このダイレクトモデルの利点は,音声認識とテキストベースの話し言葉スタイル変換(SST)を組み合わせた従来のカスケード方式と比較したとき,以下のように要約できる.一つは,入力中の音響的な手がかりを用いて修正が行える点である.これにより,例えば,音声の非流暢な箇所を同定・削除したり,ポーズを句点に対応付けることが可能となる.次に,カスケードモデルで問題となる音声認識誤りに起因する精度低下を回避できる点である.修正の対象となるフィラーや言い誤りなどの非流暢な箇所では特に音声認識誤りが多いと考えられるため,書き言葉予測において音声認識結果を用いない意義は特に大きい.さらには,音声認識とSSTが単一のネットワークで同時に実現できるため,アーキテクチャが単純で扱いやすく,モデルサイズがコンパクトである上,推論速度もはるかに高速になる.一方,このダイレクト変換は,入力音声中に対応する音響的なイベントを持たないラベルを挿入したり(助詞の復元や特に読点の挿入),対応するラベルを持たない音声区間を適切にスキップする必要があるため(フィラー等の除去),音声に忠実なラベルをターゲットとする従来の音声認識より難しいタスクであり,非常に柔軟なモデルが必要となる.本研究ではこのダイレクト書き言葉予測を音声翻訳\cite{WEISS:ST}に近いタスクと考え,Transformerに基づくラベル同期型seq2seqモデルを用いて実装する.ダイレクト方式とカスケード方式のアーキテクチャの違いを,図\ref{fig:model}に示す.以下の各節では,上記のような難しさを持つダイレクトアプローチのための改善法について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\includegraphics{30-1ia4f4.pdf}\caption{書き言葉生成のためのカスケード型アプローチ(A)とダイレクトアプローチ(B)}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似的な書き起こしを用いた学習法の改善}2.2節で示したように書き言葉のターゲットは音声との不一致が大きいため,音声から書き言葉へのダイレクトモデルは,通常の音声認識モデルより学習が難しいと考えられる.そこで,音声認識で用いるような忠実な書き起こしも援用することで,ダイレクトモデルの学習を補助することを考える.ただし,大規模な音声データに対して人手による書き起こしを作成するのはコスト面で現実的ではないため,4.1.1節で会議録をもとに疑似的にこの忠実な書き起こしを自動復元する.4.1.2節では,実際にモデルの学習に用いるための音声-書き言葉-疑似書き起こしの3つ組データの作成手順について述べる.4.1.3節と4.1.4節で,具体的にこれらのデータを用いて書き言葉予測性能を改善する手法について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{疑似的な書き起こしの作成}会議$m$内のある話者ターン$s$の会議録テキスト$W_{m,s}$は利用可能であるが,その忠実な書き起こし$V_{m,s}$をすべての($m$,$s$)に対して人手で作成するのは膨大なコストが必要である.そのため,統計的機械翻訳の枠組みを用いて,自動で会議録テキスト$W_{m,s}$から書き起こし$V_{m,s}$を復元することを考える.一般に,書き言葉スタイルのテキスト$W$が与えられたとき,対応する話し言葉スタイルのテキスト$V$は,原理的には以下のベイズ則に基づいてデコードできる.\begin{equation}P(V|W)=P(V)\cdot\frac{P(W|V)}{P(W)}\end{equation}しかし,実際には,例えばフィラーは任意の箇所に出現し得るなど,書き言葉から話し言葉への変換は本質的にランダムであり,会議録のテキストデータ$W$のみから話し言葉テキスト$V$を一意に復元することは非常に難しい.そこで,$V$を上記の規則から直接デコードするのでなく,話し言葉スタイルの統計的言語モデル$P(V)$を同様にベイズ則\begin{equation}P(V)=P(W)\cdot\frac{P(V|W)}{P(W|V)}\end{equation}により推定し,得られた$V$の確率モデル,つまり話し言葉スタイルの言語モデル$P(V)$を用いて音声認識を行うことにより,疑似的に$V$を復元することを提案する.言語モデル確率の変換は,実際には以下のように$N$-gramカウントの操作に基づいて行う.\begin{equation}Ngram(v_{1}^{n})=Ngram(w_{1}^{n})\cdot\frac{P(v|w)}{P(w|v)}\end{equation}ここで,$Ngram(v_{1}^{n})$および$Ngram(w_{1}^{n})$は,話し言葉および書き言葉コーパスにおける各々の$N$-gramの出現回数を表す.また,$v$および$w$はそれぞれのスタイルにおける変換単位となるパターンを表す.例えば,フィラー「あのー」の挿入は,変換$\{w=(w_{-1},w_{+1})\rightarrowv=(w_{-1},あのー,w_{+1})\}$として表される.これらのパターン間の変換規則を,ごく少量の会議録と書き起こしのパラレルデータを用いて獲得し,その確率$P(v|w)$および$P(w|v)$を最尤推定により求める.また,データのスパース性に基づく影響を軽減するために,品詞情報に基づくスムージングも行う.この言語モデルスタイル変換のより詳細なアルゴリズムについては,\cite{AKITA:LMTRANS}を参照されたい.この手法の利点は,深層学習に基づくモデルのように大規模なペアデータを必要としない点と,小規模なペアデータから獲得された話し言葉に特定のパターンのみを変換の対象とするため,音声認識誤りを除けば,保持すべき内容語が削除されるなど,想定しない変換が行われない点である.疑似的な書き起こし$\hat{V}_{m,s}$の具体的な作成手順を以下に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Step1}会議$m$の会議録全文のテキストデータ$W_{m}$を用いて,会議$m$に依存した書き言葉スタイルの$N$-gram言語モデル$P_{m}(W)$を構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Step2}$P_{m}(W)$に言語モデルスタイル変換を適用することにより,話し言葉スタイルの$N$-gram言語モデル$P_{m}(V)$を構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Step3}形態素解析から得られた各単語の発音を用いて発音辞書を構築する.この発音辞書と,他の書き起こしのある音声コーパスで事前に構築したHMM音響モデル,および会議$m$に依存した言語モデル$P_{m}(V)$を用いて,この会議全体の音声データ$\mat{X}_{m}$を認識する.$P_{m}(V)$は,この会議に出現する単語と単語連接のみから構築したモデルであり,話題が$\mat{X}_{m}$と完全に合致している上,フィラーや口語表現などの話し言葉特有の現象にも適切な確率を与えることができる.なお,言語モデル$P_{m}(V)$で制約した探索空間でのみ音声認識を行う必要があるため,外部の学習データで獲得された内在的な言語モデル\cite{MCDERMOTT:DENSITYRATIO}を包含するe2e音声認識モデルではなく,モジュール性のあるハイブリッドシステムを用いてデコードを行う.また,Juliusツールキット\cite{LEE:JULIUS}のショートポーズセグメンテーションアルゴリズムを用いてデコードとポーズに基づく音声の分割を同時に行う.ハイブリッドモデルを用いた音声認識はフレーム単位の予測に基づいて行われるため,デコードの過程ですべての単語にタイムスタンプが付与される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Step4}会議録の発言者のタグに従って,会議録テキスト$W_{m}$を話者ターン毎のテキスト$W_{m,s}$に分割する.話者ターンの境界に特別なタグを挿入した上で,会議全体の認識結果と会議録テキストのアライメントを取得する.その上で,ターン境界タグに割り当てられた認識結果中の単語(実際には,主に長いポーズ)の時刻で音声を分割し,各話者ターンの音声$\mat{X}_{m,s}$を得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Step5}$W_{m,s}$を用いて,{\bfStep2}と同様に話者ターン$s$に依存した話し言葉スタイル言語モデル$P_{m,s}(V)$を構築する.このモデルは会議全体から構築した$P_{m}(V)$よりさらに強い制約を与える.$P_{m,s}(V)$を用いて$\mat{X}_{m,s}$を認識する.この結果得られた非常に正確な認識結果を,この話者ターンの疑似的な書き起こし$\hat{V}_{m,s}$として用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{音声・疑似的書き起こし・会議録のアライメント}次節から述べる改善手法を用いてダイレクトモデルの学習を行うためには,扱いやすい長さのセグメントに分割した音声$\mat{X}_{m,s,u}$と,その疑似的な書き起こし$\hat{V}_{m,s,u}$および会議録テキスト$W_{m,s,u}$の組が必要である.この3つ組データ($\mat{X}_{m,s,u}$,$\hat{V}_{m,s,u}$,$W_{m,s,u}$)を以下の手続きで作成する.Juliusのショートポーズセグメンテーションの過程で,音声セグメント$\mat{X}_{m,s,u}$の開始時刻と終了時刻が付与済みであるため,分割済み音声および疑似書き起こし$\hat{V}_{m,s,u}$は容易に取得できる.また,$\hat{V}_{m,s,u}$のすべての単語の出現時刻も付与されている.話者ターン$s$の疑似書き起こし$\hat{V}_{m,s}$と会議録テキスト$W_{m,s}$のアライメントを取得し,セグメント境界のポーズ(しきい値200ms以上のポーズ)が挿入誤りとして対応付けられた箇所で会議録テキスト$W_{m,s}$を分割することで,セグメント$u$の会議録テキスト$W_{m,s,u}$を取得する.なお,上記の疑似的な書き起こしを作成した際のショートポーズベースの音声区分化は,各セグメント内の発話内容について考慮しないため,書き言葉予測に適した分割ではない可能性が高い.音声区分化の改善手法については,後の4.3章で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{エンコーダのマルチタスク学習}e2e音声認識において,エンコーダの役割は,雑音や話者性などに起因する入力中の局所的な変動成分を除去し,理想的には音素クラスのような言語的ユニットと直接対応付けられるようなより大域的な情報のみを抽出することであると考えられる\cite{BAEVSKI:WAV2VEC2}.一方,単語やサブワードは一般に複数の音節から成り立ち,コンテクストによって発音も変化するため,これらの書記素に基づく出力単位を用いるe2e音声認識では,入力-ラベル間の対応は単純なものとはならない\cite{AUDHKHASI:ACOUSTICS2WORD,SOLTAU:NSR}.音声と異なる言語をターゲットとするe2e音声翻訳\cite{WEISS:ST}では,ラベルと音声の不一致はさらに著しい.そのため,これらのモデルでは,エンコーダの学習を補助するための改善手法が用いられることが多い.その一つは,音声との対応がより単純な音素系列や,最終的な出力ユニットより少ないクラス数のサブワードまたは文字など,より低レベルのラベルをエンコーダの出力層または中間層に補助的なターゲットとして与えることである\cite{UENO:WORDATTENTION,HIGUCHI:HIERARCHICALCTC,SANABRIA:HIERARCHICALMTL}.e2e音声翻訳では,通常,元言語の書き起こしを用いたマルチタスク学習\cite{WEISS:ST}やエンコーダの事前学習\cite{BERARD:STAUDIOBOOKS}が行われる.もう一つは,seq2seqモデルにおいて,主タスクのクロスエントロピ損失の他に,2.2節で述べたCTC損失関数を用いた補助的なタスクを導入することである.CTC損失関数は,入力-ターゲット間で単調アライメントの強い制約を与えるため,適切なラベルが与えられれば,クロスエントロピ損失のみより効率的にエンコーダの最適化を行うことができる\cite{KIM:JOINT,KARITA:TRANSFORMERCTC}.以上を踏まえて,ダイレクト書き言葉予測のためのエンコーダのマルチタスク学習を提案する.この手法では,図\ref{fig:method}のエンコーダ部に示すように,書き言葉の予測を行うデコーダとは別に,エンコーダ出力からなるべく音声に忠実なラベルを予測する音声認識サブタスクを定義する.このサブタスクのターゲットとして,4.1.3章で作成した疑似的な書き起こし$\hat{V}_{m,s,u}$を用いる.また,モデル予測とこの補助ターゲット間の損失を,CTC損失関数を用いて計算する.疑似的な書き起こし$\hat{V}_{m,s,u}$は制約つき音声認識を用いて復元されたものであるため発話内容に忠実であり,アライメントの単調性も保証される.マルチタスク学習における損失関数は,3章で定義した$loss_{CTC}$,$loss_{CE}$とサブタスクの重み$\lambda$を用いて,\pagebreak\begin{equation}loss_{MTL}(\mat{X},W,\hat{V})=\lambda\cdotloss_{ctc}(\mat{X},\hat{V})+(1-\lambda)\cdotloss_{CE}(\mat{X},W)\end{equation}と定義する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-1ia4f5.pdf}\end{center}\caption{疑似的な書き起こしを用いたエンコーダのマルチタスク学習とデコーダのマルチスタイル学習}\label{fig:method}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{デコーダのマルチスタイル学習}前節で述べたマルチタスク学習では,書き起こしを用いて得られる損失はエンコーダ最上層に追加した線形層を介してエンコーダにのみ伝播し,主タスク(書き言葉予測)のためのTransformerデコーダのパラメータ更新に利用されない.本節では,デコーダにも書き起こしテキストを与えて学習を補助するデコーダサイドのマルチスタイル学習を提案する.このマルチスタイル学習は,複数言語の音声認識を単一のネットワークで行うマルチリンガルe2e音声認識\cite{WATANABE:MULTILINGUALASR}の枠組みを用いて行う.すなわち,日本語の書き言葉(会議録)と話し言葉(疑似書き起こし)を異なる言語とみなして,いずれかのラベルを確率的に選択し,各音声セグメントのターゲットに用いる.その際,両者で異なる文頭シンボル(`\verb|<written>|'または`\verb|<spoken>|')を用いることで,文全体の予測を条件付ける.マルチリンガル学習では,低資源言語などの難しいタスクが比較的易しい英語などの音声認識により改善されることから,提案法も書き言葉の生成をより易しい音声認識タスクで補助することを目的とする.このマルチスタイル学習の概要を図\ref{fig:method}のデコーダ部に示す.音声セグメント$\mat{X}_{m,s,u}$ごとにパラメータ$p$のベルヌーイ分布に従う試行を行い,得られた確率変数$style$の値が1であれば会議録ラベル$W_{m,s,u}$を,0であれば書き起こしラベル$\hat{V}_{m,s,u}$を選択して$\mat{X}_{m,s,u}$のターゲットに用いる.認識時は,開始ステップで`\verb|<written>|'タグを文頭シンボルとして与える.なお,アプリケーションによって音声に忠実な認識結果を得たいときは,`\verb|<spoken>|'タグを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{句読点位置を考慮した音声の自動区分化}e2eモデルを用いた音声認識や書き言葉の予測を行う上で,事前に評価に用いる各会議全体の音声データを扱いやすい長さの区間に分割しておく必要がある.その際,書き言葉の文に相当するような統語的・意味的まとまりを持った単位に分割することが理想的であるが,そのような発話境界位置のアノテーションは通常利用できない.音声認識で主に用いられるショートポーズに基づく自動区分化では,200ms程度のしきい値以上の無音が検出された箇所で,音声を分割する.しかし,自発的な発話において,ショートポーズの出現位置が文の区切りと一致するとは限らないため,音声の過分割を招き,予測のための重要なコンテクスト情報が失われる恐れがある.一方,単にこのしきい値を大きくすると,信号対雑音比の低い音響条件下や話速の速い発話において,文の境界を超えるような不適切に長いセグメントが生成される傾向がある.e2eモデル,特にアテンション機構に基づくモデルでは,20秒程度以上の長い発話に対して認識性能が顕著に低下することが知られており\cite{CHIU:LONGFORM,PAN:SRUASR},単に長い単位へ分割するような戦略は望ましくない.また,評価環境ごとに適切なポーズ長のしきい値を決定することも困難である\footnote{例えば,5.5時間の農林水産委員会第19号をJuliusのショートポーズセグメンテーションアルゴリズムを用いてポーズしきい値200msで区分化したとき,5,062のセグメントに分割され,そのうち2秒未満の非常に短いセグメントは1,309であった.一方,やや長いしきい値300msでは,セグメント数は2,471となり,うち2秒未満の短いセグメントは340と減少したが,20秒以上の非常に長いセグメントが166と多数生成された.}.以上のようなショートポーズによるセグメンテーションの問題を解決するために,句読点位置を手がかりとした音声の区分化手法を提案する.句読点は,ポーズとは異なり,発話スタイルや音響条件,話速等の話者性に関わらず出力側では安定した間隔で出現すると考えられる.そのため,句読点の出現位置を考慮することで,音声が極端な長さのセグメントに分割されるのを防ぐことができる.また,句読点に挟まれた比較的まとまった区間の情報が保持されるため,後続の書き言葉予測において一貫して十分な長さのコンテクストを用いることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{CTCモデルを用いたオンライン句読点検出}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo1\begin{algorithm}[b]\caption{~PunctuationBasedSpeechSegmentation($\mat{X},N_{blank},T_{margin},subsample\_rate$)}\label{algorithm:punc_based_vad}\begin{algorithmic}[1]\STATE$B$:setofdetectedsegmentationboundaries\STATE$\vec{x}_t$:encoderinputat$t$\STATE$\vec{h}_t$:encoderoutputat$t$\STATE$\vec{s}_t$:encoderstateat$t$\STATE$\hat{y}_t$:predictedlabelat$t$\STATE$B\Leftarrow\{0\}$,$\vec{s}_0=0$,$blank\_count=0$\STATE$[\vec{x}_1.\vec{x}_2,...,\vec{x}_{T/subsample\_rate}]=\Subsample(\mat{X})$\FOR{$t\in[1,2,...,T/subsample\_rate]$}\STATE$\vec{h}_t,\vec{s}_t=\UnidirectionalRNN(\vec{x}_t,\vec{s}_{t-1})$\STATE$\hat{y}_t=\argmax(\Linear(\vec{h}_t))$\IF{$\hat{y}_t==$blank}\STATE$blank\_count+=1$\ELSE\STATE$previous\_nonblank\_token=\hat{y}_t$\STATE{\bfcontinue}\ENDIF\IF{$blank\_count>N_{blank}$}\IF{$previous\_nonblank\_token\in\{,,.\}$}\STATE$\vec{s}_t=0$\STATE$blank\_count=0$\STATE$B\Leftarrowt\cdotsubsample\_rate-T_{margin}$\ENDIF\ENDIF\ENDFOR\STATE$B\LeftarrowT$\RETURN$B$\end{algorithmic}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この音声区分化手法を,典型的には数時間程度の非常に長い音声を入力として,オンラインで句読点位置を予測しながら音声分割を行うタスクとして定式化する.句読点予測には,単方向型RNNをエンコーダとするCTCモデルを用いる.このオンラインCTCモデルは,4.2.2章でショートポーズセグメンテーションに基づいて作成した3つ組データ($\mat{X}_{m,s,u}$,$\hat{V}_{m,s,u}$,$W_{m,s,u}$)を用いて学習する.すなわち,オンライン版のダイレクト書き言葉予測モデルとして構築する.なお,単方向型RNNはTransformerより表現能力が低いため,次章の評価実験で見るように,書き起こしを用いたマルチタスク学習がモデルの収束のために必須となる.このCTCモデルを用いて音声区分化を行うための手続きをAlgorithm~\ref{algorithm:punc_based_vad}に示す.このアルゴリズムでは,オンラインで時間同期に書き言葉予測を行いながら,句点または読点とポーズが共起した時刻で,音声を分割する.ポーズあるいは非音声区間はしきい値$N_{blank}$回以上のブランクの連続として検出できる\cite{YOSHIMURA:CTCVAD}.なお,句読点が挿入されたおおよその時刻は,対応する出力ノードのCTCスパイクにより知ることができるが,単方向エンコーダに基づくモデルでは,スパイクの位置は実際のラベルの出現時刻より一貫して遅れることが知られている.そのため,スパイクから一定フレーム数($T_{margin}$)さかのぼった時刻を実際の境界とする.境界を検出したエンコーダステップでRNNの状態をリセットした上で,再び時間同期の書き言葉予測を継続する.句読点のみでなく,ポーズも考慮するのは,以下の理由による.CTCモデルにおいて,出力ノードのスパイクは当該トークンの周辺に存在するが,ハイブリッドモデルのように正確な出現時刻であることが保証されるわけではない.そのため,ポーズを伴わない句読点のスパイクは,実際には前後の他のサブワードの継続時間内に含まれる可能性が非常に高い.また,セグメント境界にポーズが存在しないと,文頭・文末の明確な手がかりがないため,一般に音声認識精度は低下する.さらに,ポーズと共起する句読点の予測は,そもそも信頼度が高いと考えられる.言語的知識を用いた音声区分化手法としては,最近,RNN-Transducer\cite{GRAVES:RNNT}などの自己回帰型モデルを用いて音声認識とEndpointingを同時に行う手法が提案されているが\cite{CHANG:ENDPOINT,MAHADEOKAR:ALIGNMENTRESTRICTED},これは音声検索のようにユーザ発話の終端が容易に検出できるタスクにおいて,システム応答の遅延を最小化することを目的とした手法である.一方,会議のような人間同士の話し言葉コミュニケーションでは,最適な発話の終端を通常決定できず,検出も難しい.また,オンライン音声認識技術を用いた遅延の最小化より書き起こし精度が重視されることが多い.したがって,本研究では,発話終端のアノテーションを必要とせず,代わりに書き言葉の句読点情報を用いた音声区分化と,後段のオフライン処理によるダイレクト書き言葉予測を独立して行うアプローチを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} 提案手法を大規模な衆議院審議音声コーパスを用いて評価した.各モデルの学習データには,第189回国会において2015年6月までに行われた14の本会議と194の委員会,計208会議から収集した708時間の音声を用いた.評価データには,2章で分析に用いた5つの会議,すなわち2015年7月に行われた農林水産委員会第19号(話者ターン数229,異なり話者数22,5.5時間),内閣委員会第18号(話者ターン数201,異なり話者数21,3.2時間),厚生労働委員会第29号(話者ターン数174,異なり話者数17,4.1時間),消費者問題に関する特別委員会第4号(話者ターン数147,異なり話者数27,3.1時間),東日本大震災復興特別委員会第5号(話者ターン数197,異なり話者数26,4.4時間)を用いた.これらのデータについては,音声に忠実な書き起こしの作成と2.1節で述べた編集者による修正についてのアノテーションを人手により行っている.開発データには法務委員会第12号(話者ターン75,異なり話者数9,2.5時間)を用いた.モデル学習や音声区分化における種々のハイパーパラメータは,この開発データにより決定した.音響特徴量は,80次元の対数メルフィルタバンク出力を用いた.音響分析のための分析窓幅は25msとし,フレームシフトは10msとした.学習データおよび評価データの音響特徴量の各次元は,学習データ全体の平均・標準偏差を用いて正規化した.すべてのテキストデータは,ChaSen-2.4.4+UniDic-1.3.9を用いて形態素へ分割したあと,bytepairencoding(BPE)\cite{SENNRICH:BPE}によりトークナイズを行った.BPEに基づくサブワードの異なり数は10kとした.e2e音声認識とダイレクト書き言葉予測には,同一の構造を持つTransformerに基づくseq2seqモデルを用いた.エンコーダには12層,デコーダには6層のTransformerを用いた.ヘッド数$h$,角層の出力次元数$d_{model}$,FFNの中間ノード数$d_{ff}$は,それぞれ$h=4$,$d_{model}=256$,$d_{ff}=2,408$とした.入力音響特徴量系列は,二層の畳み込み層を用いて系列長が$1/4$となるようにサブサンプリングを行った上で,エンコーダへ入力した.各畳み込み層は,出力チャネル数32,カーネルサイズ3,ストライド1の二次元畳み込みニューラルネットワーク(convolutionalneuralnetwork=CNN)\cite{LECUN:CNN}とストライド2の二次元プーリング層により構成した.CNN出力は,ReLU関数\cite{NAIR:RELU}を用いて非線形変換を行った.なお,比較のためにCTC損失関数を用いたe2e音声認識およびダイレクト書き言葉予測モデルも構築した.CTCモデルでも,seq2seqモデルと同一の12層のTransformerエンコーダを用いた.比較のためのカスケード方式(図\ref{fig:model}の(A))では,上記のe2e音声認識と,テキストベースで話し言葉から書き言葉への変換を行うSSTモデルを組み合わせることで,音声から書き言葉の予測を行った.テキストベースSSTモデルは,音声翻訳におけるカスケードモデル\cite{BENTIVOGLI:CASCADEVSDIRECT}の例にしたがって,Transformerにより実装した.エンコーダとデコーダの構成は,上記のe2e音声認識およびダイレクトモデルと同一とした.ただし,これらのモデルにおけるサブサンプリング層の代わりに,サブワードのための埋め込み層を用いた.なお,e2e音声認識とSSTモデルは,4.2章で述べた疑似的書き起こしを用いた準教師つき学習(lightly-supervisedtraining)\cite{LAMEL:LSV}の枠組みにより構築した.すなわち,音声認識は音響特徴量を入力・疑似書き起こしをターゲットとして,またSSTモデルは疑似書き起こしを入力・会議録テキストをターゲットとして,それぞれ学習した.推論時は,すべてのTransformerモデルでビーム幅6のビームサーチを行った.一方,CTCモデルでは一般にビームサーチの効果が低いことから,文献\cite{GRAVES:CTC}のgreedysearchアルゴリズムを用いてデコーディングを行った.e2e音声認識およびダイレクトモデルの学習時は,適応的Specaugment\cite{PARK:ADAPTIVESPECAUG}による動的データ拡張を行った.マスク確率等はすべて文献\cite{PARK:ADAPTIVESPECAUG}の設定に従った.モデルはAdamオプティマイザー\cite{KINGMA:ADAM}を用いて最適化した.すべてのモデルで\cite{DONG:SPEECHTRANSFORMER}と同様の学習率のスケジューリングを行った.すなわち,ステップ数$n$における学習率$lrate(n)$を,\begin{equation}lrate(n)=k\cdotd_{model}^{-0.5}\cdot\min(n^{-0.5},n\cdotwarmup\_n^{-1.5})\end{equation}とし,特に$warmup\_n=25,000$,$k=4.0$とした.エンコーダマルチタスク学習(4.1.3章)において,音声認識サブタスクの重みは$\lambda=0.1$とした.また,先行研究の知見を踏まえて\cite{UENO:WORDATTENTION,SANABRIA:HIERARCHICALMTL},サブタスクのターゲットには,サブワードでなく,よりクラス数が少なくクラスあたりの学習事例数が多いと期待される文字の系列を用いた.異なり文字数は2,840であった.デコーダのマルチスタイル学習において,スタイル選択に用いるベルヌーイ分布のパラメータ$p$は0.5とした.すべてのモデルでサイズ120のミニバッチを用いた誤差逆伝播法に基づく学習を100エポック分行い,最終的なネットワークは,開発セットに対して最も低い誤り率を与えた10のチェックポイントを平均することで構築した.提案モデルの実用上の信頼度を評価するために,参考のため,現行の審議音声自動書き起こしシステムで運用実績のあるハイブリッド音声認識システムの性能とも比較を行う.ただし,ハイブリッドシステムでは大規模なテキストデータから構築した統計的言語モデルおよび発音辞書が利用できる大きな利点があるが,音響モデルが以下に述べるように単純なフィードフォワード型ニューラルネットワークにより構成されているため,認識性能面でTransformerを用いたe2eモデルと公平に比較できない点に留意する.このハイブリッドシステムにおいて,音響モデルは,9kクラスのtriphone状態(senone)を識別する7層フィードフォワードニューラルネットワークとHMMから構成するDNN-HMM\cite{HINTON:DNN-ASR}モデルを用いた.音響モデルはKaldiツールキット\cite{POVEY:KALDI}を用いて学習した.公平のため,この音響モデルの学習にはe2eモデルと同じ2015年度の700時間のみを用いた.言語モデルは2006年度から2015年度までの衆議院会議録テキストを用いて学習した書き言葉trigramモデルに話し言葉スタイル変換\cite{AKITA:LMTRANS}を適用することで構築した.デコードにはJuliusを用いた.Juliusのデコードでは,4.1.1章の疑似的な書き起こしの作成時と同様に,ショートポーズセグメンテーションアルゴリズム(ポーズ長のしきい値200ms)を用いて音声区分化と音声認識を同時に行った.4.1.1章で提案した疑似的な書き起こしの作成では,2003年度に行われた一部の会議(主に予算委員会)の書き起こし666K単語と対応する会議録のパラレルデータを用いて変換規則$P(W|V)$および$P(V|W)$を学習した.この変換モデルを会議録の各話者ターンの文のみから構築した書き言葉言語モデルに適用することで,制約付き音声認識に用いる話者ターンの内容および発話スタイルにともにマッチした強い言語モデルを構築した.一方,音響モデルには,4.1.1節と同様の手法で作成した2009年から2011年度の疑似書き起こしを用いて学習したGMM-HMMモデルを用いた.評価データの音声区分化は,5.4節の比較実験以外では,CTCに基づく自動区分化手法(4.2章)を用いて行った.学習データは,4.1.2章のアライメントの過程で得られたショートポーズベースの分割をそのまま用いたものと,5.4節で詳しく述べる句読点ベースの手法を用いたものの二通りを構築したが,5.4節の比較実験以外では,句読点ベースで分割したデータを用いた.推論時の実行時間の計測には,CPUはAMD-Epyc7262,GPUはNVidia-RTX-3090(24Gメモリ)を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースライン音声認識モデルの評価}提案法である書き言葉予測モデルの評価を行う前に,最初に,疑似書き起こしを用いた準教師付き学習により構築したベースラインe2e音声認識モデルの性能を評価する.ここで,通常の音声認識モデルとしての評価は,人手で作成した音声に忠実な書き起こしに対するシステム出力の誤り率を用いて行う.表\ref{tab:asr_results_faithful}に,忠実な書き起こしに対するCTCおよびTransformerに基づくe2e音声認識モデルの文字誤り率および推論時間の実時間ファクタを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{04table01.tex}\caption{音声認識モデルの\underline{忠実な書き起こし}に対する文字誤り率(\%)および処理時間の実時間ファクタ}\label{tab:asr_results_faithful}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%いずれのe2eモデルも,CTCで9.7\%,Transformerで9.1\%と低い誤り率を達成した.CPUの推論速度では,Transformerで実時間の0.09倍,CTCで実時間の0.009倍の高速な推論が可能であった.また,GPU上では推論はさらに高速となった.CTCとTransformerの比較では,速度では劣るものの,Transformerがやや低い誤り率を示した.さらに,4.1.4節で述べたデコーダのマルチスタイル学習を行うことで,誤り率が絶対値で0.9ポイントと大幅に改善した(``Transformer音声認識+デコーダマルチスタイル学習'').これは,準教師付き学習で用いたラベルに含まれる認識誤りの影響が,誤りを含まない会議録ターゲットを用いることで軽減したためである可能性がある.マルチスタイル学習はダイレクト書き言葉予測の改善を目的とした手法であるが,\verb|<spoken>|文頭タグを用いた音声認識モデルとしての性能も向上したことから,準教師付き学習の改善法としても有効であると考えられる.このことは,アプリケーションによってはなるべく忠実な書き起こしが必要になるため,重要な知見であると言える.参考のため,現行の書き起こしシステムで用いられているハイブリッドシステムの結果も示す.いずれのe2eモデルも,音声認識性能と推論速度の両面でこのハイブリッドシステムを上回っており,書き起こしシステムにおいて実用上問題のない性能を達成できていることがわかる.次に,これらの音声認識モデルの会議録テキストに対する文字誤り率を,表\ref{tab:asr_results_clean}に示す.ただし,音声認識モデルは句読点を一切出力することができないため,公平のため,この表では句読点は誤り率の算出から除外した.会議録に対する誤り率では,忠実な書き起こしに対する誤り率に比べて,いずれのモデルでも特に挿入誤りが顕著に増加した.ハイブリッドシステムでは,発音辞書中の語彙的なフィラーを除去することで,誤り率が絶対値で7.5ポイント改善した.この結果は,会議録における修正のほぼ半数がフィラーの除去であるという2章の分析と符合している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{04table02.tex}\hangcaption{音声認識モデルの\underline{会議録}に対する文字誤り率(\%)および処理時間の実時間ファクタ(句読点は除外した)}\label{tab:asr_results_clean}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%会議録に対する誤り率においても,Transformerに基づくseq2seqモデルがCTCより高い性能を示した.さらに,Transformerに基づくテキストベースSSTを後処理として用いることにより(カスケード方式の書き言葉予測),挿入誤りが大幅に削減された.テキストベースSSTによるこの改善幅がハイブリッドモデルにおける語彙的フィラーの除去より顕著に大きいことから,Transformerに基づく系列間変換により,単純なルールベースの手法より高度な編集操作が可能であることがわかる.このカスケード方式の書き言葉予測において,初段のe2e音声認識モデルとしてマルチスタイルモデルを用いることにより,さらに誤り率は改善し,全体で最も低い誤り率(9.7\%)を達成した.以上のように,準教師付き学習で構築したモデルが全般に高い水準の音声認識精度と書き言葉予測精度を達成したことから,4.1.1節の手法で十分信頼性のある書き起こしが作成可能であることがわかる.なお,学習データについては正解の書き起こしが存在しないため,評価データにおいて同一手法で疑似書き起こしを作成し,精度を評価したところ,人手書き起こしに対する誤り率は,置換誤りが1.5\%,脱落誤りが2.8\%,挿入誤りが2.6\%,計6.9\%となり,表1における一般的な言語モデルを用いたハイブリッドシステムの誤り率(10.7\%)よりはるかに高い精度となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{カスケードモデルとダイレクトモデルの比較}本節では,音声からの書き言葉予測において,カスケードモデルと提案法であるダイレクトモデルの比較を行う.システム出力の会議録に対する誤り率を表\ref{tab:e2e_results}に示す.これらのモデルは句読点を含めた書き言葉の予測を行うため,表\ref{tab:asr_results_clean}と異なり,句読点も誤り率の算出に用いた.カスケードモデルは,表\ref{tab:asr_results_clean}のTrasnformer音声認識とSSTの組み合わせの結果と同一である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{04table03.tex}\hangcaption{ダイレクト書き言葉生成モデルの評価(数値は会議録に対する文字誤り率(\%)および処理時間の実時間ファクタ)}\label{tab:e2e_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Transformerに基づくダイレクトモデル(``Transformerダイレクト'')は,初段の音声認識においてマルチスタイルモデルを用いた最良のカスケードモデル(``Transformerカスケード+デコーダマルチスタイル学習'')より,絶対値で1.4ポイント低い誤り率を実現した.また,このダイレクトモデルは,カスケードモデルの2倍の速度で書き言葉を出力できた.このことから,4章の冒頭に述べた性能と速度の両面におけるダイレクトモデルの優位性が確かめられた.一方,CTCに基づくダイレクトモデル(``CTCダイレクト'')は,書き言葉ターゲットだけでは100エポックまで学習が収束せず,意味のある結果を出力するに至らなかった.この結果から,音声認識に加えて多くの削除・置換・挿入操作を行う必要のある書き言葉予測タスクにおいて,Transformerに基づくseq2seqモデルがCTCに基づくモデルより適していることがわかる.また,このことは,表\ref{tab:asr_results_faithful}においてTransformerとCTCモデルが音声認識としてはほぼ同等の性能を示したことと対照的であり,書き言葉予測は通常の音声認識とは明確に異なる性質を持つタスクであることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似的書き起こしを用いた学習法の効果}次に,書き言葉のダイレクト予測において,疑似的書き起こしを用いた改善手法(4.1.3節,4.1.4節)の評価を行う.疑似書き起こしを用いたエンコーダのマルチタスク学習(4.1.3節)(表\ref{tab:e2e_results}の``Transformerダイレクト+エンコーダマルチタスク学習'')では,書き言葉のみを用いて学習したモデル(表\ref{tab:e2e_results}の``Transformerダイレクト'')に比べて,1.4ポイントと大幅に誤り率が改善した.また,CTCに基づくダイレクトモデルは,このマルチタスク学習を用いることで学習が収束し,9.8\%と妥当な性能を示すに至った.ただし,依然マルチタスク学習を用いないTransformerモデルの性能に及ばなかった.また,表\ref{tab:e2e_results}の``単方向型CTCダイレクト''および``単方向型CTCダイレクト+エンコーダマルチタスク学習''の行に,4.2章で提案した音声区分化手法に用いるオンラインCTCモデルの書き言葉予測性能を示す.表からわかるように,このオンラインモデルも,エンコーダのマルチタスク学習により初めて収束した.これらの結果から,音声に忠実なラベルを併用することが,書き言葉予測性能の改善において非常に重要な役割を果たすことがわかる.また,人手による正解ラベルでなく,統計的機械翻訳に基づいて自動生成されたラベルによりこれらの大幅な改善が得られたことは,特に重要な点である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{04table04.tex}\caption{マルチタスク学習におけるサブタスク・ターゲットの影響(数値は会議録に対する文字誤り率(\%))}\label{tab:comparison_mtl}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このマルチタスク学習におけるターゲットラベルの種類の影響を表\ref{tab:comparison_mtl}に示す.ターゲットとして疑似書き起こしを用いる提案法において,サブワードレベルのラベルを用いるより文字ラベルを用いる方が有意に性能が高かった.これは,クラスあたりの学習事例数が多いトークンを用いることで,マルチタスク学習の効率が改善されたためと考えられる.また,サブタスクのターゲットとして書き言葉を用いたとき,性能はむしろ大幅に低下した.このことは,CTCに基づくダイレクトモデルが書き言葉ターゲットのみでは収束しなかった結果と併せて,CTC損失関数が書き言葉のようなターゲットを扱うのに適さないことを示している.この結果から,ダイレクト書き言葉予測において,単にCTCによるマルチタスク学習\cite{KARITA:TRANSFORMERVSRNN}が有効なのではなく,音声に忠実なラベルを用いることが性能改善にとって本質的であったことがわかる.次に,デコーダのマルチスタイル学習(4.1.4節)の効果を評価する.デコーダのターゲットとして疑似書き起こしと書き言葉ターゲットを確率的に併用したマルチスタイル学習により,絶対値で1.4ポイントの改善が得られた(表3の``Transformerダイレクト+デコーダマルチスタイル学習'').さらに,エンコーダのマルチタスク学習とデコーダのマルチスタイル学習を同時に用いることで,誤り率はさらに0.4ポイント減少した(表3の``Transformerダイレクト+両方'').書き言葉予測におけるダイレクトモデルの振る舞いを理解するために,マルチスタイルモデルにおいて\verb|<spoken>|文頭タグを与えてe2e音声認識モデルとして動作したときと,\verb|<written>|タグを与えてダイレクト書き言葉予測モデルとして動作したときのデコーダ最上層のクロスアテンション重みの例を図\ref{fig:attention}に示す.右列のアテンション重みを見ると,100から200フレームあたり\footnote{図中のアテンション重みの横軸はサブサンプリング後のエンコーダステップであることに注意する.}までの「ですねまあ」,400フレームから520フレーム辺りまでの「この何て言うんですかね」の二つの非流暢な領域を適切にスキップしている様子がわかる.また,それらに囲まれた助詞「と」,および「担い手」を正しく出力した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{30-1ia4f6.pdf}\end{center}\hangcaption{マルチスタイルモデルの出力とデコーダ最上層のアテンション重みの例.左が$<$spoken$>$文頭タグで条件づけた忠実な音声認識出力.右が$<$written$>$文頭タグを用いた書き言葉出力.正解は,忠実な書き起こしが「青年や女性もですね担い手えーとこのなんていうんですかねこう重複する部分もあるわけですね当然のことながら」,会議録が「青年や女性も担い手と重複する部分もあるわけですね、当然のことながら。」}\label{fig:attention}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語モデル統合の効果}e2e音声認識では,大規模な言語資源を用いて構築したニューラル言語モデルを推論時に統合するshallowfusion\cite{GULCEHRE:SF,CHOROWSKI:LMINTEGRATION}などの外部言語モデル統合が広く精度改善のために用いられる.書き言葉のダイレクト生成においても,会議録テキストはペアデータよりはるかに容易に入手できるため,大規模な書き言葉言語モデルが構築可能である.本節では,2006年度から2015年度までの会議録テキスト(28M単語)を用いた外部言語モデルの効果を,カスケードモデルとダイレクトモデルにおいて評価する.統合手法にはshallowfusionを用いた.言語モデルは12層のTransformerを用いて実装した.ヘッド数{$h$},出力次元数{$d_{model}$},FFNの中間ノード数{$d_{ff}$}は,それぞれ{$h=4$},{$d_{model}=256$},{$d_{ff}=2,408$}とした.各デコーディングステップ{$l$}における統合スコアは,スタイル変換モデルあるいはダイレクトモデルの出力確率{$p_{am}$}と言語モデルの出力{$p_{lm}$},および言語重み{$\lambda$}を用いて,{$\logp(y_l|\mat{X},y_1,y_2,...,y_{l-1})+\lambda\logp_{lm}(y_l|y_1,y_2,...,y_{l-1})$}と計算した.カスケードモデルとダイレクトモデルに言語モデル統合を用いたときの会議録に対する誤り率を表\ref{tab:e2e_results}の``外部言語モデル統合''の行に示す.大規模言語モデルの統合は,カスケードモデルでは効果がなく,ダイレクトモデルでは挿入誤りが有意に増え,むしろ精度の低下をもたらした.書き言葉予測は音声に忠実でないラベルの出力も行うように学習されるが,外部言語モデルを用いることでより音声と無関係な不適切なラベルの挿入が促進された可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{句読点を考慮した音声区分化の効果}句読点を手がかりとした音声区分化手法(4.2章)を評価する.区分化の基準としては,連続ブランクとして検出されたポーズと句読点が共起したときに分割する手法(提案法),ポーズと文末シンボル(\verb|<eos>|)が共起したときに分割する手法,ポーズのみを用いる手法の3つを比較する.Algorithm\ref{algorithm:punc_based_vad}において,ポーズ検出に用いる連続blank数のしきい値($N_{blank}$)を変化させたときの開発セットに対する誤り率の推移を図\ref{fig:vad_comparison}に示す.マージン$T_{margin}$は各しきい値で別途調整した\footnote{$N_{blank}=5,10,15,20,25$に対して,それぞれ$T_{margin}=20,30,40,40,40$を用いた.ただし,$T_{margin}$の影響は全体に軽微であった.}.各データ点の近傍に各手法としきい値の組み合わせで生成されたセグメントの数を併せて示す.なお,書き言葉予測には,共通してエンコーダマルチタスク学習で構築したTransformerを用いて行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{30-1ia4f7.pdf}\end{center}\hangcaption{CTCに基づく区分化手法におけるポーズ検出のためのブランク数のしきい値の影響(数値は開発セットに対する書き言葉生成精度(\%).各データ点に生成されたセグメント数を付す.)}\label{fig:vad_comparison}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この結果から,句読点を手がかりに区分化を行う提案法が,ブランク数15程度まで安定して高い精度を与えることがわかる.ポーズのみに基づく手法は,提案法より全体に誤り率が高く,またしきい値依存性も高かった.提案法が最も低い誤り率を与えた設定($N_{blank}=10$)では,音声は1,228のセグメントに分割されたが,ポーズに基づく手法では,$N_{blank}=25$でこれと同程度のセグメント数となった.しかし,誤り率の比較では,後者は15.7\%と大幅に提案法(7.3\%)を上回った.セグメント長の標準偏差は,前者で4.95秒であったのに対して,後者で7.06秒となり,分割されたセグメント長に大きなばらつきがあった.また,文末シンボル\verb|<eos>|を用いた手法は,文や話者の境界とは無関係に,一貫して20から25秒程度の長いセグメントを生成する傾向があり,学習データ中にこれらの長さのセグメントがほとんど出現しないため,性能も低かった.次に,学習・評価データに対する区分化手法の組み合わせについて評価を行った.ポーズに基づく手法には,学習・評価データとも,Juliusのショートポーズセグメンテーションアルゴリズムを用いた.しきい値は音声認識で一般に用いられる200msとした.句読点に基づく手法としては,学習データでは,ショートポーズセグメンテーションで得られたセグメント境界時刻のうち,会議録とのアライメントで句読点に対応付けられた時刻でのみ,区分化を行った\footnote{評価時との整合性を考慮すると,学習データ自体もCTCで分割することでさらに性能が改善する可能性があるが,モデルの再学習のコストが大きいため今回はこのルールベースの区分化のみを評価した.}.評価データはCTCセグメンテーション手法により分割した.パラメータは,開発データを用いた図1の実験で得られた最適な値を用いた($N_{blank}=10$,$T_{margin}=30$).表\ref{tab:vad_combination}に,学習・評価時における区分化手法の4通りの組み合わせに対する評価データの誤り率を示す.学習・評価時のいずれも句読点を考慮することで,いずれもショートポーズで分割したときより絶対値で1.6ポイントと大きな改善が見られた.また,学習データをポーズ,評価データを句読点で区分化したとき,脱落誤りが顕著であった.ショートポーズセグメンテーションではごく短いセグメントの占める割合が高く,評価時に比較的長いセグメントを正しく認識できなかったためと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{04table05.tex}\hangcaption{学習・評価データに対する区分化手法の比較(数値は会議録テキストに対する文字誤り率(\%),括弧内は分割後のセグメント数)}\label{tab:vad_combination}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上から,ダイレクト書き言葉生成において,句読点検出に基づく区分化手法は,ショートポーズよりも一貫して高い性能を与えることがわかった.学習時と評価時の整合性の面でも,句読点という明確で音響環境等の条件に依存しない基準を用いることが重要であると考えられる.なお,表\ref{tab:e2e_results}(``単方向型CTCダイレクト+エンコーダマルチタスク学習'')に示すように,区分化に用いた単方向CTC自体の書き言葉予測の性能は,未来の情報が使えないため,Transformerに基づくその他のモデルに比べて高いとは言えず,特に脱落誤りが多かった.ただし,句読点の適合率のみに注目すると,句点が0.934,読点で0.811と高い水準であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誤りの分析}本節では,提案システムの出力においてどのような修正がどの程度の達成度で実現できたかを評価する.図\ref{fig:error_analysis}に,句読点以外の修正項目について,カスケードモデルおよびダイレクトモデルが正しく行った修正の数と,編集者が行った修正に対する再現率を示す.カスケードモデルにはマルチスタイルモデルとテキストベースSSTを組み合わせたモデル(表3の``Transformerカスケード+デコーダマルチスタイル学習'')を,ダイレクトモデルはエンコーダマルチタスク学習とデコーダマルチスタイル学習の両方を用いて構築したモデル(表3の``Transformerダイレクト+両方'')を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{30-1ia4f8.pdf}\end{center}\hangcaption{各修正項目においてカスケードモデルおよびダイレクトモデルが正しく行った修正の数と,編集者が行った修正に対する再現率}\label{fig:error_analysis}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%削除操作では,語彙的なフィラーと句末表現の削除は,いずれのモデルも高い再現率を示した.一方,言い直しにおける言い誤り箇所の削除では,カスケードモデルが52.4\%,ダイレクトモデルが79.9\%と,性能に大きな差が見られた.このことから,非流暢な言い誤り箇所(reparundum)の同定に音響的な情報が役に立つこと,その上で単語連接としてより自然な言い直し部分のみが保持されたことが示唆される.また,言い誤りでは認識誤りが多く,カスケードモデルでは後段のSSTでリカバーできなかった可能性が高い.``その他の削除''の項目では,どちらのモデルも相対的に性能が低かったが,文脈上不要な主語や指示語の削除など,高度な判断を必要とする例が多いためと考えられる.また,「やはり」など,間投詞以外の用例が多い単語の削除は失敗することが多かった.置換操作では,助詞の修正や言い誤りの修正は,非常に低い再現率となった.これらの修正は,出現頻度も低く,意味や常識に基づいた修正が必要であるため,seq2seqモデルのみでは原理的に行えない例も多かった.助詞の修正では,特に「が」から「は」への修正,「が」から「を」への修正において,実際の発音に忠実に認識される誤りが多かった.また,語順の入れ替えについても,ほとんどの例で正しく修正できなかった.音響的な情報を用いないカスケードモデルが,例えば「今審議がなされている」を「審議が今なされている」に,「大きな僕は矛盾だと思います」を「僕は大きな矛盾だと思います」になど,比較的単純な例で正しく修正できたことから,この項目ではカスケードモデルがダイレクトモデルより高い再現率となった.一方,口語表現の修正は,「いろんな」から「いろいろな」へ,「やつ」から「もの」へなど,定型的な言い換えに帰着できる例が多いため,どちらのモデルも非常に高い再現率となった.挿入操作では,助詞の挿入は妥当な水準で再現可能であった.カスケードモデルでは,助詞の脱落の前後で認識誤りが多く,ダイレクトモデルとの性能差が大きかった.以上のように,ほぼすべての修正項目において,ダイレクトモデルがカスケードモデルより有意に高い性能を示した.特に,言い誤りの削除や助詞の復元などの高度な修正で性能差が大きかった.全体として,ダイレクトモデルは編集者が行った編集作業のうち80.2\%を再現することができた.最後に,システム出力における句読点挿入の性能を評価する.表\ref{tab:punctuation}に,カスケードモデルとダイレクトモデルを用いた句読点挿入における再現率,適合率およびF値を示す.読点挿入の性能では,カスケードモデルとダイレクトモデルの性能差は見られなかった.句点挿入では,ダイレクトモデルが有意に高い性能を示した.これは句点の方がよりポーズとの相関が高いため,音響的な情報が特に有効であったためと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{04table06.tex}\caption{句読点挿入の性能}\label{tab:punctuation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:outputs}に,人手による書き起こし,会議録,マルチスタイルモデルによる音声認識結果,カスケードモデルおよびダイレクトモデルの出力の例を示す.この例から,音声認識結果は非常に高い精度であっても文として読みにくく,提案手法により可読性が改善されることが確認できる.また,ダイレクトモデルでは,「これは」における助詞の復元や,「反映されることが」の箇所で言い誤りのみ削除されるなど,高度な修正が正しく行われていることがわかる.一方,冒頭の「やはり」の削除に失敗するなど,課題も見える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{30-1ia4f9.pdf}\end{center}\caption{書き起こし,会議録,システム出力の例}\label{fig:outputs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本研究では,音声から読みやすい書き言葉スタイルの生成を行うタスクにおいて,音声認識とテキストベースのスタイル変換を組み合わせたカスケード方式の問題を解決するために,e2e音声翻訳の枠組みを用いて,音声から書き言葉を直接生成する新しいアプローチを提案した.700時間の大規模な衆議院審議音声を用いた評価実験により,提案法であるダイレクトモデルはカスケード方式より高い精度で会議録文書を再現できることを示し,書き言葉の生成において音響情報を用いること,初段の音声認識における誤りを回避することの意義を明らかにした.また,非自己回帰型のCTCモデルは音声認識ではTransformerと同等の性能を持つ一方,書き言葉のダイレクト予測タスクでは学習が収束せず,意味のある文を出力するに至らないことを実験的に示し,書き言葉予測は音声認識とは明確に異なる難しさのタスクであり,Transformerに基づく柔軟なseq2seq変換を用いることが必須であることを明らかにした.さらに,学習データの書き言葉(会議録)から自動で近似的な書き起こしを生成する手法と,これを用いてダイレクトモデルの学習を補助する2つの手法を提案し,実験によりTransformerに基づくダイレクトモデルの性能をさらに向上できることを示した.会議のような話し言葉コミュニケーションでは,音声検索などのタスクのように明確な発話終端の情報が利用できないことから,書き言葉の句読点情報を用いた新しい音声区分化手法も併せて提案し,ショートポーズに基づく区分化と比較することで有効性を示した.これらの提案手法による予測結果を編集者が行った修正と比較することにより,提案モデルは編集者による修正の80\%以上を再現できること,特に助詞の復元や言い誤りの除去などの編集においてカスケード方式より大幅に高い性能が得られることを示した.一方,いくつかの修正項目では低い再現率となったため,これらの改善が課題といえる.意味や常識に基づいて行われる助詞の修正や復元などは,学習事例数を増やすことや,大規模言語モデルに基づくタギング\cite{MALMI:TEXTEDITING}などの事後的な編集で改善できる可能性がある.欧州議会\cite{GARCES:EUROPARL}やアイスランド議会\cite{STEINGRIMSSON:IGCPARL}など,他言語の議会音声コーパスを用いて提案手法の一般性を評価することも重要な課題である.また,講義やプレゼンテーション\cite{MAE:CSJ}など,自動整形の潜在的な需要のあるタスクは多いが,これらのデータでは通常大規模かつ信頼度の高い書き言葉のアノテーションは利用できないため,国会会議録を用いて学習したダイレクト整形文予測モデルのドメイン適応や転移学習も今後検討すべき方向性の一つである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{三村正人}{%2000年京都大学大学院情報学研究科修士課程修了.2022年同博士課程修了.現在,京都大学情報学研究科特定研究員.IEEE,日本音響学会各会員.}\bioauthor{河原達也}{%1987年京都大学工学部情報工学科卒業.1989年同大学修士課程終了.京都大学工学部助手,同助教授,学術メディアセンター教授を経て,現在,情報学研究科教授.音声情報処理,特に音声認識及び対話システムに関する研究に従事.博士(工学).IEEEFellow,ISCA,APSIPA各理事.情報処理学会,日本音響学会,電子情報通信学会,人工知能学会,言語処理学会各会員.日本学術会議連携会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V09N04-03
\section{はじめに} \label{sec:intro}近年テキスト情報が膨大になり,真に必要とする情報を的確に選択することが量的にも,質的にも困難になっている.また,携帯端末の普及に伴い情報をよりコンパクトにまとめる技術が必要とされている.これらのことから,文章を自動要約する技術の重要性が高まっている.これまで様々な要約研究が行なわれてきたが\cite{Okumura99},原文から重要と判断される文,段落等を抜き出し,それを要約と見なす手法が主流である.これには,単語出現頻度を元にした重要度によって重要文を抽出する手法\cite{Edmundson69,Luhn58,Zechner96},談話構造を利用して文を抽出する方法\cite{Marcu97},などがあるが,文単位の抽出方法では余分な修飾語など不必要な情報が多く含まれるため,圧縮率に限界がある.また文を羅列した場合には,前後のつながりが悪いなど可読性に問題があった.そこで近年では,文単位だけでなく語句単位で重要箇所を抽出する研究\cite{Hovy97,Oka2000},語句単位の抽出を文法的に行なう研究\cite{Knight2000,Jin2000},可読性を高めるための研究\cite{Mani99,Nanba2000}が行なわれるようになってきた.中には,原文に現れる幾つかの概念を上位概念に置き換えるようなabstractの手法も見られる\cite{Hovy97}.しかし,重要語句を列挙するだけでは文を形成しないため,可読性が低くなるという問題点がある.また,文を形成する場合でも,人に近い言い替えや概念の統合を行なうには膨大な知識が必要となる.本研究では,文単位ではなく語句単位の抽出を行ない,本文から必要最低限の重要語句を抽出し,それらを用いて文生成を行なう要約手法を提案する.提案手法は,必要最低限の語句を抽出することで圧縮率を高めるとともに,抽出した語句から文を形成することで可読性を考慮した.また,重要語句を抽出して文を形成するためには少なくとも主語,述語,目的語が必要であると考え,格要素を特定することで重要語句を抽出した.これによって,端的な要約文を生成するために必要最低限の情報を得ることが可能となった.また,現在利用可能な知識で文を生成するために,この格要素の抽出には,日英機械翻訳システムALT-J/E\cite{Ikehara91}の格フレーム辞書\cite{Goi-Taikei99}を用いた.本論文で提案する要約モデルは以下の2点によって構成される:\vspace{1mm}\begin{quote}\begin{itemize}\item語句抽出\item文生成\end{itemize}\end{quote}\vspace{1mm}このうち,語句抽出には以下の2つの方法があると考える:\vspace{1mm}\begin{quote}\begin{itemize}\item[A)]キーワードに着目する方法\vspace{1mm}\item[B)]文生成に必要な語句に着目する方法\end{itemize}\end{quote}\vspace{1mm}キーワードA)は,内容の特徴を表す単語であり,高頻度語など,従来のキーワード抽出等で抽出されてきた単語列である.しかし,単語列を提示しただけでは文を形成しないため可読性が低く,誤読を起こしかねない.一方,文生成に必要な単語B)とは,A)に加えて,文を構成するために必要な機能語や,高頻度語に含まれない内容語も含まれている.本論文では,要約結果は単語列ではなく文を形成していることを基本方針とするため,B)の語句抽出に着目して要約文を生成する.以上の方針を元に,本研究では,新聞記事を自動要約するシステムALTLINEを試作した.ALTLINEは一文〜複数文の要約を生成することができ,文単位ではなく重要語句を抽出することによって圧縮率を高くすることが可能になった.また,ALTLINEの評価基準を設定し,人間による要約実験の結果と比較することで評価を行なった.本論文では,2章で提案する要約方式,3章で要約システムの実装について述べる.4章では評価の正解基準を作成するための被験者実験について説明し,5章ではALTLINEの評価を行なう.6章で考察を行ない,7章でまとめを行なう. \section{要約方式} \label{sec:Summarizationmethod}本章では,提案手法の要約方式について述べる.図\ref{fig:flow1}は要約手順を表す.\begin{figure}[!htbp]\begin{center}\epsfile{file=summarization-flow3.eps,scale=0.4}\caption{要約手順(1)}\label{fig:flow1}\end{center}\end{figure}最初に,各文に重要度を得点付ける.次に,各文について主動詞を特定し,主動詞の格フレーム情報と,抽出ルールを用いて重要語句を抜き出す.次に,抜き出した重要語句を再構成し要約文を生成する.最後に,各文毎に生成された要約文の中から,ユーザーが求める要約率に応じた数の要約文を出力する.\subsection{文の重要度}原文の形態素解析,構文解析を行なった後,文の位置,手がかり語,文の長さによって得点付けをし,その重要度によって重要文を選択する.\vspace{1mm}{\bf1)文の位置}\\事前調査として,日本経済新聞において重要語が含まれる文の出現位置を調査し分析を行なった.重要語の判定を客観的に行なうため,同社が出している英文要約記事のヘッドラインに着目し,これに含まれる英単語に対応する日本語単語を含む文の出現位置を調べた.この結果は,第1段落第1文目だけでよいもの:72\%,第1段落第2文目以降も必要なもの:24\%,第2段落目も必要なもの:2.4\%,見出しが必要なもの:1.3\%であった.このことから,先頭位置に近い文ほど重要度が高いと判断し,上位置文に重要度を加点する.\vspace{1mm}{\bf2)手がかり語}\\以下の手がかり語が含まれる文に重要度を加点する.\\・``[代名詞]によると'',``[名詞]によると'',``[代名詞]の結果''.\\・``〜A計画を発表した。A計画では〜''のように連続した文に単語の対応がある場合,後文に加点する.\\・{提出する/発表する/公表する/まとめる/報告する/議論する}の場合,次の文に加点する.\footnote{これらの語が出現する場合,``XはA白書をまとめた。'',``XはA調査結果を発表した。''のように,自身は導入文になり実内容を後続文で説明する場合がある.記事例「クリントン米大統領は、1999会計年度の予算教書を議会に\underline{提出した}。順調な経済成長や制度改革による歳出削減などで、財政収支は99会計年度に30年ぶりの黒字転換するとの見通しを示した。」}\\・文の引用としてではなく語句を強調するために使われる括弧「」を含む文に加点する.\vspace{1mm}{\bf3)文の長さ}\\前述の事前調査において,上位置にあっても文節数が短い文は導入文である傾向があり,重要語句が含まれない(重要文にはならない)ことが分かった.このことから,上位置にあっても文節数が少ない文は重要度を減点する.\\以上のルールによって各文の重要度を計算する.\subsection{主動詞の特定}重要要素を選出するために,まず,主動詞を特定する.通常,一文の中には複数の動詞が含まれ複文も多く存在するが,ここでは原文の中で最も重要な意味をもつ動詞を選定する.日本語の新聞記事によく見られる表現として,以下のようなものがある.\vspace{3mm}「Sは〜Vする(した)ことを\underline{明らかにした}。」「Sは〜Vする(した)と\underline{発表した}。」\vspace{3mm}\\表層的に見た場合,下線部が述語の動詞となるが,文の意味を考えると主内容は「Sが〜Vする」ことである.この場合,文の意味を考えた実質的に意味のある動詞,つまり要約として残したい主動詞は「Vする(した)」の部分である.しかし,多くの日本語新聞記事の場合,このような直接的な表現は行なわず,「〜することを決定した/発表した/明らかにした」という間接的な表現が用いられる.このような場合に骨格文を得るためには主内容を表す動詞を特定する必要がある.本論文では,このような最も重要な意味を持つ動詞を``主動詞''と定義する.また,この場合の「明らかにした/発表した」のように,主動詞にならない述語動詞を広義の意味で``様相表現的動詞''と定義する.様相表現的動詞を判断して主動詞を得るルールには,以下のようなものがあり,現在47ルールで構成されている.これらの様相表現的動詞ルールから主動詞を特定する.\begin{table}[hb]\begin{center}\begin{tabular}{p{119mm}}\hline{\bf様相表現的動詞の着目語:}\\発表する/明らかになる/乗り出す/分かる/決める/見通し/\\方針だ/方針を固める/可能性が出る/模様だ/考える/示す/\\合意する/考えを示す/着手する/鮮明になる/\\する方向で検討を始める/表明する/\\\hlineルール例\end{tabular}\begin{tabular}[hb]{p{75mm}|p{40mm}}\hline{\bf発表した:}&\\〜[V{する/した}]見通しに{なった/だ}と発表した。&〜Vする。\\〜[V{する/した}]ことで合意した{、}と発表した。&〜Vする(した)。\\〜[V終止]{と/ことを}発表した。&〜Vする。\\〜[V連用]{た/ている}{事/実態/全容/こと}を発表した。&〜[V連用]{た/ている}。\\\hline{\bf明らか:}&\\〜[V連用]{た/ている}{事/実態/全容/こと}{が/を}明らかに{した/なった}。&〜[V連用]{た/ている}。\\〜[V{する/した}]{事/実態/全容/こと}{が/を/と}{φ/、}[数字]日{φ/、}明らかに{した/なった}。&〜Vした。\\〜[V連用]{た10/ている}{事/事態/全容/こと}{が/を/と}{φ/、}[数字]日{φ/、}[?]の{話し/話/はなし}で明らかになった。&〜[V連用]{た/ている}。\\〜{が/を/と}明らかに{した/なった}。&〜{した/なった}。\\\hline{\bf乗り出す:}&\\〜の[用言名詞サ変他動詞]に乗り出す。(例:〜の生産に乗り出す。→〜を生産する。)&〜を[用言名詞]する。\\〜の[用言名詞サ変自動詞]に乗り出す。(例:〜の普及に乗り出す。→〜を普及させる。)&〜を[用言名詞]させる。\\〜[固有名詞]での[用言名詞サ変他動詞]に乗り出す。(例:中国での〜販売に乗り出す→中国で〜販売する。)&〜[固有名詞]で[用言名詞]する。\\\hline\end{tabular}\end{center}\end{table}\clearpage\subsection{重要語句の抽出}重要語句として,主動詞の格フレーム情報をもとに,主動詞の格要素を抽出する.前述の事前調査において,一文を生成するために必要な情報について調査,分析を行なった.その結果,一文を生成するために必要な情報は主動詞の必須格であることであり,その他の修飾要素の必要性が低いことが分かった.そこで本手法では,主動詞の主語,目的語を抽出し,その修飾語句を削除することを基本的な方針とした.また,この格要素を得るために,NTTの格フレーム辞書を採用した.この格フレーム辞書には,動詞とその必須格の制限ルールが大規模な(2700ノード)カテゴリーによって記述されているため,制約条件を満たすかどうかで動詞の必須格かどうかを判断することが可能である.その他の修飾語句は語句抽出ルールによって抽出する.\\\begin{indention}{4mm}\noindent1)主語を得る.\\1-1)主動詞にかかる主語候補が1つの場合:その主語候補を取る.\\1-2)主動詞にかかる主語候補が複数ある場合:文頭に近い主語候補を取る.\\1-3)主動詞にかかる主語候補が無い場合:主動詞にかかるハ格,ガ格を取る.\\1-4)上記以外の場合:主動詞にかからないハ格,ガ格を取る.\\\noindent2)目的語を得る.\\2-1)主動詞にかかる目的語候補がある場合:その目的語を取る.\\2-2)上記以外の場合:主動詞に格関係でかかる文節たちの中でヲ格のもので文頭に近いものを取る.\\\noindent3)補語を得る.\\3-1)主動詞にかかる補語候補がある場合:その補語を取る.\\\noindent4)1〜3)それぞれの修飾語句を得る.\\4-1)必須格自立部が「会社」の場合:修飾文節を全て採用する.\\4-2)必須格が具体名詞の場合:修飾文節のカテゴリが地域名/企業名/数詞/時詞/「場」/「組織」ならば採用する.\\4-3)必須格が抽象名詞の場合:修飾文節が具体名詞になるまで係り元を遡り採用する.\\\end{indention}以上のルールによって語句抽出を行ない,抽出された語句を用いて一文を生成する. \section{要約システムの実装} 前節で説明した手法を元に,新聞記事を自動要約するシステムALTLINEを試作した.ALTLINEは一文〜複数文の要約を生成することができ,必要最低限の重要語句を抽出することによって短い要約文を生成することができる.本システムは入力された文章の各文に対して要約文を生成し,各要約文の重要度に基づき順位付けを行なう.その後,要約率に応じて順位の高い要約文を要約結果として出力する(図\ref{fig:flow2}).本論文では,一文を要約結果として出力する場合について説明する.\begin{figure}[!htbp]\begin{center}\epsfile{file=summarization-flow4.eps,scale=0.5}\caption{要約手順(2)}\label{fig:flow2}\end{center}\end{figure}\vspace{-20pt}図\ref{fig:Originalarticles}の文章を入力すると,ALTLINEは図\ref{fig:Systemgeneratedsummary}の要約文を生成し,その後,最も重要度の高い文を要約結果として出力する.原文の中で下線のある語句は要約に使用された部分であり,四角付きの語句は格要素を表している.また,要約文の後に付けられた数字は文の重要度を表す.\begin{figure}[htb]\begin{center}\begin{tabular}{cp{11cm}}\hline1:&\fbox{郵政省は}9日、2000年末にBS(放送衛星)デジタル放送とともに始まる\underline{BSデータ放送に}\underline{NTTグループの}\fbox{\underline{参入を}}\fbox{\underline{認める}}方針を決めた。\\2:&BSデータ放送会社への3分の1未満の資本参加をNTTグループ会社に認め、NTTドコモなどが30%出資する\fbox{\underline{新会社を}}\underline{放送事業者に}\fbox{\underline{認定する}}。\\\hline\end{tabular}\caption{原文(新聞記事)}\label{fig:Originalarticles}\end{center}\end{figure}\vspace{-10mm}\begin{figure}[htb]\begin{center}\begin{tabular}{cp{11cm}}\hline1:&郵政省はBSデータ放送にNTTグループの参入を認める。(20)\\2:&新会社を放送事業者に認定する。(10)\\\hline\end{tabular}\caption{システムが生成した要約文}\label{fig:Systemgeneratedsummary}\end{center}\end{figure}図\ref{fig:Originalarticles}の例では,まず,システムは各文に対し重要度を計算して得点をつける.次に主動詞を特定する.「Sは〜を認めることを決めた」の「決めた」は様相的表現的動詞であるので,「認める」が主動詞に特定される.次に,「認める」の格フレームを用いて抽出する語句を特定する.「認める」の格フレームは図\ref{fig:Case-frame}のようである.\begin{figure}[!htbp]\begin{center}\begin{tabular}{c}\hline{\tt[subject]}が/{\tt[action]}を/認める\\\hline\end{tabular}\vspace{2mm}\caption{「認める」の格フレーム情報}\label{fig:Case-frame}\end{center}\end{figure}「認める」の格要素は``{\tt[subject]が}''と``{\tt[action]を}''であるが,文中では「郵政省は」と「参入を」がそれぞれ主動詞に格関係でかかり,制約条件にも相当するため,重要語句として抽出される.その他の語句は,構文情報と単語抽出ルールによって抽出される.「BSデジタル放送に」は主動詞に格関係でかかる要素であるため取得され,「NTTグループ」は「参入」が抽象名詞のため,その修飾語句として得られる.最後に,抽出されたこれらの語句で一文を生成する(図\ref{fig:Systemgeneratedsummary}). \section{被験者を用いた要約実験} \label{sec:Human-writtensummary}本章では,提案手法の語句抽出について評価を行なう方法を説明する.従来の要約結果の評価方法として,要約結果だけで原文の内容が理解できるかどうかを評価する読解評価方法や,要約文の文としての整合性を評価する文生成評価方法がある.しかし,人間は単語の羅列からでも文章の内容を推測することができるため,読解評価では抽出語句が文形成に適切であるかを評価することができない.一方,文生成評価では生成文の文法的正しさに着目するため,要約文生成における重要語句の抽出精度を評価することができない.これまで述べたように,本手法は原文の単語のみを用いて要約文を作成している.そこで語句抽出の評価を行なう際,公平に評価を行なうために被験者を本手法の語句抽出と同条件下に置き,要約を作成する実験を行った.そして,被験者が作成した要約文から平均的な単語集合を作成した.この単語集合から抽出語句の正解集合を定義し,使用単語を比較することによって提案手法の性能を評価する.(評価結果は節\ref{sec:humanvsALTLINE}).以上の理由から,評価基準を作成するため,人間の要約を収集するための被験者実験を行なった.この節では,被験者要約実験の手法,実験条件,結果について述べ,次節でALTLINEとの比較について述べる.\subsection{実験条件}この実験では,原文に出現する語句だけを用いて一文の要約文を作成することを制約とした.被験者は13名で,20代から30代までの男女,新聞を読み慣れていることを期待し社会人とした.これ以降,この13名の被験者を$S_{i}(i=1,\ldots,13)$と表記する.実験を行なう際に(機械を意識した回答を作らせないために)被験者に機械要約の正解を作る目的は告げなかったが,機械要約のための参考にすることは告げた.また,この実験には正解や理想解がないことを説明した.実験に使用した文章は100記事で,要約作業は各記事に対して行なう.1記事の要約作業につき10〜20分で作業を終えるよう指示し,記事の作業順序は被験者に委ねた.被験者には,節\ref{sec:Newspaperarticles}に示す問題用新聞記事と,節\ref{sec:wordlist}に示す回答用単語リストを提示し,回答用単語リストの単語のみを使って要約文を作成するように指示した.\subsection{実験データ}\subsubsection{問題用新聞記事}\label{sec:Newspaperarticles}実験に使用する原文は,毎日新聞1998年版CD-ROMの新聞記事の一面から,ランダムに100記事を選んだ(図表の説明がある記事は除いた).また,見出しは除き,段落が分からないよう一文ずつに改行した(付録\ref{app:article}).選ばれた100記事は,平均9.64文からなり,最小で4文,最長で19文から成る.文節では,最少で49文節,最多で244文節,平均119.34文節である.\subsubsection{単語リスト}\label{sec:wordlist}以下のように単語リストを作成した.原文に対し,日英機械翻訳器ALT-J/Eの形態素解析部ALTJAWSを用いて形態素解析,文節区切りをしたあと,解析誤りを人手で修正し,助詞,助動詞に括弧をつけ,文節毎に番号をふった(付録\ref{app:list}).\subsection{課題について}\label{sec:task}元記事の要約を作るために必要な単語を,単語リストの中から選び,単語リストにある単語のみを用いて一文の要約文を作ってもらった.その際の教示は以下のようである.\begin{itemize}\itemこの記事が最も伝えたいことを1文(最小の要約文)に要約にする.\item「最小の要約文」を作るために必要な単語を選ぶ.\item単語は,単語リストの中から選ぶ.\item単語を選ぶ際,元記事に出現する位置や順序を考慮する必要はない.\item()内の助詞・助動詞は,適当に削除,補完,活用して構わない\end{itemize}\subsection{実験結果}\label{sec:Experimentalresults}図\ref{figure:Human-writtensummary}は,付録\ref{app:article}に示す記事の要約結果の例である.括弧付きの数字は,単語リストの単語番号を表している.単語リストは,多くの同義語を含んでいるため,実験後,同じ表現は一つの単語に単一化した.(例:大田昌秀知事,大田知事,大田昌秀沖縄県知事→大田昌秀知事に統一する).\begin{figure}[!htbp]\begin{center}\begin{tabular}{cp{90mm}}\hline$S_{1}$:&\tiny{(2)}\normalsize{大田昌秀知事は、/}\tiny{(6)}\normalsize{米軍海上ヘリポート建設問題に/}\tiny{(14)}\normalsize{反対を/}\tiny{(15)}\normalsize{明言した。}\\$S_{4}$:&\tiny{(1)}\normalsize{沖縄県の/}\tiny{(2)}\normalsize{大田昌秀知事は/}\tiny{(6)}\normalsize{米軍海上ヘリポート建設問題について/}\tiny{(26)}\normalsize{代替案を/}\tiny{(123)}\normalsize{検討している。}\\$S_{9}$:&\tiny{(1)}\normalsize{沖縄県/}\tiny{(2)}\normalsize{大田知事は/}\tiny{(4)}\normalsize{名護市沖/}\tiny{(6)}\normalsize{米軍海上ヘリポート建設問題/}\tiny{(14)}\normalsize{反対を/}\tiny{(17)}\normalsize{橋本首相に/}\tiny{(12)}\normalsize{述べ、/}\tiny{(26)}\normalsize{代替案を/}\tiny{(30)}\normalsize{提言した。}\\\hline\end{tabular}\caption{被験者による要約文}\label{figure:Human-writtensummary}\end{center}\end{figure}被験者の要約文に使用した文節数は100記事の平均で5.49文節,最少で4.17文節,最多で7.6文節であった. \section{被験者結果を用いたALTLINEの評価} \label{sec:humanvsALTLINE}この章では,被験者実験の結果とALTLINEの要約結果を比較し,考察する.本論文では,正解集合は人手要約の平均であると定義する.\subsection{ALTLINEによる要約}\label{sec:ALTLINE'ssummarization}被験者実験に使用したものと同じ新聞記事(\ref{sec:Newspaperarticles}節)をALTLINEに入力し,要約文を自動生成した.例えば,付録\ref{app:article},\ref{app:list}の記事の場合,ALTLINEの要約結果は以下のようになる.\vspace{3mm}\begin{center}\begin{tabular}{c}\hline\tiny{(1)}\normalsize{沖縄県の/}\tiny{(2)}\normalsize{大田昌秀知事は/}\tiny{(14)}\normalsize{反対を/}\tiny{(15)}\normalsize{明言した。}\\\hline\end{tabular}\end{center}\vspace{3mm}本論文では,これ以降ALTLINEを$S_{0}$と呼び,表中では$A$と表記する(表1,2,3).100要約中,被験者$S_{i}(i=1,\ldots,13)$の平均は5.49文節,ALTLINEの平均使用文節数は3.62文節であった.また,ALTLINEを含めた$S_{i}(i=0,\ldots,13)$での平均使用文節数は5.35文節であった.これらを比較するとALTLINEの使用文節数は被験者よりかなり小さいことが分かる.\subsection{評価基準の設定}\label{Evaluationcriteriondesign}人手要約とALTLINEの結果を元に,評価基準を設定した.記事$k(k=1,\ldots,100)$,被験者$S_{i}(i=0,\ldots,13)$,記事$k$の総文節数$J_{k}$,記事$k$における各文節$j(j=1,\ldots,J_{k})$とするとき,記事$k$における被験者$S_{i}$の回答使用文節を$B_{kji}$で表し,次のような値を与える.\[B_{kji}=\left\{\begin{array}{ll}1&(回答に使用した文節)\\0&(回答に使用しなかった文節)\\\end{array}\right.\]記事$k$における被験者$S_{i}$の回答使用文節数は\[W_{ki}=\sum_{j=1}^{J_{k}}{B_{kji}}\]で表すことができる.このとき,$記事k$の第$j$文節の重要度$SCORE_{kj}$を以下のように定義する.\[SCORE_{kj}=\sum_{i=0}^{13}{\frac{B_{kji}}{W_{ki}}}\]ある閾値$TH_{k}$を決めたとき,$SCORE_{kj}>TH_{k}$を満たす文節$j$の集合を,その記事$k$における正解集合$ASET_{k}$とする.\[ASET_{k}=\{j\midSCORE_{kj}>TH_{k}\}\]なお,閾値$TH_{k}$は,正解集合に含まれる平均文節数と被験者の平均使用文節数が近似する値に設定する.つまり,$x$の個数を$num(x)$で表した時,以下を満たす.\[num(ASET_{k})=\sum_{i=0}^{13}{\frac{W_{ki}}{13}}\]\subsection{評価結果}\subsubsection{全体での評価}本節では,それぞれの$被験者S_{i}$とALTLINEについて,再現率,適合率,F値の結果を示す.5.2節での正解集合の定義から,本論文では正解集合は被験者の回答の平均を意味しており,F値等の数値が高いほど被験者の平均的な回答に近いことを意味する.\[再現率R=\frac{被験者S_{i}の回答\cap正解集合}{正解集合}\]\[適合率P=\frac{被験者S_{i}の回答\cap正解集合}{被験者S_{i}の回答}\]\[F値=\frac{2RP}{R+P}\]表1は$S_{i}~(i=0,\ldots,13)$の結果,元記事の全体から文節をランダムに抽出した結果($B_{r}$),元記事の第1文目から文節をランダムに抽出した結果($B_{l}$),元記事からidfによる高順位語をもつ文節を抽出した結果($B_{i}$)を示している.それぞれ抽出した文節数は,各記事の正解集合$ASET_{k}$の文節数と同じである.100記事についての結果を以下の表に示す(表1).\begin{table}[!htbp]\begin{center}\label{table:F-measure1}\caption{再現率,適合率,F値の平均(1)}\vspace{2mm}\begin{tabular}{c|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l}\hline順位&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}&\multicolumn{2}{c|}{F値}&\multicolumn{2}{c}{文節数}\\\hline1&$S_{13}$&0.867&$S_{7}$&0.779&$S_{13}$&0.717&$S_{11}$&7.53\\2&$S_{11}$&0.801&$\bf{A}$&0.777&$S_{7}$&0.704&$S_{13}$&7.39\\3&$S_{5}$&0.760&$S_{1}$&0.718&$S_{12}$&0.692&$S_{4}$&6.66\\4&$S_{4}$&0.698&$S_{12}$&0.715&$S_{5}$&0.676&$S_{5}$&6.57\\5&$S_{12}$&0.697&$S_{13}$&0.637&$S_{11}$&0.660&$S_{9}$&6.25\\6&$S_{7}$&0.668&$S_{5}$&0.635&$S_{1}$&0.648&$S_{3}$&5.87\\7&$S_{8}$&0.626&$S_{2}$&0.635&$\bf{A}$&0.622&$S_{8}$&5.40\\8&$S_{9}$&0.617&$S_{8}$&0.618&$S_{8}$&0.609&$S_{12}$&5.23\\9&$S_{1}$&0.615&$S_{6}$&0.591&$S_{4}$&0.606&$S_{10}$&4.70\\10&$S_{3}$&0.566&$S_{11}$&0.587&$S_{2}$&0.570&$S_{7}$&4.51\\11&$\bf{A}$&0.544&$S_{10}$&0.565&$S_{9}$&0.557&$S_{2}$&4.45\\12&$S_{2}$&0.538&$S_{4}$&0.565&$S_{3}$&0.526&$S_{1}$&4.44\\13&$S_{10}$&0.515&$S_{9}$&0.531&$S_{10}$&0.525&$S_{6}$&4.16\\14&$S_{6}$&0.479&$S_{3}$&0.510&$S_{6}$&0.515&$\bf{A}$&3.60\\\hline{\footnotesize平均}&&0.642&&0.633&&0.616&&5.48\\\hline15&$B_{l}$&0.366&$B_{l}$&0.364&$B_{l}$&0.364&$B_{l}$&5.18\\16&$B_{i}$&0.141&$B_{i}$&0.124&$B_{i}$&0.131&$B_{i}$&5.18\\17&$B_{r}$&0.050&$B_{r}$&0.050&$B_{r}$&0.050&$B_{r}$&5.18\\\hline\end{tabular}\end{center}\end{table}表から分かるようにALTLINEはF値で7位,再現率で11位,適合率で2位であった.3種類のベースライン($B_{l},B_{i},B_{r}$)と比較してALTLINEの順位が被験者の平均に近いことから,人間に匹敵する結果が得られたと言える.しかし,表1において,ALTLINEの出力文節数(3.60文節)はいずれの被験者の出力数よりも小さい値となっている.これは,6章で述べる失敗原因が重複して発生すると出力が極端に少なくなる(出力数が1,2など)場合があり,その悪影響によって全体の平均が低下することが原因である.そこで,ALTLINEの出力数が被験者と同程度の場合を評価するため,100記事の中からALTLINEの出力が4文節以上の記事(45記事),5文節以上(19記事),6文節以上(9記事)の場合に対し,同様の評価を行なったところ次の結果を得た.\\ALTLINEの出力が4文節以上の場合(A:4.26文節,全体平均:5.16文節),再現率8位,適合率3位,F値7位.\\ALTLINEの出力が5文節以上の場合(A:5.57文節,全体平均:5.73文節),再現率6位,適合率5位,F値7位.(表2に詳細を示す)\\ALTLINEの出力が6文節以上の場合(A:6.22文節,全体平均:6.03文節),再現率6位,適合率4位,F値5位.\begin{table}[!htbp]\begin{center}\caption{ALTLINEの出力が5文節以上の記事(19記事)の平均}\vspace{2mm}\begin{tabular}{c|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l}\hline順位&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}&\multicolumn{2}{c|}{F値}&\multicolumn{2}{c}{文節数}\\\hline1&$S_{13}$&0.845&$S_{1}$&0.802&$S_{13}$&0.711&$S_{13}$&7.78\\2&$S_{11}$&0.802&$S_{7}$&0.779&$S_{1}$&0.708&$S_{11}$&7.73\\3&$S_{5}$&0.745&$S_{12}$&0.727&$S_{12}$&0.689&$S_{5}$&7.05\\4&$S_{12}$&0.676&$S_{8}$&0.679&$S_{11}$&0.686&$S_{4}$&6.94\\5&$S_{1}$&0.656&$\bf{A}$&0.661&$S_{7}$&0.683&$S_{3}$&5.94\\6&$\bf{A}$&0.655&$S_{9}$&0.646&$S_{5}$&0.656&$S_{9}$&5.94\\7&$S_{9}$&0.647&$S_{13}$&0.631&$\bf{A}$&0.650&$\bf{A}$&5.57\\8&$S_{3}$&0.635&$S_{11}$&0.628&$S_{8}$&0.642&$S_{12}$&5.42\\9&$S_{4}$&0.635&$S_{3}$&0.609&$S_{9}$&0.636&$S_{8}$&5.26\\10&$S_{7}$&0.633&$S_{5}$&0.603&$S_{3}$&0.611&$S_{7}$&4.73\\11&$S_{8}$&0.630&$S_{6}$&0.596&$S_{4}$&0.573&$S_{1}$&4.68\\12&$S_{6}$&0.465&$S_{10}$&0.581&$S_{6}$&0.512&$S_{2}$&4.63\\13&$S_{10}$&0.450&$S_{2}$&0.560&$S_{10}$&0.498&$S_{6}$&4.36\\14&$S_{2}$&0.436&$S_{4}$&0.552&$S_{2}$&0.483&$S_{10}$&4.21\\\hline{\footnotesize平均}&&0.636&&0.646&&0.624&&5.73\\\hline\end{tabular}\end{center}\end{table}このように,出力文節数を被験者に近付けた場合においても,適合率は比較的順位が高く,F値では順位的にほぼ被験者中央に位置し,数値的にはF値平均を上回る結果が得られた.これらのことから,出力文節数が被験者に近い場合でも人間と同程度の精度を得ることができると言える.\subsubsection{CrossValidationによる評価}前節では,全被験者(ALTLINEを含む)の結果によって正解集合を作成したが,ここでは被験者集団を2つに分け,各被験者について本人を含まない集団で正解集合を作成し,評価を行なった.表3に100記事の結果を示す.閾値は正解集合の平均文節数が被験者全体の平均文節数に近くなるよう設定してある.\begin{table}[!htbp]\begin{center}\label{table:F-measure2}\caption{再現率,適合率,F値の平均(2)}\vspace{2mm}\begin{tabular}{c|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l}\hline順位&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}&\multicolumn{2}{c|}{F値}&\multicolumn{2}{c}{文節数}\\\hline1&$S_{13}$&0.853&$S_{7}$&0.802&$S_{7}$&0.718&$S_{11}$&7.53\\2&$S_{11}$&0.784&$S_{1}$&0.737&$S_{13}$&0.716&$S_{13}$&7.39\\3&$S_{5}$&0.745&$\bf{A}$&0.734&$S_{12}$&0.698&$S_{4}$&6.66\\4&$S_{4}$&0.693&$S_{12}$&0.729&$S_{5}$&0.675&$S_{5}$&6.57\\5&$S_{12}$&0.689&$S_{2}$&0.654&$S_{1}$&0.658&$S_{9}$&6.25\\6&$S_{7}$&0.670&$S_{8}$&0.654&$S_{11}$&0.655&$S_{3}$&5.87\\7&$S_{8}$&0.649&$S_{5}$&0.639&$S_{8}$&0.640&$S_{8}$&5.40\\8&$S_{1}$&0.613&$S_{13}$&0.636&$S_{4}$&0.613&$S_{12}$&5.23\\9&$S_{9}$&0.613&$S_{6}$&0.604&$\bf{A}$&0.584&$S_{10}$&4.70\\10&$S_{3}$&0.576&$S_{10}$&0.586&$S_{2}$&0.582&$S_{7}$&4.51\\11&$S_{2}$&0.538&$S_{11}$&0.584&$S_{9}$&0.563&$S_{2}$&4.45\\12&$S_{10}$&0.519&$S_{4}$&0.577&$S_{3}$&0.543&$S_{1}$&4.44\\13&$\bf{A}$&0.506&$S_{9}$&0.539&$S_{10}$&0.540&$S_{6}$&4.16\\14&$S_{6}$&0.472&$S_{3}$&0.527&$S_{6}$&0.523&$\bf{A}$&3.60\\\hline平均&&0.637&&0.643&&0.622&&5.48\\\hline\end{tabular}\end{center}\end{table}ALTLINEの結果は,F値で9位,再現率が13位,適合率が3位であった.この場合でも,再現率は低い代わりに適合率が高いという結果が得られ,F値でみると人間と同程度の結果を得ることができた. \section{考察} 5.3.1節で述べたように,ALTLINEは被験者平均に近い文節数を出力する場合と,極端に小さい出力をする場合があり,全体の平均として出力文節数が小さくなる傾向がある.このような,ALTLINEが不適切な要約を生成する原因として,1)語句抽出ルールの不足,2)主動詞特定の失敗,3)解析誤りの悪影響の3つが考えられる.第1の原因であるが,全体平均においてALTLINEの出力が小さい場合でも,適合率が高いことから文構成に必要最小限の要素が獲得できていると言える.しかし,必要最小限の要約にさらに情報を加える格要素以外の修飾語句が十分に獲得できていないと考えられる.それらの語句は語句抽出ルールにより獲得しているため,語句抽出ルールの不十分さが大きな原因だと考えられる.これは,3つの原因のなかで最も影響のある点で,ルールの強化が今後の課題である.しかし,仮に課題を「十分小さな要約を得ること」または,「精度の高い要約を得ること」に設定すれば,現在の精度でも十分有効だと考えられる.第2の原因であるが,システムが様相表現的動詞を主動詞として誤認識した場合,別の格要素が抽出され,観点の異なった文を生成してしまうために不適切な要約結果が得られてしまう.例えば,原文が「米銀行3位の銀行持ち株会社のネーションズバンクと同5位のバンカメリカは13日、今年10〜12月に対等合併することで合意した、と発表した。」の場合,本システムでは「ネーションズバンクと同5位のバンカメリカは発表した。」という要約文を生成してしまう.これは,システムが「発表した」を主動詞と誤認識したからであり,これもルール不足が原因と考えられる.第3の原因であるが,解析誤りは上記の主動詞特定誤りや格要素獲得誤りを起こすという悪影響を及ぼす.また,自然言語処理において解決が必要な一般的重要課題である.ランダム抽出とidfを元にした語句抽出の評価結果が低いことから,従来のキーワード抽出的な語句抽出方法では要約文を生成するために必要な語句を取り出すには不十分であると言える.一方,本手法は語句抽出に関して正解平均に匹敵する精度を得たことから,要約文生成のための語句抽出に対して有効であると考えられる.また,5.3.1節で述べたように,出力文節数を被験者に近付けた場合でも,再現率,適合率,F値において被験者全体の平均を上回る結果が得られることから,出力文節数が被験者に近い場合でも人間と同程度の精度を得ることができると言える. \section{おわりに} 本論文では,格フレーム辞書を用いて原文から重要語句を抽出し,抽出した語句から要約文を生成する新聞記事要約の手法を提案した.また,要約システムALTLINEを試作し,生成した要約について人手要約を用いた評価を行なった.この評価結果において本提案手法は人手要約の平均に位置し,人手要約に匹敵する結果を得た.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\clearpage\appendix \section{付録:原文(新聞記事)の例} \label{app:article}\begin{table}[!h]\caption{原文の例(この記事の場合1記事7文)}\vspace{1mm}\begin{center}\begin{tabular}{p{12cm}}\hline沖縄県の大田昌秀知事は14日、名護市沖が候補地の米軍海上ヘリポート建設問題について、毎日新聞記者らに「建設反対は当初から考えていたこと」と述べ、初めて反対を明言した。\\そのうえで「橋本首相が困るような結論は言いたくない。何かオプションはないかと考えている」と語り、代替案がないかどうかなどを模索し、橋本龍太郎首相に提言する考えを示した。\\正式な反対表明の時期は、現在空席の吉元政矩前副知事の後任を決めた後としており、早ければ今月末にも首相に表明する見通しになった。\\$\cdots$\\\hline\end{tabular}\end{center}\end{table} \section{付録:単語リスト} \label{app:list}\begin{table}[!hb]\begin{center}\caption{単語リストの例(この記事の場合1記事127文節)}\vspace{1mm}\begin{tabular}{|c|p{50mm}|c|p{50mm}|}\hline1&沖縄県(の)&2&大田昌秀知事(は)\\\hline3&14日&4&名護市沖(が)\\\hline5&候補地(の)&6&\parbox{30mm}{米軍海上ヘリポート\\建設問題(について)}\\\hline7&毎日新聞記者ら(に)&8&建設反対(は)\\\hline9&当初(から)&10&考えていた\\\hline11&こと(と)&12&述べ\\\hline13&初めて&14&反対(を)\\\hline15&明言した&16&そのうえ(で)\\\hline17&橋本首相(が)&18&困る(ような)\\\hline19&結論(は)&20&言いたくない\\\hline21&何か&22&オプション(は)\\\hline23&ない(かと)&24&考えている(と)\\\hline25&語り&26&代替案(が)\\\hline27&ない(かどうかなどを)&28&模索し\\\hline29&橋本龍太郎首相(に)&30&提言する\\\hline31&考え(を)&32&示した\\\hline$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\hline\end{tabular}\end{center}\end{table}\clearpage \section{付録:被験者の要約結果} \label{app:B-result}\begin{table}[!h]\begin{center}\caption{被験者の要約結果例}(括弧内の数字は,付録\ref{app:list}の文節番号に対応している)\\\vspace{2mm}\begin{tabular}{rp{100mm}}\hline$S_{1}$&大田昌秀知事は、米軍海上ヘリポート建設問題に反対を明言した。(2,6,14,15)\\$S_{2}$&大田昌秀知事は米軍海上ヘリポート建設問題に反対を明言した。(2,6,14,15)\\$S_{3}$&沖縄県の知事は米軍海上ヘリポート建設問題について反対を明言した。(1,50,6,14,15)\\$S_{4}$&沖縄県の大田昌秀知事は米軍海上ヘリポート建設問題について代替案を検討している。(1,2,6,26,123)\\$S_{5}$&沖縄県の大田昌秀知事は米軍海上へリポート建設問題に反対を明言した。(1,2,6,14,15)\\$S_{6}$&沖縄県知事は、海上ヘリポート建設に反対を明言した。(1,50,85,14,15)\\$S_{7}$&沖縄県は米軍海上ヘリポート建設問題について反対を明言した。(1,6,14,15)\\$S_{8}$&大田昌秀知事は、米軍海上へリポート建設問題の反対を明言した。(2,6,14,15)\\$S_{9}$&沖縄県大田知事は名護市沖米軍海上ヘリポート建設問題反対を橋本首相に述べ、代替案を提言。(1,2,4,6,14,12,26,30)\\$S_{10}$&沖縄県の大田昌秀知事が米軍海上ヘリポート建設問題について反対を明言した。(1,2,6,14,15)\\$S_{11}$&大田知事は米軍ヘリポート建設問題に反対を明言した。(2,6,14,15)\\$S_{12}$&大田昌秀知事は米軍海上へリポート建設問題について反対を明言した。(2,6,14,15)\\$S_{13}$&沖縄県の大田昌秀知事は名護市沖の米軍海上ヘリポート建設問題について反対を明言した。(1,2,4,6,14,15)\\\hline\end{tabular}\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{畑山満美子}{1995年北海道大学工学部情報工学科卒業.1997年同大学院修士課程修了.同年日本電信電話(株)入社.同年NTTコミュニケーション科学基礎研究所入所.自然言語処理,知識情報処理の研究に従事.2002年4月よりNTT東日本研究開発センタに所属.情報処理学会,言語処理学会会員,各会員.}\bioauthor{松尾義博}{1988年大阪大学理学部物理学科卒.1990年同大大学院研究科博士前期課程修了.同年日本電信電話(株)入社.機械翻訳,自然言語処理の研究に従事.情報処理学会,言語処理学会会員,各会員.}\bioauthor{白井諭}{1978年大阪大学工学部通信工学科卒業.1980年同大学院博士前期課程修了.同年日本電信電話公社(現,NTT)に入社.日英機械翻訳を中心とする自然言語処理システムの研究開発に従事.1998年10月から国際電気通信基礎技術研究所に出向.1995年第30回日本科学技術情報センター賞(学術賞),同年人工知能学会論文賞,2000年IEEE-ICTAI最優秀論文賞,2002年第17回電気通信普及財団賞(テレコムシステム技術賞)受賞.著書「日本語語彙大系」(岩波書店,共編,1997,1999).電子情報通信学会,情報処理学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N02-06
\section{はじめに} 人は言葉を理解するとき,これまでの経験から得た単語の背景知識を利用している.たとえば,動詞「振る舞う」において,「シェフが料理を振る舞う」と言われれば「誰かが誰かに何らかの料理を提供している」状況を想像し,「紳士のように振る舞う」と言われれば「誰かがある特定の様子で行動している」状況を想像する.人はこれらの「振る舞う」の意味の違いをその前後の文脈によって理解し,さらに「``誰かに''提供している」や「``誰かが''行動している」のような状況を理解するのに必要とされる事柄を補完して,これらの言葉を理解している.フレーム知識とは,このような単語の背景知識を,同じ状況を想起させる語と状況の記述に必要な要素を含んだ意味フレームの形式でまとめたものである.その代表的なリソースの1つとして,FrameNet\cite{baker1998,ruppenhofer2016}が存在する.これはFillmoreが提唱するフレーム意味論\cite{fillmore1982}に基づいたフレーム知識リソースである.FrameNetは,テキスト中の単語に対してフレームやフレーム要素のラベル付けを行う意味解析器の構築\cite{das-etal-2014-frame,swayamdipta2017frame}に加え,イベント検出\cite{liu-etal-2016-leveraging}や関係抽出\cite{zhao2020cfsre}のような情報抽出に関するシステム構築などに利用される.しかし,FrameNetは人手で整備されていることから,語彙やフレームのカバレッジに限界がある.このため,大規模なテキストコーパスから自動的に動詞のフレーム知識を構築する取り組みが行われている\cite{kawahara2014,ustalov2018}.しかしながら,これらの手法では,大規模コーパスから動詞とその項を収集し,それらの表層的な情報に基づきクラスタリングをしているため,動詞や項の出現する文脈を十分に考慮できていない.そこで,本研究では,文脈を考慮した単語埋め込みを活用することで,より高品質なフレーム知識の自動構築の実現を目指す.フレーム知識を自動構築するためには,動詞の意味フレーム推定とフレーム要素推定が必要となるが,本論文では,最初の段階である動詞の意味フレーム推定に焦点を当てる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{05table01.tex}\caption{FrameNetにおける動詞「get」と「acquire」の用例と各動詞が喚起するフレーム(括弧内).}\label{tab:examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%動詞の意味フレーム推定は,テキスト中の動詞を,その動詞が喚起する意味フレームごとにまとめるタスクである.本論文では,FrameNetで定義されている意味フレームごとに,動詞の用例をクラスタリングすることで本タスクを実現する.たとえば,表\ref{tab:examples}の(1)~(4)に示す動詞「get」と「acquire」の用例の場合,\{(1)\},\{(2)\},\{(3),(4)\}の3つのクラスタにまとめることを目標とする.本タスクの大きな特徴の1つとして,同じ動詞の用例であってもその動詞が示す状況が異なる場合,それらは異なるフレームを喚起し,異なる動詞の用例であってもそれらの動詞が類似した状況を示す場合,それらは同じフレームを喚起することが挙げられる.動詞の意味フレーム推定タスクに対して,すでにELMo\cite{peters2018}やBERT\cite{devlin2019}などの文脈化単語埋め込みを用いたクラスタリング手法が提案されている.たとえば,SemEval2019における動詞の意味フレーム推定の共有タスク\cite{qasemizadeh2019}では,ベースラインを超えた3グループ\cite{arefyev2019,anwar2019,ribeiro2019}はいずれも,推定対象動詞の文脈化単語埋め込みを用いて,動詞全体で一度にクラスタリングを行っている.しかしながら,このような手法には大きく2つの欠点がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-2ia5f1.pdf}\end{center}\hangcaption{動詞「get」と「acquire」の文脈化単語埋め込みの2次元マッピング.左図が動詞の通常の埋め込み,右図がマスクされた動詞の埋め込みによる結果である.2つの図の間にある括弧付きの数字は表\ref{tab:examples}の用例に対応し,$+$と$\bullet$はそれぞれ動詞「get」と「acquire」の埋め込み,各色は{\color[HTML]{ecaa0a}\textbf{Arriving}},{\color[HTML]{0da579}\textbf{Transition\_to\_state}},{\color[HTML]{57c3f5}\textbf{Getting}}フレームを示す.}\label{fig:visualization}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%1つ目の欠点は,フレーム推定対象となる動詞の表層的な情報を過度に考慮してしまうことである.表\ref{tab:examples}の動詞「get」のように,一部の動詞は文脈により異なるフレームを喚起する.しかし,文脈化単語埋め込みはその単語の表層情報も含むことから,同じ動詞の埋め込みは文脈が異なっていたとしても類似する傾向がある.このため,文脈化単語埋め込みに基づくクラスタリングを行うとき,異なる意味の動詞の用例であっても同じ動詞であれば,1つのクラスタにまとめられてしまう事例が多い.たとえば,FrameNetから動詞「get」と「acquire」の用例を抽出し,事前学習済みBERT\cite{devlin2019}を用いて「get」と「acquire」の文脈化単語埋め込みを獲得し,t-SNE\cite{maaten2008}によって2次元にマッピングした結果を図\ref{fig:visualization}左に示す.「get」が喚起するフレームのうちGettingフレームを喚起する「get」の埋め込みは,同じくGettingフレームを喚起する「acquire」の埋め込みに近い位置に分布する傾向はあるものの,動詞ごとにまとまって分布する傾向が強いことが確認できる.本研究ではこの問題を解消するため,フレーム推定対象の動詞をマスクしたときの文脈化単語埋め込みを利用する手法を提案する.具体的には,推定対象の動詞を``[MASK]''に置き換えたときの文脈化単語埋め込みを利用する.図\ref{fig:visualization}左と同様にして,マスクされた動詞の文脈化単語埋め込みを2次元にマッピングした結果を図\ref{fig:visualization}右に示す.マスクを用いた埋め込みの場合,動詞の表層的な情報が限定的となり,同じフレームを喚起する動詞の埋め込みが近い位置に分布することが確認できる.2つ目の欠点は,同じ動詞が喚起するフレームの異なり数は数個程度と限定的であるにも関わらず,その動詞の用例が多くの異なるクラスタに分かれる事例が多いことである.これは,動詞の埋め込みが外れ値となる場合,それぞれ別のクラスタに属するようにクラスタリングされるためである.このような事態を避けるため,本研究ではまず動詞ごとに用例のクラスタリングを行った後,フレーム単位でまとめるために動詞横断的にクラスタリングを行う2段階クラスタリング手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} FrameNetなどのフレーム知識リソースの構築や拡張は,人手で整備されていることから多大なコストがかかる.このため,大規模なテキストコーパスからフレーム知識を自動構築する取り組みが行われている.Kawaharaらは大規模なWebコーパスから動詞とその項を抽出し,ChineseRestaurantProcess\cite{aldous1985}を用いて,動詞ごとに意味の類似した項をまとめるクラスタリングを行うことで,動詞の意味フレームを獲得している\cite{kawahara2014}.また,Ustalovらは大規模コーパスから動詞,主語,目的語から成る3つ組を収集し,それらの3つ組の文脈を考慮しない単語埋め込みを連結した表現に基づき,グラフベースのクラスタリングを行うことで実現している\cite{ustalov2018}.しかし,これらの手法は,大規模コーパスから動詞とその項を収集し,動詞や項の表層的な意味に基づきクラスタリングを行っているため,動詞や項の文脈による意味の違いをほとんど考慮できていない.本研究で使用するように,文脈化単語埋め込みを利用することで,より高品質なフレーム知識の自動構築が期待できる.フレーム知識の自動構築において,文脈化単語埋め込みを利用した取り組みが行われている.SemEval2019の共有タスク\cite{qasemizadeh2019}では,動詞の意味フレーム推定や項の意味役割推定に対し,ELMoやBERTから獲得した文脈化単語埋め込みを用いた手法が提案されている.特に,動詞の意味フレーム推定に関して,Arefyevら\cite{arefyev2019},Anwarら\cite{anwar2019},Ribeiroら\cite{ribeiro2019}による手法が高いパフォーマンスを示すと報告されている.Arefyevらは,推定対象の動詞のBERTから獲得した埋め込みを基に階層型クラスタリングを行い,その後,BERTを用いて対象動詞の言い換え単語を推定し,それらの単語を用いて各クラスタを2分するクラスタリングを行っている.この手法は,本研究の提案手法と同様に2段階でクラスタリングしているが,1段階目に動詞横断的なクラスタリングを行っており,我々が指摘する欠点を持つ.Anwarらは,skip-gram\cite{mikolov2013}による推定対象動詞の埋め込みと文全体の埋め込みを連結した表現を用いて階層型クラスタリングを行っている.Anwarらは共有タスクのスコア提出後に,ELMoから獲得した埋め込みを用いた同様のモデルを検討し,skip-gramを用いたときより高いスコアが得られたと報告している.Ribeiroらは,推定対象動詞のELMoによる文脈化単語埋め込みを基に,グラフベースのクラスタリング\cite{biemann2006}を行っている.文脈化単語埋め込みは,動詞の意味フレーム推定タスクと類似した語義推定タスクにおいても有用であることが報告されている.Amramiらは,ELMoを用いて語義推定対象語の言い換え候補となる語の出現確率を算出し,それに基づき語義を推定している\cite{amrami2018}.Arefyevらは,推定対象語の前後の文脈情報をより考慮することで,Amramiらの手法を改善している\cite{arefyev2019b}.また,AmramiらはELMoをBERTに置き換えることで,さらに高いパフォーマンスが得られたと報告している\cite{amrami2019}.語義推定は同じ語の意味を識別するタスクであるため,意味の似た異なる動詞をまとめることは考慮されていない.このため,これらの手法を動詞の意味フレーム推定に直接適用することは容易でない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 本研究では,動詞の意味フレーム推定において,文脈化単語埋め込みとして動詞をマスクした場合の埋め込みを利用し,動詞ごとの用例クラスタリングと動詞横断クラスタリングの2段階でクラスタリングを行う手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マスクされた単語の埋め込みの利用}動詞の意味フレーム推定に用いる埋め込みとして,従来手法で使用された推定対象動詞の文脈化単語埋め込みに加え,その動詞をマスクした場合の文脈化単語埋め込みを利用する.近年,BERTなどの多くの事前学習済みモデル\cite{devlin2019,liu2019,lan2019,he2020deberta}では,テキストの一部の単語を特殊トークンである``[MASK]''などに置き換え,周囲の文脈からそのマスクされた単語の元単語を推定するマスク単語穴埋めタスクによる事前学習が行われている.この事前学習により,マスクされた単語埋め込みは,表層的な情報を抑えつつ周囲の文脈を考慮した埋め込みが獲得できていると考えられ,動詞横断的にフレームを推定する際に有用であることが期待される.本研究では,文脈化単語埋め込みとしてBERTを利用する.BERTはYamadaら\cite{yamada-etal-2021-verb}の文脈化単語埋め込みを用いた動詞のフレーム識別実験において高い評価スコアを獲得しており,本研究においても有用と考えられる.具体的には,以下の3種類の文脈化単語埋め込みを考える.\begin{description}\item[$v_{\textsc{word}}$:]フレーム推定対象動詞の通常の文脈化単語埋め込み\item[$v_{\textsc{mask}}$:]フレーム推定対象動詞を``[MASK]''に置き換えた場合の文脈化単語埋め込み\item[$v_{\textsc{w+m}}$:]式(\ref{eq:wm})で定義される上記2つの加重平均\begin{equation}v_{\textsc{w+m}}=(1-\alpha)\cdotv_{\textsc{word}}+\alpha\cdotv_{\textsc{mask}}\label{eq:wm}\end{equation}\end{description}$v_{\textsc{w+m}}$は推定対象動詞をマスクした場合と,しない場合の文脈化単語埋め込みの加重平均である.開発セットを用いて重み$\alpha$を適切に設定することにより,推定対象動詞の表層的な情報と周辺文脈から得られる情報を適切に考慮した埋め込みが得られることを期待している.$v_{\textsc{w+m}}$は,$\alpha$が0のときに$v_{\textsc{word}}$と一致し,$\alpha$が1のときに$v_{\textsc{mask}}$と一致する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{2段階クラスタリング}動詞の意味フレーム推定で行うクラスタリングとして,1段階目に動詞ごとの用例クラスタリング,2段階目に動詞横断クラスタリングを行う2段階クラスタリングを提案する.1段階目のクラスタリングでは,同じ意味の同じ動詞の用例をまとめたクラスタが得られる.その後,2段階目のクラスタリングでは,同じ意味の異なる動詞の用例をまとめたクラスタが得られ,クラスタはFrameNetの意味フレームと対応するものとする.1段階目のクラスタリングにおいて各動詞の用例を少数の意味ごとのクラスタにまとめておくことで,同じ動詞の用例が多くの異なるクラスタに分割しないことを期待している.図\ref{fig:method}に動詞「get」と「acquire」の用例を2段階クラスタリングしたときの流れを示す.この例では,まず,1段階目のクラスタリングを行い,「get」の用例は3つのクラスタ,「acquire」の用例は1つのクラスタにまとめられている.次に,1段階目でまとめられたクラスタ内で埋め込みの平均を算出し,2段階目のクラスタリングで用いる埋め込みを作成している.最後に,2段階目のクラスタリングを行い,「get」のクラスタのうちの1つと「acquire」のクラスタがマージされ,3つのクラスタとなっている.以下では,各クラスタリングの詳細について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-2ia5f2.pdf}\end{center}\hangcaption{2段階クラスタリングの流れ.左上,左下図はそれぞれ動詞「get」と「acquire」を対象とした1段階目の動詞ごとの用例クラスタリング,中図は1段階目のクラスタリングで構築したクラスタ内の埋め込みの平均の算出,右図は2段階目の動詞横断クラスタリングを示している.各図における$+$と$\bullet$は用例中の「get」と「acuquire」の埋め込みを表す.}\label{fig:method}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{1.動詞ごとの用例クラスタリング}1段階目のクラスタリングは,各動詞の用例をその動詞の意味ごとにまとめることを目的とする.このクラスタリングの対象となる動詞は共通であるため,文脈化単語埋め込みとして$v_{\textsc{word}}$を用いる場合と,$v_{\textsc{mask}}$を用いる場合で結果に大きな違いはないと考えられる\footnote{実際に本研究で行った実験では,スコアの差はほとんど見られなかった.}.このため,1段階目のクラスタリングでは$v_{\textsc{mask}}$のみを用いる.クラスタリング手法は,X-means\cite{pelleg2000},またはユークリッド距離に基づく群平均法による階層型クラスタリングを用いる.X-meansは,全ての用例を1つのクラスタにした状態から,クラスタ数2のK-meansを繰り返し行い,ベイズ情報量基準(BIC)\cite{schwarz1978}に基づき自動的にクラスタリングを終了する手法である.一方,群平均法は,クラスタ間の全要素ペアの平均距離をクラスタ間距離として定義し,クラスタ間距離の小さいクラスタペアから順にマージする手法であるが,自動的にクラスタ数を決められない.このため,群平均法ではクラスタリングの終了基準が必要である.本研究では,クラスタ間距離が閾値$\theta$以下となるクラスタペアがなくなった時点を終了基準とする.閾値$\theta$は全動詞で共有され,十分に大きな値に設定した場合,すべての動詞のクラスタはそれぞれ1つとなる.閾値$\theta$を十分に大きな値から徐々に小さくしていき,全動詞のクラスタ数の平均が,開発セットにおける各動詞が喚起するフレームの異なり数の平均と最も近い値に設定する.FrameNet\cite{baker1998,ruppenhofer2016}では,意味フレームとそのフレームを喚起する語を結び付けたものを語彙項目(LexicalUnit;LU)と呼ぶ.動詞「get」の場合,get-Arriving,get-Transition\_to\_state,get-GettingがLUにあたる.1段階目のクラスタリングにより構築されたクラスタは,各動詞の用例を,その動詞が喚起するフレームごとにまとめたものであることから,各クラスタはLUに対応する集合とみなすことができる.そこで,本研究では1段階目のクラスタリングで構築されたクラスタを疑似LU(pseudo-LU;pLU)と呼ぶことにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{2.動詞横断クラスタリング}2段階目のクラスタリングでは,1段階目のクラスタリングで構築されたpLUに対して,動詞横断的にクラスタリングすることで,同じ意味フレームを喚起する異なる動詞の用例をまとめることを目的とする.ここでは,まず,pLUごとに動詞の埋め込みの平均を算出する.その後,得られた埋め込みに基づき,動詞横断的にクラスタリングを行う.クラスタリング手法は,ユークリッド距離に基づく群平均法,またはウォード法による階層型クラスタリングを用いる.これらの手法は共にクラスタリングの終了基準が必要である.単純な基準として,フレーム数と動詞数の比率を用いることが考えられるが,フレームの種類数は上限があり,フレーム数は動詞数に対して線形に増加しないため,終了基準として適切ではない.そこで,本研究では,開発セットにおける同じフレームに属するLUペアの割合と,同じクラスタに属するpLUペアの割合を用いた基準を提案する.具体的には,pLUペアが同じクラスタに属する割合$P_{\textsc{c}_1=\textsc{c}_2}$が,開発セットにおけるLUペアが同じフレームに属する割合$P_{\textsc{f}_1=\textsc{f}_2}$以上となった時点でクラスタリングを終了する.$P_{\textsc{f}_1=\textsc{f}_2}$は式(\ref{eq:p})により算出される.一方,$P_{\textsc{c}_1=\textsc{c}_2}$も同様に計算できるが,全てのpLUペア数はクラスタリングの段階に依らず一定であるのに対し,同じクラスタに属するpLUペア数はクラスタリングが進むにつれて単調増加し,全体が1つのクラスタとなった時点で1となる.このため,クラスタリングの過程で$P_{\textsc{f}_1=\textsc{f}_2}$以上の値となることが保証される.また,無作為に抽出したLUペアが同じフレームに属する確率はデータサイズに依らないことから,このような基準はテストセットのサイズに依らず有効であると考えられる.\begin{equation}p_{\textsc{f}_1=\textsc{f}_2}=\frac{\mbox{\small同じフレームに属するLUペア数}}{\mbox{\small全てのLUペア数}}\label{eq:p}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:experiment}マスクされた単語埋め込みと2段階クラスタリングを用いた提案手法の有用性を確認するため,動詞の意味フレーム推定タスクによる実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}FrameNet1.7\footnote{\url{https://framenet.icsi.berkeley.edu/fndrupal/}}\cite{ruppenhofer2016}から,\pagebreakいずれかのフレームにおいて20件以上の用例が存在する動詞,および該当するLUの用例を抽出し,実験に使用した.LUごとの用例数は上限100件とし,それを越える場合は無作為に100件を選択し用いた.全部で1272動詞が抽出され,そのうち20\%の255動詞を開発セット,残りの1017動詞をテストセットとして使用した.この際,文脈に応じて異なるフレームを喚起する動詞\footnote{全1272動詞の約14\%にあたる178動詞がそれに該当した.}の割合が開発セットとテストセットで一致するように注意した.なお,開発セットは$v_{\textsc{w+m}}$の重み$\alpha$\footnote{0から1まで0.1刻みで探索した.},クラスタ数,および文脈化単語埋め込みとして使用するBERTの層の決定に利用した\footnote{提案モデルの多くは11層目が選択された.}.表\ref{tab:dataset}に作成したデータセットの統計値を示す.全体のフレーム数が開発セットとテストセットのフレーム数の和より小さな数になっているのは,開発セットとテストセットは動詞単位で分割していることから,それぞれに含まれるフレームは一部重複するためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{05table02.tex}\caption{FrameNetを用いたデータセット}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価尺度}評価尺度として,B-CubedPrecision\textsc{(BcP}),B-CubedRecall(\textsc{BcR}),およびその調和平均であるB-CubedF-score(\textsc{BcF})\cite{bagga1998}と,Purity(\textsc{Pu}),InversePurity(\textsc{iPu}),およびその調和平均であるF-score(\textsc{PiF})\cite{zhao2001}の6つを利用した.B-Cubedはクラスタ集合とラベル集合のサンプルの分布に着目した評価指標である.クラスタにラベルを割り当てず,サンプルごとでPrecisionとRecallを計算し,その調和平均によってクラスタリング評価を行う.Purityはクラスタが単一のラベルで占められている度合い,InversePurityは単一のラベルが1つのクラスタに集中している度合いを評価する指標である.SemEval2019の共有タスク\cite{qasemizadeh2019}では,\textsc{BcF}を基準にシステムの順位を決定している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{比較モデル}提案手法では,文脈化単語埋め込みとしてHuggingFaceが公開しているTransformers\footnote{\url{https://github.com/huggingface/transformers}}\cite{wolf-etal-2020-transformers}に含まれる事前学習済みのBERT(bert-base-uncased)を利用した\footnote{BERT(bert-large-uncased)はBERT(bert-base-uncased)と比較して,スコアが少し高かったが,全体の傾向は変わらなかったため,BERT(bert-base-uncased)を利用した.また,他の文脈化単語埋め込みに関しては,Yamadaら\cite{yamada-etal-2021-verb}の研究が参考になる.}.クラスタリング手法に関しては,1段階目のクラスタリングとして群平均法による階層型クラスタリングまたはX-meansの2種類を,2段階目のクラスタリングとしてウォード法または群平均法による階層型クラスタリングの2種類をそれぞれ利用し,これらの組み合わせた計4種類のモデルを比較した.また,各動詞の用例集合をそれぞれ1クラスタとして扱うモデル(1-cluster-per-verb;1cpv),各動詞の用例集合をそれぞれ1クラスタ(1cpv')とした上で,2段階目のクラスタリングを行うモデルとも比較した.SemEval2019の共有タスクのスコアの高かった上位3つの従来研究のモデルとの比較も行った.Arefyevらは,推定対象動詞のBERTの埋め込みを用いて,そのコサイン類似度に基づく群平均法による階層型クラスタリングを行った後に,BERTを用いて獲得した推定対象動詞の言い換え単語によるtf-idfベースの特徴量を作成して,各クラスタを2分するクラスタリングを行っている\cite{arefyev2019}.また,開発時とテスト時の差をなくすために,開発セットとテストセットを統合してクラスタリングを行っている.開発時には,開発セットのフレームラベルのみを用い,1段階目のクラスタリング終了基準となるクラスタ数と,使用するBERTの埋め込みの層を\textsc{BcF}を基準に決定している.Anwarらは,skip-gramで推定対象動詞の埋め込みと文全体の埋め込みを連結した表現を用い,そのマンハッタン距離に基づく群平均法による階層型クラスタリングを行っている\cite{anwar2019}.開発時には,クラスタリング終了基準となるクラスタ間距離を\textsc{BcF}を基に決定している.Rebeiroらは,推定対象動詞のELMoの埋め込みを獲得し,ChineseWhispers\cite{biemann2006}によるグラフクラスタリングを行っている\cite{ribeiro2019}.ChineseWhispersはクラスタ数を自動的に決定する手法であるため,開発セットによるハイパーパラメータを調整する必要はない.さらに,2段階クラスタリングの有用性を確認するため,1段階でクラスタリングを行うモデルとの比較も行った.1段階クラスタリングに基づくモデルでは,提案モデルと同様に,文脈化単語埋め込みとして$v_{\textsc{w+m}}$を使用し,重み$\alpha$を開発セットにより調整し,ウォード法または群平均法による階層型クラスタリングを用いた.ここで指定したクラスタ数は,データセット中のフレーム数とし,クラスタ数がフレーム数と一致した時点でクラスタリングを終了した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{tab:result}に実験結果を示す.SemEval2019の共有タスクにおいてシステムの順位付けに使用された\textsc{BcF}で比較した場合,1段階目にX-means,2段階目に群平均法を用いた手法のスコアが63.4となり,全手法の中で最も高いスコアを達成した.\textsc{PiF}においても最も高いスコアである71.9を達成しており,有用な手法であるといえる.また,2段階目のクラスタリングの終了基準に関しても,テストセット中のフレーム数は393であるのに対してクラスタ数は410であり,有効に機能していることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{05table03.tex}\hangcaption{動詞の意味フレーム推定実験の結果.$\alpha$は$v_{\textsc{w+m}}$の重み,\#pLUは1段階目のクラスタリング後のpLU数,\#Cは最終的に得られたクラスタ数を表す.}\label{tab:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{マスクされた単語の埋め込みの有用性}2段階クラスタリングに基づくモデルの多くは$\alpha$が0.0と1.0以外の値となっていることから,$v_{\textsc{word}}$と$v_{\textsc{mask}}$の両方を考慮することの有効性が確認できる.また,多くのモデルで$\alpha$は1.0に近い値となっており,2段階目の動詞横断クラスタリングにおいて$v_{\textsc{mask}}$が有用であることがわかる.一方,1段階クラスタリングに基づくモデルにおける$v_{\textsc{w+m}}$は,$\alpha$が0.0で$v_{\textsc{word}}$と同等な埋め込みとなっている.すなわち,用例全体でクラスタリングする場合,$v_{\textsc{mask}}$の有用性は確認できなかった.これは動詞全体で一度にクラスタリングを行う場合,異なる動詞の用例をまとめることよりも,同じ動詞の用例をまとめることを優先した方がスコアが高くなるためであると考えられる.また,$v_{\textsc{mask}}$は同じ``[MASK]''トークンの埋め込みであることから,$v_{\textsc{word}}$と比較して多くの動詞の埋め込みが類似していると考えられる.このため,異なる意味の動詞の用例であっても同じクラスタに含まれる傾向がある.加えて,1段階クラスタリングでは,類似した用例集合による動詞の埋め込みの平均ではなく,単独の動詞の埋め込みを利用するため,その影響をより受けやすくなっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{2段階クラスタリングの有用性}2段階目に群平均法を用いたモデルのスコアが全体的に高く,1段階でクラスタリングを行う手法と比較しても10ポイント前後高いスコアを達成している.このことから2段階クラスタリングが有用であるといえる.1段階目のクラスタリングに関して,1cpv'の後に群平均法を利用するモデルよりも,X-meansの後に群平均法を利用したモデルのスコアが2.9ポイント高いことが確認できる.ただし,1段階目に群平均法,2段階目に群平均法を利用したモデルは,1cpv'の後に群平均法を利用するモデルよりも0.4ポイント低く,必ずしも1段階目のクラスタリングが有用であるという結果は得られなかった.しかしながら,本実験では,用例数の少ないLUを利用していないことから全体的に複数のフレームを喚起しうる動詞が少なくなっているが,実際に大規模なテキストコーパスからフレーム知識を構築する場面では,文脈に応じて意味の異なる動詞の数が増えるため,1段階目のクラスタリングが有用となる可能性があると考えている.これらのクラスタリング法について,\ref{sec:discussion_1step}節においても言及する.2段階目のクラスタリングに関して,2段階目にウォード法を用いたモデルは,2段階目に群平均法を用いたモデルより10ポイント以上低いスコアとなっている.これは本タスクで構築したいクラスタとウォード法から構築するクラスタの傾向が異なることが要因であると考えられる.ウォード法では,クラスタサイズの大きいクラスタペアほど結合しにくくなる特徴により,同程度のサイズのクラスタを多く構築する傾向がある.一方で,FrameNetにおけるそれぞれのフレームを喚起する動詞数の分布はロングテールとなっている.これらの違いがスコアの低下につながっていると考えられる.このことについて,\ref{sec:discussion_2step}節でさらに言及する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{提案手法によって得られたクラスタの例}提案手法によって構築されたクラスタが意味フレームをどれほど表現できているかを確認するために,実験で最もスコアの高かった,1段階目にX-means,2段階目に群平均法を用いたモデルによるクラスタリング結果の一部を示す.表\ref{tab:examples_cluster_xmeans_ga}に,クラスタ内の合計動詞数の多い上位5クラスタを示し,また,表\ref{tab:examples_frame_xmeans_ga}に,データセット中のフレーム内の合計動詞数の多い上位5フレームを示す.表\ref{tab:examples_cluster_xmeans_ga}より,クラスタ内の合計動詞数の最も多いクラスタIDが139のクラスタでは,自ら移動することを意味するSelf\_motionフレームを喚起する動詞の用例を中心にクラスタが構築されていることが確認できる.Self\_motionフレームはデータセットにおいて最も多くの種類の動詞が喚起するフレームであり,それを反映したクラスタリング結果が得られている.他のフレームに関して,MotionフレームはSelf\_motionフレームの上位フレーム\footnote{FrameNetでは,一部のフレーム間に継承などの階層関係が定義されている.詳しくはRuppenhoferらの文献に記載されている\cite{ruppenhofer2016}.}であり,また,Operate\_vehicle,Motion\_noise,Body\_movementフレームの上位フレームでもある.すなわち,このクラスタはSelf\_motionフレーム,およびそのフレームと関係の深いフレームを喚起する動詞の用例がまとまっていることを意味し,動詞の意味に合わせてクラスタが構築できていることがわかる.また,表\ref{tab:examples_frame_xmeans_ga}にSelf\_motionフレームを喚起する動詞の用例の属しているクラスタを示しているが,クラスタIDが139のクラスタにおいて,Self\_motionフレームが付与された動詞71個のうち57個をまとめることに成功していることが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}\hangcaption{1段階目にX-means,2段階目に群平均法を用いたモデルによるクラスタリング結果.クラスタ内の合計動詞数の多い上位5クラスタを示す.クラスタ内で最も動詞数の多いフレームをそのクラスタの代表フレームとし,$^\dag$は代表フレームの上位にあたるフレーム,$^\ddag$は代表フレームと下位にあたるフレーム,$^{\dag\dag}$は代表フレームと共通の上位フレームを持つフレームであることを意味する.}\label{tab:examples_cluster_xmeans_ga}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{05table05.tex}\hangcaption{1段階目にX-means,2段階目に群平均法を用いたモデルによるクラスタリング結果.FrameNetを用いたデータセット中のフレーム内の合計動詞数の多い上位5フレームを示す.}\label{tab:examples_frame_xmeans_ga}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:examples_cluster_xmeans_ga}より,クラスタIDが232のクラスタはクラスタ内の用例中の動詞はすべて同じExperiencer\_objフレームを喚起するものとなっており,フレームに対応したクラスタが形成されていることが確認できる.このように,単独のフレームに対応したクラスタが形成された理由は2つあると考えられる.1つは,Experiencer\_objフレームは何らかの事象により人などの生物が感情を引き起こすことを意味するフレームであるが,上位下位関係にあるフレームが感情に関するEmotionsフレームのみであり関係の深いフレームが少ないことである.このため,フレームの曖昧さによる影響を受けづらい.もう1つは,このフレームを喚起する動詞は感情に関するもののみであることから,動詞そのものの意味が類似しているものが多く,また,構文が類似する傾向がある.このような理由で,Experiencer\_objフレームを喚起する動詞の文脈化単語埋め込みの類似度が高いと考えられる.また,表\ref{tab:examples_frame_xmeans_ga}からExperiencer\_objフレームが付与された動詞47個のうち35個をまとめており,適切にクラスタが構築できていることがわかる.Experiencer\_objフレームは,Self\_motionフレームより最大クラスタに属さない動詞も他のクラスタでまとまる傾向が見られるため,他のフレームより推定しやすいフレームであると考えられる.表\ref{tab:examples_cluster_xmeans_ga}より,クラスタIDが319のクラスタはStatementフレームを喚起する動詞を中心にクラスタが形成されている.しかし,このクラスタでは15種類のフレームがそれぞれ付与された動詞の用例がクラスタ内に含まれている.これには大きく2つの理由が考えられる.1つは,クラスタIDが139のクラスタと同様に,クラスタ内の代表的なフレームと関係の深いフレームが同じクラスタとしてまとまってしまったという理由である.Statementフレームは話し手から聞き手に向けてメッセージを伝えることを意味するフレームであるが,クラスタ内に含まれているReveal\_secret,Complaining,Affirm\_or\_deny,Tellingフレームは,Statementフレームの下位の関係にあたり,より具体的な状況を意味することから同じクラスタに属していると考えられる.もう1つは,1段階目のクラスタリングにおいて,同じ動詞の用例間のフレームを識別できず,異なるフレームを喚起する動詞の用例を1つのクラスタにまとめてしまい,最終的に同じクラスタになったという理由である.このクラスタでは,動詞「say」,「suggest」,「mention」,「confide」,「urge」,「argue」,「conclude」がそれに該当する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{1段階目のクラスタリングに関する考察}\label{sec:discussion_1step}2段階クラスタリングにおいて,2段階目に群平均法を用いたモデルのスコアが高い傾向にあった.その1段階目のクラスタリング手法を比較すると,群平均法を用いたモデルは,X-meansを用いたモデルよりもスコアが低く,1cpv'モデルと同等のスコアを示すことが確認された.これには大きく2つの理由が考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{29-2ia5f3.pdf}\end{center}\hangcaption{1段階目に群平均法(左)またはX-means(右),2段階目に群平均法を用いたモデルのクラスタリング結果を付与した,動詞「lead」のマスクされた動詞のBERTから獲得した埋め込みのt-SNEによる2次元マッピング.各色は{\color[HTML]{57c3f5}\textbf{Leadership}},{\color[HTML]{ecaa0a}\textbf{Cotheme}}フレームを示し,数字は2段階クラスタリングによって得られた最終的なクラスタのクラスタIDを示す.}\label{fig:lead}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%1つは,外れ値の影響を受けたクラスタを構築する傾向があることである.たとえば,図\ref{fig:lead}にクラスタリング結果を付与した,動詞「lead」の埋め込みのt-SNEによる2次元マッピングを示す.図\ref{fig:lead}からわかるように,X-meansを用いたモデルは動詞が喚起するフレームごとに適切にクラスタが構築されている.一方で,群平均法を用いたモデルは2つのクラスタがあるものの,片方はほとんどの用例が1つのクラスタにまとまっており,適切にクラスタが構築されていない.これは群平均法がクラスタを結合する際に,クラスタサイズを考慮しないことが要因である可能性が高い.群平均法を用いたモデルでは,このような事例が複数確認されたことから,スコアが低くなっていると考えられる.もう1つは,特定のフレームしか喚起しない動詞であるにも関わらず,その動詞の用例が複数のクラスタに分かれてしまうことである.実験に用いたテストセットの中には,特定のフレームしか喚起しない動詞が875個存在する.X-meansを用いた場合,875個全ての動詞において,その用例がそれぞれ1つのクラスタにまとまった一方で,群平均法を用いた場合,87個の動詞でその用例が複数のクラスタに分かれた.これは郡平均法におけるクラスタ数の決定方法に影響されていると考えられる.郡平均法では,各動詞が喚起するフレームの異なり数の平均を基準としてクラスタリングを終了させているため,ある動詞のフレームの識別度合いが他の動詞のフレーム識別に影響を及ぼす.たとえば,複数の意味を持つ動詞の意味フレームを識別できずに1つのクラスタとなった場合,特定の意味しか持たない動詞のクラスタが分割される可能性が高い.このため,1段階目に群平均法を用いたモデルのスコアが低くなっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{2段階目のクラスタリングに関する考察}\label{sec:discussion_2step}2段階クラスタリング手法では,2段階目にウォード法を用いたモデルの方が,2段階目に群平均法を用いたモデルよりも全体的にスコアが低くなった.この1つの要因として,各クラスタの大きさが,データセット中の各フレームの傾向を十分に反映していないことが考えられる.具体的には,各クラスタに含まれる動詞数の分布が,データセット中の各フレームを喚起する動詞数の分布とは異なっていると考えられる.これを検証するために,1段階目にX-means,2段階目にウォード法または群平均法を用いたモデルを使用し,得られた各クラスタの動詞数の分布とデータセット中の各フレームを喚起する動詞数の分布と比較した.図\ref{fig:ranking}にデータセット中の各フレームを喚起する動詞の異なり数と,2つのモデルによって得られた各クラスタに含まれる動詞数の分布を示す.縦軸は各フレームを喚起する動詞数および各クラスタに含まれる動詞の異なり数,横軸はそれらを動詞数が多い順に並び替えたときの順位を示している.各フレームを喚起する動詞数の多い上位5フレームは,表\ref{tab:examples_frame_xmeans_ga}に示すように,Self\_motion,Experiencer\_obj,Statement,Body\_movement,Placingフレームである.これらのフレームを喚起する動詞はそれぞれ71個,47個,26個,26個,24個存在する.また,1段階目にX-means,2段階目に群平均法を用いたモデルでは,クラスタ内に含まれる動詞数の多い上位5クラスタは,表\ref{tab:examples_cluster_xmeans_ga}に示すように,クラスタIDが139,232,319,146,309のクラスタである.これらのクラスタに含まれる動詞はそれぞれ65個,35個,24個,23個,18個存在する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{29-2ia5f4.pdf}\end{center}\hangcaption{FrameNetを用いたデータセット中の各フレームを喚起する動詞の異なり数,および1段階目にX-means,2段階目にウォード法または群平均法を用いたモデルによる各クラスタ内の動詞数.縦軸は各フレームを喚起する動詞の異なり数および各クラスタに含まれる動詞数,横軸はそれらを動詞数が多い順に並び替えたときの順位を示している.}\label{fig:ranking}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:ranking}からわかるように,2段階目に群平均法を用いたモデルによる各クラスタ内の動詞数の分布が,データセット中の各フレームを喚起する動詞の異なり数の分布とかなり類似している.一方,2段階目にウォード法を用いたモデルによる各クラスタに含まれる動詞数の分布は,データセット中の各フレームを喚起する動詞の異なり数の分布と異なることがわかる.これらの結果から,ウォード法はクラスタ内の動詞数が多いほど他のクラスタと結合しづらくなるため,このタスクには適しておらず,群平均法のようなクラスタ内の動詞数を考慮しない手法が動詞横断的なクラスタリングにおいて有用であると考えられる. \section{おわりに} 本研究では,動詞の意味フレーム推定において,マスクされた単語の埋め込みと2段階クラスタリングを用いた手法を提案した.FrameNetを用いた評価実験を行い,提案手法が従来手法より高いスコアを達成できることを示し,提案手法の有用性を確認した.具体的には,マスクされた単語埋め込みを用いることによって,同じフレームを喚起する異なる動詞の用例をよりまとめられるようになること,また,2段階クラスタリングによって,同じ動詞の用例が多くのクラスタに分割されることを防ぐことを示した.本研究の最終目標は,実用的な意味処理を支援するために,大規模コーパスからフレーム知識を自動構築することである.フレーム知識を自動構築するためには,動詞の意味フレーム推定に加えて,フレーム要素推定が必要となる.従来研究\cite{kawahara2014,ustalov2018}におけるフレーム要素は,動詞に対して同じ依存関係ラベルが付与されたものとしている.しかし,動詞との依存関係が同じ語であっても意味役割の異なるものや,依存関係が異なっていても意味役割が同じものは存在する.文脈化単語埋め込みは周囲の文脈を考慮していることから,意味役割の違いを認識し,このような事例に対応できる可能性がある.今後の課題として,依存関係ラベルより的確な単位である意味役割に基づいたフレーム要素の推定手法を検討したい.また,本研究ではFrameNetを用いたデータセットに対する動詞の意味フレーム推定に取り組んでいる.しかし,大規模コーパスに対して,提案手法を単純に適用できるとは限らない.たとえば,FrameNetの用例は,フレームや意味役割が人手でラベル付けされたものであるが,大規模コーパスの中には人手でさえラベル付けることが難しい事例が存在すると考えられる.このような事例の対処法を検討したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の一部は,The59thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe11thInternationalJointConferenceonNaturalLanguageProcessingで発表したものである\cite{yamada-etal-2021-semantic}.また,本研究の一部はJSPS科研費21K12012の助成,および,JST及び名古屋大学による名古屋大学融合フロンティアフェローシップの支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{山田康輔}{%2021年名古屋大学大学院情報学研究科博士前期課程修了.同年,同大学院同研究科博士後期課程に進学.2022年より日本学術振興会特別研究員(DC2).}\bioauthor{笹野遼平}{%2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.博士(情報理工学).2019年より理化学研究所AIPセンター客員研究員を兼任.}\bioauthor{武田浩一}{%1983年京都大学大学院工学研究科情報工学専攻修士課程修了.同年日本アイ・ビー・エム株式会社に入社.2017年より名古屋大学教授.博士(情報学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\end{document}
V25N04-02
\section{はじめに} \begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦10回表のPlay-by-playデータ}\label{tb:pbp}\input{02table01.tex}\end{table}\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦10回表のイニング速報}\label{tb:inning_report}\input{02table02.tex}\end{table}\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦の戦評}\label{tb:game_report}\input{02table03.tex}\end{table}スポーツの分野で特に人気の高い野球やサッカーなどでは,試合の速報がWebなどで配信されている.特に,日本で人気のある野球では,試合中にリアルタイムで更新されるPlay-by-playデータやイニング速報,試合終了直後に更新される戦評など様々な速報がある.Play-by-playデータ,イニング速報,戦評の例をそれぞれ表\ref{tb:pbp},表\ref{tb:inning_report},表\ref{tb:game_report}に示す.Play-by-playデータ(表~\ref{tb:pbp})は打席ごとにアウト数や出塁状況の変化,打撃内容などの情報を表形式でまとめたデータである.イニング速報(表\ref{tb:inning_report})はイニング終了時に更新されるテキストであり,イニングの情報を網羅的に説明したテキストである.戦評(表\ref{tb:game_report})は試合が動いたシーンにのみ着目したテキストであり,試合終了後に更新される.特に,戦評には“0-0のまま迎えた”や“試合の均衡を破る”のような試合の状況をユーザに伝えるフレーズ(本論文ではGame-changingPhrase;GPと呼ぶ)が含まれているのが特徴である.戦評では,“先制”という単語のみでイニングの結果を説明するだけでなく,“試合の均衡を破る”といったフレーズを利用することで,先制となった得点の重要度をユーザは知ることができる.また,“0-0のまま迎えた”というフレーズが利用されていると,ユーザは試合が膠着し,緊迫しているという状況を知ることができる.本研究ではこのような試合の状況をユーザに伝えるフレーズをGPと定義する.これらの速報は,インターネットを介して配信されているため,スマートフォンやタブレット端末など様々な表示領域のデバイスで閲覧されている.また,ユーザはカーナビなどに搭載されている音声対話システムを通じてリアルタイムで速報にアクセスすることも考えられる.このような需要に対して,イニング速報はイニングの情報を網羅的に説明したテキストであり,比較的長い文であるため,表示領域に制限のあるデバイスでは読みづらい.音声対話システムの出力だと考えると,より短く,端的に情報を伝えられる文の方が望ましい.また戦評はGPが含まれており試合の状況を簡単に知ることができるが,試合が動いた数打席にのみ言及したものであり,試合終了後にしか更新されない.このようなそれぞれの速報の特徴を考慮すると,任意の打席に対してGPを含むイニングの要約文を生成することは,試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であると考えられる.そこで,任意の打席に対してGPを含むイニングの要約文を自動生成する.本研究ではPlay-by-playデータからイニングの要約文の生成に取り組む.また,要約文を生成する際に,GPを制御することで,GPを含まないシンプルな要約文とGPを含む要約文の2つを生成する.文を生成する手法としては,古くから用いられてきた手法にテンプレート型文生成手法\cite{mckeown1995}がある.また,近年ではEncoder-Decoderモデル\cite{Sutskever2014}を利用した手法\cite{Rush2015}も盛んに研究されている.本研究では,テンプレート型生成手法,Encoder-Decoderモデルを利用した手法の2つを提案する.テンプレート型文生成手法\cite{mckeown1995,mcroy2000}とは,生成する文の雛形となるテンプレートを事前に用意し,テンプレートに必要な情報を補完することで文を生成する手法である.岩永ら\cite{iwanaga2016}は,野球の試合を対象とし,テンプレート型文生成手法により,戦評の自動生成に取り組んでいる.彼らは,事前に人手でテンプレートとそのテンプレートを利用する条件を用意し,戦評を自動生成する手法を提案している.テンプレート型文生成手法では,文法的に正確な文が生成できるといった利点があるが,テンプレートを事前に用意することはコストが大きいといった欠点がある.そこで,本研究ではこの欠点を補うためにテンプレートを自動で生成する文生成手法を提案する.また,近年では深層学習の発展により,機械翻訳\cite{cho2014,Luong2015}やヘッドライン生成\cite{Rush2015}など文生成分野における様々なタスクでEncoder-Decoderモデルを利用した多くの研究成果が報告されている.本研究では,テンプレート型生成手法に加え,Encoder-Decoderモデルを利用した要約文生成手法も提案する.本研究の目的は,読み手が試合の状況を理解しやすい要約文を生成するため,要約文にGPを組み込むことである.そこで,入力データが与えられたときに,GPを含む戦評を出力するように大量の入出力の組を用いてEncoder-Decoderを学習させることが考えられる.しかし,戦評は試合終了後にしか更新されないため,1試合に1つの戦評しか手に入れることができず,大量の学習データを用意することが困難である.この問題を緩和するため,Encoder-Decoderモデルと転移学習を組み合わせたモデルを提案する.本研究では,テンプレート型生成手法(\ref{sec:template_method}章),Encoder-Decoderモデルを利用した手法(以降,ニューラル型生成手法)(\ref{sec:neural_method}章)の2つを提案し,生成された要約文を比較,考察する.本論文の主な貢献は以下の4つである.\begin{itemize}\item野球のイニング要約タスクについて,テンプレート型生成手法とニューラル型生成手法を提案する.\itemテンプレート型手法では,テンプレートを自動獲得する手法を導入する.\itemニューラル型手法では,転移学習を利用し,戦評のデータ数が十分ではないという問題点を緩和する.\itemGPを含まないシンプルな文とGPを含む文の2種類の要約文の生成を提案し,その有効性を検証する.\end{itemize} \section{関連研究} \label{sec:related_work}スポーツを題材とし,要約文を自動で生成する研究は試合のスタッツや選手の成績などのデータを入力とした研究\cite{murakami2016,Robin1994}やマイクロブログ,テキストコメンタリーに投稿されるテキストを入力とした研究\cite{Nichols2012,Takamura2011,Sharifi2010,Kubo2013,Tagawa2016,Jianmin2016},テキスト速報などのニュース記事を入力とした研究\cite{Allen2010,Oh2008,iwanaga2016}など盛んに行われている.特に,マイクロブログの普及とともにTwitterを対象としたサッカーの要約生成の研究\linebreak\cite{Takamura2011,Nichols2012,Kubo2013}が盛んに取り組まれている.Twitterを対象とした要約生成の研究の多くは抽出型要約手法を用いている.抽出型要約手法では文やtweetを抽出単位とするため,ある程度の文法性が担保されるといった利点があり,口語表現,表記ゆれ,誤字脱字といった言語現象が多く見られるマイクロブログにおいて有効である.そのため,マイクロブログを対象とした要約生成の研究では抽出型要約手法が主流となっている.しかし,抽出した文やtweetの一部のみが重要な情報を含み,他の部分が冗長な要素である場合が考えられる.この場合,要約文中に要約に必要な要素と冗長な要素が混在するといった問題がある.このような問題点に対して,TagawaandShimada\cite{Tagawa2016}は,生成型要約手法でTwitterを対象としたサッカーの要約生成に取り組んでいる.Sharifiら\cite{Sharifi2010}は,Twitterを対象としたスポーツの試合や政治,事件などのイベントに対する要約を生成型要約手法により生成している.より柔軟に要約を生成するためには,生成型の要約手法の実現が不可欠である.また,生成型の要約手法などに代表される文生成の研究において,生成する動詞の選択に着目した研究にSmileyら\cite{Smiley2016}の研究がある.Smileyらはニュース記事において,``rocketedup19percent''や``movedup2percent''のように``percent''の直前の数値によって“上昇する”や“下降する”という同じ意味を持つ単語であっても単語の表層が変化していることに着目している.また,``increase''や``decrease''のような一般的な動詞を利用するだけでなく,パーセントの直前の数値などに代表されるような度合いの強さを動詞を選択する際に組み込むことができれば,より自然に聞こえるテキストを生成することができると報告している.Smileyらは,ReutersNewsAgencyのニュース記事1400万記事を分析し,``percent''の直前の数値が大きい場合には``skyrocket''や``rocket''という表現が利用され,\%の直前の数値が小さい場合には``edgeup''や``nudgeup''という表現が利用されることを報告している.また,``Netprofitsdropped2\%''と``Netprofitsplummeted2\%''のような動詞のみが異なる2つの文に対して,どちらがもう片方より自然に聞こえるかを被験者が選択する実験を行っている.この例では,``dropped''は2\%の直前に出現しやすい動詞であり,``plummeted''は2\%の前に出現しにくい動詞となっている.実験の結果,2000問の質問のうち,1372問が直前に出現しやすい動詞を含む文が自然に聞こえるテキストとして選択される結果となり,チャンスレートである50\%を有意に上回る結果となったことを示している.Smileyらの研究を加味すると,本研究においても先制したイニングでは“先制”という一般的な単語のみを利用するだけでなく,“試合の均衡を破る”や“幸先良く先制する”のようなフレーズを利用することで,先制となった得点の重要度をユーザに伝えることができると考えられる.また,“0-0のまま迎えた”というフレーズが要約文に組み込まれていると,ユーザは試合が膠着し,緊迫しているという状況をユーザは知ることができる.一方,“タイムリーヒット”という単語は得点が入ったという事実以上の意味は含まれておらず,GPには含まれない.本研究ではこのような試合の状況を伝えることのできるフレーズをGPと定義し,要約文に組み込む.本研究と同じく,野球を対象とした研究\cite{murakami2016,Oh2008,Allen2010}も盛んに取り組まれている.OhandShrobe\cite{Oh2008}は,野球に関するニュース記事からホームチーム視点の記事とアウェイチーム視点の試合の記事の生成に取り組んでいる.同様に,Allenら\cite{Allen2010}は,野球に関する様々なデータから新聞記者が書いたような試合の記事の生成に取り組んでいる.AllenらやOhandShrobeらの研究は,試合全体に関する記事を作成することを目的としており,生成される文は比較的長く,本研究とは目的が異なる.村上ら\cite{murakami2016}は,表\ref{tb:inning_report}のようなイニング速報を自動で生成している.村上らは,速報中のそれ以上細かく分割できない一連の事象のことをイベントと定義し,イニング速報の自動生成を打者成績の系列からイベントの系列を予測する系列ラベリング問題として扱っている.具体的には,イベント文中の打者名やアウト数をスロット化し,イベントテンプレートを作成する.そして,打者成績系列とイベントテンプレート系列を学習することで,未知の打者成績系列に対してイベントテンプレートを予測し,イニング速報を自動生成している.村上らの目的はイニング速報を再現することが目的であり,本研究と目的が異なる.また,GPを要約文に組み込むことが野球を対象としたこれらの研究と本研究との違いである.スポーツ以外を対象とした文生成の研究にMcRoyら\cite{mcroy2000}の研究がある.McRoyらは,has-property(John,age,20)のような形式から,``John'sageis20.''のような文を生成するシステムを開発している.具体的には,事前に定義された文をそのまま返すルール(TheStringrule)や事前に定義されたテンプレートのスロットを埋めた文を返すルール(TheTemplaterule)などの10のルールを用意している.しかし,人手でテンプレートを用意するのはコストのかかる作業であり,現実的であるとはいい難い.そこで,本研究では,既にWeb上に大量に存在するイニング速報からテンプレートを自動生成する手法を提案する.また,近年では機械翻訳\cite{cho2014,Luong2015},ヘッドライン生成\cite{Rush2015},キャプション生成\cite{Vinyals2015,Xu2015},対話応答生成\cite{Li-J2016,sato2017},要約生成\cite{chopra2016}など多くの系列変換タスクでEncoder-Decoderモデルを利用した研究成果が報告されている.特に,系列変換タスクの近年の傾向として,出力系列を所望する出力に制御,変化させる研究が盛んに取り組まれている.出力系列を所望する出力に制御する手法として,Decode時の各タイムステップに追加的な情報を付与する方法が多くの研究\cite{Li-J2016,kikuchi2016,Murakami2017,murakami2017b}に応用されている.Liら\cite{Li-J2016}は,不特定多数の対話データから学習された応答生成モデルが,たとえば,“出身はどこですか?”という発話に対しては,“東京です.”と応答し,“どこの出身ですか?”という発話に対しては“福岡です.”と応答するといったように応答に一貫性がないことを問題とした.この問題に対して,個人の属性を表すベクトルをDecoderに追加的に入力することで,個人の背景などの特徴を捉えた一貫性のある応答生成に成功している.Kikuchiら\cite{kikuchi2016}は,Encoder-Decoderモデルを用いた要約生成において,出力系列の長さを制御するための探索ベースの手法や学習ベースの手法の4つの手法を提案している.学習ベースの手法のうちの1つは,出力すべき長さを表す長さ埋め込みベクトルをDecoderへ追加的に入力する手法であり,要約精度を落とすことなく,出力系列の長さを制御する機能を獲得できたと報告している.Murakamiら\cite{Murakami2017}は,日経平均株価の1日分のデータと7営業日分の終値のデータから概況テキストの自動生成に取り組んでいる.特に,時間帯に関する“前引け”や“大引け”などの表現を正しく出力するため,概況テキストが配信される時間帯を表すベクトルをDecoderに追加的に入力している.その結果,入力しないモデルに比べ,時間帯に関する表現を正しく出力することに成功したと報告している.村上ら\cite{murakami2017b}は,気圧や気温,風向きなどの予測値が格納された数値予報マップから天気予報コメントの自動生成に取り組んでいる.村上らも同じく,Decode時に天気予報コメント配信時の日時や季節などのメタ情報を追加的に入力することで,“今日”,“明日”などの時間帯に関する表現や,“春の陽気”のような季節特有の表現を正しく出力できるようになり,単語の一致率を基にした評価指標であるBLEU値が向上したと報告している.本研究においても,表\ref{tb:pbp}の打席に関するデータ以外の時間情報などのイニング情報を考慮することで,GPの制御を試みる.Decode時の各タイムステップに追加的な情報を入力する手法以外には,入力系列に特定のトークンを付与することで出力を制御を試みる研究\cite{sennrich2016,yamagishi2016}がある.Sennrichら\cite{sennrich2016}は,英独機械翻訳において,出力であるドイツ語側の敬意表現の制御に取り組んでいる.入力である英文に出力であるドイツ文の敬意表現の有無を単語として組み込んだコーパスで学習し,テスト時にも敬意表現を入力文に付与することで付与した情報を考慮した翻訳文を出力することができ,参照訳と同じ敬意表現を入力文に付与した場合,BLEU値が向上することを報告している.同じく,Yamagishiら\cite{yamagishi2016}は,Sennrichらの手法を基に,日英翻訳での出力文の態制御に取り組んでいる.出力である英文の態情報を入力である日本語文に態情報として組み込んだコーパスで学習し,テスト時にも態情報を入力である日本語文に付与することで,付与した情報を考慮した態表現を持つ翻訳文を出力することができ,参照訳と同じ態表現を入力文に付与した場合,BLEU値が向上することを報告している.本研究では,提案手法と入力系列に特定のトークンを付与する手法(\textbf{SideConstraints})を比較し,出力結果の考察を行う.また,上述した研究は大規模な学習データを用いてモデルを学習している.一方,十分なデータ量とデータの質が確保できない場合において,本来の解きたい問題と関連する別のデータで事前に学習を行い,事前の学習で得られた学習結果を本来の解きたい問題に再利用することでモデルの精度向上を図る手法に転移学習がある.転移学習は,固有表現抽出\cite{arnold2007}やレビューの極性分類\cite{blitzer2007},機械翻訳\cite{koehn2007,zoph2016}など様々なタスクで有効性が報告されている.赤間ら\cite{akama2017}は,対話応答生成において,発話者のキャラクタを印象付ける応答生成に取り組んでいる.Twitterから抽出した大規模な対話データで事前学習した後,特定の話者による応答からなる小規模な対話データで転移学習することで,人手によるルールなどを必要とせずに,入力された発話に対する応答の適切さを保ちつつ,特定の話者の発話スタイルを応答に付与することに成功している.本研究では,入力データが与えられたときに,GPを含む戦評を出力するように大量の入出力の組を用いてEncoder-Decoderを学習させることが考えられる.しかし,GPを含む戦評は試合終了後にしか更新されないため,1試合に1つの戦評しか手に入れることができず,大量の学習データを用意することが困難である.この問題を解決するため,Encoder-Decoderモデルと転移学習を組み合わせたモデルを提案する.これまで述べてきたように,Encoder-Decoderモデルを利用した手法では,メタ情報や転移学習などによって,出力系列を所望する出力に制御,変化させる研究が盛んに取り組まれている.一方で,本研究で扱うスポーツ要約生成において,出力を制御,変化させるといった研究は明示的に取り組まれていない. \section{テンプレート型生成手法} \label{sec:template_method}テンプレート型生成手法では,イニング中の全打席ではなく,注目すべき打席に焦点をあてた要約文を生成する.まず,要約文として生成すべき注目打席を選択する.今回は2打席を注目打席として選択する.次に,テンプレートを自動で生成し,要約文を生成する.また,生成されたテンプレートにGPを融合することで,ユーザが試合の状況を理解しやすい要約文を生成する.\subsection{打席の選択}\label{sec:atbat_selection}各打席ごとにスコアリングし,スコア上位2打席を要約文として生成する.スコアリングには以下の式を用いる.\begin{equation}\label{eq:scoring}Score_{atbat}=S+R\end{equation}(\ref{eq:scoring})式は打席ごとに算出されるスコアであり,$S$と$R$の和である.$S$はその打席で得点した得点数である.$R$はホームランやタイムリーヒットなどの重要なイベントに対しては高く,フライや三振などのイベントに対しては低くなるように設計されたスコアである.$R$スコアを表\ref{tb:action_score}に示す.たとえば,表\ref{tb:pbp2}のイニングでは,陽と杉谷の打席が要約すべき打席として選択される.\begin{table}[t]\caption{Rスコア}\label{tb:action_score}\input{02table04.tex}\end{table}\begin{table}[t]\caption{2016年8月3日日本ハム対ロッテ戦5回表のPlay-by-playデータと各打席の$Score_{atbat}$}\label{tb:pbp2}\input{02table05.tex}\end{table}\subsection{テンプレートの自動生成}本研究では類似したデータを持つ打席同士は,その打席を説明する文の構造も類似していると考える.表\ref{tb:sim_pbp}は表\ref{tb:pbp2}とは別の試合のイニングで\ref{sec:atbat_selection}節の(\ref{eq:scoring})式のスコアリングにより選択された2打席のデータである.表\ref{tb:pbp2}の陽と杉谷のデータと表\ref{tb:sim_pbp}の茂木と銀二のデータを比較すると類似していることがわかる.ここで表\ref{tb:sim_pbp}に対応するイニング速報(表\ref{tb:sim_inning_report})に着目する.提案手法では,この表\ref{tb:sim_inning_report}のイニング速報中の類似打席(茂木選手と銀次選手)に関するデータを注目打席のデータに置き換え,類似打席以外の打席に関する部分は文圧縮処理により削除することで,文法的に正確な注目打席を説明する文を生成することができると考える.また,イニング速報は人手で書かれているため,文法的に正確なテンプレートを生成することができる.このような考え方に基づき,注目打席と類似したデータを持つ類似イニングを検出し,テンプレートを自動生成する.\begin{table}[t]\caption{2016年8月7日西武対楽天7回裏のPlay-by-playデータ}\label{tb:sim_pbp}\input{02table06.tex}\end{table}\begin{table}[t]\caption{2016年8月7日西武対楽天7回裏のイニング速報}\label{tb:sim_inning_report}\input{02table07.tex}\end{table}\subsubsection{類似イニング検出}類似イニングを検出する際には,注目打席とその他のイニングの注目打席の間でデータの類似度を計算し,最も類似度の高いものを類似イニングとする.一致率は表\ref{tb:pbp2}に示す打者名以外の5つの項目を用いて計算する.ただし,打席結果の一致は絶対条件とし,打席結果の異なる打席の一致率は0とする.また,打席結果は実際のPlay-by-playデータには含まれていないが,試合開始時から該当するイニングまでの得点数から求めることができるため,その情報を利用する.打席間の類似度は以下の式で計算される.\begin{equation}sim(T,A)=\frac{\sum_{n=1}^{2}\sum_{i=1}^{5}co(T_n^i,A_n^i)}{5}\end{equation}$A$は入力である要約したいイニング中の注目打席群であり,$A_n$は$n$番目の注目打席を指す.$T$は入力のイニング以外のイニングの注目打席群であり,$T_n$は$n$番目の注目打席である.$A_n^1\simA_n^5$,$T_n^1\simT_n^5$はそれぞれの打席のイベント前のアウト数,イベント前の出塁状況,イベント後の出塁状況,イベント,打席結果の5つの項目を表し,$co(T_n^i,A_n^i)$は項目が一致しているときは1,一致しないときは0となる.たとえば,表\ref{tb:pbp2}の陽の打席と表\ref{tb:sim_pbp}の茂木の打席は全ての項目が一致している.よって類似度は$\frac{5}{5}=1.0$となる.同様に,表\ref{tb:pbp2}の杉谷の打席と表\ref{tb:sim_pbp}の銀次の打席は類似度が$\frac{2}{5}=0.4$(イベントと打席結果が一致)となり,最終的に表\ref{tb:pbp2}と表\ref{tb:sim_pbp}のイニング間の類似度は1.0と0.4の和である1.4となる.\subsubsection{文圧縮処理}\label{sec:compression}次に,類似イニングのイニング速報中の類似打席に関する部分はスロット化,それ以外は文圧縮処理により削除することでテンプレートを生成する.まず,文圧縮処理の前処理として文分割を行う.類似イニングのイニング速報を動詞の連用形,句読点,並立助詞,接続助詞で分割する.ただし,分割点の直前が野球専門語の場合は分割しない.野球専門語はイニング速報から人手で97語を用意した.野球専門語の例を表\ref{tb:baseball_word_list}に示す.\begin{table}[b]\caption{野球専門用語の例}\label{tb:baseball_word_list}\input{02table08.tex}\end{table}次に文圧縮処理を行う.表\ref{tb:flow}に文圧縮処理から文生成までの手順を示す.表\ref{tb:flow}のイニング速報は既に直前の文分割処理により分割されており,斜線(/)は分割点を表す.表\ref{tb:flow}の“先頭聖澤の二塁打”の直後に分割点である読点が出現しているが,読点の直前の“二塁打”という単語が野球専門語であるため,分割しない.分割された文のうち,選手名を含む分割文が文圧縮の対象となり,類似打席以外の打席に関するイベントを文圧縮処理により削除する.表\ref{tb:flow}の“この回計4点で攻撃終了。”という分割文は選手名を含んでいないため,文圧縮処理の対象とならず,その他の分割文は文圧縮の対象となる.文圧縮では以下の2つの処理を順に行う.\begin{table}[t]\caption{文圧縮から文生成までの手順}\label{tb:flow}\input{02table09.tex}\end{table}\begin{description}\item[文圧縮1]\類似打席以外の選手名からその選手の野球専門語までを削除する.またアウト数や投手の情報,試合に依存する“\#Num号”や選手名の直前の“先頭”や“代打”などの表現も削除する.\item[文圧縮2]\選手名を含んでいない分割文は文ごと削除する.\end{description}たとえば,文圧縮1の処理では表\ref{tb:flow}に示すように,“先頭聖澤の二塁打”や“野田が登板”といった下線が引かれている部分を削除する.文圧縮2の処理においても同様に下線が引かれている部分を削除する.文圧縮処理の後,選手名や野球専門語などをスロットとし,テンプレートを生成する.選手名は入力であるPlay-by-playデータ中の選手名とのマッチングによりスロット化を行う.同じく野球専門語は野球専門語リストとのマッチングによりスロットとする.また,得点数などの数値表現のスロット化を行う際は,事前に数値表現は全て``\#Num'7に置き換えた上でスロット化を行う.まず,“回\#Num点”,“計\#Num点”,“\#Num点で攻撃終了”,“\#Num点で試合終了”のいずれかに当てはまる場合に``\#Num''の部分を``[ALLSCORE]''に置き換える.``[ALLSCORE]''で置き換えた後に,``[NAME1]''に最も近く,``[NAME1]''より後に出現する``\#Num''を``[SCORE1]''へ置き換える.同様に,``[NAME2]''に最も近く,``[NAME2]''より後に出現する``\#Num''を``[SCORE2]''へ置き換える.このように,テンプレートを生成する際のスロット化の処理において人手による処理は介入していない.最後に,スロットに注目打席のデータを補完することで,文を生成する.\subsubsection{Game-changingPhrase(GP)の融合}\label{sec:gp_fusion}生成されたテンプレートにGame-changingPhrase(GP)を融合することでユーザが試合の状況を理解しやすい要約文を生成する.GPは戦評から自動で獲得する.表\ref{tb:game_report}の戦評の例では,“0-0のまま迎えた”のようにイニングを修飾するGP(InningPhrase;GP{\tinyIP})と“待望の先制点を挙げる”のようにイニング結果を表現するGP(ResultPhrase;GP{\tinyRP})が含まれている.他には,“走者一掃の”のように打撃内容を修飾するGP(ActionPhrase;GP{\tinyAP})が戦評では使用されている.本研究では,GP{\tinyIP},GP{\tinyRP},GP{\tinyAP}の3種類のGPを定義し,これらを戦評からパターンマッチにより獲得する.\begin{table}[b]\caption{獲得されたGPとルールの例}\label{tb:gp_and_rules}\input{02table10.tex}\end{table}GP{\tinyIP}はチーム名を含む文節とイニング数の間に出現するものを獲得する.GP{\tinyAP}は打者名を含む文節と打撃内容の間に出現するものを獲得する.GP{\tinyRP}は戦評に言及されている最後の選手の野球専門語を含む文節以降から文末の間に出現するものを獲得する.次に,獲得されたGPに対して,ルールを作成する.たとえば,“試合を振り出しに戻す”というGP{\tinyRP}が使われている得点シーンは,全て“同点に追いついた6回以降”であることが確認できた.このように,各GPに対して,イニング数やイニング結果などからルールを作成する.獲得されたGPとそのルールの例を表\ref{tb:gp_and_rules}に示す.パターンマッチにより,GP{\tinyIP},GP{\tinyAP},GP{\tinyRP}はそれぞれ8,3,11種類を獲得した.また,それらに対するルールは表\ref{tb:gp_and_rules}に示している得点数,イニング数,出塁状況,イニング結果,イベント,打者数,得点差の7つの項目から構成されている.同時に複数の項目を満たす場合は項目が多いGPを優先的に選択する.たとえば,「3点以上,9回,満塁,同点,ホームランまたは適時打」の場合,“値千金の”と“走者一掃の”の2つのGPのルールを満たす.この場合,“値千金の”というGPは得点数,イニング数,イニング結果,イベントの4つの項目を満たす必要があり,“走者一掃の”というGPは得点数,出塁状況,イベントの3つの項目を満たす必要があるため,項目が多い“値千金の”を選択する.また,同じルールのGPはランダムに選択する.たとえば,“試合の均衡を破る”と“待望の先制点を挙げる”は同じルールであるため,どちらかをランダムで選択する.そして,\ref{sec:atbat_selection}節で選択された注目打席のデータが作成したルールにマッチする場合,テンプレートに対して,該当するGPを融合する.GP{\tinyIP}とGP{\tinyAP}は,獲得した際に用いたルールを逆に適用し,融合する.要するに,GP{\tinyIP}はチーム名と回数の間に,GP{\tinyAP}は打者名と打撃内容の間に挿入する.GP{\tinyRP}は図\ref{fig:gp_fusion}に示す手順で融合する.最後にテンプレート中のスロットにデータを補完することで,最終的な文を生成する.\begin{figure}[t]\begin{center}\includegraphics{25-4ia2f1.eps}\end{center}\caption{テンプレートとGP{\tinyRP}の融合手順}\label{fig:gp_fusion}\end{figure} \section{ニューラル型生成手法} \label{sec:neural_method}本研究では,時系列順の打席データから単語系列を生成する系列変換タスクとして考え,Encoder-Decoderモデルの一つであるSequence-to-Sequenceモデル\cite{Sutskever2014}を用いてイニング要約文を生成する.このモデルはEncoder,DecoderともにReccurentNeuralNetwork(RNN)の枠組みを用いている.EncoderのRNNは入力系列$(x_1,\ldots,x_N)$が与えられると時刻$t$において,以下の式で隠れ層$h_t$の状態を更新する.\begin{equation}h_t=g(h_{t-1},x_t)\end{equation}ここで,$g$は任意の活性化関数を表しており,従来のRNNでは学習が困難であった長期系列を扱えるようにするため,Long-ShortTermMemory(LSTM)\cite{Hochreiter1997}が使われることが多く,本研究においてもEncoderのRNNにLSTMを利用する.DecoderはEncoderのRNNによって入力系列全てをエンコードすることで得られた内部状態を利用し,EncoderのRNNとは別のRNNにより系列を一つずつ出力していく.本研究では,DecoderのRNNにおいてもLSTMを利用する.Decoderは,入力系列$x=(x_1,\ldots,x_N)$から出力系列$y=(y_1,\ldots,y_M)$を出力する条件付確率$p(y|x)$を以下の式で計算する.\begin{equation}p(y|x)=\prod_{t=1}^Mp(y_t|v,y_1,\ldots,y_{t-1})\end{equation}$v$は,全ての入力系列をエンコードすることで得られた内部状態であり,EncoderのLSTMの最終的な隠れ層である.また,DecoderのLSTMが出力系列のうちの1つ目の要素$y_1$を出力する時,$y_0$にあたる要素は存在しないため,\textless{}s\textgreater{}という文頭を表すトークンの単語ベクトルを入力する.\begin{figure}[b]\begin{center}\includegraphics{25-4ia2f2.eps}\end{center}\caption{提案手法のモデル図}\label{fig:model}\end{figure}提案手法のモデルを図\ref{fig:model}に示す.本研究の目的の一つは,読み手が試合の状況を理解しやすい要約文を生成するため,要約文にGPを組み込むことである.そこで,入力データが与えられたときに,GPを含む戦評を出力するようにEncoder-Decoderを学習させることが考えられる.一般に,Encoder-Decoderモデルの学習には大量の学習データが必要とされている.しかし,戦評は試合終了後にしか更新されないため,1試合に1つの戦評しか手に入れることができず,大量の学習データを用意することが困難である.この問題を解決するため,本研究では,Encoder-Decoderモデルと転移学習を組み合わせたモデルを提案する.\subsection{Play-by-playデータから打席ベクトルへの変換}表\ref{tb:pbp}に示すような表形式のPlay-by-playデータから打席ベクトルを作成する.具体的には,アウト数,出塁状況,打撃内容,打順,代打か否か,先頭か否か,その打席での得点数毎にOne-hotベクトルを作成し,全てを結合したベクトルを打席ベクトルとする.\subsection{イニング情報の考慮}Liら\cite{Li-J2016}の研究ではDecoderの隠れ状態に個人の人格情報を,Murakamiら\cite{Murakami2017}の研究では,Decoderの隠れ状態に時間帯などのメタ情報を付与することで,出力単語系列が変化することを報告している.また,Kikuchiら\cite{kikuchi2016}は,要約生成タスクにおいて,出力すべき残りの長さを表す長さ埋め込みベクトルをDecoderのLSTMへ追加的に入力することで,出力系列の長さを制御する機能を獲得できたと報告している.本研究ではこれらの知見に基づき,Play-by-playデータ以外のイニングの情報を表すイニング情報ベクトルを作成し,そのベクトルをDecoderのLSTMへ追加的に入力することでGPを制御する.“待望の先制点を挙げる”というGPには“待望の”という時間帯に言及した表現や,“\#Num点を追う”というGPには“追う”という得点差に言及した表現が含まれている.このようなGPを制御するためには,1回や2回などの時間帯を表す情報やリードやビハインドなどの得点差を表す情報が必要であると考えられる.そこで,時間帯の情報$Time$(e.g.,1回,2回,...),得点差の情報$CurrentScore$(e.g.,リード,ビハインド,同点),イニング結果の情報$Event$(e.g.,先制,同点,勝ち越し),イニングでの総得点の情報$TotalScore$,打者が一巡したか否かの情報$BatterAround$ごとにOne-hotベクトルを作成し,全てを結合したベクトルをイニング情報ベクトルとする.イニングでの総得点を表すベクトルの次元数は学習データ中のイニングでの最大得点数と同じ数とする.イニング情報ベクトルは図\ref{fig:model}に示すように,毎ステップDecoderのLSTMへ追加的に入力する.\subsection{事前学習}事前学習として打席ベクトルとGPが含まれていないイニング速報を用いて打席説明文生成モデルを学習する.事前学習に用いるデータとしてイニング速報中の打席に言及している文のみを利用し,投手に関する“先発”や“登板”といった単語を含む文,“三者凡退”のような選手名を含んでいない文は利用しない.また,“盗塁”や“捕逸”など打席以外に言及している文も利用しない.具体的には,表\ref{tb:inning_report}のイニング速報では1,4,8,9文目は打席に言及していない文であり,3文目は“盗塁”に言及しているため,2,5,6,7文目を学習データに用いる.たとえば,2文目は,中村,今宮,長谷川,本多の4打席に言及しているため,この4打席の打席ベクトル系列を入力したとき,2文目を生成するようにEncoder,DecoderのLSTMを学習する.このように学習することで,可変長の入力系列に対して,入力された情報を網羅した打席説明文を出力するモデルを学習することができる.\subsection{転移学習}\label{sec:transfer}事前学習では可変長の打席系列の入力に対して,打席を説明する文を生成するようにEncoder,DecoderのLSTMを学習した.転移学習では,事前学習で学習したモデルパラメータを転移学習のモデルパラメータの初期値として用いる.転移学習では,可変長の打席系列の入力に対して,GPを含む打席説明文を生成するようにEncoder,DecoderのLSTMを学習する.一般的に,Encoder-Decoderモデルが出力する系列の長さは学習データの統計値に依存することが知られている\cite{kikuchi2016}.転移学習で学習に用いる戦評は,表\ref{tb:game_report}の例のように,1打席にのみ言及したものが多く,比較的短い文であり,実際に我々が収集した戦評のうち,約8割が1打席にのみ言及したものであった.一方,事前学習で学習に用いるイニング速報は,1打席に言及したものは約36\%,2打席に言及したものは約33\%,3打席に言及したものは約23\%と一文に言及されている打席数は戦評に比べて均一な分布となっている.そのため,事前学習で可変長の打席系列の入力に対して,打席を説明する文を生成するようにEncoder,DecoderのLSTMを学習したにも関わらず,戦評を生成するように転移学習すると,入力打席系列の情報を網羅的に説明する文を生成することが困難となる.そこで,転移学習用の新たな学習データを作成する.新たな学習データを作成する際のルールを以下に示す.\begin{itemize}\item戦評に言及されている打席が1打席のみ\itemイニング速報中の各文において,最後に言及されている打席と戦評に言及されている打席が同じ打席である文が存在する\item上の2つのルールを満たす場合に,イニング速報中の該当文の最後の打席の選手名以前のテキストを抽出する\item抽出したテキストを戦評に言及されている選手名の直前に挿入する\end{itemize}たとえば,戦評(表\ref{tb:game_report})に言及されている打席は本多選手の1打席のみであり,イニング速報(表\ref{tb:inning_report})の2文目の最後に言及されている打席と戦評の最後に言及されている打席は本多選手の打席であり共通している.このような場合,戦評の“本多”という選手名の直前にイニング速報中の2文目の“本多”という選手名以前の“先頭中村晃の安打、今宮の犠打、代打長谷川の四球などで2死二三塁とすると、”というテキストを挿入する.この操作によって,“ソフトバンクは0-0のまま迎えた延長10回表、先頭中村晃の安打、今宮の犠打、代打長谷川の四球などで2死二三塁とすると、本多の2点適時打で待望の先制点を挙げる。”といった複数の打席に言及し,かつGPを含む学習データを作成することができる.また,戦評にはGP$_{RP}$が必ず含まれているとは限らず,たとえば,“1回に先制”したイニングの戦評では“幸先良く先制する”を含むものは61件,“幸先良く先制する”を含まず,“先制”という単語のみを含むものは245件であった.このような分布のデータでモデルを学習すると,“1回に先制”したデータに対して“幸先良く先制”というGP$_{RP}$を生成しにくいモデルが学習されると考えられる.そこで,各イニング結果\footnote{先制,勝ち越し,逆転,同点,追加点}の各イニング数\footnote{1回から12回まで}ごとにGP$_{RP}$を含むものから最大20件\footnote{経験的に20を選択した.}を選択するように転移学習用データをサンプリングする.サンプリングする際は上述したイニング速報と戦評から作成したデータと元の2打席以上に言及している戦評からサンプリングする.\vspace{-0.5\Cvs} \section{実験} \label{sec:exp}提案したテンプレート型生成手法とニューラル型生成手法の2つを用いて要約文を生成し,比較,考察を行う.提案手法の入力であるPlay-by-playデータは2016年3月25日から2017年6月2日までの期間に行われたNPBの試合のデータを週間ベースボールONLINE\footnote{http://sp.baseball.findfriends.jp/}から収集した.イニング速報も同様の期間に行われたNPBの試合に関するものをエキサイトベースボール\footnote{http://www.tbs.co.jp/baseball/top/main.html}から収集した.戦評は2016年3月25日から2017年5月14日までの期間に行われたNPBの試合の戦評をYahoo!SportsNavi\footnote{https://sports.yahoo.co.jp/}から収集した.また,テストデータとしてMLBのPlay-by-playデータを収集した\footnote{手法の頑健性を検証するため,学習データとは異なるソースからなるデータをテストデータとして利用した.}.MLBのPlay-by-playデータはBASEBALLREFERENCE\footnote{https://www.baseball-reference.com/}から2016年度のデータを収集した.収集したデータの統計を表\ref{tb:data_statistics}に示す.イニング速報と戦評は,出塁状況,アウト数,選手名,得点数を事前にスロット化したものを利用した.形態素解析器にはMeCab\footnote{http://taku910.github.io/mecab/}を利用した.生成された要約文が入力されたデータを正確に表現できているかを確かめるため,事実性という観点から評価する.また,提案した2つの手法は生成型文生成手法であり,文法性は担保されない.そこで,提案手法によって生成された要約文を可読性という観点からも評価する.可読性の評価指標を表\ref{tb:readability_criterion}に示す.\newpage\subsection{テンプレート型生成手法の評価}提案したテンプレート型生成手法を用いて,イニングの要約文を生成した.要約文を生成する際には.収集したMLBのPlay-by-playデータからランダムに100イニング選択し,生成された100文に対して,入力データと生成したデータに矛盾がないかを確かめ,事実性を評価した.また,本研究には関わっていない4人の被験者\footnote{野球に対する最低限のルールを認知している被験者を選択した.}により,生成された100の要約を3段階で可読性を評価した.事実性と可読性の評価結果を表\ref{tb:temp_eval_result}に示す.事実性の各行は,テストデータ100件から生成された文のうち,入力されたイベントが正しく説明されていた文の数を記している.また,可読性の値は3段階評価の平均値を記している.\begin{table}[b]\caption{収集したデータの統計量}\label{tb:data_statistics}\input{02table11.tex}\end{table}\begin{table}[b]\caption{可読性の評価基準}\label{tb:readability_criterion}\input{02table12.tex}\end{table}\begin{table}[b]\caption{テンプレート型生成手法の評価結果}\label{tb:temp_eval_result}\input{02table13.tex}\end{table}評価結果からテンプレート型生成手法によって生成された要約文は事実性,可読性ともに高い評価を得ていることが確認できた.テンプレート型生成手法により生成された文の例を表\ref{tb:ex_temp_gen}に示す.これらは事実性,可読性ともに最も良い評価を受けた生成文である.テンプレート型生成手法は,人手で書かれたイニング速報からテンプレートを自動生成しているため,文法的にも正確であり,読みやすい要約文を生成することができた.また,GP融合前とGP融合後の要約文の事実性,可読性の評価結果を比較すると,大きな変化はなく,図\ref{fig:gp_fusion}に示した手順で適切にGPを融合することができたといえる.\begin{table}[t]\caption{テンプレート型生成手法によって生成された要約文の例}\label{tb:ex_temp_gen}\input{02table14.tex}\end{table}生成された文の評価結果は高い評価であったが,実際には事実でない文も100件中3件生成されており,その主な原因は文圧縮処理でのエラーであった.エラーを含む生成文の例を表\ref{tb:ex_temp_bad_gen}に示す.この例では,KrisBryant選手とWillsonContreras選手の2打席が注目打席として選択され,その2打席に対する類似打席として田中選手と丸選手の2打席が検出されている.その後,\ref{sec:compression}節で説明した文圧縮1の処理により,田中選手と丸選手以外に言及している“続く菊池が三振”が削除され,テンプレートが生成されている.しかし,“一塁走者田中が二塁を狙うもタッチアウト”という部分は田中選手に言及しているが,打席とは関係なく出塁した後に起きたイベントであるため,削除する必要があるが残ったままテンプレートが生成され,事実とは異なる文が生成されるエラーがあった.\begin{table}[t]\caption{テンプレート型生成手法によって生成されたエラーを含む要約文の例}\label{tb:ex_temp_bad_gen}\input{02table15.tex}\end{table}\subsection{ニューラル型生成手法の評価}\label{sec:neural_eval}実験データの詳細を表\ref{tb:neural_exp_detail}に示す.また,テンプレート型生成手法の評価と同様にMLBのPlay-by-playデータをテストデータとして利用した.語彙は事前学習用データ,転移学習用データをMeCabで形態素解析し,各形態素を1つの語彙とした.語彙埋め込みベクトルの次元数は128,打席ベクトルの次元数は48,イニング情報ベクトルの次元数は32とした.Encoder,Decoderの隠れ層の次元数は256とした.\begin{savenotes}\begin{table}[t]\caption{実験データの詳細}\label{tb:neural_exp_detail}\input{02table16.tex}\end{table}\end{savenotes}モデルパラメータの最適化手法にはAdam\cite{Kingma2015}($\alpha=0.001,\beta_1=0.9,\beta_2=0.999,\epsilon=10^{-8}$)を利用した.また,事前学習ではミニバッチを適用し,サイズは40とした.転移学習ではバッチサイズを1とした.事前学習,転移学習のepoch数はそれぞれ30,5とした.また,出力系列を生成する際には貪欲法(ビーム幅1)を用いた.これらのパラメータは1,400件の開発データから生成された要約文において,文の事実性やGPの制御性などの観点から主観的に判断し決定した.モデルの実装にはChainer\footnote{https://chainer.org/}を利用した.\begin{table}[b]\caption{ニューラル型生成手法の評価結果}\label{tb:neural_human_eval}\input{02table17.tex}\end{table}\begin{table}[b]\caption{ニューラル型生成手法によって生成された要約文の例}\label{tb:ex_neural_good_gen}\input{02table18.tex}\end{table}テンプレート型生成手法の入力打席系列は2打席であったが,ニューラル型生成手法は任意の入力打席系列に関して,要約文を生成するように学習した.そこで,入力打席系列が1打席,2打席,3打席の場合のデータをランダムに100件ずつ選択し,転移学習したモデルで生成された要約文を事実性,可読性の観点からテンプレート型生成手法と同じ方法で評価した.評価結果を表\ref{tb:neural_human_eval}に示す.ニューラル型生成手法により生成された文の例を表\ref{tb:ex_neural_good_gen}に示す.これらは事実性,可読性ともに最も良い評価を受けた生成文である.\begin{table}[b]\caption{ニューラル型生成手法によって生成されたエラーを含む要約文の例}\label{tb:ex_neural_bad_gen}\input{02table19.tex}\end{table}可読性の評価結果は,テンプレート型生成手法には劣るものの,概ね事前学習モデル,転移学習モデルともに高い評価を得ることができた.しかし,転移学習モデルにおける事実性の評価結果は事前学習モデルと比べて低い評価結果となった.事実でない文が生成されたエラーの分析を行ったところ,先頭\footnote{イニングで最初の打席を意味する.}でない選手名の直前に“先頭”という単語が生成されるエラーが起きていた.Encoderへの入力である打席ベクトルは,先頭か否かを表す情報を含んでいるにも関わらず,このような現象が観測された.表\ref{tb:neural_human_eval}に示した3つの打席系列を入力した場合の事前学習モデルにより生成された非事実文11文のうち3件,転移学習モデルが生成した非事実文27文のうち14件がこのエラーであった.このエラーを含む生成された文の例を表\ref{tb:ex_neural_bad_gen}に示す.表\ref{tb:ex_neural_bad_gen}のJacobyEllsbury選手は先頭の選手でないが,転移学習モデルは“先頭JacobyEllsbury”と生成している.転移学習モデルの学習データ中に“先頭”という単語が含まれているのは58件存在し,この58件のうち,入力打席系列が3打席のデータは51件であった.つまり,転移学習では,事前学習の知識を転用し,GPを生成するようにモデルを学習させたが,同時に,入力打席系列が3打席の場合,入力ベクトルに関係なく,“先頭”という単語を生成しやすいモデルが学習されたと考えられる.また,“連続タイムリー”のような言い回しで使われる“連続”という単語についても,実際には連続タイムリーではない場面で誤生成が見られた.実際に,“連続”という単語は転移学習に用いた学習データ中に65件含まれており,この65件のうち,50件が“player1とplayer2の連続タイムリー”のようなパターンで出現していた.そのため,上述した“先頭”を間違えて生成するエラーと同じように,``player2''という単語の後には,“連続”という単語を生成しやすい言語モデルを転移学習時に学習してしまい,連続でないにもかかわらず“連続”という単語を生成するエラーが見られた.このエラーは,転移学習モデルにおける入力打席系列が2打席の場合の非事実文32文のうち,24件を占めていた.テンプレート型生成手法では,GPごとに生成する基準を作成し,その基準にマッチしたイニングの要約文にGPを融合した.一方,ニューラル型生成手法では,イニング情報ベクトルをDecode時に追加的に入力することでモデルにGPを制御する機能を学習させた.そのため,表\ref{tb:gp_and_rules}に示したルールに該当するイニングで正確に該当するGPを生成できているかを各GP毎に正例と負例をそれぞれ100件ずつ用意し,F値で評価した.ここでいう正例,負例とは,GP毎に作成した基準にマッチするデータ,マッチしないデータのことである.たとえば,“幸先良く先制する”というGPの基準は“初回に先制”であり,正例は“初回に先制”したデータを指し,負例は“2回以降に先制”したデータを指す.F値の計算式を以下に示す.\begin{gather}F\mathchar`-measure=\frac{2\timesPrecision\timesRecall}{Precision+Recall}\\[1ex]Precision=\frac{TP}{TP+FP}\\[1ex]Recall=\frac{TP}{TP+FN}\end{gather}$TP$は正例データに対して,該当のGPを生成したデータ数,$FP$は負例データに対して該当のGPを生成したデータ数,$FN$は正例データに対して該当のGPを生成しなかったデータ数を指す.また,同じ基準のGPに対しては,どちらかのGPを生成しているか否かで評価した.たとえば,“試合の均衡を破る”と“待望の先制点を挙げる”というGPは同じ基準であるため,正例データに対してどちらかを生成できていれば,$TP$をカウント,負例データに対して,どちらかを生成していれば,$FP$をカウントした.加えて,GPの基準にマッチしないデータが入力として与えられたときに,GPを生成しないこともGPの制御においては重要である.そのため,F値に加えて,$Accuracy$を計算した.$Accuracy$の計算式を以下に示す.$TN$は負例データに対して該当のGPを生成しなかったデータ数である.\begin{equation}Accuracy=\frac{(TP+TN)}{200}\end{equation}また,評価する際は,以下の3つの手法と比較した.\begin{itemize}\item\textbf{Mix}\\このモデルは転移学習は行わず,事前学習と転移学習で利用したデータを混ぜて学習したモデルである.イニング情報ベクトルはDecode時に追加的に入力している.転移学習の有効性を検証するため,提案手法とこのモデルを比較する.\end{itemize}\begin{itemize}\item\textbf{NoInning}\\このモデルは転移学習は行うが,イニング情報ベクトルはDecode時に追加的に入力しないモデルである.イニング情報を考慮することの有効性を検証するため,提案手法とこのモデルを比較する.\end{itemize}\begin{itemize}\item\textbf{SideConstraints}\\\ref{sec:related_work}章で説明したように,Sennrichら\cite{sennrich2016}は,英独機械翻訳において,出力であるドイツ語側の敬意表現の制御に取り組んでいる.入力である英文の最後に``\verb|<|T\verb|>|''(敬意表現無し)や``\verb|<|V\verb|>|''(敬意表現有り)といった敬意表現の有無を表すトークンを付与したコーパスで学習し,テスト時にはユーザの所望する敬意表現トークンを入力文に付与することで付与した情報を考慮した翻訳文を出力することができたと報告している.また,Yamagishiら\cite{yamagishi2016}は,Sennrichらの手法を基に``\verb|<|Active\verb|>|''(能動態)と``\verb|<|Passive\verb|>|''(受動態)といったトークンを利用することで,出力文の態制御に取り組んでいる.このように,入力系列の最後に特定の出力を制御するためのトークンを付与するSideConstraintsは,本研究のGPの制御に対しても有効に働くと考えられる.Sennrichらの手法は,BahdanauらによるAttention機構\cite{bahdanau2014}とEncoderには入力系列を順方向に読み込むLSTMと逆方向に読み込むLSTMの2つのLSTM(Bi-DirectionalLSTM)を利用している.本モデルではSennrichらの手法を基に,入力打席系列の最後に``\verb|<|GP\verb|>|''(GPを付与する)と``\verb|<|NoGP\verb|>|''(GPを付与しない)の2つのトークンを利用し,GPの制御を試みる.学習データは出力文にGPが含まれている場合,つまり\ref{sec:transfer}節で新たに作成したデータを生成するように学習する場合,入力系列の最後に``\verb|<|GP\verb|>|''を付与した.出力文にGPが含まれていない場合,つまりイニング速報を生成するように学習する場合は,``\verb|<|NoGP\verb|>|''を付与した.この学習データを利用して,転移学習は行わず,事前学習と転移学習で利用したデータを混ぜてモデルを学習した.ただし,イニング情報ベクトルはDecode時に追加的に入力する.Sennrichらはトークンベクトルを単語ベクトルと同時学習しているが,今回は簡単化のため,``\verb|<|GP\verb|>|''を表すトークンベクトルは1で埋めた48次元のベクトル,``\verb|<|NoGP\verb|>|''を表すトークンベクトルは0で埋めた48次元のベクトルを使用した\footnote{トークンベクトルは入力系列である打席ベクトルと同じ次元数である.}.\end{itemize}\begin{table}[t]\caption{各手法によるF値とAccuracy値}\label{tb:f_measure}\input{02table20.tex}\vspace{4pt}{\small$\ast$は各行について太字で示した最高値と比較して,両側符号検定により,有意な差が確認できた値を示している.同様に,$\dagger$は各行について提案手法のF値と比較して,有意な差が確認できた値を示している.また,Bonferroniの補正により,検定総数$N$により補正された有意水準$\alpha=0.05/N$で検定を行った.\par}\end{table}F値による評価結果を表\ref{tb:f_measure}に示す.表\ref{tb:f_measure}中のNanはゼロ除算による定義不可能を示している.提案手法と\textbf{Mix},\textbf{NoInning}を比較すると,“試合を振り出しに戻す”というGPを除き,有意な差を確認することができた.また,F値の平均値を比較すると,提案手法の平均値が最も高く,転移学習,イニング情報の考慮ともに,GPの制御において有効に働いたと考えられる.一方で,\textbf{SideConstraints}は,“\#Num点リードで迎えた”や“\#Num点ビハインドで迎えた”などのイニングを修飾するGP{\tinyIP}(\ref{sec:gp_fusion}節参照)において高いF値を記録しているが,“幸先良く先制する”などのイニング結果を表現するGP{\tinyRP}においては低いF値となっている.\textbf{SideConstraints}は,GPを制御するトークンを打席系列の最後に入力するモデルであるため,Decoderの内部で行列演算が繰り返し行われるにつれて,トークンの影響が小さくなったと考えられる.実際に,各GPの学習データ中での出現位置$Position$を表\ref{tb:f_measure}に示している.この値は単語数で正規化されており,文頭に近いほど0,文末に近いほど1に近い値となる.表\ref{tb:f_measure}からGP{\tinyRP}は文末の近くで出現していることが確認でき,Decoder内部で行列演算が繰り返し行われた後,トークンの影響が小さくなった状態で生成されるため,制御することができずに低いF値となったと考えられる.一方,GP{\tinyIP}は文頭の近くで出現していることが確認でき,トークンの影響が大きい状態で生成されるため,高いF値となったと考えられる.また,今回はトークンベクトルに0埋め,1埋めベクトルを使用したが,Sennrichらと同様に学習ベースで獲得したトークンベクトルを利用する方法での実験は今後の調査すべき課題といえる.同様のPlay-by-playデータを入力として与え,擬似的にイニング情報の一部を変化させた際の転移学習モデルによる生成文の例を表\ref{tb:ex_changing_time_info}に示す.イニング数が1回の生成文には“幸先良く先制する”というGPが適切に生成できていることが確認できる.イニング数を6回に変更した際の生成文においては“0-0のまま迎えた”と“試合の均衡を破る”というGPが適切に生成できていることが確認できる.\begin{table}[b]\caption{イニング情報中のイニング数を変化させた際の転移学習モデルによる生成文の違い}\label{tb:ex_changing_time_info}\input{02table21.tex}\end{table}それぞれのモデルで生成された文の例を表\ref{tb:ex_gen_each_models}に示す.転移学習モデルによって生成された文には“0-0のまま迎えた”や“試合の均衡を破る”といったGPが正確に生成されていることが確認できる.一方,\textbf{Mix}と\textbf{SideConstraints}には“試合の均衡を破る”といったGPは生成されていない.\textbf{Mix}は転移学習をせず,事前学習と転移学習に用いたデータを全て混ぜて学習するモデルであり,GPを含むデータ数(557件)と含まないデータ数(8,937件)に大きな差があることから,正確に生成されなかったと考えられる.また,\textbf{SideConstraints}は,上述したようにDecoderの内部で行列演算が繰り返し行われるにつれて,トークンの影響が小さくなったと考えられ,実際の生成文からも同様の現象が起きているのが見て取れる.加えて,\textbf{NoInning}は,イニング情報ベクトルを追加的に入力しないモデルであり,GPを制御するための情報を何も入力していない.そのため,“同点で迎えた”や“勝ち越し”といった事実とは異なる文を生成している.他にも“0点リードで迎えた”といった事実と異なる文も生成していた.表\ref{tb:f_measure}のF値の評価結果や実際の生成例を定性的に考慮すると,GPを制御するといったタスクにおいて,転移学習とイニング情報の考慮は有効に働いているといえる.\begin{table}[b]\caption{各手法によって生成された要約文の例}\label{tb:ex_gen_each_models}\input{02table22.tex}\end{table}\begin{table}[b]\caption{可読性評価において転移学習モデルがテンプレート型生成手法と比べ,低い評価を受けた例}\label{tb:ex_readability_bad_gen}\input{02table23.tex}\end{table}\subsection{テンプレート型生成手法とニューラル型生成手法の比較}表\ref{tb:temp_eval_result}と表\ref{tb:neural_human_eval}の可読性の評価結果を比較すると,テンプレート型生成手法の方が高い評価を受けていた.実際に被験者による可読性評価で,ニューラル型生成手法が低い評価を受けた例を表\ref{tb:ex_readability_bad_gen}に示す.転移学習モデルが生成した文は“2死から”という表現が2度出現しており,冗長な文であるため,低い評価を受けたと考えられる\footnote{生成文に文法的誤りはないようにみえるが,被験者が主観的に読みにくいと感じたためこの評価となったと考えられる.}.事実性の評価結果を比較すると,可読性の評価結果と同様にテンプレート型生成手法の方が高い評価を受けていた.これらの評価結果を考慮すると,テンプレート型生成手法の方が優れたイニング要約生成手法だと考えられる.一方で,テンプレート型生成手法も事実でない文を生成しており,主な原因は\ref{sec:compression}節で説明した文圧縮1の処理であった.文圧縮1の処理は,選手名からその選手の野球専門語までを削除するといった最もシンプルなアプローチであったため,まれに複雑な表現を含むイニング速報では関係のない情報を圧縮処理しきれずに,事実でない情報を含んだテンプレートが生成された.このエラーを解決するためには文圧縮処理手法の改善が必要であるが,関係のない情報を全て圧縮処理するように人手でルールを網羅するのは限界がある.したがって,文圧縮処理には統計的なアプローチを取り入れる必要があると考えられる.また,テンプレート型生成手法は\ref{sec:gp_fusion}節で説明したテンプレートとGPの融合手順(図\ref{fig:gp_fusion})によって,GPを融合する前後で事実性,可読性に大きな変化はないこと(表\ref{tb:temp_eval_result})や,ニューラル型生成手法の事前学習モデルは事実性の観点から転移学習モデルと比較すると優れていること(表\ref{tb:neural_human_eval})を考えると,ニューラル型生成手法の事前学習モデルでテンプレートを生成し,そのテンプレートに対して,表\ref{tb:gp_and_rules}と図\ref{fig:gp_fusion}に示した人手で作成したルールと融合手順により,GPを含む要約文を生成するのが,事実性,可読性の観点から質の高い要約文を生成することができると考えられる.加えて,テンプレートとGPの融合手順(図\ref{fig:gp_fusion})は,本質的には野球に特化したルールではないため,野球以外のスポーツにも適応することができる.実際に,我々はサッカーの要約生成タスクにおいて,同様のルール(例えば,開始$n$分以内の場合は“幸先良く先制する”を生成など)を用いて,以下のような要約文の生成に成功している\cite{Tagawa2017b}.\begin{itemize}\itemネイマールのスルーパスからイニエスタのアシストをラキティッチがゴール、バルセロナが\underline{幸先良く先制する}.\item\underline{両軍無得点のまま迎えた}後半42分、岩渕の\underline{値千金}のゴール、日本が\underline{試合の均衡を破る}.\end{itemize}このように,GPは野球以外のスポーツにおいても汎用的なフレーズであると考えられ,サッカーにおいてのGPの融合手順は簡単な手順で設定可能であった.今後の課題として,サッカー以外のスポーツへの適用が挙げられる. \section{おわりに} 本研究では,日本で人気のある野球に着目し,Play-by-playデータからイニングの要約文の生成に取り組んだ.Web上で配信されている速報にはイニング速報と戦評があり,それぞれの以下のような特徴がある.\begin{itemize}\itemイニング速報中の各文はシンプルな読みやすい文で構成されているが,イニング速報そのものはそれらの文の集合であり,全体としては長く,読みづらい.\item戦評には“0-0のまま迎えた”や“待望の先制点を挙げる”のような試合の流れを考慮したフレーズ(Game-changingPhrase;GP)が含まれているのが特徴であり,読み手は試合の状況を簡単に知ることができる.\item戦評は試合が動いたシーンにのみ着目したテキストであり,試合終了後にしか更新されない.\end{itemize}このような特徴を踏まえ,任意の打席に対して,GPを含む要約文を生成することは,試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であると考えた.また,イニング速報や戦評は現在人手で作成されているが,自動で生成することで人手で作成する際にかかるコストを削減することができる.そこで,Play-by-playデータからGPを含む要約文の生成に取り組んだ.実際に,テンプレート型生成手法とEncoder-Decoderモデルを利用した手法の2つを提案し,それぞれの手法から生成された要約文に対して,事実性や可読性について人手評価をした.またEncoder-Decoderモデルについては,GPの生成に関していくつかの手法と比較し,転移学習を用いる提案手法が最も良いことをF値,Accuracyによって評価した.テンプレート型およびEncoder-Decoderモデルの実験結果からそれぞれのメリット・デメリットを考察した.その考察に基づき,今後の課題としてはEncoder-Decoderモデルにより入力打席系列を説明する文の雛形となるテンプレートを自動で生成した後,各GP毎に人手で作成したルールを利用してテンプレートと融合することで最終的な要約文を生成するという手法の有効性の検証が挙げられる.加えて,今回は攻撃側の視点だけに着目した手法を提案したが,守備側の視点も加味した要約文生成にも取り組みたいと考えている.\acknowledgment本論文の査読にあたり,著者の曖昧な記述などに対して丁寧なご意見・ご指摘をくださいました査読者の方々へ感謝します.本論文の内容の一部は,The21stInternationalConferenceonAsianLanguageProcessing(IALP2017)で発表したものです.本研究の一部は,科研費17H01840の助成を受けています.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{赤間\JBA稲田\JBA小林\JBA乾}{赤間\Jetal}{2017}]{akama2017}赤間怜奈\JBA稲田和明\JBA小林颯介\JBA乾健太郎\BBOP2017\BBCP.\newblock転移学習を用いた対話応答のスタイル制御.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\338--341}.\bibitem[\protect\BCAY{Allen,Templon,McNally,Birnbaum,\BBA\Hammond}{Allenet~al.}{2010}]{Allen2010}Allen,N.~D.,Templon,J.~R.,McNally,P.~S.,Birnbaum,L.,\BBA\Hammond,K.\BBOP2010\BBCP.\newblock\BBOQ\mbox{StatsMonkey:}AData-DrivenSportsNarrativeWriter.\BBCQ\\newblockIn{\BemAAAIFallSymposiumSeries},\mbox{\BPGS\2--3}.\bibitem[\protect\BCAY{Arnold,Nallapati,\BBA\Cohen}{Arnoldet~al.}{2007}]{arnold2007}Arnold,A.,Nallapati,R.,\BBA\Cohen,W.~W.\BBOP2007\BBCP.\newblock\BBOQAComparativeStudyofMethodsforTransductiveTransferLearning.\BBCQ\\newblockIn{\BemDataMiningWorkshops,2007.ICDMWorkshops2007.SeventhIEEEInternationalConferenceon},\mbox{\BPGS\77--82}.IEEE.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau2014}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemarXivpreprintarXiv:1409.0473}.\bibitem[\protect\BCAY{Blitzer,Dredze,Pereira,et~al.}{Blitzeret~al.}{2007}]{blitzer2007}Blitzer,J.,Dredze,M.,Pereira,F.,et~al.\BBOP2007\BBCP.\newblock\BBOQBiographies,Bollywood,Boom-boxesandBlenders:DomainAdaptationforSentimentClassification.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\lowercase{\BVOL}~7,\mbox{\BPGS\440--447}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Gulcehre,Bahdanau,Bougares,Schwenk,\BBA\Bengio}{Choet~al.}{2014}]{cho2014}Cho,K.,vanMerrienboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQLearningPhraseRepresentationsusingRNNEncoder--DecoderforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1724--1734},Doha,Qatar.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chopra,Auli,\BBA\Rush}{Chopraet~al.}{2016}]{chopra2016}Chopra,S.,Auli,M.,\BBA\Rush,A.~M.\BBOP2016\BBCP.\newblock\BBOQAbstractiveSentenceSummarizationwithAttentiveRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\93--98},SanDiego,California.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{Hochreiter1997}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-termMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{岩永\JBA西川\JBA徳永}{岩永\Jetal}{2016}]{iwanaga2016}岩永朋樹\JBA西川仁\JBA徳永健伸\BBOP2016\BBCP.\newblockテキスト速報を用いた野球ダイジェストの自動生成.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\238--241}.\bibitem[\protect\BCAY{Jianmin,Jinge,\BBA\Xiaojun}{Jianminet~al.}{2016}]{Jianmin2016}Jianmin,Z.,Jinge,Y.,\BBA\Xiaojun,W.\BBOP2016\BBCP.\newblock\BBOQTowardConstructingSportsNewsfromLiveTextCommentary.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1361--1371}.\bibitem[\protect\BCAY{Kikuchi,Neubig,Sasano,Takamura,\BBA\Okumura}{Kikuchiet~al.}{2016}]{kikuchi2016}Kikuchi,Y.,Neubig,G.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2016\BBCP.\newblock\BBOQControllingOutputLengthinNeuralEncoder-Decoders.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1328--1338},Austin,Texas.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{Kingma2015}Kingma,D.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemTheInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Koehn\BBA\Schroeder}{Koehn\BBA\Schroeder}{2007}]{koehn2007}Koehn,P.\BBACOMMA\\BBA\Schroeder,J.\BBOP2007\BBCP.\newblock\BBOQExperimentsinDomainAdaptationforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\224--227}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kubo,Sasano,Takamura,\BBA\Okumura}{Kuboet~al.}{2013}]{Kubo2013}Kubo,M.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQGeneratingLiveSportsUpdatesfromTwitterbyFindingGoodReporters.\BBCQ\\newblockIn{\BemProceedingsofthe2013IEEE/WIC/ACMInternationalJointConferencesonWebIntelligenceandIntelligentAgentTechnologies},\mbox{\BPGS\527--534}.\bibitem[\protect\BCAY{Li,Galley,Brockett,Spithourakis,Gao,\BBA\Dolan}{Liet~al.}{2016}]{Li-J2016}Li,J.,Galley,M.,Brockett,C.,Spithourakis,G.,Gao,J.,\BBA\Dolan,B.\BBOP2016\BBCP.\newblock\BBOQAPersona-BasedNeuralConversationModel.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\994--1003}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{lin2003}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesusingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1},\mbox{\BPGS\71--78}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{Luong2015}Luong,M.~T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1412--1421}.\bibitem[\protect\BCAY{McKeown\BBA\Radev}{McKeown\BBA\Radev}{1995}]{mckeown1995}McKeown,K.\BBACOMMA\\BBA\Radev,D.~R.\BBOP1995\BBCP.\newblock\BBOQGeneratingSummariesofMultipleNewsArticles.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\74--82}.ACM.\bibitem[\protect\BCAY{McRoy,Channarukul,\BBA\Ali}{McRoyet~al.}{2000}]{mcroy2000}McRoy,S.~W.,Channarukul,S.,\BBA\Ali,S.~S.\BBOP2000\BBCP.\newblock\BBOQYAG:ATemplate-basedGeneratorforReal-timeSystems.\BBCQ\\newblockIn{\BemProceedingsofthe1stInternationalConferenceonNaturalLanguageGeneration-Volume14},\mbox{\BPGS\264--267}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{村上\JBA笹野\JBA高村\JBA奥村}{村上\Jetal}{2016}]{murakami2016}村上総一郎\JBA笹野遼平\JBA高村大也\JBA奥村学\BBOP2016\BBCP.\newblock打者成績からのイニング速報の自動生成.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\338--341}.\bibitem[\protect\BCAY{村上\JBA笹野\JBA高村\JBA奥村}{村上\Jetal}{2017}]{murakami2017b}村上総一郎\JBA笹野遼平\JBA高村大也\JBA奥村学\BBOP2017\BBCP.\newblock数値予報マップからの天気予報コメントの自動生成.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\1121--1124}.\bibitem[\protect\BCAY{Murakami,Watanabe,Miyazawa,Goshima,Yanase,Takamura,\BBA\Miyao}{Murakamiet~al.}{2017}]{Murakami2017}Murakami,S.,Watanabe,A.,Miyazawa,A.,Goshima,K.,Yanase,T.,Takamura,H.,\BBA\Miyao,Y.\BBOP2017\BBCP.\newblock\BBOQLearningtoGenerateMarketCommentsfromStockPrices.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1374--1384}.\bibitem[\protect\BCAY{Nichols,Mahmud,\BBA\Drews}{Nicholset~al.}{2012}]{Nichols2012}Nichols,J.,Mahmud,J.,\BBA\Drews,C.\BBOP2012\BBCP.\newblock\BBOQSummarizingSportingEventsUsingTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe2012ACMInternationalConferenceonIntelligentUserInterfaces},\mbox{\BPGS\189--198}.\bibitem[\protect\BCAY{Oh\BBA\Shrobe}{Oh\BBA\Shrobe}{2008}]{Oh2008}Oh,A.\BBACOMMA\\BBA\Shrobe,H.\BBOP2008\BBCP.\newblock\BBOQGeneratingBaseballSummariesfromMultiplePerspectivesbyReorderingContent.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalNaturalLanguageGenerationConference},\mbox{\BPGS\173--176}.\bibitem[\protect\BCAY{Robin}{Robin}{1994}]{Robin1994}Robin,J.\BBOP1994\BBCP.\newblock\BBOQRevision-basedGenerationofNaturalLanguageSummariesProvidingHistoricalBackground.\BBCQ\\newblockMaster'sthesis,Ph.D.thesisNewYorkUniversity.\bibitem[\protect\BCAY{Rush,Chopra,\BBA\Weston}{Rushet~al.}{2015}]{Rush2015}Rush,A.~M.,Chopra,S.,\BBA\Weston,J.\BBOP2015\BBCP.\newblock\BBOQANeuralAttentionModelforAbstractiveSentenceSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\379--389}.\bibitem[\protect\BCAY{Sato,Yoshinaga,Toyoda,\BBA\Kitsuregawa}{Satoet~al.}{2017}]{sato2017}Sato,S.,Yoshinaga,N.,Toyoda,M.,\BBA\Kitsuregawa,M.\BBOP2017\BBCP.\newblock\BBOQModelingSituationsinNeuralChatBots.\BBCQ\\newblockIn{\BemProceedingsofACL2017,StudentResearchWorkshop},\mbox{\BPGS\120--127}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sennrich,Haddow,\BBA\Birch}{Sennrichet~al.}{2016}]{sennrich2016}Sennrich,R.,Haddow,B.,\BBA\Birch,A.\BBOP2016\BBCP.\newblock\BBOQControllingPolitenessinNeuralMachineTranslationviaSideConstraints.\BBCQ\\newblockIn{\BemProceedingsofthe15thAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\35--40}.\bibitem[\protect\BCAY{Sharifi,Hutton,\BBA\Kalita}{Sharifiet~al.}{2010}]{Sharifi2010}Sharifi,B.,Hutton,M.-A.,\BBA\Kalita,J.\BBOP2010\BBCP.\newblock\BBOQSummarizingMicroblogsAutomatically.\BBCQ\\newblockIn{\BemProceedingsofHLT'10HumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\685--688}.\bibitem[\protect\BCAY{Smiley,Plachouras,Schilder,Bretz,Leidner,\BBA\Song}{Smileyet~al.}{2016}]{Smiley2016}Smiley,C.,Plachouras,V.,Schilder,F.,Bretz,H.,Leidner,J.~L.,\BBA\Song,D.\BBOP2016\BBCP.\newblock\BBOQWhentoPlummetandWhentoSoar:CorpusBasedVerbSelectionforNaturalLanguageGeneration.\BBCQ\\newblockIn{\BemProceedingsofThe9thInternationalNaturalLanguageGenerationConference},\mbox{\BPGS\36--39}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{Sutskever2014}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Tagawa\BBA\Shimada}{Tagawa\BBA\Shimada}{2016}]{Tagawa2016}Tagawa,Y.\BBACOMMA\\BBA\Shimada,K.\BBOP2016\BBCP.\newblock\BBOQGeneratingAbstractiveSummariesofSportsGamesfromJapaneseTweets.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonE-ServiceandKnowledgeManagement},\mbox{\BPGS\82--87}.\bibitem[\protect\BCAY{Tagawa\BBA\Shimada}{Tagawa\BBA\Shimada}{2018}]{Tagawa2017b}Tagawa,Y.\BBACOMMA\\BBA\Shimada,K.\BBOP2018\BBCP.\newblock\BBOQSportsGameSummarizationBasedonSub-eventsandGame-changingPhrases.\BBCQ\\newblockIn{\BemNewTrendsinE-ServiceandSmartComputing,Springer,2018},\mbox{\BPGS\65--80}.\bibitem[\protect\BCAY{Takamura,Yokono,\BBA\Okumura}{Takamuraet~al.}{2011}]{Takamura2011}Takamura,H.,Yokono,H.,\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQSummarizingaDocumentStream.\BBCQ\\newblockIn{\BemProceedingsofthe33rdEuropeanconferenceonAdvancesinInformationRetrieval},\mbox{\BPGS\177--188}.\bibitem[\protect\BCAY{Vinyals,Toshev,Bengio,\BBA\Erhan}{Vinyalset~al.}{2015}]{Vinyals2015}Vinyals,O.,Toshev,A.,Bengio,S.,\BBA\Erhan,D.\BBOP2015\BBCP.\newblock\BBOQShowandTell:ANeuralImageCaptionGenerator.\BBCQ\\newblockIn{\BemProceedingsofComputerVisionandPatternRecognition},\mbox{\BPGS\3156--3164}.\bibitem[\protect\BCAY{Xu,Ba,Kiros,Cho,Courville,Salakhudinov,Zemel,\BBA\Bengio}{Xuet~al.}{2015}]{Xu2015}Xu,K.,Ba,J.,Kiros,R.,Cho,K.,Courville,A.,Salakhudinov,R.,Zemel,R.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQShow,AttendandTell:NeuralImageCaptionGenerationwithVisualAttention.\BBCQ\\newblockIn{\BemProceedingsofthe32ndInternationalConferenceonMachineLearning},\mbox{\BPGS\2048--2057}.\bibitem[\protect\BCAY{Yamagishi,Kanouchi,Sato,\BBA\Komachi}{Yamagishiet~al.}{2016}]{yamagishi2016}Yamagishi,H.,Kanouchi,S.,Sato,T.,\BBA\Komachi,M.\BBOP2016\BBCP.\newblock\BBOQControllingtheVoiceofaSentenceinJapanese-to-EnglishNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianTranslation(WAT)},\mbox{\BPGS\203--210}.\bibitem[\protect\BCAY{Zoph,Yuret,May,\BBA\Knight}{Zophet~al.}{2016}]{zoph2016}Zoph,B.,Yuret,D.,May,J.,\BBA\Knight,K.\BBOP2016\BBCP.\newblock\BBOQTransferLearningforLow-resourceNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1568--1575}.\end{thebibliography}\appendix \section{ROUGEによる評価} \begin{table}[b]\caption{ROUGE値}\label{tb:rouge_result}\input{02table24.tex}\end{table}\ref{sec:exp}節ではテンプレート型生成手法,ニューラル型生成手法により生成された要約文を被験者により可読性,事実性の観点から評価した.加えて,自動評価指標であるROUGE\cite{lin2003}による評価も行った.本研究の目的は任意の打席に対してGPを含むイニングの要約文を生成することであり,任意の打席に対してGPを含むイニングの要約文の正解データは存在しない.そこで,テンプレート型生成手法のGPを含まない要約文とニューラル型生成手法の事前学習モデルによって生成された要約文に対してROUGE値を計算した(計算の際には品詞のフィルタリングなどは行っていない).実際に,100件のNPBのPlay-by-playデータを入力として与え,生成された要約文と入力データに対応するイニング速報中の文を正解データとし,ROUGE値を計算した.評価結果を表\ref{tb:rouge_result}に示す.評価結果からテンプレート型生成手法はニューラル型生成手法と比べ低いROUGE値となった.これはテンプレート型生成手法では,文圧縮処理の際に,アウト数や“先頭”,“代打”といった表現を削除しているため,単語の一致率を基にしたROUGEではニューラル型生成手法と比べ低いROUGE値となったと考えられる.\begin{biography}\bioauthor{田川裕輝}{2016年九州工業大学情報工学部知能情報工学科卒.2018年九州工業大学大学院情報工学府先端情報専攻修了.現在,富士ゼロックス株式会社.在学中は,スポーツデータを対象とした文章生成や要約に関する研究に従事.}\bioauthor{嶋田和孝}{1997年大分大学工学部知能情報システム工学科卒.1999年同大大学院博士前期課程修了.2002年同大大学院博士後期課程単位取得退学.同年より九州工業大学情報工学部知能情報工学科助手.2007年,同助教.2012年,九州工業大学大学院情報工学研究院知能情報工学研究系准教授.博士(工学).自然言語処理,特に評判分析や情報要約の研究に従事.言語処理学会,電子情報通信学会,情報処理学会,人工知能学会,観光情報学会各会員.{}}\end{biography}\biodate\end{document}
V18N02-06
\section{はじめに} 近年の自然言語処理技術は,新聞記事等のフォーマルな文章だけでなく,ブログ等のインフォーマルな文章をもその射程に入れつつある\cite{ICWSM:2008,ICWSM:2009}.この背景の一つには,世論や消費者のニーズ等をブログを含めたWeb文書から取り出そうとする,自然言語処理技術を援用した情報アクセス・情報分析研究の盛り上がりがある\cite{Sriphaew:Takamura:Okumura:2009,Akamine:Kawahara:Kato:Nakagawa:Inui:Kurohashi:Kidawara:2009,Murakami:Masuda:Matsuyoshi:Nichols:Inui:Matsumoto:2009}.近年の自然言語処理技術は,機械学習等のコーパスベースの手法の発展により高い精度が得られるようになったが,これらの手法の成功の鍵は,処理対象の分野/ジャンルの解析済みコーパスの充実にある\cite{McClosky:Charniak:Johnson:2006}.ブログに自然言語処理技術を高精度に適用するには,同様に,解析済みのブログコーパスの整備/充実が必須である.我々は,ブログを対象とした自然言語処理技術の高精度化に寄与することを目的とし,249記事,4,186文からなる解析済みブログコーパス(以下,KNBコーパス\footnote{\textbf{K}yotoUniversityand\textbf{N}TT\textbf{B}logコーパス})を構築し,配布を開始した.本研究でアノテーションしている言語情報は,多くの自然言語処理タスクで基盤的な役割を果たしている形態素情報,係り受け情報,格・省略・照応情報,固有表現情報と,文境界である.これらのアノテーションの仕様は,コーパスユーザの利便性を重視し,世の中に広く浸透している京都大学テキストコーパス\cite{Kawahara:Kurohashi:Hashida:2002j}\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}(以下,京大コーパス)と極力互換性のあるものにした.これらのアノテーションに加えて,ブログを対象とした情報アクセス・情報分析研究にとっての要となる評価表現情報もKNBコーパスのアノテーション対象に含めた.ブログ記事は,京都の大学生81名に「京都観光」「携帯電話」「スポーツ」「グルメ」のいずれかのテーマで執筆してもらうことで収集した.執筆者らは記事執筆に際し,記事の著作権譲渡に同意しているため,アノテーションだけでなく本文も併せてKNBコーパスとして無料配布している.KNBコーパス構築の過程で,我々は次の問題に直面した.\setlength{\widelabel}{18pt}\eenumsentence{\item不明瞭な文境界\item構文構造の解析を困難にする文中の括弧表現\item誤字,方言,顔文字等の多様な形態素}これらは,校閲等の過程を経た上で世に公開される新聞記事等のフォーマルな文章とは異なる,ブログ記事,あるいはCGM(ConsumerGeneratedMedia)テキストの特徴と言える.KNBコーパス構築の際には,このようなブログ記事特有の現象を可能な限りそのままの形で残すよう心がけた.一方で,新聞記事を対象にして作られた京大コーパスとの互換性も重視した.本稿では,KNBコーパスの全容とともに,京大コーパスとの互換性の保持と,ブログの言語現象の正確な記述のために我々が採用した方針について詳述する.なお本稿では,京大コーパスの仕様からの拡張部分に焦点を当てる.本稿に記述されていない詳細については,京大コーパスに付属のマニュアル\cite{KUCorpus:syn:2000,KUCorpus:rel:2005}を参照されたい.以下,\ref{sec:related-work}節で関連研究について述べた後,\ref{sec:spec}節でKNBコーパスの全体像を具体例とともに詳述する.\ref{sec:construction}節で記事収集から構築,配布までの過程を説明し,\ref{sec:conclusion}節で結論を述べる. \section{関連研究\label{sec:related-work}} 近年,コーパスベースの手法の発展とともに,言語やタスクを問わず,自然言語処理技術の精度は向上してきた.本稿では,コーパスベースの技術とは,人手で正解が付与されたコーパスから機械学習に基づき言語処理システムを実現するアプローチと捉える.例えば英語の品詞タグ付けではLaffertyら\cite{Lafferty:McCallum:Pereira:2001}が,日本語の形態素解析では工藤ら\cite{Kudo:Yamamoto:Matsumoto:2004}がConditionalRandomFieldsを用いてそれぞれのタスクで高精度化を果たした.また,言語に依存しない係り受け解析として,SVMによる機械学習を用いたNivreらの手法\cite{Nivre:Hall:Nilsson:senEryigit:Marinov:2006}やMiraによる機械学習を用いたMcDonaldらの手法\cite{McDonald:Lerman:Pereira:2006}が注目されている.これら解析技術の高精度化は,人手でアノテーションされた解析済みコーパスに支えられてきた.日本語の代表的な解析済みコーパスとして,京大コーパスとNAISTテキストコーパス\cite{NAISTCorpus:2007}がある.前者は,新聞記事を対象に,4万文に対して形態素・構文情報を,5,000文に対して格関係,照応・省略関係,共参照の情報を付与したものである.加えて,IREX\cite{IREX:2000}において,京大コーパス中の1万文に対する固有表現アノテーションが配布されている.後者は,京大コーパスの4万文に対して,述語と表層格の関係,事態性名詞と表層格の関係,名詞間の共参照関係の情報を付与したものである.これらのコーパスは新聞記事から作られているため,それらによって訓練された解析器は,新聞記事あるいはそれに文体が近い文章は高精度で解析できるが,ブログやWWW上の掲示板等の,文体が新聞記事とは大きくかけ離れている文章の解析は不得手となることが知られている\cite{McClosky:Charniak:Johnson:2006}.一方,自然言語処理技術の適用領域は,WWWの爆発的な拡大とともに,ブログやWWW上の掲示板等の文章へと広がりを見せている.ブログを対象とした自然言語処理技術の高精度化の鍵は,解析済みブログコーパスを充実させることができるかどうかにかかっている.そして,解析済みブログコーパスを充実させるためには,構築ノウハウの蓄積と実際に構築した解析済みブログコーパスの流通が欠かせない.我々はこの役割を担うべく,KNBコーパスとして,ブログ記事に各種言語情報(文境界,形態素,係り受け,格・省略・照応,固有表現,評価表現)をアノテーションした.アノテーションの仕様は,ブログ特有の現象に対応するため一部KNBコーパス独自の仕様を策定したが,京大コーパスのものと極力互換性のあるものとした.KNBコーパスの独自仕様の一部には,話し言葉を対象とした代表的な解析済みコーパスである日本語話し言葉コーパス\cite{日本語話し言葉コーパスの構築法:2006}\footnote{http://www.kokken.go.jp/katsudo/seika/corpus/}(以下,CSJ)の仕様と類似したものが含まれている.\ref{sec:spec}節でKNBコーパスの仕様を述べる際,話し言葉と類似する現象のアノテーションに関しては,適宜CSJの仕様と比較する.ブログを対象とした既存のコーパスとして,Spinn3rBlogDataset\cite{ICWSM:2009}\footnote{http://www.icwsm.org/2009/data/}がある.これは44,000,000記事からなる大規模なものだが,係り受けや照応等の言語情報は付与されていない.KNBコーパスには,京大コーパスにはない評価表現のアノテーションがなされている.既存の評価表現コーパスとしてNTCIR-6意見分析パイロットタスクのテストコレクション\footnote{http://research.nii.ac.jp/ntcir/permission/ntcir-6/perm-ja-OPINION.html}や,小林ら\cite{Kobayashi:Inui:Matsumoto:2007},宮崎ら\cite{宮崎:森:2008},川田ら\cite{評価情報タグ付与基準:2009}のものがあるが,本コーパスの評価表現アノテーションは,評価表現を「当為」「要望」「採否」等の意味的なタイプに分類する川田らの仕様に基づく. \section{コーパスの全体像\label{sec:spec}} 一般に,コーパスを設計する際は少なくとも次の点を考慮する必要がある.\begin{enumerate}\itemコーパスの使用目的は何か.\item文章に対してどのような言語情報をアノテーションするか.\item何をコーパスの素材(元となる文章)にするか.\itemどのような仕様でアノテーションするか.\end{enumerate}KNBコーパスは,ブログを対象とした自然言語処理技術のためのデータの提供を目的としている.具体的には,多くの自然言語処理タスクで基盤的な役割を果たしている形態素解析,係り受け解析,格・省略・照応解析,固有表現抽出と,ブログを対象とする場合に重要になる文境界の検出,情報アクセス・情報分析研究にとっての要となる評判分析を対象としている.従って,KNBコーパスにアノテーションする言語情報は,形態素情報,係り受け情報,格・省略・照応情報,固有表現情報,文境界位置,評価表現情報となる.次に,何をKNBコーパスの素材とするかであるが,選択肢としては,WWW上に既に存在するブログ記事を用いるか,本研究のために新たにブログ記事を執筆するかの2つが考えられる.前者の場合,記事を大量に収集できるが,記事の著作権処理が困難になることが予想される.後者は逆に,記事の著作権譲渡にあらかじめ同意してもらうことで,著作権に関する問題はクリアできるが,収集できる記事の量が前者に比べて大幅に少なくなることが予想される.結局,我々は,多数の大学生にアルバイトとして記事を執筆してもらうことで,ある程度の記事数を確保できる見通しが得られたため,後者のアプローチを採用した.記事のテーマは執筆者である大学生に自由に決めてもらうことも可能だが,我々は,アノテーション対象の評価表現が文中に含まれやすく,かつ,大学生にとって比較的身近であると考えられる「京都観光」\inhibitglue\footnote{執筆者である大学生は皆,京都の大学に在籍している.}「携帯電話」「スポーツ」「グルメ」の4つのテーマをあらかじめ設定した.執筆してもらったブログ記事は全て文章のみであり,画像や動画等は含まれていない.\begin{table}[b]\caption{テーマごとの記事数,文数,形態素数}\label{tab:breakdown}\input{06table01.txt}\vspace{-1\baselineskip}\end{table}アノテーション仕様については,選択肢として,KNBコーパス用に新規に設計するか,既存のタグ付きコーパスの仕様を流用,拡張するかの2つが考えられる.前者にはコーパスをブログ記事に特化したものにすることができるという利点があるが,コーパスユーザにとっては,全く新規の仕様は広く流通している既存のコーパスの仕様に比べて扱いにくいものとなることが予想される.後者の場合,ユーザにとって扱いやすいコーパスとなるが,既存の仕様ではカバーできないブログの言語現象が存在する恐れがある.我々は当初,既存の仕様を用いる場合,評価表現に関しては川田らのものを,それ以外のアノテーションには京大コーパスのものを第一候補として考えていた.川田らの仕様は,他の評価表現アノテーションの仕様と異なり,評価表現を単にマークするだけでなく,「当為」「要望」「採否」等の意味的な細分類を付与する.この細分類情報は,従来以上に詳細な情報分析技術を実現するための重要な要素であると我々は考えている.一方,京大コーパスの仕様は,京大コーパスだけでなく,近年盛んに研究利用されている日本語WWWコーパスのアノテーションにも使用されており\cite{新里:橋本:河原:黒橋:2007},解析済みコーパスの仕様の中でもっとも広く流通しているものということができる.そこで我々は,川田らの評価表現アノテーションの仕様と京大コーパスの仕様をブログ記事に予備的に適用し,記述しきれない言語現象が存在するかを調査した.その結果,後述するように,誤変換,脱字,衍字,口語的表現などの形態素に関する仕様の追加と,係り受けに関しての若干の仕様拡張,文境界と括弧表現についての仕様の策定を行えば,ほぼ対応可能であるという見通しが得られた.最終的に,川田らの仕様と京大コーパスの仕様をベースに,以降で述べるいくつかの拡張を加えることでKNBコーパスのアノテーション仕様とすることに決定した\footnote{WWW上に存在するブログ記事の中には,文章の他,本文と密接に関連した画像や動画等が掲載されていることがある.そのような記事の文章の構造や意味的な情報を十分に記述するためには,既存の解析済みテキストコーパスの仕様では明らかに不十分であり,画像や動画等の他のメディアの情報を本文と統一的に記述する枠組みが必要である.上述の通り,KNBコーパスは文章のみを対象としたコーパスであるため既存のテキストコーパスの仕様を用いることができたが,今後,WWW上に存在する多様なブログ記事をありのままの姿で解析済みコーパスに収録していくには,他メディアの掲載を許し,その情報を十分に記述できるような仕様を開発する必要がある.}.完成したKNBコーパスは249記事,4,186文から成る.テーマごとの記事数,文数,形態素数は表\ref{tab:breakdown}の通りである.執筆に加わった大学生は計81名である.京都観光について執筆したのは計72名,携帯電話については計67名,グルメについては計34名,スポーツは計18名である.以下では,KNBコーパスへアノテーションされている各種言語情報の仕様について例とともに説明する.\subsection{文境界}新聞記事とは違い,ブログ記事では,例文(\ex{1})のような境界が明確な文だけでなく,例文(\ex{2})にあるような境界が不明確な文もある(以下,\eos{}はアノテーションされた文境界を,\lf{}は元の記事における改行を表す).\eenumsentence{\item私はプリペイド携帯をずっと使っている.\eos{}\itemヒマな大学生の人はチケット買って西京極でボクと握手!\lf\\eos{}}\eenumsentence{\itemなぜか清水寺に着きました笑\\eos{}\footnote{元の記事では「着きました笑」の後に空白が挿入されている.}\item京都のほうだったような・・・\\eos{}まぁ観光スポット多いですもんね?京都は.\\eos{}}KNBコーパスでは,原則的には,母語話者の直観に基づき一文として最も適切だと思われる個所で文を区切った.それ以外に,(\ex{1})に挙げる個別的な方針を導入した.\eenumsentence{\item{日付だけからなる行も一文とする}\begin{itemize}\item2006年10月09日\lf\\eos{}\end{itemize}\item{URLだけからなる行も一文とする}\begin{itemize}\itemhttp://www.shigureden.com/\lf\\eos{}\end{itemize}\item{箇条書きの一行一行をそれぞれ一文とする}\begin{itemize}\item[]・藤井大丸\lf\\eos{}\item[]・紀伊國屋書店\lf\\eos{}\end{itemize}\item{途中にURLが含まれていても,全体を一文とする}\begin{itemize}\itemhttp://url/とでも入力すると,\lf\http//url/\lf\と出ます.\eos{}\end{itemize}\item{途中に文末によく現れる記号があっても,明らかな一文である場合は区切らない}\begin{itemize}\item散歩??かな.\lf\\eos{}\end{itemize}\item{文頭,文末の記号は一文に含める}\footnote{文頭と文末の空白文字はブログ記事をHTMLからテキストに変換する際に削除した.}\begin{itemize}\itemそんな日本語ないか.\underline{笑}\lf\\eos{}\item脱力.\underline{ORZ}\lf\\eos{}\item\underline{P.S.}数年前,電車の...\eos{}\end{itemize}}CSJでは,対象が話し言葉であり,文の終わりが不明確であるという特徴がより顕著である.そこで「節単位」という「文」に概ね相当する単位を規定し,文境界アノテーションを施している\cite{丸山:高梨:内元:2006}.\subsection{括弧表現}京大コーパスでは括弧表現は削除されていたが,ブログ記事の括弧表現は,新聞記事と比べると,本文と密接不可分な内容のものが多く無視できない.例文(\ex{1})はKNBコーパスの括弧表現の例である.\eenumsentence{\itemここもFood\key{(}パンメインでカレーとか\key{)}の量は少なかったなー\item貴重な\key{(}まぁどのへんが貴重なのかはわからないけど\key{)}時間を無駄にしてしまう.\itemどでかい神楽松明\key{(}激しく燃えている!\key{)}を担いで,狭い鞍馬街道をどこからともなく練り歩き出す.}一方で,ブログ記事の括弧表現は多種多様で,文内に埋め込まれたままだと,係り受け等のアノテーションが困難になる.そこで,括弧表現を文中から取り出して一つの独立した文とした.例文(\ex{2})は例文(\ex{1})から括弧表現を抽出したものである.\enumsentence{{\small{\#S-ID:KN012\_Gourmet\_6-1-23}}\\ここもFood\key{(}パンメインでカレーとか\key{)}の量は少なかったなー}\eenumsentence{\item{\small{\#S-ID:KN012\_Gourmet\_6-1-23-01}}\\ここもFoodの量は少なかったなー\item{\small{\#S-ID:KN012\_Gourmet\_6-1-23-02\括弧タイプ:例示\括弧位置:7\括弧始:(\括弧終:)}}\\パンメインでカレーとか}「\#」の行には文IDを表すS-IDをはじめ,直下の文の各種情報が記述されている.抽出され一文になった括弧表現は,元の文の直後に置かれ,新たに文IDが与えられる.具体的には,元の文のID末尾に「-01」を付与し,抽出されて別の文となった文のIDには「-02」「-03」「-04」等を付与する.例えば例文(\ex{-1})はIDが「KN012\_Gourmet\_6-1-23」だが,括弧抽出後は,「KN012\_Gourmet\_6-1-23-01」(\ex{0}a)と「KN012\_Gourmet\_6-1-23-02」(\ex{0}b)の二文になる.なお,括弧表現の元の文における位置情報が記録されており,復元も可能である.例文(\ex{0}b)における「括弧位置:7」がその情報にあたり,「7」は括弧の開始位置を字数により示している.さらに,抽出された括弧文には,読み,日付,金額,場所,同義,例示,その他のいずれかの括弧タイプが与えられる.以下にKNBコーパスにおける括弧タイプとその例を挙げる.\enumsentence{\begin{description}\item[読み:]印象に残ったのは,「御髪(みかみ)神社」.\item[日付:]ソフトバンクが前夜に予想外割を発表したこともあって,この日(10月24日)の情報通信株は面白いことになりそうという意識があった.\item[金額:]また付いてくる麦飯とキャベツと赤だしの味噌汁がおかわり自由で,私は豚カツ120g(1050円)と一緒に,ごはんを4杯,みそしるを2杯,キャベツをもともとよそられていた量のの1.3倍は食べてしまう.\item[場所:]まずは自転車で三条口(西大路三条)へと向かう.\item[同義:]15〜20,ブル(ど真ん中)を狙って例えば15を三回あてれば自分の陣地になりそっから点数が入る,というものである.\item[例示:]Webが使えない,通話料がやけに高いので電話をわざわざ公衆電話からかけたりする,携帯会社が謳うオトクげなサービス(誕生日割りなど)をほとんど受けられない...\item[その他:]私は携帯電話が嫌いで(高校入学時に買わされたが),電源を入れているときの方が少ない.\end{description}}括弧表現はコーパス全体で137回出現した.その内訳を表\ref{tab:paren-breakdown}に挙げる.「その他」に分類される括弧文のほとんどは,上の例にあるような,本文に対する補足説明と呼べるものだった.\begin{table}[b]\caption{括弧表現の出現数}\label{tab:paren-breakdown}\input{06table02.txt}\end{table}なお,表\ref{tab:breakdown}では,抽出された括弧表現も一文としてカウントしている.\subsection{形態素}形態素アノテーションでは,形態素と呼ばれる,当該言語において意味をもつ最小の単位に文を分割し,各形態素に読み,原形,品詞,活用型,活用形を付与する.形態素は,文の構造を解析する上での最も基本的な単位である.KNBコーパスでは京大コーパスと同様に,形態素単位,タグ単位,文節単位の3段階で階層的に文を分割している.タグ単位とは,基本的に自立語1語を核として,その前後に存在する接頭辞,接尾辞,助詞,助動詞などの付属語をまとめたものである.タグ単位は,格・省略・照応関係と係り受け関係のアノテーションで使用される.文節単位は,1語あるいは複数の自立語を核として,その前後に存在する接頭辞,接尾辞,助詞,助動詞などの付属語をまとめたものであり,係り受け関係のアノテーションで使用される\footnote{つまり,\ref{sec:dep}節で述べるように,係り受け関係はタグ単位と文節単位の両方でアノテーションされる.}.また,文節境界はタグ単位境界でもある.例として表\ref{tab:morph}に,「半年ほど前に携帯電話の機種変更をしました.」という文を対象にした形態素,タグ単位,文節単位のアノテーションを示す.\begin{table}[b]\caption{形態素,タグ単位,文節単位アノテーションの例}\label{tab:morph}\input{06table03.txt}\end{table}形態素単位と文節単位の他にタグ単位を用意するのは,格・省略・照応アノテーションの際,形態素より大きく文節より小さい単位でアノテーションする必要があるためである.例えば「500メートル地点」という表現に対しては,「500メートル」と「地点」の間に修飾格関係が成立する旨をアノテーションするが,「500メートル地点」は全体で1文節であり,また,「500メートル」は「500」と「メートル」の2つの形態素に分かれる.このため,「500メートル」を1つの単位としてまとめるタグ単位の導入が必要になる.KNBコーパスの形態素アノテーションは,品詞・活用体系,フォーマットともに京大コーパスの仕様に準拠しているが,次のようなブログの特徴に対応するため仕様を拡張した.\eenumsentence{\item誤変換,脱字,衍字\footnote{衍字とは,語句の中に間違って入り込んでいる,あるいは,語句の前後に間違って隣接している不必要な文字のことである.}\item口語的表現(方言,外国語,擬音・擬態語,言い淀み)\item創造的表現(記号,Webで頻出のスラング)}以下,それぞれについて詳述する.\subsubsection{誤変換,脱字,衍字}下に例を挙げる.矢印$\to$の右側が誤変換,脱字,衍字の例である.\eenumsentence{\item誤変換:「通信機能が\underline{内蔵}されたもの」$\to$「通信機能が\underline{内臓}されたもの」\item脱字:\begin{enumerate}\item「早めに\underline{行かないと}」$\to$「早めに\underline{かないと}」\item「属する\underline{ように}なり」$\to$「属する\underline{よう}なり」\end{enumerate}\item衍字:\begin{enumerate}\item「何が安いのか,考えて\underline{買って}いきます.」$\to$「何が安いのか,考えて\underline{買いって}いきます.」\item「高級な\underline{料亭}や,焼肉屋,$\cdots$ダイニングも多い.」$\to$「高級な\underline{り料亭}や,焼肉屋,$\cdots$ダイニングも多い.」\end{enumerate}}誤変換あるいは脱字を含む文は,元の誤った表現を残しつつ,正式な書き方・表現に基づいてアノテーションすることとした.例えば「早めにかないと」なら「早めに行かないと」としてアノテーションした.加えて,コーパス中に用意されているメモ欄に,「ER:(正しい書き方)」のように,誤りフラグERと正しい書き方を記載することとした.このメモはタグ単位に与えられている.表\ref{tab:misspelling}左に脱字のアノテーション例を挙げる\footnote{表\ref{tab:misspelling}ではタグ単位境界と文節境界が一致しているため,タグ単位境界は明示していない.}.\begin{table}[t]\caption{脱字,衍字のメモ例}\label{tab:misspelling}\input{06table04.txt}\end{table}衍字を含む文は,衍字が語句の内部にある場合と,語句の前あるいは後ろに接している場合の2通りに分けて対応した.前者の場合,上述した誤変換あるいは脱字の場合と同様にアノテーションする.つまり,元の表現を残しつつ,正式な書き方・表現に基づいてアノテーションし,メモ欄には誤りフラグERと正しい書き方を記載する.後者の場合,衍字とそれが接している語句を別々の形態素としてアノテーションし,メモ欄には誤りフラグERと正しい書き方を記載する.一方,タグ単位としては1つにまとめる.表\ref{tab:misspelling}右に衍字のアノテーション例を挙げる.KNBコーパス全体では,誤変換,脱字,あるいは衍字が102回出現した.その内訳は,「京都観光」では43回,「携帯電話」では30回,「グルメ」では20回,「スポーツ」では9回である.\subsubsection{口語的表現}方言や外国語,擬音・擬態語,意図的な言い淀み等がこれに該当する.後述するように,結局これらの表現は元の形のままでアノテーションしている.CSJにおいても,融合,省略,フィラー,断片化といった口語表現特有の現象を,元の表現そのままでアノテーションしており,元のテキストを可能な限りそのままの形で正確に記述するという我々の方針と一致している.\textbf{方言}では活用をどう記述するかが問題となる.我々は,京大コーパスとの互換性と文法記述の正確性を最大限確保するため,既存の活用に該当しない方言に対して,形態素解析器JUMAN\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}の活用記述法に準拠しつつ,新たな活用を定義した.例として,関西方言の「や」に関連するものと,それに対応する標準語の(つまりJUMANに既存の)活用情報を例文(\ex{1})に挙げる\footnote{下線の形態素の活用情報を記載している.}.\eenumsentence{\item「\underline{面倒や}ん」$\cdots$ナ形容詞ヤ列基本形\item[](「\underline{面倒だ}」$\cdots$ナ形容詞基本形)\item「悲しくなったりする\underline{んやろ〜}?」$\cdots$ナ形容詞ヤ列基本推量形異表記\item[](「悲しくなったりする\underline{んだろう}?」$\cdots$ナ形容詞ダ列基本推量形)\item「小さいもん\underline{や}のに」$\cdots$判定詞ヤ列基本連体形\item[](「小さいもの\underline{な}のに」$\cdots$判定詞ダ列基本連体形)\item「もの大切にしい\underline{や}」$\cdots$(終助詞につき無活用)}また,全ての方言に対して,メモ欄に「DI」(dialect)と記載した.方言は全体で114回出現した.その内訳は,「京都観光」では40回,「携帯電話」では45回,「グルメ」では3回,「スポーツ」では26回である.本研究における\textbf{外国語}とは,固有表現やURL(の一部),日本語として日常的に用いられている名詞(「HDD」「PDF」等)を除く,外国語の表現全てを指す.例として,「今日は3限をさぼらせて友達を連れて祇園界隈へGO!!」という文における「GO」がある.外国語のアノテーションでは,どのような日本語の品詞を割り当てるべきかが問題になる.KNBコーパスでは,外国語の形態素に対し,原則として,サ変名詞,普通名詞,形容詞のいずれかを割り当てることとした.\eenumsentence{\itemサ変名詞:「祇園界隈へ\underline{GO}!!」\item普通名詞:「予想\underline{GUY}」\item形容詞:「京都\underline{LOVEな}ので」(ナ形容詞ダ列基本連体形)}読みは英単語アルファベットそのままとした.外国語のフレーズは,1単語1形態素とし,フレーズ全体で1タグ単位とした.例えば「with\kuuhaku{}my\kuuhaku{}friend」なら,3つの形態素と2つの空白から成る1フレーズなので,5形態素1タグ単位となる.アルファベットで書かれたものに限定してKNBコーパスにおける外国語を集計した結果,外国語に該当する表現が16個存在した.テーマ別に見ると,「京都観光」には8表現,「携帯電話」には3表現,「グルメ」には5表現で,「スポーツ」には存在しなかった.\textbf{擬音語・擬態語}として,KNBコーパスでは,辞書には登録されていない,『ピリリリリリ』『ポフュー』等が出現した.\eenumsentence{\item「携帯『ピリリリリリ』」\item「『ポフュー』って粉が出て」}JUMANでは,「ごくごく(飲む)」や「どしどし(応募する)」のような既知の擬音語・擬態語を副詞としているため,KNBコーパスでもこれに倣い,これらを全て副詞とした.JUMANに未登録の擬音語・擬態語をKNBコーパスから抽出したところ,16語が得られた.テーマ別に見ると,「京都観光」から3語,「携帯電話」から8語,「グルメ」から2語,「スポーツ」から3語が得られた.\textbf{言い淀み}の例を以下に挙げる.\eenumsentence{\item牛乳を入れて$\cdots$\underline{ぎゅうにゅ}$\cdots$\underline{にゅ}$\cdots$牛乳ねぇぇぇー!\item現\underline{voda}$\cdots$もといソフトバンクモバイル}これらは未定義語として,メモ欄に「言い淀み」と記載する.KNBコーパス全体で言い淀みは4回出現した.その内訳は,「携帯電話」では1回,「グルメ」では2回,「スポーツ」では1回である.\subsubsection{創造的表現}顔文字等の記号や,「サーバ」を意味する「鯖」等のWeb上で多用されるスラングはブログ特有の表現といえるが,これらを創造的表現と呼ぶことにする.KNBコーパスにおけるスラングは,「サーバ」を意味する「鯖」と,「マスコミ」を意味する「マスゴミ」,「終わった」を意味する「オワタ」があった.\eenumsentence{\itemMNP\underline{鯖}が落ちているから.\item\underline{マスゴミ}で報道されてしまったし,}スラングも,他の表現と同様に京大コーパスとの互換性を最大限保つよう配慮する.例えば上記の「鯖」は,普通名詞として扱う.なおスラングには,メモ欄に「スラング:(正式あるいは一般的な表記)」を付記している.KNBコーパス全体におけるスラングの出現回数は3回で,いずれも「携帯電話」に関する記事において出現した.人がうなだれている姿を現す「orz」や顔文字,「!!」「...」のような同じ記号の連続は1形態素の記号とした.\eenumsentence{\item自分の部屋で紅茶をいれ,一人で味わいました\underline{orz}\item京都大好きな人が増えていけばいいなと密かに思ってます\underline{\mbox{(*^-^*)}}\item住んでみて改めて思います\underline{!!}\item厳かさに畏れを抱く\underline{...}}「orz」(変種も含む)と顔文字の出現頻度を調べたところ,KNBコーパス全体では26回だった.テーマ別で見ると,「京都観光」では11回,「携帯電話」では8回,「グルメ」では5回,「スポーツ」では2回だった.一方,「ー」「〜」などの長音記号は,それを含む形態素,あるいは直前の形態素の一部とし,独立した記号とはしない.また,長音記号付きの形態素は,対応する標準的な表現の異表記としてアノテーションした.\eenumsentence{\item気分悪くなってきたのでやめ\underline{まーす}笑\item[]動詞性接尾辞ます型基本形異表記\item[](cf.「(やめ)ます」は「動詞性接尾辞ます型基本形」)\item誰か一緒に\underline{いこ〜}!!\item[]子音動詞カ行促音便形意志形異表記\item[](cf.「(一緒に)行こう」は「子音動詞カ行促音便形意志形」)}長音記号に関するもの以外で,標準的表現の異表記としてアノテーションされている表現として「分厚っ」や「すげぇ」,「大好きだあ」などがある.これら標準的表現の異表記を集計したところ,KNBコーパス全体では38表現存在した.その内訳は,「京都観光」が15表現,「携帯電話」が8表現,「グルメ」が11表現,「スポーツ」が4表現である.\subsection{係り受け\label{sec:dep}}係り受けアノテーションでは,タグ単位間と文節間の2種類の係り受け関係を京大コーパスに準拠する形式でアノテーションした.係り受け関係は,自然言語処理において,文の構文的意味的構造を表す最も一般的な手段である.タグ単位間と文節間の係り受け関係の例を図\ref{fig:dep-tag}と図\ref{fig:dep-bunsetsu}に挙げる.係り受け関係として,京大コーパスと同様,通常の係り受け関係の他に,並列関係と同格関係がある.\begin{figure}[b]\begin{center}\includegraphics{18-2ia6f1.eps}\end{center}\caption{タグ単位間の係り受け}\label{fig:dep-tag}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{18-2ia6f2.eps}\end{center}\caption{文節間の係り受け}\label{fig:dep-bunsetsu}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{18-2ia6f3.eps}\end{center}\hangcaption{CSJにおける倒置の係り受けの例(「これは」が倒置され,左の文節「耐えられないんです」に係っている)}\label{fig:dep-csj-inversion}\end{figure}CSJでは話し言葉特有の現象に対応すべく独自の仕様を設けている.例えば,文節の倒置に対応するために右から左への係り受けを許し(図\ref{fig:dep-csj-inversion}の実線.「これは」が倒置され,左の文節「耐えられないんです」に係っている)\inhibitglue\footnote{図\ref{fig:dep-csj-inversion}と図\ref{fig:dep-csj-nejire}における破線は,KNBコーパスの仕様に基づく係り受けアノテーションを示している.},また,言い差し,ねじれに対応するために係り先のない文節を認めている(図\ref{fig:dep-csj-nejire}の実線.「目標は」の係り先として適切なものがない)\inhibitglue\footnote{図\ref{fig:dep-csj-inversion}と図\ref{fig:dep-csj-nejire}の例はCSJの係り受けアノテーションマニュアル\cite{CSJ:係り受けマニュアル}から引用した.}.KNBコーパスでは,京大コーパスとの互換性を重視し,上記のような特殊な仕様は避けることとした.つまり図\ref{fig:dep-csj-inversion}と図\ref{fig:dep-csj-nejire}に相当する現象に対しても,図中の破線にあるように,左から右へ,最も適切と思われる文節に係るようにアノテーションするという方針にした.例えば,例文(\ex{1})(図\ref{fig:dep-knb-nejire})のように,記事の執筆者の誤りによって係り先の文節が括弧に入れられ,括弧抽出処理によって別の文になっている場合があった\footnote{つまり,本来なら「前に」の直前に「)」が来るべきところが,ここでは後に来ている.}.\enumsentence{壊れる(画面が見えなくなる前に)他の携帯を手に入れようと}\begin{figure}[t]\begin{center}\includegraphics{18-2ia6f4.eps}\end{center}\caption{CSJにおけるねじれの係り受けの例(「目標は」の係り先として適切なものがない)}\label{fig:dep-csj-nejire}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-2ia6f5.eps}\end{center}\hangcaption{KNBコーパスにおけるねじれの係り受けの例(「壊れる」の係り先として適切なものが括弧抽出により無くなっている)}\label{fig:dep-knb-nejire}\end{figure}この例文は括弧抽出処理を経て次のように分けられる.\eenumsentence{\item壊れる他の携帯を手に入れようと\item画面が見えなくなる前に}つまり,閉じ括弧位置の間違いのため,「壊れる」の本来の係り先「前に」がなくなっている.これに対して,上記方針に従い,抽出された本来の係り先文節(例文(\ex{0})の「前に」)の係り先文節(「入れようと」)に係るものとした.\subsection{格・省略・照応\label{sec:case-ellipsis-anaphora}}京大コーパスに準拠する形式で,格・省略・照応のアノテーションを付与した.これらの情報は,係り受け関係よりさらに踏み込んだ文の意味構造や,文よりさらに大きい単位である談話の構造について知る手段となる.格アノテーションでは,用言の場合,その用言に係る要素との間の意味的関係を当該用言に付与する.ここでいう意味的関係とは,ガ格,ヲ格,ニ格,ト格,デ格,カラ格などの格助詞に対応する関係や,「〜を通じて」「〜として」などの複合辞に対応する関係,さらには,格助詞や複合辞に対応するものが無い「外の関係」と呼ばれる関係がある\footnote{我々は,日本語の格助詞は用言とその用言に係る要素の意味的関係を(比較的荒い粒度で)表していると考える.しかし,査読者が指摘した通り,日本語の格助詞はいわゆる深層格を表すものではないという点で意味的関係の表現としてさらなる詳細化の余地が残されている.用言とその用言に係る要素の意味的関係の表現方法の洗練は今後の課題とする.}.「は」や「も」などの副助詞でマークされる要素に対しては,例文(\ex{2})のように,これらのいずれかの関係のうち意味的に合致するものが選ばれる.格アノテーションは体言間の意味的関係も対象とする.その場合,体言の必須格を表すノ格や体言の補足的情報を表す修飾格などが付与される.例文(\ex{1})と(\ex{2})に用言格アノテーションの例を,例文(\ex{3})と(\ex{4})に体言格アノテーションの例を挙げる.下線が引いてある用言あるいは体言への格アノテーションが括弧内に書かれている.\enumsentence{一ユーザとしては,かなり使いでが\underline{ある.}(ガ格:使いで,トシテ格:ユーザ)}\enumsentence{Foodは量が\underline{少ない}.(ガ格:量,外の関係:Food)}\enumsentence{フツウの携帯ユーザーの\underline{仲間}入り(ノ格:ユーザー)}\enumsentence{年間最大\underline{1万8千円程度}(修飾:年間,修飾:最大)}省略アノテーションは,それと係り受け関係にあるはずの要素が省略されている場合,その要素の指示対象と意味的関係を付与する.意味的関係は格アノテーションのものと同様である.以下に省略アノテーションの例を挙げる.\enumsentence{4,5回しか\underline{行ったことないけど}.(ガ格:一人称)}\enumsentence{だって携帯の会社変えたらアドレスとか全部変わるもんね.\underline{面倒やん.}(ガ格:変わる)}\enumsentence{\label{ex:sigureden}時雨殿に行った.$\cdots$残念ながら\underline{閉館}していたので…(ガ格:時雨殿)}\enumsentence{\label{ex:yokosen}私の使っている携帯電話に最近原因不明の黒い横線が入るようになってしまった.…もちろんプリペイド携帯電話.…現実の\underline{使用}の上ではそんなに困ることもない…(ガ格:私,ヲ格:電話)}表\ref{tab:cases-breakdown}に,格・省略アノテーションの結果明らかになった,KNBコーパスにおける最頻出の意味的関係上位5つの出現回数を挙げる.いずれのテーマにおいても,ガ格,ヲ格,ニ格,ノ格,修飾格が上位5つを占めた.照応アノテーションでは,ある表現が既出のものと同じ対象を指示している場合,その表現(照応表現と呼ぶ)に対して対応する既出表現の位置情報を付与する.例文(\ex{1}),(\ex{2}),(\ex{3})に照応アノテーションの例を挙げる.\enumsentence{父と野球.\underline{父}は野球が好きだった.(父$=$1文前)}\enumsentence{実は,この2大勢力時代という表現は正確ではない.本当はもう1勢力あるのだ.\underline{それ}が『ネギ』である.(勢力$=$1文前)}\enumsentence{困ったことに,友人たちの間では僕は携帯電話を持ち歩かないことで有名だ.が,それは事実とは反している.\underline{携帯}は持ち歩いている.(電話$=$2文前)}\begin{table}[t]\caption{意味的関係の出現数(出現頻度上位5)}\label{tab:cases-breakdown}\input{06table05.txt}\end{table}例文(\ex{0})に関して,下線の「携帯」は2文前の「携帯電話」と同じ対象を指示しているが,照応アノテーションの単位はタグ単位なので,「電話」のみと$=$で結んでいる.照応アノテーションは,明示的に書かれている表現に対してだけでなく,省略された表現に対してもなされる.例えば,例文(\ref{ex:sigureden})と(\ref{ex:yokosen})に対しては,それぞれ例文(\ex{1})と(\ex{2})のようにアノテーションする.\enumsentence{時雨殿に行った.…残念ながら\underline{閉館}していたので…(時雨殿$=$1文前)}\enumsentence{私の使っている携帯電話に最近原因不明の黒い横線が入るようになってしまった.…もちろんプリペイド携帯電話.…現実の\underline{使用}の上ではそんなに困ることもない…(私$=$2文前,電話$=$2文前)}結局,照応アノテーションでは,形態素や係り受けのアノテーションと違い,京大コーパスからの仕様拡張の必要は無かった.KNBコーパス全体における照応表現の出現回数は9,881回だった.テーマ別に見ると,「京都観光」では3,620回,「携帯電話」では3,146回,「グルメ」では1,939回,「スポーツ」では1,176回だった.\subsection{固有表現}固有表現アノテーションでは,文中の人名や地名,日付,時間表現等をマークする.固有表現は解析システムの辞書に登録されていない場合が多く,何も手段を講じなければ未知語として扱われ,解析誤りを引き起こしうる.解析システムをより頑健にするには,本コーパスの固有表現アノテーションのような,固有表現自動抽出を学習するためのデータが必要である.KNBコーパスの固有表現は,京大コーパスと同様に,IREXの仕様に準拠してアノテーションされている.固有表現は次の8つのいずれかに分類される.\eenumsentence{\itemORGANIZATION…組織名\itemLOCATION…地名\itemPERSON…人名\itemARTIFACT…固有物名\itemPERCENT…割合表現\itemMONEY…金額表現\itemDATE…日付表現\itemTIME…時間表現}上記分類以外に,それら分類のいずれにも属さない,あるいは判定が困難な場合に用いるOPTIONALという分類基準がある.例文(\ex{1})に例を挙げる.\eenumsentence{\item\underline{近鉄}ファンだった.(近鉄:ORGANIZATION)\item\underline{京都}を回ってみようと思います☆(京都:LOCATION)\itemあの\underline{孫}社長が携帯業界に参入してきた.(孫:PERSON)\item初めて\underline{バンホーテンココア}を飲んだときも衝撃でしたが,(バンホーテンココア:ARTIFACT)\item乗車率\underline{90%}程度だろうか.(90%:PERCENT)\item蕎麦の一杯や定食の一人前が\underline{800円}から\underline{1000円}もする.(800円:MONEY,1000円:MONEY)\item\underline{来シーズン}もプロ野球戦線が盛り上がるといいですね〜.(来シーズン:DATE)\item\underline{9時}過ぎに出発する.(9時:TIME)}\ref{sec:case-ellipsis-anaphora}節の格・省略・照応アノテーションと同様,固有表現アノテーションにおいても,京大コーパス(IREX)の仕様の拡張は必要なかった.\begin{table}[b]\caption{固有表現の出現数}\label{tab:NE-breakdown}\input{06table06.txt}\end{table}アノテーションの結果,KNBコーパスには固有表現が2,073個含まれていることが分かった.その内訳を表\ref{tab:NE-breakdown}に挙げる.\subsection{評価表現\label{sec:evalexp}}KNBコーパスにおける評価とは,ある対象に対して述べられた肯定的,もしくは否定的判断や態度,叙述を指す.典型的には,「お酒は美味しかったですよ.」のような,ある対象に対する肯定的/否定的な判断や態度がそれにあたる.また,「昼食が2万3千円〜だった.」のような事実的な言明であっても,その事実がある対象への肯定的/否定的評価に結びつくなら,それも評価に含める.評価表現アノテーションでは,川田ら(川田他2009)に基づき,何らかの評価を含む文に対して次の情報を付与する.\eenumsentence{\item評価保持者:その文における評価を発信している人や団体.\item評価表現:文中での評価を表している部分.\item評価タイプ:評価の種類と評価の極性.極性は,「$+$」が肯定的評価で「$-$」が否定的評価を表す.\begin{description}\item[当為:]評価保持者による提言や助言,対策を表す言明である.典型的には,「〜すべきだ」「〜しましょう」といったものがこれにあたる.\item[要望:]評価保持者の要望や要請を表す言明である.典型的には,「〜してほしい」「〜を求める」などがこれにあたる.\item[感情$+/-$:]評価保持者の欲求や喜怒哀楽,好き嫌いといった感情を表す言明である.典型的には,「〜が好き」「〜が悲しい」などがこれにあたる.\item[批評$+/-$:]評価保持者による賛成や反対,称賛,批判などの感情の言明がこれにあたる.典型的には,「〜が素晴らしい」「〜が納得できない」などがこれにあたる.\item[メリット$+/-$:]評価保持者による,評価対象に対する利点や欠点,特徴や課題について述べた言明である.典型的には,「〜効果がない」「〜がうるさい」などがこれにあたる.\item[採否$+/-$:]評価保持者が評価対象を積極的に利用したり,新たな製品や制度などを採用する姿勢を述べた言明である.典型的には,「〜を利用する」「〜を導入する」「〜を採用する」などがこれにあたる.\item[出来事$+/-$:]評価対象によって引き起こされた良い/悪い状況や個別的経験について述べられた言明である.典型的には,「〜が壊れた」「〜を受賞した」などがこれにあたる.\end{description}\item評価対象:評価の対象.}例文(\ex{1})と(\ex{2})に,「おかきやせんべいの店なのだが,これがオイシイ.」と「貧乏人臭い,なんか怪しげな人っぽいといった類のものです.」という文への評価表現アノテーションを挙げる.\eenumsentence{\item[]\hspace*{-5mm}おかきやせんべいの店なのだが,これがオイシイ.\item評価保持者:[著者]\item評価表現:オイシイ\item評価タイプ:批評$+$\item評価対象:おかきやせんべい}\eenumsentence{\item[]\hspace*{-5mm}貧乏人臭い,なんか怪しげな人っぽいといった類のものです.\item評価保持者:[不定]\item評価表現:貧乏人臭い,なんか怪しげな人っぽいといった類のものです.\item評価タイプ:批評$-$\item評価対象:[プリペイドユーザー]}[$\cdots$]でマークされているものは,文中に存在しない評価保持者,評価対象である\footnote{(\ex{0})で評価対象が[プリペイドユーザー]となっているが,これは直前の文が「加えて,プリペイドユーザーというものが持つ社会に対するマイナスイメージも考えてみました.」だったためである.}.(\ex{0})で評価保持者が[不定]となっているのは,その評価が執筆者や特定の個人,団体によるものではなく,世間一般の評価であることを示している.一文に複数の評価が含まれていることもある.次の例では,「しょぼかった」「画面も小さかった」「音も3和音とかやった」の3つの評価表現が一文に含まれている.\eenumsentence{\item[]最初はカメラもしょぼかったし,画面も小さかったし,音も3和音とかやった.\item評価保持者:\begin{enumerate}\item[著者]\item[著者]\item[著者]\end{enumerate}\item評価表現:\begin{enumerate}\itemしょぼかった\item画面も小さかった\item音も3和音とかやった\end{enumerate}\item評価タイプ:\begin{enumerate}\item批評$-$\itemメリット$-$\itemメリット$-$\end{enumerate}\item評価対象:\begin{enumerate}\itemカメラ\item画面\vspace{-0.5pt}\item音\end{enumerate}}(\ex{0})の(1)(2)(3)は対応しており,例えば,評価「しょぼかった」の評価保持者は「[著者]」,評価タイプは「批評$-$」,評価対象は「カメラ」となる.評価表現アノテーションは一文内で完結しない場合が頻繁にある.例えば例文(\ex{1})のように,評価の対象と評価表現が(近接する)異なる文に書かれている場合がそうである.例文(\ex{1})の2文目は,1文目に書かれている対象「ココア・オレ」に対する評価を述べている\footnote{(\ex{1})のaからdは2文目に付与される情報である.}.\eenumsentence{\item[]私はココア・オレを買います.\\これは何度飲んでも衝撃です.\item評価保持者:[著者]\item評価表現:衝撃です\item評価タイプ:感情$+$\item評価対象:[ココア・オレ]}異なる文に分断された評価対象と評価表現は多くの場合,格・省略・照応関係で結ばれている.従って評価表現アノテーションは,格・省略・照応関係のアノテーションと合わせてなされるべきである.\ref{sec:case-ellipsis-anaphora}節で述べた通り,KNBコーパスでは格・省略・照応関係もアノテーションされており,例文(\ex{0})の2文は照応表現「これ」を介して次のように関連づけられる.\eenumsentence{\item[]私はココア・オレを買います.\item[]\underline{これ}は何度飲んでも衝撃です.(これ$=$ココア・オレ)}\begin{table}[b]\caption{評価表現の出現数}\label{tab:eval-breakdown}\input{06table07.txt}\end{table}KNBコーパス全体を評価表現アノテーションした結果,2,045文(48.85\%)の文に何らかの評価表現が含まれていた.その内訳は表\ref{tab:eval-breakdown}の通りである\footnote{評価表現を含む文の総数が2,045なのに対し,表\ref{tab:eval-breakdown}の合計が2,510となっているが,これは複数の評価表現を含む文が存在するためである.}.表において,「当」「要」「感$+$」等はそれぞれ「当為」「要望」「感情$+$」等を表す.\subsection{アノテーション可視化HTMLファイル}以上で述べた通り,KNBコーパスのアノテーションは多岐にわたり,そのままでは(人間にとって)可読性が低い.そこで,アノテーションを可視化したHTMLファイルを別途用意した.図\ref{fig:visualize}は,「悩んだ末,カシオのG’zoneという,衝撃や水濡れに強いのがウリの機種に決めました.」という文へのアノテーションを可視化した例である.図\ref{fig:visualize}の上段が,係り受けと格・省略・照応,固有表現,評価表現\footnote{アノテーション可視化HTMLファイル中では「評判表現」となっている.}のアノテーションを可視化したもので,下段が形態素のアノテーションを可視化したものである.\begin{figure}[t]\begin{center}\includegraphics{18-2ia6f6.eps}\end{center}\caption{アノテーション可視化HTMLファイル}\label{fig:visualize}\end{figure}係り受け関係はタグ単位に基づくものを可視化している.また,「濡れに」に係っている「衝撃や」と「水」は並列関係にあるとアノテーションされているので「P」(Parallel)とラベル付けされている.格・省略アノテーションに関して,例えば「決めました.」はガ格とニ格を取り,それぞれ,省略されている一人称と,直前のタグ単位「機種」がそれらの要素となっている.加えて,「(悩んだ)末」という時間格を取る.照応アノテーションの例として,「機種」が一文前の「機種」と照応関係にあるとアノテーションされている.固有表現として「カシオ」と「G’zone」の2つがこの例文中にある.前者は企業名なので「ORGANIZATION」,後者は製品名であり「ARTIFACT」となる.この例文中の評価情報として「衝撃や水濡れに強いのがウリの機種に決めました」がある.この評価保持者は[著者]である.評価保持者が[著者]あるいは[不定]の場合,可視化HTML中では明示しない.評価タイプは「採否$+$」であり,評価対象は「衝撃や水濡れに強いのがウリの機種」となる.評価表現は「衝撃や水濡れに強いのがウリの機種に決めました」で,この箇所は係り受けの可視化において当該文字列が黄色でマークされている.図\ref{fig:visualize}下段の形態素アノテーションの可視化では,形態素ごとに,表出形,読み,原形,品詞,活用型と活用形を示している.また,文節境界とタグ単位境界もこの箇所で明記している. \section{構築から配布まで\label{sec:construction}} KNBコーパスの構築から配布までの手順は次の通りである.\begin{enumerate}\item記事の収集\item文境界/括弧抽出アノテーション\item形態素/係り受け/格・省略・照応/固有表現アノテーション\item評価表現アノテーション\item誹謗・中傷・宣伝的内容の削除\itemアノテーション可視化HTMLの生成\end{enumerate}記事の収集は,独自にブログサーバを設置し,大学生にアルバイトとして記事を書いてもらうことで収集した.その際,記事執筆にあたった全ての大学生から記事の著作権譲渡の承諾を得た.手順(2)と(3)は,自動でアノテーションした後,人手修正を施した.(3)の自動アノテーションでは,京大コーパスと同様,JUMAN/KNP\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html}を用いた.一方,(4)は全て人手で行った.また(2)(3)(4)に関して,京大コーパスと同様,アノテーション基準の見直しと再アノテーションというサイクルを何度か繰り返して行った.その後,元のブログ記事にある,特定の個人,団体に対する誹謗や中傷,宣伝的な内容を人手でチェックし,削除,あるいは伏せ字化した.最後に,全てのアノテーションを可視化したHTMLファイルを自動生成した.完成したKNBコーパスのパッケージ(4.2~MB)は,京都大学情報学研究科—NTTコミュニケーション科学基礎研究所共同研究ユニットのホームページ\footnote{http://nlp.kuee.kyoto-u.ac.jp/kuntt/}からダウンロードできる.京大コーパスとは異なり,コーパスのパッケージには,アノテーションだけでなく記事の本文も含まれている. \section{おわりに} \label{sec:conclusion}本稿では,我々が構築した,他に類を見ない,解析済みブログコーパスについて報告した.特に,ブログ特有の現象とそれらの正確な記述,京大コーパスとの互換性の重視について述べた.今後は,コーパスの大規模化と,KNBコーパスを用いた各種解析システム(形態素解析器や構文解析器等)のブログドメインへの適応を試みる予定である.自然言語処理技術のブログへの適用が今後ますます活発化することは明らかである.その成否は,本コーパスのような解析済みブログコーパスを充実させることが出来るかどうかにかかっている.一方,解析済みブログコーパスの充実にとって欠かせないのは,本稿で述べたような構築ノウハウの蓄積と構築されたコーパスの流通である.本研究の貢献はこの点にある.\acknowledgment本研究は,京都大学情報学研究科—NTTコミュニケーション科学基礎研究所共同研究ユニット「グローバルコミュニケーションを支える言語処理技術」の活動の一環として行われました.共同研究ユニットのメンバーの方々に感謝申し上げます.また,評価情報のアノテーションについて御協力いただいた情報通信研究機構知識処理グループのメンバーの方々に感謝申し上げます.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Adar,Hurst,Finin,Glance,Nicolov,\BBA\Tseng}{Adaret~al.}{2008}]{ICWSM:2008}Adar,E.,Hurst,M.,Finin,T.,Glance,N.,Nicolov,N.,\BBA\Tseng,B.\BBOP2008\BBCP.\newblock{\BemProceedingsofthe2ndInternationalConferenceofWeblogsandSocialMedia}.\newblockTheAAAIPress.\bibitem[\protect\BCAY{Adar,Hurst,Finin,Glance,Nicolov,\BBA\Tseng}{Adaret~al.}{2009}]{ICWSM:2009}Adar,E.,Hurst,M.,Finin,T.,Glance,N.,Nicolov,N.,\BBA\Tseng,B.\BBOP2009\BBCP.\newblock{\BemProceedingsofthe3rdInternationalConferenceofWeblogsandSocialMedia}.\newblockTheAAAIPress.\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2009}]{Akamine:Kawahara:Kato:Nakagawa:Inui:Kurohashi:Kidawara:2009}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2009\BBCP.\newblock\BBOQWISDOM:AWebInformationCredibilityAnalysisSystematic.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009SoftwareDemonstrations},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2007}]{NAISTCorpus:2007}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2007\BBCP.\newblock{NAIST}テキストコーパス:述語項構造と共参照関係のアノテーション(解析・対話)\inhibitglue.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},\mbox{\BPGS\71--78}.社団法人情報処理学会.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{Kawahara:Kurohashi:Hashida:2002j}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock「関係」タグ付きコーパスの作成.\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{河原\JBA笹野\JBA黒橋\JBA橋田}{河原\Jetal}{2005}]{KUCorpus:rel:2005}河原大輔\JBA笹野遼平\JBA黒橋禎夫\JBA橋田浩一\BBOP2005\BBCP.\newblock\Jem{格・省略・共参照タグ付けの基準}.\newblockhttp://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/rel\_guideline.pdf.\bibitem[\protect\BCAY{川田\JBA中川\JBA赤峯\JBA森井\JBA乾\JBA黒橋}{川田\Jetal}{2009}]{評価情報タグ付与基準:2009}川田拓也\JBA中川哲治\JBA赤峯亨\JBA森井律子\JBA乾健太郎\JBA黒橋禎夫\BBOP2009\BBCP.\newblock\Jem{評価情報タグ付与基準}.\newblockhttp://www2.nict.go.jp/x/x163/project1/eval\_spec\_20090901.pdf.\bibitem[\protect\BCAY{Kobayashi,Inui,\BBA\Matsumoto}{Kobayashiet~al.}{2007}]{Kobayashi:Inui:Matsumoto:2007}Kobayashi,N.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQOpinionminingfromwebdocuments.\BBCQ\\newblock{\BemTransactionsofJSAI},{\Bbf22}(2),\mbox{\BPGS\227--238}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2006}]{日本語話し言葉コーパスの構築法:2006}国立国語研究所.\newblock日本語話し言葉コーパスの構築法(国立国語研究所報告書124)\inhibitglue.\\newblock\Turl{http://www.kokken.go.jp/katsudo/seika/corpus/csj\_report/CSJ\_rep.pdf}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo:Yamamoto:Matsumoto:2004}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\Bem2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{黒橋\JBA居蔵\JBA坂口}{黒橋\Jetal}{2000}]{KUCorpus:syn:2000}黒橋禎夫\JBA居蔵由衣子\JBA坂口昌子\BBOP2000\BBCP.\newblock\Jem{形態素・構文タグ付きコーパス作成の作業基準version1.8}.\newblockhttp://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/syn\_guideline.pdf.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:McCallum:Pereira:2001}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsoftheEighteenthInternationalConferenceonMachineLearning(ICML2001)},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{丸山\JBA高梨\JBA内元}{丸山\Jetal}{2006}]{丸山:高梨:内元:2006}丸山岳彦\JBA高梨克也\JBA内元清貴\BBOP2006\BBCP.\newblock第5章節単位情報.\\newblock\Jem{日本語話し言葉コーパスの構築法(国立国語研究所報告書124)\inhibitglue},\mbox{\BPGS\255--322}.国立国語研究所.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2006}]{McClosky:Charniak:Johnson:2006}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2006\BBCP.\newblock\BBOQRerankingandSelf-TrainingforParserAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL'06)},\mbox{\BPGS\337--344}.\bibitem[\protect\BCAY{McDonald,Lerman,\BBA\Pereira}{McDonaldet~al.}{2006}]{McDonald:Lerman:Pereira:2006}McDonald,R.,Lerman,K.,\BBA\Pereira,F.\BBOP2006\BBCP.\newblock\BBOQMultilingualDependencyAnalysiswithaTwo-StageDiscriminativeParser.\BBCQ\\newblockIn{\BemProceedingsofCoNLL-X},\mbox{\BPGS\216--220}.\bibitem[\protect\BCAY{宮崎\JBA森}{宮崎\JBA森}{2008}]{宮崎:森:2008}宮崎林太郎\JBA森辰則\BBOP2008\BBCP.\newblock製品レビュー文に基づく評判情報コーパスの作成とその特徴の分析.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告2008(90)},\mbox{\BPGS\99--106}.\bibitem[\protect\BCAY{Murakami,Masuda,Matsuyoshi,Nichols,Inui,\BBA\Matsumoto}{Murakamiet~al.}{2009}]{Murakami:Masuda:Matsuyoshi:Nichols:Inui:Matsumoto:2009}Murakami,K.,Masuda,S.,Matsuyoshi,S.,Nichols,E.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQAnnotatingSemanticRelationsCombiningFactsandOpinions.\BBCQ\\newblockIn{\BemProceedingsoftheThirdACLWorkshoponLinguisticAnnotationWorkshop},\mbox{\BPGS\150--153}.\bibitem[\protect\BCAY{新里\JBA橋本\JBA河原\JBA黒橋}{新里\Jetal}{2007}]{新里:橋本:河原:黒橋:2007}新里圭司\JBA橋本力\JBA河原大輔\JBA黒橋禎夫\BBOP2007\BBCP.\newblock自然言語処理基盤としてのウェブ文書標準フォーマットの提案.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\602--605}.\bibitem[\protect\BCAY{Nivre,Hall,Nilsson,senEryi~git,\BBA\Marinov}{Nivreet~al.}{2006}]{Nivre:Hall:Nilsson:senEryigit:Marinov:2006}Nivre,J.,Hall,J.,Nilsson,J.,senEryi~git,G.,\BBA\Marinov,S.\BBOP2006\BBCP.\newblock\BBOQLabeledPseudo-ProjectiveDependencyParsingwithSupportVectorMachines.\BBCQ\\newblockIn{\BemProceedingsofCoNLL-X},\mbox{\BPGS\221--225}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{2000}]{IREX:2000}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQIREX:IRandIEEvaluation-BasedProjectinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonLanguageResourcesandEvaluation(LREC2000)},\mbox{\BPGS\1475--1480}.\bibitem[\protect\BCAY{Sriphaew,Takamura,\BBA\Okumura}{Sriphaewet~al.}{2009}]{Sriphaew:Takamura:Okumura:2009}Sriphaew,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2009\BBCP.\newblock\BBOQCoolBlogClassificationfromPositiveandUnlabeledExamples.\BBCQ\\newblockIn{\BemAdvancesinKnowledgeDiscoveryandDataMining,13thPacific-AsiaConference(PAKDD)},\mbox{\BPGS\62--73}.\bibitem[\protect\BCAY{内元\JBA丸山\JBA高梨\JBA井佐原}{内元\Jetal}{2004}]{CSJ:係り受けマニュアル}内元清貴\JBA丸山岳彦\JBA高梨克也\JBA井佐原均\BBOP2004\BBCP.\newblock\Jem{『日本語話し言葉コーパス』における係り受け構造付与}.\newblockhttp://www.kokken.go.jp/katsudo/seika/corpus/public/manuals/dependency.pdf.\end{thebibliography}\begin{biography}\bioauthor{橋本力}{1999年福島大学教育学部卒業.2001年北陸先端科学技術大学院大学博士前期課程修了.2005年神戸松蔭女子学院大学大学院博士後期課程修了.京都大学情報学研究科産学官連携研究員を経て,2007年山形大学大学院理工学研究科助教,2009年より独立行政法人情報通信研究機構専攻研究員.現在に至る.自然言語処理の研究に従事.博士(言語科学).情報処理学会,言語処理学会,各会員.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程終了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,ACM,各会員.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員を経て,2006年より独立行政法人情報通信研究機構研究員.現在,同主任研究員.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,ACL,各会員.}\bioauthor{新里圭司}{2006年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(情報科学).同年10月より京都大学大学院情報学研究科特任助教.2009年4月より特定研究員.2011年4月より楽天技術研究所研究員.自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所主幹研究員.工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V15N03-06
\section{はじめに} label{節:背景}近年,インターネットの普及や企業に対するe-文書法等の施行に伴い,我々の周りには膨大な電子化文書が存在するようになってきた.そこで,ユーザが必要な情報へ効率よくアクセスするための支援技術の研究として自動要約の研究が盛んに行われている.自動要約の既存研究としては,要約する前の文章(原文)とそれを要約したもの(要約文)のパラレルコーパスを使用し,どのような語が要約文へ採用されているのか確率を用いることによってモデル化する手法\cite{Jing:2000,Daume:2002,Vandeghinste:2004}や,大量のコーパスから単語や文に対して重要度を計算し,重要であると判断された語や文を要約文に採用する方法\shortcite{oguro:1991論文,Hori:2003}がある.これらは計算機のスペックや大量の言語資源を手に入れることが出来るようになったことにより近年多く研究されている.しかし言語を全て統計的に処理してしまうことはあまりにも大局的過ぎ,個々の入力に合った出力が難しくなってしまう.また我々人間が要約を行うときには文法などの知識やどのように要約を行ったら良いのか等,様々な経験を用いている.そのため人間が要約に必要だと考える語や文と相関のあるような重要度の設定は難しい.さらに人間が要約を行う際は様々な文の語や文節など織り交ぜて要約を作成するが,既存手法である文圧縮や文抽出ではこのような人間が作成する要約文は作ることができない.そこで本論文では人間が作成するような要約文,つまり複数の文の情報を織り交ぜて作成する要約文の作成を目指す.また上述のように語や文などに人間と同じように重要度を設定することは困難であるため,本論文ではこれらに対して重要度の設定を行わずに用例を模倣利用することによって要約文を獲得する方法を提案する.以下,\ref{章:用例利用型のアプローチ}章にて用例利用型の考え方と既存研究,また用例利用型を要約にどう適用するのか述べる.続いて\ref{章:提案法のシステム概要}章にて提案法のシステム概要を述べ,\ref{章:類似用例文の選択}章から\ref{章:文節の組合せ}章にて提案法の詳細を述べる.そして\ref{章:評価実験及び考察}章にて実験,\ref{章:結果及び考察}章にて結果及び考察を行う. \section{用例利用型のアプローチ} label{章:用例利用型のアプローチ}\subsection{用例利用型の既存研究}用例利用型のアプローチ(example-basedapproach)とは事例を模倣して要約や翻訳など言語を作成することであり,アナロジーに基づく翻訳手法としてNagao~\cite{Nagao:1984}によって提唱された.Nagaoは人間が第二言語を学ぶ際の学習過程に注目し,機械もその人間の学習過程を真似れば翻訳ができるのではないかと提案した.人間が言語を習得する際にはまずは基本的で単純な文や文節を学習し,さらに学習を進める際には今までに学習した事例の中から類似した文や文節を模倣利用して組合せたり語句を置き換えたりすることによって新しく文を作成している.機械も同様に今までに収集した事例を真似ることで文が作れるのではないかという考えである.機械翻訳の分野では用例利用型の翻訳が実装され,これまでに良好な結果を得ている\shortcite{佐藤理史:1989NL,imamura:2004,Kurohashi:2005,Sato:1995}.これらの既存研究では原言語(日本語)と目的言語(英語)のパラレルコーパスを用例として使用している.そして用例がどのように翻訳が行われているか参照し,その対を利用することで翻訳を行っている.さらに換言処理の分野でも用例利用の考え方が用いられている.大竹\cite{大竹清敬:2003NLP}は同一言語内における翻訳と捉え被換言表現と換言表現の対を用例として利用している.そして入力となる被換言表現と類似した用例の被換言表現側を検索しそれと対となっている換言表現を模倣して換言を行っており,良好な結果を得ている.このように用例利用型のアプローチは翻訳や換言で用いられており,良好な結果が得られている.\subsection{自動要約へ適応}\label{節:自動要約へ適応}人間が要約を行う際にはコツがあるという.それは対象物を読んでどのような文や文節が要旨として必要なのか判断し,より短い表現に置き換えることである.その要旨判断の元となっているのは要約とはどういうものなのか,どういう傾向で作成すれば良いのか等の今までの要約事例を元にした知識や経験である.図\ref{人間が考える要約}に人間が行う要約方法の例を示す.図\ref{人間が考える要約}では人間が要約の対象となる文章を読んで,この記事は「監査に乗り出す」という内容の記事だと認識する.また「監査」と「捜査」が似ている単語であるという知識も持っている.そして人間は監査や捜査という内容の記事がどのような傾向で要約されるのかという経験も用いて,要約文を作成する.つまり人間が行う要約過程も前節で述べた人間が第二言語を学習する際の翻訳する過程と似ており,経験,事例を利用していることが分かる.そこで本論文では機械も人間の要約する過程を真似れば自動要約ができるのではないかと考え,用例利用型の要約を行う.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f1.eps}\caption{人間が行う事例をもとにした要約}\label{人間が考える要約}\end{center}\end{figure}\subsection{用例利用型要約の利点}\label{節:用例利用型要約の利点}用例利用型のアプローチを自動要約に用いることの利点は以下である.\begin{enumerate}\item保守が容易である\\システムを構築する際には一般的に管理,保守の容易性が求められる.用例利用型のアプローチでは使用する状況に応じて用例を変更,または加えることだけで容易に改良ができるため,管理や保守が容易に行うことができる.なお追加した用例が他の用例に副作用を及ぼすことがない.これに対して,人手で要約規則を作成する規則利用の要約は修正や保守に高いコストがかかる.また,修正するための規則が他の規則と競合してしまうことや人手による作成がゆえ,要約する際に必要な規則が欠ける等の問題も起こってしまう.\item重要度の設定が不要\\これまでに行われてきた重要文抽出や文圧縮の研究の多くは頻度情報や位置情報,タイトル情報などを用いて語や文節に対して重要度を計算していた.しかしながら人間はさまざまな情報を考慮して要点を判断しているため,その要点と相関のあるような重要度を設定することは難しい.これに対して用例利用型要約では重要度の計算を必要としない.その代わりに2つの表現間の類似度を用いるのである.本論文ではある表現に対して計算する重要度よりも2つの表現間対して計算する類似度の方が容易であると考える.\item入力の内容により適した出力が得られる\\統計的な要約手法は一般的に要約文のコーパスに含まれる単語に対して確率を計算する\cite{Witbrock:1999,Knight:2002}.統計的なアプローチではより大局的な確率に注目するため入力の内容により適した出力を得ることが難しい.しかしながら用例利用型要約では用例の中から類似した用例を見つけ,その用例に従って要約を行うため入力によりふさわしい出力が得られる.\end{enumerate} \section{提案法のシステム概要} label{章:提案法のシステム概要}本章では用例利用型の要約である提案法の概要を示す.まず本論文で使用する用例を紹介し,その後提案システムの全体の流れを説明する.最後に,用例を用いた要約の既存手法を取り上げ,本手法との違いを述べる.\subsection{用例として用いる言語資源}\label{節:用例として用いる言語資源}本論文の用例利用型要約では用例として,日経ニュースメールNikkei-goo\toolref{言語資源:nikkei-goo}から配信されている速報ニュースを使用した.この速報ニュースは月曜日から金曜日までの週に5日,1日3回のメールによって配信されており,以下のようなものである.\begin{screen}\exp{例:日経メール}日経ニュースメールNikkei-gooで配信されているメールの例\ul{記事のタイトル}{\setlength{\leftskip}{1zw}九州新幹線長崎ルート、JR九州が並行在来線の運行継続\par}\ul{本文}{\setlength{\leftskip}{1zw}九州新幹線長崎ルート問題で、並行する在来線の運行をJR九州が続けることに。沿線市町村の反対根拠が消え着工へ前進。\par}…………………………………………………………………………………………………………\ul{記事のタイトル}{\setlength{\leftskip}{1zw}素材各社、高機能品を中国で生産\par}\ul{本文}{\setlength{\leftskip}{1zw}素材各社が中国で高機能素材を生産へ。三井化学など車などに使う高機能樹脂工場を建設。中国素材市場の需要急伸に対応。\par}\end{screen}例\ref{例:日経メール}のように配信されているニュースは記事のタイトル及び本文(1文から3文)から構成されておりニュース記事の要点を短くまとめたものである.しかし2文目以降の文は1文目の付加情報であることが多いため,本論文では用例文として利用する対象を本文の1文目に限定した.またシステムで使用する構文解析器での誤りや解析の揺れを最小限に抑えるため,この速報ニュースには前処理を施してから用例データベースに格納している.この前処理は\ref{章:類似用例文の選択}章で述べる.\subsection{システムの流れ}\label{節:システムの流れ}提案法の要約システムは大きく分けて3つのステップから構成される.入力は複数の文を持つ文書または1文のみの文書であり,これを用例に従い1文に要約する.用例には前節で述べた速報ニュースを用いている.図\ref{提案システムの流れ図}を用いてシステムの流れを説明する.\begin{figure}[b]\begin{center}\includegraphics{15-3ia6f2.eps}\caption{提案システムの流れ図}\label{提案システムの流れ図}\end{center}\end{figure}まずStep1では入力となるニュース記事(複数文)を受け取り,用例の集合の中から内容の類似した類似用例文を検索する.続いてStep2で先程選ばれた類似用例文と入力ニュース記事の文節を比較する.類似用例文の文節1つに対して類似していると判断された入力の文節が全て対応候補として選択される.また類似用例文の文節に対して,対応する入力の文節が1つも無い場合はその類似用例文を使用せず,次に検索された類似用例文を使って対応付けを行う.そしてStep3では選択された対応候補を使用し,用例により類似した文節で日本語として繋がりの良い組合せを探索する.このステップによって出力の要約文が得られる.\subsection{用例に基づく要約の関連研究}用例に基づいた言語生成の研究は主に機械翻訳または換言で実装されているが,要約の分野ではNguyenら\cite{Le:2004}以外に前例はない.Nguyenら\cite{Le:2004}は用例利用型の要約として,1文を入力としてそれを圧縮する手法を提案している.この要約手法は用例として原文と要約文の対から作成したテンプレート規則を使用している.またこのテンプレートの他にも換言規則(lexicalrule)も作成している.これは例えば,ThedocumentをDocumentに,TwocompaniesをCompaniesに換言するものである.そして入力として``Thedocumentisverygoodandincludesatutorialtogetyoustarte.''という文が入ってきたときに,``Documentisverygood.''と文圧縮されるシステムである.これに対し,提案法のシステムでは人間が作成するような要約文により近づけるため入力の単位を複数文(ニュース1記事)として文節を組合せることにより1文に要約する.つまり文圧縮とは異なる.そのため文字の削除率は必然的に高くなり,Nguyenらよりも本論文で取り組む問題はさらに困難である.また本論文では人手で作成された要約文のみを用例として用いているため原文との対応を取る必要がない.そのため容易に用例を収集することができ,原文と要約文の対応コーパスが少ない特許や医学文書の分野でも効果的に要約が作成できる. \section{類似用例文の選択} label{章:類似用例文の選択}本章ではニュース1記事を入力として受け取り,その記事の内容に類似した用例「類似用例文」の選択方法を述べる.この類似用例文は入力ニュース記事が要約文を作成する際に模倣利用するものである.類似用例文を選ぶ際には解析誤り等を防ぐためまず初めに入力に対して文の整形を施す.これは用例として使用している速報ニュースに対して施した文の整形と同様の方法であり,本章で説明する.続いて類似用例文の選択や\ref{章:文節の対応付け}章で用いる類似単語データベースについて説明し,最後に類似用例文の選択での中心部分を述べる.\subsection{前処理}類似用例文の選択を行う前に,前処理として文の整形を行う.これは構文解析を行う際に解析ミスや解析の揺れが出てしまうのを未然に防ぐために行うものである.解析ミスや解析の揺れは\ref{節:類似用例文の選択}節で行う類似用例文の選択で不当な類似スコアを与えてしまうことに繋がってしまうためできるだけ抑えなくてはいけない.整形を施す部分は括弧の部分であり,これらについては括弧及びその中の情報を削除するまたは括弧のみを削除する操作を行っている.この整形は入力されるニュース記事に対して,また用例データベースを作成する際の用例にあらかじめ施すものである.用例文や入力のニュース記事に含まれる括弧には丸括弧()やカギ括弧「」がある.丸括弧では直前にくる語に関する年齢,地名,代表者名,補足情報,換言であり,このような役割である丸括弧の情報は削除してもニュースの内容は変わらない.そのため丸括弧については括弧及びその括弧内に含まれている語を削除する操作を行う.続いて,カギ括弧の整形について述べる.カギ括弧の役割としては引用や強調があるが,入力記事や用例文には同じような使われ方であるにも関わらず,カギ括弧が付いている場合とそうでない場合がある.またカギ括弧の有無だけで構文解析の結果が異なってしまうことがあるため,これを防ぐには引用部分がある場合には全てカギ括弧を付ける,もしくは全てカギ括弧を削除するどちらかをしなくてはならない.しかしカギ括弧の付いていないものに対して範囲を指定し括弧を付加することは意味解析など様々な技術を用いても確実にできるものは少ないため後者のカギ括弧を削除する操作を行った.\subsection{類似単語データベース}\label{節:類似単語データベース}類似単語データベースは使われ方の似た単語を類似したものとして格納したものである.この場合の使われ方が似ているとは同じ語と係り受け関係を持ちやすいことを意味する.例えば例\ref{類似単語DB}に示すように「参入」と「進出」は同じ係り受け関係を持ちやすい.このような語を似ていると判断し,データベースに格納する.\begin{screen}\exp{類似単語DB}使われ方の似た単語参入を予定—進出を予定参入を発表—進出を発表\end{screen}この類似度を測る際にはLin~\cite{Lin:1998}の相互情報量を用いた類似度を日本語に対応できるように改良して単語間の類似度計算を行った.Linはテキストコーパスから係り受け関係にある2文節とその文法関係に対して``(have,SUBJ,I)''のように3つ組($w,r,w'$)を作成している.3つ組には以下の式で与えられる相互情報量も付加している.この相互情報量は係り受け関係の繋がりの強さを意味する.\begin{equation}\begin{aligned}[b]I(w,r,w')&=\log\frac{P(w,r,w')}{P(r)\timesP(w|r)\timesP(w'|r)}\\&=\log\frac{||w,r,w'||\times||*,r,*||}{||w,r,*||\times||*,r,w'||}\end{aligned}\label{IM}\end{equation}上式の$*$は任意の単語であり,$||\cdot||$は出現頻度を表す.例えば$||*,r,*||$ならば文法関係が$r$である3つ組の出現頻度を表す.さらに単語$w_1$と単語$w_2$の類似度を算出するために以下の式を用いて計算を行っている.\begin{equation}{Sim_w(w_1,w_2)}=\frac{\sum_{(r,w)\inT(w_1)\capT(w_2)}(I(w_1,r,w)+I(w_2,r,w))}{\sum_{(r,w)\inT(w_1)}I(w_1,r,w)+\sum_{(r,w)\inT(w_2)}I(w_2,r,w)}\label{simMI}\end{equation}式(\ref{simMI})における$T(w_i)$は式(\ref{IM})の$I(w_i,r,w')$が正となるような$(r,w')$の集合を表す.この類似度によって同じ係り受け関係を持ちやすいような単語が類似していると判断できる.本論文ではあらかじめ日本経済新聞コーパス1990--2004年\toolref{言語資源:日経}を使用し,類似単語データベースを作成した.類似用例データベースには単語$w_1$と類似度が高かった上位10\%の類似した単語$w_2$を格納している.また相互情報量を計算する3つ組($w,r,w'$)を日本語に対応できるよう,係り受け関係にある2文節の各々の主辞($w,w'$)と係り元文節に含まれる機能語$r$へと改良した.この例を図\ref{図:3つ組}に示す.続いて,類似単語データベースの一例を以下に示す.例の括弧内の数値の1つ目は類似度を示す.2つ目はその類似度をある単語(例中の「事務所」)と類似している単語(例中の「支店,室,センター」など)の中で最も高かった類似度で正規化したものである.\begin{screen}\exp{nolabel01}類似単語データベースの一例\ul{事務所}{\setlength{\leftskip}{1zw}支店(0.22606~:~1.00000)、室(0.22601~:~0.99977)、センター(0.21635~:~0.95705)、所(0.21327~:~0.94342)、局(0.20754~:~0.91807)\par}\ul{値上げ}{\setlength{\leftskip}{1zw}引き上げ(0.24755~:~1.00000)、値下げ(0.22883~:~0.92438)、引き下げ(0.22575~:~0.91194)、削減(0.21192~:~0.85606)、増産(0.20626~:~0.83321)\par}\ul{再建}{\setlength{\leftskip}{1zw}解決(0.20423~:~1.00000)、復興(0.19219~:~0.94104)、構築(0.19162~:~0.93826)、実現(0.18707~:~0.91598)、開拓(0.17891~:~0.87602)\par}\ul{スポーツ}{\setlength{\leftskip}{1zw}サッカー(0.16291~:~1.00000)、ゴルフ(0.15383~:~0.94426)、ビジネス(0.14445~:~0.88668)、野球(0.14405~:~0.88423)、競技(0.14355~:~0.88116)\par}\ul{描く}{\setlength{\leftskip}{1zw}作る(0.13313~:~1.00000)、書く(0.13185~:~0.99039)、埋める(0.13058~:~0.98085)、つくる(0.12920~:~0.97048)、生かす(0.12774~:~0.95951)\par}\end{screen}\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f3.eps}\caption{相互情報量を計算する3つ組の例}\label{図:3つ組}\end{center}\vspace{-1\baselineskip}\end{figure}\subsection{類似用例文の選択}\label{節:類似用例文の選択}類似用例文の選択では入力ニュース記事と用例データベースに格納されている用例とを比較し,入力の内容や話題の類似した用例「類似用例文」を選択する.提案法のシステムではこの選択された類似用例文を模倣利用して入力ニュース記事を要約する.内容や話題の類似した文章には共通して出現する語が多い.そのため提案法では入力ニュース記事に対して同じ語を多く含むような用例文を獲得する.しかしどんな語でも共通して出現していればよいというわけではない.文章の内容や話題を表すのに貢献する語が両者に共通して出現したときにはそれらの文章は類似していると言える.よって類似用例文の選択では内容をより表している語に注目して比較を行わなくてはならない.本論文では注目する語によって類似用例文の選択部分を2つの段階に分ける.\subsubsection{述語の一致による用例文の限定}まずは述語に注目する.述語は記事の骨子であるため内容を表す最も重要な語である.そのため類似用例文として獲得する用例文を入力の述語を1つ以上含むものに限定する.この段階で行う操作の流れを図\ref{図:類似用例1}に示す.図\ref{図:類似用例1}の入力及び用例文の述語群の獲得をするための規則を説明する.規則を適用する際は文節情報,品詞情報を使用するため入力ニュース記事が複数文であるときは1文単位に分割し各々の文に対して構文解析を行う.用例文は全て1文であるのでそのまま構文解析を施す.本論文では構文解析器CaboCha\toolref{ツール:cabocha}を用いた.このツールには文節内の最も重要となる語である主辞や助詞などの機能語を判定する機能も含まれている.続いて構文解析した結果を用いて作成した規則を適用する.なお述語には活用を考慮せず,全て基本形を用いている.述語を取り出す規則を以下に示す.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f4.eps}\caption{述語に注目して選択する用例文を限定}\label{図:類似用例1}\end{center}\end{figure}\begin{enumerate}\item文末の1文節に含まれている主辞(例外処理(4)(5)も行う)\\例)\\決めた。→決める\\発表した。→発表\item動詞--自立\footnote{この品詞は構文解析器Cabochaが使用している形態素解析器ChaSen\toolref{ツール:chasen}の品詞体系に基づいている.}+読点が含まれている文節の主辞(例外処理(4)も行う)\\例)\\決め、→決める\\発表し、→発表\item動詞--自立+助詞--引用が含まれている文節の主辞(例外処理(4)(5)も行う)\\例)\\決めたと→決める\\発表したと→発表\item\uc{\mbox{例外処理1}}\\動詞「する,ある,なる」が主辞と判定された場合,その直前の形態素がサ変名詞であればそのサ変名詞を述語とする.直前の形態素がサ変名詞でなければ1つ前の文節を参照しその文節の主辞を述語とする.\\(「する」は機能語的に使用されていることが多いため.また「ある,なる」は文の内容を表すものとして情報は少ない.そのためこれらの語は述語として用いず,他の語を述語とした.)\\例)\\発表を|\kern-0.25zw\footnote{`|'は文節区切りを表す.}\する。→発表\\発表する。→発表\\狙いが|ある。→狙い\\先送りに|なる。→先送り\item\uc{\mbox{例外処理2}}\\「予定,計画,方針,方向,見込み,見通し」のいずれかが主辞と判定された場合,その直前の文節の主辞を述語とする.\\(これらの表現は本来の意味よりも未来,推量などを表すムード\cite{寺村}であることが多く,「だろう」などの助動詞として扱うこともできる.そのためその語が持つ記事の内容を表す貢献度は低く,直前の形態素がサ変名詞または動詞であればその語を述語とした.)\\例)発表する|予定。→発表\end{enumerate}本論文では以上の規則を用いて述語を取り出した.続いて用例文の述語に対して使われ方の類似した単語を付加し,用例の述語群を拡張する.これは述語群の一致をみるときに,完全に一致した述語でなくても使われ方が似ていれば,次節で述べる対応付けも可能であり,類似用例文として有用であるためである.類似した単語は,あらかじめ作成しておいた類似単語データベースのその述語と類似した上位3単語とした.この処理では上述した述語群の一致を使用して類似用例文となりうる用例文を限定した.続いて,述語が一致した用例文からさらに内容語に注目して類似用例文を獲得する.\subsubsection{内容語の一致による用例文の選択}\label{節:内容語の一致}内容語の一致では先ほど述語に注目し類似用例文となりうる用例文の中から内容のより類似したものを獲得する.この段階で行う操作を図\ref{図:類似用例2}に示す.本論文で注目している内容語とは助詞,助動詞,記号以外の形態素であり,数字は$\#$として汎化してある.ここで機能語は用いず内容語のみに限定した理由は機能語の役割が文法的な意味を付け加えるだけで内容自体を含むものではないためである.また内容語の中でもより注目すべき語とそうではない語がある.まずは連体修飾部に含まれる内容語は注目すべきではない語である.以下に図\ref{図:連体修飾}を示して連体修飾部について考えを示す.図\ref{図:連体修飾}では「家電メーカの」という連体修飾部が「松下電器産業は、」という文節に係っている.しかしこの連体修飾部は記事の内容を直接表しているのではなく,被修飾部である松下電器産業のみと関係を持っている.そのため入力ニュース記事の連体修飾部の内容語は類似用例文の検索時には使用しない.用例文の連体修飾部も同様に使用するべきではないが,文がもともと短いため削除すると検索される情報が減りすぎてしまう.そのため連体修飾部の単語を使用しない制約は入力ニュース記事のみに限る.図\ref{図:連体修飾2}に連体修飾部の判断方法を示す.連体修飾部の判断ではまず構文解析を行った結果を文末から参照していく.そして以下の条件に\ul{当てはまらない文節}(体言)を被連体修飾部として特定し,その被連体修飾部の文節に係る部分を再帰的に参照し,連体修飾部とする.この連体修飾部に含まれる内容語は類似用例文の選択では用いない.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f5.eps}\caption{内容語に注目して類似用例文を選択}\label{図:類似用例2}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f6.eps}\caption{連体修飾部を含む文の例}\label{図:連体修飾}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f7.eps}\caption{連体修飾部の判定}\label{図:連体修飾2}\end{center}\end{figure}\begin{enumerate}\item動詞--自立を含む文節\item形容詞--自立を含む文節\item名詞--サ変接続+読点,または名詞--サ変接続+句点を含む文節\end{enumerate}また複数の形態素から構成される複合名詞を形態素に分割して扱うと意味内容の異なる用例文が出力される恐れがある.この例を例\ref{複合語}に示す.\begin{screen}\exp{複合語}複合語であることを考慮しない場合の出力例〈入力ニュース記事1〉{\setlength{\leftskip}{2zw}大手私鉄や\underline{\underline{地下鉄}}でもJRと同様に安全上、コインロッカーやごみ箱の使用をやめる動きが広がっている。JR東日本では主要駅などで警備員を増員。(以下省略)\par}〈入力ニュース記事2〉{\setlength{\leftskip}{2zw}\ul{地下鉄サリン事件}から三年。被害者と遺族ら計四十二人がオウム真理教の破産管財人に損害賠償の上積みを求めていた訴訟は二十五日、東京地裁で開かれた口頭弁論で和解が成立し、賠償額を約十一億千九百万円とすることで合意した。(以下省略)\par}〈用例文〉{\setlength{\leftskip}{2zw}\underline{\underline{地下鉄}サリン事件}の実行犯のオウム真理教元幹部、北村被告に対する控訴審で東京高裁は無期懲役の一審判決支持し控訴棄却。\par}\end{screen}\noindent例\ref{複合語}の入力ニュース記事1では入力ニュース記事の内容語「地下鉄」が用例文と一致している.しかし用例文で使用されている地下鉄は事件名の一部であり,入力で用いられている用法とは異なる.このように複合語を形態素に分割すると本来注目すべきではない部分とも一致してしまう.また例\ref{複合語}の入力ニュース記事2では用例文と「地下鉄」「サリン」「事件」という3形態素の一致がある.しかしこの記事の内容は類似していない.このように長い複合語があると記事の内容が似ていないのも関わらず局所的に一致してしまい類似していると判断してしまう可能性がある.そのため名詞が連続して出現する場合は複合名詞として判断し,形態素で分割するのではなく1語として扱う,もしくは複合名詞の中心的意味を表す主辞のみを扱う必要がある.提案法では汎用性を高めるため後者の主辞のみを扱うことにした.また主辞が接尾辞である場合には直前の形態素も結合させている.またその直前の形態素も接尾辞である場合(例\ref{syuzi}の2つ目の例),再帰的に接尾辞でない形態素までを結合した.\begin{screen}\exp{syuzi}複合名詞の主辞が接尾辞と判定された場合\\製鉄\ul{所}→製鉄所\\五人\ul{目}→人目→\#人目\end{screen}\noindentこれにより以下の例に示すような入力ニュース記事にも例\ref{複合語}の用例文が類似していると判断できる.この例は複合名詞全体が一致していないが複合名詞の主辞「事件」が一致している.\begin{screen}\exp{nolabel02}例\ref{複合語}の用例と似ている入力ニュース記事の例〈入力ニュース記事〉{\setlength{\leftskip}{2zw}衆院選で比例代表近畿ブロックで当選した自民党の野田実議員派の選挙違反\ul{事件}で、公選法違反の罪に問われた同議員の地元事務所職員、仲修平被告の上告審で、最高裁第一小法廷は七日までに、被告側の上告を棄却。(以下省略)\par}\end{screen}上記の方法により,得た内容語群を使用して入力ニュース記事と述語の一致している用例文とを比較する.本論文では述語一致数により優先的に出力する類似用例文を選び,同数の述語一致数の中でも用例文の内容語数に対する入力の内容語一致率が高いものをより優先的に類似用例文として出力する.述語では一致数,内容語では一致率に注目している.この理由は述語を多く含む用例文を選ぶことにより多くの情報を圧縮でき,さらに内容語一致率の高い用例文を選ぶことで後で行う対応付けがしやすい類似用例文を得ることが可能となる.以下,例\ref{例:類似用例出力}に得られた類似用例文の例を示す.\begin{screen}\exp{例:類似用例出力}類似用例文の出力例〈入力ニュース記事〉{\setlength{\leftskip}{2zw}山梨県がまとめた九七年十二月の甲府市消費者物価指数は一〇一・五で前月に比べ〇・三%下落した。冬物衣料やゴルフプレー料が値下がりした。前年同月比では一・二%の上昇。気候要因による値動きが激しい生鮮食品を除いた総合指数は一〇二・三で、前月比では〇・五%下落、前年同月比は一・九%上昇した。前年同月比では、医療保険制度の改革に伴う医療費本人負担の増加で保健医療が一二・四%の上昇。被服・履物、光熱・水道なども上昇した。住居家具・家事用品は家賃の値下げなどで低下した。\par}〈得られた類似用例文(文頭の数字は順位)〉\begin{itemize}\item[(1)]6月の国内企業物価指数は100.5と前月比では0.1%下落、前年同月比3.3%上昇した。\item[(2)]9月の企業向けサービス価格は、前月比0.1%上昇、前年同月比では0.5%下落。\item[(3)]7月の国内企業物価指数は、前月比で0.3%上昇、前年同月比0.7%下落した。\item[(4)]日銀が26日発表した10月の企業向けサービス価格指数は、前月比0.2%上昇、前年同月比では1.2%下落した。\item[(5)]米国のガソリン小売価格が高騰、2月中旬に比べて24%上昇。\end{itemize}\end{screen} \section{文節の対応付け} label{章:文節の対応付け}本章では\ref{章:類似用例文の選択}章で得られた類似用例文と入力ニュース記事とを比較し,両者の文節で類似したものを対応付ける方法を述べる.まず対応付けを行う単位である文節を説明する.続いて対応付けに用いた3つの尺度である助詞の一致,固有表現タグの一致,そして単語間類似度を述べる.\subsection{対応付けの単位}\label{節:対応付けの単位}類似用例文と入力ニュース記事の対応付けで用いることができる単位としては,形態素や文節がある.しかし形態素では単位が小さく対応付けられない語が出現しやすい.以下の例を用いて説明する.\begin{screen}\exp{例:形態素対応付け}形態素単位では対応付けられない文の例〈入力ニュース記事1〉{\setlength{\leftskip}{2zw}愛知県半田市などで二十二日から二十七日にかけて、自動販売機から、変造した韓国の\ul{五百ウォン硬貨}が見つかった。(以下省略)\par}〈類似用例文1〉{\setlength{\leftskip}{2zw}東京都千代田区で偽造された\ul{千円札}が見つかる。\par}…………………………………………………………………………………………………………〈入力ニュース記事2〉{\setlength{\leftskip}{2zw}ウィンが十一月十日、\ul{大阪証券取引所第二部}に株式を上場する。(以下省略)\par}〈類似用例文2〉{\setlength{\leftskip}{2zw}幻冬舎は来年1月にも、\ul{ジャスダック市場}に株式を上場する。\par}\end{screen}\noindent例\ref{例:形態素対応付け}における類似用例文の「五/\footnote{`/'は形態素の区切りを表す.}百/ウォン/硬貨/」と入力の「千/円/札/」は類似しており,対応付けの候補となる.しかし「五/百/」という2形態素に対して「千/」は1形態素であるため対応が取れない.また2つ目の例では類似用例文の「ジャスダック/市場/」と「大阪/証券/取引/所/第/二/部/」という部分が類似しているが,2形態素に対して7形態素を対応付けなくてはならず,形態素の単位では対応がとれない.これに対して文節を用いれば「五百ウォン硬貨が」と「千円札が」が,「ジャスダック市場に」と「大阪証券取引所第二部に」が対応付けすることができ,対応付けの難しさは軽減される.そのため提案法では対応付けを行う単位として文節を考慮する.しかし対応付けを行う単位が文節であっても明らかに対応付けが不可能な例が存在する.以下に例を示して説明を行う.\begin{screen}\exp{例:文節対応付けA}文節単位でも対応付けられない文の例〈入力ニュース記事1〉{\setlength{\leftskip}{2zw}\ul{ソニーは}二十五日、有機ELディスプレー技術を開発したと発表。(以下省略)\par}〈類似用例文1〉{\setlength{\leftskip}{2zw}\setnami\uc{米有力総合病院の}\ul{メイヨー・クリニックは}炭疽菌の高性能検出技術を開発し、今秋にも発売を開始する。\par}…………………………………………………………………………………………………………〈入力ニュース記事2〉{\setlength{\leftskip}{2zw}富士商は二十日、平生町に\setnami\uc{\mbox{県内最大規模の書籍販売とAVレンタルの}}\ul{複合店アップルクラブ平生店を}オープンした。(以下省略)\par}〈類似用例文2〉{\setlength{\leftskip}{2zw}JR秋葉原駅前で9日、\setnami\uc{\mbox{地上22階建ての}}\ul{\mbox{複合ビル秋葉原UDXが}}オープン。\par}\end{screen}例\ref{例:文節対応付けA}における用例文の「メイヨー・クリニックは」と入力の「ソニーは」という類似しており,対応付けの候補となる.しかし類似用例文の「米有力病院の」という連体修飾部の文節に対応した文節は入力には存在せず対応が取れない.また2つ目の例における類似用例文「複合ビル秋葉原UDXが」と入力の「複合店アップルクラブ平生店を」という文節は類似している.しかし連体修飾部である「地上|\kern-0.25zw$^{2}$22階建ての|」に対して「県内最大規模の|書籍販売と|AVレンタルの|」という文節は文節数が異なるため対応付けすることができない.このように連体修飾部は被修飾語によって内容や長さが異なる.よって被修飾語が異なる場合はそれに係る連体修飾部を対応付けることが困難である.そのため提案法では連体修飾部が存在する文節に対しては,対応付けの単位としてその連体修飾部と被修飾部を結合した文節を用いた.また連体修飾部は\ref{節:内容語の一致}節と同様の方法で判断している.なお連体修飾部が文の内容の本筋ではないため,文節が対応付けられるか比較する際は被修飾部同士による比較を行う.以下に例\ref{例:文節対応付けB}の2つ目の例を用いて対応付けを行う際に使用する文節を具体的に示す.\begin{screen}\exp{例:文節対応付けB}対応付けに用いる文節の例〈入力ニュース記事〉{\setlength{\leftskip}{2zw}富士商は二十日、平生町に県内最大規模の書籍販売とAVレンタルの複合店アップルクラブ平生店をオープンした。(以下省略)\par}〈入力ニュース記事から作成した文節〉{\setlength{\leftskip}{2zw}富士商は\\二十日、\\平生町に\\県内最大規模の$|$書籍販売と$|$AVレンタルの$|$複合店アップルクラブ平生店を\\オープンした。\par}〈類似用例文〉{\setlength{\leftskip}{2zw}JR秋葉原駅前で9日、地上22階建ての複合ビル秋葉原UDXがオープン。\par}〈類似用例文から作成した文節〉{\setlength{\leftskip}{2zw}JR秋葉原駅前で\\9日、\\地上22階建ての$|$複合ビル秋葉原UDXが\\オープン。\par}\end{screen}\subsection{3つの尺度を用いた文節の対応付け}\label{節:3つの尺度を用いた文節の対応付け}本論文では\ref{節:対応付けの単位}節で説明した文節を対応付けの単位とし,類似用例文の文節に対して類似している入力ニュース記事の文節複数個を対応付ける.なお,対応付けを行う際は文節内に含まれる語をすべて基本形に変更した形で行う.対応付けは助詞の一致,固有表現タグの一致,そして単語間類似度の3つの尺度を用いて行う.提案法では類似用例文の文節1つに対して,類似している入力の文節を全て対応付ける.つまり1文節に対して複数個の対応文節が得られる.この時,3つの尺度を用いても対応文節が見つからない場合は,\ref{章:類似用例文の選択}章の類似用例文の選択で次に内容の似ていると判断された類似用例文を使用して再度対応付けを行う.図\ref{図:対応付け例}を用いて以下にそれぞれの尺度について述べる.\subsubsection{助詞の一致}本論文では類似用例文と入力の文節末尾にある助詞が一致した場合,それらの文節を対応付ける.日本語では助詞をみることで概ね主語や目的語などを判断することができる.そのため助詞が一致した文節は同じような使われ方をしているため,文節の対応付ける尺度の1つとして用いた.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f8.eps}\caption{入力ニュース記事と類似用例文での文節対応例}\label{図:対応付け例}\end{center}\vspace{-1\baselineskip}\end{figure}助詞の一致を測る際には文節が複数の文節で構成されている場合(連体修飾部と被修飾語の文節)は1番末尾の文節,1文節で構成されている場合はその文節から助詞を取り出す.そして入力と類似用例文のその助詞を比較し,一致した場合文節を対応付ける.但し例\ref{例:格助詞相当句}のように複数の助詞が連接して出てくる場合,その助詞は格助詞相当句として連結した形で用いる.\begin{screen}\exp{例:格助詞相当句}格助詞相当句となる助詞の一例〈では〉{\setlength{\leftskip}{2zw}で(助詞--格助詞--一般)、は(助詞--係助詞)として出現→格助詞相当句「では」として連結して用いる\par}〈には〉{\setlength{\leftskip}{2zw}に(助詞--格助詞--一般)、は(助詞--係助詞)として出現→格助詞相当句「には」として連結して用いる\par}\end{screen}係助詞「は」や「も」,格助詞「が」は主語となる文節に対して付与されている助詞である.そのため,この3つの助詞に対しては同一視する.図\ref{図:対応付け例}の類似用例文の文節「NTTが」に対して,入力の文節「東芝は」「同社は」が対応付けられているのはこのためである.また助詞の一致で対応付ける文節は入力と類似用例文の文節で主辞が同じ品詞のグループに属するもののみとした.これは助詞が一致したとしても文節内容が明らかに類似していない場合に対応付けを行わないようにするためである.品詞のグループは各文節末尾の文節内に含まれている主辞の品詞\footnote{品詞の判断にはChaSen\toolref{ツール:chasen}の品詞体系に従っている.}を参照し表\ref{表:品詞グループ}に従う.よって助詞の一致で対応付けられる文節は助詞が一致しており,さらに品詞のグループが同じものである.\begin{table}[b]\caption{品詞のグループ}\label{表:品詞グループ}\input{06table01.txt}\end{table}\subsubsection{固有表現タグの一致}\label{節:固有表現タグの一致}固有表現とは人名,地名,組織名などの固有名詞の他,日付や金額などの数値表現などのまとまりを示す.提案法では構文解析器CaboChaの出力\footnote{構文解析器CaboChaには固有表現タグの付与機能も備わっている.}に従って固有表現タグが一致した文節を対応付ける.この固有表現タグが一致する文節は固有表現のまとまりが同じであることを意味し,類似した文節である.対応付けの際に参照する部分は助詞の一致の場合と同様,複数の文節から構成される文節は末尾の文節,1文節で構成されている文節ならばその文節である.その文節の主辞の固有表現タグが類似用例文と入力で一致した場合に対応付けを行う.CaboChaが持つ固有表現タグは9つである.なお本論文では`DATE'タグと`TIME'タグは同じ時間表現を表しているタグであると判断し,同一視する.また類似用例文の文節に固有表現タグ`DATE'もしくは`TIME'があるにも関わらず,入力の文節にそのようなタグが無かった場合は空情報``$\epsilon$''を入れる.これは`DATE'及び`TIME'タグの表現に限り,空であっても文の内容には大きく関係せず,次のステップである文節の組合せで日本語やその内容としても正しい要約文が作成できると考えたためである.よって空情報``$\epsilon$''があるだけでは\ref{章:類似用例文の選択}章に戻って次に内容の似た類似用例文を選ぶことはしない.図\ref{図:対応付け例}では類似用例文の文節「NTTが」に対して入力の文節「東芝は」が組織名を表す`ORGANIZATION'タグが一致したため対応付けられている.また類似用例文の「今秋にも」と入力の「来年六月に」は日付表現`DATE'タグが一致したため対応付けられたものである.\subsubsection{単語間の類似度}\label{節:単語間の類似度}単語間の類似度では上述の2つの尺度と同様,文節末尾の文節を比較する.提案法では特に文節内の主辞同士の類似に注目して対応付けを行った.対応付けには\ref{節:類似単語データベース}節で説明した類似単語データベースを用いた.類似用例文と入力における文節末尾の文節内の主辞同士を比較し,その2語が類似単語データベースに含まれている場合はその文節を対応付けている.またこの対応付けでも助詞の一致と同様に品詞のグループによる制限を設けた.つまり単語間の類似度では文節内の主辞を比較して類似単語データベースに含まれ,さらに主辞の品詞が表\ref{表:品詞グループ}で同じグループに属するときにそれらの文節を対応付ける. \section{文節の組合せ} label{章:文節の組合せ}\ref{章:文節の対応付け}章の文節の対応付けでは,類似用例文の文節1つに対して入力の複数個の文節が対応付けられた.本章ではその得られた対応文節を組み合せることによって要約文を作成する方法を述べる.用例利用型の要約では出力される要約文が類似用例文の文節により似たもので構成され,かつ日本語として連接のよいものが理想である.したがって提案法では要約文を得る操作を類似用例文の文節に対して得られる類似度を最大に,かつ日本語としてできるだけ自然な文節列を取り出す組合せ最適化問題として定式化し,これを動的計画法によって解く.また\ref{章:文節の対応付け}章の対応付けや本章の組合せは全ての語を基本形にして扱っている.そのため提案法では組合せを行うことによって出力された文に対し,規則を用いて類似用例文の形と同じ形になるよう変更した.\subsection{組合せ最適化問題}\label{節:組合せ最適化問題}前章で得られた類似用例文に対する対応文節を組合せて要約文を作成する.組合わせの方法を図\ref{図:組合せ}を用いて説明する.図\ref{図:組合せ}のノード$a_i$は類似用例文の文節$A$に対して\ref{章:文節の対応付け}章で得られた入力の対応文節を指す.また同様にノード$bi$は類似用例文の文節$B$に対して得られた入力の文節である.\ref{章:文節の対応付け}章の対応付けでは類似用例文の文節1つに対して類似していると判断した入力の文節複数個を対応付けているため図\ref{図:組合せ}では$a_i\(i\geqq1)$となる.なお組合せの際には初期状態と最終状態を明確にするため文頭記号$\langle\rm{s}\rangle$と文末$\langle/\rm{s}\rangle$を挿入する.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f9.eps}\caption{対応文節の組合せ図の例}\label{図:組合せ}\end{center}\vspace{-1\baselineskip}\end{figure}ここでノード$n_i$に対してのスコア$N(n_i)$として類似用例文の文節にどれだけ類似しているかを与え,エッジのスコア$E(n_{i-1},n_i)$としてフレーズ間の繋がりの良さを与える.これにより本章の目的である,類似用例文の文節により似たもので構成され,かつ日本語として連接の良い部分文節列を得るためにはこのノードとエッジのスコアの総和を最大にするような経路を求める問題に帰着できる.さらに図\ref{図:組合せ}では文頭から文末に向かう全ての組合せを2次元空間に示したものであり,探索領域は限られている.そのためこの問題は動的計画法で解くことができる.続いて式を用いて具体的にどのような問題を解くのかを考える.経路列$W_p=\{n_0,n_1,n_2,\cdots,n_m\}$\footnote{図\ref{図:組合せ}における太線ならば$W_p=\{\langle{\rms}\rangle,a_3,b_2,c_1,d_2,\langle/{\rms}\rangle\}$を通る経路.}に対し,以下のスコアを最大にするような経路を求める問題を考える.このとき最適経路列$\hatW_p$は以下で与えられる.\begin{equation}\hat{W_p}=W_p\hspace{5mm}{\rms.t.}\hspace{3mm}\argmax_p\mathit{Path}(W_p)\end{equation}またスコア$Path(W_p)$を次式で表す.{\small\begin{equation}\label{scoredp}\mathit{Path}(W_p)=\sum_{i=0}^{m}N(n_i)+\sum_{i=1}^{m}E(n_{i-1},n_i)\end{equation}}$m$は類似用例文の文節の最終番号を表す\footnote{図\ref{図:組合せ}ならば$m=5$である.}.以下にノード重みを定義する.\begin{equation}N(n_i)=\alpha\cdot\mathit{particle}(n_i)+\beta\cdot\mathit{NEtag}(n_i)+\gamma\cdot\mathit{MI}(n_i)\label{nodescore}\end{equation}式\ref{nodescore}の$particle(n_i),NEtag(n_i),MI(n_i)$は以下の式で表される.また$\alpha,\beta,\gamma$は各スコアに対するバランスパラメータである.{\allowdisplaybreaks\begin{align}\mathit{particle}(n_i)&=\begin{cases}1&\text{ノード$n_i$が助詞の一致で対応付けされた場合}\\0&\text{それ以外}\end{cases}\label{particle}\\\mathit{NEtag}(n_i)&=\begin{cases}1&\text{ノード$n_i$が固有表現タグの一致で対応付けされた場合}\\0&\text{それ以外}\end{cases}\label{NEtag}\\\mathit{MI}(n_i)&=\begin{cases}\mathit{sim}(n_i,ph)&\text{ノード$n_i$が単語間の類似度で対応付けされた場合}\\0&\text{それ以外}\end{cases}\label{sim}\end{align}}式(\ref{sim})内の$ph$は類似用例文のある文節を示し,$sim(n_i,ph)$は類似用例文の文節$ph$と\ref{章:文節の対応付け}章で対応付けられた入力の文節との類似度を正規化した数値である.この数値は\ref{節:類似単語データベース}節での類似単語データベースの作成時であらかじめ計算してあるものを使用した.次にエッジ重みを以下に定義する.\begin{equation}E(n_{i-1},n_i)=\begin{cases}\sigma\cdot\frac{1}{loc(n_{i})-loc(n_{i-1})+1}&\text{$\mathit{loc}(n_{i})\geqq\mathit{loc}(n_{i-1})$の場合}\\0&\text{それ以外}\end{cases}\label{edge}\end{equation}エッジスコアは文節間の繋がりの良さを示す.本論文では様々な文の文節を組み合せることにより文を作成するが,1文目→5文目→2文目→10文目の様に1つ1つの文節があまりにも様々な文を跨いで組み合わさるようなものは多くの話題が混在することとなり,連接も悪くなる.そのため式(\ref{edge})では対応付けられた文節が存在する入力の文の位置$\mathit{loc}(n_i)$を考慮した.$\mathit{loc}(n_i)$はノードつまり対応文節$n_i$が入力したニュース記事の何文目に存在しているかという情報である.連接する文節$(n_{i-1},n_i)$がどれだけ離れているかを$\mathit{loc}(\cdot)$の差の絶対値を取ることで測っている.このとき文節が文頭に向かって(4文目→2文目のように)戻る場合は話題が戻ることとなり,連接をより悪くしてしまう可能性があるため,このような場合にはスコア0を与えている.以上の方法により,類似用例文の文節に似ており,さらに日本語の連接としてより正しい文が作成される.しかし提案法の文節の対応付けでは図\ref{図:対応付け例}のように入力中の同じ文節「…ヘリカルCTを」が類似用例文の文節複数「…ネット技術を」,「サービスを」に似ていると判断される場合が存在する.この時文節の組合せを行うと1文中に同じ文節が複数個出現してしまう恐れがある.要約文1文中に全く同じ文節が2回以上出現する文は不自然で冗長である.そのため提案法では,組合せによって得られた文に同じ文節が2つ以上存在した場合,組合せによって得られた全体のスコアが次に高かった組合せ結果を採用する.本論文では複数の組合せ解を効率的に得るために永田の後向き$A^*$アルゴリズム\cite{永田:1999論文}を用いた.\makeatletter\def\footnotemark{}\def\footnotetext{}\makeatother\subsection{用例の形へと合わせる}\label{節:用例の形へ合わせる}対応文節の組合せを最適化問題として解いて得られた文は以下の例に示すように基本形の文節で,さらに句点など入力ニュースで用いられていたそのままの形で表されている.\begin{screen}\exp{例:組合せ結果}対応文節の組合せで得られた組合せの例〈入力ニュース記事〉{\setlength{\leftskip}{2zw}中国地域ニュービジネス協議会は、|\kern-0.25zw$^{2}$財務や営業、技術、マーケティングの分野で助言するシニアアドバイザーを|募集した。|ベンチャー企業から|財務や営業面で弱点補強の要請が|あれば、|アドバイザーとして|派遣する。(以下省略)\par}〈類似用例文〉{\setlength{\leftskip}{2zw}産業再生機構は|リストラ特命隊を|募集し、|カネボウ化粧品へ|派遣。|\par}〈対応文節の組合せ結果〉{\setlength{\leftskip}{2zw}中国地域ニュービジネス協議会は、|財務や営業、技術、マーケティングの分野で助言するシニアアドバイザーを|募集する\footnotemarkた。|ベンチャー企業から|派遣する。|\par}\end{screen}\footnotetext{文節の対応付け,組合せは全て基本形で行ったため,組合せ結果も基本形となっている.}そのため本節では得られた組合せ結果を類似用例文の形に倣い変更する.例\ref{例:組合せ結果}を類似用例文の形へと合わせると以下のような文が得られる.\begin{screen}\exp{nolabel03}例\ref{例:組合せ結果})で得られた組合せ結果を類似用例文の形へと変更中国地域ニュービジネス協議会は、財務や営業、技術、マーケティングの分野で助言するシニアアドバイザーを募集し、ベンチャー企業へ派遣。\end{screen}以下に類似用例文の形へと合わせるための規則を示す.この規則は対応文節末尾の文節に対して行うものである.\begin{enumerate}\item類似用例文の文節が文末の場合\\\ul{対応文節も文末である場合}\\対応する入力の文節も文末で活用語がある場合,それらの語を入力ニュース記事の元の活用へ変更する.\\述べるた。→述べた。\\但し対応文節が「サ変名詞+する」である場合,冗長な表現であるため文末整形も兼ね「する」を削除する.\\派遣する。→派遣。\\\ul{対応文節が文末以外の場合}\\対応する入力の文節が文末以外で活用語がある場合,それらの語は基本形のままにする.この時対応文節の助詞は削除する.\\述べるて、(述べて、)→述べる。\\但し対応する入力の文節が過去形を表す助動詞「た」を含む場合,時制を変えないようにするため,入力ニュース記事の元の活用へ変更する.\\述べるたと、(元の形は「述べたと、」)→述べた。\item類似用例文の文節が文末以外の場合\\\ul{対応文節が文末である場合}\\対応する入力の文節が文末で活用語がある場合,それらの語を類似用例文の文節の活用に合わせる.この時対応文節に類似用例文のフレーズに含まれる助詞を付加する.\\類似用例文の文節:発表して\\述べる。→述べて\\但し対応する入力の文節が過去形を表す助動詞「た」を含み,さらに類似用例文の文節にも「た」を含む場合,時制を変えないようにするため,入力ニュース記事の元の活用へ変更する.この時対応文節に類似用例文の文節に含まれる助詞を付加する.\\類似用例文の文節:発表したと\\述べるた。(元の形は「述べた。」)→述べたと\\\ul{対応文節が文末以外である場合}\\対応する入力の文節も文末以外で活用語がある場合,それらの語を類似用例文の文節の活用に合わせる.この時対応文節に類似用例文の文節に含まれる助詞を付加する.\\類似用例文の文節:発表して\\述べる、(元の形は「述べ、」)→述べて\\但し対応する入力の文節が過去形を表す助動詞「た」を含み,さらに類似用例文の文節にも「た」を含む場合,時制を変えないようにするため,入力ニュース記事の元の活用へ変更する.この時対応文節に類似用例文の文節に含まれる助詞を付加する.\\類似用例文の文節:発表したと\\述べるたと(元の形は「述べたと」)→述べたと\end{enumerate}なお文節内の連体修飾部の文節に対しては例\ref{例:連体修飾部の活用}に示すように全て入力ニュース記事の元の活用へと変更した.\begin{screen}\exp{例:連体修飾部の活用}連体修飾部に対する変更の処理〈入力ニュース記事〉小泉首相は、|\ul{○○を事前に公表した}\footnotemarkことを|受け、|…。|(以下省略)〈類似用例文〉政府は、|××したものを|…。|〈対応文節の組合せ結果〉小泉首相は、|\ul{○○を事前に公表}\setnami\uc{する}\ul{た}ことを|…。|〈連体修飾部は活用を元の記事に合わせる〉小泉首相は、|\ul{○○を事前に公表}\setnami\uc{し}\ul{た}ことを|…。|\end{screen}\footnotetext{下線部は文節内の連体修飾部を示す.}これらの規則により組合せで得られた文を類似用例文の形へと合わせた. \section{実験} label{章:評価実験及び考察}\subsection{実験条件}評価実験の際に用いるデータや設定するパラメータについて述べる.また提案法と同じく複数文を要約するシステムである従来研究を比較対象として説明する.\subsubsection{使用するデータ}\label{節:使用するデータ}この節では実験で使用する用例データベース,パラメータの調整,テストに用いたデータについて述べる.\noindent\ul{用例データベース}用例データベース内の用例には日経ニュースメールNikkei-goo\toolref{言語資源:nikkei-goo}から配信されているニュースの要約文を用いた.このニュース要約文は人手で作成されているものであり\footnote{用例データベースについては\ref{節:用例として用いる言語資源}節の用例として用いる言語資源でも述べている.},1999年12月から2007年12月までに収集した27036件を用いた.1文あたりの平均形態素数は23.1形態素,平均文節数は6.6文節である.\noindent\ul{パラメータ調整用のデータ}従来手法,提案法のシステムにおけるパラメータを調整するためのデータとして,日本経済新聞1999年のデータ121件を用いた.またこの新聞データの日付やタイトル情報を利用し,用例データベースと同じ形式である日経ニュースメールNikkei-goo\toolref{言語資源:nikkei-goo}の中から記事タイトルと日付情報が一致したものを正解データとして利用した.このパラメータ調整用のデータは入力ニュース記事1件に対して,正解要約文1件が1対1で存在する.1記事当たりの平均文数は10.6文であり,1文当たりの平均形態素数は30.6形態素,平均文節数は9.6文節である.\noindent\ul{テストデータ}日本経済新聞1998年のデータ200件を用いた.このデータはパラメータ調整用のデータとは異なり,オープンテストである.この200件のうち100件は1記事あたりの文数が3文以下で比較的短いものである.また他の100件は1記事あたりの文数が4文以上10文以下の長めの記事である.テストデータの詳細は表\ref{表:テストデータ詳細}に示す.\begin{table}[b]\caption{テストデータの詳細}\label{表:テストデータ詳細}\input{06table02.txt}\end{table}なおテストデータ200件には3人が独立で作成した正解データ(人手で作成した要約文)が存在する.つまりこのデータは入力ニュース記事1件に対して,正解要約文3件が1対3で存在する.要約文の自動評価ではこれら複数の正解データを使用して\ref{節:自動評価}節に示すBLEUとROUGEにて評価を行う.\subsubsection{パラメータの調整}\label{節:パラメータの調整}提案法で使用するパラメータの調整方法について述べる.調整するパラメータは文節の組合せ時のノードとエッジのバランスを取るためのものであり,式(\ref{nodescore})と式(\ref{edge})の$\alpha,\beta,\gamma,\sigma$である.このパラメータの調整には\ref{節:使用するデータ}節のパラメータ調整用のデータを用いた.ここで対応文節の組合せを行うには,まず類似用例文を獲得し,文節の対応付けをしなくてはならない.本論文では類似用例文の検索精度によらずパラメータを調整するため,正解データを類似用例文として使用した.そして提案法により文節の対応付けを行い,パラメータを適宜変動させることで組合せを行った.パラメータは式(\ref{nodescore})と式(\ref{edge})の$\alpha,\beta,\gamma,\sigma$をそれぞれ0.1刻みで変動を行った.調整用のデータ121件で出力された要約文と正解データでのBLEU値の合計が最も高かったパラメータをテストで用いる.このBLEU値は要約や翻訳で用いられている自動評価手法であり,\ref{節:自動評価}節で詳細を述べる.調整したパラメータを表\ref{表:提案法パラメータ}に示す.\begin{table}[t]\caption{提案法のパラメータ最適値}\label{表:提案法パラメータ}\input{06table03.txt}\end{table}\subsubsection{従来手法}\label{節:比較手法}提案法と同じく複数文の語を使用して1文に要約するHori~\cite{hori:2002th}の手法を従来手法として挙げる.この手法は複数文要約を複数の入力文中に含まれる単語列から部分単語列を抽出する問題として定式化することによって1文の要約文を作成している.またこの要約手法は要約率を自由に設定することができる.そこで本論文では従来手法が出力する要約文の形態素数と提案法が出力する要約文と形態素数を同じに設定して比較実験を行う.\subsection{評価方法}\label{節:評価方法}本論文ではシステムが出力した要約文を評価するために2つの評価方法を用いた.まず自動要約の分野でよく用いられている自動評価方法,もう1つは出力した要約文を人手で評価する方法である.\subsubsection{自動評価}\label{節:自動評価}本論文ではBLEUスコア\shortcite{BLEU}とROUGEスコア\cite{ROUGE}を用いて自動評価を行う.これらは入力に対してあらかじめ作成した正解要約文とシステムが出力した要約文を比較し,正解にどれだけ近い文が得られたか評価することによってシステムの優劣を測るものである.\noindent\ul{\mbox{BLEUスコア}}BLEUスコアは1~gramから4~gramまでの適合率の重み付き和で以下の式で定義され,複数の正解文にも対応した評価尺度である.\begin{align}{\rmBLEU}({\rmsys},{\bfref})&=\mathit{BP}\cdot{\rmexp}\left(\sum_{n=1}^{4}\frac{1}{n}\logp_n\right)\label{bleu1}\\p_n&=\frac{\sum^{M_n}_{j=1}\min(s^n_j,\max_{k=1,\dots,L}r_{jk}^n)}{\sum^{M_n}_{j=1}s^n_j}\label{bleu2}\end{align}式(\ref{bleu2})の$s_j^n$はシステムが出力した要約文に含まれる$j$番目の$n$gramの出現数を表す($j=1,...,M_n;\n=1,...,4$).また$r_{jk}^n$はその$j$番目の$n$gramが$k$番目の正解要約文に出現する数である($k=1,...,L$).このとき$L$は正解要約文の数である.よって\ref{節:パラメータの調整}節のパラメータの調整時は正解要約文が1つであるため$L=1$,テスト時には正解要約文が3つ存在するため$L=3$となる.またこの評価式は適合率であるため,システムが出力した文が正解文に対してあまりにも短いと評価を不当に上げてしまう恐れがある.そのためペナルティ($BP$)が導入されている.しかし,要約文の評価では短い出力文である方が高圧縮であり一般的に良いとされ,この$BP$は課さない場合が多い.そのため本論文でも同様に$BP=1$として評価を行う.\noindent\ul{\mbox{ROUGEスコア}}ROUGEスコアは正解要約文とシステムが出力した要約文を比較して$N$gram再現率を算出することにより正解文にどの程度近いかを評価することができる.以下にROUGEスコアの式を示す.\begin{equation}{\rmROUGE-}N({\rmsys,ref_\mathit{k}})=\frac{\sum^{M_N}_{j=1}\min(s^N_j,r_{jk}^N)}{\sum^{M_N}_{j=1}r^N_{jk}}\label{rouge}\end{equation}式(\ref{rouge})の分母は正解要約文に含まれる$N$gram総数であり,分子はシステムと正解要約文で一致した$N$gramの総数である.Lin~\cite{ROUGE}によると1~gram再現率または2~gram再現率を測ったときに人手の評価と相関の高い結果が得られたとしている.つまりROUGE-1またはROUGE-2の場合である.そのため本論文でもこのROUGEスコア(ROUGE-1及びROUGE-2)を用いて自動評価を行う.なお\ref{節:使用するデータ}節で示したようにテストデータには1件の入力ニュース記事に対して3つの正解要約文が存在する.そのためROUGE尺度による評価実験では入力ニュース記事1件に対して,システムが出力した要約文と正解要約文それぞれとでROUGE-1及びROUGE-2を算出し,最も高い値が得られたものを評価値として採用する.\subsubsection{人手による評価}\label{節:人手による評価}人手による評価では,評価者3人が提案法と従来手法それぞれが出力した要約文を可読性と内容の適切性の2点について評価を行った.\noindent\ul{可読性の評価}可読性の評価では評価者3人が独立にシステムが出力した要約文のみを読み,表\ref{表:可読性の評価}の指標に基づいて4段階評価を行った.この評価ではシステムが作成した要約文が日本語として読み易いかを評価するものであり,値が小さいほど可読性は良い.\noindentまた評価者に与えた教示は以下の通りである.\begin{screen}システムが出力した要約文を読み,表\ref{表:可読性の評価}に基づいて,評価値を付与しなさい.また,以下に示す例のように述語(「逮捕」及び「述べた」)はどちらも「ガ,デ,ヲ格」を取るが,例2の文は明らかに日本語として不適切な表現(述べた)があるため,4文節中1文節を変更しなくてはならない.そのため例2の場合は評価2となる.例1)新潟県警が/○○疑惑で/××容疑者を/\ul{逮捕。}/例2)新潟県警が/○○疑惑で/××容疑者を/\ul{述べた。}/\end{screen}\noindent\ul{内容の適切性評価}内容の適切性評価では可読性の評価を行った同じ評価者3人が入力のニュース記事とシステムが出力した要約文を読んで,表\ref{表:内容の適切性評価}の指標に基づいて内容の適切性評価を行った.この評価値は小さい方が内容の適切性は良い.\begin{table}[b]\caption{要約文の可読性評価の指標}\label{表:可読性の評価}\input{06table04.txt}\end{table}\begin{table}[b]\caption{要約文の内容の適切性評価の指標}\label{表:内容の適切性評価}\input{06table05.txt}\end{table}また評価者に与えた教示は以下の通りである.\begin{screen}システムが出力した要約文を読む前に,システムに入力した記事のみを読んで,自分が要約文に必要だと考える内容を考えなさい.その後,自分が考えた内容とシステムが出力した要約文を比較して,表\ref{表:内容の適切性評価}に基づいて,評価値を付与しなさい.\end{screen} \section{結果及び考察} label{章:結果及び考察}\subsection{実験結果}\label{節:実験結果}\subsubsection{自動評価による結果}\label{節:自動評価による結果}\noindent\ul{\mbox{BLEUスコアによる結果}}表\ref{表:BLEU結果}に自動評価尺度BLEUにて評価を行った結果を示す.\begin{table}[b]\caption{自動評価尺度BLEUによる評価結果}\label{表:BLEU結果}\input{06table06.txt}\end{table}表\ref{表:BLEU結果}より本手法は1--3文の入力データの場合も,4--10文の入力データの場合も従来手法よりも良好な結果が得られていることが分かる.次に4--10文のデータを入力した場合と1--3文のデータを入力した場合を比較してBLEU値の低下率を以下の式により算出した.\begin{equation}\rmBLEU値低下率=1-\frac{4文から10文の入力データで得られたBLEU値}{1文から3文の入力データで得られたBLEU値}\end{equation}上式によりBLEU値の低下率を算出したところ,従来手法の低下率は56\%であり,一方本手法は29\%であった.長い記事を入力として1文の要約を作成する場合,必然的に削除率が高くなりタスクとしては困難である.しかし上述の精度低下率をみると,本手法は長い記事を入力した場合でも短い記事を入力したときの精度とそれ程変わらずに1文の要約文を作成できることが分かる.\noindent\ul{\mbox{ROUGEスコアによる結果}}続いて表\ref{表:ROUGE-1結果}と表\ref{表:ROUGE-2結果}にて自動評価尺度ROUGEにて評価を行った結果を示す.本論文ではROUGE-1及びROUGE-2を使用して評価を行った.まず表\ref{表:ROUGE-1結果}にROUGE-1における評価結果を示す.表\ref{表:ROUGE-1結果}より,1文から3文のデータを入力した場合,本手法が出力した要約文は正解文と比較して1~gram再現率が0.631で従来手法の0.462を大きく上回っていることが分かる.また4文から10文のデータを入力した場合でも本手法の方が優位である結果が得られた.続いて表\ref{表:ROUGE-2結果}にROUGE-2における評価結果を示す.\begin{table}[t]\caption{自動評価尺度ROUGE-1による評価結果}\label{表:ROUGE-1結果}\input{06table07.txt}\end{table}\begin{table}[t]\caption{自動評価尺度ROUGE-2による評価結果}\label{表:ROUGE-2結果}\input{06table08.txt}\end{table}表\ref{表:ROUGE-2結果}でもROUGE-1の結果同様に,従来手法の結果に比べて本手法の方が良好である結果が得られた.また長めの記事データを入力した場合,従来手法における100件中の最大ROUGE-2値は0.667に留まっているが,本手法の方はROUGE-2の最大値1を獲得していることも表から分かる.\subsubsection{人手による評価の結果}\label{節:人手による評価の結果}人手による評価では被験者3人がシステムが出力した要約文と従来手法であるHori~\cite{hori:2002th}手法が出力した要約文の評価を行った.評価尺度等は\ref{節:人手による評価}節に示した通り,可読性の評価(4段階評価)と内容適切性の評価(4段階評価)の2点である.\vspace{1\baselineskip}\noindent\ul{可読性の評価結果}表\ref{表:人手可読性}と表\ref{表:人手可読性2}に1文から3文から構成されるデータを入力した場合の要約文を評価者が可読性評価した結果を示す.可読性の評価は1--4の4段階で1が良好であり,4が不良である.表\ref{表:人手可読性}は従来手法が出力した要約文を評価した結果であり,表\ref{表:人手可読性2}は本手法の結果を表している.\setlength{\tabcolsep}{0.5zw}\setlength{\captionwidth}{200pt}\begin{table}[b]\begin{minipage}{200pt}\hangcaption{従来手法の要約文の可読性評価(1文から3文の入力データ時)}\label{表:人手可読性}\input{06table09.txt}\end{minipage}\hfill\begin{minipage}{200pt}\hangcaption{本手法の要約文の可読性評価(1文から3文の入力時)}\label{表:人手可読性2}\input{06table10.txt}\end{minipage}\end{table}続いて表\ref{表:人手可読性3}と表\ref{表:人手可読性4}に4文から10文から構成されるデータを入力した場合の要約文を評価者が可読性評価した結果を示す.表\ref{表:人手可読性3}は従来手法の結果であり,表\ref{表:人手可読性4}は本手法の結果である.表\ref{表:人手可読性}から表\ref{表:人手可読性4}の結果より,本手法の可読性評価の平均値はどの評価者においても従来手法に比べて優位である結果が得られたことが分かる.また1--3文から構成されているデータを入力とした場合と4--10文のデータを入力した場合で結果を比較すると,本手法は従来手法に比べ評価者全員を通して評価値の低下があまり見られなかった.そのためデータを入力しても本手法は可読性が保たれると考えることができる.\begin{table}[b]\begin{minipage}{200pt}\hangcaption{従来手法の要約文の可読性評価(4文から10文の入力時)}\label{表:人手可読性3}\input{06table11.txt}\end{minipage}\hfill\begin{minipage}{200pt}\caption{本手法の要約文の可読性評価(4文から10文の入力時)}\label{表:人手可読性4}\input{06table12.txt}\end{minipage}\end{table}\setlength{\tabcolsep}{1zw}\begin{table}[b]\caption{評価者の人数と入力データに含まれる評価値1(良好)の件数}\label{表:人手可読性5}\input{06table13.txt}\end{table}続いて表\ref{表:人手可読性5}において,評価者3人全員が良好である評価値1を付与したのが入力データ中にどの程度存在するか,また評価者2人以上が評価値1を付与したのがどの程度存在するか調査した結果を示す.表\ref{表:人手可読性5}より本手法において,評価者3人が共に評価値1を付与した入力データの件数は1--3文の入力データだと52件,4--10文の入力データだと53件という結果が得られた.またいずれの場合も本手法は従来手法の結果よりも優位な結果が得られたことが分かる.評価者の過半数が最も良好である評価値1を付与したものを正解とすると本手法の正解率は1--3文の入力データだと84\%,4--10文の入力データだと79\%である.\vspace{1\baselineskip}\noindent\ul{内容適切性の評価結果}表\ref{表:人手内容適切性}と表\ref{表:人手内容適切性2}に1文から3文から構成されるデータを入力した場合の要約文を評価者が内容適切性を評価した結果を示す.内容適切性の評価は1--4の4段階で1が良好であり,4が不良である.表\ref{表:人手内容適切性}は従来手法が出力した要約文を評価した結果であり,表\ref{表:人手内容適切性2}は本手法の結果を表している.\setlength{\tabcolsep}{0.5zw}\begin{table}[b]\begin{minipage}{200pt}\hangcaption{従来手法の要約文の内容適切性の評価(1文から3文の入力時)}\label{表:人手内容適切性}\input{06table14.txt}\end{minipage}\hfill\begin{minipage}{200pt}\hangcaption{本手法の要約文の内容適切性の評価(1文から3文の入力時)}\label{表:人手内容適切性2}\input{06table15.txt}\end{minipage}\end{table}\noindentここで評価値1は評価者が考えた要約文の内容とシステムが出力した要約文を比較して内容がほとんど一致するという評価であり,評価値2は評価者が考える要約文と50\%以上75\%未満で内容が一致する評価である.表\ref{表:人手内容適切性2}をみると,1文から3文の短いデータを入力した場合,本手法の評価の平均値はいずれの評価者においても評価値2前後であり,人間が作成する要約文の内容に半分以上は一致することが分かる.続いて表\ref{表:人手内容適切性3}と表\ref{表:人手内容適切性4}に4文から10文から構成されるデータを入力した場合の要約文を評価者が内容適切性を評価した結果を示す.表\ref{表:人手内容適切性3}は従来手法の結果であり,表\ref{表:人手内容適切性4}は本手法の結果である.\begin{table}[b]\begin{minipage}{200pt}\hangcaption{従来手法の要約文の内容適切性の評価(4文から10文の入力時)}\label{表:人手内容適切性3}\input{06table16.txt}\end{minipage}\hfill\begin{minipage}{200pt}\hangcaption{本手法の要約文の内容適切性の評価(4文から10文の入力時)}\label{表:人手内容適切性4}\input{06table17.txt}\end{minipage}\end{table}表\ref{表:人手内容適切性}から表\ref{表:人手内容適切性4}の結果よりどの評価者を見ても従来手法より本手法の方が平均値が低い,つまり評価が高かったことが分かる.続いて表\ref{表:人手内容適切性5}において,評価者3人全員が良好である評価値1を付与したのが入力データ中にどの程度存在するか,また評価者2人以上が評価値1を付与したのがどの程度存在するか調査した結果を示す.\setlength{\tabcolsep}{1zw}\begin{table}[t]\caption{評価者の人数と入力データに含まれる評価値1(良好)の件数}\label{表:人手内容適切性5}\input{06table18.txt}\end{table}表\ref{表:人手内容適切性5}より本手法において,評価者3人が共に評価値1を付与した入力データの件数は1文から3文の入力データだと26件,4文から10文の入力データだと21件という結果が得られた.またいずれの場合も本手法は従来手法の結果よりも優位な結果が得られたことが分かる.評価者の過半数が最も良好である評価値1を付与したものを正解とすると本手法の正解率は1文から3文で構成される短めの入力データ,4文から10文で構成される長めのデータ共に43\%を獲得できたこととなる.また内容の適切性を十分に満足するような要約文を得るタスクは従来手法の結果である表\ref{表:人手内容適切性}や表\ref{表:人手内容適切性3}を見ても分かるように難しいタスクであることが分かる.しかし表\ref{表:人手内容適切性2}や表\ref{表:人手内容適切性4}をみると,評価者の多くは評価値1と評価値2の合計が50\%を超えている.そのため,正解率が43\%であると言っても不正解である57\%の多くは評価値1に近いことが言える.\subsubsection{実験結果のまとめ}\label{節:実験結果のまとめ}自動評価尺度であるBLEUやROUGE-$N$,また人手による可読性評価,内容適切性評価のいずれにおいても従来手法より優位な結果が得られた.また結果より,短めの記事を入力した場合と長めの記事を入力した場合で,比較対象と精度を比べると本手法の精度はほとんど変化しなかったことが分かった.そのため,長い記事を入力とした場合でも良好な結果が得られる.\subsection{要約文が含んでいる情報の量}\label{章:要約文が含んでいる情報の量}本論文では入力を1記事として,それを1文に要約する手法を述べた.また目的の1つとして複数の文を1文に圧縮することを挙げた.そのため本手法で出力した要約文が何文の情報を含んでいるのか調査した.これには入力した記事と本手法が出力した要約文の形態素で比較することにより調査を行った.表\ref{表:情報量1}に1文から3文で構成されているデータを入力したときの結果を示す.表\ref{表:情報量1}より,出力した要約文の60\%は2文以上の文を圧縮したものであるという結果が得られた.続いて,4文から10文で構成される長い記事を入力したときに得られた要約文が何文を圧縮したものなのかを調査した.この結果を表\ref{表:情報量2}に示す.\begin{table}[t]\begin{minipage}[t]{200pt}\hangcaption{1文から3文のデータを入力したときに得られた要約文の圧縮文数}\label{表:情報量1}\input{06table19.txt}\end{minipage}\hfill\begin{minipage}[t]{200pt}\hangcaption{4文から10文のデータを入力したときに得られた要約文の圧縮文数}\label{表:情報量2}\input{06table20.txt}\end{minipage}\end{table}表\ref{表:情報量2}より2文以上を圧縮した要約文は100件中80件であることが分かる.これらの結果より,本論文で目的としていた複数の文を1文に圧縮した要約文が作成できたことが分かる.\subsection{用例の収集時期の影響}\label{章:}本実験では1999年から2007年までに収集した用例を最大限使用し,さらにオープンテストを行うため,入力するテストデータとしては1998年の記事を使用した.本節では用例と入力の時間的関係が精度にどの程度の影響を与えるかについて,以下のような調査を行った.収集した用例データベースを1999年から2007年で時系列に沿って10分割し,1998年のテストデータを用いてそれぞれのデータに対して類似用例文の獲得,文節の対応付け,対応文節の組合せを行った.そして対応文節の組合せ時における動的計画法のスコアを比較する.この動的計画法のスコアは入力した記事と獲得された類似用例文がどれ程似ているのかを表している.この結果を図\ref{図:用例データベースと動的計画法のスコアの関係}に示す.図\ref{図:用例データベースと動的計画法のスコアの関係}の結果を見ると用例データベースの収集時期によらず結果がほぼ同一であることが分かる.つまりテストデータとして用いた1998年の記事と近い時期の用例データベースを用いた場合でも,また離れた時期である2007年の用例データベースを用いても結果に変化はない.よって用例データベースの収集時期に関わらず,要約文の作成が可能である.\subsection{用例数と精度との関係}\label{章:用例数を変更}類似用例文を検索する先の用例データベースに含まれる用例文数を変更したときの要約文の精度を調査した.用例文数を変更するときは無作為で用例文を設定した件数になるまで獲得している.また要約文の評価は自動評価尺度であるROUGE-1及びROUGE-2を用いている.この調査結果を図\ref{図:DB大きさと精度}に示す.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f10.eps}\caption{用例データベースの収集時期と動的計画法のスコアの関係}\label{図:用例データベースと動的計画法のスコアの関係}\end{center}\end{figure}図\ref{図:DB大きさと精度}の横軸は対数表示になっている.また図中の直線は対数近似を行った結果である.用例文の数が1000件に満たない場合は,ランダムで選んできた用例文の種類によって大きく精度が変わってしまうため,これによってROUGE-$N$スコアが大きく変化している.近似した回帰グラフを見ると右上がりのグラフが作成されている.また用例数を増加させることによっていずれ精度は飽和することが考えられるが,現在約27000件の用例文を用いている現段階では精度が飽和していない.よって今後,用例文を増加させることによって更なる精度向上が期待できる.\subsection{誤った要約文に対する考察}\label{節:誤った文に対する考察}誤った要約文について例を挙げて示す.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f11.eps}\caption{用例データベースの規模と要約精度}\label{図:DB大きさと精度}\end{center}\end{figure}\begin{screen}\exp{例:例1}誤って出力した要約文の例〈入力記事〉{\setlength{\leftskip}{2zw}米石油大手のコノコは二十九日、従業員九百七十五人を\setnami\uc{削減し、}十--十二月期に五千万ドルの特別損失を\ul{計上すると}発表した。九九年の投資額も石油探査・開発関連を中心に約五億ドル減らし、九八年比で二一%少ない十八億ドル規模にする。\par}〈類似用例文〉米AOLは9日、従業員の7%に相当する1300人を削減すると発表〈出力結果〉米石油大手のコノコは二十九日、従業員九百七十五人を\ul{計上すると}発表\end{screen}例\ref{例:例1}における出力結果では下線の部分が不自然であり,可読性が良くない.文節の対応付けの際には類似用例文の文節「削減すると」に対して,助詞の一致で「計上すると」が対応付けられ,さらに単語間類似度による対応付けで「削除し、」と「計上すると」が対応付けられた.本手法の対応文節の組合せでは助詞の一致と固有表現タグの一致,単語間類似度の信頼度を重み付き和で表している.このため助詞の一致,単語間類似度で共に対応付けが行われた「計上すると」という文節の方が優位であると判断された.このように組合せを行う際に求めた唯一の解ではこのような例が存在するため,N-best解を出力することや複数の類似用例文を使用して複数個の要約文を作成,そして最終的に可読性の良さを連接確率などで測って要約文を選定することによってこの問題は解決できるのではないかと考える.\begin{screen}\exp{例:例3}誤って出力した要約文の例〈入力記事〉{\setlength{\leftskip}{2zw}ハンバーガー大手のロッテリアは一月四日から十四日まで、\setnami\uc{全店で骨なしフライドチキンチキンテンダーを}\setniju\uc{半額で}販売する。通常二百四十円の五個入りを百二十円で、十個入りを二百四十円で販売する。サイドメニューの人気商品の半額キャンペーンで、ハンバーガー類とのセット購入を促して客単価のアップを狙う。\par}〈類似用例文〉イトーヨーカ堂は24日から5日間限定で8200円の紳士・婦人スーツを販売。〈出力結果〉ハンバーガー大手のロッテリアは一月四日から全店で\ul{十個入りを}販売。\end{screen}例\ref{例:例3}では類似用例文の「8200円の紳士・婦人スーツを」に対応する文節として「十個入りを」という文節を対応付けている.本手法では連体修飾部を連結させて,対応付けを行う時には被修飾部のみを参照することで類似した文節の対応付けを行っている.この例では連体修飾部の「8200円の」という部分がその文の最も言いたいことであるが,出力結果にはそのような表現は一切現れていない.本手法では文節単位で対応付けを行い,連体修飾部の内容は比較していないためこのような要約文を作ってしまった.文節を用いたのは形態素単位での対応付けでは対応が取れない例が多く見られたためであるが,逆に文節単位ではこのような連体修飾部の対応付けまでができない.よって今後の展望として形態素で対応付けする場合と,そうではなく文節で対応付けを行う場合どちらも使用して要約文を作成することが挙げられる.\begin{screen}\exp{例:例4}誤って出力した要約文の例〈入力記事〉\par太平工業第一回無担保債一億二百万円。二百万円の利益。〈類似用例文〉\par米穀物大手ADMの10--12月は純利益が20%増の4億4100万ドル。〈出力結果〉\par二百万円の利益が太平工業第一回無担保債一億二百万円。\end{screen}この例では入力記事にもともと助詞があまり存在しない.そのため助詞に一致による文節の対応付けは行われなかった.また入力記事の1文目は連体修飾部を連結した場合,1つのまとまりであると判断された.そのため類似用例文の「純利益が」という文節に対して入力記事の2文目「利益」が対応付けられ,さらに類似用例文の文節「$\cdots$ドル」に対して1文目の「$\cdots$円」が対応付けられた.これらを理由に対応付けが行われたため,出力結果をみると可読性も内容適切性も悪い結果となったと考えられる. \section{結論} 重要度の設定を必要とせず,さらに複数文の情報を圧縮した要約文を作成することを目標とした要約手法を提案した.この要約手法は文書を入力として受け取り,その文書内の複数の文から文節を抽出,また組み合わせることで複数文の情報を含む要約文を作成する.ここで,単に文節を抽出して組み合わせるだけでは,日本語として正しくかつ適切な内容を含む要約文を作ることはできない.これに対して,本論文では過去に人間が作成した要約文(要約事例)を用例文として用い,その用例文を模倣して文節を抽出,組み合わせることで,日本語として連接が良く,さらに適切な内容を含む要約文の作成を可能にした.評価実験ではBLEU,ROUGE-Nによる自動評価と人手による評価の2つから評価を行い,また従来法の1つを比較手法として取り上げた.評価結果では自動評価,人手による評価結果ともに,従来手法に比べ本手法の方が良好な結果が得られたことが分かった.さらに2つの評価方法各々の結果からも本手法の有効性が確認できた.\def\labelenumi{}\section*{使用したツール及び言語資源}\begin{enumerate}\def\newblock{}\item\label{ツール:cabocha}構文解析器{CaboCha},{Ver}.0.53,\newblock奈良先端科学技術大学院大学松本研究室,\\\newblockhttp://chasen.org/\~{}taku/software/cabocha/\item\label{ツール:chasen}形態素解析器{ChaSen},{Ver}.2.3.3,\newblock奈良先端科学技術大学院大学松本研究室,\\\newblockhttp://chasen.naist.jp/hiki/ChaSen\item\label{言語資源:nikkei-goo}日経ニュースメール,NIKKEI-goo,\\\newblockhttp://nikkeimail.goo.ne.jp/\item\label{言語資源:日経}日本経済新聞全記事データベース1990--2004年度版,\newblock日本経済新聞社\end{enumerate}\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{{DaumeIII}\BBA\Marcu}{{DaumeIII}\BBA\Marcu}{2002}]{Daume:2002}{DaumeIII},H.\BBACOMMA\\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQANoisy-ChannelModelforDocumentCompression\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\449--456}.\bibitem[\protect\BCAY{Hori}{Hori}{2002}]{hori:2002th}Hori,C.\BBOP2002\BBCP.\newblock{\BemAStudyonStatisticalMethodsforAutomaticSpeechSummarization}.\newblockPh.D.\thesis,TokyoInstituteofTechnology.\bibitem[\protect\BCAY{Hori,Furui,Malkin,Yu,\BBA\Waibel}{Horiet~al.}{2003}]{Hori:2003}Hori,C.,Furui,S.,Malkin,R.,Yu,H.,\BBA\Waibel,A.\BBOP2003\BBCP.\newblock\BBOQAStatisticalApproachtoAutomaticSpeechSummarization\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf2},\mbox{\BPGS\128--139}.\bibitem[\protect\BCAY{Imamura}{Imamura}{2004}]{imamura:2004}Imamura,K.\BBOP2004\BBCP.\newblock{\BemAutomaticConstructionofTranslationKnowledgeforCorpus-basedMachineTranslation}.\newblockPh.D.\thesis,NaraInstituteofScienceandTechnology.\bibitem[\protect\BCAY{Jing}{Jing}{2000}]{Jing:2000}Jing,H.\BBOP2000\BBCP.\newblock\BBOQSentenceReductionforAutomaticTextSummarization\BBCQ\\newblockIn{\BemProceedingsofThe6thConferenceonAppliedNaturalLanguageProcessing},\mbox{\BPGS\310--315}.\bibitem[\protect\BCAY{Knight\BBA\Marcu}{Knight\BBA\Marcu}{2002}]{Knight:2002}Knight,K.\BBACOMMA\\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQSummarizationBeyondSentenceExtraction:AProbabilisticApproachtoSentenceCompression\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf139}(1),\mbox{\BPGS\91--107}.\bibitem[\protect\BCAY{Kurohashi,Nakazawa,Alexis,\BBA\Kawahara}{Kurohashiet~al.}{2005}]{Kurohashi:2005}Kurohashi,S.,Nakazawa,T.,Alexis,K.,\BBA\Kawahara,D.\BBOP2005\BBCP.\newblock\BBOQExample-basedMachineTranslationPursuingFullyStructuralNLP\BBCQ\\newblockIn{\BemProceedingsofInternationalWorkshoponSpokenLanguageTranslation2005(IWSLT2005)},\mbox{\BPGS\207--212}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{ROUGE}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQLookingforaGoodMetrics:ROUGEanditsEvaluation\BBCQ\\newblockIn{\BemProceedingsofthe4thNTCIRWorkshops},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{Lin:1998}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticRetrievalandClusteringofSimilarWords\BBCQ\\newblockIn{\BemThe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics(COLING-ACL)},\mbox{\BPGS\768--774}.\bibitem[\protect\BCAY{Nagao}{Nagao}{1984}]{Nagao:1984}Nagao,M.\BBOP1984\BBCP.\newblock\BBOQAFrameworkforaMechanicalTranslationbetweenJapaneseandEnglishbyAnalogyPrinciple\BBCQ\\newblockIn{\BemArtificialandHumanIntelligence},\mbox{\BPGS\173--180}.\bibitem[\protect\BCAY{永田}{永田}{1999}]{永田:1999論文}永田昌明\BBOP1999\BBCP.\newblock\JBOQ統計的言語モデルとN-best探索を用いた日本語形態素解析法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{Nguyen,Horiguchi,Shimazu,\BBA\Bao}{Nguyenet~al.}{2004}]{Le:2004}Nguyen,M.~L.,Horiguchi,S.,Shimazu,A.,\BBA\Bao,H.\BBOP2004\BBCP.\newblock\BBOQExample-basedSentenceReductionUsingHiddenMarkovModel\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing},{\Bbf3}(2),\mbox{\BPGS\146--158}.\bibitem[\protect\BCAY{小黒\JBA尾関\JBA張\JBA高木}{小黒\Jetal}{2001}]{oguro:1991論文}小黒玲\JBA尾関和彦\JBA張玉潔\JBA高木一幸\BBOP2001\BBCP.\newblock\JBOQ文節重要度と係り受け整合度に基づく日本語文簡約アルゴリズム\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(3),\mbox{\BPGS\3--18}.\bibitem[\protect\BCAY{大竹}{大竹}{2003}]{大竹清敬:2003NLP}大竹清敬\BBOP2003\BBCP.\newblock\JBOQ用例に基づく換言:中日旅行会話翻訳への適用\JBCQ\\newblock\Jem{言語処理学会年次大会発表論文集},\mbox{\BPGS\345--348}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{BLEU}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'02)},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Sato}{Sato}{1995}]{Sato:1995}Sato,S.\BBOP1995\BBCP.\newblock\BBOQMBT2:AMethodforCombiningFragmentsofExamplesinExample-basedTranslation\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf75}(1),\mbox{\BPGS\31--49}.\bibitem[\protect\BCAY{佐藤\JBA長尾}{佐藤\JBA長尾}{1989}]{佐藤理史:1989NL}佐藤理史\JBA長尾真\BBOP1989\BBCP.\newblock\JBOQ実例に基づいた翻訳\JBCQ\\newblock\Jem{情報処理学会研究報告},{\BbfNL70-9},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{寺村}{寺村}{1993}]{寺村}寺村秀夫\BBOP1993\BBCP.\newblock\Jem{日本語のシンタクスと意味I,第1章}.\newblockくろしお出版.\bibitem[\protect\BCAY{Vandeghinste\BBA\{KimSang}}{Vandeghinste\BBA\{KimSang}}{2004}]{Vandeghinste:2004}Vandeghinste,V.\BBACOMMA\\BBA\{KimSang},E.~T.\BBOP2004\BBCP.\newblock\BBOQUsingaParallelTranscript/SubtitleCorpusforSentenceCompression\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\231--234}.\bibitem[\protect\BCAY{Witbrock\BBA\Mittal}{Witbrock\BBA\Mittal}{1999}]{Witbrock:1999}Witbrock,M.\BBACOMMA\\BBA\Mittal,V.\BBOP1999\BBCP.\newblock\BBOQUltra-Summarization:AStatisticalApproachtoGeneratingHighlyCondensedNon-ExtractiveSummaries\BBCQ\\newblockIn{\BemProceedingsofResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\315--316}.\end{thebibliography}\section*{付録出力された要約文の例}\vspace{-0.5\baselineskip}以下に本手法で得られた要約文の出力例を示す.\newenvironment{InL}{}{}\small\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}三十日午後二時十分ごろ、剣淵町の国道40号で、旭川市東旭川町下兵村二二八、農業南部正さんの乗用車と、旭川市流通団地二条二ノ四三、運転手原政運さんのトラックが正面衝突した。乗用車の四人のうち、南部さんと妻の喜美子さん、士別市東山町三〇二、無職池沢一郎さんの三人が頭を打つなどして死亡、旭川市東旭川北一条四ノ一ノ二八、無職真岩高子さんも左足の骨を折る重傷を負った。原さんにけがはなかった。\end{InL}\noindent{\bf類似用例文}\begin{InL}イラク中部で28日深夜、油送管が爆発し74人が死亡。\end{InL}\noindent{\bf出力した要約文}\begin{InL}剣淵町の国道40号で三十日午後二時十分ごろ、旭川市流通団地二条二ノ四三、運転手原政運さんのトラックが正面衝突し南部さんと妻の喜美子さん、士別市東山町三〇二、無職池沢一郎さんの三人が死亡\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}衛星携帯電話イリジウムの日本法人、日本イリジウムは一月一日から衛星携帯電話の本サービスを開始する。これまでは各国での通話品質の向上を待つため、試験サービスとして実施していた。一月以降は携帯電話利用で月額五十ドル、ポケットベルの併用で月額八十ドルの基本料を徴収する。\end{InL}\noindent{\bf類似用例文}\begin{InL}イランは、次期国会議員選挙を08年3月14日に実施。\end{InL}\noindent{\bf出力した要約文}\begin{InL}衛星携帯電話イリジウムの日本法人、日本イリジウムは、衛星携帯電話の本サービスを一月一日に開始\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}大阪府警柏原署は二十九日、親子げんかの末に父親を殴って死なせたとして、柏原市内の中学三年生の少年を傷害致死の疑いで逮捕した。調べによると、少年は二十八日午後十時五十分ごろ、自宅で会社員の父親に日ごろの生活態度を注意されたことから口論となり、取っ組み合いの末に父親の胸を強く殴り死亡させた疑い。父親は殴られた直後にめまいがすると言って両手をけいれんさせたため、家族が一一九番通報、病院に運ばれたが、二十九日朝、胸部打撲による大動脈の裂傷が原因で死亡した。\end{InL}\noindent{\bf類似用例文}\begin{InL}警視庁は14日、元藍沢証券社員を業務上横領の疑いで逮捕した。\end{InL}\noindent{\bf出力した要約文}\begin{InL}大阪府警柏原署は二十九日、柏原市内の中学三年生の少年を傷害致死の疑いで逮捕\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}九九年三月に大阪商工会議所の次期会頭に就任する田代和副会頭は二十八日、鳥井信一郎・サントリー社長に副会頭への就任を要請した。田代氏の昇格で空席となる分をまず決める狙い。残りの六副会頭のうち半数程度が十一月の改選期に入れ替わると見られており、鳥井氏も同時に就任する可能性が高い。\end{InL}\noindent{\bf類似用例文}\begin{InL}米GMは著名投資家カーコリアン氏側近のジェリー・ヨーク氏に社外取締役就任を要請へ。\end{InL}\noindent{\bf出力した要約文}\begin{InL}九九年三月に大阪商工会議所の次期会頭に就任する田代和副会頭は鳥井信一郎・サントリー社長に副会頭への就任を要請\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}栃木県がまとめた十月の県鉱工業生産指数は九三・三で前月比〇・九%、前年同月比八・四%それぞれ低下した。業種別では金属製品、鉄鋼、精密機械などが低下し、木材、化学工業などは上昇した。\end{InL}\noindent{\bf類似用例文}\begin{InL}ゴールデンウイーク期間中の格安国際航空券の価格が上昇、前年比1--7割高に。\end{InL}\noindent{\bf出力した要約文}\begin{InL}栃木県がまとめた十月の県鉱工業生産指数が低下、前月比〇・九%に\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}北海道中小企業家同友会旭川支部は一月五日、旭川市内のホテルで合同就職説明会を開催する。同友会加盟企業十五社が参加、Uターン就職希望者や大学、短大などの卒業予定者を対象に直接面談する。入退場自由で無料。\end{InL}\noindent{\bf類似用例文}\begin{InL}自民党は16日、都内のホテルで党大会を開催。\end{InL}\noindent{\bf出力した要約文}\begin{InL}北海道中小企業家同友会旭川支部は一月五日、旭川市内のホテルで合同就職説明会を開催\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}日本トランスオーシャン航空は来年四月、客室乗務員の制服を十一年ぶりに一新する。新しい制服は濃紺のジャケットに赤、青、グリーンの三種類のブラウスなど、オーソドックスな色合いとデザインで落ち着いた雰囲気を演出。帽子や胸章などを廃止して、従来の制服より約三〇%コストを削減した。\end{InL}\noindent{\bf類似用例文}\begin{InL}仏エールフランス航空は5日から、客室乗務員などの制服を18年ぶりに一新する。\end{InL}\noindent{\bf出力した要約文}\begin{InL}日本トランスオーシャン航空は来年四月から、客室乗務員の制服を十一年ぶりに一新\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}宮崎銀行は二十八日、住宅金融公庫の住宅ローン返済問題の相談コーナーを本店営業部内に設置した。政府が住宅公庫ローン返済者に対する救済策を打ち出したため、専門的にアドバイスする統括相談員を配置した。設置は来年三月末まで。\end{InL}\noindent{\bf類似用例文}\begin{InL}政府は7月にもバイオテクノロジー戦略会議を設置する。\end{InL}\noindent{\bf出力した要約文}\begin{InL}政府は二十八日にも住宅金融公庫の住宅ローン返済問題の相談コーナーを設置\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}なお,最後の例では要約結果が「宮崎銀行は...」とはならず,「政府は...」と出力された.これは,類似用例文の「政府は」に対して,入力記事1文目の「宮崎銀行は」よりも入力記事2文目の「政府が」のほうが,内容語と助詞の類似性の点からより類似していると判断されたためである.\normalsize\begin{biography}\bioauthor{山本和英}{1996年3月豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在准教授.言語表現加工技術(要約,換言,翻訳),主観表現処理(評判,意見,感情)などに興味がある.言語処理学会,人工知能学会,情報処理学会,各会員.e-mail:[email protected]}\bioauthor{牧野恵}{2006年3月長岡技術科学大学電気電子情報工学課程卒業.2008年3月同大学大学院工学研究科修士課程電気電子情報工学専攻修了.修士(工学).在学中は自動要約の研究に従事.言語処理学会学生会員.e-mail:[email protected]}\end{biography}\biodate\end{document}
V21N02-04
\section{はじめに} 現在,自然言語処理では意味解析の本格的な取り組みが始まりつつある.意味解析には様々なタスクがあるが,その中でも文書中の要素間の関係性を明らかにする述語項構造解析と照応解析は最も基本的かつ重要なタスクである.本稿ではこの両者をまとめて意味関係解析と呼ぶこととする.述語項構造解析では用言とそれが取る項の関係を明らかにすることで,表層の係り受けより深い関係を扱う.照応解析では文章中の表現間の関係を明らかにすることで,係り受け関係にない表現間の関係を扱う.意味関係解析の研究では,意味関係を人手で付与したタグ付きコーパスが評価およびその分析において必要不可欠といえる.意味関係およびそのタグ付けを以下の例\ref{意味・談話関係のタグ付け例}で説明する.\ex.\let\oldalph\let\alph\label{意味・談話関係のタグ付け例}今日はソフマップ京都に行きました。\\\label{意味・談話関係のタグ付け例a}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}行きました$\leftarrow$ガ:[著者],ニ:ソフマップ京都\\\end{tabular}\right)$\\時計を買いたかったのですが、この店舗は扱っていませんでした。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}買いたかった$\leftarrow$ガ:[著者],ヲ:時計\\店舗$\leftarrow$=:ソフマップ京都\\扱っていませんでした$\leftarrow$ガ:店舗,ヲ:時計\label{意味・談話関係のタグ付け例b}\end{tabular}\right)$\\時計を売っているお店をコメントで教えてください。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}時計$\leftarrow$=:時計\\売っている$\leftarrow$ガ:お店,ヲ:時計\\教えてください$\leftarrow$ガ:[読者],ヲ:お店,ニ:[著者]\label{意味・談話関係のタグ付け例c}\end{tabular}\right)$\global\let\alphここでA$\leftarrow${\textitrel}:BはAに{\textitrel}という関係でBというタグを付与することを表す.{\textitrel}が「ガ」「ヲ」「ニ」などの場合はAが述語項構造の{\textitrel}格の項としてBをとることを表わし,「=」はAがBと照応関係にあることを表す.また以降の例では議論に関係しないタグについては省略する場合がある.照応関係とは談話中のある表現(照応詞)が別の表現(照応先)を指す現象である\footnote{照応に類似した概念として共参照が存在する.共参照とは複数の表現が同じ実体を指す現象であるが,照応として表現できるものがほとんどなので,本論文では特に断りがない限り照応として扱う.}.ここでは,「店舗」に「=:ソフマップ京都」というタグを付与することで,この照応関係を表現している.述語項構造は述語とその項の関係を表したもので,例\ref{意味・談話関係のタグ付け例b}の「扱っていませんでした」に対してガ格の項が「店舗」,ヲ格の項が「時計」という関係である.ここで,ヲ格の「時計」は省略されており,一般に{\bfゼロ照応}と呼ばれる関係にあるが,ゼロ照応も述語項構造の一部として扱う.またゼロ照応では照応先が文章中に出現しない{\bf外界ゼロ照応}と呼ばれる現象がある.例えば,例\ref{意味・談話関係のタグ付け例a}の「行きました」や「買いたかった」のガ格の項はこの文章の著者であるが,この著者を指す表現は文章中には出現しない.外界の照応先として[著者],[読者],[不特定-人]\footnote{以降,外界の照応先は[]で囲う.}などを設定することで,外界ゼロ照応を含めた述語項構造のタグ付けを行う.これまでの日本語の意味関係解析の研究で主に用いられてきたのは意味関係を付与した新聞記事コーパスであった\cite{KTC,NTC}.しかし,テキストには新聞記事以外にも百科事典や日記,小説など多様なジャンルがある.これらの多様なテキストの中には依頼表現,敬語表現など新聞記事ではあまり出現しない言語現象も出現し,意味関係と密接に関係している.例えば例\ref{意味・談話関係のタグ付け例}の「買いたかった」のガ格が[著者]となることは意志表現に,「教えてください」のガ格が[読者],ニ格が[著者]になることは依頼表現に密接に関係している.このような言語現象と意味関係の関係を明らかにするためには,多様なテキストからなるタグ付きコーパスの構築とその分析が必要となる.そこで本研究ではニュース記事,百科事典記事,blog,商用ページなどを含むWebページをタグ付け対象として利用することで,多様なジャンル,文体の文書からなる意味関係タグ付きコーパスの作成を行う.上述のように,本研究のタグ付け対象には新聞記事ではあまり出現しない言語現象が含まれる.その中でも特に大きなものとして文章の著者・読者の存在が挙げられる.著者や読者は,省略されやすい,モダリティや敬語などと密接に関係するなど,他の談話要素とは異なった振る舞いをする.新聞記事では,客観的事実を報じる内容がほとんどのため,社説を除くと記事の著者や読者が談話中に出現することはほとんどない.そのため,従来のタグ付け基準では[著者]や[読者]などを外界の照応先として定義していたが,具体的なタグ付け基準についてはあまり議論されてこなかった.一方,本研究で扱うWebではblog記事や通販ページ,マニュアルなど著者や読者が談話中に出現する文書が多く含まれ,その中には従来のタグ付け基準では想定していなかった言語現象および意味関係が出現する.そのため,著者・読者が出現する文書でのタグ付け上の問題点を分析し,タグ付け基準を設けることが重要となる.著者・読者が出現する文書へのタグ付けでの1つ目の問題は,文章中で著者・読者に対応する表現である.\ex.\underline{僕}は京都に行きたいのですが,\underline{皆さん}のお勧めの場所があったら\underline{教えてください}。\\\label{例:著者・読者表現}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}僕$\leftarrow$=:[著者]\\皆さん$\leftarrow$=:[読者]\\教えてください$\leftarrow$ガ:皆さん,ヲ:場所,ニ:僕\end{tabular}\right)$例\ref{例:著者・読者表現}では,「僕」は著者に対応し,「皆さん」は読者に対応した表現となっている.本研究ではこのような著者や読者に対応する表現を{\bf著者表現},{\bf読者表現}と呼ぶこととする.著者表現,読者表現は外界ゼロ照応における[著者]や[読者]と同様に談話中で特別な振る舞いをする.例えば例\ref{例:著者・読者表現}の「教えてください」のように,依頼表現の動作主は読者表現に,依頼表現の受け手は著者表現になりやすい.本研究で扱う文書は多様な著者,読者からなり,著者読者,読者表現も人称代名詞だけでなく,固有表現や役割表現など様々な表現で言及され,語の表層的な情報だけからは簡単に判別できない.そこで本研究では著者表現,読者表現をタグ付けし,著者・読者の談話中での振る舞いについて調査した.2つ目の問題は項を明示していない表現に対する述語項構造のタグ付けである.日本語では一般的な事柄に対して述べる場合には,動作主や受け手などを明示しない表現が用いられることが多い.従来の新聞記事を対象としたタグ付けでは,[不特定-人]を動作主などとすることでタグ付けを行ってきた.一方,著者・読者が談話中に出現する場合には,一般的な事項について述べる場合でも動作主などを著者や読者と解釈できる場合が存在する.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{曖昧性}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:記事)例\ref{曖昧性}の「公開する」の動作主であるガ格は,不特定の人が行える一般論であるが,著者自身の経験とも読者が将来する行為とも解釈することができ,作業者の解釈によりタグ付けに一貫性を欠くこととなる.本研究ではこのような曖昧性が生じる表現を分類し,タグ付けの基準を設定した.本研究の目的である多様な文書を含むタグ付きコーパスの構築を行うためには,多数の文書に対してタグ付け作業を行う必要がある.この際,1文書あたりの作業量が問題となる.形態素,構文関係のタグ付けは文単位で独立であり,文書が長くなっても作業量は文数に対して線形にしか増加しない.一方,意味関係のタグ付けでは文をまたぐ関係を扱うため,文書が長くなると作業者が考慮すべき要素が組み合わせ的に増加する.このため1文書あたりの作業時間が長くなり,文書全体にタグ付けを行うと,タグ付けできる文書数が限られてしまう.そこで,先頭の数文に限定してタグ付けを行うことで1文書あたりの作業量を抑える.意味関係解析では既に解析した前方の文の解析結果を利用する場合があり,先頭の解析誤りが後続文の解析に悪影響を与える.先頭数文に限定したコーパスを作ることで,文書の先頭の解析精度を上げることが期待でき,全体での精度向上にも寄与できると考えられる.本論文では,2節でコーパスを構成する文書の収集について述べ,3節で一般的な意味関係のタグ付けについて述べる.4節では著者・読者表現に対するタグ付け,5節では複数の解釈が可能な表現に対するタグ付けについて述べる.6節でタグ付けされたコーパスの性質について議論し,7節で関連研究について述べ,8節でまとめとする. \section{タグ付与対象の文書の収集} 従来,意味関係タグ付きコーパスの構築は新聞記事を中心に行われてきた\cite{KTC,NTC}.しかし,新聞記事にはほとんど出現しない言語現象も存在し,そのような言語現象を研究するためには多様な文書を対象としたコーパスを構築する必要がある.本研究ではドメインなどを限定せずにWebを利用することで多様な文書を収集する.多様性を確保するためには,1文書あたりの作業負荷を低くする必要があるので,各文書の先頭3文にタグ付けを限定する.現在1,000文書のタグ付けが完了している.タグ付け対象を先頭3文とした理由は,以下の理由による.本研究では意味関係のうち特にゼロ照応関係を重視している.ゼロ照応における照応先の位置を京都大学テキストコーパス\cite{KTC}および\cite{sasano-kurohashi:2011:IJCNLP-2011}が実験で使用したWebコーパスについて調査した結果を表\ref{照応先の出現位置}に示す.この結果から,ゼロ照応関係は1文前までで約70\%,2文前までで約80\%に出現しており,ゼロ照応関係については先頭から3文までを扱うことで,多くの現象を収集できると考えられる.そのため本研究ではタグ付けする文数を3文とした.\begin{table}[b]\caption{照応先の出現位置}\label{照応先の出現位置}\input{ca04table01.txt}\end{table}本研究では,Webに存在する文書をタグ付け対象とすることで,多様な文書からなるコーパスの構築を目的とするが,Web上に存在する日本語の現象を網羅することやWebに存在する文書の分布を反映することについては重視していない.これは,以下の2つの問題による.1つ目の問題は,Web上には意味関係タグの定義および付与が困難な文書が多数存在することである.本研究では,京都大学テキストコーパスで定義された意味関係とその拡張である著者・読者表現のタグ付けを行う.京都大学テキストコーパスでは,新聞記事をタグ付け対象としており,そのタグ付け基準は以下のようなテキストを前提としていると言える.\begin{itemize}\item本文のみで内容を理解できる\item形態素や文節の単位が認定できる程度に固い文体で記述されている\item1文書は1人の著者により記述されている\end{itemize}本研究でも同様の基準でタグ付けを行うため,上記の条件を満たす文書のみをタグ付け対象として扱う.そのため,Webに存在する文書のうち以下のような文書をタグ付けから除くこととなり,そこに含まれる言語現象については扱うことができない.\begin{description}\item[イラストや写真などを参照する必要のある文書]本文のテキストのみだけでは,意味関係を推測できない\item[AAや顔文字などが含まれる文書]AAや顔文字などはテキストで表現されるが,文をまたぐことや中に言葉が入っていることが多く,範囲の定義が困難\item[掲示板やチャットなど対話形式の文書]著者が一貫しないので,著者・読者表現のタグ付けが困難であり,発言者情報や投稿の区切りなどの情報を付与する必要がある\end{description}2つ目の問題は,Web文書の真の分布が不明なことである.Webには誰でも文書をアップロードすることができる一方でクローリングを回避する手段が存在するなど,Web上の文書を網羅的に収集することは困難である.また,網羅的に収集することができたとしても,自動生成されたテキスト,引用・盗用されたテキストの存在などにより,意味関係コーパスとして利用するには不適当なものが大量に含まれると考えられる(404notfoundのページが多数含まれるなど).これらの問題から,本研究ではタグ付け対象のWebにおける網羅性などを目指すことはせず,タグ付け可能な文書に対して効率よく大量の文書にタグ付けを行うことを目標とした.上記のようにWebに存在する文書には,コーパスとして利用するには不適切な文書も多数存在している.これらのうちテキストのみでは内容の理解が困難な文書の定義や扱いについては\ref{意味・談話関係の理解が困難な文書の判定}節にて詳しく述べる.一方,過度にくだけた文体で記述された文書などテキストの内容からタグ付けが困難な文書の定義や扱いについては\ref{タグ付けに不適切な文書の判定}節にて詳しく述べる.これらの不適な文書を全て人手で確認し,選別することは非常にコストがかかる.そのため,まず簡単なルールで自動フィルタリングを行い,その後残った文書を人手で確認しコーパスとして適切な文書についてのみタグ付けの作業を行うこととした.ルールにおける自動フィルタリングにより除外される文書にはタグ付けに適当なものも多く含まれる.しかし,Web文書には大量の不適切文書が含まれるため,自動フィルタリングを行わない場合には,作業者が大量の文書の確認を行うことになる.また,上述のように本研究の目的は偏りなくWeb文書を収集することではなく大量の文書のタグ付けを行うことである.そこで本研究では人手によるフィルタリングの作業を減らし,タグ付け作業に時間を割くために,自動フィルタリングを行う.本研究では以下の手順でコーパスの構築を行った.\begin{enumerate}\item\cite{Kawahara2006}の手法によりWebからクローリングされたHTMLファイルから日本語文を抽出.\begin{enumerate}\item文字コード情報から日本語のWebページ候補を判定.\item助詞「が」「を」「に」「は」「の」「で」を0.5\%以上含むWebページを日本語Webページと判定.\item句点および$<$br$>$,$<$p$>$タグにより文単位に分割.\itemひらがな,カタカナ,漢字の割合が60\%以上の文のみを日本語文として抽出.\end{enumerate}\item各ファイルで抽出された最初の日本語文から連続して抽出された日本語文を日本語文書として抽出する.\item抽出された日本語文書の1文目が見出しかを自動判定(\ref{意味・談話関係の理解が困難な文書の判定}節で述べる).\begin{description}\item[見出しを持つ]見出しに続く3文をタグ付け対象として抽出.見出しを除いた3文で内容が理解できるかを自動判定.\item[見出しを持たない]先頭から3文をタグ付け対象として抽出.\end{description}\item抽出された3文に対してルールによるフィルタリング(\ref{タグ付けに不適切な文書の判定}節で述べる).\item人手によるフィルタリング.\label{手順:人手フィルタリング}\item人手によるタグ付け.\label{手順:人手タグ}\end{enumerate}なお,クローリングの際には日本語のWebページかの判定は行っているが,それ以外のドメインや内容によるフィルタリングは行っていない.また,実際には(\ref{手順:人手フィルタリング})の人手によるフィルタリングは,タグ付けの際に作業者が不適と判断した文書をタグ付けしないことで行う.\subsection{テキストのみからは意味関係の理解が困難な文書の判定}\label{意味・談話関係の理解が困難な文書の判定}発話や文書などの言語使用はある場・状況において行われ,場・状況は基本的に話者・著者と聴者・読者の間で共有されている.また,発話や文書の内容は場・状況となんらかの連続性を持っている.Webページにおいては,どのようなWebサイト内に掲載された文書なのか,またサイト内でどのような位置付けにある文書なのか,などがこれにあたる.形態素・構文レベルのタグ付きコーパスでは,各文を独立に扱うので,このような場・状況との連続性を考慮する必要はない.しかし,意味関係コーパスにおいては,この問題を考慮する必要がある.本研究ではコーパスとしてはテキストだけを扱うため,このような場・状況の情報がなくても意味関係を理解可能な文書のみをコーパスに含める.例えば,ニュース記事であれば,その文体からニュース記事であることが分かり,多くの場合その記事に記載されている内容はテキストのみから理解することが可能である.一方で,製品紹介ページ内の「使用上の注意」などのページの場合には,製品自体の知識がない場合には理解することが困難なことが多く,コーパスに含む文書としては不適である.このような文書はタグ付けの前に人手によりコーパスから取り除く.テキストは見出しを持つ場合があり,その見出しは場・状況との連続性において重要な役割を持つ場合がある.しかし,見出しは名詞句の連続など通常の文として成立していないものも少なくないため本研究ではタグ付け対象から除く.本研究では,文書が見出しをもつかどうかを自動的に判定する.WebにはHTMLタグなどの構造情報があるが,見出しを指定する$<$h$>$タグ以外で見出しが記述される場合があり,一方で$<$h$>$タグでマークアップされていても見出しではない場合もある.そこでHTMLのタグを用いずテキストの内容から見出しの判定を行う.1文目が句点で終わっていない場合または体言止めの場合に1文目を見出しと判定し,それ以外の場合には見出しなしとする.見出しなしの場合には先頭3文をタグ付け対象として抽出し,1文目が見出しの文書の場合には見出しを除いた後続の3文をタグ付け対象として抽出する.ただし,見出しを除くと意味関係の理解が困難になると考えられる文書は以下の手順で除去する.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA4f1.eps}\end{center}\caption{見出しの内容語が本文中に出現しない例}\label{見出しが本文中に出現しない例}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA4f2.eps}\end{center}\caption{見出しの内容語が先頭3文中に出現する例}\label{見出しの要素が先頭3文中に出現する例}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA4f3.eps}\end{center}\caption{見出しの内容語が先頭3文以外に出現する例}\label{見出しを除くと意味・談話関係の理解が困難になる例}\end{figure}図\ref{見出しが本文中に出現しない例}のようにblog記事の見出しが日付けの場合など,見出しの内容が本文の内容にほとんど関係ない場合には,見出しを除いても本文の意味関係の理解に影響を与えないと考えられる.このように本文に関係ない見出しの場合,見出し中の内容語が以降の文書中に出現しないと考えられる.見出し中の内容語が文書中に出現する場合でも,先頭3文中に出現する場合には,見出しを除いても先頭3文の意味関係は理解できると考えられる.図\ref{見出しの要素が先頭3文中に出現する例}の例では1文目が要約の役割を果たしており,見出し中の内容語が全て先頭3文に出現している.このような場合には見出しを除いても先頭3文の理解は可能であると考えられる.一方で見出し中の内容語が先頭3文以外に出現した場合には,コーパスとして利用する先頭3文だけで見出しの情報が復元できず,意味関係の理解が困難となると考えられる.図\ref{見出しを除くと意味・談話関係の理解が困難になる例}の例では見出しに含まれる「売布神社」が6文目に出現している.しかし先頭3文には「売布神社」は出現せず,先頭3文だけでは「売布神社」に向かうという意味関係の理解が困難である.そこで見出し中の内容語が先頭3文以外に出現する文書は見出しを除くと先頭3文の意味関係の理解が困難になるとし,自動で除去する.この後残された文書に対してもタグ付けの際に人手による判定を行い,抽出された3文だけでは意味関係が理解できない場合にはコーパスから除去する.\subsection{タグ付けに不適切な文書の判定}\label{タグ付けに不適切な文書の判定}Webから収集された文書には様々なものがあり,タグ付けを行うには不適切な文書も含まれる.本研究では以下のいずれかに該当するものはタグ付けが困難であるとして,コーパスに含めない.\begin{description}\item[理解に専門知識を必要とする]理解に専門的な知識を必要とする文書は作業者が理解できない場合があり,正しいタグ付けが困難である\item[文章に意味的連続性がない]収集された文書には本来は離れた位置にレンダリングされるテキストを連続したテキストとして抽出してしまったものが含まれる.このような文書は文をまたぐ意味関係のタグ付けができない\item[過度にくだけた文体で記述されている]過度にくだけた表現はタグ付けの基本単位となる形態素のタグ付けが困難である\end{description}\begin{table}[b]\vspace{-0.5\Cvs}\caption{ストップフレーズ}\label{ストップフレーズの例}\input{ca04table02.txt}\end{table}これらを除くために,まずタグ付け対象となる先頭3文の中に以下の要素を含む文書を自動で除去する.\begin{itemize}\item体言止めの文:修辞的な文や箇条書きの一部であることが多い\item句点で終わっていない文:テキストの抜き出し誤りであることが多い\item10文節以上ある文:過度にくだけた文体や非文は形態素解析において過分割される場合が多く,文節数も過度に多くなる傾向にある\itemローマ字:略語や伏せ字,専門用語であることが多い\item表\ref{ストップフレーズの例}のストップフレーズ:自動生成ページやWeb独特の表現を除くため\end{itemize}また,ミラーページや引用ページを除去するために,編集距離が50以下の文書ペアがあった場合には一方を除去する.この作業において50字以下の文書は全て削除されるが,3文で50字以下のテキストではほとんど意味関係が理解できないため全て削除しても問題ないと考えられる.自動判定の結果残った不適切な文書はタグ付けの前に人手で除去する. \section{タグ付け} \label{タグ付け内容と基準}\subsection{タグ付け内容}本コーパスに対して形態素,係り受け関係,固有表現,述語項構造,照応関係のタグ付けを行う.本研究の焦点は意味関係(述語項構造,照応関係)のタグ付けであるが,そのためにはタグ付け単位の設定などのために形態素,係り受け関係のタグ付けが必要となる.固有表現は意味関係のタグ付けには必要ないが,意味関係解析の際には重要な手掛かりとなるのでタグ付けを行う.これらのタグ付けは原則的に京都大学テキストコーパス\cite{KTC}とIREX\footnote{http://nlp.cs.nyu.edu/irex/NE/df990214.txt}の基準に準拠して付与し,一部では基準を変更した.本節ではこれらの基準のうち,本コーパスにおいて重要となる部分および本コーパスで基準を変更した点について述べる.述語項構造と照応関係のタグ付けの単位として,京都大学テキストコーパスと同様に,基本句を設定する.基本句とは自立語1語を核として,前後の付属語を付加した形態素列である.例\ref{複合語の例}に基本句単位での分割の例を示す.述語項構造と照応関係の情報は基本句ごとに付与し,述語項構造の項や照応関係の照応先も基本句とする.項や照応先が複合語の場合には,その主辞の基本句を照応先とする.例\ref{複合語の例}では,下線部の「党」の照応先は「国民新党」なので,その主辞の基本句である「新党」を照応先としてタグ付けする.\ex.7月/17日、/国民/新党/災害/対策/事務/局長と/して、/\underline{党}を/代表して/現地へ/向かいました。\label{複合語の例}\\\hspace*{4ex}(党$\leftarrow$=:新党)述語項構造は基本的に京都大学テキストコーパスと同様の基準で付与する.格はガ格,ヲ格,ニ格などの表層格と時間,修飾,外の関係などの関係を表す格として定義され,項としては直接係り受け関係にある項,文章内ゼロ照応の項,外界ゼロ照応の項の3種類がある.直接係り受け関係にある項,文章内ゼロ照応の項については,文章中の基本句から選択する.外界ゼロ照応では表\ref{外界ゼロ照応の照応先}に示す5種類の照応先の中から選択する.ここで,「不特定-人」は不特定の人だけでなく,文章中で言及されていない人全てを指す.述語項構造のタグ付け対象は述語のみでなく,事態性を持つ体言に対してもタグを付与する.京都大学テキストコーパスでは,二重主語構文に対するタグ付けとしてガ2格を設定し,以下の例のようにタグ付けを行っている.\ex.彼はビールが\underline{飲みたい}。\\\hspace*{4ex}(飲みたい$\leftarrow$ガ2:彼,ガ:ビール)京都大学テキストコーパスの基準では,例\ref{象}では「象が長い」とは言えないので,「象」は「長い」のガ2格と扱わないこととなっている.「象」は「長い」の主題にあたる役割を持っているが,この基準では述語項構造として「象」と「長い」が関係を持つことを表現できない.そこで,本コーパスでは主題を表す表現の場合にはガ2格とすることとした.\ex.象は鼻が\underline{長い}。\label{象}\\\hspace*{4ex}(長い$\leftarrow$ガ2:象,ガ:鼻)\begin{table}[t]\caption{外界ゼロ照応の照応先の一覧と例}\label{外界ゼロ照応の照応先}\input{ca04table03.txt}\end{table}照応関係のタグ付けは京都大学テキストコーパスに準拠する.京都大学テキストコーパスでは,照応関係を「=」(共参照関係),「ノ」(AのBと言い換えられる橋渡し照応),「≒」(それ以外)の3つに分けてタグ付けを行っている.また,照応関係は体言同士だけでなく述語同士および体言・述語間に対してもタグ付けされている.京都大学テキストコーパスでは,ある基本句のある格に対して複数の項を付与するために「AND」「OR」「?」の3つのタイプを定義している.「AND」は「AおよびBが〜」のように付与された項が並列の関係にあり,これらが共に行われる表現に対して利用される.例\ref{AND例}では「太郎」「花子」が共に「学校に行った」のでこれらを「AND」の関係で付与する.\ex.太郎と花子は学校に\underline{行った}。\label{AND例}\\\hspace*{4ex}(行った$\leftarrow$ガ:太郎AND花子)「OR」は「AまたはBが〜」のように付与され項が並列の関係にあり,どちらかが行われる表現に対して利用される.例\ref{OR例}では「持っていく」のは「太郎」または「花子」のどちらかであるので「OR」の関係で付与する.\ex.太郎か花子が\underline{持っていきます}。\label{OR例}\\\hspace*{4ex}(持っていきます$\leftarrow$ガ:太郎OR花子)「?」は文脈だけからは,複数の候補から実際の項を特定できない場合に付与される.例\ref{?例}では,「撤廃する」の主格は「高知県」,「橋本知事」,[不特定:人](高知県議員や職員)のいずれにも解釈できるので,「?」の関係で付与する.\ex.高知県の橋本知事は$\cdots$国籍条項を\underline{撤廃する}方針を明らかにした。\label{?例}\\\hspace*{4ex}(撤廃する$\leftarrow$ガ:高知県?橋本知事?不特定:人) \section{著者・読者表現} \label{著者・読者表現}談話において文書の著者・読者は特別な要素であり他の談話要素と異なった振舞いをする.従来の新聞記事コーパスでは,表\ref{外界ゼロ照応の照応先}で示したように文章中に出現しない外界ゼロ照応先として著者や読者などの要素を考慮していた.しかし,著者・読者は著者・読者表現として文章中に記述される場合がある.\ex.\underline{私}の担当するお客様に褒めて頂きました。\label{文章内例}\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}褒めて頂きました$\leftarrow$ガ:私,ニ:お客様\\私$\leftarrow$=:[著者]\end{tabular}\right)$例えば,例\ref{文章内例}では「私」が著者表現として文章中に記述されている.このような場合,従来のコーパスでは他の談話要素と同様の文章内ゼロ照応として扱い,著者や読者として特別には扱ってこなかった.しかし,文章中での著者や読者の振る舞いを調査するためには,このような文章中に記述された著者・読者表現の振る舞いも調査する必要がある.本研究では,例\ref{文章内例}の「私」が著者表現であることを共参照としてタグ付けすることとする.本研究で扱う文書は多様な著者によって多様な読者に向けて記述されており,著者・読者表現は人称代名詞に限らず様々な表現で記述される.例えば例\ref{こま}の「こま」のように固有名である場合や「主婦」や「母」などのように立場や役職などである場合が存在する.\ex.\let\oldalph\let\alph\label{こま}東京都に住む「お気楽\underline{主婦}」\underline{こま}です。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}主婦$\leftarrow$=:[著者]\\こま$\leftarrow$=:主婦\\\end{tabular}\right)$\\0歳と6歳の男の子の\underline{母}をしてます。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}母$\leftarrow$=:主婦\end{tabular}\right)$\global\let\alph本研究では人称代名詞に限らず,文書の著者・読者に対応する表現全てを著者・読者表現としてタグ付けを行った.著者・読者表現に対しては外界照応のタグとして「=:[著者]」,「=:[読者]」のタグを付与する.著者・読者表現が複合語の場合にはその主辞となる基本句に対して付与する.著者・読者は各文書で1人と仮定し,文書中で「=:[著者]」,「=:[読者]」それぞれ最大でも1基本句にしか付与しないこととする.共参照関係にあり著者・読者が複数回言及されている場合には,原則として初出となる著者表現に対して付与することとする.例\ref{こま}では下線部の3つの表現が著者表現だが,「主婦」に対して「=:[著者]」とタグ付けしている.\subsection{著者表現}本節では,著者表現を付与する際に問題となる,組織やホームページを指す表現の扱いについて述べる.企業など組織のホームページでは組織自身が人格や主体性をもっているかのように記述されることが多い.そのような場合には,実際の著者はホームページの管理者などであると考えられるが,その組織を著者として扱いタグを付与することとする.例\ref{病院}ではサイト管理者が「神戸徳洲会病院」を代表して記述していると考えられるので,その主辞である「病院」に対し「=:[著者]」を付与する.\ex.\underline{神戸徳洲会病院}では地域の医療機関との連携を大切にしています。\\\label{病院}\hspace*{4ex}(病院$\leftarrow$=:[著者])\\ご来院の際は、是非かかりつけの先生の紹介状をお持ち下さい。\\紹介状を持参頂いた患者様は、優先的に診察させて頂きます。また,例\ref{結婚}のようにWebサイト自体を指す表現においても同様に扱う.\ex.\underline{結婚応援サイト}は、皆さんの素敵な人生のパートナー探しを応援します。\\\label{結婚}\hspace*{4ex}(サイト$\leftarrow$=:[著者])店舗のページなどでは店舗を表す表現と店長や店員を表す表現が共に出現する場合がある.このような場合には,店舗と店長・店員のどちらが著者的に振る舞っているかを判断してタグ付けを行う.例\ref{店員}では店舗が著者的なので「スタッフ」ではなく「館」に「=:著者」を付与する.\ex.\underline{タウンロフト館}の店舗情報をお伝えします。\\\label{店員}\hspace*{4ex}(館$\leftarrow$=:[著者])\\ご来店予定の際にアクセスでお困りでしたら、\underline{当店スタッフ}までお気軽にご連絡下さい。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}当店$\leftarrow$=:館\\スタッフ$\leftarrow$ノ:当店\end{tabular}\right)$一方,例\ref{店長}では,店長である「かおりん」が著者として店舗を紹介しているので「かおりん」に対して「=:著者」を付与する.\ex.『ソブレ』アマゾン店,店長の\underline{かおりん}です。\\\label{店長}\hspace*{4ex}(かおりん$\leftarrow$=:[著者])\\新商品の情報や、かおりん日記を相棒☆みかんと一緒に紹介します。\subsection{読者表現}本コーパスで扱う文書はWebから収集されたものであり,不特定多数の人間が閲覧できる状態である.そのため厳密に常に読者を指す表現といえるのは二人称代名詞のみといえる.例\ref{皆さん}では,「皆さん」は二人称代名詞の敬語表現であり,読者表現としてタグ付けを行う.\ex.\underline{皆さん}は初詣はどこに行かれたでしょうか?\\\label{皆さん}\hspace*{4ex}(皆さん$\leftarrow$=:[読者])一方,不特定の人が閲覧できる状態であっても,多くの文書では著者が主な読者として想定する対象が存在する.本研究ではそのような対象を指す表現も読者表現にあたると定義してタグ付けを行う.例\ref{ぽすれん}は「ぽすれん登録会員」に対するガイドラインであるので,「ぽすれん登録会員」を読者表現とし,その主辞である「会員」に「=:[読者]」を付与する.\ex.\underline{ぽすれん登録会員}がコミュニティサービスをご利用いただくには、本ガイドラインの内容を承諾いただくことが条件となります。\\\label{ぽすれん}\hspace*{4ex}(会員$\leftarrow$=:[読者])一方,例\ref{方}では「写真を撮られた方」は著者にとって想定している読者のうちの一部であり,読者全体を想定した表現ではないので「方」は読者表現としては扱わない.\ex.桜の下で写真を撮られた\underline{方}も多いのではないでしょうか。\\\label{方} \section{複数の解釈が可能な表現に対するタグ付け} \label{複数付与基準}日本語では用言の動作主や受け手にあたる格要素が明示されない表現が用いられることがある.京都大学テキストコーパスでは明示されていない格要素の候補が文章中に出現する場合には\ref{タグ付け内容と基準}節で説明した「?」による複数付与によってタグ付けを行っている.また,候補が文章中の表現にないような場合でも,京都大学テキストコーパスが対象とする新聞記事では[不特定-人]を格要素としてタグ付けすればよい場合がほとんどである.一方,Webテキストのように著者・読者が談話構造中に出現する場合には,この明示されていない格要素を[不特定-人]だけでなく[著者]や[読者]としても解釈できる場合が多くある.本研究では,複数の解釈ができる場合には「?」の関係で解釈可能な全ての項を付与することとする.複数解釈可能な典型的表現についてはマニュアルを作成し,作業者に例示を行った.例示した内容は付録\ref{付録:複数付与基準}に示した.本節では,[著者],[読者]および[不特定-人]を格要素として解釈する際の基準について説明する.なお,以降の例では[著者],[読者]および[不特定-人]を例として紹介するが,[著者],[読者]については\ref{著者・読者表現}節で述べた著者表現,読者表現も同様に扱うものとする.\subsection{[不特定-人]を付与する基準}行為が一般論といえる場合,著者・読者以外で文章中で言及されていない人を指す場合には[不特定-人]を付与する.例\ref{不特定-焙煎}では,一般論と言えるので動作主にあたるガ格に[不特定-人]を付与する.\ex.コーヒー生豆とは\underline{焙煎する}前の裸の状態の豆をいい、グリーンコーヒーとも呼ばれています。\label{不特定-焙煎}\\\hspace*{4ex}(焙煎する$\leftarrow$ガ:[不特定-人],ヲ:豆)例\ref{不特定-2}では,文章中で言及されていないメールマガジンの会員が受け手と言えるのでニ格に[不特定-人]を付与する.この例では「是非ご登録ください」と書かれていることから,読者はまだメールマガジンの会員でないと考えられるので,[読者]は付与しない.\ex.メールマガジンではお得な情報を\underline{お送りしています}。是非ご登録ください。\label{不特定-2}\\\hspace*{4ex}(お送りしています$\leftarrow$ガ:[著者],ニ:[不特定-人])\subsection{[著者]を付与する基準}著者自身が実行したことがある,著者自身にもあてはまると解釈できる場合には[著者]を付与する.例\ref{著者-2}では,一般論といえるが,著者(鉄道会社)にもあてはまると解釈できるのでガ格に[不特定-人]に加えて[著者]も付与する.\ex.線路は列車の安全を確保し、快適な乗り心地を維持する状態に\underline{整備しておかなければなりません}。\label{著者-2}\\\hspace*{4ex}(整備しておかねばなりません$\leftarrow$ガ:[著者]?[不特定-人],ヲ:線路,ニ:状態)例\ref{田楽}では,一般論とも言えるが,著者自身が「源流を辿った」経験があるとも解釈できるのでガ格に「[著者]?[不特定-人]」を付与する.\ex.しかし名前からも察することができるように、源流を\underline{辿れば}「田楽」に行き当たる。\label{田楽}\\\hspace*{4ex}(辿れば$\leftarrow$ガ:[著者]?[不特定-人],ヲ:源流)\subsection{[読者]を付与する基準}依頼表現など読者に働きかけをする表現,読者に対して何かを勧めている表現の場合には[読者]を付与する.何かを勧める表現の場合,対象となる用言だけでなく,周辺の文脈も含めて判断する.例\ref{読者-1}では,読者に対して依頼しているのでガ格に[読者]を付与する.\ex.メールの際は必ず名前を\underline{添えてください}。\label{読者-1}\\\hspace*{4ex}(添えてください$\leftarrow$ガ:[読者])例\ref{読者-2}は通販サイト内の文である.ここで,「選択できます」自体は一般論と言えるが,ページ全体として読者に通販の利用を勧めていると解釈できるので,ガ格に[読者]および[不特定-人]を付与する.\ex.分割払いなど、多彩なお支払い方法から\underline{選択できます}。詳しくはガイドをご参照ください。\label{読者-2}\\\hspace*{4ex}(選択できます$\leftarrow$ガ:[読者]?[不特定-人])例\ref{著者-1}では,読者に勧めていると解釈できるのでガ格に[読者]を付与している.また,一般論とも著者自身の経験とも解釈できるので[著者]および[不特定-人]も付与している.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{著者-1}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:記事)例\ref{読者-3}では著者が読者を勧誘する表現になっているので[読者]を付与する.Webサイトを通してのやりとりであるが,説明の過程で著者も同時に見ていると仮定して「AND」で付与する.\ex.まずは株式市場の分類を\underline{見てみましょう}。\label{読者-3}\\\hspace*{4ex}(見てみましょう$\leftarrow$ガ:[著者]AND[読者]) \section{作成されたコーパス} 現在までに,3人の作業者により1,000文書のタグ付け作業が終了している.本節ではコーパスを作成した手順について説明し,その後作成されたコーパスの統計量およびその性質について議論を行う.作成されたコーパスの統計量およびその性質についての議論では,まず,コーパスの基本的な統計と文体などの性質について議論する.次に,著者・読者の談話への出現とその振る舞いについて議論する.これらの議論において必要に応じて新聞記事コーパスである京都大学テキストコーパスとの比較を行う.最後に作業者間でのタグ付けの一致度について議論する.\subsection{タグ付け作業の手順および環境}タグ付け作業の際にはまず形態素解析器JUMANver.6.0\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN},構文解析器KNPver.3.01\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}のデフォルト設定により自動でタグ付けを行い,その後GUIのツールを利用してタグの付与および自動付与されたタグの修正を行った.各文書に対して一人の作業者が作業した後に別の作業者が内容の確認・修正を行った.タグ付けの際には作業者に与えられた情報は,タグ付け対象となる3文のテキストおよびそのテキストがWeb上から収集されたという情報だけである.作業者は3名であり,全員がコーパスへのタグ付け作業の経験者である.作業開始前に京都大学コーパスのマニュアル\footnote{http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/syn\_guideline.pdfおよびhttp://\linebreak[2]nlp.\linebreak[2]ist.\linebreak[2]i.\linebreak[2]kyoto-u.\linebreak[2]ac.jp/\linebreak[2]nl-resource/\linebreak[2]corpus/\linebreak[2]KyotoCorpus4.0/\linebreak[2]doc/\linebreak[2]rel\_guideline.pdf},著者・読者表現の定義および例を配布した.事前作業として,3人が同一の50文書に対してタグ付けを行い,特に著者・読者表現に対してのタグ付けの疑問点の確認および基準の修正を行った.その後,1,000記事に対してタグ付け作業を行ったところ,\ref{複数付与基準}節で述べた複数解釈可能な表現が問題となることが分かった.そこで,作業者を交えてタグ付け基準について検討し,その結果を付録\ref{付録:複数付与基準}として配布した.新たな基準に基づいて上記1,000記事の修正作業を行った.現在は5,000記事を目標として作業を進行中である.作業中においても,タグ付けの疑問点等については,筆者らと相談のうえで作業を進めている.作成されたコーパスには文書情報として文書を取得したURLを付与する予定である.なお,コーパスにタグ付けされた意味関係はテキストのみに基いており,意味関係コーパスとしてはURL情報は必須的なものではない.\subsection{コーパスの統計量}作成されたコーパス記事の統計を表\ref{コーパスの統計}に示す.比較のため京都大学テキストコーパスの統計も合わせて示した.本コーパスでは1文あたりの形態素数が約17個であり,京都大学テキストコーパスの約26個と比較して1文あたりの形態素数が少ない傾向にある.本コーパスでは意味関係のタグ付け対象である基本句のうち約2/3に対して,何らかの意味関係が付与された.\begin{table}[b]\caption{コーパスの統計}\label{コーパスの統計}\input{ca04table04.txt}\end{table}\begin{table}[b]\caption{モダリティが出現する文の割合}\label{モダリティ}\input{ca04table05.txt}\end{table}文体の差異を調査するために,両コーパスにおいてモダリティ,敬語表現を含む文の割合を表\ref{モダリティ},表\ref{敬語}に示す.なお,モダリティ,敬語表現はKNPにより自動で付与されたものである.また,「全て」はいずれかのモダリティ,敬語表現が含まれた文の割合を示す.表\ref{モダリティ}から本コーパスには依頼,勧誘,命令,意志など著者から読者への働きかけを持つモダリティが多く含まれる.意志のモダリティは京都大学テキストコーパスにも多く含まれているが,これは発言の引用内での使用が多かったためである.逆に,京都大学テキストコーパスでは評価:強や認識-証拠性などが多く含まれている\footnote{評価:強の例としては「関係を無視した暴言と\underline{言わざるを得ない}。」,認識-証拠性の例としては「海部政権誕生の願望が\underline{込められているようだ}。」がある.}.これらのモダリティは報道記事や社説で広く使われる表現であり,本コーパスとの文体の差を示していると言える.表\ref{敬語}から,本コーパスでは80\%近い文で何らかの敬語表現が使用されていることが分かる.尊敬表現,謙譲表現も高い割合で使用されており,本コーパスでは読者の存在を意識した文書が多く含まれると考えられる.\begin{table}[b]\caption{敬語が出現する文の割合}\label{敬語}\input{ca04table06.txt}\end{table}\begin{table}[b]\caption{人手による記事タイプの分類}\label{記事分類}\input{ca04table07.txt}\vspace{-1\Cvs}\end{table}本コーパスではドメインなどを限定せずに文書をWebから収集したため多様な文書が含まれている.タグ付けされた文書の傾向を調べるため,タグ付けされた文書を人手で13種類に分類した.その分類結果が表\ref{記事分類}である.表\ref{記事分類}から企業・店舗ページ,ブログ・個人ページ,辞典・解説記事を中心に多様な文書がタグ付けされたことが分かる.さらに,同じ企業・店舗ページであっても,企業のページだけでなく,学校や公共機関,地方自治体のページなど様々なページから収集された文書が含まれている.また,タグ付けされた文書の中には企業ページ内の広報用blogのような,一意にジャンル分けすることが難しいものも存在した\footnote{今回は企業・店舗ページに分類した.}.\subsection{著者・読者表現}タグ付けされたコーパスにおける著者,読者の文書ごとの出現数を表\ref{ドキュメントごとの一人称・二人称の出現}に示す.「出現あり」のうち「表現あり」は文書中に著者・読者表現としてタグ付けされた表現のある文書の数を表す.「表現なし」は著者・読者表現はないが外界ゼロ照応の照応先として出現している文書の数を表す.著者の場合は約7割,読者の場合は約5割の文書において談話に出現することが分かる.また,著者,読者ともに多くの文書において,外界ゼロ照応の照応先としてのみ出現することが分かる.\begin{table}[b]\caption{文書ごとの著者・読者の出現}\label{ドキュメントごとの一人称・二人称の出現}\begin{center}\input{ca04table08.txt}\end{table}\begin{table}[b]\begin{minipage}{0.45\hsize}\input{ca04table09.txt}\end{minipage}\begin{minipage}{0.45\hsize}\input{ca04table10.txt}\end{minipage}\vspace{-1\Cvs}\end{table}著者・読者表現として使われた語を主辞のJUMAN代表表記により調査した結果,著者表現は145種類,読者表現は25種類の表現が存在した.その例と出現回数を表\ref{著者表現の例}と表\ref{読者表現の例}に示す\footnote{代表表記は「皆様/みなさま」のような形式で表現されるが,表では「皆様」にあたる部分のみを表示している.}.なお,ここでは著者・読者表現と共参照関係にある表現も著者・読者表現として扱った\footnote{例\ref{こま}であれば,「主婦」「こま」「母」を全て著者表現とした.}.著者表現では,「私」が56回と一番多く使われている.これはブログ記事において特に多く使用されていた.「私」や「僕」などのブログで使われると思われる表現では,「わたし」「あたし」,「ぼく」「ボク」などの若干くだけた表記も用いられていた.しかし,「私」の場合「私」が56回中53回,「僕」では「僕」が11回中7回と,多くは漢字での表記が用いられていた.また,「弊社」「当社」など企業が自社を表す表現も多く見られた.「管理人」「主婦」「監督」などの立場を表す表現や「協会」「病院」などの組織を表す表現,「ローソン」「真理子」など固有名など多様な表現で出現することが分かる.またコーパス全体で1度しか出現しなかった表現が106表現,2度しか出現しなかった表現が24表現と,文書固有の著者表現も多かった.読者表現では二人称代名詞の敬語表現である「皆様」や「皆さん」が多く出現した.これはWebページで読者を想定するのは企業ページの商品販売サイトが多いため,読者に対して敬語を用いることが多いためである.これらの表現でも「皆様」であれば「みなさま」「皆さま」,「皆さん」では「みなさん」などの異表記も用いられていた.これらの表現では,上述の一人称代名詞と異なり,「皆様」が26回中17回,「皆さん」が7回中4回であり,比較的様々な表記が用いられていた.また「客」や「会員」など企業ページで想定される読者を指す表現も多く見られた.「生徒」「ドライバー」「市民」など文書特有の読者を想定する表現も見られる.著者,読者両方の表現で用いられるものとしては「自分」が見られた.\subsection{ゼロ照応関係}\begin{table}[b]\caption{本コーパスにおけるゼロ照応の個数}\label{ゼロ照応の個数}\input{ca04table11.txt}\end{table}タグ付けされたゼロ照応の個数を表\ref{ゼロ照応の個数}に示す.また,文章内ゼロ照応の照応先の内訳を表\ref{本コーパスの文章内ゼロ照応の内訳}に外界ゼロ照応の照応先の内訳を表\ref{本コーパスの外界ゼロ照応の内訳}に示す.なお,表\ref{本コーパスの文章内ゼロ照応の内訳}で著者,読者とは,ゼロ代名詞の照応先が著者,読者表現または著者,読者表現と共参照関係であることを表す\footnote{例\ref{こま}であれば,「主婦」「こま」「母」が照応詞になる場合に著者に分類される.}.表\ref{ゼロ照応の個数}から特にガ格においてゼロ照応が多いことが分かる.また,ガ格,ニ格,ガ2格において外界ゼロ照応の割り合いが高いことが分かる.表\ref{本コーパスの文章内ゼロ照応の内訳}と表\ref{本コーパスの外界ゼロ照応の内訳}から他の格に比べてガ格,ガ2格において著者が照応先になる割合が高いことが分かる.このことから用言の動作主が著者であることが多いことが分かる.一方,ニ格は他の格に比べて読者が照応先となることが多い.これは「[著者]ガ[読者]ニお勧めする」や「[著者]ガ[読者]ニ販売しています」といった,著者が読者に何らかの働きかけをする表現が多いためと考えられる.\begin{table}[b]\caption{本コーパスの文章内ゼロ照応の内訳}\label{本コーパスの文章内ゼロ照応の内訳}\input{ca04table12.txt}\end{table}\begin{table}[b]\caption{本コーパスの外界ゼロ照応の内訳}\label{本コーパスの外界ゼロ照応の内訳}\input{ca04table13.txt}\end{table}\begin{table}[b]\caption{京都大学テキストコーパスにおけるゼロ照応の個数}\label{KTCのゼロ照応の個数}\input{ca04table14.txt}\end{table}比較のために京都大学テキストコーパスにおけるゼロ照応の個数を表\ref{KTCのゼロ照応の個数}に,外界ゼロ照応の内訳を表\ref{KTCの外界ゼロ照応の内訳}に示す.京都大学テキストコーパスには著者・読者表現が付与されていないので,文章内照応の内訳は調査できなかった.この比較から,本コーパスでは外界ゼロ照応の割合が京都大学テキストコーパスに比べて非常に高いことが分かる.特にガ格,ニ格,ガ2格においてその傾向が顕著である.これらの格では外界ゼロ照応の照応先を比較すると,本コーパスにおいて[著者]や[読者]が多いが,京都大学テキストコーパスではほとんどない.新聞記事では文書の著者や読者が談話に登場することはほとんどないが,Web文書では頻繁に登場する.この違いがゼロ照応の照応先としても表れているといえる.\begin{table}[t]\caption{京都大学テキストコーパスにおける外界ゼロ照応の内訳}\label{KTCの外界ゼロ照応の内訳}\input{ca04table15.txt}\end{table}\begin{table}[t]\caption{複数付与のタグが付与された関係数}\label{複数付与数}\input{ca04table16.txt}\end{table}\ref{複数付与基準}節で示した複数の解釈が可能な表現に対するタグ付けを調査するために,[著者],[読者],[不特定-人]のいずれかが付与された項とそのうち複数が付与された項の数を表\ref{複数付与数}に示す.表\ref{複数付与数}より,[著者],[読者],[不特定-人]のいずれかが付与された項のうち約13\%が複数の解釈が可能であることが分かる.また,[不特定-人]が付与されたもののうち約半数において複数の解釈が可能となっている.\subsection{作業者間一致度}著者・読者表現および述語項構造のタグ付けの一致度を調査するために,3人の作業者が100記事に対してタグ付けを行った.これらのタグ付けに必要な形態素,構文関係および共参照関係については3人の作業者の相互確認のうえであらかじめタグ付けを行い,その後独立に著者・読者表現および述語項構造のタグ付けを行った.著者・読者表現の一致度は文書単位で一方の作業者を正解とした場合のF1スコアにより求めた.その結果を表\ref{著者・読者表現一致度}に示す.著者・読者表現が一致しなかったものを確認したところ,ほとんどの事例では作業者による作業ミスと考えられるものであった.実際の作業では全ての文書に対して異なる作業者による確認作業を行っているので,このようなものは取り除かれると考えられる.\begin{table}[t]\caption{著者・読者表現一致度}\label{著者・読者表現一致度}\input{ca04table17.txt}\end{table}一方,作業者の判断のゆれが原因と考えられるものとしては例\ref{スタッフサービス}があった.この文書では一人の作業者のみが「スタッフサービス」が著者表現と判断し,他の二人は著者表現なしと判断した.「スタッフサービス」が著者表現とした作業者は,「スタッフサービス」が人材派遣サービスの企業名だと判断し,著者表現なしと判断した作業者は派遣業一般の言い換えと判断したと考えられる.このような一般的な名詞とも著者表現ともとれる表現は3文の文脈のみからは判断が難しいことが分かる.\ex.\underline{スタッフサービス}には一般事務だけではなく、医療機関専門に派遣されるスタッフサービスメディカルもあります。\label{スタッフサービス}また,タグ付け作業時に基準を設定しなかったことによるずれとしては例\ref{猫}があった.この文書では「私」がモニターの上で過ごすと書かれていることから,猫などを擬人的に扱ったブログであると考えられる.実際の著者は飼い主であると考えられ,このような場合に著者表現をどのように扱うかを定義していなかったために,作業者間で「私」を著者として扱うかの判断が分かれた.\ex.\label{猫}台風が通り過ぎるたびに寒くなっていきますね。\underline{私}は暖かい場所を求めて会社の中を彷徨います。今日はこのモニターの上で過ごすことにしましょう。同様に,一人称視点の小説などで主人公を表す表現でも同様の問題が起こると考えられ,今後は実際の著者以外の人物が著者的に振る舞う場合の著者表現について定義する必要がある.述語項構造の一致度は格ごとに以下の式で計算した.{\allowdisplaybreaks\begin{align*}F1(B;A,\mathit{rel})&=\frac{2\times\mathit{Recall}(B;A,rel)\times\mathit{Presicion}(B;,rel)}{\mathit{Recall}(B;A,rel)+\mathit{Presicion}(B;A,rel)}\\[1ex]\mathit{Recall}(B;A,\mathit{rel})&=\frac{\displaystyle\sum^{}_{\mathit{pred}\in\textit{anno-pred}(A,rel)}\frac{|\mathit{anno}(A,\mathit{rel},\mathit{pred})\bigcap\mathit{anno}(B,\mathit{rel},\mathit{pred})|}{|\mathit{anno}(A,\mathit{rel},\mathit{pred})|}}{|\textit{anno-pred}(A,\mathit{rel})|}\\[1ex]\mathit{Precision}(B;A,\mathit{rel})&=\frac{\displaystyle\sum^{}_{\mathit{pred}\in\textit{anno-pred}(B,\mathit{rel})}\frac{|\mathit{anno}(A,\mathit{rel},\mathit{pred})\bigcap\mathit{anno}(B,\mathit{rel},\mathit{pred})|}{|\mathit{anno}(B,\mathit{rel},\mathit{pred})|}}{|\textit{anno-pred}(B,\mathit{rel})|}\end{align*}}ここで,$\textit{anno-pred}(A,\mathit{rel})$は作業者Aが\textit{rel}(e.g.,ガ,ヲ,ニ…)という格を付与した基本句の集合を表し,$\mathit{anno}(A,\mathit{rel},\mathit{pred})$は作業者Aが基本句\textit{pred}に\textit{rel}の格で付与した項の集合とする.$\mathit{anno}(A,\mathit{rel},\mathit{pred})$が複数の項からなる集合の場合,本来「AND」「OR」「?」の関係を持つが,一致度の調査では考慮しなかった.なお,$\mathit{Recall}(B;A,\mathit{rel})$,$\mathit{Precision}(B;A,\mathit{rel})$は精度と再現率の用言ごとのマクロ平均と言える.\begin{table}[b]\caption{用言の述語項構造の一致度}\label{用言一致度}\input{ca04table18.txt}\end{table}\begin{table}[b]\caption{動作性体言の述語項構造の一致度}\label{体言一致度}\input{ca04table19.txt}\end{table}表\ref{用言一致度}と表\ref{体言一致度}に用言と動作性を持つ体言に対するタグ付けの一致度の平均を示す.全体として係り受け関係にある項で一致度が高い傾向にある.特に用言のガ格,ヲ格,ニ格で高い傾向にあるが,これらの格の場合には助詞として格が明示されていることが多いためである.文章内ゼロ照応と外界ゼロ照応の項では格によって差はあるがおおむね似たような一致度であり,その一致度は係り受けのある項よりも低い.また用言の一致度に比べ動作性体言の一致度が低い傾向にあることが分かる.用言において作業者間のタグ付けが一致しないものでは,用言が取る格が一致していないものが多くあった.このようなものは大きく分けて3種類に分類することができる.一つ目は項は同じものを付与しているが,付与する格が異なるものである.例\ref{春雨}では「春雨がくせがない」「くせが春雨にない」と2通りの表現が可能なため,作業者によってタグ付けが分かれた.\ex.くせの\underline{ない}春雨は、サラダ・和えもの・炒めもの・鍋物と様々な料理に使えます。\label{春雨}\a.(ない$\leftarrow$ガ:くせ,ニ:春雨)\label{春雨a}\b.(ない$\leftarrow$ガ2:春雨,ガ:くせ)このようなずれはガ2格で多く見られたが,例\ref{降る}のようなニ格とデ格のずれなどでも見られた.\ex.唐松岳に行くつもりだったが、ライブカメラで現地の様子を確認すると、もう雨が\underline{降っている}。\label{降る}\a.(降っている$\leftarrow$ガ:雨,ニ:唐松岳)\label{降るa}\b.(降っている$\leftarrow$ガ:雨,デ:唐松岳)このようなずれがあった場合,例\ref{春雨}のようなガ2格に関するずれの場合には,ガ2格以外を優先することとし,例\ref{春雨}では\ref{春雨a}とタグ付けした.それ以外の場合には,どちらも間違いとは言えない場合には,どちらがより自然な表現かを作業者間で多数決を行うこととし,例\ref{降る}では\ref{降るa}をタグ付けした.二つ目は用言の解釈が分かれたものである.例\ref{イメージ}の「イメージさせる」では,他動詞として考えるとニ格として[不特定-人]をとる.しかし,ニ格をとらずに「色合いが海をイメージさせる」として,「色合い」の性質を表す表現としても解釈できる.そのため,作業者間ではニ格に[不特定-人]を付与するか何も付与しないかで判断が分かれた.\ex.床板には深い海を\underline{イメージさせる}色合いのガラスを落とし込んでおります。\label{イメージ}\a.(イメージさせる$\leftarrow$ガ:色合い,ヲ:海,ニ:[不特定-人])\label{イメージa}\b.(イメージさせる$\leftarrow$ガ:色合い,ヲ:海)同様に例\ref{得られた}でも「得られた」を可能と解釈するか,受け身と解釈するかでタグ付けが分かれた.\ex.ここに今までに\underline{得られた}資料の一部を公表し、広く皆さまからの資料提供を願っております。\label{得られた}\a.(得られた$\leftarrow$ガ:[著者],ヲ:資料)\label{得られたa}\b.(得られた$\leftarrow$ガ:資料)このような場合には項を取る格が多くなる方を選択することとした.これはタグ付けされる項が多い方が述語項構造の持つ情報量が多くなるためである.例\ref{イメージ}では\ref{イメージa}を,例\ref{得られた}では\ref{得られたa}をタグ付けした.三つ目は必須的な格への[不特定-人],[不特定-物]などの付与漏れである.これらは文章中に出現しない項であり,意識的に用言の格構造を考えなければ必須的な格であっても見落しやすいと考えられる.例\ref{載せたい}の「載せたい」ではニ格は必須的な格であり[不特定-物]\footnote{「載せる」対象はこのサイトであるが,文章中に表現が存在しないので[不特定-物]とする.}を付与する必要がある.タグ付けでは一人の作業者のみがニ格に何も付与しておらずこの作業者の見落しといえる.\ex.私の作詞の作品や身近の出来事や政治経済の事を\underline{載せたい}と思います。\label{載せたい}\\\hspace*{4ex}(載せたい$\leftarrow$ガ:私,ヲ:作品AND出来事AND事,ニ:[不特定-物])このような誤りについては,作業の際に複数の作業者による確認を行うことで訂正することが可能であると考えられる.本研究で定義した複数の解釈が可能な表現に対するタグ付けが一致していないものはほとんど見られなかった.一致していなかったもののうち,文脈からは判断が難しいために作業者間の解釈が分かれたものとして例\ref{サイコ}がある.例\ref{サイコ}の「判断する」では,著者が「サイコロジカルライン」を読者に勧めている,と解釈すると\ref{サイコa}のようにタグ付けすることとなる.一方,単なる「サイコロジカルライン」の説明と解釈する場合でも,「投資家」や投資についての研究者([不特定-人])が利用する手法だと解釈すれば\ref{サイコb}のようにタグ付けし,研究者のみが利用する手法だと解釈すれば\ref{サイコc}のようにタグ付けすることとなる.どの解釈が正しいかは今回タグ付け対象とした3文だけからは困難である.そこで今回はそのような場合には解釈可能なタグを全て付けることとし,\ref{サイコd}のようにタグ付けを行った.一方,文書全体にタグ付けする際などには後続文の内容から解釈が一意に定まると考えられるので,格要素が明示されていない表現へのタグ付けの基準自体には問題はないといえる.\ex.サイコロジカルとは、日本語に訳すと『心理的』という意味です。\\\label{サイコ}サイコロジカルラインは、投資家心理に基づいて、買われすぎか売られすぎかを\underline{判断する}時に利用します。\\直近12日間で、終値が前日の株価を上回った確率を示すのが一般的です。\a.(判断する$\leftarrow$[著者]?[読者]?[不特定-人])\label{サイコa}\b.(判断する$\leftarrow$[不特定-人]?投資家)\label{サイコb}\b.(判断する$\leftarrow$[不特定-人])\label{サイコc}\b.(判断する$\leftarrow$[著者]?[読者]?[不特定-人]?投資家)\label{サイコd}\z.動作性体言に対するタグ付けの一致度は用言に対するタグ付けに比べて低くなっている.これは体言は動作性を持つ場合にのみ用言としての述語項構造のタグ付けを行うが,作業者によって体言が動作性を持つかの基準が異なっていたことである.例えば例\ref{トンカツ}では一人の作業者のみが動作性を持つとして\ref{トンカツa}のように述語項構造を付与したが,他の作業者は体言として\ref{トンカツb}のようにタグを付与した.この場合にも,項を取る格が多くなる方を選択することとし\ref{トンカツa}をタグ付けした.\ex.我々日本人は、生のキャベツの千切りをトンカツの\underline{付け合わせ}にしている。\label{トンカツ}\a.(付け合わせ$\leftarrow$ガ:日本人,ヲ:千切り,ニ:トンカツ)\label{トンカツa}\b.(付け合わせ$\leftarrow$ノ:トンカツ)\label{トンカツb} \section{関連研究} 日本語の述語項構造および照応関係タグ付きコーパスとしては,京都大学テキストコーパス\cite{KTC}とNAISTテキストコーパス\cite{NTC}があり,述語項構造解析や照応解析の研究に利用されている\cite{笹野2008b,imamura-saito-izumi:2009:Short,iida-poesio:2011:ACL-HLT2011}.これらのコーパスは1995年の毎日新聞に述語項構造および照応関係を付与したコーパスである.新聞記事は内容が報道と社説に限られており,文体も統一されているため,新聞記事以外の意味関係解析への適応には不向きである.様々なジャンルからなる日本語コーパスとしては現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}がある.このコーパスは書籍,雑誌などの出版物やインターネット上のテキストなどからなるコーパスである.このコーパスでは,書籍などについては幅広いジャンルのテキストから構築されているが,インターネット上のテキストは掲示板やブログなどに限定されている.このためインターネット上に多数存在する企業ページや通販ページなどはコーパスには含まれない.また,BCCWJに意味関係を付与する研究も行われている.一つ目は\cite{JapaneseFrameNet}によるBCCWJに日本語FrameNetで定義された意味フレーム情報,意味役割,述語項構造を記述する試みである.この研究ではBCCWJのコアデータに含まれる用言と事態性名詞に対して項構造の記述を行っている.しかしFrameNetではゼロ代名詞の有無は述語項構造に含まれるものの,先行詞が同一文内にない場合にはその照応先の情報を付与していない.また,照応関係の情報も付与されておらず,文をまたぐ意味関係の情報は付与されていない.二つ目は\cite{小町2012bccwj}による,述語項構造と照応関係のアノテーションである.この研究では,NAISTテキストコーパスと同様の基準で述語項構造と照応関係をタグ付けしている.述語項構造についてはNAISTテキストコーパスと同様にガ格,ヲ格,ニ格など限られた格にしか付与されていない.しかし,NAISTテキストコーパスでは付与されている橋渡し照応などの関係は付与されていない.日本語以外で複数のジャンルに渡って意味関係を扱ったコーパスとしては,OntoNote\cite{hovy-EtAl:2006:HLT-NAACL06-Short}やZ-corpus\cite{Z-corpus},LMC(LiveMemoriesCorpus)\cite{LMC}などがある.OntoNoteは英語,中国語,アラビア語の新聞記事,放送原稿,Webページなどからなるコーパスで,コーパスに含まれる一部のテキストは複数言語による対訳コーパスとなっている.構文木,述語項構造,語義,オントロジー,共参照,固有表現などが付与されている.Z-corpusはスペイン語の法律書,教科書,百科事典記事に対しゼロ照応の情報を付与したコーパスである.ゼロ照応のみを扱っており,前方照応や述語項構造の情報は付与されていない.スペイン語ではゼロ照応は主語のみに発生するため,述語項構造の情報とは独立にゼロ照応の情報を記述できるためである.LMCはイタリア語のWikipediaとblogに照応関係のタグ付けをしたコーパスである.照応関係としてゼロ照応も扱っているが,述語項構造は扱っていない.イタリア語もゼロ照応は主語のみに発生するので,このコーパスではゼロ照応の起こった用言を照応詞としてタグ付けしている. \section{まとめ} 本研究ではWebを利用することで多様な文書からなる意味関係タグ付きコーパスを構築した.本研究では意味関係のタグとして,述語項構造と照応関係の付与を行った.また,文書の著者・読者に着目し,その表現に対してタグ付けを行った.タグ付けを先頭3文に限定することで1文書あたりの作業量を減らし,1,000文書へのタグ付けを行った.タグ付けされた文書を人手で確認した結果,ブログ記事,企業ページなど多様な文書が含まれていた.構築されたコーパスを分析した結果,多くの文書において談話に著者・読者が出現し,多様な著者・読者表現で記述されること,また特にゼロ照応において重要な役割を持つことを確かめた.コーパス作成は5,000文書を目標として現在も作業中である.完成後は研究利用を前提としての公開を予定している.\acknowledgment本コーパスのタグ付け作業に協力していただいた,石川真奈見氏,二階堂奈月氏,堀内マリ香氏に心から感謝致します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Hovy,Marcus,Palmer,Ramshaw,\BBA\Weischedel}{Hovyet~al.}{2006}]{hovy-EtAl:2006:HLT-NAACL06-Short}Hovy,E.,Marcus,M.,Palmer,M.,Ramshaw,L.,\BBA\Weischedel,R.\BBOP2006\BBCP.\newblock\BBOQOntoNotes:The90\%Solution.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,CompanionVolume:ShortPapers},\mbox{\BPGS\57--60},NewYorkCity,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{NTC}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{iida-poesio:2011:ACL-HLT2011}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQACross-LingualILPSolutiontoZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\804--813},Portland,Oregon,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura-saito-izumi:2009:Short}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},\mbox{\BPGS\85--88},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{KTC}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock「関係」タグ付きコーパスの作成.\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara2006}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\67--73}.\bibitem[\protect\BCAY{小町\JBA飯田}{小町\JBA飯田}{2011}]{小町2012bccwj}小町守\JBA飯田龍\BBOP2011\BBCP.\newblockBCCWJに対する述語項構造と照応関係のアノテーション.\\newblock\Jem{日本語コーパス平成22年度公開ワークショップ},\mbox{\BPGS\325--330}.\bibitem[\protect\BCAY{小原}{小原}{2011}]{JapaneseFrameNet}小原京子\BBOP2011\BBCP.\newblock日本語フレームネットの全文テキストアノテーション:BCCWJへの意味フレーム付与の試み.\\newblock\Jem{言語処理学会第17回年次大会},\mbox{\BPGS\703--704}.\bibitem[\protect\BCAY{Rello\BBA\Ilisei}{Rello\BBA\Ilisei}{2009}]{Z-corpus}Rello,L.\BBACOMMA\\BBA\Ilisei,I.\BBOP2009\BBCP.\newblock\BBOQAComparativeStudyofSpanishZeroPronounDistribution.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalSymposiumonDataandSenseMining,MachineTranslationandControlledLanguages(ISMTCL)},\mbox{\BPGS\209--214}.\bibitem[\protect\BCAY{Rodr\'iguez,Delogu,Versley,Stemle,\BBA\Poesio}{Rodr\'iguezet~al.}{2010}]{LMC}Rodr\'iguez,K.~J.,Delogu,F.,Versley,Y.,Stemle,E.~W.,\BBA\Poesio,M.\BBOP2010\BBCP.\newblock\BBOQAnaphoricAnnotationofWikipediaandBlogsintheLiveMemoriesCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheSeventhConferenceonInternationalLanguageResourcesandEvaluation(LREC'10)},\mbox{\BPGS\157--163},Valletta,Malta.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2008}]{笹野2008b}笹野遼平\JBA黒橋禎夫\BBOP2008\BBCP.\newblock自動獲得した名詞関係辞書に基づく共参照解析の高度化.\\newblock\Jem{自然言語処理},{\Bbf15}(5),\mbox{\BPGS\99--118}.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2011}]{sasano-kurohashi:2011:IJCNLP-2011}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2011\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseZeroAnaphoraResolutionwithLarge-scaleLexicalizedCaseFrames.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\758--766},ChiangMai,Thailand.AsianFederationofNaturalLanguageProcessing.\end{thebibliography}\appendix \section{複数解釈可能な表現の例とタグ付け基準} label{付録:複数付与基準}\ref{複数付与基準}節で示した複数解釈可能な表現のタグ付けにおいて,典型的表現として作業者に例示したものを示す.なお\ref{複数付与基準}節と同様に[著者],[読者]は著者表現,読者表現に対しても同様に考えることとする.以降の例で文頭に括弧内で書かれている内容は,例文の書かれている文脈についての情報である.\subsection*{著者の考えや経験を述べた表現}著者の経験や考えを述べた表現において[著者]だけでなく[不特定-人]を付与するかどうかは以下のように判断する.\paragraph{[著者]のみを付与する場合:}著者のみが当てはまり,他の人にはあてはまらないと考えられる場合には動作主にあたる格に[著者]のみを付与する.具体的には,ブログにおける著者の自身の出来事や感想,謙譲表現の主体などがあたる.\ex.今回始めて\underline{訪店しましたが}、素敵なお店だと\underline{思いました}。\label{著者のみ1}\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}訪店しましたが$\leftarrow$ガ:[著者]\\思いました$\leftarrow$ガ:[著者]\\\end{tabular}\right)$\paragraph{[著者]および[不特定-人]を付与する場合:}以下のような場合には動作主にあたる格に「[著者]?[不特定-人]」を付与する.\begin{description}\item[・一般論だが著者にもあてはまる]例\ref{?著者+不特定-1}では,「整備しておかなければならない」のは一般論だが,この文書では著者は鉄道会社と考えられ,著者自身にもあてはまると解釈できる.\ex.線路は列車の安全を確保し、快適な乗り心地を維持する状態に\underline{整備しておかなければなりません}。\label{?著者+不特定-1}\\\hspace*{4ex}(整備しておかねばなりません$\leftarrow$ガ:[著者]?[不特定-人])\item[・著者自身が経験したことで,一般にもあてはまる]例\ref{?著者+不特定-2}では,著者自身が鹿を見た経験を持つと考えられるが,「できます」という表現により一般の人にもあてはまると解釈できる.\ex.(ブログ内にて)蓼科ではいたるとことで鹿を\underline{見ることができます}。\label{?著者+不特定-2}\\\hspace*{4ex}(見ることができます$\leftarrow$ガ:[著者]?[不特定-人])\item[・著者自身が実行したか分からない]例\ref{?著者+不特定-3}では,文脈だけからは乳牛を育てている著者が飼料を栽培しているのか,飼料販売会社が栽培しているのかが分からない.\ex.乳牛のエサは有機肥料を用いて\underline{栽培した}飼料を使用しています。\label{?著者+不特定-3}\\\hspace*{4ex}(栽培した$\leftarrow$ガ:[著者]?[不特定-人])\end{description}\subsection*{読むこと自体が行為の受け手となる表現}「紹介します」「お教えします」などの表現は,読むこと自体がその行為の受け手となるため特別に扱う必要がある.\paragraph{[読者]のみを付与する場合:}「紹介します」「お教えします」の具体的な内容が直後に書かれている場合には受け手にあたる格に[読者]のみを付与する.この場合には,その文章を読んだ人(読者)のみが受け手となるからである.\ex.今まで中々結婚にたどりつけなかった理由を\underline{お教えしましょう}。\label{?サービス-4}\\\hspace*{4ex}(お教えしましょう$\leftarrow$ガ:[著者],ニ:[読者])\\幸せな結婚の為にはまず、あなた自身の内面と向き合う必要があります。\paragraph{[読者]および[不特定-人]を付与する場合:}「紹介します」「お教えします」などがWebサイト全体のことを指している場合には,受け手にあたる格要素に「[読者]?[不特定-人]」を付与する.これは,Webサイトにおける「当サイトの紹介」ページなどでは,そのページを読んだだけではそのサイト全体を読んでいるとは限らないためである.\ex.このページでは、免許取得のための講座を\underline{ご紹介していきます}。\label{?サービス-1}\\\hspace*{4ex}(ご紹介していきます$\leftarrow$ガ:[著者],ニ:[読者]?[不特定-人])\ex.見ごたえのある作品を当サイトにて\underline{ご紹介させて頂いております}。\label{?サービス-2}\\\hspace*{4ex}(ご紹介させて頂いております$\leftarrow$ガ:[著者],ニ:[読者]?[不特定-人])\subsection*{勧誘的表現}\paragraph{[著者]および[読者]を付与する場合:}勧誘した行為を著者も行うと解釈できる場合には[著者]および[読者]を付与する.この場合には著者と読者が同時に行うと考えられるので「AND」の関係とする.例\ref{勧誘-1}のような場合には,著者が読者に株式市場の分類を見るように促し,また説明のため著者も見ていると考えられる.Webサイトを通してのやりとりであり実際に同時に見るわけではないが,説明の過程で同時に見ていると仮定して「AND」で付与する.\ex.まずは株式市場の分類を\underline{見てみましょう}。\label{勧誘-1}\\\hspace*{4ex}(見てみましょう$\leftarrow$ガ:[著者]AND[読者])\paragraph{[読者]のみを付与する場合:}勧誘した行為を著者が行わないと解釈できる場合には[読者]のみを付与する.例\ref{勧誘-2}や例\ref{勧誘-3}では,著者は読者に勧めているが,著者自身は実行しないと考えられるので[読者]のみを付与する.\ex.(旅行会社のサイト内で)様々な無人島が沖縄にはありますので、いろいろ\underline{チャレンジしてみましょう}。\label{勧誘-2}\\\hspace*{4ex}(チャレンジしてみましょう$\leftarrow$ガ:[読者])\ex.リフレックスで不動産を\underline{売却してみませんか}。\label{勧誘-3}\\\hspace*{4ex}(売却してみませんか$\leftarrow$ガ:[読者])\subsection*{使役的表現}使役表現や依頼表現では[読者]のみを付与する.\ex.直接\underline{予約してください}。\label{使役-1}\\\hspace*{4ex}(予約してください$\leftarrow$ガ:[読者])\ex.メールの際は必ず名前を\underline{添えてください}。\label{使役-2}\\\hspace*{4ex}(添えてください$\leftarrow$ガ:[読者])\subsection*{会員制のサービス,メールマガジン等の紹介}\paragraph{[読者]および[不特定-人]を付与する場合:}読者を会員などと仮定している場合には,そのサービスは会員である[読者]および読者以外の会員([不特定-人])が利用できるので「[読者]?[不特定:人]」を付与する.\ex.(会員制の通販のページで)分割払いなど、多彩なお支払い方法から\underline{選択できます}。詳しくはガイドをご参照ください。\label{サービス-1}\\\hspace*{4ex}(選択できます$\leftarrow$ガ:[読者]?[不特定-人])\paragraph{[不特定-人]のみを付与する場合:}読者をまだサービスに加入していない人と仮定し,そのサービスを紹介している場合には,この段階では読者はサービスを受けていないので[不特定-人]のみを付与する.\ex.メールマガジンではお得な情報を\underline{お送りしています}。是非ご登録ください。\label{サービス-2}\\\hspace*{4ex}(お送りしています$\leftarrow$ニ:[不特定-人])\subsection*{著者が読者に勧めている表現}一般的な事項であるが,著者が読者に勧めているような表現の場合には[読者]および[不特定-人]を付与する.また,そこに[著者]を加えるかは以下のように判断する.\paragraph{[著者],[読者]および[不特定-人]を付与する場合:}著者自身も実行した経験から勧めていると考えられる場合には,「[著者]?[読者]?[不特定-人]」を動作主にあたる格に付与する.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{勧める-1}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:ブログ)\paragraph{[読者]および[不特定-人]を付与する場合:}著者が自社製品を紹介している場合など,著者自身は実行していないと考えられる場合には,「[読者]?[不特定-人]」を動作主にあたる格に付与する.\ex.吊るし紐付きですので、部屋に吊るして\underline{飾る}事もできます。\label{勧める-2}\\\hspace*{4ex}(飾る$\leftarrow$ガ:[読者]?[不特定-人])\begin{biography}\bioauthor{萩行正嗣}{2008年京都大学工学部電気電子工学科卒業.2010年同大学大学院情報学研究科修士課程修了.現在,同大学院博士後期課程在学中.日本語ゼロ照応解析の研究に従事.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞等を受賞.}\end{biography}\biodate\end{document}
V28N04-04
\section{はじめに} \label{sec:introduction}近年,SNS等で一般ユーザーが作成したテキスト(UGC;UserGeneratedContents)が自然言語処理の重要な研究対象となっている.UGCには,書籍などの文章にはあまり見られない表現\cite{brody-diakopoulos-2011-cooooooooooooooollllllllllllll,saito-etal-2017-improving,blodgett-etal-2016-demographic,sasano-etal-2013-simple}が含まれ,誤字などの入力誤りも頻繁に発生している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-4ia3f1.pdf}\end{center}\hangcaption{入力誤りによる日英機械翻訳での翻訳失敗例.上の画像は正しい文,下の画像は入力誤りのある文を入力した場合を示す.}\label{fig:misanalysis}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%入力誤りは,人がスムーズにテキストを読むことを妨げるだけではなく,計算機が正しく解析することを妨げる\cite{belinkov2018synthetic}.図\ref{fig:misanalysis}は,日本語から英語への機械翻訳における例である.上の画像に示すように,正しい文を入力すると正しい翻訳結果が得られるのに対し,下の画像に示すように,赤線で示す入力誤りを含む文を入力した場合,翻訳に失敗する.入力誤りを訂正するシステムがあれば,それを事前に適用することで,解析誤りを減らし,種々の解析精度向上が見込める.そのため,入力誤り訂正システムは自然言語処理において重要である.入力誤りは典型的にはキーボードの打ち間違いによるスペルミスだが,編集ミスによって発生する文法誤りも含まれる.そのどちらの訂正においてもニューラルモデルは成功を収めており\cite{sakaguchi2017robsut,yuan-briscoe-2016-grammatical},入力誤り訂正システムの構築に有望であると考えられる.ニューラルモデルは多量の学習データを必要とすることが知られており\cite{koehn-knowles-2017-six},ニューラル入力誤り訂正システムの実現には多量の入力誤りとその訂正ペアを用意することが重要である.これまでフランス語\cite{max2010mining},英語\cite{zesch2012measuring}のスペルミス訂正データセットは,Wikipediaの編集履歴から構築されてきた.Wikipediaは,多くの人々が日々編集を行い,その編集履歴全てを公開しており,大規模なデータセット構築に適しているためである.ただし,Wikipediaの編集履歴には,編集の分類の情報は必ずしも付与されていない.そのため,先行研究では,スペルミス訂正のみを取り出すために,編集があった単語を特定し,スペルチェッカーを適用する等のフィルタリングを行って収集している.このような先行研究の手法は,編集があった単語の特定が容易な,空白文字で単語が区切られているフランス語などの言語を前提としており,単語分割を必要とする日本語には直接適用できない.また,フランス語や英語とは異なり,日本語では一般にインプットメソッドを用いてテキスト入力を行い,漢字の入力には,かな漢字変換\cite{kasahara-etal-2011-error,yamamoto1997}を行う.かな漢字変換では,目的の漢字の読みを入力し,提示されたその読みを持つ漢字のリストから目的の漢字を選択することで入力する.この際に誤った漢字を選択した場合にも,入力誤りは発生する.このような,かな漢字変換時の入力誤り(以後,誤変換と呼ぶ)は,先行研究の手法では対象とされていない.本研究では,日本語の入力誤りとその訂正ペアをWikipediaの編集履歴から収集し,大規模なデータセット(JWTD;JapaneseWikipediaTypoDataset)を構築することに取り組む.本研究では,日本語書き言葉の文として編集前が不自然で編集後が自然となるような局所的な編集を,入力誤り訂正とみなす.より具体的には,スペルミス訂正,文法誤り訂正,誤変換の訂正を入力誤り訂正として収集対象とする.なお,Wikipediaでは,い抜き・ら抜きことば\footnote{\url{https://www.nhk.or.jp/kokokoza/tv/basickokugo/archive/basic_kokugo_20.pdf}}は頻繁に訂正されるが,これらも文法誤り訂正の一種とみなして収集対象とする.Wikipediaの編集履歴には,入力誤り訂正のみでなく,内容の変更などの収集対象外の編集も数多く含むため,入力誤り訂正だけを取り出すことは容易ではない.本研究では,文字単位の編集及び漢字の読みを手がかりとして入力誤り候補を取り出し,それらに対し言語モデルなどを用いてフィルタリングすることで,入力誤りを収集する.この手法を用いて,約70万文規模のJWTDを構築した.また,JWTDの構築手法を評価し,本手法の有効性を確認した.続いて,本研究では,JWTDを用いて,入力誤り訂正システムを構築する.ベースラインとなるシステムを,文法誤り訂正において高い精度を得たと報告されているニューラルモデル\cite{katsumata-komachi-2020-stronger}を用いて構築する.ベースラインの他に,漢字の読みの推定を同時に学習するシステム,疑似データを学習に用いるシステムも構築し,比較を行う.前者は,誤変換の訂正に役立つと考えられるため,後者は文法誤り訂正において有効であると報告されている\cite{kiyono-etal-2019-empirical}ためである.JWTDを用いて学習した本研究の入力誤り訂正システム(ベースライン)と他の校正システムとで入力誤り認識において精度の比較を行い,本研究の訂正システムの精度が高いことを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related_work}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{入力誤り}入力誤りは大きく分けて人間に由来するものと,機械による自動認識に由来するものに分類できる.前者はキーボードの打ち間違いによって発生するスペルミスや,非母語話者や編集ミスによって発生する文法誤り,後者は光学文字認識(OCR)や音声認識(ASR)における認識誤りなどがあり,それぞれ訂正システムの研究がなされてきた\cite{sakaguchi2017robsut,yuan-briscoe-2016-grammatical,weko_12620_1,ERRATTAHI201832}.本研究では,多くの場合文章入力時にはキーボードが用いられると想定し,スペルミスと文法誤りを対象として扱う.また,特に母語話者の書いたテキストにおける入力誤りを対象として扱う.そのため,文法誤りに関して本研究では,非母語話者によって発生する大きな訂正が必要な誤りではなく,母語話者の編集ミスによって発生するような些細な誤りを想定する.Damerauはスペルミスを,deletion,insertion,substitution,transpositionの4カテゴリに分類している\cite{damerau1964technique}.本研究では,誤変換も日本語においては代表的な入力誤りであると考え,Damerauの分類に対応するカテゴリ(脱字,衍字,誤字,転字)に誤変換を加えた5カテゴリの分類を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Wikipediaを利用した入力誤りデータセット}Maxら\cite{max2010mining}はWikipediaの編集履歴からフランス語スペルミスデータセットを構築している.彼らの手法は編集前と編集後の差分をとり,変化のあった単語対を取り出すというものである.この方法は,編集のあった単語対が容易に特定できることを前提としている.フランス語などの単語区切りが空白文字でなされている言語においては,編集された単語の特定は容易である.しかし,単語分割の必要がある日本語などの言語では,スペルミスが単語分割に悪影響を及ぼすことで,結果として複数の単語の編集となる場合がある.その場合,彼らの手法を日本語に直接適用するだけでは,単語分割に悪影響を及ぼす入力誤りを収集することはできない.本研究では,このような入力誤りも収集できるように,単語単位ではなく文字単位の編集に着目した手法を用いる.金山ら\cite{kanayama2011wiki}は日本語Wikipediaの編集履歴から編集パターンの抽出を行っている.彼らは編集を,形式修正・表記修正・内容修正の3種類に分類し,その分類器を作成している.このうち表記修正は,本研究で扱う入力誤り訂正に近いと考えられるが,両者は異なる.「コンピュータ」と「コンピューター」などのカタカナ語表記を統一する編集を,彼らは表記修正として扱うが,これは編集前も編集後も日本語書き言葉の文として自然であるため,本研究では入力誤り訂正として扱わない.そのため,彼らの分類器を入力誤り訂正の抽出に直接利用するのは難しい.また,彼らのデータは公開されていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{公開されている日本語入力誤りデータセット}公開されている日本語入力誤りデータセットに,GitHubTypoCorpus\cite{hagiwara2020github}がある.これはGitHub\footnote{\url{https://GitHub.com}}のcommitログから構築した多言語入力誤りデータセットである.Hagiwaraらはcommitログ中の編集を,mechanical,spell,grammatical,semanticの4種類に分類し,このうちsemanticを除く3種類の編集を入力誤りとして,分類器を学習し,それを用いることで,入力誤りデータを取り出している.日本語データのサイズは1,500文ほどである.その中には英単語のスペルミスも含まれているため,日本語の入力誤りに限定すると数はさらに少なく,ニューラルモデルの学習には十分なサイズではない.そのため,本研究ではテストセットの1つとして利用することにした.公開されている日本語スペルミスデータに,Babaらのものがある\cite{baba2012spelling}.Babaらはクラウドソーシングでワーカーにテキストを書かせ,バックスペースを含むキーストロークの情報から英語と日本語のスペルミスデータを得て,スペルミスの頻度を調査している.日本語データが公開されているが,単語単位で収集されている英語データと違い,単位が明確ではなく,1単語から複数の節まで幅があり,利用しづらい.加えて,データはキーストローク情報であるアルファベット列であり,本研究の誤変換に相当するデータは含まれていない.公開されている日本語文法誤りデータセットにNAISTLang-8コーパスがある\cite{mizumoto-etal-2011-mining}.これは言語学習者向けのWebサイトであるLang-8\footnote{\url{https://lang-8.com}}から構築した多言語文法誤りデータセットである.日本語のデータサイズは約850,000文である.Lang-8コーパスは非母語話者が生成したテキストから構築されているため,文の大部分が訂正されたものが含まれる.本研究で収集する入力誤りに含まれる文法誤りは,助詞の誤りなどの編集距離の小さな,日本語話者によって書かれた文章でも見られるような文法誤りであり,その点でLang-8コーパスとは異なっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{入力誤り訂正システム}かつては,OCRやASRも含め,入力誤り訂正はnoisychannelmodelを用いた統計的機械翻訳の枠組みが主流であったが\cite{electronics9101670,brill-moore-2000-improved,weko_12620_1},近年では,ニューラルモデルを用いた手法が成功を収めている\cite{sakaguchi2017robsut,yuan-briscoe-2016-grammatical,8395234,ERRATTAHI201832}.文法誤り訂正において成功を収めているニューラルモデルの一つにBART\cite{lewis-etal-2020-bart}がある.BARTはTransformer\cite{vaswani2017attention}を用いたseq2seqモデルであり,大規模な生コーパスで事前学習した後に,各タスクでfine-tuningするモデルである.BARTの事前学習はノイズに加えられたテキストを復元するタスクを行う.現在,英語の事前学習済みモデルが公開されている\footnote{\url{https://github.com/pytorch/fairseq/tree/master/examples/bart}}.KatsumataらはBARTを用いて英語の文法誤り訂正を行っており,事前学習済みBARTを文法誤り訂正タスクでfine-tuningするというシンプルな手法ながら,既存のSOTAに近い結果が得られたと報告している\cite{katsumata-komachi-2020-stronger}.本研究では,ベースラインとして,同様に事前学習済みBARTを入力誤り訂正タスクでfine-tuningし,日本語入力誤り訂正システムを構築する.また,多言語においてBARTと同様の事前学習をしたモデルとしてmBART\cite{liu2020multilingual}があり,日本語を含む25ヶ国語で事前学習したモデルが公開されている\footnote{\url{https://github.com/pytorch/fairseq/tree/master/examples/mbart}}.Katsumataらが行った実験では,単言語で事前学習済みのBARTを用いた英語での結果と比べると,mBARTを用いたドイツ語などの言語での文法誤り訂正の精度は低かった.そのため,本研究では,事前学習済みモデルとして公開されているmBARTを利用せず,日本語でBARTを事前学習し,それを用いて入力誤り訂正システムを構築する.ニューラルモデルでは,学習データサイズを大きくすることで精度が向上する傾向がある.そのため,実際のデータに似たデータ(疑似データ)を生成し,学習データに加える手法がこれまでなされてきており\cite{sennrich-etal-2016-improving},スペルミス訂正\cite{li2018spelling},文法誤り訂正\cite{kiyono-etal-2019-empirical}においても精度が向上したと報告されている.本研究においても,疑似入力誤りデータを生成して,学習に用いる実験を行い,精度が向上するか確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{大規模入力誤りデータセットJWTDの構築手法} \label{sec:building_dataset}日本語Wikipediaの編集履歴から入力誤りとその訂正文ペアを図\ref{fig:data_flow}に示す流れで収集し,JWTDを構築する.まず,Wikipediaの編集履歴に前処理を行った後,マイニングを行い,入力誤りとその訂正文ペアの候補を取り出す.その後,入力誤り訂正ではないと考えられる編集をフィルタリングすることで,JWTDの誤字・脱字・衍字・転字・誤変換の入力誤りデータを得る.次に,得られた誤字・脱字・衍字・転字・誤変換の入力誤りデータを用いてBARTをfine-tuningし(\ref{sec:typo_correction_experiment}節で後述),得られたモデルの尤度を用いたフィルタリングを行って,JWTDのその他の入力誤りデータを得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-4ia3f2.pdf}\end{center}\caption{JWTDの構築の流れ.}\label{fig:data_flow}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Wikipediaの前処理}\label{sec:preprocessing}XMLダンプで配布されているWikipediaの編集履歴から入力誤りとその訂正文ペアを取り出すために,まず種々の前処理を行う.1文内に編集のある文ペアを以下の方法で取り出す.\vspace{1zh}\begin{enumerate}\setlength{\itemsep}{-0.5zh}\setlength{\parskip}{-0.5zh}\item全てのページの全ての版を含むXMLダンプのWikipediaの編集履歴から,編集コメントを取り出す.荒らしなどの不適切な編集を取り除くため,編集コメントを基にWikipediaの版全体からundoやrevertされている版を特定し,それらを取り除く.\\\itemWikipedia特有のマークアップを取り除き,それぞれの版の本文テキストを取り出す.これにはWikiExtractor\footnote{\url{https://github.com/attardi/wikiextractor}}を用いる.ここで,パラグラフごとに改行されている本文テキストを1文ごとに改行する.\\\itemそれぞれのページのそれぞれの版でその直前の版と行単位でdiffをとり,1文の中に編集のある文ペアのみを取り出す.行単位のdiffにはPython3difflibライブラリ\footnote{\url{https://docs.python.org/3/library/difflib.html}}を利用する.ここで編集後が10文字以下の文と200文字以上の文の場合その文ペアを取り除く.これは,短すぎる文は入力誤り訂正かどうかを判定するには文脈が不足しており,長過ぎる文は通常の文ではない可能性が高いためである.\\\item「A$\to$B」,「B$\to$A」というように編集が循環している文ペアは,編集者の間で論争が起きている編集\footnote{\url{https://ja.wikipedia.org/wiki/Wikipedia:編集合戦}}である可能性がある.これらはいずれが適切な編集かを機械的に判断するのが難しいため,同一ページ内に編集が循環している文ペアが存在する場合,どちらも取り除く.また,「A$\to$B」,「B$\to$C」というように編集が推移している場合,Bはまだ不適切な文であると考えられる.そのため,同一ページ内に,このように編集が推移している文ペアが存在する場合,「A$\to$C」というように編集を統合した文ペアに変換する.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マイニング}\label{sec:mining}前節で得られた編集のある文ペアから,入力誤りとその訂正を有している可能性のある文ペアを取り出す.対象の入力誤りは誤字・脱字・衍字・転字・誤変換の5カテゴリとする.編集箇所が以下に示す条件を満たす文ペアを,それぞれのカテゴリとして取り出す.ここで,1つの編集箇所が複数の条件を満たすことはない.また,1つの文ペアが複数の編集箇所を持ち,それらが異なるカテゴリの条件を満たす場合,その文ペアは複数カテゴリとして取り出す.\vspace{1zh}\begin{description}\item[誤字:1文字の入れ替え]\mbox{}\begin{itemize}\item[(例)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]兄の部隊\pre{の}所属していた兵士でもあり、...\item[訂正]兄の部隊\post{に}所属していた兵士でもあり、...\end{itemize}\vspace{0.5zh}\item[条件]\renewcommand{\labelitemii}{\labelitemi}\begin{itemize}\setlength{\itemsep}{-0.5zh}\setlength{\parskip}{-0.5zh}\item編集箇所における文字単位編集距離が1\\\item編集箇所の文字数変化が0\\\item編集のあった文字は編集前と編集後ともに,ひらがな又はカタカナ\end{itemize}\end{itemize}\vspace{1zh}\item[脱字:1文字の抜け]\mbox{}\begin{itemize}\item[(例)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]...民間レスキュー組織をもっていること知られる。\item[訂正]...民間レスキュー組織をもっていること\post{で}知られる。\end{itemize}\vspace{0.5zh}\item[条件]\renewcommand{\labelitemii}{\labelitemi}\begin{itemize}\setlength{\itemsep}{-0.5zh}\setlength{\parskip}{-0.5zh}\item編集箇所における文字単位編集距離が1\\\item編集箇所の文字数変化が$+$1\\\item挿入文字は,ひらがな又はカタカナ\end{itemize}\end{itemize}\vspace{1zh}\clearpage\item[衍字]\mbox{}\begin{description}\item[(a):余分な1文字の挿入]\mbox{}\begin{itemize}\item[(例)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]特に免疫力の差などがそう\pre{う}である。\item[訂正]特に免疫力の差などがそうである。\end{itemize}\vspace{0.5zh}\item[条件]\renewcommand{\labelitemii}{\labelitemi}\begin{itemize}\setlength{\itemsep}{-0.5zh}\setlength{\parskip}{-0.5zh}\item編集箇所における文字単位編集距離が1\\\item編集箇所の文字数変化が$-$1\\\item削除文字は,ひらがな又はカタカナ\end{itemize}\end{itemize}\vspace{1zh}\item[(b):直前の文字列と一致する2文字以上の余分な文字の挿入]\mbox{}\begin{itemize}\item[(例)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]高校在学中の1963年に虫プロに入社\pre{に入社}。\item[訂正]高校在学中の1963年に虫プロに入社。\end{itemize}\vspace{0.5zh}\item[条件]\renewcommand{\labelitemii}{\labelitemi}\begin{itemize}\setlength{\itemsep}{-0.5zh}\setlength{\parskip}{-0.5zh}\item編集箇所がその直前もしくはその直後の文字列と一致する\\\item編集箇所の文字数変化が$-$1以下\\\item削除文字は,編集箇所の文字数変化が$-$1ならば漢字,$-$2以下ならばひらがな又はカタカナ又は漢字\end{itemize}\end{itemize}\end{description}\vspace{1zh}\item[転字:隣接する2文字間の転置]\mbox{}\begin{itemize}\item[(例)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]現在の\pre{こと}ろ、大滝最後の新曲になっている。\item[訂正]現在の\post{とこ}ろ、大滝最後の新曲になっている。\end{itemize}\vspace{0.5zh}\item[条件]\renewcommand{\labelitemii}{\labelitemi}\begin{itemize}\setlength{\itemsep}{-0.5zh}\setlength{\parskip}{-0.5zh}\item編集箇所における文字単位編集距離が2\\\item編集箇所における文字単位ダメラウ・レーベンシュタイン距離\cite{damerau1964technique}が1\\\item編集のあった文字は編集前と編集後ともに,ひらがな又はカタカナ\end{itemize}\end{itemize}\vspace{1zh}\item[誤変換]\mbox{}\begin{description}\item[(a):同一の読みを持つ漢字の入れ替え]\mbox{}\begin{itemize}\item[(例)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]まだ、全学全てが大学院に\pre{以降}していないため、...\item[訂正]まだ、全学全てが大学院に\post{移行}していないため、...\end{itemize}\vspace{0.5zh}\item[条件]\renewcommand{\labelitemii}{\labelitemi}\begin{itemize}\setlength{\itemsep}{-0.5zh}\setlength{\parskip}{-0.5zh}\item編集箇所における編集前後の読みが一致\\\item編集のあった文字は編集前と編集後ともに,漢字を含む\end{itemize}\end{itemize}\vspace{0.5zh}\item[(b):近い読みを持つ漢字の入れ替え]\mbox{}\begin{itemize}\item[(例)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]交代\pre{龍}が戦死ではなく、「アメリカに旅立つため」...\item[訂正]交代\post{理由}が戦死ではなく、「アメリカに旅立つため」...\end{itemize}\vspace{0.5zh}\item[条件]\renewcommand{\labelitemii}{\labelitemi}\begin{itemize}\setlength{\itemsep}{-0.5zh}\setlength{\parskip}{-0.5zh}\item編集箇所における編集前後の読みが,誤字または脱字または衍字(a)または転字を含む\\\item編集のあった文字は編集前と編集後ともに,漢字を含む\end{itemize}\end{itemize}\end{description}\end{description}\vspace{0.5zh}編集箇所はJuman++\cite{tolmachev-etal-2018-juman}\footnote{\url{https://github.com/ku-nlp/jumanpp}}の形態素単位での差分箇所とする.差分の計算にはPython3difflibライブラリを用いる.ここで,差分箇所が隣接している場合はそれらをひとつに統合している.そのため,単語分割を狂わせ,見かけ上複数単語の編集となる入力誤りも収集できる.漢字の読みの解析にはJuman++とIPA辞書を用いたMeCab\cite{kudo-etal-2004-applying}\footnote{\url{https://taku910.github.io/mecab/}}を用い,どちらか一方において条件を満たせばよいことにする.文字の種類(ひらがな・カタカナ・漢字)の判定には,Python3regex\footnote{\url{https://pypi.org/project/regex/}}ライブラリを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{フィルタリング}\label{sec:filtering}前節のマイニングで得られた文ペアには,入力誤り訂正とは関係ないと考えられる編集も含まれる.それらを取り除くため,以下の方法でフィルタリングを行う.\vspace{+1zh}\paragraph{品詞・形態素解析}マイニングで得られた文ペアには,以下のような人名・時制・Wikipedia特有のスタイルに関する編集が多く見られる.\typoexm{編集前}{編集後}{これに対し、若き科学者・芹沢大\pre{介}の発明したオキシジェン...}{これに対し、若き科学者・芹沢大\post{助}の発明したオキシジェン...}\typoexm{編集前}{編集後}{白浜町に設置され\pre{る}インターチェンジは以下のようになる。}{白浜町に設置され\post{た}インターチェンジは以下のようになる。}\typoexm{編集前}{編集後}{絵画\pre{と}は、基本的には、線や色彩をもちいて、物の形や姿を...}{絵画は、基本的には、線や色彩をもちいて、物の形や姿を...}\relativeidx{-3}はフィクションでの登場人物の人名に関する編集,\relativeidx{-2}は時制に関する編集,\relativeidx{-1}はWikipediaで特に頻繁に見られたスタイル統一のための編集である.これらは,文脈によっては編集後が内容として適切な文かもしれないが,この1文においては,編集前も編集後も書き言葉の文として自然である.そのため,これらは入力誤り訂正ではないと考え,形態素解析器Juman++の解析結果を用いて取り除く.編集箇所の解析結果に品詞細分類が人名であるものを含む場合,人名に関する編集として取り除く.編集箇所の解析結果の原型が編集前後で同一であり,活用形が基本形とタ形のペアの場合,時制に関するものとして取り除く.編集箇所が「と/は」と「は」のペアであり「と」の品詞が格助詞の場合,\relativeidx{-1}のようなスタイル統一の編集として取り除く.\vspace{+1zh}\paragraph{リダイレクトデータ}マイニングで得られた文ペアには,記事内で用いる用語を統一するための編集が多く見られる.\typoexm{編集前}{編集後}{1840年-ジョージ・ウォルフ、ペンシル\pre{バ}ニア州知...}{1840年-ジョージ・ウォルフ、ペンシル\post{ベ}ニア州知...}「ペンシルバニア」「ペンシルベニア」のような単語は表記は異なるが,どちらも書き言葉の文として自然であり,この編集は入力誤り訂正ではないといえる.Wikipediaではこのような単語を検索すると,どちらも同一ページに遷移するリダイレクト機能\footnote{\url{https://ja.wikipedia.org/wiki/Wikipedia:リダイレクト}}がある.この情報を用いて,このような単語間での編集を含む文ペアを取り除く.\vspace{+1zh}\paragraph{言語モデル}マイニングで得られた文ペアには,以上に挙げた以外にも,以下のような本研究の定義する入力誤りとは関係のない些細な編集が多い.\typoexm{編集前}{編集後}{...を受けた後に大幹部に抜擢され\pre{て}、日本支部長に就任した。}{...を受けた後に大幹部に抜擢され、日本支部長に就任した。}\typoexm{編集前}{編集後}{...て「フェニックス」を掲げ、新た\pre{に}都市開発に取り組んだ。}{...て「フェニックス」を掲げ、新た\post{な}都市開発に取り組んだ。}また,記事によっては,日本語の通常の文ではない文字列で編集が見られることがある.以下は,漢文の引用中で見られた編集である.\typoeg{...數法日月星辰,敬授民時,分命羲仲居\pre{鬱}夷曰:暘谷,敬道日出,...}{...數法日月星辰,敬授民時,分命羲仲居\post{嵎}夷曰:暘谷,敬道日出,...}このような文字列は,日本語文として編集前も編集後も不自然であるため,取り除くことが望ましい.これらのような編集のパターンは無数に存在し,それらをフィルタリングするルールを包括的に記述するのは困難である.そこで,BARTとLSTMモデルを用いて,2つの方法でフィルタリングを行い上記のような編集を取り除く.1つ目は\ref{sec:typo_correction_experiment:pretraining}節で後述する事前学習済みBARTでの尤度をもとにフィルタリングを行う.これは,\relativeidx{-3},\relativeidx{-2}のような編集を持つ文ペアを対象としたフィルタリングである.表\ref{table:vanilla_bart_lm_example}のように訂正箇所を[mask]トークンで置換した文を入力して,編集前・編集後の文が出力される尤度をそれぞれ計算する.尤度が大きいほどその言語モデルにとってその文が自然なものであるといえるため,編集による尤度の増加が大きいものは入力誤り訂正である可能性が高いと考えられる.それぞれの入力誤りの種類で閾値を定め,編集による尤度の差が閾値より小さい文ペアを取り除く.ここで,衍字(b)・転字・誤変換(a)にはこのフィルタリングは行わない.衍字(b)においては精度が十分高い,転字においてはデータ量が少ない,誤変換(a)においては「若干$\to$弱冠」などの高頻度語から低頻度語への正しい訂正が取り除かれるためである.閾値は,\ref{sec:creating_gold_dataset}節で後述の入力誤り評価データの作成方法と同様の方法で収集した入力誤りかどうかのラベル付きデータ10,000文ペアを基に,F値を最大化するように決定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{03table01.tex}\hangcaption{「今日はいい【転機$\to$天気】だ。」を事前学習済みのBARTモデルで尤度計算する際に与える入出力.}\label{table:vanilla_bart_lm_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2つ目は,訂正後の文を文字単位LSTM言語モデルに入力した際に出力される,文字単位尤度の平均をもとにフィルタリングを行う.これは,\relativeidx{-1}のような文ペアを対象としたフィルタリングである.文字単位LSTM言語モデルの学習データには日本語Wikipediaの最新ページ全てを使う.編集後の文の文字単位尤度平均が小さい場合,編集後の文が不自然な文と考えられる.閾値を定め,文字単位尤度平均が閾値より小さい文ペアを取り除く.閾値はヒューリスティックに決定する.以上の,品詞・形態素解析,リダイレクトデータ,言語モデルを用いたフィルタリングを通過したものを,誤字・脱字・衍字・転字・誤変換の入力誤りデータとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{その他の入力誤りデータ収集}\label{sec:sonota_collecting}前節までの方法は特定のカテゴリを対象として入力誤りを収集するため,収集できない入力誤りが存在すると考えられる.例えば,誤字カテゴリでは文字単位編集距離が1である入力誤りのみを対象としており,編集距離2以上の誤字は収集できない.また,編集距離2以上の編集は,編集距離1のものに比べて,入力誤り訂正以外の編集の割合が高いため,\ref{sec:mining}節のマイニングの編集距離条件を2以上に緩め,\ref{sec:filtering}節のフィルタリングを同様に行う方法では不十分な質のデータしか得られない.そこで,編集距離2以上の誤字などの入力誤りの収集では,入力誤り訂正を学習したモデルを用いて,入力誤り訂正である可能性が高い編集をその他の入力誤りとして収集する.この入力誤り訂正モデルには,誤字・脱字・衍字・転字・誤変換の入力誤りデータでfine-tuningしたBARTモデルを用いる(\ref{sec:typo_correction_task}節で後述).表\ref{table:finetuned_bart_lm_example}のように編集前の文を入力に与え,編集前・編集後の文が出力される尤度をそれぞれ計算する.編集による尤度の増加が大きいものは,その編集が入力誤り訂正である可能性が高いと考えられる.閾値を決めて,訂正による尤度の差が閾値より大きいものをその他として収集する.閾値決定には,\ref{sec:creating_gold_dataset}節で後述の入力誤り評価データの作成方法と同様の方法で収集した入力誤りかどうかのラベル付きデータのうち,マイニング(\ref{sec:mining}節)を適用した際にふるい落とされる7,962文ペアを用いる.適合率がフィルタリング(\ref{sec:filtering}節)までのデータセット構築手法の適合率(\ref{sec:dataset_eval_result}節で後述)以上であり,かつ,再現率を最大化するように閾値を決定する.その他の収集対象例を以下に示す.その他では,編集距離が2文字以上の誤字の他にも,漢字の脱字など様々なものが対象となる.\vspace{1zh}\begin{description}\item[その他]\mbox{}\begin{itemize}\item[(例1)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]ダイオキシン類は、非意図的に発生\pre{しまう}物質であり、主に...\item[訂正]ダイオキシン類は、非意図的に発生\post{する}物質であり、主に...\end{itemize}\vspace{1zh}\item[(例2)]\mbox{}\vspace{-1.8zh}\begin{itemize}\setlength{\leftskip}{1cm}\item[入力誤り]登場人については、魔導物語及びぷよぷよシリーズの...\item[訂正]登場人\post{物}については、魔導物語及びぷよぷよシリーズの...\end{itemize}\end{itemize}\end{description}\vspace{1zh}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{03table02.tex}\hangcaption{「今日はいい【転機$\to$天気】だ。」を入力誤り訂正タスクでfine-tuning済みのBARTモデルで尤度計算する際に与える入出力.}\label{table:finetuned_bart_lm_example}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{JWTDの分析と評価} \label{sec:evaluating_dataset}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{JWTDの分析}\ref{sec:building_dataset}章の手法を2019年6月の日本語Wikipediaに適用し,JWTDを構築した.JWTDのデータサイズを表\ref{table:dataset_size}に示す.ここで,複数カテゴリの入力誤りを有する文ペアはそれぞれのカテゴリで重複してカウントしている.そのため,各カテゴリの文ペア数の合計と全ての文ペア数は一致していない.合計約70万文ペアの入力誤りデータが得られた\footnote{データセットは\url{http://nlp.ist.i.kyoto-u.ac.jp/?日本語Wikipedia入力誤りデータセット}で公開している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{03table03.tex}\caption{JWTDのサイズ.}\label{table:dataset_size}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{03table04.tex}\hangcaption{上位10個の入力誤り(値は各カテゴリにおける総編集箇所数に対する\%).「$\to$」は左から右への編集,「+」は追加する編集,「$-$」は削除する編集を表す.}\label{table:typo_ranking}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%JWTDにおける各入力誤りの上位10個の訂正を表\ref{table:typo_ranking}に示す.訂正の単位はJuman++で訂正前・後の文をそれぞれ形態素分割した形態素列での最小編集である.脱字に「る$\to$いる」「+い」が見られるが,それらは主に以下のような,い抜きことばの訂正であった.\typoeg{...基本的にCDデビューをしてない人を指す。}{...基本的にCDデビューをして\post{い}ない人を指す。}い抜きことばは話し言葉で用いられるが,書き言葉においては一般に不適切とされる.百科事典であるWikipediaでは書き言葉が適切であり,\ref{sec:introduction}章で述べたように本研究ではい抜きことばも入力誤りとしている.転字は他と違い,カタカナ文字での訂正が多い傾向が見られた.また,表にあるような「シュミレーター$\to$シミュレーター」は,入力誤りによってではなく,前後の音が入れ替わる音位転換\cite{gengogakunyumon}と呼ばれる言語現象によって生じている可能性がある.JWTDの転字は音位転換の言語資源としての活用も考えられる.誤変換(a)では,「製作$\to$制作」「運行$\to$運航」のように意味が似ている漢字間の訂正が見られた.これらの漢字は使い分けの判断が難しく,また,入力誤りとは言えないものも含まれる.また,誤変換(b)では,「声優$\to$俳優」のように入力誤り訂正ではなく,意味的な訂正であると考えられるものが見られる.このようなものを取り除くことは今後の課題である.その他では,他のカテゴリがカバーしていない,「月$\to$年」といった漢字における誤字などや,「+する」といった2文字以上の脱字といった多様な入力誤りが収集できていることがわかる.次にJWTDにおける各入力誤りでの品詞における上位5個の訂正を表\ref{table:typo_hinsi_ranking}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{03table05.tex}\hangcaption{上位5個の品詞(値は各カテゴリにおける総編集箇所数に対する\%).「$\to$」は左から右への編集,「+」は追加する編集,「$-$」は削除する編集を表す.また,「(名詞,名詞)」等は2形態素の編集があった場合のそれらの品詞を表す.}\label{table:typo_hinsi_ranking}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%誤字・脱字・衍字(a)の1位は助詞に関するものであった.これより,JWTDは文法誤り訂正のデータも多く含んでいることがわかる.誤字・転字に「未定義語$\to$名詞」が見られるが,これらは以下のような,カタカナ文字での編集が多かった.\typoeg{マイクロソフトのエクセ\pre{ツ}などの商用ソフトウェアは、この...}{マイクロソフトのエクセ\post{ル}などの商用ソフトウェアは、この...}\typoeg{...本人の頭が一瞬だけ拡大で映ってしまうハプ\pre{ンニ}グが起きた。}{...本人の頭が一瞬だけ拡大で映ってしまうハプ\post{ニン}グが起きた。}また,誤字・転字・誤変換(b)には「(名詞,名詞)$\to$名詞」が見られる.これらは入力誤りによって,Juman++の形態素解析における形態素数が変化した例である.実例は以下である.\typoeg{...因島市の\pre{ヘ}ッドタウン的な立場であった。}{...因島市の\post{ベ}ッドタウン的な立場であった。}\typoeg{メモ付きのポ\pre{ロラ}イド写真}{メモ付きのポ\post{ラロ}イド写真}\typoeg{モンスターズ現代アメリカ\pre{決算句}短編集B・J・ホラーズ編...}{モンスターズ現代アメリカ\post{傑作}短編集B・J・ホラーズ編...}それぞれの形態素単位の編集は,\relativeidx{-3}「ヘッド/タウン$\to$ベッドタウン」,\relativeidx{-2}「ポロ/ライド$\to$ポラロイド」,\relativeidx{-1}「決算/句$\to$傑作」であり,2形態素(単語)の訂正が行われたことになる.複数単語に渡る入力誤り訂正は,単語分割の必要のないフランス語や英語での先行研究\cite{max2010mining,zesch2012measuring}では収集対象にされておらず,それらの手法では収集できないものである.\subsection{クラウドソーシングによる評価\label{sec:evaluating_dataset:crowdsourcing}}クラウドソーシングを用いて,JWTDの評価を行った.評価対象はランダムに選んだ記事3,000ページ中から得られた文ペアを用いた.同じ訂正が数多く存在しているページが存在したため,データの偏りを避けるために,選ばれたページ内に同一の訂正が4つ以上含まれていた場合,そのうちの3つのみをランダムに採用した.評価対象となった文ペア数を表\ref{table:crwdsrc_eval_datasize}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{03table06.tex}\caption{クラウドソーシングの評価対象データサイズ.}\label{table:crwdsrc_eval_datasize}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{タスク内容}\label{sec:task2}編集前と編集後の文を同時に提示して,それぞれ書き言葉として自然かどうかを質問した.このとき,提示する際は単に文A,文Bとして提示し,どちらが編集前か編集後かをわからないようにした.選択肢は「Aは書き言葉として自然な文であるが,Bは不自然な文である」,「Bは書き言葉として自然な文であるが,Aは不自然な文である」,「どちらの文も自然である」,「どちらの文も不自然である」,「わからない」の5つとした.それぞれの文ペアにつき10人のワーカーに回答してもらった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果}文ペアのうち,1つの選択肢が過半数の票を持つ編集を,その回答によって分類した.過半数を超えている回答が「Aは書き言葉として自然な文であるが,Bは不自然な文である」もしくは「Bは書き言葉として自然な文であるが,Aは不自然な文である」の場合は,編集前の文が不自然・編集後の文が自然という回答のとき「正しい訂正」,編集前の文が自然・編集後の文が不自然という回答のとき「間違った訂正」と分類した.過半数を超えている回答が,「どちらの文も自然である」の場合「どちらも自然」,「どちらの文も不自然である」の場合「どちらも不自然」,「わからない」の場合「わからない」と分類した.どの選択肢も過半数の票を持たないものは「その他」に分類した.このようにして得られた分類結果を表\ref{table:new_dataset_crowdsourcing}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{03table07.tex}\caption{クラウドソーシングによるJWTD評価結果(値は\%).}\label{table:new_dataset_crowdsourcing}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ここで,過半数を超えている回答が,編集前の文が不自然・編集後の文が自然という回答のペアを「正しい訂正」,編集前の文が自然・編集後の文が不自然という回答のペアを「間違った訂正」と分類している.全体では72.7\%のペアが「正しい訂正」と分類された.脱字の「どちらも自然」が19.7\%と他と比較して高いが,このうち27.2\%が以下のような「の」の抜けであった.\typoeg{播磨国龍野藩10代(最後)藩主。}{播磨国龍野藩10代(最後)\post{の}藩主。}「の」の抜けの編集は,「どちらも自然」に分類されたものが44.6\%に対して,以下の\relativeidx{+0}のような「正しい訂正」に分類されたものも37.9\%あり,「の」の抜けが入力誤りであるかどうかは,文脈によるといえる.\typoeg{...降伏条件の実施ため必要と認める措置を執る...}{...降伏条件の実施\post{の}ため必要と認める措置を執る...}このような「どちらも自然」な編集を取り除く方法として,\ref{sec:filtering}節の言語モデルフィルタの改良などの方法が考えられ,今後の課題である.転字の「わからない」「その他」の割合が他より高い.転字では,以下のようなカタカナ文字での編集が多く,入力誤りかどうかの判断には知識が必要とされるためだと考えられる.\typoeg{六本木一丁目にあるカリーヴ\pre{スル}トを食べられるインビス}{六本木一丁目にあるカリーヴ\post{ルス}トを食べられるインビス}これらの中には例のような,「正しい訂正」と分類されるべきものも多く見られたため,転字の「正しい訂正」の実際のスコアは表よりも高い可能性がある.誤変換(a)は「その他」の割合が高いことから,ワーカーの判断が分かれていることがわかる.これは,誤変換(a)の訂正は他と違い漢字の知識を必要とするためだと考えられる.また,誤変換(a)の「間違った訂正」と分類された中には以下の\relativeidx{+0}のような「正しい訂正」とされるべきものが含まれていた.そのため,誤変換(a)の「正しい訂正」の実際のスコアは表よりも高い可能性がある.\typoeg{ESIEは\pre{若干}20歳にして単なるアーティストではなく...}{ESIEは\post{弱冠}20歳にして単なるアーティストではなく...}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{入力誤り評価データによる評価}\ref{sec:building_dataset}章の手法で構築したJWTDは主に特定のカテゴリの入力誤りを対象として収集するため,収集から漏れた入力誤りが存在すると考えられる.そのため,適合率だけではなく再現率も含めた評価を行うことが望ましい.再現率を評価するためには,カテゴリの制限のない網羅的な入力誤りデータが必要である.そのような入力誤りデータを収集し,それを用いてJWTD構築手法を評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{入力誤り評価データの作成}\label{sec:creating_gold_dataset}クラウドソーシングを用いて網羅的に入力誤りデータを収集し,それを入力誤り評価データとした.クラウドソーシングに用いたデータは,\ref{sec:preprocessing}節で取り出した編集箇所を持つ文ペアからランダムに選んだ11,000文ペアである.%%%%\vspace{1zh}\paragraph{タスク内容\label{sec:creating_gold_dataset.task}}質の良い評価データを作るために,2段階の方法でクラウドソーシングを行った.どちらもそれぞれ5人のワーカーに回答してもらった.1段階目のタスクは,編集がどのような編集かを分類するタスクである.編集前と編集後の文を提示して,「内容の変更・追加・削除」,「表現の変更・追加・削除」,「誤字・脱字・衍字・漢字の変換ミスの修正」,「その他・わからない」の4つの選択肢の中から1つ選んでもらった.「誤字・脱字・衍字・漢字の変換ミスの修正」が過半数を得た文ペアを入力誤りに関係するペアとし,2段階目のタスクの対象データとした.2段階目のタスクは\ref{sec:task2}節のタスクと同じく,編集前後の文が自然かどうかを問うタスクである.%%%%\vspace{1zh}\paragraph{結果}1段階目のタスクにおいて,「誤字・脱字・衍字・漢字の変換ミスの修正」が過半数を占めた文ペアは1,773個であった.それらを対象に行った2段階目のタスクで,編集前の文が不自然・編集後の文が自然という回答が過半数を占めた文ペアは1,127個であった.この1,127個の文ペアを入力誤り評価データとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価結果}\label{sec:dataset_eval_result}入力誤り評価データを含む,\ref{sec:creating_gold_dataset}節でクラウドソーシングに用いた11,000文ペアに対し,\ref{sec:building_dataset}章の手法を適用してJWTDの構築手法を評価した.JWTD構築手法を適用して得られた文ペアを$J$,入力誤り評価データを$G$とし,$|J\capG|/|J|$を適合率,$|J\capG|/|G|$を再現率として計算する($|X|$はXの文ペア数を表す).結果を表\ref{table:eval_building_dataset_method_with_gold}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{03table08.tex}\caption{データセット構築手法の評価(適合率・再現率・F値の値は\%).}\label{table:eval_building_dataset_method_with_gold}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%JWTDの構築手法の評価結果は適合率73.4\%,再現率62.4\%となった.また,表からマイニング,フィルタリング,その他カテゴリの入力誤りの収集を経ることで,F値が向上していることが確認できる.入力誤り評価データのうち,JWTDの構築手法で取り出せなかったものは,\ref{sec:filtering}節の事前学習済みBARTモデルを用いたフィルタによって取り除かれたものが多かった.実際,表\ref{table:eval_building_dataset_method_with_gold}のマイニング後とフィルタリング後の間での,再現率低下の70\%がBARTモデルフィルタによるものであった.以下にBARTモデルフィルタによって取り除かれた入力誤り例を示す.\vspace{1zh}\typoeg{...売買を阻止、地域の健康プログラム\pre{を}支援と、自身の縄張り...}{...売買を阻止、地域の健康プログラム\post{の}支援と、自身の縄張り...}一方で,BARTモデルを用いたフィルタは以下の\relativeidx{+0}のような入力誤り訂正ではない編集を取り除くことで,適合率の向上に大きく貢献している.実際,表\ref{table:eval_building_dataset_method_with_gold}のマイニング後とフィルタリング後の間での,適合率向上の88\%がBARTモデルフィルタによるものであった.\typoexm{編集前}{編集後}{...のでは」との憶測を抱いたファン\pre{が}多かったらしく、鈴木自...}{...のでは」との憶測を抱いたファン\post{は}多かったらしく、鈴木自...}BARTモデルフィルタは適合率の向上とともに再現率の低下をもたらしており,その再現率の低下を抑えることが今後の課題といえる.また,数は少ないながら,以下のような漢字の読みに関するもの\relativeidx{+0},似た見た目の漢字\relativeidx{+1}の入力誤りもJWTDの構築手法では取り出せていなかった.このような入力誤りは,\ref{sec:sonota_collecting}節のその他カテゴリの収集に用いるモデルを改良することによって,収集できる可能性があり,今後の課題である.\typoeg{米津玄師(\pre{こめつ}けんし、1991年(平成3年)3月10日-)...}{米津玄師(\post{よねづ}けんし、1991年(平成3年)3月10日-)...}\typoeg{BIMの中に空気や\pre{鹿}が吸い込まれていく真空モードに入る。}{BIMの中に空気や\post{塵}が吸い込まれていく真空モードに入る。}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{入力誤り訂正システム} \label{sec:typo_correction_method}本研究では入力誤り訂正システムに用いるニューラルモデルとして,seq2seq事前学習モデルBARTを採用する.BARTを日本語テキストで事前学習し,その後,JWTDを用いた入力誤り訂正タスクでfine-tuningすることで,入力誤り訂正システムを構築する.本研究では入力誤り訂正タスクのみでfine-tuningする方法の他に,fine-tuning時に漢字の読みの推定を同時に学習を行う方法,fine-tuning時にJWTDに加えて疑似データを用いて学習する方法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{03table09.tex}\hangcaption{「ABC.DE.」に対してBARTの事前学習タスクのノイズを加えた例(_はmaskトークンを表す).}\label{table:bart_pretraining}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BART}BARTはTransformerをベースとしたseq2seq事前学習モデルである.事前学習モデルは,大規模な生コーパスで自己教師学習を行い(事前学習),その後目的のタスクでfine-tuningを行うモデルである.seq2seqモデルであるBARTの他には,言語モデルのBERT\cite{devlin-etal-2019-bert}などがある.BARTで行う事前学習のタスクは,ノイズを加えられたテキストから元のテキストを生成するものであり,tokenmasking,tokeninfilling,tokendeletion,sentencepermutation,documentrotationの5種類がある.例を表\ref{table:bart_pretraining}に示す.tokenmaskingとtokeninfillingはテキスト内のトークンをmaskトークンに置き換えるノイズである.両者の違いは,前者は1個のトークンを1個のmaskトークンに置き換え,後者は0個以上のトークンを1個のmaskトークンに置き換える点である.tokendeletionはトークンを削除するノイズ,sentencepermutationは文章中の文を入れ替えるノイズ,documentrotationは文章を転回させるノイズである.Lewisら\cite{lewis-etal-2020-bart}がNLIなどのいくつかのタスクでBARTをfine-tuningした実験では,textinfillingのみで事前学習を行ったモデル,textinfillingとsentencepermutationで事前学習を行ったモデルの精度が高かった.本研究では,本研究の入力誤り訂正タスクは1文単位で行うことから,sentencepermutationのノイズは不必要であると考え,textinfillingのみで事前学習をする.また,本研究では事前学習済みBARTをJWTDの入力誤り訂正タスクでfine-tuningしたものをベースラインとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{読み推定の同時学習}\label{sec:yomi_multitask}本研究で扱う入力誤りのうち,誤変換は漢字の読みが同一または近い誤りである.そのため,漢字の読みの情報は,誤変換の訂正に役立つことが予想される.本研究では,入力誤り訂正タスクと同時に漢字の読みを推定するタスクを学習する手法を提案する.漢字の読みを推定するタスクは,原文からその読みを出力するタスクと原文の読みから元の原文を出力するタスクの2種類とする.表\ref{table:bccwj_input}に原文からその読みを出力するタスクの例を示す.それぞれ及びそれら両方のタスクを入力誤り訂正タスクとを同時に学習するモデルを作成し,ベースラインと精度比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{03table10.tex}\caption{原文から読みを出力する漢字の読み推定タスクの入出力例.}\label{table:bccwj_input}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似データ}\label{sec:pseudo_data}ニューラルモデルはデータを増やすと精度が向上する傾向があり,文法誤り訂正や機械翻訳ではデータセットサイズを大きくするために,疑似的なデータを生成し,そのデータを学習データに加える手法が成功を収めている.疑似データを生成する代表的な手法に,逆翻訳\cite{sennrich-etal-2016-improving}がある.逆翻訳は,原言語から目的言語への変換である翻訳の学習において,原言語と目的言語の対データサイズが小さいが,目的言語のデータは十分にある場合に用いられる手法である.翻訳とは逆向きである,目的言語から原言語への変換を学習したモデルを用いて,目的言語データから原言語データを生成し,それらを疑似的に原言語と目的言語の対データとすることで,翻訳の学習データサイズの拡張を行う.本研究でも,疑似データを作成し,学習データサイズを増やすことによって精度が向上するかを確認する.疑似データは,ランダムに入力誤りを生成する方法と,逆翻訳によって生成する方法で生成する.以下に同一の文から前者で生成した入力誤り\relativeidx{+0}と後者の方法で生成した入力誤り\relativeidx{+1}の例を示す.\typoeg{...ナカムラ大統領の手腕が試され\pre{ぴ}大事な新年がスタートした}{...ナカムラ大統領の手腕が試され\post{る}大事な新年がスタートした}\typoeg{...ナカムラ大統領\pre{が}手腕が試される大事な新年がスタートした}{...ナカムラ大統領\post{の}手腕が試される大事な新年がスタートした}このように,ランダムに生成するデータは多様なデータであり,逆翻訳で生成するデータは実際の入力誤りらしいデータである.このような2種類の疑似データをJWTDに加えて,学習を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{入力誤り訂正システム実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sec:typo_correction_experiment}JWTDを利用して,入力誤り訂正システムの実験を行った.BARTを事前学習し,JWTDを用いて,入力誤り訂正タスクでfine-tuningする.JWTDの入力誤り訂正タスクのみを学習するモデル(ベースライン),JWTDの入力誤り訂正タスクと漢字の読み推定タスクを同時に学習するモデル(読みの同時学習),JWTDに加え疑似データを用いて入力誤り訂正タスクを学習するモデル(疑似データ)を作成し,これら3つのモデルで精度比較を行った.また,ベースラインとMicrosoftWord等の他の校正システムとで精度比較を行った.精度比較は,入力誤りのカテゴリごとでの性能,カテゴリを限定しない入力誤り全般での性能,入力誤りを含まない文において不必要な編集を行わないかの3種類の観点で行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{BARTの事前学習}\label{sec:typo_correction_experiment:pretraining}BARTモデルを日本語テキストで事前学習した\footnote{事前学習済みモデルは\url{http://nlp.ist.i.kyoto-u.ac.jp/?BART日本語Pretrainedモデル}で公開している.}.公開されている事前学習済みBARTモデルは英語のみである.また,日本語を含む多言語で事前学習したmBARTが公開されているが,本研究のタスクでは日本語以外の言語の情報は必要なく,加えて,mBARTの日本語分割基準は我々とは異なり不整合が生じる.そのため,独自に日本語で事前学習した.事前学習の学習データには,日本語Wikipediaの約1,800万文を用いた.トークン単位は,テキストをJuman++で形態素分割した後にそれらをsubword分割\cite{sennrich2016neural}したものを用いた.subword分割にはSentencePiece\cite{kudo2018sentencepiece}を利用し,語彙サイズは32,000とした.事前学習ではtextinfillingタスクを行った.encoderとdecoderがそれぞれ6層のモデル(base)とそれぞれ12層のモデル(large)で事前学習した.隠れ層の次元は,baseは768,largeは1,024である.バッチサイズは512とし,baseでは50万step,largeでは25万step学習した.事前学習にWikipediaを利用したため,入力誤り訂正評価に用いる,入力誤り評価データと\ref{sec:typo_correction_task}節で後述のJWTDテストセットのデータの一部が事前学習データにリークしていると考えられる.そのため,これらのデータを用いた評価は厳密な評価ではないことに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{入力誤り訂正タスク}\label{sec:typo_correction_task}入力誤り訂正タスクでは,JWTDを以下のように学習・検証・テストセットの3種類に分割して得た,学習・検証セットを用いて,各カテゴリの入力誤りデータ,及び,全ての入力誤りデータでfine-tuningを行う.まず,\ref{sec:evaluating_dataset:crowdsourcing}節の評価で正しい訂正と分類された文ペアをJWTDテストセットとする.次に,JWTDから,JWTDテストセット・入力誤り評価データ(\ref{sec:creating_gold_dataset}節)を含む記事ページから得られた文ペアを取り除く.それらのうち,それぞれのカテゴリで1,000文ペアを検証セットとし,他を学習セットとする.なお,このような分割により,学習に用いるJWTDの学習・検証セットと,評価に用いるJWTDテストセット・入力誤り評価データは,どちらもWikipediaが収集元であるものの,収集元の記事ページは異なる.また,JWTDテストセットはカテゴリごとに分類された入力誤りデータであるため,入力誤り訂正のカテゴリごとの評価が可能である点が,入力誤り評価データと異なる.JWTDの学習・検証・テストセットのサイズを表\ref{table:finetuning_datasize}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{03table11.tex}\caption{JWTDの学習・検証・テストセットサイズ}\label{table:finetuning_datasize}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{漢字の読みの推定タスク}漢字の読み推定タスクでは,\pagebreak現代日本語書き言葉均衡コーパス(BCCWJ;BalancedCorpusofContemporaryWrittenJapanese\cite{maekawa2014balanced})のコアデータ40,584文を学習データとして用いた.\ref{sec:yomi_multitask}節で述べたように,漢字の読み推定タスクは,原文を入力して読みを出力するタスクと,その逆向きである,読みを入力して原文を出力するタスクの2種類であり,それに加えて両方のタスクを同時に学習するモデルも作成した.ここで,原文はBCCWJの原文文字列,読みはBCCWJの発音形出現形を用いた.なおBCCWJの発音出現形は,例えば「将棋」は「ショーギ」が対応するように,必ずしもキーボードで入力する読みとは一致していない.本研究では,キーボード入力時の誤り訂正が対象であるため,キーボードで入力する読みが望ましいと考えられる.発音出現形をキーボードで入力する読みに変換したデータを用いた実験は今後の課題である.読み推定タスクの入力単位はBCCWJの短単位をsubword分割したものとした.同時学習を行うモデルでは,まず,入力誤り訂正タスクと漢字の読み推定タスクでfine-tuningした後,入力誤り訂正タスクのみでfine-tuningした.入力誤り訂正タスクにおいては,JWTDの全ての入力誤りデータを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{疑似データ}疑似データを作成し,JWTDと混合したデータでfine-tuningを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{疑似データ作成方法}疑似データは\ref{sec:pseudo_data}節で述べたようにランダムに入力誤りを生成する方法(ランダム)と,逆翻訳を行って生成する方法(逆翻訳)の2種類である.どちらの方法でも,疑似データを作成するソースデータは読売新聞データを用いた\footnote{\url{https://database.yomiuri.co.jp/about/glossary/}}.ランダムでは,\ref{sec:mining}節のマイニングの条件を満たすようなノイズをランダムに加えて,誤字・脱字・衍字・転字・誤変換の疑似入力誤りデータを作成する.ここで,ランダムに生成することが困難なその他の入力誤りの生成は行わなかった.誤変換に関しては,Wikipedia全体の本文テキストをJuman++で形態素解析した読みの情報をもとに,文中の漢字を含む形態素を同一の/近い読みを持つ形態素に置換する方法で生成した.逆翻訳では,JWTDのその他を除く誤字・脱字・衍字・転字・誤変換の入力誤りを用いて,fine-tuningで訂正後の文から訂正前の文を学習させたBARTをもとに逆翻訳を行い,疑似データを作成する.ここで,ランダムな生成方法と条件を揃えるため,その他の生成は行わなかった.生成されたテキストに再度マイニング(\ref{sec:mining}節)を行って得られた文ペアを疑似データとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{疑似データとJWTDの混合方法}fine-tuningに用いるJWTDの入力誤りデータはその他を抜いた誤字・脱字・衍字・転字・誤変換である.JWTDと疑似データを混合したものに対して,疑似データ割合が0.0$\sim$1.0になるように混合した.疑似データの割合が1.0の場合はJWTDの学習データと同じサイズとした.混合する際には,それぞれのカテゴリのデータサイズの比率はJWTDと同様になるようにした.疑似データはランダムのみ,逆翻訳のみ,混合とした.混合はランダムで生成した疑似データと逆翻訳で生成した疑似データをそれぞれ0.5の割合で混ぜたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{fine-tuning方法}モデルはBARTbaseを用い,疑似データとJWTDを混合したデータでfine-tuningした後,JWTDのみでfine-tuningを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価方法}\label{sec:eval_settings}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{入力誤り訂正}評価指標は入力誤り訂正の適合率・再現率・F値を用いた.入力誤り訂正の適合率・再現率は次の定義で計算した.各文において,訂正前の文と訂正後の文の文字単位の最小編集$G$と,訂正前の文とシステム出力文の文字単位の最小編集$O$を求め,$|G\capO|$を求める.全ての文における$|G\capO|$の合計を$N_T$,$|G|$の合計を$N_G$,$|O|$の合計を$N_O$として,適合率=$N_T/N_O$,再現率=$N_T/N_G$とした.ここで最小編集の計算にはpython-Levenshteinライブラリ\footnote{\url{https://pypi.org/project/python-Levenshtein/}}を用いた.評価には,JWTDテストセット・入力誤り評価データ・GitHubTypoCorpusの3つを用いた.GitHubTypoCorpusは,Hagiwaraらの分類器での入力誤りである確率(prob\_typo)が0.9より大きい日本語データから,英語のスペルミス訂正を除いた,557文を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{他の校正システムとの比較}\label{sec:other_proofreading_systems:settings}本研究で構築した入力誤り訂正システムと他の校正システムとで精度比較を行った.他の校正システムは,MicrosoftWord\footnote{\url{https://www.microsoft.com/ja-jp/microsoft-365/word}}とYahoo!校正支援API\footnote{\url{https://developer.yahoo.co.jp/webapi/jlp/kousei/v1/kousei.html}}の2つを用いた.精度比較は,入力誤りを含む文におけるシステムの入力誤り認識精度と,入力誤りを含まない文におけるシステムの振舞いの2つの尺度で行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{MicrosoftWordの設定}日本語における入力誤り認識のみの評価に限定するために,校正結果のうち言語設定が日本語とされている箇所のみを評価に用いた.校正の設定は,「文書のスタイル」を「通常の文」に設定し,他は初期設定のままとした.利用したWordのバージョンはMicrosoftWordforMac16.48である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Yahoo!校正支援APIの設定}Yahoo!校正支援APIは,校正のカテゴリを17種類に分けて出力を行う.本研究においては,それら17種類のうち,F値が最大となるようなカテゴリを選択して,評価を行った.API利用時期は2021年5月である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価方法}二つの校正システムの出力の多くが,訂正箇所の指摘のみであったため,入力誤り訂正ではなく,訂正すべき箇所を推定するタスク(入力誤り認識)で評価した.校正システムが出力した訂正箇所(区間)が,正解の訂正箇所(区間)を含むかどうかを数え上げ,適合率・再現率・F値を計算する.前章で作成した訂正システムにおいては,入力とシステム出力の差分箇所を訂正箇所とした.評価には,入力誤り評価データとGitHubTypoCorpusを用いた.この2つを評価に用いたのは,前者はWikipedia,後者はGitHubにおける入力誤りの分布を反映したデータであり,入力誤り認識の総合的な性能の比較に適切なためである.Wordにおいてはそれぞれランダムに100個サンプルしたもので我々が人手で評価した.また,入力誤りを含まない文を入力したときの評価も行った.校正システムは入力誤りのない文での不必要な訂正の提案は行わないことが望ましく,その観点での評価のためである.入力誤りを含まないと考えられる読売新聞データ100文を与えて,システムの訂正箇所の数を数えて,比較する.読売新聞データは,記事の見出しを除いた本文のみを用いた.この評価におけるYahoo!校正支援APIで訂正箇所を数え上げる校正カテゴリは,入力誤り評価データでの入力認識誤りのF値を最大化するカテゴリであり,かつ,GitHubTypoCorpusでの入力誤り認識のF値を最大化するカテゴリとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果と考察}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{入力誤り訂正タスク(ベースライン)}JWTDの各カテゴリでfine-tuningし,各カテゴリのJWTDのテストセットで評価した結果を表\ref{table:each_category_score}に示す.ここで,「全て」はJWTD全てのカテゴリでfine-tuningしたモデルを,全てのカテゴリのテストセットを用いて評価した結果を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[p]\input{03table12.tex}\hangcaption{各カテゴリでfine-tuningしたモデルの,各カテゴリのJWTDテストセットにおける評価結果(値は\%).}\label{table:each_category_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[p]\input{03table13.tex}\caption{入力誤り評価データとGitHubTypoCorpusにおける入力誤り訂正評価結果(値は\%).}\label{table:gold_correction_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%全体を通して,BARTbaseよりもBARTlargeの方が高いスコアが得られた.BARTbaseの転字では正解が1つも得られなかった.これは学習データ・テストデータ数が不十分であることが理由として考えられる.衍字(b)はBARTbase,BARTlargeとも高いスコアであり,比較的簡単な訂正タスクであるといえる.一方で,誤変換(b)は衍字(b)より学習データサイズが大きいが,スコアが最も低く,最も難しいタスクであるといえる.入力誤り評価データとGitHubTypoCorpusにおける結果を表\ref{table:gold_correction_score}に示す.BARTlargeモデルは適合率71.4\%,再現率58.6\%であった.表\ref{table:eval_building_dataset_method_with_gold}のデータセット構築手法の適合率,再現率と比較して,十分高いスコアだと考えられる.GitHubTypoCorpusにおけるスコアは入力誤り評価データに比べて低かった.これはWikipediaとGitHubのcommitログではテキストのドメインが大きく異なることが原因であると考えられる.また,正解データの訂正とは異なるため不正解と扱われているが,正しい訂正だと考えられるものがいくつか見られた.それらを以下に示す.\systemeg{造物主であるフォルトゥナが存在する限り、何度\pre{もでも}復活する。}{造物主であるフォルトゥナが存在する限り、何度\post{でも}復活する。}{造物主であるフォルトゥナが存在する限り、何度\pre{も}復活する。}\systemeg{レオンが不在の間は帝国を守っ\pre{てて}いたが、クジンシーの襲撃の受け、...}{レオンが不在の間は帝国を守っ\post{て}いたが、クジンシーの襲撃の受け、...}{レオンが不在の間は帝国を守っ\post{て}いたが、クジンシーの襲撃\post{を}受け、...}\relativeidx{-2}は,訂正が異なるものの,システムの訂正も妥当な訂正だと考えられる.\relativeidx{-1}は,正解データに入力誤りが残っており,その入力誤りを訂正した例である.このような例が存在するため,実際の入力誤り訂正のスコアは表\ref{table:gold_correction_score}のものより高い可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{読みの同時学習}表\ref{table:gold_correction_score}に読みの同時学習を行ったモデルの入力誤り評価データとGitHubTypoCorpusでの評価結果を示す.ここで,「BARTbase(large)」はJWTDの全ての入力誤りデータを用いた入力誤り訂正タスクのみで学習したモデル,「BARTbase(large)w/原文$\to$読み」は原文から読みを推定するタスク,「BARTbase(large)w/読み$\to$原文」は読みから原文を推定するタスク,「BARTbase(large)w/両方向」はその両方を,入力誤り訂正タスクと同時に学習したモデルの結果を示している.漢字の読み推定タスクを同時学習したモデルは,ベースラインの結果に比べ,概ね,適合率は下がるが,再現率は上がる傾向が見られる.また,F値においても向上が見られる箇所もある.ただし,GitHubTypoCorpusにおけるBARTbaseの結果では,同時学習したモデルのスコアが下がっている.同時学習したモデルはベースラインのモデルよりも,アルファベット文字列での不必要な編集が多く見られた.そのため,アルファベット文字列を多く含むGitHubTypoCorpusにおいてその影響が大きく現れたのだと考えられる.読み推定の学習に用いたBCCWJのデータには,RADIOとラジオのように,アルファベット文字列にカタカナの読みが対応する場合があった.それらのデータによって,アルファベット文字列を編集するような学習がなされ,生成能力に悪影響が出たのではないかと考えられる.「w/原文$\to$読み」「w/読み$\to$原文」間で大きな差は見られず,これらと「w/両方向」の間にも大きな差は見られなかった.次に表\ref{table:kanji_conversion_score},\ref{table:mistype_conversion_score}にベースラインと漢字の読み推定を同時学習したモデルの,JWTDテストセットの誤変換カテゴリにおける評価結果を示す.ほぼ全てのスコアにおいて,ベースラインよりも読み推定を同時学習したモデルが高いスコアとなった.これより読み推定を同時に学習することは誤変換の訂正に有効であることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{03table14.tex}\caption{JWTDテストセットの誤変換(a)における入力誤り訂正評価結果(値は\%).}\label{table:kanji_conversion_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[t]\input{03table15.tex}\caption{JWTDテストセットの誤変換(b)における入力誤り訂正評価結果(値は\%).}\label{table:mistype_conversion_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ベースラインモデルが間違え,読み推定を同時学習したモデルが正解した入力誤りを以下に示す.ここで,「w/o読み」は「BARTlarge」,「w/読み」は「BARTlargew/原文$\to$読み」の出力結果を表している.\systemegy{...山頂、火口付近から、\pre{待つの木}のような形の暗い雲を見た。}{...山頂、火口付近から、\pre{待つ木}のような形の暗い雲を見た。}{...山頂、火口付近から、\post{松の木}のような形の暗い雲を見た。}{入力誤り}{w/o読み}{w/読み}\systemegy{XDarwinのより\pre{細菌}のバージョンはルートレース...}{XDarwinのより\pre{新しい}バージョンはルートレース...}{XDarwinのより\post{最近}のバージョンはルートレース...}{入力誤り}{w/o読み}{w/読み}正解の訂正である「待つ$\to$松」「細菌$\to$最近」という訂正をする文ペアは,誤変換(a)の学習データに含まれていた.しかし,ベースラインは\relativeidx{-2}では誤変換ではなく1文字を削除する衍字としての編集を行い,\relativeidx{-1}では正解とは異なる漢字へと編集を行ってしまっている\footnote{\relativeidx{-1}の「新しい」への訂正も,正しい訂正と考えられる.しかしながら,漢字の読みの編集距離に着目すると,「新しい」を誤って「細菌」と入力した可能性よりも,「最近」を誤って「細菌」と入力した可能性の方が高いと考えられる.その点では,入力誤りの訂正として「最近」への訂正の方がより適切な訂正であるといえる.}.一方で,読み推定を同時に学習したモデルはどちらも正解していた.読み推定の学習データには,「待つ」「松」「細菌」「最近」の読みを推定するデータが含まれていた.これらの読み推定の学習が,誤変換訂正の学習の手助けとなり,正解に繋がったのではないかと考えられる.以下のような,読み推定の学習データでは学習できない読みに関する誤変換訂正は,ベースラインが不正解の場合,同時学習したモデルにおいても不正解のままであった.\systemegz{...彼は警察にも\pre{全量}市民と評判の人物だったことから、...}{...彼は警察にも\post{善良}市民と評判の人物だったことから、...}{...彼は警察にも\post{全米}市民と評判の人物だったことから、...}{...彼は警察にも\post{全米}市民と評判の人物だったことから、...}{入力誤り}{正解}{w/o読み}{w/読み}モデルの入力トークン単位分割では,「全量」は「全量」,「善良」は「善良」,「全米」は「全/米」と分割される.読み推定の学習データに「善良」の読みを推定するデータは含まれていたが,「全量」の読みを推定するデータは含まれていなかった.この対処としては,読み推定の学習データを増やすことが考えられる.また,読み推定の学習データに「全量」の読みを推定するデータは含まれていないものの,「全」と「量」の読みを推定するデータは含まれていた.そのため,モデルの入力トークン単位が文字単位である場合は,本実験の読み推定の学習データのままで全量の読みを学習できる.入力トークン単位が文字単位である入力誤り訂正システムの構築は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{28-4ia3f3.pdf}\end{center}\hangcaption{疑似データ実験結果.縦軸が適合率・再現率・F値,横軸が学習データ中の疑似データの割合を表す(値は\%).}\label{fig:psuedo_result}\vspace{-0.75\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{疑似データの利用}実験結果を図\ref{fig:psuedo_result}に示す.評価には入力誤り評価データを用いた.図の実線を見ると,疑似データの利用による再現率の向上が見られる.しかし,適合率は疑似データの利用により低下し,F値にはあまり変化は見られないため,適合率と再現率はトレードオフになっているといえる.これらから,適合率より再現率を優先させたい場合には疑似データを利用することが有効であるといえる.また,疑似データを含むデータのみでfine-tuningしたモデルと,その後JWTDでfine-tuningしたモデルでは,適合率・再現率において両者のスコアに差がみられるが,F値においては大きな変化は見られなかった.点線の結果を見ると,疑似入力誤りの生成方法では,疑似入力誤りの割合が大きいとき,混合の結果がよいことが読み取れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{他の校正システムとの比較}入力誤り認識結果を表\ref{table:other_proofreading_systems_score}に示す.本研究のシステムが入力誤り評価データだけではなく,テキストドメインの異なるGitHubTypoCorpusにおいても,再現率・F値において高いスコアであることが確認できる.しかし,適合率においては,Wordよりも低い.より適合率の高いシステムを構築することは今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[b]\input{03table16.tex}\caption{入力誤り評価データとGitHubtypocorpusにおける入力誤り認識評価結果(値は\%).}\label{table:other_proofreading_systems_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[b]\input{03table17.tex}\par\vspace{-1\Cvs}\caption{入力誤り認識結果の実例.}\label{table:recog_exam}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%入力誤り認識結果の例を表\ref{table:recog_exam}に示す.誤変換以外の\relativeidx{-3}のような衍字などの入力誤りは,Wordが指摘できているものがあったが,\relativeidx{-2}のような誤変換は,本研究のシステムのみが指摘できているものが多かった.\relativeidx{-1}はJWTDでは収集していない編集距離の大きい入力誤りであり,本研究のシステムは指摘できておらず,今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table18\begin{table}[b]\input{03table18.tex}\caption{新聞データでの訂正箇所数.}\label{table:cleantext_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%新聞データを与えたときの訂正箇所数を表\ref{table:cleantext_score}に示す.Wordに比べて,本研究のシステムの訂正箇所が多かった.本研究のシステムであるBARTlargeが行った訂正は,半数が文字の抜けを指摘するものであった.それらは,以下のような,間違いではないが不必要な訂正であった.\typoexm{新聞}{システム}{...個別に栄養・食事指導した場合などは加算する。}{...個別に栄養・食事\post{を}指導した場合などは加算する。}\typoexm{新聞}{システム}{...同署は、状況などからひき逃げされたと断定、逃げた車を探している。}{...同署は、状況などからひき逃げされたと断定\post{し}、逃げた車を探している。}本研究のシステムは,実用の観点では,このような不必要な訂正の提案を減らすことが今後の課題といえる.これは,学習データに入力誤りを含まない文を用いることなどで改善すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conclusion}本研究では日本語Wikipediaの編集履歴から,入力誤りデータセットを構築する手法を提案した.文字単位の編集と漢字の読みを手がかりに,誤字・脱字・衍字・転字・誤変換の入力誤り候補をマイニングし,言語モデル等を用いたフィルタリングを行うことで,これらカテゴリの入力誤りを収集した.さらに,入力誤り訂正を学習したモデルを用いて,追加でその他の入力誤りを収集し,合計約70万文規模のデータセット(JWTD;JapaneseWikipediaTypoDataset)を構築した.JWTDの構築手法を評価し,その質を確認した.入力誤り訂正システムにおいては,入力誤り訂正タスクと同時に漢字の読み推定タスクを学習する手法を提案した.入力誤り訂正タスクのみで学習したシステムと提案手法のシステムを比較して,提案手法のシステムが誤変換の訂正において高い精度であることであることを確認した.また,JWTDの他に疑似データを学習データに追加したときのシステムの精度変化を確認した.今後の課題としては,まず,データセットの質をさらに高めることが挙げられる.これにより,同時に,訂正システムの精度向上につながると期待できる.データセットの質の向上には,フィルタリングの方法やその他の入力誤りの収集方法をより洗練することが有効であると考えられる.入力誤り訂正システムに関しては,異なるドメインのテキストにおいても頑健に振る舞うシステムの構築と不必要な編集の抑制が挙げられる.前者は事前学習時に多様なドメインのテキストを用いる方法,後者はfine-tuning時の学習データに入力誤りのないデータを加える方法が考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の内容の一部は,Proceedingsofthe58thAnnualMeetingoftheAssociationforComputationalLinguistics:StudentResearchWorkshopで発表したものである\cite{tanaka-etal-2020-building}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{田中佑}{%2019年京都大学工学部情報学科卒業.2021年同大学院情報学研究科修士課程修了.2021年よりNTTコミュニケーションズ株式会社に在職.}\bioauthor{村脇有吾}{%2011年京都大学大学院情報学研究科博士後期課程修了,博士(情報学).同年京都大学学術情報メディアセンター特定助教,2013年九州大学大学院システム情報科学研究院助教,2016年京都大学大学院情報学研究科助教,2020年同講師,現在にいたる.テキスト解析および計算言語学に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{河原大輔}{%1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構主任研究員,京都大学大学院情報学研究科准教授を経て,2020年より早稲田大学基幹理工学部情報通信学科教授.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{%1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\end{biography}\biodate\end{document}
V22N04-01
\section{はじめに} Googleに代表される現在の検索エンジンはその性能が非常によくなってきており,適切な検索用語(キーワード)さえ与えてやればおおむね期待通りの検索結果が得られる.しかし一方,多くのユーザ,特に子どもや高齢者,外国人などにとって検索対象を表す適切な検索用語(特に専門用語など)を見つけることは往々にしてそう簡単ではない.マイクロソフトの「現在の検索で不満に思う点」に関する調査\footnote{http://www.garbagenews.net/archives/1466626.htmlまたはhttp://news.mynavi.jp/news/2010/07/05/028/}によれば,57.6\%の人が適切なキーワード探しの難しさに不満を感じている.また,「何か欲しい情報を求めて検索エンジンを利用しているのに,それを利用するための適切なキーワードをまた別のところで探さねばならないという,堂々巡りをした経験を持つ人も多いはず」とも指摘されている.これは2010年の調査ではあるが,現在においてもこれらの不満点が大方解消されたとは言い難い.そこで,関連語・周辺語(たとえば「コンピュータ」,「前の状態」,「戻す」)またはそれらの語から構成される文を手掛かりに適切な検索用語(この場合「システム復元」)を予測・提示する検索支援システムがあればより快適な検索ができるのではないかと考えられる.本研究では,ITや医療など様々な分野において,これらの分野の関連語・周辺語またはそれらの語から構成される文を入力とし,機械学習を用いて適切な検索用語を予測・提示する検索支援システムの開発を目標としている.このような研究は,すくなくとも日本語においては我々が調べた限りではこれまでなされていなかった\footnote{類似研究として,「意味的逆引き辞書」に関する研究\cite{Aihara}や「クロスワードを解く」に関する研究\cite{Uchiki}がある.しかしこれらは分野ごとの検索用語の予測・提示に基づく検索支援を第一の目的としておらず,それゆえに,精度(正解率)は本研究で得られたものよりはるかに低かった.また,手法もLSIを利用した情報検索技術やエキスパートなどに基づくアプローチを取っており,本研究が取っている機械学習のアプローチとは異なる.}.本稿ではその第一歩として,分野をコンピュータ関連に限定し,深層学習(DeepLearning)の一種であるDeepBeliefNetwork(DBN)を用いた予測手法を提案する.近年,深層学習は様々な分野で注目され,音声認識~\cite{Li}や画像認識~\cite{Krizhevsky}のみならず,自然言語処理の諸課題への応用にも優れた性能を出している.それらの諸課題は,形態素・構文解析~\cite{Billingsley,Hermann,Luong,Socher:13a},意味処理~\cite{Hashimoto,Srivastava,Tsubaki},言い換え~\cite{Socher:11},機械翻訳~\cite{Auli,Liu,Kalchbrenner,Zou},文書分類~\cite{Glorot},情報検索~\cite{Salakhutdinov},その他~\cite{Seide,Socher:13b}を含む.さらに,統一した枠組みで品詞タグ付け・チャンキング・固有表現認識・意味役割のラベル付けを含む各種の言語処理課題を取り扱えるニューラルネットおよび学習アルゴリズムも提案されている~\cite{Collobert}.しかしながら,われわれの知っている限りでは,前に述べたような情報検索支援に関する課題に深層学習を用いた研究はこれまでなされていない.したがって,本稿で述べる研究は主に二つの目的を持っている.一つは,関連語・周辺語などから適切な検索用語を正確に予測する手法を提案することである.もう一つは,深層学習がこのような言語処理課題において,従来の機械学習手法である多層パーセプトロン(MLP)やサポートベクトルマシン(SVM)より優れているか否かを確かめることである.本研究に用いたデータはインターネットから精度保証がある程度できる手動収集と,ノイズ\footnote{ここのノイズとは,関係のない単語が含まれている,または必要な単語が欠落していることを指す.}は含まれるが規模の大きいデータの収集が可能な自動収集との2通りの方法で収集した.加えて,ある程度規模が大きく精度もよい疑似データも自動生成して用いた.機械学習のパラメータチューニングはグリッドサーチと交差検証を用いて行った.実験の結果,まず,学習データとして手動収集データのみを用いても自動収集データと疑似データを加えてもDBNの予測精度は用例に基づくベースライン手法よりははるかに高くMLPとSVMのいずれよりも高いことが確認できた.また,いずれの機械学習手法も,手動収集データにノイズの多い自動収集データとノイズの少ない疑似データを加えて学習することにより予測精度が向上した.さらに,手動収集データにノイズの多い自動収集データのみを加えて学習した場合,DBNとSVMには予測精度の向上が見られたがMLPにはみられなかった.この結果から,MLPよりもDBNとSVMのほうがノイズに強くノイズの多い学習データも有効利用できる可能性が高いと言えよう. \section{関連語・周辺語コーパス} \begin{table}[b]\caption{コーパスの入力とラベルのペアの例}\label{tab:example}\input{01table01.txt}\end{table}機械学習を用いて関連語・周辺語から検索用語を予測・提示する場合,その学習データとして,入力(関連語・周辺語)と正解となるレスポンス(検索用語)のペアからなるコーパスが必要となる.本稿ではこのようなコーパスを「関連語・周辺語コーパス」と呼ぶ.また,教師あり機械学習では,レスポンスをラベルと呼ぶ場合が多いので,本稿では検索用語をラベルと呼ぶ.表~\ref{tab:example}はコーパスの入力(関連語・周辺語とその元となる説明文書)とラベルのペアの例を示す.本章では,コーパスデータの収集・作成方法について述べる.また,収集・作成したデータからの関連語・周辺語の抽出方法と特徴ベクトルの構成方法について述べる.\subsection{手動収集と自動収集}本研究では,ラベルを説明している文書には関連語・周辺語が多く含まれると考え,インターネットからこのようなWebページを手動と自動の2通りの方法で収集した.手動収集では人手でラベルを説明するWebページを選別し収集する\footnote{人手でWebページを選別した後,そのWebページから説明文書として該当する箇所を人手で選別する処理を行っている.}.一方,自動収集では,ラベルの後に「とは」「は」「というものは」「については」「の意味は」の5語を付けて(たとえば,ラベルが「グラフィックボード」であれば「グラフィックボードとは」「グラフィックボードというものは」などで)Googleで検索したものを説明文書として収集する\footnote{収集したWebページ全体をそのラベルの説明文書として扱っている.}.手動収集データは規模が小さい代わりに精度が高く,自動収集データは精度が低い代わりに規模が大きい.\subsection{疑似データ}機械学習の汎化能力を向上させるために,学習データとして,精度は高いが規模が小さい手動収集データに加え,精度はそれほど高くない(つまり,ノイズはある)が相対的に規模の大きい自動収集データを用いることにした.しかし,自動収集したデータには説明文書とラベルがそもそも一致しない,つまり説明文書へのラベルが履き違えられている可能性も考えられる.そのために,手動で収集した説明文書をオリジナルのデータとしてとらえ,それらに適度なノイズを加えて作成した疑似データも用いることにした.このようなデータは自動収集したデータに比べノイズが少なくラベルの履き違いもないと考えることができる.疑似データの具体的な生成手順は以下の通りである.\begin{enumerate}\itemオリジナルの説明文書からすべての異なり単語を抽出する.\item個々のオリジナルの説明文書に対し,追加,削除,または追加\&削除の処理を加える.具体的には,手順(1)で抽出した単語のうち,説明文書にない単語を説明文書の単語数の10\%個ランダムに選んで加える,説明文書から単語を説明文書の単語数の10\%個ランダムに選んで削除する,または上記の(10\%ずつの)追加と削除を同時に施す,という処理を等確率(つまり,それぞれを1/3の確率)で行う\footnote{10\%という値は,予備実験などで精査して決めたものではなく,著者らが適度なノイズとして主観で設定したものである.}.\item手順(2)で得られたデータを疑似データとする.\end{enumerate}なお,この生成方法においては,1つのオリジナルの説明文書に対し,疑似データを複数生成することが可能である.\subsection{評価データ}評価データは学習データとは別に自動収集したものを用いる.ただし,自動収集データは,ラベルが正確とは限らないため,評価データとして用いても適切な評価とならない可能性がある.そのため,評価データとして自動収集データの中からラベルの正しいものを人手で選別して用いることにした.\subsection{関連語・周辺語抽出とベクトル変換}以下の手順(1)〜(4)で説明文書から関連語・周辺語を抽出する.それに手順(5)(6)を加えることにより,機械学習に必要な特徴ベクトルへの変換を行う.\begin{enumerate}\item手動収集のデータを形態素解析し,名詞(固有名詞,サ変接続,一般)を抽出する\footnote{形態素解析にMeCab0.98を使用した.未知語と表記ゆれについては特別な処理を施しておらず今後の課題となる.ただし,未知語としての複合語については,たとえば「木村製作所」や「株式会社ウエーブ」など大半の日本企業名の場合は(中小企業で社名としては未知語であっても)「木村」と「製作所」などがそれぞれ名詞として解析されているので,手順(2)にしたがって問題なく1つの既知単語として扱われる.一方,たとえば「騰迅公司」のような表現において,最初の漢字が名詞以外の品詞と判断された場合は1つの既知単語として正しく扱うことができない.また,表記ゆれについては,「サーバ」と「サーバー」,「神経回路」と「ニューラルネット」のような形態素解析ツールの辞書に登録されているものはそれぞれ異なる単語として扱われてしまい,予測性能を落とす可能性がある.}.\item名詞が連続しているならば,日本語同士なら結合し,英語同士なら空白を間に入れて結合し,1つの単語と見なす.\item各ラベルから出現頻度がトップ50以内の単語を抽出する\footnote{50という値は,手動で収集したデータにおいて各ラベルの関連語・周辺語の数は確実にそれ以下であることを確認した上で,提案手法の拡張性(つまり多少大きい目に)と機械学習の素性選択能力(つまり多少大きい目にしても問題がないこと)も考慮にいれて設定した.なお,この値は多少大きく設定されても手順(4)で絞られるので値をある程度大きい目に設定しておけば40がよいか60がよいかといった細かい選択はほとんど意味をなさないと思われる.}.\itemラベル間で重複している単語を除外する.本研究では,以下に述べる考えに基づき2ラベル間で重複する単語を除外する,または,3ラベル以上で共通する単語を除外するという2通りの方法を採用した.まず,各ラベルにできるだけ特徴的な単語のみを素性にするためには重複単語をできるだけ除外するのが効果的と考える.また,今回は実験規模が小さくあまり問題にならないが,予測用語の数の増加に伴う特徴ベクトル次元の大幅な増加を抑える1つの方法として重複単語を除外することが考えられる.特徴ベクトル次元の抑制はまた一般的に,学習におけるデータスパースネス問題の緩和にもつながる.しかし一方,ラベル間の単語重複をまったく認めないと,たとえば「USBメモリ」のような,「USB」や「メモリ」に共通する重要な単語を除外してしまう問題も考えられる.そのため,本研究では2ラベル間の重複を許容し3ラベル以上で共通する単語を除外する方法も用いる.\item上記手順で得られた単語をベクトルの要素とし,個々の要素はその単語が出現していれば1,出現していなければ0の2値を取る.\item2.1,2.2,2.3節で述べたすべてのデータに対し形態素解析を行い,手順(5)にしたがって特徴ベクトルに変換する.\end{enumerate} \section{深層学習} 深層学習とは従来の機械学習より深い層構造をしている機械学習手法全般のことを指す.その代表的な手法としてDeepBeliefNetwork(DBN)~\cite{Hinton,Lee,Bengio:09,Bengio:13}とStackedDenoisingAutoencoder(SdA)~\cite{Bengio:07,Bengio:09,Bengio:13,Vincent:08,Vincent:10}が提案されている.数多くの課題において,その両者の性能がほぼ同じと言われているが,本研究ではよりスマートなアーキテクチャを有するDBNを用いることにした.深層学習は,本来経験則で行っていた特徴抽出を機械学習に組み込もうとしてできたものである.そのため,DBNは,RestrictedBoltzmannMachine(RBM)を複数並べ教師なし学習の特徴抽出器として利用する多層のニューラルネットと,ラベルを出力する教師あり学習の最終層から構成される.特徴抽出器の教師なし学習はPre-training,最終層の教師あり学習はFine-tuningと呼ばれる.\subsection{RestrictedBoltzmannMachine(RBM)}RBMは制限付きボルツマンマシンとも呼ばれ,学習データの確率分布を教師なし学習で表現する(言い換えれば,学習データの生成モデルを統計的な機械学習の方法で構築する),一種の確率的なグラフィカルモデルである.本来のボルツマンマシンの可視層と隠れ層のユニット間の結合を制限することにより,効率的な教師なし学習を実現している.RBMの構造は図~\ref{fig_rbm}に示しているように可視層と隠れ層の2層から構成され,層内ユニット間に結合がなく,層間のユニット,すなわち可視ユニット($v_1,v_2,\cdots,v_m$)と隠れユニット($h_1,h_2,\cdots,h_n$),は結合されている.\begin{figure}[t]\begin{center}\includegraphics{22-4ia1f1.eps}\end{center}\caption{RestrictedBoltzmannMachineの構造}\label{fig_rbm}\vspace{-1\Cvs}\end{figure}以下,その学習アルゴリズム~\cite{Bengio:09}を簡潔に述べておく.学習データ$\bm{v}$が可視層に与えられたとき,まず,式(1),(2),そして再度(1)の順で条件付確率に基づくサンプリングを行う.{\allowdisplaybreaks\begin{gather}P(h_i^{(k)}=1|\bm{v}^{(k)})={\rmsigmoid}\bigg(\sum_{j=1}^mw_{ij}v_j^{(k)}+c_i\bigg)\\P(v_j^{(k+1)}=1|\bm{h}^{(k)})={\rmsigmoid}\bigg(\sum_{i=1}^nw_{ij}h_i^{(k)}+b_j\bigg)\end{gather}}ただし,$k$($\geq1$)はサンプリングの繰り返し回数,$\bm{v}^{(1)}=\bm{v}$,$w_{ij}$はユニット$v_j$と$h_i$間の結合の重み,そして,$b_j$と$c_i$は可視層と隠れ層のユニット$v_j$と$h_i$のオフセット(バイアス)である.サンプリングを$k$回行った後,重みとオフセットは以下のように更新される.\begin{gather}\bm{W}\leftarrow\bm{W}+\epsilon(\bm{h}^{(1)}\bm{v}^{T}-P(\bm{h}^{(k+1)}=1|\bm{v}^{(k+1)})\bm{v}^{(k+1)T})\\\bm{b}\leftarrow\bm{b}+\epsilon(\bm{v}-\bm{v}^{(k+1)})\\\bm{c}\leftarrow\bm{c}+\epsilon(\bm{h}^{(1)}-P(\bm{h}^{(k+1)}=1|\bm{v}^{(k+1)}))\end{gather}ただし,$\epsilon$は学習率である.$\bm{W}$は微小な乱数\footnote{本研究では,http://deeplearning.net/tutorial/mlp.htmlのチュートリアルに従って,区間[$-4\frac{\sqrt{6}}{\sqrt{m+n}}$,$4\frac{\sqrt{6}}{\sqrt{m+n}}$]内の一様乱数を用いる(ただし,$m$と$n$はそれぞれ可視層と隠れ層のユニット数である).その数学的な考えについては\cite{Glorot:10}を参照されたい.},$\bm{b}$,$\bm{c}$は$\bm{0}$で初期化する.サンプリングの繰り返し回数が十分多いときはGibbssamplingと呼ばれており計算コストが非常に高い.そのため,通常,サンプリングを$k$回のみ行う$k$-ContrastiveDivergence(略してCD-$k$)と呼ばれる方法が採用される.実際,$k=1$(CD-1)でも結果が十分よいことが経験的に知られており\cite{Bengio:09},本研究も$k=1$に設定して学習を行う.ここで$N$個の学習データに対しCD-$k$と呼ばれるサンプリング方法で$e$回繰り返し学習を行う手順を図~\ref{fig:procedure-RBM}にまとめる.学習が進むにつれ,可視層のサンプル\footnote{ここでは条件付確率の式(1)(2)に基づき生成されたデータをサンプルと呼んでいる.}$\bm{v}^{(k+1)}$が学習データ$\bm{v}$に近づいていく.\subsection{DeepBeliefNetwork(DBN)}図~\ref{fig_dbn}は一例として,三つのRBMと教師あり学習器から構成されるDBNを示す.ただし実際,DBNを構成するRBMの数は可変である.それらRBMはPre-trainingとも呼ばれ,教師なしの特徴抽出器として機能する.一方,教師あり学習器はFine-tuningとも呼ばれ,入力(図~\ref{fig_dbn}の場合はその入力から得られたRBM3の出力)とラベルのペア(つまり正解付学習データ)を学習することにより未知の入力に対しても適切なラベルを出力できるようになる.図に示しているように前方のRBMの隠れ層は後方のRBMの可視層となっている.ここでは簡便化のために,RBMの層(ただし入力層を除く)をDBNの隠れ層と見なす.つまり,図の例は三層の隠れ層のDBNである(隠れ層の数とRBMの数は同じであることに注意されたい).なお,教師あり学習はいろいろな方法で実現できるが,本稿ではロジスティク回帰を用いることにした.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{22-4ia1f2.eps}\end{center}\caption{RBMの学習手順}\label{fig:procedure-RBM}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{22-4ia1f3.eps}\end{center}\caption{DeepBeliefNetworkの例}\label{fig_dbn}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{22-4ia1f4.eps}\end{center}\caption{三つのRBMを持つDBNの学習手順}\label{fig:procedure-DBN}\end{figure}三つのRBMを持つDBNの学習手順を図~\ref{fig:procedure-DBN}にまとめる. \section{実験} \subsection{実験設定}\subsubsection{データ}\begin{table}[b]\caption{10個のラベルと各ラベルの入力(説明文書)の数とそれらの全ラベルに占める割合}\label{tab:dist}\input{01table02.txt}\vspace{-0.5\Cvs}\end{table}\begin{table}[b]\caption{学習用データセット}\label{tab:data}\input{01table03.txt}\end{table}学習と評価には10個のラベルとそれらの入力(説明文書)のペアから構成されるデータを用いた.表~\ref{tab:dist}はラベル名と各ラベルの入力(説明文書)の数とそれらの全ラベルに占める割合を示す\footnote{自動収集データにおいて各ラベルのデータ数に多少のバラつきがあるが,ある程度のバランスが取れている.}.ただし,学習データは,手動収集データをベースとし,そのベースとなるデータに異なる数の自動収集データと疑似データを加えることにより13個のデータセット(表~\ref{tab:data})を作成して用いた.表中のm300はベースとなるデータセットで手動で収集した300個のデータである.また,たとえばa2400は2,400個の自動収集データとm300で構成されたデータセット,p2400は2,400個の疑似データとm300から構成されたデータセット,そしてa2400p2400は2,400個の自動収集データ,2,400個の疑似データ,そしてm300から構成されたデータセットである.また,評価には学習データと異なる100個のデータを用いた.個々の説明文書は2.4節で述べた方法で,2ラベル間で重複する単語を除外する場合と3ラベル以上で共通する単語を除外する場合においてそれぞれ182と223次元の特徴ベクトルに変換される.\subsubsection{パラメータのチューニング}\begin{table}[b]\caption{グリッドサーチに用いるパラメータ}\label{tab:gs}\input{01table04.txt}\end{table}各種の機械学習の各学習データセットにおける最適なパラメータは,それぞれの学習データセットに対しグリッドサーチと5-fold交差検証を行って決定した.グリッドサーチに用いるパラメータの詳細は表~\ref{tab:gs}にまとめている.たとえば,DBNの入力が182次元の場合の構造(隠れ層)の欄に152-121-91がある.これは,そのDBNは182-{\bf152-121-91}-10という構造を持つ,ということを表している.ただし,数字182と10は入力層と出力層のユニット数であり,それぞれ特徴ベクトルの次元数とラベルの数に対応している.また,これら隠れ層のユニット数は恣意的にではなく,前半の3つについては線形等間隔に設定している.すなわち,入力層のユニット数(182)から,ピラミッド的に,最初の隠れ層のユニット数を$182\times5/6$(152),次の隠れ層のユニット数を$182\times4/6$(121),そして,最後の隠れ層のユニット数を$182\times3/6$(91)のように設定している.一方,後半の3つについては,Bengioの\cite{Bengio:12}の薦め,すなわち,過学習への対処が適切であれば隠れ層のユニット数は基本的に多いほどよい,ネットワーク構造は各層が同じサイズでよい場合が多い(ピラミッドまたは逆ピラミッドである必要はない)に基づき,すべての隠れ層のユニット数を入力層のユニット数の3/2倍であるように設定した.入力層のユニット数が223の場合も同様な考え方に基づいて設定した.DBNがMLPとSVMよりパラメータが多いため,同じ細かさのグリッドサーチで最適なパラメータを決めてしまうと,パラメータの多いDBNのほうが細かなチューニングができるため有利になる可能性がある.このようなバイアスをなくすために,MLPとSVMについてそのパラメータグリッドをより細かくし,MLPとSVMの探索すべきパラメータセットの数(つまり,パラメータの組み合わせの数)をDBNのそれと等しいかそれ以上にした.一方,MLPについては,構造,学習率,学習回数がDBNとまったく同じものも比較に用いた.本稿では後者をMLP1,前者をMLP2と呼ぶ.その結果,DBNとMLP2は同じく864通りのパラメータセット,SVM(Linear)とSVM(RBF)は900通りのパラメータセット,また,MLP1は72通りのパラメータセットを持つことになる.\subsubsection{ベースライン}\begin{figure}[b]\begin{center}\includegraphics{22-4ia1f5.eps}\end{center}\caption{ベースライン手法(Baseline1,Baseline2)およびその正解率算出のアルゴリズム}\label{fig:baseline}\end{figure}MLPとSVMに加え,用例に基づく手法をベースラインとして比較実験に加えた.これは,評価データを学習データの一つひとつと比較し,共通する単語のもっとも多い,または共通する単語数をその評価データの単語数で正規化した値がもっとも大きい学習データのラベルを評価データのラベルとする方法である.ここで両者をそれぞれBaseline1とBaseline2と呼ぶ.図~\ref{fig:baseline}は本手法および本手法による予測結果の正解率算出のアルゴリズムを示す.ただし,カウントに用いる単語は2.4節で述べた(1)〜(4)の手順に従って説明文書から抽出されたものである.\subsection{実験結果}\subsubsection{182次元の特徴ベクトルを使用した場合}図~\ref{fig:prec}は各機械学習において,異なる学習データセットを用いた場合の評価データへの予測精度を示す.ここでの精度は,各パラメータセットの交差検証誤差を昇順(小さい順)に並べたときの上位N個(ただしNは5から30まで可変)のパラメータセットを用いた場合の平均精度である.なお,本論文に用いられている平均精度はすべてマクロ平均で算出したものである.\begin{figure}[p]\begin{center}\includegraphics{22-4ia1f6.eps}\end{center}\hangcaption{交差検証誤差の昇順で上位N(5〜30)セットのパラメータを用いた場合の各機械学習の平均精度についての学習データセット間の比較(182次元の特徴ベクトルを用いた場合)}\label{fig:prec}\end{figure}図に示しているように,全般的に見れば,学習データセットa2400p2400を用いた場合(逆三角形マークの点線\footnote{点線と破線の違いに注意されたい.}),すなわち手動収集データに自動収集データと疑似データの両方を最も多く加えた場合,DBNとMLPは最高の精度,そしてSVMもほぼ最高の精度を出している\footnote{SVM(RBF)の場合,逆三角形マークの点線は四角形マークの点線と重ねていることに注意されたい.}.また,手動収集データに自動収集データと疑似データの両方を適度に加えた場合(点線)は,手動収集データのみの場合(星マークの太線)に比べ,DBNとMLPとSVM(RBF)の予測精度はおおむね向上している.しかしSVM(Linear)についてはそのような傾向は見られなかった\footnote{これはSVM(Linear)が線形分離可能なデータしか取り扱えないことに起因するものと思われる.}.さらに,手動収集データのみを用いた場合と,自動収集データと疑似データのどちらか一方のみを手動収集データに加えた場合について比べると,DBNとSVM(RBF)については自動収集データのみを加えた場合(実線),MLPについては疑似データのみを加えた場合(破線)のほうがそれぞれに精度の向上が見られた.自動収集データのほうが疑似データよりもノイズが多いことから,上記結果はDBNとSVM(RBF)のほうがMLPよりもノイズの多い学習データを有効利用できる可能性が高いことを示している.図~\ref{fig:cmp}は各機械学習間の評価データへの予測精度の比較を示す.ここでの精度は図~\ref{fig:prec}と同様,各パラメータセットの交差検証誤差を昇順に並べたときの上位N個(ただしNは5から30まで可変)のパラメータセットを用いた場合の平均精度である.学習データセットも図~\ref{fig:prec}のとまったく同じであるがそれらの詳細の明示は省略されている.ただし,各グラフの縦軸の範囲が統一されているため,グラフDBNvs.SVM(RBF)において,SVM(RBF)の精度が0.9未満なもの(計4本の線)が表示されていない(なお,すべての結果は図~\ref{fig:prec}には示されている).この図からはDBNのほう(実線)が他の機械学習(破線)より性能がよいことが一目瞭然にわかる.\begin{figure}[p]\begin{center}\includegraphics{22-4ia1f7.eps}\end{center}\hangcaption{交差検証誤差の昇順で上位N(5〜30)セットのパラメータを用いた場合の平均精度についての機械学習間の比較(182次元の特徴ベクトルを用いた場合)}\label{fig:cmp}\end{figure}\begin{table}[p]\caption{ベースラインの精度}\label{tab:baseline}\input{01table05.txt}\end{table}表~\ref{tab:baseline},\ref{tab:rst-top1},\ref{tab:rst-top5},\ref{tab:rst-top10}はそれぞれ,各学習データセットを用いた場合の,ベースラインの予測精度,交差検証誤差が最小のパラメータセットを用いた場合の予測精度,交差検証誤差を昇順に並べたときの上位5個,10個のパラメータセットを用いた場合の平均予測精度を示す.まず,機械学習とは対照的に,ベースライン手法では,ノイズの多い学習データを加えても(つまり,手動収集データに自動収集データのみを加えた場合と,自動収集データと疑似データの両方を加えた場合),予測精度の向上に役立たないばかりか,逆に,これらのデータは予測精度を大きく下げてしまった.次に,ほとんどの場合において,ベースラインの予測精度は機械学習のそれよりかなり低かった.また,ほとんどの場合において,DBNがすべての機械学習において最高の予測精度を出している(各学習セットにおいて各機械学習手法中の最高の精度は太字で表されている).\begin{table}[t]\hangcaption{交差検証誤差が最小のパラメータセットを用いたDBN,MLP,SVMの予測精度(182次元の特徴ベクトルを用いた場合)}\label{tab:rst-top1}\input{01table06.txt}\end{table}\begin{table}[t]\hangcaption{交差検証誤差を昇順に並べたときの上位5個のパラメータセットを用いたDBN,MLP,SVMの平均予測精度(182次元の特徴ベクトルを用いた場合)}\label{tab:rst-top5}\input{01table07.txt}\end{table}\subsubsection{223次元の特徴ベクトルを使用した場合}前節の実験結果はすでに提案手法の予測精度が従来の機械学習手法より高いことを示しただけでなく,学習データにおけるノイズに対する頑健性もある程度示せたと考える.しかし上記実験では,手動学習データのラベル間の重複単語を除外していたため,疑似データの作成時はそれらをノイズとして加えることができず,提案手法のノイズへの頑健性に疑問が残る.本節の実験は,2ラベル間の重複単語を残しているため,前節の実験よりも,より適切にノイズの頑健性を確認できると考える.\begin{table}[t]\hangcaption{交差検証誤差を昇順に並べたときの上位10個のパラメータセットを用いたDBN,MLP,SVMの平均予測精度(182次元の特徴ベクトルを用いた場合)}\label{tab:rst-top10}\input{01table08.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{22-4ia1f8.eps}\end{center}\hangcaption{交差検証誤差の昇順で上位N(5〜30)セットのパラメータを用いた場合の各機械学習の平均精度についての学習データセット間の比較(223次元の特徴ベクトルを用いた場合)}\label{fig:prec-add}\end{figure}図~\ref{fig:prec-add}は図~\ref{fig:prec}と同様,各機械学習において,異なる学習データセットを用いた場合の評価データへの予測精度を示す.DBNのグラフにおいて,すべての点線と2本の実線が星マークの太線(つまり手動データ)の上にあること,また,SVM(RBF)においてすべての点線と実線が星マークの太線の上にあることから,前の実験結果と同様,DBNとSVM(RBF)については疑似データを含めたノイズのある学習データの利用が有効であることが確認できる.一方,MLPとSVM(Linear)については,手動データの星マークの太線がほとんど一番上に位置していることから,疑似データを含めたノイズのある学習データの有効性がほとんど見られない.すなわち,MLPとSVM(Linear)のノイズに対する頑健性については,前節の実験結果よりも悪い結果となった(逆にDBNの優位性がより顕著になったとも言える).なお,182次元の特徴ベクトルを用いた実験結果ではa2400p2400を用いた場合(逆三角形マークの点線),すなわち手動収集データに自動収集データと疑似データの両方を最も多く加えた場合,DBNが最高の精度を出しているのに対し,本実験結果ではDBNはa600p600を用いた場合(正三角形マークの点線)に最高の精度を出している.これは,精度の高いデータに対し,加えてよいノイズのあるデータについては適正の数があるはずで,次元数が増えると個々の特徴ベクトルの本来のノイズの度合いが増強したため,ノイズデータの適正数が減少したと考えることができ,両者の結果は矛盾しないと思われる.\subsubsection{有意差検定}\begin{table}[b]\vspace{-0.5\Cvs}\hangcaption{交差検証誤差が最小のパラメータセットを用いた場合のDBNと他の手法との性能比較に関する両側符号検定とt検定の結果}\label{tab:test-top1}\input{01table09.txt}\vspace{4pt}\small数値はp値であり,有意水準10\%で有意に差があるものには*,有意水準5\%で有意に差があるものには**,有意水準1\%で有意に差があるものには***を付けている.\par\end{table}\begin{table}[b]\hangcaption{各学習データセットについて,それらにおける交差検証誤差を昇順に並べたときの上位10個のパラメータセットを用いた場合の平均予測精度についてのDBNと他の手法との性能比較に関する両側t検定の結果}\label{tab:test-top10}\input{01table10.txt}\small数値はp値であり,有意水準10\%で有意に差があるものには*,有意水準5\%で有意に差があるものには**,有意水準1\%で有意に差があるものには***を付けている.\par\end{table}交差検証誤差が最小のパラメータセットを用いた場合と,交差検証誤差を昇順に並べたときの上位10個のパラメータセットを用いた場合について,DBNと他の手法との性能の有意差検定を行った.交差検証誤差が最小のパラメータセットを用いた場合,各学習データセットについて単独で検定を行うとデータ数が少なすぎるため,各学習データセットの結果を1つにまとめて符号検定とt検定を行った.一方,交差検証誤差上位10個のパラメータセットを用いた場合は各学習データセットについて単独でt検定を行った.検定結果を表~\ref{tab:test-top1},\ref{tab:test-top10}に示す.これらの結果から,182次元と223次元の特徴ベクトルのいずれを用いても,多数の場合においてDBNが他の手法より有意に優れていることが確認できる.また,詳細をみると,たとえばa2400p2400の学習データセットについては182次元の特徴ベクトルを,a600p600/a1200p1200の学習データセットについては223次元の特徴ベクトルを用いたほうが有意差が顕著であることがわかり,特徴ベクトルの構成方法について,DBNと他の手法との性能差の観点からどれが一番よいかは一概に断言することができない\footnote{この結果については4.2.2節でも述べたように,ノイズデータについては適正の数があるはずであることと,次元数が増えると個々のベクトルの本来のノイズの度合いが増強する(よってノイズデータの適正数が減る)ことを合わせて考えれば両者の結果は矛盾しないと思われる.}.\begin{table}[t]\hangcaption{各学習データセットに対して交差検証誤差が最小のパラメータセットを用いた場合のラベルごとの全学習データセットにおける平均予測精度}\label{tab:label-prec}\input{01table11.txt}\end{table}最後に,参考として,各手法のラベル(検索語)ごとの予測精度(表~\ref{tab:label-prec})と,交差検証誤差が最小のパラメータセット(表~\ref{tab:parameter})を示しておく.表~\ref{tab:label-prec}から,182次元の「PCケース」を除き各ラベルへの予測精度にばらつきが小さいことがわかる.また,全般的にDBNのほうがほかの手法より各ラベルに対する予測精度がよいことがわかる.さらに,たとえばDBNの予測精度は182次元の場合のほうが10個中の6個のラベルについて223次元の場合に勝っており,182次元と223次元のどちらのほうがよいかが一概に言えないことがわかる.表~\ref{tab:parameter}には,隠れ層のユニット数が182次元で273,223次元で335が多く出現しており,隠れ層のユニット数は多いほうがよいというBengioの提言と合致している.\begin{table}[t]\caption{DBNの各学習データセットに対して交差検証誤差が最小のパラメータセット}\label{tab:parameter}\input{01table12.txt}\end{table} \section{本課題の意義について} 本研究では特定の分野の関連語・周辺語または説明文書を入力としたときの\pagebreak検索用語の予測・提示を行う検索支援を想定している.まず,説明文書による支援の意義は,たとえばThe5thNTCIRWorkshopMeetingonEvaluationofInformationAccessTechnologies:InformationRetrieval,QuestionAnsweringandCross-LingualInformationAccessのようなワークショップ型共同研究\cite{Ma}における長い文書を検索課題\footnote{検索課題例:AOLとタイムワーナー合併の影響に関する記事を探したい.AOL・タイムワーナー合併がインターネットとエンターテインメントというメディア産業に与える影響に関する意見を適合とする.AOL・タイムワーナー合併の展開についての記述は部分的に適合とする.総額と所有権転換の仕組みに関する情報は不適合とする.}としたタスクからも類推できる.つまり,たとえばユーザが関連語・周辺語もはっきりわからないときはその支援要求を文書の形で伝える(入力する)ニーズはあると考える.また一方,当然のことではあるが,本研究では,少数キーワード(関連語・周辺語)による検索用語の予測も期待している.実際,表~\ref{tab:keyword-prec}は,DBNについて,各学習データセットを用いた場合の,表~\ref{tab:keyword}に示す3関連語・周辺語($+1$ノイズ語)\footnote{これらのキーワードは予備実験も含め一切精査せずに著者らの知識に頼って手動収集のデータから関連語・周辺語・ノイズ語としてふさわしいものを主観で選んでいる.しかし当然なことではあるが,これらのキーワードはすべて誰にも知られている用語である保証はない(また,本実験の目的からしてそう保証する必要もない).}による全検索用語の平均予測精度を示している\footnote{当然のことではあるが,予測精度は用いるキーワードに大きく依存する.試しに10検索用語のうち6検索用語の関連語・周辺語を意識的に関連性の弱いものを選んで実験すると平均精度が8割程度までに下がった.}.実験はまだ小規模ではあるが,この結果は提案手法が少数キーワードによる支援も可能であることを示唆していると思われる.\begin{table}[t]\caption{予測に用いるキーワード}\label{tab:keyword}\input{01table13.txt}\end{table}\begin{table}[t]\caption{DBNの少数キーワードによる予測精度(223次元の特徴ベクトルを用いた場合)}\label{tab:keyword-prec}\input{01table14.txt}\end{table} \section{結び} 本稿では深層学習の代表的な手法であるDeepBeliefNetwork(DBN)を用いて\pagebreak関連語・周辺語またはそれらの語から構成される説明文書から適切な検索用語を予測する手法を提案した.DBNの有効性を確認するために,用例に基づくベースライン手法,多層パーセプトロン(MLP),およびサポートベクトルマシン(SVM)との比較を行った.学習と評価に用いるデータは手動と自動の2通りの方法でインターネットから収集した.加えて,自動生成した疑似データも用いた.各種機械学習の最適なパラメータはグリッドサーチと交差検証を行うことにより決めた.実験の結果,DBNの予測精度はベースライン手法よりはるかに高くMLPとSVMのいずれよりも高かった.また,手動収集データに自動収集のデータと疑似データを加えて学習することにより予測精度は向上した.さらに,よりノイズの多い学習データを加えてもDBNの予測精度はさらに向上した.しかしながらこの場合MLPの精度向上は見られなかった.このことから,DBNのほうがMLPよりもノイズの多い学習データを有効利用できることが分かった.なお,まだ少数の実験例しかなかったが,提案手法が少数キーワードによる支援も可能であることを示唆した実験結果も得られた.今後はより大規模な評価実験を通じ,提案手法の有効性の確認を行うとともに,様々な分野における実用的な検索用語の予測システムを構築していく予定である.\acknowledgment本稿に対して丁寧かつ有益なご意見ご指摘をいただきました査読者の方に感謝いたします.本稿の内容の一部は,The28thPacificAsiaConferenceonLanguage,InformationandComputing(Paclic28)で発表したものです\cite{Ma:14}.また,本研究はJSPS科研費25330368の助成を受けています.記して謝意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{粟飯原\JBA長尾\JBA田中}{粟飯原\Jetal}{2013}]{Aihara}粟飯原俊介\JBA長尾真\JBA田中久美子\BBOP2013\BBCP.\newblock意味的逆引き辞書『真言』.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\406--409}.\bibitem[\protect\BCAY{Auli,Galley,Quirk,\BBA\Zweig}{Auliet~al.}{2013}]{Auli}Auli,M.,Galley,M.,Quirk,C.,\BBA\Zweig,G.\BBOP2013\BBCP.\newblock\BBOQJointLanguageandTranslationModelingwithRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1044--1054}.\bibitem[\protect\BCAY{Bengio}{Bengio}{2009}]{Bengio:09}Bengio,Y.\BBOP2009\BBCP.\newblock\BBOQLearningDeepArchitecturesforAI.\BBCQ\\newblock{\BemFoundationsandTrendsinMachineLearning},{\Bbf2}(1),\mbox{\BPGS\1--127}.\bibitem[\protect\BCAY{Bengio}{Bengio}{2012}]{Bengio:12}Bengio,Y.\BBOP2012\BBCP.\newblock\BBOQPracticalRecommendationsforGradient-BasedTrainingofDeepArchitectures.\BBCQ\\newblock{\BemeprintarXiv:1206.5533},\mbox{\BPGS\1--33}.\bibitem[\protect\BCAY{Bengio,Courville,\BBA\Vincent}{Bengioet~al.}{2013}]{Bengio:13}Bengio,Y.,Courville,A.,\BBA\Vincent,P.\BBOP2013\BBCP.\newblock\BBOQRepresentationLearning:AReviewandNewPerspectives.\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence},{\Bbf35}(8),\mbox{\BPGS\1798--1828}.\bibitem[\protect\BCAY{Bengio,Lamblin,Popovici,\BBA\Larochelle}{Bengioet~al.}{2007}]{Bengio:07}Bengio,Y.,Lamblin,P.,Popovici,D.,\BBA\Larochelle,H.\BBOP2007\BBCP.\newblock\BBOQGreedyLayer-wiseTrainingofDeepNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems19(NIPS2006)},\mbox{\BPGS\153--160}.\bibitem[\protect\BCAY{Billingsley\BBA\Curran}{Billingsley\BBA\Curran}{2012}]{Billingsley}Billingsley,R.\BBACOMMA\\BBA\Curran,J.\BBOP2012\BBCP.\newblock\BBOQImprovementstoTraininganRNNParser.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalConferenceonComputationalLinguistics(COLING2012)},\mbox{\BPGS\279--294}.\bibitem[\protect\BCAY{Collobert,Weston,Bottou,Karlen,Kavukcuoglu,\BBA\Kuksa}{Collobertet~al.}{2011}]{Collobert}Collobert,R.,Weston,J.,Bottou,L.,Karlen,M.,Kavukcuoglu,K.,\BBA\Kuksa,P.\BBOP2011\BBCP.\newblock\BBOQNaturalLanguageProcessing(Almost)fromScratch.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf12},\mbox{\BPGS\2493--2537}.\bibitem[\protect\BCAY{Glorot\BBA\Bengio}{Glorot\BBA\Bengio}{2010}]{Glorot:10}Glorot,X.\BBACOMMA\\BBA\Bengio,Y.\BBOP2010\BBCP.\newblock\BBOQUnderstandingtheDifficultyofTrainingDeepFeedforwardNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonArtificialIntelligenceandStatistics(AISTATS2010)},\mbox{\BPGS\249--256}.\bibitem[\protect\BCAY{Glorot,Bordes,\BBA\Bengio}{Glorotet~al.}{2011}]{Glorot}Glorot,X.,Bordes,A.,\BBA\Bengio,Y.\BBOP2011\BBCP.\newblock\BBOQDomainAdaptationforLarge-ScaleSentimentClassification:ADeepLearningApproach.\BBCQ\\newblockIn{\BemProceedingsofthe28thInternationalConferenceonMachineLearning(ICML2011)},\mbox{\BPGS\513--520}.\bibitem[\protect\BCAY{Hashimoto,Miwa,Tsuruoka,\BBA\Chikayama}{Hashimotoet~al.}{2013}]{Hashimoto}Hashimoto,K.,Miwa,M.,Tsuruoka,Y.,\BBA\Chikayama,T.\BBOP2013\BBCP.\newblock\BBOQSimpleCustomizationofRecursiveNeuralNetworksforSemanticRelationClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1372--1376}.\bibitem[\protect\BCAY{Hermann\BBA\Blunsom}{Hermann\BBA\Blunsom}{2013}]{Hermann}Hermann,K.~M.\BBACOMMA\\BBA\Blunsom,P.\BBOP2013\BBCP.\newblock\BBOQTheRoleofSyntaxinVectorSpaceModelsofCompositionalSemantics.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\894--904}.\bibitem[\protect\BCAY{Hiton,Osindero,\BBA\Teh}{Hitonet~al.}{2006}]{Hinton}Hiton,G.~E.,Osindero,S.,\BBA\Teh,Y.\BBOP2006\BBCP.\newblock\BBOQAFastLearningAlgorithmforDeepBeliefNets.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf18},\mbox{\BPGS\1527--1554}.\bibitem[\protect\BCAY{Kalchbrenner\BBA\Blunsom}{Kalchbrenner\BBA\Blunsom}{2013}]{Kalchbrenner}Kalchbrenner,N.\BBACOMMA\\BBA\Blunsom,P.\BBOP2013\BBCP.\newblock\BBOQRecurrentContinuousTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1700--1709}.\bibitem[\protect\BCAY{Krizhevsky,Sutskever,\BBA\Hinton}{Krizhevskyet~al.}{2012}]{Krizhevsky}Krizhevsky,A.,Sutskever,I.,\BBA\Hinton,G.~E.\BBOP2012\BBCP.\newblock\BBOQImageNetClassificationwithDeepConvolutionalNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems25(NIPS2012)},\mbox{\BPGS\1097--1105}.\bibitem[\protect\BCAY{Lee,Grosse,Ranganath,\BBA\Ng}{Leeet~al.}{2009}]{Lee}Lee,H.,Grosse,R.,Ranganath,R.,\BBA\Ng,A.~Y.\BBOP2009\BBCP.\newblock\BBOQConvolutionalDeepBeliefNetworksforScalableUnsupervisedLearningofHierarchicalRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonMachineLearning(ICML2009)},\mbox{\BPGS\609--616}.\bibitem[\protect\BCAY{Li,Zhao,Jiang,Zhang,Wang,Gonzalez,Valentin,\BBA\Sahli}{Liet~al.}{2013}]{Li}Li,L.,Zhao,Y.,Jiang,D.,Zhang,Y.,Wang,F.,Gonzalez,I.,Valentin,E.,\BBA\Sahli,H.\BBOP2013\BBCP.\newblock\BBOQHybridDeepNeuralNetwork-HiddenMarkovModel(DNN-HMM)BasedSpeechEmotionRecognition.\BBCQ\\newblockIn{\BemProceedingsofHumaineAssociationConferenceonAffectiveComputingandIntelligentInteraction(ACII2013)},\mbox{\BPGS\312--317}.\bibitem[\protect\BCAY{Liu,Watanabe,Sumita,\BBA\Zhao}{Liuet~al.}{2013}]{Liu}Liu,L.,Watanabe,T.,Sumita,E.,\BBA\Zhao,T.\BBOP2013\BBCP.\newblock\BBOQAdditiveNeuralNetworksforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\791--801}.\bibitem[\protect\BCAY{Luong,Socher,\BBA\Manning}{Luonget~al.}{2013}]{Luong}Luong,T.,Socher,R.,\BBA\Manning,C.\BBOP2013\BBCP.\newblock\BBOQBetterWordRepresentationswithRecursiveNeuralNetworksforMorphology.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\104--113}.\bibitem[\protect\BCAY{Ma,Nakao,\BBA\Murata}{Maet~al.}{2005}]{Ma}Ma,Q.,Nakao,K.,\BBA\Murata,M.\BBOP2005\BBCP.\newblock\BBOQSingleLanguageInformationRetrievalatNTCIR-5.\BBCQ\\newblockIn{\BemProceedingsoftheFifthNTCIRWorkshopMeetingonEvaluationofInformationAccessTechnologies:InformationRetrieval,QuestionAnsweringandCross-LingualInformationAccess},\mbox{\BPGS\39--43}.\bibitem[\protect\BCAY{Ma,Tanigawa,\BBA\Murata}{Maet~al.}{2014}]{Ma:14}Ma,Q.,Tanigawa,I.,\BBA\Murata,M.\BBOP2014\BBCP.\newblock\BBOQRetrievalTermPredictionUsingDeepBeliefNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe28thPacificAsiaConferenceonLanguage,InformationandComputing(Paclic28)},\mbox{\BPGS\338--347}.\bibitem[\protect\BCAY{内木\JBA佐藤\JBA駒谷}{内木\Jetal}{2013}]{Uchiki}内木賢吾\JBA佐藤理史\JBA駒谷和範\BBOP2013\BBCP.\newblock日本語クロスワードを解く:性能向上の検討.\\newblock\Jem{2013年度人工知能学会全国大会}.\bibitem[\protect\BCAY{Salakhutdinov\BBA\Hinton}{Salakhutdinov\BBA\Hinton}{2009}]{Salakhutdinov}Salakhutdinov,R.\BBACOMMA\\BBA\Hinton,G.~E.\BBOP2009\BBCP.\newblock\BBOQSemanticHashing.\BBCQ\\newblock{\BemInternationalJournalofApproximateReasoning},{\Bbf50}(7),\mbox{\BPGS\969--978}.\bibitem[\protect\BCAY{Seide,Li,\BBA\Yu}{Seideet~al.}{2011}]{Seide}Seide,F.,Li,G.,\BBA\Yu,D.\BBOP2011\BBCP.\newblock\BBOQConversationalSpeechTranscriptionUsingContext-DependentDeepNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsof12thAnnualConferenceoftheInternationalSpeechCommunicationAssociation(INTERSPEECH2011)},\mbox{\BPGS\437--440}.\bibitem[\protect\BCAY{Socher,Bauer,Manning,\BBA\Ng}{Socheret~al.}{2013}]{Socher:13a}Socher,R.,Bauer,J.,Manning,C.~D.,\BBA\Ng,A.~Y.\BBOP2013\BBCP.\newblock\BBOQParsingwithComputationalVectorGrammars.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\455--465}.\bibitem[\protect\BCAY{Socher,Huang,Pennington,Ng,\BBA\Manning}{Socheret~al.}{2011}]{Socher:11}Socher,R.,Huang,E.~H.,Pennington,J.,Ng,A.~Y.,\BBA\Manning,C.~D.\BBOP2011\BBCP.\newblock\BBOQDynamicPoolingandUnfoldingRecursiveAutoencodersforParaphraseDetection.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems24(NIPS2011)},\mbox{\BPGS\801--809}.\bibitem[\protect\BCAY{Socher,Perelygin,Wu,\BBA\Chuang}{Socheret~al.}{2013}]{Socher:13b}Socher,R.,Perelygin,A.,Wu,J.~Y.,\BBA\Chuang,J.\BBOP2013\BBCP.\newblock\BBOQRecursiveDeepModelsforSemanticCompositionalityOveraSentimentTreebank.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1631--1642}.\bibitem[\protect\BCAY{Srivastava,Hovy,\BBA\Hovy}{Srivastavaet~al.}{2013}]{Srivastava}Srivastava,S.,Hovy,D.,\BBA\Hovy,E.~H.\BBOP2013\BBCP.\newblock\BBOQAWalk-BasedSemanticallyEnrichedTreeKernelOverDistributedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1411--1416}.\bibitem[\protect\BCAY{Tsubaki,Duh,Shimbo,\BBA\Matsumoto}{Tsubakiet~al.}{2013}]{Tsubaki}Tsubaki,M.,Duh,K.,Shimbo,M.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQModelingandLearningSemanticCo-CompositionalitythroughPrototypeProjectionsandNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\130--140}.\bibitem[\protect\BCAY{Vincent,Larochelle,Bengio,\BBA\Manzagol}{Vincentet~al.}{2008}]{Vincent:08}Vincent,P.,Larochelle,H.,Bengio,Y.,\BBA\Manzagol,P.~A.\BBOP2008\BBCP.\newblock\BBOQExtractingandComposingRobustFeatureswithDenoisingAutoencoders.\BBCQ\\newblockIn{\BemProceedingsofthe25thInternationalConferenceonMachineLearning(ICML2008)},\mbox{\BPGS\1096--1103}.\bibitem[\protect\BCAY{Vincent,Larochelle,Lajoie,Bengio,\BBA\Manzagol}{Vincentet~al.}{2010}]{Vincent:10}Vincent,P.,Larochelle,H.,Lajoie,I.,Bengio,Y.,\BBA\Manzagol,P.~A.\BBOP2010\BBCP.\newblock\BBOQStackedDenoisingAutoencoders:LearningUsefulRepresentationsinaDeepNetworkwithaLocalDenoisingCriterion.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf11},\mbox{\BPGS\3371--3408}.\bibitem[\protect\BCAY{Zou,Socher,Cer,\BBA\Manning}{Zouet~al.}{2013}]{Zou}Zou,W.~Y.,Socher,R.,Cer,D.~M.,\BBA\Manning,C.~D.\BBOP2013\BBCP.\newblock\BBOQBilingualWordEmbeddingsforPhrase-BasedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1393--1398}.\end{thebibliography}\begin{biography}\bioauthor{馬青}{1983年北京航空航天大学自動制御学科卒業.1987年筑波大学大学院修士課程理工学研究科理工学専攻修了.1990年同大学院博士課程工学研究科電子・情報工学専攻修了.工学博士.郵政省通信総合研究所・独立行政法人通信総合研究所(現国立研究開発法人情報通信研究機構)主任研究官・主任研究員を経て,2003年4月より,龍谷大学理工学部教授.自然言語処理,機械学習の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本神経回路学会,各会員.}\bioauthor{谷河息吹}{2013年龍谷大学数理情報学科卒業.2015年龍谷大学大学院理工学研究科数理情報学専攻修士課程修了.人工知能学会員.}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1997年同大学院工学研究科電子通信工学専攻博士課程修了.博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.独立行政法人情報通信研究機構主任研究員を経て,2010年4月より,鳥取大学大学院工学研究科情報エレクトロニクス専攻教授.自然言語処理,情報抽出の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,計量国語学会,各会員.}\end{biography}\biodate\end{document}
V30N02-17
\section{はじめに} 「渋滞」という単語はもともと\mbox{\ctext{1}\ctext{2}}のように「物事が停滞する」の意味で使用されていた.しかし自動車交通網の発展に伴い,1960年代頃から\ctext{3}\ctext{4}のように「交通渋滞」を意味する単語となった.\begin{itemize}\item[\ctext{1}]英國ハ年來斯好慣アリテ内閣ノ更迭セルタメ\underline{國務ノ{\bf澀滯}}ヲ來シタル\UTF{30FF}甚ダ少シト雖モ\item[]\begin{flushright}(1862年,朝比奈知泉『政黨内閣は果して國家永久の長計なるか』,国民之友$\langle$29$\rangle$)\footnote{中納言ID:60M国民1888\_29005(コーパス検索アプリケーション『中納言』(\url{https://chunagon.ninjal.ac.jp/})でこのサンプルIDを指定すると当該の用例を閲覧できる)}\end{flushright}\item[\ctext{2}]課長の一人や局長の半分ぐらゐ缺けてゐたとて\underline{事務に{\bf澁滯}を來たす}やうな憂ひもあるまいが、\item[]\begin{flushright}(1925年,古島一雄『役人となつての感想』,太陽$\langle$1925-9$\rangle$)\footnote{中納言ID:60M太陽1925\_09013}\end{flushright}\item[\ctext{3}]出勤したニューヨーク市民は、ふだんより多いくらいで、\underline{道路は大{\bf渋滞}}、という有様になったのです。\item[]\begin{flushright}(1975年,磯村尚徳『ちょっとキザですが』)\footnote{中納言ID:OB0X\_00030}\end{flushright}\item[\ctext{4}]高速道路入口付近で\underline{{\bf渋滞}}にまき込まれた。\item[]\begin{flushright}(1984年,安部公房『方舟さくら丸』)\footnote{中納言ID:OB2X\_00207}\end{flushright}\end{itemize}単語の意味や用法は時代や社会環境とともに現在も変化し続けている.\textbf{意味変化}と呼ばれるこの現象には,さまざまなパターンがある.前述の「渋滞」は意味する対象が狭くなる変化(物事が停滞する→交通渋滞)だったが,より広い対象を意味するように変わるパターンもある.例えば明治・大正期の用例を見ると「柔軟」は「羊の毛の柔軟」や「柔軟なるゴム」のように物理的な柔軟性を表していた.しかし現代に向かうにつれ「柔軟な姿勢」のように概念的なやわらかさを表す用例が増加する.さらに,良い意味・中立的な意味だった言葉が悪い意味で使われる変化もある.「貴様」は中・近世では敬意で用いられていたが,近世末になると目下の者への罵りの言葉に変化した.\citeA{Bloomfield-1933}によると意味変化の要因には{\bf文化的な要因}と{\bf言語的な要因}の\mbox{2つ}がある.文化的な要因は,新技術の登場や病気の大流行など社会的・文化的な事柄に起因し,急激な変化となることが多い.近年の例では,自然現象,ビールの銘柄や会社の名前だった「コロナ」が数年で「新型肺炎」としての用例を急増させた.一方,言語的な要因は特定の事柄に起因しない規則的な変化で,比較的ゆっくりと起こる.例えば\ctext{5}\ctext{6}に示す「やばい」のように,否定の意味を持っていた単語が反対の肯定的な意味で使われ出すパターンが言語的な要因である.こうした意味変化は特定の言語に限らず,さまざまな言語で起こっている\cite{hamilton-etal-2016-cultural,hou-etal-2020-language,rodina-kutuzov-2020-rusemshift}.\begin{itemize}\item[\ctext{5}]物色時間は,長いと\underline{\bfやばい}ので3分くらいだ。\item[]\begin{flushright}(1977年,警察庁『警察白書』)\footnote{中納言ID:OW1X\_00102}\end{flushright}\item[\ctext{6}]\underline{\bfやばい}ぐらい可愛くて、かっこよくて・・あなたのしぐさ、言葉、表情一つ一つにトキメイてしまう。\item[]\begin{flushright}(2008年,Yahoo!ブログ)\footnote{中納言ID:OY14\_29685}\end{flushright}\end{itemize}上記の\ctext{1}~\ctext{6}は語義が変化した典型的な意味変化である.本研究では,語義の変化と意味変化という単語を使い分ける.語義の変化は文字通り,ある語義から別の語義への変化であるが意味変化は語義の変化に限らない.例えば「尋常」という単語の変化を見ると,語義は「普通」のままだが否定的な文脈で出現する用法の変化が起きている.このように{\bfある単語特有(または少数の単語で特有)の用法の変化}も含めた広い概念として意味変化を扱う.一方で,{\bfある単語特有でない用法の変化}は意味変化としない.例えば,「複合名詞としての出現が増加(減少)」や「近代から現代にかけて動詞の基本形を名詞的に扱う用法\footnote{「支払うをす」(支払いをする,の意味)が例である.}が消失」のような変化は意味変化としない.本研究における意味変化前後の語義や用法の判断基準は\ref{eval}節で述べる.以降,意味変化前の語義や用法を{\bf原義},意味変化後の語義や用法を{\bf転義}とよぶ.意味変化は主に言語学や辞書学で研究されてきた.また,言語を社会的な観点から捉える点で社会学でも扱われる\cite{10.1093/oxfordhb/9780199641604.013.026}.工学分野では自然言語処理が情報工学的知見を活かし,\linebreak意味変化している単語の自動検出({\bf意味変化検出})手法の開発や,意味変化を分析する統計的手法を提案している.これらの手法を使えば,これまで認知されてこなかった過去に意味変化していた語の発見,現在起こりつつある変化の捕捉,未来に起り得る変化の予測が可能になる.意味変化検出の研究では,出現文脈に依存しない単語ベクトルを用いた手法と出現文脈に依存した単語ベクトルを用いた手法が提案されている\footnote{「文脈」という表現は非常に曖昧であるが,本稿ではベクトル化の際にモデルへ入力する対象単語を含む文や文書を「文脈」とよぶ.モデルへの入力が文であればその文全体が文脈であり,文書であればその文書全体が「文脈」である.}$^{,}$\footnote{陽にベクトル化を使わない意味変化検出手法もあるが,単語を数理モデルで扱う都合,一般化すると文脈非依存もしくは文脈依存なベクトル化として定式化できる.}.出現文脈に依存しない単語ベクトル獲得手法の代表例はword2vecである.word2vecは1つの単語を出現文脈によらず1つのベクトル値で表現する.出現文脈に依存しない単語ベクトルを用いた手法を本稿では{\bf文脈非依存}の手法とよぶ.一方,出現文脈に依存した単語ベクトルの獲得手法ではBERTやELMoが代表的である.BERTやELMoは同じ単語でも出現文脈が変われば,文脈に応じた異なるベクトル値で表現する.出現文脈に依存する単語ベクトルを用いた手法を本稿では{\bf文脈依存}の手法とよぶ.意味変化の検出が目的であれば,文脈非依存の手法でも問題ない.しかし文脈非依存の手法は対象単語のあらゆる出現(語義・用法)をまとめて1つのベクトルで表現する.そのため,個々の出現を十分に議論できず,意味変化を語義や用法ごとに観察する{\bf意味変化の分析}($\neq$検出)には適さない.一方,文脈依存の手法では対象単語のすべての出現に1つずつ異なる値のベクトルを作成する.これを何かしらの手法でグルーピングすれば,出現文脈に応じた語義や用法のクラスタが形成されることが期待できる.それらのクラスタの出現比率を時期ごとに算出することで語義レベルで意味変化を観測できる.本稿の目的は意味変化の分析であるため,文脈依存の手法を採用する.意味変化の分析手法として\citeA{hu-etal-2019-diachronic}と\citeA{giulianelli-etal-2020-analysing}は英語ドメインで文脈依存の手法を提案している.いずれの研究でも対象単語の文脈依存ベクトルを集めてグルーピングし,各グループの時期別出現比率を比較することで意味変化の分析を行なっている.両者の違いはグルーピング手法である.\citeA{hu-etal-2019-diachronic}は辞書に書かれた語義と例文を教師データとし,近傍法で語義クラスタの形成を試みた.\citeA{giulianelli-etal-2020-analysing}は教師データを使わず,教師なしクラスタリングのみで用法クラスタの形成を試みた.いずれも英語が対象のため,他言語での有効性は検証されていない.自然言語処理における意味変化の研究には,通時的なコーパスと対応する期間中に意味変化した語のリストおよび実際に意味変化したことを示す論拠が必要であるが,計算機上で利用できる資源の整備が進んでいないのが現状である.意味変化検出の研究は\citeA{schlechtweg-etal-2020-semeval}が公開したデータセットに含まれる英語,ラテン語,ドイツ語,スウェーデン語が主流であるが,日本語では共通に研究利用できる言語資源が限られ,利用範囲にも制限があるため,研究も前述の語族に比べて少ない.日本語で意味変化検出を行なった研究として\citeA{aida-etal-2021-paclic}があり,数単語の分析を行なっているが,単語の各語義や用法を中心とした包括的な分析は行われていない.以上を踏まえ,本研究では日本語を対象とし,以下の実験と分析を行なった.意味変化の分析の観点で,\citeA{hu-etal-2019-diachronic}の辞書を用いた手法と\citeA{giulianelli-etal-2020-analysing}のクラスタリングを用いた手法の日本語ドメインでの有効性を複数条件下で比較・検証した.また,BERTやELMoの文脈依存の手法の意味変化検出では,fine-tuningで検出精度が向上する報告があるため\cite{kutuzov-giulianelli-2020-uio},現代語で事前学習されたBERTをfine-tuningし,その影響を検証した.以上の結果,日本語では辞書を使った手法よりも教師なしクラスタリング,特に$k$-means法を使った手法が意味変化の分析に適していることが分かった.また,現代語BERTをfine-tuningすることで,現代では使わないような古い用法でも意味変化を捉えるようになること,その一方で古い時期では使われていなかった現代の用法がノイズになるケースがあることが分かった.本研究の貢献は以下の3つである.\begin{itemize}\item2つの意味変化分析手法(辞書ベースの教師ありグルーピング手法\cite{hu-etal-2019-diachronic}と教師なしのクラスタリング手法\cite{giulianelli-etal-2020-analysing})の比較と適用方法の検討\item日本語を対象としたBERTによるベクトル化を用いた意味変化の詳細な分析\itemfine-tuningが文脈依存の手法に及ぼす影響の調査\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文脈依存の単語ベクトル化}現在までに様々な単語のベクトル化手法が提案されているが,単語タイプごとに1つのベクトル値を与える方法と単語トークンごとに出現文脈に応じたベクトル値を与える方法の2つに大別できる.単語タイプごとにベクトル化する方法としてword2vec\cite{mikolov-2013}やfastText\footnote{\url{https://fasttext.cc/}}があるが,これらの手法は単語の出現文脈に応じたベクトル化をしない文脈非依存な手法である.本研究では語義や用法の変化を扱うために出現文脈ごとに異なる値のベクトルを得る必要があり,単語タイプごとのベクトル化手法(文脈非依存の手法)は適さない.以降,本節では単語トークンごとに出現文脈に応じたベクトルを与える手法(文脈依存の手法)について先行研究を紹介する.\citeA{schutze-1998-automatic}では,単語の共起情報を利用して文脈依存ベクトルを獲得する手法を提案した.彼らはそのベクトルをクラスタリングすることで語義クラスタを形成し,語義曖昧性解消や情報検索での利用を試みた.\citeA{erk-pado-2010-exemplar}の事例ベースモデル(Exemplar-BasedModels)や\citeA{melamud-etal-2016-context2vec}のLSTMと多層パーセプトロンを使用した手法も提案されている.近年では,深層学習を用いた事前学習済み言語モデルから文脈依存な単語ベクトルを獲得する手法が注目されている.代表的な事前学習済み言語モデルとして,ELMo\cite{peters-etal-2018-deep},BERT\cite{devlin-etal-2019-bert},GPT\cite{Radford2018ImprovingLU}などがある.GPTでは前の文脈のみを考慮した学習が行われるのに対し,ELMoやBERTでは前後の文脈を考慮した学習が行われる.本研究の実験は,文全体を利用できる設定で行うため,文脈依存な単語ベクトルを獲得する手法として,ELMoやBERTがより適している.ELMoは双方向のLSTMを用いたモデルであり,BERTはTransformer\cite{vaswani2017attention}のエンコーダ部分を用いたモデルである.最近の研究ではELMoやBERTから獲得した文脈依存な単語ベクトルが語義曖昧性解消タスクで有効であり,特にBERTが良い性能を発揮することが示されている\cite{pilehvar-camacho-collados-2019-wic}.本研究で用いる意味変化の分析手法では,単語を語義や用法ごとにグルーピングする必要があるため,語義曖昧性解消タスクで有効なBERTを用いた文脈依存の手法が効果的であると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語の意味変化検出}本研究では単語の意味変化の分析が主目的であるが,盛んに研究されているのは意味変化検出である.初期には単語の頻度情報を用いたナイーブな検出手法\cite{cook-stevenson-2010-automatically}が提案され,その後,深層学習モデルを使った手法が数多く提案された.深層学習モデルを用いた意味変化検出手法は大きく文脈非依存の手法と文脈依存の手法に分けられる.文脈非依存の手法では,word2vec\cite{mikolov-2013}を用いた手法がある.この手法ではword2vecの「学習データ全体の特徴に応じて入力単語をベクトルに変換する」という性質を利用する.通時的なコーパスを時期ごとに分け,時期ごとの学習データを作り,各時期でモデルを構築することで,各モデルは各時期の特徴を捉えた単語ベクトルを獲得する.そして,各時期のモデルから対象単語の単語ベクトルを獲得し,比較することで意味変化検出を実現する.時期ごとにモデルを作るため,モデル間でベクトル空間に対応がなく,ベクトルを直接比較できない.この問題を解決するいくつかの方法が提案されている.ある時期$p$のモデルを訓練する際,初期値として時期$p-1$のモデルを使う手法\cite{kim-etal-2014-temporal},線形変換によって各時期の間でベクトル空間の対応付けを行う手法\cite{hamilton-etal-2016-diachronic},全時期同時に学習することで対応付けを必要としない手法\cite{yao-etal-2018-dynamic}である.手法により捉えられる意味変化の傾向や得意不得意の差はあるものの,共通して多義語を語義別に観察できない問題がある.文脈依存の意味変化検出手法ではELMo\cite{peters-etal-2018-deep}やBERT\cite{devlin-etal-2019-bert}を用いる.ELMoやBERTの「入力文字列の文脈に応じた単語ベクトルを獲得する」という性質を利用する.この性質により,対象単語のベクトルそのものから語義や用法を区別することが期待できるため,時期を無視して1つの事前学習済みモデルに対象単語が出現する文脈を入力する方法を取ることができる.1つの事前学習済みモデルだけを用いるので,文脈非依存の手法で行なったようなモデルごとのベクトル空間の対応を取る必要はない.この文脈依存の単語ベクトルを用いた手法として,ベクトルをクラスタリングする手法\cite{martinc-2020,kutuzov-giulianelli-2020-uio,giulianelli-etal-2020-analysing,montariol-etal-2021-scalable,karnysheva-schwarz-2020-tue},クラスタリングは行わず,ベクトル同士のコサイン距離をペアワイズで計算する手法\cite{kutuzov-giulianelli-2020-uio},ベクトルを平均化して単語タイプのベクトルとしてコサイン類似度を計算する手法\cite{martinc-etal-2020-leveraging}がある.意味変化検出タスクではペアワイズでの比較や単語ベクトルを平均化する手法が高い性能を報告しているが,クラスタリングのようなグルーピングを用いる手法以外では数値結果が出力されるのみであり,解釈が困難である.そのため本稿の対象とする意味変化の分析には単語ベクトルのグルーピングを使った手法が適している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{意味変化の分析手法の手順} 本稿で用いた意味変化分析の手順を述べる.手順は大きく4つの段階に分けられる.まずBERTを用いて対象単語のすべての出現をベクトル化する(\ref{word_vector}節).得られたベクトル集合を辞書を用いた手法とクラスタリングを用いた手法のそれぞれでグルーピングする(\ref{word_vector_grouping}節).通時的なコーパスに付与された年代情報から,どの年代にどのクラスタがどの程度現れるのか,割合の変化を算出することで変化を観察する(\ref{modeling}節).JSDを用いた意味変化度合いのスコアリングによって定量的な評価を行う(\ref{jsd_scoring}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BERTによる単語ベクトルの獲得}\label{word_vector}文脈依存の単語ベクトル(以下,単に{\bf単語ベクトル}と呼ぶ)の獲得方法として,本研究ではBERTを用いる.入力は文字列をトークナイズしたトークン列である.トークナイザでは,まず文字列を単語区切りに分割する.その後,単語をサブワード単位に分割し,最終的なトークン列へと変換する.複数文を入力する場合,文間に[SEP]という特殊トークンを置く.BERTの訓練はMaskedLanguageModeling(MLM)とNextSentencePrediction(NSP)によって行われる.MLMでは入力するトークン列の一部を[MASK]という特殊なトークンで置き換えてBERTに入力し,[MASK]に置き換えられた元のトークンを当てるタスクを行う.NSPでは2文を入力し,それらが連続した文か否かを当てるタスクを行う.BERTは注意機構とこれらの訓練(特にMLM)により,前後文脈を考慮したトークンのベクトル化を実現している.文脈依存の単語ベクトルは,対象単語を含む文字列をBERTに入力し,対象単語に対応するトークンの隠れ層の最終層から獲得する.対象単語が複数のトークンからなるときには,対象単語を構成するトークンのベクトルの平均を使用する.本研究において,コーパスは文章とその文章が出現した時期がセットで記述された状態を想定する(詳細は\ref{corpus}節).ある単語$w$を含む文$i$をBERTに入力して得られるベクトルを$v^w_i$とする(簡単のため同一文内に同一単語が1度しか現れない前提で定式化している).$v^w_i$と文$i$に付与された出現時期の情報$p$で,タプル$t_i=(v^w_i,p)$を作る.コーパス全体から網羅的に$t_i$を作成し,$t_i$を要素とする集合を$S^w=\{t_1,t_2,...,t_m\}$とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語ベクトルのグルーピング}\label{word_vector_grouping}グルーピング手法として,\citeA{hu-etal-2019-diachronic}の辞書を用いた教師あり手法と,\citeA{giulianelli-etal-2020-analysing}の$k$-means法を用いた教師なしクラスタリング手法を使用する.ここで述べるグルーピングは,前述した対象単語$w$の集合$S^w$を部分集合$\{S^w_1,S^w_2,...,S^w_k\}$に分割する操作として定式化できる($k$はグループ数).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia16f1.pdf}\end{center}\hangcaption{ジャパンナレッジ『日本国語大辞典』に掲載されている「渋滞」の単語説明の一部(\protect\url{https://japanknowledge.com/lib/display/?lid=20020204d764juQSrN9p}).}\label{jk_jutai}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{辞書を用いた教師ありのグルーピング}\citeA{hu-etal-2019-diachronic}の辞書を用いた手法を説明する.\mbox{図\ref{jk_jutai}}のように,辞書には各単語の語義に対応する例文が付与されていることが期待される\footnote{実際には,語義に例文が付与されていない場合もあり,その語義に関してはこの手法は適用できない.\ref{dictionary_vs_clustering}節の冒頭で辞書の手法が適用できなかった単語について述べる.}.辞書において$n$個の語義を持つ単語$w$に対して,語義に対応する語義ベクトル集合$\{g_{語義1}^w,g_{語義2}^w,...,g_{語義n}^w\}$を作る.語義ベクトルは,語義に付与された例文をBERTに入力し\ref{word_vector}節のベクトル化と同様の手法で対象単語のベクトルを作成する.ただし,1つの語義に複数の例文が付与されている場合は各例文から作成した対象単語のベクトルの平均を語義ベクトルとする.そして,$S^w$の各要素$t_i=(v^w_i,p)$の$v^w_i$と集合$\{g_{語義1}^w,...,g_{語義n}^w\}$の全要素とのユークリッド距離を計算し,最も近い語義ベクトルの語義に$t_i$を割り当てていくことで,グルーピングを行う.この操作を対象単語$w$の1つずつ(1単語タイプごと)に行う.図\ref{jk_jutai}の「渋滞」を具体例にとると,「(1)ものごとがすらすらとはかどらないこと。」(語義1)に5つの例文が付与されており,これらを用いて\footnote{本研究で実際に用いたのは漢文の例文を除いた4文.詳細は\ref{dictionary_exp}節.}「(1)ものごとがすらすらとはかどらないこと。」(語義1)の語義ベクトル$g_{語義1}^{渋滞}$が作られ,「(2)道路が混雑して、車両などがなかなか先へ進めないこと。」(語義2)も付与された1つの例文から語義ベクトル$g_{語義2}^{渋滞}$が作られる.以降,この手法を{\bf辞書ベース}の手法と呼ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{単語ベクトルのクラスタリング}\citeA{giulianelli-etal-2020-analysing}のクラスタリングによるグルーピング手法について述べる.$k$-means法ではあらかじめクラスタ数$k$を指定する必要があるが,適切なクラスタ数は自明ではない.そこで,クラスタ数$k$を2~10として計9回,$S^w$の各要素$t_i=(v^w_i,p)$の$v^w_i$に対して$k$-means法を適用する.その後,各クラスタリング結果のシルエットスコア\cite{silhouette}を算出し,シルエットスコアが最大となるクラスタリング結果1つを最終的なクラスタリング結果とする.シルエットスコアは,クラスタリングの結果を評価する指標であり,次のように算出する.ある1つのベクトル$v^w_i$に対して,$v^w_i$が属するクラスタの$v^w_i$以外のベクトルとの距離平均をクラスタ内凝集度$a_i$とする.$v^w_i$が属するクラスタ以外で$v^w_i$に最も近いクラスタ内の全ベクトルと$v^w_i$との距離の平均を乖離度$b_i$とする.ここで$v^w_i$に最も近いクラスタとは,各クラスタの全ベクトルと$v^w_i$の距離平均が最も小さいクラスタである.$v^w_i$のスコア$s_i$を以下の式で算出する.\[s_i=\frac{b_i-a_i}{\max\{b_i,a_i\}}\]以上の方法で算出されるスコア$s_i$を全$v^w_i$で求め,平均した値がシルエットスコアである.\mbox{$k$-means}法とシルエットスコアの距離関数はどちらもユークリッド距離を用いた.辞書ベースの手法と同様に,この操作を対象単語$w$の1つずつ(1単語タイプごと)に行う.以降,この手法を{\bfクラスタリングベース}の手法と呼ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味変化の観測}\label{modeling}$S^w$の各要素に付与されている時期の情報$p$とグルーピング結果を用いて,時期ごとのクラスタの割合を算出できる.図\ref{method_example}は,グルーピング結果から時期ごとのクラスタ割合への変換の簡略図である.図\ref{method_example}(左)では\ref{word_vector_grouping}節で述べたグルーピングの結果に加え,時期の情報を点の形状で明示的に図示している.これらの情報から各時期でのクラスタの割合が算出できる.図\ref{method_example}(右)は各時期でのクラスタの割合を示した積み上げ棒グラフである.図\ref{method_example}では,クラスタAの比率が減少し,クラスタCの比率が増加していることがわかる.クラスタAが原義に対応し,クラスタCが転義に対応しているならば,意味変化を捉えたとみなす.このようにグルーピングの結果と時期ごとのクラスタの割合の変化によって意味変化を分析していく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-2ia16f2.pdf}\end{center}\hangcaption{単語ベクトルのグルーピング結果と時期の情報から,各クラスタの時期ごとの割合を示す棒グラフへの変換を示した図.BERTから獲得した単語ベクトルをグルーピングし(左),各時期でのクラスタの割合を算出する(右).}\label{method_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{JSDを用いた意味変化度合いのスコアリング}\label{jsd_scoring}分析に定量的観点を取り入れるためJensen-Shannondivergence(JSD)\cite{Lin91divergencemeasures}を用いて意味変化度合いのスコアを求める.JSDは2つの確率分布の類似度を測る指標であり,確率分布$Q$,$R$に対して,以下のように定義される.\[JSD(Q\parallelR)={\frac{1}{2}}KLD(Q\parallelM)+{\frac{1}{2}}KLD(R\parallelM)\]ただし,$M=\frac{1}{2}(Q+R)$である.JSDは2つの確率分布が似ているほど小さく,似ていないほど大きな値となる.また2つの確率分布が全く同じとき0をとる.意味変化度合いのスコア$CS$を以下のように定義する.\[CS=\max_{P}{JSD(u_p\parallelu_{p-1})}\]ただし,$P$は対象とした時期の列(図\ref{method_example}では$(時期1,時期2,時期3)$に対応)であり,$u_p$は時期$p$における各クラスタの比率(図\ref{method_example}では図\ref{method_example}(右)の各時期の積み上げ棒グラフに対応)である\footnote{$JSD$の計算において,最初の時期と最後の時期の計算は行わない.図\ref{method_example}を例にとると,時期1(最初の時期)と時期3(最後の時期)の計算は行わない.つまり,時期2と時期1,時期3と時期2の2つの組み合わせでのみ$JSD$を算出する.}.JSDは文脈依存の意味変化検出で多く用いられるスコアである\cite{martinc-2020,kutuzov-giulianelli-2020-uio,montariol-etal-2021-scalable}.JSDはクラスタの比率の変化を捉えることができるが,捉えたい語義や用法ごとにクラスタが形成されているかを捉えることはできない.そのため「意味変化を捉えているならばJSDが高い」とはいえても,「JSDが高いならば意味変化を捉えている」とはいえないことに注意されたい.例えば,ある2つのクラスタの出現比率が隣り合う時期間で大きく変化しているが,その2つのクラスタは原義と転義に対応していないとする.このような場合でもJSDは大きな値を取るが各クラスタが原義と転義に対応していないので意味変化は捉えられていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \label{experimental_settings}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対象コーパス}\label{corpus}日本語の意味変化分析を行うため,幅広い年代にわたる日本語コーパスとして,国立国語研究所の『日本語歴史コーパス』\footnote{\url{https://clrd.ninjal.ac.jp/chj/}}の一部である近代雑誌コーパスと『昭和・平成書き言葉コーパス』\footnote{\url{https://clrd.ninjal.ac.jp/cmj/woman-mag/}}として構築中の雑誌(『中央公論』『文藝春秋』)データを追加したものを用いた.コーパス全体は1874年から1997年までに刊行された雑誌からなるが,本研究では文量のバランスを考慮し,1898年から1997年の100年間を25年区切りで分割し,全体を4つの時期に分けた.複数時代にまたがるため,コーパス内で同じ単語でも表記が異なる単語(例:新字体vs旧字体)がある.これらの単語をまとめて処理するために,コーパス全文を語形代表表記出現形に変換した.国語研が整備するコーパスは出現形(表層形),語形,語彙素(辞書見出し)の階層構造を持つが,語形代表表記出現形は活用語の変形を保ったまま表記を統一できるレイヤーで,日本語歴史コーパスでは語形の下で管理されている.例えば,「栄える」の仮定形「栄えれ(ば)」が旧字で「榮えれ」と表記されていた場合,語彙素にまとめると「栄える」になるが活用の情報が失われる.語形(出現形)に変換した場合「サカエル」と「サカエレ」といった活用の違いは区別されるが,語形はカタカナ表記のため同音異義語が区別されないままBERTの入力となる.語形代表表記はカタカナ表記で管理されている語形の下で当該語形の代表的な出現形表記情報を基本形で1つ保持しており,それを活用展開したのが語形代表表記出現形である.書字形出現形を語形代表表記出現形に置換することで,書字上の差異を統一しつつ活用変化を残した正規化が行える.「栄えれ」の例であれば「栄えれ」も「榮えれ」も語形代表表記出現形に置き換えれば「栄えれ」に正規化される.以上の処理を施したコーパスを以降{\bf対象コーパス}と呼ぶ.対象コーパスは7:1に分割し,それぞれ学習データとテストデータとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{使用したBERT}\label{bert_model}本研究では,現代語で訓練を行なった現代語BERTと,対象コーパスで現代語BERTをfine-tuningした近代語BERTの2種類のBERTを使用した.\begin{description}\item[現代語BERT]HuggingFaceで公開されている東北大の日本語版BERT\footnote{\url{https://huggingface.co/cl-tohoku/bert-base-japanese-whole-word-masking}}(以下,現代語BERT)を使用した.\footnote{このBERTモデルはHuggingFaceでダウンロード数が300万を超える.我々が確認した中で次いでダウンロード数が多いのは同じく東北大のBERTモデル(v2)で18万ダウンロード程度である(2023年1月28日時点).このことから,このモデルは代表的な日本語BERTであり,このモデルでの分析は有益であると考える.ただし,どの事前学習済みモデルでも常に同じ結果になる保証はなく,このモデルのみを用いていることは,本研究のリミテーションである.}このBERTモデルは12層からなり,hiddenstatesは768次元,attentionheadsは12個という構成である.学習は元のBERT\cite{devlin-etal-2019-bert}と同様,1インスタンスあたり512トークン,1バッチあたり256インスタンスで100万ステップ学習されている.マスク言語モデルはwholewordmaskingを使用して,トークン単位ではなく単語単位で学習が行われている.単語区切りはMeCabを用いており,辞書はmecab-ipadic-NEologd\footnote{\url{https://github.com/neologd/mecab-ipadic-neologd}}である.MeCabによる単語分割の後,WordPieceアルゴリズムによってサブワード化することでトークナイズしている.学習はTensorFlowResearchCloudが提供するCloudTPUのv3-8instanceを使用して行われている.対象コーパスのテストデータを使用したMLMタスクのマスク箇所の予測の正解率は0.578である.\item[近代語BERT]対象コーパスの学習データを用いて,我々が現代語BERTをfine-tuningしたモデルである.fine-tuningのタスクは事前学習と同様である.主な実験結果を報告する近代語BERTのfine-tuningは,1インスタンスあたり512トークン,1バッチあたり32インスタンス,学習率は1e-4で310万ステップ行なった.訓練で使用したGPUはNVIDIATeslaP40である.対象コーパスのテストデータを使用したMLMタスクのマスク箇所の予測の正解率は0.652であり,現代語BERTよりも0.08高い.\end{description}近代語BERTはfine-tuningの学習環境の違いで結果に差が出る可能性がある.この点を考慮して,fine-tuningに関する分析(\ref{kindai_vs_gendai_analysis}節)では,パラメータや学習環境を変えて学習したモデルを6種類も作成し,5種類以上のモデルで同じ傾向が確認できた分析結果のみ報告する.各fine-tuningの学習条件は学習率と使用GPUを変えた6パターンで行なった.学習率は2e-5,3e-5,5e-5の3パターン,GPUはNVIDIATeslaP40とNVIDIATITANRTXの2種類である.また学習は15万ステップ行なった.主な実験結果を報告する近代語BERTと比べ学習ステップ数が少ないが,学習データを$2\sim3$epoch学習するため,十分と判断した\cite{kutuzov-giulianelli-2020-uio}.これら以外の条件は主な実験結果を報告する近代語BERTと同様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{辞書}\label{dictionary_exp}辞書ベースの手法では,日本で最大規模の辞書の一つである『日本国語大辞典』(ジャパンナレッジ版)\footnote{\url{https://japanknowledge.com/}}を使用した.語義に付与されている例文に漢文が含まれていた場合は,漢文を削除し,その他の文を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ツール}\label{clustering_exp}本研究での$k$-means法の実装にはscikit-learn(version0.24.2)\footnote{\url{https://scikit-learn.org/stable/modules/generated/sklearn.cluster.KMeans.html}}を用いた.$k$-means法は初期値に依存して結果が異なる手法であるが,scikit-learnのデフォルトの実装として初期値依存性を軽減するため以下の配慮がなされている.各$k$で,$k$-means法を10回適用する.10個の結果のうち,各ベクトルから最近傍のセントロイドへの距離の合計が最も小さいクラスタリング結果を最終的な結果として採用する.セントロイドの初期値は$k$-means++\cite{vassilvitskii2006k}を用いて決定する.$k$-means++はセントロイドを選ぶ際に,セントロイドの初期位置が離れるように選ばれる確率が高くなる手法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対象単語}近代コーパス\footnote{本研究で用いたコーパスとほぼ同等のコーパス.}で意味変化した単語のリスト\cite{mabuchi-ogiso-2021-dataset}から対象単語を選定した.ただし,対象コーパス内のそれぞれの時期で10回以上出現していることを条件とし,最終的に34単語を選定した.漢語が30単語,外来語が3単語,和語が1単語である.これらは全て,活用がない単語で,具体的には以下である.普段,障害,柔軟,結構,要領,免許,優勝,非常,全然,渋滞,ポイント,管制,故障,精々,教養,教授,適当,心持ち,普通,尋常,広告,了解,住居,設備,風俗,愛人,自然,女性,モデル,貴族,ボタン,情報,主婦,婦人.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価}\label{eval}2つの意味変化分析手法とJSDによるスコアリングをそれぞれ以下の方法で評価した.\begin{description}\item[意味変化分析の定性評価]以下の2点を確認することで定性判断を行なった.ただし,主な定性判断は第一著者1人で行い,解釈が難しいと判断した一部の単語では共著者の複数人で判断を行なった.\begin{enumerate}\item原義と転義に対応するクラスタがそれぞれ存在するか\item(1)の結果に基づき,図\ref{method_example}(右)の積み上げ棒グラフにおいて,原義と転義の増減は妥当か\end{enumerate}判定の具体的な手順と基準は以下の通りである.\pagebreakまず単語ベクトル集合にPCAを適用して2次元空間にプロットする.2次元空間上で各クラスタの全体像を把握するように要素を選出する.選出した要素に対応する文を読み,文内での対象単語の用例を「原義」,「転義」,「原義または転義とは別の用例」,「意味解釈が困難」の4種類に分類し,確認した用例の中で最も多かったものをクラスタのラベルとする.ただし,選出する要素数は各クラスタで最低10とする.意味の理解が困難な用例が多い場合や複数のラベルが拮抗している場合には著者が十分であると判断するまで要素を選出する.(2)では(1)の結果,原義と転義のラベルが存在した時に,隣り合う時期間で原義のクラスタの出現比率が10\%以上減少し,かつ,転義のクラスタの出現比率が10\%以上増加した際に,妥当な増減と判断する.原義と転義は\citeA{mabuchi-ogiso-2021-dataset}の付録「近現代日本語意味変化分析のための単語データセット頻度表」に掲載されている「原義」と「転義」を基準とする.\item[JSDを用いた意味変化度合いのスコアリングの評価]日本語では意味変化の度合いをスコアリング・順位付けしたデータセットが存在しないため,英語やドイツ語などの意味変化検出タスクで使用されている相関係数による評価ができない.そこで本研究では,意味変化した単語に加え,意味変化していない単語にも\ref{jsd_scoring}節の手法を適用し,recall@$k$を求めることで評価した.recall@$k$は,モデルの予測結果の上位$k(>1)$個にいくつ正解が含まれるかを算出する(recall)手法である.さまざまな$k$でrecallを算出することで,特定の$k$でrecallを算出するよりもモデルの予測の全体像が把握できる.本研究では,意味変化した34単語と意味変化していない34単語\footnote{対象コーパスから出現頻度が30~10,000,かつ4つの時期それぞれで出現回数が10回以上の単語をランダム抽出し,それらを意味変化していない単語とした.}の計68単語に辞書ベースとクラスタリングベースの手法を適用し,意味変化度合いのスコアCSを算出,そしてrecall@$k$を求めた.ここで間淵らのリストに含まれる意味変化した単語を正解,コーパスからランダムに選択した単語を不正解とした.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{辞書ベースの手法とクラスタリングベースの手法の比較} \label{dictionary_vs_clustering}本節では意味変化の定性判断による結果とJSDを用いた意味変化度合いのスコアを評価した結果を辞書ベースの手法とクラスタリングベースの手法で比較する.BERTモデルには現代語BERTを用いた.意味変化していない単語の1つである「羞恥」は,本研究で用いたBERTのトークナイザでは未知語として処理されたため,どちらの手法も適用できなかった.辞書の例文のうち漢文を含む例文を削除した上で2つ以上の語義で例文が存在する場合のみ,辞書ベースの手法を適用できる.この条件を満たさない単語が対象単語で6単語,意味変化していない単語で14単語存在した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{16table01.tex}%\hangcaption{辞書ベースの手法とクラスタリングベース手法の比較結果.意味変化を捉えることができた単語は「\checkmark」,意味変化を捉えることができなかった単語は「×」とした.辞書ベースの手法が適用できなかった単語には\underline{下線}を引いた.}\label{summary_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験}\label{dict_vs_clustering_result}\begin{description}\item[定性判断による意味変化の判定]意味変化していない単語への意味変化の判定は意味をなさないため,意味変化の判定は対象単語34単語のみで行なった.定性判断による意味変化の判定結果を表\ref{summary_result}に示す.辞書ベースの手法が適用できない単語を除いた場合,意味変化を捉えられた単語は辞書ベースの手法では18単語,クラスタリングベースの手法では17単語であった.一方で辞書ベースの手法を適用できなかった単語も含めると,意味変化を捉えることができた単語は辞書ベースの手法では18単語,クラスタリングベースの手法では20単語であった.意味変化を捉えることができた単語は,辞書ベースの手法が適用可能な場合,辞書ベースの方が多く,適用できない場合ではクラスタリングベースの方が多くなった.\item[JSDを用いた意味変化度合いのスコアリング]意味変化した単語と,していない単語のうち,辞書ベースの手法が適用できない20単語を除いた48単語でCSを算出した.この設定では辞書ベースの手法で扱えない単語は取り除いているので,辞書ベースの手法を優遇した設定である.その結果を図\ref{dict_vs_clus_jsd_fig1}に示す.図\ref{dict_vs_clus_jsd_fig1}から,辞書ベースの手法を適用できなかった単語を全て除いた場合,全ての$k$で辞書ベースの手法がクラスタリングベースの手法と同等かそれ以上の結果となっていることが分かる.次に,辞書ベースの手法が適用できない単語のうち意味変化していない単語(14単語)を除いた54単語でCSを算出した.この設定では辞書の手法を適用できない単語も対象としているため,適用可能性も性能に含まれる.その結果を図\ref{dict_vs_clus_jsd_fig2}に示す.図\ref{dict_vs_clus_jsd_fig2}から,$k$の値が小さい時はほぼ同等だが,全体としてはクラスタリングベースの手法がより高いrecall値となっている.\end{description}以上の結果から,全体としてはクラスタリングベースの手法が優れた結果となった.ただし,辞書ベースの手法が適用可能な単語に絞ることで辞書ベースの手法がより優れているといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{30-2ia16f3.pdf}\end{center}\subfigure{\label{dict_vs_clus_jsd_fig1}}\subfigure{\label{dict_vs_clus_jsd_fig2}}\vspace{-14pt}\hangcaption{辞書ベースの手法とクラスタリングベースの手法のrecall@kの比較結果.対象単語のうち辞書の手法を適用できなかった7単語を除いた27を$k$の最大値とした.}\label{dict_vs_clus_jsd_fig_whole}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析}どちらの手法でも形成されたクラスタは用法の違いを捉えているケースが多かった.「尋常」のように,その単語特有の用法の変化が起きた単語ではクラスタが原義や転義を直接捉えていたが,語義の変化が起きた単語では用法の特徴でクラスタが形成され,クラスタ内の用例を解釈すると\citeA{mabuchi-ogiso-2021-dataset}の原義や転義に当てはまるというケースがほとんどであった.\label{clus_vs_dict_analysis}また\ref{dict_vs_clustering_result}節の結果から,クラスタリングベースの手法が有効であることが分かった.しかし,それぞれの手法で意味変化を捉えられる単語は異なった.この違いを表\ref{summary_result}のブロックごとの特徴に注目し分析した結果,以下のことが分かった.$k$-means法を用いたクラスタリングベースの手法では,対象コーパスにおいて原義と転義の出現頻度に大きな差がある時に,意味変化を捉えられない.辞書ベースの手法では,使用した辞書の語義分類が原義や転義に対応していないケースや語義に付与されている例文に問題があるケースで意味変化を捉えられない.また人間でも原義と転義の違いを判断するのが難しい単語や,コーパス内で片方の語義や用法がごくわずかしか出現しない単語ではどちらの手法でも意味変化を捉えることができない.以下では,上記の分析について具体例を交えつつ紹介する.図\ref{kyoyo_tekito_results}~図\ref{fuzoku_sizen_results}の散布図において,丸印は1898~1922年,四角印は1923~1947年,十字印は1948~1972年,星印は1973~1997年であることを示している.辞書ベースの手法ではクラスタを構成する要素が必ずしも辞書の語義と一致していなかった.その場合でも辞書の語義通りのラベルを付与した.クラスタリングベースでは,クラスタを主に構成する要素の語義や用法をラベルとして付与した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-2ia16f4.pdf}\end{center}\subfigure{\label{kyoyo_nikkoku_scatter}}\subfigure{\label{kyoyo_nikkoku_bar}}\subfigure{\label{kyoyo_kmeans_scatter}}\subfigure{\label{kyoyo_kmeans_bar}}\subfigure{\label{tekito_nikkoku_scatter}}\subfigure{\label{tekito_nikkoku_bar}}\subfigure{\label{tekito_kmeans_scatter}}\subfigure{\label{tekito_kmeans_bar}}\vspace{-14pt}\caption{「教養」と「適当」の結果.}\label{kyoyo_tekito_results}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{辞書ベースの手法で意味変化を捉えるケース}辞書ベースの手法でのみ意味変化を捉えられた単語は,「教養,教授,適当,精々」の4単語だった.どの単語も原義と転義の出現頻度に大きな差があった単語である.「教養」と「適当」を例として紹介する.\begin{description}\item[教養]「教養」は「教育する」という語義から「広い知識(教養がある・ない)」という語義へ変化した.まず辞書ベースの手法の結果を述べる.図\ref{kyoyo_nikkoku_scatter}の語義0が転義であり,語義1が原義である.図\ref{kyoyo_nikkoku_bar}から語義1の出現頻度が減少し,語義0の出現頻度が増加していることが分かる.次にクラスタリングベースの手法の結果を述べる.図\ref{kyoyo_kmeans_scatter}のクラスタ1は「教養学部」や「教養課程」のような複合名詞で構成されており,クラスタ0は主に複合名詞以外の用例で構成されている.図\ref{kyoyo_kmeans_bar}をみてもどちらかのクラスタが増減した様子は確認できない.\item[適当]「適当」は「適切・妥当」という語義から「いい加減」という語義に変化した.まずは辞書ベースの手法の結果を述べる.図\ref{tekito_nikkoku_scatter}の語義2が転義で,語義0が原義である.図\ref{tekito_nikkoku_bar}から語義0が減少し,語義2が増加していることが分かる.次にクラスタリングベースの手法の結果を述べる.図\ref{tekito_kmeans_scatter}のクラスタ0は主に「適当な」や「適当に」のような後ろに被修飾語が続く用例で構成されており,「適切・妥当」という語義の用例が多く,わずかに「いい加減」という語義の用例もあった.クラスタ1は主に「適当する」という形で出現した「適切・妥当」という語義の用例から構成されていた.クラスタ2は「不適当」という形の用例から構成されていた.クラスタ3は主に「適当である」や「が適当。」のように後ろに被修飾語が続かない形の用例で構成されており,これらは「適切・妥当」という語義だった.図\ref{tekito_kmeans_bar}から,クラスタ1とクラスタ3が減少し,クラスタ0が増加する傾向が見られた.クラスタ0は原義と転義の両方からなるが,原義が圧倒的に多いため,意味変化を捉えられていないと判断した.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-2ia16f5.pdf}\end{center}\subfigure{\label{futsu_nikkoku_scatter}}\subfigure{\label{futsu_nikkoku_bar}}\subfigure{\label{futsu_kmeans_scatter}}\subfigure{\label{futsu_kmeans_bar}}\subfigure{\label{koukoku_nikkoku_scatter}}\subfigure{\label{koukoku_nikkoku_bar}}\subfigure{\label{koukoku_kmeans_scatter}}\subfigure{\label{koukoku_kmeans_bar}}\vspace{-14pt}\caption{「普通」と「広告」の結果.}\label{futsu_koukoku_results}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{30-2ia16f6.pdf}\end{center}\subfigure{\label{syougai_nikkoku_scatter}}\subfigure{\label{syougai_nikkoku_bar}}\subfigure{\label{syougai_kmeans_scatter}}\subfigure{\label{syougai_kmeans_bar}}\subfigure{\label{kansei_nikkoku_scatter}}\subfigure{\label{kansei_nikkoku_bar}}\subfigure{\label{kansei_kmeans_scatter}}\subfigure{\label{kansei_kmeans_bar}}\vspace{-14pt}\caption{「障害」と「管制」の結果.}\label{syougai_kansei_results}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{クラスタリングベースの手法で意味変化を捉えるケース}クラスタリングベースの手法では意味変化を捉えられたが,辞書ベースの手法では意味変化を捉えられなかった単語は「普通,尋常,ボタン,広告,了解,住居,設備」の7単語だった.これらの単語は原義または転義に対応する語義が辞書に存在しなかったケース,原義と転義に対応する語義は存在したが例文が十分・適切でなかったケースである.具体例として「普通」と「広告」を紹介する.\begin{description}\item[普通]「普通」は「広く一般に通ずる」という語義から「通常・並」という語義に変化した.まず辞書ベースの手法の結果を述べる.図\ref{futsu_nikkoku_scatter}の語義0は転義であり,語義1が原義である.各クラスタにはかならずしも辞書の各語義が示す用例が属しておらず,各クラスタの違いは不明瞭だった.明確な違いとして,「普通選挙」や「普通教育」といった「普通+名詞」の形で出現する用例のほとんどは語義0に属していたが,語義1にはそれ以外の用例も同程度属していた.図\ref{futsu_nikkoku_bar}をみても語義0がやや減少し,語義1がやや増加しており,意味変化を捉えられていない.次にクラスタリングベースの手法の結果を述べる.図\ref{futsu_kmeans_scatter}のクラスタ2は「普通選挙」や「普通教育」といった「普通+名詞」という形の用例で構成され,これらは「広く一般に通ずる」の語義である.クラスタ0と1はどちらも「通常・並」の語義であったが,それぞれ用法に特徴があった.クラスタ0は「普通の」や「普通は」という形の用例で,クラスタ1は主に「~のが普通」という形の用例で構成されていた.図\ref{futsu_kmeans_bar}からクラスタ2が減少し,クラスタ0とクラスタ1が増加していることがわかる.このことからクラスタリングの手法では意味変化を捉えたと判断した.複合名詞以外で「広く一般に通ずる」の語義の出現がほとんど見られなかったため,用法の変化(複合名詞か否か)を捉えることでことで意味変化を捉えたといえる.\item[広告]「広告」は「世間に広く知らせること」の語義から「商業広告」の語義に変化した.まず辞書ベースの手法の結果を述べる.図\ref{koukoku_nikkoku_scatter}の語義0は原義で,語義1が転義である.語義1に属している用例は全て「商業広告」の語義だが,語義0にも「商業広告」の語義の用例が多く属している.図\ref{koukoku_nikkoku_bar}をみても意味変化を捉えている様子は確認できない.次にクラスタリングベースの手法の結果を述べる.図\ref{koukoku_kmeans_scatter}のクラスタ1は「世間に広く知らせること」の語義と「商業広告」の語義の両方の用例が同程度属していた.クラスタ0はほとんど「商業広告」の語義の用例で構成されていた.図\ref{koukoku_kmeans_bar}からクラスタ1が減少し,クラスタ0が増加していることがわかる.クラスタ1は「商業広告」の用例を多く含んでいたが,「世間に広く知らせること」の用例も十分に含んでいると判断し,意味変化を捉えたと判断した.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{どちらの手法でも意味変化を捉えるケース}クラスタリングベースの手法と辞書ベースの手法のどちらでも意味変化を捉えたのは「普段,障害,柔軟,結構,要領,免許,優勝,非常,全然,渋滞,ポイント,管制,故障,心持ち」の14単語である.これらの単語は,上で述べた辞書や出現頻度の問題がない単語である.具体例として,「障害」と「管制」を紹介する.\begin{description}\item[障害]「障害」は「妨げること」という語義から「精神・身体に支障があること」という語義に変化した.まず辞書ベースの手法の結果を述べる.図\ref{syougai_nikkoku_scatter}の語義1は原義で,語義0は転義である.語義1には主に「妨げること」の語義の用例,語義0には主に「精神・身体に支障があること」の語義の用例がそれぞれ属しており,どちらも適切な割り当てがなされている.図\ref{syougai_nikkoku_bar}から語義1が減少し,語義0が増加していることがわかる.次にクラスタリングベースの手法の結果を述べる.図\ref{syougai_kmeans_scatter}のクラスタ1は主に「妨げること」の語義の用例で構成されており,クラスタ0は主に「精神・身体に支障があること」の語義の用例で構成されている.図\ref{syougai_kmeans_bar}からクラスタ1が減少し,クラスタ0が増加していることがわかる.\item[管制]「管制」は「管理統制」という語義から「航空管制」という語義に変化した.まず,辞書ベースの手法を説明する.図\ref{kansei_nikkoku_scatter}の語義1は「制限すること」,語義2は「支配すること」の語義であり,これらは原義である.語義0は「航空機への指示」の語義であり,転義である.各語義に割り当てられた用例も概ね語義に従うものだった.図\ref{kansei_nikkoku_bar}から語義1と語義2を合わせた割合が減少し,語義0が増加していることがわかる.次にクラスタリングベースの手法を説明する.図\ref{kansei_kmeans_scatter}のクラスタ2は「灯火管制」,クラスタ0とクラスタ1は主に「管制官」,クラスタ3は「報道管制」,クラスタ5は「軍事管制」,クラスタ6は「火器管制装置」や「管制領域」など上記以外の複合名詞,クラスタ4には「管制する」という動詞的な用法,クラスタ7はその他の用例でそれぞれ構成されていた.このように各クラスタはほとんど用法ごとに形成されていた.また複合名詞が一括りにならず,特定の複合名詞ごとにクラスタ化されるケースが多かった.原義・転義に注目すると,クラスタ0,1は転義に対応する語義の用例がほとんどだった.クラスタ6にも「航空管制」や「管制塔」といった転義に該当する語義の用例がやや見られたが,原義に該当する語義の用例も多く見られた.一方クラスタ2,3,4,5は原義に相当する.図\ref{kansei_kmeans_bar}からクラスタ2,3,4,5,を合わせた割合が減少し,クラスタ0,1を合わせた割合が増加していることがわかる.このことから意味変化を捉えたと判断した.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{30-2ia16f7.pdf}\end{center}\subfigure{\label{fuzoku_nikkoku_scatter}}\subfigure{\label{fuzoku_nikkoku_bar}}\subfigure{\label{fuzoku_kmeans_scatter}}\subfigure{\label{fuzoku_kmeans_bar}}\subfigure{\label{sizen_nikkoku_scatter}}\subfigure{\label{sizen_nikkoku_bar}}\subfigure{\label{sizen_kmeans_scatter}}\subfigure{\label{sizen_kmeans_bar}}\vspace{-14pt}\caption{「風俗」と「自然」の結果.}\label{fuzoku_sizen_results}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{どちらの手法でも意味変化を捉えられなかったケース}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%辞書ベースの手法とクラスタリングベースの手法のどちらでも意味変化を捉えられなかった単語は「精々,風俗,愛人,自然,女性,モデル,貴族,情報,主婦」の9単語であった.これらの単語は上で述べた辞書や出現頻度の問題がどちらもある単語や,対象コーパスで意味変化を捉えるのが難しい単語であった.具体例として,「風俗」と「自然」を紹介する.\begin{description}\item[風俗]「風俗」は「風習・習俗」という語義から「風俗営業」という語義に変化した.まず辞書ベースの手法の結果を述べる.図\ref{fuzoku_nikkoku_scatter}の語義0は「風習」の語義で原義に対応する.語義1は「身振りや態度」の語義で,語義2は「みなり」の語義,語義3は「風俗歌」の略である.これらは今回対象とした年代よりも前に使われていた古い語義であり,コーパス内ではほとんど存在しない.辞書には「風俗営業」の略という語義が掲載されていたが,その例文は載せられていなかった.そして語義0と語義1に属する用例に明確な違いは見つけることができなかった.図\ref{fuzoku_nikkoku_bar}から語義0が減少し,語義1が増加していることがわかる.しかし,各語義が原義や語義に対応しておらず,割り当てられている用例にもクラスタを説明する特徴が見られないため意味変化を捉えたとはいえない.次にクラスタリングベースの手法の結果を述べる.図\ref{fuzoku_kmeans_scatter}のクラスタ0は原義に対応する用例がほとんどである.クラスタ1はわずかに転義に対応する用例を含んでいたが,ほとんど原義に対応する用例で構成されていた.図\ref{fuzoku_kmeans_bar}からクラスタ0が減少し,クラスタ1が増加しているが,意味変化は捉えていないと判断した.\item[自然]「自然」は「自ずから」という副詞や形容詞としての用法を持つ語義から名詞としての用法を持つ「nature」の訳語へと変化した.まず辞書ベースの手法の結果を述べる.図\ref{sizen_nikkoku_scatter}の語義0は「誰にも抵抗なく受け入れられるさま、わざとらしくないさま」,語義1は「もしかして、ひょっとして」,語義2は「おのずから、ひとりでになるさま」,語義3は「物事が偶然に起こるさま」,語義4は「人の作為によらずに存在するものや現象」,語義5は「自然の事、自然の時、の略。」,語義6は「物事がうまくはかどるさま」,語義7は「天からうけた性。物の本来の性。」という語義である.語義0,2,4が転義,語義5が原義,にそれぞれ該当し,それ以外の語義は今回対象としているコーパスで注目していない語義である.図\ref{sizen_nikkoku_bar}から,語義0が減少し,語義4と語義5がわずかに増加していることがわかる.語義の割り当てと実際の用例が対応しておらず,割合が変化した語義と原義・転義が対応していない.よって意味変化を捉えていない.次にクラスタリングベースの手法の結果を述べる.図\ref{sizen_kmeans_scatter}のクラスタ0は名詞として出現する用例が多く,転義に対応している.クラスタ1は副詞や形容詞の用例が多く,原義に対応している.しかし,図\ref{sizen_kmeans_bar}から明確な増減は確認できないため,意味変化を捉えていないと判断した.1898年~1923年の段階で転義に対応する用例も十分に出現したため,語義の割合の変化が生じなかったと考える.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価の信頼性の検証}\label{eval_verif}人手評価の信頼性を検証するために評価の検証実験を行なった.実験協力者には著者を含めず,日本語がネイティブの情報科学専攻の大学院生2名に依頼した.対象単語は「障害,貴族,教養,広告,普段,尋常,風俗,適当」の8単語とした.表\ref{summary_result}における4つのブロックから2単語ずつランダムに抽出した単語である.クラスタへのラベル付けの判断は\ref{eval}節よりも簡易化した.具体的には,クラスタのセントロイド(辞書の手法では語義ベクトル)の近傍10個のベクトルを抽出し,そのベクトルに対応する文で対象単語の意味を解釈することで各クラスタのラベルの判定を行なった.その他の条件は\ref{eval}節と同様である.評価実験の結果,実験協力者の二者間では最終的な結果は全ての単語で一致し,著者が\ref{eval}節「意味変化分析の定性評価」で述べた方法で行なった結果と比較すると,8単語中7単語で一致した.著者との結果が異なった単語は「広告」であり,実験協力者は辞書ベースでもクラスタリングベースでも意味変化を捉えていないと判断し,著者は辞書ベースでは捉えていないが,クラスタリングベースでは捉えたたと判断した.「広告」は転義を原義で読み変えても文脈的におかしくないケースが多く,判断が難しい単語である.\ref{clus_vs_dict_analysis}節の分析でも「広告」のクラスタリングの結果は明瞭でなく,判断が難しい単語であるといえる.この実験結果から人手評価は必ず一致すると言えないものの,8単語中7単語で一致することが確認でき,本研究による評価にはある程度の妥当性があることを検証した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{辞書ベースとクラスタリングベースの手法の妥当性の検討} \label{discussion}\ref{dictionary_vs_clustering}節から,日本語の意味変化分析では,\pagebreak辞書ベースの手法よりもクラスタリングベースの手法のほうが有効であることが分かった.しかし,辞書やクラスタリング手法の違いが結果に影響することが考えられる.そこで本節では,辞書及びクラスタリング手法を変えて追加実験を行い,\ref{dictionary_vs_clustering}節での辞書とクラスタリング手法の選択の妥当性について検討した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{辞書ベースの手法における辞書の違いによる影響}\ref{dictionary_vs_clustering}節で辞書ベースの手法は,辞書の語義分類が原義や転義に対応していない場合や語義に付与されている例文が十分・適切でない場合に意味変化を捉えられないという結果になった.先行研究で対象としていた英語では,例文が豊富で大規模な辞書であるOxfordEnglishDictionary(OED)があるが,全ての言語でそのような辞書が存在するとは限らない.日本語では,\ref{dictionary_vs_clustering}節の実験で使用した「日本国語大辞典」が最も大規模な辞書の1つだが,古い年代の例文が付与されているケースが多かったり,例文が付与されていない語義があったり,そもそも原義または転義に対応する語義が載っていないといった問題があった.そこで,辞書の影響を確認するためにデジタル大辞泉(ジャパンナレッジ版)\footnote{\url{https://japanknowledge.com/}}を用いて辞書ベースの手法を適用し,日本国語大辞典を用いた場合と比較した.その結果を表\ref{nikkoku_vs_jisen}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{16table02.tex}%\hangcaption{日本国語大辞典とデジタル大辞泉の比較.日本国語大辞典で辞書ベースの手法を適用できなかった単語は\protect\unl{下線},デジタル大辞泉で適用できなかった単語は\protect\unnami{波線}を引いた.どちらの辞書でも適用できなかった単語は載せていない.}\label{nikkoku_vs_jisen}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{nikkoku_vs_jisen}から,使用する辞書を変えることで同じ辞書ベースの手法でも結果が異なることがわかる.日本国語大辞典では18単語,デジタル大辞泉では14単語で意味変化を捉えた.日本国語大辞典でのみ意味変化を捉えた単語は5単語あり,デジタル大辞泉でのみ捉えた単語は1単語だった.この結果から,日本国語大辞典の方が辞書ベースの手法に適していることが分かる.デジタル大辞泉は,日本国語大辞典に比べ新しい例文が多かったが,語義の種類や例文の数は日本国語大辞典が豊富だったため,このような結果になったと考える.ここで,デジタル大辞泉を使うことで新たに検出できた単語「自然」を紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{自然}「自然」は「自ずから」という語義から「nature」の訳語へと変化した.図\ref{sizen_jisen_scatter}の語義0,3,5,7が転義に対応し,語義2が原義に対応する.図\ref{sizen_jisen_bar}から語義0が転義の中で大部分を占め,単調ではないが,増加していることがわかる.原義は徐々に減少していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{30-2ia16f8.pdf}\end{center}\subfigure{\label{sizen_jisen_scatter}}\subfigure{\label{sizen_jisen_bar}}\subfigure{\label{setubi_dbscan_scatter}}\subfigure{\label{setubi_dbscan_bar}}\subfigure{\label{sizen_setubiesults}}\vspace{-14pt}\caption{「自然」と「設備」の結果.}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラスタリングベースの手法における$k$-means法の有効性の確認}\ref{dictionary_vs_clustering}節の結果,$k$-means法を用いたクラスタリングベースの手法では,コーパス内での原義と転義のどちらかの出現頻度が極端に少ない場合に意味変化を捉えられないことが分かった.そこで,原義と転義の出現頻度に大きな差がある場合にも適切にクラスタリングが期待できる手法として,密度ベースのクラスタリング手法であるDBSCAN\cite{dbscan}を用いた実験を行なった.DBSCANの簡単な説明を述べる.DBSCANでは$\epsilon$と$minPts$という2つのハイパーパラメータを設定する.$\epsilon$はクラスタ形成のための捜索半径で,$minPts$はクラスタ形成のために必要な最低要素数と考えることができる.次にDBSCANで用いる操作について述べる.あるベクトル$p$から半径$\epsilon$以内にあるベクトルの数が$p$自身を含め$minPts$個以上である場合に,$p$の半径$\epsilon$以内にあるベクトルのうち,まだクラスタに属していないベクトルを$p$と同じクラスタに属させる.この処理を操作Aとよぶ.操作Aを踏まえ,アルゴリズムの説明に移る.まずランダムにベクトルを選び,操作Aを行う.操作Aが条件を満たし,クラスタを形成した場合,そのクラスタ内で操作Aが行われていないベクトルに対して操作Aを行う.クラスタ内の全てのベクトルで操作Aが行われたとき,そのクラスタでの処理は終了する.その後,全ベクトルの中から操作Aが行われていないベクトルをランダムで選び,同様の処理を行うことで新たなクラスタを形成していく.全てのベクトルで操作Aが行われたとき,どのクラスタにも属していないベクトルを外れ値(クラスタを構成しないベクトル)とし,アルゴリズムは終了する.DBSCANにおいても$k$-means法と同様に,シルエットスコアが最大になるようにハイパーパラメータを調整した.実験結果を表\ref{kmeans_vs_dbscan_results}に示す.$k$-means法では20単語,DBSCANでは10単語,意味変化を捉えた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{16table03.tex}%\hangcaption{クラスタリングベースの手法における$k$-means法とDBSCANの比較結果.意味変化を捉えた単語は「\checkmark」,意味変化を捉えなかった単語は「×」とした.}\label{kmeans_vs_dbscan_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このことからクラスタリングベースの手法においてDBSCANよりも$k$-means法が適切であることが分かる.これは,DBSCANで外れ値として除外される用例が過剰に出現したことが大きな原因である.DBSCANは,ハイパーパラメータに敏感であり,シルエットスコアによる調整が適切に機能しなかった可能性がある.また,DBSCANに期待していた原義と転義で出現頻度に極端な差がある単語でも意味変化を捉えられていない.DBSCANが形成したクラスタを確認すると,用法の中でも複合名詞でクラスタ化する傾向が強かった.DBSCANでうまくいかなった単語の具体例として「設備」を紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{設備}設備は「設置,整備」から「建物,機器」へと意味変化した単語である.図\ref{setubi_dbscan_scatter}(d)から外れ値が圧倒的に多いことがわかる.クラスタ0が「設備投資」という出現形の用例からなり,クラスタ1は「生産設備」,クラスタ2は「遊休設備」「過剰設備」からなるクラスタである.形成されたクラスタに原義のクラスタはない.また,そもそも複合名詞以外の用例は全て外れ値となっており,半分以上の用例が外れ値となっており,意味変化を捉えられていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{現代語BERTと近代語BERTの比較} \label{bert_comparison}前節までの結果から,単語ベクトルの性質がクラスタリング結果に大きな影響を与えていることがわかる.特にクラスタリングベースの手法では複合名詞か否かという違いでクラスタを形成する傾向が強く出ていた.そこで本節では,公開モデルである事前訓練済みの現代語BERTと現代語BERTを対象コーパスでfine-tuningして作成した近代BERTのそれぞれから獲得した単語ベクトルに対してクラスタリングベースの手法を適用し,比較を行なった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{定性判断による意味変化の判定結果}定性判断による意味変化の判定の結果を表\ref{kindai_vs_gendai}に示す.現代語BERTで意味変化を捉えた単語は20単語,近代語BERTでは16単語である.よって,定性判断に基づく意味変化の判定の観点では,現代語BERTが近代語BERTよりも優れた結果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{16table04.tex}%\hangcaption{クラスタリングベースの手法における,現代語BERTと近代語BERTの意味変化の定性判断の比較結果.意味変化を捉えた単語は「\checkmark」,意味変化を捉えられなかった単語は「×」とした.}\label{kindai_vs_gendai}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{JSDによるスコアリングの結果}JSDによるスコアリングを現代語BERTと近代語BERTのそれぞれから獲得した単語ベクトルに対して行い,recall@$k$を算出した.その結果を図\ref{gen_vs_kin_jsd_fig}に示す.図\ref{gen_vs_kin_jsd_fig}から,全ての$k$の値で近代語BERTが現代語BERTと同等かそれ以上のrecall値であることがわかる.よって,JSDのスコアに対するrecall@$k$の観点では,近代語BERTが現代語BERTよりも優れた結果であるといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[b]\begin{center}\includegraphics{30-2ia16f9.pdf}\end{center}\hangcaption{クラスタリングベースの手法における,現代語BERTと近代語BERTのrecall@kの比較結果.意味変化した単語数である34を$k$の最大値とした.}\label{gen_vs_kin_jsd_fig}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析}\label{kindai_vs_gendai_analysis}実験の結果,現代語BERTと近代語BERTで違いが生じている.また,定性判断による評価とJSDスコアによる評価で逆の結果になっている.本節ではこれらの違いについて分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{現代語BERTと近代語BERTが捉える特徴の違い}\label{gendai_vs_kindai_analysis}現代語BERTと近代語BERTでクラスタリングの結果に大きな違いが生じた単語として,意味変化した単語では「非常,主婦」,意味変化していない単語では「伴う,支払う」がある.これらの単語のクラスタリング結果を用例レベルで確認した.現代語BERTでは,現代語で使われないような表現(例えば,文語表現)を1つのクラスタにまとめる傾向があった.一方で,近代語BERTでは古い時期で現れない用法を1つのクラスタにまとめる傾向があった.特に近代語BERTでは古い時期に出現が少ない複合名詞をまとめるケースが特に多かった.以上のことから対象コーパスでfine-tuningすることで,文語表現のような現代にはない用法で用いられる用例がある単語で意味変化を捉えやすくなることが分かった.一方でfine-tuningによって,古い時期で現れない用法がある単語では,その用法をクラスタ化してしまう傾向があることが分かった.特に複合名詞をクラスタ化するケースが多かった.具体例として「非常」と「支払う」を紹介する.\begin{description}\item[非常]「非常」は「いつもと異なる」という語義から「程度が高い」という語義へ変化した.まず現代語BERTの結果を述べる.図\ref{hijou_gendai_scatter}のクラスタ0には,「非常時」や「非常な」のような「いつもと異なる」の語義の用例が属していた.クラスタ1には,「非常に」のような「程度が高い」の語義の用例が属していた.次に近代語BERTの結果を述べる.図\ref{hijou_kindai_scatter}のクラスタ0には「非常時」や「非常事態」のような複合名詞の用法の用例が属していた.クラスタ1には,「非常な」や「非常に」のような複合名詞以外の用法の用例が属していた.現代語BERTはクラスタを解釈すると原義や語義に対応するクラスタを形成したが,近代語BERTは複合名詞か否かという単語固有ではない用法でクラスタを形成しており,クラスタを解釈すると,クラスタ0は原義に対応するが,クラスタ1は原義と転義が混在している(「非常な」は原義に対応した用例が多く,「非常に」は転義に対応した用例が多い).\item[支払う]「支払う」は意味変化していない単語である.まず現代語BERTの結果を述べる.図\ref{shiharau_gendai_scatter}のクラスタ0には「支払うをす。」のような文語表現が多く属していた.クラスタ1には「支払う事」のような「支払う+名詞」という用法の用例と「支払う。」のように後ろに名詞を伴わない用法の用例が属していた.クラスタ2には「支払う金」のような「支払う+名詞」という用法の用例が属していた.図\ref{shiharau_gendai_bar}からクラスタ0が徐々に減少していることがわかる.次に近代語BERTの結果を述べる.図\ref{shiharau_kindai_scatter}のクラスタ0には文語表現,「支払う+名詞」,後ろに名詞を伴わない用法の用例が属していた.クラスタ1には「支払う+名詞」という用法の用例だけが属していた.現代語BERTでは文語表現か否かという特徴でクラスタを形成したが,近代語BERTでは文語表現のクラスタは形成されていない.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[t]\begin{center}\includegraphics{30-2ia16f10.pdf}\end{center}\subfigure{\label{hijou_gendai_scatter}}\subfigure{\label{hijou_gendai_bar}}\subfigure{\label{hijou_kindai_scatter}}\subfigure{\label{hijou_kindai_bar}}\subfigure{\label{shiharau_gendai_scatter}}\subfigure{\label{shiharau_gendai_bar}}\subfigure{\label{shiharau_kindai_scatter}}\subfigure{\label{shiharau_kindai_bar}}\vspace{-14pt}\caption{「非常」と「支払う」の結果.}\label{hijou_shiharau_results}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{定性判断とJSDスコアの乖離}現代語BERTと近代語BERTで異なる結果となった単語に注目し,分析を行う.まず意味変化していない単語に注目する.意味変化していない単語のうち「伴う」,「支払う」のJSDスコアのランキングは現代語BERTでは高く,近代語BERTでは低かった.「伴う」,「支払う」は\ref{gendai_vs_kindai_analysis}節で述べたように,現代では出現しないような用法をクラスタ化したケースであった.逆に,ランキングが現代語BERTでは低く,近代語BERTでは高い単語は「存在」の1単語である.この単語も\ref{gendai_vs_kindai_analysis}節で述べたように,古い時期には出現していなかった用法がクラスタ化されている.これらの単語はJSDスコアが高いことから,クラスタの比率の変化は起きている.このことから,手法はこれらの単語の意味変化ではなく,その単語特有ではない用法の変化を捉えたと考える.次に意味変化した単語に注目する.表\ref{kindai_vs_gendai}に示されているように「非常」は近代語BERTにおいて定性判断では意味変化を捉えていないがJSDのスコアは高い.「非常」は近代語BERTで複合名詞の用法のクラスタと複合名詞以外の用法のクラスタに分けられた.これは「非常」特有の用法の変化や語義の変化を捉えておらず,意味変化していない単語と同様に,その単語特有ではない用法の変化を捉えたといえる.以上のことから,クラスタリングベースの手法が意味変化ではなく,その単語特有ではない用法の変化を捉えたケースがあり,JSDスコアによる評価では,それらの違いを識別できないため2つの評価手法の結果に乖離が生じたと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,意味変化の分析手法として,辞書による教師ありのグルーピングを用いた手法とクラスタリングによる教師なしのグルーピングを用いた手法の比較を行なった.その結果,適用可能性を考慮するとクラスタリングを用いた手法が意味変化の分析において有効であることが分かった.さらに,辞書ベースの手法で用いる辞書とクラスタリングベースの手法で用いるクラスタリング手法を変更する追加実験を行なった.その結果,辞書ベースの手法では辞書によって結果が大きく変わることを確認し,クラスタリングベースの手法では$k$-means法がシンプルかつ有効であることを確認した.また,単語ベクトルの獲得方法として,現代語で学習したBERTと対象コーパスでfine-tuningをしたBERTを比較した.fine-tuningを行うことで文語のような古い表現でも意味変化を捉えられるケースがある一方で,古い時期で出現が少ない用法がある場合には意味変化を捉えられないケースが生じることが分かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は国立国語研究所の共同研究プロジェクト「通時コーパスの構築と日本語史研究の新展開」及びJSPS科研費19H00531の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{16refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{小林千真}{%2021年法政大学理工学部創生科学科卒業.同年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.現在に至る.}\bioauthor{相田太一}{%2020年長岡技術科学大学工学部電気電子情報工学課程卒業.2022年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年同大学同研究科同学域博士後期課程進学.現在に至る.}\bioauthor{岡照晃}{%2010年豊橋技術科学大学情報工学課程卒業.2012年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2013年より日本学術振興会特別研究員(DC2)を経て,2015年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同年京都大学大学院情報学研究科特定研究員.2016年国立国語研究所言語変化研究領域プロジェクト非常勤研究員.同年同研究所コーパス開発センター特任助教.2021年東京都立大学システムデザイン学部特任助教.2023年一橋大学大学院ソーシャル・データサイエンス研究科特任助教.現在に至る.}\bioauthor{小町守}{%2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年同研究科博士後期課程修了.博士(工学).同年同研究科助教.2013年首都大学東京(現東京都立大学)システムデザイン学部准教授.2022年同大学同学部教授.2023年より一橋大学大学院ソーシャル・データサイエンス研究科教授.現在に至る.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V09N04-04
\section{はじめに} \label{hajimeni}情報検索の結果から検索意図に適合する文書をふるいわけるのに,文書内容に対する手がかりとして要約が用いられる.このようなindicativeな目的に用いられる要約の目標は,できるだけ短い時間で正確な判断ができることである.多くの自動要約システムでは,単語の頻度や文の出現位置などの情報を用いて文ごとにスコアを付与し,高スコアの文をピックアップする方法(以降では重要文選択と呼ぶ)を採用している.この方法では長く複雑な文が選ばれがちである.このような要約を読むには,頭の中で文の構造を再構築するプロセスが必要になり,読者にとって負荷になる.我々は,この負荷を軽減するため,「読む」のではなく「一目でわかる」要約,すなわち,``At-a-glance''要約を研究の目標として設定した.句表現要約手法は,``At-a-glance''要約のひとつの実現方法として開発した.ここでは,その概念とアルゴリズムを述べる.また,この手法で作られた要約のふるいわけ効果の評価実験について述べる. \section{句表現要約の概念} \label{gainen}At-a-glance要約でひとつの具体的な目標にしたのが,電車の中吊り広告として見られる雑誌広告である.ここで示される記事の見出しは,その記事本体を読むか否かを判断するための情報で,まさにindicative要約になっている.これらの見出しは次のような性質をもっている.\begin{itemize}\item構造が単純\item文は短く\end{itemize}\noindent我々は,この単純さ,短さを「句」という言葉を用いて表す\footnote{日本語では「句」と「節」の明確な区別はない.ここでは,「句」を言語学的なものとは異なり,「短さ」,「単純さ」を強調するための概念的なものとして用いる.}.句表現要約は,重要概念(単語)を含んだ短い句の並びで文書の概要を表現することによって,「読む」負荷を読者に与えずに,重要概念間の関係が把握できることを目指すものである.短い句を生成するために,単語と単語の係り受け関係を基本単位として,ふるいわけに必要な重要な概念を含み,意味にまとまりをもたせるのに必要な最低限の関係だけを選択して組み立てる方法をとる. \section{アルゴリズム} \subsection{アルゴリズム概要}まず図\ref{algo}を用いてアルゴリズムの概要を示す.句表現要約手法には,大きくは次の4つのステップがある.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/algorithm.eps,width=10cm}\caption{アルゴリズム概略}\label{algo}\end{center}\end{figure}\begin{description}\item[1)係り受け関係の解析:]文書中の文を一文ごとに解析し,それぞれDAG(DirectedAcyclicGraph)を得る.ここでは,アークとその両端のノード(単語列:名詞連続も含む)をまとめたものを関係の単位(以降では{\bf関係単位}と呼ぶ)とする.アークは係り側単語列と受け側単語列の係り受け関係を示しており,関係名がラベルとして付与される.図\ref{algo}では説明のため意味的な役割を付記しているが,表層格を関係名として用いている.\item[2)コア関係の選択:]文書中の全関係単位から重要な関係単位をひとつ選択する.これを{\bfコア関係}と呼ぶ.図中では薄墨をつけたノードと太線のアークで示している.\item[3)関係の補完:]コア関係だけでは意味が特定されずふるいわけの情報としては不十分であるので,意味を限定し,意味的なまとまりを持たせるために必要な関係単位を補完する.図\ref{algo}ではこれらを二重線で囲んだ要素で示している.\item[4)表層句の生成:]DAG中で選択されたサブツリーから,次に示すような短い句を生成する.\begin{center}「ライフサイクル全体を視野に入れたリサイクルモデル」\end{center}\end{description}このアルゴリズムの基本構造を図\ref{frame}に示す.上記のステップを,最初に設定した条件(句の数や要約全体の長さなど)を満たすまで繰り返すことで,短い句を複数個得る.繰り返しの際に,用いた単語のスコアを一定の割合で落とすことにより,同じ単語ばかりが繰り返し出現することを避ける.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/frame.eps,width=8cm}\caption{アルゴリズム基本構造}\label{frame}\end{center}\end{figure}次節以降に,個々のステップを検討する.\subsection{係り受け解析}文書中の各文に対して係り受け解析を行い,単語(列)をノード,係り受け関係をアークとするDAGを得る.係り受け解析は,形態素解析結果の単語列に対して,パターンマッチにより係り受け関係を抽出する方法~\cite{miyauchi95}を用いている.この方法ではバックトラックを行わないため,解析誤りも含まれる.例えば,「N1のN2のN3」は基本的にあいまいな構造であるが,名詞$+$「の」は直後の名詞に係るようにしており,解析誤りが生じる可能性がある.このような解析誤りの一部は,関係補完のステップで``ambiguitypacking''という方法で隠蔽される.\subsection{関係スコアリングとコア関係選択}すべての関係単位に重要度スコアを付与する.まず,すべての単語にスコアを付与する.スコア付けの方法としては,一般的な方法であるtf*IDF積~\cite{salton89}をベースとして採用しているが\footnote{IDFを決めるためには,文書の全体集合を規定する必要があるが,ここではある時点でWWWから集めた100万文書を文書集合として用いている.また,これとは別に新聞記事からDFをカウントしたものも用意している(CD-毎日新聞95年版を利用させていただいた).},tf*IDF積ではtfの影響が強すぎる傾向が見られるので,tfの平方根をとることでtfによるスコアの伸びを抑える.関係スコアの計算式は次式で与える.\begin{equation}{\rmScore}={\rmSrel}\ast({\rmS1}+{\rmS2})\label{eq-score}\end{equation}S1,S2は関係アークでつながれる係り側と受け側の語ノードそれぞれのスコアである\footnote{なお,検索におけるクエリー中の語のスコアを高くすることで,それらの語が要約に含まれやすくし,ふるいわけにより適した要約を生成することが可能になる.この方法は次のテーマとして検討を進めている.}.複合語のスコアは,構成要素の単語スコアから計算する.長い複合語は意味を特定する目的には効果があるのだが,短い句を出す目的には不利になるので,両者のバランスをとり,構成要素の単語スコアの和を,それを構成する単語数に応じて減少させている.Srelは関係の種類に与える重要度である.動詞の格のように概念の中心的な役割を果たすものは大きく,名詞の並列のように関係が周辺的と考えられるものは低く設定している~\cite{oka99}.また,副詞のように修飾的な意味が強いものは,関係そのものを選択しないよう,${\rmSrel}=0$としている.付録\ref{app1}に関係の種類を列挙する.このようにしてスコア付けしたすべての関係単位の中から,スコアの最も大きいものを選択し,コア関係とする.\subsection{関係補完}コア関係だけでは提示される情報が不足し,ふるいわけの目的には十分ではない.情報をより特定する付加的な要素を補完し,読者が元文書の内容を推測することを助ける.ここではその補完規則から一部を示す(付録\ref{app2}に存在する規則を列挙する).\begin{itemize}\item{\bf必須格にあたる関係[H1]}\\係り側,受け側のいずれかが用言の場合,必須格に当たる関係を追加する.一部の動詞に対してはそれぞれに必須格にあたる関係を規定しているが,それ以外の動詞に対しては一律に「が」関係,「を」関係,「に」関係を必須格関係として扱っている.また,係助詞「は」,「も」,格助詞「の」,無形格もこれらを置き換え得るものとして同じ扱いとする.\begin{tabular}{ll}例)&フーバー社が発売する→フーバー社が\underline{PDAを}発売する\\&美しい女性→\underline{髪の}美しい女性\\\end{tabular}\item{\bf用言に修飾される名詞[E1]}\\用言によって修飾される名詞がある場合,この用言部分は埋め込み構造を形成する.受け側の名詞は,埋め込み文中の格を占める場合と,格を占めない場合(同格など)がある.いずれの場合も,句のまとまりを形成する上で必要であるため,用言から名詞への修飾関係を付加している.\begin{tabular}{ll}例)&PDAを発売する→PDAを発売する\underline{フーバー社}\\&PDAを発売する→PDAを発売する\underline{計画}\\\end{tabular}\item{\bf抽象度の高い名詞への修飾[H5]}\\「こと」,「もの」などの形式名詞や,「場合」,「時代」などそれ自身では独立して存在することが少なく,なんらかの限定的な修飾句を伴わなければ意味が通じないことが多い名詞を抽象度の高い名詞として定義し,これらの名詞を受け側とする関係を付加することにより,より適切な情報を提供する.\begin{tabular}{ll}例)&時代に活躍した→\underline{激動の}時代に活躍した\\\end{tabular}\item{\bfAmbiguityPacking\footnote{構文解析で用いられている場合とは異なった意味で用いている.}[E3]}\\既に述べたように,パターンマッチによる解析ではあいまいさを解消する能力までもたないため,解析誤りが含まれることが多い.例えば,\begin{center}アーチ型の屋根の庇\end{center}では,「アーチ型→屋根」,「屋根→庇」の2つの関係しかとっておらず,正しい「アーチ型→庇」がとれない.「アーチ型→屋根」の関係がすでに選択されている場合,「屋根→庇」の関係を補完し,結果的に「アーチ型の屋根の庇」として要約に含まれるようにする.より性能の高い解析器を用いた場合でも,あいまいさの完璧な解消はできないため,この方法は有効である\footnote{このように補完規則で解決できる解析誤りは一部である.誤った例として,元文書の「広東式月餅は日本で一年中売っているお菓子の月餅のような皮,潮州式月餅はパイ生地の皮という違いがあります.」という文から,「広東式月餅は...一年中売っている...」という句が生成されている例があった.「広東式月餅は」から「売っている」という係り受けが誤って抽出されていることがわかる.後述する実験の結果では,このような誤った係り受けが含まれている要約を用いながら,他の要約より良好な結果を得ている.Indicative目的にのみ用いていることが,誤りの悪影響の少ない要因と考えられる.}.\end{itemize}\subsection{終了条件の判定と繰り返し}終了条件は,句の数または要約全体の長さのいずれかで指定する.終了条件が満たされない場合,次の句を選択するため図\ref{frame}のコア選択以降を繰り返す.要約中の手がかりとなる語の種類を増やすため,このループで得られた句の中の語がなるべく繰り返し使われないようにする.このために今回使われた語(補完された単語も含む)のスコアを減らす.これを行う関係再スコアリングというステップを図\ref{frame}のコア選択に入る前に入れる.関係再スコアリングで行っている処理は以下のとおり.\begin{enumerate}\item今回使われた語(補完された単語も含む)のスコアに一定の逓減率R($0<{\rmR}<1$)を積算する\item新しい単語スコアを用いて,式(\ref{eq-score})に従い,文書中のすべての関係単位のスコアを計算する.\end{enumerate}逓減率Rは0.5を標準としている.Rの値の設定に関する考察は付録\ref{app3}を参照されたい.なお,2回目以降のコア選択においては,それまでに用いられた関係単位は除外する.この除外規定では1文中から複数のコア関係が選択されることはありうるので,1文から複数の句が生成される場合もある.またそれらがお互いの一部を共有する場合もある\footnote{一部を共有する句の場合,一つの句に結合しても予め設定した句長制限よりも短い場合には,結合した句を出力するようにしている.}.\subsection{表層句の生成}このようにして,コア関係にいくつかの関係が付加された複数のDAGが得られる.このステップにおいては,ノードおよびアークにそれぞれ対応付けられている表層表現を出現順に取り出して結合することで,それぞれのDAGごとに表層表現を得る.得られた表層表現を,元文書における出現順に列挙する. \section{実現と応用} このアルゴリズムに基づいて,要約システムを開発した.開発言語はJavaで,WindowsNT~/~2000およびSolaris2.6上で稼動している\footnote{JavaおよびSolarisはSunMicrosystems社の,WindowsはMicrosoft社,CeleronはIntel社の商標である.}.要約に要する時間はテキスト長に比例し,4KB(2000文字,A4文書1ページ相当)の文書の場合,Celeron500MHzのPCで約700\,msecである.95\,\%以上が解析(形態素解析と係り受け解析)で消費されている.\begin{figure}[htbp]\vspace{-1em}\begin{center}\epsfile{file=eps/applyex.eps,width=10cm}\caption{適用例}\label{applyex}\end{center}\end{figure}文書管理システムとの統合例を図\ref{applyex}に示す.検索結果として得られた文書に,句表現要約(ここでは「キーフレーズ」という名前で示されている)を付加して列挙している. \section{評価} 句表現要約の目的は,検索結果のふるいわけを速く的確に行えるようにすることである.これを評価するために,タスクベースの評価実験を設計し,実施した~\cite{oka00}.その方法と結果を示す.また,国立情報学研究所主催のNTCIR-2ワークショップのサブタスクであるTSC(TextSummarizationChallenge)での評価結果~\cite{oka01}を述べる.\subsection{タスクベース実験の設計と実施}タスクベースの評価実験~\cite{jing98,mani98,hand97}は,ある課題・場面を設定して,人間がその道具を用いてどれだけ問題を解決できたかという達成度から,道具を評価するものである.このような人間を評価者として用いる実験の問題には,評価のゆれによる不正確さがある.このゆれを少なくするため,既存の評価研究を調査して問題点を検討し,以下の方針で臨んだ.\begin{description}\item[1)評価者を多くして平均をとる:]これまでのタスクベース評価では,ひとつの要約に対する評価者数はせいぜい1名または2名であった.我々は評価者を10名アサインすることで,個人差による影響を減らした.\item[2)評価者に詳細な指示を与える:]ある情報を調べる必要性が生じた状況までバックグラウンドストーリーとして与えることで,情報要求を明確化し,評価者の検索結果に対する判断の統一を図った.\item[3)判断のレベルを設定する:]要約から本文を読むか否かを判断する基準は個人により大きく異なり,緊急度など状況にも依存するので,適合/非適合の2段階での評価は不正確である.このため,4段階の適合レベルを設定し,それぞれの判断基準を明確化して評価者に与えた.\end{description}\subsubsection{実験方法}評価実験方法の概略を示す(図\ref{expoutline}).\begin{figure}[htbp]\begin{center}\epsfile{file=eps/expoutline.eps,width=10cm}\caption{情報検索タスクに基づく評価実験}\label{expoutline}\end{center}\end{figure}\begin{enumerate}\item情報要求(informationneed)を仮定し,その情報要求を得るためのクエリーを決める.\item実際のWWW検索結果から,情報要求に適合するものとそうでないものが適当な数混じるように10文書選択し,それぞれについて以下の4種の要約を作成する.選択した元文書の大きさは最小372文字,最大5633文字(平均1502文字)とばらつきがあるが,要約はほぼ同じ長さ(80文字)に近くなるようになるように作成した.\begin{enumerate}\item[(A)]先頭80文字(WWW検索エンジンで主に用いられる方法)\item[(B)]重要文選択~\cite{zechner96}\item[(C)]句表現要約(本手法)\item[(D)]キーワード列挙\end{enumerate}\item評価者に,これらの要約から各検索結果がどれだけ情報要求と適合するかを判定してもらう.被験者には,以下のような評価基準を与え,4段階(以降ではこれをL0(×)からL3(◎)に読み替える)に評価してもらった.\begin{center}\vspace{0.3cm}\begin{tabular}{|p{2em}rl|}\hline\multicolumn{3}{|l|}{評価基準(被験者に与えたもの)}\\&◎:&要約の中に,知りたいことの答の一部と思われる箇所がある.\\&○:&要約の中に,答に関連すると思われる箇所がある.\\&△:&約の中には,知りたいことに関連しそうな箇所はない.\\&&しかし,原文書に書いてある可能性は捨て切れない.\\&×:&要約からは,知りたいこととの関連は見出せない.\\\hline\end{tabular}\vspace{0.3cm}\end{center}被験者にはクエリーごとの評価基準は与えておらず,通常検索を行う際と同様に要約を手がかりとして情報要求に適合するかどうかを判断してもらった(ただし質問があれば答えている).\item文書から判定した情報要求との関連性と比較する.文書自体は,情報要求への適合と不適合の2レベルに分けられ,この判断は実験者側で行った.課題は表\ref{kadai}に示す3つを選択した.このうちの2つ(課題a1とa2)は,同じコンテキスト中から2つ選択したので,ひとつの検索結果(10文書)を用意し,それぞれの文書に対し,課題a1とa2それぞれの適合性を評価してもらった.\end{enumerate}\begin{table}[hbtp]\begin{center}\caption{選択した課題}\epsfile{file=eps/kadai.eps,width=9.5cm}\label{kadai}\end{center}\end{table}\subsubsection{分析方法}次に,このようにして得られた実験結果の分析方法に関して検討する.\paragraph{適合率と再現率}~\\\indent要約の適切さは,要約から適合と判断した文書集合が実際に適合している文書の集合と一致する度合い,すなわち適合率と再現率(図\ref{howtocalc}に計算方法を示す)を用いて評価できる.4段階の適合レベル(まったく適合していないL0から最も適合しているL3)を導入したため,評価者が適合と判断した検索結果集合のサブセットEは,E3(L3のみ適合とみなす),E2(L3とL2を適合とみなす),E1(L3+L2+L1をすべて適合とみなす)の3種類を考えることができる.一方元文書が適合している文書の集合Rは固定的に決まるので,3種類の適合率・再現率を考えることができる.E3は確実に適合しているもののみを適合とみなすので適合率重視,E1は不確実なものも含めるため再現率重視ということができる.この方法をとることにより,要約が,適合率重視の検索に適しているか,再現率重視の検索に適しているかというように,目的に適しているかどうかの評価を行うことができる.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/howtocalc.eps,width=11cm}\caption{適合率と再現率の計算方法}\label{howtocalc}\end{center}\end{figure}\paragraph{適合性スコア}~\\\indent適合率と再現率は要約結果を集合として評価するため,個々の要約結果が適合性の判断にどのような効果を与えるか判断できない.要約品質を向上させるためには,個々の要約結果の品質を評価できる必要がある.このため,評価者による関連度の評価と実際の関連度の関係を示す{\bf適合性スコア}という指標を導入した.このスコアは表\ref{score}のように与える.\begin{table}[htbp]\begin{center}\caption{適合性スコア}\epsfile{file=eps/score.eps,width=10.5cm}\label{score}\end{center}\end{table}個々の要約結果に対して,評価者の適合性スコアの平均を出すことで,要約結果ごとの評価を行うことができる.要約手法ごとにこの値を平均することで,要約手法の比較評価ができる.適合性スコアの付与においては,適合であるとの判断の正誤には高い配点を,不適合との判断の正誤には低い配点を与えている.要約が本文全体の情報を含むことができないという性質上,適合であることの判断はできても,不適合であるという判断は完全にはできないためである.\subsubsection{実験結果}\paragraph{再現率と適合率}~\\\indent再現率と適合率はトレードオフの関係にあるため,両者の総合指標であるF-measureを用いる.\[\mbox{F-measure}=\frac{2\ast{\rmprecision}\ast{\rmrecall}}{{\rmprecision}+{\rmrecall}}\]3種の異なったタスクの実験結果のF-measureの平均を図\ref{fmeasure}に示す.適合性重視,再現性重視のいずれの場合も,句表現要約(C)のスコアが高いことがわかる.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/fmeasure.eps,width=10cm}\caption{F-measure}\label{fmeasure}\end{center}\end{figure}\paragraph{適合性スコア}~\\\indent適合性スコアによる評価結果を図\ref{scoregraph}に示す.句表現要約(C)が平均では最も高い値を出している.タスク別では課題a2と課題bで最大になっている.課題a1に対しては,重要文選択(B)が最も高い値にはなっているが,どの要約も全体的に低いスコアにとどまっている.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/scoregraph.eps,width=12cm}\caption{適合性スコア}\label{scoregraph}\end{center}\end{figure}\vspace{-2em}\begin{table}[htbp]\begin{center}\caption{手がかりの数と適合性スコア}\epsfile{file=eps/score2.eps,width=14cm}\label{score2}\end{center}\end{table}\vspace{-2em}\subsubsection{結果の分析}適合性の評価結果は,情報要求に対する手がかりを含む要約の数で異なってくると考えられる.(C)句や(D)キーワードのように短い単位で構成されているものの要約は,元文書の広い範囲から集められたものになっており,手がかりを含む可能性が高い.手がかりを含む要約の数の平均をとると,(B)文:2.0,(C)句:4.3,(D)キーワード:4.7である(表\ref{score2}).(D)キーワードは他の要約例よりも手がかりを含む要約数が多いにもかかわらず,結果のF-measureは高くない.表\ref{score2}には,手がかりを含む要約に対する適合性スコアも同時に示している.(C)句と(D)キーワードを比較すると,(C)句が高い値を示している.(D)キーワードは,キーワード間の関係に関する情報が欠けているため,十分な情報量が得られないためと考えられる.一方(B)文は,手がかりを含む要約の間では最も高い値を示しているが,手がかりを含む要約自体が少ないため,全体的にふるいわけ効果が低いと考えられる.このように,ふるいわけに適した要約とは,手がかりのカバー率が高く,個々の要約が十分な情報量をもつ必要があると考えられる.句表現要約は両者のバランスがとれているため,ふるいわけに適していると考えられる.\subsubsection{結果の分析}我々のタスクベース実験はこれまでの行われたタスクベース実験に比べ以下のような利点があると考えられる.\paragraph{より正確な評価}~\\\indentこれまでの評価方法よりも詳細なインストラクションを与えたことと,ひとつの要約サンプルを評価する人数をこれまでの1〜2名から10名に増やしたことでより正確な評価を目指した.タスクベース実験後,被験者に元文書のクエリーへの適合度を評価してもらったところ,我々の設定した評価と93\,\%が一致した.同様の評価がSUMMAC(TIPSTERTextSummarizationEvaluationConference)でなされたが,一致度は69\,\%にしかならなかった.また全ての被験者(40名)の評価が我々の評価と一致した文書の割合は33\,\%だったのに対し,SUMMACでは14人と評価者が少ないにもかかわらず一致したものは17\,\%に過ぎなかった~\cite{mani98}.このようにインストラクションを詳細に与えても,「本文が適合するか否かを要約を用いて判断する」というタスクの性格上,被験者間の差異が生じうる.月餅の中身を知る例では,具体的な中身がひとつだけかかれている例(句表現要約)として「...お茶メーカーなどが「茶月餅」と名付けたお茶入り...」が含まれるものがあり,これに対して被験者の4名が◎,3名が○,3名が△の評価を与えている(一方,「...フルーツ風味餡の月餅...」を含む要約では9名が◎,1名が○となっており,要約の現れ方により差が出ている).インストラクションを詳細に与えても評価者間の差異が生じるため,被験者が1〜2名では十分ではないことがわかる.\paragraph{目的に合わせた評価を可能にする複数レベルの適合性の導入}~\\\indent不適合を含め4レベルの適合性評価を行ったことで,3種類の適合文書セットを得られるため,適合率重視の場合/再現率重視の場合を想定することができ,それぞれの要約の目的に合わせた評価を可能にする.\paragraph{要約ごとの評価を可能にする適合性スコアの導入}~\\\indent適合率再現率は複数の要約があって成立するものであるが,我々が導入した適合性スコアを用いれば個々の要約ごとに評価が可能になる.検索キーワードの含有率などの特性評価との相関を検討することにより,要約の品質を向上させる方法を知ることができる.我々自身も,句表現要約の改良にはこの恩恵を受けている.\subsection{TSC評価実験}句表現要約は検索のふるいわけに適した要約を目指しているため,TSC(TextSummarizationChallenge)~\cite{fukushima01}でも,タスクベース実験に参加した.TSCの実験方法は,我々の実験と同様,評価者が適合と判定した文書の再現率・適合率を出すものである.ここではBレベルの正解判定(主題ではないものも含む)の結果を用いた.情報要求が満たせれば,それが主題であるか否かは無関係であるためである.また,今回はクエリーに含まれる語のスコアを高くする方法を採用し,「検索要求に適した要約」の予備評価を行うことにした.TSCでは要約長は規定されていなかったが,元文書の適合性を判断するには,要約の情報量が多いほど有利になるため,規定を設ける必要があったと考える.我々は,要約があることで本文を読むことなく本文の適合性を判断するという目的を考え,本文約800文字に対して,100文字以内と150文字以内の2つの句表現要約をエントリーした(以降では,それぞれSystem3,System4としてリファーされている)が,図\ref{charfme}でわかるように他の参加システムに比べ,要約長はかなり短いものであった.要約長が長いと適合率・再現率は上がると考えられ,図\ref{charfme}でもそれは現れている.評価に要した時間も計測したので,図\ref{timefme}には時間とF-measureの関係を示す.要約を読む時間は長さにほぼ比例すると考えられるので,我々のシステムは時間でも最も短くなっている.\begin{figure}[htbp]\vspace{2em}\begin{center}\begin{minipage}{0.53\textwidth}\begin{center}\epsfile{file=eps/charfme.eps,height=6.8cm}\caption{文字数とF-measureの関係}\label{charfme}\end{center}\end{minipage}\begin{minipage}{0.47\textwidth}\begin{center}\epsfile{file=eps/timefme.eps,height=6.8cm}\caption{所要時間とF-measureの関係}\label{timefme}\end{center}\end{minipage}\end{center}\vspace*{1em}\end{figure}この評価から次のような考察が得られる.\begin{enumerate}\item句表現要約は,ほぼ同等のF-measureである他の要約群に比べ,速いスピードでの判定が可能である.\item本文の長さの約1/8で要約が表現されているにもかかわらず,本文そのものと同程度の正確さでの判定が可能である.\end{enumerate} \section{関連研究} \cite{zechner96}をはじめとして,多くの研究が重要文選択という手法を採用しており,その中で,どのように重要文を選択するかを問題にしている~\cite{okumura98}.我々は,重要文選択では長い文が選択されがちで,読む負荷が大きいことを問題にし,関係を組み合わせて句を合成することによる要約の生成手法を提案した.ここでは,我々の視点で類似研究をまとめる.まず,短い文にするという点では,文の言い替え,不要な修飾語の削除で文を短縮するという方向がある.\cite{wakao98},\cite{mikami98}は,TVニュースにおいて,聞かせるための原稿から,読ませるための字幕を作成することを目的としている.このinformativeという性質上,情報をなるべく落とさないようにすることが必要で,あまり短くはできない.Indicativeを目的とする場合はもっと短くできるはずであるが,文の中心構造を残し,修飾部分を減らす方向では,句表現要約ほど短い要約を作ることはできない.\cite{boguraev97}による要約手法は,文またはパラグラフではなく,句表現(``phrasalexpression'')を採用している.この要約の目的は速読であり,そのため段落ごとにトピックを選定し,そのトピックがどのように扱われるかを提示するのに用いられている.方法としては,単語で表したトピック(``topicstamp'')から句を作っていくもので,ひとつのトピックから複数の句を構成するため,検索結果のふるいわけに適した要約にはなっていない.また,アークの役割や重要性を使っていないため,あまり重要でない語も同様にコアに付加される.文を合成するという立場が似ている研究としては,\cite{hovy97},\cite{kondou96}などがある.これらは,シソーラスなどを用いて複数の単語を上位概念で置き換えた文を構成することをねらっている.文章全体の意味を短い表現で置き換えることは要約の目指すところではあるが,単語レベルでの置換では適用範囲が限られるし,より大きな単位の置換が可能になると,知りたかったことが抽象化されすぎて見えなくなる問題も生じるだろう.我々の句表現要約と同じく,語と語の関係をベースに要約を作るものには,\cite{nagao97}がある.これは,GDA(GlobalDocumentAnnotation)という意味構造をあらかじめ文書中にタグとして付与しておくことにより,要約など文書の種々の機械的処理を可能にしようという試みである.必須格などの重要な関係を追加していく点などで手法に類似性があるが,At-a-glanceを目的とした短い句を出すものではなく,文の形式を保持しながら長さを柔軟に変更できる要約を目指したものになっている.検索対象文書全てに適切な意味構造が与えられる状況は当面期待できず,検索結果のふるいわけへの応用は難しい. \section{おわりに} 本論文では,At-a-glance要約の概念を提示し,この概念の具体化である句表現要約手法のアルゴリズムを示した.また,開発したシステムを紹介した.さらに,新しく考案したタスクベース評価の方法を示し,句表現要約手法によって作られた要約がふるいわけに有効であることを示した.今後の課題として次のようなものがある.\begin{description}\item[1)クエリーを反映させた要約:]検索結果のふるいわけに用いる場合,クエリーで用いられた語がどのように使われているか知ることが,要不要の判断に重要な役割を果たす.このため,クエリーを反映させた要約作成の方法を検討している.\cite{oka01}は,その予備的評価になっている.\item[2)他言語への適応:]このアルゴリズムは日本語に特化したものであるが,基本的な考え方は他の言語にも適用可能と考える\footnote{ただし,``At-a-glance''性の効果が,漢字の表意文字の性質から得られている可能性も検討する必要がある.}.\cite{ueda00}では,英語での句表現要約生成方法について検討している.\item[3)品質の向上:]要約の品質は解析の精度による部分が大きい.現在はパターンマッチをベースとしているが,意味を考慮に入れた構文解析器の導入で精度の向上を図ることが可能であると考える.\end{description}\acknowledgment研究所および開発部をはじめ,議論,レビューを通じ本論文のブラッシュアップに貢献していただいた諸氏,および評価実験の被験者を快く引き受けていただいた諸氏に感謝する.\bibliographystyle{jnlpbbl}\bibliography{353}\appendix \section{関係の種類} \label{app1}係り受け関係は個別には100種類以上あるので,タイプ別にまとめ図\ref{kankei}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/kankei.eps,width=12cm}\caption{関係の種類別リスト}\label{kankei}\end{center}\end{figure} \section{補完規則} \label{app2}ここでは補完規則のうちコア関係に対する補完規則を示す.補完された関係にさらに補完を行う規則が存在するが,この規則のサブセットであるため省略する.コア関係が図\ref{complement}のノードA,BとアークRcoreで形成されているとき,付加可能な関係は,係り側Aにかかる関係(ノードCとアークRc),受け側Bに係る関係(ノードDとアークRd),受け側Bからかかる関係(アークReとノードE)の3種である.表\ref{comprule}に補完規則をまとめる.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/complement.eps,width=10cm}\caption{補完される場所}\label{complement}\end{center}\end{figure}\vspace{-2em}\begin{table}[htbp]\begin{center}\caption{補完規則}\epsfile{file=eps/comprule.eps,width=14cm}\label{comprule}\end{center}\end{table} \section{低減率の効果} \label{app3}低減率を変え,本論文の第\ref{hajimeni}章および第\ref{gainen}章に対して句表現要約を作成した結果を示す.\bigskip{\bf\begin{tabular}{l}${\rmR}=0.9$\\...indicativeな目的に用いられる要約の目標...\\句表現要約手法は,...開発した.\\句表現要約は,...「読む」負荷を読者に与えず...\\句表現要約は,...句の並びで文書の概要を表現する...\\...単語と単語の係り受け関係を...ふるいわけ...\\\end{tabular}}\bigskip{\bf\begin{tabular}{l}${\rmR}=0.6$\\...文をピックアップする方法を採用している.\\句表現要約手法は,...開発した.\\...要約のふるいわけ効果の評価実験について述べる.\\句表現要約は,...「読む」負荷を読者に与えず...\\...単語と単語の係り受け関係を...ふるいわけ...\\\end{tabular}}\bigskip{\bf\begin{tabular}{l}${\rmR}=0.3$\\...文をピックアップする方法を採用している.\\...要約のふるいわけ効果の評価実験について述べる.\\At-a-glance要約で...具体的な目標にした...\\句表現要約は,...「読む」負荷を読者に与えず...\\...単語と単語の係り受け関係を...ふるいわけ...\end{tabular}}\vspace{2zw}このように低減率を1に近くすると初期スコアの高い単語列(この場合は「句表現要約」)が複数回出現し,0に近づけると異なった部分が採用されやすくなる.どの要約が最もよいかという評価基準は存在せず,目的に合わせて選択することになる.現状では,要約を予め作成しておくため,より広い検索要求に応えられるよう異なった重要語が含まれるように(低減率は小さく),一方特に重要な語はそれに応じて複数回出すこともできるように(低減率は大きく)という目的にあわせて0.5に設定している.検索要求に適した要約を検索時に作成する場合には検索要求に現れる語がどのようなコンテキストで現れているかがなるべく多く現れるようにするため低減率を1に近く設定しておいたほうがよいと考えられる.\vspace{.5zw}\begin{biography}\biotitle{略歴}\bioauthor{上田良寛}{1980年京都大学工学部卒業.1982年同大学大学院工学研究科修士課程修了.同年富士ゼロックスに入社.機械翻訳,推敲支援,情報検索,要約などの研究・開発に従事.1988年から1991年までATR自動翻訳電話研究所に在籍.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{岡満美子}{1988年早稲田大学理工学部卒業.1990年同大学大学院理工学研究科修士課程修了.同年富士ゼロックスに入社.情報検索,テキスト要約などの研究・開発に従事.言語処理学会,情報処理学会,日本認知科学会各会員.}\bioauthor{小山剛弘}{1983年九州大学工学部卒業.1985年同大学大学院工学研究科修士課程修了.同年日本電気に入社.機械翻訳の研究・開発に従事.1991年富士ゼロックスに入社.情報検索,要約,分類などの研究・開発に従事.}\bioauthor{宮内忠信}{1987年東京農工大学工学部数理情報工学科卒業.同年富士ゼロックス入社.自然言語処理,情報検索等の研究開発に従事.情報処理学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V17N02-01
\section{はじめに} 科学技術や文化の発展に伴い,新しい用語が次々と作られインターネットによって世界中に発信される.外国の技術や文化を取り入れるために,これらの用語を迅速に母国語へ翻訳する必要性が高まっている.外国語を翻訳する方法には「意味訳」と「翻字」がある.意味訳は原言語の意味を翻訳先の言語で表記し,翻字は原言語の発音を翻訳先の言語における音韻体系で表記する.専門用語や固有名詞は翻字されることが多い.日本語や韓国語はカタカナやハングルなどの表音文字を用いて外国語を翻字する.それに対して,中国語は漢字を用いて翻字する.しかし,漢字は表意文字であるため,同じ発音に複数の文字が対応し,文字によって意味や印象が異なる.その結果,同音異義の問題が発生する.すなわち,翻字に使用する漢字によって,翻字された用語に対する意味や印象が変わってしまう.例えば,飲料水の名称である「コカコーラ(Coca-Cola)」に対して様々な漢字列で発音を表記することができる.公式の表記は「\UTFC{53EF}\UTFC{53E3}\UTFC{53EF}\UTFC{4E50}/ke--ko--ke--le/」であり,原言語と発音が近い.さらに,「\UTFC{53EF}\UTFC{53E3}」には「美味しい」,「\UTFC{53EF}\UTFC{4E50}」には「楽しい」という意味があり,飲料水として良い印象を与える.「Coca-Cola」の発音に近い漢字列として「\UTFC{53E3}\UTFC{5361}\UTFC{53E3}\UTFC{62C9}/ko--ka--ko--la/」もある.しかし,「\UTFC{53E3}\UTFC{5361}」には「喉に詰まる」という意味があり,飲料水の名称として不適切である.また,「人名」や「地名」といった翻字対象の種別によっても使用される漢字の傾向が異なる.例えば,「\UTFC{5B9D}」と「\UTFC{5821}」の発音はどちらも/bao/である.「\UTFC{5B9D}」には「貴重」や「宝物」などの意味があり中国語で人名や商品名によく使われるのに対して,「\UTFC{5821}」には「砦」や「小さい城」などの意味があり中国語で地名によく使われる.以上の例より,中国語への翻字においては,発音だけではなく,漢字が持つ意味や印象,さらに翻字対象の種別も考慮して漢字を選択する必要がある.この点は,企業名や商品名を中国に普及させてブランドイメージを高めたい企業にとって特に重要である.翻字に関する既存の手法は,「狭義の翻字」と「逆翻字」に大別することができる.「狭義の翻字」は,外国語を移入して新しい用語を生成する処理である\cite{Article_10,Article_11,Article_16,Article_18}.「逆翻字」は既に翻字された用語に対する元の用語を特定する処理である\cite{Article_01,Article_02,Article_04,Article_05,Article_06,Article_07,Article_08,Article_09,Article_12,Article_14}.逆翻字は主に言語横断検索や機械翻訳に応用されている.どちらの翻字も発音をモデル化して音訳を行う点は共通している.しかし,逆翻字は新しい用語を生成しないため,本研究とは目的が異なる.本研究の目的は狭義の翻字であり,以降,本論文では「翻字」を「狭義の翻字」の意味で使う.中国語を対象とした翻字の研究において,\cite{Article_10,Article_16,Article_18}は人名や地名などの外来語に対して,発音モデルと言語モデルを単独または組み合わせて使用した.それに対して,\cite{Article_11,Article_19,Article_21}は翻字対象語の意味や印象も使用した.\cite{Article_11}は,外国人名を翻字する際に,対象人名の言語(日本語や韓国語など),性別,姓名を考慮した.しかし,この手法は人名のみを対象としているので企業名や商品名などには利用できない.\cite{Article_19}は翻字対象語の発音と印象を考慮し,\cite{Article_21}は翻字対象語の種別も考慮した.\cite{Article_19}と\cite{Article_21}では,翻字対象の印象を表す「印象キーワード」に基づいて,翻字に使用する漢字を選択する.しかし,印象キーワードはユーザが中国語で与える必要がある.本研究は,\cite{Article_19}と\cite{Article_21}の手法に基づいて,さらに印象キーワードを人手で与える代わりにWorldWideWebから自動的に抽出して中国語への翻字に使用する手法を提案する.以下,\ref{sec:method}で本研究で提案する手法について説明し,\ref{sec:exp}で提案手法を評価する. \section{提案する翻字手法} label{sec:method}\subsection{概要}\label{sec:overview}\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f1.eps}\end{center}\caption{提案する翻字手法の概要}\label{fig:1}\end{figure}本研究で提案する翻字手法の概要を図\ref{fig:1}に示す.図\ref{fig:1}は,\cite{Article_21}と同様に左から「発音モデル」,「印象モデル」,「言語モデル」に大別される.図\ref{fig:1}において,太い破線で囲まれた部分が本研究の特長である.以下,\mbox{図\ref{fig:1}}に基づいて翻字手法について説明する.本手法への入力は2つある.1つ目は,翻字対象となる外国語の用語である.2つ目は,翻字対象の種別として「人名」,「企業名」,「商品名」などのカテゴリを入力する.本手法はこれらの入力に対して,1つ以上の漢字列を翻字の候補として出力する.\cite{Article_21}では,3つ目の入力として翻字対象の意味や印象を表す「印象キーワード」を人手で入力する必要がある.しかし,本手法ではWebから関連語を自動抽出する.「発音モデル」,「印象モデル」,「言語モデル」に基づく翻字手法や関連語抽出手法そのものに新規性はない.本研究の貢献は,{\cite{Article_21}の翻字手法に関連語抽出手法を統合して,ユーザが印象キーワードを与える負担を削減する点にある.図\ref{fig:1}の最左では,「発音モデル」によって翻字対象と発音が似ている漢字列とそれぞれの確率が得られており,これらの漢字列が翻字候補となる.現在,翻字対象となる外国語として日本語のカタカナ語を対象としている.カタカナ語は発音表記であるローマ字に変換することが容易だからである.ただし,ローマ字表記に変換することができれば,他の言語を入力することも可能である.図\ref{fig:1}の中央では,「印象モデル」によって,自動抽出した翻字対象の関連語に関連する漢字とそれぞれの確率が得られている.図\ref{fig:1}では,「\UTFC{559C}\UTFC{7231}」,「\UTFC{666E}\UTFC{53CA}」,「\UTFC{666E}\UTFC{901A}」,「\UTFC{597D}」といった関連語の集合を用いて,「\UTFC{7231}」,「\UTFC{666E}」,「\UTFC{597D}」といった漢字とそれぞれの確率が得られている.\cite{Article_19}と\cite{Article_21}では,関連語(印象キーワード)はユーザが中国語で与える必要がある.したがって,ユーザは翻字対象が指す実体や概念について知っていなければならず,また,中国語も知っていなければならない.その結果,システムを利用できるユーザが制限されてしまう.本研究は関連語を自動抽出して,この問題を解消する.なお,「印象キーワード」という用語は\cite{Article_21}に従っており,実際には人手で与えた関連語である.図\ref{fig:1}の最右では,入力された種別に対応する言語モデルとして「企業名言語モデル」が選ばれている.発音モデルで得られた翻字候補は複数になる場合があるため,それぞれに順位を付ける.具体的には,発音モデルで得られた確率を印象モデルおよび言語モデルで得られた漢字の確率と統合して,翻字対象に順位を付ける.以下,\ref{sec:prob}で確率的な漢字選択手法の全体像について説明する.\ref{sec:pronu}〜\ref{sec:categ}で「発音」,「印象」,「言語」のモデル化について個別に説明し,\ref{sec:auto}で関連語の抽出について説明する.\ref{sec:prob}〜\ref{sec:categ}は\cite{Article_21}に基づいている.\subsection{漢字選択ための確率モデル}\label{sec:prob}本研究における翻字の目的は,「翻字対象のローマ字表記$R$」,「関連語$W$」,「翻字対象の種別$C$」が与えられた条件のもとで,$P(K|R,W,C)$が最大になる漢字列$K$を選択することである.式(\ref{eq:Bayes})を用いて$P(K|R,W,C)$を計算する.\pagebreak\begin{equation}\begin{split}P(K|R,W,C)&=\frac{P(R,W,C|K)\timesP(K)}{P(R,W,C)}\\&\approx\frac{P(R|K)\timesP(W|K)\timesP(C|K)\timesP(K)}{P(R,W,C)}\\&\proptoP(R|K)\timesP(W|K)\timesP(C|K)\timesP(K)\\&=P(R|K)\timesP(W|K)\timesP(C,K)\label{eq:Bayes}\end{split}\end{equation}式(\ref{eq:Bayes})の1行目はベイズの定理を用いた変形であり,2行目では$R$,$W$,$C$が互いに独立であると仮定している.$P(R,W,C)$は$K$に依存しないため無視する.最終的に,$P(K|R,W,C)$は$P(R|K)$,$P(W|K)$,$P(C,K)$の積として近似され,それぞれ「発音モデル」,「印象モデル」,「言語モデル」と呼ばれる.\subsection{発音モデル}\label{sec:pronu}発音モデルは,中国語の漢字列$K$が与えられた条件のもとで,ローマ字表記$R$が生成される条件付き確率$P(R|K)$であり,式(\ref{eq:Pronun})を用いて計算する.ローマ字表記はヘボン式を使用し,中国語のピンイン$Y$を中間言語として,中国語の漢字に変換する.\begin{equation}\begin{split}P(R|K)&\approxP(R|Y)\timesP(Y|K)\\&\approx\prod_{i=1}^NP(r_{i}|y_{i})\times\prod_{i=1}^NP(y_{i}|k_{i})\label{eq:Pronun}\end{split}\end{equation}$r_{i}$,$y_{i}$,$k_{i}$はそれぞれローマ字の音節,ピンインの音節,漢字1文字である.例えば,漢字列「\UTFC{7231}\UTFC{666E}\UTFC{751F}」が与えられた条件のもとで,ローマ字の音節「epuson」が生成される確率を計算する場合は,ピンインの音節「aipusheng」を中継して,式(\ref{eq:Cyukei})のように計算する.\begin{eqnarray}&&P(\textrm{epuson}|\textrm{\UTFC{7231}\UTFC{666E}\UTFC{751F}})\label{eq:Cyukei}\nonumber\\&&=\!P(\textrm{e\,pu\,son}|\textrm{ai\,pu\,sheng})\!\times\!P(\textrm{ai\,pu\,sheng}|\,\textrm{\UTFC{7231}\UTFC{666E}\UTFC{751F}})\nonumber\\&&=\!P(\textrm{e}|\textrm{ai})\!\times\!P(\textrm{pu}|\textrm{pu})\!\times\!P(\textrm{son}|\textrm{sheng})\!\times\!P(\textrm{ai}|\textrm{\UTFC{7231}})\times\!P(\textrm{pu}|\textrm{\UTFC{666E}})\!\times\!P(\textrm{sheng}|\textrm{\UTFC{751F}})\end{eqnarray}\begin{table}[b]\caption{ローマ字音節とピンイン音節の対応頻度と確率}\label{table:Pry}\input{02table01.txt}\end{table}\begin{table}[b]\caption{ピンイン音節と漢字の対応頻度と確率}\label{table:Pyk}\input{02table02.txt}\end{table}式(\ref{eq:Pronun})中の$P(r_{i}|y_{i})$と$P(y_{i}|k_{i})$は式(\ref{eq:Ryk})を用いて計算する.\begin{equation}\begin{split}P(r_{i}|y_{i})=\frac{F(r_{i},y_{i})}{\displaystyle{\sum_{j}}F(r_{j},y_{i})}\\P(y_{i}|k_{i})=\frac{F(y_{i},k_{i})}{\displaystyle{\sum_{j}}F(y_{j},k_{i})}\label{eq:Ryk}\end{split}\end{equation}$F(r_{i},y_{i})$はローマ字の音節$r_{i}$とピンインの音節$y_{i}$が対応する頻度であり,$F(y_{i},k_{i})$はピンインの音節$y_{i}$と漢字$k_{i}$が対応する頻度である.これらの頻度を計算するために,日中対訳辞書\cite{Book_02}のピンイン付き中国語と対応するカタカナ語$1,136$対を参考にして,ローマ字とピンインの音節,ピンインの音節と漢字を人手で対応付けた.これらの一部をそれぞれ表1と2に示す.表\ref{table:Pry}と\ref{table:Pyk}において,中国語のピンインには,発音の四声に基づいて1〜4の識別子が付けられている.表\ref{table:Pry}では,1つのローマ字音節$r_{i}$に複数のピンインの音節$y_{i}$が対応している.例えば,ローマ字の「a」に対して,3種類のピンイン音節「a1」,「ai4」,「an1」が対応している.表\ref{table:Pyk}では,確率$P(y_{i}|k_{i})$は$1.00$になる場合が多く,一般的には1つの漢字は1つのピンインと対応することが分かる.しかし,「\UTFC{4F5B}」と「\UTFC{4F3D}」はそれぞれ2つのピンインと対応している.翻字を行う際に,ローマ字表記$R$の分割が複数ある場合は,すべての可能な分割を考慮する.例えば,「epuson(エプソン)」は,二つのピンイン列と一致して次のように分割される.\begin{itemize}\itemepuson:aipusheng\itemepuson:aipusouan\end{itemize}\subsection{印象モデル}\label{sec:meaning}印象モデルは,漢字列$K$が与えられた条件のもとで,関連語列$W$が生成される条件付き確率$P(W|K)$である.$W$と$K$をそれぞれ単語$w_{i}$と漢字1文字$k_{j}$の単位で分割して,$P(W|K)$を$P(w_{i}|k_{j})$に基づいて近似する.しかし,$w_{i}$と$k_{j}$の数が常に同じであるとは限らないため,式(\ref{eq:Ass})を用いて$P(W|K)$を計算する.すなわち,各$k_{j}$について$P(w_{i}|k_{j})$が最大となる$w_{i}$だけを考慮する.\begin{equation}P(W|K)\approx{\displaystyle\prod_{j}}\max_{i}P(w_{i}|k_{j})\label{eq:Ass}\end{equation}\begin{table}[b]\caption{$P(w_{i}|k_{j})$の例}\label{table:Pwk}\input{02table03.txt}\end{table}表\ref{table:Pwk}に漢字3つと関連語4つに関する$P(w_{i}|k_{j})$を示す.表中の「--」は,$w_{i}$と$k_{j}$が対応しないことを示している.表\ref{table:Pwk}の例において,$P(W|K)$は式(\ref{eq:wk})のように計算される.\begin{eqnarray}&&P(\textrm{\UTFC{559C}\UTFC{7231}\UTFC{666E}\UTFC{53CA}\UTFC{666E}\UTFC{901A}\UTFC{751F}\UTFC{52A8}}|\textrm{\UTFC{7231}\UTFC{666E}\UTFC{751F}})\label{eq:wk}\nonumber\\&&=\!P(\textrm{\UTFC{559C}\UTFC{7231}}|\textrm{\UTFC{7231}})\!\times\!P(\textrm{\UTFC{666E}\UTFC{53CA}}|\textrm{\UTFC{666E}})\!\times\!P(\textrm{\UTFC{751F}\UTFC{52A8}}|\textrm{\UTFC{751F}})=0.02\times0.03\times0.03\\&&=0.000018\nonumber\end{eqnarray}$P(w_{i}|k_{j})$は式(\ref{eq:Ass2})を用いて計算する.\begin{equation}P(w_{i}|k_{j})=\frac{F(w_{i},k_{j})}{{\displaystyle\sum_{w}}F(w,k_{j})}\label{eq:Ass2}\end{equation}$F(w_{i},k_{j})$は$w_{i}$と$k_{j}$の共起頻度であり,本研究では漢字字典を用いて計算する.すなわち,漢字字典の見出し漢字を$k_{j}$として,$k_{j}$の意味記述に使用されている単語を$w_{i}$とする.中国語の漢字字典\footnote{\UTFC{65B0}\UTFC{534E}\UTFC{5B57}\UTFC{5178}\UTFC{7535}\UTFC{5B50}\UTFC{7248}(新華字典電子版)v1.0.}から外来語の表記に良く使われる見出し漢字$599$文字を人手で選択し,見出し漢字の意味記述をSuperMorpho\footnote{http://www.omronsoft.com/}で形態素解析して,単語と見出し漢字の共起頻度を計算した.\表~\ref{table:kanji2word}に$F(w_{i},k_{j})$の例を示す.表\ref{table:kanji2word}では,$P(w_{i}|k_{j})$が高いほど,漢字と単語の関係が強いことを示している.例えば,「\UTFC{9AD8}(高い)」,「\UTFC{597D}(良い)」,「\UTFC{4E50}(楽しい)」という3つの漢字$k_{j}$に対して$P(w_{i}|k_{j})$が最も高い単語$w_{i}$は,それぞれ「\UTFC{52A0}\UTFC{9AD8}(高くする)」,「\UTFC{597D}\UTFC{5403}(おいしい)」,「\UTFC{4E50}\UTFC{4E8E}(喜び)」である.ここで括弧内は各中国語に対する日本語訳を示す.\begin{table}[t]\caption{漢字辞典における漢字と単語との共起頻度と確率}\label{table:kanji2word}\input{02table04.txt}\end{table}\subsection{言語モデル}\label{sec:categ}言語モデル$P(C,K)$は,用語の種別$C$に関するコーパスを用いてモデル化する.具体的には,式(\ref{eq:Language})を用いて計算する.\begin{equation}P(C,K)=P(C)\!\times\!P(K|C)\proptoP(K|C)\label{eq:Language}\end{equation}$P(C)$は$K$に依存しないので無視する.原理的には,種別$C$のコーパスが与えられた条件のもとで,漢字列$K$が生成される条件付き確率を計算する.実際は,種別$C$に関するコーパスを用いて漢字のNグラム確率を計算する.現在は,$N=1$としている.本研究では,以下に示す3種類の言語モデルを構築し,実験に使用した.\begin{itemize}\item標準言語モデル:中国北京大学計算語言学研究所\footnote{http://icl.pky.edu.cn/}が富士通\footnote{http://www.frdc-fujitsu.com.cn/}と共同で作成した「PFR\UTFC{4EBA}\UTFC{6C11}\UTFC{65E5}\UTFC{62A5}\UTFC{6CE8}\UTFC{8BED}\UTFC{6599}\UTFC{5E93}(人民日報タグ付きコーパス)」\mbox{1998年}1月の新聞記事一ヶ月分から構築したモデルであり,異なり$4,540$(延べ$12,229,563$)の漢字を含む.\item企業名言語モデル:中国科学院計算技術研究所が主催している「\UTFC{4E2D}\UTFC{6587}\UTFC{81EA}\UTFC{7136}\UTFC{8BED}\UTFC{8A00}\UTFC{5904}\UTFC{7406}\UTFC{5F00}\UTFC{653E}\UTFC{5E73}\UTFC{53F0}(中国語自然言語処理オープンソース)」\footnote{http://www.nlp.org.cn/}が提供している$22,569$社を含む「\UTFC{516C}\UTFC{53F8}\UTFC{540D}\UTFC{5F55}\UTFC{5E93}(企業名リスト)」から構築したモデルであり,異なり$2,167$(延べ$78,432$)の漢字を含む.\item人名言語モデル:上記「\UTFC{4E2D}\UTFC{6587}\UTFC{81EA}\UTFC{7136}\UTFC{8BED}\UTFC{8A00}\UTFC{5904}\UTFC{7406}\UTFC{5F00}\UTFC{653E}\UTFC{5E73}\UTFC{53F0}」が提供している「\UTFC{5E26}\UTFC{8BCD}\UTFC{6027}\UTFC{8BCD}\UTFC{9891}\UTFC{7684}\UTFC{6269}\UTFC{5C55}\UTFC{8BCD}\UTFC{5178}(品詞および出現頻度付き拡張辞典)」から$38,406$件の人名を抽出して構築したモデルであり,異なり$2,318$(延べ$104,443$)の漢字を含む.\end{itemize}また,上記のモデルを構築する際に,SuperMorphoを用いてコーパスの形態素解析を行い,句読点,記号,機能語を事前に削除した.\subsection{関連語の自動抽出}\label{sec:auto}本研究では,翻字対象が指す実体や概念に対して,その意味や印象を中国語で表記した関連語をWebから自動的に抽出し,翻字に利用する.図\ref{fig:2}に,「エプソン」の関連語を自動抽出する過程を示す.図\ref{fig:2}の上部では翻字対象に関連する関連語候補を抽出し,下部では抽出する関連語を選択している.以下,それぞれについて説明する.\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f2.eps}\end{center}\caption{関連語自動抽出の概要}\label{fig:2}\end{figure}翻字対象の関連語を抽出するためには,翻字対象に関する文書が必要である.例えば,翻字対象が商品名であれば,その商品を紹介する文書であり,翻字対象が企業名であれば,企業の理念などに関する文書である.このような文書として,フリー百科事典「ウィキペディア(Wikipedia)」日本語版\footnote{http://ja.wikipedia.org/wiki/}の記事を利用した.2009年6月15日の時点では約$150$万の項目があり,一般名詞,人名,地名,企業名,商品名などが登録されている.図{\ref{fig:karati}}は地名「カラチ」をWikipediaで検索して得られた記事ページの抜粋である.図{\ref{fig:karati}}において,最上部の「カラチ」は記事の名称(記事名)であり,その下は本文である.図{\ref{fig:karati}}の{\mbox{「目次」}}に示されているように,本文は「1歴史」,{\mbox{「2気候」}},{\mbox{「3人口統計」}}などの「セクション(節)」によって構造化されることがある.関連語候補の抽出は以下の手順に従って行う.\begin{enumerate}\item翻字対象語をWikipediaで検索して記事ページを取得する.現在の手法では,記事ページがない用語に対しては関連語を抽出することができない.\item取得した記事ページからHTMLタグを削除し,茶筌\footnote{http://chasen.naist.jp/hiki/ChaSen/}で形態素解析を行う.\item形態素解析の結果から,名詞と形容詞を翻字対象の関連語候補として抽出する.ただし,「名詞」のうち「名詞—数」,「名詞—接尾—助数詞」,「名詞—副詞可能」,「名詞—非自立」,「名詞—代名詞」は抽出しない.図\ref{fig:2}では,「普及」や「普通」などの名詞と「好き」や「良い」などの形容詞が関連語の候補として抽出されている.\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f3.eps}\end{center}\caption{Wikipediaにおける「カラチ」の記事ページの抜粋}\label{fig:karati}\end{figure}ここで,図{\ref{fig:karati}}に示した記事ページの本文は構造化されているため,上記の手順(2)において,関連語抽出に有効な特定のセクション内だけを解析対象とする手法が考えられる.しかし,Wikipediaのガイドブックによる記事ページの編集方針\footnote{http://ja.wikipedia.org/wiki/Wikipedia:ガイドブック\_編集方針}では,記事は{\mbox「記事名(項目名)」}と{\mbox「本文」}で構成され,本文の基本構成は概要から次第に詳細内容になり,段落の数が多くなるようなら,「見出し」を付けて「セクション(節)」に分けるとしか規定していない.見出しの付け方やセクションの分け方は記事の著者によって方針が異なる.例えば,図{\ref{fig:karati}}で示した「カラチ」の記事ページは,\pagebreak「歴史」,「気候」,「人口統計」,「交通」,「姉妹都市」,「脚注」,「ギャラリー」の7セクションで構成されている.一方,「ハワイ」の記事ページは,「歴史」,「地理」,「人口動勢」,「政治と法律」,「経済」,「教育」,「芸術・文化」,「日本との関わり」,「その他」,「注」,「関連項目」,「外部リンク」の12セクションで構成されている.同じ地名に関する記述であるにも拘らず,「カラチ」と「ハワイ」の記事に共通するセクションは「歴史」だけである.さらに,同じ見出しのセクションでも,著者によって記述の方針が異なる可能性がある.このような状況では関連語抽出に有効なセクションを事前に定義することが困難である.そこで,今回の実験では本文全体を対象として関連語の候補を抽出した.Wikipediaから抽出した名詞と形容詞の中には,翻字対象との関連が低い語も含まれているため,翻字に使用する関連語を選択する必要がある.単語間の関連度を計算する手法\cite{Article_22,Article_25}が複数提案されている.本研究では,翻字対象と関連語候補間の相互情報量\cite{Article_03,Article_15}を計算して,その値が高い語を関連語として抽出する.ここでいう相互情報量とは,正確にはpointwisemutualinformationであり,式(\ref{eq:mutual})を用いて計算する.\begin{equation}I(X,Y)=\log\frac{P(X,Y)}{P(X)\timesP(Y)}\label{eq:mutual}\end{equation}$P(X)$と$P(Y)$は単語$X$と$Y$それぞれの出現確率であり,$P(X,Y)$は$X$と$Y$が同時に出現する確率である.ここでは便宜上,$X$を翻字対象,$Y$を1つの関連語候補とする.図\ref{fig:2}の例では,$X$は「エプソン」であり,$Y$は「好き,普及,普遍,良い」のいずれかである.関連語の選択は以下の手順に従って行う.\begin{enumerate}\item$P(X)$,$P(Y)$,$P(X,Y)$を計算するために,「$X$」,「$Y$」,「$X$and$Y$」を検索キーワードとしてYahoo!JAPAN\footnote{http://www.yahoo.co.jp/}で検索し,検索結果の総数でそれぞれの確率を近似する.\item式(\ref{eq:mutual})の値が高い候補を関連語として選択する.図\ref{fig:2}では,「エプソン」の関連語として「好き」,「普及」,「普通」,「良い」が選ばれている.選択する関連語の件数は実験的に決めるパラメタである.\ref{sec:exp}の評価実験では,関連語の件数を段階的に変化させて翻字への影響について考察する.\item(2)で選択した関連語を中国語に翻訳する.原理的には,この作業は機械翻訳システムを利用することで自動化することができる.しかし,現在はYahoo!JAPAN\footnote{http://honyaku.yahoo.co.jp/}を利用して人手で翻訳している.ただし,Yahoo!JAPANで翻訳できずに原言語がそのまま返される関連語は削除する.\mbox{図\ref{fig:2}}では,「\UTFC{559C}\UTFC{7231}」,「\UTFC{666E}\UTFC{53CA}」,「\UTFC{666E}\UTFC{901A}」,「\UTFC{597D}」はそれぞれ「好き」,「普及」,「普通」,「良い」に対する訳語であり,翻字対象の関連語として使用される.\end{enumerate} \section{評価実験} label{sec:exp}\subsection{実験方法}\label{sec:emethod}本手法で提案した関連語抽出手法の翻字における有効性を評価するために,人手で関連語を与えた場合の結果と比較した.具体的には,以下に示すモデルの組み合わせについて翻字精度を比較した.\begin{itemize}\item発音モデル+言語モデル\item発音モデル+印象モデル+言語モデル:関連語を自動抽出する\item発音モデル+印象モデル+言語モデル:関連語を人手で与える\end{itemize}各手法を順番に「音+言」,「自動」,「人手」と呼ぶ.「自動」は本研究の提案手法であり,「音+言」と「人手」は,それぞれ期待される翻字精度の下限と上限を推定するための手法である.本研究では\ref{sec:categ}で説明したように3種類の言語モデルを構築したため,翻字対象の種別に言語モデルを適応させた.すなわち,翻字対象の種別が企業名であれば「企業名言語モデル」を使用し,人名であれば「人名言語モデル」を使用し,それ以外の翻字対象には「標準言語モデル」を使用した.実験に使う翻字対象として,日中対訳辞書\cite{Book_02}に登録されているカタカナ語$1,136$語から\cite{Article_21}が使用した$210$語を選んだ.しかし,Wikipediaで記事ページが検索されなかった用語は関連語を抽出できないため,翻字対象語から削除した.また、Wikipediaで「曖昧さ回避のためのページ」が検索された用語も翻字対象語から削除した.例えば,「アポロ」で検索すると「アポロ(小惑星)」や「アポロ(曲)」といった異なる語義について書かれた記事へのリンクが表示される.本手法を実際に運用する場合,現状では複数のリンクから対象の語義に関する記事ページを自動的に特定することができない.そこで,今回の実験では多義語を翻字対象語から削除した.最終的に翻字対象として残った$128$語の内訳を表\ref{table:syubetsu}に示す.\begin{table}[b]\caption{翻字対象$128$語の内訳}\label{table:syubetsu}\input{02table05.txt}\end{table}各翻字対象語について,日本語が分かる中国人判定者2名に関連語を与えてもらった.具体的には,翻字対象の$128$語に対して,日中対訳辞書\cite{Book_02}に記載された解説を2名の判定者に示し,意味を理解させた上で,中国語で1つ以上の関連語を与えてもらった.ただし,判定者はWikipediaの記事を見ずに作業を行ったので,判定者が与えた関連語が全てWikipediaの記事に載っているとは限らない.各翻字対象語に対して,判定者は自分が与えた関連語に関わっていると判断した語を正解訳語として1つ以上選んだ.判定者が翻字対象に与えた関連語および選んだ正解訳語と不正解訳語の例を表\ref{table:examword}に示す.表\ref{table:examword}において,2列目の「中国語の関連語(日本語)」は,翻字対象に対して判定者が与えた関連語であり,括弧の中は筆者が付けた日本語訳である.3列目の「正解」は判定者が正解と判断した訳語の全てであり,4列目の「不正解」は判定者が不正解と判断した訳語の一部である.なお,翻字結果を公平に比較するために,「自動」と「人手」では翻字対象ごとに翻字に使用する関連語の数を揃えた.具体的には,「自動」では式(\ref{eq:mutual})の値が高い関連語候補のうち,「人手」で使用された関連語と同じ件数だけを使用した.\begin{table}[b]\caption{判定者が選んだ正解訳語と不正解訳語および関連語の例}\label{table:examword}\input{02table06.txt}\end{table}評価尺度として「正解訳語の平均順位」を用いた.「人手」では,各翻字対象について判定者2名に対する正解訳語の順位を平均し,さらに全翻字対象を横断して順位を平均した.「自動」では,各翻字対象について各判定者が与えた関連語数に合わせて実験を行い,各判定者に対応する正解訳語の順位を平均し,さらに全翻字対象を横断して正解訳語の順位を平均した.「音+言」では,翻字結果が関連語に依存しないため判定者による正解訳語の順位には違いがなく,全翻字対象を横断して順位を平均した.ここで,各翻字対象の「正解訳語」として,以下に示す3種類の解釈がある.\begin{enumerate}\makeatletter\renewcommand{\theenumi}{}\makeatother\item日中対訳辞書\cite{Book_02}に定義された訳語\item判定者2名の両方が適切と判定した訳語\item判定者のうち最低1名が適切と判定した訳語\end{enumerate}(a)は評価の客観性が最も高い.しかし,辞書に定義されていない用語でも訳語として適切な場合があるため,正解訳語の網羅性は最も低い.(c)は正解訳語の網羅性が最も高い.しかし,判定者の主観に依存するため,評価の客観性は最も低い.(b)は正解訳語の網羅性と評価の客観性ともに(a)と(c)の中間である.本実験では,客観性が一番低い(c)を省略して,(a)と(b)について評価を行った.\subsection{実験結果}\label{sec:result}\begin{table}[b]\caption{正解の種類(a)に対する正解訳語の平均順位}\label{table:auto1}\input{02table07.txt}\end{table}\begin{table}[b]\caption{正解の種類(b)に対する正解訳語の平均順位}\label{table:auto2}\input{02table08.txt}\end{table}正解の種類(a)と(b)に対する翻字の実験結果をそれぞれ表\ref{table:auto1}と\ref{table:auto2}に示す.表\ref{table:auto1}と\ref{table:auto2}において,2列目の「語数」は,正解訳語が少なくとも一つ存在する翻字対象の総数である.表\ref{table:auto1}の\mbox{「語数」}は,日中対訳辞書の訳語を正解訳語としているため,すべての翻字対象語には正解訳語が存在し,128語になる.それに対して,表\ref{table:auto2}の「語数」は,判定者2名の両方が適切と判断した訳語だけを正解訳語としているため,共通の正解訳語が存在しない翻字対象語を除いて,76語になる.3列目の「関連語数の平均」と4列目の「正解訳語数の平均」は,各判定者が翻字対象一つにつき与えた関連語数と正解と判定した正解訳語数の平均である.「正解訳語の平均順位」は\ref{sec:emethod}に示した3通りの手法に対する結果をそれぞれ示している.表\ref{table:auto1}と\ref{table:auto2}では,「音+言」の結果は関連語に依存しないため,判定者によらず必ず一致する.表\ref{table:auto1}と\ref{table:auto2}の結果より,正解の種類に関係なく,「自動」と「人手」の平均順位は「音+言」より高く,「人手」の平均順位が一番高かった.\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f4.eps}\end{center}\caption{正解の種類(a)における正解訳語の順位分布図}\label{fig:ca1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f5.eps}\end{center}\caption{正解の種類(b)における正解訳語の順位分布図}\label{fig:ca2}\end{figure}図\ref{fig:ca1}と\ref{fig:ca2}は,表\ref{table:auto1}と\ref{table:auto2}の結果に対して「正解訳語の順位に関する分布」を分析した結果である.図\ref{fig:ca1}の正解訳語が上位10位以内に存在した語数を見ると,「自動」は「人手」より少なく,「音+言」より多かった.この傾向は図\ref{fig:ca2}でも同様であった.以上をまとめると,正解の種類と関係なく,自動抽出した関連語を利用して翻字を行う手法は,印象モデルを利用しない手法よりも有効であった.また,翻字精度を多少犠牲にして,人手で関連語を与えるコストを削減することができた.自動抽出する関連語を上位から1つずつ増やして,正解訳語の平均順位が変化する様子を調べた結果を図\ref{fig:num}に示す.図\ref{fig:num}より,関連語を1つしか使用しない場合でも正解の種類(a)と(b)における正解訳語の平均順位はそれぞれ$219$と$78$であり,表\ref{table:auto1}と\ref{table:auto2}にそれぞれ示した「音+言」の平均順位($229$と$102$)よりも高かった.また,正解訳語の平均順位は関連語数が増えるにつれ高くなり,関連語数が$7$を超えたところでほぼ一定になった.\begin{figure}[t]\begin{center}\includegraphics{17-2ia2f6.eps}\end{center}\caption{関連語の数と正解訳語の平均順位}\label{fig:num}\end{figure}\subsection{考察}\label{sec:kousatu}表\ref{table:yukou}と\ref{table:mukou}は,用語の種別ごとに翻字対象を1つずつ選んで,翻字に使用した関連語と正解の種類(a)における正解訳語の平均順位を示している.表\ref{table:yukou}は自動抽出した関連語が有効だった翻字対象の例を示し,表\ref{table:mukou}は自動抽出した関連語が有効でなかった翻字対象の例を示している.表\ref{table:yukou}の「順位」では「自動」における正解訳語の平均順位は「人手」より高く,逆に表\ref{table:mukou}では「自動」の順位は「人手」より低い.表\ref{table:yukou}と\ref{table:mukou}の「中国語の関連語」において,「自動」では中国語に翻訳する前の日本語を括弧内に示す.ただし,「人手」の関連語は判定者が直接中国語で入力したため,筆者が日本語訳を与えた.「中国語の関連語」を見ると,自動的に抽出した関連語は人手で与えた関連語とあまり一致していない.以下,この点について具体例を挙げながら考察する.\begin{table}[t]\caption{自動抽出した関連語が有効だった翻字対象の例}\label{table:yukou}\input{02table09.txt}\end{table}表\ref{table:yukou}を見ると,「カネボウ」では,企業名を付ける際には使用されないであろう「\UTFC{7834}\UTFC{4EA7}(破産)」と「\UTFC{50B2}\UTFC{6162}(傲慢)」が関連語として使用されていた.判定者が不適切な関連語を与えたことで評価実験の妥当性が損なわれていないか調べるために,全ての翻字対象について著者が関連語を吟味した.その結果,「カネボウ」の\mbox{「\UTFC{7834}\UTFC{4EA7}(破産)」}と「\UTFC{50B2}\UTFC{6162}(傲慢)」以外の関連語には問題がなかった.さらに,「カネボウ」の関連語から\mbox{「\UTFC{7834}\UTFC{4EA7}(破産)」}と\mbox{「\UTFC{50B2}\UTFC{6162}(傲慢)」}を削除し,自動抽出した関連語数を人手の関連語数に揃えて再度実験を行った.その結果,正解の種類や「人手」と「自動」といった手法の違いによらず,上記2つの関連語を削除する前と比べて実験結果は変わらなかった.以上より,人手による不適切な関連語によって評価実験の妥当性が損なわれていないことを確認した.\begin{table}[t]\caption{自動抽出した関連語が有効でなかった翻字対象の例}\label{table:mukou}\input{02table10.txt}\end{table}別の例として,\mbox{「カラチ」}では,自動抽出した関連語の中に,\mbox{Wikipedia}の記事ページにある「カラチ」と関連が強いと考えられるいくつかの語が含まれていない.例えば,「ムスリム」や「パキスタン」である.「ムスリム」と「パキスタン」は関連語候補として抽出されたものの「カラチ」との相互情報量は関連語候補中それぞれ11位と12位だった.他方において,判定者AとBが「カラチ」に与えた関連語の数はそれぞれ8語と10語だった.人手と自動と関連語の数を揃えたため,「ムスリム」と「パキスタン」は最終的に関連語として選択されなかった.本来関連が強い語を自動的に関連語として選択するためには,関連語候補を抽出する段階と抽出した候補を一定の基準で順位付ける段階のそれぞれにおいて改善の余地がある.まず,関連語候補を抽出する段階では,記事ページ本文全体が抽出対象となっている点に問題がある.表\ref{table:yukou}において「カラチ」の関連語を見ると,「外部リンク」というセクションから抽出された「リンク」が関連語として選択されている.しかし,\mbox{Wikipedia}では\mbox{「外部リンク」}に見出し語に関する説明が書かれることは稀である.「カラチ」の例に関して言えば,「外部リンク」のセクションを関連語抽出の対象から削除すれば,\mbox{「リンク」}は関連語候補として抽出されず,その結果「ムスリム」や「パキスタン」の順位が相対的に上がる.しかし,\mbox{「ハワイ」}の記事ページにおける「外部リンク」のセクションには,「カウアイ観光局」や「オアフ島観光局」などのアンカーテキスト(リンクをはるためのテキスト)が記述されており,「カウアイ」や「オアフ島」などの「ハワイ」に関連する語を含んでいる.すなわち,関連語抽出の対象から「外部リンク」を一律削除すればよいとは限らない.また,\ref{sec:auto}節で議論したように,セクションの分け方,見出しの付け方,セクション内の記述内容に関する方針は記事の著者によって異なる.以上より,関連語抽出において対象にすべきセクションとそれ以外を正確に区別することは難しい.これは今後も検討して解決すべき課題である.関連語の候補に順位を付ける段階では,式(\ref{eq:mutual})で用いた相互情報量以外の計算方法を試し,本研究の目的にとって最適な手法について今後検討する必要がある.表\ref{table:mukou}を見ると,「シャネル」では,自動抽出した関連語のうちいくつかが人手で与えた関連語と一致した.例えば,「\UTFC{9999}\UTFC{6C34}(香水)」や「\UTFC{540D}\UTFC{724C}(ブランド)」などである.しかし,人手で与えられた「\UTFC{534E}\UTFC{4E3D}(華やか)」や「\UTFC{8010}\UTFC{4E45}(耐久)」などのように翻字対象の印象を表す関連語がなく,翻字に有効でなかった.「インテル」では,自動抽出した関連語に「インテル」に関する印象を表す語がなかった.「カタール」では,自動抽出した関連語は全てカタール周辺国の国名であり,「カタール」自体を表す語として適切ではなかった.「モナリザ」と「ディスコ」では,自動抽出した関連語の中に,翻字対象と関係のない語がいくつかあった.例えば,「モナリザ」の「\UTFC{81EA}\UTFC{5DF1}(自分)」,「\UTFC{624B}(手)」,「\UTFC{6CA1}\UTFC{6709}(無く)」や,「ディスコ」の「\UTFC{597D}(良い)」,「\UTFC{56DE}\UTFC{6765}(帰り)」,「\UTFC{5236}(製)」である.また,Yahoo!JAPANの翻訳システムによる誤訳もあった.例えば,「ディスコ」に対する日本語の関連語「非常」は「とても」という意味なので,中国語の「\UTFC{5927}」ではなく「\UTFC{975E}\UTFC{5E38}」と訳されるべきであった. \section{おわりに} 中国語では表意文字である漢字を翻字に使用するため,発音が同じでも使用する漢字によって翻字結果の意味や印象は異なる.そこで,中国語への翻字では漢字の選択が重要である.\cite{Article_21}は適切な漢字を選ぶために,発音だけでなく翻字対象の印象や種別を使用した.しかし,彼らの手法では翻字対象の関連語をユーザが与えるため高価である.本研究の貢献は,翻字対象の関連語をWebから自動的に抽出してユーザの負担を削減した点にある.評価実験の結果,本手法は人手で関連語を与える手法よりも翻字精度が低かった.しかし,漢字の意味や印象を考慮しない翻字手法よりは翻字精度が高かった.しかし,自動抽出した関連語には翻字対象の特徴を適切に表現していない用語もあったため,今後の課題として関連語抽出のさらなる精緻化が必要である.また,Wikipediaで説明を得ることができない用語や多義語への対応も今後の課題である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Al-Onaizan\BBA\Knight}{Al-Onaizan\BBA\Knight}{2002}]{Article_01}Al-Onaizan,Y.\BBACOMMA\\BBA\Knight,K.\BBOP2002\BBCP.\newblock\BBOQTranslatingNamedEntitiesUsingMonolingualandBilingualResources.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\400--408}.\bibitem[\protect\BCAY{Bollegala,Matsuo,\BBA\Ishizuka}{Bollegalaet~al.}{2007}]{Article_22}Bollegala,D.,Matsuo,Y.,\BBA\Ishizuka,M.\BBOP2007\BBCP.\newblock\BBOQMeasuringSemanticSimilaritybetweenWordsUsingWebSearchEngines.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalWorldWideWebConference},\mbox{\BPGS\757--766}.\bibitem[\protect\BCAY{Chen,Hueng,Ding,\BBA\Tsai}{Chenet~al.}{1998}]{Article_02}Chen,H.~H.,Hueng,S.~J.,Ding,Y.~W.,\BBA\Tsai,S.~C.\BBOP1998\BBCP.\newblock\BBOQProperNameTranslationinCross-LanguageInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\232--236}.\bibitem[\protect\BCAY{Church\BBA\Hanks}{Church\BBA\Hanks}{1989}]{Article_03}Church,K.~W.\BBACOMMA\\BBA\Hanks,P.\BBOP1989\BBCP.\newblock\BBOQWordAssociationNorms,MutualInformation,andLexicography.\BBCQ\\newblockIn{\BemProceedingsofthe27thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\76--83}.\bibitem[\protect\BCAY{Fujii\BBA\Ishikawa}{Fujii\BBA\Ishikawa}{2001}]{Article_04}Fujii,A.\BBACOMMA\\BBA\Ishikawa,T.\BBOP2001\BBCP.\newblock\BBOQJapanese/EnglishCross-LanguageInformationRetrieval:ExplorationofQueryTranslationandTransliteration.\BBCQ\\newblock{\Bem{\emComputersandtheHumanities}},{\Bbf35}(4),\mbox{\BPGS\389--420}.\bibitem[\protect\BCAY{黄\JBA藤井\JBA石川}{黄\Jetal}{2007}]{Article_21}黄海湘\JBA藤井敦\JBA石川徹也\BBOP2007\BBCP.\newblock中国語への翻字における確率的な漢字選択手法.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ90--D}(10),\mbox{\BPGS\2914--2923}.\bibitem[\protect\BCAY{Jeong,Myaeng,Lee,\BBA\Choi}{Jeonget~al.}{1999}]{Article_05}Jeong,K.~S.,Myaeng,S.~H.,Lee,J.~S.,\BBA\Choi,K.~S.\BBOP1999\BBCP.\newblock\BBOQAutomaticIdentificationandBack-TransliterationofForeignWordsforInformationRetrieval.\BBCQ\\newblock{\Bem{\emInformationProcessing\&Management}},{\Bbf35},\mbox{\BPGS\523--540}.\bibitem[\protect\BCAY{Knight\BBA\Graehl}{Knight\BBA\Graehl}{1998}]{Article_06}Knight,K.\BBACOMMA\\BBA\Graehl,J.\BBOP1998\BBCP.\newblock\BBOQMachineTransliteration.\BBCQ\\newblock{\Bem{\emComputationalLinguistics}},{\Bbf24}(4),\mbox{\BPGS\599--612}.\bibitem[\protect\BCAY{Kwok,Deng,Dinstl,Sun,Xu,Peng,\BBA\Doyon}{Kwoket~al.}{2005}]{Article_08}Kwok,K.~L.,Deng,P.,Dinstl,N.,Sun,H.~L.,Xu,W.,Peng,P.,\BBA\Doyon,J.\BBOP2005\BBCP.\newblock\BBOQCHINET:aChineseNameFinderSystemforDocumentTriage.\BBCQ\\newblockIn{\BemProceedingsof2005InternationalConferenceonIntelligenceAnalysis}.\bibitem[\protect\BCAY{Kwok\BBA\Deng}{Kwok\BBA\Deng}{2002}]{Article_07}Kwok,K.~L.\BBACOMMA\\BBA\Deng,P.\BBOP2002\BBCP.\newblock\BBOQCorpus-basedPinyinNameResolution.\BBCQ\\newblockIn{\BemProceedingoftheFirstSIGHANWorkshoponChineseLanguageProcessing},\mbox{\BPGS\41--47}.\bibitem[\protect\BCAY{Lee\BBA\Chang}{Lee\BBA\Chang}{2003}]{Article_09}Lee,C.~J.\BBACOMMA\\BBA\Chang,J.~S.\BBOP2003\BBCP.\newblock\BBOQAcquisitionofEnglish-ChineseTransliteratedWordPairsfromParallel-AlignedTextsUsingaStatisticalMachineTransliterationModel.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACL2003WorkshoponBuildingandUsingParallelTexts:DataDrivenMachineTranslationandBeyond},\mbox{\BPGS\96--103}.\bibitem[\protect\BCAY{Li,Sim,Kuo,\BBA\Dong}{Liet~al.}{2007}]{Article_11}Li,H.~Z.,Sim,K.~C.,Kuo,J.~S.,\BBA\Dong,M.\BBOP2007\BBCP.\newblock\BBOQSemanticTransliterationofPersonalNames.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\120--127}.\bibitem[\protect\BCAY{Li,Zhang,\BBA\Su}{Liet~al.}{2004}]{Article_10}Li,H.~Z.,Zhang,M.,\BBA\Su,J.\BBOP2004\BBCP.\newblock\BBOQAJointSource-ChannelModelforMachineTransliteration.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\159--166}.\bibitem[\protect\BCAY{Qu\BBA\Grefenstette}{Qu\BBA\Grefenstette}{2004}]{Article_12}Qu,Y.\BBACOMMA\\BBA\Grefenstette,G.\BBOP2004\BBCP.\newblock\BBOQFindingIdeographicRepresentationsofJapaneseNamesWritteninLatinScriptviaIdentificationandCorpusValidation.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\183--190}.\bibitem[\protect\BCAY{佐々木\JBA佐藤\JBA宇津呂}{佐々木\Jetal}{2006}]{Article_25}佐々木靖弘\JBA佐藤理史\JBA宇津呂武仁\BBOP2006\BBCP.\newblock関連用語収集問題とその解法.\\newblock\Jem{{自然言語処理}},{\Bbf13}(3),\mbox{\BPGS\151--175}.\bibitem[\protect\BCAY{Stalls\BBA\Knight}{Stalls\BBA\Knight}{1998}]{Article_14}Stalls,B.~G.\BBACOMMA\\BBA\Knight,K.\BBOP1998\BBCP.\newblock\BBOQTranslatingNamesandTechnicalTermsinArabicText.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACLWorkshoponComputationalApproachestoSemiticLanguages},\mbox{\BPGS\34--41}.\bibitem[\protect\BCAY{鈴木\JBA王}{鈴木\JBA王}{2002}]{Book_02}鈴木義昭\JBA王文\BBOP2002\BBCP.\newblock\Jem{日本語から引ける中国語の外来語辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{Turney}{Turney}{2001}]{Article_15}Turney,P.~D.\BBOP2001\BBCP.\newblock\BBOQMiningtheWebforSynonyms:PMI-IRversusLSAonTOEFL.\BBCQ\\newblockIn{\BemProceedingsoftheTwelfthEuropeanConferenceonMachineLearning},\mbox{\BPGS\419--502}.\bibitem[\protect\BCAY{Virga\BBA\Khudanpur}{Virga\BBA\Khudanpur}{2003}]{Article_16}Virga,P.\BBACOMMA\\BBA\Khudanpur,S.\BBOP2003\BBCP.\newblock\BBOQTransliterationofProperNamesinCross-LingualInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsoftheACL2003WorkshoponMultilingualandMixed-languageNamedEntityRecognition},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Wan\BBA\Verspoor}{Wan\BBA\Verspoor}{1998}]{Article_18}Wan,S.\BBACOMMA\\BBA\Verspoor,C.~M.\BBOP1998\BBCP.\newblock\BBOQAutomaticEnglish-ChineseNameTransliterationforDevelopmentofMultilingualResources.\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1352--1356}.\bibitem[\protect\BCAY{Xu,Fujii,\BBA\Ishikawa}{Xuet~al.}{2006}]{Article_19}Xu,L.~L.,Fujii,A.,\BBA\Ishikawa,T.\BBOP2006\BBCP.\newblock\BBOQModelingImpressioninProbabilisticTransliterationintoChinese.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\242--249}.\end{thebibliography}\begin{biography}\bioauthor{黄海湘}{2002年3月獨協大学大学院博士前期課程(経済・経営情報専攻)修了.同年4月図書館情報大学大学院博士後期課程に入学.現在,大学統合にともない筑波大学大学院図書館情報メディア研究科に在籍中.}\bioauthor{藤井敦}{1993年3月東京工業大学工学部情報工学科卒業.1998年3月同大学大学院博士課程修了.現在,東京工業大学大学院情報理工学研究科准教授,博士(工学).自然言語処理,情報検索,音声言語処理,Webマイニングの研究に従事.情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,AssociationforComputationalLinguistics各会員.}\end{biography}\biodate\end{document}
V06N07-02
\section{はじめに} 日本語の長文で一文中に従属節が複数個存在する場合,それらの節の間の係り受け関係を一意に認定することは非常に困難である.また,このことは,日本語の長文を構文解析する際の最大のボトルネックの一つとなっている.一方,これまで,日本語の従属節の間の依存関係に関する研究としては,\cite{Minami73aj,Minami93aj}による従属節の三階層の分類がよく知られている.\cite{Minami73aj,Minami93aj}は,スコープの包含関係の狭い順に従属節を三階層に分類し,スコープの広い従属節は,よりスコープの狭い従属節をその中に含むことができるが,逆に,スコープの狭い従属節が,よりスコープの広い従属節をその中に含むことはできないという傾向について述べている.さらに,\cite{FFukumoto92aj,SShirai95bj}は,計算機による係り受け解析において\cite{Minami73aj,Minami93aj}の従属節の分類が有用であるとし,その利用法について提案している.特に,\cite{SShirai95bj}は,計算機による係り受け解析における有効性の観点から,\cite{Minami73aj,Minami93aj}の従属節の三階層の分類を再構成・詳細化し,また,この詳細な従属節の分類を用いた従属節係り受け判定規則を提案している.これらの研究においては,人手で例文を分析することにより従属節の節末表現を抽出し,例文における従属節の係り受け関係の傾向から,従属節の節末表現を階層的に分類している.しかし,人手で分析できる例文の量には限りがあるため,このようにして抽出された従属節節末表現は網羅性に欠けるおそれがある.また,人手で従属節節末表現の階層的分類を行う際にも,分類そのものの網羅性に欠ける,あるいは分類が恣意性の影響を受けるおそれが多分にある\footnote{実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(約21万文)に対して,\cite{SShirai95bj}の従属節係り受け判定規則のうち,表層的形態素情報の部分を用いて従属節の係り受け関係の判定を行った結果,約30\%のカバレージ,約80\%の適合率という結果を得ている\cite{Nishiokayama98aj}.}.そこで,本論文では,大量の構文解析済コーパスから,統計的手法により,従属節節末表現の間の係り受け関係を判定する規則を自動抽出する手法を提案する.まず,大量の構文解析済コーパスを分析し,そこに含まれる従属節節末表現を網羅するように,従属節の素性を設定する.この段階で,人手による例文の分析では洩れがあった従属節節末表現についても,これを網羅的に収集することができる.また,統計的手法として,決定リストの学習の手法~\cite{Yarowsky94a}を用いることにより,係り側・受け側の従属節の形態素上の特徴と,二つの従属節のスコープが包含関係にあるか否かの間の因果関係を分析し,この因果関係を考慮して,従属節節末表現の間の係り受け関係判定規則を学習する.そこでは,従属節のスコープの包含関係の傾向に応じて従属節節末表現を階層的に分類するのではなく,個々の従属節節末表現の間に,スコープの包含関係,言い換えれば,係り受け関係の傾向が強く見られるか否かを統計的に判定している.また,人手によって係り受け関係の傾向を規則化するのではなく,大量の係り受けデータから自動的に学習を行っているので,抽出された係り受け判定規則に恣意性が含まれることはない.本論文では,実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(構文解析済,約21万文)から従属節係り受け判定規則を抽出し,これを用いて従属節の係り受け関係を判定する評価実験を行った結果について示す.また,関連手法との実験的比較として,従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}と本論文のモデルとの違いについて説明し,従属節間の係り受け解析においては,従来の統計的係り受け解析モデルに比べて本論文のモデルの方が優れていることを示す.同様に,従属節間の係り受けの判定に有効な属性を選択する方法として,決定木学習\cite{Quinlan93a}により属性選択を行う手法\cite{Haruno98cj}と,本論文で採用した決定リスト学習の手法\cite{Yarowsky94a}を比較し,本論文の手法の優位性を示す.さらに,推定された従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用することにより,統計的文係り受け解析の精度が向上することを示す. \section{従属節の階層的分類を用いた係り受け解析} \label{sec:sbrd_hd}本節では,\cite{SShirai95bj}における従属節の階層的分類,およびそれを用いた従属節係り受け判定規則について述べる.\subsection{従属節の三階層の分類}\label{subsec:clsb}まず,\cite{SShirai95bj}では,\cite{Minami73aj,Minami93aj}の従属節の三階層の分類に基づいて,計算機による係り受け解析における有効性の観点から,統語構造におけるスコープの包含関係の狭い順に,以下の三階層の従属節分類を提案している.ただし,ここで設定された全54種類の従属節の節末表現は,新聞記事の要約文972文を人手で分析することにより得たものである.\begin{description}\item[A類]「同時」の表現.「$\sim$とともに」,「$\sim$ながら」,「$\sim$つつ」など7種類.\item[B類]「原因」,「中止」の表現.連用形単独,「$\sim$て」,「名詞+で」,「$\sim$ため」など46種類.\item[C類]「独立」の表現.「$\sim$が」1種類.\end{description}\subsection{従属節間のスコープの包含関係}そして,上記の三種類の従属節間のスコープの包含関係に,以下の傾向があるとしている.\begin{enumerate}\itemA類は,他のA類,B類,C類の一部となることができる.\itemB類は,他のB類,C類の一部となることができるが,A類の一部とはなれない.\itemC類は,他のC類の一部となることができるが,A類,B類の一部とはなれない.\end{enumerate}また,その他に,従属節に対して以下の四つの詳細な分類を行い,従属節のスコープの間に詳細な包含関係を設定している.\paragraph{読点の有無}同類同士の従属節の間では,読点の付与された従属節の方が,読点の付与されていない従属節を含む関係にある.すなわち,従属節のスコープの包含関係は,包含関係の狭い順に,A類$<$A類+読点$<$B類$<$B類+読点$<$C類$<$C類+読点となる.\paragraph{連用節の中止性}B類同士,「B類+読点」同士の従属節は,表現の意味的な流れの中止性の強弱により,以下の二種類に分類でき,中止性の強い従属節は中止性の弱い従属節を包含する.\begin{itemize}\item中止性の弱いもの:用言連用形,「$\sim$て」,「$\sim$ため」など7種類.\item中止性の強いもの:「名詞+で」,「$\sim$ており」など4種類.\end{itemize}\paragraph{述語の状態性と動作性}B類同士,「B類+読点」同士の従属節は,動作性の強い順に,他動詞性,自動詞性,形容詞性,名詞性の四種類に分類でき,動作性が強い従属節は,動作性の弱い従属節を包含する.\paragraph{引用節と連体節}引用節が連用節を包含する際の包含関係においては,「$\sim$すると(発表する)」などの引用節の包含関係の広さは「C類+読点」に準じ,「$\sim$するよう(依頼する)」などの引用相当節述語の包含関係の広さは「B類+読点」に準ずる.一方,連体節が連用節を包含する際の包含関係においては,形式名詞に係る連体節述語の包含関係の広さは「B類+読点」に準じ,その他の通常の連体節述語の包含関係の広さはB類に準ずる.\subsection{従属節係り受け判定規則}\label{subsec:deprule}さらに,\cite{SShirai95bj}では,上記の従属節間のスコープの包含関係を,従属節間の係り受け関係と対応させ,従属節間の係り受け関係の決定においては,スコープの包含関係においてより広い関係にあるほど係り受けの優先度が高いとし,\begin{enumerate}\item優先度の低い従属節は優先度の高い従属節に係る.\item優先度の高い従属節は優先度の低い従属節に係らない.\end{enumerate}という優先規則を提案している. \section{コーパスからの従属節係り受け選好情報の抽出} \label{sec:learn}本論文では,前節のような従属節の階層的分類による係り受け判定規則を人手で抽出するのではなく,構文解析済コーパスから,従属節の間の係り受け選好情報を自動的に抽出する.\subsection{日本語従属節の定義}\label{subsec:dataex}本節では,本論文で対象とする日本語従属節の定義について述べる.従属節を定義するにあたっては,まず,文を形態素解析システム茶筌\cite{Matsumoto97aj}により形態素解析し,次に正規表現により記述された文節定義にしたがって,形態素列を文節単位にまとめる(文節処理までを施したデータについては,\cite{Fujio97aj,Fujio99aj}の係り受け解析で用いられているものを利用している.).一般に,文節は自立語部分と付属語部分からなるが,文節区切り済データ上で,自立語部分と付属語部分が以下の条件を満たす文節を従属節の主辞となる述語的文節とする\footnote{本論文中では,品詞および活用形などの文法用語はいずれも形態素解析システム茶筌\cite{Matsumoto97aj}の用語にしたがっている.}.\begin{enumerate}\item自立語部分は,以下のいずれかを満たす(いわゆる述語).\begin{enumerate}\item[(a)]動詞または形容詞.\item[(b)]「名詞句$+$判定詞(である)」\end{enumerate}\item付属語部分は,以下のいずれかを満たす.\begin{enumerate}\item[(a)]なし.\item[(b)]副詞タイプ(例:「$\sim$(して)以来」---「以来」が副詞).\item[(c)]副詞的名詞タイプ(例:「$\sim$(する)ため」---「ため」が副詞的名詞)\item[(d)]形式名詞タイプ(例:「$\sim$(する)こと」---「こと」が形式名詞)\item[(e)]時相名詞タイプ(例:「$\sim$(する)まえ」---「まえ」が時相名詞)\item[(f)]述語接続助詞タイプ(例:「$\sim$(する)が」---「が」が述語接続助詞)\item[(g)]引用助詞タイプ(例:「$\sim$(する)と」---「と」が引用助詞)\item[(h)](a)$\sim$(g)の後に,副助詞(「は」「など」など),終助詞(「か」「よ」など)が付加されたもの.\end{enumerate}\end{enumerate}この定義は,狭義の従属節を含む任意の述語節(引用節,連体修飾節などを含む)に対応しており,本論文ではその全てをまとめて広義の「従属節」として扱う.ただし,連体修飾節については,係り受け関係において受け側となる場合にのみ,係り受け関係決定の評価の対象としている.\begin{table*}\begin{center}\caption{従属節の素性}\label{tab:ftr}\begin{tabular}[c]{|c|c|c|}\hline\multicolumn{1}{|c|}{素性タイプ}&種類数&\multicolumn{1}{|c|}{素性(語彙素性については抜粋)}\\\hline\hline読点素性&2&読点有,読点無\\\hline文法・品詞素性&&副詞,副詞的名詞,形式名詞,時相名詞,\\(節末か否かの&17&述語接続助詞,引用助詞,副助詞,\\区別あり)&&に(格助詞)+副助詞,判定詞,終助詞\\\hline節末活用語&12&語幹,基本,未然,連用,連体,条件,\\活用形素性&&命令,タ,タリ,テ,推量,意志\\\hline&&副詞(ともに,一方で,以来)\\&&副詞的名詞(あと,とき,ため,場合,よう,方が)\\語彙素性&&形式名詞(のは,もの,ものは,こと,ことが)\\(頻度10以上)&235&時相名詞(今,瞬間,前に,以上)\\(文法・品詞素性を&&述語接続助詞(が,から,ものの,ながら,つつ,し),\\語彙化したもの)&&引用助詞(と),副助詞(は,など,も,だけ,でも,なら),\\&&に(格助詞)+副助詞(には,にも),\\&&判定詞(では,でも),終助詞(か,かを,よ)\\\hline\end{tabular}\end{center}\end{table*}\vspace{-2mm}\subsection{従属節の素性表現}\label{subsec:ftr}次に,従属節の係り受け選好情報を記述するための準備として,従属節の様々な属性を記述するために,前節で定義した従属節の主辞となる述語的文節に対して,表\ref{tab:ftr}の素性を設定する.これは,人手により抽出された\cite{SShirai95bj}の従属節の節末表現の設定(\ref{subsec:clsb}節)をより一般的・網羅的にするためのものである.特に,本論文では,EDR日本語コーパス\cite{EDR95aj-nlp}(約21万文)の構文解析済コーパス(のうち,文の表層文字列および構文構造の括弧付け情報のみ)を用いて,従属節の係り受け選好情報の抽出を行うので,EDRコーパスから抽出された従属節を網羅するように設定されている.また,これらの素性は,従属節の主辞となる述語的文節の特徴を記述したもので,いずれも文節処理までで利用可能な形態素・品詞上の特徴のみを用いている.表\ref{tab:ftr}の素性は,大きく,i)読点素性,ii)文法・品詞素性,iii)節末活用語活用形素性,iv)語彙素性の四タイプに分けられる.ii)の文法・品詞素性は,従属節の主辞となる述語的文節の付属語列部分に現れ得る形態素の品詞を記述したもので,その形態素が文節末に現れるか文節の中程に現れるかの区別がある.iii)の節末活用語活用形素性は,従属節の主辞となる述語的文節の文節末が活用語の場合にその活用形を記述したものである.iv)の語彙素性は,ii)の文法・品詞素性の各素性を語彙化したものである.\subsection{決定リストの学習}従属節の間の係り受け関係の選好情報を記述する方法として,決定リスト~\cite{Rivest87a,Yarowsky94a}を用いる.本論文では,特に,\cite{Yarowsky94a}の決定リスト学習の方法を用いて,従属節の係り受け関係が記述されたデータから従属節係り受け選好情報を抽出する.決定リストは,ある証拠$E$のもとでクラス$D$を決定するという規則を優先度の高い順にリスト形式で並べたもので,適用時には優先度の高い規則から順に適用を試みていく.\cite{Yarowsky94a}の決定リスト学習の方法においては,クラス$D$の正解付データから,証拠$E$が存在する($E\!=\!1$)という条件のもとでクラス$D$が$D\!=\!x$となる条件付確率$P(D\!=\!x\midE\!=\!1)$を計算し,この条件付確率を用いて以下の手順で決定リストを構成する.\begin{enumerate}\itemある証拠$E$が存在する($E\!=\!1$)という条件のもとでの条件付確率$P(D\!=\!x\midE\!=\!1)$\mbox{の値の大きさが一位のクラス}$x_1$と二位のクラス$x_2$の間で,以下の対数尤度比を計算する.\[\log_2\frac{P(D\!=\!x_1\midE\!=\!1)}{P(D\!=\!x_2\midE\!=\!1)}\]その結果,対数尤度比が大きい順に証拠$E$とクラス$D$の組を並べる\footnote{実際には,ある証拠$E$が存在するという条件のもとでクラス$D$が$D\!=\!x$となる事象の頻度に,微小値$\alpha(0.1\leq\alpha\leq0.25)$を加えることにより,観測された頻度が0の場合にも対処できる\cite{Yarowsky94a}.この補正は,クラス$D$を一意に\mbox{決定する}(すなわち,二位のクラス$x_2$について,$P(D\!=\!x_2\midE\!=\!1)\!=\!0$となる)証拠$E$が複数ある場合,\mbox{それらを,証}拠$E$のもとでクラス$D\!=\!x_1$となる事象の頻度順に優先付けするという効果がある.}.ただし,このときの対数尤度比は,クラス$D\!=\!x$の確率$P(D\!=\!x)$の値の大きさが一位のクラス$x_1$と二位のクラス$x_2$の間で以下の対数尤度比を計算して得られる値\[\log_2\frac{P(D\!=\!x_1)}{P(D\!=\!x_2)}\]を下限値とする.\item決定リストの最終行は``default''を表し,クラス$D\!=\!x$の確率$P(D\!=\!x)$の値の大きさが一位のクラス$x_1$を与える.\end{enumerate}\subsection{決定リストの学習による従属節係り受け選好情報の抽出}\label{subsec:dlist_sb}前節の決定リストの学習の手法を用いて,二つの従属節の間の係り受け関係の選好情報を抽出する.基本的には,ある二つの従属節の主辞となる述語的文節の素性の情報の組を証拠として,その二つの述語節の間の係り受け関係を決定する.いま,一文中で従属節の主辞となる述語的文節(および文末述語文節)の並びを$Seg_1,\ldots,Seg_n$とすると,一つの述語的文節は,\ref{subsec:ftr}節で述べた素性の組で記述されるので,各述語的文節$Seg_i$は,複数の素性を要素としうる素性集合${\calF}_i$を持つことになる.このとき,決定リストの証拠$E$としては,二つの述語的文節$Seg_i$,$Seg_j(i<j)$の持つ素性集合${\calF}_i$,${\calF}_j$に対して,そのあらゆる可能な部分集合\footnote{ただし,互いに包含関係にある素性については,どちらか一方のみを含める.}の組$(F_i,F_j)$を証拠$E$の候補とする\footnote{従来の統計的係り受け解析モデルでは,これらの素性の他に,二つの文節間の距離を利用している.本論文では,従属節の階層的分類の考え方に即して素性の設定を行っており,二つの文節間の距離の情報はあえて利用せず,現在設定している素性の範囲でどの程度の性能が達成できるかを示す.}.また,決定リストのクラス$D$としては,基本的には,述語的文節$Seg_i$と$Seg_j$が係り受け関係にある場合と,係り受け関係にない場合の二つを設定することになるが,第\ref{sec:sbrd_hd}節で述べた従属節の階層的分類の考え方を利用することにより,特に,二つの述語的文節が係り受け関係にない場合について,少し異なったクラスの設定をする.そのために,まず,従属節間の係り受け関係が,従属節のスコープの包含関係にどのように対応しているのかについて調べる.以下では,従属節の主辞となる述語的文節$Seg_1$が,文中の他の従属節の主辞となる述語的文節$Seg_2$に先行しているとして,従属節間の係り受け関係と従属節のスコープの包含関係との対応を以下のように分類して考える.\begin{figure}\hspace*{-1.5cm}\begin{center}\framebox{\epsfile{file=fig/rel_mod_j.ps,scale=0.65}}\caption{従属節間の係り受けとスコープの包含関係:\\(1)先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$に係る場合.}\label{fig:rel1}\end{center}\end{figure}\begin{figure}\vspace{-8mm}\hspace*{-1cm}\begin{center}\framebox{\epsfile{file=fig/rel_out_over_j.ps,scale=0.58}}\caption{従属節間の係り受けとスコープの包含関係:\\(2a)先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$を越えて,\\より遠くの述語的文節に係る場合.}\label{fig:rel2a}\end{center}\vspace{-2mm}\end{figure}\begin{enumerate}\item[(1)]先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$に係る場合(図\ref{fig:rel1}).\item[(2)]先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$に係らない場合.\begin{enumerate}\item[(2a)]先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$を越えて,より遠くの述語的文節に係る場合(図\ref{fig:rel2a}).\item[(2b)]先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$よりも前の述語的文節に係る場合.\begin{enumerate}\item[(2b-i)]$Seg_1$\hspace{-0.5pt}が\hspace{-0.5pt}$Seg_2$\hspace{-0.5pt}を主辞とする従属節のスコープに\mbox{含まれる場合(図\ref{fig:rel2bi})}.\item[(2b-ii)]$Seg_1$が$Seg_2$を主辞とする従属節のスコープに含まれない場合(図~\ref{fig:rel2bii}).\end{enumerate}\end{enumerate}\end{enumerate}\medskip\noindent\begin{minipage}{\textwidth}最初に,従属節(の主辞文節$Seg_1$)が,後続する従属節(の主辞文節$Seg_2$)に係る場合は,図~\ref{fig:rel1}に示すように,$Seg_1$を主辞とする従属節は,$Seg_2$を主辞とする従属節のスコープに包含されることになる(図中の矢印は係り受け関係を,また,木構造は統語解析木の略記を表す.).一方,従属節(の主辞文節$Seg_1$)が,後続する従属節(の主辞文節$Seg_2$)に係らない場合は,図~\ref{fig:rel2a}$\sim$\ref{fig:rel2bii}に\end{minipage}\begin{figure}\hspace*{-1.5cm}\vspace{-3mm}\begin{center}\framebox{\epsfile{file=fig/rel_in_notmod_j.ps,height=49mm,width=132mm}}\caption{従属節間の係り受けとスコープの包含関係:\\(2b-i)先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$よりも前の\\述語的文節に係る場合で,$Seg_1$が$Seg_2$を主辞とする従属節のスコープに含まれる場合.}\label{fig:rel2bi}\end{center}\end{figure}\begin{figure}\hspace*{-1.5cm}\vspace{-12mm}\begin{center}\framebox{\epsfile{file=fig/rel_out_short_j.ps,height=39mm,width=137mm}}\caption{従属節間の係り受けとスコープの包含関係:\\(2b-ii)先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$よりも前の\\述語的文節に係る場合で,$Seg_1$が$Seg_2$を主辞とする従属節のスコープに含まれない場合.}\label{fig:rel2bii}\end{center}\vspace{-6mm}\end{figure}\noindent示すように,上記の(2a),(2b)の二通りに分けられる.ここで,\ref{subsec:deprule}節の従属節係り受け判定規則を言い換えると,従属節の包含関係においてより広いスコープを持つ従属節(の主辞文節)は,後続する従属節のうち,より狭いスコープを持つ従属節(の主辞文節)には係らないということができる.したがって,(2a)の場合には,主辞文節$Seg_1$は,包含関係において$Seg_2$より\mbox{もより広い}スコープを持つ必要がある.一方,(2b)の場合は,$Seg_1$が$Seg_2$\mbox{を主辞とする従属節}のスコープに含まれる場合((2b-i),図\ref{fig:rel2bi})と,含まれない場合((2b-ii),図\ref{fig:rel2bii})の両方の可能性がある.したがって,一般に,(2b)の場合には,$Seg_1$を主辞とする従属節のスコープの広さと,$Seg_2$を主辞とする従属節のスコープの広さの間には依存関係がなく,互いに独立な関係にあると言える.以上のことから,本論文では,二つの述語的文節が係り受け関係にない場合のうち,特に(2a)の場合のみに注目して,決定リストのクラス$D$としては,\medskip\begin{enumerate}\noindent\begin{minipage}{\textwidth}\item述語的文節$Seg_i$と$Seg_j$が係り受け関係にある場合,\item述語的文節$Seg_i$の係り先が,$Seg_j$を越えたより後ろの述語的文節または文末述語文\end{minipage}節となる場合,\end{enumerate}の二つを設定することとし,このいずれの場合になるかを判定することとする\footnote{従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}\mbox{においては,}クラスとして二つの文節が係り受け関係にある場合と係り受け関係にない場合の二つを設定しており,従属節の階層的分類の考え方を利用した本論文の設定とは異なっている.本論文の設定法と,従来の統計的係り受け解析モデルにおけるクラスの設定法の実験的比較については,\ref{subsubsec:prev_dep}節で詳しく述べる.}.以上をまとめると,決定リストの証拠$E$とクラス$D$は以下のようになる.\begin{itemize}\item{\bf証拠}$E$:二つの従属節の主辞となる述語的文節$Seg_i$,$Seg_j(i\!<\!j)$の持つ素性集合のあらゆる部分集合の組$(F_{i},F_{j})$.\item{\bfクラス}$D$:$Seg_i$が$Seg_j$に係る場合($D\!=\!係る$)と,$Seg_i$が$Seg_j$を越えてより\mbox{後ろの述語}的文節もしくは文末述語文節に係る場合($D\!=\!越える$)の二値.\end{itemize}このような証拠$E$とクラス$D$の設定のもとで,前節の決定リストの学習法にしたがって,従属節間の係り受けを決定する選好情報を抽出する.\subsubsection*{例}例として,図~\ref{fig:ex}の従属節間の係り受け解析済の文から,従属節の係り受け関係のデータを抽出する手順を以下に示す.図~\ref{fig:ex}の文には,文末の他に二つの述語的文節$Seg_1$,$Seg_2$があり,そ\breakれぞれ,${\calF}_1$,${\calF}_2$の素性集合を持つ\footnote{$Seg_2$の``なので''は,茶筌では,「判定詞``だ''の連体形+助動詞``のだ''のテ形」として形態素解析される.}.また,係り受け関係としては,$Seg_1$が文末に係るために,$Seg_1$は$Seg_2$を「越える」という関係にある.この$Seg_1$と$Seg_2$の係り受け\mbox{関係から,決定リス}トを構成するための証拠$E$・クラス$D$のデータを抽出すると,表~\ref{tab:EDex}の結果が得られる.ここで,${\calF}_1$中の二つの素性\begin{quote}述語接続助詞(節末),``が''\end{quote}については,包含関係にあるので,どちらか一方のみを含めることして,${\calF}_1$と${\calF}_2$のあらゆる可能な部分集合の組が証拠$E$となる.また,これらの証拠に対して,そのクラス$D$はいずれも$D\!=\!「越える」$となる.\begin{figure*}\begin{center}\framebox{\epsfile{file=fig/depex.ps,vscale=0.9,hscale=0.75}}\\\vspace*{.3cm}\begin{tabular}[c]{|l|l|}\hline\multicolumn{1}{|c|}{述語的文節}&\multicolumn{1}{|c|}{素性集合}\\\hline$Seg_1$:``値上げするが,''&${\calF}_1\!=\!\Bigl\{読点有,述語接続助詞(節末),``が''\Bigr\}$\\$Seg_2$:``3\%なので,''&${\calF}_2\!=\!\Bigl\{読点有,テ形\Bigr\}$\\$Seg_3$(文末):``でてくるだろう.''&\multicolumn{1}{|c|}{---}\\\hline\end{tabular}\caption{複数の従属節を含む文の例}\label{fig:ex}\end{center}\end{figure*}\begin{table}\begin{center}\caption{係り受け解析済の文から抽出される証拠$E$・クラス$D$の組の例}\label{tab:EDex}\begin{tabular}[c]{|c|c|c|}\hline\multicolumn{2}{|c|}{証拠$E$}&クラス\\\cline{1-2}$F_1$&$F_2$&$D$\\\hline\hline読点有&読点有&越える\\読点有&テ形&越える\\読点有&読点有,テ形&越える\\述語接続助詞(節末)&読点有&越える\\述語接続助詞(節末)&テ形&越える\\述語接続助詞(節末)&読点有,テ形&越える\\読点有,述語接続助詞(節末)&読点有&越える\\読点有,述語接続助詞(節末)&テ形&越える\\読点有,述語接続助詞(節末)&読点有,テ形&越える\\``が''&読点有&越える\\``が''&テ形&越える\\``が''&読点有,テ形&越える\\読点有,``が''&読点有&越える\\読点有,``が''&テ形&越える\\読点有,``が''&読点有,テ形&越える\\\hline\end{tabular}\end{center}\end{table}\subsection{EDRコーパスから学習した決定リスト}EDR日本語コーパスの約21万文を訓練用データ(95\%)と評価用データ(5\%)に分割し,訓練用データ199,500文から,係り受け関係が「係る」または「越える」になる述語的文節を抽\mbox{出した結果},162,443組の述語的文節のペアが得られた.これらの従属節係り受けデータから,従属節係り受け選好のための決定リストを学習した.結果のうち,証拠$E$の頻度が10以上の規則をいくつか抜粋したものを表~\ref{tab:dlist}に示す.規則数は,確率値が$P(D\midE)\!=\!1$となる規則が923,$0.5378\!<\!P(D\midE)\!<\!1$となる規則が6,889で,その総数は7,812である.表~\ref{tab:dlist}の\mbox{決定リストのデ}フォールト規則としては,\begin{eqnarray*}P(D\!=\!越える)&=&0.5378\\P(D\!=\!係る)&=&0.4622\\P(D\!=\!越える)&>&P(D\!=\!係る)\end{eqnarray*}となることから,$D\!=\!「越える」$をデフォールト規則とし,これを決定リストの最終行とする.\begin{table*}\begin{center}\caption{EDRコーパスから学習した決定リスト中の規則\\(証拠$E$の頻度10以上)の抜粋}\label{tab:dlist}\vspace*{.1cm}\hspace*{-1cm}\begin{tabular}[c]{|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{証拠$E$}&クラス&確率値&証拠$E$\\\cline{1-2}$F_1$&$F_2$&$D$&$P(D\midE)$&の頻度\\\hline\hline連用形&判定詞($\neg$節末)&越える&1&548\\連用形&``では''&越える&1&536\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&$\vdots$\\読点無&読点有,``のが''&係る&1&123\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&$\vdots$\\読点無,副詞($\neg$節末)&読点有,``が''&係る&1&10\\読点有&読点無,判定詞($\neg$節末)&越える&0.997&1541\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&$\vdots$\\副詞的名詞&連用形&越える&0.538&1280\\(デフォールト)&(デフォールト)&越える&0.5378&87366\\\hline\end{tabular}\end{center}\end{table*} \section{決定リストを用いた従属節係り受け解析} \label{sec:ana}\subsection{二つの従属節の間の係り受け関係の推定}\begin{table}\begin{center}\caption{決定リストの適用例}\label{tab:dlap}\begin{tabular}[c]{|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{証拠$E$}&クラス&確率値&\\\cline{1-2}$F_1$&$F_2$&$D$&$P(D\midE)$&頻度\\\hline\hline{\bf読点有,``が''}&{\bfテ形}&{\bf越える}&{\bf0.917}&{\bf1354}\\``が''&テ形&越える&0.912&1391\\読点有,述語接続助詞(節末)&テ形&越える&0.907&570\\述語接続助詞(節末)&テ形&越える&0.858&620\\読点有&テ形&越える&0.835&11923\\読点有,``が''&読点有&越える&0.827&2936\\読点有,``が''&読点有,テ形&越える&0.826&533\\読点有,述語接続助詞(節末)&読点有&越える&0.818&1212\\``が''&読点有&越える&0.815&3027\\``が''&読点有,テ形&越える&0.814&547\\読点有,述語接続助詞(節末)&読点有,テ形&越える&0.804&225\\述語接続助詞(節末)&読点有&越える&0.746&1352\\述語接続助詞(節末)&読点有,テ形&越える&0.722&252\\読点有&読点有,テ形&越える&0.674&4071\\読点有&読点有&越える&0.612&24511\\\hline\end{tabular}\end{center}\end{table}いま,一文中の二つの従属節の主辞文節$Seg_i$,$Seg_j(i<j)$が与えられていて,決定リストを用いてこの二つの文節間の係り受け関係を推定することを考える.$Seg_i$,$Seg_j$それぞれの持つ素性集合を${\calF}_i$,${\calF}_j$とすると,${\calF}_i$,${\calF}_j$に対してあらゆる可能な部分集合の組$(F_i,F_j)$を考え,これを証拠$E$の候補として決定リストを検索し,決定リスト中でもっとも優先順位の高い規則の与えるクラス$\hat{D}$を$Seg_i$,$Seg_j$の係り受け関係の推定結果とする.決定リストを用いたこの係り受け関係の推定法は,あらゆる可能な証拠$(F_i,F_j)$について,条件付確率$P(D\!=\!x(F_i,F_j)\mid(F_i,F_j))$の最大値を与える証拠$(\hat{F}_i,\hat{F}_j)$を求め,その証拠を用いた時のクラス$D\!=\!x(\hat{F}_i,\hat{F}_j)$をクラス$D$の推定結果$\hat{D}$とすることと等価である\footnote{ただし,ある証拠$E$が存在するという条件のもとでクラス$D$が$D\!=\!x$となる事象の頻度に,微小値$\alpha(0.1\leq\alpha\leq0.25)$を加えるという補正がなされているとする.}.\begin{eqnarray*}(\hat{F}_i,\hat{F}_j)&=&\argmax_{(F_i,F_j)}P(D\!=\!x(F_i,F_j)\mid(F_i,F_j))\\\hat{D}&=&x(\hat{F}_i,\hat{F}_j)\end{eqnarray*}\subsubsection*{例}例として,図~\ref{fig:ex}の文の述語的文節$Seg_1$と$Seg_2$の間の係り受け関係を,表~\ref{tab:dlist}の\mbox{決定リストを用}いて推定する様子を以下に示す.述語的文節$Seg_1$と$Seg_2$の組に対する可能な証拠のパターン$(F_1,F_2)$は,表~\ref{tab:EDex}のようになり,これらの証拠について表~\ref{tab:dlist}の決定リストを検索すると,\mbox{それぞ}れ表~\ref{tab:dlap}に示すクラス$D$および条件付確率$P(D|E)$が得られる.この結果,最も優先順位の高い規則として,表~\ref{tab:dlap}の先頭にゴシック体で示した規則が選ばれ,係り受け関係の推定に用いる証拠$(\hat{F}_1,\hat{F}_2)$および係り受け関係の推定結果$\hat{D}$はそれぞれ,\begin{eqnarray*}(\hat{F}_1,\hat{F}_2)&=&\Bigl(\\{読点有,``が''\},\\{テ形\}\\Bigr)\\\hat{D}&=&越える\end{eqnarray*}となる.\subsection{一文中の従属節の係り受け解析}\label{subsubsec:sent}次に,前節で求めた二つの従属節の間の係り受け関係の推定結果を用いて,一文中の従属節の係り受け解析を行う.その際には,先行する従属節の主辞となる述語的文節が,後続する述語的文節に「係る」確率だけでなく,後続する述語的文節を「越える」確率も考慮して,従属節の係り受け解析の優先度を計算する\footnote{従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}では,「係る」確率のみを考慮して一文全体の係り受け解析の優先度を計算している.本論文の計算法と,従来の統計的係り受け解析モデルにおける計算法との実験的比較については,\ref{subsubsec:prev_dep}節で詳しく述べる.}.まず,文$S$をその文中の述語的文節の列$S_{sb}$として以下のように記述する.\begin{eqnarray*}S_{sb}&=&Seg_1,\ldots,Seg_{n-1},Seg_n(文末)\end{eqnarray*}ここで,各$Seg_i$は述語的文節を表し,$Seg_n$は文末の述語文節である.また,述語的文節$Seg_i$の係り先の文節を$mod(Seg_i)$で表す.そして,文$S$中の述語的文節の列$S_{sb}$の間の係り受け関係のパターンを,述語的文節$Seg_i$の係り先の文節$mod(Seg_i)$の列で表し,これを$Dep(S_{sb})$と記述する.ただし,ここでは,文中の係り受け関係としては,互いに非交差のもののみを対象とする(実際の解析は,CKY法によっている.).\begin{eqnarray*}Dep(S_{sb})&=&mod(Seg_1),\ldots,mod(Seg_{n-1})\\&&(ただし,互いに非交差の係り受け関係のみ)\end{eqnarray*}そして,以下の手順により,決定リスト中の係り受け関係の確率値を用いて,それぞれの係り受けパターン$Dep(S_{sb})$の優先度を計算する.まず,従属節$Seg_i$から$mod(Seg_i)$への係り受け関係の優先度を計算する.前節と同様,二つ\breakの述語的文節$Seg_i$と$Seg_j$の間に係り受け関係$D\!=\!x$が成り立つ確率の推定においては,あらゆる証拠$(F_i,F_j)$について,決定リストを用いて条件付確率$P(D\!=\!x\mid(F_i,F_j))$の最大値を求め,この最大条件付確率を求めるべき推定値$\hat{P}(D\!=\!x\mid(Seg_i,Seg_j))$とする.\begin{eqnarray*}\hat{P}(D\!=\!x\mid(Seg_i,Seg_j))&=&\max_{(F_i,F_j)}P(D\!=\!x\mid(F_i,F_j))\end{eqnarray*}そして,述語的文節$Seg_k$を$Seg_i$の係り先\begin{eqnarray*}Seg_k&=&mod(Seg_i)\end{eqnarray*}として,以下の式により,述語的文節$Seg_i$が$Seg_k$に係る係り受け関係の優先度$Q(D\!=\!係る\mid(Seg_i,Seg_k))$を計算する.\begin{enumerate}\item$k\!<\!n$の場合.$Seg_i$が$Seg_k$に「係る」確率と$Seg_i$が$Seg_j(j\!=\!i+1,\ldots,k-1)$を「越える」確率の相乗平均\footnote{ここで,相乗平均ではなく単に積をとると,係り先$Seg_k$が$Seg_i$からどれだけ離れているかによって\mbox{積をとる項の数が}異なり,項の数が少ない方が有利になってしまう傾向がある.これはすなわち,より近くに係る係り受け関係が有利になるようにバイアスをかけることに相当する.数学的意味付けとしては,積をとることにより確率としての性質が保たれるという利点はあるが,各係り受け関係の確率を公平に評価するという目的からは外れるため,本論文では積ではなく相乗平均を用いるという立場をとる.なお,両者の実験的比較としては,\ref{subsubsec:subsent}節において\mbox{相乗平均を用いた場合と積を}用いた場合の実験結果を比較し,その違いについて考察する.}を$Q(D\!=\!係る\mid(Seg_i,Seg_k))$とする.\begin{eqnarray*}\lefteqn{Q(D\!=\!係る\mid(Seg_i,Seg_k))=}\\&&\Bigl(\\\hat{P}(D\!=\!係る\mid(Seg_i,Seg_k))\times\prod_{j=i+1}^{k-1}\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))\\\Bigr)^{\frac{1}{k-i}}\end{eqnarray*}\item$k\!=\!n$の場合.$Seg_i$が$Seg_n(文末)$に「係る」確率は(文末を「越える」確率は0なので)1とみなして考慮せず,$Seg_i$が$Seg_j(j\!=\!i+1,\ldots,n-1)$を「越える」確率の相乗平均を$Q(D\!=\!係る\mid(Seg_i,Seg_k))$とする.(ただし,$i\!<\!n-1$とする.$i\!=\!n-1$のときは,$Seg_{n-1}$は必ず$Seg_n$(文末)に係る.)\begin{eqnarray*}Q(D\!=\!係る\mid(Seg_i,Seg_k))&=&\Bigl(\\prod_{j=i+1}^{n-1}\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))\\Bigr)^{\frac{1}{n-i-1}}\end{eqnarray*}\end{enumerate}最後に,述語的文節$Seg_i$から$mod(Seg_i)$への係り受け関係の優先度$Q(D\!=\!係る\mid(Seg_i,mod(Seg_i)))$の積によって,文$S$中の述語的文節の列$S_{sb}$が\mbox{係り受け関係$Dep(S_{sb})$を持}つ優先度$Q(S_{sb},Dep(S_{sb}))$を計算する.\begin{eqnarray*}Q(S_{sb},Dep(S_{sb}))&=&\prod_{i=1}^{n-2}Q(D\!=\!係る\mid(Seg_i,mod(Seg_i)))\end{eqnarray*}上式の優先度を用いて,文$S$中の述語的文節の列$S_{sb}$に対して以下の最大の\mbox{優先度を与える係り}受け関係$\hat{Dep}(S_{sb})$を,文$S$の従属節係り受け解析の解析結果とする.\begin{eqnarray*}\hat{Dep}(S_{sb})&=&\argmax_{Dep(S_{sb})}Q(S_{sb},Dep(S_{sb}))\end{eqnarray*} \section{実験および評価} \ref{subsec:dlist_sb}節の方法により,EDR日本語コーパス約21万文のうちの訓練用データ(95\%)\mbox{から抽出し}た従属節係り受けデータから,従属節係り受け選好のための決定リストを学習し,これを用いて評価用データ(5\%)中の二つの従属節の間の係り受け関係を推定する実験,および一文中の従属節の係り受け解析の実験を行った.\subsection{評価データ}評価用データ(5\%)10,320文中で,一文中に二つ以上の従属節を含み,従属節の係り受けの曖昧性のある文は,3,128文(約30\%)であった.この3,128文および残りの7,192文について,文節数,一文中の平均文節数,述語的文節数を調査した結果を表~\ref{tab:evalD}に示す.また,第\ref{sec:sentana}節では,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において,推定した従属節間の係り受け関係を評価するので,これらの評価用文セットを\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析によって解析した場合の,文節レベル正解率,上位1個/5個における文レベル正解含有率,および,述語的文節の係り受け正解率も示す.以下の実験では,評価用データ10,320文のうち,従属節の係り受けの曖昧性のある文3,128文を評価対象とする.\begin{table}[t]\vspace{-5mm}\begin{center}\caption{評価用データの特性}\label{tab:evalD}\begin{tabular}[c]{|c||c|c||c|}\hline&\multicolumn{2}{|c||}{部分データセット}&\\\cline{2-3}&従属節係り受け&従属節係り受け&\\&曖昧性あり&曖昧性なし&全評価データ\\\hline\hline文数&3,128(30.3\%)&7,192(69.7\%)&10,320\\文節数&32,038(39.9\%)&48,281(60.1\%)&80,319\\一文中の平均文節数&10.2&6.7&7.8\\述語的文節数&&&\\\multicolumn{1}{|r||}{(総数)}&8,789&---&---\\\multicolumn{1}{|r||}{(係り先が曖昧)}&4,207&0&4,207\\\hline係り受け解析正解率&&&\\\cite{Fujio97aj,Fujio99aj}&&&\\\multicolumn{1}{|r||}{文節レベル正解率}&85.3\%&86.7\%&86.1\%\\\multicolumn{1}{|r||}{文レベル正解含有率}&&&\\\multicolumn{1}{|r||}{(上位1個)}&25.4\%&47.5\%&40.8\%\\\multicolumn{1}{|r||}{(上位5個)}&35.8\%&60.2\%&52.8\%\\\multicolumn{1}{|r||}{述語的文節の正解率}&65.7\%&---&65.7\%\\\hline\end{tabular}\end{center}\end{table}\subsection{二つの従属節の間の係り受け関係の推定}\label{subsubsec:experi-pair}以下の条件のもとで,評価データ3,128文に対して,二つの従属節の間の係り受け関係を推定する実験を行なった.\begin{table}\begin{center}\caption{二つの従属節の間の係り受け関係の推定の実験結果(\%)}\label{tab:ressub}\begin{tabular}[c]{|c||c|c||c|c|}\hline&\multicolumn{4}{|c|}{二つの従属節の間の係り受け関係の推定}\\\cline{2-5}&\multicolumn{2}{|c||}{決定リストによる素性選択}&\multicolumn{2}{|c|}{\\\決定木による素性選択\\\}\\\cline{2-5}$P(D\midE)$&カバレージ&適合率&カバレージ&適合率\\\hline\hline1&0.84&100&1.1&100\\$\sim$0.95&14.4&95.9&3.4&98.1\\$\sim$0.90&43.8&91.0&20.2&94.7\\$\sim$0.85&55.0&87.4&21.7&94.1\\$\sim$0.80&78.7&83.8&23.6&93.0\\$\sim$0.75&88.8&80.2&62.7&84.3\\$\sim$0.70&95.3&78.5&63.8&84.0\\$\sim$0.65&96.6&78.4&65.9&83.5\\$\sim$0.60&100&78.3&96.6&78.5\\$\sim$0.5378&100&78.3&---&---\\$\sim$0.50&---&---&99.9&77.6\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\vspace{-2mm}\begin{center}\epsfile{file=fig/cvpr-pde-segpair-j-jnlp-nc.ps,scale=0.8}\vspace{-2mm}\caption{二つの従属節の間の係り受け関係の推定の実験結果}\label{fig:resseg}\end{center}\end{figure}\begin{itemize}\item決定リスト中の規則の証拠$E$の頻度の閾値として,頻度10以上のものを用いる.\item条件付確率$P(D\midE)$の大きさに閾値を設け,この閾値を段階的に変えることにより,係り受け関係の推定のカバレージと精度の相関を調べる.ただし,決定リストを用いた従属節係り受け関係推定のカバレージは,次式で,\begin{eqnarray*}カバレージ&=&\frac{\begin{tabular}[c]{c}決定リストが適用可能な述語的文節の組数\end{tabular}}{評価対象の述語的文節の組数}\end{eqnarray*}また,係り受け関係の推定精度は,以下の適合率で測定する.\[適合率\=\\frac{係り受け関係の推定結果が正解の組数}{決定リストが適用可能な述語的文節の組数}\]\end{itemize}この結果を表\ref{tab:ressub}の「決定リストによる素性選択」の欄,および図\ref{fig:resseg}の「決定リスト」のプロットに示す\footnote{条件付確率値$P(D\midE)$は,証拠$E=1$の条件のもとで,決定リストがどの程度の信頼性をもってクラス$D$を出力するかということを表している.本論文では,指定された信頼度のもとで,決定リストがどの程度のカバレージ・適合率を示すかを調べるために,まず,図\ref{fig:resseg}に示すように,$P(D\midE)$の下限値/カバレージの相関,および,$P(D\midE)$の下限値/適合率の相関をプロットする.また,本論文の手法を関連手法と比較する(\ref{subsec:compare}節)際には,あわせて,カバレージ/適合率の相関をプロットし,これらの相関を参照しながら比較・分析を行う.}.この結果から,決定リスト中の条件付確率$P(D\midE)$の大きさの制限が強い場合は,\newpageカバレージは低いが適合率はかなり高いことがわかる.また,条件付確率$P(D\midE)$の大きさの制限を緩くして,カバレージが100\%近い場合でも,80\%近くの適合率を達成している.(決定木学習による素性選択との比較については,\ref{subsubsec:dtree}節で述べる.)\subsection{一文中の従属節の係り受け解析}\label{subsubsec:subsent}さらに,前節で求めた二つの従属節の間の係り受け関係の推定結果を用いて,\ref{subsubsec:sent}節の方法により一文中の従属節の係り受け解析を行い,その性能を評価した.前節と同様に,条件付確率$P(D\midE)$の大きさに閾値を設け,この閾値を段階的に変えることにより,カバレージと係り受け解析精度の相関を調べた.具体的には,まず,条件付確率$P(D\midE)$の大きさに閾値を設け,確率値$\hat{P}(D\!=\!x\mid(Seg_i,Seg_j))$がこの閾値より小さい場合は,デフォールト規則の確率値を用いて,\vspace{-2mm}\begin{eqnarray*}\hat{P}(D\!=\!係る\mid(Seg_i,Seg_j))&=&P(D\!=\!係る)\\(=0.4622)\\\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))&=&P(D\!=\!越える)\\(=0.5378)\end{eqnarray*}とする.この結果,優先度$Q(S_{sb},Dep(S_{sb}))$が最大となる係り受け解析結果$\hat{Dep}(S_{sb})$として複数のものが得られた場合には,それらの複数の係り受け解析結果に含まれる係り受け関係のうち,それらの複数の解析結果の間で係り先の曖昧性がなく,しかも,確率値$\hat{P}(D\!=\!x\mid(Seg_i,Seg_j))$が与えられた閾値以上の係り受け関係のみを出力する\footnote{他の部分解析手法としては,文全体の係り受け解析結果(この場合,従属節間の係り受け解析結果)のうち,確率値の上位$n$個を用いて個々の部分的な係り受け関係の確信度を計算し,この確信度に対して閾値を設定することにより部分解析を行うという方法\cite{Inui98aj,Fujio99aj}も考えられる.本論文では,決定リストにより計算される確率値の信頼性を直接評価するために,現在のような方法を採用している.}.評価尺度としては,一文中の従属節の係り受け解析のカバレージは,次式で,\begin{eqnarray*}\begin{tabular}[c]{c}文節レベル\\カバレージ\end{tabular}&=&\frac{\begin{tabular}[c]{c}係り先が決定可能な述語的文節数\end{tabular}}{評価対象の述語的文節数}\\\begin{tabular}[c]{c}文レベル\\カバレージ\end{tabular}&=&\frac{\begin{tabular}[c]{c}文中の全述語的文節の係り先が決定可能な文数\end{tabular}}{評価対象の文数}\end{eqnarray*}また,係り受け解析の精度は,以下の適合率で測定する.\begin{eqnarray*}\begin{tabular}[c]{c}文節レベル\\適合率\end{tabular}&=&\frac{\begin{tabular}[c]{c}解析結果の係り先が正解の述語的文節数\end{tabular}}{係り先が決定可能な述語的文節数}\\\begin{tabular}[c]{c}文レベル\\適合率\end{tabular}&=&\frac{\begin{tabular}[c]{c}文中の全述語的文節の係り先が正解の文数\end{tabular}}{\begin{tabular}[c]{c}文中の全述語的文節の係り先が決定可能な文数\end{tabular}}\end{eqnarray*}この結果を表\ref{tab:ressub-sent},および図\ref{fig:ressub}の「本論文のモデル」のプロットに示す.文節レベル・文レベルのいずれにおいても,前節の二つの従属節の間の係り受け関係の推定の場合と同様の傾向を示している.カバレージが100\%近い場合は,文節レベルで約76\%,文レベルで約71\%の適合率である.\begin{table*}[t]\begin{center}\caption{一文中の従属節の係り受け解析の実験結果(\%)}\label{tab:ressub-sent}\begin{tabular}[c]{|c||c|c||c|c|}\hline&\multicolumn{2}{|c||}{文節レベル}&\multicolumn{2}{|c|}{文レベル}\\\cline{2-5}$P(D\midE)$&カバレージ&適合率&カバレージ&適合率\\\hline\hline1&5.4&90.4&4.1&93.7\\$\sim$0.95&19.4&88.7&15.1&91.1\\$\sim$0.90&46.6&88.1&39.3&87.4\\$\sim$0.85&59.2&85.1&52.5&83.6\\$\sim$0.80&83.4&80.8&78.9&78.2\\$\sim$0.75&91.7&78.5&89.2&74.8\\$\sim$0.70&99.6&75.6&99.4&71.1\\$\sim$0.65&99.7&75.6&99.6&71.1\\$\sim$0.60&99.9&75.7&99.8&71.1\\$\sim$0.5378&99.8&75.7&99.7&71.1\\\hline\end{tabular}\end{center}\end{table*}\begin{figure}[p]\begin{center}\epsfile{file=fig/cvpr-pde-subseg-j-nc.ps,scale=0.8}\epsfile{file=fig/cvpr-pde-subsent-j.ps,scale=0.8}\caption{一文中の従属節の係り受け解析の実験結果}\label{fig:ressub}\end{center}\end{figure}\subsubsection*{一文中の従属節の係り受け関係の優先度:相乗平均と積の比較および考察}ここで,\ref{subsubsec:sent}節において,述語的文節$Seg_i$が$Seg_k$に係る係り受け関係の優先度$Q(D\!=\!係る\mid(Seg_i,Seg_k))$を計算する際に,各々の係り受け関係の相乗平均ではなく積を用いて一文中の従属節の係り受け解析を行った結果について考察する.まず,この場合,優先度$Q(D\!=\!係る\mid(Seg_i,Seg_k))$は,以下の式によって計算される.\begin{enumerate}\item$k\!<\!n$(すなわち,$Seg_k$が文末以外)の場合.\begin{eqnarray*}\lefteqn{Q(D\!=\!係る\mid(Seg_i,Seg_k))=}\\&&\hat{P}(D\!=\!係る\mid(Seg_i,Seg_k))\times\prod_{j=i+1}^{k-1}\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))\end{eqnarray*}\item$k\!=\!n$(すなわち,$Seg_k$が文末)の場合.\begin{eqnarray*}Q(D\!=\!係る\mid(Seg_i,Seg_k))&=&\prod_{j=i+1}^{n-1}\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))\end{eqnarray*}\end{enumerate}\begin{figure}\begin{center}\epsfile{file=fig/pr-cv-subsegsent-no_geomean.ps,scale=0.8}\caption{一文中の従属節の係り受け解析の優先度:相乗平均と積の比較}\label{fig:no_geomean}\end{center}\end{figure}次に,相乗平均を用いた場合および積を用いた場合の両者について,文節レベル/文レベルのカバレージに対する適合率の推移を,図\ref{fig:no_geomean}の「相乗平均」および「積」の\mbox{プロットに示す.この}図から分かるように,カバレージの低いところ(すなわち,条件付確率$P(D\midE)$の下限値の高いところ)では,優先度として積を用いた場合の方がやや高い適合率を示している.この原因としては,積を用いた場合,より近くに係る係り受け関係を優先するバイアスがかかっている点が挙げられる.すなわち,比較的信頼度の高い係り受け関係だけを考慮する場合は,より近くに係る係り受け関係を優先するバイアスが,一文中の従属節の係り受け解析の性能の向上に寄与すると言える.この結果から,従属節係り受け選好情報の学習の段階で,従属節間の距離の情報を明示的に考慮し,よりきめ細かな係り受け選好情報を学習すれば,一文中の従属節の係り受け解析の性能がさらに向上する可能性があると期待できる.しかし,従属節間の距離の情報を明示的に考慮しその効果について考察することは,本論文の範囲を越えるため,今後の課題とする.また,以下では,各係り受け関係の確率を公平に評価しその効果を明らかにするという目的のため,従属節間の係り受け関係の優先度としては相乗平均を用いた場合の結果を示す.\subsection{関連手法との比較}\label{subsec:compare}本節では,本論文の手法を,従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}と比較し,評価実験を通して,本論文の手法の利点を示す.まず,従来の統計的係り受け解析モデルが,本論文の手法と異なる点として,以下の三つが挙げられる.\begin{enumerate}\item[(1)]事象として二つの文節が係り受け関係にある場合と係り受け関係にない場合の二つを設定し,二つの文節が係り受け関係にある確率を次式(もしくは,それに準ずる式)で定義する.\[\frac{二つの文節(の属性)が係り受け関係にある頻度}{二つの文節(の属性)が一文中に出現する頻度}\]\item[(2)]一文中の係り受け解析結果の確率を,文中の全ての文節間の係り受け関係の確率の積(もしくは,それに何らかの正規化を施したもの)で計算し,確率値最大の解析結果を求める.\item[(3)]上記の従来のモデルのうち,\cite{Haruno98cj}以外においては,係り受け解析の際に使用する属性があらかじめ固定されており,属性選択を明示的に行う機構がない.また,\cite{Haruno98cj}においては,決定リスト学習ではなく,決定木学習\cite{Quinlan93a}によって属性選択が行われる.\end{enumerate}これらの相違点について,以下では,まず,\ref{subsubsec:prev_dep}節において,上記の(1),(2)を満たすモデル\mbox{と本論文のモデル}の比較を行う.次に,\ref{subsubsec:dtree}節において,決定木学習\cite{Quinlan93a}を用いた\break統計的係り受け解析手法\cite{Haruno98cj}との比較を行う.\subsubsection{「係る」「係らない」を事象とし「係る」確率のみを考慮するモデルとの比較}\label{subsubsec:prev_dep}本論文の従属節間の係り受け解析の設定において,上記(1)および(2)を満たすモデルとして,第\ref{sec:learn}節の決定リスト学習による従属節係り受け選好情報抽出,および,第\ref{sec:ana}\mbox{節の決定リスト}を用いた従属節係り受け解析の枠組みに以下の変更を施したモデルを考える.\begin{itemize}\item従属節の素性として,「文末」を表す素性を追加する(従来のモデルとあわせるために必要.).\item決定リストのクラスとして,先行する述語的文節が後続する述語的文節に「係る」場合と「係らない」場合の二値を設定する.\item先行する述語的文節$Seg_i$が後続する述語的文節$Seg_j$に係る係り受け関係の優先度$Q(D\!=\!係る\mid(Seg_i,Seg_j))$として,以下のものを用いる.\begin{eqnarray*}Q(D\!=\!係る\mid(Seg_i,Seg_j))&=&\hat{P}(D\!=\!係る\mid(Seg_i,Seg_j))\end{eqnarray*}\end{itemize}\begin{table*}\begin{center}\caption{一文中の従属節の係り受け解析の実験結果(\%):\\「係る」「係らない」を事象とし「係る」確率のみを考慮するモデル}\label{tab:ressub-prev}\begin{tabular}[c]{|c||c|c||c|c|}\hline&\multicolumn{2}{|c||}{文節レベル}&\multicolumn{2}{|c|}{文レベル}\\\cline{2-5}$P(D\midE)$&カバレージ&適合率&カバレージ&適合率\\\hline\hline1&0.4&81.3&0.03&100\\$\sim$0.95&0.7&86.7&0.2&100\\$\sim$0.90&1.9&85.9&0.3&90.0\\$\sim$0.85&13.3&85.1&5.0&90.3\\$\sim$0.80&28.1&83.7&13.4&89.0\\$\sim$0.75&37.5&81.7&20.7&85.0\\$\sim$0.70&56.9&80.0&34.1&81.8\\$\sim$0.65&90.2&75.8&76.0&71.9\\$\sim$0.6180&92.2&75.0&89.6&71.3\\\hline\end{tabular}\end{center}\end{table*}\begin{figure}\begin{center}\epsfile{file=fig/pr-cv-subsegsent.ps,scale=0.8}\caption{一文中の従属節の係り受け解析:「係る」「係らない」を事象とし\\「係る」確率のみを考慮するモデルとの比較}\label{fig:res_prev}\end{center}\end{figure}このモデルに対して,EDR日本語コーパス約21万文のうちの訓練用データ(95\%)から抽出した従属節係り受けデータから,従属節係り受け選好のための決定リストを学習した.\mbox{このモデ}ルによって学習された決定リストにおいては,$D\!=\!「係らない」$がデフォールト規則となり,その確率値は,$P(D\!=\!係らない)\!=\!0.6180$であった.このモデルを用いて,\ref{subsubsec:subsent}節と同じ設定で一文中の従属節の係り受け解析を行った結果を,表\ref{tab:ressub-prev},および図\ref{fig:ressub}の「係る/係らない」のプロットに示す.本論文のモデルと比較すると,条件付確率$P(D\midE)$の閾値が同じ場合,文節レベル・文レベルともにカバレージがかなり低いことが分かる.また,カバレージに対する適合率\breakの推移をプロットした結果を,本論文のモデルによる結果と比較したものを図\ref{fig:res_prev}に示す.\mbox{これか}ら分かるように,文節レベル・文レベルともに,カバレージ・適合率の両方において,本論文のモデルの方が高い性能を示している.これらの結果から,従属節間の係り受け解析に関しては,「係る」「係らない」を事象とし「係る」確率のみを考慮する従来の統計的係り受け解析モデルと比較して,本論文のモデルの性能の方が上回っているといえる.\vspace{-4mm}\subsubsection{二つの従属節の間の係り受け関係の推定:決定木学習による素性選択との比較}\label{subsubsec:dtree}次に,統計的日本語係り受け解析において,係り受け関係の判定に有効な素性の選択に決定木学習\cite{Quinlan93a}を用いた手法\cite{Haruno98cj}と,本論文の手法の比較を行う.決定木学習においては,訓練集合中で,目的クラスに関するエントロピーの減少分が最大となるように素性が選択され,訓練集合が部分集合に分割される.本論文の決定リスト学習の手法における素性選択と,\cite{Haruno98cj}における素性選択の間の最大の違いとして,本論文の手法では,係り側文節と受け側の両方の素性を同時に考慮して素性選択が行われるのに対して,\cite{Haruno98cj}の決定木学習における素性選択では,一回の素性選択のプロセスでは,係り側素性あるいは受け側素性のどちらか一方のみが選択される.したがって,\cite{Haruno98cj}の決定木学習における素性選択では,係り側と受け側の素性が組になってはじめて係り受け関係の推定に有効となるような素性の組の有効性が過小評価されてしまうおそれがある.そこで,係り側と受け側の組で従属節の素性の有効性を評価する方法が,全体の精度にどの程度寄与しているかを調べるために,決定木学習の手法\cite{Quinlan93a}を従属節係り受け選好情報の学習に適用し,本論文の決定リスト学習による結果と比較した.ただし,決定木学習\cite{Quinlan93a}の適用にあたっては,\cite{Haruno98cj}における素性の設定方法を参考にして素性の設定を行った.具体的には,係り側・受け側の述語的文節の双方について,\ref{subsec:ftr}節で設定したi)$\sim$iv)の四つの素性タイプを素性とし(素性数は合計8個),各素性のとり得る値は,表\ref{tab:ftr}中の右欄の対応するもの(すなわち,i)読点素性は2個,ii)文法・品詞素性は17個,iii)節末活用語活用形素性は12個,iv)語彙素性は235個)とした\footnote{他の素性の設定方法として,決定リスト学習の場合のように,全ての素性(全266個)を二値素性とする方法も考えられるが,この場合,素性数が多いため,決定木学習の効率が悪く,また決定木適用時の性能もよくない.}.また,決定すべきクラスは,\ref{subsec:dlist_sb}節の決定リスト学習の場合と同様に,前の述語的文節が後ろの述語的文節に「係る」場合と,「越える」(より後ろに係る)場合の二値とした.さらに,決定リスト学習の手法と条件を同じにするために,決定木の葉節点における用例の総頻度は10以上とし,また,学習された決定木の枝刈りは行っていない.\begin{figure}\begin{center}\epsfile{file=fig/pr-cv-seg-nc.ps,scale=0.8}\caption{二つの従属節の間の係り受け関係の推定:\\決定リスト・決定木学習の比較}\label{fig:res_dtree}\end{center}\end{figure}以上の条件のもとで,\ref{subsubsec:experi-pair}節において,決定リストを用いて二つの従属節の間の係り受け関係を推定した場合と同じ訓練用データおよび評価用データを用いて,二つの従属節の間の係り受け関係を推定する決定木を学習し,その性能の評価を行った.\ref{subsubsec:experi-pair}節の場合と同様に,決定木の葉節点におけるクラスの条件付確率の下限値を変化させて,カバレージと適合率の相関を調べた.この結果を表\ref{tab:ressub}の「決定木による素性選択」の欄,および図\ref{fig:resseg}の「決定木」\mbox{のプロットに示}す.これらの結果から分かるように,決定木の葉節点におけるクラスの条件付確率の下限値が,決定リストにおける条件付確率$P(D\midE)$の下限値と同じ場合,決定木の適合率は決定リストよりも若干優れているが,カバレージはかなり低いことがわかる.この理由として,両者のモデルの大きさの違いが挙げられる.決定リストの規則数が7,812であるのに対して,決定木の総節点数は774で,両者のモデルの大きさはほぼ一桁違うことになる.つまり,決定リスト学習の方は,決定木学習に比べてきめ細かいモデルが学習できており,高いカバレージを示す反面,ノイズとなる規則も含まれているため,適合率において若干劣っていると考えられる.また,決定リストと決定木の間で,カバレージに対する適合率の推移をプロットした結果を\mbox{比較したもの}を図\ref{fig:res_dtree}に示す.図\ref{fig:res_dtree}においては,ほとんどのカバレージにおいて,\mbox{決定リストに}よる適合率が,決定木による適合率を2$\sim$3\%程度上回っており,これらの部分においては,統計的検定を行った結果においても,両者の間に有意な差が認められた.また,両者の適合率が接近する部分(3点)においては,統計的検定を行った結果において有意な差は認られなかった.この結果から,カバレージ・適合率の両方を総合的に考慮すると,決定リストの方が決定木よりもほぼ高い性能を示していると言える.したがって,決定木学習において\cite{Haruno98cj}の素性の設定方法を参考にした場合と比較すると,決定リスト学習において係り側と受け側の組で従属節の素性の有効性を評価する方法が,全体の精度にある程度寄与していることがわかる. \section{文係り受け解析における従属節係り受け選好情報の評価} \label{sec:sentana}次に,\ref{subsubsec:subsent}節で一文中の従属節の係り受け解析により推定した従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用し,その性能を評価する.\vspace{-1mm}\subsection{評価法}\label{subsec:sentM}具体的には,\ref{subsubsec:subsent}節の従属節係り受け解析で出力される係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析における初期係り受け制約として固定し,従属節間の係り受け関係の可能性を制限した形で文係り受け解析を行う\footnote{よりきめ細かな方法としては,従属節係り受け解析における係り受け確率の値を考慮して,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において,従属節間の係り受け関係を何らかの形で重み付けするといった方法も考えられる.本論文では,評価を簡単にするため,現在の方法をとっている.}.ここでも,条件付確率$P(D\midE)$の閾値を変化させることによって,統計的文係り受け解析において利用可能な初期係り受け制約の数を変化させ,文係り受け解析の精度がどのように推移するかを測定する.文係り受け解析の精度は,\ref{subsubsec:subsent}節の場合と同様に,文節レベル・文レベルの適合率によって評価する.ただし,\ref{subsubsec:subsent}節の場合と違い,述語的文節だけでなく,文中の全文節の係り先について評価を行う.また,文レベルの適合率については,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析の確率値が最大の解析結果の適合率に加えて,確率値の上位5個以内に正解が含有される率の測定も行う.\subsection{評価用データセット}EDR日本語コーパス約21万文のうちの評価用データ(5\%)から以下の部分集合を求め,評価用データセットとした.\begin{enumerate}\item「全評価セット」\\一文中に二つ以上の従属節を含み,従属節の係り受けの曖昧性のある文3,128文からなる評価セット.\item「従属節の初期係り受け制約(少なくとも一つ)付の部分評価セット」\\「全評価セット」中の文のうち,初期係り受け制約として,文中の少なくとも一つの従属節の係り先が固定されている文からなる評価セット(条件付確率$P(D\midE)$の下限値によって変化).\item「従属節の初期係り受け制約(完全)付の部分評価セット」\\「従属節の初期係り受け制約(少なくとも一つ)付の部分評価セット」中の文のうち,初期係り受け制約として,文中の全ての従属節の係り先が固定されている文からなる評価セット(条件付確率$P(D\midE)$の下限値によって変化).\end{enumerate}\subsection{結果および考察}\begin{figure}\begin{center}\epsfile{file=fig/pr-cvseg-seg-j.ps,scale=0.8}\vspace*{-1mm}\caption{文係り受け解析における従属節係り受け選好情報の評価:\\従属節係り受け制約のもとでの文節レベル適合率}\label{fig:segeval}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig/pr-cvseg-sent1-j.ps,scale=0.8}\epsfile{file=fig/pr-cvseg-sent5-j.ps,scale=0.8}\caption{文係り受け解析における従属節係り受け選好情報の評価:\\従属節係り受け制約のもとでの文レベル正解含有率}\label{fig:senteval}\end{center}\end{figure}条件付確率$P(D\midE)$の下限値の変化に伴って,文節レベルの係り受け解析適合率,\mbox{文レベル}の係り受け解析正解含有率がどのように変化するかを,それぞれ,図~\ref{fig:segeval}および図~\ref{fig:senteval}に\mbox{示す.こ}こでは,特に,統計的文係り受け解析において利用可能な初期係り受け制約のカバレージと文係り受け解析の精度の相関を調べるために,図~\ref{fig:segeval}および図~\ref{fig:senteval}の横軸としては,\ref{subsubsec:subsent}\mbox{節の一文中}の従属節の係り受け解析の従属節レベルのカバレージ(表\ref{tab:ressub-sent}の文節レベルカバレージ)を用いる.また,図~\ref{fig:senteval}の文レベルの係り受け解析正解含有率としては,文係り受け解析結果の上位1個および5個中での正解含有率を示す.さらに,図~\ref{fig:segeval}および図~\ref{fig:senteval}中には,文係り受け解析精度の上限値および下限値もそれぞれ示す.ここで,文係り受け解析精度の上限値は,従属節の係り先の正解を正解コーパスから取り出し,\ref{subsec:sentM}節の評価手順において,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析における初期係り受け制約として,この正しい係り先を与えた場合の精度である.また,下限値は,\ref{subsec:sentM}節の評価手順において,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析における初期係り受け制約として何も与えなかった場合,すなわち,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析そのままの精度である.図~\ref{fig:segeval}の「全評価セット」に対する文節レベル適合率は,従属節レベルの\mbox{カバレージが約83\%の}時(条件付確率$P(D\midE)$の下限値が0.8の時)に最大となり,その最大値は,文係り受け精度の下限値よりも1.7\%上回っている.この結果を言い換えれば,全体の8割強の従属節に対して,条件付確率$P(D\midE)$の値が0.8以上という条件を満たす初期係り受け制約を与えた場合に,評価セット全体での性能が最大となるということである.それ以外の場合には,従属節の初期係り受け制約のカバレージが少ないか,あるいは,条件付確率$P(D\midE)$の下限値の条件が緩すぎるかのどちらかの理由により,評価セット全体としての性能は低下する.また,「従属節の初期係り受け制約(完全)付の部分評価セット」に対する文節レベル適合率は,従属節レベルのカバレージが約20\%の時(条件付確率$P(D\midE)$の下限値が0.95の時)に最大となり,文係り受け精度の下限値と比べて3.4\%向上している.これは,文係り受け精度の下限値と上限値の間の精度向上分(5.1\%)と比較して,約6割に達している.さらに,図~\ref{fig:senteval}の文レベルの係り受け解析正解含有率のうち,文係り受け解析結果の上位1個に対する結果については,文節レベルの適合率とほぼ同様の傾向がみられる\footnote{全評価セットの結果と「従属節の初期係り受け制約(少なくとも一つ)付の部分評価セット」の結果を比べると,横軸のカバレージが20\%以下の場合($P(D\midE)$の下限値が0.95および1の場合)は,全評価セットに比べて,「従属節の初期係り受け制約(少なくとも一つ)付の部分評価セット」の方が,正解含有率がわずかに低くなっており,それ以外の場合には,全評価セットの方が正解含有率が低いか,あるいは両者がほぼ同程度の正解含有率を示している.このうち,\mbox{全評}価セットの方が高い正解含有率を示す場合がある理由は,係り先が曖昧な述語的文節が一文中に含まれる平均数において,後者の評価セットの方が前者を上回っており,(平均的にみて)係り受け解析がより難しくなっているからである.}.これらの結果から,条件付確率$P(D\midE)$の下限値をどのように設定した場合でも,従属節の初期係り受け制約を用いることにより,文節レベルの適合率および文係り受け解析結果の上位1個での正解含有率の両方において,下限値を上回る結果が得られているので,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析の性能向上に効果があることがわかる.また,文係り受け解析結果の上位5個に対する結果においても,「従属節の初期係り受け制約(完全)付の部分評価セット」では,条件付確率$P(D\midE)$の下限値の条件が厳しくなりカバレージが下がるにしたがって,文正解含有率がかなり上限に近づいており,従属節の初期係り受け制約の有効性が確認できる.しかし,条件付確率$P(D\midE)$の下限値の条件が緩くなり従属節の初期係り受け制約のカバレージが上がると,いずれの評価セットにおいても文正解含有率が低下し,カバレージが100\%近くでは下限値をも下回ってしまう.つまり,文係り受け解析結果の上位5個までに正解が含まれればよいという緩い基準のもとでは,従属節の初期係り受け制約として信頼性の低いものまで用いてしまうと,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析の結果をそのまま信用するよりも若干性能が悪くなることになる. \section{おわりに} 本論文では,大量の構文解析済コーパスから,統計的手法により,従属節節末表現の間の係り受け関係を判定する規則を自動抽出する手法を提案した.実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(構文解析済,約21万文)から従属節係り受け判定規則を抽出し,これを用いて従属節の係り受け関係を判定する評価実験を行い,本論文の手法が有用であることを示した.また,関連手法との性能比較においても,本論文の手法の方が優れていることを示した.さらに,推定された従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用することにより,統計的文係り受け解析の精度が向上することを示した.今後は,本論文の方法により推定された従属節間の係り受け関係,並列構造の推定に関するヒューリスティックス\cite{Kurohashi92cj},統計的に推定された動詞の下位範疇化優先度\cite{Utsuro98b}など,従来の統計的係り受け解析モデルでは利用されていなかった情報を,統計的日本語係り受け解析の枠組みにおいて統合的に利用する方式を提案し,それらの情報が係り受け解析の精度向上にどの程度寄与するのかを評価していく予定である.その際には,述語的文節間の距離の情報や,二つの従属節の間にどのような従属節があるか,すなわち三つ以上の従属節の間の依存関係など,本論文で扱わなかった情報についても,それらを統合的に利用しその有効性を検証する.\bibliographystyle{jnlpbbl}\bibliography{v06n7_02}\begin{biography}\biotitle{略歴}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).同年,奈良先端科学技術大学院大学助手,現在に至る.1999$\sim$2000年,米国ジョンズ・ホプキンス大学計算機科学科客員研究員.自然言語処理の研究に従事.情報処理学会,人工知能学会,日本ソフトウェア科学会,ACL各会員.}\bioauthor{西岡山滋之}{1992年大阪教育大学教育学部教養学科卒業.1998年奈良先端科学技術大学院大学情報科学研究科情報処理学専攻博士前期課程修了.現在,大阪大学言語文化研究科博士前期課程在学中.日本ソフトウェア科学会,認知科学会各会員.}\bioauthor{藤尾正和}{1995年京都大学理学部生物学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科情報処理学専攻博士前期課程修了.現在,同博士後期課程在学中.自然言語処理の研究に従事.学習理論,構文解析に興味を持つ.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.京都大学工学博士.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V15N03-05
\section{はじめに} 我々は,人間と自然な会話を行うことができる知的ロボットの実現を目標に研究を行っている.ここで述べている「知的」とは,人間と同じように常識的に物事を理解・判断し,応答・行動できることである.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念(場所,感覚,知覚,感情など)を会話文章から判断し,適切な応答を実現しコミュニケーションをとっている.本論文では,それらの常識的な判断のうち,未知語の理解に着目し,研究を行っている.知的ロボットとの円滑なコミュニケーションを実現するにあたり,重要となる技術が自然言語処理である.近年,自然言語処理において,単語を意味的に分類したシソーラス\cite{NTT_Thesaurus:97},\cite{G.A.Miller:95}が数多く構築されている.これらのシソーラスは,情報検索や機械翻訳など多くの分野で利用されている.会話処理にシソーラスを用いた場合,会話文中にシソーラスに定義されていない単語(以下,未知語と呼ぶ)が含まれると,その会話文を理解することができない.そのため,未知語が大局的にどのような意味を持つのかを知る必要がある.未知語が所属するべきシソーラスのノードを提示することで,未知語の内容を簡明に表示することができると考える.これを実現するためには,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.これまで,ある概念から様々な概念を連想できるメカニズムを,概念ベース\cite{okumura:07}と関連度計算\cite{watabe:06}により構成し,実現する方法が提案されている.そこで本論文では,連想メカニズムおよびシソーラスの体系的特徴を基に未知語を所属するべき最適なノードへ分類する手法を提案する.これまでにも同種の研究がなされている.\cite{uramoto:96}では,言語データとしてISAMAP\cite{tanaka:87}を利用し,未知語をシソーラスに分類する手法としてコーパス中の出現回数などの統計情報を用いている.また\cite{maeda:00}では,言語データとしてNTTシソーラス\cite{NTT_Thesaurus:97}を利用し,未知語をシソーラスに分類する手法として統計的決定理論の1つであるベイズ基準を用いている.一方で\cite{sakaki:07}では,検索エンジンのヒット件数に対して$\chi^2$値を用いた関連度の指標を用いることで,シソーラスの自動構築を行う手法が提案されている.また\cite{bessho:06}では,コーパスにおける単語同士の共起頻度を用いて単語をベクトル表現で表すことで,概念ベースを作成している.そして,概念ベースに登録していない単語のベクトル表現を,意味空間への射影による手法および分散最小性に基づく手法を用いて推定し,概念ベースを拡張する方法が提案されている.このようにこれまでの研究は,コーパスやシソーラスなどの言語データに存在する単語と未知語の共起頻度を利用することで,両者の関連性を比較し,未知語を既存のシソーラスに分類するものである.そのため,これまでの研究は,用いる言語データに存在しない未知語の場合,共起頻度を獲得することができないため,対応できないという問題を抱えている.本論文では,共起頻度に加えて,ある概念から様々な概念を連想できる連想メカニズムを用いている.その結果,固有名詞を含んだ未知語に対応した柔軟なメカニズムの構築を実現している. \section{未知語分類システム} label{system}未知語分類システムの構成を図\ref{fig:system}に示す.未知語分類システムは,単語を意味的に分類した分類体系の1つであるNTTシソーラス\cite{NTT_Thesaurus:97}と,未知語をNTTシソーラスのノードに分類するための未知語分類処理により構成されている.また,未知語分類処理においては,複数の国語辞書や新聞などから機械的に構築した大規模な知識ベースである概念ベース\cite{okumura:07}と,概念と概念の関連の強さを定量的に評価する関連度計算\cite{watabe:06}(以下,これらを合わせて連想メカニズムと呼ぶ)を用いることにより,未知語とNTTシソーラスのノードとの関連付けを行っている.なお本論文では,未知語とNTTシソーラスのノードに対して関連度計算を行うために,概念化という処理を行っている.概念化とは,ある単語に属性と重みの集合を与えることである.\begin{figure}[b]\begin{center}\includegraphics{15-3ia5f1.eps}\end{center}\caption{未知語分類システムの構成}\label{fig:system}\end{figure}本論文では,常識的な会話処理において用いられる一般名詞については,ノードとリーフをあわせて13万語の以上の単語が収録されているシソーラスと,約9万語の概念を収録する概念ベースを用いることで対応することができると考え,未知語に関する表現として,固有名詞を扱う.さらに,固有名詞の中でも,1つの単語のみから人間がその単語の意味を判断できる固有名詞を扱う.例えば,「Gショック」は「時計」,「クイニーアマン」は「パン」であると判断できる.逆に,「イオン」であれば,「企業」と判断する人間だけでなく,「電離現象」と判断する人間もいると考えられる.このように,人間が一意に判断できないことは,判断する手法が存在しないと考え,多義的な要素を持つ固有名詞については扱わないものとしている.また,\ref{acquiring_attribute_of_unknown_word}節で述べる未知語の概念化では,未知語の属性とその重みの獲得をWebから行う.そのため検索にヒットしない,つまり,Webに存在しない未知語は扱わないものとしている. \section{構成技術} label{constructing_technique}本章では,本研究を構成する技術であるシソーラス,連想メカニズム,および,属性の重み付け手法について述べる.\subsection{シソーラス}\label{thesaurus}シソーラスとは,単語を意味的に分類した分類体系である.シソーラスの多くは木構造を持ち,名詞の集合を分類した名詞シソーラスや用言の集合を分類した用言シソーラスなどがある.また,木構造の葉(以下,リーフと呼ぶ)のみに単語が所属する分類シソーラスと根及び中間ノードにも単語が所属する上位下位シソーラスがある.本論文では,木構造を持つ名詞シソーラスであり,上位下位シソーラスの1つであるNTTシソーラス\cite{NTT_Thesaurus:97}を用いる.NTTシソーラスは一般名詞の意味的用法を表す2710個のノードの上位—下位関係,全体—部分関係が木構造で示されたものである.ノードに所属する名詞として約13万語のリーフが分類されている.図\ref{fig:thesaurus}にNTTシソーラスの木構造の一部を示す.\begin{figure}[b]\begin{center}\includegraphics{15-3ia5f2.eps}\end{center}\caption{NTTシソーラスの木構造(一部)}\label{fig:thesaurus}\end{figure}本論文では,未知語を最も詳しく説明するノードに分類するという考えから,未知語を分類するノードを最下位ノード(1926個)に限定している.さらにその中で,固有名詞である未知語が分類されることはないと判断できるノードを人手で削除している.なお判断基準としては,3名の被験者に各最下位ノードに未知語が分類されるノードか否かを判断してもらい,そのうち3名全員が未知語は分類されないと判断したノードを削除している.結果,使用するノード数は385個となっている.表\ref{table:filtering_node}に選別したノードの一例を示す.\begin{table}[t]\caption{使用するノードの選別}\input{05table01.txt}\label{table:filtering_node}\end{table}\subsection{連想メカニズム}\label{association_mechanism}連想メカニズムは概念ベースと関連度計算により構成されており,概念ベース\cite{okumura:07}は,ある単語から語意の展開を行い,関連度計算\cite{watabe:06}は,語意の展開結果を利用し,単語の間にある関連性の強さを数値として表す手法である.\subsubsection{概念ベース}\label{concept_base}概念ベースとは複数の国語辞書や新聞などから機械的に構築した単語(概念)とその意味特徴を表す単語(属性)の集合からなる知識ベースである.概念には属性とその重要性を表す重みが付与されている.概念ベースには約9万語の概念が収録されており,1つの概念に平均約30個の属性が存在する.ある概念$A$は属性$a_i$とその重み$w_i$の対の集合として,式\ref{eq:concept_base}で表される.\begin{equation}A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_i,w_i),\cdots,(a_n,w_n)\}\label{eq:concept_base}\end{equation}任意の一次属性$a_i$は,その概念ベース中の概念表記の集合に含まれている単語で構成されている.したがって,一次属性は必ずある概念表記に一致するため,さらにその一次属性を抽出することができる.これを二次属性と呼ぶ.概念ベースにおいて,「概念」は$n$次までの属性の連鎖集合により定義されている(図\ref{fig:concept_base}).\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f3.eps}\end{center}\caption{概念ベース}\label{fig:concept_base}\end{figure}本論文では,\ref{acquiring_attribute_of_unknown_word}節で述べる未知語の概念化,および,\ref{acquiring_attribute_of_node}節で述べるシソーラスのノードの概念化に概念ベースを用いている.\subsubsection{関連度計算}\label{degree_of_association}関連度とは,概念と概念の関連の強さを定量的に評価するものである.概念と概念の間にある関連性を定量的に評価する手法として,ベクトル空間モデルが広く用いられている.しかし,本論文では,概念を定義する属性集合とその重みを含めた一致度に基づいた関連度計算方式を利用している.これは,関連度計算方式が有限ベクトル空間によるベクトル空間モデルよりも良好な結果が得られるという報告がなされているためである\cite{watabe:01}.本論文では重み比率付き関連度計算方式を使用し,実験を行う\cite{watabe:06}.任意の概念$A$,$B$について,それぞれ一次属性を$a_i$,$b_j$とし,対応する重みを$u_i$,$v_j$とする.また,概念$A$,$B$の属性数を$L$個,$M$個$(L<M)$とする.\begin{gather*}A=\{(a_i,u_i)\midi=1〜L\}\\B=\{(b_j,v_j)\midj=1〜M\}\end{gather*}このとき,概念$A$,$B$の重み比率付き一致度$\mathit{MatchWR}(A,B)$を以下の式\ref{eq:MatchWR1},\ref{eq:MatchWR2}で定義する.\begin{gather}MatchWR(A,B)=\sum_{a_i=b_j}\min(u_i,v_j)\label{eq:MatchWR1}\\\min(\alpha,\beta)=\begin{cases}\alpha&(\beta>\alpha)\\\beta&(\alpha\geq\beta)\end{cases}\label{eq:MatchWR2}\end{gather}概念$A$,$B$の属性$a_i$,$b_j$に対し,$a_i=b_j$となる属性(概念$A$,$B$に共通する属性)があった場合,共通する属性の重みの共通部分,つまり,小さい重み分のみ一致するとの考えに基づいている.定義から明らかなように,両概念の属性と重みが完全に一致する場合に,一致度は1.0となる.次に,属性の少ない方の概念を$A$とし$(L\leqqM)$,概念$A$の属性を基準とする.\[A=\{(a_1,u_1),(a_2,u_2),\cdots,(a_i,u_i),\cdots,(a_L,u_L)\}\]そして概念$B$の属性を,概念$A$の各属性との重み比率付一致度$\mathit{MatchWR}(a_i,b_{xi})$の和が最大になるように並び替える.\[B_x=\{(b_{x1},v_{x1}),(b_{x2},v_{x2}),\cdots,(b_{xi},v_{xi}),\cdots,(b_{xL},v_{xL})\}\]これによって,概念$A$の一次属性と概念$B$の一次属性の対応する組を決める.対応にあふれた概念$B$の属性は無視する(この時点では組み合わせは$L$個).ただし,一次属性同士が一致する(概念表記が同じ)ものがある場合($a_i=b_j$)は,別扱いにする.これは概念ベースには約9万の概念が存在し,属性が一致することは稀であるという考えに基づく.従って,属性の一致の扱いを別にすることにより,属性が一致した場合を大きく評価する.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとることにする.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応が決定するのは$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決めて,対応の取れた属性の組み合わせ数を$T$個とする.重み比率付き関連度とは,重み比率付き一致度を比較する概念の各属性間で算出し,その和の最大値を求めることで計算する.これを以下の式\ref{eq:DoA}により定義する.\begin{equation}DoA(A,B)=\sum_{i=1}^T\{MatchWR(a_i,b_{xi})\times(u_i+v_{xi})\times(min(u_i,v_{xi})/max(u_i,v_{xi}))/2\}\label{eq:DoA}\end{equation}以下,重み比率付き関連度を関連度と略し,この関連度\cite{watabe:06}を用いる.関連度の値は概念間の関連の強さを0〜1の間の連続値で表す.1に近づくほど関連が強い.概念$A$と$B$に対して関連度計算を行った例を表\ref{table:degree_of_association}に挙げる.最後に,概念「机」と「椅子」を例に用いて,関連度の計算例を説明する.概念「机」と「椅子」の一次属性および二次属性を表\ref{table:example_primary_attribute},表\ref{table:example_secondary_attribute}に示す.\begin{table}[b]\begin{minipage}[t]{200pt}\caption{関連度計算の例}\input{05table02.txt}\label{table:degree_of_association}\end{minipage}\hfill\begin{minipage}[t]{200pt}\caption{概念「机」と「椅子」の一次属性}\input{05table03.txt}\label{table:example_primary_attribute}\end{minipage}\end{table}まず,概念「机」と「椅子」の一致度の計算を行う.例えば,概念「机」の一次属性「学校」と概念「椅子」の一次属性「木」は,「木造」という共通する属性を持っているため,一致度は以下のように計算される.\[MatchWR(学校,木)=\min(0.2,0.4)=0.2\]同様に全ての一次属性の組み合わせについて一致度を計算した結果を表\ref{table:example_dom_matrix}に示す.\begin{table}[t]\begin{minipage}[t]{282pt}\caption{概念「机」と「椅子」の二次属性}\input{05table04.txt}\label{table:example_secondary_attribute}\end{minipage}\hfill\begin{minipage}[t]{118pt}\setlength{\captionwidth}{118pt}\hangcaption{概念「机」と「椅子」の一致度行列}\input{05table05.txt}\label{table:example_dom_matrix}\end{minipage}\end{table}次に,関連度の計算を行う.関連度の計算は,まず属性が完全に一致している部分から行われる.続いて,一致度の大きい部分から順に対応を決める.この場合,表\ref{table:example_dom_matrix}から一次属性「勉強」と「勉強」,「学校」と「教室」,「本棚」と「勉強」の順に対応が決まることになる.結果,関連度は次式のように計算される.\begin{align*}DoA(机,椅子)&=1.0\times(0.3+0.3)\times(0.3/0.3)/0.2+0.4\times(0.6+0.3)\times(0.3/0.6)/2\\&\quad{}+0.1\times(0.1+0.2)\times(0.1/0.2)/2\\&=0.3975\end{align*}本論文では,\ref{narrowing_node}節で述べる未知語とシソーラスのノードとの関連の強さの判断に関連度計算を用いる.\subsection{属性の重み付け手法}\label{weighted_attribute}本節では,本論文が提案する手法で用いる,対象としている文書に出現する単語の重み付け手法であるTF・IDF\cite{tokunaga:99}とSWeb-idf\cite{tuji:04}について述べる.\subsubsection{TF・IDF}\label{tf_idf}TF・IDFによる重み付けとは,対象としている単語の頻度と網羅性に基づいた重み付け手法である.文書$d$における索引語$t$の重み$w(t,d)$は以下の式\ref{eq:tf}によって得られる.\begin{equation}w(t,d)=tf(t,d){\times}idf(t)\label{eq:tf}\end{equation}$\mathit{tf}(t,d)$は文書$d$における索引語$t$の出現頻度である.また,$\mathit{idf}(t)$は検索対象文書数$N$と索引語$t$が出現する文書の数$\mathit{df}(t)$によって決まり,式\ref{eq:idf}によって定義される.\begin{equation}idf(t)=\log\frac{N}{df(t)}+1\label{eq:idf}\end{equation}本論文では,\ref{acquiring_attribute_of_node}節で述べるシソーラスのノード属性の概念化,および,\ref{determining_node}節で述べるノード動詞の構築にTF・IDFを用いている.\subsubsection{SWeb-idf}\label{SWeb-idf}SWeb-idf(StaticsWeb-InverseDocumentFrequency)とは,Web上の単語のIDFを統計的に調べたIDF値である.まず,無作為に選んだ固有名詞1000語を作成する.表\ref{table:proper_noun}に無作為に選択した固有名詞の一部を示す.\begin{table}[t]\begin{minipage}[t]{200pt}\caption{SWeb-idfの作成に用いた固有名詞(一部)}\input{05table06.txt}\label{table:proper_noun}\end{minipage}\hfill\begin{minipage}[t]{200pt}\caption{SWeb-idfの例}\input{05table07.txt}\label{table:SWeb-idf}\end{minipage}\end{table}この作成した1000語に対して個々に検索エンジン\footnote{検索エンジンはgoogleを用いた.http://www.google.co.jp}で検索を行い,1語につき検索上位10件の検索結果ページの内容を取得する.よって,得られた検索結果ページ数は10000ページとなる.この10000ページから,複数の国語辞書や新聞などから概念(単語)を抽出した知識ベースである概念ベースの収録語数である約9万語とほぼ同等の単語数が得られたことから,獲得した10000ページをWebの全情報情報空間とみなしている.そして,その中での単語のIDF値を表すSWeb-idfは,式\ref{eq:SWeb-idf}で求められる.\begin{equation}SWeb\verb|-|idf(t)=\log\frac{N}{df(t)}\hspace{2em}(N=10000)\label{eq:SWeb-idf}\end{equation}これらにより得られた単語とそのIDF値をデータベースに登録した.なお$\mathit{df}(t)$項は,全文書空間(10000ページ)に出現する概念$t$の頻度である.獲得したSWeb-idfの値の例を表\ref{table:SWeb-idf}に挙げる.なお,固有名詞の選び方を変えてもSWeb-idfの値に大きな変化は見られないという報告がなされている\cite{tuji:04}.本論文では,\ref{acquiring_attribute_of_unknown_word}節で述べる未知語の概念化にSWeb-idfを用いている. \section{未知語分類手法} label{node_mapping}本論文が提案する手法では,未知語を入力した後に,未知語とシソーラスのノードに対して関連度計算を行うために,未知語の概念化およびシソーラスのノードの概念化を行う.そして,概念化された未知語およびノードを用いて未知語が所属するシソーラスのノード決定を行う.処理の流れとしては,まず,未知語を入力した後に,未知語とノードに対して関連度計算を行うために,未知語とノードの概念化を行う.次に,概念化された未知語およびノードに対して関連度計算を行い,所属候補ノードを絞り込む.さらに,ノード動詞および共起ヒットを用いて未知語が所属するべきノードを決定する.図\ref{fig:flow_node_mapping}に未知語をシソーラスのノードへ分類する流れを示す.\begin{figure}[b]\begin{center}\includegraphics{15-3ia5f4.eps}\end{center}\caption{ノード決定の流れ}\label{fig:flow_node_mapping}\end{figure}\subsection{未知語の概念化}\label{acquiring_attribute_of_unknown_word}以下の手順により,未知語の概念化を行うために,未知語の属性とその重みをWebから獲得する.\begin{enumerate}\item入力された未知語をキーワードとして検索エンジンを用いて検索を行い,検索上位100件の検索結果ページの内容を取得する.\itemHTMLタグなど不要な情報を取り除いた文書群に対して,形態素解析ソフト「茶筌」\footnote{奈良先端科学技術大学院大学.http://chasen-legacy.sourceforge.jp/}を用いて形態素解析を行い,自立語を抽出する.\item得られた自立語の中から概念ベースに存在する単語のみを未知語の属性として抜き出す.\item得られた属性の頻度にSWeb-idf(\ref{SWeb-idf}節参照)の値を掛け合わせたものを属性の重みとし,得られた重み順に並び替える.なお,SWeb-idfのDBに存在しない属性については,Web上にあまり存在しない単語と考え,SWeb-idf値の最大値を掛け合わせている.\end{enumerate}表\ref{table:attribute_unknown_word}に未知語を概念化した例を示す.\subsection{シソーラスのノードの概念化}\label{acquiring_attribute_of_node}入力された未知語の属性とその重みはWebの検索を用いて獲得したが(\ref{acquiring_attribute_of_unknown_word}節参照),比較対象であるシソーラスのノードは概念ではないため,関連度計算による比較を行うことができない.そのため,シソーラスのノードの概念化を以下の手順で行う\cite{ito:04}.\begin{table}[t]\caption{未知語「Gショック」,「クイニーアマン」の属性とその重み(一部)}\input{05table08.txt}\label{table:attribute_unknown_word}\end{table}\begin{enumerate}\itemノードに所属する全てのリーフに対して概念ベースを参照し,リーフを概念とみなすことでその一次属性を取得する(図\ref{fig:acquiring_attribute_of_node}).\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f5.eps}\end{center}\caption{ノード「時計」の属性取得}\label{fig:acquiring_attribute_of_node}\end{figure}\item(1)の作業を全てのノードに対して行う.\itemリーフを概念とみなすことで取得した一次属性に対して,TF・IDFを利用(\ref{tf_idf}節参照)して各属性の重みを求める.具体的には,取得した一次属性の重みをTFとみなし,また,全てのノードの数を式\ref{eq:idf}の$N$,取得した一次属性が出現するノードの数を式\ref{eq:idf}の$\mathit{df}(t)$とみなしてIDFを求める.そして,得られた重み順に属性を並び替える.\end{enumerate}表\ref{table:attribute_node}にシソーラスのノードの1つである「時計」を概念化した例を示す.\begin{table}[t]\caption{ノード「時計」の属性とその重み(一部)}\input{05table09.txt}\label{table:attribute_node}\end{table}\subsection{シソーラスのノードの絞込み}\label{narrowing_node}以下の手順により,処理回数を少なくするためにシソーラスのノードの絞込みを行う.\begin{enumerate}\item\ref{acquiring_attribute_of_unknown_word}節で説明した手法を用いて,概念化を行った未知語$\mathit{query}$を式\ref{eq:query}で定義する.なお,$q_i$が属性,$w_i$がその重みである.\begin{equation}\mathit{query}=\{(q_1,w_1),(q_2,w_2),\cdots,(q_i,w_i),\cdots,(q_M,w_M)\}\label{eq:query}\end{equation}\itemシソーラスのノード集合$\mathit{NODE}$を式\ref{eq:node}で定義する.\begin{equation}\mathit{NODE}=\{(\mathit{node}_1),(\mathit{node}_2),\cdots,(\mathit{node}_{385})\}\label{eq:node}\end{equation}また,\ref{acquiring_attribute_of_node}節で説明した手法を用いて,概念化を行ったシソーラスのノード$\mathit{node}_i$を式\ref{eq:node_attribute}で定義する.なお,$n_{ij}$が属性,$w_{ij}$がその重みである.\begin{equation}\mathit{node}_i=\{(n_{i1},w_{i1}),(n_{i2},w_{i2}),\cdots,(n_{ij},w_{ij}),\cdots,(n_{iN},w_{iN})\}\label{eq:node_attribute}\end{equation}\item概念化を行った未知語$\mathit{query}$とシソーラスの各ノード$\mathit{node}_i$に対して関連度計算を行い,関連度$\mathit{DoA}(\mathit{query},\mathit{node}_i)$を求める.そして,0.02以上の関連度を持つノードを所属候補ノードとする.よって,所属候補ノード集合$\mathit{NODE}'$は以下の式\ref{eq:candidate_node}で定義される.なお,関連度の閾値0.02は,0.0から0.05まで0.001毎に変化させて実験を行った結果,最も高い精度を得られた値を閾値として採用したものである.この実験については,\ref{threshold_evaluation}節で述べる.また,閾値によりノード数を385個から10個程度に絞り込むことができ,\ref{determining_node}節で述べるノード動詞や共起ヒットを用いる処理において,処理回数を20分に1以下にすることに成功している.\begin{equation}\mathit{NODE}'=\{\mathit{node}_i\mid\mathit{DoA}(\mathit{query},\mathit{node}_i)\ge0.02,\mathit{node}_i\in\mathit{NODE}\}\label{eq:candidate_node}\end{equation}\end{enumerate}\subsection{所属ノードの決定}\label{determining_node}\ref{narrowing_node}節の処理により求めた所属候補ノード集合$\mathit{NODE}'$に対してノード動詞や共起ヒットを用いたノード決定を行う.\subsubsection{ノード動詞}\label{node_verb}NTTシソーラスは作成者がある分類基準に従って単語を体系的に分類したものである.そのため,NTTシソーラスには「あるノードに所属するリーフは,そのリーフの直後に現れる助詞を伴う動詞が同じである」という関係が存在する.例えば,ノード「茶」に属するリーフ「番茶」や「麦茶」などには,「番茶を飲む」や「麦茶を飲む」など直後に現れる助詞を伴う動詞が共に「を飲む」であることが分かる.ノード動詞とはこの関係を利用して,ノードに設定したキーワードのことであり,ノード決定に利用する.具体的には,入力された未知語にノードごとに対応する助詞を伴う動詞(ノード動詞)を連結したキーワードを検索エンジンに入力し,HIT数を獲得する.そして,獲得したHIT数を\ref{determining_node_method}節で述べるノード得点の算出に利用する.例えば,未知語が「マイルドセブン」,所属候補ノードが「たばこ」である場合,ノード「たばこ」のノード動詞である「を吸う」を連結した「マイルドセブンを吸う」というキーワードの検索を検索エンジンで行ったときのHIT数を求める.以下にノード動詞の構築方法を示す.\begin{enumerate}\itemノードに属しているリーフをすべて抜き出す.\itemそれぞれのリーフをキーワードとして検索エンジンで検索し,各リーフについて検索上位1000件の検索結果ページを取得する.そして,その文書内でキーワードの直後に出現する「格助詞+動詞(サ変名詞を含む)」部分を全て抜き出す.\item(2)の操作を全てのノードに対して行う.\item(3)で得られた「格助詞+動詞(サ変名詞を含む)」に対して,TF・IDF(\ref{tf_idf}節参照)を利用して,重みを求める.具体的には,取得した「格助詞+動詞(サ変名詞を含む)」の数をTFとみなし,また,全てのノードの数を式\ref{eq:idf}の$N$,「格助詞+動詞(サ変名詞を含む)」が出現するノードの数を式\ref{eq:idf}の$\mathit{df}(t)$とみなしてIDFを求める.そして,最も大きな重みを持つ「格助詞+動詞(サ変名詞を含む)」をノード動詞に決定する.\end{enumerate}表\ref{table:node_verb}に構築したノード動詞の例を示す.\begin{table}[b]\caption{ノード動詞(一部)}\input{05table10.txt}\label{table:node_verb}\end{table}\subsubsection{共起ヒット}\label{coincidence_hit}「単語の意味は,どのような単語と共起するかという観点から特徴付けられる」というHarrisの分布仮説から\cite{harris:68},関係のある2語は,ある文書に共に出現すると考えられる.そこで,未知語とノード名のAnd検索を検索エンジンを行い,HIT数を獲得する.そして,獲得したHIT数を\ref{determining_node_method}節で述べるノード得点の算出に利用する.例えば,未知語が「マイルドセブン」,所属候補ノードが「たばこ」である場合,「マイルドセブン」と「たばこ」のAnd検索を検索エンジンで行ったときのHIT数を求める.\subsection{所属ノード決定手法}\label{determining_node_method}未知語の所属ノードを決定する計算式を式\ref{eq:determining_node_method}に示す\footnote{なお,logの計算はヒット数が3件以上のときに行い,2件以下の場合は1としている.}.所属候補ノード$\mathit{node}_i$の中でノード得点$\mathit{NodeValue}(\mathit{node}_i)$が最も高いノードを所属ノードとする.$\mathit{DoA}(\mathit{query},\mathit{node}_i)$は未知語$\mathit{query}$と$\mathit{node}_i$の関連度,$\mathit{VerbHit}(\mathit{node}_i)$は未知語にノード動詞を連結したキーワードの検索を検索エンジンで行ったときのHIT数,$\mathit{CoincidenceHit}(\mathit{node}_i)$は未知語とノード名のAnd検索を検索エンジンで行ったときのHIT数を表す.\begin{equation}\begin{aligned}[b]&NodeValue(node_i)\\&\quad=DoA(\mathit{query},\mathit{node}_i)\times\log(\mathit{VerbHit}(\mathit{node}_i))\times\log(\mathit{CoincidenceHit}(\mathit{node}_i))\label{eq:determining_node_method}\end{aligned}\end{equation}以下に未知語「Gショック」および「クイニーアマン」を例に,所属ノード決定手法における式\ref{eq:determining_node_method}の結果をノード得点上位5個まで例示したものを表\ref{table:calculation_example_doa},\ref{table:calculation_example_node_verb},\ref{table:calculation_example_coincidence_hit},\ref{table:calculation_example_node_value}に示す.表\ref{table:calculation_example_doa}が未知語とノード得点上位5個のノードとの関連度,表\ref{table:calculation_example_node_verb}が未知語のノード得点上位5個のノードが持つノード動詞とノード動詞を用いたときのHIT数,表\ref{table:calculation_example_coincidence_hit}が共起ヒットを用いたときのHIT数,表\ref{table:calculation_example_node_value}が未知語のノード得点上位5個のノードに与えられたノード得点を表している.\begin{table}[b]\caption{所属ノード決定手法の計算例(関連度)}\input{05table11.txt}\label{table:calculation_example_doa}\end{table}\begin{table}[t]\caption{所属ノード決定手法の計算例(ノード動詞)}\input{05table12.txt}\label{table:calculation_example_node_verb}\end{table}\begin{table}[t]\caption{所属ノード決定手法の計算例(共起ヒット)}\input{05table13.txt}\label{table:calculation_example_coincidence_hit}\end{table}\begin{table}[t]\caption{所属ノード決定手法の計算例(ノード得点)}\input{05table14.txt}\label{table:calculation_example_node_value}\end{table} \section{評価} label{evaluation}本論文で提案している手法の評価を行うために,20人から各10個ずつシソーラスに存在しない固有名詞とその固有名詞に対する正解ノードを重複することのないように記入してもらうことで,合計200語の未知語を持つテストセットを作成した.なお,テストセットに用いる固有名詞は,\ref{system}章で述べたように一意にその固有名詞の意味を判断できる,つまり,多義的な要素を持たない固有名詞に限定している.評価に使用したテストセットの一部を表\ref{table:testset}に示す.\begin{table}[t]\caption{テストセット(一部)}\input{05table15.txt}\label{table:testset}\end{table}テストセットの各未知語の入力に対して,本論文が提案する手法で出力した結果として,正解ノードを得た未知語を正解,得られなかった未知語を不正解として精度を算出する.\subsection{閾値調査の評価}\label{threshold_evaluation}\ref{narrowing_node}節で述べたシソーラスのノードの絞込みにおいて関連度の閾値を決定するために,閾値を0.0から0.05まで0.001毎に変化させて未知語の所属ノードの決定を行ったときの実験結果を図\ref{fig:changing_threshold}に示す.図\ref{fig:changing_threshold}より,関連度の閾値が0.014から0.02の間で,最も高い66.0\%の精度が得られている.そこで,その間で最もノードを絞り込むことができる関連度の0.02が閾値として適当であると考えられる.これをシソーラスのノードの絞込みを行う際に用いる閾値とした.\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f6.eps}\end{center}\caption{関連度の閾値の変化に伴う精度}\label{fig:changing_threshold}\end{figure}\subsection{提案手法の評価}\label{unknown_word_evaluation}提案手法を用いて,各未知語に対して分類するノードを出力する.なお,式\ref{eq:determining_node_method}では,ノード得点$\mathit{NodeValue}(\mathit{node}_i)$が最大となる第1位の候補のみ出力しているが,この実験では第1位の候補から第10位の候補まで出力している.評価結果を図\ref{fig:plural_precision}に示す.なお,横軸は考慮した累積のノードの数を表している.また,縦軸は考慮しているノードの中に1つでも正解ノードを得た未知語を正解,1つも正解ノードを得られなかった未知語を不正解として算出した精度を表している.図\ref{fig:plural_precision}より,第10位の候補まで出力することで9割を超える高い精度が得られていることから判断できるように,結果として全体的に未知語と関連があると考えられるノードを獲得することができた.特に,第1位に関連が強いと考えられるノードが得られた場合,第2位から第5位までに正解ノードが得られる傾向にあった.例えば,正解ノードが「教師」である未知語「新島襄」を入力した場合,第1位に正解ノードである「教師」と関連が強い「教育」が得られ,第2位に正解ノードである「教師」が得られた.\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f7.eps}\end{center}\caption{複数のノードを提示したときの精度}\label{fig:plural_precision}\end{figure} \section{既存手法との比較} label{related_research}ここでは既存手法として,ベクトル空間法に基づく手法について説明する.この手法では,シソーラスにはNTTシソーラス\cite{NTT_Thesaurus:97},学習データ及び未知語データにはEDRコーパス\cite{EDR:94}の共起辞書を用いている.EDRコーパスは22万文からなる文章のデータベースであり,係り受け関係にある単語対を抽出した共起辞書を用いている.\subsection{ベクトル空間法に基づく手法}\label{vector_space_method}ベクトル空間法に基づく手法は,シソーラスの各ノードの特徴ベクトルと未知語の特徴ベクトルの類似度をベクトル間の余弦を用いて算出し,類似度の高いノードに未知語を分類する.最も単純なベクトル空間法では,特徴ベクトルは名詞と動詞の共起頻度によるベクトルである.ノードの特徴ベクトルの各要素は,そのノードに属する名詞と動詞との共起頻度を足し合わせたものであり,未知語の特徴ベクトルの各要素は,未知語と動詞の共起頻度そのものとなっている.以下に,ベクトル空間法を詳しく説明する.ベクトル空間法では,式\ref{eq:vector_space_method1},\ref{eq:vector_space_method2},\ref{eq:vector_space_method3}によって未知語$\mathit{unknown}$を分類するノードが決定される.式\ref{eq:vector_space_method1}よりベクトル空間法では,未知語の特徴ベクトル$\mathit{vec}(\mathit{unknown})$と余弦の値が最高になる特徴ベクトル$\mathit{vec}(\mathit{node}_i)$に対応するノード$\mathit{node}_i$に未知語$\mathit{unknown}$を分類する.式\ref{eq:vector_space_method1},\ref{eq:vector_space_method2},\ref{eq:vector_space_method3}についての説明を行う.まず,シソーラスに既に分類されている名詞(リーフ)$\mathit{noun}_i$の集合$\mathit{NOUN}$,シソーラスのノード$\mathit{node}_i$の集合$\mathit{NODE}$,共起を考慮する動詞$\mathit{verb}_i$の集合$\mathit{VERB}$を以下に定義する.また,$\mathit{unknown}$は未知語を表している.\begin{align*}\mathit{NOUN}&=\{\mathit{noun}_1,\mathit{noun}_2,\cdots,\mathit{noun}_i,\cdots,\mathit{noun}_{\mathit{noun}\_\mathit{num}}\}\\\mathit{NODE}&=\{\mathit{node}_1,\mathit{node}_2,\cdots,\mathit{node}_i,\cdots,\mathit{node}_{\mathit{node}\_\mathit{num}}\}\\\mathit{VERB}&=\{\mathit{verb}_1,\mathit{verb}_2,\cdots,\mathit{verb}_i,\cdots,\mathit{node}_{\mathit{verb}\_\mathit{num}}\}\end{align*}次に,ノード$w$と動詞$z$が共起したことを表す1つの学習データを以下に定義する.\[\{(w,z)\midw{\in}\mathit{NODE},z{\in}\mathit{VERB}\}\]$(w,z)^N$は$N$個の学習データからなる系列である.学習データを生成するために用いる元々の文章の中では,名詞$\mathit{noun}_i$と動詞$\mathit{verb}_i$が共起しているが,学習データを生成する時点で名詞と動詞の二項組$(\mathit{noun}_i,\mathit{verb}_j)$をノードと動詞の二項組$(\mathit{node}_k,\mathit{verb}_j)$に変換する.なお,ノード$\mathit{node}_k$は名詞$\mathit{noun}_i$が属するノードであり,複数のノードに属する場合は複数の二項組に変換する.したがって,未知語$\mathit{unknown}$が属するノード$\mathit{node}^*$と未知語$\mathit{unknown}$と共起した動詞$y$の系列$y^M$は,以下のように表すことができる.\[\{(\mathit{node}^*,y^M)\mid\mathit{node}^*{\in}\mathit{NODE},y{\in}\mathit{VERB}\}\]しかし,$\mathit{node}^*$は未知であり,実際に観測される未知語データは未知語$\mathit{unknown}$と共起した動詞$y$の系列$y^M$の二項組$(\mathit{unknown},y^M)$である.よって,未知語分類問題は学習データ$(w,z)^N$と未知語データ$(\mathit{unknown},y^M)$を観測したもとで未知語$\mathit{unknown}$が属するノード$\mathit{node}^*$を推定する問題となる.$d_{\cos}\{(w,z)^N,(\mathit{unknown},y^M)\}$は,学習データ$(w,z)^N$と未知語データ$(\mathit{unknown},y^M)$を引数に取り,未知語$\mathit{unknown}$を分類するべきノードを決定する関数を表す.$\mathit{vec}(\mathit{node}_i)$はノード$\mathit{node}_i$の特徴ベクトル,$\mathit{vec}(\mathit{unknown})$は未知語$\mathit{unknown}$の特徴ベクトルである.また,$\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_i)\mid(w,z)^Z\bigr)$は学習データ$(w,z)^N$中の$(\mathit{node}_i,\mathit{verb}_j)$の数でノード$\mathit{node}_i$と動詞$\mathit{verb}_j$が共起した回数,$\mathit{co}(\mathit{verb}_i\midy^M)$は未知語データ$(\mathit{unknown},y^M)$の$y^M$中の$\mathit{verb}_i$の数で未知語$\mathit{unknown}$と動詞$\mathit{verb}_i$が共起した回数を表す.$\cos$はベクトル間の余弦の値を求める関数,$\mathit{vec}_A\cdot\mathit{vec}_B$はベクトル$\mathit{vec}_A,\mathit{vec}_B$間の内積,$\parallel\mathit{vec}\parallel$はベクトル$\mathit{vec}$のノルムである.{\allowdisplaybreaks\begin{gather}\begin{aligned}[b]d_{\cos}\{(w,z)^N,(\mathit{unknown},y^M)\}&=\arg\max_{\mathit{node}_i}\{\cos(\mathit{vec}(\mathit{node}_i),\mathit{vec}(\mathit{unknown}))\}\\&=\arg\max_{\mathit{node}_i}\left\{\frac{\mathit{vec}(\mathit{node}_i)\cdot\mathit{vec}(\mathit{unknown})}{\parallel\mathit{vec}(\mathit{node}_i)\parallel\parallel\mathit{vec}(\mathit{unknown})\parallel}\right\}\label{eq:vector_space_method1}\end{aligned}\\\begin{aligned}[b]\mathit{vec}(\mathit{node}_i)=&\bigl\{\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_1)\mid(w,z)^Z\bigr),\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_2)\mid(w,z)^Z\bigr),\cdots,\\&\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_i)\mid(w,z)^Z\bigr),\cdots,\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_{\mathit{verb}\_\mathit{num}})\mid(w,z)^Z\bigr)\bigr\}\label{eq:vector_space_method2}\end{aligned}\\\begin{aligned}[b]\mathit{vec}(\mathit{node}_i)=&\bigl\{\mathit{co}(\mathit{verb}_1\midy^M),\mathit{co}(\mathit{verb}_2\midy^M)),\cdots,\\&\mathit{co}(\mathit{verb}_i\midy^M)\cdots,\mathit{co}(\mathit{verb}_{\mathit{verb}\_\mathit{num}}\midy^M)\bigr\}\label{eq:vector_space_method3}\end{aligned}\end{gather}}なお,上記のような単純に共起頻度を用いるベクトル空間法以外に,各共起頻度に重み付けを行うTF・IDF法を導入したベクトル空間法も提案されており,情報検索などの分野において実用化されている手法は,TF・IDF法を導入したベクトル空間法である\cite{witten:99}.TF・IDF法を導入したベクトル空間法では,式\ref{eq:vector_space_method2}および式\ref{eq:vector_space_method3}において,特徴ベクトルの第$i$要素に$\log\frac{\mathit{node}\_\mathit{num}}{a(\mathit{verb}_i)}$を掛け合わせたものを特徴ベクトルとして採用し,その上で式\ref{eq:vector_space_method1}を用いて未知語の分類を行う.ただし,$a(\mathit{verb}_i)$は動詞$\mathit{verb}_i$との共起頻度が1以上のノードの数である.\subsection{比較評価}\label{comparison_with_relatedresearch}比較実験の方法を以下に示す\cite{maeda:00}.\begin{enumerate}\itemNTTシソーラスに既に分類されている名詞(リーフ)の中で概念ベース(\ref{concept_base}節参照)に存在する単語から1000語を未知語と仮定して抽出する.\itemNTTシソーラスに属している残りのリーフとEDRコーパス頻出動詞上位500語との共起回数を算出し,学習データを作成する.\itemさらに,NTTシソーラスから取り出しておいた1000語の未知語について,学習データと同様にEDRコーパス頻出動詞上位500語との共起回数を共起辞書から算出し,1000個の未知語データを作成する.\item学習データと未知語データをもとにベクトル空間法(式\ref{eq:vector_space_method1})を用いて,各未知語に対する所属ノードを出力する.また,本論文で提案する手法(式\ref{eq:determining_node_method})を用いて,各未知語に対する所属ノードを出力する.\end{enumerate}抽出された未知語とその未知語が所属するノードの例を表\ref{table:testset_leaf}に示す.\begin{table}[b]\caption{未知語と仮定してNTTシソーラスから抽出したリーフ(一部)}\input{05table16.txt}\label{table:testset_leaf}\end{table}図\ref{fig:comparison_result}に実験結果を示す.図\ref{fig:comparison_result}のCosは共起頻度のみによるベクトル空間法,TF・IDFはTF・IDF法を導入したベクトル空間法,提案手法が本論文で提案している手法に対応する.本実験において,未知語が元のNTTシソーラスにおいて分類されていたノードに分類できた場合を正解とする.また,未知語が複数のノードに所属していた場合には,出力したノードがその中のどれか1つと一致すれば,正解とみなしている.なお,図\ref{fig:plural_precision}と同様に,横軸は考慮した累積のノードの数を表している.また,縦軸は考慮しているノードの中に1つでも正解ノードを得た未知語を正解,1つも正解ノードを得られなかった未知語を不正解として算出した精度を表している.\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f8.eps}\end{center}\caption{手法ごとの精度}\label{fig:comparison_result}\end{figure}図\ref{fig:comparison_result}より,提案手法の精度は共起頻度によるベクトル空間法(Cos)より13〜30\%高く,TF・IDF法を導入したベクトル空間法(TF・IDF)に対しても10〜20\%高くなっており,提案手法がベクトル空間法に基づく手法よりも優れた結果を示している.本来,本論文で提案している手法は,固有名詞を中心とする既存のシソーラスに分類されていない未知語に対して有効な手法である.その一方で,本実験で用いた既存のシソーラス(NTTシソーラス)から抽出した仮想的な未知語の実体は一般的な単語である.一般的な単語は多くの文書で使用されるため,\ref{acquiring_attribute_of_unknown_word}節で説明した手法を用いると,広範囲にわたるページから属性を獲得することになる.その結果,獲得できる属性にばらつきが生じ,適切な属性を獲得することが困難である.そのため,本論文で提案している手法は,本実験に対しては不利な部分があるといえる.この点を踏まえると,本実験において不利な部分を持っているにも関わらず,提案手法は良好な結果が得られたといえる.したがって,本論文で提案する手法が未知語に限らず,一般的な単語に対しても柔軟に機能することを示しているといえる. \section{おわりに} 本論文では,ある概念から様々な概念を連想できる連想メカニズムを基に,シソーラスに定義されてない単語(未知語)が大局的に見てどういうものであるかを,シソーラスのノードに分類して提示する手法を提案した.さらに,連想メカニズムに未知語とシソーラスの体系的特徴を利用した共起頻度を組み合わせることで精度向上を図る手法を考え,その有効性を実験によって検証した.結果として,第10位の候補まで出力することで未知語を9割を超える精度で正しいシソーラスのノードに分類することに成功し,未知語を分類するべきシソーラス上の最適なノードを提示できることを示した.さらに,第1位の候補のみを出力した場合,66.0\%の精度が得られたことから,未知語をシソーラスに自動的に分類でき,シソーラスの自動構築にもつながると考えられる.今後の研究課題としては,得られた10個の候補から正解ノードを絞り込む方法について検討する.さらに,未知語を分類するべきノードを絞り込んだ後,前後の文脈から正解ノードを決定する方法を検討していきたい.また,未知語により適切な属性を与えるために,検索キーワードに対して適切なキーワードを追加するなど,より適切な検索結果ページを獲得する方法についても検討する必要がある.これにより,文中に多義的な要素を持つ未知語が含まれる場合でも,未知語をノード名に正しく置き換えることで,円滑な自然言語処理を行うことができると期待される.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{別所\JBA内山\JBA片岡}{別所\Jetal}{2004}]{bessho:06}別所克人\JBA内山俊郎\JBA片岡良治\BBOP2004\BBCP.\newblock\JBOQ単語・意味属性間共起に基づく概念ベースの拡張方式\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2006}(84),\mbox{\BPGS\29--34}.\bibitem[\protect\BCAY{G.A.Miller}{G.A.Miller}{1995}]{G.A.Miller:95}G.A.Miller\BBOP1995\BBCP.\newblock\BBOQWordNet:AlexicaldatabaseforEnglish\BBCQ\\newblock{\BemCommun.ACM},{\Bbf38}(11),\mbox{\BPGS\39--41}.\bibitem[\protect\BCAY{I.H.Witten,A.Moffat,\BBA\T.C.Bell}{I.H.Wittenet~al.}{1999}]{witten:99}I.H.Witten,A.Moffat,\BBA\T.C.Bell\BBOP1999\BBCP.\newblock{\BemManagingGigabytes}.\newblockMorganKaufmannPub.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{NTT_Thesaurus:97}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{伊藤\JBA渡部\JBA河岡}{伊藤\Jetal}{2004}]{ito:04}伊藤俊介\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ情報検索における未知語理解支援方式〜未知語のシソーラスノードへの分類〜\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会資料},{\Bbf2004-NL-159}(1),\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{前田}{前田}{2000}]{maeda:00}前田康成\BBOP2000\BBCP.\newblock\JBOQ統計的決定理論に基づく既存名詞シソーラスへの未知語登録方法に関する考察\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ83-A}(6),\mbox{\BPGS\702--710}.\bibitem[\protect\BCAY{日本電子辞書研究所}{日本電子辞書研究所}{1994}]{EDR:94}日本電子辞書研究所\BBOP1994\BBCP.\newblock\Jem{EDR電子化辞書利用マニュアル第2.1版}.\bibitem[\protect\BCAY{奥村\JBA土屋\JBA渡部\JBA河岡}{奥村\Jetal}{2007}]{okumura:07}奥村紀之\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2007\BBCP.\newblock\JBOQ概念間の関連度計算のための大規模概念ベースの構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\41--64}.\bibitem[\protect\BCAY{榊\JBA松尾\JBA内山\JBA石塚}{榊\Jetal}{2007}]{sakaki:07}榊剛史\JBA松尾豊\JBA内山幸樹\JBA石塚満\BBOP2007\BBCP.\newblock\JBOQWeb上の情報を用いた関連語のシソーラスの構築について\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(2),\mbox{\BPGS\3--31}.\bibitem[\protect\BCAY{田中\JBA仁科}{田中\JBA仁科}{1987}]{tanaka:87}田中穂積\JBA仁科喜久子\BBOP1987\BBCP.\newblock\JBOQ上位/下位関係シソーラスISAMAPの作成[I][II]\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会},{\Bbf64}(4),\mbox{\BPGS\25--44}.\bibitem[\protect\BCAY{徳永}{徳永}{1999}]{tokunaga:99}徳永健伸\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理}.\newblock東京大学出版会.\bibitem[\protect\BCAY{辻\JBA渡部\JBA河岡}{辻\Jetal}{2004}]{tuji:04}辻泰希\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQwwwを用いた概念ベースにない新概念およびその属性獲得手法\JBCQ\\newblock\Jem{第18回人工知能学会全国大会論文集},\mbox{\BPGS\2D1--02}.\bibitem[\protect\BCAY{浦本}{浦本}{1996}]{uramoto:96}浦本直彦\BBOP1996\BBCP.\newblock\JBOQコーパスに基づくシソーラス—統計情報を用いた既存のシソーラスへの未知語の配置\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf37}(12),\mbox{\BPGS\2182--2189}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{watabe:06}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ概念の意味属性と共起情報を用いた関連度計算方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe:01}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{Z.S.Harris}{Z.S.Harris}{1968}]{harris:68}Z.S.Harris\BBOP1968\BBCP.\newblock{\BemMathematicalStructuresofLanguage(InterscienceTractsinPureandAppliedMathematics21)}.\newblockInterscience.\end{thebibliography}\begin{biography}\bioauthor{後藤和人}{2006年同志社大学工学部知識工学科卒業.同大学院工学研究科知識工学専攻博士前期課程在学.知識情報処理の研究に従事.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電気株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.現在同教授.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\biodate\end{document}
V20N02-06
\section{はじめに} 情報検索や情報抽出において,テキスト中に示される事象を実時間軸上の時点もしくは時区間に関連づけることが求められている.Web配信されるテキスト情報に関しては,文書作成日時(DocumentCreationTime:DCT)が得られる場合,テキスト情報と文書作成日時とを関連づけることができる.しかしながら,文書作成日時が得られない場合や,文書に記述されている事象発生日時と文書作成日時が乖離する場合には他の方策が必要である.テキスト中に記述されている時間情報解析の精緻化が求められている.時間表現抽出は,固有表現抽出の部分問題である数値表現抽出のタスクとして研究されてきた.英語においては,評価型国際会議MUC-6(thesixthinaseriesofMessageUnderstandingConference)\cite{MUC6}で,アノテーション済み共有データセットが整備され,そのデータを基に各種の系列ラベリングに基づく時間表現の切り出し手法が開発されてきた.TERN(TimeExpressionRecognitionandNormalization)\cite{TERN}では,時間情報の曖昧性解消・正規化がタスクとして追加され,様々な時間表現解析器が開発された.さらに,時間情報表現と事象表現とを関連づけるアノテーション基準TimeML\cite{TimeML}が検討され,TimeMLに基づくタグつきコーパスTimeBank\cite{TimeBank}などが整備された.2007年には,時間情報表現—事象表現間及び2事象表現間の時間的順序関係を推定する評価型ワークショップSemEval-2007のサブタスクTempEval\cite{TempEval}が開かれ,種々の時間的順序関係推定器が開発された.後継のワークショップSemEval-2010のサブタスクTempEval-2\cite{TempEval2}では,英語だけでなく,イタリア語,スペイン語,中国語,韓国語を含めた\modified{5}言語が対象となった.\modified{2013年に開かれるSemEval-2013のサブタスクTempEval-3では,データを大規模化した英語,スペイン語が対象となっている.}一方,日本語においてはIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX}の固有表現抽出タスクの部分問題として時間情報表現抽出が定義されているのみで,時間情報の曖昧性解消・正規化に関するデータが構築されていなかった.そこで,我々はTimeMLに基づいた日本語に対する時間情報アノテーション基準を定義し,時間情報の曖昧性解消・正規化を目的とした時間情報タグつきコーパスを構築した.\modified{他言語のコーパスが新聞記事のみを対象としているのに対し,本研究では均衡コーパスである『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下``BCCWJ'')を対象としており,新聞記事だけでなく,一般書籍・雑誌・ブログなどに出現する多様な時間情報表現を対象としている.本稿ではアノテーション基準を示すとともに,アノテーションしたコーパスの詳細について示す.}以下,2節では時間情報表現についての背景について概観する.3節では,対象とする時間情報表現について詳しく述べる.4節では策定した日本語時間情報表現に対するアノテーション基準を示す.\modified{5節でアノテーションにおける日本語特有の問題について説明する.}\modified{6節でアノテーション作業環境を示す.}\modified{7}節で実際にアノテーションしたコーパスの分析を行う.最後にまとめと今後の課題を示す. \section{背景\label{sec:previous_work}} \subsection{\modified{時間情報表現に関する関連研究}}テキスト中の時間情報表現を分析する研究は日本語以外の言語で進んでおり,時間表現の文字列の切り出しや正規化のみならず,時間表現と事象表現の関連づけなどが行われている.表\ref{tbl:previous_work}に英語もしくは日本語を対象とした時間情報表現に関連する研究を示す.以下,まず英語の時間情報表現に関する代表的な研究を俯瞰する.次に日本語の数少ない時間情報表現に関する研究を示す.\begin{table}[b]\caption{関連研究}\label{tbl:previous_work}\input{06table01.txt}\end{table}英語においては,評価型国際会議MUC-6\cite{MUC6}の1タスクである固有表現抽出の中に時間情報表現の抽出が含まれていた.MUC-6で定義されている時間情報表現タグ\timexは日付表現({\tt@type="DATE"})と時刻表現({\tttype="TIME"})からなる.アノテーション対象は絶対的な日付・時刻を表す表現にのみ限定され,''lastyear''などといった相対的な日付・時刻表現は含まれていない.このMUC-6のアノテーション基準\timexに対し,Setzerは時間情報表現の正規化に関するアノテーション基準を提案している\cite{Setzer-2001}.評価型国際会議TERN\cite{TERN}では,時間情報表現検出に特化したタスクを設定している.TERNで定義された時間表現情報タグ\timexiiは,相対的な日付・時刻表現,時間表現や頻度集合表現が検出対象として追加されている.\modified{時間表現の正規化情報を記述する}ISO-8601形式を拡張した\value属性などが設計され,\modified{こちらも}自動解析対象となっている.その後,Pustejovskyらによりアノテーション基準TimeML\cite{TimeML}が提案されている.その中では,TERNで用いられている\timexiiを拡張した\timexiiiが提案され,さらに時間情報表現と事象表現の時間的順序関係を関連づけるための情報が付加される.これらの情報は人手でアノテーションすることを目的に設計され,TimeBank\cite{TimeBank}やAquaintTimeMLCorpusなどの人手によるタグつきコーパスの整備が行われた.これらのコーパスに基づく時間情報表現の自動解析\cite{Boguraev-2005,Mani-2006}が試みられたが,タグの情報に不整合があったり,付与されている時間的順序関係ラベルに偏りがあったりなど扱いにくいものであった\cite{Boguraev-2006}.2007年に開かれたSemEval2007の1タスクTempEval\cite{TempEval}では,時間的順序関係のラベルを簡略化し,人手で見直したデータによる時間的順序関係同定のタスクが行われた.このタスクでは,時間表現に対して正規化された\value属性などが付与されており,事象表現の時間的順序関係同定に利用してよい.TempEval-2\cite{TempEval2}では,英語だけでなく,イタリア語,スペイン語,中国語,韓国語に関しても同様なデータを利用したタスクが設定された.日本語においては,IREX\cite{IREX}の1タスクとして,固有表現抽出タスクが設定された.IREXの時間情報では,日付・時刻表現を対象にし,相対的な表現が定義に含められている.また,関根らは拡張固有表現体系\fullcite{Sekine-2002}を提案し,辞書/オントロジやコーパスの作成などを行っており,BCCWJにも同じ体系の拡張固有表現タグが付与されている\cite{Hashimoto-2010}.日本語においては,表現の分類の体系化が進んでいるが,正規化のための研究は他言語と比べて遅れをとっている.\subsection{\modified{コーパスアノテーションの標準化}}\modified{本研究はコーパスアノテーションにおける標準化活動の観点から重要である.}\modified{国際標準化機構(InternationalOrganizationforStandardization:ISO)の標準化技術委員会(TechnicalCommittee)TC37は``Terminologyandotherlanguageandcontentresources''と題し,言語資源に関するさまざまな標準化を提案している.そのなかに分科会(Structureofthecommittee)が四つ設定されているが,TC37/SC4が言語資源管理(Languageresourcemanagement;LRM)に関する国際規格の規定を行っている.TC37/SC4はさらに以下に示すような作業部会を六つ設定しており,さまざまな形式・出自の一次言語データに対するアノテーションやXMLに代表される汎用マークアップ言語に基づくアノテーションの表現形式についての仕様記述言語を設計している.}\begin{itemize}\item\modified{TC37/SC4/WG1Basicdescriptorsandmechanismsforlanguageresources\\言語資源に関する情報を記述するための作業部会}\item\modified{TC37/SC4/WG2Semanticannotation\\アノテーションと表現方法を議論する作業部会}\item\modified{TC37/SC4/WG3Multilingualinformationrepresentation\\多言語対訳テキストに特化した作業部会}\item\modified{TC37/SC4/WG4Lexicalresources\\言語資源そのものに関する作業部会}\item\modified{TC37/SC4/WG5Workflowoflanguageresourcemanagement\\言語資源管理の作業手順を議論する作業部会}\item\modified{TC37/SC4/WG6Linguisticannotation\\言語情報アノテーションを議論する作業部会}\end{itemize}\modified{TimeML開発者は,作業部会TC37/SC4/WG2と連携を取りながら,SemanticAnnotationFramework(SemAF)-Time(ISO-24617-1:2012)を2012年に正式に制定した.}\modified{日本の言語資源整備は,実データを作成せずに標準化活動を行うものと実データを作成するが標準化活動を無視して行うものとに二極化している.一方,国際標準の中には,実世界上の特定のモノもしくはコトに関係づけられる言語横断的な標準化が有効なアノテーションと,言語の表現形態・表現機能のような言語横断的な標準化がそぐわないアノテーションとが混在している.後者の作業の失敗が顕在化しており,アノテーションの標準化作業を低く評価する傾向がある.}\modified{我々のグループは2006年よりTimeML開発者からTimeML関連の情報を得ながら時間情報表現アノテーションと事象表現アノテーションに取り組んできた.標準化に適した時間情報表現アノテーションと,標準化に適さない事象表現アノテーションを切り分けたうえで,前者についてISO-TimeMLに準拠する日本語版\timexiiiアノテーション基準を検討し策定した.この部分が本研究の内容に相当する.一方,後者についてはモダリティが豊かな日本語の事象表現を国際標準に合わせてアノテーションすることが困難であり,別の方策でアノテーションすることを検討中である.}\modified{日本において,国際標準に準拠している他のアノテーションデータとして,策定中のSemAF-NENamedEntities(ISO-24617-3制定中)に準拠しているBCCWJに対する拡張固有表現体系アノテーション\cite{Hashimoto-2010}がある.} \section{対象とする時間情報表現} まず以下の例文を見て欲しい.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{例文:}{\small彼は{\bf2008年4月}から{\bf週に3回}ジョギングを{\bf1時間}行ってきたが,{\bf昨日}ケガをして走れなくなり,{\bf今朝9時}に病院に行った.}\end{itembox}\par}本稿の研究対象である時間情報表現\footnote{「時間情報表現」は\ding{"AC}「日付表現」(``DATE'')・\ding{"AD}「時刻表現」(``TIME'')・\ding{"AE}「時間表現」(``DURATION'')・\ding{"AF}「頻度集合表現」(``SET'')の4種類の表現を包含するものを指す.}は時間軸上の時点もしくは時区間を表現するテキスト中の文字列とする.時間情報表現は以下の四つの分類に分けられる.\ding{"AC}日付表現・\ding{"AD}時刻表現は「2008年4月」「昨日」「今朝9時」といった,時点もしくは時区間の時間軸上の位置を定義することを目的として用いられる表現である.\ding{"AE}時間表現は「1時間」といった,時間軸上の位置に焦点をあてずに時区間幅を定義することを目的として用いられる表現である.\ding{"AF}頻度集合表現は「週に3回」といった,時間軸上複数の時区間を定義することを目的として用いられる表現である.これら時間情報表現の曖昧性を解消しながら時間軸上の特定の区間に写像することを正規化と呼ぶ.日付・時刻表現において,表層の情報だけで正規化ができる表現と,文脈の情報を用いなければ正規化ができない表現がある.前者を定時間情報表現(fully-specifiedtemporalexpression)と呼び,後者を不定時間情報表現(underspecifiedtemporalexpression)と呼ぶ.上の例では「2008年4月」が定時間情報表現であり,「昨日」「今朝9時」が不定時間情報表現である.時間情報表現の正規化には計算機で扱う日付や時刻を扱うための国際標準ISO-8601形式\footnote{日付や時刻を{\ttYYYY-MM-DDThh:mm:ss}などといった数値と記号列で表記する標準.{\ttYYYY}は年を表す四ケタの数字が,{\ttMM}は月を表す二ケタの数字が,{\ttDD}は日を表す二ケタの数字が,{\tthh}は24時間制で時刻を表す二ケタの数字が,{\ttmm}は分を表す二ケタの数字が,{\ttss}は秒を表す二ケタの数字が入る.Tは日付と時刻を分割する記号.様々な略記方法が提案され,例えば「2008年4月」は``{\tt2008-04}''と表記する.詳細についてはISO-8601に対応する日本工業規格JISX0301「情報交換のためのデータ要素及び交換形式—日付及び時刻の表記」参照のこと.}への変換が一般的である.しかしながら,自然言語では表現できるが,ISO-8601形式では直接表現できない時間情報表現がある.例えば,時間表現や頻度集合表現は時間軸上不定な場合が多くISO-8601形式だけでは表現できず,\modified{TimeMLの\timexiiiにおいてさまざまな拡張形式が提案されている.}想定する時間情報表現解析では手がかりとして,テキストが書かれた日付・時刻を表す文書作成日時を用いることを仮定している.例えば,文書作成日時が2008年9月1日であれば,「昨日」は2008年8月31日(ISO-8601形式では``{\tt2008-08-31}'')を表し,「今朝9時」は2008年9月1日午前9時(同``{\tt2008-09-01T09:00}'')を表す. \section{TimeML\timexiiiタグに基づいた日本語時間情報アノテーション基準} 本節では日本語時間情報表現に対するアノテーション基準の概略を示す.アノテーション基準は,言語資源管理に関する国際標準ISO/TC37/SC4\footnote{http://www.tc37sc4.org/}において,2009年に採用されたISO-24617-1の元になっているTimeML\cite{TimeML}\timexiiiタグの仕様に準拠\footnote{2003年のTimeMLと区別するためにISO-24617-1の基準はISO-TimeMLと呼ばれている.国際標準として,英語だけでなく他言語の時間情報表現をアノテーションするために仕様が拡張されている.本研究の\timexiiiタグはISO-TimeMLにも準拠している.}している.以下,\timexiiiのタグの\modified{日本語適応について}説明する.細かな点で日本語に合うように変更しており,合わない部分については次節で説明する.\subsection{アノテーション対象}アノテーション対象は日付表現・時刻表現・時間表現・頻度集合表現の4種類である.図\ref{fig:example}にアノテーション事例を示す.\begin{figure}[b]\input{06fig01.txt}\caption{アノテーション例}\label{fig:example}\end{figure}日付表現は「一九二九年二月」「前日」のような日暦に焦点をあてた表現である.時刻表現は「午前十時ごろ」「午後六時ごろ」「昼」「九日昼」のような一日のうちのある時点に焦点をあてた表現である.日付表現と時刻表現の区別は時間軸上の粒度の区別でしかない.便宜上不定の現在を表す「今」という表現を時刻表現に分類する.時間表現は「その間」のような時間軸上の両端に焦点をあてておらず,期間を表すことに焦点をあてている表現である.頻度集合表現は「毎日」のような複数の日付・時刻・時間に焦点をあてた表現である.この分類は,解析の方便のために導入したものである.時間軸上一つもしくは複数の時点・時区間を表現するものをアノテーション対象である時間情報表現とする.現在のアノテーション基準では\timexiiiタグの入れ子を許さない.日付・時刻表現の線形結合はこれを一つの日付・時刻表現として切り出す.例えば「九日昼」のように日付表現と時刻表現が連接する場合には一つの時刻表現として切り出す.時間を表す際に,開始時点と終了時点を明示している場合には,開始時点と終了時点とを別々の日付・時刻表現として切り出す.例えば「午前十時ごろから午後六時ごろまで」は一つの時間表現として切り出さず,「午前十時ごろ」と「午後六時ごろ」の二つの時刻表現として切り出す.事象が起こる期間を表すために,今後,関連する事象表現に対し,この二つの時刻表現への参照関係を付与する予定である.頻度集合表現は,文字列上できるだけ短い単位を切り出す.例えば「毎日」を頻度集合表現として切り出すが,「毎日午前十時ごろから午後六時まで」は現在のところ頻度集合表現として切り出していない.\subsection{\timexiiiの属性}\timexiiiタグの属性のうち\tid,\type,\value,\valuefromsurface,\freq,\quant,\modを概説する.また,作業・分析用に導入した\definiteについて説明する.\tid属性は一文書中の各時間情報表現に付与される識別子である.各時間情報表現を一意に同定するために用い,今後同一指示,参照,事象表現との時間的順序を表す際に用いる.\type属性は{\ttDATE},{\ttTIME},{\ttDURATION},{\ttSET}の四つの値を持つ.それぞれ日付表現・時刻表現・時間表現・頻度集合表現を意味する.\value及び\valuefromsurface属性は時間情報表現が含意する日付・時刻・時間の値を表す.値としてISO-8601形式を自然言語表現向けに拡張したものを用いる.このうち\valueは文脈情報を用いて正規化を行った値を付与し,\valuefromsurface属性は文脈情報を用いずに文字列の表層表現のみから判定できる値を付与する.\modified{ここで\valueと\valuefromsurface属性の違いについて例を用いて説明する.「2013年4月」という表現は,文脈を用いなくても表層の文字列から時間軸上に一意に曖昧性解消ができる.「4月」という表現に対して,文脈情報からそれが2013年の「4月」であるとわかる場合には以下のように記述する(ここで属性にわりあてる値の詳細については\ref{subsec:value}節に示す).}定時間情報表現は\valueと\valuefromsurfaceの値は同じになるが,不定時間情報表現は同じになるとは限らない.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{\valueと\valuefromsurface}{\small{\tt$\langle$TIMEX3@type="DATE"@value="2013-04"@valueFromSurface="2013-04"$\rangle$}2013年4月{\tt$\langle$/TIMEX3$\rangle$}{\tt$\langle$TIMEX3@type="DATE"@value="2013"@valueFromSurface="2013"$\rangle$}2013年{\tt$\langle$/TIMEX3$\rangle$}の予定ですが{\tt$\langle$TIMEX3@type="DATE"@value="2013-04"@valueFromSurface="XXXX-04"$\rangle$}4月{\tt$\langle$/TIMEX3$\rangle$}は…}\end{itembox}\par}\freq,\quant属性は頻度集合表現に付与される頻度情報及び量化子情報である.属性にわりあてる値の詳細を\ref{subsec:freqquant}節に示す.\mod属性は時間情報表現のモダリティを表す.例えば「2000年以前」をアノテーションするために\mod属性に{\ttON\_OR\_BEFORE}という値をわりあてることにより「以前」というモダリティを表現する.属性にわりあてる値の詳細を\ref{subsec:mod}節に示す.\modified{\definite属性は``{\tttrue}'',``{\ttfalse}''のいずれかの値を持ち,\value属性が,文脈情報により}定時間情報が得られる時間情報表現は``{\tttrue}''の値を持ち,その他の時間情報表現は``{\ttfalse}''の値を持つ.\modified{言い換えると,日付・時刻表現が時間軸上の特定時区間に写像できる場合と時間・頻度集合表現の時間幅が特定できる場合に``{\tttrue}''の値を持ち,そうでない場合に``{\ttfalse}''の値を持つ.}\modified{例えば,以下の例はともに\temporalfunctionが``{\ttfalse}''の例である.「10日」という表現は,文脈から「4月」ということがわかるが,何年かまではわからないために定時間情報が得られない.なお,\definite属性は作業・分析の便宜上導入したもので,元のISO-TimeMLの\timexiiiには規定されていない.}{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{\temporalfunction}{\small{\tt$\langle$TIMEX3@type="DATE"@value="XXXX-04"@valueFromSurface="XXXX-04"@definite="false"$\rangle$}4月{\tt$\langle$/TIMEX3$\rangle$}の予定ですが{\tt$\langle$TIMEX3@type="DATE"@value="XXXX-04-10"@valueFromSurface="XXXX-XX-10"@definite="false"$\rangle$}10日{\tt$\langle$/TIMEX3$\rangle$}は…}\end{itembox}\par}作成したコーパスに対し上記属性を付与した.他の属性として,記事配信日時など特別な意味を表す時間情報表現に付与する{\tt@functionInDocument},同一指示を表す{\tt@anchorTimeID},時間表現の開始位置と終了位置を表す{\tt@beginPoint},{\tt@endPoint},アノテーション時の問題点を自由記述する{\tt@comment}がある.これらの情報は作業者が気づいた範囲で付与を行ったが完全ではない.\subsection{\value及び\valuefromsurface\label{subsec:value}}各表現に付与する\value及び\valuefromsurfaceはISO-8601形式を基として,自然言語が表す時間情報向けに拡張したものである.\modified{\valueは文脈情報を用いて正規化を行った値を付与し,\valuefromsurface属性は文脈情報を用いずに文字列の表層表現のみから判定できる値を付与する.}ISO-8601の標準表記では,日付・時刻表現を{\ttXXXX-XX-XXTXX:XX:XX}の形で表す.日付表現に対する値の事例を表\ref{tbl:date-value}に示す.自然言語向けの拡張により,ISO-8601では表現できない季節・四半期・年度などが表現できるようになっている.曜日表現に対する値の事例を表\ref{tbl:date-value-dofw}に示す.曜日表現が表す{\ttWXX}の数値部分は年内の暦週の番号を表す.日本語でよく用いられる「第3水曜」のような月内の暦週の番号を表す方策がとられていない.\modified{これについては5.2節で詳説する.}\begin{table}[b]\begin{minipage}[t]{280pt}\caption{日付表現に対する\value}\label{tbl:date-value}\input{06table02.txt}\end{minipage}\hfill\begin{minipage}[t]{130pt}\caption{曜日表現に対する\value}\label{tbl:date-value-dofw}\input{06table03.txt}\end{minipage}\end{table}\begin{table}[b]\caption{時刻表現に対する\value}\label{tbl:time-value}\input{06table04.txt}\end{table}時刻表現に対する値の事例を表\ref{tbl:time-value}に示す.自然言語向けの拡張により,「朝」「昼」「夜」などが表現できるようになっている.\modified{*が付与されている「未明」と「深夜」は日本語新聞記事に頻出したために\valuefromsurfaceの値を独自に導入した.\valueにはどちらも「夜」と同じく{\ttTNI}をわりあてる.詳しくは5.3節で説明する.}時間表現に対する値の事例を表\ref{tbl:duration-value}に示す.基本的にISO-8601の時間表現\footnote{ISO-8601では時間を表現するためにTimeinterval形式とDuration形式の二つがあるが,ここではDuration形式を用いる.}と同じであり,接頭辞として{\ttP}を付与し,その後に数値とともにそれぞれ年,月,日,時間,分,秒,週を表す{\ttY},{\ttM},{\ttD},{\ttH},{\ttM},{\ttS},{\ttW}を接尾辞として付与する.月(M)と分(M)を区別するために日と時間の境界に{\ttT}を付与する.「今」「近年」「今後」など不定な表現に対する値の事例を表\ref{tbl:date-value-undef}に示す.これらは全て自然言語向けに導入した値である.\begin{table}[b]\begin{minipage}[t]{0.5\textwidth}\caption{時間表現に対する\value}\label{tbl:duration-value}\input{06table05.txt}\end{minipage}\begin{minipage}[t]{0.5\textwidth}\caption{不定な表現に対する\value}\label{tbl:date-value-undef}\input{06table06.txt}\end{minipage}\end{table}頻度集合表現は上記\value属性を流用しながら次節に示す\freq,\quant属性を組み合わせることによって表現される.\subsection{頻度集合表現に対する\freq及び\quant属性\label{subsec:freqquant}}頻度集合表現は\value,\freq,\quant属性を組み合わせることにより複雑な時間情報を表現する.頻度情報を表すためには,期間を表す\value属性とともに,\freq属性に{\itn}{\ttX}をわりあてることにより,焦点をあてている期間中に事象が{\itn}回起こることを示す.例えば「週に2回」を表現する際には以下のようにアノテーションする\footnote{説明に不要な属性は省略して表示.以下同様.}.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「週に2回」}{\small{\tt$\langle$TIMEX3type="SET"value="P1W"freq="2X"$\rangle$}週に2回{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}\quant属性には「毎日」「毎週」「毎10月」といった表現に{\ttEACH}をわりあて,「10日おき」「3日毎」といった表現に{\ttEVERY}をわりあてる.この際\value属性には期間を表す値だけでなく,日付・時刻を表す値が入ることがある.以下に例を示す.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「毎日」「毎10月」「10日おき」}{\small{\tt$\langle$TIMEX3type="SET"value="P1D"quant="EACH"$\rangle$}毎日{\tt$\langle$/TIMEX3$\rangle$}\\{\tt$\langle$TIMEX3type="SET"value="XXXX-10"quant="EACH"$\rangle$}毎10月{\tt$\langle$/TIMEX3$\rangle$}\\{\tt$\langle$TIMEX3type="SET"value="P10D"quant="EVERY"$\rangle$}10日おき{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}頻度集合表現は,できるだけ文字列上小さな単位で切り出しているため,現在のところ上記定義で意味論的表示に曖昧性が生じていない.例えば「毎日午前十時ごろから午後六時まで」のような表現の場合,表現全体の単位で切り出すとすると,\value,\freq,\quant属性のみで曖昧性なく意味論的表示に落とすことは困難である.これは,時間情報表現間の時間的順序関係のアノテーションにおいて今後対処していきたい.\subsection{モダリティ修飾\mod属性\label{subsec:mod}}時間情報表現は接尾表現をともない,様々なモダリティを表現する.\mod属性は時刻・時間表現に対するモダリティ修飾情報である.表\ref{tbl:mod}に取りうる値の一覧と例を示す.\begin{table}[b]\caption{\mod属性に対する値}\label{tbl:mod}\input{06table07.txt}\end{table}日付・時刻・時間表現に共通して用いられる\mod属性として{\ttSTART},{\ttMID},{\ttEND},{\ttAPPROX}がある.例えば,「60年代初頭」「10月半ば」「約40年」は以下のようにアノテーションする.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「60年代初頭」「10月半ば」「約40年」}{\small{\tt$\langle$TIMEX3type="DATE"value="196X"mod="START"$\rangle$}60年代初頭{\tt$\langle$/TIMEX3$\rangle$}\\{\tt$\langle$TIMEX3type="DATE"value="XXXX-10-XX"mod="MID"$\rangle$}10月半ば{\tt$\langle$/TIMEX3$\rangle$}\\{\tt$\langle$TIMEX3type="DURATION"value="P40Y"mod="APPROX"$\rangle$}約40年{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}日付・時刻表現に対する\mod属性として,{\ttBEFORE},{\ttAFTER},{\ttON\_OR\_BEFORE},{\ttON\_OR\_AFTER}がある.例えば「1998年以前」は以下のようにアノテーションする.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「1998年以前」}{\small{\tt$\langle$TIMEX3type="DATE"value="1998"mod="ON\_OR\_BEFORE"$\rangle$}1998年以前{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}時間表現に対する\mod属性として,{\ttEQUAL\_OR\_LESS},{\ttEQUAL\_OR\_MORE},{\ttLESS\_THAN},{\ttMORE\_THAN}がある.例えば「10分以内」は以下のようにアノテーションする.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「10分以内」}{\small{\tt$\langle$TIMEX3type="DURATION"value="PT10M"mod="EQUAL\_OR\_LESS"$\rangle$}10分以内{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par} \section{\timexiii日本語適応上の問題点} \modified{本節では$\langle$TIMEX3$\rangle$の日本語適応について問題となった事例について個別に紹介する.基本的には\valuefromsurfaceに日本語特有の表示を用い,\valueにTimeMLに適合した表示を用いる.必要に応じて韓国語のデータK-TimeML\cite{KTimeML}に準拠したKoreanTimebank1.0/2.0でどのような扱いを行っているのかを付記する.}\subsection{暦}\modified{日本語に\timexiiiを適応するうえで一番大きな問題として,和暦の問題がある.日本語では元号法に基づいた「昭和」「平成」などの年表記がテキスト中に出現する.これについては\valuefromsurfaceに「明治」「大正」「昭和」「平成」を表現する``M'',``T'',``S'',``H''の接頭子を二ケタの数字表現に付与することで記述し,\valueに西暦に換算したものを記述することとする.上記四つ以外の元号については\value相当に西暦を記述するのみで対処する.元号以外の時代名(例:「江戸時代」)については,時間情報表現として切り出しを行うのみで,\value相当は空白とした.}{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{和暦の扱い}{\small{\tt$\langle$TIMEX3type="DATE"@value="1985"@valueFromSurface="S60"$\rangle$}昭和60年{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}\modified{旧暦に対しては,\valuefromsurfaceにおいて日付表現の表示の末尾に''Q''を付与し旧暦を表し,明示的に新暦の暦日が記述されている場合にのみ\value相当に記述する.}\modified{皇紀に対しては,\valuefromsurfaceにおいて表示の最初に''JY''を付与し皇紀を表し,\value相当に西暦を記述する.}\modified{韓国語(韓国・北朝鮮),中国語(中国・台湾)なども同様の問題が起きうるが,公開されている文書を見る限り\value相当に西暦を記述することで対処している.}\subsection{月次の週番号の扱い}\modified{欧米地域では年単位の週番号を利用する傾向がある一方,東アジア地域では「第三木曜」など月単位の週番号を利用する傾向がある.このため,韓国より\timexiiiに対して月単位の週番号を記述可能にする拡張が提案されている.具体的には以下のように\valuefromsurfaceの日相当部分に週番号を記述する.\valueにはカレンダーを参照することによりISO-8601の標準表記{\ttXXXX-XX-XX}形式の値をわりあてた.}{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{月次の週番号の扱い}{\small{\tt$\langle$TIMEX3type="DATE"@value="2013-01-17"\\@valueFromSurface="XXXX-XX-W3-4"$\rangle$}第三木曜{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}\subsection{\modified{その他日本語特有の表現}}\modified{以下では日本語適応において問題となった雑多な事例について紹介する.基本的に\valuefromsurfaceにおいて日本語に限定した形式で正規化を行い,\value相当は正規表現などを用いて正規化を行う.}\begin{itemize}\item旬(月の細分類)上旬,中旬,下旬\\\valuefromsurfaceにおいては``1J''(上旬),``2J''(中旬),``3J''(下旬)などと日本語に限定した形式を導入し,\valueには``XXXX-XX-(0[123456789]$|$10)''(上旬)のように正規表現を用いて正規化を行った.\item未明・午前・真夜中\\\valuefromsurfaceにおいては新聞記事などで頻出する表現に対応するため``DW''(未明;\valueは``NI''(夜)相当)・``FN''(午前;\valueは``MO''(朝)相当)・``MN''(真夜中;\valueは``NI''(夜)相当)を導入した.\item学期\\\valuefromsurfaceにおいては学期を表現する記号として``G''を導入した.\valueは何学期制かが不明なので空白である事例が多い.\item国民の祝日\\国民の祝日は,国立天文台が官報で公表する「春分日」「秋分日」やハッピーマンデー制度が適用される四つの祝日も含めて\value相当にその年の正しい日付を記述する.\pagebreak\item休日\\時間情報表現として切り出すが,具体的にいつなのかわからない場合が多く,\valueは空白とした.\itemお盆\\\value相当に``SU''(夏)を記述する.\item十干十二支\\時間情報表現として切り出すが,具体的にいつなのかわからない場合が多く,\valueは空白とした.\end{itemize} \section{\modified{作業環境と作業対象}} \modified{本節では作業環境と作業対象であるBCCWJについて詳しく説明する.}\subsection{\modified{作業環境}}\begin{figure}[b]\begin{center}\includegraphics{20-2ia6f2.eps}\end{center}\caption{XMLEditoroXygenによるアノテーション}\label{fig:oxygen}\vspace{-0.5\Cvs}\end{figure}\modified{アノテーション作業にはXMLEditoroXygen\footnote{http://www.oxygenxml.com/}を利用した.DTDやXMLSchemaを記述することにより時間表現の切り出し部分や属性にわりあてる値などを統制することができる.\pagebreak時間表現の切り出しはマウスもしくはキーボードで対象となる文字列を選択したうえでCtrl-eとタイプし,タグを選択することで,XMLタグ(閉じタグも含む)が挿入される.この状態で画面右の属性項目を記述することにより,XMLファイルを編集することができる.}\modified{言語資源に対するアノテーションにおいて,ある一定の基準を守ったうえで複数の作業者の主観を尊重してそれぞれの作業者間の判断の揺れを許す場合\footnote{例えば例文「柔道家が先輩に勝った仲間を紹介した」に対して一般的な統語的な制約基準を教示したうえで,本質的に2通りの解釈が残る場合に片方の解釈に矯正せずに作業者間の選択選考性の差異の判断を委ねるような場合.},基準を厳格化し作業者間の判断の揺れを許さない場合の2通りの統制手法がある.本論文の時間情報表現の特定の時間軸上への写像作業は後者の統制手法を取るために図\ref{fig:pair}のようにペアプログラミングのような手法を取った.1台のPCに,キーボード二つ・マウス二つ・ディスプレイ二つを接続し,ディスプレイはミラーリングを行う.一つのPCを共有したうえで,作業者がアノテーション作業を行い,作業監督者がアノテーション仕様の改訂を行う.}\begin{figure}[t]\begin{center}\includegraphics{20-2ia6f3.eps}\end{center}\caption{ペアプログラミングによるアノテーション作業}\label{fig:pair}\vspace{-1\Cvs}\end{figure}\modified{アノテーション作業は1人の作業者と1人の作業監督者により行った.1回目のアノテーション時の作業時間は7時間15分週2日勤務で約2か月だった.1回目のアノテーション直後(1回目見直し)と6か月後(2回目見直し)に見直しを行った.1回目の見直し作業はアノテーション結果を帳票形式で出力したうえで,属性に関する見直しを行った.2回目の見直し作業は再度XMLEditor上で行った.アノテーションデータは1回目の見直し作業が終わった時点で公開しており,利用者から誤りの指摘があった場合に修正を行っている.}\modified{このアノテーション作業の準備段階の\timexiiiの切り出しの一致率は95\%以上であり,切り出しの不一致の多くが単純な見落としであった.属性についての一致率は,一つの時刻・時間に複数の意味論的表示を許す\value,\valuefromsurface\footnote{例えば,「30分」を表現する\valueとして``PT30M''と``PT0.5H''の両方が許されている.}を除いて90\%以上である.}\subsection{\modified{作業対象}}\modified{作業対象であるBCCWJ\cite{BCCWJ}について\pagebreak概説する.BCCWJのコアデータは,OW:白書,PB:書籍,PN:新聞,OC:Yahoo!知恵袋,PM:雑誌,OY:Yahoo!ブログの六つのレジスタからなり,それぞれ約5万語単位で,アノテーションすべき優先順位に基づいた部分集合が規定されている\footnote{\modified{BCCWJにおいては,均衡性を保つためにコアデータにアノテーションする際の優先順位($A>B>C>D>E$)が定義されており,その優先順位に基づいて部分集合が定義されている.}}.上記全レジスタの部分集合``A''と比較的時間表現が多いレジスタであるPN(新聞)の部分集合``B''をアノテーション対象とした.}\modified{表\ref{tbl:data}にデータの概要を示す.表中「ファイル数」はアノテーションしたファイルの数,ファイル数の「うち時間表現あり」は時間表現を一つ以上含むファイルの数を表す.}\begin{table}[t]\caption{作業対象データ}\label{tbl:data}\input{06table08.txt}\end{table}\modified{OC,OYなどのユーザー生成コンテンツはサンプリングの長さにもよるが1ファイルに時間情報表現が一つも含まれないものがある一方,OW,PB,PN,PMなどのユーザー生成コンテンツ外のほとんどは時間表現が必ず一つ以上含まれている.OWの中で時間表現を一つも含まない1ファイルは「平成16年度森林・林業白書」であった.文単位では,OW,PNが時間情報表現を含む割合が最も多く,PBが時間情報表現を含む割合が最も少なかった.} \section{タグの分析} \modified{本節ではアノテーションした情報について,時間情報表現の正規化の観点から分析を行う.表\ref{tbl:result:stat}に文書作成日時を示すタグを除いた\typeごとのタグの出現数を曖昧性解消の観点から二つの視点で四つに分割して示す.一つ目の視点は\temporalfunctionが``{\tttrue}''か``{\ttfalse}''かである.``{\tttrue}''の場合,時間軸上に時区間が特定可(``DURATION''と``SET''は時間幅が特定可)であることを意味し,``{\ttfalse}''の場合,時間軸上に時区間が特定不可であることを意味する.二つ目の視点は\valueと\valuefromsurfaceの値が一致する(``=''で表記)か,一致しない(``$\neq$''で表記)かである.一致する場合人手による文脈を用いた正規化作業が行われていないことを意味し,一致しない場合人手による文脈を用いた正規化作業が行われたことを意味する.}\begin{table}[t]\caption{\type属性ごとの出現数と文脈による曖昧性解消可能性}\label{tbl:result:stat}\input{06table09.txt}\end{table}\modified{まず日付表現(``DATE'')について,時区間特定可(\temporalfunctionが``{\tttrue}'')であるものの多くが,人手による曖昧性解消が行われている(\value$\neq$\valuefromsurface)ことがわかる.このことから本アノテーションの目的とする時間表現の正規化作業の重要性がうかがえる.レジスタにもよるが,OW白書やPN新聞など,出版年・発行年月日が明らかであるものほど曖昧性解消がよく行われる傾向がある.日付表現の曖昧性解消は,和暦から西暦への換算や,西暦二ケタ表記から西暦四ケタ表記への換算,さらに年が省略されている表現の文脈や文書作成日時に基づく年の補完によるものがあり,白書の多くの事例がこの暦の換算作業であった.他のレジスタは曖昧性がない表現が多いわけではなく,文書作成日時など曖昧性を解消するに足る情報がデータ中に含まれていないことにより,具体的な時間軸上の区間を指し示すことができない事例が多かった.部分的に情報を補完すること(例えば「3日」という表現に対し9月であることまでがわかるが,何年であるかまではわからないので,{\tt\value="XXXX-09-03"}をわりあてること)も含まれており,時区間特定不可(\temporalfunctionが``{\ttfalse}'')であるが人手による曖昧性解消が行われている(\value$\neq$\valuefromsurface)ものがこれにあてはまる.}\modified{次に時刻表現(``TIME'')については,PBの1件を除いて時区間特定可であるものの殆どが人手による曖昧性解消が行われている.時刻表現の曖昧性解消は,日付が省略されている場合の日付の補完のほか,午前と午後の曖昧性解消が含まれる.日付表現と同様に出版年月日がわかる新聞記事の曖昧性解消がよく行われている一方,OCYahoo!\知恵袋やPM雑誌は,お店の営業時間など時間軸上の特定の時刻を表現しないものが多かった.}\modified{時間表現(``DURATION'')と頻度集合表現については,時間軸上の時区間を特定することを目的とせず,時間幅が特定できれば\temporalfunctionが``{\tttrue}''になると定義している.実際に時間軸上の時区間に写像する際には,日付・時刻表現や事象表現との時間的順序関係(TimeMLの\tlink)を定義することが必要になる.} \section{おわりに} 本稿では\modified{BCCWJに対する日本語時間情報アノテーションについて}説明した.\modified{アノテーションは各国で進められている国際標準ISO-TimeMLに定義された\timexiiiタグに準拠している.他言語においては対象を新聞記事に限定しているのに対し,本研究は6種類のレジスタを対象にアノテーションを行い,レジスタ横断的な分析を行うとともに,日本語適応における問題点を調査した.}\modified{作成したアノテーションデータはスタンドオフ形式で}公開する.BCCWJのDVDを入手することでタグつきテキストコーパスが復元できる.以下,今後の展望を示す.今回作成したテキストコーパスをベンチマークとして正規化を行う日本語時間表現解析器の開発を現在進めている.作成中の解析器では,まず,表層文字列からわかる値をラティス上に展開し,セミマルコフモデルを用いて曖性解消を行う.解析対象表現—文書作成日時および解析対象表現—隣接時間情報表現の時間的順序関係を今回作成したタグつきコーパスを用いて機械学習器を用いて推定することにより,不定時間情報表現に対する情報補完を行う.今後,TimeMLで行われている事象表現と時間表現間の時間的順序関係(TimeML中の\tlink)付与を進めていきたい.そのためには,対象となる事象表現の策定,事象表現に対する分類(TimeML中の{\ttEVENT@type}),テンス・アスペクト体系の整備(同{\ttMAKEINSTANCE@tense,@aspect}),節間の関係定義(同{\ttSLINK})など解決すべき問題は山積している.事象表現に対する分類として工藤らの動詞分類\cite{工藤1995,工藤2004}を基にしたうえで,{\ttEVENT@type}を付与している.テンス・アスペクト体系については中村らのテンス・アスペクトの解釈\cite{中村2001}を参考にしてラベルを設計する予定である.日本語のアスペクト表現は多様であるために{\ttMAKEINSTANCE@aspect}については,元のTimeMLから拡張する予定である.今後TimeMLに準じた事象表現に対するアノテーションを行い,最終目標である事象表現に対する時間情報付与の研究へと進んでいきたい.\acknowledgment本研究は,国立国語研究所基幹型共同研究「コーパスアノテーションの基礎研究」および国立国語研究所「超大規模コーパス構築プロジェクト」による補助を得ています.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Boguraev\BBA\{KubotaAndo}}{Boguraev\BBA\{KubotaAndo}}{2005}]{Boguraev-2005}Boguraev,B.\BBACOMMA\\BBA\{KubotaAndo},R.\BBOP2005\BBCP.\newblock\BBOQ{TimeML-CompliantTextAnalysisforTemporalReasoning}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe19thInternationalJointConferenceonArtificialIntelligence(IJCAI-05)}},\mbox{\BPGS\997--1003}.\bibitem[\protect\BCAY{Boguraev\BBA\{KubotaAndo}}{Boguraev\BBA\{KubotaAndo}}{2006}]{Boguraev-2006}Boguraev,B.\BBACOMMA\\BBA\{KubotaAndo},R.\BBOP2006\BBCP.\newblock\BBOQ{AnalysisofTimeBankasaResourceforTimeMLparsing}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation(LREC-06)}},\mbox{\BPGS\71--76}.\bibitem[\protect\BCAY{{DARPATIDES}}{{DARPATIDES}}{2004}]{TERN}{DARPATIDES}\BBOP2004\BBCP.\newblock{\Bem{TheTERNevaluationplan;timeexpressionrecognitionandnormalization}}.\newblock{Workingpapers,TERNEvaluationWorkshop}.\bibitem[\protect\BCAY{Grishman\BBA\Sundheim}{Grishman\BBA\Sundheim}{1996}]{MUC6}Grishman,R.\BBACOMMA\\BBA\Sundheim,B.\BBOP1996\BBCP.\newblock\BBOQ{MessageUnderstandingConference-6:abriefhistory}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING-96)}},\mbox{\BPGS\466--471}.\bibitem[\protect\BCAY{橋本\JBA中村}{橋本\JBA中村}{2010}]{Hashimoto-2010}橋本泰一\JBA中村俊一\BBOP2010\BBCP.\newblock{拡張固有表現タグ付きコーパスの構築—白書,書籍,Yahoo!知恵袋コアデータ—}.\\newblock\Jem{{言語処理学会第16回年次大会発表論文集}},\mbox{\BPGS\916--919}.\bibitem[\protect\BCAY{Im,You,Jang,Nam,\BBA\Shin}{Imet~al.}{2009}]{KTimeML}Im,S.,You,H.,Jang,H.,Nam,S.,\BBA\Shin,H.\BBOP2009\BBCP.\newblock\BBOQKTimeML:specificationoftemporalandeventexpressionsinKoreantext.\BBCQ\\newblockIn{\BemProceedingofALR7Proceedingsofthe7thWorkshoponAsianLanguageResources},\mbox{\BPGS\115--122}.\bibitem[\protect\BCAY{{IREX実行委員会}}{{IREX実行委員会}}{1999}]{IREX}{IREX実行委員会}\BBOP1999\BBCP.\newblock\Jem{{IREXワークショップ予稿集}}.\bibitem[\protect\BCAY{国立国語研究所コーパス開発センター}{国立国語研究所コーパス開発センター}{2011}]{BCCWJ}国立国語研究所コーパス開発センター\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』利用の手引}(第1.0\JEd).\bibitem[\protect\BCAY{工藤}{工藤}{1995}]{工藤1995}工藤真由美\BBOP1995\BBCP.\newblock\Jem{アスペクト・テンス体系とテクスト—現代日本語の時間の表現—}.\newblockひつじ書房.\bibitem[\protect\BCAY{工藤}{工藤}{2004}]{工藤2004}工藤真由美\BBOP2004\BBCP.\newblock\Jem{日本語のアスペクト・テンス・ムード体系—標準語研究を超えて—}.\newblockひつじ書房.\bibitem[\protect\BCAY{Mani}{Mani}{2006}]{Mani-2006}Mani,I.\BBOP2006\BBCP.\newblock\BBOQ{MachineLearningofTemporalRelations}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe44thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2006)}},\mbox{\BPGS\753--760}.\bibitem[\protect\BCAY{中村}{中村}{2001}]{中村2001}中村ちどり\BBOP2001\BBCP.\newblock\Jem{日本語の時間表現}.\newblockくろしお出版.\bibitem[\protect\BCAY{Pustejovsky,Casta\~{n}o,Ingria,Saur\'{i},Gaizauskas,Setzer,\BBA\Katz}{Pustejovskyet~al.}{2003a}]{TimeBank}Pustejovsky,J.,Casta\~{n}o,J.,Ingria,R.,Saur\'{i},R.,Gaizauskas,R.,Setzer,A.,\BBA\Katz,G.\BBOP2003a\BBCP.\newblock\BBOQ{TheTIMEBANKCorpus}.\BBCQ\\newblockIn{\Bem{ProceedingsofCorpusLinguistics2003}},\mbox{\BPGS\647--656}.\bibitem[\protect\BCAY{Pustejovsky,Hanks,Saur\'{i},See,Gaizauskas,Setzer,Radev,Sundheim,Day,Ferro,\BBA\Lazo}{Pustejovskyet~al.}{2003b}]{TimeML}Pustejovsky,J.,Hanks,P.,Saur\'{i},R.,See,A.,Gaizauskas,R.,Setzer,A.,Radev,D.,Sundheim,B.,Day,D.,Ferro,L.,\BBA\Lazo,M.\BBOP2003b\BBCP.\newblock\BBOQ{TimeML:RobustSpecificationofEventandTemporalExpressionsinText}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponComputationalSemantics(IWCS-5)}},\mbox{\BPGS\337--353}.\bibitem[\protect\BCAY{Sekine,Sudo,\BBA\Nobata}{Sekineet~al.}{2002}]{Sekine-2002}Sekine,S.,Sudo,K.,\BBA\Nobata,C.\BBOP2002\BBCP.\newblock\BBOQ{ExtendedNamedEntityHierarchy}.\BBCQ\\newblockIn{\Bem{TheThirdInternationalConferenceonLanguageResourcesEvaluation(LREC-02)}},\mbox{\BPGS\1818--1824}.\bibitem[\protect\BCAY{Setzer}{Setzer}{2001}]{Setzer-2001}Setzer,A.\BBOP{2001}\BBCP.\newblock{\Bem{TemporalInformationinNewswireArticles:AnAnnotationSchemeandCorpusStudy}}.\newblockPh.D.\thesis,{UniversityofSheffield}.\bibitem[\protect\BCAY{Verhagen,Gaizauskas,Schilder,Hepple,Katz,\BBA\Pustejovsky}{Verhagenet~al.}{2007}]{TempEval}Verhagen,M.,Gaizauskas,R.,Schilder,F.,Hepple,M.,Katz,G.,\BBA\Pustejovsky,J.\BBOP2007\BBCP.\newblock\BBOQ{SemEval-2007Task15:TempEvalTemporalRelationIdentification}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)}},\mbox{\BPGS\75--80}.\bibitem[\protect\BCAY{Verhagen,Saur\'{i},Caselli,\BBA\Pustejovsky}{Verhagenet~al.}{2010}]{TempEval2}Verhagen,M.,Saur\'{i},R.,Caselli,T.,\BBA\Pustejovsky,J.\BBOP2010\BBCP.\newblock\BBOQ{SemEval-2010Task13:TempEval-2}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponSemanticEvaluations(SemEval-2010)}},\mbox{\BPGS\57--62}.\end{thebibliography}\begin{biography}\bioauthor{小西光}{2005年上智大学文学部卒業.2007年上智大学文学研究科博士前期課程修了.2008年より国立国語研究所コーパス開発センタープロジェクト奨励研究員.現在に至る.『日本語書き言葉均衡コーパス』『日本語話し言葉コーパス』『日本語超大規模コーパス』の整備に携わる.}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.現在に至る.博士(工学).自然言語処理・コーパス言語学の研究に従事.}\bioauthor{前川喜久雄}{1956年生.1984年上智大学大学院外国語学研究科博士後期課程(言語学)中途退学.国立国語研究所教授.言語資源系長.コーパス開発センター長.博士(学術).専門は音声学ならびに言語資源学.}\end{biography}\biodate\end{document}
V06N07-01
\section{はじめに} \label{sec:introduction}日本語の形態素解析は,日本語の自然言語処理にとって基本的なものであるので,多くの研究・開発が行われている.形態素解析システム\footnote{以下,システムとは,形態素解析システムのことであり,解析結果あるいは形態素解析結果とは,形態素解析システムの解析結果のことである}には,主に,人手で作成された規則に基づくシステム\cite[など]{kurohashi97,matsumoto97,washizaka97,fuchi98}と確率に基づくシステム\cite[など]{nagata94,mori98,yamamoto97}がある.本稿では,人手で作成された規則に基づく形態素解析システムを対象として,形態素解析の結果から半自動的に誤りを検出することを試みる.形態素解析結果から誤りが検出できた場合には,次のような利点がある.\begin{enumerate}\item{}形態素解析の誤りは,形態素解析システムの弱点を示していると考えられるので,誤りを分析することにより,システムの性能を向上できる可能性がある.\item{}形態素解析が誤るような表現を連語として登録することで,そのような誤りが再び起きないようにできる\cite{yamachi96,fuchi98}.\item{}形態素解析の誤りから誤り訂正規則を作成できるので,その規則を利用して形態素解析の精度を向上できる\cite{yokoh97,hisamitsu98}.\item{}形態素解析の誤りに基づいて,形態素解析の規則に割当てるコストを調整したり\cite{komatsu98},品詞分類を変更する\cite{kitauchi98}ことができる.\end{enumerate}これらのことから,形態素解析結果から誤りを検出することは,形態素解析システムの高精度化に役立つことがわかる.しかし,形態素解析の結果から誤りを見付けるのは,形態素解析の精度が97〜99%\cite{fuchi98}に達している現在では,困難になっている.ところが,従来の研究で,形態素解析結果の誤りを利用して形態素解析の精度を向上させようとしている研究では,それらの誤りを人手で発見すること,あるいは,人手で作成されたコーパスと形態素解析結果とを比較することにより発見することが前提になっている.そのため,形態素解析の誤りを発見することはコストが高い作業となっている.一方,本稿では,従来の研究で人手で発見されることが前提となっていた解析誤り(特に過分割)を,生のコーパスを形態素解析した結果から半自動的に抽出することを目指し,そのための統計的尺度を提案する.更に,本稿では,人手により誤りが修正済みのコーパスに対しても提案尺度を適用し,人手で除去しきれていない誤りを検出することも試みる.もし,人手修正されたコーパスから誤りを検出できたら,提案尺度はコーパス作成・整備の際の補助ツールとして役立つことになる.以下,\ref{sec:measure}章では,本稿が検出対象とする誤り(過分割)の定義を述べ,それを検出するための統計的尺度について述べる.\ref{sec:experiments}章では,提案尺度を,公開されている形態素解析システム\cite{kurohashi97,matsumoto97,washizaka97},および,人手で修正されたコーパス\cite{edr95,kurohashi98}に適用した結果について述べると共に,提案尺度を各種統計的尺度と定量的に比較する.\ref{sec:discussion}章では,提案尺度の有効性などを論じる.\ref{sec:conclusion}章は結論である. \section{過分割を検出する統計的尺度} \label{sec:measure}まず,形態素解析システムの解析結果における分割誤りを分類し,検出対象である過分割を定義づける.次に,過分割を検出する統計的尺度について述べる.\subsection{形態素解析結果における分割誤り}\label{sec:error}分割点という用語を導入し,それを用いて,形態素解析結果における分割誤りを分類する.まず,長さ$n$の文字列$S$を,$S=c_1,c_2,...,c_n$とする.このとき,$S$の$i$番目の分割候補点とは,文字$c_i$と文字$c_{i+1}$の間をいう.また,分割候補点が分割点であるとは,その分割候補点が形態素境界である場合をいい,その分割候補点は分割されているという.たとえば,「$S=休憩室$」とすると,1番目の分割候補点は「休」と「憩」の間であり,2番目の分割候補点は「憩」と「室」の間である.更に,$S$が「休憩/室」のように分割されているとすると,2番目の分割候補点は分割点である.次に,形態素解析結果の分割誤りとは,正解と形態素解析結果とで,分割点が異なる場合をいう.そして,分割誤りのなかで,過分割とは,正解で分割されていない分割候補点をシステムが分割している場合をいう.また,分割不足とは,正解で分割されている分割候補点をシステムが分割していない場合をいう\footnote{ここで定義した過分割と分割不足とは,形態素境界(分割点)に注目したものであるので,形態素自体に注目した過分割/分割不足の定義とは異なる.たとえば,\cite{hisamitsu98}では,分割の誤りを以下の3種類に分類している.なお,「正」で示される分割は,当該文字列の正しい分割を示し,「誤」で示される分割は,形態素解析システムによる誤った分割を示す.\begin{description}\item[(形態素自体に注目した)過分割]\begin{tabular}{ll}正:&今日/の/金/相場/は,...\\誤:&今日/の/金/相/場/は,...\\\end{tabular}\item[(形態素自体に注目した)分割不足]\begin{tabular}{ll}正:&ユニックス/ワークステーション\\誤:&ユニックスワークステーション\\\end{tabular}\item[その他の誤り(語境界交差型)]\begin{tabular}{ll}正:&病気/が/まん延\\誤:&病気/がまん/延\\\end{tabular}\end{description}この定義では,形態素境界を直接取り扱えないので,本稿での目的には不適切である.なお,語境界交差型の分割誤りは,本稿の定義では,過分割と分割不足が複合したものとなる.たとえば,上の例では,「が」と「ま」の間の分割候補点が分割不足であり,「ん」と「延」の間の分割候補点が過分割である.}.たとえば,「休憩室」の分割の正解が「休憩/室」であるとき,システムが「休/憩室」と分割したとすると,1番目の分割候補点(「休」と「憩」の間)は過分割であり,2番目の分割候補点(「憩」と「室」の間)は分割不足である.なお,形態素解析結果の誤りには,他には品詞付けの誤りがある.これは,形態素への分割自体は正しいが,品詞が間違った場合である.この誤りの検出については,分割不足と同様に,本稿では考察しない.\subsection{過分割の検出尺度の定義}\label{sec:detecting-method}ここで定義する尺度は,文字列に関する尺度であり,与えられた文字列が分割される場合と分割されない場合とで確率を比較し,分割されない確率が高いほど大きな値をとる尺度である.そのため,この尺度の値が大きいような分割をされている文字列は,誤った分割(過分割)をされている可能性が高い.より厳密には,与えられた文字列を$S=a_1,a_2,\ldots,a_k,b_1,b_2,\ldots,b_l$とし,$S$の二つの部分文字列(形態素\footnote{(\ref{eq:L})式では,形態素の文字列のみを考慮し,品詞は考慮しない.なぜなら,そうすることで,計算が単純になり,かつ,確率推定におけるスパースネスを避けることができるからである.})を$A=a_1,\ldots,a_k$と$B=b_1,\ldots,b_l$とするとき,\begin{equation}\label{eq:L}L(A,B)=\log\frac{\Pr(\B,a_1,\ldots,a_k,b_1,\ldots,b_l,\E)}{\Pr(\B,a_1,\ldots,a_k,\E)\Pr(\B,b_1,\ldots,b_l,\E)}\end{equation}は,以下で述べるように,文字列$S$の形態素$A$と$B$への切れにくさを表現している.ただし,$\B$と$\E$は,それぞれ,形態素の前後に付ける区切り記号であり,$\Pr(\cdots)$は,文字列の生起確率である.すなわち,$\Pr(\B,c_1,\ldots,c_k,\E)$については,$c_{0}=\B,c_{k+1}=\E$とすれば,\begin{eqnarray}\label{eq:n}\lefteqn{\Pr(\B,c_1,\ldots,c_k,\E)}\nonumber\\&=&\Pr(\B)\prod_{i=1}^{k+1}\Pr(c_i|c_0,\ldots,c_{i-1})\nonumber\\&\simeq&\Pr(\B)\prod_{i=1}^{k+1}\Pr(c_i|c_{i-n+1},\ldots,c_{i-1})\end{eqnarray}である.ただし,適当な$n$により,$\Pr(c_i|c_0,\ldots,c_{i-1})$を$\Pr(c_i|c_{i-n+1},\ldots,c_{i-1})$で近似する.(\ref{eq:L})式で定義した尺度$L(A,B)$は,文字列$S=AB$の形態素$A$と$B$への切れにくさを表している.すなわち,$L(A,B)$が大きいときには,$S$は$A$と$B$には分割されがたい.なぜなら,$L$の分子は,$S$が一つの形態素として(区切り記号が途中に入らずに)生起する確率であるのに対して,分母は,$S$が二つの形態素に分れて独立に生起する確率であるから,$L$が大きいほど,$S$が一つの形態素として生起する比が大きいからである.そのため,$L$が大きいほど分割が誤っている可能性が高い.すなわち,$a_k$と$b_1$の間の分割は過分割である可能性が高い.たとえば,\ref{sec:experiments}章の実験によると,「$S=休憩室$」のとき,「$A=休$」,「$B=憩室$」とすると,$\log\Pr(\B,休,憩,室,\E)=-24.3$,$\log\Pr(\B,休,\E)=-12.9$,$\log\Pr(\B,憩,室,\E)=-29.4$であるので,$L(休,憩室)=-24.3+12.9+29.4=18.0$となる.一方,「$A=休憩$」,「$B=室$」とすると,$\log\Pr(\B,休,憩,\E)=-13.7$,$\log\Pr(\B,室,\E)=-10.4$であるので,$L(休憩,室)=-24.3+13.7+10.4=-0.20$となる.二つを比較すると,$L(休,憩室)>L(休憩,室)$であるので,尺度$L$によると,「休憩室」については,「休/憩室」という分割の方が「休憩/室」という分割よりも起り難い.すなわち,過分割である可能性が高い.これは我々の言語感覚と一致する.\subsubsection*{尺度$L$の適用範囲}尺度$L$が効果的に検出できるような過分割は,脚注2に示した分割誤りのうちで,形態素自体に注目した過分割である.それに対して,語境界交差型における過分割の検出への尺度$L$の有効性は,形態素自体に注目した過分割に対するものよりも低いと予想される\footnote{このことは査読者に指摘していただいた.}.なぜなら,問題にしている分割点が語境界交差型の分割誤りの場合,たとえば,「が/まん延」を「がまん/延」と間違えている場合には,$L(がまん,延)$を計算するのだが,このとき,$\Pr(\B,が,ま,ん,延,\E)$が高い確率値を示し,$\Pr(\B,が,ま,ん,\E)\Pr(\B,延\E)$が低い確率値を示すことは必ずしも期待できないからである.なぜなら,コーパス中で「$\B{}がまん延\E$」が頻出し,「$\B{}がまん\E$」や「$\B{}延\E$」が出現しないということは保証できないからである.ただし,実際上は,(\ref{eq:n})式の確率を推定するときには,$n=2$や$n=3$により近似するので,(\ref{eq:L})式の計算に関係するのは,分割点の近傍の文字だけになり,その結果,語境界交差型の分割誤りと形態素自体に注目した過分割とで尺度$L$の有効性の違いは小さくなると考えられる.\subsection{尺度$L$と相互情報量との違い}\label{sec:rel-to-mi}本節では,尺度$L$と,よく知られた統計量である相互情報量\cite{Kita96}との違いを述べる.形態素$A$と形態素$B$の相互情報量$MI(A,B)$は,$\Pr(A)$と$\Pr(B)$を形態素$A$と$B$の生起確率とし,$\Pr(A,B)$を,形態素$A$と形態素$B$が,この順番で隣接して生起する確率とすると,\begin{equation}\label{eq:mi}MI(A,B)=\log\frac{\Pr(A,B)}{\Pr(A)\Pr(B)}\end{equation}である.次に,(\ref{eq:mi})式を,(\ref{eq:L})式と同様に,文字の連鎖として表すと,\begin{equation}\label{eq:mi-char}MI(A,B)=\log\frac{\Pr(\B,a_1,\ldots,a_k,\E,\B,b_1,\ldots,b_l,\E)}{\Pr(\B,a_1,\ldots,a_k,\E)\Pr(\B,b_1,\ldots,b_l,\E)}\end{equation}となる.$MI(A,B)$が大きいときには,形態素$A$と$B$が共起する確率は,それぞれが独立に生起する確率よりも大きいといえるので,$MI(A,B)$は,形態素$A$と形態素$B$との共起関係の強さ(共起強度)を表す尺度として利用できる.(\ref{eq:L})式で表される尺度$L$と,(\ref{eq:mi-char})式で表される相互情報量とが異なることは,$\Pr(\B,a_1,\ldots,a_k,b_1,\ldots,b_l,\E)\ne\Pr(\B,a_1,\ldots,a_k,\E,\B,b_1,\ldots,b_l,\E)$であることから分る.また,定性的にいっても,$\Pr(\B,a_1,\ldots,a_k,b_1,\ldots,b_l,\E)$は,\ref{sec:detecting-method}節で述べたように,$S=AB$が一つの形態素として生起する確率であるのに対して,$\Pr(\B,a_1,\ldots,a_k,\E,\B,b_1,\ldots,b_l,\E)$は,形態素$A$と形態素$B$とが二つの形態素として隣接して生起する確率であるので,これら二つの確率は異なる.定性的な違いを要約すると,尺度$L$は,形態素$S=AB$が形態素$A$と形態素$B$に分割されるときの分割の困難さを表すが,相互情報量は,形態素$A$と形態素$B$が隣接して生起するときの生起の容易さを表すと言える.これらは関連していることは確かであるが,基本的には異なる.なお,\ref{sec:experiments}章では,実験の一つとして,尺度$L$と相互情報量を含む五つの尺度について,過分割の検出精度を比較する. \section{実験} \label{sec:experiments}\subsection{実験概要}\label{sec:overview}\subsubsection*{実験事項}三つの実験を行った.実験1では,定性的な評価として,種々の形態素解析システムの解析結果,および,人手修正されたコーパスについて尺度$L$を適用し,目視により適用結果を評価した.実験2では,訓練コーパスのサイズを変えたときの,尺度$L$の過分割検出精度を定量的に評価した.実験3では,五つの尺度(尺度$L$/相互情報量/尤度比/改良Dice係数\cite{kitamura97}/Yates補正された$\chi^2$)について過分割の検出精度を定量的に比較した.\subsubsection*{確率推定の際の設定}\paragraph{教師なし学習/教師あり学習}尺度$L$を求めるためには,(\ref{eq:n})式の確率を求める必要があるので,形態素に分割された訓練コーパスが必要である.そのようなコーパスとしては,形態素解析システムにより分割されたコーパスをそのまま用いる場合(教師なし学習)と,形態素解析結果の誤りを人手で修正したコーパスを用いる場合(教師あり学習)の二通りが考えられる.そのため,実験1,2,3では,この二つの場合について,尺度$L$の過分割検出精度などを調べた.\paragraph{パラメータ推定法}(\ref{eq:n})式の確率を求めるには,$n$を設定し,かつ,確率推定法も適当に決める必要がある.そのために,本稿では,実験1と実験2においては,n-gram確率推定のためのツールとして広く使われているCMU-CambridgeToolkit\cite{clarkson97}を用いて,$n=3$の場合について,バックオフスムージングにより推定した.このときのディスカウント法はWitten-Belldiscounting\cite{placeway93}を用い,カットオフは,文字バイグラムと文字トライグラムの双方で1とした\footnote{CUM-CambridgeToolkitは,与えられたn-gramである$c_{i-n+1},\ldots,c_{i}$の頻度が0のとき,そのn-gram確率$\Pr(c_i|c_{i-n+1},\ldots,c_{i-1})$を(n-1)-gram確率$\Pr(c_i|c_{i-n+2},\ldots,c_{i-1})$から推定する.これをバックオフスムージングという\cite{Kita96}.バックオフスムージングには,種々の方法があるが,それらは,ディスカウントといって,頻度が0より大きいn-gramの頻度から幾らか割引いて,割引いた分を頻度が0のn-gramに分け与える方法により特徴付けられる(これにより頻度が0のn-gramの確率が0より大きくなる).そのディスカウントの一手法がWitten-Belldiscountingである.また,カットオフとは,ある値$x$以下の頻度で生起したn-gramの頻度を0として確率を計算する場合の$x$のことである.カットオフ以下の頻度のn-gramは,頻度が0として扱われるが,バックオフスムージングにより0より大きい確率が付与される.}.一方,実験3においては,最尤推定により求めた確率により尺度$L$を計算した.その理由は,尺度$L$以外の尺度においては,通常,最尤推定を用いて,確率を計算しているので,それに合せるためである.また,比較を簡単にするために,$n=2$の場合について各種の尺度を比較した.\subsubsection*{コーパス}実験1,2,3で共通に用いるコーパスは京都大学テキストコーパスversion2.0\cite{kurohashi98}である.京都大学テキストコーパスは,CD-毎日新聞95年度版から約2万文を抽出したものであり,形態素・構文解析されている.このコーパスを均等に2分割し,実験に用いた.以下では,その一方を京大コーパスAと呼び,他方を京大コーパスBと呼ぶ.京大コーパスAは主に確率推定のための訓練コーパスとして用い,京大コーパスBは主に過分割の検出精度を評価するためのテストコーパスとして用いた.\subsection{実験1:目視による尺度$L$の評価}\label{sec:look}実験1では,定性的な評価として,種々の形態素解析システムの解析結果,および,人手修正されたコーパスについて尺度$L$を適用し,目視により適用結果を評価した.\subsubsection*{実験材料:コーパスと形態素解析システム}\paragraph{教師なし学習の場合}教師なし学習では,確率推定用の訓練コーパスと過分割検出用のテストコーパスとが同一である.つまり,確率を推定したコーパス中における過分割を検出する.このときのコーパスとしては,京大コーパスBとEDR日本語コーパスversion1.5\cite{edr95}の全文を用いた.なお,EDR日本語コーパスは,新聞・雑誌・辞典などの流通文書から1文単位でとられた約21万文からなるコーパスであり,各文は,形態素・構文・意味解析されている.これらのコーパスにおける生の文を分割する形態素解析システムとしては,公開されている形態素解析システムのうちから,JUMANversion3.5\cite{kurohashi97},茶筅version1.51\cite{matsumoto97},すももversion1.3\cite{washizaka97}を用いた.これらの形態素解析システムは,全て,規則に基づいて形態素解析をするものである.なお,これらの形態素解析システムを用いるときには,ただ一つの(ベストの)解析結果を出力させた.これらのコーパスと形態素解析システムとの組み合わせは,EDRコーパスに対しては,三つの形態素解析システム全てを適用したが,京大コーパスBについては,JUMANのみを適用した\footnote{こうした理由は,京大コーパスは主に実験2,3における定量的な評価に使用することを意図したものであり,実験1では,EDRコーパスを主な対象としたからである.}.また,二つのコーパスの元々の分割(人手修正済みの分割)についても試した.すなわち,全部で6種の形態素分割に対して尺度$L$を適用した.\paragraph{教師あり学習の場合}教師あり学習では,確率推定用の訓練コーパスと過分割検出用のテストコーパスとが異なる.実験1では,京大コーパスAの元々の分割(JUMANの解析結果を人手修正したもの)を訓練データとして(\ref{eq:n})式の確率を推定した.そして,その推定値を利用して,JUMANにより形態素解析された京大コーパスBに対して尺度$L$を適用した.\subsubsection*{実験方法}7種(=教師なし6種+教師あり1種)の形態素分割のそれぞれに対して,その全ての分割点について,前後の形態素から尺度$L$を計算した.たとえば,「休/憩室/は/広い/。」のように分割されている文については,四つの分割点において,それぞれ,$L(休,憩室)$,$L(憩室,は)$,$L(は,広い)$,$L(広い,。)$を計算した.このとき,(\ref{eq:n})式の確率は,\ref{sec:overview}節で述べたように,$n=3$としてバックオフスムージングにより計算した.\subsubsection*{実験結果}7種の形態素分割のそれぞれに対して,全ての分割点を尺度$L$により降順に(同一尺度値の場合はランダムにtieを解消して)ソートし,その上位から異なり150個を選んだ\footnote{たとえば,「休/憩室/は/広い/。」と「休/憩室/は/狭い/。」という文があるとき,それぞれの文について,$L(休,憩室)$が求まるが,この二つの$L$は同じ文字列を同じように分割しているので,異なりとしては一つである.ただし,二つの分割点を比べたとき,分割点の前後の形態素の字面は同じであっても,品詞が異なる場合には異なる分割点として扱った.すなわち,たとえば,$L(A,B)$と$L(a,b)$という二つの分割点があり,字面上は,$A=a$,$B=b$であったとしても,$A$と$a$の品詞が異なるか,$B$と$b$の品詞が異なる場合には,それらの分割点は,異なるものとして扱った.そうした理由は,尺度$L$が検出できるのは過分割だけであっても,我々が実際に興味があるのは品詞付けの誤りを含めた形態素解析結果の誤りだからである.}.そして,それぞれの異なりについて,一個の分割点を無作為に抽出し,それが過分割であるかを判定した\footnote{過分割かどうかの判定,すなわち,形態素解析システムによる分割点が実際に切って良いかどうかの判定は,複合名詞について困難であるが,もしも,形態素への分割の結果として生じる括弧付けが,筆者の内省に基づいた括弧付けと交差する(crossbracketing)なら,その分割点による分割は誤り(過分割)とする.たとえば,「東南アジアツアー」は,筆者の内省によれば(((東南)アジア)ツアー)という構造をしているので,「東南/アジアツアー」という分割は過分割とする.なぜなら,この分割では,((東南)(アジアツアー))という構造になるので,括弧が交差するからである.一方,「東南アジア/ツアー」は((東南アジア)ツアー)という構造なので正解とする.なお,分割の正誤の判定が困難なものについては,品詞を参照し,もし品詞が誤っていたら分割も誤りとした.ただし,上位異なり150個については,付録の表\ref{tab:edr}から表\ref{tab:cv}にある例と同様に,形態素の途中で分割されているものがほとんどであるので,分割の正誤の判定に迷うような例は少ない.}.なお,判定は筆者による.\begin{table}[htbp]\begin{center}\caption{上位異なり150分割点における過分割の数}\begin{tabular}{|l|l|l|c|}\hline学習方法&コーパス&解析システム&過分割の数\\\hline\hline教師なし&EDR&人手(元々の分割)&43\\&&JUMAN&126\\&&茶筌&128\\&&すもも&125\\\cline{2-4}&京大コーパスB&人手(元々の分割)&49\\&&JUMAN&98\\\hline教師あり&京大コーパスB&JUMAN&125\\\hline\end{tabular}\label{tab:errs}\end{center}\end{table}判定した150個の分割点について,それが実際に過分割であった数を表\ref{tab:errs}に示す.表から分かるように,これら150個の中に過分割が占める割合は非常に高い.たとえば,表\ref{tab:errs}では,茶筅には128個の過分割がある.一方,平均的には,茶筌の分割が過分割であるのは,1.5%以下であると言ってよい\footnote{\cite{fuchi98}によると,茶筌のEDRコーパスにおける形態素解析結果の適合率(=100$\times$(茶筌の形態素解析結果の形態素で正解と一致したものの数/茶筌の形態素解析結果の形態素の総数))は,字面が一致していた場合を一致とすると,98.5%である.ここで,形態素の適合率は,実験2でも示すように,分割点の適合率よりも低くなる.なぜなら,形態素が一致するためには,その前後の分割点も一致しなくてはならないため,形態素が一致するというのは,分割点の一致よりも厳しい条件であるからである.そのため,分割点が過分割であるのは1.5%以下と言って良い.}.つまり,茶筅の150個の分割点のうちで,過分割は,平均的には,$150\times0.015=2.25$個以下である.よって,茶筅の解析結果から128個の過分割を検出するためには,平均的には,$(128/2.25)\times150\simeq8533$個以上の分割点を調べなければならないことになる.同様なことが,他の形態素解析システムによる分割結果,あるいは,人手で修正された分割結果についても言える.これより,尺度$L$を用いることにより,形態素解析結果から過分割を効率的に抽出できるといえる.なお,表\ref{tab:errs}において,JUMANで解析された京大コーパスBからの過分割検出結果について,教師なし学習の場合と教師あり学習の場合とを比べると,教師あり学習の方が検出個数が多い.これは,教師あり学習の方が,(\ref{eq:n})式の値を正確に推定できるからであると解釈できる.さらに,教師なし学習の場合の6種の形態素分割のそれぞれについて,上位異なり150個中の過分割から上位12個の過分割を付録の表\ref{tab:edr}と表\ref{tab:kyoto2.0}に示す.表で「数」とある欄には,そのような過分割を含む文の数がある.また,「形態素/品詞」とある二つの欄は,尺度$L$を計算した分割点の前後の形態素と品詞を示す.なお,品詞は,それぞれの形態素解析システムの品詞である.また,表の解析結果は,各解析システムが一つだけ解析結果を出力した場合のものである.もし,複数の解析結果も出力するようにすれば,表中の文について,当該の形態素解析システムが正解を含む解を出すことはある.これらの表に示されている過分割の中には,何らかの規則性があるとすぐに分るものもある.たとえば,EDRコーパスの元々の分割に含まれる過分割(表\ref{tab:edr})においては,「引き下げ/よう」が「引き下/げ/よう」と分割されていたり,「掲げ/、」が「掲/げ/、」のように分割されるなど,動詞の語幹が分割される例が大半である\footnote{EDRコーパスの元々の分割においては,「掲げ、」という文字列を含む文が14例あるが,そのうち表\ref{tab:edr}の1例のみが,「掲/げ/、」という分割であり,その他の13例は,「掲げ/、」という分割である.このことは「掲/げ/、」が過分割であることを傍証している.これと同様なことが,表\ref{tab:edr}のその他の例についても言える.なお,「掲げ/、」という分割を含む例には,「虹/を/描/い/た/旗/を/掲げ/、/高らか/に/歌/う/。」や「独特/の/理想/を/掲げ/、/実行/し/た/人/だっ/た/。」のような例がある.}.一方,EDRコーパスに対する茶筌の過分割では,「結果」が「結(普通名詞)/果(普通名詞)」と分割されていたり,「考えて」が「考(普通名詞)/えて(普通名詞)」と分割されているが,このような例に含まれる規則性は,もしあったとしても,容易には分らない.いずれにしろ,尺度$L$を使うことにより,ある程度の量の,形態素解析結果の過分割が,教師なし学習により容易に抽出できることが分かる.このような例を集めるのは人手では手間が掛る.また,尺度$L$は人手修正後のコーパスに残る過分割も検出できるため,コーパス作成・整備の際の補助ツールとしても役立つと考える.また,付録の表\ref{tab:cv}には,教師あり学習の場合について,尺度$L$の値が上位12個の過分割を示す.ここで,教師あり学習の結果である表\ref{tab:cv}におけるJUMANの過分割と,教師なし学習の結果である表\ref{tab:kyoto2.0}におけるJUMANの過分割とを比べると,表\ref{tab:cv}においては「護/煕」など固有名詞が占める割合が多いが,表\ref{tab:kyoto2.0}では固有名詞は一つ(「若/乃/花」)しか存在しないことがわかる.表\ref{tab:kyoto2.0}に固有名詞が少ないのは,固有名詞は未知語である場合が他の品詞と比べて多いため,常に過分割される場合も多くなり,その結果として尺度$L$の値が小さくなる場合が多いためである.このように,形態素解析システムが常に過分割してしまうような場合を検出するためには,人手修正済みコーパスが必要であると言える.\subsection{実験2:過分割検出精度の定量的評価}\label{sec:size}教師なし学習により何か統計的に興味のある言語現象を発見するような応用\cite[など]{shiNnou95,ikehara95,shimohata95,hisamitsu97}においては,新聞記事などの大規模なコーパスが比較的用意に入手できるので,訓練コーパスのサイズは深刻な問題ではない.これは本稿における過分割検出の場合でも同様である.しかし,教師あり学習の場合には,訓練コーパスを構築するのはコストが掛るため,なるべく小さな訓練コーパスであることが望ましい.そこで,実験2では,主に教師あり学習の場合を対象として,訓練コーパスのサイズと過分割検出精度との関係を調べた.ただし,教師なし学習の場合についても,教師あり学習と比較するために,訓練コーパスのサイズと過分割検出精度との関係を同様に調べた.\subsubsection*{実験材料:コーパス}確率推定用の訓練コーパスとしては京大コーパスAを用い,過分割検出の精度を調べるテストコーパスとしてはJUMANにより分割された京大コーパスBを用いた.このことは,教師あり学習と教師なし学習とで共通である.ただし,教師あり学習では京大コーパスAの元々の分割から(\ref{eq:n})式の確率を推定し,教師なし学習では,京大コーパスAをJUMANにより形態素解析した結果から(\ref{eq:n})式の確率を推定した\footnote{教師なし学習において,京大コーパスAを訓練コーパスにした場合と,京大コーパスBをJUMANにより形態素解析した結果を訓練コーパスとした(訓練コーパスとテストコーパスが同一の)場合とでは,(後述する(\ref{eq:examination})式で定義する分割点調査率の意味における)過分割検出精度は,ほぼ等しい.}.\paragraph{テストコーパスの各種統計}テストコーパスである京大コーパスBについて,その元々の分割を正解と看倣して\footnote{実験1で見付けた過分割についても修正はしていない.},分割の正誤を判定したときの統計を表\ref{tab:stat}に示す.\begin{table}[htbp]\begin{center}\caption{京大コーパスBにおける分割点についての統計}\begin{tabular}{|lr|}\hline正解における分割点の数&232572\\JUMANによる分割点の数&233048\\一致した分割点の数&231816\\分割点の再現率&99.7%\\分割点の適合率&99.5%\\\hline過分割の数&1232\\分割不足の数&756\\分割の間違いの数(過分割の数+分割不足の数)&1988\\100$\times$(過分割の数/分割の間違いの数)&62.0%\\100$\times$(過分割の数/JUMANによる分割点の数)&0.5%\\\hline\end{tabular}\label{tab:stat}\end{center}\end{table}表\ref{tab:stat}より,分割の間違いに占める過分割は62.0%である.加えて,過分割の周辺には分割不足も起りやすいと言えるので,過分割が検出できれば,その周囲も調べることにより,分割誤りの多くが検出できると言える.しかし,分割点の再現率(=100$\times$(一致した分割点の数/正解における分割点の数))と適合率(=100$\times$(一致した分割点の数/JUMANによる分割点の数))は,それぞれ,99.7%,99.5%と非常に高い\footnote{参考のため,\cite{nagata94}の基準による,形態素の再現率(=100$\times$(一致した形態素の数/正解における形態素の数))と適合率(=100$\times$(一致した形態素の数/JUMANによる形態素の数))を求めると,それぞれ,99.1%と98.9%になる(ただし,字面が一致していれば形態素が一致したと看倣す).これらからも分るように,形態素の再現率と適合率とは分割点のものに比べて低い.}.また,JUMANの分割点全体の中で過分割である分割点は0.5%(=100%$-$適合率)であるので,過分割を見付けるのは人手では困難であると考える.\subsubsection*{実験方法}約1万文からなる訓練コーパスから,約1000,2000,...,10000文を選び,それぞれの場合について,$n=3$としてバックオフスムージングにより(\ref{eq:n})式の確率を推定し,それを利用して約1万文からなるテストコーパスにおける全分割点の尺度$L$の値を計算した.そして,全ての分割点を尺度$L$により降順にソートし,上位の分割点から,過分割かどうかを,テストコーパスの元々の分割を正解として調べた.\subsubsection*{実験結果}まず,全訓練データを使用した場合についての実験結果を述べ,次に訓練データを1000文ずつ増加した場合についての実験結果を述べる.\paragraph{全訓練データを使用した場合}図\ref{fig:10000}には,約1万文の訓練データ全てを使って確率推定した場合について,教師あり学習と教師なし学習のそれぞれについて,過分割検出の再現率(percentrecall)に対する適合率(percentprecision)および分割点調査率(percentexamination)を示す.ここで,\begin{displaymath}\label{eq:recall}再現率=100\times\frac{検出された過分割の数}{テストコーパスにおける過分割の数},\end{displaymath}\begin{displaymath}\label{eq:precision}適合率=100\times\frac{検出された過分割の数}{尺度Lの上位から順番に調べた分割点の数},\end{displaymath}\begin{equation}\label{eq:examination}分割点調査率=100\times\frac{尺度Lの上位から順番に調べた分割点の数}{テストコーパスにおける全分割点の数}.\end{equation}\begin{figure}[htbp]\begin{center}\epsfile{file=10000.eps}\caption{再現率と適合率/分割点調査率}\label{fig:10000}\end{center}\end{figure}図\ref{fig:10000}の教師あり学習の場合の適合率(supervised-precision)および教師なし学習の場合の適合率(unsupervised-precision)のプロットから分かるように,上位における過分割検出の適合率は非常に高い.たとえば,再現率が10.0%のとき,適合率は,教師あり学習の場合に90.5%であり,教師なし学習の場合に46.8%であるが,これらは,JUMANの分割点全体の中で過分割が占めるパーセンテージである0.5%の,180倍以上,および,90倍以上である.この適合率の高さは,実験1での結果を裏付けるものである.また,図\ref{fig:10000}の教師あり学習の場合の分割点調査率(supervised-examination)および教師なし学習の場合の分割点調査率(unsupervised-examination)から分かるように,一部の分割点を調べるだけで多くの過分割を検出できると言える.たとえば,全体の過分割のなかから再現率50%で過分割を見付けるためには,教師あり学習の場合には,全分割点の0.5%を調べればよく,教師なし学習の場合には,全分割点の2.0%を調べればよい.さらに,90%の過分割を見付けるためには,教師あり学習の場合には,全分割点の7.8%を調べればよく,教師なし学習の場合には,全分割点の12.2%を調べればよい.一方,もし,無作為に分割点を調べるという方法により,過分割を検出しようとしたならば,50%の過分割を見付けるためには,平均的には,全分割点の50%を調べる必要があり,90%の過分割を見付けるためには,90%の分割点を調べる必要がある.以上より,尺度$L$を使うことにより,過分割の検出が効率良くできると言える.なお,再現率,適合率,分割点調査率の間には\begin{equation}\label{eq:rel}適合率=K\times\frac{再現率}{分割点調査率}.\end{equation}という関係が成立する.ただし,$K$はテストコーパスに固有の定数であり,\begin{displaymath}K=100\times\frac{テストコーパスにおける過分割の数}{テストコーパスにおける全分割点の数}.\end{displaymath}(\ref{eq:rel})式から,分割点調査率と再現率が決まれば適合率が決まることが分かる(e.g.,分割点調査率が小さければ適合率は高い).そのため,以下では,再現率に対する分割点調査率のみに基づいて過分割の検出精度を評価する.そして,同一の再現率に対して分割点調査率が小さいとき過分割の検出精度が高いと言い,その逆のときに過分割の検出精度が低いと言うことにする.\paragraph{1000文ずつ訓練データを増やした場合}図\ref{fig:incr-exam}には,過分割検出の再現率が25,50,75%の場合(recall25,recall50,recall75)について,教師あり学習の場合と教師なし学習の場合における,訓練文数(Num.oftrainingsentences)と分割点調査率の関係を示す.\begin{figure}[htbp]\begin{center}\vspace{1mm}\epsfile{file=exam25-50-75.eps}\vspace{2mm}\caption{訓練データを増やした場合の再現率と分割点調査率}\label{fig:incr-exam}\end{center}\end{figure}図\ref{fig:incr-exam}から,教師あり学習の場合(supervised-recall25,50,75)については,訓練文数が増加すると,再現率が50%と75%においては,分割点調査率が明確に減少していると言える.また,再現率が25%についても緩やかに分割点調査率は減少している.一方,教師なし学習の場合(unsupervised-recall25,50,75)については,訓練文数が増えていっても,2000文以上については,分割点調査率は(若干の変動はあるが)ほぼ横ばいである.このことは,教師あり学習については,訓練データが多くなれば多くなるだけ,(\ref{eq:n})式の確率を精密に推定できるが,教師なし学習については,訓練データが多くなったとしても,その確率推定に対する効果は,教師あり学習の場合に比べれば,小さいことを示している.\vspace{17mm}\subsection{実験3:各種尺度の比較}\label{sec:comp}実験3では,尺度$L$,相互情報量,尤度比,改良Dice係数\cite{kitamura97},Yates補正された$\chi^2$,の五つの尺度について,過分割の検出精度を比較した.ここで,尤度比,改良Dice係数,Yates補正された$\chi^2$は,\cite{hisamitsu97}において,有用な括弧表現を抽出するために有効であるとされた尺度である.また,尤度比は,\cite{kageura97}でも,2文字間の連関の尺度として,漢字列の分割に有効であることが示されている.以下では,まず,本実験のテストコーパスとした京大コーパスBについて,そこでの分割点の出現頻度の統計について述べる.この出現統計は,あとで,各尺度間の過分割検出精度の違いを説明するときの資料に用いる.次に,各尺度を定義し比較する.\subsubsection*{テストコーパスにおける分割点の出現統計}形態素$A$の最後の文字を$a$,形態素$B$の最初の文字を$b$とし,$a$と$b$に挟まれるような分割点を,前後1文字で区別される分割点と呼ぶ.実験3では,分割点といえば,前後1文字で区別される分割点のこととする.つまり,「ab/cd」と「xb/cy」のような分割点は,分割点の前後1文字が同じであるので,区別しないで同一タイプの分割点として扱う.表\ref{tab:freq}は,テストコーパスとした京大コーパスBにおける分割点について,過分割である分割点とそうでない分割点のそれぞれに対して,出現頻度ごとの,分割点の異なり数などを調べたものである.ここで,分割点の総数を$F$,頻度$r$における分割点の異なり数を$k_r$とすると,頻度$r$における延べ数は$f_r=r\timesk_r$であり,$F=\sum_rf_r$である.表\ref{tab:freq}では,頻度$r$における「延べ%」は$100\timesf_r/F$であり,「累積%」は$\sum_{s=1}^{r}100\timesf_s/F$である.\begin{table}[htbp]\begin{center}\caption{京大コーパスBにおける分割点の出現統計}\begin{tabular}{|c||ccc|ccc|}\hline&\multicolumn{3}{c|}{過分割である分割点}&\multicolumn{3}{c|}{過分割でない分割点}\\\cline{2-7}\raisebox{1.5ex}[0pt]{頻度}&異なり数&延べ%&累積%&異なり数&延べ%&累積%\\\hline1&645&52.4&52.4&24180&10.4&10.4\\2&104&16.9&69.2&7187&6.2&16.6\\3&29&7.1&76.3&3579&4.6&21.3\\4&11&3.6&79.9&2133&3.7&24.9\\5&9&3.7&83.5&1413&3.0&28.0\\6&5&2.4&86.0&1062&2.7&30.7\\7&2&1.1&87.1&764&2.3&33.0\\8&3&1.9&89.0&644&2.2&35.3\\9&1&0.7&89.8&496&1.9&37.2\\10&1&0.8&90.6&411&1.8&39.0\\\hline11以上&8&9.4&100.0&3586&61.0&100.0\\\hline\end{tabular}\label{tab:freq}\end{center}\end{table}表\ref{tab:freq}から,過分割である分割点の出現頻度は,そうでない場合に比べて,低頻度であると言える.これは,過分割である分割点の数自体が少ないことが主な原因である.また,過分割である場合とそうでない場合の分布の様子を比べると,過分割である分割点の場合には,頻度が1か2であるような場合が全体の50%以上を占めていることから分かるように,低頻度の方に分布が偏っている.\subsubsection*{各尺度の定義}まず,$n=2$として,(\ref{eq:n})式を用いて,(\ref{eq:L})式を変形すると,\begin{equation}\label{eq:Ln2}L(A,B)=\log\frac{\Pr(a_k,b_1)}{\Pr(a_k,\E)\Pr(\B,b_1)}\end{equation}となる.一方,(\ref{eq:mi})式を同様に変形すると\begin{displaymath}MI(A,B)=\log\frac{\Pr(\E,\B)}{\Pr(\E)\Pr(\B)}\end{displaymath}という無意味な値になるので,区切り文字とそれに隣接する文字は特に強く結合すると仮定し,\begin{displaymath}\Pr(\B,c_1,\ldots,c_k,\E)=\Pr(\B,c_1)\Pr(c_2|\B,c_1)\cdots\Pr(\E,c_k|c_{k-1})\end{displaymath}のような変形をすると,\begin{equation}\label{eq:MIn2}MI(A,B)=\log\frac{\Pr(a_k,\E,\B,b_1)}{\Pr(a_k,\E)\Pr(\B,b_1)}\end{equation}となる.なお,以下では,$a=a_k$,$b=b_1$とする.(\ref{eq:MIn2})式から,$n=2$においては,相互情報量$MI(A,B)$は,$a\E$と$\Bb$をそれぞれ一つの項と看做せば,この2項に関する通常の相互情報量の式と一致することがわかる.そこで,尤度比,改良Dice係数,Yates補正された$\chi^2$についても,これら2項に基づいて,その値を計算する.以下では,\cite{hisamitsu97}に基づいて,尤度比,改良Dice係数,Yates補正された$\chi^2$を定義する.また,尺度$L$と相互情報量についても,確率を最尤推定した形で定義する.各尺度を定義する準備として,まず,$f_{ij}(i,j=1,2)$は,分割表で示すと\begin{quote}\begin{tabular}{|l|c|c|}\hline&後続文字が$\Bb$&後続文字が$\Bb$以外\\\hline先行文字が$a\E$&$f_{11}$&$f_{12}$\\\hline先行文字が$a\E$以外&$f_{21}$&$f_{22}$\\\hline\end{tabular}\end{quote}である.より厳密には,$f(\cdots)$を文字列の頻度とし,$v,w,x,y$を,$\B$と$\E$を含む任意の文字としたとき,\begin{displaymath}\begin{array}{rcl}f_{11}&=&f(a,\E,\B,b)\\f_{12}&=&\sum_{xy\ne\Bb}f(a,\E,x,y)\\f_{21}&=&\sum_{vw\nea\E}f(v,w,\B,b)\\f_{22}&=&\sum_{vwxy}f(v,w,x,y)-f_{11}-f_{12}-f_{21}\end{array}\end{displaymath}である.また,\begin{displaymath}\begin{array}{rcl}f_{i.}&=&f_{i1}+f_{i2}\\f_{.j}&=&f_{1j}+f_{2j}\\F&=&\sum_{i,j}f_{ij}\end{array}\end{displaymath}である.\paragraph{尤度比}ここでの「尤度比」は,$a\E$と$\Bb$の2項が従属とした場合と独立とした場合との最尤推定量による尤度比であり,\begin{equation}\label{eq:lambda}\lambda=2\sum_{i,j}f_{ij}\left\{\log\frac{f_{ij}}{F}-\log\frac{f_{i.}f_{.j}}{F^2}\right\}\end{equation}である.なお,上式では,分割点のソートに無関係な項は除いてある.$\lambda$は,2項が従属して生起する度合が強いとき,正で大きな値をとる.しかし,これだけでは必ずしも共起強度が強いとは言えない.たとえば,\begin{tabular}{|l|l|}\hline10&1\\\hline1&10\\\hline\end{tabular}と\begin{tabular}{|l|l|}\hline1&10\\\hline10&1\\\hline\end{tabular}は同じ$\lambda$となる.これらのうち前者は共起強度が強いが,後者は弱い(反発している).このことを考慮して,$\lambda>0$のときには,\cite{kageura97}と同様に,Yuleの$Y(=\frac{\sqrt{f_{11}f_{22}}-\sqrt{f_{12}f_{21}}}{\sqrt{f_{11}f_{22}}+\sqrt{f_{12}f_{21}}})$の符合を付けることにより,分割点をソートした.\paragraph{Yates補正された$\chi^2$}$\lambda$と同様に独立性の判定に用いられる尺度である.\begin{equation}\label{eq:chi2}\chi^2=\frac{F(|f_{11}f_{22}-f_{12}f_{21}|-F/2)^2}{f_{1.}f_{2.}f_{.1}f_{.2}}\end{equation}なお,$\chi^2$に関しても,$\lambda$と同様な理由から,Yuleの$Y$の符合を付けて分割点をソートした.\paragraph{改良Dice係数}\cite{kitamura97}で,対訳単語間の類似度として,提案されている尺度である.\begin{equation}\label{eq:dice}\mbox{改良Dice係数}=(\logf_{11})\frac{2f_{11}}{f_{1.}+f_{.1}}.\end{equation}\paragraph{相互情報量}(\ref{eq:MIn2})式より,分割点のソートに無関係な項は除くと,\begin{equation}\label{eq:mi2}MI^\prime=\log\frac{f_{11}}{f_{1.}f_{.1}}.\end{equation}\paragraph{尺度$L$}(\ref{eq:Ln2})式より,分割点のソートに無関係な項は除くと,\begin{equation}\label{eq:L2}L^\prime=\log\frac{f(a,b)}{f_{1.}f_{.1}}\end{equation}ここで,上記の各尺度について,もし,$f_{ij}=0$,あるいは,$f(a,b)=0$となる場合には,それぞれを0.1として計算した.\subsubsection*{教師なし学習の場合での各尺度の比較}各尺度について,JUMANにより形態素解析された京大コーパスBを訓練およびテストコーパスとして,過分割の再現率に対する分割点調査率を評価した結果を図\ref{fig:unsup-cmp}に示す.図\ref{fig:unsup-cmp}から分るように,改良Dice係数(Dice),$\lambda$(lambda),$\chi^2$(chi^2)の分割点調査率は,$L^\prime$や$MI^\prime$と比べて大きい.すなわち,過分割検出精度は低い.この原因は,これらの尺度が,統計的に有意と言えないような低頻度の共起関係をノイズとして排除するような尺度であるからである.すなわち,頻度が1とか2とかの共起関係の尺度値は,これらの尺度では大きくならない\footnote{特に,改良Dice係数では,頻度が1の共起関係については,値が0となる}ため,(表\ref{tab:freq}に示されるように)低頻度である過分割が排除されるためである.このような性質は,\cite{hisamitsu97}や\cite{kageura97}や\cite{kitamura97}のような,一般的に共起強度が高い共起関係を必要とするような応用に対しては適していたが,低頻度事象である過分割を検出するには適さない.一方,$MI^\prime$の過分割検出精度は,再現率50%程度のところまでは,$L^\prime$とほぼ同じである(実際には若干低い).これは,$MI^\prime$が低頻度の共起関係を過大評価する\cite{hisamitsu97}からであろう.つまり,再現率が低いところでは,低頻度で,かつ,共起強度の強い表現を選択的に拾ってくるが,そのようなものは過分割であることが多いため,検出精度が高いと解釈できる.しかし,再現率が上ってくると,比較的頻度が高い過分割も増えてくるため,共起強度だけでは,過分割なのか,そうでない分割かが区別できなくなり,検出精度が下がると言える.これらの尺度に対して,$L^\prime$は,分割されるか分割されないかを直接モデル化した尺度であるため,再現率が高くなっても検出精度が高いものと考える.\begin{figure}[htbp]\begin{center}\vspace{4mm}\epsfile{file=measure-exam.eps}\vspace{1mm}\caption{過分割の再現率と分割点調査率(教師なし学習)}\label{fig:unsup-cmp}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\vspace{3mm}\epsfile{file=sup-measure-exam.eps}\vspace{1mm}\caption{過分割の再現率と分割点調査率(教師あり学習)}\label{fig:sup-cmp}\end{center}\end{figure}\vspace{-3mm}なお,筆者は,予備実験として,相互情報量とYate補正した$\chi^{2}$を,隣接する形態素間について,(文字ではなく)形態素を単位とする2項関係に基づいて計算してみたが,その性質は尺度$L$とは非常に異なっていた.相互情報量の性質とYate補正した$\chi^{2}$の性質とは,互いに若干は異なるが,おおまかには,二つの尺度とも,固有名詞(「福沢/諭吉」など)や四字熟語(「不眠/不休」など)を取ってくる傾向が強かった.これらの隣接形態素は,それ自体は有用な表現ではあるが,これらの隣接形態素間の分割が間違っているわけではないので,本稿での目的である過分割の検出には適さない.その他,共起や定型表現を抽出する研究として,特に文字列レベルに関係するものでは,\cite[など]{shiNnou95,ikehara95,shimohata95}がある.これらの研究では,大量の生テキストコーパスから,統計量を用いることにより,「に関して」や「に対しては」などの定型的な表現を抽出する.これらの表現は有用な表現ではあるが,「に対して」を「に/対/し/て」と分割しても,過分割ではないことからも分るように,これらの手法は,本稿での目的である過分割の検出には適さない.\subsubsection*{教師あり学習の場合での各尺度の比較}各尺度に対して,京大コーパスAの元々の分割を訓練コーパス,京大コーパスBをテストコーパスとして,過分割の再現率に対する分割点率調査を評価した結果を図\ref{fig:sup-cmp}に示す.図\ref{fig:sup-cmp}では,図\ref{fig:unsup-cmp}と同様に尺度$L$の分割点調査率が一番小さい.そして,図\ref{fig:sup-cmp}と図\ref{fig:unsup-cmp}を比べると,尺度$L$については,図\ref{fig:sup-cmp}の教師あり学習の方が図\ref{fig:unsup-cmp}の教師なし学習の場合よりも分割点調査率が小さい.一方,尺度$L$以外の尺度については,教師あり学習の方が分割点調査率は大きくなっている.これは,教師あり学習の場合の方が,教師なし学習の場合よりも,テストコーパスにおいて,過分割の前後の文字の共起強度が小さいことを示している.この理由は,教師あり学習においては,訓練コーパスで過分割であるような分割点が人手により除かれているため,テストコーパスで過分割であるような分割点は訓練コーパスで出現することが稀となり,その結果,共起強度が小さくなるからである.このことから,尺度$L$以外の尺度については,教師あり学習をしても過分割検出精度が高くならないことが分かる. \section{考察と今後の課題} \label{sec:discussion}\subsubsection*{確率推定法と尺度$L$}本稿の実験では,(\ref{eq:n})式の確率を推定するために,\ref{sec:overview}節に述べたような$n$の値と確率推定法を用いたが,確率推定の方法には,最尤推定やバックオフスムージングの他にも様々な方法があり,さらに,バックオフスムージングについても様々なdiscountingの方法があるので,これらを適用した場合の尺度$L$の過分割検出精度について網羅的に調べることを今後の課題としたい.本稿でこのことを網羅的に調べなかった理由は,本稿での主要な目的は,\ref{sec:introduction}章で述べたように,従来の研究で人手で発見されることが前提となっていた過分割を,尺度$L$を用いることにより半自動的に抽出できることを示すことにあったので,そのことを示すためには,なんらかの(代表的な)確率推定法を利用した場合について示すだけで十分であったからである.すなわち,確率推定法の優劣(尺度$L$と併用したときの過分割検出精度の良否)を調べることは副次的な事柄であったからである.なお,予備実験として,京大コーパスを利用し,\begin{itemize}\itemn=2,または,n=3\itemWitten-Belldiscountingによるバックオフスムージング,または,最尤推定\end{itemize}から作られる四つの組合せのそれぞれについて(\ref{eq:n})式の確率を推定し,尺度$L$による分割点調査率を調べた結果は,教師あり学習と教師なし学習の双方について,$n=2$に最尤推定を組み合わせたものと$n=3$にバックオフスムージングを組み合わせたものとがほぼ等しく良く(教師なし学習では前者が若干良く,教師あり学習では後者が若干良い),その他の組み合わせ($n=3$と最尤推定および$n=2$とバックオフスムージング)は,この二つよりも劣っていた.このような結果の原因としては,$n$や確率推定法の違いの他に,訓練データのサイズが約1万文と比較的少ないことが影響していると考えられる.\subsubsection*{確率に基づく形態素解析システムへの適用}確率に基づいた形態素解析システム(あるいは単語分割システム)には,文字の連鎖確率に基づいたシステム\cite{yamamoto97,oda98}と単語や品詞の連鎖確率に基づいたシステム\cite[など]{nagata94,itoh97,mori98}がある.\cite{yamamoto97,oda98}では,本稿とは実現手法は異なるが,形態素境界の情報を文字に取り込むことにより,文字列により形態素列を表現している.そして,入力文に対して,(形態素境界情報を含む)文字の連鎖確率が最大になるような解を求めることにより,最適な形態素列を得ている.一方,\cite[など]{nagata94,itoh97,mori98}では,単語や品詞n-gramに基づいて形態素解析をしており,文字情報を直接用いているのは未知語モデルに限定されている.これらの形態素解析システムの解析結果からも尺度$L$が過分割を検出できるかを調べることは今後の課題であるが,\cite{yamamoto97,oda98}と\cite[など]{nagata94,itoh97,mori98}を比べた場合,前者は,文字の連鎖確率を直接用いて形態素列への分割を行なっている点が,尺度$L$と極めて類似しているため,前者に尺度$L$を適用した場合の過分割検出精度は,(文字レベルでの分割の最適化を行なっていない)後者に適用した場合と比較して劣ることが予想される.しかし,\cite[など]{nagata94,itoh97,mori98}の品詞や単語のn-gramに基づくシステムに尺度$L$を適用した場合についても,規則に基づく形態素解析システムに比較すれば,最適な形態素列を求めるときに,可能な分割を相互に比較し最高確率のものを出すという形で,尺度$L$に用いた情報が既に用いられているとも言えるため,尺度$L$の有効性は低いと予想される.\subsubsection*{分割不足の検出}筆者は,予備実験として,実験1,2と同様の確率推定法で,JUMANにより解析された京大コーパスB全体を訓練およびテストコーパスとして,教師なし学習での確率推定値を用い,尺度$L$により分割不足の検出を試みた.つまり,尺度$L$の値が小さい位置が形態素として結合されている場合について,それが実際に分割不足かを確かめた.その結果は,分割不足の再現率が10%の時点で,既に適合率が4%であり,実験2における,再現率が10%のときの適合率が47%と比べて非常に劣っていた.その理由の一つは,形態素解析システム中の形態素に比較的長い単位が多く,かつ,分割不足として抽出されたものの多くが,その長い単位の形態素を短い単位に分割しようとしているためである.たとえば,分割不足として抽出されたものの上位には,'/'が候補位置とすると,「穴を/あけた」「目を/見張る」「あっという/間」などがある.このような場合と,明確に間違いである分割不足とを区別することは尺度$L$には不可能なので,尺度$L$により分割不足を検出するのは,過分割の場合ほどには上手くいかない. \section{おわりに} \label{sec:conclusion}本稿では,形態素解析結果から過分割を検出する統計的尺度を提案した.その尺度は,文字列に関する尺度であり,文字列が分割される確率と分割されない確率との比に基づいていて,分割されにくい文字列ほど大きな値となる.したがって,この値が大きい文字列は過分割されている可能性が高い.提案尺度を使うことにより,規則に基づいた形態素解析システムの解析結果から高精度で過分割を検出できたし,人手で修正されたコーパスに残る過分割も検出できた.また,提案尺度の過分割検出精度は,その他の統計的尺度と比べて高かった.これらのことは,提案尺度が,形態素解析システムの高精度化に役立つこと,及び,コーパス作成・整備の補助ツールとして役立つことを示している.今後は,提案尺度を実際に使い,形態素解析システムの精度向上やコーパスの整備に役立てたい.\acknowledgment本稿に対して有益なコメントを下さった筑波大学山本幹雄助教授,および,日頃議論して下さる信州大学音声信号処理研究室の各位に感謝する.本稿では,一般に公開されている,JUMAN,茶筌,すもも,京都大学テキストコーパス,CMU-CambridgeToolkitを利用させていただいた.このことに対して関係者の方々に感謝する.\appendix\input{tab2-short_2.tex}\bibliographystyle{jnlpbbl}\bibliography{v06n7_01}\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).博士(工学).}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V25N01-05
\section{はじめに} \label{intro}医療現場で生成される多様なデータ(以下,\textbf{医療データ}と呼ぶ)の大部分は自然言語文であり,今後もその状況はただちに変わりそうにない.医療データの利活用としては,診療への応用,もしくは学術研究や政策への応用が挙げられるが,現在,盛んに医療データの利活用の重要性が叫ばれているのは,後者の二次利用である\cite{研究開発の俯瞰報告書2017}.二次利用されることが期待される医療データとしては,\textbf{健診データ}や\textbf{診療報酬データ}がある.健診データは健康診断の際に作成されるデータであり,検査名と検査値から構成される.健診データは受診者が多く,組織で一括して収集されるため,大規模な医療データとしてよく用いられる.一方,診療報酬データは医療費の算定のために用いられるデータであり,医療行為がコード化されたものである.このデータは厚生労働省が収集し管理するため,同じく大規模な医療データとしてよく用いられる.両データは,数値やコードから構成される構造化されたデータのためコンピュータでの扱いは容易であるが,詳細な情報が含まれていないことが解析の限界となっていた.そこで,より詳細な情報が含まれる\textbf{診療録},\textbf{退院サマリ},\textbf{症例報告}といったテキスト化された医療データの活用に注目が集まっている.診療録とは,病院において患者が受診した際や入院時の回診の際に記述されるテキストであり,詳細な患者情報が記述される.また,退院サマリとは,退院時に記述される情報であり,入院中の診療録の要約である.症例報告も退院サマリと同じく入院時の要約であるが,学会に報告されるものである.他にも,病院内にはテキスト化された医療データが存在しており,本稿ではこれらのテキスト化された医療データ全般を指し,\textbf{電子カルテ}と呼ぶ.電子カルテは,自然言語文が中心となる非構造データであるため,扱いは困難であるが,詳細な情報が記述されており,その量は年々増加しつつある.この動きは,1999年に医療データであっても,一定の基準を満たした電子媒体への保存であれば,記録として認められる,という法改正が行われて以降,特に急速に進展した.2008年には,400床以上の大規模病院で14.2\%,一般診療所で14.7\%であった電子化率は,2014年には,400床以上の大規模病院で34.2\%,一般診療所で35.0\%と倍以上に増加している\footnote{厚生労働省医療施設調査より(http://www.mhlw.go.jp/toukei/list/79-1.html)}.このまま増加すれば,ほとんどの病院で電子カルテが用いられるであろう.電子化の第一の目的は,病院の運営の効率化によるコスト削減であるが,副次的な利用法として,これまで膨大な労力をかけて行われてきた調査への応用が期待されている.例えば,医薬品の安全に関わる情報や疫学的情報の収集をより大規模かつ容易に実行可能にしたり,これまで不可能であった医療情報サービスも構築可能にすると期待されている.しかし,このような期待は高まるものの,具体的な成功事例は乏しい.これは,電子カルテに多く含まれる自然言語文の扱いが困難であることが原因で,電子カルテの情報を最大限に活用するには自然言語処理が必須となる.本研究では病名のアノテーション基準を提案し,45,000例もの症例報告を材料としてアノテーションを行う.このアノテーションでは,症例報告の対象患者の疾患や症状についての情報を整理することを目指し,単に病名のみをマークするだけでなく,症状が患者に発生しているかどうかの区別まで行う.海外では,医療分野における同様のコーパスは政府の協力のもと開発,公開がされているが,日本では公開された大規模コーパスは存在せず,コーパスの仕様についても十分な資料がなかった.本稿では,日本で初となる大規模な医療分野のコーパス開発の詳細について述べる.本研究が提案するアノテーションは,症例報告のみならず,さまざまな医療テキストへ利用可能である汎用的なものである.また,これが実行可能なアノテーションであることを示すために,複数のアノテーター間における一致率やその問題点などの指標を示し,フィージビリティの検討を行った.最後に,病名アノテーションを利用して構築した病名抽出器についても紹介する.本コーパスの特徴は,以下の2点である.\begin{enumerate}\item従来,小規模な模擬データが配布されるにとどまっていた利用可能な医療分野のコーパス\cite{mednlp10,mednlp11,mednlp12}と比較し,約45,000テキストという大規模なデータを構築した点.\item単に用語の範囲をアノテーションしただけでなく,用語で示された症状が実際に患者に生じたかどうかという\textbf{事実性}をアノテーションした点.\end{enumerate}特に,症状の事実性を記述することは応用を考えると重要である.例えば,以下のような2つの応用システムを用いたシナリオを想定できる.\begin{description}\item[【医薬品副作用調査シナリオ】]ある医薬品Aと医薬品Bがどれくらい副作用を起こすかを比較したいとする.この場合,医薬品Aと医薬品Bで検索して得られたテキストセットAとテキストセットBをつくり,それぞれに出現する副作用と関連した病名の頻度を比較すればよい.だが,これを実際に行うと,「副作用による軽度の\textless\texttt{P}\textgreater咳嗽\ignorespaces\textless\texttt{/P}\textgreaterは認めたが、\textless\texttt{N}\textgreater間質性肺炎\ignorespaces\textless\texttt{/N}\textgreaterは認めなかった。」\footnote{\textless\texttt{P}\textgreaterで示した病名は事実性のあるもの,\textless\texttt{N}\textgreaterで示した病名は事実性のないものを表す.詳しくは4.2節.}といったように,想定はされるが実際には起こっていない副作用も記述される.よって,事実性を判定する必要が生じる.\item[【診断支援シナリオ】]診断を行う際には,ガイドラインに沿って症状の有無を調べ,合致する診断を下す.これはフローチャートになっており,例えば,意識消失,痙攣あり,嘔吐あり,発熱ありの際に考えられる症状には心筋炎,脳梗塞,脳炎など曖昧性があるが,ここで血液検査を行って炎症所見のない場合は心筋炎が除外される.このような場合,診断がガイドラインに沿っていることを明確にするために,事実性のない症状についても記述される(この例では「炎症所見なし」).よって,診断支援のデータとして用いる場合には,事実性を判定する必要が生じる.\end{description}本研究の貢献は以下の通りである.\begin{enumerate}\item医療テキストへのアノテーションについての詳細な仕様を示した.\item実際にアノテーションした結果について,一致率や問題点などのフィージビリティを議論した.\item本研究で構築したコーパスを用いて病名抽出器を構築し,アノテーションの妥当性を検証した.\end{enumerate}\vspace{1\Cvs} \section{関連研究} 海外でも電子カルテに自由記載された自然言語文からどのように有益な情報を抽出するかについて関心が高まっていた.このため,2006年からNIH(NationalInstitutesofHealth)のサポートで開始されたi2b2NLPChallenge\cite{i2b2}というワークショップにより,様々なコーパスのリリースが行われている.i2b2NLPでは,退院サマリを利用してコーパスが構築されており,これは,筆者らの知る限り,医療分野のコーパスを最初に公開したワークショップである.その後,日本語ワークショップのMedNLP\cite{mednlp10,mednlp11,mednlp12}やヨーロッパでのCLEFe-Health\cite{CLEF2014}など,i2b2NLPの仕様を参考にしたコーパス開発が行われているが,いずれも小規模なものに留まっている.例えば,MedNLPで扱われたコーパスの一部は,言語資源協会(GSK)により「GSK2012-D模擬診療録テキスト・データ」として公開されている\footnote{http://www.gsk.or.jp/catalog/gsk2012-d/}が,わずか20件にすぎない.また,本研究でも利用する医学オントロジーであるICD-10\footnote{ICDとは,世界保健機関(WHO)による,疾病及び関連保健問題の国際統計分類(InternationalStatisticalClassificationofDiseasesandRelatedHealthProblems)の略称であり,世界中で集計された死亡や疾病のデータに基づく分類体系である.ICDにはいくつかのバリエーションがあり,日本ではICD-10が用いられている.詳しくは\ref{ICD-10}節を参照.}と,自然言語文に含まれる疾患名や症状名を対応させるための辞書は,これまでにも何度か作成が試みられている\cite{Fabry2003,ICDyamada,Bouchet1998}.しかし,これらの研究は病名辞書を記述することに終始しており,電子カルテ内の文脈がもつ情報が失われている.本研究では,コーパス中に出現する病名に対してアノテーションすることで,文脈も含んだ形で利用可能なリソースの構築を目指す.本研究は,大規模な日本語の医療コーパスを構築する初めての試みである.これまでにも医療コーパスを用いた研究はあったが,その仕様の詳細については明らかにされておらず,全体像がつかめないのが実情であった.本稿では,今後同様のアノテーションにおいて指針となるように,アノテーションの仕様を実際にコーパスが構築可能な程度の粒度で紹介する. \section{コーパス構築の全体像} \subsection{材料}\label{samari}本研究で扱う電子カルテは\textbf{症例報告}といわれるテキストである(表\ref{shorei}).症例報告とは,学会に提出される患者情報の要約である.症例報告には,患者の診断名・転帰,入院時の症状および所見,治療後の経過などが簡潔に記述され,医師の教育や,類似した症例の参考のために参照される.このため,症例報告は患者に相対して記述する診療録よりも高い可読性で記述される傾向にある.症例報告は学会への報告であるため,記録先は異なるが,入院時の患者の要約であるという点で退院サマリ(図\ref{ehr03})と類似しており,症例報告のアノテーションの枠組みを退院サマリに転移することが可能である.\begin{table}[t]\caption{症例報告「頚部硬膜外血腫を合併した特発性血小板減少性紫斑病」の例}\label{shorei}\input{05table01.txt}\end{table}本コーパスの材料となったテキストは日本内科学会に報告された44,761の症例報告\footnote{この段階ではコーパスから除外する複数症例についての報告(3.2節参照)も含まれているため,完成後のコーパスの症例報告件数とは一致しないことに注意.}である.これは,2004年以降に報告された全症例であり,11,866施設,26,235人の医師からなる.また,これらがカバーする診療科は内科全領域である.症例報告が対象としている分野と,各分野における報告数を表\ref{field}に示す.なお,日本内科学会の会員は学会ホームページ\footnote{http://www.naika.or.jp/}を通じて本コーパスのデータを検索,閲覧可能である.また,本コーパスの研究利用についてはウェブサイト\footnote{http://mednlp.jp/}にて,利用に関しての最新情報を参照可能なようにしている.\subsection{除外データ:複数症例を扱った記録}症例報告の中には,ある症状について,1つの病院で観察された複数の患者のことをまとめて報告したものや特定の病気に対し特定の治療法が有効であるかどうかを複数の事例から考察したものが含まれている.このような報告においては,患者1人1人についての記述が少なく,記述されている情報がどの患者に当てはまるものであるかを判断することが難しい場合が多々ある.そのため,特定の患者1名に関する報告のみをアノテーションの対象とすることとした.\subsection{アノテーションの流れ}\label{flow}電子カルテには専門用語が多く含まれており,正確なデータ整理のためには医学知識が必須となる.例えば,「DICあり」という表現に含まれる「DIC」が「播種性血管内凝固」という疾患を指すといった判断は,医師や看護師,医療事務員といった医療関係者(以降,\textbf{医療従事者})以外の者(以降,\textbf{非医療従事者})にとっては容易ではないため,本来はすべての作業を医療従事者によって行うのが理想的である.しかし,それはコスト的にも人材的にも非常に困難である.最も人数が多い医療従事者は看護師であるが,慢性的に人手不足であり,また,雇用単価も高い(時給換算で2,000円〜2,300円).そもそも,看護師の本来の職務はアノテーションの作業と大きく乖離しており,熱意を持ってアノテーションに従事可能な人材の確保は容易でない.\begin{figure}[p]\begin{center}\includegraphics{25-1ia5f1.eps}\end{center}\caption{退院サマリの例(GSK2012-D模擬診療録テキスト・データから抜粋)}\label{ehr03}\end{figure}\begin{table}[p]\caption{症例報告の対象分野と各分野における報告数}\label{field}\input{05table02.txt}\end{table}そこで,本研究では,データ整理の作業に熟練し,かつ,事務作業とも親和性の高い,医療事務員の経験者を中心に雇用し,コーパスの構築を行う.ただし,医療事務員は看護師や検査技師などの他の医療従事者と比較し,そもそも人数が多くない.そこで,アノテーションのプロセスを医療事務経験者でなくとも従事可能な部分と,医療事務経験者が必要な部分という以下の2つに分けた.\eenumsentence{\label{process}\item\textbf{病名タグ付け}\\医学知識を用いず,非医療従事者が病名だと判断したもの全てにタグを付与する.\item\textbf{病名コーディング}\\上記(\ref{process}a)のプロセスでタグ付けされた表現のうち,頻度の高いものから順に医療従事者が医学知識を用いて,病名であるか否かを判断し,病名である場合は後述するICDコードを付与する.}本稿では,病名の範囲の同定(1a)を{\bfタグ付け},病名の分類(1b)を{\bfコーディング}と呼び,(1a)タグ付けと(1b)コーディングの両方を含む作業を{\bfアノテーション}と呼ぶことにする.なお,作業の効率化を測るため,予め非医療従事者によってタグ付けがなされた少数のデータを教師データとして,機械学習によって自動で全てのデータにタグ付けしたデータ(以降,\textbf{自動タグ付けデータ})を作成し,(\ref{process})の両プロセスにこのデータを利用している.具体的には,(\ref{process}a)の作業は,自動タグ付けデータをアノテーターが修正(タグの追加・削除)する形で行う.また,(\ref{process}b)の作業においては,(\ref{process}a)のプロセスが完了するよりも前に,自動タグ付けデータにおける頻度に基づいてコーディングを行い,(\ref{process})の作業が完了次第,自動タグ付けデータからは収集することができなかった表現に対して,(\ref{process}b)のコーディング作業を行う.\subsection{ICD-10}\label{ICD-10}ICD\cite{ICD10}とは疾病及び関連保健問題の国際統計分類(InternationalStatisticalClassificationofDiseasesandRelatedHealthProblems)の略であり,世界中で集計された死亡や疾病のデータの体系的な記録,分析,解釈および比較を行うため,世界保健機関憲章に基づき,世界保健機関(WHO)が作成したオントロジー的な性質を持つ分類体系である.ICDには各国の事情を反映したバリエーションがあり,例えば米国ではICD-9-CM,オーストラリアではICD-9-AM,日本ではICD-10が用いられている.ICD-10は,アルファベット1桁と数字2〜4桁の組み合わせによって表記され,この表記は{\bfコード}(または\textbf{ICDコード})と呼ばれる.それぞれのコードには,体系的に分類された疾病や死因の概念が対応づけられている.また,実際の電子カルテ内に現れる疾病や病名などを表す表現に対して,コードを割り当てる行為は{\bfコーディング(ICDコーディング)}と呼ばれる.一般の計算機科学で用いられる,プログラムを構築する意味でのコーディングとは異なるので注意されたい.コードは表\ref{tabICD}のような階層構造を持つ.コードの最初のアルファベット({\bf軸}と呼ばれることもある)は,感染症や新生物(がん)などの全身症(A--E),循環器や消化器系疾患など(F--N),奇形や新生児疾患(O--Q),症状や兆候(R),障害(S--T),傷病(V--Y)などの分類記号となっている.さらに,次桁からの数字で詳細な部位などが示される.例えば,「右上肺葉がん」はC341に分類されるが,最初の3桁のC34が「気管支および肺の悪性腫瘍」を示し,最後の1が上肺を示している.ただし,コードに左右の区別はなく,右肺に生じた疾患であるということはC341というコードから判別することはできない.\begin{table}[t]\caption{ICD-10の概要}\label{tabICD}\input{05table03.txt}\end{table}なお,本コーパスの規模としては,56万の病名の出現(TOKEN)を収載し,異なり病名としては19,000種類の病名(TYPE)をカバーしている.これをICD-10コードの種類にまとめると2,260コードとなる.なお,ICD-10は全体として膨大な体系であり,実際には頻出しない病名や日本では存在しない病名も含めると,数万規模の体系となっている.実際に日本で一般的に用いられているICD-10コードの数は約4,900であり\footnote{https://www.medis.or.jp},本コーパスはこのうち約半分(2,260コード)をカバーしていることになる. \section{病名タグ付け} \subsection{病名タグ付けの指針}\label{annoaim}病名タグ付けは,症例報告に含まれる病名にタグを付与する作業である.しかし,\ref{flow}節で述べた通り医療従事者の確保は容易ではないことから,この作業は特に医療やその他の学術的知識を持たない作業者にも可能なように基準を設定した.また,実際に作業を行ったのは,2017年7月現在で医療従事者・非医療従事者を共に含む10名である.以下では,タグ付けの指針や基準の詳細,および作業結果の一致率について述べる.病名タグ付けは,以下の3つの指針に基づいて行った.\subsubsection*{(I)非医療従事者がタグ付け対象の言語的単位を判断しやすい基準を設ける}症例報告においては,同一の症状・疾患の記述であっても,医師によって様々な表現の仕方が用いられる.特に,複数の形態素によって特定の症状・疾患を表している場合,非医療従事者がタグ付けの範囲を決定することが困難である場合が多い.そこで,タグ付けに際しては医療的知識を用いることなく,言語的な情報からタグ付けの有無や範囲の決定を行うことができる基準を設ける.\subsubsection*{(II)病名コードを付与できる可能性を持つ表現を最大限抽出するための基準を設ける}本コーパスは,ICDコードに基づいて,複数の表現がなされている病名を標準化することを目指している.しかし,タグ付けを行う非医療従事者はICDコードに関する知識を有していないため,データ中に見られる症状のどれがICDコードを持っているのかを判断をすることが難しい.そこで,ICDコードが付与される可能性を持つ表現を最大限抽出するための基準を設ける.\subsubsection*{(III)症例報告の患者に関する情報(事実性)を整理する}\ref{intro}節で述べた通り,本研究は症例報告の対象患者の疾患や症状の情報について整理することを目的としている.しかし,実際の症例報告には,患者による罹患が実際に確認された病名だけではなく,存在が否定された病名や施設名等に含まれる病名,さらに特定の症例報告のレベルではなく一般論のレベルで登場する病名も多い.例えば,表\ref{shorei}の症例報告では,実際の患者に生じた症状ではなく,医学的な知識として「ITPは時に重篤な深部出血をきたす」といった記述がなされている.そこで,病名アノテーションにおいては,患者に実際に確認された病名と,そうではない病名を区別し,それぞれに対応するタグを設ける.以下では,上記の指針に基づき行った実際のタグ付け作業の詳細を述べる.\subsection{タグの種類}\label{tagtype}指針(III)に則り,本コーパスで用いるタグは次の3種とする.\eenumsentence{\item\textbf{陽性タグ(Pタグ:\ps~...~\pe)}~\\患者に関する症状,疾患名で実際に罹患が認められたもの,あるいは疑われたものに対してPタグを付与する.\item\textbf{陰性タグ(Nタグ:\ns~...~\ne)}~\\患者に関する症状,疾患名で罹患が否定されたものに対してNタグを付与する.\item\textbf{スキップタグ(SKIPタグ:\sk...)}~\\各データ末尾の一般論にはPタグ,Nタグを付さず,直前にSKIPタグを付すことで,以降のテキストはタグ付け対象外とすることを明示する.Pタグ,Nタグと異なり,終了タグは付与しない.なお,一般論であっても,データの末尾以外にある場合にはSKIPタグを付与せず,Nタグを付与する.}\noindent症例報告において,一般論はテキスト末尾に考察として記述される場合が多く,考察部分はそれ以前の具体的な症例報告とは性質が異なる.そこで,テキスト末尾に登場する一般論はSKIPタグによって区別し,本コーパスからは除外する.なお,テキスト末尾以外に登場する一般論に関しては,Nタグを付与することで患者が実際に罹患した病気と区別する.これらのタグの種類の決定方法については,\ref{tagdecision}節にて例とともに詳細を述べる.先行研究においては,Nタグの内容を区別するものも存在する.例えば,\cite{Aramaki2009text2table}では,「疑い」,「必要」,「可能性」,「否定」,「延期」,「予定」,「希望」,「勧める」,「方針」といった細かい区別を用いていた.また,NTCIRのMedNLP2タスクでは,「否定」,「疑い」,「家族歴」を区別していた.しかし,場合によってはこの区別が困難な場合がある.さらに,今回対象とするコーパスが大規模であることから,できるだけタグの仕様を単純化するのが好ましい.想定される応用例においても,Nタグを除外して検索したい要求はあっても,Nタグの内容を区別して扱うケースは多くないと考えている.以下に想定される応用例を列挙する.\begin{itemize}\item作用調査:Pタグのみを抽出\item副診断支援(類似した症状の患者を検索):Pタグのみを抽出\item診断支援(次に行うべき検査や見るべき所見を予測):PタグとNタグの両方を抽出\item病名表現の統計調査:PタグとNタグの両方を抽出\item入力支援(サジェスト):PタグとNタグを区別せず抽出\end{itemize}\subsection{病名タグ付けの原則}\label{annoprinciple}病名タグ付けは,\ref{annoaim}節に挙げた指針を反映し,下記の原則に基づいて行った.\eenumsentence{\label{annopri}\item名詞で表現される病名に対してのみタグを付与する\itemPタグを付与するのは患者が罹患したと医師が判断した病名(陽性所見)とする}\noindent原則(\ex{0}a)は,指針(I,II)を反映している.症例報告において,当該の報告を記述した医師によって病名の表現の仕方や表記法が異なるため,そのような表記の揺れに対して,非医療従事者であっても言語的な特徴からタグ付け範囲の決定をすることができる基準を設ける必要がある.そこで,タグ付け対象を名詞(サ変動詞の語幹も名詞に含めることとする)に限定することによって,統一的なタグ付けを目指した.原則(\ex{0}b)は,指針(III)を踏まえている.症例報告には,実際に患者が罹患していると医師が判断していない病名が多く含まれている.この点を明示化するために,患者が罹患したと医師が判断したと考えられる病名にはPタグを付与することで,それ以外の病名と区別した.次節では各原則が実際のタグ付けにおいてどのように実現されるかを述べる.\subsection{タグ付けの単位}原則(\ref{annopri}a)に示したように本コーパスでは,タグ付け対象を名詞に限定することで,非医療従事者によるタグ付け単位の判断の統一化を図っている.これは,症例報告において以下のような表記の揺れが散見されるためである.\eenumsentence{\label{kidney}\item腎機能低下が見られた\item腎機能が低下していた\item腎機能が高度に障害されていた}\noindent「腎機能低下」はICDコード(N289)を有する症状である.しかし,症例報告には(\ref{kidney})に例示したように,様々な表現の仕方で,同一の事象が記述されている.このような表記揺れを過不足ない単位で医療知識の無いアノテーターが全て採取することは極めて困難である.また,仮に全ての表記揺れを統一的な単位でタグ付けすることができたとしても,そのような表記揺れは病名コーディングの段階で,頻度の少なさからコーディング対象外となってしまうことが予想される.以降,4.4.1節から4.4.7節では具体的にどのような表現をタグ付け単位として認定したかを詳細に述べる.\subsubsection{複合名詞}\label{fukugomeishi}複合名詞は,1つの名詞として扱い,まとめてタグ付け対象とする.\eenumsentence{\item[]\textbf{複合名詞の例}\item\ps軽度網膜血管炎\pe\item\psAFP高値\pe\item\ps腎機能異常\pe\item\ps全身倦怠感著明\pe\item\ps両側肺門リンパ節腫大\pe\item\psclassV腺癌\pe}また,病名そのものではなくても,患者の症状を表す特定の語彙を含んだものについてもタグ付け対象とする.\eenumsentence{\item[]\textbf{患者の症状を伴う特定の語彙を含む複合名詞の例}\item\ps血痰程度\pe~[〜程度]\item\ps皮膚病変痂皮傾向\pe~[〜傾向]\item\ps壊疽部\pe~[〜部]\item\ps腫瘤辺縁\pe~[〜辺縁]\item\ps項部硬直陽性\pe~[〜陽性(陰性)]}\subsubsection{英語表記・略号}英語表記やアルファベットによる略記も名詞として扱い,タグ付け対象とする.\eenumsentence{\item[]\textbf{英語表記・略号の例}\item\pscarcinoidtumor\pe~[英語表記]\item\psAIP\pe~[英語略記]}\subsubsection{修飾句}本コーパスでは,以下のような修飾句を形成する表現についてはタグ付け対象外とする.\eenumsentence{\item[]\textbf{タグ付け対象としない修飾句の例}\item\underline{急性肝炎様に}\psAIH\peを発症した\item\underline{ポリープ状の}\ps腫瘍\peを認め\item\underline{肉芽腫性の}\ps炎症\pe}ただし,以下のように,「に」や「の」等の助詞が介入せず,複合名詞となっている場合は,原則\ref{fukugomeishi}に示したように,合わせてタグを付与する.\eenumsentence{\item[]\textbf{助詞の介入しない修飾句を伴う複合名詞の例}\item\ps急性肝炎様症状\pe\item\psポリープ状腫瘍\pe\item\ps肉芽腫性炎症\pe}\subsubsection{動詞}本コーパスでは,以下のような動詞が表す症状はタグ付け対象外とする.\eenumsentence{\item[]\textbf{タグ付け対象としない動詞の例}\item両足が\underline{痛み},右膝が\underline{腫れてきた}\item皮膚はいずれも\underline{硬くなった}\item夜はなかなか\underline{寝つけない},とのこと}ただし,サ変動詞の語幹については,それ単体で病名を表す名詞と認定できるものに限ってタグを付与する.\eenumsentence{\item[]\textbf{病名を表す名詞と認定できるサ変動詞の語幹の例}\item\underline{\mbox{\ps狭窄\peしている}}と考えられた\item\underline{\mbox{\ps腎機能低下\peする}}}\subsubsection{セパレーション}中黒(・),スラッシュ(/),ハイフン(-)や,読点(,)をはさむ場合は,その前後が独立した名詞の場合,それぞれを別の名詞として個別にタグを付与する.一方,前部ないし後部がもう一方と連結して複合名詞を作る場合は,当該記号を挟んで1つのタグを付与する.\eenumsentence{\item[]\textbf{分割された前後が独立した名詞として認定できる例}\item[]\ps血痰\pe・\ps下血\peも出現した}\eenumsentence{\item[]\textbf{前部または後部がもう一方と連結する例}\item\psウイルス性,細菌性肺炎\pe疑いあり[ウイルス性肺炎+細菌性肺炎]\item\ns腸蠕動音低下,亢進\neともになし.[腸蠕動音低下+腸蠕動音亢進]\item\ps下咽頭、気管、甲状腺浸潤\pe、\ps頚部リンパ節転移\peと診断され[下咽頭湿潤+気管湿潤+甲状腺湿潤]}「および」「ならびに」といった表現は中黒やスラッシュと同様に扱う.\eenumsentence{\item[]\textbf{「および」「ならびに」が使用されている例}\item\ps体幹および四肢運動失調\peなどを認めた。[体幹運動失調+四肢運動失調]\item\ps結節性ならびに小浸潤性陰影\peを認めた。[結節性陰影+小湿潤性陰影]}\subsubsection{丸括弧}丸括弧で囲まれた言い換えの表現がある場合は,個別にタグを付与する.\enumsentence{\textbf{丸括弧による言い換え表現の例}\ps胃食道逆流症\pe(\psGERD\pe)}\subsubsection{特殊記号を含む名詞}症例報告においては,患者の症状を表すために医師の間で慣習的に使用されている記号が現れることがある.そのような記号は,複合名詞を構成する一部として解釈し,まとめてタグ付けする.\eenumsentence{\item[]\textbf{「上昇/低下」の意味で「↑/↓」が使用されている例}\item\psIgA2800↑\pe\\~~(IgA高値は慢性肝疾患や感染症等を示す血液検査所見)\item\ps皮膚ツルゴール↓\pe\\~~(皮膚ツルゴール低下は脱水症、特に低張性脱水症)}\eenumsentence{\item[]\textbf{「陽性/陰性」という意味で「(+)/($-$)」が使用されている例}\item\ps項部硬直(+)\pe\item検尿も\ns蛋白($-$)\ne、\ps潜血(+)\peであった}\subsection{タグの種類決定}\label{tagdecision}症例報告に登場する病名には,医師が実際に患者に認めたものだけでなく,検査の結果否定された病名や一般論において登場する病名,患者の症状とは関係のない複合名詞の一部として登場するものが多く存在する.本コーパスでは,そのような表現に対応するために,\ref{tagtype}節に挙げた3種のタグ(Pタグ,Nタグ,SKIPタグ)をアノテーションに用いる.本節では,具体的にどのような表現に各タグを付与するかを述べる.\subsubsection{患者の症状以外の病名を含む複合名詞}患者の症状としてではなく,施設名,手術名,検査名といった複合名詞の一部に含まれた病名にはタグを付与しない.\eenumsentence{\item[]\textbf{患者の症状を表さない病名を含む複合名詞の例}\itemかかりつけの■■■内科\underline{リウマチ}科クリニックより当院紹介受診となった.\item\underline{左下肢静脈瘤}手術を行った.\item細菌培養、\underline{膠原病}検査を行い1週間経過観察}\subsubsection{まだ発症していない病名}実際には,まだ発症していないが,今後患者に発症が予想されている病名にはNタグを付与する.\eenumsentence{\item[]\textbf{発症が予想されている病名の例}\item\ns気道閉塞\neの危険が高く\item\ns肺塞栓症\neの発症が危惧された}\subsubsection{家族歴}家族歴(患者の家族が罹患したことのある症状)は,患者が実際に罹患していない病名であるため,Nタグを付与する.\eenumsentence{\item[]\textbf{家族歴の例}\item母が\ns高脂血症\ne\item長兄、祖母にも\ns大動脈疾患\neの既往歴があり}なお,患者本人の既往歴(過去に患っていた症状)に関しては,患者の罹患した病名であるため,Pタグを付与する.\enumsentence{\textbf{患者の既往歴の例}XX歳時に\ps胃潰瘍\peのため胃亜全摘術\underline{既往歴}がある。}\subsubsection{罹患が疑われている病名}罹患が疑われている病名に関しては,同一文内で陰性であることが示されている場合に限りNタグを付与し,それ以外はPタグを付与する.\eenumsentence{\item[]\textbf{同一文内で罹患が否定されている例}\item\ns脳血管障害\neを\underline{疑い}CT・MRIを施行したが異常所見を\underline{認めなかった}。\item\ns抗酸菌感染症\neを\underline{疑い}喀痰抗酸菌検査を施行したが\underline{陰性}で、外来での厳重な経過観察とした。}\eenumsentence{\item[]\textbf{同一文内で罹患が否定されていない例}\item臨床経過より、アミオダロンによる\ps薬剤性肺障害\peを\underline{疑った}。\item喘息既往や血液検査から\ps好酸球性肉芽腫性多発血管炎\peを\underline{疑った}。}また,疑いを表す述部の例としては以下のものが挙げられる.\eenumsentence{\item[]\textbf{疑いを表す述部を伴う例}\itemバルサルバ負荷によるTMFの変化、肺静脈血流と流入血流左室内伝播速度を観察したところ、いずれも\ps左室拡張障害\peを\underline{示唆する}結果であった。\itemモニター心電図上、心拍数200回/min程度の\pswideQRStachycardia\peを認めており、\ps心室頻拍\peと\underline{考え}、マグネゾール1Aを静注後に\ns頻拍\neは停止した。\item■■月■■日縦隔腫瘍摘出し\psganglioneuroma\peと診断。良性で全身病態に関連少ないと判断し、\psGBS\peを\underline{想定し}、免疫吸着を行った。\item\ps脳卒中\peが\underline{疑われる}\ps神経症状\peを認めたため脳MRIを施行、右小脳・右脳幹に比較的最近に発症したと思われる\ps脳梗塞所見\peを認めた。\item\psヘパリン起因性血小板減少症\peの\underline{可能性を考え}抗ヘパリン-PF4複合体抗体を測定したところ陽性であった。\item\ps悪性腫瘍\peも\underline{否定できない}ため、診断目的でエコー下肝生検を施行。}\subsubsection{治癒表現}治癒を表す表現が伴っている病名については,症状や疾患が完全に消失したことが明示されている場合のみNタグを付与する.\eenumsentence{\item[]\textbf{完全に消失したことが分かる治癒表現を伴う例}\item\nsリンパ腫所見\neは\underline{消失し}ており\item\ns血尿\neは\underline{陰性化し}}なお,症状・疾患が完全に消失したことが明示されていない場合はPタグを付与する.\eenumsentence{\item[]\textbf{症状・疾患が完全に消失したことが判断できない例}\item\ps腫瘤\peは\underline{ほぼ消失し}ていた\item\ps発疹\peも\underline{消退傾向}となり\item\ps心不全症状\peの\underline{軽快}を認めた\item腸管壁の\ps肥厚\peは\underline{改善し}た}「寛解」「完全寛解」「奏効」「完全奏効」という用語は,癌の徴候が消失しただけであり,完全な治癒を表すわけではないため,これらを伴う病名にはPタグを付与する.\subsubsection{一般論に見られる病名}症例報告に見られる病名には,個別のケースについて言及しているのではなく,これまでに得られている知見の一般的記述の中に登場するものが多く存在する.また,そのような一般論は,本文末尾に記述されることが極めて多い.本研究におけるタグ付け作業は,\ref{flow}節で述べたように,自動タグ付けデータを修正する形で実施したため,本文末尾の一般論に含まれる病名に予め付与されたタグを1つ1つ人手で削除する作業は非効率的である.そのため,タグ付け作業ではSKIPタグを設け,本文末尾の一般論の直前にこれを付すことで,それ以降のテキストに付されたタグを無視するようにした.\eenumsentence{\item[]\textbf{本文末尾に登場する一般論の例}\item...その後徐々にALTは低下し、ウィルス量も低下したが、\ps肝不全\peからの回復には至っておらず、現在も治療中である。\sk\underline{近年ではステロイドフリーの化学療法や、他の免疫抑制剤でも、免疫抑制の回復期におこるHBVの再活性化が数多く報告されている。また劇症化症例においては肝炎発症後のラミブジン投与では効果に乏しく、予後も不良である。化学療法に伴うHBVの再活性化、劇症肝炎はいかなる化学療法においても引き起こす可能性があり、HBe抗原やキャリアの肝予備能に関わらず、ラミブジンの予防投与をすることが必要と考える。}\item...薬物的除細動は合部調律が続き、その後洞調律となり、薬物療法を行って整脈を維持出来た。\sk\underline{長年に渡り心房細動が続き、左心房の拡大がかなり拡大している症例でも心筋シンチ検査を行い、その所見から、除細動が可能かの判定に役立てる事が出来ると思われた。}}なお,本文末尾以外に登場する一般論については,患者に実際に見られた症例とは区別して,Nタグを付与することとした.\eenumsentence{\item[]\textbf{本文末尾以外に登場する一般論の例}\item\underline{\mbox{\ns平滑筋肉腫\neは、進行又は}再発症例では有効な治療法が確立されておらず、その予後も不良であるのが現状である。}今回我々はGemcitabine/\linebreakDocetaxelの化学療法にて予後の改善が得られた後\ps腹膜原発平滑筋肉腫肝転移\peの1例を経験したので報告する。...}\subsection{作業者間一致率}本節でこれまで述べてきた,病名タグ付けの基準の妥当性を調査するため,実際に作業に従事した10名のうち2名(非医療従事者)がランダムに抽出された100件の症例報告を対象に行ったタグ付け結果について,一致率の評価を行った.評価は一方の作業者の作業結果を正解,もう一方の結果をシステムの出力結果とみなし,再現率(recall),精度(precision),F値を算出した.正解か否かについては,タグ種類とタグ範囲が共に一致した場合に正解,それ以外は全て不正解とした.結果を表\ref{tagconc}に示す.\begin{table}[b]\caption{タグ付与についての作業者間一致率}\label{tagconc}\input{05table04.txt}\vspace{3\Cvs}\end{table}まず,病名に関するタグ(Pタグ,Nタグ)付与の不一致の原因について述べる.Pタグについては,「菲薄化」「心室細動」などの医学用語に関する知識の差が原因とみられる不一致がみられた.一方,Nタグについては,Pタグに比べ一致率が低くなる傾向がみられた.また,作業者間でSKIPタグの範囲が異なる場合,その範囲のPタグとNタグは一方で作業対象となるが,もう一方ではSKIPタグの範囲内として処理されることになり,必ず不一致が生じる.このため,Pタグ,Nタグの一致率はSKIPタグの一致率にも影響される.SKIPタグについては一致率が顕著に低い値となった.不一致の場合,同一の症例報告に対し,両方の作業者がSKIPタグを付与しているものの,その範囲が異なっている例が散見された.そのような例を,原因とともに(\ref{skip_kanja}),(\ref{skip_symbol})に示す.\clearpage\eenumsentence{\item[]\textbf{一般論や考察部分とも,患者に関しての言及とも捉えることが可能で判断が分かれる場合}\item[a.]考察:不明熱にて発症し、確定診断まで難渋した症例を経験した。\skAbiotrophiadefectivaは...\item[b.]\sk考察:不明熱にて発症し、確定診断まで難渋した症例を経験した。Abiotrophiadefectivaは...\label{skip_kanja}}\eenumsentence{\item[]\textbf{位置がほぼ一致しているが,開始時点の見出しの扱いに相違が見られる場合}\item[a.]【考察】\sk透析患者における悪性リンパ腫の報告は少ない。...\item[b.]\sk【考察】透析患者における悪性リンパ腫の報告は少ない。...\label{skip_symbol}}\noindentこのように,何をもって一般論・考察の開始とするかについては判断が難しいと考えられ,今後ガイドラインの検討を要する.また,見出しの取扱いについてもガイドラインの修正が必要である.両作業者が同一の範囲にPタグもしくはNタグを付与した場合についても同様に,一方の作業者の結果を正解,もう一方の作業者の結果を出力とみなし評価した(表\ref{tagrange}).なお,SKIPタグについてはPタグやNタグと同一範囲に付与された例は見られなかった.結果として,F値が98.6と高い一致率を示した.\begin{table}[t]\caption{タグ範囲が一致した場合の作業者間タグ種類一致率}\label{tagrange}\input{05table05.txt}\end{table} \section{病名コーディング} \label{sectioncoding}病名コーディングとは,前節で述べた病名タグ付けの作業によって症例報告の文章中から抽出された症状や疾患を表す表現に対して,ICDコードと標準病名を属性として付与する作業である.なお,病名コーディングは,Pタグが付与された表現のみを対象とする.この作業は,先の病名タグ付けとは異なり,医療知識を有する医療従事者が行った.本研究では,コーパスの作成にあたり3名の医療従事者(以下,「{\bf作業者}」と呼ぶ)が病名コーディングの作業を担当した.コーディングにあたっては,3名の作業者が意見を交換しつつ,Pタグが付与された表現に対して可能な限りICDコードを付与することを目指し,コーディングを実施した.本節では,病名コーディング作業の基本的な手順,およびコーディング作業にあたっての留意点について述べる.\subsection{コーディング作業の手順}\label{codingprocedure}病名コーディングの作業には万病辞書を用いた.万病辞書とは,奈良先端科学技術大学院大学が開発しているデータベースであり,ICDコードと,それに対応する標準病名が記載されている\footnote{http://www.mednlp.jp/dic-ja.html}.コーディング作業は,Pタグが付与された表現と,万病辞書に記載された項目との一致を利用して行った.具体的なコーディング作業の流れは次の通りである.Pタグが付与された表現について,まず,全文一致検索による自動コーディング処理を行い,そこでコーディング処理がされなかったものについては,作業者が人手によるコーディングを行った.詳細な手順を以下に述べる.\subsubsection{自動コーディング}Pタグが付与された全ての表現を万病辞書で全文一致検索する.万病辞書の記載に全文一致する項目が見つかった場合,その項目に対応するICDコードを付与する.\subsubsection{人手によるコーディング}人手によるコーディングは,(I)全文一致検索に基づくコーディングと,(II)部分一致検索に基づくコーディングの2段階に分かれる.それぞれの手順を以下に述べる.\begin{enumerate}\item[(I)]{\bf全文一致検索に基づくコーディング}\end{enumerate}先の自動コーディング処理による全文一致検索の取りこぼしを補うため,Pタグが付与された表現のうち,略語や英語を伴う表現をパラフレーズしながら万病辞書で検索を行う.全文一致する項目が見つかった場合,そのICDコードを付与する.例えば,(\ref{fullmatch})では``Wegener''という英語表記が用いられている.この語は,「ウェゲナー」あるいは「ウェジナー」と読まれることもあるため,「ウェゲナー」もしくは「ウェジナー」としても検索を行う.\enumsentence{\label{fullmatch}\underline{\mbox{Wegener}}(ウェゲナー,ウェジナー)肉芽腫(M313:多発血管炎性肉芽腫症)}\begin{enumerate}\item[(II)]{\bf部分一致検索に基づくコーディング}\end{enumerate}Pタグが付与された表現について,万病辞書と全文一致する項目がみられない場合,部分的に一致する項目を検索したうえで,対応するICDコードを付与する.部分検索は,Pタグを付与された表現が最も多くの修飾語を含む状態から始め,万病辞書内の適切な項目に一致するまで,段階的に修飾語を省略しながら実施する.万病辞書と部分的に一致する項目が見つかった場合,その段階で検索を終了する.例えば,「LQT2型QT延長症候群」という表現は,万病辞書内に全文一致する項目が存在しない.そこで「LQT2型」という修飾語を省略し,「QT延長症候群」で万病辞書を検索することで,対応するICDコードである「I490:QT延長症候群」を見つけることができる.なお,「LQT2型」は遺伝子の型別を表すと解釈できるため,病名は「遺伝性QT延長症候群」とする.\eenumsentence{\item「\underline{\mbox{LQT2型}}QT延長症候群」で検索→一致なし\item「QT延長症候群」で検索→I490:QT延長症候群}また,タグ付けの段階で欠損したと考えられる情報を補完することで対応するICDコードの特定が可能になる場合は,情報を補完してコーディングを行った.例えば,(\ref{supplement})は病名の一部が欠けた状態で抽出された表現である.この場合,まず「グレン症候群」で検索を行い,部分一致した項目である「シェーグレン症候群」のICDコードを付与した.\enumsentence{\label{supplement}グレン症候群(M350:\underline{シェーグレン}症候群)}修飾語の有無がコーディングに影響する疾患名や病名も存在するため,部分一致の検索を行う際には特に留意する必要がある(\ref{codprecision}節参照).なお,部分一致検索にあたって修飾語を省略する際は,表\ref{codingpartition}のように修飾語が表す意味のカテゴリごとに区分を設けた.\begin{table}[t]\caption{修飾語を伴う病名の例「重症熱性血小板減少症候群(A938:重症熱性血小板症)」}\label{codingpartition}\input{05table06.txt}\end{table}\subsection{コーディング作業の指針}\label{codingattention}本節では,コーディング作業における具体的な指針について,実例を挙げながら述べる.\subsubsection{表記のゆれ}Pタグが付与された表現の中には,同じ疾患や症状を表すものであっても異なる表記で出現するものがある.例えば,「R91:胸部異常陰影」というICDコードに対応する表現は,(\ref{glass})のようにさまざまな表記で現れる.このような場合は,表記の異なりを捨象してすべて同一のICDコードを付与した.\enumsentence{\label{glass}{スリガラス/すりガラス/スリガラス状/すりガラス状/スリガラス様}陰影}\subsubsection{ウェブ上の情報の利用}Pタグが付与された表現の中には,略語で表記されたものや希少疾患,作業者に馴染みが薄い病名など,一見するとコーディングが難しいものがある.(\ref{internet})に例を示す.\eenumsentence{\label{internet}\item電撃性紫斑病(D692:紫斑病)\itemペットボトル症候群(E872:ケトアシドーシス)}このような表現についても可能な限りICDコードを付与するために,ウェブサイトの情報を参考にすることもあった.なお,ウェブサイトの情報の利用頻度にはそれぞれの作業者の間で個人差があった.なお,インターネット上の情報を参照するにあたり,情報の信頼性についても考慮した.特に,公的機関のウェブサイトや,日本内科学会症例検索システム「症例くん」\footnote{http://www.naika.or.jp/meeting/endaikensaku/},または検索上位のウェブサイトを参考に,最も妥当であると考えられるICDコードを付与した.\subsubsection{コーディングの精度}\label{codprecision}同じ病名を含む表現であっても,修飾語の有無によって対応するICDコードが異なることがある.そのような場合は最も妥当な分類に対応するICDコードを付与するように留意した.例えば,(\ref{modifier})に挙げたような修飾語は,コーディングに影響する.(\ref{memai})はその具体例である.また,(\ref{cancermod})のように,癌に関わる表現は,「術後」や「再発」などの語の有無によって対応するICDコードが異なることがある.\enumsentence{\label{modifier}二次性,心因性,1型・2型,原発性,中枢性,家族性,遺伝性,細菌性,完全性,再発性,本態性,疾患部位を表す表現など}\eenumsentence{\label{memai}\itemH814:\underline{心血管性}めまい\itemH811:\underline{体位性}めまい\itemT752:\underline{低音性}めまい\itemF456:\underline{心因性}めまい}\eenumsentence{\label{cancermod}\itemC169:早期胃癌\itemZ080:早期胃癌\underline{術後}\itemC761:乳癌術後胸壁\underline{再発}\itemC798:乳癌術後胸壁\underline{転移}}\subsubsection{複数コーディング}\label{multiplecoding}ある1つのPタグが付与された表現に対して,複数のICDコードや病名が対応すると考えられる場合,最大2つまでICDコードおよび病名を付与した.\eenumsentence{\label{2coding}\item嘔気嘔吐(R11:嘔気・嘔吐症)\item脂肪肝合併2型糖尿(K760:脂肪肝・E11:2型糖尿病)\item呼吸障害(J060:呼吸困難・J969:呼吸不全)\item全身関節痛(M2550:多発性関節症・M2559:関節痛)}(\ref{2coding}a,\ref{2coding}b)のように,2つの語が並列されて1つの表現を構成している場合は,それぞれの単語について万病辞書の検索を行ったうえで,対応するICDコードおよび病名を2つまで付与する.また,(\ref{2coding}c)のように,病状の程度を表す表現の意味が曖昧で,病状の重症度が特定できない場合は,対応すると考えられるICDコードを最大2つまで付与する.(\ref{2coding}d)のように,作業者の間でコーディングについて意見が分かれ,協議の結果1つのICDコードに断定できなかった場合,最大2つまでICDコードを付与する.なお,Pタグが付与された1つの表現に対して,3つ以上のICDコードが対応すると考えられる場合は,その表現をコーディングの対象外とする.(\ref{codexclusion})はコーディング対象外とされた表現の例である.\eenumsentence{\label{codexclusion}\item血管炎\item血栓\item肉芽腫}作業者間での意見の相違と,その解決方法については,\ref{codingworksproblem}節にて改めて詳述する.\subsubsection{医学的知識の利用}\label{knowledgebasedcoding}コーディングを行う際には,医学的知識を利用して表現の意味を解釈しなければならない場合がある.そのような場合は,解釈を補った上でコーディングを行った.ある検査の異常な結果を表す表現には,その検査異常に対応するICDコードを付与する.\eenumsentence{\label{examresult}\item動脈血ガス(R798:血液ガス値異常)\item膵性胸水(R848:胸水検査異常)\item陰性T波(R943:心電図異常)}ある検査で陽性の反応が出たことを示す表現の場合も,その検査結果に対応するICDコードを付与する.\enumsentence{\label{virus}胸水結核菌\underline{陽性}(R845:胸水結核菌陽性)}表現中の医学用語を解釈することで対応するICDコードが同定できる場合は,そのICDコードを付与する.例えば(\ref{fukujin})では「副腎外」という語が用いられているが,副腎外という人体の部位は存在しないため,「異所性」を含む病名を付与する.\enumsentence{\label{fukujin}\underline{副腎外}褐色細胞腫(D447:\underline{異所性}褐色細胞腫)}病状の程度を含む表現は,病状の程度を解釈し,それに応じて対応するICDコードを付与する.\eenumsentence{\label{codkidney}\item腎機能障害(N289:腎機能低下)\item腎障害(N289:腎障害)\item急性腎障害(N289:腎障害)\item腎病変(N289:腎疾患)\item腎機能異常(R944:腎機能検査異常)\item軽度腎機能障害(N289:腎機能低下)}疾患を特定できる臨床所見を表す表現には,対応する疾患のICDコードを付与する.\eenumsentence{\label{tokutei}\item骨破壊(M0690:関節リウマチ)\itemニボー像(K567:イレウス)}症状を表す表現であっても,対応するICDコードが存在する場合は,そのコードを付与する.\eenumsentence{\label{shoujou}\item脱水(E86:脱水症)\itemめまい(R42:めまい)}\subsubsection{コーディング対象外の表現}\label{nospecification}以下に挙げる表現は,コーディングの対象外とした.\eenumsentence{\item[]\textbf{患者に生じている疾患,症状を表さない表現}\item急性期\itemステージII\item予後不良}\eenumsentence{\item[]\textbf{細胞変性などを表す表現}\item○○変化\item○○浸潤\item形態異常}\eenumsentence{\item[]\textbf{病変部位を1つに特定できない表現}\item多発潰瘍\item嚢胞\item基礎疾患}\eenumsentence{\item[]\textbf{意味が漠然としており,対応するICDコードが推測できない表現}\item拡張\item貯留\item多発病変\item偶発症}\eenumsentence{\item[]\textbf{部分一致検索で対応項目が見つからず,ICDコードを推測できない表現}\item症\item壁運動障害\item嚢胞状}\eenumsentence{\item[]\textbf{検査所見を表す表現(「R91:胸部異常陰影」に対応する表現を除く)}\item○○状陰影\item狭窄所見\item壁肥厚\pagebreak\itemlowdensityarea\item異常集積}\subsection{病名コーディングの具体的作業}本節では,コーディング作業の具体的な内容について述べる.特に,作業者間でのコーディング作業の分担およびコーディングの結果について詳しく述べる.\subsubsection{コーディング作業の分担}病名のコーディングは,コーディング対象データの総数13,207件のうち,自動コーディング処理がされた4,603件を除いた8,604件のコーディングを3名の作業者が担当した.この8,604件のうち,出現頻度が5,055回から30回までの,1,071件の表現については,3名全員がコーディングを行った.残りの7,533件については,3名がそれぞれ分担して個別にコーディングを行った.ただし,判断に迷う場合は3名で協議しながらコーディングを実施した.\subsubsection{コーディングの統一作業}上述の通り,高頻度の表現(出現頻度5,055回から30回の1,071件)のコーディングは3名の作業者全員が行ったものであるため,3名の間でコーディングの判断が分かれる部分もあった.この1,071件のコーディングについては3名で協議を行い,最終的なコーディングを決定した.最終的なコーディングは,以下の基準にしたがって決定した.\eenumsentence{\label{codunify}\item1つのPタグが付与された表現に対し,3名全員がコーディングの対象外と判断した場合は,その表現をコーディング対象外とする.\item1つのPタグが付与された表現に対し,3名全員が同一のICDコードを付与した場合は,そのICDコードを採用する.\item作業者の間でコーディングについて見解の相違があった場合は,協議を行い,統一したICDコードを付与する.}最終的なコーディング決定に至る手順は次の通りである.(I)作業者各自が行ったコーディングの結果を照らし合わせた後,(II)作業者間で意見の対立がある部分について協議し,(III)最終的なコーディングを決定した.\noindent{\bf(I)作業者各自が行ったコーディング結果の照合}\begin{table}[t]\caption{コーディングの照合結果}\label{d}\input{05table07.txt}\end{table}まず,それぞれの作業者が個別に行ったコーディングの結果を照合した.この時点で,(\ref{codunify})の基準に従い3名の作業者間でコーディング結果が一致した場合,コーディングを確定した.結果を表\ref{d}に示す.また,作業者間のコーディングの一致率(\%)を以下の式によって求めた.\[\frac{\mbox{作業者間のコーディングの一致数}}{\mbox{コーディングされた表現数}}\times100\]結果を表\ref{codmatch}に示す.表\ref{codmatch}では便宜上それぞれの作業者を$h_{1}$,$h_{2}$,$h_{3}$と表記する.表\ref{codmatch}から,3名の作業者全員のコーディングを対照すると,7割程度の一致がみられたことがわかる.\begin{table}[t]\caption{コーディング作業の一致率}\label{codmatch}\input{05table08.txt}\end{table}\noindent{\bf(II)作業者間での協議}3名の間でコーディングについて見解の相違がみられた場合,協議を行ったうえで最終的なコーディングを決定した(\ref{codingworksproblem}節参照).\noindent{\bf(III)最終的に決定したコーディング結果}作業者間での協議の結果,最終的に決定したコーディングの件数を表\ref{c}に示す.\begin{table}[t]\caption{最終的に決定したコーディングの結果}\label{c}\input{05table09.txt}\end{table}\subsection{コーディング作業の問題点}本節では,実際に病名コーディング作業を行った結果,明らかになった問題点について述べる.具体的な問題点としては,ICDコードそのものが抱える問題(\ref{icdproblem}節)と,3名の作業者間での意見の対立によって生じた問題(\ref{codingworksproblem}節)の2点がある.以下,それぞれについて述べる.\subsubsection{ICDコードそのものが抱える問題}\label{icdproblem}病名コーディングの作業を行う中で,ICDコードの分類や表記が抱える問題が示唆された.この問題は,ICDコードそのものが原因であるため,コーディング作業者の努力だけでは解決することができなかった.今後の課題といえる.まず,ICDコードが,どのような基準によって分類されているか不明確なため,Pタグを付与された表現に対応するICDコードの検索や同定が困難になることがあった.例えば,(\ref{codsimilar})は,類似した病名に対応するが異なる分類をもつICDコードの例である.\eenumsentence{\label{codsimilar}\itemN40:前立腺\underline{症}\itemN429:前立腺\underline{障害}}また,さまざまな部位に発生すると考えられる疾患ではあるが,特定の部位についてのICDコードしか存在しないため,推測によるコーディングをしなければならない場合があった.\eenumsentence{\item伸展不良(Q344:\underline{軟産道}伸展不良)\item側副血行(Q258:\underline{主要大動脈肺動脈}側副血行路)}ICDコードに対応する病名の表記にゆれがあり,検索が困難になることがあった.\eenumsentence{\item「癌」と「がん」\item「嚢胞」と「のう胞」}\subsubsection{作業者間での意見の対立によって生じた問題}\label{codingworksproblem}コーディング作業は,3名の作業者が行ったものであるため,意見の相違が生じることもあった.この問題に対しては,作業者間で協議を行うことによって解決を試みた.本節では,作業者間の意見の相違から生じた問題と,その解決法について述べる.具体的な問題としては,(I)Pタグが付与された表現のコーディング可否についての問題と,(II)Pタグが付与された表現にどのICDコードを付与するかという2つの問題が生じた.\noindent{\bf(I)コーディング可否の問題}あるPタグが付与された表現をコーディングの対象とみなすかどうかという基準について,3名の作業者の間で意見が分かれることがあった.本コーパスの目的からすると,Pタグが付与された表現には可能な限りコーディングをすることが望ましい.しかし,作業者の主観的な推測によって,本来コーディングの対象外である表現にまでコーディングをするようなことは避けなければならない.例えば,作業者の中には,(\ref{indirect})に挙げた表現には対応するICDコードの存在が推測できるため,コーディング可能であるという意見があった(カッコ内はコーディング候補).しかし,これらの表現は,ある疾患や症状の発生を推測する手掛かりになりうる表現ではあるものの,患者に生じている疾患や症状そのものを示す表現ではない.そこで,このような場合はコーディングの対象外と判断した\eenumsentence{\label{indirect}\item転移(C80:転移性腫瘍)\item単核球(B270:EBウイルス伝染単核症,B279:伝染性単核症)\item止血困難(R58:出血)}画像所見を表す表現に対しても,可能な限りコーディングを施した.ただし,コーディングの対象は,実際に患者にその症状が生じていることが明らかな表現に限った.例えば,(\ref{tumor})に挙げた「腫瘤影」や「腫瘤陰影」という表現は,患者の身体に腫瘤が存在することを示唆するため,「R229:腫瘤」のICDコードが対応するという意見があった.しかし,「腫瘤影」や「腫瘤陰影」という表現は,実際に患者の身体に腫瘤が存在がしているかどうかにかかわらず,腫瘤を疑わせる影が認められるだけの場合でも用いることができる.これに対して,「腫瘤形成」や「腫瘤病変」といった表現は,医師が患者を診察した結果,腫瘤が存在することを確認した場合に用いられる.したがって,最終的に「腫瘤影」と「腫瘤陰影」は,実際に患者の身体に腫瘤が存在していることが明らかではない表現と判断して,コーディングの対象外とした.\eenumsentence{\label{tumor}\item腫瘤影(コーディング対象外)\item腫瘤陰影(コーディング対象外)\item腫瘤像(R229:腫瘤)\item腫瘤形成(R229:腫瘤)\item腫瘤病変(R229:腫瘤)}なお,異常陰影を表す表現も画像所見であるが,「R91:胸部異常陰影」のみICDコードが存在するため,胸部の陰影を表すと解釈できる表現についてはコーディングを行った.\enumsentence{スリガラス陰影(R91:胸部異常陰影)}\noindent{\bf(II)対応するICDコードの問題}Pタグが付与された表現の中には,作業者によって,どのICDコードを付与するか見解が分かれたものがあった.そのような場合,3名の作業者で協議したのち,統一したICDコードを付与するか,統一できない場合は2つまでICDコードを付与した.(\ref{majority})は多数意見を採用した例である.なお,以下では3名の作業者をそれぞれ$h_{1}$,$h_{2}$,$h_{3}$と表記し,それぞれが行ったコーディング結果をカッコ内に例示する.\enumsentence{\label{majority}心窩部不快感(R198:心窩部不快)\item$h_{1}$,$h_{2}$,$h_{3}$:(R198:心窩部不快,R198:心窩部不快,R908:胸部不快)}なお,ICDコード付与の判断にあたっては,必ずしも多数意見を採用するのではなく,特に重要と思われるものであれば少数意見も採用した.(\ref{minority})はその例である.\enumsentence{\label{minority}虚血性小腸炎(K559:虚血性腸炎)\item$h_{1}$,$h_{2}$,$h_{3}$:(K529:小腸炎,K529:小腸炎,K559:虚血性全腸炎)}また,1つの表現に対応するICDコードを1つに断定できない場合は,\ref{multiplecoding}節に示した基準に依拠して,2つまでICDコードを付与した.\enumsentence{呼吸障害(J060:呼吸困難・J969:呼吸不全)\item$h_{1}$,$h_{2}$,$h_{3}$:(R060:呼吸困難,J969:呼吸不全,R060:呼吸困難)} \section{応用システム:病名抽出器の構築} ここまで,医療テキストコーパスの構築方法について述べてきたが,本節ではこのコーパスを用いた応用システムの可能性について議論する.本コーパスの最も素朴な応用は,このコーパスを学習データとして類似症例検索システムや診断支援システムといった,様々な高次の応用システムで利用可能な病名抽出器を作ることである.以下では,タグ付けされていない医療テキストから自動で病名を抽出する病名抽出器の概要について述べる.なお,前節までは疾患名・症状名などを区別してきたが,本節では4節でタグ付け対象とされていたものを単に\textbf{病名}と呼ぶことにする.\subsection{病名抽出器の処理}\label{subsection:病名抽出器の処理}前節までに説明した医療テキストコーパスを教師データとして用いて,病名を自動で抽出する病名抽出器を開発した.以下では,本病名抽出器の処理方法について述べる.提案する病名抽出器は以下の2つの処理を同時に行う.\begin{enumerate}\renewcommand{\labelenumi}{}\item事象認識(ER):医療テキストにおける病名および疾患名を識別する.これは,一般的な固有表現認識タスクと類似した処理である.以降,この処理を\textbf{ER}(EntityRecognition)とも呼ぶ.\item陽性/陰性(P/N)分類:テキスト中のPタグとNタグの区別を行うタスクである.以降,この処理を\textbf{P/N分類}と呼ぶ.\end{enumerate}病名抽出器の2つの処理は,4節で説明したアノテーションによる病名タグと対応している.タグの学習にあたっては,文字単位で事象認識と事象の事実性判別を同時に系列ラベリングの問題として解いた.一般的に,医療テキストには長く複雑な複合名詞(例えば,「傍大動脈リンパ節郭清」など)や,ひらがなのみからなる医療用語(例えば,「びまん」など)が多く出現することにより,形態素解析の誤りがしばしば発生する.そのため,病名抽出器では,単語単位ではなく,より頑健な文字ベースでの解析\cite{asahara}を採用した.図\ref{wordCRF}に文字ベースでの系列ラベリングと単語ベースでの系列ラベリングの違いを示す.事実性の判定に関しては,これまでにも多くの先行研究があるが\cite{kitagawa,matsuda},本研究では一般的かつ実装が簡易な手法でコーパスの規模と精度の関係を調査するため,事象認識のラベルとして事実性を表現した.通常,事実性判定(P/N分類)は事象認識の後に適用される.しかし,P/N分類に必要な情報はERで必要な情報と重複する部分も多い.例えば,「〜が認められる」「〜が認められない」は,ともに病名出現の大きな手がかりであるとともに,P/N分類の手がかりにもなる.このため,ERとP/N分類の2タスクを1つに融合する方式を採用した.\begin{figure}[b]\begin{center}\includegraphics{25-1ia5f2.eps}\end{center}\hangcaption{提案する病名抽出器による医療テキストからの病名抽出の例,ならびに,単語ベースの系列ラベリングと文字ベースの系列ラベリング(本病名抽出器で適用)の比較}\label{wordCRF}\end{figure}\subsection{実験}\ref{subsection:病名抽出器の処理}節では,医療テキストコーパスの応用システムとして,病名抽出器の処理方法について述べた.以下では,実際に病名抽出器を用いて症例報告に自動タグ付けを行い,精度について評価を行った.まず,教師データにはタグ付けにより病名に対してPタグ,Nタグが付与された500件の症例からなるコーパスを用いた.なお,本タスクは病名抽出を目的としているため,コーパスのSKIPタグを削除し,本来SKIPタグがあった箇所以降も通常のPタグ,Nタグの基準によってタグ付けを行った.前処理として,初めにテキストデータを文に分解し,一般の固有表現抽出の手法にしたがって,文字単位で開始(B),内側(I),外側(O)のIOB2ラベルを付与した(図\ref{wordCRF}).系列ラベリングの学習にはCRF\footnote{http://taku910.github.io/crfpp/}を用いた.表\ref{CRF}にCRFで用いた文字ベースの特徴テンプレートを示す.特徴として表層文字と文字種(漢字,ひらがな,カタカナ,英数字)のみを用いた.ウィンドウサイズは前方2文字,後方5文字に設定した.後方のウィンドウサイズを大きく設定したのは,P/N分類の手がかりとなる,否定に関わる述語が病名の後方に現れるためである.\begin{table}[b]\caption{文字ベースCRFにおける特徴テンプレート}\label{CRF}\input{05table10.txt}\end{table}評価は500件の症例報告を用いた10分割交差検証で行い,結果はERとP/N分類を個別に評価した.表\ref{ERの結果}にERの結果,表\ref{PN}にPタグ,Nタグのそれぞれの抽出性能を示す.評価はCoNLL2000\footnote{https://www.clips.uantwerpen.be/conll2000/}で提供されたツールを用いた.比較のために単語ベースCRFでの結果も並記する.\begin{table}[t]\caption{病名抽出器によるERの精度}\label{ERの結果}\input{05table11.txt}\end{table}\begin{table}[t]\caption{P/N分類の精度}\label{PN}\input{05table12.txt}\end{table}結果としては,ER,P/N分類いずれにおいても,若干であるが文字ベースによる手法が単語ベースによる手法の性能を上回った.ERについては85.0以上の高い精度であり,Pタグについても80.0以上の高い精度での抽出に成功している.一方,Nタグについては,文字ベースでも55.0と低い精度であった(いずれも評価指標はF値).この原因の1つとしては,Pタグに比べてNタグの出現頻度が低いことが考えられる.また,もう1つの原因として,陰性であると判断するためには,設定よりも大きな文脈を要する場合があり,CRFではこれが困難であることが挙げられる.本医療テキストコーパスを利用し,いかにNタグを高い精度で捉えられるかが今後の課題の1つである.なお,本システムはウェブサイト\footnote{http://sociocom.jp/parser.html}にて配布している. \section{おわりに} 本稿では,自然言語処理による電子カルテからの情報抽出に必須となる,病名がアノテーションされたコーパスの開発について述べた.また,実際にアノテーターが作業した際の問題を,一致率を含め議論を行った.さらに,コーパスを用いて構築した病名抽出器を題材に,コーパスの応用可能性について議論した.本稿のアノテーション仕様が,今後の医療分野におけるコーパス開発の一助となることを祈念する.\acknowledgment本研究の一部は国立研究開発法人日本医療研究開発機構(AMED)の臨床研究等ICT基盤構築研究事業:総合診療医の診療支援及び診療業務効率化の支援基盤構築に関する研究(課題番号:16930323)の支援によって行われた.また,本論文の内容の一部は,言語処理学会第23回年次大会で発表したものである\cite{aramaki2017NLP}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aramaki,Miura,Tonoike,Ohkuma,Mashuichi,\BBA\Ohe}{Aramakiet~al.}{2009}]{Aramaki2009text2table}Aramaki,E.,Miura,Y.,Tonoike,M.,Ohkuma,T.,Mashuichi,H.,\BBA\Ohe,K.\BBOP2009\BBCP.\newblock\BBOQText2table:MedicalTextSummarizationSystemBasedonNamedEntityRecognitionandModalityIdentification.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponCurrentTrendsinBiomedicalNaturalLanguageProcessing},\mbox{\BPGS\185--192}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Aramaki,Morita,Kano,\BBA\Ohkuma}{Aramakiet~al.}{2014}]{mednlp11}Aramaki,E.,Morita,M.,Kano,Y.,\BBA\Ohkuma,T.\BBOP2014\BBCP.\newblock\BBOQOverviewoftheNTCIR-11MedNLP-2Task.\BBCQ\\newblockIn{\BemProceedingsofthe11thNTCIRConference},\mbox{\BPGS\147--154}.\bibitem[\protect\BCAY{Aramaki,Morita,Kano,\BBA\Ohkuma}{Aramakiet~al.}{2016}]{mednlp12}Aramaki,E.,Morita,M.,Kano,Y.,\BBA\Ohkuma,T.\BBOP2016\BBCP.\newblock\BBOQOverviewoftheNTCIR-12MedNLPDocTask.\BBCQ\\newblockIn{\BemProceedeingsofthe12thNTCIRConferenceonEvaluationofInformationAccessTechnologies},\mbox{\BPGS\71--75}.\bibitem[\protect\BCAY{荒牧\JBA岡久\JBA矢野\JBA若宮\JBA伊藤}{荒牧\Jetal}{2017}]{aramaki2017NLP}荒牧英治\JBA岡久太郎\JBA矢野憲\JBA若宮翔子\JBA伊藤薫\BBOP2017\BBCP.\newblock大規模医療コーパス開発に向けて.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\1200--1203}.言語処理学会.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2003}]{asahara}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQJapaneseNamedEntitiyExtractionwithRedundantMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2003},\mbox{\BPGS\8--15}.\bibitem[\protect\BCAY{Bouchet,Bodenreider,\BBA\Kohler}{Bouchetet~al.}{1998}]{Bouchet1998}Bouchet,C.,Bodenreider,O.,\BBA\Kohler,F.\BBOP1998\BBCP.\newblock\BBOQIntegrationoftheAnalyticalandAlphabeticalICD10inaCodingHelpSystem.ProposalofaTheoreticalModelfortheICDRepresentation.\BBCQ\\newblock{\BemMedinfo1998},{\Bbf9}(1),\mbox{\BPGS\176--179}.\bibitem[\protect\BCAY{Fabry,Baud,Ruch,Le~Beux,\BBA\Lovis}{Fabryet~al.}{2003}]{Fabry2003}Fabry,P.,Baud,R.,Ruch,P.,Le~Beux,P.,\BBA\Lovis,C.\BBOP2003\BBCP.\newblock\BBOQAFrame-basedRepresentationofICD-10.\BBCQ\\newblock{\BemStudiesinHealthTechnologyandInformatics},{\Bbf95},\mbox{\BPGS\433--438}.\bibitem[\protect\BCAY{科学技術振興機構研究開発戦略センター}{科学技術振興機構研究開発戦略センター}{2017}]{研究開発の俯瞰報告書2017}科学技術振興機構研究開発戦略センター\BBOP2017\BBCP.\newblock研究開発の俯瞰報告書:ライフサイエンス・臨床医学分野(2017年).\\newblock技術資料,国立研究開発法人科学技術振興機構.\bibitem[\protect\BCAY{Kelly,Goeuriot,Suominen,Schreck,Leroy,Mowery,Velupillai,Chapman,Martinez,Zuccon,\BBA\Palotti}{Kellyet~al.}{2014}]{CLEF2014}Kelly,L.,Goeuriot,L.,Suominen,H.,Schreck,T.,Leroy,G.,Mowery,D.~L.,Velupillai,S.,Chapman,W.~W.,Martinez,D.,Zuccon,G.,\BBA\Palotti,J.\BBOP2014\BBCP.\newblock\BBOQOverviewoftheShARe/CLEFeHealthEvaluationLab2014.\BBCQ\\newblockIn{\BemInformationAccessEvaluation:Multilinguality,Multimodality,andInteraction},\lowercase{\BVOL}\8685,\mbox{\BPGS\172--191}.Springer,Heidelberg;NewYork;Dordrecht;London.\bibitem[\protect\BCAY{北川\JBA小町\JBA荒牧\JBA岡崎\JBA石川}{北川\Jetal}{2015}]{kitagawa}北川善彬\JBA小町守\JBA荒牧英治\JBA岡崎直観\JBA石川博\BBOP2015\BBCP.\newblockインフルエンザ流行検出のための事実性解析.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\218--221}.\bibitem[\protect\BCAY{松田\JBA吉田\JBA松本\JBA北}{松田\Jetal}{2016}]{matsuda}松田紘伸\JBA吉田稔\JBA松本和幸\JBA北研二\BBOP2016\BBCP.\newblockTwitterを用いた病気の事実性解析及び知識ベース構築.\\newblockIn{\BemProceedingsofthe30thAnnualConferenceoftheJapaneseSocietyforArtificialIntelligence},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{Morita,Kano,Ohkuma,Miyabe,\BBA\Aramaki}{Moritaet~al.}{2013}]{mednlp10}Morita,M.,Kano,Y.,Ohkuma,T.,Miyabe,M.,\BBA\Aramaki,E.\BBOP2013\BBCP.\newblock\BBOQOverviewoftheNTCIR-10MedNLPTask.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\696--701}.\bibitem[\protect\BCAY{Uzuner}{Uzuner}{2008}]{i2b2}Uzuner,O.\BBOP2008\BBCP.\newblock\BBOQSecondi2b2WorkshoponNaturalLanguageProcessingChallengesforClinicalRecords.\BBCQ\\newblockIn{\BemAMIAAnnualSymposiumProceedings},\mbox{\BPGS\1252--1253}.\bibitem[\protect\BCAY{WHO}{WHO}{1992}]{ICD10}WHO\BBOP1992\BBCP.\newblock{\BemICD10:InternationalStatisticalClassificationofDiseasesandRelatedHealthProblems}.\newblockWorldHealthOrganization.\newblock\texttt{http://www.who.int/classifications/icd/en/}.\bibitem[\protect\BCAY{Yamada,Aramaki,Imai,\BBA\Ohe}{Yamadaet~al.}{2010}]{ICDyamada}Yamada,E.,Aramaki,E.,Imai,T.,\BBA\Ohe,K.\BBOP2010\BBCP.\newblock\BBOQInternalStructureofaDiseaseNameandItsApplicationforICDCoding.\BBCQ\\newblock{\BemStudiesinHealthTechnologyandInformatics},{\Bbf160}(2),\mbox{\BPGS\1010--1014}.\end{thebibliography}\begin{biography}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2005年東京大学大学院情報理工系研究科博士課程修了.博士(情報理工学).以降,東京大学医学部附属病院特任助教を経て,奈良先端科学技術大学院大学特任准教授.医療情報学,自然言語処理の研究に従事.}\bioauthor{若宮翔子}{2013年兵庫県立大学大学院環境人間学研究科博士後期課程修了.博士(環境人間学).以降,京都産業大学コンピュータ理工学部研究員を経て,2015年より奈良先端科学技術大学院大学博士研究員.ソーシャル・コンピューティングに関する研究に従事.情報処理学会会員.}\bioauthor{矢野憲}{2009年広島大学大学院工学研究科情報工学専攻博士後期課程修了.博士(工学).以降,大阪大学臨床医工学融合研究教育センター技術補佐員,福岡大学工学部ポストドクター,国際電気通信基礎技術研究所研究技術員を経て,2016年より奈良先端科学技術大学院大学博士研究員.機械学習,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{永井宥之}{2017年京都大学大学院人間・環境学研究科修士課程修了.修士(人間・環境学).現在,同大学院博士後期課程在学中.専門は日本語学,認知言語学.日本認知言語学会会員.}\bioauthor{岡久太郎}{2016年京都大学大学院人間・環境学研究科修士課程修了.修士(人間・環境学).現在,同大学院博士後期課程在学中.専門は認知言語学.コミュニケーション研究,マルチモーダル研究.日本語用論学会,日本社会言語科学会各会員.}\bioauthor{伊藤薫}{2012年京都大学大学院人間・環境学研究科修士課程修了.修士(人間・環境学).現在,奈良先端科学技術大学院大学研究員.自然言語処理に関する研究に従事.専門は認知言語学,談話・テクスト言語学.言語処理学会,日本認知言語学会,日本語用論学会各会員.}\end{biography}\biodate\end{document}
V04N04-04
\section{はじめに} 日本語の談話理解を考える際,文脈すなわち「会話の流れ」の認識は重要な要素となる.一般的に日本語では,「会話の流れ」を明示するために順接・逆接・話題転換・因果性,などを表す接続(助)詞が用いられることが多い.このことから,接続(助)詞を含む発話とそれと組になる発話,という関係を認識することが,談話理解の基本となると考えられる.これについては,マニュアルや論説文などのいわゆる書き言葉について,接続詞や指示語などによる連接パターンを用いてテキストの構造解析を行なう手法\cite{福本:文の連接関係解析,田中:文の連接パターン}や,対話中の質問--応答を表す発話対の認識に関する研究\cite{高野:発話対の認識手法について}などがある.これに対して本研究では,「だって」や「から」などの接続表現により因果関係の前件及び後件の関係が談話中で明示されている場合を対象とし,そのような因果関係が談話中でどのような特徴を伴って出現するのか,について検討する.また,この検討結果を,特に課題を設定していない状況での会話(自由会話)によるコーパスを用いて検証する.このような,文の意味内容に関する連接関係については,\cite{Hobbs:StructureOfDiscourse}で因果関係その他いくつかの場合について述べられているが,ここでは,接続表現により前件と後件の連接関係が明示されている場合を主な対象とするものである.なお,本技術資料では,会話データとして\figref{コーパス例}のようなコーパスを用いる.\begin{figure}[htbp]{\small\setlength{\baselineskip}{2.0mm}{\bf会話24}\begin{enumerate}\itemO→Pあのね、これでもいいんじゃん\da\itemP→Oわかった\da\itemO→Pえー、嘘で言ったんだよ\da\itemE→O何\ua\itemO→Eだって、牛乳入れろって言ってたらさー\da\itemG→G何か酒飲みたいなー\da\itemK→Gあっ、ありますよ\da\itemG→Kそれ何\ua\itemE→Gモルツ\da\itemP→Gウイスキー\da\itemE→Gうまいよ\da\end{enumerate}}\caption{コーパスの例}\figlabel{コーパス例}\end{figure}このコーパスは,大学のあるサークルでの飲み会の席上で録音された雑談(課題を特に設定していない自由会話)を,そこに同席した者がテキストに書きおこしたものであり,全部で1980の発話を含む.書きおこす際に,(1):発話の切れ目の認識\footnote{発話の切れ目は原則として話し手の交代時としているが,会話に同席した者が,発話が区切れていると判断した場合には,話し手の交代に関わりなく発話の切れ目としている.この時,発話間には平均して約0.5秒のギャップがある.},(2):会話内容によるセグメント分け,(3):話し手と聞き手のデータ追加,(4):発話の末尾の調子のデータ追加,を行なっており,例えば,「O→Pあのね、これでもいいんじゃん\da」\hspace{-.4em}という発話では,話し手が``O''で聞き手が``P''であり,末尾が下がり調子の発話であったことを示している.また,このコーパスでは,因果関係を表すとされる接続詞「だから/だって」および接続助詞(相当)「ので/から/のだから/のだもの」が用いられており,本論文ではこれらに注目して考察を行なう. \section{因果関係を表わす発話の性質} \subsection{接続表現による発話順序への影響}本技術資料では,因果関係を表わす接続表現として,接続詞「だから/だって」,接続助詞もしくはそれ相当の表現として「ので/から/のだから/のだもの」\footnote{以降ではこれらの語を「接続助詞類」と述べることにする.}を対象とする.ここではまず,これらが談話中でどのように因果関係の前件及び後件を関係付けるかについて述べる.はじめに,接続助詞類が用いられる場合であるが,発話の一例を\exsref{発話例1}に示す\footnote{各発話は``話し手→聞き手『発話本体』末尾の調子''と表記し,末尾の調子は``\da''が下がり調子,``\ua''が上がり調子を示す.}.\eenumsentence{\exslabel{発話例1}\itemA→Bこのお酒,とっても美味しいんだから\da\itemA→Bとりあえず,飲んでご覧なさいよ\da}この発話例のように,接続助詞類はそれを含む発話が因果関係の前件であることを示す.これと対応する後件は\exsref{発話例1}では前件の後方に位置するが,この順序は\exsref{発話例2}のように逆転してもよい.\eenumsentence{\exslabel{発話例2}\itemA→Bとりあえず,飲んでご覧なさいよ\da\itemA→Bこのお酒,とっても美味しいんだから\da}因果関係を表わす複文では,主節及び従属節の倒置現象が頻繁に生じるが,上記の現象もこれに類するものであり,\exsref{発話例1},\exsref{発話例2}ともに因果関係を認識可能である.以上の考察は次のようにまとめられる.\begin{screen}\begin{obs}\obslabel{接続助詞}接続助詞類による因果関係では,その前件を表わす発話と後件を表わす発話との間の順序関係は(1)「前件→後件」,(2)「後件→前件」のいずれも可能である.\end{obs}\end{screen}次に,接続詞が用いられる場合である.この場合,接続詞で関係付けられる発話は,基本的には接続詞を含む発話とその前方に位置する発話である\cite{三上:現代語法序説,森田:基礎日本語2}.例えば,「だから」の場合は\exsref{発話例3},「だって」の場合は\exsref{発話例4}のような発話例が考えられる.\eenumsentence{\exslabel{発話例3}\itemA→Bとても面白い落語だったのよ\da\itemA→Bだから,すごく笑っちゃった\da}\eenumsentence{\exslabel{発話例4}\itemA→Bすごく笑っちゃった\da\itemA→Bだって,とても面白い落語だったのよ\da}このように,「だから」の場合はそれを含む発話が後件を表わし,「だって」の場合はそれを含む発話が前件となるが,どちらもそれぞれ接続詞を含む発話とその前方に位置する発話とが関係付けられる.この発話の順序は,「だから」の場合は逆転不可能であり,例えば\exsref{発話例3}の発話の順序を入れ換えた\exsref{発話例5}において,\exsref{発話例5a}の前件が\exsref{発話例5b}であるという解釈はできない\footnote{``$\ast$''を含む発話例は,それが因果関係として解釈不可能であることを示す.}.\eenumsentence{\exslabel{発話例5}\item$\ast$A→Bだから,すごく笑っちゃった\da\exslabel{発話例5a}\item$\ast$A→Bとても面白い落語だったのよ\da\exslabel{発話例5b}}一方,「だって」の場合は,\exsref{発話例6}のように,前件と後件の順序が逆であっても因果関係が認識可能な場合がある.\eenumsentence{\exslabel{発話例6}\itemA→Bだって,とても面白くって\da\exslabel{発話例6a}\itemA→Bすごく笑っちゃった\da\exslabel{発話例6b}}この場合,\exsref{発話例6a}を前件,\exsref{発話例6b}を後件とする因果関係として解釈することが可能であるが,これには次の要素が影響しているものと考えられる.\begin{enumerate}\item「だって」が因果関係の前件を示す標識であり,\exsref{発話例6}のように順序を入れ替えた場合には「前件→後件」という発話順序となること.\item「だって」を含む発話が連用形で終わっており,「連用接続による因果関係の記述」という解釈が可能であること.\end{enumerate}前者について「だから」の場合と比較すると,\exsref{発話例3}のような「だから」が用いられる因果関係では,\exsref{発話例5}のように順序を入れ替えた場合は「後件→前件」という発話順序となってしまうことから解釈不可能となるが,「だって」ではそうではない.後者については,\exsref{発話例7}のように接続助詞類を用いるとさらにはっきりする.\eenumsentence{\exslabel{発話例7}\itemA→Bだって,とても面白いんだもの\da\exslabel{発話例7a}\itemA→Bすごく笑っちゃった\da\exslabel{発話例7b}}このような場合,前件と後件を関係付けるのは主に連用接続や接続助詞類の力であり,「だって」はそれを含む発話が因果関係の前件であることを強調する役目を果たしていると考えることができる.なお,「だから」を含む発話は因果関係の後件となるため,例えば\exsref{発話例8}のように連用接続とした場合でもやはり二つの発話を因果関係として認識することは不可能である.\eenumsentence{\exslabel{発話例8}\item$\ast$A→Bだから,すごく笑っちゃって\da\exslabel{発話例8a}\item$\ast$A→Bとても面白い落語だったのよ\da\exslabel{発話例8b}}以上から,接続詞による因果関係では,\obsref{接続助詞}に対して次のようなことがいえる.\begin{screen}\begin{obs}\obslabel{接続詞}接続詞「だから」による因果関係では,「A.だからB.」の順に発話がなされ,Aが前件,Bが後件を表わす.またこの順序が逆転することはない.接続詞「だって」による因果関係では,「A.だってB.」の順に発話がなされ,Aが後件,Bが前件を表わす.またこの順序はBが連用形で終わっている場合や因果関係を表わす接続助詞類で終わっている場合は「だってB.A.」の順序に逆転可能である.この時,因果関係は主に連用形や接続助詞類によって示され,「だって」はそれを含む発話が因果関係の前件であることを強調する役目を果たす.\end{obs}\end{screen}\subsection{前件と後件の隣接性}次に,\obsref{接続助詞},\obsref{接続詞}のような発話順序による因果関係の前件及び後件を述べる発話間の距離,及びそれぞれの発話の話し手の関係について検討する.まず,発話間の距離としてもっとも基本的な場合として,前件及び後件を述べる発話が隣接している場合が考えられる.発話の例をいくつか示す.\eenumsentence{\exslabel{発話例a}\itemA→Bこれ,飲んでよ\da\itemA→Bおいしいから\da}\eenumsentence{\exslabel{発話例b}\itemA→B飲み過ぎてしまった\da\itemA→Bだから,頭が痛くてたまらないんだ\da}このとき,両発話の話し手は同一である必要はない.例えば\exsref{発話例a}が\exsref{発話例c}のように発話された場合は,「AおよびCがBに勧める」という状況であると解釈可能である.\eenumsentence{\exslabel{発話例c}\itemA→Bこれ,飲んでよ\da\itemC→Bおいしいから\da}また,\exsref{発話例d}では「AおよびBが一緒に酒を飲んだ」という前提があるものとして解釈可能である.\eenumsentence{\exslabel{発話例d}\itemA→B飲み過ぎてしまった\da\itemB→Aだから,頭が痛くてたまらないんだ\da}結果として,前件及び後件の発話間の距離に関しては,まず次のような事柄が考えられる.\begin{screen}\begin{obs}\obslabel{基本距離}因果関係の前件及び後件を表わすそれぞれの発話は,談話中で隣接して出現する.この時,それぞれの発話の話し手は同一であっても異なっていてもよい.\end{obs}\end{screen}しかし,接続詞もしくは接続助詞類を含む発話と組となる発話が隣接して存在しない場合も考えられる.これにはおおまかにわけて次のような場合があげられる.\begin{itemize}\item[($\alpha$)]前件もしくは後件のいずれかもしくは双方が複数の発話からなる場合.\item[($\beta$)]前件と後件それぞれを表す発話の間に,質問あるいは同意を表す発話が存在する場合.\item[($\gamma$)]直接的に組となる発話は存在しないものの,発話の含意や前提などから,因果関係の前件と後件の関係が間接的に判明する場合.\end{itemize}まず,($\alpha$)の一例を示す.\eenumsentence{\exslabel{発話例e}\itemA→B飲んでみて\da\exslabel{発話例e1}\itemA→B美味しいんだから\da\exslabel{発話例e2}\itemC→Bそんなにアルコール強くないから\da\exslabel{発話例e3}}\exsref{発話例e1}と\exsref{発話例e2}は因果関係を表わす隣接発話の組であるが,一方\exsref{発話例e1}と\exsref{発話例e3}も,隣接していないものの,因果関係を表わすと解釈可能である.これは,\exsref{発話例e2}と\exsref{発話例e3}が前件を表わす一つのグループとしてまとまっており,このグループと,後件を表わす\exsref{発話例e1}が隣接していると捉えることができる.また,($\alpha$)の例として,後件が複数の発話からなる場合の例が\exsref{発話例ee}である.\eenumsentence{\exslabel{発話例ee}\itemA→B後かたづけは我々がやっておくから\da\exslabel{発話例ee1}\itemC→B心配しなくていいよ\da\exslabel{発話例ee2}\itemA→Bもう帰ってもいいよ\da\exslabel{発話例ee3}}この場合は,\exsref{発話例ee2}および\exsref{発話例ee3}がまとまって後件を表しており,その前件が\exsref{発話例ee1}であると捉えることができる.次に,($\beta$)の例として,質問が間に入るような発話例を次に示す.\eenumsentence{\exslabel{発話例f}\itemA→Bもう帰る\da\exslabel{発話例f1}\itemB→Aどうして\ua\exslabel{発話例f2}\itemA→Bだって,もう疲れたよ\da\exslabel{発話例f3}}この例では,表面上は\exsref{発話例f1}と\exsref{発話例f3}が因果関係を表しており,その間に存在する\exsref{発話例f2}は\exsref{発話例f1}への質問である.これは「B→Aどうして,もう帰るの\ua」という発話の後半(\exsref{発話例f1}で述べられている内容)を省略したものである.このことから,\exsref{発話例f3}は\exsref{発話例f2}において省略された部分を後件とした時の前件であるとみなすことも可能である.つまり,因果関係の前件に関与する発話\exsref{発話例f1},\exsref{発話例f2}に対し,\exsref{発話例f3}によって後件が述べられているとみなすことができる.なお,($\beta$)は形式的な特徴として「質問文に接続表現を含む発話が隣接する」と捉えられるが,この場合の例外として,「だから」を含む発話の前方に質問を示す発話が隣接する場合があげられる.その一例を\exsref{発話例外}に示す.\eenumsentence{\exslabel{発話例外}\itemD→A明日は打ち合わせがあるんですよね\ua\itemA→Dそうだよ\da\itemC→Aえっ\ua\exslabel{発話例外c}\itemA→Cだから,明日は打ち合わせだってば.\da\exslabel{発話例外d}}質問を示す発話と隣接するという点では\exsref{発話例f}や後述する\exsref{発話例l}と同様であるが,\exsref{発話例外}ではこれが因果関係を述べると仮定した場合に\exsref{発話例外d}の前件となるような意味内容を含む発話が述べられておらず,\exsref{発話例外c}から推測することも不可能である.実際には,この発話例では\exsref{発話例外d}は\exsref{発話例外c}を発した人物Mに対して「それは前に説明したはずだが,覚えていないのか」などのような非難の態度を表明するものであり,因果関係についての発話ではないと考えられる\cite{白川:理由を表さない「カラ」}.これについては,つぎの観察として述べることができる.\begin{screen}\begin{obs}\obslabel{例外}質問を示す発話に対し,「だから」が含まれる発話が隣接する場合,「だから」を含む発話が因果関係に関与しない場合がある.\end{obs}\end{screen}($\beta$)のもう一つの場合として,同意を示す発話が挿入される例を次に示す.\eenumsentence{\exslabel{発話例g}\itemA→Bもう疲れた\da\exslabel{発話例g1}\itemB→Aそうだね\da\exslabel{発話例g2}\itemA→Bだから,帰るよ\da\exslabel{発話例g3}}この例でも,表面上は\exsref{発話例g1}と\exsref{発話例g3}が因果関係を表している.さらに\exsref{発話例g2}は\exsref{発話例g1}で述べられている内容への同意を示している.この発話は,「B→Aそうだね,私ももう疲れた\da」のように言い換えることが可能であり,\exsref{発話例g1}による意味内容を含んでいるとみなすことができる.このことから,因果関係の前件の意味内容は\exsref{発話例g1},\exsref{発話例g2}の双方に含まれ,それに対する後件が\exsref{発話例g3}で述べられているとみなすことができる.このように,因果関係の前件もしくは後件が複数の発話の意味内容に含まれていると解釈可能な場合,それを{\bf発話群}として次のように定義する.\begin{screen}\begin{df}\deflabel{発話群}因果関係の前件もしくは後件が連続する複数の発話の意味内容に含まれていると解釈されるとき,それを発話群と呼ぶ.この時,発話群中には前件もしくは後件の意味内容を明示する発話が一つ以上必ず含まれる.\end{df}\end{screen}上の例文では,\exsref{発話例e2},\exsref{発話例e3}が前件となる発話群であり,双方の発話によって前件の意味内容が明示されている.また,\exsref{発話例f1},\exsref{発話例f2}は後件となる発話群であり,\exsref{発話例f1}が後件の意味内容を明示している.さらに,\exsref{発話例g1},\exsref{発話例g2}も前件となる発話群であり,やはり\exsref{発話例g1}が前件の意味内容を明示しているととらえることが可能である.そして,これまでの議論から\obsref{基本距離}は次のように言い換えることが可能となる.\begin{screen}\begin{obs}\obslabel{距離a}因果関係の前件及び後件が談話中で明示される場合,次のいずれかの構造をとることが可能である.\begin{enumerate}\item前件及び後件がそれぞれ一つの発話で表わされ,それらが隣接する.\item前件あるいは後件のいずれかが一つの発話で,もう一方が発話群により表わされ,それらが隣接する.\item前件及び後件の双方が発話群により表わされ,それらが隣接する.\end{enumerate}なお,すべての場合において,前件及び後件に関係する話し手についての制限はなく,前件と後件が同一話者による場合も異なる話者による場合も存在する.\end{obs}\end{screen}一方,($\gamma$)で述べたように,直接的に組となる発話は存在しないものの,発話の含意あるいは前提から因果関係の前件と後件との関係が間接的に認識可能な場合がある.例えば,\exsref{発話例l}では,\exsref{発話例l1}の発話により「Bが飲んでいない」あるいは「Bが飲むことをストップしている」などという前提が導かれ,これを後件として\exsref{発話例l2}が因果関係の前件を述べていると解釈可能である.\eenumsentence{\exslabel{発話例l}\itemA→B今日はもう飲まないの\ua\exslabel{発話例l1}\itemB→Aだってもう眠いし\da\exslabel{発話例l2}}これは,質問に対する返答となるという点では\exsref{発話例f}の場合と類似しているが,\exsref{発話例f}では\exsref{発話例f1}として因果関係の後件の意味内容が明示されているのに対し,\exsref{発話例l}では\exsref{発話例l2}の後件の意味内容が明示されていない点で異なるものであり,これらは区別して扱う必要があると考えられる.なお,この例では「質問--応答」という形式から,前件と後件との関係を認識するための間接的な手がかりとなる発話を比較的容易に認識可能であるが,例えば「周囲の人がお酒を探している」など平叙文により述べられている発話状況に対して「ここにお酒がたくさんあるから.」という発話がなされる場合も考えられる.この場合は,発話状況や文脈などから因果関係が存在するかどうかを推測する必要がある.以上のように,接続詞あるいは接続助詞類が談話中で用いられ,それによる因果関係の前件及び後件が発話中に明示されている場合は,\obsref{接続助詞}〜\obsref{距離a}に述べた事柄が観察されると考えられる.これについては,次章で実際にコーパスを用いて検証を行なう.一方,接続詞あるいは接続助詞を含む発話に対し,それと対応する前件あるいは後件を発話の含意あるいは前提をもとに推測する必要がある場合も存在する.この現象は本技術資料での観察の対象外であり,次章での検証でもその主な対象から省くこととする. \section{コーパスによる検証} ここでは,前章での議論をふまえ,実際の会話中に現れる発話の組について\figref{コーパス例}に例を示したコーパスを用いて調べる.このコーパスは1980発話からなり,因果関係を表す接続詞として「だから/だって」,接続助詞類として「ので/から/のだから/のだもの」が用いられている発話が121発話存在する.これから,「頼むから,もう撮るのを止めて下さい」など通常の複文が発話されている16例を除いた105例のうち,因果関係の前件及び後件の双方が談話中に明示されていると認められる例が61発話存在する.これを次のように分類する.\begin{itemize}\item\obsref{接続助詞},\obsref{接続詞}より,前件,後件の位置関係には次のような場合が考えられる.\begin{center}\begin{tabular}{rlcrl}(a1)&前件.だから---後件.&&(b1)&前件---接続助詞.後件.\\(a2)&後件.だって---前件.&&(b2)&後件.前件---接続助詞.\\(a3)&だって---前件.後件.&&&\end{tabular}\end{center}\item\obsref{距離a}より,前件と後件の間の距離およびそれぞれの話し手には次のような場合が考えられる.\begin{itemize}\item[(A)]前件および後件がそれぞれ隣接する一つの発話で表され,双方の話し手が同一人物である.\item[(B)]前件および後件がそれぞれ隣接する一つの発話で表され,双方の話し手は異なる人物である.\item[(C)]前件もしくは後件のいずれかが発話群である.\end{itemize}さらに,上記の(C)を次のように分類する.\begin{itemize}\item[(C--$\alpha$)]前件あるいは後件のいずれかが複数の発話からなる場合.\item[(C--$\beta$)]前件と後件それぞれを表す発話の間に,質問あるいは同意を示す発話が存在する場合.\end{itemize}\end{itemize}分類の結果を\tableref{分類結果}に示す\footnote{\obsref{距離a}より「前件および後件の双方が発話群である」という場合も考えられるが,今回用いたコーパス中ではそのような例は認められなかったため,ここでは省略した.}.\begin{table}[htbp]\caption{因果関係が認められる発話の分類}\tablelabel{分類結果}\begin{center}\begin{tabular}{|c|r|r|r|r|r||r|}\hline&(a1)&(a2)&(a3)&(b1)&(b2)&計\\\hline(A)&2&6&1&4&20&33\\\hline(B)&2&4&0&0&6&12\\\hline(C-$\alpha$)&1&2&0&1&4&8\\\hline(C-$\beta$)&3&3&0&0&2&8\\\hline\hline計&8&15&1&5&32&61\\\hline\end{tabular}\end{center}\end{table}この結果から,次のようなことがいえる.まず,前件と後件の位置関係に関する\obsref{接続助詞},\obsref{接続詞}について分類した結果からであるが,最も例が多いのは(b2)の32例であり,続いて(a2)の15例となっている.因果関係を表す複文では,後件は主節によって述べられ,こちらに重点を置くため主節と従属節を倒置する,という現象が見られるが,これが(b2)に相当するものと考えられる.一方,接続詞による因果関係では,前件と後件の間に接続詞が位置するような(a1)および(a2)が一般的であるといえる.これに対して,接続詞が前件と後件の間に明示されず,前件→後件の順序のみを満たす場合である(a3)は1例しか存在しない.これを\exsref{実例1}に示すが,\obsref{接続詞}で述べたように,因果関係は\exsref{実例1c}の「「ちきしょう,ばれたか」って出てきて,『は\ua』って」という部分での接続表現によって主に述べられているものと考えられる.\eenumsentence{\exslabel{実例1}\itemB→Eあ,テッチャンその場にいたのか\da\itemB→Eなんだ\da\itemE→Gだって,誰も気づいていないのに,いきなり平賀電信柱の陰から「ちきしょう,ばれたか」って出てきて,「は\ua」って\da\exslabel{実例1c}\itemE→Gすっげー面白かった\da}次に,前件と後件の隣接性に関する,\obsref{距離a}についての分類では,(A)は33例,(B)は12例,(C)は16例となっている.これから,「2つの発話が隣接し,かつ同一の話し手による発話である」という,人間による因果関係の認識を促す要素が重なっている場合が最も数が多い,という結果となる.また,61発話のうち,因果関係が認められるものの,その前件と後件の位置関係が隣接関係に収まらない例は全て(C--$\alpha$)もしくは(C--$\beta$)として分類可能であったことから,\defref{発話群}で述べた発話群を考慮した場合,前件と後件が発話もしくは発話群として明示されるような因果関係の場合は,それらは隣接関係にあるということが実際のコーパスからもいえる.ところで,上記の分類の対象から除外した44発話は,おおまかに次のような場合に分類される.\begin{enumerate}\item発話の含意もしくは前提などによって,因果関係が推定可能であると考えられる場合.…18例.\item因果関係の推定(認識)が不可能な場合.…26例.\end{enumerate}前者の一例を次に示す.\eenumsentence{\exslabel{実例3}\itemJ→B柿だけ食べてるの\ua\exslabel{実例3a}\itemB→Jいや,向こう豆ばっかあるからさ\da\exslabel{実例3b}}これは,\exsref{発話例l}と同じように,\exsref{実例3a}から「柿だけ食べている」という前提が導かれ,それに対する前件(理由)として\exsref{実例3b}が述べられているというように因果関係が推定可能である.なお,後者に属する例のうち,\obsref{例外}が確認される例が4例存在した.その一例を\exsref{実例2}に示す.\eenumsentence{\exslabel{実例2}\itemF→A肝試しとか騒いじゃいけないって意味じゃないんですか\ua\itemA→Fそうそうそう\da\itemM→Aはい\ua\exslabel{実例2c}\itemA→Mだから,肝試しとかうるさくするなってことだと思う\da\exslabel{実例2d}}今回用いたコーパス中では,質問を示す発話に「だから」を含む発話が隣接した場合は,すべて\obsref{例外}が確認されるような場合であった.以上の結果は,\tableref{最終結果}としてまとめることができる.この表から,今回用いたコーパスにおいて,接続詞もしくは接続表現が含まれる発話すべてを対象とした場合,\obsref{接続助詞},\obsref{接続詞}および\obsref{距離a}で述べた事柄は全体の50.4\%をカバーしており,人間により因果関係が認識される95例に限ればその64.2\%に対して有効な内容であることがわかる.\begin{table}[htbp]\caption{コーパス中の発話例の分類}\tablelabel{最終結果}\begin{center}\begin{tabular}{|c|c|r|}\hline&通常の複文&16例(13.2\%)\\\cline{2-3}&\obsref{接続助詞},\obsref{接続詞}および\obsref{距離a}が&\lw{61例(50.4\%)}\\%因果関係が認められる場合&認められる場合&\\\cline{2-3}&発話の含意や前提により&\lw{18例(14.9\%)}\\%&類推可能な場合&\\\hline\multicolumn{2}{|c|}{因果関係の認識が困難}&\lw{26例(21.5\%)}\\%\multicolumn{2}{|c|}{あるいは不可能な場合}&\\\hline\hline\multicolumn{2}{|c|}{計}&121例(100.0\%)\\\hline\end{tabular}\end{center}\end{table} \section{おわりに} 本技術資料では,接続詞や接続助詞類によって前件と後件が関係づけられるような因果関係を対象とし,談話中で前件と後件が明示される場合にはどのような現象が観察されるのか,について検討を行ない,その結果を\obsref{接続助詞}〜\obsref{距離a}として述べた.特に\obsref{距離a}では,\defref{発話群}で示した「発話群」を導入することにより,因果関係の基本的構造が隣接関係として説明可能であることを示した.次に,実際の会話コーパスを用いて上記の考察を検討し,コーパス中で対象となる発話全体(121例)の50.4\%,人間により因果関係が認識可能な場合(95例)に限ると64.2\%の割合の発話例に対して\obsref{接続助詞}〜\obsref{距離a}で述べた事柄が確認されることを検証した.なお,この検証作業は手作業によるものだが,最終的にはこれを機械的に行なえるシステム,つまり談話理解システムの構築に対して本技術資料で述べた考察を適用することが考えられる.現段階では,\tableref{最終結果}のうち「通常の複文」の場合および「\obsref{接続助詞},\obsref{接続詞},\obsref{距離a}が認められる場合」については形態素解析の結果など発話の表層的な情報から因果関係の認識が可能であり,121発話に対して6割弱の場合については本技術資料での考察結果をもとにした談話構造の解析が可能と考えられる.ただし,発話の含意や前提を利用して因果関係を推定する必要がある場合や,人間による因果関係の認識自体が困難あるいは不可能な場合が存在し,これらを発話の表層情報から特定することは非常に困難であると考えられ,総合的な談話理解システムの構築に際してはこの点の検討が課題となると考えられる.\section*{謝辞}本研究は,文部省科学研究費重点領域研究「音声対話」の補助を受けていることを記し,御協力いただいた関係各位に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{j-paper}\begin{biography}\biotitle{略歴}\bioauthor{西澤信一郎}{1969年生まれ.1992年横浜国立大学工学部卒業.1997年同大学大学院工学研究科博士課程修了.工学博士.現在,富士通株式会社に勤務.情報処理学会および言語処理学会の会員.}\bioauthor{中川裕志}{1953年生まれ.1975年東京大学工学部卒業.1980年同大学院博士課程修了.工学博士.1980年より横浜国立大学工学部勤務.現在,同教授.日本語の意味論,語用論,電子化マニュアル検索システム,マルチメディア検索,情報検索,自動ハイパーテキスト化などの研究に従事.日本認知科学会,人工知能学会などの会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V25N05-03
\section{はじめに} 本稿では日本語名詞句の情報の状態を推定するために読み時間を用いることを目指して,情報の状態と読み時間の関連性について検討する.名詞句の情報の状態は,情報の新旧に関するだけでなく,定性・特定性など他言語の冠詞選択に与える性質や,有生性・有情性などの意味属性に深く関連する.他言語では冠詞によって情報の性質が明確化されるが,日本語においては情報の性質の形態としての表出が少ないために推定することが難しい.情報の状態は,書き手の立場のみで考える狭義の情報状態(informationstatus)と読み手の立場も考慮する共有性(commonness)の2つに分けられる.前者の情報状態は,先行文脈に出現するか(既出:discourse-old)否か(未出:discourse-new)に分けられる.後者の共有性は,読み手がその情報を既に知っていると書き手が仮定しているか(既知:hearer-old),読み手がその情報を文脈から推定可能であると書き手が仮定しているか(ブリッジング:bridging),読み手がその情報を知らないと書き手が仮定しているか(未知:hearer-new)に分けられる.以後,一般的な情報の新旧を表す場合に「情報の状態」と呼び,書き手の立場のみで考える狭義の情報の新旧を表す場合に「情報状態」(informationstatus)と呼ぶ.これらの情報の状態は,言語によって冠詞によって明示される定性(definiteness)や特定性(specificity)と深く関連する.また,\modified{情報の状態は},有生性(animacy),有情性(sentience),動作主性(agentivity)とも関連する.\modified{日本語のような冠詞がない言語においても,これらの「情報の状態」は名詞句の性質として内在しており,ヒトの文処理や機械による文生成に影響を与える.}機械翻訳を含む言語処理における冠詞選択手法は,これらの名詞句にまつわる様々な特性を区別せずに機械処理を行っているきらいがある.例えば,\cite{乙武-2016}は,本来,定・不定により決定される英語の冠詞推定に情報の新旧の推定をもって解決することを主張している.彼らの主張では,談話上の情報の新旧をもって定・不定が推定できると結論付けている.また,自動要約や情報抽出においても,既出・未出といった情報状態の観点,つまり書き手側の認知状態が主に用いられ,既知・想定可能・未知といった共有性の観点\modified{,つまり読み手側の認知状態}が用いられることは少ない.\modified{これらを適切に区別して,識別することが重要である.特に,読み手の側の情報状態は,自動要約や情報抽出の利用者の側の観点である.さらにその推定には読み手の側の何らかの手がかりをモデルに考慮することが必要になると考える.}言語処理的な解決手法として,大規模テキストから世界知識を獲得して情報状態を推定する方法が考えられる一方,読み手の反応を手がかりとして共有性を直接推定する方法\modified{が}考えられる.\modified{読み手の反応に基づいて,読み手側の解釈に基づく日本語の情報状態の分析は殆どない.}そこで,本稿では,対象とする読み手に対する情報の状態が設定されているであろう新聞記事に対する読み時間データが,名詞句の情報の状態とどのような関係があるのかを検討する.もし読み時間が名詞句の情報の状態と何らかの関係があるのであれば,視線走査装置などで計測される眼球運動などから,情報の状態を推定することも可能であると考える.\modified{特に共有性は読み手の側の情報状態であるにかかわらず,既存の日本語の言語処理では読み手の側の特徴量を用いず推定する手法が大勢であった.}\modified{なお,本研究の主目的は冠詞選択にはなく,日本語の名詞句の情報状態を推定することにある.その傍論として既存の冠詞選択手法が定・不定などの名詞句の特性と本稿で扱う書き手・読み手で異なる情報状態とで差異があり,言語処理の分野において不適切に扱われてきた点について言及する.}\modified{以下,2節では関連研究を紹介する.3節に情報状態の概要について示す.4節に読み時間の収集方法について示す.5節では今回利用する読み時間データおよび情報の状態アノテーションデータと分析手法について示す.6節で実験結果と考察について示す.7節で結論と今後の方向性について示す.} \section{関連研究} 情報状態に関するアノテーションについての関連研究を示す.G{\"o}tzeらは情報状態(既出(given)/想定可能(accessible)/未出(new))や話題(aboutness/framesetting)や焦点(新情報焦点(new-informationfocus)/対照焦点(contrastivefocus))に関する言語非依存のアノテーション基準を提案している\cite{Gotze2007}.Prasadらは,PennDiscourseTreebank\cite{PRASAD08.754}およびPropBank\cite{Palmer-2005}に対するブリッジングアノテーションの基準について議論している\cite{prasad-EtAl:2015:LSDSem}.\modified{次に,英語の冠詞推定に関連する研究について言及する.先に述べた\cite{乙武-2016}では,情報の新旧と定・不定の近似による手法を提案している.\cite{竹内-2013}では,ブリッジング(想定可能)にも言及しているが,単語の共起をもってブリッジングとしており,実際に読み手が想定可能かどうかについての言及はしていない.これらは,英語の冠詞が表出する定・不定を誤って理解していることによるものだと考える.}最後に,視線走査関連についての関連研究を示す.DundeeEyeTrackingCorpus\cite{Kennedy-2005}は英語とフランス語の新聞社説をそれぞれ10人の母語話者に呈示して視線走査装置を用いて収集した読み時間データである.また,視線走査データを用いた言語学的な分析について紹介する.DembergらはDundeeEyeTrackingCorpusを用いて,Gibsonのdependencylocalitytheory(DLT)\cite{Gibson-1998}やHaleのsurprisaltheory\cite{Hale-2001}を検証した\cite{Demberg-2008}.Barretらは視線走査データに基づいて品詞タグ付けを行う手法を提案している\cite{barrett-EtAl:2016:P16-2}.Klerkeらは視線走査により,機械処理されたテキストの文法性判断を行う手法を提案している\cite{klerke-EtAl:2015:NODALIDA}.\modified{このように視線走査を用いて,読み手側の要因をいれた研究が盛んに進められている.} \section{名詞句の情報の状態について} 本節では名詞句の情報の状態について概説する.なお,本節は\cite{Miyauchi-2017,Miyauchi-2018}に記載されているものの一部であるが,査読者の指示で掲載する.本研究で利用するアノテーションデータBCCWJ-Infostrでは以下の7種類の情報の状態にまつわる属性について検討する.\begin{exe}\ex\label{label}\begin{xlist}\ex\label{inf}情報状態(informationstatus)\\「新情報(discourse-new)」「旧情報(discourse-old)」\ex\label{com}共有性(commonness)\\「共有(hearer-new)」「非共有(hearer-old)」\ex\label{def}定性(definiteness)\\「定(definite)」「不定(indefinite)」\ex\label{spec}特定性(specificity)\\「特定(specific)」「不特定(unspecific)」\ex\label{an}有生性(animacy)\\「有生(animacy)」「無生(inanimate)」\ex\label{sen}有情性(sentience)\\「有情(sentient)」「無生(insentient)」\ex\label{ag}動作主性(agentivity)\\「動作主(agent)」「被動作主(patient/theme)」\end{xlist}\end{exe}アノテーション対象とする『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014-LRE}では,長単位と短単位という2つの単位が採用されているが,本研究では,短単位の名詞をアノテーション対象とする.アノテータはBCCWJ-DepParaPAS\cite{植田-2015,AsaharaOmura2016}に付与された共参照情報を確認しながら,作業を行う.ただし,複合語については,前部要素には指示性(referentiality)がないこと等を考慮して,前部要素まで含めて一つの名詞と捉えることにより,実質的に長単位名詞句へのアノテーションを行うことになる.この単位に対する方針については,基本的にはBCCWJ-DepParaPASの作業方針と同じである.上記に示したタグは言語学の専門的な知識を持つものでないとアノテーションができないために,1人の言語学博士課程の学生がアノテーションし,3人がその結果を確認した.定性・特定性・有生性・有情性・動作主性については,与えられた文脈から判断できない場合に「どちらでもよい」というタグを認めた.特に動作主性については,ある名詞句が主節から見た場合と従属節から見た場合と異なる場合に付与した.なお,共有性・特定性・動作主性については,その概念が認めがたい場合に「どちらでもない」というタグを認めた.以下,実例と共にそれぞれのラベルのアノテーション基準を示す.\subsection{情報状態・共有性}(\ref{inf})の情報状態とは,いわゆる旧情報と新情報の区別である.ある談話において,新たな情報は「新情報」となり,聞き手/読み手が知っている情報は「旧情報」となる.一つのテクスト(BCCWJ新聞サンプルにおける記事単位)全体を一つの談話とみなし,アノテーションを行った.\begin{exe}\ex\begin{xlist}\ex\label{is:ex1}担任だった\underline{池田弘子先生}は違った。\ex\label{is:ex2}スクールカウンセラーでもあった\underline{先生}の授業は\end{xlist}\rightline{読売新聞[BCCWJ:PN1c\_00001]}\end{exe}(\ref{is:ex1})の下線部の名詞「池田弘子先生」はこのテクストで初出の実体であるために,末尾の短単位名詞に新情報タグが付与される.一方,(\ref{is:ex2})下線部の名詞「先生」は(2a)の「池田弘子」を指示しているため旧情報タグが付与される.これらの名詞は共参照関係にあり,BCCWJ-DepParaPASのアノテーションから展開できるが,展開したのち,全数確認を行いラベル付与した.(\ref{com})の共有性は,情報を聞き手が既に知っていると話し手が想定しているか否かを示す分類である.聞き手が既に知っていると話し手が想定している情報は「共有(hearer-old)」であり,知らないと想定している情報は「非共有(hearer-new)」である.なお,この判断の際はアノテータの世界知識を使ってもよいこととし,「想定可能」というラベルも許す.このラベルは,ブリッジング(bridging)を起こしている際に付与される.\begin{exe}\ex\label{com:ex1}\begin{xlist}\underline{${}_{a}$キャンティ街道}を抜け、\underline{${}_{b}$オリーブ畑}に囲まれた田園地帯の\underline{${}_{c}$レストラン}で、\end{xlist}\rightline{読売新聞[BCCWJ:PN4c\_00001]}\end{exe}\ref{com:ex1}の下線部a.の名詞「キャンティ街道」は,世界遺産にも登録されている,ワインで有名な街道であり,アノテータは既にこの街道について知っていたため,共有のタグが付与された.下線部b.の名詞「オリーブ畑」はこの記事からどんなオリーブ畑であるのか判断できないため,非共有のタグが与えられる.下線部c.の名詞「レストラン」はキャンティ街道のレストランを指しており,ある種のブリッジングを起こしているため,想定可能のタグが付与される.\subsection{定性・特定性}(\ref{def})の定性とは,指示対象を聞き手が同定できるか否かを示す分類である.指示対象を聞き手が同定できると話し手が想定していれば「定(definite)」であり,同定できないと想定していれば「不定(indefinite)」である.本研究では,判定する際に確認する文脈として前後3文を見ることとする.\begin{exe}\ex\label{def:ex1}\begin{xlist}高等部では自由な校風もあって、流行に乗ってかばんを薄くつぶしたり、ピアスをしたり。呼び出して注意する先生もいたが、二、三年時に担任だった池田弘子先生(七十五)は違った。「そんな薄い\underline{${}_{a}$かばん}じゃ\underline{${}_{b}$遊び道具}も入らないよ」\end{xlist}\rightline{読売新聞[BCCWJ:PN4c\_00001]}\end{exe}(\ref{def:ex1})の下線部a.の名詞「かばん」はスコープである(\ref{def:ex1})の前3文以内に既出の名詞であり,ここでは具体的に聞き手の持ち物のかばんを指示している.話し手はこの「かばん」は聞き手により同定しうると想定していると考えられるため,定のタグが与えられる.(\ref{def:ex1})の下線部b.の名詞「遊び道具」は特に具体的な何か遊び道具を指示しているわけではないため,不定のタグが付与される.(\ref{spec})の特定性は,定性と少々似た概念であるが,話し手が特定の事物を想定しているか否かを示す意味論的カテゴリーである.話し手が特定の事物を想定しているならば「特定(specific)」となり,想定していなければ「不特定(unspecific)」となる.定性と同様,特定性に関しても文脈として前後3文を見ることとする.\begin{exe}\ex\label{spec:ex1}\begin{xlist}米どころの同町では、降霜対策で農家による廃タイヤの野焼きが行われてきたが、ダイオキシン問題や交通妨害が指摘され、行き場を失った\underline{${}_{a}$廃タイヤ}があぜ道や\underline{${}_{b}$納屋}の横に放置されてきた。同町が昨秋行った調査では、廃タイヤは農家が抱えるものや不法投棄を含め約三万本に上るという。\end{xlist}\rightline{読売新聞[BCCWJ:PN4c\_00001]}\end{exe}\ref{spec:ex1}の下線部a.の名詞「廃タイヤ」は,北海道鷹栖町に放置された約30,000本のタイヤを具体的に指しており,これは\ref{spec:ex1}の前後3文から読み取ることが可能であるため特定のタグが付与される.\ref{spec:ex1}の下線部b.の名詞「納屋」は特定の納屋が想定されているわけではなく,不特定のタグが与えられる.\subsection{有生性・有情性}(\ref{an})の有生性とは,生きているか否かを示すカテゴリーである.生物(人間,動物など)は「有生(animate)」であり,無生物(植物を含む)は「無生(inanimate)」である.有生性は名詞句レベルのみで判断し,付与されるものとする.有生性と似た概念として(\ref{sen})の有情性がある.これは,情意があるか否かを示すパラメターである.自由意志による移動が可能な場合は「有情(sentient)」となり,自由意志による移動がないなら「非情(insentient)」となる.日本語については,有生/無性の区別よりも有情/非情の区別が重要であるとする立場もあり,また,有生性と有情性の値が異なる場合もあり得ることから,このパラメターの設定が必要となる.情意の有無は名詞句単体では判定できない場合があるため,有情性は述語-項レベルまで見た上で判断し,付与されるものとする.\begin{exe}\ex\label{an:ex1}\begin{xlist}オオクチバスなどの\underline{${}_{a}$ブラックバス類}が、少なくとも四十三都道府県の七百六十一のため池や\underline{${}_{b}$湖沼}に侵入し、\end{xlist}\rightline{読売新聞[BCCWJ:PN4c\_00001]}\end{exe}(\ref{an:ex1})の下線部a.の名詞「ブラックバス」は生物であるため,有生のタグが付与される.また,ブラックバスに情意があるか否かは判断が難しいが,その述語は「侵入する」となっており,これは意志的な動作,行為を表しているため,ここでの「ブラックバス」は有情のタグが付与されることになる.(\ref{an:ex1})の下線部b.の名詞「湖沼」は無生物であり,情意もないと判断されるため,それぞれ,無生,非情のタグが与えられる.\subsection{動作主性}(\ref{ag})の動作主性は,事態に関わる事物や人物がその事態で果たしている役割を示す.行為を意図的に実現するものは「動作主(agent)」とし,行為によって変化を被るものを「被動作主(patient/theme)」とする.このパラメターについては節レベルまで見て判断し,タグを付与することとする.その際,主節と従属節の両方を考慮する.また,「どちらでもよい」「どちらでもない」を許す.\begin{exe}\ex\begin{xlist}\ex\label{ag:ex1}編み笠をかぶった人なつっこい\underline{笑顔}を見るだけで、\ex\label{ag:ex2}もみじの木にとまって仲良く寄り添う二羽の\underline{キジバト}。\ex\label{ag:ex3}独特な雰囲気の\underline{写真}になりました。\end{xlist}\rightline{読売新聞[BCCWJ:PN1d\_00001]}\end{exe}(\ref{ag:ex1})の下線部の名詞「笑顔」は,主節では被動作主であり従属節では動作主である.このような場合に「どちらでもよい」というタグを付与する.(\ref{ag:ex2})の下線部の名詞「キジバト」は,それを含む文がこの名詞で終わる体言止めの文であるため主節では動作主性の判断ができないが,従属節では動作主であるため,「動作主」というタグを付与する.(\ref{ag:ex3})の下線部の名詞「写真」は動作主でも被動作主でもないため,「どちらでもない」となる.\subsection{名詞句の情報の状態のまとめ}このように名詞句の情報の状態は,多様な観点が分析される.しかしながら,2節で示した日本人工学研究者による英語の冠詞推定手法のように,これらが混同されて扱われてきた.なお,我々の興味は,冠詞推定にはなく,情報の状態にある.情報の状態は3.1節に示した通り,書き手にとっての情報の新旧である情報状態と,読み手にとっての情報の新旧である共有性の2つの観点がある.前者の情報状態については,談話の出現について言及する共参照解析により言語処理に分野では扱われてきた.本稿では,後者の共有性を読み手の視線情報により捉えるかを検証する.一般に,情報抽出や自動要約のために必要なのは,アプリケーションを利用する受け手側から見た情報の新旧である共有性にある. \section{読み時間の収集方法} 本節では読み時間の収集方法について説明する.なお,本節は言語学会論文誌『言語研究』に投稿中のものの一部であるが,査読者の指示で掲載する.読み時間を収集する対象は,BCCWJ\cite{Maekawa-2014-LRE}のコアデータの新聞記事データ(PNサンプル)の一部とした.\modified{コーパスアノテーションの分野では,できる限り同じテキストに様々な情報を付与するという取組が進められている.}対象の記事は,研究者コミュニティで共有されているアノテーションの優先順位\footnote{https://github.com/masayu-a/BCCWJ-ANNOTATION-ORDER}に基づいて選択した.\modified{これにより,係り受け\cite{Asahara-2016-ALR12}・節境界\cite{Matsumoto-2018}・分類語彙表番号\cite{加藤-2017}・情報構造\cite{Miyauchi-2017,Miyauchi-2018}・述語項構造および共参照\cite{植田-2015}・否定の焦点\cite{松吉-2014}などのアノテーションとの重ね合わせに基づく分析が可能になる.DundeeEyeTrackingCorpusにおいてもDundeeTreebank\cite{Kennedy-2003}など品詞・係り受け・共参照の整備が進んでいるが,本研究のBCCWJ-EyeTrackのようにコーパス言語学的な統語・意味・談話レベルの情報が重畳的に付与されていない.}\modified{読み時間データの}収集方法として,自己ペース読文法と視線走査法を用いた.自己ペース読文法は,キーボード入力などに基づき,逐次的に文字列を表示し,実験協力者のペースで文を読む課題である.\modified{図\ref{fig:selfpaced}に課題の画面例を示す.最初,コンピューター画面上には,文の長さを表すアンダーバーが表示されている.被験者がスペースキーを押すごとに,刺激文の始めから1文節(もしくは1単語)ずつ表示され,直前に表示されていた文節はアンダーバーに戻る.文節が表示されてから,次にボタンを押すまでの時間が,その文節の読解時間としてミリ秒単位で記録される.}英語においては視線走査で得られる読み時間との高い相関があることが知られており\cite{Just-1982},安価な機器で読み時間を取得することができる.刺激の呈示方法として移動窓方式を用いた.自己ペース読文法を実施するソフトウェアとしてLinger\footnote{http://tedlab.mit.edu/{\textasciitilde}dr/Linger/}を用いた.\begin{figure}[t]\begin{center}\includegraphics{25-5ia3f1.eps}\end{center}\caption{移動窓方式による自己ペース読文法}\label{fig:selfpaced}\end{figure}視線走査法は,実験協力者がディスプレイ画面上のどの文字を注視しているのかを取得する視線走査装置を用いて,視線注視箇所と注視時間を計測する手法である.自己ペース読文法と異なり,読み戻しなどのより自然な読み時間を取得することができる.視線走査装置としてSRResearch社のEyeLink1000シリーズ(タワーマウント)を用い,時間解像度は1,000~Hzで,ミリ秒単位のデータが収集可能である.視線走査法においては刺激となるテキストは等幅フォント(MS明朝24ポイント)を用いて横書きで1画面に最大5行を21.5インチのディスプレイに呈示した.横方向には全角で最大53文字を呈示し,後述のとおり文節境界に半角スペースを入れた場合には,最大全角53文字を超えないようにした単位で折り返し,1画面に5行まで表示した.文境界には必ず改行を入れた.視線走査装置の上下方向の誤差を吸収するために,各行は3行空けて呈示した.実験協力者はあご台に顔を固定した状態で,ハーフミラー越しに画面を見るという姿勢で,課題に取り組んだ.自己ペース読文法では,ハーフミラーつきのあご台を用いない以外は同条件で実験を行った.文字列を呈示する基本単位としてBCCWJに付与されている国語研文節単位を用いた.自己ペース読文法では,文節単位でテキストを表示した.また文節境界に半角スペースを空けた条件と空けていない条件の2つの条件を用意し,読み時間を計測した.実験は新聞記事20件をA,B,C,Dの4つのユニットに分割し,視線走査法による計測を2セッション実施したのちに,自己ペース読文法による計測を2セッション実施した.実験協力者は各新聞記事20件を一度だけ読む.各ユニットの文節数,文数,画面数を表\ref{tbl:data1}に示す.1件の新聞記事を読み終わり,次の新聞記事が始まる際には,必ず画面を改めた.実験協力者は3人ずつ8つのグループに分け,表\ref{tbl:subj}のように実験を行った.全実験協力者は視線走査法を行ったのちに,自己ペース読文法を行った.\begin{table}[t]\caption{それぞれの記事ユニットに含まれる文節数,文数,画面数}\label{tbl:data1}\input{03table01.tex}\end{table}\begin{table}[t]\caption{実験計画:各被験者グループにおける記事ユニットと課題・文節境界の空白の有無の対応関係}\label{tbl:subj}\input{03table02.tex}\end{table} \section{データと分析手法} 本研究では『現代日本語書き言葉均衡コーパス』\cite{Maekawa-2014-LRE}(以下BCCWJ)に対する読み時間データBCCWJ-EyeTrack\cite{Asahara-2016-COLING}に,情報の状態アノテーションBCCWJ-Infostr\cite{Miyauchi-2017,Miyauchi-2018}を重ね合わせたもの(表\ref{tbl:data})を用いる.これらをベイジアン線形混合モデル\cite{Sorensen-2016}により回帰分析することにより,読み時間と情報の状態との関係を明らかにする.以下では,それぞれのデータについて概説する.\begin{table}[b]\caption{利用するデータの概要}\label{tbl:data}\input{03table03.tex}\end{table}\subsection{BCCWJ-EyeTrack:読み時間のデータ}自己ペース読文法で取得したデータは,取得時に語句が文節単位に呈示され,読み戻しができないために,文節単位の読み時間がそのままデータとなる.視線走査法で取得したオリジナルのデータは文字の半角単位にStartFixationTime(注視開始時刻)とEndFixationTime(注視終了時刻)とFixationTime(注視時間)を得た.このデータを国語研文節単位でグループ化しなおしたものを注視順データと呼ぶ.この注視順データを,視線走査法を用いた読み時間計測で標準的に用いられている,以下の5つの計測時間データ(measures)に加工した\cite{vanGompel-2007}.これらは国語研文節単位を注視領域として作成した.\begin{itemize}\itemFirstFixationTime(FFT)\itemFirst-PassTime(FPT)\itemSecond-PassTime(SPT)\itemRegressionPathTime(RPT)\itemTotalTime(TOTAL)\end{itemize}説明のために図\ref{fig1}の例を用いる.図中1--12の数字が視線走査順を表す.\begin{figure}[b]\begin{center}\includegraphics{25-5ia3f2.eps}\end{center}\caption{視線走査順の例\label{fig1}}\end{figure}FirstFixationTime(FFT)はその注視領域に初めて視線が停留した際の注視時間である.例中の「初年度決算も」のFFTは5の注視時間となる.First-PassTime(FPT)は,注視領域に初めて視線が停留し,その後注視領域から出るまでの総注視時間である.出る方向は右方向でも左方向でも構わない.例中の「初年度決算も」のFPTは5,6の注視時間の合計である.Second-PassTime(SPT)は,注視領域に初めて視線が停留し,注視領域から出たあと,2回目以降に注視領域に停留する総注視時間である.例中の「初年度決算も」のSPTは9,11の注視時間の合計である.尚,FPT+SPTが後に説明するTotalTimeになる.RegressionPathTime(RPT)は,注視領域に初めて視線が停留し,その後領域の右側の境界を超えて次の領域に出るまでの総注視時間である.視線が領域の左側の境界を超えて戻った場合の注視時間も,元の注視領域のRPTとして合算する.例中の「初年度決算も」のRPTは5,6,7,8,9の注視時間の合計である.左側に戻り再度注視領域に停留しない場合も合算する.つまり,「初年度決算も」に対する9の視線停留がない場合のRPTは5,6,7,8の注視時間の合計となる.TotalTime(TOTAL)は注視領域に視線が停留する総注視時間である.例中「初年度決算も」のTOTALは5,6,9,11の注視時間の合計である.テキスト生起順データにおいて,サッケード(跳躍眼球運動)の時間は集計しない.これらの時間情報を各種情報とともにCSV形式に整形して公開する.公開データにおいては,平均読み時間や標準偏差などを用いたトリミングなどの時間情報削除処理は実施していない.データは,時間情報を元テキストの情報・実験協力者の情報などとともに読み時間の種類ごとのCSV形式のデータである.表\ref{tbl:data}左にデータ形式を示す.出現書字形({\ttsurface}:factor)は実験協力者に呈示した文字列である.国語研文節単位にしたもので全角空白は除去する.読み時間({\tttime}:int)は各実験で得た時間情報である.自己ペース読文法の場合は実験協力者がその文節を見ていた時間である.視線走査法の場合は前小節で示したFirstFixationTime(FFT),First-PassTime(FPT),Second-PassTime(SPT),RegressionPathTime(RPT),TotalTime(Total)の5種類のいずれかである.単位はミリ秒とする.読み時間の種類({\ttmeasure}:factor)として\{`SelfPaced',`EyeTrack:FFT',`EyeTrack:FPT',`EyeTrack:SPT',`EyeTrack:RPT',`EyeTrack:Total'\}を定義する.尚,配布データは読み時間の種類ごとに1ファイル作成する.対数読み時間({\ttlogtime}:num)は{\tttime}の常用対数をとったものである.文字数({\ttlength}:int)は,呈示した文節の出現書字形{\ttsurface}を構成する文字の数である.注視対象の面積に相当する.文節境界の有無({\ttspace}:factor)は呈示した画面に文節境界に半角スペースがあるかないかを表す.係り受け関係({\ttdependent}:int)は当該文節に係る文節数.文節係り受けは人手で付与したもの\cite{Asahara-2016-ALR12}を重ね合わせた.記事に関するデータとして{\ttsample},{\ttarticle},{\ttmetadata\_orig},{\ttmetadata}の4つを整備した.サンプル名({\ttsample}:factor)は,各セッションごとに準備した記事ユニットで\{A,B,C,D\}からなる.各\modified{ユニット}は新聞記事5--6件から構成されている.記事情報({\ttarticle}:factor)は,記事単位の一意な識別子で,BCCWJのアノテーション優先順位・BCCWJ内サンプルID・記事番号をアンダースコアで連結したものとする.文書構造タグ({\ttmetadata\_orig}:factor)はBCCWJ内文書構造タグで,BCCWJのXMLのancestoraxisにあるタグ情報をスラッシュで連結したものである.メタデータ({\ttmetadata}:factor)は前述の{\ttmetadata\_orig}から記事の特性のみを抽出したものである.\{authorsData(著者情報),caption(キャプション),listItem(リスト),profile(プロフィール),titleBlock(タイトル領域),未定義\}のいずれかであり,BCCWJ内の文書構造タグの誤り・欠落を人手で修正したものである.次に記事や画面の呈示順の情報について説明する.セッション順({\ttsessionN}:int)は実験法ごとに\modified{文節境界空白有と文節境界空白無}の2種類のセッションの順序を表す.記事呈示順({\ttarticleN}:int)はセッションごとの記事の呈示順(1--5)を表す.画面呈示順({\ttscreenN}:int)は複数の画面にわたる記事があり,記事ごとの画面呈示順を表す.行呈示順({\ttlineN}:int)は画面ごとの行呈示順(1--5)であり,画面上の垂直方向の位置を表す.文節呈示順({\ttbunsetsuN}:int)は行ごとの文節呈示順である,画面上の水平方向の位置を表す.これらの呈示順情報により画面推移上の一意な識別が可能である.また,文頭の文節は常に係り受けの数が0であり,文末の文節は係り受けの数が多い傾向にある.また,画面レイアウト上,最左要素・最右要素・右から2番目の要素は眼球運動中に「復帰改行」の操作の影響がある.この問題を扱うために,レイアウト情報として,最左要素({\ttis\_first}:bool)・最右要素({\ttis\_last}:bool)・右から2番目の要素({\ttis\_second\_last}:bool)を固定要因とする.{\ttsample\_screen}は,画面に対する一意な識別子である.実験協力者ID({\ttsubj}:factor)は実験協力者を表示する一意な識別子である.実験協力者の特性として2つの情報を持つ.1つはリーディングスパンテスト得点({\ttrspan}:num)であり,1.5--5.0の0.5刻みの値を持つ.もう1つは語彙数テストの結果({\ttvoc}:num)であり,オリジナルの結果を1,000語で割ったもの(37.1--61.8)である.視線走査法の場合にはゼロ秒(注視されていない文節)は排除して集計した.\subsection{BCCWJ-Infostr:『現代日本語書き言葉均衡コーパス』に対する情報の状態アノテーション}本節ではBCCWJに対する情報の状態アノテーションBCCWJ-Infostr\cite{Miyauchi-2017,Miyauchi-2018}について概説する.同データでは名詞句(文節)に対して\modified{3節に示した}7種類の情報の状態を付与する.\begin{itemize}\item情報状態({\ttinfostatus:is})\item定性({\ttdefiniteness:def})\item特定性({\ttspecificity:spec})\item有生性({\ttanimacy:ani})\item有情性({\ttsentience:sent})\item動作主性({\ttagentivity:ag})\item共有性({\ttcommonnness:com})\end{itemize}情報状態は名詞句が談話文脈中で新情報か旧情報かの区別である.書き手が新しい情報として提示しているものを未出{\ttis:disc-new}と呼び,書き手が談話文脈中に既に情報として提示しているものを既出{\ttis:disc-old}と呼ぶ.同情報は,BCCWJに対する共参照情報アノテーション(BCCWJ-PAS)などから展開することができる.定性は,読み手が名詞句の参照対象が特定できるか否か\cite{Lyons1999,Heim2011}を表す分類である.ある名詞句の参照対象を読み手が特定可能であると書き手が想定している場合に定{\ttdef:definite}とし,そうでない場合に不定{\ttdef:indefinite}とする.特定性は,書き手が名詞句の参照対象を特定しているか否か\cite{Heusinger2011}を表す分類である.ある名詞句の参照対象が唯一無二もしくは書き手が特定可能であるとみなしている場合に特定{\ttspec:specific}とし,そうでない場合に{\ttspec:unspecific}とする.定性と特定性はアノテーション時には前後3文を読んだうえでタグ付けを行う.有生性は名詞句の参照対象が生きているか否かの区別である.生物(ヒト,動物)は有生{\ttani:animate}で,無生物(植物を含む)は無生{\ttani:inanimate}とする.アノテーション時には名詞句単体で評価する.似た分類で有情性がある.有情性は名詞句の参照対象が感情を持つかどうかを表し,他言語における有生性と対照して,日本語学で議論されている概念である.例えば,動詞「ある」「いる」のどちらが利用できるかにより識別される.有生性と区別するために名詞句とその係り先の述語の対をもって,有情{\ttsent:sentient}か無情{\ttsent:insentient}かを区別する.動作主性は,名詞句がある状況でどのような役割を担うかを表す分類である.名詞句の参照対象が意思をもって行動する場合に動作主{\ttag:agent}とし,ある動作により変化を伴う場合に被動作主{\ttag:patient}とする.どちらでもないものを{\ttag:neither}とする.1つの名詞句が主節述語と従属節述語の両方と格関係を持つ場合がある.この場合に動作主であって被動作主でもあるもの{\ttag:both}を許す.共有性は,聞き手が参照対象を既に知っていると書き手が仮定しているかを表す分類である.聞き手が既に知っていると書き手が仮定している場合に既知{\ttcom:hearer-old}とし,聞き手が知らないと書き手が仮定している場合に未知{\ttcom:hearer-new}とする.また,ブリッジングなどで聞き手が想定可能であると書き手が仮定している場合には想定可能{\ttcom:bridging}とする.アノテーション時には,作業者は世界知識を用いながら判定する.表\ref{tbl:basicstat}に,BCCWJ-EyeTrackと重ね合わせた情報の状態のラベルの基礎統計を示す.文脈によって判断ができず,どちらでもよいことを表す{\tt*:either}を定性({\ttdef:either}),特定性({\ttspec:either}),有生性({\ttani:either}),有情性({\ttsent:either}),動作主性({\ttag:either})に対して定義する.また,名詞句によっては定義することが不適切な場合に,どちらでもないことを表す{\ttneither}を特定性({\ttspec:neither}),動作主性({\ttag:neither}),共有性({\ttcom:neither})に対して定義する.\begin{table}[t]\caption{情報の状態の基礎統計}\label{tbl:basicstat}\input{03table04.tex}\end{table}表\ref{tbl:data}右に統計分析に利用するデータについて示す.なお,分析対象は一般化線形混合モデルに基づく分析結果\cite{Asahara-2017}に基づき,各要因の相関関係をみながら,情報状態({\ttis:*})・定性({\ttdef:*})・有生性({\ttani:*})・共有性({\ttcom:*})の4つに限定して行った.\modified{具体的には定性・特定性間と有生性・有情性間に強い相関関係があり,モデル化において多重共線性の問題が発生する.さらに動作主性については,{\ttag:neither}が多く,一般化線形混合モデルにおいて効果が見られなかったために排除した.交互作用については一般化線形混合モデル構築時に収束したモデルが構築できなかったために今回も考慮しない.}今回は,視線走査法の結果のみについて検討する.統計分析においては,名詞句でない文節も検討し,それぞれ{\tt*:NIL}とする.また,ラベルとして{\tt*:neither}がついているものについては,統計処理においては{\tt*:neither}のままとした.\subsection{BayesianLinearMixedModel:統計分析手法}先に述べた読み時間データBCCWJ-EyeTrackと情報の状態アノテーションBCCWJ-Infostrを重ね合わせたものをベイジアン線形混合モデルにより分析を行う\cite{Sorensen-2016}.\modified{帰無仮説を立てた仮説論証的な分析においては一般化線形混合モデルのような頻度主義的な考え方に基づき,有意差を検証する試みが一般的である.しかし本稿のような仮説探索的な分析においては,ベイズ主義的な考え方に基づき,強い証拠を探索する試みが適切だと考え,ベイジアン線形混合モデルを用いる.}前処理として,手修正した{\ttmetadata}\footnote{BCCWJの原版のメタデータ({\ttmetadata\_orig})が不完全であったために改めてタグ付けしたもの.}が\{{\ttauthorsData},{\ttcaption},{\ttlistItem},{\ttprofile},{\tttitleBlock}\}であるものを削除した.また読み時間データから全てのゼロミリ秒のデータポイントを排除した.統計分析は,読み時間{\tttime}を{\ttlognormal}関数により,レイアウト情報・提示順・係り受けの数・情報の状態などを固定要因とし,記事と被験者をランダム要因として,ベイズ推定を行う.具体的には次のような式を用いる:\begin{align*}{\tttime}&\sim\mbox{\ttlognormal}(\mu,\sigma)\\\mu&=\alpha+\beta^{\ttlength}\cdot{\ttlength}(x)+\beta^{\ttspace}\cdot\chi_{\tt{space}}(x)+\beta^{\ttdependent}\cdot{\ttdependent}(x)\\&\quad{}+\beta^{\ttsessionN}\cdot{\ttsessionN}(x)+\beta^{\ttarticleN}\cdot{\ttarticleN}(x)+\beta^{\ttscreenN}\cdot{\ttscreenN}(x)\\&\quad{}+\beta^{\ttlineN}\cdot{\ttlineN}(x)+\beta^{\ttsegmentN}\cdot{\ttsegmentN}(x)\\&\quad{}+\beta^{\ttis\_first}\cdot\chi_{\ttis\_first}(x)+\beta^{\ttis\_last}\cdot\chi_{\ttis\_last}(x)+\beta^{\ttis\_second\_last}\cdot\chi_{\ttis\_second\_last}(x)\\&\quad{}+\sum_{\ttis:*}\beta^{\ttis:*}\cdot\chi_{\ttis:*}(x)+\sum_{\ttdef:*}\beta^{\ttdef:*}\cdot\chi_{\ttdef:*}(x)+\sum_{\ttani:*}\beta^{\ttani:*}\cdot\chi_{\ttani:*}(x)\\&\quad{}+\sum_{\ttcom:*}\beta^{\ttcom:*}\cdot\chi_{\ttcom:*}(x)+\sum_{\tta(x)\inA}\gamma^{\ttarticle=a(x)}+\sum_{\tts(x)\inS}\gamma^{\ttsubj=s(x)}.\\\end{align*}ここで{\tttime}は推定する読み時間である.{\ttlognormal}はrstanの対数正規分布関数である.$\sigma$は{\ttlognormal}の標準偏差$\mu$は{\ttlognormal}の平均で線形式で表される.$\alpha$は線形式の切片を表す.$\beta^{\ttlength}$は文節の長さ${\ttlength}(x)$の傾きである.$\beta^{\ttspace}$は空白の有無$\chi_{{\ttspace}}(x)$\footnote{$\chi_{A}$は指示関数$\chi_{A}(x)=\begin{cases}1&\mbox{if}\;\;\;x\inA,\\0&\mbox{if}\;\;\;x\not\inA.\\\end{cases}$}の傾きである.$\beta^{\ttsessionN}$,$\beta^{\ttarticleN}$,$\beta^{\ttscreenN}$,$\beta^{\ttlineN}$,$\beta^{\ttsegmentN}$は,呈示順${\ttsessionN}(x)$,${\ttarticleN}(x)$,${\ttscreenN}(x)$,${\ttlineN}(x)$,${\ttsegmentN}(x)$に対する固定要因である.$\beta^{\ttis\_first}$,$\beta^{\ttis\_last}$,$\beta^{\ttis\_second\_last}$は,レイアウト$\chi_{\ttis\_first}(x)$,$\chi_{\ttis\_last}(x)$,$\chi_{\ttis\_second\_last}(x)$に対する固定要因である.$\sum_{\ttis:*}\beta^{\ttis:*}\cdot\chi_{\ttis:*}(x)$は情報状態に対する固定要因,$\sum_{\ttdef:*}\beta^{\ttdef:*}\cdot\chi_{\ttdef:*}(x)$は定性に対する固定要因,$\sum_{\ttani:*}\beta^{\ttani:*}\cdot\chi_{\ttani:*}(x)$は有生性に対する固定要因,$\sum_{\ttcom:*}\beta^{\ttcom:*}\cdot\chi_{\ttcom:*}(x)$は共有性に対する固定要因である.$\sum_{a(x)\inA}\gamma^{\ttarticle=a(x)}$は,$x$の記事を意味する$a(x)$に対するランダム要因である.$\sum_{s(x)\inS}\gamma^{\ttsubj=s(x)}$は,$x$の被験者識別子を意味する$s(x)$に対するランダム要因である.ベイズ推定はウォームアップ(100回)のあと,イテレーション5,000回を4chains実施し,全てのモデルは収束した.\modified{なお,一般化線形混合モデルにおけるモデリングは\cite{Asahara-2017}を参照されたい.一般化線形混合モデルにおいてはAICによる前進的選択法に基づき,6種類の読み時間データ全てで収束したものを報告している.その過程で各変数の交互作用についても検討したが,うまく収束させたモデルが構築できなかった.今回のベイジアンモデルにおいては,既発表の読み時間全体の傾向で用いた固定効果(レイアウト情報・呈示順・係り受けの数)に対して,情報の状態として情報状態・共有性・定性・有生性の4種に限定して分析を行う.これは,一般化線形混合モデルを構築する際に問題となった,定性と特定性の相関・有生性と有情性の相関に基づく多重共線性の問題と,動作主性において効果が観察されなかったことに基づき,回帰式を構成した.} \section{結果と考察} \subsection{結果}図\ref{total:general}(付録表\ref{tbl:total:general})にTotalTimeの情報の状態以外の固定要因に対する係数を示す.グラフは,中央のラインで事後平均値を,曲線でカーネル密度推定量を,色付きの背景で50\%区間を表す.$\beta^{\ttlength}$が正であることから,文字数が増えるにつれて,視線が停留する面積が増えるために停留時間が長くなる.$\beta^{\ttspace}$が負であることから,文節間に空白を入れたほうが読み時間が短くなる.$\beta^{\ttdependent}$が負であることから,修飾語をたくさん持つ文節が読み時間が短くなる.$\beta^{\ttsessionN}$,$\beta^{\ttscreenN}$,$\beta^{\ttlineN}$,$\beta^{\ttsegmentN}$が負であることから,実験が進むにつれて慣れていくことにより,読み時間が短くなる効果が見られる.なお,$\beta^{\ttarticleN}$に差が見られないのは,記事の順をセットごとにある程度固定して行ったうえで,記事に対するランダム要因$\gamma^{\ttarticle=a(x)}$を入れたために,これに吸収されたと考える.$\beta^{\ttis\_first}$,$\beta^{\ttis\_last}$,$\beta^{\ttis\_second\_last}$は,レイアウト要因で先頭要素で読み時間を要し,末尾要素を読み飛ばしたうえで,末尾から2つ目の要素で読み戻しの眼球運動の準備のために時間がかかる傾向がみられる.これらは,情報の状態要因なしの分析\cite{Asahara-2016-COLING}と同様の結果である.図\ref{total:info}(および付録表\ref{tbl:total:info})にTotalTimeの情報の状態の固定要因に対する係数を示す.\begin{figure}[b]\noindent\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f3.eps}\end{center}\caption{TotalTime:情報の状態以外の固定要因}\label{total:general}\end{minipage}\hfill\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f4.eps}\end{center}\caption{TotalTime:情報の状態の固定要因}\label{total:info}\end{minipage}\end{figure}名詞句以外である$\beta^{\tt*:NIL}$は読み時間が短い.別の調査において,名詞句以外と名詞句とを比較すると名詞句のほうが読み時間が長くなる傾向がわかっており\cite{Asahara-Kato-2017},それの追試となった.情報の新旧の観点においては,情報状態と共有性の双方,新情報$\beta^{\mbox{\ttinfo:disc-new}}$,\linebreak$\beta^{\mbox{\ttcom:hearer-new}}$のほうが旧情報$\beta^{\mbox{\ttinfo:disc-old}}$,$\beta^{\mbox{\ttcom:hearer-old}}$よりも時間がかかることがわかった.旧情報は予測がつくため処理が早くなる一方,新情報は処理に時間がかかるためであろう.差異については情報状態よりも共有性のほうが明確な差がある.ブリッジング(想定可能)$\beta^{\ttcom:bridging}$も新情報より読み時間が短い傾向がある.定性においては,定名詞句$\beta^{\ttdef:definite}$のほうが,不定名詞句$\beta^{\ttdef:indefinite}$よりも読み時間が長い傾向がある.また,有生性においては,有生$\beta^{\ttani:animate}$のほうが,無生$\beta^{\ttani:inanimate}$よりも読み時間が短い傾向がある.\begin{figure}[b]\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f5.eps}\end{center}\caption{FirstFixationTime:情報の状態の固定要因}\label{fft:info}\end{minipage}\hfill\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f6.eps}\end{center}\caption{FirstPassTime:情報の状態の固定要因}\label{fpt:info}\end{minipage}\end{figure}TotalTimeのみでは眼球運動の仔細について検討できないために,以下ではFirstFixationTime,FirstPathTime,SecondPassTime,RegressionPathTimeについて検討する.FirstFixationTime(図\ref{fft:info}・付録表\ref{tbl:fft:info})では,領域の最初の停留のみを評価する.有生性と無生性の差が大きい傾向がある.また,情報の新旧において,情報状態では差がないが,共有性においては差がみられることがわかる.FirstPassTime(図\ref{fpt:info}・付録表\ref{tbl:fpt:info})では,領域内の最初の停留から,領域外に出るまでの停留時間の合計を評価する.ほぼTotalTimeと同様な傾向がみられた.SecondPassTime(図\ref{spt:info}・付録表\ref{tbl:spt:info})では,2回目以降の視線停留の合計を評価する.定性,有生性,共有性で差がみられる.RegresionPathTime(図\ref{rpt:info}・付録表\ref{tbl:rpt:info})では,領域の最初の停留から,領域外を右に出るまでの停留時間の合計を評価する.有生性の差がもっとも大きい.\begin{figure}[b]\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f7.eps}\end{center}\caption{SecondPassTime:情報の状態の固定要因}\label{spt:info}\end{minipage}\hfill\begin{minipage}[t]{200pt}\setlength\captionwidth{200pt}\begin{center}\includegraphics{25-5ia3f8.eps}\end{center}\hangcaption{RegressionPathTime:情報の状態の固定要因}\label{rpt:info}\end{minipage}\end{figure}\begin{table}[b]\caption{情報の状態の固定要因の差分}\label{tbl:diff}\input{03table05.tex}\end{table}\subsection{考察}表\ref{tbl:diff}に読み時間型ごとの情報の状態の\pagebreak固定要因の事後平均の差分を事後標準偏差とともに示す.まず,共参照などに基づく情報状態は安定した差がどの読み時間型にも出ていないことがわかる.冠詞推定に重要な定性についても,1標準偏差を超える差は見られない.有生性においては,すべての読み時間型において有生名詞句が無生名詞句より読み時間が短い傾向があり,FirstPassTimeとRegressionPathTimeにおいては1標準偏差を超える差であった.共有性においては,情報の新旧の観点({\ttcom:hearer-new},{\ttcom:hearer-old})では,FirstFixationを除く読み時間型で新情報のほうが時間がかかる傾向にあり,TotalTime,FirstPassTime,SecondPassTimeにおいて1標準偏差を超える差があった.ブリッジングの観点({\ttcom:hearer-new},{\ttcom:bridging})では,すべての読み時間型で新情報のほうが時間がかかる傾向にあり,TotalTime,FirstPassTimeにおいて1標準偏差を超える差があった.有生性はシソーラスなど語彙言語資源からその情報の性質を推定できる一方,共有性は共参照情報や世界知識を入れてもその性質を推定することは難しい.しかしながら,今回得られた知見は読み時間などから読み手側の情報の新旧を読み手の反応である眼球運動から推定できる可能性を示唆する. \section{おわりに} 本稿では,明確に表出しない日本語の名詞句の情報の状態を推定することを目標として,読み時間と日本語の名詞句の情報の状態について対照比較した.読み時間は視線走査装置を用いてミリ秒単位で計測を行ったデータを利用した.名詞句の情報の状態は,情報の新旧について書き手の観点による情報状態と読み手の観点による共有性のほか,定性や有生性について検討した.ベイジアン線形混合モデルによる分析の結果,共有性や有生性の特性の違いにより読み時間に差があることがわかった.情報の状態のうち,残念ながら定性については読み時間に明確な差が見られなかったが,表層の言語情報からはとらえにくい共有性に差があることが重要である.読み時間の事後平均の差は事後標準偏差1程度のものであるが,周辺の言語情報とともに機械学習モデルの特徴量として用いることにより共有性の違いを明らかにできる可能性があることが示唆される.\modified{本研究は,言語学・認知科学的な観点に基づく調査であるが,工学研究者に向けて3点言及する.1点目は,英語の冠詞推定においては,定・不定を同定する必要があり,多くの研究は情報の新旧に基づいて処理されており,関連はするが,本質的には異なる名詞句の性質を用いている.2点目は,情報の新旧には書き手視点と読み手視点の2つの考え方(情報状態・共有性)があり,本研究は読み手側の反応である読み時間を入れることで,既存の技術では適切に扱われてこなかった読み手視点の情報の新旧を得ようとするものである.3点目は,情報抽出や自動要約などのアプリケーションにおいて本質的に重要なのは,書き手視点の談話上の情報の新旧ではなく,アプリケーション利用者側の読み手視点の新旧である.読み手視点の新旧を,読み手側の反応を取り入れながら適切にモデル化することが工学応用に求められている.}今後の研究の方向性として,共通の読み手を想定している新聞記事ではなく,共通の読み手を想定していない読み手ごとに理解の差がある文書を用いて,読み時間に差があるかを検討したい.これにより読み手ごとの情報抽出・自動要約が眼球運動計測により実現する可能性を調査する.他の研究の方向性として,文章の可読性評価が考えられる.文章の可読性は,文字(漢字)や語彙の難易度および頻度に基づいて統制し,調査方法も評定評価等による研究が多かった.本研究は可読性に対する反応である読み時間を直接評価するものであり,各文章の可読性は記事のランダム要因として得ることができる.書誌情報と対照比較することにより可読性の傾向を分析したい.\acknowledgment本研究の一部は,国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」,国立国語研究所の所長裁量経費,および情報・システム研究機構の機構間連携・文理融合プロジェクト「わかりやすい情報伝達の実現に向けた言語認知機構の解明とその工学的応用」によるものです.本研究はJSPS科研費25284083,17H00917,18H05521の助成を受けたものです.なお,本論文はThe31stPacificAsiaConferenceonLanguage,InformationandComputationPACLIC31(2017)の発表``BetweenReadingTimeandInformationStructure''をもとに,ベイジアン線形混合モデルにより統計分析をしなおしたものです.3節は国立国語研究所論集16号「『現代日本語書き言葉均衡コーパス』への情報構造アノテーションとその分析」,4節は言語学会論文誌『言語研究』に投稿中の内容を含みます.これは査読者の指示により内容に含めたもので,著者には自己剽窃の意図はありません.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara}{Asahara}{2017}]{Asahara-2017}Asahara,M.\BBOP2017\BBCP.\newblock\BBOQBetweenReadingTimeandInformationStructure.\BBCQ\\newblockIn{\BemProceedingsofthe31stPacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\15--24}.TheNationalUniversity(Phillippines).\bibitem[\protect\BCAY{Asahara\BBA\Kato}{Asahara\BBA\Kato}{2017}]{Asahara-Kato-2017}Asahara,M.\BBACOMMA\\BBA\Kato,S.\BBOP2017\BBCP.\newblock\BBOQBetweenReadingTimeandSyntactic/SemanticCategories.\BBCQ\\newblockIn{\BemProceedingsoftheThe8thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\404--412}.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2016}]{Asahara-2016-ALR12}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQBCCWJ-DepPara:ASyntacticAnnotationTreebankonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofthe12thWorkshoponAsianLangaugeResources(ALR12)},\mbox{\BPGS\49--58}.\bibitem[\protect\BCAY{浅原\JBA大村}{浅原\JBA大村}{2016}]{AsaharaOmura2016}浅原正幸\JBA大村舞\BBOP2016\BBCP.\newblockBCCWJ-DepParaPAS:『現代日本語書き言葉均衡コーパス』係り受け・並列構造と述語項構造・共参照アノテーションの重ね合わせと可視化.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\489--492}.\bibitem[\protect\BCAY{Asahara,Ono,\BBA\Miyamoto}{Asaharaet~al.}{2016}]{Asahara-2016-COLING}Asahara,M.,Ono,H.,\BBA\Miyamoto,E.~T.\BBOP2016\BBCP.\newblock\BBOQReading-TimeAnnotationsfor`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofCOLING2016,the26thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\684--694}.\bibitem[\protect\BCAY{Barrett,Bingel,Keller,\BBA\S{\o}gaard}{Barrettet~al.}{2016}]{barrett-EtAl:2016:P16-2}Barrett,M.,Bingel,J.,Keller,F.,\BBA\S{\o}gaard,A.\BBOP2016\BBCP.\newblock\BBOQWeaklySupervisedPart-of-speechTaggingUsingEye-trackingData.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\579--584}.\bibitem[\protect\BCAY{Demberg\BBA\Keller}{Demberg\BBA\Keller}{2008}]{Demberg-2008}Demberg,V.\BBACOMMA\\BBA\Keller,F.\BBOP2008\BBCP.\newblock\BBOQDatafromEye-trackingCorporaasEvidenceforTheoriesofSyntacticProcessingComplexity.\BBCQ\\newblock{\BemCognition},{\Bbf109}(2),\mbox{\BPGS\193--210}.\bibitem[\protect\BCAY{Gibson}{Gibson}{2008}]{Gibson-1998}Gibson,E.\BBOP2008\BBCP.\newblock\BBOQLinguisticComplexity:LocalityofSyntacticDependencies.\BBCQ\\newblock{\BemCognition},{\Bbf68},\mbox{\BPGS\1--76}.\bibitem[\protect\BCAY{G{\"{o}}tze,Weskott,Endriss,Fiedler,Hinterwimmer,Petrova,Schwarz,Skopeteas,\BBA\Stoel}{G{\"{o}}tzeet~al.}{2007}]{Gotze2007}G{\"{o}}tze,M.,Weskott,T.,Endriss,C.,Fiedler,I.,Hinterwimmer,S.,Petrova,S.,Schwarz,A.,Skopeteas,S.,\BBA\Stoel,R.\BBOP2007\BBCP.\newblock\BBOQInformationStructure.\BBCQ\\newblockInDipper,S.,G{\"{o}}tze,M.,\BBA\Skopeteas,S.\BEDS,{\BemInformationStructureinCross-linguisticCorpora:AnnotationGuidelinesforPhonology,Morphology,Syntax,SemanticsandInformationStructure},\lowercase{\BVOL}~7,\mbox{\BPGS\147--187}.Universit{\"{a}}tsverlagPotsdam.\bibitem[\protect\BCAY{Hale}{Hale}{2001}]{Hale-2001}Hale,J.\BBOP2001\BBCP.\newblock\BBOQAProbabilisticEarleyParserasaPsycholinguisticModel.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\lowercase{\BVOL}~2,\mbox{\BPGS\159--166}.\bibitem[\protect\BCAY{Heim}{Heim}{2011}]{Heim2011}Heim,I.\BBOP2011\BBCP.\newblock\BBOQDefinitenessandIndefiniteness.\BBCQ\\newblockInvonHeusinger,K.,Maienborn,C.,\BBA\Portner,P.\BEDS,{\BemSemantics:AnInternationalHandbookofNaturalLanguageMeaning},\lowercase{\BVOL}~2,\mbox{\BPGS\996--1025}.MoutondeGruyter.\bibitem[\protect\BCAY{Just,Carpenter,\BBA\Woolley}{Justet~al.}{1982}]{Just-1982}Just,M.~A.,Carpenter,P.~A.,\BBA\Woolley,J.~D.\BBOP1982\BBCP.\newblock\BBOQParadigmsandProcessesinReadingComprehension.\BBCQ\\newblock{\BemJournalofExperimentalPsychology:General},{\Bbf3},\mbox{\BPGS\228--238}.\bibitem[\protect\BCAY{加藤\JBA浅原\JBA山崎}{加藤\Jetal}{2017}]{加藤-2017}加藤祥\JBA浅原正幸\JBA山崎誠\BBOP2017\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する分類語彙表番号アノテーション.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\306--309}.\bibitem[\protect\BCAY{Kennedy,Hill,\BBA\Pynte}{Kennedyet~al.}{2003}]{Kennedy-2003}Kennedy,A.,Hill,R.,\BBA\Pynte,J.\BBOP2003\BBCP.\newblock\BBOQTheDundeeCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe12thEuropeanConferenceonEyeMovement}.\bibitem[\protect\BCAY{Kennedy\BBA\Pynte}{Kennedy\BBA\Pynte}{2005}]{Kennedy-2005}Kennedy,A.\BBACOMMA\\BBA\Pynte,J.\BBOP2005\BBCP.\newblock\BBOQParafoveal-on-fovealEffectsinNormalReading.\BBCQ\\newblock{\BemVisionResearch},{\Bbf45},\mbox{\BPGS\153--168}.\bibitem[\protect\BCAY{Klerke,Mart{\'{\i}}nez~Alonso,\BBA\S{\o}gaard}{Klerkeet~al.}{2015}]{klerke-EtAl:2015:NODALIDA}Klerke,S.,Mart{\'{\i}}nez~Alonso,H.,\BBA\S{\o}gaard,A.\BBOP2015\BBCP.\newblock\BBOQLookingHard:EyeTrackingforDetectingGrammaticalityofAutomaticallyCompressedSentences.\BBCQ\\newblockIn{\BemProceedingsofthe20thNordicConferenceofComputationalLinguistics(NODALIDA2015)},\mbox{\BPGS\97--105}.\bibitem[\protect\BCAY{Lyons}{Lyons}{1999}]{Lyons1999}Lyons,C.\BBOP1999\BBCP.\newblock{\BemDefiniteness}.\newblockCambridgeUniversityPress,Cambridge.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Matsumoto,Asahara,\BBA\Arita}{Matsumotoet~al.}{2018}]{Matsumoto-2018}Matsumoto,S.,Asahara,M.,\BBA\Arita,S.\BBOP2018\BBCP.\newblock\BBOQJapaneseClauseClassificationAnnotationonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponAsianLanguageResources13(ALR13)},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{松吉}{松吉}{2014}]{松吉-2014}松吉俊\BBOP2014\BBCP.\newblock否定の焦点情報アノテーション.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\249--270}.\bibitem[\protect\BCAY{宮内\JBA浅原\JBA中川\JBA加藤}{宮内\Jetal}{2018}]{Miyauchi-2018}宮内拓也\JBA浅原正幸\JBA中川奈津子\JBA加藤祥\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』への情報構造アノテーションとその分析.\\newblock\Jem{国立国語研究所論集},{\Bbf16}.\bibitem[\protect\BCAY{Miyauchi,Asahara,Nakagawa,\BBA\Kato}{Miyauchiet~al.}{2018}]{Miyauchi-2017}Miyauchi,T.,Asahara,M.,Nakagawa,N.,\BBA\Kato,S.\BBOP2018\BBCP.\newblock\BBOQAnnotationofInformationStructureon``TheBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemComputationalLinguistics:15thInternationalConferenceofthePacificAssociationforComputationalLinguistics,PACLING2017,Yangon,Myanmar,August16--18,2017,RevisedSelectedPapers},\mbox{\BPGS\155--165}.\bibitem[\protect\BCAY{乙武\JBA永田}{乙武\JBA永田}{2016}]{乙武-2016}乙武北斗\JBA永田亮\BBOP2016\BBCP.\newblock冠詞推定のための情報構造仮説の検討.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\493--496}.\bibitem[\protect\BCAY{Palmer,Gildea,\BBA\Kingsbury}{Palmeret~al.}{2005}]{Palmer-2005}Palmer,M.,Gildea,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemConputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--105}.\bibitem[\protect\BCAY{Prasad,Dinesh,Lee,\mbox{Miltsakaki},Robaldo,Joshi,\BBA\Webber}{Prasadet~al.}{2008}]{PRASAD08.754}Prasad,R.,Dinesh,N.,Lee,A.,\mbox{Miltsakaki},E.,Robaldo,L.,Joshi,A.,\BBA\Webber,B.\BBOP2008\BBCP.\newblock\BBOQThePennDiscourseTreeBank2.0.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation(LREC'08)},\mbox{\BPGS\2961--2968}.\bibitem[\protect\BCAY{Prasad,Webber,Lee,Pradhan,\BBA\Joshi}{Prasadet~al.}{2015}]{prasad-EtAl:2015:LSDSem}Prasad,R.,Webber,B.,Lee,A.,Pradhan,S.,\BBA\Joshi,A.\BBOP2015\BBCP.\newblock\BBOQBridgingSententialandDiscourse-levelSemanticsthroughClausalAdjuncts.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponLinkingComputationalModelsofLexical,SententialandDiscourse-levelSemantics},\mbox{\BPGS\64--69}.\bibitem[\protect\BCAY{Sorensen,Hohenstein,\BBA\Vasishth}{Sorensenet~al.}{2016}]{Sorensen-2016}Sorensen,T.,Hohenstein,S.,\BBA\Vasishth,S.\BBOP2016\BBCP.\newblock\BBOQBayesianLinearMixedModelsusingStan:ATutorialforPsychologists,Linguists,andCognitiveScientists.\BBCQ\\newblock{\BemQuantitativeMethodsforPsychology},{\Bbf12},\mbox{\BPGS\175--200}.\bibitem[\protect\BCAY{竹内\JBA河合\JBA細田\JBA永田}{竹内\Jetal}{2013}]{竹内-2013}竹内裕己\JBA河合敦夫\JBA細田直見\JBA永田亮\BBOP2013\BBCP.\newblock前方文脈を考慮した冠詞の推定.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\717--720}.\bibitem[\protect\BCAY{植田\JBA飯田\JBA浅原\JBA松本\JBA徳永}{植田\Jetal}{2015}]{植田-2015}植田禎子\JBA飯田龍\JBA浅原正幸\JBA松本裕治\JBA徳永健伸\BBOP2015\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する述語項構造・共参照アノテーション.\\newblock\Jem{第8回コーパス日本語学ワークショップ},\mbox{\BPGS\205--214}.\bibitem[\protect\BCAY{Van~Gompel,Fischer,Murray,\BBA\Hill}{Van~Gompelet~al.}{2007}]{vanGompel-2007}Van~Gompel,R.~P.,Fischer,M.~H.,Murray,W.~S.,\BBA\Hill,R.~L.\BBOP2007\BBCP.\newblock\BBOQEye-movementResearch:AnOverviewofCurrentandPastDevelopments.\BBCQ\\newblock{\BemEyeMovements:AWindowonMindandBrain},\mbox{\BPGS\1--28}.\bibitem[\protect\BCAY{vonHeusinger}{vonHeusinger}{2011}]{Heusinger2011}vonHeusinger,K.\BBOP2011\BBCP.\newblock\BBOQSpecificity.\BBCQ\\newblockInvonHeusinger,K.,Maienborn,C.,\BBA\Portner,P.\BEDS,{\BemSemantics:AnInternationalHandbookofNaturalLanguageMeaning},\lowercase{\BVOL}~2,\mbox{\BPGS\1058--1087}.MoutondeGruyter.\end{thebibliography}\appendix \section{固定要因の詳細} 表\ref{tbl:total:general},\ref{tbl:total:info},\ref{tbl:fft:info},\ref{tbl:fpt:info},\ref{tbl:spt:info},\ref{tbl:rpt:info}では固定要因の係数の推定値を示す.各列の意味は以下の通り:\begin{itemize}\itemParameter:推定する固定要因\itemRhat:収束判定指標(1.1以下を収束とみなす)\itemn\_eff:有効サンプル数\itemmean:事後平均値\itemsd:事後標準偏差\itemse\_mean:事後平均の標準誤差\item2.5\%:2.5\%位値\item50\%:中央値\item97.5\%:97.5\%位値\end{itemize}\begin{table}[p]\caption{TotalTimeの係数(情報の状態以外)}\label{tbl:total:general}\input{03table06.tex}\end{table}\begin{table}[p]\caption{TotalTimeの係数(情報の状態のみ)}\label{tbl:total:info}\input{03table07.tex}\end{table}\clearpage\begin{table}[p]\caption{FirstFixationTimeの係数(情報の状態のみ)}\label{tbl:fft:info}\input{03table08.tex}\end{table}\begin{table}[p]\caption{FirstPassTimeの係数(情報の状態のみ)}\label{tbl:fpt:info}\input{03table09.tex}\end{table}\clearpage\begin{table}[p]\caption{SecondPassTimeの係数(情報の状態のみ)}\label{tbl:spt:info}\input{03table10.tex}\end{table}\begin{table}[p]\caption{RegressionPathTimeの係数(情報の状態のみ)}\label{tbl:rpt:info}\input{03table11.tex}\end{table}\clearpage\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター准教授.}\end{biography}\biodate\end{document}
V29N03-06
\section{はじめに} 構文解析とは句同士の係り受け関係を明らかにするタスクのことである.従来より研究が盛んな分野であり,日本語構文解析ツールのKNP\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?KNP}}\cite{KNP1}\cite{KNP2}が有名であるが,近年,BERTを利用することで,従来のKNPよりも高い正解率を出すことが示されている\cite{shibata}.BERT\cite{bert}はfine-tuningすることで様々なNLPタスクに対して高い性能を示した事前学習済みモデルである.BERTを利用した構文解析では,BERTからの出力ベクトルを順伝播型ニューラルネットワーク(FFNN)に入力しfine-tuningすることで構文解析を行う.ただし,BERTには多くのパラメータを調整する必要があるため学習や推論に時間がかかるという問題がある.そこで本研究では,構文解析において事前学習済みBERTの一部の層を削除した簡易小型化BERTの利用を提案する.ここでいう層とは,BERTを構成しているtransformerのエンコーダーのことであり,$\rm{BERT_{BASE}}$の場合,12層のtransformerのエンコーダーから成っている.このうちの何層かを削除し,層数が減った新しいBERTモデルを作成するという簡易な処理で小型化したBERTを,以降,簡易小型化BERTと呼ぶ.実験では,京都大学ウェブ文書リードコーパス\cite{Webcorpus}と京都大学テキストコーパス\cite{textcorpus}を混合したデータを用いて,京大版のBERT\footnote{\url{https://github.com/google-research/bert}}$^{,}$\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?ku_bert_japanese}}とそれを簡易小型化したBERTの正解率と処理時間を比較した.提案する簡易小型化BERTでは,3~10層目を削除した合計4層のモデルが,京大版のBERTからの正解率の劣化をウェブコーパスで0.87ポイント,テキストコーパスで0.91ポイントに押さえる結果となり,層を削除した後でも高い正解率を維持していることが分かった.また学習・推論時間は削除する層を増やすほど速くなり,合計4層モデルでは学習時間は83\%,推論時間はウェブコーパスで65\%,テキストコーパスで85\%まで削減することができた.またBERTのどの位置の層が構文情報を捉えているかを,12層のうち1層のみをfine-tuningに使用し,テストを行うことで調査した.その結果,新聞コーパスは上位・下位層が高い正解率を出したが,Webコーパスにおいてはどの層も大きな変化は出なかった.これらの結果からBERTはコーパスの特性や文に含まれるトークン数,未知語の割合などによって,構文解析の正解率に変化が出ると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \cite{dependency}は構文解析を,単語ごとに係り先を決定するHeadSelection問題として行っている.BiLSTMからの特徴量を用いることで,高性能な構文解析を行っている.BERTを使った日本語構文解析の関連研究として\cite{shibata}の研究がある.柴田らは事前学習済みBERTを京都大学テキストコーパスと京都大学ウェブ文章リードコーパスという2種類のコーパスでfine-tuningし,BERTによる構文解析の正解率を調査した.結果,BERTを利用した場合,KNPやCaboCha\footnote{\url{https://taku910.github.io/cabocha/}},BiLSTMを利用したときよりも高い正解率を出している.\cite{udagawa}は,BERTからの出力ベクトルに加え,係り元と係り先の距離などをone-hotベクトルで表現した基本素性をFFNNに入力し,構文解析を行っている.このときBERTと基本素性を組み合わせた場合,CaboChaよりも高い正解率となっている.\cite{poor}は,事前学習済みBERTの層を削除し,fine-tuningした場合,GLUEタスクにおいて12層のBERTに比べどの程度差が出るのかを調査した.このとき,\begin{itemize}\item4層減らすとき,下位の層を削除するのが一番スコアが低いが,他はあまり差がない.\item6層減らすとき,上位の層を削除するのが一番スコアがいい.\end{itemize}など,削除する層数や位置によってスコアに差が出ることを述べている.本研究において簡易小型化BERTを作成する際,Sajjadらのように事前学習済みBERTの層を削除する手法を利用したが,\cite{mitchell}はBERTの重みの値が0に近いものを不要と見なし取り除くという枝刈り手法を提案している.枝刈りの割合を30~40\%にしても,枝刈りをしていないモデルに比べて,GLUEタスクにおいて大きな差は出ないと述べている.BERTの層がどの情報を捉えているかについては,Sajjadらは上位層はタスクに特化した重みになっており,中間層は重要な情報を含んでおらず,下位層は文脈情報を含んでいると述べている.同じく\cite{tenney}も,基本的な構文情報はBERTの早い段階で処理され,高レベルの意味的情報はより高い層に現れると述べている.一方で,\cite{jawahar}はProbingタスクにおいて,BERTが統語的な情報を中間層が捉えているという結果を出している.\cite{hewitt}も依存構造解析において$\rm{BERT_{BASE}}$は6~9層,$\rm{BERT_{LARGE}}$は15~17層等,比較的中間に近い層が構文情報を捉えていると述べている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{BERT} 本研究で使用するBERTは,京都大学黒橋研究室が公開しているBERT日本語PretrainedモデルのBASE通常版\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?ku\_bert\_japanese}}を使用する.このモデルは日本語テキストのみのWikipediaを形態素解析した後にsubwordに分割し,事前学習されたモデルである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{構文解析}本研究でBERTによる構文解析を行うモデル図を,「自然の」の係り受けを判定するときを例にとって,図\ref{bert_img}に示す.まず,コーパスに記されている「基本句」の区切り方に従って,各基本句をひとつずつBERTtokenizerに入力する.BERTtokenizerはBERTの学習時に,BERTの学習に最良となるトークン化手法を学習しており,この結果,必要な際は,基本句を基本句より小さなsubwordに分割する.大抵は定められた語彙にない基本句についてsubwordに分割されていると考えられるため,本論文ではsubwordに分割されたトークンを未知語と呼ぶ.京大のBERTtokenizerは,Transformersの実装に基づき,subwordに分割した際の先頭以外のトークンは,頭に「\#\#」がついた形で出力される.なお,基本句とは,1つの自立語とそれに続く付属語から成る言葉の単位である\footnote{\url{http://cr.fvcrc.i.nagoya-u.ac.jp/~sasano/knp/format.html}}.例えば,「右が兄,左が弟の写真。」という文を基本句区切りにすると,「右が\textbar兄,\textbar左が\textbar弟の\textbar写真。」のように分かれる.今回利用した京都大学ウェブ文書リードコーパスと京都大学テキストコーパスには,基本句の区切り部分のアノテーションだけではなく,形態素の区切り部分のアノテーションも付与されている.形態素は意味を持つ最小単位で,先ほどの例文の場合だと,「右\textbarが\textbar兄\textbar,\textbar左\textbarが\textbar弟\textbarの\textbar写真\textbar。」のように分かれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-3ia5f1.pdf}\end{center}\caption{BERTによる構文解析のモデル図(「自然の」の係り受け判定時)}\label{bert_img}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に注目したトークンより,後ろのトークン全てに対して$score$を計算し,$score$を元に係り受けの有無を2値分類する.$score$の計算に際しては,\cite{udagawa}の構文解析モデルを参考とした.具体的に「私は茨城大学の学生です.」という文を本手法で構文解析した手順を述べる.まずこの文を基本句区切りにしたときの係り受け関係は図\ref{head_img}のようになる.矢印の先が係り先で,例えば「私は」は「学生です.」に係っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{29-3ia5f2.pdf}\end{center}\caption{係り元と係り先の関係}\label{head_img}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本手法では,注目したトークンより後ろのトークン全てに対して係り受けの2値分類を行うため,注目トークンとそれ以降のトークンに対して,係り受けラベルを付与する.AがBに係っている場合,係り元トークンがAで係り先トークンがBの際に係り受けラベル1を付与し,係っていない場合,係り受けラベル0を付与した.なお,ひとつの係元は複数の係先をもつことはないが,逆にひとつの係先は複数の係元をもつことがある.%%%%例えば[その,自然,##の,美しさ,##が,何とも,言え,##ません]という文では,「その」と「自然」は、共に「美しさ」に係る.例えば[その,自然,の,美しさ,が,何とも,言え,ません]という文では,「その」と「自然」は、共に「美しさ」に係る.表\ref{head_label}では,「私は」のトークンに注目したときの係り受けラベルの付与について示している.このときsubwordに分割された際の先頭以外のトークン,つまり頭に「\#\#」が付与されたトークンに対しては係り受けラベルは付与しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{05table01.tex}\caption{係り先ラベルの設定}\label{head_label}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に$score$の計算方法について述べる.$v_i$と$v_j$をそれぞれ係り元,係り先のBERTからの出力ベクトル($v_i,v_j$)だとすると,以下の式でscoreを出力する.なお,sigmoidの出力をscoreにすることも可能であるが,\cite{udagawa}に従い,$w$を使用した.\begin{align}v_{ij}&=concat(v_i,v_j)\nonumber\\x&=sigmoid(Uv_{ij})\nonumber\\score&=w^\mathsf{T}x\nonumber\end{align}このとき,$U$と$w$はfine-tuningする際,新しく追加したパラメータであり,$w$の次元は任意とし,$U$の大きさは,$w$の次元数$\times$$v_i$と$v_j$の長さの合計の次元とする.最後に,$score$を2値クロスエントロピーとして,係り受けの有無をfine-tuningで学習させる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{層の削除}構文解析の正解率と学習・推論速度の差を調査するため,京大版BERTの一部層を削除したモデルを複数作成する.$\rm{BERT_{BASE}}$の位置関係は,BERTの入力に近い方を下位,出力に近い方を上位と呼ぶこととする.図\ref{delete_layer_img}は実験で使用するモデルの種類を表している.図\ref{delete_layer_img}の灰色の層が削除した層を表しており,左から上位,中位,下位の位置を削除したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{29-3ia5f3.pdf}\end{center}\caption{削除する層の位置}\label{delete_layer_img}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} 本実験では,京都大学ウェブ文書リードコーパス(以降,Webコーパス)と京都大学テキストコーパス(以降,新聞コーパス)を混合したデータを用いてfine-tuningを行い,その後,それぞれのコーパスでテストをし,構文解析の正解率と学習・推論時間を調査した.またfine-tuning時にはEarlyStoppingを採用した.検証データの正解率が最高値を更新しなくなってから5エポック後に停止させる.なお,正解率は係り元トークンと係り先トークンのペアを一用例とし,係り受けラベルの2値分類を行った際の「テストで正解した用例数/全テスト用例数」で求めた.$n$トークンある文ではペア数(テスト用例数)は$(n-1)+(n-2)+...1$となる.なお,BERTからの出力ベクトル($v_i,v_j$)は768次元とし,wは\cite{udagawa}に従い1,000次元とした.そのため$U\in\mathbb{R}^{1000\times1536}$である.削除する層数は上位,中位,下位,それぞれの位置で4,6,8層とした.学習及び推論は表\ref{spec}の環境で行った.また,学習時のバッチサイズは4である.なお,推論時間に初期化処理にかかる時間は含まれていない.また,推論時はバッチ処理を行わず,1文ずつ推論を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{05table02.tex}\caption{学習環境}\label{spec}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{使用データ}実験で使用するデータ数を表\ref{ndata}に示す.学習と検証にはWebコーパスと新聞コーパスを混合した10,000文,2,000文をそれぞれ利用したが,テスト時はWebと新聞を分けて3,000文ずつテストを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{05table03.tex}\caption{使用したデータ数}\label{ndata}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ただし,新聞コーパスはWebコーパスに比べ,1文のトークン数が長いものが多かったため,学習データが0に偏り,BERT,簡易小型化BERTともにfine-tuningでは学習が収束しなかった.そのため,fine-tuningに用いる新聞コーパスのうち,1文のトークン数がsubwordを含めて24個以下のもののみを使用した.テスト時のデータはトークン数で制限をかけていない.Webコーパスはまざまなウェブ文書のリード(冒頭)3文に各種言語情報を人手で付与したテキストコーパスである.ウェブ文書のリード3文を収集することによって,ニュース記事,百科事典記事,ブログ,商用ページなど多様なジャンル,文体の文書を含んでいる.新聞コーパスは毎日新聞の記事に各種言語情報を人手で付与したテキストコーパスである.95年1月1日から17日までの全記事,約2万文,1月から12月までの社説記事,約2万文,計約4万文に対して,形態素・構文情報を付与している.どちらのコーパスにも付与されている言語情報は,形態素解析システムJUMAN,構文解析システムKNPで自動解析を行い,その結果を人手で修正したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースラインシステム}提案手法の構文解析の性能と学習・推論時間を評価するために,通常12層の$\rm{BERT_{BASE}}$,KNP,またBERTベクトルの代わりにword2vec\cite{Mikolov1,Mikolov2,Mikolov3}を利用して分類する手法と比較する.なお,word2vecを比較対象としたのは,BERTが出現する前の分散表現のスタンダードな手法であったため,その精度を比較するためである.通常12層の$\rm{BERT_{BASE}}$には,前述のとおり,黒橋研究室が公開しているBERT日本語PretrainedモデルのBASE通常版を利用する.KNPはversion4.2\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/DLcounter/lime.cgi?down=https://nlp.ist.i.kyoto-u.ac.jp/nl-resource/knp/knp-4.20.tar.bz2&name=knp-4.20.tar.bz2}}を利用した.word2vecには,日本語Wikipediaの2021年7月1日時点のダンプデータをjuman++のversion2.0.0-rc3\footnote{\url{https://github.com/ku-nlp/jumanpp/releases/tag/v2.0.0-rc3}}を用いて基本句区切りにしたものを訓練データとして学習したモデルを利用した.学習にはgensimを使用した.学習時の各パラメーターは表\ref{w2v_param}の通りである.そのほかのパラメータは,gensimのデフォルト値を利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}\caption{word2vecの学習パラメーター}\label{w2v_param}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%word2vecからのベクトルを利用して$score$を計算する際,BERTを利用した手法では768次元にしている$v_i$,$v_j$を,それぞれ200次元に変更した.そのため,BERTの出力ベクトルのかわりにword2vecを利用した手法では,$U\in\mathbb{R}^{1000\times400}$である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{構文解析のテスト}各モデルの2つのコーパスでのテスト結果を表\ref{model_results}および図\ref{jikken-bert}に示す.通常12層の$\rm{BERT_{BASE}}$ではWebコーパスで\textbf{94.67\%},新聞コーパスで\textbf{95.68\%}となった.図\ref{jikken-bert}より,削除する層数を増やした場合でも,$\rm{BERT_{BASE}}$に比べ大きく正解率が落ちていないことが分かった.また,削除する層数にかかわらず,中位を削除したモデル(上位と下位を使用したとき)が高い正解率を維持していることが分かる.各モデルの正解率の詳細は以下の通りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{05table05.tex}\caption{各モデルの正解率の詳細}\label{model_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{29-3ia5f4.pdf}\end{center}\caption{各モデルのテスト結果}\label{jikken-bert}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3~10層目を削除した合計4層のモデルが,Webコーパスで93.80\%,新聞コーパスで94.77\%であり,$\rm{BERT_{BASE}}$からの正解率の劣化をWebコーパスで0.87ポイント,新聞コーパスで0.91ポイントに押さえる結果となった.$\rm{BERT_{BASE}}$と簡易小型化したBERTとの比較だけでなく,KNPとword2vecとも比較した結果を表\ref{model_results}および図\ref{jikken-knp-w2v}に示す.KNPは従来のKNPツールを利用したものであり,word2vecはBERTからの出力ベクトルの代わりにword2vecを利用して分類したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{29-3ia5f5.pdf}\end{center}\caption{word2vec,KNPとの比較結果}\label{jikken-knp-w2v}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{jikken-knp-w2v}の「下位4層削除」は先程の簡易小型化したBERTでWebコーパスの正解率が一番低かったもの,「上位4層削除」は簡易小型化したBERTで新聞コーパスの正解率が一番低かったものである.word2vecは日本語Wikipediaを基本句区切りにししたものを訓練データとして学習したモデルを利用した.KNPに比べ,$\rm{BERT_{BASE}}$の方がWebコーパスで約6ポイント,新聞コーパスで約5ポイント正解率が良い結果となった.また,KNPを用いたときは,小型化BERTを用いた下位4層,8層削除モデルとほぼ同等の正解率を維持している.具体的には,Webコーパスでは,小型化BERTの中で最も正解率の低い下位4層削除モデルと比較して約1.6ポイント減,新聞では,小型化BERTの中で最も正解率の低い上位4層削除モデルと比較して約0.1ポイント減となっている.BERT使った構文解析では,$v_i$と$v_j$をBERTからの出力ベクトルとして構文解析を行ったが,この$v_i$と$v_j$をBERTからの出力ベクトルではなく,word2vecで得たベクトルを利用した場合,$\rm{BERT_{BASE}}$よりも正解率がかなり落ちていることが分かる.また,小型化BERTを用いた下位4層,8層削除モデルと比較しても,大きく正解率が落ちている.具体的には,Webコーパスでは,小型化BERTの中で最も正解率の低い下位4層削除モデルと比較して約11.7ポイント減,新聞では,小型化BERTの中で最も正解率の低い上位4層削除モデルと比較して約2.9ポイント減となっている.word2vecで得られる単語(基本句)のベクトルは文脈依存ではないことが,正解率に影響を与えていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{05table06.tex}\caption{各モデルの正解数と不正解数}\label{detailed}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,参考として,表\ref{detailed}に各モデルの正解数と不正解数として,コーパスとモデルごとのFalsePositive,FalseNegative,TruePositive,TrueNegativeを示した.提案手法のうち,最も大きな数を太字で,最も小さな数をイタリックで示した.下位4層削除した場合にはコーパスにかかわらずFalsePositiveが増加していることなどが見て取れる.なお,KNPは1文内でペアを作り,それらを係っているか/係っていないかを判別する方式で結果を出力できなかったため,正解数と不正解数に関しては示さなかった.表\ref{RecallSoOn}に各モデルの適合率,再現率,F値を示す.適合率はTruePositive/(TruePositive+FalsePositive),再現率はTruePositive/(TruePositive+FalseNegative),F値は適合率と再現率の調和平均として計算した.なお,正解率は(TruePositive+FalseNegative)/全用例数である.なお,F値で比較しても,中位層の削除が最も性能が高いこと,下位4層の削除がWebコーパスで最も性能が低いことは変わらないが,新聞コーパスでは上位4層より下位4層を削除したほうが性能が悪化している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{05table07.tex}\caption{各モデルの適合率,再現率,F値}\label{RecallSoOn}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{05table08.tex}\caption{学習時間}\label{train_time}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{学習・推論時間の結果}次に学習・推論時間の結果について述べる.学習時間の結果は表\ref{train_time}の通りである.EarlyStoppingを採用したため,エポック数がモデルごとに異なる.そのため,1エポックの平均学習時間を比較している.結果より削除する層数が増えるほど,学習時間は短くなっていることが分かる.また,収束のエポック数と,最高スコアを出したエポック数までの1epの平均学習時間から,収束時間のおおよその推定値を算出したものを表\ref{end_time}として示す.4,6,8層削除モデルは,それぞれ上位・中位・下位と3パターンで学習を行っているため,収束時間,エポック数ともに,3つのモデルの平均値である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{05table09.tex}\caption{推測による収束時間}\label{end_time}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%推論時間の結果は表\ref{predict_time}の通りである.学習時間と同じく,推論時間に関しても削除する層数が増えるほど,推論時間は短くなっていることが分かる.この時,新聞コーパスがWebコーパスよりも推論時間が長いのは,新聞コーパスの方が1文の平均トークン数が多いためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{05table10.tex}\caption{推論時間}\label{predict_time}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%8層削除の合計4層モデルでは学習時間は83\%,推論時間はWebコーパスで65\%,新聞コーパスで85\%まで削減することができた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{05table11.tex}\caption{各モデルの総パラメーター数}\label{model_param}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,KNPを用いたときは,推論時間に関してKNPはwebコーパスで4分2秒,新聞コーパスで7分46秒と,BERTでの推論時間に比べて大幅に時間がかかっている.また,各モデルの総パラメーター数は表\ref{model_param}の通りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} 図\ref{jikken-bert}の各モデルのテスト結果より,上位層と下位層を利用したとき,構文解析において高い正解率を維持しているため,上位層と下位層が構文情報を捉えていると考えられる.関連研究ではBERTにおいて,\cite{poor},\cite{tenney}は構文情報は下位層を含んでいると述べているが,\cite{jawahar},\cite{hewitt}は中間層が構文情報を捉えていると述べている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{各層ごとの正解率の差}本研究において,BERTのどの層が構文情報を捉えているのか,より細かく調査するため,$\rm{BERT_{BASE}}$の中で11層を削除し,1層目から12層目まで1層ずつfine-tuningし実験を行った.新聞コーパスでのテスト結果を\mbox{図\ref{1_layer_news}},Webコーパスでのテスト結果を図\ref{1_layer_web}に示す.図の縦軸がBERTで何番目の層を利用したかを表しており,縦軸一番下がBERTの1層目のみ使用,縦軸一番上がBERTの12層目のみを使用した結果である.横軸はテスト正解率である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{29-3ia5f6.pdf}\end{center}\caption{新聞コーパスを1層ずつテスト}\label{1_layer_news}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%新聞コーパスは下位の層,上位の層が,5層から8層目の中間の層よりも正解率がいいことがわかった.一方でWebコーパスに関してはどの位置の層を削除しても同程度の正解率であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{29-3ia5f7.pdf}\end{center}\caption{Webコーパスを1層ずつテスト}\label{1_layer_web}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%今回利用したコーパスの平均トークン数と1文の平均未知語数は表\ref{data}に示す.新聞コーパスの方がWebコーパスに比べ,1文の平均トークン数が長く,それに伴い平均未知語数が多くなっている.このことから,コーパスの種類や,1文のトークン数と未知語数が多いことが,BERTが構文情報を捉える位置に影響を与えているのではないかと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{05table12.tex}\caption{各テストコーパスの特徴}\label{data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに詳しく分析するため,新聞コーパスをトークン長ごとに3つのグループに分けて,BERTを1層ずつfine-tuningしたモデルで実験を行った.具体的には,テストデータに利用した3,000件の新聞コーパスをトークン長を昇順に並び替え,短・中・長と3つのグループにそれぞれ1,000件ずつ分類した.グループごとの平均トークン長を表\ref{token_group}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\input{05table13.tex}\caption{トークン長ごとにグループ分け}\label{token_group}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%短と中グループの結果を示した図\ref{text_min},\ref{text_mid}では,それぞれ95\%ほどの正解率であるが,長グループの結果である図\ref{text_long}は,上位層と下位層では91\%を超えるが,中位層は91\%を下回った.これらの結果から,トークンが長い場合,BERTの中位層がうまく働かないことが見て取れる.なお,これらの差はカイ二乗検定により統計的に有意であった.この結果は,図\ref{jikken-bert}の結果,つまり中間層を削除した場合が最も構文解析の正解率が保たれていることと一致している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{29-3ia5f8.pdf}\end{center}\caption{短グループのテストの正解率}\label{text_min}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{29-3ia5f9.pdf}\end{center}\caption{中グループのテストの正解率}\label{text_mid}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{未知語と格による影響}コーパスによって正解率の違いが出ることが分かったが,未知語の影響や層ごとによる構文情報の捉え方の違いを見つけるため,上位・中位・下位でそれぞれ4層ずつ層を削除したモデルで調査を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{29-3ia5f10.pdf}\end{center}\caption{長グループのテストの正解率}\label{text_long}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{correct_unk_percent}は,テストデータにおいて係り受けラベルの1を付与したペアを,モデルが正解だと予測したものにおいて,そのペア中に未知語がどのぐらい含まれているのか割合を調査した結果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[b]\begin{center}\includegraphics{29-3ia5f11.pdf}\end{center}\caption{正解ペアに含まれる未知語の割合}\label{correct_unk_percent}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{correct_unk_percent}より,上位層を削除するよりも下位層を削除する方が,正解とみなしたペアの中での未知語の割合が低いことがわかる.つまり,BERTは下位層より上位層の方が,語彙を利用して構文解析を行っており,下位層の方が語彙を利用していない分,未知語にロバストであるといえる.次に各層を削除したことによる正解・不正解ペアの変化を調べた.まず表\ref{correct_kaku}では各モデルにおいて,正解したペアに含まれる格パターンの出現割合が多い順に上位3件を示す.これは,テストを行ったとき正解したペアをKNPを使って格解析した結果である\footnote{係っていないペアの組み合わせについて,コーパス中に注記がないため,コーパスの結果ではなく,KNPの結果と比較した.}.例えば「自然は」が「美しい.」に係っているペアを,モデルが正解とみなしたとき,「自然は美しい.」をKNPで解析し,述語側に表示される格解析の結果を使用する.結果,どのモデルにおいても,「ガ格」「ヲ格」「修飾」が上位を占めていた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{05table14.tex}\caption{正解したペアに含まれる上位3件の格パターン(分類件数)}\label{correct_kaku}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[t]\input{05table15.tex}\caption{不正解だったペアに含まれる上位3件の格パターン(分類件数)}\label{incorrect_kaku}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[t]\input{05table16.tex}\caption{格の例}\label{kaku_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,表\ref{incorrect_kaku}はテストの際,不正解とみなされたペアに含まれる格パターンである.表\ref{incorrect_kaku}でも先程の表\ref{correct_kaku}と同じように,「ガ格」「ヲ格」「修飾」が上位を占める結果となった.「ガ格」「ヲ格」「修飾」に分類された例は表\ref{kaku_example}に示している.表\ref{correct_kaku},\ref{incorrect_kaku}より,正解・不正解のどちらにおいても,層ごとに格に関しては差が出なかった.以上のことから,BERTは層ごとで格について大きな違いがなかったが,下位層よりも上位層の方が,既知の語彙を考慮した構文解析を行っているのではないかと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究ではBERTの一部層を削除し,簡易小型化したBERTを用いることによる,\pagebreak日本語構文解析の正解率の差を調べた.結果,$\rm{BERT_{BASE}}$が両コーパスともに正解率が最も高いが,削除する層数が増えても,正解率にあまり差が出なかった.このとき上位層と下位層を利用するモデルが高い正解率を維持していることがわかった.また,削除する層数を増やすほど,学習・推論にかかる時間は短くなった.BERTは格パターンについては,層ごとに捉え方による変化はなかったが,未知語と語彙による捉え方は層ごとに変化が出た.今後の研究としては,コーパスを基本句区切りではなく形態素の区切りを使うことや,MeCabの区切りを利用した事前学習済みBERTを使うことなど,それぞれの区切りごとによる構文解析の正解率の差があるのかを調査すること.また,$\rm{BERT_{BASE}}$では上位と下位を利用することが今回の構文解析では有効であったが,$\rm{BERT_{LARGE}}$においても違いが出るのか,これらの点について今後調査していきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP19K12093,18K11421,17KK0002および2021年度国立情報学研究所公募型共同研究(2021-FC05)の助成を受けています.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{河野慎司}{%2019年茨城大学工学部情報工学科卒.2021年茨城大学大学院理工学研究科修了.}\bioauthor{古宮嘉那子}{%2005年東京農工大学工学部コミュニケーション工学科卒.2009年同大学大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師,2021年東京農工大学工学研究院准教授.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{新納浩幸}{%1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年より茨城大学工学部.現在,茨城大学工学部情報工学科教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V10N04-08
\section{はじめに} \thispagestyle{empty}何かを調べたいとき,一番よい方法はよく知っている人(その分野の専門家)に直接聞くことである.多くの場合,自分の調べたいこととその答えの間には,具体性のズレ,表現のズレ,背景の認識の不足などがあるが,専門家は質問者との対話を通してそのようなギャップをうめてくれるのである.現在,WWWなどに大規模な電子化テキスト集合が存在するようになり,潜在的にはどのような質問に対してもどこかに答えがあるという状況が生まれつつある.しかし,今のところWWWを調べても専門家に聞くような便利さはない.その最大の原因は,上記のようなギャップを埋めてくれる対話的な能力が計算機にないためである.例えば,ユーザがWWWのサーチエンジンに漠然とした検索語を入力すると多くのテキストがヒットしてしまい,ユーザは多大な労力を費して適切なテキストを探さなければならない.このような問題は,ドメインを限定し,ユーザが比較的明確な目的を持って検索を行う場合でも同様である.我々は予備調査として,マイクロソフトが提供している自然言語テキスト検索システム「話し言葉検索」\footnote{\tthttp://www.microsoft.com/japan/enable/nlsearch/}の検索ログを分析した.その結果,全体の約3割の質問はその意図が不明確であることがわかった.このような曖昧な質問に対しては多くのテキストがマッチしてしまうので,ユーザが検索結果に満足しているとはいいがたい.この問題を解決するためには,「曖昧な質問への聞き返し」を行うことが必要となる.すでに実現されている情報検索システムには,大きく分けてテキスト検索システムと質問応答システムの2つのタイプがある.前者は質問キーワードに対して適合するテキスト(のリスト)を返し,後者は質問文に対してその答えを直接返す.しかし,曖昧な質問を行ったユーザを具体的なテキストまたは答えに導く必要性は両者に共通する.以下では,「曖昧な質問への聞き返し」に焦点をあてて,過去の研究を俯瞰する(表\ref{tab:情報検索の種々のタイプ}).テキスト検索システムにおいて,質問とテキストの具体性のギャップを埋めるために聞き返しを行う方法としては,以下の手法が提案されてきた.\begin{table}\caption{情報検索の種々のタイプ}\label{tab:情報検索の種々のタイプ}\begin{center}\footnotesize\begin{tabular}{l|cccc}\hline手法/システム&ユーザ質問&出力&聞き返しの媒体&規模\\\hline\hline一般的なテキスト検索システム&キーワードの&テキストの&×&○\\&リスト&リスト\\\hlineテキストによる聞き返し&キーワードの&テキストの&テキスト&○\\(SMART,WWWサーチエンジン)&リスト&リスト\\\hline関連キーワードによる聞き返し&キーワードの&テキストの&キーワード&○\\(RCAUU,DualNAVI,Excite)&リスト&リスト\\\hlineテキストと関連キーワードによる&キーワードの&テキスト&テキストと&△\\聞き返し(THOMAS)&リスト&&キーワード&\\\hlineクラスタリング&キーワードの&テキストの&クラスタ&○\\(Scatter/Gather,WebSOM)&リスト&リスト&(キーワードor\\&&&テキストで表現)&\\\hline\hline人工言語による知識体系の利用&自然言語&自然言語&自然言語&×\\(UC)&&(答え)&&\\\hlineFAQテキストの利用&自然言語&自然言語&×&△\\(FAQFinder)&&(答え)&&\\\hlineドメイン独立テキストの利用&自然言語&自然言語&×&○\\(TRECQA/NTCIRQAC)&&(答え)&&\\\hline京都大学ヘルプシステム&自然言語&自然言語&自然言語&△\\&&(答え)&&\\\hline\hlineダイアログナビ&自然言語&自然言語&自然言語&○\\&&(状況説明文)&&\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemテキストによる聞き返し検索結果から適合テキストをユーザに判定させ,それを検索式の修正に反映させる手法は,SMARTシステムなどで実験が行われている\cite{Rocchio71}\footnote{このようにユーザが適合テキストを選ぶ方法は,「適合性フィードバック」とよばれている.しかし,ユーザに聞き返しを行って何らかの情報をえること全体が,広い意味での適合性フィードバックであるので,ここではその用語は用いていない.}.Google\footnote{\tthttp://www.google.com/}などのWWWサーチエンジンでは,検索結果からテキストを1個選んで,その関連テキストを表示させることができるが,この方法もユーザによる適合テキストの判定とみなすことができる.\item関連キーワードによる聞き返し検索結果から,ユーザが入力したキーワードに関連するキーワードを抽出し,選択肢として提示するシステムとしては,RCAAU\cite{RCAAU},DualNAVI\cite{DualNAVI},Excite\footnote{\tthttp://www.excite.com/}などがある.\itemテキストと関連キーワードを組み合わせた聞き返しTHOMAS\cite{Oddy77}は,ユーザの情報要求を,「イメージ」とよばれるキーワード集合として保持し,テキスト1個と関連キーワードを併せて提示してそれらの適合性をユーザに判定させるプロセスを繰り返すことで,「イメージ」を徐々に具体化させようとするシステムである.ただし,1970年代に提案されたシステムであり,小規模なテキスト集合にしか適用できない.\itemクラスタリング検索されたテキストをクラスタリングし,クラスタを選択肢として提示するシステムとしては,Scatter/Gather\cite{Hearst96},WEBSOM\cite{Lagus00}などがある.これらのシステムでは,各クラスタは,それに属するテキストのリストや,代表的なキーワードのリストとして表現されている.\end{itemize}これらのシステムの聞き返しの媒体は,いずれもキーワードまたはテキストのレベルである.しかし,キーワードは抽象化されすぎており表現力がとぼしく,逆にテキストは具体的すぎるため,聞き返しの媒体としては必ずしも適切ではない.一方,質問応答システムとしては,1980年代にUC\cite{UC}などのシステムが研究された.これらのシステムは,ユーザの意図が曖昧な場合に自然言語による聞き返しを行う能力を備えていたが,そのためには人工言語で記述された,システムに特化した知識ベースが必要であった.しかし,十分な能力をもつ人工言語の設計の困難さ,知識ベース作成のコストなどの問題から,このような方法には明らかにスケーラビリティがない.1990年代になって,電子化された大量の自然言語テキストが利用可能になったことから,自然言語テキストを知識ベースとして用いる質問応答システムの研究が盛んになってきた.インターネットのニュースグループのFAQファイルを利用するシステムとしては,FAQFinder\cite{Hammond95}がある.また最近は,構造化されていないドメイン独立のテキスト(新聞記事やWWWテキスト)を用いた質問応答システムの研究が,TRECQATrack\cite{TREC9}やNTCIRQAC\cite{QAC}において盛んに行われている\cite{Harabagiu01,TREC_LIMSI,QAC_Murata,QAC_Kawahara}.しかし,これらのシステムはユーザの質問が具体的であることを前提にして,1回の質問に対して答えを1回返すだけであり,曖昧な質問に対して聞き返しを行う能力は備えていない.京都大学総合情報メディアセンターのヘルプシステム\cite{Kuro00}は,自然言語で記述された知識ベースとユーザ質問の柔軟なマッチングに基づいて,曖昧な質問に対して自然言語による聞き返しを行うことができるシステムである.しかしそこでは,記述の粒度をそろえ,表現に若干の制限を加えた知識ベースをシステム用に構築しており,「曖昧な質問への聞き返し」のプロトタイプシステムという位置づけが適当である.\begin{figure}\begin{center}\epsfile{file=fig/image.eps,scale=0.4}\caption{ダイアログナビのユーザインタフェース}\label{fig:user_interface}\end{center}\end{figure}これに対して,本論文では,既存の大規模なテキスト知識ベースをもとにして,自然言語による「曖昧な質問への聞き返し」を行い,ユーザを適切なテキストに導くための方法を提案する.具体的には,パーソナルコンピュータのWindows環境の利用者を対象とした自動質問応答システム「ダイアログナビ」を構築した(図\ref{fig:user_interface}).本システムの主な特徴は以下の通りである.\begin{itemize}\item{\bf大規模テキスト知識ベースの利用}マイクロソフトがすでに保有している膨大なテキスト知識ベースをそのままの形で利用する.\item{\bf正確なテキスト検索}ユーザの質問に適合するテキストを正確に検索する.そのために,質問タイプの同定,{\bf同義表現辞書}による表現のずれの吸収,係り受け関係への重みづけなどを行っている.\item{\bfユーザのナビゲート}ユーザが曖昧な質問をしたとき,対話的に聞き返しを行うことによってユーザを具体的な答えにナビゲートする.聞き返しの方法としては,{\bf対話カード}と{\bf状況説明文の抽出}の2つの方法を組み合わせて用いる.どちらの方法が用いられても,システムは具体的なフレーズを聞き返しの選択肢として提示する.\end{itemize}\vspace*{5mm}図\ref{fig:user_interface}の例では,「エラーが発生する」という漠然とした質問に対して2回の聞き返しを行ってユーザの質問を対話的に明確化させた後,知識ベースを検索してその結果を提示している.その際,ユーザの質問をより具体化させるような部分を検索されたテキストから抽出して提示している.本論文では,このような対話的質問応答を可能とするためのシステムを提案する.まず\ref{sec:ダイアログナビの構成}節において,システムの構成を示す.つづいて,\ref{sec:テキストの検索}節では正確なテキストの検索を行うための手法を,\ref{sec:ユーザのナビゲート}節ではユーザのナビゲートを実現するための手法を,具体的に提案する.さらに\ref{sec:評価}節において,提案手法を実装したシステム「ダイアログナビ」を公開運用して得られた対話データベースの分析結果を,提案手法の評価として示す.最後に\ref{sec:おわりに}節で本論文のまとめを述べる.\newpage \section{ダイアログナビの構成} \label{sec:ダイアログナビの構成}ダイアログナビにおいて使用するリソースを以下に示す.\begin{table}\caption{ダイアログナビで用いるテキスト知識ベース}\label{tab:text_collection}\begin{center}\footnotesize\begin{tabular}{c|rrl}\hline知識ベース&\multicolumn{1}{c}{件数}&\multicolumn{1}{c}{文字数}&\multicolumn{1}{c}{マッチング対象}\\\hline用語集&4,707&700,000&見出し(1文)\\ヘルプ集&11,306&6,000,000&タイトル(1文)\\サポート技術情報&23,323&22,000,000&文書全体(複数文)\\\hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\tiny\begin{tabular}{|p{12cm}|}\hline\\{\small\bf音声認識ソフトウェアがインストールされた環境でページ違反が発生する}\\\\最終更新日:1999/08/18\\文書番号:J049655\\\\この資料は以下の製品について記述したものです。\begin{itemize}\itemMicrosoft(R)InternetExplorerVersion5(以下InternetExplorer5)\itemMicrosoft(R)Windows98(以下Windows98)\end{itemize}\\{\bf概要}\\この資料は、Windows98上にInternetExplorer5がインストールされた環境で、音声認識ソフトウェアが起動されていると、InternetExplorer5を起動した際に、ページ違反が発生する現象について説明したものです。\\\\{\bf内容}\\以下の条件を満たすときにInternetExplorer5を起動すると、ユーザー補助プログラムのOLEACC.DLLが不正なメモリ領域を参照することにより、ページ違反が発生する場合があります。\begin{itemize}\itemWindows98にユーザー補助プログラムがインストールされている\item音声認識ソフトウェアが起動している\end{itemize}\\{\bf回避方法}\\Windows98システムアップデートモジュールをインストールします。システムアップデートモジュールには、新しいOLEACC.DLLが含まれており、この不具合が修正されていることを確認しております。これはWindows98ServicePack1に含まれるモジュールとなっており、WindowsUpdateからダウンロードすることができます。\\\\{\bf入手方法}\begin{enumerate}\item\[スタート]メニューから[WindowsUpdate]をクリックします。\item画面の指示に従い"WindowsUpdateへようこそ"が表示されたら、"製品の更新"をクリックします。\item"ソフトウェアの選択"画面にて、"Windows98SystemUpdate"にチェックをつけ、"ダウンロード"ボタンを押します。\item画面の指示に従い、モジュールをインストールします。\end{enumerate}\\\hline\end{tabular}\caption{マイクロソフト・サポート技術情報の例}\label{fig:マイクロソフト・サポート技術情報の例}\end{center}\end{figure}\begin{itemize}\item{\bf知識ベース}マイクロソフトがすでに一般に公開しているテキスト知識ベースをそのまま用いる.その種類と規模を表\ref{tab:text_collection}に示す.また,知識ベースのうちサポート技術情報に含まれるテキストの例を図\ref{fig:マイクロソフト・サポート技術情報の例}に示す.\item{\bf同義表現辞書}(\ref{subsubsec:同義表現辞書}項,図\ref{fig:同義表現辞書})ユーザ質問文と知識ベースの間の表現のずれを吸収するために,同義語や同義フレーズをグループ化した辞書を用いる.現在,ダイアログナビの同義表現辞書には,919グループの同義表現が存在し,3512語・217フレーズが登録されている.\begin{figure}\begin{center}\footnotesize\begin{tabular}{|c@{}p{10cm}|}\hline\multicolumn{2}{|l|}{[発生する]}\\\hspace{5mm}&発生する,起きる,おきる,起こる,おこる\\\multicolumn{2}{|l|}{[読む]}\\\hspace{5mm}&読む,よむ,読める,よめる,読み込む,よみこむ,読み込める,よみこめる\\\multicolumn{2}{|l|}{[メール]}\\\hspace{5mm}&メール,メイル,電子メール,電子メイル,Mail,E-Mail\\\multicolumn{2}{|l|}{[メールを読む]}\\\hspace{5mm}&メールを読む,メールを受信する,メールを見る,メールを受ける,メッセージを受信する,メッセージを受ける\\\multicolumn{2}{|l|}{[パソコンを起動する]}\\\hspace{5mm}&パソコンを起動する,Windowsを起動する,電源を入れる,電源をオンする,ブートする,パソコンを立ち上げる,スイッチを入れる\\\hline\end{tabular}\caption{同義表現辞書の例}\label{fig:同義表現辞書}\end{center}\end{figure}\item{\bf上位・下位語辞書}(\ref{subsubsec:上位・下位語辞書}項,図\ref{fig:上位下位関係})上位・下位の関係にある語(「ブラウザ」と「InternetExplorer」など)を関係づけた辞書を用いる.現在,200語が登録されている.\begin{figure}\begin{center}\epsfile{file=fig/jouikai.eps,scale=0.75}\caption{上位・下位語辞書の例}\label{fig:上位下位関係}\end{center}\end{figure}\item{\bf対話カード}(\ref{subsec:対話カードを用いた聞き返し}節,図\ref{fig:対話カードの例})曖昧なユーザ質問文のうち典型的なものに対して,どのような聞き返しを行うかを記述したカードを利用する.\begin{figure}[t]\begin{center}\footnotesize\begin{tabular}{|p{12cm}|}\hline{\tt$<$CARD$>$}\\{\tt$<$ID$>$}エラー\\{\tt$<$UQ$>$}エラーが発生する\\{\tt$<$REPLY$>$}エラーはいつ発生しますか?\\{\tt$<$SELaction=CARDcard\_id={\rm``エラー/Windows起動中''}$>$}Windows起動中\\{\tt$<$SELaction=CARDcard\_id={\rm``エラー/ログイン時''}$>$}ログイン時\\{\tt$<$SELaction=CARDcard\_id={\rm``エラー/印刷時''}$>$}印刷中\\$\cdots$\\{\tt$<$/CARD$>$}\\\\\hline\multicolumn{1}{c}{}\\\hline{\tt$<$CARD$>$}\\{\tt$<$ID$>$}エラー/Windows起動中\\{\tt$<$UQ$>$}Windowsの起動中にエラーが発生する\\{\tt$<$REPLY$>$}あなたがお使いのWindowsを選んでください.\\{\tt$<$SELaction=RETphrase={\rm``Windows95の起動中にエラーが発生する''}$>$}Windows95\\{\tt$<$SELaction=RETphrase={\rm``Windows98の起動中にエラーが発生する''}$>$}Windows98\\$\cdots$\\{\tt$<$SELaction=RETphrase={\rm``WindowsXPの起動中にエラーが発生する''}$>$}WindowsXP\\{\tt$<$/CARD$>$}\\\\\hline\end{tabular}\caption{対話カードの例}\label{fig:対話カードの例}\end{center}\end{figure}\end{itemize}ダイアログナビの内部の処理と,ユーザとの対話の関係を図\ref{fig:architecture}に示す.基本的な流れは,対話カードに基づくユーザとの対話によってユーザの質問が具体化され(図\ref{fig:architecture}の左側のループ),具体化された質問によって知識ベースが検索され(右側の処理へ移行),検索結果が自動編集され選択肢の形でユーザに提示される.ユーザの最初の質問が具体的な場合は,対話カードとはマッチせずに右側の処理へ移行し,はじめから知識ベースの検索結果が提示される.図\ref{fig:architecture}中の各モジュールの働きは以下の通りである(詳細は次節以降に示す).\begin{itemize}\item{\bf入力解析モジュール}質問文を3種類の質問タイプ(Symptom型,How型,What型)に分類し,質問文の内容表現を抽出する.さらに,構文解析,キーワードと同義表現の抽出などを行う.\item{\bfテキスト検索モジュール}対話カードおよび知識ベース(以下,これらを総称して{\bfテキスト}という)とユーザ質問文のマッチングを行い,スコアの高いテキストを返す.マッチングの際には,同義表現辞書,上位・下位語辞書を用いて表現のずれを吸収する.\item{\bf状況説明文抽出モジュール}知識ベース中のユーザ質問文とマッチした文の,マッチした部分の周囲を抽出することによって,ユーザにとって簡潔でわかりやすい選択肢を提示する.\end{itemize}\begin{figure}\begin{center}\epsfile{file=fig/flow_chart.eps,scale=0.6}\caption{ダイアログナビのフローチャート}\label{fig:architecture}\end{center}\end{figure} \section{テキストの検索} \label{sec:テキストの検索}質問応答システムにおいてまず重要なことは,質問の答えを含むと思われるテキストを十分な精度で検索できることである.そのために,質問タイプとプロダクト名による知識ベースの絞り込みを行う.また,表現のずれを吸収するために同義表現辞書(図\ref{fig:同義表現辞書})を利用したマッチングを行う.さらに,スコア計算において,「ファイル→開く」のような係り受け関係に加点することによって,検索の精度を向上させる\cite{CLARIT}.\subsection{マッチングの前処理}\label{subsec:マッチングにおける文節の扱い}ユーザ質問文とテキスト内の文(以下,{\bfテキスト文}という)は,それぞれ構文解析を行って文節単位の係り受け構造に変換した上でマッチングを行う.この節では,マッチングを行うまでの前処理についてまとめる.\subsubsection{構文解析とキーワード抽出}ユーザ質問文とテキスト文の両者について,JUMAN\cite{JUMAN},KNP\cite{KNP}によって構文解析を行い,各文節に含まれるキーワードを抽出する.JUMANにおいて,普通名詞・固有名詞・人名・地名・組織名・数詞・動詞・形容詞・形容動詞・副詞・カタカナ・アルファベットと解析された語の原形をキーワードとみなす.ただし,一般的な語彙「する」「ある」「行う」「おこなう」「行く」「いく」「なる」「下さる」「くださる」「ございます」「できる」「出来る」は,キーワードとしない.\subsubsection{文節の分割・併合処理}\label{subsubsec:文節の分割・併合処理}マッチングのスコアを計算する際,KNPが出力した文節をそのまま用いることには問題がある.例えば,「画面をコピーできない」は2文節,「画面コピーをすることができない」は4文節と解析されるが,両者は同じことを表現している.これを適切に扱うためには,両者の単位をそろえる必要がある.本システムは,下記のルールに従って文節を分割・併合する(図\ref{fig:文節の分割・併合処理の例}).\begin{enumerate}\item複数のキーワードを含む文節は,1キーワード毎に分割する.分割された隣り合う文節同士は,係り受けの関係にあるものとする.ただし,カタカナ語・アルファベット・数詞が隣接している箇所では分割しない.このような語同士が隣接する場合は,「ウィンドウズ98SE」のようにプロダクト名などを表していることが多いからである.\item「(〜に)ついて」「(〜)こと」などの複合辞・形式名詞・副詞的名詞からなる文節,キーワードを含まない文節は,直前の文節に併合する.\end{enumerate}\begin{figure}\begin{center}\epsfile{file=fig/divide_merge.eps,scale=0.5}\caption{文節の分割・併合処理と否定フラグの付与}\label{fig:文節の分割・併合処理の例}\end{center}\end{figure}\subsubsection{否定フラグの付与}ユーザ質問文とテキスト文のマッチングの際に否定表現のバリエーションを吸収するために,文節にフラグを付与する.具体的には,形容詞「ない」,助動詞「ぬ」,または形容動詞「不可能だ」を含む場合に否定フラグを付与する(図\ref{fig:文節の分割・併合処理の例}右).\subsubsection{ユーザ質問文のタイプ推定と文末表現の削除}\begin{table}\caption{「話し言葉検索」の質問文タイプ}\label{tab:「話し言葉検索」のログ分析結果}\begin{center}\footnotesize\begin{tabular}{c|p{4cm}|p{4cm}|c}\hline質問文タイプ&説明&質問文の例(文末表現パターン)&割合\\\hline\hlineWhat型&用語の意味や定義などをたずねる質問&〜って何ですか,〜の説明をして,〜の意味を教えて&約10\,\%\\\hlineHow型&操作の方法などをたずねる質問&〜方法を教えて,〜にはどうしたらいいの,〜の使い方&約35\,\%\\\hlineSymptom型&遭遇している問題や症状を述べ,その解決策をたずねる質問&〜してしまう,〜が使えません,〜ができない&約50\,\%\\\hlineその他&------------------&------------------&約5\,\%\\\hline\end{tabular}\end{center}\end{table}「話し言葉検索」の検索ログを分析した結果,表\ref{tab:「話し言葉検索」のログ分析結果}に示すようにユーザの質問には主に3つのタイプが存在することがわかった.本システムでは,表\ref{tab:「話し言葉検索」のログ分析結果}の文末表現パターンを用いて,ユーザ質問文の質問タイプ(What型,How型,Symptom型,タイプなしのいずれか)を推定する.また,文末表現パターンのうち,「〜って何ですか」「〜方法を教えて」のようにテキスト検索においてノイズとなるものについては,ユーザ質問文から削除する.\subsection{表現のずれの吸収}\label{subsec:同義表現辞書の利用}適切なテキストを検索するためには,ユーザ質問文とテキストの間の表現のずれが大きな問題となる.本システムでは,{\bf同義表現辞書}と{\bf上位・下位語辞書}を用いることによってこの問題に対処する.\subsubsection{同義表現辞書}\label{subsubsec:同義表現辞書}表現のずれは語のレベルだけでなく,「パソコンを起動する」「Windowsを起動する」「電源を入れる」のように,2文節以上のフレーズレベルにおいても多数存在する.そこで,同義語だけでなくフレーズレベルのものも含んだ同義表現をグループ化した{\bf同義表現辞書}を作成し,これを用いて同義表現のマッチングを行う.同義表現辞書の例は図\ref{fig:同義表現辞書}に示した.本辞書の作成は,「話し言葉検索」のログを解析し,頻出する同義表現をグループ化することによって行った.また,和語動詞(「戻る」など)の可能形(「戻れる」)や読み(「もどる」「もどれる」)も同義表現として登録した.なお,同義表現辞書には再帰的な関係が含まれているため,これをあらかじめ展開しておく.図\ref{fig:同義表現辞書の再帰的展開}においては,「メールを読む」には2つのキーワード「メール」「読む」が含まれるが,「メール」には同義語「メイル」「E-mail」が存在し,「読む」には同義語「読み込む」が存在する.この場合,「メールを読む」というフレーズを$3\times2=6通り$に展開する.\begin{figure}\begin{center}\epsfile{file=fig/expand_syndic.eps,scale=0.5}\caption{同義表現辞書の再帰的展開}\label{fig:同義表現辞書の再帰的展開}\end{center}\end{figure}マッチングの際には,ユーザ質問文とテキストの両者について,同義表現辞書を調べて,そこに含まれる同義表現グループを抽出し,同一グループのものがあればマッチするとみなす.ただし,\ref{subsec:転置インデックス}節で述べるように,テキストについてはあらかじめ同義表現グループを抽出しておく.図\ref{fig:ユーザ質問文と同義表現データベースの照合}に,ユーザ質問文と同義表現辞書の照合の例を示す.この例では,4つの同義表現グループ{\bf[使う],[メール],[読む],[メールを読む]}が抽出される.\begin{figure}\begin{center}\epsfile{file=fig/extract_syn.eps,scale=0.5}\caption{ユーザ質問文と同義表現辞書の照合}\label{fig:ユーザ質問文と同義表現データベースの照合}\end{center}\end{figure}\subsubsection{上位・下位語辞書}\label{subsubsec:上位・下位語辞書}同義表現辞書ではうまく扱えない表現のずれも存在する.例えば,「ブラウザ」$\Longleftrightarrow$「IE6」,「ブラウザ」$\Longleftrightarrow$「IE5」といった表現のずれに対して,「ブラウザ」「IE5」「IE6」をすべて同義語として扱うことは問題である.なぜなら,「IE5」に関する質問に対して,「IE6」に関するテキストを示すことは適切でないからである.そこで,図\ref{fig:上位下位関係}に示すような上位・下位語辞書を作成し,テキストに現れるキーワードの上位語・下位語を,キーワードと同様に扱うことによってこの問題に対処する.例えば,「IE6」がテキストに現れる場合はその上位語「IE」「ブラウザ」もキーワードとして扱い,「IE」がテキストに現れる場合はその上位語「ブラウザ」と下位語「IE3」「IE4」「IE5」「IE6」もキーワードとして扱う.ユーザ質問文についてはこの扱いを行わないことによって,「IE5」と「IE6」がマッチすることが避けられる.\subsection{転置インデックスの利用}\label{subsec:転置インデックス}テキストを高速に検索するために,前もってテキストからキーワード・同義表現グループの抽出と,キーワードの上位・下位語の展開を行い,転置インデックスを作成しておく.本システムは,ユーザ質問文から抽出されたキーワードと同義表現グループについて転置インデックスを参照し,1個以上のキーワードまたは同義表現が一致するテキストを,次節で述べる質問タイプ・プロダクト名による絞り込みの対象とする.\subsection{知識ベースの絞り込み}\label{subsec:テキスト集合の絞り込み}テキスト検索の精度を向上させるために,質問タイプとプロダクト名による知識ベースの絞り込みを行う.\subsubsection{質問タイプによる絞り込み}\label{subsubsec:質問タイプによる絞り込み}テキスト検索モジュールは,入力解析モジュールによって推定された質問パターンにもとづいて,表\ref{tab:質問タイプによるテキスト集合の絞り込み}に示すようにテキスト集合を絞り込む.原則として,用語集はWhat型,ヘルプ集はHow型の質問に対応させる.サポート技術情報についてはSymptom型・How型を示すタグが付与されているので,これを利用する.なお,What型の質問については必ずしも用語集を用いて答えればよいとは限らない.例えば,「コントロールパネルについて教えて」のような質問はWhat型に分類されるが,用語の定義ではなく操作方法などについて聞いていると解釈することもできる.よって,全てのテキストを検索対象とした上で,複数の知識ベースのテキストがユーザ質問とマッチした場合には用語集のテキストを最初に提示する.\begin{table}\caption{質問タイプによるテキスト集合の絞り込み}\label{tab:質問タイプによるテキスト集合の絞り込み}\begin{center}\footnotesize\begin{tabular}{@{\hspace{1mm}}l@{\hspace{2mm}}l|c@{\hspace{2mm}}c@{\hspace{2mm}}c@{\hspace{2mm}}c@{\hspace{1mm}}}\hline&&\multicolumn{4}{|c}{質問タイプ}\\\multicolumn{2}{c|}{テキスト集合}&What型&How型&Symptom型&タイプなし\\\hline用語集&(What型)&o&&&o\\\hlineヘルプ集&(How型)&o&o&&o\\\hlineサポート技術情報&(Symptom型)&o&&o&o\\&(How型)&o&o&&o\\&(タイプなし)&o&o&o&o\\\hline\end{tabular}\end{center}\end{table}\subsubsection{プロダクト名による絞り込み}\label{subsubsec:プロダクト名による絞り込み}ヘルプ集・サポート技術情報については,図\ref{fig:マイクロソフト・サポート技術情報の例}に示したようにすべてのテキストに対象プロダクト名が明示されているので,これを利用してテキストの絞り込みを行う.質問文にプロダクト名(WindowsNT,Word,Excelなど)が出現する場合は,そのプロダクトを対象とするテキストを検索対象とする.質問文に複数のプロダクト名が出現する場合(「\underline{Excel}で作った表が\underline{Word}で読み込めない」など)は,いずれかのプロダクトを対象とするテキストを検索対象とする.\subsection{テキストのスコア計算}\label{subsec:スコアの計算}転置インデックスを参照して得られ,さらに質問タイプ・プロダクト名によって絞り込まれた各テキストを対象として,ユーザ質問文との間で係り受け関係まで考慮した類似度計算を行う.ただし,絞り込まれたテキスト数が1000個を超える場合は,転置インデックスにおいて一致したキーワード・同義表現グループの数の多い順に,上位1000個までを対象とする.\subsubsection{文類似度の計算}ユーザ質問文とテキスト文の2文の類似度の計算は,\ref{subsec:マッチングにおける文節の扱い}節で述べた文節を単位として行う.2文の互いに対応する文節と係り受け関係の割合({\bf被覆率})をそれぞれ計算し,その積を2文の類似度とする.まず,2文間で,以下の条件によって文節・係り受け関係を対応づける.その際,対応する文節・係り受け関係に{\bf対応度}(0以上,1以下の値)を付与する.\begin{enumerate}\itemユーザ質問文の文節{\bfA}に含まれるキーワードと,テキスト文の文節{\bfA'}に含まれるキーワード(あるいはその上位・下位語)のいずれかが一致する場合,{\bfA}と{\bfA'}を対応づける.対応度は,以下のように計算する.\begin{itemize}\item[(a)]{\bfA,A'}に共通のキーワードが含まれる場合は,以下の計算式によって対応度を計算する.\[(対応度)=\frac{(共通して含まれるキーワード数)}{(\mbox{\bfA,A'}のうちの多い方のキーワード数)}\]例えば,「Windows98SE」(3語)と「Windows98」(2語)については,2語「Windows」「98」が共通して含まれるので,対応度は$2/3(\simeq0.67)$となる.ただし,多くの場合,文節は1キーワードのみを含むので,対応度は1.0となる.\item[(b)]{\bfA}のキーワードと,{\bfA'}のキーワードの上位語または下位語が一致する場合は,対応度は0.9とする.\item[(c)]{\bfA}と{\bfA'}の否定フラグが一致しない場合は,対応度は一致する場合の0.6倍とする.\end{itemize}\itemユーザ質問文内の係り受け関係{\bfA$\rightarrow$B}とテキスト文内の係り受け関係{\bfA'$\rightarrow$B'}について,文節{\bfA,A'}と文節{\bfB,B'}がそれぞれ対応する場合,それらを対応づける.{\bfA$\rightarrow$B}の対応度は{\bfA,A}の対応度と{\bfB,B}の対応度の積とする.\itemユーザ質問文から抽出された同義表現グループとテキスト文から抽出された同義表現グループが一致する場合,それらが抽出された文節・係り受け関係を対応づける(図\ref{fig:同義表現の対応づけ}).対応度は1.0とする.\end{enumerate}以上の処理の結果,両者の文節・係り受け関係に対応度が付与される.複数の対応を持つ文節・係り受け関係については,いずれか大きな対応度をその対応度とする.\begin{figure}\begin{center}\epsfile{file=fig/synmatch.eps,scale=0.5}\caption{同義表現の対応づけ}\label{fig:同義表現の対応づけ}\end{center}\end{figure}ユーザ質問文,テキスト文の{\bf被覆率}は,それぞれ以下の式によって計算する.\[(被覆率)=\frac{(文節の対応度の和)+(係り受け関係の対応度の和)\times2}{(文節の総数)+(係り受け関係の総数)\times2}\]ユーザ質問文,テキスト文の両者の被覆率の積を,両者の類似度とする.図\ref{fig:スコア計算}においては,ユーザ質問文,テキスト文ともに3つの文節と2つの係り受け関係が対応を持っており,対応度はすべて1.0である.両者の被覆率はそれぞれ1.0,0.54であるので,類似度は0.54となる.\begin{figure}\begin{center}\epsfile{file=fig/score_calc2.eps,scale=0.6}\vspace*{5mm}\begin{tabular}{ccccc}3.0&------&{\bf文節の対応度の和}&------&3.0\\2.0&------&{\bf係り受け関係の対応度の和}&------&2.0\\3&------&{\bf文節の総数}&------&5\\2&------&{\bf係り受け関係の総数}&------&4\\1.0&------&{\bf被覆率}&------&0.54\\\end{tabular}\vspace*{-4mm}\underline{{\bf類似度}$=1.0\times0.54=0.54$}\vspace*{4mm}\caption{ユーザ質問文とテキスト文の対応づけと類似度の計算}\label{fig:スコア計算}\end{center}\end{figure}\subsubsection{テキストのスコアと代表文}\label{subsubsec:テキストのスコアと代表文}各テキスト中でもっとも類似度の大きな文をテキストの{\bf代表文}とし,その類似度をテキストのスコアとする.\subsubsection{サポート技術情報の扱い}サポート技術情報は,表\ref{tab:text_collection}に示したようにテキスト全体の複数文がマッチングの対象となるため,特別な扱いをしている.\begin{itemize}\itemテキスト文の長さが一様ではないので,テキスト文の被覆率を考慮しない.すなわち,ユーザ質問文とテキスト文の類似度は,ユーザ質問文の被覆率とする.\item一つの事象を複数文で説明している場合が多いので,前後の文とのマッチングを考慮する.ユーザ質問文とテキスト文$S_n$の間で類似度を計算する場合は,ユーザ質問文の文節・係り受け関係と,$S_n$の前後の文($S_{n-1}$,$S_{n+1}$)の文節・係り受け関係の対応にも,対応度0.5を与える.\itemサポート技術情報のテキストには,図\ref{fig:マイクロソフト・サポート技術情報の例}に示したように,セクションが存在する.これらのセクションのうち,「タイトル」「概要」「現象」「症状」セクションには,ユーザが頻繁に質問することがらが書かれていることが多い.そこで,文の存在するセクションに応じて,類似度に下記の係数を掛け合わせる.\[\begin{array}{llc}-&タイトル・概要&1.0倍\\-&現象・症状&0.8倍\\-&上記以外&0.6倍\\\end{array}\]\end{itemize}\subsection{選択肢の絞り込み}テキスト検索モジュールは,3つのテキスト集合(用語集・ヘルプ集・サポート技術情報)ごとに,テキストのスコアに基づいてユーザに提示する選択肢を絞り込む.テキストをスコアの大きい順に整列し,上位$n$個までをユーザに提示する選択肢とする.ただし,スコアが閾値$t$を下回るものは対象外とする.また,同じスコアの複数のテキストが$n$位前後で並ぶ場合は,それらをすべて含める.$n$,$t$の値は,表\ref{tab:選択肢の絞り込みのパラメータ}に示すようにテキスト集合ごとに定めた.複数のテキスト集合から選択肢が得られた場合は,用語集,ヘルプ集,サポート技術情報の順で提示する.\begin{table}\caption{選択肢の絞り込みのパラメータ}\label{tab:選択肢の絞り込みのパラメータ}\footnotesize\begin{center}\begin{tabular}{c|cc}\hline&最大選択肢数&スコア閾値\\テキスト集合&$n$&$t$\\\hline用語集&2&0.8\\ヘルプ集&5&0.3\\サポート技術情報&10&0.1\\\hline対話カードの{\tt$<$UQ$>$}(\ref{subsec:対話カードを用いた聞き返し}節)&1&0.8\\\hline\end{tabular}\end{center}\end{table} \section{ユーザのナビゲート} \label{sec:ユーザのナビゲート}ユーザが自分の知りたいことを普通に表現しても,それで一意に適切なテキストが決まることは少ない.例えば「Windows98で起動時にエラーが発生した」という比較的具体的な質問であっても,いくつかの原因と対策があり,それぞれにテキストが存在する.ユーザの質問がさらに曖昧であったり抽象的であったりする場合には,より多くのテキストが候補として選ばれる.いずれにせよ,ユーザが,複数のテキスト候補の中から,自分の状況に一番適切なものを選択することが必要になる.WWWのサーチエンジンは,テキスト中から検索語を含む部分を抽出してユーザに提示することによって,ユーザのテキスト選択を補助している.本システムでは,この考え方を一歩進め,ユーザの質問(遭遇している問題)をより具体化するような説明文をテキスト中から自動的に抽出し,それらを選択肢として提示するという形でユーザへの聞き返しを行う.しかし,ユーザの質問が非常に曖昧な場合には上記の方法はうまく機能しない.そこで,頻繁に尋ねられる曖昧な質問に対して,それをどのように対話的に具体化するかを対話カードという形式で体系化した.例えば,図\ref{fig:ユーザのナビゲート}に示すように,ユーザが「エラーが発生した」という質問をした場合,「エラーが発生したのはいつですか」「使っているWindowsのバージョンは何ですか」などの聞き返しを行って,ユーザの問題を具体化する.\begin{figure}\begin{center}\epsfile{file=fig/hierarchy.eps,scale=0.45}\caption{ユーザのナビゲート}\label{fig:ユーザのナビゲート}\end{center}\end{figure}\subsection{状況説明文の抽出}\label{subsec:状況説明文の抽出}ユーザ質問とマッチした知識ベース中の文では,その中のマッチしなかった部分に,ユーザの問題をより具体化する状況説明が与えられていると考えられる(このような部分を状況説明文とよぶ).たとえば,ユーザが「ページ違反が発生する」と質問し,これが「IE5を起動した際にページ違反が発生する」という文にマッチした場合,マッチしていない「IE5を起動した際に」という部分が状況説明文となる.ユーザの質問にマッチした複数の文からそれぞれ状況説明文を抽出し,ユーザに選択肢として提示すれば,ユーザは自分の状況に適合するものを容易に選択することが可能となる.状況説明文抽出のアルゴリズムを以下に示す.\begin{enumerate}\item「この資料では,(〜)」「以下の」「(〜する)問題について説明しています」など,頻出する冗長な表現をパターンマッチにより削除する.\item文を次の箇所で分割する.分割された各部をセグメントと呼ぶ.\begin{itemize}\item連用修飾節\item「〜とき」「〜際」「〜場合」「〜最中」など\item読点を伴うデ格\end{itemize}\itemセグメントのうち,すべての文節がユーザ質問文中の文節と対応するものを削除する(同義表現として対応する文節も含む).\item末尾(削除されたセグメントを除く)のセグメントを状況説明文の核とする.\item核のセグメントと,それに直接係るセグメントのみを,状況説明文として選択する.\end{enumerate}アルゴリズムの適用例を図\ref{fig:選択肢テキストからの状況説明文の抽出}に示す.まず,左の文は2つのセグメント{\bfA・B},右の文は3つのセグメント{\bfC・D・E}に分割される.このうち,左の文のセグメント{\bfB}と,右の文のセグメント{\bfC・E}は,すべての文節がユーザ質問文と対応するため削除される.結果としてセグメント{\bfA}と{\bfD}が状況説明文の核となり,「IE5を起動した際に」と「タスクスケジューラを使うと」が状況説明文として出力される.\begin{figure}\begin{center}\epsfile{file=fig/extract_description.eps,scale=0.5}\caption{選択肢テキストからの状況説明文の抽出}\label{fig:選択肢テキストからの状況説明文の抽出}\end{center}\end{figure}サポート技術情報のテキストについては,各選択肢テキストの代表文から状況説明文を抽出する.用語集・ヘルプ集のテキストについては,各テキストの見出し語・タイトル自体が簡潔な説明文となっているので,この処理の対象とはしない.\subsection{対話カードを用いた聞き返し}\label{subsec:対話カードを用いた聞き返し}ユーザの質問が非常に曖昧な場合には,テキスト検索の精度が低くなり,多くの不適切なテキストがマッチしてしまう.このような場合に状況説明文の抽出を行っても,誤りを含んだ多くの選択肢が得られることになり,ユーザの助けとはならない.そこで,頻繁に尋ねられる曖昧な質問に対して,それを対話的に具体化する手順を対話カードという形式で体系化した.1枚の対話カードは,あるユーザ質問に対して,どのような聞き返しをすればよいかを記述したもので,以下の要素から構成されている(図\ref{fig:対話カードの例}).\begin{description}\item[\tt$<$ID$>$:]対話カードのID.\item[\tt$<$UQ$>$:]ユーザ質問文.この部分がユーザの質問文とマッチすればこの対話カードが利用される.\item[\tt$<$REPLY$>$:]システムからユーザへの聞き返し発話.\item[\tt$<$SELaction=CARD/SHOW/RET...$>$:]聞き返しの際,ユーザに提示する選択肢.それぞれの選択肢にはユーザがそれを選んだ場合のシステムの動作が記述されている.{\ttaction=CARD}の場合には{\ttcard\_id=}で示された対話カードに移る.{\ttaction=SHOW}の場合には{\tturl}で示されたwebページ(マイクロソフトのサイトの種々のドキュメント)または{\tttext\_id}で示された知識ベースのテキストを表示する.{\ttaction=RET}の場合には{\ttphrase}で示された質問文によって知識ベースを検索する.\end{description}対話カードの利用例を図\ref{fig:user_interface}によって説明する.まずユーザが「エラーが発生した」という質問をすると,質問文と各対話カードの{\tt$<$UQ$>$}の部分とのマッチングを\ref{sec:テキストの検索}節で述べたアルゴリズムによって行う.この結果,図\ref{fig:対話カードの例}上段の対話カードが選ばれる.システムはこのカードに従って,「エラーはいつ発生しますか?」という聞き返しを,選択肢を示して行う.ユーザが「Windows起動中」を選ぶと,システムは図\ref{fig:対話カードの例}下段の[エラー/Windows起動中]の対話カードに移って,「あなたがお使いのWindowsを選んでください」という聞き返しを行う.ここでユーザが「Windows98」を選ぶと,「Windows98の起動中にエラーが発生する」を質問文として知識ベースのテキストの検索を行う.対話カードはこのように階層的に構成されており,そのすべてのカードの{\tt$<$UQ$>$}が検索対象となっている.すなわち,図\ref{fig:ユーザのナビゲート}で示したさまざまなレベルの曖昧性・抽象度の質問を全体的にカバーするように設計されている.たとえば,ユーザが「Windowsを起動中にエラーが発生する」と質問した場合には,はじめから図\ref{fig:対話カードの例}下段のカードを用いた対話が行われることになる.また,対話カードの枠組みは,「U:こんにちはS:こんにちわ」「U:このシステム使いやすいですねS:ありがとうございます」のようなドメインとは関係のない例外的な対応を行う場合にも利用している(この場合は{\tt$<$SEL$>$}のないカードとなる).このような対応ができなければ,通常の検索,すなわち知識ベースに対して「このシステム使いやすいですね」で検索を行ってしまい,「システム」や「使う」を含む知識ベースを提示するということが起こってしまう.ユーザの例外的な発話に対する不適切な動作を防ぎ,正常な対話を維持するという意味で,対話カードによる例外処理は重要である(このような例外的な対話は次節では「範囲外」の対話と扱っている). \section{評価} \label{sec:評価}ダイアログナビは,{\tthttp://www.microsoft.com/japan/navigator/}において,2002年4月から公開サービスを行っている.ユーザとの質問応答のログは,対話データベースとして蓄積している.本システムの評価としては,対話セッションの評価,ユーザとシステムのふるまいの分析,状況説明文の抽出結果が妥当かどうかの評価の3種類を行った.\subsection{対話セッションの評価}対話データベース中の2002年8月1日〜31日の質問応答ログの中から無作為に300回のアクセスを選択した.それらを人手によってタスク指向対話としての意味的まとまりに分割した.このまとまりを{\bf対話セッション}とよぶ.結果として,378個の対話セッションが得られた.1対話セッション当たりの発話ペア(ユーザのキーボード入力またはマウスでの選択と,それに対するシステムの応答)の回数は,平均1.42回であった.378対話セッションそれぞれに対して,評価者1名が次のいずれかの評価を与えた.\begin{description}\item[成功:知識あり]システムが少なくとも1つの適切なテキストを選択肢として提示した.\item[成功:知識なし]知識ベースに適切なテキストがなく,かつシステムが「該当する情報を見つけることができませんでした」と回答した.\item[失敗:知識あり]知識ベースに適切なテキストがあるにもかかわらず,システムがそれらのうちどれも選択肢として提示することができなかった.\item[失敗:知識なし]知識ベースに適切なテキストがないにもかかわらず,システムが不適切なテキストを選択肢として提示した.\item[範囲外:適切]ユーザの質問は想定ドメインの範囲外であったが,システムは適切な応答をした.\item[範囲外:不適切]ユーザの質問が想定ドメインの範囲外であり,システムが不適切な応答をした.\end{description}\begin{table}\caption{対話セッション評価の例(タイプA)}\label{tab:対話セッション評価の例(タイプA)}\begin{center}\footnotesize\begin{tabular}{c|llp{10cm}}\hlineA-1&U:&\multicolumn{2}{l}{Excelで行を追加したい}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{Excelで空白のセル,行,列を挿入する}\\&&2.○&\underline{EXCEL:行の挿入}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineA-2&U:&\multicolumn{2}{l}{起動ディスク}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{W98:PC-9800シリーズ対応用起動ディスクの起動メニュー}\\&&2.&\underline{WindowsXPインストール時にフロッピーでコンピューターを起動するための}\\&&&\underline{ディスクの入手方法}\\&&3.&...\\&U:&\multicolumn{2}{l}{Windows2000での起動ディスクの作成方法は?}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{WindowsNTブートディスクを作成しブート障害に備える方法}\\&&2.&\underline{Windows2000Serverの新規インストールを実行する方法}\\&&&CD-ROMドライブからコンピュータを起動できない場合,Windows2000ブートディスクを作成します.\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineA-3&U:&\multicolumn{2}{l}{USB1.1からusb2.0に交換できますか?}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識なし\\\hlineA-4&U:&\multicolumn{2}{l}{マクロを使いたい}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{Accessでマクロを使ってプロパティを設定する}\\&&2.&\underline{AccessVisualBasicでマクロを使ったプロパティの設定}\\&&3.&...\\&U:&\multicolumn{2}{l}{Excelです}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{Excel2000の起動時に特定のファイルを開く方法}\\&&2.&\underline{Excel:Web上にExcelデータを保存する方法}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{適切なテキスト}&Excelのマクロについて\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識あり\\\hlineA-5&U:&\multicolumn{2}{l}{ウインドウズXPを削除するにはどうしますか?}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{適切なテキスト}&WindowsXPをアンインストールする方法\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識あり\\\hlineA-6&U:&\multicolumn{2}{l}{ラリースポーツチャレンジで正しく画面が表示されない}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{W98SE:初期設定の画面で[ESC]を連打すると表示が不正}\\&&2.&\underline{[CHT2]キャラクターが正しく表示されない場合}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識なし\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{対話セッション評価の例(タイプB)}\label{tab:対話セッション評価の例(タイプB)}\begin{center}\footnotesize\begin{tabular}{c|llp{10cm}}\hlineB-1&U:&\multicolumn{2}{l}{表を書きたい}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\&U:&\multicolumn{2}{l}{表を作りたい}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{PowerPointで表を作成する}\\&&2.○&\underline{Wordで表を作成する}\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineB-2&U:&\multicolumn{2}{l}{強制終了します}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{EXCEL:強制終了およびハングアップの際のチェック項目}\\&&2.○&\underline{EXCEL:強制終了によって正常に保存されなかったファイルを回復する方法}\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineB-3&U:&\multicolumn{2}{l}{Linux}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{Linuxを削除しWindows2000またはNTをインストールする方法}\\&&2.○&\underline{LinuxRPCクライアントからサービス拒否攻撃を実行できる可能性がある}\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineB-4&U:&\multicolumn{2}{l}{FreeBSD}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識なし\\\hlineB-5&U:&\multicolumn{2}{l}{自動校正を解除したい}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{適切なテキスト}&[WD98]文章校正に関するQ\&A\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識あり\\\hlineB-6&U:&\multicolumn{2}{l}{ホームページの文字が大きい}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{[HOWTO]大きな文字配列を初期化する方法}\\&&2.&\underline{[SNA]127よりも大きい文字がNvRunCmdによって間違ってマップ}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{適切なテキスト}&表示されるWebページの文字のサイズを変更する\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識あり\\\hlineB-7&U:&\multicolumn{2}{l}{CADソフトが動かない}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{[OFFXP]Officeのセットアップ後にDVDソフトが動作しない問題について}\\\cline{2-4}&\multicolumn{2}{l}{評価}&失敗:知識なし\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{対話セッション評価の例(タイプC)}\label{tab:対話セッション評価の例(タイプC)}\begin{center}\footnotesize\begin{tabular}{c|llp{10cm}}\hlineC-1&U:&\multicolumn{2}{l}{エラーが発生しました.}\\&S:&\multicolumn{2}{l}{エラーはいつ発生しますか?}\\&&1.&\underline{Windows起動中}\\&&2.&\underline{ログオン(ログイン)時}\\&&3.&...\\&U:&\multicolumn{2}{l}{Windows起動中}\\&S:&\multicolumn{2}{l}{あなたがお使いのWindowsを選んでください.}\\&&1.&\underline{Windows95}\\&&2.&\underline{Windows98}\\&&3.&...\\&U:&\multicolumn{2}{l}{Windows98}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.○&\underline{W98:起動時のフォントドライバが読み込めないエラー}\\&&&「JISフォントドライバーがインストールされていません」等のフォントの読み込みに関するエラーが発生した\\&&2.○&\underline{W98:起動時に「$<$ファイル名$>$が不正かありません」のエラーについて}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hlineC-2&U:&\multicolumn{2}{l}{XBOXについて教えて}\\&S:&\multicolumn{2}{l}{Microsoftが開発した次世代家庭用ゲーム機.詳しくは以下のリンクを参照してください.}\\&&1.○&\underline{XBOX}\\&&2.○&\underline{発売予定のゲームタイトル}\\&&3.○&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&成功:知識あり\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{対話セッション評価の例(タイプD)}\label{tab:対話セッション評価の例(タイプD)}\begin{center}\footnotesize\begin{tabular}{c|llp{10cm}}\hlineD-1&U:&\multicolumn{2}{l}{あなたは誰ですか?}\\&S:&\multicolumn{2}{l}{DialogNavigatorです.}\\\cline{2-4}&\multicolumn{2}{l}{評価}&範囲外:適切\\\hlineD-2&U:&\multicolumn{2}{l}{夏休みの天気が知りたい}\\&S:&\multicolumn{2}{l}{入力された質問から,該当する情報を見つけることができませんでした.}\\\cline{2-4}&\multicolumn{2}{l}{評価}&範囲外:適切\\\hlineD-3&U:&\multicolumn{2}{l}{お名前は?}\\&S:&\multicolumn{2}{l}{以下の選択肢から選んでください.}\\&&1.&\underline{用語の説明:名前}\\&&2.&\underline{Accessのフィールド,コントロール,およびオブジェクトの名前について}\\&&3.&...\\\cline{2-4}&\multicolumn{2}{l}{評価}&範囲外:不適切\\\hline\end{tabular}\end{center}\end{table}本評価は,仮想的なテストセットによる評価とは異なり,実際にサービスを行った場面でのシステムのふるまいを正確にとらえている.しかし,不特定多数のユーザの真の意図に基づいて応答の適切さを判断することはできないという問題がある.そこで,対話セッションを以下の4つのタイプに分類し,それぞれのタイプについての評価のガイドラインを以下のように定めた上で評価を行った.評価の例を表\ref{tab:対話セッション評価の例(タイプA)}$\sim$表\ref{tab:対話セッション評価の例(タイプD)}に示す.なお,表において,``U:''はユーザの発話,``S:''はシステムの発話を示す.また,``○''は評価者が「適切なテキスト」と判断したテキストを示す.\begin{itemize}\item{\bfタイプA}:ユーザの質問が具体的で,適切なテキストの特定に必要な情報がすべて指定されている対話セッション(表\ref{tab:対話セッション評価の例(タイプA)}).この場合は,ユーザが指定した情報がすべて含まれているテキストを,適切なテキストであるとする.システムが提示した選択肢中に適切なテキストが存在する場合(A-1,A-2)は,「成功:知識あり」とする.その他の場合は,評価者がキーワード検索システム\footnote{キーワード入力に対して,マッチするすべてのテキストを表示する評価用システム.}を用いて知識ベースを網羅的に検索し,適切なテキストが見つかれば「失敗:知識あり」(A-4,A-5),見つからなければ「成功:知識なし」(A-3)または「失敗:知識なし」(A-6)とする.なお,ユーザがセッションの一部で曖昧な質問をしていても(A-2,A-4),セッション全体として必要な情報がすべて指定されているときは,このタイプとする.\item{\bfタイプB}:ユーザの質問が曖昧で,適切なテキストの特定に必要な情報が一部欠落している対話セッション(表\ref{tab:対話セッション評価の例(タイプB)}).対話カードが使用されたセッションは除く.この場合は,ユーザの状況に完全に合致するテキストはどれかを判断することはできないので,ユーザが与えた指定したすべての情報が含まれているテキストを,適切なテキストであるとみなす.ユーザの質問が1単語のみである場合(B-3,B-4)は,その単語が含まれるすべてのテキストを適切なテキストであるとみなす.\item{\bfタイプC}:対話カードが利用された対話セッション(表\ref{tab:対話セッション評価の例(タイプC)}).この場合は,対話カードの最も下の階層までユーザが選択肢を指定し,かつ適切なテキストまたは選択肢が提示された対話セッションを,「成功:知識あり」と判断する(適切なテキストの判断基準はタイプAに準ずる).対話カードの作成の際には,各々の選択肢に対応する質問文({\ttphrase})に対して適切なテキストが提示されるかどうかをチェックしているので,適切なテキストが提示されないことはほとんどなかった.\item{\bfタイプD}:ユーザの質問が想定ドメインの範囲外である対話セッション(表\ref{tab:対話セッション評価の例(タイプD)}).この場合は,対話カードを利用して応答したとき(D-1)と,テキストを検索した結果として該当する情報がないと応答したとき(D-2)は「範囲外:適切」,検索されたテキストを提示してしまったとき(D-3)は「範囲外:不適切」とした.\end{itemize}\vspace*{5mm}表\ref{tab:対話カードと対話セッションの評価}の右側(計の欄)に対話セッション評価の結果を示す.成功の割合は,「範囲外」を除いた230対話セッションのうち75\,\%であった.対話セッション内において対話カードによって応答が行われたかどうかと,対話セッションの評価の関係を表\ref{tab:対話カードと対話セッションの評価}左側に示す.現在,対話カードの枚数は216枚(深さは最大で3階層)である.評価対象の対話セッション中,対話カードが利用された割合は,「範囲外」を除いて17\,\%($=38/(38+192)$)であり,対話カードが利用されたセッションの大部分は「成功」であった.また,範囲外の質問に対しても対話カードでカバーされている範囲ではほぼ適切に対応できており,全体として対話カードという枠組みは有効に機能していると考えられる.対話セッションの失敗の最も大きな原因は,知識ベース,同義表現辞書の不足である.ユーザ質問文に対して適切なテキストが存在しない場合,A-3のように適切なテキストがないことを判断するのは難しく,A-6・B-7のように誤ることが多い.かりに,表\ref{tab:選択肢の絞り込みのパラメータ}のスコア閾値$t$を大きくすればこの失敗を減らすことはできるが,その代償として適切なテキストが存在する場合の「成功:知識あり」が減って,「失敗:知識あり」が増えてしまう.A-5・B-6のような「失敗:知識あり」を減らすには,同義表現辞書をより充実させ,適切なテキストを大きなスコアでマッチさせる必要がある.また,A-4のように,対話のコンテキストを考慮していないために失敗した対話セッションもあった.この種の失敗を減らすには,コンテキストを考慮したテキストの検索を行う必要がある.なお,同義表現辞書と,例外処理的な対話カードについては,対話データベースで顕著なものについて随時データの修正・作成を行っている.このことによって,公開当初の成功率は60\,\%程度であったが,徐々に改善され,現在では表\ref{tab:対話カードと対話セッションの評価}で示したとおり70\,\%を越える成功率となってきている.\begin{table}\caption{対話カード利用の有無と対話セッション評価}\label{tab:対話カードと対話セッションの評価}\begin{center}\small\begin{tabular}{c|c|r@{(}r@{)}|r@{(}r@{)}|r@{(}r@{/}r@{)}}\hline\multicolumn{2}{c|}{}&\multicolumn{4}{c|}{セッション内における}\\\multicolumn{2}{c|}{}&\multicolumn{4}{c|}{対話カードによる応答}\\\cline{3-6}\multicolumn{2}{c|}{評価}&\multicolumn{2}{c|}{あり}&\multicolumn{2}{c|}{なし}&\multicolumn{3}{c}{計}\\\hline\hline&知識あり&38&100\,\%&111&58\,\%&149&65\,\%&39\,\%\\成功&知識なし&0&0\,\%&25&13\,\%&25&11\,\%&7\,\%\\\cline{2-9}&計&38&100\,\%&136&71\,\%&174&76\,\%&46\,\%\\\hline&知識あり&0&0\,\%&15&8\,\%&15&7\,\%&4\,\%\\失敗&知識なし&0&0\,\%&41&21\,\%&41&18\,\%&11\,\%\\\cline{2-9}&計&0&0\,\%&56&29\,\%&56&24\,\%&15\,\%\\\hline\multicolumn{2}{c|}{小計(範囲外を除く)}&38&100\,\%&192&100\,\%&230&100\,\%&61\,\%\\\hline&適切&57&------&0&------&57&------&15\,\%\\範囲外&不適切&3&------&88&------&91&------&24\,\%\\\cline{2-9}&計&60&------&88&------&148&------&39\,\%\\\hline\multicolumn{2}{c|}{合計}&98&------&280&------&378&------&100\,\%\\\hline\multicolumn{9}{r}{(単位:対話セッション数)}\end{tabular}\end{center}\end{table}\subsection{ユーザとシステムのふるまいの分析}\begin{figure}\begin{center}\epsfile{file=fig/session_analysis.eps,scale=0.5}\caption{ユーザ行動とシステム応答の回数分布}\label{fig:ユーザ行動の分析}\end{center}\end{figure}\begin{table}\caption{ユーザ質問文の長さとシステム応答の関係}\label{tab:ユーザ質問文の長さとシステム応答の関係}\begin{center}\small\begin{tabular}{c|r@{(}r@{)}|r@{(}r@{)}|r@{(}r@{)}|r@{(}r@{)}|r@{(}r@{)}}\hline&\multicolumn{4}{c|}{対話カード応答}&\multicolumn{4}{c|}{知識ベース検索}&\multicolumn{2}{c}{}\\\cline{2-9}質問文の長さ&\multicolumn{2}{c|}{完結応答}&\multicolumn{2}{c|}{選択肢提示}&\multicolumn{2}{c|}{該当あり}&\multicolumn{2}{c|}{該当なし}&\multicolumn{2}{c}{計}\\\hline1文節&29&13\,\%&17&8\,\%&115&52\,\%&59&27\,\%&220&100\,\%\\2文節&3&2\,\%&37&28\,\%&46&35\,\%&47&35\,\%&133&100\,\%\\3文節&&&10&14\,\%&33&45\,\%&30&41\,\%&73&100\,\%\\4文節&&&2&6\,\%&22&65\,\%&10&29\,\%&34&100\,\%\\5文節以上&&&&&45&78\,\%&13&22\,\%&58&100\,\%\\\hlineすべて&32&6\,\%&66&13\,\%&261&50\,\%&159&31\,\%&518&100\,\%\\\hline\multicolumn{11}{r}{(単位:回)}\end{tabular}\end{center}\end{table}\begin{table}\caption{ユーザ質問文の長さと知識ベース検索結果の関係}\label{tab:ユーザ質問文の長さと知識ベース検索結果の関係}\begin{center}\small\begin{tabular}{c@{(}r@{)}|r|r}\hline\multicolumn{2}{c|}{質問文の長さ}&平均テキスト数&適切なテキストの割合\\\hline1文節&115回&18.2個&49\,\%\\2文節&46回&9.1個&28\,\%\\3文節&33回&16.0個&22\,\%\\4文節&22回&10.5個&10\,\%\\5文節以上&45回&10.6個&11\,\%\\\hlineすべて&261回&14.4個&35\,\%\\\hline\end{tabular}\end{center}\end{table}前節で述べた378対話セッション内において,ユーザがどのような行動をしたか,システムがそれに対してどのような応答を行ったかを調べた(図\ref{fig:ユーザ行動の分析}).ユーザの質問文の入力(518回)のうち,対話カードによって応答されたものは19\,\%($=(32+66)/518$)であった.また,質問文の長さとシステム応答の関係(表\ref{tab:ユーザ質問文の長さとシステム応答の関係})を調べたところ,対話カードは,主として短い質問文(3文節以下)に対応していることがわかった.一般的には,短い質問文ほど曖昧である.よって,図\ref{fig:ユーザのナビゲート}のユーザ質問のhierarchyにおいて,上の方の曖昧な質問文に対応するという対話カードの枠組みは,有効に機能していると考えられる.また,ユーザ質問文の長さと知識ベースの検索結果の関係(表\ref{tab:ユーザ質問文の長さと知識ベース検索結果の関係})も調べたところ,適切なテキストの割合は,質問文が長いほど少ないことがわかった.一般的には,長い質問文ほど専門的なものが多い.よって,知識ベースはそのような質問文を十分カバーしていないと考えられる.一方,ユーザ質問文の長さとテキスト数(ユーザに提示した選択肢の数)の関係については,ユーザ質問文が1文節の場合のテキスト数が特に多かった.これは,B-3の対話セッションのようにユーザが入力した1キーワードを含むテキストを多数提示してしまうことが多かったのが原因である.一方,質問文がある程度長い場合は,選択肢の絞り込みのパラメータ(表\ref{tab:選択肢の絞り込みのパラメータ})によって,ユーザへの聞き返しとして適切な数に絞り込まれている.\subsection{状況説明文抽出の評価}2002年8月1日〜31日の対話データベースから,5つ以上の選択肢が返されたユーザ質問文をランダムに100個選んだ.さらに,選択肢中で上位5個中にランキングされているサポート技術情報の状況説明文を,評価者1名が「妥当」「不十分」「冗長」の3段階で評価した.上位5個中において,タイトルが代表文として選ばれている152個のテキストは,代表文がそのまま状況説明文となるため除外した.結果として,348($=100\times5-152$)個の状況説明文が評価の対象となった.状況説明文の評価は,ユーザが選択肢を選ぶために必要十分な情報を,それぞれの選択肢が含んでいるかどうかという観点から行った.具体的には,まず質問文に対する選択肢(5個)どうしを比較し,どの情報が選択肢を選ぶ上で最も重要かを判断する(この情報を,{\bf最重要情報}とよぶ).さらに,各々の選択肢について,以下のいずれかの評価を与える.\begin{itemize}\item{\bf妥当}:最重要情報が過不足なく含まれている.\item{\bf不十分}:最重要情報が含まれていない.\item{\bf冗長}:最重要情報以外の情報が著しく多く含まれている(目安としては,最重要情報以外の情報の文字数が,最重要情報の文字数の1/2を超えるとき).\end{itemize}表\ref{tab:状況説明文抽出の評価}に状況説明文の評価結果を示す.抽出された状況説明文のうち,61\,\%は妥当なものであった.\begin{table}\caption{状況説明文抽出の評価結果}\label{tab:状況説明文抽出の評価}\begin{center}\footnotesize\begin{tabular}{c|p{5mm}@{}r@{}r@{}p{5mm}}\hline評価&\multicolumn{4}{c}{選択肢数}\\\hline妥当&&213&(61\,\%)&\\不十分&&27&(8\,\%)&\\冗長&&108&(31\,\%)&\\\hline合計&&348&(100\,\%)&\\\hline\end{tabular}\end{center}\end{table}また,状況説明文の平均文字数は68.9文字,状況説明文の抽出対象となった各テキストの代表文の平均文字数は81.6文字であった.したがって,提案手法による代表文の圧縮率$(=(1-状況説明文の平均文字数/代表文の平均文字数)\times100)$は15.6\,\%であった.\begin{table}\caption{状況説明文抽出の評価の例}\label{tab:状況説明文抽出の評価の例}\begin{center}\footnotesize\begin{tabular}{cp{5cm}|p{5cm}|c}\hline\multicolumn{2}{c}{状況説明文}&\multicolumn{1}{|c|}{元の文}&評価\\\hline\multicolumn{4}{l}{U:音が出ない}\\\multicolumn{4}{l}{S:以下の選択肢から選んでください.}\\\hline1.&[NT]CrystalAudioやSoundBlasterAWE32利用時に音が出ない&(タイトル)&\\2.&コントロールパネルの[サウンド]からCHIMESWAVファイルをテストした場合、ボリューム設定に関わらず&コントロールパネルの[サウンド]からCHIMES.WAVファイルをテストした場合、ボリューム設定に関わらず、音は出ません。&妥当\\3.&音楽の再生時にUSBスピーカーからポップ音が出る&(タイトル)&\\4.&YAMAHAYSTMS55DUSBスピーカセットのインストール後、スピーカのボリュームコントロールノブを使っても、非常に音が小さい、または、音が出ない&YAMAHAYSTMS55DUSBスピーカセットのインストール後、スピーカのボリュームコントロールノブを使っても、非常に音が小さい、または、音が出ないことがあります。&冗長\\5.&Windowsサウンド(.WAV)ファイルを再生時に&Windowsサウンド(.WAV)ファイルを再生時に、音が出ない。&妥当\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:状況説明文抽出の評価の例}に状況説明文の評価の例を示す.この例においては,評価者は,「音が出ない具体的な環境(サウンドデバイス名,アプリケーション名,ファイルの種類など)」が最重要情報であると判断した.2番,5番の選択肢は,再生するファイルの種類を過不足なく述べているため,「妥当」と判断した.一方,4番の選択肢は,サウンドデバイス名を含んでいるものの,それ以外の発生条件や,「非常に音が小さい」といった情報を余分に含んでいるため,「冗長」と判断した.提案手法による代表文の圧縮率が比較的小さかったのは,「冗長」な状況説明文が多いのが大きな要因であった.具体的には,表\ref{tab:状況説明文抽出の評価の例}の4番の選択肢のように,ユーザが選択肢を指定する上で重要な情報を含まないセグメントが,削除されずに状況説明文に含まれてしまったものが多かった.より適切な選択肢を得るためには,選択肢の代表文どうしを比較して何が最も重要な情報かを認識し,それを優先して選択肢に含める一方,それ以外の情報は除外することが必要である.また,4番の選択肢では,「非常に音が小さい」と「音が出ない」を並列節として扱うことによって,両者がともに聞き返しにとって冗長であることを認識して削除する必要がある.「不十分」と評価された状況説明文については,状況説明文抽出の対象となるテキストの代表文(\ref{subsubsec:テキストのスコアと代表文}項)がテキストの内容をよく表していないものが多かった.これは,主にユーザ質問文とテキストのマッチングに関する問題である.しかし,テキストの中には,ユーザ質問文とマッチする1文だけを抽出しても,良い代表文が得られないものもある.例えば,ユーザが遭遇する問題(「エラーが発生する」など)と,ユーザの具体的な状況(エラーメッセージなど)が,それぞれ別々の文に書かれている場合は,提案手法はうまくいかない.このような場合は,文脈解析などのより深い言語処理が必要となる. \section{おわりに} \label{sec:おわりに}本論文では,大規模テキスト知識ベースを利用する対話的質問応答システムを提案した.システムを実際に運用し,得られた対話ログに基づいてシステムの評価を行い,対話セッションの成功率76\,\%,妥当な状況説明文の割合61\,\%という結果を得た.また,曖昧な質問への聞き返しとして対話カードと状況説明文の抽出を組み合わせて用いる本システムの枠組みは,有効に機能していることを示した.今後の課題としては,対話カードの自動的な作成と,対話のコンテキストの利用があげられる.対話カードの作成は,現在はすべて人手で行っているが,曖昧な質問を十分にカバーする対話カード集合の構築にはコストがかかるので,自動的に作成する手法が必要である.また,対話のコンテキストの利用については,収集した対話ログをより詳細に分析することで,研究を進める予定である.\bibliographystyle{jnlpbbl}\bibliography{425}\begin{biography}\vspace*{5mm}\biotitle{略歴}\bioauthor{清田陽司}{1998年京都大学工学部電気工学第二学科卒業.2000年同大学院情報学研究科修士課程修了.2003年同大学院情報学研究科博士後期課程単位認定退学.同年,東京大学大学院情報理工学系研究科産学官連携研究員,現在に至る.質問応答システム,情報検索,自動要約の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.Pennsylvania大学客員研究員,京都大学工学部助手,京都大学大学院情報学研究科講師を経て,2001年東京大学大学院情報理工学系研究科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{木戸冬子}{1997年マイクロソフト株式会社入社.1998年埼玉大学大学院理工学研究科入学(在学中).UniversityProgram担当.自然言語処理技術を用いたサポートシステムの効率化を目的としたストレリチアプロジェクトのリーダーに従事.2001年科学技術振興事業団による理科教育用のデジタルコンテンツ開発にあたっては,埼玉大学,お茶の水女子大学,東京学芸大学との共同開発プロジェクトのリーダーを担当した.現在は,UniversityProgram担当として自然言語処理を中心とした大学との共同研究を担当している.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V13N01-05
\section{はじめに} \label{sec:introduction}英日機械翻訳システムなどの対訳辞書を拡張するための手段の一つとして,対訳コーパスなどから語彙知識を自動的に獲得する方法が有望である.適切な語彙知識を獲得するためには,(1)対訳コーパスにおいて英語表現と日本語表現を正しく対応付ける処理と,(2)対応付けられた{\EJP}を辞書に登録するか否かを判定する処理の二つが必要である.後者の処理が必要な理由は,対応付けられた{\EJP}には,辞書に登録することによって翻訳品質が向上することがほぼ確実なものとそうでないものがあるため,これらを選別する必要があるからである.例えば,対訳コーパスから次のような{\EJP}の対応付けが得られたとする.\begin{center}\begin{tabular}{ll}CustomsandTariffBureau&関税局\\MinshutoandNewKomeito&民主党や公明党\\MiyagiandYamagata&宮城,山形両県\\\end{tabular}\end{center}これらのうち第一の{\EJP}は辞書に登録すべきであるが,第二,第三の{\EJP}はそうではない.なぜならば,``MinshutoandNewKomeito''を我々の機械翻訳システムで処理すると「民主党,及び,公明党」という翻訳が得られるが,この翻訳と「民主党や公明党」とでは翻訳品質に大きな差はないと判断できるからである.また,第三の{\EJP}は,``Miyagi''と``Yamagata''が県名を表わしていない文脈では不適切となり,文脈依存性が高いからである.このように,翻訳品質が変化しなかったり,低下することが予想されたりする{\EJP}はふるい落とさなければならない.我々が{\EJP}の対応付けと選別を分けて考えるもう一つの理由は,前者はシステム依存性が低いのに対して,後者は依存性が高いという違いがあるからである.対応付けが正しいか否かは個々の機械翻訳システムにほとんど依存しない.このため,正しい対応付けを得るための判定基準を設定する際には特定のシステムを想定する必要がない.これに対して,対応付けられた{\EJP}(辞書登録候補)を登録するべきか否かは個々の機械翻訳システムに依存するため,選別は,特定の機械翻訳システムを想定した判定基準に基づいて行なわれなければならない.例えば,我々の機械翻訳システムには``theBankfor$ABC$''を「$ABC$銀行」のように訳す(前置詞``for''を訳出しない)規則が存在しない.このため,``theBankforInternationalSettlements''が「国際決済のための銀行」と訳されてしまう.従って,我々のシステムの場合はこの{\ENP}と「国際決済銀行」の対を辞書に登録すると判定するのが妥当である.しかし,もし前置詞``for''を訳出しないという規則を持つシステムが存在すれば,そのシステムにとっては登録する必要がないと判定するのが妥当であろう.従って,対応付けと選別とでは異なる正解判定基準を導入する必要がある.従来の研究では,異なる言語の表現同士を正しく対応付けることに焦点が当てられていることが多く\cite{Smadja96,Melamed99,Le00,Mcewan02,Tufis02,Utsuro02,Sadat03,Sato03,Yamamoto03,Ayan04,Izuha04,Sahlgren04},(正しく)対応付けられた表現対を辞書に登録するか否かを判定する処理について,選別のシステム依存性を認識した上で明確に議論した研究はほとんど見当たらない.専門用語とその対訳を獲得することを目的とした場合\cite{Dagan94,Resnik97,Tiedemann00}は,表現がある程度定式化していることが多いため,選別の必要性は低いかもしれない\footnote{(単言語の)専門用語の収集においても選別が必要であることを指摘した文献もある\cite{Sasaki05}.}.しかし,本稿では``NationalInstituteofInformationandCommunicationsTechnology''(情報通信研究機構)のような前置詞句と等位構造の両方または一方を持つ英語固有名詞句とそれに対応する日本語名詞句を対象とするが,このような英日表現対の場合には,選別処理は重要である.本稿では,対訳辞書に登録する目的で収集された英日表現対のうち,前置詞句と等位構造の両方または一方を持つ英語固有名詞句(以下では単に{\ENP}と呼ぶ)とそれに対応する日本語名詞句を辞書登録候補とし,この辞書登録候補を自動的に選別して適切な語彙知識を獲得する方法を提案する.辞書登録候補を正しく選別するという課題の解決策としては,(1)人間の辞書開発者が候補を選別する作業過程を分析し,その知見に基づいて選別規則を人手で記述する方法と,(2)機械学習手法を利用して,人間の辞書開発者が選別した事例集から選別器を自動的に作成する方法とがある.候補を登録するか否かは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,機械学習手法を利用するほうが実現が容易であると考えられる.このようなことから本稿では機械学習を利用した方法を採る.辞書登録候補は,翻訳品質の観点から,登録すれば翻訳品質が向上するものと,登録しても変化しないものと,登録によって低下するものの三種類に分けられる.このように分けた場合,翻訳品質が向上する候補は登録すべきものであり,翻訳品質に変化がない候補は登録する必要がないものであり,翻訳品質が低下する候補は登録すべきでないものであると言える.しかし,実際には,登録する必要がない場合と登録すべきでない場合はまとめて考えることができるので,行なうべき判定は登録するか否かの二値となる.この二値判定を行なうために{\SVM}を利用する. \section{着目した素性} \label{sec:feats}辞書登録候補の選別に機械学習手法を利用する場合,学習に用いる素性としてどのような情報に着目するかが重要となる.学習に用いる素性を決定するために,まず,人間の辞書開発者が候補の選別をどのように行なっているかについて考える.ある{\ENP}とそれに対応する日本語表現(以下では{\NT}と呼ぶ)から成る辞書登録候補を辞書に登録するか否かを判定する際に辞書開発者は開発に携わっているシステムの特性(辞書や規則など)を考慮に入れつつ様々な観点から検討を加え,最終的な判断を下している.そのうち最も重要な判断基準の一つは,辞書登録候補を登録した場合それに値するだけの改善が翻訳品質に見られるかどうかであろう.もし十分な品質向上が達成できると辞書開発者が考えればその辞書登録候補を登録すると判定し,そうでなければ登録しないと判定する.辞書登録候補を登録することによって達成される改善の度合いは,その辞書登録候補が登録されていない状態での辞書を用いて{\ENP}を翻訳した結果(以下では{\CT}と呼ぶ)と{\NT}を比較することによって見極めることができる.本研究では,辞書開発者のこのような作業を機械的に模倣し,{\CT}と{\NT}を比較して得られる差異に着目して辞書登録候補を選別することを試みる.具体的には,{\CT}と{\NT}で異なる部分(差分部分)と両者に共通する部分(共通部分)が辞書登録候補の選別に影響しうる要因であると考え,それらを素性とする.{\CT}と{\NT}の差分部分と共通部分を表現する手段としては,表記情報(文字,形態素),品詞情報,意味情報などが挙げられる.まず,文字による表現について述べる.例えば``SpecialCommitteeonMedicalDevices''という{\ENP}が辞書に登録されておらず,この{\ENP}の{\CT}が「医療用具上の特別委員会」であり,{\NT}が「医療用具特別部会」であるとする.このとき,「医療用具上の特別委員会」と「医療用具特別部会」の差分部分と共通部分を,文字を単位として差分検出ツールmdiff\footnote{http://www2.nict.go.jp/jt/a132/member/murata/software/mdiff/mdiff.html}によって求めて出力形式を若干変更すると,図\ref{fig:mdiff_char}\,のような結果が得られる.従って,「医療用具上の特別委員会」と「医療用具特別部会」は,図\ref{fig:mdiff_char}\,に示す五つの素性comm(医療用具),diff(上の,NIL),comm(特別),diff(委員,部),comm(会)の値を1,その他の素性の値を0とする素性ベクトルに写像される.なお,diff($A$,$B$)は$A$と$B$が差分部分であることを表わし,comm($C$)は$C$が共通部分であることを表わす.また,NILは対応する部分が存在しないことを意味する.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(医療用具)\\diff(上の,NIL)\\comm(特別)\\diff(委員,部)\\comm(会)\\\hline\end{tabular}\end{center}\caption{文字単位での差分・共通部分}\label{fig:mdiff_char}\end{figure}差分部分と共通部分を文字ではなく形態素で表現することも考えられる.例えば「医療用具上の特別委員会」と「医療用具特別部会」に対して茶筌\footnote{http://chasen.aist-nara.ac.jp/chasen/}によって形態素解析を行ない,形態素単位で差分部分と共通部分を求めると,図\ref{fig:mdiff_morph}\,のような結果が得られる.従って,「医療用具上の特別委員会」と「医療用具特別部会」は,形態素を単位とした場合,図\ref{fig:mdiff_morph}\,の四つの素性の値が1,その他の素性の値が0である素性ベクトルに写像される.なお,記号`/'は形態素の区切りを表わす.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(医療/用具)\\diff(上/の,NIL)\\comm(特別)\\diff(委員/会,部会)\\\hline\end{tabular}\end{center}\caption{形態素単位での差分・共通部分}\label{fig:mdiff_morph}\end{figure}さらには,{\CT}と{\NT}の差分部分や共通部分を表わす素性として,品詞や概念識別子などの,表記よりも抽象化された(粒度が粗い)情報を利用することも考えられる.{\CT}「医療用具上の特別委員会」と{\NT}「医療用具特別部会」に対して茶筌の品詞単位で差分部分と共通部分を求めた結果を図\ref{fig:mdiff_pos}\,に示す.図\ref{fig:mdiff_morph}\,と図\ref{fig:mdiff_pos}\,を比べると,形態素による表現では「特別」が共通部分であり「委員/会」と「部会」が差分部分であると解釈されていたのに対して,品詞による表現では「特別/委員」と「特別/部会」の品詞が共通部分であり,{\CT}の「会」の品詞に対応する品詞が{\NT}には存在しないと解釈されている.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(名詞-一般/名詞-一般)\\diff(名詞-接尾-副詞可能/助詞-連体化,NIL)\\comm(名詞-形容動詞語幹/名詞-一般)\\diff(名詞-接尾-一般,NIL)\\\hline\end{tabular}\end{center}\caption{品詞単位での差分・共通部分}\label{fig:mdiff_pos}\end{figure}概念識別子による表現では,形態素に対応する概念識別子を用いるか,またはそれらより抽象的な上位概念を表わす概念識別子を用いるかという選択肢がある.さらに,上位概念を表わす概念識別子を用いる場合,どの程度まで概念識別子の抽象度を上げるかを決める必要がある.本稿では,形態素に対応する概念識別子を用いる場合と,上位下位意味体系においてそれよりも一段上位の概念識別子(以下では上位概念識別子と呼ぶ)を用いる場合について実験を行なう.なお,いずれの場合においても概念識別子の曖昧性は考慮しない.すなわち,ある形態素に対して概念識別子が二つ以上存在する場合それらの中から無作為に概念識別子を一つ選ぶ.また,ある概念識別子に対して上位概念を表わす概念識別子が二つ以上存在する場合にもそれらの中から無作為に概念識別子を一つ選ぶ.このように曖昧性の解消を放棄せざるを得ない理由は,処理対象の表現が文脈から切り離されているため,曖昧性解消に必要な情報が十分には得られないことにある.概念識別子としてEDR日本語単語辞書\footnote{http://www2.nict.go.jp/kk/e416/EDR/J\_index.html}に記述されている識別子を用い,上位下位意味体系としてEDR概念体系辞書を利用する.EDR辞書から概念識別子が得られなかった場合は,未定義(undef)とする.なお,{\CT}や{\NT}の構成要素のうち茶筌品詞が名詞と未知語であるもののみを概念識別子への写像の対象とし,それ以外の構成要素は削除する.{\CT}「医療用具上の特別委員会」と{\NT}「医療用具特別部会」の差分部分と共通部分を,形態素に対応する概念識別子で表現した場合の素性を図\ref{fig:mdiff_sem}\,に示し,上位概念識別子で表現した場合の素性を図\ref{fig:mdiff_upsem}\,に示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(0fe1dd/3cedca)\\diff(1eb357,NIL)\\comm(2016ed)\\diff(3bcaa4/3ceda8,107777)\\\hline\end{tabular}\end{center}\caption{概念識別子単位での差分・共通部分}\label{fig:mdiff_sem}\end{figure}\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(30f84f/3cfbb9)\\diff(4447c6,NIL)\\comm(201bb4)\\diff(44484c/444549,444614)\\\hline\end{tabular}\end{center}\caption{上位概念識別子単位での差分・共通部分}\label{fig:mdiff_upsem}\end{figure}これまでに述べた差分部分と共通部分の表現では,差分部分や共通部分の出現順序が考慮されていない.そこで,差分部分や共通部分の出現順序を考慮するためにこれらの$N$グラムを考える.例えば,「医療用具上の特別委員会」と「医療用具特別部会」について文字単位で差分部分と共通部分を求める場合の二グラムを作成すると図\ref{fig:mdiff_char_bigram}\,のようになり,「医療用具上の特別委員会」と「医療用具特別部会」は,図\ref{fig:mdiff_char_bigram}\,に示す四つの素性comm(医療用具)\&diff(上の,NIL),diff(上の,NIL)\&comm(特別),comm(特別)\&diff(委員,部),diff(委員,部)\&comm(会)の値を1,その他の素性の値を0とする素性ベクトルに写像される.なお,$A\&B$は$A$と$B$がこの順に出現していることを表わす.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(医療用具)\&diff(上の,NIL)\\diff(上の,NIL)\&comm(特別)\\comm(特別)\&diff(委員,部)\\diff(委員,部)\&comm(会)\\\hline\end{tabular}\end{center}\caption{差分・共通部分の$N$グラム($N=2$)}\label{fig:mdiff_char_bigram}\end{figure}二グラムの他に三グラムも作成する.また,形態素,品詞,概念識別子,上位概念識別子による表現についても同様にそれぞれ二グラムと三グラムを作成する.差分部分と共通部分を表わす素性として,一グラムと二グラムを合成したものを用いることが考えられる.一グラムと二グラムを合成した場合,「医療用具上の特別委員会」と「医療用具特別部会」について文字単位で差分部分と共通部分を求めると,図\ref{fig:mdiff_char_bugram}\,のような素性が得られる.また,一グラムと二グラムと三グラムを合成することも考えられる.形態素,品詞,概念識別子,上位概念識別子による表現についても同様である.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(医療用具)\\diff(上の,NIL)\\comm(特別)\\diff(委員,部)\\comm(会)\\comm(医療用具)\&diff(上の,NIL)\\diff(上の,NIL)\&comm(特別)\\comm(特別)\&diff(委員,部)\\diff(委員,部)\&comm(会)\\\hline\end{tabular}\end{center}\caption{差分・共通部分の$N$グラム($N\le2$)}\label{fig:mdiff_char_bugram}\end{figure}まとめると,本稿では,文字,形態素,品詞,概念識別子,上位概念識別子という選択肢と$N$グラム($N=1$,$N=2$,$N=3$,$N\le2$,$N\le3$)の選択肢の組み合わせについて,それぞれどれくらいの精度で辞書登録候補の選別が行なえるのかを検証する. \section{訓練事例集} \label{sec:traindata}教師あり機械学習を利用する手法で良好な結果を得るためには,大規模で一貫性のある訓練事例集が必要である.本研究では,訓練事例集を作成する労力を省くために,我々が保有している既存の言語資源を利用した.\subsection{正例の作成}\label{sec:traindata:pos}我々が実験に使用している機械翻訳システムの対訳辞書に登録されている英日表現対は,当然,これまでの辞書開発過程において辞書開発者によって登録すると判定されたものである.従って,このような英日表現対における日本語表現を{\NT}とみなすことができる.また,この{\NT}に対する{\CT}は,この英日表現対をシステムの対訳辞書から削除した状態で{\ENP}を翻訳すれば得ることができる.今回の実験で利用する事例は,{\ENP}$NP$と{\CT}$CT$と{\NT}$NT$の三つ組$<NP$,$CT$,$NT>$のうち{\CT}と{\NT}の部分だけに着目して,{\CT}と{\NT}の対を取り出したものである.このため,$<$Dept.ofTransport,トランスポートの部門,運輸省$>$と$<$DepartmentofTransport,トランスポートの部門,運輸省$>$のように{\ENP}は異なるが{\CT}と{\NT}の部分は同じである三つ組から{\CT}と{\NT}の対を取り出すと,二つの事例が重複する.このような場合,重複は許さず,事例を一つだけ事例集に含めることにする.{\ENP}と{\NT}の{\EJP}をシステムの対訳辞書から削除しても{\ENP}の翻訳として{\NT}が得られることがある\footnote{このような場合,対訳辞書に登録されている{\ENP}と{\NT}の対は,翻訳品質の観点からは冗長な登録である.}.このような場合には,{\CT}と{\NT}の間に差分が全く生じない.{\CT}と{\NT}の間に差分がないような{\EJP}は翻訳品質の向上に貢献しておらず,このような対を正例とみなすのは適切ではない.このため,事例集には含めないことにする.以上の方法により10154件の正例が作成できた.正例の一部を表\ref{tab:traindata_pos}\,に示す.正例を200件無作為抽出して大まかに観察すると,前置詞が訳出されない傾向や,接続詞andが訳出されないか中黒「・」に訳される傾向が見られた.\begin{table}[htbp]\caption{正例の一部}\label{tab:traindata_pos}\begin{center}{\footnotesize\begin{tabular}{|l|l|}\hline&\multicolumn{1}{c|}{{\CT}(上段)}\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{\ENP}}&\multicolumn{1}{c|}{{\NT}(下段)}\\\hline&国際決済のための銀行\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{theBankforInternationalSettlements}}&国際決済銀行\\\hline&アメリカの音響の社会\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{AcousticalSocietyofAmerica}}&米国音響協会\\\hline&教育のための大臣\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{MinisterforEducation}}&文部大臣\\\hline&パレスチナの解放のための民主党のフロント\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{DemocraticFrontfortheLiberationofPalestine}}&パレスチナ解放民主戦線\\\hline&電離放射線ハザードの防止に関する条例\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{OrdinanceonthePreventionofIonizingRadiationHazards}}&電離放射線障害防止規則\\\hline&パワー反応、及び、核燃料開発事業団\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{PowerReactionandNuclearFuelDevelopmentCorporation}}&動力炉・核燃料開発事業団\\\hline\end{tabular}}\end{center}\end{table}\subsection{負例の作成}我々は,これまでの辞書開発過程で候補には挙がったが辞書に登録されなかった英日表現対の一覧表を保有している.このような一覧表に掲載されている日本語表現は負例における{\NT}とみなすことができる.また,この{\NT}に対する{\CT}は現状の機械翻訳システムで{\ENP}を翻訳して得られる日本語表現である.正例作成の場合と同じく,{\ENP}と{\CT}と{\NT}の三つ組としては異なるが{\CT}と{\NT}の部分は同じであるものは,一つだけを事例集に含める.正例の場合,差分が全くない{\CT}と{\NT}の対は事例集に含めないが,負例の場合には,差分がないことが辞書に登録しないことの理由であると考えられるため,事例集に含める.負例として事例集に含めようとしている{\CT}と{\NT}の対が,既に正例として存在している場合,この対は事例集に含めないことにする.これは,既に辞書に登録済みであるため,重複登録を避ける目的で登録しないと判断された可能性があるからである.以上の方法により8878件の負例が作成できた.負例の一部を表\ref{tab:traindata_neg}\,に示す.\begin{table}[htbp]\caption{負例の一部}\label{tab:traindata_neg}\begin{center}{\footnotesize\begin{tabular}{|l|l|}\hline&\multicolumn{1}{c|}{{\CT}(上段)}\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{\ENP}}&\multicolumn{1}{c|}{{\NT}(下段)}\\\hline&喜劇の王\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{TheKingofComedy}}&キングオブコメディ\\\hline&英国、及び、スカンジナビア\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{UnitedKingdomandScandinavia}}&英国スカンジナビア経済同盟\\\hline&私は、ひどくあなたを愛する\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{ILoveYouToDeath}}&殺したいほどアイラブユー\\\hline&ブレシアのアーノルド\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{ArnoldofBrescia}}&ブレシアのアルノルドゥス\\\hline&遺憾の土地\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{LandofRegrets}}&痛惜の地\\\hline&財宝のための戦い\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{BattleForTheTreasure}}&財宝のための戦い\\\hline&マーシャル諸島共和国\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{RepublicoftheMarshallIslands}}&マーシャル諸島共和国\\\hline\end{tabular}}\end{center}\end{table}\subsection{訓練事例集のシステム依存性}本研究で作成した訓練事例集は,我々の機械翻訳システムの特性(辞書や規則など)を反映したものであるため,他のシステムの対訳辞書の拡張に直接利用することは望ましくない.また,本研究で扱っている選別問題において一般的に利用可能な訓練事例集を見つけることは容易ではないであろう.しかしながら,この点は問題にならないと考える.なぜならば,我々が利用した言語資源と同様の資源は,機械翻訳システムの研究開発に携わる他の組織にも存在する可能性が高いため,その組織で開発されている機械翻訳システムの特性に合わせて訓練事例集を作成できるからである.このように,対象システムの辞書開発時の経験に基づいてそのシステムに適した訓練事例集を作成するという方針は,辞書登録候補の選別は個々のシステムに依存するものであり一般的に論じることは必ずしも適切ではないという,\ref{sec:introduction}\,節で述べた考えに基づくものである. \section{実験と考察} \label{sec:experiment}本節では,辞書登録候補の選別法の有効性を検証するために行なった実験の結果を示す.{\SVM}による機械学習にはTinySVM\footnote{http://chasen.org/~taku/software/TinySVM/}を利用した.カーネル関数は一次の多項式とした.いずれの実験でも五分割の交差検定を行なった.評価にはF値を用いた.ただし,再現率(辞書登録すべき{\EJP}のうち正しくそのように判定されたものの割合)よりも適合率(辞書登録すると判定された{\EJP}のうち実際に辞書登録すべきものの割合)を重要視することにし,次の式(\ref{eq:fvalue})において$\beta=0.5$とした.\begin{equation}\mbox{F}値=\frac{(1+\beta^2)\times適合率\times再現率}{\beta^2\times適合率+再現率}\label{eq:fvalue}\end{equation}訓練事例集に現れた素性の異なり数を表\ref{tab:num_of_feats}\,に挙げる.一グラムの列($N=1$)を見ると,表記(文字,形態素),意味情報(概念識別子,上位概念識別子),品詞の順に素性の異なり数が小さくなっており,この順に情報の粒度が粗くなっていることが確認できる.一グラムの場合よりも三グラムの場合のほうが素性の異なり数が少なくなっているが,これは差分部分や共通部分の三グラムを抽出できない事例が存在するためである.\begin{table}[htbp]\caption{訓練事例集に現れた素性の異なり数}\label{tab:num_of_feats}\begin{center}\begin{tabular}{|l|c|c|c|c|c|}\hline&$N=1$&$N=2$&$N=3$&$N\le2$&$N\le3$\\\hline文字&31316&37603&28888&68919&97807\\形態素&28058&26214&16080&54272&70352\\品詞&11379&18695&18582&30074&48656\\概念識別子&23508&22711&12417&46219&58636\\上位概念識別子&21330&22349&12559&43679&56238\\\hline\end{tabular}\end{center}\end{table}\subsection{差分・共通部分の表現方法と選別性能}\label{sec:experiment:performance_feats}{\CT}と{\NT}の間の差分部分と共通部分を文字,形態素,品詞,概念識別子,上位概念識別子と$N$グラム($N=1$,$N=2$,$N=3$,$N\le2$,$N\le3$)の各組み合わせで表現したときの適合率,再現率,F値をそれぞれ表\ref{tab:pre}\,,表\ref{tab:rec}\,,表\ref{tab:fvalue}\,に示す.数値は五分割の交差検定の平均値である.\begin{table}[htbp]\caption{各表現での適合率}\label{tab:pre}\begin{center}\begin{tabular}{|l|c|c|c|c|c|}\hline&$N=1$&$N=2$&$N=3$&$N\le2$&$N\le3$\\\hline文字&0.868&0.878&0.873&0.871&0.869\\形態素&0.857&0.890&0.538&0.864&0.864\\品詞&0.683&0.843&0.856&0.739&0.710\\概念識別子&0.815&0.858&0.540&0.835&0.837\\上位概念識別子&0.796&0.864&0.540&0.824&0.823\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{各表現での再現率}\label{tab:rec}\begin{center}\begin{tabular}{|l|c|c|c|c|c|}\hline&$N=1$&$N=2$&$N=3$&$N\le2$&$N\le3$\\\hline文字&0.733&0.350&0.123&0.700&0.692\\形態素&0.640&0.192&0.995&0.610&0.605\\品詞&0.810&0.638&0.419&0.755&0.887\\概念識別子&0.566&0.170&0.996&0.518&0.515\\上位概念識別子&0.611&0.212&0.995&0.570&0.566\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{各表現でのF値}\label{tab:fvalue}\begin{center}\begin{tabular}{|l|c|c|c|c|c|c|c|}\hline&$N=1$&$N=2$&$N=3$&$N\le2$&$N\le3$&平均&標準偏差\\\hline文字&\underline{0.837}&0.675&0.392&0.831&0.827&0.712&0.192\\形態素&0.803&0.515&0.592&0.798&0.796&0.701&0.137\\品詞&0.705&0.792&0.708&0.743&0.739&0.737&0.035\\概念識別子&0.749&0.475&0.594&0.744&0.744&0.661&0.123\\上位概念識別子&0.750&0.535&0.595&0.757&0.755&0.678&0.106\\\hline平均&0.769&0.598&0.576&0.775&0.772&\multicolumn{1}{|c}{}&\\標準偏差&0.052&0.132&0.114&0.039&0.038&\multicolumn{1}{|c}{}&\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:fvalue}\,から,全体で最も高い選別性能(F値)を示す表現方法は文字一グラムであることが分かる.機械翻訳システムの対訳辞書に登録する必要がある表現には,新しく生み出されたものも含まれるが,このような表現は茶筌の辞書やEDR辞書にも登録されていない可能性が高い.このような場合,形態素の区切りや品詞付与において誤りが生じたり,概念識別子が概念辞書に登録されていなかったりすることは避けられない.従って,もし形態素解析誤りや辞書未登録の問題に選別性能低下の一因があるとすれば,文字(一グラム)による表現は形態素解析器や概念辞書を必要としないことから,望ましい表現方法であると言える.\subsubsection{$N$グラムごとの比較}差分部分や共通部分の出現順序を考慮すると,選別性能にどのような影響が出るのかを表\ref{tab:fvalue}\,に基づいて検証する.一グラム($N=1$),二グラム($N=2$),三グラム($N=3$)を用いた場合の各平均値を比較すると,一グラムの場合(0.769)よりも,二グラムの場合(0.598),三グラムの場合(0.576)のほうが性能が大きく低下している.一グラムの場合と二グラムの場合をより詳しく比較すると,品詞による表現を除き,二グラムより一グラムのほうが性能が高い.また,一グラムの場合と三グラムの場合をより詳しく見ると,品詞による表現のときに三グラムのほうが僅かに高いだけで,それ以外の表現のときには一グラムのほうが高いことが分かる.これらのことより,$N$グラム($N=2$,$N=3$)を単独で用いることが選別性能の向上につながるとは限らないと言える.一グラムだけを用いた場合($N=1$)の平均値,一グラムと二グラムを合成した場合($N\le2$)の平均値,一グラムと二グラムと三グラムを合成した場合($N\le3$)の平均値は,それぞれ0.769,0.775,0.772であり,その差はあまり大きくない.一グラムだけを用いた場合と,一グラムと二グラムを合成した場合をより詳しく比べると,品詞による表現と上位概念識別子による表現のときには後者のほうが性能が高いが,文字,形態素,概念識別子による表現のときには前者のほうが高い.また,一グラムだけを用いた場合と,一グラムと二グラムと三グラムを合成した場合を比較しても同様である.これらのことより,$N$グラムを合成することが選別性能の大幅な向上にはつながっていないと言える.標準偏差を見ると,性能のばらつきは,二グラムの場合と三グラムの場合がそれ以外の場合よりも大きいことが分かる.\subsubsection{文字,形態素,品詞,概念識別子,上位概念識別子での比較}差分部分や共通部分を文字,形態素,品詞,概念識別子,上位概念識別子のそれぞれで表現した場合の選別性能を表\ref{tab:fvalue}\,に基づいて比較する.文字,形態素,品詞,概念識別子,上位概念識別子による表現での各平均値を比べると,品詞で表現した場合に最も高い選別性能が得られていることが分かる.品詞による表現での差分情報の粒度は,それ以外の表現での粒度よりも粗い.このため品詞による表現での選別性能が最も悪くなるだろうと当初予想していたが,平均値で比較する限りはこの予想に反する結果となった.ただし,一グラムの場合で比較すると,差分情報の粒度が細かい表現方法(文字,形態素)から粗い表現方法への順で性能が低下している.標準偏差を見ると,品詞による表現は,ばらつきが小さく,比較的安定した性能を示していることが分かる.文字,形態素,概念識別子,上位概念識別子による表現では,二グラムと三グラムで性能の大幅な低下が見られるが,品詞による表現ではそのような低下は見られない.\subsection{素性の$N$グラムと$d$次の多項式関数による素性の組み合わせとの比較}\ref{sec:experiment:performance_feats}\,節では,素性の出現順序を考慮するために素性の$N$グラムを導入したが,一グラム,二グラム,三グラムを合成しても選別性能の大幅な向上は見られなかった.ところで,{\SVM}では,カーネル関数として$d$次の多項式を用いることによって$d$個までの素性の組み合わせを考慮することができる.そこで,$N$グラムを導入する代わりにカーネル関数をそれぞれ二次の多項式,三次の多項式として学習を行なった場合の選別性能を確認するための実験を行なった.その結果を表\ref{tab:fvalue_poly23}\,に示す.\begin{table}[htbp]\caption{二次,三次多項式での選別性能(F値)}\label{tab:fvalue_poly23}\begin{center}\begin{tabular}{|l|c|c|c|c|}\hline&$d=1$&$d=1$&$d=2$&$d=3$\\&$N\le2$&$N\le3$&$N=1$&$N=1$\\\hline文字&0.831&0.827&0.831&0.819\\形態素&0.798&0.796&0.801&0.792\\品詞&0.743&0.739&0.633&0.668\\概念識別子&0.744&0.744&0.206&0.415\\上位概念識別子&0.757&0.755&0.695&0.628\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:fvalue_poly23}\,より,二次や三次の多項式を用いて学習を行なった場合($d=2,N=1$と$d=3,N=1$)でも,素性の$N$グラムを用いた場合($d=1,N\le2$と$d=1,N\le3$)の選別性能を大きく上回ることはないことが分かる.\subsection{ベースラインとの比較}提案方法では,{\CT}と{\NT}の差分部分と共通部分が辞書登録候補の選別に影響しうる要因であると考え,それらを素性として{\SVM}による機械学習を行なう.これに対して,{\CT}と{\NT}の差分部分が多いほど辞書に登録する必要性が高いとの考えによる選別をベースラインの一つと考えることができる.このベースラインでは,{\CT}と{\NT}の差分部分の多さを示す指標として差分率を用いる.差分率$DR$は,{\CT}の文字数を$X$,{\NT}の文字数を$Y$とし,さらに{\CT}と{\NT}の差分部分の文字数$U$としたとき,次の式(\ref{eq:baseline})で計算する.\begin{equation}DR=\frac{U}{X+Y}\label{eq:baseline}\end{equation}ここで,{\CT}と{\NT}の差分を文字単位で求めている理由は,\ref{sec:experiment:performance_feats}\,節の実験で{\CT}と{\NT}の差分部分と共通部分を文字一グラムで表現した場合に最も高い選別性能が得られたからである.例えば{\CT}「医療用具上の特別委員会」(11文字)と{\NT}「医療用具特別部会」(8文字)の差分部分diff(上の,NIL)とdiff(委員,部)に含まれる文字は5文字であるから,差分率は5/19となる.このような方法で全訓練事例について差分率を求め,差分率が閾値以上のものを辞書に登録するという基準によって選別を行ない,選別性能を式(\ref{eq:fvalue})によって評価する.ただし,$\beta=0.5$である.閾値を0から1まで0.1刻みで変化させ,最もF値が高くなるときの性能をベースラインの性能とする.この方針により実験を行なったところ,閾値が0.1のときに適合率0.582,再現率0.959,F値0.632が得られた.このF値と表\ref{tab:fvalue}\,に挙げた提案手法によるF値を比較すると,一グラムだけを用いた場合($N=1$),一グラムと二グラムを合成した場合($N\le2$),一グラムと二グラムと三グラムを合成した場合($N\le3$)はいずれもベースラインを上回っており,提案手法は有効であると考えられる.\subsection{素性の貢献度}各素性が事例の分類にどの程度貢献しているかについて考察する.評価事例{\bfx}を分類する{\SVM}の識別関数は,カーネル関数に一次多項式を用いた場合,次の式(\ref{eq:svm})で表わされる\cite{Tsuda03}.ただし,${\bfx}_i$は訓練事例の素性ベクトル,$y_i$は${\bfx}_i$が正例であるか負例であるかを表わすラベルである($1\lei\len$).$\alpha_i$は学習によって得られる重みであり,$b$はバイアス項と呼ばれる定数である.関数$sgn(z)$は,$z$が0以上のとき1を返し,0未満のとき-1を返す.\begin{equation}f({\bfx})=sgn(\displaystyle\sum_{i=1}^{n}\alpha_iy_i({\bfx}_i\cdot{\bfx}+1)+b)\label{eq:svm}\end{equation}素性ベクトルを${\bfx}=(x^1,x^2,\ldots,x^m)$,${\bfx}_i=(x_i^1,x_i^2,\ldots,x_i^m)$として,式(\ref{eq:svm})の内積${\bfx}_i\cdot{\bfx}$を計算すると,次の式(\ref{eq:svm2})が得られる.\begin{equation}f({\bfx})=sgn(\displaystyle\sum_{j=1}^{m}\sum_{i=1}^{n}\alpha_iy_ix_i^jx^j+\displaystyle\sum_{i=1}^{n}\alpha_iy_i+b)\label{eq:svm2}\end{equation}式(\ref{eq:svm2})において$\displaystyle\sum_{i=1}^{n}\alpha_iy_ix_i^j$は素性$x^j$の重みである.素性$x^j$は,この重みの値が正ならば正例を選別することに貢献しており,負ならば負例を選別することに貢献している.また,重みの絶対値が大きいほど選別への貢献度が高い.\ref{sec:experiment:performance_feats}\,節の実験では,{\CT}と{\NT}の差分部分と共通部分を文字一グラムで表現した場合に最も高い選別性能が得られた.そこで,文字一グラムによる表現で選別を行なう場合について各素性の重みを求めた.正例の選別への貢献度が高い素性の上位20個を表\ref{tab:effective_feats_pos}\,に示し,負例の選別への貢献度が高い素性の上位20個を表\ref{tab:effective_feats_neg}\,に示す.なお,表\ref{tab:effective_feats_pos}\,と表\ref{tab:effective_feats_neg}\,に示した素性は,五分割の交差検定に用いた5種類の訓練事例集のうち最も高い性能が得られた訓練事例集に現われた素性である.\begin{table}[htbp]\caption{正例への貢献度が高い素性}\label{tab:effective_feats_pos}\begin{center}\begin{tabular}{|r|l|c|}\hline\multicolumn{1}{|c}{順位}&\multicolumn{1}{|c|}{素性}&重み\\\hline1&diff(の下院議員,共和国)&1.8627\\2&comm(銀行)&1.5026\\3&comm(カリフォルニア大学)&1.4865\\4&diff(アカデミー,学会)&1.4605\\5&diff(の下院,家)&1.4341\\6&comm(共産党)&1.4250\\7&diff(のための協会,研究所)&1.4150\\8&diff(のオフィス,局)&1.3844\\9&comm(博士)&1.3727\\10&diff(社,NIL)&1.3701\\11&comm(局)&1.3692\\12&comm(王国)&1.3687\\13&diff(の協会,研究所)&1.3572\\14&comm(政務次官)&1.3554\\15&diff(技術研究所,工業大学)&1.3548\\16&diff(のオフィス,事務所)&1.3353\\17&comm(湾)&1.3275\\18&comm(博物館)&1.3152\\19&diff(技術研究所,工科大学)&1.3140\\20&comm(大統領)&1.3072\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{負例への貢献度が高い素性}\label{tab:effective_feats_neg}\begin{center}\begin{tabular}{|r|l|c|}\hline\multicolumn{1}{|c}{順位}&\multicolumn{1}{|c|}{素性}&重み\\\hline1&diff(NIL,、)&-3.1121\\2&diff(NIL,の日本の社)&-2.0652\\3&diff(国家の貿易,全米統一通商)&-1.9463\\4&diff(NIL,;(社))&-1.9144\\5&diff(に関する米国の会,健康協)&-1.5846\\6&diff(NIL,、財団法人)&-1.5709\\7&diff(NIL,;《米》)&-1.5170\\8&diff(の煙草,たばこ)&-1.5121\\9&diff(NIL,の)&-1.5121\\10&diff(のための世界首脳会議,サミット)&-1.4938\\11&comm(、)&-1.4728\\12&diff(全,NIL)&-1.4262\\13&diff(NIL,、日本)&-1.4186\\14&diff(旅行薬の,、)&-1.3245\\15&diff(産業,NIL)&-1.3215\\16&diff(NIL,の日本社)&-1.3003\\17&diff(ヨーロッパの,、欧州)&-1.2814\\18&diff(インターナショナル,、国際)&-1.2646\\19&diff(NIL,、及び、)&-1.2488\\20&diff(NIL,、全米)&-1.2321\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:effective_feats_pos}\,を見ると,正例の選別への貢献度が高い素性には,差分部分を表わす素性diff($A$,$B$)だけでなく,共通部分を表わす素性comm($C$)も含まれていることが分かる.表\ref{tab:effective_feats_pos}\,に挙げた,差分部分を表わす素性を含む事例を調査したところ,これらの素性は,{\ENP}を構成する名詞の訳語の改善に関連するものであった.差分部分を表わす素性を含む事例には,$<$Rep.ofAfghanistan,アフガニスタンの下院議員,アフガニスタン共和国$>$や$<$InstituteforAdvancedTechnology,先進技術のための協会,先進技術研究所$>$などがある.貢献度第一位の素性diff(の下院議員,共和国)は,``Rep.of$ABC$''という{\ENP}において``$ABC$''が国名(の一部)である場合に,``Rep.''を``Representative''(下院議員)ではなく``Republic''(共和国)と解釈することによって翻訳品質が向上すると辞書開発者が判断した事例に多く現われていた.また,貢献度第七位の素性diff(のための協会,研究所)も,同じように,``Institutefor$ABC$''という{\ENP}の訳語を「$ABC$のための協会」ではなく「$ABC$研究所」とすることで翻訳品質が向上する事例に多く含まれていた.diff(の下院議員,共和国)やdiff(のための協会,研究所)などは,{\ENP}を構成する名詞の訳語の改善だけでなく,前置詞の訳語の改善にも貢献している.すなわち,{\CT}では,前置詞``of''や``for''は,それぞれ助詞「の」や「のために」と訳されているが,{\NT}では訳出されていない.\ref{sec:traindata:pos}\,節で,正例を概観すると前置詞が訳出されない傾向が見られたと述べたが,表\ref{tab:effective_feats_pos}\,に挙げた素性はこの観察に沿うものにもなっている.表\ref{tab:effective_feats_pos}\,に挙げた,共通部分を表わす素性を含む事例には$<$IndustrialDevelopmentBankofIndia,インドの産業の開発銀行,インド産業開発銀行$>$や$<$GulfofMexico,メキシコの湾,メキシコ湾$>$などがある.これらの例から分かるように,共通部分を表わす素性は,主に,前置詞の訳語の改善に関連しているものであった.表\ref{tab:effective_feats_neg}\,を見ると,負例の場合は正例の場合と異なり,選別への貢献度が高い素性は差分部分を表わす素性がほとんどであることが分かる.負例の選別への貢献度が高い素性を含む事例を調査した結果,これらの事例は大きく二種類に分類できた.一つは,{\NT}よりも{\CT}のほうが適切な翻訳であるとみなせるものである.例えば,貢献度第二位の素性diff(NIL,の日本の社)を含む事例$<$TheJapaneseSocietyofInsuranceScience,日本保険学会,保険科学の日本の社会$>$では明らかに{\CT}のほうが{\NT}よりも適切である.また,貢献度第三位の素性diff(国家の貿易,全米統一通商)を含む事例$<$CommitteeforaNationalTradePolicy,国家の貿易政策のための委員会,全米統一通商政策委員会$>$における{\NT}は文脈依存性が高く,{\ENP}が米国以外の委員会を意味しているときには不適切である.もう一種類は,{\NT}に不要な語句が含まれているものである.例えば,貢献度第一位の素性diff(NIL,、)を含む事例$<$CommitteetoProtectJournalists,ジャーナリストを保護するための委員会,、ジャーナリスト保護委員会$>$において{\NT}の先頭に読点が付いているために,この{\NT}をそのまま辞書に登録することは不適切であると判断されたものと考えられる\footnote{負例の中には,このような不要語句を取り除けば,正例となりうるものも比較的多く存在するが,これまでの辞書開発過程では,そのような修正を行なわないという方針で選別が行なわれた.}.また,第四位の素性diff(NIL,;(社))を含む事例$<$JapanSocietyofCorrosionEngineering,日本腐食防食協会,腐食防食協会;(社)$>$においては{\NT}に「;(社)」という注釈が付いているために,不適切であると判断されたものと考えられる. \section{おわりに} 機械翻訳システムなどで必要とされる語彙知識を獲得するためには,対訳コーパスにおいて二言語の表現を正しく対応付ける処理と,対応付けられた表現対を辞書に登録するか否かを判定する選別処理の二つが必要であるが,対応付けと選別は特定のシステムへの依存性に関して性質の異なる問題である.本稿では,このような点を指摘し,従来あまり扱われてこなかった辞書登録候補の選別問題を採り上げ,この問題を機械学習によって解く方法を示した.学習に用いる素性として,{\CT}と{\NT}で異なる部分と両者に共通する部分に着目し,差分部分や共通部分を表現する手段として,表記(文字,形態素),品詞,概念識別子を用いた.さらに,差分部分や共通部分の出現順序を考慮するためにこれらの$N$グラムを導入した.評価実験の結果,最も高い選別性能を示す表現方法は文字一グラムであることが明らかになった.文字による表現方法は,形態素解析器や概念識別子辞書を必要としないためこれらに起因する誤りの影響を受けないという点で望ましいと言える.今回の実験では,選別処理の評価に焦点を絞りたいため,英日表現対の対応付け性能は100\%であると仮定した.今後,対応付けと選別の両処理を含む全体システムを構築し,評価を行なっていく必要がある.\acknowledgment本稿の改善に有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ayan,Dorr,\BBA\Habash}{Ayanet~al.}{2004}]{Ayan04}Ayan,N.,Dorr,B.,\BBA\Habash,N.\BBOP2004\BBCP.\newblock\BBOQ{Multi-Align:CombiningLinguisticandStatisticalTechniquestoImproveAlignmentsforAdaptableMT}\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceoftheAssociationforMachineTranslationintheAmericas},\BPGS\17--26.\bibitem[\protect\BCAY{Dagan\BBA\Church}{Dagan\BBA\Church}{1994}]{Dagan94}Dagan,I.\BBACOMMA\\BBA\Church,K.\BBOP1994\BBCP.\newblock\BBOQ{Termight:IdentifyingandTranslatingTechnicalTerminology}\BBCQ\\newblockIn{\BemProceedingsofthe4thConferenceonAppliedNaturalLanguageProcessing},\BPGS\34--40.\bibitem[\protect\BCAY{出羽達也}{出羽達也}{2004}]{Izuha04}出羽達也\BBOP2004\BBCP.\newblock\JBOQ対訳文書から自動抽出した用語対訳による機械翻訳の訳語精度向上\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ87-D-II}(6),1244--1251.\bibitem[\protect\BCAY{Le,Youbing,\BBA\Yufang}{Leet~al.}{2000}]{Le00}Le,S.,Youbing,J.,\BBA\Yufang,S.\BBOP2000\BBCP.\newblock\BBOQ{WordAlignmentofEnglish-ChineseBilingualCorpusbasedonChunks}\BBCQ\\newblockIn{\BemProccedingsoftheJointSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora},\BPGS\110--116.\bibitem[\protect\BCAY{McEwan,Ounis,\BBA\Ruthven}{McEwanet~al.}{2002}]{Mcewan02}McEwan,C.,Ounis,I.,\BBA\Ruthven,I.\BBOP2002\BBCP.\newblock\BBOQ{BuildingBilingualDictionariesfromParallelWebDocuments}\BBCQ\\newblockIn{\BemProceedingsofthe24thEuropeanColloquiumonInformationRetrievalResearch},\BPGS\303--323.\bibitem[\protect\BCAY{Melamed}{Melamed}{1999}]{Melamed99}Melamed,I.\BBOP1999\BBCP.\newblock\BBOQ{BitextMapsandAlignmentviaPatternRecognition}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf25}(1),107--130.\bibitem[\protect\BCAY{Resnik\BBA\Melamed}{Resnik\BBA\Melamed}{1997}]{Resnik97}Resnik,P.\BBACOMMA\\BBA\Melamed,I.\BBOP1997\BBCP.\newblock\BBOQ{Semi-AutomaticAcquisitionofDomain-SpecificTranslationLexicons}\BBCQ\\newblockIn{\BemProceedingsofthe5thConferenceonAppliedNaturalLanguageProcessing},\BPGS\340--347.\bibitem[\protect\BCAY{Sadat,Yoshikawa,\BBA\Uemura}{Sadatet~al.}{2003}]{Sadat03}Sadat,F.,Yoshikawa,M.,\BBA\Uemura,S.\BBOP2003\BBCP.\newblock\BBOQ{BilingualTerminologyAcquisitionfromComparableCorporaandPhrasalTranslationtoCross-LanguageInformationRetrieval}\BBCQ\\newblockIn{\BemProceedingsoftheCompanionVolumetotheProceedingsof41stAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\141--144.\bibitem[\protect\BCAY{Sahlgren}{Sahlgren}{2004}]{Sahlgren04}Sahlgren,M.\BBOP2004\BBCP.\newblock\BBOQ{AutomaticBilingualLexiconAcquisitionUsingRandomIndexingofAlignedBilingualData}\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation},\BPGS\1289--1292.\bibitem[\protect\BCAY{佐々木靖弘,佐藤理史,宇津呂武仁}{佐々木靖弘\Jetal}{2005}]{Sasaki05}佐々木靖弘,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQウェブを利用した専門用語集の自動編集\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集}.\newblockB4-7.\bibitem[\protect\BCAY{佐藤健吾斎藤博昭}{佐藤健吾\JBA斎藤博昭}{2003}]{Sato03}佐藤健吾\BBACOMMA\斎藤博昭\BBOP2003\BBCP.\newblock\JBOQサポートベクタマシンを用いた対訳表現の抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),109--124.\bibitem[\protect\BCAY{Smadja,Hatzivassiloglou,\BBA\McKeown}{Smadjaet~al.}{1996}]{Smadja96}Smadja,F.,Hatzivassiloglou,V.,\BBA\McKeown,K.\BBOP1996\BBCP.\newblock\BBOQ{TranslatingCollocationsforBilingualLexicons:AStatisticalApproach}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(1),1--38.\bibitem[\protect\BCAY{Tiedemann}{Tiedemann}{2000}]{Tiedemann00}Tiedemann,J.\BBOP2000\BBCP.\newblock\BBOQ{ExtractingPhrasalTermsusingBitext}\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponTerminologyResourcesandComputation,heldinconjunctionwithLREC}.\bibitem[\protect\BCAY{津田宏治}{津田宏治}{2003}]{Tsuda03}津田宏治\BBOP2003\BBCP.\newblock\JBOQカーネル法の理論と実際\JBCQ\\newblock甘利俊一\JED,\Jem{パターン認識と学習の統計学},\BPGS\97--138.岩波書店.\bibitem[\protect\BCAY{Tufis}{Tufis}{2002}]{Tufis02}Tufis,D.\BBOP2002\BBCP.\newblock\BBOQ{ACheapandFastWaytoBuildUsefulTranslationLexicons}\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics},\BPGS\1030--1036.\bibitem[\protect\BCAY{Utsuro,Horiuchi,\BBA\Chiba}{Utsuroet~al.}{2002}]{Utsuro02}Utsuro,T.,Horiuchi,T.,\BBA\Chiba,Y.and~Hamamoto,T.\BBOP2002\BBCP.\newblock\BBOQ{Semi-automaticCompilationofBilingualLexiconEntriesfromCross-LinguallyRelevantNewsArticlesonWWWNewsSites}\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceoftheAssociationforMachineTranslationintheAmericas},\BPGS\165--176.Springer-Verlag.\bibitem[\protect\BCAY{Yamamoto,Kudo,Tsuboi,\BBA\Matsumoto}{Yamamotoet~al.}{2003}]{Yamamoto03}Yamamoto,K.,Kudo,T.,Tsuboi,Y.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQ{LearningSequence-to-SequenceCorrespondencesfromParallelCorporaviaSequentialPatternMining}\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACLWorkshop:BuildingandUsingParallelTextsDataDrivenMachineTranslationandBeyond},\BPGS\73--80.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.2004年より情報通信研究機構専攻研究員を兼任.}\bioauthor{九津見毅}{1965年生まれ.1990年,大阪大学大学院工学研究科修士課程修了(精密工学—計算機制御).同年,シャープ株式会社に入社.以来,英日機械翻訳システムの翻訳エンジンプログラムの開発に従事.言語処理学会会員.}\bioauthor{小谷克則}{1974年生まれ.2002年より情報通信研究機構特別研究員.2004年,関西外国語大学より英語学博士取得.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報通信事業本部情報商品開発センター技術企画室副参事.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.2001年情報通信研究機構(旧:通信総合研究所)けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V25N01-04
\section{はじめに} \label{Hajimeni}法務省の統計によれば日本の在留外国人数は第2次世界大戦以後,基本的に増加傾向にあり2016年12月には238万人,総人口の約1.9\%を占めるに至っている.外国人の比率は欧米諸国と比較して必ずしも高いとは言えないが,東京都新宿区では外国人の比率が10\%を超えるなど,日本でも大都市部などで欧米諸国並みの集中が発生している.日本人\footnote{本稿では便宜的に日本語母語話者を日本人と呼ぶ.また日本に一定期間以上居住する日本語非母語話者を外国人と呼ぶ.}と同等に日本語が使える国内在住の外国人は少数であり,彼らへの適切な情報提供は大きな課題となっている.外国人へはそれぞれの母語で情報を提供するのが理想である.実際,母語を使ったサービスはすでに多言語サービスの中で一部実現されており,例えばNHKは現在国内向けに5言語でニュースを放送している\footnote{英語,中国語,韓国語,スペイン語,ポルトガル語}.しかし母語での情報提供は10言語程度にとどまることが多く,国内の外国人の出身国数が190に達する状況に対応するには十分とは言えない.とはいえ外国人の全員をカバーするには膨大な数の翻訳が必要となり,コストや労力の大きさから実現は難しい\cite{kawahara:book:2007}.そこで母語ではなく,外国人に分かりやすい「やさしい日本語」で情報を伝えようという考え方が提唱されている\cite{SatoK:NihongoGaku:2004,IoriEtAL:kyouikuGakkai:2009}.その背景には,やさしい日本語を理解できる外国人が多いこと\cite{iwata:ShakaiGengo:2010},外国人の中からも母語の他にやさしい日本語による情報提供を望む声が上がっていることなどがある\cite{yonekura:housouKenkyuu:2012}.以上の背景の中,NHKは一般のニュースをやさしい日本語で提供できれば,外国人への有用な情報提供になると考えて研究を進め,2012年4月からWebでのサービス「NEWSWEBEASY」\footnote{\label{footnote:NWE}http://www3.nhk.or.jp/news/easy/index.html}を開始した.外国人に日本語でニュースを提供しようとするNEWSWEBEASYと同様のサービスは当時例がなく,著者らはまずやさしい日本語の作り方の原則を決め,Webで提供する内容を決めた.また書き換え作業にはやさしい日本語とニュース編集の知識が必要なことから日本語教師と記者の共同で進めることにした.方針の決定と並行して,日々の作業を円滑に進めるための支援システムを開発することにしたが,先行事例が乏しく明確にその仕様を決めることはできなかった.そこでプロトタイピングの手法\cite{SoftEng:book:2005}を採用し,とりあえず有効と思われる機能をできるだけ早く実装し,作業者の要望に応じて改善を加えることにした.以上の過程で作成したのが,日本語教師と記者の共同のニュースの書き換えを支援する「書き換えエディタ」と,ふりがな,辞書情報などを付与するための「読解補助情報エディタ」である.本稿では2つのエディタを総称してやさしい日本語のニュースの「制作支援システム」と呼ぶ.NHKでは制作支援システムのプロトタイプを2012年4月からの1年の公開実験期間中に利用し,不具合の修正,改良を加えた.そして書き換え作業が安定し,改修すべき項目が明らかになった2013年9月に本運用システムの開発を始め,2014年6月に新システムに移行した.このとき読解補助情報エディタに自動学習機能を加えたことにより,\ref{sec:systemMatome}節で詳述するように,制作支援システム全体は日々のやさしい日本語のニュースの制作の中で自然と利便性が増すようになった.やさしい日本語を使った情報提供は急速な広がりを見せている\footnote{\label{footnote:hirosaki}弘前大学の2015年4月の調査によると47都道府県すべてでやさしい日本語が活用されている.\\http://human.cc.hirosaki-u.ac.jp/kokugo/EJ1a.htm}.ほとんどの事例は佐藤らが公表している書き換え案文\footnote{脚注\ref{footnote:hirosaki}参照.}や庵らの文法\cite{iori:Book:2010,iori:Book:2011}など,いわゆる書物の知見を使ってほぼ人手で行われている.しかし今後やさしい日本語での情報提供を多様な人で効率的に進めるには,技術的な支援が必須になっていくと考えられる.実際,NEWSWEBEASYの制作フローを参考にしたやさしい日本語による自治体の情報提供のためのシステム開発が始まっている\cite{iori:book:2016}.本稿は類似した開発の参考になると考えている.以下,\ref{sec:kanren}章ではやさしい日本語の書き換えの関連研究を概観し,本研究の位置付けを示す.\ref{sec:service}章ではNEWSWEBEASYのサービス画面には,やさしい日本語のニュースのテキストとふりがななどの読解補助情報の2つの構成要素があることを述べる.\ref{NihongoGaiyou}章ではやさしい日本語の書き換え原則を概説し,当初の原則には網羅性の低さの問題があったことを指摘する.続く\ref{sec:taiseiToProcess}章では制作の体制およびプロセスを報告し,特に,やさしい日本語の書き換え原則の網羅性の低さをカバーするため,NEWSWEBEASYの制作を記者と日本語教師の共同作業で実施する体制を採ったことを述べる.さらに\ref{sec:systems}章では開発した「書き換えエディタ」と「読解補助情報エディタ」を説明する.書き換えエディタは,記者と日本語教師の共同作業特有の問題,書き換え原則の不十分さに対処していることを述べる.また読解補助情報エディタは,ふりがななどの読解補助情報を自動で推定し,これを修正した結果を自動学習する機能を持つことを説明する.続く\ref{sec:performance}章では,制作に関わる記者および日本語教師全員に対して実施したアンケートと書き換えエディタのログの分析を通じて2つのエディタの効果を示す. \section{関連研究} \label{sec:kanren}やさしい日本語での情報提供にはさまざまなプロセスが必要だが,本章ではその中心となるやさしい日本語への書き換えの関連研究,特に最も関連が深い文書の平易化(textsimplification)の研究を概観する.文書の平易化とは与えられた文書の基本的な意味は変えずに,文法的,語彙的な複雑さを減らす操作であり\cite{siddharthan:2003:phd}これまで英語を主な対象としてさまざまな研究が展開されている\cite{shardlow:2014:IJACSA,siddharthan:2014}.平易化の目的は大きく2つに分類できる.1つは自然言語処理システムの前処理に平易化を入れることで全体の性能を向上させる研究である.平易化はさまざまな処理に応用されており,構文解析\cite{jonnalagadda-EtAl:2009:NAACLHLT09-Short,chandrasekar-EtAl:1996:Coling96-Short},関係抽出\cite{miwa-EtAl:2010:PAPERS2},意味役割付与\cite{vickrey-koller:2008:ACLMain}などの例を挙げることができる.他の1つは言語の理解力が十分でない人の情報アクセシビリティの改善を目的とした研究である.失語症の人(英語)\cite{John-Carroll:1999:EACL},読み書き能力が不十分な人(ブラジルポルトガル語)\cite{watanabe-EtAl:2009:ACMSIGDOC},知的障害のある人(スペイン語)\cite{Bott-Stefan:2012:ICCHP},非母語話者(英語)\cite{siddharthan:2002:LEC}などを対象とした研究が行われている.平易化の手段に目を向けてみると,研究の初期は使える言語資源や技術が限られていたことから,経験則に基づいたルールで文書を変換する手法が主流であったが\cite{chandrasekar-EtAl:1996:Coling96-Short,John-Carroll:1999:EACL,siddharthan:2002:LEC},近年SimpleEnglishWikipediaに代表されるやさしい言語で書かれた大きな言語資源が使えるようになってきたこと,単言語パラレルコーパスのアラインメント技術が進んできたこと\cite{Barzilay-Elhadad:2003:EMNLP,nelken-shieber:2006:EACL}から,パラレルコーパスからデータ主導で自動書き換えシステムを構築する研究が進展している.例えば,\citeA{coster-kauchak:2011:ACL-HLT2011}は\WikipediaとSimpleEnglishWikipedia\を使ったパラレルコーパスを作成し,統計翻訳ツールキット,Mosesを使った統計的平易化システムを作成している.次に,本稿と同じく日本語能力が十分でない人の情報アクセシビリティの改善を目的とした平易化の研究に目を転ずると\footnote{特定の人を対象としない「言い換え(パラフレーズ)」分野にも関連研究が多数あるが,紙幅の関係で割愛する.},ろう者を対象とした語彙・構文書き換えシステム\cite{inui-kentaro:2003:PARAPHEASE2003},子供や日本語学習者への利用を目指した語彙変換システム\cite{kajiwara-yamamoto:JPSJ:2015}などがある.また英語ほどではないが,近年パラレルコーパスが利用可能となったことから統計機械翻訳技術を使ったやさしい日本語自動変換システムも報告されている\cite{matsuda:2010:nihongoKyouiku,goto-tanaka-kumano:2015:MTSummit,kumano-tanaka:2016:ANLP}.以上で概観してきた研究は文書を自動的に平易化しようとするものであるが,人手による平易化作業を支援する研究もある.平易化の支援にも,自動平易化と同様に機械翻訳などの自然言語処理の前処理による性能向上\cite{mitamuraAndNyberg:NLPRS:2001}と人の情報アクセシビリティの改善を目的とした研究がある.以下では著者らと同じアクセシビリティの改善を目的としたシステムを概観したい.これまで提案されているシステムは2つの基本機能を持つ.\begin{enumerate}\item文書中の難しい部分を指摘する機能\label{item:difficult}\itemその書き換え候補を提示する機能\label{item:propose}\end{enumerate}例えば\citeA{itoEtAl:denki:2008}は外国人のためのやさしい日本語文書の作成支援を目的とした書き換え支援システムを提案している.同システムには入力された文書中の難しい語を指摘し,代わりに使える語を提案する機能が実装されている.難しい語は形態素解析システムに事前に登録された難しい語彙を使って指摘し,やさしい語は,別途収集したやさしい語彙と難しい語の類似度を使って提示する.さらに長文,および使うべきでない文法的表現を指摘する機能を持っている.ボーイング社は,航空機の整備マニュアル用のSimplifiedEnglishの基準に従った文書作成を支援する語彙と文法のチェッカーを開発している\cite{hoardEtAl:book:1992}.SimplifiedEnglishの読者には英語非母語話者が想定されている.また,語彙には強い制限があり,同じ概念に属する使える語と使えない語が辞書にまとめられている.チェッカーは辞書を使って,難しい語を指摘して代替候補を提示する.以上,自動平易化,平易化支援についての研究を外観してきたが,ここで本稿の特徴をまとめたい.まず,本稿はNEWSWEBEASYというやさしい日本語のサービスを実現するためのより具体的,包括的な報告となっている点に特徴がある.実際本稿では,技術的な内容に先立ち,NEWSWEBEASYのためのやさしい日本語の特徴,Webで提供する全情報,および,NEWSWEBEASYの制作のために採用した体制と制作プロセスを説明し,制作支援システム構築の課題を明らかにする.そして,課題を反映して開発した「書き換えエディタ」および「読解補助情報エディタ」を報告する.一方,上記一連の関連研究は,自動平易化,あるいは平易化支援に関する個別の技術報告となっている.本稿のように具体的なサービスに関わった日本語の平易化の支援技術の報告は著者らの知る限り初めてである.次に本稿の2つのエディタのうち書き換えエディタに着目する.書き換えエディタは平易化作業の支援という点で\citeA{itoEtAl:denki:2008},\citeA{hoardEtAl:book:1992}と目的が同一であり,かつ前述の基本機能(\ref{item:difficult})および(\ref{item:propose})に基づく点が共通している.しかし以下の3点に違いがある.1点目は書き換えエディタの難しい語を指摘する機能に学習機能が備わっている点である.難しい語の指摘には語の難易度を使っており,難易度推定機能で語の難易度を自動認定する.難易度推定機能には学習機能があり,推定誤りを日々修正することで性能が自然に向上するようになっている\footnote{正確には\ref{sec:systemMatome}節で述べるように,読解補助情報エディタの学習機能を利用しており,修正も読解補助情報エディタで実施する.学習結果は書き換えエディタに自動的に反映される.}.2点目は書き換え候補を直接提示しない代わりに,用例検索機能を持っている点である.すなわち書き換え候補は作業者が自動蓄積された書き換え元の記事とやさしい日本語の書き換えの用例を検索して自ら見い出すようになっている.用例検索を利用したのは著者らのやさしい日本語の書き換え原則が当初不十分で,ニュースの難しい表現とやさしい代替表現を事前に準備できなかったために採用した措置であるが,あらかじめ候補を用意する手法に比べると,運用により自然に用例の蓄積が進み,さまざまな表現が検索可能になる特徴がある.3点目は複数作業者の書き換えを支援する共同作業支援システムになっている点である.ニュースの書き換えにはニュース原稿の編集の知識,および外国人の日本語能力の知識が必須なため,書き換え作業を日本語教師と,経験豊かな記者が共同で担当するようにした.そして2名の作業を支援するため,書き換えエディタは複数作業者の共同作業ができるようにした.さらに日本語教師と記者の専門性が異なる点に配慮して,共同作業が円滑に行える仕組みを提供した.なお上述の3点の特徴はNEWSWEBEASYの固有の状況を反映させたために生じている点を指摘しておく.詳細は次章以降に譲るが,固有の状況とは,当初の著者らの書き換え原則は先行事例に比べて不十分であったこと,不十分さを補うため複数の専門家が共同作業する必要があったこと,網羅的な書き換え原則をあらかじめ用意することができず専門家が書き換えを通じて発展させていく方針を採用したことである.本稿の書き換えエディタは,先行研究が準拠する上述の2つの基本機能にNEWSWEBEASYの固有の状況を満足するため,学習,類似用例検索,複数人での書き換え機能を組み合わせて統合したものと見ることができる. \section{NEWSWEBEASYの概要} \label{sec:service}本稿の制作支援システムで最終的に作成するNEWSWEBEASYのスクリーンショットを図\ref{fig:easyScreen}に示す\footnote{脚注\ref{footnote:NWE}のURL参照.}.NEWSWEBEASYは,NHKの通常のニュースページであるNEWSWEBに掲載されたニュースをやさしい日本語に書き換えて作成する.画面の下部には情報の中心であるやさしい日本語に書き換えたニュースが掲載されている.やさしい日本語のニュースは次章で述べる書き換え原則に沿って作成するが,やさしく書き換えられず難しい表現が残ることがある.そこで難しい表現に対してはWebの機能を利用して読解を補助する情報を提供している.NEWSWEBEASYをWebで提供しているのは読解補助情報を提供しやすいという利点があるためであり\cite{tanaka-mino:2010:NL},具体的には以下を提供している.\begin{figure}[t]\begin{center}\includegraphics{25-1ia4f1.eps}\end{center}\caption{NEWSWEBEASYの画面}\label{fig:easyScreen}\end{figure}\begin{itemize}\itemふりがな\\漢字を読むことは外国人にとって特に難しい.そこで,すべての漢字にはふりがなを付けている.\item辞書\\すべての語をやさしくできるとは限らないため,難しい語に辞書の説明を表示するようにした.原則として2級以上の難しい語にカーソルを合わせると小学生用の辞書\cite{sanseidou:jisho:2011}の説明が現れる.\item語の色分け\\ニュースには地名,人名,組織名などの固有名詞が頻繁に現れる.固有名詞は辞書にほとんど収録されておらず,数が多いので説明を付ける労力は大きい.そこで,固有名詞をあらかじめ決めた色,地名を紫,人名をピンク,組織名を空色で表示し,意味が具体的に分からなくても,色によって地名,人名,組織名の判別ができるようにした.\end{itemize}以上の読解補助情報に加えて,下記の追加情報も提供している.\begin{itemize}\item合成音声\\読むのが苦手でも聞くのは得意な外国人のため,合成音声による原稿読み上げ機能を付加している.\item元のニュースへのリンク\\やさしい日本語のニュースには,元のニュースへのリンクを付与しており,リンクを通じてやさしい日本語を読解補助として,元のニュースを読むことが可能である.また,やさしい日本語で削除された情報を元ニュースで確認することも可能である.\end{itemize}著者らの目的は以上で説明したNEWSWEBEASYの画面の制作であり,実施には,やさしい日本語への書き換え原則,書き換え作業の体制とプロセス,制作作業の支援の3項目の検討が必要となった.以下,3項目の内容を報告する. \section{ニュースのためのやさしい日本語} \label{NihongoGaiyou}本章ではNEWSWEBEASYで利用しているニュースの書き換え原則の概要を説明する.どのような言語にも汎用的な制限言語は存在しないと言われているように\cite{mitamuraAndNyberg:NLPRS:2001},すべての分野に共通するやさしい日本語の書き換え原則というのは存在しない.ニュースのための書き換え原則は自ら作成する必要があった.しかし書き換え原則をゼロから作るのは膨大な作業となるため,先行研究である「減災のためのやさしい日本語」\cite{SatoK:NihongoGaku:2004}の原則を修正,拡張するという手順に従った.減災のためのやさしい日本語は,災害発生から72時間以内に自治体,公共機関などから発信される情報が主な対象であり,日本語能力試験の3級と4級の語彙と文法の範囲で書くことを原則としている.日本語能力試験は学習者が受験する試験であり,日本語能力を入門レベルの4級から最上級の1級までの4段階で認定する\footnote{2010年に新試験が始まり,レベルは入門のN5から最上級のN1までの5段階に変更された.}.また試験の出題基準\cite{JLPT:book:1994}には各級の出題の目安となる語彙や文法事項のリストが公開されている.減災のためのやさしい日本語の対象とする災害情報は,著者らの対象の一般のニュースと,話題,文体,文書の長さなどさまざまな要素が異なるため書き換え原則を修正する必要がある.そこで減災のためのやさしい日本語の原則に従ってニュースを実験的に書き換え,原則の不足やニュースとの不整合を拡張,修正することにした.書き換え作業は出題基準に精通している日本語教師2名が担当し,検討は書き換えを担当した日本語教師,記者OB,記者,著者らで実施した\cite{tanaka-mino:2010:NL}.以下では,本稿に直接関わる語彙,文法,内容の削除と追加に関わる書き換え原則の基本部分を説明する.詳細は\cite{tanaka:IPSJpaper:2016}を参照されたい.\subsection{語彙}\label{sec:Goi}日本語能力試験の出題基準の3級と4級には合わせて約1,600語が記載されており,基本的にはこの1,600語の範囲でニュースを書き換えるようにした.しかし1,600語の多くは日常生活で使われる語であり,事件,事故,政治,経済,科学,スポーツ,気象などの分野が中心となるニュースの語はかなり不足している.例えば,「接待,公共事業,補正予算案,お内裏様」などの語は書き換え実験で出てきたが1,600語には入っていない.1,600語に入らない難しい語に対応するやさしい語があれば置き換えられるが,必ずしもあるとは限らない.また対応するやさしい語のない難しい語を無理にやさしく書き換えると不自然な日本語になるため,書き換えずに辞書などの読解補助機能を使うことにした.\subsection{文法}\label{sec:bunpou}\begin{itemize}\item文の長さ\\文が長くなると文意が分かりにくくなりやすいため,文書作成の参考書では短文を勧めている.ニュースのやさしい日本語でもこの原則に従い,1文をできるだけ50文字以下に書き換えるようにした.ニュースは1文が長くなる傾向があり,短文化の作業は多く発生する.\item受動態\\受動態は日本語能力試験の3級に分類される文法であり学習の時期は早い.一方,意味が間接的になるので,多くの文章作成の参考書では能動態を使って直接的に書くことを勧めている.特に,日本語の場合には受動態の「れる・られる」が可能,自発,尊敬の意味でも使われるので,外国人が混乱する恐れがある.以上の要因を考慮して,ニュースのやさしい日本語では受動態をできるだけ能動態に書き換えることにした.\item慣用表現\\ニュースには「〜としています,〜と見られています」や「この事件は〜したものです」\cite{tanaka:HosoKenkyu:2012}などの独特の慣用表現が多く出てくるが,日常会話にはほとんど出てこない.外国人にとっての慣用表現の難易度は高いと考え,普通の表現に書き換えることを原則とした.\end{itemize}\subsection{内容の削除と追加}\label{sec:sakujyo}長いニュースは読者の負担になるため,次のような内容を削除して整理する.\begin{itemize}\item重複の削除\\ニュースには通常,冒頭のリードと本文がある.リードはニュースの要約であり,本文の一部を抜粋して作るため本文と重複する.重複はリードから,もしくは本文から削除することを原則とした.\item周辺的な情報の削除\\内容理解に必須でない背景,関連情報の文や段落を削除する.\end{itemize}一方,情報を追加する場合もある.特に専門用語などで対応するやさしい日本語がない場合説明を追加する.例えば実際のニュースでは「タブレット端末」に対して「(=薄い板のようなコンピューター)」という説明を直後に追加している.\vspace{-0.25\Cvs}\subsection{ニュースの書き換え原則の課題}\label{sub:EJproblem}初期のニュースの書き換え原則には「不十分さ」の問題があったことを注意をしておきたい.制限言語の研究分野では言語の制限の仕方を2つに分類することがある\cite{mitamuraAndNyberg:NLPRS:2001,Kuhn:CL:2014}.1つは使うべき語彙と文法を規定する規範的なアプローチ(prescriptiveapproach)で,他の1つは使ってはいけない語彙と文法を規定する禁止的なアプローチ(proscriptiveapproach)である.この分類で上述の原則を見ると,当初は日本語能力試験の3級と4級の語彙と文法を使うという規範的な原則が支配的で,受動態を使わないという禁止的な原則が多少入っている状態であった.日本語能力試験の3,4級レベルは日常会話が対象であるため,規範的,禁止的原則のいずれもニュースを記述するには「不十分」であった.実際,NHKのニュースには明文化されていない規範的原則と禁止的原則がある.例えば,人が亡くなっているように見えても脳死が判定される前は「心肺停止の状態」という表現を使わなければならないという規範的原則,推量を表す「らしい」は主観が強く反映されるので使わないという禁止的原則などである.ニュースをやさしく書き換えるには,日本語教育とニュースの規範的,禁止的原則を整合させた原則が必要だが\footnote{実験的な書き換えを通じてニュースらしさをある程度保持すべきという結論になり,両方の原則を考慮することになった.},サービスの開始時までにニュースの表現を網羅的に検討することはできず,当初の書き換え原則にはニュースの観点が不足していた.著者らのニュースの書き換えに対して,\citeA{hoardEtAl:book:1992}の航空機マニュアルの書き換えは相当に「十分」な原則の元で行われる.また\citeA{mitamuraAndNyberg:NLPRS:2001}の機械翻訳用の書き換えも著者らより多くの原則を設定していると思われる.書き換え原則の不十分さは著者らの問題の特徴と考える.なお,以後本稿では特に断らない場合,禁止的原則と規範的原則の両方を合わせて原則と呼ぶ.\vspace{-0.5\Cvs} \section{体制と制作プロセス} \label{sec:taiseiToProcess}\vspace{-0.5\Cvs}やさしい日本語のニュースの公開を2012年4月に開始した.土・日と祝日を除いて月曜から金曜まで毎日,一般向けのニュースをやさしい日本語に書き換えて提供している.最初は平日1日1記事から2記事を公開していたが,作業手順の見直しなどを経て,2013年6月からは1日5記事を公開するようになっている.以下現状の制作の体制とプロセスを説明する.\vspace{-0.25\Cvs}\subsection{体制}\label{sec:taisei}書き換え原則に沿ってニュースをやさしい日本語の書き換える場合,\ref{sub:EJproblem}節で述べたように,当初は書き換え原則が不十分だったため,日本語教育とニュースの両方の知識を持つ人が必要となった.しかし,両方の知識を持つ人はいなかったため,日本語教師と記者の両者が相談しながら書き換えを進める体制を採用し,現在に至っている.日本語教師と記者のほか,書き換え内容を最終的に確認する編集責任者\footnote{編集責任者も記者である.}および,合成音声の付与作業を行う技術スタッフも参加する.なお特にサービス開始からしばらくは,すべての書き換えを元記事を書いた部局に確認してもらっていたが,現在は編集責任者の判断で必要に応じて確認を依頼するようになっている.\subsection{制作プロセス}現在NEWSWEBEASYでは原則,午前中に2記事,午後に3記事の1日5記事を公開している.午前中公開の2記事は前日に作成し,午後公開の3記事は当日作成する.日々の書き換えは日本語教師2名,記者1名,および編集責任者1名が担当する.最終的な5記事の確認は編集責任者が担当する.編集責任者は内容の確認だけでなく,日本語教師との書き換え作業も一部担当している.以下,制作の流れを記す.\begin{enumerate}\item記事選択\\一般向けのニュースサイトNHKNEWSWEBに当日までに掲載されたニュースから,大きな話題,外国人や子供\footnote{NEWSWEBEASYでは外国人に加えて小・中学生も対象としている.}に適すると思われる話題を持つものが選ばれる.同一話題のニュースを継続して提供できるとは限らないため,節目や一話で完結している記事が選ばれる.選ばれた記事を元記事と呼ぶ.記事の選択は編集責任者が行う.\item引き継ぎ事項の確認\\日本語教師は日々の書き換えで難しかった点などを日誌,メールで情報共有しており前日の内容を確認する.\item背景情報のリサーチ\\\label{item:research}日本語教師を中心に,関連ニュース,関連サイト,報道発表などの関連情報をリサーチする.用例検索機能で過去の類似記事も検索し検討する.\itemやさしい日本語への書き換え\\\label{item:kakikaeSagyou}主に日本語教師が表現をやさしくし,記者が元記事の再構成,要約,内容の確認を行う.書き換えが終わると編集責任者の確認を受ける.さらに元記事を書いた出稿部に確認を依頼することもあり,出稿部から質問や修正の依頼があれば検討し,必要に応じて修正する.このプロセス全体で1記事およそ2時間の作業である.\item読解補助情報の付与\\\label{item:dokkaiSagyou}やさしい日本語のテキストが完成した後,漢字のふりがな,難語への辞書の説明,固有名詞のカラー表示といった読解補助情報を付与する.付与作業は日本語教師が担当する.現在は1記事およそ10分の作業である.\item合成音付与と試写\\\label{item:sisha}やさしい日本語のテキストの合成音を付加して必要に応じてイントネーションの調整を行う.最終的な画面が完成すれば試写を行い問題なければ公開する.\item日誌,メールの作成\\日本語教師は書き換えの問題点,気づいた点などを業務日誌に記載し,メールでも情報を共有する.\end{enumerate}上記の仕事のうち,(\ref{item:kakikaeSagyou})やさしい日本語への書き換え,および(\ref{item:dokkaiSagyou})読解補助情報の付与には手間と時間を要するため,それぞれを支援する「書き換えエディタ」と「読解補助情報エディタ」の開発を進めた.\vspace{-0.5\Cvs} \section{制作支援システム} \label{sec:systems}\vspace{-0.5\Cvs}本章では専門性の異なる日本語教師と記者の共同書き換えを支援するために開発した「書き換えエディタ」と日本語教師の読解補助情報付与作業を支援するために開発した「読解補助情報エディタ」について説明する.\vspace{-0.25\Cvs}\subsection{書き換えエディタ}\label{subsec:rewriteEditor}\subsubsection{日本語教師と記者の書き換えの課題}\label{subsub:kadai}サービス開始前に日本語教師と記者でニュースを実験的に書き換えたところ2つの課題があることが分かった.1つは表現が迷走したり,極端な場合には書き換えが中座したりする「書き換えの停滞」の問題である.ニュースをやさしい日本語に書き換えるには\ref{sub:EJproblem}節で述べた記者の専門であるニュースと,日本語教師の専門である日本語教育に由来する2つの書き換え原則に熟知している必要がある.一方,初期の日本語教師と記者は互いに相手の知識が不足していたため,記者の表現の書き換えが外国人にとっては難しかったり,日本語教師が行った省略がニュースの重要箇所であったりという問題が何度も発生し,書き換えの停滞が発生していた.なお停滞は,実験時には書き換えに非常に長い時間がかかる結果となるが,サービス時には時間が限られているため,満足できない書き換えで我慢する結果となる.他の1つは元記事が十分平易化されない問題である.大きな要因に書き換えの着目点の見過ごし,すなわち難しい語や長文の見過ごしがあった.書き換えの着目点が日本語教師と記者の組み合わせによらず,また日々一定していれば,原則に従った平易化レベルの安定した実現につながる.本稿では人によらず一定レベル以上の平易化を達成することを「平易化レベルの保証」と呼ぶ.特に初期には書き換え原則を記憶しておくことが難しいため平易化レベルの保証が難しかった.\subsubsection{解決方針と実装した機能}\label{sec:rewriteEditorDesign}書き換えの停滞を軽減し平易化レベルを保証するため次の方針を立てた.\begin{itemize}\item方針\begin{itemize}\item書き換えの役割分担による運用\\記者と日本語教師のそれぞれの専門知識に応じた平易化を担当するよう以下のように役割を分担した.\begin{itemize}\item記者\\文の順番の入れ替えなどによる記事の再構成で平易化する.不要な部分を要約する.文を分割して不要な成分を省略する.日本語教師の書き換え結果を承認する.ただし表現の平易化は行わない.\item日本語教師\\難しい語や表現を平易化する.文の分割は行うが省略は行わない.\end{itemize}\item書き換えエディタによる難しい語と長文の指摘\\ニュースのやさしい日本語の書き換え原則に従って難しい語と長文を指摘する.難しい語や長文の見落としが減り,作業者によらず平易化レベルを一定以上に保つ効果が期待できる.また,日本語教師と記者で書き換えを相談するときに指針として利用できる.\item書き換えエディタによる書き換え候補の提示\\多様な書き換え候補の提示で停滞の軽減が期待できる.またニュースに必要な表現の統一にもつながる.\end{itemize}\end{itemize}以上の方針を実現するよう書き換えエディタに下記の基本機能を実装した.\begin{itemize}\item書き換えエディタの基本機能\begin{itemize}\item難しい語と長文の指摘\\日本語能力試験に登録されて入る1級から4級までの語彙を形態素解析システム\footnote{MeCab,IPA辞書使用.}のシステム辞書に登録し,それぞれ色分けして表示するようにした.\ref{sec:Goi}節で述べたように,日本語能力試験出題基準の3級と4級の語彙を基本的に使うため,日本出題基準に登録されていない語(未知語),1級および2級の語が書き換え候補となる.また,長文への注意を喚起するため1文の文字数を表示するようにした.\item書き換え候補の提示\\難しい語は日本語能力試験の出題基準のリストで決定できるが,難しい語の書き換え候補をすべて事前に準備することは容易ではない.また,出題基準のリストがすべての語彙をカバーしているとは限らないという書き換え原則の不十分さへの対応が必要である.以上に対処するには,日々の元記事と書き換え後の記事をデータベースに自動的に登録し,表現を検索する手法が有効と考え「用例検索機能」を提供することにした.元記事の難しい表現の書き換え例を知りたい場合,用例検索機能に難しい表現を入力し,記事,もしくは文と共に提示されたやさしい書き換え例を参照する.用例検索機能には語,フレーズ,文など任意の長さの表現を入力することができる.そして入力表現中の内容語の数,および内容語間の間隔を使って類似表現が元記事のデータベースで検索される.検索された難しい表現と,対応するやさしい日本語の表現は,あらかじめ対応付けされてデータベースに格納されている記事,もしくは文の単位で表示される.本機能はすでに多言語翻訳の現場で利用実績のあった翻訳用例提示システム\cite{kumanoEtAl:2001:IEICE}を流用して実装した.\end{itemize}\end{itemize}以上は難しい表現を指摘してその書き換え候補を提供する基本部分である.これに日本語教師と記者の共同作業のために以下の機能を設けた.\begin{itemize}\item共同作業のための書き換えエディタの機能\begin{itemize}\item複数作業者の利用\\ユーザとして登録された人は誰でも書き換え作業に参加できるようにし,任意の順番で1つの記事を書き換えることを可能とした.基本は記者と日本語教師の交互の書き換えである.\itemフラグ付き書き換え原稿の履歴保持\\書き換えた原稿には記者や日本語教師といった「作業者属性」あるいは確認用などの「目的属性」を表すフラグを付与し履歴を保存するようにした.作業者属性と目的属性を明示することで,日本語教師は表現の書き換え,記者は内容の書き換えという役割を分離しやすくなる.また書き換えの履歴によって変更の詳細な経過を確認できる.\item原稿難易度スコアの表示\\記者と日本語教師の書き換えがやさしくなる方向に進んでいるかどうかを確認するために原稿難易度スコアを提示するようにした.原稿難易度スコア$S$は文書リーダビリティの研究で用いられている属性\cite{nomoto:JPSJ_DC:2016}を参考に「文書長$d$」,「平均文長$l$」,「難語率$w$\footnote{文書中の語彙数に対する級外語彙,1級,2級の語彙数の割合.}」の積$S=dlw$で計算した.右辺の各項は小さいほどやさしいので,積の$S$は小さいほど原稿がやさしいことを示す.原稿のやさしさは書き換えエディタの画面に表示された個別の文長,語の色表示でもある程度把握できるが,1つのスコアにまとめることでより明確になる.さらに難易度スコアは専門性の違う2人が書き換えを検討するときの指針としても有用と考えた.\itemコメント機能\\専門性の違う作業者を支援するにはコミュニーケーションを支援するのが有効と考えた.直接会話できれば問題ないが,書き換えエディタは日本語教師,記者などが遠隔地で作業することも想定してWebのシステムとして実装した.このため,直接会話できない場合,作業時間がずれる場合もあると考え,文単位でコメントを残せるようにした.コメント欄には書き換えの意図,質問などを記入する.\end{itemize}\end{itemize}\subsubsection{書き換えエディタの機能の補足}\label{subsub:kakikaeEditorHosoku}前項の機能に関して下記2点を補足しておきたい.\begin{figure}[p]\begin{center}\includegraphics{25-1ia4f2.eps}\end{center}\caption{書き換えエディタのメイン画面}\label{fig:main}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{25-1ia4f3.eps}\end{center}\caption{書き換えエディタの3原稿比較画面}\label{fig:three}\end{figure}\begin{itemize}\item難しい語の指摘\\日本語能力試験の級の認定は,難しい語の指摘,原稿の難易度スコアの計算に使われるため正確に実施したい.級の認定は形態素解析に基づいているため,その誤りの手軽な修正インターフェース,および学習機能を導入して自律的に性能を向上させる機構の必要性は明白だったが,サービス開始までに対応することができず,\ref{subsec:dokkaiEditor}節で説明するように後に対応することとなった.\item用例検索機能の意義\\やさしい日本語の書き換え原則は\ref{sub:EJproblem}節で述べたようにNEWSWEBEASYの開始時には日本語教育のみを反映した「不十分」なものであった.しかしこの原則の不足を補いながら日々日本語教師と記者が日々作成する書き換えには,規則の形で明示されてはいないが,さまざなニュースの書き換え原則も反映されているはずである.すなわち書き換えを蓄積して再利用することは,実質的に原則の開発を書き換え作業者に任せることを意味する.著者らはニュースの書き換え原則は作業者の高い専門性を頼りに用例検索システムを使って自律的に発展させるのが現実的だと考える.ただし一般に実用されている制限言語を見ると,言語仕様の開発や管理は作業者とは別の人,団体に任せることが普通のようである\footnote{例えば\citeA{hoardEtAl:book:1992}の航空機マニュアルの言語仕様はAECMAという団体が管理している.また企業情報の開示文書作成のためのPlainEngishは米国証券取引委員会が管理している.}.このような場合に単純に用例検索システムを導入するのは不適切と考える.\end{itemize}\subsubsection{書き換えエディタの画面}\label{subsub:editorScreen}書き換えエディタの主な機能を画面で説明する.図\ref{fig:main}にメイン画面を示す.メイン画面の上部は原稿の書き換え履歴,下部は書き換え作業の画面である.メイン画面からは後に説明する3原稿比較画面(図\ref{fig:three}),原稿差分画面,文の重複画面,単一原稿画面を表示させることができる.\begin{enumerate}\item書き換えの履歴\\図\ref{fig:main}の上段が元記事の書き換え原稿の履歴である.書き換え作業者はまず元記事のコピーを作成し最初の書き換えを作成する.次の作業者はそのコピーを作成し,さらに平易化する.さらにその後もコピーと平易化を繰り返し,作成される書き換え原稿すべてが履歴として記録される.書き換えの記録には木構造を採用しており,線状に並ぶ履歴だけでなく,兄弟ノードを作ることで複数系統の履歴を作ることができる.図\ref{fig:main}の履歴部分には「原文(本稿の元記事),デスク校閲(本稿の記者の書き換え),(日)校閲(本稿の日本語教師の書き換え),報道確認用(本稿の編集責任者確認用),検索稿(本稿の検索機能への入力用)・・・」といったフラグのついた書き換え原稿が並んでいる.\item作業画面\begin{itemize}\item記事編集と登録\\書き換えの履歴の下が作業画面である.枠で囲んだ3列の左端は元記事,中央は直前稿,右端が作業稿,すなわち現在の書き換えである.表示される原稿の関係は常に同じである.それぞれの列には,文編集用の箱とコメント用の箱のペアが下方向に繰り返し表示される.図\ref{fig:main}ではタイトル,タイトルへのコメント,書き換え稿の1行目の3つの箱が表示されている.左端(元記事)と中央の列(直前稿)は閲覧のみ可能で,右端(作業稿)の文編集用の箱とコメント用の箱は編集可能となっており,最初は直前稿の対応部分がコピーされている.作業者はコピーを書き換え,完了したら登録する.\item文単位の書き換え\\作業画面を横方向に見ると3つの箱が並んでいる.上で述べた文編集用の箱とコメント用の箱で,元記事の1文単位に設けられ,横に整列して表示される.作業者は右端の文編集用の箱の中で文の分割や書き換えを行う.文編集用の箱とコメント用の箱の数は元記事の文数に固定されており,右方向に見ることで元記事の文の変化を観察できる.以上の元記事の文を基準に書き換えを表示する方式を箱表示と呼ぶ.\item文長の表示\\文編集用の箱の直下に文長を表示している.目標が50文字程度以下であるため,40文字を超えて60文字までは青で,60文字を超えて80文字までは黄色で,80文字を超えると赤で文長を表示するようにしている.\itemコメント欄\\コメント欄には文の書き換えに対するさまざまなコメントを記入する.\item語の難易度表示\\直前稿と元記事の文編集用の箱の中の語はカラーで表示される.色は日本語能力試験の級に対応しており,4級を青,3級を緑,2級を黄色,1級を暗い赤,級外の難語を明るい赤とした.作業者は黄色や赤の語に注意して作業する.\item3原稿比較画面\\図~\ref{fig:main}の作業画面に対応する3つの画面を並べて表示することができる(図\ref{fig:three}).メイン画面にはコメントや文長情報があり一覧性が悪いが,図~\ref{fig:three}では全体を把握できる.元記事,直前稿,作業稿と進むにつれ,青色,緑色の語の割合が増え,書き換え稿の長さが短くなっていれば書き換えはやさしくなっていることになる.また,やさしさを数値で確認するため下段には原稿難易度スコアを表示している\footnote{ここでは原稿長と文長を文字列で測った場合と形態素数で測った場合の2種類の数字が並んでいる.それぞれ文字難易度,形態素難易度と表示されている.なお,例えば元記事の文字難易度の表示が$11337.95=517\times73.86\times0.30$と等式になっているが,実際は難語率の表示を3桁に制限した(0.30)ことによる丸め誤差で等式が成立していない.他の等式も同様である.}.\itemその他\\書き換えが進むと直前稿との差がほとんどなくなるため,書き換え原稿間の差分文字列をカラーで強調表示する画面(原稿差分画面),要約作業を支援するため,リード文と他の文の一致文字列をカラー表示する画面(文の重複画面)を用意した.また履歴中の任意の1つの書き換え原稿を色付きで表示することもできる(単一原稿画面).\end{itemize}\end{enumerate}\subsection{読解補助情報エディタ}\label{subsec:dokkaiEditor}書き換え作業が完了したやさしい日本語のテキストに対して以下の読解補助情報を付与する.\begin{itemize}\itemふりがな\\すべての漢字に付与する\item固有名詞の色表示\\地名,人名,組織名に色をつける\item辞書の説明\\日本語能力試験の2級,1級,それ以上の難語に原則付与する.ただし,辞書に適切な語釈がない場合は付与しない\end{itemize}本節では上記の付与作業を支援する読解補助情報付与エディタを説明する.ふりがな,固有名詞は既存の形態素解析システムで付与できる.また,日本語能力試験の級も形態素解析辞書の語に1級から4級までの級を記載しておけば認定できる.また解析時に未知語を難語とすることで,1,2級の難語とそれ以上の難語を自動認定できる.そこで当初は形態素解析器を応用した読解補助情報付与システムを使用していた.しかし形態素解析を誤れば,ふりがな,固有名詞,級の認定も誤ることになる.語の辞書引きには,形態素解析で得られる基本形の表記と読みを使うため,辞書引きも解析誤りに影響される.また,辞書引きができても語釈が語の説明としてふさわしくないこともある.さらに,ニュースには固有名詞,複合名詞を中心とした新語が頻繁に出現するため,1語へのまとめ,属性の付与などが必要となる.運用開始時はプロトタイピングと割り切り,形態素解析システムを応用していたため誤りを日々人手で修正する必要があった.しかし修正はその場限りでその後に反映されない.そこで,ふりがな,固有名詞の属性,表示する辞書項目,および語の日本語能力試験の級を予測し,かつ予測誤りの人手修正結果をオンライン学習できる「難易度,補助情報付与モジュール」を作成した.さらに,予測結果を簡便に修正できるインターフェースを開発した.以上により読解補助情報の自動付与結果の誤りをインターフェースで修正すれば以後の解析に反映できるようになった\cite{kumanoAndTanaka:ANLP:2014}.難易度,補助情報付与モジュールは(ふりがな,日本語能力試験の級もしくは固有名詞の属性,辞書項目)という3つ組のタグがついた形態素列をデータとして,学習時にはデータを最適分割して記憶する.学習は1記事ごとに行うので,修正結果は直ちに学習される.さらに忘却の機能を持つため,例えば固有名詞の認定の方針が変わった場合などにも自動的に対応できる.図\ref{fig:morph2}に読解補助情報エディタのインターフェースを示す.左が全体画面で,右は全体画面から呼び出された辞書項目の検索画面である.作業者は全体画面に表示されている解析結果を見て,必要に応じて語の単位の変更,級の修正,辞書項目の変更などを行う.なお,全体画面を開いたときにはすでにその時点までの学習結果が反映されていることに注意されたい.\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f4.eps}\end{center}\caption{読解補助情報エディタ}\label{fig:morph2}\end{figure}全体画面の右側は,左側の作業内容を確認する全体表示である.NEWSWEBEASYの画面と同様の形式で漢字のふりがなが表示され,書き換えエディタと同様の形式で語の級,固有名詞の種別が色分け表示されており,作業者は直感的に内容を確認することができる.学習の効果に関して,\citeA{kumanoAndTanaka:ANLP:2014}は1,372記事の各記事を対象にオンライン学習する場合の解析精度と,形態素解析システムを使った従来の解析精度を比較し,形態素解析システムを使った精度は一定して89\%程度であるのに対して,オンライン学習する手法では250記事程度を学習すると約95\%に達して飽和したことを報告している.\subsection{制作支援システムのまとめ}\label{sec:systemMatome}原稿と書き換えエディタ,読解補助情報エディタ,用例検索の関係を図~\ref{fig:flowchart}に示す.管理システムとは原稿と各システムを制御するシステムである.図~\ref{fig:flowchart}では元記事が管理システムに登録された後,書き換えエディタにコピーされて,第$0$版から第$n$版まで書き換えらえる状態を示している.さらに第$n$版は読解補助情報エディタに入力されて補助情報が付加される.\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f5.eps}\end{center}\caption{書き換え原稿の流れとシステムの関係}\label{fig:flowchart}\end{figure}図に示したように書き換え作業中には,用例検索と,難易度,補助情報付与モジュールの語の難易度推定機能が利用される.書き換え終了時には元記事(図中では書換$0$)と第$n$版の書き換え(図中では書換$n$)が用例検索システムに登録され,日々の運用で自然に用例が蓄積される.読解補助情報の付与作業中は難易度,補助情報付与モジュールのさまざまな情報推定機能が利用される.そして誤りを訂正した結果が同システムに登録されて学習される.すなわち,書き換えエディタ,読解補助情報エディタはそれぞれ日々の運用によって情報がフィードバックされ性能が向上する循環型のシステムになっている. \section{書き換え支援システムの効果} \label{sec:performance}本章では2つのエディタの効果を確認するために実施した調査を報告する.NEWSWEBEASYは実際のサービスであるため,エディタの利用・非利用の比較に基づく対照実験は困難である.そこで,まず制作に関わっている日本語教師と記者全員に対するアンケート,さらに,システムに記録されているログの分析により効果を調査した.\subsection{アンケート}現在,NEWSWEBEASYの書き換えを担当しているのは表\ref{tab:instructors}に示すJ1からJ4までの日本語教師4名,およびR1からR3までの記者3名である.日本語教師2名および記者2名は2012年4月のサービス開始時から制作に参加している.日本語教師は15年以上の豊富な教育経験を持ち,記者はニュース原稿の作成の豊富な経験を有するOBであり,それぞれ高い専門知識を持っている.今回のアンケートではまず文書で尋ね,回答中の興味深い点,疑問点をメールで再度聞き取る方法を採用した.\begin{table}[b]\caption{回答者の属性(調査当時)}\label{tab:instructors}\input{04table01.tex}\end{table}\subsubsection{システムの全体について}\label{subsub:overallSystem}システム全体としての利点と問題点を把握するため下記の質問に自由記述で回答してもらった.質問趣旨と主な回答は以下の通りである.\begin{enumerate}\itemもし書き換えエディタのさまざまな機能および用例検索機能が現在使えないとすると品質,書き換え時間にどのような影響があるでしょうか.\begin{itemize}\item作業時間は大幅に増え1日3記事担当するのは負担が大きそうである(他類似回答4件).\itemシステムを使わない場合,異なる作業者間,過去記事との間に大きな違いが出ると思う.一定の基準,レベルでの書き換えを保つためには必要だと思う(他類似回答4件).\end{itemize}時間の短縮の効果を感じさせる1番目の回答より,書き換えエディタは「書き換えの停滞」の解消に効果的であったことが伺える.また,2番目の回答は「平易化レベルの保証」が実現できていることを示唆している.この他\begin{itemize}\item自分の書き換えを他の作業者が参照すると思うと責任を持って書くようになる\end{itemize}という回答もあり,品質維持の動機につながっていることを伺わせる回答もあった.一方,システムがなければ\begin{itemize}\itemNHKのニュースという枠にとらわれずによりやさしくできる可能性がある\end{itemize}という指摘もあった.なお,書き換え時間が短くなったという回答はあったが,日々の作業時間が短くなっているわけではない.事情を質問したところ,\begin{itemize}\item日々の作成本数が決まっているので書き換えに割り当てている総時間は変えておらず,書き換えの質を向上させるための記者と日本語教師との検討,事前のリサーチに時間を費やしている\end{itemize}とのことであった.すなわち,書き換えエディタによって質の向上のための時間が生み出されていると考えられる.\item書き換えエディタのさまざまな機能,用例検索の機能,読解補助情報エディタを使うことによる副作用(例えば書き換えが画一的になるなど)はないでしょうか.\begin{itemize}\item「前もこう言い換えた」は一見安全が保護されているように見えるが絶えず再検討しなければならないだろう(他類似回答3件).\end{itemize}全員上記のように過去用例を安易に再利用すべきでないという自覚があり,現在は問題ないと回答していた.類似した回答に\begin{itemize}\item(自分の書き換えに対して)日誌に次回はチャレンジすることなどと引き継ぎしている\item参加した1年目は先輩の用例に従わなければと思い込んでいたが,現在は他の分かりやすい表現を探している\end{itemize}などがあり,常に新しい表現を模索している姿勢が伺えた.書き換えエディタの支援機能や読解補助エディタへのコメントはなく,副作用は特にないと考えられる.\item書き換えエディタのさまざまな機能,用例検索の機能,読解補助情報エディタはやさしい日本語の学習やNEWSWEBEASYの新人への教育に有用でしょうか.\begin{itemize}\item用例検索はNEWSWEBEASYの書き換えスタッフの養成には有用(他類似回答3件).\item用例検索の記事にはニュースの特有の表現があるので他(のやさしい日本語)では有用とは言えない(他類似回答1件).\end{itemize}途中からNEWSWEBEASYの制作に参加した日本語教師からは\begin{itemize}\itemいろいろなルールがそれぞれのシステムに反映されているので,意識しながら(ルールを)身に付けることができた\end{itemize}との回答があった.この回答は語の難易度,文長の制限,NHKでの漢字の読みなどがシステムで提示されることを指している.一方,別の日本語教師からは新人の教育に有用と回答した上で\begin{itemize}\itemシステム操作に日本語教育と無関係な専門用語が多いので覚えるのに負担がかかる可能性がある\end{itemize}との指摘があった.例えば,新たな書き換え稿の作成ボタンに使われている「makechild」(書き換え履歴の木構造の子ノード作成の意味)といった専門用語が分かりにくさにつながるという指摘である.\end{enumerate}\subsubsection{書き換えエディタ}\label{subsub:EnquetteKakikae}書き換えエディタの10の機能について,それぞれの「使用頻度」「有用性」「満足度」を5段階の選択肢で質問した.使用頻度と有用性は機能そのものについて,満足度はインターフェースについての質問である.以後も同じ趣旨で質問した.例として「履歴」についての問いを表\ref{tab:rireki}に,回答に使った5段階の選択肢を表\ref{tab:answers}に示す.\begin{table}[b]\caption{「履歴」情報に関する問い}\label{tab:rireki}\input{04table02.tex}\end{table}\begin{table}[b]\caption{選択肢}\label{tab:answers}\input{04table03.tex}\end{table}さらに,それぞれの機能についてコメント,使用状況,使用状況の変化について自由記述で回答してもらった.全員の選択結果を表\ref{tab:res_editor}に示す.なお「箱による編集」は必ず使用するため使用頻度の質問はしていない.表~\ref{tab:res_editor}の「日教師」の列は日本語教師J1からJ4の結果を示す.同様に「記者」の列は記者R1からR3の結果を示す.\begin{table}[t]\caption{書き換えエディタの選択結果}\label{tab:res_editor}\input{04table04.tex}\end{table}まず個人に着目する.記者R3の使用頻度を他の記者と比べると5がかなり多い.記者R3が1をつけているのは「文長表示」と「3原稿比較画面」で,この他では「原稿難易度表示」に3をつけているのみである.他の記者と比較してみよう.記者R3の使用頻度が5で他の記者が1あるいは2を付けている項目は,「履歴」「語難易度表示」「単一原稿画面」「原稿差分画面」である.「履歴」と「原稿差分画面」は日本語教師との共同作業で使うため,日本語教師が使えば情報を共有できる.「単一原稿画面」については,代わりに「3原稿比較画面」を使っているとのコメントがあった.また「語難易度表示」は表現の平易化に使う機能であるため使っていないとのことであった.\ref{sec:rewriteEditorDesign}項で述べたように,当初記者は表現の平易化を担当しないという原則を設けており,それに対応したコメントと思われる.以上を総合すると記者R3は求められている仕事に専念している度合いが他の記者より強いことが伺える.次に各項目を概観する.「履歴」はよく使われ,有用性,満足度も高い.作業中の使い方には\begin{itemize}\item書き換えの各段階での情報の抜け落ちの確認\item2つの書き換え案があるときに両方を作って検討\item編集責任者との確認で削除した情報を復活する場合に使用\end{itemize}という回答があった.履歴は木構造で表現しているため兄弟ノードの原稿を作ることができる.上述の2つの書き換え案は兄弟ノードを利用して作成している.また,作業の事前事後の使い方には\begin{itemize}\item微妙な外交問題などをどのように書き換えているかなどを観察する\item日誌を書く際の作業の振り返りに使用\end{itemize}との回答があった.事前のリサーチ,振り返りにも活用されている.「箱による編集」も有用性,満足度とも高い.一方\begin{itemize}\item元記事の文数に固定されている箱の数を増やせるようにしてほしい\end{itemize}との要望があった.元記事の構成を大幅に変更した場合などに不便なようである.「文長表示」は全員がすべての項目に1を付与している.人間が文字数を数えて確認するには大きな手間がかかる.文字数の計算は単純だが,効果の高い指標と考えられる.また,「文長表示」は編集責任者へ書き換えを説明する際に使われていた.「語難易度表示」は日本語教師の評価が高い.記者R1,R2も積極的にこの指標を利用している.\begin{itemize}\item全体が色で表示されているため記事中の語彙難易度の状況が一目で把握できる点が良い\item学習機能により難易度の精度が上がった\end{itemize}という回答があった.「語難易度表示」も編集責任者への説明に利用されている.なお,記者の\begin{itemize}\item最近では難しい単語はだいたい分かるようになったため以前ほどこの表示に頼らなくなった\end{itemize}という回答もあった.「コメント欄」については書き込みの頻度を尋ねたため,記者の使用頻度は低いが,有用性は高いという評価である.主に日本語教師が書き込んでおり,内容は\begin{itemize}\item参考情報の出典(Webサイトなど)\item書き換えの意図の説明\item複数案あるときの代替案\item不明点\end{itemize}などである.記者からは\begin{itemize}\item日本語教師の書き換えプランが理解できる\item代替案をコピーできる\end{itemize}といった回答があった.なお\begin{itemize}\itemコメントが入っていない文の欄は非表示にしたい\end{itemize}との要望も寄せられた.表示方法には工夫の余地がある.「単一原稿画面」と「3原稿比較画面」はどちらも書き換え原稿の表示であり,一方だけ使っている作業者,目的に応じて使い分けている作業者がいた.それぞれ使い方を決めており,両者は必要な機能となっていた.「原稿難易度表示」も利用頻度,有用性,満足度とも高い.\begin{itemize}\item原稿難易度を目標に書き換える\item記者や編集責任者に書き換えの必要性を説明するときに使う\end{itemize}という回答があった.原稿難易度を書き換えの目標に使っているという回答に関して,現在,原稿難易度と外国人理解度との詳細な関係は分かっておらず,今後調査が必要である.「文の重複画面」と「原稿差分画面」はどちらも単純な最長共通文字列検出アルゴリズムを利用している.「文の重複画面」は主に記者の要約する作業を支援する目的で作成しているため日本語教師は使っていない.また記者からは\begin{itemize}\item記事を読むと重複箇所はだいたい分かるので使っていない\end{itemize}という回答を得た.一方「原稿差分画面」は使用頻度,有用性,満足度とも高い.特に修正箇所が少なくなり目視での書き換え稿間の差の確認が難しくなる後半で使われている.直前稿との差の確認,編集責任者への変更箇所の説明,最終的なタイポの発見などが主要な使い方である.\begin{itemize}\item日本語教師との「キャッチボール」\footnote{記者と日本語教師で行う原稿の確認のこと.}に欠かせない\end{itemize}という記者のコメントもあった.「原稿差分画面」も単純だが有用な機能である.\subsubsection{用例検索機能}用例検索機能について,全員に選択肢と自由記述形式で質問した.選択肢は書き換えエディタと同じ使用頻度,有用性,満足度に加えて,用例の蓄積の重要性について尋ねた.質問は「用例の蓄積は重要でしょうか」である.また回答は「1:重要,2:やや重要,3:どちらとも言えない,4:あまり重要でない,5:重要でない」の5段階である.結果を表\ref{tab:yourei}に示す.記者R1の使用頻度は低いが,この項目以外の評価は高い.記者R1は自分では使わないが日本語教師が検索した結果を利用しているとコメントしており,有用性は高いと評価している.\begin{table}[t]\caption{用例検索の選択結果}\label{tab:yourei}\input{04table05.tex}\end{table}用例の蓄積の重要性についても高い重要性を認めている.さらに,以下の自由記述形式の質問を行った.質問趣旨と主な回答を記す.\begin{enumerate}\item用例検索を使う目的とタイミングを教えてください.\begin{itemize}\item書き換え前に参考になる記事を探す(他類似回答4件)\item書き換え中に表現の書き換え例を探す(他類似回答5件)\item作業外の時間で他の人が担当した記事を勉強する(他類似回答2件)\end{itemize}想定の通り,作業中に書き換え表現を探す用途が多い.また\begin{itemize}\item当日の記事の選択時に過去との重複を調べる用途\item編集責任者の説明に過去の書き換え事例を示す目的\end{itemize}という回答もあった.\itemどのような表現を入力しますか.\begin{itemize}\item固有名詞\\人名関連(マララさん,ウルトラマン),組織名(IOC,ISイスラミックステート)\item専門用語\\気象災害用語(豪雨,土砂崩れ,孤立状態,浸水),科学技術用語(AI,大気,生存率,GPS),文化・伝統関連用語(恵方巻き,かつお節,こいのぼり,土用の丑の日),医療関係(手足口病,小頭症)\item難しい表現\\2級以上の語彙,使わざるを得ない受け身や使役の使用例(行われる,やめさせる,やめさせられる)\end{itemize}固有名詞は書き換えないが,加える説明を調べるために入力して調査する.また,関連記事を検索する場合にもキーワードとして入力している.専門用語は書き換え事例,および追加する説明を調査するために入力している.\item現在の用例検索は記事単位,もしくは文単位で検索結果が表示されます.この代わりに,「避難」に対して「逃げる」といったフレーズの辞書を作って検索することが考えられます.現在の方式とどちらが有用でしょうか.\begin{itemize}\item同じ単語でも記事の内容によって書き換え方は異なるので文や記事が必要(他類似回答5件)\itemどちらでも有用だが辞書ができるのだろうか\end{itemize}基本的には書き換え時に文脈,記事の全体を見るため現在の方式の方を有用と考えている.特に,現在は元記事とやさしい日本語の文を対応させて検索結果を表示できるため,元記事の表現が省略されたことが分かるようになっている.このため\begin{itemize}\itemある表現が文脈によって省略されやすい事実が分かる点が有用\end{itemize}という回答もあった.\item検索システムの用例が蓄積され検索できる記事や表現が増えています.このような効果を感じますか.あるいはまだ,蓄積が足りないと感じますか.\begin{itemize}\item蓄積効果を感じている(全員)\item同じ言い回しでも異なる書き換えがあるため蓄積はまだ必要(他類似回答1件)\item不足していると感じることがある\item不足はあまり感じない\item蓄積が進んだため,検索結果が多すぎたり,誤った結果が含まれたりすることがある(他類似回答1件)\end{itemize}用例の蓄積効果は全員感じていた.ただし~\ref{subsub:overallSystem}項の(2)で報告したシステム全体についての副作用のアンケートの回答にあったように,無条件に使ってはいけないという意識は強い.また,現在記事数が4,000件を超えており,過剰な検索結果,不適切な検索結果が問題になりつつあることが分かった.\end{enumerate}\subsubsection{読解補助情報エディタ}読解補助情報エディタについて日本語教師に選択形式と自由記述形式で質問した.選択肢は5段階でこれまでと同様である.また記者は作業を担当しないため質問していない.\begin{table}[b]\caption{読解補助情報エディタの選択結果}\label{tab:hojyo}\input{04table06.tex}\end{table}選択肢問題の質問趣旨は以下の通りである.\begin{enumerate}\item読解補助情報エディタの使い勝手はいかがですか\item以前の読解補助情報エディタには学習機能がありませんでしたが現在はこれが装備されています.学習機能は重要でしょうか\item学習機能の性能に満足ですか\end{enumerate}結果を表\ref{tab:hojyo}に示す.現在の使い勝手,学習機能とも満足度,重要性とも大きい結果となった.また問題点,コメントを自由記述形式で求めたところ\begin{itemize}\item学習機能には大変助かっており性能にも概ね満足している.ただし自動推定された結果から誤りを探すのが大変であり,候補を出す方式の方が良いかもしれない\end{itemize}という回答が1件あった.現在は誤り率5\%程度だと推定しているが,この程度になると誤りを見過ごしやすくなる問題がある.自動推定結果をまとめて修正するのでなく,回答のように候補を出して選択させる方式も検討したい.次に,読解補助情報エディタの学習機能によりどれくらい作業時間が短縮されたかを調査するため次の質問を行った\footnote{読解補助情報エディタにはログ機能がないためアンケートで質問した.}.\begin{enumerate}\item現在の1記事あたりの読解補助情報の付与の時間はどれくらいですか.また学習機能がないころは何倍くらい時間がかかっていましたか.\end{enumerate}この質問は学習機能のないエディタでの作業を経験している日本語教師J1,J2,J3に対してのみ実施した.結果を表\ref{tab:hojyoTime}に示す.日本語教師はおよそ類似した感覚を持っていることが分かった.学習機能付きの場合の1記事の処理時間がおよそ10分で,学習機能がない場合にはその最大3倍の処理時間がかかったという結果が得られた.なお,この質問は,過去と現在の比較となるため,結果には作業者自身の学習効果を含んでおり,単純に学習機能だけの効果と言えない点に注意が必要である.\begin{table}[t]\caption{読解補助情報付与の時間}\label{tab:hojyoTime}\input{04table07.tex}\end{table}\subsection{ログの分析}\label{sub:logAna}\ref{subsub:overallSystem}項の書き換えエディタのアンケート(1)では「書き換えの停滞」と「平易化レベルの保証」に対する効果が示唆されたことを述べた.本節では効果をさらに確認するため書き換えエディタのログを解析した.対象としたのはNEWSWEBEASY開始の2012年4月から2016年11月までのログである.書き換えエディタのログは本来,本節で述べるような調査を目的に設計されていない.そこで,以下ではできるだけ安定していると思われるデータを抽出して解析した.この期間で元記事から完成まで普通に制作されたと推定できる記事は4,164件であった\footnote{複数の日本語教師,あるいは記者が携わった記事,完成に至らなかった記事,原稿の系列のタイムスタンプに逆転が見られた記事を除外した.}.\subsubsection{記者と日本語教師の平均ターン数}\label{subsub:turn}やさしい日本語のニュースは元記事を記者と日本語教師が交代で記事を書き換えて作成する.書き換え稿の数,ターン数は\ref{subsub:kadai}項で述べた書き換えの停滞,あるいは逆数を取ると日本語教師と記者の互いの仕事への理解度合いの指標になると考えた.そこで,上記の4,164記事から,典型的と考えられる\[\mbox{記者}\rightarrow(\mbox{記者}\mid\mbox{日本語教師})^\star\rightarrow\mbox{編集責任者確認用}\]のパターンに従って書き換えられた記事3,215本を抽出した.そして各記事の最初の記者の書き換えから編集責任者確認用までの書き換え稿の数を算出し,これをターン数として月ごとに平均を計算した.通常,最短で「記者$\rightarrow$日本語教師$\rightarrow$編集責任者確認用」の3つの書き換え稿,すなわち3ターンが必要となる.図\ref{fig:aveTurn}に結果を示す.NEWSWEBEASY開始時の2012年4月の平均ターン数は5に近いが半年後の2012年10月には3近くにまで減少し,その後同じような数が続いている.すなわち,開始から半年程度で停滞が減少,あるいは互いの仕事への理解が深まったことを示唆していると考える\footnote{記事の書き換え時間のログの分析も試みたが,1日の制作記事数が決まっていて,制限時間内であれば時間をかけられること,待ち時間,休憩時間などの影響が見積もれないことから解析は困難と考え実施しなかった.}.アンケートの結果と本項の結果より,書き換え支援システムは書き換えの停滞の解消に効果があったと考える.\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f6.eps}\end{center}\caption{平均ターン数}\label{fig:aveTurn}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f7.eps}\end{center}\caption{平均文長}\label{fig:aveLen}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f8.eps}\end{center}\caption{平均難語率}\label{fig:aveRate}\end{figure}\subsubsection{平易化レベルの保証}\label{subsub:simpleLevel}平易化レベルの保証に対する書き換えエディタの効果は,文長と難語率を元記事とやさしい日本語のニュースで比較することでおよそ評価できる.そこで,各月の平均文長と平均難語率を日本語教師ごとに調査した.調査した記事は全4,164件である.また日本語教師はこの期間,延べ5名が制作に関わったため,全員について上記の平均を計算した.平均文長と難語率の結果を図\ref{fig:aveLen}および図\ref{fig:aveRate}に示す.図の左が元記事,右がやさしい日本語のニュースである.2つの図を見ると,平均文長,平均難語率ともやさしい日本語のニュースの方が元記事より明らかに小さくなっている.またやさしい日本語の平均文長と平均難語率は,すべての日本語教師で似た値となっている.これらの結果は平易化レベルの保証に書き換えエディタが効果的であったことを示したものと考える.さらに図~\ref{fig:aveLen}の平均文長と図~\ref{fig:aveRate}の平均難語率のやさしい日本語(右部分)のグラフの横軸方向の変化を観察すると,両者とも特に初期に右下がりの傾向を示している.\ref{subsub:overallSystem}項の書き換え支援システムの全体のアンケート(2)で担当者は常に書き換えの改善を目指しているという回答を得ており,グラフの右下がり傾向は日本語教師が文長と難語率を強く意識しながら日々書き換えの改善を試みていることの現れと思われる. \section{議論} \label{sec:discussion}アンケートでは書き換えエディタと読解補助情報エディタの機能のほとんどが高頻度に使われていること,また日本語教師,記者ともに有用性を高く評価していることを示す回答を得た.ターン数のログ解析では,書き換えが初期に比べてよりスムーズに進むようになり,書き換えの停滞の問題が軽減されたこと,平均文長と平均難語率の分析では,両者とも元記事より大幅に減少し,平易化レベルの保証が実現できていたことを確認した.今後,新たにやさしい日本語を使った情報提供を行う場合に有用と思われる点を指摘したい.1点目は学習機能である.ふりがななどの読解補助情報,語の難易度推定に学習機能を入れて以来,2つのエディタとも特段の保守なしに順調に運用されている.アンケートでも学習機能の効果は高い評価を得た.日々繰り返す作業に自動システムを導入する場合,学習機能は特に高い効果をもたらすと考える.2点目は用例の利用である.書き換えエディタの用例検索機能は記事数が増え,有用性が増していることが明らかになった.用例は積極的に利用すべきと考える.ただし,用例検索を利用することは\ref{subsub:kakikaeEditorHosoku}項で述べたように書き換え原則の開発をユーザが主体的に行うことにつながる.あらかじめ書き換え原則を網羅的に準備できず,ユーザに原則の書き換えを任せてよい場合には用例検索機能は有用と考える.3点目は書き換えの説明のしやすさである.当初,記者と日本語教師の共同作業を支援するため,コメント追加,記事の履歴の保存などの機能を設けた.これらの機能は互いの書き換えの説明の材料になると考えたからである.次に詳述するように,記者と日本語教師の理解が進んだ結果,彼らの間の説明の必要性はある程度減っているようである.一方,編集責任者など他の参加者への説明はコメント,履歴などを使って引き続き行われている.書き下ろしでなく元文書を書き換える場合,元文書の作者に説明が必要な場合は多いと考える.また,放送局のように最終的な責任者がいる場合その人への説明も必要となる.書き換えの説明をしやすいシステムにしておくのが1つの要点と考える.最後に日本語教師と記者の相互の理解の深まりから見たシステムの今後について触れたい.アンケートによると開始から5年を経て日本語教師と記者の互いの知識の理解が進んだことが明らかになった.例えば,語難易度表示に関する記者へのアンケートに\begin{itemize}\item最近では難しい単語はだいたい分かるようになったため以前ほどこの表示に頼らなくなった\end{itemize}という回答があったことを~\ref{subsub:EnquetteKakikae}項で述べた.また日本語教師への追加質問では\begin{itemize}\itemニュースの構成がそのままではやさしくしにくい時,積極的に構成の変更を提案するようになった\end{itemize}という回答を得た.いずれも相互理解が進んだことを示唆している.さらに~\ref{subsub:turn}項の平均ターン数の分析では,相互理解がNEWSWEBEASYの開始から半年程度の間に進んだことを示唆する結果を得た.記者がやさしい日本語に十分慣れれば,ボーイングの事例と同じく,専門家である記者がシステムの指摘に従って書き換えを進めることが可能になると考える.ただし,新たに担当する記者に,いかにやさしい日本語の知識を伝えるかが問題となる.知識の伝達に関して,過去に日本語教師が1名交代したことがある.新たに参加した日本語教師からは,用例を使ってニュースのやさしい日本語を学習したとのアンケートの回答があった.新しい日本語教師と同様に記者が過去の用例を使ってやさしい日本語を学習することは可能だろう. \section{おわりに} \label{sec:owari}本稿ではNHKのやさしい日本語のニュースのWebサイトNEWSWEBEASYの概要,やさしい日本語の書き換え原則を説明し,続いてやさしい日本語のニュースの制作の体制とプロセス,および制作を支援する書き換えエディタと読解補助情報エディタを報告した.書き換えエディタは日本語教師と記者という互いに異なる専門知識を持つ作業者が,専門性を相互補完しながらニュースをやさしい日本語に書き換えるエディタである.書き換えエディタには難しい語を指摘する機能があり,ユーザは難しい語の書き換え候補を日々の運用で蓄積された書き換え用例から検索することができる.読解補助情報エディタは漢字のふりがな,辞書付与のための語彙の難易度情報などを自動的に付与する機能を持つ.また自動付与した結果を人手で修正するとその結果を学習することができる.これらのエディタは日々の運用によって用例が蓄積され,学習が進むと性能が向上していく特徴を有している.また,2つのエディタのユーザである日本語教師と記者を対象に,使用頻度,有用性,満足度をアンケートで調査した結果,どちらのエディタも高い評価を得たことを報告した.またログ解析により表現が平易になっていること,平易化は個人によらず同じ程度あったことなどを報告した.\acknowledgment本研究を進めるにあたってご協力いただいたNEWSWEBEASYの制作を担当している記者OBおよび日本語教師の皆様,および,書き換えエディタ,および読解補助情報エディタを日々運用してNEWSWEBEASYのサービスを実施しているNHK報道局ネットワーク報道部の皆様に感謝します.また日頃より研究の進め方のご指導をいただく放送技術研究所ヒューマンインターフェース研究部岩城正和部長,議論していただく同部のみなさまに感謝します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\Elhadad}{Barzilay\BBA\Elhadad}{2003}]{Barzilay-Elhadad:2003:EMNLP}Barzilay,R.\BBACOMMA\\BBA\Elhadad,N.\BBOP2003\BBCP.\newblock\BBOQSentenceAlignmentforMonolingualComparableCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2003)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Bott\BBA\Saggion}{Bott\BBA\Saggion}{2012}]{Bott-Stefan:2012:ICCHP}Bott,S.\BBACOMMA\\BBA\Saggion,H.\BBOP2012\BBCP.\newblock\BBOQAutomaticSimplificationofSpanishTextfore-Accessibility.\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonComputersHelpingPeoplewithSpecialNeeds(ICCHP2012)},\mbox{\BPGS\527--534}.\bibitem[\protect\BCAY{Carroll,Minnen,Pearce,Canning,Devlin,\BBA\Tait}{Carrollet~al.}{2009}]{John-Carroll:1999:EACL}Carroll,J.,Minnen,G.,Pearce,D.,Canning,Y.,Devlin,S.,\BBA\Tait,J.\BBOP2009\BBCP.\newblock\BBOQSimplifyingTextforLanguage-ImpairedReaders.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL2009)},\mbox{\BPGS\269--270}.\bibitem[\protect\BCAY{Chandrasekar,Doran,\BBA\Srinivas}{Chandrasekaret~al.}{1996}]{chandrasekar-EtAl:1996:Coling96-Short}Chandrasekar,R.,Doran,C.,\BBA\Srinivas,B.\BBOP1996\BBCP.\newblock\BBOQMotivationsandMethodsforTextSimplification.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING1996),VolumeII},\mbox{\BPGS\1041--1044}.\bibitem[\protect\BCAY{Coster\BBA\Kauchak}{Coster\BBA\Kauchak}{2011}]{coster-kauchak:2011:ACL-HLT2011}Coster,W.\BBACOMMA\\BBA\Kauchak,D.\BBOP2011\BBCP.\newblock\BBOQSimpleEnglishWikipedia:ANewTextSimplificationTask.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\665--669}.\bibitem[\protect\BCAY{Goto,Tanaka,\BBA\Kumano}{Gotoet~al.}{2015}]{goto-tanaka-kumano:2015:MTSummit}Goto,I.,Tanaka,H.,\BBA\Kumano,T.\BBOP2015\BBCP.\newblock\BBOQJapaneseNewsSimplification:TaskDesign,DataSetConstruction,andAnalysisofSimplifiedText.\BBCQ\\newblockIn{\BemProceedingsofMTSummitXV},\lowercase{\BVOL}~1,\mbox{\BPGS\17--31}.\bibitem[\protect\BCAY{Hoard,Wojcik,\BBA\Holzhauser}{Hoardet~al.}{1992}]{hoardEtAl:book:1992}Hoard,J.~E.,Wojcik,R.,\BBA\Holzhauser,K.\BBOP1992\BBCP.\newblock\BBOQAnAutomatedGrammarandStyleCheckerforWritersofSimplifiedEnglish.\BBCQ\\newblockInHolt,P.~O.\BBACOMMA\\BBA\Williams,N.\BEDS,{\BemComputersandWritingStateoftheArt},\BCH~19,\mbox{\BPGS\278--296}.KluwerAcademicPublishers.\bibitem[\protect\BCAY{Inui,Fujita,Takahashi,\BBA\Iida}{Inuiet~al.}{2003}]{inui-kentaro:2003:PARAPHEASE2003}Inui,K.,Fujita,A.,Takahashi,T.,\BBA\Iida,R.\BBOP2003\BBCP.\newblock\BBOQTextSimplificationforReadingAssistance:AProjectNote.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing(PARAPHRASE2003)},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{庵}{庵}{2010}]{iori:Book:2010}庵功雄\JED\\BBOP2010\BBCP.\newblock\Jem{日本語これだけ!1}.\newblockココ出版.\bibitem[\protect\BCAY{庵}{庵}{2011}]{iori:Book:2011}庵功雄\JED\\BBOP2011\BBCP.\newblock\Jem{日本語これだけ!2}.\newblockココ出版.\bibitem[\protect\BCAY{庵}{庵}{2016}]{iori:book:2016}庵功雄\BBOP2016\BBCP.\newblock\Jem{やさしい日本語—多文化共生社会へ}.\newblock岩波新書.岩波書店.\bibitem[\protect\BCAY{庵\JBA岩田\JBA森}{庵\Jetal}{2009}]{IoriEtAL:kyouikuGakkai:2009}庵功雄\JBA岩田一成\JBA森篤嗣\BBOP2009\BBCP.\newblock「やさしい日本語」を用いた公文書の書き換え.\\newblock\Jem{2009年度日本語教育学会秋季大会},\mbox{\BPGS\135--140}.\bibitem[\protect\BCAY{伊藤\JBA鹿嶋\JBA前田\JBA水野\JBA御園生\JBA米田\JBA佐藤}{伊藤\Jetal}{2008}]{itoEtAl:denki:2008}伊藤彰則\JBA鹿嶋彰\JBA前田理佳子\JBA水野義道\JBA御園生保子\JBA米田正人\JBA佐藤和之\BBOP2008\BBCP.\newblock「やさしい日本語」作成支援システムの試作.\\newblock\Jem{平成20年度電気関係学会東北支部連合大会},\mbox{\BPG\209}.\bibitem[\protect\BCAY{岩田}{岩田}{2010}]{iwata:ShakaiGengo:2010}岩田一成\BBOP2010\BBCP.\newblock言語サービスにおける英語指向—「生活のための日本語調査:全国調査」結果と広島の事例から—.\\newblock\Jem{社会言語学},{\Bbf13}(1),\mbox{\BPGS\81--94}.\bibitem[\protect\BCAY{Jonnalagadda,Tari,Hakenberg,Baral,\BBA\Gonzalez}{Jonnalagaddaet~al.}{2009}]{jonnalagadda-EtAl:2009:NAACLHLT09-Short}Jonnalagadda,S.,Tari,L.,Hakenberg,J.,Baral,C.,\BBA\Gonzalez,G.\BBOP2009\BBCP.\newblock\BBOQTowardsEffectiveSentenceSimplificationforAutomaticProcessingofBiomedicalText.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{梶原\JBA山本}{梶原\JBA山本}{2015}]{kajiwara-yamamoto:JPSJ:2015}梶原智之\JBA山本和英\BBOP2015\BBCP.\newblock日本語の語彙平易化システムの構築.\\newblock\Jem{情報処理学会第77回全国大会},2\JVOL,\mbox{\BPGS\167--168}.\bibitem[\protect\BCAY{河原\JBA野山}{河原\JBA野山}{2007}]{kawahara:book:2007}河原俊昭\JBA野山広\BBOP2007\BBCP.\newblock\Jem{外国人住民への言語サービス}.\newblock明石書店.\bibitem[\protect\BCAY{国際交流基金\JBA日本国際教育協会}{国際交流基金\JBA日本国際教育協会}{2007}]{JLPT:book:1994}国際交流基金\JBA日本国際教育協会\BBOP2007\BBCP.\newblock\Jem{日本語能力試験出題基準改訂版}.\newblock凡人社.\bibitem[\protect\BCAY{Kuhn}{Kuhn}{2014}]{Kuhn:CL:2014}Kuhn,T.\BBOP2014\BBCP.\newblock\BBOQASurveyandClassificationofControlledNaturalLanguage.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf40}(1),\mbox{\BPGS\121--171}.\bibitem[\protect\BCAY{熊野\JBA後藤\JBA田中\JBA浦谷\JBA江原}{熊野\Jetal}{2001}]{kumanoEtAl:2001:IEICE}熊野正\JBA後藤功雄\JBA田中英輝\JBA浦谷則好\JBA江原暉将\BBOP2001\BBCP.\newblock翻訳用例提示システムの設計・開発・運用.\\newblock\Jem{電子情報通信学会},{\BbfJ84-D-II}(6),\mbox{\BPGS\1175--1184}.\bibitem[\protect\BCAY{熊野\JBA田中}{熊野\JBA田中}{2014}]{kumanoAndTanaka:ANLP:2014}熊野正\JBA田中英輝\BBOP2014\BBCP.\newblockDependentDirichletProcessを用いた日本語文書へのタグづけのオンライン学習.\\newblock\Jem{言語処理学会第20回年次大会},\mbox{\BPGS\1075--1078}.\bibitem[\protect\BCAY{熊野\JBA田中}{熊野\JBA田中}{2016}]{kumano-tanaka:2016:ANLP}熊野正\JBA田中英輝\BBOP2016\BBCP.\newblock統計機械翻訳によるやさしい日本語書き換えの性能向上.\\newblock\Jem{言語処理学会第22回年次大会},\mbox{\BPGS\713--716}.\bibitem[\protect\BCAY{松田}{松田}{2010}]{matsuda:2010:nihongoKyouiku}松田真希子\BBOP2010\BBCP.\newblockやさしい日本語への自動言い換えシステムの開発.\\newblock\Jem{2010年度日本語教育学会春季大会予稿集},\mbox{\BPGS\91--93}.\bibitem[\protect\BCAY{Mitamura\BBA\Nyberg}{Mitamura\BBA\Nyberg}{2001}]{mitamuraAndNyberg:NLPRS:2001}Mitamura,T.\BBACOMMA\\BBA\Nyberg,E.\BBOP2001\BBCP.\newblock\BBOQAutomaticRewritingforControlledLanguageTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheNLPRS2001WorkshoponAutomaticParaphrasing:TheoryandApplication},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Miwa,S{\ae}tre,Miyao,\BBA\Tsujii}{Miwaet~al.}{2010}]{miwa-EtAl:2010:PAPERS2}Miwa,M.,S{\ae}tre,R.,Miyao,Y.,\BBA\Tsujii,J.\BBOP2010\BBCP.\newblock\BBOQEntity-FocusedSentenceSimplificationforRelationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(COLING2010)},\mbox{\BPGS\788--796}.\bibitem[\protect\BCAY{Nelken\BBA\Shieber}{Nelken\BBA\Shieber}{2006}]{nelken-shieber:2006:EACL}Nelken,R.\BBACOMMA\\BBA\Shieber,S.~M.\BBOP2006\BBCP.\newblock\BBOQTowardsRobustContext-SensitiveSentenceAlignmentforMonolingualCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL2006)},\mbox{\BPGS\161--168}.\bibitem[\protect\BCAY{野本}{野本}{2016}]{nomoto:JPSJ_DC:2016}野本忠司\BBOP2016\BBCP.\newblockリーダビリティー研究の100年.\\newblock\Jem{情報処理学会研究会資料},2016-DC-101\JNUM,\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Pressman}{Pressman}{2005}]{SoftEng:book:2005}Pressman,R.~S.\BBOP2005\BBCP.\newblock\Jem{実践ソフトウエアエンジニアリング}.\newblock日科技連.\bibitem[\protect\BCAY{佐藤}{佐藤}{2004}]{SatoK:NihongoGaku:2004}佐藤和之\BBOP2004\BBCP.\newblock災害時の言語表現を考える.\\newblock\Jem{日本語学},{\Bbf23}(8),\mbox{\BPGS\34--45}.\bibitem[\protect\BCAY{Shardlow}{Shardlow}{2014}]{shardlow:2014:IJACSA}Shardlow,M.\BBOP2014\BBCP.\newblock\BBOQASurveyofAutomatedTextSimplification.\BBCQ\\newblock{\BemInternationalJournalofAdvancedComputerScienceandApplications(IJACSA),SpecialIssueonNaturalLanguageProcessing},\mbox{\BPGS\58--70}.\bibitem[\protect\BCAY{Siddharthan}{Siddharthan}{2002}]{siddharthan:2002:LEC}Siddharthan,A.\BBOP2002\BBCP.\newblock\BBOQAnArchitectureforaTextSimplificationSystem.\BBCQ\\newblockIn{\BemProceedingsoftheLanguageEngineeringConference2002(LEC2002)},\mbox{\BPGS\64--71}.\bibitem[\protect\BCAY{Siddharthan}{Siddharthan}{2003}]{siddharthan:2003:phd}Siddharthan,A.\BBOP2003\BBCP.\newblock{\BemSyntacticSimplificationandTextCohesion}.\newblockPh.{D.}dissertation,UniversityofCambridge.\bibitem[\protect\BCAY{Siddharthan}{Siddharthan}{2014}]{siddharthan:2014}Siddharthan,A.\BBOP2014\BBCP.\newblock\BBOQASurveyofResearchonTextSimplification.\BBCQ\\newblock{\BemInternationalJournalofAppliedLinguistics},{\Bbf165}(2),\mbox{\BPGS\259--298}.\bibitem[\protect\BCAY{田近}{田近}{2011}]{sanseidou:jisho:2011}田近洵一\JED\\BBOP2011\BBCP.\newblock\Jem{例解小学国語辞典第5版}.\newblock三省堂.\bibitem[\protect\BCAY{田中\JBA美野}{田中\JBA美野}{2010}]{tanaka-mino:2010:NL}田中英輝\JBA美野秀弥\BBOP2010\BBCP.\newblockやさしい日本語によるニュースの書き換え実験.\\newblock\Jem{情報処理学会研究会資料},2010-NL-199-9\JNUM,\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{田中\JBA美野}{田中\JBA美野}{2016}]{tanaka:IPSJpaper:2016}田中英輝\JBA美野秀弥\BBOP2016\BBCP.\newblockニュースのためのやさしい日本語とその外国人日本語学習者への効果.\\newblock\Jem{情報処理学会論文誌},{\Bbf57}(10),\mbox{\BPGS\2284--2297}.\bibitem[\protect\BCAY{田中}{田中}{2012}]{tanaka:HosoKenkyu:2012}田中伊式\BBOP2012\BBCP.\newblock「この事件は〜したものです」などの表現をめぐって.\\newblock\Jem{放送研究と調査},\mbox{\BPGS\72--82}.\bibitem[\protect\BCAY{Vickrey\BBA\Koller}{Vickrey\BBA\Koller}{2008}]{vickrey-koller:2008:ACLMain}Vickrey,D.\BBACOMMA\\BBA\Koller,D.\BBOP2008\BBCP.\newblock\BBOQSentenceSimplificationforSemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(ACL-08:HLT)},\mbox{\BPGS\344--352}.\bibitem[\protect\BCAY{Watanabe,Candido~Jr.,Uz\^{e}da,Fortes,Pardo,\BBA\Alu\'{i}sio}{Watanabeet~al.}{2009}]{watanabe-EtAl:2009:ACMSIGDOC}Watanabe,W.~M.,Candido~Jr.,A.,Uz\^{e}da,V.R.~d.,Fortes,R.P.d.~M.,Pardo,T.A.~S.,\BBA\Alu\'{i}sio,S.~M.\BBOP2009\BBCP.\newblock\BBOQFacilita:ReadingAssistanceforLow-literacyReaders.\BBCQ\\newblockIn{\BemSIGDOC'09Proceedingsofthe27thACMInternationalConferenceonDesignofCommunication},\mbox{\BPGS\29--36}.\bibitem[\protect\BCAY{米倉\JBA谷}{米倉\JBA谷}{2012}]{yonekura:housouKenkyuu:2012}米倉律\JBA谷正名\BBOP2012\BBCP.\newblock国内在住外国人のメディア環境とメディア行動—4国籍の外国人向け電話アンケート調査から—.\\newblock\Jem{放送研究と調査Aug.},\mbox{\BPGS\62--75}.\end{thebibliography}\begin{biography}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士課程修了.同年NHK入局,1987年放送技術研究所研究員.(株)国際電気通信基礎技術研究所(ATR)出向.同音声翻訳通信研究所主任研究員,音声言語コミュニケーション研究所室長を経て,現在,放送技術研究所ヒューマンインターフェース研究部上級研究員.テキストの平易化,機械翻訳などの自然言語処理の研究に従事.博士(工学).}\bioauthor{熊野正}{1993年東京工業大学工学部情報工学科卒業.1995年同大学院理工学研究科情報工学専攻修了.同年NHK入局.(株)国際電気通信基礎技術研究所(ATR)音声言語通信研究所および同音声言語コミュニケーション研究所出向を経て,現在,放送技術研究所ヒューマンインターフェース研究部主任研究員.自然言語処理・音声言語処理の研究開発に従事.}\bioauthor{後藤功雄}{1995年早稲田大学理工学部電気工学科卒業.1997年同大学院理工学研究科修士課程修了.2014年京都大学大学院情報学研究科博士課程修了.博士(情報学).1997年NHK入局,(株)国際電気通信基礎技術研究所(ATR)および国立研究開発法人情報通信研究機構出向を経て,現在,放送技術研究所ヒューマンインターフェース研究部にて自然言語処理の研究に従事.}\bioauthor{美野秀弥}{2002年東京工業大学情報理工学部計算工学科卒業.2004年同大学院情報理工学研究科修士課程修了.同年NHK入局,北見放送局,国立研究開発法人情報通信研究機構出向を経て,現在,放送技術研究所ヒューマンインターフェース研究部研究員.自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
V32N02-09
\section{はじめに} 文書を取り扱う際,文中の単語同士の関係だけでなく,文と文の意味的な繋がりも理解しながら処理を進めていく必要がある.このような文と文の意味的な繋がりは談話関係と呼ばれ,時には接続語によって明示的に表現されている.隣接する節,文などのテキストスパンの間にある談話関係を認識するタスクは談話関係認識(DiscourseRelationRecognition,DRR)と呼ばれ数多く研究されている.DRRでは,隣接するテキストスパンはArg1文,Arg2文と定義され,Arg1文とArg2文の間の談話関係を表現するラベルを推定する.DRRで使われるデータセットの一つであるPennDiscourseTreebank\cite{prasad-etal-2008-penn,Webber-pdtb-3}では,談話関係の意味を表現するために,トップレベルでは4種類,セカンドレベルでは20種類ほどの階層化された談話関係ラベルが定義されている.この談話関係ラベルは,接続語に注釈することで接続語の多義性解消ができ,文書を入力とする要約などの下流タスクの精度が改善することがわかっており,接続語と談話関係ラベル両方が文書を取り扱うタスクで重要であることがわかる\cite{li-etal-2014-assessing,meyer-popescu-belis-2012-using}.DRRの中でも,接続語が省略されているテキストスパン間の談話関係ラベルを推測するタスクは暗黙的な談話関係認識(ImplicitDiscourseRelationRecognition,IDRR)\cite{10.5555/1690219.1690241}と呼ばれ,これも多数研究されている.図\ref{intro_png}にIDRRの例を示す.IDRRでは接続語がテキストスパン間に存在しないため,テキスト同士の意味的関係を推測する必要があり,接続語が存在するときよりも推測が難しい.さらに,談話関係ラベルの種類が多くなるほど精度が下がることが知られている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig1\begin{figure}[b]\begin{center}\includegraphics{32-2ia8f01.eps}\end{center}\hangcaption{IDRRでは明示的な接続語が存在しないテキストスパン間(Arg1,Arg2)の談話関係を表現するラベル(Comparison.Concession)を予測する.本研究で提案するタスクISCRでは明示的な接続語が存在しないテキストスパン間(Arg1,Arg2)の談話関係を表現するラベル(Comparison.Concession)と接続語の組み合わせを予測する.}\label{intro_png}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%IDRRにおいて,特に難しいのが接続語の推定である\cite{DBLP:conf/aaai/WuCGLZS22}.接続語の種類は談話関係ラベルよりも多く,意味に曖昧さが含まれることもあることから,その推定精度はかなり低いことがわかっている.たとえ談話関係ラベルを推測できたとしても,談話関係ラベルは粗い談話関係のみを表現しているため,接続語が持つようなさらに細かい表現は不可能である.そして,談話関係ラベルと接続語は多対多の関係となっており,談話関係ラベルから一意に細かい意味を定めることはできない.例えば,表\ref{pdtb-label-list_intro}に示すExpansion.Instantiationという談話関係ラベルがアノテーションされる接続語にforexampleと\red{ontheonehand}がある.談話関係ラベルExpansion.Instantiationは,一方のテキストがある状況の説明をしているとき,他方のテキストがそれらの状況の1つ以上を説明する場合に使用されるため,談話関係ラベルの観点からするとどちらの接続語も同じ意味を持つと捉えられる.しかしながら,forexampleはある状況に即する例を示し,ontheonehandは別の例を示す接続語であり,細かい意味が異なる.このように同じ談話関係ラベルに属する接続語でも,それらの意味はそれぞれ異なっており,談話関係ラベルがこの細かな違いを表現することはできない.このような関係を持つことから,談話関係ラベルから接続語を一意に定めることはできない.実際,PDTB-3データセット\cite{Webber-pdtb-3}において,談話関係ラベルから接続語が一意に定めることができるものは21072サンプル中3サンプルほどしかなく,この談話関係ラベルと接続語の多対多の関係は一般的であることがわかる\footnote{付録にPDTB-3データセットにおける実際の数を記載している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table1\begin{table}\input{08table01.tex}%\hangcaption{PDTB-3データセットにおけるPDTB談話関係ラベルと接続語の例.複数の談話関係ラベルに対応する接続語は\textbf{太字}にしている.}\label{pdtb-label-list_intro}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%IDRRの先行研究において,接続語は談話関係ラベル推定の手掛かりとして使われることが多く,接続語そのものを推定することは重要視されていない.例えば,\citeA{jiang-etal-2023-global}の研究では,接続語と談話関係ラベルのセットを推定するものの,推定されうる接続語はあらかじめ決められている.\citeA{zhou-etal-2022-prompt-based}は,談話関係ラベルに最も対応する接続語のみを推定し,その接続語から談話関係ラベルを推定する手法を提案した.しかし,談話関係ラベルは,接続語に注釈を付けることで曖昧さを解消し,すべての談話関係を網羅的に表現することではじめて,翻訳などの下流タスクの精度向上に寄与する.したがって,談話関係ラベルだけでなく,より詳細な接続語も共に推定する必要がある.そこで本研究では,談話関係ラベルより詳細な談話関係の解析を目指して,談話関係ラベル付き接続語認識タスク(ImplicitSense-labeledConnectiveRecognition,ISCR)に取り組む.ISCRでは,テキストスパン間に暗黙的に存在する談話関係ラベルのみだけではなく接続語も予測する.このように談話関係ラベルと接続語両方を予測することで,談話関係ラベルと接続語の曖昧性を解消でき,より詳細な談話関係の解析が可能である.\red{また,ISCRはIDRRを拡張したタスクと捉えることができ,}IDRRと同様に分類タスクとして捉えることができる.しかし,クラス数は談話関係と接続語の組合せとなるため非常に多くなり,頻度のばらつきも大きくなる.よって,単純に分類器を適用するだけでは十分な性能が得られない.そこで,我々はISCRを分類タスクではなく,エンコーダモデルを使った生成タスクとして解くアプローチを採用した.\red{IDRRの代表的なデータセットである}PDTB-2,PDTB-3データセットを用いた実験結果から,従来の分類器を使うより,提案手法であるエンコーダ・モデルを使った生成手法がISCRの精度が向上することがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{暗黙的談話関係認識(ImplicitDiscourseRelationRecognition,IDRR)}Arg1文とArg2文の間にある談話関係を推測するタスクは談話関係認識(DRR)と呼ばれる.Arg1文とArg2文の間に明示的な接続語がある場合,95パーセント近くの高い精度で談話関係が推測可能である\cite{dai-huang-2019-regularization}.一方で,明示的な接続語がない場合,接続語から談話関係を推測することができずArg1文とArg2文の意味から談話関係を推測する必要があるため,難しいタスクとなる.これは暗黙的談話関係認識(IDRR)\cite{10.5555/1690219.1690241}と呼ばれ,盛んに研究が行われている.IDRRの標準的ベンチマークセットであるPDTB-2\cite{prasad-etal-2008-penn}とPDTB-3\cite{Webber-pdtb-3}では,談話関係ラベルは階層構造を持ち,3つのレベルを使って表現される.PDTB-2とPDTB-3では,セカンドレベルとサードレベルで定義されているラベルが異なっており,PDTB-3はPDTB-2と比べると希少な意味や注釈が難しい意味が削除され簡略化されている.PDTB-2データセット,PDTB-3データセットの両方において,トップレベル,セカンドレベルは談話関係の意味を表現しているが,サードレベルは談話関係のArg1文とArg2文の方向性を表現している.各レベルは`.'によって区切られて表現されている.例えば,談話関係ラベル`Comparison.Concession.Arg2-as-denier'の場合,トップレベルがComparison,セカンドレベルがConcession,サードレベルがArg2-as-denierである.また,データセットには,Arg1文とArg2文に挿入されうるであろう接続語も与えられている.IDRRの多くの研究では,セカンドレベルまでの談話関係ラベルを当てることに注力しており,接続語は談話関係ラベルを推定するために使われることが多い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{分類器を使うIDRR}多くの先行研究では,IDRRを,Arg1文とArg2文の談話関係を事前定義された談話関係ラベルセットから選択する文書分類問題として扱っている.特に,RoBERTaモデル\cite{liu2020roberta}などの事前学習済みの大規模言語モデルにArg1文とArg2文を入力し,談話関係ラベルを分類するためにfine-tuningを行うアプローチが,広く採用されている\cite{shi-demberg-2019-next,ijcai2020p530,xiang-etal-2022-encoding,long-webber-2022-facilitating}.\citeA{shi-demberg-2019-next}は大規模言語モデルBERT\cite{devlin-etal-2019-bert}のnextsentencerepresentaionタスクを利用する手法を提案した.%https://aclanthology.org/D19-1586/\citeA{xiang-etal-2022-encoding}はInter-AttentionとOffsetMatrixNetworkをRoBERTaモデルに組み込むことで,Arg1文とArg2文の間で繋がりを持つ機能語を学習する手法を提案した.\citeA{long-webber-2022-facilitating}は,負例を談話関係ラベルの階層に基づいて生成し,対照学習を行う手法を提案した.ただし,これらの手法では,談話関係ラベルがトップからセカンドになり予測するクラス数が多くなるとデータが不均衡となり分類器の性能が低下するという課題がある.\subsubsection{接続語推測を行うIDRR}接続語が文間に存在する明示的談話関係認識は,ある接続語に対応する談話関係ラベルを選択するという,接続語に特化した語義曖昧性解消タスクと捉えることもでき,比較的簡単なタスクとなる.このことから,接続語は談話関係ラベルを推測する上で非常に有効であると考えられる.さらに,Arg1とArg2の間に挿入すべき接続語をいくつかの候補の中から選択することは,現在のエンコーダ・デコーダモデルにとって比較的簡単なタスクである.よって,エンコーダ・デコーダで接続語を生成または選択した後,生成した擬似接続語を使って談話ラベルを推定するアプローチが提案されている.\citeA{kishimoto-etal-2020-adapting}は,BERTのfine-tuning時にArg1文とArg2文から明示的な接続語予測を行うよう学習し,その後暗黙的な接続語予測を行うよう学習することで談話関係ラベルを推定する手法を提案した.\citeA{zhou-etal-2022-prompt-based}は,エンコーダ・デコーダではなく,prompt-tuning\cite{lester-etal-2021-power}を使い接続語予測をし,その後接続語から談話関係を分類器によって推測する手法を提案した.\citeA{chan2023discoprompt}は,IDRRをPDTB談話関係ラベルの階層構造のパスを予測する問題として捉え,Prompt-tuningを使い事前に選ばれた接続語予測と階層構造のパスを予測する手法DiscoPromptを提案した.\citeA{jiang-etal-2023-global}は,マルチタスク学習と対比学習により,接続語も含んだ階層的な談話関係表現を学習する手法を提案した.\citeA{liu-strube-2023-annotation}は,Arg1文とArg2文を\texttt{<MASK>}トークンで連結した文を入力し,\texttt{<MASK>}トークンに入る接続語を予測した.\red{この時,各談話関係ラベルを代表した意味を持つような接続語が}事前に100種類程度に選定されている.その後,Arg1文\red{,}接続語\red{,}Arg2文を連結し,\red{擬似的な,明示的談話関係認識(ExplicitDiscourseRelationRecognition,EDRR)タスク}として談話関係ラベルを推定する方法を提案した.\red{EDRRタスクでは,接続語が明示的に含まれるため談話関係ラベルの推定性能はIDRRと比較すると高くなる傾向にある.}よって,このように擬似的に生成した接続語をIDRRで使う手法は有効である.一方で,どの手法も談話関係ラベルの推定は分類器に依存しており,ラベル数が多くなったときに性能が低下するという課題がある.さらに,擬似的接続語を利用する手法では,ラベルを一意に決定する接続語の候補をあらかじめ選定し,それを予測するよう学習する.そのためあらかじめ指定された擬似的な接続語しか推定しておらず,あくまで接続語は談話関係ラベルの推定のために使われている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{マルチレベルIDRR(Multi-levelImplicitDiscourseRelationRecognition)}提案するISCRと似たタスクにマルチレベルIDRRが挙げられる.通常のIDRRでは,セカンドレベルの談話関係ラベルの推測しか行わないのに対し,マルチレベルIDRRでは,接続語の予測までも行う\cite{DBLP:conf/aaai/WuCGLZS22,zhao-etal-2023-infusing,zeng-etal-2024-global}.\citeA{DBLP:conf/aaai/WuCGLZS22}は,マルチレベルIDRRを,条件付きラベルシーケンス生成タスクと見なし,ラベル依存関係を考慮したシーケンス生成モデルを提案した.\citeA{zhao-etal-2023-infusing}や\citeA{zeng-etal-2024-global}は,prompt-tuningを使った手法を提案した.しかし,マルチレベルIDRRでは,談話関係ラベルと接続語は独立に評価されており,談話関係ラベルと接続語の組み合わせのパターンが一致していたかどうかは評価されない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エンコーダ・デコーダモデルを使ったクラス分類}IDRRやテキスト分類など文を分類するタスクでは,事前学習済みエンコーダモデルが出力した先頭トークンを線形層を使って談話関係ラベルに分類する手法が多く提案されている.しかしながら,ラベル数が多くデータの頻度に偏りがある不均衡データにおいて,分類器は精度が下がることが一般的に知られている.不均衡データを使った分類問題を解くために,エンコーダ・デコーダモデルを活用する手法が提案されている\cite{DBLP:journals/corr/abs-1812-05774,kwon-etal-2023-hierarchical,DBLP:conf/aaai/WuCGLZS22}.これらの研究では,分類器でラベルを分類するのではなく,事前学習済みエンコーダ・デコーダでラベル系列を生成する.事前学習済みエンコーダ・デコーダを用いると,事前学習に利用したデータセットにクラスラベルが含まれる可能性があるため,分類の学習データに存在しない,あるいは件数が少ないラベルも推定できる.\citeA{kwon-etal-2023-hierarchical}は,階層的なテキスト分類タスクに対して,ラベル階層と未知のラベルを明示的に捉える生成ベースの手法を提案した.IDRRタスクでは,\citeA{DBLP:conf/aaai/WuCGLZS22}が談話関係ラベルと接続語を連結した系列のみを制約付きで予測する手法を提案した.この手法においても接続語を含む順序を予測するが,接続語は談話関係を予測する際の補助的な役割に過ぎず,接続語の予測に重点を置いていない.この様に階層的なラベルが定義されているテキスト分類タスクや,IDRRのラベルは,根から葉へと階層的に繋がっていくように定義されているため,自己回帰型の生成モデルと相性が良く,分類器ではなく生成モデルを使うことは有効である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{談話関係ラベル付き接続語認識} 本研究では,テキストスパン間に暗黙的に存在する談話関係ラベルと接続語両方を予測するタスク,談話関係ラベル付き接続語認識タスク(ImplicitSense-labeledConnectiveRecognition,ISCR)を提案する.図\ref{proposed_task_png}にISCRの概要を示す.談話関係ラベル付き接続語は,接続語の後ろに談話関係ラベルを連結させたものとなる.図\ref{proposed_task_png}の例では,談話関係ラベル付き接続語は``however(Comparison.Consession)''となる.ISCRでは接続語の候補を絞らないため,レアケースな接続語と談話関係ラベルの組み合わせが多数存在し,不均衡データかつ多クラスとなり,通常の分類器で推測することは難しい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig2\begin{figure}[b]\begin{center}\includegraphics{32-2ia8f02.eps}\end{center}\hangcaption{ISCRでは明示的な接続語が存在しないテキストスパン間(Arg1,Arg2)に挿入されうるであろう接続語(however)と談話関係ラベル(Comparison.Concession)を予測する.}\label{proposed_task_png}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{DBLP:journals/corr/abs-1812-05774,kwon-etal-2023-hierarchical}は分類タスクをテキスト生成タスクとして解くことで多クラス,かつ,ラベル間で関係を持つラベルで性能が改善することを報告した.ISCRで予測する接続語とPDTB談話関係ラベルは互いに関係を持つため,生成タスクとして解くことは有効であると考えられる.そこで,通常の分類器に加えて,エンコーダ・デコーダモデルを用いた生成法として図\ref{proposed_method_png}に示す2つの方法を試す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig3\begin{figure}[b]\begin{center}\includegraphics{32-2ia8f03.eps}\end{center}\hangcaption{エンコーダ・デコーダモデルを用いた生成法.connが接続語,PDTBlabelが談話関係ラベルである.実際は,接続語,談話関係ラベルともにトークナイズされるため,それぞれ1トークンとはならず複数トークンとなる.}\label{proposed_method_png}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分類器}事前学習済みのエンコーダモデルを使用し,Arg1文とArg2文を\texttt{<MASK>}トークンで接続した文を入力として,談話関係ラベルを分類するモデルを学習する.また,接続語についても同様に学習を行う.ISCRタスクにおけるラベルの組み合わせは多岐にわたり,分類問題としては難易度が高いため,それぞれを独立に分類することで,問題の複雑さを軽減する必要がある.したがって,談話関係ラベルを分類する分類器と接続語を分類する分類器は,それぞれ独立に学習を行うこととする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{目的関数}接続語を分類する分類器,談話関係ラベルを分類する分類器の両方において,目的関数としてクロスエントロピー損失を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%式1\begin{equation}\mathcal{L}=-\sum_{i=1}^{N}\sum_{c=1}^{C}y_{i,c}\log\hat{y}_{i,c}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%$N$はサンプル数,$C$はクラス数を表す.また,$y_{i,c}$はサンプル$i$のクラス$c$に対応する正解ラベルである.$\hat{y}_{i,c}$はモデルが出力したクラス$c$に対する確率である.\red{モデルが出力したクラス$c$に対する確率は以下のsoftmax関数を通じて次のように計算される.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%式2\begin{equation}\hat{y}_{i,c}=\frac{\exp(z_{i,c})}{\sum_{j=1}^{C}\exp(z_{i,j})}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%$z_{i,c}$はエンコーダモデルが出力したサンプル$i$に対するクラス$c$のスコアであり,softmax関数によって各クラスの確率分布へと変換される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト生成}Arg1文とArg2文を考慮して生成することを目的として,談話関係ラベル付き接続語を挟んで出力するよう,事前学習済みエンコーダ・デコーダモデルを使って学習する.\red{PDTBの特徴として,隣接するテキストスパン間の談話関係を表現することが挙げられる.この特徴に基づけば,接続語は通常,Arg1文とArg2文の間に配置されるのが自然であり,先行研究でもこのような配置で入力や生成を行っている\cite{xiang-etal-2022-connprompt,chan2023discoprompt}.よって,本手法でも,入力はArg1文とArg2文を\texttt{<MASK>}トークンで接続したものとし,出力でもArg1文とArg2文の間に談話関係ラベルと接続語を挿入した文を生成するよう学習を行なった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{目的関数}ラベル生成と同様,モデルの目的関数はクロスエントロピー損失を採用した.入力系列$x$はArg1文とArg2文を\texttt{<MASK>}トークンで接続した文である.一方で,出力系列$y$は,ラベル生成と異なり,Arg1文とArg2文の間に談話関係ラベルと接続語を挿入した文となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{サンプリング}サンプリング手法では,ラベル生成と同様,GreedyDecoding(貪欲法)を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ラベル生成}\citeA{DBLP:journals/corr/abs-1812-05774,kwon-etal-2023-hierarchical}に倣って,談話関係ラベル付き接続語のみを生成するよう,事前学習済みエンコーダ・デコーダモデルを使って学習する.\red{PDTBの特徴として,隣接するテキストスパン間の談話関係を表現することが挙げられる.この特徴に基づけば,接続語は通常,Arg1文とArg2文の間に配置されるのが自然であり,先行研究でもこのような配置で入力や生成を行っている\cite{xiang-etal-2022-connprompt,chan2023discoprompt}.よって,本手法では,入力はArg1文とArg2文を\texttt{<MASK>}トークンで接続したものを採用した.}この形は\texttt{<MASK>}トークンに挿入されうるトークンを推測する穴埋めタスクと同様と考えられる.T5\cite{2020T5}のような学習済み大規模言語モデルは穴埋めタスクを事前学習しているため,大規模言語モデルが生成しやすいタスクである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{目的関数}エンコーダデコーダモデルにおいて,入力系列$x$から出力系列$y=(y_1,y_2,\dots,y_T)$を生成する.この時入力系列$x$はArg1文とArg2文を\texttt{<MASK>}トークンで接続した文であり,出力系列$y$は談話関係ラベルと接続語である.モデルの出力は,各時刻$t$における次の単語の確率分布$P(y_t\midy_{<t},x)$である.モデルの目的関数はクロスエントロピー損失を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%式3\begin{equation}\mathcal{L}=-\sum_{t=1}^{T}\logP(y_t\midy_{<t},x)\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ここで,$T$は出力系列の長さを表す.$y_{<t}$は時刻$t$より前の全ての出力トークンを指す.\paragraph{サンプリング}生成時のサンプリングには各ステップで最も確率の高いトークンを選択するGreedyDecoding(貪欲法)を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\red{ISCRとIDRRの違い}}\red{提案タスクISCRはIDRRを拡張したタスクと捉えることができる.表\ref{tab:idrr_mult_iscr}にそれぞれのタスクの違いを示す.全てのタスクにおいて,Arg1文とArg2文が入力として与えられる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table2\begin{table}[b]\input{08table02.tex}%\hangcaption{\red{IDRR,マルチレベルIDRR,ISCRの違い.入力はすべて隣接するテキストArg1文とArg2文である.}}\label{tab:idrr_mult_iscr}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\red{IDRRでは,Arg1文とArg2文から談話関係ラベルを推定することが主目的である.接続語を同時に推定する手法も存在するが,IDRRでは最終的に談話関係ラベルの推定を重視している.そのため,接続語は談話関係ラベルの推定を補助するための手段として使用されるに留まる.この結果,IDRRで推定される接続語は限定的であり,各談話関係ラベルを代表する接続語(擬似的な接続語)が使用される.}\red{マルチラベルIDRRでは,談話関係ラベルだけでなく,Arg1文とArg2文の間に挿入可能な接続語も推定する.この接続語の推定は,各談話関係ラベルを代表するものではなく,文脈に応じた自然な接続語の推定を目的としている.接続語を推定することで,文書を扱う下流タスクの精度向上が期待される.しかし,談話関係ラベルの推定精度と接続語の推定精度は独立に評価されており,接続語の曖昧性解消には十分寄与していない.}\red{ISCRでは,談話関係ラベルと接続語の両方に加え,その組み合わせも推定する.両者を同時に推定することで,接続語の細かな意味まで捉えることが可能となり,接続語の曖昧性が解消される.これにより,下流タスクの精度向上が一層期待できる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{main}既存手法である分類器とラベル生成,提案手法であるテキスト生成,それぞれの手法の有効性を検証した.さらに,談話関係ラベルがどれほどISCRの精度に影響を及ぼすのかを検証するため,トップレベルの談話関係ラベル付き接続語を予測するトップレベルISCR,セカンドレベルまでの談話関係ラベル付き接続語を予測するセカンドレベルISCR,両方で検証した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データセット}IDRRの標準的ベンチマークセットであるPennDiscourseTreeBankversion2.0(PDTB-2)\cite{prasad-etal-2008-penn},PennDiscourseTreeBankversion3.0(PDTB-3)\cite{Webber-pdtb-3}\footnote{\url{https://catalog.ldc.upenn.edu/LDC2019T05}}を使用して性能評価を行った.両データセットはWallStreetJournalに談話関係をアノテーションしたデータセットであり,3階層の構造を持つラベルで談話関係が表現されるが,IDRRに倣いISCRでもセカンドレベルまでのラベルを用いた.また,接続語はアノテータが与えた接続語を用いた.これはメタデータとしてデータセットにあらかじめ添付されている.IDRRの先行研究\cite{ji-eisenstein-2015-one,kim-etal-2020-implicit,long-webber-2022-facilitating}に倣い,\citeA{ji-eisenstein-2015-one}の分割法\footnote{\url{https://github.com/najoungkim/pdtb3}}を用いて訓練にはセクション2--20,開発にはセクション0--1,テストにはセクション21--22を用いた.\citeA{long-webber-2022-facilitating}に倣い,PDTB-3セカンドレベルの実験ではPDTB-2と共通しているラベル14種類のみを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実装}ベースラインとして,従来の分類器を使う手法についても実験を行った.分類器で接続語,PDTB談話関係ラベルをそれぞれ推定し,その組み合わせを評価する.分類器においても,テキスト生成・ラベル生成と同様,Arg1文とArg2文を\texttt{<MASK>}トークンで接続したものを入力とした.分類器のエンコーダ,テキスト生成,ラベル生成のエンコーダ・デコーダにはT5\cite{2020T5}を用いた.モデルサイズはbase\footnote{\url{https://huggingface.co/google-t5/t5-base}},large\footnote{\url{https://huggingface.co/google-t5/t5-large}},11b\footnote{\url{https://huggingface.co/google-t5/t5-11b}}の3つを用いた.実装にはTransformers\cite{wolf-etal-2020-transformers}を用いた.また,11bのfine-tuning時のメモリ削減・学習パラメータ数の削減のためにQLoRA\cite{dettmers2023qlora}\footnote{\url{https://github.com/artidoro/qlora}}を用いた.QLoRAは,一部のパラメータのみを学習させることで低コストでの追加学習を可能にするLoRA\cite{hu2022lora}に,量子化とページ最適化を加えた手法であり,LoRAよりもさらに低コストでの追加学習が可能となる.\red{QLoRAのターゲットモジュールは$[q,k,v,o]$とし,全ての線形層を対象にして学習を行なった.}表\ref{parameter}にその他の学習パラメータ,QLoRAのパラメータの詳細を示す.最適化にはRAdam\cite{Liu2020On}を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table3\begin{table}\input{08table03.tex}\caption{パラメータ設定}\label{parameter}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ラベル}ISCRとIDRRのラベル数を表\ref{dataset_label}に示す\footnote{IDRR,ISCRのラベル一覧は付録を参照.}.全体のラベル数はトップレベル,セカンドレベルともに多くなっている.さらに,表\ref{dataset_label_imbalance}に,\citeA{Cui_2019_CVPR}が定義したデータセットの不均衡を表現する不均衡係数を示す.不均衡係数は,最大クラスの訓練サンプル数を,最小クラスの訓練サンプル数で割った値であり,この不均衡係数が大きいほどデータセットの不均衡度合いは大きい.そして,この不均衡係数が大きいほど,正答率が下がることがわかっている\cite{Cui_2019_CVPR}.IDRRのトップレベルでは不均衡係数はPDTB-2,PDTB-3ともに10以下であり,セカンドレベルでは30程度である.接続語では,不均衡係数の値は大きくなり,トップレベル,セカンドレベルと比べると不均衡度合いは大きいことがわかる.一方で,ISCRの不均衡係数は,トップレベル,セカンドレベルともに1000を超えており,ISCRのラベルはIDRRよりも不均衡度合いが大きいことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table4\begin{table}[t]\input{08table04.tex}%\hangcaption{PDTB-2データセットとPDTB-3データセットのクラス数.各データに存在しないラベルや接続語があるため,Train,valid,testそれぞれのクラス数を示している.}\label{dataset_label}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table5\begin{table}[t]\input{08table05.tex}%\hangcaption{PDTB-2データセットとPDTB-3データセットの不均衡係数.不均衡係数が大きいほど不均衡度合いが大きい.}\label{dataset_label_imbalance}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価指標}IDRRでは,クラス分類の評価指標として一般的に用いられるAccuracyとMacroF1が利用される.ISCRではIDRRよりもラベル数が増え,データの不均一性もより強調される.よって,各ラベルのインスタンス数の平均F1値であるMacroF1ではなく,各ラベルのインスタンス数で重み付けした平均のF1値であるWeightedF1でも評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{result_iscr_2}にPDTB-2データセットとPDTB-3データセットにおけるISCRの実験結果を示す.まず,全体のスコアは低く,ISCRはIDRRと比較すると難しいタスクであることがわかる.また,ISCRではトップレベルとセカンドレベルの各スコアの差が小さかった.通常,IDRRではクラス数の違いからトップレベルとセカンドレベルで10ほどのスコアの差が生まれる\cite{chan2023discoprompt,jiang-etal-2023-global,liu-strube-2023-annotation}が,ISCRではモデルサイズが大きくなるにつれ,スコアの差は小さくなっていった.例えば,PDTB-3データセットのT5-11bのテキスト生成法では,トップレベルでAccuracyが45.65であるのに対し,セカンドレベルでは43.82であり,1.83の差しかない.分類器やラベル生成法でも,同様の傾向が見られた.ISCRでは,トップレベルでもセカンドレベルでも300以上のラベル数を推測する難しいタスクとなるため,両レベルでのスコアの差が小さくなったと考えられる.このことから談話関係ラベルの粒度の違いはISCRに大きな影響を与えないことがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table6\begin{table}[t]\input{08table06.tex}%\hangcaption{談話関係ラベル付き接続語を予測するISCRでの実験結果.すべてのモデルで最も良かったスコアを\textbf{太字}にしている.\red{AccはAccuracy,W-F1はWeighted-F1を指す.}}\label{result_iscr_2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,ISCRではラベル生成もしくはテキスト生成が有効であることがわかった.PDTB-2データセットの実験ではT5-11bを使ったラベル生成法が最も有効であった.テキスト生成法はラベル生成法ほどの性能はないものの,分類器と比較すると有効であることがわかった.モデルサイズ毎に比較すると,T5-baseではT5-11bと同様にラベル生成法が最も有効であったが,T5-largeではテキスト生成法が最も有効であった.分類器はすべてのモデルサイズにおいて最も性能が低かった.以上の実験結果から,ISCRには,分類器よりテキスト生成法またはラベル生成法といった生成手法が有効であることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラス数}本実験では,テキスト生成法,ラベル生成法ともに,特定の単語を出力するような制約は与えていない.接続語と談話関係ラベルの関係性を捉えていない場合,データセット中に存在しないラベルや単語を生成する可能性があり,そのようなラベルを生成するほど性能は下がる可能性がある.\red{そこで,各手法が予測したラベルのうち,データセット中に存在するラベルのクラス数(正解クラス数)と,データセット中に存在しないラベルのクラス数(誤りクラス数)を表\ref{tab:label_num}に示す.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table7\begin{table}[b]\input{08table07.tex}\hangcaption{ISCRにおける\red{Train,Dev,Test全セットに存在するクラス数(正解クラス数)と,各手法が予測したクラス数.「正」はデータセット中に存在するラベルのクラス数,「誤」はデータセット中に存在しないラベルのクラス数である.クラス数とは,データセット内で登場する一意な正解ラベルの総数を指し,「正」のクラス数と「誤」のクラス数の総数が正解クラス数の数に一致するとは限らない.}}\label{tab:label_num}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%予測結果において,データセットやレベルに関係なく,分類器が最も多くのクラスを正しく予測した.一方で,誤ったクラスを予測するのも分類器が最も多く,特にセカンドレベルでは誤予測の数がさらに増加した.\red{よって,分類器は正しいラベルの組み合わせに基づいて予測しているのではなく,無作為に推定しているに過ぎないことが示される.}この原因として,分類器が接続語と談話関係ラベルをそれぞれ独立して分類していることが挙げられると考えられる.一方で,テキスト生成モデルとラベル生成モデルも誤ったクラスを予測するが,その数は分類器よりも少なく,\red{無作為に推定している可能性は低い.}分類器と比較すると,生成モデルは接続語と談話関係ラベルの関連性を捉えられていることが示唆される.これらの結果から,ISCRというタスクにおいては,分類器よりも生成手法の方が適していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分類器の限界}本実験では,%統一してT5モデルを使用して検証を行った.しかし,T5はエンコーダ・デコーダモデルであり,エンコーダのみを使った分類タスクにおいてはやや性能が劣る傾向がある.そこで,SQuAD\cite{rajpurkar-etal-2016-squad}やGLUEベンチマーク\cite{wang-etal-2018-glue}においてT5モデルと比べて高い性能を示すDeBERTa-v2モデル\cite{he2021deberta}を用いた比較実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}実験設定は節\ref{main}と同じであり,談話関係ラベルと接続語はそれぞれ独立に分類される.モデルサイズはdeberta-v2-xxlarge\footnote{\url{https://huggingface.co/microsoft/deberta-v2-xxlarge}}を用いた.\red{モデルサイズを拡大したことにより性能が向上し,Macro-F1スコアの安定化が期待されるため,追加でMacro-F1による評価も実施した.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}実験結果を表\ref{result_iscr_2_deb}に示す.T5のエンコーダを用いた分類器と比較すると,DeBERTa-v2モデルを使用した分類器はトップレベルおよびセカンドレベルの両方でWeighted-F1スコアが向上した.特にセカンドレベルのWeighted-F1スコアが大幅に改善され,T5モデルの分類器と比較して談話関係ラベルの推定精度が向上したと考えられる.しかし,生成モデルの性能には及ばず,生成手法の方がより有効であることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table8\begin{table}[b]\input{08table08.tex}\hangcaption{談話関係ラベル付き接続語を予測するISCRでの上限を調べた実験結果.すべてのモデルで最も良かったスコアを\textbf{太字}にしている.\red{AccはAccuracy,W-F1はWeighted-F1,M-F1はMacro-F1を指す.}}\label{result_iscr_2_deb}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\red{件数が少ないラベルでの評価}}\red{テキスト分類などのタスクでは,事前学習済みエンコーダ・デコーダを用いることで,分類の学習データに存在しないあるいは件数が少ないラベルも推定できることが知られている\cite{DBLP:journals/corr/abs-1812-05774,kwon-etal-2023-hierarchical,DBLP:conf/aaai/WuCGLZS22}.そこで,この特性がISCRにおいても成り立つかを確認するため,件数が少ないラベルでの評価を行なった.}\red{PDTB-3データセットのテストセットにおいて,件数が10件以下のラベルを「件数が少ないラベル」と定義し,これらのラベルに限定したデータでMacro-F1スコアを測定した.表\ref{result_iscr_2_deb_minor2}にラベル一覧とその件数を示す.テストセットにおいて,トップレベルでは全99個のラベル中71個,セカンドレベルでは全133個のラベル中104個が件数の少ないラベルに該当した.さらに,テストセット全1474件のサンプルのうち,トップレベルでは1474件中226件,セカンドレベルでは1474件中286件が件数の少ないラベルを持つサンプルであった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table9\begin{table}\input{08table09.tex}%\hangcaption{\red{ISCRタスクにおいて,PDTB-3データセットのテストセットにおける件数が10件以下のラベルとその件数.}}\label{result_iscr_2_deb_minor2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{\red{評価結果}}\red{レアなラベルの推定は比較的困難であるため,モデルサイズが比較的大きいT5-11b,deverta-v2-xxlargeを用いて検証を行った.表\ref{result_iscr_2_deb_minor}に件数が10件以下のラベルに限定したデータにおけるMacro-F1スコアを示す.どの手法においても性能が低く,特にT5-11bの分類器が最も性能が低かった.分類器同士の比較では,deberta-v2-xxlargeモデルはT5-11bモデルより性能が良いことがわかる.しかし,テキスト生成やラベル生成ほどの性能はない.したがって,ISCRタスクにおいても,事前学習済みエンコーダ・デコーダを用いることで,分類の学習データに存在しないあるいは件数が少ないラベルも推定できることがわかった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table10\begin{table}\input{08table10.tex}%\hangcaption{\red{ISCRタスクにおいて,PDTB-3データセットのテストセットにおける件数が10件以下のラベルのみを選択し,そのMacro-F1スコアを測定した結果の一覧.ラベルとその件数は表\ref{class_num}に記載.}}\label{result_iscr_2_deb_minor}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\red{ISCRタスクに影響を与える要因}}\red{ISCRタスクの精度に影響を与える要因が談話関係ラベルと接続語のどちらかを明確にするため,ISCRの実験で比較した手法をIDRRタスクにも適用し,その性能を評価・確認する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価設定}\red{ISCRで比較した3つの手法が生成した談話関係ラベルと接続語の組み合わせを,IDRRのトップレベル,セカンドレベル,および接続語の3つに分割し,それぞれの予測性能を評価した.なお,接続語はISCRのトップレベルの談話関係ラベルと接続語の組み合わせとセカンドレベルの談話関係ラベルと接続語の組み合わせ両方に含まれるが,本研究ではセカンドレベルで推測された接続語のみを評価対象とした}\footnote{\citeA{jiang-etal-2023-global}の実験はデータセットのサンプル数が一致しないため本実験では比較しない.}.さらに,マルチレベルIDRRの手法\cite{DBLP:conf/aaai/WuCGLZS22,zhao-etal-2023-infusing,zeng-etal-2024-global}とセカンドレベルまでのIDRRの手法\cite{long-webber-2022-facilitating,liu-strube-2023-annotation}についても\red{IDRRタスクにおける比較対象に追加する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table11位置注意\begin{table}[b]\input{08table11.tex}%\hangcaption{\red{ISCR実験で学習したモデルをIDRRタスクでも評価した}実験結果.\red{AccはAccuracy,M-F1はMacro-F1を指す.}}\label{result_idrr_2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価結果}表\ref{result_idrr_2}にIDRRタスクにおける評価結果を示す.RoBERTa分類器とT5分類器の比較において,baseサイズでは両者の精度はほぼ同等であった.このことから,RoBERTaをT5に置き換えて生成法を適用した場合でも,同様の精度が得られると推測される.baseおよびlargeサイズにおいて,トップレベルとセカンドレベルの分類タスクでは,分類器が優位な場合もあったが,接続語予測においては生成法が優れていた.また,同じbaseサイズのモデルを用いた先行研究と比較した場合,談話関係ラベルの予測では生成法は先行研究を下回ったが,接続語予測では優位性が確認された.一方,T5-11bサイズにおいては,PDTB-2およびPDTB-3のデータセットにおける全レベルで生成法が先行研究を上回り,モデルサイズを大きくすることで精度向上が期待できることが示された.同じ11bサイズで分類器と比較した場合,生成法がより効果的であることも明らかとなった.これらの結果から,モデルサイズが小さく,かつ予測するラベルの粒度が粗い場合には分類器が有効である一方,接続語などの細かい粒度の予測には生成法が優れていることがわかった.さらに,分類器と比較して生成法は接続語予測が得意であり,談話関係ラベルの予測精度も同等である.%%%%Table11\red{ISCRとの精度(表\ref{result_iscr_2})と比較すると,IDRRタスクのトップレベルおよびセカンドレベルの精度はISCRタスクの精度を大きく上回っている.一方で,IDRRの接続語予測タスクの精度はISCRのよりもわずかに上回る結果となった.ISCRタスクでは,複数の接続語が同一の談話関係ラベルを表す可能性があり,接続語の曖昧性が精度の低下に寄与していると考えられる.このことから,ISCRの精度に影響を与える要因は接続語予測精度である可能性が高い.さらに,T5-11bのような大規模モデルを用いてIDRRのトップレベルとセカンドレベルでSOTAに匹敵する精度が得られた場合でも,ISCRタスクや接続語予測の精度(Accuracy)は50\%に達していない.この結果は,接続語単体を推定するIDRRよりも,適切な接続語と談話関係ラベルの組み合わせを同時に推定するISCRの方が難易度が高いことを示唆している.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では,隣接するテキストスパン間の接続語と,それに対応する談話関係ラベルを同時に識別するタスク,談話関係ラベル付き接続語認識(ImplicitSense-labeledConnectiveRecognition,ISCR)を提案した.マルチレベルIDRRでは,接続語と談話関係ラベルとそれぞれ独立して評価するが,ISCRでは接続語と談話関係ラベルの組み合わせを評価する.ISCRは分類タスクとして扱うことが可能であるが,クラス数の多さやクラス間のインスタンス分布の不均衡といった課題により,従来の分類器には限界があることが確認された.そのため,テキスト生成やラベル生成といった生成手法が有効であることが示された.ISCRタスクの評価結果から,生成法は接続語の予測において優位性を持ち,談話関係ラベルの予測においても分類器と同程度の精度を示すことがわかった.\red{本研究では,エンコーダのみを利用した分類器を検証した.しかし,Llamaモデル\cite{touvron2023llamaopenefficientfoundation}やGemmaモデル\cite{gemmateam2024gemmaopenmodelsbased},Qwenモデル\cite{bai2023qwentechnicalreport}などの事前学習済み大規模デコーダオンリーモデルを活用した分類器も一つの選択肢となる.しかしながら,依然として談話構造認識のタスクではエンコーダオンリーのモデルを使う手法またはエンコーダとデコーダを組み合わせたモデルの提案が多く,デコーダのみを用いた分類モデルに関する手法は未だ確立されていない.その主な理由として,デコーダは本来,系列生成を目的とした構造であり,IDRRタスクのような固定長の出力を求める問題には適さないと考えられてきたことが挙げられる.こういった背景から本実験でデコーダを用いた分類手法の実験は行っていない.今後の発展的な課題として,エンコーダとデコーダの分類能力の比較や,デコーダ特有の利点を活かした手法の検討,さらにサンプリング手法別での調査が挙げられる.}%%%%%%%%%%%%%%%%%%%%%%%%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文は,EMNLP2023の論文集に掲載された論文\cite{oka-hirao-2023-implicit}の拡張版であり,T5モデルを使ったモデルサイズ別の調査,およびPDTB-2データセットを使った実験,クラス数と分類器の分析が追加で含まれている.本論文は,NTTコミュニケーション科学基礎研究所におけるインターンシップ活動の成果も含まれる.%%%%%%%%%%%%%%%%%%%%%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{08refs}\clearpage\appendix\renewcommand{\thesection}{\Alph{section}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table12\begin{table}[h]\input{08table12.tex}%\hangcaption{PDTB-3データセットにおいて,談話関係ラベルから一意に決定できない接続語の数(談話関係ラベル$\nrightarrow$接続語)と,接続語から一意に決定できない談話関係ラベルの数(接続語$\nrightarrow$談話関係ラベル)}\label{tab:my_label_intro}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table13\begin{table}[h]\input{08table13.tex}\hangcaption{PDTB-3データセットのテストセットにおけるPDTB談話関係ラベルと接続語.複数の談話関係ラベルに対応する接続語は\textbf{太字}にしている.Comparison.Concession+SpeechAct,Expansion.Exceptionはテストセットに存在しないため記載していない.}\label{pdtb-label-list}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table14\begin{table}[h]\input{08table14.tex}\hangcaption{PDTB-2.0とPDTB-3.0データセットのラベル一覧とその件数.*は\protect\citeA{long-webber-2022-facilitating}が実験で使用したラベル.}\label{class_num}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table15\begin{table}\input{08table15.tex}%\hangcaption{\red{本稿で使用したモデルのパラメータサイズ一覧.}}\label{tab:parameter_size}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Biography%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{岡佑依}{%2021年奈良先端科学技術大学院大学修士課程修了.同年,日本電信電話株式会社入社.NTTコミュニケーション科学基礎研究所研究員を経て,2024年よりNTT人間情報研究所研究員.東北大学大学院情報科学研究科博士後期課程1年.}\bioauthor{柳本大輝}{%2023年愛媛大学工学部工学科卒業.2025年愛媛大学大学院理工学研究科博士前期課程修了.}\bioauthor{平尾努}{%1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,株式会社NTTデータ入社.2000年より日本電信電話株式会社コミュニケーション科学基礎研究所.2024年より金沢大学理工研究域教授.博士(工学).自然言語処理の研究に従事.言語処理学会,ACL各会員.}\bioauthor{西田京介}{%2008年北海道大学大学院情報科学研究科博士後期課程修了.博士(情報科学).2009年日本電信電話株式会社入社.2023年よりNTT人間情報研究所上席特別研究員(現職).}\end{biography}\biodate%%%%受付日の出力\end{document}
V17N04-03
\section{はじめに} 自然文検索や翻訳,レコメンデーションなどに使用可能な解析システムを実現した.2000年に(南1974;白井1995)を参考にして文節に強さを決めて,同じ強さの文節では,連用修飾格は直後の用言に,連体修飾格は直後の体言に係るという規則を用いて構文解析プログラムを開発した.しかし実際の構文構造は,文節を飛び越して係る場合が見受けられた.文法的な情報だけでは不十分だと考え,意味的な情報の導入を検討した結果,シソーラスを組み込んで用語同士の意味的な距離を測って,その距離によって係り先を決定する手法を開発した.この解析システムを自然文検索に用いる場合,同じ内容のことを言っているのにいくつもの書き方が許されていることからしばしば検索漏れが発生する.この異形式同内容に対応するため,用語の標準化,係り受けの正規化を実現した.さらに,翻訳などで使用することを考えて,文節意図(4.1で述べる)を把握しやすくするために係り受けとそれに続く付属語の並びをまとめた形で管理した.手作業で収集した辞書に手作業でいろいろな情報を付加して機能を実現するという方式で開発した.統計的な手法は用いていない.文末に試用サイトのURLを示したので試用していただきたい. \section{構文構造の決定} (白井1995)では等しい階層的認識構造のあいだでは,構文構造を文節の連体修飾格は体言に,連用修飾格は用言にそれぞれ最初の文節に係るというアルゴリズムで決定していた.しかし複数の受けの候補があるときに,文法情報だけでは正しく決定されないという問題がある.(藤尾2000)では統計的な手法で決定しているが,様々な分野に対して大量の解析済みのデータを準備するのは容易ではない.そこで筆者らはシソーラス(5.1で述べる)を用いて用語同士の意味的な距離を計算して,その距離の近いところに係るという方式を採用した.\subsection{意味的な距離によって構文構造を決定する}\begin{figure}[b]\begin{center}\includegraphics{17-4ia4f1.eps}\end{center}\caption{連用修飾格での例}\label{fig:one}\end{figure}複数の受けの候補があるときに,図1のように意味的な近さ(2.2で述べる)で直後の文節を飛び越して係ることがある.「ネットで」という連用修飾格は,「行く」か「調べる」という用言に係る可能性がある.これまでは,直後にあるということで「行く」という文節に係るようになっていた.意味的な距離を測って比較すると次のようになる.\vspace{0.3zw}\begin{tabular}{ll}&意味的な距離\\ネットで—行く&$\infty$\\ネットで—調べる&1(筆者らのシステムでの距離)\end{tabular}\vspace{0.3zw}「ネットで」—「調べる」の方が意味的な距離が近いので,「ネットで」という文節は「調べる」という文節に係るようにした.{\bfseries連体修飾格での例}同様に連体修飾格でも意味的な距離で係り先を決める.図2では,「おいしい」という形容詞が文法情報だけで評価すると「長野の」か,「リンゴを」かどちらかの名詞の文節に係る可能性がある.同様に用語同士の意味的な距離を測って「リンゴを」という文節に係ける.\begin{figure}[t]\begin{center}\includegraphics{17-4ia4f2.eps}\end{center}\caption{連体修飾格での例}\label{fig:2}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-4ia4f3.eps}\end{center}\caption{並列構造の例}\begin{center}\small{\textless}P{\textgreater}は並列の意味である.\end{center}\label{fig:3}\end{figure}{\bfseries並列構造での例}(黒崎1992)では,並列構造を付属語の類似性で決めている.筆者らのシステムではシソーラスを用いて名詞の意味的な距離で決めている.「ビール」と「お酒」とは意味的な距離が近いので並列構造になるが,「先生」と「お酒」は並列構造にはならない.\subsection{用語同士の意味的な距離の定義}係り受け解析で係り先を決めるために2つの用語間の意味的な距離を定義した.本来,用語同士の意味的な距離はアナログ的なものである.極端な場合は人によっても異なるが,シソーラス上の用語同士の関係から表1のように定義した.係り受け語は慣用的によく係り受けを構成する用語の組み合わせをネットなどから手作業で収集した.間に挟まる助詞と良しあしの情報も持っている.また係り受け語には,係の用語に意味が指定できる(5.2に示す).\begin{table}[tb]\caption{意味的な距離の表}\input{04table01.txt}\end{table}{\bfseries例}(人)が飲む(人)は人の意味で人の意味の用語すべてを指定できる.筆者らのシソーラスでは直近の関係語との関係しか持っていない.関係語とさらにその関係語との意味的な距離はそれぞれの意味的な距離を加算することにした.狭義語のさらに狭義語との意味的な距離は$1+1$で$2$であると定義した.こうすることで,シソーラスにお互いの関係が登録されていない用語間の意味的な距離を定義した.経験的にあまり遠い関係の用語同士の距離は評価しても意味がないので一定の距離で足切りをしている.足切りの値は係り先を決めるときと,並列構造を決めるときとでは異なる.並列構造を決めるときのほうが,広く関係を評価している.並列構造を決めるときには,係り受け語は考慮しない.{\bfseries意味的な距離を測るときに多義語を区別している}意図したのと異なる意味の用語との距離を測ってしまうことが問題になることがある.例えば「お稲荷さん」には2つの意味がある.\vspace{0.3zw}\begin{tabular}{ll}意味的な距離\\お稲荷さん—稲荷神社&0(同義語)\\お稲荷さん—いなりずし&0(同義語)\end{tabular}\vspace{0.3zw}多義語をそれぞれの意味で区別しないで計算すると,「稲荷神社」と「いなりずし」とが0(同義語)になってしまう.\vspace{0.3zw}\begin{tabular}{l}稲荷神社—お稲荷さん—いなりずし\end{tabular}\vspace{0.3zw}このことを防ぐために,我々のシステムでは「お稲荷さん」の2つの意味を区別して別の用語として管理している.その結果「稲荷神社」と「いなりずし」との意味的な距離は未定義(無限大)になるので「いなりずしに参拝する」などという無意味な係り受けは排除される. \section{係り受けデータの整理} 日本語では同じことを言うのにいくつかの書き方が許されている.自然文検索などで漏れを少なくするために形を整理する.\subsection{用語の標準化}日本語は表記の揺れを含めて同義語が多い.(国分,岡野2010)著者と検索者とで異なる表記が使われることが検索漏れの一因になっている.検索対象データベース,検索文ともに係り受けにしたあとシソーラスを用いてなかの用語を言語工学研究所が推奨する用語に標準化する.誤った表記,差別語も標準の表記に置き換える.{\bfseries例1}\vspace{0.3zw}\begin{tabular}{ll}インタフェイス\\インタフェース(JIS)&$\Longrightarrow$インターフェース(言語工学研究所推奨)\\インターフェイス(学術用語)&\\インターフェース(新聞)&\end{tabular}\vspace{0.3zw}{\bfseries例2}\vspace{0.3zw}\begin{tabular}{ll}米,米国\\USA,U.S.A.&$\Longrightarrow$アメリカ(言語工学研究所推奨)\\合衆国,アメリカ合衆国&\\アメリカ&\end{tabular}\vspace{0.3zw}\subsection{係り受けを正規化}用言の使い方には限定用法と叙述用法がある.自然文検索で「青いリンゴ」(限定用法)と書いてある記事を「リンゴが青い」(叙述用法)という係り受けで検索しても検索できない.検索できるようにするために,原記事,検索文ともに係り受けは限定用法のものをすべて叙述用法に統一して,正規化する.\vspace{0.3zw}\begin{tabular}{llll}{\bfseries例}&青,い,リンゴ&→&リンゴ,が,青,い\\\end{tabular}\vspace{0.3zw}用言が動詞の場合は,動詞の性質によって名詞との間に挟む助詞が異なる.\vspace{0.3zw}\begin{tabular}{llll}{\bfseries例}&食べたリンゴ&→&リンゴを食べた(他動詞)\\&落ちたリンゴ&→&リンゴが落ちた(自動詞)\\\end{tabular}\vspace{0.3zw}当面,間に挟む助詞も,表2の4種類に限定している.\begin{table}[t]\caption{係り受けの関係の種類}\input{04table02.txt}\end{table} \section{情報の付与} 今後,本解析システムを様々な目的へ適用を進める予定である.そこで,辞書上の情報をもとに用途に応じて解析結果に必要な情報を付与する.\subsection{文節意図を付与する}解析の精度を上げるためと,翻訳などで必要な情報を取り出しやすくするために,「係り受けの語幹まで」と,それに続く「付属語の並び」をまとめて管理している.\vspace{0.3zw}\begin{tabular}{lll}{\bfseries例}&係り受け&付属語の並び\\&お酒を飲&んでください\end{tabular}\vspace{0.3zw}さらに,付属語の並びの持つ表3のような性質を「文節意図」と呼ぶこととする.これは一般に命題に含まれる否定・肯定,ボイス,テンスなどを,モダリティーと一緒にしたものである(益岡2000).乾健太郎「KURA」佐藤理史「醍醐プロジェクト」は,ここでいう係り受けの部分をより分かりやすくするための置き換えを説明したものであるので,本システムとは目的が異なる.{\bfseries文の文節意図の把握}翻訳以外でも,例えば内容が「依頼」の記事を集めようとしたとき,記事を解析して係り受けにまでしても,結局人手で読み直して分類する必要があった.文末の文節意図が「依頼」の文を含む記事を集めると,その目的が達成される.ほとんどの場合,文末の文節意図が文全体の文節意図を表している.{\bfseries文節意図と主語の推定}省略された主語は文脈を調べないと分からない場合もあるが,文節意図を調べると推測できる場合がある.翻訳などのために省略された主語の人称を推定する(4.3で述べる).同じ文節意図でも丁寧さの違いなどでいろいろな書き方がある.表4に「依頼」の文節意図の例を上げたが,ここに上げたのはその一部でこのほかにもいくつもの書き方がある.ひとつの文節が複数の文節意図を持つことがある.たとえば下記の文節は,「禁止」,「否定」,「疑問」,「推量」,「丁寧」の5つの文節意図を持っている.\vspace{0.3zw}\begin{tabular}{ll}{\bfseries例}&逢ってはいけないものでございましょうか\\\end{tabular}\vspace{0.3zw}付属語の組み合わせによって,文節意図は変化する\begin{table}[t]\caption{代表的な「文節意図」と人称の例}\input{04table03.txt}\end{table}\begin{table}[t]\caption{「依頼」の「文節意図」の例}\input{04table04.txt}\end{table}\vspace{0.3zw}\begin{tabular}{llll}{\bfseries例}&飲むつもりです&1人称&意志\\&飲むつもりですね&2人称&確認\end{tabular}\vspace{0.3zw}このような複雑な文節意図を持つ文節を扱うためと,解析の速度を速くするために,辞書上では数の付属語を「付属語の並び」としてまとめた形で管理している.筆者らのシステムでは解析辞書(5.2で述べる)に1,300,000行の「付属語の並び」を持っている.\subsection{良しあし,注目度を付与する}レコメンデーションでは,良しあしの情報を手がかりのひとつにする.単独で良しあしの決められる辞書上の用語には,良しあしのフラグを付けてある.\vspace{0.3zw}\begin{tabular}{llllll}{\bfseries例}&美しい&(良い)&&汚い&(悪い)\\&静寂&(良い)&&騒音&(悪い)\\&さっぱりする&(良い)&&さっぱりだ&(悪い)\end{tabular}\vspace{0.3zw}しかし,用語単独では良しあしが決められず,係り受け関係を調べないと決められないことがある.\vspace{0.3zw}\begin{tabular}{lllll}{\bfseries例}&寿命&が&延びる&(良い)\\&寿命&が&短い&(悪い)\end{tabular}\vspace{0.3zw}「寿命」,「延びる」,「短い」など用語は単独では良しあしの性質は持っていないが,組み合わされたときに良しあしの性質が出てくる.筆者らのシソーラスでは,「係り用語」と,「受けの用語」と,「間にはさまれた格助詞」と,「良しあし」の組で管理している.シソーラスの係り受け語を調べて係り受けの良しあしを決める.係り,受けのそれぞれの用語の同義語,狭義語をシソーラスで拡張して,係り受け語として登録されていない係り受けにも対応できるようにした.\vspace{0.3zw}\begin{tabular}{lll}{\bfseries例}&ビール&が冷えている\\&&麦酒が冷えている(ビールの同義語)\\&&生ビールが冷えている(ビールの狭義語)\end{tabular}\vspace{0.3zw}{\bfseries否定の文節}良しあしは否定があると逆転する.\vspace{0.3zw}\begin{tabular}{lllll}{\bfseries例}&ビール&が&冷えている&(良い)\\&ビール&が&冷えていない&(悪い)\end{tabular}\vspace{0.3zw}日本語では「ない」と書いてあっても否定だとは決められない(表5参照).否定になるかどうかも付属語の並びに記述してある(5.2で述べる).\begin{table}[b]\caption{「ない」を含んでいても否定にならない例}\input{04table05.txt}\end{table}{\bfseries注目度を付与して良しあしを辞書に登録することができる}「良しあし」の判断基準は普遍的なものではない.ユーザーによって異なることがある.また自社や競合他社の商品名のようにその評判をいつも注目しておきたい用語もある.筆者らのシステムはユーザーにより適切なレコメンデーションをするために,このような用語または係り受けに注目度,良しあしをつけて登録する仕組みが用意してある(表6参照).\begin{table}[t]\caption{良しあし,注目度の例}\input{04table06.txt}\end{table}\subsection{主語の人称の推定}日本語はしばしば主語が省略されるが,そのまま翻訳すると訳文があいまいになることが少なくない.またビジネス文書でも主語を解析して認識することは重要である.実際の文章では,待遇表現や文節意図で暗に主語の人称を示している.本論文ではこの点に注目して,文節意図の情報を利用することにより主語を推定する方法を説明する.{\bfseries待遇表現によって主語の人称を推定する}ビジネス文書では,待遇表現は適切に使用されているので有効な推定法である.解析辞書には文節がどの待遇表現になるかが記述してある.謙譲語が使われている動詞の主語は1人称である.{\bfseries例}申し上げたのは→(1人称が)申し上げたのは尊敬語が使われている動詞の主語は2人称ないしは3人称である.{\bfseries例}おっしゃったのは→(2人称が)おっしゃったのは{\bfseries文節意図によって主語の人称を推定する}待遇表現でも主語が推定できなかったときに文節意図によって主語の人称を推定する(表3参照).例えば,文節意図が「意志」のときは,主語は1人称である.{\bfseries例}飲みたい「意志」→(1人称が)飲みたい文節意図が「依頼」「指示」のときは,受けの主語は2人称である.{\bfseries例}送ってくれ「依頼」→(2人称が)送ってくれ \section{辞書} ブログやメールに代表されるような文書を扱うために,時事的な用語や省略語も積極的に登録している.送り仮名や訳語などの差異による異表記語も網羅的に収集した.よく使われる用語であれば誤った用語(例「キューピット」cupid)も積極的に採択してある.反面,古語や文学作品にしか出てこない用語は採択していない.すべての辞書は共通の品詞に分類してある.用言は語幹と活用形で管理している.\subsection{シソーラス}自然言語処理を目的とした一般語を主とするシソーラスである.いわゆる名詞だけでなく,動詞,形容詞,形容動詞,副詞,代名詞,擬態語さらに慣用句までを登録している.「広義語—狭義語」の関係は,自然言語処理で広義語に適用した規則が狭義語にも適用できるように同じ属性のものだけとした.「自動車」—「タイヤ」のような全体—部分関係は関連語とした.品詞の異なる用語,「自動詞」—「他動詞」の対応なども関連語とした.用語間の意味関係として,表7のものを用意した.詳細は(国分,岡野2010)を参照されたい.\begin{table}[b]\caption{シソーラスの用語同士の意味関係}\input{04table07.txt}\end{table}{\bfseriesシソーラスのその他の項目}エラーフラグ誤った表記,差別語品詞動詞の活用形を含めて24種類注目度レコメンデーションのためにユーザーがマークした用語.異なり語の数440,000語(竹内2008)は動詞の性質を分類するために動詞のそれぞれの性質で係り受けする名詞の一例を示したものである.一方筆者らのこのシソーラスでは,受けになる個々の用言を中心に,その用言の係りとなり得る名詞をなるべく網羅的に収集した.\subsection{解析辞書}ここで実現しているアルゴリズムは,辞書の情報で制御する方式をとっている.そのために必要になる情報が各用語に付与してある.{\bfseries自立語}自立語の構成要素である接頭辞,接尾辞,助数詞なども含む.語数240,000語品詞動詞の活用形も含めて24種類良しあし自立語の良しあしが記入してある否定フラグ{\bfseries名詞の意味}係り受け関係を調べるために次の10種類ある.1つの用語が複数の意味を重複して持てる.{\bfseries意味例}人先生,山田,雅子機関学校,研究所物机,物理現象も含む時昨年場所東京,駅前数量詞5本,少し抽象名詞芸術,甘さ動作名詞サ変動詞数詞9,二百不定代名詞,未知語などで意味が決定できないもの.{\bfseries用言}かっこ内は活用語尾である.{\bfseries品詞・活用形例}サ変名詞形勉強(する)サ変非名詞形察(する)ザ変信(ずる)一段生き(る)カ行五段書(く)カ行五段例外行(く)ガ行五段泳(ぐ)サ行五段押(す)タ行五段立(つ)ナ行五段死(ぬ)バ行五段遊(ぶ)マ行五段飲(む)ラ行五段走(る)ラ行五段例外おっしゃ(る)ワア行5段買(う)ワ行五段例外問(う)形容詞青(い)形容動詞閑静(な)形容動詞と/たる形矍鑠(たる)副詞さっぱり連体詞こんな打ち消しの動詞年端もいか(ない:助動詞)打ち消しの形容詞必要(ない:形容詞){\bfseries動詞の性質}自・他動詞限定用法から叙述用法に変換するときに挟む助詞を決定するため.移動性の動詞自動詞であるが「を格」をとる.例道を行く待遇表現尊敬語・謙譲語翻訳などで主語を決定するため.例おっしゃる(尊敬語)申し上げる(謙譲語){\bfseries付属語の並び}文節意図を付与するために助詞,助動詞だけでなく,いわゆる機能表現とその組み合わせをまとめた形で扱っている.{\bfseries付属語}助詞助動詞とその活用語尾形式名詞機能表現のための動詞およびその活用語尾例えば推量を表す「〜かも知れない」というときの「知れる」という動詞.機能表現のための形容詞およびその活用語尾行数1,300,000行エラーフラグ間違った表記文節意図表3参照並列フラグ並列を構成しうるかどうか待遇表現尊敬語・謙譲語否定フラグなど \section{結果} CGM(消費者生成メディア)の例としてYahoo!知恵袋データの2004年4月分の質問記事(5,957記事,15,883文)を用いて,評価した.まず,筆者らのシステムとCabochaとの解析精度を比較した.会話体の文章なので両者ともあまり良い結果はでなかったが正解率はCabochaを13.8ポイント上回っている.\vspace{0.3zw}\begin{tabular}{lccc}&正しい&間違い&正解率\\筆者らのシステム&11,690文&4,193文&73.6\%\\Cabocha&\phantom{0}9,498文&6,385文&59.8\%\end{tabular}\vspace{0.3zw}両システムの処理時間も比較してみた.筆者らのシステムはシソーラスを参照しているので,処理が遅くなる恐れがあったが,両者はほとんど差がなかった.これは,筆者らのシステムでは付属語をまとめた形で扱うことによって,辞書へのアクセス回数を減らしたためと考えられる.\vspace{0.3zw}\begin{tabular}{lc}筆者らのシステム&1分39秒\\Cabocha&1分30秒\end{tabular}\vspace{0.3zw}次に,筆者らのシステムでシソーラスを組み込んで解析した結果と,組み込まないで解析した結果との差を調べた.係り受け構造の違いと,並列構造の違いとに分けて集計した.しかし,シソーラスを組み込んだ結果,シソーラスを組み込まないときには正しく解析できた結果を,かえって間違った構造にしてしまった場合もあった.差分の生じた172文の内訳は改善160文,悪化12文,差引148文全体15,883文に対して0.9\%の向上が観測された.\vspace{0.3zw}\begin{tabular}{lccc}&係り受け&並列&合計\\正しい構造にした&106文&54文&160文\\間違った構造にしてしまった&\phantom{00}8文&\phantom{0}4文&\phantom{0}12文\\合計&114文&58文&172文\\\end{tabular}\vspace{0.3zw}{\bfseries成功例}「音楽がいつまでたっても始まりません.」\vspace{1\baselineskip}\begin{center}\includegraphics{17-4ia式1.eps}\end{center}\vspace{1\baselineskip}「音楽/が/始ま/」という係り受けが登録されているので,「音楽が」という文節が「たっても」という文節ではなく,「始まりません」という文節に係った.{\bfseries間違った構造にしてしまった例}「警察の方に話がいっているかわかりません」\vspace{1\baselineskip}\begin{center}\includegraphics{17-4ia式2.eps}\end{center}\vspace{1\baselineskip}「話/が/分かる/」という係り受けが登録されていたため,「話が」という文節が「いっているのか」という文節ではなく,「わかりません」という文節に係ってしまった.下記のサイトから使って見られるようにしてあるので,試用して評価していただくことを希望する.http://www.gengokk.co.jp/koubun/ \section{おわりに} CGMのような会話体の文章を扱うためには,より一層の誤りを含んだデータに対応できることが要求される.辞書は手作業で収集したもので,漏れも多いと思う.係り受けがシソーラスに登録されていないために,今回の評価の対象にならなかった記事もあると思われる.今後大規模コーパスを解析して,係り受けを抽出してシソーラスの係り受け語を充実させていく計画である.高速化についても現在改造中で近日中に発表する予定である.全世界に言語の数は多い.現在までに日本語から外国語への翻訳プログラムが未着手の言語を対象に,翻訳プログラムが作れないかと思っている.今後,外部の人を含めて実用化を進めたいと思っている.自然文検索や翻訳だけでなく,いろいろな応用が考えられる.係り受けだけで「良しあし」を決定しているが,3つ以上の文節が組み合わさって「良しあし」が決定される場合がある.これから充実させていく必要がある.\acknowledgment本稿に対して有益なご意見,ご指摘をいただきました査読者の方に感謝いたします.また国立情報学研究所が提供する「Yahoo!知恵袋-研究機関提供用データ」を利用させていただいたことを,感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{益岡隆志}{益岡隆志}{2000}]{Book_05}益岡隆志\BBOP2000\BBCP.\newblock\Jem{“命題とモダリティの境界を求めて”日本語文法の諸相}.\newblockくろしお出版.\bibitem[\protect\BCAY{乾健太郎}{乾健太郎}{}]{Web_10}乾健太郎.\newblock\BBOQKURA\BBCQ,\Turl{http://cl.aist-nara.ac.jp/kura/doc/publication\texttt{\symbol{"5F}}list.html}.\bibitem[\protect\BCAY{宮崎和人\JBA安達太郎\JBA野田春美\JBA高梨信乃}{宮崎和人\Jetal}{2002}]{Book_03}宮崎和人\JBA安達太郎\JBA野田春美\JBA高梨信乃\BBOP2002\BBCP.\newblock\Jem{“モダリティ”新日本基本文法選書}.\newblockくろしお出版.\bibitem[\protect\BCAY{国分芳宏\JBA岡野弘行}{国分芳宏\JBA岡野弘行}{2010}]{Book_01}国分芳宏\JBA岡野弘行\BBOP2010\BBCP.\newblock\Jem{複数の観点で分類した自然言語処理用シソーラス}.\newblock自然言語処理,\textbf{17}(1),pp.247--263.\bibitem[\protect\BCAY{黒崎禎夫}{黒崎禎夫}{1992}]{Book_07}黒崎禎夫\BBOP1992\BBCP.\newblock\Jem{長い日本語文における並列構造の推定}.\newblock情報処理学会論文誌,\textbf{33}(8),pp.1022--1031.\bibitem[\protect\BCAY{佐藤理史}{佐藤理史}{}]{Web_11}佐藤理史.\newblock\JBOQ醍醐プロジェクト\JBCQ,\Turl{http://sslab.nuee.nagoya-u.ac.jp/~sato/research/daigo.html}.\bibitem[\protect\BCAY{仁田義雄}{仁田義雄}{1991}]{Book_04}仁田義雄\BBOP1991\BBCP.\newblock\Jem{日本語のモダリティと人称}.\newblockひつじ書房.\bibitem[\protect\BCAY{竹内孔一}{竹内孔一}{2008}]{Book_08}竹内孔一\BBOP2008\BBCP.\newblock\Jem{動詞項構造シソーラス}.\newblock竹内孔一HP.\bibitem[\protect\BCAY{藤尾正和}{藤尾正和}{2000}]{Book_09}藤尾正和\BBOP2000\BBCP.\newblock\Jem{語彙統計モデルに基づく日本語依存構造解析}.\newblock奈良先端科学技術大学院大学博士情報科学研究科博士論文.\bibitem[\protect\BCAY{南不二男}{南不二男}{1974}]{Book_02}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{白井諭}{白井諭}{1995}]{Book_06}白井諭\BBOP1995\BBCP.\newblock\Jem{階層的認識構造に着目した日本語従属節間の係り受け解析の方法とその精度}.\newblock情報処理学会論文誌,\textbf{36}(10),pp.2353--2360.\end{thebibliography}\begin{biography}\bioauthor{国分芳宏(正会員)}{1966年東京理科大学理学部応用物理学科卒.同年日本科学技術情報センター入社.1985年株式会社言語工学研究所設立代表取締役就任.自然言語処理,シソーラス作成に従事情報処理学会会員.}\bioauthor{梅北浩二}{1990年日本電子専門学校卒.1996年株式会社言語工学研究所入社自然言語処理開発に従事.}\bioauthor{松下栄一}{1999年東京理科大学大学院工学研究科工業化学専攻卒.2004年株式会社言語工学研究所入社.自然言語処理開発に従事.}\bioauthor{末岡隆史}{1975年東京理科大学理工学部電気工学科卒.1987年株式会社言語工学研究所入社.自然言語処理開発に従事.}\end{biography}\biodate\end{document}
V10N02-07
\section{はじめに} 本論文はフリーの特異値分解ツールSVDPACKC\cite{svdpackc}を紹介する.その利用方法を解説し,利用事例として多義語の曖昧性解消問題(以下,語義判別問題と呼ぶ)を扱う.情報検索ではベクトル空間モデルが主流である.そこでは文書とクエリを索引語ベクトルで表し,それらベクトル間の距離をコサイン尺度などで測ることで,クエリと最も近い文書を検索する.ベクトル空間モデルの問題点として,同義語(synonymy)と多義語(polysemy)の問題が指摘されている.同義語の問題とは,例えば,``car''というクエリから``automobile''を含む文書が検索できないこと.多義語の問題とは,例えば,ネットサーフィンについてのクエリ``surfing''に対して,波乗りに関する文書が検索されることである.これらの問題は文書のベクトルに索引語を当てることから生じている.そこでこれら問題の解決のために文書のベクトルを潜在的(latent)な概念に設定することが提案されており,そのような技術を潜在的意味インデキシング(LatentSemanticIndexing,以下LSIと略す)と呼んでいる.LSIの中心課題はどのようにして潜在的な概念に対応するベクトルを抽出するかである.その抽出手法にLSIでは特異値分解を利用する.具体的には索引語文書行列\(A\)に対して特異値分解を行い,その左特異ベクトル(\(AA^{T}\)の固有ベクトル)を固有値の大きい順に適当な数\(k\)だけ取りだし\footnote{ここでは索引語ベクトルを列ベクトルとしている.また\(A^{T}\)は\(A\)の転置行列を表す.},それらを潜在的な概念に対応するベクトルとする\cite{kita-ir}.LSIは魅力的な手法であるが,実際に試してみるには,特異値分解のプログラムが必要になる.低次元の特異値分解のプログラムは比較的簡単に作成できるが,現実の問題においては,高次元かつスパースな行列を扱わなくてはならない.このような場合,特異値分解のプログラムを作成するのはそれほど容易ではない.そこで本論文では,この特異値分解を行うためのツールSVDPACKCを紹介する.このツールによって高次元かつスパースな行列に対する特異値分解が行え,簡単にLSIを試すことができる.またLSIの情報検索以外の応用として,語義判別問題を取り上げSVDPACKCの利用例として紹介する.実験ではSENSEVAL2の日本語辞書タスク\cite{sen2}で出題された単語の中の動詞50単語を対象とした.LSIに交差検定を合わせて用いることで,最近傍法\cite{ishii}の精度を向上させることができた.また最近傍法をベースとした手法は,一部の単語に対して決定リスト\cite{Yarowsky1}やNaiveBayes\cite{ml-text}以上の正解率が得られることも確認できた. \section{LSIと特異値分解} 情報検索において,\(m\)個の索引語を予め決めておけば,文書は\(m\)次元の索引語ベクトルとして表現できる(ここでは列ベクトルとして考える).検索対象の文書群が\(n\)個ある場合,各文書\(d_i\)に対する\(m\)次元の索引語ベクトルが\(n\)個並ぶので,\(m\timesn\)の索引語文書行列\(A\)ができる.\(m\timesn\)の行列\(A\)の特異値分解とは,行列\(A\)を以下のような行列\(U\),\(\Sigma\),\(V\)の積に分解することである.\begin{equation}A=U\SigmaV^{T}\label{siki1}\end{equation}\noindentここで,\(U\)は\(m\timesm\)の直交行列,\(V\)は\(n\timesn\)の直交行列である.また\(\Sigma\)は\(m\timesn\)の行列であり,\(rank(A)=r\)とすると,対角線上に\(r\)個の要素\(\sigma_1,\sigma_2,\cdots,\sigma_r\)(ただし\(\sigma_1\ge\sigma_2\ge\cdots,\ge\sigma_r\))が並んだ行列である.それ以外の\(\Sigma\)の要素は0である.行列\(A\)の特異値分解を行ったとき,\(U\)は\(A\)の列ベクトルが張る空間の正規直交基底となっている.そして\(U\)内の列ベクトルは左側にあるものほど基底としての重要度が高い.そこで,\(U\)の最初の\(k\)個の列ベクトルを使って,索引語ベクトルを表すことにする.具体的には索引語ベクトルを\(U\)の最初の\(k\)個の列ベクトルに射影させればよい.つまり,\(U\)の最初の\(k\)個の列ベクトルで作成される\(m\timesk\)の行列を\(U_k\)とおくと,索引語ベクトル\(d\)は\(U_{k}^{T}d\)によって\(k\)次元のベクトルで表現できることになる.実際の検索では,\(m\)次元の索引語ベクトルで表現されていたクエリ\(q\)も\(U_{k}^{T}q\)によって\(k\)次元のベクトルで表現し,\(U_{k}^{T}d\)と\(U_{k}^{T}q\)の距離によって,\(d\)と\(q\)の距離を測ればよい.例えば,\(d\)と\(q\)の距離\(dist(d,q)\)は以下のように測ることができる\cite{kita-ir}.\begin{equation}dist(d,q)=\frac{(U_{k}^{T}d,U_{k}^{T}q)}{||U_{k}^{T}q||||U_{k}^{T}q||}\label{siki2}\end{equation}以上より,情報検索にLSIを利用するためには,索引語文書行列\(A\)の特異値分解から得られる行列\(U\)が求まれば良いことがわかる. \section{特異値分解ツールSVDPACKC} \subsection{入手とコンパイル}行列\(A\)の特異値分解を行うツールがSVDPACKCである.SVDPACKCはフリーで配布されており,以下のURLから入手できる.\begin{center}{\tthttp://www.netlib.org/svdpack/svdpackc.tgz}\end{center}SVDPACKCには特異値分解を行うC言語のプログラムが8つ入っている.この中で最も計算速度が優れているのは{\ttlas2}と名付けられているランチョス法\cite{kita-ir}を使ったプログラムである.単に特異値分解の結果だけを得たいのであれば{\ttlas2}を利用すれば良く,他のプログラムをコンパイルする必要はない.ここでは{\ttlas2}だけをコンパイルする.{\ttlas2.c}をコンパイルする前に,{\ttlas2.c}の中でコメントアウトされているマクロ定数\verb|UNIX_CREAT|を有効にしておく.\begin{verbatim}/*#defineUNIX_CREAT*/→#defineUNIX_CREAT\end{verbatim}\noindentこれによって{\ttlas2}による特異値分解の結果がファイルに保存される.次に,{\ttlas2.h}のマクロ定数\verb|LMTNW|,\verb|NMAX|,\verb|NZMAX|の値を適当に調整する.これらは取り得るメモリの最大サイズ,行列の最大サイズ,行列中の非ゼロ要素の最大個数を定義したものであり,どの程度の大きさの行列を扱えるかを示している.扱う問題や利用する計算機にもよるだろうが,本論文での実験では予め与えられている値の10倍の数に変更した.実行時に行列のサイズに関するエラーが出た場合は,これらの値を設定し直してコンパイルする.また{\ttlas2.c}の中では{\ttrandom}関数を自前で用意しているために,{\ttstdlib.h}で定義されている{\ttrandom}関数と競合する場合がある.ここでは{\ttlas2.c}中の{\ttstdlib.h}をincludeしないことにした.\begin{verbatim}#include<stdlib.h>→/*#include<stdlib.h>*/\end{verbatim}\noindentコンパイルは{\ttmakefile}のコンパイラの指定(CC)を利用するコンパイラに合わせて,以下を実行する.ここではLinuxのgccで問題なくコンパイルできた\footnote{gcc,libc及びlibmのバージョンはそれぞれegcs-2.91.66,2.1.2,2.1.2のものを用いた.libm以外のライブラリは使用されない.}.\begin{center}{\ttmake\\las2}\end{center}またマニュアルには,CRAYY-MP,IBMRS/6000-550,DEC5000-100,HP9000-750,SPARCstation2及びMachintoshII/fxでSVDPACKCが動作することが記載されている.またWindows2000上のBorlandC++Compiler5.5を利用しても{\ttlas2.c}をコンパイルできた\footnote{ただし構造体rusageの定義がないので,若干変更する必要があった.}.更にWindows2000上のcygwin+gcc環境\footnote{cygwinのdllのバージョンは1.2.12-2,gccのバージョンは2.95.3-5のものを用いた.}でもコンパイルできた.特別なライブラリは使われていないので,多くの環境でコンパイル可能と思われる.\subsection{利用方法}{\ttlas2}は内部で2つのファイルを読む込む.1つは特異値分解を行いたい対象の行列が記述されたファイル{\ttmatrix}であり,もう1つはパラメータを記述したファイル{\ttlap2}である.この2つのファイルを適切に用意することで,{\ttlas2}を実行することができる.配布キットでは,サンプルの行列が{\ttbelladit.Z}という名前の圧縮されたファイルとして提供されている.このファイルから,例えば以下のコマンドにより,{\ttmatrix}ファイルを作り,{\ttlas2}を試してみる.{\ttlap2}はこのサンプル用にキット内に用意されている.\begin{verbatim}zcatbelladit.Z>matrix\end{verbatim}\noindent実行は以下のように単にコマンド名だけを入力する.\begin{verbatim}./las2\end{verbatim}\noindent結果は{\ttlav2}と{\ttlao2}というファイルに保存される.{\ttlav2}には特異値分解したときの\mbox{式\ref{siki1}}における\(U\)や\(V\)の配列が保存される.ただし,バイナリファイルなので直接見ることはできない.{\ttlao2}には特異値分解したときの\mbox{式\ref{siki1}}の\(\Sigma\),つまり特異値の列とその他の情報(行列の大きさや実行時間等)が保存される.これはテキストファイルなので中身を確認できる.\subsubsection{{\ttmatrix}ファイルの記述方法}特異値分解の対象となる行列\(A\)は,ハーウェル・ボーイング形式(Harwell-Boeingformat)と呼ばれる列方向の圧縮形式を用いてファイル{\ttmatrix}に記述する.これによりスパース行列を少ない記述量で簡単に表現することができる.最初に注意として,行列\(A\)の大きさを\(m\timesn\)とした場合,SVDPACKCでは\(m\gen\)を仮定している.そのために,実際に特異値分解したい行列\(A\)の列数の方が行数よりも大きい場合は,行列\(A\)の転置行列\(A^{T}\)に対して特異値分解を行う必要がある.この場合,\mbox{式\ref{siki2}}の\(U\)は\(V\)と置き換えなければならないこともある.ここでは,{\ttmatrix}の記述形式の説明として,以下のような行列\(A\)を考える.\[A=\left[\begin{array}{cccc}1.0&0&0&0\\0&2.1&0&0.5\\0&1.0&0&0\\0&0.8&0&0\\0&0.8&1.0&0\\1.0&0&2.2&0\\0&0&0&1.0\end{array}\right]\]この行列に対して,1列目から順に非ゼロ要素を取り出し,以下のような表を作る.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c|}\hlineデータ番号&1&2&3&4&5&6&7&8&9&10\\\hline位置&(1,1)&(6,1)&(2,2)&(3,2)&(4,2)&(5,2)&(5,3)&(6,3)&(2,4)&(7,4)\\\hline値&1.0&1.0&2.1&1.0&0.8&0.8&1.0&2.2&0.5&1.0\\\hline\end{tabular}\end{center}\end{table}次にこの表から位置の行の部分だけを取り出す.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c|}\hlineデータ番号&1&2&3&4&5&6&7&8&9&10\\\hline位置&(1,1)&(6,1)&(2,2)&(3,2)&(4,2)&(5,2)&(5,3)&(6,3)&(2,4)&(7,4)\\\hline値&1.0&1.0&2.1&1.0&0.8&0.8&1.0&2.2&0.5&1.0\\\hline行位置&1&6&2&3&4&5&5&6&2&7\\\hline\end{tabular}\end{center}\end{table}次に各列の最初の非ゼロ要素のデータ番号を列ポインタに記述する.例えば,1列目であれば,最初の非ゼロ要素は\verb|(1,1)|の\verb|1.0|であり,これに対するデータ番号は1である.次に2列目であれば,最初の要素は\verb|(2,2)|の\verb|2.1|であり,これに対するデータ番号は3である.これを各列,順に記述したものが列ポインタである.つまり列ポインタの要素数は配列\(A\)の列数となる.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c|}\hlineデータ番号&1&2&3&4&5&6&7&8&9&10\\\hline位置&(1,1)&(6,1)&(2,2)&(3,2)&(4,2)&(5,2)&(5,3)&(6,3)&(2,4)&(7,4)\\\hline値&1.0&1.0&2.1&1.0&0.8&0.8&1.0&2.2&0.5&1.0\\\hline行位置&1&6&2&3&4&5&5&6&2&7\\\hline列ポインタ&1&3&7&9&-&-&-&-&-&-\\\hline\end{tabular}\end{center}\end{table}ハーウェル・ボーイング形式とは,行列に対して,このような表を作り,列ポインタ,行位置,値を記述した形式である.これはスパース行列を圧縮した表現となる.{\ttmatrix}では4行目以降に,列ポインタ,行位置,値が記述されている.列ポインタについては最後の非ゼロ要素のデータ番号に1を足したものが付け加えられることに注意する.先の例では以下のようになる.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}{134mm}\begin{verbatim}13791116234556271.01.02.11.00.80.81.02.20.51.0\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskip{\ttmatrix}の最初の4行は行列に関するその他の情報が記述されている.3行目以外意味はない.1行目はデータの名前であり,サンプルファイルの{\ttbelladit.Z}を参考に適当につければよい.2行目,4行目も意味はなく,{\ttbelladit.Z}の通りに記述すれば良い.3行目は以下のように5つのデータを空白で区切って記述すればよい.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}{134mm}\begin{verbatim}rra74100\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskipこの行の1列目(\verb|rra|),5列目(0)はこの通り記述すれば良い.2列目(7)は行列\(A\)の行数,3列目(4)は列数,4列目(10)は非ゼロ要素の総数を記述する.結果,先の例において,{\ttmatrix}は以下のようになる.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}{134mm}\begin{verbatim}JikkenDatajikkenTransposedrra74100(10i8)(10i8)(8f10.3)(8f10.3)13791116234556271.01.02.11.00.80.81.02.20.51.0\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskip\subsubsection{{\ttlap2}ファイルの記述方法}{\ttlap2}ファイルは{\ttlas2}で使われるパラメータが1行で記述されている.例えば,配布キットに入っている{\ttlap2}ファイルの中身は以下のような1行のファイルであり,8個のデータが空白で区切られて入っている.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}{134mm}\begin{verbatim}'belladit'4410-1.0e-301.0e-30TRUE1.0e-60\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskip1列目('belladit')は{\ttmatrix}ファイルの1行目に記述したデータの名前である.{\ttmatrix}と{\ttlap2}とのデータ名の一致は検査していないので,実質意味はない.適当な名前をつければ良い.4列目(-1.0e-30),5列目(1.0e-30),6列目(1.0e-6)の数値は,繰り返しの収束条件にあたるものであり,特に変更する必要はない.7列目(TRUE)は特異値分解の結果の\(U\)や\(V\)の行列をファイルに保存するかどうかの指定であり,\verb|TRUE|にしておけば保存される.8列目に意味はない.実際は何も書かなくてもよい.問題は2列目(44)と3列目(10)の整数値である.結論から述べれば,どちらも行列\(A\)の列数\(n\)を設定すればよい.今,2列目の整数値を\verb|lanmax|,3列目の整数値を\verb|maxprs|とおく.\verb|lanmax|は{\ttlas2}のアルゴリズムであるランチョス法の最大の繰り返し回数を意味する.一方,\verb|maxprs|の意味はやや不明確である.マニュアルには,所望の\(U\)や\(V\)の次元数と記載されているが,例えば,\verb|maxprs=20|と設定したからといって,必ずしも\(U\)や\(V\)の次元数が20になって出力されるわけではなく,10であったり,25であったりする.このような違いは\verb|lanmax|の数値とも関連しており,依存関係は複雑である.しかし{\ttlas2}内部では,\(U\)や\(V\)を最大の次元数に設定して計算しており,最後の出力の部分で指定した次元数を考慮して出力させている.そのため\verb|maxprs|の値は実行時間等に影響はなく,現実的には得られる最大の次元数を出力させ,その結果から所望の次元数を得た方が取り扱いが簡単である.\subsection{出力結果の利用}{\ttlas2}による特異値分解の結果は{\ttlav2}と{\ttlao2}というファイルに保存される.{\ttlao2}はテキストファイルであり,内容の確認は容易である.重要部分はファイルの下方に記載されている固有値の列である.この部分を適当に切り取って利用すればよい.また,{\ttlao2}では,固有値は値の小さい順に出力されていることに注意すべきである.固有値は大きい方が重要な意味を持つため,ファイルの下方に書かれた特異値ほど重要である.{\ttlav2}はバイナリファイルであり,{\ttlas2}のソースをみて出力形式を確認すれば,特異値分解結果の\(U\)や\(V\)を得ることが可能である.結局,{\ttlav2}をテキストファイルの形式に変換する何らかのプログラムを自作する必要がある.ただし,そのようなプログラムを作成するのであれば,{\ttlas2}のソースを直接変更して,テキストファイルの形式で出力させた方が簡単である.例えば,{\ttlas2.c}の334行目で\(U\)が出力されているので,以下のように変更する.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}[H]{134mm}\begin{verbatim}変更前write(fp_out2,(char*)&xv1[ida],size1);変更後longkk;/*この変数をはじめの方で作っておく*/.../*write(fp_out2,(char*)&xv1[ida],size1);*/for(kk=0;kk<nrow;kk++)fprintf(fp_out2,"fprintf(fp_out2,"EOV\n");/*ベクトルの終りの記号も入れる*/\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskipこれで\verb|lav2|に\(U\)の中身がテキスト形式で出力される.ファイル名も変更したいときは,148行目の以下の部分を書き換える.\begin{verbatim}out2="lav2";\end{verbatim}また{\ttlas2.c}の756行目で\(V\)が出力されているので,以下のように変更する.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}[H]{134mm}\begin{verbatim}変更前for(i=0;i<n;i++)xv1[id++]=w1[i];変更後FILE*fp_out3;/*他と合わせるためにlas2.hに書いておく.大域変数となる.*/...fp_out3=fopen("V-matrix","w");/*行列Vのファイル名はV-matrixとする.main中でfopenで開いておく*/.../*for(i=0;i<n;i++)xv1[id++]=w1[i];*/for(i=0;i<n;i++){xv1[id++]=w1[i];fprintf(fp_out3,"}fprintf(fp_out3,"EOV\n");/*ベクトルの終りの記号も入れる*/\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskip以上のようにして,テキストファイルの形式で\(U\)や\(V\)を得ることができる.これらのファイルは,\(U\)や\(V\)の列ベクトルが,順に出力されている形になるが,その順序は{\ttlao2}の固有値の順序に対応している.つまり,固有値の大きな順に\(k\)個の列ベクトルを取り出すときには,下方にあるベクトルから順に\(k\)個取り出さなければならないことに注意する. \section{語義判別問題への利用} ここでは情報検索以外へのLSIの応用として語義判別問題を取り上げる.SENSEVAL2の日本語辞書タスクで課題として出された動詞50単語を実験の対象とする.\subsection{最近傍法の利用}単語\(w\)は\(k\)個の語義を持つとし,各語義を\(c_i\)\\(\(i=1〜k\))で表す.単語\(w\)の語義判別問題とは,テキストに単語\(w\)が現れたときに,その文脈上での単語\(w\)の語義\(c_j\)を判定する問題である.文脈を\(m\)個の素性のベクトル\((f_1,f_2,\cdots,f_m)\)で表現した場合,この語義判別問題は分類問題となり,帰納学習の手法により解決できる.ここでは最近傍法(NearestNeighbor法,以下NN法と略す)\cite{ishii}を用いる.NN法は与えられた素性ベクトルと最も距離が近い訓練事例中の素性ベクトルを選び,そのクラスを出力とする手法である\footnote{これは用例ベースの手法であり,帰納学習手法とは位置づけない見方もできる.}.今,単語\(w\)の訓練データの事例数を\(n\)とし,各事例を\(m\times1\)の素性ベクトル\(d_i\)\(\(i=1〜n\))で表す.すると訓練データ全体の集合は\(m\timesn\)の行列\(A\)として表せる.実際の語義判別は,単語\(w\)の現れた文脈を素性ベクトル\(q\)で表し,以下の式で求められる訓練事例\(\hat{d}\)のクラスを返すことで行える.\[\hat{d}=arg\min_{d_i}dist(q,d_i)\]\noindentここでのNN法は,\(dist(q,d_i)\)を単純なコサイン尺度で計算することにする.また行列\(A\)を特異値分解し,\mbox{式\ref{siki2}}を利用して\(dist(q,d_i)\)を定義したものをLSI法と呼ぶことにする.\subsection{素性の設定}ここでは語義判別の手がかりとなる属性として以下のものを設定した.\begin{verbatim}e1直前の単語e2直後の単語e3前方の内容語2つまでe4後方の内容語2つまでe5e3の分類語彙表の番号e6e5の分類語彙表の番号\end{verbatim}例えば,語義判別対象の単語を「出す」として,以下の文を考える(形態素解析され各単語は原型に戻されているとする).\begin{verbatim}短い/コメント/を/出す/に/とどまる/た/。\end{verbatim}\noindentこの場合,「出す」の直前,直後の単語は「を」と「に」なので,\verb|`e1=を'|,\verb|`e2=に'|となる.次に,「出す」の前方の内容語は「短い」と「コメント」なので,\verb|`e3=短い'|,\verb|`e3=コメント'|の2つが作られる.またここでは句読点も内容語に設定しているので,「出す」の後方の内容語は「とどまる」「。」となり,\verb|`e4=とどまる'|,\verb|`e4=。'|が作られる.次に「短い」の分類語彙表\cite{bunrui-tab}の番号を調べると,\verb|3.1920_1|である.ここでは分類語彙表の4桁目と5桁目までの数値をとることにした.つまり\verb|`e3=短い'|に対しては,\verb|`e5=3192'|と\verb|`e5=31920'|が作られる.「コメント」は分類語彙表には記載されていないので,\verb|`e3=コメント'|に対しては\verb|e5|に関する素性は作られない.次は「とどまる」の分類語彙表を調べるはずだが,ここでは平仮名だけで構成される単語の場合,分類語彙表の番号を調べないことにしている.これは平仮名だけで構成される単語は多義性が高く,無意味な素性が増えるので,その問題を避けたためである.もしも分類語彙表上で多義になっていた場合には,それぞれの番号に対して並列にすべての素性を作成する.結果として,上記の例文に対しては以下の8つの素性が得られる.\begin{verbatim}e1=を,e2=に,e3=短い,e3=コメント,e4=とどまる,e4=。,e5=3192,e5=31920,\end{verbatim}上記の例のようにして,「出す」に対するすべての訓練事例の素性を集め,各素性に1番から順に番号をつける.例えば,本論文の実験では「出す」に対しては978種類の素性があり,上記例の素性には\mbox{表\ref{sosei-jigen}}のように番号が振られた.\begin{table}[htbp]\begin{center}\leavevmode\caption{素性と次元番号}\begin{tabular}{lcr}\hline素性&&次元番号\\\hline\verb|e1=を|&&21\\\verb|e2=に|&&60\\\verb|e3=コメント|&&134\\\verb|e3=短い|&&302\\\verb|e4=。|&&379\\\verb|e4=とどまる|&&406\\\verb|e5=3192|&&789\\\verb|e5=31920|&&790\\\hline\end{tabular}\label{sosei-jigen}\end{center}\end{table}以上より,上記例文に対する素性ベクトルは第21次元目,第60次元目,第134次元目,第302次元目,第379次元目,第406次元目,第789次元目,第790次元目の各要素が1であり,その他の要素がすべて0の978次元のベクトルとなる.\subsection{交差検定の利用}LSI法を利用した場合,NN法と比較して,必ずしも精度が向上するわけではなく,逆に精度が悪化する場合もある.そのため単純にすべての単語に対して,LSI法を用いることはできない.そこで交差検定を行い,次元圧縮の効果が確認できる単語のみLSI法を用いることにする.このようにNN法とLSI法を融合した手法をLSI+NN法と呼ぶことにする.ここでの交差検定では訓練データを4分割し,3つを訓練データ,1つをテストデータとする.組合わせを変えて,合計4通りの実験を行う.各実験では,NN法とLSI法のテストデータに対する正解率を測る.また特異値分解を使って圧縮する次元数は75とした.ただし行列\(A\)のランク数が75以下の場合は,行列\(A\)のランク数にした.付録の\mbox{表\ref{jigen-com1}}に{\ttlas2}の結果をまとめている.そこではSENSEVAL2の日本語辞書タスクの動詞50単語の各単語に対する行列\(A\)の大きさ,非ゼロ要素の密度,圧縮した次元数,次元圧縮に要したメモリと時間が記されている.ただし,これらは4通りの実験での平均である.また次元圧縮に要したメモリと時間は{\ttlas2}の出力ファイル\verb|lao2|から得ている.各単語に対して,4通りの実験の平均をとった結果が\mbox{表\ref{kousakekka}}である.\begin{table}[htbp]\begin{center}\leavevmode\caption{交差検定による比較}\begin{tabular}{|p{6zw}|p{4zw}|p{4zw}p{1zw}||p{6zw}|p{4zw}|p{4zw}p{1zw}|}\hline単語&NN&LSI&&↓&↓&↓&\\\hlineataeru&0.621&0.517&&tsutaeru&0.703&0.629&\\iu&0.803&0.836&〇&dekiru&0.722&0.708&\\ukeru&0.608&0.513&&deru&0.432&0.279&\\uttaeru&0.828&0.659&&tou&0.718&0.703&\\umareru&0.722&0.690&&toru&0.464&0.232&\\egaku&0.628&0.533&&nerau&0.894&0.895&〇\\omou&0.918&0.845&&nokosu&0.592&0.530&\\kau&0.930&0.896&&noru&0.672&0.641&\\kakaru&0.644&0.452&&hairu&0.443&0.392&\\kaku\_v&0.741&0.733&&hakaru&0.941&0.905&\\kawaru&0.907&0.948&〇&hanasu&0.983&0.965&\\kangaeru&0.925&0.949&〇&hiraku&0.853&0.813&\\kiku&0.667&0.456&&fukumu&0.946&0.946&〇\\kimaru&0.881&0.915&〇&matsu&0.589&0.470&\\kimeru&0.899&0.886&&matomeru&0.655&0.669&〇\\kuru&0.766&0.773&〇&mamoru&0.774&0.795&〇\\kuwaeru&0.899&0.899&〇&miseru&0.920&0.880&\\koeru&0.841&0.716&&mitomeru&0.934&0.934&〇\\shiru&0.866&0.834&&miru&0.806&0.777&\\susumu&0.339&0.366&〇&mukaeru&0.925&0.893&\\susumeru&0.886&0.826&&motsu&0.566&0.472&\\dasu&0.476&0.303&&motomeru&0.882&0.807&\\chigau&0.905&0.971&〇&yomu&0.963&0.967&\\tsukau&0.715&0.704&&yoru&0.973&0.931&\\tsukuru&0.578&0.569&&wakaru&0.848&0.916&〇\\\hline↓&↓&↓&&平均&0.764&0.719&\\\hline\end{tabular}\label{kousakekka}\end{center}\end{table}特異値分解を利用することで正解率が向上したものは,\mbox{表\ref{kousakekka}}で〇印のつけた以下の14単語である.これらに対してLSI法を用いることにする.\begin{verbatim}iu,kawaru,kangaeru,kimaru,kuru,kuwaeru,susumu,chigau,nerau,fukumu,matomeru,mamoru,mitomeru,wakaru\end{verbatim}\newpage\subsection{特異値分解を用いた語義判別実験}実際は選出した14単語のみに対してLSI法を行えば良いが,交差検定の効果も示すために,すべての単語に対してLSI法を試みた.圧縮する次元数は100に設定した.ただし行列\(A\)のランク数が100以下の場合は,行列\(A\)のランク数にした.付録の\mbox{表\ref{jigen-com2}}に{\ttlas2}の結果をまとめている.そこではSENSEVAL2の日本語辞書タスクの動詞50単語の各単語に対する行列\(A\)の大きさ,非ゼロ要素の密度,圧縮した次元数,次元圧縮に要したメモリと時間が記されている.また次元圧縮に要したメモリと時間は{\ttlas2}の出力ファイル\verb|lao2|から得ている.次にSENSEVAL2で配布されたテスト文を用いて正解率を測った結果が\mbox{表\ref{result1}}である.スコアの算出は解答結果に部分点を与えるmixed-gainedscoringという方式\cite{sen2}を用いている.\begin{table}[htbp]\begin{center}\leavevmode\caption{実験結果}\label{result1}\begin{tabular}{|p{6zw}|c|c|c||p{6zw}|c|c|c|}\hline単語&NN&LSI&LSI+NN&↓&↓&↓&↓\\\hlineataeru&0.680&0.560&0.680&tsutaeru&0.663&0.780&0.663\\iu&0.820&0.880&0.880&dekiru&0.760&0.690&0.760\\ukeru&0.550&0.410&0.550&deru&0.440&0.320&0.440\\uttaeru&0.810&0.680&0.810&tou&0.670&0.640&0.670\\umareru&0.720&0.670&0.720&toru&0.280&0.270&0.280\\egaku&0.560&0.570&0.560&nerau&0.980&0.920&0.920\\omou&0.930&0.710&0.930&nokosu&0.705&0.595&0.705\\kau&0.860&0.850&0.860&noru&0.680&0.600&0.680\\kakaru&0.620&0.540&0.620&hairu&0.390&0.250&0.390\\kaku\_v&0.770&0.560&0.770&hakaru&0.980&0.980&0.980\\kawaru&0.920&0.890&0.890&hanasu&1.000&0.990&1.000\\kangaeru&0.960&0.950&0.950&hiraku&0.880&0.790&0.880\\kiku&0.550&0.470&0.550&fukumu&0.960&0.990&0.990\\kimaru&0.910&0.900&0.900&matsu&0.490&0.540&0.490\\kimeru&0.920&0.910&0.920&matomeru&0.710&0.740&0.740\\kuru&0.740&0.830&0.830&mamoru&0.635&0.735&0.735\\kuwaeru&0.870&0.860&0.860&miseru&0.950&0.980&0.950\\koeru&0.770&0.710&0.770&mitomeru&0.860&0.880&0.880\\shiru&0.940&0.930&0.940&miru&0.740&0.730&0.740\\susumu&0.390&0.340&0.340&mukaeru&0.940&0.890&0.940\\susumeru&0.920&0.830&0.920&motsu&0.540&0.390&0.540\\dasu&0.340&0.210&0.340&motomeru&0.810&0.790&0.810\\chigau&0.870&0.970&0.970&yomu&0.880&0.830&0.880\\tsukau&0.715&0.895&0.715&yoru&0.960&0.900&0.960\\tsukuru&0.660&0.590&0.660&wakaru&0.820&0.890&0.890\\\hline↓&↓&↓&↓&平均&0.750&0.717&0.7570\\\hline\end{tabular}\end{center}\end{table}わずかではあるが,LSI+NN法の方がNN法よりも精度が高かった.また選択した14単語のうちLSI法を利用することで精度が上がった単語(選択が正しかった単語)は8単語,下がった単語(選択が誤った単語)は6単語である.逆に選択しなかった36単語のうちNN法の方が精度が良かった単語(選択が正しかった単語)は31単語,LSI法の方が精度が良かった単語(選択が誤った単語)は5単語であった.つまり,全体の50単語のうち選択が正しかった単語は39単語(78\,\%),選択が誤った単語は11単語(22\,\%)である.単純にすべてNN法を選択した場合,選択が正しくなる単語は37単語(74\,\%),選択が誤る単語は13単語(26\,\%)であるため,交差検定の効果が確認できる.また同様の素性を用いて,決定リスト(DLと略す),NaiveBayes(NBと略す)を用いた判別も行った.結果を\mbox{表\ref{result2}}に示す.\begin{table}[htbp]\begin{center}\leavevmode\caption{他手法との比較}\label{result2}\begin{tabular}{|p{6zw}|c|c|c|c||p{6zw}|c|c|c|c|}\hline単語&NN&LSI&DL&NB&↓&↓&↓&↓&↓\\\hlineataeru&0.680&0.560&0.660&\underline{0.740}&tsutaeru&0.663&\underline{0.780}&0.750&\underline{0.780}\\iu&0.820&0.880&\underline{0.940}&0.930&dekiru&0.760&0.690&0.790&\underline{0.800}\\ukeru&0.550&0.410&0.550&\underline{0.660}&deru&0.440&0.320&0.560&\underline{0.570}\\uttaeru&0.810&0.680&0.820&\underline{0.870}&tou&0.670&0.640&0.600&\underline{0.700}\\umareru&\underline{0.720}&0.670&0.680&0.710&toru&0.280&0.270&0.330&\underline{0.390}\\egaku&0.560&0.570&0.560&\underline{0.580}&nerau&0.980&0.920&\underline{0.990}&\underline{0.990}\\omou&\underline{0.930}&0.710&0.890&0.900&nokosu&0.705&0.595&0.770&\underline{0.800}\\kau&\underline{0.860}&0.850&0.850&0.850&noru&\underline{0.680}&0.600&0.590&0.660\\kakaru&0.620&0.540&0.630&\underline{0.660}&hairu&0.390&0.250&\underline{0.440}&0.380\\kaku\_v&\underline{0.770}&0.560&0.740&0.730&hakaru&\underline{0.980}&\underline{0.980}&0.920&0.920\\kawaru&\underline{0.920}&0.890&\underline{0.920}&\underline{0.920}&hanasu&\underline{1.000}&0.990&\underline{1.000}&0.990\\kangaeru&0.960&0.950&0.990&\underline{0.990}&hiraku&0.880&0.790&0.830&\underline{0.910}\\kiku&0.550&0.470&0.590&\underline{0.640}&fukumu&0.960&\underline{0.990}&\underline{0.990}&\underline{0.990}\\kimaru&0.910&0.900&\underline{0.960}&\underline{0.960}&matsu&0.490&\underline{0.540}&0.530&0.490\\kimeru&0.920&0.910&\underline{0.940}&0.920&matomeru&0.710&0.740&\underline{0.780}&0.750\\kuru&0.740&0.830&\underline{0.890}&0.880&mamoru&0.635&0.735&\underline{0.800}&0.750\\kuwaeru&0.870&0.860&\underline{0.890}&0.880&miseru&0.950&\underline{0.980}&\underline{0.980}&0.970\\koeru&0.770&0.710&\underline{0.780}&0.760&mitomeru&0.860&0.880&\underline{0.890}&\underline{0.890}\\shiru&0.940&0.930&\underline{0.960}&\underline{0.960}&miru&\underline{0.740}&0.730&0.730&\underline{0.740}\\susumu&0.390&0.340&0.430&\underline{0.450}&mukaeru&\underline{0.940}&0.890&0.920&0.900\\susumeru&0.920&0.830&\underline{0.960}&0.940&motsu&0.540&0.390&0.520&\underline{0.550}\\dasu&0.340&0.210&\underline{0.350}&0.340&motomeru&0.810&0.790&\underline{0.880}&0.870\\chigau&0.870&0.970&\underline{1.000}&\underline{1.000}&yomu&\underline{0.880}&0.830&\underline{0.880}&\underline{0.880}\\tsukau&0.715&0.895&0.935&\underline{0.963}&yoru&0.960&0.900&\underline{0.970}&\underline{0.970}\\tsukuru&0.660&0.590&0.590&\underline{0.710}&wakaru&0.820&0.890&\underline{0.900}&\underline{0.900}\\\hline↓&↓&↓&↓&↓&平均&0.750&0.717&0.777&0.790\\\hline\end{tabular}\end{center}\end{table}ほとんどの単語で,決定リストやNaiveBayesはNN法やLSI法よりも良い結果を出しているが,一部ではNN法やLSI法の方が良い値を出している.単語によってはNN法をベースとした方が良い場合もあることを示している. \section{考察} SVDPACKCが扱える行列の大きさについて述べておく.\verb|las2.c|からメモリ割り当ての関数\verb|malloc|の部分を抜き出してみると,\verb|las2|は\(m\timesn\)の行列の特異値分解を行うのに,大ざっぱに見積もって,\(8mn\)バイト強のメモリを必要としていることがわかる\footnote{{\ttsizeof(double)}の\(mn\)倍である.{\ttsizeof(double)=8}として\(8mn\)を得ている.}.この点から考えると,必要メモリが約200Mバイトとなる\(25000\times1000\)位の大きさが現実的な最大サイズだと思われる\footnote{これは個人的な感覚である.}.確認のために,非ゼロ要素の密度が1\,\%であり,平均2のポアソン分布に従って,非ゼロ要素の整数値(1〜6)が配置されるような\(25000\times1000\)の行列\(A\)を人工的に作成し\footnote{実際の索引語文書行列に似せるよう考慮している.},その行列に対して{\ttlas2}で特異値分解を行ってみた.Pentium-41.5GHzメモリ512MバイトのLinux環境での実行時間は227秒,要したメモリは228Mバイトであった.この程度の大きさの行列であれば,実行時間は大きな問題にはならないと思われる.ただし,行列の大きさを変更して同じ条件で試してみると\mbox{表\ref{sokudo}}の結果が得られた.メモリは行列のサイズにほぼ比例するが実行時間は指数関数的に増加しているので,実行時間の面からも,この程度の大きさの行列がSVDPACKCで扱える限度だと思われる.ちなみに\(25000\times2000\)の行列ではメモリ不足で実行できなかった.ただし実験で用いたマシンにスワップは設定されていないことを注記しておく.スワップを利用すれば,更に大きな行列も扱えるが,その場合は実行時間の方で問題が生じるであろう.\begin{table}[htbp]\begin{center}\leavevmode\caption{行列の大きさと速度・メモリの関係}\label{sokudo}\begin{tabular}{|c|c|c|c|c|}\hline&\(25000\times125\)&\(25000\times250\)&\(25000\times500\)&\(25000\times1000\)\\\hline使用メモリ(MB)&26.2&52.6&108&228\\実行時間(秒)&7.49&16.8&53.5&227\\\hline\end{tabular}\end{center}\end{table}実際に情報検索で用いられる索引語ベクトルの次元数は少なくとも数十万単位になり,検索対象の文書も100万文書以上となるであろう.その場合の索引語文書行列\(A\)の大きさは巨大なスパース行列である.このような巨大な行列になると,SVDPACKCによって一気に特異値分解を行うのは不可能である.この問題に対しては最初に小さな行列で特異値分解を行い,その後に文書や索引語の追加に従って特異値分解の更新を行うfolding-inとよばれる手法や大規模な文書集合から文書をランダムサンプルし,そこから特異値分解を行う手法などが提案されている\cite{kita-ir}.あるいは概念ベクトルの選択に特異値分解以外の手法を使うアプローチもある(\cite{sasaki}など).最近では言語横断検索にもLSIが利用されているが\cite{dumais},そこでも大規模な行列の特異値分解をどう行うかが問題点として上がっている\cite{mori}.結局,現実の情報検索で現れるような大規模な行列に対しては,SVDPACKCを直接利用することはできない.しかしアイデアを試すための中規模の実験であれば,十分にその役割を果たせる.実験では圧縮する次元の数を交差検定では75に,実際の評価では100に固定している.この値は適当である.最適な次元数については様々な議論があるが,ここではSVDPACKCの利用例として紹介した実験であるため,最適な次元数を推定する処理は行わなかった.ちなみに実際の評価における次元数を100から増減させた場合の,実験結果を\mbox{表\ref{jigen}}に示す.次元数を100に圧縮するといっても行列のランク数がそれ以下であれば,100よりも小さい数になるので,100のときに圧縮された次元数を基準に$-$20,$-$10,+10,+20と次元数を変更させて実験を行った.また表中にMAXとあるのは,行列のランク数で圧縮した場合を示す.これが圧縮できる次元の最大値である.大まかな傾向としては次元数が多い方が精度は高いようである.ただし最高精度を記録する次元数は個々の単語によって異っており,最適な次元数は問題に依存すると言える.\begin{table}[htbp]\begin{center}\leavevmode\caption{圧縮次元数と精度の関係}\label{jigen}\begin{tabular}{|c|c|c|c|c|c|c|}\hline&$-$20&$-$10&100&+10&+20&MAX\\\hline判別精度&0.7030&0.7168&0.7202&0.7212&0.7202&0.7203\\\hline\end{tabular}\end{center}\end{table}LSIのアイデア自体は情報検索以外にも適用できる.ここでは語義判別問題への利用を試みた.他にも文書分類への応用が報告されている\cite{zelikovitz}.このような教師付き学習のタイプでは,訓練事例数が大規模なものになることはないため,SVDPACKCが利用できる.また素性ベクトルの次元圧縮という手法は,統計学では主成分分析,パターン認識ではKarhunen-Lo\`{e}ve展開や線形判別法\cite{ishii}として知られている手法である.またデータマイニングの分野ではデータ数が非常に大きいために,現実的には機械学習手法を直接適用できないという問題がある.そのために類似する事例集合を抽象表現として表される事例に変換し,変換後の事例に対して機械学習手法を適用するDataSquashingという手法が使われる\cite{suzuki}.これは索引語ベクトルではなく文書ベクトルに対する次元圧縮の手法に対応する.このように次元圧縮の手法は様々な分野で重要であり,新しい手法が次々と提案されている(例えば\cite{suenaga}など).次元圧縮の手法として,特異値分解は古典的と言えるが,ベースとなる手法として容易に試すことのできる意味でもSVDPACKCは有用であろう.最後にLSIを分類問題に利用する場合の注意を述べておく.次元圧縮を行う手法は種々あるが,それらは2つに大別できる.1つは「表現のための次元圧縮」であり,もう1つは「判別のための次元圧縮」である\cite{ishii}.「表現のための次元圧縮」は素性ベクトルの分布全体のもつ情報をできるだけ反映できるように次元を圧縮する.一方,「判別のための次元圧縮」はクラスをできるだけ明確に分離できるように次元を圧縮する.主成分分析やKarhunen-Lo\`{e}ve展開は前者であり,線形判別法は後者である.そして特異値分解も「表現のための次元圧縮」に属する手法である.このため,特異値分解を行ったからといって必ずしも判別精度が高まることは保証されない.「表現のための次元圧縮」が判別精度向上に寄与できる問題は,非常に高次元のベクトルを扱う問題(例えば情報検索や音声・画像認識)だと思われる.このような場合,「表現のための次元圧縮」は``次元の呪い''に対抗できる可能性がある.あるいは次元数が多くなったときに素性間に共起性(依存関係)が生じる傾向があり,それが精度向上に悪影響を及ぼすが,そのような依存関係を解消できる可能性ももつ.特異値分解による次元圧縮が判別精度の向上に寄与できるかどうかは未知である.本研究では交差検定を行うことで,精度向上に寄与できそうな問題を選別しておくというアプローチをとった.しかし,LSI法は平均的には他の学習手法よりも精度が低かった.LSI法を語義判別問題に利用するためには,また別の工夫が必要になるだろう.1つの利用可能性としてはbagging手法\cite{breiman96}の1つの学習器として使うことが考えられる.実際に,LSI法は数個の単語に関しては他の学習手法よりも精度が高かった.またNN法まで含めるとその数は更に増える.SENSEVAL2の辞書タスクでは様々な学習手法を融合して用いる手法が最も良い成績を納めた\cite{murata-sen2}.そこでは,決定リスト,NaiveBayes,SVMの学習手法を用意し,交差検定の結果から単語毎に利用する学習手法を設定している.ここで用いたNN法やLSI法も1つの学習手法としてエントリーさせておけばよい.今回の実験では,多くの単語に対してLSI法はNN法よりも正解率が低かった.特に,語義判別の場合,素性ベクトルの次元数\(m\)に比べ,訓練事例数\(n\)が小さい.特異値分解で圧縮する次元数の最大値は\(n\)なので,この点でかなり制約があった.交差検定を用いることでNN法の精度を高めることができたが,他の学習手法と比べると精度の面ではまだ十分ではない.今後はNN法やLSI法が他の学習手法よりも正解率が高かった単語について,その原因を調査する.これによってLSIを語義判別問題のような分類問題に利用する方法を探ってゆく.またLSIが利用可能な他の問題を調べゆく. \section{おわりに} 本論文ではフリーの特異値分解ツールSVDPACKCを紹介した.その利用方法を解説し,利用事例として語義判別問題を扱った.SENSEVAL2の辞書タスクの動詞50単語を対象に実験を行ったところ,交差検定を合わせて用いることで,NN法を改良できた.またNN法やLSI法は,一部の単語に対して決定リストやNaiveBayes以上の正解率が得られることも確認できた.特異値分解は,情報検索のLSIだけではなく,高次元の特徴ベクトルを重要な低次元のベクトルに射影する手法で必要とされる.このために様々な応用が期待される.今後はここでの実験の結果を詳しく調査し,LSIが利用可能な問題を調べてゆきたい.\bibliographystyle{jnlpbbl}\bibliography{408}\newpage\appendix\begin{table}[ht]\scriptsize\begin{center}\leavevmode\caption{las2による特異値分解結果(1)}\begin{tabular}{|p{6zw}|c|c|c|c|c|}\hline単語&行列サイズ&非ゼロ密度&圧縮次元数&メモリ(MB)&実行時間(秒)\\\hlineataeru&\(431\times87\)&0.0232&75.00&0.51&0.1225\\iu&\(937\times274\)&0.0087&75.00&3.93&1.8625\\ukeru&\(1138\times267\)&0.0092&75.00&4.21&2.0050\\uttaeru&\(292\times52\)&0.0315&26.50&0.20&0.0225\\umareru&\(309\times48\)&0.0338&32.75&0.19&0.0325\\egaku&\(339\times52\)&0.0283&36.25&0.22&0.0350\\omou&\(981\times348\)&0.0079&75.00&5.67&3.0700\\kau&\(375\times65\)&0.0241&65.25&0.32&0.0700\\kakaru&\(482\times86\)&0.0233&66.75&0.54&0.1150\\kaku\_v&\(498\times101\)&0.0197&65.00&0.68&0.1400\\kawaru&\(424\times72\)&0.0224&72.75&0.40&0.0950\\kangaeru&\(953\times218\)&0.0103&75.00&2.87&1.2775\\kiku&\(569\times135\)&0.0154&75.00&1.09&0.2925\\kimaru&\(407\times87\)&0.0239&75.00&0.47&0.1050\\kimeru&\(656\times171\)&0.0137&75.00&1.52&0.3975\\kuru&\(493\times96\)&0.0194&75.00&0.63&0.2925\\kuwaeru&\(418\times81\)&0.0215&66.00&0.46&0.1000\\koeru&\(460\times89\)&0.0227&67.00&0.54&0.1125\\shiru&\(797\times184\)&0.0111&75.00&2.04&0.6225\\susumu&\(473\times84\)&0.0215&75.00&0.51&0.1175\\susumeru&\(529\times99\)&0.0193&75.00&0.68&0.1675\\dasu&\(791\times156\)&0.0130&75.00&1.61&0.3900\\chigau&\(522\times78\)&0.0190&55.75&0.50&0.0950\\tsukau&\(1056\times202\)&0.0093&75.00&2.75&1.1400\\tsukuru&\(648\times137\)&0.0146&75.00&1.09&0.3200\\tsutaeru&\(377\times72\)&0.0252&72.25&0.36&0.0875\\dekiru&\(364\times56\)&0.0266&56.25&0.26&0.0600\\deru&\(1153\times309\)&0.0083&75.00&5.17&2.8725\\tou&\(265\times53\)&0.0405&52.25&0.19&0.0475\\toru&\(457\times84\)&0.0221&57.25&0.50&0.0925\\nerau&\(318\times50\)&0.0290&50.25&0.20&0.0425\\nokosu&\(436\times73\)&0.0216&73.50&0.41&0.1000\\noru&\(258\times48\)&0.0386&33.75&0.17&0.0300\\hairu&\(974\times208\)&0.0106&75.00&2.71&0.9075\\hakaru&\(365\times63\)&0.0285&63.00&0.30&0.0700\\hanasu&\(382\times131\)&0.0195&75.00&0.82&0.1575\\hiraku&\(657\times168\)&0.0161&75.00&1.60&0.4325\\fukumu&\(520\times69\)&0.0223&49.25&0.42&0.0725\\matsu&\(380\times62\)&0.0274&45.00&0.30&0.0525\\matomeru&\(381\times69\)&0.0293&69.75&0.35&0.0800\\mamoru&\(392\times69\)&0.0236&69.75&0.36&0.0800\\miseru&\(357\times75\)&0.0248&74.50&0.37&0.0800\\mitomeru&\(729\times159\)&0.0132&75.00&1.58&0.4475\\miru&\(1229\times306\)&0.0076&75.00&5.29&2.8975\\mukaeru&\(348\times69\)&0.0318&69.00&0.33&0.0750\\motsu&\(1020\times200\)&0.0101&75.00&2.64&0.8900\\motomeru&\(975\times229\)&0.0104&75.00&3.09&1.1875\\yomu&\(406\times79\)&0.0238&75.00&0.43&0.1025\\yoru&\(1001\times355\)&0.0092&75.00&5.97&3.0350\\wakaru&\(425\times133\)&0.0196&65.50&0.90&0.1725\\\hline\end{tabular}\label{jigen-com1}\end{center}\end{table}\begin{table}[ht]\scriptsize\begin{center}\leavevmode\caption{las2による特異値分解結果(2)}\begin{tabular}{|p{6zw}|c|c|c|c|c|}\hline単語&行列サイズ&非ゼロ密度&圧縮次元数&メモリ(MB)&実行時間(秒)\\\hlineataeru&\(529\times116\)&0.0189&100&0.85&0.22\\iu&\(1158\times366\)&0.0070&100&6.68&4.16\\ukeru&\(1382\times357\)&0.0076&100&7.05&3.97\\uttaeru&\(365\times70\)&0.0252&27&0.34&0.03\\umareru&\(385\times65\)&0.0272&64&0.32&0.07\\egaku&\(429\times70\)&0.0223&32&0.38&0.05\\omou&\(1201\times465\)&0.0064&100&9.77&6.47\\kau&\(472\times87\)&0.0192&87&0.54&0.14\\kakaru&\(598\times115\)&0.0187&100&0.89&0.23\\kaku\_v&\(606\times135\)&0.0162&100&1.12&0.30\\kawaru&\(532\times97\)&0.0179&97&0.67&0.16\\kangaeru&\(1156\times291\)&0.0085&100&4.81&2.55\\kiku&\(711\times180\)&0.0123&100&1.85&0.62\\kimaru&\(498\times117\)&0.0196&100&0.77&0.20\\kimeru&\(807\times228\)&0.0111&100&2.78&0.79\\kuru&\(612\times128\)&0.0156&100&1.06&0.30\\kuwaeru&\(517\times109\)&0.0174&53&0.77&0.11\\koeru&\(580\times119\)&0.0180&100&0.92&0.23\\shiru&\(986\times246\)&0.0090&100&3.46&1.09\\susumu&\(581\times112\)&0.0175&100&0.86&0.21\\susumeru&\(652\times132\)&0.0157&100&1.15&0.30\\dasu&\(978\times208\)&0.0105&100&2.69&0.97\\chigau&\(653\times105\)&0.0152&61&0.84&0.15\\tsukau&\(1309\times270\)&0.0075&100&4.65&1.97\\tsukuru&\(811\times183\)&0.0117&100&1.80&0.51\\tsutaeru&\(464\times97\)&0.0205&58&0.61&0.11\\dekiru&\(461\times75\)&0.0211&75&0.43&0.11\\deru&\(1387\times412\)&0.0069&100&8.63&5.81\\tou&\(328\times71\)&0.0326&69&0.32&0.07\\toru&\(560\times112\)&0.0180&54&0.84&0.13\\nerau&\(404\times67\)&0.0229&67&0.34&0.07\\nokosu&\(544\times98\)&0.0174&98&0.69&0.16\\noru&\(321\times64\)&0.0311&28&0.28&0.04\\hairu&\(1199\times278\)&0.0086&100&4.52&2.04\\hakaru&\(448\times84\)&0.0232&84&0.50&0.12\\hanasu&\(480\times175\)&0.0155&100&1.45&0.28\\hiraku&\(795\times224\)&0.0133&100&2.69&0.85\\fukumu&\(649\times92\)&0.0179&91&0.70&0.18\\matsu&\(473\times83\)&0.0220&42&0.51&0.07\\matomeru&\(467\times93\)&0.0239&93&0.58&0.13\\mamoru&\(492\times93\)&0.0188&93&0.60&0.16\\miseru&\(448\times100\)&0.0198&99&0.62&0.16\\mitomeru&\(890\times212\)&0.0108&100&2.65&0.75\\miru&\(1502\times408\)&0.0062&100&8.90&5.87\\mukaeru&\(423\times93\)&0.0262&92&0.55&0.13\\motsu&\(1246\times267\)&0.0083&100&4.40&2.13\\motomeru&\(1171\times306\)&0.0086&100&5.08&2.50\\yomu&\(513\times106\)&0.0188&100&0.73&0.17\\yoru&\(1218\times474\)&0.0076&100&10.10&5.30\\wakaru&\(528\times178\)&0.0158&100&1.44&0.45\\\hline\end{tabular}\label{jigen-com2}\end{center}\end{table}\begin{biography}\newpage\biotitle{略歴}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年茨城大学工学部システム工学科助手.1997年同学科講師,2001年同学科助教授.情報処理学会,人工知能学会,言語処理学会,ACL各会員.博士(工学).}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年徳島大学大学院博士後期課程修了.博士(工学).現在,茨城大学工学部情報工学科助手.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.情報処理学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N03-06
\section{はじめに} DataAugmentation(以下,DA)は,機械学習における訓練データの数を増やすための手法であり,モデルを学習する際に,そのモデルの汎化性能を向上させるために利用される.一般的には,既存の訓練データに何らかの変換を施したデータを生成することによって,訓練データを水増しする.DAにおいてデータを変換する際には,モデルの学習に悪影響を与えない自然なデータを生成する必要がある.また,教師あり学習においてDAを用いるときは,ラベル付きデータのラベルは変換せずにデータのみに変換を施すのが一般的である.そのため,変換後のデータは,元のラベル付きデータのラベルと一貫性を保っている必要がある.しかし,自然言語処理で扱われるテキストデータは,画像データと比較して複雑な構造を持つため,データに変換を施すことで不自然なデータが生成されたり,ラベルとの一貫性が損なわれたりする可能性が高い.そのため,自然言語処理の分野において,DAを用いてモデルの汎化性能を向上させることは困難であるとされている.ただし,自然言語処理においても,いくつかの効果的なDAの手法が考案されている.我々はこれまでに,事前学習済みモデルであるBERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-etal-2019-bert}のMaskedLanguageModelingを用いて,文に含まれる単語を別の単語に置換する手法\cite{takahagi2021da}と,文の係り受け関係が崩れないように文節の順序をシャッフルする手法\cite{takahagi2022da}の二つを提案した.また,いくつかの日本語の自然言語処理タスクを解く際に,これらの手法を用いて訓練データセットを拡張することで,モデルの性能が改善することを示した.本論文では,これらのDAの手法における変換方法や手法の効果を検証した実験の結果についてまとめる.また,これらの研究から得られた結果について改めて議論する.本論文は,本節を含めて9節から構成される.2節では,自然言語処理におけるDAの研究に対する概況について述べた後,代表的な手法や本研究の提案手法に関連する手法について概観する.3節では,本研究で提案する2つの手法の詳細と,各手法におけるデータ変換の手順について示す.4節では,提案手法を評価するために本論文で用いられるデータセット・ベンチマークについての概要を示す.5節では,本論文で利用される事前学習済みの言語モデルについて,その概要を示す.6節では,2つの提案手法を評価するために行われる実験の設定について示す.7節では,6節で示した設定で行った実験の結果について示す.8節では,実験で得られた結果をもとに,いくつかの観点から考察を行う.9節では,本論文で示した研究についての内容とその成果について総括した後に,今後の研究の展望について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} DAは,画像処理分野で広く研究されており,画像の反転や切り抜きなどの幾何学的な変換や色空間の変換,画像の混合など,様々な手法が存在する\cite{shorten2019survey}.一方で,自然言語処理の分野では,画像処理で行われた研究に対して,二次的に研究が行われることが多く,画像処理と比較してDAに関する研究の数もあまり多くはない.これは,言語がもつ離散的な性質や複雑な意味・構文構造によって,テキストデータをラベルを保持したまま変換することが難しいからとされる.しかし,自然言語処理においても,ラベルを保持したまま変換できる効果的な手法はいくつか提案されている\cite{feng-etal-2021-survey,chen2023empirical}.同義語置換は,自然言語処理における代表的なDAの手法である.これは,文に含まれる一部の単語をその単語の同義語に置換する手法である.同義語は,予め定義された辞書や単語の埋め込み空間における類似性に基づいて設定される.さらに,文を局所的に修正する手法(文中の一部の単語を削除する,文中の単語を2つ選んで入れ替える)によっても,文の意味を維持したまま文を変換することが可能である.Weiらは,これらの簡単な操作を組み合わせたEDA(EasyDataAugmentation)を提案している\cite{wei-zou-2019-eda}.EDAは文書分類などで効果が示されているが,用いられているモデルはLSTMとCNNであり,それらモデルよりも高性能なBERTを用いた場合にはEDAの効果はないことが予想されている.本論文の提案手法はBERTの利用を前提としている.また,逆翻訳を利用したDAも研究されている\cite{xia-etal-2019-generalized,chen2020semi}.逆翻訳とは,文を別の言語に翻訳した後,元の言語に翻訳し直すことであり,機械翻訳を中心に多くのタスクで有効な手法である.ただし逆翻訳によるDAは双方向の機械翻訳システムが必要である.また逆翻訳の結果は,理論的には,元の文から変化しない.つまり逆翻訳のDAは翻訳の揺れを利用している形であり,拡張されたデータがどのようなデータになるかを制御できない.一方,本論文の2つの提案手法はどちらも拡張されるデータを制御できる.またGuoらは画像処理の分野で利用されるMixup\cite{zhang2017mixup}を応用し,単語の埋め込み表現を混合する手法(wordMixup)と文の埋め込み表現を混合する手法(senMixup)の2つを提案している\cite{guo2019augmenting}.senMixupやwordMixupは文書分類のような単純な識別のタスクには利用できるが,意味類似度や含意関係認識などの複雑なタスクではどのように利用したらよいのかは明らかではない.一方,本論文の文節シャッフルによるDAは文書分類以外のタスクにも利用できる.近年では,GPT-3をはじめとする大規模言語モデルを用いて拡張データを生成する手法も研究されている\cite{sahu-etal-2022-data,dai2023chataug}.ただし大規模言語モデルによるDAには適切なプロンプトを設定しなくてはならず,効果の高いプロンプトを発見する作業が必要になる.また大規模言語モデルによる計算は,多大に時間がかかるため手軽に試せる手法ではない.一方,本論文の2つの提案手法はどちらも簡易に実現できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{提案手法} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1\subsection{複数のBERTを用いたDataAugmentation}BERTの事前学習で用いられるMaskedLanguageModeling(MLM)は,一部の単語が[MASK]というトークンで隠された文が入力として与えられ,[MASK]に入る単語を予測するためのモデルである.ここで提案する手法では,文に含まれる一部の単語を[MASK]トークンで覆い,そのトークンに入る単語をMLMで予測する.そして予測された単語で元の単語を置換することで,新たな文を生成する.しかし,BERTを用いてなんらかのタスクを解く場合,それと同じBERTのMLMを利用して単語置換を行っても効果はほとんどない.なぜなら,置換によって得られる単語の知識は,タスクを解くために使われるBERTに既に含まれていると考えられるからである.そこで,本手法では,タスクを解くために利用されるモデルと単語置換のために利用されるモデルについて,互いに異なるコーパスで事前訓練されたBERTを用いる.このアイデアにより,タスクを解くためのBERTには含まれない単語の知識を,DAを行うことで獲得できる.本手法におけるテキストの変換は以下の手順で行う.\begin{enumerate}\itemBERTのTokenizerを用いてテキストをトークン化する.\itemテキストを構成するトークンのうち,TF-IDFが最も高い名詞のトークンを選択し,それを[MASK]に置き換える.\itemトークン列をBERT入力用のID列に変換する.\itemID列をBERTに入力し,出力されるMLMでの予測結果を取得する.\item予測結果の中から,[MASK]に入ると予測される単語のうち上位100件を取得する.\item取得単語のうち,次の条件を満たす最上位の単語を選択する.\begin{enumerate}\itemその単語は名詞である.\itemその単語は置き換え前の単語とは異なっている.\end{enumerate}\item選択した単語で[MASK]を置き換える.\end{enumerate}上記の手順(2)において名詞のトークンを選択するとあるが,トークンが名詞であるかの判定については,MeCab(辞書はmecab-ipadic-NEologd)に入力し,そのトークンの品詞を特定することによって実施する.また,トークンをMeCabに入力したときに,万が一トークンがさらに複数の形態素に分割される場合は1つ目の形態素の品詞で判定を行う.さらに,拡張に用いられるBERTモデルがサブワードまで分割を行うトークナイザを利用している場合,サブワード単位でTF-IDFの計算を行うため,サブワード自体を一つのトークンとして扱う.そのため,[MASK]への置き換え対象のトークンがサブワードであった場合は,そのサブワード自体に対して名詞かどうかの判定を行う\footnote{なおこの際,単語の途中から始まるサブワードには,二つの先頭ハッシュ``\#\#''が付加されるため,名詞と判定されることはない.}.\mbox{図\ref{figure:複数のBERTを用いたDA-変換処理}}はこの変換の流れを表したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{31-3ia5f1.pdf}\end{center}\caption{複数のBERTを用いたDAにおける変換処理の流れ}\label{figure:複数のBERTを用いたDA-変換処理}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2\subsection{文節シャッフルによるDataAugmentation}自然言語処理における簡単なDAの手法として,文をより細かい単位に分解し,それらの順序を入れ替えるという方法が考えられる.しかし,この方法を日本語の文に適用した場合,文法的におかしい不自然な文や元の文と異なる意味を表す文等の,学習を行う上でノイズとなるような文が生成されてしまう可能性が高い.そこで提案手法では,日本語の文を文節単位に分解後,係り受け関係が崩れないようにシャッフルを行う.これにより,元の文と同じ意味を持つ自然な文を生成することができる.本手法におけるテキストの変換は以下の手順で行う.\begin{enumerate}\item(テキストが文章の場合)文単位に分割し,各文に対して以下の処理を行う.\item文を文節単位に分割する.\item係り先が述語ではない文節(述語は除く)をそれに続く文節と連結する.\item連結後の節の順番をシャッフルする(述語の位置は最後尾のままにする).\end{enumerate}\mbox{図\ref{figure:変換処理}}は例文に対して実際に変換処理を行ったときの様子を表したものである.また,例文を係り受けの木構造で表すと\mbox{図\ref{figure:tree}}のようになる.上記の手順(3)を行うことで,\mbox{図\ref{figure:tree}}からわかるように,述語を除くすべての節は述語に係るようになる.そのため,それらの節の順番を入れ替えても係り受け関係は保持される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[t]\begin{minipage}[b]{0.55\textwidth}\centering\includegraphics{31-3ia5f2.pdf}\caption{文節シャッフルにおける変換処理の様子}\label{figure:変換処理}\end{minipage}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{minipage}[b]{0.4\textwidth}\centering\includegraphics{31-3ia5f3.pdf}\caption{例文を係り受けの木構造で表した図}\label{figure:tree}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%文の文節への分割と各文節の係り先の特定には,SupportVectorMachinesに基づく日本語係り受け解析器であるCaboCha\cite{kudo-matsumoto-2002-japanese}を用いる.CaboChaを用いることで,入力として受け取った日本語の文を文節ごとに分割し,各文節の係り受けに関する情報を出力することが可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{データセット・ベンチマーク} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{livedoorニュースコーパス}livedoorニュースコーパス\footnote{\url{https://www.rondhuit.com/download.html#ldcc}}は,NHNJapan株式会社が運営する「livedoorニュース」の中からニュース記事を収集し,可能な限りHTMLタグを取り除いて作成したものである.ニュース記事は合計で7,367件存在し,各ニュース記事には下記9種類のカテゴリが割り振られている.\begin{itemize}\item独女通信\itemITライフハック\item家電チャンネル\itemlivedoorHOMME\itemMOVIEENTER\itemPeachy\itemエスマックス\itemSportsWatch\itemトピックニュース\end{itemize}本論文では,この9つのカテゴリに対してそれぞれ0から8までのラベルを割り当てる.そして,ニュース記事とその記事のカテゴリに割り当てられたラベルを併せて,ラベル付きデータとする.このラベル付きデータを一定数用意して,文書分類用のデータセットとして利用する.このlivedoorニュースコーパスを用いた文書分類は,複数のBERTを用いたDAと文節シャッフルによるDAの両方の評価に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{JGLUE}JGLUEは,日本語の言語理解ベンチマークである\cite{kurihara-etal-2022-jglue}.このベンチマークは文書分類タスクであるMARC-jaとJCoLA,文ペア分類タスクであるJSTSとJNLI,QAタスクであるJSQuADとJCommonsenseQAの計6つのタスクから構成される(表\ref{tab:JGLUE}).今回は,この中からMARC-ja,JSTS,JCommonsenseQAの3つのタスクを利用し,複数のBERTを用いたDAを評価する.評価に利用しないタスクについては説明を省略する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[b]{\vskip-10pt}\input{05table01.tex}\caption{JGLUEの構成}\label{tab:JGLUE}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.1\subsubsection{MARC-ja}MARC-jaは文書分類用データセットであり,通信販売サイト「アマゾン」における商品レビューとそれに対する評価をまとめたコーパスであるMARC(MultilingualAmazonReviewsCorpus)\cite{keung-etal-2020-multilingual}の日本語部分を元に構築されている.MARC-jaに含まれる各データは商品レビューと,ラベルである評価の二つからなる.タスクは,ラベルがnegativeとpositiveかを当てる二値分類となっている.評価指標には正解率(acc)が用いられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.2\subsubsection{JSTS}意味的類似度計算(SemanticTextualSimilarity,STS)とは,文ペアの意味的な類似度を推定するタスクである.JSTSはSTSのデータセットであり,YJCaptionsDataset\cite{miyazaki-shimizu-2016-cross}を利用して構築されている.JSTSの各データは文ペアとその類似度からなる.文ペアはYJCaptionsDatasetに含まれる画像に対する2つのキャプションである.類似度は0(意味が完全に異なる)~5(意味が等価)の実数値となっており,その値はクラウドソーシングによって決定されたものである.評価指標にはPearsonおよびSpearman相関係数が用いられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.3\subsubsection{JCommonsenseQA}JCommonsenseQAは,CommonsenseQA\cite{talmor-etal-2019-commonsenseqa}というQAデータセットの日本語版で,常識推論能力を評価することができる.JCommonsenseQAに含まれる各データは,問題文とそれに対する5つの選択肢,正解の選択肢を示すラベルから構成される.この選択肢のうち,問題文に対する正しい解答となるのは1つだけである.評価指標には正解率(acc)が用いられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3\subsection{JSICK}JSICKは,英語の含意関係認識・意味的類似度判定用データセットであるSICK(SentencesInvolvingCompositionalKnowledge)\cite{marelli-etal-2014-sick}を,人手で日本語に翻訳し,含意関係と意味的類似度の正解ラベルを再アノテーションしたものである\cite{谷中瞳2021}.JSICKにおける含意関係の定義は元のSICKデータセットの定義に準拠している.前提文Tと仮説文Hのペア(T,H)に対して,文Tが真であるとき文Hが必ず真になる場合は「含意」ラベルが,文Hが必ず偽になる場合は「矛盾」ラベルが,どちらともいえない(文Tが真であるとしても文Hの真偽はわからない)場合は「中立」ラベルが付与されている.JSICKは,予め訓練データとテストデータに分けられており,訓練データのうちのおよそ10\%が検証データとして利用される.JSICKに含まれるデータの例を表\ref{table:データの例}に,各データの量を表\ref{table:JSICK}にそれぞれ示す.1文あたりの平均単語数は13.2単語,語彙数は2,432である.含意関係ラベルは中立が多い傾向にある.本論文では,このデータセットを用いた含意関係認識によって,文節シャッフルによるDAを評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[b]\input{05table02.tex}\caption{JSICKに含まれるデータの例}\label{table:データの例}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[t]\input{05table03.tex}\caption{JSICKの各データの量}\label{table:JSICK}{\vskip-15pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{モデル} 本論文では,いくつかの自然言語処理のタスクによって,手法の評価を行う.このとき,タスクを解くためのモデルには,事前学習済みモデルであるBERTもしくはRoBERTa\cite{liu2019roberta}を用いる.また,実験で実際に使用するモデルは下記4種類のうちのいずれかである.\begin{itemize}\itemcl-tohoku/bert-base-japanese\footnote{\url{https://huggingface.co/cl-tohoku/bert-base-japanese}}(以下,tohoku-BERT)\itemcl-tohoku/bert-base-japanese-v2\footnote{\url{https://huggingface.co/cl-tohoku/bert-base-japanese-v2}}(以下,tohoku-BERT-v2)\itemストックマーク株式会社が公開したBERTモデル\footnote{\url{https://qiita.com/mkt3/items/3c1278339ff1bcc0187f}}(以下,stockmark-BERT)\itemrinna/japanese-roberta-base\footnote{\url{https://huggingface.co/rinna/japanese-roberta-base}}(以下,rinna-RoBERTa)\end{itemize}tohoku-BERTは,東北大学自然言語処理グループが公開しているBERTモデルである.このモデルは,事前学習用データに日本語Wikipedia,トークナイザにはMeCab(IPA辞書)とWordPieceが用いられている.tohoku-BERT-v2は,tohoku-BERTから,トークン化で利用される辞書がIPA辞書ではなくUnidic2.1.2辞書に変更され,事前学習に用いられるデータの数が増加している.stockmark-BERTは,ビジネスに関するドメイン向けのBERTモデルであり,事前学習用データに日本語のビジネスニュース記事,トークナイザにはMeCab(NEologd)が用いられている.rinna-RoBERTaは,rinna株式会社が公開しているRoBERTaモデルである.このモデルは,事前学習用データに日本語CC-100と日本語Wikipedia,トークナイザにはSentencePieceが用いられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{実験設定} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1\subsection{複数のBERTを用いたDAを評価する際の設定}複数のBERTを用いたDAは,livedoorニュースコーパスを用いた文書分類とJGLUEにおける3つのタスクによってそれぞれ評価を行う.それらの詳細な設定については,\ref{sec:BERT-livedoor}節と\ref{sec:BERT-JGLUE}節にそれぞれ示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1.1\subsubsection{文書分類(livedoorニュースコーパス)による評価の設定}\label{sec:BERT-livedoor}複数のBERTを用いたDAの評価に用いる文書分類データセットの詳細を表\ref{table:livedoor1}に示す.訓練・検証・テストデータセットには各270件ずつデータが含まれている.また,それぞれのデータセットには9つのラベルのデータが同じ数だけ含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[b]\input{05table04.tex}\hangcaption{複数のBERTを用いたDAの評価に用いる文書分類データセット(livedoorニュースコーパス)の詳細}\label{table:livedoor1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%簡単な操作によるDAは,訓練データの数が限られている場合にモデルの性能を向上させる効果が顕著に表れ,訓練データの数が十分に多い場合はその効果がわずかであると考えられている\cite{wei-zou-2019-eda}.このタスクでは,訓練データ量が原因でDAによる効果を確認できない可能性を考慮し,訓練データの量を少量に設定している.DAによって訓練データを変換するときは,ラベル(ニュース記事のカテゴリ)は元のままでデータ(ニュース記事のテキスト)のみに変換を加える.この変換処理を訓練データ270件のうち100件に対して行うため,拡張後の訓練データの数は370件(元のデータ270件+データの変換によって生成されるデータ100件)に増加する.DAにおけるMLMを用いた単語置換には,tohoku-BERTとstockmark-BERTの2種類を利用する.一方で,文書分類を解くためのモデルとしても,tohoku-BERTとstockmark-BERTの2種類を用いる.モデルのトレーニングでは,損失関数に交差エントロピー誤差を,最適化アルゴリズムにSGD(確率的勾配降下法)を採用した.またハイパーパラメータは下記のように設定した.\begin{itemize}\item学習率:1e-3\itemバッチサイズ:2\itemエポック数:EarlyStopping(patience=5)を用いて決定\end{itemize}モデルの性能については,テストデータを分類した際の正解率(acc)で評価する(モデルは1種類につき5つ構築し,その5つの中で検証データに対する正解率が最も高かったものを評価に用いる).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1.2\subsubsection{JGLUEによる評価の設定}\label{sec:BERT-JGLUE}今回は,JGLUEに含まれるタスクのうち計3つ(MARC-ja,JSTS,JCommonsenseQA)を評価に利用する.そして,その3つのタスク全てにおいて,学習に用いる訓練データの数は6.1節と同様の理由で少量に設定する.具体的には,3つのタスクの訓練データをそれぞれ100件ずつとする.また,JGLUEにおける各タスクには,train(訓練)/dev(検証)/test(テスト)データの3つが用意されているが,論文執筆時点ではどのタスクにおいてもテストデータが公開されていない.そのため,各タスクにおいて,元の訓練データのうち実験に使わないデータの一部を検証データとして,元の検証データをテストデータとして使用することにする.各データセットの詳細を\mbox{表\ref{tab:jglue実験用}}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[b]\input{05table05.tex}\caption{複数のBERTを用いたDAの評価に用いる3つのデータセット(JGLUEを元に作成)の構成}\label{tab:jglue実験用}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,3つのタスクそれぞれにおけるDAを行う際の訓練データの変換方法を下記に示す.\begin{itemize}\itemMARC-ja(文書分類)では,ラベル(negative/positive)は元のままでデータ(商品レビュー)のみに対して変換を行う.\itemJSTS(意味的類似度計算)では,類似度は元のままで文ペアのうち片方にのみ変換を行う.\itemJCommonsenseQA(QA)では,質問文に対する5つの選択肢とラベル(正解の選択肢)は元のままで,質問文のみに対して変換を行う.\end{itemize}いずれのタスクにおいても,訓練データ100件全てに対して変換を行うため,拡張後の訓練データ数は200件(元のデータ100件+データの変換によって生成されるデータ100件)に増加する.DAにおけるMLMを用いた単語置換には,3つのタスク全てでstockmark-BERTを利用する.一方,タスクを解くためのモデルとしては,3つのタスク全てでtohoku-BERT-v2を用いる.モデルのトレーニングにおける各種設定は,全てのタスクについてバッチサイズを8とし,他の設定に関してはJGLUEを公開しているページ\footnote{\url{https://github.com/yahoojapan/JGLUE/tree/main/fine-tuning}}を参考にした.また,モデルは1種類につき5つ構築し,その5つのモデルの評価の平均値を最終的な評価に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2\subsection{文節シャッフルによるDAを評価する際の設定}文節シャッフルによるDAは,livedoorニュースコーパスを用いた文書分類とJSICKを用いた含意関係認識によってそれぞれ評価を行う.それらの詳細な設定については,\ref{sec:shuffle-livedoor}節と\ref{sec:shuffle-JSICK}節にそれぞれ示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2.1\subsubsection{文書分類(livedoorニュースコーパス)による評価の設定}\label{sec:shuffle-livedoor}文節シャッフルによるDAの評価に用いる文書分類データセットの詳細を\mbox{表\ref{table:livedoor2}}に示す.訓練データセットには90件,検証・テストデータセットには各900件ずつデータが含まれている.訓練データの量が少量であるのは,6.1節と同様の理由である.また,それぞれのデータセットには9つのラベルのデータが同じ数だけ含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[b]\input{05table06.tex}\hangcaption{文節シャッフルによるDAの評価に用いる文書分類データセット(livedoorニュースコーパス)の詳細}\label{table:livedoor2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%DAによって訓練データを変換するときは,ラベル(ニュース記事のカテゴリ)は元のままでデータ(ニュース記事のテキスト)のみに変換を加える.訓練データ90件全てに対してこの変換を行うため,拡張後の訓練データの数は180件(元のデータ90件+データの変換によって生成されるデータ90件)に増加する.文書分類を解くためのモデルには,tohoku-BERTを用いる.モデルのトレーニングでは,損失関数に交差エントロピー誤差を,最適化アルゴリズムにSGD(確率的勾配降下法)を採用した.またハイパーパラメータは下記のように設定した.\begin{itemize}\item学習率:1e-3\itemバッチサイズ:2\itemエポック数:EarlyStopping(patience=5)を用いて決定\end{itemize}モデルの性能については,テストデータを分類した際の正解率(acc)で評価する(モデルは1種類につき5つ構築し,その5つのモデルの平均値を評価に用いる).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2.2\subsubsection{JSICKによる評価の設定}\label{sec:shuffle-JSICK}文節シャッフルによるDAの評価に用いるJSICKデータセットには,表\ref{table:JSICK}のものをそのまま利用する.文書分類タスクのときのように訓練データの数を減らさないのは,含意関係認識のタスクに対するDAは訓練データの数が限られている場合にモデルの性能が向上するとは限らないと考えたからである.DAによる訓練データの変換では,1つのデータに対して下記の3通りのデータを作成する.\begin{itemize}\itemラベル・前提文T・仮説文Hのうち,前提文Tのみを変換したデータ.\itemラベル・前提文T・仮説文Hのうち,仮説文Hのみを変換したデータ.\itemラベル・前提文T・仮説文Hのうち,前提文Tと仮説文Hを変換したデータ.\end{itemize}全ての訓練データに対して上記3つの拡張データを生成するため,拡張後の訓練データの数は元の4倍の数まで増加する.含意関係認識を解くためのモデルには,tohoku-BERT-v2とrinna-RoBERTaの2つを用いる.モデルのトレーニングでは,損失関数に交差エントロピー誤差を,最適化アルゴリズムにSGD(確率的勾配降下法)を採用した.またハイパーパラメータは下記のように設定した.\begin{itemize}\item学習率:1e-3\itemバッチサイズ:8\itemエポック数:EarlyStopping(patience=10)を用いて決定\end{itemize}トレーニング後のモデルの性能は,正解率(acc)で評価する(モデルは1種類につき5つ構築し,その5つのモデルの平均値を評価に用いる).このとき,テストデータ全体における正解率だけではなく,各ラベル(含意・矛盾・中立)をもつデータごとの正解率も調べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7 \section{実験結果} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.1\subsection{複数のBERTを用いたDAの実験結果}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.1.1\subsubsection{文書分類(livedoorニュースコーパス)による評価結果}文書分類(livedoorニュースコーパス)での手法の評価は,\ref{sec:BERT-livedoor}節に示した設定で実施した.その実験結果を\mbox{表\ref{table:train-tohoku}}に示す.tohoku-BERTをモデルとして文書分類を解く場合,stockmark-BERTで訓練データを拡張したモデルの正解率は,拡張なしのモデルと比較して0.7ポイント高くなった.一方で,tohoku-BERTで訓練データを拡張したモデルの正解率は,拡張なしのモデルと比較して1.5ポイント低くなった.stockmark-BERTをモデルとして文書分類を解く場合,tohoku-BERTで訓練データを拡張したモデルの正解率は,拡張なしのモデルと比較して3.0ポイント高くなった.また,stockmark-BERTで訓練データを拡張したモデルの正解率は,拡張なしのモデルと比較して2.6ポイント高くなった.結果として,2種類のBERTどちらをモデルとして使った場合でも,もう一方のBERTで訓練データを拡張したモデルの性能が最も高くなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{05table07.tex}\caption{複数のBERTを用いたDAの実験結果.タスクは文書分類(livedoorニュース).}\label{table:train-tohoku}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.1.2\subsubsection{JGLUEによる評価結果}JGLUEに含まれる3つのタスク(MARC-ja,JSTS,JCommonsenseQA)での手法の評価は,\ref{sec:BERT-JGLUE}節に示した設定で実施した.その実験結果を\mbox{表\ref{JGLUE:result}}に示す.MARC-jaにおいては,訓練データを拡張したモデルの正解率のほうが,拡張なしのモデルと比較して0.5ポイント高かった.一方でJSTSにおいては,訓練データを拡張したモデルのPearson/Spearman相関係数が,拡張なしのモデルと比較してそれぞれ0.008/0.009低くなった.また,JCommonsenseQAにおいても,訓練データを拡張したモデルの正解率が,拡張なしのモデルと比較して1.2ポイント低くなった.以上より,手法は文書分類・文ペア分類・QAのうち文書分類のみに有効であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[t]\input{05table08.tex}\caption{複数のBERTを用いたDAの実験結果.タスクはJGLUEのMARC-ja,JSTS,JCommonsenseQA.}\label{JGLUE:result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.2\subsection{文節シャッフルによるDAの実験結果}\label{sec:shuffle-result}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.2.1\subsubsection{文書分類(livedoorニュースコーパス)による評価結果}文書分類(livedoorニュースコーパス)での手法の評価は,\ref{sec:shuffle-livedoor}節に示した設定で実施した.その実験結果を\mbox{表\ref{table:shuffle-livedoor}}に示す.結果としては,訓練データを拡張したモデルの正解率は,拡張なしのモデルと比べて1.7ポイント高くなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[t]\input{05table09.tex}\caption{文節シャッフルによるDAの実験結果.タスクは文書分類(livedoorニュース).}\label{table:shuffle-livedoor}%\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.2.2\subsubsection{JSICKによる評価結果}JSICKを用いた含意関係認識での手法の評価は,\ref{sec:shuffle-JSICK}節に示した設定で実施した.その実験結果を\mbox{表\ref{table:shuffle-JSICK}}に示す.含意関係認識を解くモデルとしてrinna-RoBERTaを用いた場合,訓練データを拡張したモデルの正解率(全体)は,拡張なしのモデルと比較して0.8ポイント高くなった.このとき,ラベル別の正解率の上昇幅を確認すると,矛盾データの正解率の上昇幅が3.4ポイントと最も大きかった一方で,中立データは拡張の有無によって正解率があまり変化しなかった.また,含意関係認識を解くモデルとしてtohoku-BERT-v2を用いた場合,訓練データを拡張したモデルの正解率(全体)は,拡張なしのモデルと比較して0.5ポイント上昇した.また,ラベル別の正解率の上昇幅を確認すると,rinna-RoBERTaと同様に矛盾データの正解率の上昇幅が最も大きく,1.8ポイントであった.一方で,含意データの正解率は0.4ポイント下がっていた.以上をまとめると,tohoku-BERT-v2とrinna-RoBERTaどちらをモデルとして利用した場合も,本手法を用いることでモデルの性能が向上した.また,ラベル別に性能を確認すると特に矛盾データを識別する性能が向上していた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[t]\input{05table10.tex}\caption{文節シャッフルによるDAの実験結果.タスクは含意関係認識(JSICK).評価指標はacc.}\label{table:shuffle-JSICK}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8 \section{考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.1\subsection{各種タスクに対する複数のBERTを用いたDAの効果}複数のBERTを用いたDAによる文書分類タスク(livedoorニュースコーパス,MARC-ja),文ペア分類タスク(JSTS)及びQAタスク(JCommonsenseQA)の実験結果(\mbox{表\ref{table:train-tohoku}}と\mbox{表\ref{JGLUE:result}})をみると,複数のBERTを用いたDAは文書分類タスクでは効果があるが,文ペア分類タスクやQAタスクでは効果が見られなかった.これはタスクが要求している意味解析の粒度に関係していると考えられる.複数のBERTを用いたDAは類義語置換であり,粗い意味解析で解けるタスクに対しては効果はあるが,細かい意味解析を必要とするタスクには効果はないと考えられる.文書分類タスクでは文書内の単語が類義語に置き換わっても,文書のジャンルに影響はほとんどない.例えば,文書中の「彼が自転車に乗っている.」を「彼がバイクを乗っている.」に置き換えても文書のジャンルに影響はない.つまり文書分類タスクは粗い意味解析で解けるタスクであり,そのため複数のBERTを用いたDAは効果があったと考えられる.一方,文ペア分類タスク(JSTS)は2つの文の類似度を推定するタスクである.例えば訓練データの95番目のデータの2つの文は「ネクタイとペンが机の上に置かれています.」と「机の上にはネクタイとペンが置いてあります.」であり,この類似度は最大値の5.0である.この文の中の「ネクタイ」「ペン」「机」のどれかを類義語に置き換えた場合,類似度が5.0とはならない.また訓練データの2番目のデータの2つの文は「男性が子供を抱き上げて立っています.」と「坊主頭の男性が子供を抱いて立っています.」であり,この類似度は4.0である.この文中の「男性」や「子供」を,何も考慮せずに,類義語に置き換えたときに類似度が4.0のままである保証は全くなく,むしろ類似度は変化すると考えられる.つまり文ペア分類タスクに類義語置換によるDAを用いる場合には,置換後の2文間の類似度を維持できるように類義語を選択しなくてはならず,より細かい粒度の意味解析が必要である.このため複数のBERTを用いたDAは文ペア分類タスクに関しては効果が出なかったと考えられる.同様にQAタスク(JCommonsenseQA)も細かい粒度の意味解析が必要である.例えば訓練データの2番目のデータの質問は「数字の1を表すときに使う体は?」であり,選択肢は「0:胸,1:肉球,2:背中,3:人差し指,4:親指」であり,答えは3である.質問文中の「数字」「1」「体」のどれかを類義語に置き換えた場合,質問文自体がおかしくなる可能性がある.また適切な質問文になったとしても,選択肢の中に答えが存在するとは限らない.しかもその答えが3になるとしたら,それは偶然である.つまりQAタスクの解決には粒度の細かい意味解析が必要であり,類義語置換のような簡易なDAは効果がなく,むしろ悪影響が出ると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.2\subsection{各種タスクに対する文節シャッフルによるDAの効果}文節シャッフルによるDAを用いた文書分類タスク(livedoorニュースコーパス)と含意関係認識タスク(JSICK)の実験結果(\mbox{表\ref{table:shuffle-livedoor}}と\mbox{表\ref{table:shuffle-JSICK}})をみると,どちらのタスクに対しても文節シャッフルによるDAの効果があった.文節シャッフルによるDAは,文の係り受け関係が崩れないように文節の順序をシャッフルすることで,訓練データを拡張する手法であり,拡張したデータ内の出現単語に変化はない.このため文書のベクトル化にBOW(BagofWords)を利用した場合には,文書分類タスクには効果はない.ただし本実験のようにBERTを利用する場合には,文書のベクトル(埋め込み)には単語間の位置関係の情報も埋め込まれるので,文節シャッフルによるDAが効果があったのだと考えられる.また含意関係認識タスクをBERTを用いて解く場合,含意か矛盾かの2値分類であれば,基本的に2文間の意味的近さを測っているとも考えられるが,JSICKのように含意,矛盾,中立の3値分類の場合,どのような規則が学習されているのかは明らかではない.文節シャッフルによるDAを用いて拡張された文は元の文から意味の変化はない.そのため実験により効果が出たことを考えると,意味のレベルではなく,3値分類を解くための表層的な情報(例えば助詞の出現順序など)が学習されたと考えられる.含意関係認識タスクをBERTを用いて解く場合には,何が学習されるのか,またそのための効果的なDAは何かを調べることは今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.3\subsection{文書分類タスクに対する訓練データ量とDAによる効果の関係}本論文で扱う手法のような簡易的なDAは,元の訓練データの量が少ない場合に効果的であり,量が十分な場合にはあまり効果がないと考えられている\cite{wei-zou-2019-eda}.本節ではこの点を確認するために,訓練データを少量に設定して実験を行ったいくつかのタスクについて,その量を拡大して同様の実験を行う.そして,訓練データ量の大小でDAの効果に差が出るかについて調査する.まず,複数のBERTを用いたDAを文書分類(livedoorニュースコーパス)で評価したケースについて,訓練データの量を元の2倍の量である540件に拡大して再実験した.このとき,拡張訓練データの数も元の2倍である200件に拡大している.なお,実験に使うモデルはtohoku-BERTのみ,訓練データは拡張なしの場合とstockmark-BERTで拡張した場合のみとする.結果としては,元の訓練データの量を増やした場合,DAを行ってもモデルの性能が向上することはなかった(表\ref{tab:量比較-bert-livedoor}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[b]\input{05table11.tex}\hangcaption{訓練データ量とDAによる効果の関係調査.手法は複数のBERTを用いたDA.タスクは文書分類(livedoorニュース).評価指標はacc.}\label{tab:量比較-bert-livedoor}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,複数のBERTを用いたDAをJGLUEの各タスクで評価したケースについて,各タスクの訓練データの量を元の10倍である1,000件に拡大して実験を行った.その結果としては,どのタスクにおいても,元の訓練データの量が大きくなることで,DAによるモデルへの影響がマイナスの方向に大きくなった(表\ref{tab:量比較-JGLUE}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table}[t]\input{05table12.tex}\hangcaption{訓練データ量とDAによる効果の関係調査.手法は複数のBERTを用いたDA.タスクはJGLUEのMARC-ja,JSTS,JCommonsenseQA.モデルはtohoku-BERT-v2.}\label{tab:量比較-JGLUE}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,文節シャッフルによるDAを文書分類(livedoorニュースコーパス)で評価したケースについて,訓練データの量を元の5倍,10倍の量である450件,900件に拡大して実験を行った.このケースでは,元の訓練データの量が大きくなるほど,DAによるモデルの性能向上の効果が小さくなるという結果になった(表\ref{tab:量比較-shuffle-livedoor}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T13\begin{table}[t]\input{05table13.tex}\hangcaption{訓練データ量とDAによる効果の関係調査.手法は文節シャッフルによるDA.タスクは文書分類(livedoorニュース).評価指標はacc.}\label{tab:量比較-shuffle-livedoor}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上の結果から,文書分類タスクに対しては,本論文で扱う2つの手法はどちらもタスクにおける元の訓練データの量が少量である場合に効果が高く,元の訓練データの量が大きくなるほど効果が出にくくなると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.4\subsection{含意関係認識タスクに対する訓練データ量とDAによる効果の関係}JSICKを用いた含意関係認識の実験結果である\mbox{表\ref{table:shuffle-JSICK}}をみると,矛盾データの数(748件)が含意データの数(991件)や中立データの数(2,761件)と比較して少ないという状況下で,矛盾データに対しての識別性能が向上の度合いが,含意データや中立データでの識別性能の向上の度合いに対して大きい.この点から文節シャッフルによるDAにおける含意関係認識のタスクに関しても,元の訓練データの量が少量である方が効果が高い可能性もある.この点を確認するために含意データ,中立データを矛盾データの数の748件に揃えて,6.2.2節と同じ設定で文節シャッフルによるDAの実験を行った.検証データとテストデータは,7.2.2節の評価で用いたものと同じものを使用した.この実験結果を\mbox{表\ref{table:shuffle-JSICK-2}}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T14\begin{table}[t]\input{05table14.tex}\hangcaption{文節シャッフルによるDAの実験結果.タスクは訓練データ数(748件)を揃えた含意関係認識(JSICK).評価指標はacc.}\label{table:shuffle-JSICK-2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず含意データ,中立データ,矛盾データの数を揃えた場合でも,全体的に文節シャッフルによるDAにより精度が向上しており,文節シャッフルによるDAの有効性が確認できる.また文節シャッフルによるDAの効果の程度をみるために,\mbox{表\ref{table:shuffle-JSICK}}と\mbox{表\ref{table:shuffle-JSICK-2}}をもとにして「拡張なし」の場合と比較して文節シャッフルによるDAにより,どの程度精度が向上しているかを,元の訓練データを用いた場合(訓練データ数が991+748+2761)と含意,矛盾,中立の各データ数を揃えた場合(訓練データ数が748$\times$3)に分けて\mbox{表\ref{table:shuffle-JSICK-3}}にまとめた.表内の標準偏差は「拡張なし」の標準偏差と「拡張あり」の標準偏差との和としている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T15\begin{table}[t]\input{05table15.tex}\hangcaption{文節シャッフルによるDAの実験結果.タスクは含意関係認識(JSICK).表内の数値は「拡張なし」からの精度向上の度合い}\label{table:shuffle-JSICK-3}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\mbox{表\ref{table:shuffle-JSICK-3}}では,データ数を揃えない方が文節シャッフルによるDAの効果が高い.また含意,中立,矛盾のカテゴリ別に見ても一貫した関連性は見られない.このため\mbox{表\ref{table:shuffle-JSICK}}の結果が,矛盾のカテゴリを持つデータが少ないために生じたということは言えない.\mbox{表\ref{table:shuffle-JSICK-3}}の結果は,単純にデータ数が多い方が文節シャッフルによるDAの効果が高いという可能性がある.この点を確認するために,含意データ,中立データ,矛盾データの数を先の実験の半分である374件に揃えて,6.2.2節と同じ設定で文節シャッフルによるDAの実験を行った.検証データとテストデータは,7.2.2節の評価で用いたものと同じものを使用した.この実験結果を\mbox{表\ref{table:shuffle-JSICK-4}}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T16\begin{table}[t]\input{05table16.tex}\hangcaption{文節シャッフルによるDAの実験結果.タスクは訓練データ数(374件)を揃えた含意関係認識(JSICK).評価指標はacc.}\label{table:shuffle-JSICK-4}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\mbox{表\ref{table:shuffle-JSICK-4}}では,モデルにrinna-RoBERTaを用いた場合に文節シャッフルによるDAの効果が出ているが,モデルにtohuku-BERT-v2を用いた場合には文節シャッフルによるDAは逆に精度を下げている.また先と同様に,文節シャッフルによるDAの効果の程度という観点でみるために,\mbox{表\ref{table:shuffle-JSICK-2}}と\mbox{表\ref{table:shuffle-JSICK-4}}をもとにして「拡張なし」の場合と比較して文節シャッフルによるDAにより,どの程度精度が向上しているかを,含意,矛盾,中立の各データ数が748$\times$3の場合と含意,矛盾,中立の各データ数が先の半分の374$\times$3の場合とに分けて\mbox{表\ref{table:shuffle-JSICK-5}}にまとめた.表内の標準偏差は「拡張なし」の標準偏差と「拡張あり」の標準偏差との和としている.また表中の括弧内の数値は精度を表している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T17\begin{table}[t]\input{05table17.tex}\hangcaption{文節シャッフルによるDAの実験結果(2).タスクは含意関係認識(JSICK).表内の数値は「拡張なし」からの精度向上の度合い,括弧内の数値は精度}\label{table:shuffle-JSICK-5}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\mbox{表\ref{table:shuffle-JSICK-5}}から全体の精度で比較するとデータ数が多い方が精度も高い.ただしDAの効果という観点からはデータ数の大小による優劣はない.むしろ訓練データ数を小さくすると文節シャッフルによるDAの効果が現れづらくなっており,一般に言われるように訓練データの数が小さい方がDAの効果の高いとは言えない.これらのことから\mbox{表\ref{table:shuffle-JSICK-3}}の結果は,DAを利用する場合においても,テストデータの分布に合った訓練データを利用する方が良い精度が得られるからだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.5\subsection{複数のBERTを用いたDAにおけるBERT間の単語の重なり}複数のBERTを用いたDAが効果を発揮するのは,2つのBERTで事前学習によって獲得した知識が異なるからである.本節では,ある文に含まれる一部の単語を[MASK]で隠したとき,そこに入ると予測される単語は,実験で使用した2つのBERTであるtohoku-BERTとstockmark-BERTでどの程度異なるかを,その重なり具合から調べる.まず,livedoorニュースコーパスを用いた文書分類において,拡張を行った100件のテキストを用意する.そして,各テキストに対して,TF-IDFが高い単語を[MASK]で隠す処理を行う.その後,隠した部分の予測を,tohoku-BERTとstockmark-BERTのMLMでそれぞれ行う.最後に,それぞれのBERTが予測した上位5単語同士を比較し,単語の順位は考慮せずに,2つのBERT間で5単語中何単語重なるかを調査する.この実験の結果を\mbox{表\ref{table:一致数}}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T18\begin{table}[t]\input{05table18.tex}\hangcaption{2つのBERTが[MASK]に入ると予測した上位5単語同士は何個重なるのか.100件のテキストで調査.}\label{table:一致数}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%調査した100件において,2つのBERTがそれぞれ予測した上位5単語同士は,平均で5個中1.64個,割合にすると32.8%重なることが分かった.このときの単語が重なっていた分については,tohoku-BERTとstockmark-BERTで似た知識を保有していたと考えられる.一方で,単語が重ならなかった分については,それぞれのBERTで異なる知識を保有していたと考えることができる.そのため,今回のlivedoorニュースコーパスを用いた文書分類の実験では,2つのBERTがそれぞれ異なる知識を保有しており,それらが合わさることでモデルの性能が向上したと考えられる.また今回は,tohoku-BERTとstockmark-BERTを利用したが,これらのBERT以外にも様々なBERTが存在する.そのため,BERT同士の知識があまり重ならないような2種類のBERTのペアを選択して,今回と同じようにDAを行えば,今回以上の効果が期待できる.また,DAに使うBERTの種類を1種類ではなく多種類に増やすことによっても,モデルの性能向上の効果がより高まることが期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8.6\subsection{文節シャッフルによるDAと類似手法の性能比較}本手法は,日本語の文に対して係り受け関係を崩さないように変換を行うことで,元の文の意味を保った自然な文を生成することができる.しかし,その特徴が含意関係認識モデルの性能を改善させる要因になっているのかは不明である.本節では,本手法と係り受け関係を考慮せずに文の構成要素の順番をシャッフルする手法を比較する.この比較によって,DAにおける文の変換時に,元の文の意味を保った自然な文を生成することがモデルの性能を改善する要因となっているかについて検証する.本手法との比較に用いる手法は,係り受け関係を無視して文節単位で文をシャッフルする手法(以下,ランダムな文節シャッフル)と単語単位で文をシャッフルする手法(以下,単語シャッフル)の2つとする.ランダムな文節シャッフルでは,文を文節に分解した後に述語以外の文節の順番をシャッフルする.また,単語シャッフルでは,文を単語に分割した後に単語の順番をシャッフルする.なお,ランダムな文節シャッフルにおける文節分割にはCaboChaを,単語シャッフルにおける単語分割にはMeCabを使用する.比較のための実験は,livedoorニュースコーパスを用いた文書分類と,JSICKによる含意関係認識で行う.このときに使用するデータセットは,\ref{sec:shuffle-livedoor}節,\ref{sec:shuffle-JSICK}節で述べたものと同様である.まず,livedoorニュースコーパスを用いた文書分類による実験結果を表\ref{table:shuffle-livedoor}の結果と併せて表\ref{table:類似手法-livedoor}に示す.このとき,文書分類を行うモデルにはtohoku-BERTを用いる.実験結果によると,係り受けを考慮した文節シャッフルを利用したモデルの性能が最も高くなった.ランダムな文節シャッフルを適用したモデルも,DAなしのモデルと比べると性能が向上したものの,係り受けを考慮した文節シャッフルには及ばなかった.単語シャッフルを適用したモデルは,DAなしのモデルとほとんど性能の差がなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T19\begin{table}[b]\input{05table19.tex}\caption{文節シャッフルによるDAの類似手法との性能比較.タスクは文書分類(livedoorニュース).}\label{table:類似手法-livedoor}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T20\begin{table}[b]{\vskip-10pt}\input{05table20.tex}\hangcaption{文節シャッフルによるDAの類似手法との性能比較.タスクは含意関係認識(JSICK).評価指標はacc.モデルはrinna-RoBERTa.}\label{table:類似手法-JSICK}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,JSICKでの実験結果を\mbox{表\ref{table:shuffle-JSICK}}の結果と併せて\mbox{表\ref{table:類似手法-JSICK}}に示す.このとき,含意関係認識を行うモデルにはRoBERTaを用いる.結果としては,データ全体の正解率は,係り受けを考慮した文節シャッフルで拡張した場合が最も高く,単語シャッフルで拡張した場合は拡張なしよりも低くなった.また,ラベル別に正解率を見ると,含意と矛盾の正解率は係り受けを考慮した文節シャッフルが最も高く,中立の正解率のみランダムな文節シャッフルが係り受けを考慮した文節シャッフルをわずかに上回った.以上の結果から,係り受けを考慮した文節シャッフルは,他のシャッフルの手法と比較して効果が高いことが分かった.ランダムな文節シャッフル・単語シャッフルの効果が低かった原因としては,ラベルとテキストがあっていない訓練データが係り受けを考慮した文節シャッフルと比べて多く生成され,それらのデータがノイズとなるからであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S9 \section{おわりに} 本論文では,我々が考案した複数のBERTを用いたDAと,文節シャッフルによるDAという2つの手法についてまとめた.1つ目の手法である複数のBERTを用いたDAは,BERTのような事前学習済みモデルを用いてタスクを解く場合に,そのタスクに用いるモデルとは異なるコーパスで事前学習されたモデルを用いて,単語置換による訓練データの拡張を行う手法である.我々は,この手法が文書分類に効果がある一方で,文ペア分類,QAには効果がないことを実験によって示した.2つ目の手法である文節シャッフルによるDAは,文の係り受け関係が崩れないように文節の順序をシャッフルすることで,訓練データを拡張する手法である.我々は,この手法が文書分類と含意関係認識に効果があることを実験によって示した.さらに,これらの手法はその他の簡易的なDAの手法と同様に,文書分類タスクに対しては,訓練データが少量である場合のみモデルの性能を向上させる効果があり,十分な量がある場合はその効果を発揮しないことがわかった.また文節シャッフルによるDAの場合,含意関係認識のタスクに対しては,上記のような性質がないことがわかった.今後はこの2つの手法について,手法同士もしくはその他の手法と組み合わせて利用したときにその効果はどうなるのかについてや,まだ試していないタスクへの有効性なども明らかにしていきたい.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は国立国語研究所の共同研究プロジェクト「テキスト読み上げのための読みの曖昧性の分類と読み推定タスクのデータセットの構築」及びJSPS科研費23K11212,22K12145の助成を受けています.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{05refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{高萩恭介}{%2022年茨城大学工学部情報工学科卒,2024年茨城大学理工学研究科情報工学専攻修了.現在,BIPROGY株式会社.}\bioauthor{古宮嘉那子}{%2005年東京農工大学工学部コミュニケーション工学科卒.2009年同大学大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師,2021年東京農工大学工学研究院准教授.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{新納浩幸}{%1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年茨城大学工学部システム工学科助手.1997年同学科講師.2001年同学科助教授.2005年学科改組により,情報工学科准教授.2015年同学科教授.現在に至る.機械学習,統計学による自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V16N05-04
\section{はじめに} \label{sec:introduction}テキスト中の含意関係や因果関係を理解することが,質問応答,情報抽出,複数文章要約などの自然言語処理の応用に役立つと知られている.これを実現するためには,例えば,動詞「洗う」と動詞句「きれいになる」が,何かを洗うという行為の結果としてその何かがきれいになるという因果関係である,といったような知識が必要である.本論文では,事態と事態の間にある関係を大規模にかつ機械的に獲得するための手法について述べ,この手法を用いた実験結果を示す.因果関係,時間関係,含意関係等の事態間関係を機械的に獲得するための研究が既に存在する~\cite[etc.]{Dekang-Lin,inui:DS03,chklovski,torisawa:NAACL,pekar:2006:HLT-NAACL06-Main,zanzotto:06}.これらの研究に共通する方法論は,特定の事態間関係を表現する語彙統語的なパターンを人手で作成し,このパターンと共起する事態対をテキストから抽出することで,特定の関係を満たす事態対を獲得するという方法である.なお,このように共起関係を利用するパターンを共起パターンと言うことにする.例えば``toVerb-XandthenVerb-Y''という時間的前後関係を表現する共起パターンを用いて,テキスト``tomarryandthendivorce''から動詞``marry''と動詞``divorce''が時間的前後関係にあるという知識を獲得できる~\cite{chklovski}.こうした手法では,大量の共起パターンを人手で作成することが困難であるため,多くの事態対と共起する傾向を持つような一般的な共起パターンを用意することで,少量の一般的な共起パターンを用いて特定の関係を満たす事態対を大量に獲得することが可能となる.しかし,このような一般的な共起パターンを用いて獲得した事態対には誤りが多いという傾向がある.この問題に対処するために,一般的な共起パターンを利用して獲得した事態間関係に別の手法を適用して誤った事態間関係を取り除く手法があり,代表的なものとして発見的な統計情報を用いる手法~\cite{chklovski,torisawa:NAACL,zanzotto:06}と曖昧性の問題を解消するために学習を行う方法~\cite{inui:DS03}がある.一方で,実体間関係を獲得する研究~\cite[etc.]{ravichandran:02,pantel2006}が共起パターンと獲得できる事例の性質を次のように報告している.\begin{itemize}\item多くの事例と共起するパターン(一般的なパターン)を利用して実体間関係知識を獲得すると精度が低い傾向がある.そのため,精度を向上させるためには誤った関係を除く別の手法が必要である.\item逆に少数の事例のみと共起するパターン(特殊なパターン)を利用することで高い精度で実体間関係を獲得することが可能になる.しかし,大量に実体間関係知識を獲得するためには大量の共起パターンを用意する必要がある.\item一般的な共起パターンと特殊な共起パターンを組み合わせて実体間関係を獲得することで高い精度で大量の実体間関係知識を獲得できる可能性がある.\end{itemize}これを受けてPantelとPennacchiotti~\cite{pantel2006}は,実体間関係を表現する共起パターンと実体対をブートストラップ的に獲得する手法を開発した.しかし,これと同様の手法は事態間関係獲得でまだ試みられていないため,この手法を事態間関係獲得に適用した場合に実体間関係獲得のように良い成果を上げるのかという点が明かではない.これらの実体間関係獲得の研究成果を事態間関係獲得に応用するために,PantelとPennacchiotti~\cite{pantel2006}のブートストラップ的実体間関係獲得手法を事態間関係獲得に適用させるように拡張し(\ref{ssec:argument_selection}〜\ref{ssec:pattern}節),拡張した手法が事態間関係獲得においても有効であるかを確認するために,日本語5億文Webコーパスから従来の手法と拡張した手法を用いて行為—結果関係にある事態間関係を獲得し,この結果を評価する(\ref{sec:experiment}節). \section{事態間関係知識獲得の関連研究} \label{sec:related_work}\sec{introduction}でいくつか関連研究を取り上げたが,そこで紹介できなかった関連研究を本節で紹介する.初期の共起パターンを用いた事態間関係獲得の手法はChklovskiとPantel~\cite{chklovski}のVerbOceanである.この手法は人手で作成した\textit{toVerb-XandthenVerb-Y}のような少数の共起パターンを利用して,\textit{strength}(例えば\textit{taint--poison})や\textit{happens-before}(例えば\textit{marry--divorce})のような6種類の事態間関係を獲得し,約29,000の述語対を65.6\%の精度で獲得した.多くの事例と共起するパターンを用いて獲得した事態間関係から誤りを除くために,Inuiら~\cite{inui:DS03}は因果関係を表わす接続表現「ため」と教師付き分類学習を用いて,80\%の再現率と95\%以上の精度で因果関係を4種類\textit{cause},\textit{precondition},\textit{effect},\textit{means}に分類した.他に,Torisawa~\cite{torisawa:NAACL}は接続パターン「Verb-XてVerb-Y」を用いて獲得した述語対と,それぞれの述語と格の間の共起情報を組み合せて時間的制約にある事態対を獲得した.ただし,この手法は時間的制約にある事態対以外の関係を獲得するために応用できるのかは明かではない.また,共起パターンを用いた~\cite{chklovski}手法を元にZanzottoら~\cite{zanzotto:06}は名詞化した動詞を利用して含意関係にある事態対を獲得した.例えば,含意関係\textit{Xwins$\rightarrow$Xplays}を\textit{playerwins}のようなパターンから獲得した\footnote{動詞``play''を名詞化すると名詞``player''となる.}.しかし,動詞を名詞化するには様々な変形パターンを考えることができるが,この実験では限定的な変形パターンのみを対象としている. \section{Espresso} \label{sec:espresso}本節ではPantelとPennacchiottiが実体間関係を獲得するために開発したEspressoアルゴリズム~\cite{pantel2006}を紹介する.共起パターンを用いた実体間関係獲得手法のひとつであるEspressoは,特定の関係を満たす実体対とよく共起するパターンが存在するという共起パターンを用いた手法に共通する仮定を置いている.Espressoは,この仮説に加えて,共起パターンまたは実体対が特定の関係を表わす程度を信頼度という指標で表わし,信頼度の高い共起パターンが支持する実体対の信頼度は高く,信頼度の高い事態対が支持する共起パターンの信頼度も高いという仮定を置いた\footnote{本稿において,「支持する」という言葉は「同時に出現する」と同じ意味とする.例えば,「共起パターンが実体対を支持する」は「共起パターンと実体対が同時に出現した」と同じ意味である.}.このとき,Espressoは人手で作成した信頼度の高い実体対を入力として,これと共起する信頼度の高い共起パターンを獲得する.次に信頼度の高い共起パターンを用いて,信頼度の高い実体対を獲得する.この操作をブートストラップ的に繰り返すことで,信頼度の高い実体対を大量に獲得する.\subsection{共起パターンの信頼度}\label{ssec:equation}獲得したい関係にある実体対\bracket{$x,y$}が与えられたとき,Espressoは$x$と$y$の両方が含まれた文をコーパスから探し出す.例えば,\textsl{is-a}関係の実体対\bracket{$\text{Italy},\text{country}$}が与えられたとき,Espressoはテキスト\textit{countriessuchasItaly}が含まれるような文を見つけ出し,共起パターン\textit{YsuchasX}を獲得する.Espressoは共起パターン$p$の良さを測るために信頼度$r_\pi(p)$という尺度を用いる.共起パターンの信頼度$r_\pi(p)$は,共起パターン$p$を支持する実体対$i$の信頼度$r_\iota(i)$から求められる.共起パターン$p$を支持する実体対$i$の集合を$I$とする.\begin{eqnarray}\label{eq:rpi}r_\pi(p)=\frac{1}{|I|}\sum_{i\inI}\frac{\mathit{pmi}(i,p)}{\mathit{max}_{pmi}}\timesr_\iota(i)\end{eqnarray}$\mathit{pmi}(i,p)$は\eq{pmi}で定義される$i$と$p$のpointwisemutualinformation(PMI)であり,$i$と$p$の関連度を表現する.$max_{pmi}$は,共起パターンと実体対が共起した場合全てのPMIの中で最大となるPMIである.\begin{eqnarray}\label{eq:pmi}\mathit{pmi}(x,y)=\log\frac{P(x,y)}{P(x)P(y)}\end{eqnarray}PMIは頻度が少ないときに不当に高い関連性を示すという問題が知られている.この問題を軽減するために,Espressoでは\eq{pmi}の代りに~\cite{pantel2004}で定義された\eq{pmi2}を用いる.\begin{eqnarray}\label{eq:pmi2}\mathit{pmi}(x,y)=\log\frac{P(x,y)}{P(x)P(y)}\times\frac{C_{xy}}{C_{xy}+1}\times\frac{min(\sum_{i=1}^{n}C_{x_i},\sum_{j=1}^{m}C_{y_j})}{min(\sum_{i=1}^{n}C_{x_i},\sum_{j=1}^{m}C_{y_j})+1}\end{eqnarray}$C_{xy}$は$x_i$と$y_j$が同時に出現した回数,$C_{x_i}$は個々の$x_i$の出現した回数,$C_{y_j}$は個々の$y_j$の出現した回数,$n$は$x$の異り数,$m$は$y$の異り数である.\subsection{実体対の信頼度}共起パターンの信頼度と同じように,実体対$i$の信頼度$r_\iota(i)$を次のように定義する.\begin{eqnarray}\label{eq:rl}r_\iota(i)=\frac{1}{|P|}\sum_{p\inP}\frac{\mathit{pmi}(i,p)}{\mathit{max}_{pmi}}\timesr_\pi(p)\end{eqnarray}共起パターン$p$の信頼度$r_\pi(p)$は,前述の\eq{rpi}で定義され,$max_{pmi}$は先の定義と同じであり,実体対$i$を支持する共起パターン$p$の集合を$P$とする.共起パターンの信頼度$r_\iota(i)$と実体対の信頼度$r_\pi(p)$は再帰的に定義され,人手で与えたシード$i$の信頼度を$r_\iota(i)=1$とする.なお,我々の拡張では,人手で与えた負例関係にある事態対の信頼度を$r_\iota(i)=-1$とした. \section{事態間関係獲得} \label{sec:event_relation_acquisition}実体対関係を獲得するための手法であるEspressoを,我々は事態間関係を獲得できるように拡張した.この拡張はEspressoが獲得する対象である「実体対」を「事態対」に置き換えたものではあるが,実体と事態は特徴が異なるため,様々な変更を施した.本稿では事態間関係獲得に拡張したEspressoを拡張Espressoと言うことにする.本節では,拡張Espressoについて説明する.事態の表現について\ssec{event_representation}〜\ssec{argument_selection}で説明し,共起パターンの表現について\ssec{pattern}〜\ssec{volition}で説明し,その他の変更を\ssec{verbal_nouns}〜\ssec{eq_change}で説明する.\subsection{事態の表現}\label{ssec:event_representation}事態は述語項構造を用いて表現する.述語項構造を用いて表現することで,動詞句の名詞句化や連体節化,照応/省略などによって表層的な統語構造に生じる差異を吸収し,標準的な表現に統一することができる.例えば,「夏目漱石によって発表された『坊ちゃん』」や「夏目漱石による『坊ちゃん』の発表」は統語構造では異なるが,述語項構造では「夏目漱石ガ『坊ちゃん』ヲ発表する」に統一される.また,テキスト中に出現した表記のままではなく,形態素の原形で事態を表現する.ただし事態が動詞として出現し,その後に,受け身(〜される),使役(〜させる),可能(〜られる),希望(〜したい)を表わす表現が続く場合はこれらも事態の一部であるとみなす.例えば,テキスト中で「走る」という表記で出現した場合も「走った」と出現した場合も事態「走る」であるとみなし,表現「走りたかった」は事態「走りたい」であるとみなす.他に,テキスト中にサ変名詞とそれに後続する動詞「する」が表われ,これを事態とする場合はサ変名詞の原形と動詞「する」の組み合わせを事態の表現とする.例えば,テキスト中の「研究したかった」は事態「研究したい」とみなす.これとは別に,「ある」「なる」「する」のようなそれ自身が意味を持たない語句や非常に多義な語句からなる事態対の間には適切な事態間関係が成立し難い.そこで,このような語句は,単独では事態とみなさず,直前の格とその格要素を含めてひとつの事態とみなす.例えば,テキスト中の「焦げ目が付く」の「付く」は単独では事態とみなさないが,「焦げ目が付く」はひとつ事態であるとみなす.さらに,直前の格がヲ格であり動詞が「する」の場合は,格を省略して格要素と「する」を組み合わせてひとつの事態とみなす.例えばテキスト中の「研究をする」はヲ格を省略して「研究する」という事態とみなす.実験では次の語句を単独では事態とみなさないようにした.\begin{quotation}「ある」「いく」「いる」「おこなう」「かる」「する」「ちる」「できる」「とめる」「なる」「みる」「やる」「付く」「伝える」「似る」「作る」「使う」「保つ」「入る」「入れる」「出す」「出る」「分かる」「加える」「取り戻す」「取る」「向ける」「含む」「呼ぶ」「因る」「増える」「変わる」「変化(する)」「寄る」「対処(する)」「居る」「建つ」「引く」「弱る」「影響(する)」「得る」「思う」「拡大(する)」「救う」「断つ」「書く」「止める」「残る」「決定(する)」「減る」「生じる」「知る」「立つ」「終る」「終わる」「終了」「経つ」「経る」「続ける」「縮小(する)」「考え」「考える」「聞く」「行う」「見える」「見せる」「見る」「見失う」「言う」「言える」「話す」「語る」「読む」「踏み切る」「込める」「通る」「進む」「進める」「進展(する)」「開始(する)」「関係(する)」\end{quotation}このリストは,「付く」のようにほとんど意味を持たないために単独では事態と見なせない語句と,「開始する」や「影響する」のように多義であるために事態対を構成したときに事態間に適切な関係を成立さえることが難しい語句からなる.\subsection{格の選択}\label{ssec:argument_selection}事態間関係知識をテキストから獲得する際には事態をどの程度一般化するかという問題がある.実体間関係獲得にも同様の問題はあるが,固有名または1つの単語の間で関係が成り立つため,獲得した実体表現を適切に一般化するという問題は事態間関係知識獲得と比較して重要ではない.しかし,事態間関係獲得においてこの問題は重要であり,実体間関係知識獲得との大きな違いである.例を用いてこの問題を説明する.(A)は「肉を焼く」と「焦げ目が付く」が行為—効果関係であることを示唆している.\begin{itemize}\item[(A)]焦げ目が付くくらい肉を焼く\end{itemize}このテキストから事態間関係知識を獲得する方法を考えるが,ここでは関係を決める方法には触れず,適切な事態対を獲得する方法だけを考慮する.最初に,入力文に形態素解析と係り受け解析を適用して動詞とその格を見付ける.ここから,このテキストに含まれる事態は「付く」と「焼く」であることと,「付く」の格は「焦げ目が」で,「焼く」の格は「肉を」であることがわかる.この結果,事態対「焦げ目が付く::肉を焼く」を機械的に獲得することができる.この事態対は,人間であれば「肉を焼いたら焦げ目が付く」という行為—効果関係であると解釈することができるため,事態間関係になりうる正しい事態対である.また,「焼く」の格「肉を」を事態に含めない場合に獲得できる事態対は「焦げ目が付く::焼く」であり,この事態対も行為—効果関係と解釈することができるため正しい事態対である.しかし,動詞「付く」の格「焦げ目が」を事態に含めない場合に獲得できる事態対「付く::肉を焼く」と「付く::焼く」は行為—効果関係であると解釈することはできないため,事態間関係になりえない誤った事態対である.まとめると,事態対に含める格を変化させることで様々な事態対を獲得できるが,同時に誤った事態対を獲得する可能性が生じるため,正しい事態対のみを選択することが必要である.この問題に対して我々は,事態対に格を含めるか含めないかという全ての可能性を考慮し,\ssec{event_representation}で述べた語句のリストと事態間関係獲得モデルの信頼度を用いて正しい事態対を選ぶ.例えば,テキスト(A)から獲得できる事態対は(B)に示すように4種類ある.\begin{itemize}\item[(B1)]焦げ目が付く::肉を焼く\item[(B2)]焦げ目が付く::焼く\item[(B3)]付く::肉を焼く\item[(B4)]付く::焼く\end{itemize}\ssec{event_representation}の語句のリストに事態「付く」が含まれているため,事態「付く」を含む事態対「付く::肉を焼く」と「付く::焼く」を無効な事態対とみなすことができ,事態対「焦げ目が付く::肉を焼く」と「焦げ目が付く::焼く」を事態対候補とすることができる.仮に「付く」が\ssec{event_representation}の語句のリストに含まれていかったとしても,「焦げ目が付く::肉を焼く」と「焦げ目が付く::焼く」には高い信頼度が与えられ,「付く::肉を焼く」と「付く::焼く」には低い信頼度が与えられると期待できるため,最終的に信頼度の高い事態対のみを選ぶことで,適切な事態対を選ぶことができる.実験(\sec{experiment})では計算コストの観点から事態の格の数を最大1個に制限した.例えば,事態「肉に焦げ目が付く」の可能性として「肉に付く」「焦げ目が付く」「付く」だけを考える(「肉に焦げ目が付く」は考えない).\subsection{共起パターンの表現}\label{ssec:pattern}Espressoは実体間関係を獲得するために「$x$は歴史のある$y$」のような共起パターンを用いる.この共起パターンはis-a関係を表現しており,テキスト「イタリア\textbf{は歴史のある}国」から「イタリア」は「国」のis-a関係であるという実体間関係知識を獲得する.また,Espressoで用いる共起パターンは実体を表現する語句の間にある単語列である.一方で,我々は事態間関係獲得における共起パターンを,事態を表現する語句の間の係り受け関係から成る単語列とした.この理由は,事態においては実体と比較して格を考慮することが重要であるという,実体と事態の性質の違いに基いている.我々は事態の格を考慮するために係り受け関係を用いる.このとき,係り受け関係で構成された事態の間に存在する共起パターンを認識するためにも係り受けを用いることは自然であると考えられる.そのため,我々は係り受け関係に基づく共起パターンを用いることにする.事態間の関係を十分に表現しつつも事態対との共起が疎にならないような共起パターンを設計することが重要である.なぜならば,事態間の関係を十分に表現するために共起パターンに多くの情報を入れ過ぎると事態対との共起が疎となり,逆に共起パターンから過度に情報を除くと共起パターンは事態間の関係を適切に表現しなくなるためである.ここから,共起パターンが含む最適な情報量を見付けることが重要な課題であることがわかるが,これは難しい問題である.この問題に対して,本研究において予備実験から共起パターンを獲得するための規則を決定した.\ssec{pattern2}でこの規則について述べる.\subsection{事態対の周辺語句からなる共起パターン}\label{ssec:pattern2}本研究で用いる共起パターンは,事態対の間に存在する語句,事態の後方にある特定の語句,事態の品詞,事態が意志性を持つかという情報からなる.具体的には次の通りである.事態表現を含む文節(事態文節)対が係り受け関係の木において先祖と子孫の関係にある場合のみ,次の規則で表わされる文字列から共起パターンを構成する.\begin{itemize}\item[規則a\hspace{-1zw}]前方の事態文節中で事態を表わす内容語より後方にある機能語列の文字列\item[規則b\hspace{-1zw}]係り受け関係の木において事態文節対の間に存在する文節中の単語列からなる文字列\item[規則c\hspace{-1zw}]後方の事態文節または係り先の文節中に次に示す表現が含まれている場合,\begin{itemize}\item[規則c1]文節中に否定表現「〜ない」「〜ません」「〜せず」「〜ぬ」が含まれる場合は,文字列「ない」\item[規則c2]文節中に可能表現「〜できる」「〜出来る」「〜することができる」「〜することが出来る」「〜することが可能だ」が含まれる場合は,文字列「できる」\item[規則c3]文節中に否定表現と可能表現の両方が含まれる場合は,文字列「できない」\end{itemize}\item[規則d\hspace{-1zw}]事態の品詞を表わす文字列\item[規則e\hspace{-1zw}]事態の意志性の有無を表わす文字列\end{itemize}共起パターンの例を示す.「/」は文節の区切りを表わす.(C)は,事態「リラックスする」を含む事態文節が事態「入る」を含む事態文節に係っており,事態文節が係り受け関係の木において先祖と子孫の関係にあるという制約を満すため,この事例から事態対と共起パターンを獲得することができる.このとき,前方の事態「リラックスする」を含む事態文節中で「リラックスする」よりも後方にある機能語「\textbf{ので}」を共起パターンに加える(規則a).さらに,事態「リラックスする」と事態「入る」の品詞と意志性の有無も共起パターンに加える(規則d,規則e).結果,共起パターンは「\bracket{動詞;意志性なし}ので\linebreak\bracket{動詞;意志性あり}」となる.\begin{itemize}\item[(C)]リラックスする\textbf{ので}/風呂に/入る\end{itemize}(D)は,事態「リラックスする」を含む事態文節が文節「\textbf{ために}」に係り,文節「\textbf{ために}」が事態「入る」を含む事態文節に係っており,事態文節が係り受け関係の制約を満すため,この事例から事態対と共起パターンを獲得することができる.このとき,係り受け木において事態文節間に存在する文節「\textbf{ために}」の単語列を共起パターンに加える(規則b).これに規則d,規則eを適用し,共起パターンは「\bracket{動詞;意志性なし}ために\bracket{動詞;意志性あり}」となる.\begin{itemize}\item[(D)]リラックスする/\textbf{ために}/風呂に/入る\end{itemize}(E)は,事態「退職する」を含む事態文節が文節「\textbf{楽みに}」に係り,文節「\textbf{楽みに}」が事態「始める」を含む事態文節に係っており,事態文節が係り受け関係の制約を満すため,この事例から事態対と共起パターンを獲得することができる.このとき,規則aと規則bより単語列「\textbf{後の楽みに}」を共起パターンに加え,これに規則d,規則eを適用し,共起パターンは「\bracket{名詞;意志性なし}後の楽みに\bracket{動詞;意志性あり}」となる.\begin{itemize}\item[(E)]退職\textbf{後の}/\textbf{楽みに}/PCを/始める\end{itemize}\subsection{共起パターンの表記の統一}\label{ssec:pattern3}前述した方法で獲得した共起パターンの表現を統一するための規則を説明する.なお,Espressoにおいても同様の操作を行っている.共起パターン中の機能表現の表記を揃えるために日本語機能語表現辞書~\cite{DBLP:conf/iccpol/MatsuyoshiSU06}を利用し,共起パターン中の日本語機能語表現辞書の機能表現レベル9の機能表現を対応する機能表現レベル3の機能表現に置き換える.これ以外に,「〜する」と「〜します」を同じ表現とみなすために機能表現「ます」を共起パターンから削除する.同様に「〜する」と「〜すると思う」を同じ表現とみなすために「と思う」を共起パターンから削除する.また,句読点や記号,接尾辞の「達」「等」も共起パターンから削除する.テキスト「\textbf{待つ}こと30分で彼が\textbf{来た}」から「待つ」と「来る」の関係を獲得する場合の共起パターンの文字列部分は「こと30分で」である.しかし,この共起パターン中の「30分」は「40分」でも「1時間」でもよく,「30分」の部分は時間を意味していればどのような文字列でも共起パターンが表現する関係は同じである.これらの共起パターンを同じものとみなすために共起パターン中の固有表現相当の文字列を,その固有表現の分類で置き換える.例えば,「30分」は時間を表わす固有表現ため,共起パターン「こと\textbf{30分}で」を「こと\textbf{固有表現—時間}で」と置き換える.実験ではCaboCha~\cite{cabocha}を用いて固有表現解析\footnote{CaboChaによる固有表現解析の結果はIREXの定義に基づいた次の9分類である.ARTIFACT,DATE,LOCATION,MONEY,OPTIONAL,ORGANIZATION,PERCENT,PERSON,TIME.}を実施し,この結果を用いて共起パターンの表記を統一した.また,Cabochaで固有表現であると見なされなかった語についても,固有表現である可能性が高い品詞を持つ語も固有表現であると見なした.実験では,MeCab\footnote{http://mecab.sourceforge.net/}を用いて形態素解析を実施し,この結果を用いて共起パターンの表記を統一した\footnote{IPA品詞体系において次の品詞を固有表現とみなした.名詞—接尾—人名,名詞—接尾—地域,名詞—接尾—助数詞,名詞—数,名詞—固有名詞—一般,名詞—固有名詞—人名,名詞—固有名詞—組織,名詞—固有名詞—地域.なお,CaboChaによる固有表現解析の結果とは独立して扱った.}.\subsection{事態の意志性}\label{ssec:volition}Inuiら~\cite{inui:DS03}は意味推論のための事態間の因果関係について議論を行い,事態に関係する意志性を基本とする4種類の因果関係---Effect,Means,Precondition,Cause---を定義した.例えば,Effect関係は意志性のある行為と意志性のない結果や状態や出来事や経験の間に成り立つ関係であり,Cause関係は意志性のない状態や出来事や経験の間に成り立つ関係である.これを受けて,12,000以上の動詞に人手で意志性の有無を付与した辞書を構築し,これを実験に用いた.この辞書には,8,968の意志性のある動詞,3,597の意志性のない動詞,547の意志性の有無が曖昧な動詞が含まれている.「食べる」や「研究する」に「意志性あり」とし,「温まる」や「壊れる」を「意志性なし」とした.実験では意志性が曖昧な動詞については共起事例から除いた.また,この動詞の意志性辞書を利用するとき,辞書に記述されていない動詞で「される」が末尾にある事態を「意志性なし」とし,形容詞も「意志性なし」とした.\subsection{信頼度の式への変更点}\label{ssec:eq_change}予備実験の結果から,\eq{rpi},\eq{rl}をそれぞれ\eq{rpi2},\eq{rl2}に変更し,ブートストラップの各段階で信頼度を$-1$〜1の間に正規化するようにした.\begin{gather}\label{eq:rpi2}r_\pi'(p)=\sum_{i\inI}\mathit{pmi}(i,p)\timesr_\iota'(i)\\\label{eq:rl2}r_\iota'(i)=\sum_{p\inP}\mathit{pmi}(i,p)\timesr_\pi'(p)\end{gather}この変更は次の2つの理由から成っている.\eq{rpi}から$|I|$で割る部分を,\eq{rl}から$|P|$で割る部分を削除した理由は,信頼度の高い共起パターンから支持された事態対の信頼度は高く,信頼度の高い事態対から支持された共起パターンの信頼度は高いという,Espressoの仮定を実現するためである.変更前の式である\eq{rpi}は$|I|$で割ることで,共起パターンを支持する事態対の信頼度とPMIをかけた値(PMI信頼度と呼ぶ)の平均を共起パターンの信頼度としている(同様に\eq{rl}は$|P|$で割ることで,事態対を支持する共起パターンのPMI信頼度の平均を事態対の信頼度としている).そのため,PMI信頼度の高い事態対(または共起パターン)とPMI信頼度の低い事態対(または共起パターン)から支持を受けた共起パターン(または事態対)の信頼度は低くなりがちである.この傾向は,数多くの事態対(または共起パターン)から支持される共起パターン(または事態対)においては顕著である.なぜならば,こういった共起パターン(または事態対)は,PMI信頼度の高い少数の事態対(または共起パターン)とPMI信頼度の低い多数の事態対(または共起パターン)から支持される傾向にあるためである.このような傾向を考慮し,PMI信頼度の平均ではなく,PMI信頼度を足し合わせた値を信頼度とする.\eq{rpi}と\eq{rl}から$\mathit{max}_{pmi}$で割る部分を削除した理由は,$\mathit{max}_{pmi}$で割ることは正規化を目的としていると考えられるが,この正規化では信頼度が$-1$〜1の範囲\footnote{シードの信頼度が1であることを考慮すると,信頼度は$-1$〜1であると考えられる.}におさまらないためである.我々の変更では,$\mathit{max}_{pmi}$で割らない代りにブートストラップの各段階において,信頼度の絶対値が最も大きな信頼度の絶対値で各信頼度を割ることで,全ての信頼度を$-1$〜1の間に正規化する.\subsection{事態含意名詞を用いた共起獲得}\label{ssec:verbal_nouns}ここまではEspressoを事態間関係獲得に適用させるために施した変更を説明したが,ここでは事態含意名詞という事態表現を考慮した場合の事態間関係獲得に与える影響を述べる.述語または述語を含む句は典型的に事態を表現するため,過去の事態間関係獲得手法は述語と述語の共起を利用して事態間の関係を獲得した.しかし,述語だけが事態を表現するわけではなく,名詞が事態を含意する場合もある.本論文では事態を含意する名詞を事態含意名詞と呼ぶ.例えば,名詞「研究」は事態「研究する」を含意する事態含意名詞である.このように動詞「する」を付与することで動詞のように働く名詞はサ変名詞を呼ばれる.例えば,(F1)のように動詞「する」を伴って動詞のように機能する場合がある.一方,(F2)のように格助詞「を」を伴って名詞のように機能する場合がある.また,(F3)のようにサ変名詞は様々な接尾辞と共に名詞を構成する.\begin{itemize}\item[(F1)]健が言語を研究する\item[(F2)]健が言語の研究を止めた\item[(F3)]\begin{itemize}\item\textit{-者}:\textit{研究者}\item\textit{-室}:\textit{研究室}\item\textit{-後}:\textit{研究後}\end{itemize}\end{itemize}このようなサ変名詞を用いることで,事態間関係と共起パターンの候補を大幅に増やすことができる(どの程度増えたかという情報は節\ssec{results}を参照).また,サ変名詞「研究」と動詞「実験する」は(G1)のような文脈でしばしば共起するため,(G2)の共起パターンは「実験する」が「研究する」過程の一部で行われる行為であるという知識を獲得するための有力な証拠となる可能性がある.\begin{itemize}\item[(G1)]研究室で実験する\item[(G2)](Act-X)室で(Act-Y)\end{itemize}他に,「(Act-X)中に(Act-Y)」という共起パターンも行為間の部分全体関係を表わし,「会議中に意見を述べる」や「会議中に話を聞く」から「会議する」の部分関係が「意見を述べる」や「話を聞く」ことであるという知識を獲得することができる.さらに,「(Act-X)後に(Act-Y)」という共起パターンは行為間の前後関係を表わし,「会談後に会見を開いた」から「会談する」の後には「会見を開く」という知識を獲得することができる.このように事態含意名詞を利用することで事態間関係獲得手法を改善できる可能性もあるが,次のような欠点もある.それは,名詞として用いられるときのサ変名詞は,事態を表わしているのか実体を表わしているのか潜在的に曖昧であるという問題に依る.例えば,サ変名詞「電話」は「電話で」というコンテキストでは「電話をする」と事態を含意しているのか物体としての電話を表しているのか曖昧である\footnote{「電話で連絡する」であれば「電話する」という事態を含意している.一方で「電話が壊れる」であれば「電話」という物体を意味している.}.そのため,テキストからサ変名詞を伴う共起事例を獲得するさいに,この曖昧性を解消して事態を含意するサ変名詞のみを共起事例として利用するべきであるが,この曖昧性解消は困難な問題であり,我々の事態間関係獲得という問題の範囲を超えている.そのため,実験では曖昧性を解消せずに全てのサ変名詞は事態を含意していると見なすことで,事態含意名詞の利用による影響を確認する\footnote{このサ変名詞が事態を表わしているかの判定が事態間関係獲得の性能にどのような影響を与えるのかは興味深い問題である.}.このように事態含意名詞の利用は利点と欠点があるため,事態含意名詞を用いることが事態間関係知識獲得にとって効果的であるとは言うことができない.これを確認するために,実験によって事態含意名詞の効果を測る.実験ではIPA品詞体系で品詞「名詞—接尾」を接尾辞とみなし,係助詞,ガ格,ヲ格,ニ格を伴うサ変名詞は事態性が曖昧になりがちであるため,これらを事態含意名詞とはみなさないようにする. \section{実験} \subsection{実験条件}\label{sec:experiment}人手で作成した行為—効果関係を表す共起パターンを用いて事態間関係を獲得した場合と拡張Espressoを用いた場合を比較するために,それぞれの手法を用いて実験を行った.実験では,河原ら~\cite{kawahara2006}がWebから収集した約5億文の日本語コーパスを用いた.これに対してMeCabで形態素解析,CaboCha~\cite{cabocha}で係り受け解析を行い,~\sec{event_relation_acquisition}で述べた方法で事態対と共起パターンを抽出した.このとき,事態対と共起パターンの共起頻度が20回未満の事例,ガ格やヲ格の格要素が事態性名詞となる事例を除いた.我々は事態間の意味を推論するために事態間関係知識を獲得しているので,Inuiら~\cite{inui:DS03}が意味推論のために定義した事態間の因果関係を用いる.本実験では4つの因果関係のうちEffectの関係を獲得する実験を行う.ここではEffect関係を行為—効果関係と呼び,「行為の結果事態がおうおうにして起こる.または行為をすることは事態を保つこと.」とその関係を定義した.\subsection{結果}\label{ssec:results}行為—効果関係にある事態対を人手で少量作成し,これを正例シードとして拡張Espressoを用いて事態対を獲得する\footnote{このときは負例シードがないため,負例シードを用いないで拡張Espressoを利用する.}.ここで獲得した事態対を人手で見直し,行為—効果関係にある事態対を正例シードに,行為—効果関係にないシードを負例シードに追加し,再び拡張Espressoを用いて事態対を獲得する.ここで獲得した事態対を人手で見直しシードに追加して拡張Espressoを利用する,という操作を何度か試行し,正例971事態対と負例1,069事態対のシードを作成した.次に,これをシードとして拡張Espressoを用いて事態対を獲得した(このとき事態含意名詞も利用する).このとき共起パターンの獲得と事態対の獲得を20回繰り返した結果,共起パターン34,993個,事態対173,806個を得た.ここで獲得した共起パターンと共起した事態対の例を表\ref{tab:examples}に示す\footnote{表ではひとつの共起パターン毎に共起した事態対を示しているが,共起パターンが複数の事態対から支持されているように,事態対も複数の共起パターンから支持されている.}.\begin{table}[tb]\caption{共起パターンと事態対の例}\label{tab:examples}\input{04table01.txt}\end{table}拡張Espressoと比較するために,行為—効果関係を表す接続表現「(〜し)たため」「(〜し)たから」「(〜し)て」を用いて事態対を獲得した.\subsection{評価}人手で作成した少数の共起パターンを用いて獲得した事態間関係の精度と拡張Espressoで獲得した事態間関係の精度を比較する.人手で作成した少数の共起パターンを用いて獲得した事態対をPMIの値の高い順に並べ,上位1〜500件,501〜1,500件,1,501〜3,500件,3,500〜7,500件からそれぞれ100件ずつランダムに事態対をサンプリングした.同様に,拡張Espressoで獲得した事態対からシードに含まれている事態対を除き,これを信頼度の値の高い順に並べ,4つの区間からそれぞれ100件ずつランダムにサンプリングした.それぞれサンプリングした事態対が正しい関係にあるかを評価者2名で判断した.このとき次の2つの条件を両方とも満たす事態対を正しい関係とした.\begin{description}\item[(a)]事態対が行為—効果関係である.ただしこの関係は必然的である必要はなく,しばしば関係が成立する場合も正解とする.\item[(b)]事態対の間で最低でもひとつの格要素が共有されていれば正解とする.\end{description}例えば「飲む→二日酔いになる」は行為—効果関係である.行為「飲む」の結果として必然的に状態「二日酔いになる」とはならないが,しばしば状態「二日酔いになる」という結果になるため条件(a)を満している.さらに,この場合は飲む人と二日酔いになる人が同じ人物であり,「$X$が飲む→$X$が二日酔いになる」($X$には,「部長」や「太郎」など同じ語が入る)と解釈できるため条件(b)を満している.よって,条件(a)と(b)を満しているため「飲む→二日酔いになる」は行為—効果関係にある.条件(b)について補足する.\textit{XがVP$_1$→XがVP$_2$}(前件と後件の間でガ格の要素が等しい)場合と\textit{XをVP$_1$→XがVP$_2$}(前件のヲ格の要素と後件のガ格の要素が等しい)場合の両方とも正解とする.どの格の要素が共有しているのかを自動的に決定する手法の開発は将来の課題である.評価者2人が共に正しいと判断した事態対のみを正解とした.また,2人の評価結果の$\kappa$統計値は,人手で作成した共起パターンを用いた場合の結果では0.55,拡張Espressoを用いた結果では0.53であった.この値はどちらも「moderate」であると解釈できる.そのため,2人の評価結果は適度に一致しており,この精度は信頼できる.\subsection{拡張Espressoの精度}\label{ssec:experiment_main}\begin{figure}[t]\begin{center}\includegraphics{16-4ia4f1.eps}\end{center}\caption{共起パターンを用いた手法と拡張Espressoの比較}\label{fig:baseline_vs_bootstrapping}\end{figure}\fig{baseline_vs_bootstrapping}は,人手で作成した少数の共起パターンを用いた場合と拡張Espressoを比較した結果であり,Espressoを拡張した手法の方が高い精度で事態間関係を獲得できている.ここから実体間関係知識の獲得で用いられた手法を事態間関係獲得に応用できること,\sec{event_relation_acquisition}で述べた拡張方法が適切であったことがわかる.信頼度の高い1〜500件の領域では高い精度で事態間関係を獲得しており,信頼度と精度の間に相関関係があり,信頼度という指標が事態間関係獲得に寄与しているように解釈することができる.一方で,これより信頼度の低い領域では信頼度と精度の間に相関関係がないように見える.\fig{change_of_reliability}は事態対を信頼度の高い順に並べたときの信頼度の分布を表しており,この図から例えば10番目に信頼度が高い事態対の信頼度と110番目の事態対の信頼度の値の差は大きな違いであるが,1,000番目と2,000番目の事態対の信頼度の値の差は小さいことがわかる.よって,信頼度の低い領域では信頼度と精度の間には相関関係があり,信頼度という指標が事態間関係獲得に寄与していることがわかる.\begin{figure}[p]\begin{center}\includegraphics{16-4ia4f2.eps}\end{center}\caption{獲得した事態対を信頼度順に並べたときの信頼度}\label{fig:change_of_reliability}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{16-4ia4f3.eps}\end{center}\caption{シードを半分だけ利用した場合の精度}\label{fig:using_half_seed}\end{figure}\subsection{シードの数の影響}\label{seed_number}拡張Espressoにおいて,シードの数が事態間関係獲得の精度に与える影響を確認するために,行為—効果関係のシードを正例500事態対と負例500事態対にして実験を行った.精度を\fig{using_half_seed}に示す\footnote{この評価は1名で行った.そのため,\fig{using_half_seed}の「シードを全て利用」も「シードを半分だけ利用」も1名で評価したときの精度である.}.この結果は全てのシードを用いた場合と比較して低い精度であり,信頼度が高い領域でも低い領域でも精度が低下している.ここから拡張Espressoは小さなシード集合で動くように設計されているが,その結果はシードの数に依存していることがわかる.さらにシードを追加することでが精度向上の可能性があることがわかる.\subsection{事態性名詞を用いたときの効果}事態含意名詞が精度に与える効果を確認するために,事態含意名詞を用いた場合の精度と,そこから事態含意名詞の影響を除いた場合の精度を比較した.\fig{without_noun}は,\ssec{experiment_main}から事態含意名詞の影響を除いた結果である.この結果は,事態含意名詞の影響を除くために事態が事態含意名詞として出現したときの共起パターンの信頼度を0とみなし,事態対の信頼度を再計算し,再び信頼度の順番に並べ替えた結果である.事態含意名詞を用いた場合も事態含意名詞の影響を除いた場合もほぼ同じ精度であり,事態含意名詞の利用はほとんど精度に影響していないことがわかる.\begin{figure}[b]\begin{center}\includegraphics{16-4ia4f4.eps}\end{center}\caption{事態含意名詞を用いない場合の精度}\label{fig:without_noun}\end{figure}また,本実験で獲得した全ての事態対は,述語対と共起可能なパターンから支持されていた.つまり,事態含意名詞と共起可能なパターンから支持されていた事態対は,述語対と共起可能なパターンからも支持されていた.そのため,事態含意名詞を用いることで初めて獲得できるような事態対は出現しなかった\footnote{例えば,事態間関係「検索する::見つかる」は,事態含意名詞と共起するパターン「〈名詞;意志性あり〉をして〈動詞;意志性なし〉ない」や「〈名詞;意志性あり〉をすれば〈動詞;意志性なし〉」と共起したが,動詞対と共起するパターン「〈動詞;意志性あり〉ものの〈動詞;意志性なし〉ない」とも共起していた.}.\subsection{格の選択}\fig{strict_vs_lenient}は,(a)格を含めて正しい事態間関係を正解した場合の精度と,(b)誤った事態間関係であるが適切な格を追加することで正しい事態間関係になる事例も正解とした場合の精度を比較している.例えば,行為—効果の関係において\textit{Xが食べる}と\textit{Xが死ぬ}は誤りであるが,前件に「毒茸を」があれば正解であるため,この事例は(a)の基準では不正解であるが,(b)の基準では正解とみなす.なお,ここまでの評価全て(a)の基準で行っている.\begin{figure}[b]\begin{center}\includegraphics{16-4ia4f5.eps}\end{center}\caption{格を考慮しない場合の精度}\label{fig:strict_vs_lenient}\end{figure}我々はEspressoを拡張する際に単純な手法で格の選択という問題に対処したが,この結果から,このような単純な手法では適切に格を選択することが難しいことがわかった.他にこの結果から適切に格を選択することで最大26\%精度向上を期待することができるため,事態間関係獲得において格の選択という問題が重要であることがわかる. \section{結論と今後の課題} \label{sec:discussion}実体間関係を獲得するためにブートストラップ的に共起パターンを獲得する手法を拡張して事態間関係に適用した.事態間関係獲得にこの手法が適用できるという報告は過去になく,本実験の結果,この手法が事態間関係獲得にも有効であることがわかった.また,事態の格を選択するということが重要な問題であることを明かにした.格の選択という問題は,実体間関係では重要ではないが事態間関係では重要な問題である.次に今後の課題を述べる.今回の実験では,前件と後件の間で任意の格の格要素が共有され,かつ任意の関係にある事態対を正解とした.しかし知識という視点からは前件と後件の間でどの格の格要素が共有されているのか明かになった方が利便性がある.例えば,行為—効果関係「〈A氏〉が〈花瓶〉を投げる」と「〈花瓶〉が壊れる」の間では,前件のヲ格と後件のガ格の格要素が共有されており,正しい関係であれば前件のガ格と後件のガ格は共有されていない.このようにどの格の格要素が共有されているかで事態間関係の正解/不正解が変化する場合があるため,今回の手法で獲得した知識では問題になる場合がある.そのため,我々は将来的には格要素がどの格で共有されているかを判断できるようにしたいと考えている.だが今回の手法では格要素がどの格で共有されているかを判断することは難しい.なぜならば,「水を冷して飲む」とは言うが「水を冷して水を飲む」のようにはあまり言わないように,同一文内で共起する述語対の格はしばしば省略される傾向にあるため,同一文内で共起する述語対から関係を獲得している我々の手法では,どの格が省略されているのかをあてない限り,どの格が共有されているかを認識することは難しい.そのため,どの格が共有されていのかをあてるためには,格の省略をあてるか,別の手法を用いてどの格が共有されているのかを当てる必要がある.今後はこの問題に取り込みたい.今回の実験では,前件と後件の間で任意の格の格要素が共有され,かつ任意の関係にある事態対を正解とした.しかし知識という視点からは前件と後件の間でどの格の格要素が共有されているのか明かになった方が利便性がある.例えば,行為—効果関係「〈A氏〉が〈花瓶〉を投げる」と「〈花瓶〉が壊れる」の間では,前件のヲ格と後件のガ格の格要素が共有されており,正しい関係であれば前件のガ格と後件のガ格は共有されていない.このようにどの格の格要素が共有されているかで事態間関係の正解/不正解が変化する場合があるため,今回の手法で獲得した知識では問題になる場合がある.そのため,我々は将来的には格要素がどの格で共有されているかを判断できるようにしたいと考えている.しかし,「水を冷して飲む」とは言うが「水を冷して水を飲む」とはあまり言わないように,同一文内で共起する述語対の格はしばしば省略される傾向にあるため,同一文内で共起する述語対から関係を獲得している我々の手法では共有されている格を認識することが難しい.そのため,共有されている格を認識するためには,前処理として格の省略を認識した後で我々の手法を用いるか,別の独立した手法を用いて共有されている項を認識する必要がある.今後はこの問題に取り込みたい.実験では5億文から事態間関係知識を獲得したが,事態対とそれと共起するパターンの頻度が十分でないために正確な統計量を推定できないことがあった.今後,より多くの文から事態間関係知識を獲得することで精度が向上することを実験により確認したい.本手法は原理的には様々な事態間関係を扱うことができるが,今回の実験では行為—効果関係を満たす事態対を獲得できることのみを確認した.今後は,行為—効果関係以外の事態間関係獲得に本手法を利用できることを実験的に確認したい.本稿では,アプリケーションへの応用を目指して事態間関係知識を獲得し,この知識の精度を直接的に評価した.次に,アプリケーションへ知識を適用した場合の性能を測るためにタスクベースの評価を検討しているが,これに必要な日本語のベンチマークが未だ存在しない.今後は,ベンチマークの作成と,これを用いた評価を予定している.\acknowledgment「Web上の5億文の日本語テキスト」の使用許可を下さった情報通信研究機構の河原大輔氏と京都大学大学院の黒橋禎夫氏に感謝いたします.\bibliographystyle{jnlpbbl_1.4a}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chklovski\BBA\Pantel}{Chklovski\BBA\Pantel}{2005}]{chklovski}Chklovski,T.\BBACOMMA\\BBA\Pantel,P.\BBOP2005\BBCP.\newblock\BBOQGlobalPath-basedRefinementofNoisyGraphsAppliedtoVerbSemantics.\BBCQ\\newblockIn{\BemProceedingsofJointConferenceonNaturalLanguageProcessing(IJCNLP-05)},\mbox{\BPGS\792--803}.\bibitem[\protect\BCAY{Inui,Inui,\BBA\Matsumoto}{Inuiet~al.}{2003}]{inui:DS03}Inui,T.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQWhatkindsandamountsofcausalknowledgecanbeacquiredfromtextbyusingconnectivemarkersasclues?\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonDiscoveryScience},\mbox{\BPGS\180--193}.\newblockAnextendedversion:InuiT.,InuiK.,andMatsumotoY.(2005).Acquiringcausalknowledgefromtextusingtheconnectivemarkertame.{\emACMTransactionsonAsianLanguageInformationProcessing(TALIP)},\textbf{4}(4),pp.~435--474.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara2006}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{cabocha}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemCoNLL2002:Proceedingsofthe6thConferenceonNaturalLanguageLearning2002(COLING2002Post-ConferenceWorkshops)},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Lin\BBA\Pantel}{Lin\BBA\Pantel}{2001}]{Dekang-Lin}Lin,D.\BBACOMMA\\BBA\Pantel,P.\BBOP2001\BBCP.\newblock\BBOQ{DIRT}---DiscoveryofInferenceRulesfromText.\BBCQ\\newblockIn{\BemProceedingsofACMSIGKDDConferenceonKnowledgeDiscoveryandDataMining2001},\mbox{\BPGS\323--328}.\bibitem[\protect\BCAY{Matsuyoshi,Sato,\BBA\Utsuro}{Matsuyoshiet~al.}{2006}]{DBLP:conf/iccpol/MatsuyoshiSU06}Matsuyoshi,S.,Sato,S.,\BBA\Utsuro,T.\BBOP2006\BBCP.\newblock\BBOQCompilationofaDictionaryofJapaneseFunctionalExpressionswithHierarchicalOrganization.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputerProcessingofOrientalLanguages},\mbox{\BPGS\395--402}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel2006}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\Bemthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheACL},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{pantel2004}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnology/NorthAmericanchapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{Pekar}{Pekar}{2006}]{pekar:2006:HLT-NAACL06-Main}Pekar,V.\BBOP2006\BBCP.\newblock\BBOQAcquisitionofVerbEntailmentfromText.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{Ravichandran\BBA\Hovy}{Ravichandran\BBA\Hovy}{2002}]{ravichandran:02}Ravichandran,D.\BBACOMMA\\BBA\Hovy,E.\BBOP2002\BBCP.\newblock\BBOQLearningsurfacetextpatternsforaQuestionAnsweringSystem.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\41--47}.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2006}]{torisawa:NAACL}Torisawa,K.\BBOP2006\BBCP.\newblock\BBOQAcquiringInferenceRuleswithTemporalConstraintsbyUsingJapaneseCoordinatedSentencesandNoun-VerbCo-occurrences.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Zanzotto,Pennacchiotti,\BBA\Pazienza}{Zanzottoet~al.}{2006}]{zanzotto:06}Zanzotto,F.~M.,Pennacchiotti,M.,\BBA\Pazienza,M.~T.\BBOP2006\BBCP.\newblock\BBOQDiscoveringAsymmetricEntailmentRelationsbetweenVerbsUsingSelectionalPreferences.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\849--856.}\Sydney,Australia.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{阿部修也}{2008年奈良先端科学技術大学院大学後期課程単位取得満期退学.同年,奈良先端科学技術大学院大学研究員,現在に至る.専門は自然言語処理.情報処理学会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.工学博士.同研究科助手,九州工業大学情報工学部助教授を経て,2002年より奈良先端科学技術大学院大学情報科学研究科助教授.現在同研究科准教授,情報通信研究機構有期研究員を兼任.自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員,ComputationalLinguistics編集委員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.工学博士.同年電子技術総合研究所入所.1984〜1985年英国インペリアルカレッジ客員研究員.1985〜1987年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\end{document}
V18N02-04
\section{はじめに} 日本語や中国語のように,明示的な単語境界がない言語においては,自動単語分割は自然言語処理の最初のタスクである.ほとんどの自然言語処理システムは,単語単位に依存しており,自動単語分割器はこれらの言語に対して非常に重要である.このような背景の下,人手による単語分割がなされた文からなるコーパスを構築する努力\cite{京都大学テキストコーパス・プロジェクト,Balanced.Corpus.of.Contemporary.Written.Japanese}とともに,経験的手法による自動単語分割器や同時に品詞を付与する形態素解析器の構築\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法,形態素クラスタリングによる形態素解析精度の向上,文字クラスモデルによる日本語単語分割,A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese,最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--,Conditional.Random.Fields.を用いた日本語形態素解析}が試みられてきた.近年,自然言語処理が様々な分野に適用されている.特許開示書の自動翻訳,裁判記録の自動作成のための音声認識用の言語モデル作成,医療文章からの情報抽出などである.これらの応用では品詞は不要なので,本論文では品詞を付与しない単語分割を扱う.単語分割では,コーパス作成の労力を単語境界付与に集中することができるので,品詞付与が必要となる形態素解析を前提とするよりもより実用的であることが多い.現在の自動単語分割器は,一般的な分野のコーパスから構築されており,上述のような様々な分野の文を高い精度で単語分割できない.とりわけ,対象分野特有の単語や表現の周辺での精度の低下が著しい.これらの対象分野に特有の単語や表現は,処理すべき文において重要な情報を保持しているので,この問題は深刻である.このような問題を解決するためには,対象分野での単語分割精度の向上を図る必要がある.理想的方法は,ある程度の量の対象分野の文を,一般分野のコーパス作成と同じ単語分割基準に沿って人手で単語分割し,自動単語分割器を再学習することである.しかしながら,多くの実際の状況では,人による利用を想定した辞書が対象分野の唯一の追加的言語資源である.これらの見出し語は,単語分割基準とは無関係に選定されており,単語分割基準に照らすと単語ではないことが多い.本論文では,これらの見出し語のように,内部の単語分割情報が与えられておらず,かつ両端が単語境界であるという保証がない文字列を複合語と呼ぶ.本論文では,単語分割済みコーパスに加えて,複合語辞書を参照する自動分割器を提案する.ほとんどの複合語は両端が単語境界であり,内部に単語分割基準に従って単語境界情報を付与することで単語列に変換することが可能である.このために必要な人的コストは,適用分野の単語分割済みコーパスの作成に比べて非常に少ない.本論文ではさらに,単語列辞書を参照し精度向上を図る自動単語分割器を提案する.提案手法を用いることにより,一般に販売されている辞書(複合語辞書)を参照することで,付加的な人的コストなしに,ある分野における自動単語分割の精度を向上させることができる.また,単語列辞書を参照する機能により,コーパスを準備するよりもはるかに低い人的コストでさらなる精度向上を実現することが可能になる. \section{単語分割のための言語資源} \label{section:LRS}この節では,まず,日本語を例に単語境界を明示しない言語の文を単語に分割する問題について説明する.次に,入力文を自動的に単語列に分割する自動単語分割器を構築するために利用可能な言語資源について述べる.\subsection{単語分割問題}日本語や中国語のように,単語境界を明示しない言語は多数ある.これらの言語における自然言語処理の第一歩は,文に単語境界情報を付与することである.以下では,次の文を入力の例として,単語分割問題を説明する.\begin{description}\item[入力:]畜産物価格安定法を施行\end{description}単語分割問題は,入力の文字列の全ての隣接する2文字間に単語境界を置くか置かないかを決定する2値分類問題である.注目している2文字が異なる単語に属する場合には空白を,同じ単語に属する場合には何も置かないとすると,上記の例文を適切に単語に分割した結果は以下のようになる.\begin{description}\item[出力:]畜産物価格安定法を施行\end{description}このように,入力文字列を単語に分割することで,単語を単位とした自然言語処理技術を適用することが可能となる.ただし,単語分割における誤りは,後続する自然言語処理の精度を低下させる点に注意しなければならない.\subsection{単語分割済みコーパス}\label{section:WSC}自動単語分割器に関する研究は多数あり,そのほとんどがデータに基づく方法を採用している\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法,形態素クラスタリングによる形態素解析精度の向上,A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese,最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--,Conditional.Random.Fields.を用いた日本語形態素解析}\footnote{単語分割と同時に品詞を付与する形態素解析器は,品詞を無視することで自動単語分割器として用いることができるので,自動単語分割器の研究に含めている.}.これらの自動単語分割器は,単語分割基準に従って人手で単語に分割されたコーパスからパラメータを推定する.したがって,学習コーパスにおける誤りは自動分割の結果に波及し,後続する自然言語処理のアプリケーションの精度を損なう.それゆえ,単語分割済みコーパスの質は,非常に重要である.高い分割精度を確保するためにも,後続する自然言語処理を適用する対象分野の単語分割済み文を自動単語分割システムの学習コーパスとすることが望ましい.しかしながら,単語分割基準に従って正確に単語分割されたコーパスを用意するコストは非常に高い.というのも,作業者は,対象分野の用語と単語分割基準を熟知している必要があるからである.実際,コンピューター操作に熟練し単語分割基準を熟知した作業者が,ある分野の5,000文を非常に高い精度で単語分割するのに2週間(8時間$\times$10日)を要したという事実もある\footnote{これは著者の実際の経験に基づいている.その際の作業においては,高機能のエディターを高度に利用し,必要に応じてプログラムを記述・実行し,自動分割器を適宜再構築することで単語分割誤りを非常に効率良く修正した.}.したがって,低いコストで準備できる言語資源のみを用いて対象分野の文を高い精度で分割する自動単語分割器の実現方法は非常に有用である.\subsection{3種類の辞書}\begin{figure}[t]\begin{center}\includegraphics{18-2ia4f1.eps}\end{center}\caption{単語境界の3値表現}\label{figure:3-valued}\vspace{-0.5\baselineskip}\end{figure}単語分割基準が所与とすれば,単語分割問題に用いることができる辞書は,3つに分類できる.以下では,これら3種類の辞書について,\figref{figure:3-valued}に示した3値表現を用いて詳述する.\begin{itemize}\item\textbf{単語辞書:}この辞書は,単語分割基準に従う単語からなる.つまり,この辞書に含まれる文字列は,ある文脈で最左の文字の左と最右の文字の右に単語境界があり,さらにその内部には単語境界がない.例えば,3値表現された以下の文字列は単語である.\begin{quote}\verb*+|言-語|+\end{quote}\item\textbf{単語列辞書:}この辞書は,単語の列からなる.つまり,この辞書に含まれる文字列は,ある文脈で最左の文字の左と最右の文字の右に単語境界があり,さらに,各文字列のすべての文字間に単語分割基準に従って単語境界情報が付与されている.例えば,3値表現された以下の文字列は単語列である.\begin{quote}\verb*+|計-算|言-語|学|+\end{quote}\item\textbf{複合語辞書:}この辞書は,単語の連接である文字列からなる.つまり,この辞書に含まれる文字列は,ある文脈でその左右両端に単語境界があるが,文字列内部の単語境界情報は不明である.例えば,3値表現された以下の文字列は複合語である.\begin{quote}\verb*+|計算言語学|+\end{quote}\end{itemize}人が利用することを想定した商用・非商用の機械可読辞書は多数ある.実際,様々な対象分野における専門用語や固有名詞を多数含む辞書がある\cite{CD-科学技術45万語対訳辞典.英和/和英}.また,仮名漢字変換のための辞書が様々な分野において公開されている\cite{無料ライフサイエンス辞書の活用と効能}.これらの辞書の見出し語は,自動単語分割器が学習に用いるコーパスの単語分割基準とは無関係に選定されており,多くの自動単語分割器において,これを精度向上に直接利用することはできない.単語分割基準に照らすと,人が利用することを想定した辞書の見出し語の多くは,\pagebreak上記の分類では複合語である.左右両端は単語境界であることがかなりの確度で期待できるが,文字列の内部の単語境界情報がない.複合語は,人的コストをかけて単語列に変換することができる.この際に必要な作業は,左右の両端が単語境界であることのチェックと,文字列内のすべての文字境界に単語境界情報を付与することである.このコストは,対象分野の単語分割済みコーパスの作成に要するコストに比べて非常に少ない.以上の議論から,複合語や単語列を参照することで精度が向上する自動単語分割器を構築することは実用的意義が非常に大きい. \section{単語分割法} \label{section:AWS}本節では,前節の3種類の辞書を学習データとする日本語単語分割法について述べる.提案手法は,3種類の辞書と単語分割済みコーパス(部分的にアノテーションされていれば良い)を学習データとする.\subsection{最大エントロピーモデルによる点予測単語分割}\label{subsection:ME}日本語の単語分割の問題は,入力文の各文字間に単語境界が発生するか否かを予測する問題とみなせる\cite{文字クラスモデルによる日本語単語分割,日本語単語分割を題材としたサポートベクタマシンの能動学習の実験的研究,教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル,Training.Conditional.Random.Fields.Using.Incomplete.Annotations}.つまり,文$\Bdma{x}=\Conc{x}{m}$に対して,文字$x_{i}$と$x_{i+1}$の間が単語境界であるか否かを表すタグ$t_{i}$を付与する問題とみなせる.付与するタグは,単語境界であることを表すタグ{\bfE}(``\verb*+|+''に相当)と,非単語境界であることを表すタグ{\bfN}(``\verb*+-+''に相当)の2つのタグからなる.各文字間のタグを単語境界が明示されたコーパスから学習された最大エントロピーモデル(MEmodel;maximumentropymodel)により推定する\footnote{文献\cite{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}のようにCRF(conditionalrandomfields)により推定することもできるが,計算コストと記憶領域が大きくなる.これらの差は,スパースな部分的アノテーションコーパスからの学習において顕著となる.つまり,CRFのように系列としてモデル化する方法では,アノテーションのない部分も考慮する必要があるのに対して,点推定の最大エントロピーモデルでは,アノテーションのある部分のみを考慮すればよい.このような考察から,本論文では計算コストの少ない最大エントロピーモデルを用いる.}.その結果,より高い確率を与えられたタグをその文字間のタグとし,単語境界を決定する.すなわち,以下の式が示すように,最大エントロピーモデルにより,単語境界と推定される確率が非単語境界と推定される確率より高い文字間を単語境界とする.\begin{displaymath}P_{ME}({\bfE}|i,\Bdma{x})>P_{ME}({\bfN}|i,\Bdma{x})\end{displaymath}これにより,入力文を単語に分割することができる.最大エントロピーモデルによる単語分割法では,単語境界情報が付与された$\Bdma{x}=\Conc{x}{m}$の各文字間を,タグ$t_{i}$と素性の組み合わせ$S$とみなして,学習と確率推定を行う.\begin{displaymath}S=\{(t_{i},\,f_{i,1}(\Bdma{x}),\,f_{i,2}(\Bdma{x}),\,\cdots)\;|\;1\leq\foralli\leqm-1\},\end{displaymath}素性$f_{i,j}(\Bdma{x})$の詳細は次項で述べる.\subsection{参照する素性}文字$x_{i}$と$x_{i+1}$の間に注目する際の最大エントロピーモデルの素性としては,文字列$x_{i-1}^{i+2}$に含まれるの部分文字列である文字$n$-gramおよび字種$n$-gram($n=1,\,2,\,3$)をすべて用いる\footnote{字種は,漢字,ひらがな,カタカナ,アルファベット,数字,記号の6つとした.}.ただし,以下の点を考慮している.\begin{itemize}\item素性として利用する$n$-gramは,先頭文字の字種がその前の文字の字種と同じか否か,および,末尾文字の字種がその次の文字の字種と同じか否かの情報を付加して参照する\footnote{パラメータ数の急激な増加を抑えつつ素性の情報量を増加させることを意図している.これにより,参照範囲を前後1文字拡張して$x_{i-2}^{i+3}$の範囲の$n$-gram($n=3,\,4,\,5$)が参照されることになる.}.\item素性には注目する文字間の位置情報を付加する.\end{itemize}\subsection{辞書の利用}さらに,前述した3種類の辞書を参照し,以下の素性を用いることを提案する.\begin{itemize}\item文字列$x_{i-1}^{i+2}$に含まれる文字$n$-gram($n=1,\,2,\,3$)が,単語辞書中の単語と一致する文字列であるか否かを表す9素性(9つの位置の文字$n$-gramについて判定)\item注目する文字境界($x_{i}x_{i+1}$の間)の辞書中の位置を表す以下の4素性\begin{itemize}\item単語の開始位置の``\verb*+|+''に該当するか否かを表す素性(単語,単語列,複合語のいずれかが$x_{i+1}x_{i+2}\cdots$に前方一致するか否か)\item単語の終了位置の``\verb*+|+''に該当するか否かを表す素性(単語,単語列,複合語のいずれかが$\cdotsx_{i-1}x_{i}$に後方一致するか否か)\item単語列の単語境界の``\verb*+|+''に該当するか否かを表す素性($\cdotsx_{i}x_{i+1}\cdots$の位置にいずれかの単語列が出現し,かつ$x_{i}$と$x_{i+1}$の間が単語列中の``\verb*+|+''に該当するか否か)\item単語や単語列の``\verb*+-+''に該当するか否かを表す素性($\cdotsx_{i}x_{i+1}\cdots$の位置にいずれかの単語か単語列が出現し,かつ$x_{i}$と$x_{i+1}$の間が``\verb*+-+''に該当するか否か)\end{itemize}\end{itemize} \section{評価} \label{section:評価}提案手法の評価のために,様々な自動単語分割器を構築し,テストコーパスに対する分割精度を測定した.この節では,その結果を提示し提案手法の評価を行う.\subsection{実験条件}\begin{table}[t]\caption{単語分割済みコーパス}\label{table:corpus}\input{04table01.txt}\end{table}\begin{table}[t]\caption{辞書}\label{table:dictionary}\input{04table02.txt}\end{table}まず,対象分野のテストコーパスを日本経済新聞\cite{日経全文記事データベース[4紙版]}の記事とした.\pagebreak学習コーパスは一般分野の単語分割済みコーパスである.評価のために,学習コーパスと同じ分野のテストコーパスも用いた(\tabref{table:corpus}参照).一般分野コーパスは,現代日本語書き言葉均衡コーパス\cite{Balanced.Corpus.of.Contemporary.Written.Japanese}(13,181文)と,日常会話のための辞書の例文\cite{会話作文英語表現辞典}(14,754文)である.すべての文は,人手により適切に単語に分割されている.実験では,9-foldの交差検定を行った.つまり,テストコーパスを9つの部分に分割し,8つの部分を複合語や単語列の選定に用い,残りの1つを自動分割のテストとして用いることを,9通りに渡って行った.実験に際して,\secref{section:LRS}で述べた3種類の辞書を用意した.1つ目は単語辞書(UniDic-1.3.9)で,語彙サイズが非常に大きいことに加えて,その見出し語が学習コーパスと同じ単語分割基準に従っていることが注意深くチェックされている\cite{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}.2つ目は複合語辞書で,その見出し語は機械可読の商用辞書\cite{CD-科学技術45万語対訳辞典.英和/和英}から得た.その多くは,専門用語と固有名詞である.実験では,テストとして用いられる1つの部分コーパス以外の8つの部分コーパスに文字列として出現する複合語を用いた.これらの複合語は,両端は単語分割基準と一致していることが期待されるが,その保証はない.3つ目は単語列辞書である.単語列辞書は,複合語辞書の見出し語を単語分割基準に従って人手により分割することで得られる.単語列は,結果的に1単語である場合もある.実験では,8つの部分コーパスに文字列として出現する単語列を用いた.複合語の左右どちらかの端が単語分割基準と一致していない場合は単語列辞書から除外した.したがって,単語列の数は複合語の数よりも少なくなっている.\tabref{table:dictionary}にこれらの辞書の諸元を示す.この表から複合語と単語列の平均文字数はそれぞれ3.04文字と3.12文字であることが分かる.これらは,学習コーパスの単語長(1.40文字)や新聞コーパスの平均単語長(1.50文字)より長い.単語列は平均1.61単語からなる.自動単語分割器のパラメータは,学習コーパスとこれらの辞書を同時に参照し推定される.\subsection{評価基準}自動単語分割の評価に用いた基準は,適合率,再現率,境界推定精度及び文正解率である.これらの計算方法を以下のような例を用いて説明する.ここで,自動単語分割の結果をAWS,正解の単語列をCORとしている.\begin{description}\item[AWS:]\underline{畜産}物価格安定法\underline{を}\underline{施行}\item[COR:]\underline{畜産}物価格安定法\underline{を}\underline{施行}\end{description}境界推定精度は,単語境界情報が正しく推定された文字間の割合である.上記の例では,文字数は11あるので,単語境界の推定対象となる文字間の数は10である.この内,単語境界情報が正しく推定された文字間は5であるので境界推定精度は5/10となる.文正解率は,すべての文字間において単語境界情報が正しく推定された文の割合である.適合率と再現率は,以下のように計算される.まず,正解の単語列に含まれる単語数を$N_{COR}$,自動単語分割の結果に含まれる単語数を$N_{AWS}$とし,さらに正解の単語列と自動単語分割の結果の最長部分一致単語列に含まれる単語数を$N_{LCS}$とする.この定義の下,適合率は$N_{LCS}/N_{AWS}$で与えられ,再現率は$N_{LCS}/N_{COR}$で与えられる.上述の例では,最長部分一致単語列は下線を引いた単語列であり,その単語数から$N_{LCS}=3$である.正解の単語列の単語数から$N_{COR}=7$であり,自動単語分割の結果の単語数から$N_{AWS}=6$である.したがって,再現率は$N_{LCS}/N_{COR}=3/7$であり,適合率は$N_{LCS}/N_{AWS}=3/6$である.\subsection{評価}参照する辞書による単語分割精度の差を調べるために,辞書を参照せずコーパスのみから学習する自動単語分割器\AWS{B}(ベースライン)を構築し,さらに以下の4つの自動単語分割器を構築した.\begin{tabular}{rl}\AWS{W1:}&コーパスに加えて単語辞書\AWS{w1}を参照\\\AWS{W2:}&コーパスに加えて単語辞書\AWS{w2}を参照\\\AWS{S:}&コーパスに加えて単語列辞書\AWS{s}を参照\\\AWS{C:}&コーパスに加えて複合語辞書\AWS{c}を参照\end{tabular}\\これらの自動単語分割器による一般分野における分割精度を\tabref{table:result1}に,対象分野における分割精度を\tabref{table:result2}に示す.\begin{table}[tb]\caption{一般分野における自動単語分割の精度}\label{table:result1}\input{04table03.txt}\end{table}\begin{table}[tb]\caption{適用分野における自動単語分割の精度}\label{table:result2}\input{04table04.txt}\end{table}\tabref{table:result1}から,ベースラインである自動単語分割器\AWS{B}の一般分野における分割精度は十分高いが,\tabref{table:result2}から,対象分野においては分割精度が著しく低下することがわかる.自動単語分割器\AWS{C}の結果から,複合語辞書を用いることで対象分野における分割精度が向上することが分かる.複合語辞書としては,多くの分野において利用可能な人のための辞書を直接用いることができるので,付加的な人的コストを必要としない.このことから,複合語辞書を参照することで自動単語分割器の精度向上が実現できることは非常に有用であるといえる.自動単語分割器\AWS{C}の分割精度は,両分野において,コーパスと同じ基準で単語に分割された単語辞書\AWS{w1}を参照する自動単語分割器\AWS{W1}の分割精度より低い.これは,単語辞書\AWS{w1}の見出し語の数が,約14.5万語と非常に大きいことと,本実験での適応対象である新聞記事が,単語辞書の想定分野となっていることによる.このように,大きな単語辞書を,様々な分野に対して準備することは現実的ではないであろう.実際,単語辞書に含まれる単語の合計の文字数は430,797文字(\tabref{table:dictionary}参照)と非常に大きく,これは,対象分野の約9,879文(\tabref{table:corpus}参照)に相当する.第\subref{section:WSC}で述べたように,非常に熟練した作業者の単語分割速度が1日500文程度であるから,この量のコーパスを作成するには,対象分野の表現と単語分割基準を熟知した作業者が約20日間作業にあたる必要があると考えられる.単語列辞書\AWS{s}と同じ単語数の単語辞書\AWS{w2}を用いる自動単語分割器\AWS{W2}の分割精度を自動単語分割器\AWS{C}と比べると,\AWS{C}の精度は\AWS{W2}よりも高い.複合語辞書は,処理すべき適用分野のテキストと共に提供されることが多い.これらのことから,ある分野に自動単語分割器を適用する場合,一般的な分野の辞書を整備するのではなく,その分野の複合語辞書を利用するのがよい戦略であるといえる.単語列辞書を参照する自動単語分割器\AWS{S}の対象分野における単語分割精度は,複合語辞書を参照する自動単語分割器\AWS{C}よりも高い.これは,単語列辞書が複合語辞書に単語境界情報を付与した結果であることを考えると当然である.このことから,対象分野のテキストに出現する複合語に単語境界情報を付与することで,さらなる精度向上を実現できることが分かる.文字列「共同宣言」を複合語としてまたは単語列として辞書に追加することにより分割精度が向上した例を次に示す.\begin{description}\item[\AWS{B}:]…\verb*+|日-米|安-保|共|同|宣-言-取|り|ま-と-め|+…\item[\AWS{C}:]…\verb*+|日-米|安-保|共|同|宣-言|取|り|ま-と-め|+…\item[\AWS{S}:]…\verb*+|日-米|安-保|共-同|宣-言|取|り|ま-と-め|+…\end{description}自動単語分割器\AWS{B}では「宣言取」を単語であると出力しているが,\AWS{C}では,複合語「\verb*+|共同宣言|+」を参照することで文字列「共同宣言」の後に単語境界があることが分かり,正しく「宣言」と「取」に分割されている.さらに\AWS{S}では,単語列「\verb*+|共-同|宣-言|+」を参照することですべての箇所で正しく単語に分割されている.なお,分野特有であると思われる表現でも,実験に利用した商用辞書に含まれていない単語列に関しては,辞書の追加による精度向上はみられなかった.自動単語分割器\AWS{S}による対象分野の分割精度は,大規模な単語辞書を参照する自動単語分割器\AWS{W1}による分割精度よりも高い.複合語辞書に含まれる合計の文字数は,59,868文字(\tabref{table:dictionary}参照)で,これは,対象分野の1,373文に相当する.アノテーションに必要な人的コストは,単語辞書の構築に必要な人的コストと比べて非常に少ない.さらに,複合語の多くが専門用語と固有名詞であるので,作業者に要求される技能は,分野知識と名詞に関する単語分割基準の熟知である.したがって,作業者の確保はコーパスの準備に比べてはるかに容易である.以上のような考察から,現実的な状況において,既存の辞書のカバー率が高くないある対象分野の自動単語分割器を構築する最良の戦略は,\begin{enumerate}\item対象分野のテキストに出現する複合語辞書の見出し語を収集し,提案する自動単語分割器を用いる\item作業者が確保できる場合には,さらにこれらの複合語に単語境界情報を付与し,提案する自動単語分割器を用いる\end{enumerate}であると結論できる. \section{関連研究} 自動単語分割の問題をある文字の次に単語境界があるかの予測として定式化することはかなり以前から行われている\cite{日本語における単語の造語モデルとその評価,品詞・区切り情報を含む拡張文字の連鎖確率を用いた日本語形態素解析,文字クラスモデルによる日本語単語分割}.これらの研究では,文字に単語境界情報を付与して予測単位としている.文字間に単語境界があるかを識別学習により決定することも提案されている\cite{日本語単語分割を題材としたサポートベクタマシンの能動学習の実験的研究}.この研究の主眼は能動学習の調査・分析である.辞書の利用に関する記述はなく,また分野適応についても述べられていない.統計的手法による日本語の文の自動単語分割に関する初期の研究は,丸山ら\cite{確率的形態素解析}による単語$n$-gramモデルを用いる方法がある.また,永田\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法}による品詞$n$-gramモデルによる形態素解析\footnote{ここでは,自動単語分割に加えてそれぞれの単語の品詞を同時に推定する処理を形態素解析と呼んでいる.}もある.森ら\cite{形態素クラスタリングによる形態素解析精度の向上}は,すべての品詞を語彙化した形態素$n$-gramモデルを用いることによる精度向上を報告し,さらに単語辞書の参照を可能にする方法を提案し,それによる精度向上を報告している.内元ら\cite{最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--}は,最大エントロピーモデルを用いる形態素解析において単語辞書を参照する方法を提案している.このように,単語分割基準に沿った単語辞書を参照する方法はすでにあるが,複合語や単語列を参照し精度向上を実現した自動単語分割器の報告は,我々の知る限りない.なお,提案手法は,形態素解析にも拡張可能である.提案する自動単語分割器は音声認識や仮名漢字変換の言語モデル作成に用いることを想定しているので,品詞を推定する必要はないと考えている.品詞も推定すべきか,どの程度の粒度の品詞体系にすべきか,などの問題は後続する自然言語処理と準備すべきデータの作成コストを含む全体の問題であり,本論文の議論を超える.複合語や単語列を参照し精度向上を図る取り組みは,完全に単語に分割された文に加えて,それ以外の断片的な情報を用いて精度向上を図る取り組みの一つである.坪井ら\cite{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}は,学習コーパスの文の単語境界情報が部分的であるような不完全なアノテーションからも条件付き確率場による自動単語分割器や形態素解析器を学習できる枠組みを提案している.本論文で提案する自動単語分割器は点予測を用いているので,単語分割に関してはこの問題は解決されているといえる.したがって,提案する自動単語分割器は,単語境界情報が部分的に付与されたコーパスと複合語や単語列のすべてを同時に参照することができる.自動単語分割は,中国語においても提案されている\cite{A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese}.自動単語分割器は,空白で区切られる単位が大きい韓国語やフィンランド語などにおいても有用で,言語モデルの作成\cite{Korean.large.vocabulary.continuous.speech.recognition.with.morpheme-based.recognition.units,Unlimited.vocabulary.speech.recognition.with.morph.language.models.applied.to.Finnish}に用いられている.提案手法は,これらの言語に対する言語処理においても有用である. \section{おわりに} 本論文では,日本語の文の自動単語分割器をある分野に適用する現実的な状況において,精度向上を図るための新しい方法を提案した.提案手法の最大の特徴は,複合語を参照することが可能な点である.本論文で言う複合語とは,内部の単語境界情報がない文字列であり,人の利用を想定した辞書の見出し語の多くが複合語である.この機能により,一般に販売されている辞書を参照し,付加的な人的コストなしに,ある分野における自動単語分割の精度を向上させることができる.提案する自動単語分割器は,内部に単語境界情報をもつ単語列を参照することも可能である.この機能により,コーパスを準備するよりも低い人的コストでさらなる精度向上を実現することが可能になる.実験では,これらの辞書を参照する自動単語分割器を最大エントロピー法を用いて構築し,これらのさまざまな辞書を参照する場合の自動単語分割の精度を比較した.実験の結果,本論文で提案する自動単語分割器は,複合語を参照することにより,より高い分割精度を人的コストなしに実現することが確認された.また,単語列を参照することにより,少ない人的コストでさらなる精度向上が実現されることが示された.したがって,本論文で提案する自動単語分割器は,自然言語処理をある分野に適用する場合に非常に有用である.\acknowledgment本研究の一部は,科学研究費補助金・若手A(課題番号:08090047)により行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblock\JBOQコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.\JBCQ\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--122}.\bibitem[\protect\BCAY{ドナルド\JBA羽鳥\JBA山田\JBA伊良部}{ドナルド\Jetal}{1992}]{会話作文英語表現辞典}ドナルドキーン\JBA羽鳥博愛\JBA山田晴子\JBA伊良部祥子\BBOP1992\BBCP.\newblock\JBOQ会話作文英語表現辞典\JBCQ\\newblock朝日出版社.\bibitem[\protect\BCAY{颯々野}{颯々野}{2006}]{日本語単語分割を題材としたサポートベクタマシンの能動学習の実験的研究}颯々野学\BBOP2006\BBCP.\newblock\JBOQ日本語単語分割を題材としたサポートベクタマシンの能動学習の実験的研究.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(2),\mbox{\BPGS\27--41}.\bibitem[\protect\BCAY{Hirsim{\"{a}}ki,Creutz,Siivola,Kurimo,Virpioja,\BBA\Pylkk{\"{o}}nen}{Hirsim{\"{a}}kiet~al.}{2006}]{Unlimited.vocabulary.speech.recognition.with.morph.language.models.applied.to.Finnish}Hirsim{\"{a}}ki,T.,Creutz,M.,Siivola,V.,Kurimo,M.,Virpioja,S.,\BBA\Pylkk{\"{o}}nen,J.\BBOP2006\BBCP.\newblock\BBOQUnlimitedvocabularyspeechrecognitionwithmorphlanguagemodelsappliedtoFinnish.\BBCQ\\newblock{\BemComputerSpeechandLanguage},{\Bbf20},\mbox{\BPGS\515--541}.\bibitem[\protect\BCAY{金子}{金子}{2003}]{無料ライフサイエンス辞書の活用と効能}金子周司\BBOP2003\BBCP.\newblock\JBOQ無料ライフサイエンス辞書の活用と効能\JBCQ\\newblock\Jem{ファルマシア},{\Bbf42}(5),\mbox{\BPGS\463--467}.\bibitem[\protect\BCAY{風間\JBA宮尾\JBA辻井}{風間\Jetal}{2004}]{教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル}風間淳一\JBA宮尾祐介\JBA辻井潤一\BBOP2004\BBCP.\newblock\JBOQ教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(4),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Conditional.Random.Fields.を用いた日本語形態素解析}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQConditionalRandomFieldsを用いた日本語形態素解析.\JBCQ\\newblock\Jem{情報処理学会研究報告},NL161\JVOL.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1997}]{京都大学テキストコーパス・プロジェクト}黒橋禎夫\JBA長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\mbox{\BPGS\115--118}.\bibitem[\protect\BCAY{Kwon\BBA\Park}{Kwon\BBA\Park}{2003}]{Korean.large.vocabulary.continuous.speech.recognition.with.morpheme-based.recognition.units}Kwon,O.-W.\BBACOMMA\\BBA\Park,J.\BBOP2003\BBCP.\newblock\BBOQKoreanlargevocabularycontinuousspeechrecognitionwithmorpheme-basedrecognitionunits.\BBCQ\\newblock{\BemSpeechCommunication},{\Bbf39},\mbox{\BPGS\287--300}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2008}]{Balanced.Corpus.of.Contemporary.Written.Japanese}Maekawa,K.\BBOP2008\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponAsianLanguageResources},\mbox{\BPGS\101--102}.\bibitem[\protect\BCAY{丸山\JBA荻野\JBA渡辺}{丸山\Jetal}{1991}]{確率的形態素解析}丸山宏\JBA荻野紫穂\JBA渡辺日出雄\BBOP1991\BBCP.\newblock\JBOQ確率的形態素解析.\JBCQ\\newblock\Jem{日本ソフトウェア科学会第8回大会論文集},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{森\JBA長尾}{森\JBA長尾}{1998}]{形態素クラスタリングによる形態素解析精度の向上}森信介\JBA長尾眞\BBOP1998\BBCP.\newblock\JBOQ形態素クラスタリングによる形態素解析精度の向上.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(2),\mbox{\BPGS\75--103}.\bibitem[\protect\BCAY{永井\JBA日高}{永井\JBA日高}{1993}]{日本語における単語の造語モデルとその評価}永井秀利\JBA日高達\BBOP1993\BBCP.\newblock\JBOQ日本語における単語の造語モデルとその評価.\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf34}(9),\mbox{\BPGS\1944--1955}.\bibitem[\protect\BCAY{永田}{永田}{1999}]{統計的言語モデルとN-best探索を用いた日本語形態素解析法}永田昌明\BBOP1999\BBCP.\newblock\JBOQ統計的言語モデルとN-best探索を用いた日本語形態素解析法.\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{日本経済新聞社}{日本経済新聞社}{2001}]{日経全文記事データベース[4紙版]}日本経済新聞社\BBOP2001\BBCP.\newblock日経全文記事データベース(4紙版)\inhibitglue.\bibitem[\protect\BCAY{日外アソシエーツ}{日外アソシエーツ}{2001}]{CD-科学技術45万語対訳辞典.英和/和英}日外アソシエーツ\BBOP2001\BBCP.\newblock\JBOQCD-科学技術45万語対訳辞典英和/和英\JBCQ.\bibitem[\protect\BCAY{小田\JBA森\JBA北}{小田\Jetal}{1999}]{文字クラスモデルによる日本語単語分割}小田裕樹\JBA森信介\JBA北研二\BBOP1999\BBCP.\newblock\JBOQ文字クラスモデルによる日本語単語分割.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(7),\mbox{\BPGS\93--108}.\bibitem[\protect\BCAY{Sproat\BBA\Chang}{Sproat\BBA\Chang}{1996}]{A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese}Sproat,R.,Shih,C.,Gale,W.,andChang,N.(1996).\newblock\BBOQAstochasticfinite-stateword-segmentationalgorithmforChinese.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(3),\mbox{\BPGS\377--404}.\bibitem[\protect\BCAY{Tsuboi,Kashima,Mori,Oda,\BBA\Matsumoto}{Tsuboiet~al.}{2008}]{Training.Conditional.Random.Fields.Using.Incomplete.Annotations}Tsuboi,Y.,Kashima,H.,Mori,S.,Oda,H.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQTrainingConditionalRandomFieldsUsingIncompleteAnnotations.\BBCQ\\newblockIn{\BemProceedingsofthe22thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{坪井\JBA森\JBA鹿島\JBA小田\JBA松本}{坪井\Jetal}{2009}]{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}坪井祐太\JBA森信介\JBA鹿島久嗣\JBA小田裕樹\JBA松本裕治\BBOP2009\BBCP.\newblock\JBOQ日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習.\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf50}(6),\mbox{\BPGS\1622--1635}.\bibitem[\protect\BCAY{内元\JBA関根\JBA井佐原}{内元\Jetal}{2001}]{最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--}内元清貴\JBA関根聡\JBA井佐原均\BBOP2001\BBCP.\newblock\JBOQ最大エントロピーモデルに基づく形態素解析—未知語の問題の解決策—.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(1),\mbox{\BPGS\127--141}.\bibitem[\protect\BCAY{山本\JBA増山}{山本\JBA増山}{1997}]{品詞・区切り情報を含む拡張文字の連鎖確率を用いた日本語形態素解析}山本幹雄\JBA増山正和\BBOP1997\BBCP.\newblock\JBOQ品詞・区切り情報を含む拡張文字の連鎖確率を用いた日本語形態素解析.\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\mbox{\BPGS\421--424}.\end{thebibliography}\begin{biography}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム(株)入社.2007年より京都大学学術情報メディアセンター准教授.現在に至る.自然言語処理ならびに計算言語学の研究に従事.工学博士.1997年情報処理学会山下記念研究賞受賞.2010年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.情報処理学会会員.}\bioauthor{小田裕樹}{1999年徳島大学大学院工学研究科博士前期課程知能情報工学専攻修了.同年NTTソフトウェア(株)入社.言語処理・情報検索システム等の開発,コンサルティング業務に従事.確率・統計的自然言語処理およびその応用に興味を持つ.工学博士.2010年情報処理学会論文賞受賞.情報処理学会会員.}\end{biography}\biodate\end{document}
V11N05-06
\section{はじめに} 言い換えに関する研究\cite{sato_ronbun_iikae,yamamoto_nlp2001ws_true,murata_paraphrase_true,inui_iikae_tutorial}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであるが,本稿では言い換えの研究の統一的モデルとして,尺度に基づく変形による手法を示し\footnote{本稿は,文献\cite{murata_nlp2001ws_true}に基づいて作成したものである.本研究の主眼になっている尺度に基づく変形については,文献\cite{murata2000_1_nl}の脚注6においても述べている.},このモデルによって種々の言い換えを統一的に扱えることを示す.このモデルでは,多様な言い換えの問題の違いを,尺度で表現することで,言い換えを統一的に扱えるようになっている.このモデルには以下の利点が存在する.\begin{itemize}\itemシステム作成の効率化本稿の言い換えの統一的モデルでは,変形の尺度や変形規則を他のものに取り替えるだけで多様な言い換えを実現することができる.システム作成では,変形の尺度や変形規則以外のモジュールは一度作成してしまえば,多様な言い換えシステムで利用することができる.すなわち,システム作成のコストを軽減できるのである.また,変形規則も複数の言い換えシステムで共用できる場合があり,その場合もシステム作成のコストを軽減できる.\item言い換えの原理の理解容易性本稿の言い換えの統一的モデルでは,後で述べるように変形部と評価部という二つの構成要素からなる単純なモデルだけで,多種多様な言い換えを扱うことができるようになっている.本稿のモデルは単純で理解しやすく,大雑把に言い換えをどのようにすればできるかを考えるには,このモデルを基本におくと考えやすい.\item多様な言い換えの創出本稿の言い換えの統一的モデルでは,変形の尺度を変更することで,多様な言い換えを実現することができる.すなわち,尺度のみを考察し,新たな尺度を考えたときには,その尺度で変形を行なう新たな言い換えシステムを考えたことと等価になる.尺度のみを考察し,新たな尺度を考案することは比較的容易であるので,本稿の統一的モデルは,多様な新たな言い換えを思いつくことにも役に立つのである.\end{itemize}本稿ではまず,上述のような優れた利点を持つ言い換えの統一的モデルについて説明する.その後で,この統一的モデルに基づいて試作した言い換えシステムを紹介する.紹介する言い換えシステムは,文内圧縮システム,推敲システム,文章語口語変換システム,RL発音回避システム,質問応答システムである.これら多様なシステムを本稿の統一的モデルで具体的に作成できることを示すことで,本稿の統一的モデルで実際に多様な言い換えの問題を扱えることを示す. \section{言い換えの統一的モデル} \label{sec:model}本稿で記述する言い換えの統一的モデルは,図\ref{fig:model}の構成をしている.このモデルは,変形部(transformationmodule)と評価部(evaluationmodule)の二つのモジュールからなる.変形したいものが現れたときは,それを図のようにシステムに入力して,変形部で変形の候補をあげ,評価部において変形の妥当性をチェックし最も妥当であると判断されたものに変形され,それが図のように出力される.{\begin{itemize}\item変形部変形の候補を与えるモジュールである.変形部は,人手による規則で構成してもよいし,計算機で自動獲得した規則で構成してもよいし,動的に書き換え候補を生成するものでもよいし,これらの組合わせでもよい.\item評価部変形の候補の良さを,あらかじめ定めておいた尺度により評価し,最もふさわしい変形の候補を選択するモジュールである.ここで定める尺度は,扱う問題ごとに適正なものに作りかえる必要がある.\end{itemize}}\begin{figure}[t]\begin{center}\epsfile{file=model.eps,height=4cm,width=12cm}\end{center}\caption{言い換えの統一的モデルの模式図}\label{fig:model}\end{figure}評価部で用いられる尺度の具体例として以下のものが考えられる.{\begin{itemize}\item類似度例えば,AとBの類似度を調べたいとする.このとき,変形部の規則がすべて同義性を満足するものだとする.この場合,AとBの類似度が大きくなるように,変形部の規則でA,Bを変形し,A,Bが良く似た状態にしてから類似度を求めると,意味が同じなのに異なる表現で記述されているような場合でも正しく類似度を計算することができる.\item長さ例えば,要約の一つの分野の文内圧縮のように,なるべく意味を変えずに文を圧縮したいとする.このとき,変形部の規則はすべて意味をほとんど変えずに変形するものであるとする.この場合,長さを尺度とし,この長さが短くなるように変形を繰り返すと文内圧縮が実現される.\item頻度(または,生起確率)例えば,推敲システムを考える.このとき,変形部の規則がすべて同義性を満足するものだとする.この場合,推敲したいデータを,そのデータの生起確率が高くなるように変形すると非常に洗練された文章となる.もう少し簡単な例でこれを説明すると,例えば,入力したデータに「データー」とあったとしよう.また,変形規則に「データー」を「データ」とする規則があったとしよう.このとき,毎日新聞\cite{mainichi_jap_all}などで「データー」と「データ」の数を数え,「データ」の方が数が多い場合,「データー」を「データ」と直すといったことである.また,頻度(または,生起確率)を調べるコーパスを種々のものに変更することで,様々な効果を生む.例えば,入力データが書き言葉のときに,コーパスとして話し言葉を用いると書き言葉の話し言葉への変形が実現される\cite{murata_kaiho_2001}.また,入力データが法律関係の文のときに,コーパスとして平易な文章の集合を与えておくと,法律関係の難解な文章が平易な文章に変形されることだろう.また,ここで入力データとして適当に誰かが書いた小説をいれて,コーパスとしてシェークスピアの小説をいれると,シェークスピアの文体の小説が新たに完成することになる.また,入力データを芥川の小説として,コーパスとして漱石の小説を用いると,芥川の小説を漱石の文体に変形するなどということもできるだろう.\item文としての正当性のチェック上記の生起確率に基づく尺度は,推敲システムでも用いることができるように文の正当性のチェックに使うことができる\footnote{生のコーパスが文の正当性のチェック,すなわち,生成の研究に使えることは,生のコーパスが照応解析に使えることを含めて文献\cite{murata_anaphora_all_NLC}に記述してある.}.しかし,生起確率だと尺度として強すぎる場合は以下のような尺度を用いるとよい.\begin{itemize}\item対象としている表現が,コーパスで1回以上出現しているか否か.(これは表記誤りの検出など\cite{takeuchi99,Murata_ieice_negative_example}によく使われる尺度である.)\itemコーパスでの生起確率がある程度以上か否か.\itemコーパスでの生起確率が,環境なしでの生起確率よりも大きいか否か.\end{itemize}ここで示したものは,尺度というよりは条件のようなもので,他の尺度と組み合わせて用いるとよい.他の尺度のところで,もしその変形において,文としての正当性が保証されない場合は,ここで示した尺度を同時に用いるとよい.\item変形の前後での意味の等価性変形規則が完全に同義性を満足するということがわからない場合は,この尺度が必要となる.ただし,この尺度の構築は現時点では難しいと思われる.これができるようになるまでは,変形部で利用する変形規則を完全に同義性を満足するものだけにするか,同義性を満足しない言い換えをしてしまう可能性があることを覚悟するかのいずれかである.(とはいえ,変形部で利用する変形規則に同義性を満足しないものが少々ある状況で変形の前後での意味の等価性を調べる尺度を用いなかったとしても,上述の「文としての正当性のチェック」を用いれば多くの不適切な言い換えを取り除くことができるので,工学的見地ではある程度利用可能な言い換えシステムを構築できると思われる.)また,この項目の尺度も一つ上の「文としての正当性のチェック」と同様に,尺度というよりは条件のようなもので,他の尺度とともに用いられる.\end{itemize}}ここにあげたもの以外にも様々な尺度が考えられる.英語文でRやLなどを含む日本人にとって発音しにくい\cite{eigo_goto,SLA}単語をあまり使わないという尺度も考えられる.また,丁寧な表現もしくはわかりやすさの計量的研究が十分なされれば,それも尺度とすることで丁寧な表現もしくはわかりやすい表現への自動言い換えが可能となるだろう.ただし,これは丁寧な表現もしくはわかりやすい表現のみを使ったコーパスを生起確率の算出に用いることで,先の生起確率の尺度でも扱えることである.また,条件のような尺度には,「21世紀」など特定の語を使うことを条件として言い換えることや,起承転結を満足する文章構成を条件として言い換えることや係り先未決定文節数を7程度以下とすること\cite{murata_7pm2_nlp}を条件として言い換えることなど,様々なものが想定できる.以降では,われわれが行なっている研究を具体的な事例として,この統一的モデルのもとでの変形操作がどのような尺度によってなされているかを,見てみよう. \section{文内圧縮システムの場合} 最近は要約の研究\cite{Kato1999}が盛んになっているが,ここでは要約の一分野である文内圧縮を試みてみよう.変形規則としては,文献\cite{murata_nl2001_henkei}の3節の研究で自動獲得した規則のうち,その文献の評価式(5)でソートした結果を上位から見て頻度が1の規則が現れる一つ手前までの規則を利用する.このとき規則の総数は775個となった.本節ではこれらを変形部の規則とする.表\ref{tab:hitode_kisoku_djr}に規則の例を示す.「φ」は空文字を意味する.この文献\cite{murata_nl2001_henkei,murata_henkeirule_nlp2004}での研究では,同義な意味を持つ,複数の辞書の同じ項目の定義文を照合することで,ほぼ同義な表現の対を抽出している.この表現の対を変形規則に利用するのである.このシステムではこの得られた変形規則は双方向書き換え可能として利用する.ここでは新聞記事の要約を考えることとして,評価部の尺度としては以下のものを用いることにする.\begin{itemize}\item入力されたデータがより短くなるような変形を良いものとする.\item新聞記事での出現が1個以上あることを条件とする.(文としての適切性の判定)\end{itemize}ここでの新聞記事は94年と95年の毎日新聞2年分とした.\begin{table}[t]\begin{center}\leavevmode\caption{変形規則の例}\label{tab:hitode_kisoku_djr}\begin{tabular}[h]{|lll|}\hline・&⇔&φ\\、&⇔&φ\\の&⇔&が\\や&⇔&・\\など&⇔&φ\\いう&⇔&言う\\と&⇔&・\\φ&⇔&ための\\用いる&⇔&使う\\入る&⇔&はいる\\くる&⇔&来る\\・&⇔&または\\または&⇔&や\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[t]\small\begin{center}\leavevmode\caption{文内圧縮の例}\label{tab:compress_result}\begin{tabular}{|l|}\hline\multicolumn{1}{|c|}{良いと思われるもの}\\\hline九日\underline{から}の韓国訪問では昨年五月、盧泰愚(ノ\underline{・}テウ)大統領来日時に合意した\\歴史の\underline{流れの}中で解決されるよう勇気ある決断を望む\\米、イラクの直接対話実現に\underline{強い}期待を示した。\\アジア\underline{・}太平洋地域にも及ぶよう外交努力をしてきた。\\多国籍軍には十億ドルの追加\underline{的}措置をとった段階だ。\\\hline\multicolumn{1}{|c|}{良くないと思われるもの}\\\hlineソ連の経済危機は天災で\underline{は}なく、指導部の場当たり的な対応に主要な要因がある。\\自由\underline{と}民主主義と市場経済を求め、私たちと同じ政治経済の仕組みに向かって努力している。\\前村長、菊地豊氏(58)を党推薦の無所属候補として擁立\underline{すること}を決めた。\\\hline\end{tabular}\end{center}\end{table*}厳密には以下のアルゴリズムによって実行した.\begin{enumerate}\item入力として与えられるデータをJUMAN\cite{JUMAN3.6}で形態素解析して,形態素列に分解する.\item\label{enum:proc1}文頭の形態素から順に,形態素ごとに以下の処理を行なう.\begin{enumerate}\item現在の形態素で始まる形態素列$S$(形態素を一つも持たない場合,つまり空文字も含む)と,変形規則$R_i$の前件部の文字列$A_i$が一致した場合,その後件部の文字列$B_i$が,書き換え後表現の候補となる.また,$S$の前接$k$-gramの形態素列を$S1_i$,$S$の後節$k$-gramの形態素列を$S2_i$とする.\item各書き換え後表現の候補$B_i$に対して,文字列$A_i$から文字列$B_i$になるときに短縮される文字数を数え,この値が最も大きかったときの$i$を$m$とする.\item評価に用いるコーパスにおいて$S1_m$$B_i$$S2_m$の文字列の頻度を求め,この値が1より大きいとき,$A_m$を$B_m$に書き換え,処理を次の形態素に移す.\end{enumerate}\end{enumerate}ただし,$k$は定数である.ここでは,少々再現率を下げてもよいから適合率を高める意味で$k$としては2を用いておこう.この条件で毎日新聞の91年のデータの文内圧縮の実験を試みた.その結果の一例を表\ref{tab:compress_result}にあげておく.表で下線部は変形操作により消される部分を意味する.本節の研究は圧縮ということで文を短くする操作があるため,変形規則としては消去するパターンのものが用いられていると思われる.「強い」や「的」などのものが消去されて正しく圧縮できたものから,「は」や「と」を消去して意味が変わってしまう誤りもあった.また,表の最後のデータは,「すること」を消去したが「候補として擁立を決めた」と短い範囲で見ると正しそうに見えるが,もう少し前からみると誰それをという部分があり「すること」を消去してはいけないとわかる.この誤りを正すには構文的な情報を反映した評価式\footnote{この評価式としては,例えば,係り先がなくなる文節が生じてはいけないという条件のような尺度を利用するとよい.}を用いる必要がある. \section{推敲システムの場合} ここでは推敲システムについて考えてみる.変形規則は前節と同じ775個のものを用いる.このように変形規則は複数の言い換えシステムで利用できる場合があるのである.ここでは新聞記事の推敲を考えることとして,評価部の尺度としては以下のものを用いることにする.\begin{itemize}\item入力されたデータの各部分形態素列の新聞記事コーパスでの生起確率が,より大きくなるような変形を良いものとする.\end{itemize}ここでの新聞記事は94年と95年の毎日新聞2年分とした.ここでは,新聞記事の推敲を考えるために生起確率をもとめるコーパスとして新聞記事コーパスを利用する.もし,論文を推敲したいときは論文集合のコーパスを使えばよい.すなわち,推敲したい文書と同一の種類のコーパスを利用するのである.厳密には以下のアルゴリズムによって実行した.\begin{enumerate}\item入力として与えられるデータをJUMANで形態素解析して,形態素列に分解する.\item\label{enum:proc1_2}文頭の形態素から順に,形態素ごとに以下の処理を行なう.\begin{enumerate}\item現在の形態素で始まる形態素列$S$(形態素を一つも持たない場合,つまり空文字も含む)と,変形規則$R_i$の前件部の文字列$A_i$が一致した場合,その後件部の文字列$B_i$が,書き換え後表現の候補となる.また,$S$の前接$k$-gramの形態素列を$S1_i$,$S$の後節$k$-gramの形態素列を$S2_i$とする.\item各書き換え後表現の候補$B_i$に対して,新聞記事コーパスでの$S1_i$$B_i$$S2_i$の文字列の頻度を求め,この頻度が最も大きかったときの$i$を$m$とする.\item新聞記事コーパスでの$S1_m$$A_m$$S2_m$の文字列の頻度を求め,この値よりも,$S1_m$$B_m$$S2_m$の文字列の頻度の方が大きいとき,$A_m$を$B_m$に書き換え,処理を次の形態素に移す.\end{enumerate}\end{enumerate}ただし,$k$は定数である.ここでも前節と同じく,アルゴリズムでの頻度算出の環境を固定長の前後2-gram$(k=2)$としておこう\footnote{\label{fn:kairyou}より良い解析をするには,各文字列の頻度の部分は,その文字列を$x$とするとき,与えられた入力データを環境に持つときの$x$が新聞記事コーパスに出る事象の確率とするとよい.また,上記アルゴリズムは環境としては前後$k$形態素のものを固定で用いるものとなっているが,可変にしたり構文的な素性,時制的な素性など広範な情報を用いて,最大エントロピー法などの強力な確率推定手法により確率を求めるようにした方がよいだろう.}.\begin{table*}[t]\small\begin{center}\leavevmode\caption{推敲結果の例}\label{tab:suikou_result}\begin{tabular}{|p{13.5cm}|}\hline\multicolumn{1}{|c|}{良いと思われるもの}\\\hline社会党の土井委員長は三十一日、神戸市の実家に帰り、三日まで実家と兵庫県西宮市の自宅で家族\begin{tabular}[t]{l}、\\[-0.1cm]や\\\end{tabular}友人らと過ごす。\\ソ連国民のうち「返還しなくて\begin{tabular}[t]{l}\\[-0.1cm]も\\\end{tabular}よい」は26%にとどまり、国民意識の面で両国間に接点ができつつあるといえそうだ。\\世界の平和\begin{tabular}[t]{l}・\\[-0.1cm]と\\\end{tabular}安定に貢献する上で、\\支持率\begin{tabular}[t]{l}\\[-0.1cm]の\\\end{tabular}回復につながったのではないか\\\hline\multicolumn{1}{|c|}{良くないと思われるもの}\\\hline日本の生活満足度は前回を8ポイント\begin{tabular}[t]{l}\\[-0.1cm]も\\\end{tabular}上回り、8割を超えたが、男女\underline{で}差がある。\\米国からイラクへの\underline{直接}対話の申し入れなど、双方から平和的に解決したいという考えがにじみ出ている。\\国会移転に関する決議も、問題\underline{の}解決につながる。ウマ年の昨年を象徴\begin{tabular}[t]{l}した\\[-0.1cm]する\\\end{tabular}のがオグリキャップ。\\\hline\end{tabular}\end{center}\end{table*}この条件で毎日新聞の91年のデータの推敲実験を試みた.その結果の一例を表\ref{tab:suikou_result}にあげておく.表の下線部は前節と同じく変形操作により消される部分を意味し,少し下に書いてある文字列はその文字列に変形されることを意味する.「や」「も」「と」「の」を補って読みやすくなったように思われるものや,逆に「も」を補ったり「で」を省略して意味が変わってしまい良くないと思われる結果があった.また,最後の行の例では,過去形の「した」を現在形の「する」に変形するというのがあったが,これは「昨年」の話で過去形であるべきで「した」を「する」にしてはいけない.これの対処としては変形規則の獲得精度をあげるか,文の妥当性の判定チェックに時制の情報も組み込むかする必要がある.次に判定チェックに時制の情報も組み込んだ実験を行なってみた.つまり,評価部の尺度として,以下の条件も追加で利用した.\begin{itemize}\item入力されたデータの各部分の形態素列を言い換える時に,その形態素列の末尾の形態素が動詞の場合は,時制が一致することを条件とする.\end{itemize}ここでは時制はJUMANの出力で「タ形」であるものとそれ以外の場合の二種類の時制を利用した.アルゴリズムとしては(c)を以下のように変更した.\begin{itemize}\item[(c)]新聞記事コーパスでの$S1_m$$A_m$$S2_m$の文字列の頻度を求め,この値よりも,$S1_m$$B_m$$S2_m$の文字列の頻度の方が大きく,なおかつ,以下の条件を満足する時に$A_m$を$B_m$に書き換え,処理を次の形態素に移す.\begin{table*}[t]\small\begin{center}\leavevmode\caption{時制の情報も組み込んだ推敲結果の例}\label{tab:suikou_result_jisei}\begin{tabular}{|p{13.5cm}|}\hline\multicolumn{1}{|p{13.5cm}|}{時制の情報に基づいて言い換えを行なわなかったことにより,改善されたもの}\\\hlineウマ年の昨年を象徴\begin{tabular}[t]{l}$^{\scriptsize○}$した\\[-0.1cm]$^{\scriptsize×}$する\\\end{tabular}のがオグリキャップ。\\「日本の根本的な政治改革」を要求\begin{tabular}[t]{l}$^{\scriptsize○}$する\\[-0.1cm]$^{\scriptsize×}$した\\\end{tabular}が、小選挙区制にすりかえさせてはならない。\\ブッシュ政権の支持率は8月のイラクのクウェート侵攻後、いったん低下したといわれて\begin{tabular}[t]{l}$^{\scriptsize○}$いた\\[-0.1cm]$^{\scriptsize×}$いる\\\end{tabular}が、今回の調査では高率の支持を集めた。\\\hline\hline\multicolumn{1}{|p{13.5cm}|}{時制の情報に基づいて言い換えを行なわなくなったが,時制の情報に反して言い換えを行なってもいいとも判断できるもの}\\\hline「鈴木が脅迫状を作って\begin{tabular}[t]{l}$^{\scriptsize○}$いた\\[-0.1cm]$^{\scriptsize○}$いる\\\end{tabular}のを見た」などと供述していることから警視庁に照会、裏付け捜査を進めている。\\\hline\end{tabular}\end{center}\end{table*}\begin{itemize}\item[(条件)]$A_m$の最後の形態素と$B_m$の最後の形態素がともに動詞である場合は両方ともが「タ形」か両方ともが「タ形」でない場合にこの条件を満足するとする.$A_m$の最後の形態素と$B_m$の最後の形態素のどちらか一方でも動詞でない場合はこの条件を満足するとする.\end{itemize}\end{itemize}この方法で先の実験と同じデータで新聞記事の推敲を行なってみた.先の時制が原因で誤った例(表\ref{tab:suikou_result}の最後の例)は「した」と「する」の言い換えを行なわなくなり,その部分の誤りは改善された.また同様の誤りの文も多く改善された.改善された文の例を表\ref{tab:suikou_result_jisei}に示す.表の言い換え箇所の上段は入力文での表現で,下段は時制の制約を加えなければ出力される言い換えた表現である.また,それぞれ表現の左上の部分に,正しい表現には$○$を意味が変わって言い換えとしては正しくない表現には$×$をつけている.この時制によるシステムの変更で出力が変わった10例をチェックしたところ,1例だけそのように言い換えても文の意味が変わらないものであった.それ以外は時制の情報を使って言い換えを抑制する必要のある箇所であった.このことにより時制情報を利用することで言い換えシステムの性能を向上させる場合があることがわかった.ここでは時制に関する誤りを対処するために,時制情報に関係する制約を評価部に追加したが,これは変換規則から時制が変化する規則を取り除くことでも対処できる. \section{文章語口語変換システムの場合} ここでは書き言葉から話し言葉への言い換えを考えてみる\cite{murata_kaiho_2001,Murata_spoken_written_lrec}.\begin{table}[t]\begin{center}\leavevmode\caption{書き言葉から話し言葉への変形のための変形規則の例}\label{tab:hitode_kisoku_w2s}\begin{tabular}[h]{|lll|}\hline、&→&φ\\φ&→&の\\・&→&φ\\φ&→&え\\φ&→&えー\\の&→&φ\\φ&→&を\\を&→&φ\\φ&→&で\\φ&→&という\\する。&→&いたします\\対応する&→&対する\\\hline\end{tabular}\end{center}\end{table}変形規則としては,文献\cite{murata_kaiho_2001}の研究で自動獲得した規則のうち,その文献の評価式(4)でソートした結果を上位から見て頻度が1の規則が現れる一つ手前までの規則を利用する.このとき規則の総数は240個となった.本節ではこれらを変形部の規則とする.表\ref{tab:hitode_kisoku_w2s}に規則の例を示す.「φ」は空文字を意味する.この規則は双方向書き換え可能ではなく,一方への書き換えのみ可能である.これは,この規則は書き言葉のテキストと話し言葉のテキストを照合して得られたもので,獲得された変形規則の段階で方向性があり,規則の左辺が書き言葉からまた右辺が話し言葉から得られた表現であるため,書き言葉から話し言葉への言い換えの際には左辺から右辺への一方方向のみで書き換え可能となる.次に評価に用いるコーパスであるが,ここでは話し言葉に変形したいので,文献\cite{murata_kaiho_2001}で話し言葉データと呼んでいるものを使う.このデータは,開放的融合研究推進制度,話し言葉の言語的・パラ言語的構造の解明に基づく「話し言葉工学」の構築の一環として通信総合研究所と国立国語研究所で作成しているもので,全国大会,研究会などの学会講演データからなっている.本稿ではそのうちの82編のものを用いている.評価部の尺度としては以下のものを用いることにする.{\begin{itemize}\item入力されたデータの各部分形態素列の話し言葉データでの生起確率が,より大きくなるような変形を良いものとする.\end{itemize}}実際に実行する厳密なアルゴリズムは前節のもの(時制情報を利用する改良をする前のもの)と等価である.つまり,本節の研究は,前節の研究において新聞コーパスを用いていたところを話し言葉データに変えただけである.前節の研究では,入力も評価コーパスも新聞という同じものだったため,新聞のデータをより新聞のデータらしくする,つまり,推敲の研究となっていたが,本節では入力を書き言葉,評価コーパスを話し言葉とするために,書き言葉から話し言葉への変形ということになる.\begin{table*}[t]\small\begin{center}\leavevmode\caption{書き言葉から話し言葉への変形例(1gramの場合)}\label{tab:s2p_henkei}\begin{tabular}{|p{13.5cm}|}\hline\begin{tabular}[t]{l}\\[-0.1cm]え\\\end{tabular}近年、パラフレーズに関する知識\begin{tabular}[t]{l}\\[-0.1cm]を\\\end{tabular}獲得の研究が重要視されつつある。本\begin{tabular}[t]{l}稿\\[-0.1cm]研究\\\end{tabular}では\underline{、}同義のテキストを照合し\underline{、}その照合\underline{結果}を用いてパラフレーズに関する知識を自動獲得することを試みた。この\begin{tabular}[t]{l}\\[-0.1cm]ような\\\end{tabular}自動獲得の\underline{実験}を辞書定義文、新聞記事タイトル・本文対、講演テキストにおいて行なったところ、同義のテキストの照合による方法がパラフレーズ獲得にある程度役に立つ\begin{tabular}[t]{l}\\[-0.1cm]という\\\end{tabular}ことがわかった。(中略)。そのシステム\underline{で}は\underline{、}基本的には\underline{、}与えられた質問\underline{文}の答え\begin{tabular}[t]{l}\\[-0.1cm]です\\\end{tabular}が書いてありそうな文を探し出し、その答え\begin{tabular}[t]{l}\\[-0.1cm]です\\\end{tabular}が書いてありそうな文と質問\underline{文}の類似度\begin{tabular}[t]{l}が\\[-0.1cm]を\\\end{tabular}大きくなるように双方を書き換えて照合し、答え\begin{tabular}[t]{l}\\[-0.1cm]です\\\end{tabular}が書いてありそうな文\underline{で}の\underline{、}質問\underline{文}の疑問詞に対応している箇所を答えとして出力するシステムである。\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\small\begin{center}\leavevmode\caption{書き言葉から話し言葉への変形例(2gramの場合)}\label{tab:s2p_henkei2}\begin{tabular}{|p{13.5cm}|}\hlineこれらは、同義な言い換えを示す、パラフレーズに関する知識がきちんとした形で整備されていない\begin{tabular}[t]{l}\\[-0.1cm]という\\\end{tabular}ことによる。\\複数の国語辞典を用意してその定義を利用するということが\begin{tabular}[t]{l}\\[-0.1cm]ま\\\end{tabular}考えられる。\\ある程度よさそうな同義・類義表現を抽出する\begin{tabular}[t]{l}\\[-0.1cm]という\\\end{tabular}ことを試みる。\\対応づけの誤りである場合もあり、同義表現としては\begin{tabular}[t]{l}\\[-0.1cm]あー\\\end{tabular}ふさわしくない対が多い。\\このパターンを頻度でソートした結果\begin{tabular}[t]{l}\\[-0.1cm]というの\\\end{tabular}を表に示す。\\\hline\end{tabular}\end{center}\end{table*}この条件で筆者の論文\cite{murata_nl2001_henkei}を入力として与え,話し言葉から書き言葉への変形の実験を行なった.前節のアルゴリズムの$k$が$1$のときの結果を表\ref{tab:s2p_henkei}に,$k$が$2$のときの結果を表\ref{tab:s2p_henkei2}に示す.表の下線部は変形操作により消される部分を意味し,少し下に書いてある文字列はその文字列に変形されることを意味する.もともとアルゴリズムが簡単なため,$k$が$1$の場合では精度が悪いがそれでも,「え」をいれたり「本稿」を「本研究」と言い換えたりする結果が得られている.$k$が$2$の場合では精度は良くほとんど誤りがなかった.「という」や「ま」や「あー」を入れていて,いかにも話し言葉にふさわしい表現になっている.しかし,変形箇所が少なく再現率が低いといった感じであった. \section{RL発音回避システムの場合} ここでは,日本人にとって発音しにくい\cite{eigo_goto,SLA}RやLを含む単語をあまり使わない英文に言い換えるシステムについて考えてみる.本稿ではこのシステムのことをRL発音回避システムと呼ぶ.日本人が国際会議で英語で演説する際,このシステムによりRやLを含む単語をあまり使わない英文に言い換えておくと,RやLを含む単語の発音が苦手な日本人にとって話しやすい英語となる.変形規則としては,WordNet2.0の名詞と動詞の同義語表現を利用した.評価部の尺度としては以下のものを用いることにした.\begin{itemize}\item英語文で発音しにくいR+母音やL+母音の表現を含む個数が小さいほどよいとする.(RとLは母音とくっつく場合が特に発音が難しい.)\itemR+母音やL+母音の表現を含む個数が同じ場合は入力された元の表現の方がよいとし,また,変形後の表現同士の比較では,入力されたデータの各部分単語列の英語テキストでの生起確率がより大きくなるような変形を良いものとする.\item英語テキストでの出現が1個以上があることを条件とする.(文としての適切性の判定)\end{itemize}英語テキストとしてはBNCコーパス\cite{BNC}を用いた.本稿では,母音の判定には文字を利用し,a,i,u,e,o,yを後ろにくっつけて持つr,lの表現を,R+母音,L+母音の表現とした.また,変形規則に用いる同義語表現には動詞の変化形,名詞の複数形なども追加して用いた.厳密には以下のアルゴリズムによって実行した.\begin{enumerate}\item入力として与えられるデータをスペースで区切って単語列に分解する.\item文頭の単語から順に,単語ごとに以下の処理を行なう.\begin{enumerate}\item現在の単語$S$と,変形規則$R_i$の前件部の単語$A_i$が一致した場合,その後件部の単語$B_i$が,書き換え後表現の候補となる.また,$S$の前接$k$-gramの単語列を$S1_i$,$S$の後節$k$-gramの単語列を$S2_i$とする.\item各書き換え後表現の候補$B_i$に対して,$B_i$中にR+母音とL+母音が含まれる頻度$fb1$と,英語コーパスでの$S1_i$$B_i$$S2_i$の単語列の頻度$fb2$を求め,$fb2$が1以上のもので,$fb1$の値が最も大きくその中で$fb2$の値が最も大きかったときの$i$を$m$とする.\item$A_i$中にR+母音とL+母音が含まれる頻度を求め,この値よりも,$B_m$中にR+母音とL+母音が含まれる頻度の方が大きいとき,$A_m$を$B_m$に書き換え,処理を次の形態素に移す.\end{enumerate}\end{enumerate}ただし,$k$は定数である.本稿の言い換えの統一的モデルでは,変形部と評価部を分割した構成になっており,変形部の規則にWordNet2.0\cite{wn2.0}の同義語表現を利用し,評価部でR+母音やL+母音が含まれる頻度や英語テキストでの出現頻度を利用することで,比較的容易にRL発音回避システムを作成することができるのである.\begin{table*}[t]\small\begin{center}\leavevmode\caption{RL発音回避システムの例}\label{tab:l_r_result}\begin{tabular}{|p{13.5cm}|}\hline\multicolumn{1}{|c|}{良いと思われるもの}\\\hlineWethinkagood\begin{tabular}[t]{|l|}approach\\[-0.1cm]way\\\end{tabular}istoconstructitusing``X{\itno}Y''.\\Thecriteriausedto\begin{tabular}[t]{|l|}select\\[-0.1cm]determine\\\end{tabular}themostappropriatetransformationtypemustbepredefined.\\Thisfigureshowsthe\begin{tabular}[t]{|l|}structure\\[-0.1cm]composition\\\end{tabular}ofthethesaurus.\\$length$disthe\begin{tabular}[t]{|l|}length\\[-0.1cm]size\\\end{tabular}ofadocumentd.\\\hline\multicolumn{1}{|c|}{良くないと思われるもの}\\\hlineThisisthe\begin{tabular}[t]{|l|}title\\[-0.1cm]name\\\end{tabular}ofthequery.\\Pofdandtisthe\begin{tabular}[t]{|l|}location\\[-0.1cm]determination\\\end{tabular}ofthefirstoccurrenceofaterm$t$inthedocument$d$.\\Thistermisforweightingtermswhichare\begin{tabular}[t]{|l|}followed\\[-0.1cm]used\\\end{tabular}bytheJapanese-languageparticle``nado''.\\\hline\end{tabular}\end{center}\end{table*}この条件で筆者が今まで国際会議で口頭発表してきた発表の原稿を入力として与え,RやLをあまり含まない英文への変形の実験を行なった.ここでは,少々再現率を下げてもよいから適合率を高める意味で$k$としては2を用いた.この実験の結果の一例を表\ref{tab:l_r_result}にあげておく.表の縦線で囲った部分が言い換えられた表現で,上の表現が下の表現に言い換えられている.それぞれR+母音,L+母音が少なくなる表現に書き換えられている.``approach''を``way''に書き換えたり,``length''を``size''に書き換えたりして,発音しやすい語への言い換えが正しくできているものがあった.しかし,今のところこのシステムでは,言い換えると微妙に意味が異なってしまう誤りもあった.このシステムの今後の応用としては,今のところまだ性能が悪いので,言い換えた結果のみを出力するのではなく,言い換えの候補をいくつか尺度の値(R+母音やL+母音の表現を含む個数など)とともにその値の順に提示し,そこでユーザに言い換えに適切な表現を選ばせるという支援システムのような形の利用が良いと思われる. \section{質問応答システムの場合} われわれの質問応答システム\cite{murata2000_1_nl}では,与えられた質問文の答えが書いてありそうな文を探し出し,その答えが書いてありそうな文と質問文の類似度が大きくなるように双方を書き換えて照合し,答えが書いてありそうな文での,質問文の疑問詞に対応している箇所を答えとして出力するといったことを行なう.例えば,表\ref{tab:mensetsu}のようなデータ\cite{eiken2k}が与えられているときに「ニューヨーク州の中央部または北部に住む人たちの、最も一般的な職業は何ですか。」という質問があったとしよう.このときこの質問文は疑問詞をXにして平叙文化され,またこの質問文と類似している文がデータから抽出され,表\ref{tab:qa_result}の1行目の状態となる.表\ref{tab:hitode_kisoku}にあげたような規則があったとすると,この規則を用いて質問文,データ双方を類似度が高くなるように書き換えていき,最終的に表のように類似度219.5に達して類似度がそれ以上高くならなくなる.この状態で質問文とデータを照合すると,答えは「農業」と簡単にわかる.質問応答システムでは,類似度を尺度として言い換えを行なっていることになる.類似度が高くなるように言い換えを行なうことで答えとデータが照合しやすくなる.\begin{table*}[t]\begin{center}\leavevmode\caption{データ}\label{tab:mensetsu}\small\begin{tabular}[h]{|p{13.5cm}|}\hlineふつう、日本人はアメリカ人がニューヨークに住んでいると聞くと、そのアメリカ人はニューヨーク市に住んでいるのだと思う。しかし、それはよくやる間違いで、ニューヨーク市というのは、ニューヨーク州の南の部分の大変せまい地域を占めているだけなのである。ニューヨーク市からナイアガラの滝まで車を運転して行くと約8時間かかり、そのナイアガラの施もニューヨーク州に存在している。ニューヨーク州の大部分は山や森林や原っぱ、川、湖、沼地などからできているのである。州のこの中央部や北部に住む人たちはふつう小さな町に住んでいる。そして、農業が、これらのニューヨーク州民の間では最も普通の職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\begin{center}\leavevmode\caption{質問応答システムの例}\label{tab:qa_result}\small\begin{tabular}{|r|l|p{10cm}|}\hline\multicolumn{1}{|c|}{類似度}&\multicolumn{1}{|c|}{種類}&\multicolumn{1}{|c|}{文}\\\hline32.1&質問文&ニューヨーク州の中央部または北部に住む人たちの、最も一般的な職業はXです。\\32.1&データ&そして、農業が、これらのニューヨーク州民の間では最も普通の職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\\hline103.1&データ&そして、農業が、これらのニューヨーク州民の間では最も一般的な職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\82.5&データ&そして、農業が、これらのニューヨーク州の人たちの間では最も普通の職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\...&...&...\\\hline186.5&データ&そして、農業が、これらのニューヨーク州の人たちの間では最も一般的な職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\\...&...&...\\\hline...&...&...\\\hline219.5&質問文&ニューヨーク州の中央部または北部に住む人たちの、最も一般的な職業はXである。\\219.5&データ&、これらのニューヨーク州の人たちの間は最も一般的な職業は農業である。\\\hline&◆答え&=農業\\&◆補足&=、これらのニューヨーク州の人たちの間は最も一般的な職業は農業である。\\\hline\end{tabular}\end{center}\end{table*}\begin{table}[t]\begin{center}\leavevmode\caption{質問応答システムで用いた変形規則の例}\label{tab:hitode_kisoku}\begin{tabular}[h]{|lll|}\hlineXがYである&→&YはXである\\XのYはZで&→&XはYはZで\\の間で&→&で\\では&→&は\\普通の&→&一般的な\\州民&→&州の人たち\\で、[\^、]+\$&→&である。\\である&→&です\\\hline\end{tabular}\end{center}\end{table}ここに示したものは文献\cite{murata2000_1_nl}の予備実験として用いていたシステムのものをあげている.ここで用いた変形規則は人手で作成したものである.また,表\ref{tab:qa_result}の最終状態のデータの日本語表現は文としておかしい.これの対処としては「文としての正当性のチェック」などの条件を尺度に組み込むとよいだろう.本節の質問応答システムは,システムの処理内容の複雑さの都合上,本稿でいう言い換えのモデルだけでは実現できない.質問文において,疑問詞をXにして平叙文化するモジュールと,質問文とデータの類似度が向上するように言い換えを繰り返させるモジュールが新たに必要である.しかし,質問文またはデータをデータまたは質問文に類似するように書き換える一回一回の言い換え処理は,変形規則に表\ref{tab:hitode_kisoku}の規則を利用し,変形の尺度に質問文とデータの文の類似度を利用することで,本稿の言い換えの統一的モデルで扱えるものである.ここでは,質問応答システムを例にあげたが,それに限らず類似度を計算したいときには類似度を尺度として言い換えを行なってやるとよい.例えば,情報検索などでも高度になると,上記の質問応答のようにクエリと検索される記事を類似度が高くなるように言い換えてからクエリと記事の類似度を求めるといったことも考えられる.また,照応の問題\cite{murata_noun_nlp}でも,「近くの大きな杉の木の根元にある穴」と「杉の木の根元の穴」の同一性もしくは包含関係が判定できないと照応を解決できないというのがあるが,類似度を尺度として両者を言い換え,例えば,「近くの大きな杉の木の根元の穴」と「杉の木の根元の穴」になった場合,後者が前者に含まれることになり後者が前者を指示可能とシステムに認識させてやることもできる. \section{関連研究との対比} 本節では,本稿の言い換えモデルと他の関連研究,関連した考え方との比較を行ない,本稿の言い換えモデルと本稿のシステムの利点と欠点を考察する.\subsection{モデルの比較}本稿の統一的モデル以外に考えられる一般的な言い換えのモデルとして以下のものが考えられる.\begin{itemize}\item言い換えの目的に応じて作成した変形規則を利用して,言い換えを実現する.(すなわち,評価部を用いず変形部のみの構成で言い換えを実現する.)\end{itemize}この構成の場合は変形規則にすでに言い換えの目的に応じた処理が組み込まれているため,本稿の統一的モデルにあるような言い換えの目的にあった表現を選択するための評価部が必要ないという特徴がある.この変形部のみで構成される言い換えのモデルを利用していると考えられる研究の例としては,山崎らの言い換えによる要約の研究\cite{yamasaki_NLP98},佐藤の論文表題の言い換えの研究\cite{sato_ronbun_iikae},黒橋らの平易文への言い換えの研究\cite{kurohashi_nlp2001ws_true}がある.山崎らの研究では,言い換え前と言い換え後の表現の対の表を作成し,この表を使って言い換えを実現している.佐藤の研究では,複数の複雑な処理と規則を組み合わせて論文表題の言い換えを実現している.黒橋らの研究では,国語辞典の定義文がその項目の見出し語を平易に表した表現であることを利用し,国語辞典の見出し語と定義文の対を変形規則のように扱って平易文への言い換えを実現している.この変形部のみで構成される言い換えのモデルと,変形部と評価部を持つ本稿の言い換えモデルを比較してみる.この変形部のみで構成される言い換えのモデルには,評価部を必要としないという利点があるが,言い換えの問題ごとに変形部を構築する必要がある.これに対して,本稿の言い換えモデルでは,評価部を用意する必要がある代りに,言い換えの問題ごとに応じた変更を評価部のみとし,変形部を複数の言い換えシステムに利用するということができる.このことによりシステム作成のコストを軽減することができる.また,このことは非常に優れた特徴であり,急遽ある特定の種類の言い換えシステムを作成する必要ができた場合,同義語・同義表現の辞書を持ってきてそれを変形規則として利用し,評価部の尺度にはその特定の種類の言い換えシステムの目的に応じたものを考えて使うだけで,その新しい特定の種類の言い換えシステムを作成できる.例えば,本稿ではRL発音回避システムを紹介しているが,このシステムの実装は本稿のモデルに従えば極めて容易であり,英語単語の同義語辞書を変形部に利用し,発音のしにくいRやLの表現の出現頻度を評価部の尺度に利用することでこのシステムを作成できたのである.このように,本稿の統一的モデルは,変形部を複数の言い換えシステムに利用することができる特徴の他に,概ね変形部の変形規則には同義語・同義表現の辞書を利用し,評価部の尺度にはその問題に応じた尺度を考えればよいという指針まで存在するため,システム実装が容易というだけでなく,システム設計も容易という特徴がある.このことはさらに,評価部の尺度について問題に応じて新しいものを考えれば,その尺度に基づく新しい言い換えシステムを設計したことになるということにつながる.新たな評価部の尺度だけを考案することは比較的容易なので,多くの種類の新しい評価部の尺度を考えることで多様な新たな言い換えシステムを考えることができる.本稿の統一的モデルには,変形部のみで構成される言い換えのモデルに比べて上記のような強力な利点がある.話を少し戻して先にあげた三つの研究を本稿の統一的モデルで実現するにはどのようにすればよいかを考えてみる.山崎らのニュース文要約の研究\cite{yamasaki_NLP98}では,研究の基本方針として,「冗長な表現を短縮し,略語があれば略語に言い換える,無くても理解できる部分は削除する,強調表現や文の接続を表す語句も削除する」というものが記述されてある.本稿の統一的モデルだと,変形部の変形規則に略語とその略語の略さない表現の対を追加して,強調表現や接続表現に関する変形規則などを追加し,尺度に本稿でも用いた文の長さが短いほどよいというものを使うとよい.佐藤らの論文表題をわかりやすく言い換える研究\cite{sato_ronbun_iikae}の場合は,語尾の動詞性名詞を格関係も考慮して動詞化する規則を評価部の変形規則に利用して,尺度に文末は動詞がよいというものや,平易な文章を集めてその平易な文章での出現頻度が多い表現ほどよいというものを使うとよい.また,わかりやすくした結果の論文表題も多数収集されれば,そこでの頻度が多い表現ほどよいという尺度も利用できる.黒橋らの平易文への言い換えの研究\cite{kurohashi_nlp2001ws_true}の場合では,国語辞書から取り出した見出し語と定義文の対から変形規則を作成しそれを変形部の変形規則に追加して,尺度には平易な文章を集めてその平易な文章での出現頻度が多い表現ほどよいというものを使うとよい.このように,これらの三つの研究は本稿の統一的モデルでも扱うことができる.なお,変形部と評価部を分離した構成を持つ構成・方法については,いくつかの文献\cite{yamamoto_nlp2001ws_true,inui_iikae_tutorial,fujita_ipsj2003}でも述べられている.例えば,藤田らの論文\cite{fujita_ipsj2003}では言い換えレイヤと目的適合性レイヤを分離して扱う方法が述べ,このことによりテキストの評価基準(本稿でいうところの尺度)を取り替えることで様々な用途の違いを吸収でき,汎用的な枠組みを提供するということが述べられている.山本や乾の文献\cite{yamamoto_nlp2001ws_true,inui_iikae_tutorial}には評価部の尺度を考える際に役に立つ,言い換えの基準や考え方(文献では換言因子とも呼ばれている)が数多く記載されている.役に立つ貴重なものと思われる.しかし,これらの文献では本稿で紹介しているような,実際にテキストの評価基準を取り替えて様々な言い換えシステムを構築してその動作例を示すというようなことはしていない.その意味では本稿は評価部の尺度を種々のものに取り替えることで,様々な言い換えシステムを構築できることを実際に示しており,その面で価値がある.\subsection{モデルの個々の要素の検討}本節で本稿のモデルの個々の要素である,変形部と評価部について議論する.まず,変形部についてであるが,本稿で実際に示したシステムでは,変形部には主にPerlのsコマンドでも扱えるような,文字列の変換のみしか扱わなかった.文内圧縮システムでも指摘したが,構文的な情報を反映した変形をしないと正しく言い換えが実現できない場合がある.今後はこのような構文的な情報を反映した変形を実現する必要がある.乾らのグループが開発している言い換えエンジンKURA\cite{takashi_tl2001}は,構文構造を持つ表現の言い換えを実現できるもので,その有用性は大きいと考える.今後は,KURAを利用した研究やシステム開発も行なってみたいと考えている.KURAは修正・棄却規則を具備し,不適切な言い換えが生じることを防ぐ機能も有している.次に評価部について議論する.言い換えは「場面」「話し手(または書き手)」「聞き手(または読み手)」などの状況によって変わるもので,それぞれに応じた言い換えを実現する必要がある.ここではそれらの状況を本稿の評価部で扱うことができるかを考えてみたい.「場面」「話し手」「聞き手」の情報は,それぞれ本稿のモデルの評価部で扱うことができる.例えば,「場面」がニュース報道であり,ニュース報道的な文章に言い換えたい場合は,ニュース報道のテキストを評価部のコーパスとして用い,ニュース報道のテキストによく現れる表現に変更することで,ニュース報道的な文章に言い換えることができる.また,「場面」が悲しい状態であり,悲しい状態に適した文章に言い換えたい場合は,悲しい状態のテキストを収集しそれを評価部のコーパスとして用い,悲しい状態のテキストによく現れる表現に変更することで,悲しい状態に適した文章に言い換えることができる.また,「話し手」または「書き手」を次に考えると,\ref{sec:model}節にも書いていたようにシェークスピアや漱石のテキストを評価部に利用することで,シェークスピアや漱石の文体に変更することができると思われる.また,ニュースのアナウサーのような「話し手」の文章に変更したい場合は,ニュースのアナウサーのテキストを集めてそれをコーパスとして利用することでニュースのアナウサーのような文章に言い換えることができる.また,「聞き手」または「読み手」が小学生の場合,小学生向けのテキストを集めそれを評価部に利用することで,小学生向けの文章に言い換えることができる.また,「聞き手」または「読み手」がある特定の分野の専門家で,その特定の分野の文章に言い換えた方がその専門家にとって読みやすくそのように言い換えたい場合は,その特定の分野の文章を集めてそれを評価部に利用することで,その特定の分野の文章に言い換えることができる.また,「話し手」(または「書き手」)と「聞き手」(または「書き手」)の間の関係が上下関係で敬語表現などを使う必要がある場合も,その「話し手」と「書き手」の間の関係と同じテキストを集めてそれを評価部に用いることで,その関係にふさわしい文章に言い換えることができる.上述のように本稿のモデルでは,それぞれに適したテキスト集合を収集してそれを評価部に用いることで,「場面」「話し手」「聞き手」の情報を比較的簡便に扱うことができるのである.ここでは,主にテキストコーパスでの頻度を尺度とする方法を示してきたが,この方法の他に,評価部の尺度としては,心理実験や計量的な研究をして,単純な頻度ではない尺度も構築することができると,それを評価部の尺度として用いることもできる. \section{おわりに} 本稿では言い換えの統一的モデルとして,尺度に基づく変形による手法を記述した.また,様々な尺度を設定することで,文内圧縮システム,推敲システム,文章語口語変換システム,RL発音回避システム,質問応答システムといった多様なシステムを構築できることを具体的に示した.本稿の言い換えの統一的モデルでは,変形の尺度や変形規則を他のものに取り替えるだけで多様な言い換えを実現することができるので,尺度や変形規則以外の部分を複数の言い換えシステムで利用することができ,システム作成のコストを軽減する効果がある.また,本稿の言い換えの統一的モデルは,変形部と評価部という二つの構成要素からなる単純なモデルだけで,多種多様な言い換えを扱えるようになっているため,本稿のモデルは単純で理解しやすく,大雑把に言い換えの原理を考察するには役に立つモデルである.また,新たな尺度を考えたときには,その尺度で変形を行なう新たな言い換えシステムを考えたことと等価になるため,多くの新たな尺度を考案することで多様な新たな言い換えシステムを思いつくことにも役に立つのである.われわれは本稿で示した言い換えの統一的モデルを多くの人に知ってもらって,効率よく多くの言い換えの研究がなされることを切に希望する.\section*{謝辞}独立行政法人情報通信研究機構の和泉絵美氏には6章の研究に対して有益なコメントと手助けをしていただきました.ここに感謝いたします.また,言い換えに関する研究の創設と発展および本特集号に尽力されている,京都大学佐藤理史助教授と奈良先端科学技術大学院大学乾健太郎助教授をはじめとする方々に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{藤田\JBA乾}{藤田\JBA乾}{2003}]{fujita_ipsj2003}藤田篤\JBA乾健太郎\BBOP2003\BBCP.\newblock\JBOQ語彙・構文的言い換えにおける変換誤りの分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11).\bibitem[\protect\BCAY{乾}{乾}{2002}]{inui_iikae_tutorial}乾健太郎\BBOP2002\BBCP.\newblock\JBOQ言語表現を言い換える技術\JBCQ\\newblock\Jem{言語処理学会第8回年次大会チュートリアル資料},1--21.\bibitem[\protect\BCAY{垣田\JBA小篠}{垣田\JBA小篠}{1983}]{eigo_goto}垣田直巳\JBA小篠敏明\BBOP1983\BBCP.\newblock\Jem{英語の誤答分析}.\newblock大修館書店.\bibitem[\protect\BCAY{加藤\JBA浦谷}{加藤\JBA浦谷}{1999}]{Kato1999}加藤直人\JBA浦谷則好\BBOP1999\BBCP.\newblock\JBOQ局所的要約知識の自動獲得手法\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6}(7).\bibitem[\protect\BCAY{小池}{小池}{1994}]{SLA}小池生夫\BBOP1994\BBCP.\newblock\Jem{第二言語習得研究に基づく最新の英語教育}.\newblock大修館書店.\bibitem[\protect\BCAY{黒橋\JBA酒井\JBA鍛冶}{黒橋\Jetal}{2001}]{kurohashi_nlp2001ws_true}黒橋禎夫\JBA酒井康行\JBA鍛冶伸裕\BBOP2001\BBCP.\newblock\JBOQ国語辞典に基づく文章理解とパラフレーズ\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1998}]{JUMAN3.6}黒橋禎夫\JBA長尾真\BBOP1998\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}使用説明書version3.6}.\newblock京都大学大学院工学研究科.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{1998}]{mainichi_jap_all}毎日新聞社\BBOP1998\BBCP.\newblock\JBOQ毎日新聞1991-1998\JBCQ.\bibitem[\protect\BCAY{村田\JBA長尾}{村田\JBA長尾}{1996}]{murata_noun_nlp}村田真樹\JBA長尾真\BBOP1996\BBCP.\newblock\JBOQ名詞の指示性を利用した日本語文章における名詞の指示対象の推定\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf3}(1).\bibitem[\protect\BCAY{村田\JBA長尾}{村田\JBA長尾}{1998}]{murata_anaphora_all_NLC}村田真樹\JBA長尾真\BBOP1998\BBCP.\newblock\JBOQ表層表現と用例を用いた照応省略解析手法\JBCQ\\newblock\Jem{言語理解とコミュニケーション研究会NLC97-56}.\bibitem[\protect\BCAY{村田\JBA内元\JBA馬\JBA井佐原}{村田\Jetal}{1999}]{murata_7pm2_nlp}村田真樹\JBA内元清貴\JBA馬青\JBA井佐原均\BBOP1999\BBCP.\newblock\JBOQ日本語文と英語文における統語構造認識とマジカルナンバー7±2\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6}(7),61--71.\bibitem[\protect\BCAY{村田\JBA内山\JBA井佐原}{村田\Jetal}{2000}]{murata2000_1_nl}村田真樹\JBA内山将夫\JBA井佐原均\BBOP2000\BBCP.\newblock\JBOQ類似度に基づく推論を用いた質問応答システム\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-135},181--188.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001a}]{murata_nlp2001ws_true}村田真樹\JBA井佐原均\BBOP2001a\BBCP.\newblock\JBOQ言い換えの統一的モデル---尺度に基づく変形の利用---\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001b}]{murata_nl2001_henkei}村田真樹\JBA井佐原均\BBOP2001b\BBCP.\newblock\JBOQ同義テキストの照合に基づくパラフレーズに関する知識の自動獲得\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2001-NL-142}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001c}]{murata_kaiho_2001}村田真樹\JBA井佐原均\BBOP2001c\BBCP.\newblock\JBOQ話し言葉と書き言葉のdiff\JBCQ\\newblock\Jem{ワークショップ「話し言葉の科学と工学」}.\bibitem[\protect\BCAY{村田}{村田}{2003}]{murata_qa_ieice_kaisetu}村田真樹\BBOP2003\BBCP.\newblock\JBOQ質問応答システムの現状と展望\JBCQ\\newblock\Jem{電子情報通信学会学会誌},{\Bbf86}(12),959--963.\bibitem[\protect\BCAY{村田\JBA金丸\JBA井佐原}{村田\Jetal}{2004}]{murata_henkeirule_nlp2004}村田真樹\JBA金丸敏幸\JBA井佐原均\BBOP2004\BBCP.\newblock\JBOQ複数の辞書の定義文の照合に基づく同義表現の自動獲得\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf11}(5).\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata_paraphrase_true}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalModelforParaphrasing---UsingTransformationBasedonaDefinedCriteria---\BBCQ\\newblockIn{\BemNLPRS'2001WorkshoponAutomaticParaphrasing:TheoriesandApplications}.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2002a}]{Murata_ieice_negative_example}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2002a\BBCP.\newblock\BBOQAutomaticdetectionofmis-spelledJapaneseexpressionsusinganewmethodforautomaticextractionofnegativeexamplesbasedonpositiveexamples\BBCQ\\newblock{\BemIEICETransactionsonInformationandSystems},{\BbfE85--D}(9),1416--1424.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2002b}]{Murata_spoken_written_lrec}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2002b\BBCP.\newblock\BBOQAutomaticExtractionofDifferencesbetweenSpokenandWrittenLanguages,andAutomaticTranslationfromtheWrittentotheSpokenLanguage\BBCQ\\newblockIn{\BemLERC2002}.\bibitem[\protect\BCAY{日本英語教育協会}{日本英語教育協会}{1985}]{eiken2k}日本英語教育協会\BBOP1985\BBCP.\newblock\Jem{20日完成英検2級二次試験対策(面接テスト)}.\bibitem[\protect\BCAY{{OxfordUniversityComputingServices}}{{OxfordUniversityComputingServices}}{1995}]{BNC}{OxfordUniversityComputingServices}\BBOP1995\BBCP.\newblock\BBOQBritishNationalCorpus\BBCQ.\bibitem[\protect\BCAY{{PrincetonUniversity}}{{PrincetonUniversity}}{2003}]{wn2.0}{PrincetonUniversity}\BBOP2003\BBCP.\newblock\BBOQWordNet2.0\BBCQ.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{sato_ronbun_iikae}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7).\bibitem[\protect\BCAY{高橋\JBA岩倉\JBA飯田\JBA乾}{高橋\Jetal}{2001}]{takashi_tl2001}高橋哲朗\JBA岩倉友哉\JBA飯田龍\JBA乾健太郎\BBOP2001\BBCP.\newblock\JBOQ{KURA}:統一的かつ宣言的記述法に基づく言い換え知識の開発環境\JBCQ\\newblock\Jem{電子情報通信学会思考と言語研究会TL01-12}.\bibitem[\protect\BCAY{竹内\JBA松本}{竹内\JBA松本}{1999}]{takeuchi99}竹内孔一\JBA松本裕治\BBOP1999\BBCP.\newblock\JBOQ統計的言語モデルを用いた{OCR}誤り修正システムの構築\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(6).\bibitem[\protect\BCAY{山本}{山本}{2001}]{yamamoto_nlp2001ws_true}山本和英\BBOP2001\BBCP.\newblock\JBOQ換言処理の現状と課題\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{山崎\JBA三上\JBA増山\JBA中川}{山崎\Jetal}{1998}]{yamasaki_NLP98}山崎邦子\JBA三上真\JBA増山繁\JBA中川聖一\BBOP1998\BBCP.\newblock\JBOQ聴覚障害者用字幕生成のための言い替えによるニュース文要約\JBCQ\\newblock\Jem{言語処理学会第4回年次大会}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理,機械翻訳,情報検索,質問応答システムの研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,計量国語学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人情報通信研究機構けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V04N02-02
\section{まえがき} 自然言語処理における重要な問題の一つに,形態\hspace{-0.1mm}$\cdot$\hspace{-0.1mm}構文\hspace{-0.1mm}$\cdot$\hspace{-0.1mm}意味といった言語に関する様々な曖昧性の問題がある.一般に,意味的な曖昧性を解消するためには,意味に関するさまざまな情報を規則化し記述しておく必要がある.しかし,意味は文脈に依存して決まるため,あらゆる文脈に対応できるすべての意味を予め規則として網羅的に記述しておくことは難しい.CollinsEnglishDictionary,Rogetのシソーラス,分類語彙表など,機械可読辞書として電子化されたものがあるが,辞書の記述は語の定義が言語学者によりまちまちであるため,現実の文に対処できる有用な意味情報を得ることは難しい.そこで,意味的な曖昧性を解消するためには,解消手法と同時に,文脈に依存した情報をどのように獲得するかが重要となる.こうしたことを背景に,最近コーパスから意味的に近い語群の情報や,共起関係の情報などを抽出する研究が盛んに行なわれている\cite[など]{Church1991,Hindle1990,Tsujii1992,Sekine1992,Smadja1993}.これらのアプローチは知識獲得のためのアルゴリズムを提案することで,コーパスからその分野に依存した知識を自動的に抽出するというものである.本稿では,単一言語コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法について述べる.2章では,関連した研究について述べる.3章ではコーパスから多義解消に必要な情報を抽出する手法について述べる.4章では得られた情報を基に,文中に含まれる多義語の曖昧性を解消する手法について述べる.5章では丹羽らの提案した文脈ベクトルを用いた名詞の多義解消手法\cite{Niwa1994}を動詞に適用した結果と比較することで,本手法の有効性を検証する. \section{関連した研究} 近年,大量のコーパスが利用可能になったことを背景に,コーパスから得られた情報を用いて語義の曖昧性を解消する研究が多数行なわれている\cite[など]{Brown1991,Schutze1992,Zernik1991,Yarowsky1992,Niwa1994}.Yarowskyらは,Rogetのシソーラスカテゴリを利用し,統計手法を用いることでテキスト中に現れる多義語の曖昧性を解消する手法を提案した.彼らの手法は,統計情報を用いてシソーラスカテゴリに出現する単語に重み付けを行なった後,その結果を利用して多義語の周辺語の重みの和から多義語がどのシソーラスカテゴリに属するかを決定するというものである.この手法を12の多義語名詞に適用し実験を行なった結果,平均解消率92\%という高い正解率が得られることが報告されている\cite{Yarowsky1992}.しかし,Yarowskyらのシソーラスを用いる問題として,データスパースネスの問題が指摘されている.すなわち,シソーラスカテゴリに示されている語が抽象的な語で定義されているため,文書の種類によっては,その語が文書に出現しない場合がある\cite{Niwa1995}.また,Yarowskyらは彼らの手法が動詞の多義解消については名詞と同様の正解率が得られないことを指摘している.丹羽らは,文脈を構成する単語をベクトルで表現し,文脈をそれらベクトルの和で表した.任意の文脈Aにおける単語の意味は,多義の各意味を表す文脈例を各意味に応じてあらかじめ用意しておき,各々の例と文脈Aにおける単語の意味との類似度(内積)を計算し,その値が最も大きい文脈が示す意味であるとした.この手法を名詞の多義判定に適用した結果,平均80\%の正解率が得られている\cite{Niwa1994}.Brownらは対訳テキストを用い,一方の言語の語義の曖昧性を他方の語の情報を利用することで解消する手法を提案している\cite{Brown1991}.彼らは実際に英仏機械翻訳システムにこの手法を適用し,検証を行なっている.しかし彼らは問題点として,(1)多義語の持つ意味を予め高々2つに限定している.(2)語が,ターゲット言語の2つの異なる訳に翻訳できないとき,語義の解消ができない.(3)膨大な対訳テキストを必要とする,を挙げている.ZernikやSch\"{u}tzeらは,動詞の多義を判定するための情報として名詞と動詞の共起関係を利用している.任意の動詞がどの意味を持つかは,動詞と共起する名詞の集合に応じて決定される.しかし,名詞の集合を意味に応じて分割する処理は人手で行なっているため,語の分類は人間の言語的な直観に頼ることになってしまう.本稿では,Yarowskyらがシソーラスカテゴリを利用しているのに対し,単一言語コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法について述べる.我々の手法は名詞の集合を意味に応じて人手により分割するZernikやSch\"{u}tzeらの手法,と異なり,多義解消に必要な情報は,与えられた多義語を含む動詞グループに対し,クラスタリングアルゴリズムを適用することで自動的に得られるため,人間の介在を必要としない.また,Brownらが多義語の持つ意味を予め高々2つに限定しているのに対し,本手法では,多義語を含む動詞グループに対し,クラスタリングアルゴリズムを適用するため,2つ以上の意味を持つ語に対しても曖昧性の解消が可能である. \section{多義解消に必要な情報の抽出} 一般に,意味的に近い2つの動詞は同じ名詞と共起して現れる.\vspace*{2mm}\begin{tabular}{ll}(s1)&\parbox[t]{12cm}{Inthepast,however,cokehastypically\underline{taken}aminority\underline{stake}insuchventures.}\\(s1')&\parbox[t]{12cm}{GuberandPeterstriedto\underline{buy}a\underline{stake}inMgmin1988.}\\\end{tabular}\begin{tabular}{ll}(s2)&\parbox[t]{12cm}{Thatprocessofsortingoutspecifiesislikelyto\underline{take}\underline{time}.}\\(s2')&\parbox[t]{12cm}{We\underline{spent}alotof\underline{time}andmoneyinbuildingourgroupofstations.}\\\end{tabular}\vspace*{2mm}\noindent例えば,{\itWallStreetJournal}から抽出した例文(s1)$\sim$(s2')において,(s1),(s1')に現れる\underline{take}と\underline{buy}は共に\underline{stake}と共起して現れ,ほぼ同じ意味を持つ\cite{Liberman1991}.同様に(s2),(s2')に現れる$\!$\underline{take}$\!$と$\!$\underline{spend}$\!$は共に$\!$\underline{time}$\!$と共起して現れ,両者は同じ意味を持つ.従って多義語$\!$\underline{take}$\!$がもつ複数の意味は,各意味に対応した動詞\underline{buy},\underline{spend}と共起して現れる名詞\underline{stake},\underline{time}と特徴づけて考えることができる.すなわち,多義語を含む文において,もし多義語と共起する名詞のうち少なくとも一つが多義語の意味を特徴づける名詞と同じ(あるいは名詞の集合に属する)ならば,文中の多義語の意味はその名詞と共起する動詞の意味に同定することができる.我々は文中に現れる多義語の曖昧性を,その語と共起する名詞を用いることで解消した.以下,3.1節では仮想動詞について述べる.3.2節では語の意味的な偏差を計算する手法について述べ,3.3節では3.2節で述べた偏差の値を用いてクラスタリングを行なうためのアルゴリズムについて説明する.多義語を含む動詞グループに対し,クラスタリングアルゴリズムを適用することで多義語の各意味を示す動詞(仮想動詞)と共起する名詞の集合が,動詞の個数分得られる.3.4節では仮想動詞,及びそれと共起する名詞との相互情報量を求める手法について述べる.仮想動詞と名詞の相互情報量は,文中に現れる名詞が複数の(名詞の)集合に含まれる場合にどの集合に含まれるかを一意に決定するために用いられる.\subsection{仮想動詞}本手法では,多義を判定しながら意味的なクラスタリングを行なうことで多義語の曖昧性解消に必要な情報,すなわち,多義語の意味を特徴づける名詞の集合を抽出する.そこで,表層上は一つの要素である多義語を,多義が持つ各意味がまとまった複数要素であると捉え,これを一つ一つの意味に対応させた要素(本稿ではこの要素を{\bf仮想動詞}ベクトルと呼ぶ)に分解した上でクラスタを作成するという手法を用いた.我々は,動詞をベクトルと捉え,動詞と共起する$n$個の名詞を軸とする$n$次元名詞空間上でこれを表した.軸$i$(1$\leq$$i$$\leq$$n$)における動詞ベクトルの長さは,$i$軸で示される名詞と動詞の相互情報量\hspace{-0.15mm}\cite{Church1990}\hspace{-0.1mm}の値を用いた.仮に2つの動詞に多義性がなく,かつこの2つの動詞が意味的に近いとすると,これらの動詞はこの空間上で互いに距離が近いため,同一のクラスタに含まれることになる.一方,\hspace{-0.05mm}(s1)\hspace{-0.05mm}と\hspace{-0.05mm}(s2)\hspace{-0.05mm}に現れる\underline{take}は多義であるため,各意味を表す動詞ベクトル\underline{buy},\underline{spend}のいずれともクラスタを構成しなければならない.そこで,ベクトル\underline{take}を各軸に従って(この場合,\underline{stake}と\underline{time}の2軸)分割することを考える.ベクトル\underline{take}を\underline{stake}と\underline{time}の軸に従って分割した結果を図\ref{cluster1}に示す.{\begin{figure}[htbp]\centerline{\epsfile{file=cluster1.eps,height=45mm}}\caption{ベクトルtakeの分割}\label{cluster1}\begin{center}\vspace*{-5mm}Figure1Thedecompositionoftheverb\underline{take}\end{center}\end{figure}}\noindent図\ref{cluster1}において,ベクトル\hspace{-0.2mm}\underline{take}は,\underline{stake}\hspace{-0.2mm}と\hspace{-0.2mm}\underline{time}の軸上でベクトル\hspace{-0.2mm}{\sftake1}\hspace{-0.3mm}と\hspace{-0.2mm}{\sftake2}に分割されている.{\sftake1}と{\sftake2}を{\bf仮想動詞}ベクトルと呼ぶ.図\ref{cluster1}は仮想動詞ベクトルを導入することで,各々意味的に近い要素を持つ2つのクラスタ\{{\sftake1},buy\},\{{\sftake2},spend\}が得られることを示す.\subsection{動詞グループの偏差}クラスタリングアルゴリズムは動詞グループの意味的な偏差を比較し,偏差の少ない順にクラスタを生成する.今$m$個から成る動詞グループをVG=\{$v_{1}$,$\cdots$,$v_{m}$\}とすると,VGの偏差$Dev(\mbox{VG})$は式(\ref{22})で示される.ただし,$n$は動詞と共起する名詞の個数とする.\begin{eqnarray}Dev(\mbox{VG})&=&\frac{1}{\mid\bar{g}\mid(\beta\astm+\gamma)}\sqrt{\sum_{i=1}^{m}\sum_{j=1}^{n}(v_{ij}-\bar{g_{j}})^{2}}\label{22}\end{eqnarray}\noindent(\ref{22})の$\bar{g_{j}}$\\hspace{-0.3mm}(\hspace{-0.3mm}=\\hspace{-0.3mm}$\frac{1}{m}\sum_{i=1}^{m}v_{ij}$)は,$j$軸での重心の値を示す.また,$\mid$$\bar{g}$$\mid$\\hspace{-0.3mm}(\hspace{-0.5mm}=\\hspace{-0.5mm}$\frac{1}{m}\sqrt{\sum_{j=1}^{n}(\sum_{i}^{m}v_{ij})^{2}}$)は重心ベクトルの長さを示す.(\ref{22})の$v_{ij}$は,\begin{equation}v_{ij}=\left\{\begin{array}{ll}Mu(v_{i},n_{j})&\mbox{if$Mu$($v_{i}$,$n_{j}$)$\geq$$\alpha$}\\0&\mbox{otherwise}\end{array}\right.\label{v}\end{equation}\noindentとする.ここで,$Mu(v_{i},n_{j})$は動詞$v_{i}$(1$\leq$$i$$\leq$$m$)と名詞$n_{j}$(1$\leq$$j$$\leq$$n$)の相互情報量の値を表し,式(\ref{church_mu})で示される.\begin{eqnarray}Mu(x,y)&=&log_{2}\frac{P(x,y)}{P(x)P(y)}\label{church_mu}\end{eqnarray}\noindent$P(x)$,$P(y)$は,$x$,$y$の頻度数$f(x)$,$f(y)$をそれぞれコーパスに出現する語の総数$N$で正規化したものであり,\hspace{0.1mm}$P(x,y)$は$x$\hspace{-0.1mm}と\hspace{-0.1mm}$y$の共起頻度数$f(x,y)$を\hspace{-0.1mm}$N$\hspace{-0.1mm}で正規化したものである.また,式(\ref{v})における$\alpha$は閾値とする.式(\ref{22})の\hspace{-0.1mm}$\beta$$\ast$$m$+$\gamma$は,動詞の偏差を示す値が動詞の個数に比例して増加することを防ぐために最小2乗法を用いて行なった正規化である\footnote{{\itWallStreetJournal}を用いた実験では,$\alpha$を3に設定し,$\beta$,$\gamma$それぞれ0.964,-0.495を得た.}.式(\ref{22})はその値が小さいほどより偏差が少ないことを示す.\subsection{クラスタリング手法}クラスタリングアルゴリズムは,non-overlappingとoverlappingアルゴリズムに大別できる.本手法はoverlappingクラスタリングアルゴリズムに含まれる.Overlappingアルゴリズムの代表的なものとして$B_{k}$($k$=1,2,$\cdots$)手法がある\cite{Jardine1968}.本手法と$B_{k}$手法との違いは,$B_{k}$手法では要素が複数のクラスタに属すか否かは$k$の個数に依存して決まるのに対し,我々の手法は,複数のクラスタに属すか否かを判定する条件をアルゴリズムの中に導入している点が異なる.我々の手法では,動詞ベクトルを分割して仮想動詞ベクトルを作成し,\その仮想動詞ベクトルを含むクラスタの偏差を比較することで,\要素が複数のクラスタに属すか否か,すなわち多義であるかどうかの判定を行なっている.例えば,\underline{take}が\underline{buy}\hspace{-0.1mm}と\underline{spend}\hspace{-0.1mm}の意味を持つかどうかを判定するために,ベクトル\hspace{-0.1mm}\underline{take}\hspace{-0.1mm}を\underline{stake}\hspace{-0.1mm}と\underline{time}\hspace{-0.1mm}の軸に従い分割し,仮想動詞ベクトル{\sftake1}と{\sftake2}を作成する.\underline{take}が多義であるか否かは,\{{\sftake1},buy\},\{{\sftake2},spend\}及び,\{take,buy,spend\}のクラスタの偏差を比較することにより決定される.\subsubsection{SplittingとLumping}今$v$と$w_{p}$を動詞とし,$w_{1}$,$\cdots$,$w_{n}$を動詞,または仮想動詞とする.また,$Dev(v,w_{i})$$\leq$$Dev(v,w_{j})$(1$\leq$$i$$\leq$$j$$\leq$$n$)かつ,$Dev(v,w_{1})$$\leq$$Dev(v,w_{p})$とする.本手法では$v$が$w_{1}$と$w_{p}$で示される2つの意味を持つか否かを判定するために,(\ref{split})と(\ref{lump})で示されるクラスタを作成し,それぞれの偏差を比較する.\begin{eqnarray}\{v_{x},w_{p}\},\{v_{y},w_{1},\cdots,w_{n}\}\label{split}\\\{v,w_{1},\cdots,w_{p},\cdots,w_{n}\}\label{lump}\end{eqnarray}\noindentただし,(\ref{lump})の$w_{1}$,$\cdots$,$w_{p}$,$\cdots$,$w_{n}$は$Dev(v,w_{i})$$\leq$$Dev(v,w_{j})$(1$\leq$$i$$\leq$$j$$\leq$$n$)を満たすとする.(\ref{split})の$v_{x}$と$v_{y}$は$v$の仮想動詞を示す.以下では,(4)で示されるクラスタを作成するために,\hspace{-0.1mm}$v$,\hspace{-0.1mm}$w_{1}$,\hspace{-0.1mm}$w_{p}$を入力とし,仮想動詞$v_{x}$\hspace{-0.1mm}と\hspace{-0.1mm}$v_{y}$を出力する関数$split$,及び,\hspace{-0.1mm}(5)で示されるクラスタを作成する過程で仮想動詞$v_{x}$,$v_{y}$が現れた場合にそれらをマージする関数$lump$を定義する.\begin{enumerate}\item関数$split$は入力$v$,$w_{1}$,$w_{p}$に対し,$v_{x}$と$v_{y}$を出力する.ただしベクトル$v$は,($v_{1}$,$\cdots$,$v_{n}$)で示されるとする.\begin{eqnarray}split(v,w_{p},w_{1})&=&(v_{x},v_{y})\label{sp}\\\mbox{where}\\\Dev(v,w_{1})&\leq&Dev(v,w_{p})\end{eqnarray}\vspace*{-2mm}\[v_{x}=\left[\begin{array}{l}v_{x1}\\v_{x2}\\\vdots\\v_{xn}\end{array}\right]\\hbox{s.t.}\\v_{xj}\=\left\{\begin{array}{lll}v_{j}&\mbox{if$w_{pj}$$\neq$0}&(8)\nonumber\\0&\mbox{otherwise}\hspace*{2.2cm}&(8')\nonumber\end{array}\right.\]\[v_{y}=\left[\begin{array}{l}v_{y1}\\v_{y2}\\\vdots\\v_{yn}\end{array}\right]\\hbox{s.t.}\\v_{yj}\=\left\{\begin{array}{lll}v_{j}&\mbox{if($w_{1j}$$\neq$0or$w_{pj}$=$w_{1j}$=0)}&(9)\nonumber\\0&\mbox{otherwise}&(9')\nonumber\end{array}\right.\]\addtocounter{equation}{2}式(8),(9)において$v$と共起する$n_{j}$が,$w_{p}$と$w_{1}$の両方と共起する場合には,$v_{xj}$と$v_{yj}$は共に$v_{j}$\=\$Mu(v,n_{j})$とした.また式(9)において$v$と共起する$n_{j}$が,$w_{1}$と$w_{p}$のいずれとも共起しない場合には,$v_{yj}$の値は$v_{j}$の値とした.これは,$v_{j}$が$v_{x}$と$v_{y}$の両方に含まれない場合,\{$v_{y}$,$w_{1}$\}の偏差は常に,\{$v_{x}$,$w_{p}$\}よりも小さくなる.よって,$v_{x}$と$v_{y}$の偏差をできるだけ均等にするため,$v_{yj}$の値は,$v_{j}$の値とした.\item関数$lump$は仮想動詞$v_{x}$と$v_{y}$を入力とし$w$を出力する.\vspace*{-5mm}\begin{eqnarray}lump(v_{x},v_{y})&=&w\label{lu}\end{eqnarray}\vspace*{-7mm}\begin{equation}\hspace*{-3mm}w=\left[\begin{array}{l}w_{1}\\w_{2}\\\vdots\\w_{n}\end{array}\right]\\hbox{s.t.}\w_{j}\=\left\{\begin{array}{ll}v_{xj}+v_{yj}&\mbox{if$v_{xj}$$\neq$$v_{yj}$}\\v_{xj}&\mbox{if$v_{xj}$=$v_{yj}$}\end{array}\right.\end{equation}\end{enumerate}\noindent実験では,(\ref{split})で示される二つのクラスタの偏差の値が共に(\ref{lump})で示されるクラスタの偏差の値よりも小さい場合に動詞$v$は多義とみなした.\subsubsection{クラスタリングアルゴリズム}クラスタリングアルゴリズムの流れを図\ref{flow_algo}に示す.図\ref{flow_algo}の`('はその上で示される関数の処理を示す.{\begin{figure}[htbp]\begin{center}\fbox{\parbox{130mm}{{\bfbegin}\\\hspace*{5mm}ICS:={\sfMake-Initial-Cluster-Set}(VG)\\\[\left(\begin{array}{l}\mbox{VG}=\{v_{i}\midi=1,\cdots,m\}\\\mbox{ICS}=\{Set_{1},\cdots,Set_{\frac{m(m-1)}{2}}\}\\ただし\Set_{p}=\{v_{i},v_{j}\}\と\Set_{q}=\{v_{k},v_{l}\}\in\mbox{ICS}\(1\leqp<q\leqm)は\hspace*{2cm}\\Dev(v_{i},v_{j})\leqDev(v_{k},v_{l})を満たす.\end{array}\right.\]\hspace*{5mm}{\bffor}\$i$:=1{\bfto}$\frac{m(m-1)}{2}${\bfdo}\\\hspace*{10mm}\parbox{125mm}{{\bfif}\CCS=$\phi$\\\hspace*{10mm}{\bfthen}\$Set_{\gamma}$:=$Set_{i}$\\\hspace*{10mm}\hspace*{10mm}i.e.$Set_{i}$は新たに得られるクラスタとしてCCSに蓄積される.\\{\bfelseif}\$Set_{\alpha}$$\in$CCSexists{\itsuchthat}$Set_{i}$$\subset$$Set_{\alpha}$\\\hspace*{10mm}{\bfthen}\$Set_{i}$がICSから削除され,$Set_{\gamma}$:=$\phi$となる.\\{\bfelseif}\\\hspace*{10mm}{\bfforall}$Set_{\alpha}$$\in$CCS{\bfdo}\\\hspace*{15mm}{\bfif}\$Set_{i}$$\cap$$Set_{\alpha}$=$\phi$\\\hspace*{20mm}{\bfthen}\$Set_{\gamma}$:=$Set_{i}$\\\hspace*{15mm}\hspace*{15mm}i.e.$Set_{i}$は新たに得られるクラスタとしてCCSに蓄積\\\hspace*{38mm}される.\\\hspace*{15mm}{\bfend\_if}\\{\bfelse}$Set_{\beta}$:={\sfMake-Temporary-Cluster-Set}($Set_{i}$,CCS)\\\hspace*{0.8cm}{\bf(}$Set_{\beta}$:=$Set_{\alpha}$$\in$\mbox{CCS}\{\itsuchthat}\$Set_{i}$$\cap$$Set_{\alpha}$$\neq$$\phi$\hspace*{4cm}\\\hspace*{10mm}$Set_{\gamma}$:={\sfRecognition-of-Polysemy}($Set_{i}$,$Set_{\beta}$)\\{\bfend\_if}\\{\bfend\_if}\\{\bfend\_if}}\\\\\hspace*{10mm}{\bfif}\$Set_{\gamma}$=VG\\\hspace*{15mm}{\bfthen}\{\itfor\_loop}を抜ける.\\\hspace*{10mm}{\bfend\_if}\\\hspace*{5mm}{\bfend\_for}\\{\bfend}}}\caption{クラスタリングアルゴリズムの流れ}\label{flow_algo}Figure2Theflowoftheclusteringalgorithm\end{center}\end{figure}}\noindent図\ref{flow_algo}において,関数{\sfMake-Initial-Cluster-Set}は,動詞グループVGを入力とし,VGの任意の動詞対の組合せに対し,意味的な偏差の値を計算し,任意の動詞対と偏差の値をその値が昇順になるように出力する.この結果をICS(InitialClusterSet)と呼ぶ.CCS(CreatedClusterSet)は作成されたクラスタの集合を示す.関数{\sfMake-Temporary-Cluster-Set}は$Set_{i}$のどちらか一方の動詞を含むクラスタをCCSから抽出する.その結果である$Set_{\beta}$が関数{\sfRecognition-of-Polysemy}に渡される.関数{\sfRecognition-of-Polysemy}は動詞が多義か否かを判定する関数である.今$Set_{i}$と$Set_{\beta}$の両方に属する動詞を$v$とする.$v$が多義であり$w_{p}$(ただし$w_{p}$は$Set_{i}$の要素とする)と$w_{1}$(ただし$w_{1}$は$Set_{\beta}$の要素とする)の意味を持つか否かを判定するために,(\ref{split})と(\ref{lump})で示されるクラスタが作成される.具体的には関数(\ref{sp})が$v$,$w_{1}$,と$w_{p}$に適用され$v_{x}$と$v_{y}$が作成される.もし$v_{x}$と$v_{y}$が(\ref{lump})で示されるクラスタを作成する過程で存在する場合,関数(\ref{lu})が$v_{x}$と$v_{y}$に適用され,$w$が作成される.この処理は新しく得られるクラスタ$Set_{\gamma}$がVGと等しくなるか,あるいはICSの要素がなくなるまで適用される.\subsection{仮想動詞と名詞の相互情報量}多義語を含む動詞グループに対し,前節で述べたアルゴリズムを適用することで,多義語の各意味を示す動詞と共起する名詞の集合が動詞の個数分得られる.\vspace*{-0.5cm}{\footnotesize\begin{table}[htbp]\begin{center}\caption{\{take,obtain,spend,buy\}のクラスタリング結果}\label{app_1}Table1Theclusteringresultsof\{take,obtain,spend,buy\}\\\begin{tabular}{l||l|r|r|c|r|c}\hline\hline\multicolumn{2}{}{}&\multicolumn{3}{|l|}{クラスタリング結果得られる値}&\multicolumn{2}{l}{(\ref{re_cal}),(\ref{church_mu})より得られる値}\\\hline$v_{i}$&$n_{ij}$&$f(n_{ij})$&$f(v,n_{ij})$&$Mu(v,n_{ij})$&$f(v_{i})$&$Mu(v_{i},n_{ij})$\\\hline{\sftake1}&columbia&418&\hspace*{2mm}5&3.543&214&7.330\\(buy)&equity&510&\hspace*{2mm}6&3.519&214&7.306\\&lot&610&\hspace*{2mm}8&3.676&214&7.463\\&note&936&14&7.653&214&3.866\\&option&640&\hspace*{2mm}7&3.414&214&7.201\\&order&1004&\hspace*{2mm}9&3.127&214&6.914\\&part&1664&27&7.770&214&3.983\\&property&505&\hspace*{2mm}7&3.756&214&7.543\\&stake&1081&28&4.658&214&8.445\\&thrift&494&\hspace*{2mm}9&4.150&214&7.937\\\hline{\sftake2}&hour&443&\hspace*{2mm}9&4.307&270&7.759\\(spend)&lot&610&\hspace*{2mm}8&3.676&270&7.127\\&minute&197&\hspace*{2mm}5&4.628&270&8.080\\&money&1569&19&3.561&270&7.012\\&month&3546&39&3.422&270&6.874\\&time&2866&45&3.936&270&7.387\\&week&2647&26&3.259&270&6.710\\\hline{\sftake3}&drug&1164&11&3.203&\hspace*{2mm}41&9.374\\(obtain)&loan&1369&12&3.095&\hspace*{2mm}41&9.265\\\hline\multicolumn{7}{c}{}\\\multicolumn{7}{c}{}\\\hline\multicolumn{2}{}{}&\multicolumn{3}{|l|}{クラスタリング結果得られる値}&\multicolumn{2}{l}{(\ref{re_cal_oh}),(\ref{church_mu})より得られる値}\\\hline\footnotesize{$v_{r}$}&\footnotesize{$n_{rj}$}&\footnotesize{$f(n_{rj})$}&\footnotesize{$f(v,n_{rj})$}&\footnotesize{$Mu(v,n_{rj})$}&\footnotesize{$f(v_{r})$}&\footnotesize{$Mu(v_{r},n_{rj})$}\\\hlineresidue&account&375&33&6.422&\hspace*{-2mm}2429&6.704\\&action&560&52&6.500&\hspace*{-2mm}2429&6.782\\&\multicolumn{6}{l}{etc.total102}\\\end{tabular}\end{center}\end{table}}\noindent表\ref{app_1}は,多義語takeを含む動詞グループ\{take,obtain,spend,buy\}に対し,クラスタリングアルゴリズムを適用した結果を示す.クラスタリングの結果得られるこのテーブルを{\itpvn}(polysemousverbnoun)テーブルと呼ぶ.$v_{i}$は仮想動詞{\sftake1},{\sftake2},{\sftake3}を示し,それぞれ,`buy',`spend',`obtain'を示す.$v_{r}$は$v_{i}$以外の意味を示す仮想動詞`residue'を示す.$n_{ij}$は,仮想動詞$v_{i}$と共起する名詞を示し,$n_{rj}$は仮想動詞$v_{r}$と共起する名詞を示す.$f(n_{ij})$と$f(n_{rj})$はそれぞれ$n_{ij}$,$n_{rj}$の頻度を示し,$f(v,n_{ij})$と$f(v,n_{rj})$はそれぞれ`take'と$n_{ij}$,`take'と$n_{rj}$の共起頻度数を示す.文中に現れる動詞の多義解消は基本的に名詞$n_{ij}$及び$n_{rj}$を用いて行なわれる.すなわち,文中に現れる動詞と共起する名詞が表\ref{app_1}に示されているとき,文中の動詞は,その名詞と共起する仮想動詞の意味となる.例えば,(s3)において,\underline{stake}は表\ref{app_1}に示されている.従って(s3)の\underline{taken}の意味は,{\sftake1}が示す意味である`buy'と判定される.\vspace*{2mm}\begin{tabular}{ll}(s3)&\parbox[t]{12cm}{Inthepast,however,Cokehastypically\underline{taken}aminority\underline{stake}insuchventures.}\\\end{tabular}\vspace*{2mm}\noindent名詞の中には,例えば表\ref{app_1}の`lot'のように複数の集合に属する名詞が存在する.この場合は,各仮想動詞と`lot'との相互情報量の中で大きい値を持つ仮想動詞の意味とした.ただし,表\ref{app_1}の$Mu(v,n_{ij})$及び$Mu(v,n_{rj})$は,`take'と各名詞との相互情報量を示す.そこで,仮想動詞$v_{i}$及び$v_{r}$と各名詞との相互情報量$Mu(v_{i},n_{ij})$及び$Mu(v_{r},n_{rj})$を以下のようにして求めた.\begin{enumerate}\item$v_{i}$\(1$\leq$$i$$\leq$$k$)を仮想動詞とし,$v_{r}$を$v$における各仮想動詞以外の意味を示す仮想動詞とする.$num(i)$$(1\leqi\leqk)$を$v_{i}$と共起する名詞の個数とし,$n_{ij}$$(1\leqi\leqk,\1\leqj\leqnum(i))$を$v_{i}$\hspace{-0.1mm}と共起する$j$軸の名詞とする.\hspace{-0.1mm}$v_{i}$の頻度$f(v_{i})$と$v_{r}$の頻度$f(v_{r})$は以下の式で示される.\begin{eqnarray}f(v_{i})&=&f(v)\times\frac{\sum_{j=1}^{num(i)}f(v,n_{ij})}{\sum_{p=1}^{k}(\sum_{q=1}^{num(p)}f(v,n_{pq}))}\label{re_cal}\\f(v_{r})&=&f(v)-\sum_{i=1}^{k}f(v_{i})\label{re_cal_oh}\end{eqnarray}\item式(\ref{re_cal})と(\ref{church_mu}),及び(\ref{re_cal_oh})と(\ref{church_mu})を用いて,$Mu(v_{i},n_{ij})$と$Mu(v_{r},n_{rj})$を求める.\end{enumerate}\noindent表\ref{app_1}の$Mu(v_{i},n_{ij})$と$Mu(v_{r},n_{rj})$はそれぞれ仮想動詞$v_{i}$と名詞$n_{ij}$,仮想動詞$v_{r}$と名詞$n_{rj}$との相互情報量を示す. \section{多義語の解消} 文中の多義語$v$の意味は,$v$の{\itpvn}テーブルを用いて以下のように決定される.\begin{enumerate}\item[\bf1.]$v$の後方5語以内に出現する名詞を$x$とすると,$x$が{\itpvn}テーブルに存在する場合:\begin{enumerate}\item[\bf1-1.]$x$が一つのみ存在する場合,$v$の意味は,$x$と共起する仮想動詞の意味とする.\item[\bf1-2.]$x$が二つ以上存在する場合,$v$の意味は,$x$と共起する仮想動詞のうち,$x$との相互情報量の値が最も高い仮想動詞の意味とする.\end{enumerate}\item[\bf2.]$x$が{\itpvn}テーブルに存在しない場合,$rel(v_{i},x)$の値が最大になるような仮想動詞$v_{i}$を求める.$v$の意味は,$v_{i}$の意味とする.\end{enumerate}\noindent$rel(v_{i},x)$は,$v_{i}$と$x$の意味的な関係を示す式であり,以下のように定義した.\begin{eqnarray}rel(v_{i},x)&=&\max_{y\inN_{i}}(\frac{Mu(v_{i},y)}{Dis(x,y)})\\\(1\leqi\leqk)\label{co}\end{eqnarray}\noindent式(\ref{co})において,$N_{i}$は$v_{i}$と共起する名詞の集合を示す.$Dis(x,y)$は,$x$と{\itpvn}テーブルに登録されている名詞$y$\hspace{-0.05mm}との偏差を示す.すなわち,\hspace{-0.1mm}式(\ref{22})\hspace{-0.1mm}において$m$を2とし,$v_{1j}$と$v_{2j}$をそれぞれ,$x$\hspace{-0.05mm},$y$\hspace{-0.05mm}とする.さらに式(\ref{22})\hspace{-0.1mm}中の動詞と共起する名詞の個数を名詞$x$\hspace{-0.05mm}及び$y$\hspace{-0.05mm}と共起する動詞の個数に置き換えることにより$Dis(x,y)$が得られる.\vspace*{-2mm} \section{実験} 実験では,14の動詞グループに対しクラスタリングアルゴリズムを適用した結果得られた$pvn$テーブルを用い,$pvn$テーブルが曖昧性の解消にどの程度有効であるかの検証を行なった.さらに丹羽らの提案した文脈ベクトルを用いた名詞の多義解消手法を動詞に適用した結果と,本手法とを比較することで,本手法の有効性を検証した.先ず,実験で用いたデータについて述べ,実験とその結果を示す.次に丹羽らの多義解消手法の概略を示し,比較を行なった結果について述べる.\vspace*{-2mm}\subsection{データ}コーパスはタグ付けされた{\itWallStreetJournal}であり,182,992文,総数2,878,688語(総異なり数73,225語)から成る\cite{Liberman1991}.実験では,このコーパスからウィンドウサイズを5語にとり,総数5,940,193個から成る任意の2語対(総異なり数2,743,974組)を得た.ここで単語$x$と$y$のウィンドウサイズが5語であるとは,$x$の出現位置から$x$の後方5語以内に現れる単語$y$と$x$との組を示す.我々は,動詞$x$と名詞$y$の組を使用した.これは5語という比較的小さいウィンドウサイズでは,動詞と目的語という観点から動詞と名詞の意味的な関係が顕著に現れると考えられるためである.また,動詞の中には,特定の副詞,例えば様態を示す副詞と共起することで,その動詞の意味が決まる場合も存在する.そこで,名詞と動詞の組で正解が得られなかった多義(表\ref{disam}の(11)$\sim$(14)のグループ)に対しては,動詞$x$と副詞$y$の組を使用することで正解が得られた{\itpvn}テーブルを用いて文中における多義語の解消を行なった.総異なり数2,743,974組に対し相互情報量を計算し,一定の閾値(動詞と名詞,及び動詞と副詞の共起頻度数の閾値を5,相互情報量の閾値を3)以上である動詞と名詞,動詞と副詞の組を抽出した結果,それぞれ6,768,1,200の組を得た.実験では14種類の多義語を用いた.テスト文として,各々の多義語に対しランダムに100文,総計1,400文を抽出し,これらから{\itdelexicalusage},イディオム,メタファ,多義語の意味が曖昧で人間が一意に決定できないものを除く1,226文を対象とし実験を行なった.\subsection{曖昧性解消実験の結果}実験で用いた動詞グループと実験結果を表\ref{disam}に示す.\vspace*{-0.6cm}{\footnotesize\begin{table}[htbp]\begin{center}\caption{曖昧性解消実験の結果}\label{disam}\vspace*{-0.2cm}Table2TheresultsofDisambiguationExperiment\\\begin{tabular}{c||c|c}\multicolumn{3}{l}{\bf{(1)\{\underline{close},open,end\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}34&26(26/99=26.2)\\\hline$without$$the$$pvn$$table$&65&31(31/99=31.3)\\\hline{\bfTotal}&99&57(57/99=57.5)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(2)\{\underline{take},spend,buy,obtain\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{2mm}6&5(5/42=11.9)\\\hline$without$$the$$pvn$$table$&36&28(28/42=66.6)\\\hline{\bfTotal}&42&33(33/42=78.5)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(3)\{\underline{lose},win,miss\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}51&41(41/97=42.2)\\\hline$without$$the$$pvn$$table$&46&36(36/97=37.1)\\\hline{\bfTotal}&97&77(77/97=79.3)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(4)\{\underline{get},receive,gain\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}30&25(25/83=30.1)\\\hline$without$$the$$pvn$$table$&53&24(24/83=28.9)\\\hline{\bfTotal}&83&49(49/83=59.0)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(5)\{\underline{give},provide,impose\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}33&31(31/85=36.4)\\\hline$without$$the$$pvn$$table$&52&26(26/85=30.6)\\\hline{\bfTotal}&85&57(57/85=67.0)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(6)\{\underline{make},earn,build\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}65&63(63/93=67.7)\\\hline$without$$the$$pvn$$table$&28&15(15/93=16.1)\\\hline{\bfTotal}&93&78(78/93=83.8)\\\hline\end{tabular}\end{center}\end{table}}{\footnotesize\begin{table}[htbp]\begin{center}\begin{tabular}{c||c|c}\multicolumn{3}{l}{\bf{(7)\{\underline{bring},take,cause\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}26&24(24/83=28.9)\\\hline$without$$the$$pvn$$table$&57&49(49/83=59.0)\\\hline{\bfTotal}&83&73(73/83=87.9)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(8)\{\underline{leave},go,receive\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}26&25(25/93=26.8)\\\hline$without$$the$$pvn$$table$&67&48(48/93=51.6)\\\hline{\bfTotal}&93&73(73/93=78.4)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(9)\{\underline{run},operate,move\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}57&56(56/97=57.7)\\\hline$without$$the$$pvn$$table$&40&19(19/97=17.5)\\\hline{\bfTotal}&97&73(73/97=75.2)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(10)\{\underline{set},fix,put\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}58&51(51/91=56.0)\\\hline$without$$the$$pvn$$table$&33&21(21/91=23.0)\\\hline{\bfTotal}&91&72(72/91=79.1)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(11)\{\underline{see},look,know\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&53&41(41/100=41.0)\\\hline$without$$the$$pvn$$table$&47&9(9/100=9.0)\\\hline{\bfTotal}&100&50(50/100=50.0)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(12)\{\underline{come},go,become\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&44&41(41/74=55.4)\\\hline$without$$the$$pvn$$table$&30&7(7/74=9.4)\\\hline{\bfTotal}&74&48(48/74=64.8)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(13)\{\underline{find},receive,see\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&60&50(50/92=54.3)\\\hline$without$$the$$pvn$$table$&32&10(10/92=10.8)\\\hline{\bfTotal}&92&60(60/92=65.2)\\\hline\end{tabular}\end{center}\end{table}}\clearpage{\footnotesize\begin{table}[htbp]\begin{center}\begin{tabular}{c||c|c}\multicolumn{3}{l}{\bf{(14)\{\underline{leave},retire,remain\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&63&60(60/96=65.6)\\\hline$without$$the$$pvn$$table$&33&12(12/96=12.5)\\\hline{\bfTotal}&96&72(72/96=75.0)\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{disam}で示される動詞グループにおいて,多義語は下線で示されている.`Procedures'の`{\itwithinthepvntable}'と`{\itwithoutthepvntable}'はそれぞれ4章で示した決定法における{\bf1}と{\bf2}を示す.`disambiguated'は各`Procedures'で正しく判定できる文数を示す.`correct'は実際に正しく判定できた文数を示す.\subsection{他手法との比較}本手法の有効性を検証するため,丹羽らの提案した文脈ベクトルを用いた名詞の多義解消手法を動詞に適用した結果と,本手法とを比較する.先ず,丹羽らの手法の概略を示し,次に比較実験の結果を示す.\begin{enumerate}\item単語$w$の文脈$C$:$\cdots$,$w_{-N}$,$\cdots$,$w_{-1}$,$w$,$w_{1}$,$\cdots$,$w_{N'}$,$\cdots$,に対する文脈ベクトル$V(C)$を\begin{eqnarray}V(C)&=&\sum_{i=-N}^{N'}V(w_{i})\nonumber\end{eqnarray}と定義する.ここで,$V(w_{i})$は,\[V(w_{i})=\left(\begin{array}{c}I(w_{i},O_{1})\\I(w_{i},O_{2})\\\vdots\\I(w_{i},O_{m})\\\end{array}\right)\]で示される.$I(x,y)$は$x$と$y$の相互情報量であり,基準単語と呼ばれる$O_{1}$,$\cdots$,$O_{m}$は,ACLCD-ROM所収のCollinsEnglishDictionaryの語義文における頻度をカウントし,最上位50単語を除いて抽出した1000語を示す.\item二つの文脈ベクトルの類似度は正規化されたベクトルの内積で表す.\begin{eqnarray}sim(C_{1},C_{2})&=&\frac{V(C_{1})}{\midV(C_{1})\mid}\frac{V(C_{2})}{\midV(C_{2})\mid}\label{niwa1}\end{eqnarray}式(\ref{niwa1})において,$sim(C_{1},C_{2})$の値が大きいほど,文脈$C_{1}$,$C_{2}$は類似していることを示す.\item今,単語$w$\hspace{-0.01mm}が複数の意味\hspace{-0.01mm}$s_{1}$,$s_{2}$,$\cdots$,$s_{m}$\hspace{-0.25mm}を持ち,\hspace{-0.1mm}各意味に対して次のような文脈例が与えられているとする.(各$C_{ij}$が文脈例){\begin{center}\begin{tabular}{ccccc}意味&\multicolumn{4}{c}{文脈リスト}\\\hline$s_{1}$&$C_{11}$&$C_{12}$&$\cdots$&$C_{1n_{1}}$\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&$\vdots$\\$s_{m}$&$C_{m1}$&$C_{m2}$&$\cdots$&$C_{mn_{m}}$\\\end{tabular}\end{center}}この時,任意の文脈$C$における単語$w$の意味は,類似度$sim(C,C_{ij})$が最大となる文脈例$C_{ij}$を持つ意味$s_{i}$に決定される.\end{enumerate}丹羽らの手法を用いた実験では,$I(x,y)$を求めるときに使用する$x$と$y$のウィンドウサイズは前後50語とした.多義語の各意味を示す文脈例として{\itWallStreetJournal}から,各意味ごとに10例ずつ抽出し,文脈リストを作成した.{\bf文脈サイズ}は,5語と10語を用いた.ここで,例えば文脈サイズが\hspace{-0.05mm}10\hspace{-0.05mm}であるとは,\hspace{-0.05mm}多義性を解消しようとする語の前後10語を文脈として用いたことを意味する.実験結果を表\ref{poly_result1}に示す.{\begin{table}[htbp]\begin{center}\caption{比較実験の結果}\label{poly_result1}Table3Theresultsofcomparativeexperiment\\\vspace*{2mm}\begin{tabular}{r|l|c||c|c|c}\hline\hline\raisebox{-1.5ex}{Num}&\raisebox{-1.5ex}{Word}&\raisebox{-1.5ex}{Sentence}&\raisebox{-1.5ex}{\itHypo.Verb}&\multicolumn{2}{c}{Co-occurrencevector}\\\cline{5-6}&&&&{\bf10}&{\bf5}\\\hline(1)&close&99&57&39&42\\\hline(2)&take&42&33&30&30\\\hline(3)&lose&97&77&67&75\\\hline(4)&get&83&49&48&48\\\hline(5)&give&85&57&67&71\\\hline(6)&make&93&78&52&49\\\hline(7)&bring&83&73&64&56\\\hline(8)&leave&93&73&32&37\\\hline(9)&run&97&73&66&80\\\hline(10)&set&91&72&61&58\\\hline(11)&see&100&50&43&46\\\hline(12)&come&74&48&48&52\\\hline(13)&find&92&60&50&60\\\hline(14)&leave&96&72&70&65\\\hline\multicolumn{2}{c|}{Total}&1,226&872(71.1\%)&730(60.0\%)&712(62.7\%)\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{poly_result1}において,`Num'は表\ref{disam}で示した動詞グループの各番号を表す.`Word'は動詞グループに含まれる多義語を示し,`Sentence'はテスト文の総数を示す.`{\itHypo.Verb}'は本手法による正解数を示し,`Co-occurrencevector'は丹羽の提案した手法を用いた実験結果の正解数を示す.`Co-occurrenceverctor'における{\bf10},{\bf5}は文脈サイズを示す. \section{考察} \subsection{曖昧性解消実験}表\ref{disam}によると,4章で示した決定法の{\bf2}は解消に重要な役割を果たし,名詞間に意味的な近さを示す尺度を導入する必要があることを示している.また総正解数は,総数1,226文のうち872文であり正解率が71.1\%に達していること,特に`{\itwithinthepvntable}'の正解は,総数606文のうち539文であり,正解率が88.9\%に達していることから,クラスタリングの結果得られた情報が有効であることを示す.{\bf1}と{\bf2}における正解率を比較すると,全ての動詞のグループに対し,{\bf2}の方が正解率が低かった.例えば,(1)の動詞グループ\{{\bf\underline{close},open,end}\}において,{\bf1}である`$within$$the$$pvn$'における正解率が76.4\%(26/34=76.4)であるのに対し,{\bf2}である`$without$$the$$pvn$'における正解率は47.6\%(31/65=47.6\%)であった.式(\ref{co})中の$Dis(x,n)$を用いて偏差を計算した結果例を表\ref{noun}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{2語間の偏差の値}\label{noun}Table4Semanticdissimilarityoftwonouns\\\begin{tabular}{rlc|rlc|rlc}\hline\hlineNo.&$n$&{\footnotesize(month,$n$)}&No.&$n$&{\footnotesize(loss,$n$)}&No.&$n$&{\footnotesize(stake,$n$)}\\\hline1.&Monday&0.542&1.&profit&0.410&1.&equity&0.427\\2.&week&0.563&2.&earnings&0.461&2.&interest&0.468\\3.&August&0.578&3.&income&0.462&3.&cash&0.531\\4.&end&0.586&4.&net&0.479&4.&shares&0.547\\5.&Tuesday&0.589&5.&gain&0.487&5.&amount&0.560\\6.&agreement&0.593&6.&result&0.492&6.&asset&0.582\\7.&Wednesday&0.603&7.&decline&0.528&7.&value&0.592\\8.&yesterday&0.614&8.&revenue&0.578&8.&option&0.595\\9.&office&0.626&9.&cent&0.605&9.&stock&0.628\\10.&year&0.637&10.&increase&0.620&10.&dividend&0.634\\\hline&&\multicolumn{1}{r}{}&&&\multicolumn{1}{r}{}&&&\\\hline\hlineNo.&$n$&{\footnotesize(profit,$n$)}&No.&$n$&{\footnotesize(loan,$n$)}&No.&$n$&{\footnotesize(money,$n$)}\\\hline1.&earnings&0.335&1.&tax&0.543&1.&cash&0.611\\2.&result&0.405&2.&use&0.563&2.&tax&0.616\\3.&loss&0.410&3.&debt&0.571&3.&control&0.637\\4.&income&0.492&4.&computer&0.586&4.&dollar&0.654\\5.&revenue&0.496&5.&payment&0.587&5.&power&0.657\\6.&decline&0.540&6.&investment&0.589&6.&position&0.659\\7.&gains&0.565&7.&shareholder&0.598&7.&time&0.661\\8.&growth&0.566&8.&proposal&0.606&8.&drug&0.663\\9.&operating&0.571&9.&fund&0.613&9.&lot&0.666\\10.&net&0.580&10.&benefit&0.628&10.&loan&0.674\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{noun}は,`month',`loss',`stake',`profit',`loan',`money'との偏差が少ない語をそれぞれ上位10語抽出した結果を示す.数値は偏差の値を示す.表\ref{noun}によると,$Dis(x,n)$によりほぼ意味的に近いものを抽出できていることがわかる.このことから,式(\ref{co})中の$Dis(x,n)$は,妥当であると言える.{\bf2}における正解率が{\bf1}よりも低かった原因として,積関数である式(\ref{co})が考えられる.すなわち,{\bf2}において,文中に現れる名詞$x$が$pvn$に存在しない場合,$pvn$に示される名詞の要素一つ一つに対して,式(\ref{co})を適用し,$x$との意味的な関係を求めた.しかし多義語の各意味は,名詞の部分集合全体で特徴づけられていることから,文中における名詞$x$と部分集合全体との偏差を考慮に入れるよう式(\ref{co})を改良する必要がある.\subsection{他手法との比較}表\ref{poly_result1}の結果から,本手法の正解率が71.1\%であるのに対し,丹羽らの提案した手法は,62.7\%(文脈サイズ5)であることから,本手法の方が良い正解率が得られることがわかる.一般にある文章の話題抽出には名詞が用いられていることから,名詞同士の意味的な関係は広いウィンドウサイズが適切である.一方,動詞と名詞の意味的な関係は比較的狭いウィンドウサイズを用いた方が(動詞と目的語という観点から)顕著に現れる.このことは,表\ref{poly_result1}においてウィンドウサイズが{\bf10}のときよりも{\bf5}の方が良い結果が得られていることからも明らかである.ところがウィンドウサイズを狭くとるとデータスパースネスの問題が生じる.すなわち丹羽らの手法では文脈中の各単語と基準単語との相互情報量の値を用いてベクトルの内積を計算しているが,ウィンドウサイズを狭くとると基準単語と共起する単語数が相対的に減少する.その結果,内積がゼロになり類似度が計算できない場合が生じた.さらに丹羽らの手法では,基準単語はCollinsEnglishDictionaryの語義文における頻度をカウントし,最上位50単語を除いて1000語を抽出しこれを用いている.しかし,これは辞書から得られた一般的な情報であり,{\itWallStreetJournal}のような分野依存のコーパスにおいて同様に高頻度に現れるとは限らない.実際,CollinsEnglishDictionaryの見出し語約6万2千語の内,少なくとも{\itWallStreetJournal}に一回以上出現した単語は約半数であり,単語と基準単語1000語との総組数のうち,実際に一回以上共起したのは約15.8\%であった.丹羽らの手法において,このことが本手法よりも高い正解率が得られなかった要因と考えられる. \section{むすび} 本稿では,コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法を提案した.本手法の基本的なアイデアは,表層上は一つの要素である多義語動詞を,多義が持つ各意味がまとまった複数要素であると捉え,これを一つ一つの意味に対応させた要素に分解した上でクラスタを作成すれば,多義を判定しながら意味的なクラスタリングが行なえるということである.本手法の有効性を検証するため,丹羽らの提案した単語ベクトルを用いた多義語の解消手法と比較した結果,14種類の多義語動詞を含む1,226文に対し,丹羽らの手法が平均62.7\%の正解率に対し,本手法では,71.1\%の正解率を得た.本手法では動詞の多義を判定するため,動詞を$n$次元($n$は名詞の個数)名詞空間で,ベクトルとして表現した.しかし,名詞にも多義性があることを考慮していない.軸となる名詞の多義性をどのように扱うかは今後の課題である.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{福本文代}{1986年学習院大学理学部数学科卒業.同年沖電気工業(株)入社.総合システム研究所勤務.1988年より1992年まで(財)新世代コンピュータ技術開発機構へ出向.1993年マンチェスター工科大学計算言語学部修士課程終了.同大学客員研究員を経て1994年より山梨大学工学部助手,現在に至る.自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{辻井潤一}{1971年,京都大学工学部電子工学科卒業,1973年,同大学院工学研究科修士過程修了.同年,京都大学工学部電気第二工学科助手,同助教授を経て,1988年英国UMIST(マンチェスタ理工科大学:UniversityofManchesterInstituteofScienceandTechnology)教授.同大学計算言語学研究センタ(CentreforComputationalLinguistics:CCL)所長,および,言語工学科主任教授を経て,1995年より東京大学大学院理学系研究科情報科学専攻教授.1981年から1982年まで,フランス・CNRS招待研究者として,グルノーブル大学自動翻訳研究所(GETA)に滞在.工学博士.国際計算言語学委員(ICCL)メンバー,1996年,国際計算言語学会(Coling96)プログラム委員長,NATO機械翻訳プロジェクト(トルコ)技術顧問など.人工知能学会等会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V30N02-19
\section{はじめに} label{sec:intro}対話において,話し手の発話に対して聞き手が質問や確認を行うことで,モノローグにおいては表出しづらい情報を引き出すことが可能である.本研究では,対話のこのような機能に着目し,特定分野の技能者からその技能者が持つコツをインタビューによって引き出すという設定を考え,そうしたインタビュー対話のコーパス構築に取り組む.なお,本稿ではコツを以下のように定義する.\begin{itemize}\item[]\begin{description}\item[コツ]自発的には言語化しづらい,特定ドメインに関する深い知識,感覚\end{description}\end{itemize}管見の限り,インタビュー対話によって技能者からコツを引き出すという目的で構築されたコーパスは存在しない.このようなコーパスの構築は,近年の産業界において課題となっている熟練者の技能伝承を支援する対話システムの開発に貢献する.しかし,産業界の技術者の対話を直接収集し,大規模なデータを作ることは難しい.そこで,比較的多くの人がコツを有する料理に着目する\footnote{近年,スマートスピーカーが普及し,料理のレシピやコツをスマートスピーカーに対話的に質問する場面も増えてきている.そのため,料理ドメインのインタビュー対話を収集することは,そういったアプリケーションの開発にも貢献することが期待される.}.本研究では,オンラインビデオ対話において料理の技能者からインタビュアーが特定の料理の調理方法を聞き出すという設定で,\textbf{料理インタビュー対話コーパス(CIDC:CulinaryInterviewDialogueCorpus)}を構築した.CIDCは,約6.4万発話の音声,その書き起こし,オンラインビデオ通話の画面映像のデータ(図\ref{fig:example})と対話者の情報,技能者から収集した料理に関する情報,インタビュアーが事前に考えた質問内容をまとめたメタデータから構成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{30-2ia18f1.pdf}\end{center}\caption{料理インタビューコーパスの例.発話者の列の``E''は技能者を,``I''はインタビュアーを表す.}\label{fig:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%インタビュー対話の収集にオンラインビデオ通話を利用したのは,視覚的情報が共有できる対面対話に近い環境で,時間的,金銭的コストを抑えた対話の収集が可能となるためである.日本語を対象とした既存の話し言葉対話コーパスのほとんどは,電話会話を使用したものか\cite{den-fry-2000},参加者を実際に集め,その様子を録音・録画したもの\cite{maekawa-2004,fujimura-et-al-2012,den-enomoto-2014,koiso-et-al-2019}である.しかしながら,電話会話の場合は視覚的情報の共有ができないため,指示語の使用が減少する等,対面対話とは性質が大きく異なり,参加者をスタジオ等に集めて対話を収録する場合は時間的・金銭的コストがかかる.現在,COVID-19の世界的感染拡大の中で,以前はオンラインビデオ通話を利用していなかった人々も%Zoom,GoogleMeet,MicrosoftTeamsのような様々なウェブ会議システムを使用するようになった.オンラインビデオ対話であれば,参加者はいつも使っている自身の機器を用いて自宅から対話に参加することが可能である.さらに,ウェブ会議システムを使用することで,参加者はお互いの表情を見つつ,画面共有機能で視覚的文脈を共有することが可能となり,電話会話よりもより通常の対話に近いコミュニケーションを行うことができる.通信の遅延などのずれは生じうるものの,オンラインビデオ対話はこれらの視覚的情報を含めて対話の記録を行うことができる.本稿では,技能者からコツを引き出すインタビュー対話コーパスであるCIDCの構築方法とその詳細について述べる.\ref{sec:related}節で関連研究について述べたのち,\ref{sec:collection}節ではインタビュー対話の収集方法と書き起こしの方法について述べる.\ref{sec:statistics}節ではCIDCの統計と特徴について述べる.そして,\ref{sec:conclusion}節では全体をまとめ,CIDCの具体的な利用可能性について述べる.なお,CIDCは\url{https://nlp.ist.i.kyoto-u.ac.jp/?CIDC}にて公開中である\footnote{タスク実施前に全ての参加者には,タスクの参加による身体的な危険が伴うことはないということを説明し,(i)インタビュー対話の映像データ,(ii)インタビュー対話の音声データ(文字化情報も含む),(iii)参加者の役割・性別・年齢(10歳刻み)・使用するマイクの情報,(iv)インタビュー収録前に実施する事前調査の回答結果,(v)インタビュー収録後に実施するアンケートの回答結果を関連づけたデータベースを作成し,あらゆる研究者・研究機関が研究および研究成果の公表に用いることができるよう,利用目的を学術研究に限定した上で公開することに関して同意を得ている.また,タスク終了後であっても,この同意を撤回する権利を有することに関しても事前に説明している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related}これまでのインタビュー対話システム研究においては,インタビュイーの意見や趣味嗜好,日常生活に関する情報の取得を目指したインタビューを対象としたもの\cite{4123399,johnston-etal-2013-spoken,kobori-etal-2016-small,10.1145/3382507.3418839,soganakano2021}やインタビュイーの精神状態や周辺環境について傾聴を行う医療目的のインタビューを対象としたもの\cite{gratch-etal-2014-distress,10.5555/2615731.2617415}が多い.そのため,構築・公開されているコーパスに関しても,上記の目的を対象としたものが多い.情報取得を目指したインタビューコーパスの多くは,マルチモーダル情報を含んでいない.\citeA{130007422128}は対話を通じた知識獲得の分析を目的として,「今頑張っていること」について学生に心理療法士が聞き取りを行った約40分間の対話音声を書き起こした傾聴対話コーパスを作成しているが,マルチモーダル情報は含まれていない.また,杉山らは今後の展望として対話数を増やすことを挙げているものの,収録対話数は23対話に留まっている.また,\citeA{weko_213149_1}では,話題の追随に着目した対話システム構築のため,聞き手が話し手から趣味を聞き出す雑談対話コーパスを構築している.この雑談対話コーパスはクラウドソーシングを用いたチャットによる対話コーパスであるため,5,114対話(1対話あたり約16発話)からなる大規模なものであるが,画像のやりとり等は含まれていない.さらに,\textsc{Interview}\cite{majumder-etal-2020-interview}や\textsc{MediaSum}\cite{DBLP:journals/corr/abs-2103-06410}といったニュースインタビューを対象とした大規模コーパスも構築されているが,これらも書き起こしデータのみを対象としている.インタビュー対話の構造の分析には,テキストデータだけでなく,マルチモーダル情報(発話の音声特徴,参加者の表情,ジェスチャー,視覚的情報等)の存在が重要である.特に本研究が目指しているコツを引き出すインタビューにおいては,技能者が説明に悩んでいる表情や実際の手つきを模したジェスチャーがコツを引き出している箇所に多く見られることが予想される.そのため,CIDCではそれらの要素を含んだコーパスとなっており,コツの引き出し方を多角的に分析することが可能である.一方,医療目的のインタビューを収集したコーパスとしては,\citeA{hanabusa2021}のカウンセリング対話コーパスや\citeA{gratch-etal-2014-distress}のDAIC等が挙げられる.\citeA{hanabusa2021}では,ナラティブ・セラピーのワークショップで行われた4つのカウンセリングにおけるカウンセラー役と相談者役の発話の文章化データを対象に,カウンセリングにおける対話の進行段階を5つに分けた対話段階を各発話に付与したコーパスを作成している.また,DAICでは鬱病やPTSDの症状についての医療インタビューを,(i)インタビュアーとの対面の対話,(ii)インタビュアーとのウェブ会議システム上での対話,(iii)Wizard-of-Oz法を用いた対話,(iv)自動対話システムとの対話の4つの設定でマルチモーダル情報を含めて収集している.これらのコーパスでは,インタビュアーはカウンセラーとして対話に参加しているため,傾聴対話としての特性が強く,特定分野の技能者からコツを引き出すインタビューとは大きく性質が異なる.以上のように,インタビュアーとの対話の中で技能者からコツが引き出されるような対話設定でマルチモーダル情報を含んだコーパス構築を行っている研究はこれまでに見られない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{インタビュー対話の収集方法} label{sec:collection}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話設定}\label{sec:setting}本研究では,技能者のコツがインタビュアーとの対話によって引き出されるインタビューを実現するために,タスクとして料理の得意な技能者に対して特定の料理の調理工程について尋ねる2者対話を設定した.参加者は各対話において,\textbf{技能者}か\textbf{インタビュアー}のいずれかの役割で対話に参加した.\begin{itemize}\item[]\begin{description}\item[技能者]料理のコツを有し,インタビュアーに対して,特定の料理の調理手順について説明する役割.事前に準備した料理の写真に対して大まかな説明を行った上で,インタビュアーの質問に答える形で,具体的な作り方や注意すべき点を説明する.\end{description}\item[]\begin{description}\item[インタビュアー]技能者から料理に関するコツを引き出す役割.事前に技能者が紹介する料理について,技能者から提供された資料に目を通し,対話の準備を行う.\end{description}\end{itemize}なお,対話前に技能者とインタビュアーの双方に,技能者の役割は「自身の選んだある料理について写真をもとに手順などを説明」することであり,インタビュアーの役割は,「技能者の説明を聞きながら,作業のコツなどのより詳細な情報を聞き出」すことであるとインタビューの目的を明示している.また,インタビューの収集コストとの兼ね合いで,プロレベルの技能者とインタビュアーだけでなく,約半数は一般レベルの技能者とインタビュアーを募集した.技能者については,料理に関する仕事に従事経験がある者を上級技能者\footnote{具体的条件として,(i)料理教室等で料理(種類は問わず)を教えた経験がある,(ii)調理師免許を取得している,(iii)料理家として活動している,という3条件のいずれかを満たす者を上級技能者とした.},料理を趣味としているが,職業とはしていない者を一般技能者に分類した.一方,インタビュアーについては,人事面接など何らかのインタビューを実施した経験を持つ者を上級インタビュアー,そのような経験がない者を一般インタビュアーに分類した.なお,インタビュアーは自炊経験があるなど最低限の料理の知識を持つことを参加の必須条件にしている.対話データの収集はデータ収集の専門業者に依頼し,この業者が参加者の募集と事前事後のアンケート等を含めたインタビューの監督を行った.最初に暫定的な条件設定で20対話の予備収集を行い,その結果を受け,最終的な条件を定め,288対話を本収集した.以下の記述では,予備収集と本収集の両者共通の条件は断りをつけず記載し,本収集で新たに設けた条件についてはその都度記載する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話前の指示内容}\label{sec:instruction}CIDCが想定しているインタビューは,単なる調査インタビューやカウンセリングインタビューとは異なり,技能者とインタビュアーの双方が技能者の持っているコツについて多く話すことができるように事前に準備を行って取り組むものである.タスク実行前の事前準備として技能者とインタビュアーに以下のような指示を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{30-2ia18f2.pdf}\end{center}\caption{実際に技能者から提出された料理の情報の例}\label{fig:exphand}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,技能者に以下の4つの料理の情報を準備し,提出するよう求めた.\begin{exe}\ex\label{ex:exphand}\begin{xlist}\ex\textbf{料理タイトル}:紹介する料理のタイトル\label{ex:etitle}\ex\textbf{料理概要}:紹介する料理の概説(50字程度)\label{ex:eabstract}\ex\textbf{手順写真}:6--10枚の調理工程を説明するための写真\label{ex:ephoto}\ex\textbf{自慢したい点(本収集のみ)}:紹介する料理についての「自慢したい点(こだわり,コツなど)」(少なくとも1つ)を記述した文章.対応する写真番号とともに報告を求めた.\label{ex:epoint}\end{xlist}\end{exe}実際に収集された料理の情報は図\ref{fig:exphand}のようなものである.さらに,技能者には以下のような指示を事前に行った.\begin{exe}\ex\begin{xlist}\ex写真を順番に表示できるように準備をしておく(出来上がり写真→手順の写真→出来上がり写真)\label{ex:ei1}\ex手順の写真を表示しながら「まず野菜を切ります」「塩・胡椒をします」など,「何をしている場面か」を簡単に説明し,\ulinej{あとは質問を待つ}.\label{ex:ei2}\ex次の写真に進むタイミングはインタビュアーが示す.ただし,技能者が説明し足りないことがあると感じた場合には,追加で説明を行って良い.\label{ex:ei3}\ex話している最中,写真に対象物が写っている場合には,マウスポインタで指し示しながら説明する.原則として,マウスポインタは見やすいように事前に拡大しておく.(本収集のみ)\label{ex:ei4}\end{xlist}\end{exe}(\ref{ex:ei1})から(\ref{ex:ei3})はインタビューの流れを統一するために設定した事項である.また,(\ref{ex:ei4})は予備収集の結果を受けて追加した事項であり,指差しに相当するものとしてポインタの使用を明示的に指示したものである.一方,インタビュアーには対話タスクの前に上記(\ref{ex:etitle}),(\ref{ex:eabstract}),(\ref{ex:ephoto})の3つの情報を与えた上で,以下の指示を事前に与えた.\begin{exe}\ex\begin{xlist}\ex事前に料理タイトル,料理概要,手順写真を予習し,質問の内容とタイミングをイメージしておく.\label{ex:ii1}\exインタビュアーが進行役をつとめる.技能者は最低限の手順しか説明しないので,それ以上の説明を引き出すよう質問する.次の写真に進むタイミングもインタビュアーが示す.\label{ex:ii2}\end{xlist}\end{exe}(\ref{ex:ii1})の指示に関して,本収集では事前に「良い質問のタイプ」を教示し,1つ以上の質問内容とその質問を何枚目の写真で行うつもりか事前に著者らに報告させ,その内容をインタビュー中に聞くように求めた.この指示は,実際のインタビューを想像しながらインタビュアーが予習を行えることを目的として設定したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\begin{center}\includegraphics{30-2ia18f3.pdf}\end{center}\caption{インタビュアーに教示した「良い質問のタイプ」}\label{ex:questions}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%「良い質問のタイプ」とは,予備収集の結果を受けて,インタビュアーが技能者からより深いコツを引き出せるよう作成した11個の質問方法とその例を載せた資料である(図\ref{ex:questions}).本研究では,技能者が自発的には言語化しづらい知識,感覚を引き出すようなインタビュー対話を実現することを目的としている.そのため,技能者が自発的に言語化可能な内容(例えば,レシピにも書かれるような内容)のみを尋ねるのではなく,対話の中で技能者自身にも気づきを与える対話となることが望まれる.しかし,予備収集では,技能者がスムーズに説明を行い,インタビュアーはそれに相槌や反応を返す対話になってしまうことが多かった.そこで,本収集で追加したこの資料では,「相手(技能者)が答えにつまりそうな質問」や「相手自身も意識していなかった料理のコツを引き出」すといった目的を明示し,インタビュアーと技能者の対話がレシピにも記載されるような内容を尋ねるのみに留まらないようにした.「良い質問のタイプ」作成においては,予備収集の対話における以下の3つの場面に着目し,その際にインタビュアーがどのような質問をしていたのかを調査し,一般化した.\begin{itemize}\item技能者の発話にコツが含まれていると思われる場面\itemインタビュアーがもう少しでコツが引き出せたのではないかと思われる場面\item「うーん」という発話や目線を外すような仕草によって技能者が回答の内容を考えながら話している様子を見せた場面\end{itemize}技能者に提出を求めた(\ref{ex:exphand})の料理の情報とインタビュアーに事前に提出を求めた質問内容は,料理の情報として本コーパスに含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話の収録方法}インタビューにはオンライン会議システムのZoom\footnote{\url{https://zoom.us}}を使用した.参加者は外付け,またはコンピューターに内蔵されたカメラとマイクを使用し,画面共有機能によって技能者側の画面を共有した状態で対話を行った(共有画面についての詳細は後述).録音・録画に関してはZoomの録画機能を利用し,音声,カメラの映像,共有された画面の全てを記録した.それぞれの参加者は,各対話タスクの前に最大5分程度の練習を個別に行った(具体的な手順については付録\ref{app:rehearsal}).1つの対話は15分程度で終了するように,時間超過が予想される場合はチャット機能によって合図が送られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話終了後のアンケート}対話タスクの終了後,技能者とインタビュアーのそれぞれに以下の事項についてアンケートを実施した.\begin{exe}\ex\begin{xlist}\exコミュニケーションはスムーズだったか\label{ex:com}\exインタビュアーが技能者からコツをうまく聞き出したか\label{ex:kotsu}\ex\label{ex:knw}自身が料理の知識や技能を持っているか\footnote{この問いは,紹介されている料理のジャンル(和食,洋食,洋菓子等)によって同一参加者であっても知識や技能が異なるため,タスクごとに回答を求めることとした.}(インタビュアーのみ)\exインタビューの感想\label{ex:review}\end{xlist}\end{exe}5件法で回答を求めた(\ref{ex:com}),(\ref{ex:kotsu}),(\ref{ex:knw})は「1.そう思う」「2.ややそう思う」「3.どちらでもない」「4.あまりそう思わない」「5.そう思わない」の選択肢から1つを選ばせた.なお,(\ref{ex:knw})はインタビュアーが専門的な立場から質問を行っているのか,一般の立場からコツを引き出すことを試みているのかを判断するために実施した項目である.最後に,(\ref{ex:review})のインタビューの感想は,「その他,感想や印象に残ったこと,お気づきの点などがありましたら自由にお書きください.」と指示し,無回答での提出も許容した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話データの書き起こし}\label{subsec:transcription}専門業者に依頼し,人手によって全ての対話データの発話内容を発話者,開始時間,終了時間とともに書き起こした.発話の単位は500ミリ秒以上のポーズを基準とし,同一話者の発話であっても間にポーズが入る場合は異なる発話として書き起こしを行った.書き起こし手順として,最初に音声認識システムのAmiVoice\textregistered\footnote{\url{https://www.advanced-media.co.jp}}を用いて自動書き起こしを行い,それを人手で修正した.書き起こしは,技能者からコツを引き出す際に観察される発話の内容を検討するためのデータとすることを目的としている.そのため,参加者の発話内容そのものに焦点を当て,相槌や笑いは最小限の書き起こしに留めた.具体的には付録\ref{app:transcript}に記載の方針を採用し,疑義が生じた場合はその都度協議の上で書き起こしを実施した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{コーパスの構築結果と分析} label{sec:statistics}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスの統計}料理インタビュー対話コーパス(CIDC)は308件の対話からなる.コーパス全体に関する統計情報は表\ref{tab:wholetable}の通りである.総語数,発話数ともに技能者がインタビュアーよりも多いのは,事前に両者の役割を設定し,インタビュアーが技能者からコツを引き出すよう指示した効果であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{18table01.tex}%\hangcaption{収集されたインタビュー対話全体の統計.単語数については,フィラーと言い誤りを取り除き,Juman++\protect\cite{tolmachev-etal-2018-juman}を用いて形態素解析を行った.発話数については,フィラーや言い誤りのみで構成される発話以外の数を示す.}\label{tab:wholetable}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%対話タスク実施後に行ったアンケートの結果を図\ref{fig:qgraph}に示す.(\ref{ex:com})の「コミュニケーションはスムーズだったか」という問いでは,技能者の平均値が4.64であり,インタビュアーの平均値が4.25であった.回答の分布を見ても,技能者とインタビュアー共に85\%以上が「5.そう思う」と「4.ややそう思う」を選択している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-2ia18f4.pdf}\end{center}\caption{インタビュー後のアンケート(\ref{ex:com})と(\ref{ex:kotsu})に対する回答の分布.}\label{fig:qgraph}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%(\ref{ex:kotsu})の「コツをうまく引き出していたか」という問いでは,技能者の平均値が4.62であり,インタビュアーの平均値が4.07であった.回答の分布を見ると,技能者は約90\%が「5.そう思う」と「4.ややそう思う」を選んでいる.インタビュアーは,「5.そう思う」と「4.ややそう思う」を選んだのは約75\%であり,約20\%が「3.どちらでもない」を選んでいる.インタビュアーは,あらかじめ技能者からコツを聞き出すよう指示されていたことにより,厳しい自己評価をしていると考えられるが,全体としては参加者自身がコツを引き出すインタビューができたと感じていると言える.さらに,インタビュアーのみに実施したアンケートである(\ref{ex:knw})の「自身が料理の知識や技能を持っているか」については,平均値が2.48(SD=1.09)であり,約6割が「1.そう思わない」か「2.あまりそう思わない」を回答していた.この結果から,インタビュアーは専門的な立場から質問するのではなく,あくまでも一般の立場からコツを引き出そうとすることが多かったことが分かる.最後に,(\ref{ex:review})のインタビューの感想については,表\ref{tab:exrev}のような感想が集まった.技能者の回答にはインタビュアーに対する好意的な意見が多く見られ,インタビュアーの回答には自身がインタビュー中に聞けなかったポイント等の反省点が多く見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\includegraphics{30-2ia18t2.pdf}\caption{アンケート(\ref{ex:review})の回答例}\label{tab:exrev}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%インタビュー参加者数は26人(男性:5名,女性:21人;20~29歳:1人,30~39歳:5人,40~49歳:12人,50~59歳:8人)であり,その内訳は表\ref{tab:participants}の通りである.\ref{sec:setting}節で述べたように,参加者それぞれに技能者とインタビュアーの2つの役割を設定した.技能者の役割でタスクに参加したのは17人,インタビュアーの役割でタスクに参加したのは17人であるが,そのうち8人は両方の役割で参加しているため,タスク参加者の合計は26人である.技能者のうち上級技能者は8人,一般技能者は9人であり,インタビュアーのうち上級インタビュアーは8人,一般インタビュアーは9人であった.また,参加者の属性ごとの対話数は表\ref{tab:numdialog}の通りであった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3and4\begin{table}[t]\setlength{\captionwidth}{200pt}\begin{minipage}[b]{200pt}\input{18table03.tex}%\hangcaption{役割・熟達度ごとの参加者の内訳.×はその役割では不参加だったことを表す.}\label{tab:participants}\end{minipage}\hfill\begin{minipage}[b]{200pt}\input{18table04.tex}%\caption{参加者の熟達度ごとの対話数の内訳}\label{tab:numdialog}\end{minipage}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%インタビューにおいて紹介された料理は152種類であった.紹介された料理を主食,主菜,副菜,デザート,その他に分類すると分布は図\ref{fig:distcat}のようになり,各分類の例は表\ref{tab:excat}に挙げた.また,本収集で集めた288対話から無作為に選んだ30対話において,「良い質問のタイプ」を読んだインタビュアーに事前報告させた質問内容が実際にインタビュー内で質問されているかを調査した.その結果,事前に報告された質問の数は1対話あたり平均3.07(SD=1.78)であった.その質問のうち,インタビュアーが実際に対話中で技能者に尋ねた質問の数は平均2.52(SD=1.57)であった.また,インタビュアー側から質問したかどうかに関わらず,事前に報告された質問の回答となる内容に技能者が言及していた数は平均2.93(SD=1.74)であった.これらの結果から,インタビュアーが事前に用意した質問に関してその回答となる内容をほぼ引き出すことが出来ていたことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5andtable5\begin{figure}[b]\begin{minipage}[b]{200pt}\includegraphics{30-2ia18f5.pdf}\vspace{38.35pt}\caption{紹介された料理の内訳}\label{fig:distcat}\end{minipage}\hfill\begin{minipage}[b]{200pt}\makeatletter\def\@captype{table}\makeatother\input{18table05.tex}%\caption{料理の分類の例}\label{tab:excat}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ウェブ会議システムを用いた影響}CIDCの特徴の一つは,ウェブ会議システムのZoomを用いて収録を行ったという点である.ウェブ会議システムは,対話相手の表情が見えるだけでなく,画面の共有機能によって同一の視覚的コンテクストを参照することができる.その一方で,顔以外の対話相手の様子を観察できない点や,画面共有されている視覚的コンテクストに直接的な働きかけができない点は対面形式の対話には見られない制約である.このようなビデオ通話独自の問題について,参加者は柔軟に対処することができていた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{30-2ia18f6.pdf}\end{center}\caption{(\ref{ex:souffle})のインタビュー中に見られたジェスチャー}\label{fig:souffle}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,対話相手の顔しか見えないという制約には,ジェスチャーが必要となる箇所ではカメラに映る位置に手を持ってきて,ジェスチャーを行うことで対処していた.(\ref{ex:souffle})はその一例であり,技能者が発話の太字部分でケーキの型の底部分が持ち上がることを表すジェスチャー(図\ref{fig:souffle}a)とケーキ自体が取り出せることを表すジェスチャー(図\ref{fig:souffle}b)を行っている.\pagebreak\begin{exe}\ex\label{ex:souffle}「スフレチーズケーキ」(Interview\_43:00:00:28.9--00:00:49.6;図\ref{fig:souffle})\begin{longtable}{rccp{12cm}}8&I&:&底が、底が取れるっておっしゃられました?\\9&E&:&はい。(あ)そうなんです。(あのー)スフレって(えーと)フランス語で泡っていう意味なんですけれども、とてもふわふわとして型から(えー)取り出しにくいので、この(そそ)底ですね、底が\textbf{(こー)持ち上がるようになっていて、ケーキがそのまま}\\10&I&:&(へー)。\\11&E&:&取り出せるような型を使っています。\end{longtable}\end{exe}次に,画面共有された視覚的コンテクストへの働きかけについては,マウスカーソルを動かすことで指差しに相当する指示を行っていた.(\ref{ex:kaki})はその一例であり,太字部分でマウスカーソルを円を描くように動かしている.ここでは,インタビュアーが加熱用の生牡蠣を加熱済みの牡蠣と誤解しており,技能者はその説明を行っている.発話26で「これ生ガキなんですけど」と言いながら,写真のパッケージに書かれている「生かき」という文字の上でカーソルを動かし(図\ref{fig:cursor}),その後,発話26から発話32にかけて「加熱調理用」という文字上にカーソルを移し,その説明を行っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{30-2ia18f7.pdf}\end{center}\hangcaption{(\ref{ex:kaki})の発話26に見られたカーソルの動き.図中に示したように,「生かき」の文字上で円を描くようにマウスカーソルが動かされている.}\label{fig:cursor}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{exe}\ex\label{ex:kaki}「牡蠣と鮭のチャンチャン焼き」(Interview\_177:00:01:21.100--00:02:03.550;図\ref{fig:cursor})\begin{longtable}{rccp{12cm}}24&E&:&(んでー)基本的に火通す料理のときは加熱調理用の方,使ってもらった方がいいかなと思います.\\25&I&:&(あ)なるほど.もう加熱してあるものの方が,\\26&E&:&いいえ(えーと)そうでは,そうではなくてですね,(えーと)\textbf{これ生ガキなんですけど},\\27&I&:&おすすめということです.\\28&E&:&\textbf{(えと)ここにですね,}\\29&I&:&はい.\\30&E&:&\textbf{加熱調理用ってかい}.\\31&I&:&はい.\\32&E&:&(?)\textbf{これは火を通して食べてくださいという意味なんですけど},\end{longtable}\end{exe}以上のように,ウェブ会議システムの利用において問題となりうるジェスチャー使用や視覚的コンテクストへの働きかけは柔軟に対応されている.これは,COVID-19の感染拡大に伴うウェブ会議システムの普及によって,対話参加者がビデオ通話という形式に慣れ親しんできていることも影響していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{参加者の熟達度による影響}\ref{sec:setting}節で述べたように,熟達度に応じて技能者を上級技能者と一般技能者に,インタビュアーを上級インタビュアーと一般インタビュアーに分けたが,インタビューの内容そのものからは熟達度に応じた大きな差異は見出せなかった.技能者とインタビュアーの熟達度ごとの総語数と異なり語数を表\ref{tab:vvntable}に示す.テキスト中に使用されている語彙の豊富さを表す指標である\textit{Uber}指標\cite[算出方法は付録\ref{app:uber}参照]{dugast1978}を見ると,上級技能者と一般技能者,上級インタビュアーと一般インタビュアーの間に大きな差は見られない.また,語られている発話内容に関しても上級と一般との間に大きな質的差異は見られなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\setcounter{table}{5}\begin{table}[b]\input{18table06.tex}%\caption{技能者とインタビュアーの熟達度ごとの総語数,異なり語数,\textit{Uber}指標.}\label{tab:vvntable}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,発話の内容そのものではなく,技能者の発話末尾に見られる語用論的特徴に熟達度による差が見られた.具体的には,調理手順の詳細や意図について質問された際,上級技能者は断言する形式での回答が多かったが,一般技能者の場合は「~と聞きました」「~だそうです」「多分~と思います」「~と言われています」などと断言を避ける回答が多く見られた.(\ref{ex:harumaki})は一般技能者と一般インタビュアーの対話であるが,春巻きを一度に揚げる本数について発話249で「と聞きました」という形の伝聞体が用いられている.\begin{exe}\ex\label{ex:harumaki}「エビとレンコンの春巻き」(Interview\_108:00:10:02.200--00:10:21.050;図\ref{fig:harumaki})\begin{longtable}{rccp{12cm}}244&E&:&これは(あの)4本が限界なので,\\245&I&:&(あ)入る分を順番に揚げていくような感じで.\\246&E&:&(?)です.そう,はい.はい.\\247&I&:&(あ).\\248&I&:&<まだ>.\\249&E&:&揚げました.はい.ただ(あのー)もしフライパンとか一気に入るのであれば,その方がいい\underline{と聞きました}(あのー)一気に揚げたほうが.\end{longtable}\end{exe}語用論において,このような発話内容の真偽を曖昧にする表現はヘッジ(Hedge)と呼ばれている.ヘッジがない発話は話者の観察や論理的思考を通して得た知識に基づくものであるが,ヘッジがある発話はそのような確固たる知識がなく,推測に基づく発話が多いと指摘されている\cite{prince1982}.上級技能者の発話にヘッジが少ないのは,彼らが料理を職業としていた経験があるため,一般技能者以上に様々な種類の料理を数多く作ってきた経験によるものであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{30-2ia18f8.pdf}\end{center}\caption{「エビとレンコンの春巻き」に関する情報}\label{fig:harumaki}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コツが引き出されたか}\label{sec:elicitation}\ref{sec:instruction}節で述べたとおり,技能者が単に手順を説明するのではなく,インタビュアーが技能者から料理のコツを聞き出すというインタビューの目的を技能者とインタビュアーが互いに理解し,その準備をした上で対話する設定を採用した.この対話設定により,CIDCではインタビュアーが効果的にコツを引き出している場面が多く見られた.その詳細な分析は今後の研究に譲り,ここでは「良い質問のタイプ」で事前に提示した以外の手法でインタビュアーがコツを引き出している場面の中で効果的であると思われる2つのパターンを紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[b]\begin{center}\includegraphics{30-2ia18f9.pdf}\end{center}\caption{「セロリ多めのラグーソースのパスタ」に関する情報}\label{fig:ragu}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%パターン1は,直前に技能者が発言した内容をインタビュアーが繰り返したり,言い換えたりするというものである.繰り返しや言い換えは,対話でトラブルが生じた場合に修復の開始を示す機能\cite{schegloff1977preference,schegloff1997practices}や,傾聴対話において相手への共感を示す手法として知られている\cite{niregi1989,mishimakubota2003,hfc2004}.一方,今回のインタビュー対話においてはトラブル修復や共感を示すのではなく,それによって技能者がコツに関する詳細な内容を語るという場面が見られた.\begin{exe}\ex\label{ex:ragu}「セロリ多めのラグーソースのパスタ」(Interview\_56:00:06:41.150--00:07:41.050;図\ref{fig:ragu})\begin{longtable}{rccp{12cm}}88&E&:&はい.こちらは先ほど(あのー)大きく(あのー)(ま)切り分けたニンジン,セロリ,にんにく,玉ねぎを,もう一度に(ふ)(あのー)フードプロセッサーの容器に移しまして,かける準備をしているところです.\\&&&~~~~~~~~~~~~~~~~~~~~~~~~~~~中略(約16.5秒)\\95&E&:&3か4ぐらいに合わせていただいて,もう1分も回さないうちにみじん切りができますので,あまり細かくなり過ぎるとピューレになってしまいますので,それには気をつけて\textbf{みじん切り程度}\\96&E&:&で終わるようにスイッチを切っていただく.\\97&I&:&(あーあー).(えっと)(ん)(み)\textbf{みじん切り,みじん切り程度}が目安っていう感じですかね?\\98&E&:&そうですね.\ulinej{ちょっと粒が(あのー)2ミリ角ぐらいで残る程度が,野菜の(こー)食感も楽しめると思います}.\\99&I&:&(はーはーはー).\\100&I&:&(あーあー)なるほどな.(な)なるほど.(えっと)かけすぎに注意っていうことですよね.もう完全にドロドロになってしまうとまずいっていう.\\101&E&:&そうですね.はい.\end{longtable}\end{exe}発話95で技能者が「みじん切り程度」と言ったのに対し,インタビュアーは頷きながらその話を聞いているため,この箇所に対話上のトラブルは見られない.しかしながら,直後の発話97で「みじん切り,みじん切り程度が目安っていう感じですかね?」と繰り返しによる確認の発話を行っている.これにより,発話98で技能者から具体的な野菜の大きさ(「2ミリ角ぐらい」)とその目的(「野菜の(こー)食感も楽しめると思います」)について引き出すことができている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{30-2ia18f10.pdf}\end{center}\caption{「生シラスのふっくらかき揚げ」に関する情報}\label{fig:shirasu}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%もう1つのパターンは,インタビュアーが自身の経験に言及し,具体的な状況を設定,提示することによって,技能者から細部についての説明を引き出すというものである.傾聴対話においては,話し手の発言を受けて聞き手側が自己開示をする(e.g.「私も◯◯なんです」)ことで,話し手は自身の話に対して聞き手がより共感や理解をしてくれていると感じることが報告されている\cite{ishidaetal2018}.一方,今回収集したインタビュー対話においては,技能者の話を受けたインタビュアーの自己開示ではなく,むしろ話の起点として自身の経験について語るというパターンが見られた.\begin{exe}\ex\label{ex:shirasu}「生シラスのふっくらかき揚げ」(Interview\_145:00:10:34.250--00:11:28.450;図\ref{fig:shirasu})\begin{longtable}{rccp{12cm}}177&I&:&(ふーん)(で)何か(この)揚げているときのコツとかってありますか?\\178&E&:&(あ).\\179&E&:&揚げているときのコツですね.\\180&E&:&(えーと)\\181&E&:&揚げているときの(こ).\\182&I&:&\textbf{例えば,私,よく(あのー)何か(こー)心配で,できているのかなって,(こー)菜箸でぐしゃぐしゃぐしゃ,}\\183&I&:&\textbf{やったりしてしまうんですけど},(な)(な)(な).\\184&E&:&(?).\\185&E&:&そうですね.つまり,\ulinej{なるべく(あのー)なるべく触らないように.}\\186&I&:&(あー)やっぱりそうですか.\\187&E&:&(?).\\188&E&:&\ulinej{片面を揚げましたら,(えーと)なるべく触らないようにそのまま(えー)じっくり火を通して,また裏返して,その後も(あのー)ほとんど触らないように,(えー)形がくずれないように揚げていって,(で)最終的に(あのー)}\\189&E&:&\ulinej{(えーと)バットに上げるときに,油をしっかり(こー)}\\190&E&:&\ulinej{切るというのが,(あの)カリッとふわっと仕上がるコツかなと思いますので}.\end{longtable}\end{exe}上記の例では,発話177でインタビュアーが漠然と「揚げている時のコツとかってありますか?」と質問したため,発話178から発話181にかけて,約6秒間,技能者が回答に窮している.これを見たインタビュアーは,発話182で「例えば」と切り出し,自身が揚げ物を行う際に失敗した事例を挙げることで,技能者から発話185以降の揚げる時に気をつけるべき点を引き出している.以上の2つのパターンは傾聴対話において見られる,相手への共感や話を聞いていることを示す「繰り返し・言い換え」やインタビュアーの自己開示としての「自身の経験を語ること」とは性質を異にする.これらのパターンは,コツを引き出すことを目的とした対話設定によって生じたものであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} label{sec:conclusion}本稿では,技能者から知識を引き出す対話システムの構築に向けた料理ドメインにおけるインタビューコーパスCIDCの構築について報告した.CIDCの特徴は以下の2点である.1つ目の特徴は,参加者が技能者とインタビュアーに分かれていることに加えて,コツを引き出すというという目的を事前に共有したことである.現在,筆者らはCIDCに対して詳細なアノテーションを実施しており,そのアノテーションに基づき,\ref{sec:elicitation}節で挙げたようなインタビュアーによってコツが引き出されている場面を定量的に分析することを目指している.2つ目のCIDCの特徴はウェブ会議システムを使ったことである.これにより,時間的に低コストでありながら,技能者からコツを引き出すインタビュー対話を大規模に収集するという目的を達成することができた.なお,アンケートの(\ref{ex:review})で「インタビューの感想」を求めた自由記述の結果を見ると,インタビュアーが技能者よりも知識や経験がある場合,インタビュアーが技能者の説明に対して不満を持つ事例が少数見受けられた.今回の対話収集では,同一の参加者が技能者とインタビュアーの双方の役割で参加することが可能であった.そのため,技能者としては上級技能者と分類される者がインタビュアーとして一般技能者にインタビューをする対話が存在した.実際のインタビューにおいては,インタビュアーは技能者と同程度以下の知識を持った者であることが予想されるため,上記のような設定は避けるべきであった.また,予備収集の結果を受けて,本収集ではインタビュアーに「良い質問のタイプ」を提示し,事前に質問内容を具体的に考えさせる手続きを取ったが,その結果,15分という制限時間が短く感じたという感想を提出した参加者が複数存在した.インタビューの内容に合わせた適切な時間設定についても今後のコーパス構築において重要な観点であることが明らかとなった.CIDCの具体的な利用方法の一例として,CIDCに対して述語項構造や意味フレームに基づくアノテーションを実施し,それを学習データとした知識構造解析システムを開発することが考えられる.また,マルチモーダルな情報に関しては,ポインタの指示物と言語化されている内容を対応させるアノテーションを実施することで,上述の知識構造化をより精緻に行うことが可能になるだけでなく,技能者の表情やジェスチャーを利用することでコツについて語る場面を視覚的にも検討することが可能となる.このような知識構造解析システムが開発できれば,技能伝承の場面において,技能者が言及した知識をリアルタイムで構造化し,まだ言及されていない知識をインタビュアーに提示するようなインタビュー支援システムを実現することもできるだろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentこの成果は,国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の委託業務(JPNP20006)の結果得られたものです.ここに感謝致します.本資料は\citeA{okahisa2022constructing}に基づくものであり,当該論文はELRAが著作権を有してCCBY-NCで頒布しています.本資料をCCBYで頒布することについてはELRAの許可を得ました.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{18refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{個別練習の内容} label{app:rehearsal}対話タスクに初めて参加する者に対し,インタビュー収録の前に監督者が以下の点について確認した.\begin{itemize}\item名前などの個人情報を発話しないこと\itemビデオ映像に表情が良く映るよう,カメラとの距離は適度に保たれていること\item対話時間が15分を超えそうな場合に監督者が送信するチャットが見られること\item対話中にトラブルが起きた場合,チャットで監督者に知らせること\item技能者が写真を表示し,次の写真に移動することができること\itemインタビュアーが進行役を務め,写真を元に最低限の作業手順を聞いて,質問を交えながら話の流れでインタビューを進めてもらうこと\end{itemize}また,リハーサルとして技能者に最初の写真を表示させ,冒頭部分のみを説明をさせた上で,インタビュアーが進行役として次の写真に進める手順を実際に行わせた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{書き起こしの方針} label{app:transcript}書き起こしの方針は以下の通りである.書き起こしの引用においては,各発話の左に付している番号は当該インタビュー全体通しての発話番号を表し,``E''は技能者の発話であることを,``I''はインタビュアーの発話であることを表す.\begin{exe}\ex\begin{xlist}\ex\label{ex:filler}フィラーや,発話が尻つぼみになったり相手の発話と重複し途中で聞こえなくなったりした場合は,丸括弧を用いてその箇所を明示する.\begin{itemize}\item「ブリの照り焼き」(Interview\_170:00:01:06.150--00:01:17.500)\begin{tabular}{cccp{278pt}}27&I&:&\underline{(んー)}はい.これは\underline{(せ)}背側とか腹側とか,どっちが美味しいとかありますか?\\28&E&:&\underline{(うーん)}どちらでも美味しく食べられると思うんですけど.\end{tabular}\end{itemize}\ex一方の話者が発話中の,もう一方の話者の相槌(「うん」「ふん」等)については書き起こさない.ただし,「なるほど」や「そうなんですね」のような発話がはっきりと聞き取れる場合は書き起こしの対象とする.\begin{itemize}\item「茄子のぬか漬け」(Interview\_15:00:02:49.533--00:3:00.243)\begin{tabular}{ccrp{278pt}}46&E&:&そうでしょうね,多分.(あのー)多分冷蔵庫の中で,水分的にも温度的にもいい状態が(あの)茄子のまわりに作られると思うんですね.\\47&I&:&\underline{なるほど.はい.}わかりました.\end{tabular}\end{itemize}\ex単発の笑いについては【笑い】と書き起こし,発話中の笑いについては笑いの情報は残さない.\begin{itemize}\item「薔薇のアップルパイ」(Interview\_96:00:03:12.150--00:03:21.750)\begin{tabular}{ccrp{278pt}}60&I&:&こちらのパイシートは手作りのものになりますでしょうか?\\61&E&:&(あ)もう\\62&E&:&スーパーに売ってる冷凍食品にある冷凍パイシートです.\\63&E&:&\underline{【笑い】}\\\end{tabular}\end{itemize}\ex発話内容が聞き取れない場合は「(?)」と表記する.\begin{itemize}\item「黒豆」(Interview\_159:00:03:40.250--00:03:54.200)\begin{tabular}{ccrp{278pt}}84&I&:&(ゆ)丹波の黒豆とか\underline{(?)}やつですか?\\85&E&:&(あ)そうですね,それはもちろんこの丹波の黒豆が最上級ですけれども,丹波の黒豆(しゅ)を使ったものが,(あのー)他に北海道とか\end{tabular}\end{itemize}\ex10秒を超える程度の長い発話の場合は,書き起こしの読みやすさを考慮し,ポーズとは無関係に句読点で区切っても良い.\begin{itemize}\item「紅茶のムースケーキ」(Interview\_165:00:05:12.500--00:05:46.450)\begin{tabular}{cccp{278pt}}54&I&:&ゼラチンは(こ)粉や板や何かお勧めというか\\55&I&:&ありますか?\\56&E&:&そうですね.(ま)私はもう板が慣れているので(えー)板をお勧めするんですけれども\underline{,}板は(ま)計りやすい\underline{,}大体1枚もう4グラムって決まってますので計りやすいですし\underline{,}お水も(えー)粉でしたら計らないといけないんですが,もう板の場合は,その板がなんていうんでしょ\underline{,}\\57&E&:&(えーとー)全部(こー)(お)お水が\\58&E&:&浸ってればいいようなんですね\underline{.}なので(えー)計量も楽ですし扱いも楽かなと思います\underline{.}\end{tabular}\end{itemize}\ex言い誤りなどで正確に話せていないような場合は正表記に直して書き起こす.\end{xlist}\end{exe}なお,(\ref{ex:filler})については,フィラーと文頭の言い直しや末尾のはっきりとは聞き取れない部分の区別が難しいため,書き起こしの段階では同一の(~~~~)で括るという方針を取っている.そのため,コーパス構築後に次のような処理を施し,意図的なフィラーとそれ以外の言い誤りを区別した.\begin{exe}\ex\begin{xlist}\exコーパス全体を通して,出現頻度が10回未満かつ長音記号を含まないものを文頭の言い直しや末尾のはっきりとは聞き取れない部分とみなし,〈~~~~〉で括った\exそれ以外はフィラーとみなし,(~~~~)で括った\end{xlist}\begin{itemize}\item「海老の旨煮」(Interview171\_:00:08:00.000--00:08:16.250)\begin{tabular}{cccp{10cm}}191&E&:&そうですね.でも2分ぐらいは置いといてもらった方がいいと思います.\underline{(あの)}ちっちゃい,大きいあると思うんですけど.\\192&I&:&\underline{(あー)}はい.\\193&E&:&\underline{(で)}さっと\underline{<あがっ>}\\194&E&:&上げて,その後も余熱で火が中にも入るので.\end{tabular}\end{itemize}\end{exe}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\textit{Uber}指標の算出方法} label{app:uber}テキスト中の総語数を$N$,異なり語数を$V(N)$とした時,\textit{Uber}指標は以下のように求める.\[Uber=\frac{(\logN)^2}{\logN-\logV(N)}\]%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{岡久太郎}{%2014年東京学芸大学教育学部中等教育教員養成課程国語専攻卒業.2016年京都大学大学院人間・環境学研究科修士課程修了.2020年同博士後期課程研究指導認定退学.2021年京都大学より博士(人間・環境学)を取得.博士(人間・環境学).2020年京都大学大学院人間・環境学研究科特定研究員,2021年京都大学大学院情報学研究科特定研究員,2021年静岡大学情報学部助教,現在に至る.理論言語学,コミュニケーション研究に従事.言語処理学会会員.}\bioauthor{田中リベカ}{%2013年お茶の水女子大学理学部情報科学科卒業.2015年同大学院博士前期課程修了.2018年同博士後期課程単位修得退学.2021年お茶の水女子大学より博士(理学)を取得.博士(理学).2018年から2021年まで京都大学大学院情報学研究科特定研究員.2021年よりお茶の水女子大学文理融合AI・データサイエンスセンター特任講師.}\bioauthor{児玉貴志}{%2019年京都大学工学部電気電子工学科卒業.2020年京都大学大学院情報学研究科博士前期課程修了.同年より同大学院情報学研究科博士後期課程に進学.現在に至る.修士(情報学).自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{YinJouHuang}{%2015年台湾大学卒業.2017年京都大学大学院情報学研究科博士前期課程修了.博士(情報学).2021年より京都大学大学院情報学研究科特定研究員.2023年より京都大学大学院情報学研究科特定助教.自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{村脇有吾}{2011年京都大学大学院情報学研究科博士後期課程修了,博士(情報学).同年京都大学学術情報メディアセンター特定助教,2013年九州大学大学院システム情報科学研究院助教,2016年京都大学大学院情報学研究科助教,2020年同講師,現在にいたる.テキスト解析および計算言語学に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{黒橋禎夫}{%1994年京都大学大学院工学研究科博士課程修了.博士(工学).2006年4月京都大学大学院情報学研究科教授.2023年4月より同特定教授および国立情報学研究所長.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,文部科学大臣表彰科学技術賞等を受賞.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V06N07-05
\section{はじめに} 日本語や中国語等においては,単語間に空白を入れる習慣がないため,これらの言語の計算機処理では,まず文を単語列に分割する処理が必要となる.単語分割は日本語処理における最も基本的かつ重要な技術であり,精度・速度ともに高い水準の性能が要求される.単語分割と品詞付けから成る日本語形態素解析法の多くは,単語辞書の登録語との照合を行い,複数の形態素解析候補がある場合はヒューリスティクス(heuristics)を用いて候補間の順位付けを行うというものである.しかし,実際に,辞書中にすべての単語を網羅するのは不可能であるため,未知語(辞書未登録語)という重大な問題が生ずる.また,ヒューリスティクスでは扱うことのできない例外的な言語現象の存在や,例外現象に対処するための規則の複雑化が問題となる.その結果,一部の規則修正が全体に与える影響を人間が把握することが困難になり,規則の保守・管理に大きな労力を必要とすることとなる.一方,英語の品詞付けでは,タグ付きコーパスを用いた確率的手法が確立されている\cite{Church88,Cutting92,Charniak93}.言語表現の出現頻度に基づく確率的言語モデルを用いる方法には,対象領域のテキストからモデルのパラメータを学習する方法が存在するという大きな利点があり,タグ付きコーパスが整備されている領域では,実験的に最も高い精度が報告されている.英語の正書法は単語間で分かち書きするため,これらの手法は,単語モデル(word-basedmodel)を用いている.英語の品詞付けは,日本語の単語分割と技術的に似ているため,英語の品詞付け手法の多くは日本語の単語分割にも適用可能となる.しかし,単語モデルを日本語に適用するためには,いくつかの問題がある.日本語では,未知語の存在が単語の同定に影響を与える上,分割が曖昧で,異なる長さの多くの分割候補があり,それらの候補を比較する必要がある\cite{Yamamoto97}.このため,単語モデルを用いるためには,分割候補の確率を正規化する必要が生じる.以上の点から,我々は文字モデル(character-basedmodel)に基づく単語分割法を提案した\cite{Oda99a,Oda99b}.文字モデルは,未知語モデルとしても機能するために,学習データに含まれていない単語に対しても対応が可能である.本論文では,より頑健な単語分割モデルを構築するために,日本語文字のクラスタリング(グループ化)を行うことを考える.日本語漢字は表意文字であり,一文字が何らかの意味を担っている.したがって,何らかの基準によりいくつかのグループ(クラス)に分類することが可能である.文献\cite{Yamamoto97}で示されている文字モデルの利点に加え,文字クラスモデルでは,文字モデルよりもさらにモデルのパラメータ数を少なくすることができるという大きな利点がある.したがって,より頑健なモデルである文字クラスモデルを単語分割へ適用した場合,未知語に対する頑健性がさらに向上すると考えられる.文字とクラスの対応関係を得るためのクラスタリング処理には,クロス・バリデーション法(cross-validation)の適用により求められる平均クロス・エントロピーを言語モデルの評価基準としたクラスタリング法\cite{Mori97}を用いる.平均クロス・エントロピーを評価基準として求められた単語bigramクラスモデルは,単語bigramモデルよりも予測力という点において優れていることが実験的に示されている\cite{Mori97,Mori98}.本論文では,この方法を日本語文字のクラスタリングに適用し,文字クラスモデルを構築する.以下,本論文では,文字クラスモデルに基づく新しい単語分割手法を提案する.まず,基本となる文字モデルに基づく単語分割モデルについて簡単に説明する.さらに,類似した文字を自動的にグループ化するクラス分類法について説明し,文字クラスモデルに基づいた単語分割モデルを提案する.ADD(ATRDialogueDatabase)コーパスを用いた評価実験において,文字モデルを用いた場合と,文字クラスモデルを用いた場合の単語分割精度を比較し,提案した手法の評価を行う. \section{文字モデルに基づく単語分割法} 本節では,文字モデルに基づく単語分割法\cite{Oda99a,Oda99b}について説明する.まず,言語モデルとして,文字$n$-gramモデルを用いることを考える.文字$n$-gramモデルでは,言語の文字生起は,$(n-1)$重マルコフモデルで近似される.長さ$l$の文字列$c_1^l=c_1c_2\cdotsc_l$において,直前の$(n-1)$文字のみが次の文字の生起確率に影響する.実際によく用いられるモデルは,$n=2$あるいは$n=3$のモデルであり,これらはbigramモデル,trigramモデルと呼ばれている.以下では,$n=3$の文字trigramモデルを用いることで,単語分割モデルの定式化を行う.単語分割モデルの学習データとしては,単語境界位置の付与されたデータを用いる.図\ref{Fig:training}に学習データの例を示す.記号$\langle{\rmd}\rangle$は単語境界(単語間のスペース)を表す特殊記号であり,$\langle{\rms}\rangle$と$\langle{\rm/s}\rangle$はそれぞれ文頭と文末を表す特殊記号である.\begin{figure}[hbt]\begin{center}\psbox[width=0.95\textwidth]{training.eps}\end{center}\caption{学習データの例}\label{Fig:training}\end{figure}単語境界位置の付与された学習データから文字trigramモデルの確率値を推定し,これを用いて単語分割を行う.与えられた「ベタ書き」文を単語列に分割するためには,入力文中の各文字位置に対し,その文字の前で単語分割が起こるか否かを求めればよい.このために,それぞれの文字位置に対し,2つの状態1と0を仮定する.状態1はその文字の前が単語境界となることを表す状態であり,状態0は単語境界とならないことを表す状態である.文字位置$i(\ge2)$の状態の推定は次式で与えられる.なお,$P_j(c_1^i)$は文字列$c_1^i=c_1c_2\cdotsc_i$を生成して状態$j$に到達する確率を表す.\begin{eqnarray}\lefteqn{P_0(c_1^i)=\max(P_0(c_1^{i-1})A_i,~P_1(c_1^{i-1})B_i)}\label{Eq:WordSegMainNoS}\\\lefteqn{P_1(c_1^i)=\max(P_0(c_1^{i-1})C_i,~P_1(c_1^{i-1})D_i)}\label{Eq:WordSegMainS}\\[3pt]&&A_i=p(c_i|c_{i-2}c_{i-1})\nonumber\\&&B_i=p(c_i|\langle{\rmd}\ranglec_{i-1})\nonumber\\&&C_i=p(\langle{\rmd}\rangle|c_{i-2}c_{i-1})p(c_i|c_{i-1}\langle{\rmd}\rangle)\hspace{7mm}\nonumber\\&&D_i=p(\langle{\rmd}\rangle|\langle{\rmd}\ranglec_{i-1})p(c_i|c_{i-1}\langle{\rmd}\rangle)\nonumber\end{eqnarray}また,文字位置$i=1$の場合は,次式で求めることができる.\begin{eqnarray}P_0(c_1)&=&p(c_1|\langle{\rms}\rangle)\label{Eq:WordSegBeginNoS}\\P_1(c_1)&=&0\label{Eq:WordSegBeginS}\end{eqnarray}ここで,学習データ中の文字位置1の前には単語境界記号がないため,式(\ref{Eq:WordSegBeginS})を定義する.入力文$s=c_1^m$に対する最適な単語分割は,各文字位置に対する状態1と0の最適な状態遷移系列として与えられる.単語分割モデルの計算のため,実際の入力文には,文頭記号と文末記号を各々$0$番目と$m+1$番目の文字として加えて処理を行う.学習データ中の文末記号$\langle{\rm/s}\rangle$の前には単語境界$\langle{\rmd}\rangle$がないので,最適な状態遷移系列は\begin{equation}\maxP_0(c_1^{m+1})\end{equation}となるような状態遷移系列である.これを求めるためには,動的計画法の一種であるビタビ・アルゴリズム(Viterbialgorithm)を用いることができる(図\ref{Fig:viterbi}参照).\begin{figure}[hbt]\vspace{-2mm}\begin{center}\psbox[width=0.70\textwidth]{viterbij.eps}\end{center}\caption{ビタビ・アルゴリズムを用いた文の分割}\label{Fig:viterbi}\vspace{-6mm}\end{figure}求められた最尤状態遷移系列において,状態1である文字位置の前で単語分割を行う.図\ref{Fig:viterbi}において単語境界を点線で示す.文字trigramモデルを言語モデルとして用いた場合,以上の単語分割モデルにより,入力文に対して最適な単語分割を求めることができる.また,同様の考えに基づいて可変長$n$-gramモデル(variable-length$n$-grammodel)を用いた単語分割を行うことも可能である\cite{Oda99a,Oda99b}.その場合は,解探索における単語分割候補の指数的増加を避けるために,各文字位置において確率の高い候補のみを後続する文字位置での探索に用いるようにする.もし文字trigramモデルによる単語分割モデルと同様に,文字位置$i$の直前が単語境界である(状態1)か否(状態0)かの2つの仮定に対する各々の最尤解のみに関して解探索を行うならば,その探索空間は,図\ref{Fig:viterbi}に示す探索空間と同じとなる. \section{日本語文字のクラスタリング} \label{Sec:CharClustering}\subsection{文字$n$-gramクラスモデル}$n$-gramモデルに,クラスという概念を導入したモデルを$n$-gramクラスモデル($n$-gramclassmodel)と呼ぶ\cite{Brown92}.ここで,クラスとは$n$-gramモデルの予測単位とする文字(あるいは単語)の集合を何らかの基準でクラスタリング(クラス分類)したものを指す.本節では,特に日本語漢字が表意文字であり,一文字が何らかの意味を担っていることから,類似した文字を自動的にグループ化することを考える.文字クラス数は文字数に比べると少ないものとなるので,文字$n$-gramモデルよりも文字$n$-gramクラスモデルの方が推定すべきパラメータ数が少ないという利点がある.また,文字クラスモデルは,文字クラスを用いた一種のスムージングであり,頑健なモデルを構築することが期待できる.このため,文字$n$-gramクラスモデルは,文字$n$-gramモデルよりも必要な学習データ量が少なく,たとえ小さな学習データからでも,より信頼性のある確率値を推定することが容易となる.文字$n$-gramクラスモデルでは,次の文字を直接予測するのではなく,先行する文字クラス列から次の文字クラスを予測した上で次の文字を予測する.ここで,文字が一つのクラスにしか属さないとすると,文字の生起確率は次の式で表すことができる.\begin{equation}P(c_i|c_1^{i-1})=P(c_i|{\calC}_i)P({\calC}_i|{\calC}_{i-n+1}^{i-1})\label{Eq:CharClassModel}\end{equation}クラス${\calC}_i$は,文字$c_i$の属する文字クラスである.また,確率$P(c_i|{\calC}_i)$は次式により最尤推定できる.\begin{equation}P(c_i|{\calC}_i)=\frac{N(c_i)}{N({\calC}_i)}\label{Eq:CharClassProb}\end{equation}ここで,$N(c_i)$は学習データ中で文字$c_i$が出現した回数であり,$N({\calC}_i)$はクラス${\calC}_i$の文字が出現した回数である.さらに,本論文では,未知文字を考慮するために,未知文字のクラスを考える.未知文字クラスには,学習データ中に出現しない未知文字と,頻度の小さい文字を含めることとする(未知文字の実例の収集).未知文字$c$が未知文字クラス${\calC}$から生起する確率$P(c|{\calC})$は次式により計算することができる.\begin{equation}P(c|{\calC})=\frac{1}{|A-A_k|}\label{Eq:UnknownCharClassProb}\end{equation}ここで,$A$は対象言語の文字集合であり,$A_k$は既知文字集合である.\subsection{文字クラスタリング法}クラス分類法には様々なものが提案されている\cite{Brown92}.優れた文字クラスモデルを獲得するためには,モデルの予測力を向上させる(すなわちクロス・エントロピーの値を小さくする)文字とクラスの対応関係を発見する必要がある.しかし,クラスタリングに関する多くの先行研究では,確率値の推定に用いる学習データのエントロピーの値を評価基準とすることでクラスタリングの優劣を判定している.学習データのエントロピーを小さく(学習データを高い精度で予測)することを目的とするのであれば,モデルのパラメータ数は多いほど良いこととなる.したがって,学習データのエントロピーを評価基準としてクラスタリングの解探索を行う限り,どのような文字の組合せに対しても複数の文字を同一視することで必ず情報の損失が生じるため,文字モデルよりもエントロピーの値が小さい文字クラスモデルは解空間に存在しないこととなる.以上のように,学習データのエントロピーは,クラスタリングの評価基準としては不適切なものであり,得られた文字クラスモデルが文字モデルより優れた言語モデルであることが期待できないという重大な問題が生じる.実際,文献\cite{Brown92}の手法では,停止基準として人間が決定する閾値(クラス数)を導入し,閾値までパラメータ数を減少させた場合における最も良い(情報の損失の少ない)解を求めているが,得られたモデルの予測力は低下していることが報告されている.そもそも言語モデルの評価は確率の推定に用いない未知の評価データに対する予測力によって決められる.したがって,理想的には,対象言語の未知のデータに対してクロス・エントロピーを小さくするように文字をグループ化することが望ましい.以上の点から,文献\cite{Mori97}では,学習データ内の一部を未知の評価データとして扱い,その評価データのクロス・エントロピーが小さくなるようにクラス分類を行うアルゴリズムを提案している.このクラス分類法には,停止基準を評価基準から導き出せるという利点があり,人間の判断に委ねられる停止基準(閾値)を必要としない(詳細に関しては後述する).実際に,得られた単語bigramクラスモデルは単語bigramモデルよりも優れた性能を示すことが実験的に報告されている.そこで,本論文では日本語文字のクラスタリングに文献\cite{Mori97}の手法を適用することを考える.\subsubsection{クラスタリングの評価基準}クラスタリングの評価基準として用いる平均クロス・エントロピーについて説明する.ここで,言語モデルの性能尺度であるクロス・エントロピー$H$は以下の式で定義される.\begin{equation}H(M,T)=-\frac{\sum_{i=1}^n\logp_M(s_i)}{\sum_{i=1}^n|s_i|}\label{Eq:Entropy}\end{equation}ここで,$M$は言語モデル,$s_i$は評価データ$T$中の$i$番目の文である.$|s_i|$は文$s_i$を構成する文字の数とする.このとき,文区切りを考慮するために,$s_i$は文末記号までを含むと仮定する.学習データ内に未知の評価用データを用意して,その評価データによりクラス分類の性能を評価する.これを実現するために,削除補間(deletedinterpolation)のようにクロス・バリデーション法(cross-validation)あるいは交差検定法と呼ばれる技術を用いる.クロス・バリデーション法とは,データの役割を交替しながら繰り返し学習および評価を行う方法のことを指す.\begin{enumerate}\item学習データ$L$を$m$個の部分データ$L_1,L_2,\cdots,L_m$に分割する.\item各部分データ$(i=1,2,\cdots,m)$に対し,ステップ3,4を行う.\item学習データから$L_i$を削除し,残りの$m-1$個のデータから確率値を推定する.\item削除されたデータ$L_i$で,式(\ref{Eq:Entropy})によりクロス・エントロピーの値を計算する.\end{enumerate}以上のようにして,$m$個のクロス・エントロピーの値を得ることができるので,それらの値の平均値$\overline{H}$(平均クロス・エントロピー)を全体の評価関数とする.\begin{equation}\overline{H}=\frac{1}{m}\sum_{i=1}^mH(M_i,L_i)\end{equation}ここで,$M_i$はステップ3で$L_i$を削除した残りのデータから推定されたモデルである.平均クロス・エントロピー$\overline{H}$は確率推定に用いないデータにおけるクロス・エントロピーの平均値であるため,文字とクラスの対応関係を変更していくつかの文字を同一視するようにした場合,同一視しなかった場合に比べて$\overline{H}$の値が増加することもあれば減少することもあるという振舞をみせる.したがって,クラスタリングの解探索は$\overline{H}$が減少する場合のみクラスの変更を施せば良いという極めて自然なものとなる.以上の$\overline{H}$の値を最小とする文字とクラスの対応関係を求めることが,本論文の文字クラスタリングの最終目的となり,クラスの併合過程においてどのような併合も$\overline{H}$を減少させることができない状態に到達することがアルゴリズムの停止条件となる.\vspace{-2mm}\subsubsection{クラスタリング・アルゴリズム}\vspace{-1mm}文字クラスモデルを構築するためには,文字クラスタリングにより文字とクラスの対応関係を求めることが必要となる.文字とクラスの対応関係としては,ある文字が一定の確率で複数のクラスに属するという確率的な関係も考えられるが,解空間が広大になるので,本論文では,文字は一つのクラスのにみ属することを仮定する.以下では,文字とクラスの対応関係を返すクラス関数$f$を用いて説明する.たとえば,文字$c_1$の属するクラスとして,$f(c_1)=\{c_1,c_2,c_3\}$を返す.このとき,文字$c_2,c_3$に対するクラス関数$f$も,各々の文字が属するクラスとして同じく文字集合$\{c_1,c_2,c_3\}$を返すこととなる.ここで,クラスタリング対象文字の集合を$A_k$とすると,$A_k$中のすべての文字のクラス関数$f$の和集合は$A_k$となり,$A_k$と未知文字クラスの和集合が対象言語の文字集合$A$となる.さらに,文字のクラス分類に対する解探索を行うために,文字とクラスの対応関係の変更を表す関数$move$を定義する.移動関数$move$は,文字とクラスの関係$f$に対して,文字$c$をクラス${\calC}$に移動した結果得られる文字とクラスの関係を返す.文字は唯一のクラスに属するとしているので,$move(f,c,{\calC})$は,現在,文字$c$が属するクラス$f(c)$から,集合の要素$c$を取り除き,クラス${\calC}$に要素$c$を加えることを意味する.文字クラス分類の最適解を求めるためには,あらゆる可能な文字とクラスの対応関係を調べる必要がある.クラス分けの総数は有限であるので,理論的には総当たり戦略により最適なクラスを見つけることはできる.しかし,総当たり法は非現実的であるため,準最適なアルゴリズムを用いることとなる.文献\cite{Mori97}のアルゴリズムを以下に示す.\vspace{3mm}\begin{tabbing}{\bf文字クラスの学習アルゴリズム}\\{文字集合$A_k$中の文字を頻度の降順にソートし,$c_1,c_2,\cdots,c_n$とする}\\{\bfforeach}{$i(1,2,\cdots,n)$}\\\hspace*{2ex}\=${\calC}_i:=\{c_i\}$\\\>$f(c_i):={\calC}_i$\\{\bfforeach}{$i(2,3,\cdots,n)$}\+\\${\calC}:={\bfargmin}_{{\calC}\in\{{\calC}_1,{\calC}_2,...,{\calC}_{i-1}\}}\overline{H}(move(f,c_i,{\calC}))$\\{\bfif}$(\overline{H}(move(f,c_i,{\calC}))<\overline{H}(f))${\bfthen}\\\hspace{2ex}$f:=move(f,c_i,{\calC})$\-\end{tabbing}\vspace{3mm}上記アルゴリズムはボトムアップ型の探索を行っており,初期状態において,各文字を各々一つのクラスとみなしている.後は,頻度の高い文字の順に他のクラスへの文字の移動を仮定して,平均クロス・エントロピーの値を再計算している.このとき,平均クロス・エントロピーが減少する文字とクラスの新しい対応関係が発見できれば,クラス関数$f$を変更する.頻度の高い文字から処理を行う理由は,頻繁に出現する文字ほどクロス・エントロピーに与える影響が大きいと考えられるので,早い段階での移動が後の移動によって影響されにくく,収束がより速くなると考えられるからである.クラスタリングの処理の例を図\ref{Fig:ClusteringImage}に示す.\begin{figure}[hbt]\begin{center}\psbox[width=0.60\textwidth]{cluster.eps}\end{center}\caption{文字クラスタリングの処理の例}\label{Fig:ClusteringImage}\end{figure} \section{文字クラスモデルに基づく単語分割法} \vspace{-1mm}文字クラスモデルを言語モデルとして,単語分割を行う.ここで,\ref{Sec:CharClustering}節の文字クラスタリング法では,文字と文字クラスの関係が一意に定まることを考えると,一文を構成する文字列$c_1^m$がそのまま文字クラス列${\calC}_1^m$に変換できることが分かる.単語分割モデルでは,入力文の各文字間において単語境界の有無を仮定して文の生成確率を計算・比較する.ここで,式(\ref{Eq:CharClassProb})および式(\ref{Eq:UnknownCharClassProb})から分かるように,確率$p(c_i|{\calC}_i)$は単語境界の有無には影響を受けない値である.さらに,一文を構成する文字は不変であるので,$\prod_{i=1}^mp(c_i|{\calC}_i)$はどのような分割候補の確率を求める場合でも一定の値の項となる(式(\ref{Eq:CharClassModel})参照).したがって,文字trigramクラスモデルによる単語分割モデルでは,以下のようにクラス連鎖の確率のみを用いて簡単に計算することができる.\begin{eqnarray}\lefteqn{P_0(c_1^i)=\max(P_0(c_1^{i-1})A_i,~P_1(c_1^{i-1})B_i)}\label{Eq:ClassWordSegMainNoS}\\\lefteqn{P_1(c_1^i)=\max(P_0(c_1^{i-1})C_i,~P_1(c_1^{i-1})D_i)}\label{Eq:ClassWordSegMainS}\\[3pt]&&A_i=p({\calC}_i|{\calC}_{i-2}{\calC}_{i-1})\nonumber\\&&B_i=p({\calC}_i|\langle{\rmd}\rangle{\calC}_{i-1})\nonumber\\&&C_i=p(\langle{\rmd}\rangle|{\calC}_{i-2}{\calC}_{i-1})p({\calC}_i|{\calC}_{i-1}\langle{\rmd}\rangle)\hspace{7mm}\nonumber\\&&D_i=p(\langle{\rmd}\rangle|\langle{\rmd}\rangle{\calC}_{i-1})p({\calC}_i|{\calC}_{i-1}\langle{\rmd}\rangle)\nonumber\end{eqnarray}また,文字位置$i=1$の場合は,次式で求めることができる.\begin{eqnarray}P_0(c_1)&=&p({\calC}_1|\langle{\rms}\rangle)\label{Eq:ClassWordSegBeginNoS}\\P_1(c_1)&=&0\label{Eq:ClassWordSegBeginS}\end{eqnarray}上記の単語分割モデルをみれば分かるように,文字クラスモデルを用いた場合は,文字クラスの連鎖により単語境界を予測するという問題に置き換わる.文字trigramクラスモデルを用いた場合も,$\maxP_0(c_1^{m+1})$となる状態遷移系列をビタビ・アルゴリズムを用いて求めることで,入力文に対する最適な単語分割を得ることができる(図\ref{Fig:viterbi}参照).また,可変長$n$-gramクラスモデルを用いる場合でも,同様に,クラス連鎖における単語境界の出現の有無により確率比較を行い,解探索を行うこととなる. \section{評価実験} 以上で提案した手法を評価するために,ATR対話データベースを用いた評価実験を行った.それぞれのデータの文数,単語数,文字数を表\ref{Tab:datasize}に示す.\begin{table}[hbt]\begin{center}\caption{学習データと評価データのサイズ}\label{Tab:datasize}\begin{tabular}{l|r|r}\hline\hline&学習データ&評価データ\\\hline文数&11,430&1,267\\\hline単語数&155,553&17,829\\\hline文字数&278,771&31,450\\\hline\end{tabular}\end{center}\end{table}\subsection{文字クラスモデルのクロス・エントロピー評価}前節の単語分割モデルで用いる文字クラスモデルを作成する.したがって,文字trigramクラスモデルや可変長$n$-gramクラスモデルの予測力を改善するような文字クラスを求める必要がある.しかし,文字クラスタリング・アルゴリズムの評価基準である平均クロス・エントロピーの計算を考えると,高次のモデルでは,必要な記憶容量と計算時間が大きな問題となる.そこで,本実験では,クロス・エントロピーの計算は,低次のbigram確率によって計算した.bigramモデルであれば,高速なクラスタリング処理が可能である.もし日本語における文字分類の最適解に近い解を得ることができれば,得られたクラス関数$f$はどのような次数のモデルに対してもある程度有効であると考えられる.また,本論文では,日本語文字が明らかに字種によって分類できることから,クラスタリング処理において,字種により規制を設けることを考えた.たとえば,漢字は漢字同士でグループ化するというように考えることで,文字とクラスの対応関係の変更を考える場合に必要な計算量を少なくすることができる.これにより,漢字の場合は$move$関数の移動先クラスとして漢字のクラスのみを考えることとなり,ひらがなの場合はひらがなのクラスのみとなる.以上の条件により,文字クラスタリングを行うために,学習データを9個のデータ$L_1,L_2,\cdots,L_9$に分割した.ここで,1個のデータにしか出現しない文字は未知文字とし,字種ごとに未知文字クラスを用意した.これは,クロス・バリデーション法による平均クロス・エントロピーの計算(9回の評価)において未知文字であった文字をそのまま学習データ全体における未知文字の実例の収集に用いることを意味する.したがって,クラスタリングの対象となる文字は,2個以上のデータに出現する文字となる.また,単語分割に用いる言語モデルを獲得することを念頭におくため,単語間に単語境界記号を挿入した分かち書きデータを用いた.単語境界記号自体はクラスタリングの対象ではないが,その存在により,クロス・エントロピー評価では単語境界(単語間のスペース)まで考慮するようになる.本実験において,評価データ中の未知文字(クラスタリング対象文字以外)は字種ごとに異なる特別な記号に置き換えてクロス・エントロピーの計算を行った.未知文字の扱いは文字モデルと文字クラスモデルで共通であるので,未知文字の確率はモデルの比較においては問題とならない.重要なことは,クラスタリング対象文字のグループ化によって,モデルの予測力がどのように変化するかである.以上の点から,モデルの状態は,既知文字すべて(もしくは文字クラスすべて),未知文字クラス(字種ごと),単語境界,文区切りの各々に対応することとなる.実験により得られた,文字bigramモデルと文字bigramクラスモデルのクロス・エントロピーを表\ref{Tab:CrossEntropy}に示す.\begin{table}[hbt]\begin{center}\caption{言語モデルのクロス・エントロピー}\label{Tab:CrossEntropy}\begin{tabular}{l|r}\hline\hline言語モデル&\multicolumn{1}{c}{$H$}\\\hline文字bigramモデル&3.5980\\文字bigramクラスモデル&3.5591\\\hline\end{tabular}\end{center}\end{table}本実験において,文字クラスモデルのクロス・エントロピーは文字モデルのものよりも小さく,より予測力の高い言語モデルの獲得に成功している\footnote{単語間のスペースを考慮しない「ベタ書き」の日本語データを用いた実験では,クロス・エントロピーは,文字bigramモデルでは4.3563ビット,文字bigramクラスモデルでは4.3060ビットであり,同様に,文字クラスモデルのほうが一文字当たりのクロス・エントロピーが小さいという結果が得られている.}.また,表\ref{Tab:CharClassParameters}に,クラスタリング対象文字数とそれらをクラスタリングした後の文字クラス数を示す.学習データ中には,1357種類の文字が含まれていたが,約200種類の低頻度文字が未知文字として取り扱われた.実験の結果,クラス当たりの平均要素(文字)数は1.36文字であり,最大のクラスの所属文字数は12文字であった.\begin{table}[hbt]\begin{center}\caption{文字数と文字クラス数の比較}\label{Tab:CharClassParameters}\begin{tabular}{l||r|r}\hline\hline&\multicolumn{1}{|c|}{既知文字数}&\multicolumn{1}{c}{文字クラス数}\\\hline漢字&935&675\\ひらがな&70&67\\カタカナ&78&71\\数字&10&8\\英字&42&13\\記号&23&15\\\hline合計&1,158&849\\\hline\end{tabular}\end{center}\end{table}文字クラスタリング実験により得られたクラス関数$f$が返す文字集合(文字クラス)を,図\ref{Fig:ExampleCharClass}にいくつか示す.必ずしもすべての文字クラスが言語直観から納得がいくものではないが,いくつかのノイズと思われる文字を除けば,(特に出現位置の類似という点で)ある程度良い解が得られていることが分かる.不自然な印象を受ける文字のグループが存在するのは,あくまでbigramクラスモデルの改善における準最適解を求めているからであると考えられる.\begin{figure}[hbt]\{送,乗,居,貼\}\{私,誠,娘,又\}\{思,誓\}\{今,昨\}\{部,型\}\{中,低\}\{他,皆,僕\}\\\{原,松,草\}\{山,竹,塚,吉\}\{別,誰\}\{特,既\}\{忙,楽\}\{近,多,暗\}\{渡,貸,探,押\}\\\{朝,昼\}\{市,職,命,履\}\{安,幸\}\{図,計,義\}\{島,木,川,根\}\{食,刻,飯\}\{帰,困\}\\\{女,性\}\{校,化,枠,郊\}\{映,厳,撮\}\{含,休,混\}\{購,納\}\{離,訪\}\{項,故\}\\\{戸,宮\}\{欄,横,机,縦,層,逆\}\{界,株,財\}\caption{実験により得られた文字クラスの例}\label{Fig:ExampleCharClass}\end{figure}本実験では,各文字クラスに属する文字数は少なく,文字クラスタリングによって,それほど極端にパラメータ数が減少するということにはならなかった.この原因は,今回用いたコーパスの規模が小さく,学習データに含まれる文字の種類が少なかったためであると考えられる.より多くの文字種をクラスタリングの対象とすれば,モデルのパラメータ数の減少度はさらに大きくなるであろう.\subsection{単語分割精度の比較評価}\vspace{-1.5mm}文字クラスタリング実験により得られたクラス関数$f$を用いることで,文字trigramクラスモデルや可変長$n$-gramクラスモデルを構築することができる.ここで,文字クラスタリングでは字種別にグループ化を行ったので,単語分割に用いる文字クラスモデルを作成するときに,クラス関数$f$を用いる字種を限定してみることについても試みることとした.もしあまり有効でない文字のグループ化が行われている字種があれば,それらの文字はクラス関数$f$を用いず,文字を予測単位として処理すれば,より性能の良いモデルが得られる可能性がある.また,本論文で提案した文字クラスモデルに基づく単語分割モデルは非常に簡単な構造となっており,いかにクラス連鎖により単語境界の生起を把握するかが単語分割精度の鍵となる.ここで,字種変化によるヒューリスティクスを考慮した場合,カタカナ,数字,英字はその字種同士の文字間では分かち書きされる可能性がほとんどないと考えられる.単語分割を行う場合,これらの文字は単にカタカナか数字か英字であるという情報のみでモデル化したほうが良い結果が得られる可能性がある.そこで,それらの字種に関しては字種全体を一つのクラスとみなして同一視することについても検討することとした.以上の点から,文字クラスモデルと文字モデルの比較において,表\ref{Tab:ClusteringCondition}の5つのモデルを考え,単語分割実験を行った.表中には,字種ごとに何を予測単位としてモデル化を行うかを示している.モデル1は文字モデルであり,モデル2は文字クラスタリングの結果に何も手を加えずに,すべての文字でクラス関数$f$を用いた文字クラスモデルである.モデル3,4,5は字種クラス(字種全体を一つのクラスとする)を予測単位とすることを試みたモデルであり,それらの中のモデル4とモデル5では文字クラスタリングの結果得られるクラス関数$f$を用いる文字を限定している.\begin{table}[hbt]\begin{center}\caption{字種ごとに予測単位を使い分けることを仮定したモデル}\label{Tab:ClusteringCondition}{\tabcolsep1.5mm\begin{tabular}{c||llllll}\hline\hlineモデル&漢字&ひらがな&カタカナ&数字&英字&記号\\\hline1&文字&文字&文字&文字&文字&文字\\\hline2&クラス&クラス&クラス&クラス&クラス&クラス\\\hline3&文字&文字&字種&字種&字種&文字\\\hline4&クラス&クラス&字種&字種&字種&クラス\\\hline5&クラス&文字&字種&字種&字種&文字\\\hline\end{tabular}}\end{center}\end{table}\vspace{-2mm}表\ref{Tab:PerformanceTrigram}に,文字trigramモデルと文字trigramクラスモデルに基づく単語分割モデルによる単語分割精度を示す.単語分割の性能は,再現率({\itrecall})と適合率({\itprecision})により評価する\cite{Nagata94}.ここで,Stdをコーパス中の単語数,Sysを本手法で分割された単語数,Mを照合した単語数とすると,再現率は${\rmM}/{\rmStd}$,適合率は${\rmM}/{\rmSys}$で表される.\begin{table}[hbt]\begin{center}\caption{trigramモデルとtrigramクラスモデルによる単語分割精度}\label{Tab:PerformanceTrigram}{\tabcolsep1.5mm\begin{tabular}{c||c|c|c|c}\hline\hline&\multicolumn{2}{|c|}{クローズドテスト}&\multicolumn{2}{c}{オープンテスト}\\\cline{2-5}モデル&再現率&適合率&再現率&適合率\\\hline1&98.10\%&98.56\%&95.48\%&94.11\%\\2&98.09\%&98.56\%&95.83\%&94.34\%\\3&97.82\%&98.44\%&95.91\%&94.73\%\\4&97.80\%&98.43\%&95.86\%&94.70\%\\5&97.83\%&98.44\%&96.01\%&94.74\%\\\hline\end{tabular}}\end{center}\end{table}本実験では,バックオフ・スムージング\cite{Katz87}付きのtrigram確率値を計算した.表\ref{Tab:PerformanceTrigram}のモデル1とモデル2は文字trigramモデルと文字trigramクラスモデルの精度であるが,オープンテストにおいて文字クラスモデルの精度が上回る結果となっている.また,モデル1とモデル3およびモデル2とモデル4のオープンテストの結果を比較することで,カタカナ,数字,英字を各々一つのクラスとしたほうが未知語を含むデータに対して,精度が向上していることが分かる.したがって,字種単位でのグループ化の有効な字種の存在が確認できた.全体として,オープンテストでは,漢字に関して文字クラスを用いたモデル5の場合が最も高精度であった.本実験結果より,文字クラスタリングの動機であった漢字のクラスタリングには特に良い解が得られていることが分かる.また,可変長$n$-gramモデル\cite{Oda99a,Oda99b}と可変長$n$-gramクラスモデルの比較に関する単語分割実験も行ったが,trigram同様,クラスモデルの方が高精度であった.本実験において,可変長$n$-gramクラスモデルによる探索空間はtrigramによる場合と同じものとした.文献\cite{Oda99b}において,trigramモデルによる探索空間と同じ場合に最も高い精度を達成している可変長$n$-gramモデルを用いた場合の結果を表\ref{Tab:PerformancePPMBackOff}に示す.実験結果から,可変長$n$-gramクラスモデルはtrigramクラスモデルよりもさらに高い単語分割精度を達成できることが分かる.学習データと評価データの組を変更して,可変長$n$-gramクラスモデルによる単語分割の再評価を行ったところ,オープンテストで96\%〜98\%以上のかなりの高精度を達成することを確認した.パラメータ数の少ない文字クラスモデルでは,本論文で用いたような比較的小規模の学習データからでも信頼のおける確率値を得ることが容易となり,有効な未知語モデルとして機能できることが結論できる.\begin{table}[hbt]\begin{center}\caption{可変長$n$-gramモデルと可変長$n$-gramクラスモデルによる単語分割精度}\label{Tab:PerformancePPMBackOff}{\tabcolsep1.5mm\begin{tabular}{c||c|c|c|c}\hline\hline&\multicolumn{2}{|c|}{クローズドテスト}&\multicolumn{2}{c}{オープンテスト}\\\cline{2-5}モデル&再現率&適合率&再現率&適合率\\\hline1&99.51\%&99.71\%&95.89\%&95.91\%\\2&99.50\%&99.71\%&96.30\%&96.04\%\\3&99.42\%&99.68\%&96.20\%&96.15\%\\4&99.38\%&99.67\%&96.27\%&96.17\%\\5&99.42\%&99.69\%&96.38\%&96.23\%\\\hline\end{tabular}}\end{center}\end{table} \section{おわりに} 本論文では,日本語のような単語間で分かち書きをしない言語のための新しい単語分割モデルを提案した.入力文に対して最適な単語分割を見つけるために,本手法は文字クラスモデルを言語モデルとして用いる.ADDコーパスを用いた評価実験で,クロス・エントロピー評価によるクロス・バリデーション法を適用した文字クラスタリングを行い,モデルのパラメータ数を減少させた上で,優れた予測力を持つ頑健な文字クラスモデルを獲得できることを示した.また,提案した単語分割モデルにおいて,文字モデルを用いた場合と,文字クラスモデルを用いた場合の単語分割精度の比較を行い,文字クラスモデルによる単語分割モデルの方が未知語を含むデータに対する解析力が優れていることを示した.今後は,文字クラスモデルの有効性をさらに確認するために,高次のクラスモデルの性能を直接改善するようなクラスタリング実験を行うことを考えている.また,より多くの文字種を含む大規模コーパスでの文字クラスモデルのクロス・エントロピーおよびパラメータ数の減少度を計測し,その有効性を確認することを予定している.\bibliographystyle{jnlpbbl}\bibliography{v06n7_05}\begin{biography}\biotitle{略歴}\bioauthor{小田裕樹}{1975年生.1997年徳島大学工学部知能情報工学科卒業.1999年同大学大学院博士前期課程修了.同年,NTTソフトウェア(株)入社.在学中,確率・統計的自然言語処理の研究に従事.現在,自然言語処理,情報検索等の研究開発支援に従事.情報処理学会会員.}\bioauthor{森信介}{1970年生.1995年京都大学大学院工学研究科修士課程修了.1998年同大学大学院博士後期課程修了.同年,日本アイ・ビー・エム(株)入社.東京基礎研究所において計算言語学の研究に従事.工学博士.1997年情報処理学会山下記念研究賞授賞.情報処理学会会員.}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同助教授.工学博士.確率・統計的自然言語処理,情報検索等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V17N01-01
\section{はじめに} \label{sec:introduction}機械翻訳システムの研究開発において,システムの翻訳品質の評価は重要なプロセスの一つである.人手による翻訳品質評価では,機械翻訳システムによる翻訳(以下,{\MT})に対して{\ADE}と{\FLU}の二つの側面から評価値が付与される\cite{Sumita05}.{\ADE}は,原文によって読者に伝わる情報のうちどの程度が翻訳文によって伝わるかを測る尺度である.一方,{\FLU}は,翻訳文が目的言語の文としてどの程度流暢(自然)であるかを原文とは独立に測る尺度である.本研究では,対象を英日機械翻訳に絞り,まず,現状の一般的な英日機械翻訳システムの翻訳品質を把握するために,市販されている英日機械翻訳システムで得られた{\MT}を{\ADE}と{\FLU}の側面から評価した.その結果,\ref{sec:experiment:setting}節で述べるように,{\ADE}の評価値に比べて{\FLU}の評価値のほうが低く,{\MT}の{\FLU}を向上させることがより重要な課題であることが判明した.このため,特に{\FLU}の向上に重点を置いたシステム改善を支援することを目的として,{\FLU}の評価の効率化を図るための自動評価手法を提案する.{\FLU}を低下させる要因はいくつか考えられるが,その一つに不自然な逐語訳がある.辞書と規則に基づく方式の機械翻訳システムは,現状では,逐語訳をすべきでない場合でもそのような訳し方をすることがある.このため,{\MT}には不自然な逐語訳が含まれている可能性が高い.従って,{\MT}と人間による翻訳(以下,{\HUM})における逐語訳の違いを捉えることによって{\MT}の{\FLU}(の一部)の自動評価が可能になると期待できる.既存の自動評価手法の中には,機械学習によって識別器を構築する手法\cite{Oliver01,Kulesza04,Gamon05,Tanaka08}がある.この手法では,良い翻訳とは{\HUM}に近いものであり,そうでない翻訳とは{\MT}に近いものであると仮定される.このような仮定の下で,対訳コーパスにおける{\HUM}(正例)と,原文を機械翻訳システムで翻訳して得られる{\MT}(負例)とを訓練事例として識別器が構築される.この識別器を用いて,評価対象の{\MT}から抽出した素性に基づいて,その{\MT}が良い翻訳であるかそうでないかの二値判定が行なわれる.本研究では,このような先行研究に倣い,{\HUM}と{\MT}を訓練事例とした機械学習によって構築した識別器を用いて自動評価を行なう.このような自動評価手法においては,{\HUM}での逐語訳と{\MT}での逐語訳の違いを適切に捉えることができる手がかりを機械学習で用いる素性として選ぶ必要がある.本稿では,このような素性として{\align}結果を利用することを提案する.具体的には,\ref{sec:feats}節で述べるように,英文と{\HUM}の間,および英文と{\MT}の間で{\align}を行ない,その結果を機械学習のための素性とする.従来,{\FLU}の評価には$N$グラムが用いられることが多いが,{\HUM}と{\MT}での逐語訳の違いを捉えるには$N$グラムよりも{\align}結果を利用するほうが適切であると考えられる.検証実験の結果,提案手法によってシステムレベルでの自動評価が可能であることが示唆された.また,{\SVM}\cite{Vapnik98}による機械学習で各素性に付与される重みに基づいて{\MT}に特徴的な素性を特定できるため,このような素性を含む文を観察することによって文レベルでの{\MT}の特徴分析を行なうこともできる. \section{先行研究} \label{sec:related_work}自動評価に関する研究は活発に行なわれ,これまでに様々な手法が示されている.このうち,BLEUやNIST,METEORなどの既存手法\cite{Papineni02,Doddington02,Banerjee05}では,{\FLU}の評価は,{\MT}と参照訳の間での高次の$N$グラムの照合によって行なわれる.これらの手法によって信頼できる評価結果を得るためには,(新規)評価対象文についての参照訳を通常複数用意する必要がある.しかし,大量の評価対象文について複数の参照訳を入手することは容易ではない.近年,機械学習を利用する手法がいくつか示されている\cite{Oliver01,Kulesza04,Quirk04,Gamon05,Albrecht07a,Albrecht07b,Paul07a,Tanaka08}.これらの手法は,モデルを構築する際に訓練事例集を必要とするが,(新規)評価対象文の{\FLU}を評価する際には参照訳を必要としない.機械学習を利用する手法は,機械学習によって回帰モデルを構築する手法と識別モデルを構築する方法に分けることができるが,両者では学習に必要な訓練事例集を用意するのに要する負担が異なる.回帰モデルは,{\MT}から抽出された素性に基づいて,その{\MT}の良さを表わす評価値を予測する.従って,回帰モデルを構築する手法\cite{Quirk04,Albrecht07a,Albrecht07b,Paul07a}では,大量の訓練事例に人手で評価値を付与する必要があり,訓練事例集の作成に要する負担が比較的大きい.一方,識別器を構築する手法\cite{Oliver01,Kulesza04,Gamon05,Tanaka08}では,識別器に入力された評価対象の{\MT}が{\MT}であるか{\HUM}であるかの二値判定を行なう.このため,対訳コーパスにおける{\HUM}と,原文を機械翻訳システムで翻訳して得られる{\MT}を訓練事例とすることができる.従って,大量の訓練事例に人手評価値を付与する必要がなく,負担は比較的小さく抑えられる.本稿では後者のアプローチを採るため,識別器を構築する先行研究について概観する.文献\cite{Oliver01}では,言語的な素性として,構文木の分岐に関する情報,文中での内容語の数に対する機能語や代名詞の数の割合,文の構成要素(名詞句や副詞句,形容詞句,前置詞句など)の長さなどが用いられている.この他に,パープレキシティが統計的な素性として利用されている.スペイン語から翻訳された英文からこれらの素性を抽出して,決定木学習によって識別器を構築し,試験事例に対して82.9\%の{\ACC}を得ている.また,構築された決定木を観察することによって,機械翻訳システムが抱える問題点をシステム開発者が把握できることが示されている.さらに,{\MT}の翻訳品質が向上すれば{\HUM}との識別が困難になるため,識別器の{\ACC}が低下するという予想を示している.しかし,予想の提示に止まっており,検証結果は示されていない.文献\cite{Kulesza04}では,評価対象文と参照訳の間の$N$グラム適合率や単語誤り率などを素性として,{\SVM}による機械学習が行なわれている.{\ACC}は,{\MT}だけから成る試験事例に対しては70.0\%,{\HUM}だけから成る試験事例に対しては58.7\%,両者から成る試験事例に対しては64.4\%であったと報告されている.この文献では,評価対象文が{\MT}であるか{\HUM}であるかの二値判定を行なうだけでなく,{\SVM}による機械学習の結果得られる分離超平面と事例との距離をその{\MT}に対する評価値とみなしている.この評価値と人手による評価値の間の相関係数は,既存の自動評価尺度(BLEU値や単語誤り率など)と人手評価値の間の相関係数よりも高かったという実験結果が示されている.文献\cite{Gamon05}では,素性として,品詞トライグラム,構文解析で使用された文脈自由文法規則,文構成要素の意味標識,文構成要素とその支配要素の間の意味的関係などが利用されている.英語から翻訳されたフランス語文からこれらの素性を抽出して{\SVM}による機械学習で識別器を構築し,訓練事例に対して77.8\%,試験事例に対して77.6\%の{\ACC}をそれぞれ得ている.文献\cite{Tanaka08}では,{\MT}の{\FLU}の自動評価を目的として,品詞の出現比率,品詞$N$グラム($N=1,2,3$),単語トライグラムに着目し,これらの素性を個別に用いて識別器を構築している.ロイター英日対訳コーパス\cite{Uchiyama03}における和文を{\HUM}とし,英文を市販の機械翻訳システムで翻訳した結果を{\MT}として実験を行ない,品詞の出現比率による識別器で78.6\%,品詞$N$グラムによる識別器で94.9\%,単語トライグラムによる識別器で97.7\%の{\ACC}を得ている.さらに,{\MT}を{\FLU}の観点から上位群と下位群の2群に分けたとき,これらの素性を用いた識別器の正解率は,{\FLU}が上がるにつれて低下するという文献\cite{Oliver01}の仮説を確認している. \section{着目した素性} \label{sec:feats}{\MT}の{\FLU}を低下させる要因はいくつか考えられるが,その一つに不自然な逐語訳がある.本研究ではこの不自然な逐語訳を捉えることをめざしている.人間は,柔軟性に富む多様な表現上の工夫を施した翻訳を行なうことができるため,{\HUM}に不自然な逐語訳が含まれている可能性は低い.一方,人間の様々な翻訳技術が十分に反映されていない,辞書と規則に基づく方式の機械翻訳システムは,現状では,逐語訳をすべきでない場合でもそのような訳し方をすることがあるため,{\MT}には不自然な逐語訳が含まれている可能性が高い.このため,{\HUM}の{\FLU}と{\MT}の{\FLU}の違いを適切に捉えることができる手がかりとして逐語訳に着目した.例えば,次の英文(E\ref{SENT:failure})に対する{\HUM}は,無生物主語他動詞構文の構造変換が行なわれ,(H\ref{SENT:failure})のようになるだろう.これに対して,英文(E\ref{SENT:failure})を,本研究の実験で用いた3つの市販機械翻訳システムで処理すると(Ma\ref{SENT:failure}),(Mb\ref{SENT:failure}),(Mc\ref{SENT:failure})のような{\MT}がそれぞれ得られる.\begin{SENT3}\sentEHisfailuretofulfillthepromisemadethevoterssuspicious.\sentH彼が約束を果たさなかったので,有権者は疑い深くなりました.\sentMa彼が約束を実現させないことで,有権者は疑わしげになりました.\sentMb彼が約束を果たすことができなかったことは,投票者を疑わしくした.\sentMc約束を果たすことについての彼の失敗は投票者を疑い深くしました.\label{SENT:failure}\end{SENT3}{\MT}(Ma\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})を比べると,両者は非常に近いことが分かる.{\MT}(Mb\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})を比べると,両者の主な違いとして,makeを主辞とする動詞句の翻訳が挙げられる.英語では行為者が対象に能動的に働きかけるという捉え方がされる傾向が強い.これに対して,日本語では物事が自然にある状態になるという表現が好まれる.{\HUM}(H\ref{SENT:failure})では,このことを考慮してmakeが「なる」と訳されている.一方,{\MT}(Mb\ref{SENT:failure})では「する」という逐語訳になっている.{\MT}(Mc\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})を比べると,makeを主辞とする動詞句の翻訳の違いに加え,failureを主辞とする名詞句の翻訳の違いも見られる.{\HUM}(H\ref{SENT:failure})では,英語が名詞文体であり日本語が動詞文体であることを考慮して,動詞的意味を含む名詞句を文に展開するという工夫がされて自然な翻訳になっている.一方,{\MT}(Mc\ref{SENT:failure})ではそのまま「失敗」という逐語訳になっている.以上のような違いが主な原因で,特に{\MT}(Mc\ref{SENT:failure})の{\FLU}が{\HUM}(H\ref{SENT:failure})の{\FLU}よりも低くなっていると考えられる.{\HUM}と{\MT}の間には以上のような違いがあるため,英文と{\HUM}の間で単語同士の対応付けを行なった場合と英文と{\MT}の間で行なった場合を比べると,後者の場合のほうが単語対応が付きやすいと予想される.実際,英文(E\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})に対して,本研究の実験で用いた{\align}ソフトウェアで{\align}を行なうと,表\ref{tab:align}\,の左側のような結果が得られる.また,英文(E\ref{SENT:failure})と{\MT}(Mc\ref{SENT:failure})の間の{\align}結果は表\ref{tab:align}の右側のようになる.表\ref{tab:align}において,align($A$,$B$)は$A$と$B$が対応付けられた単語の対であることを表わし,nonalign\_eng($C$)は$C$が対応付けられずに残った英語単語であること,nonalign\_jpn($D$)は$D$が対応付けられずに残った日本語単語であることを表わす.以下,align($A$,$B$)を{\AL}と呼び,nonalign\_eng($C$)あるいはnonalign\_jpn($D$)を{\NAL}と呼ぶ.\begin{table}[t]\caption{英文(E\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})の{\align}結果と英文(E\ref{SENT:failure})と{\MT}(Mc\ref{SENT:failure})の{\align}結果}\label{tab:align}\input{02table01.txt}\end{table}表\ref{tab:align}を見ると,{\HUM}(H\ref{SENT:failure})より{\MT}(Mc\ref{SENT:failure})のほうが,{\AL}の比率が高いことが分かる.また,{\HUM}(H\ref{SENT:failure})ではfailureもmakeも単語対応が付いていないのに対して,{\MT}(Mc\ref{SENT:failure})では両方とも単語対応が付いている.さらに,{\HUM}(H\ref{SENT:failure})には「ない」,「ので」,「なる」などの{\NAL}が含まれている.これらのことから,{\HUM}における様々な表現上の工夫と{\MT}における逐語訳との違い(の一部)を{\AL}と{\NAL}によって捉えることができると考えられる.{\AL}と{\NAL}によって捉えることができる{\HUM}と{\MT}の違いは,{\AL}は主に{\HUM}と{\MT}の類似点(人間でも行なうような逐語訳)を表わしており,{\NAL}は主に{\HUM}と{\MT}の相違点(主に人間しか行なわないような翻訳)を表わしていると解釈することができる.{\AL}と{\NAL}によって捉えることができる{\HUM}と{\MT}の違いとしては,無生物主語他動詞構文の構造変換以外に代名詞の訳語選択などがある.{\HUM}では,英語の代名詞は日本語の代名詞としては表わされず,ゼロ代名詞化されたり,他の表現に置き換えられたりすることがある.これに対して,{\MT}では,英語の代名詞はそのまま日本語の代名詞に訳され,不自然な翻訳文となることが多い.例えば,次の{\HUM}(H\ref{SENT:indef-pron})では,hisは「自分」という表現に置き換えられ,heとitはゼロ代名詞化されている.これに対して,{\MT}(Ma\ref{SENT:indef-pron}),(Mb\ref{SENT:indef-pron}),(Mc\ref{SENT:indef-pron})では,「彼」や「それ」と訳されている.このように,代名詞が他の表現に置換されている{\HUM}と代名詞の逐語訳が含まれている{\MT}との違いは,{\AL}と{\NAL}によって捉えることができると考えられる.\begin{SENT3}\sentEMr.Smithdoeshisworkwhenhefeelslikedoingit.\sentHスミス氏は,したいと思うときに,自分の仕事をする.\sentMaスミス氏は,それをしたいと思うとき,彼の仕事をする.\sentMbスミスさんがそれをしたい気がするとき,彼は仕事します.\sentMcスミス氏がそれをしたい気がするとき,彼は彼の仕事をします.\label{SENT:indef-pron}\end{SENT3}{\HUM}において様々な表現上の工夫がされていればいるほど,{\HUM}と逐語訳による不自然な{\MT}との違いがより鮮明になる.従って,このような場合,{\AL}と{\NAL}によって{\HUM}と{\MT}の違いをより確実に捉えることができるようになり,有効性が高まると考えられる.他方,{\HUM}と{\MT}における語順の違いについては,{\AL}と{\NAL}では捉えることができない.しかし,この問題は,句対応付けを今後利用することなどによって解決できると考えられる.また,助詞についても,{\HUM}と{\MT}での{\AL}と{\NAL}の違いとして現れにくいため,捉えることは困難である.{\MT}に非対応単語が現れる原因として,機械翻訳システムによる無生物主語他動詞構文の構造変換の他に,翻訳処理の失敗などが想定される.非対応単語が構文構造変換によるものか翻訳処理失敗によるものかの区別は,{\MT}に現れる非対応単語と{\HUM}に現れる非対応単語を比較することによって可能な場合もある.なぜならば,構文構造変換による非対応単語は{\MT}集合にも{\HUM}集合にも現れうるのに対して,処理失敗によるものは{\HUM}集合には現れにくいと考えられるからである.本稿での{\SVM}による機械学習では,{\HUM}(H\ref{SENT:failure})と{\MT}(Mc\ref{SENT:failure})を,それぞれ,表\ref{tab:align}に示した{\AL}と{\NAL}を成分とする素性ベクトルで表わす.具体的には,{\HUM}と{\MT}に現れる{\AL}と{\NAL}を素性名番号(整数)に変換し,その素性値を1とする. \section{実験と考察} \label{sec:experiment}提案手法の有効性を確認するための実験について述べる.今回の実験は,報道記事を対象とし,辞書と規則に基づく方式の英日機械翻訳システムを用いて行なったものである.\subsection{実験方法}\label{sec:experiment:setting}提案手法の検証実験に必要な言語資源は,原文とそれに対する{\HUM}である.今回の実験では,ロイター英日対訳コーパスを利用した.このコーパスは,文献\cite{Uchiyama03}に示されている類似度を用いて文対応が付けられたコーパスである.文対応付けの結果には1対1のものと1対多のものがあるが,今回の実験では1対1に対応付けられている文の組を用いた.ロイター英日対訳コーパスには同一の英文や同一の和文が複数回出現することがある.このような重複がある場合には1文だけを残し他の文は削除した.{\MT}は,ロイター英日対訳コーパスの英文を,辞書と規則に基づく方式を採用している考えられる3つの市販機械翻訳システムで処理して得た.以下,{\MTS},{\MTF},{\MTL}とする.英文と{\HUM}の{\align}および英文と各{\MT}の{\align}は,{\MTS}を得るために使用した機械翻訳システムの開発企業で試作されたソフトウェア\footnote{民間企業で開発された非公開ソフトウェアであるため,アルゴリズムは開示できない.このため,公開ソフトウェアを用いた場合にどの程度の{\ACC}が得られるかを明らかにするための追加実験を行なった.追加実験にはGIZA++\cite{Och03}を用いた.GIZA++は,隠れマルコフモデルと統計的翻訳モデル(IBMモデル)に基づく統計的{\align}手法である.実験の結果,{\MTS}で99.0\%,{\MTF}で98.5\%,{\MTL}で99.6\%,3つの{\MT}の平均で99.0\%の{\ACC}が得られた\cite{Kotani09b}.これは,\ref{sec:experiment:accuracy_mt}節で示す本稿の実験結果と同程度の{\ACC}である.}を用いて行なった.このソフトウェアでは,まず和文を形態素に分割し,日本語の形態素と英語の単語を対応付ける.{\align}処理は,対訳辞書,シソーラス,係り受け規則などを利用して行なわれる.各機械翻訳システムに約15,000文を入力文として与え,すべての機械翻訳システムで処理が正常に終了し,さらに{\align}処理が正常に終了した文を選択した結果,3つの機械翻訳システムに共通する文として最終的に12,900文ずつが得られた.{\SVM}による機械学習にはTinySVM\footnote{http://chasen.org/{\textasciitilde}taku/software/TinySVM/}を利用した.カーネル関数は1次の多項式とした.カーネル関数以外のパラメータは,標準設定されている値を使用した.3つの{\MT}のうち{\MTS}を対象として,著者ら以外の評価者3名による人手評価を行なった.評価者は全員日本語母語話者であり,平均で約6年の英日機械翻訳用辞書の開発経験がある.評価対象文として{\MTS}から500文を無作為に抽出した.3つの{\MT}すべてから500文ずつ抽出して合計1,500文を人手評価する労力は大きいため,評価の負担を抑えるために{\MTS}だけを評価対象とした.評価の観点は,{\MT}の{\FLU}と{\ADE}とした.{\FLU}については,{\MT}の日本語としての{\FLU}を100点満点で採点しその点数に該当する評価値(表\ref{tab:ade-flu}の左側)を付与するよう評価者に指示した.{\FLU}の評価では{\MT}だけを評価者に示した.{\ADE}については,英文と{\MT}を比較し,英文で伝わる情報のうちどの程度が{\MT}で伝わるかを表わす評価値(表\ref{tab:ade-flu}の右側)を付与するよう指示した.3名による評価値の中央値を評価対象文の最終的な評価値とした.100点満点での評価における1点の持つ意味は規定せずに,評価者の主観的判断に委ねた.評価型国際ワークショップIWSLTなどでの評価基準のように5段階程度での評価の場合には1段階の持つ意味を規定することができるが,100点満点での評価における1点の持つ意味を規定することは現実的に困難である.それでも100満点での評価を行なった理由は,将来人手評価値を5段階あるいは10段階などに細分化して実験を行なうときに今回の人手評価結果を再利用できることである.また,通常のテストの採点では100点満点で点数付けされることが多いためでもある.なお,{\MT}に評価値4が付与されるのは75点から100点のときであるので,評価値4が付与された{\MT}がすべて人間訳並に流暢あるいは適切であるとは限らない.\begin{table}[b]\caption{人手評価での評価基準}\label{tab:ade-flu}\input{02table02.txt}\end{table}\begin{table}[b]\caption{人手評価値の度数分布表}\label{tab:freq-ade-flu}\input{02table03.txt}\end{table}人手評価結果を表\ref{tab:freq-ade-flu}に示す.{\ADE}については,評価値が3以上である{\MT}が51.4\%を占める.一方,{\FLU}については,評価値が3以上である{\MT}は21.6\%しかない.このことから,評価対象とした機械翻訳システムに関しては,{\MT}の{\FLU}を向上させることが重要な課題であると言える.{\MT}の{\FLU}の評価結果を評価者ごとに表\ref{tab:freq-flu-each}に示す.表\ref{tab:freq-flu-each}と表\ref{tab:freq-ade-flu}の左側(3名による評価値の中央値の集計)を比較すると,評価者1と評価者2は比較的甘い評価を行ない,評価者3は比較的厳しい評価を行なったことが分かる.\subsection{{\AL}と{\NAL}の分布}\label{sec:experiment:align_distri}\ref{sec:feats}節で示した作業仮説({\HUM}より{\MT}のほうが単語対応が付きやすい)の妥当性を,実験に使用したソフトウェアによる{\align}結果において検証する.英文とその{\HUM}の間での{\align}結果に含まれる素性の延べ数と,英文とその各{\MT}の間での{\align}結果に含まれる素性の延べ数を表\ref{tab:align_distri}に示す.{\HUM}と{\MT}の間で{\AL}と{\NAL}の比率に差があるかどうかを検証するために,表\ref{tab:align_distri}の分布に対して$\chi^2$検定\footnote{$\chi^2$検定は,1条件で,各測定値が2つ以上のカテゴリのいずれか一方に分類されるときに,それぞれのカテゴリの度数の母比が,理論的に導出される特定の値と異なると言えるか否かを吟味する検定である\cite{Mori06}.}を行なった.その結果,比率の差は有意水準5\%で有意であった.さらに,{\HUM}とどの{\MT}との間で比率に差があるのかを検証するために,Ryan法による多重比較\footnote{Ryan法による多重比較は,誤差の割合の概念的単位を比較の集合に設定する際に,ステップ数によって個々の比較における有意水準を直接変化させて一対比較を行なう多重比較法である\cite{Mori06}.}を行なった.その結果,{\HUM}とすべての{\MT}の間において有意水準5\%で有意であった.このことから,{\HUM}よりも{\MT}のほうが単語対応が付きやすい傾向にあると言える.\begin{table}[b]\caption{各評価者の評価値の度数分布表}\label{tab:freq-flu-each}\input{02table04.txt}\end{table}\begin{table}[b]\caption{{\AL}と{\NAL}の出現比率}\label{tab:align_distri}\input{02table05.txt}\end{table}\subsection{機械翻訳システムと{\ACC}}\label{sec:experiment:accuracy_mt}提案手法の{\ACC}が使用した機械翻訳システムに影響を受けるかどうかを,{\MTS},{\MTF},{\MTL}を用いて検証する.これらの各{\MT}と{\HUM}を合わせた合計25,800件をそれぞれ事例集合として3つの識別器を構築した.{\HUM}はどの事例集合においても同一のものを使用した.各事例集合を5分割し,交差検定を行なった.素性としては{\AL}と{\NAL}の両方を使用した.試験事例の{\MT}に対する{\ACC}を表\ref{tab:accuracy_mt}に示す.数値は5分割交差検定の平均値である.表\ref{tab:accuracy_mt}より,使用した機械翻訳システムによらずいずれも高い{\ACC}が得られていることが分かる.\ref{sec:related_work}節で述べた先行研究\cite{Tanaka08}によると,本稿と同じ実験条件において,品詞$N$グラム($N=1,2,3$)を素性として構築した識別器で94.9\%,単語トライグラムを素性とした識別器で97.7\%の{\ACC}が得られている.本稿で得られた平均{\ACC}99.3\%は,この先行研究での{\ACC}と同程度である.\subsection{素性の種類の{\ACC}への影響}\label{sec:experiment:accuracy_feats}識別器の構築に使用する素性の種類が{\ACC}に与える影響を明らかにするために,素性として{\AL}だけを使用した場合と{\NAL}だけを使用した場合について{\ACC}を求めた.試験事例の{\MT}に対する{\ACC}’(5分割交差検定の平均値)を,{\AL}と{\NAL}の両方を用いた場合の{\ACC}と共に表\ref{tab:accuracy_feat}に示す.\begin{table}[b]\caption{提案手法の{\ACC}}\label{tab:accuracy_mt}\input{02table06.txt}\end{table}\begin{table}[b]\caption{素性の種類と{\ACC}}\label{tab:accuracy_feat}\input{02table07.txt}\end{table}{\AL}だけを用いた識別器,{\NAL}だけを用いた識別器,{\AL}と{\NAL}の両方を用いた識別器で{\ACC}の間に有意な差があるかどうかを見るために,McNemar検定\footnote{McNemar検定は,2条件における対応がある測定値が,ある特性の有無によって二分されるときに,その特性を有する母比が条件間で異なるか否かについて検定する手法である\cite{Mori06}.}を行なった.有意水準は,Bonferroni法により,比較する群数3で5\%を割った値とした.その結果,{\MTS},{\MTF},{\MTL}のいずれにおいても,すべての識別器の間で{\ACC}に有意水準1.7\%で有意差が見られた.表\ref{tab:accuracy_feat}を見ると,{\AL}と{\NAL}の両方を用いることによって最も高い{\ACC}が得られていることが分かる.また,すべての{\MT}において{\NAL}だけを用いた場合の{\ACC}が{\AL}だけを用いた場合の{\ACC}よりも高くなっている.このことから,{\HUM}と{\MT}を区別する手がかりとしては,{\NAL}のほうが{\AL}よりも有効であると言える.{\NAL}を用いたほうが{\ACC}が高くなる理由は,\ref{sec:feats}節で述べたように,{\AL}が主に{\HUM}と{\MT}の類似点を表わしているのに対して{\NAL}は主に{\HUM}と{\MT}の相違点を表わしていることであると考えられる.\subsection{事例数の{\ACC}への影響}\label{sec:experiment:accuracy_datasize}十分な{\ACC}を得るために必要な{\HUM}の数即ち対訳コーパスの量を明らかにするために,{\HUM}の数を12,900文,10,000文,7,000文,4,000文,1,000文と3,000文ずつ変化させて{\ACC}を求めた.それぞれの{\HUM}数において,{\HUM}とそれに対応する同数の{\MT}から成る事例集合を作成した.各{\HUM}数における{\ACC}(5分割交差検定の平均値)を図\ref{fig:datasize}に示す.{\HUM}の数を1,000文({\MT}と合わせた事例全体では2,000文)まで減少させても{\ACC}は95\%以上となっている.従って,比較的小規模な対訳コーパスでも十分な{\ACC}が得られると言える.\begin{figure}[b]\begin{center}\includegraphics{17-1ia2f1.eps}\end{center}\caption{{\HUM}の数と{\ACC}の関係}\label{fig:datasize}\end{figure}\subsection{{\FLU}の評価値と{\ACC}の関係}\label{sec:experiment:accuracy_hum_eval}文献\cite{Oliver01}によると,{\MT}はその翻訳品質が向上すれば,{\HUM}との違いが小さくなるため,{\HUM}との識別が困難になり,識別器の{\ACC}は低下すると予想されている.実際,文献\cite{Sun07}や文献\cite{Tanaka08}では,{\MT}を翻訳品質が上位のものと下位のものに分けたとき,下位群での{\ACC}より上位群での{\ACC}のほうが低いことが確認されている.もし,本稿で提案する手法においても{\MT}の翻訳品質が向上する(人手評価値が高くなる)につれて{\ACC}が低下することが確認できれば,提案手法の{\ACC}が低下するかどうかによって翻訳品質が向上したかどうかを判断できることになり,システム開発において提案手法を用いた自動評価が可能になる.提案手法においてこのような{\ACC}の低下が生じるかを検証する.検証には,\ref{sec:experiment:setting}節で述べた{\MTS}500文に付与された{\FLU}の評価値を利用する.検証は,{\AL}と{\NAL}の両方を用いて構築した識別器,{\AL}だけを用いた識別器,{\NAL}だけを用いた識別器のそれぞれについて行なった.各識別器について,{\MTS}500文の{\FLU}の評価値別に,正しく{\MT}と識別された文数と誤って{\HUM}と識別された文数を集計した.それらの結果を表\ref{tab:flu_both},\ref{tab:flu_align},\ref{tab:flu_nonalign}にそれぞれ示す.\begin{table}[b]\caption{{\AL}と{\NAL}による識別器の{\ACC}と{\FLU}}\label{tab:flu_both}\input{02table08.txt}\end{table}\begin{table}[b]\caption{{\AL}のみによる識別器の{\ACC}と{\FLU}}\label{tab:flu_align}\input{02table09.txt}\end{table}\begin{table}[b]\caption{{\NAL}のみによる識別器の{\ACC}と{\FLU}}\label{tab:flu_nonalign}\input{02table10.txt}\end{table}正しく{\MT}と識別された文数と誤って{\HUM}と識別された文数の間に差があるかどうかを検証するために,表\ref{tab:flu_both},\ref{tab:flu_align},\ref{tab:flu_nonalign}の各分布に対してFisherの正確確率検定\footnote{Fisherの正確確率検定は,$\chi^2$検定と同様に対応がない2条件間の比率の比較を行なう方法であるが,周辺度数に0に近い値(10以下程度)があるときに適用される\cite{Mori06}.}を行なった.その結果,正しい識別件数と誤った識別件数の割合は,{\AL}と{\NAL}の両方を用いた場合(表\ref{tab:flu_both})と{\NAL}だけを用いた場合(表\ref{tab:flu_nonalign})は有意水準5\%で有意でなかったが,{\AL}だけを用いた場合(表\ref{tab:flu_align})は有意水準5\%で有意であった.そこで,{\AL}だけを用いた場合について残差分析\cite{Tanaka05}を行なった結果,表\ref{tab:flu_align_zansa}に示すように,{\HUM}と誤識別される{\MT}の数は,{\FLU}の評価値が1か2である場合に有意水準5\%で有意に少なく,逆に,評価値が3か4である場合に有意水準5\%で有意に多かった.このことから,{\AL}だけを用いて構築した識別器の{\ACC}は,{\MT}の{\FLU}が高くなるにつれて低下すると言える.表\ref{tab:accuracy_feat}から分かるように,{\AL}のみによる識別器は,平均{\ACC}では,{\NAL}のみによる識別器にも{\AL}と{\NAL}の両方を用いた識別器にも劣る.しかし,{\ACC}の低下が見られることから,機械翻訳システムの開発において翻訳品質評価尺度として利用できることが示唆される.ただし,{\MTF}や{\MTL}を実験対象とした場合にも同様の結果が得られるかどうかの一般性の検証は今後の課題である.\begin{table}[t]\caption{表\ref{tab:flu_align}の調整済み残差}\label{tab:flu_align_zansa}\input{02table11.txt}\end{table}{\MT}は,その{\FLU}の評価値が高くなれば,{\HUM}との相違点が減少すると考えられる.このため,{\HUM}と{\MT}の相違点に相当する{\NAL}を素性とした場合も,{\FLU}の評価値が高い{\MT}は{\HUM}と誤って識別されやすくなり,{\ACC}が低下するはずである.しかし,実験では,機械学習に使用する素性に{\NAL}を含めて({\NAL}だけを用いて,あるいは{\NAL}と{\AL}の両方を用いて)構築した識別器で{\MT}の識別を行なった場合,{\FLU}の評価値が高い{\MT}でも低い{\MT}でも{\ACC}にほとんど差は出なかった.この原因は,たとえ{\FLU}の評価値が高い{\MT}であっても,{\HUM}との明らかな相違点が含まれており,{\HUM}との識別が容易に行なえることにあるのではないかと考えられる.\subsection{既存手法との比較}\label{sec:experiment:accuracy_hum_eval_meteor}提案手法を,代表的な既存手法の一つであるMETEOR\cite{Banerjee05}と比較する.比較対象をBLEUやNISTではなくMETEORとした理由は,文単位での自動評価ではMETEORのほうが良いとされているからである\cite{Banerjee05}.METEORでは,評価対象文が参照訳と照合され,両者の類似度が評価値として評価対象文に付与される.評価値は0から1の範囲をとる.一方,提案手法は,評価対象文が良い翻訳であるかそうでないかの二値判定を行なう識別器であり,評価対象文に評価値を付与するものではない.このため,提案手法とMETEORを比較するために,次のような考えでMETEORを識別器とみなすことにする.すなわち,ある閾値を設け,評価対象文に対するMETEORによる評価値がその閾値以上であれば,その評価対象文を良い翻訳であると判定する識別器とする.METEORに基づく識別器の振る舞いは,設定する閾値によって異なる.閾値が高過ぎれば厳し過ぎる評価尺度になり,逆に,低過ぎれば甘過ぎる評価尺度になる.適切な閾値を決定するために,閾値を0.1から0.9まで0.1刻みで変化させて,\ref{sec:experiment:accuracy_hum_eval}節で行なった方法で{\MTS}~500文の{\FLU}の評価値別に,閾値未満の類似度が付与された文数と閾値以上の類似度が付与された文数を集計した.適切な閾値とは,集計結果に対して正確確率検定と残差分析を行ない,最も多くの{\FLU}の階級において有意水準5\%で有意差が確認できるときの閾値であるとした.参照訳には,ロイター英日対訳コーパスにおいて英文500文に対応する和文を用いた.{\MTS}と参照訳を``茶筅''\footnote{http://chasen.naist.jp/hiki/ChaSen/}で形態素解析した結果をMETEORへの入力とした.{\MTS}と参照訳の照合には,形態素の表記を照合するexactモジュールを使用した.この結果,閾値が0.4のときに{\FLU}の3つの階級(2,3,4)において有意水準5\%で有意差が確認できた.このため,閾値を0.4に設定したときのMETEORに基づく識別器を提案手法との比較対象とする.閾値を0.4としたときの,閾値未満の類似度が付与された文数と閾値以上の類似度が付与された文数,および閾値以上の類似度が付与された文の割合を表\ref{tab:flu_meteor}に示す.括弧内の数値は調整済み残差である.\begin{table}[b]\caption{METEORに基づく識別器(閾値0.4)による判定と{\FLU}}\label{tab:flu_meteor}\input{02table12.txt}\end{table}表\ref{tab:flu_meteor}から,METEORに基づく識別器は,{\FLU}の評価値が4である文のうち33.3\%を良くない翻訳であるとみなすことが分かる.一方,提案手法は,{\FLU}の評価値が4である文のうち55.6\%を良くない翻訳であるとみなすことが表\ref{tab:flu_align}から分かる.従って,{\FLU}が高い文を正しくそのように自動評価しなければならない場合(評価の効率化が重要な場合)には,提案手法は望ましくない.しかし,{\FLU}の評価値が1である文については,METEORに基づく識別器は31.5\%を良い翻訳であるとみなすのに対して,提案手法は{\FLU}の評価値が1である文のうち4.3\%しか良い翻訳であるとみなさない.従って,機械翻訳システムの評価において{\FLU}が低い文を見落としてはならない場合には,提案手法のほうが望ましいと言える.\subsection{文レベルでの{\MT}の特徴分析}\label{sec:experiment:likeness}\ref{sec:experiment:accuracy_hum_eval}節では,提案手法がシステムレベルでの自動評価に使える可能性があることを示した.しかし,機械翻訳システムの翻訳品質を高めていくためには,単にシステム全体として{\FLU}が向上したかどうかを評価するだけでなく,{\MT}と{\HUM}の間にどのような違いがあるのかを発見し,その違いを埋めていくために取り組むべき課題を明らかにする必要がある.{\MT}と{\HUM}の間の違いを見い出す方法の一つとして,{\MT}に特徴的な素性を({\HUM}に特徴的な素性と見比べながら)観察するという方法が考えられる.{\MT}あるいは{\HUM}に特徴的な素性は,{\SVM}による機械学習で各素性に付与される重みに基づいて特定することができる.この重みの値が正ならば{\HUM}らしさを表わし,負ならば{\MT}らしさを表わす.重みの絶対値が大きいほど,{\HUM}らしさあるいは{\MT}らしさをより強く特徴付ける素性である.{\MTS}を分析対象とし,{\AL}と{\NAL}の両方を素性として用いた場合について各素性の重みを求めた.重みの絶対値が大きい素性の上位30個を表\ref{tab:effective_feats}に示す.まず,表\ref{tab:effective_feats}に示した素性のうち,一般にテキストでの出現頻度が高いと考えられる代名詞,冠詞,接続詞に関連する素性で示される特徴について議論する.\begin{enumerate}\item表\ref{tab:effective_feats}を見ると,{\HUM}には,第1位の{\NAL}nonalign\_jpn(同)や第3位のnonalign\_jpn(同氏)という素性や,第14位のnonalign\_eng(he),第20位のnonalign\_eng(we)という素性が現れている.このことは,英語の代名詞が日本語の代名詞としては表わされず,「同首相」や「同グループ」のような接頭辞「同」を持つ照応表現や「同氏」という照応表現に訳されていることを示している.一方,{\MTS}には,第6位の{\AL}align(it,それ)や第21位のlign(its,その)という素性が現れている.このことから,英語の代名詞が日本語の代名詞として直訳されていることが読み取れる.このような違いは,例えば,次の英文(E\ref{SENT:pron})に現れるweやheの訳し方に見られる.\begin{SENT2}\sentE``Wehaveanexchangeratewhichseemstometomakesense,''hetoldforeignjournalistsinRome.\sentH同首相は,ローマで外国特派員に対し,「為替レートについては妥当なものと判断している」と述べた.\sentM「我々は,私には意味をなすように思われる為替レートを持つ」と,彼は,ローマの外国人記者に告げた.\label{SENT:pron}\end{SENT2}代名詞を直訳すると,原文が伝えている意味と異なる意味を伝える翻訳文が生成されたり,文意は同じでも不自然で読みにくい翻訳文が生成されてしまうという問題が生じることがある.従って,英語での代名詞による照応を日本語では他の表現による照応として翻訳できるようにすることが重要な課題である\cite{Yoshimi01a}.\begin{table}[t]\caption{重みの絶対値が大きい素性}\label{tab:effective_feats}\input{02table13.txt}\end{table}\item{\MTS}では,第10位にalign(the,その)という素性が現れている.これは,{\MTS}では冠詞theが「その」と訳される傾向があることを意味している.{\MTS}においてtheが常に「その」と訳されるわけではないが,例えば次の英文(E\ref{SENT:the_say})に対する{\MT}(M\ref{SENT:the_say})では,thecountryが「その国」と訳されている.一方,{\HUM}(H\ref{SENT:the_say})は,代名詞の場合と同様にtheが接頭辞「同」と訳されているため,自然な翻訳文となっている.\begin{SENT2}\sentEMexicanagricultureministerFranciscoLabastidaOchoasaidthecountryneedstoraisecoffeeproductivitytoboostforeignexportincomes.\sentHメキシコのラバスティダ農牧・農村開発相は,輸出収入を増加するため,同国はコーヒーの生産性を高める必要がある,と述べた.\sentMメキシコの農業大臣FranciscoLabastidaOchoaは言った.その国は,コーヒー生産性を増大対外輸出収入に上げる必要があると.\label{SENT:the_say}\end{SENT2}\item{\MTS}における第2位のalign(and,そして)と第4位のalign(and,及び)という素性に着目して,{\MTS}と{\HUM}での接続詞andの訳し方を比較する.まず,andが複数の名詞句$NP$を結合している表現``$NP_1$and$NP_2$''を含む英文の{\HUM}と{\MTS}を調査した.{\HUM}では,andは読点や「と」,「や」,「および」などに訳し分けられていた.一方,{\MTS}では,(M\ref{SENT:and_np})のように常に「,及び,」と訳されており,やや大袈裟な印象を受ける.\begin{SENT2}\sentEViratsaidinvestorswereworriedabouttheThaieconomyandthecoalitiongovernment'sstability.\sentHVirat氏は,投資家は,タイ経済と連立政権の安定性を懸念している,と指摘した.\sentMViratによれば,投資家は,タイの経済,及び,連立政権の安定性について心配した.\label{SENT:and_np}\end{SENT2}{\MTS}以外の二つの{\MT}についても同様の調査をしたところ,{\MTF}では「と」,「,および」,「そして」などにほぼ適切に訳し分けられていた.また,{\MTL}では常に「と」と訳されていた.{\MTS}においても,{\MTF}や{\MTL}のような訳し分けを実現することはそれほど困難ではないと考えられる.次に,andが複数の動詞句を結合している表現を含む英文の{\HUM}と{\MTS}を調査した.その結果,{\HUM}ではandは動詞の連用形に訳されているのに対して,{\MTS}では(M\ref{SENT:and_vp})のように常に「〈動詞の連用形〉,そして,」と訳されていた.\begin{SENT2}\sentEJapanistheworld'sleadingconsumerofpalladiumandRussiaistheworld'slargestexporter.\sentH日本は世界的にも大口のパラジウム消費国であり,ロシアは世界最大の輸出国.\sentM日本は,パラジウムの世界の主要な消費者であり,そして,ロシアは,世界で最も大きな輸出業者である.\label{SENT:and_vp}\end{SENT2}また,我々の調査範囲では,{\MTF}と{\MTL}では常に「〈動詞の終止形〉,そして,」と訳されていた.andが複数の動詞句を結合している場合,動詞を連用形にして,andを「そして」と訳さないようにすることもそれほど困難ではないと考えられる.\end{enumerate}次に,表\ref{tab:effective_feats}\,に示した素性のうち,実験に使用したコーパスが報道記事であることに起因すると考えられる動詞の訳し分けと時間表現について議論する.\begin{enumerate}\item{\MTS}では,第11位にalign(say,言う)という素性が現れている.一方,{\HUM}では,第23位のnonalign\_jpn(述べる)や第24位のnonalign\_jpn(語る)という素性が現れている.「述べる」や「語る」を含む{\HUM}(例えば(H\ref{SENT:the_say})など)を調査したところ,「述べる」や「語る」に対応する英語表現はsayであることが多かった.実験に用いたコーパスには記者会見やインタビューでの発言が含まれているが,このような発言では,sayを「言う」と訳すより「述べる」や「語る」などと訳したほうが適切であることが多いため,sayの柔軟な訳し分けを実現する必要がある.\item{\MTS}では,第17位にalign(onWednesday,水曜日に),第20位にalign(onThursday,木曜日に),第26位align(onTuesday,火曜日に)という素性が現れている.このことから,{\MTS}では(M\ref{SENT:time})のように曜日が忠実に訳されていることが読み取れる.一方,{\HUM}では,第7位にnonalign\_eng(Wednesday),第11位にnonalign\_eng(Monday),第17位にnonalign\_eng(Thursday)という素性が現れている.このことは,次の{\HUM}(H\ref{SENT:time})のように,曜日が直訳されていないことを示している.\begin{SENT2}\sentEThesenateisexpectedtobegindebateontheamendmentonWednesday.\sentH上院での同案の審議は,5日から開始される見通し.\sentM上院は,水曜日に修正に関して討論を始めることを期待されている.\label{SENT:time}\end{SENT2}{\HUM}で曜日が直訳されていない理由は,英語の報道記事では時間を曜日で表わすのに対して,日本語の記事では日付で表わすという文体上の違いにある.{\align}結果という素性によってこのような文体的な違いも浮き彫りになることは興味深い.\end{enumerate} \section{おわりに} 本稿では,{\HUM}と{\MT}を訓練事例とした機械学習によって構築した識別器を用いて{\MT}の{\FLU}を自動評価する手法について述べた.提案手法では,{\HUM}と{\MT}の{\FLU}の違いを捉える手がかりとして,英文と{\HUM}の間,および英文と{\MT}の間で{\align}を行なった結果を利用した.提案手法は,識別器を構築する際に対訳コーパスを必要とするが,評価対象文を評価する際には参照訳を必要としない.さらに,大量の訓練事例に{\FLU}の評価値を付与する必要もない.検証実験の結果,(1)提案手法は,素性として{\AL}だけを使用した場合,93.7\%の{\ACC}で{\HUM}と{\MT}の識別が可能であることと,(2){\MT}を{\FLU}の側面から4段階に分けて{\ACC}の低下を正確確率検定と残差分析で検定したところ,{\FLU}の評価値が上がるにつれて,{\AL}だけを素性とした場合の提案手法の{\ACC}が有意水準5\%で有意に低下することが確認できた.この{\ACC}の低下傾向は,提案手法によってシステムレベルでの評価を支援できることを示唆している.さらに,{\SVM}による機械学習で各素性に付与される重みに基づいて{\MT}に特徴的な素性を特定することができるため,このような素性を含む文を観察することによって文レベルでの特徴分析を行なうこともできる.今後の課題は,辞書と規則に基づく方式以外の機械翻訳システム,英語と日本語以外の言語対,報道記事以外のテキストなど様々な設定条件の下で提案手法の有効性の検証を行なうことである.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Albrecht\BBA\Hwa}{Albrecht\BBA\Hwa}{2007a}]{Albrecht07a}Albrecht,J.~S.\BBACOMMA\\BBA\Hwa,R.\BBOP2007a\BBCP.\newblock\BBOQ{ARe-examinationofMachineLearningApproachesforSentence-LevelMTEvaluation}.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\880--887}.\bibitem[\protect\BCAY{Albrecht\BBA\Hwa}{Albrecht\BBA\Hwa}{2007b}]{Albrecht07b}Albrecht,J.~S.\BBACOMMA\\BBA\Hwa,R.\BBOP2007b\BBCP.\newblock\BBOQ{RegressionforSentence-LevelMTEvaluationwithPseudoReferences}.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\296--303}.\bibitem[\protect\BCAY{Banerjee\BBA\Alon}{Banerjee\BBA\Alon}{2005}]{Banerjee05}Banerjee,S.\BBACOMMA\\BBA\Alon,L.\BBOP2005\BBCP.\newblock\BBOQ{METEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments}.\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMachineTranslationand/orSummarization},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Corston-Oliver,Gamon,\BBA\Brockett}{Corston-Oliveret~al.}{2001}]{Oliver01}Corston-Oliver,S.,Gamon,M.,\BBA\Brockett,C.\BBOP2001\BBCP.\newblock\BBOQ{AMachineLearningApproachtotheAutomaticEvaluationofMachineTranslation}.\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\148--155}.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{Doddington02}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQ{AutomaticEvaluationofMachineTranslationQualityUsingN-gramCo-OccurrenceStatistics}.\BBCQ\\newblockIn{\BemProceedingsofthe2ndHumanLanguageTechnologiesConference},\mbox{\BPGS\128--132}.\bibitem[\protect\BCAY{Gamon,Aue,\BBA\Smets}{Gamonet~al.}{2005}]{Gamon05}Gamon,M.,Aue,A.,\BBA\Smets,M.\BBOP2005\BBCP.\newblock\BBOQ{Sentence-levelMTevaluationwithoutreferencetranslations:Beyondlanguagemodeling}.\BBCQ\\newblockIn{\BemProceedingsofEAMT10thAnnualConference},\mbox{\BPGS\103--111}.\bibitem[\protect\BCAY{Kotani,Yoshimi,Kutsumi,\BBA\Sata}{Kotaniet~al.}{2009}]{Kotani09b}Kotani,K.,Yoshimi,T.,Kutsumi,T.,\BBA\Sata,I.\BBOP2009\BBCP.\newblock\BBOQ{ValidityofanAutomaticEvaluationofMachineTranslationUsingaWord-alignment-basedClassifier}.\BBCQ\\newblockIn{WenjieLiandDiegoMoll{\'a}-Aliod}\BED,{\Bem{ComputerProcessingofOrientalLanguages:LanguageTechnologyfortheKnowledge-BasedEconomy}},\lowercase{\BVOL}\5459of{\Bem{LectureNotesinArtificialIntelligence}},\mbox{\BPGS\91--102}.{Springer}.\bibitem[\protect\BCAY{Kulesza\BBA\Shieber}{Kulesza\BBA\Shieber}{2004}]{Kulesza04}Kulesza,A.\BBACOMMA\\BBA\Shieber,S.~M.\BBOP2004\BBCP.\newblock\BBOQ{ALearningApproachtoImprovingSentence-LevelMTEvaluation}.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation},\mbox{\BPGS\75--84}.\bibitem[\protect\BCAY{森\JBA吉田}{森\JBA吉田}{2006}]{Mori06}森敏昭\JBA吉田寿夫(編著)\BBOP2006\BBCP.\newblock\Jem{{心理学のためのデータ解析テクニカルブック}}.\newblock北大路書房.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{Och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQ{ASystematicComparisonofVariousStatisticalAlignmentModels}.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.\BBOP2002\BBCP.\newblock\BBOQ{BLEU:aMethodforAutomaticEvaluationofMachineTranslation}.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Paul,Finch,\BBA\Sumita}{Paulet~al.}{2007}]{Paul07a}Paul,M.,Finch,A.,\BBA\Sumita,E.\BBOP2007\BBCP.\newblock\BBOQ{Translationqualitypredictionusingmultipleautomaticevaluationmetrics}.\BBCQ\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\95--98}.\bibitem[\protect\BCAY{Quirk}{Quirk}{2004}]{Quirk04}Quirk,C.~B.\BBOP2004\BBCP.\newblock\BBOQ{TrainingaSentence-LevelMachineTranslationConfidenceMeasure}.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\825--828}.\bibitem[\protect\BCAY{隅田\JBA佐々木\JBA山本}{隅田\Jetal}{2005}]{Sumita05}隅田英一郎\JBA佐々木裕\JBA山本誠一\BBOP2005\BBCP.\newblock機械翻訳システム評価法の最前線.\\newblock\Jem{情報処理},{\Bbf46}(5),\mbox{\BPGS\552--557}.\bibitem[\protect\BCAY{Sun,Liu,Cong,Zhou,Xiong,Lee,\BBA\Lin}{Sunet~al.}{2007}]{Sun07}Sun,G.,Liu,X.,Cong,G.,Zhou,M.,Xiong,Z.,Lee,J.,\BBA\Lin,C.\BBOP2007\BBCP.\newblock\BBOQ{DetectingErroneousSentencesusingAutomaticallyMinedSequentialPatterns}.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\81--88}.\bibitem[\protect\BCAY{田中\JBA南條\JBA吉見}{田中\Jetal}{2008}]{Tanaka08}田中元貴\JBA南條浩輝\JBA吉見毅彦\BBOP2008\BBCP.\newblock{機械翻訳文と人間による翻訳文で構築した識別器による機械翻訳システムの自動評価}.\\newblock\Jem{言語処理学会第14回年次大会発表論文集},\mbox{\BPGS\865--868}.\bibitem[\protect\BCAY{田中\JBA山際}{田中\JBA山際}{2005}]{Tanaka05}田中敏\JBA山際勇一郎\BBOP2005\BBCP.\newblock\Jem{{新訂ユーザーのための教育・心理統計と実験計画法}}.\newblock教育出版.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2003}]{Uchiyama03}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2003\BBCP.\newblock\BBOQ{ReliableMeasuresforAligningJapanese-EnglishNewsArticlesandSentences}.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\72--79}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik98}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\Bem{StatisticalLearningTheory}}.\newblockWiley-Interscience.\bibitem[\protect\BCAY{吉見}{吉見}{2001}]{Yoshimi01a}吉見毅彦\BBOP2001\BBCP.\newblock英日機械翻訳における代名詞翻訳の改良.\\newblock\Jem{自然言語処理},{\Bbf8}(3),\mbox{\BPGS\87--106}.\end{thebibliography}\begin{biography}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部勤務.2004年より2008年まで(独)情報通信研究機構専攻研究員を兼任.}\bioauthor{小谷克則}{2004年関西外国語大学外国語学研究科博士課程修了(英語学博士).2002年より2008年まで(独)情報通信研究機構特別研究員.2004年より関西外国語大学外国語学部勤務.}\bioauthor{九津見毅}{1990年大阪大学大学院工学研究科修士課程修了(精密工学—計算機制御).同年シャープ株式会社に入社.現在,同社ビジネスソリューション事業本部要素技術開発センター新規事業開発室主事.1990年より機械翻訳システムの研究開発に従事.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社ビジネスソリューション事業本部要素技術開発センター新規事業開発室副参事.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).1980年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.情報通信研究機構上席研究員を経て,現在,豊橋技術科学大学情報メディア基盤センター教授.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\end{biography}\biodate\end{document}
V28N02-12
\section{はじめに} 機械学習モデルは,モデルの構造やその最適化手法に加え,実際に学習する事例集合によって性能と挙動が特徴づけられる.それを踏まえ,ある訓練事例が学習後のモデルに与える影響の解析は,これまで広く研究がなされてきた\cite{cook1977detection,koh17understanding,zhang2018trust,hara19dataclean}.事例ごとの影響を正しく把握することで,学習後のモデルの挙動や予測を解釈することに役に立つほか,事例の貢献度を考慮したデータフィルタリングなどの応用にもつながる.特に,自然言語処理などの分野で幅広く使われているディープニューラルネットワークモデルについては,性能の向上が著しい\cite{devlin2019bert}.その一方で,学習後のモデルの挙動や特性を理解することが極めて困難であるブラックボックス性が応用上の課題となっており,データに紐付けて説明を行うアプローチはその解決手段の一つとして有望視されている\cite{koh17understanding,plumb2018example,ouchi2020instance}.この事例ごとの影響値の最も素朴な計算方法は,あるモデルをデータセット全体で訓練し,その後同様の訓練手続きを一事例だけ除いたデータセットの上でも実施することである.このような操作(leave-one-outretraining)で作成した2つのモデルの予測の差を比較することは,除外対象の一事例の影響値を計測することに概ね相当する.しかし,この方法は解析したい事例ごとにモデルを再訓練して保存する必要があり,データセット全体への解析や解釈などを行う際には,非常に長い計算時間とモデルの保存容量を要する.例えば,予測に最も寄与した事例をユーザーに提示することでモデルの解釈性を高めたい場合を考える.このとき,訓練事例数$|D|$に依存した回数の訓練と個数のモデルの保存が予め必要となる.さらに,実際に推論する際にも,事例ごとの$|D|$回分の推論のたびに新たにモデルを読み込む必要があり,BERT\cite{devlin2019bert}のような巨大なモデルの場合,読み込みにも無視できない時間がかかる.この単純なleave-one-outの再訓練を行う他に,影響値を近似的に推定する手法がこれまで提案されてきたが\cite{koh17understanding,hara19dataclean},計算量の課題や適用可能なモデルの制約などが依然として存在するため,実用性を大きく損なっている.ニューラルネットワークを用いた実験も行われているが,典型的にモデルサイズが非常に小さく\cite{koh17understanding,hara19dataclean},また,より大きいモデルに適用を試みた実験でも上述の計算量の課題が報告されている\cite{han2020explaining}.そこで,本論文では,訓練事例の影響の計算を巨大なニューラルネットワークモデルにおいても実用的にするため,新たな推定手法\emph{turn-overdropout}を提案する.turn-overdropoutはその名の通りdropout\cite{srivastava14dropout,hinton12dropout}を活用した手法であり,dropoutを事例ごとに決定的なサブネットワークのみを訓練する手法として新たに定式化したものである.訓練終了後には,各事例について,影響を受けていないサブネットワークと受けているサブネットワークの両方で予測が行えるため,その差分から事例ごとの影響を近似的に推定することができる.この推定では,ニューラルネットワークの前向き計算による予測を2回実行するだけであり,\cite{hara19dataclean}と\cite{koh17understanding}の手法に比べて大幅に高速である.また,訓練に関しても,通常通りに一つのデータセット上で訓練を一度行ったモデルを用意するだけで,そこに含まれる全事例に関して推定を行うことができ,再訓練も複数のモデルの保存も必要がない.本論文では,先行研究に対する計算量における優位性を議論するとともに,文書分類タスクと画像物体認識のタスクにおいて推定の有効性を示す実験を行った.提案手法を文書分類と画像物体認識におけるBERT\cite{devlin2019bert}およびVGGNet\cite{simonyan15vgg}に適用し訓練事例への紐付けを行うことで,解釈性の高い形でモデルの予測を解析できることを示した.また,サブネットワークの学習曲線の解析やデータフィルタリングの実験を通して,提案手法が事例間の関係性を適切に捉えていることを定量的に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{訓練事例の影響値} \label{sec:influence_formulation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{問題設定}まずはじめに,本論文で扱う問題設定と定式化に関して説明する.本論文では,\cite{hara19dataclean}の定義にならい,ある訓練事例を学習に用いた際の,また一方のある事例(典型的にはテストデータセット内の事例)の予測に関する影響値(\emph{influence})について議論する.$z:=(x,y)$をある訓練事例とし,その内の入力を$x\inX$および(正解)出力を$y\inY$とする.また,$D:=\{z_i\}_{i=1}^N$で$N$個の事例集合からなるデータセットを表す.データセット$D$を訓練事例集合として,SGDなどの最適化手法を適用することで,関数$f_D\colonX\toY$を学習する.特に本論文では学習されたパラメータを持つニューラルネットワーク$f_D$について議論する.$L(f,z)$を損失関数とすると,学習の目的は$\hat{f}_D:=\mathrm{argmin}_{f}\mathbb{E}_{z_i\inD}L(f,z_i)$\footnote{なお,典型的には,訓練データセット$D$上で損失関数の最小化を達成するモデルは,その他の未知の事例に対して汎化した性能が出ないため,訓練に用いられないデータセット$D_{\mathrm{dev}}$について$\mathbb{E}_{z_{\mathrm{dev}}\inD_{\mathrm{dev}}}L(f,z_{\mathrm{dev}})$となる最適化を目指すことが多い.}を得ることである.本論文の実験では,特に分類問題の正解ラベルと予測の差に関するクロスエントロピーを損失関数として用いるが,提案手法は一般的な他の損失関数に関しても適用可能である.影響値(\textit{influence})$I(z_{\mathrm{target}},z_i;D)$は,事例$z_{\mathrm{target}}$に関する予測について,訓練事例$z_i$を学習したことの定量的な利得を表す.$f_{D\setminus\{z_i\}}$をデータセット$D$から事例$z_i$を抜いて訓練した場合のモデルとすると\begin{equation}I(z_{\mathrm{target}},z_i;D)=L(f_{D\setminus\{z_i\}},z_{\mathrm{target}})-L(f_{D},z_{\mathrm{target}})\label{eq:influence}.\end{equation}と影響値は表される.直観的には,影響値が正に大きくなるほど,訓練事例$z_{i}$は事例$z_{\mathrm{target}}$の予測に関する損失の減少に大きく貢献していることになる.典型的には,この推定時の参照事例$z_{\mathrm{target}}$は,テストや開発用のデータセットに含まれている事例である.特に,あるテスト事例に対する誤り予測ラベルでの損失に関して,訓練事例ごとに式(\ref{eq:influence})の値を計算し比較することで,その誤りに寄与した訓練事例たちを特定することができ,モデルの解析に有用であるとして研究されてきた\cite{koh17understanding}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連手法}式(\ref{eq:influence})の影響値を素朴に計算するためには,事例ごとに新たにモデルの訓練が必要になり,その計算量は非常に大きい.その代替として,これまで幾つかの推定手法が提案されてきた.まず,Koh・Liang\cite{koh17understanding}の推定手法は影響関数(influencefunction)に基づいて提案されたものである.定式化としては強凸な関数のみに適用可能であり,また,解析対象のモデルについても,大域的最適解として損失の最小化が済んだパラメータを仮定している\footnote{%厳密には,Koh・Liang\cite{koh17understanding}が扱っている値は,我々やHaraら\cite{hara19dataclean}が扱う式(\ref{eq:influence})の値とは似て非なるものである.単純に述べると,Koh・Liang\cite{koh17understanding}の定式化では強凸な関数の最適なパラメータに関してのみ$f_{D\setminus\{z_i\}}$と$f_{D}$の差を議論している.一方で,我々とHaraら\cite{hara19dataclean}の定式化では,そのような条件や制約はなく,より広い問題として扱っている.本論文では,Haraら\cite{hara19dataclean}に従い,式(\ref{eq:influence})の定義は$f_D$及び$f_{D\setminus\{z_i\}}$について,同じ初期値から事例$z_i$を除いて同じ最適化手続きを行う限り,モデルの制約を付けない.例えば,確率的勾配降下法(SGD)においては,ミニバッチの順序及び構成についても$z_i$を除き,完全に一致した最適化を行う設定で議論するが,その更新回数などにも制約はない.}.ニューラルネットワークを始めとする多くのモデルはその条件を満たさないが,\cite{koh17understanding}や\cite{han2020explaining}などは,手法に一部修正を施すことで簡易的にニューラルネットワークに適用した場合においても実験的には有用な推定が行えることを議論している.その一方で,実験対象のモデルサイズは非常に小さい\cite{koh17understanding}.モデルサイズが大きい場合の検証はこれまで少ない他,その計算量の大きさについても実用上の観点から依然として大きな課題になっている\cite{han2020explaining}.次に,Haraら\cite{hara19dataclean}は上記のような制約のない推定手法を新たに提案した.しかし,その手法は訓練過程の多くのモデルスナップショットを保存するための大きな保存容量を必要とするほか,推定時にはモデルの更新回数に依存したスナップショットの読み出しと重い計算処理を行う.そのため,同様に,大きなモデルに対して適用することは計算量と保存容量の観点から現状困難である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連手法との計算量の比較}\label{sec:comparison_of_comp}これらの既存手法に比べて,本論文での提案手法(\ref{sec:proposed}節で後述)は非常に効率的である.計算量の理論的な比較のため,訓練の時間計算量(Training),モデルの保存に要するディスク保存容量(Storage),影響値推定時の時間計算量(Estimation)を表~\ref{tab:computation_order_table}にまとめた.影響値推定の時間計算量は,あるテスト事例1つの予測に関して訓練データセット$D$内の各事例の影響値を推定する状況での計算量を記述した.例えば,あるテスト事例の予測に関して各訓練事例の寄与を解析したいケースはこの状況に相当する.表~\ref{tab:computation_order_table}から明らかなように,提案手法はどの項目においても最も効率的な水準であり,いずれの既存手法よりも総合的に効率的であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{11table01.tex}\hangcaption{%提案手法,\protect\cite{hara19dataclean},\protect\cite{koh17understanding}ごとに必要な計算量と保存容量の比較.あるテスト事例1つの予測に関して,訓練データセット$D$の全事例の影響値を計算した場合について示した.$|\theta|$はモデルのパラメータ数,$F$は前向き計算あるいは後ろ向き計算の計算量,$F'$は二階微分の後ろ向き計算の計算量,$T$は訓練中の更新回数,$B$は訓練中のミニバッチ内の事例数.\protect\cite{koh17understanding}の$b$は近似計算時のミニバッチ内の事例数,$rt$はハイパーパラメータの一種であり,典型的には$rt\approx|D|$である.詳細は本文を参照.}\label{tab:computation_order_table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,モデルの訓練にかかる時間については,データごとに新たにモデルを用意する必要があるRe-trainでは大幅にコストがかかる.その他の手法Hara+,Koh+,本提案手法については,訓練にかかる時間は基本的に同じである.次に,保存容量については,除外対象のデータごとに個別のモデルを保存しておく必要があるRe-trainや,訓練中のモデルのスナップショットを頻繁に保存する必要があるHara+ではコストが大きい.そして,推定においては,Re-train及び本提案手法では,ニューラルネットワークの2度の前向き計算(推論)\footnote{また,本提案手法は,\cite{koh17understanding}の手法及び\cite{hara19dataclean}の手法とは異なり,勾配の情報を用いずに,ニューラルネットワークの前向き計算自体を行って推定を行う特徴がある.そのため,微分可能でない(損失)関数についても適用が可能であり,また,損失関数のようなスカラー値の出力以外にも,途中の隠れ層ベクトル等に関する影響値も効率的に推定しすることが可能である.また,前向き計算自体を行うため,式(1)のような(「差」に着目した)影響値のみならず,途中の隠れ層の個々の解析も可能である.これらのケースにおける検証は本論文では含めず,今後の課題とする.}を行うだけで済むのに比べ,Hara+,Koh+では大きな計算量がかかってしまう.さらに,Re-train,Hara+,Koh+では推論時の計算の一部あるいは全部を,1つの対象データごとに別々のミニバッチ(すなわちバッチサイズが1)で計算する必要がある.一方で,提案手法では異なる訓練事例に関する推定を同じミニバッチで一括処理することが可能であり,GPUでの計算の効率性を大きく上げられる利点がある\footnote{%例えば,BERT-baseの前向き計算をバッチサイズ32で計算する場合は,バッチサイズ1で計算する場合に比べて,同じ時間あたりに約5倍の量の事例を処理することができた.計算には,含意関係認識のMulti-GenreNLIdataset\cite{williams2018mnli}のデータセットを使用した.}.実験的には,BERT-baseを用いた含意関係認識タスクで,あるテスト事例1つの予測に関して10,000個の訓練事例の影響値を求めた場合,Koh・Liang\cite{koh17understanding}の手法が約10分かかった\cite{han2020explaining}一方で,提案手法では同条件の10,000訓練事例から1テスト事例への影響値推定に35秒しかかからなかった\footnote{%Hanら\cite{han2020explaining}は,Koh・Liang\cite{koh17understanding}の手法をBERT-baseモデルに適用し,含意関係認識のMulti-GenreNLIdataset\cite{williams2018mnli}において,10,000個の訓練事例からある1事例への影響値の推定を行う場合,NVIDIAGeForceRTX2080TiGPU一つを用いて10分かかったと報告している.我々も同様に,同データセットと同じGPUの製品を用いて実験を行ったところ,提案手法のturn-overdropoutでは,35秒で1事例への推定を終えることができた.なお,どちらの実装も同じライブラリ\cite{hugging2019transformer}から派生したもので,実装による速度の差異は軽微であると考えられる.}.よって,このケースでは,提案手法では先行研究の\cite{koh17understanding}の手法に比べて約17倍高速に処理を終えることができた.このように提案手法の優位性はその非常に高速に処理を終えることができる点であり,訓練事例の影響の推定を実応用に向けて進展させることができたと考えられる.なお,大量の事例に対して同様に推定を行いたい場合では,複数GPUを用いて並列計算を行うことで高速化を行うことができるが,それは表1に示した4つの手法全てで適用可能であり,速度の比自体に大きな変化はない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{sec:proposed}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Dropout}Dropout\cite{hinton12dropout,srivastava14dropout}は,ニューラルネットワークの訓練において頻繁に使われる正則化手法である.訓練中には,ある層の隠れ状態ベクトルについてその次元数$d$と同じサイズの$d$次元のマスクベクトル$\boldsymbol{m}$をサンプリングし,隠れ状態の値に要素積をとる.マスクベクトル$\boldsymbol{m}\in\{0,\frac{1}{p}\}^d$の各要素$m_j$は,確率$p$のベルヌーイ分布から独立にサンプリングされて係数$\frac{1}{p}$によって定数倍された値である($m_j:=\frac{m'_j}{p},\,m'_j\sim\textrm{Bernoulli}(p)$).$p$は要素が非ゼロとなる確率を表すハイパーパラメータであるが,本論文では0.5とする.すなわち,約半数の要素がゼロとなる設定を考える.dropoutでは,学習後の推論時にはマスクを使わないモデルで素朴に計算を行う.典型的なdropoutは上記のように隠れ状態に対する要素積として実施されるが,より一般化すると,マスクベクトルによるdropoutはモデルのパラメータへ適用されているものとして解釈できる.例えば,あるパラメータ行列$W$をかける前の隠れ状態にマスクベクトル$\boldsymbol{m}$で要素積をとった場合,隠れ状態内の各次元に対応する$W$の行に一括で積をとっていることに相当する.特に,あるマスクベクトルの要素が$0$であるとき,対応する$W$内のパラメータに$0$がかかるため,モデルの計算においてそのパラメータは全く寄与しなくなる.言い換えると,このようにdropoutをニューラルネットワークの各層で行う場合,あたかもマスクベクトル$\boldsymbol{m}$に応じて枝刈りされたサブネットワーク$f^{\boldsymbol{m}}$を用いた演算を行っているように見なせる.訓練時には,各更新ごとに異なるマスクベクトルが使われるため,様々なサブネットワークがランダムに選ばれ学習していくことになる.これまでの研究\cite{hinton12dropout,srivastava14dropout,bachman2014,baldi2014,bulo16dropoutdistillation}でも,上記のようにdropoutが多数のサブネットワークの訓練をし,推論時の全体ネットワークはそれらのアンサンブルとして演算されていると言われている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-2ia11f1.pdf}\end{center}\hangcaption{%提案手法の概略図.Dropoutは各訓練事例$z$ごとにサブネットワークを生成することができる.そして,その残ったパラメータのみ(赤;上部)を更新する.反対に,反転したサブネットワーク(青;下部)はその事例$z$の影響を受けないままになる.提案手法ではこの二つのサブネットワークの差を推定に用いる.}\label{fig:dropout_fig_more}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法:Turn-overDropout}上で述べた典型的なdropoutでは,マスクベクトルは訓練中の更新ごとに独立にランダムサンプリングされる.一方,本提案手法では,各訓練事例$z$ごとに異なる\emph{事例固有マスク}$\boldsymbol{m}(z)$を決定的に使い続けるものとする.より正確には,事例固有のマスクは同様にベルヌーイ分布からサンプリングされたランダムな値をとるが,それを事例ごとに固定させ,ある事例を用いた訓練時には必ず決定的に同じ値を使い続けるものとする.そのため,図~\ref{fig:dropout_fig_more}の上部に示すように,ある事例$z$で訓練を行う際には同じ$\boldsymbol{m}(z)$が使われるため,その前向き計算及び後ろ向き計算も常に固有のサブネットワーク$f^{\boldsymbol{m}(z)}$(赤)によってのみ行われることになる.言い換えると,サブネットワーク$f^{\boldsymbol{m}(z)}$のパラメータが更新される一方で,そのマスクを反転,すなわちゼロ・非ゼロ要素の位置を逆転させたようなマスク(以下,\emph{反転マスク})$\widetilde{\boldsymbol{m}}(z)=\frac{1}{p}-\boldsymbol{m}(z)$(図~\ref{fig:dropout_fig_more}の中央参照)を使った相対するサブネットワーク$f^{\widetilde{\boldsymbol{m}}(z)}$のパラメータは一切$z$の影響を受けて更新されることがないと言える.したがって,このようなサブネットワーク$f^{\widetilde{\boldsymbol{m}}(z)}$は,本来のモデルのネットワーク$f$に比べて表現力が弱まっているものの,まさしく「ある事例$z$を\emph{使わずに}訓練したモデル」となっている.そして,サブネットワーク$f^{\boldsymbol{m}(z)}$は同等の表現力を持つ「ある事例$z$も\emph{使って}訓練したモデル」である.本論文では,この2つのサブネットワークを類推的に式~(\ref{eq:influence})の$f_{D}$と$f_{D\setminus\{z_i\}}$の近似として活用し,その出力を推定に使うことを提案する.すなわち,影響値$I(z_{\mathrm{target}},z_i;D)=L(f_{D\setminus\{z_i\}},z_{\mathrm{target}})-L(f_{D},z_{\mathrm{target}})$を次のように推定する.\begin{equation}\hat{I}(z_{\mathrm{target}},z_i;D):=L(f_{D}^{\widetilde{\boldsymbol{m}}(z_i)},z_{\mathrm{target}})-L(f_{D}^{\boldsymbol{m}(z_i)},z_{\mathrm{target}}),\end{equation}これは$z_{\mathrm{target}}$の予測に関して,$f_{D}^{\widetilde{\boldsymbol{m}}(z_i)}$の代わりに$f_{D}^{\boldsymbol{m}(z_i)}$を使った場合の利得(損失の減少)を表す.本提案手法を,以後\emph{turn-overdropout}と呼ぶ.turn-overdropoutの利点は影響値の推定のために必要なコストが非常に小さいことであり,以下のようにまとめられる.\begin{itemize}\setlength{\itemsep}{2pt}\setlength{\parskip}{0pt}\setlength{\itemindent}{0pt}\item\textbf{計算時間が少ない}:提案手法は,ある事例ペアの影響値推定に関して,モデルの前向き計算を2回行うだけで実行可能である.また,一つのミニバッチ内で別の訓練事例に関する処理をまとめて行うことができる\footnote{dropoutは,ニューラルネットワークの各層の出力結果である隠れ層ベクトルに対して,dropoutのマスクベクトルを要素積で掛け合わせることで実現できるため,ミニバッチ内の各事例について各マスクベクトルをミニバッチとして用意・保持し,そのままバッチ演算を行うことが可能である(付録\ref{sec:appendix_implementation_by_pytorch}参照).なお,本論文のdropoutとは違い,パラメータ行列自体に行列形式のdropoutマスクをかけるdropconnect\cite{wan13dropconnect}を用いたい場合は,異なるマスクを用いたバッチ演算を行うことができない.}.\item\textbf{モデルの保存容量が少ない}:訓練時に提案手法を組み込んでおくことで,1度の訓練でデータセット中の全事例に関して推定が行える.更新ごとのスナップショットや再訓練は不要である.\item\textbf{実装が簡易}:提案手法の仕組みは極めてシンプルであり,実装の修正が最小限で済む.実装の例を付録\ref{sec:appendix_implementation_by_pytorch}に示した.\end{itemize}本提案手法では,サブネットワークへの1訓練事例の影響を推定し,それを全体のネットワークへと転用して推定している.\cite{hinton12dropout,srivastava14dropout,bachman2014,baldi2014,bulo16dropoutdistillation}が論じたように,ニューラルネットワークの全体のネットワークは各サブネットワークのアンサンブルに相当している.全体のネットワークの性質はパラメータ集合に分散的に学習されているため,そのパラメータの部分集合を用いる各サブネットワークもその全体のネットワークと非常に近い挙動を示す.例えば,一例として,学習後の全体のネットワークを枝刈り\cite{blalock2020pruning}した場合も同様の精度を達成する.また,全体のネットワークの出力(分類層の直前)とdropoutによるサブネットワークを比べたり,サブネットワーク同士の出力を比べてたりしてみても,経験的にはそれらの出力は非常に近い値になる\footnote{%例えば,\ref{sec:experiments}~節の実験で扱った,CIFAR-10\cite{krizhevsky09cifar10}の訓練データセットで学習したVGGNet\cite{simonyan15vgg}において,テストデータセットの画像それぞれについて,全体のネットワークの出力とdropoutによるサブネットワークの出力を比較すると,そのコサイン類似度は平均で0.9897となった.また,異なるサブネットワーク同士でのコサイン類似度も0.9804となった.}.本提案手法では,上記の「異なるサブネットワーク間の挙動は平均的には同じである」及び「サブネットワークと全体ネットワークの挙動は平均的には同じである」というニューラルネットワークの特性を利用している.これは,典型的に性能を保持したまま枝刈りが行えるような,冗長なパラメータを持つネットワークではしばしば成り立つと考えられる.一方で,もし十分なパラメータを持たない小さなモデルや低次元空間で計算を行うような場合では,サブネットワークごとの挙動に違いが生まれやすくなり,提案手法の有効性も下がりやすい.本論文では,そのような小さいネットワークのモデルは扱わず,提案手法の高速という利点が特に役に立つBERTなどの巨大なネットワークでのみ実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{効率的な事例固有のマスクの実装}\label{sec:mask_construction}愚直には,事例固有のマスクを用いるということは,データセット内の事例数に比例して新たにパラメータを用意する必要があり,メモリ空間やディスク容量増加の原因になりうる.しかし,このコストは本節で提案する\emph{揮発性マスク生成}によって$O(|D|)$から$O(1)$へと劇的に減らすことができる.まず注目すべき点として,提案手法のturn-overdropoutでは,マスクはランダムなベクトルであればよく,かつ訓練中に更新されることはない.また,一般的なランダム配列生成の実装ではシード値とサイズを与えることで決定的な挙動をし,常に固定のベクトルを生成することができる.例えば,事例ごとのインデックス番号をシード値として与えることで,常にその事例に応じたベクトルを生成することができる.したがって,マスクのベクトルそのものは保存しておく必要がなく,それらベクトルを生成する手続き(生成アルゴリズムとシード値)さえ保持しておいて必要な際に生成を行えばマスクのパラメータが得られることになる.保存や保持のための容量や空間計算量を減らす代わりに,ランダム値の再生成の時間計算量がかかることになるが,一般にランダム値の生成は非常に高速なためほとんど無視することができる\footnote{%本論文の実験では,揮発性マスク生成法によって,事例固有のマスクを利用する場合に保持する必要があるパラメータ数を減らし,容量とメモリの問題を回避できた.しかし,さらに膨大なデータを使う場合などの特有のケースでは,問題の回避のために実装にさらなる工夫が必要となる場合がある.そのようなケースの説明とさらなる解決方法については付録~\ref{sec:hash_composition_appendix}に詳述した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:experiments}本論文の貢献は,式(1)の値を推定するための高速な手法を提案することである.\pagebreakこれにより,先行研究の\cite{koh17understanding}や\cite{hara19dataclean}の手法では膨大な計算コストがかかってしまう,モデルの予測結果ごとの解析を短時間で実行できる.提案手法の計算量についての優位性は,\ref{sec:comparison_of_comp}節で議論した.本節では,提案手法turn-overdropoutを幾つかの分類タスクで学習するニューラルネットワークモデルに適用し,速度面以外のその有効性を示す.まず,\ref{sec:learning_curves}~節では,turn-overdropoutの適用時に,サブネットワークがどのような振る舞いをしているのかをその学習過程を観察することで検証する.そして,\ref{sec:experiment_interpretation}~節では,実際にモデルが誤り予測をした場合についてその原因となった訓練事例を解析し,解釈性の高い予測根拠\cite{jacovi2020faithful}を提示できていることを示す.\ref{sec:experiment_datacleasing}~節では,推定された値が予測に紐付いており信頼性のあることを確認するために,影響値を用いたデータフィルタリングの実験を行い,``悪い''影響をもたらしていると推定された訓練事例を除外した場合にモデルの汎化性能が向上することを示す.最後に,\ref{sec:experiment_side_effect}~節では,dropoutやスパースなネットワークでの訓練がときとしてモデルの性能を悪化させうる問題について議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセットとモデル}\label{sec:dataset_and_model}まず1つ目のデータセットとして,二値極性分類タスクのStanfordSentimentTreeBank(SST-2)\cite{socher2013sst}を用いた.SST-2では,映画のレビューテキストについてそのテキストが``positive''なのか``negative''なのかの二値ラベルが付与されている.元の訓練データセットからランダム抽出した5,000事例を訓練データセットとして使い,開発データセットとしては元の872事例をそのまま用いた.モデルは,事前訓練済みのBERT\cite{hugging2019transformer}に基づく分類器を,adaptermodules\cite{hugging2019transformer}によって構築した.これはBERTのネットワークの各ブロックについて,新たに枝分かれネットワークを挿入し,元のネットワーク出力に対する残差として和を取るような構造を持つ.元々のBERTのネットワークは事前訓練後のパラメータを固定し,新たに追加される枝分かれネットワークと分類層のみをSST-2でfine-tuningする.また,turn-overdropoutも同様にfine-tuningが行われる箇所のみに適用する.2つ目に,さらに複雑なタスクとして,Yahoo!\AnswersDataset\cite{zhang2015yahoo}をデータセットとして用いた.これは,投稿者の質問のトピックが10種類の分類のうちどれに属するかを予測するタスクであり,単語だけでは判別できないような抽象度の高いトピックへ分類する必要がある.訓練事例数やモデル等の設定は上のSST-2と同様にした.3つ目のデータセットとして,自然言語処理だけでなく画像認識への応用として,犬・飛行機などからなる10クラスの画像分類タスクであるCIFAR-10\cite{krizhevsky09cifar10}の50,000事例の訓練データセットと10,000事例の開発データセットを用いた.畳み込みニューラルネットワークからなるVGGNet19\cite{simonyan15vgg}による分類器を訓練した.turn-overdropoutは,11層目以降に適用した.BERTとVGGNet19の両分類器は共に分類の正解ラベルと予測の差に関するクロスエントロピーの最小化で最適化した.より詳細な設定は付録~\ref{sec:experiment_setting_appendix}に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習曲線}\label{sec:learning_curves}turn-overdropoutでは,事例固有マスクを適切に切り替えて生まれるサブネットワークが各事例を見ていないサブネットワークとして使えることを前提に置いている.本節では,そのような特性がturn-overdropoutによって本当に獲得されているのかを直接的に検証するために,サブネットワークごとの損失の値について学習曲線を観察する.具体的には,各訓練事例を見ていない反転マスク$\widetilde{\boldsymbol{m}}(z_{\mathrm{train}})$のサブネットワーク$f_{D}^{\widetilde{\boldsymbol{m}}(z_{\mathrm{train}})}$が,その対応する訓練事例$z_{\mathrm{train}}$について過剰適合(overfitting)しないことを確認する.BERTをSST-2で訓練した際の損失関数の変化を図~\ref{fig:sst2_loss_curves}に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-2ia11f2.pdf}\end{center}\caption{BERTをSST-2で訓練した場合の損失関数の学習曲線.}\label{fig:sst2_loss_curves}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まずはじめに,2つの点線が示すのはテストデータセットで計算された損失であり,下に行けば行くほど性能は改善しているとみなせる.2つの点線はどちらも訓練が進むにつれて,一定の値まで下がっていった後に概ね停滞し,最後にはわずかに上昇していく.赤い点線が示すのは,各訓練事例の固有マスク$\boldsymbol{m}(z_{\mathrm{train}})$のサブネットワーク$f_{D}^{\boldsymbol{m}(z_{\mathrm{train}})}$を用いた場合の平均で,青い点線はその反転マスク$\widetilde{\boldsymbol{m}}(z_{\mathrm{train}})$のサブネットワーク$f_{D}^{\widetilde{\boldsymbol{m}}(z_{\mathrm{train}})}$を用いた場合の平均である.訓練に使っていないテストデータセットにおける性能は一般に汎化性能を表すことから,事例固有マスクによるサブネットワーク$f_{D}^{\boldsymbol{m}(z_{\mathrm{train}})}$とその反転マスクによるサブネットワーク$f_{D}^{\widetilde{\boldsymbol{m}}(z_{\mathrm{train}})}$の間では未知のデータに対しては大きな性能差はないことが言える.次に,2つの実線が表す訓練データセット上での損失に注目する.赤い実線が示すのは,事例固有マスク$\boldsymbol{m}(z_{\mathrm{train}})$のサブネットワーク$f_{D}^{\boldsymbol{m}(z_{\mathrm{train}})}$で計算した訓練データセット上での損失$L(f_{D}^{\boldsymbol{m}(z_{\mathrm{train}})},z_{\mathrm{train}})$である.すなわち,事例固有のマスクで訓練していく中で計算されて最小化される損失そのものである.この値は下降し続け,通常の訓練でよく見られる最適化の傾向をたどっている.そして,青い実線が示すのは,反転マスク$\widetilde{\boldsymbol{m}}(z_{\mathrm{train}})$のサブネットワーク$f_{D}^{\widetilde{\boldsymbol{m}}(z_{\mathrm{train}})}$を用いて計算した訓練データセット上での損失$L(f_{D}^{\widetilde{\boldsymbol{m}}(z_{\mathrm{train}})},z_{\mathrm{train}})$である.注目すべき特徴として,青い実線では,今述べた赤い実線とは異なり,点線によるテストデータセットでの損失に近い値を取り続けている.すなわち,反転マスクに基づくサブネットワークは,訓練データセット上に過剰適合することなく,対応する訓練データを見なかったかのように振る舞っていることを示唆している.これにより,本実験では,turn-overdropoutが各訓練事例に過剰適合しないサブネットワークを生み出せていることを確認できた.また,この観察は,開発用データセットを別途用意したり交差検定を行わずとも訓練データセットのみから汎化性能を計測することができる応用の可能性も示唆しており,turn-overdropoutのさらなる活用先として今後の研究領域となりうると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練事例への紐付けによる誤り予測の解釈}\label{sec:experiment_interpretation}ニューラルネットワークによる予測モデルは,挙動の仕組みが人間にとって理解し難いブラックボックス性を持ち,それが信頼性や使い勝手を害しているとしばしば批判されている\cite{ribeiro16trust}.その課題に関しても,訓練事例の影響値の推定を用いれば,ある予測に関して大きな影響を及ぼした訓練事例を特定できることを\cite{koh17understanding}が示した.ある誤り予測に際して影響力のあった訓練事例を探し出すことができれば,それは予測を誤った原因を解釈するのに役に立つ.本節の実験では,本提案手法が,十分に解釈性(plausibility)\cite{jacovi2020faithful}の高い「モデルの誤った予測に最も貢献した訓練事例」を提示できることを示す.モデルを訓練し終えた後に,開発用データセットの全事例について予測を行い,その中から誤った分類を与えていた事例だけを集めた.そして,それらの誤分類事例について,誤ったラベルの損失を低くする方向に最も大きい影響値を持つ訓練事例,すなわち,誤った分類に最も貢献してしまったような事例を特定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-2ia11f3.pdf}\end{center}\hangcaption{%BERTをSST-2で訓練した場合における,テストセットの中で誤った予測がなされたテキストと,その誤ったラベルを持つ訓練事例の中で最も影響値が大きかったテキスト.誤って予測されたラベルを赤,正しいラベルを黒で示した.}\label{fig:sst2_interpretation}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,図~\ref{fig:sst2_interpretation}に,BERTをSST-2で訓練した場合の結果を1つ示した.上に示したテキストは本来``positive''と予測されるべきところ,誤って``negative''と予測した.最も影響を及ぼしたのは,その下に示した事例である.両者の共通点として,一般的な単語単位よりさらに細かくsubword\cite{shuster12wordpiece}として分解されたようなトークンを多く含んでいることが目を引く.特に固有表現(steven,soderbergh,solaris)やその他の低頻度の単語(excruciatingly)は細かく多くのsubwordに分割されやすく,このケースではそのような多くに散逸したsubwordの処理に失敗し,同様に多く%のsubwordを含んでいた訓練事例からの影響で誤ったラベルを予測してしまったと推察できる.さらに複雑なタスクとして,Yahoo!\AnswersDataset\cite{zhang2015yahoo}を用いて同様の実験を行った.図~\ref{fig:yahoo_interpretation}にYahoo!\AnswersDatasetでの結果を示した.誤分類された入力テキストは,``ch\#\#rist''というフレーズを含み,それは影響値の高い訓練事例にも含まれている.このタスクでのトピック分類は``Society\&Culture''や``Business\&Finance''などであり抽象度は高い.そのため,本来であれば``ch\#\#rist''のフレーズだけからはトピックを分類できないような低次の特徴であるが,その箇所に引っ張られて,フレーズを共有している訓練事例の影響から誤って``Business\&Finance''と予測してしまっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{28-2ia11f4.pdf}\end{center}\hangcaption{%BERTをYahoo!\AnswersDatasetで訓練した場合における,テストセットの中で誤った予測がなされたテキストと,その誤ったラベルを持つ訓練事例の中で最も影響値が大きかったテキスト.誤って予測されたラベルを赤,正しいラベルを黒で示した.}\label{fig:yahoo_interpretation}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,VGGNetをCIFAR-10で訓練した場合の結果について,図~\ref{fig:cifar10_interpretation}に示した.画像ではテキストよりもさらに直感的に解釈できる結果となった.例えば,左端の2列では,上の``bird''の画像をモデルは``airplane''として誤って予測した.その誤り予測に最も影響した訓練事例は,対応列の下側に示してある.どちらについても鳥の向きや羽の広げ方が飛行機の状態に類似しており,ほとんどシルエットしか見えないテスト事例については,誤って予測してしまうことにも納得が行く結果となった.右側の残る3事例ペアについても``bird''$\rightarrow$``dog'',``dog''$\rightarrow$``deer'',``deer''$\rightarrow$``bird''のような誤り予測について,誤り原因と考えられる学習特徴(形やレイアウトや色など)が推察できるような訓練事例を見つける事ができている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-2ia11f5.pdf}\end{center}\hangcaption{VGGNetをCIFAR-10で訓練した場合における,テストセットの中で誤った予測がなされた画像(上の行)と,その誤ったラベルを持つ訓練事例の中で最も影響値が大きかった画像(下の行).誤って予測されたラベルを赤,正しいラベルを黒で示した.}\label{fig:cifar10_interpretation}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データフィルタリング}\label{sec:experiment_datacleasing}影響値(式(\ref{eq:influence}))は,前節の代表的な応用の他に,データフィルタリングにも応用できることがこれまで示されている\cite{koh17understanding,hara19dataclean}.本節では,提案手法による影響値の計算結果の妥当性・信頼性(faithfulness)\cite{jacovi2020faithful}を,データフィルタリングの実験を通して検証する\footnote{本節の実験は,提案手法による影響値の妥当性に関する一つの検証実験であり,データフィルタリングのタスクにおいて提案手法が(影響値推定以外も含めた)他の手法に比べて有用であると主張するためのものではないが,参考のためにデータフィルタリングに必要となる計算量について,先行研究の\cite{koh17understanding}の手法との比較を付録~\ref{sec:datafiltering_time}に記載した.}.開発用データセット全事例に対する平均損失に関して,訓練事例ごとに式(\ref{eq:influence})の値を計算し比較することで,どの訓練事例が汎化を妨げてしまうのか予想することができる.前節の誤り予測の解釈で論じたように,訓練データセットの中では,他の事例への予測に害をなす事例も存在する.例えば,ある訓練事例がテスト時の様々な未知事例に対して平均的に誤分類を誘発するとき,その訓練事例は汎化性能を損なう事例だといえる.本実験では,そのような訓練事例を特定し除外(フィルタリング)したのちに,モデルをフィルタリング後のデータセットで訓練し直すことで,汎化性能を向上させることができることを示す.一方で,「汎化性能を損なう事例」がそもそも訓練データセットに含まれていなければフィルタリングで性能が上がることはない.今回は,訓練データセットの中に「汎化性能を損なう事例」が十分含まれていることが担保されているような応用上のケースとして,訓練時とテスト時でデータのドメインが変わるドメインシフトの設定で実験を行う.訓練データセットとして映画レビューであるSST-2を用いて,一方で最終的な性能評価のテストデータとしては電化製品レビューであるMulti-DomainSentimentDataset\cite{blitzer-etal-2007-biographies}のelectronicsサブセット(Elec)を用いた.Elecデータセットは200事例を開発用データ,1,800事例をテスト用データとしてランダムに分割した.なお,性能を最大化したい場合には最後の訓練時に開発用データも混ぜて訓練するなどが考えられるが,今回はデータフィルタリングの効果のみを検証するために,Elecのデータセットは訓練データセットには一切含めずに性能を比較した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{11table02.tex}\hangcaption{データフィルタリングによる性能の変化.Lossはクロスエントロピーの値.4回の実験の平均と標準偏差を示した.}\label{tab:data_cleansing_table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず初めにSST-2データセットでBERTをturn-overdropoutを用いたfine-tuningで訓練し,その後に各訓練事例からElecの開発用データに対する平均的な影響値を計算した.そして,その平均影響値が最も悪い(負に大きい)訓練事例を上位1\%取り除いたような,フィルタリング済みの訓練データセットを抽出し,再度BERTをturn-overdropoutなしで訓練した.そして,Elecのテストデータで性能を計測し,結果を表~\ref{tab:data_cleansing_table}に示した(1\%Filtering).比較対象として,ランダムに同量の1\%だけデータを取り除いた場合(1\%RandomFiltering)とデータを取り除かずに訓練した場合(NoFiltering)の性能も並べて示した.turn-overdropoutはデータフィルタリングの段階でのみ用いており,表で比較されている数値はすべてturn-overdropoutなしで訓練されたBERTのものである.実験は異なるシード値によって4回行い,それらの結果の平均と標準偏差を載せた.結果,分類精度についてもロスの値についても,データフィルタリングを行った場合に性能が向上することが確認できた.単にランダムにデータを取り除いた場合にはやはり性能が向上することはなく,turn-overdropoutの推定量に基づくフィルタリングのみが効果的であった.この結果により,影響値の推定のターゲットを一事例でなく事例集合に設定して平均的な影響値を見ることで,対象ドメインでの汎化性能への影響を考慮し,データフィルタリングを行えることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Dropoutの適用箇所}\label{sec:experiment_side_effect}提案手法turn-overdropoutは対象となるモデルにdropoutを導入し,訓練後に効率的に訓練事例の影響値を推定できるようにする手法である.dropout自体は様々なニューラルネットワークで用いられており汎化性能の向上にも役立つことが多いが,過剰に適用した場合には,スパースなネットワークの訓練と同様にモデル性能が悪化してしまうことも考えられる\footnote{%$p=0.5$のdropout自体は様々なニューラルネットワークで用いられており,汎化性能の向上にも役立っている.しかし,全結合層や限られた層のみに適用されている場合も多く,BERTやCNNの全ての層に$p=0.5$で適用した場合の影響については未知数である.また,本提案手法で新たに導入された,事例ごとに紐付いた静的なマスクを使った場合についても,性能への影響もこれまで明らかにはなっていない.}.そのような訓練の不安定性については未だ明らかになっていない点も多い\cite{evci2020gradient}.本節では,どのようにdropoutを適用すれば「性能劣化の防止」と「訓練事例の影響値の推定」を両立できるかを最後に議論する.まず,SST-2でBERTをadaptermodule付きで訓練する場合の,性能低下(テストデータにおける分類精度(accuracy)の低下)の可能性について論じる.実験では,事例数が5,000の小さなデータセットで訓練した場合において,ベースラインの性能が90.0\%だったのに対してturn-overdropoutを用いた場合に88.3\%へとわずかに精度が低下した.事例数がもう少し多い20,000事例での実験では,それぞれ90.5\%と90.2\%の精度となり,ほぼ性能劣化が見られなくなった.したがって,効率的なturn-overdropoutが特に有用であるような大規模なデータセットを扱う場合においては性能の劣化が十分に小さくなり,実用性も十分保てる可能性を示唆している.一方で,adaptermoduleを用いずに,元のBERTをそのまま使って全層でturn-overdropoutを用いた場合には,訓練が不安定になり性能も劣化した.これはturn-overdropout特有の新たな問題ではなく,通常の動的なdropoutを$p=0.5$で用いた場合にも同様である.これは事前訓練の段階で扱っているdropoutの非ゼロ要素率$p=0.9$よりもかなり小さな$p=0.5$を使うことで情報の伝播を大きく妨げてしまい,BERTが安定した計算を行えていない可能性がある.adapterなしのfine-tuningでこのような小さい$p$を使えるようにする解決策としては,事前訓練の段階から小さい$p$を予め使っておくことが考えられる.また,事前訓練直後のモデルのパラメータを固定しておき,fine-tuningではそのパラメータからの差分値のみを別途学習し,その差分値パラメータにのみdropoutをかけるようにすると,情報の伝播を大きく途切れさせることなくturn-overdropoutを適用できる可能性がある.これはdropoutの亜種であるmixout\cite{lee2020mixout}にturn-overdropoutを応用したケースとしてみなせる.画像分類のCIFAR-10データセットでCNNベースのVGGNetを全層へのturn-overdropoutで訓練した場合にも,訓練の不安定性や性能劣化が観測されたが,全層に適用する代わりに一部の層のみに適用した場合には訓練が安定するようになった.そこで我々は,各画像固有の影響を強く受ける層にのみ適用することで,訓練の安定性を上げながら推定を行えるようにすることを考えた.\cite{asano2020a}は,CNNの序盤の層は画像群の統計値について限られた情報のみを保持しており,その低次の統計量についてはたった一枚の画像からですら学習可能であることを示している.この知見に基づき,序盤の層は各画像ごとに固有の情報を多く学習することは少ないと仮定し,後半の層(11層以降)のみにturn-overdropoutを適用した.その結果,分類精度は86.2\%となり,ベースラインの92.0\%よりやや悪い程度の訓練を行えるようになった.ここにさらに,正則化としてのランダムなdropoutも合わせて適用することで,91.3\%まで性能が回復し,ベースラインに匹敵する性能を出すことができた.BERTとVGGNetに基づくこれらの検証により,いくつかのケースでは,dropoutを適用しつつ性能を保持するために適用方法を修正・探索する必要性やその対策方法の例が明らかになった.dropoutやスパースなネットワークにおける学習の不安定性\cite{evci2020gradient}については,現状明らかになっていない点も多く,提案手法の枠内に閉じない今後の重要な研究課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本論文では,旧来の手法が直接的に適用しづらいようなパラメータ数と計算量が膨大なニューラルネットワークを用いる場合についても,非常に小さい実用的な計算コストで訓練事例の影響値を推定する方法を提案した.提案手法では,訓練時にdropoutが従来用いている確率的なマスクベクトルの代わりに訓練事例ごとに紐付いたマスクを決定的に用いる.これにより,訓練後のネットワークは,各事例の影響を受けていないパラメータだけからなるサブネットワークを個別に併せ持つことができ,そのサブネットワークの出力を比較することで影響値を推定できる.また,事例とサブネットワークの紐付け情報を保存しなくてはいけないコストについても,マスクのランダムベクトルそのものでなくそれを生成するためのランダムシードのみを保存することで,劇的に保存容量や空間計算量を抑えられる.実験では,実際に各サブネットワークは過適合していないことを検証し,さらに提案手法が誤り予測の事例ベースの解釈に活用できることを,データフィルタリングによる定量評価も用いて示した.今後のさらなる研究課題としては,提案手法のみならずスパースなネットワークを訓練した際に見られる性能低下現象の解析が考えられる.また,さらなる応用の模索としても,\ref{sec:learning_curves}~節で示唆された汎化性能を訓練データセットのみから計測できる性質に基づいた交差検定の代替としての活用法や,オンラインに高速に影響値を推定できる点を生かして各事例の学習自体を改善する方向性も有望だと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,\pagebreakJST,CREST,JPMJCR20D2(JPMJCR20D2)の助成を受けたものである.また,本研究の一部は,JSPS科研費JP19H04162,人工知能研究振興財団研究助成事業30AI036-8の助成を受けたものである.また,本研究の一部は,JST,ACT-X,JPMJAX200Sの支援を受けたものである.本論文の一部は,FirstWorkshoponSimpleandEfficientNaturalLanguageProcessingで発表したものである\cite{kobayashi2020efficient}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{11refs}%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{実験設定} \label{sec:experiment_setting_appendix}本節では,\ref{sec:experiments}~節で行った実験についてより詳細に設定を記述する.本論文では,BERTとして参照した場合にはすべて,現在最も広く使われているTransformersライブラリ\cite{hugging2019transformer}に含まれる\textit{bert-base-cased}の事前訓練済みモデルを用いた.タスクごとのfine-tuningのハイパーパラメータは,予備実験を行い,開発用データセットにおける精度を元にして調整した.その他の設定はTransformerslibrary\cite{hugging2019transformer}のデフォルトに則った.最終的に使用した及び探索したハイパーパラメータの範囲([])は次の通りである.学習率=5e-5[2e-5,5e-5],バッチサイズ=32,訓練データセット周回数=3[3,6,10].turn-overdropoutを使う場合には周回数を10とした.3や6の周回数でも同様の精度が出る場合はあったものの,これまでの研究\cite{zhang2020revisiting,mosbach2020stability}で報告されている通り,長めの10とした場合が最も安定した.訓練事例数は文書分類のいずれの実験でも5,000個としたが,図~\ref{fig:sst2_loss_curves}で学習曲線を示す際には,視認しやすくするために,事例数を25,000個へと増やした設定で訓練を行った.Multi-DomainSentimentDataset\cite{blitzer-etal-2007-biographies}は\url{http://www.cs.jhu.edu/~mdredze/datasets/sentiment/}のデータを用いた.そこから`electronics'に含まれるデータのみを抽出し,Stanza\cite{qi2020stanza}を用いてトークンを分割し,既に分割済みであるSST-2とフォーマットを揃えた.Yahoo!\AnswersDataset\cite{zhang2015yahoo}は\url{https://github.com/LC-John/Yahoo-Answers-Topic-Classification-Dataset}のデータを用いた.VGGNet19はmomentumSGD(momentum=0.9,weightdecay=5e-4)を用いて最適化を行った.学習率は,0.1から始め,150周後の時点と225周後の時点でそれぞれ0.1倍にした.データ拡張からは左右反転を除いた.実装は,\url{https://github.com/kuangliu/pytorch-cifar}に基づいた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{事例固有マスクを用いたDropoutの実装例} \label{sec:appendix_implementation_by_pytorch}事例固有マスクを用いたdropoutを,Pythonによる深層学習フレームワークPyTorch\cite{adam2019pytorch}によって実装する場合の例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%list.1\begin{center}\noindent\includegraphics{28-2ia11l1.pdf}\par\vspace{4pt}\smallListing1{\hspace{1em}}PyTorchにおける事例固有マスクを用いたdropout実装の例.\end{center}%%%%\begin{lstlisting}[language=Python,caption=PyTorchにおける事例固有マスクを用いたdropout実装の例.]%%%%\end{lstlisting}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{ハッシュに基づくマスクの合成} \label{sec:hash_composition_appendix}揮発性マスク生成(\ref{sec:mask_construction}~節)は,モデルの保存容量と推論時のメモリ使用量(空間計算量)を最小にして問題を解決するために役立つ方法である.一方で,実装によっては,その方法を用いたとしても一時的なメモリ使用量の増加が無視できない量になってしまう可能性がある.まず大枠として,ネットワークの前向き計算の中では,ある層においてマスク生成が行われ,処理を行い,その層の処理を終えたらマスクは揮発し,メモリ使用量はゼロになる.あるミニバッチ内の各インスタンスに対するマスク生成は,典型的な効率の良い実装において,次のような数段階の操作に分けて実行される.まず,始めにランダムシードによってデータセット内の全事例についてマスクを生成する.これは,一般的なランダムベクトルの生成においては,一括で生成する方がより効率がいいためである(例えばfor-loopによってミニバッチ内の各事例ごとに生成命令を呼ぶ場合,所要時間は大幅に伸びる).そして,その一括で生成した巨大なランダムマスクの中から,ミニバッチ内の事例に関する箇所だけをインデキシングなどによって抜き出して,所望のランダムマスクをミニバッチ化したものを得る.このとき,最初の一括生成の段階において一時的に総事例数に依存した大きなメモリ使用量を必要とする.本論文の実験では,その一時的なメモリ使用量でメモリがあふれることはなかったが,モデルサイズやデータサイズに応じて問題が生じる可能性がある.そのような場合の解決策として,\emph{ハッシュに基づくマスクの合成}を活用する方法をここで提案する.端的には,$K\,(\ll|D|)$個のランダムマスクから$k\,(<K)$個選んで組み合わせて作ったようなマスクを各事例ごとに用いるという枠組みである.まず始めに$K$個の$d$次元バイナリベクトルをランダムに$\textrm{Bernoulli}(1-p^{1/k})$からサンプリングして用意し,\emph{codebook}とする.また,ある事例を受け取り,$k$個のインデックス($1$〜$K$)を出力するようなハッシュ関数を用意する.これらによって,ある事例ごとにcodebookから$k$個のランダムベクトルを決定的に選択できるようになる.そして,それら$k$個のランダムベクトルについて,要素ごとに総乗(あるいはバイナリに関する論理和)を取る.このとき,その結果生成されるバイナリベクトルの各要素が1である確率は$p$であるため,ここにdropoutのスケーリング値である$\frac{1}{p}$をかけることで,結果的に当初欲しかったランダムベクトルと同様の分布に従っているランダムベクトルを構成的にかつ決定的に生成することができる.このアルゴリズムが一時的に要する最大の空間計算量は,サイズ$K\timesd$のcodebookに加えて,ミニバッチ(サイズ$b$)内の各事例について$k$個のベクトルを保持したときのものになり,$O(Kd+kbd)$まで抑えられることになる.実際の実装上は,$kb$個のベクトルは複製されず,codebookへの参照のみで済むことも多く,その場合はさらにcodebookのみのコストである$O(Kd)$まで抑えられる.このcodebookについても揮発性マスク生成の方法を適用することがもちろん可能である.それにより,データサイズは増えた場合においても,事例固有マスクを使うことによる計算量は十分に小さく抑えることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データフィルタリングにかかる計算量} \label{sec:datafiltering_time}本論文の焦点はデータフィルタリングへの応用性ではないが,先行研究の\cite{koh17understanding}と提案手法それぞれでデータフィルタリングを行う場合の理論計算量と実時間の概算についても参考のために記載する.今回のそれぞれの実験で求めたい値は,(a)テストデータセット内の各事例への予測結果を解釈・解析する場合(式(1)の問題設定)と(b)開発用データセット内の平均損失を用いるデータフィルタリングを行う場合とでは,異なっている.(a)と(b)の各問題設定で,ある訓練事例$z_i\inD$に対して求めたい値は,具体的には次のとおりである(以下,単純化のために開発用データについても$\mathrm{dev}$ではなく$\mathrm{test}$と表記する).\begin{alphalign}\text{(各$z_{\mathrm{target}}\inD_{\mathrm{test}}$について)}\qquadL(f_{D\setminus\{z_i\}},z_{\mathrm{target}})-L(f_{D},z_{\mathrm{target}})\\%集合記法にして揃える?\frac{1}{|D_{\mathrm{test}}|}\sum_{z_{\mathrm{target}}\inD_{\mathrm{test}}}L(f_{D\setminus\{z_i\}},z_{\mathrm{target}})-L(f_{D},z_{\mathrm{target}})\end{alphalign}(b)の値は(a)の方法から間接的に推定でき,各開発用事例$z_{\mathrm{target}}\inD_{\mathrm{test}}$について(a)を求めたのちに平均を取ることで(b)を求められる.そのため,提案手法では,どちらの場合についても計算量は$O(F|D||D_{\mathrm{test}}|)$となる.一方で,\cite{koh17understanding}の手法では,式(1,a)の各項の値を求めてから差を得るのではなく,損失の勾配情報を用いて直接その差を推定する.その処理は,損失に対するパラメータ勾配を計算する処理Aと,その勾配それぞれを用いて訓練事例全てに対して計算する処理Bに分けられる.したがって,(a)の影響値推定の場合では,損失に対するパラメータ勾配計算のAがテスト事例の数だけ必要になり,処理Bも同様の回数行われる.一方で,(b)のデータフィルタリングでは,開発用データセット全体に対する平均損失に対するパラメータ勾配を1つ求めて,処理Bを一度だけ行えば済むため,開発用データのサイズに対して効率的である.具体的には,計算量オーダーについては,(a)では$O(F|D||D_{\mathrm{test}}|+(F{+}F')|D_{\mathrm{test}}|\underbrace{rt}_{\approx|D|}b)$であり,(b)では$O(F(|D|{+}|D_{\mathrm{test}}|)+(F{+}F')\underbrace{rt}_{\approx|D|}b)$となる.なお,キャッシュを活用することにより(a)の場合でも高速化を行える可能性はあるが,パラメータ勾配のデータサイズが非常に大きいため,ハードウェアや実装の都合上実現は困難だと考えられる.なお,訓練事例ごとにそれのみを抜いて訓練したモデルを用意する方法(Re-train)では,フィルタリングのための推定に$O(F|D||D_{\mathrm{test}}|)$,訓練に$O(\mathrm{epoch数}\timesF|D|^2)$の計算量が必要となる.計算時間の概算としては,例えば,含意関係認識のMulti-GenreNLIdataset\cite{williams2018mnli}のデータセットにおいて開発用事例200個と訓練事例10,000個を使う場合,\cite{koh17understanding}の手法では約12分で終わる\footnote{推定の精度と速度のトレードオフを調整するハイパーパラメータが存在し,それにより速度が大きく変わるため一概には言えないが,今回は\cite{han2020explaining}の実装のデフォルト値を用いた場合について試算した.}一方で,提案手法で上記のナイーブな計算を行う場合には約110分程度かかると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{訓練事例自身への影響値} \label{sec:experiment_self_train}訓練による影響値の解析について簡単な実験を行った結果を示す.教師あり学習において,ある事例で訓練した場合にはその事例の入力からは出力を予測できるようになることが期待される.この実験では,ある訓練事例のその事例自身への影響値(自己影響値)を計測し,上で述べた期待に一致することを確認した.BERTをSST-2で訓練した際の,訓練事例5,000個について自己影響値を計測し,図~\ref{fig:histogram_sst2}にヒストグラムとして示した.ほぼ全ての事例について自己影響値が正になっていることから,ある事例での訓練がその事例に対して正の影響を及ぼしているという期待に沿った計算が行えていることがわかる.また,CIFAR-10で訓練したVGGNetでも同様の傾向を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{28-2ia11f6.pdf}\end{center}\caption{BERTをSST-2で訓練した場合の,訓練データセットに対する自己影響値のヒストグラム}\label{fig:histogram_sst2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{小林颯介}{%2016年東北大学大学院情報科学研究科博士前期課程終了.同年,株式会社PreferredNetworksに入社.2018年東北大学同研究科博士後期課程入学.現在在学中.}\bioauthor{横井祥}{%2020年東北大学大学院情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科助教.理化学研究所AIPセンター数理統計学チーム客員研究員兼任.}\bioauthor{鈴木潤}{%2001年から2018年まで日本電信電話株式会社コミュニケーション科学基礎研究所研究員(主任研究員/特別研究員).2005年奈良先端科学技術大学院情報科学研究科博士後期課程修了.現在,東北大学データ駆動科学・AI教育研究センター教授.}\bioauthor{乾健太郎}{%1995年東京工業大学大学院情報理工学研究科博士課程修了.2010年より東北大学大学院情報科学研究科教授.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\clearpage\end{document}
V26N02-02
\section{はじめに} テキストのリーダビリティ評価は,人間の作文の評価だけでなく,機械による文生成の評価においても重要な問題である.日本語のリーダビリティ研究は表記や語彙の難易度など表層的な情報に基づいて,テキストの難易度の評価モデルとして研究が進められてきた\cite{渡邉-2017,李-2011,柴崎-2010,佐藤-2011}.しかしながら,既存のモデルのほとんどは読み手を陽に仮定していない.リーダビリティは,眼球運動に基づく読み時間により,直接的に評価できる.筆者らは視線走査装置に基づいた読み時間データを整備するだけでなく,統語・意味分類や情報構造との関連について調査してきた.単語や文節の統語・意味分類が読み時間にどのように影響を及ぼすかだけでなく,情報伝達に必要な情報の新旧と読み時間の関連について分析を進めてきた.\modified{情報の伝達においては,複数の述語を含む複文や重文を用いることが考えられる.}複文や重文は節境界を有し,節境界においては読み時間が変化するという先行研究がある.英語においては\cite{Just-1980,Rayner-2000}が,句末や節末において読み時間が長くなるwrap-upeffectと呼ばれる傾向について議論している.しかしながら,主辞が後置される日本語においては,補部が主辞より先に提示されることにより,主辞を予測することができ読み時間が短くなることが考えられる.本稿では,日本語の節境界が読み時間に対してどのような影響を与えるのかについて,探索的データ分析により調査する.具体的には,『現代日本語書き言葉均衡コーパス』(以下BCCWJ)\cite{Maekawa-2014-LRE}の読み時間データBCCWJ-EyeTrack\cite{Asahara-2019d}に対して,節境界アノテーションBCCWJ-ToriClause\cite{matsumoto-2018}を重ね合わせたものを,節境界情報を固定要因としたベイジアン線形混合モデル\cite{Sorensen-2016}を用いて検討を行う.分析においては詳細な節分類について読み時間がどう異なるかについて検討した.例えば,名詞修飾節においては,補足語修飾節(関係節ウチの関係)が,内容節(関係節ソトの関係)よりも節末において読み時間が短くなる傾向が見られた.補足節においては,名詞節の節末が,引用節の節末よりも読み時間が短くなる傾向が見られた.また,副詞節においては,因果関係節と付帯状況節とで読み時間のふるまいの違いが確認できた.これらの分析結果は,従前の言語処理において研究されてきたリーダビリティ評価において,\modified{眼球運動に基づく読み時間の評価の観点から}節レベルの統語構造に対して実証的な根拠を与えるものになる.以下,2節では関連研究について示す.3節では利用したデータの概要について示す.各データの詳細については元論文を参照されたい.4節では統計処理手法について述べ,5節で結果と考察を示す.最後にまとめと今後の研究の方向性について示す. \section{関連研究} \modified{まず,}前に述べたwrap-upeffectの評価以外に次のような先行研究がある.\cite{Hill-2000}は,前置詞句を含む句読点近辺の読み時間を評価した.\cite{Hirotani-2006}は節末や文末の句読点近辺の読み時間を評価した.\cite{Warren-2009}は節内と節間の読み時間の関係を視線走査法に基づいて評価した.しかしながら,これらの評価はいずれも英語の分析であった.\modified{これらの分析は,ANOVA(分散分析)など単純な統計処理に基づく分析であったために,多くの固定要因を検討できないほか,ランダム要因を考慮できないために,例文や被験者の統制が求められていた.}\modified{この統制に基づく分析において,不自然な例文を不自然な分布で呈示し,都度,文の構造を正しく把握しているのか質問するという問題点があり,自然な眼球運動が得られていないという批判もある\cite{Futrell-2018}.このような批判のもと,コーパスからのサンプリングに基づくテキストや,文脈を変えずに語順や語彙を入れ替えるなどしたテキストに対して,読み時間データを構築し,研究する流れが生まれた.}DundeeEyetrackingCorpus\cite{Kennedy-2005}は英語とフランス語の新聞記事社説について,母語話者10人分の視線走査情報を収集したものである.同データに対して,品詞情報,係り受け情報,句構造木,共参照情報が付与され,分析が進められている.他に英語のデータとして,\cite{Frank-2013},NaturalStoriesCorpus\cite{Futrell-2018}などがある.他言語のデータとして,ドイツ語のPotsdamSentenceCorpus\cite{Kliegl-2006},ヒンディー語のPotsdam-AllahabadHindiEyetrackingcorpus\cite{Husain-2015},中国語のBeijingSentenceCorpusofMandarinChinese\cite{Yan-2010}がある.\modified{このような自然なテキストの分析には,レイアウト情報や呈示順などの要因を考慮するために複雑な統計処理手法が求められる.頻度主義的な一般化線形混合モデルなどでは収束判定やモデル選択など煩雑な処理が伴う.そこで,ベイジアン線形混合モデル\cite{Sorensen-2016}を導入することで,帰無仮説の多重比較の問題を回避し,サンプリングにより推定された事後平均と事後標準偏差に基づく分析により推定する手法が用いられている.}最後に,日本語のテキストの難易度・リーダビリティ評価研究について示す.\cite{渡邉-2017}は文長・語彙の難易度・語種・品詞・語彙の具体度・仮定節や係り受け木の深さなどを特徴に入れているが,評価自体は株価のポラティリティに対して行っており,読みやすさ自体の実証的な評価を行っていない.\cite{李-2011}はBCCWJを日本語能力試験の読解テキストに対応させて難易度を評価しているが,文字・漢字・語彙などに基づきL2学習者向けに頻度主義的な手法でテキストの難易度をモデル化したものであり,日本語母語話者の読解過程をモデル化したものではない.\cite{柴崎-2010}は小学1年から中学3年に収められた国語科教科書に収録したものの文字数・文節数・述語数・漢語の割合・ひらがなの割合などで頻度主義的な手法でテキストの難易度\modified{を}モデル化した.L1学習者向けには適切かもしれないが,成人日本語母語話者のリーダビリティ評価に対して適切なモデルとは言えない.\cite{佐藤-2011}は文字n-gramを特徴量とした難易度モデルを提案した.統語情報を考慮していないほか,読み手の存在を陽に仮定していないという問題がある.\modified{\cite{藤田-2015}は未就学児を対象としたテキストの対象年齢を推定している.}これらの研究は,いずれも読み時間などを用いた実証的な分析ではなく,利用している特徴も表記・語彙などが中心で,複文や重文の節間の関係を適切にモデル化し,リーダビリティを評価しているものは管見の限り存在しない. \section{データ} 本節では,読み時間データBCCWJ-EyeTrackと節境界アノテーション\modified{BCCWJ-ToriClause}について概説する.これらの2つのデータを重ね合わせたデータを表\ref{tbl:data2}に示す.\subsection{BCCWJ-EyeTrack}ここでは読み時間データBCCWJ-EyeTrackについて概説する.詳細については\cite{Asahara-2019d}を参照されたい.新聞記事に対する読み時間の収集方法として2種類の手法を用いた.1つは移動窓方式の自己ペース読文法(SELF)で,Linger\footnote{http://tedlab.mit.edu/~dr/Linger/}と呼ばれるソフトウェアで収集した.もう1つは眼球運動を計測する視線走査法で,タワーマウント型のEyeLink1000を用いた.\modified{なお,EyeLink1000がfixationとみなしたものを「停留」とみなす.}自己ペース読文法では一度に1文節のみ呈示されるが,視線走査法では一度に1画面分(最大53文字×5行)が呈示される.しかしながら,いずれの実験でも前の画面に戻ることはできない設定にした.各被験者は視線走査法$\rightarrow$自己ペース読文法の順で実施し,文節境界に空白を入れるか否かを含めてラテン方格による実験配置により,それぞれのテキストを一度だけ見るような設定にした.視線走査データについては,視線走査順の読み時間データをテキスト順に変換したfirstfixationtime(FFT),first-passtime(FPT),regressionpathtime(RPT),second-passtime(SPT),totaltime(TOTAL)の5種類のデータ(読み時間のタイプ)を用いる.FFTは対象領域に最初に入ったときの視線停留時間である.FPTは対象領域に最初に入ってから,左右どちらかの領域境界を出るまでの視線停留時間の総計である.RPTは対象領域に最初に入ってから,右の領域境界を出るまでの視線停留時間の総計である.SPTは対象領域に2回目以降に入った視線停留時間の総計で,次のTOTALからFPTを引いたものである.TOTALは対象領域に入った視線停留時間の総計である.図\ref{fig:eyetrack}に読み時間のタイプの集計例を示す.\begin{table}[p]\caption{利用するデータの概要}\label{tbl:data2}\input{02table01.tex}\end{table}\begin{figure}[p]\begin{center}\includegraphics{26-2ia2f1.eps}\end{center}\caption{視線走査データの読み時間のタイプの集計例}\label{fig:eyetrack}\end{figure}表\ref{tbl:data2}の上部に読み時間データの詳細について示す.{\ttsurface}は単語の表層形である.読み時間(i.e.,{\tttime})は対数に変換したデータ(i.e.,{\ttlogtime})も保持し,一般化線形混合モデル用に用いられる.{\ttmeasure}は読み時間のタイプ\{SELF,FFT,FPT,RPT,SPT,TOTAL\}を表す.{\ttsample,article,metadata\_orig,metadata}は記事に関連する情報である.{\ttspace}は文節境界に半角空白を入れたか否かを示す.{\ttlength}は表層形の文字数である.{\ttis\_first,is\_last,is\_second\_last}はレイアウトに関する特徴量である.{\ttsessionN,articleN,screenN,lineN,segmentN}は要素の呈示順に関する特徴量である.{\ttsubj}は被験者のIDで統計処理においてランダム要因として用いる.{\ttdependent}は当該文節に係る文節の数を人手で付与したもの\cite{Asahara-2018d}である.\modified{被験者は日本語母語話者24人(女性19人,未回答1人\modified{,男性4人})である.詳細な情報は\cite{Asahara-2019d}を参照されたい.また,被験者属性の読み時間の影響については\cite{浅原-2017-NLP}を参照されたい.}\modified{また,被験者が記事をきちんと読んでいるか確認するために,各記事を読んだ後に,Yes/Noで解答できる簡単な内容理解課題を課した.視線走査法の内容理解課題の正解率は99.2\%(238/240)で,自己ペース読文法の内容理解課題の正解率77.9\%(187/240)より有意に高かった(p$<$0.001).視線走査法は一画面の間は自由に再読することができる一方,自己ペース読文法は,読み戻しが許されず,複数の画面に記事が続く場合など,内容を記憶している負荷が高かったことがうかがえる.}\subsection{節境界情報アノテーション}節境界情報のアノテーションは「鳥バンク」\cite{toribank}の複文アノテーション基準に基づく.鳥バンクは2007年に鳥取大学において複文や重文の日本語の意味類型パターン辞書を編纂するために開発されたデータベースである.節境界情報は4層からなる階層構造によりラベルが設計され,最上位の階層では補足節(HS),名詞修飾節(MS),副詞節(FU),並列節(HR)の4種類からなる.第2階層では26のラベルにより構成される.詳細については鳥バンクのウェブサイト\footnote{http://unicorn.ike.tottori-u.ac.jp/toribank/}を参照されたい.BCCWJ-ToriClause\cite{matsumoto-2018}はBCCWJの新聞記事コアデータの一部に対して鳥バンク互換の節境界ラベル(第3階層まで)を付与したものである.節境界は節の最右要素に対して国語研短単位\footnote{『現代日本語書き言葉均衡コーパス』の形態素の基本単位\cite{小椋-2010}.}に基づいて付与するが,節の最左要素に関しては文節係り受けアノテーション\cite{Asahara-2018d}と重ね合わせることにより得ることができる.本研究ではBCCWJ-ToriClauseのアノテーションを文節単位に変換したうえで,BCCWJEyeTrackデータを重ね合わせて分析する.表\ref{tbl:data2}の下部に示す通り,最上位階層と第2階層についての情報を付与する.最上位階層が異なる節境界に関しては,文節内に複数の節境界がある場合もありマルチラベルの設定となる.表\ref{tbl:clause}に節境界分類とBCCWJ-EyeTrack上での頻度を示す.第2階層では26の全てのラベルが出現するわけではない.\begin{table}[t]\caption{節末のタイプと頻度}\label{tbl:clause}\input{02table02.tex}\end{table} \section{統計モデル} 統計モデルとしてベイジアン線形混合モデル\cite{Sorensen-2016}を用いる.Rのrstanパッケージを用いて分析を行う.\modified{従前の読み時間分析は,ANOVA(分散分析)や一般化線形混合モデルであった.ANOVAでは被験者の統制を実験実施者が行う必要があったが,混合モデルでは被験者をランダム要因として入れることにより被験者ごとの差異をモデル化する.また,一般化線形混合モデルは以下に示すレイアウト情報・呈示順・係り受け構造・節境界情報すべてを固定要因として入れると,収束のコントロールやモデル選択が困難であった.しかしながらベイジアン線形混合モデルは,これらの処理を適切に行うことが可能である.}データ中6種類の読み時間のタイプ(SELF,FFT,FPT,SPT,RPT,TOTAL)の{\tttime}を対数正規分布({\ttlognormal})により,レイアウト情報・呈示順・係り受け構造・節境界情報を固定要因とし,記事情報と被験者をランダム要因としたモデルで回帰分析する.前処理として{\ttmetadata}が\{{\ttauthorsData},{\ttcaption},{\ttlistItem},{\ttprofile},{\tttitleBlock}\}のものを除いた.\modified{これらは新聞記事において,本文(地の文)と異なる読み方をする可能性があるためである.}\modified{視線走査データにおいては0msのデータを全て欠損値として扱った.これにより欠損値を読み飛ばしとみなすバイアスを排除するほか,対数正規分布を用いることでサンプリング時に正定値のみを定義域とすることが自然に行える.}分析においては節境界分類の最上位階層と第2階層の2種類の分析を行う.最上位階層は,補足節(HS),名詞修飾節(MS),副詞節(FU),並列節(HR)の4種類の固定要因からなる.図~\ref{formula1}に最上位階層の分析のための線形式を示す.第2階層においては補足節の3ラベル,名詞修飾節の5ラベル,副詞節の14ラベル,並列節の2ラベルを固定要因とする.図\ref{formula2}に第2階層の分析のための線形式を示す.\begin{figure}[b]\begin{center}\includegraphics{26-2ia2f2.eps}\end{center}\caption{最上位階層の線形式}\label{formula1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-2ia2f3.eps}\end{center}\caption{第2階層の線形式}\label{formula2}\end{figure}ここで${\tttime}$は分析対象の読み時間である.{\ttlognormal}はrstanの対数正規分布関数である.$\sigma$は{\ttlognormal}の標準偏差である.$\mu$は{\ttlognormal}の期待値(平均)で線形式によって与えられる.$\alpha$は線形式の切片である.$\beta^{\ttlength}$は固定要因$length(x)$に対する傾きで,視線が停留した文節の長さに対するものである.$\beta^{\ttspace}$は固定要因$\chi_{{space}}(x)$に対する傾きで,文節境界に半角空白を入れて呈示したか否かを表す\footnote{ここで$\chi_{A}$は次の指示関数とする:$$\chi_{A}(x)=\begin{cases}1&\mbox{if}\;\;\;x\inA,\\0&\mbox{if}\;\;\;x\not\inA\\\end{cases}$$.}.$\beta^{\ttsessionN}$,$\beta^{\ttarticleN}$,$\beta^{\ttscreenN}$,$\beta^{\ttlineN}$,$\beta^{\ttsegmentN}$は呈示順に対する固定要因${\ttsessionN}(x)$,${\ttarticleN}(x)$,${\ttscreenN}(x)$,${\ttlineN}(x)$,${\ttsegmentN}(x)$の傾きである.$\beta^{\ttis\_first}$,$\beta^{\ttis\_last}$,$\beta^{\ttis\_second\_last}$はレイアウト情報に関する固定要因$\chi_{\ttis\_first}(x)$,$\chi_{\ttis\_last}(x)$,$\chi_{\ttis\_second\_last}(x)$の傾きである.$\beta^{\ttHS=TRUE}$,$\beta^{\ttHS=FALSE}$,$\beta^{\ttMS=TRUE}$,$\beta^{\ttMS=FALSE}$,$\beta^{\ttFU=TRUE}$,$\beta^{\ttFU=FALSE}$,$\beta^{\ttHR=TRUE}$,$\beta^{\ttHR=FALSE}$は節境界の最上位階層に対する固定要因に対する傾きである.節境界は国語研短単位に対して付与しているものを文節単位に変換しており,最上位階層においては文節単位でマルチラベルになるため,節境界情報に対して負のクラスについてもモデル化する.$\sum_{HS?}\beta^{\ttHS?}\cdot\chi_{\ttHS?}$は第2階層の補足節に関する固定要因を表す.$\sum_{MS?}\beta^{MS?}\cdot\chi_{MS?}$は第2階層の名詞修飾節に関する固定要因を表す.$\sum_{FU?}\beta^{FU?}\cdot\chi_{FU?}$は第2階層の副詞節に関する固定要因を表す.$\sum_{HR?}\beta^{HR?}\cdot\chi_{HR?}$は第2階層の並列節に関する固定要因を表す.$\sum_{a(x)\inA}\gamma^{\ttarticle=a(x)}$は記事情報に対するランダム要因で,$a(x)$は$x$の記事情報を表す.$\sum_{s(x)\inS}\gamma^{\ttsubj=s(x)}$は被験者に対するランダム要因で,$s(x)$は$x$の被験者IDを表す.ベイズ推定においてはwarmup後に5000回のイテレーションを4chains実施し,全てのモデルは収束した.\begin{figure}[b]\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f4.eps}\\\caption{節境界以外の固定要因(SELF)}\label{result:self-others}\end{center}\end{minipage}\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f5.eps}\\\caption{節境界以外の固定要因(TOTAL)}\label{result:total-others}\end{center}\end{minipage}\end{figure} \section{結果} \subsection{節境界以外に関する結果}まず,節境界以外の固定要因が読み時間に与える影響について確認する.図\ref{result:self-others}と図\ref{result:total-others}に,自己ペース読文法(SELF)と視線走査法(TOTAL)の節境界以外の固定要因に対する事後確率分布を示す.紙面の都合上,第2階層のものを示す.詳細については\ref{appendix}節を参照されたい.係数が負の値の場合,その要因が読み時間を短くするために,読みを促進することを表す.一方,係数が正の値の場合,その要因が読み時間を長くするために,読みを阻害することを表す.半角空白({\ttspace})を文節境界に入れた場合,視線走査法のTOTALにおいて読み時間を短くする効果が見られた.このことから,単純に文節境界に空白を入れることによってレジビリティが上がることがわかる.レイアウト情報({\ttis\_first,is\_last,is\_second\_last})はテキストの折り返しに対する要因である.読み時間は最左要素({\ttis\_first})で長くなる傾向にある.これは視線が右から左に戻ってきたときの負荷だと考える.視線走査法のFPT,RPT,TOTALに関しては,最右もしくは右から2番目の要素({\ttis\_last,is\_second\_last})で長くなる傾向が見られた.呈示順({\ttsessionN,articleN,screenN,lineN,segmentN})に関して,実験が進捗するにつれて読み時間が短くなる傾向が見られた.これは被験者が実験に慣れていく効果である.文節の長さ({\ttlength})に対しては,FFT以外において読み時間が長くなる.これは単純に文節の長さが視線停留箇所の面積に比例し,視線停留の確率が相関していることによる.係り受けの数{\ttdependency}は,多ければ多いほど読み時間が短くなる傾向がある.この事実は{\itAnti-locality}\cite{Konieczny-2000}を支持する.この結果は,線形混合モデルに基づく結果\cite{Asahara-2019d}と同じ傾向である.\begin{figure}[b]\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f6.eps}\\\caption{節境界(最上位階層)の固定要因(SELF)}\label{result:self-top}\end{center}\end{minipage}\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f7.eps}\\\caption{節境界(最上位階層)の固定要因(TOTAL)}\label{result:total-top}\end{center}\end{minipage}\end{figure}\subsection{節境界(最上位階層)に関する結果}次に節境界の最上位階層に関して検討する.図\ref{result:self-top}と図\ref{result:total-top}に自己ペース読文法(SELF)と視線走査法(TOTAL)の結果を示す.詳細については\ref{appendix}節を参照されたい.自己ペース読文法(SELF)では,並列節以外の節末で読み時間で短くなる傾向が見られた.しかしながら,並列節に関しては強い傾向が見られなかった.視線走査法(TOTAL)では,全ての節末で読み時間が短くなる傾向が見られた.特に副詞節(FU)において強い傾向が見られた.これは英語で言われているwrap-upeffectと正反対の結果である.\subsection{節境界(第2階層)に関する結果}以下,第2階層の節境界について,特徴的な部分について検討する.まず,最初に名詞修飾節について検討する.図\ref{result:total-second-ms}と図\ref{result:spt-second-ms}に,視線走査法TOTALとSPTの名詞修飾節末の傾向について示す.\begin{figure}[b]\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f8.eps}\\\caption{名詞修飾節境界の固定要因(TOTAL)}\label{result:total-second-ms}\end{center}\end{minipage}\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f9.eps}\\\caption{名詞修飾節境界の固定要因(SPT)}\label{result:spt-second-ms}\end{center}\end{minipage}\end{figure}視線走査法(TOTAL,SPT)において,補足語修飾節(MSa)は内容節(MSb)に比べて読み時間が短い.例(\ref{msa})は補足語修飾節の例で,節内の述語と係り先の語とに述語項関係がある(関係節ウチの関係).例(\ref{msb})は内容節の例で,節内の述語と係り先の語とに述語項関係がない(関係節ソトの関係).この述語項関係が読み時間を促進していることが推察される.\begin{exe}\ex幼稚園から大学まで\underline{通った}青山学院では,\label{msa}\\\hfill{(読売新聞2001[BCCWJ:00001\_A\_PN1c\_00001\_A\_1])}\\\hfill{MSa200:名詞修飾節:補足語修飾節:非制限用法}\ex支払利息や減価償却費の計上額が\underline{少ない}傾向がある.\label{msb}\\\hfill{(北海道新聞2002[BCCWJ:00005\_A\_PN2e\_00001\_A\_2])}\\\hfill{MSb:名詞修飾節:内容節}\end{exe}次に補足節(HS)について示す.頻度の高い名詞節(HSa)と引用節(HSc)について検討する.例文(\ref{hsa})は「こと」を含む名詞句であり,例文(\ref{hsc})は引用の「と」を含む引用節である.名詞句は引用節よりも読み時間が短くなることが,自己ペース読文法(図\ref{result:self-second-hs})と視線走査法(TOTAL:図\ref{result:total-second-hs})で確認された.\begin{figure}[b]\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f10.eps}\\\caption{補足節の固定要因(SELF)}\label{result:self-second-hs}\end{center}\end{minipage}\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f11.eps}\\\caption{補足節の固定要因(TOTAL)}\label{result:total-second-hs}\end{center}\end{minipage}\end{figure}\begin{exe}\exタイミングよくまぶたを閉じてくれた\underline{ことで,}独特な雰囲気の写真になりました.\label{hsa}\\\hfill{(産経新聞2001[BCCWJ:00002\_A\_PN1d\_00001\_B\_1])}\\\hfill{HSa:補足節:名詞節}\\\exシャープの携帯情報端末「ザウルス」のコンテンツを5月中旬から\underline{販売すると}発表した.\label{hsc}\\\hfill{(産経新聞2001[BCCWJ:00015\_A\_PN1d\_00002\_B\_5])}\\\hfill{HSc:補足節:引用節}\end{exe}最後に副詞節の傾向について確認する.頻度の高い因果関係(FUb)と付帯状況(FUd)について検討する.図\ref{result:self-second-fu}と図\ref{result:fpt-second-fu}に2種類の副詞節について自己ペース読文法と視線走査法(FPT)の結果を示す.\begin{figure}[t]\setlength{\captionwidth}{182pt}\begin{minipage}{182pt}\begin{center}\includegraphics{26-2ia2f12.eps}\\\hangcaption{因果関係と付帯状況節境界の固定要因(SELF)}\label{result:self-second-fu}\end{center}\end{minipage}\hfill\begin{minipage}{182pt}\begin{center}\includegraphics{26-2ia2f13.eps}\\\hangcaption{因果関係と付帯状況節境界の固定要因(FPT)}\label{result:fpt-second-fu}\end{center}\end{minipage}\end{figure}例文(\ref{fub})は因果関係の例で,例文(\ref{fud})は付帯状況の例である.2種類の副詞節において,実験方法によって読み時間に異なる傾向が見られた.自己ペース読文法において,因果関係のほうが付帯状況よりも読み時間が短くなる傾向が見られた.しかしながら,視線走査法(FPT)においては反対の傾向が見られた.これは「て」形が付帯状況だけでなく,引用・手段・並列などのさまざまな節に分類されるが,自己ペース読文法においては隣接文節が見られないために周辺視野による予測が効かないことに起因すると考える.\begin{exe}\ex「しゃべるのが\underline{得意なんだから,}能力を生かしてみたら」と,\label{fub}\\\hfill{(読売新聞2001[BCCWJ:00001\_A\_PN1c\_00001\_A\_1])}\\\hfill{FUb:副詞節:因果関係}\\\exもみじの木に\underline{とまって}仲良く寄り添う二羽のキジバト.\label{fud}\\\hfill{(産経新聞2001[BCCWJ:00002\_A\_PN1d\_00001\_B\_1])}\\\hfill{FUd:副詞節:付帯状況}\\\end{exe}\subsection{考察}より詳細な結果を\ref{appendix}節に示す.まず,英語で言及されているwrap-upeffect\cite{Just-1980,Rayner-2000}(節末で読み時間が長くなる傾向)は確認されなかった.日本語においては基本的に節末に主辞がくるために,先行する従属句が予測のために働くことが考えられる.係り受けの数{\ttdependent}が読み時間を短くする効果からも,先行する従属句が読みやすさに寄与することが支持される.名詞修飾節においては,補足語修飾節(関係節ウチの関係)のほうが内容節(関係節ソトの関係)より読み時間が短くなることが観察された.従属節内の述語と節の修飾先の名詞とに述語項関係がある場合に読み時間が短くなることから,先行する文脈が読み時間を短くする傾向が見られる.同様のことが補足節でもみられ,名詞節のように後置する格要素になりうるものが,引用節よりも読み時間が短くなる傾向が見られる.副詞節においては,より自然な環境である視線走査法においては,付帯状況よりも因果関係のほうが読み時間が短くなる傾向が見られた.副詞節については今後より大規模なデータで調査する必要がある.頻度5の条件節(仮定節)は\cite{渡邉-2017}で用いられているが,日本語において条件節(仮定節)を読み時間を短くする傾向が確認された. \section{おわりに} 本稿では,日本語の節境界がテキストの読み時間に対してどのように影響を与えるかについて,経験的に検証した.その結果,英語などで言われているwrap-upeffectが,主辞後置言語である日本語においては認められず,反対に節末で読み時間が短くなる傾向を確認した.名詞修飾節においては,補足語修飾節末のほうが内容節末よりも読み時間が短くなる傾向が見られた.補足節の分析においては,名詞節のほうが引用節よりも読み時間が短くなる傾向が見られた.これらは従属節と係り先の要素との間に述語項関係などの強い統語関係があるか否かにより説明ができる.BCCWJ-EyeTrack\cite{Asahara-2019d}と言語情報アノテーションの比較として,分類語彙表番号アノテーション\cite{Kato-2019}との比較\cite{Asahara-2019c},情報構造アノテーション\cite{Miyauchi-2017-PACLING}との比較\cite{Asahara-2018e},述語項構造アノテーションとの比較\cite{浅原-2019b}が進められている.\modified{また,単語埋め込みに基づく読み時間のモデル化\cite{Asahara-2018-言語学会}も進められている.}単語埋め込みや各種言語情報を用いることで,テキストの読み時間が線形式により推定できる環境が整いつつある.今回利用したモデルは,ベイズ手法に基づく線形式である.二次の項を用いていないために,どの要因が読み時間に対してどのような影響を与えるかが直接的に説明できる.これらにより,語彙的な情報・統語的な情報・意味的な情報・談話的な情報を複合的に用いた,リーダビリティ推定モデルが\modified{読み時間の観点から}単純な線形式で構築できると考える.\acknowledgment本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費挑戦的萌芽研究JP15K12888,基盤研究(A)17H00917,新学術領域研究18H05521の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原}{浅原}{2017}]{Asahara-2017-言語学会}浅原正幸\BBOP2017\BBCP.\newblock読み時間と節境界について.\\newblock\Jem{日本言語学会第154回発表予稿集},\mbox{\BPGS\46--51}.\bibitem[\protect\BCAY{浅原}{浅原}{2018a}]{Asahara-2018-言語学会}浅原正幸\BBOP2018a\BBCP.\newblock単語埋め込みに基づくサプライザルのモデル化.\\newblock\Jem{日本言語学会第157回発表予稿集},\mbox{\BPGS\82--87}.\bibitem[\protect\BCAY{浅原}{浅原}{2018b}]{Asahara-2018e}浅原正幸\BBOP2018b\BBCP.\newblock名詞句の情報の状態と読み時間について.\\newblock\Jem{自然言語処理},{\Bbf25}(5),\mbox{\BPGS\527--554}.\bibitem[\protect\BCAY{浅原}{浅原}{2019}]{浅原-2019b}浅原正幸\BBOP2019\BBCP.\newblock読み時間と述語項構造・共参照について.\\newblock\Jem{言語処理学会第25回年次大会発表論文集},\mbox{\BPGS\249--252}.\bibitem[\protect\BCAY{浅原\JBA加藤}{浅原\JBA加藤}{2019}]{Asahara-2019c}浅原正幸\JBA加藤祥\BBOP2019\BBCP.\newblock読み時間と統語・意味分類.\\newblock\Jem{認知科学},{\Bbf26}(2),\mbox{\BPG\ToAppear}.\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2018}]{Asahara-2018d}浅原正幸\JBA松本裕治\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造アノテーション.\\newblock\Jem{自然言語処理},{\Bbf25}(4),\mbox{\BPGS\331--357}.\bibitem[\protect\BCAY{浅原\JBA小野\JBA宮本}{浅原\Jetal}{2017}]{浅原-2017-NLP}浅原正幸\JBA小野創\JBA宮本エジソン正\BBOP2017\BBCP.\newblock『現代日本語書き言葉均衡コーパス』の読み時間とその被験者属性.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\473--477}.\bibitem[\protect\BCAY{浅原\JBA小野\JBA宮本}{浅原\Jetal}{2019}]{Asahara-2019d}浅原正幸\JBA小野創\JBA宮本エジソン正\BBOP2019\BBCP.\newblockBCCWJ-EyeTrack『現代日本語書き言葉均衡コーパス』に対する読み時間付与とその分析.\\newblock\Jem{言語研究},{\Bbf156},\mbox{\BPG\ToAppear}.\bibitem[\protect\BCAY{Frank,Monsalve,Thompson,\BBA\Vigliocco}{Franket~al.}{2013}]{Frank-2013}Frank,S.~L.,Monsalve,I.~F.,Thompson,R.~L.,\BBA\Vigliocco,G.\BBOP2013\BBCP.\newblock\BBOQReadingTimeDataforEvaluatingBroad-coverageModelsofEnglishSentenceProcessing.\BBCQ\\newblock{\BemBehaviorResearchMethods},{\Bbf45}(4),\mbox{\BPGS\1182--1190}.\bibitem[\protect\BCAY{藤田}{藤田}{2015}]{藤田-2015}藤田早苗\BBOP2015\BBCP.\newblock幼児を対象としたテキストの対象年齢推定手法.\\newblock\Jem{認知科学},{\Bbf22}(4),\mbox{\BPGS\604--620}.\bibitem[\protect\BCAY{Futrell,Gibson,Tily,Blank,Vishnevetsky,Piantadosi,\BBA\Fedorenko}{Futrellet~al.}{2018}]{Futrell-2018}Futrell,R.,Gibson,E.,Tily,H.~J.,Blank,I.,Vishnevetsky,A.,Piantadosi,S.~T.,\BBA\Fedorenko,E.\BBOP2018\BBCP.\newblock\BBOQTheNaturalStoriesCorpus.\BBCQ\\newblockIn{\BemProceedingsofLREC-2018},\mbox{\BPGS\76--82}.\bibitem[\protect\BCAY{Hill\BBA\Murray}{Hill\BBA\Murray}{2000}]{Hill-2000}Hill,R.\BBACOMMA\\BBA\Murray,W.\BBOP2000\BBCP.\newblock{\BemReadingasaPerceptualProcess},\BCH\CommasandSpaces:EffectsofPunctuationonEyeMovementsandSentenceProcessing,\mbox{\BPGS\565--589}.\newblockElsevier,Amsterdam.\bibitem[\protect\BCAY{Hirotani,Frazier,\BBA\Rayner}{Hirotaniet~al.}{2006}]{Hirotani-2006}Hirotani,M.,Frazier,L.,\BBA\Rayner,K.\BBOP2006\BBCP.\newblock\BBOQPunctuationandIntonationEffectsonClauseandSentenceWrap-up:EvidencefromEyeMovements.\BBCQ\\newblock{\BemJournalofMemoryandLanguage},{\Bbf54},\mbox{\BPGS\425--443}.\bibitem[\protect\BCAY{Husain,Vasishth,\BBA\Srinivasan}{Husainet~al.}{2015}]{Husain-2015}Husain,S.,Vasishth,S.,\BBA\Srinivasan,N.\BBOP2015\BBCP.\newblock\BBOQIntegrationandPredictionDifficultyinHindiSentenceComprehension:EvidencefromanEye-trackingCorpus.\BBCQ\\newblock{\BemJournalofEyeMovementResearch},{\Bbf8}(2),\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Ikehara}{Ikehara}{2007}]{toribank}Ikehara,S.\BBOP2007\BBCP.\newblock\BBOQJapaneseSemanticPatternDictionary---CompoundandComplexSentenceEds.---.\BBCQ\\newblock\texttt{http://unicorn.ike.tottori-u.ac.jp/toribank/}.\bibitem[\protect\BCAY{Just\BBA\Carpenter}{Just\BBA\Carpenter}{1980}]{Just-1980}Just,M.~A.\BBACOMMA\\BBA\Carpenter,P.~A.\BBOP1980\BBCP.\newblock\BBOQATheoryofReading:FromEyeFixationstoComprehension.\BBCQ\\newblock{\BemPsychologicalReview},{\Bbf87}(4),\mbox{\BPGS\329--354}.\bibitem[\protect\BCAY{加藤\JBA浅原\JBA山崎}{加藤\Jetal}{2019}]{Kato-2019}加藤祥\JBA浅原正幸\JBA山崎誠\BBOP2019\BBCP.\newblock分類語彙表番号を付与した『現代日本語書き言葉均衡コーパス』の書籍・新聞・雑誌データ.\\newblock\Jem{日本語の研究},{\Bbf15}(2),\mbox{\BPG\ToAppear}.\bibitem[\protect\BCAY{Kennedy\BBA\Pynte}{Kennedy\BBA\Pynte}{2005}]{Kennedy-2005}Kennedy,A.\BBACOMMA\\BBA\Pynte,J.\BBOP2005\BBCP.\newblock\BBOQParafoveal-on-fovealEffectsinNormalReading.\BBCQ\\newblock{\BemVisionResearch},{\Bbf45},\mbox{\BPGS\153--168}.\bibitem[\protect\BCAY{Kliegl,Nuthmann,\BBA\Engbert}{Klieglet~al.}{2006}]{Kliegl-2006}Kliegl,R.,Nuthmann,A.,\BBA\Engbert,R.\BBOP2006\BBCP.\newblock\BBOQTrackingtheMindDuringReading:TheinfluenceofPast,Present,andFutureWordsonFixationDurations.\BBCQ\\newblock{\BemJournalofExperimentalPsychology},{\Bbf135}(1),\mbox{\BPGS\12--35}.\bibitem[\protect\BCAY{Konieczny}{Konieczny}{2000}]{Konieczny-2000}Konieczny,L.\BBOP2000\BBCP.\newblock\BBOQLocalityandParsingComplexity.\BBCQ\\newblock{\BemJournalofPsycholinguisticResearch},{\Bbf29}(6),\mbox{\BPGS\627--645}.\bibitem[\protect\BCAY{李}{李}{2011}]{李-2011}李在鎬\BBOP2011\BBCP.\newblock大規模テストの読解問題作成過程へのコーパス利用の可能性.\\newblock\Jem{日本語教育},{\Bbf148},\mbox{\BPGS\84--98}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Matsumoto,Asahara,\BBA\Arita}{Matsumotoet~al.}{2018}]{matsumoto-2018}Matsumoto,S.,Asahara,M.,\BBA\Arita,S.\BBOP2018\BBCP.\newblock\BBOQJapaneseClauseClassificationAnnotationonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofthe13thWorkshoponAsianLanguageResources(ALR13)},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Miyauchi,Asahara,Nakagawa,\BBA\Kato}{Miyauchiet~al.}{2017}]{Miyauchi-2017-PACLING}Miyauchi,T.,Asahara,M.,Nakagawa,N.,\BBA\Kato,S.\BBOP2017\BBCP.\newblock\BBOQAnnotationofInformationStructureon``TheBalancedCorpusofContemporaryWrittenJapanese''.\BBCQ\\newblockIn{\BemProceedingsofPACLING2017,the15thInternationalConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\166--175}.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2010}]{小椋-2010}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内佐夜香\JBA小西光\JBA原裕\BBOP2010\BBCP.\newblock『現代日本語書き言葉均衡コーパス』形態論情報規程集第4版(下).\\newblock\JTR,国立国語研究所.\bibitem[\protect\BCAY{Rayner,Kambe,\BBA\Duffy}{Rayneret~al.}{2000}]{Rayner-2000}Rayner,K.,Kambe,G.,\BBA\Duffy,S.~A.\BBOP2000\BBCP.\newblock\BBOQTheEffectofClauseWrap-uponEyeMovementsDuringReading.\BBCQ\\newblock{\BemTheQuarterlyJournalofExperimentalPsychology},{\Bbf53A}(4),\mbox{\BPGS\1061--1080}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2011}]{佐藤-2011}佐藤理史\BBOP2011\BBCP.\newblock均衡コーパスを規範とするテキスト難易度測定.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(4),\mbox{\BPGS\1777--1789}.\bibitem[\protect\BCAY{柴崎\JBA玉岡}{柴崎\JBA玉岡}{2010}]{柴崎-2010}柴崎秀子\JBA玉岡賀津雄\BBOP2010\BBCP.\newblock国語科教科書を基にした小・中学校の文章難易学年判定式の構築.\\newblock\Jem{日本教育工学会論文誌},{\Bbf33}(4),\mbox{\BPGS\449--458}.\bibitem[\protect\BCAY{Sorensen,Hohenstein,\BBA\Vasishth}{Sorensenet~al.}{2016}]{Sorensen-2016}Sorensen,T.,Hohenstein,S.,\BBA\Vasishth,S.\BBOP2016\BBCP.\newblock\BBOQBayesianLinearMixedModelsusingStan:ATutorialforPsychologists,Linguists,andCognitiveScientists.\BBCQ\\newblock{\BemQuantitativeMethodsforPsychology},{\Bbf12},\mbox{\BPGS\175--200}.\bibitem[\protect\BCAY{Warren,White,\BBA\Reichle}{Warrenet~al.}{2009}]{Warren-2009}Warren,T.,White,S.~J.,\BBA\Reichle,E.~D.\BBOP2009\BBCP.\newblock\BBOQInvestigatingtheCausesofWrap-upEffects:EvidencefromEyeMovementsandE-ZReader.\BBCQ\\newblock{\BemCognition},{\Bbf111}(1),\mbox{\BPGS\132--137}.\bibitem[\protect\BCAY{渡邉\JBA村上\JBA宮澤\JBA五島\JBA柳瀬\JBA高村\JBA宮尾}{渡邉\Jetal}{2017}]{渡邉-2017}渡邉亮彦\JBA村上聡一朗\JBA宮澤彬\JBA五島圭一\JBA柳瀬利彦\JBA高村大也\JBA宮尾祐介\BBOP2017\BBCP.\newblockTRF:テキストの読みやすさ解析ツール.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\477--480}.\bibitem[\protect\BCAY{Yan,Kliegl,Richter,\BBA\Shu}{Yanet~al.}{2010}]{Yan-2010}Yan,M.,Kliegl,R.,Richter,E.~M.,\BBA\Shu,H.\BBOP2010\BBCP.\newblock\BBOQFlexibleSaccade-targetSelectioninChineseReading.\BBCQ\\newblock{\BemTheQuarterlyJournalofExperimentalPsychology},{\Bbf63}(4),\mbox{\BPGS\705--725}.\end{thebibliography}\appendix \section{詳細な結果} \label{appendix}以下に詳細な結果を示す.表\ref{tbl:self:1st},\ref{tbl:fft:1st},\ref{tbl:fpt:1st},\ref{tbl:spt:1st},\ref{tbl:rpt:1st},\ref{tbl:total:1st}に節の最上位階層モデルの結果を,表\ref{tbl:self:2nd},\ref{tbl:fft:2nd},\ref{tbl:fpt:2nd},\ref{tbl:spt:2nd},\ref{tbl:rpt:2nd},\ref{tbl:total:2nd}に節の第2階層モデルの結果を示す.Rhatが収束判定指標でchain数4以上ですべての値が1.2以下を収束とみなす.n\_effが有効サンプル数,meanがサンプルの期待値(事後平均),sdがMCMC標準偏差(事後標準偏差),se\_meanが標準誤差で,MCMCのサンプルの分散をn\_effで割った値の平方根を表す.2.5\%,50\%,97.5\%はそれぞれの位の値である.分析においては頻度5以上のラベルについて検討する.meanが2sd以上の差がある場合に強い証拠,meanが1sd以上の差がある場合に弱い証拠があるとする\footnote{\modified{頻度主義的な手法と異なり,帰無仮説を前提としないため有意差の議論は行えない.}}.\modified{なお,一般化線形混合モデルの結果は\cite{Asahara-2017-言語学会}を参照されたい.}\clearpage\begin{table}[p]\caption{自己ペース読文法(SELF)の事後確率分布(最上位階層モデル)}\label{tbl:self:1st}\input{02table03.tex}\vspace{12pt}\caption{視線走査法(FFT)の事後確率分布(最上位階層モデル)}\label{tbl:fft:1st}\input{02table04.tex}\end{table}\begin{table}[p]\caption{視線走査法(FPT)の事後確率分布(最上位階層モデル)}\label{tbl:fpt:1st}\input{02table05.tex}\vspace{12pt}\caption{視線走査法(SPT)の事後確率分布(最上位階層モデル)}\label{tbl:spt:1st}\input{02table06.tex}\end{table}\begin{table}[p]\caption{視線走査法(RPT)の事後確率分布(最上位階層モデル)}\label{tbl:rpt:1st}\input{02table07.tex}\vspace{12pt}\caption{視線走査法(TOTAL)の事後確率分布(最上位階層モデル)}\label{tbl:total:1st}\input{02table08.tex}\end{table}\begin{table}[p]\caption{自己ペース読文法(SELF)の事後確率分布(第2階層モデル)}\label{tbl:self:2nd}\input{02table09.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)と\verb+beta_clrhsl[4]+(HSc:引用節)と間に2sd以上の差がある.名詞節のほうが引用節より読み時間が短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)と\verb+beta_clrmsl[3]+(MSb:内容節)と間に1sd以上の差がある.補足語修飾節のほうが内容節より読み時間が短い.\item副詞節において,\verb+beta_clrful[6]+(FUe:逆接)が最も読み時間が短い.副詞節でない箇所より3sd以上短い.\item副詞節において,\verb+beta_clrful[2]+(FUa:時)と\verb+beta_clrful[4]+(FUc:条件・譲歩)と間に2sd以上の差がある.条件・譲歩のほうが時より読み時間が短い.\item副詞節において,\verb+beta_clrful[3]+(FUb:因果関係)と\verb+beta_clrful[5]+(FUd:付帯状況・様態)と間に1sd以上の差がある.因果関係のほうが付帯状況・様態より読み時間が短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(FFT)の事後確率分布(第2階層モデル)}\label{tbl:fft:2nd}\input{02table10.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,1sdを超える傾向はみられない.\item名詞修飾節において,1sdを超える傾向はみられない.\item副詞節において,\verb+beta_clrful[2]+(FUa:時)が最も読み時間が短い.副詞節でない箇所より2sd以上短い.\item副詞節において,\verb+beta_clrful[5]+(FUd:付帯状況・様態)は副詞節でない箇所より2sd以上短い.\item副詞節において,\verb+beta_clrful[12]+(FUl:判断・主観)は副詞節でない箇所より1sd以上短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(FPT)の事後確率分布(第2階層モデル)}\label{tbl:fpt:2nd}\input{02table11.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は補足節でない箇所より2sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)は名詞修飾節でない箇所より2sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)と\verb+beta_clrmsl[3]+(MSb:内容節)の差は小さい.\item副詞節において,副詞節でない部分が\verb+beta_clrful[0]+(FALSE)が最も読み時間が長い.\item副詞節において,\verb+beta_clrful[3]+(FUb:因果関係)と\verb+beta_clrful[5]+(FUd:付帯状況・様態)と間に1sd以上の差がある.付帯状況・様態のほうが因果関係より読み時間が短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(SPT)の事後確率分布(第2階層モデル)}\label{tbl:spt:2nd}\input{02table12.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は\verb+beta_clrhsl[4]+(HSc:引用節)より1sd以上短い.\item名詞修飾節において,1sdを超える傾向はみられない.\item副詞節において,副詞節でない部分が\verb+beta_clrful[0]+(FALSE)が最も読み時間が長い.\item副詞節において,\verb+beta_clrful[2]+(FUa:時)と\verb+beta_clrful[4]+(FUc:条件・譲歩)と間に1sd以上の差がある.条件・譲歩のほうが時より読み時間が短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(RPT)の事後確率分布(第2階層モデル)}\label{tbl:rpt:2nd}\input{02table13.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は補足節でない箇所より1sd以上短い.\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は\verb+beta_clrhsl[4]+(HSc:引用節)より1sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)は名詞修飾節でない箇所より2sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[3]+(MSb:内容節)は名詞修飾節でない箇所より2sd以上短い.\item副詞節において,副詞節でない部分が\verb+beta_clrful[0]+(FALSE)が最も読み時間が長い.\item副詞節において,\verb+beta_clrful[5]+(FUd:付帯状況・様態)は副詞節でない箇所より2sd以上短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(TOTAL)の事後確率分布(第2階層モデル)}\label{tbl:total:2nd}\input{02table14.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は補足節でない箇所より2sd以上短い.\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は\verb+beta_clrhsl[4]+(HSc:引用節)より1sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)は名詞修飾節でない箇所より2sd以上短い.\item副詞節において,副詞節でない部分が\verb+beta_clrful[0]+(FALSE)が最も読み時間が長い.\item副詞節において,\verb+beta_clrful[4]+(FUc:条件・譲歩)は副詞節でない箇所より2sd以上短い.\end{itemize}\end{table}\clearpage\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\end{biography}\biodate\end{document}
V18N02-02
\section{はじめに} 知的で高度な言語処理を実現するには,辞書,シソーラス,コーパスなどの言語資源の整備・構築が欠かせない.一方,実際のテキストに対して,言語資源を活用するときにボトルネックとなるのが,表層表現が実テキストと言語資源では一致しない問題である.例えば,「スパゲティー」には,「スパゲッティ」「スパゲティ」「スパゲッテー」などの異表記があるが,完全一致の文字列マッチングでは,これらの異表記から言語資源に含まれるエントリ(例えば「スパゲティー」)を引き出すことができない.ウェブなどの大規模かつ統制されていないテキストには,大量の異表記や表記誤りが含まれると考えられ,これらの実テキストに対して言語処理を頑健に適用するには,言語資源とテキストを柔軟にマッチングさせる技術が必要である.文字列を標準的な表記に変換してからマッチングさせる手法として,ステミング~\cite{Porter:80},レマタイゼーション~\cite{Okazaki:08,Jongejan:09},スペル訂正~\cite{Brill:00,Ahmad:05,Li:06,Chen:07},人名表記の照合~\cite{Takahashi:95},カタカナ異表記の生成及び統一~\cite{獅々堀:94},等が代表的である.これらの研究に共通するのは,与えられた文字列から標準形に変換するための文字列書き換え規則を,人手,マイニング,もしくは機械学習で獲得していることである.これらの研究では,語幹やカタカナ異表記など,異表記のタイプに特化した文字列書き換え規則を獲得することに,重点が置かれる.本論文では,より一般的なタスク設定として,与えられた文字列に似ている文字列を,データベースの中から見つけ出すタスク({\bf類似文字列検索})を考える.本論文では,「文字列の集合$V$の中で,検索クエリ文字列$x$と類似度が$\alpha$以上の文字列を全て見つけ出す操作」を,類似文字列検索と定義する.この操作は,$V$の部分集合$\mathcal{Y}_{x,\alpha}$を求める問題として記述できる.\begin{equation}\mathcal{Y}_{x,\alpha}=\{y\inV\bigm|{\rmsim}(x,y)\geq\alpha\}\label{equ:approximate-string-retrieval}\end{equation}ただし,${\rmsim}(x,y)$は文字列$x$と$y$の類似度を与える関数({\bf類似度関数})である.この問題の単純な解法は,検索クエリ文字列$x$が与えられる度に,文字列の類似度を総当たりで$|V|$回計算することである.文字列集合の要素数$|V|$が小さいときには,総当たりで解を求めることも可能だが,文字列集合が膨大(例えば数百万オーダー以上の要素数)になると,実用的な時間で解けなくなる.本論文では,自然言語処理でよく用いられる類似度関数であるコサイン係数,ジャッカード係数,ダイス係数,オーバーラップ係数に対して,式\ref{equ:approximate-string-retrieval}の簡潔かつ高速なアルゴリズムを提案する.本論文の貢献は,以下の2点に集約される.\begin{enumerate}\itemまず,類似文字列検索における必要十分条件及び必要条件を導出し,式\ref{equ:approximate-string-retrieval}が転置リストにおける{\bf$\tau$オーバーラップ問題}~\cite{Sarawagi:04}として正確に解けることを示す.次に,$\tau$オーバーラップ問題の効率的な解法として,{\bfCPMerge}アルゴリズムを提案する.このアルゴリズムは,$\tau$オーバーラップ問題の解となり得る文字列の数をできるだけコンパクトに保つ特徴がある.提案手法の実装は非常に容易であり,C++で実装したライブラリ\footnote{SimString:http://www.chokkan.org/software/simstring/}を公開している.\item提案手法の優位性を示すため,英語の人名,日本語の単語,生命医学分野の固有表現を文字列データとして,類似文字列検索の性能を評価する.実験では,類似文字列検索の最近の手法であるLocalitySensitiveHashing(LSH)~\cite{Andoni:08},SkipMerge,DivideSkip~\cite{Li:08}等と提案手法を比較する.実験結果では,提案手法が全てのデータセットにおいて,最も高速かつ正確に文字列を検索できることが示される.\end{enumerate}本論文の構成は以下の通りである.次節では,類似文字列検索の必要十分条件,必要条件を導出し,式\ref{equ:approximate-string-retrieval}が$\tau$オーバーラップ問題として正確に解けることを示す.第\ref{sec:method}節では,本論文が提案するデータ構造,及び$\tau$オーバーラップ問題の効率的なアルゴリズムを説明する.第\ref{sec:evaluation}節で,評価実験とその結果を報告する.第\ref{sec:related-work}節では,類似文字列検索の関連研究をまとめる.第\ref{sec:conclusion}節で,本論文の結論を述べる. \section{類似文字列検索の定式化} \label{sec:formalization}本研究では,文字列は{\bf特徴}の集合で表現されると仮定する.文字列の特徴の捉え方は,提案手法に依らず任意であるが,本論文では一貫して文字tri-gramを具体例として用いる.例えば,文字列$x=\mbox{「スパゲッティー」}$は,9要素の文字tri-gramから構成される集合$X$で表現される.\begin{equation}X=\{\mbox{\texttt{`$$ス'}},\mbox{\texttt{`$スパ'}},\mbox{\texttt{`スパゲ'}},\mbox{\texttt{`ゲッテ'}},\mbox{\texttt{`ッティ'}},\mbox{\texttt{`ティー'}},\mbox{\texttt{`ィー$'}},\mbox{\texttt{`ー$$'}}\}\end{equation}ここで,文字列の先頭と末尾に\texttt{`$'}を挿入し,文字列の開始と終了を表現している\footnote{この例では,先頭と末尾を表す記号\texttt{`$'}を付加したが,これも提案手法に依らず任意である.}.一般に,文字数が$|x|$の文字列$x$を文字$n$-gramの集合$X$で表現したとき,$|X|=|x|+n-1$という関係が成り立つ.本論文では,文字列を小文字の変数($x$など)で表し,文字列を特徴の集合に変換したものを{\bf特徴集合}と呼び,対応する大文字の変数($X$など)で表す.$|x|$を文字列$x$の{\bf長さ},$|X|$を文字列$x$の{\bfサイズ}と呼び,これらを区別する.なお,特徴に頻度などの重みが付くときは,特徴の識別子を分割することで,重み付きの集合を模擬する.例えば,文字列「トラトラトラ」を文字tri-gramで表現するとき,\texttt{`トラト'}と\texttt{`ラトラ'}が2回ずつ出現する.これを集合で表現するには,tri-gramの末尾に出現回数を表す番号を付加すれば良い.これにより「トラトラトラ」は,\{\mbox{\texttt{`$$ト'\#1}},\mbox{\texttt{`$トラ'\#1}},\mbox{\texttt{`トラト'\#1}},\mbox{\texttt{`ラトラ'\#1}},\mbox{\texttt{`トラト'\#2}},\mbox{\texttt{`ラトラ'\#2}},\mbox{\texttt{`トラ$'\#1}},\mbox{\texttt{`ラ$$'\#1}}\}という集合で表現できる.特徴に出現回数を付与することは実用上重要であるが,説明が冗長になるため,以降では省略する.本論文では,ダイス係数,ジャッカード係数,コサイン係数,オーバーラップ係数など,集合間のオーバーラップに基づく類似度(集合間類似度)に対して,類似文字列検索アルゴリズムを導出する.文字列の特徴と類似度関数は,類似文字列検索の精度を左右するので,アプリケーションに応じて慎重に選択する必要がある.しかし,どのくらいの精度の類似度関数が必要になるかはアプリケーション依存であるため,文字列の特徴や類似度関数の選び方は本論文の対象外とし,与えられた特徴空間と類似度関数に対して,出来るだけ効率よく$\mathcal{Y}_{x,\alpha}$を求めるアルゴリズムを提案することに注力する.精細な類似度が必要な場合は,適当な類似度関数に対して緩い閾値$\alpha$を用い,提案手法で再現率が高くなるように類似文字列を検索し,関連研究(第\ref{sec:related-work}節)で紹介する手法などで精査することで,適合率を改善すればよい.さて,文字列$x$と$y$を,それぞれ特徴集合$X$と$Y$で表すとき,$x$と$y$のコサイン係数は,\begin{equation}{\rmcosine}(X,Y)=\frac{|X\capY|}{\sqrt{|X||Y|}}.\label{equ:cosine}\end{equation}この定義式を式\ref{equ:approximate-string-retrieval}に代入すると,類似文字列のための必要十分条件が得られる.\begin{equation}\left\lceil\alpha\sqrt{|X||Y|}\right\rceil\leq|X\capY|\leq\min\{|X|,|Y|\}\label{equ:match-condition}\end{equation}ここで,$\lceilv\rceil$は$v$の整数値への切り上げを表す.また,式\ref{equ:match-condition}には,$|X\capY|$の上限値$\min\{|X|,|Y|\}$を不等式として組み込んだ.式\ref{equ:match-condition}は,特徴集合$X$と$Y$のコサイン係数が$\alpha$以上になるためには,少なくても$\left\lceil\alpha\sqrt{|X||Y|}\right\rceil$個の要素を共通に持つ必要があることを示している.必要十分条件において,$|X\capY|$が取るべき最小の値を,$X$と$Y$の{\bf最小オーバーラップ数}と呼び,以降{\bfこの数を$\tau$で表す}.$\tau$は,$|X|$,$|Y|$,$\alpha$に依存して計算される値である.ところで,式\ref{equ:match-condition}において$|X\capY|$を無視すると,$|X|$と$|Y|$に関する不等式を得る.\begin{equation}\alpha\sqrt{|X||Y|}\leq\min\{|X|,|Y|\}.\end{equation}この不等式を$|Y|$について解くと,類似文字列の必要条件が得られる.\begin{equation}\left\lceil\alpha^2|X|\right\rceil\leq|Y|\leq\left\lfloor\frac{|X|}{\alpha^2}\right\rfloor\label{equ:necessary-condition}\end{equation}ここで,$\lfloorv\rfloor$は$v$の整数値への切り捨てを表す.この不等式は,$X$に対して類似文字列検索を行う際の,$Y$に関する探索範囲を表現している.言い換えれば,特徴集合の要素数がこの範囲外の文字列は,無視できる.なお,同様の導出は,ダイス係数,ジャッカード係数,オーバーラップ係数などの類似度関数に対しても可能である.表\ref{tbl:conditions}に,それぞれの類似度関数の条件式をまとめた.これらの条件式の大元の出典は不明であるが,本論文で導出した条件式は,いくつかの先行研究でも用いられている~\cite{Sarawagi:04,Li:08,Xiao:08b}.\begin{table}[t]\caption{集合間類似度を用いた類似文字列検索における$|Y|$の必要条件,及び$|X\capY|$の必要十分条件}\label{tbl:conditions}\input{02table01.txt}\end{table}ここで,導出した不等式の利用例を説明する.検索クエリ文字列$x=\mbox{「スパゲティー」}$とし,コサイン類似度の閾値$\alpha=0.7$で類似文字列検索を行う.また,文字列の特徴を文字tri-gramで表現することとする(したがって,$|X|=6+3-1=8$である).式\ref{equ:necessary-condition}から,$Y$の要素数に関する探索範囲は$4\leq|Y|\leq16$である.この範囲内で,例えば$|Y|=9$となる文字列を考慮しているとき,式\ref{equ:match-condition}から,類似文字列の必要十分条件,$6\leq|X\capY|$が得られる.この必要十分条件は,$X$のtri-gramのうち,少なくても6個は$Y$にも出現しなければならないことを表す.例えば,$y=\mbox{「スパゲッティー」}$を考えると,$|X\capY|=6$である.したがって,$y$は類似文字列検索の解の1つである.実際,$x$と$y$のコサイン類似度は,$6/\sqrt{8\times9}=0.707$($\geq\alpha$)である.以上のことをまとめると,種々の類似度関数を用いた類似文字列検索は,次のような一般的な手順で実装することができる.\begin{enumerate}\item与えられた検索文字列$X$と類似度閾値$\alpha$から,$|Y|$の範囲を求める\itemその範囲内で,$|X\capY|$の条件を満たす$Y$を見つける\end{enumerate}次節では,これらの手順を効率良く実装するデータ構造とアルゴリズムを議論する. \section{データ構造とアルゴリズム} \label{sec:method}\subsection{データ構造}\label{sec:data-structure}前節までの議論により,類似文字列検索は次の部分問題を解くことに帰着される.\begin{definition}[$\tau$オーバーラップ問題]検索クエリ文字列の特徴集合$X$が与えられたとき,その特徴を$\tau$個以上共有する文字列$Y$を全て見つける.\end{definition}ここで,$\tau$は$X$と$Y$の最小オーバーラップ数で,コサイン係数を類似度関数として用いる場合は,$\tau=\left\lceil\alpha\sqrt{|X||Y|}\right\rceil$である.この部分問題を効率的に解くため,特徴をキーとして,その特徴を含む文字列のリストを値とする連想配列(転置インデックス)を構築する.式\ref{equ:match-condition}から,探索すべき文字列のサイズ$|Y|$の範囲が絞り込まれること,式\ref{equ:necessary-condition}から,$|Y|$に依存して最小オーバーラップ数$\tau$が決まることを考慮し,文字列のサイズ$l$毎に転置インデックス$D_l$を構築する.また,アルゴリズムを効率よく実行するため,文字列をユニークな文字列識別番号(SID)で表現し,転置リストは特徴を含む文字列のSIDを昇順に並べたものを格納することとする.図\ref{fig:data-structure}に,データ構造の実現例を示した.例えば,\texttt{`$$ス'}を特徴に持つ文字列のSIDは,\#267,\#452,\#743,\#2389,...であり,「スパゲッティー」のSIDは\#452である.図\ref{fig:data-structure}では,文字列のサイズ毎にハッシュ表を構築しているが,SQLなどの関係データベースを用いても,同様のデータ構造が実現できる.\begin{figure}[b]\begin{center}\includegraphics{18-2ia2f1.eps}\end{center}\caption{複数の転置インデックスで構築された類似文字列検索のためのデータ構造}\label{fig:data-structure}\end{figure}図\ref{alg:approximate-string-matching}に,類似文字列検索の擬似コードを示す.文字列のサイズ$l$毎に構成された転置インデックスの配列$D=\{D_l\}$に対して,検索文字列$x$,類似度閾値$\alpha$が与えられると,この擬似コードは$x$との類似度が$\alpha$以上の文字列のSIDのリスト$R$を返す.1〜3行目で,クエリ文字列$x$を特徴集合$X$に変換し,考慮すべき文字列のサイズの範囲を表\ref{tbl:conditions}から求める.探索範囲内のそれぞれの長さ$l\in[n,N]$に対し(5行目),最小オーバーラップ数$\tau$を求め(6行目),{\ttoverlap\_join}関数で$\tau$オーバーラップ問題を解き,解集合$R$を更新する(7行目).\subsection{$\tau$オーバーラップ問題のアルゴリズム}\ref{sec:data-structure}節では,特徴をキーとして,その特徴を含む文字列(SID)のリストを返す転置インデックスを構築した.特徴$q$の転置リストに含まれている文字列は,特徴$q$を含むことが保証されている.したがって,特徴$q\inX$に対応する$|X|$個の転置リストの中で,ある文字列$y$が$c$個の転置リスト2回出現するならば,$|X\capY|=c$である.ゆえに,転置リスト上において$\tau$回以上出現するSIDを見つけることで,$\tau$オーバーラップ問題を解くことができる.図\ref{alg:t-overlap-naive}に,このアイディアに基づく$\tau$オーバーラップ問題の解法({\bfAllScanアルゴリズム})を示した.4行目の関数$\mbox{\ttget}(d,q)$は,転置インデックス$d$の中で特徴$q$に対応する転置リスト(SIDのリスト)を返す関数である.この擬似コードは,転置インデックス$d$,特徴集合$X$,最小オーバーラップ数$\tau$を受け取り,SIDの出現頻度,すなわち$|X\capY|$を連想配列$M$に格納し,その値が$\tau$に到達したSIDをリスト$R$に入れて返すものである.表\ref{tbl:spaghetti-solutions}は,検索クエリ文字列$x=\mbox{「スパゲティー」}$に対して,Web日本語Nグラムコーパスのユニグラムの中で,文字数が7(つまり$|Y|=9$)の文字列を実際に検索するとき,$|X\capY|$の高い文字列10件を示したものである(文字列の特徴はtri-gramで表現).コサイン係数が0.7以上の文字列を探すには,$\tau=\left\lceil\alpha\sqrt{|X||Y|}\right\rceil=6$であるから,類似文字列検索の解は「スパッゲティー」「スパゲティーニ」「スパゲティー・」「スパゲッティー」の4つである.\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{18-2ia2f2.eps}\end{center}\caption{類似文字列検索のアルゴリズム.}\label{alg:approximate-string-matching}\vspace{22pt}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{18-2ia2f3.eps}\end{center}\caption{AllScanアルゴリズム.}\label{alg:t-overlap-naive}\end{minipage}\end{figure}AllScanアルゴリズムの実装は簡単であるが,検索に用いる特徴が数多くの文字列に出現するとき,走査するSIDの数が非常に大きくなるという欠点がある.例えば,\texttt{`ティー'}(「ティー」を含む)や\texttt{`ー$$'}(「ー」で終わる)などの文字tri-gramは,日本語の多くの語で出現するため,転置リストが大きくなる傾向にある.表\ref{tbl:spaghetti-stat}に,Web日本語Nグラムコーパスにおいて,「スパゲティー」の各tri-gramの転置リストのサイズ(すなわち,各tri-gramを含む文字列の数)を示した.この表によると,AllScanアルゴリズムは30,584種類,35,964個のSIDを走査することになるが,その中でたった4個(0.013\%)しか解にならない.走査すべきSIDの数を減らすため,$\tau$オーバーラップ問題に関する次の性質に着目する~\cite{Arasu:06,Chaudhuri:06}.\newpage\begin{property}要素数が$k$の集合$X$と,要素数が任意の集合$Y$がある.要素数が$(k-\tau+1)$となる任意の部分集合$Z\subseteqX$を考える.もし,$|X\capY|\geq\tau$ならば,$Z\capY\neq\phi$である.\label{prop:signature}\end{property}この性質は,その対偶を考えれば明白である.すなわち,$Z\capY=\phi$ならば,$Z$の定義から$|X\setminusZ|=k-(k-\tau+1)=\tau-1$であるので,$|X\capY|=|\{(X\setminusZ)\cupZ\}\capY|=|(X\setminusZ)\capY|+|Z\capY|\leq\tau-1$.ゆえに,$|X\capY|<\tau$が示される\footnote{二項演算子$\setminus$は差集合を表す.つまり$A\setminusB$は集合$A$から集合$B$に属する要素を間引いて得られる集合である.}.\begin{table}[t]\begin{minipage}[t]{0.45\textwidth}\setlength{\captionwidth}{\textwidth}\hangcaption{検索文字列$x=\text{「スパゲティー」}$に対し,Web日本語Nグラムコーパス中で$|X\capY|$の大きい文字列($|Y|=9$のとき)}\label{tbl:spaghetti-solutions}\input{02table02.txt}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\setlength{\captionwidth}{\textwidth}\hangcaption{Web日本語Nグラムコーパス中で,検索文字列$x=\text{「スパゲティー」}$の各tri-gramを含む文字列の数($|Y|=9$のとき)}\label{tbl:spaghetti-stat}\input{02table03.txt}\end{minipage}\end{table}性質\ref{prop:signature}の利用例を,先の類似文字列検索を用いて説明する.検索クエリ文字列$x=「スパゲ\linebreakティー」$に対し,$|Y|=9$かつ,$\tau=6\leq|X\capY|$という条件を満たす文字列$y$を検索している.検索される文字列$y$が$|X\capY|\geq6$を満たすならば,特徴集合$X$中の任意の$(8-6+1)=3$要素で構成された任意の部分集合$Z\subsetX$に対し,$Z\capY\neq\phi$である.言い換えれば,特徴集合$X$中の任意の3要素を選ぶと,対応する転置リストに,類似文字列検索の解が(あるとすれば)必ず含まれている.この性質を用いると,類似文字列検索の解の候補を絞り込むことができる.解候補を生成するために用いる要素は,シグニチャ~\cite{Arasu:06}と呼ばれる.では,検索文字列の特徴集合の中で,どの要素をシグニチャとして採用すれば良いのだろうか?シグニチャの特徴数は性質\ref{prop:signature}から決定されるが,その選び方は任意である.したがって,転置リストのサイズが小さい特徴をシグニチャとして採用すれば,解候補生成時に走査するSIDの数を減らすことができる.すなわち,文字列データベース中で稀に出現するtri-gramを優先的にシグニチャとして採用し,解の候補を絞り込めばよい.表\ref{tbl:spaghetti-stat}の例では,「パゲテ」「ゲティ」「スパゲ」をシグニチャとして選択することになる.シグニチャによる解候補生成を採用したアルゴリズムを,図\ref{alg:t-overlap-cpmerge}に示す.性質\ref{prop:signature}より,特徴集合$X$を,要素数$(|X|-\tau+1)$のシグニチャ$S$と,残り$L$$(=X\setminusS)$に分解する.このアルゴリズムは,2から7行目で類似文字列検索の解候補をシグニチャ$S$から獲得し,8行目から21行目で解候補の検証と枝刈りを$L$で行う.このアルゴリズムは,解候補の生成と枝刈りをしながら転置リストをマージしていくので,{\bfCPMergeアルゴリズム}と命名した.\begin{figure}[b]\begin{minipage}{187pt}\includegraphics{18-2ia2f4.eps}\caption{CPMergeアルゴリズム}\label{alg:t-overlap-cpmerge}\vspace{74pt}\end{minipage}\hfill\begin{minipage}{231pt}\includegraphics{18-2ia2f5.eps}\caption{CPMerge-optの擬似コード}\label{alg:t-overlap-cpmerge-post}\end{minipage}\end{figure}1行目で,検索文字列の特徴集合の要素を,転置リストのサイズ(要素数)の昇順に並び替える.このとき,$X[k]$の転置リストの内容をすべてメモリに読み込まなくても,$|\mbox{\ttget}(d,X[k])|$の値を取得し,$X$の要素を並び替えられるようにしておくことは,実用上重要である(この理由は\ref{sect:cpmerge-stat}節で明らかになる).特徴集合$X$の要素を並び替えたとき,稀な特徴の順番に$X[0],\ldots,X[|X|-1]$とアクセスできるものとする.シグニチャ$S$として採用されるのは,$X[0],\ldots,X[|X|-\tau+1]$である.アルゴリズムの2から7行目では,シグニチャの特徴を持つ文字列をデータベース$d$から検索し,その転置リストにおける出現回数を連想配列$M$に記録する.先の例と同じ類似文字列検索($x=\mbox{「スパゲティー」}$,$|Y|=9$,$\tau=6\leq|X\capY|$)に対して,CPMergeアルゴリズムの動作例を表\ref{tbl:spaghetti-process}に示した.候補生成フェーズでは,「パゲテ」「ゲティ」「スパゲ」のtri-gramを含む文字列を検索し,検索された文字列を解候補とするとともに,該当する箇所に「○」を記している.シグニチャから獲得される解候補の数は32で,AllScanアルゴリズムと比べると,解候補数を0.105\%まで絞り込んだことになる.アルゴリズムの9行目から21行目では,それぞれの候補文字列が,残りの特徴$L$を持っているかどうかを調べる.それぞれの解候補$i\inM$が(10行目),特徴$X[k]$を持っているかどうかを,転置リスト$\mbox{\ttget}(d,X[k])$上における二分探索で調べ(11行目),転置リストが$i$を含んでいれば,頻度カウンタをインクリメントする(12行目).もし,頻度カウントが$\tau$に到達したら(14行目),$i$を結果リスト$R$に追加し(15行目),候補$M$から削除する(16行目).もし,頻度カウントが$\tau$に到達していない場合は,以下の性質を利用して枝刈りの可能性を調べる.\begin{property}要素数が$g$の集合$X$と,要素数が任意の集合$Y$がある.要素数が$h$のある部分集合$Z\subseteqX$を考える.もし,$|Z\capY|=\theta$ならば,$|X\capY|\leq\theta+g-h$である.\end{property}$Z$の定義により$|X\setminusZ|=g-h$であるから,$|(X\setminusZ)\capY|\leqg-h$.したがって,この性質は$|X\capY|$の上限値が$(\theta+g-h)$になることを表現している.図\ref{alg:t-overlap-cpmerge}のアルゴリズムでは,$\theta=M[i]$,$g=|X|$,$h=(k+1)$とおき,$|X\capY|$の上限値を$(M[i]-|X|-k-1)$と計算し,この値が$\tau$を下回っているならば(17行目),候補$i$を枝刈りする(18行目).\begin{table}[p]\hangcaption{Web日本語Nグラムコーパスにおいて,検索文字列$x=\text{「スパゲティー」}$に対し,$6\leq|X\capY|$となる文字列$y$を見つける際の,候補生成と検証プロセスの実行例($|Y|=9$の場合)}\label{tbl:spaghetti-process}\input{02table04.txt}\end{table}表\ref{tbl:spaghetti-process}は,検証フェーズ($3\leqk\leq7$)の動作例も示している.$k=3$では,32個の候補文字列のそれぞれに対して,414個のSIDを含む転置リスト上で二分探索を行い,「$スパ」というtri-gramを含むかどうか調べている.候補文字列が特徴を含む場合は「○」,含まない場合は「×」が記される.もし,候補文字列が「$スパ」というtri-gramを含んでおらず,これまでの出現頻度が1回だった場合は,今後$4\leqk\\leq7$の全ての転置リストに出現しても,出現頻度の最大値は5に留まる.つまり,$|X\capY|<6$となることが確定しているので,「アニスパゲス」「イカスバゲティ」などの文字列は,$k=3$において枝刈りする.表\ref{tbl:spaghetti-process}では,枝刈りされる候補に「{\bf×.}」を記している.枝刈りにより,$k=3$において15個の解候補が枝刈りされ,候補は17文字列に減る.$k=4,5$でも同様の処理を行い,解の候補はそれぞれ8個,5個まで絞り込まれる.$k=6$では,「スパゲティー・」と「スパゲティーニ」の出現回数が6に到達するので,候補集合から解集合に移動させる(\scalebox{1.7}{$\boldsymbol{\circ}$}\textbf{.}で表示).$k=7$では,「スパゲッティー」と「スパッゲティー」の出現回数が6に到達し,全ての候補の検証が終了したことになる.CPMergeアルゴリズムにおいて,$X[k]$の転置リストを処理した後に残る解候補の数を$C_k$,$X[k]$の転置リストの要素数を$P_k=|\mbox{\ttget}(d,X[k])|$とする.CPMergeの検証フェーズでは,それぞれの候補に対して二分探索を行うため,9行目の各$k$に対して,10〜20行目の計算量は$O(C_{k-1}\logP_k)$である.$X[k]$の並び順の定義から,$k$が大きくなると$P_k$も増加するが,枝刈りが有効に働けば,$C_k$が小さくなる.表\ref{tbl:spaghetti-process}の例では,各$k$に対して$C_{k-1}\logP_k$の値は,193($k=3$),115($k=4$),57.5($k=5$),45.1($k=6$),20.2($k=7$)であり,9〜21行目のループが進むにつれて,計算量の見積りが減少する.検索クエリ文字列やデータベースの文字列集合のtri-gramの分布により,$C_k$や$P_k$の傾向が異なるので,計算量の見積りを一般的に行うことは難しい.そこで,第\ref{sec:evaluation}節では,CPMergeアルゴリズムが実際のデータセットに対して動作する際の,解の候補数,転置リストに含まれるSIDの数などの統計情報を報告する.\subsection{実装上の工夫}図\ref{alg:t-overlap-cpmerge}のアルゴリズムでは,SIDをキーとして頻度を格納する連想配列$M$を用いていた.実は,転置リストが整列済みのSIDで構成されるという性質を利用すれば,情報検索における転置リストのマージ~\cite{IR}と同様に,連想配列をリスト構造(可変長配列)で代用できる.主要なプログラミング言語では連想配列を容易に扱えるが,アクセスのコストがリスト構造よりも大きいので,連想配列をリスト構造で置き換えることで,検索処理の高速化が期待できる.図\ref{alg:t-overlap-cpmerge-post}は,図\ref{alg:t-overlap-cpmerge}から連想配列を排除し,リスト構造のみでCPMergeアルゴリズムを実装するもの(CPMerge-opt)である.図\ref{alg:t-overlap-cpmerge-post}の2〜21行目は,図\ref{alg:t-overlap-cpmerge}の2〜7行目に対応し,解の候補生成を行う.2行目では,解候補の頻度を計測する変数$M$を初期化しているが,その型は連想配列($\{\\}$)から,可変長配列($[\]$)に変更されている.CPMerge-optでは,$M$の要素は$(\mbox{\rmSID},\mbox{頻度})$のタプルであり,要素はSIDの昇順に並べる.3〜21行目の基本的な流れは,$(k-1)$における解候補リスト$M$と,$P=\mbox{\ttget}(d,X[k])$の転置リストを,先頭から順に比較していき,一時変数$W$に$k$における解候補リストを作成する.最後に,$M$を$W$で上書きし(20行目),$k+1$のステップへと進む.各$k$において,$W$を空のリストで初期化し(4行目),$M$と$P$でこれから処理する要素の位置(インデックス)を管理する変数$m$と$p$を,それぞれ$0$で初期化する(6行目).7行目から19行目までは,$M$と$P$の全ての要素を処理し終わるまで,以下の処理を繰り返す.\begin{enumerate}\itemもし転置リスト$P$のSID($P[p]$)が,$(k-1)$における解候補リスト$M$に含まれていない場合(8行目),$P[p]$を新しい候補として$W$に登録し(9行目),$p$をインクリメントする(10行目).\itemもし,$(k-1)$における解候補リスト$M$中のSID($M[m].{\rmid}$)が,転置リスト$P$に含まれていない場合(11行目),$M[m]$を$W$にそのまま追加し(12行目),$m$をインクリメントする(13行目).\itemそれ以外の場合,すなわち転置リスト$P$の要素$P[p]$と解候補リスト$M$中の$M[m].{\rmid}$が等しい場合(14行目),$M[m]$の頻度をインクリメントしたものを$W$に追加し(15行目),$p$と$m$の両方をインクリメントする(16行目).\end{enumerate}図\ref{alg:t-overlap-cpmerge-post}の22〜36行目は,図\ref{alg:t-overlap-cpmerge}の8〜21行目に対応し,解の候補の検証と枝刈りを行っている.CPMerge-optでは,$(k-1)$における解候補リスト$M$に対して,転置リスト$\mbox{\ttget}(d,X[k])$で検証を行い,枝刈りされなかった候補を一時変数$W$に待避し,$k$における処理が終わったら$M$を$W$で上書きしている.図\ref{alg:t-overlap-cpmerge}と図\ref{alg:t-overlap-cpmerge-post}のその他の箇所は,ほとんど同じである. \section{実験} \label{sec:evaluation}\subsection{比較したシステム}本節では,大規模な文字列データセットに対して,種々の類似文字列検索アルゴリズムの性能を比較し,提案手法の有用性を示す.実験に用いたシステムは,以下の通りである.なお,先行研究の詳細については,\ref{sec:related-work}節を参照されたい.\begin{itemize}\item{\bf提案手法}:$\tau$オーバーラップ問題をCPMerge(図\ref{alg:t-overlap-cpmerge})で解くもの\item{\bf提案手法-opt}:CPMergeを図\ref{alg:t-overlap-cpmerge-post}の擬似コードで高速化したもの\item{\bf総当たり法}:検索クエリが与えられる毎に,データベース内の全ての文字列と類似度を計算し,閾値以上の文字列を見つけ出す方法\item{\bfAllScan}:$\tau$オーバーラップ問題をAllScanアルゴリズム(図\ref{alg:t-overlap-naive})で解くもの\item{\bfSignature}:$\tau$オーバーラップ問題をCPMerge(図\ref{alg:t-overlap-cpmerge})で解くが,解候補の枝刈りを行わないもの(図\ref{alg:t-overlap-cpmerge}の17〜18行目を削除)\item{\bfSkipMerge}:$\tau$オーバーラップ問題をSkipMergeアルゴリズム~\cite{Li:08}で解く\item{\bfDivideSkip}:$\tau$オーバーラップ問題をDivideSkipアルゴリズム~\cite{Li:08}で解く\footnote{今回の実験では,パラメータ$\mu\in\{0.01,0.02,0.04,0.1,0.2,0.4,1,2,4,10,20,40,100\}$を試し,最も検索レスポンスが速かった$\mu=40$を採用した.}\item{\bfMergeOpt}:$\tau$オーバーラップ問題をMergeOptアルゴリズム~\cite{Sarawagi:04}で解く.ただし,MergeOptは重み付きの類似度を用いた類似文字列検索アルゴリズムであり,本論文と実験設定を揃えるため,次のような修正を行った.(1)文字列の特徴の重みはすべて等しいこととする.(2)提案手法と同様に,転置リストはサイズの昇順でソートする.(3)転置リストを候補生成用$S$と検証用$L$に分割するときは,提案手法と同様に$S$をシグニチャの転置リストとする.\item{\bfLocalitySensitiveHashing(LSH)}~\cite{Andoni:08,Ravichandran:06}:文字列のtri-gramを特徴とし,64ビットの局所鋭敏ハッシュ(LSH)値を計算する関数を$h(x)$とする.2つのハッシュ値$v_1$と$v_2$の,ビット単位でのハミング距離(ビットの異なり数)を,${\rmhdist}(v_1,v_2)$と書く.このシステムは,クエリ文字列$x$が与えられると,そのハッシュ値$h(x)$とのハミング距離が$\delta$以内の文字列を$V$から探し,解候補となる文字列集合$C$($|C|\ll|V|$)を求める.\begin{equation}C=\{y\inV\bigm|{\rmhdist}\left(h(x),h(y)\right)\leq\delta\}\label{equ:LSH-candidate}\end{equation}解候補のそれぞれの文字列$y\inC$に対して,実際に$x$との類似度を計算し,閾値以上の文字列を解とする.式\ref{equ:LSH-candidate}の正確な解を求めることは難しいため,Ravichandranら~\cite{Ravichandran:06}の手順を参考に,近似解を求める.基本的なアイディアは,データベース中の文字列のハッシュ値のビット列を並び替え,検索クエリの(ビット列を並び替えられた)ハッシュ値の近傍を探すという試行を繰り返せば,式\ref{equ:LSH-candidate}の近似解が求まるというものである.ある文字列のハッシュ値$h(y)$のビット列を,置換$\sigma_p$で並び替えたものを$\sigma_p(h(y))$で表し,そのような置換をランダムに$P$種類用意し,$\Sigma=\{\sigma_p\}$とする.置換$\sigma_p$を用いて,データベースに含まれている全ての文字列$y\inV$のハッシュ値のビット列を並び替え,辞書順にソートしたハッシュ値リストを$a_p$とする.置換を$P$種類別々に適用すると,ハッシュ値のリストも$P$種類作られる.すると,$a_p$の中でクエリの(置換が適用された)ハッシュ値$\sigma_p(h(x))$に近い要素を二分探索で求め,その近傍の$W$個の文字列の中でハミング距離が$\delta$以内のものを見つけ出すことで,式\ref{equ:LSH-candidate}を近似的に求めることができる.この処理を,準備しておいた$P$個の置換と,対応する$P$個のハッシュ値リストに対して行い,式\ref{equ:LSH-candidate}の近似解の精度を向上させる.LSHは,類似文字列検索の解の近似解を高速に求める手法であるため,検索漏れ(類似文字列が検索されない状況)が生じることがある.LSHでは,ハミング距離の閾値($\delta$),並び替えハッシュ値リストの数($P$),近傍探索の幅($W$)の3つのパラメータで検索速度と再現率のトレードオフを調整する.今回の実験では,実験的に$\delta=24$,$P=24$と決定し\footnote{パラメータ$P$は,並び替えたハッシュ値リストが全てメモリ上に載るようにするため,$24$と決定した.パラメータ$\delta$として,$\delta\in\{8,16,24\}$を試し,検索速度と再現率のバランスが良かった$24$を採用した.},$W$を$W\in\{16,32,64\}$と変えながら性能を測定した.\end{itemize}総当たり法とLSH以外のすべてのシステムは,図\ref{alg:approximate-string-matching}の実装を共有しており,$\tau$オーバーラップ問題の解法が性能差となって現れる.ハッシュ・データベースとしては,CDB++\footnote{http://www.chokkan.org/software/cdbpp/}を用い,提案手法をC++で実装したライブラリとして,SimString\footnote{http://www.chokkan.org/software/simstring/}を公開している.すべての実験は,IntelXeon5140CPU(2.33~GHz)と8~GBの主記憶を搭載したDebianGNU/Linux4.0のアプリケーション・サーバー上で行った.転置インデックスはファイル上に構築し,実験時には必要に応じて主記憶に読み込んでいる.\subsection{実験に用いたデータセット}実験に用いたデータセットは,以下の3つである.\begin{itemize}\item{\bfIMDB}:IMDBデータベース\footnote{ftp://ftp.fu-berlin.de/misc/movies/database/}のファイル\texttt{actors.list.gz}から抜き出した\pagebreakすべての俳優名(1,098,022文字列,18~MB).1つの文字列当たりの文字tri-gramの特徴数は17.2,データセット全体における文字tri-gramの種類数は42,180である.SimStringは,このデータセットから83~MBのインデックスファイル群を,56.6秒で構築した.\item{\bf日本語ユニグラム}:Web日本語Nグラム第1版\footnote{http://www.gsk.or.jp/catalog/GSK2007-C/catalog.html}に収録されている単語ユニグラム\linebreak(2,565,424文字列,49~MB).1つの文字列当たりの文字tri-gramの特徴数は20.8,データセット全体における文字tri-gramの種類数は137,675である\footnote{実験では日本語の文字列をUTF-8で表現し,UTF-8の1バイトを1文字とみなしてtri-gramを作っている.}.SimStringは,このデータセットから220~Mのインデックスファイル群を,134.0秒で構築した.\item{\bfUMLS}:UnifiedMedicalLanguageSystem(UMLS)\footnote{http://www.nlm.nih.gov/research/umls/}に収録されている生命医学分野の英語の概念や記述(5,216,323文字列,212~MB).評価に用いる文字列は,UMLSRelease2009AA(April6,2009)の\texttt{MRCONSO.RRF.aa.gz}及び\texttt{MRCONSO.RRF.ab.gz}というファイルに含まれる全ての英語の概念名である.一つの文字列当たりの文字tri-gramの特徴数は43.6,データセット全体における文字tri-gramの種類数は171,596である.SimStringは,このデータセットから1.1~GBのインデックスファイル群を,1216.8秒で構築した.\end{itemize}それぞれのデータセットにおいて,1,000個の文字列をランダムに選び,テスト用のクエリ文字列とした.完全には一致しない文字列で検索する状況をシミュレートするため,1,000個の文字列のうち,1/3の文字列はそのまま,1/3の文字列には1文字をランダムな文字に置換,残りの1/3の文字列には2文字をランダムな文字に置換している.\subsection{1クエリあたりの平均レスポンス時間}\begin{figure}[b]\vspace{-1\baselineskip}\begin{center}\includegraphics{18-2ia2f6.eps}\end{center}\caption{1クエリ当たりの平均レスポンス時間(横軸はデータセットのサイズ)}\label{fig:query-time}\end{figure}図\ref{fig:query-time}に,各データセットでコサイン係数が0.7以上の類似文字列を検索するときの,1クエリあたりの平均レスポンス時間を示した.グラフの横軸は,データベースに登録する文字列の数($|V|$)で,データセット全体の10\%から100\%まで変化させた.また,表\ref{tbl:response}に,各データセットをすべて(100\%)利用したときのシステム性能として,検索の再現率(Recall),1クエリあたりの平均レスポンス時間(Mean),1クエリに対する最遅レスポンス時間(Max)をまとめた.実験したシステムの中ではLSH($W=16$)が最も高速に文字列を検索でき,データサイズが100\%の時の平均レスポンス時間は,0.53~ms(IMDB),1.61~ms(日本語ユニグラム),2.11~ms(UMLS)であった.また,平均レスポンス時間に対して最遅レスポンス時間がどのくらい遅くなるのかに着目すると,LSHは入力クエリの影響を受けにくいことが分かる\footnote{LSH(W=16)に関しては,最遅レスポンス時間が平均レスポンス時間と比べてかなり遅くなっているが,これは1クエリ当たりの処理時間が非常に短いため,実行時間の測定値の誤差が出やすくなるためと考えられる.}.これは,LSHでは探索範囲が$\delta$,$P$,$W$などのパラメータで一定に保たれるからである.一方,LSH以外の手法(総当たり法を除く)は,クエリ文字列に応じて$|Y|$の探索範囲が変化し,さらに,クエリ文字列に応じて転置リストのサイズが異なる(つまり,処理すべきSIDの数が変化する)ため,レスポンス時間のばらつきが大きくなる.\begin{table}[b]\hangcaption{各データセットを100\%利用したときのシステムの性能(Recall:再現率,Mean:平均レスポンス時間[ms/query],Max:最遅レスポンス時間[ms/query]).総当たり法に対しては,平均レスポンス時間のみを掲載した.}\label{tbl:response}\input{02table05.txt}\end{table}しかし,LSH($W=16$)は検索漏れが非常に多い.総当たり法で検索される類似文字列を正解とみなし,そのどのくらいをカバーできているか(再現率)を測定すると,LSH($W=16$)の再現率は,15.4\%(IMDB),7.5\%(日本語ユニグラム),4.0\%(UMLS)であった.これは,式\ref{equ:LSH-candidate}の近似解の精度が悪いためである.LSHの再現率を改善するには,周辺探索の幅($W$)を大きくすればよいが,レスポンス時間を犠牲にしなければならない.例えば,LSH($W=64$)では,再現率は25.8\%(IMDB),15.4\%(日本語ユニグラム),11.1\%(UMLS)に改善されるが,レスポンス時間は29.72~ms(IMDB9,38.07~ms(日本語ユニグラム),79.73~ms(UMLS)まで遅くなる.これに対し,提案手法では調整するパラメータもなく,正確な解(100\%の再現率)が保証されている.したがって,類似文字列検索の再現率を重視する場合は,提案手法の方が優れている.提案手法-optは,正確な解が得られるシステムの中で最もレスポンスが速く,データサイズが100\%の時の平均レスポンス時間は,1.07~ms(IMDB),26.99~ms(日本語ユニグラム),20.37~ms(UMLS)であった.提案手法と提案手法-optを比較すると,図\ref{alg:t-overlap-cpmerge-post}の実装上の工夫を利用することで,レスポンス時間が1.7〜2.1倍高速になった.そこで,以降の説明では単に「提案手法」というと,図\ref{alg:t-overlap-cpmerge-post}の工夫を適用した「提案手法-opt」を指すこととする.総当たり法のレスポンス時間は図\ref{fig:query-time}にプロットできないくらい遅く,32.8~s(IMDB),92.7~s(日本語ユニグラム),416.3~s(UMLS)であった.提案手法は,総当たり法よりも3,400〜20,000倍高速に動作し,類似文字列検索を実用的な速度で実現している.提案手法は,AllScanアルゴリズムよりもかなり高速に動作し,検索速度は65.3倍(IMDB),24.8倍(日本語ユニグラム),19.2倍(UMLS)高速であった.提案手法とSignatureシステムを比較すると,提案手法の方がSignatureよりも115.9倍(IMDB),237.0倍(日本語ユニグラム),2323倍(UMLS)高速であった.Signatureシステムと提案手法の差は,解候補の枝刈り(図\ref{alg:t-overlap-cpmerge}の17〜18行目)のみであるが,この処理を省くと大幅にレスポンスが低下し,AllScanアルゴリズムよりも遅くなる.これらのシステムの比較から,$\tau$オーバーラップ問題を解く際に解候補を絞り込んでおくこと,二分探索の回数を減らすために解候補の枝刈りをすることが,非常に重要であることが伺える.先行研究であるMergeOpt,SkipMerge,DivideSkipは,各転置リストの先頭(SIDの小さい方)からSIDを優先順位付きキューに挿入するアルゴリズムを採用しており,$\tau$オーバーラップ問題の解き方が提案手法と全く異なる.このため,レスポンス時間の差の要因を分析することは難しいが,提案手法はMergeOptよりも6.47〜9.68倍,SkipMergeよりも5.14〜6.15倍,DivideSkipよりも11.1〜24.1倍高速であった.IMDBデータセットにおいて,提案手法が検索に最も時間を要したクエリ文字列は,``Morales,Michael(VIII)''で,11.8~msを要した.以下,``Reiner,Robert(I)''(9.2~ms),``Dore,Michael(I)''(9.2~ms),``Dow,Christopher(III)''(8.6~ms),``Cain,William(II)''(8.0~ms)と続く.これらのクエリが遅いのは,データセット中に似ている文字列(例えば``Morales,Michael(III)''や``Morales,Rafael(VIII)''など)が多く,$\tau$-オーバーラップ問題を解くときに多くの解候補を抱えるためである.例えば,``Morales,Michael(VIII)''というクエリに対し,データセット中の72,375個の文字列が解候補となり,最終的に解になったのは42文字列であった.一方,提案手法とSkipMergeアルゴリズムのレスポンス時間の差を計算したとき,提案手法の改善が最も顕著に表れたクエリの上位3件は,``Morales,Michael(VIII)''($-44.4$~ms),``Pittman,Robert(III)''($-39.0$~ms),``Richards,Jon(VII)''($-36.6$~ms)であった.ここでも,``Morales,Michael(VIII)''というクエリが登場し,その他の2つのクエリも解候補が非常に多い(40,000個以上)ことから,データセット中にクエリ文字列と似ている文字列が多く存在するとき,提案手法の優位性が際立つと考えられる.逆に,提案手法がSkipMergeアルゴリズムよりも遅くなったクエリは無かったものの,改善が全く見られなかったクエリとして,``Zhao,lSh@nqiu''($\pm0$~ms),``Peral9a,dStacy''($\pm0$~ms),``Sen]g[renqing''($\pm0$~ms)などが見つかった.これらのクエリは,元々``Zhao,Shenqiu'',``Peralta,Stacy'',``Senggerenqing''の文字列にノイズが加わったものと考えられるが,転置リストに含まれる文字列の種類数が非常に少なく,それぞれ3個,108個,18個であった.したがって,転置リストにおいて処理すべき文字列の数が圧倒的に少ないため,アルゴリズム間の差が出にくくなったと考えられる.このような場合でも,提案手法はSkipMergeアルゴリズムよりも遅くならず,同程度のレスポンス時間を出していた.\begin{figure}[b]\begin{center}\includegraphics{18-2ia2f7.eps}\end{center}\caption{1クエリ当たりの平均レスポンス時間(横軸は類似度閾値)}\label{fig:query-time-sim}\end{figure}図\ref{fig:query-time-sim}は,異なる類似度関数と閾値を用いたときの,提案手法のレスポンス時間を示している.類似度の閾値を低く設定すると,類似文字列検索の解となる文字列の数$|\mathcal{Y}|$が大きくなるので,提案手法のレスポンス時間が遅くなる.類似度関数の良さはタスク依存で決めることであるが,同じ閾値を用いた場合はジャッカード係数が最も速く,ダイス係数とコサイン係数が同程度,オーバーラップ係数が最も遅いという傾向が見られる.この傾向は,類似度関数の性質(どの程度文字列を類似していると見なすか)によって,類似文字列検索の解の数が異なることから説明できる.例えば,日本語ユニグラムコーパスにおいて閾値0.7で類似文字列検索を行った場合,ジャッカード係数,ダイス係数,コサイン係数,オーバーラップ係数が返す解文字列数の平均は,それぞれ,1.2個,14.8個,16.2個,1036.4個であった.したがって,類似文字列検索では,最も多い解を返すオーバーラップ係数が遅く,最も少ない解を返すジャッカード係数が速くなる.また,表\ref{tbl:conditions}の必要条件から求まる$|Y|$の探索範囲が,ジャッカード係数では最も狭く\footnote{$0\leq\alpha\leq1$であるから,$|Y|$の探索範囲の下限に関して,$\alpha^2|X|\leq\alpha|X|$,$\frac{\alpha}{2-\alpha}|X|\leq\alpha|X|$が成立する.$|Y|$の探索範囲の上限に関しても,$|X|/\alpha\leq|X|/\alpha^2$,$|X|/\alpha\leq\frac{2-\alpha}{\alpha}|X|$であり,ダイス係数やコサイン係数よりもジャッカード係数の方が,同じ閾値$\alpha$を用いたとき,$|Y|$の探索範囲が狭くなる.},オーバーラップ係数では$|Y|$の探索範囲に制約が付かないことから,類似度関数による検索速度の違いを推察できる.\subsection{提案手法の動作統計}\label{sect:cpmerge-stat}\begin{table}[b]\caption{提案手法が各データセットで類似文字列検索を行うときの動作統計}\label{tbl:stats}\input{02table06.txt}\end{table}表\ref{tbl:stats}は,提案手法が各データセットにおいて類似文字列検索を行うときの,様々な統計情報をまとめたものである(類似度にコサイン係数を用い,閾値は0.7とした).この表の見方をIMDBデータセットで説明すると,提案手法はサイズが8.74から34.06までの文字列を検索対象とし,1クエリあたり4.63文字列を解として返した.提案手法の候補生成フェーズでは,平均4.6個の転置リストに含まれる279.7個のSIDを走査し,232.5個の解候補を得た.提案手法の候補検証フェーズでは,平均4.3個の転置リストに対して二分探索を行い,7,561.8個のSIDが二分探索の対象となった.これに対し,AllScanアルゴリズムは,17.7個の転置リストに含まれる16,155.1個のSIDを走査しなければならず,平均4.63個の解を求めるのに,9,788.7個の文字列を候補として考慮する必要があった.この表は,提案手法の3つの特筆すべき特徴を表している.\begin{itemize}\item提案手法はAllScanアルゴリズムと比較すると,走査するSIDの数を格段に減らしている.例えば,IMDBデータセットにおいて解候補を得るために,AllScanアルゴリズムは16,155.1個のSIDを走査する必要があったが,提案手法は279.7個のSIDを走査するだけで済んだ.別の言い方をすれば,提案手法はAllScanアルゴリズムと比較すると,1.1\%〜3.5\%の文字列を走査すれば,解候補が得られることを示している.\item提案手法はAllScanアルゴリズムと比較すると,解候補の数を9,788.7から232.5に減らしている.すなわち,解候補の数は提案手法により1.2\%〜6.6\%まで削減された.\item提案手法はAllScanアルゴリズムと比較すると,主記憶上に展開すべき転置リストの数を減らすことができる.提案手法は,$\tau$オーバーラップ問題を解くために,8.9(IMDB),18.8(日本語ユニグラム),31.7(UMLS)個の転置リストを使っている\footnote{これらの値は,4.6+4.3,7.0+11.8,14.3+17.4として計算される.}.AllScanアルゴリズムが用いる転置リストの数と比べると,提案手法は50.3\%(IMDB),53.6\%(日本語ユニグラム),51.9\%(UMLS)の転置リストしかアクセスしないことを意味する.これは,図\ref{alg:t-overlap-cpmerge}のアルゴリズムで,$k\approx0.5|X|$付近で解候補の検証・枝刈りが完了し,解の候補が0になっているからである.提案手法では,$k$が大きくなるにつれ,転置リストのサイズが大きくなるが,サイズの大きい転置リストをメモリ上に展開することなく,$\tau$オーバーラップ問題を解けるのは,提案手法の大きなアドバンテージである.\end{itemize} \section{関連研究} \label{sec:related-work}類似文字列検索は,データベースやデータマイニングの分野で,盛んに研究が行われている.その中で最も多い研究は,文字列の編集距離を距離尺度として用いるものである.Gravanoら~\cite{Gravano:01}は,$n$-gram\footnote{データベースの分野では$q$-gramと呼ばれることが多い.}で文字列のインデックスを作り,オーバーラップの個数,位置,文字列のサイズなどで編集距離の制約を満たす解を絞り込む方法を提案した.Kimら~\cite{Kim:05}は,$n$-gramが出現した場所をインデックスに効率よく格納するため,2階層の$n$-gramインデックスを提案した.Liら~\cite{Li:07}は,クエリの処理速度を向上させるため,可変長の$n$を用いた$n$-gramインデックスを用いた.Leeら~\cite{Lee:07}は,ワイルドカードを含む$n$-gramでインデックスを作り,編集距離制約の類似文字列を効率よく検索する手法を考案した.Xiaoら~\cite{Xiao:08}は,検索クエリとマッチングできなかった$n$-gramを活用する,Ed-Joinアルゴリズムを提案した.文字列を$n$-gramなどで表現することなく,編集距離に基づく類似文字列検索を実現する方式も,いくつか提案されている.Bocekら~\cite{Bocek:07}は,データベースに文字列を格納するときに,元の文字列に近い複数の隣接文字列を格納するアプローチ(隣接文字列生成)として,FastSimilaritySearch(FastSS)を提案した.Wangら~\cite{Wang:09}は,隣接文字列生成手法を改善するため,文字列を分割したり,接頭辞で枝刈りを行う方法を紹介した.Huynhら~\cite{Huynh:06}は,圧縮された接尾辞配列上で類似文字列検索を行うアルゴリズムを提案した.Liuら~\cite{Liu:08}は,文字列をトライに格納し,類似文字列検索を行う枠組みを提案した.これまでに紹介した研究は,編集距離を類似度関数として採用した場合に特化している.Chaudhuriら~\cite{Chaudhuri:06}は,編集距離とジャッカード係数に対する類似文字列検索に向けて,SSJoin演算を提案した.このアルゴリズムは,検索クエリ文字列からシグニチャを作成し,シグニチャの特徴を含む全ての文字列を解候補として検索し,編集距離やジャッカード係数の制約を満たす文字列を選び出すものである.Chaudhuriらは,関係データベースの等結合(equi-join)を用いてSSJoin演算を実装する方法を示した.本論文では,SSJoin演算を関係データベース上で実装していないが,これは第\ref{sec:evaluation}節のSignatureシステムと同等である.Sarawagiら~\cite{Sarawagi:04}は,$\tau$オーバーラップ問題を解くアルゴリズムとして,MergeOptを提案した.このアルゴリズムは,転置リストを$S$と$L$という2つのグループに分け,$S$で解の候補生成を行い,$L$で解の検証を行う.提案手法と異なる点は,$S$で解の候補生成を行うときにヒープを用いる点,$L$で解の検証を行うときに,枝刈りを行わない点である.Liら~\cite{Li:08}は,Sarawagiらの手法を改良し,SkipMergeとDivideSkipというアルゴリズムを提案した.SkipMergeアルゴリズムは,全ての転置リストの先頭から順にSIDをヒープに挿入し,ヒープの先頭から同じSIDの要素を取り出したとき,取り出された個数が$\tau$を超えたら,そのSIDを解とするものである.ただし,ヒープに転置リストからSIDを挿入するときに,$\tau$オーバーラップ問題の解となり得ない要素をスキップするメカニズムが組み込まれており,転置リスト中の全てのSIDをヒープに挿入しなくても,$\tau$オーバーラップ問題が解けるように工夫されている.DivideSkipアルゴリズムは,MergeOptアルゴリズムと同様,転置リストを$S$と$L$という2つのグループに分け,SkipMergeアルゴリズムを$S$に適用して解の候補生成を行い,$L$で解の検証を行うものである.しかしながら,DivideSkipアルゴリズムでは解の枝刈り方法については,述べられていない.これらの手法と提案手法を解析的に比較するのは難しいが,第\ref{sec:evaluation}節では,SkipMergeとDivideSkipアルゴリズムによる類似文字列検索の性能を測定し,提案手法の方が高速に検索できることを実験的に示した.続いて,提案手法とMergeOpt,SkipMerge,DivideSkipを空間計算量に関して比較する.ここに挙げた全てのアルゴリズムは,転置リスト上で二分探索を行うため,特殊な工夫をしない限り,転置リストの内容を主記憶に読み込む必要がある.最悪の場合を考えると,どのアルゴリズムも与えられたクエリ文字列に対して,最もサイズの大きい転置リストを主記憶に読み込む必要が生じる\footnote{細かい議論になるが,SkipMergeとDivideSkipでは複数の転置リスト上で並行して二分探索を行うため,特殊な工夫を施さない限り,複数の転置リストを同時に主記憶に読み込む必要が生じる.}.これに加え,各アルゴリズムとも解文字列の候補を主記憶上に保持しておく必要がある.MergeOpt,SkipMerge,DivideSkipアルゴリズムは,解候補をヒープに格納するアルゴリズムであり,ヒープに格納される解候補の数は,クエリに対する転置リストの数(すなわち,クエリの特徴集合$X$の要素数$|X|$)を超えない.これに対し,提案手法は,いったん解候補の列挙を行うため,おおよそ$\mbox{(転置リストの平均要素数)}\times(|X|-\tau+1)$程度の解候補を主記憶に保持することになる.したがって,提案手法はMergeOpt,SkipMerge,DivideSkipアルゴリズムよりも空間計算量が大きくなる.表\ref{tbl:stats}には,提案手法の各データセットにおける解候補数(\#候補)が示されている.これによると,途中で保持した解候補数は数百〜数千程度のオーダーであり,提案手法の空間計算量は実用上は問題にならないと考えられる.最後に,類似文字列検索に近いタスクとして,類似文字列照合との関係を説明する.このタスクでは,与えられた2つの文字列の表記が近いかどうかを精密に検出するため,文字列の類似度関数を改良したり~\cite{Winkler:99,Cohen:03},機械学習で獲得するアプローチ~\cite{Bergsma:07,Davis:07,Tsuruoka:07,Aramaki:08}が取られる.これらの研究成果を用いると,2つの文字列の類似性を高精度に判別できるが,判別する2つの文字列があらかじめ与えられることを前提としている.このような精細な類似度で類似文字列検索を行いたい場合は,適当な類似度関数に対して緩い閾値$\alpha$を用い,提案手法で類似文字列の候補を獲得してから,類似文字列照合を適用すればよい. \section{まとめ} \label{sec:conclusion}本論文では,コサイン係数,ダイス係数,ジャッカード係数,オーバーラップ係数を用いた類似文字列検索のための,新しいアルゴリズムを提案した.類似文字列検索を,$\tau$オーバーラップ問題に帰着させ,その簡潔かつ高速なアルゴリズムとしてCPMergeを提案した.このアルゴリズムは,$\tau$オーバーラップ問題の解候補をできるだけコンパクトに保ち,解を効率よく求めるものである.英語の人名,日本語の単語,生命医学分野の固有表現を文字列データとして,類似文字列検索の性能を評価した.CPMergeアルゴリズムは非常にシンプルであるが,類似文字列検索の最近の手法であるLocalitySensitiveHashing(LSH)~\cite{Andoni:08}やDivideSkip~\cite{Li:08}と比べ,高速かつ正確に文字列を検索できることを実証した.自然言語処理を実テキストに適用するときの基礎的な技術として,本研究の成果が活用されることを期待している.CPMergeアルゴリズムが従来手法(例えばMergeSkip)に対して特に有利なのは,全ての転置リストを主記憶に読み込まなくても,類似文字列検索の解を求めることができる点である.表\ref{tbl:stats}に示した通り,CPMergeアルゴリズムはクエリに対して約50\%の転置リストを読み込むだけで,類似文字列検索の解を求めることができた(コサイン類似度で閾値が0.7の場合).提案手法と従来手法は,アルゴリズム中で二分探索を用いるため,転置リスト上におけるランダムアクセスを,(暗黙的に)仮定している.したがって,読み込む転置リストの数を減らすことができるという提案手法の特徴は,転置リストを圧縮する際に有利であると考えられる.転置リストの圧縮に関する最近の研究成果~\cite{Behm:09,Yan:09}を参考に,圧縮された転置リストを用いた類似文字列検索を今後検討したいと考えている.\acknowledgment本研究は,岡崎が東京大学大学院情報学環,辻井が東京大学大学院情報学環,マンチェスター大学,英国国立テキストマイニングセンターに所属していた際に進められたものである.本研究の一部は,科学技術振興調整費・重要課題解決型研究等の推進「日中・中日言語処理技術の開発研究」,文部科学省科学研究費補助金特別推進研究「高度言語理解のための意味・知識処理の基盤技術に関する研究」の助成を受けたものである.本論文に関して,大変有益かつ丁寧なコメントを頂いた査読者の方々に,感謝の意を表する.\section*{付録:その他の類似度関数の条件式の導出}\subsection*{ダイス関数の場合}ダイス関数の定義は,\begin{equation}\rm{dice}(X,Y)=\frac{2|X\capY|}{|X|+|Y|}\end{equation}この関数の値が$\alpha$以上となる必要十分条件は,\begin{align}\alpha\leq&\frac{2|X\capY|}{|X|+|Y|}\\\frac{1}{2}\alpha(|X|+|Y|)\leq&|X\capY|\leq\max\{|X|,|Y|\}\label{equ:NS-dice}\end{align}$|X\capY|$は整数であることに注意すると,必要十分条件が得られる.\begin{equation}\left\lceil\frac{1}{2}\alpha(|X|+|Y|)\right\rceil\leq|X\capY|\leq\max\left\{|X|,|Y|\right\}\end{equation}式\ref{equ:NS-dice}において,$|X\capY|$の項を削除すると,\begin{equation}\frac{1}{2}\alpha(|X|+|Y|)\leq\max\left\{|X|,|Y|\right\}\end{equation}$|X|<|Y|$のとき,$|Y|$について解くと,\begin{equation}\frac{\alpha}{2-\alpha}|X|\leq|Y|\end{equation}$|X|\leq|Y|$のとき,$|Y|$について解くと,\begin{equation}|Y|\leq\frac{2-\alpha}{\alpha}|X|\end{equation}これらをまとめ,$|Y|$が整数であることに注意すると,$|Y|$の必要条件が得られる.\begin{equation}\left\lceil\frac{\alpha}{2-\alpha}|X|\right\rceil\leq|Y|\leq\left\lfloor\frac{2-\alpha}{\alpha}|X|\right\rfloor\end{equation}\subsection*{ジャッカード関数の場合}ジャッカード関数の定義は,\begin{equation}\rm{jaccard}(X,Y)=\frac{|X\capY|}{|X\cupY|}=\frac{|X\capY|}{|X|+|Y|-|X\capY|}\end{equation}この関数の値が$\alpha$以上となる必要十分条件は,\begin{align}\alpha\leq&\frac{|X\capY|}{|X|+|Y|-|X\capY|}\\\frac{\alpha}{1+\alpha}\left(|X|+|Y|\right)\leq&|X\capY|\leq\max\{|X|,|Y|\}\label{equ:NS-jaccard}\end{align}$|X\capY|$は整数であることに注意すると,必要十分条件が得られる.\begin{equation}\left\lceil\frac{\alpha}{1+\alpha}\left(|X|+|Y|\right)\right\rceil\leq|X\capY|\leq\max\left\{|X|,|Y|\right\}\end{equation}式\ref{equ:NS-jaccard}において,$|X\capY|$の項を削除すると,\begin{equation}\frac{\alpha}{1+\alpha}\left(|X|+|Y|\right)\leq\max\left\{|X|,|Y|\right\}\end{equation}$|X|<|Y|$のとき,$|Y|$について解くと,\begin{equation}\alpha|X|\leq|Y|\end{equation}$|X|\leq|Y|$のとき,$|Y|$について解くと,\begin{equation}|Y|\leq\frac{|X|}{\alpha}\end{equation}これらをまとめ,$|Y|$が整数であることに注意すると,$|Y|$の必要条件が得られる.\begin{equation}\left\lceil\alpha|X|\right\rceil\leq|Y|\leq\left\lfloor\frac{|X|}{\alpha}\right\rfloor\end{equation}\subsection*{オーバーラップ関数の場合}オーバーラップ関数の定義は,\begin{equation}\rm{overlap}(X,Y)=\frac{|X\capY|}{\min\{|X|,|Y|\}}\end{equation}この関数の値が$\alpha$以上となる必要十分条件は,\begin{align}\alpha\leq&\frac{|X\capY|}{\min\{|X|,|Y|\}}\\\alpha\min\{|X|,|Y|\}\leq&|X\capY|\leq\max\{|X|,|Y|\}\label{equ:NS-overlap}\end{align}$|X\capY|$は整数であることに注意すると,必要十分条件が得られる.\begin{equation}\left\lceil\alpha\min\{|X|,|Y|\}\right\rceil\leq|X\capY|\leq\max\left\{|X|,|Y|\right\}\end{equation}式\ref{equ:NS-overlap}において,$|X\capY|$の項を削除すると,\begin{equation}\alpha\min\{|X|,|Y|\}\leq\max\{|X|,|Y|\}\label{equ:N-overlap}\end{equation}ここで,$\min\{|X|,|Y|\}\leq\max\{|X|,|Y|\}$,$0\leq\alpha\leq1$であるから,式\ref{equ:N-overlap}は$Y$や$\alpha$の選び方に依らず,常に成立する.従って,オーバーラップ関数を用いた類似文字列検索では,$|Y|$に関する必要条件はない.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ahmad\BBA\Kondrak}{Ahmad\BBA\Kondrak}{2005}]{Ahmad:05}Ahmad,F.\BBACOMMA\\BBA\Kondrak,G.\BBOP2005\BBCP.\newblock\BBOQLearningaSpellingErrorModelfromSearchQueryLogs.\BBCQ\\newblockIn{\BemProceedingsoftheconferenceonHumanLanguageTechnologyandEmpiricalMethodsinNaturalLanguageProcessing(HLT-EMNLP2005)},\mbox{\BPGS\955--962}.\bibitem[\protect\BCAY{Andoni\BBA\Indyk}{Andoni\BBA\Indyk}{2008}]{Andoni:08}Andoni,A.\BBACOMMA\\BBA\Indyk,P.\BBOP2008\BBCP.\newblock\BBOQNear-optimalhashingalgorithmsforapproximatenearestneighborinhighdimensions.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf51}(1),\mbox{\BPGS\117--122}.\bibitem[\protect\BCAY{Aramaki,Imai,Miyo,\BBA\Ohe}{Aramakiet~al.}{2008}]{Aramaki:08}Aramaki,E.,Imai,T.,Miyo,K.,\BBA\Ohe,K.\BBOP2008\BBCP.\newblock\BBOQOrthographicDisambiguationIncorporatingTransliteratedProbability.\BBCQ\\newblockIn{\BemIJCNLP2008:ProceedingsoftheThirdInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\48--55}.\bibitem[\protect\BCAY{Arasu,Ganti,\BBA\Kaushik}{Arasuet~al.}{2006}]{Arasu:06}Arasu,A.,Ganti,V.,\BBA\Kaushik,R.\BBOP2006\BBCP.\newblock\BBOQEfficientExactSet-SimilarityJoins.\BBCQ\\newblockIn{\BemVLDB'06:Proceedingsofthe32ndInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\918--929}.\bibitem[\protect\BCAY{Behm,Ji,Li,\BBA\Lu}{Behmet~al.}{2009}]{Behm:09}Behm,A.,Ji,S.,Li,C.,\BBA\Lu,J.\BBOP2009\BBCP.\newblock\BBOQSpace-ConstrainedGram-BasedIndexingforEfficientApproximateStringSearch.\BBCQ\\newblockIn{\BemICDE'09:Proceedingsofthe2009IEEEInternationalConferenceonDataEngineering},\mbox{\BPGS\604--615}.\bibitem[\protect\BCAY{Bergsma\BBA\Kondrak}{Bergsma\BBA\Kondrak}{2007}]{Bergsma:07}Bergsma,S.\BBACOMMA\\BBA\Kondrak,G.\BBOP2007\BBCP.\newblock\BBOQAlignment-BasedDiscriminativeStringSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL2007)},\mbox{\BPGS\656--663}.\bibitem[\protect\BCAY{Bocek,Hunt,\BBA\Stiller}{Boceket~al.}{2007}]{Bocek:07}Bocek,T.,Hunt,E.,\BBA\Stiller,B.\BBOP2007\BBCP.\newblock\BBOQFastSimilaritySearchinLargeDictionaries.\BBCQ\\newblock\BTR\ifi-2007.02,DeportmentofInformatics(IFI),UniversityofZurich.\bibitem[\protect\BCAY{Brill\BBA\Moore}{Brill\BBA\Moore}{2000}]{Brill:00}Brill,E.\BBACOMMA\\BBA\Moore,R.~C.\BBOP2000\BBCP.\newblock\BBOQAnImprovedErrorModelforNoisyChannelSpellingCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingontheAssociationforComputationalLinguistics(ACL2000)},\mbox{\BPGS\286--293}.\bibitem[\protect\BCAY{Chaudhuri,Ganti,\BBA\Kaushik}{Chaudhuriet~al.}{2006}]{Chaudhuri:06}Chaudhuri,S.,Ganti,V.,\BBA\Kaushik,R.\BBOP2006\BBCP.\newblock\BBOQAPrimitiveOperatorforSimilarityJoinsinDataCleaning.\BBCQ\\newblockIn{\BemICDE'06:Proceedingsofthe22ndInternationalConferenceonDataEngineering},\mbox{\BPGS\5--16}.\bibitem[\protect\BCAY{Chen,Li,\BBA\Zhou}{Chenet~al.}{2007}]{Chen:07}Chen,Q.,Li,M.,\BBA\Zhou,M.\BBOP2007\BBCP.\newblock\BBOQImprovingQuerySpellingCorrectionUsingWebSearchResults.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\181--189}.\bibitem[\protect\BCAY{Cohen,Ravikumar,\BBA\Fienberg}{Cohenet~al.}{2003}]{Cohen:03}Cohen,W.~W.,Ravikumar,P.,\BBA\Fienberg,S.~E.\BBOP2003\BBCP.\newblock\BBOQAComparisonofStringDistanceMetricsforName-MatchingTasks.\BBCQ\\newblockIn{\BemProceedingsoftheIJCAI-2003WorkshoponInformationIntegrationontheWeb(IIWeb-03)},\mbox{\BPGS\73--78}.\bibitem[\protect\BCAY{Davis,Kulis,Jain,Sra,\BBA\Dhillon}{Daviset~al.}{2007}]{Davis:07}Davis,J.~V.,Kulis,B.,Jain,P.,Sra,S.,\BBA\Dhillon,I.~S.\BBOP2007\BBCP.\newblock\BBOQInformation-TheoreticMetricLearning.\BBCQ\\newblockIn{\BemICML'07:Proceedingsofthe24thInternationalConferenceonMachineLearning},\mbox{\BPGS\209--216}.\bibitem[\protect\BCAY{Gravano,Ipeirotis,Jagadish,Koudas,Muthukrishnan,\BBA\Srivastava}{Gravanoet~al.}{2001}]{Gravano:01}Gravano,L.,Ipeirotis,P.~G.,Jagadish,H.~V.,Koudas,N.,Muthukrishnan,S.,\BBA\Srivastava,D.\BBOP2001\BBCP.\newblock\BBOQApproximateStringJoinsinaDatabase(Almost)forFree.\BBCQ\\newblockIn{\BemVLDB'01:Proceedingsofthe27thInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\491--500}.\bibitem[\protect\BCAY{Huynh,Hon,Lam,\BBA\Sung}{Huynhet~al.}{2006}]{Huynh:06}Huynh,T.N.~D.,Hon,W.-K.,Lam,T.-W.,\BBA\Sung,W.-K.\BBOP2006\BBCP.\newblock\BBOQApproximatestringmatchingusingcompressedsuffixarrays.\BBCQ\\newblock{\BemTheoreticalComputerScience},{\Bbf352}(1-3),\mbox{\BPGS\240--249}.\bibitem[\protect\BCAY{Jongejan\BBA\Dalianis}{Jongejan\BBA\Dalianis}{2009}]{Jongejan:09}Jongejan,B.\BBACOMMA\\BBA\Dalianis,H.\BBOP2009\BBCP.\newblock\BBOQAutomaticTrainingofLemmatizationRulesthatHandleMorphologicalChangesinpre-,in-andSuffixesAlike.\BBCQ\\newblockIn{\BemACL-IJCNLP'09:ProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP:Volume1},\mbox{\BPGS\145--153}.\bibitem[\protect\BCAY{Kim,Whang,Lee,\BBA\Lee}{Kimet~al.}{2005}]{Kim:05}Kim,M.-S.,Whang,K.-Y.,Lee,J.-G.,\BBA\Lee,M.-J.\BBOP2005\BBCP.\newblock\BBOQ{n-Gram/2L}:aSpaceandTimeEfficientTwo-Leveln-GramInvertedIndexStructure.\BBCQ\\newblockIn{\BemVLDB'05:Proceedingsofthe31stInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\325--336}.\bibitem[\protect\BCAY{Lee,Ng,\BBA\Shim}{Leeet~al.}{2007}]{Lee:07}Lee,H.,Ng,R.~T.,\BBA\Shim,K.\BBOP2007\BBCP.\newblock\BBOQExtendingq-GramstoEstimateSelectivityofStringMatchingwithLowEditDistance.\BBCQ\\newblockIn{\BemVLDB'07:Proceedingsofthe33rdInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\195--206}.\bibitem[\protect\BCAY{Li,Lu,\BBA\Lu}{Liet~al.}{2008}]{Li:08}Li,C.,Lu,J.,\BBA\Lu,Y.\BBOP2008\BBCP.\newblock\BBOQEfficientMergingandFilteringAlgorithmsforApproximateStringSearches.\BBCQ\\newblockIn{\BemICDE'08:Proceedingsofthe2008IEEE24thInternationalConferenceonDataEngineering},\mbox{\BPGS\257--266}.\bibitem[\protect\BCAY{Li,Wang,\BBA\Yang}{Liet~al.}{2007}]{Li:07}Li,C.,Wang,B.,\BBA\Yang,X.\BBOP2007\BBCP.\newblock\BBOQVGRAM:ImprovingPerformanceofApproximateQueriesonStringCollectionsusingVariable-LengthGrams.\BBCQ\\newblockIn{\BemVLDB'07:Proceedingsofthe33rdInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\303--314}.\bibitem[\protect\BCAY{Li,Zhang,Zhu,\BBA\Zhou}{Liet~al.}{2006}]{Li:06}Li,M.,Zhang,Y.,Zhu,M.,\BBA\Zhou,M.\BBOP2006\BBCP.\newblock\BBOQExploringDistributionalSimilaritybasedModelsforQuerySpellingCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics(Coling-ACL2006)},\mbox{\BPGS\1025--1032}.\bibitem[\protect\BCAY{Liu,Li,Feng,\BBA\Zhou}{Liuet~al.}{2008}]{Liu:08}Liu,X.,Li,G.,Feng,J.,\BBA\Zhou,L.\BBOP2008\BBCP.\newblock\BBOQEffectiveIndicesforEfficientApproximateStringSearchandSimilarityJoin.\BBCQ\\newblockIn{\BemWAIM'08:Proceedingsofthe2008TheNinthInternationalConferenceonWeb-AgeInformationManagement},\mbox{\BPGS\127--134}.\bibitem[\protect\BCAY{Manning,Raghavan,\BBA\Sch\"{u}tze}{Manninget~al.}{2008}]{IR}Manning,C.~D.,Raghavan,P.,\BBA\Sch\"{u}tze,H.\BBOP2008\BBCP.\newblock{\BemIntroductiontoInformationRetrieval}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Okazaki,Tsuruoka,Ananiadou,\BBA\Tsujii}{Okazakiet~al.}{2008}]{Okazaki:08}Okazaki,N.,Tsuruoka,Y.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQADiscriminativeCandidateGeneratorforStringTransformations.\BBCQ\\newblockIn{\BemEMNLP'08:ProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\447--456}.\bibitem[\protect\BCAY{Porter}{Porter}{1980}]{Porter:80}Porter,M.~F.\BBOP1980\BBCP.\newblock\BBOQAnalgorithmforsuffixstripping.\BBCQ\\newblock{\BemProgram},{\Bbf14}(3),\mbox{\BPGS\130--137}.\bibitem[\protect\BCAY{Ravichandran,Pantel,\BBA\Hovy}{Ravichandranet~al.}{2005}]{Ravichandran:06}Ravichandran,D.,Pantel,P.,\BBA\Hovy,E.\BBOP2005\BBCP.\newblock\BBOQRandomizedAlgorithmsandNLP:UsingLocalitySensitiveHashFunctionforHighSpeedNounClustering.\BBCQ\\newblockIn{\BemACL'05:Proceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\622--629}.\bibitem[\protect\BCAY{Sarawagi\BBA\Kirpal}{Sarawagi\BBA\Kirpal}{2004}]{Sarawagi:04}Sarawagi,S.\BBACOMMA\\BBA\Kirpal,A.\BBOP2004\BBCP.\newblock\BBOQEfficientSetJoinsonSimilarityPredicates.\BBCQ\\newblockIn{\BemSIGMOD'04:Proceedingsofthe2004ACMSIGMODinternationalconferenceonManagementofdata},\mbox{\BPGS\743--754}.\bibitem[\protect\BCAY{獅々堀\JBA津田\JBA青江}{獅々堀\Jetal}{1994}]{獅々堀:94}獅々堀正幹\JBA津田和彦\JBA青江順一\BBOP1994\BBCP.\newblock片仮名異表記の生成および統一手法.\\newblock\Jem{電子情報通信学会論文誌.D-II,情報・システム,II-情報処理},{\Bbf77}(2),\mbox{\BPGS\380--387}.\bibitem[\protect\BCAY{高橋\JBA梅村}{高橋\JBA梅村}{1995}]{Takahashi:95}高橋克巳\JBA梅村恭司\BBOP1995\BBCP.\newblock人名のかな表記のゆれに基づく近似文字列照合法.\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(8),\mbox{\BPGS\1906--1915}.\bibitem[\protect\BCAY{Tsuruoka,McNaught,Tsuji,\BBA\Ananiadou}{Tsuruokaet~al.}{2007}]{Tsuruoka:07}Tsuruoka,Y.,McNaught,J.,Tsuji,J.,\BBA\Ananiadou,S.\BBOP2007\BBCP.\newblock\BBOQLearningstringsimilaritymeasuresforgene/proteinnamedictionarylook-upusinglogisticregression.\BBCQ\\newblock{\BemBioinformatics},{\Bbf23}(29),\mbox{\BPGS\2768--2774}.\bibitem[\protect\BCAY{Wang,Xiao,Lin,\BBA\Zhang}{Wanget~al.}{2009}]{Wang:09}Wang,W.,Xiao,C.,Lin,X.,\BBA\Zhang,C.\BBOP2009\BBCP.\newblock\BBOQEfficientApproximateEntityExtractionwithEditDistanceConstraints.\BBCQ\\newblockIn{\BemSIGMOD'09:Proceedingsofthe35thSIGMODInternationalConferenceonManagementofData},\mbox{\BPGS\759--770}.\bibitem[\protect\BCAY{Winkler}{Winkler}{1999}]{Winkler:99}Winkler,W.~E.\BBOP1999\BBCP.\newblock\BBOQThestateofrecordlinkageandcurrentresearchproblems.\BBCQ\\newblock\BTR\R99/04,StatisticsofIncomeDivision,InternalRevenueServicePublication.\bibitem[\protect\BCAY{Xiao,Wang,\BBA\Lin}{Xiaoet~al.}{2008a}]{Xiao:08}Xiao,C.,Wang,W.,\BBA\Lin,X.\BBOP2008a\BBCP.\newblock\BBOQ{Ed-Join}:AnEfficientAlgorithmforSimilarityJoinswithEditDistanceConstraints.\BBCQ\\newblockIn{\BemVLDB'08:Proceedingsofthe34thInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\933--944}.\bibitem[\protect\BCAY{Xiao,Wang,Lin,\BBA\Yu}{Xiaoet~al.}{2008b}]{Xiao:08b}Xiao,C.,Wang,W.,Lin,X.,\BBA\Yu,J.~X.\BBOP2008b\BBCP.\newblock\BBOQEfficientSimilarityJoinsforNearDuplicateDetection.\BBCQ\\newblockIn{\BemWWW'08:Proceedingofthe17thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\131--140}.\bibitem[\protect\BCAY{Yan,Ding,\BBA\Suel}{Yanet~al.}{2009}]{Yan:09}Yan,H.,Ding,S.,\BBA\Suel,T.\BBOP2009\BBCP.\newblock\BBOQInvertedIndexCompressionandQueryProcessingwithOptimizedDocumentOrdering.\BBCQ\\newblockIn{\BemWWW'09:Proceedingsofthe18thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\401--410}.\end{thebibliography}\begin{biography}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.同年,東京大学大学院情報理工学系研究科・特別研究員.2011年より,東北大学大学院情報科学研究科准教授.自然言語処理,テキストマイニングの研究に従事.情報理工学博士.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{辻井潤一}{1971年京都大学工学部,1973年同修士課程修了.同大学助手・助教授を経て,1988年英国UMIST教授,1995年東京大学教授.マンチェスタ大学教授を兼任.2011年,東京大学,マンチェスタ大学を退職.同年より,マイクロソフトリサーチアジア研究員(PrincipalResearcher),国立情報学研究所客員教授,マンチェスタ大学客員教授.TM,機械翻訳などの研究に従事.工博.ACL元会長.}\end{biography}\biodate\end{document}
V31N02-15
\section{はじめに} \label{sec:intro}言語生成における最も一般的な解の探索手法としてビームサーチが挙げられる.ビーム幅を大きくすることでより広範囲の解候補探索が可能となるが,ビーム幅を大きくすると生成品質が低下するという問題が知られている\cite{koehn-knowles-2017-six,yang-etal-2018-breaking,pmlr-v80-ott18a,stahlberg-byrne-2019-nmt}.この問題への対処法として,$N$ベスト出力のリランキングや最小ベイズ復号法\cite{muller-sennrich-2021-understanding,eikema-aziz-2022-sampling}が研究されてきた\cite{fernandes-etal-2022-quality}.リランキング手法はデコード方法のみを変更するため,最小ベイズ復号法のようなモデル学習を伴う方法と比べ学習コストが低く,学習済みモデルに容易に適用できる.リランキング手法は$N$ベスト出力の中により品質の高い仮説が存在することを前提とし,品質が高いと推定された仮説を選択している.そのため,リランキング手法は部分的に高品質であるが文全体としては不完全な仮説を活用することが困難である.提案手法では,このような高品質な断片を識別し,語彙制約付きデコーディング手法により統合することで高品質な出力を生成する.具体的には,まず言語生成モデルにビームサーチを適用することで$N$ベストの出力文を生成した後,$N$ベスト出力に含まれる各トークンが最終出力に含まれるべきか否かの正誤予測を行い,誤りと予測されたトークンを負の制約,正しいと予測されたトークンを正の制約とする.そして,入力文を再度言語生成モデルに入力し,語彙制約を適用したデコードを行うことで,予測された誤りを含まず,正解と期待されるトークンを含んだ出力文を得る.提案手法は言語生成モデルの訓練用コーパスが存在するあらゆる言語生成タスクに適用でき,高い汎用性を持つ.提案手法の有効性を検証するために,言い換え生成タスク\cite{takayama-etal-2021-direct-direct},要約タスク\cite{see-etal-2017-get,hermann-etal-cnndm,narayan-etal-2018-dont},翻訳タスク\cite{kocmi-etal-2022-findings},制約付きテキスト生成タスク\cite{lin-etal-2020-commongen}という$4$つの言語生成タスクにおける評価実験を実施した.その結果,言い換え生成,要約,翻訳において,$N$ベスト出力の中には文全体としては不完全であっても,部分的に品質の高い断片が存在するという我々の仮定が成立することが確認された.さらに,妥当な出力が定まりやすい,言い換え生成,要約において提案手法が強力なリランキング手法を上回ることが確認された\footnote{実験に用いたコードは以下で公開している.\url{https://github.com/mr0223/self-ensemble}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 本章では提案手法と関連が深い技術として,リランキング,モデルアンサンブル,語彙制約について議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語生成タスクにおけるリランキング}\label{subsec:related_reranking}言語生成におけるリランキングとは,言語生成モデルの$N$ベスト出力を,別の評価指標やモデルによって再評価することで,最終的な出力文を選択する手法である.リランキング手法には識別モデルを用いる手法と生成モデルを用いる手法の$2$種類が存在する.識別モデルを用いるリランキング手法では,$N$ベスト出力の特定の評価指標スコアを予測する専用のリランキングモデルを訓練する\cite{lee-etal-2021-discriminative,bhattacharyya-etal-2021-energy,shen-etal-2004-discriminative}.Leeetal.(2021)は,機械翻訳タスクに識別的リランキング手法を適用し,機械翻訳の評価指標BLEU\cite{papineni2002bleu}を予測する専用のリランキングモデルを訓練した.Leeetal.の手法では,翻訳モデルの入力文と$N$ベスト出力を連接してリランキングモデルに入力することで,各仮説を再評価する.生成モデルによるリランキング手法では,訓練済み言語モデルなどの汎用的なモデルをリランキングモデルとして利用する\cite{yee-etal-2019-simple,ng-etal-2019-facebook}.Yeeetal.(2019)は,機械翻訳タスクに生成モデルによるリランキング手法を適用し,翻訳モデル,逆翻訳モデル,言語モデルの$3$つの汎用的なモデルをリランキングモデルとして利用した.Yeeetal.の手法では,翻訳モデルが入力文を$N$ベスト出力に翻訳する確率,逆翻訳モデルが各仮説を入力文に翻訳する確率,言語モデルにより評価した各仮説のパープレキシティの$3$つのスコアを線形結合することで,各仮説を再評価する.これらのリランキング手法は,言語生成モデルの$N$ベスト出力に質の高い仮説が含まれていることを仮定し,品質が高いと推定された仮説を選択している.そのため,リランキング手法は,部分的には高品質であるが文全体としては不完全な仮説を活用することが困難である.一方,提案手法はリランキング手法の仮定を拡張し,$N$ベスト出力に高品質な断片を含むが文全体としては品質の低い仮説が含まれていると仮定している.提案手法はこのような高品質な断片を識別,統合することで高品質な出力を生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語生成タスクにおけるモデルアンサンブル}提案手法は$N$ベスト出力の正誤予測に基づく語彙制約により新たな出力を生成するが,これは$N$ベスト出力を正誤予測に基づき組み合わせているとも捉えられる.この観点では,言語生成におけるモデルアンサンブル手法とも関連が深い.言語生成タスクにおけるモデルアンサンブルでは,複数の言語生成モデルを用いることで,生成文の品質向上を目指している\cite{garmash-monz-2016-ensemble,imamura-sumita-2017-ensemble}.複数の訓練済み言語生成モデルを用意し,各デコードステップにおいて全モデルのトークン予測確率の平均を計算した後,出力トークンを決定する.アンサンブルするモデルの数に比例して訓練コストが増大するため,多数のモデルを用いることは現実的に困難である.一方,提案手法では,単一の言語生成モデルの複数の出力候補を統合することにより,生成文の品質向上を目指している.このため,訓練コストは統合する出力候補数に依存しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{語彙制約による生成文の品質改善}提案手法で用いる語彙制約は,タスクに関連する知識を基に制約を生成し,デコーダを制御することで出力文の品質を向上する手法として用いられてきた\cite{chatterjee-etal-2017-guiding,hokamp-liu-2017-lexically,lu-etal-2022-neurologic,dehghan-etal-2022-grs,zetsu-etal-2022-lexically,kajiwara-2019-negative}.語彙制約を適用した言語生成として,Chatterjeeetal.(2017)およびHokampandLiu(2017)は,専門用語の対訳辞書を制約として機械翻訳タスクに語彙制約手法を適用した.Luetal.(2022)は,所与のキーワードを含む文を生成するTable-to-Textタスクや質問文生成タスクに語彙制約を用いている.Dehghanetal.(2022)およびZetsuetal.(2022)はトークンの難易度に基づいて制約を生成してテキスト平易化に,Kajiwara(2019)はスタイルに関連する語彙を制約としてスタイル変換に,それぞれ応用している.これら既存研究では,語彙制約を生成するためのタスクに固有の知識が明確であることを前提としている.一方,提案手法は言語生成モデル出力と参照文を基に語彙制約を作成するため,幅広い言語生成タスクへの適用が可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{事前知識:NeuroLogic-A*の語彙制約} \label{sec:neurologic}提案手法では,state-of-the-artの語彙制約手法であるNeuroLogic-A*\cite{lu-etal-2022-neurologic}を用いる.NeuroLogic-A*は語彙制約を高速に実現するデコーディング手法であり,言語生成モデルの構造を変更することなく,訓練済みのモデルに直接適用できる.NeuroLogic-A*は与えられた語彙制約を基に,以下の手順で各時刻のトークンを生成する.\begin{enumerate}\item出力候補のトークンについて,そのトークンの後に生成されるトークン列(Lookahead)を予測する.\item予測したLookaheadを基に,将来の語彙制約充足率を計算する.\item出力候補トークンの生成確率と将来の語彙制約充足率を基に,出力候補を枝刈りする.\item語彙制約充足の種類に基づき,残された出力候補をグルーピングする.\item出力候補を生成確率および語彙制約充足率を基にスコア付けし,各グループの最良候補の中から出力トークンを選択する.これにより,出力空間を幅広く探索する.\end{enumerate}以上の手順により,生成確率と将来の語彙制約充足率が高い候補を高速に探索し出力できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{sec:proposed}提案手法の構成を図\ref{fig:proposed_method}に示す.提案手法では,ある入力文について言語生成モデルによる出力を複数生成し,全ての出力について正誤予測を行う(\ref{sec:constraint_prediction}節).それらを統合し,正と予測されたトークンを出力文に加えるべき正の語彙制約,誤と予測されたトークンを出力文から除外すべき負の語彙制約とすることで語彙制約を生成する(\ref{sec:constraint_generation}節).そして再度入力文を言語生成モデルに入力し,デコーダにNeuroLogic-A*\cite{lu-etal-2022-neurologic}による語彙制約を適用して最終的な出力文を得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-2ia14f1.pdf}\end{center}\caption{提案手法の構成}\label{fig:proposed_method}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-2ia14f2.pdf}\end{center}\caption{言語生成モデル出力の正誤予測}\label{fig:predict_with_roberta}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語生成モデル出力の正誤予測}\label{sec:constraint_prediction}言語生成モデル出力の正誤予測の概要を図\ref{fig:predict_with_roberta}に示す.正誤予測モデルにはRoBERTa\cite{liu2019roberta}を用い,各トークンに対する正,誤の二値分類を行う.各トークンの正誤予測においては,出力文だけでなく言語生成モデルへの入力が手がかりになると考えられる.そこで,図\ref{fig:predict_with_roberta}に示す通り,予測モデルへの入力は``\textlessINPUT\textgreater言語生成モデル入力\textlessQUERY\textgreater言語生成モデル出力''とする\footnote{\textlessINPUT\textgreaterおよび\textlessQUERY\textgreaterは特殊トークンとしてRoBERTaの語彙に追加する.}.正誤予測モデルの訓練には,言語生成モデルの訓練コーパスと同じものを用いる.正解ラベルは言語生成モデルの出力文と参照文を比較することで作成する.訓練コーパスの入力文を言語生成モデルに入力し,ビームサーチにより$N$ベストの出力文を得る.各出力文について,参照文に含まれるトークンに正のラベルを,含まれないトークンに誤のラベルを付与する.以上のようにして生成した正解ラベルを用いて,RoBERTaをfine-tuningする.なお,$N$ベスト出力文を得るデコード手法として,出力の多様性を重視したサンプリング手法が存在するが,多様性と出力の品質を両立するためには慎重なパラメータ調整が必要である.そのため,$N$ベスト出力文を得るデコード手法としてビームサーチを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{正誤予測を統合した語彙制約の作成}\label{sec:constraint_generation}提案手法では,ある入力文について得られた$N$ベストの出力文について正誤予測を行う.正誤予測は文脈に依存するため,同じトークンが出力文によっては異なるラベルを予測されることがある.そこで,正誤ラベルの予測回数の多数決を取ることで最終的なラベルを決定し,語彙制約に追加する.正のラベルを持つトークンは正の語彙制約として出力を促進し,誤のラベルを持つトークンは負の語彙制約として出力を抑制する.なお,正誤ラベルの予測回数が等しい場合,そのトークンは語彙制約に含めない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} 言語生成タスクにおける提案手法の有効性を網羅的に検証するため,言い換え生成,要約,翻訳,制約付きテキスト生成による評価実験を実施する.本章では提案手法および比較手法の実装について述べ,評価実験における共通の設定を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{正誤予測モデルの訓練}正誤予測モデルはHuggingFaceTransformers\cite{wolf-etal-2020-transformers}ライブラリを用いて実装し,事前学習済みモデルとして``roberta-base''\footnote{\url{https://huggingface.co/roberta-base}}\cite{liu2019roberta}を用いた.\ref{sec:constraint_prediction}節で述べた通り,各タスクにおいてfine-tuning済みの言語生成モデルとその訓練データを用いて,正誤予測モデル用の正解ラベルを作成する.同様に,各タスクにおける検証データを用いて,ビーム幅を$10$に固定して正誤予測モデル用の検証データを作成する.RoBERTaの訓練では$1$エポックごとに検証データでF$1$スコアを計算し,$3$回改善が見られなくなったところでfine-tuningを終了する.出力数$N$,すなわち言語生成モデルのデコーダにおけるビーム幅の候補を,$1,5,10,20,30\dots,100$から探索する.それぞれのビーム幅で正誤予測モデルを訓練し,検証データのF$1$スコアが最も高いモデルを最終的な正誤予測モデルとして採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語生成におけるデコーダ設定}NeuroLogic-A*の実装はLuetal.(2022)の実装\footnote{\url{https://github.com/GXimingLu/a_star_neurologic}}に従う.ただし,Luらの公開プログラムではコードのミスにより負の語彙制約が正常に動作しなかったため,負の語彙制約を適用できるよう軽微な修正を加えた.NeuroLogic-A*を用いて語彙制約を考慮したデコードを行う際のビーム幅は,ベースラインとする純粋なビームサーチと同じ設定を用いるものとする.すなわち,各タスクごとに調整されたビーム幅を比較する全てのモデルで共通して用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}実験では,純粋なビームサーチを用いて出力を生成するベースライン(``beam-search''と表記)に加え,各タスクに適用可能な場合は\ref{subsec:related_reranking}節で述べた強力な識別モデル・生成モデルによるリランキング手法と比較した.識別モデルを用いる手法としてDiscriminativeRerankingforNeuralMachineTranslation\cite{lee-etal-2021-discriminative}(``DrNMT''と表記)を使用し,生成モデルを用いる手法としてNoisy-ChannelDecoding\cite{yee-etal-2019-simple}(``NCD''と表記)を使用した.これらの手法の実装は各著者の実装\footnote{\url{https://github.com/facebookresearch/fairseq/tree/main/examples/discriminative_reranking_nmt}}$^{,}$\footnote{\url{https://github.com/facebookresearch/fairseq/tree/main/examples/noisychannel}}に従い,各実験タスクのデータセットと評価指標を用いて訓練を行った.リランキングに用いる出力数$N$は,提案手法と同様に$1,5,10,20,30\dots,100$から検証データを用いて探索する.また,評価実験ではリランカーが理想的な予測をできたと仮定した場合のリランキング手法のオラクル性能も検証する.ビームサーチにより生成した$N$ベスト出力について,参照文に対する文レベルの評価指標を計測し,スコアが最も高い仮説を選択することでリランキング手法におけるオラクル出力文を作成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アブレーション実験}正負それぞれの語彙制約の効果を検証するため,正の語彙制約のみを用いる提案手法(``NeuroLogic-A*(正)''と表記),負の語彙制約のみを用いる提案手法(``NeuroLogic-A*(負)''と表記),正負両方の語彙制約を用いる提案手法(``NeuroLogic-A*(正負)''と表記)の性能を評価した.また正誤予測モデルが理想的な予測をできたと仮定した場合のオラクルの語彙制約による提案手法の性能も検証する.ビームサーチを用いて生成した$N$ベスト出力文と参照文を比較し,出力文と参照文双方に存在するトークンを正の制約に,出力文にのみ存在するトークンを負の制約とすることでオラクルの語彙制約を作成し,NeuroLogic-A*の制約として適用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{語彙制約の定量的評価}実験では,正負それぞれの語彙制約の品質も評価する.正の制約は指定したトークンの生成を促進するため,生成文に直接影響を与える.また,負の語彙制約に正しいトークンを指定してしまうと「本来出力すべきトークンの出力を抑制」する.以上より語彙制約が満たすべき性質として,(1)正の制約の再現率が高いこと,(2)負の制約に本来出力すべきトークンを含む割合が低いこと,が考えらえる.これらを検証するため,正の語彙制約を$C_p$,負の語彙制約を$C_n$,参照文中のトークンの集合を$W_{\text{ref}}$として,参照文に対する正の制約の再現率$R_{p}=\frac{|C_p\capW_{\text{ref}}|}{|W_{\text{ref}}|}$,参照文中のトークンの中で負の制約に含まれているトークンの割合$F_{n}=\frac{|C_n\capW_{\text{ref}}|}{|W_{\text{ref}}|}$を評価する.またNeuroLogic-A*による出力制御について分析するため,提案手法に基づき作成された語彙制約の平均トークン数および制約の満足率を評価する.各出力に対する正の語彙制約の平均トークン数$N_{p}$,負の語彙制約の平均トークン数$N_{n}$を計算する.また,提案手法に基づくモデルの出力文中のトークン集合を$W_{\text{out}}$として,正の制約の満足率$S_{p}=\frac{|C_p\capW_{\text{out}}|}{|C_p|}$,負の制約の満足率$S_{n}=\frac{|C_n\cap\overline{W_{\text{out}}}|}{|C_n|}$を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{言い換え生成タスクにおける評価} 言い換え生成タスクのひとつである,間接的・直接的応答間の言い換えタスク\cite{takayama-etal-2021-direct-direct}における提案手法の有効性を検証する.間接的応答とは,発話者の要求や意図を直接的に言及せず,言外に含んだ発話であり,本タスクでは間接的応答とそれに対応する直接的応答を相互に言い換える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{14table01.tex}%\caption{評価実験におけるデータセットの文章数}\label{table:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスと評価指標}データセットには,表\ref{table:dataset}の$1$行目に示すDIRECT(DirectandIndirectREsponsesinConversationalText)\cite{takayama-etal-2021-direct-direct}を用いる.DIRECTコーパスは間接・直接発話言い換えコーパスであり,$71,498$の間接的応答と直接的応答の対からなる.DIRECTは既存のマルチドメイン・マルチターンのタスク指向対話コーパスMultiWOZ$2.1$(Multi-DomainWizard-of-Oz$2.1$)\cite{budzianowski-etal-2018-multiwoz,eric-etal-2020-multiwoz}を拡張したものであり,MultiWOZにおける対話履歴と元の応答,元の応答をより間接的に言い換えた発話,元の応答をより直接的に言い換えた発話が利用できる.本実験では,間接的応答を直接的応答に言い換えるIndirect-to-Directタスク,直接的応答を間接的応答に言い換えるDirect-to-Indirectタスクの両方に取り組む.なお,両タスクについて,対話履歴を考慮する設定と考慮しない設定の$2$つの設定を用いる.評価指標はDIRECTの設定に従ってBLEU\cite{papineni2002bleu}を用い,ブートストラップ法\cite{koehn-2004-statistical}に基づき有意水準$5\%$で有意差検定を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語生成モデルと比較手法}言語生成モデルとして,DIRECTコーパスにてfine-tuningしたBART\cite{lewis-etal-2020-bart}を用いる.モデルの実装にはHuggingFaceTransformersライブラリを使用し,事前学習済みモデルとして``facebook/bart-base''\footnote{\url{https://huggingface.co/facebook/bart-base}}を用いた.BARTの入力フォーマットおよび訓練設定はTakayamaetal.(2021)に従う.ビーム幅はTakayamaetal.(2021)同様,``facebook/bart-base''のデフォルトである$4$とした.DIRECTデータセットで訓練されたDrNMT,NCDと比較した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{14table02.tex}%\hangcaption{間接直接発話変換タスクにおける性能評価(Indirect-to-Direct).$N$は考慮する仮説数を表し,$^\dagger$はビームサーチとの有意差が存在するスコアを表す.}\label{table:direct_result_i2d}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec:results_direct}表\ref{table:direct_result_i2d}および表\ref{table:direct_result_d2i}に実験結果を示す.ここで``w/history''は対話履歴を考慮する設定を表し,``w/ohistory''は対話履歴を考慮しない設定を表す.上段には,提案手法と比較手法の性能を示す.全てのサブタスクにおいて,提案手法は比較手法を上回った.語彙制約の種類による性能変化に注目すると,正の語彙制約のみを用いる場合(NeuroLogic-A*(正))が最も高い性能を達成している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{14table03.tex}%\hangcaption{間接直接発話変換タスクにおける性能評価(Direct-to-Indirect).$N$は考慮する仮説数を表し,$^\dagger$はビームサーチとの有意差が存在するスコアを表す.}\label{table:direct_result_d2i}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%下段には,提案手法とリランキング手法のオラクル性能を示す.オラクルの制約を用いる場合,予測した語彙制約を用いる場合と比べて,Indirect-to-Directタスクでは最大$29.39$ポイント,Direct-to-Indirectタスクでは最大$30.14$ポイントBLUEスコアが向上している.この結果から,正誤予測モデルの性能を改善することで間接直接発話変換タスクの性能をさらに向上できると考えられる.提案手法に基づき作成された語彙制約の定量的評価では,参照文に対する正の制約の再現率は$36.0\%$から$41.3\%$にとどまり,参照文中のトークンの中で負の制約に含まれているトークンの割合が$18.0\%$から$25.1\%$となっているため,正誤予測モデルの品質改善が今後の課題である.また,NeuroLogic-A*(正負)$_{\text{oracle}}$はReranking$_{\text{oracle}}$を大きく上回った.この結果は,$N$個の最良仮説を語彙制約を用いて統合することが,単に最良仮説を選択するよりも効果的であることを裏付けている.これは,$N$ベスト出力には文全体としては不完全であっても,質の高い断片が存在するという我々の仮説を支持するものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデルの出力例}Direct-to-Indirectタスクにおける入力文,参照文,提案手法に基づき作成された語彙制約,提案手法に基づくモデル出力(NeuroLogic-A*(正負)),ビームサーチによる生成文(beam-search)の例を表\ref{table:example_output_direct}に示す.ここで,生成文の品質向上に貢献している適切な語彙制約を太字で示し,生成文の品質低下を招いている誤った語彙制約を下線で示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{14table04.tex}%\hangcaption{提案手法に基づくモデルの出力例(間接直接発話変換タスク).太字は適切な語彙制約を表し,下線は誤った語彙制約を表す.}\label{table:example_output_direct}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%$1$つ目の例では,ビームサーチでは参照文にある``one'',``better''および``than''を含む文を生成できておらず,また``more'',``services'',``expected''および``from''を誤って生成している.提案手法ではこれらをそれぞれ正の語彙制約,負の語彙制約とすることで,ビームサーチの出力を改善している.$2$つ目の例では,ビームサーチでは参照文にある``my''と``preferred''を正しく出力できている.一方提案手法では,これらを負の語彙制約としており,また参照文に存在しない``in''と``the''を誤って正の語彙制約としたことで,ビームサーチより悪化している.これらの例からも,正誤予測モデルの性能改善が最終的な生成文の品質向上には重要であることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{要約タスクにおける評価} 本章では要約における提案手法の有効性を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスと評価指標}データセットには,表\ref{table:dataset}の$2$行目に示すCNN/DailyMail\cite{see-etal-2017-get,hermann-etal-cnndm}\footnote{バージョン$3.0.0$を利用.}および$3$行目に示すXSum(TheExtremeSummarization)\cite{narayan-etal-2018-dont}を用いる.CNN/DailyMailデータセットは,CNNおよびDailyMailの記事とその記事の要約であるハイライトを収集したデータセットであり,約$310$Kのニュース記事とハイライトの対からなる.CNN/DailyMailの文数の平均は,記事が$30.7$,ハイライトが$3.8$である.XSumデータセットは,BBCの記事とその要約を収集したものであり,約$230$Kの記事と要約の対からなる.XSumの文数の平均は,記事が$19.8$,要約が$1.0$である.XSumデータセットは,CNN/DailyMailデータセットよりも要約の文数が少なく,抽象的な要約が求められる.要約タスクにおいては,評価指標としてROUGE\cite{lin-2004-rouge}を用い,近似的ランダム化検定\cite{riezler-maxwell-2005-pitfalls}に基づき,R=$1000$,有意水準$5\%$で有意差検定を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語生成モデルと比較手法}言語生成モデルとしてLewisetal.(2020)によりfine-tuningされたBARTである``facebook/bart-large-cnn''\footnote{\url{https://huggingface.co/facebook/bart-large-cnn}}および``facebook/bart-large-xsum''\footnote{\url{https://huggingface.co/facebook/bart-large-xsum}}を用いる.ビーム幅はそれぞれ設定に従い$4$および$6$とした.なお,正誤予測モデルの入力の最大長は$512$であるため,入力長が$512$を超える場合,要約記事を前半と後半に分割し,それぞれをBARTの出力要約と繋げて正誤予測モデルの入力とする.記事前半と後半に対応する正誤予測モデルの予測を,正誤ラベルの多数決の対象に追加することで予測結果を統合する.提案手法をそれぞれのデータセットで訓練されたDrNMTと比較した.なお,要約中に存在しない多くの情報を補完して記事全体を再現することは本質的に難しいため,要約から記事への言語生成モデルの訓練は困難である.このため,NCDの要約タスクへの適用は困難であり,比較対象から除外した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{14table05.tex}%\hangcaption{要約タスクにおける性能評価(CNN/DailyMail).$N$は考慮する仮説数を表し,$^\dagger$はビームサーチとの有意差が存在するスコアを表す.}\label{table:summary_result_cnndm}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{table:summary_result_cnndm}および表\ref{table:summary_result_xsum}に要約タスクの実験結果を示す.上段には,提案手法と比較手法の性能を示す.CNN/DailyMail,XSum双方において,正負の語彙制約を用いる提案手法(NeuroLogic-A*(正負))が比較手法を有意に上回り,人手評価と高い相関を持つROUGE-L\cite{lin-2004-rouge}において最も高いスコアを達成している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{14table06.tex}%\hangcaption{要約タスクにおける性能評価(XSum).$N$は考慮する仮説数を表し,$^\dagger$はビームサーチとの有意差が存在するスコアを表す.}\label{table:summary_result_xsum}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%下段には,提案手法とリランキング手法のオラクル性能を示す.オラクルの制約を用いる場合,正誤予測を用いる場合と比べて,CNN/DailyMailではROUGE-$1$は最大$16.75$ポイント,ROUGE-$2$は最大$12.20$ポイント,ROUGE-Lは最大$12.76$ポイント向上している.XsumではROUGE-$1$は最大$21.54$ポイント,ROUGE-$2$は最大$20.35$ポイント,ROUGE-Lは最大$17.30$ポイント向上している.また,要約タスクにおいてもNeuroLogic-A*(正負)$_{\text{oracle}}$はReranking$_{\text{oracle}}$を大きく上回った.以上の結果から,要約タスクにおいても,正誤予測モデルの性能が提案手法による生成文の品質改善において重要なことが分かる.提案手法に基づき作成された語彙制約の定量的評価では,参照文に対する正の制約の再現率は$27.6\%$から$36.3\%$にとどまり,参照文中のトークンの中で負の制約に含まれているトークンの割合が$23.7\%$から$28.5\%$となっているため,正誤予測モデルの品質改善が今後の課題である.本実験では要約タスクにおける記事長が$512$トークンを超える場合,半分に分割してそれぞれ入力するが,それによって正誤予測性能が低下したと考えられる.要約においては正誤予測において長い文章を扱えるよう,改善が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{翻訳タスクにおける評価} 本章では機械翻訳における提案手法の有効性を評価する.本実験では,英語から日本語への翻訳を行うen-jaタスクと,日本語から英語への翻訳を行うja-enタスクに取り組む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスと評価指標}データセットには,表\ref{table:dataset}の$4$行目に示すWMT$22$\cite{kocmi-etal-2022-findings}を用いる.訓練データには,WMT$22$で提供されたJParaCrawlv$3.0$\cite{morishita-etal-2022-jparacrawl}を用いる.WMT$21$における評価データを検証データとして用い,WMT$22$における評価データを評価に用いる.評価指標はBLEU\cite{papineni2002bleu}を用い,ブートストラップ法\cite{koehn-2004-statistical}に基づき有意水準$5\%$で有意差検定を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語生成モデルと比較手法}言語生成モデルとして,WMT$22$コーパスにてfine-tuningしたM$2$M$100$\cite{fan2020englishcentric}を用いる.モデルの実装にはHuggingFaceTransformersライブラリを使用し,事前学習済みモデルとして``facebook/m2m100\_418M''\footnote{\url{https://huggingface.co/facebook/m2m100_418M}}を用いた.ビーム幅は``facebook/m2m100\_418M''のデフォルトに従い$5$とした.WMT$22$コーパスで訓練されたDrNMT,NCDと比較した.NCDにおける日本語言語モデルには``stabilityai/japanese-stablelm-base-alpha-7b''\footnote{\url{https://huggingface.co/stabilityai/japanese-stablelm-base-alpha-7b}}を用い,英語言語モデルには``stabilityai/stablelm-base-alpha-7b-v2''\footnote{\url{https://huggingface.co/stabilityai/stablelm-base-alpha-7b-v2}}を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{14table07.tex}%\hangcaption{翻訳タスクにおける性能評価.$N$は考慮する仮説数を表し,$^\dagger$はビームサーチとの有意差が存在するスコアを表す.}\label{table:wmt_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{table:wmt_result}に実験結果を示す.上段には,提案手法と比較手法の性能を示す.en-jaタスクにおいては,正負の語彙制約を用いる提案手法(NeuroLogic-A*(正負)),負の語彙制約を用いる提案手法(NeuroLogic-A*(負)),NCDがビームサーチを上回った.なお,NeuroLogic-A*(負)とNCDには有意差が存在せず,同程度の性能となった.一方,ja-enタスクにおいては,正の語彙制約を用いる提案手法(NeuroLogic-A*(正)),NCD,DrNMTがビームサーチを上回り,NCDが最も高い性能を達成した.下段には,提案手法とリランキング手法のオラクル性能を示す.en-jaタスクにおいては有意差がなく同程度の結果となり,ja-enタスクにおいてはNeuroLogic-A*(正負)$_{\text{oracle}}$はReranking$_{\text{oracle}}$を上回った.オラクル性能の比較結果から,翻訳タスクにおいても,$N$個の最良仮説を語彙制約を用いて統合することは,単に最良仮説を選択するよりも効果的であると考えられる.しかし,予測された制約を用いる場合はNCDが提案手法を上回っている.これは,正誤予測モデルの性能が低く,語彙制約の品質が不十分であることが原因であると考えられる.提案手法に基づき作成された語彙制約の定量的評価では,参照文に対する正の制約の再現率は$28.4\%$から$36.1\%$にとどまり,参照文中のトークンの中で負の制約に含まれているトークンの割合が$18.5\%$から$18.7\%$となっているため,正誤予測モデルの品質改善が今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{制約付きテキスト生成タスクにおける評価} 本章では制約付きテキスト生成における提案手法の有効性を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスと評価指標}データセットには,表\ref{table:dataset}の$5$行目に示す\commongen\cite{lin-etal-2020-commongen}を用いる.\commongenコーパスは$77,449$文と$35,141$の概念集合から構成される.ここで,概念集合とは単語の集合であり,各概念集合は複数の文と関連付けられている.\commongenコーパスの参照文の平均長は$10.86$である.本実験では,与えられた概念を全て用いて一貫した文を生成する,制約付きテキスト生成タスクに取り組む.評価指標は\commongenの設定に従ってBLEU-$4$\cite{papineni2002bleu},CIDEr\cite{Vedantam_2015_CVPR},Coverageを用いる.ここで,Coverageはレンマ化された出力に含まれる,所与の概念の割合として定義される.全ての評価指標は公式スクリプト\footnote{\url{https://github.com/INK-USC/CommonGen}}を用いて計算した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言語生成モデルと比較手法}言語生成モデルとして,\commongenコーパスにてfine-tuningしたGPT-$2$\cite{radford2019language}を用いる.モデルの実装にはHuggingFaceTransformersライブラリを使用し,事前学習済みモデルとして``gpt2-large''\footnote{\url{https://huggingface.co/gpt2-large}}を用いた.GPT-$2$の入力フォーマットおよび訓練設定はLinら\cite{lin-etal-2020-commongen}に従う.ビーム幅はWelleckら\cite{welleck2023generating}に従い$5$とした.\commongenコーパスには各入力(概念集合)について,複数の参照文が存在する.そこで正誤予測モデルの訓練においては,複数の参照文のうち言語生成モデルの上位$1$個の仮説に対する語彙の重複率が最も高い参照文を用いて正解ラベルを作成した.提案手法を\commongenコーパスで訓練されたDrNMT,NCDと比較した.また,\commongenにおける最先端手法であるSELF-CORRECT\cite{welleck2023generating}の文献値とも比較した\footnote{SELF-CORRECTは我々の研究と同時期に発表されたものであるため,スコアは原著者の報告した値をそのまま引用している.論文発表時にはモデル出力が公開されておらず,有意差検定は実施できなかった.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{14table08.tex}%\hangcaption{\commongenタスクにおける性能評価;$N$は考慮する仮説数を表し,$^\diamondsuit$は原論文から引用した結果を表す.}\label{table:commongen_result}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{table:commongen_result}に制約付きテキストタスクの実験結果を示す.上段には,提案手法と比較手法の性能を示す.BLEU-$4$,CIDErにおいて提案手法はビームサーチおよびSELF-CORRECTを上回った.これは$N$個の最良仮説を語彙制約を用いて統合することの有効性を裏付けている.しかし,BLEU-$4$,CIDErにおいてはNCDが最も高い性能を達成した.これは,\commongenタスクでは妥当な出力に多様性が存在するため,異なる仮説を統合することで生成文の品質が低下する可能性があるためであると推測される.この特徴は生成文と参照文間のBLEUの予測にも悪影響を及ぼすため,識別モデルを用いたリランキングを行うDrNMTにおいても,ビームサーチに対する大きな性能改善がみられない原因となっていると推測される.一方,生成モデルを用いたリランキングを行うNCDにおいては,逆翻訳モデルが各仮説を入力文に翻訳する確率と言語モデルにより評価した各仮説のパープレキシティを用いる.逆翻訳モデルの出力は各仮説に含まれる概念集合であるため,妥当な出力が定まりやすい.また,言語モデルは各仮説の文としての自然さを評価するため,各仮説と対応する参照文の影響は受けにくい.このため,NCDは参照文の多様性の影響は受けにくいと推測される.以上の結果は,\commongenタスクのように多様な出力が許容されるタスクにおいては,NCDのような生成的モデルによるリランキング手法が適していることを示唆している.下段には,提案手法とリランキング手法のオラクル性能を示す.\commongenタスクにおいては,Reranking$_{\text{oracle}}$はNeuroLogic-A*(正負)$_{\text{oracle}}$を大きく上回った.この結果は,妥当な出力の多様性が提案手法の性能に影響するという我々の考察を支持している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{$N$ベスト出力における正解トークンのカバー率} 本章では各タスクにおける$N$ベスト出力が正解トークンをどの程度カバーしているか分析する.提案手法では$N$ベスト出力に含まれる高品質な断片を統合することで,高品質な出力を生成している.$N$が増加すると,出力の多様性が高まり,$N$ベスト出力に含まれる高品質な断片も増えると予想される.一方で,$N$が増加しても出力の変化が局所的なものにとどまる場合,期待されるような高品質な断片は増加しないと考えられる.そこで,$N$を変化させたときに,$N$ベスト出力に含まれるトークンの参照文に対するカバー率がどのように変化するか分析する.分析には各タスクの検証データを用い,$N$を$10,20,30,\dots,100$としたときのカバー率を計測する.なお,制約付きテキスト生成タスクにおいては,複数の参照文の中から,言語生成モデルの上位$1$個の仮説に対する語彙の重複率が最も高い参照文を用いてカバー率を計測する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{31-2ia14f3.pdf}\end{center}\caption{ビーム幅$N$の変化に伴う,$N$ベスト出力の参照文中のトークンに対するカバー率の変化}\label{fig:coverage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:coverage}に,各タスクにおけるカバー率の変化を示す.図\ref{fig:coverage}から,どのタスクにおいても$N$の増加に伴いカバー率が$6\%\sim15\%$増加していることが分かる.この結果より$N$を大きく確保することで,提案手法による出力品質の向上が期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,言語生成モデルの$N$ベスト出力には部分的に品質の高い仮説が存在するが,文全体としては不完全である可能性があるという仮定に基づき,品質の高い断片を統合することで生成文の品質を改善する手法を提案した.評価実験により,入力に対する妥当な出力文が定まりやすい,言い換え生成,要約において本手法が強力な$N$ベスト出力リランキング手法を上回ることが確認された.今後は,語彙制約の作成に用いる正誤予測モデルの性能を向上させることで,生成文の品質のさらなる改善を目指す.また,語彙制約の適用方法の拡張も今後の課題である.現在の提案手法では各トークンを独立した語彙制約として扱うが,制約のトークン間には連語や複数単語の表現などの関係が存在する場合がある.更に,現在の提案手法では全ての制約を等しく扱うが,制約の重要度は様々である.トークン間の関係性や制約の重要性を反映して語彙制約を適用することで,生成文の品質を改善できると期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP21H03564の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{14refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{正誤予測モデルの性能} 提案手法で用いた正誤予測モデルの性能を分析するため,各タスクの評価データにおける正誤予測モデルの性能を評価した.評価にはPrecision,Recall,F1スコアを用いた.表\ref{table:predict_model}に各タスクにおける正誤予測モデルの性能をまとめる.表\ref{table:predict_model}から,正誤予測モデルのF1スコアは$71.6$から$80.4$にとどまっており,品質改善の余地があることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{14table09.tex}%\caption{正誤予測モデルの性能}\label{table:predict_model}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{正誤予測の統合に関する分析} 提案手法では,$N$ベスト出力に対して正誤予測を行い,正誤ラベルの予測回数の多数決を取ることで最終的な正誤を決定している.正誤予測は文脈に依存するため,同じトークンが出力文によっては異なるラベルに分類されることがある.出力文により異なるラベルに分類されるトークンの割合を検証するため,$N$ベスト出力内の同じトークンが正と予測される割合を記録した.言い換え生成タスク(Direct-to-Indirect)の評価データにおける割合の分布を図\ref{fig:histgram}に示す.図\ref{fig:histgram}より,正誤どちらかのみに分類されるトークンが多く,出力文によって異なるラベルに分類されるトークンは少ないことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{31-2ia14f4.pdf}\end{center}\caption{$N$ベスト出力内の同じトークンが正と予測される割合の分布(Direct-to-Indirect)}\label{fig:histgram}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実行時間} 言い換え生成タスク(Indirect-to-Directタスク)における\pagebreak提案手法と比較手法のデコード時間を表\ref{table:direct_result_i2d}と同じ条件で計測した.計測には,$1$TBメモリとAMDEPYC7552CPUを搭載したLinuxサーバにインストールされた,NVIDIARTXA$6000$($48$GBメモリ)のシングルGPUを使用した.提案手法の単純な実装では,$1$文のデコードに$1.9$秒を要したが,DrNMT\cite{lee-etal-2021-discriminative}およびNCD\cite{yee-etal-2019-simple}では約$0.3$秒であった.また,提案手法では,正誤予測とNeuroLogic-A*によるデコードにそれぞれ約$0.9$秒を要した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{モデルの出力例} XSumタスク,en-jaタスク,\commongenタスクにおける入力文,参照文,提案手法に基づき作成された語彙制約,提案手法に基づくモデル出力,ビームサーチによる生成文の例を表\ref{table:example_output_summary},表\ref{table:example_output_translate},表\ref{table:example_output_commongen}に示す.ここで,生成文の品質向上に貢献している適切な語彙制約を太字で示し,生成文の品質低下を招いている誤った語彙制約を下線で示す.各タスクの上段の例では,提案手法により適切な語彙制約を作成できている.適切な語彙制約を用いることで,提案手法はビームサーチの出力を改善している.一方,各タスクの下段の例では,提案手法により誤った語彙制約を作成している.誤った語彙制約を用いることで,提案手法に基づくモデル出力はビームサーチより悪化している.これらの例からも,正誤予測モデルの性能改善が最終的な生成文の品質向上には重要であることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[p]\input{14table10.tex}%\hangcaption{提案手法に基づくモデルの出力例(要約タスク,XSum).太字は適切な語彙制約を表し,下線は誤った語彙制約を表す.}\label{table:example_output_summary}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{14table11.tex}%\hangcaption{提案手法に基づくモデルの出力例(翻訳タスク,en-ja).太字は適切な語彙制約を表し,下線は誤った語彙制約を表す.}\label{table:example_output_translate}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{14table12.tex}%\hangcaption{提案手法に基づくモデルの出力例(制約付きテキスト生成タスク).太字は適切な語彙制約を表し,下線は誤った語彙制約を表す.}\label{table:example_output_commongen}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{宮野稜大}{$2023$年大阪大学工学部電子情報工学科卒業,同年大阪大学大学院情報科学研究科マルチメディア工学専攻に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{梶原智之}{愛媛大学大学院理工学研究科講師.$2013$年長岡技術科学大学工学部電気電子情報工学課程卒業.$2015$年同大学大学院工学研究科修士課程修了.$2018$年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).$2018$年より大阪大学データビリティフロンティア機構の特任助教,$2021$年より愛媛大学大学院理工学研究科の助教を経て,$2024$年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{荒瀬由紀}{$2006$年大阪大学工学部電子情報エネルギー工学科卒業.$2007$年同大学院情報科学研究科博士前期課程,$2010$年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.$2014$年より大阪大学大学院情報科学研究科准教授,$2024$年より東京工業大学情報理工学院教授,現在に至る.言い換え表現認識と生成,言語学習支援技術に興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V04N02-03
\section{はじめに} \newenvironment{indention}[1]{}{}照応現象の一つに,文章中に現れていないがすでに言及されたことに関係する事物を間接的に指示する間接照応という用法がある\cite{yamanashi92}.たとえば,「家がある.屋根は白い.」の場合,「屋根」は前文の「家」の屋根である.間接照応の研究はこれまで自然言語処理においてあまり行なわれていなかったが\footnote{文献\cite{Tanaka1}では化学の世界に限定して名詞「体積」の間接照応の解析をしているが,一般の名詞すべてに対して間接照応の解析を行なっている研究はない.},文章の結束性の把握や意味理解において重要な問題である.そこで,我々は二つの名詞間の関係に関する知識を用いて日本語文章上でこの問題を解決することを試みた.間接照応の照応詞としては名詞句,指示詞,ゼロ代名詞が考えられるが,本論文では,名詞句が照応詞である場合の間接照応だけを対象とする. \section{間接照応の解析方法} \label{sec:how_to}間接照応の照応先になりえる事物は,間接照応の照応詞によってある程度限定される.例えば,以下の例文のように「屋根」が照応詞である場合は,照応先は「家」などの建物に限定される.\begin{equation}\begin{minipage}[h]{10cm}家がある.\underline{屋根}は白い.\end{minipage}\label{eqn:mouhitori_ojiisan_hoho_kobu}\end{equation}そこで,間接照応の解析を行なうには,間接照応の照応先と照応詞の間の条件を記載した辞書が必要となる.照応先と照応詞の間の条件を記載するとき,照応先でまとめて記載するか,照応詞でまとめて記載するかの問題がある.照応先でまとめて記載すると関係の種類が爆発的に増加することになるが,照応詞でまとめて記載すると関係の種類の数をある程度の数に抑えることができる.例えば,「家族」が間接照応の照応詞である場合,照応先としては「人」ぐらいであるが,「家族」が間接照応の照応先である場合,照応詞としては「人数」「成員」「文化的水準」などと多様なものが想定される.よって,照応詞でまとめて記載する方が効率的であることがわかる.\begin{table}[t]\begin{center}\caption{名詞格フレーム辞書の例}\label{tab:noun_case_frame}\begin{tabular}{|l|l|l|}\hline照応詞&照応先となりえるもの&照応詞と照応先の関係\\\hline家族&人&所属\\\hline国民&国&所属\\\hline元首&国&所属\\\hline屋根&建物&全体--部分\\\hline模型&生産物(飛行機,船)&対象\\\hline行事&組織&関与\\\hline人格&人&所有\\\hline教育&人&行為者\\&人&受益者\\&能力(数学,技術)&対象\\\hline研究&人,組織&行為者\\&学問(数学,技術)&対象\\\hline\end{tabular}\end{center}\end{table}照応詞でまとめると二つの名詞の間の関係に関する辞書の表現は動詞の格フレームに似たものになる.この名詞に対する辞書を{\bf名詞格フレーム辞書}と呼ぶことにする.名詞格フレームの例は表\ref{tab:noun_case_frame}のようなものである.ところが,このような辞書は今のところ存在しない.そこで,名詞格フレーム辞書の代わりに,照応詞が用言の派生語である場合は用言の格フレーム辞書を用い,照応詞が用言の派生語でない場合は,「名詞Aの名詞B」の用例を用いる.間接照応の解析は以下の手順で行なう.\begin{enumerate}\item\label{enum:youso_kenshutu}解析する名詞に対して,用言格フレーム辞書と「AのB」の用例を用いて,間接照応先を求める必要のある空の要素を検出する.解析する名詞が用言からの派生語である場合は用言格フレーム辞書を用い,用言からの派生語でない場合は「AのB」の用例を用いる.\begin{table}[t]\caption{動詞「解析する」の格フレーム}\label{tab:kuitigau_frame}\begin{center}\begin{tabular}[h]{|l|l|l|}\hline表層格&意味素性&用例\\\hlineガ&HUM(人間)&生徒,彼\\ヲ&ABS(抽象名詞)/PRO(具体物)&値/資料\\\hline\end{tabular}\\\end{center}\end{table}\begin{table}[t]\caption{主題の重み}\label{fig:shudai_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|l|l|r|}\hline\multicolumn{1}{|c|}{表層表現}&\multicolumn{1}{|c|}{例}&重み\\\hlineガ格の指示詞・代名詞・ゼロ代名詞&(\underline{太郎}が)した.&21\\\hline名詞は/には&\underline{太郎}はした.&20\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{焦点の重み}\label{fig:shouten_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|l|l|r|}\hline\multicolumn{1}{|l|}{{表層表現(「は」がつかないもので)}}&\multicolumn{1}{|c|}{例}&重み\\\hline{ガ格以外の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}に)した.&16\\\hline{名詞が/も/だ/なら}&\underline{太郎}がした.&15\\\hline名詞を/に/,/.&\underline{太郎}にした.&14\\\hline名詞へ/で/から/より&\underline{学校}へ行く.&13\\\hline\end{tabular}\end{center}\end{table}例えば,以下の例文の名詞「解析」の解析を行なう場合は,名詞「解析」は用言からの派生語なので,動詞「解析する」の格フレームを取り出す(表\ref{tab:kuitigau_frame}).表\ref{tab:kuitigau_frame}の動詞「解析する」の格フレームには,ガ格とヲ格の二つの格要素があるので,ガ格とヲ格の二つのものが間接照応先を求めるべき要素となる.\begin{equation}\begin{minipage}[h]{9cm}電気信号を利用したおかげで物理学者たちは大量のデータを収集できるようになった.\\そこで,素早い\underline{解析}のための方法が必要となった.\end{minipage}\label{eqn:data_kuitigai}\end{equation}\item\label{enum:kouho_age}($\,$\ref{enum:youso_kenshutu}$\,$)で検出した間接照応先を求める必要のある空の要素に対して,主語や主題や焦点から照応先の候補をあげる.主語,主題,焦点の順に照応先のなりやすさがあるので,推定にはそれに応じた重みを与える.本論文で想定している主題や焦点とその重みを表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}にあげる.例えば,「家がある.屋根は白い.」の「屋根」が照応詞である場合は,前方の焦点の「家」が照応先の候補となる.また,例文(\ref{eqn:data_kuitigai})の「解析」のガ格の空の要素の解析をする場合だと,主題・焦点などから「電気信号」「物理学者たち」「大量のデータ」が照応先の候補となる.このとき,これらの候補には表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}から重みを与え,ある種の優先性を与える.\item「AのB」の用例と用言格フレーム辞書による意味的制約と,解析している名詞と候補の距離から照応先を判定する.意味的制約としては解析する名詞が用言からの派生語である場合は用言格フレーム辞書を用い,その格フレームの格要素に記載されている用例との類似度が大きいほど間接照応先になりやすいとする.用言からの派生語でない場合は「AのB」の用例を用い,「名詞Aの<解析する名詞>」の用例を集め,名詞Aとの類似度が大きいほど間接照応先になりやすいとする.このときの類似度は分類語彙表における類似レベルを利用する.例えば,「家がある.屋根は白い.」の「屋根」の間接照応先を求める場合では,「\verb+<+名詞A\verb+>+の屋根」の用例を集め,\verb+<+名詞A\verb+>+と意味的に近い名詞を間接照応先とする.また,例文(\ref{eqn:data_kuitigai})の「解析」のガ格の空の要素の解析の場合では,($\,$\ref{enum:kouho_age}$\,$)であげた候補「電気信号」「物理学者たち」「大量のデータ」のうち,動詞「解析する」の格フレームのガ格の意味素性HUM(人間)を満足し,ガ格の用例「生徒」「彼」と意味的に近く,照応詞「解析」と比較的近いところにある「物理学者たち」がガ格の照応先と判定される.同様にヲ格も解析され,「大量のデータ」が照応先と判定され,「解析」が「物理学者たち」が「大量のデータ」に対して行なう解析であると解析できる.\end{enumerate}用言の格フレーム辞書を代用する場合は代用による誤りはあまり生じないと考えられる.「名詞Aの名詞B」を代用する場合は,「名詞Aの名詞B」が多様な意味関係を持つので間接照応していない名詞対に対しても間接照応すると判定する誤りがかなり生じると考えられる.そこで,以下の処理を施すことによりこの誤りを減らすことにした.\begin{enumerate}\item名詞Aが「本当」などの形容詞的な名詞,数量表現,時間を示す表現である場合,その用例は用いない.例えば,「本当の壁」などの用例は用いない.これは「本当」と「壁」が間接照応の関係になるとは考えられないからである.\item名詞Bが「鶴」「人間」などのような間接照応の照応詞になりにくいものである場合,その用例は用いない.つまり,「鶴」「人間」などのような間接照応の照応詞になりにくいものである場合,間接照応の解析を行なわない.本研究で照応詞になりにくいものとみなした語の例を表\ref{fig:hi_shouousi}にあげる.これらの語は飽和名詞\cite{houwameishi}とよばれるものや関係名詞以外の名詞群と似ているが,飽和名詞などは間接照応をする場合があるので,これらの名詞よりもより限定されたものであると考える.\end{enumerate}この二つの処理だけでは代用による誤りを完全に消すことはできないが,少しは軽減できると期待できる.\begin{table}[t]\caption{間接照応の照応詞になりにくいものとみなした語の例}\label{fig:hi_shouousi}\begin{center}\begin{tabular}[c]{|p{11.5cm}|}\hlineLEP実験装置データ解析プログラムドイツ語ドル相場バスパターン認識プログラム宇宙烏映画英語火機械装置共産空き地軍人顕微鏡湖国語昆虫坂道山山道事故自転車自動車実業学校社会車酒樽植物深夜バス人間杉雪山先進国先進主要国川太鼓団扇男茶中学校鳥鶴笛天狗動物日本語日本人物干しざお物置物理学物理学者物理法則泡箱\\\hline\end{tabular}\end{center}\end{table}照応詞が用言の派生語でない場合は,基本的には上で述べたように「名詞Aの名詞B」の用例を用いるが,体(からだ)の一部を表わす名詞と親族呼称の場合は間接照応先は人間と動物に絞られるのが明らかなので,「AのB」の用例を用いず``照応詞「体の一部を表わす名詞」--照応先「人間と動物を表わす名詞」'',``照応詞「親族呼称」--照応先「人間と動物を表わす名詞」''という知識を用いて解析する.「体の一部を表わす名詞」「人間と動物を表わす名詞」の検出には名詞意味素性辞書\cite{imiso-in-BGH}を利用した.また,「親族呼称」の検出は分類語彙表において分類番号が121ではじまる名詞を「親族呼称」とすることで行なった.この種の知識を用いて解析することは名詞格フレーム辞書において簡単に作れる部分は作っておき,作るのが難しい部分については「AのB」で代用するという考え方に基づいている.本研究では上の二つの知識の他はすべて「AのB」の用例で対処したが,この種の知識としては他に``照応詞「病気・感情を表わす名詞」--照応先「人間と動物」'',``照応詞「物体に対する属性名詞(色,大きさなど)」--照応先「物体」''などが考えられる.これらの知識も規則化して用いた方がよいと思われるが,きりがないので本研究では先に述べた二つの知識だけを利用した.以上の方法で一般の名詞における間接照応は解析できるが,「一部」などの部分を表わす名詞や「隣」などの空間語については特有の処理が必要となる.以下の例文の「一部」のように用言の格要素である場合は,その用言との意味的整合性の情報を利用する.意味的整合性の情報は,その用言の格フレームのものを利用する.\begin{equation}\smallskip\begin{minipage}[h]{10cm}物資は水、戦車、弾薬が目につくが、おおいをかけられ積み荷が分からない車も多数ある.\underline{一部}はさらに北西のラフハに向かい、積み荷を降ろしてダンマンに戻るトラックと行き交うたびに砂ぼこりをあげていた.\end{minipage}\label{eqn:kuruma_itibu}\smallskip\end{equation}例えば,この例文では「一部」は「向かう」のガ格であるので,「向かう」の格フレームのガ格を参照する.ガ格にはガ格に入ることができる名詞の用例が記載されていて,この場合は「彼」や「船」などの移動できるものが入ることができると記載されている.このため,間接照応先は「彼」や「船」と意味的に近いものであることがわかる.例文中の前文の「車」は移動できるという意味で「彼」や「船」と意味的に近いので,間接照応先として妥当であると判定される.また,以下の例文の「隣」のように体言に係る場合は,その体言と意味的に近いものだけを照応先とすることによって解析する.\begin{equation}\begin{minipage}[h]{10cm}お爺さんは大喜びをして家に帰りました。そして、その夜起こったことを人々に話して聞かせるのでした。さて、\underline{隣}の家に瘤のあるお爺さんがもう一人住んでおりました。\end{minipage}\label{eqn:tonari_ie}\end{equation}例えば,この例文では「隣」は係り先の体言が「家」であるので,一文目の「家」と間接照応すると解析できる. \section{照応処理システム} \begin{figure}[t]\leavevmode\begin{center}\fbox{\begin{minipage}[c]{6cm}\hspace*{0.7cm}条件部$\Rightarrow$\{提案提案..$\;$\}\\[-0.1cm]\hspace*{0.7cm}提案:=(解の候補\,得点)\end{minipage}}\smallskip\caption{規則の表現}\label{fig:kouho_rekkyo}\end{center}\end{figure}\subsection{システムの枠組}\label{wakugumi}本研究では,名詞における間接照応の解析を行なう際,名詞,指示詞,代名詞,ゼロ代名詞などによる直接照応の解析も同時に行なう.まず,解析する文章を構文解析・格解析する\cite{csan2_ieice}.その結果に対して文頭から順に文節ごとに照応解析を行なう.照応解析は,照応解析の手がかりとなる複数の情報をそれぞれ規則にし,これらの規則を用いて解の候補に得点を与えて,合計点が最も高い解の候補をシステムの解とすることによって実現する.これは,照応解析のように複雑な問題では複数の情報が絡み合っており,複数の情報を総合的に判断することにより解析を行なうためである.規則に応じて候補に得点を足していく操作は,その候補が指示対象であるという確信度が高まっていくことに対応している.規則は,図\ref{fig:kouho_rekkyo}の構造をしている.図中の「条件部」には文章中のあらゆる語やその分類語彙表\cite{bgh}の分類番号やIPALの格フレーム\cite{ipal}の情報や名詞の指示性の情報や構文解析・格解析の結果の情報などを条件として書くことができる.「解の候補」には照応先となる名詞の位置を書くことができる.「得点」は解としての適切さの度合を表している.\subsection{照応解析に用いる規則}名詞の解析のために規則を13個作成したが,これらすべてを適用順序に従って以下に示す.以下の規則のうち,間接照応の解析のための規則は規則\ref{enum:間接照応_非サ変名詞}〜\規則\ref{enum:itibu_case}の四つである.規則\ref{enum:ika_kisoku}〜\規則\ref{enum:定名詞以外探索}の9個の規則は直接照応の解析のためのものであり,それぞれの規則で用いている専門用語および規則の詳細については文献\cite{murata_noun_nlp}を参照せよ.また,代名詞などの指示先も同時に解析するがこれのための規則は文献\cite{murata_deno_nl95}を参照せよ.{\begin{enumerate}\item\label{enum:ika_kisoku}「以下」「後述」の名詞や「次のような/次のように/次の〜点」における「次」の場合\\\{(次の文\,$50$)\}\footnote{列挙判定規則の提案のリストを表わす.図\ref{fig:kouho_rekkyo}参照.}\item「それぞれの」「各々の」「各」などに修飾された名詞の場合\\\{(特定指示として個体導入\,$50$)\}\item「自分」の場合\\\{(「自分」が存在する文の主格,「自分」が主格の場合は「自分」を含む文の主節の主格\,$50$)\}\item\label{enum:定名詞探索}推定した名詞の指示性が定名詞の場合で,その名詞を末尾に含み修飾語や所有者が同じ名詞Aが前方にある場合\\\{(名詞A\,$30$)\}\item\label{enum:総称名詞導入}名詞の指示性が総称名詞の場合\\\{(総称指示として個体導入\,$10$)\}\item名詞の指示性が不特定性の不定名詞の場合\\\{(不特定指示として個体導入\,$10$)\}\item名詞の指示性が総称名詞でも不特定性の不定名詞でもない場合\\\{(特定指示として個体導入\,$10$)\}\item「普通」「様」「大分」「一緒」「本当」「何」などの指示対象を持たない名詞の場合\\\{(指示対象なし\,$50$)\}\begin{table}[t]\begin{center}\caption{直接照応の解析の際に名詞の指示性の情報から与える得点}\label{tab:teimeishidenai_doai1}\begin{tabular}[h]{|l|r|}\hline指示性の推定における得点の状況&定名詞でない度合$d$\\\hline定名詞の得点を越える得点を総称名詞と不定名詞が持たない時&0\\定名詞の得点より1点高い得点を総称名詞か不定名詞が持つ時&$3$\\定名詞の得点より2点高い得点を総称名詞か不定名詞が持つ時&$6$\\定名詞の得点より3点以上高い得点を総称名詞か不定名詞が持つ時&規則は適用されない\\\hline\end{tabular}\end{center}\end{table}\item\label{enum:定名詞以外探索}この規則は名詞の指示性が定名詞以外の場合に適用される.以下の得点で用いるdとwとnの説明をする.dは,文献\cite{match}によって推定した指示性に基づいて表\ref{tab:teimeishidenai_doai1}から定まる定名詞でない度合である.wは,表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}から定まる主題と焦点の重みである.nは,今解析している名詞と指示対象の候補とする名詞との間の距離を反映した数字である.\\\{(修飾語や所有者が同じで重みが$w$で$n$個前\footnote{主題が何個前かを調べる方法は,主題だけを数えることによって行なう.主題がかかる用言の位置が今解析している文節よりも前にある場合は,その用言の位置にその主題があるとして数える.そうでない場合はそのままの位置で数える.}の同一名詞の主題\,$w-n-d+4$)\\(修飾語や所有者が同じで,今解析している名詞を末尾に含む重みが$w$で$n$個前の主題\,$w-n-d+4-5$)\\(修飾語や所有者が同じで重みが$w$で$n$個前の同一名詞の焦点\,$w-n-d+4$)\\(修飾語や所有者が同じで,今解析している名詞を末尾に含む重みが$w$で$n$個前の焦点\,$w-n-d+4-5$)\}\item\label{enum:間接照応_非サ変名詞}修飾節を持たず\footnote{修飾節を持っている名詞は,修飾節を持っている分だけ限定されていると考えられ,間接照応を行ないにくいと考えるため.},定名詞である度合が$d$で,用言からの派生語ではないが,間接照応の照応詞となる名詞Bの場合(定名詞である度合$d$は文献\cite{match}での指示性の推定における得点の状況から表\ref{tab:teimeishidenai_doai2}によって与えられる.これは,定名詞の方が不定名詞よりも間接照応しやすいと考えたためである.)\\\{(「名詞Aの名詞B」の用例の名詞Aとの類似度により与えられる得点が$s$で,重みが$w$で$n$個前にある主題を間接照応の照応先とする\,$w-n+d+s$)\\(用例との類似度により与えられる得点が$s$で,重みが$w$で$n$個前の\.焦\.点を間接照応の照応先とする\,$w-n+d+s$)\\(用例との類似度により与えられる得点が$s$で,解析している名詞が係る動詞の主格\,$23+d+s$)\\(用例との類似度により与えられる得点が$s$で,解析している名詞が係る動詞が係る名詞を間接照応の照応先とする\,$23+d+s$)\}\\主題や焦点の定義と重み$w$は表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}のとおりである.「名詞Aの名詞B」の用例の名詞Aとの類似度により与えられる$s$は,分類語彙表における名詞Aと照応先の類似レベルに応じて表\ref{tab:ruijido_hisahen}により与えられる.このとき,名詞Aが形容詞的な名詞である用例は利用しない.\begin{table}[t]\begin{center}\caption{間接照応の解析の際に名詞の指示性の情報から与える得点}\label{tab:teimeishidenai_doai2}\begin{tabular}[h]{|l|r|}\hline指示性の推定における得点の状況&定名詞である度合$d$\\\hline定名詞の得点が最も高い時&5\\定名詞の得点が総称名詞か不定名詞の得点と同点の時&0\\定名詞の得点より1点高い得点を総称名詞か不定名詞が持つ時&$-5$\\定名詞の得点より2点高い得点を総称名詞か不定名詞が持つ時&$-10$\\定名詞の得点より3点以上高い得点を総称名詞か不定名詞が持つ時&規則は適用されない\\\hline\end{tabular}\end{center}\bigskip\end{table}\begin{table}[t]\leavevmode\caption{用言からの派生語でない場合に与える得点}\label{tab:ruijido_hisahen}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$30&$-$20&$-$10&$-5$&0&5&7&10\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\vspace*{-1.4mm}\leavevmode\caption{用言からの派生語の場合に与える得点}\label{tab:ruijido_sahen}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$10&$-$2&1&2&2.5&3&3.5&4\\\hline\end{tabular}\end{center}\vspace*{-1.3mm}\end{table}\item\label{enum:サ変名詞}修飾節を持たず,用言からの派生語の場合,\\\{(ゼロ代名詞解析モジュール\cite{murata_deno_nl95}で解析する\,20)\}\\ゼロ代名詞解析モジュールでは,解析する用言からの派生語の空の格要素すべてに対して以下のような規則により候補をあげ,最も得点の大きい候補を照応先とする.ただし,最も得点の大きい候補が閾値の得点よりも小さい場合は,間接照応先の解析は行なわない.この閾値は,ガ格,ヲ格,ニ格,デ格の場合,それぞれ,15点,14点,15点,16点とし,その他の表層格の場合17点とした.また,格フレームに任意格の指定がある格の場合はさらに閾値に3点を加算した.\begin{indention}{0.8cm}\noindentガ格の省略の場合の規則\\\{(用言の格フレームのガ格の用例との類似度がsで重みが$w$で$n$個前の主題\,$w-n*2+1+s$)\\(重みが$w$で$n$個前の焦点\,$w-n+1+s$)\\(用例との類似度がsで今解析している節と並列の節の主格\,$25+s$)\\(用例との類似度がsで今解析している節の従属節か主節の主格\,$23+s$)\\(用例との類似度がsで今解析している節が埋め込み文の場合で主節の主格\,$22+s$)\}\end{indention}\begin{indention}{0.8cm}\noindentガ格以外の省略の場合の規則\\\{(用言の格フレームの格要素の用例との類似度がsで重みがwでn個前の主題\,$w-n*2-3+s$)\\(用例との類似度がsで重みがwでn個前の焦点\,$w-n*2+1+s$)\}\end{indention}この規則中の$s$は,用言の格フレームの格要素の用例と照応先の候補の分類語彙表における類似レベルに応じて表\ref{tab:ruijido_sahen}により与えられる.\item「一部」「隣」などの特殊な名詞で,助詞「の」がつく場合\\\{(今解析している名詞が係る名詞と同一の前方にある名詞を間接照応の照応先とする\,$30$)\}\item\label{enum:itibu_case}「一部」「隣」などの特殊な名詞で,それが用言の格要素になっている場合\\\{(\ref{enum:サ変名詞}と同様な解析モジュールで解析する\,30)\}\end{enumerate}}上記の規則で与える50,30,20,10点などの値は,特殊な名詞のための規則,直接照応のための規則,用言からの派生語に対する間接照応のための規則,照応せず新しく個体として導入されるもののための規則の優先順序を指定するためのものである.また,規則\ref{enum:間接照応_非サ変名詞}で与える23点は主題や焦点の重みとの関係で実験的に定めた.また,分類語彙表での類似レベルや名詞の指示性の情報から与える得点なども実験的に定めた.また,\ref{sec:how_to}節で述べた``照応詞「体の一部を表わす名詞」--照応先「人間と動物を表わす名詞」'',``照応詞「親族呼称」--照応先「人間と動物を表わす名詞」''の知識を用いた解析は以上の規則による解析とは別の解析によって行なう.この種の確信度の高い間接照応の解析は直接照応の解析を行なうよりも前に行なった方が直接照応の解析精度があがるため,規則の得点による解析を行なう前に行なう.具体的にはこれらの解析は規則\ref{enum:定名詞探索},\ref{enum:定名詞以外探索}において用いる名詞の所有者を推定することによって行なわれ,この所有者が間接照応先に相当する.所有者の推定は意味素性が体の一部を意味するPARである名詞か,分類語彙表の分類番号の最初の3桁が``121''である名詞(親族呼称)に対してのみ行なう.その名詞が存在する文の主語かそれまでの主題の中から意味素性がHUM(人間)かANI(動物)のものを探し出して,それを所有者とする.\subsection{解析例}間接照応の解析例を図\ref{tab:dousarei}に示す.図\ref{tab:dousarei}は名詞「公定歩合」の解析を正しく行なったことを示している.これを以下で説明する.文献\cite{match}の方法で「公定歩合」の指示性の解析を行なうと,不定名詞と推定されたので\footnote{文献\cite{match}での推定では不定名詞となったが,「公定歩合」の正しい指示性は,「公定歩合」が「西独」の「公定歩合」であるので,定名詞である.本研究の間接照応の解析を行ない,間接照応となった場合それを定名詞とすることで,文献\cite{match}での指示性の推定精度が上がると思われる.しかし,間接照応する名詞がすべて定名詞となるわけではないので,問題はそう簡単ではない.},前節の3番目の規則により「不定名詞」という候補があげられそれに10点を与える.この候補の得点が最も高い場合は間接照応先を求めないことになる.また,「公定歩合」は用言からの派生語でないので,前節の4番目の規則が用いられる.この規則により主語,主題,焦点から「西独」「自国通貨安」「政策協調」「このドル高」といった候補があげられ,それぞれに得点が与えられる.さらに「公定歩合」との間の距離に応じて得点が与えられ,また,推定した「公定歩合」の指示性が定名詞でなかったので,間接照応しにくくなるという意味で$-5$点を各候補に与える.さらに,「名詞Aの公定歩合」の用例の「名詞A」になっている名詞に「日本」「米国」があり,これらの名詞との類似度に応じて得点を与える.「日本」「米国」と類似度の高い「西独」が最も高い合計点をとり,間接照応先として正しく解析された.\begin{figure}[t]\fbox{\begin{minipage}[h]{13.5cm}このドル高は、政策協調をぎくしゃくさせている.自国通貨安を防ごうと、西独が\underline{公定歩合}を引き上げた.\vspace{0.2cm}\begin{center}\begin{tabular}[h]{|l|l@{}|r@{}|r@{}|r@{}|r@{}|r@{}|}\hline\multicolumn{2}{|l|}{}&不定名詞&西独&自国通貨安&政策協調&このドル高\\\hline\multicolumn{2}{|l|}{3番目の規則}&10&&&&\\\hline\multicolumn{2}{|l|}{4番目の規則}&&25&$-23$&$-24$&$-17$\\\hline&主語&&23&&&\\&主題焦点w&&&14&14&20\\&距離n&&&$-2$&$-3$&$-2$\\&定名詞である度合$d$&&$-5$&$-5$&$-5$&$-5$\\&用例との類似度$s$&&7&$-30$&$-30$&$-30$\\\hline\multicolumn{2}{|l|}{合計}&10&25&$-23$&$-24$&$-17$\\\hline\end{tabular}\end{center}\vspace{0.2cm}「名詞Aの公定歩合」の用例\hspace{0.5cm}日本の公定歩合,米国の公定歩合\smallskip\end{minipage}}\smallskip\smallskip\caption{間接照応の解析例}\label{tab:dousarei}\end{figure} \section{実験} \subsection{実験}間接照応の解析を行なう前に構文解析・格解析を行なうが,そこでの誤りは人手で修正した.格フレームはIPALの辞書のものを用いたが,IPALの辞書にない用言に対しては人手で格フレームを作成した.「名詞Aの名詞B」の用例はEDRの共起辞書\cite{edr_kyouki_1.0}のものを利用した.格解析の修正では実験テキスト中の「名詞Aの名詞B」の格解析も正しく行なえることを仮定して修正した.たとえば,「主治医のすすめ」という句が実験テキスト中にある場合,「主治医」は「すすめ」のガ格に入るということはわかっているとする.本研究で提案した「名詞Aの名詞B」の用例と用言格フレーム辞書を用いる方法で間接照応の解析を行なった結果を表\ref{tab:sougoukekka}に示す.テストサンプルにおいても再現率63\%,適合率68\%の精度を得ているので,名詞格フレーム辞書が存在しない現在においても6割以上の精度で間接照応の解析ができることがわかる.\begin{table*}[t]\begin{minipage}[h]{14cm}\caption{本研究の実験結果}\label{tab:sougoukekka}\begin{center}\begin{tabular}[c]{|@{\,}l@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|}\hline&\multicolumn{4}{c|@{\,}}{\small用言からの派生名詞以外}&\multicolumn{4}{c|@{\,}}{\small用言からの派生名詞}&\multicolumn{4}{c|}{\small合計}\\\cline{2-13}&\multicolumn{2}{c|@{\,}}{\small再現率}&\multicolumn{2}{c|@{\,}}{\small適合率}&\multicolumn{2}{c|@{\,}}{\small再現率}&\multicolumn{2}{c|@{\,}}{\small適合率}&\multicolumn{2}{c|@{\,}}{\small再現率}&\multicolumn{2}{c|}{\small適合率}\\\hline\multicolumn{13}{|c|}{「名詞Aの名詞B」と用言の格フレームを用いた実験}\\\hline{\small学習サンプル}&91\%&(60/66)&86\%&(60/70)&66\%&(23/35)&79\%&(23/29)&82\%&(83/101)&84\%&(83/99)\\\hline{\smallテストサンプル}&63\%&(24/38)&83\%&(24/29)&63\%&(20/32)&56\%&(20/36)&63\%&(44/70)&68\%&(44/65)\\\hline\multicolumn{13}{|c|}{完全な名詞格フレーム辞書を用いることができる場合の評価}\\\hline{\small学習サンプル}&91\%&(60/66)&88\%&(60/68)&69\%&(24/35)&89\%&(24/27)&83\%&(84/101)&88\%&(84/95)\\\hline{\smallテストサンプル}&79\%&(30/38)&86\%&(30/35)&63\%&(20/32)&77\%&(20/26)&71\%&(50/70)&82\%&(50/61)\\\hline\end{tabular}\end{center}\begin{center}\begin{minipage}{0.9\textwidth}\baselineskip=14.5pt各規則で与える得点は学習サンプルにおいて人手で調節した.\\{学習サンプル\{例文(43文)\cite{walker2},童話「こぶとりじいさん」全文(93文)\cite{kobu},天声人語一日分(26文),社説1テーマ(26文)\}テストサンプル\{童話「つるのおんがえし」前から91文抜粋\cite{kobu},天声人語二日分(50文),社説半日分(30文)\}評価に適合率と再現率を用いたのは,間接照応を行なわない名詞をシステムが誤って間接照応を行なうと解析することがあり,この誤りを適切に調べるためである.適合率は間接照応の照応先を持つ名詞の要素のうち正解した要素の個数を,システムが間接照応の照応先を持つと解析した要素の個数で割ったもので,再現率は間接照応の照応先を持つ要素のうち正解した要素の個数を,間接照応の照応先を持つ要素の個数で割ったものである.}\end{minipage}\end{center}\end{minipage}\bigskip\vspace{-1.5mm}\end{table*}また,「名詞Aの名詞B」と用言の格フレームを用いた近似的な方法による実験の他に,完全な名詞格フレーム辞書を用いることができることを仮定した評価も行なった(表\ref{tab:sougoukekka}の二段目).この評価は,「名詞Aの名詞B」と用言の格フレームを用いる近似的な方法で解析した結果において,以下の三つの理由で誤ったものを正解として数えることによって行なった.\begin{enumerate}\item適切な用例が不足している.\item副作用を示す用例が存在している.\item名詞と動詞の場合で格フレームが異なる.\end{enumerate}実際に名詞格フレーム辞書を作って解析する場合は,辞書に誤りが含まれることが予想され,精度はここで示したものよりも若干低くなると思われる.\subsection{誤りの考察}\vspace{-0.5mm}名詞格フレーム辞書を用いることができたとして本手法では誤りとなるものとしては次のようなものがあった.\begin{equation}\vspace{-0.5mm}\begin{minipage}[h]{10cm}こんなひどいふぶきの中をいったいだれがきたのかといぶかりながら、お婆さんは言いました。\\「どなたじゃな」\\戸を開けてみると、そこには全身雪でまっ\hspace{-0.2mm}しろになった\hspace{-0.1mm}\underline{娘}\hspace{-0.1mm}が立っておりました。\end{minipage}\end{equation}この例文の下線部の「娘」は若い女の人という意味で用いられていて間接照応しないが,「お婆さん」の「娘」であると解析してしまった.これは,名詞の役割における多義性の問題であり,非常に難しい問題である.また,次のような誤りもあった.\begin{equation}\begin{minipage}[h]{10cm}各国が国内経済政策優先に走るのは、...\\(中略)\\日本の政策当局には、労働需給のひっ迫や消費税導入によって便乗値上げなどからインフレ懸念が強まるとの見方が出始めている。\\この見方は、G7で日本への過度の\underline{期待}をけん制し金融政策のフリーハンドを確保しておくべきだとの意見につながる。\end{minipage}\end{equation}この例文の下線部の「期待」の間接照応先は,「期待」のガ格の間接照応先を「政策当局」と解析したが,「期待」のガ格の正しい間接照応先は「各国」である.この解析ができるようにするには,「期待」がかかる動詞の意味を利用する必要がある.この例の「けん制する」の場合,「けん制する」のガ格と「けん制する」のヲ格にくる動詞のガ格とはほとんど一致しないと考えられる.この知識を用いると,ゼロ代名詞の解析において「けん制する」のガ格には「政策当局」がすでに入っているので,「期待」のガ格に「政策当局」が入るという誤りはなくなると考えられる.このような知識も蓄えて解析する必要がある.また,本研究の方法では,知識の利用は一段階しか行なわないが,二段階の知識の利用が必要な例があった.\begin{equation}\begin{minipage}[h]{10cm}30日に竹下首相をまじえて、自民党の関係者が話し合った内容によると、1票の格差は3倍以内を目標に是正する、総定数を1減らして511に戻す、\underline{抵抗}の強い\underline{2人区}の解消は見送り、定数6の北海道1区だけ分区する方針で合意した、という。\end{minipage}\label{eqn:nininku_ayamari}\end{equation}この例文の下線部の「抵抗」の間接照応先は一見すれば「2人区」と思ってしまうが,深く考えれば「2人区の立候補者」であることがわかる.このような場合は,「2人区」から「抵抗」まで間接照応するとき,「2人区---立候補者」,「立候補者が抵抗する」の二段階の知識の利用が必要となる.このような場合も処理できるような枠組にしていく必要がある.しかし,知識の二段階の利用をあらゆるものに適用すると,間接照応でないのに誤って間接照応と解析する場合が増加し,適合率を低下させることになる.二段階の知識を利用する場合は,また新たな考え方が必要である.\vspace*{-1mm}\begin{table}[t]\caption{「名詞Aの名詞B」を分類語彙表に基づいて並べかえたもの}\label{tab:noun_bgh}\vspace{-1mm}\begin{center}\begin{tabular}{|l|l|}\hline名詞B&名詞Aを分類語彙表に基づいて並べかえたもの\\\hline国民&(人間)相手\,(組織)国先進国両国内地全国日本ソ連\\&英国アメリカスイスデンマーク世界\\\hline元首&(人間)来賓\,(組織)外国各国ポーランド\\\hline屋根&(組織)北海道世界学校工場ガソリンスタンドスーパー\\&自宅本部\,(生産物)車住宅家邸宅民家神殿玄関車\\&車体新車(現象)緑オレンジ色(動作)かわらぶき\\&(精神)方式(特徴)形式車体\\\hline模型&(動物)象\,(自然)富士山\,(生産物)鋳物マンション\\&カプセル電車船軍艦飛行機ジェット機\,(動作)造船\\&(精神)プラン\,(性質)運行\\\hline行事&(人間)皇室王室官民家元\,(組織)全国農村県日本\\&ソ連寺学校学園母校\,(動作)就任まつり祭り\\&祝い巡礼\,(精神)祝い恒例公式\\\hline人格&(人間)わたし私人間青少年政治家\\\hline\end{tabular}\vspace*{-3mm}\end{center}\end{table}\begin{table}[t]\caption{分類語彙表の分類番号の変更}\vspace{-1mm}\label{tab:bunrui_code_change}\begin{center}\begin{tabular}[c]{|l|l|l|}\hline意味素性&分類語彙表の&変更後の\\&分類番号&分類番号\\\hlineANI(動物)&156&511\\[0cm]\hlineHUM(人間)&12[0-4]&52[0-4]\\[0cm]\hlineORG(組織・機関)&125,126,127,128&535,536,537,538\\[0cm]\hlinePLA(植物)&155&611\\[0cm]\hlinePAR(生物の部分)&157&621\\[0cm]\hlineNAT(自然物)&152&631\\[0cm]\hlinePRO(生産物・道具)&14[0-9]&64[0-9]\\[0cm]\hlineLOC(空間・方角)&117&651\\[0cm]\hlinePHE(現象名詞)&150,151&711,712\\[0cm]\hlineACT(動作・作用)&13[3-8]&81[3-8]\\[0cm]\hlineMEN(精神)&130&821\\[0cm]\hlineCHA(性質)&11[2-58],158&83[2-58],839\\[0cm]\hlineREL(関係)&111&841\\[0cm]\hlineLIN(言語作品)&131,132&851,852\\[0cm]\hlineその他&110&861\\[0cm]\hlineTIM(時間)&116&a11\\[0cm]\hlineQUA(数量)&119&b11\\[0cm]\hline\end{tabular}\vspace*{-3mm}\end{center}\end{table} \section{名詞格フレーム辞書の作成に関する考察} 本論文では,完全な形の名詞格フレーム辞書を用いる代わりに,「名詞Aの名詞B」を利用して間接照応の解析を行なった.しかし,完全な形の名詞関係辞書をなんらかの方法で作成し,これを用いて解析することの方が精度も高くなると期待できるし,自然言語処理に対する正しいスタンスであると考えられる.そこで,名詞格フレーム辞書の作成に関する考察を行なった.「名詞Aの名詞B」の意味解析の研究が進めば,名詞格フレーム辞書は自動的に作成することができると思われる.この場合は非常に小さいコストで名詞格フレーム辞書を作成できることになる.「名詞Aの名詞B」の意味解析の研究が今のような状態でなかなか困難で,人手で作成せざるをえない場合は,どうだろうか.このときも,「名詞Aの名詞B」の用例に注目して作成するのがよいと考えられる.例えば,EDRの「名詞Aの名詞B」の用例を名詞Bの分類語彙表\cite{bgh}の分類番号に応じて並べかえ,また,名詞Aの分類語彙表の分類番号に応じて並べかえ,さらに,名詞Aが形容詞的な名詞である用例を省くと表\ref{tab:noun_bgh}のようになる.このとき並べかえに用いる分類語彙表の分類番号は,表\ref{tab:bunrui_code_change}の変更を行なったものを用いた.表~\ref{tab:bunrui_code_change}は,IPAL動詞辞書\cite{ipal}の意味素性を参考にして作成したものである.「AのB」の用例が表\ref{tab:noun_bgh}の形になれば,そこから名詞格フレーム辞書を人手で作成するのはそんなに大変なことではないと考えられる.「国民」の欄の「相手」,「元首」の欄の「来賓」を取り除いたり,特徴,性質を意味する名詞を取り除くことによって作成することになる.また,「名詞A」にある名詞を大雑把に眺めて国を意味する名詞が多いというときは名詞Aには国を意味するものが入りやすいという意味素性による指定も行なうことにもなる.ただし,用例が不足していることが考えられるので,用例が不足していることを念頭において人手で用例を足しながら作成する必要がある.しかし,意味的な順番に並べかえていて意味的に近いものが近くにあるので,人手で用例を足すときもそれほど困難ではないと考えられる. \section{おわりに} 本研究では,名詞における間接照応の解析方法の提案を行なった.このとき,名詞格フレーム辞書を作成することが望ましいが,名詞格フレーム辞書はまだ存在しないので,「名詞Aの名詞B」の用例と用言格フレーム辞書を代わりに利用することにした.この方法で,テストサンプルにおいて再現率63\%,適合率68\%の精度で解析できた.このことは,名詞格フレーム辞書が存在しない現在においてもある程度の精度で間接照応の解析ができることを意味している.また,完全な名詞格フレーム辞書が利用できることを仮定した実験も行なったが,この精度はテストサンプルにおいて再現率71\%,適合率82\%であった.また,名詞格フレーム辞書の作成に「名詞Aの名詞B」を利用する方法を示した.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1995年同大学院修士課程修了.同年,同大学院博士課程進学,現在に至る.自然言語処理,機械翻訳の研究に従事.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.国立民族学博物館教授を兼任(1976.2--1994.3).京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--1996.6),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5--1995.4).情報処理学会副会長(1994.5--1996.4).京都大学附属図書館長(1995--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V06N07-06
\section{はじめに} 機械翻訳等の自然言語処理システムでの品質向上におけるボトルネックとして構文解析の問題があり,解析する文が長くなると係り受け処理で解析を誤る場合がある.このため,長文を意識した構文解析の品質向上に向け各種研究が行われているが,依然として未解決のまま残されている課題がある.そのような課題の一つに連体形形容詞に関する係りがある.この課題に対し,我々は,連体形形容詞周りの「が」格,「の」格の係り決定ルールを提案し,技術文でよく利用される形容詞に対して約97%の精度で係りを特定できることを示した(菊池,伊東~1999).しかし,そこで対象とした形容詞は技術文での出現頻度を考慮して選択したので,抽出したルールが形容詞全般に対しても有効かどうか,また,同様な考え方が形容詞全般に対しても成り立つのかどうかについては検証できていなかった.そこで,本論文では,分析対象を広げ,抽出済みルールが形容詞全般に対して妥当なものであるかどうかを検証し,必要に応じてルールの拡張を行う.用語のスパース性のため形容詞全般にルールが適用可能かどうかを調べることは\mbox{困難である.}そのため,分析対象語のカバー範囲を明確にする必要がある.そこで,国立国語研究所で行われた分析体系(西尾~1972)に基づいて,形容詞を分類し,その分類体系を網羅するように各形容詞を選び,その係りの振る舞いを調べることとした.このような分析を通し,若干のルール拡張を行い,最終的に今回拡張した形容詞群に対しても,約95%という高い精度で係りを特定できることを示す.第2章では,我々がこれまでに提案した係りに関するルールを概説し,その問題点を\mbox{整理する.}第3章では,国立国語研究所での研究に基づき形容詞全体を分類整理する尺度を定め,多様なタイプの形容詞を分析対象として抽出可能とする.また,本論文で利用するコーパスについても説明する.第4章では形容詞無依存ルールと形容詞依存ルールに分けて検証し,その精度とルールの拡張について述べる.また,今回までに,7000件を越えるデータが蓄積されたので,直感的に決定していた形容詞無依存ルールのルール間の適用順位についても検証する.第5章では,対象語の拡張に伴い,新たに検出できたルールについて説明を行い,全ルールを適用した後に得られる各形容詞の係りのDefault属性について説明する.第6章では,それらを適用した結果の係り解釈の精度と現行システムとの比較を行う. \section{提案済ルールの概説とその問題点} 我々の研究は,連体形形容詞に先行する格助詞「が」「の」格の係り特性に関するものであり,大量コーパスを利用し,言語現象を分析して係りの特徴をルール化し,それに,統計的振る舞いを加味して係りを精度よく決めようとするものである.分析方法は,先行研究(田中,荻野~1980,荻野~1987)とは異なり,形容詞を分類のキーとして,形容詞と前後の名詞の関係から係りを決定するものである.対象とする構文は,連体形形容詞を含む「名詞1+<*の|*が>+[副詞]+<イ形容詞|ナ形容詞>+名詞2」の形式である.菊池,伊東(1999)の分析では,技術文においてある程度以上の頻度で利用されている形容詞を対象とした.その結果抽出した係り決定のためのルールは,おおむね次のようなものである.ルールは形容詞無依存のルールと形容詞依存のルールに大別され,以下のような\mbox{ものから構成}される.なお,ルールはルール番号の小さい順に適用される.\begin{description}\item[\underline{形容詞の種類に無依存のルール}]~\\ルール1:名詞1が以下のものである場合は,名詞1は形容詞には係らない.\\数詞/単位/まとめる語/時詞/位置/区切り記号がある場合\\ルール2:複合助詞(での,からの,への等)及び「等の,等が」は形容詞には係らない.\\ルール3:形式名詞は係りを強く制御する.\\ルール3−1:名詞2が形式名詞の場合,名詞1は形容詞に係る.\\ルール3−2:名詞1が形式名詞の場合,名詞1は形容詞に係らない.\\ルール4:「が」格は名詞2以降にある係助詞「は」を越えて係ることはない.\item[\underline{形容詞に依存するルール}]~\\ルール5:動きや相互関係に関連する形容詞はサ変名詞や転成名詞と結びつく.\\ルール6:「人」,「組織」,「国」などの属性を持つ名詞と特定の形容詞には係りに相関が\\ある.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない形容詞が\\ある.\\ルール6−2:名詞2が「人」の属性を持つ場合,その語と強く結びつく形容詞(若\\い)がある.\\ルール7接尾語と結びつきの強い形容詞は接尾語を持つ語と結びつく.\item[\underline{係りのDefault属性}]~\\上記のルールに該当しない場合は,各形容詞の統計的な振る舞いから決定される係りの特性(Default属性)に従って係りが決まる.\end{description}しかし,これらのルールの抽出は技術文のコーパスから行い,一定の回数以上\mbox{該当する構文で使}用されていた形容詞を対象とした.そのため,(1)対象とした形容詞に偏りがある恐れがある,(2)対象外の形容詞についての知見が得にくい等の問題が残る.この問題を解消するためには,形容詞の網羅的な分析が必要となる.そのため,まず次章で形容詞の体系的分類について説明する. \section{形容詞選定と利用したコーパス} \subsection{形容詞の分類体系}国立国語研究所での研究(西尾~1972)によれば,形容詞は以下のように体系化される.\mbox{ただし,}国立国語研究所の分類でもまだ分類項目が不足すると思われるものがあったため,分類項目を追加した.追加した分類項目は【】で示したものである.また,文献(菊池,伊東~1999)で分析対象とした用語を多く含む分類項目を《》で示した.これにより,どの分類項目の形容詞が分析できているかを示した.\begin{center}\framebox{\begin{minipage}{.9\textwidth}感情形容詞\\(1)感情,(2)感覚\\属性形容詞\begin{description}\item[]1.広範なものごとの属性\\(1)《存在》,(2)異同・関係,(3)《普通でないこと》,(4)危険・害の有無,\\(5)【《評価・状態・様態》】\item[]2.ものに関する属性\\(1)《空間的な量》,(2)【《数》】,(3)色,(4)音,(5)味,(6)におい,(7)【熱】,\\(8)【《動き・変化》】,(9)【《評価・状態・様態》】\item[]3.人に関する属性\item[]4.ことに関する属性\\(1)必然的な事態,(2)程度\end{description}\end{minipage}}\end{center}上記分類に属する形容詞については,付録にその詳細を示した.上記分類からも分かる\mbox{通り,文}献(菊池,伊東~1999)で分析対象とした形容詞は,ほとんどが「属性形容詞」の「広範なものごとの属性」と「ものに関する属性」に属するものであった.技術文書での使用頻度から対象語を選んだこともあり,分析対象とした形容詞に偏りがあることが分かった.これは,技術文は事実の説明が主であり,人間の感情や感覚にまつわる説明はほとんどなく,人の五感に関係する様な形容詞があまり出現していないためと思われる.今回の報告では,形容詞全般を扱えるようにするため,上記分類を網羅するよう用語を選定した.\subsection{利用したコーパスと分析対象とした形容詞}本論文の主目的は,技術文ではあまり使用されない形容詞に対して,既抽出のルールの検証と拡張を行うものである.そのため対象とするコーパスは新聞文に限定した.使用したコーパスは,毎日新聞95年度版1月,10月,12月の記事(計約24Mバイト)である.ただし,ルールの適用順位の検証には,抽出済の全例文を使用した.評価が主目的のため,コーパスはすべて評価用と位置づけ,分析用と評価用という区分けはしなかった.係りを決定するためには,一定頻度以上の形容詞を対象とする必要がある.そのため本論文でも,6件以上出現した形容詞のみを分析対象とした.その結果,183語を調べたが,出現頻度が5件以下の語が121語あり,最終的な分析対象語は表1の62語となり,該当する分析対象文総数は1273件であった.\begin{table}[h]\caption{分析対象語}\begin{center}\begin{tabular}{|l|l|}\hline分類&分析対象とした用語\\\hlineイ形容詞&青い,赤い,明るい,浅い,温かい,厚い,熱い,甘い,\\&痛い,著しい,〜色い,薄い,美しい,美味しい,遅い,\\&重い,かたい,軽い,厳しい,暗い,黒い,苦しい,濃い,\\&寂しい,白い,すごい,鋭い,狭い,楽しい,近い,\\&冷たい,つらい,遠い,苦い,鈍い,速い,早い,古い,\\&欲しい,細い,珍しい,やさしい,弱い\\\hlineナ形容詞&安全な,緩やかな,同じ,勝手な,〜急な,危険な,\\&貴重な,静かな,自由な,新鮮な,好きな,速やかな,\\&大胆な,大変な,得意な,苦手な,熱心な,不安な,\\&不自由な\\\hline\end{tabular}\end{center}\end{table} \section{抽出済みルールの検証} \subsection{形容詞無依存ルール}\subsubsection{ルールの検証}形容詞無依存の4つの既抽出ルールを,体系的に抽出した全ての分析対象文に適用し,その正当性を調べた.その結果を表2に示す.\begin{table}[h]\caption{形容詞無依存ルールの評価結果}\begin{center}\begin{tabular}{|l|c|c|r|}\hline適用ルール名&該当件数&正解件数&正解率\\\hlineルール1&176&176&100\%\\\hlineルール2&76&76&100\%\\\hlineルール3−1&86&83&96.5\%\\\hlineルール3−2&7&7&100\%\\\hlineルール4&2&2&100\%\\\hline\end{tabular}\end{center}\end{table}この結果,ルール3−1を除いて,形容詞無依存ルールの適用は問題がないことが分かった.ルール3−1は,「こと」に関する例であり,これらは更なるルールの拡張が必要なことを示している.これは,判定詞「だ」を伴って助動詞化するものの範疇をどのようなものとするかというものである.以下に,解釈の範囲の拡張について述べる.\subsubsection{ルールの拡張}形式名詞は,形容詞に関係なく直前の用言の振る舞いを規定する.そのため,形式名詞「こと」に関して一般的と考えられる以下のルールを追加する.{\bf\begin{description}\item[\underline{ルールの拡張}]:呼応関係にある語については,その間に挟まれる形式名詞「こと」は,呼応の前の部分を閉じる働きはしない.このような用法には以下のようなものがある.\\いかに〜ことか.\\どんなに〜ことか.\\何と〜ことか.\end{description}}但し,各々の品詞は「いかに」が副詞,「どんなに」が連体詞,「なんと」が連語とされるがここでは,呼応関係にある副詞的語として,副詞として扱う.\\例1)夫人はマスコミに曲解されることがいかに苦しいことかを分かっている.\\例2)瞬時の異変がもたらした結果の,なんとすさまじく壊滅的なことか.例2は,句読点を含む場合(ルール1)のケースであるが,それは呼応関係を中に含むことをより鮮明にしている例文である.なお,これらは,判定詞を伴って助動詞化するケース(「ことであるか」)の短縮形(「ことか」)と解釈すれば,既存のルールの範疇に納まることになる.\subsubsection{ルールの適用順位の決定}今回までの研究により,ルールの適用順位を検討できる程度の用例が蓄積された(\mbox{約7000}件).そこで,形容詞無依存ルールに対して適用順位の評価を行った.ルール間で競合が起きるのは,名詞1に関するルール(ルール1,ルール2,ルール3—2)と名詞2の関するルール(ルール3—1)の間である.評価した結果は以下のようになった.\\評価結果:ルール1>ルール3−1>ルール3−2>ルール2以下に,ルール3—1との関係で順位検証に利用した例と出現件数を示す.\begin{description}\item[ルール1(名詞1が単位)>ルール3−1(名詞2が形式名詞)](出現件数2件)\\例)野生では母子で群れに戻るまでのこの数時間が最も危険な時である.\\この例では,「数時間が」は「危険な」には係らず,「である」に係る.\item[ルール1(名詞1が時)>ルール3−1(名詞2が形式名詞)](出現件数2件)\\例)雪の降る日は囲いをし,夏の暑い時は水やりに気をつけ,・・・.\\この例では,時を表す名詞句「夏の」は,「暑い」に係らず「暑い時」に係る.\item[ルール3−1(名詞2が形式名詞)>ルール3−2(名詞1が形式名詞)](出現件数3件)\\例)それを承知で親や生徒も入学する場合が多いため,一概には非難できない.\\この例では,「ため」が形式名詞であるため,「場合」も形式名詞であるが「多い」に係っている.\item[ルール3−1(名詞2が形式名詞)>ルール2(複合助詞)](出現件数2件)\\例)前足や鼻筋,首などが白いため「なぜこの犬が黒ベエなのか」と瀬戸雄三社長が指摘.\\この例では,「ため」が形式名詞であるため,「〜などが」は複合助詞相当であるが「白い」に係っている.\end{description}最後に示した例が,ルール2とルール3−1の適用順位の決定例である.これは,文献(菊池,伊東~1999)と順位が異なっている.但し,評価に使った件数が約7000件であるので,出現件数(2件)からみても,この順位の食い違いによる影響は非常に小さいものである.しかし,この例文により適用順位の変更が必要となった.\subsection{形容詞依存ルール}自然言語では,利用される用語は多岐にわたる.そのため用語を文字列として分類するのではスパース性のために,適用範囲に制約が生じる.スパース性を解消するためにはシソーラス情報を利用する等の上位カテゴリでの分類が必須である.しかし,一般にシソーラス情報は意味的考察の上でなされており,それをそのまま係りの分類に利用できるかどうかは明確でない.そのため,ここで既存の意味的分類が,係りを規定するための有効情報となり得るか検証する.その検証手段の一つとして,類似語や反意語に対して既抽出ルールを適用し,その正当性を評価する.もしこれらが正当であれば,意味的分類がそのまま係りを決める分類として利用できることとなる.ここでは,以下に示す類似語と反意語に対して分析する.\\\begin{tabular}{l@{→→}l}(分析済み語)激しい&(類似語)早い,速い,速やかな,遅い,〜急な\\(分析済み語)深い&(反意語)浅い\\(分析済み語)強い&(反意語)弱い\\(分析済み語)広い&(反意語)狭い\end{tabular}\\各々に対して,抽出済みルールと,それの適用結果を以下で説明する.\subsubsection{「激しい」の類似語でのルールの検証}「激しい」に適用されるルールは,次の2つである.\\ルール5:動きや相互関係に関連する語はサ変名詞や転成名詞と結びつく.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない.これを動作を表す語に適用した結果を表3に示す.この表の意味は,「早い」では,\mbox{ルール5に}該当する表現が6件出現し,そのうち5件は正しく解釈できたが,1件はルール5を適用すると誤った解釈をする.ルール6−1は該当するものが3件見つかり,3件とも正しく解釈されたというものである.\begin{table}[ht]\caption{類似語へのルール適用の確からしさ}\begin{center}\begin{tabular}{|l|l|l|}\hline該当語&ルール5&ルール6−1\\\hline早い&6件出現5件正解&3件出現3件正解\\\hline速い&19件出現18件正解&4件出現4件正解\\\hline速やかな&8件出現8件正解&該当例なし\\\hline遅い&1件出現1件正解&1件出現1件正解\\\hline〜急な&13件出現13件正解&1件出現1件正解\\\hline\end{tabular}\end{center}\end{table}「早い」で誤った解釈をした例は以下の通り.\\例)朝の早い仕事やから,五時すぎ電車に乗って大阪へ向かってた.この例では,「早い」は「仕事」と結びつくのでなく,「朝」に係る.このようにルールを適用すると解釈を誤る場合もあるが,ほとんどは正解であり,動作を示す形容詞には,ルール5とルール6−1が適用可能との結果を得た.なお,「朝」と「早い」は,早い朝=早朝のように,共起性の強い語とすべきものと思われるが,ここでは共起の扱いはしなかった.\subsubsection{反意語でのルールの検証}\noindent(1)「強い」の反意語「弱い」でのルールの検証「強い」に適用されるルールは,次の2つである.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない.\\ルール7:接尾語(色,性,力)と結び付く.これを反意語「弱い」に適用した結果を表4に示す.\begin{table}[h]\caption{反意語「弱い」への適用精度}\begin{center}\begin{tabular}{|l|l|l|}\hline該当語&ルール6−1&ルール7\\\hline弱い&25件出現25件正解&6件出現6件正解\\\hline\end{tabular}\end{center}\end{table}表4より,反意語へのルールの適用可能性は十分にあることが分かった.ただし,「弱い」の場合,接尾語として出現したものは,「性」,「力」のみであった.コーパスの量が増えると「色」も出現するものと思われる.\vspace{.5\baselineskip}\noindent(2)「深い」の反意語「浅い」でのルールの検証「深い」に適用されるルールは,次の2つである.\\ルール5:動きや相互関係に関連する語はサ変名詞や転成名詞と結びつく.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない.これを反意語「浅い」に適用する.\begin{table}[h]\caption{反意語「浅い」への適用精度}\begin{center}\begin{tabular}{|l|l|l|}\hline該当語&ルール5&ルール6−1\\\hline浅い&1件出現1件正解&3件出現2件正解\\\hline\end{tabular}\end{center}\end{table}ルール6—1の誤り例は,「横一線の浅い4人のDFラインを敷き,〜」というものである.この文では,「浅い」は「DFライン」に係るが,「4人」に係るか「DFライン」に係るかを決定することは容易ではない.我々は,直後の名詞を選択することにしているので,「4人」を「人」の属性を持つものと判断し,ルール6—1により「横一線の」は「浅い」に係ると判断した.「4人のDFライン」が正しく解析され,この語の主要語がDFラインと判別できれば,ルールの適用誤りは解消される.すなわち,反意語へのルールの適用も十分可能であることが分かった.\vspace{.5\baselineskip}\noindent(3)「広い」の反意語「狭い」でのルールの検証「広い」に適用されるルールは,次のものである.\\ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない.\\しかし,調査したコーパス中には該当する「狭い」の例がなく,このルールの正否の判断はできなかった.以上の例からも分かるように,既抽出のルールは類似語及び反意語に対して,適用可能と判断できると思われる.しかし,形容詞は各語が多面的な意味を持つので,検証なしに無条件で類似語や反意語に同じルールを適用するのは注意を要するものと思われる.\vspace{.5\baselineskip}\noindent(4)反意語と係りのDefault属性の相関「新しい」という語は形容詞依存のルールは持たないが,先行する「が」「の」格が形容詞に係らないという意味でイ形容詞としては特徴的であった.この反意語「古い」についても同様の傾向が存在するかを分析した.結果は,共起(歴史の古い〜)を除いて,48件中47件は,先行する「が」「の」格が形容詞「古い」に係らなかった.しかし,このような,係りのDefault属性は,すべての反意語に適用できる訳ではない.例えば,「自由な」−「不自由な」のペアでは,「の」格に対して,まったく係り方が異なる.「遠い」−「近い」では,「遠い」は先行する「が」「の」格が係らない傾向があるのに対し,「近い」は先行する「が」「の」格が係る傾向がある.そのため,係りのDefault属性に関しては,各語ごとに決定しなければならないことが分かった.\subsubsection{ルールの適用範囲の拡張(適用可能な語の拡張)}形容詞に依存するルールを今回抽出した語にも適用可能とするために,\mbox{ルール適用用語の拡張}をした.対象となるルールはルール5,6,7である.\vspace{.5\baselineskip}\noindent(1)「ルール5:動きや相互関係に関連する語はサ変名詞や転成名詞と結びつく」の対象となる用語の拡張サ変名詞と結びつく語には以下の様なものがある.\\軽い,早い,速い,かたい,著しい\\ただし,次の語にもこのルールは適用可能であるが,特にこのルールを適用しなくても係り決定の精度には変化がなかったため,ルール適用の対象語とはしない.\\速やかな,遅い,〜急な\vspace{.5\baselineskip}\noindent(2)「ルール6−1:「人」,「組織」,「国」などの属性を持つ名詞と結びつかない形容詞」の対象となる用語の拡張人と結び付かない語には以下の様なものがある\\\begin{tabular}{l@{→}l}重さを示す語&軽い,重い\\時を示す語&古い\\色を示す語&黒い,白い\\\multicolumn{2}{l}{人の状態を示すことのある語}\\&やさしい,速い,温かい,寒い,鋭い,厚い,甘い,可愛い,\\\multicolumn{1}{l@{\protect\phantom{→}}}{}&弱い,苦しい,美しい,著しい,濃い\end{tabular}\vspace{.5\baselineskip}\noindent(3)「ルール7接尾語と結び付きの強い形容詞は接尾語のある語に結び付く」の対象となる用語の拡張接尾語と強い結びつきのある語には次のようなものがある.ここで,「色」は同等の意味合いを持つ「色彩」「色合い」にも拡張する.\\\begin{tabular}{l@{$\cdots$}l}濃い&色(色彩,色合い),度\\弱い&力,性\end{tabular} \section{新規ルールの追加} 分析対象となる形容詞を拡張した結果,係りにおいて特徴的な振る舞いを\mbox{するものが検出でき}た.そこでそれを,新たにルールとして設定することとした.このようなものには形容詞無依存ルールと,形容詞依存ルールで各々1つ存在する.\subsection{形容詞無依存ルールの追加}網羅的に抽出した形容詞を分析した結果,次のルールも有効であることが分かった.{\bf\begin{description}\item[\underline{追加ルール1}]:「名詞1」の直前に最上級,もしくは最上級相当を示す副詞(副詞相当語)が存在する場合,形容詞に先行する「が」「の」格は形容詞に係る.\end{description}}このような副詞には以下のものがある.\\一番,最も\\これらは4例存在し,4例ともこの規則にしたがった.\\例)破防法で最も規制の厳しい解散指定を請求する.\\例)ソスコベツ第一副首相は昨年,最も批判色の濃い独立テレビの放送免許取り\\消しの可能性に言及.\\例)世界で一番森の美しい国,亜熱帯から亜寒帯までのさまざまな樹種に恵まれ\\た国が,この日本だ.\\例)一行のなかでも最も体重の重い人間を乗せて先に送ってあった.このルールは,形容詞無依存のルールである.用例数はあまり多くなくはないが,\mbox{これは係りの}非交差の原則に則るものでもあるのでルール化した.ルール適用順位は,形容詞無依存ルールとしては一番弱い順位(5番目のルール)に設定する.\subsection{形容詞依存ルール追加}「感情形容詞」の中には,目的格「を」をとると分類される特殊なものがある(西尾~1972).このような用語は係りの面からも特徴ある振る舞いをしている.そのため次のルールを追加する.{\bf\begin{description}\item[\underline{追加ルール2}]:「を」格を取る以下の感情形容詞(苦手な,好きな,得意な,欲しい)には,先行する「が」「の」格が係る.\end{description}}これらの語の係りの分析結果を表6に示す.表からも分かる通り,先行する「が」「の」\mbox{格はこ}れらの形容詞に係る確率が非常に高い.\begin{table}[h]\caption{「を」格をとる感情形容詞の係り特性}\begin{center}\begin{tabular}{|l|c|c|c|c|}\hline該当語&\multicolumn{2}{c|}{先行する「が」格が}&\multicolumn{2}{c|}{先行する「の」格が}\\\cline{2-5}&係る&係らない&係る&係らない\\\hline苦手&4&0&2&0\\\hline好きな&15&3&36&3\\\hline得意な&2&1&4&0\\\hline欲しい&6&0&6&0\\\hline\end{tabular}\end{center}\end{table}これらの形容詞が出現した場合で,「が」「の」格が係らないケースは,(1)動作主が\mbox{省略されて}いるためか,(2)複数箇所に係るため係りの強度がより強い方を係りの正解としたことにより発生したものである.たとえば,次の例では,係り先が複数個所となり,片方に対して日本語特有の省略が発生しているために「が」格が係らないと解釈したものである.\\例)ファワズさんが不得意な英語で事情聴取を受けた.\\→ファワズさんが(彼女が)不得意な英語で事情聴取を受けた.\\しかし,この文は「ファワズさんは,(彼女が)不得意な英語で事情聴取を受けた.」と解釈することが可能である.これは,ゼロ代名詞の省略の問題として解析されるべきものである.そうすると,全てのケースで,先行する「が」「の」格が係るという結果になる.ただし,意味の問題に立ち入ると,これらの語は動詞と非常に似通った振る舞いを\mbox{している.例}えば,「私は本が欲しい」という文について考察する.この文の意味は「私が本を欲する」である.すなわち,「欲しい」は「を」格を対象格としてとることを示している.ただしこの対象格は動詞の場合とは異なり,連体形形容詞との関係では,格助詞「が」「の」が表層格として使用される.この文から連体修飾を含む文を作ると「私の欲しい本を・・・」「本の欲しい私は・・・」のようになる.どちらの場合も「欲しい」には先行する「の」格が係る.しかし同じ「の」格であっても,「私の」の「の」は動作主を表し,「本の」の「の」は対象を表している.そのため,解釈を正確に行うためには,係りを正しく処理するだけでなく,各用語の意味属性を意識する必要がある.\subsection{分析対象語の係りのDefault属性の決定}以上のルールを適用することにより,係りの揺らぎに相当する部分が取り除かれる.ルール適用後の係りは各形容詞の固有の係り特性(係りのDefault属性)となる.そのようにして調べた各形容詞の係りのDefault属性を次の分類に従い表7にまとめる.\\分類1:「が」「の」格は形容詞に係る.\\分類2:「が」格は形容詞に係るが,「の」格は形容詞に係らない.\\分類3:「が」格は形容詞に係らないが,「の」格は形容詞に係る.\\分類4:「が」「の」格は形容詞に係らない.\begin{table}[h]\caption{形容詞の係りのDefault属性}\begin{center}\begin{tabular}{|l|l|}\hline分類&分析対象語\\\hline分類1&浅い,著しい,薄い,遅い,濃い,好きな,近い,得意な,\\&早い,速い,不自由な,欲しい,苦手な,鈍い,弱い\\\hline分類2&〜色い,美しい,重い,軽い,黒い,苦しい,寂しい,自由な,\\&狭い,楽しい\\\hline分類3&該当なし\\\hline分類4&青い,赤い,明るい,温かい,熱い,厚い,甘い,安全な,痛い,\\&美味しい,同じ,かたい,勝手な,危険な,貴重な,厳しい,\\&〜急な,暗い,白い,静かな,新鮮な,すごい,速やかな,鋭い,\\&大胆な,大変な,冷たい,つらい,遠い,苦い,熱心な,不安な,\\&古い,細い,珍しい,やさしい,緩やかな\\\hline\end{tabular}\end{center}\end{table} \section{適用後の係り解釈精度と現行システムとの比較} 以上の全てのルールと係りのDefault属性を適用した結果,分析対象文総数\mbox{1273件のうち,}係りを正しく解釈したものは1217件,誤って解釈したものは56件であり,正解率は95.6%であった.すなわち,本方式を利用すれば,約95%の精度で「が」「の」格が形容詞に係るかどうかを判定することが可能となることが分かった.本方式の精度がどの程度であるかを判断する目的で,ある市販のソフトを利用して\mbox{解釈精度の}比較評価を行った.市販のソフトの場合一般に,解析の中間段階にある係りを図示することはない.そのため,出力された英文を頼りに係りの精度を検証した.しかし係りの曖昧性は,単語の持つ曖昧性に起因する場合も多々存在する.そこで入力となる文に次の様な処置を施して評価した.\begin{enumerate}\item文は本来の意味を損ねないように考慮しながらできるだけ短くした.\item未登録語になりそうな語(人名等)は明らかにその属性であると分かる語にした.\end{enumerate}このような処置をほどこして,係りを検証すると,市販システムでの連体形形容詞の係りの解釈精度は80%程度であった.以上の結果から,本報告で説明したルールの組み込みは非常に有効であると言える. \section{まとめ} 本論文では,体系的分析に従い形容詞を網羅的に分析し,反意語や類似語には同種のルールが適用できる可能性が高いことを示した.また追加分析した用語から新たに2つの追加ルールを見出すことができた.その結果,約95%の精度で連体形形容詞に関わる係りを特定できた.今回は分析対象とする形容詞を体系的に選んだので,係りに関してはこれらのルールで形容詞全体をカバーできるものと考えている.また,現行システムの係り解釈の精度と比較し,本方式が有効であることを示した.しかし,実際に現行システムへの組み込みには費用対効果比に基づく詳細なフィージビリティ分析が必要となる.既存のシステムの改良は大変費用の掛かるものとなるが,本方式では段階的な組み込みが可能であるため,以下のような手順での組み込みが可能と思われる.\begin{enumerate}\item顕著な係りのDefault属性の組み込み\item形容詞単位でのルールの組み込み\item顕著ではない係りのDefault属性の組み込み\end{enumerate}また,本論文で提案した方式は,形容詞の「を」格や「に」格の係り分析にも利用可能である.今後は,連体形形容詞と「が」「の」格以外の格の関係について同様に係り関係を明確にしていく予定である.\section*{謝辞}本研究にあたり,多くの支援をしていただきました富士通静岡エンジニアリング\mbox{社長田口尚三}氏に心より感謝いたします.また,コーパスの利用を許諾していただきました毎日新聞社に感謝いたします.\newpage\section*{付録形容詞の意味的分類(調査対象の用語とその分類)}{\small\begin{center}\begin{tabular}{|c|l|l|l|}\hline大分類&中分類&小分類&具体的用語\\\hline感情&感情&感情&愛しい,嬉しい,気味悪い,悔しい,憎い,恥ずかしい,\\形容詞&&&安心な,嫌な,可笑しい,つらい,可愛い,懐かしい,楽しい,\\&&&苦しい,嫌いな,好きな,寂しい,心配な,悲しい,不安な,\\&&&怖い,満足な,面白い,愉快な,可哀相な,気の毒な,汚い,\\&&&恐ろしい,苦手な,得意な,美しい,有り難い,欲しい\\\cline{2-4}&感覚&感覚&痛い,痒い,眠い\\\hline属性&ものごと&存在&《無い》\\\cline{3-4}形容詞&の属性&異同・&あべこべな,同じ,逆な,さかさまな,反対な,等しい,\\&&関係&そっくりな\\\cline{3-4}&&普通で&《特殊な》《特別な》,異様な,おかしい,変な,妙な\\&&ない&\\\cline{3-4}&&危険・害&危ない,安全な,危険な,有害な\\\cline{3-4}&&評価・&《よい》《良い》《悪い》《完全な》《さまざまな》《詳細な》\\&&状態・&《複雑な》《正確な》《正しい》《難しい》《新たな》《適切な》\\&&様態&《重要な》《可能な》《不可能な》《容易な》《困難な》\\&&&《簡単な》《有効な》《容易な》《大幅な》《主な》《主要な》\\&&&《〜的な》,緩やかな,自由な,不自由な,きつい\\\cline{2-4}&ものに関&空間的な&《大きい》《大きな》《高い》《小さい》《小さな》《長い》\\&する属性&量&《低い》《広い》《深い》《短い》《〜大な》《〜規模な》,\\&&&かたい,鋭い,丸い,狭い,固い,細い,四角い,鈍い,太い,\\&&&浅い,厚い,粗い,薄い,濃い,近い,遠い\\\cline{3-4}&&数&《多い》《少ない》《豊富な》\\\cline{3-4}&&色&青い,赤い,黒い,白い,〜色い\\\cline{3-4}&&音&うるさい,けたたましい,騒がしい,静かな,静寂な,静粛な,\\&&&騒々しい,やかましい\\\cline{3-4}&&味&甘い,旨い,美味しい,からい,しつこい,渋い,淡白な,\\&&&苦い,美味な,まずい\\\cline{3-4}&&におい&かぐわしい,臭い,こうばしい\\\cline{3-4}&&熱&涼しい,ぬるい,暖かい,温かい,寒い,暑い,熱い,冷たい\\\cline{3-4}&&動き・&《激しい》《〜速な》〜急な,早い,速い,速やかな,遅い,\\&&変化&荒い,緩い,穏やかな\\\cline{3-4}&&評価・&《詳しい》《新しい》《強い》《不要な》《必要な》,古風な,\\&&状態・&新鮮な,古い,古臭い,貴い,貴重な,珍しい,軽い,重い,\\&&様態&明るい,暗い,眩しい,弱い,淡い\\\cline{2-4}&人に関す&人に関す&《若い》,あいくるしい,あどけない,うまい,内気な,\\&る属性&る属性&おおげさな,おだやかな,男らしい,おとなしい,快活な,\\&&&かしこい,勝気な,勝手な,か弱い,頑固な,几帳面な,\\&&&きびしい,器用な,気楽な,軽率な,軽薄な,元気な,健康な,\\&&&懸命な,強情な,正直な,上手な,丈夫な,真剣な,慎重な,\\&&&親切な,丹念な,貞淑な,丁寧な,柔和な,熱心な,のんきな,\\&&&本気な,敏捷な,無愛想な,真面目な,まめな,無口な,\\&&&むじゃきな,やさしい,雄弁な,利発な,冷酷な,冷淡な,\\&&&腕白な\\\cline{2-4}&ことに関&必然的な&当然な,当たり前な\\&&事態&\\\cline{3-4}&する属性&程度&著しい,すごい,甚だしい,顕著な,大変な\\\hline\end{tabular}\begin{tabular}{p{.8\textwidth}}《》は文献(菊池,伊東~1999)で分析した用語を示す.\\文脈によっては複数のカテゴリに属する用語もあるが,表層上での用語の洗い出しを主目的としたため,用語は一個所のみに現れるよう集約した.\end{tabular}\end{center}}\newpage\nocite{Kikuchi1999i,Nishio1972,Tanaka1980,Ogino1987}\bibliographystyle{jnlpbbl}\bibliography{v06n7_06}\begin{biography}\biotitle{略歴}\bioauthor{菊池浩三(正会員)}{1970年大阪大学理学部物理学科卒業.1972年大阪大学大学院修士課程修了.1973年富士通株式会社入社.1983年(株)富士通静岡エンジニアリング出向.1999年静岡大学大学院電子科学研究科博士課程修了,工学博士.自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{伊東幸宏(正会員)}{1980年早稲田大学理工学部電子通信学科卒業.1987年同大学院博士後期課程修了.同年,早稲田大学理工学部電子通信学科助手.1990年静岡大学工学部情報知識工学科助教授.現在静岡大学情報科学科助教授,工学博士.自然言語理解,知的教育システムなどに興味をもつ.言語処理学会,電子情報通信学会,情報処理学会,人工知能学会,日本認知学会,教育情報システム学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N02-08
\section{\revise{はじめに}} 手順書は調理や家具の組み立て等,幅広いタスクを実行するための手順のリストを提供する.手順は複数文から構成されることもあり,各文には通常一つ以上の動作と物体が含まれる.近年では,手順書の理解に向けた研究が盛んに行われている\cite{mori2014flow,kiddon2015mise,bosselut2018simulating,dalvi2018tracking,tandon2020dataset}.この中でも,文章全体における手順の流れを理解すること\cite{mori2014flow,kiddon2015mise}は,手順間の関係に関する推論\cite{zhang2020reasoning}や手順書を基にした作業の自動化\cite{bollini2013interpreting}を目指す上で重要である.この方向において,先行研究では,調理レシピの理解の表現としてレシピフローグラフ(recipeflowgraph;r-FG)がコーパスと共に提案されている\cite{mori2014flow,yamakata2020english}.\figref{fig:flow-graph-examples}の左図に示すように,r-FGは調理レシピ内の手順に関わる表現をノード,それらの関係をエッジとする有向非巡回グラフとして定義され,文章レベルでの手順の依存関係を捉えることが出来るという特徴を持つ.また,先行研究では,r-FGの自動予測を行うフレームワークとして,ノード予測とエッジ予測の2段階で行うものが提案されている\cite{maeta2015framework}.こうした発展がある一方で,r-FGは調理分野に依存した表現となっているため,その他の分野の手順書には未だ適用されていない.調理分野に依存しない一般化されたフローグラフ表現を開発することは,分野間で手順の知識の共有を可能にする上で意義があるといえる.また,フローグラフに共通する問題として,アノテーションが複雑であり,大規模なアノテーションが現実的ではない点が挙げられる.そのような際に,既存のアノテーションを活用し,新たな分野では少量アノテーションのみを用意して予測モデルを学習できれば,アノテーションコストの削減に繋がり有用である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-2ia7f1.pdf}\end{center}\hangcaption{フローグラフアノテーションの例.左はEnglishr-FGコーパスにおけるレシピのアノテーションを,右は\revise{w-FG}コーパスの\textit{HobbiesandCrafts}の手順書のアノテーションを,それぞれ示す.\revise{赤線で囲まれている表現は,フローグラフにおけるルートノードに対応している.}}\label{fig:flow-graph-examples}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文では一般的な手順書の理解の表現として,\revise{wikiHow}フローグラフ(\revise{wikiHow}flowgraph;\revise{w-FG})を提案する.これはr-FGにおける調理依存の表現(食材;Food)を手順書の最終生産物の材料(Ingredient)として汎化して捉えることで得られる.\revise{w-FG}はr-FGと互換性があり,既存の調理分野のデータは\revise{w-FG}に変換可能である.ここでは,英語の手順書を対象とし,調理以外の分野における手順書のフローグラフ予測性能を調査する.この目的のため,新たに\revise{w-FG}コーパスを構築する.これは,様々なタスクの手順を公開しているwikiHowの記事を基に作成されている.\revise{w-FG}コーパスは,wikiHowの上位カテゴリである\textsl{FoodandEntertaining},\textsl{HobbiesandCrafts},\textsl{HomeandGarden},\textsl{Cars\&OtherVehicles}を分野として選択し,各分野で$30$記事のアノテーションを提供する.\revise{w-FG}コーパスはWeb上で公開済みである\footnote{\url{https://github.com/kskshr/w-FG-Corpus}}.実験では,\revise{w-FG}コーパスの各対象分野において,ノード予測とエッジ予測の性能を調査する.ここでは,フローグラフアノテーションのコストを考慮し,対象分野の学習に利用可能なデータが小規模であると想定する.この設定下でフローグラフ予測性能を向上するため,既存の調理分野のデータの利用を考える.具体的には,調理分野のデータであるEnglishr-FGコーパス\cite{yamakata2020english}で事前学習を行い,\revise{w-FG}コーパスの対象分野のデータでファインチューニングを行う分野適応によって,予測モデルを実現する.実験結果では,このような分野適応を行うことで,Englishr-FGコーパスか\revise{w-FG}コーパスのいずれか一方を学習に用いる場合に比べ,大幅な性能向上が実現出来ることを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{レシピフローグラフ} label{sec:recipe_flow_graph}本節では,レシピフローグラフ(recipeflowgraph;r-FG)について概説する.まず,r-FG表現について説明を行い,次にr-FG予測のためのフレームワークを紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{フローグラフ表現}\label{subsec:flow_graph_representation}\figref{fig:flow-graph-examples}の左図のように,r-FGはノードの集合$V$とエッジの集合$E$から成る有向非巡回グラフ$G(V,E)$として定義される.ここで,$V$は食材や道具等の手順に関わる表現の集合であり,$E$はノード同士の依存関係を表すラベル付きエッジの集合である.グラフは連結であり,全手順の結果として得られる最終生産物に対応する特殊なルートノードが存在する.先行研究\cite{yamakata2020english}では,手順書の最後に登場した調理動作の表現をルートノードとしている.現在,r-FGのアノテーションとしては日本語のコーパス\cite{mori2014flow}と英語のコーパス(EnglishFlowGraphコーパス;Englishr-FGコーパス)\cite{yamakata2020english}が公開されている.ここで,r-FGは日本語のレシピを対象にデザインされており,英語r-FGでは英語特有の表現を扱うために少数のタグとラベルを新たに追加している.\tabref{tab:tag_types}と\tabref{tab:label_types}に示す通り,英語r-FGは$10$種類の固有表現タグと$13$種類の依存関係ラベルを用いる.本論文では英語の手順書を対象とするため,以降では英語r-FGを主に扱う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1and2\begin{table}[b]\begin{minipage}[t]{180pt}\begin{center}\setlength{\captionwidth}{180pt}\input{07table01.tex}%\hangcaption{固有表現タグとその意味.括弧内は\\英語r-FGにおけるタグと意味を表す.}\label{tab:tag_types}\end{center}\end{minipage}\hfill\begin{minipage}[t]{198pt}\begin{center}\setlength{\captionwidth}{198pt}\input{07table02.tex}%\hangcaption{依存関係ラベルとその意味.括弧内は英語r-FGにおけるラベルと意味を表す.}\label{tab:label_types}\end{center}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{フローグラフ予測}先行研究では,ノード予測とエッジ予測の2段階による,r-FG自動予測のためのフレームワークが提案されている\cite{maeta2015framework}.ノード予測では記事中のノードに対応する表現をタグ付きで検出する.これは系列ラベリング問題として定式化され,固有表現認識器を用いて予測を行う.固有表現認識では文レベルでタグ予測を行うのが一般的であるが\cite{lample2016neural},先行研究では記事レベルで予測を行っており\cite{yamakata2020english},本研究もそれに従う\footnote{予備実験では,記事レベルで予測を行うことで文レベルの場合と比較して予測精度が10\%向上することを確認した.}.エッジ予測ではノード間の依存関係をラベル付きで予測する.これは最大全域木問題として,以下のように定式化される.\begin{equation}\hat{G}=\argmax_{G\in\mathscr{G}}\sum_{(u,v,l)}s(u,v,l).\end{equation}ここで,$s(u,v,l)$はノード$u$からノード$v$へ,ラベル$l$が振られる場合のスコアを表しており,これはChu-Liu-Edmondsアルゴリズムを用いて解かれる\cite{chu1965on,edmonds1967optimum}.ラベル付きエッジのスコアは依存構造解析器を用いて計算される\cite{mcdonald2005non}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\revise{wikiHowフローグラフ}} \revise{wikiHowフローグラフ}(\revise{wikiHow}flowgraph;\revise{w-FG})は英語r-FGを\revise{拡張した}フローグラフ表現である.\tabref{tab:tag_types}と\tabref{tab:label_types}に,\revise{w-FG}の固有表現タグと依存関係ラベルのリストを示す.r-FGにおいては,原材料,手順の中間生産物はすべて食材(Food)として扱われ,これらは手順の最後には最終生産物である料理に組み込まれる.例えば,サラダの調理レシピを考えたとき,最終生産物はサラダであり,レタスやドレッシングはサラダの材料として捉える.\revise{w-FG}では,r-FGで扱う食材を,手順書一般で得られる最終生産物の材料(Ingredient)として汎化して捉えることで,調理以外の分野の手順書を扱えるようにする.例えば,机の組み立てを考えたとき,最終生産物は机であり,机の脚やネジは机の材料として捉える.\revise{w-FG}では固有表現タグの食材(\textsf{F})を材料(\textsf{I})に変更するほか,その他の食材に関わる固有表現タグや依存関係ラベルは,食材の部分を材料に置き換えて用いる(例えば,食材の状態(Stateoffoods;Sf)$\rightarrow$材料の状態(Stateofingredients;Si),同一の食材(Foodequality;F-eq)$\rightarrow$同一の材料(Ingredientequality;Ie)).\revise{w-FG}はr-FGとの互換性があるため,既存のr-FGアノテーションは\revise{w-FG}に変換して用いることが可能である.以降では,\revise{w-FG}を用いた一般的な手順書からのフローグラフ表現の予測を考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{フローグラフ予測}先行研究と同様に,フローグラフ予測はノード予測とエッジ予測の2段階で行う.予測モデルは\revise{w-FG}アノテーションを用いて教師あり学習を行うことで得られる.ここで,フローグラフのアノテーションは高コストであるため,学習に利用可能な対象分野のデータは少量であると想定する.一方で,既存の調理分野のコーパスも\revise{w-FG}表現に変換可能であり,学習データとして用いることができる.従って,本論文では,低リソース問題を解消するために,モデルの学習に調理分野のデータと\secref{sec:dataset}で述べる対象分野のデータの双方を用いる.具体的には,調理分野のデータでモデルを事前学習し,対象分野のデータでファインチューニングする分野適応を行う.本章の残りの部分では,\secref{subsec:task_definition}でタスクの定式化を行い,次に\secref{subsec:data_augmentation}で低リソース下での性能向上のためのデータ拡張を考える.\subsection{タスク定義}\label{subsec:task_definition}調理分野における$N$例のフローグラフ${(V^{C}_{1},E^{C}_{1}),\cdots,(V^{C}_{N},E^{C}_{N})}$と対象分野における$M$例のフローグラフ${(V^{T}_{1},E^{T}_{1}),\cdots,(V^{T}_{M},E^{T}_{M})}$が与えられたとき,本タスクの目標は対象分野においてノード予測モデル$F_{\text{Node}}$とエッジ予測モデル$F_{\text{Edge}}$の予測性能を最大化することである.ここで,\begin{gather}F_{\text{Node}}:D\rightarrowV,\\F_{\text{Edge}}:(D,V)\rightarrowE\end{gather}であり,ここで$D$は手順書である.本設定では$M$は非常に小さい数であるため(実験では$M=5$),本タスクは低リソース分野適応\cite{xu2021gradual}の側面を持つといえる.また,調理分野のデータ或いは対象分野のデータを用いない場合は,それぞれfew-shot,zero-shotの設定と見なすことが出来る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-2ia7f2.pdf}\end{center}\caption{手順入れ替えの例.}\label{fig:step_swaps_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ拡張}\label{subsec:data_augmentation}低リソース設定における性能向上のためのアプローチとして,データ拡張は有望なアプローチである\cite{fadaee2017data,ding2020daga}.本研究では,手順の入れ替えと単語置換の2種類のデータ拡張を考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{手順の入れ替え}では,\figref{fig:step_swaps_example}のように,文章中の任意の2つの手順を入れ替えることでデータ拡張を行う.しかし,手順をランダムに入れ替えた場合,手順の順序関係に矛盾が生じる可能性がある.例えば,調理レシピにおいて,``1.Cutthepotatoes.''と``2.Addthepotatoestothepan.''という2つの手順は入れ替えることが出来ない.本論文では,フローグラフアノテーションを用いて手順の順序関係を考慮することで,この制約を守りつつデータ拡張を行う\footnote{実際には,``Heatthepan.''と``Addthepotatoestothepan.''の間の作業時間が変化し,温めたフライパンに影響があるため,このような手順間には暗黙的な順序の制約が存在するといえる.本論文では,このような暗黙的な制約は無視し,フローグラフによって与えられる明示的な制約のみに着目する.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{単語置換}では,手順中のある単語を任意の単語に置換することでデータ拡張を行う.例えば,``Heatthepan.''の``pan''を``cooking\textunderscorepan''に置換することで拡張する.しかし,無関係な単語に置換した場合,手順の意味が大きく変化する可能性がある.従って,本論文ではWordNet\cite{daiadel2020analysis}を用いて,単語を類義語に置換する.常に単語の置換を行うわけではなく,$p(0\lep\le1)$の確率で置換を行う.単語によっては複数の類義語が存在しうるが,その場合は候補の中からランダムに一つを選択する.単語の置換対象として,本論文では人の動作(\textsf{Ae}),材料(\textsf{I}),道具(\textsf{T})の固有表現タグに対応する表現を対象とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\revise{w-FG}コーパス} label{sec:dataset}\revise{w-FG}コーパスは,wikiHow\footnote{\url{https://www.wikihow.com}}上の記事から構築した新たなフローグラフコーパスである.wikiHowは23万を超える手順書を公開しており,近年では手順書の言語資源として先行研究で広く用いられている\cite{zhou2019learning,zellers2019hellaswag,zhang2020reasoning,zhou2022show,lin2022learning}.以下では,データ収集,アノテーション手順,統計量,アノテーション一致率について順に説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ収集}\label{subsec:data_collection}対象分野として,wikiHowの上位カテゴリから\textsl{FoodandEntertaining},\textsl{HobbiesandCrafts},\textsl{HomeandGarden},\textsl{Cars\&OtherVehicles}の4つを選択した.ここで,\textsl{FoodandEntertaining}は調理を主なタスクとする点で,Englishr-FGコーパスに非常に近い分野であるといえる.\textsl{HobbiesandCrafts}は工作を主に扱う分野であり,調理とは異なるが,材料を組み立てて最終生産物を得るという点で共通している.\textsl{HomeandGarden}と\textsl{Cars\&OtherVehicles}はそれぞれ園芸や乗り物の整備を主なタスクとしており,組み立て以外のタスクを多く含むため,他2分野と比較してより多様な手順を扱う分野であるといえる.wikiHowコーパス\cite{zhang2020reasoning}からwikiHowの記事を,分野ごとに$30$記事収集した.\tabref{tab:article_title_examples}に分野ごとの記事タイトルの例を示す.このとき,低品質な記事を取り除くために,(i)記事全体で$25$単語以上であり,(ii)ユーザからの評価が$50$\%以上である記事のみを収集した.また,タスクが曖昧なものや最終生産物が物体でないものに関しては,人手で除外した.ここでは先行研究\cite{zhang2020reasoning,zhou2022show}に従い,段落の見出しを手順として利用し,フローグラフアノテーションを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{07table03.tex}%\caption{分野ごとの記事タイトルの例.}\label{tab:article_title_examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション手順}\label{subsec:annotation_procedure}wikiHow記事のアノテーションはアノテータに依頼して行った.アノテータのトレーニングとして,まずEnglishr-FGコーパスからランダムに収集した$10$レシピを用いて,コーパス中のアノテーションとの一致率が$80$\%を超えるようにアノテーションの指示を行った.その後,wikiHow記事を用いてより細かいアノテーション仕様を説明し,その後$120$記事のアノテーションを行った.アノテーションには,フローグラフアノテーションツールを用いた\cite{shirai2022visual}.また,アノテーションの前に,Stanza\cite{qi2020stanza}を用いて手順を単語列に分割した.アノテーションには計$40$時間を要した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{統計量}\label{subsec:stats}まず,\tabref{tab:stats}に\revise{w-FG}コーパスの統計量を示す.各記事は平均$7.1$手順から成り,各手順は平均$10.5$単語から構成されていることがわかる.また,記事ごとに平均$30.6$個の固有表現タグと依存関係ラベルがアノテーションされていることがわかる.ここで,\textsl{HomeandGarden}と\textsl{Cars\&OtherVehicles}は他2分野に比べ記事中の単語数が少なく,それに伴いアノテーションされたタグ数とラベル数も少なくなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{07table04.tex}%\caption{\revise{w-FG}コーパスの統計量.}\label{tab:stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,\tabref{tab:detailed_tag_stats}にタグごとのアノテーション数を示す.これより,\textsf{Ae},\textsf{I},\textsf{T}は分野を通して出現頻度が高いことがわかる.\textsf{At}は今回のアノテーションでは現れなかったが,これはEnglishr-FGコーパスにおいても$15$件と出現頻度が非常に低い.Englishr-FGと同様に調理を扱う\textsl{FoodandEntertaining}が計$30$記事のみであり,r-FGコーパス($300$記事)の10分の1の規模であることを考慮すると,これは妥当な数値であるといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{07table05.tex}%\caption{固有表現タグごとのアノテーション数.}\label{tab:detailed_tag_stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各分野における\textsf{Ae},\textsf{I},\textsf{T}がアノテーションされた上位$10$件の表現の頻度分布を\figref{fig:most_frequent_entities}に示す.\revise{これより,\textsf{Ae}に関しては,\textsf{FoodandEntertaining}と\textsf{HobbiesandCrafts}の両分野では``add''や``cut''が,\textsf{HomeandGarden}と\textsf{Cars\&OtherVehicles}では``remove''や``use''が多用されていることがわかる.また,\textsf{I}においては,全分野で代名詞``it''の頻度が高いこともわかる.さらに,\textsf{I}や\textsf{T}の高頻度の表現には,各分野で材料や道具として用いられやすい物体の特色が現れているといえる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-2ia7f3.pdf}\end{center}\caption{\textsf{Ae},\textsf{I},\textsf{T}における上位$10$件の表現とその頻度.}\label{fig:most_frequent_entities}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:detailed_label_stats}にラベルごとのアノテーション数を示す.\textsf{Targ},\textsf{Dest},\textsf{I-eq},\textsf{other-mod}は全分野を通して高頻度であることがわかる.また,\textsl{HomeandGarden}と\textsl{Cars\&OtherVehicles}では\textsf{T-comp}の頻度が高く,これらの分野では特に道具を用いた動作が多いことがわかる.また,\textsl{HobbiesandCrafts}では\textsf{I-part-of}の頻度が他3分野と比較して高いが,これはこの分野において,材料の一部分に対する動作が多いことを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション一致率}アノテーションの質を評価するため,別のアノテータに依頼し,分野ごとに$3$記事を再アノテーションした後,それらの一致率をF値で計算した.\tabref{tab:annotator_agreements}にその結果を示す.ノードのアノテーションに関しては,$89.68$\%という非常に高い一致率が得られた.これは手順に関わる表現とタグの検出は,比較的容易であることを表している.また,エッジのアノテーションに関しては,$68.79$\%という一致率が得られた.これは,ノードアノテーション時のミスが影響することを考慮すれば,十分高い一致率であるといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{07table06.tex}%\caption{依存関係ラベルごとのアノテーション数.}\label{tab:detailed_label_stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{07table07.tex}%\caption{アノテータ間のアノテーション一致率.}\label{tab:annotator_agreements}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{ノード予測} label{sec:node_prediction}フローグラフ予測においては,手順に関する表現をタグ付きで検出するノード予測を最初に行う.ここでは,先行研究と同様に固有表現認識器をノード予測モデルとして用いる.以降では,実験設定について説明した後,実験結果について述べる.最後に,タグレベルでの予測性能について議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{subsec:node_exp_setting}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{モデル.}固有表現認識器としてBiLSTM-CRFを採用した\cite{lample2016neural}.\pagebreakエンコーダとしては,BiLSTMではなく事前学習済みのDeBERTa\cite{he2021deberta}を用いた\footnote{予備実験では,BERTではなくDeBERTaを用いることで,Englishr-FGコーパスにおいて0.47\%精度が向上することを確認した.}.このモデルのパラメータ数は合計1.40億個であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{学習.}分野適応を行うモデルについては,まずEnglishr-FGコーパスで事前学習を行い,その後\revise{w-FG}コーパスの対象分野のデータでファインチューニングを行った.分野適応を行わないモデルについては,Englishr-FGコーパスあるいは\revise{w-FG}コーパスの一方のみを用いて学習を行った.学習時には事前学習済みのエンコーダを含む全てのパラメータを調節した.パラメータの最適化にはAdamW\cite{loshchilov2019decoupled}を用いた.初期学習率は$5.0\times10^{-5}$,weightdecayは$1.0\times10^{-5}$に設定した.学習率の調節にはwarmupは$S_{\text{w}}$ステップ,cosine-annealing\cite{loshchilov2019decoupled}を$S_{\text{d}}$ステップ行った.ミニバッチは$B$記事から構築した.\revise{ハイパーパラメータの選択に関して,ミニバッチサイズ$B$は\{3,5\}から,warmupとcosine-annealingのステップ数の組み合わせ($S_{\text{w}},S_{\text{d}}$)は\{(100,900),(500,4500),(1000,9000)\}から,開発データを用いて最適なパラメータを選択した.その結果,}Englishr-FGコーパス上での学習では$(B,S_{\text{w}},S_{\text{d}})=(5,500,4500)$,\revise{w-FG}コーパス上での学習では$(B,S_{\text{w}},S_{\text{d}})=(3,100,900)$とした.データ拡張は分野適応モデルのファインチューニング時にのみ行い,手順の入れ替えに関しては$1$記事あたり$5$記事を,単語の置換に関しては$1$記事あたり$10$記事を,$p=0.5$として行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価.}Englishr-FGコーパスは全体で$300$記事あり,そのうちの$80$\%を学習データとして,$10$\%を開発データとして,残りの$10$\%をテストデータとして用いた.%%%%ここで,テストデータは\secref{subsec:comparison_prev}で述べる追加実験の評価時に用いた.ここで,テストデータは付録Aで述べる追加実験の評価時に用いた.\revise{w-FG}コーパスは分野ごとに$30$記事あり,それらを$6$分割したときの$1$分割を学習データとして,別の$1$分割を開発データとして,残りの$4$分割をテストデータとして用いた.より信頼性の高い結果を得るために,本論文ではテストデータの分割を変えながら$6$分割交差検証を行った.先行研究\cite{maeta2015framework,yamakata2020english}に従い,評価指標には精度,再現率,F値を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{モデル設定.}分野適応を行うモデルを\textbf{domain-adaptation},Englishr-FGコーパスのみで学習したモデルを\textbf{cooking-only},\revise{w-FG}コーパスのみで学習したモデルを\textbf{target-only}とそれぞれ参照する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{subsec:ner_results}\tabref{tab:ner_results}に実験結果を示す.\textbf{target-only}モデルのスコアから,少量の学習データを用いて$66.9$\%以上のF値でノード予測を行えることがわかる.また,\textbf{cooking-only}モデルのスコアから,調理分野のデータを用いた場合にも\textbf{target-only}と競合するスコアを実現可能であることがわかる.\textsl{FoodandEntertaining}では,\textbf{cooking-only}モデルが\textbf{target-only}をF値で$10.3$\%上回っているが,これはこの分野の手順書が調理レシピを主に扱っているためである.次に,\textbf{domain-adaptation}モデルのスコアから,全ての分野において分野適応を行った場合に,最高のスコアを実現することがわかる.特に\textsl{FoodandEntertaining}以外の3分野においては,\textbf{target-only}から\textbf{domain-adaptation}でF値において$9.6$\%以上の向上を実現しており,Englishr-FGコーパスでの事前学習が効果的であることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{07table08.tex}%\caption{ノード予測の実験結果.表中のチェックマーク($\checkmark$)は用いたデータ拡張手法を指す.}\label{tab:ner_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%データ拡張を行った場合の結果に関しては,手順の入れ替えを行う場合には\textsl{FoodandEntertaining}と\textsl{HomeandGarden}の2分野においてそれぞれ$0.4$\%,$0.3$\%の微量の改善が確認出来たのみであった.また,単語の置換を行った場合には,全ての分野で性能向上が得られなかった.これらの結果は,ノード予測において,これらのデータ拡張の効果が薄いことを表している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タグごとの予測性能}各固有表現タグに対応する表現は分野間で大きく異なる.このため,\textbf{domain-adaptation}モデルを考えたとき,Englishr-FGコーパスと\revise{w-FG}コーパスの対象分野のデータとの表現の重複率が低いほど,ファインチューニング時に分野依存の表現を多く学習するため,\textbf{cooking-only}モデルからの性能改善の幅が大きくなると予想される.これを調査するため,コーパス間におけるタグごとに表現の重複率を計算し,\textbf{cooking-only}モデルと\textbf{domain-adaptation}モデルのタグごとの予測性能をF値で評価した.ここでは,タグの中でも特に出現頻度の高い\textsf{Ae},\textsf{C},\textsf{T}を対象とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{07table09.tex}%\hangcaption{\textsf{Ae},\textsf{I},\textsf{T}のタグごとの予測性能とEnglishr-FGコーパス中の表現との重複率.Cook.,Adapt.はそれぞれ\textbf{cooking-only},\textbf{domain-adaptation}を指す.}\label{tab:ner_tag_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:ner_tag_results}に結果を示す.\textsf{Ae}では予想とは異なり,コーパス間の重複率に関わらず\textbf{cooking-only}から\textbf{domain-adaptation}への性能改善の度合いは小さいことが確認出来る.これは,学習データの分野に依らず,人の動作表現は高い精度で検出可能であることを意味している.\textsf{C}と\textsf{T}においては,\textsl{FoodandEntertaining}を除く全ての分野で,分野適応による大幅の性能改善が確認できる.これらの分野における重複率は\textsl{FoodandEntertaining}よりも低く,これは\textsf{C}と\textsf{T}に対応するノードの予測性能に関しては,当初の予想通りファインチューニングによる影響が大きいことを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{エッジ予測} label{sec:edge_prediction}ノード予測後は,ノード間の依存関係をラベル付きで予測するエッジ予測を行う.ここでは,先行研究と同様に依存構造解析器をエッジ予測モデルとして用いる.先行研究\cite{yamakata2020english}に従い,手順書の最後に登場した動作表現(\textsf{Ae})をルートノードとする.以降では,実験設定,ノードが既知である場合の実験結果,\secref{subsec:ner_results}で予測したノードを与えた場合の実験結果について順に述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{モデル.}依存構造解析器として,Biaffinedependencyparser\cite{dozat2018simpler}を採用した\footnote{先行研究\cite{yamakata2020english}では線形モデルを用いて実装されているが,biaffinedependencyparserを用いることでEnglishr-FGコーパスにおいてより高い性能を実現出来ることを確認した.この予備実験の結果については付録Aで示す.}.このモデルはエッジとラベルの予測に異なるモジュールを用いており,最終的な誤差はそれぞれのモジュールの誤差の重み付け和として以下のように与えられる.\begin{equation}l=\lambdal^{\text{Edge}}+(1-\lambda)l^{\text{Label}},\end{equation}ここで,$\lambda$は各誤差の強さを制御し,ここでは$0.5$に設定した.また,言語エンコーダとしては事前学習済みのDeBERTa\cite{he2021deberta}を用いた\footnote{言語エンコーダとしてその他の言語モデルを用いた場合の比較については,付録Aで説明する.}.このモデルのパラメータ数は合計$1.49$億個であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{学習.}\secref{subsec:node_exp_setting}と同様に,Englishr-FGコーパスと\revise{w-FG}コーパスを用いて分野適応を行うモデル,いずれかのコーパスのみを用いて学習するモデルをそれぞれ学習した.パラメータの最適化にも同様にAdamW\cite{loshchilov2019decoupled}を用い,学習率の調節はwarmupとcosine-annealingを用いて行った.これらのハイパーパラメータについては,\revise{\secref{subsec:node_exp_setting}と同様に開発データ上で調節し,Englishr-FGコーパス上での学習では$(B,S_{\text{w}},S_{\text{d}})=(5,500,4500)$,\revise{w-FG}コーパス上での学習では$(B,S_{\text{w}},S_{\text{d}})=(3,100,900)$とした.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価.}Englsih-FGコーパス,\revise{w-FG}コーパス共に\secref{subsec:node_exp_setting}と同様の分割を用い,$6$分割の交差検証を行った.評価指標には,ラベル付きエッジ$(u,v,l)$を基に,精度,再現率,F値を計算した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{モデル設定.}\secref{sec:node_prediction}と同様に,\textbf{cooking-only},\textbf{target-only},\textbf{domain-adaptation}で各モデルを参照する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{07table10.tex}%\caption{エッジ予測の実験結果.表中のチェックマーク($\checkmark$)は用いたデータ拡張手法を表す.}\label{tab:parsing_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{subsec:edge_results}正解のノードが既知であり,エッジのみを予測した結果を\tabref{tab:parsing_results}に示す.ノード予測の実験とは異なり,\textbf{target-only}モデルのスコアは全分野において$33.8$\%以下と低いことが確認できる.一方で,\textbf{cooking-only}モデルのスコアは全分野で$58.7$\%以上であり,各分野の\textbf{cooking-only}モデルのスコアを倍以上上回っている.これらの結果はエッジ予測モデルの学習にはノード予測モデル以上に多くのデータが必要であり,結果として学習サンプル数の多い\textbf{cooking-only}モデルの方が高い性能を示したと考えられる.次に,\textbf{domain-adaptation}モデルは全ての分野で\textbf{target-only}と\textbf{cooking-only}を上回り,最高のスコアを実現している.これは,Englishr-FGコーパスからの分野適応がノード予測と同様に効果的であることを示している.また,データ拡張を行った際には,手順の入れ替えは効果が無い一方で,単語の置換は\textsl{FoodandEntertaining}以外の3分野で最大$0.15$\%の改善が得られている.\revise{しかし,Bootstrapresampling\cite{koehn2004statistical}に基づく有意差検定を行ったところ,有意差は認められなかったため,このデータ拡張手法の有効性に関しては引き続き調査する必要がある.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{パイプラインモデルの予測性能}ここまではノードが既知である設定で,エッジ予測のみを行った.しかし,実際にフローグラフを予測する際には,予測したノードを基にエッジを予測する必要がある.この場合,ノード予測時の誤りが影響を与えるため,エッジの予測性能は\secref{subsec:edge_results}の時より低下すると考えられる.このときの予測性能を調べるために,ここでは\tabref{tab:ner_results}の予測結果を基にエッジ予測を行う.評価は,$(u,v,l)$にノード$u$,$v$の固有表現タグ$n_u$,$n_v$を加えた$(u,v,l,n_u,n_v)$の一致率をF値で計算することで行った.\tabref{tab:parsing_pipeline_results}に結果を示す.これらのスコアは,この設定下において,ラベル付きエッジを$44.9$\%から$67.9$\%のF値で予測可能であることを示している.また,\tabref{tab:parsing_results}からの性能低下については,\textsl{FoodandEntertaining}では$9.8$\%であるのに対し,他3分野では平均$24.6$\%の大きな低下が見られた.これには,ノード予測の性能差が影響している可能性が高い.\tabref{tab:ner_results}を見ると,\textbf{domain-adaptation}モデルの\textsl{FoodandEntertaining}でのF値は$89.1$\%であるが,その他3分野では$76.5$\%から$79.9$\%と,$9.2$\%以上の開きがあり,この性能差がこれら3分野における性能低下に繋がっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{07table11.tex}%\caption{パイプラインモデルの実験結果.括弧内の数値は\tabref{tab:parsing_results}の数値との差分を表す.}\label{tab:parsing_pipeline_results}\vspace{1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\revise{w-FG}の限界} \revise{w-FG}は調理分野以外の手順書をフローグラフに変換するために,r-FGを拡張して得られた表現である.しかし,\revise{w-FG}のアノテーションで対応可能な手順書には,以下の3つの限界が存在する.\revise{まず,\revise{w-FG}はEnglishr-FG\cite{yamakata2020english}を基にした表現であるため,対象の手順書は英語で記述されている必要がある.\secref{subsec:flow_graph_representation}で述べたとおり,日本語のr-FG\cite{mori2014flow}を英語に拡張する際には,英語特有の表現を扱うために,一部の固有表現タグの追加が行われている.従って,\revise{w-FG}を英語以外の言語に適用する際には,同様に対象の言語特有の表現を扱えるように,タグやラベルの追加が必要となる可能性がある.}\revise{また,\revise{w-FG}のアノテーションは,手順が物理的な物体を対象とする手順書に限られている.これは,\revise{w-FG}がr-FGを基に設計されており,r-FGでは物理的な材料を扱う手順を対象としているためである.例えば,wikiHowにおいては,``howtobepopular''や``howtonotgetanervous''といった抽象的な目標や手順を含む手順書が存在するが,これらに対する\revise{w-FG}のアノテーションは想定していない.}\revise{最後に,\revise{w-FG}のアノテーションでは,対象とする手順書が一つの最終成果物を持つと仮定している.これは,r-FG\cite{mori2014flow,yamakata2020english}の定義に従い,フローグラフを根付き有向非巡回グラフとして表現するためである.手順書によっては,複数の最終成果物が存在しうるが,\revise{w-FG}のアノテーションではこのような手順書は想定していない.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} r-FGコーパスにはテキストのみのアノテーション\cite{mori2014flow,yamakata2020english}に加え,視覚的なアノテーションを施したものが提案されている\cite{nishimura2020visual,shirai2022visual}.\citeA{nishimura2020visual}は手順ごとに1枚の画像を付与し,それが動作中か動作後かという情報に加え,画像中の食材と道具のバウンディングボックスをアノテーションした.\citeA{shirai2022visual}はレシピに付随する調理動画を用いて,各調理動作の前後に対応するフレームのアノテーションを行った.本論文で提案した\revise{w-FG}コーパスではテキストのみのアノテーションであるが,各手順を視覚的に説明する画像が紐づいており,これを用いてクロスモーダルなアノテーションを行うことが可能である.手順書を手順の依存関係を表すグラフ構造として表現する研究は,r-FGや\revise{w-FG}の他にも存在する.調理分野という枠組みでは,手順書のグラフ表現を教師なし学習によって獲得するアプローチ\cite{kiddon2015mise}や,r-FGと同様に人手アノテーションで構築したコーパスを用いてグラフ予測のためのモデルを学習する研究\cite{pan2020multimodal,papadopoulos2022learning}がある.生化学分野においては,実験の自動化のためにプロトコルをグラフ表現に変換するアプローチが提案されている\cite{kulkarni2018annotated,tamari2021process}.材料科学の分野では,科学文献に含まれる合成プロセスの解析のため,合成手順を有向非巡回グラフとして表現したコーパスが提案されている\cite{mysore2019materials,kuniyoshi2020annotating}.生化学と材料科学分野におけるこれらの手順書は,手順に関わる表現をノード,ノード間の依存関係をエッジとして表現する点においてr-FGや\revise{w-FG}と共通している.wikiHowは多様な手順の知識を含む言語資源として,先行研究で広く用いられている.\citeA{zhou2019learning}や\citeA{zhou2022show}では手順の知識ベースとして,\citeA{zellers2019hellaswag}では常識推論のためのデータセットとして利用している.\citeA{zhang2020reasoning}や\citeA{zhang2020intent}では,wikiHow記事中の見出しを手順として,記事タイトルを目標として捉えることで,手順から目標を推論するタスクを提案している.また,\citeA{lin2022learning}や\citeA{zhou2023procedure}は,作業動画中の手順の理解のためにwikiHowの手順知識を活用している.本研究で提案した\revise{w-FG}は,手順全体の流れをグラフ構造として表現するため,手順単体に加え,それらの依存関係も含めた知識として利用可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,調理分野に留まらない一般的な手順書の理解の表現として,\revise{wikiHow}フローグラフを提案した.これを基に,wikiHowの記事をフローグラフアノテーションを施した\revise{w-FG}コーパスを新たに構築し,フローグラフ予測の実験を行った.実験では,既存の調理分野のデータを用いて事前学習し,対象分野のデータでファインチューニングを行うことで,片方のデータのみを学習に用いた場合に比べて大幅な性能改善が見込めることを確認した.今後の方向性としては,手順書フローグラフを材料科学\cite{kuniyoshi2020annotating}や生化学\cite{kulkarni2018annotated}の分野の手順書に適用することや,大規模言語モデルを用いて学習なしでフローグラフ表現を予測すること等が挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP20H04210,JP21H04910の助成を受けたものです.本論文の一部は言語処理学会第29回年次大会\cite{shirai2023open}およびThe8thWorkshoponRepresentationLearningforNLP(RepL4NLP2023)\cite{shirai2023towards}で発表したものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%% \section{付録} label{sec:appendix} \section{Englishr-FGコーパス上でのエッジ予測} label{subsec:comparison_prev}ここでは,Englishr-FGコーパス上でのエッジ予測の性能について,先行研究\cite{yamakata2020english}との比較を行う.先行研究では\citeA{maeta2015framework}と同様の線形モデルが用いられている.先行研究と実験設定を合わせるため,コーパス全体の80\%を学習データとして,10\%を開発データとして,残りの10\%をテストデータとして,10分割交差検証を行った.また,エンコーダとして事前学習済みのBERT\cite{devlin2019bert},RoBERTa\cite{liu2019roberta},DeBERTa\cite{he2021deberta},Longformer\cite{beltagy2020longformer},ALBERT\cite{lan2020albert}をそれぞれ用い,実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{07table12.tex}%\caption{Englishr-FGコーパス上に\revise{おけるエッジ予測について},言語モデルを変えた場合の実験結果.}\label{tab:parsing_comp_prev_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:parsing_comp_prev_results}に結果を示す.これより,事前学習済みの言語モデルを用いることで,先行研究を上回る性能を実現出来ることがわかる.また,言語モデルによっても性能差があり,今回の実験ではDeBERTaを用いることで,全指標において最もよいスコアが得られることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\revise{w-FG}コーパス上でのエッジ予測と各言語モデルの比較} label{subsec:comparison_lm}\revise{w-FG}コーパスにおけるエッジ予測について,異なる言語モデルを用いた場合の性能を比較する.ここでは,BERT,RoBERTa,Longformer,ALBERT,DeBERTaを用いる.ここでは\textbf{domain-adaptation}モデルの結果を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{07table13.tex}%\caption{\revise{エッジ}予測において,言語モデルを変えた場合の実験結果.}\label{tab:parsing_comp_lm_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:parsing_comp_lm_results}に結果を示す.これより,BERTやALBERTを用いることで\textsl{HomeandGarden}と\textsl{Cars\&OtherVehicles}において最もよいF値が実現出来ることがわかる.また,その他の分野においては,DeBERTaが最高のスコアを実現することが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{白井圭佑}{2017年愛媛大学工学部卒業.2020年京都大学大学院情報学研究科修士課程修了.2020年より京都大学大学院情報学研究科博士後期課程在籍中.2024年同大学院博士取得見込み.自然言語処理,マルチメディアに関する研究に従事.言語処理学会会員.}\bioauthor{亀甲博貴}{2018年東京大学大学院工学系研究科博士課程修了.博士(工学).同年より京都大学学術情報メディアセンター助教.自然言語処理,ゲームAI等に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授.2016年同教授.現在に至る.計算言語学ならびに自然言語処理の研究に従事.博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.2023年言語処理学会論文賞受賞.言語処理学会,情報処理学会,日本データベース学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V31N04-03
\section{はじめに} \label{instruction}言い換え生成\cite{zhou-bhat-2021-paraphrase}は入力文の意味を保持しながら表現が異なる文を生成するタスクである.言い換え生成は様々なdownstreamtaskに貢献する.特に,生成した言い換えにより疑似的に訓練データを増やすデータ拡張は,主要なアプリケーションの$1$つである\cite{wei2018fast,jolly-etal-2020-data,gao-etal-2020-paraphrase,effendi-etal-2018-multi}.表層が大きく異なる言い換えは,データ拡張において重要である\cite{qian-etal-2019-exploring}一方,表層を大きく変化させることで文の意味的な類似性が損なわれやすいため,その生成は困難である\cite{bandel-etal-2022-quality}.図\ref{similarity}は,疑似言い換え生成手法のひとつである折り返し翻訳\cite{mallinson-etal-2017-paraphrasing,Kajiwara_Miura_Arase_2020}で生成した文対\footnote{\ref{simcse_chapter}節で用いる,英語版Wikipediaを折り返し翻訳し生成した文対に対して測定.}と既存の言い換えコーパスであるParaNMT-50M\cite{wieting-gimpel-2018-paranmt}およびParaCotta\cite{aji-etal-2021-paracotta}に含まれる言い換え文対の意味類似度と表層類似度の分布\footnote{記号を除去したのちに$4$語以上からなる文対を$5$万文対ずつランダムサンプリングした.意味・表層類似度の測定方法の詳細は,\ref{sim_bleu_metric}節で説明.}をヒートマップで可視化したものである.図\ref{similarity}から,折り返し翻訳およびParaCottaでは,意味類似度は高いが,表層も近い文対が多くを占めることが分かる.ParaNMT-50Mでは,表層が大きく異なるが,意味的に乖離しており言い換えとみなせないものも多い.これらの既存手法では,表層が大きく異なる言い換え生成は難しいといえる.さらに,本論文では\ref{simcse_chapter}節および\ref{stilts_chapter}節で,データ拡張に適する意味・表層の類似度はタスクに依存し,様々な類似度の言い換えが混在するとデータ拡張に悪影響を及ぼすことを実験的に示した.これらの実験結果は,言い換え生成における類似度制御が重要であることを示している.しかし,意味的類似度と表層的類似度の直接的な制御が可能である言い換え生成の先行研究は存在しない.そこで本研究では英語を対象とし,(1)表層が大きく異なる言い換えを実現し,かつその生成において(2)ユーザが意味と表層の類似度を直接的に制御できる手法を提案する.具体的には,サンプリングに基づくデコードによる折り返し翻訳を用いて大量に生成した文対から,意味類似度が高く表層類似度が低い文対を抽出することで,言い換え生成モデルの訓練コーパスを構築する.そして言い換え文対の意味・表層類似度を示すタグ\cite{johnson-etal-2017-googles}を用い,事前学習済み系列変換モデルをfine-tuningすることにより類似度制御可能な言い換え生成を実現する.本モデルでは推論時に,言い換えの類似度をタグを用いて容易に指定できる.%%%%図\ref{sim95bleu05}は提案手法が高い意味類似度かつ,図\ref{similarity}(d)は提案手法が高い意味類似度かつ,低い表層類似度の言い換えを生成できることを示している.また,本論文では提案手法の内的評価と外的評価を行った.内的評価では,指定したタグに合致した意味・表層の類似度の言い換えが出力できるかを確認した.また,タグの埋め込み表現に関する分析により,$2$種類のタグが表す意味・表層の類似度の差が大きいほどタグの埋め込み表現間のユークリッド距離も大きくなることを明らかにした.外的評価では,対照学習\cite{gao-etal-2021-simcse,liu-etal-2021-fast},事前学習済み言語モデルのpre-fine-tuning\cite{DBLP:journals/corr/abs-1811-01088,arase-tsujii-2019-transfer}に対するデータ拡張の効果を検証した.結果,提案手法によるデータ拡張がdownstreamtaskの性能を向上させた.さらに,訓練済みモデルおよびモデルによって生成した$8,700$万文対の表層が大きく異なる言い換えコーパスを公開した\footnote{\url{https://github.com/Ogamon958/ConPGS}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 本研究では,表層が大きく異なるかつ,ユーザが意味・表層の類似度を直接的に制御できる言い換え生成を行う.本節ではまず,表層的に異なる言い換え生成を促進する先行研究について紹介する.次に,特定の類似度の言い換えを収集・生成することを目的とした先行研究を紹介する.これは本研究で,意味類似度が高く表層類似度が低い文対を抽出し,言い換え生成モデルの訓練コーパスを構築するためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{表層的に異なる言い換え生成を促進する研究}表層が異なる言い換え生成を促進する方法として,語彙の多様性\cite{Hu_Rudinger_Post_Van_Durme_2019,niu-etal-2021-unsupervised,zeng-etal-2019}や構文の多様性\cite{hosking-lapata-2021-factorising,chen-etal-2019-controllable,bao-etal-2019-generating,iyyer-etal-2018-adversarial,yang-etal-2022-gcpg,goyal-durrett-2020-neural}に注目した様々な手法が提案されている.その他のアプローチには,複数の言い換え生成モデルを用いた強化学習\cite{qian-etal-2019-exploring},条件付きGAN\cite{cao-wan-2020-divgan},潜在表現の摂動\cite{Gupta_Agarwal_Singh_Rai_2018},キーワードとスタイルを指定しながらのドロップアウトの適用\cite{chen-etal-2022-mcpg},単語の削除や文分割の前処理によって学習コーパスの多様性を高める手法\cite{maddela-etal-2021-controllable}がある.また\citeA{martin-etal-2022-muss}はwebから大規模な疑似言い換えコーパスを自動収集して言い換えモデルの訓練を行っており,表層が多様な言い換え生成を促進する効果が期待される.これらの先行研究のアプローチでは,ユーザは言い換えの類似度を制御することが難しいという課題がある.本論文では,意味・表層の類似度に関するタグを用いるというユーザが制御しやすい方法で表層的に大きく異なる言い換え生成を促進する.意味・構文・語彙の類似度の制御を行うことで表層が大きく異なる言い換えを生成する研究\cite{bandel-etal-2022-quality}も存在する.\citeA{bandel-etal-2022-quality}の手法では,各入力文に基づき,期待される言い換えの意味・構文・語彙類似度を推定する.さらに,「オフセット」と呼ばれる値をユーザが設定し,入力文から推定された類似度に加えることで生成する言い換えの最終的な類似度を決定する.しかしながら,この手法では最終的な類似度が入力文に大きく依存し,直接的な制御をできない.対して,本論文の手法では意味類似度と表層類似度をユーザが直接設定するため,生成する言い換えの類似度を直接的に制御できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{特定の類似度の言い換えの収集・生成を目的とする研究}ParaCotta\cite{aji-etal-2021-paracotta}は,SentenceBLEUが低い折り返し翻訳ペアを選択することで言い換え文対を収集している.%%%%しかし,図\ref{rt_heat}で示したように,しかし,図\ref{similarity}(a)で示したように,単純な折り返し翻訳では表層的に異なる言い換えが生成されにくい.\citeA{Chowdhury_Zhuang_Wang_2022}は特定のtranslationeditrate\cite{snover-etal-2006-study}の値を持つコーパスを用いて,\citeA{meng-etal-2021-conrpg}は特定の類似度のコーパスを用いて,それぞれ系列変換モデルの学習を行う.これらの先行研究で構築されたモデルは,類似度制御機構をもたず,ユーザが求める類似度の言い換えを生成できない.対して,本研究では生成する言い換えの類似度を制御可能なモデルを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-4ia2f2.pdf}\end{center}\caption{類似度制御可能な言い換え生成モデルの構築の概要}\label{constraint_maker}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{類似度制御可能な言い換え生成} 提案手法の概要を図\ref{constraint_maker}に示す.本手法ではまず意味・表層類似度をタグとして付与\cite{johnson-etal-2017-googles}した訓練コーパスを構築する.次に,タグを使った類似度制御可能な言い換え生成ができるように,事前学習済み系列変換モデルをfine-tuningする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味・表層類似度推定}\label{sim_bleu_metric}\textgt{意味類似度}はfine-tuningした事前学習済みモデルで推定する.モデルの学習には,$2$文間の意味に関する類似度のラベル付きコーパスを用いる.\textgt{表層類似度}は$2$文間のSentenceBLEU\cite{papineni-etal-2002-bleu}により推定する.この指標は,言い換えコーパスの語彙の類似度(多様性)\cite{chen-dolan-2011-collecting,tian-etal-2017-ecnu,jiang-etal-2020-neural}を評価する際一般的に用いられる.意味類似度と表層類似度は,$[0,100]$に正規化する.なお,微細な表記ゆれが類似度推定に影響することを避けるため,類似度推定の前に入力文と出力文の双方において記号除去を行う.具体的には,アルファベット,数字,空白文字,コンマ,ピリオド以外の記号を除去する.また,すべての大文字を小文字に変換する.本研究では,意味類似度が$70$より大きく表層類似度が$45$以下の文対を,表層が大きく異なる言い換えとする.意味類似度と表層類似度を$5$単位で区切り,前者のタグとして\semsim{70},\semsim{75},\semsim{80},\semsim{85},\semsim{90},\semsim{95}の$6$種類,後者のタグとして\lexsim{0\_5},\lexsim{10},\lexsim{15},\lexsim{20},\lexsim{25},\lexsim{30},\lexsim{35},\lexsim{40}の$8$種類を使用する.例えば\semsim{70}のタグは,文対の意味類似度が$70$より大きく$75$以下であることを表す.なお,表層類似度が$0$以上$10$以下となる文対が少なかったため,まとめて\lexsim{0\_5}のタグを付与した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{様々な類似度の文対の生成と表層が大きく異なる言い換えの抽出}\label{trans}折り返し翻訳は言い換えを自動生成する一般的な手法の一つである.%%%%しかし,単純なビームサーチを用いた折り返し翻訳では,図\ref{rt_heat}に示した通り,しかし,単純なビームサーチを用いた折り返し翻訳では,図\ref{similarity}(a)に示した通り,言い換えの表層類似度が高くなりやすい.そこで,デコーダのソフトマックス計算に温度を適用(式(\ref{sampling}))しながら,Top-$k$サンプリングを採用し,様々な類似度の文対を生成する.\begin{equation}\label{sampling}\text{Softmax}(\bm{z})_i=\frac{\exp(\bm{z}_i/T)}{\sum_j\exp(\bm{z}_j/T)}\end{equation}$\bm{z}$はデコーダの最終隠れ層の出力ベクトル,$T$はトークンの出力確率分布を制御する温度である.また,$i$は対応するトークンのインデックスを表す.温度$T$が大きいほど,ソフトマックスを計算した結果得られる値の分布が小さくなり,出力確率が各トークンに等しく割り当てられる.したがって,温度とTop-$k$サンプリングを組み合わせると,翻訳モデルは多様なトークンを出力する.しかし本手法では,意味が乖離しすぎており言い換えと認められない文対も生成されてしまう.そこで様々な類似度の文対を大量に生成し,\ref{sim_bleu_metric}節に基づく類似度推定を行い,表層が大きく異なる言い換えのみを抽出する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練コーパスの構築}\label{sec:corpus}\citeA{Kajiwara_Miura_Arase_2020}に従い英独・独英の折り返し翻訳を行う.翻訳器には,\citeA{ng-etal-2019-facebook}によって訓練されたTransformer\cite{vaswani-2017}に基づく英独翻訳器\footnote{\url{https://huggingface.co/facebook/wmt19-en-de}}および独英翻訳器\footnote{\url{https://huggingface.co/facebook/wmt19-de-en}}を用いた.Top-$k$サンプリングの$k$と温度$T$を定めるために,$k=\{10,20,30,40\}$,$T=\{1.0,2.0,3.0,4.0\}$を候補値として探索した.候補値を変更しながら文対の生成を行い,意味類似度と表層類似度の分布を確認した.さらに,生成した文対から数文を抽出し,流暢性,意味・表層類似度に関して手作業による分析を行った.分析の結果,$(k,T)=(20,3.0),(30,2.0)$の$2$つの組み合わせを用いることにした.これは,上記$2$つの組み合わせの値では,意味類似度が高く,表層類似度が低い文対が多く生成されており,不自然な文の割合が小さかったためである.さらに,原言語$\rightarrow$目的言語,目的言語$\rightarrow$原言語,それぞれの方向で$2$種類の組み合わせの値を用いることで,$1$つの入力文から$4$つの文対を得られるようにした.折り返し翻訳の入力文として,WikiMatrix\cite{schwenk-etal-2021-wikimatrix}の英独対訳コーパスおよびNewsCrawl\cite{akhbardeh-EtAl:2021:WMT}からサンプルした約$3,000$万の英文を用いて,\ref{trans}節の方法により折り返し翻訳を行い,約$1.2$億の様々な類似度の文対を生成した.生成した文対すべてについて意味・表層類似度を推定し,表層が大きく異なる言い換えを抽出した.その後,意味類似度タグ$6$種類と表層類似度タグ$8$種類の組み合わせ,計$48$種類の文対の数が均等になるように,訓練データ$500$万文対,検証データ$2,700$文対,テストデータ$2,700$文対をサンプルした.なお,\lexsim{0\_5}のタグが使われている文対は,表層類似度が0--10であり,他のタグと比較し範囲が$2$倍であるため,$2$倍の数の文対をサンプルした.表\ref{train_data}に構築した訓練コーパスの例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{02table01.tex}%\caption{類似度制御可能な言い換え生成モデルの訓練コーパスの例}\label{train_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言い換えモデルの構築}\label{quality_define}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{意味類似度推定モデル}DeBERTaV3\cite{he2023debertav}\footnote{\url{https://huggingface.co/microsoft/deberta-v3-large}}をSTS-B(SemanticTextualSimilarityBenchmark)\cite{cer-etal-2017-semeval}でfine-tuningして意味類似度推定モデルを構築した\footnote{予備実験により,DeBERTaV3がBERT\cite{devlin-2019-bert}およびRoBERTa\cite{DBLP:journals/corr/abs-1907-11692}と比べて,検証データで高い性能を示した.なお意味類似度推定モデルは訓練コーパスのラベリングにのみ使用され,言い換え生成モデル自体とは独立である.}.また,Sentence-BERT\cite{reimers-2019-sentence-bert}のCross-Encoderのアーキテクチャを用いた.初期シードによって性能が変動するため,シードを変えながら$10$回訓練を行った.$10$個のモデルの中で検証データで最も高い性能を示したものを意味類似度推定モデルとした\footnote{採用した意味類似度推定モデルは検証データで0.928,テストデータで0.924のスピアマンの相関係数を示した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{類似度制御可能な言い換え生成モデル}系列変換モデルであるBART\footnote{\url{https://huggingface.co/facebook/bart-base}}を\ref{sec:corpus}節で構築したコーパスによりfine-tuningすることでモデルを構築した\footnote{類似度タグはBARTの語彙に追加した.}.推論時には,意味類似度タグと表層類似度タグを入力し,希望する類似度の言い換えを生成できる.言い換えのデコードにはビーム幅$5$のビームサーチを用い,入力の$0.75$倍から$1.5$倍のトークン数になるように出力長を制限した.学習時のバッチサイズは訓練,検証ともに$128$,最適化アルゴリズムには,AdamW\cite{loshchilov2018decoupled}を用い,学習率は$5$e-$6$とした\footnote{$5$e-$6$,$1$e-$5$,$2$e-$5$の中で,検証データにおける損失が最も小さかった.}.訓練が$1$エポック終了する度に,検証データで損失を評価し,$5$回連続改善が見られなくなった時に訓練を終了した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{類似度制御可能な言い換え生成に関する内的評価} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{生成した言い換えの定性的分析}\label{sec:analysis_generated_examples}%%%%図\ref{sim95bleu05},図\ref{sim95bleu20},図\ref{sim95bleu40}は図\ref{similarity}(d),図\ref{model_similarity}(a),図\ref{model_similarity}(b)は\semsim{95}\lexsim{0\_5},\semsim{95}\lexsim{20},\semsim{95}\lexsim{40}のタグを指定した場合に,類似度制御可能な言い換え生成モデルにおいて生成された言い換えの意味・表層類似度の分布を示す.セルの色が濃くなるほど対応する意味や表層の類似度を持つ言い換えの比率が高くなる.英語版Wikipediaからサンプルした$5$万文について,それぞれのタグを用いて言い換えを生成し,類似度を\ref{sim_bleu_metric}節で説明した方法で推定した\footnote{ただし,記号を除去したのちに$4$語以上の文対に対して類似度を推定.$4$語未満の文対では表層類似度の指標となっているBLEUが$0$になってしまうため.}.$3$種類の図ではいずれも,最も色の濃いセルが指定されたタグに近い類似度を表しており,提案手法が意味・表層類似度の制御性を保持していることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{31-4ia2f3.pdf}\end{center}%%%%\label{sim95bleu20}%%%%\label{sim95bleu40}\caption{類似度制御可能な言い換え生成モデルによる言い換えの意味・表層類似度の関係}\label{model_similarity}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{output_good_example}は類似度制御可能な言い換えモデルにより生成された意味や表層類似度が異なる言い換えである.意味類似度タグが\semsim{95}の出力文は,文の意味を維持しながら表層類似度タグに従った多様な表現である.一方,意味類似度タグが\semsim{70}の出力文に注目すると,$1$番目の例では,``leg''という表現が``ankle''に変換されており,入力文にはなかった``theFrenchOpen''の情報が追加されている.また,$2$番目の例では,``group''という表現が``victim''と具体化されている.上記のような表層の変化によって,意味類似度を少し下げた言い換えとなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{02table02.tex}%\hangcaption{類似度制御可能な言い換え生成モデルによる出力例(入力文はCNN-DailyMail\protect\cite{see-etal-2017-get}よりサンプル)}\label{output_good_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{表層が大きく異なる言い換えコーパスの構築}\label{diverse_corpus}類似度制御可能な言い換え生成モデルを用いて,$8,700$万文対の表層が大きく異なる言い換えからなる大規模な英語コーパスを構築した.原文にはWiki40-B\cite{guo-etal-2020-wiki}の英文を使用した.前処理として,pycld3\footnote{\url{https://github.com/bsolomon1124/pycld3}}を用いて言語の識別を行い,$10$から$100$単語の英文を抽出した.意味類似度タグには,\semsim{80},\semsim{85},\semsim{90},\semsim{95}を,表層類似度タグには\lexsim{0\_5},\lexsim{10},\lexsim{15},\lexsim{20}を用いた.すなわち合計で$16$種類のタグによる言い換えがコーパスには含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{生成した言い換えの定量的評価}\label{model_evaluate}本節では,類似度制御可能な言い換え生成モデルが入力タグ通りの類似度の言い換えができるかを\ref{sec:corpus}節で自動生成したテストデータセットを用いて評価する.このデータセットは,折り返し翻訳に温度とTop-$k$サンプリングを組み合わせた手法により構築されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価方法}\label{sec:metric}本実験では意味類似度と表層類似度タグのすべての組み合わせに関して評価を行う.評価は,目的とする類似度と実際に推定された類似度との差の絶対値$d$によって行う.具体的には式(\ref{error_calculation})で計算され,意味類似度に関する差と表層類似度に関する差についてそれぞれ計算する.タグが表す類似度が,類似度の大きさ$5$を閾値として離散化されていることを考慮した式になっている.\newpage\begin{eqnarray}\label{error_calculation}d=\left\{\begin{array}{ll}x-(\alpha+5)&(x>\alpha+5)\\0&(\alpha\lex\le\alpha+5)\\\alpha-x&(x<\alpha)\end{array}\right.\end{eqnarray}$\alpha$は入力タグの類似度である.例えば,\semsim{70}がタグに使われている場合,$\alpha=70$である.また,$x$は入力文と出力文の推定された類似度である.$d$は,「目的類似度」と「実際に推定された類似度」の差が小さいほど$0$に近づき,差が大きいほど大きな値を取る.このとき類似度は\ref{quality_define}節で述べた意味・表層類似度推定モデルにより自動評価する.\ref{sim_bleu_metric}節と同様に,類似度の推定時は入力文と出力文の記号を除去する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{31-4ia2f4.pdf}\end{center}%%%%\label{sim_evaluate}%%%%\label{bleu_evaluate}\caption{目的とする類似度と実際に推定された類似度の差との絶対値}\label{similarity_evaluate}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果と考察}\label{sec:model_result}%%%%意味類似度に関する評価を図\ref{sim_evaluate}に,意味類似度に関する評価を図\ref{similarity_evaluate}(a)に,%%%%表層類似度に関する評価を図\ref{bleu_evaluate}に示す.表層類似度に関する評価を図\ref{similarity_evaluate}(b)に示す.図\ref{similarity_evaluate}は,入力タグ別に誤差$d$の平均をヒートマップにしたものであり,セルの赤色が薄くなるほど誤差$d$が$0$に近く,濃くなるほど大きいことを表している.%%%%図\ref{sim_evaluate}から,図\ref{similarity_evaluate}(a)から,目的意味類似度が高い(\semsim{85}以上)とき,意味類似度に関する誤差$d$は$6.0$以下に収まっている.しかし,目的意味類似度が低い箇所においては誤差$d$は大きい.この結果は意味類似度が高い場合,適切な意味類似度の文を出力できるが,低い場合は難しいことを示している.要因は,目的意味類似度が低くなるにつれ,出力として妥当な範囲が広がるため,言い換え生成モデルの学習が難しくなることであると考えられる.%%%%図\ref{bleu_evaluate}から,図\ref{similarity_evaluate}(b)から,表層類似度に関する誤差$d$はすべてのセルで$2.0$から$6.0$の間に収まっており,目的となる表層類似度となる言い換えがタグの種類によらず概ね出力できている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タグの埋め込み表現の分析}\label{sec:tag_merge}本節では,タグの埋め込み表現に関する分析を行う.タグの埋め込みについては順序関係を考慮するような学習は行っていないが,類似度が近いタグは似た埋め込み表現を持つだろうか?さらに,類似度タグの埋め込み表現が加法構成性を持っていれば,既存のタグの埋め込み表現から,疑似的なタグを作成できる可能性がある.これらの仮説を検証するため,タグの埋め込み表現に関する$2$種類の実験を行い,どのような関係性があるかを考察する.$1$つ目の実験では,タグの埋め込み同士のユークリッド距離の測定を行い,類似度と埋め込み間の距離に相関があるかを検証する.$2$つ目の実験では,複数のタグの埋め込み表現の平均から,別の種類のタグによる言い換えを生成できるかを評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{タグの埋め込み表現間の距離}\label{sec:tag_distance}図\ref{tag_distance}はタグの埋め込み表現間のユークリッド距離を表している.図中の各行は基準となるタグ,各列は該当するタグの類似度からどの程度乖離したタグと比較しているかを表している.例えば,\semsim{70}の行の$+10$の列の値$0.718$は,\semsim{70}と\semsim{80}の埋め込み表現のユークリッド距離を表している.図から,意味類似度,表層類似度のタグともに類似度の差が大きいほどユークリッド距離も大きくなっている.さらに,タグ間のユークリッド距離と$2$種類のタグが表す類似度の差($+5$など)に関してピアソンの相関係数を測定した.結果,意味類似度のタグに関する相関係数は$0.945$,表層類似度のタグに関する相関係数は$0.960$となり,$2$種類のタグが表す類似度の差とタグの埋め込み表現のユークリッド距離には強い正の相関がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{31-4ia2f5.pdf}\end{center}%%%%\label{tag_distance_sim}%%%%\label{tag_distance_bleu}\caption{タグの埋め込み表現間のユークリッド距離}\label{tag_distance}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{タグの埋め込み表現の加法性}本節では,\pagebreak$2$種類のタグの埋め込み表現の平均を新たなタグ埋め込みとして利用できるか検証する.具体的には図\ref{tag_figure}に示すように,$2$種類のタグの中間に当たる類似度の(学習済みの)タグ埋め込み(learned\_tag)と,それぞれのタグ埋め込みを平均して得たベクトル(average\_tag)を用いて生成した言い換えを比較する.Average\_tagの設定における入出力文間の類似度と,learned\_tagの設定における入出力文間の類似度の差分の絶対値を評価指標とする.図\ref{tag_figure}の例では意味類似度を\semsim{95}とし,表層類似度に関するaverage\_tagでは\lexsim{10}と\lexsim{40}のタグの埋め込み表現の平均を新たなタグとみなし,入力文とともに類似度制御可能な言い換え生成モデルに入力する.また,learned\_tagとして\lexsim{10}と\lexsim{40}の中間である\lexsim{25}を入力する場合と比較している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{31-4ia2f6.pdf}\end{center}\caption{タグの埋め込み表現の加法性の実験の概要図}\label{tag_figure}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tag_calculate}にCNN-DailyMailの英文11,490文を用い,各文に対する評価値の平均を計算した結果を示す.結果から,全体的に差分は小さく,average\_tagによってlearned\_tagと同程度の類似度の言い換えが生成できることが示される.さらに,実験した$4$種類の例においていずれも,average\_tagによってlearned\_tagと$80\%$以上の文が同じとなっている.$1$行目と$2$行目,$3$行目と$4$行目をそれぞれ比較すると,意味類似度と表層類似度共に類似度が離れたタグの平均を取るほうが差分の値が大きい.Average\_tagとlearned\_tag間のユークリッド距離が大きい,すなわち両者の埋め込みの違いが大きくなったことから,出力にも違いが生じやすくなったと考えられる.これは完全一致した文数が減少したことからも示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{02table03.tex}%\hangcaption{タグの埋め込みの加法性の実験結果.意味類似度に関する評価指標を差分(意味),表層類似度に関する指標を差分(表層)と表記.また,average\_tagによる疑似的なタグの埋め込み表現とlearned\_tagの埋め込み表現のユークリッド距離も\ref{sec:tag_distance}節と同様に測定し,タグ間の距離とした.さらに,average\_tagによる出力とlearned\_tagによる出力が一致した文の割合も計測した.}\label{tag_calculate}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{対照学習に対する効果} \label{simcse_chapter}本節では文埋め込みモデルの対照学習における提案手法によるデータ拡張の効果を検証する.そこで提案手法を,当技術の代表的な手法であるSimCSE\cite{gao-etal-2021-simcse}に適用した\footnote{類似度制御可能な言い換え生成モデル構築の前処理に軽微な変更を加えたため,\cite{ogasa-2023nl}と実験結果が一部異なっている.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{SimCSEの学習と評価手法}SimCSEでは,入力文と近い意味を持つ文(正例)の埋め込みが近づき,異なる意味を持つ文(負例)の埋め込みが離れるよう事前学習済みモデルのfine-tuningを行う.SimCSEは,生コーパスか自然言語推論タスクのために構築されたNLIコーパスのいずれかを使用して実施できる.生コーパスを用いる場合,事前学習済みモデルに同じ文を$2$回入力し異なるDropoutを適用した埋め込みのペアを正例とし,負例はミニバッチからサンプルした文を用いる.NLIコーパスを用いるSimCSEでは,含意関係を持つ文対を正例,矛盾関係を持つ文対を負例とする.本実験ではSimCSEの実験設定に従い,生コーパスとして英語版Wikipediaからサンプルした$100$万文を,NLIコーパスとしてMNLI\cite{williams2018broad}およびSNLI\cite{bowman-etal-2015-large}からサンプリングした約$28$万文対からなるコーパスを用いてBERT-base\footnote{\url{https://huggingface.co/bert-base-uncased}}のfine-tuningを行った.SimCSEの実装は著者らによって公開されているプログラム\footnote{\url{https://github.com/princeton-nlp/SimCSE}}を用いた.STS$12$-$16$\cite{agirre-etal-2012-semeval,agirre-etal-2013-semeval,agirre-etal-2014-semeval,agirre-etal-2015-semeval,agirre-etal-2016-semeval},STS-B,およびSICK-R\cite{marelli-etal-2014-sick}の$7$種類のテストセットを用いて,SimCSEによる対照学習の効果を教師なしSTSタスクにより評価した.評価指標は,各文対の埋め込み間のコサイン類似度により計算された推定類似度と人手の類似度ラベル間のスピアマンの順位相関係数($\rho$)である.SimCSEの訓練における初期シードによる性能への影響を考慮し,シードを変えつつ訓練および評価した$5$回の結果の平均スコアとその$95\%$信頼区間を本論文では報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ拡張}\label{simcse_aug}生コーパスを用いるSimCSEでは,生成した言い換えを正例として使用した.NLIコーパスを用いるSimCSEでは,オリジナルのNLIコーパスに含まれる正例と負例について言い換え生成を行い,得られた文対をコーパスに追加した.SimCSEでは,同じ意味を表す文埋め込みを正例として学習を行うため,意味類似度が特に高い言い換えが適切であると仮定した.そこで提案手法である類似度制御可能な言い換え生成モデルに使用するタグは,意味類似度は\semsim{95}に固定し,表層類似度は\lexsim{0\_5},\lexsim{20},\lexsim{40}からそれぞれ一つ組み合わせて入力した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}代表的な言い換え生成手法として,折り返し翻訳によるデータ拡張(RTT)およびPAWS\cite{zhang-etal-2019-paws}でファインチューニングを行ったT5\cite{2020t5}(T5-PAWS)\cite{feng-etal-2023-pretraining}\footnote{\url{https://huggingface.co/Vamsi/T5_Paraphrase_Paws}}と比較する.RTTでは\ref{trans}節と同じ翻訳モデルを使用し,デコード設定は提案手法と同一とした.さらに\citeA{martin-etal-2022-muss}によってwebから収集された大規模な疑似言い換えコーパスによって訓練された言い換え生成モデル\footnote{\url{https://dl.fbaipublicfiles.com/muss/muss_en_mined.tar.gz}}とも比較する\footnote{\citeA{martin-etal-2022-muss}ではこの言い換えモデルをさらにテキスト平易化に適用しているが,本実験ではwebから収集したコーパスで言い換え生成を事前訓練したモデルを用いる.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果と考察}\label{simcse_results_chapter}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文間類似度推定における効果}表\ref{simcse_result}は,SimCSEを生コーパスおよびNLIコーパスで訓練したモデルのSTSでの性能評価を示しており,$1$行目は,データ拡張を行わないオリジナルのSimCSEを再現したものである.生コーパスを用いた場合,提案手法は\lexsim{20}の表層類似度タグで最高の平均スコアを達成した.また,その他のタグにおいてもオリジナルのSimCSEの平均スコアを上回っている.一方,比較手法であるRTTやT5-PAWS,\citeA{martin-etal-2022-muss}では,オリジナルのSimCSEよりも平均スコアが悪化した.NLIコーパスを用いる場合,表層類似度は最も小さい\lexsim{0\_5}が最高性能となっており,生コーパスを用いる場合とは異なっている.以上の結果は,データ拡張における適切な類似度がタスク依存であることを示唆している.類似度のタスク依存性については\ref{stilts_chapter}節において詳しく考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{02table04.tex}%\hangcaption{STSテストセットにおけるスピアマンの順位相関係数$\rho\times100$(提案手法では意味類似度タグは\semsim{95}に固定,下の行は$95\%$信頼区間)}\label{simcse_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データ拡張の倍率に応じた効果}次に,データ拡張の倍率による効果を検証する.具体的には,NLIコーパスを用いたSimCSEで言い換え文対をさらに追加することにより,コーパスサイズをより大きくする.言い換えを増やすために,ビームサーチにおける上位$N$個の出力を得ることによって複数の言い換えを生成する.図\ref{simcse_augmentation_graph}は実験結果のグラフである.横軸は,元のNLIコーパスのサイズに対する拡張されたコーパスの倍率を表している.縦軸は,BERTのSimCSE訓練後のSTSタスクで測定されたスピアマンの順位相関係数の平均を示している.実線はNLIコーパスすべて(full-sized),破線はNLIコーパスの前半半分(half-sized)からデータ拡張を行った結果である.また,異なる表層類似度タグを用いて生成された$3$種類の言い換えを$1$つのコーパスとしてマージする設定(Merge)も評価した.なおT5-PAWSについては,表\ref{simcse_result}のNLIコーパスにおける実験結果で他の手法より低い性能であったため,以降の分析では除外する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{31-4ia2f7.pdf}\end{center}\caption{SimCSEのデータ拡張倍率の影響}\label{simcse_augmentation_graph}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%全体として,提案手法によるデータ拡張はRTTや\citeA{martin-etal-2022-muss}によるスコアをほとんどの設定で上回っていることが確認できる.また,図\ref{simcse_augmentation_graph}から以下の$2$つの考察ができる.(1)異なる表層類似度を持つ言い換えが混在することは有害である.様々な表層類似度を持つ言い換えを組み合わせることで,性能がさらに向上するという仮定があった.しかし,興味深いことに,この仮定はほとんどの設定で成立しない.この現象は,コーパスの多様性と一貫性のバランスに関係していると考えられる.更なる調査が今後の課題である.(2)データ拡張の倍率が高くなるとスコアは改善しなくなる.特に,推奨されるデータ拡張の倍率はオリジナルのコーパスのサイズに依存し,表層類似度に関係なくコーパスすべてを用いた設定では$5$倍前後,コーパス半分のサイズの設定では$2$倍になる(\lexsim{40}は除く).また,半分のサイズでは言い換えを増やすとスコアの低下が早まる傾向があることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{生成した言い換えの多様性}本節では,提案手法により生成する言い換えの多様性とSimCSEの学習に対する効果について詳しく分析する.本分析では,オリジナルのNLIコーパス,比較手法,提案手法で$3$種類の表層類似度タグ(意味類似度タグは\semsim{95})を用いて生成した言い換えによるコーパスの多様性を測定した.具体的には,ペア間の平均SentenceBLEU,語彙サイズ,事前学習済みGPT-2\cite{radford2019language}\footnote{\url{https://huggingface.co/gpt2}}で計算したperplexityを用いた.Perplexityはコーパスの言語的多様性を測定するために,\citeA{ellison-kirby-2006-measuring}や\citeA{gamallo-etal-2017-perplexity}等の既存研究でも広く使われている指標である.Perplexityが低いとき,\textbf{コーパス全体}における言語的多様性が低くなる.また,SentenceBLEUは低いとき,\textbf{言い換え文対間}の表層が大きく異なる.表\ref{simcse_consider_diversity}に結果を示す.表の$1$行目はオリジナルのNLIコーパスを表している.$2$行目は折り返し翻訳により,$3$行目は\citeA{martin-etal-2022-muss}によって,$4$行目以降は,提案手法でNLIコーパスの各文を言い換えることより構築されたコーパスである.平均STSスコアの列は,各コーパスでBERTを訓練した後のSTSタスクで測定されたスピアマンの順位相関係数の平均である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{02table05.tex}%\caption{NLIコーパスとその言い換えにおける多様性とSTSの平均スコア}\label{simcse_consider_diversity}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法の言い換えによって訓練された全てのSimCSEモデル(\lexsim{0\_5},\lexsim{20},\\\lexsim{40})は,オリジナルのSimCSEのスコアやRTT,\citeA{martin-etal-2022-muss}によるスコアを上回った.表\ref{simcse_consider_diversity}から,RTTにより生成された言い換えと比較を行うと,提案手法の言い換えはSentenceBLEUとperplexityが低い.一方\citeA{martin-etal-2022-muss}と比較した場合,提案手法の$3$つの言い換えはperplexityが低く,SentenceBLEUは同程度である.語彙サイズについては提案手法がいずれの手法より顕著に大きい.以上より,SimCSEを改善するためには,言い換え文対間の表層と言語的多様性が影響すると考えられるが,結論を得るにはさらなる調査が必要であり,今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Pre-fine-tuningへの効果} \label{stilts_chapter}本節では,事前学習済み言語モデルのpre-fine-tuningのためのデータ拡張について,類似度制御可能な言い換え生成の効果を検証する.具体的には,\citeA{DBLP:journals/corr/abs-1811-01088}が提案したSupplementaryTrainingonIntermediateLabeled-dataTasks(STILTs)に,提案手法を適用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{STILTsの学習と評価手法}Pre-fine-tuningは,fine-tuningを行う前に追加学習を行うことでdownstreamtaskにおける事前学習済み言語モデルの性能を向上させる手法である\cite{DBLP:journals/corr/abs-1811-01088,arase-tsujii-2019-transfer}.\citeC{DBLP:journals/corr/abs-1811-01088}は,QQP\footnote{\url{https://www.quora.com/q/quoradata/}},MNLI,SNLIなど$4$種類のコーパスとBERT-large,GPT\cite{radford2018improving},ELMo\cite{peters-etal-2018-deep}の$3$種類のモデルの組み合わせの中で,MNLIコーパスを用いたBERT-largeでのpre-fine-tuningが,STILTsにおいて最も高性能であることを示した.Pre-fine-tuningを行ったBERTの性能評価はGLUEベンチマークに含まれる$8$種類のタスク\footnote{WNLIタスクには問題が指摘されているため評価から除外する(\url{https://gluebenchmark.com/faq}).}によって行う.$8$種類のタスクには,文法が正しいかを判定するCoLA\cite{warstadt-etal-2019-neural},二値の感情分析を行うSST-2\cite{socher2013recursive},言い換え認識のMRPC\cite{dolan2005automatically}とQQP,STS-B,含意関係認識のMNLI,QNLI\cite{rajpurkar2016squad}\footnote{Phangetal.は古いバージョンであるQNLIv1を用いていたが,本実験ではより新しいQNLIv2を用いた.},およびRTE\cite{bentivogli2009fifth}が含まれる.CoLAはマシューズの相関係数,MRPCとQQPはF1スコア,STS-Bはピアソンの相関係数,その他のタスクではaccuracyを評価指標とする.評価は,GLUEベンチマークの評価サーバ\footnote{\url{https://gluebenchmark.com/leaderboard}}で行う.訓練コーパスに含まれる文(対)数が$10,000$より多いタスク(SST,QQP,MNLI,QNLI)に関しては$3$エポックの訓練を行う.ただしpre-fine-tuningでMNLIコーパスを用いるため,MNLIはfine-tuningをスキップする.一方,BERT-largeでは訓練コーパスのサイズが小さい場合に学習が不安定になることが知られている\cite{devlin-2019-bert}.そこでCoLA,MRPC,STS-B,RTEについては,訓練を$10$エポックとし,初期シードを変えながら$5$回実験を行い,検証セットでのスコアが中央値であったモデルを用いて評価する\footnote{\citeC{DBLP:journals/corr/abs-1811-01088}の設定では,$20$個の初期シードを試し最高性能のモデルを選択した.実験結果の再現性を高めるため,本実験では中央値のモデルを評価に用いた.}.Pre-fine-tuningやfine-tuningの学習率は$2$e-$5$,バッチサイズは$32$とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ拡張}MNLIコーパスの訓練セットを類似度制御可能な言い換え生成モデルを用いて拡張し,STILTsと同様の設定でpre-fine-tuningを行った\footnote{ただし訓練時間を短縮するため,バッチサイズのみ$24$から$32$に変更した.}.言い換えは\ref{simcse_aug}節のNLIコーパスと同様の方法で生成した.GLUEベンチマークに含まれる各タスクについて,適切な意味・表層類似度の設定は自明でない.そこで意味類似度タグは\semsim{70},\semsim{80},\semsim{95}の$3$種類,表層類似度タグは\lexsim{0\_5},\lexsim{20},\lexsim{40}の$3$種類を組み合わせた$3\times3=9$通りの設定でそれぞれ言い換えを生成し,データ拡張を行った.本実験においても,折り返し翻訳によるデータ拡張を行う場合(RTT),PAWSでファインチューニングを行ったT5(T5-PAWS),\citeA{martin-etal-2022-muss}と比較を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果と考察}表\ref{stilts_result_table}に,BERTを直接fine-tuningした場合(BERT-FT),STILTs,RTT,T5-PAWS,\citeA{martin-etal-2022-muss}と提案手法の性能を示す.提案手法については最も高い性能となった意味・表層類似度タグとその結果を示している(最高性能のタグが複数ある場合はその内の一つを掲載).表\ref{stilts_result_table}より,提案手法は$5$種類のタスクでSTILTsを,$8$種類のタスクでRTTを上回っている.さらに,T5-PAWSを$5$種類のタスクで,\citeA{martin-etal-2022-muss}を$7$種類のタスクで上回っている.このように提案手法では,全体としては比較手法を上回るタスクが多い結果となった.さらにRTT,T5-PAWS,\citeA{martin-etal-2022-muss}ではSTILTsを改善するタスクはそれぞれ$1$種類,$4$種類,$3$種類であった.これらの結果から,提案手法で類似度を制御することによって様々なタスクに適したデータ拡張を行えることが示された.また,タスクごとに最適な意味類似度と表層類似度が異なっていることは,適切なタグのタスク依存性を示している.したがって,言い換え生成における類似度制御は重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{02table06.tex}%\caption{GLUEベンチマークのサーバで計算されたテストセットのスコア}\label{stilts_result_table}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{bert_on_stilts_heatmap}に,STILTsと提案手法の性能比較を,タスクごとにヒートマップで示す.縦軸が表層類似度,横軸が意味類似度を表している.また,青色はスコアの改善,赤色はスコアの悪化,灰色はSTILTsと同等のスコアを表している.SST-2,MNLI-mm,RTEには濃い青色のセルが存在し,提案手法によるデータ拡張でSTILTsを改善している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{31-4ia2f8.pdf}\end{center}\caption{STILTsを基準とした提案手法の性能}\label{bert_on_stilts_heatmap}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{提案手法によるデータ拡張が効果的であったタスク}は,MRPCやRTEのように,タスク自体の訓練コーパスが小さく,pre-fine-tuningで行うMNLIと同種のタスクであった.これは\citeA{arase-tsujii-2019-transfer}の実験と一致している.同様にQNLIに関しても,MNLIと同種のタスクであったため効果的であったと考えられる.また,提案手法はMNLI-mmにおいてもSTILTsの性能を上回っている.MNLI-mmでは,fine-tuning時のコーパスとジャンルが異なる文を検証セットやテストセットとして用いている.MNLI-mmで最良であった表層類似度は最も小さい\lexsim{0\_5}であったことから,言語表現の多様性を増したMNLIコーパスによるSTILTsがBERTの頑健性を向上し,MNLI-mmの改善につながったと考えられる.同様の効果がSST-2にもあったと推察される.感情分析タスクであるSST-2はMNLIとは関連が薄いが,言語表現の多様性を増したMNLIコーパスによるBERTの頑健性の向上は,SST-2の改善に資するものであったと考えられる.\textbf{提案手法によるデータ拡張の効果が小さかったタスク}は,MNLI-m,QQPのようにfine-tuningのコーパスが大きいものである.これらはfine-tuningのみで十分な転移学習が可能だと考えられる\cite{arase-tsujii-2019-transfer}.また,STS-Bについては,提案手法はBERTより高い性能を示したが,STILTsを上回ることはなかった.文の文法的正しさを判定するCoLAでは,すべての手法でBERTより性能が低下していた.これは,CoLAがpre-fine-tuningのタスクであるMNLIと内容が大きく異なるためであると推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では表層が大きく異なる言い換え生成を可能とするモデルを構築し,さらにタグによる直接的な類似度制御を実現した.提案手法によるデータ拡張が対照学習およびpre-fine-tuningによる事前学習済みモデルの性能改善に貢献することを実験的に示し,言い換え生成における類似度制御の重要性を明らかにした.また提案手法はタグによって,言い換えにおける意味・表層の類似度を概ね制御できることを示した.今後は,テキスト平易化\cite{sun-etal-2023-exploiting}やスタイル変換\cite{Kajiwara_Miura_Arase_2020}などの言い換え生成タスクへの応用を検討している.訓練コーパスが少量のみであるこれらのタスクにおいて,データ拡張を行うことで性能改善を目指す.さらに提案手法をテキスト平易化やスタイル変換に適するよう訓練するアプローチも検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はLINE株式会社およびJSPS科研費JP21H03564の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{小笠雄也}{%$2023$年大阪大学工学部電子情報工学科卒業,同年大阪大学大学院情報科学研究科マルチメディア工学専攻に進学,現在に至る.自然言語処理に関する研究に従事.}\bioauthor{梶原智之}{愛媛大学大学院理工学研究科講師.$2013$年長岡技術科学大学工学部電気電子情報工学課程卒業.$2015$年同大学大学院工学研究科修士課程修了.$2018$年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).$2018$年より大阪大学データビリティフロンティア機構の特任助教,$2021$年より愛媛大学大学院理工学研究科の助教を経て,$2024$年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{荒瀬由紀}{%$2006$年大阪大学工学部電子情報エネルギー工学科卒業.$2007$年同大学院情報科学研究科博士前期課程,$2010$年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.$2014$年より大阪大学大学院情報科学研究科准教授,$2024$年より東京工業大学情報理工学院教授,現在に至る.言語処理学会理事,AssociationforComputationalLinguisticsMemberAt-large.言い換え表現認識と生成,言語学習支援技術に興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\end{document}
V08N04-02
\section{はじめに} \label{sec:intro}ある程度の長さの文章は,一般的に,複数のトピックからなる.そのような文章を切り分けて,それぞれの切り分けた部分が一つのトピックになるようにすることを,テキスト分割と呼ぶ.テキスト分割は,情報検索や要約などにおいて重要である.まず,情報検索においては,文書全体ではなく,ユーザの検索要求を満す部分(トピック)だけを検索した方が効果的である\cite{hearst93:_subtop_struc_full_lengt_docum_acces,salton96:_autom_text_decom_using_text,mochizuki2000}.また,要約においては,長い文書をトピックに分ければ,それぞれのトピックごとに要約を作成することにより,文書全体の要約を作成できるし,重要なトピックだけを選んで要約を作成することもできる\cite{kan98:_linear_segmen_segmen_signif,nakao00:_algor_one_summar_long_text}.これらの目的のために,多くの手法が研究されている\cite[など]{kozima93:_text_segmen_simil_words,hearst94:_multi_parag_segmen_expos_text,okumura94:_word_sense_disam_text_segmen,salton96:_autom_text_decom_using_text,yaari97:_segmen_expos_texts_hierar_agglom_clust,kan98:_linear_segmen_segmen_signif,choi00:_advan,nakao00:_algor_one_summar_long_text,mochizuki2000}.これらの手法の主な共通点は,これらの手法が,分割対象のテキスト(および辞書やシソーラス)しか分割に利用しないことである.たとえば,\cite{hearst94:_multi_parag_segmen_expos_text}は,テキスト内の単語分布の類似度しか分割に利用しない.言い換えれば,これらの手法は,その手法をテキスト分割に使用するにあたって,訓練データを必要としない.そのため,これらの手法は,訓練データの存在する分野に限られることなく,どんな分野の文章でも分割対象とすることができる.この点は重要である.なぜなら,情報検索や要約が対象とする文書は,分野を限定しない文書であるので,そのような文書に対応するためには,分野を限定しないテキスト分割の手法が必要であるからである.本稿で述べる手法も,これらの従来手法と同様に,訓練データを利用せずに,テキスト内の単語分布のみを利用してテキストを分割する.我々が,訓練データを利用しないテキスト分割手法を採用した理由は,我々が,テキスト分割の結果を利用して,長い文書を要約したり,講演のディクテーション結果を要約することを目的としているからである.そのためには,分野を限定しない(訓練データを利用しない)テキスト分割の方法が必要であるからである.本稿で述べる手法は,テキストの分割確率が最大となるような分割を選択するというものである.このようなアプローチは,分野を限定しないテキスト分割としては,新しいアプローチである.なお,従来の研究で,分野を限定しないテキスト分割の研究では,主に,語彙的な結束性を利用してテキストを分割している.その例としては,意味ネットワーク上での活性伝播に基づく結束性を利用するもの\cite{kozima93:_text_segmen_simil_words}や,単語分布の類似度(コサイン)を結束性としたもの\cite{hearst94:_multi_parag_segmen_expos_text}や,単語の繰り返し状況に基づいて結束性を計るもの\cite{reynar94:_autom_method_findin_topic_bound}や,文間の類似度としてコサインを直接使うのではなくコサインの順位を結束性の指標とするもの\cite{choi00:_advan}などがある.なお,テキスト分割の方法としては,訓練データを利用しない(分野を限定しない)方法の他に,訓練データを利用する方法もある.そのような方法の応用としては,複数ニュースを個々のニュースに分割するものがある\cite{allan98:_topic_detec_track_pilot_study_final_repor}.この場合には,分野が明確であり,また,訓練データも多量にあるので,訓練データを利用したシステムにより,ニュースの境界を推定し分割する手法が主流である\cite[など]{mulbregt98:_hidden_markov_model_approac_text,beeferman99:_statis_model_text_segmen}.しかし,そのような方法は,訓練データが利用できない分野については適用できないので,我々の目的である,テキスト分割の結果を利用して,長い文書を要約したり,講演のディクテーション結果を要約するためのテキスト分割手法としては適さない.以下,\ref{sec:model}章では,テキスト分割のための統計的モデルを述べ,\ref{sec:algorithm}章で,最大確率の分割を選択するアルゴリズムを述べる.\ref{sec:experiments}章では,まず,我々の手法を公開データに基づいて評価することにより,我々の手法が他の手法よりも優れた分割精度を持つことを示し,次に,我々の手法を長い文書に適用した場合の分割精度を述べる.\ref{sec:discussion}章は考察,\ref{sec:conclusion}章は結論である. \section{テキスト分割のための統計的モデル} \label{sec:model}本章では,テキストの分割結果の確率を定義し,それを用いて最大確率であるような分割を定義する.そして,次章で,最大確率であるような分割を選ぶアルゴリズムを示す.本章では,テキスト$W$が与えられたときに,その任意の分割$S$に対して,条件付き確率$\Pr(S|W)$を定義する.$\Pr(S|W)$は,テキスト$W$を条件とする分割$S$の条件付き確率であるので,この値が最大の分割$\hat{S}$を選ぶことにより,$W$が指定された場合の最大確率の分割$\hat{S}$を選ぶことができる.このような分割$\hat{S}$は,テキスト$W$の本来の分割の推定として適当であると考えられる.まず,$n$個の延べ単語からなるテキスト$W=w_1w_2\ldotsw_n$が与えられたとき,$m$個の区間からなる分割$S=S_1S_2\ldotsS_m$の確率$\Pr(S|W)$は,\begin{equation}\label{eq:PrSW}\Pr(S|W)=\frac{\Pr(W|S)\Pr(S)}{\Pr(W)}\end{equation}である.ここで,$\Pr(W|S)$と$\Pr(S)$については,詳しくは,以下で定義するが,$\Pr(W|S)$は,分割$S$が与えられたときに,テキスト$W$が生起する確率であり,$\Pr(S)$は,分割$S$の確率である.また,$\Pr(W)$は,テキスト$W$の確率であるが,これは,$W$が与えられているときには,定数であるから,最大確率の分割を求める際には無視できる.よって,最大確率の分割$\hat{S}$は,\begin{equation}\label{eq:hatS}\hat{S}=\arg\max_S\Pr(W|S)\Pr(S)\end{equation}である.以下では,$\hat{S}$を最適分割と呼ぶことにする.次に,\ref{sec:PrWS}節で$\Pr(W|S)$を定義し,\ref{sec:PrS}節で$\Pr(S)$を定義する.\vspace{3pt}\subsection{$\Pr(W|S)$の定義}\label{sec:PrWS}区間$S_i$に$n_i$個の延べ単語があるとして,$S_i$中の$j$番目の単語を$w^i_j$とし,$W_i=w^i_1w^i_2\ldotsw^i_{n_i}$とする.つまり,$S_i$と$W_i$とを一対一に対応させる.このようにすると,$n=\sum_{i=1}^mn_i$,$W=W_1W_2\dotsW_m$である.このとき,ある区間に属する単語列は,その他の区間には独立に生起するとし,更に,同一区間に属する単語も,区間が与えられているという条件下では確率的に独立であるとすると,\begin{eqnarray}\label{eq:PrWSexpand}\Pr(W|S)&=&\Pr(W_1W_2\ldotsW_m|S)\nonumber\\&=&\prod_{i=1}^m\Pr(W_i|S)\nonumber\\&=&\prod_{i=1}^m\Pr(W_i|S_i)\nonumber\\&=&\prod_{i=1}^m\prod_{j=1}^{n_i}\Pr(w^i_j|S_i)\end{eqnarray}である.この式の,2行目と3行目は,「ある区間に属する単語列は他の区間とは独立に生起する」という仮定から変形でき,最後の行は,「同一区間に属する単語は,その区間が与えられているという条件では,その他の単語と確率的に独立である」という仮定から変形できる.また,$\Pr(W_i|S_i)$は,区間$S_i$で単語列$W_i$が生起する確率であり,$\Pr(w^i_j|S_i)$は,区間$S_i$で単語$w^i_j$が生起する確率である.次に,$W$中における異なり単語の数を$k$,$W_i$において$w^i_j$と同じ単語\footnote{トークンとしては異なるがタイプとしては同じということである.たとえば,$W_i=aababab$のとき,$W_i$中には,同一タイプである$a$が異なるトークンとして4回出現する.よって,$f_i(a)=4$である.}の数を$f_i(w^i_j)$とし,\begin{equation}\label{eq:PrwS}\Pr(w^i_j|S_i)\equiv\frac{f_i(w^i_j)+1}{n_i+k}\end{equation}と定義する.ここで,(\ref{eq:PrwS})式は,ラプラス推定(Laplace'slaw)と呼ばれる確率推定式\cite{manning99:_found_statis_natur_languag_proces}である\footnote{確率推定のその他の方法の一つとして最尤推定がある.最尤推定の場合には,$\Pr(w^i_j|S_i)\equiv\frac{f_i(w^i_j)}{n_i}$と推定できるが,最尤推定の推定精度は,一般に,観測事象の数(この場合には$n_i$)が大きくないと良くないことが知られており,観測事象の数が少ないときには,何らかのスムージングが必要である.ラプラス推定は,そのようなスムージング方法の一つである.たとえば,最尤推定によると,ある区間$S_i$に一回も出現しない単語の確率は,$\frac{0}{n_i}=0$と推定されるが,ラプラス推定では,一回も出現しない単語についても,$\frac{0+1}{n_i+k}>0$の確率が割当てられる.}.なお,$f_i(w^i_j)$は,厳密には,次式で定義される.\begin{eqnarray}\label{eq:f}f_i(w^i_j)\equivg(w^i_j|w^i_1w^i_2\ldotsw^i_{n_i})\end{eqnarray}\begin{eqnarray}\label{eq:g}g(w^i_j|w^i_1w^i_2\ldotsw^i_{n_i})\equiv\sum_{k=1}^{n_i}\delta(w^i_k,w^i_j).\end{eqnarray}ただし,$\delta$については,単語$a$と単語$b$とが同じとき$\delta(a,b)=1$,そうでないとき,$\delta(a,b)=0$である.\subsection{$\Pr(S)$の定義}\label{sec:PrS}分割$S$に対する事前確率$\Pr(S)$の定義に関しては,任意性が大きい.たとえば,同じ区間数からなる分割であっても,各区間の長さが揃っている分割の方を,長さが不揃いの分割よりも優先したい場合には,長さが揃っている分割の事前確率を大きくすべきである.しかし,ここでの我々の仮定は,そのような優先すべき分割がないというものであるので,そのような優先すべき分割を前提としないような事前確率を設定しなくてはならない.我々は,事前確率$\Pr(S)$の設定において,\cite{stolcke94:_best_model_mergin_hidden_markov_model_induc}と同様に,記述長にもとづく事前確率を与えることにした.以下では,分割確率最大化とMDL(MinimumDescriptionLength,最小記述長)原理\cite{yamanishi92}との関係について極く簡単に述べ,その後で,記述長に基づいた$\Pr(S)$の設定について述べる.なお,MDL原理とは,「与えられたデータを,モデル自身の記述も含めて最も短く符号化できるような確率モデルが最良のモデルである」と主張するものである.\subsubsection{分割確率最大化とMDL原理との関係}我々は,確率最大であるような分割を得るために,(\ref{eq:hatS})式の右辺にある\begin{equation}\Pr(W|S)\Pr(S)\end{equation}を最大化しようとしているが,これは,\begin{equation}-\log\Pr(W|S)-\log\Pr(S)\end{equation}を最小化しようとしていることと等価である.このことは,MDL原理の観点からは,分割$S$が与えられたときのテキスト$W$の記述長$-\log\Pr(W|S)$と,分割$S$の記述長$-\log\Pr(S)$との和を最小化しようとしていることになる.なぜなら,一般に,ある事象$X$の確率が$\Pr(X)$のときには,$X$を記述(符号化)するために必要な最小記述長は$-\log\Pr(X)$であるからである.ただし,ここで,$\log$の底は2である.このように,最小記述長であるような分割を選択することと,最大確率であるような分割を選択することとは同等である.\vspace{5pt}\subsubsection{記述長に基づく事前確率}以上の議論の逆から言えば,分割$S$に対して,適当な記述長$l(S)$を割当てた場合には,その記述長を利用して,\begin{equation}\label{eq:dl}\Pr(S)=2^{-l(S)}\end{equation}と定義できる\footnote{このように定義した場合,全ての分割$S$に対する$\Pr(S)$の和は1以下となる.つまり,$\sum_{S}\Pr(S)\le1$となる\cite{yamanishi92}.}.なぜなら,$l(S)=-\log\Pr(S)$であるからである.つまり,分割$S$の記述長を求めることにより,その事前確率を求めることができる.よって,以下では,分割$S$の記述長を求めることにより,その事前確率を求めることにする.ここで,我々に,既に,分割対象のテキストが与えられているとすると,分割$S$を指定するために必要な情報は,各区間の長さ,$n_1,n_2,\ldots,n_m$のみである.たとえば,我々に,既に,$W=abcdefghi$という長さが9のテキストが与えられていると仮定すると,そのテキストの分割を指定するためには,たとえば,2,3,3,1という4つの数字からなる数字列を指定すればよい.そうすれば,$W$を$W=[ab][cde][fgh][i]$のように4分割できる.つまり,我々は,$m$個の区間からなる分割を指定(記述)するためには,$m$個の数字を指定すれば良い.次に,これらの個々の数字は,1以上$n$以下の$n$個のうちの一つであることに注意すると,これらの個々の数字は,$1/n$の確率で選択されると考えることができるので,$\logn$の記述長で記述できる.よって,$m$個の数字を記述するためには,$m\logn$の記述長があれば良い.以上より,$l(S)=m\logn$と計算できる\footnote{このような$m$個の数字を記述するための記述長には,いくつかの変種がある.それらについては,\cite{stolcke94:_best_model_mergin_hidden_markov_model_induc}を参照のこと.}.そのため,$\Pr(S)$は\begin{equation}\label{eq:PrM}\Pr(S)\equivn^{-m}\end{equation}と定義できる.一般的にいって,$\Pr(S)$の値は,分割数が小さいほど大きな値を取る.一方,$\Pr(W|S)$の値は,分割数が大きいほど大きな値を取る.そのため,もし,分割を推定するのに,$\Pr(W|S)$だけを利用した場合には,推定される分割結果は,分割数が大きい分割,すなわち,細かすぎる区間からなる.それに対して,$\Pr(S)$と$\Pr(W|S)$の両方を利用した場合には,両者のバランスの取れた分割が得られる. \section{最適分割を選択するアルゴリズム} \label{sec:algorithm}本章では,分割$S$のコスト$C(S)$を,\begin{equation}\label{eq:costS}C(S)\equiv-\log\Pr(W|S)\Pr(S)\end{equation}と定義し,このコストが最小となる分割$\hat{S}=\arg\min_SC(S)$を選択することにより,最大確率である分割$\hat{S}$を選択する.ここで,$C(S)$は以下のように展開できる.\begin{eqnarray}\label{eq:CS}C(S)&=&-\log\Pr(W|S)\Pr(S)\nonumber\\&=&-\sum_{i=1}^m\sum_{j=1}^{n_i}\log\Pr(w^i_j|S_i)+m\logn\nonumber\\&=&\sum_{i=1}^mc(w^i_1w^i_2\ldotsw^i_{n_i}|n,k).\end{eqnarray}ただし,\begin{eqnarray}\label{eq:cS_i}c(w^i_1w^i_2\ldotsw^i_{n_i}|n,k)&\equiv&\sum_{j=1}^{n_i}\log\frac{n_i+k}{f_i(w^i_j)+1}+\logn\nonumber\\&=&\sum_{j=1}^{\#(w^i_1w^i_2\ldotsw^i_{n_i})}\log\frac{\#(w^i_1w^i_2\ldotsw^i_{n_i})+k}{g(w^i_j|w^i_1w^i_2\ldotsw^i_{n_i})+1}+\logn.\nonumber\\\end{eqnarray}ここで,$\#(\cdots)$は,その引数である単語列の長さ(延べ単語数)である.なお,(\ref{eq:cS_i})式を,その最終行において,$n_i$や$f_i$を使わないで定義する理由は,次節で述べるアルゴリズムにおいて,(\ref{eq:cS_i})式を使うときの便宜を考えてのことである.次に,最小コスト分割(最大確率分割)である$\hat{S}$を求めるアルゴリズムを示す.\subsection{最小コスト分割を求めるアルゴリズム}まず,用語を定義する.延べ語数$n$のテキスト$W=w_1w_2\ldotsw_n$において,$i$番目の分割候補点$g_i$とは,単語$w_{i}$と$w_{i+1}$の間を言う.ただし,$g_0$は$w_1$の直前,$g_n$は$w_n$の直後である.このとき,分割候補点は$g_0,g_1,\ldots,g_n$の$n+1$個ある.また,分割候補点の集合をノード集合とするグラフを考えるとき,$e_{ij}(0\lei<j\len)$は$g_i$から$g_j$への有向辺である.このように定義されたグラフの例を,図\ref{fig:graph}に示す.\hspace*{1em}\begin{figure}[htbp]\begin{center}\atari(125,16)\caption{分割候補点をノードとするグラフ}\label{fig:graph}\end{center}\end{figure}このとき,$e_{ij}$は,単語列$w_{i+1}w_{i+2}\ldotsw_j$をカバーするという.$e_{ij}$は,テキストの,ある一区間$w_{i+1}w_{i+2}\ldotsw_j$を表現している.そのため,$e_{ij}$のコスト$c_{ij}$を,(\ref{eq:cS_i})式を利用することにより,次式で定義する.\begin{equation}\label{eq:costeij}c_{ij}=c(w_{i+1}w_{i+2}\ldotsw_j|n,k)\end{equation}ただし,$k$は,$W$中の異なり単語数である.以上の準備の下で,最小コストを与える最適分割を求める手順は以下の通りである.\begin{description}\item[Step1.]有向辺$e_{ij}$のコスト$c_{ij}$を(\ref{eq:costeij})式により計算する.$(0\lei<j\len).$\item[Step2.]$g_0$から$g_n$までの最小コストパスを求める.\end{description}ここで,Step2を効率的に解くアルゴリズムは良く知られている\footnote{Step2は日本語の形態素解析においてコスト最小解(確率最大の解)を探索するアルゴリズムと同一(実際はより簡単)であるので,DP(DynamicProgramming)を用いて効率的に解くことができる\cite{nagata94:_stoch_japan_morph_analy_using}.また,本稿で述べた手法を実装したプログラムが第1著者より入手できる.なお,DPを用いてテキストを分割する研究としては,\cite{ponte97:_text_segmen_topic,heinonen98:_optim_multi_parag_text_segmen_dynam_progr}がある.}.なお,Step2は,全ての可能なパスの中での大域的な最小コストパスを求めるものであるが,そうする代りに,パスの長さを指定した最小コストパスを求めることもできる.そのようにして求められた最小コストパスは,区間数を指定した場合の最適分割に対応している.このようにして求めた最小コストパスについて,その各辺にカバーされる単語列を,それぞれ一つの区間とすると,それは最適分割である.たとえば,図\ref{fig:graph}で,$e_{01}e_{13}e_{35}$が最小コストパスであるとすると,最適分割は,$[w_1][w_2w_3][w_4w_5]$である.なお,実際にテキストを分割するときには,全ての分割候補点を考慮するのではなく,たとえば,文と文の間でのみテキストを分割したい場合がある.その場合には,分割位置として許される分割候補点の間にのみ有向辺を張るようにすれば良い.そして,そのグラフ上での最小コストパスを探索すれば良い.次節では,我々は,文間のみでテキストが分割されると仮定して議論している.\subsection{最小コスト分割よりも細かい分割をする際の問題点と解決策}\label{eq:rec}前節で述べたように,グラフの最小コストパスを求めることにより,大域的な最小コストパスによる分割だけでなく,区間数を指定した最小コストパスによる分割を求めることもできる.しかし,予備実験の結果から,指定された区間数が,もし,大域的な最小コストパスにより求められる分割の区間数よりも,ある程度以上に大きいときには,1文や2文からなる小さい区間が生じやすいことが判った.このことは,大域的な最小コストパスによる分割のみが必要な場合,あるいは,大域的な最小コストパスによる分割よりも大雑把な分割が必要な場合には問題ではない.しかし,大域的な最小コストパスによる分割よりも細かい分割が必要なときには,問題である.そこで,我々は,大域的な最小コストパスよりも細かい分割が必要なときには,まず,文章全体を大域的な最小コストパスにより分割し,そのあとで,各々の区間を,その区間を一つの文章として,再帰的に分割することにした\footnote{予備実験の結果から,我々の方法は,1000文を越すような長い文章が与えられたときでも,その大域的な最小コストパスによる分割の区間数は10から20程度であることが分かった.それと逆に,新聞の社説のような比較的短いものについても,4から6程度の区間数の分割が最適分割となる場合が多い.この性質は,我々がテキスト分割の結果を要約に利用しようとしているという観点からは望ましいものである.なぜならば,要約においては,文章の長さに関わらず,それを適当に少ないトピックにまとめる必要があるので,分割の結果得られる区間数は,文章の長さに,それほど影響されない方が望ましいからである.なお,このように,我々の手法において,分割の区間数が文章の長さに必ずしも比例しない理由は,(\ref{eq:CS})式の,$m\logn$における$\logn$が,長い文章ほど大きくなるので,長い文章においては,短かい文章よりも分割が抑制されやすいからである.}.このとき,各々の区間を分割するときの区間数は,その区間の長さの,全体の長さにおける割合に比例するようにした.たとえば,1000文からなる文章を20区間に分割したいときに,大域的な最小コストパスにより,200,400,300,100文からなる四つの区間が得られたときには,それぞれの区間を,4,8,6,2だけの区間に分割する.なお,分割数に余りがでるときには,その他の区間よりも大きい区間を,他よりも一つだけ余分に分割するようにした.たとえば,上述の文章を22に分割したいときには,それぞれを,4,8+1,6+1,2だけの区間に分割する.このようにすれば,1文や2文からなる小さい区間が生じにくいようにすることができる\footnote{再帰的分割により細かい分割も妥当にできる定性的な理由は以下の通りである:まず,(\ref{eq:CS})式のコスト関数は,$C(S)=\log\frac{1}{\Pr(W|S)}+\log\frac{1}{\Pr(S)}$である.$C(S)$の第1項をデータのコストと呼び,第2項をモデルのコストと呼ぶことにする.一般に,データのコストは,分割が細かいほど小さくなり,モデルのコストは分割が細かいほど大きくなる.そして,最小コスト解は,これらのバランスがとれたところとなる.ところが分割を最小コスト解よりも細かくすると,モデルのコストがデータのコストよりも大幅に大きくなるため,分割の決定においてデータのコストが反映されにくくなり,妥当な分割が得られなくなる.一方,再帰的に分割したときには,再帰的な分割の対象となる各区間においては,(\ref{eq:CS})式の$m$も$n$も再帰的な分割をする前と比べて小さい値となるため,モデルのコストが小さくなる.そのため,モデルのコストとデータのコストのバランスが取れ,妥当な分割が得られやすくなる.以上をまとめると,\begin{quote}\begin{tabular}{cccl}{\bf再帰前}&データのコスト&$\ll$&モデルのコスト\\&&$\Rightarrow$&データのコストが分割に反映されない\\&&$\Rightarrow$&データを無視した妥当でない分割となる\\{\bf再帰後}&データのコスト&$\sim$&モデルのコスト\\&&$\Rightarrow$&データのコストが分割に反映される\\&&$\Rightarrow$&データを考慮した妥当な分割となる.\end{tabular}\end{quote}}.このプロセスは,必要な分割数が得られるまで再帰的に実行できるが,\ref{sec:exp2}節で必要な,100程度までの分割数に対しては,1回だけの再帰で十分であった.なお,再帰的な分割の効果については,\ref{sec:exp2}節で確認する.\vspace*{5pt} \section{実験} \label{sec:experiments}本章では,まず,実験1で,我々の手法を公開データに基づいて評価することにより,我々の手法が他の手法よりも優れた分割精度を持つことを示し,次に,実験2で,我々の手法を長い文書に適用した場合の分割精度を述べる.二つの実験の本稿全体における位置付けは以下の通りである.まず,実験1の目的は,提案手法と従来手法とを比較することにより,提案手法が,従来手法よりも,テキストを精度良く分割できることを示すことにある.そのため,もし,提案手法と従来手法とを比較したいだけならば,実験1のみで十分である.したがって,本稿の主要な目的である,提案手法の他の手法に対する優位性を示すためには,実験1だけで十分である\footnote{もちろん,この言明は,実験1で用いたデータによる分割結果の精度が,どれほど現実のテキストの分割結果の精度を反映しているかによる.我々は,この分割結果の精度が,そのまま現実のテキストにおける分割結果の精度となることはないとしても,この分割結果で明かになる,テキスト分割システムの精度の順位は,現実のテキストにおいても反映されると考えている.また,現在,我々が入手可能なデータの中では,実験1に用いたデータが,最も包括的に従来手法を網羅しているため,各種手法を比較するテストベッドとしては妥当であると考える.}.しかし,我々の最終的な目的は,テキスト分割の結果を,長い文書の要約\cite{nakao00:_algor_one_summar_long_text}や講演のディクテーション結果の要約に使うことであるので,その目的のために,提案手法が,どれほど役に立つかを調べたい.そのために,実験2においては,提案手法による分割が,どの程度,元の文書の章や節と一致するかを調べることにより,提案手法の,長い文書を要約するときへの応用の可能性を把握することを目的とする.そのため,実験2の位置付けは,今後我々の手法を実際の応用へと適用させるための前段階と考えている.我々は,将来的には,何らかのタスクに基づいて提案手法を評価することを考えている.\subsection{実験1:公開データによる評価}\label{sec:exp1}実験1で用いたデータは,\cite{choi00:_advan}により,各種のテキスト分割手法を比較するために用いられたデータである\footnote{{\tthttp://www.cs.man.ac.uk/\~{}choif/software/C99-1.2-release.tgz}より入手可能である.このパッケージを展開したときにできる{\ttnaacl00Exp/data/\{1,2,3\}/\{3-11,3-5,6-8,9-11\}/*}を実験に用いた.}.Choiは,彼の提案手法$C99$と,TextTiling\cite{hearst94:_multi_parag_segmen_expos_text},DotPlot\cite{reynar98:_topic},Segmenter\cite{kan98:_linear_segmen_segmen_signif}を比較し,$C99$では,他の手法と比較し,誤り確率が半減されたと述べている.ただし,誤り確率とは,テキストを構成する単位(単語,文,パラグラフ等)について,任意に選んだ$r$単位だけ離れた二つの単位が誤って分割される確率のことである.ここで,$r$は,正しい分割における各区間の長さの平均の半分が良いとされている\cite{beeferman99:_statis_model_text_segmen}.なお,実験1における$r$の単位は単語である.また,誤り確率が低いほど精度は良い.この実験データは,700個のテキストからなり,個々のテキストは,10個のテキスト断片を連結したものである.そして,それぞれのテキスト断片は,BrownCorpusからランダムサンプリングされたテキストの最初の$s$行である.個々のテキストは,$s$により特徴付けられる.表\ref{tab:testcorpus}には,実験データの諸元を示す.\begin{table}[htbp]\begin{center}\caption{実験データの諸元\protect{\cite{choi00:_advan}}}\begin{tabular}{|l|c|c|c|c|}\hline$s$の範囲&$3-11$&$3-5$&$6-8$&$9-11$\\\hlineテキスト数&400&100&100&100\\\hline\end{tabular}\label{tab:testcorpus}\end{center}\end{table}各テキストは,Choiのパッケージにあるライブラリを利用したstemmerにより正規化され,その正規化されたテキストが提案手法により分割された.ただし,分割可能な位置は,\cite{choi00:_advan}と同様に,文間のみである.その後,分割されたテキストの誤り確率は,Choiのパッケージにある評価プログラムにより計算された.その評価結果を表\ref{tab:U00vsC99}と表\ref{tab:U00bvsC99b}に示す.これらの表において,$U00$は,提案手法において,大域的な最小コスト分割を求めたときの評価結果であり,$U00_{(b)}$は,提案手法において,区間数を10に指定\footnote{この際には,\ref{eq:rec}節で述べた再帰的分割は適用していない.}したときの評価結果である.また,$C99$は,Choiのアルゴリズムによる最適分割の評価結果であり,$C99_{(b)}$は,Choiのアルゴリズムにおいて区間数を10に指定した場合の評価結果である\footnote{表\ref{tab:U00bvsC99b}の$C99_{(b)}$の行にある数値は,\cite{choi00:_advan}のTable6のものと若干異なる.その理由は,元々の数値は500のサンプルテキストに基づいたものであるのに対して,この表のものは,700のサンプルに基づいて我々が再実験した結果だからである(Choi,personalcommunication).なお,\cite{choi00:_advan}で使われた500サンプルにおける$C99_{(b)}$の誤り確率は以下の表のものである.\begin{tabular}{|c|cccc|c|}\hline&$3-11$&$3-5$&$6-8$&$9-11$&全体\\\hline$C99_{(b)}$&12\%&12\%&9\%&9\%&12\%\\\hline\end{tabular}}.また,二つの表において,$**$は,比較対象であるアルゴリズムの誤り確率が$t$検定により,有意水準1\%で有意差があることを示す.なお,「$3-11$」などの列の数字は,それに該当するテキストにおける誤り確率の平均であり,「全体」は,全部のテキストについての誤り確率の平均である.\begin{table}[htbp]\begin{center}\caption{分割数をプログラムが決めた場合の誤り確率の比較}\begin{tabular}{|c|cccc|c|}\hline&$3-11$&$3-5$&$6-8$&$9-11$&全体\\\hline$U00$&11\%$^{**}$&13\%$^{**}$&6\%$^{**}$&6\%$^{**}$&10\%$^{**}$\\$C99$&13\%&18\%&10\%&10\%&13\%\\\hline\end{tabular}\label{tab:U00vsC99}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{分割数が指定された場合の誤り確率の比較}\begin{tabular}{|c|cccc|c|}\hline&$3-11$&$3-5$&$6-8$&$9-11$&全体\\\hline$U00_{(b)}$&10\%$^{**}$&9\%&7\%$^{**}$&5\%$^{**}$&9\%$^{**}$\\$C99_{(b)}$&12\%&11\%&10\%&9\%&11\%\\\hline\end{tabular}\label{tab:U00bvsC99b}\end{center}\end{table}これらの表から,提案手法が,$C99$あるいは$C99_{(b)}$と,同等あるいは,より精度良くテキストを分割できると言える.そして,$C99$あるいは$C99_{(b)}$は,分野非依存のテキスト分割手法のなかでは,その他の従来手法よりも精度良くテキストを分割できるので,我々の提案手法が,従来手法よりも精度良くテキストを分割できることが言える.\subsection{実験2:長い文書の章や節との一致度による評価}\label{sec:exp2}実験2では,比較的長い文章を分割し,その分割結果と元々の章や節による分割とを比較することにより,提案手法を評価した.実験に用いたデータは,文部省年報\footnote{{\tthttp://wwwwp.mext.go.jp/download.html}よりダウンロードできる.}である.我々がこのデータを用いた理由は,それが公開されているということに加えて,SGMLでタグ付けされているため,付録に示す簡単なPerlスクリプトにより章(chapter)や節(section)を切り出せるためである\footnote{このPerlスクリプトにより切り出せないものもある.実験に用いたものは,このスクリプトにより処理可能なものである.}.\begin{table}[htbp]\begin{center}\caption{文部省年報の諸元}\begin{tabular}{|c|ccc|}\hline&章の数&節の数&ページ数\\\hline昭和60年度&13&63&62\\昭和62年度&22&96&109\\昭和63年度&13&65&52\\平成元年度&13&64&54\\平成2年度&13&64&55\\\hline\end{tabular}\label{tab:monbu}\end{center}\end{table}表\ref{tab:monbu}には,実験に用いた文部省年報の諸元を示す.表で,章や節の数は,元のファイルでの章や節の数を数えたものであるが,ページ数は,我々が,元テキストをポストスクリプトファイルに変換して数えたものであるので,一応の目安と考えておくのが良い.表\ref{tab:monbu}に示す文部省年報には,以下の前処理が加えられた.まず,付録のスクリプトを用いて,章や節を切り出した結果から,分割位置を示す記号を除いたテキストを得た.次に,そのテキストに対して,ChaSenversion2.25\cite{matsumoto99:_japan_morph_analy_system_chasen_manual}を適用し,その結果から,ChaSenの品詞体系における「名詞」「未知語」「記号-アルファベット」「接頭詞」に該当するもののみを抽出し,提案手法への入力とした.ただし,名詞のうちで,その下位分類が「数」「代名詞」「非自立」「特殊」「接続詞的」「動詞非自立的」に該当するものは除いた.また,平仮名だけからなる形態素も除いた.なお,このときの分割可能な位置はスクリプトの出力結果の各行の終りである.これは,段落の間で分割していることに相当する.表\ref{tab:chap},表\ref{tab:secnorec},表\ref{tab:secrec}には,このようにして得られたテキストを,分割対象の章や節の数を指定して,分割したときの精度を示す.ここで,表のタイトルに付記している再帰的分割とは,\ref{eq:rec}節で述べた再帰的方法により分割した場合を示し,非再帰的分割とは,再帰的分割をしていない場合を示す.また,精度とは,\begin{displaymath}\frac{元の章や節と一致した分割位置の数}{章や節の分割位置の総数}\end{displaymath}である.ただし,章や節の数を$n$とすると,分割位置の数は,$n-1$である.なお,本実験で分割数を指定している理由は,本実験の目的が,指定された粒度の分割をどの程度の精度で実現できるかを調べることにあるからである.粒度を指定した分割は,長い文書から,必要に応じた長さの要約を得るときに重要である\cite{nakao00:_algor_one_summar_long_text}.\begin{table}[htbp]\begin{center}\caption{分割結果と章の区切れとの対応(非再帰的分割)}\begin{tabular}{|c|ccc|}\hline&章の数&±1の精度&±0の精度\\\hline昭和60年度&13&0.42(0.019)&0.33(0.006)\\昭和62年度&22&0.52(0.021)&0.29(0.007)\\昭和63年度&13&0.50(0.021)&0.42(0.007)\\平成元年度&13&0.50(0.020)&0.42(0.007)\\平成2年度&13&0.50(0.020)&0.42(0.007)\\\hline平均&&0.49(0.020)&0.37(0.007)\\\hline\end{tabular}\label{tab:chap}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{分割結果と節の区切れとの対応(非再帰的分割)}\begin{tabular}{|c|ccc|}\hline&節の数&±1の精度&±0の精度\\\hline昭和60年度&63&0.29(0.10)&0.13(0.033)\\昭和62年度&96&0.17(0.10)&0.07(0.032)\\昭和63年度&65&0.34(0.11)&0.16(0.038)\\平成元年度&64&0.37(0.11)&0.19(0.036)\\平成2年度&64&0.38(0.11)&0.18(0.036)\\\hline平均&&0.31(0.10)&0.14(0.035)\\\hline\end{tabular}\label{tab:secnorec}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{分割結果と節の区切れとの対応(再帰的分割)}\begin{tabular}{|c|ccc|}\hline&節の数&±1の精度&±0の精度\\\hline昭和60年度&63&0.50(0.10)&0.31(0.033)\\昭和62年度&96&0.45(0.10)&0.32(0.032)\\昭和63年度&65&0.48(0.11)&0.28(0.038)\\平成元年度&64&0.56(0.11)&0.38(0.036)\\平成2年度&64&0.57(0.11)&0.40(0.036)\\\hline平均&&0.51(0.10)&0.34(0.035)\\\hline\end{tabular}\label{tab:secrec}\end{center}\end{table}これらの表において,「±0の精度」とは,システムによる分割位置が,元文書の分割位置と正確に同一な場合を一致としたときの精度である.また,「±1の精度」とは,正確に同一な場合に加えて,前後1行のずれまでを許容して一致としたときの精度である.なお,それぞれの精度を示す列において,括弧内の数値は,精度のベースライン\begin{equation}\label{eq:bl}\frac{テキストにおいて一致と判定する許容範囲のサイズの合計}{テキストのサイズ}\end{equation}である\cite{nakao99}\footnote{\cite{nakao99}では,(\ref{eq:bl})式を再現率のベースラインとしているが,本実験の場合には,分割数を指定しているので,再現率と精度が一致する.}.ただし,本実験の場合には,サイズは行数でカウントする.まず,表\ref{tab:chap}における,章の数を分割数としたときの分割精度を見る.表\ref{tab:chap}では,±1の精度の平均が0.49であり,±0の精度の平均が0.37である.ここで,\cite{reynar99:_statis_model_topic_segmen}では,英文テキスト4文書について,彼の手法による分割結果が,平均0.25の精度で章の区切れと一致することを述べていて,\cite{nakao00:_algor_one_summar_long_text}では,ベースラインが0.005〜0.01のとき,F値\footnote{これは,我々の精度に相当する.なお,F値(=$\frac{2\times再現率\times適合率}{再現率+適合率}$)は,\cite{nakao00:_algor_one_summar_long_text}のTable3から計算で求めた.}が,0.31〜0.39である.これらの結果は,±0の精度に対応するが,テキストが違うため,直接比較することは不可能である.しかし,数値だけを比較するならば,我々の方法は,章の分割に関しては,これらの方法と比べて,少なくとも同等程度に章の区切れを再現していると考える.次に,節の数を指定したときの分割精度を表\ref{tab:secnorec}と表\ref{tab:secrec}に示す.また,表\ref{tab:num}には,最小コスト解による分割数と章や節の数とを示す.表\ref{tab:secnorec}は,再帰をせずに,分割数を指定して分割したときの精度を示している.このとき,±1の精度の平均が0.31であり,±0の精度の平均が0.14である.一方,再帰的分割をしたときには,表\ref{tab:secrec}に示すように,±1の精度の平均が0.51であり,±0の精度の平均が0.34である.これから分かるように,最小コスト解よりも粒度の細かい分割が必要なときには,再帰的分割をした方が精度良く分割ができる.なお,\cite{nakao00:_algor_one_summar_long_text}では,ベースラインが0.035のときにF値が0.29であるので,再帰的分割による方法は,\cite{nakao00:_algor_one_summar_long_text}と比べて,少なくとも同等程度に節の区切れを再現していると考える.\begin{table}[htbp]\begin{center}\caption{最小コスト解による分割数と章や節の数}\begin{tabular}{|c|ccc|}\hline&最小コスト解による分割数&章の数&節の数\\\hline昭和60年度&13&13&63\\昭和62年度&12&22&96\\昭和63年度&11&13&65\\平成元年度&12&13&64\\平成2年度&12&13&64\\\hline\end{tabular}\label{tab:num}\end{center}\end{table}\vspace*{20pt} \section{考察と今後の課題} \label{sec:discussion}提案手法は,分割確率最大化という観点からテキスト分割を定式化した.これに類似の手法として,訓練データを利用したテキスト分割では,\cite{mulbregt98:_hidden_markov_model_approac_text}が隠れマルコフモデルに基づいて,複数ニュースを個々のニュースに分割しているが,訓練データを利用しないテキスト分割では,類似の研究はない.また,\cite{mulbregt98:_hidden_markov_model_approac_text}についても,彼等は,テキストの分割確率を直接扱っているのではなく,各単語を生起させるようなトピックを単語毎に求め,同一トピックの単語が連続する部分を同一トピックとする,という間接的アプローチをとっている.そのため,彼等のアプローチでは,たとえば,トピックの平均の長さなどを直接取り込むことが難しい.一方,我々のアプローチでは,このことは素直に表現できる.たとえば,\cite{ponte97:_text_segmen_topic}と同様に,トピックの長さ$x$が,平均長$\mu$,標準偏差$\sigma$の正規分布$N(x|\mu,\sigma)$に従うと仮定すると,単純な拡張としては,(\ref{eq:cS_i})式を,$\alpha+\beta+\gamma=1$として,以下のようにすれば,トピックの長さが平均と同じくなるような分割が優先される.\begin{eqnarray}c(w^i_1w^i_2\ldotsw^i_{n_i}|n,k,\mu,\sigma,\alpha,\beta,\gamma)&=&\alpha\sum_{j=1}^{\#(w^i_1w^i_2\ldotsw^i_{n_i})}\log\frac{\#(w^i_1w^i_2\ldotsw^i_{n_i})+k}{g(w^i_j|w^i_1w^i_2\ldotsw^i_{n_i})+1}+\beta\logn\nonumber\\&&+\gamma\log\frac{1}{N(\#(w^i_1w^i_2\ldotsw^i_{n_i})|\mu,\sigma)}.\nonumber\end{eqnarray}更に,彼等の手法と我々の手法との大きな違いは,彼等が単語の確率を訓練データから推定しているのに対して,我々は,単語の確率を分割対象のテキストから推定している点である.なお,訓練データが利用可能な場合に,彼等の手法と我々の手法とを比較することは興味深いであろう.その場合には,上式で示したような,トピックの長さをコスト関数として取り込むことや,種々の手がかり表現をコスト関数に取り込むことも検討したい.次に,提案手法のテキスト分割における特徴としては,\ref{eq:rec}節で述べたように,長い文章でも短かい文章でも,分割数が,大幅には変動しないというものがある.これは,短かい文章は,細かい粒度で分割し,長い文章は大雑把な粒度で分割するということである.この性質は,我々がテキスト分割をする目的が要約のため,という観点からは適した性質である.なぜなら,要約では,文章の長さに関わらず,それを適当に少ないトピックにまとめる必要があるので,分割の結果得られる区間数は,文章の長さに,それほど影響されない方が望ましいからである.しかし,応用によっては,任意に指定した粒度の分割が望ましい場合もあると考えられる.そのために,我々は,本稿では,大域的な最小コスト解よりも細かい分割が必要な場合には,再帰的な分割を適用し,それは有効ではあったが,より有効な分割方法を考えることは今後の課題としたい.そのための見込みのある方法の一つは,\cite{nakao99}で提案されているように,分割したい粒度に応じて窓の大きさを設定し,その窓内を一つの文章としてテキストを分割することである.最後に,提案手法によると,テキストの分割の結果として,テキストの各区間における単語の確率(密度)が自然に求まる.このような密度は,重要単語の抽出\cite{bookstein95:_detec_conten_words_serial_clust}や,重要説明箇所の特定\cite{kurohashi97}に有用であることが知られている.提案手法を,このようなアプリケーションに対して適用することも興味深い. \section{おわりに} \label{sec:conclusion}我々は,本稿において,分割確率最大化という観点から,テキスト内の情報のみを用いて,テキストを分割する手法を提案した.提案手法は,従来の手法と比べて,同等以上の精度でテキストを分割することができた.このことは提案手法がテキストの分割に有用であることを示している.我々は,今後,実際の応用におけるテキスト分割の有効性を調べることを考えている.\appendix\subsection*{章や節の切り出しに用いたPerlスクリプト}\footnotesize\begin{verbatim}##perlnpaa-div.pl(chapter|section)<file.sgm##ファイルの第1部(part)のchapterまたはsectionに相当する部分を#抜き出して,区切り(================)を入れるプログラム.#$type=shift;#typeiseither'chapter'or'section'while(<>){if(m&<part>&i){while(<>){lastifm&</part>&i;if(m&<$type&i){print"================\n";while(<>){lastifm&</$type>&i;unless(m&^<&i){s/&.+?;//g;s/\r//g;print;}}redoifm&<$type&i;}}last;}}print"================\n";\end{verbatim}\normalsize\bibliographystyle{jnlpbbl}\bibliography{seg}\normalsize\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).博士(工学).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).独立行政法人通信総合研究所任期付き研究員(2001).言語処理学会,情報処理学会,ACL,人工知能学会,日本音響学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在、独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V22N02-02
\section{はじめに} \label{section_intro}自然言語処理において,単語認識(形態素解析や品詞推定など)の次に実用化可能な課題は,用語の抽出であろう.この用語の定義としてよく知られているのは,人名や組織名,あるいは金額などを含む固有表現である.固有表現は,単語列とその種類の組であり,新聞等に記述される内容に対する検索等のために7種類(後に8種類となる)が定義されている\cite{Overview.of.MUC-7/MET-2,IREX:.IR.and.IE.Evaluation.Project.in.Japanese}.固有表現認識はある程度の量のタグ付与コーパスがあるとの条件の下,90\%程度の精度が実現できたとの報告が多数ある\cite{A.Maximum.Entropy.Approach.to.Named.Entity.Recognition,Conditional.Random.Fields:.Probabilistic.Models.for.Segmenting.and.Labeling.Sequence.Data,Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}.しかしながら,自然言語処理によって自動認識したい用語は目的に依存する.実際,IREXにおいて固有表現の定義を確定する際もそのような議論があった\cite{固有表現定義の問題点}.例えば,ある企業がテキストマイニングを実施するときには,単に商品名というだけでなく,自社の商品と他社の商品を区別したいであろう.このように,自動認識したい用語の定義は目的に依存し,新聞からの情報抽出を想定した一般的な固有表現の定義は有用ではない.したがって,ある固有表現の定義に対して,タグ付与コーパスがない状態から90\%程度の精度をいかに手早く実現するかが重要である.昨今の言語処理は,機械学習に基づく手法が主流であり,様々な機械学習の手法が研究されている.他方で,学習データの構築も課題であり,その方法論やツールが研究されている\cite{自然言語処理特集号}.特に,新しい課題を解決する初期は学習データがほとんどなく,学習データの増量による精度向上が,機械学習の手法の改善による精度向上を大きく上回ることが多い.さらに,目的の固有表現の定義が最初から明確になっていることは稀で,タグ付与コーパスの作成を通して実例を観察することにより定義が明確になっていくのが現実的であろう.本論文では,この過程の実例を示し,ある固有表現の定義の下である程度高い精度の自動認識器を手早く構築するための知見について述べる.本論文で述べる固有表現は,以下の条件を満たすとする.\begin{description}\item[条件1]単語の一部だけが固有表現に含まれることはない.\\一般分野の固有表現では,「訪米」などのように,場所が単語内に含まれるとすることも考えられるが,本論文ではこのような例は,辞書の項目にそのことが書かれていると仮定する.\item[条件2]各単語は高々唯一の固有表現に含まれる.\\一般分野の固有表現では,入れ子を許容することも考えられる\cite{Nested.Named.Entity.Recognition,The.GENIA.Corpus:.an.Annotated.Research.Abstract.Corpus.in.Molecular.Biology.Domain}例えば,「アメリカ大統領」という表現は,全体が人物を表し「アメリカ」の箇所は組織名を表すと考えられる.自動認識を考えて広い方を採ることとする.\end{description}以上の条件は,品詞タグ付けに代表される単語を単位としたタグ付けの手法を容易に適用させるためのものである.その一方で,日本語や中国語のように単語分かち書きの必要な言語に対しては,あらかじめ単語分割のプロセスを経る必要があるという問題も生じるが,本論文では単語分割を議論の対象としないものとする.本論文では,題材を料理のレシピとし,さまざまな応用に重要と考えられる単語列を定義し,ある程度実用的な精度の自動認識を実現する方法について述べる.例えば,「フライ返し」という単語列には「フライ」という食材を表す単語が含まれるが,一般的に「フライ返し」は道具であり,「フライ返し」という単語列全体を道具として自動認識する必要がある.本論文ではこれらの単語列をレシピ用語と定義してタグ付与コーパスの構築を行い,上述した固有表現認識の手法に基づく自動認識を目指す.レシピ用語の想定する応用は以下の2つであり,関連研究(2.3節)で詳細を述べる.\begin{description}\item[応用1]フローグラフによる意味表現\\自然言語処理の大きな目標の一つは意味理解であると考えられる.一般の文書に対して意味を定義することは未だ試行すらほとんどない状況である.しかしながら,手続き文書に限れば,80年代にフローチャートで表現することが提案され,ルールベースの手法によるフローチャートへの自動変換が試みられている\cite{Control.Structures.for.Actions.in.Procedural.Texts.and.PT-Chart}.同様の取り組みをレシピに対してより重点的に行った研究もある\cite{料理テキスト教材における調理手順の構造化}.本論文で述べるレシピ用語の自動認識は,手順書のフローグラフ表現におけるノードの自動推定として用いることが可能である.\item[応用2]映像とのアラインメント\\近年,大量の写真や映像が一般のインターネットユーザーによって投稿されるようになり,その内容を自然言語で自動的に表現するという研究が行われている.その基礎研究として,映像と自然言語の自動対応付けの取り組みがある\cite{Translating.Video.Content.to.Natural.Language.Descriptions,Unsupervised.Alignment.of.Natural.Language.Instructions.with.Video.Segments}.これらの研究における自然言語処理部分は,主辞となっている名詞を抽出するなどの素朴なものである.本論文で述べるレシピ用語の自動認識器により,単語列として表現される様々な物体や動作を自動認識することができる.\end{description}これらの応用の先には,レシピの手順書としての構造を考慮し,調理時に適切な箇所を検索して提示を行う,より柔軟なレシピ検索\cite{Feature.Extraction.and.Summarization.of.Recipes.using.Flow.Graph}や,レシピの意味表現と進行中の調理動作の認識結果を用いた調理作業の教示\cite{Smart.Kitchen:.A.User.Centric.Cooking.Support.System}がより高い精度で実現できるであろう.本論文では,まずレシピ用語のアノテーション基準の策定の経緯について述べる.次に,実際のレシピテキストへのアノテーションの作業体制や環境,および作業者間の一致・不一致について述べる.最後に,作成したコーパスを用いて自動認識実験を行った結果を提示し,学習コーパスの大きさによる精度の変化や,一般固有表現認識に対して指摘されるカバレージの重要性を考慮したアノテーション戦略の可能性について議論する.本論文で対象とするレシピテキストはユーザ生成コンテンツ(UserGeneratedContents;UGC)であり,そのようなデータを対象とした実際のタグ定義ならびにアノテーション作業についての知見やレシピ用語の自動認識実験から得られた知見は,ネット上への書き込みに対する分析など様々な今日的な課題の解決の際に参考になると考えられる. \section{関連研究} \label{section_work}\ref{section_intro}節で述べたとおり,我々の提案するレシピ用語タグ付与コーパスは,レシピテキストが単語に分割されていることを前提としている.本節では,まずレシピテキストに対する自動単語分割の現状について述べる.次に,系列ラベリングによるレシピ用語の自動認識手法として用いる,一般的な固有表現認識手法について説明する.最後に,レシピ用語の自動認識結果の応用について述べる.\subsection{レシピテキストに対する自動単語分割}本論文で提案するレシピ用語タグ付与コーパスは,各文のレシピ用語の箇所が適切に単語に分割されていることを前提としている.したがって,コーパス作成に際しては,自動単語分割\mbox{(森,Neubig,坪井2011)}や形態素解析\cite{形態素解析システム「茶筌」,Conditional.Random.Fields.を用いた日本語形態素解析,日本語形態素解析システムJUMAN使用説明書.version.3.2}などを前処理として行い,レシピ用語の箇所のみを人手で修正することが必要となる.\nocite{点予測による単語分割}自動単語分割器や形態素解析器をレシピテキストに適用する際に問題となるのは,分野の特殊性に起因する解析精度の低下である.実際,文献\cite{自然言語処理における分野適応}では,『現代日本語書き言葉均衡コーパス』\cite{Balanced.corpus.of.contemporary.written.Japanese2}から学習した自動単語分割器によるレシピに対する単語分割精度が96.70\%であり,学習コーパスと同じ分野のテストコーパスに対する精度(99.32\%)よりも大きく低下することを報告している.この文献ではさらに,10時間の分野適応作業を行い,精度が97.05\%に向上したことを報告している.本論文で詳述するレシピ用語タグ付与コーパスの構築に際しては,レシピ用語となる箇所の単語境界付与も行うことになる\footnote{後述するIOB2タグは単語に付与されるため,適切な単語境界情報が前提となる.}.この作業を実際に行う際には,まず前処理としてレシピテキストに対する自動単語分割を行い,その後人手でレシピ用語となる箇所を確認しながらタグ付与を行っている.しかしながら,レシピ用語とならない箇所への単語境界情報付与はアノテーションコストの増加を避けるため行っていない.したがって,自動単語分割の学習コーパスとしては,文の一部(レシピ用語となる箇所)にのみ信頼できる単語境界情報が付与されており,レシピ用語以外の箇所においては信頼性の低い単語境界情報を持つ部分的単語分割コーパスとみなすことができる.部分的単語分割コーパスも学習コーパスとすることが可能な自動単語分割器(森他2011)を用いる場合は,我々のコーパスにより,自動単語分割の精度も向上すると考えられる.\subsection{固有表現認識}\label{rw_ner}一般分野の固有表現タグ付与コーパスとして,新聞等に人名や組織名などのタグを付与したコーパスがすでに構築されている\cite{Message.Understanding.Conference.-.6:.A.Brief.History,IREX:.IR.and.IE.Evaluation.Project.in.Japanese}.\ref{section_intro}~節で述べたように,本論文で述べる固有表現は単語列であり,コーパスに対するアノテーションでは,以下の例が示すようにIOB2方式\cite{Representing.Text.Chunks}を用いて各単語にタグが付与される.\begin{quote}99/Dat-B\年/Dat-I\3/Dat-I\月/Dat-Iカルロス/Per-B\ゴーン/Per-I\氏/Oが日産/Org-B\の/O\社長/O\に/O\就任/O\end{quote}ここで,Datは日付,Perは人名,Orgは組織名を意味し,それぞれに最初の単語であることを意味するB(Begin)や同一種の固有表現の継続を意味するI(Intermediate)が付与されている.さらに,O(Other)はいずれの固有表現でもないことを意味する.本論文では,各単語に付与されるタグをIOB2タグと呼ぶ.また,単語列に与えられる固有表現クラスを固有表現タグ(上の例ではDatやPerなど)と呼ぶこととする.したがって,IOB2タグの種類数は固有表現タグの2倍より1多い.これは本論文で取り扱うレシピ用語に関しても同様であり,それぞれをIOB2タグ・レシピ用語タグと記述する.自動固有表現認識は,系列ラベリングの問題として解かれることが多い\cite{A.Maximum.Entropy.Approach.to.Named.Entity.Recognition,Conditional.Random.Fields:.Probabilistic.Models.for.Segmenting.and.Labeling.Sequence.Data,Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}.一般分野の固有表現認識に対しては,1万文程度の学習コーパスが利用可能な状況では,80\%〜90\%の精度が得られると報告されている.レシピの自然言語処理においては,これら一般的分野の固有表現タグセットは有用ではない.出現する人はほぼ調理者のみであり,人名や組織名は出現することはない.人工物のほとんどは,食材と道具であり,これらを区別する必要がある.数量表現としては,継続時間と割合を含む量の表現が重要である.さらに,一般分野における固有表現タグセットとの重要な差異として,調理者の行動や食材の挙動・変化を示す用言を区別・認識する必要\cite{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}が挙げられる.このような分析から,我々はレシピ用語のタグセットを新たに設計した.レシピ用語の定義については,次節以降で詳述する.ただし,多くの固有表現抽出の研究を踏襲し,レシピ用語は互いに重複しないこととし,レシピ用語の自動認識の課題に対しては,一般的分野の固有表現認識と同様の手法を用いることが可能となるようにした.\subsection{レシピ用語の自動認識の応用}レシピを対象とした自然言語処理の研究は多岐にわたる.ここでは,我々のコーパスが貢献できるであろう取り組みに限定して述べる.山本ら\cite{食材調理法の習得順に関する一検討}は,大量のレシピに対して食材と調理動作の対を抽出し,調理動作の習得を考慮したレシピ推薦を提案している.この論文では,レシピテキストを形態素解析し,動詞を調理動作とし,予め用意した食材リストにマッチする名詞を食材としている.食材に対しては,複合語が考慮されており,直前が名詞の場合にはこれを連結する.この論文での食材と調理動作の表現の認識は非常に素朴であり,未知語の食材名に対応することができないことや,食材が主語となる動詞(レシピテキストに頻出)を調理動作と誤認するなどの問題点が指摘される.Hamadaら\cite{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}は,レシピを木構造に自動変換することを提案している.変換処理の第一段階として,食材や調理動作の認識を行っている.しかしながら,認識手法は予め作成された辞書との照合であり,頑健性に乏しい.以上の先行研究では,いずれも,食材や調理動作等をあらかじめリストとして用意することで問題が生じていると考えられる.我々の提案するレシピ用語タグ付与コーパス,およびそれを学習データとして構築されるレシピ用語の自動認識器\footnote{http://plata.ar.media.kyoto-u.ac.jp/mori/research/topics/NER/にて公開・配布している.}は,その問題を解決しようとするものである.加えて,レシピ用語の自動認識には,これを実際に行っている調理映像とのマッチングなどの興味深い応用がある\footnote{調理映像とのマッチングのような応用においては,レシピ用語の自動認識だけでなく,レシピ用語同士の関係を自動認識する技術も必要となるが,本論文においては議論の対象としない.}\cite{料理映像の構造解析による調理手順との対応付け}.映像処理の観点からは,調理は制御された比較的狭い空間で行われるので,カメラなどの機材の設置が容易であり,作業者が1人であるため重要な事態はほぼ1箇所で進行し,比較的扱いやすいという利点がある.実際,映像処理の分野では,実際に調理を行っている映像を収録しアノテーションを行っている\cite{調理行動モデル化のための調理観測映像へのアノテーション}.あるレシピのレシピ用語の自動認識結果と当該レシピを実施している映像の認識結果とを合わせることで,映像中の食材や動作の名称の推定や,テキスト中の単語列に対応する映像中の領域の推定(図\ref{figure_0001}参照)を含む自然言語処理以外の分野にも波及する研究課題を実施する題材となる.さらに,本論文で詳述するコーパス作成に関する知見は,レシピ以外の分野の手順文章においても,映像との統合的処理や新たな機能を持つ検索などの実現の参考になると考えられる.\begin{figure}[t]\begin{center}\includegraphics{22-2ia2f1.eps}\end{center}\caption{レシピテキストと調理映像のマッチング例}\label{figure_0001}\end{figure} \section{レシピ用語タグセットの定義} \label{nestd}\ref{rw_ner}節で述べたとおり,レシピテキストのように,新聞とは異なる利用目的をもつ言語資源を取り扱う場合,一般的な固有表現の定義は有用ではない.そこで我々はレシピを用いて調理を行う際に必要となるレシピ用語を分類,定義した.本節で述べるレシピ用語の一部は先行研究\cite{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}で用いられていた表現分類を踏襲しているが,コーパス構築を行う過程で,先行研究における分類だけではカバーできないと判断したレシピ中の重要表現を新しく定義し,追加した.レシピ用語タグの一覧を表\ref{tab_NEtag}に示す.実際のコーパス構築においては各単語にIOB2タグ(\ref{rw_ner}節参照)を付与するという形でCOOKPAD\footnote{http://cookpad.com}が公開しているレシピの中から無作為抽出で選択した436レシピにアノテーションを行った.構築したコーパスの詳細を表\ref{table_corpus}に示す.なお,後述する評価実験ではコーパスを学習・テストに分割して実験を行うため,表~\ref{table_corpus}には分割後の詳細を示している.また,アノテーションを行ったコーパス中のレシピ用語タグ付与数の分布,ならびにタグごとの平均単語長と最大単語長を表\ref{tab_dist}に示す.以下では,8種類のレシピ用語タグについて個別に例を挙げながら述べる.なお,本節以降では簡単の為IOB2タグ形式を用いた表記ではなく,「例)/パイ生地/Fを/焼/Acく」のように,「/単語列/レシピ用語タグ名」の形式でレシピ用語タグの範囲を示し,例文を記述する.\begin{table}[t]\caption{レシピ用語タグ一覧}\label{tab_NEtag}\input{02table01.txt}\end{table}\begin{table}[t]\caption{レシピ用語タグ付与コーパス}\label{table_corpus}\input{02table02.txt}\end{table}\begin{table}[t]\caption{付与したレシピ用語タグの統計}\label{tab_dist}\input{02table03.txt}\end{table}\subsection{F:食材}レシピテキストにおいては調理対象である食材,ならびに調理を行うための道具が主な人工物として記述される.中でも食材は調理における動作の目的語,食材の変化や状態の遷移の主語となるため,レシピに記述された手続きの要素として過不足無く抽出されることが望ましい.また,レシピにおいては,中間食材や食材の集合を番号や記号・代名詞によって表現する事例が多い.以上を踏まえ,以下に挙げる単語列を『F:食材』と定義した.\begin{description}\item[食材]\mbox{}\\例){\bf/チーズ/F}\\例){\bf/ごま油/F}\item[中間食材]\mbox{}\\例){\bf/生地/F}\\例){\bf/サルサソース/F}\item[食材の一部]\mbox{}\\例){\bf/じゃがいも/F}の{\bf/皮/F}\\例){\bf/水分/F}を/切/Acる\item[調理の完成品]\mbox{}\\例){\bf/卵焼き/F}\\例){\bf/チーズケーキ/F}\item[記号・代名詞]\mbox{}\\例){\bf/1/F}を/フライパン/Tに/流し入れ/Acる\\例)お/鍋/Tの{\bf/中身/F}が/ぐつぐつ/Afしてきたら\item[商品名]\mbox{}\\例){\bf/とろけるチーズ/F}\\例){\bf/薄切りベーコン/F}\end{description}\subsection{T:道具}鍋,蓋,包丁,コンロなど,調理道具や器等を道具表現とする.手や指などの体の一部も道具表現になる場合がある.食せない,量が変化しない点以外は『F:食材』のルールを踏襲する.\quad\noindent例)/3分/D{\bf/レンジ/T}を/し/Acてからただし,「『T:道具』(する)」という表現は,後述する『Ac:調理者の動作』となりうる.この場合には,『Ac:調理者の動作』のアノテーションを優先する.\quad\noindent例)/3分/D/レンジ/Acする以下に示す「弱火」の例では「コンロ」「鍋」といった調理に必要な道具が明示されていないが,実際の調理ではそのような道具を用いて調理する意味を含んでいるため,道具とする.\quad\noindent例){\bf/弱火/T}で/煮/Acる以下の「水」や「手」も道具とする.\quad\noindent例){\bf/水/T}で/洗/Acって\quad\noindent例){\bf/手/T}で/洗/Acって\subsection{Ac:調理者の動作/Af:食材の変化}『Ac:調理者の動作』は調理者を主語にとって調理者が行う動作を示す用言であり,『Af:食材の変化』は『F:食材』を主語として食材の変化を示す用言である.『Ac:調理者の動作』と『Af:食材の変化』は異なるレシピ用語として定義されるが,アノテーションの際には両者を混同しやすい事例が頻出するため,本項でまとめて例を述べる.いずれも,同一性判定を容易にするために,活用語尾を含めない.動作を修飾する,「よく」「ざっくり」などの副詞表現も,同様の理由によりレシピ用語としない.調理者が行う動作を示す用言を『Ac:調理者の動作』とする.\quad\noindent例)/フライパン/Tを{\bf/温め/Ac}る『F:食材』を主語としてその変化を示す用言を『Af:食材の変化』とする.\quad\noindent例){\bf/沸騰/Af}し始めたら使役・否定の助動詞を伴う場合のみ,これらの助動詞語幹までを含めて『Ac:調理者の動作』とする.受動の助動詞を伴う場合,主語が『F:食材』であれば実際には調理者を主語として『F:食材』を対象とした調理行動を行っているとし,『使役,否定』の場合と同様に助動詞語幹までを含め『Ac:調理者の動作』とする.なお,本論文でタグ付与の対象としたレシピテキストにおいて『F:食材』を主語とした受動態の事例は確認されなかったため,以下では使役・否定の事例のみを挙げる.\quad\noindent例){\bf/沸騰させ/Ac}たら\quad\noindent例){\bf/沸騰しな/Af}いように目的語など格助詞で示される「項」を含めない.\quad\noindent例)/皮/Fを{\bf/む/Ac}いて複合動詞は全体を調理動作とする.\quad\noindent例){\bf/ふる/Ac}っておいた/薄力粉/Fを{\bf/振るいいれ/Ac}開始や完了などをあらわす補助的な動詞は含まない.\quad\noindent例){\bf/煮込/Ac}んでいく\quad\noindent例){\bf/煮た/Af}ってくる動詞派生名詞やサ変名詞などの事態性名詞も動作とする.\quad\noindent例)/ねぎ/Fを{\bf/みじん切り/Ac}する.\quad\noindent例)/ねぎ/Fを/みじん切り/Sfに{\bf/する/Ac}.『F:食材』で述べたように,商品名など,実際に行わない用言は『F:食材』に含める.\quad\noindent例)/とろけるチーズ/F\quad\noindent例){\bf/水溶き/Ac}/片栗粉/F\subsection{Sf:食材の様態}レシピテキストでは,調理の進行度合いや食材の変化を伝えるために個々の時点における食材の様態が記述される.『Ac:調理者の動作』や『Af:食材の変化』の影響によって食材が変化する(した)状態を表す表現を『Sf:食材の様態』とする.\quad\noindent例){\bf/柔らか/Sf}く/な/Afるまで/煮/Acる\quad\noindent例){\bf/色/Sf}が/変わ/Afる以下の例に示すように,『Sf:食材の様態』は,見た目,大きさ,分量などの様々な単語を含んでおり,一つのレシピ用語を構成する単語数が多くなりやすい.このため,\begin{itemize}\itemアノテーションを行う際に作業内容の一貫性を担保しにくい\item未知の『Sf:食材の様態』が多く出現する\end{itemize}という問題が発生する.この問題の詳細については3.8節で後述する.\quad\noindent例){\bf/やっと手を入れられるくらい/Sf}のお/湯/F\quad\noindent例)/にんじん/Fを{\bf/だいたい薄さ5mm/Sf}に/切/Acる\subsection{St:道具の様態}用意された道具様態の初期状態を表す表現,並びにAcやAfの影響で遷移する(した)状態を表す表現をStとする.\quad\noindent例){\bf/弱火/St}の/フライパン/Tで/炒め/Acる\quad\noindent例)/オーブン/Tを{\bf/150度/St}に/予熱/Acする『St:道具の様態』は,『T:道具』の例\quad\noindent例){\bf/弱火/T}で/煮/Acると混同しやすいが,文中で調理過程における道具が明示され,その道具の状態を示している表現を『St:道具の様態』と定義する.\subsection{D:継続時間}加熱時間や冷却時間など,加工の継続時間を示す.数字と単位のほか,それらに対する修飾語句も含める.\quad\noindent例){\bf/12〜15分間/D}/煮込/Acみます\quad\noindent例){\bf/5分くらい/D}\quad\noindent例){\bf/2日後くらい/D}が/食べ時/Afです!\subsection{Q:分量}食材の一部を用いた調理動作を行う場合,その一部が量として表される場合にその表現を『Q:分量』とする.数字と単位のほか,それらに対する修飾語句も含める.\quad\noindent例)/人参/F{\bf/3〜4cmくらい/Q}を/鍋/Tに/入れ/Ac\quad\noindent例)/酒/F{\bf/大さじ2/Q}を/加え/Ac\subsection{レシピ用語タグの付与が困難な事例}\label{dfne}1節で述べたように,本論文においてアノテーションの対象とするレシピテキストは推敲が乏しく,レシピとは関係のない内容も多く含まれる.このため,本節で述べたレシピ用語の定義を用いて実際にアノテーションを行うと,レシピ用語タグを付与するべきか否かの判断に迷う部分が出現する.とくに,タグ付与数の多いレシピ用語タグほど,レシピ用語となる表現のバリエーションも多く,その分アノテーション作業に時間を要すると考えられる(タグ付与数の分布は表\ref{tab_dist}を参照).以下では,レシピ用語タグを付与する際にアノテーションの困難であった事例を列挙し,現状でのアノテーション処理を述べる.\begin{itemize}\item入れ子:表\ref{tab_dist}の平均単語数と最大単語数からわかるとおり,『Sf:食材の様態』,『D:継続時間』,『St:道具の様態』,『Q:分量』は他のレシピ用語タグと比較して長い単語列となりやすく,以下の例のように入れ子構造が発生することがある.\quad\noindent例)/やっと/手/Tを入れられるくらい/Sfのお/湯/Fこのような場合は,より長い単語列のレシピ用語タグ(上述した例では『Sf:食材の様態』)を優先し,アノテーションを行う.\item調理と関係のない記述:食事の感想など,調理とは直接関係の無い記述に調理に関連する表現が出現することがある.例えば,レシピ中に出現する用言のほとんどは『Ac:調理者の動作』もしくは『Af:食材の変化』であるが,上述した理由によりそれ以外の用言も存在する.これらの表現にはレシピの検索や構造の把握といった応用においては優先度が低く,また作業者への負担が大きくなるため,すべてOタグを付与する.また人名や地域名といった,調理とは直接関係のない固有名詞に関しては,本節で述べた各レシピ用語タグの付与対象となる単語列の一部となっていない限りOタグを付与する.\item他のレシピIDの参照:まれに他のレシピIDを参照して調理手順や材料を示す事例が見られるが,これらのレシピIDにはOタグを付与し,1つのレシピのみでアノテーション作業を完結させる.\item記述内容の一部だけが実際の調理に対応付けられる:「〜ならば,〜する」,「〜する(または〜する)」といった仮定表現や括弧表現などには,実際に行われない調理行動を含めた表現が複数レシピに記述されることがある.この場合は,実際に行われる調理行動は不明であり,また,一般的な固有表現認識の手法ではそれらを区別することはできない.このような事例では,すべての表現にレシピ用語タグを付与する.\quad\noindent例)/フライパン/Tに/グレープシードル/F(または/オリーブオイル/F)をひいて\end{itemize} \section{レシピ用語の自動認識} 固有表現認識タスクは,各単語に対してIOB2タグを推定する,系列ラベリング問題として解くことが一般的であり,SVMや点予測などを用いた手法が提案されている\cite{Support.Vector.Machineを用いた日本語固有表現抽出,A.Machine.Learning.Approach.to.Recipe.Text.Processing}.本節では,点予測によるIOB2タグ推定と動的計画法による経路探索による手法\cite{A.Machine.Learning.Approach.to.Recipe.Text.Processing}を用いてレシピ用語の自動認識実験を行い,作成したコーパスの精度を評価する.また,学習コーパスに現れない未知のレシピ用語の推定事例についての事例を示し,議論する.本実験のための学習コーパスならびにテストコーパスとして,\ref{nestd}節で述べたレシピ用語タグ付与コーパスを用いる(表\ref{table_corpus}参照).\subsection{レシピ用語の自動認識と精度評価}\label{neexp}本節では点予測によるレシピ用語の自動認識手法\cite{A.Machine.Learning.Approach.to.Recipe.Text.Processing}について概説し,自動認識実験の結果と考察を述べる.まず,IOB2タグの付与された学習コーパスを用いてロジスティック回帰に基づく識別器\cite{LIBLINEAR:.A.Library.for.Large.Linear.Classification}を構築し,テストコーパスの各単語$w_i$に対応するIOB2タグ$t_{j}$ごとの確率$s_{i,j}$を以下の式により推定する.\[s_{i,j}=P_{LR}(t_{j}|\Bdma{x}^{-},w_i,\Bdma{x}^{+}).\]$\Bdma{x}^{-}=\cdotsx^{-2}x^{-1},\Bdma{x}^{+}=x^{+1}x^{+2}\cdots$はそれぞれ単語$w_i$の前後の文字列を示す.本論文で用いるロジスティック回帰識別器の素性の一覧を\tabref{feat_lr}に示す.表中の$c(x)$は$x$に対応する文字種(漢字,平仮名,片仮名,数字,アルファベット,記号)を得る関数である.次に,IOB2タグを用いた固有表現はIタグから始まらない等のタグ制約を適用しながら,各単語までの経路の中で確率最大となるようにIOB2タグを順に選んでいくことで最適経路を決定し,自動認識器の最終的な出力とする(図\ref{figure:NE}参照).\begin{table}[b]\caption{ロジスティック回帰に基づく識別器の素性一覧}\label{feat_lr}\input{02table04.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{22-2ia2f2.eps}\end{center}\caption{ロジスティック回帰によるタグ確率付与と最適経路(太字部分)の探索図}\label{figure:NE}\end{figure}\begin{table}[b]\caption{IOB2タグ推定精度とレシピ用語タグの自動認識精度とカバレージ}\label{table_exp_result}\input{02table05.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{22-2ia2f3.eps}\end{center}\caption{レシピ用語タグごとのカバレージ}\label{graph_exp_cov}\end{figure}学習コーパスの量を5段階に調節して自動認識実験を行った結果を表\ref{table_exp_result}に示す.また,レシピ用語タグ別の評価として,各タグごとのカバレージを図\ref{graph_exp_cov}に,自動認識精度(F値)を図\ref{graph_exp_all}に示す.ここで,表\ref{table_exp_result},図\ref{graph_exp_cov},図\ref{graph_exp_all}におけるカバレージは,テストコーパスに出現するIOB2タグあるいはレシピ用語タグのうち,学習コーパスにも出現したタグの割合(頻度を加味する.)である.また,表\ref{table_exp_result}におけるIOB2タグ推定精度は,テストコーパス中のIOB2タグに対する,自動認識システムが出力したIOB2タグの一致率を示し,レシピ用語タグの自動認識精度はF値を示している.表\ref{table_exp_result}から,一般分野の固有表現認識と同様に,学習コーパスの増加に伴い自動認識精度が向上していることが分かる.また,学習コーパスの分量が少量の状態で,学習コーパスのテストセットカバレージが50\%程度の場合であっても,自動認識精度は70\%以上の水準を達成しており,レシピ用語タグ付与コーパスを用いた固有表現認識手法が有効に機能していることがわかる.特に,『D:継続時間』に関しては,図\ref{graph_exp_cov}と図\ref{graph_exp_all}の該当タグ部分より,10\%程度の低いカバー率しか達成できていない学習コーパスを利用した場合においても70\%以上の自動認識精度を達成可能であることがわかる.この要因として,『D:継続時間』が数詞と単位からなる単語列に付与されるレシピ用語タグであるために,文字並びに文字種を素性とした固有表現認識が効果的に機能していることが考えられる.\begin{figure}[t]\begin{center}\includegraphics{22-2ia2f4.eps}\end{center}\caption{レシピ用語タグごとの自動認識精度}\label{graph_exp_all}\end{figure}次に,図\ref{graph_exp_all}から,『F:食材』,『T:道具』,『Ac:調理者の動作』,『Af:食材の変化』,の4種類のタグについては,一般分野の固有表現認識精度(1万文程度の学習コーパスで80\%〜90\%)と同程度であり,すでに比較的高い精度が達成されていることがわかる.『Sf:食材の様態』に関しては,『T:道具』と同程度のアノテーション数があるにも関わらず精度は70\%程度にとどまっている.この要因として,『Sf:食材の様態』には機能語や別のレシピ用語タグの一部がしばしば含まれており,長い単語列となっている(\ref{dfne}節を参照)ことが自動認識を困難にしているということが考えられる.『St:道具の様態』,『D:継続時間』,『Q:分量』については,『D:継続時間』のみ90\%を超えているが,他の2種類に関しては60\%〜70\%の精度である.また,表\ref{tab_NEtag}から,上述した3種類のタグは他のタグに比較して学習コーパス中のアノテーション数が不十分であることがわかる.今後は,これらのタグに対するアノテーションを増加させることで容易に精度を向上させることが可能であろう.また,レシピ以外の分野における固有表現認識タスクにおいても,本実験で示したようにタグごとの検討を行って優先的にアノテーションするべきタグを選択し,効率的に固有表現認識器を構築することが可能である.\subsection{未知のレシピ用語タグの推定事例}\label{est_unk}本節では,上述のレシピ用語の自動認識実験において,テストセットにおける未知のレシピ用語に対し,正しくタグが推定されているかどうかについて,その事例を示し,議論する.以下に示す自動推定結果の例では,学習セットに現れなかった未知のレシピ用語を太字で示す.\begin{itemize}\item未知の『Sf:食材の様態』が出現する場合,ニ格を伴う場合や食材の切り方を示す場合には,識別器によって適切にタグ推定が行われている.\quad\noindent例){\bf/サイコロ切り/Sf}にする/Ac.その一方で,\ref{dfne}節で述べた『Sf:食材の様態』のような長い単語列となるレシピ用語タグの自動推定精度は下がる傾向にある.以下の例において,正しい『Sf:食材の様態』の範囲は「1〜2mm位」であるが,自動推定では「1〜2」と誤って推定されている.\quad\noindent例){\bf/1〜2/Sf}mm位で.テストセットでは現れなかったが,\ref{dfne}節に示したようにさらに長い単語列を『Sf:食材の様態』とする場合もあるため,『Sf:食材の様態』の自動推定は他のレシピ用語タグに比較して困難になると考えられる.\item『Ac:調理者の動作』に関しては,以下の例のように1文中において複数の単語が連続でAcと推定される事例(「所々」はAcではないため,誤り)が見られた.\quad\noindent例)皮/Fを{\bf/所々/Ac}/剥/Acきレシピテキストにおいては,「『F:食材』を『Ac:調理者の動作』」という表現が多く出現することが原因であると考えられるが,レシピの構造を把握するなどの応用を考えると,誤った『Ac:調理者の動作』が増加することは応用全体の精度低下につながるため,品詞情報を識別器の素性に加えるなどの対策が必要になると考えられる.\end{itemize} \section{実際のアノテーション作業とその考察} \label{section_annotation}本節では,実際にコーパスを作成した過程で得られた知見として,まずコーパスのアノテーション手順について述べる.次に,レシピ用語の自動認識器の精度を効率的に向上させるためのアノテーション戦略のシミュレーションについて述べる.\subsection{アノテーション手順}\label{annotation_proc}大量のレシピテキストに対して研究者がレシピ用語タグを付与することは事実上不可能であるため,まずアノテーション基準を決めた上で作業者にアノテーションを行ってもらうことが一般的である.しかしながら,\ref{dfne}節で述べた通り,レシピ用語タグによっては付与が困難な事例が存在するため,適切な手順を用いて効率的に作業を行う必要がある.本節では,\ref{nestd}節で述べたレシピ用語タグの基準に従い,作業者を含めた全体として効率的なアノテーションを行うための手順を述べる.また,管理者と作業者の作業一致率を測ることによりその有効性を評価する.本研究におけるレシピ用語アノテーションの作業にあたっては,図\ref{figure_0002}のような固有表現アノテーションツール\footnote{http://plata.ar.media.kyoto-u.ac.jp/mori/research/topics/PNAT/にて公開している.}を利用し,各単語にIOB2タグの付与を行った\footnote{なお,図\ref{figure_0002}に示したツールは,品詞・係り受け情報を付与する機能も備えているが,本論文におけるコーパス作成では用いておらず,図\ref{figure_0002}中の品詞・係り受け情報は自動推定による結果をそのまま表示している.}.図\ref{figure_0002}では,「鍋を熱して…」の「熱」という動詞に,『Ac:調理者の動作』の開始タグである「Ac-B」を割り当てている.\begin{figure}[b]\begin{center}\includegraphics{22-2ia2f5.eps}\end{center}\caption{固有表現アノテーションツール}\label{figure_0002}\end{figure}アノテーション作業の管理手順は以下のとおりである.\begin{enumerate}\item管理者がレシピ用語の定義(\ref{nestd}節参照)を作成する.本研究においては,管理者1名(筆者)と研究者3人を合わせた4人で議論を行い,レシピ用語の定義を作成した.\item管理者が実際にレシピ用語の定義に従ってアノテーションを行い,サンプルデータを作成する.\item作業者にレシピ用語の定義とサンプルを渡し,一定時間\footnote{具体的な期間は管理者ならびに作業者の都合に準ずるが,本手順では一日分の作業を一単位とした.}のアノテーション作業を行ってもらう.\item管理者は作業者のアノテーション結果に対するチェックを行う.この際,作業者の作業結果と管理者がさらに修正を加えたアノテーション結果の間で作業一致率を測る.管理者は必要に応じて作業者にアノテーション基準に関するコメントを返し,レシピ用語の定義並びにサンプルの修正・更新を行う.\item(3),(4)を繰り返す.\end{enumerate}本論文を執筆するにあたり,作業者にアノテーションを依頼したコーパスの一部(\ref{nestd}節の表~\ref{table_corpus}で示した436レシピのうち,初めにアノテーションを行った40レシピ)を対象として,上述した手順に従って4日間(1回$\times$4日)のアノテーション作業管理を行い,管理者1名(筆者)と作業者1名との作業一致率を測った.この際,作業者は管理者と同様に,全ての種類のタグに関するアノテーションを担当した.作業一致率[\%]は,\[\frac{\mbox{作業者と管理者の付与したIOB2タグの一致数}}{単語数}\times100\]で求められる.\begin{table}[b]\caption{IOB2タグ付与の作業一致率}\label{table_conc}\input{02table06.txt}\vspace{-0.5\Cvs}\end{table}結果を表\ref{table_conc}に示す.また,表\ref{table_conc}のうち,4日目の作業におけるIOB2タグごとの作業一致率を表\ref{tab_conc_tag}に示す.表\ref{table_conc}より,上述した手順に従うことで管理者・作業者間の作業一致率が向上し,最終的にIOB2タグの自動認識精度(表\ref{table_exp_result}参照)を有意に上回ることがわかる.また,表\ref{tab_conc_tag}より,4日目には事例の少ないSt-B,St-Iを除く全てのIOB2タグにおいて作業一致率が91\%以上となっていることがわかる.以上の結果より,作業者にアノテーションを任せることで自動認識の精度向上を図ることが可能であることを確認した.\begin{table}[t]\caption{IOB2タグごとの作業一致率(4日目)}\label{tab_conc_tag}\input{02table07.txt}\end{table}\subsection{効率的な精度向上を目的としたアノテーション作業のシミュレーション}前項で述べたアノテーション基準の確定の過程の結果,少量ながらレシピ用語のアノテーションがなされたコーパスが得られる.\ref{section_intro}節で述べたような応用を考えると,短期間での自動認識精度の向上が重要である.一般分野の固有表現の自動認識においては,人名・組織名・地名のような固有表現のカバレージを上げることで高い精度を達成することが可能である\cite{Japanese.Named.Entity.Extraction.Evaluation.-.Analysis.of.Results.-}.これは,レシピ用語の自動認識においても同様であろうと推測される.本節では,カバレージを重視した簡単なアノテーション戦略について,シミュレーションの結果とともに議論する.なお,レシピテキストを対象とした実際のアノテーションでは,単語分割境界ならびにレシピ用語となる単語列の範囲を決定してからタグを付与する必要があるが,本節で述べるシミュレーションには上述の2種類の情報があらかじめ付与されている状態のコーパスを用いているため,実際のアノテーション作業にそのまま適用できるものではない.カバレージを重視すると,新しいレシピ用語に集中的にアノテーションすることになる.結果として,文中の一部のレシピ用語にのみアノテーションされた部分的アノテーションコーパス\cite{Word-based.Partial.Annotation.for.Efficient.Corpus.Construction}が得られる.逆に,アノテーション基準の確定の過程で得られるコーパスは,文中の全てのレシピ用語にアノテーションされたフルアノテーションコーパスである.カバレージを重視した簡単なアノテーション戦略と通常のアノテーション方法を比較するために,次のようなシミュレーションを行った.まず,我々の作成したレシピ用語タグ付与コーパス(表\ref{table_corpus}参照)のうち,学習コーパスを$C_f$と$C_a$に2等分し,$C_f$を既に作成済みのフルアノテーションコーパス,$C_a$をこれからアノテーションを行う単語分割済みコーパスとみなす.ここで,$C_f$はレシピ用語タグの定義を確定する際に得られる少量のフルアノテーションコーパスを,$C_a$はカバレージを優先してアノテーションを行う追加用コーパスを想定している.本実験では$C_a$に対して,以下に示す2種類の方法でコーパスアノテーションのシミュレーションを行う.$C_f$と$C_a$の一部を合わせたものを学習コーパスとしてレシピ用語の自動認識精度を測った.\begin{description}\item[Full:]$C_a$に対して先頭から順に全ての単語に対してIOB2タグのアノテーションを行うと想定する.具体的には,$C_a$を10分割し,$C_f$に$C_a$の$k/10$$(k=0,1,\cdots,10)$を追加したものを学習コーパスとする.\item[Part:]カバレージを重視したアノテーション戦略として,各レシピ用語が$C_f$と$C_a$の合計において$A_{max}\in\{0,1,2,5,10,20,50,\infty\}$回アノテーションされるように$C_a$を先頭から部分的にアノテーションする.ただし出現頻度が$A_{max}$未満のレシピ用語に対しては,すべての出現箇所に対してアノテーションする.この結果得られる$C_a$を$C_f$に追加したものを学習コーパスとする.$A_{max}=1$であれば,最少のアノテーション数で,手法{\bfFull}で$C_a$をすべてアノテーションした場合($k=10$)とレシピ用語のカバレージが等しくなる.\end{description}なお,手法{\bfPart}における$A_{max}=0$と手法{\bfFull}の追加コーパスが0/10の状態は同じものであり,どちらも追加コーパスの無い状態である(つまり$C_f$のみ).また,手法{\bfPart}における$A_{max}=\infty$のときは手法{\bfFull}において追加コーパスが10/10の状態と同じであり,どちらも$C_a$の全ての単語にアノテーションを行ったものを追加コーパスとする状態である.ここでのシミュレーションでは,$C_a$が人手によりフルアノテーションされているので非常に少量であるが,実際にアノテーションを行う状況では$C_a$は利用可能な全ての生のレシピテキストであり,非常に大きい.つまり,手法{\bfFull}における10/10の追加コーパスを作成することは現実的ではないことに留意されたい.本実験の結果を図\ref{figure_partgraph}に示す.図\ref{figure_partgraph}における横軸は各手法におけるIOB2タグのアノテーション回数を示しており,これはアノテーションにおける作業時間を想定したものである.しかしながら,実際のアノテーションにおいては,アノテーション箇所ごとの判断の難しさの違い,\ref{annotation_proc}節で示した各アノテーション手順ごとの所要時間,などの要因により,必ずしも正確な作業時間を反映しているものではないことに留意されたい.図\ref{figure_partgraph}から,手法{\bfFull}の1/10と2/10は不安定(1/10から2/10に増量すると精度が低下している)ではあるが,全体の傾向からカバレージを最重要に考えて,各レシピ用語について1回のアノテーションを行う場合は,{\bfPart}の$A_{max}=1$と大差はない.しかし,手法{\bfPart}において$A_{max}\geq2$とした場合に,手法{\bfFull}において同じ単語数のアノテーションをする場合に比較してより高い精度が得られることがわかる.つまり,数回の出現に対してアノテーションすることで多様な出現文脈が学習できるようにしつつ,高いカバレージを確保するアノテーション戦略が自動認識の精度向上には有効であると期待される.\begin{figure}[t]\begin{center}\includegraphics{22-2ia2f6.eps}\end{center}\caption{カバレージを重視したアノテーションのシミュレーション}\label{figure_partgraph}\end{figure}実際のアノテーションにおいては,上述の通り$C_a$のサイズは非常に大きいため,この差はより顕著になるであろう.さらに,上述の「簡単な戦略」はアノテーション戦略のシミュレーションに過ぎない.本論文でのスコープ外ではあるが,能動学習等に基づくより効率的なアノテーション戦略が存在すると考えられる.基準が確定した後の精度向上においては,アノテーション作業を考慮に入れた効率的なアノテーション戦略の研究が重要である. \section{おわりに} 本論文では,レシピテキストを対象としたレシピ用語タグの定義について述べた.この定義にしたがって,実際にアノテーションを行い,定義が十分であることを確かめた.また,作成したコーパスを用いてレシピ用語の自動認識実験を行い,認識精度を測定した.自動認識の精度は十分高く,作成したコーパスは\cite{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}や\cite{Translating.Video.Content.to.Natural.Language.Descriptions,Unsupervised.Alignment.of.Natural.Language.Instructions.with.Video.Segments}などのレシピテキストを対象とする応用の精度向上に有用であると考えられる.さらに,人手によるアノテーションの過程で出現した判断の難しい事例や,自動認識の結果得られる学習データに含まれない事例を観察し,提案するレシピ用語の定義についての議論を行った.加えて,実際のアノテーション作業についても説明し,カバレージを重視した単純な戦略で部分的アノテーションコーパスのシミュレーションを行った.今後の課題として,能動学習等に基づくより効率的なアノテーションを行うことが挙げられる.\acknowledgment本研究の一部はJSPS科研費26280084,24240030,26280039の助成を受けて実施した.ここに謝意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Borthwick}{Borthwick}{1999}]{A.Maximum.Entropy.Approach.to.Named.Entity.Recognition}Borthwick,A.\BBOP1999\BBCP.\newblock{\BemAMaximumEntropyApproachtoNamedEntityRecognition}.\newblockPh.D.\thesis,NewYorkUniversity.\bibitem[\protect\BCAY{Chinchor}{Chinchor}{1998}]{Overview.of.MUC-7/MET-2}Chinchor,N.~A.\BBOP1998\BBCP.\newblock\BBOQOverviewofMUC-7/MET-2.\BBCQ\\newblockIn{\BemProceedingsofthe7thMessageUnderstandingConference}.\bibitem[\protect\BCAY{江里口}{江里口}{1999}]{固有表現定義の問題点}江里口善生\BBOP1999\BBCP.\newblock固有表現定義の問題点.\\newblock\Jem{IREXワークショップ予稿集},\mbox{\BPGS\125--128}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{LIBLINEAR:.A.Library.for.Large.Linear.Classification}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQ{LIBLINEAR}:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Finkel\BBA\Manning}{Finkel\BBA\Manning}{2009}]{Nested.Named.Entity.Recognition}Finkel,J.~R.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2009\BBCP.\newblock\BBOQNestedNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\141--150}.\bibitem[\protect\BCAY{Grishman\BBA\Sundheim}{Grishman\BBA\Sundheim}{1996}]{Message.Understanding.Conference.-.6:.A.Brief.History}Grishman,R.\BBACOMMA\\BBA\Sundheim,B.\BBOP1996\BBCP.\newblock\BBOQMessageUnderstandingConference-6:ABriefHistory.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{Hamada,Ide,Sakai,\BBA\Tanaka}{Hamadaet~al.}{2000}]{Structural.Analysis.of.Cooking.Preparation.Steps.in.Japanese}Hamada,R.,Ide,I.,Sakai,S.,\BBA\Tanaka,H.\BBOP2000\BBCP.\newblock\BBOQStructuralAnalysisofCookingPreparationStepsinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponInformationRetrievalwithAsianLanguages},\mbox{\BPGS\157--164}.\bibitem[\protect\BCAY{浜田\JBA井手\JBA坂井\JBA田中}{浜田\Jetal}{2002}]{料理テキスト教材における調理手順の構造化}浜田玲子\JBA井手一郎\JBA坂井修一\JBA田中英彦\BBOP2002\BBCP.\newblock料理テキスト教材における調理手順の構造化.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ85-DII}(1),\mbox{\BPGS\79--89}.\bibitem[\protect\BCAY{Hashimoto,Mori,Funatomi,Yamakata,Kakusho,\BBA\Minoh}{Hashimotoet~al.}{2008}]{Smart.Kitchen:.A.User.Centric.Cooking.Support.System}Hashimoto,A.,Mori,N.,Funatomi,T.,Yamakata,Y.,Kakusho,K.,\BBA\Minoh,M.\BBOP2008\BBCP.\newblock\BBOQSmartKitchen:AUserCentricCookingSupportSystem.\BBCQ\\newblockIn{\BemProceedingsofthe12thInformationProcessingandManagementofUncertaintyinKnowledge-BasedSystems},\mbox{\BPGS\848--854}.\bibitem[\protect\BCAY{橋本\JBA大岩\JBA舩冨\JBA上田\JBA角所\JBA美濃}{橋本\Jetal}{2009}]{調理行動モデル化のための調理観測映像へのアノテーション}橋本敦史\JBA大岩美野\JBA舩冨卓哉\JBA上田真由美\JBA角所考\JBA美濃導彦\BBOP2009\BBCP.\newblock調理行動モデル化のための調理観測映像へのアノテーション.\\newblock\Jem{第1回データ工学と情報マネジメントに関するフォーラム}.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Conditional.Random.Fields.を用いた日本語形態素解析}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblockConditionalRandomFieldsを用いた日本語形態素解析.\\newblock\Jem{情報処理学会研究報告,\textbf{NL161}}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Conditional.Random.Fields:.Probabilistic.Models.for.Segmenting.and.Labeling.Sequence.Data}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thICML}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Balanced.corpus.of.contemporary.written.Japanese2}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48}(2),\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{松本}{松本}{1996}]{形態素解析システム「茶筌」}松本裕治\BBOP1996\BBCP.\newblock形態素解析システム「茶筌」.\\newblock\Jem{情報処理},{\Bbf41}(11),\mbox{\BPGS\1208--1214}.\bibitem[\protect\BCAY{松本\JBA黒橋\JBA山地\JBA妙木\JBA長尾}{松本\Jetal}{1997}]{日本語形態素解析システムJUMAN使用説明書.version.3.2}松本裕治\JBA黒橋禎夫\JBA山地治\JBA妙木裕\JBA長尾真\BBOP1997\BBCP.\newblock\Jem{日本語形態素解析システムJUMAN使用説明書version3.2}.\newblock京都大学工学部長尾研究室.\bibitem[\protect\BCAY{三浦\JBA高野\JBA浜田\JBA井手\JBA坂井\JBA田中}{三浦\Jetal}{2003}]{料理映像の構造解析による調理手順との対応付け}三浦宏一\JBA高野求\JBA浜田玲子\JBA井手一郎\JBA坂井修一\JBA田中英彦\BBOP2003\BBCP.\newblock料理映像の構造解析による調理手順との対応付け.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ86-DII}(11),\mbox{\BPGS\1647--1656}.\bibitem[\protect\BCAY{Momouchi}{Momouchi}{1980}]{Control.Structures.for.Actions.in.Procedural.Texts.and.PT-Chart}Momouchi,Y.\BBOP1980\BBCP.\newblock\BBOQControlStructuresforActionsinProceduralTextsandPT-Chart.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\108--114}.\bibitem[\protect\BCAY{森\JBA{Neubig,G.}\JBA坪井}{森\Jetal}{2011}]{点予測による単語分割}森信介\JBA{Neubig,G.}\JBA坪井祐太\BBOP2011\BBCP.\newblock点予測による単語分割.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(10),\mbox{\BPGS\2944--2952}.\bibitem[\protect\BCAY{森}{森}{2012}]{自然言語処理における分野適応}森信介\BBOP2012\BBCP.\newblock自然言語処理における分野適応.\\newblock\Jem{人工知能学会誌},{\Bbf27}(4).\bibitem[\protect\BCAY{Mori,Sasada,Yamakata,\BBA\Yoshino}{Moriet~al.}{2012}]{A.Machine.Learning.Approach.to.Recipe.Text.Processing}Mori,S.,Sasada,T.,Yamakata,Y.,\BBA\Yoshino,K.\BBOP2012\BBCP.\newblock\BBOQAMachineLearningApproachtoRecipeTextProcessing.\BBCQ\\newblockIn{\BemProceedingsofthe1stCookingwithComputerWorkshop},\mbox{\BPGS\29--34}.\bibitem[\protect\BCAY{Naim,Song,Liu,Kautz,Luo,\BBA\Gildea}{Naimet~al.}{2014}]{Unsupervised.Alignment.of.Natural.Language.Instructions.with.Video.Segments}Naim,I.,Song,Y.~C.,Liu,Q.,Kautz,H.,Luo,J.,\BBA\Gildea,D.\BBOP2014\BBCP.\newblock\BBOQUnsupervisedAlignmentofNaturalLanguageInstructionswithVideoSegments.\BBCQ\\newblockIn{\BemProceedingsofthe28thNationalConferenceonArtificialIntelligence}.\bibitem[\protect\BCAY{Neubig\BBA\Mori}{Neubig\BBA\Mori}{2010}]{Word-based.Partial.Annotation.for.Efficient.Corpus.Construction}Neubig,G.\BBACOMMA\\BBA\Mori,S.\BBOP2010\BBCP.\newblock\BBOQWord-basedPartialAnnotationforEfficientCorpusConstruction.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonLanguageResourcesandEvaluation}.\bibitem[\protect\BCAY{Rohrbach,Qiu,Titov,Thater,Pinkal,\BBA\Schiele}{Rohrbachet~al.}{2013}]{Translating.Video.Content.to.Natural.Language.Descriptions}Rohrbach,M.,Qiu,W.,Titov,I.,Thater,S.,Pinkal,M.,\BBA\Schiele,B.\BBOP2013\BBCP.\newblock\BBOQTranslatingVideoContenttoNaturalLanguageDescriptions.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputerVision}.\bibitem[\protect\BCAY{Sang\BBA\Meulder}{Sang\BBA\Meulder}{2003}]{Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}Sang,E.F.T.~K.\BBACOMMA\\BBA\Meulder,F.~D.\BBOP2003\BBCP.\newblock\BBOQIntroductiontotheCoNLL-2003SharedTask:Language-IndependentNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\142--147}.\bibitem[\protect\BCAY{Sekine\BBA\Eriguchi}{Sekine\BBA\Eriguchi}{2000}]{Japanese.Named.Entity.Extraction.Evaluation.-.Analysis.of.Results.-}Sekine,S.\BBACOMMA\\BBA\Eriguchi,Y.\BBOP2000\BBCP.\newblock\BBOQJapaneseNamedEntityExtractionEvaluation-AnalysisofResults-.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{2000}]{IREX:.IR.and.IE.Evaluation.Project.in.Japanese}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQIREX:IRandIEEvaluationProjectinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1977--1980}.\bibitem[\protect\BCAY{自然言語処理特集号編集委員会}{自然言語処理特集号編集委員会}{2014}]{自然言語処理特集号}自然言語処理特集号編集委員会\JED\\BBOP2014\BBCP.\newblock\Jem{自然言語処理,\textbf{21}(2)}.\bibitem[\protect\BCAY{Tateisi,Kim,\BBA\Ohta}{Tateisiet~al.}{2002}]{The.GENIA.Corpus:.an.Annotated.Research.Abstract.Corpus.in.Molecular.Biology.Domain}Tateisi,Y.,Kim,J.-D.,\BBA\Ohta,T.\BBOP2002\BBCP.\newblock\BBOQTheGENIACorpus:AnAnnotatedResearchAbstractCorpusinMolecularBiologyDomain.\BBCQ\\newblockIn{\BemProceedingsoftheHLT},\mbox{\BPGS\73--77}.\bibitem[\protect\BCAY{Tjong,Sang,\BBA\Veenstra}{Tjonget~al.}{1999}]{Representing.Text.Chunks}Tjong,E.~F.,Sang,K.,\BBA\Veenstra,J.\BBOP1999\BBCP.\newblock\BBOQRepresentingTextChunks.\BBCQ\\newblockIn{\BemProceedingsofthe9thEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\173--179}.\bibitem[\protect\BCAY{山田\JBA工藤\JBA松本}{山田\Jetal}{2002}]{Support.Vector.Machineを用いた日本語固有表現抽出}山田寛康\JBA工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblockSupportVectorMachineを用いた日本語固有表現抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(1),\mbox{\BPGS\44--53}.\bibitem[\protect\BCAY{Yamakata,Imahori,Sugiyama,Mori,\BBA\Tanaka}{Yamakataet~al.}{2013}]{Feature.Extraction.and.Summarization.of.Recipes.using.Flow.Graph}Yamakata,Y.,Imahori,S.,Sugiyama,Y.,Mori,S.,\BBA\Tanaka,K.\BBOP2013\BBCP.\newblock\BBOQFeatureExtractionandSummarizationofRecipesusingFlowGraph.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonSocialInformatics},LNCS8238,\mbox{\BPGS\241--254}.\bibitem[\protect\BCAY{山本\JBA中岡\JBA佐藤}{山本\Jetal}{2013}]{食材調理法の習得順に関する一検討}山本修平\JBA中岡義貴\JBA佐藤哲司\BBOP2013\BBCP.\newblock食材調理法の習得順に関する一検討.\\newblock\Jem{電子情報通信学会技術研究会報告},{\Bbf113}(214),\mbox{\BPGS\31--36}.\end{thebibliography}\begin{biography}\bioauthor{笹田鉄郎}{2007年京都大学工学部電気電子工学科卒業.2009年同大学院情報学研究科修士課程修了.同年同大学院博士後期課程に進学.2012年同大学院情報学研究科博士後期課程単位取得認定退学.京都大学学術情報メディアセンター教務補佐員.現在に至る.自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授.京都大学博士(工学).音声言語処理および自然言語処理に関する研究に従事.1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.情報処理学会,言語処理学会各会員.}\bioauthor{山肩洋子}{2000年京都大学工学部情報学科卒業.2002年同大学大学院情報学研究科修士課程修了.2005年同大学院博士後期課程単位認定退学,2005〜2006年京都大学学術情報メディアセンター研究員,2006〜2010年情報通信研究機構専攻研究員,2010〜2011年京都大学特定講師,2011年京都大学准教授,2014年同大学特定准教授.博士(情報学).マルチメディア情報処理の研究に従事.電子情報通信学会,人工知能学会会員.}\bioauthor{前田浩邦}{2012年京都大学理学部卒業.2014年同大学院情報学研究科修士課程修了.サイボウズ株式会社勤務.現在に至る.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年同博士後期課程退学.同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.音声言語処理,特に音声認識及び対話システムに関する研究に従事.京大博士(工学).科学技術分野の文部科学大臣表彰(2012年度),日本音響学会から粟屋潔学術奨励賞(1997年度),情報処理学会から坂井記念特別賞(2000年度),喜安記念業績賞(2011年度),論文賞(2012年度)を受賞.IEEESPSSpeechTC委員,IEEEASRU2007GeneralChair,INTERSPEECH2010TutorialChair,IEEEICASSP2012LocalArrangementChair,言語処理学会理事,情報処理学会音声言語情報処理研究会主査,APSIPA理事,情報処理学会理事を歴任.情報処理学会,日本音響学会,電子情報通信学会,人工知能学会,言語処理学会,IEEE,ISCA,APSIPA各会員.}\end{biography}\biodate\end{document}
V21N06-05
\section{はじめに} \label{SEC::INTRO}テキスト中に出現する述語の格構造を認識する処理は述語項構造解析や格解析などと呼ばれ,計算機によるテキスト理解のための重要な1ステップである.しかし,格構造を表現する際に使用される``格''には,述語の出現形\footnote{本論文では,能動形,受身形,使役形など,述語が実際にテキストにおいて出現した形のことを出現形と呼ぶ.}に対する表層格や,能動形に対する表層格,さらには深層格など複数の表現レベルが存在し,どの表現レベルを用いるべきかは使用するコーパス\footnote{京都大学テキストコーパス\cite{TAG}では出現形の表層格情報,NAISTテキストコーパス\cite{Iida2007}では能動形の表層格情報が付与されている.}やタスクにより異なっている.格構造を表層格で扱う利点としては,表層格はテキスト中に格助詞として明示的に出現することから``格''を定義する必要がないこと,述語ごとに取りうる格をコーパスから自動獲得することが可能なことなどが挙げられる.さらに,出現形に対する表層格で扱う利点としては,能動形では現れない使役文におけるガ格や一部の受身文のガ格を自然に扱えること,先行する述語のガ格の項が後続する述語でもガ格の項となりやすい\cite{Kameyama1986s,Nariyama2002s}などといった談話的な情報が自然に利用できることなどが挙げられる.特に後者はゼロ照応解析において重要な手掛りになることが知られており\cite{Iida2007T,Sasano2011},ゼロ照応の解決も含む述語項構造解析の高精度化のためには,格構造を出現形の表層格で扱うのが望ましいと考えられる.一方,テキストの意味を考える上では,出現形に対する表層格解析では不十分な場合がある.\begin{exe}\ex\label{EX::FRIEND}私が知り合いに誘われた.\ex\label{EX::PARTY}私がパーティーに誘われた.\end{exe}たとえば,(\ref{EX::FRIEND}),(\ref{EX::PARTY})のような文を考えると,出現形の表層格としては(\ref{EX::FRIEND})の「知り合い」と(\ref{EX::PARTY})の「パーティー」は同じニ格となっているが,前者は能動主体を表しており能動形ではガ格となるのに対し,後者は誘致先を表しており能動形においてもニ格となる.このような違いを認識することは情報検索や機械翻訳などといった多くの自然言語処理のアプリケーションにおいて重要となる\cite{Iida2007}.実際に,Google翻訳\footnote{http://translate.google.co.jp/,2014年5月10日実施.}を用いてこれらの文を英訳すると,(\ref{EX::FRIEND}$'$),(\ref{EX::PARTY}$'$)に示すようにいずれの文もニ格が誘致先を表すものとして翻訳される.このうち,(\ref{EX::FRIEND}$'$)に示した翻訳は誤訳であるが,これは(\ref{EX::FRIEND})の文と(\ref{EX::PARTY})の文におけるニ格の表す意味内容の違いを認識できていないため誤って翻訳されたと考えられる.\begin{exe}\exp{EX::FRIEND}Iwasinvitedtoanacquaintance.\label{EXE::FRIEND}\exp{EX::PARTY}Iwasinvitedtotheparty.\label{EXE::PARTY}\end{exe}また,文(\ref{EX::BOTH})は(\ref{EX::FRIEND}),(\ref{EX::PARTY})の2文が表す内容を含意していると考えられるが,出現形に対する表層格解析だけではこれらの含意関係を認識することはできない.このため,含意関係認識や情報検索などのタスクでは,能動形に対する表層格構造や深層格構造といった,より深い格構造を扱うことが望ましいと言える.\begin{exe}\ex知り合いが私をパーティーに誘った.\label{EX::BOTH}\end{exe}そこで,まず出現形における表層格の解析を行い,その結果をより深い格構造に変換することを考える.このような手順を用いることで,談話的な情報を自然に取り入れながら,含意関係認識や情報検索などのタスクにも有用な能動形格構造を扱うことができると考えられる.本研究ではこのうち特に受身形・使役形から能動形への格構造変換に焦点を当てる.受身形・使役形から能動形への格構造変換における格交替パターンの数は限定的であり人手で列挙することは容易である.しかし,文(\ref{EX::FRIEND}),(\ref{EX::PARTY})からも分かるように,述語と格が同じであっても同一の格交替パターンとなるとは限らない.同様に,項とその格が同じであっても同一の格交替パターンとなるとは限らない.たとえば,文(\ref{EX::FRIEND})と(\ref{EX::AWARD})のニ格はいずれも「知り合い」であるが,これらの文を能動形に変換した場合,文(\ref{EX::FRIEND})のニ格はガ格となるのに対し,文(\ref{EX::AWARD})のニ格は能動形においてもニ格のままである.\begin{exe}\ex奨励賞が知り合いに贈られた.\label{EX::AWARD}\end{exe}このため,受身形・使役形から能動形への格構造の変換を高精度に行うためには,述語・項・格の組み合わせごとに,どのような格交替パターンとなるかを記述した大規模な語彙知識が必要となると考えられる.そこで,本研究ではこのような語彙知識を大規模コーパスから自動獲得する手法を提案する.具体的には,格交替のパターンの数が限定的であること,および,対応する受身文・使役文と能動文の格の用例や分布が類似していることに着目し,人手で記述した少数の格交替パターンとWebから自動構築した大規模格フレームを用いることで,受身文・使役文と能動文の表層格の対応付けに関する知識の自動獲得を行う.また,自動獲得した知識を受身文・使役文の能動文への変換における格変換タスクに適用することにより,その有用性を示す.本論文の構成は以下の通りである.まず,2節で関連研究について概観した後,3節で受身・使役形と能動形間の格の交替パターンについて,4節でWebから自動構築した大規模格フレームについてそれぞれまとめる.続いて5節で提案する格フレームの対応付け手法について説明し,6節では実験を通してその有効性を示す.最後に7節で本論文のまとめを記す. \section{関連研究} Levin\citeyear{Levin1993}は態の交替現象に着目し,3,000以上の英語の動詞を共有する意味構成と構文的な振る舞いに基づくクラスに分類した.コーパスを用いた英語の動詞の自動分類に関する研究においても態の交替を手掛かりとして利用している研究が数多く存在している\cite{Lapata2004CL,Walde2008,Joanis2008,Li2008,Sun2009,Sun2013}.また,態の交替に関連してコーパスから得られる用例の分布類似度を利用した研究としてBaroniらの研究\cite{Baroni2010}がある.Baroniらはコーパスに基づく意味論の研究において,使役・能動交替を起こす動詞と起こさない動詞の分類にコーパスから得られる用例の分布類似度が有用であることを示している.日本語における受身形・使役形と能動形の格の変換を扱った研究としては,Baldwinらの研究\cite{Baldwin2000},近藤らの研究\cite{Kondo2001},村田らの研究\cite{Murata2002,Murata2008}が挙げられる.Baldwinら\cite{Baldwin2000}は日本語における受身・使役と能動形の交替を含む動詞交替の種類と頻度の定量的な分析を行っている.具体的には人手で記述した格フレーム辞書である日本語語彙大系\cite{NTT}の結合価辞書を解析し,格スロット間の選択制約を比較して動詞交替の検出を行っている.しかし,Baldwinらの研究の目的は動詞交替の定量的な分析であり,受身形・使役形の能動形への変換は行っていない.近藤ら\citeyear{Kondo2001}は単文の言い換えの1タイプとして,受身形から能動形の格の変換,および,使役形から能動形の格の変換を扱っており,動詞のタイプや格パターンなどをもとに作成したそれぞれ7種類,6種類の交替パターンを用いて格の変換を行っている.動詞のタイプとしては,「比較動詞」,「授受動詞」,「対称動詞」,「一般動詞」の4種類を定義しており,IPAL基本動詞辞書\cite{IPAL}をもとに1,564エントリからなる動詞辞書(VDIC辞書)を作成し使用している.また,村田ら\cite{Murata2002,Murata2008}は京都大学テキストコーパス\cite{TAG}の社説を除く約2万文において,受身形・使役形で出現した述語に係る格助詞を対象に,述語を能動形に変換した場合の格を付与した学習データを作成し,SVM\cite{SVM}を用いた機械学習により受身形・使役形と能動形の格を変換する手法を提案している.学習に使用する素性には,関係する動詞や体言,格助詞の出現形や品詞情報などといった情報に加え,IPAL基本動詞辞書やVDIC辞書から得られる情報を使用している.このように日本語文における格交替に関する研究では,人手で整備された大規模な語彙的リソースや人手で作成した大規模な学習データが利用されてきた.しかしながら,文(\ref{EX::FRIEND})と(\ref{EX::PARTY})のように述語と表層格が一致していても能動形における格が異なる場合があることからも分かるように,格の対応は述語ごと,用法ごとに異なっており,網羅的な対応付けに関する知識を人手で記述することは現実的ではないと言える.そこで本研究では格交替に関する大規模な語彙知識の自動獲得に取り組む.また,NAISTテキストコーパス\cite{Iida2007}では能動形の表層格情報が付与されていることから,NAISTコーパスを対象とした述語項構造解析やゼロ照応解析に関する研究\cite{Taira2008s,Iida2009,Imamura2009s,Yoshikawa2010,Hayashibe2014}は,受身・使役形で出現した述語の解析を行う際には格交替の解析も行っているとみなすことができる.しかし,これらの研究では素性の1つとして態に関する情報を考慮しているものの,格交替に関する語彙知識は使用していない.このため,能動形以外の態で出現した述語に対しては相対的に低い解析精度である可能性が高く\footnote{実際に,Iidaらからゼロ照応解析システム\cite{Iida2009}の提供を受け,NAISTテキストコーパスの社説を除く記事に適用した場合の精度(F値)は,\pagebreak能動形で出現した述語に対してはガ格,ヲ格,ニ格で,それぞれ0.358,0.110,0.014であったのに対し,受身・使役形で出現した述語に対しては0.113,0.034,0.021であった.ニ格に対しては後者の方が僅かに高い精度であったものの,全体の80\%以上を占めるガ格に対しては後者の方が大幅に低い精度であり,全体として能動形以外の態で出現した述語に対しては低い解析精度であった.},本研究で獲得を行う格交替に関する知識は有用な情報になると考えられる. \section{格の交替パターン} \label{SEC::PATTERN}受身文・使役文における表層格と,対応する能動文の表層格の対応はいくつかのパターンで記述できる.本節では受身文と能動文,使役文と能動文,それぞれの表層格の交替パターンについて述べる.\subsection{受身文と能動文の格の交替パターン}受身文は,何を主語として表現するかによって,直接受身文,間接受身文,持ち主の受身文の3つのタイプに分けられる\cite{GendaiNihongo4}.直接受身文とは,対応する能動文でヲ格やニ格で表される人や物を主語として表現する受身文であり,以下の(\ref{EX::SIRI})〜(\ref{EX::SIMERU})に示すように能動主体は基本的に「に」,「によって」,「から」,「で」のいずれかにより表される.また,直接受身文でガ格として表される名詞は,基本的に能動文のヲ格,または,ニ格のいずれかに対応している\footnote{直接受身文「私が彼に本を取られた.」と能動文「彼が私から本を取った.」のように,直接受身文でガ格として表される名詞が,能動文のカラ格に対応している場合も考えられる.しかし,このような事例は少ないと考えられることから本研究では考慮しない.実際に,本研究における実験で使用したNICT格助詞変換データVersion1.0にはこのような用例は1つも含まれていなかった.}.\begin{exe}\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}私\underline{が}知り合い\unc{に}誘われた.\label{EX::SIRI}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}知り合い\unc{が}私\underline{を}誘った.\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}原因\underline{が}研究\unc{によって}解明された.\label{EX::SHOUMEI}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}研究\unc{が}原因\underline{を}解明した.\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}私\underline{が}彼\unc{から}頼まれた.\label{EX::TANOMI}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}彼\unc{が}私\underline{に}頼んだ.\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}大半\underline{が}推進派\unc{で}占められた.\label{EX::SIMERU}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}推進派\unc{が}大半\underline{を}占めた.\end{exe}間接受身文とは,対応する能動文の表す事態には直接的に関わっていない人物を主語とし,その人物が事態から何らかの影響を被っていることを表現する受身文であり,迷惑の受身文とも呼ばれる.(\ref{EX::SAWAGU})に示すように間接受身文の能動主体は基本的に「に」によって表され,間接受身文でガ格として表される名詞は能動文では出現しない.\clearpage\begin{exe}\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}太郎\underline{が}雨\unc{に}降られた.\label{EX::SAWAGU}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}雨\unc{が}降った.\end{exe}持ち主の受身文とは,ヲ格やニ格などで表されていた物の持ち主を主語とし,能動文で主語として表されていた名詞を主語でない項として表現する受身文である.(\ref{EX::NUSUMU})に示すように持ち主の受身文の能動主体は基本的に「に」によって表され,持ち主の受身文でガ格として表される名詞は能動文ではヲ格やニ格の名詞句にノ格で係る名詞句として出現する.\begin{exe}\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}友人\underline{が}泥棒\unc{に}カードを盗まれた.\label{EX::NUSUMU}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}泥棒\unc{が}友人\underline{の}カードを盗んだ.\end{exe}以上のように,受身文には3つのタイプがあるものの,いずれの場合も格交替が起こるのは能動文においてガ格で表現される要素と受身文においてガ格で表現される要素のたかだか2つである.また,前者は受身文において「に」,「によって」,「から」,「で」のいずれかによって表され,後者は能動文において「を」,「に」,「の」のいずれかによって表されるか出現しないかである.したがって,受身文と能動文の格の対応付けを行う際は,これらの組み合わせからなる格の交替パターンを考えれば十分であると言える.\subsection{使役文と能動文の格の交替パターン}使役文と能動文の格の対応付けも述語と項の組み合わせを考慮して行う必要がある.たとえば,(\ref{EX::STUDENT}),(\ref{EX::SCHOOL})のような文を考えると,出現形の表層形としては(\ref{EX::STUDENT})の「生徒」と(\ref{EX::SCHOOL})の「学校」は同じニ格となっているが,前者は能動主体を表しており能動形ではガ格となるのに対し,後者は目的地を表しており能動形においてもニ格のままである.このため,使役文と能動文の間の格の交替パターンについても,どのような格の交替パターンを考えれば良いか考察を行う.\begin{exe}\ex先生が生徒に行かせた.\label{EX::STUDENT}\ex先生が学校に行かせた.\label{EX::SCHOOL}\end{exe}まず,一般的な使役文では,対応する能動文に含まれていない人や物がガ格となり,能動文の表す事態の成立に影響を与える主体として表現され,能動主体は「を」,または,「に」で表される\cite{GendaiNihongo4}.たとえば,以下の例では,能動文に含まれていない「先生」が,使役文におけるガ格として出現しており,能動主体である「生徒」は使役文ではそれぞれ「を」,「に」によって表されている.\begin{exe}\ex{\footnotesize\textbf{[使役形]}\hspace{-0.5zw}:}先生\underline{が}生徒\unc{を}行かせる.\label{EX::SEITO-WO}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}生徒\unc{が}行く.\ex{\footnotesize\textbf{[使役形]}\hspace{-0.5zw}:}先生\underline{が}生徒\unc{に}行かせる.\label{EX::SEITO-NI}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}生徒\unc{が}行く.\end{exe}ただし,頻度は多くないものの,以下のように感情や思考を表す動詞から使役文が作られる場合には,能動文においてニ格やヲ格で表される原因が使役文でガ格として表現される場合がある.しかし,このような用例は少ない\footnote{本研究における実験で使用したNICT格助詞変換データVersion1.0ではこのような用例は1例のみであった.}ことから,本研究ではこのような対応付けは考慮しない.\begin{exe}\ex{\footnotesize\textbf{[使役形]}\hspace{-0.5zw}:}彼の発言\underline{が}社長\unc{を}喜ばせた.\label{EX::STUDY}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}社長\unc{が}彼の発言\underline{に}喜んだ./社長\unc{が}彼の発言\underline{を}喜んだ.\end{exe}以上のように,使役文と能動文の格の対応付けも複数の格の交替パターンが考えられるが,受身文から能動文の格の対応付けの場合と同様に,格交替が起こるのは能動文においてガ格で表現される要素と使役文においてガ格で表現される要素のたかだか2つである.さらに,能動文でガ格として表される要素は使役文においては「に」,「を」のいずれかによって表され,使役文においてガ格で表現される要素は基本的に能動文には出現しないことから,能動文でガ格として表される要素が使役文において「に」で表されるか「を」で表されるかの曖昧性を考慮するだけで十分であると言える. \section{Webから自動構築した大規模格フレーム} \label{SEC::FRAME}本研究では述語ごとの格構造に関する大規模語彙知識として,河原らの手法\cite{Kawahara2005}を用いてWebテキスト69億文から自動構築した格フレームを使用する.このWebテキストは,約10億のWebページから日本語文を抽出し,重複する文を除いた結果得られたものである.河原らの手法では格フレームは述語ごとに,また,能動形,受身形,使役形などの出現形ごとに,さらに用法ごとに別々に構築され,それぞれ取りうる格とその用例,および,各用例の出現回数がまとめられる.この際,河原らは述語の直前の格の用例が同じである場合,多くは同じ用法であることを利用し,用法の曖昧性に対処している.具体的には,まず,「荷物を積む」や「物資を積む」,「経験を積む」などのように述語とその直前の格の用例の組を単位として個別に格フレームを構築し,続いて「荷物を積む」と「物資を積む」のように類似する格フレームをマージすることにより,用法ごとに別々の格フレームを構築している.たとえば「誘われる」という述語・出現形に対しては47個の格フレームが構築されており,その中には(\ref{EX::FRAME1})のようにニ格が能動主体を表す格フレーム\footnote{本論文では格フレームを示す場合,主要な格,用例のみを抜粋して示す.また,用例の後の数字はその用例の出現回数を表す.}と,(\ref{EX::FRAME2})のようにニ格が誘致先を表す格フレームが含まれている\footnote{実際には複数の用法が混ざった格フレームも構築される.たとえば,接尾辞「れる/られる」には受身,尊敬,自発,可能など複数の意味が考えられるが,これら複数の用法が混ざった格フレームも構築されている.}.\begin{exe}\ex{\footnotesize\textbf{「誘われる」の格フレーム1:}}\label{EX::FRAME1}\sn\{私:5,自分:3,母親:2,女性:2,彼氏:2,…\}\textbf{が}\sn\{食事:49,御飯:36,ランチ:21,映画:17,…\}\textbf{を}\sn\{友達:9536,友人:5856,人:2443,先輩:1695,…\}\textbf{に}誘われる\ex{\footnotesize\textbf{「誘われる」の格フレーム2:}}\label{EX::FRAME2}\sn\{俺:10,私:9,友達:7,人:5,彼氏:5,…\}\textbf{が}\sn\{友達:300,人:221,男性:211,友人:168,…\}\textbf{から}\sn\{食事:3710,デート:3180,飲み:3159,パーティー:1948,…\}\textbf{に}誘われる\end{exe}同様に,「誘う」という述語・出現形に対しては(\ref{EX::FRAME3})に示す格フレームを含む9個の格フレームが構築されており,たとえば(\ref{EX::FRAME2})に示した「誘われる」の格フレームのガ格,カラ格,ニ格を,それぞれヲ格,ガ格,ニ格に対応付けることができれば,格構造の変換に有用な知識になると考えられる.\begin{exe}\ex{\footnotesize\textbf{「誘う」の格フレーム1:}}\label{EX::FRAME3}\sn\{私:50,男性:48,彼女:43,セラピスト:43,彼:41,…\}\textbf{が}\sn\{友達:16019,私:8908,人:7898,友人:6622,…\}\textbf{を}\sn\{デート:1325,食事:804,世界:822,遊び:502,…\}\textbf{に}誘う\end{exe}また,格として収集する対象としては格助詞を伴って直接述語に係る要素に加えて,「によって」などの一部の複合辞や,持ち主の受身文のガ格になりうることから,述語の直前項にノ格で係る要素も収集の対象としている.このためこれらの表現も格と同等に扱っており,(\ref{EX::FRAME4}),(\ref{EX::FRAME5})のように,これらの表現に相当する格スロットが生成される.本論文ではこれらの格を便宜上,ニヨッテ格,ノ格と呼ぶ.\begin{exe}\ex{\footnotesize\textbf{「解明される」の格フレーム1:}}\label{EX::FRAME4}\sn\{謎:1998,メカニズム:804,原因:734,…\}\textbf{が}\sn\{研究:29,生物学:27,進歩:15,…\}\textbf{によって}解明される\pagebreak\ex{\footnotesize\textbf{「盗む」の格フレーム3:}}\label{EX::FRAME5}\sn\{子供:23,誰:16,泥棒:8,…\}\textbf{が}\sn\{親:165,人:98,家:58,…\}\textbf{の}\sn\{金:4163,現金:951,金品:681,…\}\textbf{を}盗む\end{exe} \section{格フレームの対応付け} \label{SEC::PROPOSED}本研究では,受身形・使役形の格フレームを対応する能動形の格フレームと適切に対応付けることを目的とする.1つの述語に対し複数の格フレームが構築されることから,ある受身形・使役形の格フレームが与えられた場合,複数ある能動形の格フレームから最適な格フレームを選択した上で,それぞれの格フレームに含まれる格同士を適切に対応付ける必要がある.図\ref{FIG::TaskDef}に対応付けの例を示す.図\ref{FIG::TaskDef}の例では,受身形「誘われる」の格フレーム2が入力として与えられた結果,能動形「誘う」の格フレームの中から格フレーム1が選択され,「誘われる」の格フレーム2のガ格,カラ格,ニ格はそれぞれ「誘う」の格フレーム1のヲ格,ガ格,ニ格に対応付けられている.\begin{figure}[b]\begin{center}\includegraphics{21-6ia5f1.eps}\caption{受身形・使役形と能動形格フレームの対応付けの例}\label{FIG::TaskDef}\end{center}\end{figure}\subsection{対応付けアルゴリズム}出現形格フレームが与えられた場合に,それを能動形格フレームに対応付けるアルゴリズムを表\ref{TABLE::ALG}に示す.まず,能動形格フレーム$cf_{active}$と,出現形のガ格が対応付けられる能動形の格$c_{ga\_to}$,能動形のガ格に対応付けられる出現形の格$c_{to\_ga}$の考えうるすべての組み合わせ$A=$\{$cf_{active},c_{ga\_to},c_{to\_ga}$\}を生成し,その中から以下の式で定義されるスコアが最大となる組み合わせ$A$を出力する.この際,$c_{ga\_to}$と$c_{to\_ga}$が事前に作成した格交替パターンを満たすような組み合わせのみを考慮する.また,対応付けられる格がない場合は$c_{ga\_to}$,$c_{to\_ga}$としてNILを与える.\\\\vspace{-5ex}\begin{equation}\mathit{score}=\operatorname{sim}_{_\mathit{SEM}}(A)\times\operatorname{sim}_{_\mathit{DIST}}(A)^\alpha\timesf_{_\mathit{PP}}(A)\label{EQ::SCORE}\end{equation}\begin{table}[t]\caption{能動形格フレームへの対応付けアルゴリズム}\label{TABLE::ALG}\input{05table01.txt}\end{table}式(\ref{EQ::SCORE})において,$\operatorname{sim}_{_\mathit{SEM}}(A)$,$\operatorname{sim}_{_\mathit{DIST}}(A)$,$f_\mathit{pp}(A)$はそれぞれ,対応する格の用例集合間の意味的な類似度,対応する格の出現頻度の分布の類似度,格交替パターンの起こりやすさを表しており,本研究ではこれら3つの手掛かりを利用し格の対応付けを行う.各指標をどのように計算するかについては次節で述べる.$\alpha$は出現頻度の分布の類似度$\operatorname{sim}_{_\mathit{DIST}}(A)$を用例集合間の意味的な類似度$\operatorname{sim}_{_\mathit{SEM}}(A)$に対してどのくらい重視するかを決めるパラメータであり,その値は開発データを用いて決定する.格交替パターンの起こりやすさを表す$f_\mathit{pp}(A)$に関しては同様のパラメータが出現していないのは$f_\mathit{pp}(A)$自体が開発データを用いて決定される重みによって構成される関数であり,他の指標に対してどのくらい$f_\mathit{pp}$を重視するかは既に考慮されているためである.また,計算時間を短縮するため,事前に作成した格交替パターンに含まれないような不適切な格対応の組み合わせはスコア計算前にフィルタリングする(表\ref{TABLE::ALG}のアルゴリズム中の5行目).具体的には,格変換の結果,同一の格が重複してしまう場合や,受身形格フレームにヲ格が存在しない場合に受身形ガ格の変換先としてノ格が選択された場合などはここでフィルタリングされる.さらに,能動形の格フレームは出現頻度順にソートし,頻度の大きいものから順に対応付けを行っていき,全体の80\%をカバーした時点でもっともスコアが大きくなる組み合わせを出力する.対応する格の意味的な類似度$sim_{SEM}$を計算する際も,それぞれの格の用例のうち頻度上位40用例のみから類似度を計算することで計算時間を短縮する.\subsection{対応付けの手掛かり}本節では格フレームの対応付けの手掛かりとして使用する3つの指標について,それらの指標を用いる理由,および,その計算方法を説明する.\subsubsection*{1.対応する格の用例集合間の意味的な類似度:$\boldsymbol{\operatorname{sim}_\mathit{SEM}}$}出現形と能動形格フレームの間で対応する格の用例は類似していると考えられる.そこで,対応する格の用例集合間の意味的な類似度を対応付けの手掛かりの1つとして利用する.まず,格の用例集合$C_1$,$C_2$間の意味的な類似度$\operatorname{sim}_s(C_1,C_2)$を,ある単語と共起する単語の分布の類似度から計算された単語間の分布類似度$\operatorname{sim}(w_1,w_2)$を用い,以下の式により計算する.\begin{gather*}\operatorname{sim}_s(C_1,C_2)=\frac{1}{2}(\operatorname{sim}_a(C_1,C_2)+\operatorname{sim}_a(C_2,C_1))\\\text{ただし}\quad\operatorname{sim}_a(C_1,C_2)=\frac{1}{|C_1|}\sum_{w_1\in{C}_1}\max_{w_2\inC_2}(\operatorname{sim}(w_1,w_2))\end{gather*}本研究では,単語間の分布類似度として,柴田らの手法\cite{Shibata2009}に基づき,格フレーム構築に使用したWebテキスト69億文から計算した類似度を使用した.また,$\operatorname{sim}_a(C_1,C_2)$は,用例集合$C_1$に含まれる用例$w_1$ごとに,用例集合$C_2$中でもっとも類似している用例$w_2$との類似度の平均を表しており\footnote{用例集合$C_1$,$C_2$は単語の種類ではなく単語の各出現を要素としている.したがって類似度$\operatorname{sim}_a(C_1,C_2)$は単語の種類単位で考えると出現頻度で重み付けされていることになる.},引数$C_1$,$C_2$に関して非対称な(asymmetric)式となっている.一方,$\operatorname{sim}_s(C_1,C_2)$は$\operatorname{sim}_a(C_1,C_2)$の引数を入れ替えて,その平均を取ったものであり,引数$C_1$,$C_2$に関して対称な(symmetric)式となっている.続いて,格フレームの対応付け$A=$\{$cf_{active},c_{ga\_to},c_{to\_ga}$\}に対する意味的な類似度$\operatorname{sim}_{SEM}$を,以下に示すように対応付けられた格の用例集合間の類似度の平均として定義する.\[\operatorname{sim}_{SEM}(A)=\frac{1}{N}\sum_{i=1}^{N}\operatorname{sim}_s(C_{1,i},C_{2,a(i)})\]ここで,$C_{1,i}$は対応元格フレームにおける$i$番目の格の用例集合,$C_{2,a(i)}$は$i$番目の格が対応付けられた対応先格フレームの格の用例集合を表している.すなわち,$i$番目の格がガ格である場合は$C_{2,a(i)}$は対応先格フレームの格$c_{ga\_to}$の用例集合,$i$番目の格が$c_{to\_ga}$である場合は$C_{2,a(i)}$は対応先格フレームのガ格の用例集合,それ以外の場合は同一の格が対応先格フレームに存在すればその格の用例集合となる.ただし,$c_{ga\_to}$がNILである場合など,対応する格が対応先格フレームに存在しない場合は,$C_{2,a(i)}$は空集合とし,$\operatorname{sim}_s(C_{1,i},C_{2,a(i)})=0$として計算する.たとえば,図\ref{FIG::TaskDef}に示したような格フレームの対応に対しては,「誘われる」の格フレーム2のガ格,カラ格,ニ格の用例集合に対し,それぞれ「誘う」の格フレーム1のヲ格,ガ格,ニ格の用例集合との$\operatorname{sim}_s$を求め,その平均を$\operatorname{sim}_{SEM}$として使用する.\subsubsection*{2.対応する格の出現頻度の分布の類似度:$\boldsymbol{\operatorname{sim}_\mathit{DIST}}$}類似度$\operatorname{sim}_{DIST}$は対応する格同士の出現頻度の分布は似ているという仮定に基づく指標であり,以下のようにベクトル$(|C_{1,1}|,|C_{1,2}|,\dots,|C_{1,N}|)$とベクトル$(|C_{2,a(1)}|,|C_{2,a(2)}|,\dots,|C_{2,a(N)}|)$の余弦類似度として定義する.\[\operatorname{sim}_{_{DIST}}(A)=\cos((|C_{1,1}|,\dots,|C_{1,N}|),(|C_{2,a(1)}|,\dots,|C_{2,a(N)}|))\]\begin{exe}\ex{\footnotesize\textbf{「選ばれる」の格フレーム1:}}\label{EX::ERABA}\sn\{選手:1119,作品:983,私:232,…\}{\footnotesize[用例数合計:17722]}\textbf{が}\sn\{代表:18295,選手:9661,百選:7024,…\}{\footnotesize[用例数合計:122273]}\textbf{に}\sn\{作品:5,市長:3,選手:2,…\}{\footnotesize[用例数合計:96]}\textbf{を}選ばれる\ex{\footnotesize\textbf{「選ぶ」の格フレーム13:}}\label{EX::ERABU}\sn\{私:22,先生:18,誰:14,…\}{\footnotesize[用例数合計:382]}\textbf{が}\sn\{優秀賞:42,シングル:17,自由曲:17,…\}{\footnotesize[用例数合計:800]}\textbf{に}\sn\{曲:16666,作品:9967,漫画:3820,…\}{\footnotesize[用例数合計:33338]}\textbf{を}選ぶ\end{exe}例として,(\ref{EX::ERABA})に示す「選ばれる」の格フレーム1を(\ref{EX::ERABU})に示す「選ぶ」の格フレーム13に対応付ける場合を考える.対応する格の用例集合間の意味的な類似度$\operatorname{sim}_{SEM}$を計算すると\mbox{\{ガ格$\rightarrow$}ニ格,ニ格$\rightarrow$ガ格,ヲ格$\rightarrow$ヲ格\}という対応付け$A_1$の方が,\{ガ格$\rightarrow$ヲ格,ニ格$\rightarrow$ニ格,ヲ格$\rightarrow$NIL,NIL$\rightarrow$ガ格\}という対応付け$A_2$よりも高いスコアとなる.しかし,対応する格の出現頻度の分布の類似度を計算すると,前者は$(17722,122273,96)$と$(800,382,33338)$の余弦類似度,後者は$(17722,122273,96,0)$と$(33338,800,0,382)$の余弦類似度となり,以下に示すとおり後者の方がはるかに大きな値となることから,$\operatorname{sim}_{SEM}$だけでなく$\operatorname{sim}_{DIST}$も考慮することで,最終的に後者の対応付けの方が優先して選択されるようになる\footnote{ただし,「選ばれる」の格フレーム1のヲ格は尊敬の意味で使用された「選ばれる」の用例から生成されたものであり,「選ぶ」の格フレーム13のヲ格と対応付けることは必ずしも誤りとは言えない.この点については\ref{SEC::EVAL}節で考察する.}.\newpage\begin{gather*}\operatorname{sim}_{_{DIST}}(A_1)=\cos((17722,122273,96)(800,382,33338))\approx0.016\\\operatorname{sim}_{_{DIST}}(A_2)=\cos((17722,122273,96,0),(33338,800,0,382))\approx0.167\end{gather*}\subsubsection*{3.格交替パターンの起こりやすさ:$\boldsymbol{f_{pp}}$}格交替パターンの起こりやすさも重要な手掛りとなると考えられる.たとえば,村田ら\cite{Murata2008}が受身文から能動文への変換における格助詞の変換実験に使用したデータ\footnote{NICT格助詞変換データVersion1.0:http://alaginrc.nict.go.jp/case/src/kaku1.0.tar.gz}では,受身形におけるガ格の96.47\%が能動形ではヲ格となっているのに対し,受身形におけるニ格のうち能動形でガ格となるものは27.38\%となっており,交替パターンにより起こりやすさが異なることが分かる.そこで本研究では,以下の式により定義される格交替パターンの選好$f_{pp}$を対応付けの手掛かりとして考慮する.\begin{equation}f_{_\mathit{PP}}(A)=w(ガ\rightarrowc_\mathit{ga\_to})\timesw(c_\mathit{to\_ga}\rightarrowガ),\label{EQ::SP}\end{equation}ここで,$c_\mathit{ga\_to}$は出現形のガ格が対応付けられる能動形の格,$c_\mathit{to\_ga}$は能動形のガ格に対応付けられる出現形の格を表しており,$w(c_1\rightarrowc_2)$は出現形の$c_1$格が能動形で格が交替し$c_2$格となる度合いを表す.$w(c_1\rightarrowc_2)$は大きいほどその格交替が発生しやすいことを表し,その値は格交替の正解がタグ付けされたデータを開発データとして用い決定する.ここで,出現形のガ格,または,能動形のガ格を含む格交替のみを考慮しているのは,\ref{SEC::PATTERN}節で述べたように,本研究で対象とする受身形・使役形から能動形への格構造変換ではこれら以外の格が交替することは基本的にないためである. \section{自動獲得した対応付け知識の評価} \label{SEC::EVAL}本節では実験により提案手法の有効性を確認する.具体的には,提案手法を用いて自動獲得した受身・使役形の格フレームと能動形の格フレームの対応付け知識が,受身・使役文から能動文への変換における格交替を推定するタスクにおいて有用であることを示すことにより,提案手法の有効性を確認する.\subsection{評価方法の概要}\label{SEC::EVA_ABS}\ref{SEC::FRAME}節で述べたように,本研究で使用する大規模格フレームはコーパスから自動構築されたものであるため,同じ用法の格フレームが複数構築されている場合や,複数の用法が混在した格フレームが含まれている場合がある.このため,対応付け知識そのものを定量的に評価するのは難しい.たとえば,(\ref{EX::FRAME6})に示す「誘われる」の格フレーム4のニ格には能動主体を表す用例と招致先を表す用例が混在しているため,仮にこの格フレームのニ格が\ref{SEC::FRAME}節に示した「誘う」の格フレーム1のガ格に対応付けられたとしても,それが正しいかどうかは一概には言えない.同様に,\ref{SEC::PROPOSED}節の(\ref{EX::ERABA})に示した「選ぶ」の格フレーム1のヲ格は,尊敬の意味で使用された「選ばれる」の用例から生成されたものであり,仮にこの格が(\ref{EX::ERABU})に示した「選ぶ」の格フレーム13のヲ格と対応付けられたとしても必ずしも誤りとは言えない.そこで本研究では,格フレームの対応付け結果そのものを評価するのではなく,自動獲得された対応付け知識の実タスクにおける有用性を示すことで,提案手法の有効性を確認する.\begin{exe}\ex{\footnotesize\textbf{「誘われる」の格フレーム4:}}\label{EX::FRAME6}\sn\{私:2,主人公:1,友達:1,妹:1,女の子:1,…\}\textbf{が}\sn\{姉:8,展示会:7,娘:6,説明会:6,皆:6,…\}\textbf{に}誘われる\end{exe}具体的には,受身・使役文から能動文への変換における格交替を推定するタスクを考える.すわなち,たとえば(\ref{EX::TOMO})のような受身文が入力された場合に,受身文におけるガ格,ニ格がそれぞれ能動文ではヲ格,ニ格として表されることを推定するタスクを考え,格フレームの対応付け知識を用いることで推定精度が向上することを示す.\begin{exe}\ex友達\underline{が}食事\underline{に}誘われた.\label{EX::TOMO}\end{exe}\subsection{実験に使用するデータ}\label{SEC::DATA}実験にはNICT格助詞変換データVersion1.0を使用する.このデータは村田ら\cite{Murata2002,Murata2008}が実験に使用したデータであり,京都大学テキストコーパス\cite{TAG}の社説を除く約2万文において,受身形または使役形で出現した述語に係る格助詞を1事例として,述語を能動形に変換した場合の格を人手で付与したデータとなっている.ただし,受身形と能動形の格フレームの対応付け知識,使役形と能動形の格フレームの対応付け知識をそれぞれ適切に評価できるように,以下に述べるような変更・抜粋を行った上で使用する.まず,受身文と能動文の変換実験のデータとしては,基本的にNICT格助詞変換データに含まれる``受身文の能動文への変換における格助詞変換データ''\cite{Murata2008}を使用する.ただし,村田らの実験設定では持ち主の受身文においてガ格で表される名詞の能動文における格としてノ格を認めておらず,カラ格またはヲ格となっているため,持ち主の受身文のガ格と考えられる5事例の変換後の格をノ格に変更した.また,それ以外にも誤っていると考えられる16事例に修正を加えて使用した.本データは,受身文に出現した格助詞をそれぞれ1つの事例とし全部で3,576事例からなっている.村田らはこのデータを1,788個ずつに分け,それぞれクローズドデータ,オープンデータと呼んでいる.本研究でも村田らと同様に分割し,評価の際には2分割交差検定を行う.また,このデータの一部には複数の格が正解として付与されている事例があるが,本研究では正解として付与されている格のうち1つ,または,その両方を出力できれば正解とみなすという評価基準を採用する.これは村田らの論文\cite{Murata2008}における評価Bに相当する.使役文と能動文の変換実験のデータとしては,基本的にNICT格助詞変換データに含まれる\mbox{``使}役文・受身文の能動文への変換における格助詞変換データ''\cite{Murata2002}の全4,671事例から使役文に出現した524事例を抜き出して使用する.ただし,「退学させられた」などの使役受身文については,通常の使役文と格交替の起こり方が異なるため524事例には含めなかった.受身文と能動文の変換実験のデータの場合と同様に,もともと付与されている格が誤っていると考えられる39事例に修正を加え,評価の際には2分割交差検定を行う.\subsection{実験設定}\subsubsection{考慮する格の交替パターン}\ref{SEC::PATTERN}節で行った分析に基づき,受身形格フレームと能動形格フレームの格交替のパターンとしては以下の組み合わせのみを考慮する.\begin{itemize}\item受身形のガ格の対応先の候補:ヲ格,ニ格,ノ格,対応なし(NIL)\item能動形のガ格の対応先の候補:ニ格,ニヨッテ格,カラ格,デ格,対応なし(NIL)\end{itemize}これらの各候補は表\ref{TABLE::ALG}の3行目の$c_\mathit{ga\_to}$,および,4行目の$c_{to\_ga}$の候補となる.ただし,一方の格フレームの複数の格が,もう一方の格フレームの1つの格に対応付けられるような交替パターンは認めない.同様に,使役形格フレームと能動形格フレームの格の交替パターンとしては以下の組み合わせのみを考慮する.\begin{itemize}\item使役形のガ格の対応先の候補:対応なし(NIL)\item能動形のガ格の対応先の候補:ニ格,ヲ格\end{itemize}\subsubsection{正解データの使用方法}正解が付与されたデータを格交替推定時にどのように使用するかについては,正解データを使用しない,開発データとして使用する,開発データ・学習データとして使用する,という3つの設定を用いる.以下ではそれぞれの設定について詳述する.\paragraph{正解データを使用しない}格交替推定に正解データを使用しない場合は,使用できる開発データがないことになるため\ref{SEC::PROPOSED}節の式(\ref{EQ::SCORE})の$\alpha$,および,$f_\mathit{pp}$はいずれも1に固定し,以下の式が最大となる組み合わせを,格フレームの対応付け結果として出力する.\[\mathit{score}=\operatorname{sim}_{_\mathit{SEM}}(A)\times\operatorname{sim}_{_\mathit{DIST}}(A)\]その上で,得られた対応付け知識を用い,以下の手順で能動形における格の推定を行う.\begin{enumerate}\item格フレームに基づく構文・格解析器であるKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}\hspace{-0.2em}を用いて入力文の格解析を行う\footnote{KNPで使用する格フレームには受身・使役形と能動形の対応付けに用いたものと同一の格フレームを使用した.}.KNPは格解析を行う際,入力文中の各動詞に対し,その出現形の格フレームの集合の中から適切な格フレームを1つ選択し,その動詞に係る項と格スロットの対応付けを行う.\item格フレームの対応付け情報を利用し,受身・使役文の格を能動文における格に変換する.この際,出現格がニ格であった場合でも,格解析の結果,時間格や修飾格に対応付けられている場合は,格変換を行わない.\end{enumerate}本論文ではこのモデルを\textbf{モデル1}と呼ぶ.たとえば,\ref{SEC::EVA_ABS}節に示した文(\ref{EX::TOMO})が入力され,さらに,「誘われた」のガ格,および,ニ格がそれぞれ\ref{SEC::PROPOSED}節の図\ref{FIG::TaskDef}に示した受身形「誘われる」の格フレーム2のガ格,ニ格にそれぞれ割り当てられたとすると,これらの格はそれぞれ能動形「誘う」の格フレーム1のヲ格,ニ格に対応付けられていることから,能動文における格はそれぞれヲ格,ニ格であると出力される.\paragraph{開発データとして使用}続いて\ref{SEC::PROPOSED}節の式(\ref{EQ::SCORE})の$\alpha$,および,$f_{pp}$の値の調整に正解データを使用する場合について説明する.この実験設定では,\ref{SEC::DATA}節で説明したように正解データを2分割し,一方を開発データ,もう一方をテストデータとした実験を,データの役割を入れ替え2度繰り返す.式(\ref{EQ::SP})中の$w(ga\rightarrowc_\mathit{ga\_to})$,$w(c_\mathit{to\_ga}\rightarrowga)$,および,式(\ref{EQ::SCORE})中の$\alpha$は山登り法により決定する.具体的には,たとえば,受身形と能動形の格フレームの対応付けを行う際は,$c_\mathit{ga\_to}$の候補はニ格,ニヨッテ格,カラ格,または,対応なし(NIL),$c_\mathit{to\_ga}$の候補は,ヲ格,ニ格,ノ格,対応なし(NIL)であることから,以下のようなパラメータベクトル$\mathbf{x}$を定義し,表\ref{TABLE::TUNE}に示すアルゴリズムにより値を決定する.\begin{align*}\mathbf{x}&=(w(ガ\rightarrowニ),w(ガ\rightarrowニヨッテ),w(ガ\rightarrowカラ),w(ガ\rightarrowデ),w(ガ\rightarrow\operatorname{NIL}),\\&\quadw(ヲ\rightarrowガ),w(ニ\rightarrowガ),w(ノ\rightarrowガ),w(\operatorname{NIL}\rightarrowガ),\alpha)\end{align*}ここで,表\ref{TABLE::TUNE}中の$f_{accuracy}(\mathbf{x})$は,あるパラメータベクトル$\mathbf{x}$が与えられた場合に,その$\mathbf{x}$の値を用いて格フレームの対応付けを行い,その結果を開発データに適用し得られた格変換の精度を返す関数である.このアルゴリズムはパラメータを1つずつ順に0.1刻みで更新していき,$f_\mathit{accuracy}(\mathbf{x})$が大きくなるようにパラメータを更新していくという手順を,$f_\mathit{accuracy}(\mathbf{x})$の値に変化がなくなるまで繰り返す山登り法に基づくアルゴリズムとなっている.本実験設定では,開発データを利用し最終的に得られたパラメータを用いて格フレームの対応付けを行い,得られた対応付け知識を用いてモデル1と同様の手順で能動形における格の推定を行う.本論文では,このモデルを\textbf{モデル2}と呼ぶ.\begin{table}[b]\caption{パラメータベクトルの調整アルゴリズム}\label{TABLE::TUNE}\input{05table02.txt}\end{table}\paragraph{開発データ・学習データとして使用}開発データとして使用したデータを学習データとしても使用し格交替の推定モデルを生成する.学習の方法は基本的にSVMに基づく村田ら\cite{Murata2002,Murata2008}と同様の方法で行い,モデル2の手法による格の推定結果を新たに素性として追加する.使用した素性の詳細については次節以降で説明する.本論文では,このモデルを\textbf{モデル3}と呼ぶ.\subsection{受身文と能動文の変換実験}\subsubsection{学習データを使用しない場合(モデル1・モデル2)}\begin{table}[b]\caption{受身文から能動文への変換における格交替推定実験の結果(学習データを使用しない場合)}\label{TABLE::RESULT1}\input{05table03.txt}\end{table}正解データを学習データとして使用しない設定における受身文から能動文への変換における格交替推定実験の結果を表\ref{TABLE::RESULT1}に示す.ベースラインとしては村田ら\citeyear{Murata2008}と同様に,各格助詞ごとに最も頻度の高い変換後の格を出力する方法(最頻変換)を使用した.最頻変換の結果が村田らの報告にある0.882より高くなっているが,これはデータに修正を加えたためである.また,対応する格の用例集合の意味的な類似度$\operatorname{sim}_{_\mathit{SEM}}$と,対応する格の出現頻度の分布の類似度$\operatorname{sim}_{_\mathit{DIST}}$,それぞれの効果を確認するため,それぞれ片方だけ使用した場合の実験も行った.表~\ref{TABLE::RESULT1}では,モデル1,モデル2の設定でそれぞれ$\operatorname{sim}_{_\mathit{SEM}}$だけを用いたモデルをモデル1$_S$,モデル2$_S$,$\operatorname{sim}_{_\mathit{DIST}}$だけを用いたモデルをモデル1$_D$,モデル2$_D$として示している.モデル1$_S$,モデル1はいずれも開発データも学習データも使用しないモデルであるが,マクネマー検定\cite{McNemar1947}の結果,最頻変換の精度との間には有意な差\footnote{本論文における実験では特に断りがない限り有意水準として0.01を用いた.}があることが確認できた.一方,モデル1$_S$とモデル1の精度の間には有意な差は確認できず,これらの結果からは対応する格の出現頻度の分布の類似度$\operatorname{sim}_{_\mathit{DIST}}$を対応付けの手掛りとして利用することの有効性は確認できなかった.モデル2$_S$,モデル2$_D$,モデル2はいずれも開発データを用いてパラメータ調整を行うモデルである.モデル1とモデル2の精度の差は有意であり,パラメータ調整を行うことが有効であることが確認できた.また,モデル2$_S$とモデル2,モデル2$_D$とモデル2の差もそれぞれ有意であり,$\operatorname{sim}_{_\mathit{SIM}}$と$\operatorname{sim}_{_\mathit{DIST}}$,いずれの手掛かりも格フレームの対応付けの手掛かりとして有用であることが確認できた.モデル2を用いた場合の$\operatorname{sim}_{_\mathit{SIM}}$と$\operatorname{sim}_{_\mathit{DIST}}$の寄与度を制御するパラメータである$\alpha$の値は2分割交差検定のいずれに対しても0.3であった.\subsubsection{学習データを使用する場合(モデル3)}続いて,正解データを学習データとして使用した場合の格交替推定精度を村田らの手法\cite{Murata2008}を用いた場合の精度とともに表\ref{TABLE::RESULT2}に示す.また,実際に使用した素性を表\ref{TABLE::FEATURES}に示す.F1からF32までは村田らが使用した素性\cite{Murata2008}と同じであり,F33のみが新たに追加した素性である.表\ref{TABLE::RESULT2}に示した結果からモデル2の出力を素性として追加することで格の推定精度が向上することが確認できる.また,検定の結果この差は有意なものであることが確認された.\begin{table}[b]\caption{受身文から能動文への変換における格交替推定実験の結果(学習データを使用する場合)}\label{TABLE::RESULT2}\input{05table04.txt}\end{table}表\ref{TABLE::FEATURES}に示した素性の一部は人手で作成された語彙知識に基づいている.具体的には,F15,F22,F23,F24,F26は近藤ら\cite{Kondo2001}によって作成されたVDIC辞書に基づく素性(以下ではVDIC素性と呼ぶ),F16,F17,F18,F19,F20,F21はIPAL基本動詞辞書\cite{IPAL}に基づく素性(以下ではIPAL素性と呼ぶ),F4,F7,F9,F12は分類語彙表\cite{BGH1964}に基づく素性(以下ではBGH素性と呼ぶ)となっている.本研究で獲得した語彙知識はこれらの語彙知識に相当する知識となっていると考えられることから,これらの素性を除いた場合の精度の調査も行った.結果を表\ref{TABLE::RESULT3}に示す.\begin{table}[t]\caption{受身文から能動文への変換における格交替推定に使用した素性}\label{TABLE::FEATURES}\input{05table05.txt}\end{table}VDIC素性,IPAL素性については,村田らのモデル\cite{Murata2008},対応付け知識に基づくモデル3,いずれのモデルに対しても,使用しないことによる精度の低下は確認できなかった.一方,BGH素性については,村田らのモデル\cite{Murata2008}から除いた場合は精度が低下したのに対し,対応付け知識に基づくモデル3から除いても精度の低下は確認できなかった.このことから,格フレームの対応付けによって得られる語彙知識は分類語彙表から得られる知識をカバーしていると考えられる.以上の分析から,自動獲得した語彙知識が使用できる場合,人手で作成した語彙知識の有用性は限定的であると言える.実際,人手で作成した語彙知識に基づく素性をすべて除いて格交替の推定実験を行ったところ0.960という高い精度が得られた.\begin{table}[b]\caption{人手で作成された語彙知識を用いなかった場合の精度}\label{TABLE::RESULT3}\input{05table06.txt}\end{table}\subsection{使役文と能動文の変換実験}\subsubsection{学習データを使用しない場合(モデル1・モデル2)}正解データを学習データとして使用しない設定における使役文から能動文への変換における格交替推定実験の結果を表\ref{TABLE::RESULTS1}に示す.ベースラインとしては,受身文からの変換の場合と同様に,各格助詞ごとに最も頻度の高い変換後の格を出力する方法(最頻変換)を使用し,対応する格の用例集合の意味的な類似度$\operatorname{sim}_{_\mathit{SEM}}$と,対応する格の出現頻度の分布の類似度$\operatorname{sim}_{_\mathit{DIST}}$,それぞれ片方だけを使用した実験も行った.\begin{table}[b]\caption{使役文から能動文への変換における格交替推定実験の結果(学習データを使用しない場合)}\label{TABLE::RESULTS1}\input{05table07.txt}\end{table}受身文の変換の場合と異なりパラメータ調整を行わなかった場合は最頻変換と同等または低い精度となった.一方,パラメータ調整を行った場合は,モデル2$_S$,モデル2$_D$,モデル2,いずれについても最頻変換より良い精度となった.ただし,マクネマー検定におけるp値がもっとも小さくなった最頻変換とモデル2$_D$の間の差に対しても,有意水準0.05では有意性を確認できたものの,有意水準0.01では有意性を確認できなかった.しかし,受身形の変換の場合とほぼ同様に格交替の推定精度は上昇幅は約0.05であり,有意水準0.01で有意性が確認できなかったのは事例数が少なかったことが主な要因であると考えられる.本実験結果において,受身文の変換の場合と大きく異なる点は,対応する格の用例集合の意味的な類似度$\operatorname{sim}_{_\mathit{SEM}}$を用いることの効果が確認できなかった点である.実際,もっとも高い精度となったのは類似度として$\operatorname{sim}_{_\mathit{DIST}}$のみを用い,パラメータ調整を行ったモデル2$_D$であった.\subsubsection{学習データを使用する場合(モデル3)}続いて,正解データを学習データとして使用する設定における使役文から能動文への変換における格交替推定実験の結果を村田らの手法\cite{Murata2002}を用いた場合の精度とともに表\ref{TABLE::RESULTS2}に示す.また,実際に使用した素性を表\ref{TABLE::FEATURES2}に示す.\begin{table}[b]\caption{使役文から能動文への変換における格交替推定実験の結果(学習データを使用する場合)}\label{TABLE::RESULTS2}\input{05table08.txt}\end{table}\begin{table}[b]\caption{使役文から能動文への変換における格交替推定に使用した素性}\label{TABLE::FEATURES2}\input{05table09.txt}\end{table}本実験では基本的に村田らが使用した素性\cite{Murata2002}を使用し,獲得した語彙知識の有用性を確認するため新たに素性F9を追加している.ただし,受身形の変換の場合に倣い,動詞の単語の分類語彙表の分類番号の1,2,3,4,5,7桁までの数字を素性に追加したところ変換精度が向上したことから,動詞の単語の分類語彙表の分類番号に関する情報だけは新たに素性F3として追加しており\footnote{受身文の変換で使用した他の素性も有効である可能性があるが,本実験の目的は基本的に素性F9の効果を確認することであることから,他の素性が本実験において有効かどうかの確認は行っていない.},表\ref{TABLE::RESULTS2}に示した精度は村田らの手法も含めすべて素性F3を使用した場合の精度である.また,表\ref{TABLE::RESULTS2}中のモデル3$_D$は,学習データを使用しない設定ではモデル2$_D$がもっとも高い精度であったことから,モデル2$_D$の出力結果を素性F9として使用したモデルである.モデル3,モデル3$_D$ともに,自動獲得した語彙知識を用いない村田らのモデルより有意に高い精度を達成しており,使役文から能動文への変換における格交替推定においても,格フレームの対応付けによって得られた語彙知識が有用であることが確認できた.ただし,受身文の変換の場合とは異なり,分類語彙表に基づく素性であるF3,F6を除いた場合,格交替の推定精度は低下した.\subsection{格フレームの対応付けの例と既知の問題点}表\ref{TABLE::NAGURU}に正しく受身形格フレームと能動形格フレームが対応付けられた例を示す.この例では持ち主の受身文から生成されたと考えられる受身形「殴られる」の格フレーム2のニヨッテ格,ガ格,ヲ格,デ格がそれぞれ,能動形「殴る」の格フレーム2のガ格,ノ格,ヲ格,デ格に対応付けられており,この知識を用いることにより,入力テキスト中の「殴られ」のガ格は能動文ではノ格となり,デ格,ヲ格については能動文においてもデ格,ヲ格のままであると解析できるようになる.\begin{table}[b]\caption{受身形格フレームと能動形格フレームの対応付けの例}\label{TABLE::NAGURU}\input{05table10.txt}\end{table}同様に,表\ref{TABLE::HOSSOKU}に正しく使役形格フレームと能動形格フレームが対応付けられた例を示す.この例では能動主体がヲ格となっていると考えられる使役形「発足させる」の格フレーム1のヲ格,ニ格がそれぞれ,能動形「発足する」の格フレーム2のガ格,ニ格に対応付けられ,ガ格は対応なしとなっている.この知識を用いることにより,入力テキスト中の「発足させ」のガ格は能動文では出現せず,ヲ格については能動文においてはガ格となると解析できるようになる.\begin{table}[t]\caption{使役形格フレームと能動形格フレームの対応付けの例}\label{TABLE::HOSSOKU}\input{05table11.txt}\end{table}一方,格フレームの対応付けおよび格交替推定に関する既知の問題点としては以下の4つが挙げられる.まず,格フレーム構築法に関する問題点として,複数のニ格を取る受身形格構造・使役形格構造を考慮していないという点が挙げられる.受身形および使役形の場合,それぞれ(\ref{EX::NINI1}),(\ref{EX::NINI2})のように,能動主体を表すニ格と,能動形ニ格の2つのニ格を取る場合があるが,このような格構造を考慮して格フレームを構築していないため,このような文が入力された場合に適切な解析を行えない.\begin{exe}\ex彼\underline{に}家\underline{に}帰られる.\label{EX::NINI1}\ex彼\underline{に}東京\underline{に}行かせる.\label{EX::NINI2}\end{exe}また,受身形格フレームの構築法に関する問題点として,受身とそれ以外の意味,すなわち,尊敬,自発,可能の意味で使用された「れる/られる」を区別していないという点が挙げられる.その結果,たとえば(\ref{EX::KOKU})のように尊敬の意味で「れる」が使用された文から,本来,ヲ格を持たないはずの「選ばれる」の受身形格フレームにヲ格が生成されてしまい,格フレームの対応付けを行おうとした際に,適切な対応付けが行えなくなってしまう場合がある.\begin{exe}\ex国王がこの作品を選ばれた.\label{EX::KOKU}\end{exe}格フレームの対応付け法の問題点としては,格フレーム中の複数の格スロットが同一の意味内容を表している場合を考慮していないことが挙げられる.たとえば,(\ref{EX::SAIYO})に示すように「採用される」の能動主体はニ格,ニヨッテ格,カラ格の3つの格で表すことができるため,「採用される」の格フレームはこれらの格を持っている.しかし,受身形格フレームの複数の格が能動主体を表す場合であっても,受身形と能動形の格フレームの対応付けを行う際はそれぞれの格フレームの格の1対1の対応付けしか考慮していないため,これらの格すべてを能動形のガ格と対応付けることができない.\begin{exe}\ex福岡県[に/によって/から]採用された.\label{EX::SAIYO}\end{exe}さらに,KNPによる解析において適切な格フレームが選択されなかったために,正しい格交替を推定できない場合がある.たとえば,(\ref{EX::NOMIYA})のような文が入力されると,\ref{SEC::FRAME}節の(\ref{EX::FRAME1})に示した「誘われる」の格フレーム1のようにニ格が能動主体を表している格フレームが選択されるべきであると考えられるが,実際には(\ref{EX::FRAME2})に示した「誘われる」の格フレーム2のようにニ格が誘致先を表す格フレームが選択されてしまうため,本来,能動文においてはガ格となるべき格が,ニ格のままであると出力されてしまう.\begin{exe}\ex花見の席で野宮\underline{に}誘われた.\label{EX::NOMIYA}\end{exe} \section{おわりに} 本論文では,Webから自動構築した大規模格フレームと,人手で記述した少数の受身形・使役形と能動形の格の交替パターンを組み合わせることで,受身形・使役形と能動形の表層格の対応付けに関する知識を自動獲得する手法を提案した.また,獲得した知識を受身文・使役文の能動文への変換における格交替推定に利用することにより,その有用性を示した.今後の方向性としては,他の対応する格フレーム間,たとえば,授受動詞間や自他動詞間の格フレームの対応付けを行うことが考えられる.本論文で提案した手法は基本的に学習データを必要としないことから,考えうる格の交替パターンさえ記述できれば自動的に対応を取ることが可能である.また,本論文では受身文・使役文において格助詞が明示された項のみを格変換の対象としているが,今後は提題助詞の使用や,被連体修飾要素としての出現,ゼロ代名詞化などにより格が明示されていない場合も解析の対象とすることが考えられる.\acknowledgmentゼロ照応解析システム\cite{Iida2009}を提供していただいた情報通信研究機構の飯田龍氏,格助詞変換データを公開してくださいました鳥取大学の村田真樹氏,情報通信研究機構の鳥澤健太郎氏に感謝いたします.また,本研究の一部はJSPS科研費23800025,25730131の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baldwin\BBA\Tanaka}{Baldwin\BBA\Tanaka}{2000}]{Baldwin2000}Baldwin,T.\BBACOMMA\\BBA\Tanaka,H.\BBOP2000\BBCP.\newblock\BBOQVerbAlternationsand{J}apanese--How,WhatandWhere?\BBCQ\\newblockIn{\BemProceedingsofPACLIC14},\mbox{\BPGS\3--14}.\bibitem[\protect\BCAY{Baroni\BBA\Lenci}{Baroni\BBA\Lenci}{2010}]{Baroni2010}Baroni,M.\BBACOMMA\\BBA\Lenci,A.\BBOP2010\BBCP.\newblock\BBOQDistributionalMemory:AGeneralFrameworkforCorpus-BasedSemantics.\BBCQ\\newblock{\BemComputationalLinguistic},{\Bbf36}(4),\mbox{\BPGS\673--721}.\bibitem[\protect\BCAY{林部祐太\JBA小町守\JBA松本裕治}{林部祐太\Jetal}{2014}]{Hayashibe2014}林部祐太\JBA小町守\JBA松本裕治\BBOP2014\BBCP.\newblock述語と項の位置関係ごとの候補比較による日本語述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf21}(1),\mbox{\BPGS\3--26}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007a}]{Iida2007T}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007a\BBCP.\newblock\BBOQZero-AnaphoraResolutionbyLearningRichSyntacticPatternFeatures.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf6},\mbox{Article12}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2009}]{Iida2009}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQCapturingSaliencewithaTrainableCacheModelforZero-anaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofACL-IJCNLP'09},\mbox{\BPGS\647--655}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007b}]{Iida2007}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007b\BBCP.\newblock\BBOQAnnotatinga{J}apaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsofACL'07Workshop:LinguisticAnnotationWorkshop},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{im~Walde,Hying,Scheible,\BBA\Schmid}{im~Waldeet~al.}{2008}]{Walde2008}im~Walde,S.S.,Hying,C.,Scheible,C.,\BBA\Schmid,H.\BBOP2008\BBCP.\newblock\BBOQCombining{EM}Trainingandthe{MDL}PrincipleforanAutomaticVerbClassificationIncorporatingSelectionalPreferences.\BBCQ\\newblockIn{\BemProceedingsofACL-HLT'08},\mbox{\BPGS\496--504}.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{Imamura2009s}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofACL-IJCNLP'09},\mbox{\BPGS\85--88}.\bibitem[\protect\BCAY{Joanis,Stevenson,\BBA\James}{Joaniset~al.}{2008}]{Joanis2008}Joanis,E.,Stevenson,S.,\BBA\James,D.\BBOP2008\BBCP.\newblock\BBOQAGeneralFeatureSpaceforAutomaticVerbClassification.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf14}(3),\mbox{\BPGS\337--367}.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1996}]{IPAL}情報処理振興事業協会技術センター\BBOP1996\BBCP.\newblock計算機用日本語基本動詞辞書{IPAL}.\bibitem[\protect\BCAY{Kameyama}{Kameyama}{1986}]{Kameyama1986s}Kameyama,M.\BBOP1986\BBCP.\newblock\BBOQAProperty-sharingConstraintinCentering.\BBCQ\\newblockIn{\BemProceedingsofACL'86},\mbox{\BPGS\200--206}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara2005}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{河原\JBA笹野\JBA黒橋\JBA橋田}{河原\Jetal}{2005}]{TAG}河原大輔\JBA笹野遼平\JBA黒橋禎夫\JBA橋田浩一\BBOP2005\BBCP.\newblock\Jem{格・省略・共参照タグ付けの基準}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{BGH1964}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{近藤\JBA佐藤\JBA奥村}{近藤\Jetal}{2001}]{Kondo2001}近藤恵子\JBA佐藤理史\JBA奥村学\BBOP2001\BBCP.\newblock格変換による単文の言い換え.\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(3),\mbox{\BPGS\465--477}.\bibitem[\protect\BCAY{Lapata\BBA\Brew}{Lapata\BBA\Brew}{2004}]{Lapata2004CL}Lapata,M.\BBACOMMA\\BBA\Brew,C.\BBOP2004\BBCP.\newblock\BBOQVerbClassDisambiguationusingInformativePriors.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(1),\mbox{\BPGS\45--73}.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{Levin1993}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishVerbClassesandAlternations:APreliminaryInvestigation}.\newblockUniversityofChicagoPress.\bibitem[\protect\BCAY{Li\BBA\Brew}{Li\BBA\Brew}{2008}]{Li2008}Li,J.\BBACOMMA\\BBA\Brew,C.\BBOP2008\BBCP.\newblock\BBOQWhichAretheBestFeaturesforAutomaticVerbClassification.\BBCQ\\newblockIn{\BemProceedingsofACL-HLT'08},\mbox{\BPGS\434--442}.\bibitem[\protect\BCAY{McNemar}{McNemar}{1947}]{McNemar1947}McNemar,Q.\BBOP1947\BBCP.\newblock\BBOQNoteontheSamplingErroroftheDifferencebetweenCorrelatedProportionsorPercentages.\BBCQ\\newblock{\BemPsychometrika},{\Bbf12},\mbox{\BPGS\153--157}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2002}]{Murata2002}村田真樹\JBA井佐原均\BBOP2002\BBCP.\newblock受け身/使役文の能動文への変換における機械学習を用いた格助詞の変換.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会報告2002-NL-149},\mbox{\BPGS\39--44}.\bibitem[\protect\BCAY{村田\JBA金丸\JBA白土\JBA井佐原}{村田\Jetal}{2008}]{Murata2008}村田真樹\JBA金丸敏幸\JBA白土保\JBA井佐原均\BBOP2008\BBCP.\newblock入力文の格助詞ごとに学習データを分割した機械学習による受身文の能動文への変換における格助詞の変換.\\newblock\Jem{システム制御情報学会論文誌},{\Bbf21}(6),\mbox{\BPGS\165--175}.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2002}]{Nariyama2002s}Nariyama,S.\BBOP2002\BBCP.\newblock\BBOQGrammarforEllipsisResolutioninJapanese.\BBCQ\\newblockIn{\BemProceedingsofTMI'02},\mbox{\BPGS\135--145}.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2009}]{GendaiNihongo4}日本語記述文法研究会\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語文法2,第4部ヴォイス},\mbox{\BPGS\207--298}.\newblockくろしお出版.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{NTT}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2011}]{Sasano2011}笹野遼平\JBA黒橋禎夫\BBOP2011\BBCP.\newblock大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3328--3337}.\bibitem[\protect\BCAY{柴田\JBA黒橋}{柴田\JBA黒橋}{2009}]{Shibata2009}柴田知秀\JBA黒橋禎夫\BBOP2009\BBCP.\newblock超大規模ウェブコーパスを用いた分布類似度計算.\\newblock\Jem{言語処理学会第15回年次大会発表論文集},\mbox{\BPGS\705--708}.\bibitem[\protect\BCAY{Sun\BBA\Korhonen}{Sun\BBA\Korhonen}{2009}]{Sun2009}Sun,L.\BBACOMMA\\BBA\Korhonen,A.\BBOP2009\BBCP.\newblock\BBOQImprovingVerbClusteringwithAutomaticallyAcquiredSelectionalPreferences.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'09},\mbox{\BPGS\638--647}.\bibitem[\protect\BCAY{Sun,McCarthy,\BBA\Korhonen}{Sunet~al.}{2013}]{Sun2013}Sun,L.,McCarthy,D.,\BBA\Korhonen,A.\BBOP2013\BBCP.\newblock\BBOQDiathesisAlternationApproximationforVerbClustering.\BBCQ\\newblockIn{\BemProceedingsofACL'13},\mbox{\BPGS\736--741}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{Taira2008s}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQA{J}apanesePredicateArgumentStructureAnalysisusingDecisionLists.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'08},\mbox{\BPGS\523--532}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{SVM}Vapnik,V.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer.\bibitem[\protect\BCAY{吉川克正\JBA浅原正幸\JBA松本裕治}{吉川克正\Jetal}{2010}]{Yoshikawa2010}吉川克正\JBA浅原正幸\JBA松本裕治\BBOP2010\BBCP.\newblockMarkovLogicによる日本語述語項構造解析.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会報告2010-NL-199},\mbox{\BPGS\1--7}.\end{thebibliography}\begin{biography}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).京都大学大学院情報学研究科特定研究員を経て2010年より東京工業大学精密工学研究所助教.自然言語処理,特に照応解析,述語項構造解析の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,電子情報通信学会,ACL各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
V17N01-04
\section{はじめに} テキスト分類学習は,スパムメールの除去,Webコンテンツのフィルタリング,ニュースの自動分類など様々な応用分野をもつ重要な技術である.一般の分類学習と同様に,テキスト分類学習においても特徴集合の選択は学習性能を決定する重要な要素である.通常,英文であればスペースによって区切られた語,日本語文であれば形態素解析によって分割された語を特徴として用いることが多いが,このような方法では二語が連接していることの情報が欠落するので,分類に役立つ熟語・複合語などの情報を取りこぼす可能性が高い.このため,この情報についてはあきらめるか辞書から得るかしなければならない.さらにこの情報を利用する場合は言語モデルの利用やstringkernelなどの特殊なカーネルを利用することにより学習アルゴリズム側で連接を考慮するといった対応を行う必要が生じる.一方,特徴選択の方法として文を文字列と見なし,全ての部分文字列を考慮することで,連接を特徴選択の際に取り込もうとするアプローチがある.このアプローチでは,熟語・複合語を取り込むための辞書や連接を考慮した学習アルゴリズムを使用する必要がないという利点があるが,部分文字列数のオーダーはテキストデータの全文字数の2乗のオーダーという非常に大きな値となってしまうため,取捨選択してサイズを縮小する必要がある.部分文字列を考慮した特徴選択の代表的なものに,Zhangらが提案した方法がある(Zhangetal.2006).彼らはsuffixtreeを利用して,出現分布が同一または類似している文字列を一つにまとめることによって特徴集合のサイズを縮小する方法を提案した.そして,この選択方法による特徴集合とサポートベクターマシンを利用したテキスト分類実験において,連接や文字列を考慮した他の代表的な方法よりも高い性能を与えることを示した.これに対して,本研究ではすべての部分文字列を考慮する点は同じものの,反復度と呼ばれる統計量を利用して,Zhangらの方法と異なる部分文字列の選択方法を提案する.反復度は文書内で繰り返される文字列は文書内容を特徴づける上で重要な語であるという仮定に基づく統計量であり,これまでキーワード抽出などに利用されている(TakedaandUmemura2002).Zhangらの方法は部分文字列の出現分布が類似したものを一つにまとめるという操作のみを行い,選択した部分文字列の文書内容を特徴づける上での重要性は学習アルゴリズムによって決めるというアプローチであるといえるが,反復度では特徴選択時にも部分文字列の重要性を考慮しており,分類に寄与しない特徴を予め取り除く効果が期待できる.本研究では,この反復度を用いた部分文字列からの特徴選択の効果を,ニュース記事を用いた分類実験,スパムメールのデータセットを用いた分類実験において検証する.そして,ニュース記事の分類実験では,提案手法である反復度を用いた特徴抽出方法がZhangらの特徴抽出方法よりも優れた結果を示し,単語を特徴集合とする方法との間には有意差が認められなかったことを報告する.一方,スパムメールの分類実験において提案手法はZhangらの方法,単語を特徴集合とする方法よりも優れた結果を示し,有意差が確認されたことを報告する.以下,2章ではZhangらの方法について詳しく説明する.また3章では本研究で利用する反復度と交差検定によるパラメータの設定方法について説明する.4章では実験方法と実験結果について述べ,5章でその結果について考察し,6章でまとめを行う. \section{Zhangらの特徴選択方法} ここではテキスト分類における特徴選択の先行研究として,Zhangらが提案した方法について詳しく説明する.テキスト分類に用いる機械学習アルゴリズムの多くは,学習の際のデータ表現に文書ベクトルを用いるが,通常このベクトルの値として,以下のtf値,df値を元に計算したtfidfと呼ばれる値が使用される.\begin{itemize}\itemtf(t,d):文字列tが文書dに出現する頻度\itemdf(t,D):コーパスD中で文字列tが出現する文書数\itemtfidf(t,d):tfidf(t,d)=tf(t,d)$\cdot$log($\vert$D$\vert$/df(t,D))\\{\kern-0.5zw}($\vert$D$\vert$はコーパスDの文書数を表す)\end{itemize}Zhangらは,膨大な部分文字列を削り込むために出現分布が同一または類似している文字列をまとめ,上で述べた値に違いのあるものをなるべく特徴として選択するというアプローチを採用した.ここで,出現分布が同一または類似している文字列とは,ある文字列のコーパス中におけるすべての出現場所をリストにしたとき,そのリストが別の文字列が持つ出現場所リストと等しいまたは類似している文字列のことを指す.出現分布が同一な文字列はtf値とdf値について同じ値を持つため,学習において区別する必要はなく,ひとつの特徴としてまとめてしまう.具体的な手続きとしては,出現場所のリストが等しい文字列のうち,最も文字列長が短い文字列のみを代表文字列として選択する.また,出現場所のリストが厳密に等しくなくても類似していれば,そのような文字列のtf値,df値にも大きな違いは生じないため,これらの文字列をひとつの特徴にまとめても分類結果に余り影響を与えることなく,特徴集合を減らすことができると考えられる.ただし出現場所の類似性の判定には基準が必要なので,Zhangらは類似した文字列を取り除くための条件を以下のようにした.\begin{enumerate}\itemコーパス中である文字列の次に現れる文字の種類がb種類未満の文字列は特徴集合から取り除く.\itemある文字列(S$_{1}$)が現れたとき,この文字列から始まる文字列(S$_{2}$)が出現する条件付確率P(S$_{2}\vert$S$_{1})$がp以上であるならば,後者の文字列を特徴集合から取り除く.\itemある文字列(S$_{3}$)が現れたとき,この文字列で終わる文字列(S$_{4}$)が出現する条件付確率P(S$_{4}\vert$S$_{3})$がq以上であるならば,特徴集合から後者の文字列を取り除く.\end{enumerate}また,コーパス中で出現頻度が極端に多い文字列,少ない文字列は分類に寄与しないと考え,最小頻度l未満の文字列,最大頻度h以上の文字列は特徴集合から除く.以上の処理により,特徴集合の大きさを,全部分文字列を特徴集合とした場合に比べ大幅に小さくすることができる.これらの処理を行うには5つのパラメータl,h,b,pおよびqを決定する必要があるが,これらは学習文書における交差検定法によって推定する.Zhangらは以上の処理をsuffixtreeを用いて効率的に行う方法を提案し,英語,中国語およびギリシャ語のコーパスを用いてテキスト分類の実験を行ったところ,これまでに提案されてきた主な文字列ベースのテキスト分類手法,例えば,言語モデルを利用した生成アプローチ(Peng2004)やstringkernelを利用した識別アプローチ(Lodhi2001)などの方法よりも優れた性能を示したと報告している. \section{提案手法} \subsection{反復度による特徴量抽出}本研究では,出現分布が同一または類似した文字列をまとめることに加え,ある文書に偏って出現する文字列をテキスト分類の重要な特徴として残すことを考え,Zhangらが用いた手法の条件(1),(2),(3)の代わりに反復度と呼ばれる統計量を用いることによって文字列を選択する方法を提案する.反復度adapt(t,D)は,語tが出現した文書のうち,2回以上繰り返し出現している文書の割合を示す統計量で以下のように定義される.\[\text{adapt}(t,D)=\frac{\text{df}_{2}(t,D)}{\text{df}(t,D)}\]ここで,df$_{2}$(t,D)はコーパスD中の文書で,文字列tが2回以上出現する文書数を表す.表1は,ある英文中における反復度の変化の様子を示したものである.ただし,「{\_}」は空白を表す.この例では,「natural{\_}gas{\_}」に1文字追加して「natural{\_}gas{\_}s」となったときに反復度が急激に減少している様子が示されている.表1に見られるように,反復度はある境界を境にそれまでほぼ一定だった値が急激に減少する統計量であり,df/$\vert$D$\vert$で計算される出現確率とは異なり,意味的に一塊の語の境界で減少することが多いことから,キーワードの自動抽出(TakedaandUmemura2002)などに利用されている.表1の例においても,「natural{\_}gas{\_}」で語が区切られることは,その意味を考えると妥当であるといえる.提案する方法では,出現分布が等しい文字列をその代表文字列だけにまとめることはZhangらと同じであるが,2章で説明した(1),(2),(3)の条件の代わりに,以下の条件を用いる.\begin{itemize}\item反復度が最小反復度a未満の文字列は特徴集合から取り除く\end{itemize}\begin{table}[t]\caption{語の境界における反復度の変化}\input{05table01.txt}\end{table}Zhangらの(1),(2),(3)の条件を用いていないため,出現分布が類似していてもひとつにまとめず別の特徴として扱う.ただし,出現分布が等しい文字列はひとつの特徴にまとめるため,表1のような1文字ずつ増加させたような文字列が必ず選ばれるわけではなく,単語中の語幹や連語単位の文字列などを特徴集合に含めることができる(平田他2007).表1の例では,「nat」と「natu」の2つ,「natural{\_}」,「natural{\_}g」,「natural{\_}ga」の3つは出現場所のリストが等しく,統計量も同じなので,それぞれ「nat」と「natural{\_}」だけを特徴として選択する.また,「natural{\_}gas」のような連語も特徴として選択される.\subsection{交差検定法によるパラメータの設定}提案手法では,最小頻度l,最大頻度hといったパラメータに加え,最小反復度aを決定する必要があるが,本研究ではZhangらと同じく交差検定法によって推定する.交差検定法とは,未知のデータに対するモデルのパラメータを推定する方法のひとつである.本研究で用いる4分割交差検定法は,学習文書を4つのブロックに分割し,それぞれのブロックをテスト文書とし,テストに使用していない残りのブロックを学習文書に使用する.この4回のテキスト分類において最も分類性能が良くなるパラメータを最適なパラメータとして推定する.以上のように,パラメータの推定のテスト文書に学習文書とは別の文書を使用し,元の学習文書のすべての文書を順にテスト文書として使用することで,過学習を防ぐパラメータを決定することができ,学習における汎化性能の向上が期待される. \section{実験} 実験は,ニュースのトピック分類とSpam分類の2種類のタスクについて行い,それぞれのタスクについて,関連研究の手法の分類結果と反復度による特徴集合を用いた場合の分類結果の比較を行う.\subsection{ニュースのトピック分類実験}この実験には,Reuters-21578\footnote{http://www.daviddlewis.com/resources/testcollections/reuters21578/}と20newsgroups\footnote{http://people.csail.mit.edu/jrennie/20Newsgroups/}の2つの英語コーパスを使用し,各文書には前処理として,アルファベット以外の文字を空白に変換し,2文字以上空白が続く場合は空白1文字に変換するという処理を行う.テキスト分類に適用可能な分類学習器は数多くあるが,本実験では特徴選択方法の比較を行うので,適切と考えられる分類学習器について実験を行った.分類学習器にはZhangらの先行研究と同じく線形カーネルを利用したSVMを用いる.線形カーネルを利用したSVMの識別関数は次式のように表される.\[f(\mathbf{x})=\sum^{d}_{j=1}w_{j}x_{j}+b\]ここで,\textbf{x}は識別対象となる文書ベクトル,x$_{j}$は\textbf{x}の要素jの値,w$_{j}$は重みベクトル\textbf{w}の要素jの値,dは\textbf{x}の要素数,bはバイアス項である.\textbf{w}とbは学習によって決定される.我々の提案手法では,\textbf{x}の要素集合として,反復度によって特徴選択した文字列集合を用いる.また,比較対象として,2章の先行研究において説明した条件付確率によって特徴選択した文字列集合を\textbf{x}の要素集合とした方法をベースラインに用いる.また,単語を特徴集合とする方法との比較として,最小出現頻度lと最大出現頻度hで選択した単語集合を\textbf{x}の要素集合とした方法とも比較する.x$_{j}$の値は3手法ともtfidfによって計算された値を用いる.tfidfの計算式は2章で記述した式を用いる.実際のSVMの学習には,SVMツールのひとつであるSVMlight\footnote{http://svmlight.joachims.org/}を使用し,すべてデフォルトのパラメータで学習を行う.複数トピックの分類に対しては,ターゲットとするトピックに属する文書を正例,そのトピックに属さない文書を負例とした2クラスによる学習を各トピックについて行う.結果の評価には次の3つの尺度を利用する.{\allowdisplaybreaks\begin{align*}\text{適合率}&=\frac{\text{トピックに属すると分類した文書の正解文書数}}{\text{トピックに属すると分類した文書数}}\\[1zw]\text{再現率}&=\frac{\text{トピックに属すると分類した文書の正解文書数}}{\text{コーパス中の正解文書数}}\\[1zw]\text{F値}&=\frac{2\times\text{適合率}\times\text{再現率}}{\text{適合率}+\text{再現率}}\end{align*}}\subsubsection{Reuters-21578}Reuters-21578は,英語のテキスト分類の標準的なコーパスであり,先行研究でも用いられている.このコーパスのうち,「ModApte」学習・テストセットを使用し,本文のうちTITLEタグとBODYタグのついた文書を使用する.さらに,Reuter-21578の文書に含まれるトピックのうちの文書数の多い上位10トピックについてテキスト分類を行う.ただし,各文書は複数のトピックに属することがあり,その場合,正例として使用される文書は負例として同時に使用しないこととした.分類は,ひとつの文書が各トピックに対して属するか属さないかをSVMを用いて判定することによって行う.学習には,学習用文書セットの全9,603文書を使用し,テストには学習文書とは異なるテストセットの全3,299文書を使用する.表2に学習セットおよびテストセットにおける上位10トピックの正例の文書数を示す.後述の実験において,正例の文書数が少ないときに提案方法が優位であることを述べるために,このデータを示した.このコーパスに対して,次の3つの特徴集合を用いた場合のテキスト分類を行い,その結果を比較する.\begin{table}[b]\caption{学習セットの文書数}\input{05table02.txt}\end{table}\begin{itemize}\item反復度:提案手法である,反復度を用い文字列を選択した特徴集合\item条件付確率:Zhangら(ZhangandLee2006)が提案した条件付確率を用いて文字列を選択した特徴集合.ベースラインとして用いる.\item単語:スペースを区切りとした単語からなる特徴集合\end{itemize}また,各特徴集合のパラメータ設定と選択された特徴数を以下に示す.\begin{itemize}\item反復度:l=80,h=8000,a=0.3(3章参照)として7,099文字列が選択された.\item条件付確率:l=80,h=8000,b=8,p=0.8,q=0.8(2章参照)として8,438文字列が選択された.\item単語:l=10,h=8000として6,581単語が選択された.\end{itemize}条件付確率による手法のパラメータは先行研究と同様のパラメータを使用し,反復度のパラメータおよび単語の特徴選択のパラメータは学習用文書セットでの4分割交差検定法においてF値の平均が最も良くなる値を調べ決定している.ただし,文字列を特徴集合とする場合は,空白で始まる文字列は特徴集合からは除く.これは,英語の単語が空白で区切られているためである.以上の実験結果を図1,図2,図3,表3に示す.\begin{figure}[b]\begin{center}\includegraphics{17-1ia5f1.eps}\end{center}\caption{適合率}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{17-1ia5f2.eps}\end{center}\caption{再現率}\end{figure}図1および図2に注目して文字列に対する特徴選択を比較すると,トピック上位3つのearn,acqおよびmoney-fxについては条件付確率による特徴集合を用いたトピック分類との差が適合率,再現率ともにほとんどないが,これら以外の7トピックについては,反復度による特徴集合を用いたトピック分類の方が結果が良くなり,特に再現率が大きく改善された.図3,表3のF値でも同様に,上位3トピックのearn,acqおよびmoney-fxでは条件付確率を用いた場合と比べてF値はあまり変わらないが,これら以外のトピックでは反復度を用いた方が改善された.\begin{figure}[t]\begin{center}\includegraphics{17-1ia5f3.eps}\end{center}\caption{F値}\end{figure}\begin{table}[t]\caption{F値}\input{05table03.txt}\end{table}10個のトピックの内,反復度が優れた結果を出したものは8個であり,劣った結果であってもF値は0.20{\%}しか差が出ない.一方,マクロ平均ではF値に3.74{\%}の差があり,反復度の方が良い性能を示した.マイクロ平均ではF値に約1.39{\%}の差があり,反復度の方が良い性能を示した.ただし,このコーパスにおいてはearnとacqで全体の約65{\%}のドキュメントがあり,文書数が偏っている.これはこのテストセットに特殊なケースであり,カテゴリごとの平均で比較する方が実際の性能を反映すると考えられる.単語を特徴集合とした方法と比較すると,図3,表3のように,結果の優劣はトピック毎に異なる.10トピック中6トピックについては反復度による方法の方が,F値が良くなるという結果になった.F値のマクロ平均は反復度による方法と単語による方法を比較するとほぼ等しくなった.\subsubsection{20newsgroups}20newsgroupsは20のトピックに属する文書からなる.分類は,Reuters-21578と同様にひとつの文書が各トピックに属するか属さないかをSVMを用いて判定することによって行う.このコーパスには,学習文書11,314とテスト文書7,532文書が含まれており,トピック間での文書数の違いはあまりない.実験では,文書中のFrom,Subjectおよびニュース本文の文書から特徴に使用する部分文字列を選択し,テキスト分類を行う.この実験における,各特徴集合のパラメータ設定と選択された特徴数は以下の通りである.\begin{itemize}\item反復度:l=100,h=200000,a=0.1として69,653文字列が選択された.\item条件付確率:l=100,h=200000,b=8,p=0.8,q=0.8として24,732文字列が選択された.\item単語:l=5,h=10000として26,573単語が選択された.\end{itemize}l,h,aのパラメータは学習文書での4分割交差検定法によって再設定した.ただし,このコーパスにおいてもReuters-21578と同様に,先頭が空白で始まる文字列は特徴として用いる文字列から除外した.また,学習時に負例の文書数が正例と比べ非常に多いことがSVMのモデルに大きな影響を与えてしまったため,正例と負例の判定エラーに対するコスト比の値を文書数の比に近い値である20に設定し学習を行う.以上の条件において20のトピックに分類した結果,F値のマクロ平均は反復度による方法で76.05{\%},条件付確率による方法で74.75{\%},単語による方法で76.71{\%}となった.このように,このコーパスにおいても反復度による特徴選択の方が条件付確率による特徴選択よりも良い性能を示した.トピックごとの比較では,20トピック中10トピックにおいて反復度による方法が単語よりも良くなるという結果になった.しかしながら,その差はほとんどないといえる.\subsection{Spam分類実験}本実験ではTREC2006SpamCorpus\footnote{http://trec.nist.gov/data/spam.html}をコーパスとして用いた.このコーパスはSpam分類のために作られたもので,コーパスにはヘッダ情報が含まれ,一般的な英語文章とは異なる構造をしているという特徴がある.コーパスの資料には正確な定義はないが,コーパス作成者が主観的に有用なテキストをHam,それ以外をSpamとしたものと考えられる.これを用いた実験で分類精度が向上すれば,実際のSpam分類においても分類精度が向上すると考えられる.\subsubsection{実験方法}トレーニングデータとしてSpam,Hamそれぞれ100個,分類対象(テストデータ)として,Spam,Hamそれぞれ200個をランダムに選ぶ.記号,マルチバイト文字は前処理段階でカットし,分類に用いない.このようにして20個の文書セットを構成し,この文書セットそれぞれに対して以下の分類実験を行う.まず,学習データから次の3つの特徴集合を構成する.\begin{itemize}\item反復度を用いて特徴選択した文字列からなる特徴集合(AS)\item条件付確率を用いて特徴選択した文字列からなる特徴集合(CS)\itemスペースを区切りとした単語からなる特徴集合(WS)\end{itemize}各手法のパラメータは文書セットごとに交差検定により設定する.ただし,条件付確率による手法のパラメータは先行研究(Zhangetal.2006)と同様の値を用いることとする.また,反復度による手法のパラメータl,hは条件付き確率と同様の値に設定する.テキストの学習分類は4.1節と同様に行い,評価も4.1節と同様にF値を用いて行うこととする.\subsubsection{実験結果}4.2.1節で述べたようにトレーニング,テストデータのセットを20個作り,それぞれに対して,特徴集合としてAS,CS,WSそれぞれを用いて分類を行う.このようにして得られた分類結果を表4に示す.表4において,このF値は(SpamのF値+HamのF値)/2として得た平均値である.表5には各文書セットに対する反復度の手法のパラメータaと,単語の手法のパラメータlを示す.ここで,反復度の手法のパラメータはaを交差検定で求め,l,hはl=80,h=8000で固定し,条件付確率の手法のパラメータはl=80,h=8000,b=8,p=0.8,q=0.8で固定する.また,単語の手法のパラメータlは交差検定で求め,hはh=8000で固定とした.これは,h=8000を設定すると各文書セットで良い分類結果を示し,その付近で変化させても分類結果に影響がなかったためである.表では固定されたパラメータについては表記を省略したが,本文中に記したパラメータを使った.表4を見ると,文書セットを変えたときには平均的に反復度が優れた分類結果を示し,条件付確率がもっとも悪い結果を示していることがわかる.反復度を用いた結果は単語を用いた結果より平均1.04{\%},条件付確率を用いた結果より平均2.93{\%}だけF値が高い.表から,全20の文書セットすべての分類結果において,反復度を用いた方が条件付き確率を用いるよりも良い分類結果を示していることが分かる.このことから,反復度を用いて選択した文字列を特徴集合とするのは条件付確率を用いる方法と比較して有効であると考えられる.反復度を用いる方法と単語を用いる方法のF値を比較すると,20回の分類実験のうち,反復度が単語よりも良い結果となったのが16回で,悪い結果となったのが3回,同じ値となったのが1回であった.この結果について符号検定を行い,両手法のF値の間に有意な差があるかどうかを考える.まず,帰無仮説H$_{0}$と対立仮説H$_{1}$を以下に示すように定める.\begin{table}[t]\caption{各手法の平均F値}\input{05table04.txt}\end{table}\begin{table}[t]\caption{設定したパラメータ}\input{05table05.txt}\vspace{-0.5\baselineskip}\end{table}\begin{itemize}\itemH$_{0}$:反復度を用いる方法と単語を用いる方法のF値の間に差がない.\itemH$_{1}$:反復度を用いる方法は単語を用いる方法のF値の間に差がある.\end{itemize}両手法の結果が同じ値となった場合,単語を用いる方法の方が優れていると見なすと,\pagebreak両手法のF値の分布が等しいという仮定の下で単語を用いる方法の結果が20回の内4回反復度よりも良くなる確率は,\[\frac{1}{2^{20}}({}_{20}C_{4}+{}_{20}C_{3}+{}_{20}C_{2}+{}_{20}C_{1}+1)=0.0059089\cdots<0.01\]となるため,有意水準1{\%}で帰無仮説は棄却され,対立仮説が採択される.このことから,反復度を用いる方法は単語を用いる手法よりもF値において有意な差があると考えることができる.表5をみると,単語の手法のパラメータlはほとんどが10以下で,まれに大きな値をとることがわかる.また,反復度の手法のパラメータaは0.2から0.4程度の値をとることがわかる. \section{考察} \subsection{ニュースのトピック分類}まず,文字列に対する2つの特徴選択方法,提案手法である反復度による方法とベースラインである条件付確率による方法を比較する.4.1節の実験において,学習文書とテスト文書に同じ文書集合を用いてみると,F値のマクロ平均は,反復度を用いた方法では92.87{\%},条件付確率を用いた方法では95.17{\%}となり,条件付確率による特徴集合の方が全体的にF値が高くなる.学習文書とテスト文書に異なる文書集合を用いる本来の評価では,4.1節で説明したように反復度による特徴集合の方がF値が高いことから,条件付確率を用いた特徴集合では,反復度を用いた場合に比べ,過学習してしまう傾向があると考えられる.ここで,各手法で選択された文字列を比較すると,共通して選択されたのは1,400文字列で,特徴集合全体に比べて小さい.2つの手法で選択される文字列の差を直感的に理解しやすい例をこの文字列から一つ示す.トピックのひとつであるshipに注目し,このトピックに含まれる学習文書を見るとトピック名である「ship」という単語が含まれていることがわかった.それぞれの手法で選択された文字列のうちこの単語に関連する文字列を表6に示す.\begin{table}[b]\caption{特徴文字列}\input{05table06.txt}\end{table}条件付確率による特徴選択に比べて,反復度による特徴選択では,直前に現れる単語の最後の1文字加えた文字列や統計的には類似している文字列が追加で選択されている.これらのうち共通していない2文字列を特徴集合から取り除いて実験を行ったところ,shipの分類結果が75.68{\%}から73.10{\%}に減少した.これは,shipに含まれる文書中の「foreignships」や「ownshipping」のような文字列の特徴をテキスト分類に使用したためだと考えられる.連語そのものを検出しているとはいえないが,連語の情報を利用できていることが示唆される.また,単語を特徴集合とする方法に比べ,提案手法は同等の性能を示したものの有意差は認められなかった.しかしながら,提案手法は区切り文字のないデータにおいて,単語抽出を行うための事前処理が必要なく,また上記の連語などのような情報を損なうことのないといった利点がある.\subsection{Spam分類}実験結果から,部分文字列を特徴集合とする2つの方法を比較すると,反復度で特徴選択した場合の方が,分類結果が良いことがわかる.そこで,ここでは両者の特徴集合を比較し,どのような文字列によりこの差が生まれたのかについて考察する.この考察のために,4.2.1節で生成した20の文書セットの内の一つに相当する別の文書セット1個を生成した.これ一つについて分類を行い,反復度と条件付確率それぞれによる特徴集合を取り出す.さらに反復度について,特徴集合のうちサポートベクトルとして使用された文字列を抽出する.この分類実験の結果として表7に示すデータが得られた.\begin{table}[b]\begin{minipage}[t]{105pt}\caption{手法ごとのF値}\input{05table07.txt}\end{minipage}\hfill\begin{minipage}[t]{280pt}\caption{文字列集合の記号との対応と大きさ}\input{05table08.txt}\end{minipage}\end{table}このとき,各手法のパラメータは次のように設定した.\begin{itemize}\item反復度:l=80,h=8000,a=0.3\item条件付確率:l=80,h=8000,b=8,p=0.8,q=0.8\end{itemize}ここで,表8のように記号を定義する.ISはASにあってCSにはない文字列の集合であるため,この文字列の中に条件付確率を用いた場合に比べて分類結果を改善する原因となった文字列が含まれていると考えられる.ISがどれほど分類に寄与しているかと,たとえばどのような文字列が寄与しているかを調べるため以下の2つの実験([実験1],[実験2])を行い,その結果を用いて考察する.\noindent\textbf{[実験1]}ここでは,$\text{AS}-\text{IS}$を特徴集合として分類を行う.この分類の結果として表9の実験1-aに示されるF値を得た.結果を見ると,反復度で特徴抽出した場合よりも7.00{\%},条件付確率で特徴抽出した場合よりも2.00{\%}だけF値が下がっていることがわかる.このことから,ISの文字列はF値を7.00{\%}上昇させることがわかる.また,このときのF値がCSで分類したときよりも下がっていることから,反復度では捉えることができなかったが条件付確率では捉えることができた分類に役立つ文字列があったことがわかる.ただし,ISのうち実際に分類に使われるものはIS$\cap$SV(大きさは1628)であるから,IS$\cap$SVをASから取り除いた場合とISを取り除いた場合の結果は同じである.\noindent\textbf{[実験2]}実験1からIS$\cap$SVが分類結果を改善しているということがわかった.ここでは,実際にどのような文字列が分類に寄与しているのかについて調べる.まず,考察のために作成した文書セットの分類において反復度が選んだ特徴集合(AS)の内サポートベクトルとして用いられた部分文字列(SV)の重みw$_{j}$(4.1節参照)を計算する.そして,w$_{j}$が大きいほど分類に寄与していると考え,その上位50の文字列をとりだす.その集合とISの積をとり,それをASから取り除いて分類を行う.この結果として表9の実験2-aに示されるF値を得た.この結果を見ると,反復度で特徴抽出した場合よりも2.50{\%}だけF値が下がっていることがわかる.この50個の文字列を調べると,message{\_}idという文字列の一部と推測できる部分文字列12個が含まれていることが分かった.これはたとえば表10に示されるような文字列である.ここで「{\_}」は空白を意味することとする.\begin{table}[b]\hfill\begin{minipage}[t]{100pt}\caption{条件ごとのF値}\input{05table09.txt}\end{minipage}\hfill\begin{minipage}[t]{210pt}\caption{見つかったmessage{\_}idの部分文字列の一部}\input{05table10.txt}\end{minipage}\hfill\end{table}ただし,この12個の部分文字列はすべてCSに含まれていないことが分かった.これらをASから取り除いて分類するとF値は表9の実験2-bに示される値となった.このように,これを除去することでF値が下がるという結果から,明らかにこれらの部分文字列は分類に役立っていることがわかる.SV全体からmessage{\_}idの部分文字列を探したところ26個見つかり,ISとの積をとると16個の文字列が得られた.この16個の文字列をASから取り除き分類するとF値は表9の実験2-cに示される値となった.この結果からも,message{\_}idの部分文字列群は役立っていることが示唆される.ここで,CSにも含まれている10個のmessage{\_}idの部分文字列を除去した場合,F値は変化しなかった.よって,CSに含まれない16個の部分文字列はCSに含まれる10個の部分文字列をカバーするといえる.このmessage{\_}idという文字列がコーパスのSpam,Hamメールのうちどれぐらい含まれるのかを調べたところ,Spamメールの約81.9{\%},Hamメールの約99.9{\%}にこれが含まれていることがわかった.よってこれが含まれていないとほぼSpamと断定できる文字列であるということがわかり,これは分類に有用であるということは直感的に理解できる.message{\_}idという文字列の一部がCSにも含まれており(26個中10個),CSに含まれない16個の部分文字列をASから取り除き分類すると分類結果が悪くなることは先に述べた.ではなぜ10個の文字列はCSに含まれない16個をカバーできなかったのか,それらの文字列の違いについてここでは考える.考察のために,表11に反復度,条件付確率それぞれの手法が捉えたmessage{\_}idの部分文字列を示す.\begin{table}[t]\caption{反復度と条件付確率の特徴集合の比較}\input{05table11.txt}\end{table}表11を見ると,条件付確率の手法を用いたほうは一見しただけでは何の部分文字列かわからないほど短い文字列である.これは別の意図しない文字列に対しても分類結果が引きずられやすい,つまり文字列message{\_}idを意図してmeを選択してもmemberやmeatなどの別の文字の部分文字列と解釈される可能性があるということである.それに対して反復度で抽出した部分文字列は短い文字列もあるが,かなり長い文字列も捉えており,age{\_}iなど間に空白が挟まった形も捉えているため,不特定多数の文字列の一部となりえない特定のものをさす文字列の部分文字列であるといえる.このような何を指しているのかわかりやすいある程度長い部分文字列と,間に空白を挟んだ単語と単語を結ぶような形の部分文字列が分類結果を改善していると考えられる. \section{まとめ} 文字列によるテキスト分類において,条件付確率を用いて文書の特徴集合を選択する代わりに,反復度を用いて特徴選択を行い,ニュース記事のコーパスであるReuters-21578,20newsgroupsと,スパムメールのコーパスであるTREC2006SpamCorpusのテキスト分類の結果の比較を行った.反復度によって特徴選択した特徴集合を用いると条件付確率による特徴集合を用いた場合に比べて,ニュース記事の分類では平均79.65{\%}から平均83.39{\%}と,平均3.74{\%}だけテキスト分類の結果を改善することを報告し,スパムメールの分類では分類結果を平均90.23{\%}から平均93.15{\%}と平均2.93{\%}だけ結果を改善することを報告した.このとき,その両方の実験において,提案する反復度を用いる手法と条件付確率を用いるZhangら手法の間に有意差があることを確認した.また,本実験では提案手法である反復度を用いて特徴集合を選択する方法と単語を特徴集合とする方法との比較についてもZhangらの手法との比較と同様にして行った.Reuters-21578,20newsgroupsを用いたニュース記事の分類においては両手法の間に有意差は確認できなかった.しかし,TREC2006SpamCorpusを用いたスパムメールの分類においては,反復度による特徴抽出法を用いると,単語を特徴集合とする場合に比べて分類結果を,平均92.11{\%}から平均93.15{\%}と平均1.04{\%}だけ改善するということを報告した.そして,このとき危険率1{\%}の検定を行い両手法の間に有意差があるということを確認した.この結果の一つの要因として,反復度を用いて抽出される部分文字列に,条件付き確率を用いる手法で抽出される部分文字列に比べて別の部分文字列と解釈されにくい部分文字列や,単語による方法では抽出できない単語と単語を結ぶような文字列が含まれていると言うことが考えられる.よって,本研究は意味ある結果となったといえる.\acknowledgmentこの研究は,住友電工情報システムとの共同研究の成果です.データの解析には,戦略的情報通信開発推進制度(SCOPE)の課題「実空間情報処理のためのインターユビキタスネットワークの研究」の成果の分析技術を利用しました.また,多くの有益なご指摘を頂いた査読者の方々に感謝致します.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\itemManning,C.andSchutzeH.(1999).``FoundationsofStatisticalNaturalLanguageProcessing.''MITPress,Cambridge.\itemZhang,D.andLee,W.S.(2006).``ExtractingKey-Substing-GroupFeaturesforTextClassification.''In\textit{Proceedingsofthe12thACMSIGKDDinternationalConferenceonKnowledgeDiscoveryandDataMining},pp.~474--483.\itemPeng,F.,ShuurmansD.,andWang,S.(2004).``AugmentingNaiveBayestextclassifierwithstatisticallanguagemodels.''\textit{InformationRetrieval},\textbf{7}(3-4),pp.~317--345.\itemLodhi,H.,Saunders,C.,Shawe-Taylor,J.,Cristianini,N.,andWatkins,C.(2001).``TextClassificationUsingStringKernels.''\textit{JournalofMachineLearningResearch(JMLR)},pp.~419--444.\itemGoodman,J.(2001).``Abitprogressinlanguagemodeling,extendedversion.''Technicalreport,MicrosoftResearch,pp.~403--434.\itemChurch,K.W.(2000).``EmpiricalEstimatesofAdaptation:ThechanceofTwoNoriegasisclosertop/2thanp2.''In\textit{Proceedingsof18thInternationalConferenceonComputationalLinguistics},\textbf{1},pp.~180--186.\itemCristianini,N.andShawe-Taylor,J.(2000).``AnIntroductiontoSupportVectorMachines.''CambridgeUniversityPress,Camridge.\itemDumais,S.,Platt,J.,Hecherman,D.,andSahami,M.(1998).``Inductivelearningalgorithmsandrepresentationsfortextcategorization.''In\textit{Proceedingsofthe7thACMInternationalConferenceonInformationandKnowledgeManagement},pp.~148--155.\itemMitchell,T.(1997).``MachineLearning.''McGrawHill,internationaledition.\itemGeng,Xiubo,Liu,Tie-Yan,Qin,Tao,andLi,Hang(2007).``FeatureSelectionforRanking.''\textit{SIGIR'07:Proceedingsofthe30thannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},pp.~407--414.\itemTakeda,Y.andUmemuraK.(2002).``Selectingindexingstringsusingadaptation.''\textit{Proceedingsofthe25thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},pp.~11--15.\itemYiming,YangandPedersen,JanO.(1997).``Acomparativestudyonfeatureselectionintextcategorization.''\textit{ProceedingsofICML-9714thInternationalConferenceonMachineLearning},pp.~412--420.\item平田勝大,岡部正幸,梅村恭司(2007).文字列を特徴量とし反復度を用いたテキスト分類.情報処理学会研究会報告,\textbf{76},pp.~121--126.\end{thebibliography}\clearpage\appendix表4には文書セットごとの各手法の平均F値を示した.表12には文書セットごとの各手法のSpam,HamそれぞれのF値を示す.\begin{table}[h]\caption{表12各手法のSpam,HamそれぞれのF値}\input{05table12.txt}\end{table}\begin{biography}\bioauthor{尾上徹}{2009年豊橋技術科学大学工学部情報工学課程卒業.同年,同大学院入学,現在に至る.}\bioauthor{平田勝大}{2009年豊橋技術科学大学大学院工学部情報工学専攻修士課程修了.同年,NTTデータ(株)入社.}\bioauthor{岡部正幸}{2001年東京工業大学大学院総合理工学研究科知能システム科学専攻博士課程修了.博士(工学).同年科学技術振興機構(CREST)研究員,2003年豊橋技術科学大学情報メディア基盤センター助教.知的情報検索の研究に従事.人工知能学会会員.}\bioauthor{梅村恭司}{1983年東京大学大学院工学系研究系情報工学専攻修士課程修了.博士(工学).同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,2003年教授.自然言語処理,システムプログラム,記号処理の研究に従事.ACM,ソフトウェア科学会,電子情報通信学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
V16N03-04
\section{はじめに} インターネットの普及にともない,多種多様な電子情報が至るところに蓄積され,溢れている.我々は,インターネットを介して,時と場所を選ばず,即座にそれらの情報にアクセスすることができるが,その量は非常に膨大である.「情報爆発」というキーワードのもと,わが国でも文部科学省,経済産業省が新しいプロジェクトを立ち上げ,新技術の開発に取り組み始めている.この膨大な量の情報を人手で処理することは,不可能に近い.情報には文書,画像,音声,動画など様々なものがあるが,自然言語で書かれた文書情報は,その中で最も重要な情報の1つである.文書情報を機械的に処理する技術の研究,言い換えると自然言語処理技術の研究が極めて重要になっているのはそのためである.自然言語処理技術は,2つに大別される.コーパス(統計)ベースの手法とルール(文法規則)ベースの手法である.自然言語処理技術の1つである音声認識の精度のブレイクスルーがあったことにより,最近では,コーパスベースの手法が自然言語処理技術の世界を席巻している.これは網羅性のある文法規則を開発することが困難であったことが主な要因としてあげられる.これに対し,コーパスベースの手法は,そこから得られた統計データに文法規則性が反映されており,コーパスの量を増やすことで,文法規則性をより精密に反映させることができるという考えに基いている.ところが統計データからは陽に文法規則が取り出されるわけではなく,文法規則を取り出し,それをどう改良すべきかは分からない.文法規則は機械(コンピュータ)で扱うことができる規則でなければならない.多種多様な分野の日本語の文書処理を行う文法規則の数は,およそ数千の規模になると言われている.ところがこのような日本語の文法規則を言語学者ですら作成したという話をまだ聞かない.これに対し,コーパスベースの手法による日本語文の文節係り受け解析の精度は90\%に達する\cite{kudo:2002,uchimoto:99}.これがルールベースの方法が自然言語処理技術の中心ではなくなってきた大きな理由である.ところが,最近,コーパスベースの自然言語処理法も解析精度に飽和現象が見られる.精度をさらに向上させようとすれば,現存するコーパスの量を1桁以上増やさなくてはならないといわれている.これは,音声認識精度の向上でも問題になりはじめているが,コーパスの量を1桁以上増やすことは容易なことではない.この限界を越える技術として,闇雲にコーパスの量を増やすのではなく,ルールベースの方法を再考すべき時期に来ていると考えている.本論文では,一般化LR(GeneralizedLR;GLR)構文解析\cite{deremer:82,aho:86,tomita:91}に注目する.一般化LR構文解析は,文法(CFG)規則をLR構文解析表(LR表)と呼ばれるオートマトンに変換し,効率的に解析を行う\footnote{一般化LR構文解析は,構文解析結果の順序付けに確率一般化LRモデル\cite{inui:00,briscoe:93,charniak:96,jelinek:98}を用いることができるので,ルールベース手法にコーパスベース手法を融合したハイブリッドな方法であるといえる.}.このLR表には,CFG規則のほかに品詞(終端記号)間の接続制約(adjacentsymbolconnectionconstraints;ASCCs)を反映させることもできる.品詞間の接続制約を反映させることにより,接続制約に違反する解析結果を受理しないLR表を作成できるだけでなく,LR表のサイズ(状態数や動作(アクション)数)を縮小することもでき,その結果,構文解析の使用メモリ量や解析所要時間の削減,統計データを取り入れた場合の解析精度向上の効果の増大が期待できる.品詞間接続制約をCFG規則に直接反映させることも可能であるが,非終端記号の細分化によって規則数が組み合わせ的に増大し,CFG作成者への負担やLR表のサイズの増大を招く.品詞間接続制約のLR表への組み込み手法は,これまでにも提案されているが\cite{tanaka:95,li:95},従来の手法では,LR表中の不要な動作を十分に削除できない問題があった.本論文では新しい組み込み手法を提案し,従来の手法では削除できなかった不要な動作も削除できることを実験により示す.本論文の構成は以下のとおりである.第\ref{sec:mslr}節では,まず,一般化LR構文解析アルゴリズムを採用しているMSLRパーザ\cite{shirai:00}について説明し,従来の品詞間接続制約のLR表への組み込み手法の問題点を述べる.その問題点を踏まえ,第\ref{sec:improvement}節で新しい組み込み手法を提案し,第\ref{sec:evaluation}節で評価実験を行う.第\ref{sec:completeness}節では,提案アルゴリズムの完全性について考察を行う.最後に,第\ref{sec:conclusion}節で結論と今後の課題について説明する. \section{MSLRパーザと従来の組み込み手法} \label{sec:mslr}本節では,従来のLR表への接続制約の組み込み手法とその問題点を述べるが,その前に,第\ref{sec:evaluation}節の評価実験で使用するMSLRパーザ\cite{shirai:00}の原理について概略を説明する.\subsection{MSLRパーザの原理}\label{sec:principle}MSLR(Morpho-SyntacticLR)パーザは,GLR構文解析アルゴリズムを拡張し,日本語などの分かち書きされていない文の形態素解析と構文解析を同時に行うことのできるパーザである.図\ref{fig:mslr}に示すように,MSLRパーザは,文法(CFG)からLR表を生成し,それを参照しながら入力文の解析を行う.LR表を生成する段階では,文法のほかに品詞間接続制約を組み込むことも可能である.品詞間接続制約を組み込むことにより,LR表のサイズを小さくし,解析効率を向上させることができる.また,MSLRパーザは,平文を入力とすることで形態素解析と構文解析を同時に行うことができるが,形態素区切りや品詞,係り受けなどの部分的な制約を入力に加えて解析を行うこともできる.さらに,確率一般化LR(ProbabilisticGeneralizedLR;PGLR)モデル\cite{inui:00}により,GLRアルゴリズムの枠組みにおいて構文木の生成確率を求めることもできる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia4f1.eps}\end{center}\caption{MSLRパーザの動作の流れ}\label{fig:mslr}\end{figure}MSLRパーザでは,$\varepsilon$規則(右辺の記号列長が0の規則)を含む文法は扱えない.文法が大規模化するにつれ,文法作成者が予期しない$\varepsilon$規則の適用や,それによる解析結果の曖昧性の増大が起きるため,MSLRパーザの仕様として,文法に$\varepsilon$規則は含まれないことを前提としている.本論文でも,$\varepsilon$規則を含まない文法を前提とする.\subsection{接続制約と接続表}終端記号と文末記号$\$$の集合$\{t_1,t_2,\dots,t_n,t_{n+1}(=\$)\}$の接続制約は,$n$行$n+1$列の表(接続表)で表現できる.\[\mathrm{connect}[t_i,t_j]=\begin{cases}1&\text{$t_it_j$の順で接続可能な場合}\\0&\text{$t_it_j$の順で接続不可能な場合}\end{cases}\]ただし,$1\leqi\leqn$,$1\leqj\leqn+1$である.また,終端記号または非終端記号$X$の直後に接続可能な終端記号の集合を返す関数Connectを\pagebreak以下のように定義する.\[\mathrm{Connect}(X)=\begin{cases}\{t|\mathrm{connect}[X,t]=1\wedget\in\mathrm{Follow}(X)\}&\text{$X$が終端記号の場合}\\\bigcup\{\mathrm{Connect}(t)\cap\mathrm{Follow}(X)|t\in\mathrm{Last}(X)\}&\text{$X$が非終端記号の場合}\end{cases}\]ただし,$\mathrm{Follow(X)}$と$\mathrm{Last}(X)$は,それぞれCFGの開始記号から展開した場合に非終端記号$X$の直後に出現し得る終端記号の集合,$X$を展開した場合に末尾に出現し得る終端記号の集合を表す.さらに,終端記号または非終端記号列$\alpha(=\betaY)$の場合や,終端記号または非終端記号の集合$\Sigma$の場合は,関数Connectを以下のように定義する($Y$は終端記号または非終端記号).\begin{align*}\mathrm{Connect}(\alpha)&=\mathrm{Connect}(Y)\\\mathrm{Connect}(\Sigma)&=\bigcup_{X\in\Sigma}\mathrm{Connect}(X)\end{align*}\subsection{従来の接続制約組み込み手法}LR表への品詞間接続制約の組み込み手法には,まず接続制約を考慮しないLR表を作成してから不要な動作を削除する手法\cite{tanaka:95},LR表作成前と作成後の両方で不要動作を削除する手法\cite{li:95}などがある.ここでは,MSLRパーザのLR表生成器で採用されている2つ目のLR表作成前と作成後の両方で不要動作を削除する手法(Liの手法)について述べる.LR構文解析では,LRアイテムを利用してCFGから状態遷移図(gotoグラフ)を作成する.Liらは,gotoグラフを作成する段階で,接続制約を利用してアイテムの生成を抑制することにより,接続制約を組み込んだgotoグラフを作成する.さらに,接続制約を組み込んだgotoグラフからLR表を作成した後,接続制約を伝播させることにより,LR表作成前に削除できなかった動作を削除する.接続制約を利用したLR(0)アイテムの生成の抑制は,核アイテム$[X\to\alpha\cdot\beta]\in\mathrm{Goto}(I,Z)$をclosure展開する際,以下の2つの条件を満たすLR(0)アイテムのみを生成することにより行う\footnote{LR(1)アイテム$[X\to\alpha\cdot\beta;t]\in\mathrm{Goto}(I,Z)$の場合は,第2条件を$t\in\mathrm{Connect}(\beta)$に置き換える.}.\begin{align*}\mathrm{Connect}(Z)\cap\mathrm{First}(\beta)&\neq\emptyset\\\mathrm{Follow}(X)\cap\mathrm{Connect}(\beta)&\neq\emptyset\end{align*}ただし,$\mathrm{Goto}(I,Z)$は,gotoグラフにおいて状態$I$から終端記号または非終端記号$Z$で遷移した先の状態を表す.また,$\mathrm{First}(\beta)$は,$\beta$を展開した場合に先頭に出現し得る終端記号の集合を表す.接続制約を組み込んだgotoグラフを作成したら,それをもとにLR表を作成する.この時点で既にいくらかの不要な動作は削除されているが,削除できずに残っている動作もあるため,LR表作成後に接続制約を伝播させることにより,さらに不要な動作を削除する.具体的には,LR表中の各動作について,その直前に実行すべき動作が存在しない場合,または直後に実行すべき動作が存在しない場合,その動作を削除する.\subsection{従来手法の問題点}\label{sec:problem}図\ref{fig:ex_cfg3}に示すような文法$G$\footnote{LR構文解析では,与えられた文法$G$からLR表を作成する際,便宜的に,非終端記号$\mathit{SS}$を$G$の非終端記号集合に,文末を表す終端記号$\$$を終端記号集合に追加し,$\mathit{SS}\toS\$$を$G$に追加する($S$は元の$G$の開始記号).本論文では,新たに追加するCFG規則の番号を常に0番とする.}と接続制約$C$(と文法$G$から作成されるgotoグラフ)を例に,従来手法(Liの手法)の問題点を述べる.\begin{figure}[b]\begin{center}\includegraphics{16-3ia4f2.eps}\end{center}\caption{CFGと接続制約の例}\label{fig:ex_cfg3}\end{figure}Liの手法により作成されるLR表を表\ref{tab:lr_table_hashimoto}に示す.ただし,括弧で囲まれた動作は,接続制約により削除されたものである.ここで,状態2,先読み$c$における移動(shift)動作$\mathrm{sh}_7$に注目する.この動作は,Liの手法では削除されない.このshift動作に関連する動作実行列として,以下のような場合が想定される($(2,c,\mathrm{sh}_7)$は,状態2,先読み$c$におけるshift動作$\mathrm{sh}_7$を表す).\[(2,c,\mathrm{sh}_7)\to(7,d,\mathrm{sh}_{13})\to(13,d,\mathrm{re}_6)\to(2,Z,\mathrm{goto}_5)\to(5,d,\mathrm{sh}_{11})\]一方,以下のような動作実行列も存在する.\[(3,c,\mathrm{sh}_7)\to(7,d,\mathrm{sh}_{13})\to(13,e,\mathrm{re}_6)\to(3,Z,\mathrm{goto}_9)\to(9,e,\mathrm{sh}_{14})\]接続制約より,終端記号$d$は終端記号$e$と接続するが,終端記号$d$とは接続しないため,前者の実行列は制約に違反する.その結果,$(13,d,\mathrm{re}_6)$は削除される.しかし,$(7,d,\mathrm{sh}_{13})$は,もう一方の接続制約を満たす動作実行列に含まれるため,残される.$(2,c,\mathrm{sh}_7)$は,接続制約を満たすどのような動作実行列にも含まれず,削除すべき動作であるが,次の$(7,d,\mathrm{sh}_{13})$が残されるため,Liの手法では削除できない.\begin{table}[t]\caption{Liの手法により作成されるLR表}\label{tab:lr_table_hashimoto}\input{04table01.txt}\end{table}従来手法では,1つ先または1つ前の動作が存在しないことが判明した場合に,その動作を削除する.この例では,2つ先の動作が存在するか否かを調べなければ,削除可能かどうかを判断できない.これを一般化すると,1つ先や2つ先だけでなく,$n$個先の動作が存在するか否かを調べる必要があり,連続する動作の存在を局所的に調べるだけでは,接続制約に違反する動作を完全に削除することはできない.このような例でも動作を削除できるようにするためには,その動作実行列が最終的にacc動作に到達可能であるか否かを調べる必要がある\footnote{動作実行列が(acc動作に到達できない)無限ループを形成するような文法と接続制約の例も存在する.これは$n$をどれだけ大きくしても,無限ループ内の動作が削除可能であることを発見できない究極の例である.}. \section{提案アルゴリズム} \label{sec:improvement}初期状態から実行すべき動作を順番に決めていくと,動作の実行列(アクションチェイン)ができる.このアクションチェインがacc動作に到達すれば,解析が成功することになる.一方,実行すべき動作がLR表から決まらないときには,解析が失敗することになる.このアクションチェインは有向グラフ(アクションチェイングラフ)として表現できる.初期状態からacc動作に至るアクションチェインを成功パスと呼ぶ.成功パス上の動作は,必要な動作としてLR表に残す.提案アルゴリズムでは,アクションチェインを最終状態(acc動作)から逆向きに横型探索によりたどることにより,成功パスを探索する.すなわち開始記号を左辺に持つCFG規則について,その右辺の末尾の記号から順番に展開しながら(最右導出を行いながら)接続制約を満たすか否かをチェックする.\begin{figure}[b]\begin{center}\includegraphics{16-3ia4f3.eps}\end{center}\caption{gotoグラフ}\label{fig:proposed}\end{figure}開始記号$S$を左辺に持つ$S\toX_1X_2\dotsX_n$というCFG規則(規則番号を$m$とする)があったとする.gotoグラフには図\ref{fig:proposed}(a)に示すような状態とリンクが存在する(開始状態を0とする).このCFG規則の展開に対応するLR表中の動作は,状態$s_n$,先読み$\$$におけるreduce動作$\mbox{re}_m$とその後の状態0,非終端記号$S$における状態$s_0$への遷移であり,この動作をアクションチェインに追加する.そして,右辺の各終端記号または非終端記号について,$X_n$,$X_{n-1}$,…$X_1$の順に接続制約を満たすか否かをチェックする.$X_n$が終端記号の場合,$X_n$と$\$$の間の接続制約をチェックする.接続制約を満たすならば,状態$s_{n-1}$,先読み$X_n$におけるshift動作$\mbox{sh}_{s_n}$をアクションチェインに追加し,$X_{n-1}$のチェックに移る(先読みは$X_n$となる).$X_n$が非終端記号の場合は,$X_n$を左辺とするCFG規則で展開する.このCFG規則が$X_n\toY_1Y_2\dotsY_{n^{\prime}}$(規則番号$m^{\prime}$)であるとすると,gotoグラフ中では図\ref{fig:proposed}(b)に示すような状態とリンクが存在する.このCFG規則の展開に対応する,状態$s^{\prime}_{n^{\prime}}$,先読み$\$$におけるreduce動作$\mbox{re}_{m^{\prime}}$と状態$s_{n-1}$,記号$X_n$における状態$s_n$への遷移をアクションチェインに追加し,$Y_{n^{\prime}}$,$Y_{n^{\prime}-1}$,…$Y_1$の順に接続制約を満たすか否かを同様にチェックする.すべてのチェックが完了したら,$X_{n-1}$のチェックに移る(先読みは$Y_1$のチェックで最後にアクションチェインに追加したshift動作の先読みとなる).以下,同様に続け,最終的に状態0におけるshift動作がアクションチェインに追加されたら,それが成功パスとなる.提案アルゴリズムの概要を図\ref{fig:algorithm}に示す.図中の記法については,以下のとおりである.\begin{description}\item[\protect{$[s,\mathrm{re}_n,\mathit{la},\mathit{status}]$}:]状態$\mathrm{LastState}(s,n)$,先読み$\mathit{la}$で実行される$n$番目のCFG規則によるreduce動作を表すアクションチェインの要素.reduce後,状態$s$,非終端記号$\mathrm{LHS}(n)$で状態$\mathrm{Goto}(s,\mathrm{LHS}(n))$へ遷移する.ただし,$n=0$の場合は,reduce動作ではなくacc動作を表す要素となる.$\mathit{status}$は要素の処理状態を表す.要素の処理状態には,init(初期状態),wait(待機状態),check(調査中),pass(調査済),end(最終状態)があり,この順番で遷移する(initは飛ばされることもある).\begin{description}\item[init:]要素を作成しただけの状態\item[wait:]次にアクションチェインに追加可能であることを表す状態\item[check:]アクションチェインに追加され,その後,解析開始状態(gotoグラフにおける状態0)に到達可能かどうか(最終的に接続制約を満たすかどうか)を調査中であることを表す状態\item[pass:]解析開始状態に到達可能であることが判明したことを表す状態\item[end:]成功パスの要素であることを表す状態\end{description}\item[\protect{$[s,\mathrm{sh},\mathit{la},\mathit{status}]$}:]状態$s$,先読み$\mathit{la}$で実行されるshift動作を表すアクションチェインの要素.\item[$\mathrm{Length}(n)$:]$n$番目のCFG規則の右辺の長さ.\item[$\mathrm{LHS}(n)$:]$n$番目のCFG規則の左辺の非終端記号.\item[$\mathrm{RHS}(n,i)$:]$n$番目のCFG規則の右辺の$i$番目の終端記号または非終端記号.$1\leqi\leq\mathrm{Length}(n)$\item[$\mathrm{Rule}(\mathit{A})$:]非終端記号$A$を左辺に持つ規則番号の集合.$\mathrm{Rule}(\mathit{A})=\{n|\mathrm{LHS}(n)=A\}$\item[$\mathrm{PrevAction}(a)$:]reduce動作またはshift動作$a$に続く動作の集合.\item[$\mathrm{State}(s,n,i)$:]$n$番目のCFG規則について,状態$s$から$\mathrm{RHS}(n,1)$,…$\mathrm{RHS}(n,i-1)$を遷移した後の状態.\item[$\mathrm{LastState}(s,n)$:]状態$s$から$n$番目のCFG規則の右辺の終端記号または非終端記号列すべてを遷移した後の状態.\item[$\mathrm{LA}(s,n)$:]状態$\mathrm{LastState}(s,n)$における$n$番目のCFG規則によるreduce動作の先読みの集合.\item[$\mathrm{PrevSym}(s)$:]状態$s$への遷移記号の集合.$\mathrm{PrevSym}(s)=\{\mathit{sym}|\mathrm{Goto}(s^{\prime},\mathit{sym})=s\}$\item[$\mathrm{PrevState}(s,\mathit{sym})$:]記号$\mathit{sym}$によって状態$s$に遷移する状態の集合.$\mathrm{PrevState}(s,\mathit{sym})=\{s^{\prime}|\mathrm{Goto}(s^{\prime},\mathit{sym})=s\}$\end{description}\begin{figure}[t]\includegraphics{16-3ia4f4.eps}\caption{アルゴリズム概略}\label{fig:algorithm}\end{figure}\noindent図\ref{fig:algorithm}の(2)では,wait状態のreduce動作要素について,その状態をcheckとして,対象となる動作の実行後に解析開始状態まで接続制約に違反することなく到達可能かどうかのチェックを行う.wait状態のshift動作要素ならば,その状態をcheckとして,それに先行するinit状態の要素について,その状態をwaitとする.ただし,先行する要素がshift動作要素の場合は,両者の先読み記号の間の接続制約をチェックする.また,gotoグラフにおける状態0でのshift動作要素の場合は,解析開始状態まで到達可能であることが判明したので,要素の状態をpassとする.図\ref{fig:algorithm}の(4)では,pass状態の要素について,その状態をendとし,そこから(2)のときとは逆に要素をたどり,check状態の要素が解析開始状態まで到達可能であることを伝えていく(状態をcheckからpassにする).最終的に状態がendとなった要素の列が成功パスとなる.図\ref{fig:ex_cfg3}に示す文法$G$と接続制約$C$に対し,上述のアルゴリズムを適用すると,以下のような手順で処理が進行する.\begin{figure}[p]\includegraphics{16-3ia4f5.eps}\vspace{1\baselineskip}\caption{アクションチェイングラフ作成の経過}\label{fig:chain}\end{figure}\begin{enumerate}\item$[0,\mathrm{re}_0,\$,\mbox{wait}]$を作成.\item$[0,\mathrm{re}_0,\$,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{re}_1,\$,\mbox{wait}]$,$[0,\mathrm{re}_2,\$,\mbox{wait}]$を作成.\item$[0,\mathrm{re}_1,\$,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{sh},a,\mbox{init}]$,$[2,\mathrm{re}_3,e,\mbox{init}]$,$[4,\mathrm{sh},e,\mbox{wait}]$を作成.\item$[0,\mathrm{re}_2,\$,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{sh},b,\mbox{init}]$,$[3,\mathrm{re}_4,\$,\mbox{wait}]$を作成(図\ref{fig:chain}(1)).\item$[4,\mathrm{sh},e,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[2,\mathrm{re}_3,a,\mbox{init}]$の処理状態をwaitに変更.\item$[3,\mathrm{re}_4,e,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[3,\mathrm{re}_5,e,\mbox{init}]$,$[3,\mathrm{re}_6,e,\mbox{init}]$,$[9,\mathrm{sh},e,\mbox{wait}]$を作成.\item$[2,\mathrm{re}_3,e,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[2,\mathrm{re}_5,d,\mbox{init}]$,$[2,\mathrm{re}_6,d,\mbox{init}]$,$[5,\mathrm{sh},d,\mbox{wait}]$を作成(図\ref{fig:chain}(2)).\item$[5,\mathrm{sh},d,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[2,\mathrm{re}_5,d,\mbox{init}]$,$[2,\mathrm{re}_6,d,\mbox{init}]$の処理状態をwaitに変更.\item$[9,\mathrm{sh},e,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[3,\mathrm{re}_5,e,\mbox{init}]$,$[3,\mathrm{re}_6,e,\mbox{init}]$の処理状態をwaitに変更.\item$[2,\mathrm{re}_5,d,\mbox{wait}]$について,処理状態をcheckに変更し,$[2,\mathrm{sh},b,\mbox{init}]$,$[6,\mathrm{sh},c,\mbox{wait}]$を作成.\item$[2,\mathrm{re}_6,d,\mbox{wait}]$について,処理状態をcheckに変更し,$[2,\mathrm{sh},c,\mbox{init}]$を作成\\($[6,\mathrm{sh},d,\mbox{wait}]$は,$\mathrm{connect}(d,d)=0$より作成しない).\item$[3,\mathrm{re}_5,e,\mbox{wait}]$について,処理状態をcheckに変更し,$[3,\mathrm{sh},b,\mbox{init}]$を作成\\($[7,\mathrm{sh},c,\mbox{wait}]$は,$\mathrm{connect}(c,e)=0$より作成しない).\item$[3,\mathrm{re}_6,e,\mbox{wait}]$について,処理状態をcheckに変更し,$[3,\mathrm{sh},c,\mbox{init}]$,$[7,\mathrm{sh},d,\mbox{wait}]$を作成.\item$[6,\mathrm{sh},c,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[2,\mathrm{sh},b,\mbox{init}]$の処理状態をwaitに変更.\item$[7,\mathrm{sh},d,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[3,\mathrm{sh},c,\mbox{init}]$の処理状態をwaitに変更.\item$[2,\mathrm{sh},b,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{sh},a,\mbox{init}]$の処理状態をwaitに変更.\item$[3,\mathrm{sh},c,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{sh},b,\mbox{init}]$の処理状態をwaitに変更.\item$[0,\mathrm{sh},a,\mbox{wait}]$について,処理状態をpassに変更.\item$[0,\mathrm{sh},b,\mbox{wait}]$について,処理状態をpassに変更(図\ref{fig:chain}(3)).\item$[0,\mathrm{sh},a,\mbox{pass}]$について,処理状態をendに変更し,\\$[2,\mathrm{sh},b,\mbox{check}]$の処理状態をpassに変更.\item$[0,\mathrm{sh},b,\mbox{pass}]$について,処理状態をendに変更し,\\$[3,\mathrm{sh},c,\mbox{check}]$の処理状態をpassに変更.\item$[2,\mathrm{sh},b,\mbox{pass}]$について,処理状態をendに変更し,\\$[6,\mathrm{sh},c,\mbox{check}]$の処理状態をpassに変更.\item$[3,\mathrm{sh},c,\mbox{pass}]$について,処理状態をendに変更し,\\$[7,\mathrm{sh},d,\mbox{check}]$の処理状態をpassに変更.\item以下,同様に処理を続け,処理状態がpassの要素がなくなったら終了(図\ref{fig:chain}(4)).\end{enumerate}\begin{table}[b]\caption{提案手法により作成されるLR表}\label{tab:lr_table}\input{04table02.txt}\end{table}アルゴリズムを適用後,処理状態がendである動作要素をたどることにより,成功パスを抽出できる(図\ref{fig:chain}(4)の実線のリンクが成功パスである).作成されるLR表を表\ref{tab:lr_table}に示す.また,表\ref{tab:lr_table}において,括弧で囲まれた動作は,Liの手法で削除できず,提案手法により削除されたものを表す. \section{実験と評価} \label{sec:evaluation}提案手法の効果を調べるため,従来手法との比較実験を行った.コーパスは東工大コーパス20,190文(1文あたり約23形態素)\cite{noro:05}を利用する.20,190文すべてから抽出した文法$G_{\mbox{all}}$を使用し,MSLRパーザで構文解析を行う.入力は平文とする.解析結果の順位付けはPGLRモデルにより行う.比較は,提案手法により生成されるLR表と,Liの手法により生成されるLR表,接続制約を組み込まないLR表の3つで行う.\begin{table}[b]\caption{各LR表中の状態数と動作数}\label{tab:action}\input{04table03.txt}\end{table}抽出したCFG規則数は2,722規則(非終端記号294個,終端記号412個)である.各手法により生成されたLR表中の状態数と動作数を表\ref{tab:action}に示す.状態数において,「shift後」,「reduce後」とは,それぞれshift/reduceを実行した直後に到達する状態を指す.PGLRモデルによる確率計算ではこの2種類の状態を区別する必要があるため,参考として内訳を示している.また,動作数において,丸括弧,角括弧で囲まれた数字は,それぞれ,コンフリクトが生じる動作の数,PGLRモデルによる確率が1ではない動作の数を表す.前者は解析途中での曖昧性の大小の目安に,後者はPGLRモデルによる確率計算の影響の大小(パラメータ数の大小)の目安になる.この表より,状態数にはそれほど大きな差は生じないが,総動作数については,接続制約を組み込まない場合と比較して約64\%削減できていることが分かる.コンフリクトが生じる動作数,PGLRモデルによる確率が1にならない動作数は,それぞれ約56\%,71\%削減できている.一方,Liの手法と比較すると,総動作数では約1.2\%,コンフリクトが生じる動作数とPGLRモデルによる確率が1ではない動作数はどちらも約1.4\%削減できている.次に,全20,190文を構文解析する際の所要時間(ユーザCPU時間)を計測した.結果を表\ref{tab:time}に示す.ただし,計測はDual-CoreIntelXeon3~GHz,メモリ4~GBの環境で行った.結果より,接続制約を組み込まない場合と比較して約52\%,Liの手法と比較して約2.4\%短縮された.接続制約を組み込まない場合,接続制約を満たさない構文木も解析結果として出力される.速度向上の要因は,接続制約を組み込んだことによる曖昧性の減少にあると考えられる.一方,Liの手法では,接続制約が組み込まれているため,最終的に出力される解析結果は提案手法の場合と同じである.しかし,不要な動作が残っているため,解析途中での無駄な曖昧性(最終的にaccに到達できない解析途中状態)が多く存在する.例えば,第\ref{sec:problem}節で示した動作実行列の場合,提案手法では,状態2,先読み記号$c$における動作がLR表中に存在しないことが分かった時点で解析を終了するが,Liの手法では,状態13,先読み記号$d$となるまで解析が継続する.提案手法とLiの手法の解析所要時間の差は,ここで生じる.\begin{table}[b]\caption{構文解析所要時間(ユーザCPU時間)}\label{tab:time}\input{04table04.txt}\end{table}\begin{table}[b]\caption{各順位における文正解率(\%)}\label{tab:accuracy}\input{04table05.txt}\end{table}最後に,PGLRモデルによる順位付けの評価を10分割交差検定により行った.すなわち,全体の10分の9にあたる18,171文を利用してモデルの学習を行い,残りの2,019文で評価を行った(文法は$G_{\mbox{all}}$を使用した)\footnote{20,190文中93文について,確率計算の段階でメモリ不足となり,順位付けができなかった.この93文は,今回の評価対象からは除外した(PGLRモデルの学習には利用した).}.解析精度は,文正解率により比較した.文正解率は以下のように定義する.\[\mbox{文正解率}=\frac{\mbox{上位$n$位までに正解が含まれる文の数}}{\mbox{解析した文の総数}}\]ここで「正解」とは,出力された解析木が正解とすべき構文木と完全に一致する場合を指す.結果を表\ref{tab:accuracy}に示す.提案手法では,PGLRモデルによる順位が1位の解析木のみを見た場合,接続制約を組み込まない場合と比較して0.74\%向上している.一方,Liの手法と比較すると,1位の解析木のみでは0.16\%向上しているが,上位10位までを見るとほとんど差がなく,LR表中の不要動作の削除が解析精度に与える影響は大きくないことが分かる.解析所要時間の差と同様,解析精度の差についても,提案手法と接続制約を組み込まない場合との間では,最終的に出力される解析木の数の違いが要因と考えられる.一方,Liの手法によるLR表での最終的な解析結果の曖昧性は提案手法の場合と同じである.また,提案手法でのみ削除可能な動作は,どのような動作実行列をたどっても,最終的にaccに到達することのないものであるため,学習データ中にも存在しない.PGLRモデルによるLR表中の各動作の確率は,学習データに付与された構文木を生成する際に実行する動作の使用回数をもとに計算されるが,最終的にaccに到達できない動作に対する確率は0となり,最終的に出力される各解析木の確率は提案手法の場合と同じになるはずである.しかし,MSLRパーザでは,確率計算の平滑化のため,全ての動作の実行回数に一定数(初期設定では0.5)を加えている.その結果,学習データ中で使用されない動作についても0ではない確率が与えられ,最終的に出力される各解析木の確率が提案手法の場合とLiの手法の場合との間で異なる場合があり,それが,解析精度に差が生じる要因になる.平滑化を行わなければ同じ結果になるが,その場合,accに到達可能であり,かつ,妥当な動作であるにもかかわらず学習データに偶然出現しなかった動作に対する確率も0となる.確率が0である動作が,接続制約を組み込んだことによってaccに到達不可能となった動作であるか,偶然学習データに出現しなかった動作であるかを,学習の段階で区別することは困難である.LR表を作成する段階でaccに到達不可能な動作を削除しておけば,この問題を回避することが可能であり,その点においても提案手法が有効であることが分かる. \section{提案アルゴリズムの完全性の証明} \label{sec:completeness}本節では,提案アルゴリズムの完全性について考察する.ここで,完全性とは,作成されるLR表に不要なアクションが存在しないことである.これを示すためには,LR表が以下の2つの性質を満たすことを示せばよい.\begin{itemize}\item妥当性任意の構文木$\mathit{tr}$に対し,以下が成り立つ.\[\mathrm{Generate}(\mathit{tr},G,C)=\mathrm{GenerateLR}(\mathit{tr},T)\]ただし,\begin{description}\item[$G,C,T$:]CFG,接続制約,LR表\item[$\mathrm{Generate}(\mathit{tr},G,C)$:]文法$G$,接続制約$C$から構文木$\mathit{tr}$を生成可能ならば1,不可能ならば0\item[$\mathrm{GenerateLR}(\mathit{tr},T)$:]LR表$T$から構文木$\mathit{tr}$を生成可能ならば1,不可能ならば0\end{description}\item最小性妥当性を満たすLR表中の任意の要素(動作)$a$に対し,以下が成り立つような構文木$\mathit{tr}$が存在する.\[\mathrm{GenerateLR}(\mathit{tr},T)=1\wedge\mathrm{GenerateLR}(\mathit{tr},T_a)=0\]ただし,\begin{description}\item[$T_a$:]LR表$T$から要素$a$を除いたLR表\end{description}\end{itemize}文法$G$は,第\ref{sec:principle}節で述べた,$\varepsilon$規則を含まないという条件のほかに,以下の条件を満たすことを前提とする.\begin{enumerate}\item文法規則は重複しない.すなわち,文法$G$中の任意の2つの文法規則$A\to\alpha$,$B\to\beta$について,$A\neqB\vee\alpha\neq\beta$\item循環する導出は存在しない.すなわち,文法$G$中の任意の非終端記号$A$について,$A\stackrel{\ast}{\to}A$となるような導出は存在しない\end{enumerate}\subsection{妥当性の証明}提案アルゴリズムによって作成されるLR表が妥当性を満たすことを示すためには,以下の2つを示せばよい.\begin{enumerate}\item$\mathrm{Generate}(\mathit{tr},G,C)=1$ならば$\mathrm{GenerateLR}(\mathit{tr},\mathrm{Table}(\mathit{ACG}))=1$\item$\mathrm{GenerateLR}(\mathit{tr},\mathrm{Table}(\mathit{ACG}))=1$ならば$\mathrm{Generate}(\mathit{tr},G,C)=1$\end{enumerate}ただし,\begin{description}\item[$\mathit{ACG}$:]提案アルゴリズムによって生成されるアクションチェイングラフ\item[$\mathrm{Table}(\mathit{ACG})$:]$\mathit{ACG}$から生成されるLR表\end{description}提案アルゴリズムでは,開始記号から最右導出を行いながらアクションチェイングラフを生成し,その中に含まれる成功パスからLR表を生成する.ここで,$\mathrm{Generate}(\mathit{tr},G,C)=1$を満たす構文木$\mathit{tr}$に相当する最右導出の際に,提案アルゴリズムによって生成されるアクションチェインは,成功パスである.この成功パス中の要素に対応する動作は,このアクションチェイングラフから生成されるLR表に含まれるので,$\mathit{tr}$は$\mathrm{Table}(\mathit{ACG})$から生成可能である.すなわち,(1)が成り立つ.一方,ある構文木$\mathit{tr}$が$\mathrm{GenerateLR}(\mathit{tr},\mathrm{Table}(\mathit{ACG}))=1$を満たすと仮定する.このとき,$\mathrm{Table}(\mathit{ACG})$から$\mathit{tr}$を生成する際の実行動作列について,先頭の実行動作から順に,以下の法則に従って$\mathit{ACG}$中のアクションチェイン要素をたどることにより,成功パスを得ることができる.\begin{itemize}\item注目する実行動作がacc動作の場合,$[0,\mathrm{re}_0,\$,\mathrm{end}]$をたどる.\item注目する実行動作が状態$s$,先読み$\mathit{la}$におけるshift動作の場合,$[s,\mathrm{sh},\mathit{la},\mathrm{end}]$をたどる.\item注目する実行動作が状態$s$,先読み$\mathit{la}$における規則番号$n$によるreduce動作,さらにその次の動作が状態$s^\prime$,非終端記号$\mathrm{LHS}(n)$における状態$s^{\prime\prime}$へのgoto動作の場合,$[s^\prime,\mathrm{re}_n,\mathit{la},\mathrm{end}]$をたどる.\end{itemize}$\mathit{ACG}$中の成功パスに対応する構文木は文法$G$,接続制約$C$を満たすので,(2)が成り立つ.以上より,提案アルゴリズムによって作成されるLR表は妥当性を満たす.\subsection{最小性の証明}$T=\mathrm{Table}(\mathit{ACG})$が最小性を満たさないと仮定すると,次を満たす要素$a$が$T$中に少なくとも1つ存在する.\begin{quotation}任意の$\mathit{tr}\in\{\mathit{tr}|\mathrm{GenerateLR}(\mathit{tr},T)=1\}$に対して,$\mathrm{GenerateLR}(\mathit{tr},T_a)=1$\end{quotation}このとき,$\{\mathit{tr}|\mathrm{GenerateLR}(\mathit{tr},T)=1\}\equiv\{\mathit{tr}|\mathrm{GenerateLR}(\mathit{tr},T_a)=1\}$となり,$a$に対応する$\mathit{ACG}$中の要素を$e$とすると,$\{\mathit{tr}|\mathrm{GenerateLR}(\mathit{tr},T_a)=1\}$中の任意の構文木を生成する際の実行動作列に対応する$\mathit{ACG}$中の成功パスは,$e$を含まない.一方,$T$中に$a$が存在することから,$\mathit{ACG}$中には$e$を含む成功パスが存在する.その成功パスに対応する実行動作列は$a$を含み,その実行動作列で生成される構文木を$\mathit{tr}^\prime$とすると,以下が成り立つ.\[\mathrm{GenerateLR}(\mathit{tr}^\prime,T)=1\wedge\mathrm{GenerateLR}(\mathit{tr}^\prime,T_a)=0\]これは$T$が最小性を満たさないという仮定に矛盾する.以上より,提案アルゴリズムによって作成されるLR表は最小性を満たす. \section{結論と今後の課題} \label{sec:conclusion}コーパスベースの自然言語処理技術は,音声認識などにおいて,精度向上のブレイクスルーを持たらした.これは,コーパスの量を増やすことによって精度が向上したからであるが,それには限界が見えはじめている.この限界を越える技術として,コーパスの量を増やすのではなく,ルールベースの手法を再考すべき時期に来ていると考えている.本論文では,ルールベースの構文解析の1つである一般化LR構文解析に注目し,品詞間接続制約をLR表に組み込み,不要な動作を削除する手法を提案した.提案手法により,接続制約による削除を行わない場合と比較して約64\%の不要動作を削除でき,従来手法と比較するとさらに約1.2\%の不要動作を削減できた.提案手法により作成したLR表で構文解析を行った場合,解析所要時間は,接続制約を組み込まないLR表で構文解析を行った場合と比較して約52\%,従来手法と比較して約2.4\%短縮された.解析精度(文正解率)は,接続制約を組み込まない場合と比較すると向上が見られたが,従来手法と比較すると大きな差は見られなかった.しかし,PGLRモデルによる確率計算の平滑化における問題を回避するためにも,不要な動作を削除することは有効であり,今後,コーパスベースの手法を取り入れた場合の精度向上の効果が大きくなると考えている.実験で示した解析精度(文正解率)はコーパスベースの解析と比較すると低いと思われるかもしれない.しかし,MSLRパーザは品詞間の接続制約とCFGのみを利用して構文解析を行う.この結果に共起データ等の情報を加えれば,コーパスベースの解析と同程度の正解率が得られるものと期待される\footnote{日本語文節係り受け解析では,文節係り受け精度は90\%を超えるが,1文中の全ての係り受けが正解となる割合は60〜65\%程度である\cite{noro:05}.文節区切りや形態素解析の誤りを考慮すると,文全体としての精度はさらに下がるものと考えられる.}.筆者らはルールベースの自然言語処理にはまだ検討の余地があると考えている.\vspace{1\baselineskip}\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aho,Sethi,\BBA\Ullman}{Ahoet~al.}{1986}]{aho:86}Aho,A.~V.,Sethi,R.,\BBA\Ullman,J.~D.\BBOP1986\BBCP.\newblock{\BemCompilers:Principles,Techniques,andTools}.\newblockAddisonWesley.\bibitem[\protect\BCAY{Briscoe\BBA\Carroll}{Briscoe\BBA\Carroll}{1993}]{briscoe:93}Briscoe,T.\BBACOMMA\\BBA\Carroll,J.\BBOP1993\BBCP.\newblock\BBOQGeneralizedProbabilisticLRParsingofNaturalLanguage(Corpora)withUnification-BasedGrammars\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\25--59}.\bibitem[\protect\BCAY{Charniak}{Charniak}{1996}]{charniak:96}Charniak,E.\BBOP1996\BBCP.\newblock{\BemStatisticalLanguageLearning}.\newblockTheMITPress.\bibitem[\protect\BCAY{DeRemer\BBA\Pennello}{DeRemer\BBA\Pennello}{1982}]{deremer:82}DeRemer,F.\BBACOMMA\\BBA\Pennello,T.\BBOP1982\BBCP.\newblock\BBOQEfficientComputationofLALR(1)Look-AheadSets\BBCQ\\newblock{\BemACMTransactionsonProgrammingLanguagesandSystems},{\Bbf4}(4),\mbox{\BPGS\615--649}.\bibitem[\protect\BCAY{Inui,Sornlertlamvanich,Tanaka,\BBA\Tokunaga}{Inuiet~al.}{2000}]{inui:00}Inui,K.,Sornlertlamvanich,V.,Tanaka,H.,\BBA\Tokunaga,T.\BBOP2000\BBCP.\newblock\BBOQProbabilisticGLRParsing\BBCQ\\newblockInBunt,H.\BBACOMMA\\BBA\Nijholt,A.\BEDS,{\BemAdvancesinProbabilisticandOtherParsingTechnologies},\BCH~5,\mbox{\BPGS\85--104}.KluwerAcademicPublishers.\bibitem[\protect\BCAY{Jelinek}{Jelinek}{1998}]{jelinek:98}Jelinek,F.\BBOP1998\BBCP.\newblock{\BemStatisticalMethodsforSpeechRecognition}.\newblockTheMITPress.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{kudo:2002}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{Li\BBA\Tanaka}{Li\BBA\Tanaka}{1995}]{li:95}Li,H.\BBACOMMA\\BBA\Tanaka,H.\BBOP1995\BBCP.\newblock\BBOQAMethodforIntegratingtheConnectionConstraintsintoan{LR}Table\BBCQ\\newblockIn{\BemNaturalLanguageProcessingPacificRimSymposium},\mbox{\BPGS\703--708}.\bibitem[\protect\BCAY{Noro,Koike,Hashimoto,Tokunaga,\BBA\Tanaka}{Noroet~al.}{2005}]{noro:05}Noro,T.,Koike,C.,Hashimoto,T.,Tokunaga,T.,\BBA\Tanaka,H.\BBOP2005\BBCP.\newblock\BBOQEvaluationforaJapaneseCFGGrammarDerivedfromSyntacticallyAnnotatedCorpuswithRespecttoDependencyMeasures\BBCQ\\newblockIn{\Bemthe5thWorkshoponAsianLanguageResources},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{白井\JBA植木\JBA橋本\JBA徳永\JBA田中}{白井\Jetal}{2000}]{shirai:00}白井清昭\JBA植木正裕\JBA橋本泰一\JBA徳永健伸\JBA田中穂積\BBOP2000\BBCP.\newblock\JBOQ自然言語解析のためのMSLRパーザ・ツールキット\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\93--112}.\bibitem[\protect\BCAY{Tanaka,Tokunaga,\BBA\Aizawa}{Tanakaet~al.}{1995}]{tanaka:95}Tanaka,H.,Tokunaga,T.,\BBA\Aizawa,M.\BBOP1995\BBCP.\newblock\BBOQIntegrationofMorphologicalandSyntacticAnalysisBasedon{LR}ParsingAlgorithm\BBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(2),\mbox{\BPGS\59--74}.\bibitem[\protect\BCAY{Tomita}{Tomita}{1991}]{tomita:91}Tomita,M.\BBOP1991\BBCP.\newblock{\BemGeneralizedLRParsing}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{内元\JBA関根\JBA井佐原}{内元\Jetal}{1999}]{uchimoto:99}内元清貴\JBA関根聡\JBA井佐原均\BBOP1999\BBCP.\newblock\JBOQ最大エントロピー法に基づくモデルを用いた日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3397--3407}.\end{thebibliography}\vspace{1\baselineskip}\begin{biography}\vspace{0.5\baselineskip}\bioauthor{野呂智哉}{2000年東京工業大学工学部情報工学科卒業.2005年同大学大学院情報理工学研究科博士課程修了.同年同大学同研究科計算工学専攻助手.現在,同大学同研究科計算工学専攻助教.博士(工学).自然言語処理,Web情報処理等の研究に従事.言語処理学会,情報処理学会,日本ソフトウェア科学会各会員.}\vspace{0.3\baselineskip}\bioauthor{田中穂積}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現産業技術総合研究所)入所.1980年東京工業大学工学部情報工学科助教授.1983年同教授.1994年東京工業大学大学院情報理工学研究科教授.2005年中京大学情報科学部認知科学科教授.2006年東京工業大学先進研究機構機構長.2009年北陸先端科学技術大学院大学情報科学研究科特任教授,現在に至る.工学博士.人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\vspace{0.3\baselineskip}\bioauthor{橋本泰一}{1997年東京工業大学工学部情報工学科卒業.2002年同大学大学院情報理工学研究科博士課程修了.同年同大学同研究科計算工学専攻助手.2006年同大学統合研究院特任助教授.現在,同大学統合研究院特任准教授.博士(工学).自然言語処理,情報検索に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,科学技術社会論学会,各会員.}\vspace{0.3\baselineskip}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1998年同大学院情報理工学研究科博士後期課程修了.同年同大学院情報理工学研究科計算工学専攻助手.2001年北陸先端科学技術大学院大学情報科学研究科助教授.現在同准教授.博士(工学).自然言語処理に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,AssociationforComputationalLinguistics,各会員.}\end{biography}\biodate\end{document}
V09N04-05
\section{はじめに} 電子化されたテキストが世の中に満ち溢れる現状から,テキスト自動要約研究が急速に活発になり,数年が早くも経過している.研究の活発さは依然変わらず,昨年もNAACLに併設する形で要約に関するワークショップが6月に開催された.また,日本では,国立情報学研究所の主催する評価型ワークショップNTCIR-2のサブタスクの1つとしてテキスト自動要約(TSC:TextSummarizationChallenge)が企画され,日本語テキストの要約に関する初めての評価として,また,TipsterにおけるSUMMACに続く要約の評価として関心を集め,昨年3月にその第1回(TSC1)の成果報告会が開催された(http://research.nii.ac.jp/ntcir/index-ja.html).一方,アメリカでは,SUMMACに続く評価プログラムとして,DUC(DocumentUnderstandingConference)が始まり,第1回の本格的な評価が昨年夏行なわれ,9月に開催されたSIGIRに併設する形でワークショップが開催された(http://www-nlpir.nist.gov/projects/duc/).このような背景の元,本稿では,1999年の解説\cite{okumura:99:a}の後を受け,テキスト自動要約に関する,その後の研究動向を概観する.1999年の解説では,これまでのテキスト自動要約手法として,重要文(段落)抽出を中心に解説するとともに,当時自動要約に関する研究で注目を集めつつあった,いくつかの話題として,「抽象化,言い換えによる要約」,「ユーザに適応した要約」,「複数テキストを対象にした要約」,「文中の重要個所抽出による要約」,「要約の表示方法」について述べている.本稿では,その後の動向として,特に最近注目を集めている,以下の3つの話題を中心に紹介する.\begin{enumerate}\item単一テキストを対象にした要約における,より自然な要約作成に向けての動き,\item複数テキストを対象にした要約研究のさらなる活発化,\item要約研究における,要約対象の幅の広がり\end{enumerate}(1)の動きは,後述するように,1999年の解説における「抽象化,言い換えによる要約」,「文中の重要個所抽出による要約」という話題の延長線上にあると言うことができる.以下,2,3,4節でそれぞれの話題について述べる.なお,TSC1およびDUC2001にはそれぞれ多数の参加があり,興味深い研究も多い.しかし,TSC1の多くの研究は重要文抽出に基づくものであり,本稿に含めるのは適当でないと考えた.また,DUC2001に関しては,ワークショップが開催されたのが9月13,14日であり,本稿に含めるのは時間的余裕がなく断念せざるを得なかった.これらについては,稿を改めて,概観することとしたい. \section{より自然な要約作成に向けて} ここ1,2年テキスト自動要約研究者が関心を持っている話題に,単一テキストを対象にした要約において,人間にとってより自然な要約を目指すというものがある.これまでの要約手法である重要文抽出には,問題点として,テキスト中の色々な個所から抽出したものを単に集めているため,抽出した複数の文間のつながり(首尾一貫性)が悪いことが指摘されている.抽出した文中に指示詞が含まれていても,その先行詞が要約中に存在しない可能性があったり,また,不要な接続詞があったりするということだが,こういうことが起きていると,読みにくいということはもちろんだが,最悪の場合,要約テキストの内容を読み間違えてしまう可能性もある.また,文を重要として要約に含める際,他の文とは独立に抽出を行なっており,そのため,結果として要約中に抽出された文の内容に類似のものがいくつも含まれるということが生じる可能性がある.このような,これまでの要約手法の問題点を受けて,「より読み易い要約」,「より冗長性の少ない要約」を目指す動きが近年活発になっており,また,人間の自由作成要約(human-writtensummary)を元に要約手法を検討する動きも盛んになってきている.人間が自由に要約を作成する際,原文に基づかず一から要約を「書く」場合もあるが,多くの場合,原文を元に,原文の断片を適切に「切り貼り」し,その後それに編集を加えることで,要約を作成しているという観察を元に,そういった人間の要約作成過程を計算機上にモデル化しようという研究も,後述するように(2.2節)始まっている\cite{jing:00:b}.人間の要約作成モデルに基づく要約手法なら,人間の要約に(ある程度)近い要約を作成できる可能性があり,注目すべき研究と言える.もう一つ特筆すべき研究として,自然言語生成システムを利用した要約手法の提案も始まっている\cite{mckeown:99:a,barzilay:99:a}.詳細は3節で述べるが,複数テキスト中の重要個所を,FUF/SURGEという生成システムにより,つなぎ合わせることで要約として生成している.要約の過程は,大きくテキストの解釈(文の解析とテキストの解析結果の生成)と(テキスト解析結果中の重要部分の)要約としての生成に分けられるとされてきたが,これまでの研究では,要約を生成するということは実際にはほとんど実現されていなかった.今後,より自然な要約作成を目指す過程で,自然言語生成技術の利用は不可欠となっていくであろう.これまでも,要約の読みにくさ,首尾一貫性の悪さに対しては,対処法が提案されてきているが(たとえば,Mathisら\cite{mathis:73:a}や\cite{okumura:99:a}の2.3節を参照),いずれもadhocな手法という印象が強い.これに対して,抽出した重要文集合を書き換える(revise)ことで,文間のつながりの悪さを改善し,より読み易い要約作成を目指す研究が最近試みられている\cite{nanba:99:b}.まだ技術的に難しい問題がいろいろあるが,興味深い.また,重要文抽出ではなく,文中の重要個所抽出,不要個所削除による要約手法はすでに\cite{okumura:99:a}で紹介されているが,この要約手法も,より自然な要約を作成するための第一歩と言える.2.4節で紹介する「要約の言語モデル」は,この要約手法を統計的に定式化した枠組とも考えられる.以下,各小節で,「より冗長性の少ない要約作成」,「人間の自由作成要約を元にした要約手法」,「抽出した重要文集合の書き換えによる,より自然な要約作成」,「要約の言語モデル」の4つの話題について言及する.\subsection{冗長性の少ない要約に向けて}複数テキストを対象にした要約では,複数のテキストから抽出した内容を要約とする際,内容が重複することを避ける手法がとられることが一般的である.単一テキストを対象にした要約作成でも,要約中に類似した文が含まれていれば冗長であり,冗長性を削減することで,他の有用な情報を要約に加え,要約中の情報の密度を増すことができる.近年単一テキストの場合にも,要約中の冗長度を下げ,同じ長さの要約に,より多くの情報を含められるよう考慮した要約手法がいくつか提案されている.Baldwinら\cite{baldwin:98:a}は,照応解析に基づき,query-sensitiveでindicative(指示的)な要約を作成する手法を提案している.テキスト中の文を選択するのだが,検索要求中の句がすべて要約の中にカバーされるように選択する.テキスト中の句がその句と相互参照していれば,検索要求中の句はカバーされているとする.文を選択する基準は,その文により新たにカバーされる(すでに選択された文ではカバーされていない)検索要求中の句が多い文を選択する.この文選択をすべての句がカバーされるまで繰り返す.これにより,要約の冗長性を最小にしている.Baldwinらの手法は,なるべく冗長な参照句を含まないように文を選択していることに相当する.また,先行詞を要約中に含まない代名詞は,可能なら先行詞に置き換える,不要と考えられる,前置詞句,同格の名詞句,関係節は除去するなどの後処理も施している.MMR(MaximalMarginalRelevance)\cite{carbonell:97:a,carbonell:98:a}は,テキスト検索,単一テキスト要約,複数テキスト要約において利用可能な尺度であり,検索要求との適合度と,情報の新規性(すでに選択されたものとの異なり度)をともに考慮する尺度である.MMRは,テキスト検索を例にすれば,以下の式で定義される.\[MMR(Q,R,S)=Argmax_{D_i\inR\setminusS}[\lambdaSim_1(D_i,Q)-\]\[(1-\lambda)max_{D_j\inS}Sim_2(D_i,D_j)]\]ここで,\begin{description}\item[$Q$:]検索要求,\item[$R$:]システムによって検索された(ランク付けられた)テキスト群,\item[$S$:]すでに選択されたRの部分集合\item[$R\setminusS$:]RとSの差集合\end{description}であり,$\lambda$は,検索要求との適合度($Sim_1(D_i,Q)$)と,すでに選択されたものとの異なり度\footnote{$max_{D_j\inS}Sim_2(D_i,D_j)$が類似度を表しているので,それを引くことで,異なり度としている.}に関する重みづけ(どちらを重視するか)に関するパラメタである.なお,検索要求との適合度,すでに選択されたものとの類似度を計算する尺度$Sim_1,Sim_2$には,任意のものが利用できるが,単語を要素とするベクトル間の距離尺度(たとえば,コサイン,内積等)を利用することが多い.MMRを用いた要約では,query-relevantな要約を作成するが,単一テキスト要約では,検索要求に関連するパッセージ(文)の集合を($Sim_1$のみを利用して)まず抽出した後(これが$R$),それらをMMRで再順序付け,要約の長さまで文を選択し,原文での順序,MMRのスコアの順序等を元に出力する.したがって,1文目は,検索要求と最も適合する文が選択され,2文目以後は,それまでに選択された文(2文目の場合は,最初に選択された文)との異なり度も合わせて考慮して選択される.MMRを用いることで,要約は互いに(最大限)異なる文により構成される.MMRを用いた複数テキスト要約は3節で紹介する.加藤ら\cite{kato:00:a}は,放送ニュースを対象にした重要文抽出法として,まず1文目(リード文)を抽出した後,それ以後の文のうち,リード文と内容が重複しない文を重要として抽出する手法を提案している.内容の重複は,文間の単語の対応の度合を元に計算している.この手法は,重要文抽出に,テキスト中での位置情報とMMRの考え方を併用していると言うことができる.石ざこら\cite{ishizako:99:a}は,同一の事象を表す表現が複数回テキスト中に出現した場合,2回目以後の出現を重複部分として削除する手法を提案している.\subsection{人間の自由作成要約を目指して}人間は,単に重要文を抽出するだけでなく,それらを編集することで要約を作成していると考えられる.Jingら\cite{jing:99:a,jing:00:b}は,人間の自由作成要約と原文の対応を分析し,抽出された文を編集する6つの操作を同定している.それらは,不要な句の削除(文短縮),(短縮した)文を他の文と結合する(文の結合),構文的変形,句を言い替える(語彙的言い替え),句をより抽象的/具体的な記述に置き換える,抽出した文を並べ替える,の6つである.一方,人間が原文に基づかず,一から書いている文も自由作成要約には含まれており,その割合は,300要約を調べたところ,19\%であったと報告している.Jingら\cite{jing:00:b}は,人間の自由作成要約の分析から得られた6つの編集操作を用いた「切り貼り」に基づく要約手法を提案している.システムは,抽出された重要文を編集し,不要な句を削除し,結果として残った句をまとめ上げることで一貫性のある文を作成する.Jingらの切り貼りに基づく要約システムは,まず重要文を抽出した後,抽出した文を,6つの操作で(文短縮,文の結合のみが実装されている)編集し,その結果を要約として出力する.文の結合に関しては,対応コーパスを分析し,人手で規則を作成して実現している.文の結合は,2つの構文解析木に対する,結合,部分木の置換,ノードの追加というTAG上の操作として実装されている.一方,文短縮は,抽出された重要文から,不要な句を自動的に削除するが,人間の自由作成要約と原文の対応コーパスから得られた統計情報,構文的知識,文脈情報を利用して,削除する句を決定している\cite{jing:00:a}.原文は,構文解析され,構文解析木中の必須要素と考えられる部分は印が付けられ,後の処理で削除され,文法的でない文が作成されることを防止する.次に,文中の句で話題ともっとも関連するものを決定する.また,対応コーパスを構文解析した結果を用いて,どの句がどういう条件でどの程度削除され易いか(たとえば,主動詞が`give'のとき,`when'節が削除される確率)を計算する.また,句が短縮される(部分が削除される)確率,句が変化しない確率も合わせて計算される.そして,必須でなく,話題とあまり関係がなく,人間が削除している確率がある程度ある句を削除の対象とする.人間の削除個所との一致度に基づく評価では,平均で81.3\%の精度を得ており,すべての前置詞句,節,to不定詞,動名詞を削除する場合をbaselineと考えるなら,baselineの精度は43.2\%だった.また,システムは平均で文の長さを32.7\%短くしていたが,人間の場合は41.8\%だった.システムの出力における誤りの原因は,50文を分析した結果では,8\%が構文解析誤りによるものだった.このJingらの研究と同様,(重要文抽出ではなく,)人間が自由に作成した要約のコーパスに基づいた要約研究が近年数多く見られる.これらの研究では,人間の自由作成要約と原文を対応付けた(aligned)コーパスが必要であるため,要約と原文の間の対応づけ(alignment)を行なう手法に関する提案もいくつか見られる.Jingら\cite{jing:99:a}の対応づけプログラムは,人間の自由作成要約中の句を原文中の句に自動的に対応付ける.要約中で隣接する2単語は,原文中でも隣接して現れ易い,遠く離れた文中に現れないというようなヒューリスティックスを元にしたHMMに基づいており,要約中の各単語が原文中のどこに位置するかをViterbiアルゴリズムにより決定する.50要約中の305文に対する対応関係を人手で調査したところ,93.8\%の文で正しい対応関係を得ていると報告している.Marcu\cite{marcu:99:a}は,原文と自由作成要約をともに,出現する単語のベクトルで表現し,その間の類似度をコサイン距離で計算する.そして,自由作成要約と類似度がもっとも大きくなるように,原文から節を削除していくことで,対応する抜粋を決定している.Bankoら\cite{banko:99:a}は,文を単位とし,文を文中の単語の出現頻度のベクトルで表し,ベクトル間の距離で文間の類似度を計ることで,自由作成要約中の文と原文中の文をもっとも類似度が大きくなるように対応付けている.BankoらとMarcuの手法はともに,abstractから抜粋(extract)を生成することを目的としているため,対応させる単位が文,節と大きい.望主ら\cite{mochinushi:00:a}も,自由作成要約を原文と対応付けるツールを作成し,対応結果から,自由作成要約,重要文抽出による要約の相違点の分析を行なっている.また,\cite{okumura:99:a}で紹介されている加藤らは,要約知識の自動獲得を目的に,単語の部分一致を考慮したDPマッチングによる対応づけ手法を示している.このようにして,自由作成要約と原文を対応付ける(あるいは,対応する抜粋を生成する)と,自由作成要約と抜粋の間の比較・分析が可能になる.Marcu\cite{marcu:99:a}は,人間の要約に含まれる内容をすべて含むように,テキストの抜粋を作成する場合,どの程度の長さの抜粋が必要であるかを調査している.新聞記事を対象にした場合,対応する要約と比べ,抜粋は2.76倍の長さが必要であるという結果を示している.この結果は,抜粋中の冗長性を除去したり,さらに文をより短くするなど,抜粋をさらに加工する必要があることを示しているとも言える.また,Jingらは,自由作成要約は,対応する抜粋と比較すると,52\%の長さであるという報告をしている.Goldsteinら\cite{goldstein:99:b}の報告では,平均して抜粋の長さは,自由作成要約に比べ,20\%長くなるという.\subsection{要約における言い替え,書き換えの役割}2.2節で述べたように,人間の要約過程は,単に重要文を抽出するだけでなく,それらを編集する操作が含まれていると考えられる.この編集の操作には,書き換え(revision)や言い替え(paraphrase)が含まれている.本節では,書き換えや言い替えが用いられた要約研究を概観する\footnote{川原\cite{kawahara:89:a}は,人間の要約作成過程において,どのように書き換えが役割を果たしているかを調査している.}.抽出した重要文集合である抜粋を書き換える目的には,少なくとも次の2つがあると考えられる.\begin{enumerate}\item文の長さを短くする\item抜粋を読み易くする\end{enumerate}片岡ら\cite{kataoka:99:a}は,連体修飾節を含む名詞句を「AのB」の形に言い替えることで要約を行なう手法を示しているが,これは前者に該当すると言える.また,\cite{okumura:99:a}で紹介されている,概念辞書等を用いて語句を抽象化する言い替えを行ない要約する手法である「抽象化,言い換えによる要約手法」(3節)や,加藤,若尾らのような手法(6節)は,言い替えを行なうことで,文字列を削減する要約手法と言うことができる.また,Maniら\cite{mani:99:b}は,抜粋を書き換えることで,質の向上を目指している.3つの操作,elimination,aggregation,smoothingを示している.それらを抜粋に繰り返し適用することで,抜粋の読み易さを低下させずにinformativenessを向上できたと主張している.このことから,Maniらの主眼は,書き換えにより,要約内の情報の量を向上させること(抜粋中の不要な個所を削除することで,他の個所の情報を要約に加える)であると言える.eliminationがJingらの文短縮,aggregationとsmoothingが文の結合にそれぞれ対応している.eliminationでは,文頭の前置詞句,副詞句を削除する.smoothingには,読み易さ(首尾一貫性)を改善するための操作が一部含まれる.一方,後者の研究としては,難波ら\cite{nanba:99:b}の研究がある.難波らは,人間に抜粋を書き換えてもらう心理実験を行ない,抜粋の読みにくさの要因を分析した後,要因ごとに読みにくさを解消するための書き換えを定式化している.接続詞を追加したり,削除したり,また,冗長な単語の繰り返しを代名詞化したり,省略したり,逆に,省略されている単語を補完したり,などである.そして,そのうちいくつかを実装している.大塚ら\cite{otsuka:01:a}は,「この」等の指示形容詞を含む名詞句に対して照応処理を行なうことで,対応する先行名詞句を特定し,指示形容詞を含む名詞句を対応する先行名詞句に置き換えることで,抽出した重要文集合のつながりの悪さを改善する手法を示している.\subsection{要約の言語モデル}原文と自由作成要約の組がコーパスとして大量に存在するなら,人間の要約過程を模倣するようにモデルを訓練することが可能である.KnightとMarcu\cite{knight:00:a}は,このような考え方に基づき,文要約(文短縮)において,文法的で,しかも,内容としては原文の情報の重要な部分を維持するような手法を2つ示している.2つの手法は,確率的noisy-channelモデルと決定木をそれぞれ用いている.入力として,単語列(1文)を与えると,単語列中の単語の部分集合を削除し,残った単語が要約を構成する\footnote{原文と抜粋の組のコーパスから重要文抽出のためのモデルを学習する手法については\cite{okumura:99:a}の2.2節ですでに紹介されている.}.確率的noisy-channelモデルは,統計的機械翻訳の場合と同様,次の2つのモデルで構成される.\begin{itemize}\itemSourceModel:\\要約を構成する文$s$の確率$P(s)$.文sが生成される確率を示す.この確率は,文法的でない文の場合低くなり,要約が文法的であるかどうかの指標となる.単純にはbigramでモデル化される.\itemChannelModel(Translationmodel):\\単語列の組$\langles,t\rangle$の確率$P(t|s)$.要約sから,より長い単語列t(原文)が得られる確率.原文中の各単語が要約に出てくる確からしさを示しており,各単語の確からしさの積をその単語列が要約となる確からしさとする.重要な内容を保持しているかどうかの指標となる.\end{itemize}KnightとMarcuは,上の2つの確率を単語列に対してではなく,それを構文解析した結果得られる木に対して計算している.$P_{tree}(s)$は,木sを得る際に利用される文法規則に対して計算される標準的な確率文脈自由文法のスコアと,木の葉に現れる単語に対して計算される標準的な単語のbigramのスコアの組合せである.確率的なchannelモデルでは,拡張テンプレートを確率的に選択する.たとえば,NPとVPを子ノードとして持つノードSに対して,確率$P(S\rightarrowNP\:VP\:PP|S\rightarrowNP\:VP)$を元に,子ノードPPを追加する.そして,単語列tからそれに対応する要約sを選択する際,$P(s|t)$を最大にするものを選択する.これは,$P(s)\timesP(t|s)$を最大にするsを選択することと同じである.原文中の単語列の部分集合で,上の2つの確率の積を最大にするものをViterbiビームサーチを用いて選択する.Ziff-Davisコーパス中の1067組の文を対象にし訓練を行なっている.拡張テンプレートは,原文と要約文をともに構文解析し,その木の対応関係から抽出している.一方,決定木に基づく手法としては,原文に対応する木tを与えると,それを要約文に対応する,より小さな木sに書き換えるモデルを示している.拡張した決定的shift-reduce構文解析の枠組に基づき,空のスタックと,入力の木tを入れた入力リストを用いて処理を開始し,より小さな木へ書き換えるべく,shift(入力リストの先頭をスタックへ移動),reduce(スタック上のk個の木を組み合わせて新たな木を構成し,スタックにプッシュ),drop(入力リスト中の構成素を削除)の操作を繰り返し実行する.決定木に基づく手法は,noisy-channelモデルに基づく手法よりも,より柔軟であり,原文の構造と要約文の構造が著しく異なる場合にも対処可能である.どの操作を選択するかは,訓練データ(原文-要約文の組の集合から構成される操作の系列の集合)から,決定木学習を行なうことで学習される.このように,文要約のモデルを,訓練コーパスから自動的に訓練することで得る手法は,WitbrockとMittal\cite{witbrock:99:a}が,原文とabstractの組で直接訓練した確率モデルを適用したのが最初の研究とされる.これ以外は,前節で紹介したJingらの研究や,\cite{okumura:99:a}で紹介されている,文中の重要個所抽出,不要個所削除による要約手法を含め,いずれも,人手で作成した,あるいは半自動で得た規則を元に,冗長な情報を削除したり,長い文をより短い文に縮めたり,複数の文をまとめたりしている.堀之内ら\cite{horinouchi:00:a}は,「日本語らしく,かつ意味的に重要個所を含む」ように,文を短縮する統計的手法を示している.日本語らしさの評価のためにn-gramモデル,意味的に重要個所を含むかどうかの評価のためにidfをそれぞれ利用している.この2つを重み付けした重要度を文中の断片に与え,重要度の小さい断片を繰り返し削除することで文を短縮していく.小堀ら\cite{kobori:00:a}は,あらかじめ原文から抽出された重要文節データを元に学習した決定木を用いて重要文節を抽出する手法を示している.BergerとMittal\cite{berger:00:b}は,query-relevantな要約を作成する統計的言語モデルを示している.FAQのコーパスを訓練データとして,文書$d$とクエリ$q$の組に対して,\[p(s|d,q)=p(q|s,d)*p(s|d)\approxp(q|s)*p(s|d)\]を最大にする$s$を要約として求める.そして,そのための確率$p(q|s),p(s|d)$をそれぞれ訓練データから学習する.確率$p(q|s),p(s|d)$はそれぞれ,(クエリに対する要約の)適切性(relevance),(テキストに対する要約の)忠実性(fidelity)と呼ばれている.\ \section{複数テキストを対象にした要約手法} これまでの複数テキスト要約研究では,あらかじめ人間が用意した比較的小規模なテキスト集合をシステムの入力として要約を作成するのが中心的であったと言える.しかし,近年,情報検索システムの検索結果を直接要約システムの入力に用いるなど,より大規模なテキスト集合を要約対象とする実用性の高いシステムがいくつか提案されてきている.要約システムの入力として想定されるテキスト集合は,(1)すべてが同一トピックのものと,(2)情報検索システムの検索結果のように,複数のトピックが混在しているものの大きく2種類存在すると考えられる.どちらのテキスト集合を対象とするかで,要約作成手法,要約システムの位置付けも次のように異なってくる.\begin{enumerate}\item要約システムに与えるテキスト集合中のテキストはどれも同じトピックについて書かれたものであり,そのため,似たような内容のテキストが複数含まれる可能性がある.この場合,すべてのテキストの内容を要約に含めると,冗長な要約が作成されてしまう.そこで,テキスト(あるいはテキスト中のパッセージ)間の類似度を考慮し,内容がなるべく重複しないように要約を作成する.\item情報検索の結果得られたテキスト集合を要約システムの入力に用いるような場合,そのテキスト集合には,ユーザの目的と合致しないテキストが数多く含まれている可能性がある.このような場合,目的のテキスト集合へユーザをナビゲートする支援システムは有用であり,そのようなシステムでは,テキスト集合を自動的に分類し,グループごとに,グループのテキスト集合の要約を作成しラベルとして付与する.ユーザは,自分の必要なテキストがグループに含まれているかどうかを付与されたラベルを見て判断する.\end{enumerate}\cite{okumura:99:a}では複数テキスト要約のポイントとして,図\ref{fig:multi-text-sum}に示す3点を挙げて,この3点に沿って研究を概観していた.本節でも同様にこの3点に沿って,この分野の最近の研究動向を,上の分類に即して,紹介する.\begin{figure}[h]\[\left\{\begin{array}{lll}a&関連するテキストの自動収集&\\b&関連する複数テキストからの情報の抽出&\left\{\begin{array}{ll}b-1&重要個所の抽出\\b-2&テキスト間の共通点の検出\\b-3&テキスト間の相違点の検出\\\end{array}\right.\\c&テキスト間の文体の違い等を考慮した&\\&要約文書の生成&\\\end{array}\right.\]\caption{複数テキスト要約のポイント\label{fig:multi-text-sum}}\end{figure}\subsection*{分類1:同一トピックのテキスト集合からの要約作成}分類1の要約手法にはGoldsteinら\cite{goldstein:00:a},Radevら\cite{radev:00:a},Steinら\cite{stein:99:a},Barzilayら\cite{barzilay:99:a,barzilay:01:a},McKeownら\cite{mckeown:99:a}のものがある.Goldsteinら\cite{goldstein:00:a}は新聞記事を対象とし,記事集合中からある検索クエリに関するパッセージを抽出,収集し(a),それらを並べて要約を作成するMMR-MD(MaximalMarginalRelevanceMulti-Document)という手法を提案している.検索されたパッセージを単純にクエリとの適合度の高い順に並べただけでは,パッセージ間で重複する個所が存在する可能性があり,要約として望ましくない.そこで,MMR-MDでは,クエリに対するパッセージの適合度を考慮しつつ,すでに上位にランクされているパッセージと類似度の低いもの(重複個所が少ないと思われるパッセージ)(b-3)を選択して順に出力することで,冗長性の少ない複数テキスト要約の作成を行っている.また,パッセージの出力順序を決める際,記事が書かれた日時なども考慮している.Radevら\cite{radev:00:a}は新聞記事集合をあらかじめクラスタリングし,各クラスタごとに要約を作成する手法を提案している(a).クラスタ中の記事中の各文の重要度をまず計算し,次に要約率に応じて記事集合から重要度の高い文を抜き出し,抜き出された文を記事の書かれた日付順に並べて,要約として出力する.文の重要度は,クラスタの特徴を表す語を文が含む割合(b-2),文の位置(lead)(b-1)により決定する.また,Goldsteinらと同様,自分より重要度の高い文と内容が重複するような文は重要度を下げることで,冗長性の少ない要約の作成を目指している(b-3).Steinら\cite{stein:99:a}は,あらかじめテキストごとの要約を作成し(b-1),作成された要約をクラスタリングし,似たような内容の要約をグルーピングしている.そして,各クラスタ中で最も代表的な要約をクラスタの要約として抽出する(b-2).また,クラスタの要約同士の類似度を計算し,隣接する2つの要約の類似度が高くなるよう並べ換えて出力している.Barzilayら\cite{barzilay:99:a},McKeownら\cite{mckeown:99:a}は,複数の新聞記事間で言い回しは異なるが同じ内容の文を,7種類の言い換え規則を用いて同定している(b-2).同定された文は,構文解析器を用いて述語項構造に変換され,文間で共通な句が抽出される.その後,文生成器を用いて抽出された共通語句を統合し,要約文として出力する(c).さらにこれらの要約文は記事の日付順およびテキスト中の出現順にソートされ,それらが最終的な要約文書となる.要約文書の構成要素となるトピック(文)を並べる順序を決定するこれまでの方法は,文間のつながりを考慮する方法\cite{goldstein:00:a,stein:99:a}と,記事が書かれた時間順に並べる方法\cite{radev:00:a,mckeown:99:a}の2つに分けられる.一般にはさまざまなトピックの並べ方が存在するが,人間が複数のテキストから要約を作成する場合,何らかの原理に基づいて並べる順序を決定していると考えられる.Barzilayら\cite{barzilay:01:a}は,複数の記事から抽出されたいくつかの重要文のセットを10人の被験者に与え,それらを並べ換えることで要約を作成してもらっている.そして,その結果を比較することで,次のような知見を得ている.\begin{quote}すべての文の順序が被験者間で完全に一致することはあまりない.しかし,順序が入れ替わっても,常に隣り合って出現する文のペアがいくつかある.これらのペアは関連したトピックの文で構成されている.したがって,複数テキスト要約において文間の結束性を考慮することは重要である.\end{quote}このような知見に基づき,Barzilayら\cite{barzilay:01:a}は,要約文の順序を決定する方法を考案している.基本的にはトピックを時間順に並べるが,関連したトピックの文は必ず隣接して出力する.この方法により,作成される要約文書はある程度結束性が保たれる.Barzilayらは,この手法を先に述べた「記事が書かれた時間順に並べる方法」と比較し,前者の手法の方が優れていることを示している.\subsection*{分類2:複数のトピックを含んだテキスト集合からの要約作成}分類2の要約手法にはEguchiら\cite{eguchi:99:a},Fukuharaら\cite{fukuhara:99:a},Andoら\cite{ando:00:a},上田ら\cite{ueda:00:a},Kanら\cite{kan:01:a}のものがある.Eguchiら\cite{eguchi:99:a}は,WWW上のテキストを対象にした関連性フィードバックに基づく検索システムを構築している.このシステムでは,検索結果(a)をテキスト間の類似度に基づいてクラスタリングし,各クラスタごとにクラスタに多く含まれる語と,そのクラスタを代表するテキストのタイトルを,そのクラスタの要約として出力する(b-2).出力されたクラスタをユーザに選択してもらい,そのクラスタに含まれるテキストを用いて関連性フィードバックを行っている.Fukuharaら\cite{fukuhara:99:a}も,Eguchiらと同様に検索結果をクラスタリングし(a),クラスタごとに要約出力を行っている.Fukuharaらは,テキスト中の単語の出現頻度分布を考慮し,クラスタごとの話題を表す語とそれらを含んだ文を抽出する.さらに,抽出された文を,焦点-主題連鎖を考慮して並べ替え,クラスタごとの要約として出力している(b-2).Andoら\cite{ando:00:a}は,ベクトル空間モデルを用いて新聞記事集合中の記事間の類似度を計算し,それらをsemanticspaceと呼ばれる2次元空間上に配置し表示するシステムを構築している.semanticspace上では各記事はドットで表現され,またトピックの似た記事はsemanticspace上で隣接して配置される.マウスでsemanticspace上のドットを指せば,そのドット(記事)と関連のあるドット(記事)が強調され(a),さらに関連記事中の頻出単語(topicterm)や頻出単語を多く含む文(topicsentence)(b-2)が表示される.上田ら\cite{ueda:00:a}は,クラスタリングによりある程度同じ話題でまとめられたテキスト集合を対象に,各クラスタの特徴を表す文を自動的に作成する手法を提案している(a).上田らもBarzilayら,McKeownらと同様に,テキスト中の各文を構文解析し,テキスト間で構文木同士を比較することで,テキスト間の共通個所を同定するという手法を提案している(b-2).構文木の比較には2種類の方法を提案している.1つは,例えば「フーバー社が携帯電話を発売」という文を,意味的に等価な「携帯電話がフーバー社から発売」などに構文レベルで変換し,同一内容の異なる2文を同定し,クラスタのラベルとして出力するという方法である.もう1つは,シソーラスを用いて「ホウレンソウからダイオキシンが検出された」と「白菜からダイオキシンが検出された」の2文から「野菜からダイオキシンが検出された」といったように,より抽象度の高いレベルで融合し,ラベルとして出力するという方法である.これまで分類2で述べてきた要約作成手法は,形態素,あるいは構文レベルでテキスト間の比較を行っているが,個々のテキストからいくつかの属性値を抽出した後,テキストを属性レベルで比較し,要約を作成する試みがある.Kanら\cite{kan:01:a}は,ある検索クエリで検索された医療関係のテキスト集合を比較し,ユーザがどのテキストを読むべきか判断するのに有用なindicative(指示的)な要約を生成する手法を提案している.このシステムを利用することで,例えば喉頭炎(angina)を検索クエリとした場合,「検索結果は23件あります.結果には喉頭炎のガイド(`theAMAGuidetoAngina')が含まれています.」「喉頭炎に関する定義やリスクに関して述べたテキストがあります.」「喉頭炎の関連情報を含んだテキストがあります.」といった要約が出力される.このような要約を生成するために,Kanらは,まず個々のテキストを,セクションの情報に基づいて,そのテキストのトピックの構造を示す木(トピックツリー)で表現する.次に検索クエリがトピックツリーのどこに位置するのか(クエリとテキストのメイントピックとの関連),テキストの平均的な属性値と比較して,テキストに含まれるいくつかのトピックがどの程度重要であるのか(他のテキストと異なっているのか)(b-1,b-3)といった情報をテキストの属性値として抽出する.これらの値を用いて要約生成を行い,検索結果として出力する.\subsection*{その他の要約作成手法}これまでの複数テキスト要約の研究は,複数のテキストから得られた情報をいかに統合して要約を作成するかに主眼が置かれてきたと言える.一方,ある種のテキスト集合には,集合全体の内容をまとめたテキスト(パッセージ)が存在することがある.例えば,ある分野の研究動向をまとめたサーベイ論文や,ある事件に関する解説記事などがこれに相当する.このようなテキストを見つけ出すことができれば,それ自体を複数テキストの要約とみなすことができる.橋本ら\cite{hashimoto:01:a}は,ある事件に関して過去の主要な出来事が新聞記者の観点で要約されている個所をサマリパッセージと呼び,このような個所を記事集合から自動的に抽出する手法を提案している.サマリパッセージは,解説記事や社説など何らかの意見が述べられている記事(意見記事)中に含まれている.また事件の経緯を時系列に箇条書でまとめた個所もサマリパッセージと考えることができる.橋本らは,表層的な情報を用いてこれらのサマリパッセージの抽出を試みている.例えば,記事のタイトルに「社説」や「解説」を含む記事,意見文を多く含む記事は,意見,解説記事として抽出される.また,新聞固有の箇条書の形式を認定することでまとめ記事が抽出できる.こうして抽出されたパッセージは人間が作成したものであるため,これまでの複数テキスト要約で問題とされてきた要約の一貫性が保証されている. \section{要約対象の幅の広がり} これまでの自動要約研究の多くは,その要約対象のテキストのジャンルとして,新聞記事,論文を扱ってきた.これに対し,近年これ以外のジャンルのテキストを要約対象とする研究が見られるようになってきた.たとえば,webpageを対象とした研究としてはOCELOT\cite{berger:00:a}等があり,また,mailを対象とした研究としては\cite{toyama:00:a}等がある.さらに,テキストではなく,音声(あるいは,その書き起こしである話し言葉のデータ)を対象とする要約研究がいくつか見られるようになってきた.これには,講演音声のようなmonologueと,2人以上による対話(dialogue)の両方が含まれる.話し言葉を対象とした要約では,(1)テキストとしての情報以外に他の音響的情報が利用できる,(2)音声認識結果を入力とすることから,入力にノイズが含まれる,(3)後述するように,話し言葉の特性としての冗長性が入力には含まれる等,テキストを対象とした場合とは異なり,新たに考慮しなければいけない点が存在する.そこで,本節では,以下,これらの話し言葉を対象とした要約研究を概観する.なお,これまでにも,\cite{okumura:99:a}で紹介されている字幕作成における要約のように,入力としてニュース原稿の読み上げ音声を対象とした研究は存在する.堀と古井\cite{hori:01:a}は,講演音声を自動要約する手法として,各発話文から重要な単語を抜き出し,それらを接合することで要約文を作成する手法を提案している.要約は,要約のもっともらしさを示す要約スコアを最大にする文中の部分単語列をDPマッチングにより決定し得ている.要約スコアは,単語の重要度(頻度に基づく),単語連鎖の言語スコア(単語のtrigram),音声認識時の各単語の音響的,言語的信頼度,および原文中の単語の係り受け構造に基づく単語間遷移確率の重みつき和として定義される.講演は,自然な発話(spontaneousspeech)に比べれば整っているが,フィラーや言い直しなど,多くの冗長表現を含み,話し言葉に近い特性をもつ.この特徴を利用し,幅田と奥村\cite{habata:01:a}は,冗長表現を不要個所として削除することで,情報を欠落させずに要約を行う手法を示している.人手によって講演音声の要約を行っている要約筆記データの分析をまず行い,その分析結果を元に,文短縮型の要約システムを開発している.分析の結果,フィラー,言い直し・繰り返し表現,挿入句表現,丁寧表現,「〜という〜」表現が削除または言い替えの対象として得られている.削除率および,要約筆記データを正解データとした場合の精度を尺度として要約システムを評価したところ,削除率18.0\%,精度79.8\%が得られている.この研究は,聴覚障害者のための情報保証手段の一つして人手で現在行なわれている要約筆記の自動化を目指すものと言うことができる.笠原と山下\cite{kasahara:01:a}は,講演音声を対象とした要約の自動作成のため,重要文と韻律的特徴の関係についての分析を行なっている.Zechnerら\cite{zechner:01:a}は,対話を書き起こしたものを入力とし,MMRにより文をランク付けし,要約の長さまで,テキストの順序で文を出力する手法を示している.しかし,この手法では,質問に対応する応答が要約に含まれないため,一貫性に欠ける要約ができる可能性がある.そのため,複数の話者の発話にまたがる局所的一貫性(この研究では,質問・応答の組のみ)を検出し,それを要約の際考慮に入れる(その一部がMMRで選択された場合組全体を要約に含める)ことで,要約の読み易さが向上することを人間の主観評価により示している.Reithingerら\cite{reithinger:00:a}は,音声翻訳システムVERBMOBILを用いた,日程調整,ホテル予約のような領域における「交渉」対話を対象にした要約手法を示している.話し手の意図を発話行為クラスとして同定し,その情報を用いて,意図がsuggestならその内容を候補とし,rejectなら棄却,give\_reasonなら無視するというように,情報の選択の際に利用する.また,キーワードスポッティングにより,発話の内容を属性-値の組として同様に抽出する.そして,交渉対話では,話し手全員が合意したことに関心があるという前提を利用し,suggestされた内容で,acceptされたものを同定し,それを生成器で生成することで要約を作成している. \section{おわりに} 1999年の解説\cite{okumura:99:a}の後を受け,テキスト自動要約の研究分野において,ここ数年関心が高まっている話題を3つ紹介した.テキスト自動要約は,必要性が高まっていることもあり,今後も活発に研究が進められていくことと思われる.今後は,複数テキスト要約だけでなく,さらに対象範囲を広げ,複数の言語で書かれたテキスト(translingualsummarization),複数のメディアの情報を対象にした(テキストだけでなく,画像や音声も対象にする)要約(multi-mediasummarization)なども注目を集めそうである.今後も,テキスト自動要約の研究分野の動向には目が離せない.また,テキスト自動要約技術の応用として,いくつかの新しい方向性が明確になってきたことも,ここ数年の話題と言えるかもしれない.これまでも,サーチエンジンにおける検索結果の表示や,ユーザのナビゲーションにおいて要約を利用する研究や,字幕作成,文字放送用に要約手法を利用することは試みられていた.これに加えて,ここ数年で,携帯端末における情報提示のための要約の利用(たとえば,\cite{buyukkokten:01:a,corston:01:a})や,(高齢者,視聴覚障害者といった)情報弱者のための情報保証への要約の利用(たとえば,自動要約筆記\cite{habata:01:a}やユーザの視覚特性に合わせたトランスコーディング\cite{maeda:01:a})といった,新しい有望な応用分野が要約には付け加わったと言える.研究分野の動向とともに,今後,要約の応用分野の動向にも目が離せないと言える.最後に,新しい参考文献をいくつか紹介しておく.1999年に出版された\cite{mani:99:a}は,この分野の論文を,古典から最新のものまで集めた論文集であり,テキスト自動要約の最初の研究とも言われる\cite{luhn:58:a}も入っている.この分野で研究を始める人には必読と言える.TipsterのTextProgramPhaseIIIの論文集\cite{tipster:99:a}も出版されている.SUMMAC参加システムの概要がいくつか収録されており,また,SUMMACのdryrunの報告も含まれている.また,昨年自動要約に関する教科書も出版されている\cite{mani:01:a}.自動要約に関する話題をわかり易く記述してあり,この本もこの分野で研究を始める人には必読と言える.なお,この本の翻訳の出版計画も進んでいる.\bibliographystyle{/lr/data/sty/nlpsty/jnlpbbl}\bibliography{summarize}\begin{biography}\biotitle{略歴}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキストマイニングに関する研究に従事.情報処理学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.e-mail:[email protected],http://oku-gw.pi.titech.ac.jp/\~{}oku/.}\bioauthor{難波英嗣}{1996年東京理科大学理工学部電気工学科卒業.1998年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.2001年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年,日本学術振興会特別研究員.2002年東京工業大学精密工学研究所助手.現在に至る.博士(情報科学).自然言語処理,特にテキスト自動要約の研究に従事.情報処理学会,人工知能学会,ACL,ACM各会員.[email protected],http://oku-gw.pi.titech.ac.jp/\~{}nanba/}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N03-05
\section{はじめに} 自動要約技術は,要約作成時のアプローチによって抽出型と生成型の2種類の手法に分けられる.抽出型自動要約は,入力文書中の重要と思われる文を識別・抽出し,抽出した文を結合させたものを要約とする方法である.一方,生成型自動要約は,入力文書を中間表現に変換し,その中間表現を基に要約の文章を一から生成する方法である.本研究では,生成型の自動要約モデルの技術に着目する.生成型自動要約モデルでは,入力文書中にない単語も利用することができるため,自然な要約を生成することができ,ニュース記事や論文などの自動要約に役立つ.%2生成型自動要約や機械翻訳などの系列変換タスクでは,入力テキストから「文と単語」・「フレーズと単語」・「単語と文字」などの階層構造を捉えることで要約および翻訳精度の改善を実現している.機械翻訳において,\citeA{Multi-Granu}は,Transformer\cite{Transformer}に基づくニューラル機械翻訳モデルにおいて,単語とフレーズの関係を考慮するMulti-GranularitySelf-Attention(MG-SA)を提案している.MG-SAは,入力テキストを複数の粒度(単語やフレーズ)に分解し,それぞれの粒度をMulti-headSelf-AttentionNetworks(\textsc{San}s)の各ヘッドに割り当てる.このMG-SAにより,単語間だけでなく単語とフレーズ間の相互作用をモデルに組み込むことが可能となる.また,自動要約において,HierarchicalNeuralAutoencoder\cite{Hierarchical_model}やHIBERT\cite{HIBERT}では,エンコーダやデコーダを単語および文レベルに階層化することで,単語と文の階層構造を考慮している.これらのモデルでは,入力テキストに対し単語単位での処理に加え文単位でも処理することで,文と単語間の関係性を考慮している.%3近年,生成型自動要約は,ニューラルネットワークに基づくエンコーダ・デコーダモデルが出現したことで,要約の品質が大きく向上した\cite{AbsSumBase}.その中でも,高い精度を報告しているモデルの多くが事前学習\cite{BERTSUM,T5,BART}を導入している.既存の事前学習モデルの中でも,BARTモデル\cite{BART}は高い精度での自動要約を可能にしている.BARTモデルはTransformerモデル\cite{Transformer}をベースとした事前学習モデルで,5つの事前学習法による実験を行っている.BARTモデルは高性能なモデルだが,要約生成時に文書の階層構造をとらえる構造にはなっておらず,文と単語間の関係性が組み込まれていない.よって,BARTモデルにおいても文レベルの情報を捉えることで,さらなる精度向上が見込める.%4そこで本研究では,MG-SAの概念をBARTモデルに適用し,文と単語の階層的な関係を考慮した要約を可能とする手法として,Hierarchical-BART(Hie-BART)を提案する.具体的には,入力文書を単語レベルと文レベルの情報に分割し,BARTにおけるエンコーダの\textsc{San}s層では,単語レベルの関連を計算するだけではなく,一部のヘッドにおいて文レベルの関連を計算する.そして,単語レベルと文レベルのマルチヘッドの出力を結合させることで,単語レベルと文レベルの双方を考慮した要約生成を行う.ここで,MG-SAはフレーズ単位での処理を行うのに対し,Hie-BARTでは文単位で処理を行う.本研究では,自動要約における単語と文の階層構造を利用した従来研究に基づいて応用するため,フレーズ単位ではなく文単位で処理を行う.%5実験の結果,BARTに比べ提案手法では,ROUGE-L\cite{ROUGE}のF値が,CNN/DailyMailデータセットでは0.1ポイント改善することを確認した.また,分析の結果,マルチヘッドにおいて,文レベルのヘッドを多く含むよりも,単語レベルのヘッドを多く含む方がより精度の高い要約を生成することが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{従来のニューラルネットワークに基づく生成型自動要約モデル}ニューラルネットワークに基づく生成型自動要約モデルの基礎として,LSTMをベースとしたPointerGeneratorNetworks\cite{PTGEN}モデルがある.このモデルは,CopyNetモデル\cite{CopyNet}およびForced-AttentionSentenceCompressionモデル\cite{Forced-Attention}の手法を応用し,単語の生成時に要約元文書からの単語のコピーを同時に行うことで,未知語への対処をしている.また,このモデルでは,入力文書中の内容が要約に含まれた度合いを示すcoveragevector\cite{CoverageVector}を利用したCoverageMechanismという機構が適用されている.この機構により,生成した要約内で同じ内容が繰り返される問題を軽減している.文レベル情報を利用した自動要約モデルとして,LSTMをベースとしたHierarchicalNeuralAutoencoder\cite{Hierarchical_model}がある.このモデルでは,文章をエンコードおよびデコードする際,単語単位での処理に加え文単位でも処理することで,文と単語間の関係性を考慮している.これにより,単語と文の階層構造を考慮でき,要約性能を向上させている.また,このモデルを応用し,エンコーダ部分を階層化したHierarchicalnetworks\cite{Hierarchical_networks}がある.HierarchicalNeuralAutoencoderが文レベルでのアテンションのみを算出しているのに対し,Hierarchicalnetworksでは,文レベルと単語レベルの両方のアテンションを算出している.また,事前学習モデルであるBERT\cite{BERT}をベースとした\textsc{BertSum}\cite{BERTSUM}やHIBERT\cite{HIBERT}がある.BERTモデルは,Transformerエンコーダ\cite{Transformer}をベースとした,様々なタスクに適応可能な事前学習モデルである.自動要約タスクでは,\textsc{BertSum}\cite{BERTSUM}や,HIBERT\cite{HIBERT}においてBERTが適用されている.\textsc{BertSum}モデルは,BERTモデルを自動要約タスクに適応させたモデルで,抽出型および生成型要約モデルとして利用可能なモデルである.\textsc{BertSum}モデルでは,各文の先頭に特殊トークン([CLS]トークン)を付与し,単語間の情報に加え文間の情報を捉えるようにしている.HIBERTモデルは,BERTモデルをベースとした抽出型要約モデルである.HIBERTモデルでは,エンコーダ部分を文レベルおよび単語レベルに階層化し事前学習をすることで,単語と文の階層構造を考慮している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BART}BARTモデル\cite{BART}は,Transformerモデル\cite{Transformer}の構造をベースとした,汎用的な事前学習モデルである.BARTモデルの事前学習法を図\ref{fig:bart_pre}に示す.事前学習の手法として,TokenMasking,SentencePermutation,DocumentRotation,TokenDeletion,TextInfillingの5つの手法を提案している.この5つの手法のうち,SentencePermutationとTextInfillingを組み合わせたものが最高精度となっており,最終的な評価時に使用されている.TokenMaskingは,BERT\cite{BERT}と同じ手法で,ランダムにトークンをマスクし,復元する事前学習法である.SentencePermutationは,文書内の文の場所をランダムに交換した文書を元の文書に復元する事前学習法である.DocumentRotationは,文書中からランダムにトークンを選び,そのトークンから始まるように文書内のトークンをローテーションさせた文書を,元の文書に復元する事前学習法である.TokenDeletionは,元の文書からランダムにトークンを削除した文書を,元の文書に復元する事前学習法である.TextInfillingは,SpanBERT\cite{SpanBERT}を基にした手法で,複数の単語列を一つのマスクトークンに置き換えたり,文中にマスクトークンを挿入した文書を,元の文書に復元する事前学習法である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-3ia4f1.pdf}\end{center}\caption{BARTモデルの事前学習法}\label{fig:bart_pre}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%BARTモデルの概要図を図\ref{fig:bart_transformer}に示す.BARTモデルは入力系列$\textbf{x}=x_0,x_1,\cdot\cdot\cdot,x_S$を出力系列$\textbf{y}=y_0,y_1,\cdot\cdot\cdot,y_T$に以下の式のように変換する.\begin{align}\textbf{h}&=BartEncoder(\textbf{x})\\\textbf{y}&=BartDecoder(\textbf{h})\end{align}ここで,\textbf{h}は中間表現,$BartEncoder$は図\ref{fig:bart_transformer}の左部分,$BartDecoder$は図\ref{fig:bart_transformer}の右部分である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-3ia4f2.pdf}\end{center}\caption{BARTモデルの概要図}\label{fig:bart_transformer}\vspace{-1\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%BARTのエンコーダとデコーダは,Embedding層を持ち,それぞれ,入力系列と出力系列内の各単語を$d$次元のEmbeddingベクトルに変換する.BARTエンコーダ,BARTデコーダでは,それぞれ,レイヤをN層積み重ねている.エンコーダの各レイヤは,下位から順に,Self-Attention層,単語位置毎の全結合層(FeedForward層)の2つのサブレイヤで構成される.デコーダの各レイヤは,下位から順に,Self-Attention層,エンコーダとデコーダ間のAttention層,FeedForward層の3つのサブレイヤで構成される.また,各サブレイヤ間では,残差接続\cite{Residual}およびLayerNormalization\cite{Normalize}が適用される.エンコーダとデコーダ内のSelf-Attention層およびエンコーダとデコーダ間のAttention層の計算は以下の式のようになる.\begin{equation}Attention(Q,K,V)=softmax(\frac{QK^T}{\sqrt{d_k}})V\label{T_attn}\end{equation}ここで,$Q,K,V$はエンコーダあるいはデコーダの隠れ状態,$d_k$は$Q,K,V$の次元数である.Self-Attention層では,$Q,K,V$は同一の入力源(エンコーダではエンコーダ内の隠れ状態,デコーダではデコーダ内の隠れ状態)を用い,同一文中の単語間の関連度を計算する.エンコーダとデコーダ間のAttention層では,$Q$にはデコーダの隠れ状態,$K,V$はエンコーダからの最終出力を用い,入力系列の各単語と出力系列の単語との関連度を計算する.また,エンコーダとデコーダ間のAttention層およびSelf-Attention層はMulti-headSelf-AttentionNetwork(\textsc{San}s)の手法を利用することで性能を向上させている.$h$個ヘッドの\textsc{San}sは以下の式のように計算する.\begin{align}\textsc{San}s(Q,K,V)&=Concat(head_1,\dots,head_h)W^O\\head_i&=Attention(QW^Q_i,KW^K_i,VW^V_i)\end{align}ここで,$W^Q_i,W^K_i,W^V_i,W^O$は学習可能なパラメータ,$Concat$は行列の結合である.\textsc{San}sでは,式(\ref{T_attn})の$d_k$は$d_k=d/h$となる.最終的に,BARTデコーダは,最終層の出力から全結合層(Linear)とSoftmax層によって出力単語の確率分布を算出する.ここで,エンコーダは双方向モデル,デコーダは自己回帰モデルとなっている.この事前学習済みBARTモデルは,様々なタスクに合わせてfine-tuningされる.自動要約タスクでは,要約元文書がエンコーダに与えられ,デコーダで文書の要約を生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{階層構造を考慮したテキスト生成}機械翻訳において,入力テキストにおける文章の階層構造を考慮するためにMulti-GranularitySelf-Attention(MG-SA)\cite{Multi-Granu}がある.本節では,MG-SAについて概説する.MG-SAは,入力テキストを複数の異なる粒度の要素(単語とフレーズ)に分け,各粒度の要素をMulti-headSelf-AttentionNetwork(\textsc{San}s)の各ヘッドに割り当てることで異なる粒度の情報を捉える方法である.この手法ではまず,次のように,\textsc{San}sの入力$H$からフレーズレベルの情報を表す行列$H_g$を生成する.\begin{equation}H_g=F_h(H)\end{equation}ここで,$F_h(\cdot)$は$h$番目のヘッドに対するフレーズレベルの入力を生成する関数である.具体的には,$F_h(\cdot)$は,単語レベルのベクトルに対してMaxPoolingを適用することでフレーズレベルのベクトルを生成する.この生成されたフレーズレベルの入力を用いて,\textsc{San}sを次のように実行する.\begin{align}Q^h,K^h,V^h&=HW^h_Q,H_gW^h_K,H_gW^h_V\\O^h&=\textbf{ATT}(Q^h,K^h)V^h\end{align}ここで,$Q^h\in\textbf{R}^{n\timesd_h},K^h\in\textbf{R}^{p\timesd_h},V^h\in\textbf{R}^{p\timesd_h}$,${W_Q^h,W_K^h,W_V^h}\in\textbf{R}^{d\timesd_h}$であり,$d$は隠れ層の次元数,$d_h$は各ヘッドの次元数,$n$は単語レベルのベクトルの次元数,$p$はフレーズレベルのベクトルの次元数である.また,\textbf{ATT(X,Y)}はXとYのアテンション重みを算出する関数である.この演算により,\textsc{San}sにおける各ヘッドの出力$O^h$が生成される.その後,全てのヘッドの出力を結合させたものが,入力$H$に対するMG-SAの出力となる.\begin{equation}\textbf{MG-SA(H)}=[O^1,...,O^M],\end{equation}ここで,$M$はMulti-headのヘッド総数を示す.各ヘッドの出力\textbf{$O^h$}は,単語間の情報を含んでいるものや,単語とフレーズ間の情報を含んでいるものがある.したがって,MG-SAを使うことで,単語間の関連性に加えて,単語間とフレーズ間の関連性を捉えることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 本研究では,文と単語の階層的な関係を考慮するため,MG-SAの概念をBARTモデルに適用したHie-BART(Hierarchical-BART)を提案する.Hie-BART(Hierarchical-BART)モデルでは,エンコーダは,通常のBARTモデルが備えている単語同士の関連性を捉える単語レベルのMulti-headSelf-AttentionNetworks(\textsc{San}s)に加えて,文と単語間の関連性を捉える文レベルの\textsc{San}sを備えている.Hie-BARTの概要図を図\ref{fig:proposed}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{29-3ia4f3.pdf}\end{center}\caption{Hie-BARTのモデル図}\label{fig:proposed}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%エンコーダにおいて,入力テキストをEmbedding層に通した後,単語と文間の階層構造情報を捉えるため,単語レベル\textsc{San}sと文レベル\textsc{San}sの計算を行う.ここで,各文を区別するために,入力テキスト中の各文の先頭には$[BOS]$トークンを付与している.文レベルの\textsc{San}sでは,文レベルの情報を得るために,CreateSentenceLevelVector層で単語レベルの入力から文レベルの入力を作成した後,アテンションの計算を行う.各ヘッドでアテンションの計算が終了したら,単語レベル情報と文レベル情報を組み合わせるために,単語および文レベルの出力をConcatenate層で結合し,次層のFeedForward層への入力とする.ここで,単語レベルおよび文レベルの\textsc{San}s計算からConcatenate層で結合するまでの動作をMG-\textsc{San}sとすると,以下のような式で表される.\begin{equation}\textbf{MG-\textsc{San}s(W,S)}=[O^1,...,O^{H}]\end{equation}ここで,\textbf{W},\textbf{S}はそれぞれ単語レベルおよび文レベルの入力,$H$は\textsc{San}sのヘッド総数,$O^i$はMG-\textsc{San}sのヘッド$i$の出力である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{CreateSentenceLevelVector層}\label{sec:CreateSentence}CreateSentenceLevelVector層の動作例を図\ref{fig:CreateSent}に示す.$E_{w_{ij}}$および$E_{[BOS]}$は単語$w_{ij}$($i$番目の文中の$j$番目の単語)および$[BOS]$トークンの埋め込みベクトルである.$E_{s_i}$は単語レベルの埋め込みベクトルから生成された文$s_i$($i$番目の文)の文レベルの埋め込みベクトルである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{29-3ia4f4.pdf}\end{center}\caption{CreateSentenceLevelVector層の動作例}\label{fig:CreateSent}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%文レベルの情報を得るために,CreateSentenceLevelVector層において,単語レベルの埋め込みベクトルからAveragePoolingにより文レベルの埋め込みベクトルを生成する.具体的には,単語系列$W=(w_{1},...,w_{N})$(各$w_{i}$は単語)が入力として与えられた場合,まず,単語系列$W$を文分割し,文系列$S=(s_{1},...,s_{M})$(各$s_{i}$は文)を得る.ここで,$N$は総単語数,$M$は総文数を示す.そして,$S$の各要素(各文)に対して,次のようにAveragePoolingを適用する.\begin{equation}g_m=\textbf{AVG}(s_m)\end{equation}ここで,\textbf{AVG(・)}はAveragePoolingを実行する関数である.これにより,各文に対する埋め込みベクトル$G=(g_{1},...,g_{M})$を生成する.実際には,$W$と$S$の各要素は埋め込みベクトルとなる.例えば,図\ref{fig:CreateSent}において,$E_{s_1}$を生成する場合は,[$E_{[BOS]},E_{w_{11}},E_{w_{12}},E_{w_{13}}$]に対してAveragePoolingを適用する.以上のように生成された$G$を文レベルの\textsc{San}sの入力とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Concatenate層}単語レベル情報と文レベル情報を組み合わせるために,Concatenate層において,単語レベル\textsc{San}sと文レベル\textsc{San}sの出力を結合させる.Concatenate層では,次のような単語レベル\textsc{San}sと文レベル\textsc{San}s層の出力が入力となる.\begin{align}\textbf{Word\textsc{San}s(W)}&=[O^1_w,...,O^{H}_w]=O^{ALL}_w\\\textbf{Sentence\textsc{San}s(G)}&=[O^1_s,...,O^{H}_s]=O^{ALL}_s\end{align}$O^{ALL}_w$は単語レベルの\textsc{San}sの出力であり,$O^i_w$は単語レベルの\textsc{San}sのヘッド$i$の出力である.一方で,$O^{ALL}_s$は文レベルの\textsc{San}sの出力であり,$O^i_s$は文レベルの\textsc{San}sのヘッド$i$の出力である.ここで,$H$は\textsc{San}sのヘッド数を示す.Concatenate層では,この単語および文レベルの\textsc{San}sの出力結果を次のように結合させる.\begin{equation}\textbf{CONCAT}(O^{ALL}_w,O^{ALL}_s,j)=[O^1_w,...,O^{j}_w,O^{j+1}_s,...,O^H_s]\end{equation}ここで,$j$は結合点である.$H$個のMulti-headの内,1から$j$までのヘッドを単語レベルの出力とし,$j+1$から$H$までのヘッドを文レベルの出力として結合する.Hie-BART内のConcatenate層の動作例を図\ref{fig:Concat}に示す.図\ref{fig:Concat}は,Multi-headのヘッド数が6で,結合点$j$が4の場合の動作を示している.単語レベルの\textsc{San}sの出力である$[O^1_w,...,O^6_w]$と,文レベルの\textsc{San}sの出力である$[O^1_s,...,O^6_s]$が結合点$j=4$で結合された$[O^1_w,O^2_w,O^3_w,O^4_w,O^5_s,O^6_s]$がConcatenate層の出力となる.以上のように生成されたConcatenate層の出力を次層のFeedForward層への入力とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{29-3ia4f5.pdf}\end{center}\caption{Concatenate層の動作例(ヘッド数が6の場合)}\label{fig:Concat}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:Experiments}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}データセットは,英文ニュース記事の要約コーパスであるCNN/DailyMailデータセット\footnote{\label{foot:cnn}CNN/DailyMailデータセットのダウンロードベージ:\url{https://github.com/abisee/cnn-dailymail}}\cite{CNN/DailyMail}およびXSumデータセット\footnote{\label{foot:xsum}XSumデータセットのダウンロードページ:\url{https://github.com/EdinburghNLP/XSum}}\cite{XSum}を使用した.\linebreakCNN/DailyMailデータセットは,学習データが287,226対,開発データが13,368対,テストデータが11,490対で構成されている.要約元文書は平均781トークン,要約文は平均56トークンである.また,XSumデータセットは,学習データが204,045対,開発データが11,332対,テストデータが11,334対で構成されている.要約元文書は平均431トークン,要約文は平均23トークンである.%%%%データの前処理について,トークン化はCNN/DailyMailダウンロードページ\footref{foot:cnn}およびXSumダウンロードページ\footref{foot:xsum}の通りに行い,データの前処理について,トークン化はCNN/DailyMailダウンロードページ{\kern0pt}$^{1}$およびXSumダウンロードページ{\kern0pt}$^{2}$の通りに行い,BPE\cite{BPE}の使用などはfairseq\cite{fairseq}による前処理\footnote{\label{foot:BART}fairseqによるBARTの利用法:\url{https://github.com/pytorch/fairseq/tree/master/examples/bart}}に基づいて行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}Hie-BARTモデルの実装は,fairseqによるBARTモデルのコードを基に改良することで実装した.%%%%また,事前学習済みのモデルはfairseqのモデル「bart.large」\footref{foot:BART}を使用した.また,事前学習済みのモデルはfairseqのモデル「bart.large」{\kern-0.5zw}$^{3}$を使用した.BARTをfine-tuningする際,CNN/DMデータセットでは,勾配累積のハイパーパラメータupdate-freqを10,最大エポック数max-epochを6,総学習ステップ数を20,000とした.XSumでは,update-freqを10,max-epochを10,総学習ステップ数を15,000とした.また,提案手法Hie-BARTのハイパーパラメータは,Multi-headのヘッド数を16,単語レベルと文レベルの\textsc{San}sにおける出力の結合ヘッド数の割合を「単語:文=14:2」とした.結合ヘッド数の割合のハイパーパラメータは開発データで調整した.表\ref{tab:Multi-head-ROUGE}に示す通り,開発データにおいて最も性能がよかった割合を採用している.このハイパーパラメータに関しては,\ref{sec:Analysis}章にて考察する.%%%%その他のハイパーパラメータはfairseqによる設定\footref{foot:BART}を用いた.その他のハイパーパラメータはfairseqによる設定{\kern0pt}$^{3}$を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{04table01.tex}\caption{データセット}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}\label{sec:Results}実験結果を表\ref{tab:ROUGE}と表\ref{tab:ROUGE_XSum}に示す.表\ref{tab:ROUGE}にCNN/DailyMail,表\ref{tab:ROUGE_XSum}にXSumのテストデータによる結果を示している.評価指標として,ROUGE-1,ROUGE-2,ROUGE-LのF値\cite{ROUGE}を用いた.ROUGEスコアの算出には,files2rouge\footnote{files2rouge利用法:\url{https://github.com/pltrdy/files2rouge}}を利用した.ROUGEのオプションとして,95\%信頼区間を利用,ステミングは無し,ストップワード除去の有無は無しとした.ROUGEオプションの引数は,``-c95-r1000-n2-a''とした.実験では,提案手法のHie-BARTモデルを,非階層の通常のBARTモデルに加えて,LEAD-3\cite{LEAD3},PTGEN\cite{PTGEN},PTGEN+COV\cite{PTGEN},\textsc{BertSumExtAbs}\cite{BERTSUM},T5\cite{T5}と比較した.ベースラインのBARTモデルとして,我々の計算機環境で再現したBARTモデルの結果(BART(ours))に加えて,Lewisら\cite{BART}で報告されている結果も示している.なお,BART(ours)およびHie-BART(ours)の結果については,3回の試行結果の平均を掲載している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[tb]\input{04table02.tex}\caption{各モデルの要約性能(CNN/DMテストデータでの性能)}\label{tab:ROUGE}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[tb]\input{04table03.tex}\caption{各モデルの要約性能(XSumテストデータでの性能)}\label{tab:ROUGE_XSum}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:ROUGE}より,CNN/DailyMailデータセットでは提案手法Hie-BARTはROUGE-LのF値において,我々が再現したBARTからは,0.1ポイント改善していることが分かる.また,表\ref{tab:ROUGE_XSum}より,XSumデータセットでは提案手法Hie-BARTはROUGE-1/2/LのF値において,我々が再現したBARTからほぼ同等の性能であることが分かる.これらの結果より,CNN/DailyMailデータセットにおいて提案手法が有効であることを確認できた.なお,XSumデータセットにおけるハイパーパラメータはfairseqのデフォルト値を用いた\footnote{CNN/DMで使用したハイパーパラメータも試したが,開発データにおいてfairseqのデフォルト値(\url{https://github.com/pytorch/fairseq/blob/main/examples/bart/README.summarization.md})の方が良かった.ただし,Lewisら\cite{BART}の値には及ばなかった.}.ただし,メモリの都合上,update-freqを10としている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} \label{sec:Analysis}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ヘッド数の割合による性能比較}提案手法は,Concatenate層で単語レベルと文レベルのヘッドの出力を特定の割合で結合する.この割合の変化で提案手法の性能がどう変わるかを考察する.表\ref{tab:Multi-head-ROUGE}に,結合時の単語レベルと文レベルのヘッドの割合を変えた時の提案手法の開発データにおける性能を示す.ヘッド数の割合はハイパーパラメータとして手動で調節しており,表\ref{tab:Multi-head-ROUGE}の最左列に示されている.最左列が「単語:文=x:y」の場合,単語レベルのヘッド数がx,文レベルのヘッド数がyを表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{04table04.tex}\hangcaption{単語レベルと文レベルのヘッド数の割合による性能比較(CNN/DMおよびXSum開発データでの性能)}\label{tab:Multi-head-ROUGE}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:Multi-head-ROUGE}より,CNN/DMおよびXSumデータセットの両方で,``単語:文=14:2''の場合がROUGE-1/2/Lスコアの平均が最大になっていることが確認できる.また,単語レベルに比べて文レベルのヘッド数の割合が少ない方が,ROUGEスコアが高くなる傾向にあることが分かる.また,単語レベルのヘッド数を8以下に減らしていく方向は,精度の改善が見られなかったので表\ref{tab:Multi-head-ROUGE}には掲載していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{CreateSentenceLevelVector層におけるPooling}\ref{sec:CreateSentence}節のCreateSentenceLevelVector層では,\pagebreak単語レベルのベクトルから文レベルのベクトルを作成する際にAveragepoolingを利用している.一方,従来手法であるMG-SAでは,単語レベルのベクトルからフレーズレベルのベクトルを作成する際にMaxpoolingを利用している.そこで,文レベルベクトルの作成において,MaxpoolingとAveragepoolingを利用した場合の,それぞれの要約性能の比較を行う.表\ref{tab:PoolingROUGE}にPooling毎の要約性能比較を示す.データとして,CNN/DailyMailデータセットの開発データを利用している.なお,結果については,3回の試行結果の平均を掲載している.表\ref{tab:PoolingROUGE}より,Averagepoolingを利用したモデルの方が,Maxpoolingを利用したモデルに比べ,ROUGEスコアが全体的に向上していることが確認できる.この結果より,本研究において,単語レベルのベクトルから文レベルのベクトルを作成する際は,MaxpoolingよりもAveragepoolingを利用することで精度の向上が確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{04table05.tex}\caption{Pooling毎の要約性能比較(CNN/DM開発データでの性能)}\label{tab:PoolingROUGE}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{要約例}表\ref{tab:Example}にベースラインモデル(BART)と提案モデル(Hie-BART)によるROUGEスコアの高い要約例と,正解要約の例を示す.表\ref{tab:Example}の提案モデルによる要約は,正解要約の内容に近い流暢な要約であり,提案モデルの要約が要約元文書の重要な部分を含んでいることを示している.ROUGEスコアの低い要約例を表\ref{tab:Example_bad}に示す.この例では,ベースラインモデルの要約と提案モデルの要約はほぼ同じ内容を含んでおり,正解要約の内容からは遠く,長い文章となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[p]\input{04table06.tex}\caption{精度の高い要約例(要約元文書は一部省略している)}\label{tab:Example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[tp]\input{04table07.tex}\caption{精度の低い要約例}\label{tab:Example_bad}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{要約の文長比較およびROUGEスコアの詳細比較}従来手法のBARTによる要約,提案手法のHie-BARTによる要約,正解要約のそれぞれの文長の比較を行う.表\ref{tab:summarylen}に,テストデータにおける各モデルの出力要約の文長を示す.表\ref{tab:summarylen}より,CNN/DailyMailデータセットおよびXSumデータセットにおいて,要約の平均的な文長は,従来手法BARTに比べ提案手法Hie-BARTによる要約の方が短くなっており,正解要約の平均文長に近づいていることが分かる.また,\ref{sec:Results}節に示した従来手法BARTと提案手法Hie-BARTのROUGEスコアの詳細として,Precision,Recall,F値の結果を掲載し比較する.表\ref{tab:DetailROUGECNNDM}にCNN/DailyMailデータセットでの結果,表\ref{tab:DetailROUGEXSum}にXSumデータセットでの結果を示す.なお,結果については,3回の試行結果の平均を掲載している.表\ref{tab:DetailROUGECNNDM},\ref{tab:DetailROUGEXSum}より,提案手法Hie-BARTは従来手法BARTに比べ,Recallのスコアが低下し,Precisionのスコアが上昇している.この結果より,提案手法Hie-BARTでは従来手法よりも短い要約で,同等かそれ以上の精度の要約を生成していることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{04table08.tex}\caption{テストデータにおける各モデルの平均要約文長(単語数)}\label{tab:summarylen}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{04table09.tex}\caption{各モデルの要約性能詳細(CNN/DMテストデータでの性能)}\label{tab:DetailROUGECNNDM}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{04table10.tex}\caption{各モデルの要約性能詳細(XSumテストデータでの性能)}\label{tab:DetailROUGEXSum}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conclusion}本研究では,BARTにおけるエンコーダのSelf-Attention層を単語レベルと文レベルに分割し計算することで,単語と文間の関係性を考慮するHie-BARTを提案した.BARTを階層化することにより,CNN/DailyMailデータセットにおいて,ROUGE-LのF値が0.1ポイント改善することを確認した.今後は,単語間や単語と文間の情報に加え,文同士の関係を取り入れる手法に拡張する予定である.また,本研究ではROUGEスコアに基づく評価を行ったが,原文書への忠実性に基づく評価を行うことを検討している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP21K12031の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{秋山和輝}{%2020年愛媛大学工学部情報工学科卒業.2020年より同大学院理工学研究科修士課程に在学.}\bioauthor{田村晃裕}{%2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教.2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).情報処理学会,言語処理学会,人工知能学会,ACL各会員.}\bioauthor{二宮崇}{%1996年東京大学理学部情報科学科卒業.1998年東京大学大学院理学系研究科情報科学専攻修士課程修了.2001年同大学院博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\bioauthor{梶原智之}{%愛媛大学大学院理工学研究科助教.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.博士(工学).大阪大学データビリティフロンティア機構の特任助教を経て,2021年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V31N02-14
\section{はじめに} \label{sec:intro}自然言語理解において,文が表す時間関係の理解は重要である.自然言語には時間表現だけでなく,テンスやアスペクト,時間副詞など様々な時間に関する言語現象がある.以下は時間に関する言語現象の例である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{exe}\ex\label{ex:1}彼は走っ\textbf{た}。(テンス)\ex\label{ex:2}彼は走っ\textbf{ている}。(アスペクト)\ex\label{ex:3}\textbf{昨日}、彼は走った。(時間副詞)\end{exe}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの言語現象は組み合わさって用いられることが多い.例えば(\ref{ex:3})では時間副詞とテンス・アスペクトが組み合わされている.したがって,時間関係を理解するためには個々の言語表現の意味を捉えた上で構成的に文全体の意味を捉える必要がある.そのため,時間関係の理解は挑戦的な課題である.自然言語処理において,時間に関する代表的なタスクとしては時間関係認識がある.これは,文に含まれるイベント間の時間関係を認識するタスクであり,モデルの時間理解を評価する際にしばしば用いられる.このタスクはモデルの時間認識能力を評価するのに適している.一方で,時間関係認識タスクを通じて自然言語理解能力,すなわち,モデルが時間を含む文全体の意味を正しく捉えられているかを分析できるかは自明ではない.自然言語理解能力を評価するタスクの1つに自然言語推論(NaturalLanguageInference:NLI)がある.自然言語推論は単一または複数の文からなる前提を真としたときに,単一の文からなる仮説が真となるか(含意),偽となるか(矛盾),どちらでもないか(中立)を判定する言語理解タスクである.時間推論は時間の理解が要求されるNLIであり,言語モデルの時間認識能力を,自然言語理解能力とともに評価するのに適したタスクである.以下に時間推論問題の例を示す.\begin{exe}\ex\begin{xlist}\exi{Premise(P):}彼は走っていた。\exi{Hypothesis(H):}彼は走った。\exi{GoldLabel(G):}\entailment\end{xlist}\ex\label{ex:6}\begin{xlist}\exi{P:}彼は彼女の前に走った。\exi{H:}彼は彼女の後に走った。\exi{G:}\contradiction\end{xlist}\end{exe}これらの問題では,どちらも前提文(Premise)と仮説文(Hypothesis)の表層形は類似している.そのため,表層形の類似度を推論の手がかりにすると同じラベルが予測される可能性が高い.しかし,実際には2つの問題の正解ラベルは異なっている.このように,類似度だけを手がかりに推論を行うと誤った予測が得られるケースが時間推論には多く存在する.その上,時間推論問題の正解ラベルは前述の言語現象の多様な組み合わせによって変化する.そのため,時間推論タスクは挑戦的であり,事前学習済み言語モデルにとっても課題である.言語モデルの時間推論能力を評価した既存研究には\citet{vashishtha-etal-2020-temporal}や\citet{thukral-etal-2021-probing}がある.しかし,これらの既存の分析や評価用データセットの多くは英語を対象としている上,時間に関する言語現象の一部しか扱っていない.一方で,日本語の多様な時間推論に関する分析や評価用データセットは少ない.そのため,言語モデルがどの程度日本語の時間推論パターンや時間表現を汎化できるかについての分析は十分には行われてこなかった.本研究の目的は,多様な時間推論に対する言語モデルの汎化能力を詳細に分析できる,形式意味論に基づいた日本語NLIベンチマーク\oursを構築することである.NLIベンチマークを構築する主な手法としては,クラウドソーシングを用いて構築する手法や,専門家が人手で構築する手法が挙げられる.しかし,前者の手法ではデータセット中のバイアスの制御が困難であり,後者の手法では言語モデルの分析に必要なデータ量を確保するためのコストが問題となる.また,人手による構築では,語彙や構文の選択がアノテータの事前知識に依存する.そのため,語彙や推論パターンを制御することが困難であり,未知の語彙や推論パターンに対する汎化性能を評価することが難しいという問題がある.本研究では,それらの問題を解決するために,推論テンプレートを用いた半自動構築アプローチを採用する.この手法では,理論言語学の知見に基づいて手動で設計した推論テンプレートに自動で多様な語彙を割り当てる.これにより,推論パターンと語彙の分布を制御したスケーリング可能なデータセットが構築できる.そして,構築したデータセットを推論パターンなどで制御し,その上でモデルを評価することで,\hl{理論言語学}に基づいた詳細なモデルの分析が可能になる.図\ref{fig:punch}は\oursの構築手法の概略図である.提案手法では,まずFraCaS\cite{FraCaS}の日本語版であるJSeM\cite{Ai_Kawazoe_2015}に含まれる時間推論問題を抽出し,その内容語と時間表現をマスクすることで推論テンプレートを作成する.次に,京都大学格フレーム\cite{kawahara-kurohashi-2006-fully}からChatGPT\cite{openai-2023-chatgpt}を用いて自然な格フレームを抽出する.そして,得られた格フレームに言語モデルを用いて自動でアスペクトをアノテーションする.その後,抽出した格フレームとランダムな時間表現を推論テンプレートに割り当てることで,自然な文からなる問題を生成する.問題の正解ラベルは,推論テンプレートだけでなく,問題に割り当てた時間表現や格フレームのアスペクトに応じて定める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure*}[t]%%%%%\includegraphics[width=14cm]{figure/punch.pdf}\begin{center}\includegraphics{31-2ia13f1.pdf}\end{center}%\hangcaption{\oursのデータ生成手法のイメージ図.INTは「2時間」や「3ヶ月間」などの区間を表す語に対するプレースホルダである.$\dashrightarrow$は正解が不定であることを,$\rightarrow$は正解が\entailmentであることを,$\nrightarrow$は正解が\contradictionであることを表す.}\label{fig:punch}\end{figure*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,時間推論パターンや時間表現の形式に基づいて学習データを分割し,分割したデータセットを学習に用いることで,言語モデルの時間推論能力を詳細に分析する.実験では,構築したテストデータ上で3種類の識別系言語モデル(日本語言語モデル2種および多言語言語モデル1種)\cite{devlin-etal-2019-bert,liu-etal-2019-roberta,conneau-etal-2020-unsupervised}と3種類の生成系言語モデル\cite{openai-2023-chatgpt,openai-2023-gpt4}の時間推論能力を評価する.\rhl{構築したデータセットは研究利用可能な形式で公開している}\footnote{\url{https://github.com/ynklab/Jamp_sp}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2\setcounter{exx}{0} \section{背景} \label{sec:background}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.1\subsection{時間推論}\label{subsec:temporal_inference}時間推論とは,時間に関する自然言語推論のことである.時間推論には様々な種類の推論が存在する.表\ref{tab:temporal_inference_example}にいくつかの時間推論の種類と問題の例を示す.表\ref{tab:temporal_inference_example}の例の他にも時間推論の中には時間的常識,区間,直示時間副詞や量化時間副詞に関する推論などが存在する\cite{Kamp1993-KAMFDT,kaufmann2011temporal}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{13table01.tex}\caption{時間推論の種類と対応する問題の例.}\label{tab:temporal_inference_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%言語モデルの時間推論能力を評価するために,これまで複数の時間推論データセットが提案されてきた.\citet{vashishtha-etal-2020-temporal}はイベントに関する既存のデータセットから5つの新しい時間推論データセットを構築した.このデータセットは文中の複数のイベントの順序関係やイベントに要する時間に関する推論に焦点を当てている.時間的順序や区間に関する他の既存データセットとしては\citet{thukral-etal-2021-probing}が挙げられる.これらのデータセットはテンプレートベースで大規模に構築されているため,言語モデルの評価を行うのに適している.一方で,時間的順序と区間のみに焦点を当てているため,時間副詞やテンス・アスペクトなどの言語現象に焦点を当てた時間推論に対する能力は評価できない.\citet{kober-etal-2019-temporal}はアスペクトに関する推論データセットを構築した.これはテンスとアスペクトのみが異なる2つの文の組の含意関係を推論するデータセットである.このデータセットは専門家によってアノテーションされているために正解ラベルの妥当性が保証されている一方で,ほとんどの問題が単純な文で構成されているという課題がある.FraCaS\cite{FraCaS}は形式意味論に基づいて体系的に構築された,多様な言語現象に関する推論を含む推論データセットである.このデータセットは専門家が人手で構築しているため,品質が保証されている.一方で,規模としてはそれほど大きくないため,言語モデルの学習用には適していない.そのため,テストデータと同じ分布のデータを制御して学習に用いることで言語モデルの汎化性能を評価する,といった分析には用いることができない.また,前述のデータセットは全て英語であるため,日本語言語モデルの学習や評価には利用できない.日本語の時間推論データセットとしては\citet{thukral-etal-2021-probing}の日本語版であるPLMUTE\_ja\cite{sugimoto-yanaka-2022-compositional}や,FraCaSの日本語版であるJSeM\cite{Ai_Kawazoe_2015}があるが,どちらも英語版と同様の問題があるため,時間推論に関する言語モデルの汎化性能を評価するには適していない.そこで本研究では,まず時間推論の種類について再整理する.そして,それぞれの時間推論の種類について問題を生成することで,様々な時間推論パターンを含む大規模な日本語時間推論データセット\oursを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.2\subsection{\hl{語彙的アスペクトの判別}}\label{subsec:lexical_aspect_prediction}\hl{本節では,我々のデータセット構築手法の一部のプロセスとして扱っている語彙的アスペクトの判別に関して,理論的な背景と主な判別手法について紹介する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.2.1\subsubsection{アスペクト}\label{subsubsec:lexical_aspect}アスペクトは動きの時間的局面を表す文法カテゴリーの1つである.言語学において,アスペクトは\textbf{文法的アスペクト}と\textbf{語彙的アスペクト}に大別される.文法的アスペクトは話者が事象をどのような時間的視点から捉えているかを表す形式であり\cite{smith-1991-parameter},日本語では「テイル」などが例として挙げられる.一方,語彙的アスペクトは,「ある」は状態を表し,「走る」は臨界点のない動き,「駅まで走る」は臨界点のある動きを表すといった,述語やその項によって決定されるアスペクトのことを指す\hl{\cite{smith-1991-parameter}.}これまで語彙的アスペクトは様々な側面から分類されてきた.最も広範に用いられているのはVendlerの4分類\cite{vendler-1957-verbs}である.Vendlerは動詞を動的(dynamic)かどうか,有界的(telic)かどうか,瞬間的(punctual)かどうかの3つの軸で分類した.表\ref{tab:vendler_classification}にVendlerの4分類を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[b]\input{13table02.tex}\caption{Vendlerの語彙的アスペクトの分類.}\label{tab:vendler_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%日本語における語彙的アスペクトに基づく分類の代表例は金田一の4分類\cite{kindaichi-1950-verbs}である.これは主に\hl{動詞のテイル形が表す意味に着目}して日本語動詞を分類したものである.表\ref{tab:kindaichi_classification}に金田一の4分類を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[b]\input{13table03.tex}\caption{金田一の動詞分類.}\label{tab:kindaichi_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%自然言語推論の問題を自動構築するという観点では,前述の語彙的アスペクトの分類には不十分な点がある.例えば,以下の推論パターンを考える.\begin{exe}\ex\label{ex:7}\begin{xlist}\exi{P:}彼はAしている。\exi{H:}彼はAしかけている。\end{xlist}\end{exe}この推論パターンのAに「泳ぐ」と「部屋を片付ける」という動詞句を割り当てた結果を以下に示す.\begin{exe}\ex\label{ex:8}\begin{xlist}\exi{P:}彼は泳いでいる。\exi{H:}彼は泳ぎかけている。\end{xlist}\ex\label{ex:9}\begin{xlist}\exi{P:}彼は部屋を片付けている。\exi{H:}彼は部屋を片付けかけている。\end{xlist}\end{exe}この場合,(\ref{ex:8})の含意関係ラベルは\contradictionである一方で,(\ref{ex:9})の含意関係ラベルは\neutralとなる.しかし,「泳ぐ」と「片付ける」は金田一の分類ではどちらも継続動詞であるため,金田一の分類をもとに含意関係ラベルを付与すると少なくともどちらか一方は正しく予測できない.\hl{また,金田一の分類では動詞を分類の対象にしているが,語彙的アスペクトは述語だけでなく項にも依存するため,動詞句全体に着目する必要がある.}したがって,語彙的アスペクトからこのような推論パターンの含意関係ラベルを正しく付与するためには分類を再検討する必要がある.そこで,本研究では\citet{modern-japanese-grammar-3}による詳細な分類をベースに,語彙的アスペクトを再分類する.これにより,語彙的アスペクトに関する推論の問題に対して,問題に含まれる動詞句の語彙的アスペクトから含意関係ラベルを一意に定めることが可能になる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2.2.2\subsubsection{語彙的アスペクトの判別手法}\label{subsubsec:aspect_discrimination}語彙的アスペクトの判別方法には大きく分けて(1)機械学習モデルを用いた判別(2)意味による判別(3)容認性判断による判別の3種類が存在する.機械学習を用いた判別手法に関しては複数の言語での既存研究が存在する\cite{friedrich-palmer-2014-automatic,falk-martin-2016-automatic,egg-etal-2019-annotation}.しかし,これらのアプローチを行うためには様々な言語学的特徴を付与した大規模な語彙資源が必要となるため,日本語で同様の手法を行うのは困難である.意味による判別では,述語がテイル形などの特定の形式をとった時に,どのような様態を意味するかに応じて語彙的アスペクトを判別する.具体例としては表\ref{tab:kindaichi_classification}の説明に示す継続動詞と瞬間動詞の区別などが挙げられる.この手法では,それぞれの分類の定義に基づいてアスペクトを判別することができる.しかし,意味に基づいて正確に判別するためには,判別者が述語の様々な形式における意味を正確に理解する必要があるため,言語モデルなどを用いて自動化するのは困難である.一方,容認性判断による判別では,述語がテイル形などの特定の形式をとった際に,文が母語話者にとって容認可能であるかどうかを判別基準とする.例えば,表\ref{tab:kindaichi_classification}の状態動詞は,説明に示すようにテイル形をとらない,すなわちテイル形が容認不可能であることが判別基準である.文の容認性判断には複数の指標が検討されており,それらは言語モデルを用いて計算することができる\cite{Lau-etal-2017-grammaticality}.そのため,この手法は言語モデルなどを用いた自動化に適していると考えられる.そこで,本研究では言語モデルを用いた容認性判断によるアスペクト判別の実装を試みる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3\setcounter{exx}{0} \section{テンス・アスペクトのフレームワークの設計} \label{sec:framework}\hl{本節では,本研究の分析の基礎となるテンスとアスペクトのフレームワークを導入する.\ref{subsec:tense_fragment}節では,\oursに含まれる時間推論のパターンの階層的分類を行う.\ref{subsec:aspect_classification_for_temp}節では,時間推論問題の生成を自動化する観点から語彙的アスペクトを再分類し,述語の語彙的アスペクトを自動判別するためのフローを検討する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.1\subsection{テンス現象タグ}\label{subsec:tense_fragment}本研究では推論に必要な知識に基づき,時間推論を階層的に分類する.また,最も細かい分類に対応させて,\hl{理論言語学に基づく52個の\textbf{テンス現象タグ}を定義する\cite{Kamp1993-KAMFDT,kaufmann2011temporal,Ai_Kawazoe_2015,modern-japanese-grammar-3}.}表\ref{tab:tense_fragment_classification}は分類とテンス現象タグの一部を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[t]\input{13table04.tex}\caption{時間推論問題の分類(一部省略).}\label{tab:tense_fragment_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{分類の構築に際して,まず既存の時間推論問題の分類を行う.本研究では,JSeM\cite{Ai_Kawazoe_2015}の問題に加え,\citet{modern-japanese-grammar-3}に基づいて作成したアスペクトに関する問題を考慮した.大分類については,時間に関する言語現象に基づき,次のように決定する.まず,アスペクトに関する問題は「アスペクト」として分類する.そして,残りの問題は全て時間副詞を含むため,それらを時間副詞の種類に応じて以下のように分類する.「現在」のような特別な時点を指す時間副詞を含む推論は「時間的常識」とする.「前」や「後」などの,イベントをある時点に対して相対的に位置付ける働きを持つ時間副詞を含む推論は「時間的順序」とする.時点や区間を表す時間副詞を含む推論はそれぞれ「時点」および「区間」とする.最後に,「昨日」などの直示時間副詞\cite{smith-1981-semantic}を含む推論を「直示時間副詞」,「いつも」などの量化時間副詞\cite{Lewis-1975-adverbs}を含む推論を「量化時間副詞」とする.}\hl{その後,中分類と小分類を具体的な推論パターンに基づいて定義する.表\ref{tab:tense_fragment_example}は中分類とそれに対応する問題の例を示している.「区間-事象の完了」は区間を表す時間副詞(例:2年)と共起している過去形のイベント(例:バーミンガムに住んだ)が完了しているかを問う推論である.「直示時間副詞-『昨日』に関する推論」は「昨日」が表す具体的な日付を紐づけることを要求する推論である.「量化時間副詞-未言及の時点」は前提では言及のない時点でイベントが発生するという仮説が,量化時間副詞(例:いつも)を含む前提に対して真であるかどうかを問う推論である.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[t]\input{13table05.tex}\caption{中分類と対応する問題の例.太字は大分類に関連する単語を示す.}\label{tab:tense_fragment_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{これらのテンス現象タグは後述する推論テンプレートの基礎となる.反対に,推論テンプレートを改善した際にはその改良した内容をテンス現象タグに反映させる.このように,本研究ではテンス現象タグと対応する推論テンプレートの改良を相互に行う.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2\subsection{\hl{時間推論のための語彙的アスペクトの分類}}\label{subsec:aspect_classification_for_temp}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2.1\subsubsection{語彙的アスペクトの再分類}\label{subsubsec:aspect_reclassification}\hl{\ref{subsubsec:lexical_aspect}節}で述べた通り,既存の語彙的アスペクトの分類は自然言語推論問題の自動構築を考慮して行われたものではないため,様々な推論パターンの含意関係ラベルと語彙的アスペクトが一対一で対応していない.すなわち,\hl{(\ref{ex:7})に示す推論パターン}に「泳ぐ」と「部屋を片付ける」という動詞句を当てはめた場合のように,同じ推論パターンに同じ語彙的アスペクトの動詞句を割り当てても含意関係ラベルが異なる,というようなケースが存在する.そこで,本研究では語彙的アスペクトを自然言語推論の観点から再分類する.表\ref{tab:aspect_classification}にその分類と分類に属するフレーズおよび推論タイプを示す.ここで,推論タイプは本研究の推論テンプレートにおいて同じ含意関係ラベルとなる語彙的アスペクトをまとめたものを指す.例えば,状態動詞「存在する」と瞬間動詞「結婚する」は本研究の任意の推論テンプレートについて含意関係ラベルが一致する.このように分類することで,推論テンプレートと事前に語彙的アスペクトを付与した格フレームからアスペクトに関する推論問題を自動で生成することができる.また本研究では,スル形状態動詞とシテイル形状態動詞については,数が少ないことを考慮して扱わないこととする.これらの語彙的アスペクト・推論タイプに関する推論問題を作成することで,言語モデルのアスペクトに関する能力を詳細に分析することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[b]\input{13table06.tex}\caption{本研究における語彙的アスペクトの分類.}\label{tab:aspect_classification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2.2\subsubsection{語彙的アスペクト(推論タイプ)の判別フロー}\label{subsubsec:aspect_discrimination_flow}\ref{subsubsec:aspect_discrimination}節で述べた通り,本研究では容認性判断を用いたアスペクト判別を行う.\hl{\ref{subsubsec:lexical_aspect}節で述べたように,語彙的アスペクトは動詞だけでなく動詞句全体に着目する必要がある.また,動詞自体が意味的な曖昧性を有することもある上に,曖昧性の解消が前後の文脈に依存する場合もあるため,動詞句の語彙的アスペクトを厳密に判別することは非常に困難である.本研究のアスペクト判別手法では,最ももっともらしい解釈のみに着目し,その解釈における動詞句の語彙的アスペクトを判別する.}表\ref{tab:aspect_acceptability}は様々な形式における推論タイプごとの容認可能性を示している~\hl{\cite{modern-japanese-grammar-3,suga-1990-finish}}\footnote{\rhl{本研究では,\citet{suga-1990-finish}に基づいて「し終えた」と「し終わった」を区別しているが,\citet{suga-1990-finish}では本動詞としての「終える」と「終わる」の区別についての議論に焦点を当てており,複合動詞としての「し終える」と「し終わる」の区別については直接は議論していない.本動詞としての「終わる」のヲ格には,「自己紹介」などの分量が明確に定まっていない行為が入ると述べられているが,複合動詞の場合のヲ格には「宿題」などの分量が定まっている行為についても入りうる(例:宿題をやり終わる).そのため,本動詞の議論を複合動詞の場合に対して単純に適用することはできないが,複合動詞の場合に焦点を当てた更なる議論については今後の課題とする.}}.これらを組み合わせて表\ref{tab:aspect_classification}の分類を行うためのフローを図\ref{fig:aspect_flow}に示す\footnote{\hl{表\ref{tab:aspect_acceptability}において,状態/瞬間の「し続けた」形は主語が複数と解釈できる場合に容認可能となるが,本研究ではそれを考慮せずに図\ref{fig:aspect_flow}に示すフローを構築する.\label{fot:continue}}}.このフローにより,容認性判断を用いた文中の動詞句の推論タイプの予測が可能となる.\hl{例えば,「彼が対岸まで泳ぐ」という例では,(1)「彼が対岸まで泳いだ/泳いでいた」がともに容認可能であり,(2)「彼が対岸まで泳ぎ続けた」が容認可能であり,(3)「彼が対岸まで泳ぎ終えた」が容認可能であり,(4)「彼が短時間で対岸まで泳いだ」が容認可能であることから「継続主体動作(特定時点成立)」であると判定される.一方,「彼が亡くなる」という例では,(1)「彼が亡くなった/亡くなっていた」がともに容認可能であり,(2)「彼が亡くなり続けた/亡くなり始めた/亡くなり終わった」および「彼が短時間で亡くなった」が全て容認不可能であることから「状態/瞬間」であると判定される.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{13table07.tex}\hangcaption{語彙的アスペクトと容認可能性.\checkmarkはその推論タイプに属する述語のほぼ全てに対して容認可能であることを,―は容認不可能であることを,?は述語やその用法によって容認可能性が異なることを意味する.}\label{tab:aspect_acceptability}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure*}[ht]%%%%\includegraphics[height=12cm]{figure/aspect_flow.pdf}\begin{center}\includegraphics{31-2ia13f2.pdf}\end{center}\caption{推論タイプの判別フロー.}\label{fig:aspect_flow}\end{figure*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4\setcounter{exx}{0} \section{時間推論データセット\oursの構築} \label{sec:dataset_construction}\hl{本節では,時間推論データセット\oursの構築手法について説明する.図\ref{fig:flow}に構築手法の概略図を示す.提案手法では,事前準備として,ChatGPT\cite{openai-2023-chatgpt}を用いて京都大学格フレーム\cite{kawahara-kurohashi-2006-fully}から自然な格フレームを抽出する(\ref{subsec:frame_extraction}節).そして,GPT-3.5\cite{openai-2022-gpt3.5}を用いて抽出した格フレームに対して自動で語彙的アスペクトを付与する(\ref{subsec:aspect_prediction}節).次に,既存の時間推論問題から時間推論テンプレートを作成する(\ref{subsec:template_creation}節).その後,ランダムに生成した時間表現と抽出した格フレームを推論テンプレートに割り当てる(\ref{subsec:problem_generation}節).その際,生成されたテストデータを人手でチェックし,不自然な文とデータセット中のバイアスを取り除く(\ref{subsec:dataset_refine}節).最後に,モデルの詳細な分析を行うために,学習データをいくつかの軸に沿って分割する(\ref{subsec:dataset_split}節).}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[t]\begin{center}\includegraphics{31-2ia13f3.pdf}\end{center}%%%%%\includegraphics[width=1.0\linewidth]{figure/flow.pdf}\caption{\ours構築手法の概略図.}\label{fig:flow}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.1\subsection{格フレームの抽出}\label{subsec:frame_extraction}本研究では,自然な文を生成するために,京都大学格フレームから自然な格フレームを抽出する.抽出は次のように行う.まず,格フレームのうち頻度1000以上の述語および頻度100以上の項のみを抽出する.そこから,約60語の不快語を手動でフィルタリングする.次に,これらの述語と項をChatGPTに入力し,自然な文を生成する.最後に,言語モデルを用いて生成した文中の動詞句のアスペクトを判別する(\ref{subsec:aspect_prediction}節参照)と同時に不自然な文をフィルタリングする.\hl{表\ref{tab:caseframe_example}は格フレームの例を,表\ref{tab:prompt_example_generate},\ref{tab:prompt_example_check}はその格フレームを用いた一連のプロンプトの例を示している.}格フレーム辞書では,述語と格の組み合わせは考慮されているが,格同士の組み合わせは考慮されていない.そのため,格フレーム辞書を用いてランダムに文を生成すると「私が博士の森を訪れる。」のような不自然な文が生成される可能性がある.そのような文の生成を避けるため,ChatGPTを用いて格フレームから自然な文を生成する.具体的には,ChatGPTによる文の生成の際には,表\ref{tab:prompt_example_generate}に示すように,述語を固定し,それぞれの格をプレースホルダーにした\hl{文テンプレート}と,それぞれの格の候補となる名詞を入力し,文テンプレートを穴埋めする.本研究では,自然な文を効率的に生成するためにガ格を人に関する名詞に限定する.そのために,プロンプト中ではガ格には格フレームの名詞の候補を記述せず,「人名もしくは人を表す一般名詞」としてChatGPTに自由に補完させるようにしている.そして不自然な文をフィルタリングする際には,表\ref{tab:prompt_example_check}に示すように,入力した文が自然かどうかを問う.これにより,自然な文を構成する述語と項の組を抽出することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[t]\input{13table08.tex}\caption{京都大学格フレームに含まれる格フレームの例.}\label{tab:caseframe_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[t]\input{13table09.tex}\caption{格フレームを用いた文章の生成のためにChatGPTに入力するプロンプトの例.}\label{tab:prompt_example_generate}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[t]\input{13table10.tex}\hangcaption{格フレームを用いて生成した文章が自然であるかをチェックするためにChatGPTに入力するプロンプトの例.}\label{tab:prompt_example_check}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.2\subsection{アスペクトの判別}\label{subsec:aspect_prediction}本研究では,正解ラベルがアスペクトに依存する問題に対して自動で正解ラベルを割り当てる.そのために,\ref{subsubsec:aspect_reclassification}節で定義した推論タイプを,抽出した格フレームに対して図\ref{fig:aspect_flow}のフローに基づいて自動で付与する.\citet{someya-oseki-2023-jblimp}の手法に従い,容認性判断には言語モデルの出力する対数尤度を用いる.本研究では,対数尤度を出力させる言語モデルとしてはgpt-3.5-turbo-instruct\cite{openai-2022-gpt3.5}を用いる\footnote{\hl{注:入力文の対数尤度を出力するオプションが利用可能だったのは2023年10月5日までであり,現在は利用することはできない.}}.また,対数尤度を測定する際の述語は全て過去形に統一する.これは,予備実験において同じ述語の現在形を用いた文と過去形を用いた文の対数尤度を比較したところ,過去形を用いたものの方が対数尤度が高かったため,より精度良く判断できると考えたためである.\hl{過去形の方が対数尤度が高い理由としては,単文の形式においては過去形の方が現在形よりも出現頻度が高いことが考えられる.なお,現代日本語書き言葉均衡コーパス\cite{maekawaBalancedCorpusContemporary2014}中で「読む。」と「読んだ。」の出現頻度を比較したところ,前者は269回,後者は373回であった.}判定においては,まず述語のタ形を用いた文章と指定の形式に変換した文章の対数尤度の差を計算する.そして,その差が閾値を超えたものに関しては容認不可能だと判定する.例えば,「彼が泳いだ。」と「彼が泳いでいた。」の対数尤度の差が3,閾値が5の場合は「彼が泳ぐ。」という文のテイタ形は容認可能であると判定する.対数尤度は文がもっともらしい場合大きな値をとる.本研究では扱う述語をタ形が容認可能な述語に限定しているため,述語がタ形の文の対数尤度は大きな値となることが予想される.一方,容認不可能な文の対数尤度は小さくなるため,タ形の文の対数尤度との差が大きければ大きいほど容認度が低いと考えられる.この仮説を利用することで,容認性の判定が可能になる.閾値については,予め人手でアノテーションした小規模なデータを用いた予備実験において,\hl{モデルのアスペクトの予測精度が最大であった値を採用した}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3\subsection{\hl{推論テンプレート}の作成}\label{subsec:template_creation}このステップでは,既存の時間推論の問題の内容語(例:\textit{スミス},\textit{報告書})と時間表現(例:2\textit{時間},7\textit{月}14\textit{日})をマスクすることで,時間推論問題のテンプレートを作成する.表\ref{tab:generation_example}に問題とそこから作成された推論テンプレートの例を示す.マスクの過程では,ガ格と時間表現はそれぞれ対応するマスク(agentとintervalまたはtp)に置換し,その他の格と述語はphraseというマスクでまとめて置換する.これにより,元の問題の文型に縛られず,同じ推論テンプレートから多様な文型の問題を作成することが可能になる.本研究では,アスペクトの推論テンプレート9件を含む,合計79件の推論テンプレートを作成した.元となる問題としては,基本的には形式意味論のデータセットであるJSeMの時間推論の問題をサンプリングして用いる.ただし,アスペクトに関する推論テンプレートについては,\citet{modern-japanese-grammar-3}に記述されているアスペクトの特徴に基づき,それらの特徴が正解ラベルに反映されるような問題を人手で作成した.文脈が不足している場合のアスペクトの問題の正解ラベルに関しては複数通り考えられる可能性があるが,本研究では\citet{modern-japanese-grammar-3}に基づいて最ももっともらしいと考えられる解釈を採用し,その解釈と整合する正解ラベルを付与した.時間推論問題では正解ラベルが前提文・仮説文中の時間表現に依存するため,推論テンプレート中の正解ラベルは条件式で表現する.例えば,表\ref{tab:generation_example}中のサンプル問題の正解ラベルは文中の2時間・1時間という時間表現により定まっているため,推論テンプレートでは表中に表されるような時間表現に関するif文の形で表現する.JSeMの特定の問題から作成した推論テンプレートには単語と特定のラベルの間に強い相関が見られた.このような場合,データセット中に単語から正解ラベルを予測できてしまうバイアスが含まれ,モデルが意図しないヒューリスティックスを学習する可能性がある.例えば,表\ref{tab:generation_example}の推論テンプレートでは正解ラベルが\contradictionの問題は生成されない.そのため,「問題文に『以内』が入っている問題の正解ラベルは\contradictionではない」といったバイアスがデータセットに含まれ,モデルがそのルールを学習する可能性がある.このようなバイアスは望ましくないため,本研究ではそのバイアスを打ち消すような推論テンプレートを新たに作成する.上記の例に対しては,\hl{表\ref{tab:added_template_example}に示すような},問題文に「以内」が入っていて,かつ正解ラベルが\contradictionとなり得る推論テンプレートを追加する.これにより,単語と特定のラベルの間のバイアスを緩和することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[t]\input{13table11.tex}\hangcaption{サンプル問題から作成される推論テンプレートおよび推論テンプレートから生成される問題の例.}\label{tab:generation_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table}[t]\input{13table12.tex}\caption{\hl{バイアス緩和のために追加される推論テンプレートの例.}}\label{tab:added_template_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4\subsection{問題の生成}\label{subsec:problem_generation}次に,\ref{subsec:frame_extraction}節で抽出した格フレームおよびランダムに生成した時間表現を推論テンプレートに割り当て,正解ラベルを決定することで問題を生成する.述語と名詞の割り当ては格のプレースホルダーに対応する動詞と名詞を割り当てることで行う.表\ref{tab:generation_example}の例では(ガ格:先生,ヲ格:教材,述語:用意する)という格フレームを(\agent{1},\ph{1}{past})というプレースホルダーに割り当てている.本研究では,テストデータと学習データの両方に含まれる動詞がないようにデータを生成する.これにより,モデルが学習データに含まれない動詞に対しても推論を実行できるかを評価することができる.時間表現については,\textbf{時点}(timepoint:tp)と\textbf{区間}(interval)の2種類を考慮する.時点は7月14日や2023年などのある1点を指すような時間表現を,区間は2時間や3年間などの一定の時間幅を表す時間表現を指す.時点と区間はそれぞれ次のように生成する.まず時点の場合,年月日時の4つの単位を組み合わせた10個の形式(年月日時/年月日/月日時/年月/月日/日時/年/月/日/時)の中から形式を選択する.次に,2000年1月1日0時と2020年12月31日24時の間の時点をランダムに選択する.\rhl{そして},選択した時点に対して選択した形式を適用する.例えば,年月形式と2015年10月20日10時が選択された場合,生成される時間表現は2015年10月となる.一方,区間の場合は1-9の数字と年月日時のいずれかの単位を組み合わせて生成する.最後に,推論テンプレートの条件式に生成した時間表現を代入することで正解ラベルを決定する.例えば表\ref{tab:generation_example}の例では,\interval{1},\interval{2}にそれぞれ5ヶ月間,8ヶ月間という時間表現が代入される.このとき,\interval{1}$\le$\interval{2}は真となるため,正解ラベルは\entailmentとなる.本研究では,正解ラベルの分布をできるだけ均一にするため,それぞれの推論テンプレートと正解ラベルに対して生成する問題数を同一にした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.5\subsection{データセットの品質管理}\label{subsec:dataset_refine}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.5.1\subsubsection{語彙的バイアスの緩和}最近の研究では,既存の主要なNLIデータセットに,\ref{subsec:template_creation}節で述べたような,問題文の表層形と正解ラベルに関するバイアスが含まれていると指摘されている\cite{jia-liang-2017-adversarial,gururangan-etal-2018-annotation,poliak-etal-2018-hypothesis}.本研究では,\ref{subsec:template_creation}節で述べた手法でそのようなバイアスを緩和する.そして,バイアスが解消できているかを確認するために,\citet{gardner-etal-2021-competency}の手法に従って\oursデータセットの統計的分析を行う.形式的には,この分析は帰無仮説が$p(y|x_i)=1/3$の片側二項検定である.ここで,$y\in\{\entailment,\neutral,\contradiction\}$であり,$x_i$は語彙に含まれる単語である.具体的には,まずJuman++\cite{morita-etal-2015-morphological}を用いて前提文と仮説文を個々の単語に分割する.その後,前提文・仮説文に含まれる各単語$x_i$に対する正解ラベル$y$の出現回数$n_i$をカウントする.$p(y|x_i)$は$n_i$を$x_i$の出現回数で割ることで求められる.その後,\citet{gardner-etal-2021-competency}のプロトコルに従い,ボンフェローニ補正を用いて$\alpha=0.01$の有意水準で帰無仮説を受容または棄却する.この分析により,特定の単語とラベルの間の相関を明らかにすることができる.本研究では,データ生成の段階でこの分析を行い,得られた結果を語彙や推論テンプレートにフィードバックする.提案手法はデータセット中の語彙を制御することが可能なため,これらのフィードバックによりデータセット中のアーティファクトを排除することができる.図\ref{fig:artifacts}に示すように,既存のデータセットでは複数の単語が特定のラベルとの擬似相関を示し,そのうちの3つは大きな擬似相関を示している.一方で,\oursでは5つの単語が擬似相関を示したものの,その全てが比較的緑の線に近いため,既存のデータセットよりも擬似相関の影響は小さいと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[t]%%%%%\begin{subfigure}{0.4\linewidth}%%%%%\centering%%%%%\includegraphics[width=1.0\linewidth]{figure/train_all_wakati_artifacts.pdf}%%%%%\subcaption{\ours}%%%%%\end{subfigure}%%%%%\begin{subfigure}{0.4\linewidth}%%%%%\centering%%%%%\includegraphics[width=1.0\linewidth]{figure/train_temporalnli_artifacts_sample100k_v2.pdf}%%%%%\subcaption{TemporalNLI\cite{vashishtha-etal-2020-temporal}}%%%%%\end{subfigure}\begin{center}\includegraphics{31-2ia13f4.pdf}\end{center}\hangcaption{\oursとTemporalNLIの訓練データ中のアーティファクトの統計.\oursでは5つの単語を除く全ての単語が緑の線の下にあり,緑の線の上にある単語も緑の線に近いことから,正解ラベルと単語の間の擬似相関が小さいことがわかる.一方で,TemporalNLIでは複数の単語に擬似相関が見られ,そのうちの3つにはかなり大きな擬似相関が見られる.}\label{fig:artifacts}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.5.2\subsubsection{文章の品質管理}本研究では,全てのテストデータの前提文・仮説文の自然さを人手でチェックする.テストデータに必要な問題数は332件であったが,自然なテストデータを構築するために,まず1380件の問題を生成してそのうち不自然な646件を取り除き,残った中からより自然なものを実際のデータとして用いた.表\ref{tab:unnatural_sentences}は取り除いた文と理由の例である.1つ目の意味的に不自然な文は,文法的には正しいが,日常的にあまり使われない文を指す.このような文が生成される理由としては,ChatGPTによる主語の補完が適切でないことが挙げられる.2つ目の不完全な文は,文を完成させるために必要な格が抜け落ちているものである.これは格フレーム辞書が述語の必須格を記載していないことに起因する.3つ目の文法的な誤りは主に動詞の活用誤りを指している.これは動詞の活用に用いている辞書に,その動詞が含まれていなかったために生成されたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T13\begin{table}[t]\input{13table13.tex}\caption{テストデータから取り除いた文と,その理由の例.}\label{tab:unnatural_sentences}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.5.3\subsubsection{データセットの妥当性}\paragraph{付与されたアスペクトの妥当性}\ref{subsec:aspect_prediction}節で述べたように,本研究ではアスペクト判別のための予備実験を行い,付与されたアスペクトの妥当性について確認した.予備実験には,103件の文に対して人手でアスペクトをアノテーションしたデータを用いた.その結果,本研究の手法では66\%の精度でアスペクトを判別できることが確認できた.なお,図\ref{fig:aspect_flow}で不自然な文として排除されたものを除いた精度は77\%であった\footnote{脚注\ref{fot:continue}で述べたように,図\ref{fig:aspect_flow}のフローは複数と解釈できる主語を考慮していないが,ランダムに抽出して確認したところ,ChatGPTによって生成されたガ格の90\%以上が単数であったことから予測精度には影響を与えなかったと考えられる.}.\paragraph{正解ラベルの妥当性}本研究では,テストデータの全ての問題の正解ラベルが形式意味論に基づいて正しいかどうかを,形式意味論の素養がある1名の大学院生が人手でチェックする.そして,推論テンプレートが原因で間違っているものに関しては推論テンプレートを修正して再度テストデータを生成し,チェックする.この作業を繰り返し行い,全ての推論テンプレートの正解ラベルの条件式が正しく設定されていることを確認した.また,生成されたテストデータ中のアスペクトに関する問題を確認したところ,明確に正解ラベルが誤っていたものは56件中11件であった.本研究では,テストデータ中のアスペクトの誤りについては,チェックを担当した大学院生が全て人手で修正することで,テストデータの品質を担保した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.6\subsection{データセットの分割}\label{subsec:dataset_split}\oursはテンス現象タグや時間表現の種類に基づいて制御されている.本研究では,それらに基づいて問題を学習データ・テストデータの両方に含まれる既知問題とテストデータのみに含まれる未知問題に分割し,学習データ中の既知問題のみを抽出した学習データの分割を作成する.そして,分割した学習データを用いてモデルを学習し,テストデータ中の未知問題に対する精度を測定することで,推論パターンや時間表現に対しての言語モデルの汎化性能を評価する.問題を分割する軸としては\textbf{テンス現象タグ}・\textbf{時間表現形式}・\textbf{時間幅}を用いる.表\ref{tab:split_tense_fragment},\ref{tab:split_time_format},\ref{tab:split_time_span}はそれぞれの分割における既知問題・未知問題の例を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T14\begin{table}[t]\input{13table14.tex}\hangcaption{テンス現象タグに基づく分割の既知問題と未知問題の例.\hl{「順序(推移律+前後)」は小分類「推移律から決定可能」の下位分類に対応するテンス現象タグであり,表\ref{tab:tense_fragment_classification}では省略されている.}}\label{tab:split_tense_fragment}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T15\begin{table}[t]\input{13table15.tex}\caption{時間表現形式に基づく分割の既知問題と未知問題の例.}\label{tab:split_time_format}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T16\begin{table}[t]\input{13table16.tex}\caption{時間幅に基づく分割における既知問題と未知問題の例.}\label{tab:split_time_span}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.6.1\subsubsection{テンス現象タグに基づく分割}テンス現象タグに基づく分割では,まずテンス現象タグを基本的なものと応用的なものに分割する.そして,基本的なテンス現象タグがアノテーションされた問題を既知問題,応用的なテンス現象タグがアノテーションされた問題を未知問題として,言語モデルの時間推論パターンに対する汎化能力を評価する.以下では,定義した分割を\tagsplitと表記する.テンス現象タグの分割は\ref{subsec:tense_fragment}節で導入した表\ref{tab:tense_fragment_classification}の分類に基づいて行う.具体的には,共通の上位分類を持つテンス現象タグの一方を既知問題,もう一方を未知問題とする.表\ref{tab:split_tense_fragment}の例では,表\ref{tab:tense_fragment_classification}における中分類「『現在』の用法」を共通の上位分類に持つテンス現象タグ「『現在』の用法(現在形)/『現在』の用法(過去形)」がそれぞれ既知問題と未知問題に割り当てられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.6.2\subsubsection{時間表現形式に基づく分割}時間表現形式に基づく分割では,時間表現形式を,その形式が含む単位の種類の数で分割する.そして,含まれる単位の種類の数が少ない問題を未知問題,多い問題を既知問題として,言語モデルが時間単位の大小関係(年\textgreater月\textgreater日\textgreater時という関係)を汎化できるかを評価する.ここでは\formeasyと\formhardという2つの分割を定義する.\formeasyと\formhardは既知/未知問題に分割する時間表現形式の割合が異なる.\formhardでは,表\ref{tab:split_time_format}の上段の例で示すような,単一の時間単位の形式(年・月・日・時)のみを既知問題とする.この分割においては,学習データから時間単位の大小関係を学習することはできない.一方,\formeasyでは,\formhardの既知問題に含まれる4つの形式に加えて,表\ref{tab:split_time_format}の下段の例で示すような2つの時間単位の組み合わせからなる3つの形式(年月・月日・日時)も既知問題に含める.これらの3つの形式の問題からは2つの単位間の大小関係を得ることができる.具体的に,年月形式の問題には,例えば2015年10月と2014年11月のような,どちらの単位の方が大きいかを理解しなければ正しく順序が判定できない問題が存在する.このような問題を用いて学習することで,年\textgreater月という大小関係が学習できる.そして,それぞれの形式の問題から得た知識を組み合わせることで,年\textgreater月\textgreater日\textgreater時という大小関係が学習できると考えられる.いずれの分割においても,未知問題を解くためには時間単位の大小関係を理解している必要がある.したがって,\formeasyと\formhardの精度を比較することで,言語モデルの時間単位の大小関係に関する汎化能力を評価することができると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.6.3\subsubsection{時間幅に基づく分割}時間幅に基づく分割では,問題に含まれる時間表現の時間幅の大きさに基づいて分割を行う.ここで,時間幅とは問題に含まれる時点間の長さのことを意味する.本研究では\shortと\randomの2つの時間幅を定義する.時間幅が\randomの問題では,\ref{subsec:problem_generation}節で述べた通り,時点間の長さはランダムで生成される.一方,時間幅が\shortの問題では,時点間の長さが短くなるように時間表現が生成される.具体的には,次のように時間表現の生成手法を変更する.まず,問題中に含まれる時点の数が1つだけの場合は\randomと同様に生成する.2つ以上含まれる場合,1つ目の時点Aとその時点から少しだけ進んだ時点Bの間の時点をランダムに選ぶようにする.\hl{ここで,進める時間は時間表現形式の最小単位に応じて定める.最小単位が時の場合は8時間,日の場合は10日間,月の場合は4ヶ月間,年の場合は6年間進めた時点を時点Bとする.}時間幅に基づく分割として,\randomだけを含む\spanrandomを定義する.\spanrandomにおける既知問題と未知問題の例を表\ref{tab:split_time_span}に示す.前述の通り,\shortの問題では時点間の長さが短くなっている.このような問題では,時点の順序関係を決定するために小さい単位同士を比較する必要がある.一方,\randomで生成したほとんどの問題では最も大きな単位の比較のみで順序が決定できるため,モデルは順序の決定の際に「大きな単位だけを比較すれば良い」というバイアスを学習する可能性がある.そこで,\randomを既知問題,\shortを未知問題にすることで,そのようなバイアスではなく,時点間の順序関係の正しい比較方法を学習できるかを評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5\setcounter{exx}{0} \section{実験設定} \label{sec:experiments}\hl{本節では\ours上での言語モデルの評価実験の設定について述べる.本研究では,生成モデルにとって最適なプロンプトを探索するための予備実験を行う.\ref{subsec:preliminary_experiments}節,\ref{subsec:preliminary_experimental_result}節では予備実験の実験設定および結果・考察について述べる.その後,\ref{subsec:main_experiments}節で予備実験の結果を踏まえた本実験の設定について説明する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.1\hl{\subsection{予備実験}\label{subsec:preliminary_experiments}予備実験では,プロンプトの形式・プロンプトに記述する例の数・プロンプト中のラベル表記を変化させて実験を行う.本研究では,gpt-3.5-turbo-1106(\gptt)\cite{openai-2023-chatgpt},gpt-4-1106-preview(\gptf)\cite{openai-2023-gpt4},llm-jp-13b-v1.0(\llmjp)\footnote{\hl{\url{https://huggingface.co/llm-jp/llm-jp-13b-v1.0/}}}を評価する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T17\begin{table}[b]\input{13table17.tex}\caption{予備実験で用いる2種類のプロンプト.}\label{tab:pre-experiments_prompt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{実験は\zeroshotと\fewshotの2つの設定で行う.\zeroshotではプロンプトに問題例を一切記述せず,\fewshotではいくつかの問題例を記述する.\fewshotプロンプトに記載する問題例は学習データから次のように抽出する.まず,モデルに問う問題(以下対象問題と表記する)の生成元となった推論テンプレートを特定する.そして,その推論テンプレートから生成された学習データから,正解ラベルの数が均等になるように問題をランダムに選択する.例えば,表\ref{tab:generation_example}の下段に示す問題が対象問題であった場合,中段に示す推論テンプレートから生成された学習データから,正解が\entailmentの問題と\contradictionの問題を同じ数だけランダムに抽出する.}\hl{\paragraph{プロンプトの形式}表\ref{tab:pre-experiments_prompt}に示す2種類のプロンプトを比較する\footnote{\hl{\baselineプロンプトは\url{https://fintan.jp/page/9126/}のものを参照し,用いた.参照日:2024年1月16日}}.\simpleはタスクの最小限の説明のみを記述したプロンプトであり,\baselineはそれに加えて含意関係ラベルの説明を記述したプロンプトである.}\hl{\paragraph{プロンプトに記述する例の数}\fewshotのプロンプトに記述する例の数は0,4,6,8,12の間で変化させる.プロンプト中の問題例の正解ラベルが均等になるためには,正解ラベルの種類の数が例の数の公約数である必要がある.そのため,予備実験では,正解ラベルの種類の数が2種類であるような推論テンプレートから生成された問題のみを評価の対象とする.ここで,正解ラベルの種類の数とは,推論テンプレートから生成され得る正解ラベルの種類の数を意味している.例えば,表\ref{tab:generation_example}の中段に示す推論テンプレートでは,\entailmentと\contradictionの2種類の正解ラベルが生成され得るため,正解ラベルの種類の数は2である.}\hl{\paragraph{プロンプト中のラベル表記}プロンプト中の正解ラベルの表記をランダムな文字列に置換することによって正解ラベルに内包されているバイアスが軽減され,言語モデルの性能が向上することが先行研究により報告されている\cite{wei-etal-2023-symbol}.そこで,本研究では\labelnumと\labelstrの2種類の表記を導入し,本来の含意関係ラベルを用いた場合との精度を比較する.それぞれの表記を用いたプロンプトを表\ref{tab:pre-experiments_prompt_replace}に示す.表の上段に示すように,\labelnumでは含意関係ラベルを数字に置き換える.一方,\labelstrでは,表の下段に示すように含意関係ラベルを意味のない文字列(foo,bar,baz)に置き換える.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T18\begin{table}[b]\input{13table18.tex}\caption{ラベル表記を\labelnumおよび\labelstrに置き換えたプロンプト.}\label{tab:pre-experiments_prompt_replace}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T19\begin{table}[t]\input{13table19.tex}\hangcaption{\simpleプロンプトおよび\baselineプロンプトを用いた\gptt,\gptf,\llmjpの精度(5回の実験における平均値および標準偏差).}\label{tab:result_llm_difprompt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T20\begin{table}[t]\input{13table20.tex}\caption{\gpttの\simpleおよび\baselineプロンプトの混同行列.表中の数値は件数を示す.}\label{tab:confusion_matrix_gptt_prompt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{予備実験では,全てのモデルでmax\_new\_tokens=10とする.\llmjpに関しては,llm-jp-evel\footnote{\url{https://github.com/llm-jp/llm-jp-eval/},参照日:2024年1月16日}に倣い,top\_p=1.0,repetetion\_penalty=1.0とする.また,例の数を変化させる実験以外では,プロンプトに記述する例の数は6とする.モデルが正解ラベル以外の文字列を出力した場合は,出力は``undefined''とし,結果ではエラーとして数える.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.2\hl{\subsection{予備実験の結果と考察}\label{subsec:preliminary_experimental_result}\paragraph{プロンプトの形式}表\ref{tab:result_llm_difprompt}にプロンプトの種類ごとの結果を示す.\baselineの精度は全てのモデルにおいて\simpleの精度よりも高かった.精度の向上幅については,\gpttで最も大きく,\gptfで最も小さい結果となった.\simpleプロンプトを用いた\gpttや\llmjpで精度が比較的低かった要因としては,これらのモデルが含意関係ラベルの意味を事前学習時に十分に学習できていないことが考えられる.}\hl{\gpttにおける精度向上の要因を明らかにするために,\simpleと\baselineの混同行列をまとめた結果を表\ref{tab:confusion_matrix_gptt_prompt}に示す.表から,\neutralの予測数および再現率が\baselineプロンプトを用いた場合に向上していることが読み取れる.同様の傾向は\llmjpの予測にも観察された.このことは,\neutralラベルの意味について,これらのモデルが事前学習時点では十分には理解していないことや,\baselineプロンプトのラベル説明から学習したことを示唆している.}\hl{\paragraph{プロンプトに記述する例の数}表\ref{tab:result_llm_num}にプロンプトに記述する問題例の数を変化させた実験の結果を示す.\gpttではn=6の場合に,\gptfではn=8の場合に,\llmjpではn=12の場合に精度が最大となった.また,全てのモデルについて,例の数を増やすごとに精度が単調に増加したわけではなかった.このことは,プロンプトに記述する例の数と精度が必ずしも比例するわけではないことを意味している.}\hl{\paragraph{プロンプト中のラベル表記}表\ref{tab:result_llm_label}にプロンプト中のラベル表記を変化させた実験の結果を示す.\gpttではラベル表記を変化させた際に精度が低下したが,\llmjpでは\labelstr表記を用いた際に,\gptfでは\labelnum表記および\labelstr表記の両方において,精度の向上が見られた.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T21\begin{table}[t]\input{13table21.tex}\hangcaption{プロンプトに記述する問題例の数を変化させた実験における,\gptt,\gptf,\llmjpの精度(5回の実験における平均値および標準偏差).}\label{tab:result_llm_num}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T22\begin{table}[t]\input{13table22.tex}\hangcaption{プロンプト中のラベル表記を変化させた実験における,\gptt,\gptf,\llmjpの精度(5回の実験における平均値および標準偏差).}\label{tab:result_llm_label}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{\gptfにおける精度向上の要因を考察するために,\baselineと\labelstrの混同行列をまとめた結果を表\ref{tab:confusion_matrix_gptf_label}に示す.表から,\neutralの予測数および再現率が大きく向上していることが読み取れる.このことは,ラベル表記の置換が,\gptfが内包する\neutralラベルに対するバイアスを軽減したことを示唆している.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T23\addtocounter{table}{-1}\begin{table}[t]\input{13table23.tex}\hangcaption{\gptfの\baseline表記および\labelstr表記を用いた実験における混同行列.表中の数値は件数を示す.}\label{tab:confusion_matrix_gptf_label}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5.3\subsection{本実験}\label{subsec:main_experiments}本実験では,huggingface/transformers\footnote{\url{https://huggingface.co/transformers/}}で利用可能な6つの識別系言語モデル(日本語BERT\cite{devlin-etal-2019-bert},日本語RoBERTa\cite{liu-etal-2019-roberta},多言語XLM-RoBERTa\cite{conneau-etal-2020-unsupervised}モデルのbase/large)と,3つの生成系言語モデル(gpt-3.5-turbo-1106(\gptt)\cite{openai-2022-gpt3.5},gpt-4-1106-preview(\gptf)\cite{openai-2023-gpt4},\hl{llm-jp-13b-v1.0(\llmjp)\footnote{\hl{\url{https://huggingface.co/llm-jp/llm-jp-13b-v1.0/}}}})を\oursのテストデータ上で評価する.識別モデルを用いた実験は単言語の\zeroshot,2言語間の\zeroshot,Fine-tuningの3つの設定で行う.ここで,``\zeroshot''は学習データとして\oursを用いないことを意味する.\paragraph{設定1-a:Zero-shot(単言語)~~}標準的な日本語NLIデータセットであるJSNLI\cite{yoshikoshi-etal-2020-multilingualization},JSICK\cite{yanaka-mineshima-2022-compositional},および時間的順序に関する日本語NLIデータセットであるPLMUTE\_ja\cite{sugimoto-yanaka-2022-compositional}を結合し,学習に用いる.ここで,JSNLIはSNLI\cite{bowman-etal-2015-large}の,JSICKはSICK\cite{marelli-etal-2014-sick}の,PLMUTE\_jaは時間的順序・区間に関する英語NLIデータセットであるPLMUTE\cite{thukral-etal-2021-probing}の翻訳版である\footnote{\hl{本研究の学習に用いたデータの件数は次の通りである.\\SNLI:550,152,SICK:9,840,PLMUTE:72,720,JSNLI:533,005,JSICK:5,000,PLMUTE\_ja:11,220}}.その後,学習したモデルを\oursのテストデータ上で評価する.\paragraph{設定1-b:Zero-shot(2言語間)~~}標準的な英語NLIデータセットであるSNLI,SICK,およびPLMUTEを結合し,学習に用いる.その後,学習したモデルを\oursのテストデータ上で評価する.\paragraph{設定2:Fine-tuning~~}\oursの学習・テストデータでモデルを学習・評価する.IID分割(全ての学習データを既知問題とする分割)を用いた実験(\iid)のほかに,\ref{subsec:dataset_split}節で分割した学習データを用いた実験も行う.学習率は\{5e-6,1e-5,1.5e-5,2e-5\}の4つを用いて実験し,結果ではそれぞれのモデルで最も結果が良かった学習率における精度を報告する.バッチサイズは全ての設定で学習データでは16,テストデータでは8とする.次に,生成モデルを用いた実験は\zeroshotと\fewshotの2つの設定で行う.\hl{さらに,\fewshotでは,プロンプトに記述する問題例の選び方として\fewrandomと\fewseenの2種類を考慮する.\fewrandomでは,学習データ全体から正解ラベルが\entailment,\contradiction,\neutralの問題を2つずつランダムに選択し,プロンプトに記述する.\fewseenでは,予備実験と同様に,対象問題と同じ推論テンプレートから生成される問題のみを正解ラベルが均等になるように選択し,プロンプトに記述する.}\hl{プロンプトについては表\ref{tab:pre-experiments_prompt}に示す\baselineプロンプトを用いる.また,\fewshotにおける問題例の数は全ての実験で6とする.ラベル表記については,\gpttでは本来の含意関係ラベルを用い,\gptfと\llmjpでは\labelstr表記(foo,bar,baz)を用いる.予備実験と同様に,全てのモデルでmax\_new\_tokens=10とし,\llmjpではtop\_p=1.0かつrepetetion\_penalty=1.0とする.モデルが正解ラベル以外の文字列を出力した場合は,出力は``undefined''とし,結果ではエラーとして数える.}以下では,全ての設定で5回学習・評価を行って算出した精度の平均値と標準偏差を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6\setcounter{exx}{0} \section{結果と考察} \label{sec:results}本節では実験結果の分析および議論を行う.\hl{\ref{subsec:discriminative_model}節および\ref{subsec:generative_model}節ではそれぞれ識別モデルと生成モデルの結果について述べる.その後,\ref{subsec:acc_per_tense_tag}節ではテンス現象ごとに精度を分析した結果について説明する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.1\subsection{識別モデル}\label{subsec:discriminative_model}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.1.1\subsubsection{Zero-shot}\label{subsec:result_zeroshot}表\ref{tab:result_zeroshot_iid}の左列に識別モデルの\zeroshotの結果を示す.全てのモデルで,精度は約50\%に止まっている.これは,SNLI・SICKおよびその日本語版であるJSNLI・JSICKに時間推論に関する問題がほとんど含まれていないことや,PLMUTEやPLMUTE\_jaに含まれる時間推論パターンが我々のデータセットを解くのに必要な時間推論パターンのごく一部でしかないことに起因すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T24\begin{table}[b]\input{13table24.tex}\hangcaption{識別モデルの\zeroshotと\iidにおける精度(5回の実験における平均値および標準偏差).}\label{tab:result_zeroshot_iid}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T25\addtocounter{table}{-1}\begin{table}[b]\input{13table25.tex}\captionof{table}{BERT-largeの\zeroshotと\iidの混同行列.表中の数値は件数を示す.}\label{tab:confusion_matrix_bert}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%モデルの設定ごとの予測ラベルの分布の違いを分析するために,BERT-largeの\zeroshotおよび\iidにおける混同行列をまとめた結果を表\ref{tab:confusion_matrix_bert}に示す.\zeroshot設定では,正解ラベルの分布や\iidにおける分布と比較しても,\neutralの予測割合が極端に低く,再現率が1\%程度しかないことが見て取れる.同様の傾向は他の識別モデルでも観察された.これは,\zeroshotの学習データに用いたSNLIやSICKといったデータセットでは前提文と仮説文が全く関連のない場合に\neutralというラベルが付与される傾向にある一方で,\oursではほとんどの問題で前提文と仮説文が類似・関連しているためだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.1.2\subsubsection{Fine-tuning}\label{subsec:result_finetuning}Fine-tuningの結果を表\ref{tab:result_zeroshot_iid}の右側および表\ref{tab:result_finetune_tag},\ref{tab:result_finetune_form},\ref{tab:result_finetune_span}に示す.\iidにおいては,表\ref{tab:result_zeroshot_iid}に示すように全てのモデルの精度が85\%以上であった.以下では本研究で導入した分割データを用いた実験の結果について議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T26\begin{table}[b]\input{13table26.tex}\hangcaption{\tagsplitを用いて学習した識別モデルの精度(5回の実験における平均値および標準偏差).$\Delta$で示す列は既知問題と未知問題の精度の差を表す.}\label{tab:result_finetune_tag}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{テンス現象タグに基づく分割~~}表\ref{tab:result_finetune_tag}に示すように,テンス現象タグに基づく分割では全てのモデルで既知問題と未知問題の精度の差が約35\%にも及んだ.これは,いずれのモデルも時間推論パターンに関する汎化が出来ていないことを示唆している.この原因を明らかにするために,エラー分析を行う.テンス現象タグの汎化については全てのモデルで共通の傾向が見られたため,ここでは最も精度が高かったBERT-largeに着目する.表\ref{tab:error_example}は\tagsplit(テンス現象タグに基づく分割)中の未知問題におけるBERT-largeのエラー例と,既知問題中の類似問題を示している.この例では,モデルは未知問題に対して類似する既知問題のラベルと同じラベル(\neutral)を予測している.このような傾向は他のエラー例に対しても同様に観察された.すなわち,ある未知問題Aと前提文・仮説文の表層形が非常に類似している既知問題Bが学習データ中にある場合,その時間に関する意味の違いを無視してBの正解ラベルをAのラベルとして予測する傾向があった.これは,モデルが文の時間に関する情報ではなく表層的な情報に基づいてラベルを予測している,つまり,時間推論パターンを汎化できていないことを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T27\begin{table}[t]\input{13table27.tex}\hangcaption{\tagsplitの未知問題におけるBERT-largeのエラー例と,既知問題に含まれる類似問題の例.TTはテンス現象タグを,Prはモデルの予測ラベルを表す.}\label{tab:error_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{時間表現形式に基づく分割~~}表\ref{tab:result_finetune_form}に示すように,全てのモデルで,学習データ中に時間単位の大小関係の知識を含む\formeasyよりも含まない\formhardの方が精度が低かった.このことから,\formeasyを用いたFine-tuningによってモデルは時間単位の大小関係に関する知識を獲得していることが示唆される.さらに,全てのモデルにおいてbaseの方がlargeよりも\formeasyと\formhardの精度の差が大きかった.このことから,大きなモデルが事前学習時に時間単位の大小関係に関する知識を獲得している可能性が示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T28\begin{table}[t]\input{13table28.tex}\hangcaption{\formeasyと\formhardを用いて学習したモデルの未知問題上での精度(5回の実験における平均値および標準偏差).$\Delta$で示す列は\formeasyと\formhardの精度の差を表す.}\label{tab:result_finetune_form}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{時点間距離に基づく分割~~}表\ref{tab:result_finetune_span}に時点間距離に基づく分割における結果を示す.表に示すように,\randomだけを用いて学習したモデルは\shortと\randomの両方を含む\iidを学習に用いたモデルよりも性能が低下した.また,時間表現形式に基づく分割と同様に,サイズが小さいモデルの方が低下の度合いが大きかった.これは,全てのモデルが時点間の順序の判定方法を完全には汎化できていないことや,サイズの小さいモデルは汎化能力により課題があることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T29\begin{table}[t]\input{13table29.tex}\hangcaption{\spanrandomを用いて学習したモデルの未知問題上での精度と,\iidを用いて学習したモデルの該当問題上での精度(5回の実験における平均値および標準偏差).$\Delta$で示す列は\spanrandomと\iidの精度の差を表す.}\label{tab:result_finetune_span}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.2\subsection{生成モデル}\label{subsec:generative_model}\hl{表\ref{tab:result_gpt}は生成モデルの\zeroshot,\fewrandom,\fewseenプロンプトでの結果を示している.全てのモデルが\fewseenプロンプトを用いた場合に高い性能を発揮したことから,対象問題(モデルに解かせる問題)と同じパターンの問題をプロンプトに問題例として記述することが性能向上に効果的であることがわかる.一方で,\fewrandomでは\zeroshotと比較してそれほど大きな精度の向上は見られなかった.これは,対象問題と関連度の低い例が,モデルの性能向上にあまり寄与しないことを示唆している.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T30\begin{table}[t]\input{13table30.tex}\hangcaption{\zeroshot,\fewrandom,\fewseenプロンプトを用いた生成モデルの精度(5回の実験における平均値および標準偏差).}\label{tab:result_gpt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{表\ref{tab:confusion_matrix_gpt35}および表\ref{tab:confusion_matrix_llmjp}は\gpttおよび\llmjpの\zeroshot,\fewrandomプロンプトにおける混同行列を示している.表\ref{tab:confusion_matrix_gpt35}から,プロンプトに問題例を記述したことで,\gpttの\neutralの予測数が11から61に増加し,再現率が5.4\%から27.7\%に向上していることが読み取れる.これは,\gpttの\fewrandomにおける精度向上が,\gpttの予測ラベルの分布変化に起因していることを意味している.このような分布の変化が発生した理由としては,プロンプト中に正解ラベルが\neutralである例を記述したことで,モデルが\neutralと予測すべきケースを学習したことが考えられる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T31\addtocounter{table}{-1}\begin{table}[t]\input{13table31.tex}\captionof{table}{\gpttの\zeroshotおよび\fewrandomの混同行列.表中の数値は件数を示す.}\label{tab:confusion_matrix_gpt35}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T32\addtocounter{table}{-1}\begin{table}[t]\input{13table32.tex}\captionof{table}{\llmjpの\zeroshotおよび\fewrandomの混同行列.表中の数値は件数を示す.}\label{tab:confusion_matrix_llmjp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{一方,\llmjpでは,モデルの予測ラベルが著しく偏っている様子が観察された.具体的には,\zeroshotでは,全ての予測ラベルが\entailmentであり,\fewrandomでは全ての予測ラベルが\entailmentと\neutralのいずれかであった.\fewrandomで\neutralの予測数が増加した一因として,プロンプトに記述されている最後の問題例の正解ラベルが\neutralであったことが考えられる.}\hl{この仮説を検証するために,最後の問題例の正解ラベルを\contradictionとしたプロンプトを用いた追加実験を行った.表\ref{tab:confusion_matrix_llmjp_rev}は追加実験の結果の混同行列を示している.表から,\neutralの予測数が0かつ\contradictionの予測数が大きく増加していることが読み取れる.これらの実験結果から,\llmjpがタスクや問題例について深く理解しておらず,プロンプトに記述された問題例の正解ラベルに依存して推論を行っていることが示唆される.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T33\begin{table}[t]\input{13table33.tex}\hangcaption{\llmjpに,\fewrandomプロンプト中の\neutralが答えとなる問題例と\contradictionが答えとなる問題例の順序を逆にしたプロンプトを入力した実験における混同行列.表中の数値は件数を示す.}\label{tab:confusion_matrix_llmjp_rev}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{次に,対象問題の生成元となった推論テンプレート(以下生成元テンプレートと表記する)の正解ラベルの種類の数ごとの実験結果の分析を表\ref{tab:result_label_num}に示す.ここで,推論テンプレートの正解ラベルの種類の数とは,推論テンプレートが生成し得る正解ラベルの種類の数を指す.\fewseenプロンプトには,生成元テンプレートから生成された学習データのみが記述されているため,生成元テンプレートの正解ラベルの種類の数は\fewseenプロンプト中に含まれる正解ラベルの種類の数と一致する.表から,\fewseenでは1ラベルの場合の精度が著しく高いことが読み取れる.特に,\llmjpでは\fewseenの1ラベルの問題に対する精度が100\%であった.これは,\llmjpの予測がプロンプトに記述された問題例の正解ラベルに依存しているという前述の観察と一致する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T34\begin{table}[t]\input{13table34.tex}\hangcaption{\gptt,\gptf,\llmjpの\fewrandom,\fewseenプロンプトを用いた実験における結果の,生成元テンプレートの正解ラベルの種類の数ごとの分析.}\label{tab:result_label_num}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{また,全てのモデルで,ラベルの種類の数が増加するごとに精度が低下しており,その傾向は\fewseenプロンプトを用いた設定においてより顕著である.特に,\llmjpの\fewseenの精度は,3ラベルの問題では\fewrandomと同等程度にまで低下している.このことからも,\llmjpがタスクや問題例について深く理解していないという仮説が支持される.一方で,\gpttや\gptfにおいては,いずれの場合も\fewseenの精度が\fewrandomの精度を上回る結果となった.これは,\llmjpと異なり,これらのモデルがプロンプトに記述された問題例の推論パターンを学習して推論を行っていることを示唆している.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%6.3\subsection{テンス現象ごとの精度}\label{subsec:acc_per_tense_tag}次に,言語モデルの得意な推論や苦手な推論について分析する.ここで,識別系言語モデルに関してはBERT-largeを,生成系言語モデルに関しては\gpttと\gptfを分析の対象とする.表\ref{tab:result_tense_tag}はそれぞれのモデルの表\ref{tab:tense_fragment_classification}の大分類ごとの精度を示している.以下では,それぞれの現象の特徴的な結果について議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T35\begin{table}[t]\input{13table35.tex}\hangcaption{BERT-largeの\zeroshot,\tagsplit,\iidおよび\gptt,\gptfの\zeroshot,\fewrandom,\fewseenのテンス現象ごとの精度.表中の「常識」は時間的常識を,「順序」は時間的順序を,「直示」は直示時間副詞を,「量化」は量化時間副詞を意味する.}\label{tab:result_tense_tag}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{時間的常識~~}時間的常識に関する推論では,いくつかのモデルが表\ref{tab:error_example_commonsense}に示すような「現在」の用法(過去形)の問題について誤って予測していることが確認できた.これは,モデルが現在形・過去形の意味の違いを捉えられず,前提文・仮説文の表層形の類似度に基づいて判断したことが原因であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T36\begin{table}[t]\input{13table36.tex}\caption{時間的常識に関する問題のエラー例.Prはモデルの予測ラベルを表す.}\label{tab:error_example_commonsense}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{一方で,\gptfの\zeroshotでは時間的常識に関する問題の精度が100\%であった.これは,\gptfが事前学習時にテンスについて学習していることを示唆している.しかし,\fewrandomでは精度が低下したことから,対象問題と関連性の低い問題例はモデルの性能を低下させる可能性があることも読み取れる.}\paragraph{時間的順序~~}時間的順序に関する推論は多くのモデルで比較的精度が低かった.この要因としては,表\ref{tab:error_example_order}に示すような推論を実行するための知識が汎化できていないことが挙げられる.この推論を実行するためには,「AがBの前でBがCの前であればAはCの前である」という推移律の知識や,「AがBの前であればBはAの後である」という対称性の知識が必要である.この2つの知識を組み合わせる必要がある推論は,BERT-largeの\iidや\gptfの\zeroshotといった性能の良いモデルにとっても困難であることが示唆された.\hl{中でも,表\ref{tab:error_example_order}に示すような,2つの知識を組み合わせてイベントの順序を整理し,その上で仮説が導けない(\neutralとなる)ことを示す問題は,とりわけ精度が低かった.}このことは,これらのモデルの構成的汎化能力に改善の余地があることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T37\begin{table}[t]\input{13table37.tex}\caption{時間的順序に関する問題の例.}\label{tab:error_example_order}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,生成モデルについて,プロンプト中に順序に関する例が複数記述されていれば精度が向上するのかを検証するために,表\ref{tab:experiments_prompt_add_order}に示すプロンプトを用いて追加で実験を行い,時間的順序の問題のみの精度を評価した.プロンプトに用いる問題は,順序に関する6つのテンス現象タグの問題について,正解ラベルが均等になるように1つずつランダムに抽出した.\hl{その結果,\gpttでは精度39.1\%となり,\zeroshotや\fewrandomと比較して約5\rhl{ポイント}精度が向上した.一方,\gptfでは精度82.8\%であり,\fewrandomと比較して約7\rhl{ポイント}精度が向上した.このことから,対象問題と完全に同じ推論パターンの問題例でなくとも,ある程度の類似性を持つ問題例はモデルの性能向上に寄与することが示唆された.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T38\begin{table}[t]\input{13table38.tex}\hangcaption{\gptt,\gptf上での,時間的順序の問題に関する追加実験に用いるプロンプトの一部.太字部分は問題によって差し替える.}\label{tab:experiments_prompt_add_order}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{時点}時点に関する推論では,学習データを増やすことでBERT-largeの精度が大きく向上する様子が観察された.この精度上昇の要因を分析するために,BERT-largeの\zeroshotおよび\tagsplitの,時点の問題に関する混同行列をまとめた結果を表\ref{tab:confusion_matrix_bert_tp}に示す.表を見ると,\zeroshotから\tagsplitへと学習データを増やすことで,\neutralについては再現率・適合率ともに大きく向上しているが,\contradictionについてはともに低下していることがわかる.このことから,時点の問題に関する精度上昇には,知識獲得によるモデルの性能向上の他に,\ref{subsec:result_zeroshot}節で述べた予測ラベルの分布の変化および,時点の問題の正解ラベルに占める\neutralと\contradictionの割合が大きな影響をもたらしているということが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T39\addtocounter{table}{-1}\begin{table}[t]\input{13table39.tex}\hangcaption{BERT-largeの\zeroshotおよび\tagsplitの時点の問題に関する混同行列.表中の数値は件数を示す.}\label{tab:confusion_matrix_bert_tp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{一方で,時点の問題はその全てが生成元テンプレートの正解ラベルが1種類の問題であるにも関わらず,\gpttと\gptfの\fewseenの精度が比較的低かった.特に\gpttでは,表\ref{tab:error_example_tp}に示すような正解ラベルが\contradictionの問題について,\neutralと誤って予測する事例が多く観察された.これは,これらの生成モデルがプロンプトに記述された問題例を参照せずに推論を行う可能性があることを示唆している.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T40\begin{table}[t]\input{13table40.tex}\caption{時点に関する問題のエラー例.Prはモデルの予測ラベルを表す.}\label{tab:error_example_tp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{区間}区間に関する推論においても,時点に関する推論と同様に,BERT-largeの,\zeroshotとそれ以外の設定で大きな精度の差が見られた.表\ref{tab:confusion_matrix_bert_interval}にBERT-largeの\zeroshotおよび\tagsplitの,区間の問題に関する混同行列を示す.表から,区間の問題では\neutralだけでなく全てのラベルに関して再現率と適合率が上昇していることが見て取れる.このことは,区間の問題では時点の問題と異なり,Fine-tuningによる知識獲得がモデルの性能向上の主要因であることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T41\addtocounter{table}{-1}\begin{table}[t]\input{13table41.tex}\hangcaption{BERT-largeの\zeroshotおよび\tagsplitの区間の問題に関する混同行列.表中の数値は件数を示す.}\label{tab:confusion_matrix_bert_interval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{直示時間副詞}直示時間副詞においても,時点の問題と同様に,予測ラベルの分布の変化による精度の向上が見られた.さらにエラー例を観察すると,BERT-large・\gpttと\gptfでは異なるエラーの傾向が見られた.表\ref{tab:error_example_anaphora}にそれぞれのエラー例を示す.BERT-largeや\gpttのエラーは「昨日」が表す日付の特定に失敗していることに起因するのに対し,\gptfのエラーは前提文と関係のない日付を含む仮説文に対して\neutralと判定できないことに起因していることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T42\begin{table}[t]\input{13table42.tex}\hangcaption{直示時間副詞に関するエラー例.上段はBERT-largeおよび\gpttのエラーを,下段は\gptfのエラーを示している.Prはモデルの予測ラベルを表す.}\label{tab:error_example_anaphora}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{量化時間副詞}量化時間副詞に関する推論では,BERT-largeの\tagsplitを用いたFine-tuningにおける精度が\zeroshotにおける精度よりも低下した.結果を詳しく分析したところ,BERT-largeでは表\ref{tab:error_example}の上段に示すような否定を含まない問題と下段に示すような否定を含む問題の精度が大きく離れていることがわかった.具体的には,否定を含まない問題の精度が90\%である一方,否定を含む問題の精度は0\%であった.これは,BERT-largeが否定に関する知識を汎化できていないことを意味している.\paragraph{アスペクト}アスペクトに関する推論は,他の現象と比較すると全てのモデルで精度が低かった.これは,\oursに含まれるアスペクトに関する問題では,文脈が不足しているために複数の解釈が考えられることに起因していると考えられる.本研究では\hl{\ref{subsubsec:aspect_discrimination_flow}節や\ref{subsec:template_creation}節で述べた通り,最ももっともらしい解釈に基づいてアスペクトの判別や正解ラベルの付与を行っているため,}その他のあり得る解釈のもとでのラベルを予測した場合は不正解となる.そのため,正解が一意に定まる他の現象よりも精度が低くなっていると考えられる.今後の課題としては,複数の正解ラベルを許容することや,そのラベルに重み付けして評価することが挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\setcounter{exx}{0} \section{おわりに} \label{sec:conclusion}本研究ではテンプレートを用いたアプローチで日本語の時間推論データセット\oursを構築した.\oursは推論パターンや語彙,サイズが制御可能であり,これにより言語モデルが時間推論をどの程度汎化できるかの詳細な分析が可能となった.\oursを用いて分析を試みた結果,サイズが大きい識別モデルは時間単位の大小関係や時点間の順序の判定方法をある程度汎化できるが,時間推論パターンの汎化やサイズが小さい識別モデルの汎化性能には更なる改善の余地が残されていることが示唆された.また,GPT-3.5やGPT-4といった高性能な生成モデルにとっても時間推論パターンの汎化,特に推論パターンの組み合わせを要する構成的汎化は課題であることが示された.さらに,テンス現象ごとの結果を分析することで,モデルの予測の傾向や得意とする推論の種類,プロンプトが生成モデルの予測に与える影響が一部明らかになった.\hl{具体的には,ほとんどのモデルにとって,推移律と対称性を組み合わせる必要のある時間的順序に関する推論が課題であることが示された.また,識別モデルに関しては,BERT-largeにとって量化時間副詞と否定の組み合わせに関する推論の汎化が困難であることが示唆された.生成モデルに関しては,対象問題と類似した問題をプロンプトに記述することがモデルの性能向上に寄与することが明らかとなった.一方で,生成モデルがプロンプトに記述された問題例を参照せずに推論を行う事例も観察された.}今後の課題としては,\oursを用いた言語モデルの更なる分析が挙げられる.特に,生成モデルの予測の傾向や結果の解釈は重要な課題である.この課題を解決するために,更なる予測結果の分析を行う予定である.また,そのようにして得られた知見をもとに,モデルの時間推論能力の向上についても検討を行いたい.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,JSTさきがけJPMJPR21C8の支援を受けたものである.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{13refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{杉本智紀}{2022年東京大学理学部情報科学科卒業.2024年東京大学大学院情報理工学系研究科コンピュータ科学専攻博士前期課程修了.現在,株式会社pluszeroに所属.}\bioauthor{尾上康雅}{2023年テキサス大学オースティン校コンピューターサイエンス博士課程修了,同年よりGoogleに所属し,自然言語処理の研究に従事.博士.}\bioauthor{谷中瞳}{%2018年東京大学大学院工学系研究科博士課程修了.同年より理化学研究所特別研究員,2021年より東京大学卓越研究員に採択され東京大学大学院情報理工学系研究科講師,2023年より同准教授.理化学研究所客員研究員を兼務.自然言語推論に関する研究に従事.博士(工学).}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V18N04-03
\section{はじめに} \label{section:はじめに}\vspace{-0.5\baselineskip}形態素解析は,日本語における自然言語処理の基礎であり,非常に重要な処理である.形態素解析の入力は文字列であり,出力は単語と品詞の組(形態素)の列である.形態素解析の出力は,固有表現抽出や構文解析などの後段の言語処理の入力となるばかりでなく,情報検索システムやテキストマイニング等の自然言語処理の応用の入力として直接利用される.そのため,形態素解析の精度は自然言語処理やその応用に大きな影響を与える.昨今,自然言語処理の応用は医療\cite{電子カルテからの副作用関係の自動抽出}や法律\cite{日英特許コーパスからの専門用語対訳辞書の自動獲得}からWeb文書\cite{2ちゃんねる解析用の形態素解析器の作成}まで多岐に渡る.したがって,様々な分野のテキストに対して,高い形態素解析解析精度を短時間かつ低コストで実現する手法が望まれている.現在の形態素解析器の主流は,コーパスに基づく方法である.この方法では,統計的なモデルを仮定し,そのパラメータをコーパスから推定する.代表的な手法は,品詞$n$-gramモデル\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法},全ての品詞を語彙化した形態素$n$-gramモデル\cite{形態素クラスタリングによる形態素解析精度の向上},条件付き確率場(CRF)\cite{Conditional.Random.Fields.を用いた日本語形態素解析}などを用いている.これらの統計的手法は,パラメータをコーパスから推定することで,際限なきコスト調整という規則に基づく方法の問題を解決し,コーパス作成の作業量に応じて精度が確実に向上するようになった.一方,これらの既存の統計的手法による形態素解析器で,医療や法律などの学習コーパスに含まれない分野のテキストを解析すると実用に耐えない解析精度となる.この問題に対して,分野特有の単語を辞書に追加するという簡便な方法が採られるが,問題を軽減するに過ぎない.論文等で報告されている程度の精度を実現するには,解析対象の分野のフルアノテーションコーパスを準備しなければならない.すなわち,解析対象の分野のテキストを用意し,すべての文字間に単語境界情報を付与し,すべての単語に品詞を付与する必要がある\footnote{CRFのパラメータを部分的アノテーションコーパスから推定する研究\cite{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}もあるが,能動学習などの際に生じる非常にスパースかつ大規模な部分的アノテーションコーパスからの学習の場合には,必要となる主記憶が膨大で,現実的ではない.}.この結果,ある分野のテキストに自然言語処理を適用するのに要する時間は長くなり,コストは高くなる.本論文では,上述の形態素解析の現状と要求を背景として,大量の学習コーパスがある分野で既存手法と同程度の解析精度を実現すると同時に,高い分野適応性を実現する形態素解析器の設計を提案する.具体的には,形態素解析を単語分割と品詞推定に分解し,それぞれを点予測を用いて解決することを提案する.点予測とは,推定時の素性として,周囲の単語境界や品詞情報等の推定値を参照せずに,周辺の文字列の情報のみを参照する方法である.提案する設計により,単語境界や品詞が文の一部にのみ付与された部分的アノテーションコーパスや,品詞が付与されていない単語や単語列からなる辞書などの言語資源を利用することが可能となる.この結果,従来手法に比して格段に高い分野適応性を実現できる. \section{点予測を用いた形態素解析} \label{sec:KyPt}本論文では,形態素解析を単語分割と品詞推定に分けて段階的に処理する手法を提案する(\figref{figure:flow}参照).それぞれの処理において,単語境界や品詞の推定時に,推定結果しか存在しない動的な情報を用いず,周辺の文字列情報のみを素性とする点予測を用いる.\begin{figure}[b]\begin{center}\includegraphics{18-4ia922f1.eps}\end{center}\caption{処理の流れ}\label{figure:flow}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{18-4ia922f2.eps}\end{center}\caption{単語分割に使用する素性(窓幅が3,$n$-gram長の上限が3の場合)}\label{figure:KyWS}\end{figure}\subsection{点予測を用いた単語分割}点予測による単語分割には先行研究\cite{点推定と能動学習を用いた自動単語分割器の分野適応}がある.提案手法での単語分割にはこれを採用する.以下では,この点予測による単語分割を概説する.点予測による単語分割の入力は文字列$\Bdma{x}=\Conc{x}{n}$であり,各文字間に単語境界の有無を示す単語境界タグ$\Bdma{t}=\Conc{t}{n-1}$を出力する.単語境界タグ$t_i$がとりうる値は,文字$x_{i}$と$x_{i+1}$の間に単語境界が「存在する」か「存在しない」の2種類である.したがって,単語境界タグの推定は,2値分類問題として定式化される.点予測による単語分割では,以下の3種類の素性を参照する線形サポートベクトルマシン(LinearSVM)\cite{LIBLINEAR:.A.Library.for.Large.Linear.Classification}による分類を行っている.参照する素性は以下の通りである(\figref{figure:KyWS}参照).\begin{enumerate}\item文字$n$-gram:判別するタグ位置$i$の周辺の部分文字列である.窓幅$m$と長さ$n$のパラメータがあり,長さ$2m$の文字列$x_{i-m+1},\cdots,x_{i-1},x_{i},x_{i+1},\cdots,x_{i+m}$の長さ$n$以下のすべての部分文字列である.\item文字種$n$-gram:文字を文字種に変換した記号列を対象とする点以外は文字$n$-gramと同じである.文字種は,漢字(K),片仮名(k),平仮名(H),ローマ字(R),数字(N),その他(O)の6つである.\item単語辞書素性:判別するタグ位置$i$を始点とする単語,終点とする単語,内包する単語が辞書にあるか否かのフラグと,その単語の長さである.\end{enumerate}\subsection{点予測を用いた品詞推定}様々な言語資源を有効活用するために,点予測による単語分割の考え方を拡張し,点予測を用いた品詞推定手法を提案する.提案手法による品詞推定の入力は単語列であるが,品詞推定対象の単語以外の単語境界情報を参照しない.この設計により,一部の単語にのみ単語境界や品詞情報が付与された部分的アノテーションコーパスが容易に利用可能となる.この点が,英語などの単語に分かち書きされた言語に対する品詞推定の既存手法\cite{Grammatical.Category.Disambiguation.by.Statistical.Optimization}との相違点である.提案手法における品詞推定は,注目する単語に応じて以下の4つの種類の処理を行う.\begin{enumerate}\item学習コーパスに出現し,複数の品詞が付与されている単語は,後述する単語毎の分類器で品詞を推定する.\item学習コーパスに出現し,唯一の品詞が付与されている単語には,その品詞を付与する.\item学習コーパスに出現せず,辞書に出現する単語には,辞書に最初に現れる品詞を付与する.\item学習コーパスに出現せず,辞書にも出現しない単語は,その品詞を名詞とする.\end{enumerate}分類器で品詞を推定する(1)の場合は,点予測を用いることとする.点予測による品詞推定は,品詞を推定する単語$w$とその直前の文字列$\Bdma{x}_{-}$と直後の文字列$\Bdma{x}_{+}$を入力とし,これらのみを参照して単語$w$の品詞を推定する多値分類問題として定式化される.参照する文字列の窓幅を$m'$とすると,入力において参照される文脈情報は$\Bdma{x}_{-},w,\Bdma{x}_{+}=x_{-m'}\cdotsx_{-2}x_{-1},w,\Conc{x}{m'}$となる.すなわち,この文字列と$w$の前後に単語境界があり内部には単語境界がないという情報のみから$w$の品詞を推定する.換言すれば,推定対象の単語以外の単語境界情報や周囲の単語の品詞などの推定結果を一切参照しない.この設計により,パラメータ推定時に様々な言語資源の柔軟な活用が可能となる.分類器品詞推定に利用する素性は以下の通りである(\figref{figure:KyPT}参照).\begin{enumerate}\item$\Bdma{x}_{-}\Bdma{x}_{+}$に含まれる文字$n$-gram\item$\Bdma{x}_{-}\Bdma{x}_{+}$に含まれる文字種$n$-gram\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{18-4ia922f3.eps}\end{center}\caption{品詞推定に使用する素性(窓幅が3,$n$-gram長の上限が3の場合)}\label{figure:KyPT}\end{figure}単語分割とは異なり,品詞推定は多値分類である.したがって,各単語の品詞候補毎の分類器を作る.つまり,ある単語に品詞候補が3つ存在すれば分類器はその単語に対して3つ作り,推定には1対多方式(one-versus-rest)を用いて多値分類を行う.なお,全単語に対して1つの多値分類器を作るという方法も考えられる.予備実験で,この手法を能動学習で用いたところ,能動学習に対して頑健性が低く,偏ったデータを学習データに利用すると解析精度が大幅に下がる現象が起きたので本論文では利用しないこととした.\subsection{点予測による柔軟な言語資源利用}点予測を用いた単語分割,および品詞推定は,入力から計算される素性のみを参照し,周囲の推定値を参照しない.この設計により,様々な言語資源を柔軟に利用することが可能となる.系列ラベリングとして定式化する既存手法による形態素解析器のパラメータ推定には,一般的に次の2つの言語資源のみが利用可能である.これらは提案手法でも利用可能である.\begin{description}\item[1.フルアノテーションコーパス]すべての文字間に単語境界情報が付与され,すべての単語に品詞が付与されている.既存手法の分野適応に際しては,適応対象の文に対して人手によりこれらの情報を付与する必要があるが,各文の大部分の箇所は,一般分野のコーパスにすでに出現している単語や表現であり,文のすべての箇所に情報を付与することは効率的ではない.\item[2.形態素辞書]この辞書の各見出し語は,フルアノテーションコーパスと同様の単語の基準を満たし,品詞が付与されている.既存手法の分野適応に際しては,対象分野の形態素解析や文字$n$-gramの統計結果\cite{nグラム統計によるコーパスからの未知語抽出}から,頻度が高いと推測される単語から辞書に追加される.しかしながら,文脈情報が欠落するのでコーパスほど有効ではない.\end{description}フルアノテーションコーパスを作成する作業者は,対象分野の知識に加えて,単語分割基準と品詞体系の両方を熟知している必要がある.現実にはこのような人材の確保は困難であり,比較的短時間の訓練の後に実作業にあたることになる.その結果,不明な箇所や判断に自信のない箇所が含まれる文に対しては,その文すべてを棄却するか,確信の持てない情報付与をすることとなる.また,形態素辞書を作成する際にも,単語であることのみに確信があり,品詞の判断に自信がない場合,その単語を辞書に加えないか,確信の持てない品詞を付与するかのいずれかしかない.このような問題は,言語資源作成の現場では非常に深刻であり,確信の持てる箇所で確信の持てる情報のみのアノテーションを許容する枠組みが渇望されている.提案する枠組みでは,以下のような部分的な情報付与の結果得られる言語資源も有効に活用することができる(\figref{figure:LR}参照).\begin{description}\item[3.部分的アノテーションコーパス]文の一部の文字間の単語境界情報や一部の単語の品詞情報のみがアノテーションされたコーパスである.形態素解析という観点では,単語境界情報のみが付与された単語分割済みコーパスも部分的アノテーションコーパスの一種である.ほかに,部分的単語分割コーパスや部分的品詞付与コーパスなどがある.\item[4.単語辞書]単語の表記のみからなる辞書であり,比較的容易に入手可能である.自動単語分割の際に単語境界情報として利用できる.\end{description}フルアノテーションコーパスは,各分野で十分な量を確保することは難しいが,上記の言語資源は比較的簡単に用意することができる.本手法では,これらの様々な言語資源を有効活用することにより,高い分野適応性を実現する.\begin{figure}[t]\begin{center}\includegraphics{18-4ia922f4.eps}\end{center}\caption{提案手法で利用可能な言語資源}\label{figure:LR}\end{figure}\subsection{分野適応戦略}\label{subsection:戦略}本項は,分野適応戦略について述べる.最も効果が高い分野適応の戦略は,適応分野のフルアノテーションコーパスを用意することであるが,作成に必要な人的コストが膨大であるという問題がある.低い人的コストで高い効果を得るためには,推定の信頼度が低い箇所に優先的にアノテーションを行うことが望ましい.単語境界や品詞の推定の信頼度は,文内の各箇所で異なるので,アノテーションは文単位ではなく,推定対象となる最小の単位であるべきである.このようなアノテーションの結果,部分的アノテーションコーパスが得られる.既存手法の形態素解析器では,部分的アノテーションコーパスの利用は困難であるが,提案手法では周囲の文字列の情報のみを用いて形態素解析を行うので,部分的アノテーションコーパスの利用が容易である.そこで,分野適応戦略として,形態素解析器の学習と部分的アノテーションを交互に繰り返し行う能動学習を採択する.手順は以下の通りである(\figref{figure:AL}参照).\begin{enumerate}\item一般分野のフルアノテーションコーパスで分類器の学習を行う.\item適応分野の学習コーパス(初期状態は生コーパス)に対して形態素解析を行い,後述する方法で推定の信頼度が低い100箇所を選択する\footnote{理論的には,1箇所のアノテーション毎に分類器の再学習を行うべきであるが,それでは作業者の待ち時間の合計が非常に長くなる.また,予備実験で1箇所を選んだ場合の精度は100箇所を選んだ場合の精度と有意な差とならなかった.}.\item選択した箇所を作業者に提示し,単語境界と品詞を付与してもらう.その結果,適応分野の部分的アノテーションコーパスが得られる.\item一般分野のフルアノテーションコーパスと適応分野の部分的アノテーションコーパスを用いて分類器の再学習を行う.\item上記の(2)〜(4)の手順を繰り返す.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{18-4ia922f5.eps}\end{center}\caption{能動学習}\label{figure:AL}\end{figure}アノテーション箇所の候補は,分類器の判断の信頼度が低い単語分割箇所と品詞推定対象の単語である.信頼度の尺度は,SVMの分離平面からの距離であり,単語分割箇所と品詞推定の単語を一括して比較する.実際のアノテーションは,選択された箇所(選択箇所)に応じて以下のように行う.\begin{enumerate}\item選択箇所が単語分割箇所(文字間)の場合:以下の2通りに分類する.\begin{enumerate}\item選択箇所が単語内の場合:その単語の内部と前後の単語境界情報および品詞情報を付与する.\item選択箇所が単語境界の場合:その前後の単語の内部と前後の単語境界情報および品詞情報を付与する.\end{enumerate}\item選択箇所が品詞推定箇所(単語)の場合:その単語の内部と前後の単語境界情報および品詞情報を付与する.\end{enumerate} \section{評価} 提案手法の評価を行うために2つの評価実験を行った.1つ目の実験では,自然言語処理の適応対象を医薬品情報のテキストと想定し,言語資源が豊富な一般分野のコーパスで学習を行い,医薬品情報のテキストに対する形態素解析精度を既存手法と比較する.2つ目の実験は,能動学習による提案手法の分野適応性の定量的評価である.比較的大きなコーパスが存在する分野のテキストを対象に,一部をテストコーパスとし,残りを能動学習を模擬するための学習コーパスとして利用し,アノテーション数と精度の関係を評価する.\subsection{コーパス}実験には「現代日本語書き言葉均衡コーパス」モニター公開データ(2009年度版)のコアデータ(以下BCCWJと呼ぶ)\cite{代表性を有する大規模日本語書き言葉コーパスの構築}と医薬品情報のテキスト(以下JAPICと呼ぶ)を用いた.これらのコーパスは,単語分割と品詞付与が人手で行われている.コーパスの諸元を\tabref{table:corpus}に示す.また,219,583形態素を収めたUniDic\cite{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}を辞書として用いた.\begin{table}[b]\caption{コーパス}\input{03table01.txt}\label{table:corpus}\end{table}本論文で提案するのは,分野適応性の高い形態素解析器であり,1つ目の実験では,一般分野とJAPIC(適応分野)をテストコーパスとする評価を行う.この実験では,コーパスと同じ基準の辞書がある場合とない場合も比較した.それぞれの場合のカバー率は\tabref{table:coverage}の通りである.2つ目の実験では,提案手法と既存手法の代表であるCRFの能動学習を行ない,分野適応性を評価する.この実験でもJAPICを適応分野とするのが理想的であるが,我々は能動学習の実験に必要なアノテーションを模擬する学習コーパスを有していない.したがって,性質に応じてBCCWJを2つに分割し,能動学習の実験を行った.分割においては,文献\Cite{Design.Compilation.and.Preliminary.Analyses.of.Balanced.Corpus.of.Contemporary.Written.Japanese}を参考に,他の出典のデータと大きく性質が異なるYahoo!知恵袋を適応分野とし,白書と書籍と新聞を一般分野とした.分野適応性の評価のための実験で,UniDicを利用することも考えられるが,\tabref{table:coverage}から分かるように,これを語彙に加えた場合のYahoo!知恵袋のカバー率は99.80\%とJAPICを対象とした場合の95.99\%に比べて非常に高く,実際の分野適応を模擬していることにはならない.したがって,分野適応性の評価実験においては,UniDicを使用しないこととした.なお,この場合のカバー率は96.29\%であり,この判断はおおむね妥当である.\begin{table}[t]\caption{カバー率}\input{03table02.txt}\label{table:coverage}\end{table}\subsection{評価基準}本論文で用いた評価基準は,文献\cite{EDRコーパスを用いた確率的日本語形態素解析}で用いられている再現率と適合率であり,次のように定義される.正解コーパスに含まれる形態素数を$N_{REF}$,解析結果に含まれる形態素数を$N_{SYS}$,単語分割と品詞の両方が一致した形態素数を$N_{COR}$とすると,再現率は$N_{COR}/N_{REF}$と定義され,適合率は$N_{COR}/N_{SYS}$と定義される.例として,コーパスの内容と解析結果が以下のような場合を考える.\begin{description}\item[コーパス]\\\\begin{tabular}{l}外交/名詞\政策/名詞\で/助動詞\は/助詞\な/形容詞\い/語尾\end{tabular}\item[解析結果]\\\\begin{tabular}{l}外交政策/名詞\で/助詞\は/助詞\な/形容詞\い/語尾\end{tabular}\end{description}この場合,分割と品詞の両方が一致した形態素は「は/助詞」と「な/形容詞」と「い/形容詞語尾」であるので,$N_{COR}=3$となる.また,コーパスには6つの形態素が含まれ,解析結果には5つの形態素が含まれているので,$N_{REF}=6,\,N_{SYS}=5$である.よって,再現率は$N_{COR}/N_{REF}=3/6$となり,適合率は$N_{COR}/N_{SYS}=3/5$となる.また,再現率と適合率の調和平均であるF値も評価の対象とした.\subsection{各手法の詳細}提案手法においては,学習コーパスのみを用いた予備実験により,文字$n$-gram長の$n$の上限値,文字種$n$-gram長の$n$の上限値,窓幅$m,\;m'$をすべて3とした.なお,分類器には,精度と学習効率を考慮して線形SVM\cite{LIBLINEAR:.A.Library.for.Large.Linear.Classification}を用いた.比較対象とした既存手法は,品詞2-gramモデル(HMM)\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法}と,形態素$n$-gramモデル($n=2,\;3$)\cite{形態素クラスタリングによる形態素解析精度の向上}と,CRFに基づく方法(MeCab-0.98)\cite{Conditional.Random.Fields.を用いた日本語形態素解析}である.予備実験の結果,CRFに基づく方法において素性とする語彙は,学習コーパスに出現する全単語のうちの低頻度語500語以外とした.また,学習コーパスの出現頻度上位5,000語を語彙化した.素性は,品詞,文字種,表記2-gram,品詞2-gram,形態素2-gramである.素性列から内部状態素性列に変換するマッピング定義の1-gramには,品詞と表記を用い,右文脈2-gramと左文脈2-gramには,品詞2-gramと語彙化された単語を用いた.\subsection{既存手法との比較}まず,一定量の言語資源がある状況での精度を既存手法と比較した.\tabref{table:L1T1}と\tabref{table:L1T3}は,各手法において学習コーパスのみを用いる場合の一般分野と適応分野のテストコーパスに対する精度である.また,\tabref{table:L2T1}と\tabref{table:L2T3}は,言語資源として辞書も用いる場合の結果である.\begin{table}[b]\caption{一般分野に対する単語分割精度および形態素解析精度(UniDicなし)}\input{03table03.txt}\label{table:L1T1}\end{table}\begin{table}[b]\caption{JAPICに対する単語分割精度および形態素解析精度(UniDicなし)}\input{03table04.txt}\label{table:L1T3}\end{table}まず,全体の傾向としては,多くの場合に表の上から順に精度が良くなっていく.品詞2-gramモデルと形態素2-gramモデルと形態素3-gramモデルの精度は,いずれの場合もこの順に向上する.これは,文献\cite{形態素クラスタリングによる形態素解析精度の向上}に報告されている通りである.唯一の例外は,JAPICに対する単語分割精度である.これは,過学習が原因であると考えられる.\begin{table}[t]\caption{一般分野に対する単語分割精度および形態素解析精度(UniDicあり)}\input{03table05.txt}\label{table:L2T1}\end{table}\begin{table}[t]\caption{JAPICに対する単語分割精度および形態素解析精度(UniDicあり)}\input{03table06.txt}\label{table:L2T3}\end{table}次に,CRFに基づく方法と品詞2-gramモデルとの比較である.ある程度大きな辞書が利用可能でカバー率が高いという条件下ではCRFに基づく方法は品詞2-gramモデルより精度が高いことがわかる.これは,文献\cite{Conditional.Random.Fields.を用いた日本語形態素解析}に述べられている結果と同じである.しかしながら,利用可能な辞書がなくカバー率が低い場合には,学習コーパスと異なる分野のテキストに対してほぼ同じ形態素解析精度になっている.この原因は,CRFに基づく方法の未知語処理が不十分で\footnote{CRFに基づく方法を提案している文献\cite{Conditional.Random.Fields.を用いた日本語形態素解析}には,「もし,辞書にマッチする単語が存在せず,ラティスの構築に失敗した場合は,別の未知語処理が起動される.」と記述されており,既知語列に分解できない場合にのみ文字種に対するヒューリスティクスに基づく未知語処理が起動されると考えられる.この結果,例えば「投与/名詞」を「投/動詞与/接頭辞」と誤って解析することが頻繁に起こっている.これはMeCab-0.98に固有の問題で,CRFに基づく方法一般の問題ではないかもしれない.しかしながら,我々の知る限り,適切な未知語モデルも含めたCRFに基づくモデルを提案し,その評価について日本語を対象として報告している論文ははない.},単語分割精度が著しく低いことである.形態素$n$-gramモデルは,いずれの条件でも品詞2-gramモデルよりも高い精度となっている.これは,文献\cite{形態素クラスタリングによる形態素解析精度の向上}の結果を追認し,品詞列のみならず,表記列の情報をモデル化することの重要性を強く示唆する.形態素$n$-gramモデルとCRFに基づく方法との比較では,単語分割においては形態素$n$-gramモデルがCRFを用いる方法よりも優れているが,品詞の一致も評価に含めた場合,CRFに基づく方法がより優れている.唯一の例外は,カバー率が最も低い\tabref{table:L1T3}の場合で,CRFに基づく方法の単語分割精度が低すぎて,形態素解析精度においても形態素$n$-gramモデルよりも低い精度となっている.最後に,本論文で提案する点予測に基づく方法と既存手法の比較についてである.品詞2-gramモデルや形態素$n$-gramモデルとの比較においては,唯一の例外(\tabref{table:L2T1}の単語分割の再現率)を除いて,提案手法が高い精度となっている.CRFに基づく方法との比較では,辞書を用いて学習コーパスと同一の分野のテストコーパスを解析対象とする\tabref{table:L2T1}の場合を除いて,提案手法が高い精度となっている.現実的な応用を想定したJAPICを対象とする場合(\tabref{table:L1T3}と\tabref{table:L2T3}参照)において,提案手法がいずれの既存手法よりも高い精度となっている点は注目に値する.特筆すべきは,コーパスと同じ基準で作成された辞書がない\tabref{table:L1T3}の場合に,提案手法が他の手法と比べて圧倒的に高い精度となっている点である.以上の結果から,点予測に基づく方法は,ある単語分割および品詞付与の基準に基づく言語資源作成の初期や,同じ分野の学習コーパスの存在が望めない実際の言語処理において非常に有効であることがわかる.\subsection{分野適応性の評価}提案手法の分野適応性を評価するために,以下の4つの手法を比較した.部分的アノテーションコーパスの作成手順は\subref{subsection:戦略}の通りである.なお,前述の通り,カバー率の観点から初期の言語資源として一般分野の学習コーパスのみを用い,適応分野をYahoo!知恵袋とする.\begin{description}\item[Pointwise:part]適応分野の部分的アノテーションコーパスから構築した提案手法:一般分野コーパスで学習を行い,適応分野の学習コーパスを生コーパスとみなして形態素解析を行う.単語境界推定または品詞推定の信頼度の低い100箇所に対して,単語アノテーションを行い,部分的アノテーションコーパスを作成する.部分的アノテーションコーパスを一般分野の学習コーパスに加えて,分類器の再学習を行う.同様の手順を,単語アノテーション箇所が20,000になるまで繰り返す.\item[Pointwise:full]適応分野のフルアノテーションコーパスから構築した提案手法:適応分野の学習コーパスに文単位でフルアノテーションを行う.この際,文の内容が偏らないように,ランダムに文を選択し,能動学習で単語アノテーションした単語数とほぼ同じになるようにアノテーションを行う.\item[CRF:part]適応分野の部分的アノテーションコーパスから構築したCRFに基づく方法:上述の{\bfPointwise:part}で得られる部分的アノテーションコーパスに含まれる単語をCRFに基づく方法の語彙として追加する.\item[CRF:full]適応分野のフルアノテーションコーパスから構築したCRFに基づく方法:上述の{\bfPointwise:full}でフルアノテーションした文に出現する単語をCRFに基づく方法の語彙として追加し,さらにそれらの文を学習コーパスに追加する.\end{description}以上のそれぞれで学習したモデルで適応分野のテストコーパスに対して形態素解析を行い,その精度を測定した.その結果を\figref{figure:res2}に示す.\begin{figure}[t]\begin{center}\includegraphics{18-4ia922f6.eps}\end{center}\caption{形態素解析精度と適応分野のアノテーション形態素数の関係}\label{figure:res2}\end{figure}まず,各形態素解析器において,フルアノテーションと部分的アノテーションでは,部分的アノテーションの方が解析精度の向上に貢献していることがわかる.また,フルアノテーションによる解析精度向上に対する効果は,いずれの手法においてもほぼ同じであることがわかる.最後に,部分的アノテーションによる解析精度向上に対する効果は,提案手法においてより大きいことがわかる.このことから,点予測による形態素解析手法と部分的アノテーションによる能動学習は,非常に良い組み合わせであり,本論文の提案により既存手法に比べて高い分野適応性が実現できることが分かる.このことは,ある分野のテキストに対して言語処理がどの程度有効かを迅速に示す必要があるようなプロジェクトの初期や,形態素解析がプロジェクトの一部に過ぎず,投資額が限られるような実際の言語処理において非常に大きな意味を持つ. \section{おわりに} \label{section:おわりに}本論文では,点予測による形態素解析手法を提案した.言語資源が豊富な一般分野のコーパスで学習を行い,一般分野と適応分野において提案手法と既存手法の解析精度の比較を行った.その結果,提案手法を用いた形態素解析は,実際の言語処理において非常に有効であることが示された.さらに,部分的アノテーションを用いる能動学習と提案手法を組み合わせることで,既存手法と比較して高い分野適応性が実現できることが示された.\acknowledgment本研究の一部は,科学研究費補助金・若手A(課題番号:08090047)により行われました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{DeRose}{DeRose}{1988}]{Grammatical.Category.Disambiguation.by.Statistical.Optimization}DeRose,S.~J.\BBOP1988\BBCP.\newblock\BBOQGrammaticalcategorydisambiguationbystatisticaloptimization.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf14}(1),\mbox{\BPGS\31--39}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{LIBLINEAR:.A.Library.for.Large.Linear.Classification}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQ{LIBLINEAR}:Alibraryforlargelinearclassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Maruyama,Yamaguchi,Ogura,Kashino,Ogiso,Koiso,\BBA\Den}{Maekawaet~al.}{2010}]{Design.Compilation.and.Preliminary.Analyses.of.Balanced.Corpus.of.Contemporary.Written.Japanese}Maekawa,K.,Yamazaki,M.,Maruyama,T.,Yamaguchi,M.,Ogura,H.,Kashino,W.,Ogiso,T.,Koiso,H.,\BBA\Den,Y.\BBOP2010\BBCP.\newblock\BBOQDesign,Compilation,andPreliminaryAnalysesofBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheSeventhInternationalConferenceonLanguageResourcesandEvaluation}.\bibitem[\protect\BCAY{Graham\JBA中田\JBA森}{Graham\Jetal}{2010}]{点推定と能動学習を用いた自動単語分割器の分野適応}GrahamNeubig\JBA中田陽介\JBA森信介\BBOP2010\BBCP.\newblock\JBOQ点推定と能動学習を用いた自動単語分割器の分野適応\JBCQ\\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{下畑\JBA井佐原}{下畑\JBA井佐原}{2007}]{日英特許コーパスからの専門用語対訳辞書の自動獲得}下畑さより\JBA井佐原均\BBOP2007\BBCP.\newblock\JBOQ日英特許コーパスからの専門用語対訳辞書の自動獲得\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(4),\mbox{\BPGS\23--42}.\bibitem[\protect\BCAY{前川}{前川}{2009}]{代表性を有する大規模日本語書き言葉コーパスの構築}前川喜久雄\BBOP2009\BBCP.\newblock\JBOQ代表性を有する大規模日本語書き言葉コーパスの構築\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf24}(5),\mbox{\BPGS\616--622}.\bibitem[\protect\BCAY{早藤\JBA建石}{早藤\JBA建石}{2010}]{2ちゃんねる解析用の形態素解析器の作成}早藤健\JBA建石由佳\BBOP2010\BBCP.\newblock\JBOQ2ちゃんねる解析用の形態素解析器の作成\JBCQ\\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{三浦\JBA荒牧\JBA大熊\JBA外池\JBA杉原\JBA増市\JBA大江}{三浦\Jetal}{2010}]{電子カルテからの副作用関係の自動抽出}三浦康秀\JBA荒牧英治\JBA大熊智子\JBA外池昌嗣\JBA杉原大悟\JBA増市博\JBA大江和彦\BBOP2010\BBCP.\newblock\JBOQ電子カルテからの副作用関係の自動抽出\JBCQ\\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblock\JBOQコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用\JBCQ\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--122}.\bibitem[\protect\BCAY{永田}{永田}{1995}]{EDRコーパスを用いた確率的日本語形態素解析}永田昌明\BBOP1995\BBCP.\newblock\JBOQEDRコーパスを用いた確率的日本語形態素解析\JBCQ\\newblock\Jem{EDR電子化辞書利用シンポジウム},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{永田}{永田}{1999}]{統計的言語モデルとN-best探索を用いた日本語形態素解析法}永田昌明\BBOP1999\BBCP.\newblock\JBOQ統計的言語モデルとN-best探索を用いた日本語形態素解析法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{森\JBA長尾}{森\JBA長尾}{1998a}]{nグラム統計によるコーパスからの未知語抽出}森信介\JBA長尾眞\BBOP1998a\BBCP.\newblock\JBOQ$n$グラム統計によるコーパスからの未知語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(7),\mbox{\BPGS\2093--2100}.\bibitem[\protect\BCAY{森\JBA長尾}{森\JBA長尾}{1998b}]{形態素クラスタリングによる形態素解析精度の向上}森信介\JBA長尾眞\BBOP1998b\BBCP.\newblock\JBOQ形態素クラスタリングによる形態素解析精度の向上\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(2),\mbox{\BPGS\75--103}.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Conditional.Random.Fields.を用いた日本語形態素解析}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQConditionalRandomFieldsを用いた日本語形態素解析\JBCQ\\newblock\Jem{情報処理学会研究報告},NL161\JVOL.\bibitem[\protect\BCAY{坪井\JBA森\JBA鹿島\JBA小田\JBA松本}{坪井\Jetal}{2009}]{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}坪井祐太\JBA森信介\JBA鹿島久嗣\JBA小田裕樹\JBA松本裕治\BBOP2009\BBCP.\newblock\JBOQ日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf50}(6),\mbox{\BPGS\1622--1635}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム(株)入社.2007年より京都大学学術情報メディアセンター准教授.京都大学博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年情報処理学会論文賞受賞.情報処理学会会員.}\bioauthor{中田陽介}{2009年香川大学工学部信頼性情報システム工学科卒業.2011年京都大学大学院情報学研究科修士課程修了.同年エヌ・ティ・ティ・コミュニケーションズ(株)入社.}\bioauthor[:]{NeubigGraham}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.同年同大学院博士後期課程に進学.現在に至る.自然言語処理に関する研究に従事.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年博士後期課程退学.同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.音声言語処理,特に音声認識及び対話システムに関する研究に従事.京都大学博士(工学).1997年度日本音響学会粟屋潔学術奨励賞受賞.2000年度情報処理学会坂井記念特別賞受賞.2004年から2008年まで言語処理学会理事.日本音響学会,情報処理学会各代議員.電子情報通信学会,人工知能学会,言語処理学会,IEEE各会員.}\end{biography}\biodate\end{document}
V24N01-02
\section{はじめに} label{sec:intro}絵本の読み聞かせは幼児の言語発達を促す重要な情報の1つと考えられる\cite{Mol:2008,Reese:1999,Whitehurst:1988}.例えば,読み聞かせを開始する月齢が早いほど,2才や4才の時点での言語理解や発話の能力が高くなること\cite{Debaryshe:1993:joint,Payne:1994:role},そして8ヶ月時点での絵本の読み聞かせが多い方が,12,および,16ヶ月時点での語彙が発達していること\cite{Karrass:2005:effects}などが示されている.また,読み聞かせでは,読み手と聞き手という少なくとも2者が存在し,絵本という共通の対象がある.このような状況において,聞き手である幼児は自分以外の他者と同一の対象に注意を向ける共同注意(jointattention)という行動を頻繁にとることが知られており\cite{Karrass:2003:predicting},それが言語発達に影響する可能性などが指摘されている\cite{Tomasello:1986:joint}.こうしたインタラクションによる効果以外にも,例えば,\citeA{Sulzby:1985:children}は,日常の会話でほとんど出現しない語彙やフレーズが絵本に多数含まれていることが幼児の言語発達を進めることを指摘している.さらに,絵本の読み聞かせは言語発達を促すだけではなく,読み手と子どものコミュニケーションを促したり,登場人物の感情を推定したりするなど,情操教育にも役立つと考えられる\cite{Sato:Horikawa:Uchiyama:2016j,Furumi:Koyamauti:Ooba:2014j}.このように,絵本を読むことは,言語発達と情操教育の両面での効果が期待できる.しかし絵本には,赤ちゃん向けの絵本から,年長児(5才児)以上を対象とする絵本,大人向けの絵本まで存在し,その内容も難しさも様々である.そのため,子どもの興味や発達段階にあった絵本を選ぶのは難しい.親など日常的に接している保護者が子どもに絵本を選ぶ場合,書店や図書館などで手にとって確認すれば,その子に読めそうかどうか,興味を引きそうかどうかは分かるかもしれない\changedB{が,非常に多くの絵本を1冊1冊手に取って確認するのは}容易ではない.また,ある程度大きな子どもであれば,子ども自身でも絵本を選べるかもしれない.しかし,書店や図書館では,多くの本は背表紙が見える向きでずらりと並べて置かれている.そのため,表紙が目立つように置かれてる一部の絵本の中から手に取りやすい傾向がある.多くの書店や図書館では,目立つ場所に置く本を定期的に入れ替えたり,季節やテーマに応じた本の展示コーナーを作ったり,定期的に読み聞かせの会を開いたりするなど,絵本と出会うための様々な工夫がされている.こうした取り組みでは,本に詳しい書店員や司書の方が選んだ本を紹介してくれるため,良い本と出会いやすいという利点がある.しかし,タイミング良くその時にその場所に足を運ばなければ,手に取る機会を逃してしまうという状況は変わらない.また,そうして手にとった本がその子に合った読みやすさではない場合,簡単すぎてつまらなかったり,あるいは難しすぎて途中で投げ出してしまったりということが起こり易い.内容も,多くの子ども達には人気があるとしても,子ども1人1人を考えた時に,ちょうど興味のある内容であるとは限らない.このように,興味のある内容でちょうど良い読みやすさの本と出会えない場合,本をあまり読まなくなってしまったり,同じ本ばかり繰り返して読んだりすることもある.もちろん,繰り返して読むことは決して悪いことではない.お気に入りの本を繰り返して読みたがる時期もあるし,同じ本でも子どもの成長とともに理解が深まったり,最初とは違う読み方ができるようになることもあるだろう.しかし,同じ本ばかり読んだり借りたりする理由が,「他に興味を引く本が見つからないから」だったら問題である.しかも,0〜3才くらいまでの幼い子どもの場合は,そもそも自分で本を選ぶことも難しい.そこで我々は,子どもに内容と読みやすさがぴったりな絵本を見つけるためのシステム「ぴたりえ」を開発している.幼い子どもには入力インタフェースの利用が難しいため,親や保育士,司書などの大人が利用することを想定している. \section{関連システム} label{sec:previous}本章では,インターネットを介して,絵本を含む本を検索したり購入したりすることのできる既存システムを紹介する.まず,多くの図書館では,インターネットを通じた検索サービスを提供している.例えば,国立国会図書館サーチ\footnote{http://iss.ndl.go.jp/}では,複数の機関が所蔵する児童書の検索サービスを提供しており,WorldCat\footnote{https://worldcat.org}は,世界中で同様のサービスを提供することを目指している.国立国会図書館サーチには,子どもを想定利用者とした国際子ども図書館子どもOPAC\footnote{http://iss.ndl.go.jp/children/top}もある.これらの検索サービスでは,タイトルや作者などの書誌情報による検索や,テーマからの検索等ができるようになっている.多くの蔵書から検索でき,実際に借りることのできる図書館を探せるなど,有用性の高いサービスである.しかし,書誌情報による検索は,ユーザー側で探している本が明確な場合にはよいが,探している本が見つかるだけでは本との新たな出会いのきっかけにはなりにくい.テーマからの検索を利用すれば,興味のあるテーマから本を見つけることができるが,あらかじめ設定されたテーマに限定されてしまうという問題がある.一方で,Amazon\footnote{http://www.amazon.co.jp/}や絵本ナビ\footnote{http://www.ehonnavi.net/}など,多くの通信販売サイトが絵本を含む本を扱っている.こうした通信販売サイトでは,ユーザーレビューが集められていることが多く,購入の際の参考とされている.さらに,Amazonでは,同じような購買履歴を持つ他のユーザーが購入している本を推薦するという,協調フィルタリングによる推薦が行われている.一般に満足度の高い推薦方法ではあるが,一方で,売れ筋の本ばかりが推薦されやすくなるという問題点がある.さらに,英語版のAmazon\footnote{http://www.amazon.com/}では,対象年齢(AgeRange)やテーマ(Bugs\&Spiders,Counting等)を選んで本を探すこともできる.有益なサービスだが,出版社等によって登録された情報に拠っており,あらかじめ設定されたテーマ等に限定されるという問題は変わらない.絵本ナビは,絵本や児童書に特化したサービスを展開しており,懸賞をかけたりすることでユーザーレビューを大量に集めている.また,ユーザーに子どもの年齢を入力してもらうことにより,どういった年齢の子どもによく読まれている本かといった情報収集を行い,年齢ごとの推薦を可能にしている.素晴らしいサービスだが,必ずしもすべての本に十分な数のユーザーレビューが得られているわけではなく,ユーザーレビューのない本には適用できない. \section{システム概要と言語処理} label{sec:system}本章では,ぴたりえのシステム概要と,内容と読みやすさがぴったりな絵本を見つけるために必要な言語処理技術を中心に紹介する.\begin{figure}[b]\begin{center}\includegraphics{24-1ia2f1.eps}\end{center}\caption{ぴたりえ:システムの概要}\label{fig:pitarie-system}\end{figure}図~\ref{fig:pitarie-system}にぴたりえのシステム概要を示す.ぴたりえでは,事前に構築している絵本データベース(\ref{sec:ehon-db}章)から,絵本の探索(あるいは,検索),推薦を行う.絵本データベースに対して事前準備として行っておく処理と,検索実行時に行う処理があるが,両方の処理で,まず言語処理による様々な処理を行い(図~\ref{fig:pitarie-system},【1】),探索部分にデータを渡している(図~\ref{fig:pitarie-system},【2】).言語処理部分では,まず,形態素解析(\ref{sec:hiragana}節)を行う.この結果はすべての後続処理で利用する.次に,難易度推定(\ref{sec:readability}節)を行う.これにより,\changedB{絵本を探している子どもにちょうど}ぴったりな読みやすさの本の推薦を実現する.さらに,表記ゆれの吸収処理(\ref{sec:yure}節)や,必要に応じて概念辞書による検索語の拡張(\ref{sec:theme}節)を行う.これらの処理を行った後,探索部分にデータを渡す(図~\ref{fig:pitarie-system},【2】).探索部分では,絵本テキストの解析結果や書誌情報,あるいは,自由入力されたテキストの解析結果や拡張結果を特徴量として,グラフ索引型類似探索法(\ref{sec:search}節)を実行しており,これによりぴったりな内容の推薦を実現する.\ref{sec:previous}章で紹介した関連システムと比較すると,ぴたりえでは絵本自体のテキストに基づく難易度推定を行っているので,レビューや出版社で付与された対象年齢の有無にかかわらず,一貫した難易度の推定が可能であり,ちょうど良い読みやすさの本の推薦が可能である.また,人手であらかじめ設定されたテーマに限らず,自分の興味のあるテーマの本を中身に基づいて探したり,興味のある本に似た本を探すことができるため,子ども1人1人の興味にあった推薦が可能である. \section{絵本データベース} label{sec:ehon-db}本章では,絵本データベースに含まれる本の選定規準とデータベースのサイズについて述べる.絵本データベースには,多くの子どもに読まれていると考えられる本,名作として専門家によって推薦されている本,長年に渡り愛されてきている本が含まれるよう選定している.具体的には,2010年,および,2015年の紀伊国屋書店グループの売上冊数が上位1,000位以内のファーストブックと絵本\footnote{絵本とファーストブックの分類は紀伊国屋書店による.},小学校国語教科書シェアトップ3社(東京書籍,光村書店,教育出版)\footnote{教科書の出版社毎のシェア状況については\citeA{PKyokasyoSaitaku:2010j}を参照.}発行の2015年度小学校教科書で掲載・推薦されている図書,ミリオンセラー\footnote{ミリオンぶっく2015年版(TOHAN)http://www1.e-hon.ne.jp/content/cam/2015/millionbook.html},図書館の推薦図書から選定している.こうした推薦本に児童書が含まれる場合には,データベースに児童書も含めている.また,シリーズ作品の一部のみがこれらに含まれる場合には,シリーズの他の作品も含めている.さらに,対象年齢が比較的はっきりしていることを選定理由として,福音館書店の月刊誌190冊を含めている\footnote{含まれる絵本のリストはhttp://www.kecl.ntt.co.jp/icl/lirg/members/sanae/ehon-list.htmlで閲覧可能である.}.これにより,合計2,415冊\footnote{2016年05月12日現在のデータサイズである.}がデータベースに含まれている.絵本データベースには,これらの絵本について,タイトルや作者,出版社,出版年,ISBNなどの書誌情報と,本文のテキスト,記載がある場合には出版社が付与している対象年齢も保存している.絵本データベースのサイズを表~\ref{tb:size}に示す.絵本データベースには,お話集のように1冊に複数の話が含まれる本も含まれており,1話1冊の本と分けてサイズを示した.\begin{table}[t]\caption{絵本データベースのサイズ(児童書,お話集を含む)}\label{tb:size}\input{02table01.txt}\end{table}表~\ref{tb:size}で,文字数が0となっている絵本は,「アンジュール」{\kern-0.5zw}\footnote{「アンジュール」(ガブリエル・バンサン,1986,BL出版)}など,字のない絵本である.また,文字数が最大(133,724文字)だった本「本だらけの家でくらしたら」\footnote{「本だらけの家でくらしたら」(作:N.E.ボード絵:ひらいたかこ訳:柳井薫,2009,徳間書店)}は,絵本というより児童書である.絵本データベースは,文字数で700万文字を越えており(表~\ref{tb:size}),形態素解析の正解アノテーション済みデータは約26万文字である(\ref{sec:hiragana}節,表~\ref{tb:test-size}参照).なお,京都大学テキストコーパス\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php}は約168万文字,基本語データベース\cite{Lexeed:2004j}(以下,\lxd{})は約192万文字である.この絵本データベースは,ぴたりえでの絵本の推薦に利用するだけでなく,言語発達で重要な意味を持つ語の絵本での出現傾向の調査を行う\cite{Okumura:Kobayashi:Fujita:Hattori:2016}など,幼児を対象とするテキストの貴重なコーパスとして研究利用している. \section{要素技術} label{sec:nlp}本章では,ぴたりえで用いている各要素技術を紹介する.処理の順番は前後するが,まず,\ref{sec:search}節でぴたりえで利用している探索技術(図~\ref{fig:pitarie-system},【2】)について紹介し,\ref{sec:hiragana}節から\ref{sec:theme}節で言語処理部分(図~\ref{fig:pitarie-system},【1】)について紹介する.\subsection{探索方法}\label{sec:search}ぴたりえでは,内容がぴったりな絵本を見つける探索技術として,グラフ索引型類似探索法\cite{Hattori:Aoyama:2013j}を用いている.類似探索は,入力データと探索対象の間に「似ている度合い(類似度)」を定義して,類似度が高いものを探す方法であり,直感的には,入力した大量の情報に基づいてできるだけ多くの条件を満たすものを探す探索方法である.特に,グラフ索引型類似探索法では,高速な検索を実現するための索引として類似の絵本同士が結合したグラフ構造(ネットワーク構造)を用いて検索を行う.本手法は,検索する対象間に何らかの「距離」\footnote{正確には,距離公理を満たさない非類似度でも良い.}を定義することができれば適用できるため汎用性が高い.例えば,画像特徴量を用いて似ている絵を見つけたり,音声の特徴量を用いて似ている声の人を見つけたり,テキストから得られる特徴量を用いて似ている内容のテキストを見つけることができる.ぴたりえでは,絵本の著者などの書誌情報や,1冊1冊に現れる内容語と名詞句,それらの表記ゆれをすべて特徴量として利用している\footnote{画像特徴量を利用して似た絵を探す機能もある.}.具体的には,絵本ごとに出現する内容語,名詞句,それらの表記ゆれを\tfidf{}によって重み付けし(\ref{sec:yure}節),ノルムを1に正規化したベクトルを用いて計算した絵本間のコサイン類似度を距離としている.文書間の距離尺度としては様々な計算方法が提案されているが\cite{Asahara:Kato:2015j},内容語を用いるだけで,出てくる動植物やキャラクター,「食べる」「遊ぶ」などの行動が表れる絵本を発見できる.また,より長いn-gramを用いる場合より,他の絵本と一致しやすくなるため,より多くの類似した絵本を発見することができる.これにより,お気に入りの絵本を入力データとし,その絵本と作者等の書誌情報が似ている絵本や,出てくる動植物や行動が似ている絵本など,様々な点で似ている絵本を探すことができる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia2f2.eps}\end{center}\caption{「はらぺこあおむし」で検索した結果(各絵本の書誌情報は付録を参照)}\label{fig:ruiji}\end{figure}図~\ref{fig:ruiji}に,「はらぺこあおむし」{\kern-0.5zw}\footnote{「はらぺこあおむし」(エリック=カールさく/もりひさしやく,1976,偕成社)}を入力データとして類似探索を実行した結果を示す.図~\ref{fig:ruiji}では,絵本データベースの中から,内容語や書誌情報などの特徴量が,「はらぺこあおむし」とできるだけ多く共通する絵本が検索結果として出力されている.著者が同じという点で似た絵本もあれば,「あおむし」「葉っぱ」「たべる」などの語が共通する絵本もある.そのため,例えば,青虫に興味が湧いたのであれば\changedB{青虫の出てくる他の絵本,色々な食べ物を食べるのが面白かったのであれば色々な食べ物の出てくる他の絵本,といった選び方をすることもできる.}このように,我々は,書誌情報が一致する本を見つけるだけでなく,お気に入りの一冊と色々な点で「似ている」絵本を検索結果として提示することによって,書誌情報との一致だけでは見つけることができない本との新たな出会いを提供することができると考えている.また,入力データとする本を1冊ではなく,最近のお気に入りの数冊とする拡張も容易である.あるいは,絵本を入力データとするのではなく,「タイトルは忘れたけど昔好きだった絵本で,『一人ぼっちのきかんしゃが旅をして,最後には友達ができる絵本』を見つけたい」とか,「友達とケンカしちゃったけど仲直りしたいから,『ケンカしたけど仲直りする絵本』を見つけたい」などという検索も実現できる.ただし,現在は物語の順序や語順を考慮していないため,「ケンカしたけど仲直りする絵本」と「仲直りしたけどケンカする絵本」の区別はつけられない.こうした順序情報や,類型化した物語の構造の類似度の反映は今後の課題としたい.ぴたりえでは,次節以降で紹介する言語処理の結果を特徴量として用いることで,信頼度とユーザビリティが高い類似探索を実現している.\subsection{形態素解析}\label{sec:hiragana}まず,すべての後続処理で利用している言語処理技術として,形態素解析について述べる.形態素解析は多くの言語処理技術の基盤技術となるものであり,新聞などの\changedB{大人向けの整った}文章に対しては非常に高い解析精度が実現されている.また,\juman\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php}\cite{juman:7.0j},\chasen\footnote{http://chasen-legacy.sourceforge.jp/}\cite{chasen:2.4.4j},\mecab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}\cite{Mecab},\kytea\footnote{http://www.phontron.com/kytea/}\cite{Mori:Nakata:Graham:Kawahara:2011j}など,多くの形態素解析器と解析モデルが公開されている.しかし,絵本のテキストを対象とした場合,新聞などを対象とした場合と異なり,既存の解析モデルで必ずしも高い解析精度を得られるわけではない.絵本のテキストの特徴については,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の論文で詳しく分析されており,ひらがなの占める割合が非常に大きいことが,精度低下の大きな要因である.そこで\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}は,絵本の特徴に合わせて既存の辞書や学習データを変換することで,絵本テキストの解析に強い形態素解析モデルを構築する手法を提案している.ぴたりえでは,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の提案手法を適用した上で,順次絵本テキストへのアノテーションによる学習データの拡充,および,辞書の追加を行い,絵本のテキストに対する形態素解析精度を向上させている.ただし,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の実験では,品詞体系はIPA品詞体系とし,解析器には\kytea{}を利用していたが,現在はUniDic品詞体系\cite{Unidic}\footnote{http://pj.ninjal.ac.jp/corpus\_center/unidic/}の短単位に変更し,解析器には\mecab{}を利用している.UniDic品詞体系に変更した理由は,UniDicが普及し,UniDicに基づく言語資源が増えつつあるためである.また,UniDicでは,語彙素・語形・書字形・発音形という4階層からなる階層的見出しを採用しており,表記ゆれの吸収のために有効だと考えたためである(\ref{sec:yure}節).\begin{table}[b]\caption{アノテーション済み絵本データのサイズ}\label{tb:test-size}\input{02table02.txt}\end{table}表~\ref{tb:test-size}に,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の実験で,ランダムサンプリングによって選んだ評価データ(以下,Random)のサイズを掲載する\footnote{\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の掲載値と形態素数が異なるのは,品詞体系が異なるためである.また,文字数が異なる(全部で19,850文字と記載していた)のは,一部のコメント行を誤って数えていたためであり,本稿掲載の文字数が正確である.}.表~\ref{tb:test-size}中の,FIRSTはファーストブック,EHONはその他の絵本を示している.また,表~\ref{tb:test-size}には正解アノテーション済で学習に利用している絵本テキストのデータサイズも掲載している.表~\ref{tb:morph-acc}に,表~\ref{tb:test-size}の評価データ(\random{})に対する本稿のモデルによる解析精度を示す.ここでは評価のため,学習データに\random{}を含めずにモデルを構築している.また,参考までに,UniDicの\mecab{}用配布モデル\footnote{unidic-mecab-2.1.2を利用.}による解析精度も掲載した.なお,品詞体系が異なるため一概には比較できないが,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}は,\randomに対する精度は,単語区切り98.3\%,品詞大分類94.7\%,品詞完全一致91.1\%,と報告しており,精度はより向上している.このように,ひらがなの多い絵本に対しても,既に高い精度を達成しているが,形態素解析はすべての後続処理に影響する重要な処理であるため,今後のさらなる精度向上を目指してより詳細な分析を行う.具体的には,正解アノテーション済みのデータを分析することで,どのような語が絵本で出現し,未知語として辞書に追加されたかを分析する.\begin{table}[t]\caption{形態素解析精度}\label{tb:morph-acc}\input{02table03.txt}\end{table}\begin{table}[t]\caption{正解アノテーション済み絵本データ中の出現形態素の内訳}\label{tb:morph-appear}\input{02table04.txt}\end{table}まず,表~\ref{tb:morph-appear}に,正解アノテーション済みのデータにおける,UniDicの配布辞書と,本システム用に追加したエントリの出現傾向を示す.表~\ref{tb:morph-appear}から,出現形態素の異なりのうち,78\%がUniDicの配布辞書でカバーされていることが分かる.残りのエントリは,元のUniDicでは未知語となるエントリであり,\lxd{}等他の既存辞書からUniDic形式に変更して追加したエントリ(5.9\%)と,その他の追加エントリ(16.1\%)に分けて表示した.さらにその他の追加エントリの中でも,UniDicにあるエントリの表記ゆれと捉えられるエントリと,\lxd{}等のエントリの表記ゆれと捉えられるエントリ,いずれにも一致しないエントリとに分けて内訳を示した.ここで,表記ゆれとは,語彙素は一致するが,書字形出現形等が異なるエントリである.表~\ref{tb:morph-appear}から,追加されたエントリのうち,約$1/3$は,UniDicやLexeedなどの既存辞書に存在するエントリの表記ゆれだが,約$2/3$は,表記ゆれではない事が分かる.\citeA{Sasano:Kurohashi:Okumura:2014j}はWebデータを解析した時に出現する未知語をタイプ分類しており,大きく「既知形態素からの派生」と「既知形態素からの派生以外」に分けている.同様に,表~\ref{tb:morph-appear}の「その他の追加エントリ」のうち,UniDicや\lxd{}の表記ゆれは「既知形態素からの派生」であり,それ以外は「既知形態素からの派生以外」と捉えられる.これらのエントリの品詞大分類の内訳と例を表~\ref{tb:morph-add}に示す.表~\ref{tb:morph-add}の例からわかるように,既知形態素からの派生では,小書き文字(「ぁ」など)や長音記号(「〜」「ー」など)の挿入,置換による表記ゆれが多く見られる.\citeA{Sasano:Kurohashi:Okumura:2014j}はこうした表記ゆれとオノマトペが未知語の約4割を占めると報告している.本稿では絵本のテキストを対象としているが,未知語の出現傾向はWebデータの場合と同様であることがわかる.\begin{table}[b]\caption{形態素解析用辞書に追加したエントリの品詞内訳}\label{tb:morph-add}\input{02table05.txt}\end{table}一方,追加された形態素エントリの約$2/3$は,既知形態素からの派生以外である.この中で,異なり数の多い品詞は順に,感動詞,副詞,固有名詞,名詞である.それ以外の品詞は合わせても1\%に満たず,ほとんどが方言だった.こうした未知語への対応方法として,のべ出現回数の最も多い固有名詞については,項構造を考慮した発見方法\cite{Sasano:Kurohashi:2008j}が有力だろう.また,名詞には,恐竜名を含む動植物名が多く含まれており,専門用語辞書からエントリを追加しておくことで対応可能だと考えられる.感動詞や副詞は非常に生成的で,繰り返しを含むオノマトペ\cite{Sasano:Kurohashi:Okumura:2014j}以外は網羅的なエントリ追加は難しく,Webデータを対象に提案されている入力文の正規化\cite{Saito:etal:2015j,Sasano:Kurohashi:Okumura:2014j}が絵本でも有効だと考えられる.これらの辞書や技術は,今後導入を検討したい.\subsection{難易度推定方法}\label{sec:readability}本節では,読みやすさがぴったりな絵本を推薦するために用いられているテキストの難易度推定方法を紹介する.絵本には,出版社によって付与された対象年齢が記載されている場合もあるが,記載されていない場合も多い.絵本データベース中の絵本では,2,415冊のうち,対象年齢の記載がない絵本が1,255冊(51.9\%)を占めた.また,対象年齢の記載がある場合も,「3歳から小学校初級むき」「乳児から」「4才から」「しゃべりはじめた小さな子どもにぴったり」のように表現が多様で幅広い.そのため,出版社が付与している対象年齢だけでは,子どもに読みやすさがぴったりな絵本を選ぶことは難しい.一方で,難易度推定方法は,特に英語を対象とすると古くから研究されている\cite{DuBay:2004,Benjamin:2012}.しかしこれらのほとんどは,一般向けか\cite{Sato:2011j},外国人学習者向けか\cite{Petersen:Ostendorf:2O09,Lee:2011j},小学生以上向け\cite{Tanaka:Tezuka:Terada:2010,Shibasaki:Tamaoka:2010j}であり,幼児向けテキストを対象とする研究はほとんど行われていなかった.そこで,我々は幼児向けテキスト(絵本)を対象とした難易度推定方法を提案した\cite{Fujita:Ehon:2015j}.絵本の場合,学童以上を対象とする場合とは異なり,教科書のように明確な規準として利用できるコーパスがないという問題点があった.また,日本語での難易度推定では通常大きな手がかりとなる漢字がほとんど出現せず,かつ,非常に少ない文字数から推定しければならないという難しさがあった.そこで,\citeA{Fujita:Ehon:2015j}は,対象年齢が出版社によって0・1・2才児向け,3才児向け,4才児向け,5才児向けと,比較的細かく付与されている123冊を規準データとして利用し,対象年齢ごとの語の出現頻度を考慮して重み付けした言語モデルを構築し,各言語モデルとの近さや平均文節数などを特徴量として利用することで,87.8\%の精度で対象年齢を推定できることを示した.また,教科書を規準コーパスとする評価実験も行い,提案手法が絵本以外のコーパスに対しても高精度であることを示した\cite{Fujita:etal:2015j}.藤田らの提案手法\cite{Fujita:etal:2015j,Fujita:Ehon:2015j}ではランキング学習を行っており,すべての絵本を難しさによってランキングすることが可能である.また,閾値を設定することで,対象年齢に分けることも可能である.\citeA{Fujita:Ehon:2015j}は,提案手法の評価のため,出版社によって付与されていた対象年齢を正解として0・1・2才児を一つのクラスとしてまとめているが,0才から2才の間も子どもの発達は著しい.より詳細に分けるため,本システムでは,子どもがおぼえた言葉とその習得時期を調査したデータベース\cite{Kobayashi:Okumura:Minami:2016j}も利用し,0才,1才,2才を別クラスとして難易度推定モデルを再構築したものを利用している.つまり,全ての絵本に対して難易度によるランキングを行い,さらに,閾値を設定して,0才から6才以上までの各年齢(7クラス)に分けている.本難易度推定モデルの評価として,子どものいる評価者3名(うち2名は,保育士,幼稚園教諭の資格と勤務経験がある)によって評価実験を行った.まず,「読んであげるなら何才向きか」という観点で100冊の本を対象年齢ごと(0才,1才,,,6才以上の7クラス)に分けてもらい,さらにそれらを易しい順にランキングしてもらった.つまり,100冊を易しい順にランキングし,評価に利用した.まず,評価者3名によって選ばれた対象年齢のクラスを比較した.その結果,完全に一致した本は13冊のみであり,2名が一致した本は62冊,全員が異なるクラスに分けた本は25冊だった.一方,3人の分けたクラスの差は平均0.82だった.つまり,クラスへの分類は人によって揺れやすく,完全に一致するクラスに分けられた絵本は多くないが,前後のクラスなど近いクラスに分けられていることが分かる.ここで,評価者間のスピアマンの順位相関係数$\rho$とケンドールの順位相関係数$\tau$を調査した.評価者を$w_1$,$w_2$,$w_3$とすると,\changed{$\rho$は}$w_1$と$w_2$で0.93,$w_1$と$w_3$で0.88,$w_2$と$w_3$で0.90であり,$\tau$は,$w_1$と$w_2$で0.77,$w_1$と$w_3$で0.71,$w_2$と$w_3$で0.74だった.また,3人のランキング結果のケンドールの一致度係数は0.93だった.これらから,評価者間の順位相関は非常に高いことが分かる.つぎに,各評価者による結果と,本システムで利用している難易度推定結果($g$)の相関を調査した.その結果,$\rho$は,$g$と$w_1$で0.88,$g$と$w_2$で0.85,$g$と$w_3$で0.79,$\tau$は,$g$と$w_1$で0.70,$g$と$w_2$で0.66,$g$と$w_3$で0.60だった\footnote{\changed{本章のすべての相関係数と一致度係数は$p<0.001$で有意だった.}}.評価者間の相関係数よりは若干低いが,自動推定の結果と評価者間の相関係数も高いと言える.このように高い精度での難易度推定を実現しているため,ぴたりえでは,テーマや内容の似ている絵本の中から子どもの年齢に合った絵本を探したり,より易しい本を探したり,子どものお気に入りの本と難易度(読みやすさ)が近い本を選ぶこともできる.特に,言語発達は子どもによって個人差が大きく,評価者間でも対象年齢のクラスへの分け方は完全一致しにくいなど,年齢で分けた場合には,子どもによっては読みやすさが合わない場合も考えられるが,お気に入りの本と近い難易度の本を選ぶことにより,ちょうどいい読みやすさの本を選ぶことができるという利点がある.\subsection{表記ゆれ吸収}\label{sec:yure}本節では,ぴたりえで導入している表記ゆれへの対応方法について紹介する.日本語には様々な文字種が存在するため,同じ語でも,ひらがな,カタカナ,漢字,これらの混合など,様々な表記方法が存在する(例えば,おおかみ,オオカミ,狼など).しかし例えば,「オオカミ」で検索したとしても,ユーザーは,「おおかみ」「狼」「オオカミ」のいずれの表記で出てくる話であっても検索結果に含まれてほしいだろう.UniDicで定義している「語彙素」とは,出現形の変異や表記のゆれを考慮せず,同一とみなしうる語に対して同一の見出しを与えたものである\cite{Unidic}.そこで,Unidic辞書で定義されている語彙素の読みと見出しを利用して表記ゆれを吸収する.一方で,作者は意図をもってこれらの表記を使い分けていると考えられる.例えば,「狼」は絵本ではほとんど出現しないが,「おおかみ」は赤ちゃん向けの絵本でも出現している.こうした表記ゆれだけでなく,接尾辞等によっても変化がつけられる.例えば,「おおかみさん」なのか「おおかみどん」なのかによって,与えられる印象は異なるだろう.そこで表記ゆれを吸収しつつ,元の表記の重みを大きくする方法を考案,導入した.まず,接頭辞や接尾辞,名詞連続を含めた名詞句をひと塊として重み1を与える.その上で,その名詞句から得られる表記ゆれ候補やその組み合わせを,形態素解析結果から抽出する.これらが$m$個得られたとすると,各重みを$1/m$として,特徴量として利用する.例えば,「おおかみさん」の場合,「おおかみ(名詞)」と「さん(接尾辞)」から成る.ここで,語彙素の読みとして「オオカミ」「サン」,語彙素の見出しとして「狼」「さん」,書字形(あるいは出現形)として「おおかみ」「さん」が得られる.これらを用いて,まず,元々の表記を接尾辞ごと取り出し(「おおかみさん」),重み1を付与する.さらにそれ以外の表記ゆれとして,「オオカミサン」「狼さん」「狼」「オオカミ」「おおかみ」の5通りを抽出し,それぞれ,$1/5=0.2$を重みとして付与し,特徴量として利用する.これにより,「狼」や「オオカミ」などの表記ゆれを吸収しつつ,元の表記である「おおかみさん」に最も重みをおいた探索を実現している.なお,接頭辞と接尾辞を含め,最も表記にバリエーションのある名詞句は,「名詞,普通名詞,一般,*,カア,母」を含むもので,28通り出現している\footnote{おかあさん(442),かあさん(67),かあちゃん(20),おかあさーん(15),お母さん(12),おかあちゃん(10),母(9),おかあさ〜ん(3),おかあ(3),母さん(3),かー(3),かか(2),お母さま(2),おかあちゃーん(2),お母ちゃん(2),お母さーん(1),かかさま(1),カアちゃん(1),かあさま(1),かあ(1),かあちゃーん(1),おかあさま(1),かーさん(1),かあたん(1),おかあちゃま(1),おっ母(1),母ちゃん(1),かあさーん(1).()内は頻度.ただし,接尾辞「達」を含むものは除いた.}.\subsection{テーマ分類と検索語の拡張}\label{sec:theme}ぴたりえでは,「はみがき」や「トイレ」などの「しつけ」や,「むし」や「きょうりゅう」などの「好きなもの」,「クリスマス」や「お誕生日」などの「イベント」など,よくある検索テーマをあらかじめ設定しておくことで,目的に応じた検索を行いやすくしている.事前に設定されたテーマ以外に,ユーザー自身でテーマを登録することも可能である.図~\ref{fig:theme-readability}に,テーマ「むし」で検索し,難易度が「易しい順」に並び替えた結果を示す.\begin{figure}[t]\begin{center}\includegraphics{24-1ia2f3.eps}\end{center}\caption{テーマ「むし」で検索し,「易しい順」にソートした結果(\changedB{図中の絵本の書誌情報は付録を参照})}\label{fig:theme-readability}\end{figure}一般に,こうしたテーマへの本の分類は人手で行われることが多いが,ぴたりえでは自動的に行っている.新規テーマを登録するときに必要なのは,テーマに関連するキーワードや文を入力することである.そうして入力されたキーワードや文を言語処理部分に渡し,類似探索を実行することで,テーマに関連する本を自動的に推定している.また,ここで,キーワード等を概念辞書によって拡張することもできる\cite{Hattori:Fujita:Aoyama:2015j}.例えば,「花」という語が出てきている絵本だけではなく,「ひまわり」や「あさがお」など,他の花もキーワードとして扱いたい場合に有効である.拡張には,日本語語彙大系\cite{GoiTaikeij}の意味クラスを利用しており,同じ意味クラスや近い意味クラスに含まれる語を検索語に含めることで拡張している.ただし,表記ゆれを吸収する場合(\ref{sec:yure}節)とは違い,意味クラスで検索語を拡張したいかどうかはケースバイケースである.例えば,「ハロウィン」のテーマのために「かぼちゃ」をキーワードとして入力した場合,他の野菜を検索語に含めてはいけないだろう.そのため,現在は,検索語を拡張するかどうかはユーザーが選択するようにしている. \section{システム評価} label{sec:eva}形態素解析(\ref{sec:hiragana}節)や,難易度推定(\ref{sec:readability}節)については,個々の技術の評価を各節で紹介してきた.本節では,アンケートによるシステムのユーザー評価の結果を示す.\subsection{評価手順}\label{sec:qa-order}評価者は小学2年生までの子どもを持つ成人である\footnote{評価は2016年7月に実施した.}.\pagebreak成人を評価者としたのは,ぴたりえによる絵本選びは0才から対象としているが,小さな子どもには入力インタフェースが利用できないからである.評価手順は次の通りである.\begin{enumerate}\itemぴたりえを利用し,絵本を選んでいただく(利用方法の説明はしない).\item選んだ絵本を借りていただく.\item借りた絵本を,一回以上読み聞かせるか,子ども自身に読んでいただく.\item配布したアンケートにお答えいただく.\end{enumerate}アンケートは2枚(A面,B面)あり,A面には絵本選び全般についての質問とぴたりえの全体的な評価を,B面には選んだ絵本と子どもの組み合わせごとの評価を記入する.そのため,A面は1人1枚だが,B面は子どもの人数や借りた絵本の数によって複数枚記入していただいた.\subsection{評価結果}\label{sec:qa-res}評価参加者は成人16名であり,子ども20名分の回答があった.子どもと絵本との組み合わせ数は52通りあった.つまり,アンケートのA面は16枚,B面は52枚の回答が得られた.なお,子どもの年齢は,11ヶ月から8才0ヶ月(小2)までの全年齢に分布していた.\subsubsection{絵本選び全般についての調査結果}\label{sec:qa-common}「Q1.普段お子様にどのように絵本を選んでいますか?」という質問(複数回答可)には,15人(93.8\%)が「書店や図書館などで絵本を手に取りながら」を選んでおり,次に多かった「インターネットの検索エンジンで」の6人(37.5\%)を大きく引き離した.大多数の方が,絵本を選ぶときには実際に手に取って選んでいることが分かる.\begin{table}[b]\caption{質問「Q3.絵本選びでどのようなことに困りましたか?」に対する回答}\label{tb:eva-Q3}\input{02table06.txt}\end{table}また,「Q2.絵本を選ぶ時に困ったことがありますか?」という質問に「ある」と答えた方は,16人中14人(87.5\%)を占めた.その理由を複数回答で答えてもらった結果(表~\ref{tb:eva-Q3}),絵本を選ぶとき,「子どもがちょうど読めるむずかしさの絵本」や「子どもの興味を引く内容の絵本」を選ぶのが難しい,あるいは,大変だと答えた方が過半数を占めた.この結果からも,内容と読みやすさが子どもにぴったりな絵本をみつけるシステムの需要は高いと考えられる.\subsubsection{ぴたりえの全体的な評価}\label{sec:qa-total}ぴたりえの全体評価として,普段の絵本の選び方と比較して,「簡単かどうか」「読みやすさ」や「内容」がぴったりの絵本を選ぶのに良いかどうかを評価してもらった(表~\ref{tb:evaAB},Q4).表~\ref{tb:evaAB}はいずれも5段階評価で,数値が高い方が評価が高い.いずれの項目も評価は高かったが,「簡単さ」(平均4.25)と「読みやすさ」(平均4.13)は特に評価が高かった.「内容」に関しても平均値は3.88であり,平均的な評価は高いが,他の項目にくらべて低めの点数をつけた方が多かった.中身やあらすじが見たいとの自由記述も多く,出現する語による類似探索だけではストーリーがわからないため,他項目よりも低い得点になったのだと考えられる.\begin{table}[b]\caption{アンケート評価の結果(5段階評価)}\label{tb:evaAB}\input{02table07.txt}\end{table}また,「Q5.今後もぴたりえを利用したいと思いますか?」という質問には,平均4.31という高い評価が得られた(表~\ref{tb:evaAB},Q5).「どちらとも言えない」を選んだ4名の内,2名は自由記述によって「図書館ではなく,本の購入時なら利用したい」「親が選ぶにはよいかもしれないが,やはり子供に現物を見せて時間をかけて選ばせるのがいいと思う」と記載しており,システムとして評価が低いというより,絵本選びに対する考え方から低くなったと考えられる.\subsubsection{子どもと絵本の組み合わせごとの評価}\label{sec:qa-each}本節では子どもと選んだ絵本の組み合わせごとの評価結果(アンケートB面)を紹介する.52枚,1人平均2.6冊分の回答が得られた.表~\ref{tb:evaAB}の下部に,5段階評価の結果を示す.まず,「Q7.どのような絵本を探したいか決まっていましたか?」という質問には,21枚(40.4\%)で「決まっていた」が選択されていた.決まっていた場合「Q8.どのような絵本を探したいと考えていましたか?」という質問には,「もうすぐ夏休みなので夏らしい本がいいと考えていました」「子どもが好きな,虫が出てくる絵本が良いと考えていました」「『ぞうさん』と言えるようになったので,ぞうの出てくる簡単な絵本を探しました」などの記述が見られた.表~\ref{tb:evaAB}のQ9は,このように探したい絵本が決まっていた場合に目的通りの絵本が探せたかどうかについての評価である.平均4.62と評価が高く,多くの方が目的通りの本を探せたことを示している.表~\ref{tb:evaAB}のQ10とQ11は「読みやすさ」,Q12とQ13は「内容」がぴったりだったと思うかどうかの質問であり,Q10とQ12は,親がぴったりの絵本を選べたと考えたかどうか,Q11とQ13は,子どもの反応を見た結果どうだったかについての評価である.いずれの項目も平均値が4.44〜4.54の間であり,評価が高かった.つまり,多くの場合,ぴたりえによって「読みやすさ」と「内容」がぴったりの絵本を選ぶことが出来たと考えられる.Q11,13の平均値は,Q10とQ12の平均値より,それぞれ0.8ずつ高いが,t検定で有意差はなかった.個々のアンケート結果でも,Q11,13よりQ10,Q12の方が評価が高い場合も,逆の場合もあった.Q10では1枚だけ評価値1がつけられていたが,自由記述のコメントで,「年齢の制限を2才から5才としたせいか,非常に文字数の多い小学校低から中学年向きと思える本が出ました」との記載があり,選ぶ時に年齢の制限をあまりかけなかったことが伺える.しかも,借りられていた絵本は本システムで6才以上向けと推定されている絵本だったため,実際には5才までという制限もかけられていなかったと考えられる.評価者は2才の子ども用の本を選ぼうとしているため,年齢制限をより細かく設定したり,今ちょうど読める本を規準にして,読みやすさが近い本を選ぶようにすれば,このような問題は起こらなかった可能性がある.本評価実験では,使い方の説明を全くせずに利用してもらったが,簡単な利用説明を用意するか,インターフェースの工夫により改善できると考えられる.また,\ref{sec:search}節で述べたように,ぴたりえでは様々な理由で似ている絵本を提示するため,書誌情報の一致だけでは見つけられない絵本との新しい出会いを提供できる.実際,「Q14.この絵本は,ぴたりえを利用しなければ手に取らなかった(出会わなかった)と思いますか?」という質問には,「そう思う」が26冊(50.0\%)あり,「そう思わない」の19冊(36.5\%)を引き離した.これにより,ぴたりえによって新しい本との出会いを提供できたことが示せた.自由記述でも,「自分では選ばない種類の絵本でしたが,子供は興味深々で見ていました」「キーワードと年齢を入力するだけで,ぴったりの絵本が見つかりました.店頭で探すと,つい大人目線で選びがちですが,子供の目線で探すことができました」「絵の簡単さや出てくるキャラクター(動物)の種類などがほぼ狙い通りの本が見つかったのがとても便利だった」など好意的な意見が多かった.\subsubsection{今後の課題}\label{sec:futurewk}アンケート(A面)では,ぴたりえに追加して欲しい機能についても調査した(表~\ref{tb:eva-Q6}).選択肢の中でもっとも多く選ばれた項目は,「絵の印象(可愛い,迫力がある等)で検索」であり,半数の方が選んでいる.現在,こうした機能を実現するための研究に取り組んでおり\cite{Fujita:etal:2016j},精度向上とぴたりえへの導入に努めたい.\begin{table}[b]\caption{質問「Q6.ぴたりえに追加して欲しい機能はありますか?」に対する回答}\label{tb:eva-Q6}\input{02table08.txt}\end{table}次に多く選ばれた項目は,「読み聞かせにかかる時間で検索」だった.これは,絵本中の文字数などから比較的容易に推定できると考えられるため,今後ぴたりえに導入したい.3番目に多かった「ストーリー展開(ハッピーエンドかどうか等)で検索」は,ストーリー展開をどのように定式化し推定するかという問題があるが,よりぴったりな内容の本を選ぶためにも重要だと考えられるため,今後取り組んでいきたいと考えている.また,「その他」には,「中身が見たい」「せめてあらすじが見たい」という記入が多かった.著作権の関係上,検索システムから中身をそのまま見せることはできないが,今後はあらすじ(要約)の表示も検討したい.最後に,\ref{sec:previous}章で紹介したように,多くの購買サイトではユーザーレビューなどのデータを収集,利用している.テキストの難易度によらず様々な年齢層の子どもに受け入れられる本も多いことから,実際に何才の子ども達に読まれているかといったデータやレビューは,ユーザーにとって非常に参考になると考えられる.こうしたユーザー由来のデータとぴたりえで実現している技術や機能は決して相反するものではなく,併用したり,目的に応じて使い分けることで,よりユーザビリティの高いシステムにできると考えられるため,今後の検討課題としたい. \section{まとめ} label{sec:conc}絵本を読むことは,子どもにとって,言語発達と情操教育の両面での効果が期待できる.しかし,難しさも内容も様々な絵本がある中で,子ども1人1人にとってぴったりな絵本を選ぶのは容易なことではない.そこで,我々は,子どもに「読みやすさ」と「内容」がぴったりの絵本を見つけるための絵本検索システム「ぴたりえ」を開発している.ぴたりえでは,まず,内容がぴったりな絵本を見つけるために,グラフ索引型類似探索(\ref{sec:search}節)を導入している.類似探索では,厳密に一致する本を検索するだけでなく,検索元の本や自由入力を検索キーとして,出てくる内容語や書誌情報等ができるだけ近い絵本を複数提示する.様々な要因で近いと考えられる本を提示することで,お気に入りの本や興味のある事から,無理なく次の一冊を手にとっていただけるのではないかと考えている.次に,読みやすさがぴったりな絵本を見つけるために,絵本テキストの難易度推定(\ref{sec:readability}節)を行っている.絵本を難易度順にランキングすることで,その子にちょうどいい読みやすさの本を見つけられると考えている.また,これら2つのぴったりを高精度に実現し,ユーザビリティを向上するために,絵本用のひらがなに強い形態素解析(\ref{sec:hiragana}節)や,表記ゆれの吸収処理(\ref{sec:yure}節),必要に応じて概念辞書による検索語の拡張(\ref{sec:theme}節)等を行っている.我々は,これらの各技術によって,これまでにない絵本の検索システムを実現した.ユーザーアンケート(\ref{sec:eva}章)でも,ぴたりえを利用して選んだ絵本の読みやすさや内容が子どもにぴったりだったと思うかという5段階評価で,平均4.44〜4.54と高い評価が得られた(表~\ref{tb:evaAB}).今後は,図書館における実証実験\footnote{福岡市立東図書館にて2016.6.4から実証実験を開始した.}での司書と利用者からのフィードバックの収集\cite{Gohara:Yamada:Pitarie:etal:2016j,Sasaki:Gohara:Pitarie:etal:2016j,Otake:Gohara:Pitarie:etal:2017j}や,保育現場での有効性の検証\cite{Fujimoto:Saito:Pitarie:etal:2017j},言語発達に対する効果の検証を進めると共に,各要素技術のさらなる精度向上と,要望の多い機能の実現\cite{Yasuo:Hattori:Fujita:Matsushita:2017j}に取り組みたい.\clearpage\bibliographystyle{jnlpbbl_1.5}\input{02bbl.tex}\appendix図中の絵本は以下の通りである.図~\ref{fig:ruiji}の1段目左から:\\\small\begin{itemize}\item「はらぺこあおむし」(エリック・カールさく/もりひさしやく,1976,偕成社)\item「たんじょうびのふしぎなてがみ」(エリック・カールさく・え/もりひさしやく,1978,偕成社)\item「ありのぎょうれつ」(さく得田之久,1975,童心社)\item「月ようびはなにたべる?」(エリック・カールさく/もりひさしやく,1994,偕成社)\item「パパ、お月さまとって!」(エリック・カールさく/もりひさしやく,1986,偕成社)\item「くまさんくまさんなにみてるの?」(エリック・カールえ/ビル・マーチンぶん,1984,偕成社)\item「ごきげんななめのてんとうむし改訂大型版」(エリック・カールさく/もりひさしやく,1998,偕成社)\end{itemize}\normalsize図~\ref{fig:ruiji}の2段目左から:\small\begin{itemize}\item「どこミニたべものどこ?」(山形明美,2007,講談社)\item「1ねん1くみ1ばんワル」(後藤竜二作長谷川知子絵,1984,ポプラ社)\item「むし」(監修須田孫七,2000,学研マーケティング)\item「おとしぶみ」(文:岡島秀治絵:吉谷昭憲,1987,福音館書店)\item「おさかなちゃんのばいば〜い」(ヒド・ファン・ヘネヒテン古藤ゆず,2014,学研教育出版)\item「だるまさんと」(かがくいひろし/さく,2009,ブロンズ新社)\item「どこミニどうぶつどこ?」(山形明美,2007,講談社)\end{itemize}\normalsize図~\ref{fig:theme-readability}の1段目左から:\begin{itemize}\small\item「てんてんてん」(わかやましずこさく,1996,福音館書店)\item「てんとうむしくん」(ジョー・ガーデン,2013,主婦の友社)\item「きいろいのはちょうちょ」(五味太郎作・絵,1983,偕成社)\item「2さいまるごとひゃっか」(作・絵のぶみ,2006,ひかりのくに)\item「かわいいてんとうむし」(メラニー・ガースローラ・ハリスカ・ベイスきたむらまさお,2001,大日本絵画)\item「のぞいてごらん」(accototoふくだとしお+あきこ,2009,イースト・プレス)\item「ねぇ、しってる?」(accototoふくだとしお+あきこ,2010,幻冬舎)\end{itemize}\normalsize図~\ref{fig:theme-readability}の2段目左から:\begin{itemize}\small\item「ごきげんななめのてんとうむし改訂大型版」(エリック・カールさく/もりひさしやく,1998,偕成社)\item「いもむしれっしゃ」(にしはらみのり,2007,PHP研究所)\item「どこミニどうぶつどこ?」(山形明美,2007,講談社)\item「はらぺこあおむし」(エリック・カールさく/もりひさしやく,1976,偕成社)\item「ありのぎょうれつ」(さく得田之久,1975,童心社)\item「とべないほたる1ほたるたちのたんじょう」(小沢昭巳原作/関重信画,2003,ハート出版)\item「ぼく」(えとぶん井上洋介,月刊予約絵本「こどものとも年中向き」通巻275号,2009,福音館書店)\end{itemize}\clearpage\begin{biography}\bioauthor{藤田早苗}{1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTT日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所主任研究員.博士(工学).自然言語処理の研究に従事.2013年言語処理学会優秀論文賞受賞,言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{服部正嗣}{2004年京都大学大学院情報学研究科修士課程修了.現在,NTTコミュニケーション科学基礎研究所協創情報研究部研究員.複合的メディアを対象とした類似探索の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{小林哲生}{2004年東京大学大学院総合文化研究科博士課程修了.博士(学術).現在,NTTコミュニケーション科学基礎研究所協創情報研究部主任研究員(特別研究員).幼児の言語習得メカニズムの研究に従事.言語処理学会第15回年次大会最優秀発表賞,第18回年次大会優秀賞受賞.日本心理学会,日本認知科学会,日本教育心理学会各会員.}\bioauthor{奥村優子}{2014年京都大学大学院文学研究科博士課程修了.博士(文学).現在,NTTコミュニケーション科学基礎研究所協創情報研究部リサーチアソシエイト.乳幼児の社会的認知および言語発達の研究に従事.日本心理学会,日本発達心理学会,日本赤ちゃん学会各会員.}\bioauthor{青山一生}{1988年東京工業大学大学院総合理工学研究科修士課程修了.現在,NTTコミュニケーション科学基礎研究所協創情報研究部主任研究員.アルゴリズムとデータ構造の研究に従事.応用物理学会,電子情報通信学会,情報処理学会,IEEE各会員.}\end{biography}\biodate\end{document}
V16N04-03
\section{はじめに} 経済のグローバル化に伴い,英語が言わば国際共通語となった現在,日本人の英語によるコミュニケーション能力を向上させることは,国際的なビジネスの場などでの発表や交渉・議論を効果的に行うためには極めて重要な課題である.このような能力を向上させるためには,従来型の学習方法に加え,情報通信技術を応用したeラーニングによる学習の効率化が有効な解決策となりうる.ここで,英語によるコミュニケーションに必要な能力について注目する.英語による円滑なコミュニケーションを行なうには,以下に述べる種々の英語に関連した能力を総合的に向上させる必要がある.\begin{itemize}\item英語表現を正確に聞き取る能力\item英語表現を正確に発音する能力\item語順や単語を適切に選んで英語文を構成する能力(英語表現能力)\end{itemize}これらの個別の能力の内,発音と聴き取りに関しては,既にeラーニングシステムの研究開発が進んでおり,一定の成果を上げている\cite{hirose_2001,yamada_ica_2004}.その反面,英語表現能力を扱ったeラーニングシステムに関する取り組みは少ない.そこで本研究では,英語学習者コーパスの開発と英語表現能力を扱うeラーニングシステムの研究開発について取り組んでいる.英語表現能力をeラーニングにおいて扱う場合,従来の授業型の英語学習で教師により行なわれている「学習者の習熟度に適合した課題の選択」と「翻訳誤りの指摘とその訂正」という機能を自動化する必要がある.これらの2つの機能を自動化する上で,まず,的確に英語表現能力を自動測定する手法の確立が必要である.英語表現能力の測定においては,課題文を提示してその英訳文の適切性を評価する手法が一般的であるが,正解訳は一意に決定できないことから,学習者の作成した英文の評価は人手による主観的な評価によるのが現状である.英訳文の質を客観的に評価する手法については,機械翻訳の分野で,課題文に対する複数の正解訳文(以下参照訳と略称する)を予め用意しておき,編集距離や単語$n$グラムの一致度を用いて評価する手法が検討されている.このような評価手法は,統計的翻訳システムの評価においては,主観評価値と一定の相関を示すことが実証されているが\cite{papineni-EtAl:2002:ACL},その反面,ルールベースなどの機械翻訳の方式によっては,必ずしも適切な指標とはならないことも指摘されている\cite{burch_eacl_2006}.このような手法が英語学習者の翻訳文の評価においても有効であれば,英語表現能力の測定を自動化することが可能となる.この点を検証するためには,様々な英語能力を持つ英語学習者が翻訳した英訳文が必要である.現状の大規模学習者コーパスとしては,NICTJLEコーパス\cite{izumi}や,JEFLLコーパス\cite{JEFLL}があるが,これらは比較的自由度の高い会話やエッセイ方式によりデータ収集が行われているため,同一日本語文に対する複数の被験者による英訳文や,英語母語話者が翻訳した複数種類の英訳文を集積していないなど,英語表現能力の自動評価の検討を行うには,必ずしも十分満足できるものではない.そのため,まず,学習者の英語表現能力を自動評価する手法に対する検討のための基盤となる学習者コーパスを開発した.これは,学習者の英語表現能力の客観的評価手法の研究を行うための基盤として,TOEICスコアで表現される様々なレベルの英語能力を持つ英語学習者が同一の日本語文を翻訳した英訳文のデータを収集したコーパスである.本論文では,まず,この学習者コーパスの収集方法に関する説明を行なう.次に,収集したコーパスの基本的な統計量について示すとともに,被験者による英訳難易度,英訳の平均文長,英訳の平均単語長などの特徴量と,TOEICスコアとの関係に関する分析を行なう.最後に,本コーパスの訳質自動測定への応用について述べる.以下,\ref{sec:corpus}では開発した学習者コーパスの収集方法について述べ,\ref{sec:analysis}では,コーパスの基礎的な分析結果について述べる.\ref{sec:apli}では,本コーパスの訳質自動測定への応用について述べ,最後に,\ref{sec:conc}では全体をまとめる. \section{学習者コーパスの収集方法} label{sec:corpus}\subsection{課題文}\label{subsec:text_type}学習者コーパス収集に用いる英訳課題として,以下の6種からなる日本語文1,500文を利用した.これらの1,500文をランダムに5等分し,300文からなる課題セットを5つ作成した.\begin{itemize}\item英訳課題文の内訳(300文×5セット)\begin{itemize}\item中学と高校の英語教科書に出題されている英訳問題文\item旅行会話用フレーズブックから抽出された日本語文\cite{kikui_eurospeech_2003}\iteme-mail用フレーズブックから抽出された日本語文\itemビジネス会話用フレーズブックから抽出された日本語文\item留学用フレーズブックから抽出された日本語文\item音声翻訳システムの研究開発のために収集された旅行会話(SLDB)\cite{takezawa_cocosda_99}の日本語文\end{itemize}\end{itemize}表\ref{tab:1}にこれらの英訳課題文の詳細を示す.\begin{table}[t]\caption{英訳課題文の詳細}\begin{center}\includegraphics{16-5ia3t1.eps}\end{center}\label{tab:1}\end{table}\subsection{英語学習者のデータ収集}\label{subsec:data}英訳データの収集方法は,被験者1人につき,課題セット1つ(300文)を割り当て,課題文をWEBブラウザ上に提示し,496名の被験者に英訳を行なわせた.被験者毎にタイピング能力が異なることから,英訳時における時間制限は設けなかった.英訳時には,辞書や参考書の使用を禁止した.また,被験者には,英訳時において,各課題文に対する英訳の難易度を1〜5の5段階(1非常に簡単,2簡単,3普通,4難しい,5非常に難しい)で主観評価させた.全ての課題文に対する英訳が終了した後,各被験者にスペルミスと思われる箇所を提示し,スペルミスの修正を行なわせた.スペルミスの修正作業時には,辞書や参考書の利用を許可した.被験者の能力を測定するための試験としてTOEICを採用し,データ収集と同時期に,TOEIC公開テストか,団体試験であるTOEICIPテストのどちらかを,全ての被験者に受験させている\footnote{2006年5月にTOEICの各パートの問題数が変更されたが,この変更以前の試験を受験させている.}.TOEICIPテストは,過去のTOEIC公開テストの問題を用いた試験であり,スコア自体はTOEIC公開テストのものと等価であることから,これらのスコアは同等に扱っている.なお,TOEICは,ReadingとListeningの試験から構成される試験であるものの,SpeakingやWritingの能力とも高い相関を示すスコアである点\cite{toeic2}や,日本における受験者が多く,多数の被験者を集めやすい点を勘案して採用した.\subsection{バイリンガルによる参照訳の収集}\label{ref}先に述べた英語学習者による英訳結果の他に,同じ英訳課題文1,500文に対して,英語を母語とする5名のバイリンガルによる参照訳を収集している.参照訳にバリエーションを持たせるため,英訳課題1文に対して,バイリンガル1名が2訳を作成することにより,のべ10文の参照訳を収集している.参照訳全体に対する1文あたりの平均単語数は,10.2単語である.\subsection{バイリンガルによる英訳難易度評価}\label{subsec:eval}日本語を母語とするバイリンガル3名(通訳者,英語教育経験者,言語処理関連データ作成経験者)により,「英訳難易度」に関する評価を実施した.各評価者には,1,500文全ての課題文に対する評価を行なわせている.\ref{subsec:data}で述べた被験者による作業は,英訳と英訳難易度評価を並行して行なう作業であるのに対し,ここでのバイリンガルによる作業は,英訳難易度評価のみを行なう作業である.そのため,評価作業に集中でき,同一評価者内における評価の一貫性の維持が比較的容易であると考えられる.これらの理由から,バイリンガルによる評価では,\ref{subsec:data}で述べた評価基準(5段階)とは異なり,より細かい7段階の評価基準(1非常に簡単,2簡単,3少し簡単,4普通,5少し難しい6難しい,7とても難しい)にて評価を実施した.次に,\ref{ref}で述べた参照訳収集と,英訳難易度評価とにおいて,バイリンガルの母語が異なる理由について述べる.参照訳収集では,英語として一切誤りの無い完璧な訳を収集する必要があるため,英語が母語であるバイリンガルに依頼した.一方,英訳難易度評価においては,日本語母語話者に対する,日本語を英訳する際の難易度の測定が目的であるため,日本語が母語であるバイリンガルに依頼した. \section{学習者コーパスの分析} \label{sec:analysis}ここでは,\ref{sec:corpus}で述べた方法により収集されたデータの基本的な統計量について示すとともに,TOEICスコアとの関連性という観点からの分析を行なう.まず,被験者のTOEICスコアの分布を示し,次に,被験者のTOEICスコアと,被験者による英訳難易度,英訳の平均文長,英訳の平均単語長などとの関係について分析する.最後に,3名のバイリンガルによって行なわれた英訳難易度の評価結果とその分析について示す.\subsection{被験者のスコア分布}図\ref{fig:histgram}に,英語学習者496名のTOEICスコアのヒストグラムを示す.ここでの平均は559.4,標準偏差は208.1である.日本人のTOEIC受験者全体のTOEICスコアの平均(580前後)と標準偏差(170前後)\cite{toeic}と比較すると,平均スコアは低く,標準偏差は大きくなっている.これは,被験者を募集する際に,英語能力の分布は,可能な範囲内で均一となるように努めたためである.\subsection{TOEICスコアと英訳課題の主観的英訳難易度}\label{class}\begin{figure}[t]\begin{center}\includegraphics{16-5ia3f1.eps}\end{center}\caption{英語学習者のTOEICスコア}\label{fig:histgram}\end{figure}ここでは分析のため,まず,496名の英語学習者をTOEICスコアが低い順に100名づつグーピングしていき,5つのグループに分けた.以下に各グループのTOEICスコア帯を示す.\begin{description}\item[グループ1]TOEICスコア175〜365の100名.\item[グループ2]TOEICスコア365〜465の100名.\item[グループ3]TOEICスコア470〜605の100名.\item[グループ4]TOEICスコア605〜760の100名.\item[グループ5]TOEICスコア765〜990の96名.\end{description}図\ref{fig:hist_dif}は,このグループ分けを用い,次式により定義する英語学習者($i$)ごとの課題文に対する主観難易度の平均値($D_{i}$)を,各グループごとにプロットしたヒストグラムである.\begin{equation}D_{i}=\frac{1}{n_{test}}\sum_{j=1}^{n_{test}}d\{i,j\}\label{eq:dif}\end{equation}ただし,$n_{test}$は,英語学習者$i$が英訳した課題文の数(ここでは,300)で,$d\{i,j\}$は,英語学習者$i$が課題文$j$に対して付与した5段階の主観難易度(1〜5)である.図\ref{fig:hist_dif}を見るとTOEICスコアが低い学習者ほど,難しい英訳問題であると感じており,TOEICスコアが上がるにつれ,簡単な問題であると評価する割合が高くなっていくことがわかる.被験者全体における$D_{i}$の平均は,3.2であった.この点と,日本人の平均的なTOEICスコアであるグループ3の難易度が,3付近に集中している点とを考慮すると,英訳課題文の難易度の設定としては,程よいレベルであったといえる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia3f2.eps}\end{center}\caption{英語学習者による翻訳難易度}\label{fig:hist_dif}\end{figure}\subsection{TOEICスコアと英訳結果の文長との関係}\ref{ref}で述べたように,バイリンガルによる参照訳の平均文長は10.2単語であるが,これに比べると被験者全体での平均文長は短く,8.0単語であった.被験者のTOEICスコアと英訳の文長の関係を見るため,\ref{class}で述べたものと同様の5グループ分類を用いてプロットした各被験者の英訳結果の平均文長(平均単語数)のヒストグラムが図\ref{fig:hist_sent}である.図\ref{fig:hist_sent}では,TOEICスコアが605以上の英語学習者の平均文長もこの付近に集中している.また,グループ5とグループ4とでは,分布に大きな差が無いが,グループ3以降,TOEICスコアが低くなるにつれ,平均文長が短くなっていく傾向にある.\subsection{英訳の単語長とTOEICスコアの関係}図\ref{fig:hist_word}は,図\ref{fig:hist_sent}の平均文長を平均単語長(1単語当たりの平均文字数)に置き換えてプロットしたヒストグラムである.全体的な傾向としては,図\ref{fig:hist_sent}で示した文長とTOEICスコアとの関係の場合と同様,TOEICスコアが高い英語学習者ほど長い単語を使うという傾向がみられた.\begin{figure}[p]\begin{center}\includegraphics{16-5ia3f3.eps}\end{center}\caption{英訳結果の文長}\label{fig:hist_sent}\vspace{1\baselineskip}\begin{center}\includegraphics{16-5ia3f4.eps}\end{center}\caption{英訳結果の単語長}\label{fig:hist_word}\end{figure}しかしながら,グループ毎に細かく見ていくと,文長の場合ではグループ5とグループ4が非常に似かよった分布となっている反面,単語長の場合については,グループ5とグループ4の分布形状は異なり,グループ4とグループ3が似かよった分布形状となっている.これらのことから,TOEICのスコア帯が605から760のグループ4と,765〜990のグループ5では,英訳結果に含まれる文長(単語数)においては大きな差が無いものの,グループ5はグループ4と比較し,英訳時に長い単語を使う傾向があると言える.\subsection{英訳におけるスペルミスとTOEICスコアの関係}\label{subsec:misspell}\ref{subsec:data}で述べたように,各英語学習者には,300文全ての翻訳が終了した後に,スペルミスと思われる箇所を提示し,修正させた\footnote{スペル修正については,各英語学習者の作業のみをもとに集計している.実際にスペルミスの箇所がデータ収集システムにより正しく指摘されていても,各英語学習者がスペルミスであると認めず,修正を行なわなければスペルミスとして扱っていない.}.ここでは,修正が行なわれた文数について分析する.図\ref{fig:hist_misspell}は,スペル修正が行なわれた文の数を学習者ごとに合計し,プロットしたヒストグラムである.グループ分けの方法についてはこれまでと同様である.\begin{figure}[b]\begin{center}\includegraphics{16-5ia3f5.eps}\end{center}\caption{スペルミスを含む英訳文数}\label{fig:hist_misspell}\end{figure}図\ref{fig:hist_misspell}を見ると,英語学習者の能力が高いほど,スペル修正された文の数が少ないことが分かる.0〜30のランクで,TOEICスコアが最も低いグループ1の頻度が高くなっているが,これは,英語学習者による英訳が不可能で,英訳結果が空欄の場合については,スペルミスが無い英訳として集計していることが起因していると考えられる.\subsection{バイリンガルによる英訳難易度評価に関する分析}ここでは,\ref{subsec:eval}で述べた,バイリンガル3名により行なわれた英訳難易度評価の結果について分析する.図\ref{fig:hist_dif_bilin}は,3名の評価者により評価された1,500文の難易度のヒストグラムである.図\ref{fig:hist_dif_bilin}では,図\ref{fig:hist_dif}とは異なり,全テスト文での平均をとるのではなく,文単位の難易度を用いてプロットしている.図\ref{fig:hist_dif_bilin}を見ると,同一の課題文集合を評価しているにもかかわらず,難易度の分布が大きく異なることが分かる.特に評価者3においては,難易度3(少し簡単)と難易度4(普通)が多くなっている.\begin{figure}[b]\begin{center}\includegraphics{16-5ia3f6.eps}\end{center}\caption{バイリンガルによる英訳難易度評価結果のヒストグラム}\label{fig:hist_dif_bilin}\end{figure}\begin{table}[b]\caption{バイリンガルによる英訳難易度評価の分析結果}\begin{center}\includegraphics{16-5ia3t2.eps}\end{center}\label{tab:2}\end{table}表\ref{tab:2}は,各評価者の難易度評価結果間の相関係数と$\kappa$係数\cite{cohen_1960}を示す.相関係数で見ると,全ての組み合わせにおいて,0.65以上の値が得られており,ある程度の相関があることが分かるが,$\kappa$係数で見ると0.2程度と非常に低く,評価結果の一致の度合いは非常に低いことが分かる.この点については,今後,評価指標の再検討,評価マニュアルの整備を行うなどして,安定した評価結果が得られるように検討していく必要がある.図\ref{fig:mean_diff}は,表\ref{tab:1}の分類ごとに計算した平均難易度である.図\ref{fig:mean_diff}において,横軸は各分類ごとの平均難易度を,エラーバーは標準偏差をそれぞれ表している.図\ref{fig:mean_diff}を見ると,e-mail用フレーズブックの難易度が最も高くなっている.これは,表\ref{tab:1}に示したように,課題文1文あたりの文長が長いことが影響していると考えられる.ただし,SLDBと旅行会話用フレーズブックとを比較すると,SLDBの文長は,旅行会話用フレーズブックの文長の倍以上にもかかわらず,SLDBの難易度の方が低くなっており,必ずしも課題文の文長だけで説明できる訳ではない.今後,英訳難易度を自動判定するためには,英訳課題文に含まれる単語の性質も考慮に入れ,更なる分析を行っていく必要がある.\begin{figure}[t]\begin{center}\includegraphics{16-5ia3f7.eps}\end{center}\caption{英訳課題文の各分類ごとの難易度}\label{fig:mean_diff}\end{figure} \section{訳質自動評価への応用} \label{sec:apli}\ref{sec:corpus}では,英語学習者コーパスの収集方法について説明した.\ref{sec:analysis}においては,収集されたコーパスの基本的な統計量について示すとともに,TOEICスコアとの関連性という観点からの分析を行なった.ここでは,実際に収集されたコーパスをもとに,機械翻訳の分野における翻訳自動評価技術を,英語学習者による英訳の訳質評価に応用し,翻訳自動評価のスコアを英語学習者のTOEICスコアの自動推定に用いる実験を行っている.まず,従来の英語能力測定法について述べ,次に,翻訳自動評価法について概説する.最後に,翻訳自動評価のスコアの妥当性を検証するための相関分析と,TOEICスコアを自動推定するための回帰分析について述べる.\subsection{従来の能力測定法との関係}\label{subsec:conv}TOEICに代表される現在の英語能力測定においては,採点の容易さから,多肢選択形式の問題が多用されている.このような問題形式は,文法的な規則に関する知識や,訳語選択に対する能力を直接的に測定することは容易であるが,英語表現能力を直接的に測定することは出来ない.そのため,英語表現能力を構成すると考えられる文法能力や訳語選択能力などの諸能力を測定することにより,間接的に英語表現能力を測定しているというのが現状である.本実験では,このような方法ではなく,英訳問題を採点することにより,直接的に英語表現能力を測定するという方法をとる.このような方法は,従来では人手による英訳の採点が必要であることから,非常にコストの高い形式であった.しかしながら本研究では,近年の機械翻訳の研究開発において発展を遂げた翻訳自動評価技術を応用することにより,英訳採点部分を自動化し,高い評価コストをかけること無しに,英語表現能力を直接的に測定することを可能にすることを目的としている.\subsection{翻訳自動評価法の概要}\label{subsec:auto_summary}本実験で用いる全ての翻訳自動評価手法は,参照訳と評価対象文とを比較し,類似度を計算するという考え方に基づいている.翻訳の正解は一つだけではないため,多数存在する翻訳の正解訳に対する網羅性を高める目的から,複数の参照訳を用いることが多く,また,これにより自動評価の性能を上げることができる.翻訳自動評価においては,参照訳と評価対象文の間の類似度をどのように計算するかによって,様々なスコアが存在する.本実験では,$n$-gramの一致率に基づくスコアであるBLEUとNIST,単語単位の一致率を測定するWERとPER,最長一致単語列を用いてスコアリングを行なうGTM,単語の一致度に関するスコアと一致した単語の連続性に関するスコアとの積により計算するMETEORの6つ\cite{yasuda_ai_08,gtm}を用いる.\subsection{翻訳自動評価法による訳質評価}\label{subsec:auto}\ref{ref}で述べたバイリンガルによる翻訳結果を参照訳として用い,BLEU,NIST,WER,PER,GTM,METEORの6つのスコアを,課題セット(300文)単位で計算した.図\ref{fig:scut}に,課題セット単位のBLEUスコアと,TOEICスコアの関係を示す.図中の縦軸はTOEICスコアを,横軸は課題セット単位のBLEUスコアをそれぞれ表している.また,\ref{subsec:text_type}で述べたように,課題セットは5種類あることから,それぞれの課題セットに対して異なるシンボルを割り当て,英語学習者1名を1つの点とし,496名分の結果をプロットしている.通常,異なるセット間の自動評価スコアは,直接的に比較することは出来ないが,図\ref{fig:scut}を見ると,5つのセット全てが,ほぼ同様の分布となっており,それぞれの課題セットが同様の特性の課題文集合となっていることが示唆される.今回の課題セットについては,全課題文1,500文の集合から,各課題セットが300文になるようにランダムに振り分けることにより,このような結果が得られたが,課題セットのサイズを小さくしすぎると,課題セット毎にスコアが大きく異なるようになると考えられる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia3f8.eps}\end{center}\caption{TOEICスコアとBLEUスコアの関係}\label{fig:scut}\end{figure}\begin{table}[t]\caption{TOEICスコアと翻訳自動評価スコアの相関係数}\begin{center}\includegraphics{16-5ia3t3.eps}\end{center}\label{tab:miss}\end{table}表\ref{tab:miss}には,TOEICスコア,自動評価スコア間の相関係数を示している.ここでの相関係数は,課題セットの違いを無視し,全てのサンプル(496人分)を用いて計算した値である.表\ref{tab:miss}を見ると,全ての自動評価スコアにおいて,0.7以上の高い相関\footnote{WERとPERは,誤り率であるため,正しい翻訳ほど低いスコアとなる.このため相関係数は負の値となっている.}が得られており,中でもGTMが最も高い相関となっていることが分かる.\subsection{重回帰分析}\label{subsec:reg}ここでは,先に述べた自動評価スコアと,\ref{class}〜\ref{subsec:misspell}で述べた4つのパラメータ(英語学習者自身による英訳難易度,英訳結果の平均文長,英訳結果の平均単語長,スペルミスが修正された文の数)とを用いた重回帰分析を行なう.表\ref{tab:miss}から分かるように,翻訳自動評価間の相関は非常に高い.今回実施した重回帰分析では,多重共線性の問題を回避するため,GTMのみを用いている.\begin{table}[t]\caption{重相関分析の結果}\begin{center}\includegraphics{16-5ia3t4.eps}\end{center}\label{tab:reg}\end{table}表\ref{tab:reg}が,重回帰分析の結果で,各説明変数に対する重回帰係数と$P$値が示されている.ここでの$P$値は,各重回帰係数が0であるという帰無仮説を検定するための値である.また,表\ref{tab:reg}の重回帰係数を用いた場合の重相関係数は0.76,標準誤差は134.84であった.GTMのみを用いた場合と比較し,相関係数では約0.02,標準誤差で約6.37の改善が得られている.表\ref{tab:reg}を見ると,英訳の平均文長(Sentencelength)と英訳の平均単語長(Wordlength)の$P$値は非常に高くなっている.このことより,この2つの変数は,図\ref{fig:hist_sent}と図\ref{fig:hist_word}では,TOEICスコアとのある程度の関連性は観測されたものの,TOEICスコアを推定するための説明変数としては不適切であると言える.GTMについてみると,$P$値も低く,重回帰係数の値も大きいことから,最も重要な説明変数であると言える.また,英語学習者自身による英訳難易度とスペルミスが修正された文の数の2変数については,重回帰係数の値は低いため寄与は小さいものの,$P$値も低いことから有意な説明変数であると言える. \section{まとめと今後の課題} \label{sec:conc}TOEICスコアで能力測定された496名の英語学習者が,300文からなる英訳課題を翻訳することにより収集された英語学習者コーパスについて解説した.まず,データの収集方法について説明し,次に,英語学習者自身による英訳難易度評価結果,英訳結果の平均文長,英訳結果の平均単語長,スペルミスの観点からのコーパスの分析結果について述べた.最後に,本コーパスの応用例として,英語学習者の能力を自動測定するための実験を行なった.本実験では,まず,バイリンガルにより翻訳された参照訳と既存の翻訳自動評価技術とを用いて,英訳課題セット単位の自動評価スコアを計算した.BLEU,NIST,WER,PER,GTM,METERORの6つの自動評価スコアと,TOEICスコアとの相関係数を求めたところ,GTMの相関係数が最も高く,0.74となった.次に,GTMに,先の分析で用いた4つのパラメータ(英語学習者自身による英訳難易度評価結果,英訳結果の平均文長,英訳結果の平均単語長,スペルミスが修正された文の数)を加えてこれらを説明変数とし,TOEICを目的変数とした重回帰分析を行なった.重回帰分析の結果,重相関係数は0.76,標準誤差は134.68となり,GTMのみを用いた場合と比較し,相関係数では約0.02,標準誤差で約6.37の改善が得られた.本研究においては,300文からなる課題セット単位での自動評価を取り扱ったが,今後は,パラグラフや文といったより小さな単位での自動評価や誤り検出への取り組みを行うとともに,英訳難易度の測定技術の研究を進め,「学習者の習熟度に合った英訳問題の提示」と「訳質自動評価と評価結果と診断結果の提示」とを繰り返すことにより効率的な学習を行うことができるeラーニングシステムの開発につなげて行きたい.\acknowledgment本研究は,科学研究費補助金(基盤研究B)(課題番号16300048)による助成研究の一部である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akahane-Yamada,Kato,Adachi,Watanabe,Komaki,Kubo,Takada,\BBA\Ikuma}{Akahane-Yamadaet~al.}{2004}]{yamada_ica_2004}Akahane-Yamada,R.,Kato,H.,Adachi,T.,Watanabe,H.,Komaki,R.,Kubo,R.,Takada,T.,\BBA\Ikuma,Y.\BBOP2004\BBCP.\newblock\BBOQ{ATRCALL}:Aspeechperception/productiontrainingsystemutilizingspeechtechnology.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalCongressonAcoustics},\lowercase{\BVOL}\III,\mbox{\BPGS\2319--2320}.\bibitem[\protect\BCAY{Callison-Burch,Osborne,\BBA\Koehn}{Callison-Burchet~al.}{2006}]{burch_eacl_2006}Callison-Burch,C.,Osborne,M.,\BBA\Koehn,P.\BBOP2006\BBCP.\newblock\BBOQRe-evaluatingtheRoleofBleuinMachineTranslationResearch.\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\249--256}.\bibitem[\protect\BCAY{Cohen}{Cohen}{1960}]{cohen_1960}Cohen,J.~A.\BBOP1960\BBCP.\newblock\BBOQAcoefficientofagreementfornominalscales.\BBCQ\\newblock{\BemEducationalandPsychologicalmeasurements},{\Bbf20},\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{ETS}{ETS}{2008}]{toeic}ETS\BBOP2008\BBCP.\newblock\BBOQhttp://www.toeic.or.jp/toeic/data/data\_avelist.html.\BBCQ.\bibitem[\protect\BCAY{Hirose,Ishi,\BBA\Kawai}{Hiroseet~al.}{2001}]{hirose_2001}Hirose,K.,Ishi,C.~T.,\BBA\Kawai,G.\BBOP2001\BBCP.\newblock\BBOQOntheuseofspeechrecognitiontechnologyforforeignlanguagepronunciationteaching.\BBCQ\\newblock{\BemJournalofthePhoneticSocietyofKorea},{\Bbf42},\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{Izumi,Uchimoto,\BBA\Isahara}{Izumiet~al.}{2004}]{izumi}Izumi,E.,Uchimoto,K.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQThe{NICTJLE}Corpus:Exploitingthelanguagelearners'speechdatabaseforresearchandeducation.\BBCQ\\newblock{\BemSpecialIssuesofInternationalJournaloftheComputer,theInternet,andManagement(IJCIM)},{\Bbf12}(2),\mbox{\BPGS\119--125}.\bibitem[\protect\BCAY{Kikui,Sumita,Takezawa,\BBA\Yamamoto}{Kikuiet~al.}{2003}]{kikui_eurospeech_2003}Kikui,G.,Sumita,E.,Takezawa,T.,\BBA\Yamamoto,S.\BBOP2003\BBCP.\newblock\BBOQCreatingcorporaforspeech-to-speechtranslation.\BBCQ\\newblockIn{\BemProceedingsofEurospeech},\mbox{\BPGS\381--384}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Takezawa}{Takezawa}{1999}]{takezawa_cocosda_99}Takezawa,T.\BBOP1999\BBCP.\newblock\BBOQBuildingaBilingualTravelConversationDatabaseforSpeechTranslationResearch.\BBCQ\\newblockIn{\BemProceedingsof2ndInternationalWorkshoponEast-AsianLanguage-ResourcesandEvaluation---OrientalCOCOSDAWorkshop'99---},\mbox{\BPGS\17--20}.\bibitem[\protect\BCAY{投野}{投野}{2007}]{JEFLL}投野由紀夫\BBOP2007\BBCP.\newblock\Jem{日本人中高生一万人の英語コーパス中高生が書く英文の実態とその分析}.\newblock小学館.\bibitem[\protect\BCAY{Turian\BBA\Luke~Shen}{Turian\BBA\Luke~Shen}{2003}]{gtm}Turian,J.~P.\BBACOMMA\\BBA\Luke~Shen,I.D.~M.\BBOP2003\BBCP.\newblock\BBOQEvaluationofMachineTranslationandItsEvaluation.\BBCQ\\newblockIn{\BemProceedingsofMTSummit},\mbox{\BPGS\386--393}.\bibitem[\protect\BCAY{Woodford}{Woodford}{1982}]{toeic2}Woodford,P.~E.\BBOP1982\BBCP.\newblock{\BemAnintroductiontoTOEIC:Theinitialvaliditystudy}.\newblockEducationalTestingService.\bibitem[\protect\BCAY{安田\JBA隅田}{安田\JBA隅田}{2008}]{yasuda_ai_08}安田圭志\JBA隅田英一郎\BBOP2008\BBCP.\newblock機械翻訳の研究・開発における翻訳自動評価技術とその応用.\\newblock\Jem{人口知能学会誌},{\Bbf23}(1),\mbox{\BPGS\2--9}.\end{thebibliography}\begin{biography}\bioauthor{安田圭志}{1999年同志社大学工学部知識工学科中退(飛び級進学のため).2004年同志社大学大学院工学研究科博士課程了.工学博士.現在,独立行政法人情報通信研究機構において機械翻訳システムの研究に従事.2006年電子情報通信学会ISSソサイエティ論文賞受賞.情報処理学会,電子情報通信学会,音響学会各会員.}\bioauthor{喜多村圭祐}{2006年同志社大学工学部知識工学科卒業.2008年同大学大学院知識工学研究科修士課程了.工学修士.機械翻訳の研究開発に従事.現在(株)NEC.}\bioauthor{山本誠一}{1972年大阪大学工学部電子工学科卒業.1974年同大学大学院基礎工学研究科修士課程了.同年(株)KDD入社.ATR音声言語コミュニケーション所長などを経て,現在同志社大学理工学部教授.工学博士.この間,適応信号処理,音声合成,音声認識,音声翻訳の研究に従事.1981年度電子情報通信学会学術奨励賞,日本音響学会第3回技術開発賞,第5回技術開発賞,電子情報通信学会ISSソサイエティ論文賞,電気通信普及財団テレコム技術賞などを受賞.電子情報通信学会FELLOW,IEEEFELLOW.言語処理学会,日本音響学会各会員.}\bioauthor{柳田益造}{1969年大阪大学工学部電子工学科卒業.1971年同大学大学院修士課程了.同年NHK入局.1978年大阪大学大学院博士課程了.工学博士.同年大阪大学産業科学研究所助手,1978〜1979年オランダ国立Groningen大学音声研究所客員研究員,1987年郵政省電波研究所(現情報通信研究機構)音声研究室長などを経て,現在同志社大学理工学部教授.音響信号処理,音声言語情報処理ならびに音楽知覚・情報処理の研究に従事.2004日本音響学会佐藤論文賞,2006年電子情報通信学会ISSソサイエティ論文賞などを受賞.著書(分担執筆):「ファジイ科学」(海文堂),「信号処理」(オーム社),「メディア情報処理」(オーム社),訳書(分担):「ソフトコンピューティング」(海文堂).日本音響学会音楽音響研究会委員長,日本音楽知覚認知学会理事,電子情報通信学会,情報処理学会,IEEE,米音響学会など各会員.}\end{biography}\biodate\end{document}
V21N03-05
\section{はじめに} \label{sec:introduction}これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている.しかし近年,解析対象はWebデータなど多様化が進んでおり,これらのテキストに対しては既存の解析モデルで,必ずしも高い解析精度を得られるわけではない\cite{Kudo:Ichikawa:Talbot:Kazawa:2012j,Katsuki:Sasano:Kawahara:Kurohashi:2011j}.本稿では,そうしたテキストの一つである絵本を対象とした形態素解析の取り組みについて述べる.絵本は幼児の言語発達を支える重要なインプットの一つであり\cite{Mother-child:Ehon:2006},高い精度で解析できれば,発達心理学における研究や教育支援,絵本のリコメンデーション\cite{Hattori:Aoyama:2013j}などへの貢献が期待できる.\begin{table}[b]\caption{絵本の文の解析例}\label{tb:morph-ex}\input{1008table01.txt}\par\vspace{4pt}\small解析結果の出現形,原形,品詞を記載.\\ただし,\kyteaの配布モデルでは原形は出力されない.品詞は適宜簡略化して表示.\par\end{table}絵本の多くは子供向けに書かれており,わかりやすい文章になっていると考えられる.それにも関わらず,既存の形態素解析器とその配布モデルでは,必ずしもうまく解析できない.なお本稿では,\pos{モデル}を,既存の形態素解析器に与えるパラメタ群という意味で用いる.表~\ref{tb:morph-ex}に,既存の形態素解析器である\juman\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN,ver.7.0を利用.}\cite{juman:7.0j},\chasen\footnote{http://chasen-legacy.sourceforge.jp/,ver.2.4.4を利用.}\cite{chasen:2.4.4j},\mecab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html,ver0.996,辞書はmecab-ipadic-2.7.0-20070801を利用.}\cite{Mecab},\kytea\footnote{http://www.phontron.com/kytea/,ver.0.4.3を利用.}\cite{Mori:Nakata:Graham:Kawahara:2011j}とその配布モデルで絵本の文を解析した場合の例を示す.解析器によって誤り方は異なるが,すべて正しく解析できた解析器はなく,既存のモデルでは絵本の解析が難しいことがわかる.これは,一般的な形態素解析モデルを構築するときに用いられる学習データ(ラベルありデータ)と,解析対象である絵本のテキストでは傾向が大きく異なるためだと考えられる.このように,学習データと解析対象の分野が異なる場合には,形態素解析に限らず機械学習を用いる多くのタスクで精度が低下するため,それに対応するための様々な手法が提案されてきた.\citeA{Kamishima:2010j}は,この問題に対処するための機械学習の方針として,半教師あり学習,能動学習,転移学習の三つを挙げている.まず,半教師あり学習は,少数のラベルありデータを準備し,多数のラベルなしデータを活用して予測精度を向上させる手法であり,日本語では単語分割を行う手法が提案されている\cite{Hagiwara:Sekine:2012j}.能動学習は,より効率的な分類ができるように選んだ事例にラベルを付与する.日本語形態素解析では,確信度の低い解析結果に対して優先的に正解ラベルを付与していくことで,対象分野の解析精度を効率的に改善する方法が提案されている\cite{Mori:2012j,Neubig:Nakata:Mori:2011}.転移学習は,関連しているが異なる部分もあるデータから,目的の問題にも利用できる情報・知識だけを取り込んで,より予測精度の高い規則を得ることを目標とする\cite{Kamishima:2010j}.転移学習は,元の分野と対象分野のラベルありデータの有無によって分類ができる.本稿では,対象分野のラベルありデータが無い場合を教師なし分野適応,ある場合を教師あり分野適応と呼ぶ.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}が提案した,Web上のひらがな交じり文に対する形態素解析精度向上の手法では,大量のWeb上の生コーパスを利用しているが,対象分野のラベルありデータは用いておらず,教師なし分野適応の一種と言える.いずれの先行研究も優れた利点がある.しかし,本稿で対象とする絵本のように,これまで対象とされてきたコーパスと全く異なり,かつ,大量のデータの入手が困難な場合,これらの先行研究をそのまま適用しても高い精度を得ることは難しい.まず,絵本の大量の生コーパスが存在するわけではないため,Webデータを対象とする場合のような,大量の生コーパスを用いた半教師あり学習は適さないと考えられる.能動学習はすぐれた分野適応の方法であるが,本稿のように,ベースとなる初期モデルの学習に利用できる学習データと対象分野との差異が非常に大きい場合,解析誤りが多すぎ,結局ほぼ全文の解析結果を修正しつつラベルを付与する必要に迫られることになる.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}の方法は,ひらがな交じり文を対象としており,絵本の解析にも比較的適していると考えられる.しかし,絵本の場合,ひらがな交じりというより,全文がひらがなで記述されることも多く,高い精度で解析できるとは言えない.そもそも,対象分野のラベルありデータを十分に得ることができれば,通常,教師あり学習により高い精度が得られる.しかし,対象分野のラベルありデータを作成するためにも,何らかの形態素解析器による解析結果を修正する方法が一般的であり,そもそもの形態素解析精度が低いとラベルありデータの作成に,コストと時間が非常にかかることになる.そこで本稿では,既存の辞書やラベルありデータを,対象分野の特徴にあわせて自動的に変換し,それを使って形態素解析モデルを構築する教師なし分野適応手法を提案する.提案手法では,既存の言語資源を活用することで,コストと時間をかけずに,対象分野の解析に適した形態素解析モデルを得ることが出来る.また,こうして得た初期モデルの精度が高ければ,さらに精度を高めるための能動学習や,ラベルありデータの構築にも有利である.本稿では,提案手法で構築したモデルをさらに改良するため,絵本自体へのアノテーションを行って学習に利用した教師あり分野適応についても紹介する.以降,まず\ref{sec:target}章では,解析対象となる絵本データベースの紹介を行い,新聞などの一般向けテキストと絵本のテキストを比較し,違いを調査する.\ref{sec:morph-kytea}章では,本稿で形態素解析モデルの学習に利用する解析器やラベルありデータ,辞書,および,評価用データの紹介を行う.\ref{sec:bunseki}章では,絵本のテキストを漢字に変換した場合などの精度変化を調査することで,絵本の形態素解析の問題分析を行う.\ref{sec:morph}章では,\ref{sec:target}章,\ref{sec:bunseki}章の調査結果に基づき,解析対象である絵本に合わせて,既存の言語資源であるラベルありデータと辞書を変換する方法を提案する.\ref{sec:exp-adult}章では,これらを学習に用いる教師なし分野適応の評価実験を行い,提案手法による言語資源の変換の効果を示す.さらに,\ref{sec:exp-add-ehon}章では,絵本のラベルありデータを学習に利用する教師あり分野適応の評価実験を行う.また同時に,提案手法によって得られるラベルありデータが,どの程度の絵本自体のラベルありデータと同程度の効果になるかも評価する.\ref{sec:kousatsu}章では,前章までに得たモデルをさらに改良するための問題分析と改良案の提示を行い,提案手法の絵本以外のコーパスへの適用可能性についても考察する.最後に\ref{sec:conclusion}章では,本稿をまとめ,今後の課題について述べる. \section{解析対象} \label{sec:target}本章では,まず,解析対象である絵本データベースの紹介を行う(\ref{sec:ehon-db}節).次に,新聞などの一般向けテキストと絵本のテキストを比較し,違いを調査する(\ref{sec:mojisyu}節).また,評価,実験用に形態素情報を付与した絵本のラベルありデータ(フルアノテーションデータ)を紹介する(\ref{sec:full-ano}節).\subsection{絵本データベース}\label{sec:ehon-db}本稿では構築中の絵本データベースを解析対象とする\cite{Taira:Fujita:Kobayashi:2012j}.絵本データベースは,発達心理学における研究や,子供の興味や発達に応じた絵本リコメンデーションを目的として構築されている.含まれる絵本は,2010年度の紀伊国屋書店グループの売上冊数が上位のファーストブック(以下,\first{})と絵本(以下,\ehon)\footnote{絵本とファーストブックの分類は紀伊国屋書店による.絵本には,大人向けと見られる絵本も一部含まれていた.}計1,010冊,および,福音館書店の月刊誌(以下,\kodomo)190冊,合計1,200冊である\footnote{含まれる絵本のリストはhttp://www.kecl.ntt.co.jp/icl/lirg/members/sanae/ehon-list.htmlで閲覧可能である.}.これらの選定理由は,前者は多くの子供に読まれていると考えられること,後者は対象年齢が比較的はっきりしていることである.後者の対象年齢は0・1・2歳向け(以下,\kod{012}),年少(3歳児)向け(以下,\kod{3}),年中(4歳児)向け(以下,\kod{4}),年長(5歳児)向け(以下,\kod{5})とわかれている.本稿では,これらをまとめて絵本と呼ぶこととする.なお,\kodomo以外で対象年齢が記載されていた絵本は,463冊(45.8\%)にとどまり,その記載方法も「3歳から小学校初級むき」「乳児から」「4才から」のように多様で,\kodomoのように1歳単位で対象年齢が設定されている絵本は少ない.\begin{table}[b]\caption{絵本データベースのサイズ}\label{tb:size}\input{1008table02.txt}\end{table}本稿では,絵本の本文のテキストを解析対象とする.本文のテキストは人手で入力されている\footnote{当初,既存OCRによる自動的な文字認識を試したが,絵と文字の判別が難しく,高精度な自動認識は困難だった.}.また文や文節の途中での改行など元のページのレイアウトも忠実に再現されている(例\refs{ex-org}).なお,絵本データベースの1,200冊のサイズは表~\ref{tb:size}の通りである.\begin{exe}\ex\label{s:ex-org}もういつはるがきて、なつがきたのか、いつが\\あきで、いつがふゆなのか、わかりません。\\\small(バージニア・リー・バートン,石井桃子・訳「ちいさいおうち」p.~24(1954,岩波書店))\end{exe}\subsection{絵本と他のコーパスの比較}\label{sec:mojisyu}絵本のテキストの特徴を調べるため,絵本と一般的なコーパスにおける文字種の割合を比較する.表~\ref{tb:mojisyu}に,絵本1,200冊(表\ref{tb:size})における文字種と,現代日本語書き言葉均衡コーパス\footnote{http://www.ninjal.ac.jp/kotonoha/}(以下,\bccwj),京都大学テキストコーパス\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php}(以下,京大コーパス),および,基本語データベース\cite{Lexeed:2004j}(以下,\lxd)の定義文,例文に出現する文字種の数と割合を示す.\begin{table}[t]\caption{文字種毎の数と割合:絵本と他のコーパスの比較}\label{tb:mojisyu}\input{1008table03.txt}\end{table}表\ref{tb:mojisyu}から,他のコーパスに比べ,絵本の場合,ひらがなと空白が占める割合が圧倒的に高いことがわかる.また逆に,漢字が占める割合は非常に低い.表~\ref{tb:mojisyu}には,参考として,一文に含まれる平均文字数,および,平均形態素数も記載した.但し,絵本の場合は,一行に含まれる平均文字数を記載しており,必ずしも文単位ではない.また,平均形態素数について,絵本は未知であり,\bccwjは品詞体系が異なるため記載していない.\subsection{絵本のフルアノテーションデータ}\label{sec:full-ano}精度評価のために,絵本の一部に正解の形態素区切り,IPA品詞,読み,できるだけ漢字表記にした原形を付与したフルアノテーションデータ(ラベルありデータ)を作成した.ただし,活用型と活用形は付与していない.付与自体が難しいことと,作業量が増えるためにコストと時間がかかること,これらの情報を今後利用する予定がないことが理由である.絵本に出現した文\refs{eva-org}に対するフルアノテーションデータを\refs{ehon-full}に示す.ただし\refs{ehon-full}では,形態素区切りは\jpn[,]{}で示し,形態素は\jpn[出現形/品詞/読み/原形]{}の形で示し,漢字表記にした原形には\ul{下線}を引いた(以降の例でも同様).\begin{exe}\ex\label{s:eva-org}めには、いちごのあかいみをいれました。\\\small(舟崎靖子「もりのおかしやさん」p.~11(1979,偕成社))\end{exe}\begin{exe}\ex\label{s:ehon-full}め/名詞-一般/メ/\ul{目},に/助詞-格助詞-一般/ニ/に,は/助詞-係助詞/ハ/は,、/記号-読点/、/、,いちご/名詞-一般/イチゴ/\ul{苺},の/助詞-連体化/ノ/の,/記号-空白//,あかい/形容詞-自立/アカイ/\ul{赤い},/記号-空白//,み/名詞-一般/ミ/\ul{実},を/助詞-格助詞-一般/ヲ/を,/記号-空白//,いれ/動詞-自立/イレ/\ul{入れる},まし/助動詞/マシ/ます,た/助動詞/タ/た,。/記号-句点/。/。\end{exe}アノテーションは,言語学者や研究者ではない一般の作業者によって行ったが,特に活用語に対するアノテーションは難しく,既存のラベルありデータを参照しながら作業を行った.また,作業者による不一致や判断のゆれをなくすため,一定の作業の後には同じ出現形の形態素に異なる品詞や原形が振られたもの\footnote{例えば,\jpn[ごしごし]{}を\pos{名詞-サ変接続}にするか,\pos{副詞-一般}にするか,といった判断のゆれが多かった.}をリストアップし,統一的に確認,修正を行う作業を繰り返した.なお,実際の作業では,アノテーションしたデータを順次学習データに追加することで,解析精度自体を高めながら作業を進めた(\ref{sec:exp-add-ehon}章参照).フルアノテーションを行う対象データは2通りの方法で選んだ.まず,対象年齢がはっきりしている\kodomo\190冊を対象とした.また,それ以外の\first,\ehonの中から,絵本をランダムに選び,さらにランダムに1ページずつ選んで対象とした(以下,\random).サイズは表~\ref{tb:test-size}の通りである.フルアノテーションデータは,\ref{sec:exp-adult}章の教師なし分野適応実験の評価用データとして利用するほか,\ref{sec:exp-add-ehon}章の教師あり分野適応実験の学習,評価用データとして利用する.\begin{table}[t]\caption{絵本のフルアノテーションデータのサイズ}\label{tb:test-size}\input{1008table04.txt}\end{table} \section{形態素解析器} \label{sec:morph-kytea}本稿では,既存の辞書やラベルありデータを,対象分野である絵本の特徴にあわせて自動的に変換する手法を提案する.学習器は学習データと独立に選ぶことができるが,本稿では,京都テキスト解析ツールキット\kytea\\cite{Mori:Nakata:Graham:Kawahara:2011j}の学習機能を利用する.\kyteaでは,点予測を採用しており,分類器の素性として,周囲の単語境界や品詞等の推定値を利用せずに,周囲の文字列の情報のみを利用する.そのため,柔軟に言語資源を利用することができ,分野適応が容易だという特徴がある\cite{Mori:Nakata:Graham:Kawahara:2011j}.\kyteaのモデル学習時には,フルアノテーションデータ,部分アノテーションデータ,辞書などの言語資源が利用できる.これらの言語資源は,それぞれ複数利用することができる.また,辞書と部分アノテーションデータはなくてもよい.ここで,フルアノテーションデータとは,文全体に形態素情報が付与されたデータである(\ref{sec:full-ano}節,例\refs{ehon-full}).また,部分アノテーションデータとは,文の一部にだけ単語境界や形態素情報が付与されたデータである.例えば,例\refs{ehon-part}のように,文\refs{eva-org}の\jpn[め]{}と\jpn[み]{}にだけ形態素情報をアノテーションしたデータを,部分アノテーションデータとして利用することができる.誤りやすい語や分野特有の語にだけ集中的にアノテーションを付与して利用できるため,能動学習や分野適応に有効である.\begin{exe}\ex\label{s:ehon-part}め/名詞-一般/メ/\ul{目},には、いちごのあかい,み/名詞-一般/ミ/\ul{実},をいれました。\end{exe}なお,\kyteaの配布版モデルでは,単語分割とUniDicの品詞大分類,読みの付与を行っているが,他の種類の品詞や情報を推定するモデルの構築も可能である.本稿では,既存言語資源との整合性を考慮し,品詞はIPA品詞体系に準拠した.さらに,元の漢字表記の推定も同時に行う.つまり,単語分割,IPA品詞体系の品詞,読み,漢字表記による原形推定を出力とするモデルを構築する.本稿では,フルアノテーションデータとして,コーパス\hinoki\\cite{Bond:Fujita:Tanaka:2006}を用いる.\hinokiには,\lxdの定義文,例文,京大コーパスの全文\footnote{但し,IPA品詞体系で解析しなおしてある.}が含まれている.さらに教師あり分野適応の実験(\ref{sec:exp-add-ehon}章)では,絵本のフルアノテーションデータも利用する.辞書には,\naistj\footnote{http://sourceforge.jp/projects/naist-jdic/}(以下,\ntj),\lxd,および,日本語語彙大系\cite{GoiTaikeij}の固有名詞,および,動植物名\footnote{具体的には,日本語語彙大系の日本語辞書のうち,\izj{543:生物}配下の意味クラスが付与されている語を追加した.}を利用する.但し,\lxdと日本語語彙大系は,本来IPA品詞体系ではないため,自動的に品詞を変換した. \section{絵本を対象とした形態素解析における問題分析} \label{sec:bunseki}本章では,絵本を形態素解析するときに起こる精度低下の原因を調査する.\ref{sec:mojisyu}節では,一般的なテキストと比べて,絵本のテキストでは,空白,ひらがなが圧倒的に多く,漢字が非常に少ないことを示した.これらの違いのうち,直感的には,ひらがなによる曖昧性の増加が精度低下の主要因であり,空白は解析の手がかりとなるように感じられる.しかしこれまで,この直感が正しいかどうか,また,実際にどの程度精度への影響があるのかを調査した研究はない.そこで本章では,ひらがなと空白の形態素解析への影響を調査する.\subsection{実験用解析対象文の作成}\label{sec:bunseki-bun}調査用の評価データとして,絵本の\kodomoのフルアノテーションデータをいくつかのルールに沿って自動的に変換したデータを作成する.つまり,絵本に出現した文\refs{eva-org}(\ref{sec:full-ano}節)から空白を削除したもの(文\refs{eva-del}),空白を読点に変換したもの(文\refs{eva-punc}),ひらがなをできるだけ漢字に変換したもの(文\refs{eva-han}),漢字に変換し,かつ,空白を削除したもの(文\refs{eva-handel}),漢字に変換し,かつ,空白を読点に変換したもの(文\refs{eva-hanpunc})を作成した.\begin{exe}\ex\label{s:eva-del}めには、いちごのあかいみをいれました。\ex\label{s:eva-punc}めには、いちごの、あかい、みを、いれました。\ex\label{s:eva-han}目には、苺の赤い実を入れました。\ex\label{s:eva-handel}目には、苺の赤い実を入れました。\ex\label{s:eva-hanpunc}目には、苺の、赤い、実を、入れました。\end{exe}\subsection{実験と結果}\label{sec:bunseki-exp}調査のため,\hinokiコーパスと\naistjなどの辞書(\ref{sec:morph-kytea}章)をそのまま学習に利用したモデル(以下,\kytea(\Def))を構築する.これは,一般的な形態素解析モデルと同じような学習条件に相当する.また,表~\ref{tb:morph-ex}(\ref{sec:introduction}章)で利用した既存の形態素解析モデルの中で最も誤りの少なかった\mecabも利用する.\begin{table}[b]\caption{評価結果:形態素区切り,および,品詞が一致した数と割合(\kodomo)}\label{tb:res-bunseki}\input{1008table05.txt}\par\vspace{4pt}\smallただし,\refs{eva-org}から\refs{eva-handel}は,対応する評価用データの例の番号を示している.\par\end{table}表~\ref{tb:res-bunseki}に,評価用データ(文\refs{eva-org},および,文\refs{eva-del}から文\refs{eva-hanpunc})のそれぞれに対し,形態素解析を実行し,形態素区切りと品詞一致精度を調べた結果を示す.\subsection{分析}\label{sec:ana-sphan}表~\ref{tb:res-bunseki}の\pos{\Org\refs{eva-org}}の列が,絵本のテキストをそのまま解析した場合の精度であり,\kytea(\Def)では63.0\%,\mecabでは83.2\%だった.\mecabはひらがなのままの評価データの場合でも,ひらがなを考慮しない一般的な学習条件で学習した\kytea(\Def)よりも精度が高い.しかし,新聞である京大コーパスを対象とした場合98\%以上の精度が報告されているのに比べると\footnote{\mecab\ver.0.90の場合.http://mecab.googlecode.com/svn/trunk/mecab/doc/feature.htmlより.},はるかに低い精度である.ここで,空白の影響を分析する.\kytea(\Def)では,空白を削除すると精度が向上する.また,空白を読点に変更すると精度はさらに向上する.これは,学習データに空白が出現しないため,学習できていないためだと考えられる.空白をただ削除するよりも,読点に変更した方が精度が高くなることから,空白の働きをうまく学習することができれば,区切りの判別の手がかりとして有効に働くだろうことが予想できる.実際,\mecabの場合,空白は区切りの判別のための手がかりとして有効に利用されているようであり,空白を削除するとむしろ精度は低下する.また,空白を読点に変更した場合と空白のままの場合の精度は同程度であり,空白が読点の代わりを果たしていることが伺える.特に,\refs{err-del}のように,擬音語や擬態語が連なる場合,空白を削除すると,解析が非常に困難になっており,空白の有無が形態素の判別に有効な手がかりであることがわかる.\begin{exe}\ex\label{s:err-del}「こちょこちょこちょこちょ\\{\small(豊田一彦「こちょこちょももんちゃん」p.~24(2010,童心社))}\\COR:「,\ul{こちょ,,こちょ,,こちょ,,こちょ}\\RES:「,\ul{こ,ちょこ,ちょこちょこ,ちょ}\\\small(ただし,COR:は正解,RES:は空白を削除した場合の結果)\end{exe}次に,ひらがなが多いことによる影響を分析する.評価データ中のひらがなを漢字に変換した場合,\kytea(\Def)でも\mecabでも,ひらがなのままの評価データより高い精度が得られる.空白を読点に変換した場合の精度(表~\ref{tb:res-bunseki}の\pos{\Sp\\refs{eva-punc}}と\pos{\HanSp\\refs{eva-hanpunc}})で比較すると,\kytea(\Def)では$+11.4$\%,\mecabでは$+8.2$\%精度が向上しており,漢字は大きな手がかりとなっていることがわかる.つまり,一般的なテキストとの大きな違いのうち,ひらがなによる曖昧性の増大が解析精度の低下の主な要因だといえる.なお,元データのままだと解析に失敗するが,漢字に変換すると正解する例には,\refs{err-org}などがあった.\begin{exe}\ex\label{s:err-org}みずをのみにきたうしさんに\hfill{\small(たちもとみちこ「おほしさま」p.~10(2006,教育画劇))}\\COR:みず,を,,のみ,に,き,た,,うし,さん,に,\\RES:みず,を,,のみ,に,\ul{きた},,\ul{うしさん},に\\RES2:水,を,,飲み,に,\ul{来,た},,\ul{牛,さん},に\\\small(ただし,COR:は正解,RES:は結果,RES2:は漢字に変換した場合の結果)\end{exe} \section{提案手法} \label{sec:morph}本章では,絵本の特徴に合わせたラベルありデータと辞書の変換方法を提案する(\ref{sec:train-data},\ref{sec:dic}節).また,ラベルありデータと辞書の変換と追加の必要性について議論する(\ref{sec:comp-kudo}節).\subsection{ラベルありデータの変換方法}\label{sec:train-data}\ref{sec:bunseki}章で示したように,絵本の解析では,空白の働きを学習することと,ひらがなが多い文でも解析できることが必要である.そこで,既存のラベルありデータである\hinokiコーパスを3通りの方法で自動的に変換する.例えば,文\refs{lxdex-org}は,\lxdでの見出し語\jpn[きしめん]{}に付与された例文である.この文に,まず,句読点の直後を除く文節毎に空白を挿入する(文\refs{lxdex-sp}).また,すべての漢字をひらがなの読みに変換する(文\refs{lxdex-hira}).句読点の直後を除く文節毎に空白を挿入し,かつ,ひらがなに変換する(文\refs{lxdex-hirasp}).このように,元の文に対して3通りの変換を行い,ラベルありデータデータを作成する.\begin{exe}\ex\label{s:lxdex-org}寄せ鍋,に,きしめん,を,入れる,。\ex\label{s:lxdex-sp}寄せ鍋,に,,きしめん,を,,入れる,。\ex\label{s:lxdex-hira}よせなべ,に,きしめん,を,いれる,。\ex\label{s:lxdex-hirasp}よせなべ,に,,きしめん,を,,いれる,。\end{exe}さらに,元の漢字表記の推定も同時に行うため,元の漢字表記による原形を利用する.つまり,文\refs{lxdex-hira}や\refs{lxdex-hirasp}のようにひらがなに変換した場合でも,原形は漢字表記を利用する.そのため,例えば\refs{lxdex-hira}は,実際には\refs{lxdex-hira-full}のような形で与えられる.\begin{exe}\ex\label{s:lxdex-hira-full}よせなべ/名詞-一般/ヨセナベ/\ul{寄せ鍋},に/助詞-格助詞-一般/ニ/に,きしめん/名詞-一般/キシメン/きしめん,を/助詞-格助詞-一般/ヲ/を,いれる/動詞-自立/イレル/\ul{入れる},。/記号-句点/。/。\end{exe}\ref{sec:exp-adult}章では,ラベルありデータの変換方法毎の効果を検証するため,これらの組み合わせを変えて利用した場合の精度評価を行う.なお,空白の挿入に利用した文節区切りや,ひらがなへの変換に利用した読みは,元々コーパスに付与されていたものであり,自動的に変換することができる.本稿では\hinokiコーパスを利用したが,京大コーパスでも文節情報や読みは付与されているため,同様の変換ができる.また\bccwjにも読みは付与されている.文節情報は付与されていないが,形態素情報は付与されているため,助詞と自立語が連続する箇所に空白をいれるなどの簡単なルールによって,同様の自動的変換が可能である.\subsection{辞書の変換方法}\label{sec:dic}\ref{sec:morph-kytea}章で紹介した通り,辞書には\ntj,\lxd,日本語語彙大系の固有名詞,および,動植物名を利用しており,これらを絵本の特徴にあわせて変換する.まず,\ntjと\lxdの漢字やカタカナのエントリをひらがなに変換したエントリも作成し,辞書に追加する.固有名詞や動植物名は,カタカナで表記されることも多いため,カタカナ,ひらがなの両方に変換したエントリも作成し,辞書に追加する.このとき,原形には漢字やカタカナの表記を用いる.例えば,\jpn[伊予柑]{}の場合,元の見出し語から得られる辞書エントリは\refs{iyokan-org}となるが,ひらがなのエントリ\refs{iyokan-hira}とカタカナのエントリ\refs{iyokan-kata}も追加した.しかし,人名の固有名詞だけは,カタカナはカタカナのまま,ひらがなはひらがなのまま原形とした.これは,ひらがなで出てくる人名の漢字表記が何かは決められないためである.最終的に利用した辞書サイズは,表~\ref{tb:dic-size}の通りである.\begin{exe}\ex\label{s:iyokan-org}伊予柑/名詞-一般/イヨカン/伊予柑\ex\label{s:iyokan-hira}いよかん/名詞-一般/イヨカン/伊予柑\ex\label{s:iyokan-kata}イヨカン/名詞-一般/イヨカン/伊予柑\end{exe}\begin{table}[b]\caption{辞書サイズ:ひらがなやカタカナに展開済み}\label{tb:dic-size}\input{1008table06.txt}\end{table}\subsection{辞書と学習データの追加の必要性についての議論}\label{sec:comp-kudo}\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}は,Web上のひらがな交じり文に対する形態素解析手法の提案にあたり,次のように述べている.\begin{quote}ひらがな交じりの解析も,通常の日本語の文の解析であることには変わりがないため,以下のような一般的に用いられている既存手法で解析精度を向上させることが可能である.\\1.ひらがな単語のユーザ辞書への追加\\2.ひらがな交じり文を含む学習データを人手で作成し,再学習\\1.は簡単な手法であるが,ひらがなは日本語の機能語に用いられているため,むやみにひらがな語を追加すると副作用により精度が低下する可能性がある.2.の方法は学習データの作成が必要なためコストが高い.\end{quote}これらの理由によって,\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}では,辞書への追加や学習データの追加は行われていない.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}の手法は,広い分野に対して安定的に比較的高い精度で解析を行える.しかし,特定の分野における実用を考えた場合,対象分野においてより高い精度を得ることが重要である.確かに,1.に関して,ひらがな語を多く追加することによる副作用の可能性は否定できないが,絵本の場合,いずれの語でもひらがなで記述される可能性があるため,すべてのエントリをひらがなにする必要がある.また,2.に関しては,提案手法では自動的に学習データを作成するので問題ない.本稿では,提案手法で変換・作成した辞書と学習データを学習に用いることで,絵本に対しては既存モデルより高い精度が得られることを示す(\ref{sec:exp-adult}章).ただし,本提案手法で得られる精度は,既存モデルよりは高いが,実用的にはまだ改良の必要がある.そのため,さらなる精度向上のためには,能動学習や対象分野のラベルありデータの構築が必要となるが,その際も,ベースとなるモデルの精度がより高い方がより効率的である. \section{評価実験(1):教師なし分野適応} \label{sec:exp-adult}本章では,前章で提案した手法により変換した既存言語資源だけを学習に利用する評価実験,つまり,教師なし分野適応の実験を行う.前章で紹介した通り,ラベルありデータは3通りの変換により作成した.これらと,変換前のラベルありデータを組み合わせて学習に用いた場合の精度評価を行った(表~\ref{tb:res}).表~\ref{tb:res}では,形態素区切り,および,品詞の細分類までが一致した精度を示している.表~\ref{tb:res}は,絵本に出現した文に対する解析精度であり,表~\ref{tb:res-bunseki}の左端\pos{元データ\refs{eva-org}}の列に当たる.比較のため,表~\ref{tb:res}にも結果を再掲した.\begin{table}[b]\caption{評価結果:形態素区切り,および,品詞が一致した数と割合(\kodomo)}\label{tb:res}\input{1008table07.txt}\vspace{4pt}\smallただし,\refs{lxdex-org}から\refs{lxdex-hirasp}は,対応する学習データの例の番号を示している.\\また,[A]--[C]は参照用に付与した記号である.\par\end{table}既存言語資源をそのまま学習に利用した場合,精度は63.0\%と非常に低いが,空白を追加したり,ひらがなに変換した学習データを利用することで,88.5\%まで精度を向上できた.つまり,新聞データなどの一般向けのテキストを学習データに利用する場合でも,絵本での出現傾向にあわせて変換することで,相当な精度向上が出来た.ここで,空白を追加した学習データだけを利用する場合[B]より,空白を追加しない学習データも利用する[C]の方が精度が高かった.これは,すべての絵本で全文節ごとに空白が入るわけではないので,両方を学習に利用した方が良かったのだと考えられる.同様に,ひらがなに変換した学習データだけを利用するより,漢字のままの学習データも利用する方が若干精度が高かった.これは,すべての絵本で漢字が全く出現しないわけではないためだと考えられる.以降,最も高い精度を得られたラベルありデータ(表~\ref{tb:res}[C]の``両方利用\refs{lxdex-org}〜\refs{lxdex-hirasp}'')を\bestHINOKI,得られたモデルを用いた解析器を\kytea\(\bestHINOKI)と呼び,これをベースに,さらに改良を加えることを検討したい.また,絵本によって,空白や漢字の含有率は非常に異なるため,これらの含有率によって学習に利用するデータを変更することも考えられる. \section{評価実験(2):教師あり分野適応} \label{sec:exp-add-ehon}\ref{sec:exp-adult}章の実験では,ラベルありデータとして既存言語資源から得たコーパスだけを用いた.しかし分野適応では,同じ分野のラベルありデータを追加すると精度が向上することはよく知られており,本章では,絵本自体のラベルありデータを学習に用いた実験を行う.本章の目的は二つある.一つは,提案手法によって既存言語資源から自動的に獲得したラベルありデータが,どの程度の絵本自体のフルアノテーションデータと同程度の効果があるかを調べることである.もう一つは,絵本自体へアノテーションするときの効率的な方法を示すことである.\subsection{学習曲線}\label{sec:exp-add-ehon-full}本節では,フルアノテーションデータ\kodomo(\ref{sec:full-ano}節)の各絵本をそれぞれ10分割し,それらを徐々に学習データに追加した場合の学習曲線を調べる.ここで,\ref{sec:exp-adult}章で最も良い精度を得た学習データである\bestHINOKIと絵本を両方学習に利用する場合と,絵本だけを学習に利用する場合の両方の実験を行った.また,評価は2通り行う.つまり,学習データを追加した絵本と,(1)同じ絵本のテキストによる評価(\kodomoを利用),(2)違う絵本のテキストによる評価(\randomを利用),を行う.本節での精度評価は,品詞まで一致した精度に加え,原形まで一致した精度評価も行っている.本稿で構築している形態素解析モデルでは,出現形がひらがなでも,原形は出来る限り漢字表記を推定している(\ref{sec:train-data}節).ひらがなで出現した語に対し,漢字表記を推定することができれば,その後の解析に有用だからである.例えば,\jpn[め]{}という語が\jpn[目]{}なのか\jpn[芽]{}なのか,\jpn[はな]{}という語が\jpn[鼻]{}なのか\jpn[花]{}なのか,などは,幼児の言語発達を調べるときにも区別する必要がある\cite{Ogura:Watamaki:2008}.これは,本来,語義曖昧性解消問題として取り組むべき課題かもしれないが,形態素解析時に同時に推定が可能なら利便性が高い.そこで,本節では,形態素解析時の漢字の原形推定をどの程度の精度で行うことができるかも同時に調査した.\begin{figure}[b]\setlength{\captionwidth}{197pt}\begin{minipage}{199pt}\includegraphics{21-3ia1008f1.eps}\hangcaption{学習曲線:同じ絵本を学習データに追加(\kodomo,品詞一致)}\label{fig:lc-self-POS}\end{minipage}\hfill\begin{minipage}{199pt}\includegraphics{21-3ia1008f2.eps}\hangcaption{学習曲線:異なる絵本を学習データに追加(\random,品詞一致)}\label{fig:lc-rand-POS}\end{minipage}\end{figure}\begin{figure}[b]\setlength{\captionwidth}{197pt}\begin{minipage}[t]{199pt}\includegraphics{21-3ia1008f3.eps}\hangcaption{学習曲線:同じ絵本を学習データに追加(\kodomo,原形一致)}\label{fig:lc-self-BS2}\end{minipage}\hfill\begin{minipage}[t]{197pt}\begin{center}\includegraphics{21-3ia1008f4.eps}\end{center}\hangcaption{学習曲線:異なる絵本を学習データに追加(\random,原形一致)}\label{fig:lc-rand-BS2}\end{minipage}\end{figure}ここで,図~\ref{fig:lc-self-POS},\ref{fig:lc-self-BS2}は,\kodomoの各絵本の1/10を評価データとし,それ以外を順次追加した場合の学習曲線を示している.また,図~\ref{fig:lc-rand-POS},\ref{fig:lc-rand-BS2}は,\randomを評価データとした場合の精度を示しており,\kodomoのすべてを学習データに追加した場合の精度も示している.また,図~\ref{fig:lc-self-POS},\ref{fig:lc-rand-POS}は,品詞一致の精度,図~\ref{fig:lc-self-BS2},\ref{fig:lc-rand-BS2}は,原形まで一致した精度を示している.ただし,学習データでは,コーパス\hinokiの漢字等による原形をそのまま原形として利用したため,学習データの原形に表記ゆれが存在する.そこで,原形一致精度の評価時には,\jpn[仔牛]{}と\jpn[子牛]{},\jpn[雄]{}と\jpn[オス]{}のように,表記ゆれだとみなせるものは正解に含めている\footnote{表記ゆれの判断は,日本語語彙大系によった.}.また,\mecabは漢字表記による原形推定はしないため,ひらがなの原形も正解とした.標準表記の決定,学習データの標準表記への変換は今後の課題としたい.\subsection{提案手法の効果:評価(2)}\label{sec:eva2}提案手法で作成した\bestHINOKIの効果を調べる.図~\ref{fig:lc-self-POS}〜\ref{fig:lc-rand-BS2}から,すべての場合で,\bestHINOKIに絵本データを追加した方が,絵本データだけの場合や,\bestHINOKIだけの場合より精度が向上しており,絵本とは全く異なる一般向けのテキストであっても,\bestHINOKIを学習に利用する方が良いことがわかる.特に,図~\ref{fig:lc-rand-POS},\ref{fig:lc-rand-BS2}に示した通り,別の絵本(\random)に対する精度は,学習データに絵本だけを用いる場合より非常に高い.\randomの場合,品詞一致でも,原形一致でも,絵本の学習データだけで\kytea\(\bestHINOKI)と同等の精度を得るには,\kodomoのフルアノテーションデータ約11,000行,90,000形態素が必要である.これは,\kodomoのフルアノテーションデータの8/10近くにあたる.これだけのフルアノテーション作業には相当な時間とコストがかかっており,提案手法による自動的な変換による精度向上の効果は高い.なお,\randomに対する精度は,すべての\kodomoを学習データに追加した場合で,形態素区切り98.3\%,品詞完全一致91.1\%,品詞大分類94.7\%,原形一致89.0\%だった.これが,新しい絵本を解析する場合の精度にあたる.\subsection{アノテーション方針の提案}\label{sec:ano-houshin}本節では,同じ絵本を学習データとして追加した場合の効果を調べる.図~\ref{fig:lc-self-POS},\ref{fig:lc-self-BS2}から,同じ絵本の学習データは非常に有効であることがわかる.\bestHINOKIを使わない場合でも,同じ絵本の10分の2を学習データとして用いただけで\kytea\(\bestHINOKI)の精度より高い精度を得ることができる.このように,同じ絵本のデータの追加のほうが効果が圧倒的に高いため,同じ分量のアノテーションを行うのであれば,少しずつでも,できるかぎり全ての絵本からアノテーションすることが望ましい.同じ絵本のアノテーションが特に有効な理由には,同じ固有名詞(\ref{sec:errors},\ref{sec:add-proc}節参照)や,同じ表現が出現することがあげられるだろう.絵本は,例えば,例\refs{ex-repeat}のように一部の語を変えて同じ表現が繰り返されることが多く,一部をアノテーションする効果が高い.なお,\refs{ex-repeat}の絵本の場合,\jpn[なんてなく?]{}は11回出現している.\begin{exe}\ex\label{s:ex-repeat}かえるは\\\ul{なんてなく?}\\にわとりは\\\ul{なんてなく?}\hspace{5mm}\small(凹工房「どうぶつなんてなく?」p.~2--3(2008,ポプラ社))\end{exe}\subsection{誤り内容の変化}\label{sec:errors}\newcommand{\COM}{}\begin{figure}[b]\begin{minipage}{0.48\hsize}\begin{center}\includegraphics{21-3ia1008f5.eps}\end{center}\caption{\COM(\kodomo,動詞)}\label{fig:lc-self-err-VERB}\end{minipage}\hfill\begin{minipage}{0.48\hsize}\begin{center}\includegraphics{21-3ia1008f6.eps}\end{center}\caption{\COM(\random,動詞)}\label{fig:lc-rand-err-VERB}\end{minipage}\end{figure}\begin{figure}[b]\setlength{\captionwidth}{197pt}\begin{minipage}{199pt}\includegraphics{21-3ia1008f7.eps}\hangcaption{\COM(\kodomo,名詞-固有名詞)}\label{fig:lc-self-err-PROP}\end{minipage}\hfill\begin{minipage}{199pt}\includegraphics{21-3ia1008f8.eps}\hangcaption{\COM(\random,名詞-固有名詞)}\label{fig:lc-rand-err-PROP}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.48\hsize}\begin{center}\includegraphics{21-3ia1008f9.eps}\end{center}\caption{\COM(\kodomo,感動詞)}\label{fig:lc-self-err-KANDO}\end{minipage}\hfill\begin{minipage}{0.48\hsize}\begin{center}\includegraphics{21-3ia1008f10.eps}\end{center}\caption{\COM(\random,感動詞)}\label{fig:lc-rand-err-KANDO}\end{minipage}\end{figure}本節では,絵本を学習データに追加した場合の,誤り内容の変化を調査する.解析を誤った語を品詞毎に集計し,\pos{動詞}\pos{名詞-固有名詞}\pos{感動詞}について,それぞれ図~\ref{fig:lc-self-err-VERB}と\ref{fig:lc-rand-err-VERB},\ref{fig:lc-self-err-PROP}と\ref{fig:lc-rand-err-PROP},\ref{fig:lc-self-err-KANDO}と\ref{fig:lc-rand-err-KANDO}に示した.図~\ref{fig:lc-self-err-VERB}〜\ref{fig:lc-rand-err-KANDO}では,誤りの絶対数と,全誤り数に占める対象品詞の割合をプロットしている.誤りの絶対数はどの品詞でも減少しているが,全誤りに占める各品詞の割合を見ると,比較的学習しにくい品詞がわかる.\pos{動詞}(図~\ref{fig:lc-self-err-VERB},\ref{fig:lc-rand-err-VERB})は\kodomoでも\randomでも相対的に上昇している.\pos{固有名詞}(図~\ref{fig:lc-self-err-PROP},\ref{fig:lc-rand-err-PROP})の場合,\kodomoでは急激に割合が下がるが,\randomでは逆に相対的に上昇している.\pos{固有名詞}は,絵本間で共通のものが少なく,しかも,ひらがな(\mbox{\jpn[ぐり]{}}\footnote{\label{prop1}「ぐりとぐら」(なかがわりえことやまわきゆりこ(1963,福音館書店))などより.},\jpn[ぐら]{}$^{\ref{prop1}}$,\jpn[もものこ]{}\footnote{「もものこさん」(あまんきみこさくかのめかよこえ(2011,福音館書店))より.}など)や,ひらがなカタカナ混じり(\jpn[ウサこ]{}\footnote{\label{prop2}「いけるといいねトイレ」(原作やなせたかし作画東京ムービー(2001,フレーベル館))などより.},\jpn[ネコみ]{}$^{\ref{prop2}}$など)など,非常に解析が難しいものが多いからだと思われる.対照的に,\pos{感動詞}(図~\ref{fig:lc-self-err-KANDO},\ref{fig:lc-rand-err-KANDO})は,\randomでも誤る割合が下がっている.これは,異なる絵本でも共通の表現が多いためだと考えられる.例えば,\random側で,\bestHINOKIだけでは正解しなかったが,絵本を追加していくことで正解するようになった感動詞には,\jpn[あっぷっぷ]{},\jpn[ごくろうさま]{},\mbox{\jpn[ギャオー]{}}などがあった. \section{考察} \label{sec:kousatsu}本章では,前章までに得たモデルをさらに改良するための問題分析と改良案の提示を行う.まず,\ref{sec:age-acc}節では,対象年齢と形態素解析精度の関係に着目し,精度低下のより詳細な原因調査を行う.\ref{sec:add-proc}節では,絵本のラベルありデータを追加しても精度が向上しにくかった固有名詞に焦点をあて,固有名詞の部分アノテーションによる精度向上の効果を検証する.さらに,\ref{sec:other}節では,提案手法の絵本以外のコーパスへの適用可能性についても考察する.\subsection{対象年齢と形態素解析精度}\label{sec:age-acc}\ref{sec:ehon-db}節で述べたように,\kodomoは対象年齢がはっきり設定されている.そこで本節では,\kodomoを用いて,対象年齢と形態素解析精度の関係を分析する.\kytea\(\bestHINOKI)と,\mecabを使って元データを解析した場合の対象年齢と精度の関係を図~\ref{fig:age-acc}に示す.ただし,図~\ref{fig:age-acc}では,\kod{012}を2歳児にプロットしている.図~\ref{fig:age-acc}から,\kytea\(\bestHINOKI)でも\mecabでも,対象年齢が低いほど形態素解析精度も低いことがわかる.どちらの解析器も,基本的に一般向けのコーパスを学習データとしてモデルが作成されており,対象年齢が上がるとより一般向けの文に近づいていることが図~\ref{fig:age-acc}からも読み取れる.\begin{figure}[b]\begin{center}\includegraphics{21-3ia1008f11.eps}\end{center}\caption{対象年齢と形態素解析(形態素区切りと品詞一致)精度の関係(\kodomo)}\label{fig:age-acc}\end{figure}\begin{table}[b]\caption{文字種毎の数と割合:絵本の対象年齢ごと(\kodomo)}\label{tb:mojisyu-kodomo}\input{1008table08.txt}\end{table}表~\ref{tb:mojisyu}(\ref{sec:mojisyu}節)で示したように,絵本と京大コーパスなどに出現する文字種を比較すると,絵本はひらがなと空白が多く,漢字が少ない点が顕著に異なっていた.また,\ref{sec:ana-sphan}節では,特にひらがなが形態素解析精度の低下に非常に関わることを示した.そこで,対象年齢によってそれらの文字種の出現傾向が変わるかどうかを,\kodomoのデータを使って調査した(表~\ref{tb:mojisyu-kodomo}).表~\ref{tb:mojisyu-kodomo}によると,文字種の出現傾向に絵本全体の傾向と顕著な違いは見られず,対象年齢によって明らかな変化は見られなかった.つまり,ひらがなの多さだけが精度低下の原因ではないことがわかる.ただし,表~\ref{tb:mojisyu-kodomo}に参考として示した,行平均の文字数と形態素数は,対象年齢が上がるにつれ増加している.京大コーパスと\lxdの文平均の文字数や形態素数(表~\ref{tb:mojisyu})と比較すると,文平均か,行平均かの差はあるが,対象年齢が上がるにつれ\lxdの数値に近づいており,辞書の例文や定義文に近い長さになってきていることがわかる.つまり,語の羅列ではなく,文になってきていると考えられる.そこで,文字種だけではわからない差分を調査するため,空白を除く全形態素に占める品詞毎の割合を調査した.その結果,対象年齢によってもっとも変化が大きかった品詞は,\pos{助詞}\pos{記号}\pos{副詞}\pos{感動詞}だった.図~\ref{fig:age-hinshi}に,これらの品詞の占める割合の対象年齢毎の変化と,\lxdでの割合を示す.ここで,\pos{助詞}の割合は対象年齢と共に単調増加しており,単語の羅列から助詞などを含む文となっていることがわかる.\pos{記号}は,句読点や括弧などを含むため,句読点を使った文や会話文の量や長さに関係すると考えられる.\pos{記号}は,\kod{012}と\kod{3}の間で大きく増加しているが,単調増加ではなく,\kod{5}や\lxdでの割合はむしろ\kod{3}や\kod{4}より低い.これは文が長くなるため記号の占める割合が低くなるのだと考えられる.例えば,会話文の場合,記号である\jpn[「]{}と\jpn[」]{}の間に発話内容が記述されるが,発話内容が長くなれば,記号の占める割合は低くなる.一方,\pos{副詞}の割合は対象年齢に応じて単調減少している.\pos{副詞}には擬音語や擬態語が多く含まれ,対象年齢が低いほど,そうした語の含まれる割合が高いことがわかる.また,\pos{感動詞}の割合は\kod{012}と\kod{3}の間で大きく減少している.\pos{感動詞}には挨拶などが含まれ,より小さな子供向けの絵本では,挨拶などが多く出現するためだと思われる.\begin{figure}[b]\begin{center}\includegraphics{21-3ia1008f12.eps}\end{center}\caption{空白を除く全形態素に占める品詞割合:絵本対象年齢毎(\kodomo)と\lxd}\label{fig:age-hinshi}\end{figure}なお,絵本毎に精度を調査すると,品詞一致精度で最も精度の高かった絵本と,最も精度の低かった絵本は,両方とも\kod{012}に含まれた.これらは,一行一形態素程度の非常に短い文からなっており,\jpn[ぴょん]{}\jpn[ぼちゃん]{}\jpn[ぶらぶら]{}などの擬音語や擬態語の繰り返しがほとんどだった.文脈はほぼないため,学習データや辞書に該当する語が存在するかどうかに依存して精度が大きく変化したとみられる.そのため,より対象年齢の低い子供向け絵本の解析精度の向上は,擬音語や擬態語の辞書や学習データの拡充にかかっているといえるだろう.今後は,擬音語や擬態語の収集による精度向上にも取り組みたい.\subsection{固有名詞のアノテーション}\label{sec:add-proc}\ref{sec:errors}節で述べたように,固有名詞は他の絵本を追加しても解析精度が向上しにくく,学習データなしでは解析が難しい語が多い.その上,固有名詞の誤りは数値以上に精度が悪い印象を与えかねない.しかし一方で,活用語や非自立語などに比べ,固有名詞のアノテーションや辞書への追加は非常に容易である.ここで,\randomに出現した固有名詞でもっとも誤り回数が多かった(各4回)\jpn[ぐり]{}と\jpn[ぐら]{}に着目する.これらを辞書登録しただけでは解析精度は変わらなかったが,\kyteaでは,部分アノテーションしたデータを学習データに加えることができる(\ref{sec:morph-kytea}章).そこで,\jpn[ぐり]{}と\mbox{\jpn[ぐら]{}}に対し部分アノテーションを行い,その効果を検証した.部分アノテーションは以下の流れで行った.まず,[1]対象語を含む文を字面一致で抽出し,次に,[2]人手で該当箇所に対象語以外の語が含まれないか確認し,最後に,[3]自動的に部分アノテーションを実行した.ここで,\jpn[ぐり]{}と\jpn[ぐら]{}の場合,[2]の確認作業で,\jpn[どん\ul{ぐり}]{},\jpn[うす\ul{ぐら}い]{},\mbox{\jpn[\ul{ぐら}い]{}}が混じっていることがわかった.[3]では,最長一致によってこれらの語のアノテーションも自動的に行った.例えば,文\refs{gurigura}の場合,下線部をそれぞれ,\jpn[ぐり/名詞-固有名詞-人名-一般/グリ/ぐり]{},\jpn[ぐらい/助詞-副助詞/グライ/ぐらい]{}として部分アノテーションした.\begin{exe}\ex\label{s:gurigura}\ul{ぐり}がけいとをまくと、えんどうまめ\ul{ぐらい}になりました。\\\small(なかがわりえことやまわきゆりこ「ぐりとぐらのえんそく」p.~15(1979,福音館書店))\end{exe}これにより部分アノテーションされたのは,\jpn[ぐら]{}135箇所,\jpn[ぐり]{}131箇所,\jpn[どんぐり]{}1箇所,\jpn[うすぐらい]{}2箇所,\jpn[ぐらい]{}6箇所だった.これらの部分アノテーションデータを学習データに追加したところ,原形一致の精度が$+0.2$\%改良された.品詞一致までの精度は,小数点第一位までの比較では同じだったが,\jpn[ぐり]{}と\jpn[ぐら]{}に関する誤りはなくなった.固有名詞は学習しにくく,かつ,同じ絵本では何度も出現するため,固有名詞のみを先にアノテートすることは有効だと考えられる.固有名詞を含めた固有表現や未知語の抽出方法に関する研究は多く\cite{Murawaki:Kurohashi:2010j,Katsuki:Sasano:Kawahara:Kurohashi:2011j,Sasano:Kurohashi:2007j},特に格フレーム情報を利用する方法\cite{Sasano:Kurohashi:2008j}は,絵本でも有効だと考えられる.今後は,絵本やシリーズ毎の固有名詞の抽出や,該当固有名詞を含む他の語の確認・抽出を自動・半自動化することにより,精度向上を目指したい.また,\citeA{Neubig:Nakata:Mori:2011}は,SVM平面からの距離を用いて確信度の低いデータを選び,部分アノテーションして学習データに追加する能動学習を提案している.固有名詞のように,一気にアノテートできる部分を学習に追加した後は,\citeA{Neubig:Nakata:Mori:2011}と同様に能動学習を行うことが考えられる.\subsection{他分野への適用可能性}\label{sec:other}本節では,提案手法の絵本以外への適用可能性について考察する.提案手法は,既存の言語資源と解析対象の言語資源の特徴が大きく異なる場合に有用である.例えば,小学生は学年毎に習う配当漢字が決められている.そのため教科書では,習っていない漢字をひらがなで記載するため,漢字とひらがなが一般向け文章とは全く異なる交じり方をする場合があり,形態素解析を難しくしている.例えば,\mbox{\jpn[音楽]{}}の場合,\jpn[音]{}は1年生,\mbox{\jpn[楽]{}}は2年生の配当漢字であるため,\mbox{\jpn[音がく]{}}と記載される場合がある\footnote{畑中良輔ほか「小学生の音楽2」(2006,教育芸術社)より.}.そこで,教科書等の学童用の文章の解析用には,学年配当漢字に基づいて利用できる漢字を制限し,それ以外はひらがなに変換して学習データを作成することが考えられる.あるいは,Webなどに出現するくだけた文章の解析用として,文末表現の変換,利用語彙の制限などにより,学習データを変換することも考えられる.このように,学習データを対象分野に合わせて自動的に変換するルールを決定できる場合には,本提案手法が適用できると考えられる. \section{まとめと今後の課題} \label{sec:conclusion}これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている.しかし分野の異なるテキストに対しては,既存の解析モデルで,必ずしも高い解析精度を得られるわけではない.そこで本稿では,既存の言語資源を対象分野の特徴にあわせて自動的に変換する手法を提案した.本稿では,絵本を解析対象とし,既存の言語資源を絵本の特徴にあわせて自動的に変換し,学習に用いることで精度向上できることを示した.まず,\ref{sec:target}章では,解析対象である絵本データベースの紹介を行った.また,新聞などのテキストと絵本のテキストの文字種毎の割合を比較し,絵本では,漢字が少なく,空白とひらがなが多いことを示した.\ref{sec:morph-kytea}章では,実験で利用する形態素解析器\kyteaの学習機能について紹介した.また,\ref{sec:bunseki}章では,絵本の形態素解析における問題分析のため,絵本の評価用データに対し,ひらがなを漢字に変換したり,空白を削除するなどの処理を行った場合の解析精度の変化を調査し,ひらがなが多いことが解析精度低下の主な原因であることを示した.\ref{sec:morph}章では,\ref{sec:target}章と\ref{sec:bunseki}章の分析結果に基づき,既存の言語資源を絵本の特徴にあわせて変換する手法を提案した.\ref{sec:exp-adult}章では,提案手法によって得た言語資源だけを学習に用いた教師なし分野適応の実験を行い,既存の一般的な形態素解析モデルより高い精度(品詞一致精度で88.5\%)が得られることを示した.また\ref{sec:exp-add-ehon}章では,絵本自体のラベルありデータを学習に用いた教師あり分野適応の実験を行い,学習曲線を調べた.ここで,提案手法によって得た既存言語資源によるラベルありデータは,絵本自体のラベルありデータ約11,000行,90,000形態素と同程度の効果があることを示した.さらに,絵本自体にアノテーションを行う場合,できるかぎり全ての絵本から,アノテーション対象を選択することが効率的であることを示した.また,新しい絵本に対する解析精度は,形態素区切り98.3\%,品詞完全一致で91.1\%,品詞大分類で94.7\%,漢字の原形一致で89.0\%が見込めることを示した.\ref{sec:kousatsu}章の考察では,絵本の対象年齢毎の形態素解析精度の変化を調査し,対象年齢が低いほど解析精度も低く,その原因としては,文字種より,助詞などを含む文としての形態を取るかどうかに関連することを示した(\ref{sec:age-acc}節).また,他の絵本を学習データに追加しても,固有名詞の推定精度の向上は難しいが,固有名詞のアノテーションは,活用語などに比べて容易であることから,固有名詞に対して半自動的に部分アノテーションを行うことで,固有名詞の解析精度が向上できることを示した(\ref{sec:add-proc}節).今後は,標準表記を決定し,学習データの標準表記への変換と,漢字による原形推定精度の向上に取り組みたい.また,絵本やシリーズ単位での,固有名詞(人や動物の名前)の自動的発見,および,固有名詞の(半)自動的な部分アノテーションに取り組みたい.また,本稿で紹介した絵本用形態素解析モデルを利用し,子供向けの文を対象とした難易度測定や絵本の対象年齢の推定\cite{Fujita:Kobayashi:Taira:Minami:Tanaka:2014j},子供の発達や興味に応じた絵本リコメンデーションを行う予定である.\acknowledgment\kyteaの利用に際して大変ご協力をいただいた京都大学森信介先生,奈良先端科学技術大学院大学GrahamNeubig先生に感謝する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bond,Fujita,\BBA\Tanaka}{Bondet~al.}{2006}]{Bond:Fujita:Tanaka:2006}Bond,F.,Fujita,S.,\BBA\Tanaka,T.\BBOP2006\BBCP.\newblock\BBOQ{TheHinokiSyntacticandSemanticTreebankofJapanese.}\BBCQ\\newblock{\BemLanguageResourcesandEvaluation(SpecialissueonAsianlanguagetechnology)},{\Bbf40}(3--4),\mbox{\BPGS\253--261}.\bibitem[\protect\BCAY{藤田,小林,平,南,田中}{藤田ら}{2014}]{Fujita:Kobayashi:Taira:Minami:Tanaka:2014j}藤田早苗\JBA小林哲生\JBA平博順\JBA南泰浩\JBA田中貴秋\BBOP2014\BBCP.\newblock絵本を基にした対象年齢推定方法の検討.\newblock\Jem{人工知能学会第28回全国大会発表論文集},3D4-4.\bibitem[\protect\BCAY{萩原\JBA関根}{萩原\JBA関根}{2012}]{Hagiwara:Sekine:2012j}萩原正人\JBA関根聡\BBOP2012\BBCP.\newblock半教師あり学習に基づく大規模語彙に対応した日本語単語分割.\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\1280--1283}.\bibitem[\protect\BCAY{服部\JBA\青山}{服部\JBA\青山}{2013}]{Hattori:Aoyama:2013j}服部正嗣\JBA青山一生\BBOP2013\BBCP.\newblock\JBOQ{グラフ索引を用いた絵本の類似探索〜特徴の融合と結果のグラフ可視化〜}.\JBCQ\\newblock\Jem{情報処理学会研究会第10回ネットワーク生態学シンポジウム}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原ら}{1997}]{GoiTaikeij}池原悟\JBA宮崎雅弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock日本語語彙大系.\newblock岩波書店.\bibitem[\protect\BCAY{神嶌}{神嶌}{2010}]{Kamishima:2010j}神嶌敏弘\BBOP2010\BBCP.\newblock転移学習.\newblock\Jem{人工知能学会誌(JSAI)},{\Bbf25}(4),\mbox{\BPGS\572--580}.\bibitem[\protect\BCAY{笠原\JBA佐藤\JBABond\JBA田中\JBA藤田\JBA金杉\JBA天野}{笠原ら}{2004}]{Lexeed:2004j}笠原要\JBA佐藤浩史\JBABondF.\JBA田中貴秋\JBA藤田早苗\JBA金杉友子\JBA天野昭成\BBOP2004\BBCP.\newblock「基本語意味データベース:Lexeed」の構築.\newblock\Jem{情報処理学会自然言語処理研究会(2004-NL-159)},\mbox{\BPGS\75--82}.\bibitem[\protect\BCAY{勝木\JBA笹野\JBA河原\JBA黒橋}{勝木ら}{2011}]{Katsuki:Sasano:Kawahara:Kurohashi:2011j}勝木健太\JBA笹野遼平\JBA河原大輔\JBA黒橋禎夫\BBOP2011\BBCP.\newblockWeb上の多彩な言語表現バリエーションに対応した頑健な形態素解析.\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\1003--1006}.\bibitem[\protect\BCAY{工藤\JBA市川\JBATalbot\JBA賀沢}{工藤ら}{2012}]{Kudo:Ichikawa:Talbot:Kazawa:2012j}工藤拓\JBA市川宙\JBATalbotD.\JBA賀沢秀人\BBOP2012\BBCP.\newblockWeb上のひらがな交じり文に頑健な形態素解析.\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\1272--1275}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Mecab}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplying{C}onditional{R}andom{F}ieldsto{J}apanese{M}orphological{A}nalysis.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,In{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{京都大学黒橋・河原研究室}{京都大学黒橋・河原研究室}{2012}]{juman:7.0j}京都大学黒橋・河原研究室\BBOP2012\BBCP.\newblock日本語形態素解析システムJUMANversion7.0使用説明書.\bibitem[\protect\BCAY{松本\JBA高岡\JBA浅原}{松本ら}{2008}]{chasen:2.4.4j}松本裕治\JBA高岡一馬\JBA浅原正幸\BBOP2008\BBCP.\newblock形態素解析システム『茶筌』version2.4.4使用説明書.\bibitem[\protect\BCAY{森}{森}{2012}]{Mori:2012j}森信介\BBOP2012\BBCP.\newblock自然言語処理における分野適応.\newblock{\Jem人工知能学会誌(JSAI)},{\Bbf27}(4),\mbox{\BPGS\365--372}.\bibitem[\protect\BCAY{森\JBA中田\JBANeubig\JBA河原}{森ら}{2011}]{Mori:Nakata:Graham:Kawahara:2011j}森信介\JBA中田陽介\JBANeubig,G.\JBA河原達也\BBOP2011\BBCP.\newblock点予測による形態素解析.\newblock{\Jem自然言語処理},{\Bbf18}(4),\mbox{\BPGS\367--381}.\bibitem[\protect\BCAY{村脇\JBA黒橋}{村脇\JBA黒橋}{2010}]{Murawaki:Kurohashi:2010j}村脇有吾\JBA黒橋禎夫\BBOP2010\BBCP.\newblock形態論的制約を用いたオンライン未知語獲得.\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\55--75}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{Neubig:Nakata:Mori:2011}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQ{PointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechologies},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{小椋\JBA綿巻}{小椋\JBA\綿巻}{2008}]{Ogura:Watamaki:2008}小椋たみ子\JBA綿巻徹\BBOP2008\BBCP.\newblock日本の子どもの語彙発達の規準研究:日本語マッカーサー乳幼児言語発達質問紙から.\newblock\Jem{発達・療育研究},{\Bbf24},\mbox{\BPGS\3--42}.\bibitem[\protect\BCAY{Raikes,Pan,Luze,Tamis-LeMonda,Brooks-Gunn,Constantine,Tarullo,Raikes,\BBA\Rodriguez}{Raikeset~al.}{2006}]{Mother-child:Ehon:2006}Raikes,H.,Pan,B.~A.,Luze,G.,Tamis-LeMonda,C.~S.,Brooks-Gunn,J.,Constantine,J.,Tarullo,L.~B.,Raikes,H.~A.,\BBA\Rodriguez,E.~T.\BBOP2006\BBCP.\newblock\BBOQ{Mother-childBookreadinginLow-incomeFamilies:CorrelatesandOutcomesDuringtheFirstThreeYearsofLife}.\BBCQ\\newblock{\BemChildDevelopment},{\Bbf77}(4),\mbox{\BPGS\924--953}.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2007}]{Sasano:Kurohashi:2007j}笹野遼平\JBA黒橋禎夫\BBOP2007\BBCP.\newblock形態素解析における連濁および反復形オノマトペの自動認識.\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\819--822}.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2008}]{Sasano:Kurohashi:2008j}笹野遼平\JBA黒橋禎夫\BBOP2008\BBCP.\newblock大域的情報を用いた日本語固有表現認識.\newblock\Jem{情報処理学会論文誌},{\Bbf49}(11),\mbox{\BPGS\3765--3776}.\bibitem[\protect\BCAY{平\JBA藤田\JBA小林}{平ら}{2012}]{Taira:Fujita:Kobayashi:2012j}平博順\JBA藤田早苗\JBA小林哲生\BBOP2012\BBCP.\newblock絵本テキストにおける高頻度語彙の分析.\newblock\Jem{情報処理学会関西支部支部大会,F-103}.\end{thebibliography}\begin{biography}\bioauthor{藤田早苗}{1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTT日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所研究主任.博士(工学).自然言語処理の研究に従事.2013年言語処理学会優秀論文賞受賞,言語処理学会,ACL各会員.}\bioauthor{平博順}{1996年東京大学理学部化学科大学院修士課程修了.同年,日本電信電話株式会社入社.2014年までNTTコミュニケーション科学基礎研究所.現在,大阪工業大学情報科学部准教授.博士(工学).自然言語処理等の研究に従事.2013年言語処理学会優秀論文賞受賞,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{小林哲生}{2004年東京大学大学院総合文化研究科博士課程修了.博士(学術).現在,NTTコミュニケーション科学基礎研究所メディア情報研究部主任研究員(特別研究員).幼児の言語発達研究に従事.}\bioauthor{田中貴秋}{1994年大阪大学基礎工学部制御工学科卒業.1996年同大学院修士課程修了.同年,日本電信電話株式会社入社.2007年〜2012年西日本電信電話株式会社研究開発センタ勤務.現在,NTTコミュニケーション科学基礎研究所研究主任.自然言語処理の研究に従事.言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V07N04-08
\section{はじめに} \label{sec:introduction}日本語は語順が自由であると言われている.しかし,これまでの言語学的な調査によると実際には,時間を表す副詞の方が主語より前に来やすい,長い修飾句を持つ文節は前に来やすいといった何らかの傾向がある.もしこの傾向をうまく整理することができれば,それは文を解析あるいは生成する際に有効な情報となる.本論文では語順とは,係り相互間の語順,つまり同じ文節に係っていく文節の順序関係を意味するものとする.語順を決定する要因にはさまざまなものがある.それらの要因は語順を支配する基本的条件として文献\cite{Saeki:98}にまとめられており,それを我々の定義する語順について解釈しなおすと次のようになる.\begin{itemize}\item成分的条件\begin{itemize}\item深く係っていく文節は浅く係っていく文節より前に来やすい.深く係っていく文節とは係り文節と受け文節の距離が長い文節のことを言う.例えば,係り文節と受け文節の呼応を見ると,基本的語順は,感動詞などを含む文節,時間を表す副詞を含む文節,主語を含む文節,目的語を含む文節の順になり,このとき,時間を表す副詞を含む文節は主語を含む文節より深く係っていく文節であると言う.このように係り文節と受け文節の距離を表す概念を係りの深さという.\item広く係っていく文節は狭く係っていく文節より前に来やすい.広く係っていく文節とは受け文節を厳しく限定しない文節のことである.例えば,「東京へ」のような文節は「行く」のように何らかの移動を表す動詞が受け文節に来ることが多いが,「私が」のような文節は受け文節をそれほど限定しない.このとき,「私が」は「東京へ」より広く係っていく文節であると言う.このように係り文節がどの程度受け文節を限定するかという概念を係りの広さと言う.\end{itemize}\item構文的条件\begin{itemize}\item長い文節は短い文節より前に来やすい.長い文節とは修飾句の長い文節のことを言う.\item文脈指示語を含む文節は前に来やすい.\item承前反復語を含む文節は前に来やすい.承前反復語とは前文の語を承けて使われている語のことを言う.例えば,「あるところにおじいさんとおばあさんがおりました.おじいさんは山へ柴刈におばあさんは川へ洗濯に行きました.」という文では,2文目の「おじいさん」や「おばあさん」が承前反復語である.\item提題助詞「は」を伴う文節は前に来やすい.\end{itemize}\end{itemize}以上のような要素と語順の関係を整理する試みの一つとして,特に係りの広さに着目し,辞書の情報を用いて語順を推定するモデルが提案された\cite{Tokunaga91b}.しかし,動詞の格要素の語順に限定しており必須格しか扱えない,文脈情報が扱えないなどの問題点が指摘されている\cite{Saeki:98}.語順を推定するモデルとしては他にN-gramモデルを用いたもの\cite{Maruyama:94}があるが,これは一文内の形態素の並びを推定するモデルであり,我々とは問題設定が異なる.また,上に箇条書きとしてあげたような要素は特に考慮していない.英語については,語順を名詞の修飾語の順序関係に限定し統計的に推定するモデルが提案された\cite{Shaw:99}が,語順を決定する要因として多くの要素を同時に考慮することはできないため,日本語の語順に対して適用するのは難しい.本論文では,上に箇条書きとしてあげたような要素と語順の傾向との関係をコーパスから学習する手法を提案する.この手法では,語順の決定にはどの要素がどの程度寄与するかだけでなく,どのような要素の組み合わせのときにどのような傾向の語順になるかということもコーパスから自動学習することができる.個々の要素の寄与の度合は最大エントロピー(ME)モデルを用いて効率良く学習する.学習されたモデルの性能は,そのモデルを用いて語順を決めるテストを行ない,元の文における語順とどの程度一致するかを調べることによって定量的に評価することができる.正しい語順の情報はテキスト上に保存されているため,学習コーパスは必ずしもタグ付きである必要はなく,生コーパスを既存の解析システムで解析した結果を用いてもよい.後節の実験で示すように,既存の解析システムの精度が90\%程度であったとしても学習コーパスとして十分に役割を果たすのである. \section{語順の学習と生成} \label{sec:learning_and_generation}\subsection{学習モデル}\label{sec:model}この節ではどの語順が妥当であるかを確率として計算するためのモデルについて述べる.モデルとしては,MEに基づく確率モデルを採用する.まず,MEの基本について説明し,その後,MEに基づく確率モデルについて述べる.\subsubsection{ME(最大エントロピー)モデル}\label{sec:me_model}一般に確率モデルでは,文脈(観測される情報のこと)とそのときに得られる出力値との関係は既知のデータから推定される確率分布によって表される.いろいろな状況に対してできるだけ正確に出力値を予測するためには文脈を細かく定義する必要があるが,細かくしすぎると既知のデータにおいてそれぞれの文脈に対応する事例の数が少なくなりデータスパースネスの問題が生じる.MEモデルでは,文脈は素性と呼ばれる個々の要素によって表され,確率分布は素性を引数とした関数として表される.そして,各々の素性はトレーニングデータにおける確率分布のエントロピーが最大になるように重み付けされる.このエントロピーを最大にするという操作によって,既知データに観測されなかったような素性あるいはまれにしか観測されなかった素性については,それぞれの出力値に対して確率値が等確率になるようにあるいは近付くように重み付けされる.このように未知のデータに対して考慮した重み付けがなされるため,MEモデルは比較的データスパースネスに強いとされている.このモデルは例えば言語現象などのように既知データにすべての現象が現れ得ないような現象を扱うのに適したモデルであると言える.以上のような性質を持つMEモデルでは,確率分布の式は以下のように求められる.文脈の集合を$B$,出力値の集合を$A$とするとき,文脈$b(\in$$B)$で出力値$a(\in$$A)$となる事象$(a,b)$の確率分布$p(a,b)$をMEにより推定することを考える.文脈$b$は$k$個の素性$f_j(1\leqj\leqk)$の集合で表す.そして,文脈$b$において,素性$f_j$が観測されかつ出力値が$a$となるときに1を返す以下のような関数を定義する.\begin{eqnarray}\label{eq:f}g_{j}(a,b)&=&\left\{\begin{array}[c]{l}1,\{\rmif}\exist(b,f_{j})=1\\&\出力値=a\\0,\それ以外\end{array}\right.\end{eqnarray}これを素性関数と呼ぶ.ここで,$exist(b,f_j)$は,文脈$b$において素性$f_j$が観測されるか否かによって1あるいは0の値を返す関数とする.次に,それぞれの素性が既知のデータ中に現れた割合は未知のデータも含む全データ中においても変わらないとする制約を加える.つまり,推定するべき確率分布$p(a,b)$による素性$f_j$の期待値と,既知データにおける経験確率分布$\tilde{p}(a,b)$による素性$f_j$の期待値が等しいと仮定する.これは以下の制約式で表せる.\begin{eqnarray}\label{eq:constraint0}\sum_{a\inA,b\inB}p(a,b)g_{j}(a,b)&=&\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\qfor\p\forallf_{j}\(1\leqj\leqk)\end{eqnarray}この式で,$p(a,b)=p(b)p(a|b)\approx\tilde{p}(b)p(a|b)$という近似を行ない以下の式を得る.\begin{eqnarray}\label{eq:constraint}\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)g_{j}(a,b)&=&\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\qfor\p\forallf_{j}\(1\leqj\leqk)\end{eqnarray}ここで,$\tilde{p}(b)$,$\tilde{p}(a,b)$は,$freq(b)$,$freq(a,b)$をそれぞれ既知データにおける事象$b$の出現頻度,出力値$a$と事象$b$の共起頻度として以下のように推定する.\begin{eqnarray}\tilde{p}(b)&=&\frac{freq(b)}{\displaystyle\sum_{b\inB}freq(b)}\\\tilde{p}(a,b)&=&\frac{freq(a,b)}{\displaystyle\sum_{a\inA,b\inB}freq(a,b)}\end{eqnarray}次に,式(\ref{eq:constraint})の制約を満たす確率分布$p(a,b)$のうち,エントロピー\begin{eqnarray}\label{eq:entropy}H(p)&=&-\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)\log\left(p(a,b)\right)\end{eqnarray}を最大にする確率分布を推定するべき確率分布とする.これは,式(\ref{eq:constraint})の制約を満たす確率分布のうちで最も一様な分布となる.このような確率分布は唯一存在し,以下の確率分布$p^{*}$として記述される.\begin{eqnarray}\label{eq:p}p^{*}(a|b)&=&\frac{\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}{\sum_{a\inA}\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}\q(0\leq\alpha_{a,j}\leq\infty)\end{eqnarray}ただし,\begin{eqnarray}\label{eq:alpha}\alpha_{a,j}&=&e^{\lambda_{a,j}}\end{eqnarray}であり,$\lambda_{a,j}$は素性関数$g_{j}(a,b)$の重みである.この重みは文脈$b$のもとで出力値$a$となることを予測するのに素性$f_{j}$がどれだけ重要な役割を果たすかを表している.訓練集合が与えられたとき,$\lambda_{a,j}$の推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra95}などが用いられる.式(\ref{eq:p})の導出については文献\cite{Jaynes:57,Jaynes:79}を参照されたい.\subsubsection{語順モデル}\label{sec:word_order_model}本節では語順を学習するためのMEモデルについて述べる.ここで語順は,ある一つの文節に対しそれに係る文節(係り文節)が複数あるとき,その係り文節の順序を語順と定義する.係り文節の数はさまざまであるが,係り文節の数によらず二つずつ取り上げてその順序を学習するモデルを提案する\footnote{係り文節のうち二つずつではなく,三つあるいはそれ以上ずつ取り上げてその順序を学習するモデルを考えることもできる.しかし,データスパースネスの問題を考え,本論文では二つずつとりあげて順序を学習するモデルとした.}.これを語順モデルと呼ぶ.このモデルは前節のMEモデルにおける式(\ref{eq:p})を用いて以下のように求められる.ある文脈$b$において文節$B$に係る文節が二つあるときそれぞれを文節$B_1$と文節$B_2$とすると,$B_1$の次に$B_2$という順序が適切である確率$p^{*}(1|b)$は,出力値$a$を二つの文節の順序が適切であるか否かの1,0の二値とし,$k$個の素性$f_j(1\leqj\leqk)$を考えるとき次の式で表される.\begin{eqnarray}\label{eq:p1}p^{*}(1|b)&=&\frac{\prod_{j=1}^{k}\alpha_{1,j}^{g_{j}(1,b)}}{\prod_{j=1}^{k}\alpha_{1,j}^{g_{j}(1,b)}+\prod_{j=1}^{k}\alpha_{0,j}^{g_{j}(0,b)}}\end{eqnarray}この式の$\alpha_{1,j}$,$\alpha_{0,j}$の値を学習するためのデータとしては,形態素解析,構文解析済みのコーパスを用いる.一般に係り文節が二つ以上あるときは次のようにする.ある文脈$b$において文節$B$に係る文節が文節$B_1$,文節$B_2$,$\ldots$,文節$B_n$$(n\geq2)$の$n$個あるとき,その順序が適切である確率を$P(1|b)$とすると,この確率は係り文節を二つずつ取り上げたときそれぞれの順序が適切である確率,つまり,$P(\{W_{i,i+j}=1|1\leqi\leqn-1,1\leqj\leqn-i\}|b)$で表される.ここで,$W_{i,i+j}=1$は文節$i$と文節$(i+j)$の順序がこの順で適切であることを表す.このとき,$W_{i,i+j}$はそれぞれ独立であると仮定すると,$P(1|b)$は次の式で表される.\clearpage\begin{eqnarray}\label{eq:p2}P(1|b)&=&P(\{W_{i,i+j}=1|1\leqi\leqn-1,1\leqj\leqn-i\}|b)\nonumber\\&\approx&\prod_{i=1}^{n-1}\prod_{j=1}^{n-i}P(W_{i,i+j}=1|b_{i,i+j})\nonumber\\&=&\prod_{i=1}^{n-1}\prod_{j=1}^{n-i}p^{*}(1|b_{i,i+j})\end{eqnarray}ここで,$b_{i,i+j}$は文節$B$とそれに係る文節$B_i$,文節$B_{i+j}$に着目したときの文脈を表す.例えば,コーパスに「昨日/太郎は/テニスを/した.」(/は文節の区切りを表す.)という文があった場合を考える.動詞「した」に係る文節は「昨日」,「太郎は」,「テニスを」の三つである.語順モデルでは,このうち二文節ずつ,つまり「昨日」と「太郎は」,「昨日」と「テニスを」,「太郎は」と「テニスを」の三つのペアを取り上げ,それぞれこの語順が適切であると仮定して学習する.素性としては文節の持つ属性などを考える.例えば,「昨日/太郎は/した.」という関係からは「時相名詞」の方が「固有名詞」より前に来るという情報,「太郎は/テニスを/した.」という関係からは「は」格の方が「を」格より前に来るという情報などを用いる.\subsection{語順の生成}\label{sec:generation}本節では学習した語順モデルを用いて語順を生成するアルゴリズムについて説明する.語順の生成とは,ある文節に対し複数の係り文節があるものについて,その係り文節の順序を決めることを言う.入力は係り受け関係にある文節および素性の有無を判定するのに必要な情報であり,出力は係り文節の並びである.ただし,各文節を構成する語の語彙選択はすでになされており,文節間の係り受け関係は決まっていると仮定する.素性の有無を判定するのに必要な情報とは,形態素情報,文節区切り情報,統語情報,文脈情報などである.実際に実験で用いた情報については\ref{sec:exp}~章で述べる.語順の生成は次の手順で行なう.\underline{手順}\begin{enumerate}\item係り文節について可能性のある並びをすべて考える.\itemそれぞれの並びについて,その係り文節の順序が適切である確率を語順モデルを用いて求める.\item全体の確率が最大となる並びを解とする.全体の確率としては式(\ref{eq:p2})を用いる.\end{enumerate}例えば,再び「昨日/太郎は/テニスを/した.」という文を考えよう.動詞「した」に係る文節は「昨日」,「太郎は」,「テニスを」の三つである.この三つの係り文節の順序を以下の手順で決定する.\begin{enumerate}\item二文節ずつ,つまり「昨日」と「太郎は」,「昨日」と「テニスを」,「太郎は」と「テニスを」の三つのペアを取り上げ,語順モデルの式(\ref{eq:p1})を用いてそれぞれこの語順が適切である確率$P_{昨日,太郎は}$,$P_{昨日,テニスを}$,$P_{太郎は,テニスを}$を求める.例えば,ある文脈においてそれぞれ0.6,0.8,0.7であったと仮定する.\item六つの語順の可能性すべてについて全体の確率を計算し(表~\ref{table:example})\footnote{式(\ref{eq:p2})を導出する際,二つの係り文節,文節$i$と文節$(i+j)$の順序$W_{i,i+j}$はそれぞれ独立であると仮定したため,式(\ref{eq:p2})は近似式となっている.したがって,式(\ref{eq:p2})により計算される確率の総和は必ずしも1にはならない.さらに,ここで例としてあげた確率$P_{昨日,太郎は}=0.6$,$P_{昨日,テニスを}=0.8$,$P_{太郎は,テニスを}=0.7$は適当に与えたものであるため,表~\ref{table:example}の六つの語順の可能性すべてについて全体の確率を計算し,その総和をとっても1にはならない.},最も確率の高いもの「昨日/太郎は/テニスを/した.」が最も適切な語順であるとする.\end{enumerate}\begin{table*}[htbp]\begin{center}\caption{係り文節の順序が適切である確率の計算例}\label{table:example}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|p{6.5cm}|}\hline「昨日/太郎は/テニスを/した.」&$P_{昨日,太郎は}\timesP_{昨日,テニスを}\timesP_{太郎は,テニスを}$$=0.6\times0.8\times0.7=0.336$\\「昨日/テニスを/太郎は/した.」&$P_{昨日,太郎は}\timesP_{昨日,テニスを}\timesP_{テニスを,太郎は}$$=0.6\times0.8\times0.3=0.144$\\「太郎は/昨日/テニスを/した.」&$P_{太郎は,昨日}\timesP_{昨日,テニスを}\timesP_{太郎は,テニスを}$$=0.4\times0.8\times0.7=0.224$\\「太郎は/テニスを/昨日/した.」&$P_{太郎は,昨日}\timesP_{テニスを,昨日}\timesP_{太郎は,テニスを}$$=0.4\times0.2\times0.7=0.056$\\「テニスを/昨日/太郎は/した.」&$P_{昨日,太郎は}\timesP_{テニスを,昨日}\timesP_{テニスを,太郎は}$$=0.6\times0.2\times0.3=0.036$\\「テニスを/太郎は/昨日/した.」&$P_{太郎は,昨日}\timesP_{テニスを,昨日}\timesP_{テニスを,太郎は}$$=0.4\times0.2\times0.3=0.024$\\\hline\end{tabular}\end{center}\end{table*}\subsection{性能評価}\label{sec:evaluation}本節では語順モデルの性能つまりコーパスにおける語順をどの程度学習できたかを評価する方法について述べる.性能の評価は,コーパスから係り受け関係にある文節で複数の係り文節を持つものを取り出し,これを入力として\ref{sec:generation}節で述べた方法で語順を生成し,どの程度元の文における語順と一致するかを調べることによって行なう.この一致する割合を一致率と呼ぶことにする.このように元の文とどの程度一致するかを評価の尺度として用いることによって,客観的な評価が可能となる.また,一致率によって評価しておけば,学習したモデルがどの程度学習コーパスにおける語順に近いものを生成できるかを知った上でそのモデルを使うことができる.一致率の尺度としては以下の二種類のものを用いる.\begin{description}\item[二文節単位]二つずつ係り文節を取りあげたとき,順序関係が元の文と一致しているものの割合.例えば,「昨日/太郎は/テニスを/した.」が元の文で,システムによる生成結果が「昨日/テニスを/太郎は/した.」のとき二つずつ係り文節を取り上げると,元の文ではそれぞれ「昨日/太郎は」,「昨日/テニスを」,「太郎は/テニスを」の順序,システムの結果ではそれぞれ「昨日/テニスを」,「昨日/太郎は」,「テニスを/太郎は」の順序となる.三つのうち二つの順序が等しいので一致率は$2/3$となる.\item[完全一致]係り文節の順序が元の文と一致しているものの割合.普通の意味での一致の割合である.\end{description} \section{実験と考察} \label{sec:exp}この章では,語順生成の実験をいろいろな角度から分析する.実験には,京大コーパス(Version2)\cite{kurohashi:nlp97}を用いた.学習には1月1日から8日までと1月10日から6月9日までの17,562文を,試験には1月9日と6月10日から6月30日までの2,394文を用いた.\subsection{実験データにおける語順の定義}\label{sec:exp_data}ある一つの文節に対しそれに係る文節(係り文節)が複数あるとき,その係り文節の順序を語順と定義した.我々が用いた実験データでは,各文節は係り先(受け文節)の情報を一つだけ持つ.そして,ある文節$B_{m}$とその受け文節$B_{d}$との間に$B_{d}$と並列の関係にある文節$B_{p}$がある場合,$B_{p}$にはその受け文節が$B_{d}$であるという情報とともに並列を表すラベル(P)が付与されている.これは,文節$B_{m}$が$B_{p}$と$B_{d}$の両方に係り得ることを間接的に示している.このような場合は文節$B_{m}$が$B_{p}$と$B_{d}$の両方に係るとする.以上の条件の下では,ある文節$B$の係り文節は以下の手順で同定できる.\begin{enumerate}\item$B$を受け文節とする文節は$B$の係り文節とする.\item$B$にラベルが付与されているとき,$B$よりも文頭に近い位置にあり$B$と同じ受け文節を持つ文節は$B$の係り文節とする.\item$B$の係り文節の係り文節うちラベルが付与された文節は$B$の係り文節とする.手順(3)を再帰的に繰り返す.\end{enumerate}以上の手順で,並列の関係にある文節はすべて同じ文節に係るものとして同定される.例えば,表~\ref{table:kakari_bunsetsu}の左欄のようなデータからはそれぞれの文節に対し,同表の右欄のような係り文節が得られる.ここで例えば,「出て,」と「優勝した」が並列の関係にあることから,「優勝した.」の係り文節である「花子は」は「出て,」にも係る文節として同定されている.また,「太郎と」と「花子は」が並列の関係にあることから,「太郎と」は「花子は」と同じ受け文節に係る文節として同定されている.\begin{table*}[htbp]\begin{center}\caption{実験データから同定される係り文節の例}\label{table:kakari_bunsetsu}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}[c]{|c|c|c|l||l|}\hline\multicolumn{4}{|c||}{実験データ}&左欄の各文節を受け文節とする係り文節\\\hline文節&係り先の&ラベル&文字列&係り文節(文節番号)\\番号&文節番号&&&\\\hline0&1&P&太郎と&\\1&5&&花子は&太郎と(0)\\2&3&&テニスの&\\3&4&&試合に&テニスの(2)\\4&5&P&出て,&太郎と(0)花子は(1)試合に(3)\\5&&&優勝した.&太郎と(0)花子は(1)出て(4)\\\hline\end{tabular}\end{center}\end{table*}\subsection{実験結果}\label{sec:exp_result}まず,語順の学習および生成の実験に用いた素性を表~\ref{table:feature1},表~\ref{table:feature2}に示す.表~\ref{table:feature1}にあげた素性は素性名と素性値から成り,文節が持ち得る属性の情報,統語情報,文脈情報を表している.これらを基本素性と呼ぶ.一方,表~\ref{table:feature2}にあげた素性は基本素性の組み合わせである.これらの素性は文献\cite{Saeki:98}の「語順を支配する基本条件」をできるだけ反映するように選んだ.素性の総数はおよそ19万個である.そのうち学習には学習コーパスに3回以上観測されたもの51,590個を用いた.\begin{table}[htbp]\scriptsize\begin{center}\caption{学習に利用した素性(基本素性)}\label{table:feature1}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}[c]{|c|l|l|l|l|l|}\hline\multicolumn{4}{|c|}{\bf基本素性}&\multicolumn{2}{|c|}{削除したときの一致度}\\\hlineタイプ&対象&素性名&素性値&二文節単位&完全一致\\&文節&&&&\\\hline\hline1&係り1,&主辞見出し&(5,066個)&86.65\%&73.87\%\\&係り2,&&&($-$0.79\%)&($-$1.54\%)\\&受け&&&&\\\hline2&係り1,&主辞品詞(Major)&動詞形容詞名詞助動詞接続詞$\ldots$&87.07\%&75.03\%\\&係り2,&&\q\q\q\q\q\q(11個)&($-$0.37\%)&($-$0.38\%)\\&受け&主辞品詞(Minor)&普通名詞サ変名詞数詞程度副詞$\ldots$&&\\&&&\q\q\q\q\q\q(24個)&&\\\hline3&係り1,&主辞活用(Major)&母音動詞子音動詞カ行$\ldots$&87.39\%&75.20\%\\&係り2,&&\q\q\q\q\q\q(30個)&($-$0.05\%)&($-$0.21\%)\\&受け&主辞活用(Minor)&語幹基本形未然形意志形命令形$\ldots$&&\\&&&\q\q\q\q\q\q(60個)&&\\\hline4&係り1,&主辞意味素性(110)&真(1個)&87.21\%&75.20\%\\&係り2,&主辞意味素性(111)&真(1個)&($-$0.23\%)&($-$0.21\%)\\&受け&$\cdots$&&&\\&&主辞意味素性(433)&真(1個)&&\\&&(90個)&&&\\\hline5&係り1,&語形(String)&こそことそしてだけとにも$\ldots$&84.78\%&70.03\%\\&係り2,&&\q\q\q\q\q\q(73個)&($-$2.66\%)&($-$5.38\%)\\&受け&語形(Major)&助詞接尾辞子音動詞カ行判定詞$\ldots$&&\\&&&\q\q\q\q\q\q(43個)&&\\&&語形(Minor)&格助詞基本連用形動詞接頭辞$\ldots$&&\\&&&\q\q\q\q\q\q(102個)&&\\\hline6&係り1,&助詞1(String)&からまでのみへねえ$\ldots$&87.32\%&75.14\%\\&係り2,&&\q\q\q\q\q\q(63個)&($-$0.12\%)&($-$0.27\%)\\&受け&助詞1(Minor)&(無)格助詞副助詞接続助詞終助詞&&\\&&&\q\q\q\q\q\q(5個)&&\\&&助詞2(String)&けどままやよか$\ldots$(63個)&&\\&&助詞2(Minor)&格助詞副助詞接続助詞終助詞(4個)&&\\\hline7&係り1,&句点の有無&無有(2個)&87.39\%&75.54\%\\&係り2,&&&($-$0.05\%)&($+$0.13\%)\\&受け&&&&\\\hline8&係り1,&係り文節数&A(0)B(1)C(2)D(3以上)(4個)&87.14\%&74.86\%\\&係り2&&&($-$0.30\%)&($-$0.55\%)\\\cline{2-6}&受け&係り文節数&A(2)B(3)C(4以上)(3個)&87.40\%&75.35\%\\&&&&($-$0.04\%)&($-$0.06\%)\\\hline9&係り1,&並列&P(並列)A(同格)D(それ以外)(3個)&86.26\%&73.61\%\\&係り2,&&&($-$1.18\%)&($-$1.80\%)\\&受け&&&&\\\hline10&係り1,&係り語形1と語形2が一致&真偽(2個)&87.34\%&75.09\%\\&係り2&係り語形2と語形1&真偽(2個)&($-$0.10\%)&($-$0.32\%)\\&&が一致&&&\\&&係り語形1と係り語形2&真偽(2個)&&\\&&が一致&&&\\\hline11&係り1,&主辞見出しが既出&真偽(2個)&87.31\%&75.14\%\\&係り2,&係り文節主辞見出しが既出&真偽(2個)&($-$0.13\%)&($-$0.27\%)\\&受け&&&&\\\hline12&係り1,&文脈指示語の有無&無有(2個)&87.27\%&75.12\%\\&係り2&文脈指示語(String)&このこれこんなそこそのそれ$\ldots$&($-$0.17\%)&($-$0.29\%)\\&&&\q\q\q\q\q\q(42個)&&\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{学習に利用した素性(基本素性の組み合わせ)}\label{table:feature2}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|c|c|}\hline\multicolumn{1}{|c|}{\bf基本素性の組み合わせ}&\multicolumn{2}{|c|}{削除したときの一致率}\\\cline{2-3}\multicolumn{1}{|c|}{}&二文節単位&完全一致\\\hline\multicolumn{1}{|c|}{二素性}&87.23\%&74.65\%\\\cline{1-1}(係り1:語形,係り2:語形),&($-$0.21\%)&($-$0.76\%)\\(係り1:語形,受け:主辞見出し),&&\\(係り1:語形,受け:主辞品詞),&&\\(係り1:語形,係り1:並列),&&\\(係り1:語形,係り語形2と語形1が一致),&&\\(係り2:語形,受け:主辞見出し),&&\\(係り2:語形,受け:主辞品詞),&&\\(係り2:語形,係り2:並列),&&\\(係り2:語形,係り語形1と語形2が一致),&&\\(係り1:主辞見出し,受け:句点の有無),&&\\(係り1:主辞品詞,受け:句点の有無),&&\\(係り1:主辞品詞,係り1:主辞見出しが既出),&&\\(係り2:主辞見出し,受け:句点の有無),&&\\(係り2:主辞品詞,受け:句点の有無),&&\\(係り2:主辞品詞,係り2:主辞見出しが既出)&&\\\hline\multicolumn{1}{|c|}{三素性}&87.22\%&74.86\%\\\cline{1-1}(係り1:語形,係り2:語形,受け:主辞見出し),&($-$0.22\%)&($-$0.55\%)\\(係り1:語形,係り2:語形,受け:主辞品詞),&&\\(係り1:語形,係り1:並列,受け:語形),&&\\(係り2:語形,係り2:並列,受け:語形),&&\\(係り1:助詞1,係り1:助詞2,受け:主辞見出し),&&\\(係り1:助詞1,係り1:助詞2,受け:主辞品詞),&&\\(係り2:助詞1,係り2:助詞2,受け:主辞見出し),&&\\(係り2:助詞1,係り2:助詞2,受け:主辞品詞)&&\\\hline\multicolumn{1}{|c|}{上記すべての組み合わせ素性}&85.79\%&71.67\%\\&($-$1.65\%)&($-$3.74\%)\\\hline\end{tabular}\end{center}\end{table}表~\ref{table:feature1},表~\ref{table:feature2}の素性名で使われている用語の意味は以下の通りである.\begin{description}\item[係り1・係り2・受け]\ref{sec:word_order_model}~節で述べた語順モデルでは,ある文節に係る文節を二つずつ取り上げて並べその順序が適切である確率を求める.その際の受け文節を「受け」,二つ取り上げて並べた係り文節を前から順に「係り1」,「係り2」と呼ぶ.\item[主辞]各文節内で,品詞の大分類が特殊,助詞,接尾辞となるもの\footnote{これらの品詞分類はJUMAN\cite{JUMAN3.5}のものに従う.}を除き,最も文末に近い形態素.\item[主辞見出し]主辞の基本型(単語).素性値として用いる単語は,主辞の見出し語として学習コーパスに5回以上出現したものとする.\item[意味素性]「分類語彙表」\cite{NLRI64aj}の上位から3レベル目の階層を意味素性として用いる.「分類語彙表」は日本語シソーラスの一つであり,7レベルの階層からなる木構造で表現される.木構造の葉の部分には単語が割り振られており,各単語には分類番号という数字が付与されている.表~\ref{table:feature1}で例えば「主辞意味素性(110)」の括弧内の数字はその分類番号の上位3桁を表す.「主辞意味素性(110):真」という素性は,主辞の単語に付与された分類番号の上位3桁が110であることを意味する.\item[語形]各文節内で,特殊を除き最も文末に近い形態素.もしそれが助詞,接尾辞以外の形態素で活用型,活用形\footnote{JUMANの活用型,活用形に従う.}を持つものである場合はその活用部分とする\footnote{語形は基本的に活用部分を指すが,単独の名詞,副詞などからなる文節の場合には語形部分なしとするのではなく主辞と同じであると定義する.}~.\item[語形1・語形2]それぞれ係り1,係り2の語形のこと.\item[助詞1・助詞2]各文節内で,一番文末に近い助詞を「助詞1」,その次に文末に近い助詞を「助詞2」とする.\item[係り語形1・係り語形2]それぞれ係り1,係り2の係り語形のこと.係り語形は係り文節に係っている文節の語形であると定義する.\item[主辞見出しが既出]前の文に同じ主辞見出しが出現していること.\item[文脈指示語]着目している文節あるいはその係り文節に現れる指示語のこと.\end{description}表~\ref{table:feature1}でタイプ1からタイプ6までは文節内の属性を表し,タイプ7からタイプ10までは統語的な情報を表す.タイプ11とタイプ12は文脈的な情報を表す.\begin{table}[htb]\begin{center}\caption{実験結果}\label{Result}\begin{tabular}{|l@{}|c@{}|c@{}|}\hline&一致率(二文節単位)&一致率(完全一致)\\\hline本手法&87.44\%(12,361/14,137)&75.41\%(3,980/5,278)\\ベースライン1&48.96\%(6,921/14,137)&33.10\%(1,747/5,278)\\ベースライン2&49.20\%(6,956/14,137)&33.84\%(1,786/5,278)\\\hline\end{tabular}\end{center}\end{table}次に我々の解析結果を表~\ref{Result}に示す.第1行は京大コーパス1月9日と6月10日から6月30日までの2,394文のうち係り文節を二つ以上持つ文節5,278文節に対して,その係り受け関係にある文節およびそれらの文節に関してコーパスから得られる形態素情報,文節区切り情報,統語情報,文脈情報を入力とし,語順を生成させたときの結果である.ただし,統語情報としては係り受けが並列あるいは同格の関係にあるかどうかおよび文末であるかどうかの情報のみを与える.また,文脈情報としては生成の対象となっている文節を含む文の前の文を与える.ベースライン1としてはランダムに選んだ場合の一致率をあげた.ベースライン2としては,語順モデルの式(\ref{eq:p1})の代わりに次の式を用いたときの一致率をあげた.\begin{eqnarray}\label{eq:base2}p^{*}(1|b)&=&\frac{freq(w_{12})}{freq(w_{12})+freq(w_{21})}\end{eqnarray}ここで,$freq(w_{12})$,$freq(w_{21})$は,係り文節$B_1$と$B_2$の語形の見出し語を$w_1$,$w_2$,受け文節$B$の主辞見出しを$w$とするとき,これらが毎日新聞91年から97年のテキストにおいてそれぞれ「$w_1$/$w_2$/$w$」,「$w_2$/$w_1$/$w$」の順に現れた頻度を表す\footnote{ただし,$w_1$と$w_2$が同じときは係り文節$B_1$と$B_2$の主辞見出しをそれぞれ$w_1$と$w_2$とした.また,一方の頻度が0でもう一方の頻度が5以下の場合は$freq(w_{12})$,$freq(w_{21})$としてそれぞれ,「$w_1$/$w_2$」,「$w_2$/$w_1$」の順に現れた頻度を用いた.さらに$freq(w_{12})$,$freq(w_{21})$がいずれも0のときは0から1までの乱数値を与えた.}.式(\ref{eq:base2})を用いると例えば,「太郎は/テニスを/した.」の場合,「は/を/した」の順に現れる頻度と「を/は/した」の順に現れる頻度を調べ,頻度が大きい並びを解とすることになる.\subsection{素性と一致率}\label{sec:feature_and_accuracy}この節では,我々が実験で用いた素性が一致率の向上にどの程度貢献しているかを示す.\ref{sec:exp_result}~節にあげた表~\ref{table:feature1},表~\ref{table:feature2}の右欄には,それぞれの素性を削除したときの一致率と削除したことによる一致率の増減を示してある.基本素性を削るときは,それを含む組み合わせの素性も一緒に削った.最も一致率の増加に貢献していると考えられるのは,語形の情報である.語形は主に格や活用形を表す部分であり,この部分の情報によって最も語順が影響を受けているという結果は人間の直観とも合っている.我々が実験に用いた素性は,言語学的な研究において「語順を支配する基本条件」とされているものをできるだけ反映したものである.その条件がどの程度一致率に影響しているかを示すために,表~\ref{table:feature1},表~\ref{table:feature2}に素性のまとまりごとにその素性を削除したときの一致率を示した.しかし,「は」「を」などの助詞をひとまとまりとして削除しているなど,削除する単位が言語学的に興味のある情報よりも粗い可能性がある.そのような場合には,興味のある要素に対応する素性のみ,例えば助詞の「は」のみについて,その素性を削除したときとしなかったときの一致率を比べることにより,その重要性を定量的に検証することが可能である.さらに新たな言語学的成果に対してもそれに対応するような素性を追加して一致率に有意な増加がみられるかどうかを調べることにより,同様に検証することができると考えられる.\subsection{学習コーパスと一致率}\label{sec:corpus_and_accuracy}この節では,学習コーパスと一致率の関係について考察する.まず,図~\ref{fig:learning_curve1},図~\ref{fig:learning_curve2}に学習コーパスの量と一致率の関係をあげる.これらの図には学習コーパスとテストコーパスのそれぞれを解析した場合のコーパスの量と一致率の関係を載せている.学習コーパスに対する実験としては基本的に京大コーパス1月1日の1,172文を用いた.学習コーパスが250文,500文のときは1月1日の1,172文のうち上から250文,500文を用いた.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=learning1.eps,height=8cm}\vspace{5mm}\caption{学習コーパスの量と一致率(二文節単位)の関係}\label{fig:learning_curve1}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=learning2.eps,height=8cm}\vspace{5mm}\caption{学習コーパスの量と一致率(完全一致)の関係}\label{fig:learning_curve2}\end{center}\end{figure}学習コーパスが250文という少ない量でもテストコーパスに対して二文節単位で82.54\%,完全一致で68.40\%の一致率となっている.これはベースラインよりもかなり高い一致率である.この結果は,学習コーパスの量が少なくても新聞記事に対してはある程度語順の傾向を学習できることを示している.学習コーパスが17,562文のとき,一致率は完全一致で75.41\%である.テストコーパスと一致しなかった残りの約25\%のうちいくつかは学習がうまくできなかったものであり,残りは語順が比較的自由なもので必ずしもコーパスと一致しなくてもよいものであると考えられる.前者に対しては誤りを分析して,語順の傾向を効率良く学習する素性をもっと補う必要がある.そこで,テストコーパスに対する結果を調査した.係り文節の語順がテストコーパスと一致しなかった1,298文節から,ランダムに100文節を選び分析した.そのうち,システムが生成した語順でも不自然ではないものが48個,不自然なものが52個であった.この不自然なものがテストコーパスの語順と一致するようになるには,大量の学習コーパス,および表~\ref{table:feature1},表~\ref{table:feature2}にあげたものとは性質の異なる素性が必要である.学習コーパスが不十分であると思われるものの中には,「法治国家が/聞いて/あきれる」,「創案したのが/そもそもの/始まり」,「味に/精魂/込める」などイディオム的な表現を含むものが多かった.コーパスの量が増えればこのような表現に対しては適切な語順が学習される可能性が高い.新たな素性を考慮するべきであると思われるものの中には,並列関係を含むものが目立った.これについては今後の言語学的な知見なども考慮しながら有効そうな素性を追加したい.今回素性として用いた意味素性および文脈指示語や承前反復語は,意味解析,文脈解析をした結果を基にしている訳ではない.これらをより有効に利用できるようにするためには,意味タグや文脈タグなどが付与されたコーパスおよび意味解析システムや文脈解析システムを統合して用いていく必要がある.\subsection{生コーパスからの学習}\label{sec:raw_corpus}正しい語順の情報はテキスト上に保存されているため,学習コーパスは必ずしもタグ付きである必要はなく,生コーパスに対し既存のシステムを用いて解析した結果を学習に用いることもできる.本節では,タグ付きコーパスと生コーパスを用いて,あるいは生コーパスのみを用いて学習したときにどの程度の一致率が得られるかについて実験結果を示し考察する.生コーパスとしては毎日新聞1994年版の最初の200,000文と,京大コーパスの1月1日から8日までと1月10日から6月9日までの17,562文,合計217,562文を用いた.このうち京大コーパスの17,562文はタグの付与されていない原文を用いた.生コーパスに対しては,そこから素性の情報を得るために形態素解析,構文解析を行なう.形態素解析にはJUMAN,構文解析にはKNP\cite{KNP2.0b6}を用いた.JUMANは形態素区切りおよび品詞の付与の精度が98\%程度,KNPは係り受け単位の精度が90\%程度である.これらはいずれも新聞記事に対する精度である.テストコーパスに対する一致率は,学習コーパスとして生コーパスのみ217,562文を用いた場合,二文節単位で87.64\%,完全一致で75.77\%であり,学習コーパスとして生コーパス(毎日新聞1994年版の最初の200,000文)とタグ付コーパス(京大コーパスの17,562文)合計217,562文を用いた場合,二文節単位で87.66\%,完全一致で75.88\%であった.いずれの場合もタグ付コーパスのみ17,562文を用いたときに比べて,0.2\%から0.5\%程度一致率が増加した.この結果から,タグ付きコーパスが少ない場合は,既存の解析システムの精度が90\%程度であれば生コーパスのみでも学習コーパスとして十分に役割を果たすことが分かる.またこの結果は語順の学習はシステムの解析誤りの影響をあまり受けないということを示していると言える. \section{まとめ} 本論文ではコーパスから語順を学習する方法について述べた.ここで語順は,ある一つの受け文節に対し係り文節が複数あるときその係り文節の順序を表すものと定義した.係り文節の数はさまざまであるが,係り文節の数によらず二つずつ取り上げてその順序を学習するモデルを提案した.学習モデルにはME(最大エントロピー)モデルを用いた.このモデルは,学習コーパスから得られる情報を基に適切な語順を予測するのに有効な素性を学習することによって得られる.我々が素性として利用したのは,文節の持つ属性,統語情報,文脈情報およびそれらの組み合わせである.これらの素性のうちそれぞれを削除した実験を行なうことによって,その中でも格や活用部分の情報が語順の傾向を学習する上で特に有効に働くことが分かった.また,学習コーパスの量を変えて実験を行なうことによって,我々の手法が少ない学習データに対しても効率良く語順を学習できるだけでなく,タグ付コーパスだけでなく生コーパスも学習に利用できることも分かった.学習したモデルを用いて語順を生成させたとき,コーパスと一致する割合は,京大コーパスを使用した実験で75.41\%であった.一致しなかった残りの約25\%をサンプリング調査したところ,その48\%がモデルを用いて生成した語順でも不自然ではないことが分かった.今回の実験には新聞記事のような一般的な語順のテキストを用いた.スタイルが異なれば語順の傾向も異なると考えられるため,今後,小説などのように新聞記事とはスタイルが異なるテキストを用いて実験し,我々の提案したモデルがどの程度語順の傾向の違いを学習できるかを調べたい.また,本論文で扱ったのは日本語の語順であったが,英語についても同様に語順の傾向を学習できると考えられる.今後,英語についても同様のモデルを用いて語順を学習し,モデルの評価をしたい.文生成においては一般に客観的な評価基準がないため評価が難しいが,本論文で示したようにコーパスに基づく評価方法をとることにより,少なくとも語順の生成に関しては客観的な評価が可能になったと言えるだろう.本論文で我々が提案した手法には,以下のような応用が考えられる.\begin{itemize}\item校正支援ユーザが作文した文を構文解析して依存構造を得た後,それを入力として語順を生成させユーザに提示する.語順モデルを用いて生成させた語順の方がユーザの作文における語順より自然な語順になっている可能性が高いと考えられる.\item機械翻訳における対象言語の語順の生成対象言語において,文節間の依存構造が決まり,各文節において語彙選択が終了すれば,我々が提案した語順モデルを用いて一文全体の語順を決めることができる.このとき一文全体の語順としては,一文全体の語順の確率が最大となるものを選ぶ.一文全体の語順の確率は,受け文節ごとにその受け文節に係る文節の順序の確率を式(\ref{eq:p2})を用いて求め,その積として求める.\item構文解析における誤り検出構文解析結果に複数の係り文節を持つ文節がある場合,その係り文節の順序の確率を式(\ref{eq:p2})を用いて求め,その値が著しく低い場合に誤りとして検出する\footnote{例えば,A,B,Cの三つの文節からなる文があり,[A,[B,C]](AとBがともにCに係る解釈)と[[A,B],C](AがBに,BがCに係る解釈)の2つの解析結果が得られたとする.前者の解釈に対しては,係り文節の順序の確率を求め,その値が著しく低い場合には誤りとして検出することができると考えている.後者の解釈では,係り文節の順序の確率を求めることはできないが,もう一つの候補である前者の解釈に対して係り文節の順序の確率を求め,その値が著しく高い場合には後者の解釈は誤りであるとして検出することができると考えている.}.\end{itemize}\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V13N03-05
\section{はじめに} 述語項構造とは述語とその項の間の意味的な関係を表現する構造の一つである.例えば,「彼が扉をひらく」という文中の述語「ひらく」の項構造は[agent,theme]のように表すことができる.agent,themeは項が述語に対してどのような意味的関係となっているかを表す意味役割である.また,所与の文章中の各述語に対して,(1)述語が取り得る項構造のうち最も文の解釈に適った項構造を選択し,(2)その構造の各項に対応する要素を同定することで述語項構造を出力する処理を項構造解析と呼ぶ.例えば,文「彼が扉をひらく」を述語項構造解析する場合には,述語「ひらく」に対して図\ref{fig:arg_dic}\,に示すような項構造辞書から対応する項構造を選択し,入力文の格要素を各項に割り当てて構造[agent:彼,theme:扉]を得る.項構造解析を高精度で実現すれば,「彼が扉をひらく」$\Leftrightarrow$「扉がひらく」のような交替に代表される表現の多様性を吸収でき,言い換えや情報抽出,質問応答などの自然言語処理技術を高度化できる.述語の項構造に関する研究は,\citeA{Fil:68}の格文法など古くから関心を集めている.これらの研究は,項構造辞書の作成,項構造タグ付きコーパスの作成,項構造解析の三つの研究に大別でき,項構造辞書作成の研究では,近年,\citeA{Dorr:97}によって項構造辞書作成の方法論が開発されている.この研究成果から大規模な項構造辞書を作成する基盤ができてきた.また項構造情報を含む詳細な動詞辞書FrameNet\cite{Frame:98}や項構造タグ付きコーパスPropBank\cite{Prop:02}も報告されている.項構造解析の研究は国際会議CoNLLにおけるSharedTask\footnote{http://www.lsi.upc.edu/\~{}srlconll/}として取り上げられるなど関心が集まっており,近年提案されている主な手法は教師なし手法と教師あり手法に大別できる.現状では,PropBankのような項構造タグ付きコーパスが作成されたこともあり,教師あり手法の研究が盛んである.教師なし手法では,\citeA{Lapata:Brew:99}のように項構造辞書の下位範疇化の構造を利用して擬似的に訓練事例を作成する手法などが提案されているが,一般に解析精度が低い.これに対して,\citeA{gildea:02:c},Haciogluら\citeyear{Kadri:03}やThompsonら\citeyear{Cyn:03}の提案する教師あり手法では,項構造タグが付与された学習コーパスから述語と文章中の要素との構文構造における位置関係などを素性として利用しており,教師なし手法よりも精度が高いという利点を持つ.しかし学習に用いるコーパス中の各述語に対し(i)取り得る項構造と項構造辞書中の項構造の対応付け,および(ii)選択した項構造の各項と文章中の要素の対応付け,という人手による項構造タグ付与作業が必要であるため作業コストが高いという問題がある.そこで本研究では,項構造タグ付き事例を効率的に作成する方法について議論する.項構造タグ付き事例の効率的な作成方法にはさまざまな方法が考えられるが,本論文では,学習に用いるコーパス中の各述語に項構造タグを付与する過程で生じる類似用例への冗長なタグ付与作業の問題に着目する.具体的には,大規模平文コーパスから抽出した表層格パターンの用例集合をクラスタリングし,得られたクラスタに項構造タグを付与することでタグ付与コストを削減する手法を提案する.提案手法では,(A)表層格パターン同士の類似性と(B)動詞間の類似性という2種類の類似性を利用してクラスタリングを行う.評価実験では,実際に提案手法を用いて8つの動詞の項構造タグ付き事例を作成し,それを用いた項構造解析の実験を行うことによって,提案手法のクラスタリングの性能や,人手でタグ付き事例を作成するコストと項構造解析精度の関係を調査した.\begin{figure}[t]\begin{center}\includegraphics[width=0.85\hsize]{clip013.eps}\end{center}\caption{動詞項構造辞書の一例(「ひらく」について)}\label{fig:arg_dic}\end{figure} \section{用例の類似性に基づく項構造タグ付与の効率化} \label{sec:third}入力文の各動詞の項構造を解析するタスクには,次の5種類の曖昧性の解消が必要である.\begin{description}\item[曖昧性(1)「は」,「も」,「無格\footnotemark」が兼務する表層格の曖昧性]\\\footnotetext{無格とは,「明日東京に行く」の「明日」のように助詞のない格.}「は」,「も」,「無格」が表層「ガ格」,「ヲ格」,もしくはそれ以外となる曖昧性.\item[曖昧性(2)連体修飾節に関する曖昧性]\\連体修飾節の述語と被修飾名詞との間に格関係がない外の関係(例えば,「魚を焼くにおい」の「焼く」と「におい」)と格関係がある内の関係(「魚を焼く男」の「焼く」と「男」)の曖昧性.さらに,内の関係における被修飾名詞の表層格の曖昧性.\item[曖昧性(3)述語の取る項構造の曖昧性]\\動詞「話す」のように,項構造[agent,theme,beneficiary]や[agent,beneficiary,content]などの複数の項構造を持つ述語が存在するために生じる曖昧性.例えば,「女性が悲鳴をあげる」と「彼が彼女にプレゼントをあげる」の動詞「あげる」のように,複数の語義を持つことによる曖昧性も含む.\item[曖昧性(4)格の意味役割の曖昧性]\\同じ述語の同じ表層格でも項構造中の意味役割が一意に決まらないという曖昧性.例えば,「彼が扉をひらく」の表層ガ格「彼」は項構造中のagentに対応するのに対し,「扉がひらく」の表層ガ格「扉」はthemeに対応する.また表層「ニ格」のように時間,目的地,場所などさまざまな意味役割を担う表層格がある.\item[曖昧性(5)接尾辞を伴うことによる格交替の曖昧性]\\受身「れる,られる」や使役「せる,させる」によって項構造の意味役割と表層格の対応関係が変化することによって生じる曖昧性.\end{description}この5種類の曖昧性のうち曖昧性(1),(2)は,表層格レベルの問題であるため,河原ら\citeyear{kawahara:02:a}の手法のように全自動で収集した用例を使って解消できる可能性がある.すなわち,必ずしも項構造情報を教示したデータが必要とならない.一方,曖昧性(3),(4),(5)を解消するには述語の取り得る項構造と入力文とを照らし合わせるために,項構造情報のタグを付与したデータが必要となる.本論文では曖昧性(3),(4)の解消に焦点をあて,項構造タグ付与作業の効率化を図る.具体的には,同じ項構造に対応する用例を自動的にひとまとめにすることでタグ付与作業のコスト削減を目指す.曖昧性(5)は,本論文では取り扱わないが,各接尾辞で項構造の意味役割と表層格の対応関係に規則性があり本論文で扱う項構造解析手法を拡張し解消できると考えられる.問題設定として,大量のタグなし用例と項構造辞書が与えられていると仮定する.ここで,用例とは係り受け解析結果から述語とその係り受けを取り出したものを指す.タグなし用例は,大規模な生コーパスの文書を係り受け解析することによって収集可能である.また,図\ref{fig:arg_dic}\,に示すような項構造辞書を仮定する.このような辞書は,Dorrの交替現象に基づいた大規模項構造辞書作成の研究により基盤ができているため,作成可能であると期待できる.この項構造辞書では,各述語に一つ以上の項構造が定義されており,各項構造に取りうる表層格パタンと小規模の用例が記述されているものとする.以上の仮定のもとで,大規模用例集合を次の二つの類似性に基づいてクラスタリングする.\begin{description}\item[類似性A:]ある動詞について同じ項構造を持つ用例は,格の出現パタンとそれぞれの格要素が類似している.例えば,2つの用例「女性が悲鳴をあげる」と「こどもが大声をあげる」で格の出現パタン「が,を」や対応する格の格要素(「女性」と「こども」,「悲鳴」と「大声」)が類似している性質をいう.\item[類似性B:]意味的な類似性がある二つの動詞は,格の出現パタンとそれぞれの格要素が類似している.これは,\citeA{levin:93}が提案する交替現象に基づく動詞分類の基本的な考え方であり,意味的に類似する動詞「公表する」と「発表する」の用例「大統領が98年に計画を公表する」と「首相が10月にプランを発表する」において,格の出現パタン「が,に,を」とそれぞれの対応する格の格要素「大統領」と「首相」,「98年」と「10月」,「計画」と「プラン」が類似するという性質をいう.\end{description}本論文では,類似性Aと類似性Bに基づいて用例をクラスタリングする.そしてクラスタに項構造を付与する作業はクラスタを代表する用例に対して項構造タグを付与し,それをクラスタの項構造タグと考える.つまり用例クラスタリングで得られたクラスタに対して人手でタグを付与するため,いかにして異なる項構造を持つ用例を1つのクラスタに含めることなく,できるだけ少数のクラスタに用例をまとめあげるかが課題となる.\ref{ssec:cla}\,で類似性A,\ref{ssec:clb}\,で類似性Bに基づく用例クラスタリングについて述べる.\subsection{格要素ベースクラスタリング}\label{ssec:cla}格要素ベースクラスタリングでは,{\bf類似性A}を利用することで,格の出現パタンや格要素が類似する用例(例えば,「女性が悲鳴をあげる」と「こどもが大声をあげる」)を自動的にまとめる.\citeA{kawahara:02:a}の大規模平文コーパスから表層格フレーム辞書を自動構築する研究は「動詞の用法を決定する重要な格要素は動詞の直前にくることが多く,動詞と直前の格要素をペアにして考えると動詞の用法はほとんど一意に決定される」という考えに基づいている.本論文でも,彼らと同様にこの考えに基づき,次の3つのステップでクラスタリングを行う.\begin{enumerate}\item{\bf直前格とその要素が同じ}用例のクラスタリング\item{\bf直前格が同じ}用例のクラスタリング\item{\bf直前格が異なる}用例のクラスタリング\end{enumerate}各ステップで対象のクラスタ(用例)間の類似度を計算し,設定する閾値を超えるクラスタ(用例)の組みの中で最も類似度の高い2つのクラスタをマージするボトムアップクラスタリングを行う.また,クラスタ(用例)間の類似度として用例収集に用いた大規模平文コーパス中での用例の出現回数を考慮した類似度計算式(詳細は付録\ref{sec:furoku}\,を参照)を用いる.この式は河原らによって提案されたものである.上の順序で段階的にクラスタリングを行うことで,常に動詞の直前格の出現回数が直前格以外の格の出現回数よりも多くなるように処理を進めることができる.その結果,類似度計算における動詞の直前格の重みが大きくなり,動詞の直前格を重視した用例クラスタリングが可能となる.クラスタリングの各ステップを例を用いて説明する.最初に,ステップ1では例1に示すように直前格要素が同じ用例だけを対象にクラスタリングする.例1では,一つ目の用例と二つ目の用例の類似度が高くこれらをマージした結果を示している.\\\\例1)\\$\left.\begin{array}{rrr}月:に&\underline{{\bf案:を}}&発表する\\中旬:に&\underline{{\bf案:を}}&発表する\\久しぶり:に&\underline{{\bf案:を}}&発表する\end{array}\right\}\Longrightarrow\left\{\begin{array}{rrr}\{月,中旬\}:に&\underline{{\bf案:を}}&発表する\\久しぶり:に&\underline{{\bf案:を}}&発表する\end{array}\right.$\\\次に,ステップ2ではステップ1の結果を入力とし,例2に示すように直前格が同じ用例だけを対象にクラスタリングする.クラスタリングの例を例2に示す.\\\\例2)\\$\left.\begin{array}{rrrr}&\{月,中旬\}:に&案:\underline{{\bfを}}&発表する\\大統領:が&\{年,初め\}:に&計画:\underline{{\bfを}}&発表する\end{array}\right\}$\begin{flushright}$\Longrightarrow\begin{array}{rrrr}大統領:が&\{月,中旬,年,初め\}:に&\{案,計画\}:\underline{{\bfを}}&発表する\end{array}$\\\end{flushright}最後に,ステップ3ではステップ2の結果を入力とし,例3に示すように直前格が異なる用例だけを対象にクラスタリングする.このステップ3のクラスタリングによって,例3に示すような表層格の出現順が「に,を」「を,に」と順序が異なっている用例をマージ例えばできる.\\\\例3)\\$\left.\begin{array}{rrrr}大領領:が&\{月,中旬,年,初め\}:に&\{案,計画\}:\underline{{\bfを}}&発表する\\&\{プラン,計画\}:を&\{年,月\}:\underline{{\bfに}}&発表する\\\end{array}\right\}$\begin{flushright}$\Longrightarrow\begin{array}{rrrr}大統領:が&\{月,中旬,年,初め\}:\underline{{\bfに}}&\{案,計画,プラン\}:\underline{{\bfを}}&発表する\\\end{array}$\\\end{flushright}正確に言えば,このクラスタリングは河原らが提案したクラスタリングとは異なる.本クラスタリング手法と河原らが提案した手法の主な異なりはステップ(1)の存在であり,河原らの手法にはステップ(2)と(3)しか存在しない.河原らの手法では動詞,動詞の直前格とその要素を最小単位と考えクラスタリングを開始する.つまり動詞,動詞の直前格とその要素が同じならば同じクラスタであると判断している.河原らは大規模平文コーパスからの表層格フレーム辞書自動構築を目的にクラスタリング手法を提案しており,このように判断することは大きな問題にならない.しかし,我々の目的は項構造を考慮したクラスタリングであり,動詞,動詞の直前格とその要素が同じならば同じクラスタであると判断することが大きな問題となる.そのためにステップ(1)を導入した.これ以外にも異なる項構造を持つ用例やクラスタが誤ってマージされないようにいくつか工夫する必要がある.詳細は\ref{sssec:cl1}\,節で述べる.\subsection{動詞ベースクラスタリング}\label{ssec:clb}動詞ベースクラスタリングでは,{\bf類似性B}に基づき,同じ項構造に対応する意味的に類似する動詞の用例(例えば,「大統領が98年に計画を公表する」と「首相が10月にプランを発表する」)を自動的にまとめる.具体的には,動詞$T$の用例をクラスタリングするのに動詞$T$と類似する動詞$S=\{S_{1},S_{2},...,S_{n}\}$の用例を利用する.動詞集合$S$をどのように選択するか,また各動詞$S_{i}$の用例をどのように利用するかにはさまざまな方法が考えられるが,今回は動詞を1つだけ用いることにしてクラスタリング手法を検討する.また,本クラスタリングは類似する動詞の一方の用例に項構造タグを付与した結果を利用する.つまり,すでに人手で項構造タグが用例に付与された動詞$S_{a}$を用いて,動詞$S_{a}$と類似する動詞$T$の用例集合を次の3つのステップでクラスタリングする.なお,本クラスタリングの入力は格要素ベースクラスタリングの結果である.\\\begin{enumerate}\item表層格が最も多い用例を動詞$T$のクラスタを代表する用例として選択する.\item(1)で選択された用例と動詞$S_{a}$の用例の中で表層格パタンが同じでかつ最も類似する用例を対応付ける.\item動詞$T$の異なるクラスタに属する用例が動詞$S_{a}$の同じ項構造の用例に対応付けられた場合に,動詞$T$側の2つのクラスタをマージする.\\\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics[width=0.85\columnwidth,keepaspectratio]{clip021.eps}\end{center}\caption{動詞の類似性に基づくクラスタリング}\label{fig:step3}\end{figure}まずステップ1では,格要素ベースクラスタリングによってできたクラスタにおいて,各クラスタを構成する用例で最も多くの表層格を持つ用例をそのクラスタを代表する用例とする.例えば,「首相が10月にプランを発表する」と「5月に計画を発表する」の用例で構成されるクラスタの例を考える.これらの用例の表層格はそれぞれ「が,に,を」と「に,を」であり,表層格数は前者が3,後者が2であるため,前者の用例をこのクラスタを代表する用例として選択する.図\ref{fig:step3}\,では,ステップ1で動詞$T$の1番目のクラスタの代表用例を$T_{1}$,2番目のクラスタの代表用例を$T_{2}$として選択したとする.ステップ2で$T_{1}$,$T_{2}$のそれぞれと最も類似度の高い用例を動詞$S_{a}$側の用例集合から選択し対応付ける.ここではそれぞれ用例$S_{a1}$と用例$S_{a2}$が対応付けられたとする.最後に,動詞$S_{a}$側で用例$S_{a1}$,$S_{a2}$が同じ項構造であるというタグ付与情報を利用して,1番目と2番目のクラスタをマージする.動詞ベースクラスタリングにおいても,用例間(動詞$T$の用例と動詞$S_{a}$の用例)の類似度計算式として,格要素ベースクラスタリングと同じ計算式を用いる.但し本クラスタリングにおいては,表層格パタンが同一の用例のみを類似度計算の対象とした.動詞ベースクラスタリングでポイントとなるのはステップ3であり,本クラスタリングの狙いは次のとおりである.格要素クラスタリングでは対応する格の格要素の類似度だけを考慮しているが,実際には同じ項構造となる用例のなかには類似しない格要素を持つ用例も多い.つまり,述語とある意味的な関係を持つ要素の集合は,その要素自身が持つ意味だけでは表現することができないのである.例えば,図\ref{fig:step3}\,の用例$T_{1}$「首相が10月にプランを発表する」と$T_{2}$「自衛隊が結果を発表する」は格要素の類似度に基づいたクラスタリングでは,マージされなかった用例である.しかしながら,我々人間には同じ項構造であることがわかる.このような格要素の類似性だけではマージできない用例を,類似した他の動詞の用例に人間が項構造を付与することで与えた情報を利用してクラスタリングを行なうのが動詞ベースクラスタリングの狙いである. \section{評価実験} \label{sec:fourth}前節で述べたクラスタリングの効果および大規模な訓練事例を利用することがどの程度項構造解析の精度向上に寄与するかを調査した.まず,両実験で使用する実験データと訓練事例作成のための用例クラスタリングの設定,項構造解析モデルについて説明し,最後に実験結果を示す.\subsection{評価実験データ}\label{ssec:data}4つの動詞(「話す」,「発表する」,「発売する」,「増える」)を用いて評価した.これらの動詞は後述のテストデータのコーパス中に頻出する動詞であり,それぞれの動詞が持つ項構造数は「話す:5」,「発売する:1」,「発表する:3」,「増える:2」である.例として,表\ref{tab:arg_dic_2}\,に「話す」の項構造辞書の項目を示す\footnote{その他の動詞の項構造辞書の項目は付録\ref{sec:sonota}\,を参照}.この項構造辞書はIPAL動詞辞書\cite{IPAL}を基に今回収集した用例を参考に,それらの格交替を考慮しながら作成したものである.この4つの動詞に対して,毎日新聞社の新聞記事でテストデータ作成に用いた1ヶ月分を除いた,13年分の新聞記事から用例異なりを除いた8385用例を抽出した(抽出条件は\ref{ssec:class}\,の用例の収集を参照).この用例をクラスタリングし,各クラスタに項構造を対応付けて,項構造解析の訓練事例とした.項構造解析実験のテストデータとして,上の13年分の新聞記事から抜き出したある月の新聞記事から対象動詞の用例を抽出し,用例異なりを除いた220用例にひとつずつ人手で項構造タグを付与したものを用いる.ただし,\ref{sec:third}\,節で述べたように(1)「は」,「も」,「無格」が兼務する表層格の曖昧性,および(2)連体修飾節に関する曖昧性は表層格パターンを用いてある程度解析可能であると考えられるため,今回のテストデータについては「は」,「も」,「無格」の曖昧性は人手で解消し,連体修飾節の被修飾名詞は取り除き(3),(4)の曖昧性の解消に焦点を当てて評価する.また,(5)の接尾辞を伴うことによる格交替の曖昧性については,文書中の約1割の述語が格交替を生じる接尾辞を伴って出現したが,訓練事例の抽出と同様に今回はそれらを除いて評価実験を行った.なお訓練事例,テストデータともに用例に項構造タグを付与する際,可能な項構造が複数あれば複数のタグを付与した.また項構造解析時には,\ref{ssec:asa}\,の項構造解析モデルで複数のタグを持つ用例が選択された場合,複数の項構造解析結果を出力する.表\ref{tab:train}\,に訓練事例,表\ref{tab:test}\,にテストデータ中の動詞とその項構造の出現回数を示す.各動詞の項構造番号は,表\ref{tab:arg_dic_2}\,や付録\ref{sec:sonota}\,に示した動詞項構造辞書の項目番号と対応している.評価実験では,動詞「増える」の場合,システムが出力すべき項構造の数は142個(5+7+65×2)である(表\ref{tab:test}\,参照).\begin{table}[tbp]\begin{center}\caption{動詞「話す」の項構造辞書の項目}\small\begin{tabular}{||llll|ll||}\hline\hline\multicolumn{5}{||l}{述語:話す}&\\\multicolumn{1}{||l}{}&\multicolumn{4}{l}{語義:口に出して,ある事を人に知らせる.}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造1[agent,theme,beneficiary]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,を,に&彼が用件を先方に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,について,に&彼が事件について警察に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,まで,に&先生がそんなことまで生徒に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&から,について,に&私から結婚について親に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&から,を,に&彼女から将来のことを彼氏に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造2[agent,beneficiary,content]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&が,に,と&彼が母に明日出発すると話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造3[agent,beneficiary,theme,content]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,に,を,と&妻が私に映画をすばらしかったと話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,に,について,と&警察が市民に事件について解決したと話す.&\\\multicolumn{1}{||l}{}&\multicolumn{4}{l}{語義:複数の者で会話,討議する.}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造4[agent,theme]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,を&政治家が貿易摩擦問題を話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,について&先生らがいじめについて話す.&\\\multicolumn{1}{||l}{}&\multicolumn{4}{l}{語義:ある言語を用いる.}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造5[agent,theme]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&が,を&彼が英語を話す.&\\\hline\hline\end{tabular}\label{tab:arg_dic_2}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{訓練事例中の動詞とその項構造の出現回数}\small\begin{tabular}{|l||l|l|l|}\hline動詞&出現回数&項構造の種類&各項構造の出現回数(項構造番号:出現回数)\\\hline\hline話す&1867&5&1:105,2:22,3:133,4:232,5:62,1+2+3:155,\\&&&1+3:194,1+3+4:364,2+3:214,1+2+3+4+5:386\\\hline発表する&2822&3&3:60,1+3:1286,2+3:918,1+2+3:558\\\hline発売する&635&1&1:635\\\hline増える&3061&2&1:138,2:232,1+2:2691\\\hline\end{tabular}\label{tab:train}\end{center}\begin{center}\caption{テストデータ中の動詞とその項構造の出現回数}\small\begin{tabular}{|l|l|l|l|}\hline\multicolumn{1}{|l||}{動詞}&\multicolumn{1}{l|}{出現回数}&項構造の種類&各項構造の出現回数(項構造番号:出現回数)\\\hline\hline話す&57&5&1:4,3:5,4:8,5:2,1+2+3:4,1+3:5,\\\\\\\\\\\\\\&&&1+3+4:10,2+3:7,1+2+3+4+5:12\\\hline発表する&76&3&3:4,1+3:33,2+3:24,1+2+3:15\\\hline発売する&10&1&1:10\\\hline増える&77&2&1:5,2:7,1+2:65\\\hline\end{tabular}\label{tab:test}\end{center}\end{table}\subsection{用例クラスタリングの設定}\label{ssec:class}\subsubsection{用例の収集}項構造と対応付けるために収集できる用例には「は」,「も」,「無格」を伴った用例があるが,これらは兼務する表層格の曖昧性があるため訓練事例としては収集しない.また,格交替が生じる可能性のある接尾辞「れる」,「られる」,「せる」,「させる」,「たい」,「ほしい」,「もらう」,「いただく」,「くれる」,「くださる」,「やる」,「あげる」,「できる」を伴う述語の用例や連体修飾節の被修飾名詞も訓練事例としては収集しない.\subsubsection{格要素ベースクラスタリング}\label{sssec:cl1}用例間の類似度の計算式は河原ら\citeyear{kawahara:02:a}の提案した計算式\footnote{用例間の対応する格の割合と,対応する格要素の類似度による計算式.詳しくは付録\ref{sec:furoku}\,を参照.}を用いた.ただし,異なる項構造の用例を誤ってマージしないように次の制約を加えた.\\\begin{description}\item[・]一方の用例の格パタンが他方の用例の表層格パタンを包含する場合のみマージする.この制約により,用例「彼\underline{が}結婚について両親に話す」と「私\underline{から}結婚について両親に話す」を「彼\underline{が}私\underline{から}結婚について両親に話す」のように「話す」のagentが2つ存在するといった誤ったマージを避ける.\item[・]ボトムアップクラスタリングの際に類似度を再計算する用例ペアとして各ステップの初めの類似度計算で設定した閾値を超えた用例ペアだけを対象にする.この制約により,直前格を重要視しすぎないないように制御する.\end{description}格要素ベースクラスタリングでは,3ステップのそれぞれで閾値を設定する必要がある.今回は0.9,0.85,0.8とした.\subsubsection{動詞ベースクラスタリング}4つの動詞「話す」,「発表する」,「発売する」,「増える」(図\ref{fig:step3}\,における未知の動詞$T$)の用例クラスタリングに「語る」,「公表する」,「売り出す」,「減る」(図\ref{fig:step3}\,における既知の動詞$S$)のタグ付き用例4551個を利用する.このタグ付き用例は格要素ベースクラスタリングの結果に人手で項構造タグを付与し作成したものである.動詞ベースクラスタリングのステップ2の用例間の類似度計算には,格要素ベースクラスタリングと同じ類似度計算式を用いた.ただし,用例の表層格パタンが同一のもののみ対象とし,閾値は0.85に設定した.\subsection{項構造解析モデル}\label{ssec:asa}項構造解析モデルとしては,用例に対応する項構造候補の選択に最近傍法を用い,また用例間の近さを計算するのにKurohashiら\citeyear{Kurohashi:94}が提案する計算方法を用いた.この計算方法は分類語彙表\cite{BGH:93}を利用して名詞間の類似度を定め,また用例間の類似度に名詞間の類似度の和を用いている.項構造解析の処理を説明する.\\\begin{enumerate}\item入力文の格要素とタグ付き用例の対応付けを行う\item対応付けられたそれぞれの格要素について,入力文の名詞とタグ付き用例との間の類似度を計算する.類似度の値は分類語彙表\cite{BGH:93}における2つの名詞の分類コードの一致するレベルによって決定する.一致するレベルと類似度との関係を表\ref{level2}\,に示す.\item式1に従ってタグ付き用例と入力文の対応の評価値を計算し評価値の高い用例の持つ項構造から順に選択する.\end{enumerate}\begin{eqnarray}評価値=\left\{\begin{array}{ll}0&ifl>n\\sum\times\sqrt[]{\mathstrut\frac{1}{m}}&otherwise\end{array}\right.\end{eqnarray}$n$:対応付けられた格要素数\\$l$:$n$+(入力文側の対応付けられいない格要素数)\\$m$:$n$+(タグ付き用例側の対応付けられいない格要素数)\\$sum$:対応付けられた格要素の類似度の和\\\begin{table}[t]\begin{center}\caption{黒橋らが提案した名詞間の類似度}\begin{tabular}{|c|cccccccc|}\hlineレベル&0&1&2&3&4&5&6&一致\\\hline類似度&0&0&5&7&8&9&10&11\\\hline\end{tabular}\label{level2}\end{center}\end{table}\subsection{提案手法の有用性の評価実験}\label{ssec:eva1}提案手法の有用性を示すために次の3点を経験的に明らかにする.\paragraph{(a)項構造タグ付与作業のコスト}訓練事例作成のために,クラスタリングの結果得られるクラスタに項構造タグを人手で付与する必要がある.今回の実験では,クラスタに項構造を付与する作業はクラスタを代表する用例に対して項構造タグを付与し,それをクラスタの項構造タグと考える.そのため\textbf{クラスタリング結果のクラスタ数}でタグ付与作業のコストを評価する.\paragraph{(b)タグ付与の品質}項構造タグ付与誤りを調査するために,人手で各用例に項構造タグを付与した.また提案手法によって得られたクラスタに項構造を付与する作業はクラスタを代表する用例に対して項構造タグを付与し,それをクラスタの項構造と考える.これらの結果を比較し,\textbf{タグ付与誤りの割合}でタグ付与の品質を評価する.\paragraph{(c)項構造解析精度}項構造解析は一文ごとに処理を行うため,省略などによって文脈を見なくては項構造を一意に決定することができない.省略のある入力に対しては可能な項構造解析結果を漏れなく出力することが望まれる.そこで項構造解析の評価尺度として,類似度の順で解析結果を出力していき,正解を漏れなく答えたときの精度で評価する.つまり,{\bf再現率が100%のときの精度}\footnote{再現率=出力された正解項構造数/正解項構造数,精度=出力された正解項構造数/出力された項構造数}で項構造解析を評価する.なお評価は事例単位でなく,項構造単位で再現率と精度を計算した.例えば,入力「父が事件について話す」の項構造は,表\ref{tab:arg_dic_2}\,に示すように,項構造1[agent,theme,beneficiary]と項構造3[agent,beneficiary,theme,content]の可能性がある.このような入力に関して,項構造1と項構造3の両方の答えを出力するまでの解析結果の精度で評価する.ただし,タグ付き用例集合が入力文の正解を網羅していない場合は,その入力に対して可能なすべての項構造をシステムの出力とする.\\上の(a)項構造タグ付与作業のコスト,(b)タグ付与の品質,(c)項構造解析精度について以下の3つの手法を用いて訓練事例を作成し比較実験を行なった結果を表\ref{tab:res1}\,に示す.\begin{enumerate}\itemベースライン\\各用例に項構造タグを付与し訓練事例を作成.\item格要素ベースクラスタリング\\類似性A(ある動詞について同じ項構造を持つ用例は,格の出現パタンとそれぞれの格要素が類似している)に基づいた用例クラスタリングの結果に項構造タグを付与し訓練事例を作成.\item動詞ベースクラスタリング\\格要素ベースクラスタリングに加え,類似性B(意味的な類似性がある二つの動詞は,格の出現パタンとそれぞれの格要素が類似している)に基づいた用例クラスタリングの結果に項構造タグを付与し訓練事例を作成.\end{enumerate}\begin{table}[t]\begin{center}\caption{提案手法の作業コスト,品質と項構造解析精度}\begin{tabular}{|l||c|c|c|}\hline&(a)\[個]&(b)\[%]&(c)\[%]\\\hline\hline{\footnotesize(1)ベースライン}&8385&0.00&99.3\\\hline{\footnotesize(2)格要素ベースクラスタリング}&2745&0.31&97.7\\\hline{\footnotesize(3)動詞ベースクラスタリング}&{\bf1505}&0.70&97.3\\\hline\end{tabular}\label{tab:res1}\end{center}\end{table}表\ref{tab:res1}\,の(a)項構造タグ付与作業のコストが示すように,格要素ベースクラスタリングによってベースラインの作業コストを約3分の1(2745/8385)に削減し,動詞ベースクラスタリングを用いてさらに半減(1505/2745)できた.この結果より,用例のクラスタリングに一般的な名詞の類似度を用いた手法に加え,類似する動詞のタグ付き用例を利用して,未知の動詞の用例をさらにマージすることができたと言える.また,動詞ベースクラスタリングは格要素ベースクラスタリングと比べ,タグ付与品質では多少の低下が見られるものの,項構造解析の精度にはほとんど影響しなかった.この結果から,項構造タグ付与作業済みの動詞が増えると,ある動詞と意味的に類似する動詞が増加するので,より多くの動詞ベースクラスタリングが可能になり,項構造解析精度を保ったままタグ付与作業のコストをさらに削減できると考えられる.また,ベースラインと格要素ベースクラスタリングにおける項構造解析精度の差は,\ref{ssec:clb}\,節で動詞ベースクラスタリングのねらいとして述べたように,述語とその項の間の意味的な関係を示す項構造の項となる要素の集合は,その要素自身が持つ意味だけでは表現することができないことを示す結果になっている.\begin{figure}[t]\begin{center}\includegraphics[width=\columnwidth,keepaspectratio]{20060219_0.eps}\caption{用例規模に対する用例異なり数とクラスタ数,項構造解析精度(テストデータ)}\label{fig:res2}\end{center}\end{figure}\subsection{用例規模の異なりによる評価実験}\label{ssec:eva2}大規模な訓練事例を利用することがどの程度項構造解析精度の向上に寄与するかを評価するため,用例集合の規模を変化させたときの(a)クラスタ数と(c)項構造解析精度の変化を調べた.図\ref{fig:res2},\ref{fig:res4}\,は動詞ベースクラスタリングまで施したときの結果である.横軸は用例の規模(年単位)であり,棒グラフはそれぞれ用例異なり数とそれをクラスタリングすることによって得られるクラスタ数を示している.また折れ線グラフは項構造解析精度(図\ref{fig:res2}:テストデータの220用例に対する結果,図\ref{fig:res4}:訓練事例の8385用例の10分割交差検定の結果)である.なお図\ref{fig:res4}\,のクラスタ数,項構造解析精度は交差検定の結果の平均を示している.図\ref{fig:res2},\ref{fig:res4}\,を見ると,用例規模が増加すると収集できる用例異なり数は増加し続けているのに対し,得られるクラスタ数は収束しつつある.すなわち,用例規模を増やしたときに得られる新規の用例は収集済みの用例と類似している可能性が高いため,項構造解析の精度向上に寄与する保証は必ずしもない.しかし,異なるデータセットを用いた実験の結果,図3,4に示すように,用例規模を増やせば項構造解析精度が向上するということが経験的に明らかになった.これは,項構造解析においてはクラスタの重心ではなく,最近傍の用例を参照しているためである.すなわち,用例規模を変化させたときのクラスタリングの結果に大きな違いがないとしても,クラスタの外延的定義はより緻密になっており,複数のクラスタ間の用例に対する類似度がより正確に見積もられていると解釈できる.ちなみに,「は」,「も」,「無格」の曖昧性を人手で解消せずに,Kurohashiら\citeyear{Kurohashi:94}の手法で項構造解析と表層格の曖昧性解消を行った結果,項構造解析精度は90.8%であり,人手で曖昧性を解消した結果と比べ約7%低下している.この結果より,項構造解析精度を改善するにはこの種の多義性解消の問題に取り組む必要があることが明らかになった.「は」,「も」,「無格」の曖昧性を解消するためには,単純に用例を増やすだけでなく,ゼロ照応解析や連体修飾の解析との統合について検討すべきであると考えられる.\begin{figure}[t]\begin{center}\includegraphics[width=\columnwidth,keepaspectratio]{20060219_1.eps}\caption{用例規模に対する用例異なり数とクラスタ数,項構造解析精度(交差検定)}\label{fig:res4}\end{center}\end{figure} \section{おわりに} \label{sec:fifth}本論文では,項構造解析の精度向上を目指して,用例と項構造を対応付けるタグ付与作業コストの削減について議論した.また,動詞に関する2種類の類似性に基づき用例をクラスタリングすることで作業コストを削減する一手法を提案した.提案手法を用いて実際にタグ付与作業を行ったところ,タグ付与の品質や項構造解析の精度を保ったまま,作業コストを約2割に削減できた.また,最近傍法を用いた項構造解析では,タグ付与された事例を増やすことで精度を向上できた.この結果より,解析精度の向上にはいかにコストをかけずに大規模な項構造タグ付き用例を収集するかが主要な問題であることがわかり,我々の提案手法はその問題の一つの解決策となっていることが確認できた.ただし,動詞それぞれについて網羅的に大規模な用例を作成するためには,項構造解析精度を低下させることなく選択的に用例をサンプリングするための評価尺度について検討したり,能動学習を採り入れるなど,さらなるコスト削減の方法を考える必要がある.そこで,提案した手法によって得られたクラスタすべてにタグを付与せず,クラスタを選択的にサンプリングし,一部の代表的なクラスタにタグを付与することで作業コストをさらに削減することを試みた.選択的サンプリングでは「いかに項構造解析に貢献するクラスタを選択するか」が課題となる.サンプルの選択基準は多々あるが,今回は動詞ベースクラスタリングの結果を利用し,サイズの大きいクラスタ(多くの用例から構成さているクラスタ)を優先した.\ref{sec:fourth}\,節の評価実験と同じ評価データ,クラスタリングの設定,項構造解析モデルで評価実験を行なった.結果を図\ref{fig:res3}\,に示す.タグ付与を行ったクラスタ数(横軸)に対する,項構造解析精度とタグ付けされる用例数の変化を表している.結果から単にクラスタサイズに基づいてサンプリングするだけではさらなるコスト削減の方法として必ずしも良い結果が得られないことがわかった.今後,どのような基準でサンプリングするか,およびタグ付与作業の終了条件について検討を重ねる必要がある.\begin{figure}[t]\begin{center}\includegraphics[width=\columnwidth,keepaspectratio]{selective005.eps}\caption{選択的サンプリングによる項構造解析精度}\label{fig:res3}\end{center}\end{figure}また項構造解析精度を向上させるには「は」,「も」などの表層格の曖昧性解消や接尾辞を伴うことによる格交替の曖昧性の解消に今後取り組む必要がある.接尾辞を伴うことによる交替現象はある程度の文法規則によってとらえられると考えられるが,「は」,「も」の曖昧性は単純に用例を増やすだけでは解消できないことが今回の実験結果からわかる.この曖昧性を高精度で解析するためにはゼロ照応解析や連体修飾の解析も視野に入れた解析手法が必要であり,今後その問題にも取り組みたい.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baker,Filmore,\BBA\Lowe}{Bakeret~al.}{1998}]{Frame:98}Baker,C.~F.,Filmore,C.~J.,\BBA\Lowe,J.~B.\BBOP1998\BBCP.\newblock\BBOQTheBerkeleyFrameNetProject\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics(COLING-ACL)},\mbox{\BPGS\86--90}.\bibitem[\protect\BCAY{Dorr}{Dorr}{1997}]{Dorr:97}Dorr,B.~J.\BBOP1997\BBCP.\newblock\BBOQLarge-ScaleAcquisitionofLCS-BasedLexiconsforForeignLanguageTutoring\BBCQ\\newblockIn{\BemProceedingsofthe5thConferenceonAppliedNaturalLanguageProcessing},\mbox{\BPGS\139--146}.\bibitem[\protect\BCAY{Filmore}{Filmore}{1968}]{Fil:68}Filmore,C.~J.\BBOP1968\BBCP.\newblock\BBOQThecaseforcase\BBCQ\\newblockIn{\BemUniversalsinLinguisticTheory},\mbox{\BPGS\1--88}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{gildea:02:c}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticlabelingofsemanticroles\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{Hacioglu\BBA\Ward}{Hacioglu\BBA\Ward}{2003}]{Kadri:03}Hacioglu,K.\BBACOMMA\\BBA\Ward,W.\BBOP2003\BBCP.\newblock\BBOQTargetWordDetectionandSemanticRoleChunkingusingSupportVectorMachines\BBCQ\\newblockIn{\BemHLT-NAACL2003:HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics,CompanionVolume:Shortpapers},\mbox{\BPGS\25--27}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{NTT:97}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系:CD-ROM版}.\newblock岩波書店.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1987}]{IPAL}情報処理振興事業協会技術センター\BBOP1987\BBCP.\newblock\Jem{計算機用日本語基本動詞辞書IPAL(BasicVerbs)辞書編}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2002}]{kawahara:02:a}河原大輔\JBA黒橋禎夫\BBOP2002\BBCP.\newblock\JBOQ用言と直前の格要素の組を単位とする格フレームの自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(1),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{Kingsbury\BBA\Palmer}{Kingsbury\BBA\Palmer}{2002}]{Prop:02}Kingsbury,P.\BBACOMMA\\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQFromTreeBanktoPropBank\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\1989--1993}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1993}]{BGH:93}国立国語研究所\BBOP1993\BBCP.\newblock\Jem{分類語彙表},\Jem{国立国語研究所資料集},6\JVOL.\newblock秀英出版.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi:94}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQAMethodofCaseStructureAnalysisforJapaneseSentencesbasedonExamplesinCaseFrameDictionary\BBCQ\\newblock{\BemIEICETransactionsonInformationandSystems},{\BbfE77-D}(2),\mbox{\BPGS\227--239}.\bibitem[\protect\BCAY{Lapata\BBA\Brew}{Lapata\BBA\Brew}{1999}]{Lapata:Brew:99}Lapata,M.\BBACOMMA\\BBA\Brew,C.\BBOP1999\BBCP.\newblock\BBOQUsingSubcategorizationtoResolveVerbClassAmbiguity\BBCQ\\newblockIn{\BemProceedingsoftheJointSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora},\mbox{\BPGS\266--274}.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{levin:93}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishVerbClassesandAlternations:APreliminaryInvestigation}.\newblockChicagoPress.\bibitem[\protect\BCAY{Thompson,Levy,\BBA\Manning}{Thompsonet~al.}{2003}]{Cyn:03}Thompson,C.~A.,Levy,R.,\BBA\Manning,C.~D.\BBOP2003\BBCP.\newblock\BBOQAGenerativeModelforSemanticRoleLabeling\BBCQ\\newblockIn{\BemMachineLearning:ECML2003},\mbox{\BPGS\397--408}.\end{thebibliography}\appendix \section{用例間の類似度計算} \label{sec:furoku}\citeA{kawahara:02:a}は以下の類似度計算式を提案した.\\単語$e_{1},e_{2}$の類似度$sim(e_{1},e_{2})$を,日本語語彙大系\cite{NTT:97}のシソーラスを利用して以下のように定義する.\begin{eqnarray}sim_{e}(e_{1},e_{2})&=&max_{x\ins_{1},y\ins_{2}}sim(x,y)\nonumber\\sim(x,y)&=&\frac{2L}{l_{x}+l_{y}}\nonumber\end{eqnarray}ここで,$x,y$は意味属性を表し,$s_{i}$($i\in${1,2})は単語$e_{i}$の意味属性の集合を表す\footnote{日本語語彙大系では,曖昧性を持つ単語を複数の意味属性に登録している.}.$sim(x,y)$は意味属性の$x,y$間の類似度であり,$l_{x},l_{y}$はそれぞれ名詞意味属性の階層の根から$x,y$までの深さを表し,$L$は根から$x,y$までの共通している階層の深さを表す.類似度$sim(x,y)$は0から1の値をとる.用例$P_{1},P_{2}$の格の一致度$cs$は,$P_{1},P_{2}$に含まれるすべての格パタンに対する,$P_{1},P_{2}$の共通格に含まれている格パタンの割合とし,\begin{eqnarray}cs&=&\frac{\sum^{n}_{i=1}\midE_{1cc_{i}}\mid+\sum^{n}_{i=1}\midE_{2cc_{i}}\mid}{\sum^{l}_{i=1}\midE_{1c1_{i}}\mid+\sum^{m}_{i=1}\midE_{2c2_{i}}\mid}\nonumber\end{eqnarray}と定義する.ただし用例$P_{1}$中の格を$c1_{1}$,$c1_{2}$,$\cdots$,$c1_{l}$,用例$P_{2}$中の格を$c2_{1}$,$c2_{2}$,$\cdots$,\\$c2_{m}$,$P_{1}$と$P_{2}$の共通格を$cc_{1}$,$cc_{2}$,$\cdots$,$cc_{n}$とする.また,$E_{1cc_{i}}$は$P_{1}$内の格$cc_{i}$に含まれる格用例群であり,$E_{2cc_{i}}$,$E_{1c1_{i}}$,$E_{2c2_{i}}$も同様である.$\midE_{1cc_{i}}\mid$は$E_{1cc_{i}}$の頻度を表す.用例$P_{1},P_{2}$の共通格に含まれる格用例群の類似度$sim_{E}(P_{1},P_{2})$は,格用例の類似度の和を正規化したもので,\begin{eqnarray}sim_{E}(P_{1},P_{2})=\frac{\sum^{n}_{i=1}\sum^{}_{e_{1}\inE_{1cc_{i}}}\sum^{}_{e_{2}\inE_{2cc_{i}}}\mide_{1}\mid\mide_{2}\midsim_{e}(e_{1},e_{2})}{\sum^{n}_{i=1}\sum^{}_{e_{1}\inE_{1cc_{i}}}\sum^{}_{e_{2}\inE_{2cc_{i}}}\mide_{1}\mid\mide_{2}\mid}\nonumber\end{eqnarray}とする.用例$P_{1},P_{2}$間の類似度は,格の一致度$cs$と$P_{1},P_{2}$の共通格の格用例群間の類似度の積とし,次のようにして計算する.\begin{eqnarray}類似度&=&cs\cdotsim_{E}(P_{1},P_{2})\nonumber\end{eqnarray}\newpage \section{その他の動詞の項構造辞書の項目} \label{sec:sonota}\begin{table}[htbp]\begin{center}\caption{動詞「発表する」項構造辞書の項目}\small\begin{tabular}{||llll|p{7cm}l||}\hline\hline\multicolumn{5}{||l}{述語:発表する}&\\&\multicolumn{4}{l}{語義:新しい事実や考えなどを,広く世間に知らせる.}&\\&&\multicolumn{3}{l}{項構造1[agent,theme]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,を&研究者が論文を発表する.&\\&&\multicolumn{3}{l}{項構造2[agent,content]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,と&政府が自衛隊を派遣すると発表する.&\\&&\multicolumn{3}{l}{項構造3[agent,theme,content]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,を,と&政治家が結果を残念だと発表する.&\\\hline\hline\end{tabular}\label{tab:pred2}\end{center}\begin{center}\caption{動詞「発売する」項構造辞書の項目}\small\begin{tabular}{||llll|p{7cm}l||}\hline\hline\multicolumn{5}{||l}{述語:発売する}&\\&\multicolumn{4}{l}{語義:売り出すこと.}&\\&&\multicolumn{3}{l}{項構造1[agent,theme]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,を&SONYが商品を発売する.&\\\hline\hline\end{tabular}\label{tab:pred3}\end{center}\begin{center}\caption{動詞「増える」項構造辞書の項目}\small\begin{tabular}{||llll|p{7cm}l||}\hline\hline\multicolumn{5}{||l}{述語:増える}&\\&\multicolumn{4}{l}{語義:数量が多くなる.}&\\&&\multicolumn{3}{l}{項構造1[theme]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が&映画館が増える.&\\&&\multicolumn{3}{l}{項構造2[theme,goal]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,に&体重が100\,kgに増える.&\\&&&が,まで&川の水が腰の位置まで増える.&\\&&&が,へ&予算が一千万円へ増える.&\\\hline\hline\end{tabular}\label{tab:pred4}\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{平野徹}{2003年和歌山大学システム工学部情報通信システム学科卒業.2005年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年日本電信電話株式会社入社.現在に至る.自然言語処理の研究に従事.}\bioauthor{飯田龍}{2002年九州工業大学情報工学部知能情報工学科卒業.現在,奈良先端科学技術大学院大学情報科学研究科博士後期課程在学中.情報処理学会学生会員.自然言語処理,特に照応解析の研究に従事.}\bioauthor{藤田篤(正会員)}{2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.京都大学情報学研究科産学官連携研究員を経て,2006年より名古屋大学大学院工学研究科助手.現在に至る.博士(工学).自然言語処理,特にテキストの自動言い換えの研究に従事.情報処理学会,ACL各会員.}\bioauthor{乾健太郎(正会員)}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同年より同研究科助手.1998年より九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科助教授.2004年文部科学省長期在外研究員として英国サセックス大学に滞在.現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{松本裕治(正会員)}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V20N04-03
\section{はじめに} 現在の自動要約の多くは文を単位にした処理を行っている\cite{okumura05}.具体的には,まず入力された文書集合を文分割器を用いて文集合に変換する.次に,文集合から,要約長を満たす文の組み合わせを,要約としての善し悪しを与える何らかの基準に基づいて選び出す.最後に,選び出された文に適当な順序を与えることによって要約は生成される.近年では,複数文書の自動要約は最大被覆問題の形で定式化されることが多い\cite{filatova04,yih07,takamura08,gillick09,higashinaka10b,nishikawa13}.これは,入力文書集合に含まれる単語のユニグラムやバイグラムといった単位を,与えられた要約長を満たす文の集合によってできる限り被覆することによって要約を生成するものである.最大被覆問題に基づく要約モデル\footnote{本論文では,自動要約のために設計された,何らかの目的関数と一連の制約によって記述される数理計画問題を特に要約モデルと呼ぶことにする.これは自動要約のための新しい要約モデル(数理計画問題)の開発と,何らかの要約モデルに対する新しい最適化手法の提案を陽に切り離して議論するためである.また,特定の要約モデルとその要約モデルに対する具体的な一つの最適化手法を合わせたものを要約手法と呼ぶことにする.}(以降,最大被覆モデルと呼ぶ)は,複数文書要約において問題となる要約の冗長性をうまく取り扱うことができるため,複数文書要約モデルとして高い能力を持つことが実証されている\cite{takamura08,gillick09}.しかし,その計算複雑性はNP困難である\cite{khuller99}ため,入力文書集合が大規模になった場合,最適解を求める際に多大な時間を要する恐れがある.本論文で後に詳述する実験では,30種類の入力文書集合を要約するために1週間以上の時間を要した.平均すると,1つの入力文書集合を要約するために8時間以上を要しており,これではとても実用的とは言えない.一方,ナップサック問題として自動要約を定式化した場合,動的計画法を用いることで擬多項式時間で最適解を得ることができる\cite{korte08,hirao09b}.ナップサック問題に基づく要約モデル(以降,ナップサックモデルと呼ぶ)では,個別の文に重要度を与え,与えられた要約長内で文の重要度の和を最大化する問題として自動要約は表現される.この問題は個別の文にスコアを与え,文のスコアの和を最大化する形式であるため,要約に含まれる冗長性が考慮されない.そのため,最大被覆モデルとは異なり冗長な要約を生成する恐れがある.最大被覆モデルとナップサックモデルを比較すると,前者は複数文書要約モデルとして高い性能を持つものの求解に時間を要する.一方,後者は複数文書要約モデルとしての性能は芳しくないものの高速に求解できる.本論文では,このトレードオフを解決する要約モデルを提案する.本論文の提案する要約モデルは,動的計画法によって擬多項式時間で最適解を得られるナップサック問題の性質を活かしつつ,要約の冗長性を制限する制約を陽に加えたものである.以降,本論文ではこの複数文書要約モデルを冗長性制約付きナップサックモデルと呼ぶことにする.冗長性を制限する制約をナップサックモデルに加えることで冗長性の少ない要約を得ることができるが,再び最適解の求解は困難となるため,本論文では,ラグランジュヒューリスティック\cite{haddadi97,umetani07}を用いて冗長性制約付きナップサックモデルの近似解を得る方法を提案する.ラグランジュヒューリスティックはラグランジュ緩和によって得られる緩和解から何らかのヒューリスティックを用いて実行可能解を得るもので,集合被覆問題において良好な近似解が得られることが知られている\cite{umetani07}.本論文の貢献は,新しい要約モデル(冗長性制約付きナップサックモデル)の開発,および当該モデルに対する最適化手法の提案(ラグランジュヒューリスティックによるデコーディング)の両者にある.冗長性制約付きナップサックモデルの,最大被覆モデルおよびナップサックモデルに対する優位性を表\ref{tb:comp}に示す.提案する要約モデルを提案する最適化手法でデコードすることで,最大被覆モデルの要約品質を,ナップサックモデルの要約速度に近い速度で得ることができる.\begin{table}[t]\caption{冗長性制約付きナップサックモデルの優位性}\label{tb:comp}\input{03table01.txt}\end{table}以下,2節では関連研究について述べる.3節では提案する要約モデルについて述べる.4節では,デコーディングのためのアルゴリズムについて述べる.5節では提案手法の性能を実験によって検証する.6節では本論文についてまとめる. \section{関連研究} \label{relatedwork}複数文書要約においては,要約の冗長性に対する対処が重要な課題の1つである\cite{okumura05}.複数の文書から1つの要約を生成する際に,複数の文書が類似する情報を含んでいるときには,類似する情報がいずれも要約に含まれる恐れがある.複数文書要約の目的を鑑みると,類似する情報が要約に2度含まれることは好ましくないため,この問題に対処する必要がある.この冗長性に対する対処として,Filatovaらによって最大被覆問題による要約モデルが提案された\cite{filatova04}.最大被覆問題による要約モデルは文の集合と要約長を入力とする.集合中の文はそれぞれ何らかの概念を含んでおり,この概念はその性質に応じて重要度を持っている.概念はユニグラムやバイグラムなど,文から抽出できる何らかの単位である.また,文はそれぞれその単語数や文字数に応じて,長さを持っている.最大被覆問題の最適解は,合計の長さが要約長を超えない文の集合のうち,集合中の文が持っている概念の重要度の和が最大となるものである.ただし,文の集合に含まれる概念の重要度の和を計算するときには,同じ概念は一度しか数えない.例えば,文の集合にある概念が3つ含まれていたとしても,最大被覆問題においては,文の集合に含まれる概念の重要度の和は,その概念が1つしか含まれないときと同じである.複数文書の要約を最大被覆問題として考えた場合,同じ概念は一度しか数えないという性質が重要な役割を果たす.すなわち,文が含む概念を情報とすると,同じ情報を3つ含んだ要約も同じ情報を1つ含んだ要約も解としての良さは同じであり,よりよい解はより多様な情報を含んだ解である.このような,多様な情報を含んだ解がより良好な解であるという最大被覆問題の性質は,複数文書要約に必要なモデルの性質として適切であり,これまで最大被覆問題に基づいた要約モデルがいくつも提案されてきた.Filatovaらは単語を概念として,重要度をtf-idfで与え,これを貪欲法\cite{khuller99}で解いた.Yihらはスタックデコーダ\cite{jelinek69}を用いてこれを解いた\cite{yih07}.高村らはこれに整数計画問題としての厳密な定式を与え,近似解法と分枝限定法による結果を報告した\cite{takamura08}.Gillickらも同様に整数計画問題としての定式を与え結果を報告した\cite{gillick09}.これらは全て新聞記事を要約の対象としているが,他の領域を対象にした複数文書要約も行われている.東中らはコンタクトセンタログを要約の対象として,発話を文,発話に含まれる単語を概念とする要約モデルを提案した\cite{higashinaka10b}.西川らはレビュー文書集合を要約の対象として,商品やサービスに対して評価を行っている記述を概念の単位とする複数文書要約モデルを提案した\cite{nishikawa13}.最大被覆問題はNP困難である\cite{khuller99}ため,解の探索が重要な課題である.貪欲法のような単純な探索法を用いた場合,良好な解を得られる可能性は必ずしも高くないものの,高速に解を得られる.Khullerらによって提案された貪欲法による最大被覆問題の解は,最悪でも最適解の目的関数値の$(1-1/e)/2$を達成する\cite{khuller99}.高村らはこれを複数文書要約に応用して結果を報告している\cite{takamura08}.スタックデコーダのようなより複雑な探索法を用いることによってより良好な解を得られる可能性が高まるが,探索に要する時間も増加する.分枝限定法を用いることで最適解を得ることができるものの,問題の規模が増加するにつれて探索に要する時間は著しく増加する.単一文書要約に目を向けると,単一文書要約は冗長性が問題となる恐れが少ないため,冗長性を加味しない手法を利用することができる.単一文書要約は,ナップサック問題として定式化できる\cite{mcdonald07,hirao09b}.ナップサック問題による要約モデルも文の集合と要約長を入力とする.最大被覆問題と異なり,ナップサック問題はそれぞれの文が直接重要度を持っている.ナップサック問題の最適解は,合計の長さが要約長を超えない文の集合のうち,集合を構成する文の重要度の和が最大となるものである.ナップサック問題の最適解は動的計画法の一種である動的計画ナップサックアルゴリズムによって擬多項式時間で求めることができる\cite{korte08}.そのため,ナップサック問題の最適解は高速に求めることができる.しかし,ナップサック問題は文に対して直接重要度を定義し,その和を最大化するものであるため,冗長性を削減する仕組みを持たない.従って,複数文書要約に適用した場合,冗長な要約が生成される恐れがある.先に述べたように,最大被覆問題は複数文書要約に適した性質を持っているものの,良好な解の探索には多大な時間を要する.一方,ナップサック問題は複数文書要約に適さないものの,最適解の探索は容易である.本論文で提案する方法は,このトレードオフを解決するため,ナップサック問題に対して冗長性を削減する制約を加えたものである. \section{最大被覆モデルとナップサックモデル} ここでは最大被覆問題に基づいた要約モデル,最大被覆モデルと,ナップサック問題に基づいた要約モデル,ナップサックモデルを比較する.\subsection{最大被覆モデル}$n$文の入力および,それらに含まれる$m$個の概念を考える.概念は先に述べたよう単語のユニグラムやバイグラムなどであるが,文中から抽出できる他の何らかの情報でもよい.${\bfx}$を文$i$が要約に含まれる際に$x_{i}=1$となる決定変数を要素とするベクトルとする.${\bfz}$を概念$j$が要約に含まれる際に$z_{j}=1$となる決定変数を要素とするベクトルとする.${\bfw}$を概念$j$の重要度$w_{j}$を要素とするベクトルとする.行列${\bfA}$の要素$a_{j,i}$を文$i$に含まれる概念$j$の数とする.${\bfl}$を文$i$の長さ$l_{i}$を要素とするベクトルとする.$K$を要約長とする.このとき,最大被覆問題は以下のように定式化される.\begin{align}\max_{{\bfz}}&\quad{\bfw}^{\top}{\bfz}\\s.t.&\quad{\bfAx}\geq{\bfz}\\&\quad{\bfx}\in\{0,1\}^{n}\\&\quad{\bfz}\in\{0,1\}^{m}\\&\quad{\bfl}^{\top}{\bfx}\leqK\end{align}\pagebreak式(1)が目的関数であり,式(2)\footnote{本論文では,$n$次元のベクトル${\bfa}$と${\bfb}$に大小関係${\bfa}\geq{\bfb}$が成り立つのは,ベクトル${\bfa}$の要素$a_{i}$とベクトル${\bfb}$の要素$b_{i}$に$a_{i}\geqb_{i}(\foralli)$が成り立つときとする.}から式(5)が制約である.式(4)が示すように${\bfz}$の要素は0あるいは1である.もし概念$z_{j}$が要約に含まれれば,$z_{j}=1$となり,その重要度$w_{j}$は目的関数に加算される.可能であれば全ての概念を要約に含めたいが,要約長の制限によってはそれは許されない.式(2)が示すように,概念$z_{j}$を要約に含めるためには,$z_{j}$を含むいずれかの文が要約として選択されていなければならない.仮に文$x_{i}$が要約に含まれた場合,式(5)の左辺の値は$l_{i}$だけ増える.式(5)によって要約として選択された文の長さの合計は$K$を超えることが許されない.式(3)の示すように${\bfx}$の要素は0あるいは1である.このことは1つの文は一度しか要約に含めないことを示す.これらのことから,最大被覆モデルの最適解は,要約長を満たす文の組み合わせを全て試し,全ての組み合わせに対して${\bfz}$を計算し,${\bfw}$とかけあわせ,かけあわせた値が最大となる文の組み合わせを探し出せば見つけられるとわかる.しかし,一部の組み合わせは要約長を満たさない場合があるものの,文の組み合わせの数は$2^{n}$にもなる.そのため,全ての組み合わせを列挙することは困難である.\subsection{ナップサックモデル}次に,ナップサック問題に目を向けることにする.${\bfx}$を文$i$が要約に含まれる際に$x_{i}=1$となる決定変数を要素とするベクトルとする.${\bfz}$を概念$j$が要約に含まれる際に$z_{j}=1$となる決定変数を要素とするベクトルとする.上述した最大被覆モデルと同様の記法に従ってナップサックモデルを記述すると以下のようになる.\begin{align}\max_{{\bfz}}&\quad{\bfw}^{\top}{\bfz}\\s.t.&\quad{\bfAx}={\bfz}\\&\quad{\bfx}\in\{0,1\}^{n}\\&\quad{\bfz}\in(\mathbb{N}^{0})^{m}\\&\quad{\bfl}^{\top}{\bfx}\leqK\end{align}ここで,$\mathbb{N}^{0}$は,0を含む,0以上の自然数である.目的関数である式(6),1つの文は一度しか要約に含めないとする制約である式(8),要約の長さに関する制約である式(10)は最大被覆モデルと変わらないものの,式(2)と式(7),式(4)と式(9)がそれぞれ異なる.式(4)ではベクトル${\bfz}$は0と1を要素とするベクトルであったが,式(9)ではベクトル${\bfz}$は0以上の自然数を要素とするベクトルである.\pagebreak最大被覆モデルでは要約に同じ概念が何個含まれていようともそれぞれの概念について目的関数において一度しかその重要度を加算しなかった.それに対してナップサックモデルでは要約に同じ概念が複数含まれていた場合その数だけ重要度を目的関数において加算する.この性質のため,ナップサックモデルを用いて複数文書要約を行った場合には冗長な要約ができる可能性が高く,したがって,ナップサックモデルの複数文書要約における性能は芳しいものではない.式(7)は,式(2)と異なり,文が含む概念の数をそのままベクトル${\bfz}$に反映させる.例えば,文$1$は概念$5$を2つ含むとすると,$a_{5,1}=2$である.文$2$は概念$5$を1つ含むとすると,$a_{5,2}=1$である.文1と文2のいずれもが要約に選ばれたとすると(すなわち$x_{1}=1$,$x_{2}=1$),式(7)から,$z_{5}=a_{5,1}\timesx_{1}+a_{5,2}\timesx_{2}=2\times1+1\times1=3$となり概念5は要約に3つ含まれることになる. \section{冗長性制約付きナップサックモデル} \subsection{ナップサックモデルへの冗長性制約の付与}前節で述べたように,最大被覆問題が冗長性に強い理由は式(4)にあり,ナップサックモデルが冗長性に弱い理由は式(9)であった.そこで,式(9)に工夫を施すことでナップサックモデルの冗長性を抑制することを考える.すなわち,ある単語が要約に含まれる回数を直接制御することで,ナップサックモデルの冗長性を削減する.本論文の主たる貢献はここにある.\begin{align}\max_{{\bfz}}&\quad{\bfw}^{\top}{\bfz}\\s.t.&\quad{\bfAx}={\bfz}\\&\quad{\bfx}\in\{0,1\}^{n}\\&\quad{\bfz}\in\{z_{j}|\mathbb{N}^{0}\cap[0,r_{j}]\}^{m}\\&\quad{\bfl}^{\top}{\bfx}\leqK\end{align}式(14)は,ベクトル${\bfz}$の各要素は0以上$r_{j}$以下の自然数であることを示す.すなわち,各概念が要約に含まれてよい個数を制限するベクトル${\bfr}=(r_{1},r_{2},\ldots,r_{m})$を考え,これによって要約の冗長性を削減する.本論文では式(11)から式(15)で記述される要約モデルを冗長性制約付きナップサックモデルと呼ぶ.このモデルは最大被覆モデルと等価ではない.最大被覆モデルは,要約に概念が複数含まれることを許す.ただし,目的関数を計算する上では1つの概念の重要度は一度しか加えない.それに対し,冗長性制約付きナップサックモデルは,\pagebreakある概念が要約に含まれる数を直接制限する\footnote{なお,文の間に,ベクトル${\bfr}$を通じて排他的な制約が与えられているものとみなすと,冗長制約付きナップサックモデルは,排他制約付きナップサックモデル\cite{yamada02}とみなせる.例えば,上に述べた文1と文2は概念5のためにいずれか一方しか要約に含めることができないという制約は,$x_{1}+x_{2}\leq1$と記述することができる.}.上に述べた例と同じように,文$1$は概念$5$を2つ含み($a_{5,1}=2$),文$2$は概念$5$を1つ含むとする($a_{5,2}=1$).このとき$r_{5}=2$であったとすると,文1と文2を同時に要約に含めることはできない.概念5は要約には2つしか含めることができないが,文1と文2いずれも要約に含めてしまうと要約には概念5が3つ含まれてしまうからである.最大被覆モデルでは,長さの制約に違反しない限り,このような組み合わせも許される.一方,冗長性制約付きナップサックモデルでは式(14)が示す制約を違反する組み合わせは許されない.ナップサックモデルに式(14)が示す冗長性に関する制約(以下,冗長性制約と呼ぶ)を加えることで冗長性を削減することができるが,動的計画ナップサックアルゴリズムで擬多項式時間で最適解を求めることはできなくなる\footnote{正確には,$n$に関しては擬多項式時間であるが,$m$に関しては指数時間となるため,素早い求解ができない.}.冗長性制約付きナップサックモデルを動的計画法で解くことは可能だが\footnote{もちろん,冗長性制約付きナップサックモデルを整数計画ソルバーで解くことも可能である.本論文では,冗長性制約付きナップサックモデルを整数計画ソルバーで解くことでその最適解を求める.},冗長性制約を考慮するためには,探索の過程において,ある時点での要約に含まれる概念の数を記録しておかなければならない.ある時点において要約に含まれる概念の数の組み合わせは複数存在するため,これによって探索空間が増大してしまい,素早い求解ができなくなる.\subsection{冗長性制約のラグランジュ緩和}この冗長性制約付きナップサックモデルから冗長性制約を除去すれば,元のナップサックモデルが得られる.そこで,この冗長性制約をラグランジュ緩和\cite{korte08}する.以下は,式(14)を緩和し,ベクトル${\bfr}$による冗長性制約を目的関数に組み込んだものである.\begin{align}\max_{{\bfz}}&\quad{\bfw}^{\top}{\bfz}+\mbox{\boldmath$\lambda$}({\bfr}-{\bfz})\\s.t.&\quad{\bfAx}={\bfz}\\&\quad{\bfx}\in\{0,1\}^{n}\\&\quad{\bfz}\in(\mathbb{N}^{0})^{m}\\&\quad\boldsymbol{\lambda}\in(\mathbb{R}^{+})^{m}\\&\quad{\bfl}^{\top}{\bfx}\leqK&\end{align}$\boldsymbol{\lambda}=(\lambda_{1},\lambda_{2},\ldots,\lambda_{m})$は非負のラグランジュ乗数ベクトルである.式(16)から式(21)は,目的関数である式(16)の2つ目の項$\boldsymbol{\lambda}({\bfr}-{\bfz})$および式(20)を除いてナップサックモデルと同じである.このラグランジュ緩和問題は,要約に含まれる概念$j$の個数$z_{j}$が$r_{j}$を超えた際に,非負のラグランジュ乗数$\lambda_{j}$を通じて目的関数に罰を与える.例えば,あるとき,概念5が要約に3つ含まれている($z_{5}=3$)が,ベクトル${\bfr}$によって要約に2つまでしか含めてはならないと制限されている($r_{5}=2$)とする.また,ラグランジュ乗数$\lambda_{5}$が1だったとする.このとき$\lambda_{j}(r_{5}-z_{5})=1(2-3)=-1$となり,目的関数は低下する.$\boldsymbol{\lambda}$の調整は,この緩和問題のラグランジュ双対問題$L(\boldsymbol{\lambda})=\min_{\lambda}\{\max_{{\bfz}}{\bfw}^{\top}{\bfz}+\boldsymbol{\lambda}({\bfr}-{\bfz})\}$を解くことで行う.このように,$\boldsymbol{\lambda}$を適切に調整し,冗長性の原因となりやすい概念の重要度を低下させることで,動的計画ナップサックアルゴリズムによって元のナップサックモデルを解いた際でも複数文書要約として良好な解を得ようとするのが本論文の提案である.具体的なデコーディングの方法については次節で述べる. \section{デコーディング} デコーディングで必要になるのは,ラグランジュ乗数ベクトル$\boldsymbol{\lambda}$の値を適切に設定することである.$\boldsymbol{\lambda}$の値が適切に設定されていれば,あとはそれを動的計画ナップサックアルゴリズムで解くだけでよい.$\boldsymbol{\lambda}$は前節で述べたラグランジュ双対問題を解くことで得られる.このラグランジュ双対問題は最小化の中に最大化が入れ子になっており,最適化が困難であるものの,劣勾配法\cite{korte08}を用いると良好な近似解が高速に得られることが知られている\cite{umetani07}.劣勾配法は,初期値として適当な$\boldsymbol{\lambda}$を設定し,$\boldsymbol{\lambda}$の値を繰り返し更新していくものである.このとき,一度にどの程度$\lambda_{j}$の値を動かすか,という点が問題となる.一度に大きく値を動かせばデコーディングに要する時間が短くなると考えられるものの,最適解から離れてしまう可能性もある.そこで,本論文ではラグランジュヒューリスティック\cite{haddadi97}を利用する.ラグランジュヒューリスティックは,ラグランジュ乗数を更新するとき,上界と下界の差を利用してステップサイズを調整する.また,下界を計算する際に,ヒューリスティックを利用する.上界はある反復におけるラグランジュ緩和問題の解である.冗長性制約が緩和されているため,冗長性制約付きナップサックモデルの緩和問題の最適解の目的関数値は,明らかに緩和されていない元問題の最適解の目的関数値より高い.劣勾配法によってラグランジュ乗数を更新していく過程で,ラグランジュ緩和問題の解は,制約に違反している解,すなわち実行不能解から,徐々に目的関数値を低下させながら実行可能解に近づいていく.下界はなんらかのヒューリスティックによって得られる実行可能解である.本論文では,Haddadiによる方法\cite{haddadi97}と同様に,貪欲法\cite{khuller99}を用いて実行可能解を復元する.詳細については次節で述べる.ラグランジュヒューリスティックによるデコーディングの具体的なアルゴリズムをAlgorithm1に示す.Algorithm1の基本的な手順は以下のようになる.\begin{algorithm}[b]\caption{ラグランジュヒューリスティックによるデコーディングアルゴリズム}\begin{algorithmic}[1]\STATE{$\boldsymbol{\lambda}\leftarrow{\bf0},\{\bfs}\leftarrow{\bf0},\{\bfx}\leftarrow{\bf0},\{\bfz}\leftarrow{\bf0}$}\FOR{$t=1$to$T$}\STATE{${\bfs}\leftarrow\mathit{sentence}({\bfA},\\boldsymbol{\lambda},\m,\n,\{\bfw})$}\STATE{${\bfx}\leftarrow\mathit{dpkp}(K,\{\bfl},\n,\{\bfs})$}\IF{$\mathit{score}({\bfA},m,n,{\bfx},{\bfw})\leqb_{u}$}\STATE{$b_{u}\leftarrow\mathit{score}({\bfA},m,n,{\bfx},{\bfw})$}\ENDIF\STATE{${\bfz}\leftarrow\mathit{count}({\bfA},\m,\n,\{\bfx})$}\IF{${\bfz}$violates${\bfr}$}\STATE{${\bfx}\leftarrow\mathit{heuristic}({\bfA},K,{\bfl},m,n,{\bfw})$}\IF{$\mathit{score}({\bfA},m,n,{\bfx},{\bfw})\geqb_{l}$}\STATE{$b_{l}\leftarrow\mathit{score}({\bfA},m,n,{\bfx},{\bfw})$}\STATE{${\bfx}_{l}\leftarrow{\bfx}$}\ENDIF\STATE{$\boldsymbol{\lambda}\leftarrowupdate(\alpha,\b_{l},\b_{u},\\boldsymbol{\lambda},\m,\{\bfr},\{\bfz})$}\ELSE\RETURN{${\bfx}$}\ENDIF\ENDFOR\RETURN{${\bfx}_{l}$}\end{algorithmic}\end{algorithm}\begin{enumerate}\itemラグランジュ乗数ベクトル$\boldsymbol{\lambda}$を適当な値に初期化する.\item以下の手続きを既定回数だけ繰り返す.\begin{enumerate}\item動的計画ナップサックアルゴリズムで式の最適解を得る.\itemaで得た最適解が制約を満たしているときはそれを下界とし,(3)へ.そうでなければヒューリスティックを用いて実行可能解を得る.\itembで得た実行可能解がこれまでの下界を上回るものであれば,下界を更新する.\end{enumerate}\item下界を出力して終了する.\end{enumerate}$\alpha$は$\boldsymbol{\lambda}$のステップサイズを調整するパラメータである.ベクトル${\bfs}=(s_{1},s_{2},\ldots,s_{n})$の要素$s_{i}$は文$i$の重要度をあらわす.各文の重要度は関数$\mathit{sentence}$によって計算される.関数$\mathit{dpkp}$は動的計画ナップサックアルゴリズムである.動的計画ナップサックアルゴリズムの詳細はAlgorithm2に示す.$b_{l}$と$b_{u}$はそれぞれ目的関数の下界と上界である.これらは$\boldsymbol{\lambda}$のステップサイズの調整に利用される.関数$\mathit{score}$は要約${\bfx}$の重要度を計算する.関数$\mathit{count}$は要約${\bfx}$に含まれる概念の数${\bfz}$を返す.${\bfx}_{l}$は下界$b_{l}$に対応する解である.ラグランジュ緩和問題の劣勾配ベクトル${\bfd}=(d_{1},d_{2},\ldots,d_{m})$は以下のようになる.\begin{equation}d_{j}=r_{j}-z_{j}\end{equation}ラグランジュ緩和された集合被覆問題に対するUmetaniらの更新式に基づき\cite{umetani07},ラグランジュ乗数は以下の更新式によって更新する.\begin{equation}\lambda_{j}^{new}\leftarrow\max\left(\lambda_{j}^{old}+\alpha\frac{b_{u}-b_{l}}{||{\bfd}||^{2}}(z_{j}-r_{j}),0\right)\end{equation}$\alpha$は更新幅を調整するパラメータである.更新式の基本的な考え方は,上界$b_{u}$と下界$b_{l}$の差が大きい際には更新幅を大きくしつつ,劣勾配ベクトルに従ってラグランジュ乗数を更新していくというものである.\subsection{貪欲法による実行可能解の復元}ラグランジュヒューリスティックは,実行不能解から実行可能解を何らかのヒューリスティックを用いて復元するものである.本論文では,以下の手続きで実行可能解を復元する.\begin{enumerate}\item制約に違反している概念を含む文のうち,最も重要度が低いものを要約から除去する.\item要約がまだ制約を満たさない場合は(1)へ.要約が制約を満たした場合は,要約に含まれていない文と,要約長$K$と制約を満たした要約の長さの差から,部分問題を生成し,これを貪欲法で解く.\end{enumerate}例えば,要約長が300文字であったとする.制約に違反する文を除去し,制約を満たした要約の長さが200文字だったとすると,100文字分まだ要約に文を含めることができる.そこで,まだ要約に含まれていない文を,100文字分,貪欲法\cite{khuller99}を用いて要約に含めることで,実行可能解を求める.\subsection{動的計画ナップサックアルゴリズム}ナップサックモデルのデコーディングは動的計画ナップサックアルゴリズムを用いて行う.具体的なアルゴリズムはAlgorithm2に示す.\begin{algorithm}[t]\caption{動的計画ナップサックアルゴリズム}\begin{algorithmic}[1]\STATE{${\bfx}\leftarrow{\bf0}$}\FOR{$k=0$to$K$}\STATE{$T[0][k]\leftarrow0$}\ENDFOR\FOR{$i=1$to$n$}\FOR{$k=0$to$K$}\STATE{$T[i][k]\leftarrowT[i-1][k]$}\STATE{$U[i][k]\leftarrow0$}\ENDFOR\FOR{$k=l_{i}$to$K$}\IF{$T[i-1][k-l_{i}]+s_{i}\geqT[i][k]$}\STATE{$T[i][k]\leftarrowT[i-1][k-l_{i}]+s_{i}$}\STATE{$U[i][k]\leftarrow1$}\ENDIF\ENDFOR\ENDFOR\STATE{$k\leftarrowK$}\FOR{$i=n$to$1$}\IF{$U[i][k]=1$}\STATE{$x_{i}\leftarrow1$}\STATE{$k\leftarrowk-l_{i}$}\ENDIF\ENDFOR\RETURN{${\bfx}$}\end{algorithmic}\end{algorithm}動的計画ナップサックアルゴリズムでは,$(n+1)\times(K+1)$次元の表$T$と$U$を用意し,これに計算の過程を保存していく.表$T$の要素$T[i][k]$は,文1から文$i$までが与えられており,最大要約長が$k$であったときのナップサックモデルの最適解の目的関数値を格納している.表$U$の要素$U[i][k]$は,$T[i][k]$の値を計算する際に,すなわちその時点での最適値を計算する際に文$i$を要約に利用している場合は1,そうでない場合は0を格納している.すなわち,$T[n][K]$まで計算し終わった時点で,最大要約長が$K$で文1から文$n$までが使われた場合にどの文が要約に含まれるか表$U$に格納されている.そのため,$U[n][K]$まで表を埋めたのち,$U[n][K]$に到達するまでの過程を逆にたどることで,ナップサックモデルの最適解を得ることができる. \section{実験} 本節では提案した手法の性能を評価した結果について報告する.本節では,\ref{methods}で述べる手法を用いて,\ref{corpora}で述べる文書集合を要約し,生成された要約を\ref{measures}で述べる評価手法で評価する.\ref{methods}で述べる手法が必要とするパラメータの設定については\ref{parameters}で述べる.結果とその考察については\ref{results}で述べる.\subsection{比較手法}\label{methods}以下の手法を比較した.\begin{enumerate}\item{\bfRCKM}\hspace{1zw}提案手法.冗長性制約付きナップサックモデルを整数計画ソルバーを用いてデコードしたもの.冗長性制約付きナップサックモデルの最適解における性能を示す.ソルバーは{\ttlp\_solve}\footnote{http://lpsolve.sourceforge.net/5.5/}を用いた\footnote{商用のソルバーを用いればより高速にデコードできる可能性があるが,それらは有償であるため,今回は広く利用されており無料で利用することができる{\ttlp\_solve}を用いた.}.\item{\bfRCLM-LH}\hspace{1zw}提案手法.冗長性制約付きナップサックモデルを本論文で提案するラグランジュヒューリスティックを用いてデコードしたもの.提案するデコーディングアルゴリズムによって得られる近似解の性能を示す.\item{\bfMCM}\hspace{1zw}ベースライン.最大被覆モデルをソルバーを用いてデコードしたもの.\item{\bfMCM-GR}\hspace{1zw}ベースライン.最大被覆モデルを貪欲法を用いてデコードしたもの.\item{\bfKM}\hspace{1zw}ベースライン.ナップサックモデルを動的計画ナップサックアルゴリズムでデコードしたもの.\item{\bfHUMAN}\hspace{1zw}達成しうる性能の上限を調べるため,複数の参照要約を用いて,性能の上限を求める.\ref{corpora}節で述べるコーパスのうち,レビューコーパスは1つの評価セットに対して4つの参照要約が付与されているため,参照要約同士を比較することで性能の上限を示すことが可能である.4つの参照要約があるため,それらの6つの組み合わせのうち,\ref{measures}節で述べる評価尺度ROUGEの値が最も高いものを性能の上限として採用する\footnote{値が最も高いものを利用する理由については\ref{measures}節で述べる.}.なお,\ref{corpora}節で述べるコーパスのうち,TSC-3は1つの評価セットに対して1つの参照要約しか付与されていないため,これを計算できるのはレビューのみである.\end{enumerate}{\bfRCKM-LH},{\bfMCM-GR}および{\bfKM}のデコーダはPerlで実装した.全てのプログラムはIntelXeonX5560(QuadCore)2.8~GHzCPUを2つ,64~Gバイトのメモリを搭載した計算機上で動作させた.\subsection{コーパス}\label{corpora}上の手法を以下の2種類のコーパスによって評価した.\begin{enumerate}\item{\bfTSC-3}\hspace{1zw}TSC-3コーパス\cite{hirao04}は自動要約のシェアード・タスクTextSummarizationChallenge3\footnote{http://lr-www.pi.titech.ac.jp/tsc/tsc3.html}で用いられたコーパスで,複数文書要約の評価セットを含む.要約の対象となる文書は新聞記事であり,記事は毎日新聞および読売新聞から収集されている.それぞれの評価セットは企業買収やテロなど特定のトピックに関する新聞記事から構成されている.評価セットは30セットからなる.1セットは新聞記事10記事前後からなり,1つの評価セットに含まれる記事の文字数の和は平均して約6,564文字である.評価セット全体では352記事3,587文が含まれる.それぞれの評価セットに対しては人間の作業者が短い要約と長い要約の2種類の参照要約を付与している.Hiraoらによれば,参照要約の付与に際し,作業者は要約の対象となる記事を全て読んだのち,当該記事集合にふさわしい要約を作成した\cite{hirao04}.短い要約は平均して約413文字であり,要約率\footnote{要約率は,参照要約の長さを入力文書集合の長さの和で割ったものである\protect\cite{okumura05}.例えば参照要約が400文字,入力文書集合の長さの和が8000文字である場合,要約率は$5\%=\frac{400}{8000}$となる.}にして約6\%,長い要約は平均して約801文字であり,要約率にして約12\%である\footnote{Hiraoらによれば,参照要約の作成時には作業者に対して,短い要約については要約率5\%程度の要約を,長い要約については要約率10\%程度の要約を作成するように指示を与えたとしている\cite{hirao04}.本論文で計測した値とは多少の差があるものの,5\%,10\%という値はあくまで目処として与えたものであると述べられているため,作業者はこれらの指示より多少長い要約を作成したものと思われる.}.本実験では短いものを用いて評価を行った.評価セットごとに参照要約の長さが異なるため,要約を生成する際には参照要約と同じ長さを要約長として与え要約を生成した.すなわち,本コーパスを用いた際には,平均として,約12記事からなる約6,564文字の記事集合を入力とし,約413文字の要約を生成する,要約率約6\%の要約タスクとなる.\item{\bfレビュー}\hspace{1zw}新聞記事とは異なるドメインで提案する要約モデルを評価するため,レビュー記事を用いて評価を行った.インターネット上のレビューサイトから飲食店30店舗に関するレビュー記事を収集し,これを30セットの複数文書要約の評価セットとした.1セットはレビュー記事15記事前後からなり,1つの評価セットに含まれる記事の文字数の和は平均して約2,472文字である.評価セット全体では468記事2,275文が含まれる.それぞれの評価セットに対しては4人の作業者が参照要約を付与しており,作業者は要約の対象となる記事を全て読んだのち,当該記事集合にふさわしい要約を作成した.要約長はすべて200文字を上限とした.そのため,実験において要約を生成する際には一律200文字を要約長として要約を生成した.従って,要約率は平均して8\%である.本コーパスを用いた際には,平均として,約16記事からなる約2,472文字の記事集合を入力とし,200文字の要約を生成する,要約率約8\%の要約タスクとなる.\end{enumerate}表\ref{tb:statistics}にコーパスに関する統計量をまとめておく.\begin{table}[t]\caption{評価に用いたコーパスの統計量}\label{tb:statistics}\input{03table02.txt}\end{table}\subsection{評価尺度}\label{measures}我々の提案する手法を評価するため,以下の2つの尺度を用いた.\begin{enumerate}\item{\bf要約品質}\hspace{1zw}\pagebreak要約の品質の評価には要約の自動評価尺度であるROUGE\cite{lin04}を用いた.ROUGEの亜種のうち,ROUGE-1およびROUGE-2を評価に利用した.なお,平尾らは,参照要約のROUGE値を計算する際には,文を構成するすべての単語ではなくて,内容語\footnote{名詞,動詞,形容詞および未知語.}のみを用いて計算を行った方が人間による評価と相関が高い結果が得られると報告している\cite{hirao06}.そのため,本論文でもROUGE値を計算する際には内容語のみを用いた.生成された要約を単語に分割し品詞を付与する際にはFuchiらによる形態素解析器\cite{fuchi98}を利用した.ROUGE値を算出するプログラムはLinの文献\cite{lin04}に従い独自に実装した.なお,レビューコーパスについては1セットに対して複数の参照要約が付与されているため,評価の際には,当該セットに付与されているすべての参照要約に対してROUGE値を求め,最も高いROUGE値をその要約のROUGE値とした.このROUGE値の計算方針はLinの提案によるものである\cite{lin04}.これは,ある入力文書集合に対して妥当な要約は複数存在し得ると考えられることから,参照要約の中で機械による要約にとって最も近いものとのROUGE値をもってその要約の評価とするためである\footnote{なお,別途,すべての参照要約に対するROUGE値の平均と,最も低いROUGE値も求めたが,表\ref{tb:quality}と同様の傾向を示したため,本論文では割愛する.}.\item{\bf要約速度}\hspace{1zw}要約の生成までの速度を計測した.いずれのコーパスでも,30セットすべてを要約するまでの時間を計測した.\end{enumerate}なお,要約品質の検定にはウィルコクソンの符号順位検定\cite{wilcoxon45}を用いた.多重比較となるため,全体の有意水準は0.05とした上で,$p$値の大きさに従って検定それぞれにおいて有意水準をホルム法\cite{holm79}で調整した.\subsection{パラメータ}\label{parameters}本節では要約に際して必要なパラメータの設定について述べる.以下に述べるパラメータのうち,概念重要度は全ての手法が利用する.概念冗長性は{\bfRCKM}および{\bfRCKM-LH}が利用する.ステップサイズおよびイテレーションは{\bfRCKM-LH}のみが利用する.\subsubsection{概念重要度}概念$j$およびその重要度$w_{j}$はコーパスに合わせそれぞれ以下のように設定した.\begin{enumerate}\item{\bfTSC-3}\hspace{1zw}概念$j$は内容語とし,その重み$w_{j}$はtf-idf\cite{filatova04,clarke07}に基づき,$w_{j}=tf_{j}log(\frac{N}{df_{j}})$とした.ここで,$tf_{j}$は要約の対象となる入力文書集合中での内容語$j$の出現頻度,$df_{j}$は新聞記事コーパス中で内容語$j$を含む記事の数,$N$は新聞記事コーパスに含まれる記事の総数である.新聞記事コーパスとして,2003年と2004年の毎日新聞コーパス\footnote{http://www.nichigai.co.jp/sales/corpus.html}を利用した.文を単語に分割し品詞を付与する際にはFuchiらによる形態素解析器\cite{fuchi98}を利用した.\item{\bfレビュー}\hspace{1zw}レビューを要約の対象としたため,概念$j$として評価情報を利用した.評価情報の定義とその抽出方法は西川らによるもの\cite{nishikawa13}に従った\footnote{詳細は付録に示す.}.概念$j$の重み$w_{j}$は当該評価情報の入力文書集合中での出現頻度を利用した.評価情報を文中から抽出する際,形態素解析にはFuchiらによる形態素解析器\cite{fuchi98}を,係り受け解析にはImamuraらによる係り受け解析器\cite{imamura07}を,評価表現辞書は浅野らによる評価表現辞書\cite{asano08a}をそれぞれ利用した.\end{enumerate}なお,本論文では内容語を概念としてレビューを対象に要約を実施する実験は行わない.西川らは,内容語を概念としてレビューを対象に要約を実施した場合,評価情報を用いた場合と比べ良好な結果を得ることができなかったと報告している\cite{nishikawa13}.彼らはこの結果について,レビューの要約においては焦点となる情報が評価情報であるため,それを被覆の対象としなければ良好な結果が得られないと結論づけており,これは妥当な解釈であると考えられる.同様に,評価情報を概念として新聞記事を対象に要約を実施する実験も行わない.これは,予備実験として,新聞記事に付録記載の評価情報抽出を行ったところ,ほとんど評価情報が抽出されず,従って評価情報を概念として新聞記事を対象に要約を行っても意味のある結果は期待できないと考えられるためである.新聞記事においては「〜はよかった」「〜は悪かった」というような何らかの評価に関する記述があまり存在しない.そのため評価情報は新聞記事を対象として要約を実施する際に有効な概念であるとは言えない.\subsubsection{概念冗長性}冗長性パラメータ$r_{j}$は以下の4種類を設定した.\begin{enumerate}\item{\bfON}\hspace{1zw}概念冗長性を1とする.これは,同じ概念が2回以上要約に出現することを禁じる.すなわち$r_{j}=1$である.この制約を用いた場合,同一の概念は一度しか要約中に出現することができず,そのため最大被覆問題と同様に冗長性が削減されることが期待される.最大被覆問題とこの制約を用いた冗長性制約付きナップサックモデルの差異は,前者は目的関数を利用して冗長性を削減するのに対し,後者は制約を用いて冗長性を削減することにある.\item{\bfKL}\hspace{1zw}概念$j$の入力文書集合中の出現頻度に,要約長$K$と入力文書集合のサイズ$L=\sum^{n}_{i=1}l_{i}$の比をかけたものとする.ただし,値が小数となることが多いため,その場合は値を切り上げることとした.すなわち$r_{j}=\lceiltf_{j}\frac{K}{L}\rceil$である.この制約を用いた場合,入力文書集合中での概念の出現頻度の分布が,要約長を加味した上で要約にも同程度再現されることが期待される.\item{\bfSR}\hspace{1zw}概念冗長性を,各単語の入力文書集合中での出現回数の平方根とする.{\bfKL}と同様,値が小数となることが多いが,その場合は値を切り下げることとした.これは{\bfKL}では$r_{j}$の値が1未満になることがあるのに対し,平方根を取る場合はその恐れがないためである.すなわち$r_{j}=\lfloor\sqrt{tf_{j}}\rfloor$である.この制約は{\bfKL}と異なり要約長の影響を受けない.また,{\bfKL}に比べ冗長性に寛容である.\item{\bfRF}\hspace{1zw}概念冗長性を,参照要約に含まれる概念の数とした.これは,概念冗長性が理想的に設定された場合の性能を示している.なお,レビューコーパスについては複数の参照要約が存在するため,同一の概念については複数の参照要約の平均を取り,小数となった場合は値を切り上げることとした.\end{enumerate}これらは2つのコーパスで共通である.\subsubsection{ステップサイズ}$\alpha$は最初は1とし,以降,ラグランジュ乗数がアップデートされた回数の逆数とした.すなわち,最初のアップデートの際は$\alpha$は1であり,次のアップデートの際は$\frac{1}{2}$,さらに次のアップデートの際には$\frac{1}{3}$となる.\subsubsection{イテレーション}ラグランジュヒューリスティックによるデコーディングの際にはイテレーションの回数$T$を調整することができる.イテレーションの回数は10回と100回とし,それぞれ{\bfRCKM-LH(10)}と{\bfRCKM-LH(100)}として示す.\subsection{結果と考察}\label{results}要約品質の評価を表\ref{tb:quality}に,要約時間の評価を表\ref{tb:speed}に示す.TSC-3コーパスにおける評価の結果から述べる.まず,{\bfRCKM}と{\bfMCM},{\bfKM}の差異に目を向ける.{\bfRCKM}の中では{\bfRF}が最も高いROUGE値を得ており,次いで{\bfSR}という結果となった.{\bfRF}および{\bfSR}はその最適解において{\bfMCM}を有意に上回っていた.提案するラグランジュヒューリスティックによるデコーディングを用いた場合{\bfRCKM-LH}では,イテレーション回数が10回の場合でも100回の場でも,{\bfRF}は{\bfMCM}を有意に上回っている一方,{\bfSR}は{\bfMCM}と有意な差がなかった.表\ref{tb:speed}に示すように,提案するデコーディング法はソルバーによるデコーディングと比べ高速に要約を生成できており,{\bfMCM}と同水準以上の要約を高速に生成できることがわかる.{\bfMCM}と{\bfMCM-GR}を比べると,貪欲法はソルバーに比べ高速にデコーディングを行うことができるものの,{\bfMCM-GR}の方が有意にROUGE値が低く,探索誤りが生じていることがわかる.{\bfKM}と{\bfMCM}の間に有意差はなかったものの,全体として{\bfMCM}がより高いROUGE値を示した.\begin{table}[p]\caption{要約品質の評価}\label{tb:quality}\input{03table03.txt}\end{table}\begin{table}[p]\caption{要約時間の評価}\label{tb:speed}\input{03table04.txt}\end{table}提案する要約モデル{\bfRCKM}は,冗長性パラメータを{\bfRF}あるいは{\bfSR}とした際に{\bfMCM}に比べ優れている.この理由は,参照要約は単語のレベルにおいてある程度の冗長性を持っているためである.図\ref{fg:exref}は,TSC-3コーパスに含まれる参照要約の1つである.同一の内容語はゴシック体として示してある.図\ref{fg:exref}から,明らかに参照要約は単語のレベルにおいて冗長性を持つことがわかる.\begin{figure}[b]\input{03fig01.txt}\caption{TSC-3コーパスに含まれる参照要約の1つ}\label{fg:exref}\small2回以上出現する内容語はゴシック体として示した.他の処理と同様に,単語境界および品詞の同定はFuchiらによる形態素解析器\protect\cite{fuchi98}によった.\end{figure}図\ref{fg:dist_news}はTSC-3コーパスを用いた実験における冗長性の分布である.縦軸に内容語の種類,横軸に同一の参照要約中での出現頻度をとりプロットした.点は,参照要約,\ref{parameters}節で述べた方法によって設定された冗長性パラメータ,および各手法によって実際に生成された要約における冗長性の分布を示している.例えば,TSC-3コーパスに含まれる2093種類の内容語は同一の参照要約に一度しか出現しない.一方,10種類の内容語は,同一の参照要約に10回以上出現することがある.図\ref{fg:exref}および図\ref{fg:dist_news}が示すように,ある1つの参照要約において,同一の単語が複数回出現することは何ら珍しいことではない.提案する冗長性制約付きナップサックモデル{\bfRCKM}は,冗長性パラメータを通じ,生成する要約に一定の冗長性を許容することができる.一方,最大被覆モデル{\bfMCM}は冗長性を忌避する.実際に図\ref{fg:dist_news}が示すように,{\bfMCM}が生成する要約は参照要約に比べ冗長性が低い.そのため,図\ref{fg:exref}のように1つの参照要約において同一の単語が複数回出現するという現象を十分に捉えることができない.それに対し,ナップサックモデル{\bfKM}が生成する要約は高い冗長性を持つ.図\ref{fg:dist_news}が示すように,要約中に4回以上出現する単語の種類が参照要約に比べて多く,特に10回以上出現する単語が42種類存在している.このように過度に冗長な要約を生成する性質は複数文書要約にとっては好ましいものではない.\begin{figure}[t]\begin{center}\includegraphics{20-4ia3f2.eps}\end{center}\caption{TSC-3コーパスを用いた実験における冗長性の分布}\label{fg:dist_news}\small縦軸に内容語の種類,横軸に同一の参照要約中での出現頻度をとりプロットした.縦軸は対数スケールとなっていることに注意されたい.凡例のReferenceは,TSC-3コーパスの参照要約に含まれる内容語の冗長性の分布である.すなわち,TSC-3コーパスの参照要約に含まれる内容語のうち,2,093種類は同一の参照要約に1回しか出現しないが,10種類は,同一の参照要約に10回以上出現することがある.凡例のConst-ON,Const-KLおよびConst-SRはそれぞれ\ref{parameters}節で述べた冗長性パラメータ{\bfON},{\bfKL}および{\bfSR}に従って計算された概念冗長性の分布である.例えば,{\bfSR}は2,159種類の単語に同一の要約中において2回まで出現することを許している.凡例のSumm-ON,Summ-KL,Summ-SR,Summ-RF,Summ-MCMおよびSumm-KMはそれぞれ実際に生成された要約における冗長性の分布である.Summ-ON,Summ-KL,Summ-SRおよびSumm-RFは冗長性制約付きナップサックモデル{\bfRCKM}にそれぞれ冗長性パラメータ{\bfON},{\bfKL},{\bfSR}および{\bfRF}を与え,ソルバーを用いてデコードし生成された要約の冗長性である.Summ-MCMは最大被覆モデル{\bfMCM}をソルバーを用いてデコードし生成された要約の冗長性である.Summ-KMはナップサックモデルを動的計画ナップサックアルゴリズムを用いてデコードし生成された要約の冗長性である.\end{figure}図\ref{fg:dist_news}を見ると,冗長性パラメータ{\bfSR}は参照要約の冗長性に近い冗長性を有する要約を実現できている.全体的な傾向として,ナップサックモデルでは,要約中にある回数だけ出現する単語の種類は左から右に向かってなだらかに減少していく.これは,要約中に1度しか出現しない概念の種類と,何度も出現する概念の種類にあまり差がないことを示しており,すなわち,何度も出現する概念の種類が相対的に多いことを示している.一方,最大被覆モデルは左から右に向かって急峻な勾配で種類が減少していく.これは,要約中に1度しか出現しない概念の種類が相対的に多いことを示している.参照要約の冗長性は,これらナップサックモデルと最大被覆モデルの中間を取るように推移しており,冗長性パラメータ{\bfSR}によって生成された要約の冗長性も,参照要約の冗長性に近い位置で推移している.このように参照要約に近い冗長性を再現できたため,{\bfSR}は良好な性能を示すことができたものと考えられる.ナップサックモデルのような過度の冗長性は複数文書要約において問題となる一方,同一の単語,あるいは関連する単語が前後の文に出現する性質は,自動要約の分野においてLexicalchainと呼ばれており,重要文抽出の際の重要な手がかりとして利用されている\cite{barzilay97,clarke07}.{\bfRCKM}はこの性質を捉えることができたということもできよう.テキスト一貫性に関する研究においても,人手によって書かれたテキストにおいて同一の単語が同一のテキストに複数回出現するという性質は利用されている.テキストの一貫性を評価する手法の1つであるEntitygridは,連続する2つの文における,単語の意味役割の変化を特徴量として用いており\cite{barzilay05,barzilay08,yokono10},同一の単語が同一のテキストに複数回出現するという仮定を置いている.参照要約は人手によって書かれたものであるため,テキスト一貫性の観点からこの性質を持っていると考えることができる.このことから,冗長性パラメータ${\bfr}$はテキスト一貫性の観点から設定することもできよう.次に,冗長性パラメータについて述べる.{\bfRCKM}の中では{\bfRF}が最も良好な性能を示し,ついで{\bfSR},{\bfKL},{\bfON}となった.参照要約の冗長性を模倣した場合が最良の結果を得たことから,冗長性の設定は{\bfRCKM}にとって重要であると言える.冗長性パラメータ${\bfr}$を正確に設定するためには,入力文書集合と参照要約の組から回帰モデルを構築し,各単語の参照要約における適切な出現頻度を予測することも考えられよう.{\bfON}に目を向けると,{\bfON}の生成した要約の品質は{\bfSR}や{\bfKL}に比べて著しく悪い.これは,上に述べたように,テキスト一貫性の観点から説明できる.同一の単語は一度しか要約に出現できないという{\bfON}の制約は,上に述べた性質を持ったテキストを生成することを許さない.このため一貫性を欠いたテキストを生成してしまい,これは人間による要約を模倣するという観点からは大きな問題がある.{\bfSR}と{\bfKL}を比較すると,有意に{\bfSR}のROUGE値が高かった.図\ref{fg:dist_news}のConst-KLが示すように,{\bfKL}による冗長性の制約は参照要約の冗長性をうまく模倣しているものの,2回以上の出現を許す単語の種類が参照要約に比べて少ない.TSC-3コーパスの評価セットの要約率は平均して6\%前後であるため,{\bfKL}は要約長に影響され冗長性について厳しい制約を要約に課す.このため,Summ-KLが示すように,要約に十分な冗長性を許すことができず,{\bfSR}に比べてROUGE値において劣後したものと考えられる.一方,Const-SRは全体的に高い冗長性を許すものとなっているが,実際に生成された要約の冗長性Summ-SRは参照要約の冗長性に近い.{\bfSR}によって生成された要約を確認すると,高い冗長性の原因となり要約の品質の低下を招く概念の冗長性を抑制しつつ,概念重要度に従って他の概念を要約に組み込んでおり,これが良好なROUGE値を得た理由と考えられる.次にレビューにおける評価の結果について述べる.{\bfRCKM}と{\bfMCM},{\bfKM}の差異について目を向けると,{\bfKM}は{\bfMCM}と比べ有意にROUGE値が低かった.TSC-3での評価と異なり,{\bfMCM}と{\bfMCM-GR}の間に有意な差はなかった.また,{\bfMCM}と{\bfRCKM}の全ての手法の間にも有意な差はなかった.{\bfRCKM}の中でも,冗長性パラメータによる有意な差はなかった.一方,TSC-3での評価と同様に,表\ref{tb:speed}が示すように提案するデコーディング法はソルバーと比べ高速に要約を生成できており,{\bfMCM}と同水準の要約を高速に生成できることがわかる.{\bfHUMAN}に対してはいずれの手法も及ばなかった.これには2つの理由があると考えられる.1つは概念重要度の設定である.今回は要約対象の文書集合中での評価情報の頻度を概念重要度として用いたが,参照要約を用いて概念重要度を学習することでより良好なROUGE値を得られる可能性がある.もう1つは文の選択のみで要約を作成することの限界である.前述したように,レビューコーパスの参照要約は人間によって自由に記述されているため,文の選択だけでは参照要約と同水準の要約に到達することは難しいと考えられる.この点の解決のためには,文短縮\cite{hirao09a}など,文を書き換える処理を要約の過程に加える必要があろう.TSC-3とレビューを比較すると,前者においては{\bfRCKM}が{\bfMCM}を上回る性能を持つものの,後者においてはそれらの間に差がない.これらは新聞記事の要約とレビュー記事の要約の差異を端的に表している.前者は単語を被覆の対象としているため,上に示したように,1つの要約に複数の単語が含まれることを許すことによって,より高いROUGE値を得ることができる.一方,後者が被覆の対象とするものは評価情報であり,ある特定の評価情報は1つの要約に1つだけ入っていれば十分である.これは,TSC-3においては劣った要約品質を示した{\bfON}が,レビューにおいては他の手法と同水準の要約品質を示していることからもわかる.図\ref{fg:dist_review}は,レビューコーパスに含まれる評価情報を,縦軸に評価情報の種類,横軸に同一の参照要約中での出現頻度をとりプロットしたものである.図\ref{fg:dist_news}と比較するとその差は明らかであり,レビューでは参照要約においてある特定の評価情報は1度しか出現しないことがほとんどである.最後に,提案したラグランジュヒューリスティックによる近似解法の近似精度についても述べておく.近似精度を表\ref{tb:approximation}に示す.数値は,ソルバーによって得られた最適解の目的関数値を100としたときの,近似解法による解の目的関数値を百分率で示したものである.計算にあたっては,いずれも冗長性パラメータは{\bfSR}とし,30セットそれぞれの近似精度の平均を取った.表\ref{tb:approximation}が示すように,提案する近似解法は良好な近似精度を持つことがわかる.\begin{figure}[p]\begin{center}\includegraphics{20-4ia3f3.eps}\end{center}\caption{レビューコーパスを用いた実験における冗長性の分布}\label{fg:dist_review}\small縦軸に評価情報の種類,横軸に同一の参照要約中での出現頻度をとりプロットした.縦軸は対数スケールとなっていることに注意されたい.凡例のReferenceは,レビューコーパスの参照要約に含まれる内容語の冗長性の分布である.すなわち,レビューコーパスの参照要約に含まれる内容語のうち,509種類は同一の参照要約に1回だけ出現し,6種類は2回,1種類は3回出現することがある.凡例のConst-ON,Const-KLおよびConst-SRはそれぞれ\ref{parameters}節で述べた冗長性パラメータ{\bfON},{\bfKL}および{\bfSR}に従って計算された概念冗長性の分布である.凡例のSumm-ON,Summ-KL,Summ-SR,Summ-RF,Summ-MCMおよびSumm-KMはそれぞれ実際に生成された要約における冗長性の分布である.Summ-ON,Summ-KL,Summ-SRおよびSumm-RFは冗長性制約付きナップサックモデル{\bfRCKM}にそれぞれ冗長性パラメータ{\bfON},{\bfKL},{\bfSR}および{\bfRF}を与え,ソルバーを用いてデコードし生成された要約の冗長性である.Summ-MCMは最大被覆モデル{\bfMCM}をソルバーを用いてデコードし生成された要約の冗長性である.Summ-KMはナップサックモデルを動的計画ナップサックアルゴリズムを用いてデコードし生成された要約の冗長性である.\end{figure}\begin{table}[p]\caption{近似精度}\label{tb:approximation}\input{03table05.txt}\end{table} \section{まとめ} 本論文では,複数文書要約において重要なモデルである最大被覆モデルのデコーディングを高速化することを企図し,要約に含めるべき単語数を直接制御する冗長性制約付きナップサック問題に基づく要約モデルを提案した.本論文の新規性および貢献を以下にまとめる.\begin{itemize}\item冗長性制約付きナップサック問題に基づく要約モデルは,その最適解において,最大被覆問題を用いた要約モデルに対して,ROUGE\cite{lin04}において同等以上の性能を持つことを示した.\itemラグランジュヒューリスティクスに基づくデコーディング法によって得られる近似解は,最大被覆問題の最適解とROUGEにおいて同等であることを示した.\item提案手法のデコーディング速度は,整数計画ソルバーによる最大被覆問題のデコーディング速度より100倍以上高速であることを示した.\end{itemize}今後の課題としては,上で述べたように冗長性パラメータをテキスト一貫性の観点から推定することを検討している.また,冗長性パラメータを入力文書集合と参照要約の組から推定することも検討している.\acknowledgment本論文の執筆にあたり,NTTコミュニケーション科学基礎研究所の西野正彬研究員より有益なご助言を頂戴した.記して感謝する.また,査読者および担当編集委員の方々,編集委員会より様々な有益なご助言を頂戴した.記して感謝する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅野\JBA平野\JBA小林\JBA松尾}{浅野\Jetal}{2008}]{asano08a}浅野久子\JBA平野徹\JBA小林のぞみ\JBA松尾義博\BBOP2008\BBCP.\newblockWeb上の口コミを分析する評判情報インデクシング技術.\\newblock\Jem{NTT技術ジャーナル},{\Bbf20}(6),\mbox{\BPGS\12--15}.\bibitem[\protect\BCAY{Barzilay\BBA\Elhadad}{Barzilay\BBA\Elhadad}{1997}]{barzilay97}Barzilay,R.\BBACOMMA\\BBA\Elhadad,M.\BBOP1997\BBCP.\newblock\BBOQUsingLexicalChainsforTextSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheIntelligentScalableTextSummarizationWorkshop(ISTS)},\mbox{\BPGS\10--17}.\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2005}]{barzilay05}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2005\BBCP.\newblock\BBOQModelingLocalCoherence:AnEntity-basedApproach.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\141--148}.\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2008}]{barzilay08}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQModelingLocalCoherence:AnEntity-basedApproach.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\1--34}.\bibitem[\protect\BCAY{Clarke\BBA\Lapata}{Clarke\BBA\Lapata}{2007}]{clarke07}Clarke,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQModellingCompressionwithDiscourseConstraints.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\1--11}.\bibitem[\protect\BCAY{Filatova\BBA\Hatzivassiloglou}{Filatova\BBA\Hatzivassiloglou}{2004}]{filatova04}Filatova,E.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2004\BBCP.\newblock\BBOQAFormalModelforInformationSelectioninMulti-SentenceTextExtraction.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\397--403}.\bibitem[\protect\BCAY{Fuchi\BBA\Takagi}{Fuchi\BBA\Takagi}{1998}]{fuchi98}Fuchi,T.\BBACOMMA\\BBA\Takagi,S.\BBOP1998\BBCP.\newblock\BBOQJapaneseMorphologicalAnalyzerUsingWordCo-occurrence:JTAG.\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics(ACL-COLING)},\mbox{\BPGS\409--413}.\bibitem[\protect\BCAY{Gillick\BBA\Favre}{Gillick\BBA\Favre}{2009}]{gillick09}Gillick,D.\BBACOMMA\\BBA\Favre,B.\BBOP2009\BBCP.\newblock\BBOQAScalableGlobalModelforSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponIntegerLinearProgrammingforNaturalLanguageProcessing},\mbox{\BPGS\10--18}.\bibitem[\protect\BCAY{Haddadi}{Haddadi}{1997}]{haddadi97}Haddadi,S.\BBOP1997\BBCP.\newblock\BBOQSimpleLagrangianHeuristicfortheSetCoveringProblem.\BBCQ\\newblock{\BemEuropeanJournalofOperationalResearch},{\Bbf97},\mbox{\BPGS\200--204}.\bibitem[\protect\BCAY{Higashinaka,Minami,Nishikawa,Dohsaka,Meguro,Kobashikawa,\mbox{Masataki},Yoshioka,Takahashi,\BBA\Kikui}{Higashinakaet~al.}{2010}]{higashinaka10b}Higashinaka,R.,Minami,Y.,Nishikawa,H.,Dohsaka,K.,Meguro,T.,Kobashikawa,S.,\mbox{Masataki},H.,Yoshioka,O.,Takahashi,S.,\BBA\Kikui,G.\BBOP2010\BBCP.\newblock\BBOQImprovingHMM-basedExtractiveSummarizationforMulti-DomainContactCenterDialogues.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEWorkshoponSpokenLanguageTechnology(SLT)},\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{平尾\JBA奥村\JBA磯崎}{平尾\Jetal}{2006}]{hirao06}平尾努\JBA奥村学\JBA磯崎秀樹\BBOP2006\BBCP.\newblock拡張ストリングカーネルを用いた要約システム自動評価法.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1753--1766}.\bibitem[\protect\BCAY{平尾\JBA鈴木\JBA磯崎}{平尾\Jetal}{2009a}]{hirao09a}平尾努\JBA鈴木潤\JBA磯崎秀樹\BBOP2009a\BBCP.\newblock構文情報に依存しない文短縮手法.\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf2}(1),\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{平尾\JBA鈴木\JBA磯崎}{平尾\Jetal}{2009b}]{hirao09b}平尾努\JBA鈴木潤\JBA磯崎秀樹\BBOP2009b\BBCP.\newblock最適化問題としての文書要約.\\newblock\Jem{人工知能学会論文誌},{\Bbf24}(2),\mbox{\BPGS\223--231}.\bibitem[\protect\BCAY{Hirao,Fukushima,Okumura,Nobata,\BBA\Nanba}{Hiraoet~al.}{2004}]{hirao04}Hirao,T.,Fukushima,T.,Okumura,M.,Nobata,C.,\BBA\Nanba,H.\BBOP2004\BBCP.\newblock\BBOQCorpusandEvaluationMeasuresforMultipleDocumentSummarizationwithMultipleSources.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\446--452}.\bibitem[\protect\BCAY{Holm}{Holm}{1979}]{holm79}Holm,S.\BBOP1979\BBCP.\newblock\BBOQASimpleSequentiallyRejectiveMultipleTestProcedure.\BBCQ\\newblock{\BemScandinavianJournalofStatistics},{\Bbf6}(2),\mbox{\BPGS\65--70}.\bibitem[\protect\BCAY{Imamura,Kikui,\BBA\Yasuda}{Imamuraet~al.}{2007}]{imamura07}Imamura,K.,Kikui,G.,\BBA\Yasuda,N.\BBOP2007\BBCP.\newblock\BBOQJapaneseDependencyParsingUsingSequentialLabelingforSemi-spokenLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\225--228}.\bibitem[\protect\BCAY{Jelinek}{Jelinek}{1969}]{jelinek69}Jelinek,F.\BBOP1969\BBCP.\newblock\BBOQFastSequentialDecodingAlgorithmUsingaStack.\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf13}(6),\mbox{\BPGS\675--685}.\bibitem[\protect\BCAY{Khuller,Moss,\BBA\Naor}{Khulleret~al.}{1999}]{khuller99}Khuller,S.,Moss,A.,\BBA\Naor,J.\BBOP1999\BBCP.\newblock\BBOQTheBudgetedMaximumCoverageProblem.\BBCQ\\newblock{\BemInformationProcessingLetters},{\Bbf70}(1),\mbox{\BPGS\39--45}.\bibitem[\protect\BCAY{Korte\BBA\Vygen}{Korte\BBA\Vygen}{2008}]{korte08}Korte,B.\BBACOMMA\\BBA\Vygen,J.\BBOP2008\BBCP.\newblock{\BemCombinatorialOptimization\/}(3rd\BEd).\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin04}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshopTextSummarizationBranchesOut},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{McDonald}{McDonald}{2007}]{mcdonald07}McDonald,R.\BBOP2007\BBCP.\newblock\BBOQAStudyofGlobalInferenceAlgorithmsinMulti-documentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe29thEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\557--564}.\bibitem[\protect\BCAY{西川\JBA長谷川\JBA松尾\JBA菊井}{西川\Jetal}{2013}]{nishikawa13}西川仁\JBA長谷川隆明\JBA松尾義博\JBA菊井玄一郎\BBOP2013\BBCP.\newblock文の選択と順序付けを同時に行う評価文書要約モデル.\\newblock\Jem{人工知能学会論文誌},{\Bbf28}(1),\mbox{\BPGS\88--99}.\bibitem[\protect\BCAY{奥村\JBA難波}{奥村\JBA難波}{2005}]{okumura05}奥村学\JBA難波英嗣\BBOP2005\BBCP.\newblock\Jem{テキスト自動要約}.\newblockオーム社.\bibitem[\protect\BCAY{高村\JBA奥村}{高村\JBA奥村}{2008}]{takamura08}高村大也\JBA奥村学\BBOP2008\BBCP.\newblock最大被覆問題とその変種による文書要約モデル.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(6),\mbox{\BPGS\505--513}.\bibitem[\protect\BCAY{Umetani\BBA\Yagiura}{Umetani\BBA\Yagiura}{2007}]{umetani07}Umetani,S.\BBACOMMA\\BBA\Yagiura,M.\BBOP2007\BBCP.\newblock\BBOQRelaxationHeuristicsfortheSetCoveringProblem.\BBCQ\\newblock{\BemJournaloftheOperationsResearchSocietyofJapan},{\Bbf50},\mbox{\BPGS\350--375}.\bibitem[\protect\BCAY{Wilcoxon}{Wilcoxon}{1945}]{wilcoxon45}Wilcoxon,F.\BBOP1945\BBCP.\newblock\BBOQIndividualComparisonsbyRankingMethods.\BBCQ\\newblock{\BemBiometricsBulletin},{\Bbf1}(6),\mbox{\BPGS\80--83}.\bibitem[\protect\BCAY{Yamada,Kataoka,\BBA\Watanabe}{Yamadaet~al.}{2002}]{yamada02}Yamada,T.,Kataoka,S.,\BBA\Watanabe,K.\BBOP2002\BBCP.\newblock\BBOQHeuristicandExactAlgorithmsfortheDisjunctivelyConstrainedKnapsackProblem.\BBCQ\\newblock{\BemJournalofInformationProcessing},{\Bbf43}(9),\mbox{\BPGS\2864--2870}.\bibitem[\protect\BCAY{Yih,Goodman,Vanderwende,\BBA\Suzuki}{Yihet~al.}{2007}]{yih07}Yih,W.-t.,Goodman,J.,Vanderwende,L.,\BBA\Suzuki,H.\BBOP2007\BBCP.\newblock\BBOQMulti-documentSummarizationbyMaximizingInformativeContent-words.\BBCQ\\newblockIn{\BemIJCAI'07:Proceedingsofthe20thinternationaljointconferenceonArtificalintelligence},\mbox{\BPGS\1776--1782}.\bibitem[\protect\BCAY{横野\JBA奥村}{横野\JBA奥村}{2010}]{yokono10}横野光\JBA奥村学\BBOP2010\BBCP.\newblockテキスト結束性を考慮したentitygridに基づく局所的一貫性モデル.\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\161--182}.\end{thebibliography}\appendix \section{評価情報の抽出方法} まず,評価情報について述べる.西川らの提案\cite{nishikawa13}と同様に,本論文では,評価情報を評価属性$\mathit{aspect}$と評価極性$\mathit{polarity}\in\{-1,0,1\}$の組$e=(\mathit{aspect},\mathit{polarity})$として考える.評価属性は,何らかの対象が評価される際の観点を示す.評価極性は,対象が評価属性に関してポジティブな評価をされているときに$1$,ネガティブな評価をされているときに$-1$,どちらとも言えないときに$0$の3値を取るものとする.一例として,「このデジタルカメラは画質がよい」という表現を考える.この表現の評価属性は「画質」である.また,評価表現「よい」はポジティブな評価であることから,評価極性は$1$となる.そのため,この表現から評価情報$e=(\text{画質},1)$が得られる.評価情報は以下のように抽出する.\begin{enumerate}\item文に係り受け解析を行う.\item評価表現とその評価極性の組を格納した辞書(評価表現辞書)と係り受け解析の結果を照合し,評価表現とその評価極性を得る.\item係り受け木で,評価表現に係っている名詞を評価属性とする.\item得られた評価属性と評価極性を出力する.\end{enumerate}\begin{biography}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年日本電信電話株式会社入社.現在NTTメディアインテリジェンス研究所研究員.2012年より奈良先端科学技術大学大学院博士後期課程在学中.自然言語処理の研究開発に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年株式会社NTTデータ入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{牧野俊朗}{1987年東京大学工学部電子工学科卒業,1992年同大学院博士課程修了.同年日本電信電話株式会社入社.現在NTTメディアインテリジェンス研究所主幹研究員.博士(工学).知識獲得,推論手法,自然言語処理などに関する研究開発に従事.}\bioauthor{松尾義博}{1988年大阪大学理学部物理学科卒業.1990年同大学大学院研究科博士前期課程修了.同年日本電信電話株式会社入社.現在NTTメディアインテリジェンス研究所音声・言語基盤技術グループリーダ.機械翻訳,自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年財団法人新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.言語処理学会,情報処理学会,人工知能学会,認知科学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
V13N03-01
\section{はじめに} 近年,統計ベース翻訳\cite{Brown1993}や用例ベース翻訳\cite{Nagao1984}など大量のテキストを用いた翻訳手法(コーパスベース翻訳)が注目されている.我々は,用例ベース翻訳に焦点を当て研究を行っている.用例ベース翻訳の基本的なアイデアは,入力文の各部分に対して\textbf{類似}している用例を選択し,それらを組み合わせて翻訳を行うことである.ここでいう\textbf{類似}とは,通常,入力文とできるかぎり大きく一致していればいるほど(一致する単語数または文節数が多いほど)よいと考えられてきた.これは,用例が大きくなればなるほど,より大きなコンテキストを扱うことになり,正確な訳につながるからである.そのため,これまでの用例ベース翻訳は,大きな用例を優先する指標/基準を用いて用例を選択してきた.一方,統計ベース翻訳は,翻訳確率を緻密に計算するため,基本的には,翻訳用例を小さな語/句単位に分解して学習を行う.もちろん,最近の統計ベース翻訳では,より大きな単位を取り扱う試みも行われている.例えば,Och\cite{Och1999}等は,アライメントテンプレートという単位を導入し,語列をまとめて学習した.また,他にも多くの統計翻訳研究が語よりも大きな単位を学習に取り込む試みを行っている\cite{Koehn2003,Watanabe2003}.しかし,入力文とできる限り大きく一致した用例を用いる用例ベース翻訳と比べると,あらかじめ翻訳単位を設定する統計ベース翻訳の扱う単位は依然として小さいと言える.簡単に言うと,統計ベース翻訳と用例ベース翻訳は,以下の2点で異なる.\begin{enumerate}\item用例ベース翻訳は,用例のサイズ(一致する単語数または文節数)を重視している.統計ベース翻訳は用例の頻度を重視している.\item用例ベース翻訳は,経験則による指標/基準にもとづいて動作している.統計ベース翻訳は確率的に定式化されている.\end{enumerate}本研究では,用例ベース翻訳の問題は,(2)経験則による指標/基準を用いている点だと考える.経験則による指標/基準は,調整や修正が困難であり,また,アルゴリズムが不透明になる恐れがある.そこで,本研究では,用例ベース翻訳を定式化するために,用例ベース翻訳のための確率モデルを提案する.提案する翻訳モデルは,統計ベースのそれとは異なり,語や句単位の小さな単位から,文全体まで,あらゆるサイズをカバーした翻訳確率を計算する.この枠組みの上では,大きなサイズの用例は安定した翻訳先を伴うため,高い翻訳確率を持つと考えられる.したがって,翻訳確率が高い用例を選ぶことで,自然と用例のサイズを考慮した用例の選択が可能となる.また,提案する翻訳確率は容易に拡張可能であり,用例と入力文のコンテキストの類似度を確率モデルに取り込むことも可能である.実験の結果,提案手法は,従来の経験則に基づいた翻訳システムよりも僅かに高い精度を得て,用例ベース翻訳の透明性の高いモデル化を実現することに成功したので報告する.提案手法は言語ペアを特定しないが,本稿は日英翻訳方向で説明し,実験を行った.本稿の構成は,以下のとおりである.2章では,提案するモデルの基本的アイデアについて説明する.3章では,アルゴリズムについて述べる.4章では,実験について報告する.5章では,関連研究を紹介し,6章に結論を述べる. \section{提案手法} \begin{figure}\begin{center}\epsfxsize=120mm\epsfbox{f_prob5.eps}\end{center}\caption{翻訳のながれ}\label{f_prob.eps}{\footnotesize*本稿の図では,依存構造木の親を左に,子を右に描く.また,本研究では,ノードの単位は日本語は文節,英語はbase-NP,またはbase-VPとする.\par}\end{figure}用例ベース翻訳の基本的な原則はできるだけ大きなサイズの用例を用いて翻訳文を生成することである.これを確率的に定式化するためには,大きな用例を用いた翻訳結果が大きな翻訳確率を持たなくてはならない.本章では,これを実現するための基本アイデアを述べる.まず,提案手法は入力文を可能なかぎりの部分木の組合せに分解する:\begin{equation}D=\{d_{1},...,d_{N}\}.\end{equation}ここで,$d_{i}$は入力文の分解のパターン,$D$は$d_{i}$の集合である.次に,$d_{i}$は入力文を$M_{i}$個の部分木に分解しているとする:\begin{equation}d_{i}=\{s_{i1},s_{i2},...,s_{iM_{i}}\},\end{equation}ここで,$s_{ij}$は入力文の部分木である.例えば,図\ref{f_prob.eps}左の入力文の場合,$d_{1},...,d_{4}$の4通りの部分木の組合せで表現できる.この例では,$d_{1}$は入力文を3つの部分木$s_{11}$,$s_{12}$,$s_{13}$に分解している.また,$d_{2}$,$d_{3}$は,入力文を2つの部分木に分解している.また,$d_{4}$のように,文そのものも分解パターンとして取り扱う.次に,各部分木$s_{ij}$それぞれについて,もっとも翻訳確率$P(t_{ij}\mids_{ij})$(この確率の計算方法は次節にて述べる)の高い用例を選び,それらの積を翻訳文の翻訳確率$T_{P}(d_{i})$とする:\begin{equation}T_{P}(d_{i})=\prod_{s_{ij}\ind_{i}}P(t_{ij}\mids_{ij}).\end{equation}ここで,$t_{i1},...,t_{iM{i}}$を$d_{i}$の翻訳とみなし,$T(d_{i})$と表記する.最後に,もっとも高い翻訳確率を持つ分解パターン($d_m$)を以下の式によって探索し,最終的な翻訳を$T(d_m)$とする:\begin{equation}d_m=\arg\max_{d_{i}\inD}T_{P}(d_{i}).\end{equation}簡単に言うと,提案手法は,入力文のある単位をどう翻訳するかと,どういう単位で翻訳するかという2つ問題を解いている.前者は,最も確率の高い用例を選択することで解決しており,基本的な統計的翻訳と同様の考え方である.後者は,入力文の分解パターンを選択することで解決している.ここで重要なことは,本モデルの枠組みでは,大きな用例を用いた翻訳文が優先されることである.この理由は,大きな用例は安定した翻訳先を持つ傾向にあるため,高い翻訳確率を持ち,当然,その積である翻訳文の確率$T_{P}(d_{i})$も自然と高くなるからである.例えば,日本語``かける''は,翻訳の際には大きな曖昧性があり,``bet'',``run''や``play''など様々な英語表現が考えられる.ここで,もし,$T(d_{1})$のように,入力文を小さな部分木に分解した場合は,適切な訳である$P(play\midかける)$の翻訳確率は低く,適切な翻訳は行われない.一方,$T(d_{2})$では,より大きな表現``CDをかける''を用いた用例を探索している.この用例の英語表現としては,ほとんどが``play''となり,用例の翻訳確率は高くなる.その結果,用例群の翻訳確率の積である$P(d_{2})$も高くなり,この結果が翻訳として採用される.また,図\ref{f_prob.eps}の$T(d_{4})$のように,大きすぎる単位で検索した場合は,コーパス中に存在せず,確率が定義されない場合がある.\subsection{パラメータの推定}\begin{figure}\begin{center}\epsfxsize=75mm\epsfbox{f_cs.eps}\end{center}\caption{コンテストの定義}\label{f_cs.eps}\end{figure}\begin{table}\caption{``かける''を含んだ用例とそのコンテキスト(コンテキストは括弧で示されている)}\label{tc0}\begin{center}\begin{tabular}{ccc}\hline用例原言語側&用例目的言語側&context\_sim\\\hline(テープを)かける&play&0.8\\(CDを)かける&play&0.8\\(MDを)かける&put&0.8\\(目覚ましを)かける&set&0.6\\:&:&:\\(お金を)かける&bet&0.4\\(1万円を)かける&bet&0.4\\(名誉を)かける&bet&0.3\\\hline\end{tabular}\end{center}{\footnotesize*実際には用例は木構造の形で扱われているが,表記を簡潔にするため,この図では用例の構造は記していない.}\end{table}本節では,用例の翻訳確率の推定方法を述べる.まず,英語部分木$t$と日本語部分木$s$からなる用例があるとする.この翻訳確率$P(t\mids)$は,アライメントされたコーパス中での対応$(t,s)$の出現頻度を直接数えて求める:\begin{equation}P(t\mids)=\frac{count(t,s)}{count(*,s)},\end{equation}ここで,$count(t,s)$は,アライメントされたコーパスにおける対応$(t,s)$の出現頻度,$count(*,s)$は日本語部分木($s$)の出現頻度である\footnote{後述する実験では,データスパースネスの問題に対処するため,$s$と$t$は内容語に汎化して集計を行った.}.ただし,この頻度の計算にあたっては,次節に述べるコンテキストの情報を利用した拡張が可能である.\clearpage\subsection{入力文と用例のコンテキストの類似度を取り込んだ確率モデル}用例の選択にあたって重要な手がかりは入力文と用例の一致するサイズであり,それは,2.1節で提案された翻訳確率の枠組みで実現されている.しかし,用例のサイズに加えて,入力文と用例のコンテキストの類似も重要な手がかりである.提案するモデルは,このようなコンテキストの類似を取り込む拡張を自然に行うことができる.まず,提案手法を説明する前に,用例と入力文のコンテキストを定義する.図\ref{f_cs.eps}に示されるように,用例の原言語側が$i_{1..3}$という3つの句と接続しているとする.これらとそれと対応する入力文の$j_{1..3}$をコンテキストと考える.そして,用例と入力文のコンテキストの類似度を次の式で定める:\begin{equation}context\_sim(s)=\sum_{i\inN}sim(i,j),\end{equation}ここで,$i$は用例Aの日本語側で翻訳に使う部分の周辺の句,$j$は$i$と対応する入力文の句,$N$は$i$の集合,$sim(i,j)$はシソーラス\cite{NTT}を用いて計算する$i$と$j$の類似度(max=1)であり,以下の式で定義される:\begin{eqnarray}sim(i,j)=\frac{2d_c}{d_{i}+d_{j}},\end{eqnarray}ここで,$d_{i}$と$d_{j}$は,それぞれ$i$と$j$のシソーラス上での深さ,$d_c$は,$d_{i}$と$d_{j}$の共通するパスの深さである.提案手法のポイントは,高い類似度を持つ用例は,同じく高い類似度を持つ用例のみを用いて翻訳確率を計算する点である.すなわち,式5によって,ある用例の翻訳確率を計算する際には,$context\_sim(s)$以上の類似度を持つ用例だけを集計して翻訳確率を計算し,$context\_sim(s)$未満の類似度の用例は,用例の翻訳確率の計算には用いない.この操作を用例のフィルタリングと呼ぶ.このフィルタリングの操作は,用例のサイズごとに翻訳確率を計算する手法を,類似度にまで拡大したものであり,自然な拡張であるといえる.この拡張の結果,高い$context\_sim$を持つ用例は,それよりも低い$context\_sim$を持つ用例の影響を受けず,多くの場合,高い翻訳確率を持つことになる.例えば,``レコードをかける''がコーパスに存在しない(しかし,``レコード''と``かける''それぞれ単独では出現している)場合に,表\ref{tc0}の用例群を用いて翻訳することを考える.前節までの手法では,このように,大きなサイズで一致するものがない場合,``かける''単独で翻訳確率を計算することになり,``bet''など不適切な訳語が選ばれる可能性がある.本節の提案手法では,用例``CDをかける''と入力文``レコードをかける''の$context\_sim$が0.8であるとすると,同じく0.8以上の$context\_sim$を持つ用例だけを用いて翻訳確率を計算する.この場合,用例の数は3つだけとなるとが,その英語表現は安定しており,$P(play\midかける)=\frac{2}{3}$,$P(put\midかける)=\frac{1}{3}$となる.このように類似したコンテキストを持つ用例の翻訳確率は自然と高くなる傾向をもつ.また,この枠組では,類似度がもっとも高い用例が一つしかない場合,その翻訳確率は最大の1となる.これは,より大きな用例が利用可能であった場合に,その大きな用例よりも,類似している小さな用例を優先しているかのように見える.この問題は次のように解決されている.まず,提案手法は用例を構築する際に,大きな用例を分解した一部分も独立した用例として扱い,データベースに蓄える(3.1節ステップ3).よって,ある大きな用例が利用できる状態で,それよりも小さい,もっとも類似した用例が一つしかない場合における,その一つしかない用例とは,大きな用例の一部分から作られた用例となる.というのは,大きな用例が利用可能であるならば,その分解から得られた用例は,その周辺が入力文と同一であり,最大の類似度とるためである.よって,この場合,大きな用例ともっとも類似している用例のどちらを採用すると考えても,作られる翻訳は同じとなる. \section{翻訳システムの構成} \begin{figure*}\begin{center}\epsfxsize=100mm\epsfbox{f_te_c6_te.eps}\end{center}\caption{用例データベースの構築}\label{f_te_c6_te.eps}\end{figure*}提案するシステムは,次の2つのモジュールから構成される:\begin{enumerate}\item\textbf{アライメント・モジュール}:コーパスから用例を構築するモジュール,\item\textbf{翻訳モジュール}:翻訳を行うモジュール.\end{enumerate}\subsection{アライメント・モジュール}\begin{description}\item\textbf{ステップ1:対訳文の依存構造への変換}\\まず,対訳文を日本語パーサKNP\cite{Kurohashi1994}と英語パーサnl-parser\cite{Charniak2000}によって統語解析する.日本語の句の単位は,KNPの出力する文節とし,KNPの出力する依存構造をそのまま以降の処理に用いる.英語パーサは句構造を出力するので,句構造中の主辞を決定して,出力結果を依存構造に変換する.この際,主辞の決定には人手で作成した規則を用い,句の単位はbase-NP,base-VPとした.\\\item\textbf{ステップ2:アライメント}\\次に,翻訳辞書を用いたアライメントを行い,両言語の句の対応関係を得る.これには,\cite{Aramaki2001}の手法をそのまま用いた.この手法は,辞書を使用するが,後述する実験では次の辞書を用いた:EDR電子化辞書\footnote{http://www2.nict.go.jp/kk/e416/EDR/J\_index.html},EDICT\footnote{http://www.csse.monash.edu.au/~jwb/j\_edict.html},英辞郎\footnote{http://www.eijiro.jp/}.これらの辞書はのべ二百万項目を持つ.\\このステップの結果,システムは,図\ref{f_te_c6_te.eps}左のようなアライメントされた対訳文を得る.\\\item\textbf{ステップ3:用例データベースの構築}\\最後に,アライメントされた対訳文(図\ref{f_te_c6_te.eps}左)から,用例データベースを構築する.この際,システムは,あらゆる対応の組み合わせを生成し,その周辺の句(これはコンテキストの類似度を計算する際に用いる)とともにデータベースに登録する(図\ref{f_te_c6_te.eps}右).\end{description}\subsection{翻訳モジュール}\begin{description}\item\textbf{ステップ1:入力文の解析}\\まず,入力文を日本語パーサKNP\cite{Kurohashi1994}を用いて統語解析する.\\\item\textbf{ステップ2:用例の選択}\\入力文のあらゆる可能な部分木の組み合わせに分解し(前章の図\ref{f_prob.eps}の左),それらの部分木それぞれについて,用例データベース中を検索し,前章の手法にて,その翻訳確率を計算する.そして,最も翻訳確率の高くなる用例の組み合わせを採用する.\\\item\textbf{ステップ3:翻訳文の生成}\\前ステップで採用された用例群を結合し,出力文の依存構造にまとめ上げる.この操作は次の2つの規則によって行われる.\vspace{2mm}\begin{enumerate}\item用例内部の依存構造は,出力文にそのまま用いる.例えば,2つの翻訳用例(TE1,TE2)を結合して翻訳文を生成する場合を考える(図\ref{f_d1.eps}).ここで,TE1に含まれる2つの句($t_1$,$t_3$)の依存関係(太線で描かれている)は,そのまま翻訳文に用いられる.\\\item用例間の依存関係は,その用例が対応する入力文句の依存構造と同じ親子関係とする.例えば,図\ref{f_d1.eps}のTE1とTE2の間の依存関係について考える.TE2は入力文の$i_{2}$と対応しており,$i_{2}$は$i_{3}$と親子関係にある.よって,翻訳文側でも,$i_{2}$と対応する$t_{2}$は,$i_{3}$と対応する$t_{3}$と親子関係にあるものと考え,点線で描かれている依存関係を得る.\end{enumerate}\vspace{3mm}最後に,出力文の依存構造の語順を決定する.これは,先の依存構造の場合と同様に,用例の内部の語順は保存し,用例のつなぎ目の語順は,単語$n$-gram言語モデル\footnote{単語$n$-gramの学習は,後述する実験のトレーニングセット2万文を用いて$n=3$にて行った.}にて優先される語順を採用する.\end{description}\begin{figure}\begin{center}\epsfxsize=85mm\epsfbox{f_d1.eps}\end{center}\caption{出力文の生成}\label{f_d1.eps}\end{figure} \section{実験} \subsection{実験設定}提案手法の妥当性を検証するため,用例ベース翻訳システム\cite{Aramaki2004}の用例選択部分を提案手法に置き換えて実験を行った.コーパスはIWSLT04\cite{WO_tsujii}にて配布されたコーパス(トレーニングセットとテストセット)を用いた.トレーニングセットは旅行対話ドメインの2万の日英対訳文からなる.テストセットは日本語文($500$文)とそれらの16通りの英語翻訳($500\times16$文)からなる.精度を比較した翻訳システムは次のとおりである.\begin{enumerate}\item{\scPROPOSED:}提案手法.\item{\scWITHOUT\_SIM:}シソーラスを用いない(コンテキストの類似を扱わない)提案手法.\item{\scBASIC:}経験則によるメジャーにより用例を選択するシステム\cite{Aramaki2004}.このシステムは,IWSLT04\cite{WO_tsujii}に参加し,高い翻訳精度を示した.また,このシステムは,{\scPROPOSED}と同じアライメント結果を用いている.\item{\scBASELINE:}用例ベース翻訳のベースライン.このシステムは,最も編集距離が近い用例を探索し,その用例の英語文をそのまま出力する.\item{\scC1,C2:}ルールベース方式の商用翻訳システム.\end{enumerate}\subsection{評価}評価は,表\ref{eval}の自動評価尺度を用い,IWSLT04\cite{WO_tsujii}と同様の以下の条件で行った.\begin{enumerate}\item大文字/小文字の差異の無視.\item記号/句読点(−.,?”)の無視.\item数字はスペルアウトする(20,000→TwentyThousand).\end{enumerate}\subsection{結果}各手法の精度を表\ref{t1}に示す.表\ref{t1}に示されるように,提案手法{\scproposed}は,経験則による{\scbasic}と比べて僅かに高い精度を持ち,提案する確率による選択が妥当であることを示している.また,両者の精度は,商用システム({\scC1},{\scC2})や用例ベース翻訳のベースライン({\scbaseline})と比べてはるかに高く,現実的な精度上での比較であることが分かる.次に,コンテキストの類似度を考慮した効果について述べる.これは,提案手法({\scproposed})とシソーラスを用いない手法({\scwithout\_sim})の精度を比較することで調査できる(表\ref{t1}).実験結果は,NISTにおいては{\scproposed}が高く,BLEUにおいては{\scwithout\_sim}が僅かに高かった.NISTは訳語選択に鋭敏な自動評価手法であるが,このNISTで,{\scproposed}が高い値を持つのは,コンテキストの類似度の導入が訳語選択に貢献しているとためだと推測される.結果をより具体的に比較するため,両手法で翻訳結果が異なった例の一部を表\ref{tWithoutAndWithSim}に示す.表最上部は「ありませんか」という訳し分けが必要な表現の例である.この表現は,旅行ドメインでは,通常は``doyouhave''と訳すことが多いのだが,「(施設/場所が)ありませんか」という場合にはこの訳は不適切となる.このような場合でも,{\scproposed}は,「ありませんか」を``arethere''用いて正しく訳せている.一方,コンテキストの類似度を考慮しない{\scwithout\_sim}は,``doyouhave''と不適切な翻訳を行ってしまう.このように一部の翻訳で,{\scproposed}がより適切な翻訳を行ったが,表中段の``notify''と``contact''の差異など,両手法のどちらの訳語が適切か判断が困難な例も数多く確認された.この実験は,ドメインを旅行対話に絞った翻訳実験であり,訳し分けを必要する入力文が,ドメインを絞った時点で減っているのが,一因であると考えられる.最後に,表\ref{tWithoutAndWithSim}下部のように{\scproposed}の方が誤った訳を出力する場合も観察された.これは,{\scproposed}の選んだ用例にアライメント誤りが含まれていることが原因であった.一方,{\scwithout\_sim}は,同じ用例のサイズであれば,対応する頻度が高い用例を選ぶ.複数の用例がみな同じアライメントの誤り方をするわけではないので,{\scwithout\_sim}は必然的にアライメント誤りの影響を受けにくいと考えられる.この違いが原因で,一部の自動評価指標においては,{\scwithout\_sim}の精度の方が{\scproposed}よりも高くなったと推測される.このように,今回の実験では,{\scproposed}がすべての面で優位であることを示すことはできなかった.しかし,(1)アライメント誤りによる精度の低下は,モデルの定式化の妥当性とは別個の問題である点,また,(2)実験は,ドメインを絞った翻訳実験であり,コンテキストを考慮する必要性が少ない点,これらの2点を考慮すると,コンテキストの類似度の定式化の妥当性は,実験によって確かめられたと考えられる.また,アライメント誤りに対する頑健性をどのように{\scproposed}に持たせるかは,今後の課題としたい.\begin{table}\caption{proposedとwithout\_simの違い}\begin{center}\label{tWithoutAndWithSim}\begin{tabular}{ll}\hline\hline入力文&この近くでいいレストランは\textbf{ありませんか}\\{\scproposed}&\textbf{arethere}anygoodrestaurantsintheneighborhood\\{\scwithout\_sim}&$\surd$\textbf{doyouhave}anygoodrestaurantsintheneighborhood\\\hline入力文&このカートは\textbf{使えますか}\\{\scproposed}&\textbf{canIuse}thiscart\\{\scwithout\_sim}&$\surd$\textbf{doyouaccept}thiscart\\\hline入力文&警察へ\textbf{連絡して}ください\\{\scproposed}&please\textbf{notify}thepolice\\{\scwithout\_sim}&please\textbf{contact}thepolice\\\hline入力文&サイズが\textbf{わかりません}\\{\scproposed}&\textbf{i'mnotsureof}thissize\\{\scwithout\_sim}&\textbf{idon'tknow}thissize\\\hline入力文&メニューを\textbf{お願いします}\\{\scproposed}&\textbf{giveme}themenu\textbf{please}\\{\scwithout\_sim}&\textbf{please}themenu\\\hline入力文&\textbf{アクセサリー}はどこで\textbf{買えますか}\\{\scproposed}&$\surd$wherecani\textbf{buy\underline{clothesfor}accessory}\\{\scwithout\_sim}&wherecani\textbf{getaccessory}\\\hline入力文&\textbf{旅行の}目的は何ですか。\\{\scproposed}&$\surd$what'sthepurposeof\textbf{the\underline{travelagency}}\\{\scwithout\_sim}&what'sthepurposeof\textbf{thetrip}\\\hline\hline\end{tabular}\end{center}{\footnotesize*\textbf{太字}は{\scproposed}と{\scwithout\_sim}の翻訳が異なっている箇所を示す.$\surd$は誤りと評価された文を示す.\underline{下線}はアライメント誤りを示す.}\end{table}\begin{table}\caption{自動評価手法}\begin{center}\label{eval}\begin{tabular}{ll}\hline\textbf{BLEU}&\begin{minipage}{105mm}\vspace{1mm}正解とのn-gramの適合率の相乗(幾何)平均\cite{Papineni2002}.\vspace{1mm}\end{minipage}\\\hline\textbf{NIST}&\begin{minipage}{105mm}\vspace{1mm}正解とのn-gramの適合率の相加(算術)平均\cite{Doddington2002}.\vspace{1mm}\end{minipage}\\\hline\textbf{WER}&\begin{minipage}{105mm}\vspace{1mm}WordErrorRate.正解との編集距離\cite{Niessen2000}.\vspace{1mm}\end{minipage}\\\hline\textbf{PER}&\begin{minipage}{105mm}\vspace{1mm}PositionIndependentWordErrorRate.語順を用いない正解との編集距離\cite{Och2001}.\vspace{1mm}\end{minipage}\\\hline\textbf{GTM}&\begin{minipage}{105mm}\vspace{1mm}generaltextmatcher.正解と一致した最長語列の適合率,再現率の調和平均\cite{Turian2003}.\vspace{1mm}\end{minipage}\\\hline\end{tabular}\end{center}{\footnotesize*BLEU,NIST,GTMについては大きな値ほど精度がよい.WER,PERについては小さなほど精度がよい.}\end{table}\begin{table}\caption{実験結果}\begin{center}\label{t1}\begin{tabular}{rlllll}\hline&bleu&nist&wer&per&gtm\\\hline{\scproposed}&0.41&8.04&0.52&0.44&0.67\\{\scwithout\_sim}&0.42&7.67&0.49&0.42&0.68\\{\scbasic}&0.39&7.92&0.52&0.44&0.67\\{\scbaseline}&0.31&6.65&0.62&0.54&0.59\\{\scC1}&0.13&5.47&0.75&0.60&0.56\\{\scC2}&0.27&7.31&0.54&0.47&0.65\\\hline\end{tabular}\end{center}\end{table}\subsection{誤り分析}{\scproposed}のより具体的な分析のため,{\scproposed}の翻訳結果から,100翻訳文を無作為抽出し,それらを人手でチェックした.この結果,49の翻訳文が正解であり,51の翻訳文が不正解であると判定された.不正解であった原因を人手で分類した結果を表\ref{t3}に示す.\begin{table}\caption{誤り分析}\begin{center}\label{t3}\begin{tabular}{rll}\hline数&分類&説明\\\hline\hline21&DATA-SPARSENESS&\begin{minipage}{80mm}\vspace{1mm}用例の数が足りないことが原因である翻訳誤り.この場合,システムは翻訳辞書(アライメントの際に用いた辞書)を用いて訳語を得るが,しばしば不適切な訳語が得られる)\vspace{1mm}\end{minipage}\\\hline6&ZERO-PRONOUN&\begin{minipage}{80mm}\vspace{1mm}ゼロ代名詞による翻訳誤り.ゼロ代名詞が入力文にだけ含まれており,用例には含まれていない場合.または,逆に,ゼロ代名詞が用例にだけ含まれて,入力文には含まれていない場合に,翻訳文から代名詞が抜け落ちてしまう.\vspace{1mm}\end{minipage}\\\hline4&ALIGNMENT-ERR&\begin{minipage}{80mm}\vspace{1mm}アライメントが不適切な用例を用いたことによる翻訳誤り.\vspace{1mm}\end{minipage}\\\hline3&WORD-ORDER&\begin{minipage}{80mm}\vspace{1mm}語順がおかしい場合.\vspace{1mm}\end{minipage}\\\hline3&SELECTION-ERR&\begin{minipage}{80mm}\vspace{1mm}適した用例が存在するが,それが選択されず,不適切な用例を用いた場合.\vspace{1mm}\end{minipage}\\\hline12&OTHERS&\begin{minipage}{80mm}\vspace{1mm}上記のさまざまな誤りが複数存在し,特定の原因に分類できない場合.\vspace{1mm}\end{minipage}\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{翻訳例}\begin{center}\label{翻訳例}\begin{tabular}{ll}\hline判定&入力文\\誤り原因&システム出力\\\hline\hline&市役所行きのバス停はどこですか。\\&whereisthebusstopforthecityhall\\\hline&だいぶよくなったみたい。\\&ifeelmuchbetter\\\hline&インストラクターを紹介していただけませんか。\\&wouldyoupleasesuggestainstructor\\\hline&歩いてどのくらいですか。\\&howlongdoesittaketowalkplease\\\hline&チェックインは何時からですか。\\&whatisthecheck-intime\\\hline$\surd$&ひどい頭痛がしているんです。\\ZERO-PRONOUN&hasabadheadache\\\hline&バスでそこへ行けますか。\\&canigettherebybus\\\hline$\surd$&あの棚の本を見たいのですが。\\WORD-ORDER&i'dliketoseetherackthatareabooks\\\hline$\surd$&なにかメッセージが届いていませんか。\\ZERO-PRONOUN&havereceivedanymessageforsomething\\\hline$\surd$&この綿のセーターを試着してもよろしいですか。\\DATA-SPARSENESS&iwouldliketotrythissweaterforancotton\\\hline&バス付きの二人部屋にします。\\&atwopeopleroomwithabath\\\hline&日本円をドルに替えてください。\\&changeourjapaneseyenpleaseintodollars\\\hline&切符売り場はどこでしょう。\\&wherecanifindtheticketoffice\\\hline\end{tabular}\end{center}{\footnotesize*$\surd$は誤りと評価された文を示す.}\end{table}表\ref{t3}に見られるように,DATA-SPARSENESSがもっとも顕著な問題である.このことから,もし,より多くのコーパスが利用可能であれば,精度はさらに向上すると考えられる.また,次にZERO-PRONOUN(ゼロ代名詞の問題)が多い.現在,提案手法はゼロ代名詞に関して,特別な処理を行っていないが,今後,省略解析の技術を用いて,より注意深くゼロ代名詞を扱うことが必要であろう.参考までに,表\ref{翻訳例}に翻訳例と分類結果の一部を示す.\subsection{コーパスサイズと精度}\begin{figure}\begin{center}\epsfxsize=80mm\epsfbox{f_g1.eps}\end{center}\caption{コーパスサイズと精度(BLEU)}\label{f_g1.eps}\end{figure}最後に,コーパスサイズ(トレーニングセットの対訳文数)と翻訳精度(BLEU)の関係について調査した.これは,{\scproposed}と{\scbaseline}の2つのシステムを用いて行った(図\ref{f_g1.eps}).図\ref{f_g1.eps}に示されるように,{\scproposed}と{\scbaseline}の差はコーパスサイズが小さい場合($x\simeq5,000$)に大きいことが分かる.このことから,{\scproposed}の方が用例の不足に対してより頑健であることが分かる.また,スコアは今回の実験の最大の用例数($x=20,000$)で飽和していない.このことから,もし,より多くの用例を得ることができれば,より高い精度を得ることが期待される. \section{関連研究} これまで様々な用例ベース翻訳システムが提案されてきたが,それらは経験則\pagebreakに基づいて用例を選択しており,提案手法のような確率的な尺度に注意を払っていない.例えば,\cite{Richardson2001}はマニュアルドメインの用例ベース翻訳システムを提案した.彼らのシステムは,用例と入力文の間で一致する部分のサイズのみを用いて用例を選択している.\cite{Furuse1994,Imamura2002}は,一致サイズとコンテキストの類似度の両方を用いて用例を選択している.\cite{aramaki2003}は,それらに加え,さらにアライメントのもっともらしさを用いて用例を選択している.これらの手法では,複数の尺度をどのような重みで考慮するか,という重み付けの問題が存在する. \section{おわりに} 本稿では,大きな用例ほど翻訳確率が高くなるという考えに基づき,翻訳確率だけを用いて用例を選択する用例ベース翻訳手法を提案した.実験の結果は,従来の経験則による用例選択を行うシステムよりも僅かに高い精度を得ることができ,提案手法の妥当性を示している.本研究により,これまで,統計ベース翻訳と比べて不透明であった用例ベース翻訳のアルゴリズムを定式化することでき,今後より一層緻密な用例ベース翻訳の議論が可能になると考えている.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akiba,Federico,Kando,Nakaiwa,Paul,\BBA\Tsujii}{Akibaet~al.}{2004}]{WO_tsujii}Akiba,Y.,Federico,M.,Kando,N.,Nakaiwa,H.,Paul,M.,\BBA\Tsujii,J.\BBOP2004\BBCP.\newblock\BBOQOverviewofthe{IWSLT04}EvaluationCampaign\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSpokenLanguageTranslation(IWSLT2004)},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Aramaki\BBA\Kurohashi}{Aramaki\BBA\Kurohashi}{2004}]{Aramaki2004}Aramaki,E.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQExample-basedMachineTranslationusingStructualTranslationExamples\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSpokenLanguageTranslation(IWSLT2004)},\mbox{\BPGS\91--94}.\bibitem[\protect\BCAY{Aramaki,Kurohashi,Kashioka,\BBA\Tanaka}{Aramakiet~al.}{2003}]{aramaki2003}Aramaki,E.,Kurohashi,S.,Kashioka,H.,\BBA\Tanaka,H.\BBOP2003\BBCP.\newblock\BBOQWordSelectionforEBMTbasedonMonolingualSimilarityandTranslationConfidence\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyconferenceandtheNorthAmericanchapteroftheAssociationforComputationalLinguistics(HLT-NAACL2003)WorkshoponBuildingandUsingParallelTexts:DataDrivenMachineTranslationandBeyond},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Aramaki,Kurohashi,Sato,\BBA\Watanabe}{Aramakiet~al.}{2001}]{Aramaki2001}Aramaki,E.,Kurohashi,S.,Sato,S.,\BBA\Watanabe,H.\BBOP2001\BBCP.\newblock\BBOQFindingTranslationCorrespondencesfromParallelParsedCorpusforExample-basedTranslation\BBCQ\\newblockIn{\BemProceedingsofMTSummitVIII},\mbox{\BPGS\27--32}.\bibitem[\protect\BCAY{Brown,Pietra,centJ.~Della~Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{Brown1993}Brown,P.~F.,Pietra,S.A.~D.,centJ.~Della~Pietra,V.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2).\bibitem[\protect\BCAY{Charniak}{Charniak}{2000}]{Charniak2000}Charniak,E.\BBOP2000\BBCP.\newblock\BBOQAmaximum-entropy-inspiredparser\BBCQ\\newblockIn{\BemProceedingsoftheNorthAmericanchapteroftheAssociationforComputationalLinguistics(NAACL2000)},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{Doddington2002}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQAutomaticevaluationofmachinetranslationqualityusingn-gramco-occurrencestatistics\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyconference(HLT2002)},\mbox{\BPGS\257--258}.\bibitem[\protect\BCAY{Furuse\BBA\Iida}{Furuse\BBA\Iida}{1994}]{Furuse1994}Furuse,O.\BBACOMMA\\BBA\Iida,H.\BBOP1994\BBCP.\newblock\BBOQConstituentBoundaryParsingforExample-BasedMachineTranslation\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonComputationalLinguistics(COLING1994)},\mbox{\BPGS\105--111}.\bibitem[\protect\BCAY{Imamura}{Imamura}{2002}]{Imamura2002}Imamura,K.\BBOP2002\BBCP.\newblock\BBOQApplicationofTranslationKnowledgeacquiredbyHierarchicalPhraseAlignmentforPattern-basedMT\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI2002)},\mbox{\BPGS\74--84}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{Koehn2003}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalphrase-basedtranslation\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyconferenceandtheNorthAmericanchapteroftheAssociationforComputationalLinguistics(HLT-NAACL2003)},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi1994}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQASyntacticAnalysisMethodofLong{J}apaneseSentencesbasedontheDetectionofConjunctiveStructures\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4).\bibitem[\protect\BCAY{Nagao}{Nagao}{1984}]{Nagao1984}Nagao,M.\BBOP1984\BBCP.\newblock\BBOQAFrameworkofaMechanicalTranslationbetween{J}apaneseand{E}nglishbyAnalogyPrinciple\BBCQ\\newblockIn{\BemElithorn,A.andBanerji,R.(eds.):ArtificialandHumanIntelligence},\mbox{\BPGS\173--180}.\bibitem[\protect\BCAY{Niessen,F.~J.~Och,\BBA\Ney}{Niessenet~al.}{2000}]{Niessen2000}Niessen,S.,F.~J.~Och,G.~L.,\BBA\Ney,H.\BBOP2000\BBCP.\newblock\BBOQAnevaluationtoolformachinetranslation:Fastevaluationformachinetranslationresearch\BBCQ\\newblockIn{\BemProceedingsoftheinternationalconferenceonLanguageResourcesandEvaluation(LREC2000)},\mbox{\BPGS\39--45}.\bibitem[\protect\BCAY{Och,Tillmann,\BBA\Ney}{Ochet~al.}{1999}]{Och1999}Och,F.~J.,Tillmann,C.,\BBA\Ney,H.\BBOP1999\BBCP.\newblock\BBOQImprovedalignmentmodelsforstatisticalmachinetranslation\BBCQ\\newblockIn{\BemProceedingsoftheEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora(EMNLP1999)},\mbox{\BPGS\20--28}.\bibitem[\protect\BCAY{Och,Uerng,\BBA\Ney}{Ochet~al.}{2001}]{Och2001}Och,F.~J.,Uerng,N.,\BBA\Ney,H.\BBOP2001\BBCP.\newblock\BBOQAneffcienta*searchalgorithmforstatisticalmachinetranslation\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheAssociationforComputationalLinguistics(ACL2001)WorkshoponData-DrivenMachineTranslation},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni2002}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.~J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheAssociationforComputationalLinguistics(ACL2002)},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Richardson,Dolan,Menezes,\BBA\Corston-Oliver}{Richardsonet~al.}{2001}]{Richardson2001}Richardson,S.~D.,Dolan,W.~B.,Menezes,A.,\BBA\Corston-Oliver,M.\BBOP2001\BBCP.\newblock\BBOQOvercomingthecustomizationbottleneckusingexample-basedMT\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheAssociationforComputationalLinguistics(ACL2001)WorkshoponData-DrivenMethodsinMachineTranslation},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Turian,Shen,\BBA\Melamed}{Turianet~al.}{2003}]{Turian2003}Turian,J.~P.,Shen,L.,\BBA\Melamed,I.~D.\BBOP2003\BBCP.\newblock\BBOQEvaluationofmachinetranslationanditsevaluation\BBCQ\\newblockIn{\BemProceedingsofMTSummmitIX},\mbox{\BPGS\386--393}.\bibitem[\protect\BCAY{Watanabe,Sumita,\BBA\Okuno}{Watanabeet~al.}{2003}]{Watanabe2003}Watanabe,T.,Sumita,E.,\BBA\Okuno,H.~G.\BBOP2003\BBCP.\newblock\BBOQChunk-basedStatisticalTranslation\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheAssociationforComputationalLinguistics(ACL2003)},\mbox{\BPGS\303--310}.\bibitem[\protect\BCAY{池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦}{池原悟\Jetal}{1997}]{NTT}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{荒牧英治}{1998年京都大学総合人間学部基礎科学科卒業.2005年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).現在,東京大学附属病院企画情報運営部特任助手.機械翻訳,医療情報の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.博士(工学).1994年同大学院博士課程修了.京都大学工学部助手,京都大学情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{柏岡秀紀}{1993年大阪大学大学院基礎工学研究科博士後期課程修了.博士(工学).同年ATR音声翻訳通信研究所入社.1998年同研究所主任研究員(現ATR音声言語コミュニケーション研究所).1999年奈良先端科学技術大学院大学情報学研究科客員助教授.主に自然言語処理、機械翻訳の研究に従事.}\bioauthor{加藤直人}{1986年早稲田大学理工学部電気工学科卒業.1988年同大学院修士課程修了.同年日本放送協会(NHK)に入局.現在,NHK放送技術研究所に勤務.この間,ATR音声翻訳通信研究所,ATR音声言語コミュニケーション研究所に出向.博士(情報科学).機械翻訳,対話処理,音声言語処理,自動要約の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N01-05
\section{はじめに} \label{sec:intro}関係抽出はテキストにおけるエンティティ(実体)の関係を認識するタスクである.従来の関係抽出は,文内に閉じて関係を認識するタスク設定の研究が多く\cite{doddington-etal-2004-automatic,han-etal-2018-fewrel,hendrickx-etal-2010-semeval,zhang-etal-2017-position,alt-etal-2020-tacred},テキスト中で複数の文にまたがって表現される関係は対象外となってしまうため,適用範囲が狭いという課題があった\cite{yao-etal-2019-docred}.これに対して,複数の文で言及される関係にも対応したタスク,すなわち\textbf{文書レベル関係抽出}(\textbf{DocRE}:\textbf{Doc}ument-level\textbf{R}elation\textbf{E}xtraction)が提案された\cite{yao-etal-2019-docred,li-etal-2016-cdr,verga-etal-2018-simultaneously}.DocREでは,複数の文における情報の取捨選択や統合をしながら,エンティティ間の関係を推定する必要がある\cite{huang-etal-2021-three,xie-etal-2022-eider,xu-etal-2022-document}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-1ia4f1.pdf}\end{center}\hangcaption{DocREDのアノテーションの例.斜体は関係を予測したいエンティティの言及(メンション)であり,下線はその他のエンティティの言及である.}\label{fig:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%DocREにおいて情報の取捨選択に用いられるのが\textbf{根拠}(evidence)である.根拠はDocREで広く用いられるデータセットDocRED\cite{yao-etal-2019-docred}で初めて定義され,関係を推定するために必要最小限な情報を含む文の集合としてラベル付けされた.図~\ref{fig:example}の例では,\textit{PrinceEdmund}と\textit{Blackadder}における関係\textit{presentinwork}を認識するための必要最小限な情報は文1と2であるため,この関係の根拠は文1と2とラベル付けされる.既存研究では,DocREのサブタスクとして\textbf{根拠認識}に取り組み,エンティティ組の関係を推定する際に必要な情報の取捨選択を行うことが多かった\cite{yao-etal-2019-docred,huang-etal-2021-three,xie-etal-2022-eider,xiao-etal-2022-sais}.ただし,これらの研究は,DocREと根拠認識を別々のタスクとしてモデル化しているため\cite{huang-etal-2021-three,xie-etal-2022-eider,xiao-etal-2022-sais},両タスクの関連性を考慮できない.これに対し,本稿ではDocREと根拠認識のモデルを統合した新手法として,\textbf{D}ocument-level\textbf{R}elation\textbf{E}xtractionwith\textbf{E}vidence-guided\textbf{A}ttention\textbf{M}echanism(DREEAM)を提案する.DREEAMでは,根拠を単語(トークン)や文の重要度に関する情報としてテキストのエンコーダに統合する.具体的には,BERT\cite{devlin-etal-2019-bert}などの事前学習済み言語モデルのエンコーダにおける自己注意機構\cite{NIPS2017attention}への教師信号として根拠を導入し,根拠に高い重みを配分するように誘導しながらDocREのモデルを学習する.これにより,根拠認識に特化したモデルが不要となり,パラメータ数の削減や推論時のメモリ使用量の低減も実現できる.なお,文書レベルの関係アノテーションはコストが高いため,学習データが不足しがちな状況にある.表~\ref{tab:dataset}に示すように,現時点で最大規模のデータセットであるDocREDでも,人手でラベルが付与された文書は5,051件しかない.DocREDではデータ不足を緩和するため,遠距離教師あり学習(DistantSupervision,\citeA{mintz-etal-2009-distant})を用いて関係ラベルを自動付与しているが,根拠ラベルの自動付与は行われていない.本研究では,提案手法であるDREEAMを用いて根拠の疑似的な教師信号を自動的に付与し,大量の自動関係ラベル付けデータに根拠の疑似ラベルを追加する.これにより,大量の自動ラベル付けデータを関係抽出及び根拠認識双方の学習に活用できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{04table01.tex}%\caption{DocREDデータセットの統計情報}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法の有効性を検証するため,DocREDベンチマークで実験を行った結果,提案手法は関係抽出と根拠認識の双方において,現時点の世界最高性能を達成した.DocREDを改良したベンチマークRe-DocREDで実験を行っても,提案手法は既存手法を上回る性能を示した.また,推論時では,提案手法のメモリ使用量は既存手法の30\%以下であり,根拠の予測におけるメモリ効率を大幅に改善できた.提案手法の実装を\url{https://github.com/YoumiMa/dreeam}で公開している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{予備知識} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスクの定義}文書レベル関係抽出の目的は,文の集合$\setX_D=\{x_i\}_{i=1}^{|\setX_D|}$からなる文書$D$における全てのエンティティ$\setE_D=\{e_i\}_{i=1}^{|\setE_D|}$の組が持つ関係を推定することである.文書$D$におけるエンティティ$e\in\setE_D$の言及(メンション)を$\setM_e=\{m_i\}_{i=1}^{|\mathcal{M}_e|}$とし\footnote{ここでは,エンティティの集合$\setE_D$及びエンティティ$e$におけるメンションの集合$\setM_e$は前提として与えられるものとする.},エンティティの組$(e_s,e_o)$が持つ全ての関係から成る集合を$\setR_{s,o}\subseteq\setR$とする.ただし,$\setR$は関係ラベルの集合である.$(e_s,e_o)$の間に関係$r\in\setR$が存在する場合,$(e_s,e_o,r)$に関する根拠を$\setV_{s,o,r}\subseteq\setX_D$で表す.根拠認識の目的は,全ての関係予測と共に,その根拠を提供することである.そのため,関係抽出と根拠認識を同時に行うと,エンティティの組$(e_s,e_o)$に対し,推定された関係$r$毎に四つ組$(e_s,e_o,r,\setV_{s,o,r})$が得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースモデル:ATLOP}\label{sec:atlop}提案手法のベースとなる手法ATLOP(\textbf{A}daptive\textbf{T}hresholdingand\textbf{L}ocalizedc\textbf{O}ntext\textbf{P}ooling,\citeA{zhou2021atlop})を説明する.まず,各エンティティの言及の冒頭と末尾に特殊トークン「*」を挿入したトークン列$\setT_D=\{t_i\}_{i=1}^{|\setT_D|}$をBERT\cite{devlin-etal-2019-bert}などを用いてエンコードする.エンコーダの出力から,トークンの分散表現$\bm{H}\in\mathbb{R}^{|\setT_D|\timesd}$と自己注意機構の重み\footnote{マルチヘッド自己注意の全ヘッドの平均として計算する.}$\bm{A}\in\mathbb{R}^{|\setT_D|\times|\setT_D|}$を記録し,前者をトークン埋め込み,後者をトークン間の依存度と呼ぶ.ただし,$d$はエンコーダの隠れ層の次元数である.次に,\textbf{エンティティ埋め込み}を計算する.メンション$\setM_{e}=\{m_i\}_{i=1}^{|\mathcal{M}_e|}$を持つエンティティ$e$に対して,埋め込み$\bm{h}_{e}\in\mathbb{R}^d$を次のように計算する.\begin{equation}\bm{h}_{e}=\log\sum_{i=1}^{|\setM_e|}\exp(\bm{h}_{m_i})\end{equation}ここで,$\bm{h}_{m_i}\in\mathbb{R}^d$はメンション$m_i$の開始位置に挿入した特殊トークン「*」の埋め込みである.これにより,エンティティ$e_s,e_o$の埋め込み$\bm{h}_s,\bm{h}_o\in\mathbb{R}^{d}$を得る.さらに,エンティティの組$(e_s,e_o)$に対する\textbf{局所文脈埋め込み}を計算する.局所文脈埋め込みは文書$D$における全トークンの埋め込みの重み付き和であり,重みは$e_s,e_o$両方に対する重要度を反映する.トークンの重要度は,トークン間の依存度$\bm{A}$の強さとする.具体的には,エンティティ$e_s$の各メンション$m_i\in\setM_{e_s}$と他のトークンの依存度から$\bm{a}_s\in\mathbb{R}^{|\setT_D|}$を求める.ここで,$\bm{a}_s$は全ての$\bm{a}_{m_i}\in\mathbb{R}^{|\setT_D|}$の平均であり,$\bm{a}_{m_i}$は$m_i$の冒頭にある「*」に対応する$\bm{A}$のスライスである.同様に$\bm{a}_o\in\mathbb{R}^{|\setT_D|}$を求め,$(e_s,e_o)$に対する各トークンの重要度$\bm{q}^{(s,o)}\in\mathbb{R}^{|\setT_D|}$および局所文脈埋め込み$\bm{c}^{(s,o)}\in\mathbb{R}^d$を,式~\ref{eq:context_emb_weight}と\ref{eq:context_rep}で求める.\begin{align}&\bm{q}^{(s,o)}=\frac{\bm{a}_s\circ\bm{a}_o}{\bm{a}_s^\top\bm{a}_o}\label{eq:context_emb_weight}\\&\bm{c}^{(s,o)}=\bm{H}^\top\bm{q}^{(s,o)}\label{eq:context_rep}\end{align}ただし,$\circ$は要素ごとの積である.局所文脈埋め込みは重要度の高い箇所に注目した分散表現であることから,異なる文の情報を効果的に統合できる.続いて,$(e_s,e_o)$の\textbf{関係分類}を行う.関係分類器の入力$\bm{z}_s,\bm{z}_o\in\mathbb{R}^d$はエンティティ$e_s,e_o$の埋め込みと局所埋め込み$\bm{c}^{(s,o)}$を統合した分散表現で,次のように計算する.\begin{align}&\bm{z}_s=\tanh(\bm{W}_s[\bm{h}_{s};\;\bm{c}^{(s,o)}]+\bm{b}_s)\\&\bm{z}_o=\tanh(\bm{W}_{o}[\bm{h}_{o};\;\bm{c}^{(s,o)}]+\bm{b}_o)\end{align}ここで,$[\cdot;\;\cdot]$はベクトルの連結,$\bm{W}_s,\bm{W}_o\in\mathbb{R}^{d\times2d},\bm{b}_s,\bm{b}_o\in\mathbb{R}^d$はパラメータである.最後に,線形分類器を用いて,全関係ラベルがエンティティ組$(e_s,e_o)$の間に存在する確率を計算する.エンティティ組$(e_s,e_o)$に関係$r\in\setR$が存在する確率のロジットを$y_{s,o,r}\in\mathbb{R}$とした場合,$(e_s,e_o)$における全関係ラベルのロジット$\bm{y}_{s,o}\in\mathbb{R}^{|\setR|}$を次のように求める.\begin{equation}\bm{y}_{s,o}=\bm{z}_s^\top\mathsf{W}_r\bm{z}_o+\bm{b}_r\end{equation}ただし,$\mathsf{W}_r\in\mathbb{R}^{|\mathcal{R}|\timesd\timesd},\bm{b}_r\in\mathbb{R}^{|\mathcal{R}|}$はパラメータである.エンティティ組$(e_s,e_o)$の間の関係$r$の確率推定は次のように行う.\begin{equation}P(r|s,o)=\mathrm{sigmoid}(y_{s,o,r})\end{equation}ATLOPの学習は適応閾値損失(ATL:AdaptiveThresholdLoss)に基づく.式~\ref{eq:atl}に示したように,閾値に対応する仮想的な関係ラベル\texttt{TH}を導入し,エンティティ組$(e_s,e_o)$に存在する関係ラベルのロジットは\texttt{TH}より高く,存在しない関係ラベルのロジットは\texttt{TH}より低くなるようにモデルを学習する.\begin{equation}\label{eq:atl}\mathcal{L}_{\mathrm{RE}}=-\sum_{s\neqo}\sum_{r\in\setR_{+}}\frac{\exp(y_{s,o,r})}{\sum_{r'\in\setR_{+}\cup\{\mathrm{TH}\}}\exp(y_{s,o,r'})}-\frac{\exp(y_{s,o,\mathrm{TH}})}{\sum_{r'\in\setR_{-}\cup\{\mathrm{TH}\}}\exp(y_{s,o,r'})}.\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{予測統合}\label{sec:isf}推論時に用いる予測統合(InferenceStageFusion,\citeA{xie-etal-2022-eider})について説明する.予測統合は根拠認識の予測結果を活用するためのアンサンブル手法である.\pagebreakエンティティ組の関係を推定する際,根拠認識には情報を取捨選択する働きが期待されている.完璧な根拠認識器は関係予測に有用な文だけを根拠として認識するため,根拠とされていない文を関係抽出時に用いる必要はない.ただし,全ての関係事例の根拠を漏れずに認識するのは難しく,現実的でない.根拠認識器の予測結果だけに基づいた関係抽出は,必要情報の漏れによる性能の低下が報告されている\cite{xie-etal-2022-eider}.以上を踏まえて,文書全体の情報を取り入れつつ,根拠認識の予測結果も活用する手法として,予測統合が提案された.手法の詳細を図~\ref{fig:isf}に示す.モデルはまず文書$D$を入力として受け取り,全てのエンティティ組$(e_s,e_o)$に対する関係抽出と根拠認識の予測結果$(e_s,e_o,\hat{r},\hat{\setV}_{s,o,\hat{r}})$を出力する.これにより,文書$D$における関係$(e_s,e_o,\hat{r})$が存在する確率のロジット$y^{D}_{s,o,\hat{r}}$が得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{31-1ia4f2.pdf}\end{center}\hangcaption{予測統合の例.統合後関係のロジットは入力文書$D$における関係のロジットと部分文書$\hat{D}$における関係のロジットの和.閾値$\tau=0.33$であることから,最終的な関係予測は\textit{presentinwork}だけになる.なお,説明の都合上,部分文書を一つだけ挙げているが,実際の予測統合は複数の部分文書で行われることに注意されたい.}\label{fig:isf}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,文書$D$における予測結果の集合$\setP^D$にある予測$(e_s,e_o,\hat{r},\hat{\setV}_{s,o,\hat{r}})$毎に,根拠$\hat{\setV}_{s,o,\hat{r}}$のみからなる部分文書$\hat{D}$を構成する.部分文書$\hat{D}$では$(e_s,e_o,\hat{r})$の根拠以外の文が含まれないため,関係抽出に不要な情報が取り除かれると期待される.モデルは部分文書$\hat{D}$を入力として受け取り,$\hat{D}$にある全てのエンティティ組に対する関係抽出を行う.これにより,関係$(e_s,e_o,\hat{r})$が部分文書$\hat{D}$にも存在する確率のロジット$y_{s,o,\hat{r}}^{\hat{D}}$が得られる.最終的な関係予測は,元文書及び部分文書における予測結果を統合してから行う.具体的には,予測結果$(e_s,e_o,\hat{r})$に対し,元文書及び全ての部分文書の集合におけるロジットを式~\ref{eq:isf_logits}のように足し合わせる.\begin{equation}y_{s,o,\hat{r}}=\sum_{D'\in\{D\}\bigcup\Delta}y_{s,o,\hat{r}}^{D'}\label{eq:isf_logits}\end{equation}ただし,$D$を元文書,$\Delta=\{\hat{D}_1,\hat{D}_2,\ldots,\hat{D}_p\}$を部分文書の集合とする.ここで,$p$は全ての予測$(e_s,e_o,\hat{r},\hat{\setV}_{s,o,\hat{r}})\in\setP^D$における根拠$\hat{\setV}_{s,o,\hat{r}}$のパターン数である\footnote{関係予測事例毎に異なる文の集合が根拠とされた場合は$p=|\setP^D|$とし,そうでない場合は重複する文の集合を取り除く.}.$y_{s,o,\hat{r}}$が閾値$\tau$より高い場合だけ,$(e_s,e_o,\hat{r})$を関係の予測結果として出力する.なお,閾値$\tau$の値は検証データにおける関係抽出のF1スコアが最大になるように最適化される.ただし,$\tau$は検証データでの関係予測結果に左右されるため,モデル毎に最適化されることに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} ATLOPでは関係推定に重要なトークンに注目して情報を統合するため,局所文脈埋め込みを採用し,BERTの自己注意機構がエンティティ組$(e_s,e_o)$に対するトークンの重要度$\bm{q}^{(s,o)}$を暗黙的に学習できると仮定した.本研究では,根拠を用いて$\bm{q}^{(s,o)}$の教師信号を与えることを提案し,根拠認識の関係抽出モデルへの統合,および関係抽出の性能向上を目指す(\ref{sec:dreeam}節).さらに根拠の教師信号を自動で付与し,データ不足の緩和を目指す(\ref{sec:pipeline}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{DREEAM}\label{sec:dreeam}提案手法であるDREEAMの概要を図~\ref{fig:model}に示す.自己注意機構から計算されるトークン重要度と根拠から計算される分布が近づくように誘導し,根拠に焦点を当てた局所文脈埋め込みが得られると期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{31-1ia4f3.pdf}\end{center}\caption{DREEAMの概要}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{根拠分布の算出}エンティティ組$(e_s,e_o)$が持つ関係$r\in\setR_{s,o}$毎に,根拠ベクトル$\bm{v}^{(s,o,r)}\in\{0,1\}^{|\setX_D|}$を定義する.$\bm{v}^{(s,o,r)}$は二値ベクトルであり,\pagebreak文$x_i\in\setX_D$が関係$(e_s,e_o,r)$の根拠である時に$v^{(s,o,r)}_i=1$とする.さらに,全ての関係$\forallr\in\setR_{s,o}$における根拠ベクトル$\bm{v}^{(s,o,r)}$から,関係ラベルに依存しない根拠の分布$\bm{v}^{(s,o)}$を次式で求める.\begin{equation}\bm{v}^{(s,o)}=\frac{\sum_{r\in\setR_{s,o}}\bm{v}^{(s,o,r)}}{\sum_{r\in\setR_{s,o}}{\bm{1}^\top\bm{v}^{(s,o,r)}}}\label{eq:evi_human}\end{equation}ただし,$\bm{1}=(1,1,\dots,1)^{|\setX_D|}$である.$\bm{v}^{(s,o)}$はエンティティ組$(e_s,e_o)$に関する文の重要度を全関係ラベル共通に根拠のアノテーションから求めている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{根拠分布を用いた学習}自己注意機構によるトークン重要度$\bm{q}^{(s,o)}$を文の重要度$\bm{p}^{(s,o)}\in\mathbb{R}^{|\setX_D|}$に変換する.トークン列$t_{\textrm{START}(x_i)},\dots,t_{\textrm{END}(x_i)}$からなる文$x_i\in\setX_D$に対し,その重要度を和\begin{equation}\label{eq:evi_weight}p_i^{(s,o)}=\sum_{j=\textrm{START}(x_i)}^{\textrm{END}(x_i)}q_j^{(s,o)}\end{equation}として計算する.ただし,$p_i^{(s,o)}$は$\bm{p}^{(s,o)}$のi番目の要素の値である.そして,根拠アノテーションから得られる文の重要度$\bm{v}^{(s,o)}$を教師信号とし,自己注意機構から計算される文の重要度$\bm{p}^{(s,o)}$が近くなるように,カルバック・ライブラー距離($D_{\mathrm{KL}}$)による損失関数を導入する(式~\ref{eq:loss_evi}).\begin{equation}\mathcal{L}_{\mathrm{ER}}^{\textrm{gold}}=-D_{\mathrm{KL}}(\bm{v}^{(s,o)}||\bm{p}^{(s,o)})\label{eq:loss_evi}\end{equation}モデルのパラメータ推定に用いる損失関数として,以下のように関係抽出の損失関数(式~\ref{eq:atl})との和を採用することで,関係抽出と根拠認識を同時に学習する.\begin{equation}\mathcal{L}^{\textrm{gold}}=\mathcal{L}_{\mathrm{RE}}+\lambda\mathcal{L}_{\mathrm{ER}}^{\textrm{gold}}\label{eq:loss}\end{equation}ただし,$\lambda$は根拠認識の学習がパラメータの更新にもたらす影響を制御するためのハイパー・パラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{推論}関係抽出ではATLOPと同様に,適応的閾値を採用する.各エンティティ組$(e_s,e_o)$の関係ラベルのロジットを計算し,仮想的な閾値ラベル\texttt{TH}より高いロジットを持つラベルを関係として出力する.根拠認識では静的な閾値を採用し,$\bm{p}^{(s,o)}$が閾値より高い文を根拠として出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{根拠の教師信号の自動付与}\label{sec:pipeline}DREEAMでは,エンコーダの自己注意機構から計算されるトークン重要度に基づいて,エンティティ組の関係の予測に役立つ箇所(根拠)を推定できる.ところで,\ref{sec:intro}節で述べたように,DocREDには人手で付与された少量のデータの他に,遠距離教師あり学習で関係ラベルを自動付与した大量のデータがあるが,これらのデータに根拠のラベルが付与されていない.そこで,DREEAMから推定される根拠の応用として,関係抽出の根拠の教師信号の自動付与を行い,大量の自動ラベル付けデータを活用する方法を提案する.提案する自動ラベル付けデータ活用法の概要を図~\ref{fig:pipeline}に示す.Tanらに倣い,教師と学生の二つのモデルを学習する\cite{tan-etal-2022-document}.教師モデルの役割は,根拠の正解ラベル付けデータから根拠認識に関する知識を獲得し,根拠のラベルが無いデータに根拠の疑似的な教師信号を自動付与することである.これは,図~\ref{fig:pipeline}のステップ1と2で実現される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{31-1ia4f4.pdf}\end{center}\caption{DREEAMによる自動ラベル付けデータの活用方法}\label{fig:pipeline}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%学生モデルは,まず根拠の疑似的な教師信号が付与された自動ラベル付けデータから関係抽出と根拠認識を学習し(図~\ref{fig:pipeline}のステップ3),その後正解ラベル付けデータでファインチューニングする(図~\ref{fig:pipeline}のステップ4).これにより,学生モデルは,(a)自動ラベル付けによりノイズが混入される大量なデータと(b)人手ラベル付けにより品質が保証される少量なデータの双方から,関係抽出と根拠認識を学習できる.なお,教師モデルは正解ラベル付けデータでしか学習しないが,学生モデルは正解ラベル付けデータと自動ラベル付けデータの両方で学習するため,学生モデルは教師モデルの性能を超える想定であることに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{疑似根拠分布を用いた学習}根拠の正解ラベルで学習した教師モデルを用い,まだ根拠のラベル付けがされていないデータにおけるエンティティ組$(e_s,e_o)$のトークンの重要度$\hat{\bm{q}}^{(s,o)}$を予測・記録し,根拠の疑似的な教師信号とする.学生モデルのトークン重要度$\bm{q}^{(s,o)}$を疑似的な根拠$\hat{\bm{q}}^{(s,o)}$に近づけることで,根拠認識を学習する(式~\ref{eq:loss_evi_silver}).\begin{equation}\mathcal{L}_{\mathrm{ER}}^{\mathrm{silver}}=-D_{\mathrm{KL}}(\hat{\bm{q}}^{(s,o)}||\bm{q}^{(s,o)})\label{eq:loss_evi_silver}\end{equation}最終的にモデルの学習に用いる損失関数は,式~\ref{eq:loss}と同様,以下のように関係抽出と根拠認識の損失の重み付き和とする.\pagebreak\begin{equation}\mathcal{L}^{\textrm{silver}}=\mathcal{L}_{\mathrm{RE}}+\lambda'\mathcal{L}_{\mathrm{ER}}^{\textrm{silver}}\label{eq:loss_silver}\end{equation}ただし,$\lambda'$は根拠認識の学習による影響を制御するためのハイパー・パラメータであり,式~\ref{eq:loss}における$\lambda$と同じ値に設定することで学習が順調に進むことが実験からわかっている.さらに,正解ラベル付けデータを用いて学生モデルをファインチューニングすることにより,自動ラベル付けデータと正解ラベル付けデータ両方の情報を集約したモデルが得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:experiment}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sec:setting}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}提案手法の有効性を検証するため,主にDocRED\cite{yao-etal-2019-docred}で実験を行った.DocREDはDocREタスクで最も広く使われているデータセットであり,少量の人手ラベル付けデータと大量の自動ラベル付けデータで構成されている(表~\ref{tab:dataset}参照).自動ラベル付けデータでは,Wikidata知識ベース\cite{wikidata}による遠距離教師あり学習で関係ラベルが付与されている.一方,近年では,DocREDの人手ラベル付けデータにおけるアノテーション漏れが問題視されている\cite{xie-etal-2022-eider,huang-etal-2022-recommend,tan-etal-2022-revisiting}.この問題を解消するため,DocREDの文書に関係ラベルを追加付与したデータセットがRe-DocREDであり,その詳細を表~\ref{tab:redocred}に示す\cite{tan-etal-2022-revisiting}.なお,Re-DocREDでは,根拠ラベルの追加付与は行われていない.本稿では,提案手法のRe-DocREDにおける性能も検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{04table02.tex}%\caption{DocREDとRe-DocREDの比較(DocREDのblindtestsetを含まず)}\label{tab:redocred}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{計算機}先行研究に倣い,実験ではBERT\textsubscript{base}\cite{devlin-etal-2019-bert}とRoBERTa\textsubscript{large}\cite{Liu2019RoBERTaAR}の二種類の事前学習言語モデルエンコーダを用いる.BERT\textsubscript{base}を用いた場合,実験を一枚のNVIDIAV10016GBGPUで行い,RoBERTa\textsubscript{large}\cite{Liu2019RoBERTaAR}を用いた場合,実験を一枚のNVIDIAA10040GBGPUで行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{アーキテクチャ}DREEAMはATLOP\cite{zhou2021atlop}をベースとしているが,トークン埋め込み$\bm{H}$とトークン間依存度$\bm{A}$の計算方法が異なる.\ref{sec:atlop}節で述べたように,ATLOPはエンコーダの出力層のみから$\bm{H}$と$\bm{A}$を計算するのに対し,DREEAMはエンコーダの上部3層の平均で$\bm{H}$と$\bm{A}$を求める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{学習}\ref{sec:dreeam}節で述べたように,根拠認識が関係抽出のモデルに与える影響を調整するため,損失関数$\mathcal{L}_{\mathrm{ER}}$に係数$\lambda$をかけてから関係抽出の損失との和を計算し,全体の損失関数とした(式~\ref{eq:loss}).係数$\lambda$は関係抽出の学習率と共にGridSearchを行い,検証データで最良性能を示す値を探索した\footnote{その他のハイパー・パラメータは\citeA{xie-etal-2022-eider}で報告された値を採用した.}.具体的には,$\lambda$を$\{0.05,0.1,0.2,0.3\}$,関係分類器の学習率を$\{5\text{e-}5,1\text{e-}4,5\text{e-}4\}$の範囲から探索した結果,BERT\textsubscript{base}を用いたモデルでは係数$\lambda$を0.1,RoBERTa\textsubscript{large}を用いたモデルでは係数$\lambda$を0.05とした.また,学生モデルの学習に用いる係数$\lambda'$に対しても同様の探索を行い,$\lambda'=\lambda$にすることで探索空間における最良性能を達成できたため,係数$\lambda'$の値を$\lambda$と等しくなるようにした.学生モデルのファインチューニングでは,係数$\lambda$を固定し,関係分類器の学習率だけを$\{1\text{e-}6,3\text{e-}6,5\text{e-}6\}$の範囲から探索した.パラメータの更新にはAdam\cite{loshchilov2018decoupled}を採用し,その他のハイパー・パラメータの値を表~\ref{tab:hyparam}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{04table03.tex}%\caption{実験に用いたハイパー・パラメータ.微調整はファインチューニングを指す.}\label{tab:hyparam}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価}関係抽出では,各エンティティの組$(e_s,e_o)$における閾値ラベル\texttt{TH}より高い関係ラベルを予測結果とする.根拠認識では,検証データから推定した結果,重要度$p_i^{(s,o)}$が0.2より高い文を予測とする.さらに根拠認識の結果を活用するため,予測統合を行う(\ref{sec:isf}節,\citeA{xie-etal-2022-eider}).評価指標はDocREDに従い,関係抽出と根拠認識のF1スコアとする.本稿では,先行研究\cite{yao-etal-2019-docred}に倣い,検証データと評価データから訓練データと重複する関係事例を取り除いた上で計測したF1スコアを報告する.なお,全てのスコアは,5つの異なるランダムシードを用いてモデルを初期化し,学習した結果の平均である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果:DocRED}\label{sec:expr_docred}DREEAMをDocRED\cite{yao-etal-2019-docred}で評価した結果を表~\ref{tab:main_results}にまとめた.\pagebreak評価データの報告値は,異なるランダムシードを用いて学習したモデルのうち,検証データで最良性能を示したモデルによる予測を評価した結果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{04table04.tex}%\hangcaption{DocREDでの関係抽出と根拠認識の性能.PLMは事前学習済み言語モデルエンコーダを表す.B-bはBERT\textsubscript{base},Rb-lはRoBERTa\textsubscript{large}を表す.先行研究の報告値はそれぞれの論文から引用した.*が付いている行は自動でラベル付けしたデータを学習に用いた.}\label{tab:main_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{正解のラベル付けデータだけでモデルを学習する場合}自動ラベル付けデータを学習に用いない場合,すなわち人手アノテーションによる正解ラベル付けデータだけでモデルを学習する場合の性能を表~\ref{tab:main_results}(a)に示す.実験結果から,DREEAMは最先端手法の一つであるEIDER\cite{xie-etal-2022-eider}に匹敵する性能を示した.また,DREEAMとSAIS\cite{xiao-etal-2022-sais}の間では性能の差があるが,これはマルチタスク学習によるものと考えられる\footnote{SAISはDocREと根拠認識以外にも,共参照解析等の多タスクでモデルを学習し,豊富な教師信号を活用している.}.なお,DREEAMは根拠認識をDocREのエンコーダに統合したため,根拠認識器が不要となり,推論時のメモリ使用量を大幅に削減できた.詳細は\ref{sec:memory}節を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{正解に加えて自動でラベル付けしたデータも用いてモデルを学習する場合}提案手法(DREEAM*)は関係抽出においてSSAN*\cite{xu-etal-2021-ssan}やKD-DocRE*\cite{tan-etal-2022-document}の性能を上回り,このデータセットにおける最良性能を達成した.これらの手法も自動でラベル付けしたデータを学習に用いているため,実験の設定は提案手法と同じになっている.実験設定が揃えた状況で,DREEAMは先行研究の性能を超えることができたため,その優位性が示唆される.また,根拠認識においても,提案手法は既存手法の最高性能モデルSAISを大きく上回った.これにより,提案した根拠の教師信号の自動付与手法が関係抽出と根拠認識両方の性能向上に寄与することが示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果:Re-DocRED}DREEAMをRe-DocRED\cite{tan-etal-2022-revisiting}で評価した結果を表~\ref{tab:results_redocred}にまとめた.学習に用いるハイパー・パラメータはDocREDと同じである.ただし,表\ref{tab:redocred}に示した通り,Re-DocREDでは根拠ラベルの追加付与を行っていない.その結果,DocREDでは根拠を持たない(文書から根拠を特定できない)関係事例数が全体の約4\%しかないのに対し,Re-DocREDでは根拠を持たない関係事例数は全体の約半数を占めている.これにより,Re-DocREDでの根拠認識の性能評価は適切でない可能性があるため,表~\ref{tab:results_redocred}では関係抽出の評価結果のみを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{04table05.tex}%\hangcaption{Re-DocRED評価データにおける関係抽出の性能.事前学習済み言語モデルエンコーダはRoBERTa\textsubscript{large}を採用した.先行研究の報告値はそれぞれの論文から引用した.*が付いている行は自動でラベル付けしたデータを学習に用いた.}\label{tab:results_redocred}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\ref{sec:expr_docred}節と同様に,(a)\textbf{自動ラベル付けデータをモデルの学習に用いない}設定と(b)\textbf{自動ラベル付けデータをモデルの学習に用いる}設定の二通りで実験を行う.なお,自動ラベル付けデータをモデルの学習に用いる場合,DocREDで図~\ref{fig:pipeline}のステップ1,2と3を実行し,4(学生モデルのファインチューニング)だけをRe-DocREDを用いて行う.実験結果から,正解ラベル付けデータだけで学習する場合,DREEAMはDocuNetやKD-DocREとほぼ同等の性能を示し,さらに予測統合を加えると,PEMSCL\cite{guo-etal-2023-towards}を含む全ての既存手法の性能を上回った.また,自動ラベル付けデータをモデルの学習に加える設定でも,DREEAM*は先行研究を上回る性能を示した.これにより,提案手法の有効性はRe-DocREDにおいても確認された.Re-DocREDはDocREDのアノテーション漏れ問題を軽減し,より信憑性の高いベンチマークとされているため,提案手法の優位性がより強固に示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アブレーション実験}本研究の提案事項の貢献度合いを調べるため,アブレーション実験を行い,その結果を表~\ref{tab:ablation}に示す.ここでは,推論時に予測統合(\ref{sec:isf}節,\citeA{xie-etal-2022-eider})を行わない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{04table06.tex}%\hangcaption{DocREDの検証データでのアブレーション実験.事前学習済み言語モデルエンコーダはBERT\textsubscript{base}を採用した.標準偏差を\textpm{}の後ろに示す.}\label{tab:ablation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{教師モデル}教師モデルを学習する際に根拠認識の学習(式~\ref{eq:loss_evi})を無効化し,性能に与える影響を調べた.表~\ref{tab:ablation}(a)の「関係F1」の列に示した通り,関係抽出において性能の低下が見られる.ゆえに,エンティティ組$(e_s,e_o)$のエンコーディング過程におけるトークン重要度$\bm{q}^{(s,o)}$を根拠で誘導することは,関係抽出にも有益であることが示唆される.また,根拠認識を全く学習しない設定においても,重要度が閾値(ここでは\ref{sec:setting}節に従い,0.2とする)より高い文を根拠として抽出することにより,根拠認識の性能を評価できる.表~\ref{tab:ablation}(a)の「根拠F1」の列に示した通り,関係抽出だけを学習しても,モデルは根拠認識において42.79点のF1スコアと一定の性能を示した.これにより,関係抽出と根拠認識の両タスクにおける関連性が観測できたと考えられる.\ref{sec:visualization}節では,根拠による誘導を行う前後の変化をより直観的に反映するものとして,単語重要度の可視化結果も報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{学生モデル}疑似的な教師信号による根拠認識の学習(式~\ref{eq:loss_evi_silver}),および人手でラベル付けした正解データによる根拠認識の学習(式~\ref{eq:loss_evi})の片方および両方を無効化し,タスクの性能に与える影響を調べる.表~\ref{tab:ablation}(b)から,疑似根拠による根拠認識の学習を無効化すると,関係抽出と根拠認識ともに性能が低下することが分かる.これにより,根拠認識に関する知識は疑似根拠を経由して,教師モデルから学生モデルへと期待通り引き継がれていることが示唆される.一方,人手でラベル付けした正解データによる根拠認識の学習を無効にしても,性能への影響は限定的であった.これはデータの規模の違いによるものだと考えられる.表~\ref{tab:dataset}に示してある通り,自動ラベル付けデータの規模は人手ラベル付けデータより膨大である.そのため,疑似根拠による学習では,ラベルにノイズが存在していても,タスクを解くのに有益な情報が多く含まれており,性能への寄与は大きいと考えられる.また,根拠認識の学習を疑似根拠で行わず,正解根拠だけで行う設定において,関係抽出の平均F1スコアは根拠認識の学習を全く行わない設定をやや下回った.同設定では,関係抽出と根拠認識の両方で標準偏差が大きく,関係F1スコアの最良値では根拠認識の学習を全く行わない設定を上回った.これは自動ラベル付けデータと比べて,人手ラベル付けデータの規模が遥かに小さいため,正解根拠での学習だけで両方のデータを一意に適合するのが難しく,得られたモデルの性能にばらつきが生じたと考えられる.そのため,疑似根拠においても根拠認識を学習することは,高性能なモデルを安定して得るのに寄与すると推察される.以上により,疑似根拠による学習の重要性が再確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{パラメータ数,メモリ使用量および推論時間}\label{sec:memory}従来研究では,根拠認識に特化したモデルを設計し,関係抽出とは別に根拠認識器を適用することが多い.このとき,各文がエンティティ組の関係判断の根拠となる確率を計算するため,全ての文とエンティティ組を列挙しなければならない.例えばEIDER\cite{xie-etal-2022-eider}では,文$x_i$がエンティティの組$(e_s,e_o)$の関係予測の根拠である確率を式~\ref{eq:eider}で求める.\begin{equation}\mathrm{P}(x_i|e_s,e_o)=\mathrm{sigmoid}(\bm{x}_i^\top\bm{W}\bm{c}^{(s,o)}+b),\label{eq:eider}\end{equation}ただし,$\bm{x}_i\in\mathbb{R}^d$はトークン埋め込みから得た文$x_i$の埋め込み,$\bm{c}^{(s,o)}\in\mathbb{R}^d$は$(e_s,e_o)$における局所文脈埋め込み,$\bm{W}\in\mathbb{R}^{d\timesd}$と$b\in\mathbb{R}$はパラメータである.一方,DREEAMは根拠認識をエンティティの組のエンコーダに組み込み,根拠はエンコーダから直接推定できるため,式~\ref{eq:eider}による確率の計算が不要となり,パラメータ$\bm{W}$と$b$を導入せずに済む.さらに計算量を比較するため,$n$個の文からなる文書$D$を考える.文書$D$には$m$個のエンティティがあり,最も長い文の長さが$l$とする.EIDERは根拠認識を行うため,式~\ref{eq:eider}の演算を$n\timesm\times(m-1)$回行い,計算量は$O(nm^2d^2)$である.それに対し,DREEAMの根拠認識は式\ref{eq:evi_weight}により行い,文ごとに自己注意機構によるトークン重要度を合計し,計算量は$O(nm^2l)$である.$d^2\ggl$のため,EIDERの計算量がDREEAMより膨大であることが分かる\footnote{DocRED\cite{yao-etal-2019-docred}の実験では$d=768$,$l=180$である.}.DREEAMと既存手法のパラメータ数およびメモリ使用量を表~\ref{tab:memory}に示す.なお,本節では一枚のNVIDIARTXA600048GBGPUで実験を行う場合の計測結果を報告する.DREEAMを根拠認識器の学習を行う既存手法と比較すると,モデルのパラメータ数は既存研究よりも低く抑えられることが確認できる.また,推論時のメモリ使用量に関しては,DREEAMはEIDERの27.4\%,SAISの25.5\%まで抑えることが可能で,既存手法に対して大きなアドバンテージとなる.なお,根拠認識器を学習しないKD-DocREと比較しても,DREEAMのパラメータ数およびメモリ使用量は少ないことが分かる.以上のことから,DREEAMは既存手法よりも少ないパラメータ数およびメモリ使用量で,既存手法の同等以上の性能を達成できることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{04table07.tex}%\hangcaption{パラメータ数及び推論時のメモリ使用量.事前学習済み言語モデルエンコーダはBERT\textsubscript{base}を採用した.}\label{tab:memory}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方,根拠認識器を組み込んだ既存手法の実装を変更し,根拠を同時でなく逐次に推論をすることにより,メモリ使用量の削減が考えられる.しかし,$m$個のエンティティを含む文書に対して,根拠の逐次推論を最低でも$n\timesm\times(m-1)$回行う必要があるため,推論時間が長くなる.既存手法で逐次推論を行う場合のメモリ使用量と推論時間を表~\ref{tab:time}に示した.DREEAMの推論時間は一文書毎に16.0ミリ秒なのに対し,EIDERの逐次推論は61.0ミリ秒,SAISの逐次推論は286.0ミリ秒であった\footnote{部分文書との予測融合を行わず,文書全体を入力とした場合の推論時間である.SAISは同じエンティティ組の異なる関係ラベルも区別して根拠認識を行うため,推論時間がさらに増える.}.これにより,既存手法は逐次推論により空間が節約できても,提案手法であるDREEAMより長い時間をかけて予測しなければならないことが分かる\footnote{既存手法の推論をミニバッチ化により加速できるが,ミニバッチ推論は並列推論より遅いため,DREEAMより高速化されるとは考えにくい.}.そのため,提案手法は時間と空間のトレードオフにおいて,既存手法よりバランスの良いアプローチであると考えられる.また,根拠認識の推論だけを逐次に行うことで,EIDERとSAISのメモリ使用量を大幅に削減できたため,既存手法の元の実装でメモリを多く使用する主な要因は,関係分類器よりも根拠認識器の並列推論であると判断できる.この点においても,根拠認識器を撤廃できた提案手法の優位性が見られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{04table08.tex}%\hangcaption{推論時間及びメモリ使用量.既存手法は並列推論のほか,逐次推論を自前で実装した上で時間とメモリ使用量を測定した.}\label{tab:time}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{根拠認識が予測統合にもたらす影響}\label{sec:isf_analysis}表~\ref{tab:main_results}と\ref{tab:results_redocred}では,提案手法の性能は予測統合により大きく向上した.\ref{sec:isf}節で述べた通り,予測統合は根拠認識の予測結果を活用するためのアンサンブル手法である.根拠認識の精度が高ければ,関係抽出に決定的な影響をもたらす文だけが根拠として認識され,有用な情報が統合された部分文書が得られる.予測統合はこれらの部分文書における関係予測と元文書における予測を組み合わせることにより,関係抽出の性能向上を図る.ここでは,根拠認識の性能が予測統合の効果を左右すると仮定している.ただし,予測統合による性能向上は,正しい根拠認識による情報の取捨選択効果によるものか,それとも単に複数回の予測結果を組み合わせたデータ拡張効果によるものかは,検証されていない.本節では,根拠認識の性能が予測統合の効果にもたらす影響について調べる.具体的には,予測統合に用いる部分文書の構成方法を変更する.文書$D$に対し,以下三つの部分文書の集合を構成する.\begin{itemize}\item\textbf{予測根拠}:DREEAMにより予測された全ての事例$(e_s,e_o,\hat{r},\hat{\setV}_{s,o,\hat{r}})$の根拠$\setV_{s,o,\hat{r}}$から構成された部分文書をまとめた集合$\Delta$.これは\ref{sec:experiment}節で用いた設定と同一である.\item\textbf{正解根拠}:人手でラベル付けされた全ての事例$(e_s,e_o,r,\setV_{s,o,r})$の正解根拠$\setV_{s,o,r}$から構成された部分文書をまとめた集合$\Delta^{\textit{gold}}$.これはモデルが全ての根拠を正しく認識できたと仮定するオラクル設定であり,実応用で$\Delta^{\textit{gold}}$を得ることはない.\item\textbf{ランダム}:ランダムに選択した文から構成された部分文書をまとめた集合$\Delta^{\textit{rand}}$.ただし,$|\Delta|=|\Delta^{\textit{rand}}|$とし,DREEAMによる予測と同数の部分文書を確保する.また,任意の部分文書$\hat{D}_i^{\textit{rand}}\in\Delta^{\textit{rand}}$に対し,$|\hat{D}_i^{\textit{rand}}|=|\hat{D}_i|(\hat{D}_i\in\Delta)$とし,部分文書毎の文数も$\Delta$と揃える.これはモデルが無作為に抽出した文を根拠とする設定である.\end{itemize}部分文書の集合$\Delta,\Delta^{\textit{gold}},\Delta^{\textit{rand}}$を用いた予測統合の結果を表~\ref{tab:isf}に示す.実験結果から,ランダムに選択した文で構成される部分文書を用いた予測統合が最も低い性能を示した.ここでは$|\Delta|=|\Delta^{\textit{rand}}|,|\hat{D}_i^{\textit{rand}}|=|\hat{D}_i|$であるため,データの規模に違いがなく,両者における性能の差は部分文書の内容によるものだと考えられる.これにより,予測統合が関係抽出の性能向上に寄与する原因は,単なる部分文書によるデータ拡張ではないと推測できる.一方,正解根拠で構成される部分文書を用いた予測が最良性能を示した.ここから,予測統合の効果を発揮するためには,高性能の根拠認識が肝要であることが示唆された.提案手法であるDREEAMは根拠認識で現時点での最良性能を達成できるため,予測統合の効果を引き出すことができる.この点においても,DREEAMの優位性が見られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{04table09.tex}%\hangcaption{疑似文書の構成方法を変更した時のDocRED検証データにおける性能比較.事前学習済み言語モデルエンコーダはBERT\textsubscript{base}を用いた.}\label{tab:isf}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{根拠認識の性能評価}\label{sec:evi_eval}表~\ref{tab:main_results}では,最良性能を示す提案手法を用いても,根拠認識のF1スコアは50強しかなかった.この数値は比較的低いが,先行研究から,現行のF1スコアの計算は根拠認識の性能に過度な罰則を与えているとの知見があった\cite{xie-etal-2022-eider}.本節では,根拠認識の性能をより適切な指標で評価する.まず現行の根拠認識の性能評価に用いるF1スコアの計算方法について説明する.エンティティ組$e_s,e_o$に対するモデルの予測を$(e_s,e_o,\hat{r},\hat{\setV}_{s,o,\hat{r}})$とし,関係$\hat{r}$と連動して根拠認識を評価する.具体的には,\begin{itemize}\item関係$\hat{r}$が正解である場合,人手アノテーションとして,$(e_s,e_o,\hat{r},\setV_{s,o,\hat{r}})$が存在する.根拠として予測された文$x\in\hat{\setV}_{s,o,\hat{r}}$のうち,人手アノテーション$\setV_{s,o,\hat{r}}$と共通する部分$\hat{\setV}_{s,o,\hat{r}}\cap\setV_{s,o,\hat{r}}$を正しい予測とする.\item関係$\hat{r}$が正解でない場合,$\hat{\setV}_{s,o,\hat{r}}$に対応する人手アノテーションが存在しない.そのため,$x\in\hat{\setV}_{s,o,\hat{r}}$を全て不正解とする.\end{itemize}根拠認識のF1スコアは,全てのエンティティ組の関係予測に対する根拠予測を集めてから求める.ただし,根拠の人手アノテーションは正解関係にだけ定義されるため,二つの問題点が挙げられる.まず,予測した関係$\hat{r}$が正解でない場合,$x\in\hat{\setV}_{s,o,\hat{r}}$は全て誤検知として扱われる.これにより偽陽性(FalsePositive)の予測が生じてしまい,適合率を低下させる.次に,モデルが正解関係$r$を予測できなかった場合,$x\in\hat{\setV}_{s,o,r}$は出力されないため,検出漏れとして扱われる.これにより偽陰性(FalseNegative)の予測が生じてしまい,再現率を低下させる.結果として,根拠認識のF1スコアは関係抽出の性能と高い相関があり,関係を正しく抽出できるモデルは,根拠認識でも高い精度を示すことになる.このため,現行のF1スコアは根拠認識単体の性能を正しく評価できないと考えられる.根拠認識の評価から関係抽出の影響を切り離すために提案されたのは\textbf{PosEviF1}である\cite{xie-etal-2022-eider}.PosEviF1では,根拠認識の評価対象を全ての予測結果とせず,正解関係のみに着目する.関係予測が偽陽性の事例と偽陰性の事例は,根拠認識の評価対象から除外する.つまり,モデルが正しく予測した事例$(e_s,e_o,\hat{r},\hat{\setV}_{s,o,\hat{r}})$のみに対し,$\hat{\setV}_{s,o,\hat{r}}$と正解根拠$\setV_{s,o,\hat{r}}$からF1スコアを計算する.PosEviF1でモデルの性能を評価した結果を表~\ref{tab:posevi_f1}に示す.なお,EIDERの評価値は再現実験によるものである\footnote{\url{https://github.com/Veronicium/Eider}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{04table10.tex}%\hangcaption{異なる根拠認識の評価指標を用いた時のDocRED検証データにおける性能.\textbf{EviF1}は根拠F1を表す.事前学習済み言語モデルエンコーダはBERT\textsubscript{base}を用いた.}\label{tab:posevi_f1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験結果から,PosEviF1を用いた評価では,EIDERとDREEAM両方とも80点以上のスコアを達成できた.これにより,両手法は関係を正しく予測できた事例に対し,根拠も適切な精度で認識していると確認できる.ただし,DREEAMを用いても,PosEviF1が90点未満であることから,完璧な根拠認識の難しさが示された.また,EviF1では2.38点だったDREEAMとEIDERの性能差は,PosEviF1では4.04点に開いた.このことから,提案手法であるDREEAMの根拠認識における優位性が再び示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{根拠認識に必要最小限のデータ量}\ref{sec:experiment}節の実験結果から示されているように,根拠は文書レベル関係抽出を行うための情報の取捨選択に有用である.また,\ref{sec:isf_analysis}節では高性能の根拠認識は予測統合の効果を引き出せることも確認された.ただし,根拠の人手アノテーションはコストが高く,正解ラベルのあるデータが限られている.本節では,根拠認識に用いる学習事例数とモデルの性能の関係を調査し,適切な性能を達成するための最小限のデータ量を探索する.根拠認識の学習に学習データの一部だけを用いた場合のDREEAMの性能を計測し,その結果を図~\ref{fig:evi_portion}と表~\ref{tab:evi_portion}に示す.ただし,関係抽出の学習に全てのデータを使用し,推論時は予測統合を行う.事前学習済み言語モデルエンコーダはBERT\textsubscript{base}を採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5andtable11\makeatletter\newcommand{\setcaptype}[1]{\def\@captype{#1}}\makeatother\begin{figure}[t]\begin{minipage}[t]{204pt}\setlength{\captionwidth}{204pt}\begin{center}\includegraphics{31-1ia4f5.pdf}\end{center}\hangcaption{学習データの量を増大するときの根拠認識の性能変化}%\label{fig:evi_portion}\end{minipage}\hfill\raisebox{55pt}[0pt][0pt]{%\begin{minipage}[t]{190pt}\setcaptype{table}\setlength{\captionwidth}{190pt}\input{04table11.tex}%\hangcaption{根拠認識の学習に用いる文書数(全体に占める割合)を増大するときの根拠認識及び関係抽出性能}%\label{tab:evi_portion}\end{minipage}}%\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験結果から,根拠認識の学習に用いる文書数を0から1,526(全学習データの50\%)に増大する過程では,根拠認識における顕著な性能改善が見られた.一方,学習データを1,526(全学習データの50\%)以上に増やしても,根拠認識の性能向上が緩やかであり,最終的にはほぼ同水準で安定した\footnote{全文書を根拠認識の学習に用いる場合,モデルの性能は表~\ref{tab:main_results}(a)の一番下の行と一致するはずだが,ランダムシードの変更等により誤差範囲内のブレが見られた.}.これにより,DREEAMにおいては,根拠認識の学習に用いるデータが比較的に少量であっても,ある程度の性能を達成できると示唆される.また,性能の向上幅が最も大きいのは,根拠認識に用いるデータの量を0から30(全文書の1\%)に増やした時であった.このことから,根拠認識の学習,すなわちトークン重要度の誘導に用いられる正解データが微量であっても,根拠認識の性能向上に寄与すると考えられる.以上を踏まえ,根拠認識の学習に用いられる人手ラベル付けデータが限られている場合でも,DREEAMは一定な精度を達成できると確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語重要度の可視化}\label{sec:visualization}ここでは,\ref{sec:dreeam}節に述べた根拠分布による誘導がトークン重要度にもたらす影響について調べる.式\ref{eq:context_emb_weight}に示した通り,トークン重要度$\bm{q}^{(s,o)}$はエンコーダにおける自己注意機構の重みから算出され,エンティティ組$(e_s,e_o)$の関係を示唆する度合いを表す.本節では,式\ref{eq:loss_evi}を用いて$\bm{q}^{(s,o)}$を根拠に誘導する前後の値を可視化した上で,分析を行う\footnote{単語重要度は構成トークンの和とする.可視化は\citeA{yang-zhang-2018-ncrf}によるツールを用いた.}.続いては,正しい関係予測に対する単語の重要度と誤った関係予測に対する単語の重要度を分けて分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{31-1ia4f6.pdf}\end{center}\hangcaption{エンティティ組(\textit{PrinceEdmund},\textit{TheBlackadder})に対し,局所文脈埋め込みにおける単語重要度のヒットマップ.色が濃いほど値が大きくなる.正解の関係ラベルは\textit{presentinwork}であり,正解の根拠は文1と2である.根拠誘導後のモデルは関係と根拠を正しく予測できた.}\label{fig:heatmap_1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{関係が正しく予測された場合}の例として,単語重要度の可視化結果を図~\ref{fig:heatmap_1}に示す.まず文レベルで観察すると,根拠分布による誘導を行った後,重みは文1と2,すなわち正解の根拠に集中している.式~\ref{eq:evi_human}により,教師信号$\bm{v}^{(s,o)}$も文レベルであることから,トークン重要度$\bm{q}^{(s,o)}$は適切に誘導されていると考えられる.さらに単語レベルで観察すると,誘導による単語の重みの変化も見られた.図~\ref{fig:heatmap_1}(a)では,句点「\textit{.}」に高い重みを配分する傾向が見られるが,図~\ref{fig:heatmap_1}(b)では,句点以外の単語に高い重みを配分している.具体的に,エンティティのメンション以外にも,単語\textit{fictitious}に配分された重みが高く,関係\textit{presentinwork}に関連する単語が注目されている傾向が見られる.ただし,教師信号$\bm{v}^{(s,o)}$は文レベルのアノテーションから算出されたものであり,特定の単語の重みを引き上げるように設計されていない.にもかかわらず,単語レベルの重要度分布が変化したのは,文レベルの教師信号が,関係予測に重要な単語に注目するようにモデルを間接的に誘導したためであると推測される.一方,根拠情報による誘導がない場合,モデルの関係予測は句点などの意味を持たない単語に依存するが,これは人間の判断基準と異なり,解釈性が乏しい\footnote{類似する現象は\citeA{chen-etal-2023-models}でも観測され,この結論を裏付けた.}.根拠分布によるトークン重要度の誘導は,人間と同じ基準(すなわち,注目する部分)で関係を予測するようにモデルを学習するため,モデルの解釈性向上にも貢献できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{31-1ia4f7.pdf}\end{center}\hangcaption{エンティティ組(\textit{ThomasBecket},\textit{TheBlackAdder})に対し,局所文脈埋め込みにおける単語重要度のヒットマップ.色が濃いほど値が大きくなる.正解関係は存在しないが,根拠誘導後のモデルは関係を\textit{author},根拠を文1と4として予測した.}\label{fig:heatmap_2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{関係が誤って予測された場合}の例として,単語重要度の可視化結果を図~\ref{fig:heatmap_2}に示す.\ref{sec:evi_eval}節に述べた通り,関係を持たないエンティティ組に対して,根拠は定義されていない.ところが,根拠による誘導後,モデルは単語\textit{life}に高い重みを配分し,関係を\textit{author}として予測した.「生涯をかけた作品」などの文脈においては,単語\textit{life}と関係\textit{author}の相関は考えられるが,ここではそういった文脈が読み取れない.これにより,根拠とされている文やトークンの重要度を引き上げるだけでは,文脈や語義を明示的に考慮できないため,モデルは関係ラベルとトークンの相関関係を短絡的に学習してしまい,間違った関係予測につながる可能性があると示唆される.文脈情報を考慮した根拠認識手法の設計は,今後の課題として考え得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文書レベル関係抽出}関係抽出は長らく文に閉じた設定で行われてきたが,近年,文書レベルまで拡張された\cite{quirk-poon-2017-distant,peng-etal-2017-cross,yao-etal-2019-docred}.文書レベル関係抽出(DocRE)は文に閉じた関係に限らず,文の境界をまたがるエンティティ組の関係の抽出も目的とするため,従来の関係抽出タスクより適用範囲が広い.DocREのベンチマークとして,DocRED\cite{yao-etal-2019-docred},Re-DocRED\cite{tan-etal-2022-revisiting},HacRED\cite{cheng-etal-2021-hacred},CDR\cite{li-etal-2016-cdr},GDA\cite{wu2019GDA}が挙げられるが,根拠認識の人手アノテーションが整備されているのはDocREDだけである.また,Re-DocREDはDocREDに関係ラベルを追加付与したデータセットであり,追加付与された関係事例における根拠は付与されていない.そのため,本研究では主にDocREDを用いて提案手法の性能検証や挙動分析を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Transformerをベースとした文書レベル関係抽出}DocREを解くため,最初に提案されたのはエンティティのメンションなどをノード,関係をエッジとしたグラフを構築する手法だった\cite{quirk-poon-2017-distant,christopoulou-etal-2019-connecting,nan-etal-2020-reasoning}.これらの手法は文書をグラフとしてモデリングすることから,元文書における文脈情報を保存できない欠点があった.近年,Transformer\cite{NIPS2017attention}をベースとした手法がグラフをベースとした手法の性能を上回った\cite{zhou2021atlop,ijcai2021p551,guo-etal-2023-towards}.Transformerをベースとした手法は,BERT\cite{devlin-etal-2019-bert}をはじめとした事前学習済み言語モデル(PLM)を活用することにより,文脈情報を温存しつつ,トークンやエンティティのメンション間の長距離依存関係を捉えることができる\cite{zhou2021atlop,xie-etal-2022-eider}.\citeA{ijcai2021p551}はコンピュータビジョン分野の知見を活かし,DocREを領域分類(SemanticSegmentation)タスクとして扱い,PLMの上にU-Net層\cite{ronneberger-etal-2015-unet}を追加することにより,エンティティ間の依存関係を捉える手法を提案した.\citeA{zhou2021atlop}は特定のエンティティ組に関連する情報を文書から取得するため,局所文脈埋め込みを提案した.また,DocREのような多クラス分類問題に特化した損失関数として,適応閾値損失を提案した.それに基づき,\citeA{tan-etal-2022-revisiting}はAxial-Attentionモジュールを導入し,関係事例間の関係をモデリングした.\citeA{guo-etal-2023-towards}は学習過程に着目し,適応閾値損失における正の関係ラベルに対する過分な罰則を抑えるよう,損失関数を改善した.これらの設計はトークン間の依存関係が注意機構により暗黙的に学習されると仮定し,明示的な教師信号を与えていない.一方,本研究ではトークン間の依存関係の教師信号として,人手アノテーションやモデルの予測から算出した根拠分布を導入し,関係抽出の性能を向上させた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文書レベル関係抽出と根拠認識}根拠情報をDocREに組み込む研究は他にもあった.\citeA{huang-etal-2021-three}はヒューリスティック的に選出した根拠から構成された部分文書だけで関係の予測を行っても,DocREの性能改善が見られると報告した.根拠認識を自動で行うため,\citeA{huang-etal-2021-entity},\citeA{xie-etal-2022-eider}と\citeA{xiao-etal-2022-sais}は関係抽出器とは別の根拠認識器を導入した.一方,本研究の提案手法であるDREEAMはヒューリスティックのルールや根拠認識器を用いなくても,根拠認識を行うことができる.また,本研究は根拠ラベルの持たないデータに疑似根拠を付与することにより,根拠認識の学習に用いられるデータの量を大幅に拡張させた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{遠距離教師あり学習}遠距離教師あり学習は関係抽出のデータ拡張に広く使われてきた手法である\cite{mintz-etal-2009-distant,quirk-poon-2017-distant,xiao-etal-2020-denoising}.この手法は知識ベース$G$に蓄積された関係知識に基づき,テキスト$X$に関係ラベルを付与する.具体的には,知識ベース$G$における関係の三つ組$(e_s,e_o,r)$が係るエンティティ$e_s$と$e_o$が同時にテキスト$X$に存在する場合,関係$(e_s,e_o,r)$をテキスト$X$における正解ラベルとする.これにより,テキスト$X$におけるエンティティと知識ベースのノードのマッチングを取り,関係ラベルの自動付与が実現できる.DocREDでは,遠距離教師あり学習により関係ラベルが自動的に付与されたデータが含まれている(表~\ref{tab:dataset}).本研究では,DocREDで提供されている自動ラベル付けデータに根拠ラベルを追加で付与し,関係抽出と根拠認識の学習に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では,文書レベル関係抽出モデルに根拠認識を統合する手法を提案した.関係抽出器のエンコーダの自己注意機構から算出されるトークン重要度を,関係予測の根拠に高い重みを配分するように誘導するDREEAMを提案した.続いて,文書レベル関係抽出におけるデータ不足問題を緩和するため,根拠ラベルを持たないデータを活用する手法を提案した.具体的には,遠距離教師あり学習手法で自動付与された関係ラベルを持つデータに疑似根拠を追加し,それを用いて関係抽出及び根拠認識を同時に学習する.DocRED及びRe-DocREDの両データセットで評価したところ,提案手法は関係抽出および根拠認識の両方とも現時点での世界最高性能を達成した.また,推論時のメモリ使用量においては,提案手法は既存手法の30\%まで抑えることができ,少ない計算資源で既存手法の同等以上の性能を達成できる.ただし,提案手法には関係と単語の相関関係を短絡的に認識する傾向が見られた.今後は,文脈を考慮した根拠認識や,長い文書における情報の統合や取捨選択を要する他タスクへのDREEAMの適用,日本語の文書レベル関係抽出の研究に取り組みたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentこの成果は,国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の委託業務(JPNP18002)の結果得られたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor[:]{YoumiMa}{2021年9月東京工業大学情報理工学院修士課程修了.同年9月より東京工業大学情報理工学院知能情報コース博士課程学生.}\bioauthor[:]{AnWang}{%2022年4月東京工業大学情報理工学院修士課程修了.同年4月より東京工業大学情報理工学院知能情報コース博士課程学生.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科博士課程修了.東京大学大学院情報理工学系研究科・特任研究員,東北大学大学院情報科学研究科准教授を経て,2017年8月より東京工業大学情報理工学院教授.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V28N04-05
\section{はじめに} グローバル人材育成のため,政府は外国人留学生の受け入れを推進している\footnote{\url{https://www8.cao.go.jp/youth/whitepaper/r01honpen/s6_1.html}}.また,京都大学でも教養・共通科目を英語で提供したり,日本語・日本文化の教育を組み込んだプログラムを用意するなどの施策を行っている\footnote{\url{https://www.kyoto-u.ac.jp/ja/international/students1/study1/undergraduate}}.しかし,主に講義で用いられる言語は日本語であるため,日本人と外国人留学生との間には学習機会の差が未だに存在し,日本語を勉強中の学生をより一層サポートする必要がある.この解決策として,専門的な内容を通訳できる通訳者を各講義に配置することは,コスト面から現実的でない.一方で,近年,深層学習などによって音声認識や機械翻訳の技術は劇的に進展しており,このような自動処理を活用していくことが今後の方向性であると考えられる.音声の機械翻訳は,音声から音声の場合\cite{speech2speech}と音声からテキストの場合があるが,本研究では後者を対象とする.音声からテキストへの翻訳では,一つのモデルで音声から翻訳済みのテキストまでEndtoEndで変換する手法\cite{end2end}と,書き起こしと翻訳を別々のモデルで行う手法\cite{lmt2,lmt1}がある.前者はエラーの累積が少なく,処理時間も短くできることが多いが,ある言語の音声と別言語のテキストの対応をとったコーパスは少ない\cite{end2end}.また分野適応のための新規コーパスの構築も難しい.このため,翻訳精度を高くすることが困難である.一方,後者の手法は,音声認識器からのエラーの累積があるものの,講義のような比較的落ち着いた話し言葉の音声認識は近年かなり高精度になってきており,単言語内での音声とその書き起こしのコーパスやテキスト形式の翻訳コーパスは利用可能なものが多く,新たなコーパスの構築も難しくない.さらに,日本語の書き起こしと英訳を字幕として同時に提供することで,講義内容の理解の補助と同時に日本語の習得の手助けもできる.本研究は,以上のメリット・デメリットと,講義音声を他言語字幕に翻訳する既存のシステム\cite{lmt2,lmt1}の構成を踏まえ,日本語音声を音声認識器によって書き起こし,次いで機械翻訳により日英翻訳を行う設定で研究を行う.機械翻訳モデルはTransformer\cite{transformer}の登場以来翻訳精度が大きく向上しているが,このモデルの性能を十分に発揮するためには大量のテキストデータを用意する必要がある.広く利用可能な日本語テキストの多くは書き言葉を用いたものであり,話し言葉のコーパスは少ないため,機械翻訳モデルは日本語書き言葉から英語への翻訳を学習することになる.一方,講義では話し言葉が用いられ,それを書き起こしたテキストが機械翻訳モデルへの入力となる.このような書き言葉と話し言葉という訓練データと実際のデータ間のギャップは翻訳精度に悪影響を及ぼすことが知られている\cite{disfluency1,disfluency2,preedit_for_speech_translation}.本研究では日本語の話し言葉と書き言葉の違いに着目し,翻訳精度の向上と,標準語に近い整った日本語書き起こしを提供することによる日本語学習の促進を目的として,話し言葉から書き言葉への自動変換を行う(図\ref{fig:system}).タスクとしての話し言葉書き言葉変換には,フィラーや文末の「ですね」の除去等,パターンマッチや簡単な言語モデルである程度解決可能な問題だけでなく,言い直しや言い換えといった冗長な表現の削除や省略された格助詞の補完など文脈に依存した難しい問題も含まれる.本研究ではこれらの問題を単一のモデルで解決することに取り組む.本システムの推論時には,文の区切りとして音声認識器の出力に含まれる無音区間が文末かどうかを判定するニューラルネットワークモデルによる出力を用いる(例:「でアレニウス式は温度依存性を表すやつ[SEP]です\red{[SEP]}はい\red{[SEP]}そして最後に[SEP]反応器の[SEP]」の場合は,下線部分の無音区間([SEP])が文末と判定されるような学習を行ったモデルを用いる).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-4ia4f1.pdf}\end{center}\caption{大学講義の日英翻訳システムの概要}\label{fig:system}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この話し言葉書き言葉変換を行うモデルを訓練するため,また,その変換による日英翻訳への影響を調査するため,新たなコーパスを構築した.このコーパスは大学講義の書き起こしとそれを書き言葉に変換したもの,対応する英文の3つ組からなる.なおコーパス構築の際には,話し言葉特有の現象の分類\cite{swdiff,csj_rep}を参考にし,どのような現象を変換すべきか取り決めた.こうして構築したコーパスを用いて話し言葉書き言葉変換モデルと日英翻訳モデルを学習させ,話し言葉書き言葉変換が日英翻訳の精度を向上させることを実験的に示した.また,話し言葉書き言葉変換の複数手法の定量的評価を行った.加えて,話し言葉に特有の現象の分類に基づき,どのような現象がどの程度翻訳精度に影響するのかを定量化した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 本節では,まず話し言葉と書き言葉がどのように違うかを明確化し,話し言葉のコーパスについて述べる.次に話し言葉を書き言葉に変換するに当たり,どのような手法が存在するかを挙げ,最後にそのような変換による翻訳精度への影響についての関連研究を紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話し言葉と書き言葉の違い}\label{sec:swdiff}話し言葉に特有の現象を,\citeA{swdiff}は4つに大別している.本研究においてコーパスを構築するに際し,作業者に話し言葉と書き言葉の違いを理解してもらうために,これを例文とともに提示した.\begin{itemize}\item語彙的な現象:音韻的な縮約/特有の終助詞/口語的な助詞/敬語/感動詞\item省略:格助詞の省略・無助詞/判定詞の省略\item冗長な表現:言い直し/繰り返し/言い換え/言い淀み\item文の概念がないことに関連する現象:名詞句・助詞句発話/格助詞での中止/ねじれ/倒置\end{itemize}ここで挙げたもののうち,どの現象を本研究の対象とするかは次節以降で議論する.なお,島津らはその他の現象として「数え上げ」と「綴りの説明」も挙げているが,これらについてはあまり現れないとしている.そのため,本研究でもこれらは扱わない.また,文の概念がないことに関連する現象として「先取り」が挙げられているが,これは主に会話で発生する現象であり,講義ではあまり発生しないので省いた.話し言葉の性質について言及した他の研究の一つである\citeA{csj_rep}は,作業者によって判断が揺らがないように厳密に定義がなされている.例えば\citeA{swdiff}では「音韻的な縮約」と一纏めにしているものを「動詞ラ行音にかかわる撥音化」「テ形の複合動詞にかかわる縮約」などに細かく分類した上で,口語表現であると認める場合を列挙する形で示している.これは本研究では作業者にとって過剰に詳細であるため,本研究のコーパス構築作業にあたっては\citeA{swdiff}を参考にした.日本語の話し言葉のコーパスとして代表的な日本語話し言葉コーパス(CSJ)\cite{csj}は,学会講演,および模擬講演を中心とした音声データを元に,様々な観点からアノテーションを付与しXML文書の形で利用可能にしたコーパスである.CSJでの話し言葉特有の現象に対するアノテーションとしては,\citeA{swdiff}の分類に含まれる音の転訛,フィラー,言い直し・言い淀み等による語断片の他,母音や子音の引き伸ばし,話者の笑いや咳,語の読みに関する知識レベルの言い間違いなども含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話し言葉の自動整形}\citeA{auto_delete}は話し言葉に対する整形処理における一次整形として削除,挿入,置換の3つの操作を挙げており,CSJに対してこれらの一次整形を行う箇所の開始タグと終了タグを付与したデータを作成した.また,そのうちの削除する箇所について自動で検出する手法を提案している.他の日本語の話し言葉を自動で修正し読みやすくする事例として国会会議録を音声データから自動で書き起こすシステム\cite{diet}がある.この研究では書き起こしの忠実性や発話者の意図の尊重のため,言い直しや繰り返しはそのままテキストに残しており,冗長な部分を修正するとしても文末の「ですね」の除去などに限られる.しかし,\ref{sec:disfluency}項で示す関連研究においては音声認識に続く機械翻訳の段階での話し言葉特有の現象による翻訳精度の低下が示されている.そのため,本研究では翻訳タスクでの影響を重要視し,\ref{sec:swdiff}項に示した話し言葉と書き言葉の違いを可能な限り網羅するような修正を施す.話し言葉書き言葉変換はSequencetoSequenceのタスクとして解釈することが可能である.そして,単言語でのSequencetoSequenceタスクを解く手法として,事前訓練済みの言語モデルをfinetuningする手法が近年大きな注目を集めている.例えばT5\cite{t5}は入出力をタスク固有のプレフィックスとともにTexttoTextの形式に変換することで文書分類や自然言語推論など様々なタスクを単一のモデルの転移学習で解くことができると示した.このようなモデルは幅広いタスクに適用可能である一方,事前訓練に莫大な資金と時間が必要となるため,英語以外での訓練済みモデルの一般公開は少ない.日本語で利用可能な事前訓練済みモデルとしては日本語Wikipediaで事前訓練されたBART\cite{jbart}が挙げられる.話し言葉は,フィラーや特有の助詞が用いられるものの,一般的には文法的に間違っているわけではない.しかし同じ言語内で文の意味を維持したまま,トークンを挿入したり削除したりといった文の操作を行うという観点では,時制や冠詞などの文法上の間違いを訂正するタスクである文法誤り訂正と類似している.LaserTagger\cite{lasertagger}は,文法誤り訂正を含むSequencetoSequenceのタスクをSequenceLabelingとして解くことができる手法で,小さいデータセットでも良い性能を出せることと推論が高速であることが特徴である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話し言葉の整形による翻訳精度向上}\label{sec:disfluency}\citeA{disfluency1}は,翻訳の前処理としてフィラーや冗長な表現を除去することで翻訳精度が向上することを示している.また,\citeA{disfluency2}はTransformerのような深層学習に基づくモデルでも訓練に利用可能な流暢なコーパスと実際に入力される非流暢なテキストの不一致が翻訳精度の低下を引き起こすと主張している.しかし日本語では,それらだけでなく「ですんで」「こっから」のような音韻的な縮約による違いも多く見られる.本研究では非流暢性だけでなく語彙的な現象による翻訳精度への影響も調査する.また,整形されたテキストを字幕として提供することは日本語初学者が勉強するに当たり,辞書を引きやすくなる,標準的な日本語を覚えられるなどのメリットがある.\citeA{preedit_for_speech_translation}は話し言葉の日英翻訳における前処理として話し言葉を簡潔な表現に変換する手法を提案しているが,前処理,日英翻訳ともにルールベースであり,EndtoEndな手法と比べて構築・管理の手間がかかる.また,\ref{sec:swdiff}項で述べた冗長な表現を代表として,話し言葉においては単純なパターンマッチや形態素解析で検出するのが難しい現象が存在するため,坂本らの研究ではこれらの変換は取り扱っていない.加えて,翻訳の手法はTransformerアーキテクチャの登場により飛躍的に精度を向上させており,再度話し言葉の変換による翻訳精度向上の有効性を検証する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{コーパスの構築} \label{sec:sw_corpus}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文区切り器の訓練}講義翻訳システムで用いる文区切り器は独自のコーパスで訓練されたものであるため,ここでそのコーパスについて述べる.文区切り器は事前訓練とfinetuningで別々のコーパスを使用している.事前訓練に使用したのは日本語話し言葉コーパス(CSJ)をベースとしたコーパスで,CSJのnoncoreに含まれるClauseBoundaryLabelが文末とアノテーションされた箇所を区切るべき位置としている.区切り位置を推定する訓練を行うため,5から10の文をひとまとめにし,正解の文末位置トークンを文と文の間に挿入する.そして,各文を分かち書きして形態素の間にダミーの文末位置トークンをランダムに挿入する.このようにして作成されたのが文区切り器の事前訓練コーパスである.finetuningには京都大学の講義をAMIの音声認識器AmiVoiceエンジン\footnote{\url{https://www.advanced-media.co.jp/amivoice}}で書き起こしたものをベースとしたコーパスを用いる.このコーパスには音声認識器が出力する無音区間トークンが発話内に含まれており,この無音区間の中からアノテーション作業を行った者が文末としてふさわしいと考えた箇所を文末の正解データとした.文区切り器は入力文字列中の無音区間が文末かどうかの判別を学習する.文区切り器は,これらのコーパスを用いて訓練された$\mathrm{BERT}_\mathrm{{base}}$モデルであり,入力トークン列に含まれる文末候補位置(音声認識器の出力する無音区間トークン)の中から文末位置を推測するSequenceLabelingモデルとなっている.finetuning用コーパスのテストデータに対するf値は82.2\%となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション}ここで示すデータは京都大学で2019年度に行われた5つの講義の書き起こしをもとに構築した.表\ref{tab:classes}に講義名と文の数を示す.以後,この書き起こしのデータを\jspと表記する.\jspをベースに\ref{sec:swdiff}項で述べた話し言葉と書き言葉の違いを具体例とともに作業者に提示して変換を依頼した.ただし,それらの話し言葉と書き言葉の違いのうち,「名詞句・助詞句発言」「ねじれ」はコンテキストへの依存性の高さや専門的な内容に言及している場合の判断の難しさから,作業者には変換を指示しなかった.また,講義で使われる敬語の多くは丁寧語であり,書き言葉でもよく見られる表現であるため,「敬語」に関する違いも変換対象としなかった.また,話し言葉から書き言葉への変換は一意なものではないため,本データセットでは多様性を重視し変換ルールの統一は行わず,各作業者に判断を委ねることとした.作業は日本語を母語としテープ起こし作業を業務としている者8名で,担当する量がほぼ等分となるように行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1and2\begin{table}[b]\begin{minipage}[t]{.45\textwidth}\input{04table01.tex}\caption{書き起こしの講義名と文数}\label{tab:classes}\end{minipage}\hfill\raisebox{13pt}[0pt][0pt]{%\begin{minipage}[t]{.45\textwidth}\input{04table02.tex}\caption{構築したデータセットの文数}\label{tab:datasets}\end{minipage}}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実際に変換作業を行った所,\ref{sec:swdiff}項で述べた話し言葉と書き言葉の違いに含まれないが修正を施すべき点がいくつか見つかった.以下に具体例を示す.\begin{itemize}\item文頭の「で」の除去\\「それで」と同じ働きをする接続助詞の「で」は,話者の癖により本来必要としない箇所でも出現することが多いことがわかった.\item句読点位置の修正\\話し言葉では文という概念がないため,それを書き起こす際の句読点位置についても曖昧性が生じる.そのため,より適切な位置に句読点をずらしたり,過剰な句読点を削除する修正を行った.この修正は曖昧性があるが,各作業者の判断に委ねた.\\例文:「菱面対称というのの、括弧ですね、括弧で菱面対称であるんですが」→「菱面対称というものの括弧です。括弧で菱面対称であるのですが」\item文法上の間違いの訂正\\接続詞ではないのに文頭で使われている「なので」,明らかな格助詞のミスなど,文法的に不適切な箇所を訂正した.\item意味的に冗長な箇所の削除\\以下の例文のように,発話の意味的な内容において重要でない部分を削除し,簡潔かつ整った文体にした.\\例文:容易に作ることができる\textbf{という形です}。\item話し言葉的な語の変換\\音韻的な縮約があるものや話し言葉に特有の助詞に限らず,話し言葉で多く用いられると考えれる語を同じ意味で書き言葉で主に用いられているものに置換した.\\例:さっき(先ほど),なんか(など)\end{itemize}変換後のデータを以後\jwrと表記する.\jsp-\jwrの訓練・開発・テストセットの文数を表\ref{tab:datasets}に示す.なお本システムは,毎年度同じ講師がほぼ同じ内容の講義を行い,そのたびにデータが蓄積され,改めてモデルが訓練されるという想定のもとで開発されている.そのため,未知の語彙や熟語が出現する頻度は低いと仮定し,開発セットとテストセットは全ての文からランダムに選択した.本コーパスに含まれるデータの具体例を以下に《変換前/変換後》の表記で示す.\begin{itemize}\item《でえーとまあ/》《こっから/ここから》RCO《/、》ここ《ですね/です》《。/、》《えーカルボニル、/》ここがカルボニル基《なんだけど/なのですけれど》、《ここがカルボニル基なんですけど、/》\item《あ/》ページが《変わっちゃうのか、/変わってしまいます。》《いいですか、理想気体のほうは/理想気体のほうはいいですか》。\item今日の分は《やっといて/行っておいて》いただいた方がいいと思います。\end{itemize}\jwrの一部の翻訳を翻訳業者に依頼し,日英対訳コーパスを構築した.この英訳を以後\enと表記する.これにより,話し言葉と書き言葉と英訳の対応をとった3つ組のコーパス\jsp-\jwr-\enデータセットを構築した.統合されたデータの文数は表\ref{tab:datasets}に示す.文数とあるが,実際には句読点位置の修正の結果や翻訳の都合で,2つ以上の文が1つの文と対応づいている場合も存在する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{話し言葉書き言葉変換} \label{sec:spoken-to-written-model}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{手法}話し言葉書き言葉変換を行う手法として,LaserTaggerとBARTを比較する.\jsp-\jwrデータに対してこの2モデルをfinetuningし,評価にはSARI\cite{sari}を用いる.実装はLaserTagger著者らと同じものを用いる.なお,この実装では,出力と正解の完全一致(修正箇所が0個の場合)に対して高いスコアを与えるため,スコアの計算時に$0/0=1$として計算している.また,ランダムなテストデータ100件に対する推論にかかる平均時間も計測する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{LaserTagger}\label{sec:lasertagger}LaserTaggerは,ある種のSequencetoSequenceのタスクをSequenceLabelingとして解く手法である.入力の各トークンを維持するか削除するかをラベル付けし,必要ならトークン列を挿入する.エンコーダ部分は,マスキングされたトークンを復元するMaskedLMと2文間の関係が連続する文かそれ以外かを判断するNextSentencePredictionの2タスクで事前訓練されたTransformerEncoderであるBERTを用いる.デコーダ部分は単一の全結合層を用いる\LTFF(以後\ltffとする)と一層のTransformerDecoderを用いる\LTAR(以後\ltarとする)のバリエーションがある.話し言葉書き言葉変換のタスクは,\ref{sec:swdiff}項で示したように,多くは語彙の変換や削除で対応できるため,LaserTaggerが適用できる.ただし,倒置の修正は多くのトークンにまたがる変換であるためLaserTaggerでは解くことが難しいというデメリットがある.一方SequencetoSequenceの手法はそのような制限はないため解ける可能性がある.SequencetoSequenceで問題を解く際,Transformerを始めとする多くの主流なモデルは一定数の語彙以外のトークンを表す特殊トークン(\<UNK\>などで表記される)を出力してしまう可能性がある.このような不要なトークンが翻訳モデルの入力に混じると,翻訳精度の低下につながる恐れがある.また,SequencetoSequenceのモデルには同じトークン列を繰り返し出力してしまう問題も存在する.SequenceLabelingの場合は,トークンの維持と削除,そして予め決められた出力フレーズ語彙からのトークン列の挿入しか操作のパターンがないため,それらの可能性をなくすことができる.より品質の保証されたサービスを提供するという観点において,機械翻訳の前処理として不要なノイズを加えてしまう可能性をコントロールできることもLaserTaggerのメリットの一つである.LaserTaggerに必要となる事前訓練されたBERTモデルは,日本語Wikipediaで訓練された$\mathrm{BERT_{large}}$\cite{jbert}を用いる.また,LaserTaggerのDecoderは全結合層の場合とTransformerDecoderの場合の両方を検討する.\jsp-\jwrデータセットにおけるfinetuningは,TeslaV100GPUを1枚使用してバッチサイズ8で20エポック訓練し,各エポック終了時にモデルのパラメータを保存した.開発セットに対するexactスコアが最も高いパラメータを最終的なスコアの算出に用いる.LaserTaggerは倒置などの複数のトークンにまたがる修正や出力フレーズ語彙に含まれないトークン列の挿入を必要とする変換を行うことができないため,訓練セットからはそれらのデータは削除される.出力フレーズ語彙の数を\citeA{lasertagger}にならって500としたとき,訓練セット11,072件のうち,SequenceLabeling形式に変換できたものは8,832件であった.倒置が発生している文や頻度の低い語彙が挿入されている文に限って訓練上重要な変換が含まれるとは考えにくいため,この2,340件の削除の影響は大きくないと想定される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{BART}\label{sec:bart}比較対象として,SequencetoSequenceのモデルであるBARTを用いる.\citeA{jbart}が日本語Wikipediaで行った事前訓練には次の2種類が併用されている.\begin{itemize}\itemTextInfilling:長さ0以上のトークンのスパンが単一の特殊トークンで置き換わっており,これを復元する\itemSentencePermutation:複数文がランダムな順に並べ替えられており,これを復元する\end{itemize}モデルサイズは$\mathrm{BART}_{\mathrm{large}}$を用いる.この事前訓練はTeslaV100GPUを4枚使って約1ヶ月行われた.なお語彙数は32,000,バッチサイズは512である.finetuning時には通常のTransformerアーキテクチャとしてSequencetoSequenceのタスクを学習する.\jsp-\jwrデータセットに対するfinetuningは,TeslaV100GPUを1枚使用して40エポック訓練し,各エポック終了時にモデルのパラメータを保存した.開発セットに対するlossが最も低いパラメータを最終的なスコアの算出に用いる.なお,出力に\<UNK\>が含まれている場合,入力に1対1で対応が取れる\<UNK\>が存在する場合はもともとのトークンを復元する処理を加えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\vspace{-0.8\Cvs}\input{04table03.tex}\caption{話し言葉書き言葉変換の評価}\label{tab:formatter}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果と考察}\label{sec:sw_result}結果を表\ref{tab:formatter}に示す.LaserTaggerが\BARTlargeと並ぶ精度を持っていることがわかる.ここから,話し言葉と書き言葉でほとんどのトークンが同一であり,基本的にはトークンを維持または削除するだけでよく,挿入する場合もそのパターンは500個あれば語彙数32,000のSequencetoSequenceモデルに匹敵することが可能であるとわかる.また,\ltarはトークンの追加でわずかに\ltffに勝るものの,ほぼ同等の性能を持つことがわかった.なお,\BARTlargeの出力において\<UNK\>の復元に失敗した例はテストセット中には含まれなかった.処理時間については,機械翻訳モデルの推論時間が約1秒であるため,リアルタイムでの使用においてはBARTは推論時間が長すぎて実用性に欠けると言わざるを得ない.よって,続く実験では\ltffを主な実験対象とする.\ltarは\ltffに比べ処理時間が長いものの翻訳処理よりは短いため実用性があると考え,わずかながら性能で勝るため比較対象として実験対象とする.変換の具体例を表\ref{tab:swoutputs}に示す.《なってる/なっている》と《ですよね/です》の修正は全てのモデルが成功しているが,冗長な表現である「電荷,正電荷を」の修正については\ltarは失敗している.なお,LaserTaggerに対しては\ref{sec:impact}節でさらなる具体例を示し翻訳に対する影響の考察を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{04table04.tex}\caption{話し言葉書き言葉変換の具体例}\label{tab:swoutputs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{話し言葉書き言葉変換の日英翻訳への影響} \label{sec:impact}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{手法(LaserTagger\&Transformer)}日本語話し言葉書き言葉変換モデルには,\ref{sec:sw_result}項で述べたように\ltffを主として用い,比較用として\ltarを用いる.日英翻訳モデルにはTransformerの標準実装であるtensor2tensor\cite{tensor2tensor}に実装された$\mathrm{Transformer}_{\mathrm{big}}$を,科学技術論文の概要のアラインメントから構築された約1380万文の日英対訳コーパスで事前訓練(TeslaV100GPU4枚で11万step)したものを用いる.この実験では,英文の対応付けの際に文の区切りが調整されたことにより,\jsp-\jwr-\enのテストデータが\jsp-\jwrの訓練データに含まれていないことを保証することが困難であったため,表\ref{tab:datasets}の\jsp-\jwrのデータ全体は使わず,\jsp-\jwr-\enの対応がついている部分のみを用いる.LaserTaggerは\jsp-\jwrのペアでfinetuning(\ref{sec:lasertagger}目と同様の条件)を行い,Transformerは\jwr-\enのペアでfinetuning(TeslaV100GPU4枚で開発データにおけるBLEUスコアが上昇しなくなるまで200step単位で訓練)を行う.これによって話し言葉を自動で書き言葉に変換した後に日英翻訳を行うことができる.比較対象として,\jsp-\enでfinetuningを行ったTransformerに\jspのテストデータを入力する場合と,\jwr-\enでfinetuningを行ったTransformerに\jwrのテストデータを入力する場合を考える.前者は話し言葉書き言葉変換による精度の変化を定量化するのに使い,後者は話し言葉書き言葉変換による精度向上の上限の指標とする.なお,最終的な評価指標にはSacreBLEU\cite{sacrebleu}によるBLEUスコアを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果と考察}以後,*-\enはそれぞれ対応する日英翻訳モデルからの出力を表すこととする.結果を表\ref{tab:impact}に示す.話し言葉書き言葉変換によりBLEUスコアが向上しており,\ltarは\jwr-\enと同等,\ltffもほぼ同じスコアを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{04table05.tex}\caption{話し言葉書き言葉変換による翻訳精度への影響}\label{tab:impact}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{04table06.tex}\caption{話し言葉書き言葉変換による日英翻訳の改善の具体例}\label{tab:outputs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:outputs}に話し言葉書き言葉変換により翻訳精度が改善している例を示す.下線で示した部分が冗長な箇所であるが,\jsp-\enは英訳が不適切になっている.一方,この冗長な箇所が修正されている場合の翻訳はより適切なものとなっている.\ltffは不要なトークン(二重下線部分)を挿入してしまっているが,英訳には影響は見られない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話し言葉特有の現象の種類ごとの翻訳精度への影響}\jsp-\jwr-\enの全テストデータに対して,\ref{sec:swdiff}項で述べた4種類の現象と,\ref{sec:sw_corpus}節で述べたその他の現象のそれぞれが現れているかどうかをラベル付けした.ただし,\jwrにて修正されていないもの(名詞句発言やねじれなど)はカウントしない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{04table07.tex}\caption{テストデータ367件の分類}\label{tab:labels}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{04table08.tex}\caption{その他の現象の修正(e)の内訳(重複を含む)}\label{tab:e_detail}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ラベル付けした結果を表\ref{tab:labels}に示す.また,その他の現象の修正(e)の内訳を表\ref{tab:e_detail}に示す.この付与したラベルに基づき,テストセットを分割してBLEUスコアを算出し,話し言葉特有の現象の種類ごとの翻訳精度への影響を調査した.表\ref{tab:include_b}に省略の修正(b)を含む場合とそれ以外とで分割した際のBLEUスコアの違いを示す.(b)を含む場合は含まない場合に比べてBLEUスコアで6.0~6.7ポイントの差がある.これは他の修正に関する場合と比べても大きい差であり,助詞や判定詞の省略と翻訳精度の低下に大きな相関があることを示す.しかし,BLEUスコアの差が最も大きいのは\jwr-\enの場合であり,省略を修正することでは翻訳精度はそれほど改善しない(\jsp-\enと比較し0.4ポイント差).これは省略が発生するような発話はそもそも翻訳が難しいことを示していると考えられる.例えば文としての構造が整っておらず,英訳時に語順を入れ替えるなどの調整を入れる余地がある場合や,格助詞や判定詞だけでなく主語や目的語まで省略されている(これらはコーパス構築時に修正要件に含めていない)ためにそれらを無理やり英訳した結果が間違っている場合などが考えられる.表\ref{tab:include_c}に冗長な表現の修正(c)を含む場合とそれ以外とで分割した際のBLEUスコアの違いを示す.まず,省略の修正(b)に関するBLEUスコアの違いと異なり,修正を含むか含まないかの分割によるBLEUスコアの差が0.4~2.1と小さい.これは冗長な表現はどのような状況でも発生し,そのため翻訳の難しさの分散がこの修正を含む場合と含まない場合とで大きく異ならないことに起因すると考えられる.次に,(c)を含む場合は\ltff-\enと\ltar-\enのスコアが\jsp-\enと\jwr-\enのほぼ中間に位置していることがわかる.これは冗長な表現の修正に関してはLaserTaggerにまだ改善の余地があり,いくつかの場合で修正に失敗していることが原因であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9and10\begin{table}[b]\begin{minipage}[t]{.45\textwidth}\setlength{\captionwidth}{189pt}\input{04table09.tex}\hangcaption{省略の修正(b)を含むかどうかによる\\BLEUスコアの違い}\label{tab:include_b}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\setlength{\captionwidth}{189pt}\input{04table10.tex}\hangcaption{冗長な表現の修正(c)を含むかどうか\\によるBLEUスコアの違い}\label{tab:include_c}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{04table11.tex}\caption{文の概念がないことに関連する現象の修正(d)を含むかどうかによるBLEUスコアの違い}\label{tab:include_d}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:include_d}に文の概念がないことに関連する現象の修正(d)を含む場合とそれ以外とで分割した際のBLEUスコアの違いを示す.なお,(d)のラベルが付与されたデータが14件と少ないため,ここで述べることは一般性に欠ける可能性がある.(d)を含むか含まないかの分割に関して,\jsp-\enの場合に最も大きい6.3ポイントのBLEUスコアの差があり,文としての体をなしていないテキストの機械翻訳が難しい事がわかる.また,\jwr-\enの場合は2.4ポイントに縮まっているため,この現象を修正することで翻訳精度を大きく向上させることができると考えられる.ただし,文の概念がないことに関連する現象の発生頻度が高くないため,翻訳精度全体としての影響は小さい.文の概念がないことに関連する現象の修正(d)を含む場合について,冗長な表現の修正(c)の場合と同じく,\ltff-\enと\ltar-\enは\jsp-\enと\jwr-\enのほぼ中間のBLEUスコアとなっている.すなわち修正に改善の余地があると考えられる.しかし,LaserTaggerは原理的に倒置を修正することがほぼ不可能であるため,これを改善するためには訓練セットの増量などではなく手法自体の改良が必要である.語彙的な現象の修正(a)とその他の現象の修正(e)は不要なトークン列の削除や同じ意味のトークン列との置換など操作として類似している部分が多く,またその共起する割合も高い((a):$202/294=68.7\%$,(e):$202/236=85.6\%$)ため,まとめて扱う.付与したラベルに(a),(e)のどちらか,または両方のみを含む場合を(x)とする.これとの対比として,省略の修正(b),冗長な表現の修正(c),または文の概念がないことに関連する現象の修正(d)のいずれかを含む場合を(y),修正を含まず\jspと\jwrが完全に同一の場合を(z)とし,これらと比較した結果を表\ref{tab:include_bcd}に示す.まず,(x)と(y)を比較するとBLEUスコアに3.6~4.9の差があることは,(b)と(d)の修正を含む場合は含まない場合と比べてBLEUスコアが小さいことと関連している.(x),(y)と比べて(z)のBLEUスコアが高いことは,修正の必要がないほど元から整った文であったことを考えると自然である.(z)に関して,入力が同じであるにも関わらず\jsp-\enのスコアが低くなっているが,これは訓練セット内でのノイズ(話し言葉特有の現象)がモデルの出力に影響を及ぼしている結果と考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{04table12.tex}\caption{語彙的な現象の修正(a),その他の現象の修正(e)を含むかどうかによるBLEUスコアの違い}\label{tab:include_bcd}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\input{04table13.tex}\caption{その他の現象の修正(e)の細分類ごとのBLEUスコアの違い}\label{tab:include_e_detail}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%その他の現象の修正(e)の細分類ごとのBLEUスコアへの影響を表\ref{tab:include_e_detail}に示す.まず,\jsp-\enと\jwr-\enを比較すると,最も差が大きいのは意味的に冗長な箇所の削除となっている.これは冗長な表現の箇所を無理に訳出しようとした結果として不要なトークンが英訳に現れるためにBLEUスコアが低下していると考えられる.次に,\ltff-\enと\ltar-\enを比較すると,件数的に多い句読点位置の修正では\ltarが優れているものの,話し言葉的な語の変換や意味的に冗長な箇所の削除,文法上の間違いの訂正では\ltffが優れている.これらの現象については平均のBLEUスコアが他の現象と比べ低いため,全体的な翻訳品質の底上げという観点から評価すると\ltffのほうが\ltarよりも優れていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14and15\begin{table}[t]\begin{minipage}[t]{.45\textwidth}\setlength{\captionwidth}{189pt}\input{04table14.tex}\caption{省略の修正(b)を含むかどうかによる\\SARIスコアの違い}\label{tab:omake_b}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\setlength{\captionwidth}{189pt}\input{04table15.tex}\caption{冗長な表現の修正(c)を含むかどうか\\によるSARIスコアの違い}\label{tab:omake_c}\end{minipage}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[t]\input{04table16.tex}\caption{文の概念がないことに関連する現象の修正(d)を含むかどうかによるSARIスコアの違い}\label{tab:omake_d}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[t]\input{04table17.tex}\caption{語彙的な現象の修正(a),その他の現象の修正(e)を含むかどうかによるSARIスコアの違い}\label{tab:omake_bcd}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このラベル付けしたデータに対する\ltff,\ltarの話し言葉書き言葉変換の精度を表\ref{tab:omake_b}から\ref{tab:omake_bcd}に示す.語彙的な現象(a),その他の現象(e)のようなパターンマッチに近い修正は\ltffが優れている一方,それ以外の修正では\ltarのほうが精度が高いことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では日本語の話し言葉と書き言葉の違いに着目し,両者の違いを表すデータセットを構築した上で,話し言葉から書き言葉に自動で変換する手法を用いて日英翻訳の精度が向上することを示した.さらに,どのような違いが翻訳精度に影響するのかを定量化した.今後の課題として,本研究では取り扱わなかったが,音声認識に誤りがある場合はそれがそのまま英訳されてしまう問題がある.今回のように翻訳の前処理としてそれらを修正したり,翻訳モデルを誤りに対してロバストにすることで対処するか,音声から直接翻訳テキストを生成する手法によりこれを解決できる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,科研費\#19K20343の助成を受けたものです.また,京都大学における講義翻訳プロジェクトを立ち上げられた大嶋正裕工学部長とシステムとコーパス構築にご協力いただいた株式会社アドバンスド・メディアに感謝申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{中尾亮太}{%2018年京都大学工学部電気電子工学科卒業.現在,京都大学大学院情報学研究科修士課程に在籍.言語処理学会学生会員.}\bioauthor[:]{ChenhuiChu}{%2015年に京都大学大学院情報学研究科博士課程修了.博士(情報学).2020年より同研究科特定准教授.機械翻訳,自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{黒橋禎夫}{%1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.2014年より日本学術会議連携会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V27N02-07
\section{はじめに} 機械翻訳は自然言語処理の初期から盛んに研究され,様々な手法が提案されてきているが,近年では,ニューラルネットワークを用いた機械翻訳(NeuralMachineTranslation;NMT)が高い精度を実現しており,主流となっている.NMTの中でも,特に,同一文内の単語間の関係を捉えるSelfAttentionという構造を用いたTransformer\cite{tf}に基づくNMTがstate-of-the-artの精度を達成し,注目を集めている.TransformerNMTは,従来の畳み込みニューラルネットワーク(ConvolutionalNeuralNetwork;CNN)に基づくNMT\cite{pmlr-v70-gehring17a}や再帰型ニューラルネットワーク(RecurrentNeuralNetwork;RNN)に基づくNMT\cite{NIPS2014_5346,D15-1166}と異なり,原言語文や目的言語文において,同一文中のすべての単語間の関連度をAttention(SelfAttention)で計算する.また,各単語の文中における位置情報はPositionalEncodingを用いて各単語の埋め込み表現に付随させることで,学習時に単語毎の並列処理を可能としている.Shawら\cite{relative}は,単語の位置情報として,2単語間の文中における相対的な位置関係の情報をSelfAttentionにおいて考慮することでTransformerNMTの翻訳精度の改善を実現した.これまで,統計的機械翻訳やNMT等では,原言語文や目的言語文,あるいはその両方の構文情報(句構造や係り受け構造など)を活用することで翻訳精度が改善されており\cite{syntax_smt,dep2seq,seq2dep,dep2dep},近年,TransformerNMTにおいても構文情報が活用されてきている.しかし,Wuら\cite{dep2dep}やZhangら\cite{zhang-etal-2019-syntax}など,多くの従来研究ではTransformerNMTの外側に構文情報を考慮する機構を付加しており,TransformerNMTのモデル自体は改良されていない.本稿では,原言語側の係り受け構造に基づく2単語間の相対的位置情報をTransformerエンコーダのSelfAttentionで考慮する新たなTransformerNMTモデルを提案する.具体的には,Shawら\cite{relative}に倣い,原言語文を係り受け解析した結果得られる係り受け構造に基づく単語間の相対的位置関係を埋め込んだベクトルを単語埋め込みベクトルに付随させる.原言語側の係り受け構造に基づく2単語間の相対的位置情報を考慮することで,単語系列に対する位置情報のみを考慮するよりも正しく単語間の依存関係を捉えた目的言語文を生成できるようになり翻訳性能の改善が期待される.科学技術論文の概要から作成されたASPEC(AsianScientificPaperExcerptCorpus)\cite{aspec}データを用いた英日および日英翻訳実験により,原言語文の係り受け構造を相対的位置表現で考慮する提案モデルは,従来の係り受け構造を考慮しないTransformerNMTモデル\cite{tf,relative}よりも高い翻訳精度を達成できることを示す.特に,日英翻訳においては0.37ポイントBLEUスコアが上回ることを確認した.本稿の構成は以下の通りである.2節で本研究の関連研究について述べ,3節では提案モデルのベースとなる従来のTransformerNMTモデル\cite{tf,relative}について説明する.4節では本研究の提案モデルについて述べる.5節では本研究で行った実験とその結果の考察を行い,6節で本稿のまとめと今後の課題について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} これまで,原言語文や目的言語文,あるいはその両方の構文情報(句構造や係り受け構造など)を活用することでNMTの翻訳精度が改善されてきた.構文情報として句構造に着目した研究がある.例えば,AharoniとGoldberg\cite{aharoni-goldberg-2017-towards}は目的言語側の句構造,Eriguchiら\cite{eriguchi-etal-2016-tree},Maら\cite{ma-etal-2018-forest},CurreyとHeafield\cite{currey-heafield-2019-incorporating},Watanabeら\cite{watanabe-etal-2017-cky}は原言語側の句構造をNMTで活用している.本研究は,句構造ではなく係り受け構造に注目しているという点でこれらの従来研究と異なる.構文情報として係り受け構造に着目した研究がある.Chenら\cite{dep2seq}は,原言語文の係り受け構造において親子関係あるいは兄弟関係にある単語の埋込み表現をCNNによって畳み込み,RNNに基づくNMTモデルのエンコーダで活用するモデルを提案している.また,SennrichとHaddow\cite{linguistic_features}は,原言語側の係り受け関係ラベルをその他の言語学的素性と共に埋め込んだベクトルを入力単語の埋込みベクトルと結合させることで,RNNに基づくNMTモデルにおいて原言語側の係り受け関係を考慮している.Eriguchiら\cite{seq2dep}は,RNNに基づくNMTモデルのデコーダに構文解析を行うRecurrentNeuralNetworkGrammar\cite{dyer-etal-2016-recurrent}を導入することで,目的言語側の係り受け構造情報の活用している.これらの従来研究は,RNNに基づくNMTモデルで係り受け構造を活用しているのに対して,本稿で提案するモデルはTransformerモデル特有の構造であるSelfAttentionにおいて係り受け情報を活用するため,モデルの構造という観点で異なる.近年,TransformerNMTにおいても構文情報を考慮するモデルがいくつか提案されてきている.Wuら\cite{dep2dep}は,NMTにおいて原言語側と目的言語側の両方の係り受け木を用いる方法を提案している.具体的には,NMTのエンコーダに原言語文の単語系列を入力するとともに,原言語文の係り受け木に基づいて並び替えた単語系列を入力することで,原言語側の係り受け情報を考慮している.また,デコーダ側では,NMTデコーダに依存構造解析を行うRNNを統合することで目的言語側の係り受け情報を考慮しながら出力文を生成している.Zhangら\cite{zhang-etal-2019-syntax}は,エンコーダ・デコーダ構造の係り受け解析モデルで原言語文をエンコードし,そのエンコード結果をNMTの単語埋め込み表現に結合させることで,原言語側の係り受け構造を考慮している.Wuらの手法やZhangらの手法はRNNに基づくNMTモデルだけでなく,Transformerに基づくNMTにも適用し,有効性を示している.彼らの研究ではTransformerNMTを用いているが,Transformerのモデル自体は改良されていない.Maら\cite{nsd_mt}は,Shenら\cite{nsd_parse}が句構造解析のために用いたNeuralSyntaxDistance(NSD)を係り受け構造に拡張し,係り受け構造に対するNSDを用いてTransformerNMTの翻訳精度を改善している.彼らの研究では,各単語の文における絶対的な位置情報に係り受け木に基づく位置情報を統合するPositionalEncodingを提案している.一方,本研究の提案モデルでは,Shawらの手法に基づき,係り受け木に基づく2単語間の相対的な位置情報をTransformerエンコーダのSelfAttentionで考慮している.また,Shawら\cite{relative}の他にも,TransformerNMTモデルの系列情報を改良することで翻訳精度を改善している研究がある.Chenら\cite{chen-etal-2019-neural}は,単語の並び替えの情報をPositionalEncodingに制約として与える機構をTransformerNMTモデルに追加し,翻訳性能を改善している.彼らの研究はTransformerNMTモデルで文中の単語間の関係を考慮する点で本研究と類似しているが,彼らの研究では単語間の関係として構文情報を利用していない.また,彼らの研究では,PositionalEncodingによる絶対的位置情報を改良しているのに対し,本研究ではSelfAttentionで考慮される相対的位置情報を改良している点で異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{従来のTransformerNMTモデル} 本節では,\ref{sect:tf}節で提案モデルのベースとなる最も基本的なTransformerNMTモデルについて述べ,\ref{sect:relative}節で文内における単語間の相対的な位置関係をSelfAttentionで捉えるTransformerNMTモデルについて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{TransformerNMT}\label{sect:tf}TransformerNMTは,文中の単語間の関連度を捉えるSelfAttention構造を持つエンコーダとデコーダから構成されるNMTモデルである.エンコーダでは,入力された原言語文から中間表現を獲得し,デコーダでは,獲得した中間表現から目的言語文を予測し,出力する.デコーダは,文頭の単語から順に逐次的に目的言語の単語を予測して目的言語文を生成する.具体的には,最初に目的言語文の文頭単語を予測し,続いて,予測した文頭単語をデコーダに入力して2単語目を予測する.続いて,予測した文頭から2単語目までを結合した解析途中の目的言語文をデコーダに入力(shiftedrightに目的言語文を入力)して3単語目を予測する,といった処理を繰り返すことで目的言語文の予測を行う.TransformerNMTの概要図を図\ref{fig:tf}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia6f1.eps}\end{center}\caption{TransformerNMTモデルの概要図}\label{fig:tf}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%TransformerNMTは,エンコーダレイヤとデコーダレイヤがそれぞれ複数層スタックされたエンコーダ・デコーダ構造を持つ.エンコーダとデコーダでは,まず,埋込み層で入力単語列(エンコーダ側は原言語文の単語列,デコーダ側は目的言語文の単語列)を埋込み表現を表す行列に変換する.その後,PositionalEncodingにより単語の系列情報を付与する.具体的には,入力単語列の埋込み表現行列に対して,各単語の文における絶対的な位置情報をエンコードした行列PEを加える.PEの各成分は異なる周波数のsin,cos関数を用いて次式により算出したものである.\begin{align}PE(pos,2i)&=\sin({pos/10000^{2i/d_{model}}})\\PE(pos,2i+1)&=\cos({pos/10000^{2i/d_{model}}})\end{align}ここで,$d_{model}$は入力単語の埋込み次元,$pos$は単語の位置,$i$は各成分の次元を表す.単語埋込み表現行列にPEを加えたものが,第1層目のエンコーダレイヤやデコーダレイヤの入力となる.エンコーダレイヤは,下位のサブレイヤから順に,原言語文中の単語間の関連度を捉えるSelfAttention,位置ごとのフィードフォーワードネットワーク(FeedForwardNetwork;FFN)の2つのサブレイヤで構成されている.デコーダレイヤは,下位のサブレイヤから順に,目的言語文中の単語間の関連度を捉えるマスキング付きSelfAttention,原言語文の単語と目的言語文の単語間の関連度を捉えるAttention(Source-TargetAttention),位置ごとのFFNの3つのサブレイヤで構成されている.各サブレイヤ間では,残差接続\cite{resnet}を行った後にLayerNormalization\cite{layer_norm}が適用される.LayerNormalizationを適用する関数を$LayerNorm$,下位のサブレイヤからの出力を$\bm{x}$,現在のサブレイヤの処理を行う関数を$SubLayer$とすると,$LayerNorm(\bm{x}+SubLayer(\bm{x}))$が現在のサブレイヤの出力となる.SelfAttentionとSource-TargetAttentionはMulti-HeadAttentionを用いて実現される.Multi-HeadAttentionでは,まず,3つの入力ベクトル$\bm{q},\bm{k},\bm{v}\footnote{本稿では特に断りがない限り,Transformerの原論文\cite{tf}に倣い,ベクトルを行ベクトルとして扱う.}\in\mathbb{R}^{1\timesd_{model}}$を重み行列$W_i^Q,W_i^K,W_i^V\in\mathbb{R}^{d_{model}\timesd_z}(i=1,\ldots,h)$により,$d_{model}$次元から$d_z$次元に線形写像した後,$h$個の内積Attentionを計算する.ここで,$d_{model}$は元々の入力ベクトルの埋込み次元であり,$d_z=d_{model}/h$である.また,それぞれの内積Attentionをヘッド($Head_{i}~(i=1,\ldots,h)$)と呼ぶ.\begin{align}Head_i=Attention(\bm{q'},\bm{k'},\bm{v'})\\Attention(\bm{q'},\bm{k'},\bm{v'})=softmax\left(\frac{\bm{q'}\bm{k'}^T}{\sqrt{d_z}}\right)\bm{v'}\\\bm{q'}=\bm{q}W_i^Q,\bm{k'}=\bm{k}W_i^K,\bm{v'}=\bm{v}W_i^V\label{eq:attention}\end{align}その後,各ヘッドを連結した後,重み行列$W^o\in\mathbb{R}^{d_{model}\timesd_{model}}$で線形写像する機構がMulti-HeadAttentionである.\begin{equation}MultiHead(\bm{q},\bm{k},\bm{v})=Concat(Head_1,\ldots,Head_h)W^O\label{eq:multi_head}\end{equation}エンコーダのSelfAttentionでは,式(\ref{eq:multi_head})の$\bm{q},\bm{k},\bm{v}$にエンコーダの内部状態系列$\bm{x}_1,\ldots,\bm{x}_n$を用いる.各ヘッドは,ヘッドを構成する重み行列を$W^Q,W^K,W^V$としたとき,以下の荷重和を計算する.\begin{equation}\label{atten_out}\bm{z}_i=\sum_{j=1}^{n}\alpha_{ij}{\bm{x}_jW^V}\end{equation}ここで,$\bm{z}_1,\ldots,\bm{z}_n$がSelfAttentionの出力系列である.重み係数$\alpha_{ij}$はソフトマックス関数を用いて以下の通り計算される.\begin{equation}\alpha_{ij}=\frac{\exp{(\bm{e}_{ij})}}{\sum_{k=1}^{n}\exp{(\bm{e}_{ik})}}\label{eq:atten_weight}\end{equation}また,$\bm{e}_{ij}$は以下の通り計算される.\begin{equation}\label{atten_dot}\bm{e}_{ij}=\frac{(\bm{x}_iW^Q)(\bm{x}_jW^K)^T}{\sqrt{d_z}}\end{equation}ここで,$d_z$は$\bm{z}_i$の次元数である.デコーダのSelfAttentionでは,式(\ref{eq:multi_head})の$\bm{q},\bm{k},\bm{v}$にデコーダの内部状態系列を用いる.ただし,推論時には,予測する単語より後で生成される単語を知ることはできない.つまり,前方のデコーダ系列の内部状態のみを用いることに注意されたい.また,学習時においても,推論時の挙動と整合性をとるために,予測する単語より後方に位置する単語の間の関連度は考慮しないようにマスキングしたマスキング付きSelfAttentionを用いる.具体的には,マスキング付きSelfAttentionでは式(\ref{atten_dot})を以下のように変更する.\begin{equation}\bm{e}_{ij}=\left\{\begin{array}{cc}\frac{(\bm{x}_iW^Q)(\bm{x}_jW^K)^T}{\sqrt{d_z}}&(i\gej)\\-\infty&(otherwise)\end{array}\right.\label{eq:masked_atten_dot}\end{equation}式(\ref{eq:masked_atten_dot})のように変更することで,$\alpha_{ij}$は以下のようになり,後方に位置する単語との関連度を表す重み係数$\alpha_{ij}~(i<j)$は$0$となる.\begin{equation}\alpha_{ij}=\left\{\begin{array}{cc}\frac{\exp{(\bm{e}_{ij})}}{\sum_{k=1}^{n}\exp{(\bm{e}_{ik})}}&(i\gej)\\0&(otherwise)\end{array}\right.\end{equation}デコーダのSource-TargetAttentionでは,$\bm{q}$にデコーダの内部状態,$\bm{k}$と$\bm{v}$にはエンコーダの内部状態を用いることで,原言語文の単語と目的言語文の単語との関連度を計算する.エンコーダレイヤ,デコーダレイヤ内の各FFNは入力$\bm{x}$に対して,以下の計算を行う.\begin{equation}FFN(\bm{x})=max(0,\bm{x}W_1+\bm{b}_1)W_2+\bm{b}_2\end{equation}ここで,$W_1\in\mathbb{R}^{d_{model}\timesd_{ff}},W_2\in\mathbb{R}^{d_{ff}\timesd_{model}}$は重み行列,$d_{ff}$はFNNの中間層の次元数,$\bm{b}_1,\bm{b}_2$はバイアス項である.デコーダでは,最終のデコーダレイヤの出力($\bm{h}_1,\ldots,\bm{h}_n$)を重み行列$W^{out}\in\mathbb{R}^{d_{model}\timesd_{out}}$により線形変換し,その後ソフトマックス関数を施すことによって,目的言語の各単語の生成確率分布を得る.ここで,$d_{out}$は目的言語の語彙サイズである.つまり,出力単語$y_i$の生成確率分布は以下の通りである.\begin{align}p(y_i)&=softmax(\bm{h_i}W^{out})\label{eq:tf_out}\\softmax(\bm{o})&=\frac{\exp{(o_k)}}{\sum_{k=1}^{d_{out}}\exp{(o_k)}}\end{align}目的言語文$y_1,\ldots,y_m$は,各単語の生成確率分布に基づき,例えばgreedyアルゴリズムやビーム探索等により生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文内の相対的位置表現を用いたTransformerNMT}\label{sect:relative}本節では,2単語間の文における相対的な位置関係をエンコーダおよびデコーダ内のSelfAttentionで捉えるTransformerNMTモデル\cite{relative}を説明する.Shawらのモデルでは,入力文中の単語$w_{i}$と単語$w_{j}$間の相対的位置関係をベクトル$\bm{a}_{ij}^V,\bm{a}_{ij}^K\in\mathbb{R}^{d_z}$で表現し,サブレイヤの出力に単語間の相対的位置情報を付加して次の層への入力とする.具体的には,式(\ref{atten_out})の代わりに次式を用いる.\begin{equation}\label{rel_out}\bm{z}_i=\sum_{j=1}^{n}\alpha_{ij}(\bm{x}_jW^V+\bm{a}_{ij}^V)\end{equation}また,式(\ref{atten_dot})の代わりに次式を用いることで,SelfAttention計算過程の$\bm{e}_{ij}$算出時にも単語間の相対的位置情報を考慮する.\begin{equation}\label{rel_dot}\bm{e}_{ij}=\frac{\bm{x}_iW^Q(\bm{x}_jW^K+\bm{a}_{ij}^K)^T}{\sqrt{d_z}}\end{equation}ここでShawら\cite{relative}は,単語間が一定距離以上離れると離れ具合の影響は少なくなると仮定し,相対的位置の距離の最大値を定数$k$と定め,それより離れた相対的距離は最大値$k$とした.また,文中のある単語から後ろを正の方向,前を負の方向と考え,二単語間の相対的位置関係は,以下の通り,$2k+1$個のユニークなラベル($-k,-k+1,\ldots,0,\ldots,k-1,k$)で捉える.\begin{align}\bm{a}_{ij}^K&=\bm{w}_{clip(j-i,k)}^K\\\bm{a}_{ij}^V&=\bm{w}_{clip(j-i,k)}^V\\clip(x,k)&=max(-k,min(k,x))\end{align}ここで,各相対的位置ラベルの埋込み表現は,$\bm{w}^K=(\bm{w}_{-k}^K,\ldots,\bm{w}_{k}^K)$と$\bm{w}^V=(\bm{w}_{-k}^V,\ldots,\bm{w}_{k}^V)$($\bm{w}_{k'}^K,\bm{w}_{k'}^V\in\mathbb{R}^{d_z}$,$-k\leqk'\leqk$)であり,学習されるパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{係り受け構造に基づく相対的位置表現を用いたTransformerNMT} \label{sect:proposed}本節では,原言語文の係り受け木に対する2単語間の相対的位置情報を考慮するTransformerNMTモデルを提案する.まず,原言語文の係り受け木に対する2単語間の距離を定義し,その後,Shawらの手法に基づいて,係り受け木に基づく距離をTransformerエンコーダ内のSelfAttentionでエンコードする手法を述べる.提案モデルでは,係り受け木に対する2単語間の距離を,係り受け木中の2単語間の相対的な深さとして定義する.原言語文$w_1,\ldots,w_n$に対する係り受け木において,単語$w_i$に対応するノードを$n_i$,単語$w_j$に対応するノードを$n_j$としたとき,$n_i$と$n_j$の相対的深さ$dist_{ij}$を以下のように定義する.\begin{equation}\label{eq:rel_depth}dist_{ij}=depth(n_{j})-depth(n_{i})\end{equation}図\ref{fig:dep_tree}は``Myfatherboughtaredcar.''に対する係り受け木を示したものである.例えば,図\ref{fig:dep_tree}において,``My''($=w_1$)の``bought''($=w_3$)に対する相対的深さ$dist_{1,3}$は,$-2~(=0-2)$である.図\ref{fig:dep_tree}の係り受け木における2単語間の距離を表\ref{tab:dep_pos}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2andtable1\begin{figure}[b]\begin{tabular}{cc}\begin{minipage}{190pt}\begin{center}\includegraphics{27-2ia6f2.eps}\end{center}\figcaption{係り受け木の例}\label{fig:dep_tree}\end{minipage}\begin{minipage}{230pt}\input{06table01.tex}\end{minipage}\end{tabular}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案モデルでは,係り受け木に対するノード$n_i$と$n_j$の相対的位置をベクトル$b_{ij}^V,b_{ij}^K\in\mathbb{R}^{d_z}$によって表現し,Shawらの手法\cite{relative}同様,$\bm{z}_i$や$\bm{e}_i$算出時に係り受け木に基づく相対的位置情報を考慮する.具体的には,式(\ref{rel_out})や式(\ref{rel_dot})の代わりに以下の式を用いる.\begin{align}\label{eq:dep_out}\bm{z}_i&=\sum_{j=1}^{n}\alpha_{ij}{(\bm{x}_jW^V+\bm{b}_{ij}^V)}\\\label{dep_dot}\bm{e}_{ij}&=\frac{\bm{x}_iW^Q(\bm{x}_jW^K+\bm{b}_{ij}^K)^T}{\sqrt{d_z}}\end{align}\ref{sect:relative}節同様,係り受け木における相対的位置関係においても一定以上距離が大きいと離れ具合の影響は少なくなると仮定し,係り受け木における相対的距離の最大値を定数$l$と定め,それより離れた相対的距離は最大値$l$とする.したがって,原言語文中の単語$w_{i}$と単語$w_{j}$に対して,係り受け木に基づく相対的位置関係を埋め込んだベクトル$\bm{b}_{ij}^V,\bm{b}_{ij}^K$は次式で表現できる.\begin{align}\bm{b}_{ij}^K&=\bm{w}_{clip(dist_{ij},l)}^K,\\\bm{b}_{ij}^V&=\bm{w}_{clip(dist_{ij},l)}^V.\end{align}以上のように,提案モデルでは,エンコーダのSelfAttentionで,文内における相対的位置表現の代わりに,原言語文の係り受け構造に対する相対的位置表現を考慮することができる.以降,この提案モデルを$\mathit{Transformer}_\mathit{dep}$と記載する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sect:exp_setting}本実験では,科学技術論文の概要から作成されたASPEC(AsianScientificPaperExcerpt\mbox{Corpus)}\cite{aspec}データを用いて英日および日英翻訳を行った.英語文はMoses\cite{moses}を用いて単語分割をし,StanfordCoreNLP\cite{corenlp}を用いて係り受け解析を行った.日本語文はKyTea\cite{kytea}を用いて単語分割をし,EDA\footnote{\url{http://www.ar.media.kyoto-u.ac.jp/tool/EDA/}}を用いて係り受け解析を行った.各翻訳モデルは,学習データ(train-1.txt,train-2.txt)から抽出した上位150万文対のうち,英語文,日本語文ともに文長100単語以下の1,498,909対訳文対を使用して学習した.また学習データに出現した単語のうち,日本語側は出現頻度が7回以上,英語側は出現頻度が10回以上の単語を語彙として用い,それ以外の単語は語彙に登録されていない未知語を表すUNKタグに置き換えた.検証データとして1,790文対(dev.txt),テストデータとして1,812文対(test.txt)を用いた.実験では,\ref{sect:proposed}節で提案した提案モデル($\mathit{Transformer}_\mathit{dep}$)を,従来の絶対的位置表現を考慮するTransformerNMT\cite{tf}($\mathit{Transformer}_\mathit{abs}$)及び絶対的位置表現に加え文中の相対的位置表現を考慮するTransformerNMT\cite{relative}($\mathit{Transformer}_\mathit{rel}$)と比較した.評価対象全てのモデルのハイパーパラメータはVaswaniら\cite{tf}の設定に倣い,エンコーダ及びデコーダレイヤのスタック数を6,ヘッド数を8,埋込み次元及び隠れ層の次元を512次元とした.optimizerはAdamを用い,$\beta_1=0.9,\beta_2=0.98,\epsilon=10^{-9}$と設定した.学習率の更新スケジューリングはVaswaniらの方法\cite{tf}と同様にした.ミニバッチサイズは256,エポック数は30とし,検証データに対して最も精度が良かったエポックのモデルをテストデータに適用して翻訳精度を評価した.また,本実験では,greedyアルゴリズムにより目的言語文を生成した.$\mathit{Transformer}_\mathit{rel}$と$\mathit{Transformer}_\mathit{dep}$においては,文内における相対的位置と係り受け構造に対する相対的位置の最大距離は$k=2,~l=2$とした\footnote{Shawら\cite{relative}により,$k\geq2$ではBLEUスコアにほとんど変化がないことが示されているため,$k=2$を選択した.また,$l$の値は検証データを用いてチューニングした.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}評価結果を表\ref{tab:result}に示す.なお,翻訳性能の評価指標はBLEUを用いた.また,翻訳精度の差の有意差検定を,有意差水準$5~\%$でブートストラップによる検定手法\cite{koehn-2004-statistical}により行った.表\ref{tab:result}の「$*$」および「$\dagger$」は,それぞれ,提案モデル$\mathit{Transformer}_\mathit{dep}$と従来手法である$\mathit{Transformer}_\mathit{abs}$および$\mathit{Transformer}_\mathit{rel}$との翻訳精度の差が統計的に有意であることを示している.表\ref{tab:result}より,英日翻訳では,提案モデル$\mathit{Transformer}_\mathit{dep}$は$\mathit{Transformer}_\mathit{abs}$と比較し0.60ポイント上回り,$\mathit{Transformer}_\mathit{rel}$と比較して0.09ポイント上回った.一方で,日英翻訳では,$\mathit{Transformer}_\mathit{dep}$は$\mathit{Transformer}_\mathit{abs}$と比較して0.37ポイント上回り,$\mathit{Transformer}_\mathit{rel}$と比較して0.42ポイント上回った.これらの結果より,日英及び英日翻訳タスクにおいて,原言語文の係り受け構造を相対的位置表現で考慮することでTransformerモデルの翻訳精度を改善できることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{実験結果}\label{tab:result}\input{06table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{テストデータに対する各モデルの翻訳文とその比較}\label{tab:examples}\input{06table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{27-2ia6f3.eps}%%%%\label{fig:ref_tree}%%%%\label{fig:mis_tree}\end{center}\caption{表\ref{tab:examples}の入力文中の「分けて心電図を比較した」に対する係り受け木}\label{fig:input_tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:examples}に各モデルの日英翻訳例を示す.$\mathit{Transformer}_\mathit{abs}$では,原言語文中の「分けて」と「心電図を比較した」の訳出に成功しているが,「分けて」を主動詞にした文と「比較した」を主動詞にした文の並列構造(``and''で接続した構造)の翻訳になっている.$\mathit{Transformer}_\mathit{rel}$では,原言語文中の「心電図を比較した」の訳出に成功しているが,「分けて」の訳出に失敗している.$\mathit{Transformer}_\mathit{dep}$(表\ref{tab:examples}の5行目)では,原言語文中の「分けて」と「心電図を比較した」の両方の訳出に成功し,その翻訳は``comparedbydividing''と正しい翻訳になっており,参照訳と一致している.%%%%図\ref{fig:ref_tree}に示した通り,図\ref{fig:input_tree}(a)に示した通り,$\mathit{Transformer}_\mathit{dep}$では,「分け」が「て」に,「て」が「比較」に係っているという係り受け関係の情報が利用できたため,``divide''が``compare''を修飾する正しい翻訳ができたのではないかと考えられる.また,人工的に誤りを加えた係り受け木を$\mathit{Transformer}_\mathit{dep}$に与えた場合の翻訳結果を表\ref{tab:examples}の6行目に示す.具体的には,入力文に対するEDAの係り受け解析結果において「分けて心電図を比較した」に対する係り受け構造%%%%(図\ref{fig:ref_tree})(図\ref{fig:input_tree}(a))の「て」の係り先を「比較」から「。」に変え,誤った係り受け木を作成した%%%%(図\ref{fig:mis_tree}).(図\ref{fig:input_tree}(b)).その結果,誤った係り受け木を与えた場合,「分けて」の訳出には成功したが,「心電図を比較した」の訳出に失敗した.以上の結果から,誤った係り受け木を用いると提案手法の翻訳性能が低下すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{考察}Shawら\cite{relative}は,\ref{sect:relative}節で説明したモデルにおいて,相対的位置関係を表現したベクトル$\bm{a}_{ij}^V,\bm{a}_{ij}^K$のそれぞれの有効性を検証している.その結果,$\bm{a}_{ij}^V$を取り除いた場合と,$\bm{a}_{ij}^K$と$\bm{a}_{ij}^V$の両方を用いた場合は同等の翻訳精度だが,$\bm{a}_{ij}^K$を除いた場合は翻訳精度が下がることが示されている.つまり,$\bm{a}_{ij}^K$は有効だが$\bm{a}_{ij}^V$の効果が薄いことが示されている.そこで本節では,提案モデルにおいて導入した,係り受け構造に対する相対的位置関係を表現したベクトル$\bm{b}_{ij}^V$と$\bm{b}_{ij}^K$のそれぞれの有効性を確認するために,各ベクトルのみを用いた$\mathit{Transformer}_\mathit{dep}$のASPEC英日および日英翻訳性能を調査する.つまり,式(\ref{dep_dot})を式(\ref{atten_dot})に変更したモデル「$\mathit{Transformer}_\mathit{dep}$($\bm{b}_{ij}^V$のみ)」と式(\ref{eq:dep_out})を式(\ref{atten_out})に変更したモデル「$\mathit{Transformer}_\mathit{dep}$($\bm{b}_{ij}^K$のみ)」および$\mathit{Transformer}_\mathit{abs}$の翻訳精度を比較した.なお,切除実験の設定は\ref{sect:exp_setting}節と同様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\caption{係り受け構造に対する相対的位置表現$\bm{b}_{ij}^V,\bm{b}_{ij}^K$の切除実験結果}\label{tab:without_kv}\input{06table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%結果を表\ref{tab:without_kv}に示す.表\ref{tab:without_kv}より,英日翻訳では,$\bm{b}_{ij}^V$のみを使った$\mathit{Transformer}_\mathit{dep}$は$\bm{b}_{ij}^K$と$\bm{b}_{ij}^V$の両方を用いた$\mathit{Transformer}_\mathit{dep}$に対して0.09ポイント上回った.$\bm{b}_{ij}^K$のみを使った$\mathit{Transformer}_\mathit{dep}$は$\bm{b}_{ij}^K$と$\bm{b}_{ij}^V$の両方を用いた$\mathit{Transformer}_\mathit{dep}$に対して0.17ポイント下回った.また,$\bm{b}_{ij}^K$と$\bm{b}_{ij}^V$のどちらも用いないモデルは$\bm{b}_{ij}^K$と$\bm{b}_{ij}^V$の両方を用いた$\mathit{Transformer}_\mathit{dep}$に対して0.60ポイント下回った.一方で,日英翻訳では,$\bm{b}_{ij}^V$のみを使った$\mathit{Transformer}_\mathit{dep}$は$\bm{b}_{ij}^K$と$\bm{b}_{ij}^V$の両方を用いた$\mathit{Transformer}_\mathit{dep}$に対して0.18ポイント下回った.$\bm{b}_{ij}^K$のみを使った$\mathit{Transformer}_\mathit{dep}$は$\bm{b}_{ij}^K$と$\bm{b}_{ij}^V$の両方を用いた$\mathit{Transformer}_\mathit{dep}$に対して0.02ポイント上回った.また,$\bm{b}_{ij}^K$と$\bm{b}_{ij}^V$のどちらも用いないモデルは$\bm{b}_{ij}^K$と$\bm{b}_{ij}^V$の両方を用いた$\mathit{Transformer}_\mathit{dep}$に対して0.37ポイント下回った.以上の結果から,言語方向を問わず,係り受け構造に対する相対的位置関係を表現したベクトル$\bm{b}_{ij}^V$と$\bm{b}_{ij}^K$のそれぞれが翻訳精度を向上に貢献することが分かった.また,$\bm{b}_{ij}^K,\bm{b}_{ij}^V$の両方を用いても,どちらかのみを用いる場合と同等の精度となることが分かった.一方で,$\bm{b}_{ij}^K,\bm{b}_{ij}^V$のどちらが有効かについては,言語方向によって異なることが分かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,Transformerにおいて原言語文の係り受け構造を活用するため,原言語文の係り受け木における単語間の相対的位置関係をTransformerエンコーダのSelfAttention中の相対的位置表現で考慮する手法を提案した.ASPEC\cite{aspec}データを用いた評価実験を通じて,日英及び英日翻訳タスクにおいて,原言語文の係り受け構造に対する相対的位置表現を考慮することでTransformerNMTモデルの精度を改善できることを確認した.特に,日英翻訳タスクにおいては0.37ポイントBLEUスコアが改善した.提案手法では,係り受け解析結果に基づき相対的深さを算出しているため,誤った係り受け木から算出した相対的深さは単語間の位置関係の学習に悪影響を及ぼし,翻訳性能を低下させる原因となり得る.したがって,提案手法の精度をさらに向上させるためには構文解析精度の向上も必要だと考えられる.一方で,本研究の提案モデルでは目的言語側の係り受け構造を考慮していないが,目的言語側の係り受け構造を考慮できるモデルに改良することで翻訳性能をさらに改善できる可能性がある.例えば,Wuら\cite{dep2dep}が用いていた依存構造解析を行うRNNをTransformerデコーダに統合することにより,デコーダ内のSelfAttentionで目的言語側の係り受け木における単語間の相対的位置関係を考慮するモデルに改良できる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文は国際会議InternationalConferenceRecentAdvancesinNaturalLanguageProcessing2019(RANLP2019)で発表した論文\cite{omote-ranlp-2019}に基づいて日本語で書き直し,説明や評価を追加したものである.本研究成果は,国立研究開発法人情報通信研究機構の委託研究により得られたものである.また,本研究の一部はJSPS科研費18K18110の助成を受けたものである.ここに謝意を表する.また,本稿の英文校正を担当していただいたエナゴ(www.enago.jp)に謝意を表する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{表悠太郎}{%2019年愛媛大学工学部情報工学科卒業.2019年より同大学院理工学研究科修士課程に在学.}\bioauthor{田村晃裕}{%2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教,2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{二宮崇}{%2001年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.東京大学博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\end{biography}\biodate\end{document}
V15N05-07
\section{はじめに} \label{sec:introduction}近年,国際化の流れの中で,多くの言語を頻繁に切り替えて入力することが多くなってきている.例えば,自然言語処理の分野では,``namedentity''や``chunking''といった英語の表現が,そのままの形で日本語文中に出現することも多い.このように同一{\text}内に複数の言語が混在する{\text}を,本論文では「多言語{\text}」と呼ぶ.言語入力には,ユーザーが入力したキー列を,その言語での文字列に変換するために,{\eminputmethodengine}(IME)と呼ばれるソフトウェアが欠かせない.例えば,日本語のローマ字入力のIMEは,ユーザが``tagengo''というキー列を入力した時,これを``多言語''という文字列に変換する役割を担う.IMEは,日本語や中国語など,漢字への変換に限定されたものとして捉えられることも多いが,本論文では,以後,単純に,キー列から文字列への変換を担うソフトウェアという意味で用いる.従来は,入力する言語を切り替えるたびに,このIMEをユーザが手動で切り替えていた.しかし,これでは,言語を切り替える際のユーザの負担が大きく,特に言語を切り替え忘れた時に打ち直しの問題が生じていた.そこで,本論文では,{\tes}の切り替えを自動化してユーザーの負担を軽減する,{\name}という多言語入力システムを提案する\cite{typeanyijcnlp}.このシステムは,ユーザーのキー入力と{\tes}を仲介し,ユーザーが入力しているキー列から言語を自動的に判別して,{\tes}を切り替える.これによって,{\tes}の切り替えによるユーザーの負担が,大幅に減少すると見込まれる. \section{関連研究} 多言語{\text}を入力する際に必要なキー入力は,以下のように分類できる.この章では,関連研究をこの分類に沿って述べる.\begin{enumerate}\item本文の文字列に対応する入力\item{\tes}に対する操作\item{\tes}を切り替えるための操作\end{enumerate}(1)は,本文の文字列に対応する入力である.例えば,本文が``多言語''であれば,日本語のローマ字入力では,``tagengo''がこれに当たる.1つの言語に対応するIMEは,入力方式やキーボード配列の違いによって,複数存在する場合もある\footnote{文献によっては,1つの言語に1つのIMEを対応付け,入力方式やキーボード配列の違いを別の名称で呼ぶ場合もあるが,本論文では,入力方式やキーボード配列が違えば,IMEも異なるものとする.}.例えば,日本語には前述のローマ字入力の他に「かな入力」もある.日本語のかな入力のIMEでは,``多言語''に対応する(1)のキー列は``q:@yb@''であり,ローマ字入力の場合とは異なっている.日本語に限らず,英語でも,QwertyやDvorakといったキーボード配列の違いによって,複数の{\tes}がある.ただし,本論文は,入力方式やキーボード配列の違いについて論じることが目的ではないので,以後,各言語について標準的と思われる入力方式やキーボード配列を1つに定め,「日本語のIME」のように呼ぶものとする.(2)の操作は,仮名漢字変換ソフトウェアに対する変換候補選択などの操作に相当する.例えば,上記の``多言語''の例であれば,(1)だけでは,``多言語''のほかに``他言語''という選択肢も存在する.このとき,両者から``多言語''を選び出すための入力が,(2)である.予測入力を行う場合の,キー入力から候補を予測した変換候補を選択する操作も,(2)に相当する.(1)と(2)は,単言語で構成される文書を入力する際にも必要となるので,ユーザーインターフェースや自然言語処理の分野で詳細な研究がなされており,\cite{entry}にまとめられている.(3)の操作は,{\tes}を切り替える操作である.本論文では,以後この操作を「IME切り替え操作」と呼ぶ.例えば,英語と日本語を切り替える際の``Alt+半角''などのキー操作が(3)に相当する.IME切り替え操作は,主に,多言語{\text}の入力時に言語を切り替える際に発生する.\secref{sec:introduction}で述べたように,このIME切り替え操作を,キー列からユーザーが入力している言語を判別することで,自動化するのが本論文の主旨である.(3)の操作量を直接扱った既存研究は少ない.著者らが調査した範囲では,論文が公開されているものとしては,\cite{pinyininput}が該当するのみである.この論文では,ピンイン\footnote{ローマ字による中国語の発音表記のこと.中国語入力では,ピンインを入力して漢字に変換するピンイン漢字変換が一般的である.}と英語が混じったキー列を正しく変換するタスクが述べられている.しかし,この機能はあくまで中国語入力の一環として述べられているにすぎず,本論文で扱うように,言語の種類や数を変更することは考慮されていない.論文の形でなく,フリーソフトウェアでは,{\emPUNTOswitcher}\footnote{http://punto.ru/}というロシア語圏のソフトウェアが,ロシア語と英語の間の切り替えの目的で2001年より開発されている.当該ウェブサイトの情報によれば,このソフトウェアは150万件のダウンロードがあり,一定の成功を収めていると思われる.また,{\emKeyboardNinja}\footnote{http://www.intelife.net/ninja/}というソフトウェアも作成されている.KeyboardNinjaは,ロシア語,英語,フランス語,ドイツ語,イタリア語,スペイン語,ウクライナ語の間での切り替えを行うソフトウェアである.これらのソフトウェアの用いているアルゴリズムや性能評価については,著者らの知る範囲では公開されていない.一方,本研究は,{\text}の言語判別問題としてとらえることも可能である.この{\text}の言語判別問題は,次のように分類することが可能である.\begin{enumerate}\itemある単言語の{\text}が与えられ,その{\text}の言語を判別する問題\item多言語の{\text}が与えられ,その中の部分が何語であるかを判別する問題\end{enumerate}(1)の問題については,OCRを多言語に対応させることを主な目的とした,\cite{cavnar}の研究が基礎的である.この論文では,ニュースグループへの投稿文書という長いテキストを対象に,文字ベースのN-gramの頻度を用いて文書の言語を判別している.また,\cite{sibun}では,やはりECIコーパスという長いテキストを対象に,KL情報量を用いて文書の言語を判別している.どちらの論文でも,言語によって判別精度に差があることと,平均して90\%を超える高い精度が達成できることを報告している.一方,本研究との関連がより深いものは,(2)の問題である.(2)は,(1)を拡張した問題になっているうえ,多くの場合(1)より短い部分から言語を判別しなければならないため,(1)より難しい.以下,代表的な(2)に関する研究を2つ挙げる.\cite{indian}は,小さいサンプルを対象とした言語判別問題に機械学習を用い,高い判別精度で解けることを報告している.しかし,この研究は,一般の文書からのサンプルを対象に2言語の間の判別を行うことを目的とし,インドで使用されている言語や文字に特化した素性を用いて判別精度の向上を報告するものである.本研究は,入力中のキー列を対象に3言語以上の間の判別も扱い,言語の種類に特に制限は設けていない点で,目的も手法も異なる.\cite{alex2005}は,ドイツ語中に混在する英語を判別する方法について論じている.この論文では,{\text}中に混在する他の言語を発見するタスクを,{\emforeigninclusiondetection}(FID)と呼び,音声合成(Texttospeech)の分野で研究されてきたことを紹介している\cite{tts2003},\cite{tts2005}.近年Alexは,FIDを構文解析の前処理として使用することで,構文解析の精度が向上させられることを示している\cite{alex2007}.このFIDのように,他の処理の前処理として言語判別を使用する場合は,高い精度が求められるため,対象言語について大規模なコーパスが入手可能であることが前提となる.一方,本論文の目的では,対象言語の大規模なコーパスが手に入るとは限らないため,FIDの手法をそのまま適用することは困難である.以上の関連研究を踏まえて,次の\secref{sec:premodel}で,設計方針を立てる. \section{準備と設計方針} \label{sec:premodel}{\name}に必要な機能を特定するために,\figref{fig:toyota}に,日本語,英語,中国語の3言語による,多言語{\text}の例を挙げて説明する.中国語の下には,ピンインを表記した.既存の手法では,\figref{fig:toyota}の文章を入力するためには,日本語から英語への切り替えと戻す操作で2回,日本語から中国語への切り替えと戻す操作が2対あるので4回,合計6回のIME切り替え操作が必要となる.このようなIME切り替え操作は,文字種が違う言語間だけでなく,同じアルファベットを使う英語やフランス語の間でも,アクセント記号付きの文字を入力する場合に必要になる.\begin{figure}[t]\begin{center}\includegraphics{15-5ia7f1.eps}\caption{日本語,英語,中国語による多言語{\text}の例}\label{fig:toyota}\end{center}\end{figure}一方,{\name}では,キー列から言語を判別し,IMEを自動的に切り替える.例えば\figref{fig:toyota}では,``bi-ruha,''を日本語,``beer''を英語,``pijiu''を中国語といったように言語を判別してユーザーに提示する.言語判別が間違っていれば,ユーザーが必要に応じて言語を訂正する.このことから,大きく分けて次の2つの機能が必要であることがわかる.\begin{enumerate}\itemキー列から言語を判別する機能\item言語判別の結果をユーザーに提示し,訂正情報を受け取とるユーザーインターフェース\end{enumerate}(1)については\secref{sec:model}で,(2)については\secref{sec:design}で扱う.一般に,{\text}を入力するときには,多くの言語で,{\text}を区切るための{\delim}を仮定することが可能である.例えば,スペースを用いた分かち書きが,その典型的な例として挙げられ\footnote{スペースを用いた分かち書きは,英語やフランス語などアルファベットを用いる言語に限らず,字種の異なるアラビア語,ヘブライ語,韓国語などでも行われている一般的な習慣である.},この場合には,スペースキーを{\delim}として採用することが可能である.日本語や中国語では,通常,分かち書きは行わないが,漢字に変換する際にスペースキーを打鍵しているので,やはりスペースキーを{\delim}として使用することが可能である.そこで,{\name}では,{\delim}から次の{\delim}までに挟まれるキー列を「トークン」と定義する.トークンを単位として入力を行い,トークンの属すべき言語\footnote{厳密には,ユーザーが入力しようとしているキーボード配列(Qwerty,Dvorak,Azertyなど)も同時に判別している.}を判別する.例えば,\figref{fig:toyota}におけるトークンとしては,``bi-ruha,'',``beer'',``pijiu''が挙げられる.トークンは単語とは限らず,連文節変換を用いる場合などは,単語よりも長い単位となる場合もある.トークンによっては,そもそも,その属すべき言語が曖昧である場合がある.例えば,``sushi''というトークンは,英語としての``sushi''にも日本語の``寿司''に対する入力にもとらえることが可能である.借用語の多くにこのような曖昧性がある.また,ヨーロッパの多くの言語で使用されるアクセント記号はしばしば省かれることがあり,この場合にも曖昧性が生じる場合がある.例えば,``fur''は通常は英単語であるが,``$\rm{f\ddot{u}r}$''というドイツ語のウムラウト記号が省かれた形としても,使用されることがあり,英語とドイツ語の間で曖昧性が生じる.ただし,このような曖昧性は,実用上は必ずしも問題とならない場合もある.ユーザーは,例え言語判別に失敗していても,最終的に入力したトークンが正しい文字列に変換されていれば問題とは認識しないと考えられる.例えば,上記の後者の例である``fur''は,英語とドイツ語の間で曖昧性があるものの,どちらに判別されたとしても,最終的には``fur''に変換されるため,問題を生じない.一方,上記の前者の例である``sushi''では,英語と判別された場合は``sushi''と変換され,日本語と判別された場合は``寿司''などに変換されるため,ユーザーの観点からは問題を生じる.以上のように,この曖昧性が問題となるか否かを判定することは,個々の言語に対する具体的な知識を必要とするため難しい.そこで本論文では,\secref{sec:evaluation}で示すように,単純に言語判別の精度を用いて評価を行った.トークンの属すべき言語は,事前に用意する学習コーパスが多くなるほど明確に判別することが可能になるが,その分,{\name}が対応可能な言語は限られてくる.{\name}は入力システムであるため,多くの言語に対応可能であることが望ましいと考えた.そこで,より多くの言語に対応を優先する設計方針を立て,言語判別を\secref{sec:model}で述べるように設計した.また,その言語判別を用いるユーザーインターフェースを\secref{sec:design}で述べるように設計した. \section{言語判別} \label{sec:model}\subsection{言語判別モデル}言語判別の確率モデルには,隠れマルコフモデル(HMM)を用いた.隠れ状態を言語として,隠れている言語からトークンが記号列として観測されるとする.ここでの目的は,$\mathrm{P}(l_1^{m},t_1^{m})$を最大にするような$\hat{l}_1^m$を求めることである\footnote{ここで,$t_u^v$は,$v\gequ$のとき$v-u+1$個の要素からなる列$t_u^v=(t_u,t_{u+1},\dots,t_v)$を表し,$v<u$のとき空列$t^v_u=()$を表す.}.ただし,$l\inL$は言語集合$L$中の言語であり,$t$はトークンである.HMMでは,$\mathrm{P}(l_1^m,t_1^m)$を\eqref{eq:approx}のようにして最大化する.\begin{align}\hat{l}_1^m&=\argmax_{l_1^m\inL}\mathrm{P}(l_1^{m},t_1^m)\nonumber\\&=\argmax_{l_1^m\inL}\mathrm{P}(t_1^m|l_1^m)\mathrm{P}(l_1^m)\nonumber\\&\approx\argmax_{l_1^m\inL}\left(\prod_{i=1}^mP(t_i|l_i)\right)\left(\prod_{i=1}^mP(l_i|l_{i-k}^{i-1})\right)\label{eq:approx}\end{align}\eqref{eq:approx}では,第一項を$\mathrm{P}(t_1^m|l_1^m)\approx\prod_{i=1}^mP(t_i|l_i)$のように,また,第二項を$\mathrm{P}(l_i|l_1^{i-1})\approxP(l_i|l_{i-k}^{i-1})$のように,近似した.ここで,第一項は出力確率であり,第二項は遷移確率である.\subsection{出力確率の推定}\label{sec:output}出力確率$P(t_i|l_i)$は,ある1つの言語$l_i$からトークン$t_i$が出力される確率である.トークンを単語とみなせば,この確率は単純に言語$l_i$における単語の出現確率であり,その推定手法は自然言語処理の分野において,よく研究されている.$P(t_i|l_i)$の推定するには,言語$l_i$のコーパスが必要となる.十分に大規模な言語$l_i$のコーパスを用いれば,$P(t_i|l_i)$は,単純にコーパス中にトークン$t_i$が出現した頻度で近似することが可能である.しかし,この方法は,入力可能な言語を大規模なコーパスを入手することが可能な言語に限定してしまうため,\secref{sec:design}の最後で述べた,より多くの言語に対応するという方針に反する.そこで,本研究では,トークンを入力したキーの列と捉え,キー列に関するスムージングを行うことで,$P(t_i|l_i)$を計算する方法を採用した.まず,トークン$t_i$の長さを$|t_i|$とし,トークン$t_i$をキー列$c_1^{|t_i|}=(c_1,c_2,c_3,\dots,c_{|t_i|})$として捉える.すなわち,$t_i=c_1^{|t_i|}$とする.例えば,$t_i$=``pijiu''の場合,$|t_i|=5$で,$t_i=c_1^5=($`p',`i',`j',`o',`u'$)$となる.次に,この$c_1^{|t_i|}$について,最大$n_{max}$までの$n+1$-gram確率を計算することで,スムージングを行い,$P(t_i|l_i)$を次のように計算する.\begin{equation}P(t_i|l_i)=P(c_1^{|t_i|}|l_i)\approx\prod_{r=1}^{|t_i|}P(c_r|c_{r-n_{max}+1}^{r-1},l_i)\label{eq:decompose}\end{equation}このスムージングの手法としては,さまざまなものが提案されているが,本研究では,{\emPredictionbyPartialMatching}(PPM)という手法を採用した.このPPMは,データ圧縮の分野で最初に提案され,後に自然言語処理に応用された手法である\cite{textcomp},\cite{teahan00},\cite{nle06}.PPMは,データ圧縮の分野で提案されたため,学習を動的に行いながら判別を行うことが,可能なように設計されているという特徴がある.この特徴によって,ユーザーが誤判別を訂正した場合,瞬時にその情報を確率値にフィードバックして次の判別に利用することが可能となる.この点が,{\name}のような入力システムに適した特徴であると考えたので採用した.以下,PPMの詳細について説明する.PPMは,$c_1^{r-n_{max}}$までの頻度情報をもとに,現在の文脈$c_{r-n_{max}+1}^{r-1}$の次にキー$c_r$がくる確率$P(c_r|c_{r-n_{max}+1}^{r-1})$を推定する.\begin{equation}P(c_r|c_{r-n_{max}+1}^{r-1})=\sum_{n=-1}^{n_{max}-1}w_np_n(c_r)\label{eq:weights}\end{equation}ここで$p_n(c_r)$は,次のように,長さ$n$の文脈にキー$c_{r}$が続く$n+1$-gram確率を表す.$X_n$,$x_n$は,それぞれ,$c_1^{r-n-1}$中の$c_{r-n}^{r-1}$,$c_{r-n}^r$の頻度とする.\[p_n(c_r)=\frac{x_n}{X_n}\]\eqref{eq:weights}において,重み$w_n$は,基本的には,長い$n+1$-gram確率を重く,短い$n+1$-gramを軽く重みづけるのが望ましい.ただし,重みが偏りすぎることも精度を悪化させる.PPMでは,この重み$w_n$を,簡単な計算で適切に設定するために,エスケープ確率$e_n$という概念を導入して,次のように計算する.\begin{equation}\begin{split}e_{-1}&=0\\w_n&=(1-e_n)\prod_{n'=n+1}^{n_{cont}}e_{n'}\\(-1\len<n_{cont})\label{eq:ppm}\\w_{n_{cont}}&=(1-e_{n_{cont}})\end{split}\end{equation}ただし,$n_{cont}$は,$X_n\ne0$を満たす$n_{max}-1$以下で最大の$n$である.エスケープ確率$e_n$は,現在の文脈に一度も続かなかったキーに割り当てる確率を表す.すなわち,現在の長さ$n$の文脈$c_{r-n+1}^{r-1}$に一度も続かなかった新しいキー(これを「エスケープ」と呼ぶ)が,エスケープ確率$e_n$で現れると考える.反対に,現在の長さ$n$の文脈$c_{r-n+1}^{r-1}$に続いたことのあるキーは,エスケープ確率$e_n$を新しいキーに割り当てた分を減らし,単純な頻度に$1-e_n$倍をした確率で出現すると考える.このエスケープ確率をどのように定義するかによって,PPMは,PPMA,PPMB,PPMCのように分類される.その中でも,本研究では,基礎的かつ比較的性能が高いとされるPPMCを用いた\footnote{PPMは大規模圧縮においてこそ性能の差が問題となるが,入力応用上はどのPPMを用いても,大きな差にはつながらないとの報告もある\cite{nle06}.}\cite{textcomp}.PPMCでは,エスケープ確率を次のように計算する.ただし,$q_n$は,$c_1^{r-n-1}$中の,$c_{r-n}^{r-1}$のあとに続くキーの異なり数である.\begin{equation}e_n=\frac{q_n}{X_n+q_n}\label{eq:PPMC}\end{equation}\eqref{eq:PPMC}から,PPMCでは,次のキー$c_r$の確率$P(c_r|c_{r-n_{max}+1}^{r-1})$は,キー列の$n$-gramの頻度$X_n$と$n$-gramの後に続くキーの異なり数$q_n$が分かれば,推定することが可能であることがわかる.$n$-gramの頻度と$n$-gramの異なり数は単純な加算によって学習中に更新することが容易であるため,PPMCは動的に学習することに適している.\subsection{遷移確率の推定}\label{sec:trans}ここでは,\eqref{eq:approx}の第2項である,$k_{max}$-gramまでの,言語$k+1$-gramによる文脈を考慮した遷移確率$P(l_m|l_{m-k_{max}+1}^{m-1})$を推定する手法について述べる.この遷移確率は,大量の多言語{\text}から学習することが可能であるが,そのような大量の多言語{\text}は,通常,入手することが難しい.ユーザーが過去に確定した言語列$l_1^{m-1}$を正解とみなし,$l_1^{m-1}$から動的に遷移確率を推定することが可能であれば,この学習データの入手の問題を回避することが可能となる.この方法は,\secref{sec:output}と同様で,学習データが少量であることを,利用中のユーザーからの情報を動的に利用して補い,精度を向上させることが狙いである.したがって,遷移確率の推定方法には,\secref{sec:output}と同様,PPMを用いた.具体的には,\eqref{eq:weights}における$c_r$を$l_m$と読み替えることで,遷移確率$P(l_m|l_{m-k_{max}+1}^{m-1})$を分解して推定した.\secref{sec:output}で述べた出力確率の推定の場合との違いの一つは,遷移確率は,出力確率ほど出現位置の離れた要素に依存しない,すなわち,長距離依存性が小さいことである.これは,次のように考えれば直感的に理解することが可能である.たとえば,言語3-gramを考えた場合,英語,フランス語,日本語のトークンがこの順番で何回も出現する{\text}は,まれであると推測される.したがって,通常は,遷移確率の最大文脈長$k_{max}$を,出力確率の最大文脈長$n_{max}$より小さく取り,$k_{max}\len_{max}$としてよい.ただし,実用上は,これらの最大文脈長の値はある程度の大きさがあれば十分であり,これらの値を細かく調整する必要性は乏しい.その理由は,\eqref{eq:weights}のように,PPMでは文脈の長さごとに文脈の重要度$w_n$が自動的に決定されるためである.本研究では,特別な事情がない場合は$k_{max}=n_{max}=5$とした. \section{ユーザーインターフェース} \label{sec:design}ここでは,前節で述べた言語を判別する手法を,ユーザーインターフェースに組み込む方法について説明する.システムの構造を,\figref{fig:systemstructure}に示す.{\name}は,\figref{fig:systemstructure}に示すように,ユーザーのキー入力と{\tes}の間に立って両者を仲介する.まず,ユーザーが入力したキー列を,クライアントが受け取り,クライアントはそのキー列をサーバーに送る.サーバーでは,サーバー内の「言語判別モジュール」がキー列からユーザーが入力しようとしている言語を判別して,対応する{\tes}に送る.{\tes}では,キー列を文字列に変換して,クライアントに送り返す.この中の言語判別モジュールに,前節で述べた言語判別手法を実装し,組み込んだ.\begin{figure}[b]\begin{center}\vspace{-0.5\baselineskip}\includegraphics{15-5ia7f2.eps}\caption{{\name}の構造}\label{fig:systemstructure}\end{center}\end{figure}フランス語やドイツ語などヨーロッパ系の言語では,キー列に対して文字列が一意に定まるので,{\tes}は,単純な置き換えですむ.たとえば,ドイツ語の{\tes}では,日本語のキーボードで``@''に対応するキーを,ドイツ語の``$\rm{\ddot{u}}$''に置き換えている.一方,日本語や中国語では,キー列に対して文字列が一意に定まらないので,{\tes}がユーザーに候補を提示して選択してもらう必要がある.この処理には,既存のかな漢字変換/ピンイン漢字変換のシステムをそのまま用いればよい.日本語の{\tes}には,Anthy\footnote{http://anthy.sourceforge.jp/}を用い,中国語の{\tes}には,単純なピンイン漢字変換を自作した.\begin{figure}[b]\begin{center}\includegraphics{15-5ia7f3.eps}\caption{{\name}を用いた入力操作}\label{fig:entryflow}\end{center}\vspace{-1.5\baselineskip}\end{figure}\figref{fig:entryflow}に,{\name}を用いて\figref{fig:toyota}に示す文章の入力例を示す\footnote{ここでは,Qwerty配列上での入力を仮定している.日本語はローマ字入力,中国語はピンイン入力とする.}.各ステップにおいて,白黒反転されているところが,ユーザーが入力中の部分である.言語の判別は,反転部分のキー列に対して行われ,その結果が{\emLocaleWindow}に表示される.以下,各ステップを説明する.\begin{itemize}\item[(a)]初期の状態では,どの言語も選択されていない.\item[(b)]キーを押すごとに反転部分のキー列(トークン)から言語が判別され,{\emLocaleWindow}に表示される.``bi-ruha,''の``b''を打鍵した時点では,英語と判別されていることがわかる.\item[(c)]しかし,``bi-ruha,''まで打鍵すると,正しく日本語と判別される.\item[(d)]現在のトークンは日本語と判別されているので,デリミタとなるスペースキーを打鍵すると,日本語のIMEを通じて日本語の文字列への変換が行われる.\item[(e)]日本語のように,キー列文字列への変換候補が複数ある場合は,さらにスペースキーを打鍵することによって,通常のかな漢字変換を行うことが可能である.\item[(f)]``beer''というトークンが,正しく英語と判別されている.\item[(g)]``pijiu''というトークンが,正しく中国語と判別されている.\item[(h)](g)でスペースキーを打鍵すると,日本語のかな漢字変換と同様に,中国語のピンイン漢字変換が行われる.\item[(i)]その後の``toyobare,''というトークンも,正しく日本語と判別されている.\end{itemize}このように,{\name}を用いることで,ユーザーは,言語の誤判別が発生しない限りIME切り替え操作を行う必要がなく,ユーザーの負担は大幅に軽減される.トークンの言語を判別した結果が,ユーザーの望むものと異なる場合は,「誤判別」となる.誤判別時の処理を,\figref{fig:detectionfail}を用いて説明する.\begin{figure}[b]\begin{center}\includegraphics{15-5ia7f4.eps}\caption{誤判別時の操作}\label{fig:detectionfail}\end{center}\end{figure}言語判別の結果は常に{\emLocaleWindow}に表示されるので,誤判別の場合を含め,ユーザーはその結果を常に把握することが可能である.したがって,誤判別の場合でも,TABキーを押すことで,ユーザーはIMEを手動で簡単に切り替えることが可能である.例えば,\figref{fig:entryflow}の``pijiu''は正しく中国語と判別されているが,\figref{fig:detectionfail}(a)のように,間違って日本語と判別されていたと仮定する.ここで,ユーザーがTABキーを押すと,IMEが\figref{fig:detectionfail}(b)のように中国語に切り替わる.{\name}における誤判別は,次の2種類に分類される.\begin{description}\item[誤判別1:]{言語が切り替わるべき時に,言語が切り替わらなかったか本来の言語とは違う言語に切り替わった場合}.\item[誤判別2:]{言語が切り替わるべきでない時に,言語が切り替わってしまう場合}.\end{description}既存手法では,言語を切り替えるごとにIME切り替え操作を行わなければならなかったのに対し,{\name}では,IME切り替え操作は言語判別を失敗したときのみ必要になる.{\bf誤判別1}は,{\name}が言語判別を間違えた場合であってもIME切り替え操作回数が増える原因とはならない.一方,{\bf誤判別2}は,特に多言語コーパスの大半が1言語から構成されているような場合において,既存手法と比較した場合のIME切り替え操作回数を増加させてしまう可能性がある.したがって,{\name}の有効性は,言語を切り替える点での自動判別によるIME切り替え操作の減少量と,言語を切り替えるべきない点での{\bf誤判別2}によるIME切り替え操作の増加量とのトレードオフによって決まる.このトレードオフについては,\secref{sec:decrease}で論じる. \section{評価} \label{sec:evaluation}{\name}を2つの観点から評価した.まず,人工的に作成した多言語なコーパスを用いて,言語判別の精度を測定した.次に,実際の多言語{\text}を入力した場合の,打鍵数の減少量を測定した.\subsection{言語判別精度による評価実験}\label{sec:detectionaccuracy}ここでは,言語判別の精度を測定した.言語判別の精度を測定するためには,実際に多言語を含む十分な量の正解コーパスがあることが望ましい.しかし,そのようなコーパスは,通常,入手することは難しい.そこで,本論文では,人工的に2言語から8言語の多言語コーパスを作成して,言語判別の精度を測定した.最初に,単言語のコーパスを収集した.日本語コーパスには毎日新聞2004年度版,中国語コーパスには北京大学コーパス,その他,英語,フランス語,ドイツ語,エストニア語,フィンランド語,トルコ語のコーパスには,Leipzigcorpora\cite{leipzigproceeding3}を用いた.各言語の{\text}は,事前にキー列に変換した\footnote{日本語の{\text}は,MeCab(http://mecab.sourceforge.net/)を用いて読みに変換した.また,日本語の``し''がキー列としては``shi''にも``si''にもなるように,文字に対して複数のキー列が対応する場合は,事前に定めた確率を用いて対応するどのキー列にも文字が変換される可能性が残るようにした.}.混合率による判別精度の変化をみるため,テストセットを2つ作成した.テスト1では,どの言語の出現確率も等確率であるような多項分布から生成した.テスト2では,メインとなる言語が90\%を占め,残りの10\%は残りの言語が均等に配分されるような多項分布から生成した.実際の多言語{\text}では,メインとなる言語が存在するので,テスト2の方がより現実的な状況に即している.出力確率と遷移確率は,\secref{sec:model}で述べたPPMCによって推定する.実際のシステムでは,どちらの確率も動的に学習されるのであるが,今は判別精度を評価することが目的であるため,事前に準備した訓練コーパスを用い,テスト中は動的な学習を行わない.\secref{sec:output}の\eqref{eq:ppm}にあるように,出力確率は$n_{max}=5$で学習した.また,今回は多項分布から人工的にコーパスを生成しているため,遷移確率は$k_{max}=1$とした.評価は,生成した多言語コーパス上での10回交差検定を用いた.訓練コーパスのサイズは100~Kbyte,テストデータは11~KByteとした.出力確率は事前に各言語の訓練コーパスを用いて学習し,遷移確率は約2000トークンを用いて学習した.テスト1,テスト2の両者の結果を,それぞれ,\figref{fig:graphtest1}と\figref{fig:graphtest2}に示す.横軸は言語数を表し,縦軸は判別精度を表す.各言語数ごとに,全ての言語の組み合わせについて言語セットを作成した.各言語セットごとに10回交差検定を用いて判別精度を測定した後,全ての言語セットについて判別精度を平均した値をプロットした.凡例中の「PPM」は遷移確率もPPMを用いて学習させた場合,「ML」は出力確率のみを用いて判別させた場合(最尤推定に相当),「Baseline」は最も頻度の高い1言語を常に正解として返す場合である.\begin{figure}[b]\begin{minipage}{0.5\linewidth}\begin{center}\includegraphics{15-5ia7f5.eps}\caption{言語判別精度実験テスト1}\label{fig:graphtest1}\end{center}\end{minipage}\begin{minipage}{0.5\linewidth}\begin{center}\includegraphics{15-5ia7f6.eps}\caption{言語判別精度実験テスト2}\label{fig:graphtest2}\end{center}\end{minipage}\end{figure}どの言語も等確率で出現するテスト1(\figref{fig:graphtest1})では,PPMとMLの精度が非常に近くなっている.これは,PPMが遷移確率を学習を通して,どの言語も等確率で出現していることを学習したためであり,遷移確率の学習を無限に行えば,理論的にはPPMの精度とMLの精度は一致すると考えられる.一方,テスト2(\figref{fig:graphtest2})では,PPMがMLより明らかに高い精度を示している.PPMは遷移確率を学習することで,主となる言語が90\%を占めていることを学習する一方,MLでは遷移確率を学習しないため,このような結果となる.また,先行研究では調査がなされていない3言語以上の場合では,MLはベースラインより下がってしまうことがわかった.この結果から,各言語について少量のコーパスしか入手できない場合でも,単純にMLを使って言語を最尤推定するのではなく,遷移確率をPPMを用いて推定することによって,言語判別の精度を向上させることが可能であると考えられる.また,言語セットごとに,判別精度に差がみられることも注目に値する.例えば,綴りが似通った単語の多い英語とフランス語の両方を含む言語セットでは,他の言語セットよりも精度が落ちる傾向が見られる.実際に,テスト2で,90\%が英語,5\%がフランス語,5\%がドイツ語であるような,ある言語セットでの判別精度は,3言語の言語セット全体の平均より低い\frenchaccuracy\%であった.一方,90\%が英語,5\%がフィンランド語,5\%がトルコ語であるような,ある言語セットでの判別精度は,3言語の言語セット全体の平均より高い\estonianaccuracy\%であった.\subsection{IME切り替え操作回数による評価実験}\label{sec:decrease}次に,{\name}の実用性を評価するため,実際の多言語{\text}を入力した場合に,IME切り替え操作回数が減少する量を測定した.\secref{sec:design}で述べたように,キー操作は3種に分類されるが,{\name}が関わるのはIME切り替え操作回数のみであるため,これを測定した.この実験のために,2種類の多言語{\text}をWebから取得した.各{\text}の詳細を\tabref{tab:stat}に示す.両{\text}とも,主となる言語は英語であり,文書1では日本語が,文書2では日本語と中国語のトークンが混在している.文書2では,文書の大半98.9\%が英語のトークンである点が特徴的である.\begin{table}[b]\caption{IME切り替え操作回数による評価実験で使用した{\text}}\label{tab:stat}\begin{center}\input{07table01.txt}\end{center}\end{table}各{\text}を,既存手法を用いて入力した場合と,{\name}を用いて入力した場合の,それぞれのIME切り替え操作回数を比較した.既存手法では,言語が切り替わるたびにIME切り替え操作を行わなければならない.一方,{\name}では,言語判別に失敗した場合のみIME切り替え操作を行えばよい.誤判別時に目的のIMEに切り替えるための操作は,既存手法と同じく,1回で行うことができるものとした.出力確率は,前述の評価で用いた各言語100~Kbyteのコーパスより学習させた.遷移確率については,事前の学習は行わない.すなわち,実験開始時点では,{\name}はどの言語が入力されるか分からず,各言語が一様に入力されるものと想定している.具体的には,{\name}は,この実験の開始時点で,文書1では英語と日本語を一様に,文書2では英語と日本語と中国語を一様に,ユーザが入力するものと想定している.この実験は,実際に多言語{\text}を入力する場合に,IME切り替え操作回数が減少する量を測定することが目的であるため,実験中は,出力確率も遷移確率もPPMCを用いて動的に学習されるようにした.特に遷移確率の学習も行っているため,この実験では{\name}は,入力されているテキストにおける各言語の比率についても学習していく.考慮される文脈の長さについては,$n_{max}=k_{max}=5$とした.\begin{table}[t]\caption{{\text}入力に必要なIME切り替え操作回数}\label{tab:decreaseresult}\begin{center}\input{07table02.txt}\end{center}\end{table}実験の結果を,\tabref{tab:decreaseresult}に示す.実験の初期段階では,{\text}2において,英語であるべき{\text}2中の``tofu''が日本語として判別されてしまう誤判別が起こった.この誤判別は,借用語の曖昧性が原因であり,\secref{sec:design}で予想された結果である.実際,{\name}は``tofu''が英語と判別されるべきであることをPPMCを用いて学習したため,``tofu''による誤判別は実験の初期段階にとどまり,実験の後半では発生しなかった.結果として,{\name}を用いた場合,両{\text}とも,既存手法と比較して\decreaserate\%を超えるIME切り替え操作回数の減少が認められた.特に,{\text}2でIME切り替え操作回数が減少したことは,重要な知見である.\secref{sec:design}で述べたように,{\name}の有用性は,{\bf誤判別2}に依存する.{\text}2は英語が{98.9\%}と大半を占めるにも関わらず,{\text}1と比較して,誤判別2は僅かしか増加していない.この結果は,\secref{sec:design}の最後で述べた懸念を払拭するものである.すなわち,入力頻度の少ない言語において,IME切り替え操作回数を増加させる{\bf誤判別2}が起こった場合でも,訂正を繰り返し行うことで{\name}が学習し,以後の{\bf誤判別2}を防ぐことが可能である.この実験では,文書2において最大3言語間の判別を行ったが,より多くの言語をサポートした場合でも,現実的には同様にして{\bf誤判別2}を防ぐことが可能であると考えられる.以上より,これらの結果は,{\name}が既存手法と比較して有用であることを示唆している. \section{結論} {\name}は,ユーザーが入力したキー列から言語を判別して,IMEを自動的に切り替えることで,多言語入力におけるユーザーの負担を軽減するシステムである.言語判別は,隠れマルコフモデルとしてモデル化した.事前に各言語の少量の学習コーパスのみを用意し,出力確率も遷移確率も入力に伴い動的に学習させることで,多くの言語に容易に対応することを優先した.これを達成するため,PPM法を用いた.評価実験の結果,現実的な,1つの言語が90\%を占める3言語からなる多言語{\text}において,\accuracy\%の判別精度を得た.また,実際に多言語{\text}を入力した場合,既存手法と比較してIME切り替え回数が\decreaserate\%減少した.これらの結果より,{\name}を用いることで多言語{\text}を効率的に入力することが可能であることが示唆された.今後の課題としては,識別モデルを用いて精度を向上することや,IMEを頻繁に切り替える必要のある語学教材の作成を容易にするシステムとして語学教育分野に応用すること,携帯端末など計算機の性能に制限がある状況でも幅広く利用可能にすることなどが挙げられる.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alex}{Alex}{2005}]{alex2005}Alex,B.\BBOP2005\BBCP.\newblock\BBOQAnUnsupervisedSystemforIdentifying{E}nglishInclusionsin{G}ermanText\BBCQ\\newblockIn{\BemProceedingsoftheACLStudentResearchWorkshop},\mbox{\BPGS\133--138}\AnnArbor,Michigan.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Alex,Dubey,\BBA\Keller}{Alexet~al.}{2007}]{alex2007}Alex,B.,Dubey,A.,\BBA\Keller,F.\BBOP2007\BBCP.\newblock\BBOQUsingForeignInclusionDetectiontoImproveParsingPerformance\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\151--160}.\bibitem[\protect\BCAY{Bell,Clear,\BBA\Witten}{Bellet~al.}{1990}]{textcomp}Bell,T.~C.,Clear,J.~G.,\BBA\Witten,I.~H.\BBOP1990\BBCP.\newblock{\BemTextCompression}.\newblockPrentice-Hall,NewJersey.\bibitem[\protect\BCAY{Biemann,Heyer,Quasthoff,\BBA\Richter}{Biemannet~al.}{2007}]{leipzigproceeding3}Biemann,C.,Heyer,G.,Quasthoff,U.,\BBA\Richter,M.\BBOP2007\BBCP.\newblock\BBOQThe{L}eipzigCorporaCollection---Monolingualcorporaofstandardsize\BBCQ\\newblockIn{\BemProceedingsofCorpusLinguistics2007}\Birmingham,UnitedKingdom.\bibitem[\protect\BCAY{Cavnar\BBA\Trenkle}{Cavnar\BBA\Trenkle}{1994}]{cavnar}Cavnar,W.~B.\BBACOMMA\\BBA\Trenkle,J.~M.\BBOP1994\BBCP.\newblock\BBOQN-Gram-BasedTextCategorization\BBCQ\\newblockIn{\BemProceedingsofthe3rdAnnualSymposiumonDocumentAnalysisandInformationRetrieval(SDAIR'94)},\mbox{\BPGS\161--175}\LasVegas,NV,USA.\bibitem[\protect\BCAY{Chen\BBA\Lee}{Chen\BBA\Lee}{2000}]{pinyininput}Chen,Z.\BBACOMMA\\BBA\Lee,K.-F.\BBOP2000\BBCP.\newblock\BBOQANewStatisticalApproachTo{C}hinesePinyinInput\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2000)},\mbox{\BPGS\241--247}\HongKong.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ehara\BBA\Tanaka-Ishii}{Ehara\BBA\Tanaka-Ishii}{2008}]{typeanyijcnlp}Ehara,Y.\BBACOMMA\\BBA\Tanaka-Ishii,K.\BBOP2008\BBCP.\newblock\BBOQMultilingualTextEntryusingAutomaticLanguageDetection\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2008)},\mbox{\BPGS\441--448}\Hyderabad,India.\bibitem[\protect\BCAY{MacKenzie\BBA\Tanaka-Ishii}{MacKenzie\BBA\Tanaka-Ishii}{2007}]{entry}MacKenzie,I.~S.\BBACOMMA\\BBA\Tanaka-Ishii,K.\BBOP2007\BBCP.\newblock{\BemTextEntrySystems:Mobility,Accessibility,Universality(MorganKaufmannSeriesinInteractiveTechnologies)}.\newblockMorganKaufmannPublishersInc.,SanFrancisco,CA,USA.\bibitem[\protect\BCAY{Marcadet,Fischer,\BBA\Waast-Richard}{Marcadetet~al.}{2005}]{tts2005}Marcadet,J.-C.,Fischer,V.,\BBA\Waast-Richard,C.\BBOP2005\BBCP.\newblock\BBOQATransformation-BasedLearningApproachtoLanguageIdentificationforMixed-LingualText-to-SpeechSynthesis\BBCQ\\newblockIn{\BemProceedingsofInterspeech2005},\mbox{\BPGS\2249--2252}\Lisbon,Portugal.\bibitem[\protect\BCAY{Murthy\BBA\Kumar}{Murthy\BBA\Kumar}{2006}]{indian}Murthy,K.~N.\BBACOMMA\\BBA\Kumar,G.~B.\BBOP2006\BBCP.\newblock\BBOQLanguageidentificationfromsmalltextsamples\BBCQ\\newblock{\BemJournalofQuantitativeLinguistics},{\Bbf13}(1),\mbox{\BPGS\57--80}.\bibitem[\protect\BCAY{Pfister\BBA\Romsdorfer}{Pfister\BBA\Romsdorfer}{2003}]{tts2003}Pfister,B.\BBACOMMA\\BBA\Romsdorfer,H.\BBOP2003\BBCP.\newblock\BBOQMixed-LingualTextAnalysisforPolyglot{TTS}Synthesis\BBCQ\\newblockIn{\BemProceedingsofEurospeech2003},\mbox{\BPGS\2037--2040}\Geneva,Switzerland.\bibitem[\protect\BCAY{Sibun\BBA\Reynar}{Sibun\BBA\Reynar}{1996}]{sibun}Sibun,P.\BBACOMMA\\BBA\Reynar,J.~C.\BBOP1996\BBCP.\newblock\BBOQLanguageIdentification:ExaminingtheIssues\BBCQ\\newblockIn{\BemProceedingsofthe5thSymposiumonDocumentAnalysisandInformationRetrieval(SDAIR'96)},\mbox{\BPGS\125--135}\LasVegas,NV,USA.\bibitem[\protect\BCAY{Tanaka-Ishii}{Tanaka-Ishii}{2006}]{nle06}Tanaka-Ishii,K.\BBOP2006\BBCP.\newblock\BBOQWord-basedTextEntryTechniquesUsingAdaptiveLanguageModels\BBCQ\\newblock{\BemJournalofNaturalLanguageEngineering},{\Bbf13}(1),\mbox{\BPGS\51--74}.\bibitem[\protect\BCAY{Teahan,McNab,Wen,\BBA\Witten}{Teahanet~al.}{2000}]{teahan00}Teahan,W.~J.,McNab,R.,Wen,Y.,\BBA\Witten,I.~H.\BBOP2000\BBCP.\newblock\BBOQAcompression-basedalgorithmforChinesewordsegmentation\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf26}(3),\mbox{\BPGS\375--393}.\end{thebibliography}\begin{biography}\bioauthor{江原遥}{2007年東京大学工学部計数工学科卒業.現在,東京大学大学院情報理工学系研究科創造情報学専攻修士課程学生.自然言語処理,また,その教育への応用に興味を持つ.言語処理学会学生会員.[email protected]}\bioauthor{田中久美子}{現在,東京大学大学院情報理工学系研究科准教授.言語処理学会,ソフトウエア科学会,情報処理学会会員.専門は計算言語学,自然言語処理.言語に内在する数理情報論的構造に関する研究に興味を持つ.[email protected]}\end{biography}\biodate\end{document}
V27N02-03
\section{はじめに} テキスト平易化\cite{Shardlow2014}は,ユーザの文章読解支援を目的として,難解なテキストから平易なテキストへ意味を保持しつつ書き換えるタスクである.各ユーザの語学レベルや読解力,認知力,知識などによって求められるテキストの難易度が異なるため,それぞれのユーザに対応した難易度制御が求められている.特に言語学習に関する教育現場では,教師が多くの時間をかけて各学習者向けに手動で平易なテキストを生成している.インプット仮説\cite{Krashen1985}によると,学習者の能力よりわずかに高い難易度の教材を用いることで高い学習効果が得られる.一方,過度に高い難易度の教材では学習効果が低くなり,学習意欲の低下を招く要因にもなる.そのため,教師の負担軽減のために自動的なテキストの難易度制御が求められている\cite{Petersen2007}.テキスト平易化の処理は,主に「省略」と「言い換え」によって実現される.\tabref{tab:simplification-example}の例では,米国の$12$年生(高校$3$年生)向けのテキストでの\texttt{whileserving$\sim$}が$5$年生(小学$5$年生)向けのテキストでは省略されている.また,$12$年生向けのテキストにおける\texttt{Accordingto}が$7$年生(中学$1$年生)向けのテキストでは\texttt{says}に,\texttt{Pentagon}が$5$年生向けのテキストでは\texttt{military}へ言い換えられている.個々のユーザに対応した難易度制御へ向けた第一歩として,本研究では「学年」を対象とし,目的の学年に適した難易度へ文を自動で変換する課題に取り組む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{学年に合わせたテキスト平易化の例}\label{tab:simplification-example}\input{02table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%テキスト平易化における多くの先行研究\cite{Specia2010,Coster2011,Wubben2012,Xu2016,kajiwara2016,Nisioi2017,Zhang2017,Vu2018,Guo2018,Zhao2018}では,難解な英文と平易な英文からなるパラレルコーパスに基づく同一言語内の機械翻訳によって単純に「難解」から「平易」への難易度変換を行っており,難易度を細かく制御できない.\citeA{Scarton2018}は,$11$段階の難易度付きパラレルコーパス\cite{Xu2015}を用いて細かな難易度制御に初めて取り組んだ.この手法では,出力文の目標難易度を入力文にラベルとして付与することにより,同じ入力文であっても目標難易度に応じて書き換え分けるが,単語の難易度については考慮されていない.本研究では,文全体の大域的な難易度に加えて,個々の単語の局所的な難易度も適切に制御するために,文の難易度とともに単語の難易度も考慮する手法を$3$種類提案する.それぞれ,単語分散表現を拡張する手法,難解な単語の出力を制限するハードな語彙制約手法,平易な単語の出力を促すソフトな語彙制約手法である.いずれの手法も,既存手法では言い換えられなかった難解な単語を積極的に平易化することが期待できる.上述の難易度付きパラレルコーパスを用いて,提案手法の有効性を検証する.テキスト平易化ではBLEU\cite{Papineni2002}およびSARI\cite{Xu2016}が標準的な評価指標として用いられる.BLEUが出力文と正解文の語句の一致率を評価するのに対して,SARIは入力文・出力文・正解文の$3$つを比較することで言い換えるべき語句を正しく言い換えたかを評価する.評価実験の結果,ソフトな語彙制約手法は既存手法と比較してBLEUを$1.04$ポイント,SARIを$0.15$ポイント改善した.さらに詳細な分析の結果,提案手法は文全体の難易度だけでなく単語の難易度も上手く制御でき,積極的な書き換えを促進することが明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト平易化}テキスト平易化は難解な文から平易な文への同一言語内の翻訳問題と考えられる.これまでの研究ではEnglishWikipediaとSimpleEnglishWikipediaのパラレルコーパス~(W-SW)\cite{Zhu2010,Coster2011}上で,$2$段階の難易度変換モデルを訓練してきた.初期の研究では統計的機械翻訳に基づく手法\cite{Specia2010,Wubben2012,Xu2016,kajiwara2016}が盛んであったが,近年ではニューラル機械翻訳の成功を受け,注意機構に基づく系列変換モデルを用いる手法\cite{Nisioi2017,Zhang2017,Vu2018,Guo2018,Zhao2018}が主流である.しかし,いずれもテキストの難易度を「難解」および「平易」の$2$段階で変換しており,難易度の細かな制御を行っていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキストの難易度制御}\label{ssec:controllable-text-simplification}テキスト平易化においてW-SWと並ぶ代表的なデータセットとしてNewsela\footnote{https://newsela.com/data/}\cite{Xu2015}がある.Newselaは$11$段階の難易度付きパラレルコーパスであるが,Newselaを用いた先行研究の多く\cite{Zhang2017,Vu2018,Guo2018,Zhao2018}は,細かな難易度の違いを考慮せず$2$段階の難易度変換を行っていた.\citeA{Scarton2018}はNewselaを用いて,初めてテキスト平易化における難易度制御に取り組んだ.この手法では,出力したい目標の難易度を入力文に付与する.具体的には,文の難易度を示すラベル「\texttt{\textbf{\textless難易度\textgreater}}」を入力文の文頭に付加した上で,Nisioietal.~\citeyear{Nisioi2017}と同様の標準的な注意機構に基づく系列変換モデルを訓練した.入力文にラベルを付加して出力文を制御する手法は,多言語翻訳\cite{Johnson2017}やスタイル変換\cite{Niu2018}などの他のText-to-TextGenerationタスクでも成功している有望なアプローチである.\citeA{Scarton2018}の手法は目標の難易度を考慮しないベースライン\cite{Nisioi2017}と比べてBLEU\cite{Papineni2002}およびSARI\cite{Xu2016}の自動評価を改善し,難易度に応じた平易化を実現できることを示した.しかし,この手法では文全体の難易度のみを考慮しているため,省略の操作には優れる一方で,ターゲットユーザにとって難易度の高い単語が言い換えられずに出力文に残る場合が少なくない.そのため本研究では,\citeA{Scarton2018}の手法において,文の難易度に加えて単語の難易度も考慮することで,より正確なテキストの難易度制御を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{単語の難易度を考慮したテキストの難易度制御} \label{sec:weight-ppmi}本研究では,\citeA{Scarton2018}の手法において,目標の難易度に適した単語の出力を促すために,単語の難易度を考慮する$3$種類の手法を提案する.\ssecref{ssec:feature}では,各単語の分散表現を拡張することで,素性として単語の難易度を考慮する手法を提案する.\ssecref{ssec:hard}では,目標の難易度に応じて出力可能な単語を制限するハードな語彙制約を提案する.\ssecref{ssec:soft}では,目標の難易度に応じて各単語を重み付けするソフトな語彙制約を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{素性としての単語難易度の考慮}\label{ssec:feature}単語の難易度を考慮するために,埋め込み層を拡張する.本手法では,難解な単語は難解な文中で出現しやすく平易な単語は平易な文中で出現しやすいと仮定して,文の難易度ごとの各単語の出現確率の分布を用いて埋め込み層を拡張する.まず,大規模な生コーパス上で事前訓練された$k$次元の単語分散表現を用意する.この単語分散表現は,単語の意味を表現するベクトルであり,難易度の情報は持たないと仮定する.これに単語の難易度を表現する$n$次元ベクトル$\bm{a}=(a_1,\a_2,\\cdots,\a_n)$を結合することで拡張した$k+n$次元のベクトルを,符号化器および復号器の埋め込み層として使用する.ここで$n$は,訓練データにおける文の難易度の種類数であり,本研究では$11$である.拡張するベクトル$\bm{a}$の各要素$a_i\(i=1,\2,\\cdots,\n)$は$n$段階の各難易度に対応しており,次式で定められる.\begin{equation}a_i=\frac{P(w\midu_i)}{\displaystyle\sum_{j=1}^nP(w\midu_j)},\hspace{1em}(i=1,\2,\\cdots,\n).\end{equation}ここで,$P(w\midu_i)$は訓練データの各難易度$u_i$における単語$w$の出現確率を表している.すなわち,ベクトル$\bm{a}$は,単語の出現確率の分布として単語の難易度を表現する素性である.意味ベクトルおよび難易度ベクトルの情報を保持するために,テキスト平易化モデルの訓練時には,これらの埋め込み層は固定する.類似した手法として,対話応答生成タスクでは,復号器の埋め込み層において話者の分散表現を付加するスタイル変換の手法\cite{Li2016}が提案されている.この手法はスタイルごとに$1$つの固定された情報を復号器の入力として付加するが,提案手法では符号化器および復号器の入力として単語ごとに固有の情報を付加する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ハードな語彙制約による単語難易度の考慮}\label{ssec:hard}目標の難易度に合致した単語を出力するために,出力語彙を制限する.本手法では,訓練データにおいて各単語が出現する文の難易度のうち,最も平易な難易度をその単語の難易度であると仮定する.例えば,ある単語が$3$年生向けテキストおよび$4$年生向けテキストに出現する場合,その単語の難易度は$3$とし,$3$年生から$12$年生までの文で出現可能として扱う.つまり,目標の難易度が$3$未満の場合にはこの単語を出力しないという制約を復号器に加える.テキスト平易化の推論では,各タイムステップの復号器出力を$\bm{o}=[o_1,\cdots,o_N]\in\mathbb{R}^N$($N$は語彙サイズ)として,最大要素のインデックス$\arg\max_io_i$に対応する単語をモデルが出力する.出力する単語を目標の難易度$T$に適した単語のみに制限するために,まず語彙制約マスク\begin{equation}\bm{m}=[m_1,\cdots,m_N],\hspace{1em}m_i=\begin{cases}1&\text{if\hspace{.5em}$b_i\leT$}\\0&\text{otherwise}\label{eq:Wdiff}\end{cases}\end{equation}を用意する.ここで,$b_i$はインデックス$i$に対応する単語の難易度を表す.これを用いて,\figref{fig:hard}に示すようにモデルの出力を\begin{equation}\bm{o'}=\bm{o}\odot\bm{m}\end{equation}と改めることで出力語彙を制限する.$\odot$はベクトルの要素ごとの積を計算する演算子である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-2ia2f1.eps}\end{center}\caption{ハードな語彙制約により単語難易度を考慮する提案手法}\label{fig:hard}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%訓練データから単語の難易度を推定する他に,既存の単語難易度辞書(EnglishVocabularyProfile\footnote{http://www.englishprofile.org/wordlists}や\citeA{Maddela2018}の辞書\footnote{https://github.com/mounicam/lexical\_simplification}など)を語彙制約のために利用することも考えられる.しかし,Newselaコーパスにおける語彙の網羅率がEnglishVocabularyProfileでは$8.87\%$,\citeA{Maddela2018}の辞書では$26.18\%$と低く,ほとんどの単語に難易度を割り当てられなかったため,本研究では使用しなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ソフトな語彙制約による単語難易度の考慮}\label{ssec:soft}目標の難易度に適した単語の出力を促すために,\figref{fig:weight}のように損失の計算時に各単語を難易度に応じて重み付けする.この重み$f(w,\l)$は,文の難易度$l$に対する単語$w$の出現しやすさを表す.本手法では,難解な単語は難解な文中で出現しやすく,平易な単語は平易な文中で出現しやすいと仮定し,各文の難易度における単語の出現頻度を手がかりに難易度に適した単語を推定する.ある単語の損失が大きくなると,その単語の出力を漏らさないように学習が促されるため,損失の重み付けによって目標難易度に適した単語が出力されやすくなると期待できる.一般に,系列変換モデルの損失はクロスエントロピーを用いて求められる.%\pagebreak各タイムステップのモデルの出力を$\bm{o}=[o_1,\cdots,o_N]\in\mathbb{R}^N$とすると,損失$L(\bm{o},\\bm{y})$は,\begin{equation}L(\bm{o},\\bm{y})=-\bm{y}\log\bm{o}^\top=-\logo_c\label{eq:loss}\end{equation}で得られる.ただし,$\bm{y}=[y_1,\cdots,y_N]\in\mathbb{R}^N$は正解単語を指す$c$番目の要素が$1$で他の要素が全て$0$であるone-hotベクトルである.提案手法では,\eqref{eq:loss}を\begin{equation}L(\bm{o},\\bm{y},\w_c,\l)=-f(w_c,\l)\logo_c\end{equation}と改めることで,目標難易度に応じて損失を重み付けする.ここで,語彙を$V$とすると$w_c\inV$は正解単語を表す.重み$f(w,\l)$には,TFIDF(TermFrequencyInverseDocumentFrequency)またはPPMI(PositivePointwiseMutualInformation)を利用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-2ia2f2.eps}\end{center}\caption{単語$w$と目標難易度$l$を用いて損失を重み付けするソフトな語彙制約}\label{fig:weight}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{description}\item[TFIDF]難易度ごとの単語の重要度を推定するために,各難易度の文の集合を文書とみなして次式のTFIDFを考える.\begin{equation}\textrm{TFIDF}(w,\l)=P(w\midl)\log\frac{n}{\textrm{DF}(w)}.\label{eq:tfidf}\end{equation}ただし,$P(w\midl)$は特定の難易度$l$における単語$w$の出現確率,$n$は難易度の総数\footnote{本実験では$2$から$12$までの難易度を扱うため$n=11$.},$\textrm{DF}(w)$は単語$w$が出現する難易度の種類数を表す.そのためTFIDFは,特定の難易度において特徴的な単語により大きな重みを与える.\item[PPMI]各文の難易度と単語の共起の強さを推定するために,次式の自己相互情報量(PMI,PointwiseMutualInformation)を考える.\begin{equation}{\rmPMI}(w,\l)=\log\frac{P(w,\l)}{P(w)P(l)}=\log\frac{P(w\midl)}{P(w)}.\label{eq:pmi}\end{equation}ただし,$P(w)$はコーパス全体における単語の$w$の出現確率,$P(w\midl)$は\eqref{eq:tfidf}と同じく特定の難易度$l$における単語$w$の出現確率を表す.ここで,PMIが負数を取る場合,$l$と$w$の関連が低いと言える.すなわち,${\rmPMI}(w,\l)$の値が小さくなる単語$w$は,難易度に依存せず広く使用される単語であると考えられる.特定の文の難易度において頻出する単語の出力を促すことが目的であるため,PMIが負となる単語は重み付けの考慮から除外する.そのため,PMIの正のみを利用した次式のPPMI(PositivePMI)を用いる.\begin{equation}\textrm{PPMI}(w,\l)=\max(\textrm{PMI}(w,\l),\0).\end{equation}\end{description}TFIDFおよびPPMIは,いずれも値域が$[0,\\infty)$である.難易度に対して偏りのない単語の損失の重みを$1$倍にするために,$f(w,\l)$はバイアスとして$1$を加えて\pagebreak\begin{equation}f(w,\l)=\textrm{Func}(w,\l)+1,\hspace{1em}\textrm{Func}\in\{\textrm{TFIDF},\\textrm{PPMI}\}\end{equation}とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データセット}本研究では多段階の難易度制御を行うためのデータセットとして,\citeA{Scarton2018}と同じくNewsela\cite{Xu2015}を用いる.Newselaの各文書は$1$つのニュース記事に対応し,専門家によって文書単位で平易化されている.各文書には,米国学校制度における学年に対応する難易度が付与されており,$2$〜$12$の$11$段階の難易度を利用できる.本研究で使用したNewselaは,\citeA{Xu2015}によって文アライメントが取られ,\citeA{Zhang2017}によって訓練用$1,070$文書($94,208$文対),検証用$30$文書($1,129$文対),評価用$30$文書($1,077$文対)に分割されたデータセットである.本実験では,\citeA{Scarton2018}と同じく,各文の難易度をその文が含まれる文書の難易度とする.なお,\citeA{Scarton2018}は一般に公開されているNewsela\cite{Xu2015}よりも大規模な非公開のコーパスを利用しているため,この論文で報告されている性能と本研究で実施する実験結果は直接比較できない.そこで本研究では\citeA{Scarton2018}の手法を再現した上で比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価指標}本実験の評価では,テキスト平易化の先行研究\cite{Xu2016,Nisioi2017,Zhang2017,Scarton2018}と同じく,BLEU\cite{Papineni2002}および次式のSARI\cite{Xu2016}を用いる.\begin{equation}\textrm{SARI}=\frac13(F_\textrm{add}+F_\textrm{keep}+P_\textrm{del}).\end{equation}ここで,$F_\textrm{add}$,$F_\textrm{keep}$,$P_\textrm{del}$は,入力文・出力文・正解文の$3$つを比較して計算される.それぞれ,モデルが入力文に対して正しく追加した$n$-gram\footnote{$1$-gramから$4$-gramまで考慮する.}のF値,入力文から正しく保持した$n$-gramのF値,入力文から正しく削除した$n$-gramの適合率である.BLEUは主に意味と文法の観点で人手評価との相関を持ち,SARIは意味と文法に加えて難易度の観点でも人手評価との相関を持つ\cite{Xu2016}.評価指標の特性を理解するために,sourceおよびreference-shuffleの$2$つのベースラインを考える.sourceは入力文を編集せずにそのまま出力するものである.reference-shuffleは,正解文の語順を無作為に入れ替えるものである.\secref{ssec:result}に示すように,入力を書き換えないsourceは高いBLEUを得られるが,SARIは低い.一方,reference-shuffleは高いSARIを得られるが,BLEUは低い.つまり,BLEUまたはSARIの一方のみが高いモデルは容易に得られてしまうため,両方のスコアを同時に改善したモデルが優れていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{比較手法}実験項目は以下の通りである.項目(1)から(4)が比較手法,(5)から(8)が提案手法である.\begin{enumerate}\item\textbf{s2s}は,注意機構に基づく単純な系列変換モデルである.\item\textbf{s2s+grade}は,入力文頭に目標難易度のラベル\footnote{本研究で用いるラベルは具体的に,\textless$\mathbf{2}$\textgreater,\textless$\mathbf{3}$\textgreater,$\cdots$,\textless$\mathbf{12}$\textgreaterの$11$種類である.}を付与して出力文の難易度を制御する既存手法\cite{Scarton2018}に基づくモデルである.\item\textbf{s2s~(GloVe)}は注意機構に基づく系列変換モデルにおいて,埋め込み層としてGloVe\cite{Pennington2014}の訓練済み単語分散表現を用いるモデルである.\item\textbf{s2s~(GloVe)+grade}はs2s(GloVe)において\cite{Scarton2018}の手法を適用したモデルである.\item\textbf{s2s~(GloVe+単語難易度ベクトル)+grade}は,\citeA{Scarton2018}の手法において,埋め込み層に提案手法(\ref{ssec:feature}節)を適用したモデルである.本実験では,GloVeの$512$次元の訓練済み単語分散表現に$11$次元の単語難易度ベクトルを追加した$523$次元を埋め込み層として用いた.\item\textbf{s2s+grade+hard}は,s2s+gradeにおいてハードな語彙制約を行う提案手法(\secref{ssec:hard})である.\item\textbf{s2s+grade+TFIDF}は,s2s+gradeのベースラインモデルにTFIDFに基づく損失の重み付けを適用した提案手法(\secref{ssec:soft})である.各単語のTFIDF値は訓練データを用いて計算した.\item\textbf{s2s+grade+PPMI}は,s2s+gradeのベースラインモデルにPPMIに基づく損失の重み付けを適用した提案手法(\secref{ssec:soft})である.各単語のPPMI値は訓練データを用いて計算した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{手法の実装}手法(3)〜(5)で使用する単語分散表現GloVeは,次元数$512$,窓幅$15$としてEnglishWikipedia\footnote{https://dumps.wikimedia.org/enwiki/20191201/enwiki-20191201-pages-articles-multistream.xml.bz2}およびNewselaを用いて訓練した.なお,文の難易度ラベルに対応する分散表現を得るため,Newselaの全ての文頭に各文の難易度を示すラベルを付与してGloVeの訓練を行った.本実験では,Marian\footnote{https://github.com/marian-nmt/marian/commit/02f4af4}\cite{Junczys-Dowmunt2018}を使用してテキスト平易化モデルを構築した.符号化器および復号器には$2$層のBi-LSTMを用い,隠れ層は$1,024$次元でdropout率$0.2$,埋め込み層は$512$次元でdropout率$0.1$とした.埋め込み層は符号化器と復号器および出力層で共有した.最適化にはAdam\cite{Kingma2015}を利用し,検証データにおけるperplexityが$8$エポック改善しなくなったところで訓練を終了した.ニューラルネットワークの初期値依存性を考慮し,いずれの実験も初期値を無作為に変更しつつ$3$回ずつ試行し,得られた評価値の平均を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{実験結果(太字はs2s+gradeと比較して評価値が優れているもの)}\label{tab:results}\input{02table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\caption{素性として単語難易度を考慮する提案手法の失敗例}\label{tab:feature-failure-example}\input{02table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{ssec:result}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{素性としての単語難易度を考慮する提案手法(\ref{ssec:feature}節)の実験結果}実験結果を\tabref{tab:results}に示す.提案手法(5)s2s(GloVe+単語難易度ベクトル)+gradeは,比較手法(3)s2s(GloVe)および(4)s2s(GloVe)+gradeよりもBLEUおよびSARIが優れており,素性としての単語難易度を考慮する提案手法の有効性が確認された.しかし,訓練済みの単語分散表現を用いた手法(3),(4),(5)は,それを用いない手法(1)s2sおよび(2)s2s+gradeに比べてSARIが低く,入力から正しい書き換えを行っていない.モデル出力の失敗例を示した\tabref{tab:feature-failure-example}によると,失敗例$1$では\texttt{enhances}を\texttt{builds}に言い換えできていない.失敗例$2$では,\texttt{crew}を\texttt{worker}に言い換えできていない.このように,期待とは異なり難解な単語を残したまま出力する例が見られた.そこで手法(6)〜(8)では,訓練済みの単語分散表現を用いるのではなく,分散表現も同時に学習するアプローチを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{ハードな語彙制約により単語難易度を考慮する提案手法の失敗例}\label{tab:hard-failure-example}\input{02table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-2ia2f3.eps}\end{center}\caption{ハードな語彙制約において各難易度で使用可能な語彙サイズ}\label{fig:newsela-type-rate}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ハードな語彙制約により単語難易度を考慮する提案手法(\ref{ssec:hard}節)の実験結果}\tabref{tab:results}によると,提案手法(6)s2s+grade+hardは既存手法(2)s2s+gradeと比較してSARIを$2.21$ポイント改善しているが,BLEUが著しく低く正しい単語を出力できていない.\tabref{tab:hard-failure-example}の失敗例$1$では,期待通り難解な単語\texttt{wounds}の出力を避けることができたが,誤って異なる意味の単語\texttt{seas}を出力してしまった.\figref{fig:newsela-type-rate}に示すように,各難易度で使用可能な語彙サイズを見ると,難易度$2$では$1,059$語彙($2.82\%$)の単語に制限されている.このような厳しすぎる制約によって,自然な文を構成する上で必要な単語を利用できず,\tabref{tab:hard-failure-example}の失敗例$2$に示すように入力文とは意味が全く異なる文を出力してしまったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ソフトな語彙制約により単語難易度を考慮する提案手法(\ref{ssec:soft}節)の実験結果}\tabref{tab:results}によると,提案手法(7)s2s+grade+TFIDFおよび(8)s2s+grade+PPMIは,BLEUとSARIの両方において既存手法である(2)s2s+gradeを上回った.特に(8)s2s+grade+PPMIのBLEUとSARIは(2)s2s+gradeと比較してそれぞれ$1.04$ポイント(p値0.024),$0.15$ポイント改善した.ソフトな語彙制約によって単語難易度を考慮することで,出力文を崩壊させずにより目標難易度に適した単語を出力できたと考えられる.\tabref{tab:output-example}にモデルの出力例を示す.(8)s2s+grade+PPMIは\texttt{incarnation}を$7$年生向けに\texttt{people}へ,\texttt{motivate}を$4$年生向けに\texttt{inspire}へ書き換えている.いずれのモデルも\texttt{and,on$\sim$}の並列構造を省略できているが,(8)s2s+grade+PPMIは$4$年生向けの文をより短い文へ省略できている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{ソフトな語彙制約により単語難易度を考慮する提案手法の出力例}\label{tab:output-example}\input{02table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次節では,BLEUとSARIの両方を改善した提案手法(8)s2s+grade+PPMIに焦点を当てて考察と分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察と分析} BLEUおよびSARIによる自動評価において最高性能を達成した(8)s2s+grade+PPMI(提案手法)について,本節では(2)s2s+grade(既存手法)と比較しながら$3$つの追加の自動評価指標および人手による分析により詳細な検証を行う.既存のテキスト平易化モデルは,入力文をあまり書き換えず,難解な表現を出力文に残してしまいやすい\cite{Zhang2017}.そこで\ref{ssec:BLEUst}節では,モデルが入力文を積極的に書き換えているかを評価する.また,テキスト平易化の処理は主に省略と言い換えによって実現される.そのため,\ref{ssec:sent-len-MAE}節では省略による難易度制御の評価を,\ref{ssec:MPMI}節では言い換えによる難易度制御の評価を行う.\ref{ssec:analysis-each-level}節では,難易度の制御に関する詳細な分析のために,目標難易度ごとに文および単語の難易度による評価を行う.最後に\ref{ssec:error-analysis}節では,人手による出力文のエラー分析から今後の改善策を議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{書き換えの積極性の評価}\label{ssec:BLEUst}書き換えの積極性を評価するために,self-BLEU\cite{Sun2012}を用いる.出力文と正解文の一致度を評価する通常のBLEUとは異なり,self-BLEUは入力文と出力文の一致度を評価する.つまり,self-BLEUの値が低いほど,入力文を積極的に書き換えるモデルであると言える.\tabref{tab:detail-results}に示した結果のうち,sourceは入力文を編集せずにそのまま出力文とし,referenceは正解文を出力文とみなしたときの評価である.\tabref{tab:detail-results}によると,self-BLEUにおいてもs2s+grade+PPMIが最も優れており,目標難易度に適した単語を重視することで入力文に含まれない単語を積極的に出力できていることがわかる.s2sは目標の難易度を考慮しないため,あまり書き換えを行わない(self-BLEUが高い)保守的なモデルになったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{詳細な分析結果}\label{tab:detail-results}\input{02table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{省略による難易度制御の評価}\label{ssec:sent-len-MAE}省略による難易度制御の品質を評価するために,文長の平均絶対誤差を用いる.文長の平均絶対誤差は,出力文の単語数に基づいて次式で得られる.\pagebreak\begin{equation}(文長の平均絶対誤差)=\frac1S\sum_{i}\left|\textrm{Len}(r_i)-\textrm{Len}({t_i})\right|.\end{equation}ここで,$S$は評価用データセットの文数,$r_i\(i=1,\\cdots,\S)$は正解文,$t_i$は$r_i$に対応する出力\\文,$\textrm{Len}(s)$は文$s$の単語数を表す.文長の平均絶対誤差が低いほど,適切な長さの文を生成するモデルであると言える.\tabref{tab:detail-results}を見ると,s2s+gradeはs2sから文長の平均絶対誤差が$0.61$ポイント改善され,s2s+grade+PPMIはs2s+gradeと同程度である.すなわち,文の難易度を考慮することによって出力文の文長が正解文と近くなり,省略による難易度制御が改善されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{言い換えによる難易度制御の評価}\label{ssec:MPMI}言い換えによる難易度制御の品質を評価するために,平均PMIを用いる.平均PMIは,次式に示す通り出力文に含まれる各単語と目標難易度の一致度に基づいて得られる.\begin{equation}\textrm{(平均PMI)}=\frac1W\sum_{s\in\textrm{Target}}\sum_{w\ins}\textrm{PMI}(w,\l_s).\end{equation}ここで,$W$は出力文の集合$\textrm{Target}$に含まれる単語数,$l_s$は文$s$の目標難易度,$w$は文$s$に含まれる単語である.PMIは訓練データを用いて\eqref{eq:pmi}によって求めた.平均PMIが高いほど,適切な難易度の単語を出力するモデルであると言える.\tabref{tab:detail-results}を見ると,平均PMIはs2s+grade+PPMIが最も高い.したがってs2s+grade+PPMIは,s2s+gradeの省略による難易度制御の品質を保ちつつ,より目標難易度に適した単語を出力できることが明らかになった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{目標難易度ごとの出力文における文と単語の難易度}\label{ssec:analysis-each-level}難易度の制御についてより詳細な分析を行うために,評価用データセットの各入力文に対して,入力文よりも平易な全ての難易度\footnote{正解文は各入力文に対して一部の難易度についてのみ付与されているため,ここでは正解文を用いる評価は実施できない.}に向けての平易化を行った.\tabref{tab:each-grade}に,s2s+gradeとs2s+grade+PPMIに対する目標難易度ごとのFKGL\cite{Kincaid1975}および平均PMIを示す.FKGLは,テキストの可読性を評価する自動評価尺度であり,次式で得られる.\begin{equation}\textrm{FKGL}=0.39\frac{\#\textrm{words}}{\#\textrm{sentence}}+11.8\frac{\#\textrm{syllables}}{\#\textrm{words}}-15.59.\end{equation}ここで,\#wordsは単語数,\#sentenceは文数,\#syllablesは音節数である.FKGLの評価値は米国学校制度における学年に対応しており,本実験ではこれを目標難易度と比較することにより各手法の難易度制御の品質を分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{savenotes}\begin{table}[t]\caption{各難易度におけるs2s+grade(既存手法)とs2s+grade+PPMI(提案手法)のFKGLと平均PMI}\label{tab:each-grade}\input{02table07.tex}\end{table}\end{savenotes}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%FKGLの分析によると,いずれのモデルも過度に平易な文に書き換えてしまっているが,目標学年に対する平均絶対誤差(MAE)を比較するとs2s+grade+PPMIの方が優れている.\tabref{tab:each-grade}中,FKGLの差分は学年ごとにs2s+gradeとs2s+grade+PPMIのFKGLの差を示している.これによると,s2s+grade+PPMIは目標学年が小さい場合はより平易な文を出力し,目標学年が大きい場合はより難解な文を出力しているため,s2s+gradeと比較してより明確に難易度を区別した制御ができている.この結果から,単語の難易度を考慮することで,テキスト平易化の難易度制御に寄与することが分かる.平均PMIの評価によると,s2s+grade+PPMIは全ての学年でs2s+gradeより優れている.したがって,単語の難易度に基づく損失の重み付けを行う提案手法が,我々の期待通りに目標の学年に適した単語を出力することが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エラー分析と人手評価}\label{ssec:error-analysis}今後の課題を明らかにするために,評価用データセットから無作為抽出した$50$文について,s2s+grade(既存手法)およびs2s+grade+PPMI(提案手法)のエラー分析(\sssecref{sssec:error-analysis})と人手評価(\sssecref{sssec:human-evaluation})を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{エラー分析}\label{sssec:error-analysis}テキスト平易化における代表的な操作である省略および言い換え(置換)について,それぞれの細分類ごとにエラー数を著者の一人が人手で調べた.まず省略に関するエラー分析のために,入力文・出力文・正解文の三つ組を比較して,入力文中の省略すべき箇所,正しく省略した箇所(省略成功),省略すべきだが省略しなかった箇所(省略不足),出力すべきだが過剰に省略している箇所(省略過多)を数えた.次に置換に関するエラー分析のために,入力文中の置換すべき箇所,正しく置換した箇所(置換成功),誤った表現に置換した箇所(置換失敗),置換すべきだが置換しなかった箇所(置換不足),置換すべきでないが置換した箇所(置換過多)を数えた\footnote{本研究では単一の正解文を用いたが,本来正解文は複数存在するため,正解文とは異なるが正解とすべき出力文が存在する.しかし,ここでは単一正解文の表現のみを正解とする厳しい評価を行うため,本来の性能よりも低く評価される.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{エラー分析の例(出力失敗例)}\label{tab:error-analysis-example}\input{02table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:error-analysis-example}はエラー分析の例であり,下線は置換すべき箇所および各手法においてそれらに対応する箇所を,太字は省略すべき箇所を示している.例えば,\tabref{tab:error-analysis-example}の上の例では入力文における単語\texttt{stressful}は\texttt{tough}に置換すべきだが,いずれのモデルも\texttt{hard}へ置換しており,置換失敗としてカウントされる.また,入力文中の句\texttt{immigrantstudents}はいずれのモデル出力にもそのまま残っており,置換不足としてカウントされる.そして,s2s+grade+PPMIは入力文と正解文に共通して出現する単語\texttt{especially}を\texttt{very}へ置換しており,置換過多としてカウントされる.また,下の例では\texttt{infiveTurkishcities}を省略すべきだが,s2s+gradeでは省略できていない.\tabref{tab:error-analysis-omission}の分析結果から,省略の$\textrm{成功率}\left(=\frac{\textrm{省略成功}}{\textrm{省略すべき箇所}}\right)$はs2s+gradeが$45$箇所中$13$箇所($28.9\%$),s2s+grade+PPMIが$45$箇所中$19$箇所($42.2\%$)であり,またs2s+grade+PPMIはs2s+gradeに比べて省略過多は多いが省略不足は少なく,より積極的に省略を行っていることがわかる.\tabref{tab:error-analysis-replacement}に置換操作に関するエラー分析結果を示す.本分析では各手法の出力について,省略不足や省略過多ではなかった(省略が成功した)部分のみについて置換すべき箇所をカウントしている.そのため置換すべき箇所の個数が手法によって異なっている.置換の$\textrm{再現率}\left(=\frac{\textrm{置換成功}}{\textrm{置換すべき箇所}}\right)$はs2s+grade+PPMIが$82$箇所中$4$箇所($4.9\%$),s2s+gradeが$86$箇所中$5$箇所($5.8\%$)でありいずれも低い.また,置換の$\textrm{適合率}\left(=\frac{\textrm{置換成功}}{\textrm{置換成功}+\textrm{置換失敗}+\textrm{置換過多}}\right)$を見ると,s2s+grade+PPMIが$72$箇所中$4$箇所($5.6\%$),s2s+gradeが$74$箇所中$5$箇所($6.8\%$)と低く,書き換えの誤りが多い.置換の$\textrm{網羅率}\left(=\frac{\textrm{置換成功}+\textrm{置換失敗}}{\textrm{置換すべき箇所}}\right)$はs2s+grade+PPMIが$82$箇所中$38$箇所($46.3\%$),s2s+gradeが$86$箇所中$39$箇所($45.4\%$)であり,いずれも書き換えようとした箇所自体が半数以下である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\caption{評価用データセットから無作為抽出された$50$文に対する省略のエラー分析}\label{tab:error-analysis-omission}\input{02table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\caption{評価用データセットから無作為抽出された$50$文に対する置換のエラー分析}\label{tab:error-analysis-replacement}\input{02table10.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{人手評価}\label{sssec:human-evaluation}先行研究\cite{Zhang2017}に倣い,流暢性(Fluency),意味の等価性(Adequacy)および平易性(Simplicity)の$3$項目について人手評価を行った.\citeA{Zhang2017}と同様に,各項目について流暢性は「Istheoutputgrammaticalandwellformed?」,意味の等価性は「Towhatextentisthemeaningexpressedintheoriginalsentencepreservedintheoutput?」,平易性は「Istheoutputsimplerthantheoriginalsentence?」と説明し,$1$から$5$の$5$段階($1$が最低性能,$5$が最高性能を表す)の評価\footnote{入力文を全く書き換えていない文は平易性が$1$として評価される.}を依頼した.評価者は英語話者$1$名である.\tabref{tab:human-evaluation}に各項目の平均値を示す.さらに我々は,\citeA{Mallinson2019}と同様に最小値も評価した.最小値は,文ごとに流暢性,意味の等価性および平易性の各評価値の最小値を取り,平均したものである.最小値を用いる理由は,モデルが$3$項目のうちいずれかの項目を無視すれば残りの項目において容易に高いスコアが得られるためである.例えば,入力文をそのまま出力すれば流暢性と意味の等価性は最高スコア$5$が得られるが平易性は$1$となる.また意味の等価性を無視すれば平易かつ流暢な文が容易に得られてしまう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\caption{評価用データセットから無作為抽出された$50$文に対する人手評価}\label{tab:human-evaluation}\input{02table11.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:human-evaluation}の最小の列を見ると,s2s+grade+PPMIは,s2s+gradeを$0.04$ポイント上回り,s2s+gradeと同等以上の性能が確認できた.流暢性および意味の等価性はs2s+gradeの方が,平易性はs2s+grade+PPMIの方が優れた.入力から積極的な書き換えを行わない(保守的な)モデルは流暢性および意味の等価性が高く,平易性が低くなると考えられるため,s2s+grade+PPMIはs2s+gradeと比較してより積極的な書き換えを行っていることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{今後の課題}\label{sssec:future-work}エラー分析(\sssecref{sssec:error-analysis})の結果,既存手法s2s+gradeと提案手法s2s+grade+PPMIの両手法とも積極的な省略を行い,置換がほとんど行われないことがわかった.その中でも,人手評価(\sssecref{sssec:human-evaluation})の結果,単語の難易度も考慮したs2s+grade+PPMIはs2s+gradeと比較してより積極的な平易化を行うことを確認した.テキスト平易化では書き換え前後の文で共通した単語が使用される割合が高く,また入力の語句の省略も頻繁に行われる.一方,テキスト平易化と同様に系列変換タスクである機械翻訳では入力と出力の言語が異なることから,入力文の語句のほぼ全てが置換され,かつ入力に現れる語句が大幅に省略されることは稀と考えられる.このようなタスクの特性により,テキスト平易化では複製や省略の操作の学習は容易であるが,置換操作は学習が難しく,モデルにとってリスクが高いため積極的な書き換えを行わない.したがって複製や省略という簡単な操作に甘んじやすいと考えられる.そのため今後は,入力文中に出現しない正解単語の出力に大きな報酬を与える工夫が必要であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,単語の難易度に注目することで高品質な難易度制御を行うテキスト平易化手法を提案した.素性として単語分散表現に単語の難易度を埋め込む手法,ハードな語彙制約手法,ソフトな語彙制約手法の$3$種類のアプローチを試みた結果,ソフトな語彙制約手法が有効であった.ソフトな語彙制約では,文の難易度と単語の共起の強さによって損失を重み付けすることで,BLEUおよびSARIによる自動評価が既存手法を上回り,積極的かつ正確な難易度制御に貢献することを確認した.また難易度ごとの分析からも,提案手法が省略および置換の操作に対して有効であることを示した.本研究では,\citeA{Scarton2018}と同様に,文書の難易度を各文の難易度とみなした.しかし,難解な文書中にも平易な文が含まれる場合があるため,実際には文ごとに難易度を推定する必要がある.テキストの可読性や難易度については,これまで文書\cite{Kincaid1975}や語句\cite{Pavlick2016,Maddela2018}の単位では研究されてきたが,文単位での難易度推定は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,MicrosoftResearchAsia,MicrosoftJapanCo.,Ltd.,JSTACT-IGrantNumberJPMJPR18UB,JSPSKAKENHIGrantNumberJP18K11435の支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{西原大貴}{%2019年大阪大学工学部電子情報工学科卒業,同年大阪大学大学院情報科学研究科マルチメディア工学専攻に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{梶原智之}{%2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程電気電子情報工学専攻修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程情報通信システム学域修了.博士(工学).同年より大阪大学データビリティフロンティア機構特任助教.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{荒瀬由紀}{%2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現認識と生成,機械翻訳技術,対話システムに興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V03N04-03
\section{はじめに} 自然言語では通常,相手(読み手もしくは聞き手)に容易に判断できる要素は,文章上表現しない場合が多い.この現象は,機械翻訳システムや対話処理システム等の自然言語処理システムにおいて大きな問題となる.例えば,機械翻訳システムにおいては,原言語では陽に示されていない要素が目的言語で必須要素になる場合,陽に示されていない要素の同定が必要となる.特に日英機械翻訳システムにおいては,日本語の格要素が省略される傾向が強いのに対し,英語では訳出上必須要素となるため,この省略された格要素(ゼロ代名詞と呼ばれる)の照応解析技術は重要となる.従来からこのゼロ代名詞の照応解析に関して,様々な手法が提案されている.KameyamaやWalkerらは,Centeringアルゴリズムに基づき助詞の種類や共感動詞の有無により文章中に現われる照応要素を決定する手法を提案した\cite{Kameyama1986,WalkerIidaCote1990}.また,Yoshimotoは,対話文に対して文章中にあらわれる照応要素については主題をベースとして照応要素を同定し,文章中に現われないゼロ代名詞については敬語表現やspeechactに基づき照応要素を同定する手法を提案した\cite{Yoshimoto1988}.堂坂は,日本語対話における対話登場人物間の待遇関係,話者の視点,情報のなわばりに関わる言語外情報の発話環境を用いて,ゼロ代名詞が照応する対話登場人物を同定するモデルを提案した\cite{Dousaka1994}.Nakagawaらは,複文中にあらわれるゼロ代名詞の照応解析に,動機保持者という新たに定義した語用論的役割を導入して,従属節と主節それぞれの意味的役割と語用論的役割の間の関係を制約として用いることで解析するモデルを提案した\cite{NakagawaNishizawa1994}.これらの手法は,翻訳対象分野を限定しない機械翻訳システムに応用することを考えると,解析精度の点や対象とする言語現象が限られる点,また,必要となる知識量が膨大となる点で問題があり,実現は困難である.ところで,照応される側の要素から見ると,機械翻訳システムで解析が必要となるゼロ代名詞は次のような3種類に分類できる.\begin{enumerate}\item[(a)]照応要素が同一文内に存在するゼロ代名詞(文内照応)\item[(b)]照応要素が文章中の他の文に存在するゼロ代名詞(文間照応)\item[(c)]照応要素が文章中に存在しないゼロ代名詞(文章外照応)\end{enumerate}\noindentこれら3種類のゼロ代名詞を精度良く解析するためには,個々のゼロ代名詞の種類に応じた照応解析条件を用いる必要がある.また,これら3種類のゼロ代名詞を解析するための解析ルールは,相互矛盾が起きないように,ルールの適用順序を考慮する必要がある.この3種類のうち,(b)タイプに関しては,既に,知識量の爆発を避けるための手段として,用言のもつ意味を分類して,その語のもつ代表的属性値によって,語と語や文と文の意味的関係を決定し,文章中の他の文内に現われる照応要素を決定する手法をが提案されている\cite{NakaiwaIkehara1993}.また,(c)タイプに関しては,語用論的・意味論的制約を用いることによって,文章中に存在しない照応要素を決定する手法が提案されている\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}本稿では,照応要素が同一文内に存在するゼロ代名詞((a)タイプ)に対して,接続語のタイプや用言意味属性や様相表現の語用論的・意味論的制約を用いた照応解析を行なう汎用的な手法を提案する. \section{日英機械翻訳システム評価用例文でのゼロ代名詞の出現傾向} \subsection{調査対象文}照応要素が同一文内に存在するゼロ代名詞の傾向を掴むために,本章では独立した文(文間文脈情報が得られない文)におけるゼロ代名詞を調査した.調査対象は,日英機械翻訳システム評価用例文3718文\cite{IkeharaShirai1990}である.この評価用例文は,日本語の性質と表現の種類,及び日本語と英語との相違に基づき体系化された約500種類の試験項目を評価するために,実用文中の表現を抽出して作成された日本語例文である.個々の文には模範となる英訳が付与されており,そのほとんどの文は文脈の情報無しに(一文単独で)翻訳が可能である(3718文中3704文)ため,個々の文を日英機械翻訳システムで翻訳し,予め用意された英訳と比較することでシステムの翻訳機能の評価が行なえる.また,個々の例文は自然な日本語文であり広範囲な表現が含まれているため,これらの例文におけるゼロ代名詞とその照応要素の出現傾向を調査することによって,同一文内に照応要素がある場合や,文中に現われない照応要素の傾向を把握することが可能と期待できる.\subsection{出現傾向}上記の試験文に対して照応解析が必要となるゼロ代名詞とその照応要素の出現傾向を調査した結果を表1に示す.照応要素の出現場所からみて,同一文内に存在する場合と,同一文内に存在しない場合に分かれる.調査結果によれば,全ゼロ代名詞512件に対して照応要素が同一文内に存在するゼロ代名詞が139件(27%)であった.また,照応要素が文中に存在しない場合が373件(73%)存在した.この373件の詳細については既に報告しているので\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995},ここでは照応要素が同一文内に存在するゼロ代名詞の詳細について述べる.照応要素が同一文内に存在するゼロ代名詞のうちでは,ガ格がゼロ代名詞化され照応要素がハ格の要素となる場合が102件と最も多い.この102件を詳細に分析してみると,このなかにはゼロ代名詞が照応要素より文中の前の部分に存在する後方照応表現が8件含まれることが分かった.この現象は,助詞の種類に基づく前方照応解析手法では解析することが出来ず,接続語のタイプ等に基づく照応解析が必要となる.ゼロ代名詞化されたものと同じ格の要素が照応要素となる(例えば,ガ格がゼロ代名詞化され同一文内のガ格が照応要素となる)場合が10件(ハ格ゼロ代名詞がハ格を照応する場合が1件,ガ格ゼロ代名詞がガ格を照応する場合が6件,ヲ格ゼロ代名詞がヲ格を照応する場合が3件)存在した.これは,接続語のタイプにより,同一文内の格要素が共有できるかが決まるという特質を用いることで解析可能となることが予想される.また,照応要素が同一文内に存在するゼロ代名詞の中で,埋め込み文又は引用文内の格要素がゼロ代名詞化されている場合が9件(ガ格の埋め込み文内が4件,ガ格の引用文内が4件,ヲ格の埋め込み文内が1件),照応要素が埋め込み文又は引用文内に存在する場合が4件(ハ格の引用文内が2件,ガ格の埋め込み文内が2件)あった.これらのゼロ代名詞を正しく解析するためには,埋め込み文や引用文と同一文内のそれ以外の表現との意味的関係を用言意味属性や様相表現,埋め込み文が修飾する名詞のタイプ等の情報を用いて決定することが必要となる.この結果から,照応要素が同一文内に存在するゼロ代名詞を解析するためには接続語のタイプや様相や用言意味属性を用いることが有効と推定できる.\begin{table}[htbp]\begin{center}\caption{ゼロ代名詞とその照応要素の出現傾向}{\footnotesize(調査対象文:日英機械翻訳システム評価用例文3718文,照\\応解析を要するゼロ代名詞が存在する文は463文,512件)}\\\vspace{2mm}\leavevmode\footnotesize\begin{tabular}{||c|c||c|c|c|c|c|c|c||c|c|c|c|c|c||c||}\hline\hline\multicolumn{2}{||c||}{ゼロ}&\multicolumn{13}{c||}{照応要素の出現場所}&\\\cline{3-15}\multicolumn{2}{||c||}{代名詞}&\multicolumn{7}{c||}{同一文内}&\multicolumn{6}{c||}{文章中になし}&小\\\cline{3-15}\multicolumn{2}{||c||}{出現}&\multicolumn{2}{c|}{は}&\multicolumn{2}{c|}{が}&&&&受&I&&人&&&計\\\cline{4-4}\cline{6-6}\multicolumn{2}{||c||}{場所}&&引用&&埋込&を&に&他&&か&you&&it&他&[件]\\\multicolumn{2}{||c||}{}&&文内&&文内&&&&身&we&&間&&&\\\hline\hline\multicolumn{2}{||c||}{は}&1&0&0&0&0&0&0&5&0&0&0&2&0&8\\\hline\multicolumn{2}{||c||}{が}&102&2&6&2&0&1&7&151&69&28&23&50&3&444\\\cline{2-16}&埋込文内&3&0&1&0&0&0&0&15&0&0&2&0&0&21\\\cline{2-16}&引用文内&4&0&0&0&0&0&0&0&0&0&0&0&0&4\\\hline\multicolumn{2}{||c||}{を}&3&0&0&0&3&1&0&0&0&0&0&11&0&18\\\cline{2-16}&埋込文内&1&0&0&0&0&0&0&0&0&0&0&0&0&1\\\hline\multicolumn{2}{||c||}{に}&1&0&0&0&0&0&0&2&2&5&0&0&2&12\\\hline\multicolumn{2}{||c||}{他}&0&0&0&0&1&0&0&0&1&1&0&1&0&4\\\hline\hline\multicolumn{2}{||c||}{小計[件]}&\multicolumn{7}{c||}{139}&\multicolumn{6}{c||}{373}&512\\\hline\hline\end{tabular}\\\end{center}\label{tab:dist}\end{table} \section{ゼロ代名詞の同一文内照応解析} 2章で得られた結果を元に,照応要素が同一文内に存在するゼロ代名詞の解析手法について提案する.\subsection{助詞の種類を用いた文内照応解析}日本語ゼロ代名詞の文章中に存在する照応要素を決定する解析手法としては,助詞のタイプや共感動詞の有無に基づき格要素のCenterをランク付けし,単文間の話題の継承性を認定することによってゼロ代名詞の照応要素を決定するCenteringアルゴリズムが知られている\cite{Kameyama1986,WalkerIidaCote1990}.文内照応ゼロ代名詞に対しては,文中に含まれる個々の文を単文に分割することによって解析を行う.例えば,\begin{quote}(\sent{sent:1})彼は方程式を解いて(φが)答えを出した.\end{quote}\noindentという文では,文を「彼は方程式を解く」と「(φが)答えを出す」に分割し,動詞「出す」のガ格のゼロ代名詞の照応要素として助詞「は」で主題化された「彼」が認定される.また,埋め込み文を伴う\begin{quote}(\sent{sent:2})太郎はキムに[(φが)(φを)弁護する]ことを話した.\end{quote}\noindentという文では,文を「太郎はキムに話した」と「(φが)(φを)弁護する」に分割し,動詞「弁護する」のガ格のゼロ代名詞の照応要素として助詞「は」で主題化された「太郎」が,ヲ格のゼロ代名詞の照応要素としてニ格の「キム」が認定される.本手法は,アルゴリズムが極めて簡単であるため,実現が容易であるが,本アルゴリズムでは解析できないゼロ代名詞が存在する.例えば,本手法は前方照応指示を解析対象としているため,次に様な後方照応指示表現は解析不可能である.\begin{quote}(\sent{sent:3})(φが)縄を枝から枝にかけて,子供達は遊んだ.\end{quote}\noindentこの例ではゼロ代名詞の照応要素は後半の用言のハ格である「子供達」となるが,ゼロ代名詞が照応要素より前の単文にあるため,このアルゴリズムでは解析不可能となる.さらに,本来文章外照応解析が必要であったり,翻訳する際に受け身変形することによって照応解析が不要であるゼロ代名詞に対しても,このアルゴリズムでは文内照応とみなし解析してしまうという問題も存在する.例えば次の例文を見ると,\begin{quote}(\sent{sent:4})たとえ海が荒れても(φが)船を出す.\end{quote}\noindentこの文では「出す」のガ格がゼロ代名詞となっているが,この照応要素は,この文のみでは推測不可能なため決定できない.しかし,Centeringアルゴリズムでは,従文のガ格である「海」を誤って照応要素と認定する.2章での調査結果を検討すると,助詞の種類に基づく制約だけでなく,接続語のタイプや用言意味属性,様相表現をゼロ代名詞の同一文内照応格要素の推定に用いれば,より正確に照応要素が決定できると予想される.例えば,(3)の表現においても,接続語が様態を示す「て」であり,ゼロ代名詞を含む用言が動作を示すことから,子供達が遊ぶ様子を示す表現であることが推測され,ゼロ代名詞の照応要素は「子供達」であると判断できる.\newpage\subsection{論用論的・意味論的制約を用いた文内照応解析}2章の調査結果の分析によると,接続語のタイプや用言意味属性や様相表現のタイプがゼロ代名詞の文内照応要素を決定するのに有効であることが分かった.本節では,2章で調査した例文を詳細に検討することにより得られた,接続語,用言意味属性,様相表現の3種類による文内照応要素を決定するための語用論的・意味論的制約について述べる.\subsubsection{接続語による制約}接続語は,ゼロ代名詞の文内照応要素を決定するうえで最も強力な制約となることが期待される.これは,接続語のタイプに応じた格の共有に関する制約にもとづくものである.南\cite{Minami1974}や田窪\cite{Takubo1987}らが提案しているとおり,日本語の接続語は,格要素の影響範囲を制限するものがある.例えば,南は,日本語接続語をA,B,Cの3種類に分類し,主題「は」格も助詞「が」格も共有するような「つつ」や「ながら」のような継続を示す接続語をA類,「は」格は共有するが「が」格は共有しないような「ので」や「たら」のような条件を示す接続語をB類,「は」格も「が」格も共有しないような「けれど」や「けど」のような接続語C類と呼んだ.この分類によるとA類の接続語を伴う複文において,この接続語をはさんだ片方の単文のガ格がゼロ代名詞化されもう片方の単文にガ格が存在する場合には,このゼロ代名詞の照応要素はもう片方の単文のガ格の要素となる.このような,接続詞の種類による格要素の特徴を,照応要素の決定に活用することができる.表2に,実際に本手法で用いる接続語による文内照応解析条件の1部を示す.これは,南による日本語接続語の分類を,南の記述にない接続語や英語に翻訳すると接続語となるような日本語表現にも拡張し,実際の文に現れた文内照応ゼロ代名詞の分析に基づいて,接続語前後の単文内の格の共有の特性を整理しルール化したものである.\begin{table}[htbp]\begin{center}\caption{接続語によるゼロ代名詞の文内照応解析条件}\vspace{2mm}\leavevmode\footnotesize\begin{tabular}{||c|c|c||}\hline\hline接続語の例&ゼロ代名詞の条件&照応要素との関係{\scriptsize1)}\\\hline\hlineから,し,ば&ハ格&従文\(\rightarrow\)主文\\\hlineため&ハ格&従文\(\leftarrow\)主文\\\hlineまま&ハ格,ガ格&従文\(\rightarrow\)主文\\\hlineたり,て&ハ格,ガ格&従文\(\leftrightarrow\)主文\\\hlineと&ハ格,ヲ格&従文\(\rightarrow\)主文\\\hlineつつ,ながら{\scriptsize2)}&ハ格,ガ格,ヲ格&従文\(\leftrightarrow\)主文\\\hline\hline\end{tabular}\\{\scriptsize1)この矢印は,照応要素の含む文から,これと照応可能なゼロ代名詞を含む文への方向を示す\\2)``つつ'',``ながら''の場合,ヲ格はその接続関係が「逆接確定」の場合のみ補完対象となる}\end{center}\label{tab:conj}\end{table}\subsubsection{用言意味属性による制約}用言意味属性による制約は大きく以下の2種類に分かれる.\vspace{2mm}\noindent{\bf(a)用言意味属性による制約}\vspace{1mm}ゼロ代名詞又はその照応要素が,埋め込み文又は引用文内にある場合の文内照応解析は,埋め込み文又は引用文の表現と文内のその他の表現との意味的関係を認定ことが必要となる.この意味解析に,文中の用言の用言意味属性が有効となると期待される.例えば,\begin{quote}(\sent{sent:5})港区は資本参加すると(φが)言った.\end{quote}\noindentと言う表現においては,用言「言う」のガ格がゼロ代名詞化されており,その照応要素は引用文「港区は資本参加する」のハ格となる.この表現においては,引用文の用言「参加する」はガ格の属性変化を示す用言意味属性を持ち,用言「言う」はガ格の要素が引用文の内容を精神的移動させるという用言意味属性を持つ.このような用言意味属性の属性対によって,この文は「助詞ハで主題化された要素が属性変化を起こすという情報を同じハ格の要素が伝える」という意味をもつことが認定でき,このゼロ代名詞の照応要素が「港区」となると決定できる.このように,接続語のタイプで照応要素が決定できない場合でも,用言の意味属性を利用することで用言間の意味的関係が認定でき,文内照応が可能となる.\vspace{2mm}\noindent{\bf(b)用言意味属性と接続語による制約}\vspace{1mm}3.2.1で示した接続語のタイプによる格の共有による制約は,文内照応解析に極めて有効であると期待される.しかし,接続語の種類によっては1種類の接続語が複数の接続語タイプの曖昧性を持つ場合がある.例えば,接続語「て」は,接続語の前後の文の関係に関して,動作の様態を示すA類の意味,時間関係や原因を示すB類の意味,並列表現を示すC類の意味がある.例えば,(3)の文における接続詞「て」は,子供達の遊び方を示し,様態を示すAタイプの意味となる.これに対して,次の文では,\begin{quote}(\sent{sent:6})彼は成長して(φが)立派な紳士になった.\end{quote}\noindent接続詞「て」は原因理由を示し,B類の意味となる.よって,このような接続語に対しては,接続語の前後の用言意味属性,様相表現の種類の共起によって接続語の意味を特定し接続語のタイプを決定する必要がある.例えば,(3)の文では,用言「かける」用言「遊ぶ」の用言意味属性はともに身体動作であり,ハ格の要素が用言「かける」の後ろにあることから,様態の関係を示すことが決まる.同様にして,(6)の文では,用言「成長する」用言「成る」の用言意味属性はともに属性変化であることから,属性変化することによって属性変化するという関係を示す文であると認定でき,原因理由の関係を示すことが決まる.これにより,用言「成る」のガ格のゼロ代名詞の照応要素を用言「成長する」のハ格である「彼」と決めることができる.このように,意味の曖昧性を持つ接続語の解析に,用言意味属性は有効であり,これによって文内照応要素が正確に決定できる.さらに,これは,接続語を正確に機械翻訳するためにも必要な処理となる.\subsubsection{様相表現による制約}様相表現は,ゼロ代名詞の文章外照応要素を決定するうえで最も強力な制約となる\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}.例えば,ガ格がゼロ代名詞化している場合には,様相表現「〜したい(φwantto〜)」(希望)や「〜してほしい(φwantφto〜)」(三人称希望・使役)を伴うと,照応要素は``I''になり,様相表現「〜してはいけない(φmustnot〜)」(禁止)や「〜するべきだ(φshould)」(義務)を伴うと,照応要素は``you''になると言える.このような特長は,文内照応解析にも有効となる.例えば,\begin{quote}(\sent{sent:7})彼が天文クラブ員なので(φが)あの星を知っているだろう.\end{quote}\noindentという表現では,接続語「なので」がB類であるので,同一文内でガ格の要素が必ず共有するとはいえないため,接続語のタイプのみでは照応解析できない.しかし,推量を示す様相表現「だろう」が用言「知る」に伴っているので,ガ格は"I"以外の要素が来ると予測され,「彼」が照応要素となる.このように,文内照応解析においても様相表現により照応要素を決定することが出来る.\vspace*{-5mm}\subsection{アルゴリズム}3.1と3.2で示した議論を元に,同一文内に照応要素を持つゼロ代名詞の解析アルゴリズムについて提案する.但し,日本文を英訳するうえで必須要素となるゼロ代名詞のみを解析対象とする.前述の条件をアルゴリズム化する際には,照応要素が文章中に現われない場合や,他の文に現われる場合の解析精度も考慮にいれて,全体的にゼロ代名詞の解析精度が良くなるように実現する必要がある.処理アルゴリズムは,以下のとおりである.なお,各ステップにおいて文章内外の照応要素を決定する際には,アルゴリズム中に記した条件だけではなく,用言がゼロ代名詞に課す意味的制約を満たすかも検証する.\vspace*{2.5mm}\begin{enumerate}\item[Step-1]ゼロ代名詞を検出する.(例えば,\cite{NakaiwaIkehara1993}で提案した手法で検出する)\\もし検出されれば,現在解析中の文のタイプによって処理を分類する.複文・重文の場合はStep-2へ,単文の場合はStep-3へ.\item[Step-2]複文・重文におけるゼロ代名詞の照応解析を下記の順で行う.\begin{enumerate}\item[1)]用言意味属性,様相表現および接続語の種類による文内照応解析.(条件:3.2節・用言意味属性による制約(b),3.2節・様相表現による制約)\item[2)]接続語のタイプによる文内照応解析.(条件:3.2節・接続語による制約)\end{enumerate}照応要素が決定すれば解析終了,決定しなければStep-3へ.\item[Step-3]現在解析中の文に埋込文や引用文が含まれている場合,用言意味属性の制約を用いた文内照応解析.(条件:3.2節・用言意味属性による制約(a))\\照応要素が決定すれば解析終了,決定しなければStep-4へ.\item[Step-4]他の文に照応格要素が存在するか調査する.(例えば,\cite{NakaiwaIkehara1993}の手法で調査する)\\照応要素が決定すれば解析終了,決定しなければStep-5へ.\item[Step-5]ゼロ代名詞が支配する用言の用言意味属性,様相表現および接続語の種類による文章外照応解析\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}.\\照応要素が決定すれば解析終了.\item[Step-6]照応要素が決定できない場合,用言がゼロ代名詞に課す意味的制約により照応要素を推測.また受け身変形可能な場合は受け身化し解析終了.\end{enumerate} \section{評価} \subsection{評価の方法}3章で提案した文内照応解析の方法を,日英機械翻訳システムALT-J/Eの上に実現し,作成したルールが整合性を保ちつつ正しい解析結果を与えるか,ルールは容易に作成できるかの2点を中心に,評価を行った.実験条件は以下の通りである.\subsubsection{解析対象}日英機械翻訳システム評価用例文3718文中のゼロ代名詞512文の内,文内照応解析が必要なゼロ代名詞139件を解析対象とした.\subsubsection{照応解析ルール}上記139件のゼロ代名詞に対して,3章の方法で作成した70件の規則を使用した\footnote{現状では,構文解析等の段階で失敗する文を本技術の評価に使用するのは困難である.そこで,ここでは,提案した手法の技術的限界を見極めるため,ルールの整合性の検証を評価の第1の目的とし,ルール作成に使用した標本(デバッグされた文)を,評価に使用(ウインドウテストと)した.今後,システム全体のデバッグを待って,ブラインドテストによる評価も行っていく予定である.}.また,本手法の解析精度を客観的に調査するため,Centeringアルゴリズムを用いた場合の解析精度も調査した.\subsubsection{用言意味属性体系}図1に示すような用言の意味属性(107分類)を,日英機械翻訳システムALT-J/Eの日英構造変換用パターン対辞書(約15,000パターン)に付与し,それを利用した\cite{NakaiwaYokooIkehara1994}.\begin{figure}[htbp]\begin{center}\fbox{\epsfile{file=VSA.epsf,scale=0.65}}\end{center}\caption{用言意味属性体系}\label{fig:vsa}\end{figure}\subsubsection{ルール適用文}文内照応解析のための上記70ルールを,文内照応解析が必要な139件に加えて,文献\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}の手法で文章外照応解析が可能となるゼロ代名詞(ガ格-Iorwe,ガ格-you,ガ格-人,ガ格-it,ニ格-youの5種類,175件)および,受け身変形することにより照応解析が不要となるゼロ代名詞173件の計487件にも適用した.これにより,上記139件が正しく解析出来るかに加えて,本来,文章外照応が必要であったり,照応解析が不要であるゼロ代名詞に,誤って文内照応解析ルールが適用されないかを調査した.\subsubsection{評価項目}解析規則の種類と解析精度の関係を調べるため,以下の2項目に分けて評価した.\begin{itemize}\item照応解析のための制約条件と解析精度の関係\\接続語,用言意味属性,接続表現に関する3種類の制約条件と解析精度の関係を評価した.\item照応解析ルールの複雑さと解析精度の関係\\照応解析ルールの複雑さを定式化し,それと解析精度の関係を求めた.\end{itemize}\vspace*{-3mm}\subsubsection{評価尺度}本評価では,以下の2種類の解析精度を示す評価尺度を用いた.\begin{itemize}\item再現率\\文内照応解析が必要となるゼロ代名詞139件なかで正しい照応要素が決定できたゼロ代名詞の割合である.\item適合率\\上記70件の文内照応解析ルールを用いて文内照応であると認定され文内照応要素が決定されたゼロ代名詞のなかで,正しい照応要素が決定できたゼロ代名詞の割合である.\end{itemize}ゼロ代名詞の照応解析手法を機械翻訳システム上に実現する場合を考えると,再現率の低下と適合率の低下は異なった影響を訳文品質に与える.まず,誤って照応解析した要素の修正(後編集)という観点から考えると,再現率の低下に影響する解析誤りは,補えなかった照応要素発見しそれを補う後編集作業を必要とし,適合率の低下に影響する解析誤りは,誤って補った要素を発見しそれを正しい照応要素に置き換える後編集作業を必要とする.両者の後編集の作業量を比較すると,前者は,訳語表現が受身表現に変換されたり照応要素未定のマークが訳文中に示されるのに対し,後者は,文の流れや原言語表現を詳しく調査することが必要になるので,適合率の低下の方が再現率の低下より悪影響が大きいと言える.また,得られた訳文品質の優劣の観点から見ると,適合率の低下に影響する解析誤りは,誤って補った要素により決定的な内容の誤解が生じる恐れが大きいのに対して,再現率の低下に影響する解析誤りは,補われなかった要素の解釈が読者に任されるため,訳文品質への被害が少ないと言える.以上のことから,再現率が低い場合に比べ適合率が低い場合の方が大きく影響するため,機械翻訳システム上で実現する際には,適合率の方が再現率より重要であると言える.\subsection{評価結果}\subsubsection{照応解析の条件と解析精度の関係}照応解析条件と解析精度の関係を調べるために,3章で提案した手法の再現率と適合率を次の4種類の条件で評価した.\begin{itemize}\item接続語による制約のみを用いた場合\item接続語と用言意味属性による制約を用いた場合\item接続語と様相表現による制約を用いた場合\item接続語と用言意味属性と様相表現による制約を用いた場合\end{itemize}また,本評価では,本手法の解析精度を客観的に計るため,3.1で示したCenteringアルゴリズムを適用した場合の解析精度も評価した.表3に照応解析条件と解析精度の関係を示す.この表から,3.2に示す条件をすべて用いることにより,139件中136件のゼロ代名詞の文内照応解析がルールの不整合なしに正しく行なわれ,Centeringアルゴリズムより再現率,適合率とも精度が高いことが分かる.また,接続語による条件に用言意味属性による条件を追加することによって,再現率,適合率ともにCenteringアルゴリズムより高い値が得られることから,用言意味属性導入の効果が分かる.また,用いた条件にかかわらず本手法はCenteringアルゴリズムより高い適合率を得ている.次に,本評価結果の中から,Centeringアルゴリズムでは正しく解析できないが,提案手法では正しく解析できた例を示す.例文(4)では,照応要素がこの文だけでは決まらず文内照応解析処理としては決定する必要がないが,Centeringアルゴリズムでは,従文の「海」を照応要素と認定してしまい,適合率を低下させてしまった.しかし,我々の手法では,接続語「ても」がB類でありガ格は照応要素のならないため,文内に照応要素は存在しないと認定し,適合率の低下をまねかなかった.さらに,\begin{quote}(\sent{sent:8})土地が転売される中でどんどん(φが)値上がりする.\end{quote}\noindentでは,「土地」が用言「転売される」を修飾すると構文解析されるので,用言「値上がりする」のガ格がゼロ代名詞となる.この解析結果をもとに単文に分割すると「(φが)〜中でどんどん値上がりする」と「土地が転売される」になり,本表現はもともとは後方照応指示表現ではないが,この解析結果をもとにCenteringアルゴリズムを適用しようとすると,後方照応指示表現と等価になり,このアルゴリズムでは解析不可能となる.しかし,我々の手法では,2種類の用言の用言意味属性と様相表現より,「転売される」と「値上がりする」の意味的関係が認定され,「土地」が照応要素として正しく認定される.上記の結果より,本手法で用いたそれぞれの条件が文内照応解析に有効に働いていており,本手法は機械翻訳システム上での実現に適した手法であることが言える.\begin{table}[htbp]\begin{center}\caption{照応解析条件と解析精度の関係}\vspace{2mm}\leavevmode\footnotesize\begin{tabular}{||c|c|c||}\hline\hlineゼロ代名詞&\multicolumn{2}{c||}{解析精度}\\\cline{2-3}照応要素&再現率&適合率\\解析条件&&\\\hline\hline接続語&71\%(98/139)&96\%(98/102)\\\hline接続語+用言意味属性&88\%(123/139)&98\%(123/125)\\\hline接続語+様相表現&73\%(101/139)&97\%(101/104)\\\hline接続語+用言意味属性+様相表現&98\%(136/139)&100\%(136/136)\\\hline\hlineCenteringアルゴリズム&74\%(103/139)&89\%(103/116)\\\hline\hline\end{tabular}\\\end{center}\label{tab:eval-cond}\end{table}\subsubsection{照応解析ルールの複雑さと解析精度の関係}照応解析ルールの複雑さに対する解析精度を検討するために,3.2で提案した手法の解析精度をルールの複雑さに応じて評価した.ここでルールの複雑さCは,接続語,様相表現,用言意味属性に対する条件が1箇所あるとそれぞれ1点とし,その積算を複雑さとした.\noindentC=接続語による制約の数+用言意味属性による制約の数+接続語による制約の数\noindentこの計算によると,例えば,接続語の条件があり,主文に用言意味属性,従文に対して様相表現と用言意味属性の条件がある場合には,様相表現1点\(\times\)1+用言意味属性1点\(\times\)2+接続語1点\(\times\)1の計算により複雑さは4となる.表4に照応解析ルールの複雑さと解析精度の関係を示す.この結果によると,139種類中136種類のゼロ代名詞を照応解析するために用いられたルール数は70種類であった.また,複雑さが3以下のルール(58種類)のみを用いた場合の解析精度は再現率が88%,適合率が99%,4以下のルール(66種類)のみを用いた場合は再現率が94%,適合率が100%と,簡単なルールだけでもルール間の不整合を起こさずに高い解析精度が得られることが分かった.この結果から,接続語,用言意味属性,様相表現を用いて文内照応解析をおこなうことにより,比較的単純なルールにより高い解析精度が得られることが分かった.\begin{table}[htbp]\begin{center}\caption{照応解析ルールの複雑さと解析精度の関係}\hspace{2mm}\footnotesize\begin{tabular}{||c|c|c|c|c||c|c||}\hline\hline\multicolumn{3}{||c|}{解析条件}&ルールの&ルール数&\multicolumn{2}{c||}{解析精度}\\\cline{1-3}\cline{6-7}接続語&用言意味属性&様相表現&複雑さ&&再現率&適合率\\\hline\hline1&0&0&1&38&71\%(98)&96\%(98)\\\hline1&0&1&2&40(+2)&72\%(+1\%)(100(+2))&97\%(100/103)\\\hline1&2&0&3&57(+17)&87\%(+15\%)(121(+21))&99\%(121/122)\\\hline1&0&2&3&58(+1)&88\%(+1\%)(122(+1))&99\%(122/123)\\\hline1&2&1&4&65(+7)&94\%(+6\%)(130(+8))&100\%(130/130)\\\hline2&2&0&4&66(+1)&94\%(+1\%)(131(+1))&100\%(131/131)\\\hline2&3&0&5&68(+2)&96\%(+2\%)(134(+3))&100\%(134/134)\\\hline2&2&2&6&70(+2)&98\%(+2\%)(136(+2))&100\%(136/136)\\\hline\hline\end{tabular}\\\end{center}\label{tab:eval-comp}\end{table} \section{まとめ} 本論文では,接続語,用言意味属性,様相表現の語用論的・意味論的制約を用いた日本語ゼロ代名詞の文内照応解析手法を提案した.本手法は,接続語のタイプ,用言意味属性,様相表現のタイプによりゼロ代名詞の同一文内に存在する照応要素が決まるという語用論的・意味論的な制約に着目し,文の表現のタイプに応じて文の意味を決定し,照応要素を決定するものである.本手法を日英翻訳システムALT-J/E上に実現して,日英翻訳システム評価用例文(3718文)中のゼロ代名詞を有する文を対象に,照応解析ルールを整備した状態で性能評価を行った.本標本実験によると,英語表現で訳出が必要な同一文内に照応要素を持つゼロ代名詞(139件)が再現率98%,適合率100%の精度で正しい照応要素を決定でき,従来の代表的な手法であるCenteringアルゴリズムを用いた場合(再現率74%,適合率89%)より高い精度が得られることがわかった.特に,適合率100%と認定した照応関係に誤りがないことから,本手法が機械翻訳システムでの実現に適することがわかった.また,照応解析条件と解析精度の関係から,それぞれの条件が文内照応解析に有効に働いていることが分かった.さらに,使用した照応解析ルールの複雑さと解析精度の関係から,高い解析精度が比較的簡単なルールを記述することで得られる(複雑さ3以下のルールで再現率87%,適合率99%)ことが分かった.以上の結果,語用論的・意味論的制約を用いた本手法の有効性が実証され,これらの制約を用いたルールを蓄積することによって,補完すべき要素が同一文内に存在する省略格要素の大半が復元できるという見通しを得た.今回の実験では,日英機械翻訳システム評価用例文を対象にウインドウテストで本手法を評価したが,今後は,本手法で提案した4種類の制約を用いた照応解析ルールをより多く蓄積し,様々な文種の例文を用いてブラインドテストによる評価を行っていきたい.また,現在,この照応解析ルールは人間による分析結果をもとに人手で作成しているが,この照応解析ルールの自動獲得に関する検討も行っていく予定である.\acknowledgment本研究を進めるにあたりご指導いただいた河岡司同志社大学教授,松田晃一NTTコミュニケーション科学研究所所長に感謝致します.また,日頃熱心に討論していただくNTTコミュニケーション科学研究所翻訳処理研究Gの皆様に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\appendix\noindent{\bf具体的な照応解析ルール}本文中で説明に利用した例文中のゼロ代名詞の照応解析に利用する具体的な文内照応解析ルールを下表にまとめる.なおここでは,文内照応解析における語用論的・意味論的制約の有効性の説明に利用した4文のルールのみについて示す.\begin{table}[htbp]\label{tab:standard1}\hboxto\hsize{\hfil\leavevmode\footnotesize\begin{tabular}{||c|c|l|l||}\hline\hline利用する制約&文番号&照応解析条件&照応要素\\\hline\hline用言意味属性&(5)&引用文の主語=「ハ格」&主文の主語の\\&&引用文の用言意味属性=「ガ格の属性変化」&ゼロ代名詞は\\&&主文の主語=「ゼロ代名詞」&引用文の主語\\&&主文の用言意味属性=&のハ格を照応\\&&「ガ格が引用文の内容を精神的移動」&\\\hline用言意味属性&(3)&接続語=「て」&従文の主語の\\+&&主文の主語=「ハ格」&ゼロ代名詞は\\接続語&&主文の用言意味属性=従文の用言意味属性&主文の主語の\\&&=「ガ格の身体動作」&ハ格を照応\\&&従文の主語=「ゼロ代名詞」&\\\cline{2-4}&(6)&接続語=「て」&主文の主語の\\&&従文の主語=「ハ格」&ゼロ代名詞は\\&&主文の用言意味属性=従文の用言意味属性&従文の主語の\\&&=「ガ格の属性変化」&ハ格を照応\\&&主文の主語=「ゼロ代名詞」&\\\hline用言意味属性&(7)&接続語=「なので」&主文の主語の\\+&&従文の主語=「ガ格」&``I''以外&ゼロ代名詞は\\接続語&&従文の用言意味属性=「ガ格がヲ格を知覚する」&従文の主語の\\+&&主文の主語=「ゼロ代名詞」&ガ格を照応\\様相表現&&主文の様相表現=「だろう」&\\\hline\hline\end{tabular}\hfil}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{中岩浩巳}{1985年法政大学工学部電気工学科卒業.1987年名古屋大学大学院工学研究科電気系専攻博士前期課程終了.同年,日本電信電話(株).以来,日英機械翻訳技術の研究に従事.現在,NTTコミュニケーション科学研究所主任研究員.1995年9月より1年間マンチェスタ工科大学(UMIST)客員研究員.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{池原悟}{1967年大阪大学工学部電気工学科卒業.1969年同大学大学院修士課程終了.同年,日本電信電話公社に入社.以来,電気通信研究所において数式処理,トラヒック理論,自然言語処理の研究に従事.1996年より鳥取大学工学部知能情報工学科教授,スタンフォード大学客員教授.工学博士.1982年情報処理学会論文賞,1993年情報処理学会研究賞,1995年日本科学技術センター賞(学術賞),1995年日本人工知能学会論文賞受賞.言語処理学会,電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V26N03-01
\section{はじめに} 近年,CPUが1.2~GHz程度で主記憶が1~GB程度だが安価な小型計算機が広く利用されている.その小型計算機では様々なサービスが提供されている.キーボードなどの入力装置を有しない状態で使用される際に,小型計算機に指示を出す手段として,言葉による命令があげられる.ここで,車載器のように屋外環境での使用が想定される場合,インターネットの常時接続が期待できない.また,個人利用においてはスタンドアロンが望ましい.そのため,言語処理を小型計算機上で行うことが要求される.小型計算機での言語処理への要件が幾つかある.一つは,サービスを操作する命令文は規定の文であれば確実に受理されることがユーザに約束できることである.サービスに応じて語義が区別されることが必要である.つまり,あるサービスにおいてはキーとなる用語であっても,別のサービスにおいてはキーにならないことが区別されることである.したがって,語義解析やチャンキングを行う際,サービスに依存することが必要である.また,一つは,少し言い回しの外れた文であっても受理されることである.単純なパターンベースの解析手法では対応がとりにくい.最後の一つは,受理されなかった言い回しは,サービスの利用中に,受理に向けて学習されることである.サービスのためにCPUと主記憶の計算リソースを残しておく必要があるため,言語の解析,および,追加的に行う学習は軽量でなければならない.関連研究として,対話処理において,対話行為を識別する手法が提案された.識別における有力な素性は,単語n-gram,および,直前の発話の対話行為である.対話行為毎に詳細な素性の選択を行うことで,対話行為の識別性能の向上が示された\cite{Fukuoka_2017}.対話行為識別(意図解析)の後段での応答処理のために,発話文からの情報抽出が必要である.その一つがスロットフィリングである.スロットフィリングは,確率有限状態トランスデューサ,識別器に基づく系列ラベリング,条件付き確率場ConditionalRandomFields(CRF)の3つの解法の中でもCRFが良好に動作することが示された\cite{Raymond_2007}.近年では,意図解析,スロットフィリングおよび言語モデリングを同時に行う手法が提案された\cite{Liu_2016}.この手法では,RecurrentNeuralNetwork(RNN)により単語n-gram相当の特徴を含む情報を参照した意図解析が行われた.同時に,単語単位での系列ラベリングに相当する働きにより,単語とスロットとの対応が識別されることで,スロットフィリングが行われた.意図解析とスロットフィリングが同時に尤最もらしいことが評価されるため,全体の識別性能が向上したものと解釈できる.なお,Embeddingからの単語ベクトルと,前時刻(単語単位)からの意図クラスとが合わさることで,意図毎(対話行為毎)の素性選択に相当する語彙識別が働いた可能性がある.Liuらの手法を改良したRNNを用いることについて,日本語文における解析性能が報告された\cite{Nagai_2018}.RNNの双方向性,Attentionモデル,未知語処理が追加された.未知語処理には汎用単語分散表現が用いられた.この分散表現の獲得には日本語Wikipediaテキストからのword2vecでの解析が行われた.意図解析とスロットフィリングなどの言語理解の後段の処理として,対話状態追跡,対話ポリシの適用,自然言語生成がある.対話状態追跡では,スロット値の候補に確率を対応付けて信念状態を表す.対話ポリシの適用は,タスクとして外部知識を検索するなどを行い,応答のための対話行為を決める.自然言語生成は対話行為からテキストを生成する.これらの流れをニューラルネットワークを基礎としてend-to-endでモデル化することが提案された\cite{Liu_2018}.システム状態の設計は複雑になりがちであるが,Liuらの手法は信念状態がニューラルネットワークに組み込まれることなどによりシステムの状態が定義されることで,設計の問題を回避した.さらに,強化学習を用いることで,状態に応じたシステムの応答を学習した.一方,音声認識,意図やスロットの解析には誤りが含まれやすい.言語理解に対する信頼性が低いことを考慮してシステムの応答を行うために部分観測マルコフ決定過程PartiallyObservableMarkovDecisionProcess(POMDP)が対話システムに導入された\cite{Williams_2007}.POMDPでは信念状態に対するシステムの応答を決める.対話事例から強化学習を行うことで対話ポリシをモデル化できる.後段の処理でのこれらの手法は,複数ターンに渡る発話を通じてタスクを達成させるために有益な手法である.ここで,本稿では,小型計算機への命令を受理するための言語理解の段階,すなわち,意図解析およびスロットフィリングについて議論する.言語理解の後段の処理は,命令を受けたサービス処理部が対処するものとする.言語理解の段階においては,単語n-gram素性,文脈情報,意図毎の素性選択,未知語対応,および,意図解析とスロットフィリングの同時性という5点に着目する.しかし,小型計算機において,RNNによる意図解析・スロットフィリングの学習と解析は計算コストが高い.ここで,スロットフィリングとは,文頭から文末にかけて文の単語列をスキャンする間に,参照している単語の代入先を識別することである.スキャン(参照先を次単語に進める)と代入というアクションを,状態に応じて適切に行うことでスロットフィリングが実現できる見込みがある.状態に対するアクションを学習する方法として強化学習があげられる.そこで,本稿では,上記5点を考慮しつつ,サービス依存のパージングおよび強化学習を用いて,発話文の学習と解析を行うことを目的とする.自動車旅行を支援する車載器の上に提案手法を実装し発話文解析の評価を行う.本稿の構成は次のとおりである.まず第2章では,発話事例,意図とスロットに関する諸定義,および,発話文コーパスを示す.第3章では提案手法を示す.第4章で車載器に実装した発話文解析について性能を評価する.第5章で提案手法の特性を考察し,第6章でまとめを述べる. \section{発話文と諸定義} \subsection{車載器での発話例}本稿の車載器は表\ref{tab:services}に示すサービスを提供する.サービスの表現方法は,音と映像である.音は音楽や合成音声である.映像は,背景画像,箇条書き表示,タイトル表示,トースト表示,動画である.表現方法が競合しない限り複数のサービスが同時に実行できる.競合する場合,連携して起動されるサービスが劣位となり,ユーザから直接命令されたサービスが優位となる.\begin{table}[t]\caption{サービス一覧}\label{tab:services}\input{01table01.tex}\end{table}まず,簡単な発話例を以下に示す.話者に付随する数字は発話の順番を表す.例1:\begin{description}\item1ユーザ:「音楽をかけてください」\item2ユーザ:「鳥取の地図を表示してください」\item3ユーザ:「次に変えてください」\end{description}1文目で「音楽サービス」が起動する.以前からの続きの曲が再生される.「アルバムアートサービス」によりその曲のアルバムアートが車載器のモニタに表示される.2文目で「地図サービス」が起動する.画面が書き換えられるため,「アルバムアートサービス」が終了する.画面には「鳥取県の地図」が表示される.3文目で「次の曲」が再生される.「次に変える」は,何を次に変えるのかが不明確であるが,「音楽サービス」が起動中であるため「次の曲の再生」という意味で処理される.なお,「地図サービス」が起動中であるため「アルバムアートサービス」は自動的には起動しない(アルバムアートの表示が命令されれば起動する).次に,ユーザの発話意図が実行中のサービスの範囲に限定される発話例を以下に示す.例2:\begin{description}\item1ユーザ:「予定を登録してください」\item2車載器:「予定を話してください」\item3ユーザ:「明日の17時にレストランに行きます」\item4ユーザ:「その前に駅に迎えに行きます」\item5ユーザ:「以上です」\item6車載器:「登録しました」\end{description}1文目で「スケジュール管理サービス」が起動する.後続の発話文がこのサービスに向けられていることを前提として発話文解析が行われる.3文目および4文目から伝達される事象は「スケジュール内容」として登録される.5文目でこの前提が解除される.ユーザの発話意図が強く限定される発話例を以下に示す.例3:\begin{description}\item1ユーザ:「Wikipediaで調べてください」\item2車載器:「何について調べますか」\item3ユーザ:「東京タワーです」\end{description}1文目で「観光ガイドサービス」が起動し,サービス処理部でクエリを待つ状態になる.3文目では意図解析は行われず,直接サービス処理部で文字列の処理が行われる.判定詞の除かれた文字列「東京タワー」がクエリとして扱われる.最後に訂正を含む発話例を以下に示す.例4:\begin{description}\item1ユーザ:「鳥取の地図じゃなかった島根の地図を表示してください」\end{description}地図サービスは「島根県」の地図を表示する.文の解析の前半では「鳥取」が表示の対象となるが,解析の後半では「島根」だけが対象となる.\subsection{発話文の分類}車載器では,ユーザから話し掛けることが基本となる.ユーザの発話は次の4種類に分類される.\begin{description}\item分類1.ユーザが新規のサービスについて発話する.\item分類2.ユーザが実行中のいずれかのサービスについて発話する.\item分類3.ユーザが実行中の特定のサービスについて発話する.\item分類4.車載器からの質問に,ユーザが回答として発話する.\end{description}前節の例でいえば,例1の1文目と2文目は分類1であり,3文目は分類2である.サービスを特定する単語の有無が分類1と分類2を区別する手がかりとなる.例2の3文目と4文目は分類3である.5文目のように登録を終了する意図の発話があるまでは分類3が想定されている.例3の3文目は分類4である.これらの分類では,実行中のサービスに発話が継続するか否かという区別がある.分類1の発話は継続性が無い.本稿では「継続性=\cns{new}」というフラグを用いることにする.分類2,3,4は継続性がある.本稿では「継続性=\cns{cont}」というフラグを用いることにする.継続性のない発話文にはサービスを特定する手がかり語が含まれる.継続性のある発話文にはサービスを特定する語は必ずしも含まれない.一方,分類3と分類4ではサービスの処理側で発話解析の方法が指定される.\subsection{意図クラスとスロット}ユーザは,発話によりサービスを起動して細かい指示を出す.本稿では,「サービス名,メソッド名,および,メソッド引数」の3つ組を意図クラスと呼ぶことにする.一般に対話理解においては,対話行為識別の後に構造解析を経て意図解析・スロットフィリングという過程がある.対話行為には対話のドメインに依存しないカテゴリとして「Inform,Request,Confirm,Question,Agreement/Disagreement」などが用いられる\cite{Bunt_2017}.本稿では,\cite{Liu_2016,Nagai_2018}のように,発話文からドメインに依存して直接的に意図解析・スロットフィリングを行うことを議論する.例えば,「音楽を再生してください」という発話文からは「\cns{serviceMusic.comPlay()}」という意図クラスが同定される.「音楽が聴きたい」も「\cns{serviceMusic.comPlay()}」という意図クラスが同定される.ここで,「\cns{serviceMusic}」は「音楽サービス」,「\cns{comPlay()}」は「曲の再生を意味するメソッド」である.スロットはメソッドの引数と対応する.例えば,「次の曲に変えてください」という発話文には,「\cns{serviceMusic.comSelect(dir)}」という意図クラスが対応し,「\cns{dir=次}」というスロットフィリングが行われることを理想とする\footnote{\cns{dir}はdirectionの略.選曲の方向(次の曲/前の曲など)を表す.}.\subsection{発話文コーパス}ユーザの発話文をコーパスに収録する.コーパスの一部を表\ref{tab:corpus}に示す.収録した項目は,「通番,発話文,サービス,メソッド,継続性」である.1文単位で収録する.通番は管理用である.発話順は不問である.\begin{table}[t]\caption{ユーザによる発話文のコーパス(説明用に抜粋)}\label{tab:corpus}\input{01table02.tex}\par\vspace{4pt}\small※メソッド引数(スロット名)の意味:\cns{obj}=object対象,\cns{act}=action動作,\cns{dir}=direction内容選択の方向,\cns{unit}=単位,\cns{loc}=location場所・地名,\cns{io}=zoom-in/out拡大縮小の方向,\cns{tmg}=timing日時・時間的・順序的な関係の表現,\cns{msg}=message用件.\end{table}発話文に挿入されるタグはスロットに代入される部分を表す.一つのスロット名が複数の部分と対応することもある(\#21での\cns{tmg}タグ.数は表\ref{tab:corpus}の通番,以下同様).「\cns{cancel}」属性のあるタグは,前述の例4で示したとおりで,スロットフィリングの最終的な解とならない部分を表す(\#15,\#16).スロットに代入する語句が発話文に存在しない場合がある.つまり,文意としては代入する情報が理解できるが,その情報が陽に記述されていない場合である.この場合,タグを付与することができない.そこで,メソッドの引数にデフォルト値を指定する形式を認めている(\#6,\#9).サービスとメソッド名が一致するがメソッドの引数が異なる場合,両者の意図クラスは異なるものとして扱う(\#6,\#7,\#8,\#9).発話文の表現が異なるが,サービス,メソッド名,メソッド引数が一致する場合,同じ意図クラスであり,同等あるいは同類の文である(\#17,\#18,\#19).一方,同じ表現の発話文であってもサービスやメソッドが異なることがあり,曖昧性のある文がある(\#4,\#11).なお,曖昧性の解消は,実行中のサービスと継続性を手がかりに解析的に解消する.さらには,サービスの処理部における命令実行の成否をもって動的に解決できる.すなわち,スロットに誤った代入があったことによりサービスの処理が失敗する際,発話文解析に誤りがあったと解釈するものである.\begin{figure}[b]\begin{center}\includegraphics{26-3ia1f1.eps}\end{center}\caption{提案手法の流れ}\label{fig:proposed_method}\end{figure} \section{提案手法} 小型計算機における発話文の学習と解析の手法を提案する.提案手法の流れを図\ref{fig:proposed_method}に示す.発話文の解析の過程は,ユーザから発話文が入力されて始まり,発話文のパージング,意図解析,スロットフィリング,解候補の選択,そしてサービスの実行を行うという流れとなる.学習の過程は,まず,発話文コーパスから語句辞書・チャンクルールを手動で設計・構築し,次に,意図解析用事例の生成,および,スロットフィリング用ルールベースの学習を行うという流れとなる.本章での各節では,パージング,意図解析,スロットフィリング,解候補の選択の順にそれぞれを説明する.\subsection{パージング}パージングでは,形態素解析,意味属性付与,サービス別アノテーションおよびチャンキングを行う(図\ref{fig:parsing}).まず,形態素解析器としてmecab\cite{Kudo_2004}を利用し,品詞情報を付与する.意味属性付与では日本語語彙大系\cite{Ikehara_1997}の名詞意味属性を付与する.次に,サービスで共有される語句辞書あるいはサービス毎に用意された語句辞書およびチャンクルールを用いて,品詞や語義を表すタグの付与およびチャンキングを行う.語句辞書・チャンクルールについては次項で説明する.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{26-3ia1f2.eps}\end{center}\caption{パージングの構成}\label{fig:parsing}\end{figure}サービスごとにアノテーション等を用意することで,語義やチャンクの曖昧性に対処する.例えば,「三月」という語句は,「スケジュール管理サービス」においては「日時」を表す語句としてタグが付与されることが望ましい.「音楽サービス」においては歌手・曲名の一部に使われる単語であるため「日時」のタグ付与は望ましくない.しかし,パージングの段階では語義やチャンクの決定ができない.そこで,本稿では,サービスを仮定し,サービスが扱う語義・チャンクに合わせてアノテーションとチャンキングを行い,その結果をサービスごとのアレイに残すことにした.\subsubsection{語句の定義}発話文を構成する語句は次のとおりに分類する:\begin{itemize}\itemモダリティ:判定詞自体,および,述語や判定詞に後続する表現\item一般予約語句:サービスに関する名称,機能,操作量\item組込み予約語句:実装と密接に対応する語句\item一般語句:その他の語句\end{itemize}モダリティは,「〜ですか」,「〜せずに」,「〜あります」,「〜たくないです」,「〜たいです」,「〜です」,「〜でした」,「〜じゃなくて」,「〜なかったです」,「〜せられ」,「〜てください」,「〜ないでください」などの表現をカバーし,それぞれ,質問(\cns{AAsk}),除外(\cns{AExc}),存在(\cns{AExi}),拒否(\cns{AIna}),欲求(\cns{AInd}),伝達(\cns{AInf}),伝達(過去)(\cns{AInp}),否定(\cns{ANeg}),不在(\cns{ANex}),使役・受け身(\cns{APss}),要求(\cns{AReq}),要求(否定)(\cns{ARqn})というモダリティのタグが対応する.一般予約語句は,「地図/マップ」,「音楽/ミュージック」などサービスを表す語句,「表示をし/表示し/表示/見せ」,「かけ/再生をし/再生し/再生」など機能・メソッドを表す語句,「上/下/左/右」,「東/西/南/北」,「前/後/次」など機能の操作量を表す語句である.サービスや機能を表す語句を「/」で隣接して列挙することで同義語のグループを定義する.操作量を表す語句を「/」で隣接して列挙することで同類語のグループを定義する.一般予約語句には「\cns{R}数字」という語義を表すタグを用いる.数字はグループごとに自動で割り当てられる.組込み予約語句は,サービスにおける実装と密接に対応する語句である.具体的には日時の表現である.例えば,「明日」という表現に「基準日時の翌日を求める」という処理が対応づけられている.日時の表現には\cns{TMG}というタグを用いる.一般語句とは,モダリティと予約語句にならない語句である.一般語句に対しては粗い品詞タグ付与ルール,および,後述するチャンクルールを併用する.助動詞や動詞・非自立(\cns{A}),副詞,形容動詞語幹,形容詞(\cns{M}),数(\cns{NM}),サ変名詞(\cns{NS}),名詞や名詞接辞(\cns{N}),助詞(\cns{P}),動詞・自立(\cns{V}),その他の単語(\cns{W})という粗い品詞のタグを用いる.また,一般名詞意味属性を参照して,場所(388--532.数は一般名詞意味属性コードの範囲,以下同様)の名詞(\cns{NLoc}),場の関係(2610--2669)の名詞(\cns{NLcr}),抽象的関係(2422--2515)の名詞(\cns{NRel}),抽象(1000--2715)の名詞(\cns{NAbs})という品詞のタグを用いることがある.\subsubsection{チャンクルール}チャンクルールは大きく3種類を設けている.狭いチャンクルール,広いチャンクルール,および,特殊なチャンクルールである.狭いチャンクルールは,名詞連続,数連続,「\cns{N}の\cns{N}」型をまとめるルールである.広いチャンクルールは,狭いチャンクルールに加えて,動詞,修飾語句,数,サ変名詞,その他の単語に名詞が続く場合を名詞としてまとめるルールである.特殊なチャンクルールは,日時のチャンク(\cns{TMG}連続や,「\cns{TMG}の\cns{TMG}」型をまとめる),および,特別な助詞連続をまとめるルールである.\subsubsection{アレイ}図\ref{fig:parsing}におけるサービス別タグ付き文の詳細を構成するアレイについて説明する.形態素解析および意味属性付与の結果は,基礎アレイに記録される.\pagebreak3.1.1項および3.1.2項の辞書・ルールを用いるとタグが得られる.サービスに共有される語句は共有用語句辞書がカバーしており,基礎アレイを参照しながら共有用辞書を用いることで得られるタグは共有アレイのタグ列に記録される.ここで,共有アレイは基礎アレイを継承している.共有アレイを参照しながら,サービス別に定義された辞書やチャンクルールを用いることで得られるタグはサービス別のアレイのタグ列に記録される.意味列については,辞書・ルールを用いる際に参照したアレイの意味列を引き継ぐ.複数の単語・語句をまとめて1つの語句が得られる際は主辞の意味属性を引き継ぐ.なお,発話文は文字単位で管理し,品詞列・意味列・タグ列において対応する文字の範囲を記録している.\subsubsection{サービスごとの扱い}一般予約語句は,全てのサービスで共有できる部分を共有の語句辞書として収録し,サービス間で衝突する部分をサービスごとの語句辞書として収録する.例えば,「お気に入り」という語句は,「音楽サービス」においては,「プレイリスト,好きな曲」と同義語であるが,「観光スポットSNSブラウザサービス」においては,「ブックマーク」と同義語である.チャンクルールに関しては,音楽サービス,ビデオサービス,観光ガイドサービス,および観光ブログ紹介サービスでは広いチャンクルールを使用する.曲名などの検索クエリには一定でない品詞列が用いられるためである.スケジュール管理サービス,および駐車記録サービスでは特殊なチャンクを使用する.日時を正確に捉えるためである.残りのサービスでは狭いチャンクルールを使用する.サービスへの命令文の複雑さに応じて,語句辞書およびチャンクルールを調整できる.特定のサービスのために調整を行っても,サービスごとに辞書とルールを使い分けることができるため,他のサービスへの影響が生じない.ゆえに,サービス毎のアレイの使用には,車載器のサービスの改定が容易になるという利点がある.パージングの解析例を示す.なお,下記のアレイはタグ列を可視化したものである.例5:\begin{description}\item発話文:「お気に入りに登録してください」\item音楽サービスアレイ:\cns{お気に入り/R01003に/P登録し/R00080てください/AReq}\itemブラウザサービスアレイ:\cns{お気に入り/R08001に/P登録し/R00080てください/AReq}\end{description}例6:\begin{description}\item発話文:「初音ミクの曲をかけてください」\item駐車記録サービスアレイ:\cns{初音/NAbsミク/Nの/P曲/R00055を/Pかけ/R00056てください/AReq}\item音楽サービスアレイ:\cns{初音ミク/Nの/P曲/R00055を/Pかけ/R00056てください/AReq}\end{description}例5において「お気に入り」の語義が区別されていることが分かる.例6において「初音」という抽象名詞が,駐車記録サービスアレイにおいて確認されるが,音楽サービスにおいては粗い品詞で解釈され,かつ,広いチャンクでまとめられた.\subsection{意図解析}意図解析では,実行中のサービスを考慮しながら,発話文に対応する意図クラスを最近傍法で求める.ただし,解の良さは,後段のスロットフィリングの結果にも依存するため,一定の近さにある複数の意図クラスを解候補として出力することにする.また,継続性も解候補に添える.本節では,最近傍法用事例の生成,実行中のサービスを考慮した事例の選択,近さの計算について順に説明する.\subsubsection{最近傍法用事例の生成}最近傍法に用いる事例をコーパスから生成する.1つの最近傍法用事例を1つの訓練用発話事例から生成する.重複する最近傍法用事例は破棄する.最近傍法用事例は,特徴,意図クラス,および,継続性で構成する.特徴は,モダリティのタグ,予約語句のタグ,および,一般名詞意味属性に関するタグの集合で定義する.粗い品詞のタグは集合に含めない.意図クラスは識別の目標である.継続性は文脈情報を捉えるためのもので,最近傍法用事例の照合を制限することに用いられる.以下に訓練事例の文のアレイと最近傍法用事例の例を2つ示す.例7:\begin{description}\item音楽サービスアレイ:\cns{音楽/R00055を/Pかけ/R00056てください/AReq}\item特徴:\cns{\{AReq,R00055,R00056\}}\item意図クラス:\cns{serviceMusic.comPlay()}\item継続性:\cns{new}\end{description}例8:\begin{description}\item音楽サービスアレイ:\cns{スキップ/R00059し/R00036てください/AReq}\item特徴:\cns{\{AReq,R00036,R00059\}}\item意図クラス:\cns{serviceMusic.comSkip(dir=次)}\item継続性:\cns{cont}\end{description}集合は,意図クラスのサービス(正解のサービス)に対応したアレイから得る.これらの例では「音楽サービス」のアレイのタグから得た.\subsubsection{文脈情報に依る最近傍法用事例の選択}最近傍法では,一般に入力事例に対して全ての事例と比較を行う.しかし,本稿では実行中のサービスを考慮して選択された事例と比較を行う.これは発話系列の文脈情報の考慮に相当する.最近傍法用事例の選択は,実行中のサービスと継続性を参照して行う.発話文の分類(2.2節)で述べたとおり,実行中のサービスが発話意図を限定しない場合(分類1,2)と限定する場合(分類3,4)がある.限定のない場合,継続性が\cns{new}である最近傍法用事例は発話文と比較される.継続性が\cns{cont}である最近傍法用事例は実行中のサービスと最近傍法用事例のサービス(意図クラスを構成するサービス)とが一致すれば発話文と比較される.一方,限定のある場合,分類3の状況であれば,特定のサービスと一致するサービスを有する最近傍法用事例が,発話文と比較される.なお,継続性が\cns{new}である最近傍法用事例であっても特定のサービスと不一致であれば比較されない.分類4の状況であれば,サービスに組み込まれた発話文解析となる.サービスにパージング結果が直接引き渡される.以下に擬似コードを示す.\begin{verbatim}1:発話文(パージング結果)が入力される.2:実行中のサービスのリストが入力される.3:もし,サービスから発話文が予約されているならば,4:そのサービスに発話文を送り,5:そうでなければ以下を行う.6:もし,特定のサービスが予約されているならば,7:特定のサービスへの最近傍法用事例を比較対象とし,8:そうでなければ,9:継続性がnewの最近傍法用事例,および,10:継続性がcontかつ実行中のサービスへの最近傍法用事例を比較対象とする.11:比較対象となった最近傍法用事例について最近傍法で解候補を作成する.\end{verbatim}もしサービス側で分類3や分類4で発話文の解析を行う予定になっているならば,解析実行前までに6行目や3行目の予約がそれぞれ入れられている.\subsubsection{発話文と最近傍法用事例の比較}発話文の特徴と最近傍法用事例の特徴を集合演算で比較し,近さ(一致度)を算出する.発話文の特徴を集合$U$,最近傍法用事例の特徴を集合$T$とするとき,両者の近さ$d_1(U,T)$を次式で算出する.\[d_1(U,T)=\frac{2|U\capT|}{|U|+|T|+\beta}\]\label{math:d1}ここで,$\beta$は偏りを持たせるパラメータで$\beta=0.05$を用いた.近さは,$\textit{dice}$係数を基礎とした.発話文と最近傍法用事例の間で特徴的な語句が過不足なく一致することを評価するためである.偏り$\beta$を持たせた根拠は,一般の$\textit{dice}$係数としては同じ一致度となる場合でも,集合のサイズが大きい場合に一致することを重く評価するためである.\subsection{スロットフィリング}意図解析からスロットフィリングへの入力はサービス別タグ付き文,および,解候補(意図クラスと継続性の組のリスト)である.スロットフィリングでは各候補について,スロットフィリングの操作を試みる.その結果として,スロット値を解候補に添えて出力する.スロットフィリングは,発話文の各語句についてスロットに代入すべきか否かを判定するものである.文頭から文末にかけてスキャンを行い,代入判定を行う.また,発話文中での言い直しがあれば代入したものを棄却することがある(2.1節,例4).そこで,スキャン(語句を参照する位置の移動),代入,棄却などのアクションを解析状態に応じて適切に実行することでスロットフィリングを行う手法を提案する.実装上はルールベースによるスロットフィリングである.しかし,ルールは強化学習における$Q$関数に対応し,コーパスから自動的に獲得する.本節ではスロットフィリングの実行とルールの学習をそれぞれ説明する.\subsubsection{スロットフィリングの実行}意図解析結果より,想定するサービスおよびメソッドが与えられると,スロットフィリングが始まる.まず,意図クラスおよび継続性の組に対応したルール集を用意する.次に,発話文のパージング結果のうちサービスに対応するアレイを参照する.解析者をエージェントとするが,エージェントが注目する最初の位置を文頭とする.その後,エージェントは観測する状態に応じてルールによるアクションを決定し実行する.解析の終了は,エージェントがアクション\cns{actSubmit()}を実行した時点,もしくは,アクションの実行回数が上限に達した時点である.上限は文長に比例した回数である.\begin{table}[b]\caption{解析用アクションの一覧}\label{tab:actions}\input{01table03.tex}\end{table}まず,解析用のアクションを表\ref{tab:actions}に示す.スロットは,メソッドに存在するスロットと一時スロットの2種類がある.エージェントは,参照する語句を一時スロットに代入し,一時スロットの内容をメソッドのスロットに移すことができる.文末まで読み進めた後は,解析を終了することや,文頭に戻って読み直しをすることが可能である.次に,観測される状態の素性を表\ref{tab:features}にまとめる.f1は注目する語句の意味を表す.f2は注目先の周辺のタグの5-gramである.f3は注目先の周辺の語句がスロットに代入された状況を表す.f4は各スロットにおける代入の有無を表す.f5は一時スロットに代入されている語句の意味を表す.f6により読み直しが何度も起こらないようにできる.f7により発話文が訂正を含むかどうかがわかる.f8は,「〜は〜です」の文体における解析の手助けとなる.f1からf8を8項組にまとめて状態とする.\begin{table}[t]\caption{観測される状態の素性}\label{tab:features}\input{01table04.tex}\end{table}ルール集は,$Q$関数である.$Q$関数は,$Q:\textit{state},\textit{action}\mapsto\textit{score}$である.つまり,ある状態\textit{state}の際にアクション\textit{action}を選択すると得られるスコアの期待値\textit{score}を返す関数である.選択されるアクション$a^*$は高いスコアを導くアクションであり,$Q$関数を含む次式で求める.\[a^{*}=\arg\max_{a\inA}Q(x,a)\]\label{math:action-select}ここで,$A$はアクション集合,$a$はアクション,$x$は状態である.アクション集合は,表\ref{tab:actions}に示したアクションの集合である.ただし,\cns{\textit{slot}}にはメソッドに応じて具体的なスロット名が必要数だけ展開される.$Q$関数の学習については次項で説明する.\subsubsection{ルールの学習}強化学習では,様々な状態においてアクションを選択することを繰り返し試行し,より高い報酬が得られるように$Q$関数を学習する.学習過程で行う$Q$関数の更新は動的計画法によるものである.具体的には,状態$x$で行動$a$を試行した結果,報酬$r_n$が得られ,状態が$y$に遷移したとする.このとき,状態$x$で行動$a$を選択することへの評価値$Q(x,a)$を次式で更新する.なお,$n$は学習の時点を表す\cite{Watkins_1992}.\[Q_n(x,a)=(1-\alpha_n)Q_{n-1}(x,a)+\alpha_n\{r_n+\gamma\cdot\max_{b\inA}Q_{n-1}(y,b)\}\label{math:q-fuction}\]ここで,$\alpha_n$は学習率,$\gamma$は割引率である.$Q_{n-1}(x,a)$は更新前の$Q$関数を表す.$A$はアクション集合,$b$は行動$a$の後に予定する行動である.ここでは$b$は高スコアの期待される行動が仮定されている.なお,本稿では,$Q$関数の初期値を$50$,$\alpha_n=0.8$,$\gamma=0.9$とした.報酬の設計を表\ref{tab:reward}にまとめる.スロットフィリングのアクションにおいては,正しいアクションと誤ったアクションを決定論的に定義できる.そこで,アクションの試行時に報酬を与えることが可能である.報酬の値は,アクションの無駄な反復で全体の報酬が高まることのないようにした.例えば,代入と破棄(\cns{actPush()},\cns{actEmpty()})を繰り返すことで報酬の合算値が正にならないようにした.予想を超えてアクションの組み合わせと繰り返しが行われることがあるので,報酬の値は実験的に決定した.\begin{table}[b]\caption{報酬の一覧}\label{tab:reward}\input{01table05.tex}\par\vspace{4pt}\small*\cns{cancel}付き語句を正解とみなす.\end{table}以下に,正例の学習,訂正を含む正例の学習,および,負例の学習を例示する.正例の学習を例9を用いて紹介する.例9:\begin{description}\item発話文:\cns{<loc>鳥取</loc>の地図を表示してください}\itemサービス:\cns{serviceMap}\itemメソッド:\cns{comShow(loc)}\item継続性:\cns{new}\end{description}意図クラスおよび継続性の組が「\cns{serviceMap.comShow(loc)/new}」である.\cns{loc}タグで囲まれた語句を参照中に一時スロットに代入するアクション\cns{actPush()}が行われると,正の報酬が発生する.文末まで読み進めた際,「\cns{loc=鳥取}」という代入状態で完了アクション\cns{actSubmit()}が行われると,正の報酬が発生する.訂正を含む正例の学習を例10を用いて紹介する.例10:\begin{description}\item発話文:\cns{<loccancel>鳥取</loc>の地図じゃなくて<loc>島根</loc>の地図を表示してください}\itemサービス:\cns{serviceMap}\itemメソッド:\cns{comShow(loc)}\item継続性:\cns{new}\end{description}この例も意図クラスと継続性の組が「\cns{serviceMap.comShow(loc)/new}」であるため,例9で学習された$Q$関数に向けて学習が行われる.最初に鳥取を参照中に\cns{actPush()}が行われ,その後に\cns{actApply(loc)}が行われると「\cns{loc=鳥取}」となる.文の前半を参照中であれば正しいので,負の報酬は発生しない.文末まで読み進めた時点で「\cns{loc=島根}」となり\cns{actSubmit()}が行われると正の報酬が発生する.しかし,「\cns{loc=鳥取}」や「\cns{loc=鳥取島根}」という代入状態であれば\cns{actSubmit()}の実行に対して負の報酬となる.このように,\cns{cancel}属性のあるタグは,代入行動においては正しいが,最終の代入状態では含まれてはならないことを意味する.負例の学習を例11を用いて紹介する(1つの負例は発話文から継続性まで.※印はコメント).スロットフィリングにおいて代入エラーを抑制するように学習を行うことができる.例11:\begin{description}\item発話文:\cns{地図を表示してください}\itemサービス:\cns{serviceMap}\itemメソッド:\cns{comShow(loc)}\item継続性:\cns{new}\item※誤ったスロットフィリング:\cns{loc=地図}\item※理想のスロットフィリング:\cns{loc=なし}\item※理想のメソッド:\cns{comShowHere()}\end{description}意図解析によると,2つの意図クラス「\cns{serviceMap.comShow(loc)}」と「\cns{serviceMap.comShowHere()}」は最近傍法用事例の特徴が等しい.スロットフィリングには,2つの解候補が届けられる.前者の意図クラスに対応するスロットフィリングを行うと,学習次第では「\cns{loc=地図}」という代入結果となることがある.次節で述べる解候補の選択では,スロットへの代入数が多い解候補を選択するようになっている.そのため,誤った代入があると最終的に誤った選択が生じる.ゆえに,誤った代入をしないようにスロットフィリングの学習を行う.本稿ではこれを負例の学習と呼んでいる.負例の学習では代入する語句のないことを表す事例を強化学習にかける.すると「\cns{loc=地図}」という状態を導くアクション系列は負の報酬によりスコアが低く学習される.負例の学習データを用いた強化学習の実行方法は特別な操作はない.ゆえに,負例の発見さえできれば,負例の学習は容易である.なお,自明であるが,負例用コーパスからは意図解析のための最近傍法用事例の生成を行ってはならない.負例を発見する方法は,実験的な方法である.すなわち,クローズドテストでの誤り分析において,スロットに誤った代入が見られた事例に注目する.筆者らの経験では,コーパスや語句辞書に誤りがあるために学習や解析に失敗することが多かった.次には,強化学習において観測する状態の定義が不十分であることが失敗の原因であることがあった.コーパス・語句辞書・状態定義が十分であるが,過剰なスロットフィリングによる失敗が生じる場合に,その失敗する事例を負例コーパスに追加する.なお,誤り分析が不十分なまま,誤り事例を負例コーパスに追加してはいけない.コーパス・語句辞書・観測状態の定義における問題が検出できなくなり,本質的な問題が解決できなくなるからである.\begin{table}[t]\caption{負例コーパス(全文)}\label{tab:negative-corpus}\input{01table06.tex}\end{table}負例コーパスを表\ref{tab:negative-corpus}に示す.\#2では,先の説明(\#1)と同様にメソッド引数全てへの代入を抑制した.\#3では,一部のメソッド引数\cns{loc}への代入を抑制した.\subsection{解候補からの選択}解候補からの選択では,意図解析におけるタグの一致率,および,スロットフィリングにおけるスロットの代入率を参照する.多くの一致数や代入数となる解候補を優先するために,解候補を次式で評価する.\[d_2(U,T,b,s)=\frac{2|U\capT|+b}{|U|+|T|+s+\beta}\label{math:d2}\]ここで,$U$は発話文におけるタグの集合,$T$は意図解析において適合した最近傍法用事例におけるタグの集合,$s$はスロットフィリングにおいて代入されるべきスロットの数,$b$はスロットフィリングにおいて代入されたスロットの数である.ただし,デフォルト値を有するスロットはスロット数$s$および$b$ともに含めない.$\beta$は偏りのパラメータであり$0.05$とした.解候補の中から,最も高い評価値を有する候補を選択する.ただし,同率で1位となる候補が複数存在する場合は,継続性が\cns{cont}となるものを優先する. \section{応用事例および性能評価} 自動車旅行を支援する車載器をRaspberryPi3上に実装した.そこでの発話文解析に提案手法を適用し,解析性能を示す.\begin{figure}[b]\begin{center}\includegraphics{26-3ia1f3.eps}\end{center}\hangcaption{機材の様子.図\ref{fig:setting}(a)上側の機材は,AVケーブル,シガーソケット電源.下側の機材は,スマートフォン,USBメモリと音源ボードを装着したRaspberryPi3ModelB,スマートウォッチ,テンキー,収納ケース.図\ref{fig:setting}(b)コンソールにテンキーを設置.車載器本体をケースに入れて助手席シートの真下に設置.電源をスマートフォンと本体に供給.}\label{fig:setting}\end{figure}\subsection{車載器の構成}車載器は小型計算機RaspberryPi3ModelB(2016年製,CPU:ARM1.2~GHz4cores,主記憶:1~GB)である\footnote{車載機を小型計算機ではなくスマートフォンとする実装方法は次の理由で採用しなかった.スマートフォンの仕様が多様かつ変化しやすいこと,ビデオ信号をHDMIやRCAを介して車載モニタに出力できないことが多いこと,運転手がスマートフォンを把持した上で操作することは違法であること.}.Rubyを用いてサービスおよび発話文解析を実装した.周辺デバイスとしてスマートフォン(Android8.0),スマートウォッチ(Android5.1)およびカー・オーディオビジュアルを用いる(図\ref{fig:setting}).スマートフォンはWiFiルータおよびGPSレシーバとして用いる.スマートウォッチは音声認識デバイスとして用いる\footnote{意図解析およびスロットフィリングをスマートフォンで行い,その結果を小型計算機に送付するという方法はあり得る.しかし,本稿ではサービスと連携して発話文解析を行うことを目的としているので,スマートフォンでは音声認識までに限った.}.認識結果(文字列)はWiFi経由で車載器に送られる.スマートフォンのみを用いることは可能であるが,スマートウォッチによる音声認識の方が口元で音声を集音するため車内では使いやすい(図\ref{fig:using}).スマートウォッチによる音声認識は走行中であっても十分である.逆に,スマートウォッチのみを用いることも可能であるが,終日のドライブにおいてはバッテリーが不足する恐れがある(スマートウォッチは充電しながらの使用が難しい).車載器のサービスはカー・オーディオビジュアルにより表出する.なお,補助としてテンキーによる操作も可能である.\begin{figure}[t]\begin{center}\includegraphics{26-3ia1f4.eps}\end{center}\hangcaption{使用の様子.スマートウォッチに話し掛けて命令.ステアリングを握ったままでも良いが,口元に左手を近づけて発話すると高い可能性で命令できる.}\label{fig:using}\end{figure}スマートウォッチでの使用の様子を説明する.通常時でのスマートウォッチへの操作は最小で1タッチ,最大で2タッチである.具体的には,スリープ中は電源ボタンへのタッチ,および,スクリーンへのタッチにより音声認識が始まる.「ですます調」で発話を行った場合は語尾により発話文の終了が確定される.それ以外の調子で発話をした場合は「どうぞ」と言うことで発話文の終了が確定される.発話の途中で「取消」と言うと,始めから発話し直すことができる.車載器は,2016年5月より走行時に利用しており2018年12月までの約2万キロの走行の間,各種サービスの提供を行ってきた.初期はUSBヘッドセット型マイクを備え,音声認識のオープンソフトウエアを利用していた.2017年8月よりAndroidの音声認識を利用するように変更した.安全性の懸念から開発者によるクローズドテストが繰り返し行われ,慣れた利用者においては発話文解析は十分な性能となった.また,サービスの種類を徐々に増やしてきたが,コーパスおよび語句辞書の単純な追加・変更により発話文解析の増強ができた.図\ref{fig:display}に車載器の実行の様子を示す.以下では,クローズドテストの性能および新たな利用者における解析性能を示す.\begin{figure}[t]\begin{center}\includegraphics{26-3ia1f5.eps}\end{center}\hangcaption{車載器の表示例.図\ref{fig:display}(a)ではカーオーディオビジュアルのセンターディスプレイを使用.Wikipediaの鳥取砂丘の記事を読み上げている場面.図\ref{fig:display}(a)ではレーダー探知機をモニタとして使用.観光スポットSNSサイトをブラウズして大山滝を提示している場面.背景画像および情報は\cns{https://minkara.carview.co.jp/userid/309487/spot/800570/}をブラウズした結果である(2018年9月13日時点).}\label{fig:display}\end{figure}\subsection{性能評価}学習用コーパスは正例コーパスが2,147文,負例コーパスが3文である.意図クラスは181種類となった.意図解析のための最近傍法用事例は890件となった.ルールベース($Q$関数)は,「意図クラスおよび継続性」の組ごとに作られ,191件となった.総ルール数($Q$関数での状態・アクションとスコアの対の総数)は173,864件となり1ルールベースあたり平均910件(最小は32件,最大は20,917件)となった.ルールベースの実装にはデータベースGDBMを用いた.合計約26~MBとなった.正例コーパスのパージングは約71秒であった.1回目の学習では正例コーパスを用いて最近傍法用事例の生成と強化学習を行った.約9分43秒かかった.主記憶の使用量は約70~MBであった.2回目の学習では負例コーパスを用いて強化学習を行った(約20秒).3回目の学習では正例コーパスを用いて強化学習を再度行った(約8分26秒).ここで,コーパスを用いた強化学習では,「意図クラスおよび継続性」の組の一致する文をグループ化して,グループ内の文が全て解析できるまで学習を行った.グループ内での全文の学習とテストを繰り返すが,最大30回を限度とした.文の学習では,アクション系列の試行を15回(のべ15文)行った.アクション系列は最長で文長の4倍(語句単位)までとした.1アクションごとに$Q$関数を更新した.クローズドテストによると,正解率は0.995(2,136文成功/2,147文入力)となった.ここで,出力された意図クラスおよびスロット値が正解の値と完全一致したものを成功とした.ユーザに約束する発話文が確実に解析できることが確認できた.主な誤り事例は以下のとおりである.例12:\begin{description}\item発話文:「詳しい観光ガイドをしてください」\item出力:\cns{serviceGuide.comGuideInDetail()/cont}\item正解:\cns{serviceGuide.comGuideAll()/new}\end{description}例13:\begin{description}\item発話文:「レーダーに道の駅を表示してください」\item出力:\cns{serviceRadar.comSearchTarget(obj=道の駅)/new}\item正解:\cns{serviceRadar.comSelectLandmark(obj=道の駅)/new}\end{description}例14:\begin{description}\item発話文:「馬の背を見ます」\item出力:\cns{serviceScheduler.comInformEvent(loc=馬の背,msg=見)/cont}\item正解:\cns{serviceScheduler.comInformEvent(msg=馬の背を見)/cont}\end{description}例12,例13は,サービスを操作する台詞がそもそも曖昧であるため発話文解析が誤りとなっている.例14において,\cns{loc}は移動先を対応させる仕様であるので,「馬の背」だけをみると観光スポット名であり場所を表す名詞であるため代入可能に思えるが,「馬の背を見」までみると観測の対象であり必ずしも移動先とはいえないため誤りである.動詞の結合価を解析していないため誤りが生じた.スケジュールサービスや駐車記録サービスではユーザの体験を表す発話文を解析することが多い.ユーザの体験談に対しては,サービス用の予約語句が対応しないため,粗い品詞タグの列における発話文解析となる.特徴的でないため解析に失敗しやすい.すなわち,自由発話に対しては本手法は改善の余地がある.サービスを表さない単語を解析することは今後の課題とする.\subsection{追加学習}車載器の操作中に発話文が認識されないことがある.車載器に備わる命令文と同じ意味だが言い方が異なる場合,および,用語が不足する場合については,それぞれ追加学習が可能である.追加学習はユーザが学習を要求する発話を行うことで,対話的に進められる.\subsubsection{命令文の学習}新しい命令文と既知の命令文を指定することで,命令文の学習を行うことができる.以下にその様子を示す.\pagebreak例15:\begin{description}\item(音楽サービスを実行中)\item1ユーザ:「曲は前のにしてください」\item車載器(エラーを表示)\item2ユーザ:「発話文を学習してください」\item車載器(\cns{曲は前のにしてください},を表示)\item3車載器:「別の言い方をしてください」\item4ユーザ:「前の曲にしてください」\item車載器(\cns{serviceMusic.comSelect(dir)/cont,dir=前},と認識し表示)\item車載器(\cns{曲は<dir>前</dir>のにしてください},を表示)\item車載器(\cns{未知の用語なし},を表示)\item5車載器:「これで良いですか」\item6ユーザ:「はい構いません」\item車載器(学習を実行)\item7車載器:「学習しました」\end{description}こうして,最近傍法用事例の追加および強化学習によるルールベースの学習が行われた.この例での学習の実行時間は約2秒である.\subsubsection{語句の学習}新しい語句と既存の語句を指定することで,語句辞書への登録が可能である.以下にその様子を示す.例16:\begin{description}\item1ユーザ:「単語を学習してください」\item2車載器:「新しい語句は何ですか」\item3ユーザ:「楽曲です」\item4車載器:「類似する既存の語句は何ですか」\item5ユーザ:「音楽です」\item車載器(\cns{new:楽曲,org:音楽,サービス:全般},を表示)\item6車載器:「これで良いですか」\item7ユーザ:「構いません」\item車載器(語句辞書に「楽曲」を登録)\item8車載器:「語句を登録しました」\end{description}語句辞書への登録により「楽曲」が「一般的な単語」から「予約語句」になった.すなわち,語句辞書において「音楽/ミュージック」というグループから「音楽/ミュージック{\kern-0.2zw}/楽曲」というグループになった.以上の通り,命令文の言い方の違いや用語の不足に対して追加を容易に行うことができた.\subsection{オープンテスト}発話で車載器を操作することについてオープンテストを行う.被験者には車載器のサービス内容を理解しておいてもらい,非走行の状態で発話で操作を行ってもらう.被験者は大学生4名である.被験者は一人ずつ操作を行う.被験者間で操作内容がほぼ同一となるように,シナリオに沿った操作を依頼した.シナリオは,車載器の利用者の心境を「音楽を聴こうと思います」などのように記述したものである.サービスの主要な操作を網羅している.被験者の発話のうち,音声認識エラーとなった発話(28文),文法が大きく誤っている発話(3文),スマートウォッチの操作ミスを伴う発話(1文),存在しないサービスへの発話(13文)の合計45文については無効な発話文とした.無効な発話文は,総文数の15\%(45/301)という割合で存在した.音声認識エラーにおいて,地名が誤り易かった.被験者側の問題としては,発する単語が間延びしたことが挙げられる.これは,発話中に音声認識にタイムアウトが発生する原因である.この不明瞭な発話は,被験者がサービス内容(機能・名称)を熟知しておらず,言葉を考えながら発話する際に見られた.ゆえに,ユーザが言い慣れた発話文を追加的に学習する機能により,無効な発話文が減少する可能性がある.有効な発話文については,成功文と失敗文に分けた.成功文は,サービス,メソッド,スロット値が正しく解析できた文である.成功文数$S$,失敗文数$F$を含む次式により解析性能を精度$A$で評価する.\[A=\frac{S}{S+F}\]\label{math:accuracy}\begin{table}[b]\caption{オープンテストの結果}\label{tab:open-test1}\input{01table07.tex}\end{table}実験結果を表\ref{tab:open-test1}に示す.発話文の解析が失敗となった際,別の言い方で発話をしてもらい,シナリオを進めた.被験者からの感想によると,サービス名や操作の言い方を考えることに手間取ったという.もし取扱説明書を読んでおき,主要な用語を覚えていれば,より円滑に命令を発話できたことと思われる.シナリオを達成することができたことより,全体の精度が$0.81$とは本稿の場合では支障のない水準であると解釈した.失敗文を分析した結果を表\ref{tab:failure}に示す.命令文の網羅性が不足すること,語句の網羅性が不足することが主な解析誤りの原因である.前者は,格要素の順序の違い,「は」と「を」の使い分けについて網羅性が不足した.スロットフィリングのために用いた強化学習では,人の目でみて僅かな違いの状態同士であったとしても,全く異なる状態として扱うため,訓練用コーパスにおいては格要素の順序や助詞の種類について網羅的に用意する必要がある.非命令文による命令とは,ユーザが主語となる操作に見られる意図の表現である.「ブラウザを使いたい」という心境がシナリオに示されたことに対して,「ブラウザを使います」という宣言を車載器に伝えることで「ブラウザの起動」を被験者は狙った.ゆえに,今後,命令文のコーパスを構築する際,コーパスの基本的な網羅性を高めるために,ユーザを主語にする言い方と,システムを主語にする言い方の両方を想定するべきである.\begin{table}[b]\caption{失敗文の分類}\label{tab:failure}\input{01table08.tex}\end{table}語句や発話文の網羅性を解消するために,学習サービスが車載器に備わっている.格要素の順序や助詞の違いによる失敗は学習できる.例えば,「この旅館を説明してください」は既に受理可能であり,「説明する」と「教える」が同義として語句辞書に登録されているので,「を」を使う事例の他に「について」を使う事例として「この旅館について教えてください」を学習することが可能である.「(音楽を)始める」が音楽サービスにおいて「再生する」と同義であることを語句の登録として実行できる.車載器のユーザは,自分の慣れた言い方を学習させることができる.本実験において学習の可能な事例は,37件であった.語句や発話文の追加学習の効果を表\ref{tab:potential}に示す.以上により,本稿の提案手法はサービスの実行を命令する上で十分な性能を有することが確認できた.ただし,車載器に必ず受理される言い方や語句をユーザが確実に発話する必要がある.実利用においては追加的な学習が不確実である.追加的な学習を確実に行う仕組みについては今後の課題である.\begin{table}[t]\caption{学習可能性の評価結果}\label{tab:potential}\input{01table09.tex}\end{table}\subsection{比較実験}意図解析およびスロットフィリングにおいて一般的な方法と比較を行う.一般的な方法は,識別器および素性に関して幾つかの組み合わせがある.識別器には,サポートベクトルマシン(SVM),ロジスティック回帰(ここではLRと略す),ニューラルネットワーク(ここではNN1,NN2と略す),条件付き確率場(CRF)を挙げる.素性には,単語のみ,単語および品詞のn-gramを挙げる.ここで,提案手法は学習器が最近傍法および強化学習であり,素性はサービス別アレイを参照して得られるタグのn-gramである.ゆえに,比較のためSVM/CRFにおいてもサービス別アレイを参照する実験を行う.評価の観点は,4.4節の精度$A$だけでなく,小型計算機での実行可能性も含める.小型計算機は,サービスの提供が主目的である.言語処理のための学習と解析にCPUおよび主記憶を多く使用することは望まない.具体的には,RaspberryPi3を想定し,CPUが1.2~GHz4cores,主記憶が1~GBというハードウエア上での動作を要求する.サービスのためにCPUを2cores,主記憶を300~MB使用する.ビデオRAMおよび共有メモリ用に600~MBを使用する.ゆえに,言語処理にはCPUを2cores,主記憶を100~MBを使用することを想定する.比較手法においては,実装すると実行条件が充足できないものがある.一般的な計算機としてCPUがIntelCorei5,3.3~GHz,4cores,主記憶が16~GBのものを用いる.クローズドテストを通じて,精度,使用する主記憶,および,学習時間を比較する.オープンテストを通じて精度を比較する.クローズドテストにおける比較結果を表\ref{tab:baseline1}に示す.NN1およびNN2は,Python,Tensorflow,Kerasをバックボーンとし,Embedding+LSTM+MultiDenseLayersという構成とした.NN1ではDense層を2つ,NN2ではDense層を3つとした.語彙数の上限を1,024,最大文長を20,バッチサイズを32,エポック数を1,600とした.LRは,Python,scikit-learnをバックボーンとした.SVMはTinySVMを使用しone-vs-restを行った.ここで正例と負例に同一のベクトルが与えられ得る際は正例のみを与えた.CRFはCRF++を使用しCPUの割当てを2coresに制限した上でCRF++のサンプルにあるテンプレートを利用した.なお,NN1,NN2およびLRは学習時間および主記憶を多く要するため小型計算機による実行を行っていない.意図解析とスロットフィリングの両方を解析することも,小型計算機で実行可能な手法のみを示した.\begin{table}[t]\caption{クローズドテストにおける比較結果}\label{tab:baseline1}\input{01table10.tex}\par\vspace{4pt}\small※テスト文数は2,147文.\end{table}意図解析では曖昧性の問題で精度が1.0にはならなかった.NN1,LRおよびSVMにおいてSVMの精度が低い.SVMでは単語や品詞の重要度が学習されないためである.サービス別の素性では重要な語句のみがベクトル化されるため改善したと解釈する.提案手法での最近傍法も1-bestではSVMと同程度の精度であるかもしれないが,複数候補を残し,スロットフィリングの結果を用いて総合的に選択を行うため精度が高いと解釈する.スロットフィリングにおいては,例えば,都道府県名を\cns{<loc>}とする場合と\cns{<pref>}とする場合があるため精度が1.0にはならなかった.意図とスロットの両方を正しく解析することを評価したところ,提案手法の精度が良いことを確認できた.素性をサービス別に用意することも有効であることが確認できた.オープンテストにおける比較結果を表\ref{tab:baseline2}に示す.NN1およびNN2は単語の網羅性による問題が大きい.多様な表現を含むコーパスからの学習や,外部リソースによるEmbedding層の学習を行えば改善すると思われる(本実験は簡易実装により実行可能性を調べた実験である.一般でのニューラルネットによる手法を否定するものではない).LRは一般的な識別器において性能が良かった.CRFはスロットフィリングに有効であることが確認できた.CRFによるスロットフィリングでは素性による精度の差が小さかった.意図とスロットの両方を解析する際は意図の識別性能の低さのため精度が悪くなった.提案手法はいずれにおいても相対的に良い精度であった.\begin{table}[t]\caption{オープンテストにおける比較結果}\label{tab:baseline2}\input{01table11.tex}\end{table}一般的な方法を用いるとすれば,主記憶の使用量からみるとSVM+CRFがあげられる.しかし,本稿では言い回しの違いを追加的に学習するため,CRFの使用はできない.数事例の追加であっても全事例を用いた再学習が発生することがデメリットである.ただし,追加的な学習を不要とするならばCRFの使用は否定されるものではない.一方,提案手法では追加する事例のぶんだけ強化学習を実行すればよいためこのデメリットがない\footnote{ただし,検証のため同一の$Q$関数を用いる事例をテストすることが望ましいが,それを行ったとしても,本実験における識別器の中では最小の時間で学習できる.}. \section{考察} 本章では,まず,語句辞書の設計はサービスの設計とともにあるため手動による基礎の構築は必然であることを述べる.次に,定型的な発話文を受理する予定であってもパターンベースの解析手法では柔軟性に欠けるため採用しなかったことを述べる.最後に,強化学習ではコーパスの正確性が要求されることを述べる.\subsection{語句辞書の設計}一般の自然言語処理では,言語解析結果を利用する側の情報を解析の段階に持ち込まない.すなわち,言語解析のモジュール性が高い.しかし,本稿では,サービスと発話文解析のモジュールの関係が強いことを前提とする.とりわけ,語句辞書は,サービスを設計すると同時に設計される必要がある.本節では,語句辞書の設計について述べる.語句の種類には,サービスや機能を表す語句や,操作量を表す語句があることを述べた.サービスの実行のための発話文では,これらの語句が含まれるはずである.例外は,ユーザの体験談や行動予定を車載器に述べる場合,および,音楽や観光地などを検索するクエリのみを発話する場合である.サービスを設計する際,サービス名,メソッド名,操作量を表す語句を必ず設計する.語句辞書の作成はその過程で生じるため負担ではない.他のサービスと語句のグループが競合する場合でも,サービスごとに語句辞書を構築するため,競合に配慮しやすい.サービス間で共通とする語句辞書を認めている.その場合,車載器の全体のバージョンアップがあり,サービスの追加がある際は注意が必要である.新たに追加されるサービスが,共通の語句を特別な意味で使うものであれば,共通語句辞書からその語句を外す必要がある.既存のサービスのうちその語句を用いているならば,そのサービス用の語句辞書にこれまでのその語句の定義を移動する必要がある.\subsection{パターンベース手法との比較}サービスが確定して命令文が確定したならば,発話文の解析方法として文型パターンを用いる方法が挙げられる.本稿で,文型パターンを用いなかった理由を述べる.文型パターンは,字面,変数,演算子等で構成することがある.大規模なパターン辞書を構築した鳥バンクでは,文の意味を捕まえるためにこれらの記述子が用いられた\cite{Ikehara_2004}.文型パターンには次の弱点があるため,本稿では用いなかった.\begin{itemize}\item発話文の事例から文型パターンを自動的に生成することが難しい\item変数や記号が対応する語句を定義することが難しい\item文型パターンの一部の特徴を利用することができない\end{itemize}発話文の事例から,変数化する部分を決めることは,スロットの対応する部分を決めることと等価であり,スロット名のタグ付き文を利用することで実現できる.しかし,文型パターンには,文とパターンの照合が柔軟に行えるように,語順の入れ替え可能な箇所,任意に修飾表現を挿入できる箇所を示す記号を組み込む必要がある.また,さらに,名詞句の変数や地名を表す変数が導入されたとして,その変数に適合する条件を定義する必要がある.任意に修飾表現を挿入できる箇所を示す記号においても同様に定義を与える必要がある.それらの定義は,サービスごとに異なるものであるが,発話文の事例集が改訂されるごとに見直しが必要である.文型パターンは1文の構造を表すのだが,語句の合成の仕方が複数通り存在し,そうした合成の仕方が複数種類の組み合わせで1文が構成されるとき,組み合わせ数が膨大になる.例えば,「場所+に/へ」の言い方と「時間+に/まで/より/から」の言い方が組み合わさるとき,16通りになる.助詞の組み合わせと,格要素の入れ替えを記号で表すことで1通りの記述に抑えられているが,そのためには手動での分析が必要となる.本稿の強化学習では,語句へのタグの5-gramを参照した状態認識を行っている.字面の5-gramを参照するのでは状態数が多すぎるので,タグの5-gramとしている(ただし助詞は字面と対応したタグ).これにより,スロットに代入可能な部分の定義や,助詞の組み合わせ方について強化学習において学習される.なお,チャンキングを簡単なルールで行っているが,その結果に応じて強化学習が文の部分構造(パターン手法でいうところの変数定義)を学習するため,チャンクルールの性能はあまり重要ではない.また,$Q$関数をサービスごとに使い分けている.そのためサービスに応じた文の部分構造が学習される.\subsection{強化学習を用いる上での難しい点}強化学習は,マルコフ決定過程に基づく判定を行っている.ゆえに,必ず解があり十分な状態の定義と十分な試行が行われるのであれば,学習は収束し,解析も正しい.学習用の発話文コーパスにおいて,スロットの対応箇所を表すタグの付与が一貫していれば正しく学習と解析が行われる.しかし,コーパスにおいて矛盾する箇所が1つでもあれば学習が収束せず,解析時にも誤りが生じやすくなる.例えば,「地図を\cns{<io>}拡大\cns{</io>}してください」とする事例と「鳥取の地図を\cns{<io>}拡大し\cns{</io>}てください」とする事例が混ざっている場合,\cns{io}タグの範囲に矛盾があるため,正しく学習されない.コーパスを正確に作成する必要がある.追加学習において,ユーザがスロットの対応箇所を指定するならば,学習に失敗する恐れが生じる.本稿では,受理された類似文を用いるため,スロットの対応箇所は文字列レベルで一致するようにした.これによりユーザによる誤った学習事例の使用を低減した.しかし,誤った学習をした場合,そこから回復させる直接的な方法がない.正しい事例の学習を再度行うことで回復が可能だが,強化学習での試行回数が多くなる場合は学習時間を要し,主たるサービスの実行に支障の生じる恐れがある. \section{おわりに} 本稿では,小型計算機における多様なサービスを発話で操作することを目標として,発話文の解析と学習の手法を示した.小型計算機は,自動車旅行を支援する車載器であり,そこでの163種のサービスとその多様な操作を行うために発話文解析を必要とした.操作のための基礎の発話文が必ず受理され,かつ,異なる発話文の受理も可能であること,さらにこれらのための言語解析と学習を低い計算コストで行うことが要件にあった.本手法の解析は,サービスに依存した品詞・語義・チャンクの解析,発話意図解析,および,スロットフィリングを行うものである.発話文への品詞や語義などのタグ付与をサービスの種類ごとに実施し,それぞれのパージングのアレイに結果を格納することとした.語義やチャンクの曖昧性解消がサービスに合わせて行われた.文脈情報として実行中のサービスを参照したところ,サービスに応じた語句の情報を得ることができ,最近傍法による発話意図の解候補を限定することができた.強化学習による$Q$関数をルールベースとし,ルールベースによるスロットフィリングを実現した.$Q$関数の参照する状態にはタグn-gramやスロットの代入状況などを含めた.意図解析の解候補についてスロットフィリングを実行し,意図解析とスロットフィリングにおいて同時に望ましい解析結果となるものを発話文解析結果として選択した.一方,学習に関しては,サービスの設計時に,語句辞書やチャンクルール,および,規定となる命令の発話文セット(コーパス)が定まることとした.意図解析のための最近傍法用事例の生成,および,スロットフィリングのためのルールベース($Q$関数)は車載器のサービスの開始以前にコーパスから学習した.主たるサービスの実行時においても,同義・同類の語句の追加,および,既存の発話意図と同義で新しい言い回しの発話文の追加を可能とした.評価実験において,発話文の解析精度は,クローズドテストにおいて$0.99$およびオープンテストにおいて$0.81$という結果がそれぞれ得られた.小型計算機において,主たるサービスの実行を妨げること無く,発話文の解析と学習をスタンドアロンで行うことが可能であることを確認した.サービスと言語処理の結び付きが強い中で,車載器におけるサービスの増強に対して,本手法はコーパスと語句辞書への単純な追加・修正で対応できた.以上のとおり,既存の研究において発話文解析に有効とされる要素を踏襲しながら,サービスに向けたパージングのアレイおよび強化学習によるスロットフィリングを解析手法に導入した本手法は,小型計算機における応用システムにおいて有効であることが確認された.\acknowledgment本研究はJSPS科研費JP19K12548の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bunt,Petukhova,Traum,\BBA\\mbox{Alexandersson}}{Buntet~al.}{2017}]{Bunt_2017}Bunt,H.,Petukhova,V.,Traum,D.,\BBA\\mbox{Alexandersson},J.\BBOP2017\BBCP.\newblock\BBOQDialogueActAnnotationwiththeISO24617-2Standard.\BBCQ\\newblockIn{\BemMultimodalInteractionwithW3CStandards:TowardNaturalUserInterfacestoEverything},\mbox{\BPGS\109--135}.\bibitem[\protect\BCAY{福岡\JBA白井}{福岡\JBA白井}{2017}]{Fukuoka_2017}福岡知隆\JBA白井清昭\BBOP2017\BBCP.\newblock対話行為に固有の特徴を考慮した自由対話システムにおける対話行為推定.\\newblock\Jem{自然言語処理},{\Bbf24}(4),\mbox{\BPGS\523--546}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{Ikehara_1997}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{池原\JBA阿部\JBA徳久\JBA村上}{池原\Jetal}{2004}]{Ikehara_2004}池原悟\JBA阿部さつき\JBA徳久雅人\JBA村上仁一\BBOP2004\BBCP.\newblock非線形な表現構造に着目した重文と複文の日英文型パターン化.\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\69--95}.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Kudo_2004}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblockConditionalRandomFieldsを用いた日本語形態素解析.\\newblock\Jem{情報処理学会研究報告自然言語処理(NL)},{\Bbf2004}(47),\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Liu\BBA\Lane}{Liu\BBA\Lane}{2016}]{Liu_2016}Liu,B.\BBACOMMA\\BBA\Lane,I.\BBOP2016\BBCP.\newblock\BBOQJointOnlineSpokenLanguageUnderstandingandLanguageModelingwithRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemtheSIGDIAL2016Conference},\mbox{\BPGS\22--30}.\bibitem[\protect\BCAY{Liu\BBA\Lane}{Liu\BBA\Lane}{2018}]{Liu_2018}Liu,B.\BBACOMMA\\BBA\Lane,I.\BBOP2018\BBCP.\newblock\BBOQEnd-to-EndLearningofTask-OrientedDialogs.\BBCQ\\newblockIn{\BemNAACL-HLT2018,StudentResearchWorkshop},\mbox{\BPGS\67--73}.\bibitem[\protect\BCAY{長井\JBA呉\JBA加藤\JBA山本}{長井\Jetal}{2018}]{Nagai_2018}長井敦\JBA呉剣明\JBA加藤恒夫\JBA山本誠一\BBOP2018\BBCP.\newblockAttention-basedRNNmodelを用いた日本語モジュールの意図クラス推定とスロットフィリングにおける未知語対策.\\newblock\Jem{言語処理学会第24回年次大会発表論文集},\mbox{\BPGS\1054--1057}.\bibitem[\protect\BCAY{Raymond\BBA\Riccardi}{Raymond\BBA\Riccardi}{2007}]{Raymond_2007}Raymond,C.\BBACOMMA\\BBA\Riccardi,G.\BBOP2007\BBCP.\newblock\BBOQGenerativeandDiscriminativeAlgorithmsforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\BemINTERSPEECH2007},\mbox{\BPGS\1605--1608}.\bibitem[\protect\BCAY{Watkins\BBA\Dayan}{Watkins\BBA\Dayan}{1992}]{Watkins_1992}Watkins,C.\BBACOMMA\\BBA\Dayan,P.\BBOP1992\BBCP.\newblock\BBOQQ-Learning.\BBCQ\\newblock{\BemMachineLearning},{\Bbf8},\mbox{\BPGS\279--292}.\bibitem[\protect\BCAY{Williams\BBA\Young}{Williams\BBA\Young}{2007}]{Williams_2007}Williams,J.~D.\BBACOMMA\\BBA\Young,S.\BBOP2007\BBCP.\newblock\BBOQPartiallyObservableMarkovDecisionProcessesforSpokenDialogSystems.\BBCQ\\newblock{\BemComputerSpeechandLanguage},{\Bbf21},\mbox{\BPGS\393--422}.\end{thebibliography}\section*{付録}\subsection*{A.オープンテストにおけるシナリオ}ノートパソコンにプレゼンテーションソフトの画面を表示し,シナリオを被験者に提示した.下記の通番は,被験者に提示する1画面ぶんの情報である.音楽,地図などの見出し(下線部)も提示した.なお,シナリオ中盤の(13)は,運転手が行うべきでない操作である.実験の緊張をほぐす目的で状況を設定した.\begin{description}\item(1)実験準備\item-心境を指定するので口頭で命令してください.\item-車載器に命令するときの口調\item「ですます」調.〜してください\item\underline{音楽}\item(2)音楽を聞こうと思います.\item(3)駐車場の人と話をするところです.音楽をとめようと思います.\item(4)再び音楽を聞こうと思います.\item(5)この曲に飽きました.別の曲を聞こうと思います.\item\underline{地図}\item(6)国道29号線を走っています.青い標識を見て,右折した先が気になりました.\item※実験時には写真を掲載.写真:右折先は国道429号線,朝来方面.\item(7)地図の字が小さくて読めません.\item(8)北の方を見たいと思います.\item\underline{観光レーダ}\item(9)退屈です.観光地がないかレーダを見たいです.\item(10)とりあえず何かガイドをしてもらいたいです.\item(11)鳥取砂丘に着く前にWikipediaで調べようと思います.\item(12)ガイドをとめたいと思います.\item\underline{ビデオ}\item(13)高速道路にのりました.中国自動車道はガラガラなのでビデオをみようと思います.\item(14)別のものを見ようと思います.\item(15)ビデオをやめます.\item\underline{ブログ}\item(16)ブログの話を聞こうと思います.\item(17)ブログの話はやめます.\item\underline{駐車記録}\item(18)記録を残します.\item-見た物,食べたもの,行ったところ\item-楽しい,つまらない\item-「以上です」で終了\item\underline{天気}\item(19)今日の天気が気になります.天気図を見ようと思います.\item(20)降水状況が心配です.\item(21)岡山の天気を調べようと思います.\item\underline{観光スポット・ブラウザ}\item(22)観光スポットを調べるためにブラウザを使いたいと思います.\item(23)ラーメン屋の記事を読みたいと思います.\item(24)場所を知りたいです.\item\underline{スケジュール}\item(25)予定をたてようと思います.\item-18時にラーメン屋に行きます.\item-その前にイオンに行きます\item-やっぱり,順番を変えます.\item-「以上です」で終了\itemシャットダウン\item(26)車を駐車しようと思います.シャットダウンをします.\end{description}\clearpage\begin{biography}\bioauthor{徳久雅人}{1995年九州工業大学大学院情報工学研究科博士前期課程修了.1995年九州工業大学情報工学部助手.2002年鳥取大学工学部助手.2010年2月より鳥取大学工学部講師.博士(工学).自然言語処理を応用した観光情報処理の研究に従事.}\bioauthor{木村周平}{1998年京都大学大学院工学研究科修士課程修了.2001年東京工業大学大学院総合理工学研究科博士後期課程修了.2001年4月理化学研究所ゲノム科学総合研究センター研究員.2004年10月鳥取大学工学部准教授(助教授).2014年1月より鳥取大学工学部教授.博士(工学).進化計算,バイオインフォマティクスなどの研究に従事.}\end{biography}\biodate\end{document}
V10N01-04
\section{はじめに} 情報検索において,検索対象となるデータはさまざまな人に記述されたものであり,同じ事柄を表す言葉であっても人によって表記が異なるために,ユーザは検索システムから意図した情報を得られないことがある.人間ならば柔軟に表記から意図を読み取り対応できるが,機械はこの柔軟性を備えていない.ここで考える表記の異なりとは,たとえば,「ウイルス」と「ウィルス」,「コンピュータ」と「コンピューター」といった一般的な表記の揺ればかりでなく,その他「機械を使って翻訳する」という事柄を表すために,ある人は「機械翻訳」,別の人は「機械による翻訳」と多少表現が異なるといった表記の違いといったあいまいな表現のことである.本研究では,このようなあいまいな表現を合わせて「表記の揺れ」と呼ぶ.情報検索においてあいまいな表現は性能低下を招く.日本語には表記の揺れが多く存在するために,日本語における情報検索は難しいものである.そこで,表記の揺れに対応できる類似尺度が必要である.これまでに,表記の揺れに対応できる尺度として,編集距離\cite{Korfhage97}が知られている.編集距離は一方の文字列をもう一方の文字列に一致させるために必要な最小限の編集操作の数である.編集操作には挿入,削除,置換があり,編集操作の数を距離として考える.このため,編集距離は二つの文字列の不一致な文字を計数する相違尺度とみることができる.そこで,本論文ではまず,この編集距離を一致する文字を計数する類似尺度に変換し,情報検索テストコレクションNTCIR1\cite{Kando98,Kageura97}を用いて実験を行ったが,その結果は満足できるものではなかった.その原因の一つは,文字をすべて同等に扱い,文章の意味に大きく関わるような文字と表記の揺れとなりうる文字を区別せずに計数したことにあると考えた.たとえば,ひらがなは助詞や助動詞を表現するために用いられることが多く,漢字は名詞や動詞の表記に用いられるため,ひらがなの一致と漢字の一致では直感的にも重要さが異なるにもかかわらず,同じように一致した文字を計数してしまうことである.もう一つの原因は,編集距離の定義に使われている編集操作が一文字に限られていたことにあると考えた.たとえば,連続した三文字が一致した場合と不連続な三文字が一致した場合では直感的にも重要さが異なるにもかかわらず,同じように一致した文字を計数してしまうことである.本論文では,この二つの原因を解消するために,一致した文字に対して重み付けを行い,次に一致した文字列に対応できるように,編集距離を変換した類似尺度の拡張を試みる.そして,編集距離から最終的に本論文で提案する類似尺度に到達する過程で定義する類似尺度を組み込んだシステムを構築し,類似尺度を拡張することによって表記の揺れに寛容な性質を損なうことなく,情報検索性能が向上するかを検証する.さらに,一致した文字列に対する重みをその文字列が持つ$IDF$に基づくスコアとするという条件の下で,類似尺度の違いによる情報検索性能の差を検証する.すなわち,本論文で提案する表記の揺れに寛容な類似尺度を組み込んだ情報検索システムと,形態素解析によって得られた単語を一致する文字列の単位とし,その単語が持つ$tf\cdotIDF$を重みとして累計するシステム,{\itngram}を一致する文字列の単位とし,その{\itngram}が持つ$IDF$を重みとして累計するシステムと比較する.実験結果において,本論文で提案する類似尺度を用いたシステムが,従来法である単語に基づくシステムや{\itngram}に基づくシステムと同等以上の検索性能を実現できたことを示す.この論文の構成は次のとおりである.2節では,編集距離から本論文で提案する類似尺度に到達するまでの過程をその過程で定義される類似尺度とともに示す.3節では,本論文で用いる重みを明示する.4節では,本論文で行った情報検索性能を測るための実験の概要を示す.5節では,2節で定義した類似尺度の検索性能が実際に定義した順に向上しているかと表記の揺れに寛容な性質が損なわれていないかを検証する.6節では,5節の結果を踏まえ,本論文で提案する類似尺度の検索性能を測るために,比較対象としたシステムについて説明した後,検索性能の比較を行う.7節でこれまで示した実験結果から考察を述べ,最後にまとめる. \section{編集距離の類似尺度への変換とその拡張} 本論文では,検索性能の低下を招く表記の揺れに寛容な類似尺度を提案する.そのために,まず編集距離を類似尺度に変換し,次に一致した文字の重みを加算する類似尺度に拡張し,最後に一致した文字列の重みを加算する類似尺度に拡張する.本節では,この三つのステップ毎に定義した類似尺度を示すことで,本論文で提案する類似尺度が考慮する性質を明示する.\subsection{編集距離の類似尺度への変換}情報検索において,検索対象となるデータに存在する表記の揺れは検索性能の低下を招くものである.そこで,本論文では,表記の揺れに対応することができる尺度としてよく知られている編集距離に基づく類似尺度を考えた.編集距離(またはレーベンシュタイン距離)は,二つの文字列の距離として,それらを一致させるために必要な文字の削除,挿入,置換操作の回数を距離として考える方法である.この距離はダイナミックプログラミングを用いて計算できる.次に,編集距離$DST_e$の定義を示す.\begin{df}編集距離$\alpha,\beta$を文字列,$x,y$を異なる文字,``"を空文字列とする.関数$MIN$は与えられた引数のうちもっとも小さい値を返す関数とする.\begin{itemize}\item両方とも空文字のとき~~~~$DST_e(``",``")=0.0$\item長さ1文字以下の異なる文字列のとき~~~~$DST_e(x,y)=1.0$\item先頭の1文字が同じとき\[DST_e(x\alpha,x\beta)=MIN(DST_e(\alpha,x\beta)+1.0,DST_e(x\alpha,\beta)+1.0,DST_e(\alpha,\beta))\]\item先頭の1文字が異なるとき($x\neqy$)\[DST_e(x\alpha,y\beta)=MIN(DST_e(\alpha,y\beta)+1.0,DST_e(x\alpha,\beta)+1.0,DST_e(\alpha,\beta)+1.0)\]\end{itemize}\end{df}この定義で示すように,編集距離は不一致な文字を数えることによって二つの文字列の相違度を測っている.このため,編集距離は相違尺度とみることができる.定義から,編集距離は相違度が最小になるように,関数$MIN$を用いて不一致な文字の位置を決定している.この部分が編集距離に表記の揺れに対応できる性質を持たせている.二つの文字列全体をみて,もっとも相違が小さくなるように試行錯誤することによって,表記の揺れがあっても類似したものとみなせる定義式となっている.本論文では,情報検索に適した編集距離に基づく類似尺度を提案するための第一ステップとして,この定義を変形して,相違尺度である編集距離を類似尺度に変換する.具体的には,編集距離とは逆に類似度が最大になるように,関数$MIN$の代わりに関数$MAX$を用いて一致する文字の位置を決定する尺度に変換する.本論文では,この尺度を「単純編集類似度」と呼ぶことにした.この尺度と編集距離との違いは類似度を最大にするか相違度を最小にするかの違いだけなので,編集距離の持つ表記の揺れに寛容な性質は損なわれていない.次に単純編集類似度$SIM_1$の定義を示す.\begin{df}単純編集類似度$\alpha,\beta$を文字列,$x,y$を異なる文字,``"を空文字列とする.関数$MAX$は与えられた引数のうちもっとも大きい値を返す関数とする.\begin{itemize}\item両方とも空文字のとき~~~~$SIM_1(``",``")=0.0$\item長さ1文字以下の異なる文字列のとき~~~~$SIM_1(x,y)=0.0$\item先頭の1文字が同じとき\[SIM_1(x\alpha,x\beta)=MAX(SIM_1(\alpha,x\beta),SIM_1(x\alpha,\beta),SIM_1(\alpha,\beta)+1.0)\]\item先頭の1文字が異なるとき($x\neqy$)\[SIM_1(x\alpha,y\beta)=MAX(SIM_1(\alpha,y\beta),SIM_1(x\alpha,\beta),SIM_1(\alpha,\beta))\]\end{itemize}\label{sim1}\end{df}\subsection{文字重み編集類似度への拡張}単純編集類似度はすべての文字を同等に扱うため,一致する文字の重みはすべて1.0である.しかし,一致した文字が内容語に含まれる文字である場合と機能語に含まれる文字である場合とでは,情報検索においてその文字の貢献度は異なる.これは,意味に大きく関わる文字と表記の揺れとなりうる文字の貢献度の違いに相当する.一般に,情報検索の性能を向上させるために機能語を考慮せず,内容語だけを考慮するシステムが多く存在する.これは,機能語よりも内容語のほうが検索性能に貢献する度合いが高いためである.日本語における機能語はたとえば,「は」,「が」,「を」,「の」,「では」や「〜する」,「〜である」,「〜した」,「〜でない」,「〜しない」などであり,主にひらがなで構成されている.一方,内容語は主に漢字やカタカナで構成されている.カタカナは主に外来語を構成している.このような背景から,情報検索に適した編集距離に基づく類似尺度を提案するための第二ステップとして,文字が一致した場合,常に1.0を加算するのではなく,一致した文字が持つ重みを加算する類似尺度に単純編集類似度を拡張する.言い換えると,この類似尺度は単純編集類似度の一般化である.本論文では,この類似尺度を「文字重み編集類似度」と呼ぶことにした.また,編集距離(レーベンシュタイン距離)に関して各操作に重みを持たせた重みづきレーベンシュタイン距離がある\cite{Kohonen95}.この距離では,操作ごとに対象となる文字に関する重みを持つ.ここで,文字に関して操作ごとに重み付けるのではなく,その文字に対してどの操作が行われても文字が持つ唯一の重みを付けると,編集距離(レーベンシュタイン距離)から単純編集類似度への変形のように,重みづきレーベンシュタイン距離を文字重み編集類似度に変形することができる.次に文字重み編集類似度$SIM_2$の定義を示す.\begin{df}文字重み編集類似度$\alpha,\beta$を文字列,$x,y$を異なる文字,``"を空文字列とする.関数$Score(z)$は文字$z$が持つ重みを返す関数,関数$MAX$は与えられた引数のうちもっとも大きい値を返す関数とする.\begin{itemize}\item両方とも空文字のとき~~~~$SIM_2(``",``")=0.0$\item長さ1文字以下の異なる文字列のとき~~~~$SIM_2(x,y)=0.0$\item先頭の1文字が同じとき\[SIM_2(x\alpha,x\beta)=MAX(SIM_2(\alpha,x\beta),SIM_2(x\alpha,\beta),SIM_2(\alpha,\beta)+Score(x))\]\item先頭の1文字が異なるとき($x\neqy$)\[SIM_2(x\alpha,y\beta)=MAX(SIM_2(\alpha,y\beta),SIM_2(x\alpha,\beta),SIM_2(\alpha,\beta))\]\end{itemize}\label{sim2}\end{df}例を用いて,単純編集類似度と文字重み編集類似度の振る舞いの違いを示す.\begin{ex}文字重みの効果文$\alpha,\beta,\gamma$がそれぞれ\begin{quote}\begin{tabular}{ll}$\alpha$:&「機械で自動的に翻訳するシステム」\\$\beta$:&「自動翻訳システム」\\$\gamma$:&「人手で直感的に表示するシステム」\\\end{tabular}\end{quote}であり,Score関数が次のように与えられたとする.\begin{itemize}\item文字$x$がひらがなの場合~~~~$Score(x)=0.0$\item文字$x$がひらがな以外であった場合~~~~$Score(x)=1.0$\end{itemize}このとき,$\alpha$と$\beta$の類似度,$\alpha$と$\gamma$の類似度は表\ref{tab:character-weight}のようになる.\begin{table}[htbp]\caption{文字重みの効果}\label{tab:character-weight}\begin{center}\vspace{-1em}\begin{tabular}{|c||c|c|}\hline引数&単純編集類似度&文字重み編集類似度\\\hline\hline$\alpha,\beta$&8.0&8.0\\\hline$\alpha,\gamma$&9.0&5.0\\\hline\end{tabular}\end{center}\end{table}\label{ex:weight}\end{ex}この例において,$\alpha$と$\beta$は人間であれば類似していると判断される文である.これらの文に対する類似度は一致する文字がすべてひらがな以外であるため,単純編集類似度でも文字重み編集類似度でも同じ類似度となる.一方,$\alpha$と$\gamma$は人間であれば類似していないと判断される文である.これらの文に対して,単純編集類似度は一致する文字がひらがなであっても同じ重みを加算するため,高い類似度を与えてしまう.しかし,文字重み編集類似度は類似していると判断される$\alpha$と$\beta$が持つ類似度よりも低い類似度を与えることができている.このことより,単純な重み付けでも,二つの文が類似するかしないかの判断に役立つことが予想できる.\subsection{文字列重み編集類似度への拡張}\label{sim3}例\ref{ex:weight}の$\beta$は「自動翻訳システム」であり,この文は「自動」,「翻訳」,「システム」という三つの内容語で構成されている.これらの単語のうち,漢字で構成されるものは文字自体が意味を表しているために一文字だけでも検索に貢献する場合があるが,「システム」はほとんどの場合,一文字では意味を表すことができないカタカナで構成されている.「システム」は構成する文字が連続して現れることによって意味を表す単語となる.同様に,ひらがなで構成される文字列でも連続して現れることによって貢献する場合がある.このような場合,情報検索において,構成する文字それぞれの貢献よりも連続して現れることによって構成された文字列のほうが貢献度が高いことが知られている.言い換えると,一致した文字列を構成する文字毎に重みを加算するのではなく,文字列が持つ重みを加算したほうが検索性能が向上する可能性があるということである.多くの情報検索システムに用いられている単語を単位とし,一致した単語が持つ重みを加算することによって類似度を求める尺度があるが,この尺度もこの可能性に基づくものとみることができる.さらに,一単語より長い文字列が検索に大きく貢献するように{\itngram}を単位とし,一致した{\itngram}の重みを加算することによって類似度を求める尺度もある.この尺度は一致する文字列の長さに重きを置く尺度である.人間は一致する部分が長ければ長いほど,二つの文は類似していると判断することが多い.このため,一致する文字列の長さに重きを置くことは人間の直感に合致している.このような背景から,情報検索に適した編集距離に基づく類似尺度を提案するための最終ステップとして,一致した文字ではなく,一致した文字列が持つ重みを加算する類似尺度に文字重み編集類似度を拡張する.言い換えると,この類似尺度は文字重み編集類似度の一般化である.本論文では,この類似尺度を「文字列重み編集類似度」と呼ぶことにした.次に文字列重み編集類似度$SIM_3$の定義を示す.\begin{df}文字列重み編集類似度\label{df:sim3}$\alpha,\beta,\gamma,\delta$を文字列,$\xi$を長さ1以上の文字列,$x,y$を文字とする.関数$Score(\epsilon)$は文字列$\epsilon$が持つ重みを返す関数,関数$MAX$は与えられた引数のうちもっとも大きい値を返す関数とする.\begin{itemize}\item両方とも空文字のとき~~~~$SIM_3(``",``")=Score(``")$\itemそれ以外のとき\begin{eqnarray*}&&\hspace*{-2mm}SIM_3(\alpha,\beta)=MAX(SIM_{3s}(\alpha,\beta),SIM_{3g}(\alpha,\beta))\end{eqnarray*}\begin{itemize}\item一致している最大の文字列を$\xi$として\begin{eqnarray*}&&\hspace*{-8mm}SIM_{3s}(\xi\alpha,\xi\beta)=MAX(Score(\gamma)+SIM_3(\delta\alpha,\delta\beta))\\&&\hspace*{-6mm}for~all~\gamma;~for~all~\delta;such~that~\xi=\gamma\delta\end{eqnarray*}\itemそのような文字列が存在しないとき~~~~$SIM_{3s}(\alpha,\beta)=0.0$\item任意の文字列について\[SIM_{3g}(x\alpha,y\beta)=MAX(SIM_3(\alpha,y\beta),SIM_3(x\alpha,\beta),SIM_3(\alpha,\beta))\]\end{itemize}\end{itemize}\end{df} \section{本論文で用いる重み} 例\ref{ex:weight}では,ひらがな以外の文字に重みを持たせたが,文字に持たせる重みを調節することによって,検索性能を大きく向上することが容易に予測できる.情報検索だけでなく他の分野においても,適した重みを決定することは難しく,多くの場合,経験によって決められることが多い.情報検索においては,検索対象となるデータによって調整することが広く行われている.本論文では,情報検索において重みの基本とされている文字列が一致したときの情報量に相当する$IDF$(InverseDocumentFrequency)を用いることにした.また,通常の$IDF$は単語を対象とするが,文字列を対象とする$IDF$とした.これは,提案する類似尺度が{\itngram}を対象とするためである.本論文で扱う類似尺度が用いる重みはすべて$IDF$に基づくものとし,類似尺度の定義の違いによる検索性能の比較を行った.次に本論文で提案する類似尺度に用いた重みを返す関数$Score$を示す.ここで,$df(\xi)$は長さ1以上の文字列$\xi$が出現するドキュメントの数,$N$はドキュメントの総数とする.\begin{itemize}\item空文字ならば,~~~~$Score(``")=0.0$\itemそれ以外ならば,~~~~$Score(\xi)=-\log_2(df(\xi)/N)$\end{itemize}本論文の目的は検索性能の低下を招く表記の揺れに寛容な類似尺度を提案することであるため,最適な重みについては今後の課題と考えている. \section{実験の概要} 本論文では,提案する類似尺度の情報検索性能を評価するために,実験対象となる類似尺度を組み込んだ情報検索システムをそれぞれ作成し,検索性能を比較した.まず,単純編集類似度,文字重み編集類似度,文字列重み編集類似度の情報検索における性能を比較し,順に拡張したことによって表記の揺れに寛容な性質を損なうことなく,予想通り性能の向上を計ることができているかを検証する.そして,この検証においてもっとも高い性能を持つ類似尺度の検索性能を,多くの情報検索システムに用いられる類似尺度の基となっている二つの類似尺度と比較する.実験では,情報検索テストコレクションNTCIR1\cite{Kando98,Kageura97}を使用した.質問はキーワードではなく文章で表され,検索対象となる文書は技術論文の抄録である.コレクションには,質問集合83問(訓練用30問,本番用53問)と文書集合33万件,正解集合が含まれている.図\ref{fig:query}と図\ref{fig:document}にNTCIR1の質問と文書の記述例をそれぞれ示す.\begin{figure}[htbp]\vspace*{-1em}\begin{center}\fbox{\epsfile{file=query-image2.eps,scale=0.6}}\caption{質問の例}\label{fig:query}\vspace{0.5em}\fbox{\epsfile{file=document-image2.eps,scale=0.6}}\caption{文書の例}\label{fig:document}\end{center}\end{figure}質問の記述は「タイトル」,「検索要求」,「検索要求説明」,「概念」,「分野」で構成され,検索対象となる文書の記述は「タイトル」,「著者名」,「抄録」,「分野」などで構成されている.本論文では,質問の「検索要求」部分の文章と,文書の「抄録」部分を連結した文章との類似度を測ることによって,情報検索を行った.システムから得る結果は,質問ごとに類似度を高い順に並べたランキングリストである.性能評価は,この実験結果の上位1000件に対する11点平均精度を比較することによって行った. \section{編集類似度の性質および検索性能の検証} \label{comp-sim}本節では,単純編集類似度($SIM_1$),文字重み編集類似度($SIM_2$),文字列重み編集類似度($SIM_3$)の情報検索における性能を比較し,順に拡張したことによって表記の揺れに寛容な性質を損なうことなく,予想通り性能の向上を計ることができているかを検証する.実験結果を表\ref{sim-11pt-comp}--表\ref{sim-win-comp}に示す.まず,情報検索性能について検証する.表\ref{sim-11pt-comp}は,単純編集類似度,文字重み編集類似度,文字列重み編集類似度をそれぞれ用いたシステムで訓練用30問について情報検索を行った結果の11点平均精度(11pointaverageprecision)に示す.\begin{table}[bht]\vspace{-1em}\caption{編集類似度の11点平均精度(訓練課題30問)}\vspace{-1em}\label{sim-11pt-comp}\begin{center}\begin{tabular}{|c||c|c|c|}\hline類似尺度&$SIM_1$&$SIM_2$&$SIM_3$\\\hline\hline11-pt&0.135&0.203&0.281\\\hline\end{tabular}\end{center}\caption{質問ごとの11点平均精度}\label{sim-each-comp}\vspace{-1em}\begin{center}\hspace*{-1em}\begin{tabular}{|c||c|c|c||c||c|c|c|}\hline{\bf質問番号}&{\bf$SIM_1$}&{\bf$SIM_2$}&{\bf$SIM_3$}&{\bf質問番号}&{\bf$SIM_1$}&{\bf$SIM_2$}&{\bf$SIM_3$}\\\hline\hline1&0.2611&0.2675&0.3006&16&0.5577&0.6777&0.8263\\\hline2&0.0159&0.6025&0.6704&17&0.0009&0.0283&0.0407\\\hline3&0.0006&0.0023&0.0148&18&0.0380&0.1288&0.0980\\\hline4&0.0049&0.2929&0.3136&19&0.4026&0.4487&0.6890\\\hline5&0.0006&0.0009&0.0013&20&0.2683&0.6493&0.7775\\\hline6&0.0212&0.1626&0.1890&21&0.0215&0.1339&0.1583\\\hline7&0.0022&0.0000&0.0024&22&0.2068&0.2525&0.2493\\\hline8&0.0020&0.0003&0.2119&23&0.2308&0.3596&0.3481\\\hline9&0.1050&0.0398&0.2402&24&0.2903&0.3153&0.3234\\\hline10&0.1052&0.3669&0.3618&25&0.0248&0.1324&0.4877\\\hline11&0.3268&0.2194&0.2638&26&0.4438&0.1266&0.5136\\\hline12&0.0742&0.0224&0.1566&27&0.0259&0.1784&0.2556\\\hline13&0.0057&0.0330&0.0655&28&0.0478&0.0518&0.0589\\\hline14&0.2980&0.3646&0.4257&29&0.1753&0.0501&0.1151\\\hline15&0.1001&0.1528&0.2116&30&0.1025&0.0349&0.0527\\\hline\end{tabular}\end{center}\caption{類似尺度ごとの比較}\label{sim-win-comp}\begin{center}\vspace*{-1em}\begin{tabular}{|c||c|c|}\hline{XvsY}&{Xwin}&{Ywin}\\\hline\hline{$SIM_1$vs$SIM_2$}&8&22\\\hline{$SIM_2$vs$SIM_3$}&4&26\\\hline{$SIM_1$vs$SIM_3$}&3&27\\\hline\end{tabular}\end{center}\vspace*{-1em}\end{table}11点平均精度は情報検索における一般的な評価基準で,再現率(recall)が0\,\%,10\,\%,20\,\%,30\,\%,40\,\%,50\,\%,60\,\%,70\,\%,80\,\%,90\,\%,100\,\%の11点における適合率(precision)の平均値である\cite{Manning99}.この表はこの実験における各システムの検索性能を表し,文字列重み編集類似度が単純編集類似度や文字重み編集類似度より情報検索に有効であることを示している.表\ref{sim-win-comp}は,訓練用30問において一方の編集類似度が他方の編集類似度より検索に有効であった質問を表\ref{sim-each-comp}を用いて数えた結果を示す.この表は,この実験において,文字重み編集類似度が単純編集類似度よりも多くの質問に対して有効に働き,文字列重み編集類似度が単純編集類似度や文字重み編集類似度よりもさらに多くの質問に対して有効に働くことを示している.たとえば,「各質問について$SIM_2$より$SIM_1$が高い11点平均精度を出す確率が1/2以下のとき,$SIM_2$が$SIM_1$より30個のうち22個以上の割合で性能が高い」という仮説を立てた場合,危険率$8.1\times10^{-3}$以下で仮説は棄却される.これは,$SIM_2$が$SIM_1$より高い性能を出す確率は1/2以上であることを示し,$SIM_2$と$SIM_1$には有意な差があることがわかる.また同様に,$SIM_3$と$SIM_1$には危険率$3.0\times10^{-5}$以下のレベルで有意な差があり,$SIM_3$と$SIM_2$には危険率$4.2\times10^{-6}$以下のレベルで有意な差があることがわかる.以上のことから,編集距離に基づく類似尺度を拡張することによって情報検索性能を向上していることが確認できる.次に,表記の揺れに寛容な性質が損なわれていないかを検証する.例として,図\ref{fig:query}に示す質問20を取り上げる.検索に使うこの質問の検索要求は「日本語文におけるカタカナ外来語の研究」である.図\ref{fig:document}に示す文書は質問20に関連する文書である.まず,単純編集類似度から文字重み編集類似度に拡張した場合,表記の揺れに寛容な性質が損なわれていないかを検証する.これらの質問と文書において単純編集類似度と文字重み編集類似度は同じ「文,る,カ,タ,カ,ナ,外,来,語,の」の10文字が一致する.重みが影響するのは,質問に現れる文字が文書ではそれらの文字が質問に現れる順とは異なり,前後に交換されている場合に考えられる.たとえば,質問に「有無」が現れ,文書に「・・は無いが,・・は有る」と,「有」と「無」が逆順に現れるとき,もし「無」が持つ重みのほうが大きい場合,文字重み編集類似度は前にある「有」ではなく,後ろにある「無」の重みを加算するが,単純編集類似度はどちらを選んでも同じである.このため,単純編集類似度と文字重み編集類似度において,稀に選択された文字が異なると考えられるが,サンプルで調査したすべての質問においてはすべて同じ文字を選択していた.これは,単純編集類似度を文字重み編集類似度に拡張しても表記の揺れに寛容な性質を保持しているということを表している.図\ref{fig:document}の文書を,単純編集類似度は181位,文字重み編集類似度は10位に位置付けている.表\ref{sim-each-comp}に示す質問20における11点平均精度を見ると,単純編集類似度よりも文字重み編集類似度のほうが精度が高い.これは,表記の揺れに寛容な性質を持ち,一致した文字の重みを考慮したことによって検索性能が向上したことを示している.一方,文字列重み編集類似度は「文,る,カタ,カナ,外,来語,の」の7つの文字列が一致する.これは,単純編集類似度と文字重み編集類似度で選択された10文字と同じである.これは,文字重み編集類似度を文字列重み編集類似度に拡張しても表記の揺れに寛容な性質を保持しているということを表している.実際に,図\ref{fig:document}の文書に対して,文字重み編集類似度は4.44,文字列重み編集類似度は12.37を得ている.また,この文書を文字重み編集類似度は10位に位置付けているが,文字列重み編集類似度は6位に位置付けている.表\ref{sim-each-comp}に示す質問20における11点平均精度を見ると,文字重み編集類似度よりも文字列重み編集類似度のほうが精度が高い.これは,表記の揺れに寛容な性質を持ち,一致した文字列の重みを考慮したことによって検索性能が向上したことを示している.以上のように,類似尺度を拡張しても表記の揺れに寛容な性質を損なっていないことをサンプルで確認した. \section{基本的な類似尺度との検索性能比較} \ref{comp-sim}節に示した実験において,本論文で提案する三つの編集類似度のなかで,文字列重み編集類似度がもっとも情報検索において有効であることがわかった.本節では,提案する文字列重み編集類似度の検索性能を,多くの情報検索システムに用いられる類似尺度の基となっている類似尺度と比較する.まず,情報検索において基とされる類似尺度を用いたシステムの概要を示す.本論文では,形態素解析を利用して内容語を抽出し,質問と文書のどちらともに存在する内容語の重みを加算する類似尺度と,質問と文書のどちらともに存在する文字列({\itngram})の重みを加算する類似尺度を選び,これらの尺度を用いた二つのシステムをベースラインシステムとした.\subsection{ベースラインシステム:BD}本論文では,一つ目のベースラインシステムとして,形態素解析を利用し内容語を抽出し,質問と文書のどちらともに存在する内容語の重みを加算することによって類似度を測るシステムを作成した.本論文では,このシステムを辞書を用いることから「BD(baseline-dictinary)」と呼ぶことにした.形態素解析には,日本語形態素解析プログラム「茶筌」\cite{Matsumoto97}を用いた.「茶筌」は大きな日本語の単語辞書を使って文字の列を単語に区切り,品詞を割り当てるシステムである.BDシステムはまず,質問と文書それぞれに対して形態素解析を行い,そして,解析結果から内容語(名詞,動詞,未定義語)の原形を抽出し,類似度を測るための内容語だけが並ぶ質問集合のファイルと文書集合のファイルを作成する.BDシステムに原形を採用した理由は,文章に現れる内容語の形そのままを対象とした場合と原形を対象とした場合の検索性能を比較した結果,原形のほうが検索性能が高かったためである.これらの二つのファイルを用いて,Salton\cite{Salton88}が用いている多くの情報検索手法の基となっている内積スコアリング関数を用いて類似度を求める.内積スコアリング関数は文字列重み編集類似度に用いられる重み関数と同じ$IDF(=-\log(df/N))$に基づく重み関数である.このことから,辞書を用いて形態素解析を行うことに関して比較することにした.次にBDシステムに用いた類似尺度$SIM_{dict}$の定義を示す.\begin{df}$t$は比較される各々の文字列両方に現われる単語,$tf(t)$はそのドキュメントの単語$t$の出現頻度(termfrequency),$df(t)$は単語$t$が出現するドキュメントの数(documentfrequency),$N$はドキュメントの総数とする.\[SIM_{dict}=\sum_{t}tf(t)\cdot(-log_2(df(t)/N))\]\end{df}\subsection{ベースラインシステム:BN}本論文では,二つ目のベースラインシステムとして,質問と文書のどちらともに存在する文字列({\itngram})の重みを加算することによって類似度を測るシステムを作成した.本論文では,このシステムを{\itngram}をマッチングの対象とすることから「BN(baseline-{\itngram})」と呼ぶことにした.BNシステムは,質問と文書のどちらともに現れる文字列を検出し,文字列重み編集類似度に用いられるScore関数を用いて類似度を求める.通常,処理効率を考え,長さ2のバイグラム(bigram)または長さ3のトライグラム(trigram)のような短い{\itngram}だけをマッチングの対象とするが,本論文では,$SIM_3$がすべての{\itngram}を対象としているので,条件をそろえるために,すべての{\itngram}を対象とすることにした.一般には,\cite{Fujii93}が示したように,短い{\itngram}は日本語にはかなり効果的であることが報告されている.しかし,実際にNTCIR1において短い{\itngram}に制限した場合と制限しない場合の検索性能の比較を行った結果,制限しない場合のほうが高い性能を得たため,バイグラムやトライグラムより長い{\itngram}を考慮することにした.また,提案する文字列重み編集類似度においても扱う文字列の長さを制限していないので,条件は同じである.実際に長い{\itngram}を考慮することは,複合語のマッチングを行う情報検索\cite{Yamada97}の報告で,共起情報を用いないケースに相当する.DPも長い{\itngram}を検出するので,BNを比較対象とした.BNシステムはマッチングの対象が文字列重み編集類似度と同じ文章にある部分文字列({\itngram})である.BNシステムと文字列重み編集類似度の唯一の違いは,類似尺度の定義が語順を無視した重みの総和をとるか語順を保存した重みの合計の最大値をとるかの違いである.このことが表記の揺れに寛容な性質を持つか持たないかの差となっていると予想される.このため,本論文では,この二つの類似尺度を表記の揺れに対する振る舞いについて比較することにした.次にBNに用いた類似尺度$SIM_{ngram}$の定義を示す.\begin{df}$\alpha,\beta,\xi,\eta$を文字列とする.$\alpha_{ik}$を$i$番目の文字から$i+k-1$番目の文字までの$\alpha$の部分文字列とし,$\beta_{jk}$を$j$番目の文字から$j+k-1$番目の文字までの$\beta$の部分文字列とする.また,$Score$は$IDF$に基づく文字列から正の実数値を求める関数とする.\[SIM_{ngram}=\sum_{i,j,k}Comp(\alpha_{ik},\beta_{jk})\]ただし,$Comp(\xi,\eta)$は次のように定義され,ここで現れる$Score(\xi)$は\ref{sim3}節に示したものと同じである.\begin{itemize}\item$\xi=\eta$ならば,~~~~$Score(\xi)=-log_2(df(\xi)/N)$\item$\xi\neq\eta$ならば,~~~~$0.0$\end{itemize}\end{df}\subsection{検索性能の比較}本節では,本論文で提案する文字列重み編集類似度($SIM_3$)を用いたシステムと,$SIM_{dict}$を用いたBDシステム,$SIM_{ngram}$を用いたBNシステムの検索性能を比較する.本論文では,文字列重み編集類似度を用いたシステムをダイナミックプログラミングを用いて計算できることから,「DP」と呼ぶことにした.\begin{table}[htb]\caption{システムの11点平均精度(訓練課題30問)}\vspace{-1.2em}\label{tab:all-prec}\begin{center}\begin{tabular}{|c||c|c|c|}\hlineシステム&{\bfBD}&{\bfBN}&{\bfDP}\\\hline\hline11-pt&0.154&0.164&0.281\\\hline\end{tabular}\vspace{-0.3em}\end{center}\caption{それぞれのシステムの質問ごとの11点平均精度}\vspace{-1.2em}\label{tab:precision}\begin{center}\hspace*{-2em}\begin{tabular}{|c||c|c|c||c||c|c|c|}\hline{\bf質問番号}&{\bfBD}&{\bfBN}&{\bfDP}&{\bf質問番号}&{\bfBD}&{\bfBN}&{\bfDP}\\\hline\hline1&0.2462&0.2216&0.3006&16&0.0180&0.3275&0.8263\\\hline2&0.2099&0.5022&0.6704&17&0.0471&0.0011&0.0407\\\hline3&0.0257&0.0028&0.0148&18&0.0788&0.0051&0.0980\\\hline4&0.1048&0.1815&0.3136&19&0.2091&0.4901&0.6890\\\hline5&0.1046&0.0008&0.0013&20&0.5660&0.5705&0.7775\\\hline6&0.0580&0.0221&0.1890&21&0.0881&0.0713&0.1583\\\hline7&0.0005&0.0010&0.0024&22&0.0516&0.0703&0.2493\\\hline8&0.0836&0.0086&0.2119&23&0.2003&0.1475&0.3481\\\hline9&0.0157&0.0372&0.2402&24&0.1915&0.2887&0.3234\\\hline10&0.3751&0.2991&0.3618&25&0.6076&0.2291&0.4877\\\hline11&0.2533&0.0303&0.2638&26&0.1087&0.4665&0.5136\\\hline12&0.1008&0.1687&0.1566&27&0.0659&0.0696&0.2556\\\hline13&0.0707&0.0150&0.0655&28&0.0072&0.0435&0.0589\\\hline14&0.4107&0.3051&0.4257&29&0.1543&0.0882&0.1151\\\hline15&0.1538&0.1436&0.2116&30&0.0094&0.0142&0.0527\\\hline\end{tabular}\end{center}\vspace{-0.3em}\caption{システムごとの比較}\vspace{-1.2em}\label{tab:comparison}\begin{center}\begin{tabular}{|c||c|c|}\hline{XvsY}&{Xwin}&{Ywin}\\\hline\hline{DPvsBD}&23&7\\\hline{DPvsBN}&29&1\\\hline{BDvsBN}&15&15\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:all-prec}に33万件のドキュメントに対して30個の検索質問を行った場合の11点平均精度を示す.この表は実験において,DPがBDやBNよりも精度が高かったことを示している.表\ref{tab:comparison}はそれぞれのシステムを二つずつ各質問について,表\ref{tab:precision}に示す11点平均精度を使って比較し,すべての質問について数値で判定した結果から作成した.これらの表もまた,DPがBDやBNよりも精度が高いことを示している.質問1に対して,三つのシステムは同じような性能を示す.質問1は,用語と用語を構成する単語の多くがそれらの$IDF$重みによって示されるようなよいキーワードである用語を含む質問であり,すべてのシステムにとって簡単な質問である.図\ref{fig:recall1and12}の左図に上位1000件の文書に関する再現率を示す.この図から,三つのシステムは比較の条件が揃っていることがわかる.実験結果において,表\ref{tab:comparison}から\ref{comp-sim}節に示すような仮説を立て,検索性能を検証すると,$DP$と$BD$には危険率$2.6\times10^{-3}$以下のレベルで有意な差があり,$DP$と$BN$には危険率$2.9\times10^{-8}$以下のレベルで有意な差があることがわかる.\begin{figure}[htb]\begin{center}\fbox{\epsfile{file=dp-01and12-2.eps,scale=0.7}}\caption{再現率:質問1「自立移動ロボット」,質問12「データマイニング」}\label{fig:recall1and12}\end{center}\vspace{-3em}\end{figure}\subsection{BDとの振る舞いの差}本論文の実験において,表\ref{tab:comparison}に示すように,DPはBDと同等以上の性能を持つことを示している.これは,未知語に対する振る舞いの違いによるものである.辞書を利用するシステムは解析できない未知語が重要となる質問に対応することが難しい.たとえば,図\ref{fig:recall1and12}の右図はそのような質問に関する再現率のグラフである.BDはデータマイニングを「デー」「タマ」「イニング」に分割してしまうため,その結果,情報検索の性能が低い.NTCIR1において,このように未知語が重要となる質問がこの他にも存在する.辞書を利用するBDの場合,新しい単語が作成されるたびに辞書に単語を登録すれば語分割の失敗を避けることができるが,新しい単語に対する辞書のメンテナンスが必要である.一方,BNとDPは辞書を利用しないため,このコストがかからないという利点を持っている.しかし,未知語を学習することによって検索性能が向上することは明白であるため,システムを相補的に用いることが理想である.\subsection{実行時間}実験における各システムの実行時間を表\ref{tab:cost}に示す.BDはperlで記述し,他のシステムはCで記述したため,BDシステムの実行時間は参考値であり,前処理となる文書頻度(documentfrequency)の計算を除いた類似度計算のみの実行時間である.\begin{table}[h]\vspace*{-0.5em}\caption{実行時間}\label{tab:cost}\vspace*{-1em}\begin{center}\hspace*{-2em}\begin{tabular}{|c||c|c|c|c|c|}\hlineシステム&{\bfBD}&{\bfBN}&{\bf$SIM_1$}&{\bf$SIM_2$}&{\bfDP($SIM_3$)}\\\hline\hline総実行時間[sec]&43947&2099&3257&3713&5302\\\hline1質問当たり[sec]&1464.9&70.0&108.6&123.8&176.7\\\hline1ドキュメント当たり[msec]&4.44&0.21&0.33&0.38&0.54\\\hline\end{tabular}\end{center}\vspace*{-1.5em}\end{table}また,すべてのシステムは文書と質問を一つずつ比較するシステムであるため,インデックスファイルは使用していない.実験はVineLinux2.0,CPU800MHz,メモリ1GBの計算機を用いて行った.この表では,``総実行時間''は33万件のドキュメントに対して30個の質問を検索することにかかった時間,``1質問当たり''は総実行時間を30で割った,1質問当たりにかかる平均実行時間,``1ドキュメント当たり''は1質問当たりの時間を33万で割った,1ドキュメントとの類似度を計算することにかかる平均実行時間である.$BN$と$DP(SIM_3)$を比較すると,実際のデータでの計算時間の差は2倍程度であった.これは,任意の文字列の文書頻度を高速に求められる方法\cite{Yamamoto98}を利用した効果である.そして,文字列重みを利用しても単純な編集距離の計算よりも桁違いに遅くないことがわかる.しかし,提案する類似尺度を用いたシステムは情報検索システムとして実用的とは言えない.本論文では,情報検索に利用できる表記の揺れに寛容な類似尺度の提案を目的としているので,インデックスを利用する処理速度の向上は今後の課題と考えている. \section{考察} \subsection{単語の順序について}定義\ref{df:sim3}に示すように,文字列重み編集類似度は一致する文字列の重みにその文字列以外の部分の類似度を加算する操作をしている.この定義では,質問と文書に二つずつ同一の文字が出現した場合に,出現の順序が一致したときには加算操作の対象になるが,順序が異なった場合には,加算の対象とならないため,結果的にどちらかの重みが選ばれることになる.この「順序が一致したときに,スコアが加算される」という性質は単純編集類似度,文字重み編集類似度,文字列重み編集類似度に共通する性質である.順序関係を保存しながら,重みの合計が最大になるように部分文字列の組合せを探す尺度のなかで文字列重み編集類似度はすべての文字列の重みを考慮するということが特徴となっている.キーワードの検索においても順序を保存することで検索精度が向上するという報告\cite{Tanaka97}があるが,文字列重み編集類似度はキーワードに限定せず質問を構成する文字列の順序を保存する.また,順序情報を利用するという意味では,形態素解析を行い,内容語の列を作り,その列が持つ順序情報を利用して検索性能を向上させている研究\cite{Otake99}があるが,本論文で提案する手法では形態素解析を行わない.さらに,修飾語の欠損と付加がある場合にも提案する手法は対応できる.\subsection{句の検出}文字列重み編集類似度は,重みの合算の過程において類似判定に効果のある部分文字列を選び出す処理を行っている.つまり,定義\ref{df:sim3}に示される定義式で関数$MAX$によって選び出された文字列は類似判定に効果がある文字列として選び出されている.この一連の文字列は,検索に効果があるひとかたまりと解釈できる.言い替えれば,文字列重み編集類似度によって,検索に利用可能な「分離している複合語」を抽出していると解釈できる.これは,類似判定ごとに「語」の定義を変更することで効果を上げている情報検索システム\cite{Ozawa99}と同様に,情報検索のための句分割方法の一つと解釈することもできる.検索に効果がある文字列の集合を選ぶためによく用いられる方法は共起関係を利用する方法である\cite{Takagi96}.文字列重み編集類似度で選び出される文字列の集合は共起によるものとは異なる文字列となる.端的には,文字列重みによるものは,$IDF$が高ければ統計的に独立に出現し,共起関係にない文字列でもキーワードとして検出される.実際に,文字列重み編集類似度で選択された一群の文字列の性質を分析することは行う価値のある今後の課題である.\subsection{シソーラスの利用}文字列の一致の検出を行うときに,シソーラスを利用する拡張が考えられる.すなわち,質問中の文字列がシソーラスの見出し語にあるときは,その対応する単語がドキュメントにあったときに文字列が一致しているとみなす拡張である.この方法を実装することは簡単であるが,適切な重みを何にするか,実際に検索に効果があるかなどの問題が存在し,今後の課題である. \section{まとめ} 本論文では,情報検索のための表記の揺れに寛容な類似尺度を提案し,その検索性能を評価した.表記の揺れに対応できる尺度として編集距離が知られているが,実際にこの尺度を単純に類似尺度に変換したものでは性能がでない.本論文では,表記の揺れに寛容な類似尺度を,情報検索に適するように,文字列に対する重みを計算するように拡張した.それを用いて情報検索による評価を行い,性能が向上したことを示した.さらに,提案する類似尺度を組み込んだ情報検索システムを構築し,多くのシステムに用いられている一般的な類似尺度と同等以上の検索性能を実現できたことを示した.\acknowledgment本研究は住友電気工業株式会社の援助による成果です.そして,本研究を進めるにあたって有意義なコメントを戴いたAT\&TのKennethW.Church氏と筑波大学の山本幹雄助教授に深く感謝いたします.\bibliographystyle{jnlpbbl}\newcommand{\gengoshori}{}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Fujii,Croft}{Fujii,Croft}{1993}]{Fujii93}HideoFujii\BBA\W.BruceCroft\BBOP1993\BBCP.\newblock\BBOQAComparisonofIndexingTechniquesforJapaneseTextRetrieval\BBCQ\\newblockIn{\BemProceedingofSIGIR'93},pp.~237--246,\newblockPittsburghPA,USA.\bibitem[\protect\BCAY{Kageura,Koyama,Yoshioka,Takasu,Nozue,Tsuji}{Kageuraetal.}{1997}]{Kageura97}KyoKageura,TeruoKoyama,MasaharuYoshioka,AtsuhiroTakasu,ToshihikoNozue,\BBA\KeitaTsuji\BBOP1997\BBCP.\newblock\BBOQNACSISCorpusProjectforIRandTerminologicalResearch\BBCQ\\newblockIn{\BemNaturalLanguageProceedingPacificRimSymposium'97},pp.~493--496.\bibitem[\protect\BCAY{Kando,Koyama,Oyama,Kageura,Yoshioka,Nozue,Matsumura,Kuriyama}{Kandoetal.}{1998}]{Kando98}NorikoKando,TeruoKoyama,KeizoOyama,KyoKageura,MasaharuYoshioka,ToshihikoNozue,AtsushiMatsumura,\BBA\KazukoKuriyama\BBOP1998\BBCP.\newblock\BBOQNTCIR:NACSISTestCollectionProject\BBCQ\\newblockIn{\Bem20thAnnualColloquiumofBCS-IRSG}.\bibitem[\protect\BCAY{Kohonen}{Kohonen}{1995}]{Kohonen95}TeuvoKohonen\BBOP1995\BBCP.\newblock\BBOQSelf-OrganizingMaps\BBCQ\Springer-VerlagBerlinHeidelberg.\bibitem[\protect\BCAY{Korfhage}{Korfhage}{1997}]{Korfhage97}RobertR.Korfhage\BBOP1997\BBCP.\newblock\BBOQInformationStorageandRetrieval\BBCQ\\newblockIn{\BemWILEYCOMPUTERPUBLISHING},pp.~291--303,\newblockJohnWiley\&Sons,Inc.,PrintedinUSA.\bibitem[\protect\BCAY{Manning,Schutze}{Manning,Schutze}{1999}]{Manning99}ChristopherD.ManningandHinrichSchutze\BBOP1999\BBCP.\newblock\BBOQFoundationalsofStatisticalNaturalLanguageProcessing\BBOQ\TheMITPress,CambridgeMA.\bibitem[\protect\BCAY{Matsumoto,Kitauchi,Yamashita,Hirano}{Matsumotoetal.}{1997}]{Matsumoto97}YujiMatsumoto,AkiraKitauchi,TatsuoYamashita,YoshitakaHirano,OsamuImaichi,\BBA\TomoakiImamura\BBOP1997\BBCP.\newblock\BBOQJapaneseMorphologicalanalysisSystemChaSenManual\BBCQ\\newblock{\BemNAISTTechnicalReport,NAIST-IS-TR97007},http://cactus.aist-nara.ac.jp/lab/nlt/chasen.html.\bibitem[\protect\BCAY{大竹,増山,山本}{大竹\Jetal}{1999}]{Otake99}大竹清敬,増山繁,山本和英\BBOP1999\BBCP.\newblock\JBOQ名詞の連接情報を用いた関連文書検索手法\BBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40(5)},pp.~2460--2467.\bibitem[\protect\BCAY{小澤,山本,山本,梅村}{小澤\Jetal}{1999}]{Ozawa99}小澤智裕,山本幹雄,山本英子,梅村恭司\BBOP1999\BBCP.\newblock\JBOQ情報検索の類似尺度を用いた検索要求文の単語分割\BBCQ\\newblock\Jem{言語処理学会大会},{\BbfA5-2}.\bibitem[\protect\BCAY{Salton,Buckley}{Salton\BBA\Buckley}{1988}]{Salton88}GerardSalton\BBA\ChristopherBuckley\BBOP1988\BBCP.\newblock\BBOQTerm-WeightingApproachesinAutomaticTextRetrieval\BBCQ\\newblockIn{\BemInformationProceedingandManagement},{\Bbf24},pp.~513--523.\bibitem[\protect\BCAY{高木,木谷}{高木,木谷}{1996}]{Takagi96}高木徹,木谷強\BBOP1996\BBCP.\newblock\JBOQ単語出現共起関係を用いた文書重要度付与の検討\JBCQ\\newblock\Jem{情報処理学会情報学基礎研究会},{\BbfFI41-8}.\bibitem[\protect\BCAY{田中}{田中}{1997}]{Tanaka97}田中英輝\BBOP1997\BBCP.\newblock\JBOQ長い日本語表現の高速類似検索手法\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会},{\BbfNL121-10}.\bibitem[\protect\BCAY{山田,森,中川}{山田\Jetal}{1997}]{Yamada97}山田剛一,森辰則,中川裕志\BBOP1997\BBCP.\newblock\JBOQ複合語マッチングと共起情報を併用する情報検索\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39(8)},pp.~2431--2439.\bibitem[\protect\BCAY{Yamamoto,Church}{Yamamoto\BBA\Church}{1998}]{Yamamoto98}MikioYamamoto\BBA\KennthW.Church\BBOP1998\BBCP.\newblock\BBOQUsingSuffixArraystoComputeTermFrequencyandDocumentFrequencyforAllSubstringsinaCorpus\BBCQ\\newblockIn{\BemProceedingoftheSixthWorkshoponVeryLargeCorpora},\newblockEditor:EugeneCharniak,pp.~28--37.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山本英子}{1996年豊橋技術科学大学情報工学課程卒業.2002年同大学大学院工学研究科電子・情報工学専攻博士課程修了.博士(工学).同年,通信総合研究所に専攻研究員として入所.}\bioauthor{武田善行}{2000年豊橋技術科学大学工学部情報工学課程卒業.2002年同大学工学研究科情報工学専攻修士課程修了.同年同大学大学院工学研究科電子・情報工学専攻博士課程入学.現在に至る.}\bioauthor{梅村恭司}{1983年東京大学大学院工学系研究系情報工学専攻修士課程修了.博士(工学).同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,現在に至る.システムプログラム,記号処理の研究に従事.ACM,ソフトウェア科学会,電子情報通信学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V31N01-06
\section{はじめに} 漢文は弥生時代に中国から日本に伝えられたと推測されている\cite{japanese-history}.そして奈良時代以降\cite{kanbun-asia},日本語の文章として読めるよう,漢文の語順構成を維持しながら訓点を付ける漢文訓読と,日本語の文体として書き直した漢文訓読文(または書き下し文)が使われ始めた.漢文は『万葉集』\cite{manyoshu}や『源氏物語』\cite{genji-2,genji-1}など,多くの日本文学作品に影響を与えた.今でも漢文は大学入学共通テストの国語において200点の内50点を占めており,漢文が日本文化に及ぼしている影響の大きさを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-1ia5f1.pdf}\end{center}\hangcaption{漢文訓読の具体例.``春眠不覚暁''はオリジナルの白文である.これを書き下し文に変換するために,返り点,読み仮名,送り仮名を付ける必要がある.漢字の左下にある二つの``レ''は返り点であり,レ点とも呼ぶ.その前後の一語ずつを逆に読むための記号である.右側の``ず''は読み仮名であり,``不''の読みは``ず''であることを示している.漢字の右下にある``エ''と``ヲ''は送り仮名で,文章を孤立語から膠着語に変換するために存在する.以上のルールに基づき,白文``春眠不覚暁''は書き下し文``春眠暁を覚えず''に変換される.}\label{fig:ex-kanbun}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%中国語と日本語は共通の漢字を多く持つが,日本人にとって漢文を読むことは容易ではない.中国語,そして漢文の語順は,英語と同じSVO(主語-動詞-目的語)である一方,日本語の語順はSOV(主語-目的語-動詞)である.そして,中国語は孤立語であり,時制や格などによって語の形は変化しない.一方,日本語は膠着語であり,接頭辞や接尾辞のような形態素がその語の文法関係を示している.漢文をSVOからSOVに,孤立語から膠着語に変換するために,日本人は句読点,返り点,送り仮名などからなる漢文訓読システム\cite{crawcour1965introduction}を開発した.以下で漢文訓読システムの幾つかの定義や変換ルールを説明する.また,図\ref{fig:ex-kanbun}に漢文訓読の具体例を示す.古典中国語の訓読体系は,朝鮮半島\cite{korean}や契丹など他の地域にも存在するが,本研究では日本の漢文訓読システムに注目する.\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{白文}句読点,返り点,送り仮名が付いていない漢文のこと.\paragraph{書き下し文}白文を,返り点や送り仮名に従って書き下したもの.\paragraph{返り点}漢文の語順をSVOからSOVに変換するための記号である.接している二つの漢字の読み順を逆にする``レ点'',漢数字に沿って読み順を決める``一,二点'',数字ではないが同じく読み順を決める``上,中,下点'',``甲,乙点''などがある.\paragraph{読み仮名}漢字の読み方を示すためのひらがなである.\paragraph{送り仮名}漢文を孤立語から膠着語に変換するために付けるカタカナのこと.\paragraph{置き字}漢文を訓読する際に,直接読まない字のこと.書き下し文にする時は,その意味に対応する送り仮名を前後の文字に付けて反映する.``而'',``於'',``乎'',``兮''などが置き字になることがある.\paragraph{再読文字}漢文を訓読する際に,二度読む字のこと.一度目は返り点を無視した語順で副詞として読み,二度目は返り点にしたがって助動詞・動詞として読む.``未'',``将'',``且'',``当''などが再読文字になることがある.\paragraph{返読文字}漢文を訓読する際に,下から上へ返って読む字のこと.``非'',``有'',``不'',``与''などが返読文字になることがある.\vspace{1\Cvs}中国には豊富な漢文の言語資源があるが,日本におけるそれらの書き下し文データは極めて少ない.例えば,『全唐詩』には48,900首以上の唐詩が収録されており,その全てにオンラインでアクセス可能である.しかし,我々の知る限りでは,日本では約500首の唐詩の書き下し文データしかインターネット上に存在しない.この大きなギャップは,日本における漢文研究及び漢文教育の阻害要因となっている.『漢文大系』などの書籍の中に書き下し文のデータは多く存在するが,それらにOCRを適用し,データを整形するには膨大なコストがかかる.そのため,高性能な書き下し文生成器を構築することが書き下し文資源の不足を解消する最も効率的な方法と考えられる.また,漢文の仕組みを理解することは,和漢混交文などの古典日本語や,日本の文化・思想の解明にもつながると考えられる.従来の研究\cite{ud-kaeriten,ud-tree,ud-kundoku,ud-kundoku-2,ud-ud}では,UniversalDependencies\cite{de-marneffe-etal-2021-universal}を使った返り点付与と書き下し文生成を含む一連の漢文に関する言語処理の手法が提案された.しかし,ルールベースであり性能が不十分である上,これらの研究ではデータセットを作っておらず,定量的評価を行っていない.本研究では,漢文理解の第一歩として,漢詩文の中で代表性がある唐詩に注目する.最初に,白文,日本語読み順,書き下し文の3つ組からなる漢文訓読データセットを構築する.これを基に,言語モデルを用い,返り点付与器と書き下し文生成器を構築し,両タスクにおいて定量評価を行う.そして,書き下し文の生成結果に対し,人手評価の結果と比較することで,最も適切な自動評価指標について議論する.さらに,返り点付与と書き下し文生成のパイプラインを構築し,白文の事前ソート(返り点付与)が書き下し文生成に貢献するかどうかを検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{古典中国語に関する研究}古典中国語は現代語と比べまだ十分研究されていない分野ではあるが,他の低資源古典語と比べれば数多くの言語資源がある.『殆知閣』\footnote{\url{https://github.com/garychowcmu/daizhigev20}}は約33億トークンを含む古典中国語の最大のデータセットである.『四庫全書』コーパスは中国史上の蔵書36,381巻,約10億トークンを収録したものである.Chinese-Poetry\footnote{\url{https://github.com/chinese-poetry/chinese-poetry}}は30万首以上の漢詩を含むデータベースである.また,下流タスクに利用できるコーパスも幾つか存在する.TheAncientChineseCorpus(ACC)\footnote{\url{https://catalog.ldc.upenn.edu/docs/LDC2017T14}}は単語分割や品詞タグの情報を含む『春秋左氏伝』のデータセットである.CCTC\footnote{\url{https://github.com/scagin/cctc}}とClassical-Modern\footnote{\url{https://github.com/NiuTrans/Classical-Modern}}は古典中国語と現代中国語のパラレルデータセットである.FSPC\cite{ijcai2019p684}とCCMP\cite{li2021CCPM}は漢文理解のために提案されたデータセットである.BERT\cite{devlin-etal-2019-bert}やBERT-likeモデル\cite{liu2019roberta,https://doi.org/10.48550/arxiv.1909.11942,he2021debertav3}が提案されて以来,大規模コーパスで言語モデルを事前学習し,下流タスクでファインチューニングすることが自然処理研究のパラダイムになっている.古典中国語においても,幾つかの事前学習済みモデルが開発,公開されている.SikuBERTとSikuRoBERTa\cite{sikubert}は『四庫全書』コーパスで事前学習され,ACCデータセットを用いて,単語分割,句読点復元,品詞タグ付け,固有表現認識の四タスクで評価されている.GuwenBERT\footnote{\url{https://github.com/ethan-yt/guwenbert}}は『殆知閣』コーパスで事前学習され,CCLUEベンチマーク\footnote{https://cclue.top}で評価されている.また,SikuGPT2\footnote{\url{https://huggingface.co/JeffreyLau/SikuGPT2}}や,Mengzi-T5\cite{https://doi.org/10.48550/arxiv.2110.06696}のようなGPT\cite{radford2019language}ベースとT5\cite{2020t5}ベースの生成モデルも開発,公開されている.事前学習済みモデルの性能を評価するために,自然言語理解(NLU)のベンチマークが多くの言語で提案されている.英語のGLUE\cite{wang-etal-2018-glue},中国語のCLUE\cite{xu-etal-2020-clue},日本語のJGLUE\cite{kurihara-etal-2022-jglue}などがある.古典中国語については,CCLUEとWYWEB\cite{wyweb}が提案されている.CCLUEは,文区切り,固有表現認識,テキスト分類,テキスト検索などを含む五つのタスクを提供している.WYWEBは,テキスト分類,系列ラベリング,機械読解,機械翻訳など八つのタスクを提供している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{漢文訓読に関する研究}\citeA{ud-kaeriten}は,UniversalDependencies\cite{nivre-etal-2016-universal}に基づく漢文の返り点付与を行う手法を提案した.この手法は,まず漢文に対し形態素解析を行い,単語単位に分割し,品詞タグを付与する.そして,『孟子』,『論語』,『礼記』のUniversalDependenciesを学習したarc-planaralgorithm\cite{gomez-rodriguez-nivre-2010-transition}を用いて依存構造解析を行う.最後に,依存構造解析結果と著者が提案したルールに基づいて,返り点付与を行う.さらに,\citeA{ud-kundoku,ud-kundoku-2}は漢文を書き下し文に変換するencode-reorder-decodeモデルUD-Kundokuを提案した.encode-reorderモジュールは上記の返り点付与手法を用いたものである.並べ替えられた漢文を書き下し文に変換するために,著者は送り仮名を付けるルールベースの手法を提案した.ルールは大きく助詞と活用語尾に分けられ,置き字や再読文字など特殊なケースにも対応している.また,\citeA{ud-kundoku-2}は書き下し文の生成結果に対してBLEU\cite{papineni-etal-2002-bleu}とRIBES(平尾他2011)\nocite{ribes}を用いて評価を行っているが,数サンプルの評価に留まっており,定量的評価を行っていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{データセット構築とタスク設定} \label{sec:data}\vspace{-0.3\Cvs}本研究は白文,日本語読み順,書き下し文の3つ組から構成される漢文訓読データセットを構築する.漢文で使われる語彙や文法は時代によって変化するため,多くの時代をカバーするテキストを収集することが望ましいが,現時点ではそのような包括的なデータセットを作ることは困難である.本研究では,書き下し文が付与されているデータソースとして最も大きいと考えられる『唐詩選』\footnote{\url{https://kanbun.info/syubu/toushisen000.html}}を基にデータセットを作成する.前処理として,ルールベースで書き下し文から白文の日本語語順を抽出し,置き字や再読文字など特殊な文字に対し人手でアノテーションを行う.また,辞書を用いて旧字体を可能な限り新字体に変換し,言語モデルのOOV(OutofVocabulary)問題を軽減する.『唐詩選』は合計465首の唐詩から構成される.一つの詩の中の文が分割されないように,本研究ではGroupShuffleSplitを使ってデータセットをTrain,Validation,Testに分割した.表\ref{tab:data-example}にデータの例,表\ref{tab:statistics}にデータセットの統計量情報を示す.構築したデータセットに基づき,漢文理解において重要である返り点付与と書き下し文生成の二つのタスクを解く.返り点付与\footnote{実質上は文字の並べ替えとなっている.}では,白文を日本語の読み順(SVOからSOV)に変換する.書き下し文生成は,白文を書き下し文に変換するseq2seqタスクである.ソースとターゲットは語彙を一部共有しているため,多言語の書き換えタスクと見なすこともできる.本研究で扱う唐詩のほとんどは五言・七言の絶句や律詩であり,漢文の中では比較的容易なジャンルであることに注意されたい.\pagebreak%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}%\hangcaption{漢文訓読データセットの例.各事例は白文,日本語読み順(数字は白文中の順位を表している),書き下し文の3つ組から構成される.}\label{tab:data-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{05table02.tex}%\caption{データセットの統計量情報(白文パート).}\label{tab:statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-1ia5f2.pdf}\end{center}\caption{パイプラインの概要図.(A)は返り点付与器,(B)は書き下し文生成器である.}\label{fig:pipeline}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスクの実装}本節では,返り点付与と書き下し文のそれぞれの実装を説明する.本研究ではパイプラインも構築し,白文の事前ソート(返り点付与)が書き下し文生成に貢献するかどうかについて実験を行う.図\ref{fig:pipeline}にパイプラインの概要を示す.本節の実験は全てNVIDIAA100(40GB)一枚を用いて行った.返り点付与に対して,本研究ではBERT-likeモデルを用いたrank-basedのソート手法を採用する.モデルをファインチューニングし,日本語読み順において文字のランクを予測する.入力としては,白文を文字単位に分割し,それぞれの文字を{\{文字\}\{白文中の文字の順位\}[SEP]\{白文\}}の形に変換する.白文中の文字の順位は同じ文字が二つ以上出現する場合に対応するために追加している.それぞれの文字の日本語語順中の順位を白文の長さで正規化し(長さ5の文に対し,順位は1,2,...,5から0.2,0.4,...,1に正規化される),学習における正解の値として設定する.モデルが出力した順位を昇順にソートし,元の文字に戻せば,日本語語順の白文を得ることができる.図\ref{fig:pipeline}の(A)に我々のソート手法の様子を示している.書き下し文生成に対しては,T5とGPTを用いてファインチューニングを行い,白文から書き下し文を生成する.各モデルの真の性能を見るため,生成結果に対しては一切フィルタリングを行わない.パイプラインについては,返り点付与モデルによって日本語語順にソートされた白文をT5またはGPTに入力し,事前の返り点付与が書き下し文生成に貢献するかどうかを検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事前学習モデル}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{返り点付与のモデル}返り点付与に対し,合計五つのモデルを用いて実験を行う.二つのモデルは日本語コーパスで,二つのモデルは中国語コーパスで,一つは古典中国語コーパスで事前学習されている.各モデルのトークナイザーは全て文字ベースであり,各文字の正確な位置を予測することを意図しているためである.mBERT\cite{devlin-etal-2019-bert}やXLM-RoBERTa\cite{conneau-etal-2020-unsupervised}などの多言語モデルは,トークナイザーが一般的に文字ベースのエンコーディングを行わないため,本研究は使用しない\footnote{mBERTのトークナイザーはCJK統合漢字に対応しているが,旧字体を含む一部の日本語の漢字はCJK統合漢字に含まれていないため,日本語も文字単位に分割できる保証はない.}.本実験は以下の五つのモデルを使用する.\vspace{1\Cvs}\paragraph{BERT-japanese-char}このモデルは,Wikipediaの日本語版で学習させたものである.\paragraph{RoBERTa-japanese-char-wwm}このモデルは,Wikipediaの日本語版とCC-100\cite{conneau-etal-2020-unsupervised}の日本語パートで学習させたものである.Wholewordmasking\cite{Cui_2021}が学習に用いられている.\paragraph{BERT-chinese}このモデルは,Wikipediaの中国語版で学習させたものである.\paragraph{RoBERTa-chinese-wwm-ext}このモデルは,Wikipediaの中国語版などからなる5.4Bトークンのコーパスで学習させたものである.Wholewordmaskingが学習に用いられている.\paragraph{RoBERTa-classical-chinese-char}このモデルは,GuwenBERTの単語ベクトルを繁体字(および日本語の常用漢字)へ拡張したものである.\vspace{1\Cvs}各モデルは全て12層のエンコーダー,768次元の隠れ層,12のアテンションヘッドからなる.実験で使用する事前学習モデル及びハイパーパラメータを付録\ref{appendix:model}と\ref{appendix:parameter}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{書き下し文生成のモデル}書き下し文生成に対し,mT5\cite{xue-etal-2021-mt5}とmGPT\cite{https://doi.org/10.48550/arxiv.2204.07580}を用いる.\vspace{1\Cvs}\paragraph{mT5}このモデルは,mC4\cite{2020t5}コーパスを用いて,101言語で学習させたものである.中国語と日本語は両方含まれている.\paragraph{mGPT}このモデルは,WikipediaとmC4コーパスを用いて,60言語で学習させたものである.中国語と日本語は両方含まれている.\vspace{1\Cvs}日本語のモデルは多言語モデルと比べて語彙サイズが小さく,漢文の難しい漢字の多くに対応できていないため,本実験では使用しない.実験で使用する事前学習モデル及びハイパーパラメータを付録\ref{appendix:model}と\ref{appendix:parameter}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自動評価指標}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{返り点付与}語句の並べ替えの研究\cite{cui-etal-2020-bert,Kumar_Brahma_Karnick_Rai_2020,https://doi.org/10.48550/arxiv.2103.13584}に従い,本研究では以下の指標を用いて自動評価を行う.\vspace{1\Cvs}\paragraph{Kendall'sTau($\tau$)}この指標は,二つの文の順位相関を測るものである.予測された文字順を真の文字順に並べ替えるために必要な交換回数が少ないほど,相関が強く,性能が良いことを意味する.\[\tau=1-\frac{4(\#inversions)}{\#char(\#char-1)}\]\paragraph{PerfectMatchRatio(PMR)}予測された文字順と真の文字順が完全に一致する割合を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{書き下し文生成}書き下し文の評価について系統的な研究がないため,先行研究で用いられたBLEU\cite{papineni-etal-2002-bleu}とRIBES(平尾他2011)\nocite{ribes}に加え,ROUGE-L\cite{lin-2004-rouge}とBERTScore\cite{bert-score}を用いて自動評価を行う.単語ベースの評価は形態素解析への依存度が高く,また,漢文の関連パッケージが成熟していないことから,本研究では文字ベースで上記の指標を計算する.\vspace{1\Cvs}\paragraph{BLEU}BLEU\cite{papineni-etal-2002-bleu}は,機械翻訳で最も広く使われている評価指標である.翻訳結果と参照訳との類似度を,両者のn-gram一致数のprecisionに基づいて計算する.\paragraph{RIBES}RIBES(平尾他2011)\nocite{ribes}は,語順が大きく異なる言語間の機械翻訳を評価するために提案された評価指標である.\pagebreak翻訳結果と参照訳に単語のマッピングを適用し,順位相関をスコアとして計算し,評価する.\paragraph{ROUGE}ROUGE\cite{lin-2004-rouge}は,要約タスクでよく使われる評価指標である.ROUGE-nは,翻訳結果と参照訳のn-gram一致数のrecallに基づいて計算する.n-gramの代わりに最長共通部分列を使ってスコアを計算するROUGE-Lも提案されている.ROUGE-1,ROUGE-2,ROUGE-Lは,後節で説明する人手評価との相関において大差がなかったため,本稿ではROUGE-Lの結果のみを報告する.\paragraph{BERTScore}BERTScore\cite{bert-score}は,埋め込み表現を用いる指標であり,翻訳結果の各トークンと参照訳の各トークンとの類似度スコアを計算する.文字ベースでスコアを計算するために,本実験では東北大BERT(BERT-japanese-char)の第11層の出力を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手によるアノテーション}本研究は中国語と日本語のバイリンガル三名にアノテーションを依頼する.アノテータの選考基準としては以下のものを設ける:(1)中国語の白文を読めること.(2)大学入学共通テストの漢文パートで満点が取れること.返り点付与に対しては,返り点付与器と人間の性能を比較するために,同じソート作業を参考文献やインターネットアクセスなしで行ってもらう.結果を集計し,Kendall'sTauとPMRスコアを計算する.書き下し文生成に対しては,以下の三つの指標で1から5の5段階(大きい方が良い)で評価してもらう.書き下し文の正しさを評価するため,参考文献の参照を可能としている.\vspace{1\Cvs}\paragraph{Relevance}白文を不足なく,乖離なく書き下しているかどうか.\paragraph{Accuracy}日本語としての語彙的,文法的正しさ.読み順の正しさ.\paragraph{Fluency}文の流暢さ,自然さ.漢詩のリズム感が残っているかどうか.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結果と考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{返り点付与}返り点付与の評価結果を表\ref{tab:reorder}に示す.UD-Kundokuは\citeA{ud-kundoku,ud-kundoku-2}で提案されたベースラインで,Humanスコアは3人のアノテータのスコアの平均値である.UD-Kundokuは『孟子』,『論語』,『礼記』など比較的長い漢文を対象としており,本研究が対象とする唐詩の特徴や難易度と異なるため,単純な比較はできず,ベースラインの値としてはあくまで参考程度であることに注意されたい.全てのBERT-likeモデルはベースライン,そして人間より高い精度を達成した.中国語のモデルは,日本語のモデルよりも若干良い精度を示し,漢文コーパスで事前学習したRoBERTa-classical-chinese-charは最も良い精度を示した.これは,事前学習で使われているコーパスにおける漢文の割合によるものだと考えられる.ベースラインと比較して,RoBERTa-classical-chinese-charはKendall'sTauを22.5\%,PMRを94.7\%向上させることに成功した.人間のスコアと比較して,RoBERTa-classical-chinese-charはKendall'sTauを11.8\%,PMRを29.2\%向上させた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{05table03.tex}%\hangcaption{返り点付与におけるKendall'sTau($\tau$)とPMRの評価結果.UD-Kundokuはベースラインで,Humanスコアは三人のアノテータの結果の平均である.}\label{tab:reorder}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{1\Cvs}\paragraph{中国語モデルと日本語モデルの性能差}中国語コーパスには漢文が一部存在するため,中国語モデルと日本語モデルの性能差は,言語の語順ではなく,コーパスに起因するものと推測する.このタスクはSVOをSOVに変換する並べ替えタスクであるため,語順を考慮し,事前学習に中国語と日本語両方のコーパスを使用することが理想である.しかし,既存の多言語モデルは,入力テキストを文字単位に分割できる保証はないため,この検証は将来の研究に委ねる.\paragraph{追加の事前学習データは性能に貢献しない}RoBERTaのモデルは,BERTのモデルよりも高いスコアを得ることができなかった.これはCC-100\cite{conneau-etal-2020-unsupervised}のようなウェブからクローリングしたコーパスには多くの漢文が存在しておらず,RoBERTaでの追加学習はモデルの漢文の理解能力を強化できなかったと考えられる.\paragraph{BERTは細かい部分の予測が得意}人間のスコアと比較すると,RoBERTa-japanese-char-wwmと人間のPMRスコアは同程度であるが,モデルのKendall'sTauスコアは人間より5.9\%も高いという興味深い結果が得られた.これは,BERT-likeモデルが人間よりも語順の詳細を予測できることを示している.本研究で依頼したアノテータは中国語と日本語のバイリンガルであるが,漢文の専門家ではない.今後,実際の専門家と協力して実験を行い,BERT-likeモデルが優位性を保てるかについて検証したい.\paragraph{具体例の分析}返り点付与の具体例として,詩『送孔巣父謝病歸遊江東兼呈李白』に対するモデルとアノテータの解答結果を表\ref{tab:reorder_example}に示す.モデルが完全正解できた文はアノテータより多く,間違っている文でも小さいミスに留まっている.一方,人間は時々相関係数を大きく下げるミスを犯す.これは,定量評価と整合性を取れる結果となっている.二人以上のアノテータが正解できたが,モデルが不正解だった例として,``巣父掉頭不肯住'',``東將入海隨煙霧''と``指點虚無引歸路''がある.``巣父掉頭不肯住''では,``肯''は``承知する''という意味であると認識できなかったのが原因であると推測する.``東將入海隨煙霧''と``指點虚無引歸路''では,``東將''と``指點''が二文字からなる名詞および動詞であると認識できなかったのが原因であると推測する.前処理で文を文字単位に分割しているため,このように複数の文字から構成される単語を別々の単語として誤認識する例は他にも沢山ある.漢文特化の形態素解析器を作り,前処理で単語単位に分割することができれば,返り点付与の精度はさらに向上すると期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}%\hangcaption{返り点付与の具体例『送孔巣父謝病歸遊江東兼呈李白』.アンダーバーでモデルやアノテータの解答の間違っている部分を示す.完全正解している場合は``-''で省略する.モデルは最も強いRoBERTa-classical-chinese-charを使用している.}\label{tab:reorder_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{書き下し文生成}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モデルの性能評価}書き下し文生成に対する自動評価と人手評価の結果を表\ref{tab:translation}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{05table05.tex}%\caption{書き下し文生成の評価結果.UD-Kundokuはベースラインである.}\label{tab:translation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%自動評価では,全モデルが全ての評価指標でベースラインを上回った.mT5の性能はモデルサイズの増大につれて上昇し,mT5-largeが最も良い性能を示した.mGPTとmT5-smallの性能は近い結果となった.人手評価では,mT5-small,mT5-large,mGPTの生成結果のみをアノテータに評価させた.作成したデータセットの品質を測るため,正解書き下し文も評価している.自動評価と同様,mT5-largeが最も良い性能を示した.一方,mGPTはmT5-smallの8倍以上のパラメータ数を持つが(詳細なモデルサイズを付録\ref{appendix:model}に示す),mT5-smallのスコアは大きくmGPTを上回った.mT5,mGPTは共に主にmC4\cite{2020t5}で事前学習しているため,コーパスの影響はほぼ排除できる.推測の一つとしては,mT5のエンコーダが漢文の理解に大きな役割を果たしていると考えられる.しかし,これは仮説であり,追加の実験が必要である.正解書き下し文は非常に高いスコアを獲得し,本データセットの書き下し文データが高品質であることが証明された.また,アノテータ間の一致度を測定するために,Fleiss'Kappaを計算した.Relevance,Accuracy,FluencyについてのFleiss'Kappaはそれぞれ0.360,0.371,0.341であり,fairagreementを示した\cite{kappa}.\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{具体例の分析}5.1節の返り点付与で議論した単語の認識がうまくいっていない例について,書き下し文生成においても分析を行う.表\ref{tab:translation_example}に具体例を示す.5.1節の``東將''と``指點''と同様,``扁舟'',``海霧'',``登仙'',``講法'',``人意'',``令公'',``擒生''が一つの名詞や動詞として認識されず,誤った書き下し文が生成された.これは,人手評価のRelevance値の低さにも繋がっている.mT5は文字単位ではなく単語単位で文を分割するが,事前学習コーパスにおける漢文の量が少なく,うまく分割できなかったのが原因だと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{05table06.tex}%\hangcaption{単語の認識がうまくいっていない書き下し文生成の具体例.三人のアノテータのRelevance人手評価値とその平均を示す.モデルは最も強いmT5-largeを使用している.}\label{tab:translation_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{05table07.tex}%\hangcaption{再読文字``当,応,未''および返読文字``不''が使用される書き下し文生成の具体例.三人のアノテータのRelevance人手評価値とその平均を示す.モデルは最も強いmT5-largeを使用している.}\label{tab:translation_example2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,表\ref{tab:translation_example2}に再読文字,返読文字が使用される文の例を示す.mT5-largeはほとんどの再読,返読文字を正しく生成できている.人手評価も高いスコアとなっている.少量の学習データがあれば,ほとんど漢文を見たことがないモデルでも,再読,返読文字のような特殊な変換ルールを学習できると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自動評価と人手評価の相関}表\ref{tab:correlation}に自動評価指標と人手評価指標間の相関係数を示す.BERTScoreは三つの人手評価指標全てと最も高い相関を示した.ランクに基づくRIBESは最も低い相関を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{05table08.tex}%\caption{自動・人手評価指標のPearson($r$),Spearman($\rho$)相関係数.人手評価指標間の相関も示している.}\label{tab:correlation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%BLEUとROUGE-Lに比べ,BERTScoreはRelevanceでわずかにリードしているが,AccuracyとFluencyでは大幅に優れていた.これは,BERTScoreが潜在的な文単位の意味を捉えることができる\cite{bert-score}ため,文の正しさと流暢さを判断することができたと推測する.また,漢文は一般的に非常に短いため,BLEUやROUGEが小さな変化に影響される可能性があり,BERTScoreの方が漢文の評価に適していると推測する.人手評価指標間の相関も表\ref{tab:correlation}に示している.AccuracyとFluencyの相関が最も大きく,語彙的,文法的に正しい日本語は流暢であることがわかる.全体的に,人手評価指標間の相関は比較的高い.より包括的な観点から評価するため,今後漢文の専門家と議論し,より適切な,互いに相関が低い人手評価指標を定義したいと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{パイプライン}パイプラインの評価結果を表\ref{tab:pipeline}に示す.各モデルの一行目は表\ref{tab:translation}にも示した直接書き下し文を生成した結果である.二行目(``+reorder'')は,RoBERTa-classical-chinese-charを使って事前に返り点付与を行ってから書き下し文生成した結果である.三行目(``+reorder(gold)'')は,RoBERTaの予測結果ではなく,真の日本語読み順のラベルを使って事前ソートしてから書き下し文生成した結果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{05table09.tex}%\hangcaption{パイプラインの評価結果.一行目は素の生成結果,二行目(``+reorder'')はRoBERTaで事前ソートしてから生成させたもの,三行目(``+reorder(gold)'')は正解でソートしてから生成させたもの.}\label{tab:pipeline}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%返り点付与モデルで事前ソートした結果,mT5-smallのスコアは改善されたが,mT5-baseとmT5-largeはほとんどの評価指標で性能の低下を示した.生成モデルの性能が上がれば,徐々に語順を考慮しながら書き下し文を生成できるようになると推測する.表\ref{tab:reorder}に示しているように,返り点付与モデルの予測は100\%正確ではないため,誤った予測により生成モデルが混乱し,正しい語順を予測できなくなったと考えられる.一方,正解を用いた事前ソートは,ほぼ全てのモデルにおいて一定の性能向上を示した.これは,正しい返り点付与は書き下し文の生成に貢献することを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究は,書き下し文資源の不足を解消するために,\pagebreak言語モデルを用いた返り点付与と書き下し文生成を試みた.また,白文,日本語読み順,書き下し文の3つ組が含まれる漢文訓読データセットを構築した.データセットは利用しやすい形で公開しており,今後の漢文研究において有用であると考えている.さらに,自動評価と人手評価の相関を計算することで,どの自動評価指標が漢文訓読に最も適しているのかについて議論した.本稿の実験では,BERTScoreが最も優れている結果となった.しかし,文字ベースの評価指標でしか実験しておらず,今後はサブワードベースや文ベースの指標を用いて追加の実験を行う必要がある.本研究のデータセットは唐詩のみから構成されているため,包括的とは言えない.唐詩は漢文の中で比較的容易なジャンルであることを考慮すると,我々のモデルは,唐詩以外の漢文において高い精度を出せない可能性がある.今後は,データセットを継続的に更新し,より包括的な漢文テキストを含むよう改良したいと考える.また,多種な漢文に対応できるように,頑健なモデルの学習方法の検討や,モデルのドメイン外性能の評価などを行っていきたい.さらに,漢文の専門家と協力し,人間の返り点付与の精度上限を探ること,より厳密な人手評価指標を作ることなど,より深い議論を行っていきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費JP21H04901の助成を受けて実施した.また本論文は以下のFindingsofACL2023の論文を拡張・翻訳したものである.HaoWang,HirofumiShimizu,andDaisukeKawahara.2023.Kanbun-LM:ReadingandTranslatingClassicalChineseinJapaneseMethodsbyLanguageModels.InFindingsoftheAssociationforComputationalLinguistics:ACL2023,pages8589--8601,Toronto,Canada.AssociationforComputationalLinguistics.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix\vspace{-1\Cvs} \section{事前学習モデル} \label{appendix:model}以下に実験に用いた事前学習モデルの詳細を示す.返り点付与用のBERT-likeモデルは表\ref{tab:model1},書き下し文生成用のモデルは表\ref{tab:model2}に示す.\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{05table10.tex}%\caption{事前学習モデルの詳細(返り点付与).}\label{tab:model1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{05table11.tex}%\caption{事前学習モデルの詳細(書き下し文生成).}\label{tab:model2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{ハイパーパラメータ} \label{appendix:parameter}\label{sec:appendix}表\ref{tab:hyperparamters}に実験に用いたハイパーパラメータを示す.中括弧内の値でグリッドサーチして最適なものを選んでいる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[h]\input{05table12.tex}%\caption{実験に用いたハイパーパラメータ.}\label{tab:hyperparamters}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{王昊}{%2023年早稲田大学基幹理工学部情報理工学科卒業.2023年現在同大学院修士課程在学中.}\bioauthor{清水博文}{%2022年早稲田大学基幹理工学部情報通信学科卒業.2023年現在同大学院修士課程在学中.}\bioauthor{河原大輔}{%1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構主任研究員,京都大学大学院情報学研究科准教授を経て,2020年より早稲田大学理工学術院教授.自然言語処理,知識処理の研究に従事.博士(情報学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V09N03-06
\section{はじめに} インターネットの急速な普及により,ユーザが閲覧可能なコンテンツは,爆発的に増大している.そのようなコンテンツを検索するために,yahoo!やinfoseekなど,いくつもの検索エンジンが登場してきている.そうした検索エンジンでは,ユーザがキーワードや文字列を論理式で与えることによって,検索を実行するのが一般的である.しかしながら,特に初心者ユーザにとっては,そうした検索エンジンへの条件の与え方がまだ十分に使いやすいものではなく,自然言語による対話を用いて検索を行ないたいという需要がある.情報検索対話に自然言語を用いる利点は,以下が挙げられる.\begin{itemize}\item自然言語は,ユーザにとって最も親しみやすく,自然なコミュニケーション手段である.なお,大語彙連続音声認識技術の向上により,キーボード入力を行なう負荷も軽減してきている.\item自然言語の修飾関係を利用することで,論理式よりも精度の高い検索を行なえる可能性がある.\itemいわゆる「パラフレーズ(表現の言い換え)」を行なうことにより,ユーザが思いついた表現が所望するコンテンツに含まれていない場合にも,その表現を検索結果に利用できる可能性がある.\item対話戦略などに当たるキーワード(例えば,旅行における出張など)に対し,キーワードとは異なる検索条件(出張では,例えば,宿泊料金をXXXX円以下とする)や応答内容(コンテンツのtitle(宿泊施設名)だけでなく,料金や立地条件)に展開することで,効率的に対話を進められる可能性がある.\end{itemize}しかしながら,情報検索というタスクに対して,現状の自然言語処理技術では,自然言語を用いた万能の検索対話を実現することは現状では困難である.また,上記のように有効な対話戦略はいくつか存在するが,そうした対話戦略を導入することにより,ユーザが対話システムに過度の対話能力を期待し,ユーザが期待する対話能力を対話システムが実現できていないことで,ユーザが混乱し,結果的に対話システムを過小評価する場合も少なくない.\bigskip一方,近年の(自然言語)対話システムでは,音声認識・合成技術や画像処理技術の向上により,より人間に近い振舞い(音声,顔の表情,感情など)を導入した「擬人化エージェント」を計算機とユーザとのインタフェースとして用いる研究が盛んになってきている(例えば,\cite{tosburg,nagao,densouken,toyohasi}など).上記の対話システムで擬人化エージェントを導入した主目的は,擬人化エージェントを導入することで,より自然なインタラクションを実現することであると考えられるが,対話の相手である擬人化エージェントは,通常ひとつ(ひとり)である.しかしながら,現実の世界での人間を対象とした情報検索においては,例えば,「○○の技術については,××の部署が担当しているが,その中でも△△氏が詳しいので,△△氏に聞こう」とか,「車を購入するのにどれにしようか迷っている.それぞれのディーラーの担当者に同じ条件を与えて,一番良い回答を出した車種にしよう」などということを知らず知らずのうちに行なっているものである.\bigskipそこで本稿では,ユーザが情報検索システムとの対話を行なう「窓口」を,情報提供者サイドが予め設定した異なる属性により異なる振る舞いを行なう「対話エージェント」として多数用意し,ユーザが対話エージェントを選択・切り替えることで,効率的な情報検索を実現する対話モデルを採用した.すなわち,現状の自然言語処理技術で解決できる(特定の用途に対しては効率的な方策を実現しているが,汎用的には実現できていない)能力を複数の「対話エージェント」(賢い対話エージェントもいるし,馬鹿な対話エージェントもいる)というアナロジーによって,ユーザに違和感なく受け入れさせ,ユーザに対話エージェントを使い分けさせることで,自然言語を用いた効率的な情報検索対話を実現することを目的とする.なお,本稿で述べる「対話エージェント」は,他の対話システムで実現されている擬人化エージェントのように,書き下された文字列以外のモダリティを保持していないが,情報検索に対して,個々の局面で異なる知識を保持した「個々の対話の相手」を示すアイコンとして複数用意し,ユーザが対話エージェントを使い分けることで,より効率的な情報検索の対話を実現することを試みた.ただし,本稿の対話エージェントでは,エージェント間での協調や交渉といった相互作用については,技術的に導入が可能であったが,本稿の主張と現状のマルチエージェントモデルの差異がわかりにくくなると判断し,導入していない.本稿では,まず,\ref{sec:curnld}章において,自然言語を用いた現状の情報検索対話の例を挙げ,現状の問題点について指摘する.次に\ref{sec:multia}章では,本稿で提案する複数の「対話エージェント」を導入した対話モデルについて説明し,\ref{sec:daev}章では,複数の対話エージェントを導入した対話モデルの評価について述べる. \section{自然言語を用いた情報検索の対話例と問題点} label{sec:curnld}\subsection{単一ドメイン(旅行)に関する情報検索対話の例}我々は,旅行に関する約8万件のモデル化文書を格納した2枚の市販の電子ブック\cite{tabigura,jtb}を対象とした音声対話情報検索システムTARSANを作成した\cite{tarsan}.TARSANでは,モデル化文書を項目に分割して全文検索を行ない,特に「地名」項目に注目して,効率的に適合文書を絞り込み,その適合文書の特定の項目を提示する音声検索対話を実現した.TARSANで実現した対話例を表~\ref{tab:travel}に示す.\begin{table}[htp]\caption{旅行をドメインとする対話例}\label{tab:travel}\bigskip\centering\tt\begin{tabular}{lp{120mm}}\hline\hlineusr1:&温泉について調べたい。\rule{0pt}{10pt}\\sys1:&何か条件を指定してください。\\usr2:&効能が神経痛です。\\sys2:&場所を指定してください。\\usr3:&東北地方。\\sys3:&福島県に80件,青森県に51件,山形県に41件,秋田県に39件など,合計で257件あります。\\usr4:&宮城県では。\\sys4:&仙台市に8件,鳴子町に4件,宮城県川崎町に3件,花山村に3件など,合計で23件あります。\\usr5:&仙台市では。\\sys5:&秋保温泉,神ヶ根温泉,作並温泉,広瀬川温泉など,8件あります。\\usr6:&作並温泉の行き方は。\\sys6:&作並温泉の行き方は作並駅バス5分です。\\\hline\hline\end{tabular}\end{table}このように,実用規模のテキストデータからユーザの検索条件に合致するものを絞り込む対話では,ユーザは検索条件の追加や変更を繰り返すことで目的とする文書にたどりつく({\ttusr2$\sim$5}).このような対話を効率的に行なうには,システムが主導に立って対話の流れを制御し,1)検索条件が不十分な場合にはユーザに入力を要求したり({\ttsys1,2}),2)ユーザが次に検索条件を追加/変更するための付加的な情報を提示したり({\ttsys3,4})することが効率的である.TARSANで実現した「旅行」をドメインとする対話では,「地名」という特殊な検索条件に注目し,これを利用することで,効率的な対話を実現した.すなわち,地名を必須条件とし,地名の階層構造を用いて検索結果をグループ化する処理を行なうことにより,表\ref{tab:travel}に示したような対話を実現した.\subsection{複数ドメインに関する情報検索対話の例}TARSANにおける対話は,旅行という単一のドメインに限定したものであった.そこで,TARSANで手続き的に実現した「対話の流れを制御するために用いる項目(以下,{\bf対話項目}と呼ぶ)」を宣言的に記述できるようにすることで,複数のドメインを対象とするよう拡張した.以下では,旅行ドメインにおける「地名」の役割を分析し,他のドメインに適用する手法について説明する.\subsubsection{ドメインの決定}単一ドメイン(旅行)に関する情報検索の対話を複数のドメインに適用するにあたり,問題となるのは,異なるドメインにおいては異なる意味で用いられる多義語である.しかし,当面の目標として,旅行というドメインで確立した手法を他のドメインに適用することとしたので,旅行以外のドメインとして,互いの関連性が少ない,「プロ野球\cite{baseball}」と「映画\cite{cinema}」を選んだ.そして,表\ref{tab:genre}に示す{\bfジャンル名}がユーザの質問文に現れた場合に,その{\bfジャンル名}が属するドメインに決定する.\begin{table}[th]\caption{ドメインごとのジャンル名の例}\label{tab:genre}\bigskip\centering\begin{tabular}{c|l}\hline\hline{\bfドメイン}&\multicolumn{1}{c}{\bfジャンル名}\\\hline旅行&温泉,神社・仏閣,博物館,美術館,動・植物園,城,庭園,ゴルフ場...\\プロ野球&選手・監督,球団,球場,歴代優勝球団...\\映画&洋画,邦画\\\hline\hline\end{tabular}\end{table}\subsubsection{各対話項目の説明}\label{sec:ditem}これまでに述べたような検索対話を一般化するために,TARSANの対話で果たした地名項目の役割を以下に示すデフォルト対象項目,必須条件項目,シソーラス項目,優先条件項目という四つの「対話項目」に分類し,ジャンルごとにそれぞれの宣言的に指定できるようにした.また,これらの対話項目を参照して,対話の流れを制御する機能を実現した.表\ref{tab:ditem}に,各ドメインにおける典型的なジャンルごとの対話項目の例を示し,以下で,各対話項目について説明する.\begin{table}[th]\caption{ジャンルごとの対話項目の例}\label{tab:ditem}\bigskip\centering\begin{tabular}{c|l|l|l|l}\hline\hline&\multicolumn{1}{c|}{\bf温泉}&\multicolumn{1}{c|}{\bf選手・監督}&\multicolumn{1}{c|}{\bf洋画}&\multicolumn{1}{c}{\bf…}\rule{0pt}{10pt}\\\hline{\bfデフォルト対象項目}&名称,読み方,地名&名称,読み方,所属球団&名称&\rule{0pt}{10pt}\\{\bf必須条件項目}&地名&---&---&\\{\bfシソーラス項目}&地名&所属球団&---&\\{\bf優先条件項目}&効能&所属球団&キャスト&\\\hline\hline\end{tabular}\end{table}\begin{description}\item[デフォルト対象項目:]ユーザが検索対象項目を明示しない場合に,システムがユーザに提示する項目.モデル化文書のラベルである「名称」項目は必ずデフォルト対象項目とする.また,後述する「シソーラス項目」をデフォルト対象項目として指定すると,検索結果が多い場合,検索条件として与えたシソーラス項目のひとつ下の階層の項目値で検索結果のグルーピングを行なう(表~\ref{tab:travel}{\ttsys3,4}).\item[必須条件項目:]ユーザによる指定を必須とする条件項目.ここで指定された必須条件がユーザによって指定されていない場合には,システムがいわゆる「問い返し」によってユーザに指定を要求する(表~\ref{tab:travel}{\ttsys2}).\item[シソーラス項目:]項目値をグループ化するための階層情報(シソーラス)をシステムが保持している項目であり,ユーザがこの項目を検索条件として指定した場合に,この情報を利用すると,その後の絞込みに有益な項目である.例えば,旅行の所在地項目には,「都道府県」,「市町村」という階層が存在するが,検索条件として,都道府県名が与えられ,検索結果が多い場合には,市町村でグルーピングを行ない,応答文を生成する.また,実際のデータのテキスト中に存在しない階層(例えば,旅行の所在地項目では,都道府県をいくつかにグルーピングした「東海地方」などの地方名,プロ野球の所属球団をグルーピングした「リーグ名」など)も,システムがシソーラス項目として仮想的な階層情報を保持しており,ユーザからそうした実際のデータのテキスト中に存在しない階層を検索条件として指定された場合にも,実際のテキスト中に存在する項目値に展開して検索を行ない(例えば,プロ野球で,「セリーグ」と指定された場合には.現在の6球団と「大洋」,「国鉄」の8球団に展開する),応答文に関して,上記と同様のグルーピングを行なう.\item[優先条件項目:]ユーザが明示的に変更しない限り,検索条件として付与する項目.対話外からも指定できるだけでなく,ジャンル名を含む文で指定された検索条件も優先条件項目とする.優先条件項目以外の条件項目は,それ以外の条件を変更した場合に残すかどうかをシステムが確認するが,優先条件項目は,それ以外の検索条件を変更した場合に確認しない.\end{description}以上の対話項目を2種類のドメイン(プロ野球\cite{baseball},映画\cite{cinema})について作成した.プロ野球,映画をドメインとする対話例を表\ref{tab:baseball},\ref{tab:cinema}に示す.\begin{table}[thp]\caption{プロ野球をドメインとする対話例}\label{tab:baseball}\bigskip\centering\tt\begin{tabular}{lp{120mm}}\hline\hlineusr1:&阪神の選手を知りたい。\rule{0pt}{12pt}\\sys1:&相羽欣厚(1943〜1988),亀山努(1969〜),田淵幸一(1946〜),藤本勝巳(1937〜)など,310人います。\\usr2:&ポジションがサードでは。\\sys2:&朝井茂治(1941〜),掛布雅之(1955〜),西園寺昭夫(1937〜),三宅秀史(1934〜)など,23人います。\\usr3:&掛布のタイトルを示せ。\\sys3:&掛布のタイトルは本塁打王3回('79,'82,'84)打点王1回('82)です。\\usr4:&PL学園を卒業した選手を知りたい。\\sys4:&広島に8人,ダイエーに5人,巨人に4人,阪神に4人など,合計で39人います。\\usr5:&所属球団が巨人では。\\sys5:&加藤英司(1948〜),桑田真澄(1968〜),橋本清(1969〜),吉村禎章(1963〜)です。\\usr6:&沢村賞を受賞した選手を教えて。\\sys6:&巨人に13人,中日に7人,阪神に6人,広島に4人など,合計で29人\footnotemarkいます。\\usr7:&所属球団がヤクルトでは。\\sys7:&松岡弘(1947〜)です。\\\hline\hline\\\addtocounter{footnote}{-1}&\footnotemark{\footnotesize移籍した選手は所属したすべての球団でカウントしているため,球団別の``のべ人数''より少ない.}\end{tabular}\end{table}\begin{table}[thp]\caption{映画をドメインとする対話例}\label{tab:cinema}\bigskip\centering\tt\begin{tabular}{lp{120mm}}\hline\hlineusr1:&洋画について検索したい。\rule{0pt}{12pt}\\sys1:&何か条件を指定して下さい。\\usr3:&どんな条件がありますか。\\sys3:&製作年,原題,解説,評価,名称,上映時間,受賞,スタッフ,キャスト,発売会社があります。\\usr3:&キャストがハリソン・フォードです。\\sys3:&インディ・ジョーンズ魔宮の伝説,幸福の旅路,ナバロンの嵐,ブレードランナーなど,16件あります。\\usr4:&ブレードランナーのスタッフは。\\sys4:&ブレードランナーのスタッフは監督:リドリー・スコット原作:フィリップ・K・ディック脚本:ハンプトン・ファンチャー/デビッド・ピープルズ音楽:バンゲリスSFX:ダグラス・トランブルです。\\usr5:&評価が★★★★である邦画を調べてほしい。\\sys5:&赤西蛎太,祇園の姉妹,すっ飛び駕,麦秋など,46件あります。\\usr6:&監督が黒澤明では。\\sys6:&赤ひげ,七人の侍,用心棒,羅生門など,8件あります。\\usr7:&羅生門の上映時間は。\\sys7:&羅生門の上映時間は87mins.です。\\\hline\hline\end{tabular}\end{table}\subsection{複数ドメインを扱う自然言語処理対話の問題点}\label{ssec:issue}前節で述べたように,複数のドメインを検索できるようにした予備実験システムを作成し,それを用いて対話収集および使用感についてのアンケートを行なったところ,以下の問題点が判明した.\begin{enumerate}\item複数のドメインにまたがる情報を一回の入力文で得られるとユーザが誤解する.複数のドメインにまたがる入力文の例を以下に示す.\begin{description}\item[例1:]「山口百恵が主演した映画にちなんだ温泉を知りたい。」\item[例2:]「プロ野球選手だった俳優が出演した邦画を教えて。」\end{description}最初の例は映画ドメインと旅行ドメインにまたがり,二番目の例は野球ドメインと映画ドメインにまたがっている.\item特定の用途に対して効率的な対話戦略(対話の進め方)をシステムが行なうと,ユーザはシステムが万能の対話戦略を保持していると誤解する.仮に一つの対話エージェントが複数の対話戦略を保持している場合---特にある対話戦略は効率的であるが用途が限られており,別の対話戦略はいろんな用途に適用できるが,あまり効率的でないような場合---には,ユーザは対話戦略間の格差に戸惑い,不快に感じる.\item現状のシステムが指示照応などの対話処理に関して十分な能力を持っていないために,システムの能力に合わせた入力をユーザが行わないと,ユーザは適切な応答が得られない.\\表\ref{tab:compare}は,複数の候補に対する検索条件を単一の文脈でユーザが比較した対話例である.この対話例では,ユーザが箱根と日光の情報を比較しようとして,うまく対話を進めているが,非常に煩雑であり,対話システムの能力を知らずに,このように円滑な検索対話を行なえるユーザは少ない.\end{enumerate}\begin{table}[htp]\caption{複数の候補に対する検索条件を単一の文脈でユーザが比較する対話の例}\label{tab:compare}\bigskip\centering\tt\begin{tabular}{ll}\hline\hlineusr1:&箱根にある温泉を教えて。\\sys1:&16件あります。\\usr2:&日光では。\\sys2:&中禅寺温泉,日光湯本温泉があります。\\usr3:&箱根には寺院がありますか。\\sys3:&阿弥陀寺,九頭竜明神,早雲寺など,7件あります。\\usr4:&日光では。\\sys4:&日光東照宮があります。\\usr5:&その説明を聞きたい。\\sys5:&徳川家康を崇る...\\\hline\hline\end{tabular}\end{table} \section{複数の対話エージェントの導入した対話モデル} label{sec:multia}前章で述べた三つの問題点は,ユーザとの対応をシステムが一つの「対話エージェント(対話の窓口)」しか保持していないことに起因すると仮定した.すなわち,対話エージェントが唯一であると,その対話エージェントがユーザとの対話のすべてを扱うことになり,このことでシステムに何ができて何ができないかをユーザにわかりにくくしていると考えられる.そこで,システムの能力をユーザにわかりやすくするために,複数の対話エージェントを擁する対話モデルを提案する.このように複数の対話エージェントを用いることで,ユーザはシステムにできることとできないことがわかりやすくなる.\subsection{個々の対話エージェントが保持する情報}本対話モデルにおける各対話エージェントは,図\ref{fig:eachagent}に示す以下の五つの情報を保持する.\begin{description}\item[一般検索知識:]情報検索の自然言語対話を行なうための汎用的な知識であり,全対話エージェントに共通のもの\item[ドメイン知識:]個々の対話エージェントが扱うドメインにおけるジャンル名や個々のジャンルに属する項目などの知識\item[対話戦略:]\ref{sec:ditem}節で述べた個々のジャンルの対話項目\item[文脈情報:]個々の対話エージェントがユーザと対話を行なった検索履歴\item[待遇判定情報:]各対話エージェントが,その個性(他の対話エージェントと異なることをアピールする属性)を決定する情報\cite{taiguu}\end{description}以下では,個々の対話エージェントが,上記のドメイン知識,対話戦略,文脈をそれぞれに保持することで変化する対話について説明する.\begin{figure}[hp]\begin{center}\epsfile{file=eagent.eps,height=130pt}\end{center}\caption{各対話エージェントが保持する情報}\label{fig:eachagent}\end{figure}\subsection{ドメインごとに割り当てる対話エージェント}\ref{ssec:issue}節で述べた最初の問題点を解決するために,検索を行なう対話エージェントを異なるドメインごとに用意した.このような対話エージェントをドメインエージェントと呼ぶ.ドメインエージェントのイメージを図\ref{fig:agentD}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=agentD.eps,height=180pt}\end{center}\caption{ドメインエージェント}\label{fig:agentD}\end{figure}ドメインエージェントは,各ドメインにおいて初歩的な対話戦略を保持し,ユーザとシステム間のやりとりが可能な対話エージェントである.ユーザがそれまで対話しているドメインと異なるドメインに関する入力を行った場合には,その異なるドメインに割り当てられたドメインエージェントが応答を行なう.したがって,こうしたドメインエージェントを用意することで,ユーザは自分と対話している対話エージェントがドメインにまたがる質問を受理できないと気づき,ドメインにまたがる質問を行わないようになることが期待される.\ref{ssec:issue}節の例1に対するドメインエージェントを導入した例を表\ref{tab:d-agent}に示す.この例では,ユーザが入力した質問文に対して,映画に関するドメインエージェント({\ttC.agt})と旅行に関するドメインエージェント({\ttT.agt})がそれぞれ,自分が可能な応答を行なっている.このように,ドメインエージェントを用いることで,システムが異なるドメインにまたがる質問を受理できないことがユーザに理解されると期待する.\begin{table}[ht]\caption{ドメインエージェントを導入した対話例}\label{tab:d-agent}\bigskip\centering\tt\begin{tabular}{ll}\hline\hlineusr:&山口百恵が主演した邦画にちなんだ温泉を知りたい。\\C.agt:&山口百恵が主演した邦画は,伊豆の踊り子,春琴抄など,13件あります。\\T.agt:&説明が邦画である温泉はありません。\\usr:&伊豆の踊子にちなんだ温泉を知りたい。\\C.agt:&別の言い方をしてください。\\T.agt:&場所を指定してください。\\usr:&日本全国。\\C.agt:&別の言い方をしてください。\\T.agt:&湯ケ野温泉です。\\\hline\hline\end{tabular}\end{table}\subsection{対話戦略ごとに割り当てる対話エージェント}\label{sec:strategy}\ref{ssec:issue}節で述べた二番目の問題点を解決するために,情報検索に関する特定の対話戦略ごとに割り当てた対話エージェント,--対話戦略エージェント--を用意した.対話戦略エージェントのイメージを図\ref{fig:agentS}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=agentS.eps,height=180pt}\end{center}\caption{対話戦略エージェント}\label{fig:agentS}\end{figure}対話戦略エージェントは,単一のドメインにおいて,情報提供者側が用意した対話戦略ごとに定義される.本稿の実験システムでは,旅行のドメインに対して,以下の二種類の対話戦略エージェントを用意した.\begin{quote}\begin{description}\item[出張エージェント:]必須条件を目的地とし,付加条件を宿泊料と立地条件とする.付加条件がユーザに指定されない場合,出張エージェントはあらかじめ定義された付加条件の値をユーザに提案する.また,デフォルトの結果項目として出張エージェントが応答する項目はホテルの名前とその電話番号である.\item[リクレーションエージェント:]必須条件はレジャー施設と参加人数であり,それ以外の項目はオプショナルである.ユーザがオプショナルの項目を指定しない場合,リクレーションエージェントがあらかじめ定義された値をユーザに提案する.デフォルトの結果項目としてレクレーションエージェントが応答する項目は出張エージェントと同様,ホテルの名前とその電話番号である.\end{description}\end{quote}対話戦略エージェントは,ユーザがシステムを容易に使えるようにするだけでなく,単一ドメインにおいても,タスクに応じていろんな対話戦略が存在することをユーザに気づかせることができる.旅行ドメインのドメインエージェントと,出張エージェントを用いた対話の比較を表\ref{tab:s-agent}に示す.表\ref{tab:s-agent}からわかるように,ユーザは対話戦略エージェントを用いることによって,容易に自分の目標を達成できている.\begin{table}[ht]\caption{ドメインエージェントを用いた対話と対話戦略エージェントを用いた対話の比較}\label{tab:s-agent}\bigskip\centering\tt\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{旅行ドメインのドメインエージェント}\\\hline\hlineagt0:&はい,旅行エージェントです。\\usr1:&鳥取市にあるホテルを知りたい。\\agt1:&34件あります。\\usr2:&駅前にあるホテルは。\\agt2:&8件あります。\\usr3:&宿泊料が8000円以下では。\\agt3:&他の条件,「立地条件が駅前」,を残しますか。\\usr4:&はい。\\agt4:&AAAホテル,ホテルBBBです。\\usr5:&その電話番号を教えて。\\agt5:&AAAホテルの電話番号はXXX-XXXX,ホテルBBBの電話番号はYYY-YYYYです。\\\hline\hline\end{tabular}\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{出張エージェント}\\\hline\hlineagt0:&はい,出張エージェントです。どちらに出張なさいますか。\\usr1:&鳥取市です。\\agt1:&立地条件は駅前,宿泊料は8000円以下でよろしいですか。\\usr2:&はい。\\agt2:&2件あります。AAAホテルの電話番号はXXX-XXXX,ホテルBBBの電話番号はYYY-YYYYです。\\\hline\hline\end{tabular}\end{table}\subsection{文脈ごとに割り当てる対話エージェント}\ref{ssec:issue}節で述べた最後の問題点を解決するために,一連の検索条件ごとに同一の対話戦略を持つ複数の対話エージェント--文脈エージェント--を利用できるようにした.文脈エージェントを用いると,ユーザは同一の対話戦略を用いて異なる検索条件で一度に検索することができるようになる.文脈エージェントのイメージを図\ref{fig:agentS}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=agentC.eps,height=180pt}\end{center}\caption{文脈エージェント}\label{fig:agentC}\end{figure}典型的な検索条件,例えば,旅行ドメインにおける有名な観光地やプロ野球ドメインにおける人気球団などは,それらの検索条件を予め与えた文脈エージェントを用意している.また,ユーザが対話の課程で別々の検索条件を割り当てた対話エージェントを文脈エージェントとして扱うこともできる.所在地の検索条件に「箱根」と「日光」を予めそれぞれ割り当てた二つの文脈エージェントを用いた対話例を表\ref{tab:c-agent}に示す.表\ref{tab:compare}と表\ref{tab:c-agent}を比較するとわかるように,ユーザは複数の文脈エージェントを用いることによって,自分が比べたいと思っている候補を容易に比較できている.\begin{table}[htp]\bigskip\centering\tt\caption{二つの文脈エージェントを用いた対話例}\label{tab:c-agent}\begin{tabular}[t]{lp{120mm}}\hline\hline\multicolumn{2}{l}{(箱根エージェントと日光エージェントに対して)}\\usr1:&温泉を知りたい。\\H.agt1:&16件あります。\\N.agt1:&中禅寺温泉,日光湯元温泉です。\\usr2:&寺院はありますか。\\H.agt2:&阿弥陀寺,九頭竜明神,鎖雲寺,正眼寺など,7件あります。\\N.agt2:&大猷院霊廟,日光山輪王寺,日光東照宮,湯元温泉寺など,8件あります。\\\multicolumn{2}{l}{(日光エージェントに対して)}\\usr3:&日光東照宮の説明を聞きたい。\\N.agt3:&日光東照宮の説明は徳川家康の霊を崇る。陽明門に代表される華やかな建築物は,神仏混合の様式で他に類をみない。です。\\\hline\hline\end{tabular}\end{table} \section{複数の対話エージェントの導入した対話モデルの評価} label{sec:daev}本章では対話エージェント導入の効果の評価実験について述べる.\subsection{複数の対話エージェントを導入した検索システム--MultiTARSAN--}今回提案した複数の対話エージェントを導入した対話モデルとを検証するための実験システム-MultiTARSAN-を作成した.\subsubsection{実行画面}MultiTARSANの実行画面を図\ref{fig:main-w}に示す.技術的には3つ以上の対話エージェントを同時に表示し,選択させることも可能であるが,今回の実験システムでは,レイアウトの都合上,2つまでの対話エージェントとの対話を同時に可能とした.各対話エージェントには,3つのドメイン(旅行,プロ野球情報,映画情報)ごとに,エージェント切替えメニューとエージェントアイコンおよび対話ログを持つ.エージェント切替えメニューにより,各ドメインにおける戦略および文脈エージェントの切替えを行なう.エージェントを切り替えると,エージェントアイコンがそのエージェントのものに切り替わり,そのドメインがアクティブになる.なお,アクティブになっているエージェントアイコンを押すと,そのエージェントはアクティブでなくなる.また,アクティブになってないエージェントアイコンを押すと,そのエージェントがアクティブになるとともに,他のドメインでアクティブになっているエージェントがあれば,アクティブになっているエージェントはアクティブでなくなる.なお,図\ref{fig:main-w}は,システム立ち上げ後,ユーザがエージェント1として一般旅行エージェントアイコンを押すことで,一般旅行エージェントがアクティブになったところを示している.ユーザが入力文を入力すると,アクティブになっているエージェントに入力文が送られる.すなわち,エージェント1で一般映画エージェント,エージェント2で一般旅行エージェントをアクティブにすると表7のような対話を行なうことができ,エージェント1で一般旅行エージェント,エージェント2で出張エージェントをアクティブにすると表8のような対話を行なうことができる.また,エージェント1と2で同じエージェントを選択すると,対話履歴は別々に保持され,独立した対話を行なうことができる.したがって,エージェント1と2の両方で一般旅行エージェントを選び,それぞれに,所在地として箱根と日光を与えると,表9のような対話を行なうことができる.なお,実際の導入前の対話システムは,旅行,プロ野球,映画という3つのドメインに対して,唯一の対話エージェントがユーザと対話を行なうものであったが,便宜上,MultiTARSANで,エージェント1のみを用い,対話エージェントを一般旅行エージェントに固定したものを導入前のシステムと等価であるとして,以下の実験を行なった.\begin{figure}[htbp]\begin{center}\epsfile{file=main-w.eps,height=300pt}\end{center}\caption{MultiTARSANの実行画面}\label{fig:main-w}\end{figure}\subsection{対話エージェントの導入効果の評価実験}複数の対話エージェントを導入したシステム(「導入後」と呼ぶ)を対話エージェントが一つのシステム(「導入前」と呼ぶ)と比較することにより,複数の対話エージェントを導入したことの効果を評価した.ここで,「導入前」の一つの対話エージェントは旅行ドメインのドメインエージェントである.8名の被験者を用いて実験を行ない,以下の二つの面から比較した.\begin{quote}\begin{description}\item[ターン数:]被験者がそれぞれのシステムとやりとりを行なった回数.エージェント切り替えメニューからのエージェントの選択,エージェントアイコンの押下によるエージェントのon/offも1回のターンとしてカウントする.\item[セッション時間:]被験者がそれぞれのシステムを用いて,与えられた課題を達成するのに要した時間(秒)\end{description}\end{quote}被験者は全員女性のタイピストであり,かつ,情報検索システムについても自然言語処理対話システムについても初心者である.被験者は実験システムの簡単な説明を受け,おのおの実験システムを約15分間試用した後に,実験を行なった.実験は二つのグループに分けて行なった.グループ1(被験者a〜d)は,導入後を先,導入前を後に用い,グループ2(被験者e〜h)は,導入前を先,導入後を後に用いた.\subsubsection{実験1}各被験者に以下の課題を与えた.\begin{description}\item[課題1:]あなたは倉敷市に出張します。自分が泊まりたいホテルを見つけて下さい\footnote{\cite{jtb}には倉敷市のホテルとして41軒が記載されている.}。ただし,システムごとで異なるホテルを選んでも構いません。\end{description}実験1の結果を図\ref{fig:exam1}に,ターン数,セッション時間の平均を表\ref{tab:mtexam1}に示す.また,実験で行なわれた対話の例を表\ref{tab:ex1ex}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=exam1.eps,height=150pt}\end{center}\caption{実験1の結果(全員)}\label{fig:exam1}\end{figure}\begin{table}[htp]\caption{実験1の結果(平均)}\label{tab:mtexam1}\centering\bigskip\begin{tabular}{c|ccc|ccc}\hline\hline&\multicolumn{3}{c|}{グループ1(a〜d)}&\multicolumn{3}{c}{グループ2(e〜h)}\\&導入前&$\rightarrow$&導入後&導入後&$\rightarrow$&導入前\\\hlineターン数&7.3&&4.0&4.5&&5.5\\セッション時間&640&&175&190&&360\\\hline\hline\end{tabular}\end{table}\begin{table}[htp]\caption{実験2の対話例(グループ2の同一被験者)}\label{tab:ex1ex}\bigskip\centering\footnotesize\tt\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{導入前}\\\hline\hline一般旅行&はい。一般旅行エージェントです。\\USER&倉敷にあるホテルを知りたい\\一般旅行&吉井旅館,倉敷ターミナルホテル,やま幸,山水苑など,41件あります。\\USER&ホテルの条件を教えて\\一般旅行&行き方,料金,名称,場所,電話番号,立地条件,説明,駐車場,レジャー施設,室数があります。\\USER&その立地条件は\\一般旅行&市街が15件,海岸が7件,高台が5件,駅前が4件,田園が3件,河畔が2件,宅地が2件,駅内が1件,境内が1件,山上が1件あります。\\USER&立地条件が駅前では\\一般旅行&国民旅館大熊,倉敷ターミナルホテル,倉敷ステーションホテル,みさを旅館です。\\USER&その料金は\\一般旅行&国民旅館大熊の料金は60〜100室40〜48,倉敷ターミナルホテルの料金はS60〜75T120〜180,倉敷ステーションホテルの料金はS50〜56T100〜110,みさを旅館の料金は100〜200です。\\USER&倉敷ステーションホテルの電話番号は\\一般旅行&倉敷ステーションホテルの電話番号は0864-25-2525です。\\\hline\hline\end{tabular}\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{導入後}\\\hline\hlineUSER&(出張エージェントを選択)\\出張&ようこそ。出張エージェントでございます。場所を指定して下さい。\\USER&倉敷市です\\出張&立地条件は駅前,料金はS80以下でよろしいですか。\\USER&はい\\出張&倉敷ターミナルホテルの電話番号は0864-26-1111,倉敷ステーションホテルの電話番号は0864-25-2525でございます。\\USER&その説明は\\出張&倉敷ターミナルホテルの説明は駅近く商用・観光に適。レディースルームが14室あり好評。倉敷美観地区へ徒歩15分と近く観光に便利。倉敷ステーションホテルの説明は駅前でビジネスに最適。内海の鮮魚の活魚料理と岡山ずしが好評。美観地区にも徒歩5分と近い。でございます。\\\hline\hline\end{tabular}\end{table}導入前のシステムの対話エージェントは一般旅行エージェントに固定であるが,導入後のシステムでは,被験者はすべて出張エージェントを選んだ.両方のグループとも,ターン数,セッション時間の両方で,導入前を用いた対話より導入後を用いた対話の方が少なかった.また,導入前を用いた対話は,先に導入前を用いたグループ2に比べ,導入後を先に用いたグループ1の方が,特にセッション時間について少なかった(グループ2の640秒に対し360秒).このことは,典型的な対話戦略を持つ導入後のシステムを用いたことにより,被験者が対話戦略を持たない導入前のシステムに対して容易に検索が可能になったことを示していると考えられる.また,両者のシステムで異なるホテルを選んだ6名の被験者は全員導入後のシステムを用いて選んだホテルの方が条件が良いと答えた.\subsubsection{実験2}各被験者に以下の課題を与えた.\begin{description}\item[課題2:]あなたは観光旅行で行くのに金沢か仙台のどちらかを選ばなければなりません.検索した情報を用いて両者を比較し,どちらかを選んで下さい.(検索結果の多少にかかわらず,どちらかに決めた時点で終了して構いません.)\end{description}実験2の結果を図\ref{fig:exam2}に,ターン数,セッション時間の平均を表\ref{tab:mtexam2}に示す.また,実験で行なわれた対話の例を表\ref{tab:ex2ex}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=exam2.eps,height=150pt}\end{center}\caption{実験2の結果(全員)}\label{fig:exam2}\end{figure}\begin{table}[htp]\caption{実験2の結果(平均)}\label{tab:mtexam2}\centering\bigskip\begin{tabular}{c|ccc|ccc}\hline\hline&\multicolumn{3}{c|}{グループ1(a〜d)}&\multicolumn{3}{c}{グループ2(e〜h)}\\&導入前&$\rightarrow$&導入後&導入後&$\rightarrow$&導入前\\\hlineターン数&7.0&&13.0&12.8&&8.5\\セッション時間&442&&420&458&&526\\\hline\hline\end{tabular}\end{table}\begin{table}[htp]\caption{実験2の対話例(グループ1の同一被験者)}\label{tab:ex2ex}\bigskip\centering\footnotesize\tt\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{導入前}\\\hline\hline一般旅行&はい。一般旅行エージェントです。\\USER&金沢にある郷土料理を教えて。\\一般旅行&甘えび,カニ料理,ごり料理,たらの子つけなど,12件あります。\\USER&郷土料理の条件を教えて。\\一般旅行&名称,場所,説明,読み方があります。\\USER&ごり料理の説明は。\\一般旅行&場所を指定して下さい。\\USER&金沢です。\\一般旅行&ごり料理の説明は金沢市内を流れる川にすんでいるまごりを使った料理。ごりは体長7〜10cm程の魚で、見かけ良くないが、香ばしい独特の味を持つ。昔は冬の保存食として佃煮などに使われたが、今は貴重な魚となってしまっている。料理は主に唐揚げと味噌汁など。市内常盤町のごりや(0762)52−2288などで。です。\\USER&仙台にある郷土料理を知りたい。\\一般旅行&おくずかけ,カキ料理,山菜料理,ずんだ餅など,5件あります。\\USER&ずんだ餅の説明は。\\一般旅行&ずんだ餅の説明は枝豆をすりつぶし、砂糖と少量の塩,しょう油,酒,みりんで味を整えたアンをからめたお餅。鮮やかな緑色が美しく、自然の豆の香りが郷愁をさそう。7〜8月が最もおいしい。高新餅店(022)222−2250,河童亭(022)265−1876。です。\\\hline\hline\end{tabular}\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{導入後}\\\hline\hlineUSER&(金沢エージェントを選択)\\金沢&ようこそ。金沢エージェントでございます。\\USER&(仙台エージェントを選択)\\仙台&はい。仙台エージェントです。\\USER&郷土料理を教えて。\\金沢&甘えび,カニ料理,ごり料理,たらの子つけなど,12件ございます。\\仙台&おくずかけ,カキ料理,山菜料理,ずんだ餅とか,5件あります。\\USER&美術館はありますか。\\金沢&石川県立美術館,中村記念美術館でございます。\\仙台&赤門美術館,仙台市民ギャラリー,福島美術館,宮城県美術館です。\\&(中略)\\USER&行事祭事を知りたい。\\金沢&加賀とび出初式,加賀百万石まつり,金石湊まつり,観光花火大会など,6件ございます。\\仙台&秋保大滝春の大祭,定義如来夏の祭典,仙台七夕まつり,七日堂ごまたきとか,13件あります。\\&(中略)\\USER&公開日が5月では。\\金沢&条件に該当するデータはございません。\\仙台&仙台青葉まつりです。\\USER&(金沢エージェントをoff)\\USER&その説明は。\\仙台&仙台青葉まつりの説明は伊達模様武者行列,おみこし,山鉾巡行,すずめ踊りが街をねり歩く,です。\\\hline\hline\end{tabular}\end{table}導入前のシステムの対話エージェントは一般旅行エージェントに1つに固定であるが,導入後のシステムでは,被験者はすべて,一般旅行エージェントに検索条件として予め所在地に金沢と仙台を与えた文脈エージェントである金沢エージェントと仙台エージェントの両方を2画面で選んだ\footnote{実験システムの旅行ドメインには,3.3節で述べた日光,箱根や仙台,金沢の他に,函館,高山,伊勢等,16箇所の観光地を予め検索条件とした文脈エージェントを用意した.}本実験では,興味深い現象が観察された.このような複雑な処理を伴なう複数の目標を比較する課題において,被験者は,検索した情報を比較した結果よりもむしろ,あるセッション時間が来ると比較をやめる傾向があった.被験者のセッション時間は,用いたシステム,得られた検索結果の多少にかかわらず,すべて5分から10分の間であった.そして,導入後のシステムの方が導入前のシステムより多くの検索結果が得られていた.\bigskip上記の実験結果をまとめると,複数の対話エージェントを導入することにより,\begin{itemize}\item用意された対話戦略を保持する(賢い)対話エージェントと対話することにより,それ以外の(馬鹿な)対話エージェントに対しても効率的な情報検索を行なえた.\item候補を択一する状況において,ユーザは,比較検討する条件の検索結果より,決定するまでの時間に左右される傾向がある.しかし,決定するまでの時間内に,より多くの検索条件による結果を得られたほうが,ユーザはより得心できたであろう.\end{itemize}と考えられる. \section{おわりに} 本稿では,自然言語の対話を用いた情報検索において,複数の対話エージェントを導入し,ドメイン,対話戦略,文脈という3つの局面で,ユーザが対話エージェントを切り替えることで,効率的な情報検索対話を行なう対話モデルを採用した.そして,その対話モデルをモデル化文書をコンテンツとした複数の電子ブックの情報検索に適用し,その対話モデルの有効性を確認した.今後の課題としては,以下のものが挙げられる.\begin{itemize}\item複数のドメインを統合する対話知識の検討\itemより自由な対話局面で,対話エージェントを設定・切り替えるためのユーザインタフェースの改良\itemインターネットなど,よりオープンな環境での情報検索を実験することでの本提案の有効性の検証\end{itemize}\acknowledgment本研究は,(当時)情報メディア研究所ヒューマンインタフェース第三研究室にて行ないました.議論をしていただいた藤田稔部長,八木沢津義室長にお礼を申し上げます.また,本発表を行なうに当たり,お力添えをいただいた柴山茂樹所長,小森康弘室長に感謝をいたします.\bibliographystyle{jnlpbbl}\bibliography{honbun}\begin{biography}\biotitle{略歴}\bioauthor{酒井桂一}{1987年京都大学工学部電気工学第二学科卒業.1989年同大学院修士課程修了.同年,キヤノン株式会社入社,現在に至る.自然言語処理,音声対話処理,マルチモーダルインタフェースの研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V10N02-05
\section{はじめに} 言語処理において,宣言的な文法規則に基づく自然言語文解析の研究・開発は不可欠のタスクである.本稿では,LexicalFunctionalGrammar(LFG)に基づいた実用的な日本語文解析システムについて述べる.本システムの第一の特徴は,精緻な日本語文法規則に基づく深い解析を行う点である.第二の特徴は,実文を対象とした評価が可能な高い解析カバー率を達成している点,すなわち,解析対象が口語的・非文法的文であっても解析可能な高い頑健性を持つ点である.本システムの実装により,LFGに基づく日本語解析システムとしては初めて,文法機能(grammaticalfunction)の情報を含めた解析精度の評価実験を行うことが可能となった.さらに第三の特徴として,LFGの解析結果が持つ言語普遍性の特徴を活かすため,他言語のLFG文法と高い整合性・無矛盾性を保っている点を挙げることができる.第一の特徴を実現するために,日本語文法あるいは国文法研究の知見を参考にして,LFGのフォーマリズムに基づく大規模な文法記述を行った.もちろん,言語現象の形式化には様々な選択肢がある.本システムの構築に際しては,上記第二の特徴および第三の特徴を実現するために,(1)一般には非文法的とみなされる文であってもそれを排除する選択肢を採用せず,かつ,(2)他の言語の解析結果との並行性を保持できる選択肢を優先する方針で文法規則の記述を行った.本稿の構成は以下の通りである.2章では,LFGおよび関連研究について述べる.3章では,上記第三の特徴に関係する取り組みとして,我々が属しているParallelGrammarProjectでの活動を概観する.4章で,日本語LFGシステムの構成を説明した後,5章では文法記述について述べる.5.1節および5.2節において,上記(1)(2)の方針で記述した日本語文法規則を説明する.5.3節の冒頭で触れている通り,第一の特徴と第二の特徴を両立することは極めて難しい.5.3節では,OTマークと部分解析の機能を用いて,この両立を実現する手法について述べる.6章では,以上の枠組みで構築した日本語LFGシステムの評価結果を示し,7章に今後の課題を記す. \section{LexicalFunctionalGrammar} LFGは自然言語文の解析を行うための文法理論であり,\cite{B1978}によってその概念が提唱された後,\cite{KandB1982}によって現在の形の定式化が完成した.LFGに基づく解析では,解析結果としてc(onstituent)-structureとf(unctional)-structureと呼ばれる2種の構造を出力する.c-structureは自然言語文の構造を,文の形態素を上位のフレーズへと纏め上げることによって木構造として表現するものである.一方,f-structureは,文法機能の概念に基づき,文の格構造,時制,様相,話法等の意味情報を属性-属性値のマトリックス構造で表現するものである.LFG理論では,SUBJ(ect)やOBJ(ect)等の文法機能をいかなる言語の解析においても有効であると考え,第一義の未定義要素としての地位を与えている\cite{S1985}.すなわち,見かけの表現は全く異なっていたとしても,文法機能の概念はあらゆる言語において共通に存在するという立場をとる.この立場は,ArcPairGrammar\cite{JandP1980}やRelationalGrammar\cite{PandP1983},ConstructionGrammar\cite{Kay1998}と共通するものである.言語が異なれば同じ意味内容を表現する文であってもその句構造すなわちc-structureは大きく異なる一方で,文法機能に基づく構造であるf-structureの違いは多くの場合極めて小さいことが知られている\cite{B1999a,D2001}.言語解析システムの出力結果が言語を問わず一定であればあるほど,多言語を対象とする言語処理システムの構築に要するコストは低減すると考えられる.このような工学的観点からみると,f-structureの言語普遍性は,f-structureを中間言語とする機械翻訳システム\cite{F1999}はもとより,質問応答,自然言語によるマンマシンインタフェース,文書集合の内容一貫性保持\cite{E2002}等の自然言語処理アプリケーションを言語の壁を越えて実装する上で重要な特徴であるといえる.1章で述べた通り,本稿で述べる日本語LFG文法では,このf-structureが持つ言語普遍性の特徴を損なわないことを記述方針の一つとしている.これまでも,LFGやHead-drivenPhraseStructureGrammar(HPSG)\cite{PandS1987,PandS1994}等の単一化文法に基づいた日本語の解析に関する研究は数多く行われている.しかし,比較的最近まで,f-structureのような素性構造の単一化は大きな計算量を要する作業であるため,大規模な文法を用いた解析の実行は困難であるとの認識があった\cite{hashida1997}.さらに,単一化文法の枠組みにおいて,日本語の文法事項を網羅的に含み高いカバー率を実現する文法規則を記述することは容易ではないと指摘されている\cite{torisawa1999}.しかしながら,前者の解析効率の問題に関しては,\cite{MandK1993},\cite{NLE2000}等で提案されている解析アルゴリズムの進展によって一定の解決策が得られつつある.また,この前者の問題の解決は,後者の問題とも大きく関係している.単一化に基づく解析を実行するシステムは制約充足問題を解決するシステムである.制約数すなわち文法規則の数が多くなるにしたがって計算量の爆発が生じる.前者の問題が解決されていないこれまでの状況においては,システムの制約上,大規模な文法を記述し試すことが困難であったため,高い解析カバー率を持つ文法の構築に焦点を当てた研究には至らなかった.前者の問題が解決される過程にあり,大規模文法の記述に挑戦できる状態になってきたのが現在の状況であるといえる.例えば,\cite{mitsuishi1998}では,意味表現出力を伴わないものの極めて高い解析カバー率を持つ日本語HPSGシステムの報告がなされている.一方,\cite{otani2000}では,カバー率の問題は残るものの日本語文法の知見に立脚した精緻な解析を行うJapanesePhraseStructureGrammar(JPSG)システムの構成手法が提案されている. \section{ParallelGrammarProject} 我々は,ParallelGrammar(ParGram)と呼ばれるプロジェクト活動\cite{B1999b,B2002}の中で日本語LFG文法の記述を行っている.ParGramは,LFGを共通の理論基盤として英語,ドイツ語,フランス語,ノルウェー語,ウルドゥー語,デンマーク語そして日本語の各言語を解析するシステムの実現を目標としている.ParGramでは,半年に一度全言語の文法記述担当者が集まってミーティング(ParGramMeeting)を開催し,複数言語間でf-structureの整合性を可能な限り高める,あるいは,矛盾を回避する機会を継続して持つことにしている.すなわち,f-structureの構成から属性・属性値の用法やネーミングコンベンションに至るまでの詳細を議論し,ParGramの標準仕様を決定する作業を行っている.日本語LFG文法における,肯定文,否定文,疑問文,受動文,並置表現等の基本的な構文に対して出力されるf-structureは,このParGram標準仕様\cite{B1999a}に準じている.ただし,この標準仕様は,f-structureの基本的な構成,属性・属性値については全言語でほぼ合意がなされているが,詳細な文法事項に関しては現在も継続的に議論を続けている.例えば,属性のネーミングレベルの仕様に関しては,当初全言語で性別を示す属性として使用していた「GEND」を,英語と日本語のLFG文法では「GEND-SEM」とし,「GEND」と区別するよう変更を行った.英語と日本語の文法では代名詞に対して「GEND」属性を与えていたが,これはドイツ語,フランス語,ノルウェー語,ウルドゥー語の一般名詞が持つ性別の概念とは本質的に異なるためである.\begin{quote}\begin{itemize}\item[(1-a)]ジョンは本をそのテーブルに置いた。\item[(1-b)]Johnputabookonthetable.\end{itemize}\end{quote}\begin{figure}[htbp]\center\epsfxsize=90.59mm\epsfbox{fig/fig2-1jp.eps}\caption{文(1-a)に対応するf-structure}\label{fig2-1jp}\end{figure}\begin{figure}[htbp]\center\epsfxsize=89.32mm\epsfbox{fig/fig2-1eng.eps}\caption{文(1-b)に対応するf-structure}\label{fig2-1eng}\end{figure}\begin{figure}[htbp]\center\epsfxsize=115.35mm\epsfbox{fig/fig2-2jp.eps}\caption{文(1-a)に対応するc-structure}\label{fig2-2jp}\end{figure}\begin{figure}[htbp]\center\epsfxsize=53.97mm\epsfbox{fig/fig2-2eng.eps}\caption{文(1-b)に対応するc-structure}\label{fig2-2eng}\end{figure}図\ref{fig2-1jp}に,文(1-a)に対して日本語LFGシステムが出力するf-structureを示す\footnote{図中の数字は各(部分)f-structureに対して割り振られた識別子であり,数値自体に意味はない.}.SUBJおよびOBJのPRED(icate)に自立語(「ジョン」「本」)が挿入されているのに対して,OBL(ique)のPREDには格助詞(「ニ」)が挿入されている.これは,英語等のParGramが対象とする欧米言語において,SUBJおよびOBJに対応する自立語が前置詞を必要としないのに対して,OBLやADJUNCTは前置詞を伴うことに由来する.日本語内での整合性だけを考えれば,SUBJやOBJのPREDも格助詞とする,あるいは,OBLやADJUNCTのPREDも自立語とする,という文法を記述することが可能である.しかしParGramにおいて他言語との整合性(比較のしやすさ)を重視するという立場から,図\ref{fig2-1jp}に示したf-structureを出力する方針で文法記述を行った.図\ref{fig2-1eng}は,ParGramの英語LFG文法を用いて文(1-a)に対応する英語文(1-b)を解析した結果得られるf-structureである.基本的に図\ref{fig2-1jp}と等しい構造を持っていることが分かる.なおc-structureに関しては,ノード(grammaticalcategory)名に対する緩やかなネーミングコンベンションの取り決めはあるものの,どのような構造を定めるかは各言語の担当者に任されている.図\ref{fig2-2jp},図\ref{fig2-2eng}は,文(1-a)(1-b)を解析した結果得られるc-structureである.両者の構造は全く異なっていることが分かる. \section{システム構成} ParGramでは共通のプラットフォームとしてXeroxLinguisticEnvironment(XLE)と呼ばれるLFGの処理系を使用している.XLEはLFG理論の仕様をほぼ完全に実装したparserであると同時に,LFGの文法記述を行う際のデバック環境であり,かつ,f-structureから自然言語文を生成するgeneratorでもある\cite{KandW2000}.XLEが持つ最も重要な特徴はその解析速度である.LFGでは,c-structureを構成するための句構造規則(文脈自由文法規則)と,f-structureを構成するために句構造規則(の右辺の各構成素)に付与する機能的注釈(functionalannotation;functionalschemata)を同時に記述する.XLEは,句構造規則に基づく解析処理を実行した後に,処理が必要な機能的注釈を動的に決定する.すなわち,計算量の大きい機能的注釈の処理を選択的に行うことによって解析速度の向上を実現している\cite{MandK1993}.また,解析結果の排他性・独立性を考慮した単一化手法\cite{MandK1991}も高い解析効率に寄与している.XLEを採用することによって,大規模なLFG文法に基づく解析を実時間で行うことが可能となった.図5は,日本語LFGシステムの構成図である.まず日本語入力文が形態素解析システムに渡され,得られた形態素解析結果から入力文語彙規則を生成する.形態素解析システムには茶筌\cite{chasen}を使用している.語彙規則生成部は,約40種の語彙規則テンプレートを持ち,適切なテンプレートを選択して必要項目を埋めることによって,各形態素の語彙規則を動的に生成する.テンプレートの選択は,各形態素の品詞および前後の形態素の品詞を基に,予め作成したルールによって行う.また,形態素解析処理によって得られた形態素列はXLEへの入力となる.活用語については,終止形をXLEへの入力とし,活用形は「M\_\_」(命令形),「K\_\_」(仮定形),「Y\_\_」(連用形)等の特別な文字列を形態素相当としてXLEへ渡す.なお,連用形を示す文字列は必要に応じてXLEへ渡すことにした.後続する語が自立語ならば,その活用形が句複合を行う結合子など何らかの統語的役割を果たしていると判断し,その目印として文字列を挿入する.一方,後続する語が助動詞などの付属語ならば挿入を行わないことによって,文法規則を簡略化する.\begin{figure}[htbp]\center\epsfxsize=99.48mm\epsfbox{fig/fig2-3.eps}\caption{日本語LFGシステムの構成図}\label{keiyoushi3_1b}\end{figure}XLEによる入力形態素列の解析には,上記の入力文語彙規則に加えて,予め用意した基本語彙規則,動詞語彙規則,形容詞語彙規則,形容動詞語彙規則,および,文法規則を使用する.動詞語彙規則,形容詞語彙規則,形容動詞語彙規則は,IPAL辞書\cite{IPALa,IPALb}の結合価情報をベースに拡張を行い,LFGの規則として必要な記述を追加したものである.現在のところ,動詞語彙規則は2,366の異なり語彙に対して10,387の語彙規則(41,115の機能的注釈)を含んでいる.形容詞語彙規則および形容動詞語彙規則は,それぞれ302および67の異なり語彙に対して810,137の語彙規則(1,891,306の機能的注釈)を含んでいる.基本語彙規則は,助詞,助動詞,代名詞,接続詞等の基本語彙に加え,接続助詞的な働きをする「間」「時」といった名詞等,統語上重要と考えられる語の語彙規則を独自に記述したものである.現状では,407の異なり語彙に対して954の語彙規則(1,233の機能的注釈)を含んでいる.文法規則のサイズは,積和標準形に変換した場合の項の総計が2,353であり,1,223の機能的注釈を含む.文法規則の詳細は次章で説明する.なお,語彙規則の中で,入力文語彙規則の優先順位は他の語彙規則よりも低く設定してある.つまり,入力文語彙規則は,同じ語彙に対する規則が既に存在している場合上書きされることになる.これは,助詞,助動詞などの重要な統語的役割を担う語に関しては,形態素解析結果から動的に生成されるデフォールトの規則よりも精緻な記述が必要となるからである.同時に,形態素解析の品詞付け誤りを吸収するための措置でもある.例えば,格助詞の「デ」と助動詞「ダ」の連用形「デ」の違いを形態素解析レベルの処理で正確に判別することは困難である.そこで,基本語彙規則中の「デ」に対して,格助詞としての振舞いを記述する規則と,「ダ」の連用形としての振舞いを記述する規則の両者を含めておく.形態素解析処理によって付与された品詞の如何にかかわらず,語彙規則としては双方の可能性を残して解析を進める.最終的には,その中から文法規則に従う解析結果のみが残ることになる. \section{日本語LFG文法記述} \subsection{基本的な文法規則}日本語の典型的な特徴として,語順の制約が緩い点(freewordorder),主語や目的語といった文の必須構成要素の抜け落ち(ゼロ代名詞)が頻出する点,および,複合述部(complexpredicate)が多用される点を挙げることができる\footnote{もちろん,これらの特徴は日本語のみに見られるものではない.ParGramプロジェクトが対象とする言語の中ではウルドゥー語がこれら3つの特徴を併せ持つ言語の例である.}.本節では,これら日本語の基本的な性質に対応するために我々が記述したLFG文法規則について述べる.\begin{quote}\begin{itemize}\item[(2-a)]私が太郎にその本を借りました。\item[(2-b)]その本を太郎に私が借りました。\item[(3)]東京から太郎が大阪へ行った。\item[(4)]右へその角を次の交差点で曲がって下さい。\end{itemize}\end{quote}日本語がfreewordorderの特徴を持つことは明らかである.ただし,文(2-a)と文(2-b)を比較すると(2-a)がより自然な文であると感じる.すなわち,基本的には各文に最適な語順が存在すると考えられる\cite{shibatani1978}.文(3)および(4)は語順の点で不自然な文であり,最適順序性を考慮してこれらの文を解析対象外とする方針を採ることは可能である.例えば,\cite{otani2000}では語順を強く意識した文法記述を行っている.しかし,文(2-a)と文(2-b)が表現する意味内容に違いがないことから,我々の日本語LFG文法では上記の最適順序性を考慮せず,どちらの文に対しても図\ref{fig4-1}に示すf-structureを出力するよう文法記述を行った.これは1章で述べた高いカバー率を達成する上でも重要な記述方針である.実際には,文(3)や(4)のように語順が不自然な文が現れることは珍しくない.したがって、高い解析カバー率を得るために,最適順序性に依存することのない,以下のような文法規則を日本語LFG文法の基本規則とした.\begin{table}[htbp]\begin{center}\begin{tabular}{llcc}\vspace{-1mm}S\quad&$\longrightarrow$\qquad\qquad\hspace{-9mm}&PP*&\hspace*{-4.5mm}V\\\vspace{-1mm}&&($\uparrow$GF)=$\downarrow$&\hspace*{-4.5mm}$\uparrow$=$\downarrow$\\\vspace{-7mm}\end{tabular}\end{center}\end{table}\begin{quote}S:文,PP:後置詞句,V:述語,GF:文法機能\end{quote}\vspace{3mm}\begin{figure}[htbp]\center\epsfxsize=110.7mm\epsfbox{fig/fig4-1.eps}\caption{文(2-a)(2-b)に対応するf-structure}\label{fig4-1}\end{figure}句構造規則が「文Sは任意個の後置詞句PPとそれに後続する述語Vから構成される」ことを定義し,機能的注釈によって「Vが文全体のPREDを担い,PPがそれに下位範疇化される文法機能を担う」ことが定義されている.なお,以下本稿の文法規則の説明で用いる記号(grammaticalcategory名)は,実際に使用している文法・語彙規則中の記号とは必ずしも一致していない.また,係助詞や副助詞によって格助詞が省略されている場合,文法的に可能性のある解析結果を全て出力するという方針で文法記述を行った.\begin{quote}\begin{itemize}\item[(5)]花子はその本も読んだ。\end{itemize}\end{quote}\begin{quote}\begin{itemize}\item[(6-a)]その本がシェークスピアを誉めていました。\item[(6-b)]シェークスピアがその本を誉めていました。\item[(6-c)]シェークスピアはこの本も誉めていました。\end{itemize}\end{quote}したがって文(5)に対しては,「花子」がSUBJで「本」がOBJの解析結果と,その逆の解析結果の両者を出力する.解析結果を一つに絞り込む機能は重要であり,これを行うために意味素性および選択制限の概念を文法・語彙規則に取り入れる余地はある.しかし,直前の文が(6-a)の場合と(6-b)の場合でSUBJとOBJが逆になる文(6-c)の例から分かるように,文単位の解析では本質的に曖昧性を解消できない場合もある.したがって,現在のところ文法的に誤りのない解析結果は全て出力し,曖昧性の解消は文脈解析等の別処理に委ねるという立場をとっている.もちろんこれは,格助詞・係助詞に関わるいかなる曖昧性の解消も行わないということを意味するものではない.\begin{quote}\begin{itemize}\item[(7-a)]太郎が読んだ本\item[(7-b)]太郎の読んだ本\item[(7-c)]太郎が本を読んだ。\item[(7-d)]太郎は読んだ本を捨てた。\item[(7-e)]太郎の本を読んだ。\end{itemize}\end{quote}例えば,(7-a)の名詞句と(7-c)の文は共に文法に則った表現であり「読む」のSUBJは「太郎」である.しかし,(7-d)の文では「太郎」は「捨てる」に係る.同様に,(7-b)の名詞句と(7-c)の文は共に文法に則った表現であるが,(7-e)の文において「太郎」をSUBJと解釈することはできない.前者は,(I)「関係節内において係助詞「ハ」による主題化は起こらない」\footnote{ここでは対比の「ハ」についての議論は省略する.},後者は,(II)「関係節内においてのみ格助詞「ノ」による主格表示が可能である」という文法規則に一般化できる.我々は,(7-d)および(7-e)の解析結果に曖昧性が生じない(「太郎」が「読む」のSUBJとなる解析結果を生成しない)よう,(I)(II)を実現する文法記述を行った.((7-e)に対しては,「読む」のSUBJはnullであり「太郎」は「本」の連体修飾成分となる解析結果が得られる.)(I)(II)を表現するためのLFG文法規則を以下に示す.\vspace{3mm}\begin{table}[htbp]\begin{center}\begin{tabular}{llccc}Srel\quad&$\longrightarrow$\qquad&\qquad\{PPsubj$|$PPsubj-no\}\qquad&PP*&V\\&&($\uparrow$SUBJ)=$\downarrow$&$\uparrow$GF=$\downarrow$&\hspace{-4.5mm}$\uparrow$=$\downarrow$\\&&($\downarrow$TOPICALIZATION-FORM)$\neq$'は'&&\\\end{tabular}\end{center}\begin{quote}Srel:関係節,PPsubj-no:「ノ」を伴い主格となり得る後置詞句\\PPsubj:主格となり得る後置詞句(PPsubj-noを含まない)\\TOPICALIZATION-FORM:主題化を行う係助詞の表層形\end{quote}\end{table}\vspace{3mm}文の必須構成要素が抜け落ち可能であるというゼロ代名詞の問題に関しては,述語(語彙規則)の結合価情報を利用する.結合価に対応する要素が文中に存在しない場合,省略があると判定する.ただし,このように結合価を埋める要素(下位範疇化すべき要素)がない場合,LFG理論のCompletenessの条件を満たすことができず,したがってf-structureを構成することができない.そこで,省略された要素のPREDに代名詞を示す'pro'を代入しPRON-TYPEの属性にnullを挿入することによって省略を表現し,f-structureを構成する.以上のことを実現する語彙規則を,「読む」を例として以下に示す.\vspace{4mm}{\small\begin{quote}読む\quadV\quad(↑PRED)='読む<(↑SUBJ)(↑OBJ)'>\begin{quote}\vspace{0.4mm}\qquad@(PDSUBJ)\vspace{0.5mm}\qquad@(PDOBJ)\end{quote}\vspace{0.4mm}PD(GF)=@(DEFAULT(↑GFPRED)'pro'(↑GFPRON-TYPE)null)\vspace{0.5mm}DEFAULT(ATTRIBUTE1VALUE1ATTRIBUTE2VALUE2)=\begin{quote}\vspace{0.4mm}\qquadATTRIBUTE1=VALUE1\vspace{0.5mm}\qquadATTRIBUTE2=VALUE2\vspace{0.5mm}\qquadProDrop:OT\end{quote}\end{quote}}「PD」および「DEFAULT」はマクロ定義であり,「@」はマクロの呼び出しを表す.語彙規則に「@(PDSUBJ)」を付加することにより,SUBJのPREDに'pro'が,SUBJのPRON-TYPEにはnullが代入される.「DEFAULT」マクロ中の「ProDrop:OT」は,「ProDrop」という名前のOTマークの定義である.OTマークは規則に対して優先順位を付与する働きを持つ.詳細は5.3.1項で説明する.ProDropには低い優先順位を設定し,それによって,「読む」が下位範疇化すべき要素がない時に限り「@(PDSUBJ)」および「@(PDOBJ)」が機能する.一般に,OTマークを利用することによって,解析結果の曖昧性を言語学的な根拠のもとに減少させることが可能となる\cite{B2001}.この記述手法の導入によって,省略要素を適切に同定することが可能となり,欧米言語では問題になることの少ない必須構成要素の抜け落ち問題を解決することができた.主語や目的語の省略は日本語では極めて頻繁に起こるため,この語彙規則記述は,解析カバー率向上にとって重要な役割を果たすものであるといえる.日本語のcomplexpredicateの取り扱いについても様々な方針が考えられるが,我々は,複数のPREDを立てる解析,すなわち,f-structureの入れ子構造によってcomplexpredicateを表現する解析(multi-clausalな解析)を行わない.複数のpredicate-argument構造の存在が同時に認められる場合(5.2.1項)を除き,mono-clausalな解析を行う.時制,様相等の情報はf-structure中のPRED以外の属性で表現する.\begin{quote}\begin{itemize}\item[(8)]太郎はその本を買いたくなかっただろう。\end{itemize}\end{quote}例として,文(8)のc-structureとf-structureを図\ref{fig4-2c},図\ref{fig4-2f}に示す.日本語のcomplexpredicateの構成は極めて多様であり,口語的・非文法的な文も含めて構成規則を網羅的に記述することは事実上困難である.したがって,高い解析カバー率を実現するために,complexpredicateに対応する規則はこのような緩やかなものとする方針を採っている.\begin{figure}[htbp]\center\epsfxsize=74.90mm\epsfbox{fig/fig4-2c.eps}\caption{文(8)に対応するc-structure}\label{fig4-2c}\end{figure}\begin{figure}[htbp]\center\epsfxsize=121.9mm\epsfbox{fig/fig4-2f.eps}\caption{文(8)に対応するf-structure}\label{fig4-2f}\end{figure}\subsection{特徴的な文法規則}本節では,日本語LFG文法で記述されている文法規則の中から1章で述べた高い解析カバー率および他言語との整合性の実現に関わるものを取り上げ,その記述方針を説明する.\subsubsection{受動文・使役文の取り扱い}前節では,複合述部の取り扱い方針としてmono-clausalな解析を採用すると述べた.しかし,複数のpredicate-argument構造を持つと認められる間接受動文(いわゆる「迷惑の受身」)\cite{masuoka1997}と使役文については,bi-clausalな解析結果を出力するよう文法記述を行った\footnote{日本語のLFG文法において,いかなる言語現象にbi-clausalな解析を適用すべきかについては現在も継続して議論が続けられ,決着がついていない.例えば使役文では\cite{matsumoto1996}と\cite{Yokota2001}とで異なる見解が述べられている.}.\begin{quote}\begin{itemize}\item[(9)]私は雨に降られた。\end{itemize}\end{quote}文(9)は間接受動文の例である.文(9)には,「「私」が「れる」」に加え,「「雨」が「降る」」という2つのpredicate-argument構造が含まれている.これを示すため,bi-clausalな解析を行う文法記述を行った.文(9)のf-structureを図\ref{fig4-3}に示す.\begin{figure}[htb]\center\epsfxsize=122.1mm\epsfbox{fig/fig4-3.eps}\caption{文(9)に対応するf-structure}\label{fig4-3}\end{figure}\begin{quote}\begin{itemize}\item[(10-a)]花子は太郎に次郎を殴らせた。\item[(10-b)]MaryletJohnhitBob.\end{itemize}\end{quote}文(10-a)は使役文の例である.文(10-a)には,「「花子」が「太郎」に「せる」」と,「「太郎」が「次郎」を「殴る」」という2つのpredicate-argument構造が認められるため,同様にbi-clausalな解析を行っている.文(10-a)のf-structureを図\ref{fig4-4}に示す.使役の助動詞「セ」「セル」に準ずるものとして,「頂く」「貰う」等の補助動詞も同様に取り扱っている.この記述方針は他言語のf-structureとの整合性を図る目的に従うものでもある.文(10-a)に対応する英語文(10-b)のf-structureを図\ref{fig4-x}に示す.基本的に図\ref{fig4-4}と等しい構造であることが分かる.\begin{figure}[htbp]\center\epsfxsize=86.36mm\epsfbox{fig/fig4-4.eps}\caption{文(10-a)に対応するf-structure}\label{fig4-4}\end{figure}\begin{figure}[htbp]\center\epsfxsize=95.03mm\epsfbox{fig/fig4-x.eps}\caption{文(10-b)に対応するf-structure}\label{fig4-x}\end{figure}\subsubsection{副助詞の取り扱い}副助詞は文脈情報を担うものであるため,意味情報を扱う解析において極めて重要な形態素であるといえる.さらに日本語文に頻繁に出現するため,副助詞を取り扱う文法規則は高いカバー率を実現する上でも重要なものである.しかしながら,これまでの実システムにおいて副助詞の振る舞いを十分に考慮した文法記述がなされてきたとは言い難い.水谷文法\cite{daitai}では,副助詞を体副形成子として規定する.これは,副助詞が,副詞化可能な体言を形成する働きを持つことを意味する.\begin{quote}\begin{itemize}\item[(11-a)]太郎が来るまでが問題だ。\item[(11-b)]太郎が来るまで辛抱しよう。\end{itemize}\end{quote}\begin{quote}\begin{itemize}\item[(12)]次郎にさえ分からなかった。\end{itemize}\end{quote}例えば文(11-a)(11-b)のように「太郎が来る」が副助詞「まで」を伴うと,名詞的あるいは副詞的働きを持つようになる.本システムでは,このような副助詞の性質を表現する文法の記述を行っている.ただし,文(12)のように副助詞(「さえ」)が格助詞に後続する場合は,\cite{daitai}に倣い格表示の一部とみなして体副形成子とは異なる扱いをする.図\ref{fig4-5a},図\ref{fig4-5b}に文(11-a)(11-b)のf-structureを示す.なお,図\ref{fig4-5b}中の「$\varepsilon_5$」は5.2.3項で述べる助詞の無形表示を示す記号である.\begin{figure}[htbp]\center\epsfxsize=113.9mm\epsfbox{fig/fig4-5a.eps}\caption{文(11-a)に対応するf-structure}\label{fig4-5a}\end{figure}\begin{figure}[htbp]\center\epsfxsize=114.1mm\epsfbox{fig/fig4-5b.eps}\caption{文(11-b)に対応するf-structure}\label{fig4-5b}\end{figure}\subsubsection{助詞・助動詞の無形表示の取り扱い}\begin{quote}\begin{itemize}\item[(13-a)]その女性は子供を優しく育てた。\item[(13-b)]その女性は子供をパイロットに育てた。\item[(13-c)]その女性は子供をはじめて育てた。\item[(13-d)]*その女性は子供を優しくに育てた。\item[(14-a)]Thewomanraisedachildtoakindperson.\item[(14-b)]Thewomanraisedachildkindly.\end{itemize}\end{quote}\cite{daitai}は,形容詞の連用修飾に曖昧性があることを指摘している.例えば文(13-a)は2つの解釈が可能である.1つは「子供が優しくなるように育てる」という意味であり,これは「優しい」が「育てる」という動詞の帰結状態を示している.もう1つは「子供の育て方が優しい」という意味であり,「優しい」は「育てる」の情況を示している.(13-b)との比較から分かるように,(13-a)において帰結状態を示す「優しい」は格助詞「ニ」を伴う後置詞句相当の働きを担っている.しかし,(13-d)が非文であることから分かるように,単なる格助詞「ニ」の省略とはみなせない.\cite{daitai}はこのような無形表示に対して零記号\footnote{零記号の概念は時枝文法\cite{tokieda}で詞と辞による入れ子構造を構築するための道具立てとして提案され,その後,\cite{daitai}によって細分化がなされた.}を導入することによって整合性の高い国文法体系を構築している.\cite{daitai}では帰結状態を表す零記号を「$\varepsilon_4$」と定義する.我々もこれに倣い,以下の文法規則によって,帰結状態を示す無形表示を「$\varepsilon_4$」で表現した\cite{ohkuma}.\begin{table}[htbp]\begin{center}\begin{tabular}{llccc}\vspace{-1mm}PPobl\quad&$\longrightarrow$\qquad&A\qquad&\qquadY\_\_&e\\\vspace{-1mm}&&($\uparrow$OBJ)=$\downarrow$&&$\uparrow$=$\downarrow$\\&&&&($\uparrow$PRED)='$\varepsilon_4$<($\uparrow$OBJ)>'\\\end{tabular}\end{center}\vspace{2mm}\begin{quote}PPobl:斜格となり得る後置詞句,A:形容詞,Y\_\_:連用形を示す記号,e:空記号\end{quote}\end{table}\vspace{6mm}一方,情況を表す「優しい」は情況語(副詞)と定義し,f-structure中ではADJUNCTとして表現する.文(13-a)の帰結状態の解釈に対応するf-structureを図\ref{fig4-7a}に,情況の解釈に対応するf-structureを図\ref{fig4-7b}に示す.また,(13-b)(13-c)に対応するf-structureを図\ref{fig4-8a},図\ref{fig4-8b}に示す.図\ref{fig4-7a}と図\ref{fig4-8a},図\ref{fig4-7b}と図\ref{fig4-8b}がそれぞれ同等の構造を持っていることが分かる.この記述方針も5.2.1項同様,他言語のf-structureとの整合性を図る目的に従うものである.文(13-a)の2つの解釈に対応する英語文(14-a)(14-b)のf-structureを図\ref{kind_person}および図\ref{kindly}に示す.基本的にそれぞれ図\ref{fig4-7a}および図\ref{fig4-7b}と等しい構造であることが分かる.\begin{figure}[htbp]\vspace{-3mm}\center\epsfxsize=72mm\epsfbox{fig/fig4-7a.eps}\caption{文(13-a)の帰結の解釈に対応するf-structure}\label{fig4-7a}\center\epsfxsize=72mm\epsfbox{fig/fig4-7b.eps}\caption{文(13-a)の情況の解釈に対応するf-structure}\label{fig4-7b}\center\epsfxsize=72mm\epsfbox{fig/fig4-8b.eps}\caption{文(13-b)に対応するf-structure}\label{fig4-8a}\end{figure}\begin{figure}[htbp]\center\epsfxsize=75mm\epsfbox{fig/fig4-8a.eps}\caption{文(13-c)に対応するf-structure}\label{fig4-8b}\center\epsfxsize=120mm\epsfbox{fig/kind_person.eps}\caption{文(14-a)に対応するf-structure}\label{kind_person}\center\epsfxsize=75mm\epsfbox{fig/kindly.eps}\caption{文(14-b)に対応するf-structure}\label{kindly}\end{figure}その他,名詞(サ変動詞語幹を除く)で終わる文(新聞見出し等)に対応するため,名詞句に後続する助動詞(「ダ」「デス」等)の省略を零記号「$\varepsilon_1$」で表現している.また,埋め込み句が連用修飾を行う際の助詞の省略を「$\varepsilon_5$」で表現している.\vspace{3mm}以上本節では,言語現象の具体例を通して日本語LFG文法の特徴を示した.表\ref{table1}に,これまでに実装した文法規則の主なものを示す.ただし,\cite{B1999a}に記述されている基本的な文法事項に対する文法規則および本稿で説明済みの文法規則は省略した.\begin{table}[htpb]\caption{LFG文法規則として実装済みの主要な文法規則}\begin{tabular}{ll}\hline\scriptsize「スル」を伴わないサ変動詞語幹への各構造付与規則&\scriptsize接尾辞による名詞のサ変動詞語幹化を行う規則\\\scriptsize「テアル文」の格構造(「本が置いてある。」)に対応する規則&\scriptsize可能動詞の格構造(「本が読める。」等)に対応する規則\\\scriptsize格支配を受けない挿入句に対応する規則&\scriptsize関係節となり得ない節の判定規則\\\scriptsize関係節の係り先となり得ない名詞の語彙規則&\scriptsize助数詞の取り扱い規則\\\scriptsizeフィラー、口語的助詞の取り扱い規則&\scriptsize補文をとるが主語をとらない格構造付与規則\\\scriptsize接続助詞による句並置の取り扱い規則&\scriptsize接続助詞「も」「やら」等による名詞句並置規則\\\scriptsize形容詞・形容動詞の名詞化・副詞化規則&\scriptsize数量詞および時間表現の副詞化規則\\\scriptsize接尾辞を伴う疑問詞の副詞化規則&\scriptsize補助動詞・補助形容詞の取り扱い規則\\\scriptsize待遇表現(「話をされた」「お書きになった」等)の取り扱い&\vspace{-2mm}\scriptsize副詞相当の接続詞(「ただし」「だが」等)に対応する語彙規則\\\scriptsize規則&\\\scriptsize省略を伴う連体語並置(「彼との距離」等)の取り扱い規則&\scriptsize助動詞「そうだ」の伝聞と推量の判定規則\\\scriptsize固有名詞(地名、人名、組織名)属性付与規則&\scriptsize括弧(「、(、『等)を用いた強調/同格表現規則\\\scriptsize関係節、埋め込み節内の格表示の判定規則&\scriptsize句複合中の係助詞による格表示判定規則\\\scriptsize禁止表現(「してはいけない」「してはならない」等)の取り&\scriptsize「は」を伴うことが可能な副詞(「結局」「つまり」等)に対応\\\scriptsize扱い規則&\scriptsizeする語彙規則\\\scriptsize関係節を伴う疑問文の取り扱い規則&\\\hline\end{tabular}\vspace{2mm}\label{table1}\end{table}\normalsize\subsection{例外的な文法に基づく文・非文法的文への対応}高い解析カバー率を達成するためには,例外的な表現を含む文や非文法的な文を解析できなければならない.LFGに基づく解析によってf-structureを得るためには,入力文の構文に対応する句構造規則および機能的注釈が全て宣言的に記述されている必要がある.しかしながら,例外的な事項を網羅的に記述すると,正しい解析結果と同時に不適切な解析結果も多数出力されてしまい,精度を下げることになる.さらに,前節までに述べたような文法記述をどれほど精緻化したとしても,必ず解析不能な文が残るという問題もある.本節では,これらの問題を回避しシステムの頑健性を高めるための手法として,OTマークと部分解析について述べる.\subsubsection{OTマークの利用}日本語LFG文法では,各機能的注釈に対して,OptimalityTheory\cite{B2001}に基づいたマーク(OTマーク)を付与している.OTマークには予め優先順位を設定しておく.優先順位の高いOTマークが付与された機能的注釈に基づいて得られたf-structureを優先的に最終結果に残す.すなわち,各OTマークが固有のコストを持ち,文全体のコストが最小となる解析結果を優先する.5.1節で述べたようにOTマークを付与する本来の目的は言語学的な根拠に基づいて解析結果の曖昧性を減少させることである.我々もこの目的のためにOTマークを使用し,解析結果数の爆発を防いでいる.しかし,我々の文法では,それと同時に,例外的な文法事項を見通しよく記述するためにもOTマークを利用している.現在約40種類のOTマークをLevel1-4の4つのグループに分けて使用している.Level1に属するOTマークが最も優先順位が高く,Level4のOTマークが最も低い.もちろん,解析結果の曖昧性解消の目的で,同じグループに属するOTマークの間にも細かな優先順位の違いを設定している.なお,OTマークが明示的に付与されていない機能的注釈には,Level1に属するOTマークが付与されているとみなして処理を進める.まずLevel1のグループに属するOTマークを持つ機能的注釈のみを用いて解析を行う.f-structureが得られれば解析を終了する.得られなければ,Level1に加えてLevel2に属するOTマークを持つ機能的注釈も用いて再度解析を行う.これを繰り返し,解析結果が得られるまで,優先順位の低いグループに属するOTマークを持つ機能的注釈を順に加えて解析を行う.我々は,文法・語彙規則が例外的なものであるほど,低い優先順位のグループのOTマークを付与している.これによって,例外的な文法・語彙規則が通常の解析結果に悪影響を与えないようにすることができる.\begin{quote}\begin{itemize}\item[(15-a)]*私は歩くが好きです。\item[(15-b)]私は歩くのが好きです。\item[(15-c)]負けるが勝ちだ。\end{itemize}\end{quote}例えば,文(15-a)(15-b)から分かるように通常格助詞が動詞の終止形に直接後続することはない.しかし,文(15-c)のような特に慣用的な表現においては非文法的な表現とは言えない.我々は,動詞の終止形の直後に格助詞が後続することを許す文法規則(機能的注釈)に対してLevel4のOTマークを付与している.2章で述べた通り,LFGに基づく文法・語彙規則は制約の集合である.文法記述が大規模になるにつれ,規則が解析結果にいかに影響するかを網羅的に把握することが困難になり,予期せぬ副作用が生じてしまう可能性が高くなる\cite{gunji2000}.本項で述べたOTマークを利用した多段階の解析手法は,このような文法記述の本質的な困難さを低減し,副作用の影響を受けずに例外的な文法・語彙規則を付加していく上で有効である.\vspace{-2mm}\subsubsection{部分解析機能の導入}前項で述べた手法の狙いは,例外的な文法規則を見通しよく記述することであった.しかし,実際の文,特に口語表現のバリエーションは極めて多彩であり,文法記述を続けることのみによって十分なカバー率を得ることは困難である.\begin{quote}\begin{itemize}\item[(16)]近頃の若いものはだらしがないってさ。\end{itemize}\end{quote}例えば,文(16)のように,接続助詞「テ」の直後に終助詞「サ」が後続する文は自然な文ではあるが,現状のところ文法規則の中で対応する記述は行えていない.このような問題を解決するために,部分解析を実施する文法記述を行った.すなわち,前項までに述べた解析を全て実施してもなお解析結果が得られない場合のために,正規の文法表現とは異なる別の規則体系を用意し,部分的な解析結果のリストを得る.部分解析用の文法規則の例を以下に示す.ただし,OTマークとして定義された「OTmark1」「OTmark2」「OTmark3」はこの順に優先順位が高いものとする.\begin{table}[htbp]\quadFRAGMENTS\qquad$\longrightarrow$\begin{center}\begin{tabular}{cccccccc}$\{$&S&$|$&Srel&$|$&PP&$|$&NP\\&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$FIRST)=$\downarrow$}\\\vspace{2mm}&\footnotesize{OTmark1:OT}&&\footnotesize{OTmark1:OT}&&\footnotesize{OTmark2:OT}&&\footnotesize{OTmark2:OT}\\$|$&V&$|$&P&$\}$&(FRAGMENTS)&&\\&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$REST)=$\downarrow$}&&\\&\footnotesize{OTmark3:OT}&&\footnotesize{OTmark3:OT}&&&&\\\end{tabular}\end{center}\begin{quote}FRAGMENTS:任意の部分構造\\FIRST:部分リスト構造のデータ部,REST:部分リスト構造のポインタ部\end{quote}\end{table}\vspace{6mm}この規則によって,文S,関係節Srel,後置詞句PP,名詞句NP,述部V,助詞Pのいずれかの構造が認められればそれが「FRAGMENTS」となり,c-structureにはFRAFMENTSのリスト構造が生成される.ただし,OTマークの付与によって,SやSrelの構造が認められれば,他の構造に優先してFRAGMENTSとなる.同様にf-structureとして,「FIRST」「REST」から成る部分解析結果のリスト構造が得られることになる.\begin{figure}[htb]\center\epsfxsize=89.11mm\epsfbox{fig/fig4-9.eps}\caption{文(15)に対応するc-structure}\label{fig4-9}\end{figure}上記規則に基づいて得られた,文(16)の部分解析結果(c-structure)を図\ref{fig4-9}に示す.文末の「さ」の部分がFRAGMENTSとして切り離されてはいるものの,「さ」の直前の部分までは完全な解析結果が得られている.日本語では,非文法的・口語的な表現は述部,したがって文末(埋め込み文末)に見られる場合が多く,文の大部分は正常に解析できる傾向にある.すなわち,部分解析結果であっても,前項までに述べた正規の文法記述によって得られる解析結果とほぼ同等の解析結果(f-structure)を得ることができる場合が多い. \section{システムの評価} \subsection{評価実験}まず,前章までに述べた日本語LFG文法記述に基づく解析システムのカバー率を測定するために,以下の3種類のテキストを対象に解析実験を行った.\begin{itemize}\item[(A)]日本語文法の教科書\cite{kitagawa1988}中の例文(引用文)460文\item[(B)]コピー機マニュアル文\cite{manual}460文\item[(C)]お客様相談センター(VoiceofCustomer)文10,000文\end{itemize}(A)の460文と(B)の460文は文法に則った文が多い.一方(C)は,富士ゼロックスのお客様相談センターへの電話による問い合わせ内容を比較的忠実に人手でテキスト化したものである.したがって,口語的・非文法的な文が多く含まれている.(A)(B)(C)に含まれる文の例を表2に示す.解析実験の結果得られたカバー率を表3に示す.カバー率は,c-structureだけの出力ではなく,f-structureを伴う解析結果が得られた場合を対象としたものである.(A)の解析で使用した日本語LFG文法は,(A)の460文を予め見た上で記述を行ったものである.(B)のテキストは一見して括弧(「,」)の使用法に特徴があることが分かった.そこで,(B)の解析には,括弧の使用法に関する文法規則を(A)の解析で使用した文法に追加したものを用いた.(C)の解析に用いた日本語LFG文法は,(A)の解析で使用した文法と完全に同じものである.\begin{table}[htbp]\caption{実験対象テキストの例}\begin{tabular}{ll}\hline\footnotesize(A)文法教科書引用文&\scriptsizeこのクラスの中で給食を一番早く食べおわったのが私の娘です。\\&\scriptsize彼は本場でサッカーをやりに、とうとうブラジルまで来てしまった。\\\footnotesize(B)マニュアル文&\vspace{-1.5mm}\scriptsize何度もコピーをとる必要のある文書は、毎回各設定を行って本体でコピーするより、設定内容\\&\scriptsizeを記録して保存された文書をプリントする方が便利です。\\\vspace{-1.5mm}&\scriptsizeコピーを出力しているときに、いったん出力を停止し、出力を中止するか、出力を再開するか\\&\scriptsize選択できます。\\\footnotesize(C)お客様相談センター文&\vspace{-1.5mm}\scriptsize家庭用のFAXに送信した場合、送信できないって事が有るんですが、そういう事って起こる\\&\scriptsizeんですか?\\\vspace{-1.5mm}&\scriptsize本体のモニターに届いたFAXの一部を取り込んで、必要か不必要かを確認してから取り出す\\&\scriptsizeっていうのができるって前にきいたんですが。\\\hline\end{tabular}\label{table2}\end{table}\normalsize\begin{table}[htbp]\caption{解析カバー率測定結果}\begin{tabular}{lcccccc}\hline&&&\scriptsizeカバー率&\scriptsizeカバー率&\scriptsize正規文法による&\\&&&\scriptsize(部分解析結果&\scriptsize(部分解析結果&\scriptsize解析の&\scriptsize部分解析の\\&\hspace*{-2mm}\scriptsize解析文数&\hspace*{-2mm}\scriptsize平均形態素数&\hspace*{-2mm}\scriptsizeを含む)&\hspace*{-2mm}\scriptsizeを含まない)&\hspace*{-2mm}\scriptsize平均解析結果数&\hspace*{-2mm}\scriptsize平均解析結果数\\\hline\scriptsize(A)文法教科書引用文&\scriptsize460&\scriptsize14.2&\scriptsize99.1\,\%&\scriptsize94.3\,\%&\scriptsize4.1&\scriptsize9.6\\\scriptsize(B)マニュアル文&\scriptsize460&\scriptsize21.3&\scriptsize95.2\,\%&\scriptsize91.3\,\%&\scriptsize11.5&\scriptsize11.0\\\scriptsize(C)お客様相談センター文&\scriptsize10,000&\scriptsize16.3&\scriptsize95.0\,\%&\scriptsize86.1\,\%&\scriptsize9.5&\scriptsize58.5\\\hline\end{tabular}\vspace{2mm}\label{table3}\end{table}\normalsize表\ref{table3}から,部分解析結果を含めた場合のカバー率は(B)と(C)で同程度であるのに対して,含めない解析結果(正規の文法によって得られた解析結果)のカバー率は(C)が(B)を大きく下回っていることが分かる.既に述べたように(C)が口語的・非文法的な文を多く含むため,正規の文法で解析できる割合が小さくなったと考えることができる.次に,解析精度を測定するための準備としてf-structureを木構造へ変換した.つまり,f-structure中のPREDの値をノードとし,リンクには文法機能をラベルとして付与することでf-structureから木構造を生成する処理を行った.本実験では,f-structure中のPRED間の依存関係およびPRED間の文法機能に関する解析精度のみを測定し,他の属性・属性値は無視することにした.\begin{quote}\begin{itemize}\item[(17)]アメリカはイランにイラクを攻撃させた。\end{itemize}\end{quote}例として,文(17)のf-structureから得られる木構造を図\ref{fig5}に示す.実際には,f-structureはネットワーク構造である.したがって,異なる親ノードが同一の子ノードを持つ場合がある.このような場合には子ノードを複製し,木構造に変換する処理を行った.図\ref{fig5}中の「イラン」に対応するノードが,複製された例である.また,2章で述べた通り実際のf-structureではOBLのPREDに格助詞が挿入されているが,木構造のノードには自立語を対応させるといった若干の変換処理を行っている.\begin{figure}[htbp]\center\epsfxsize=98.42mm\epsfbox{fig/fig5.eps}\caption{文(17)に対応するf-structureから得られる木構造}\vspace{-3mm}\label{fig5}\end{figure}解析精度の測定は,(B)コピー機マニュアル文460文の中で正規の文法によって解析結果が得られた文の中から100文をランダムに抽出して実験を行った.なお,この100文は,実験に用いた文法を記述する際に参考にしていない.100文に対して人手で正解の木構造を作成し,同じ100文に対して日本語LFGシステムから得られた解析結果(f-structureから得られた木構造)と比較した.比較は,木構造中の親ノード(PREDの値)と子ノード(PREDの値)のペアおよびそれらの間のリンクに付与されたラベル(文法機能)の3つ組に注目し,それらの再現率と適合率を計算した.5.1節で述べた通り,我々の日本語LFG文法では,文単位で文法的に正しいと認められる解析結果を全て出力する記述方針をとっている.これに対して本実験では文単位では本質的に曖昧性が解消できない場合であっても,文脈等から必ず1つの正解木を作成した.\begin{quote}\begin{itemize}\item[(18)]太郎は面白いと言った。\end{itemize}\end{quote}例えば,文(18)のように,「(太郎は面白いと)(誰かが)(言った)」と「(太郎は)(何かが面白いと)(言った)」という2つの解釈が成り立つ場合であっても,どちらかを正解とする.したがって,意図した通り2つの解析結果が得られたとしても,(一方は誤解析であると判定されるため)実験結果として100\,\%の解析精度が得られるとは限らないことに注意されたい.\\\tabcolsep5mm\begin{table}[htbp]\caption{解析精度測定結果}\begin{center}\begin{footnotesize}\begin{tabular}{rccc}\hline&&適合率&再現率\\\hlinePRED-GF-PRED&下限値&71.2\,\%&71.9\,\%\\&平均値&77.5\,\%&78.6\,\%\\&上限値&89.0\,\%&89.5\,\%\\PRED-PRED&下限値&78.6\,\%&79.5\,\%\\&平均値&83.2\,\%&84.3\,\%\\&上限値&92.6\,\%&92.2\,\%\\\hlineKNP&&86.9\,\%&51.4\,\%\\\hlineCabocha&&85.9\,\%&50.6\,\%\\\hlineBASELINE&&45.1\,\%&47.1\,\%\\\hline\end{tabular}\end{footnotesize}\vspace{2mm}\label{table4}\end{center}\end{table}\normalsize得られた実験結果を表\ref{table4}に示す.表中の平均値とは,「1つの文に対して得られる複数のf-structureに対応する各木構造を正解木と比較することにより再現率・適合率を算出して平均をとり,さらに100文の平均をとった値」である.上限値とは,「1つの文に対して得られる複数のf-structureに対応する各木構造の中から再現率あるいは適合率の最も高いものを選択し,100文の平均をとった値」である.上限値は,解析結果の曖昧性が理想的に解消された場合に得ることができる値である.下限値は,同様に「再現率あるいは適合率の最も低いものを選択し,100文の平均をとった値」である.また,PRED-GF-PREDは上記の3つ組のマッチングにより計算した値であり,PRED-PREDは,文法機能のラベルが異なっていても正解とみなして計算した値である.比較対象として,同じ100文をKNP\cite{knp}とCabocha\cite{cabocha}を用いて構文解析した場合の結果を表\ref{table4}に示した.この値は,文節をノードとする依存木を比較対象とするもので,基本的にPRED-PREDに対応するものである.ただし,正解木中のノードは形態素(PREDの値)が単位であるため,ノード間のマッチングは,KNPあるいはCabochaから得られる依存木の各ノード(文節)中に正解木のノード(形態素)が一つでも含まれていればマッチするものとした.BASELINEは,正解木中の各ノードが文の並びの中で全て右隣に係るとした場合のPRED-PRED値である.\subsection{考察}本節では,前節の解析精度の結果をうけての考察を行う.まず,前節の実験で用いた正解木の特徴について述べる.実験で用いた正解木は,一般に構文解析の評価で用いられている文節間の係り受け関係のみを対象とするものとは異なり,文法機能(格構造)の評価を同時に行うものである.自然言語による対話・質問応答やe-mailに対する自動応答などのアプリケーションにおいて格構造を決定するタスクは重要な役割を果たすため,係り受け関係同様,格構造は重要な評価項目であるといえる.また,実検で用いた正解木は,前節で述べた通り,一部のノードが複製されているという特徴を持つ.文(17)(図\ref{fig5})に示した使役文の場合や下記の文(19)のような関係節を含む文の場合に典型的にノードの複製が生じる.\begin{quote}\begin{itemize}\item[(19)]ノーベル文学賞をとった川端は雪国を書いた。\end{itemize}\end{quote}例えば,質問応答のアプリケーションを想定した場合,文(19)において「川端が(SUBJ)ノーベル文学賞を(OBJ)とった」と「川端が(SUBJ)雪国を(OBJ)書いた」という2つの格構造は質問に対する回答を生成する上で同等に重要な情報であると考えられる.同様に,文(18)において,「イラクが(SUBJ)イランを(OBJ)攻撃した」と「アメリカが(SUBJ)イラクに(OBL)イランを攻撃する(XCOMP)(ことを)させた」という2つの格構造は同等に重要な情報であると考えられる.文(18)中の「イラク」や文(19)中の「川端」を複製して正解木に含める理由は,複数の格構造をそれぞれ完全な形で明示することがこのような言語処理アプリケーションにとって有益であると考えられるからである.さらに,正解木のノードにはゼロ代名詞が含まれる.ゼロ代名詞の出現位置,すなわち,省略されている必須構成要素の位置を同定することは,照応解析・文脈解析にとって不可欠の処理であるためである.表\ref{table4}中のBASELINEの値は,\cite{mitsuishi1998}等で報告されているBASELINE値よりも低くなっている.これは,正解木のノードが文節単位ではなく形態素単位であるからである.例えば,「できません」を一つの単位とするのではなく,「できる」と「ぬ」の2つのノードが正解木中に存在することになる.(文節中の「ます」は5.1節で述べた通りPREDとはならず,したがって,ノードとして出現しないものとして正解木を作成した.)この際,LFGでは「ぬ」を「できる」の修飾成分(ADJUNCT,ADJUNCT-TYPE=neg)とする.したがって,この場合「ぬ」は左の位置にある「できる」を修飾することになる.同様に「トナーなど」の場合でも,「など」が「トナー」を修飾する接尾辞(ADJUNCT,ADJUNCT-TYPE=suffix)として左方向への係り受け関係を持つ.BASELINEは単純に右隣に掛ける方式のため,適合率・再現率共に,通常の文節単位の計測結果よりも低い値になる.さらに,文節単位の場合では分割しない「絶縁赤色ワイヤー」のような複合名詞の場合でも,「絶縁」と「赤色」が共に「ワイヤー」に係る解析を正解とするため,右隣に掛けるBASELINEの適合率・再現率を低くする要因となる.一方,KNPおよびCabochaの結果は,適合率と再現率に大きな差がある.これは,文節単位の係り受け関係のみが測定対象であるためである.適合率は,純粋に文節間の係り受け精度が測定されるのに対して,再現率は,上記に述べた複製ノードや,文節内の関係,およびゼロ代名詞に対応するノードを含む関係に全くマッチしないため低い値となる.再現率の値が異なるため,本システムとKNPあるいはCabochaの適合率を直接比較することはできないが,解析結果の内容を人手で比較した結果,文節間の係り受け関係の精度について顕著な差は認められなかった.5.1節で述べたように,本システムは複数の解析結果を出力する仕様となっている.表\ref{table4}に示した上限値に対応する解析結果の場合,KNPおよびCabochaが出力する正しい係り受け関係(PRED-PRED)をほぼ全て含むものとなっていた.以下に,解析結果が異なっていた主要な例を挙げる.\begin{quote}\begin{itemize}\item[(20)]画質を優先して読み取るか速度を優先して読み取るか指定できます。\end{itemize}\end{quote}文(20)は,KNPで正しく解析され,本システムが誤った解析結果を出力した文である.日本語LFG文法では「一つの文節は同じ係り受け関係で二つ以上の文節を受けない」という係り受け関係の非重複性の制約を採用している.文(20)は,2つの埋め込み文が並置構造を成し,共にOBJとして「指定できます。」に係る構成となっている.現在の日本語LFG文法には,この並置構造を扱う文法規則(2つ以上の埋め込み文を1つのOBJに纏め上げる規則)が存在しなかったため,非重複性の制約に従い誤解析を出力する結果になった.今後,このような並置規則の精緻化を実施する必要がある.逆に,以下は既存の構文解析システムと比較して,本システムのような文法規則に基づいた深い解析を行うシステムが有利であると考えられる例である.\begin{quote}\begin{itemize}\item[(21)]次の原稿を読み取る操作については,「コピー」の「次原稿の読み取り」を参照してください。\end{itemize}\end{quote}KNPでは,文(21)中の「「コピー」の」の係り先が「参照してください。」となる.5.1節で述べた通り,「名詞+「ノ」」は関係節中あるいは埋め込み節中以外では連用修飾を行わない(SUBJとならない).したがって,文法規則に基づく解析システムからはこのような誤った解析結果が出力されることはない.特に文(21)のケースは,関係節(Srel)という句構造に関する規則と主語(SUBJ)という文法機能に関する規則を,句構造規則(文脈自由文法規則)に機能的注釈を付与するかたちで関係付けて記述できるLFGのフォーマリズムが,文法を記述する上で有効に機能する例である.\begin{quote}\begin{itemize}\item[(22)]コピーは出力されず、DocumentGate文書の作成と保存のみ行うことができます。\end{itemize}\end{quote}KNP,Cabocha共に,文頭の「名詞+「ハ」」を実際以上に文末の動詞句に掛ける傾向が強く,本システムが出力しない誤解析を出力するケースが見受けられた.例えば,両システム共に文(22)中の「コピーは」の係り先を「できます。」とする解析を行う.実際には,「コピーは」は係助詞「ハ」による格助詞「ガ」の省略であり,「コピー」は「出力される」のSUBJ(「出力する」のOBJ)である.本システムでも,係助詞や副助詞による格助詞の省略を正確に取り扱うための文法記述は十分であるとはいえないが,各述語の結合価とOTマークを利用した文法記述によって比較的良好な解析結果が得られている.今後さらに,\cite{minami}等を参照することによって,「ハ」による主題化現象を扱う文法規則を句構造規則と機能的注釈の組み合わせで精緻化していくことができる点は,LFGに基づく解析システムの有利な点であるといえる.文法機能(格構造)の同定を含めた評価結果(PRED-GF-PRED)は,現在利用可能なシステムが公開されていないため他のシステムと比較しての考察はできない.しかし,今回の実験で,係り受け関係のみの精度と文法機能を含めた場合の精度の間に大きな乖離が見られないことを確認することができた.以上のように本システムは,係り受け関係については既存の構文解析システムと同程度の精度を有し,文法記述の継続によりさらなる精度の向上が期待できる.また,既存の構文解析システムと比較して,ゼロ代名詞,使役,関係節,副助詞,否定表現等をより詳細に解析できる特\break徴を持ち,今回の評価の対象外とした時制,様相,話法等の意味情報を出力することが可能である.これらは,対話や質問応答といったアプリケーションにとって有用な特徴であると共に,否定や副助詞のスコープの同定,ゼロ代名詞の実体特定等の解析処理に繋がるものである. \section{今後の課題} 本稿で述べた日本語LFG文法は完成したものではなく,文法記述のさらなる精緻化が最も重要な課題である.5.3.1項で述べたOTマークのグループ化の手法を利用することにより,未対応の言語現象や,口語的・非文法的言語現象であっても頻出するものについては規則化を進めていく.これによって,カバー率を高めると共にカバー率全体に対する部分解析結果の占める割合を減じ,解析精度をさらに向上させることが可能であると期待できる.5.1節および前章で述べた通り,本稿で説明した日本語LFG文法は,文単位で文法的に正しいと認められる解析結果を全て出力する方針で記述している.もちろん,文法的に正しい解析結果と認められないf-structureに関しては,それらを減じるよう文法の精緻化と適切なOTマークの設定を継続的に行っている.これにより,表3で示した解析結果数にまでは曖昧性を抑えることが可能となっている.しかしながら,日本語LFG解析システムをアプリケーションに適用することを考えた場合,後工程として,曖昧性を完全に解消するためのシステムが必須である.統計的手法によって生成された格フレーム辞書\cite{kawahara2002}を利用する等の方法で曖昧性解消を実現することが今後の課題である.3章および5章で述べた多言語間でf-structureの整合性を高める活動を継続することによって,等しいアーキテクチャで複数の言語を扱うことが可能な言語処理アプリケーションの構築が可能になると期待できる.しかしながら,異なる言語のf-structureの整合性の度合いを定量的に測定するための方法論は,これまでのところ提案されていない.このような評価手法の確立は今後の課題である. \section{おわりに} 以上のように本稿では,他言語と高い整合性を持つf-structureを出力し,言語学的に精\break緻であり,かつ,高い解析カバー率を持つ日本語LFG文法およびシステムについて述べた.我々は,日本語に特徴的な言語現象を,過去の言語学的知見を活かして,LFG理論が持つ豊\break富な記述力の下に規則化するという作業を継続して行っている.自然言語の文法記述を完全\breakに体系的・手続き的に進めることは困難であり,我々の文法記述においても経験的なものに\break依存する面は大きい.しかしながら,OTマークを利用して段階的に解析を行う手法によっ\breakて,例外的な文法・語彙規則が解析結果に及ぼす悪影響を減じ,文法の大規模化に伴う記述\breakの見通しの悪さを軽減することが可能となった.さらに,部分解析機能の導入によって,口\break語的・非文法的文への対処が可能となった.また,解析実験を行い,マニュアル文のような\break文法に則った文と,お客様相談センター文のような口語的な文の両者に対して,日本語LFG\breakに基づくシステムとしてはこれまでにない,95\,\%以上の解析カバー率が得られていることを\break確認した.また,小規模な実験ではあるが,マニュアル文を対象に解析精度測定のための実\break験を行い,係り受けの再現率・適合率共に平均値で約84\,\%,上限値で約92\,\%の値が得られ\breakていることが確認できた.また,文法機能の同定を含めた評価でも再現率・適合率共に平均\break値で約78\,\%,上限値で約89\,\%の値が得られ,係り受けの精度と大きな乖離がないことが分かった.\break\acknowledgment{\normalsizeParGramのメンバー,特に日本語LFG文法記述の初期の段階で有益なコメントを頂いたPaloAltoResearchCenterInc.のRonaldKaplan氏,MaryDalrymple氏,TracyHollowayKing氏,MartinKay氏,Konstanz大学MiriamButt氏,Stuttgart大学ChristianRohrer氏,Bergen大学HelgeDyvik氏に感謝致します.また,XLEの開発者であり,日本語システム構築時に実装に関する貴重な助言を頂いたPaloAltoResearchCenterInc.のJohnMaxwell氏,HadarShemtov氏に感謝致します.}\vspace{-0.5cm}\bibliographystyle{nlpbbl}\bibliography{v10n2_05}\begin{biography}\biotitle{略歴}\bioauthor{増市博(正会員)}{1989年京都大学工学部機械工学科卒業.1991年京都大学工学研究科精密工学専攻修士課程修了.同年,富士ゼロックス(株)入社.1998〜2000年米国Stanford大学CSLI客員研究員およびPaloAltoResearchCenterInc.コンサルタント研究員.現在,富士ゼロックス(株)中央研究所に勤務.}\bioauthor{大熊智子(正会員)}{1994年東京女子大学文理学部日本文学科卒業.1996年慶應義塾大学政策メディア研究科修士課程修了.同年,富士ゼロックス(株)入社,現在に至る.計量国語学会,認知科学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V24N05-04
\section{はじめに} 一般に,自然言語処理システムでは単語を何らかの数値ベクトルとして表現する必要がある.単純にベクトル化する方法としてはone-hot表現がある.これは単語の種類数が$N$の場合,$N$次元ベクトルを用意し,単語$w$が$i$番目の種類の単語であれば,$N$次元ベクトルの$i$番目だけを1に,他は0にして$w$をベクトル化する方法である.one-hot表現によるベクトル化は単にベクトル化しただけであり,ベクトル間の関係はその単語間のなんらかの関係を反映しているわけではない.処理の意味を考えれば,単語のベクトルはその単語の意味を表し,ベクトル間の関係は,単語の意味の関係を反映したものになっていることが望ましい.このような背景下で,Mikolovはword2vecを発表し\cite{Mikolov1,Mikolov-2013},単語の意味を低次元密なベクトルとして表現する分散表現が大きな成功を収めた.その後,自然言語処理の様々なタスクにおいて,分散表現が導入され,既存のシステムを改善している.また同時に近年,自然言語処理の分野でも深層学習の利用が活発だが,そこでは単語のベクトル化に分散表現が用いられる\cite{okazaki}.つまり,現在,自然言語処理システムにおける単語のベクトル化には分散表現を用いることが一般的な状況となっている.分散表現は,単語分割されたコーパス\footnote{日本語の場合,'mecab-Owakati'により,容易にテキストコーパスをword2vecの入力形式に変換できる.}があればword2vec\footnote{https://github.com/svn2github/word2vec}やGloVe\footnote{https://nlp.stanford.edu/projects/glove/}などの公開されているツールを用いて簡単に構築できる.また深層学習で利用する場合は,ネットワークの一部として分散表現を学習できる.このため分散表現のデータ自体の品質に関心が持たれることは少ない.ただし分散表現を利用したシステムでは,分散表現の品質がそのシステムの精度に大きな影響を与えている.また深層学習では,学習時間や得られるモデルの品質の観点から,分散表現を学習時に構築するよりも,既存の学習済みの分散表現を用いる方が望ましい.このような観点から容易に利用できる高品質の分散表現データがあれば,様々な自然言語処理システムの構築に有益であることは明らかである.以上の潜在的な需要に応えるために我々は国語研日本語ウェブコーパス(以下,NWJC)\cite{asahara2014archiving}を利用して分散表現を構築し,それをnwjc2vecと名付けて公開している\footnote{http://nwjc-data.ninjal.ac.jp/}.NWJCは約258億語からなるコーパスである.1年分の新聞記事中のプレーンな文のデータが約2,050万語\footnote{2008年度の毎日新聞記事から,文としてなりたつと考えられるものを抽出し,unidicを基に形態素解析したものから算出した.}であることを考えると,NWJCは1,200年分以上の新聞記事に相当し,超大規模コーパスといえる.そのためそのコーパスから構築されたnwjc2vecが高品質であることが期待できる.本稿ではnwjc2vecを紹介するとともに,nwjc2vecの品質を評価するために行った二種類の評価実験の結果を報告する.第一の評価実験では,単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出する.第二の評価実験では,タスクに基づく評価として,nwjc2vecを用いて語義曖昧性解消及び回帰型ニューラルネットワーク(RecurrentNeuralNetwork,以下RNN)による言語モデルの構築を行う.なおここでの言語モデルとは確率的言語モデルであり単語列に対する確率分布を意味する.構築した言語モデルはパープレキシティにより評価できるので,その評価値により構築の基になった分散表現データを評価する.どちらの評価実験においても,新聞記事7年分の記事データから構築した分散表現を用いた場合の結果と比較することで,nwjc2vecが高品質であることを示す. \section{nwjc2vecの構築} \subsection{NWJC}NWJCはウェブを母集団とし,100億語規模を目標として構築した日本語コーパスである.ウェブアーカイブの構築で用いられるHeritrix-3.1.1\footnote{http://webarchive.jira.com/wiki/display/Heritrix/Heritrix/}クローラを運用することで,1年間,3か月おきに,固定した約1億URLのウェブページを収集している.得られたウェブページはnwc-toolkit-0.0.2\footnote{https://github.com/xen/nwc-toolkit}を用いて,日本語文抽出と正規化を行う.コピーサイトの問題を緩和するために,文単位の単一化(文の異なりを用いる)を行った.アノテーションはすべて自動解析を用い,形態論情報,および係り受け情報を付与している.形態素解析には形態素解析器MeCab-0.996\footnote{https://taku910.github.io/mecab/}とUniDic-2.1.2\footnote{http://unidic.ninjal.ac.jp/}を使用し,係り受け解析には係り受け解析器CaboCha-0.69\footnote{https://taku910.github.io/cabocha/}とUniDic主辞規則\footnote{CaboChaコンパイル時に{\tt./configure--with-posset=UNIDIC}と指定することで,解析器の主辞規則を\mbox{UniDic}品詞体系に適応することができる.}を使用した.収集したデータを研究者に提供することが求められているが,著作権の問題があり,収集したデータをそのまま外部の研究者に提供することは難しい.そこで,文字列のみならず,形態論情報や係り受け構造に基づく検索系を構築し,例文とともに元データが含まれるURLへのリンクを含めて提示するサービスを構築した\cite{Asahara-2016-bonten}.このサービスから利用可能なデータは,2014年10--12月期収集データ(NWJC-2014-4Qデータ)に基づく.基礎統計は表\ref{table1}のとおりである.\begin{table}[b]\caption{基礎統計:NWJC-2014-4Qデータ}\label{table1}\input{03table01.txt}\end{table}\subsection{word2vecによる分散表現の構築}表1に示したNWJC-2014-4Qデータを用いて分散表現データを構築する.分散表現データの構築にはword2vec\footnote{https://github.com/svn2github/word2vec}のCBOWモデルを用いた.表\ref{table2}にword2vec実行時の各種パラメータを示す\footnote{これらのパラメータはword2vecのソースと一緒に配布されるdemo-word.shに記載されているパラメータである.NWJCに特化してチューニングした値ではない.nwjc2vecの構築に要する時間は高性能マシンを用いても3週間以上であるため,他のパラメータとの比較は行っていない.}.\begin{table}[b]\caption{word2vecの実行時のパラメータ}\label{table2}\input{03table02.txt}\end{table}分散表現の学習に利用するコーパスは単語分割されている必要がある.ここではこの単語として,書字形出現形のみを使ったwordと,形態論情報\footnote{unidic-mecab\_kana-accent-2.1.2のdicrcに記載の素性26種.}を含めたmrphの2種類を用意し,それぞれの単語単位に対してモデルを構築した.\subsection{nwjc2vec}上記により構築できた2つのモデルのうち特に有用であるのは形態論情報を含めた分散表現である.このモデルの分散表現をnwjc2vecと名付けて公開している.nwjc2vecは柔軟な利用が可能なように,分散表現をテキストファイルの形式で保存している.1行は1形態素に相当し,以下の形式になっている.\vspace{0.3\Cvs}\begin{center}\begin{minipage}{150pt}\begin{screen}形態素\verb|e_1|\verb|e_2|・・・\verb|e_200|\end{screen}\end{minipage}\end{center}\vspace{0.7\Cvs}\verb|e_i|がその形態素の分散表現の\verb|i|次元目の値である.例えば,以下は「意味」に対応する分散表現である.\vspace{0.3\Cvs}\begin{center}\begin{minipage}{330pt}\small\begin{screen}意味,名詞,普通名詞,サ変可能,*,*,*,イミ,意味,意味,イミ,意味,イミ,漢,*,*,*,-10.491043-2.121982-3.084628$\cdots$4.0247053.57007212.781445\end{screen}\end{minipage}\end{center}\vspace{0.7\Cvs}つまり``意味,名詞,普通名詞,サ変可能,*,*,*,イミ,意味,意味,イミ,意味,イミ,漢,*,*,*,''が1形態素である.またベクトル値はword2vecの出力値をそのまま書き出しており,大きさ\footnote{本論文ではベクトルの「大きさ」をベクトルの「L2-ノルム」の意味で用いている.}を1とする正規化はされていない.nwjc2vec全体としては1,738,455形態素からなる\footnote{そのテキストファイルはheaderの1行を含め1,738,456行である.}.書字形出現形は1,541,651種類存在するので,書字形出現形が同じでも形態論情報が異なるものが多数存在する.従来の単語分散表現は書字形出現形を形態素としたものが一般的であり,その場合,品詞の違いによる別単語を同一の分散表現にしているという明らかな欠点がある.nwjc2vecではその欠点を回避できている.\begin{table}[b]\caption{品詞別の形態素数}\label{myhinshi}\input{03table03.txt}\end{table}大分類の品詞別の形態素数を頻度順に\mbox{表\ref{myhinshi}}にまとめる.etcは半角英単語などの未知語であり,語彙素の付与に失敗しているものである.次に\mbox{表\ref{myhinshi}}のetc以外の分散表現のベクトルの大きさを調べた.平均は9.261,標準偏差は9.641,中央値は5.105であった.またベクトルの大きさを0.1刻みに丸め,その頻度分布を調べた.結果を\mbox{図\ref{myhindo2}}に示す.\begin{figure}[b]\begin{center}\includegraphics{24-5ia3f1.eps}\end{center}\caption{分散表現ベクトルの大きさの頻度分布}\label{myhindo2}\end{figure}参考として,ベクトルの大きさとその単語の関係を調べた.ベクトルの大きさの小数点以下を切り捨て,大きさ3,15,75\footnote{この3つの数値は,ベクトルの大きさは3が最頻出であったことから選んだ.}の単語をランダムに10個取り出した.その結果を表\ref{w-len}に示す.ここから明確な特徴を示すことはできないが,頻度が小さな単語はそのベクトルも小さく,頻度が大きな単語はそのベクトルも大きいという傾向があると考えられる.\begin{table}[b]\caption{ベクトルの大きさと単語の関係}\label{w-len}\input{03table04.txt}\end{table} \section{評価実験} 一般に分散表現の評価法には単語間類似度の観点からのものと,分散表現を用いたタスクの精度の観点からのものが存在する.単語間類似度からnwjc2vecを評価したものとして,分類語彙表との対応をみた評価が報告されている\cite{asahara-nwjc}.そこでは主観的な評価ではあるが,nwjc2vecが高品質であることが示されている.ここでは更に定量的な評価を行うために,単語類似度データセットを利用する.またタスクの精度の観点としては,語義曖昧性解消と言語モデル構築という2つのタスクから評価を行う.どちらの評価実験においても,新聞記事7年分の記事データから構築した分散表現を用いた場合の結果と比較することで,nwjc2vecが高品質であることを示す.\subsection{比較のための分散表現mai2vecの構築}nwjc2vecとの比較のために,新聞記事7年分から分散表現を構築する.用いたコーパスは毎日新聞'93年度版から'99年度版の7年分の記事であり,そこから見出しや表内の文字列等を取り除き,文として認められるものだけを取り出した.取り出した文は6,791,403文であった.これをMeCab-0.996とUniDic-2.1.2を用いて分かち書きし,これをword2vecにかけることで分散表現を構築した.この分散表現データをここではmai2vecと名付ける.word2vec実行時の各種パラメータはnwjc2vecを構築したもの(\mbox{表\ref{table2}})と合わせた.最終的に得られたmai2vecの形態素数は132,509であった.\subsection{単語間類似度による評価}分散表現を単語間類似度の観点から評価する方法として,単語類似度データセットを利用する方法がある.単語類似度データセットは用意された単語ペアに対して,複数の人間が主観的にその類似度を付けたものである.複数人の類似度の平均を,その単語ペアの類似度とみなす.単語類似度データセット中の単語ペアの類似度を,分散表現データを用いて算出する.データセットに記されている類似度が高い単語ペアに対しては,分散表現データも高い類似度を算出し,低い単語ペアに対しては分散表現データも低い類似度を算出するというように,データセット内に記された類似度と分散表現が算出する類似度に相関があれば,その分散表現データの単語間類似度が概ね正しいと考えられる.この相関の算出には一般にスピアマン順位相関係数が用いられる.ここでは首都大学東京の小町研究室が以下で公開している単語類似度データセットを利用する.このデータセットは形容詞,副詞,名詞及び動詞の4つの単語類似度データセットからなる.10人のアノテータにより各単語ペアに対して11段階(0から10)の類似度が付与されている.\vspace{0.5\Cvs}\begin{center}https://github.com/tmu-nlp/JapaneseWordSimilarityDataset\end{center}\vspace{0.5\Cvs}このデータセット中の単語ペアのうちmai2vecとnwjc2vecの両方に登録されている単語ペアだけを評価に利用した.利用した単語ペア数を表\ref{wdsim-tab}に示す.\begin{table}[t]\caption{単語類似度データセット中の利用した単語ペア数}\label{wdsim-tab}\input{03table05.txt}\end{table}上記の単語ペアに対してmai2vecあるいはnwjc2vecから類似度を求め\footnote{類似度は両者のベクトルの大きさを1に正規化し,そららの余弦(この場合,内積)から求めた.},形容詞,副詞,名詞及び動詞の各データセットに対して,スピアマン順位相関係数を算出した.結果を表\ref{wdsim-kekka}に示す.\begin{table}[t]\caption{単語間類似度の実験結果}\label{wdsim-kekka}\input{03table06.txt}\end{table}全てのデータセットにおいてnwjc2vecはmai2vecよりも評価値が高く,単語間類似度の観点ではmai2vecよりも品質が高いと言える.\subsection{タスクに基づく評価}\subsubsection{語義曖昧性解消タスク}分散表現を用いて,教師あり学習による語義曖昧性解消を行う.語義曖昧性解消に分散表現を用いる手法にはSugawaraが提案した手法\cite{sugawara}を用いる.Sugawaraの手法は語義曖昧性解消に対して通常設定する素性群(基本素性と呼ぶ)の他に対象単語の前後2単語の分散表現を素性として加えるというものである.例えば以下の文を考える.語義曖昧性解消の対象単語は「意味」であり,単語区切りを``/''で示す.\begin{screen}\begin{verbatim}江戸/時代/の/庶民/たち/が/そこ/に/新た/な/意味/の/付与/を/おこなっ/て/き/た/。\end{verbatim}\end{screen}標準的な教師あり学習の手法では「意味」の前後の文脈情報(例えば前後に現れる自立語や直前の品詞など)を素性で表す.これが基本素性となる.この基本素性をベクトル表現したものを$V$とする.Sugawara手法は対象単語の前後2単語,つまり「新た」「な」「の」「付与」の4単語の分散表現$V_{新た}$,$V_{な}$,$V_{の}$,$V_{付与}$を$V$に結合させ,それを新たな上記文の素性ベクトルとして教師あり学習を行うというものである.ここでの実験では分散表現の差異を明確にするために基本素性を利用せずに,前後2単語の分散表現(上記例では$V_{新た}$,$V_{な}$,$V_{の}$,$V_{付与}$)だけを結合させた素性ベクトルを用いることにする.各分散表現を求める際にnwjc2vecあるいはmai2vecを利用する.ただしnwjc2vecの形態素には形態論情報が付与されているが,ここでは大分類の品詞だけを用いることにした.例えば上記文では,形態素解析時に各単語に大分類の品詞名を付与し,以下のような形に直すことで分散表現を求めている.\begin{screen}\begin{verbatim}江戸-名詞/時代-名詞/の-助詞/庶民-名詞/たち-接尾辞/が-助詞/そこ-代名詞/に-助詞/新た-形状詞/な-助動詞/意味-名詞/の-助詞/付与-名詞/を-助詞/おこなっ-動詞/て-助詞/き-動詞/た-助動詞/。-補助記号\end{verbatim}\end{screen}語義曖昧性解消のデータセットとしてはSemEval-2の日本語辞書タスク\cite{semeval-2010}のデータセットを用いる.このタスクでは50単語の対象単語が設定され,各対象単語に対して,50用例の訓練データと50用例のテストデータが与えられている.各対象単語に対して訓練データで分類器を学習し,その単語のテストデータにより分類器の正解率を測る.そして50単語に対する正解率の平均によって評価を行う.実験結果を表\ref{mykekka1}に示す.表中のbaselineはSemEval-2でのベースラインである.表中のmai2vecは分散表現mai2vecから素性ベクトルを作る手法である.表中のnwjc2vecは分散表現nwjc2vecから素性ベクトルを作る手法である.どちらの場合も分散表現のベクトルは大きさを1に正規化している.また大きさを1に正規化せずに,word2vecから求まった値を直接使った場合をmai2vec-0とnwjc2vec-0により示した.ベースラインも含め,いずれのシステムも学習アルゴリズムとしては線形のSVM\footnote{https://www.csie.ntu.edu.tw/~cjlin/libsvm/}を用いた.\begin{table}[t]\caption{平均正解率(\%)}\label{mykekka1}\input{03table07.txt}\end{table}nwjc2vecが最も高い正解率を出しており,nwjc2vecが高品質であると考えられる.また分散表現のベクトルの大きさは1に正規化して利用した方がよいことも確認できる.\subsubsection{RNNによる言語モデル構築}RNNは時系列データを処理する深層学習のモデルである.様々な応用があるが,最も典型的な応用は言語モデルの構築である.時刻$t$の入力データを,文$s$内の$t$番目の単語$w_t$とし,その教師データを次に現れる単語$w_{t+1}$とすることで言語モデルが学習できる.ここではRNNの拡張版であるLongShort-TermMemory(以下LSTM)\cite{gers2000learning}を用いる.言語モデルを学習するLSTMの時刻$t$時の入出力を表したネットワークを\mbox{図\ref{rnn}}に示す.時刻$t$で単語$w_t$が入力され,それを$w_t$の分散表現のベクトルに変換し,その分散表現のベクトルをLSTMブロックに入力する.LSTMブロックでは次の時刻$t+1$へのLSTMブロックへ$w_0$から$w_t$の単語列の情報を圧縮したベクトル$h_t$と記憶セル$c_t$を渡す.同時に$y_t$を出力し,それを線形作用素$W$でone-hot形式のベクトルに直すことで次に現れる単語を予測する.学習時には$Wy_t$と$w_{t+1}$との誤差からネットワークの重みを学習する.\begin{figure}[b]\begin{center}\includegraphics{24-5ia3f2.eps}\end{center}\caption{LSTMの時刻$t$時の入出力}\label{rnn}\end{figure}上記ネットワークでは,$w_t$をその分散表現のベクトルに変換するが,その変換,つまり$w_t$の分散表現自体をLSTM内で学習している.その際,学習対象の分散表現の初期値は通常ランダムな値を設定する.しかしこの初期値に既存の分散表現のデータを利用することも可能である.あるいは,分散表現を学習対象から外し,分散表現への変換は既存の分散表現のデータを利用する形でも良い.ここでの実験では分散表現の品質の比較を目的としているために,分散表現を学習対象から外し,分散表現への変換は評価対象の分散表現データを利用する形で実験を行う.つまり分散表現への変換にmai2vecを用いて構築した言語モデル(mai2vec-lm),及び分散表現への変換にnwjc2vecを用いて構築した言語モデル(nwjc2vec-lm)を比較することでnwjc2vecを評価する.また参考として分散表現をLSTM内で学習して構築した言語モデル(base-lm)も評価する.言語モデルの評価にはパープレキシティを用いる.言語モデルの学習用のコーパスとしては現代日本語書き言葉均衡コーパス\cite{maekawa2014balanced}のYahoo!ブログとYahoo!知恵袋から取り出した7,330文のうち7,226文を学習用コーパス,104文を評価用コーパスとした.1epoch\footnote{一つの学習用データ(ここでは7,226文)を何回繰り返して学習させたかの単位.}毎に構築した言語モデルのパープレキシティを表\ref{rnn-tb}と図\ref{rnn-fg}に示す.\begin{table}[b]\vspace{-0.5\Cvs}\caption{エポック毎のパープレキシティ}\label{rnn-tb}\input{03table08.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{24-5ia3f3.eps}\end{center}\caption{分散表現の違いによる言語モデルのパープレキシティ}\label{rnn-fg}\vspace{-0.5\Cvs}\end{figure}mai2vec-lmとnwjc2vec-lmはbase-lmよりもパープレキシティが低く,言語モデルの学習には分散表現への変換を同時に学習するよりも,既存の分散表現を利用した方がよいと言える.またnwjc2vec-lmはmai2vec-lmよりもパープレキシティが低く,nwjc2vecの方がmai2vecよりも品質が高いと言える. \section{考察} 単語間類似度に基づく評価実験では,mai2vecもnwjc2vecもスピアマン順位相関係数の値自体は低かった.ただしnwjc2vecはmai2vecよりも明らかに評価値が高く,少なくともmai2vecよりも品質が高いと言える.分類語彙表との対応をみた実験\cite{asahara-nwjc}からも単語間類似度の精度は良く,しかもタスクに基づく評価実験からmai2vecもかなり品質が高いことがうかがえるため,nwjc2vecは単語間類似度の観点からは高品質であると考える.タスクに基づく評価実験では,語義曖昧性解消でも言語モデルの構築でもnwjc2vecはmai2vecよりも良い値を出したが,その差はわずかであった.ただし品質の差は数値の差以上のものがあると考えられる.まず語義曖昧性解消ではSemEval-2の日本語辞書タスクのデータを用いたが,このタスクはbaselineがかなり高く,通常のリソースを使う限りではbaselineを超えることは困難である.実際にSemEval-2の参加システムでbaselineを超える正解率を出したシステムはなかった.また新納はこのタスクにおいて様々なシソーラスの情報を試したが,baselineを0.2\%以上改善できるものはなかった\cite{shinnou}.そこではシソーラスの粒度を混合して利用することで77.28\%まで改善しているが,nwjc2vecはこの値よりも0.43\%高い.Yamakiはwikipediaから構築した分散表現と独自の手法を利用して,77.10\%の正解率を出したが\cite{yamaki},この値はmai2vecと同程度である.mai2vecもnwjc2vecもbaselineを超えているので,どちらの分散表現もかなり品質は高いといえるが,nwjc2vecはmai2vecよりも0.64\%高い.この0.64\%の差はなかなか埋めることができないものである.次に言語モデルを用いたここでの実験では,未知語の問題を避けていることを注記したい.ここで利用した学習用コーパスと評価用コーパスにはmai2vecおよびnwjc2vecのどちらにも未知語が存在しないように,どちらかに未知語が存在する場合は,その文を予めコーパスから取り除いている.初期のコーパス(175,302単語,異なり単語数15,082単語)ではmai2vecを用いた場合の未知語は7,424単語(異なり数3,204単語)存在したが,nwjc2vecを用いた場合の未知語は404単語(異なり数324単語)であり,大きな差がある.本実験において,学習用コーパスあるいは評価用コーパス内の分散表現データにおける未知語の出現が,構築できる言語モデルにどの程度悪影響を与えるかは不明である.ただし明らかに未知語の出現により評価値は悪くなるはずであり,この点からnwjc2vecとmai2vecの品質の差は更にあると考えられる.最後にnwjc2vecのfine-tuningについて述べる.あるモデルの学習を行う際に,訓練データが少量しかないことは通常起こりえる.このとき別の訓練データから学習された既存のモデルが利用できれば,手持ちの少量の訓練データからその既存のモデルを自分の用途に調整することができる.これをfine-tuningという.分散表現もfine-tuningが可能であるため,nwjc2vecの存在意義は更に高い.この点を確認するため,分散表現の学習プログラム\footnote{windowの幅は5単語,NegativeSampleの個数は20単語,モデルはSkipGramを用いた.}を作成し\cite{shinnou-book},その分散表現の初期値をnwjc2vecに設定し,学習用コーパスとしてはmai2vecの基になったコーパスから30万文をランダムに取り出したものを用いてnwjc2vecのfine-tuningを行った.得られた分散表現を用いて,前章で行ったLSTMによる言語モデルの学習を再度行った.学習用コーパスと評価用コーパスも前章のものと同じである.結果を\mbox{表\ref{rnn-tb2}}と\mbox{図\ref{rnn-fg2}}に示す.各epoch後に学習できた言語モデルのパープレキシティはfine-tuningによる分散表現を用いたものの方が優れており,fine-tuningの効果が確認できる.\begin{table}[t]\caption{fine-tuningの効果}\label{rnn-tb2}\input{03table09.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{24-5ia3f4.eps}\end{center}\caption{fine-tuningによる言語モデルのパープレキシティ}\label{rnn-fg2}\end{figure} \section{おわりに} 本稿では我々が構築,公開している日本語単語の分散表現のデータnwjc2vecを紹介した.nwjc2vecは超大規模コーパスである国語研日本語ウェブコーパスからword2vecを用いて構築した分散表現のデータである.ここではnwjc2vecの品質を評価するため2種類の評価実験を行った.第一の評価実験では単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出した.第二の評価実験では,タスクに基づく評価として,nwjc2vecを用いて語義曖昧性解消及び回帰型ニューラルネットワークによる言語モデルの構築からnwjc2vecの評価を行った.二つの評価実験からnwjc2vecが高品質であることが示された.今後はnwjc2vecのfine-tuningの可能性を調査したい.\acknowledgment本研究の一部は国語研コーパス開発センター「超大規模コーパス」プロジェクト(2011--\linebreak2015)・コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」(2016--2021)・新領域創出型共同研究プロジェクト「all-wordsWSDシステムの構築及び分類語彙表と岩波国語辞典の対応表作成への利用」(2016--2017)によるものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara,Kawahara,Takei,Masuoka,Ohba,Torii,Morii,Tanaka,Maekawa,Kato,\BBA\Konishi}{Asaharaet~al.}{2016}]{Asahara-2016-bonten}Asahara,M.,Kawahara,K.,Takei,Y.,Masuoka,H.,Ohba,Y.,Torii,Y.,Morii,T.,Tanaka,Y.,Maekawa,K.,Kato,S.,\BBA\Konishi,H.\BBOP2016\BBCP.\newblock\BBOQ`BonTen'---CorpusConcordanceSystemfor`NINJALWebJapaneseCorpus'.\BBCQ\\newblockIn{\BemProceedingsofCOLING2016,the26thInternationalConferenceonComputationalLinguistics:SystemDemonstrations},\mbox{\BPGS\25--29}.\bibitem[\protect\BCAY{Asahara,Maekawa,Imada,Kato,\BBA\Konishi}{Asaharaet~al.}{2014}]{asahara2014archiving}Asahara,M.,Maekawa,K.,Imada,M.,Kato,S.,\BBA\Konishi,H.\BBOP2014\BBCP.\newblock\BBOQArchivingandAnalysingTechniquesoftheUltra-large-scaleWeb-basedCorpusProjectofNINJAL,Japan.\BBCQ\\newblock{\BemAlexandria:TheJournalofNationalandInternationalLibraryandInformationIssues},{\Bbf25}(1--2),\mbox{\BPGS\129--148}.\bibitem[\protect\BCAY{浅原\JBA岡}{浅原\JBA岡}{2017}]{asahara-nwjc}浅原正幸\JBA岡照晃\BBOP2017\BBCP.\newblocknwjc2vec:『国語研日本語ウェブコーパス』に基づく単語の分散表現データ.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\94--97}.\bibitem[\protect\BCAY{Gers,Schmidhuber,\BBA\Cummins}{Gerset~al.}{2000}]{gers2000learning}Gers,F.~A.,Schmidhuber,J.,\BBA\Cummins,F.\BBOP2000\BBCP.\newblock\BBOQLearningtoForget:ContinualPredictionwithLSTM.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf12}(10),\mbox{\BPGS\2451--2471}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{maekawa2014balanced}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48}(2),\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{Mikolov-2013}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemICLRWorkshopPaper}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{Mikolov1}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandTheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{岡崎}{岡崎}{2016}]{okazaki}岡崎直観\BBOP2016\BBCP.\newblock言語処理における分散表現学習のフロンティア(〈特集〉ニューラルネットワーク研究のフロンティア).\\newblock\Jem{人工知能:人工知能学会誌},{\Bbf31}(2),\mbox{\BPGS\189--201}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2011}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2011\BBCP.\newblock\BBOQOnSemEval-2010JapaneseWSDTask.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\293--307}.\bibitem[\protect\BCAY{新納}{新納}{2016}]{shinnou-book}新納浩幸\BBOP2016\BBCP.\newblock\Jem{Chainerによる実践深層学習}.\newblockオーム社.\bibitem[\protect\BCAY{新納\JBA佐々木\JBA古宮}{新納\Jetal}{2015}]{shinnou}新納浩幸\JBA佐々木稔\JBA古宮嘉那子\BBOP2015\BBCP.\newblock語義曖昧性解消におけるシソーラス利用の問題分析.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\59--62}.\bibitem[\protect\BCAY{Sugawara,Takamura,Sasano,\BBA\Okumura}{Sugawaraet~al.}{2015}]{sugawara}Sugawara,H.,Takamura,H.,Sasano,R.,\BBA\Okumura,M.\BBOP2015\BBCP.\newblock\BBOQContextRepresentationwithWordEmbeddingsforWSD.\BBCQ\\newblockIn{\BemPACLING-2015},\mbox{\BPGS\149--155}.\bibitem[\protect\BCAY{Yamaki,Shinnou,Komiya,\BBA\Sasaki}{Yamakiet~al.}{2016}]{yamaki}Yamaki,S.,Shinnou,H.,Komiya,K.,\BBA\Sasaki,M.\BBOP2016\BBCP.\newblock\BBOQSupervisedWordSenseDisambiguationwithSentencesSimilaritiesfromContextWordEmbeddings.\BBCQ\\newblockIn{\BemPACLIC-30},\mbox{\BPGS\115--121}.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年より茨城大学工学部.現在,茨城大学工学部情報工学科教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{浅原正幸}{1998年京都大学総合人間学部卒.2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.現在同准教授.博士(工学).自然言語処理・コーパス言語学の研究に従事.情報処理学会,言語処理学会,言語学会,日本語学会各会員.}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部情報コミュニケーション工学科卒.2009年同大大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
V07N01-01
\section{はじめに} まず,言い間違いの原因について考察してみる.フロイト\cite{freud1917a}は言い間違いの原因として身体的理由と精神的理由を挙げている.フロイトは身体的理由として,\begin{enumerate}\item気分が悪い・疲れ気味である\itemあがっている\item注意が他にそれている\end{enumerate}\noindentを挙げている.1は確かに身体的理由であるが,2と3はむしろその場の精神的理由である.フロイトが言いたいことは,確かに上記のような身体的理由があるにしろ,言い間違いが生じている時は必ず何らかの深層心理的・無意識的理由があるということである.フロイトは深層心理的・無意識的理由のない言い間違いはありえない,つまり偶然生じる言い間違いはあり得ないと断言している.さらにフロイトは言い間違いで探索すべき概念の範囲として,似た言葉(発音・言語類似・言語連想)と反対の意味の言葉を挙げている.しかしながら,あまりよく知らない単語であったり,関心が薄い単語であれば言い間違えることが考えられる.また,ラカンの流れを汲むNasioは,無意識は相互作用であり,コミュニケーションあるいは精神分析の中でしか無意識は存在しないと言っている\cite{nasio1995a}.これは精神分析者が被精神分析者の無意識を被精神分析者に示し,理解させ,相互に了解しながら精神分析が進んでいくということを意味しているものと思われる.その無意識の兆候の一つとして挙げられるのが言い間違いである.つまり言い間違いのすべてが無意識を顕現化しているものではない.このような無意識を第三者が観察することで見い出すことは可能であろうか?もし可能であれば,会議支援につながる.会議参加者が意識的には気づいていないが無意識的に重要だと思っていることを会議へフィードバックすることができるからである.しかるに言い間違いは無意識の兆候を示しているのであるから,言い間違いを調べることによって会議支援ができることが期待できる.しかし,前述のような精神分析的方法は分析者の解釈がどうしても必要であり,かなりの能力が必要となり,誰にでもできるというわけにはいかない.しかも,その解釈にはかなり主観的要素がつきまとう.実際の言い間違いの利用方法には,\begin{enumerate}\item解釈しない(客観的)\item解釈する(主観的)\end{enumerate}\noindentの二種類が考えられる.前者は言い間違えた事実だけを客観的に使う方法であり,後者は言い間違いを解釈して使う方法である.我々は,解釈には分析者にかなりの能力が必要であり,利用の条件が厳しくなり,また,分析者の主観性が強く現れすぎて,結果が恣意的になると考え,前者の方法を採用する.言い間違いに関する用語を定義しておく.言い間違いにはいわゆる言い間違い,言い淀み,言い直しなどが含まれる.本論文では,言い淀みとは不要な語句(感動詞を含む)が挿入された発話を指すことにし,言い直しとは途中で発言が中断され別の語句に発話し直したことを指すことにし,言い間違いとは言い淀み・言い直し以外の言い間違いのことを指すことにする.ソフトウエアの要求獲得会議のコーパスから言い間違いの例を挙げると,\begin{verbatim}言い淀み:「電話で何だけ,留守番電話みたいに」言い直し:「たとえば何らかのシステムが出て,出たとしても」言い間違い:「自分の手帳でやってや書くでしょう」\end{verbatim}\noindentのようになる.なお,言い直しの例で,「出て」を言い直す前の単語,「出た」を言い直した後の単語と呼ぶことにする.言い直し以外の言い間違いを利用するためにはどうしても解釈する必要が出てくる.我々は客観的に分析するという観点から,主として,言い直しに限って分析を進める.さらに言い直しは,客観的に判断できる,形態論的な観点から,\begin{enumerate}\item\label{どの文法単位の言い直しか?}どの文法単位の言い直しか?\begin{enumerate}\item\label{単語レベルの言い直し}単語レベルの言い直し\item\label{文節レベル以上の言い直し}文節レベル以上の言い直し\end{enumerate}\item\label{言い直しの間に他の発話が入っているか?}言い直しの間に他の発話が入っているか?\begin{enumerate}\item\label{直後の言い直し}直後の言い直し\item\label{他の発話が入った言い直し}他の発話が入った言い直し\end{enumerate}\end{enumerate}\noindentに分類される.もちろん,\ref{どの文法単位の言い直しか?}と\ref{言い直しの間に他の発話が入っているか?}の間には重複があり得るので,全体では四通りに分類できる.それぞれ,単独の場合の例を,実際の発話から挙げておく.まず,\ref{単語レベルの言い直し}の例としては,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}\noindentが挙げられる.この例は,文脈から「メモ」を「電話の取り次ぎ」に言い直したことがわかる.次に,\ref{文節レベル以上の言い直し}の例としては,\begin{quote}離席の,リフレッシュルームに電話番号はないわけだから,\end{quote}\noindentが挙げられる.この例は,「離席の」という名詞と格助詞からなる文節を「リフレッシュルームに」に言い直している.このように,\ref{単語レベルの言い直し}と\ref{文節レベル以上の言い直し}との違いは,言い直す前の語句が単語か文節かの違いである.次に,\ref{直後の言い直し}の例としては,先ほどの,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}\noindentが挙げられる.また,\ref{他の発話が入った言い直し}の例としては,\begin{quote}ファッ……だからE−mailからFAXは簡単だよね.\end{quote}\noindentが挙げられる.この例では,「ファックス」が「E−mail」に言い直され,両方の語句の間に「だから」が挿入されている.このように,\ref{直後の言い直し}と\ref{他の発話が入った言い直し}の違いは,言い直された語句の間に他の語句が挿入されたかどうかの違いによる.前述のように,言い直しのすべてが無意識の兆候になっているかどうかは若干の疑念がある.そこで本論文では,第2節で,言い直す前の単語と言い直した後の単語のどちらにより関心があるかを調べる.次に,第3節で,言い直しをソフトウエアの要求獲得に使う考え方について述べる.次に,第4節で,言い直しを利用した,要求獲得方法論について述べる.第5節では,本要求獲得方法論を例題を挙げて説明する.第6節では,全体のまとめと今後の課題について述べる. \section{言い直しと関心の高さ} 言い直す前の単語と言い直した後の単語のどちらにより関心が高いかを調べるために,次のような実験を行なった.まず,実験に先だって,会議を行なった.会議の議題は本研究所の在席管理・会議室予約システムを取り上げた.会議は,コーディネータ1名(実験を行なうグループから選出した),マネージャー1名(実際の研究所の部長であり,予算の権限を持っている),開発者役の研究員1名(いい仕様書ができれば,彼がソフトウェア外注を使ってシステムの構築に当たることになる),書記1名(事務処理を業務とする者),研究員3名(実際に要求を出してもらう者)の計7名を会議の参加者とした.また,分析を効率良く進めるために,先のコーディネータの他に,議事録をとる人,話題の項目を書き出す人,機器の操作を行なうものの計4人を置いた.会議終了後,オーディオ・テープとビデオテープを用いて,発話の書き起こしを行なった.この書き起こされたものを以後,コーパスと呼ぶ.実験は二回目の会議が終了した後に行なった.まず,言い直しの中で,体言(句)の言い直しに絞った.なぜなら,それ以上(例えば,文の言い直し),それ以外のもの(例えば,用言(句)の言い直し)は解釈に曖昧性が大きいからである.さらに,その中でも,同じ単語の繰り返しなどではない,二つの言葉の差異が適度に大きい言い直しを抽出した.図\ref{questionnaire3}のようなフォーマットでアンケートを行なった.項目内の順番は乱数で適度に替えた.例えば,2では,実際のコーパスでの出現順に,言い直す前の単語が「メモ」,言い直した後の単語が「電話の取り次ぎ」となっている.一方,3では,実際には「在席」を「出社」に言い直したのだが,アンケートでの順番は「出社」,「在席」の順番になっている.この変化はいつも同じ側が来ることを被験者に意識させないためである.\begin{figure*}[t]\begin{center}\begin{tabular}{|r|r|r|}\multicolumn{3}{p{9.5cm}}{今回のシステムのことを念頭においたうえで,次の二つの概念のうちでより(関心の深い方/望ましい方)を丸で囲んで下さい.}\\\hline1&在席&出張\\\hline2&メモ&電話の取り次ぎ\\\hline3&コンピュータ&マシーン\\\hline4&机&ドア\\\hline5&出社&在席\\\hline6&ファックス&E-mail\\\hline7&いるかいないか&外出\\\hline8&スクリーニング&フィルタリング\\\hline9&出社&在席\\\hline10&離席&リフレッシュルーム\\\hline11&翌日&朝\\\hline12&サービス出社&サービス残業\\\hline13&在席&離席\\\hline14&一人&依田さん\\\hline15&退社&出張\\\hline16&リセット&リフレッシュ\\\hline17&パージング&認識\\\hline18&キーボード&キャラクタ\\\hline19&故意に&間違って\\\hline20&退社&在席\\\hline\end{tabular}\caption{アンケートのフォーマット}\ecaption{Theformatofthequestionnaire}\label{questionnaire3}\end{center}\end{figure*}1と20は,実際のコーパスの中には現れなかったものである.これは,初頭効果と最終効果をなくすためである.また,4も実際のコーパスの中には現れなかったものである.1と20を入れた理由にもなるが,言い直し以外のものを混入させ,被験者に何を測定しているかをわかりにくくするためである.さらに,5と9は同じ項目を聞いているが,これも,被験者に何を測定しているかをわかりにくくするためである.\begin{table*}\begin{scriptsize}\begin{tabular}{|r|r||r|r|r||r|r|r|r|r|r|}\hline項番&A&B&(a)&(b)&V&Y&X&W&Z&T\\\hline1&メモ&電話の取り次ぎ&○&○&B&B&B\hspace{-3mm}$\bigcirc$&B&B&A\\\hline2&コンピュータ&マシーン&○&○&A&A&B\hspace{-3mm}$\bigcirc$&A&A&A\\\hline*3&出社&在席&○&○&A&B\hspace{-3mm}$\bigcirc$&A&A&A&A\\\hline4&ファックス&E-mail&○&&B\hspace{-3mm}$\bigcirc$&B&B&B&B&B\\\hline*5&いるかいないか&外出&○&&A&B\hspace{-3mm}$\bigcirc$&A&B&B&B\\\hline6&スクリーニング&フィルタリング&○&○&A&B\hspace{-3mm}$\bigcirc$&B&&B&A\\\hline*7&出社&在席&○&○&B&A&B&A&A\hspace{-3mm}$\bigcirc$&A\\\hline8&離席&リフレッシュルーム&&&A&A\hspace{-3mm}$\bigcirc$&A&A&A&A\\\hline9&翌日&朝&○&&B&A\hspace{-3mm}$\bigcirc$&A&B&B&B\\\hline*10&サービス出社&サービス残業&&&A&B&B&A&A\hspace{-3mm}$\bigcirc$&A\\\hline*11&在席&離席&○&○&B\hspace{-3mm}$\bigcirc$&A&B&B&B&B\\\hline12&一人&依田さん&&○&B\hspace{-3mm}$\bigcirc$&B&B&B&A&A\\\hline13&退社&出張&&○&B\hspace{-3mm}$\bigcirc$&A&B&B&A&B\\\hline*14&リセット&リフレッシュ&○&&B\hspace{-3mm}$\bigcirc$&B&A&A&B&A\\\hline*15&パージング&認識&○&&A&A&A&A&A\hspace{-3mm}$\bigcirc$&A\\\hline16&キーボード&キャラクタ&○&○&B\hspace{-3mm}$\bigcirc$&A&A&A&A&A\\\hline17&故意に&間違って&○&○&A\hspace{-3mm}$\bigcirc$&B&B&B&B&B\\\hline計&&&13(4:9)α&6(1:5)β&7(1:6)&5(2:3)&2(0:2)&0&3(3:0)&\\\hline\end{tabular}\end{scriptsize}\caption{アンケートの結果}\ecaption{Theresultofthequestionnaire}\label{questionnaire4}\end{table*}表\ref{questionnaire4}に結果の生データを示す.表中,Aの列は言い直す前の単語,Bの列は言い直した後の単語である.また,(a)の列は単語レベルの言い直し,(b)の列は直後の言い直しにそれぞれ該当するものに○印を付けてある.また,項番中*印は,被験者に意図を悟られないように,乱数で選んでAとBの順番を反転させたものを示す.T,V,W,X,Y,Zは個人名を示す.Tは司会者であるので,ここでは測定の対象としなかった.VからZの列で,○で囲んだAとBはその人に言い直しがあったことを示す.一番下の合計欄は,(a)と(b)は該当数,括弧の中は該当するうちで,AとBのそれぞれの合計を示す.個人の合計は言い直しがあったもので,括弧の中はAとBのそれぞれの合計を示す.この結果から言えることは,言い直したのであるから,当然のことながらB,すなわち,言い直した後の単語の方が関心が高い.しかし,A,すなわち,言い直す前の単語でも,関心の高いものがある.さらに,Zのように言い直す前の単語にだけ関心が高いものもいる.ここで,特に,(b)は,$\chi^2>\chi_{0.5}^2$となり,単語レベルの直後の言い直しは、後に発話した単語に関心があることが分かる.つまり,言い直しは総じて言い直した後の単語の方に関心が高いが,言い直す前の単語にも,関心の高いものがあり,人によっては,言い直した後の単語にだけ関心を持つものもいることが言える. \section{要求獲得オフライン法での利用} 本節では,ソフトウエアの要求獲得で関心事項を抽出するための方法論の一つとして言い直しをいかに利用するかを述べる.まず,要求獲得オフライン法\cite{doi94a}について概説する.ソフトウエア要求獲得プロセスでよく使われている方法として会議が挙げられる.会議では「要求獲得者の容認と理解」というフィルター,時間的な制約などにより,要求獲得が的確に行われないことがある.つまり要求を網羅的にキャッチアップするのが困難であり,話題の展開が不十分なまま終ってしまうこともあり得る.これらの問題点を解決するために,会議を録音・ビデオ撮影して,オフラインで観察・分析する方法(オフライン法)がある.また,ソフトウエア開発に当たっては,下流ではコストをかけるが上流ではあまりコストをかけない.そのため,顧客の本当の要求が正確に獲得できないで,システム構築に入ってしまうことがよくある.その結果,使いにくい,あるいは,使われないシステムが往々にして出来上がる.使いにくい,あるいは,使われないシステムを作らないために,上流,特に要求獲得のフェーズではかなりのコストをかけてもよい,と考えられる\cite{doi93b}.以上のような問題意識を背景にして,我々はオフライン法の一実現方法としてUSP-Offline法を構築している\cite{kata96a}.USP-Offline法では,ビデオテープから発話を書き起こし,コーパスを作ることで解析を始める.USP-Offlineの主な出力としては,構造化された精密な議事録と関心事項があるが,本稿ではその関心事項獲得方法論について述べる.なお,本方法論は顧客の関心事項を抽出することを目的とするため,ここで扱う会議は,少なくとも顧客が参加し,コーディネータがいる要求獲得会議を対象にし,開発者側が参加するかどうかは関知しない.関心事項の抽出の仕方の一例として,ここでは言い直しを取り上げる.前節の実験結果が示す通り,言い直す前の単語に対しても発話者の関心が見られるものがある.つまり,言い直す前の単語には,関心があるかもしれないものがある.この関心があるかもしれないものは,前述のフィルターの問題,時間的な制約により,会議で充分に話されていない可能性がある.この関心があるかもしれないものの中に,顧客の本当の要求があると,要求が正確に獲得できないことになる.そこで,この関心があるかもしれないものを会議にフィードバックすることを考える.関心があるかもしれないものを会議に戻すのであるから,ここで対象とする会議は,顧客・開発者・コーディネータ・分析者のいずれか二者以上がよく知らないもの同士であるときに効果的である.具体的な手順としては,まず,分析者は,この関心があるかもしれないものが会議中に話されているかどうかをコーパスの中で調べる.会議中に充分話されていればよいが,会議中に充分話されていない時は次回の会議で,その関心があるかもしれないものを優先的に話させることにする. \section{言い直しを利用した関心事項の抽出法} 本節では,言い直しを利用した関心事項の抽出法について述べる.本方法論は,言い直す前の単語に焦点を当て,関心事項を推論する方法論である.本方法論は,言い直す前の単語を関心があるかもしれないものとして抽出し,それを関心事項として次の会議にフィードバックすることによって要求獲得を行ない,システム設計に役立てる方法論である.二つの方法が考えられる.一つの方法は会議中に言い直しを調べる専門のスタッフがいて,言い直しの起きたところを忠実に記録する方法である.もう一つの方法はコーパスを起こし,言い直しの起きたところを正確に把握する方法である.この二つの方法は正確さと工数がトレードオフの関係になっている.いずれの方法をとるにせよ,会議中に言い直しの起きた場所が記述できる.言い直しは,体言句の言い直しで,かつ,同一語句の言い直しではないものを対象とする.次に,分析者はその言い直しの起きた場所を見ながら,\begin{enumerate}\item誤発言\item誤表現\item正発言\item正表現\end{enumerate}\noindentを埋める.ここで,誤発言とはコーパスの中で言い直す前の語句,誤表現とは誤表現が完結した語句になっていない時,分析者の推論で埋めた語句,正発言とはコーパスの中で言い直した後の語句,正表現とは正発言が完結した語句になっていない時,分析者の推論で埋めた語句をそれぞれ指す.まず,分析者は,コーパスから誤発言と正発言を書き出し,次に,誤表現と正表現を推論によって埋める.推論不明の場合は「不明」と書く.次に,分析者は,誤表現の内容が当該会議の中で充分議論されているかどうかを調べる.充分議論されていない項目を関心があるかもしれないもののリストとする.分析者は関心があるかもしれないもののリストを元にコーディネータとともに次の会議の前に事前会議をする.事前会議では関心があるかもしれないもののリストについてお互いに話し合い,次の本会議で話し合う事項を決める.この事項は関心があるかもしれないものがどれぐらい会議で話されていないかが選出の基準になる.話されていない関心があるかもしれないものほど優先順位が高い.ただ,これらの事項は,フロイトらの分析にもあるように,システムの構築に携わる開発側にも知らせられない性格のものである可能性があるので,扱いには注意しなければならない.顧客側に何らかの感情的なわだかまりがあって,本会議でどうも話題展開がすっきりいかないときは,開発者・コーディネータが席を外して,顧客・ユーザだけの会議で解決をはかってもらうことも必要となろう.いずれにしてもコーディネータの裁量が要求される. \section{例題} 本節では,例を挙げて,本方法論の運用方法を説明する.前述の,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}の例を使う.分析者が,コーパス中,あるいは,会議中にこの発話を発見した時に,まず,誤発言に「メ」を正発言に「電話の取り次ぎ」を記入する.次に,誤表現を文脈などの推論から「メモ」と記入し,正表現を「電話の取り次ぎ」と記入する.出来上がりは以下のようになる.\begin{enumerate}\item誤発言メ\item誤表現メモ\item正発言電話の取り次ぎ\item正表現電話の取り次ぎ\end{enumerate}会議終了後,分析者は,会議の内容と照らし合わせて,「電話の取り次ぎメモ」に関する議論が充分であったかどうかを調べる.もし充分でなければ,これを関心があるかもしれないもののリストに加える.次に,前述のように,分析者は,コーディネータと共に事前会議を行なう.ここで,分析者とコーディネータの二人の判断で,「電話の取り次ぎメモ」を次の会議の議題の一つにするかどうかを決定する.実際,この会議では,「電話の取り次ぎメモ」に関する議論はこの後発展しなかった.本当に話さなくて良いのかどうか,会議参加者たちに確認を求めるべきであろう. \section{おわりに} 本論文では,まず,精神分析の立場から,フロイトとラカンの説を検討し,言い間違いには,なんらかの精神的理由が存在することがあることを検討した.次に,言い間違いを言い直しに絞り,言い直した語と言い直された語との間でどちらに関心が高いかを分析した.分析の結果,言い直しは総じて言い直した後の単語の方に関心が高いが,言い直す前の単語にも,関心の高いものがあり,人によっては,言い直した後の単語にだけ関心を持つものもいることが言えることがわかった.これらの知見を利用して,言い直しをソフトウエアの要求獲得の方法論に役立てる,考え方と,方法論を示し,さらに,適用例を述べた.その結果,顧客の関心があるかもしれないものを抽出することができた.今後は,この方法論を現実のソフトウエアの要求獲得の場で用いて,その効果のほどを調べていきたい.\bibliographystyle{jnlpbbl}\bibliography{muisiki,usp}\begin{biography}\biotitle{略歴}\bioauthor{土井晃一}{1961年生.1991年東京大学工学部情報工学専攻博士課程修了.工学博士.同年富士通研究所国際情報社会科学研究所入社(現富士通研究所コンピュータシステム研究所).自然言語理解,人工知能,ソフトウエア工学などの研究に従事.1998年9月より文部省学術情報センター客員助教授併任.情報処理学会,人工知能学会,認知科学会,ソフトウエア科学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V05N02-01
\section{はじめに} 直接翻訳方式は普通の変換翻訳方式で行なっている構文解析や意味解析の部分を省略あるいは簡素化でき,類似性のある言語間の翻訳によく用いられていた.現在,知られているほとんどの日韓,韓日翻訳システムが直接翻訳方式を採用しているのも両言語の類似性を活かすためである.最近,構文解析分野や意味解析分野など,言語処理技術の全般的な発達とコンピュータのハードウェア性能が向上した時点で直接翻訳方式を用いるのは,翻訳に必要な膨大な情報の損失とつながり,比較的多くの翻訳情報が得られる変換方式や多言語間の翻訳ができる中間言語方式を勧奨しているが(長尾真1996),日韓機械翻訳においては翻訳に必要な情報があまり多くない.(金泰錫1991)によると,実際になんの情報もなく両国語の単語を1:1に対応させた場合にもある程度の理解できる訳語が出来上がったと報告しており,我々はもう少しの追加情報を用いれば,相当な品質の訳語が生成できると期待している.最近,このような類似性を用いた日韓直接翻訳システムが商用化し始めた.最初の商用システムは1983年,FUJITSUと韓国のKAISTが共通に開発したATLAS−J/Kであり,その後,多くの商用システムが続々登場した.日韓機械翻訳システムの代表的な商用システムには日本の高電社が開発した“j−Seoul”および日立情報ネットワークが開発した“HICOM/MT”などが挙げられる.また韓国でもユニ−ソフトが開発した“5徑博士”や創信コンピュータの“ハングルがな”などが市販されている.しかし,(崔杞鮮1996)によると,これらのシステムは訳語の品質が満足できる程度まで至らず,形態素解析,多義性,対訳語選定,品詞判定,未登録単語の処理などの部分でまだ多くの問題点を持っていると報告している.日韓直接翻訳には大きく分けて(1){\bf多義性処理},(2){\bf述部の様相および活用処理}が問題と残っている(金政仁1996).(李義東1989;金政仁1992;EunJaKim1993;朴哲済1997)は(1)問題の先行研究であり,相当の成果を上げたが,より良い結果を目指して現在も多義性解消のための研究が活発に進行されつつある.(2)問題の先行研究として(李義東1990)は,日本語述部の様相情報に文法的な意味を付与して処理する手法を提案した.まず,日本語述部での様相情報の意味から韓国語述部の生成に適する意味に変換する.そのとき,意味省略,意味転移,語順調整を行ない,意味対応テーブルを作る.意味対応テーブルには日本語述部を構成する様相情報たちからすべての組み合わせを取り出し,日韓述部の意味対応ペアとして記述する.だから,この手法は様相情報の組み合わせに依存するので意味対応ペアの数が多くなる短所を持つ.そして,(金泰錫1992;金政仁1996)は韓国語の述部の様相情報および活用形態を前後単語との意味接続関係によってあらかじめテーブル形式に用意して翻訳を行なう翻訳テーブル方式を提案した.しかし,この方式は,両国語間の活用語の対応ルールが作成しにくいことを前提とし,複雑な活用規則を考慮せず,表層語を1:1に対応させる宣言的な処理を選んでいる.そして,表層語が1:nに対応するときは1:1の関係を作るため,前後単語との接続規則や形態が異なるn個の韓国語の表層語を辞書に用意しなければならない.また,様相情報や活用形態を区分せず,一度に処理するので異形態の対訳語の数が相対的に増える問題があった.ここで,本稿では,韓国語述部を構成する広範囲な様相情報を,抽象的で意味記号的な意味資質に表現した後,テーブル化した様相テーブルを用いた両国語の述部処理を提案する.様相テーブルは様相情報の意味を表わす意味記号,韓国語表層語,活性化チェックフィールドで構成する.様相テーブルは日韓述部翻訳のPIVOTのような役割を担当し,述部生成のとき,韓国語表層語は様相テーブルから取り出す.そして,様相テーブルの様相資質から韓国語表層語を対応させた後,表層語の結合処理で音韻調和処理,音韻縮約処理,分かち書きを行ない,自然な述部を生成する.すなわち,様相テーブルは述部情報らの組み合わせに依存しないので,(李義東1990)の意味対応テーブルより簡潔な表記ができる.また,(金泰錫1992;金政仁1996)では一遍に行なった述部の様相情報処理や活用処理を分離して処理する.本システムは(EunJaKim1993,朴哲済1997)の変換過程をそのまま用いており,述部に生じる多義はすでに解消されているものとし,本稿では意味が決まった様相情報から述部の自然な生成を目標とする.そして,本稿でのハングルに対する発音はYaleローマ字表記法に基づいて表記する. \section{様相テーブルの導入} 日本語述部と韓国語述部はその表現方法に相違点がある.両国語の述部は1:1の対応を基本とする直接翻訳方式では大きな問題になり,また,述部の翻訳が間違った場合は文法的に正しくない文が生成されるエラー(ungrammaticalerror)や理解できない文が生成される(unintelligibleerror)などの致命的な翻訳失敗になりやすい(D.U.An1995).従って韓国語の述部を正確に表現してくれることは日韓機械翻訳において大きい比重を占める.\subsection{日本語と韓国語の述部表現の相違点}日本語の述部は用言の語幹あるいは体言の後に補助用言や助動詞,そして一部の助詞を用いて表現し,大部分の補助用言,助動詞および助詞たちは決められた並び順に並べる.すなわち,日本語述部の様相類は一定な表現の順序を持っている.\vspace{3mm}\begin{quote}{\bf日本語述部の構成\\体言{\footnotesize${^{+}}$}\\助動詞{\footnotesize${^{*}}$}\\一部助詞{\footnotesize${^{*}}$}\\用言{\footnotesize${^{+}}$}\\助動詞{\footnotesize${^{*}}$}\\((助詞:て|で)補助用言){\footnotesize${^{*}}$}\\助動詞{\footnotesize${^{*}}$}\\一部助詞{\footnotesize${^{*}}$}\\}{\footnotesize($^{+}$:1個以上の繰り返し,$^{*}$:0個以上の繰り返し)}\end{quote}\vspace{3mm}韓国語述部の様相情報も一定の並び順に従って並べる.しかし,韓国語は日本語と異なって助動詞が存在せず,語幹と補助用言,叙述格助詞“\hg{'ida}({\itita})",先語末語尾,語末語尾,そして一部助詞で構成されている.\vspace{3mm}\begin{quote}{\bf韓国語述部の構成\\(1)((体言叙述格助詞{\footnotesize${^{*}}$})|用言){\footnotesize${^{+}}$}\\先語末語尾{\footnotesize${^{*}}$}\\語末語尾{\footnotesize${^{*}}$}\\一部助詞{\footnotesize${^{*}}$}\\(2)補助用言{\footnotesize${^{+}}$}\\先語末語尾{\footnotesize${^{*}}$}\\語末語尾{\footnotesize${^{*}}$}\\一部助詞{\footnotesize${^{*}}$}}\end{quote}\vspace{3mm}韓国語述部の表現は,(1),(2)に分けて表記した.(1)は単独で述部を構成するが,(2)は(1)に付けられるときだけ使用可能である.また,(2)は(1)に複数個を付けることができ,その時は(2)の先語末語尾はもっとも後に付く補助用言にのみ付けられる.日本語を基準として両国語の対応関係を整理すると,{\bf表1}のように表わすことができる.\begin{table}[htb]\caption{両国語述部の対応}\begin{center}\begin{tabular}{|l|l|}\hline{\bf日本語}&{\bf韓国語}\\\hline助動詞\hspace{20mm}&先語末語尾,語末語尾,\\&補助用言,叙述格助詞\\\hline一部助詞&語末語尾,一部助詞\\\hline補助用言&補助用言\\\hline\end{tabular}\end{center}\end{table}両国語の述部表現は1:1の対応が難しく,日本語の助動詞の反復表現による様相情報の順序も韓国語と一致していない.そして,韓国語の補助用言,先語末語尾,語末語尾は前接する単語の属性によって異形態になったり,その上,韓国語の述部を完成させるためには11種類の不規則音韻変化,5種類の音韻縮約が適用される.日韓機械翻訳において韓国語述部を自然に表現するためにはこのような部分を細心に処理する必要がある.{\bf例文(1)}に両国語の対応関係を示す.\atari(120,32)両国語の述部表現は1:1対応が難しく,日本語の助動詞の繰り返し表現による様相順序も一致しない.次の例文は日本語と韓国語の述部での順序不一致を表わす.\atari(90,70)\vspace{5mm}{\bf例文(2)}は語尾「き」の訳語省略以外には1:1の対応によって翻訳が可能なことを示している.しかし,{\bf例文(3)}を見ると,日本語は「丁寧+過去/終結」の順番であるのに対し,韓国語は「過去+丁寧+終結」の順番であり,翻訳語の並びが逆になっている.もう少し複雑な例文を見よう.\vspace{5mm}\atari(110,70)\vspace{5mm}{\bf例文(4)}と{\bf例文(5)}は両国語の述部情報が1:1に対応していないことを示す.{\bf例文(4)}の訳文では「ませ(丁寧)」と「ん(否定)」の様相情報が置き換わっている.また,「ん」で文が終わる場合は終結の意味も含まれており,「ん」から「\hg{'ji'anh}({\itcianh})」や「\hg{da}({\itta})」を一緒に生成しなければならない.{\bf例文(5)}は丁寧の意味が2回表われた場合であるが,韓国語では丁寧の意味を1ヶ所で表現するので,「ませ」や「でし」から1個の訳語を用意して,「ませ,でし(丁寧)」と「た(過去)」の様相情報の順序を置き換えて並べる.そして,「た」から終結の意味まで取り出して,文の終結部分に「\hg{da}({\itta})」を生成するべきである.また,日本語述部には現在形と未来形を区別せず使っており,特定な表現では時制が異なる述部も存在する.\vspace{2mm}\noindent\hspace*{25mm}{\bf例文(6)}映画を\underline{見る}ときは静かにしなさい.\\\hspace*{42mm}現在形)\hg{'ieoqhoalyl}\underline{\hg{bonyn}}\hg{Dainynjo'ioqhihaseoi'io}.(X)\\\hspace*{42mm}未来形)\hg{'ieoqhoalyl}\underline{\hg{bol}}\hg{Dainynjo'ioqhihaseoi'io}.\\\(O)\\\hspace*{25mm}{\bf例文(7)}その映画は見たほうがよい.\\\hspace*{42mm}過去形)\hg{gy'ieoqhoanyn}\underline{\hg{bon}}\hg{pieon'ijohda}.\\\\(X)\\\hspace*{42mm}現在形)\hg{gy'ieoqhoanyn}\underline{\hg{bonyn}}\hg{pieon'ijohda}.(O)\vspace{2mm}{\bf例文(6)}の連体形「見る」は普段は現在時制を表わすが,文脈の意味が「仮定,予定」の場合は,前接に未来形が来なければならない.「とき,つもり,必要,予定,計画,方針」などの体言は未来形を要求する.そして{\bf例文(7)}の「ほうがよい」の表現は,韓国語の述部では過去時制の代わりに現在時制が前に来る.このように日本語と韓国語は述部の表現部分では様相情報の順序不一致,1:n対応,n:1対応,対訳語省略,時制表現の不一致など,様々な相違点を持っており,これらの相違点は直接翻訳方式を用いた日韓機械翻訳で高品質の翻訳文生成に大きな障害になっている.\vspace{-1mm}\subsection{様相テーブル(MFOLT)の構成}日韓述部の表現不一致を解決するため,我々は述部の様相情報を言語に依存しない意味記号的な様相資質(modalityfeature)に表現し,両国語の述部情報のPIVOTとして利用する方法を提案する.特に,本稿では様相情報と活用形を分離して処理する方法を提案する.様相情報の処理は様相資質を集めた様相テーブルを利用し,活用処理は韓国語述部の不規則活用および音韻縮約を規則化させ,韓国語述部の生成に用いる.様相資質の構成は韓国語の補助用言,先語末語尾,語末語尾,一部助詞から抽出し,文法的には説明しにくい日韓間だけで適用できる特殊資質も入れ込み,より柔らかい述部の表現ができるように構成した.この過程で,補助用言,先語末語尾,語末語尾は韓国語の述部を生成するのに必要な最適の部分として統廃合しており,統廃合された最適な様相資質をテーブル化したものをMFOLT(modalityfeatureorderingandlexicalizingtable)と呼ぶ.MFOLTは韓国語述部の言語学的な知識(高永根1985),韓国語述部を生成するときの経験によって作られた.最終的な様相カテゴリーは{\bf表6}に示されている.(高永根1985)は韓国語での補助用言を{\bf表2}のように区分している.また,これらが同時に複数使われた場合は一定の順序を持つ.使役,受け身,強調は同じ語順であるが,その下は書かれた順番が語順を示す.\begin{table}[h]\vspace{-3mm}\caption{韓国語の補助用言の様相情報}\begin{center}\begin{tabular}{|r|l|l|l|}\hline\multicolumn{1}{|l|}{順番}&様相&韓国語の補助用言&対応する日本語\\\hline1&使役&--\hg{geoiha}({\itkeyha})&せる,させる\\\cline{2-4}&受け身&--\hg{geoidoi}({\itkeytoy})/--\hg{'aji}({\itaci})&れる,られる\\\cline{2-4}&強調&--\hg{'adai}({\itatay})&--したてる/--し散らす\\\hline2&奉仕&--\hg{'aju}({\itacwu})/--\hg{'adyri}({\itatuli})&--てくれる/--てあげる\\\hline3&完了&--\hg{'anai}({\itanay})/--\hg{'aberi}({\itapeli})&--てしまう\\\hline4&試図&--\hg{'abo}({\itapo})&--て見る\\\hline5&中止&--\hg{damal}({\ittamal})&--さし\\\hline6&希望&--\hg{gosip}({\itkosiph})/--\hg{gi'ueonha}({\itkiwenha})&たい/--てほしい\\\hline7&意図&--\hg{rieha}({\itlyeha})&よう\\\hline8&虚飾&--\hg{nynceogha}({\itnunchekha})/&ぶりをする\\&&\hspace*{4mm}--\hg{nyn'iaqha}({\itnunyangha})&\\\hline9&進行&--\hg{go'iS}({\itkoiss})/--\hg{'aga}({\itaka})/--\hg{'a'o}({\itao})&ている,てある,てくる,つつある\\\hline10&可能&--\hg{lsu'iS}({\itlswuiss})&できる\\\hline11&否定&--\hg{ji'anh}({\itcianh})/--\hg{jimosha}({\itcimosha})/&ない,ぬ,ん\\&&\hspace*{4mm}--\hg{jimal}({\itcimal})&\\\hline12&当為&--\hg{'eo'iahan}({\iteyahan})&べき,すべき\\\hline13&承諾&--\hg{'eodojoh}({\itetocoh})&てもいい\\\hline14&理由&--\hg{giDaimun}({\itkittaemwun})/&ため,ので\\&&\hspace*{4mm}--\hg{nGadarg}({\itnkkatalk})&\\\hline15&推定&--\hg{rdysha}({\itltusha})/--\hg{rmo'iaq'i}({\itlmoyangi})/&まい,はず\\&&\hspace*{4mm}--\hg{rges'i}({\itlkesi})&\\\hline16&一念&--\hg{rBun'i}({\itlppwuni})&だけ\\\hline17&引用&--\hg{dagohan}({\ittakohan})&そう\\\hline\end{tabular}\end{center}\end{table}\vspace{-6mm}統廃合の際,「強調,奉仕,試図,虚飾,承諾」の様相情報は,日本語で2つの述部に表現するので本用言のように扱う.「意図」は後に「と」を付けて「ようと」の形を取って「意志」に統合する.そして,「理由」は「原因・結果」に,「引用」は「伝聞」にそれぞれ統合した.また,「進行」の様相資質は「動作進行1,動作進行2,状態進行」に分けて3つに,「希望」は「希望1,希望2」の2種類に区分した.先語末語尾は語尾として分類され,補助用言の後にくるが,先語末語尾が持つ様相情報は一定な順序を持ち,その順番を{\bf表3}に示す.\begin{table}[h]\caption{韓国語の先語末語尾の様相表現}\begin{center}\begin{tabular}{|r|l|l|l|}\hline\multicolumn{1}{|l|}{順番}&様相&韓国語の先語末語尾&対応する日本語\\\hline1&尊敬&--\hg{si}--({\itsi})/--\hg{sibsi}--({\itsipsi})&尊敬表現の動詞を使う\\\hline2&時制&未来:--\hg{geoiS}--({\itkeyss})&用言の終止形\\\cline{3-4}&&現在:--\hg{n}--({\itn})/--\hg{nyn}({\itnun})&用言の終止形,連用形\\\cline{3-4}&&過去:--\hg{'aS}--({\itass})/--\hg{S}({\itss})&た/だ\\\hline3&謙譲&--\hg{'o}--({\ito})/--\hg{'ob}--({\itop})/--\hg{b}--({\itp})/--\hg{syb}({\itsup})&謙譲表現の動詞を使う\\\hline4&回想&--\hg{de}--({\itte})&(だった)よ/ね\\\hline\end{tabular}\end{center}\end{table}先語末語尾からは「一部の尊敬表現,時制,回想」をMFOLTに導入する.尊敬表現の一部は韓国語対訳語が同じ様相的な意味を持つよう,語幹に様相情報の表層語を寄せて処理した.例えば,「おいでになる」は「\hg{'o}(語幹)+\hg{si}(先語末語尾)+\hg{da}(語末語尾)」の形態素で構成されるが,「\hg{'osi}(語幹)+\hg{da}(語末語尾)」に扱って,処理を簡略化する.慣用表現「お(連用形)になる」は尊敬表現としてMFOLTの様相資質とする.また,敬語表現の接頭語「お,ご」は韓国語にない表現であるので,お茶,ご飯などの慣用表現は一つの単語として扱い,その他「お,ご」は無視する.謙譲情報は最近の韓国語では使っていない傾向が強いので,「いただく」は「\hg{badda}({\itpatta})」,「いたす」は「\hg{hada}({\ithata})」などの普段の表現と対応させる.そして「指定,必縁,不可能,禁止,3者希望,結果・保存」の様相情報は翻訳の際,経験によって述部生成の効率を上げるために様相資質化した.以上の様相資質たちを補助資質(supplementfeature)と呼び,これらは順番に持ち,省略あるいは複数の資質が同時に活性化されることもできる.そして,述部の終了としては使えず,補助資質の後には必ず終了資質(terminalfeature)が付く.終了資質とは韓国語述部の終了部分が自然に生成できるよう,日本語述部を構成する助動詞,一部助詞,活用形,複合助詞,そして分離して処理しにくい慣用表現も様相資質化したものである.必ず述部の最後には1つの終了資質が付かなければならない.すなわち,韓国語述部の構成は{\bf「韓国語述部=述語+補助資質{\footnotesize$^{*}$}+終了資質」}と記述できる.それに比べ,(李義東1990)では日本語述部から様相情報の組み合わせをすべて意味化し,意味対応テーブルを作成してそれぞれに対応する韓国語述部の意味を用意する.すなわち,日韓述部の意味変換を行ない,変換された意味を韓国語述部の生成に用いる.しかし,この方法は様相情報が異なるすべての述部を対象とし,意味対応関係を記述する必要があり,様相情報の異なる表現数ほど意味対応ペアが増えてしまう.また,この方法は未来形を要求する体言を修飾する述部から未来時制を取り出すことができず,時制の不一致を処理することが難しい.{\bf表6}にMFOLTの様相資質を示す.区分のため,'s'で始まる記号は補助資質,'t'で始まる記号は終了資質とした.補助資質は韓国語述部での様相情報の並べ順に,終了資質はアルファベット順に表記した.\vspace{5mm}\subsection{様相資質間の干渉による活性状態の最適化}MFOLTの様相資質らは様相資質間の干渉によって,活性化された状態を調節して,最適の韓国語述部が生成できるような形態を取る.例えば,{\bf例文(8)}のように可能と否定の様相資質が活性化されると不可能の様相資質を活性化し,可能と否定の様相資質を初期化することを行なう.\clearpage\vspace*{3mm}\atari(105,85)\vspace{5mm}また,{\bf例文(9)}では,ある様相資質が別の様相資質の影響を受けて初期化されることを表わす.時の前にくる連体形は未来時制にする.\vspace{5mm}\atari(105,70)\vspace{5mm}ここに13個の活性状態の最適化ルールを示す.{\bf例文(8)}はルール6,{\bf例文(9)}はルール2によって最適化されている.\vspace{3mm}\begin{quote}{\bf\begin{description}\item[1.]if\\tINTR=OFFandtDECL=OFFthen,sPLT=OFF\item[2.]if\\tTIME=ONandtPREN=ONthen,tPREN=OFF\item[3.]if\\sPAST=ONandtPREN=ONthen,\\\hspace*{4mm}tPPREN=ON;sPAST=OFF;tPREN=OFF\item[4.]if\\tSOTH=ONandtPREN=ONthen,tPREN=OFF\item[5.]if\\tADVE=ONandtPREN=ONthen,tPREN=OFF\item[6.]if\\sCAN=ONandsNEG=ONthen,\\\hspace*{4mm}sUNCAN=ON;sCAN=OFF;sNEG=OFF\item[7.]if\\tNOUN=ONandtREA2=ONthen,tREA2=OFF\item[8.]if\\sPLT=ONandtEXCL=ONthen,tEXCL=OFF\item[9.]if\\sALWS=ONandtAND1=ONthen,tAND1=OFF\item[10.]if\\sSUGST=ONandsPAST=ONthen,sPAST=OFF\item[11.]if\\tTIME=ONandtPAST=ONthen,\\\hspace*{4mm}tPAST=OFF;sPAST=ON\item[12.]if\\sCMTO=ONandtPREN=ONthen,tPREN=OFF\item[13.]if\\sCAUS=ONandsPASS=ONthen,\\\hspace*{4mm}sCMTO=ON;sCAUS=OFF;sPASS=OFF\end{description}}\end{quote}\vspace{3mm}提案したMFOLTを用いた韓国語述部の生成方法は(1)MFOLTでの補助様相資質の並べ順を生かして述部情報の異なる語順を調節する,(2)MFOLTを活性化する際,述部の様相情報とMFOLTの様相資質をm:nに対応させ,1:1に対応しない様相情報を表現する,(3)時制の変異ができるように様相資質間を調節して述部の時制不一致に対応することが可能である. \section{MFOLTを用いた韓国語述部の生成} 自然な韓国語の述部を生成するため,いくつかの段階を用意した.すなわち,韓国語の生成処理にはMFOLTの各様相資質の活性化処理,受け身表現処理,否定表現処理,様相資質の表層化,用言の不規則変化処理,補助用言や語尾の異形態処理,そして音韻縮約処理,分かち書き処理が必要である.{\bf図1}に述部処理の各段階を示す.\clearpage\begin{figure}[htb]\atari(70,68)\caption{MFOLTを用いた韓国語述部の生成段階}\end{figure}これから{\bf図1}の各段階について詳しく説明する.\subsection{様相資質の活性化および最適化}入力された日本語の述部から様相情報を抽出してMFOLTの各様相資質を活性化する過程である.MFOLTは述部単位に活性化するので,複文の場合は何度も活性化と初期化が行われるように設計されている.{\bf図2}は様相資質の活性化過程を表わしている.\begin{figure}[htb]\atari(115,43)\caption{様相資質の活性化}\end{figure}\subsection{受け身の特殊表現処理}韓国語の受け身表現は「\hg{'a}/\hg{'eo}/\hg{'ieo}\hg{jida}({\ita/e/yecita})」の一般的な表現方法と同時に補助用言「\hg{'i},\hg{'hi},\hg{'ri},\hg{'gi}({\iti/hi/li/ki})」を用いて表現する.このような表現は用言の適切な分類やMFOLTの様相資質を用いることによって処理可能であるが,する動詞の一部は特別な処理を必要とする.すなわち,受け身になるとき,その形態が普通の形態とは別に表わされる.\vspace{3mm}\begin{center}\begin{tabular}{ll}保護\underline{される}&(X)\hg{bohoha}\underline{\hg{'ieojida}}\\&(O)\hg{boho}\underline{\hg{badda}}\\愛\underline{される}&(X)\hg{saraqha}\underline{\hg{'ieojida}}\\&(O)\hg{saraq}\underline{\hg{badda}}\\追跡\underline{される}&(X)\hg{cujeogha}\underline{\hg{'ieojida}}\\&(O)\hg{cujeog}\underline{\hg{daqhada}}\\\end{tabular}\end{center}\vspace{3mm}このような動詞らは{\bf図3}のようにMFOLTが活性化された後,受け身のための特殊処理を行なって解決する.\begin{figure}[htb]\atari(113,62)\caption{受け身表現の特殊処理}\end{figure}\subsection{否定語の特殊処理}日本語と韓国語は否定表現の相違点が存在する.(金泰錫1993)によると,日本語の否定表現には形容詞または助動詞として「ない」,そして助動詞「ん(ぬ)」と「まい」を用いる.そして接頭詞「非,不,未,無」を付けて一単語だけを否定する漢語的な否定表現と否定の推量または意志を表わす助動詞「まい」はその対訳語が韓国語にも存在するので,日韓においては1:1の対応処理が可能である.結局,日本語の否定表現から否定語処理を必要とするのは「ない」と「ん(ぬ)」の含まれている否定文である.それに比べ,韓国語の否定表現は「\hg{mos}({\itmos}),\hg{'an}({\itan})」という否定素を用言の前に配置する方法と否定補助用言「\hg{ji'anhda}({\itcianhta})」と「\hg{'eobssda}({\itepsta})」を用いて否定文を表わすことができる.否定素「\hg{mos}({\itmos}),\hg{'an}({\itan})」は使用上の制約が多くあり,否定補助用言「\hg{ji'anhda}({\itcianhta})」と「\hg{'eobssda}({\itepsta})」でもすべての表現が可能であるから,日本語の否定表現「ない」と「ん(ぬ)」は韓国語の否定表現「\hg{ji'anhda}({\itcianhta})」と「\hg{'eobssda}({\itepsta})」に翻訳しても別に問題はない.否定表現の処理はMFOLTを活性化し,韓国語の組み立てルールを適用させることで処理可能である.しかし,日本語の「知る,分かる,解かる」が否定の意味で使われる場合は「\hg{'alji'anhda}({\italcianhta})」の代わりに韓国語の対立肯定用言「\hg{morynda}({\itmolunta})」に,存在を表わす動詞「在る,有る,居る」は「\hg{'iSji'anhda}({\itisscianhta})」の代わりに「\hg{'eobssda}({\itepsta})」に翻訳するのが生成された韓国語の表現が自然であり,そのため,否定表現が否定の意味を含む肯定表現に変わる特殊処理を行なう必要がある.{\bf図4}に否定表現の特殊処理を示す.\begin{figure}[htb]\atari(115,63)\caption{否定表現の特殊処理}\end{figure}助動詞「ない」が否定の意味を表わす様相資質を活性化させるが,述部の語幹「知」が否定の様相資質と合わせて「\hg{morynda}({\itmolunta})」という否定の意味を含む対立語に変わるので,否定の様相資質を初期化する.\subsection{様相資質の表層化}日韓直接翻訳方式に基づいた韓国語の組み立ては,変換処理から得た結果とMFOLTの活性化された状態,そして受け身,否定語の特殊処理を基に出来上がる.日本語の文「彼が保護されていることは知らなかった」はMFOLTを2回作りながら韓国語を生成する.{\bf図5}は韓国語の組み立て過程であり,辞書の検索による1:1変換,MFOLTを用いた様相資質の表層化,特殊表現処理による訳語変更を表わす.{\bf図5}の(A)と(B)は文の前半と後半の生成処理を表わす.\subsection{用言の不規則変化による音韻調和処理}(金政仁1996)には韓国語での用言の活用は語幹と語尾が一定な形態に結合,活用する規則活用とそうでない11種類の不規則活用に分けている.言い換えれば,11種類の不規則活用という表現より12種類の活用規則が存在するとも言える.しかし,最近,韓国語の情報処理技術は飛躍的に発達しており,特に形態素解析に関してはすでに効率よい多数の手法が発表されている(S.S.Kang1995,D.B.Kim1994).我々は解析手法をもとに12種類の活用に対応できる韓国語の生成ルールを作り,本システムに反映させた.例文には韓国語の用言「\hg{molyda}({\itmoluta})」が表われており,これは「\hg{ly}({\itReu})不規則」に属し,語尾の変化によって語幹の形まで変わる不規則の一種類である.また,「\hg{molyda}({\itmoluta})」は陽性\footnote{韓国語の母音は全部10個である.この中で「\hg{a,ia,o,io}」は陽性であり,「\hg{e,ie,u,iu,y,i}」は陰性である.また,陽性は陽性,陰性は陰性同士に結合しようとする性質(母音調和)を持っている.}であり,母音調和の法則に従い,過去を表わす先語末語尾の中で「\hg{'aS}({\itass})」と連結される.そして,語幹「\hg{moly}({\itmolu})」は「\hg{ly}({\itlu})不規則」の属性により「\hg{moly}({\itmolu})+\hg{'aS}({\itass})$->$\hg{morraS}({\itmollass})」という形になる.一方,冠形形語尾「\hg{n/'yn/nyn}({\itn/un/nun})」は動詞と結合できる語尾「\hg{nyn}({\itnun})」と形容詞と結合できる「\hg{n/'yn}({\itn/un})」に区分できるので,「\hg{'iS}(動詞)+\hg{n/'yn/nyn}(冠形形語尾)」は「\hg{'iSnyn}({\itissnun})」の形態を取る.結局,生成された韓国語は「\hg{gy/\{'i|ga\}/bohobad/go'iSnyn/ges/\{nyn|'yn\}/morraS/da}」になる.\subsection{閉鎖音素による異形態処理}韓国語の単語は最後の音素が子音で終わる閉鎖音素であるか,‘\hg{r}’終音素であるか,母音で終わる開放音素であるかによって結合する助詞と語尾の形態が変わる場合がある.主な助詞の場合を{\bf表4}に示す.ここで,生成された韓国語の文「\hg{gy/\{'i|ga\}/bohobad/go'iSnyn/ges/\{nyn|'yn\}/morraS/da}」から異形態の処理を行なうと,「\hg{gy}({\itku})」は開放音素,すなわち母音で終わるので\hg{\{'i|ga\}}からは「\hg{ga}」が選択されており,\hg{\{nyn|'yn\}}は閉鎖音素「\hg{ges}({\itkes})」の影響で「\hg{'yn}」が選ばれる.結局,異形態処理が終わった韓国語は「\hg{gy/ga/bohobad/go'iSnyn/ges/'yn/morraS/da}」になる.\clearpage\begin{figure}[h]\atari(120,190)\caption{韓国語述部の組み立て}\end{figure}\clearpage\begin{table}[htb]\begin{center}\caption{前接単語の終音素による助詞の異形態}\begin{tabular}{|l|l|l|l|}\hline助詞&閉鎖音素と結合&`\hg{l}'終音素と&開放音素と結合\\&した場合&結合した場合&した場合\\\hlineが&\hg{'i}({\iti})&\hg{'i}({\iti})&\hg{ga}({\itka})\\\hlineは&\hg{'yn}({\itun})&\hg{'yn}({\itun})&\hg{nyn}({\itnun})\\\hlineで&\hg{'ylo}({\itulo})&\hg{lo}({\itlo})&\hg{lo}({\itlo})\\\hlineと&\hg{goa}({\itkwa})&\hg{goa}({\itkwa})&\hg{'oa}({\itwa})\\\hlineを&\hg{'yl}({\itul})&\hg{'yl}({\itul})&\hg{lyl}({\itlul})\\\hline\end{tabular}\end{center}\end{table}\subsection{音韻縮約および分かち書き処理}前段階までの処理を行なうことで,生成された訳文はだいたい読んで解かる程度の韓国語文になる.より自然な表現と読みやすい韓国語にするため,さらに音韻縮約と分かち書きを行なう.音韻縮約は「\hg{'a}({\ita})」脱落現象,「\hg{'ai}({\itay})」縮約現象,「\hg{'oa}({\itwa})」縮約現象,「\hg{'i}({\iti})」縮約現象,「\hg{'oi}({\itoy})」縮約現象など5つの現象が存在し,本システムではそれに基づいて縮約ルールを作り,縮約処理を行なっている.また,(黄燦鎬1993)から11種類の分かち書きルールも適用させ,完全な韓国語文に完成させる.例文には音韻縮約処理が要らないが,普段は以上のような処理を経て,韓国語が生成されるような仕組みになっている.結局,例文「彼が保護されていることは知らなかった」は韓国語の文「\hg{gygabohobadgo'iSnynges'ynmorraSda}({\itkukapohopatkoissnunkesunmollassta})」に翻訳される. \section{実験および評価} 本韓国語生成システムはMFOLTの最適化された様相資質から表層語を抽出し,活用ルール12種類,縮約ルール5種類,そして分かち書きルール11種類を適用して韓国語述部を生成する.提案した方法を用いて生成処理を行なった場合,韓国語の述部がどのくらい正しく生成できるかを確認するため,翻訳実験を行なった.翻訳処理に使った辞書は日本語を専攻した辞書入力専門研究員6名によって市販の日韓辞書,電子辞書などを参考に作り出したものであり,現在,約12万単語が登録されている.本稿での実験用の文章としては「新聞記事,日本語の文法本」2種類を用意した.新聞記事を用いたのは,現時点で我々のシステムが普段の文法的な誤りの少ない日本語の文章に対してどのくらいの翻訳能力を持っているかを確かめるためである.また,日本語の文法本を実験の対象にしたのは,普段はあまり表われないいろいろな日本語の表現,文法などが記述された日本語の文章に対してはどのくらいの翻訳ができるかを明らかにするためである.我々は「朝日新聞1ヶ月分の記事」の経済,社会,国際,カラム,スポーツ面からランダムに1,042文,「基礎日本語文法(益岡隆志1995)」にある1,296個のすべての例文を抽出して翻訳実験を行ない,例文に表われた述部の総数と様相情報の総数,そして文単位の翻訳結果として{\bf表5},述部の様相資質単位の翻訳結果として{\bf表6}を得た.\begin{table}[htb]\begin{center}\caption{述部の翻訳結果}\begin{tabular}{|c|r|r|r|}\hline区分&新聞記事&日本語の文法本&合計\\\hline例文数&1,042&1,296&2,338\\\hline述部数&2,717&1,568&4,285\\\hline様相情報数&7,698&4,133&11,831\\\hline翻訳失敗文の数&103&59&162\\\hline文の翻訳率&90.1&95.4&93.1\\\hline\end{tabular}\end{center}\end{table}また,述部はMFOLTによって生成されており,実験文章に表われたMFOLTの各様相資質を単位として,頻度数と翻訳失敗数を数えた.(李義東1990)では結果データがないので直接比べることはできないが,述部の生成部分は新聞記事から約96.9%,日本語の文法本から約98.6%,合わせて約97.5%の高い成功率が得られた.新聞記事より文法本の方が高いのは,1文当たりの様相資質数が違い,その差から影響を受けたと思われる.文法本の例文がほぼ短文の形式であって,様相情報の記述も相対的に少ない数で表われたものが多かった.この結果から我々が提案したMFOLTを用いた韓国語の生成方法は日本語文の多様な文形式にも十分耐えることが分かった.残り2%〜3%の失敗は次のような理由であった.\vspace{5mm}\noindent{\bfケース1)話し言葉から様相資質の抽出失敗による生成失敗}\\\hspace*{4mm}対訳文に質問の意味がなくなってしまう.\begin{quote}甲:君,あの本読ん\underline{だ}.\\\hg{gab}:\hg{janei,gycayig'ilg'eS}\underline{\hg{da}}.(X)\\\hg{gab}:\hg{janei,gycayig'ilg'eS}\underline{\hg{ni}}?(O)\end{quote}\hspace*{4mm}対訳文に命令の意味がなくなってしまう.\begin{quote}(君が持っている本)ちょっと見\underline{せて}.\\\hg{(janeigagajigo'iSnyncaig)jombo}\underline{\hg{'igo}}.(X)\\\hg{(janeigagajigo'iSnyncaig)jombo}\underline{\hg{'iejue}}.(O)\end{quote}\vspace{5mm}翻訳システムを話し言葉に適用させるためには,話し言葉の特徴を明らかにする特別な研究や話しの流れを追跡管理する談話処理分野の研究などが必要であると思われる(金政仁1993).\vspace{5mm}\noindent{\bfケース2)MFOLTを用いた方法論での生成失敗}\hspace*{4mm}\begin{quote}彼女は結婚し\underline{ているらしかった}.\\\hg{gynienyngierhon}\underline{\hg{ha'ieSnyngesgatda}}.(X)\\\hg{gynienyngierhon}\underline{\hg{hangesgat'aSda}}.\\\(O)\\彼女は結婚\underline{していったらしい}.\\\hg{gynienyngierhon}\underline{\hg{ha'ieSnyngesgatda}}.(X)\\\hg{gynienyngierhon}\underline{\hg{haiSdengesgatda}}.\\\\(O)\end{quote}\vspace{5mm}上記の2個の例文はテンスの部分で,事実の進行と完了,推測の時点が過去と現在であることなど,その意味が微妙に違うが,MFOLTには同じ様相資質が活性化されてしまい,述部を生成するときにテンスの区別ができない.このケースは現在のMFOLTを用いた生成方法では処理できない場合であり,1つの述部から事実の様相情報と話者の様相情報が同時に表示できるように,今後MFOLTを拡張するつもりである.\vspace{5mm}\noindent{\bfケース3)変換での多義性解消失敗による述部の生成失敗}\\\hspace*{4mm}「れる,られる」の多義問題\begin{quote}この魚は刺し身では食べ\underline{られ}ない.\\受け身)\hg{'imulgoginynsai'senhoilonyn}\hg{meg}\underline{\hg{hi}}\hg{ji'anhnynda}.(X)\\可能)\hg{'imulgoginynsai'senhoilonyn}\hg{meg}\underline{\hg{'ylsu}}\hg{'ebsda}.(O)\end{quote}\hspace*{4mm}「ている」の動作・状態進行の多義問題\begin{quote}高津さんは先週から神戸に\underline{来ている}.\\動作)\hg{daGaJysa''ynjinanjubutego'obei'ei}\underline{\hg{'ogo'iSda}}.(X)\\様態)\hg{daGaJysa''ynjinanjubutego'obei'ei}\underline{\hg{'oa'iSda}}.(O)\end{quote}\hspace*{4mm}「て(で)」の連続・連結・原因の多義問題\begin{quote}例年の夏に比べ\underline{て},今年の夏は涼しかった.\\連続)\hg{'ieinien'yi'ielym'eibigioha}\underline{\hg{go}},\hg{'olhai'yi'ielym'ynsi'uenha'ieSda}.(X)\\連結)\hg{'ieinien'yi'ielym'eibigioha}\underline{\hg{'ie}},\hg{'olhai'yi'ielym'ynsi'uenha'ieSda}.(O)\end{quote}\hspace*{4mm}連体形から生じる時制の多義問題\begin{quote}下記の学生は3時までに事務室に\underline{来る}こと.\\現在)\hg{hagi'yihagsai''yn3siGajisamusillo}\underline{\hg{'onyn}}\hg{ges}.(X)\\未来)\hg{hagi'yihagsai''yn3siGajisamusillo}\underline{\hg{'ol}}\hg{ges}.\\(O)\end{quote}\vspace{5mm}{\bf表6}の受け身,状態進行,連結1,連結2,冠形詞転成など,比較的失敗の数が大きい様相資質が多義から生じた失敗であった.多義による述部の生成失敗は,変換処理で多義が正しく解消されなかったことから引き続いた失敗であるが,とにかく述部の対訳語が正しく選定できなかったので,本評価には生成失敗として数えた.しかし,このケースは変換部分での多義性解消の成功率と緊密な関係があるので,その分野の技術が発展すれば,結果は好転すると思われる.\clearpage\begin{table}[h]\caption{様相テーブルの各資質別翻訳結果}\atari(135,180)\end{table}\clearpage\begin{table}[h]\atari(135,52)\end{table}\vspace*{-7mm} \section{結論} 日本語の述部と韓国語の述部は対応する品詞の不一致,局部的な語順の不一致,活用語尾の不一致などの相違点を持っている.日韓翻訳において両国語の述部の不一致を解決するため,我々は述部だけを対象とする意味的であり抽象的な様相資質をテーブル化して両国語の述部表現の中間表現(PIVOT)とする方法を提案した.すなわち,様相テーブル(MFOLT)に様々な様相資質を用意し,生成処理のときに各資質を活性化する.そして,韓国語の接続情報や各資質の状態を参考にして韓国語の述部を生成する.また,用言の不規則変化処理,音韻縮約処理,活用語尾の異形態処理,そして分かち書きを行ない,自然な韓国語の述部を生成する.新聞記事から1,042文,文法本から1,296文を対象に生成テストを行なった結果,述部に表われた様相資質の中で97.5%が正しく生成され,日韓機械翻訳において韓国語の生成にMFOLTを用いた方法が有効であることが分かった.\bibliographystyle{jnlpbbl}\bibliography{kim}\begin{biography}\biotitle{略歴}\bioauthor{金政仁}{}\bioauthor{李鐘赫}{}\bioauthor{李根培}{}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V20N02-01
\section{はじめに} label{sc:introduction}Web上には出所が不確かな情報や利用者に不利益をもたらす情報などが存在するため,信頼できる情報を利用者が容易に得るための技術に対する要望が高まっている.しかしながら,情報の内容の真偽や正確性を自動的に検証することは困難であるため,我々は,情報の信憑性は利用者が最終的に判断すべきであると考え,そのような利用者の信憑性判断を支援する技術の実現に向けた研究を行っている.現在,ある情報の信憑性をWebのみを情報源として判断しようとした場合,Web検索エンジンにより上位にランキングされた文書集合を読んで判断することが多い.しかしながら,例えば,「ディーゼル車は環境に良いか?」というクエリで検索された文書集合には,「ディーゼル車は環境に良い」と主張する文書と「ディーゼル車は環境に悪い」と主張する文書の両方が含まれている場合があり,その対立関係をどのように読み解くべきかに関する手がかりを検索エンジンは示さない.ここでの対立関係の読み解き方とは,例えば,一方の内容が間違っているのか,それとも,両方の内容が正しく両立できるのか,といった点に関する可能性の示唆であり,もしも両立できるのであれば,何故対立しているようにみえるのかに関する解説を提示することである.互いに対立しているようにみえる関係の中には,一方が本当でもう一方が嘘であるという真に対立している関係も存在するが,互いが前提とする視点や観点が異なるために対立しているようにみえる関係も存在する.例えば,「ディーゼル車は環境に良い」と主張する文書を精読すると「$\mathrm{CO_2}$の排出量が少ないので環境に良い」という文脈で述べられており,「ディーゼル車は環境に悪い」と主張する文書を精読すると「$\mathrm{NO_x}$の排出量が多いので環境に悪い」という文脈で述べられている.この場合,前者は「地球温暖化」という観点から環境の良し悪しを述べているのに対して,後者は「大気汚染」という観点から述べており,互いの主張を否定する関係ではない.つまり,前提となる環境を明確にしない限り「ディーゼル車は環境に良いか?」というクエリが真偽を回答できるような問いではないことを示しており,「あなたが想定している『環境』が地球温暖化を指しているなら環境に良いが,大気汚染を指しているならば環境に悪い」といった回答が,この例では適切であろう.我々は,このような一見対立しているようにみえるが,実際はある条件や状況の下で互いの内容が両立できる関係を{\bf疑似対立}と定義し,疑似対立を読み解くための手掛かりとなる簡潔な文章を提示することで利用者の信憑性判断を支援することを目的としている.ところで,Web上には,こういった疑似対立に対して,「ディーゼル車は二酸化炭素の排出量が少ないので地球温暖化の面では環境に良いが,粒子状物質や窒素酸化物の排出量が多いので大気汚染の面では環境に悪い.環境に良いか悪いかは想定している環境の種類による.」といった第三者視点から解説した文章が少数ながら存在していることがある.このような文章を,Web文書中から抽出,整理して利用者に提示することができれば,上述の回答例と同様に「環境の種類を明確にしない限り単純に真偽を判断できない」ということを気付かせることができ,利用者の信憑性判断を支援することができる.我々は,この疑似対立を読み解くための手掛かりとなる簡潔な文章を{\bf調停要約}と定義し,利用者が信憑性を判断したい言明\footnote{本論文では,主観的な意見や評価だけでなく,疑問の表明や客観的事実の記述を含めたテキスト情報を広く{\bf言明}と呼ぶこととする.}(以降,{\bf着目言明})が入力された場合に,着目言明の疑似対立に関する調停要約を生成するための手法を提案している\cite{Shibuki2011a,Nakano2011,Ishioroshi2011,Shibuki2010,Kaneko2009,Shibuki2011b}.なお,Kanekoetal.\citeyear{Kaneko2009}において,調停要約には,一つのパッセージで両立可能となる状況を明示的に説明する直接調停要約と,状況の一部を説明するパッセージを複数組み合わせて状況の全体を暗に示す間接調停要約の2種類が定義されているが,本論文では直接調停要約を対象としており,以後,直接調停要約を単に調停要約と記す.調停要約の生成は,調停という性質上,対立関係にある2言明の存在を前提として行われる.中野らの手法\cite{Nakano2011}では,着目言明と対立関係にある言明を見つけるために,着目言明中の単語を対義語で置換したり,用言を否定形にしたりすることで,対立言明を自動的に生成している.また,石下らの手法\cite{Ishioroshi2011}では,言論マップ\cite{Murakami2010}を利用することで対立言明を見つけている.しかしながら,検索された文書集合には,「ディーゼル車は環境に良いvs.ディーゼル車は環境に悪い」といった,着目言明を直截的に否定する対立点以外にも,例えば「ディーゼル車は黒煙を出すvs.ディーゼル車は黒煙を出さない」といった,異なる幾つかの対立点が存在することがあり,中野らや石下らによる従来の調停要約生成手法では,どの対立点に関する調停要約であるかを明示せずに調停要約を生成していた.利用者が信憑性を判断したい対立点({\bf焦点})であることを明確にした調停要約でなければ真に利用者の役には立たないと考えられる.それゆえ,この問題を解決するために,我々は,最初に検索された文書集合を利用者に提示し,それを読んだ利用者が焦点とする対立関係にある2文を明示した後に調停要約を生成するという対話的なアプローチを解決策の一つとして採ることとした.以上の背景から,本論文では,利用者が対立の焦点となる2文を対話的に明確化した状況下で調停要約を生成する手法を提案する.また,調停要約生成の精度を向上させるために,逆接,限定,結論などの手掛かり表現が含まれる位置と,調停要約に不要な文の数を考慮した新しいスコアリングの式を導入し,従来の調停要約生成手法と比較した結果について考察する.さらに,以下の理由から,利用者が焦点とする2文を明確化する方法に関しても考察する.利用者が焦点とする2文を明確化する方法として,以下の2つの方法が考えられる.一つは,利用者が自ら焦点とする2文を生成する方法であり,もう一つは,提示された文書集合から,焦点とする2文に相当する記述を抽出する方法である.前者の方法が利用者の焦点をより正確に反映できると考えられるが,明確化に要する利用者の負担を軽減するという観点からは後者の方法が望ましい.従って,焦点とする2文を明確化する方法として,どちらの方法が適しているかに関しても実験を行い考察する.本論文の構成は以下の通りである.まず,\ref{sc:relatedwork}章で関連研究について述べる.\ref{sc:concept}章で調停要約生成における基本的な考え方を説明する.\ref{sc:proposedmethod}章で提案する対話型調停要約生成手法を述べる.\ref{sc:corpus}章で本論文の実験で用いる{\bf調停要約コーパス}に関して説明する.\ref{sc:experiment}章で従来の調停要約生成手法との比較実験を行い,その結果について考察する.また,焦点とする2文を明確化する方法に関しても考察する.最後に\ref{sc:conclusion}章で本論文のまとめを行う. \section{関連研究} \label{sc:relatedwork}\subsection{情報信憑性判断支援における調停要約の位置づけ}利用者の情報信憑性判断を支援する技術には幾つかのアプローチが考えられる.まず,利用者が着目する話題や言明に関連するWeb文書に対して,対立の構図や根拠関係などを多角的に俯瞰することを支援する技術がある.Akamineetal.\cite{Akamine2010,Akamine2009}は,利用者が入力した分析対象トピックに関連するWebページに対して,主要・対立表現を俯瞰的に提示するシステムWISDOMを開発している.Murakamietal.\citeyear{Murakami2010}は,Web上に存在するさまざまなテキスト情報について,それらの間に暗に示されている同意,対立,弱い対立,根拠などの意味的関係を解析する言論マップの生成課題を論じている.藤井\citeyear{Fujii2008}は,Web上の主観情報を集約し,賛否両論が対立する構図を論点に基づいて可視化している.Akamineetal.\citeyear{Akamine2010,Akamine2009}やMurakamietal.\citeyear{Murakami2010}や藤井\citeyear{Fujii2008}の手法では,対立関係にある記述を網羅的に提示することに焦点があり,提示された対立関係の読み解き方に関しては対象としていない.対立関係の把握が容易になるような要約を利用者に提示できれば,着目言明に関連する話題や言明群の全体像が把握しやすくなると考えられる.山本ら\cite{Yamamoto2010}は,分析対象となるWeb情報とその関連情報をデータ対で表現し,データ対間のサポート関係を分析することでWeb情報の信憑性を評価する汎用的なモデルを提案している.これは,対象データ対をサポートする関係にあるデータ対が多く存在するほど対象データ対の信憑性が高まる,という仮説に基づいている.しかしながら,Web上には,ある特殊な条件や状況下でのみ真実となるような内容に言及している記述も存在しており,そのような記述は,おそらく一般論を述べているであろう多数の記述からサポートされるとは限らない.調停要約は,一見すると矛盾するような情報が,ある条件や状況の下では成立する場合があることを利用者に示すことを目的としており,我々は,そういった特殊な条件や状況があることを示すことも利用者の信憑性判断を支援する上で必要であると考えている.Finnetal.\cite{Finn2001}は,Web上の新聞記事を対象として,コラム等の主観的な記事と事実を伝える客観的な記事に分類する研究を行っている.また,松本ら\cite{Matsumoto2009}は,文末表現を用いて,Webページが主観と客観のどちらの情報を中心として構成されているかを推定する研究を行っている.好悪といった主観に依存する言明間の対立関係の場合,互いの内容は両立することができるため,主観的であるか否かの情報は対立関係の読み解き方に役立つと考えられる.しかしながら,ディーゼル車の例のように客観的な内容の対立関係においても疑似対立となる場合があり,客観的な内容の疑似対立となる場合の読み解き方を調停要約は対象としている.他にも,利用者が着目する言明に対するWeb上の意見の変遷と意見が変わった要因を提示する河合らの研究\cite{Kawai2011},Webページのレイアウト情報を利用して情報発信者の名称を抽出するMiyazakietal.の研究\cite{Miyazaki2009},Webページの情報発信構成の考え方に基づいて情報発信者の同定を行う加藤らの研究\cite{Kato2010}等がある.河合ら\cite{Kawai2011}やMiyazakietal.\citeyear{Miyazaki2009}や加藤ら\cite{Kato2010}の研究は,発信された情報の内容ではなく,「いつ」「誰が」発信したかといった面から利用者の判断を支援するアプローチを取っている.したがって,調停要約の元文書の情報発信者を提示することで,さらに利用者への支援が容易になると考えられる.\subsection{従来の要約手法との比較}調停要約は,複数文書を対象とした抜粋型の報知的要約の一つである.その中でも,橋本ら\cite{Hashimoto2001}の研究のような,要約対象文書群から「まとめ文章」を取り出すことにより要約する手法に属する.橋本ら\cite{Hashimoto2001}は,新聞記事を対象にしており,複数文書の記述内容に齟齬があることは想定せずに,複数記事の内容をそのまままとめることが目的である.一方で調停要約では,まず,様々な立場の人物や組織が互いに対立した主張をしているようにみえる記述を含む文書集合を要約対象にしている点が異なる.さらに,得られる要約の中に,疑似対立とその読み解き方が含められるようにすることで,情報信憑性の判断に寄与することを目的としている.利用者の知りたい事柄に焦点を当てて要約する手法としては,TombrosandSandersoni\citeyear{Tombros1998}の提案するQuery-biasedsummarizationがある.これは文書検索結果に対する要約を行なう場合に,利用者が文書検索に用いたキーワードの重要度を高くして重要文抽出を行なうものである.また,利用者が質問文を与えた場合にそれを考慮した要約を提示する研究もあり,平尾ら\cite{Hirao2001}の質問が問うている事物の種類の情報を用いる手法や,Morietal.\cite{Mori2005}の質問文により焦点が与えられた場合にQAエンジンを用いて要約を行う手法などが提案されている.従来の調停要約生成手法においても,利用者から与えられた着目言明に基づいて要約を生成しており,Query-biasedsummarizationの一種であるといえる.平尾ら\cite{Hirao2001}やMorietal.\citeyear{Mori2005}の手法では,処理の直前に1回だけ利用者の興味が入力され,それに対する要約を提示した時点で処理は完結する.一方,提案する対話型調停要約生成手法では,着目言明に基づいて提示された文書群に対して利用者が対立の焦点となる2文を明示することで,さらに利用者が信憑性を判断したい対立点に焦点を当てた調停要約を提示することができる.酒井ら\cite{Sakai2006}は,利用者の要約要求を反映した要約を生成するために,利用者とのインタラクションを導入した複数文書要約システムを提案している.酒井ら\cite{Sakai2006}のシステムでは,システムが要約対象文書集合から自動的に抽出したキーワードの中から,利用者が要約要求と関連するキーワードを選択するという方法で利用者とのインタラクションを実現しているが,我々のシステムでは,提示された文書集合に対して利用者が対立関係にある任意の2文を直接選択することを想定している.キーワードではなく文によるインタラクションを行う理由として,キーワードとの関連性だけでは適切な調停要約の生成が不十分となることがあげられる.例えば,「ディーゼル車は黒煙を出す」ことに関する事例や根拠のみが書かれた記述は,「ディーゼル車」,「黒煙」,「出す」といったキーワードとの関連性が高くなると考えられる.しかしながら,そのような記述は,利用者が「ディーゼル車は黒煙を出す」という言明の信憑性を判断する材料として不十分である.利用者が正しい判断をできるようにするためには,対立関係にある「ディーゼル車は黒煙を出さない」ことに関する事例や根拠,黒煙を出す場合と出さない場合とが両立できる状況も示す必要がある.したがって,調停要約の生成には,命題レベルでの対立関係を扱う必要があり,利用者が文書集合中の任意の2文を直接選択することで,利用者が焦点とする対立点を明確化することとした.システムが提示したテキストに利用者が直接操作を加えることで,直観的かつ簡単に利用者が必要とする情報を要求するという対話的な要約生成手法としては,村田ら\cite{Murata2007}の手法がある.村田ら\cite{Murata2007}は,Scatter/Gather法\cite{Cutting1992}を要約提示の観点から捉え直す事により,提示した要約文章そのものに対し利用者が操作を行ない,それによって利用者の興味を反映した新たな要約を提示する手法を提案している.提案手法も同様の考え方に基づいており,提示された文章群の中で信憑性を判断したい対立関係にある2文を利用者がマウス操作等により明確化するという操作を行うことで,利用者が焦点とする対立関係を反映した調停要約を生成する.\subsection{質問応答システムとの比較}利用者が入力したクエリに対して簡潔な文章を出力するという枠組みは,Non-Factoid型の質問応答システム\cite{Fukumoto2007}と類似している.質問応答として捉えると,着目言明を入力としてその真偽を問うYes/No型の質問応答となることが考えられるが,調停要約の場合には,単純にYes/Noで回答できる質問ではないということを気付かせる文章を出力するという点で質問応答の考え方とは異なっている.したがって,質問応答システムにおいてYesとNoの両方の解が得られるような場合に調停要約を提示するといった利用が考えられるが,本論文では,質問応答システムとの連携は今後の課題として,単純にYes/Noでは回答できない質問が入力されることを前提としている. \section{調停要約} \label{sc:concept}\subsection{目標とアプローチ}\label{ssc:approach}\begin{figure}[t]\begin{center}\includegraphics{20-2ia1f1.eps}\end{center}\caption{対話的アプローチにおける調停要約の生成例}\label{fg:survey_report}\end{figure}利用者が「朝バナナダイエットでダイエットできる」という言明に着目してその真偽を調べたい場合の,我々が目標とする調停要約と調停要約を対話的に生成する流れの例を図\ref{fg:survey_report}に示す.まず,利用者が着目言明である「朝バナナダイエットでダイエットできる」を入力し,システムは着目言明に関連するWeb文書集合を提示する.提示された文書集合中には,「バナナは高い栄養価なのに低カロリーの果物で,腹持ちに優れているのが特徴です.」という着目言明に肯定的な内容の記述と,「バナナは果物の中では水分が少ないためカロリーは高めです.」という否定的な内容の記述が存在しており,バナナのもつカロリーに関して互いに対立関係にあるようにみえる.そのため,利用者はこの2文を選択することで,バナナのカロリーが対立の焦点であることをシステムに伝え,システムは,バナナのカロリーに関する調停要約を生成し出力する.Web上には,ある対立関係について,それらが両立可能であることを示した記述が存在していることがあり,そのような記述をパッセージ単位で抜粋して提示するというのが調停要約の基本的な考え方である.なお,本論文では,文書中の一つ以上の文の連続をパッセージと定義する.この例では,バナナのもつカロリーに関しての疑似対立と調停要約が示されているが,着目言明に関連する疑似対立は一つとは限らない\footnote{例えば,バナナのカロリー以外では,バナナの種類や食べる時間等に関する疑似対立がある.}ため,それぞれの疑似対立に対応する調停要約を利用者に提示することが前提となる.しかしながら,それらの調停要約を疑似対立ごとに明示的に区別せずに提示してしまうと,利用者が焦点とする疑似対立以外の調停要約が,焦点とする疑似対立に対する利用者の判断を妨げてしまう恐れがある.それゆえ,本論文では,最初に利用者に文書集合を提示し,文書集合中で互いに矛盾しているようにみえる2文を利用者が選択した後に調停要約を生成するという対話的なアプローチを採ることで,利用者が焦点とする疑似対立に適合した調停要約を提示できると考えた.なお,利用者に提示される文書集合から,互いに矛盾しているようにみえる2文が実際に選択できるかどうか,12の着目言明\footnote{\ref{sc:experiment}節の実験で用いた6言明と,中野ら\cite{Nakano2011}の実験Aで用いた6言明の計12言明である.}を対象として以下の予備調査を行った.予備調査は,情報工学を専攻する大学生5名を対象として行い,着目言明をクエリとしてGoogle\footnote{http://www.google.co.jp/}を用いて検索されたタイトルとスニペットを上位から順に読んでもらい,互いに矛盾しているようにみえる2文を選択させた.選択された2文がそれぞれ何位の検索結果に記述されていたかを調査し,両方の文が選択された時点の順位,すなわち下位の方の順位を平均した結果,15.6位となり,殆どの場合,20位までのタイトルとスニペットを読むと,その中から互いに矛盾しているようにみえる2文を選択できたことを確認した.ただし,本研究の目的は利用者の信憑性判断を支援することであるため,最初に提示された文書集合を読んで,利用者の観点から互いに矛盾しているような記述がないならば,調停要約を生成する必要はないと考えている.また,互いに矛盾しているようにみえる2文が疑似対立であるかどうかの最終的な判断も利用者が行うべきであると考えており,調停要約生成システムでは選択された2文が疑似対立にあるものと仮定して生成した調停要約を提示することとした.\subsection{調停要約の特徴}\label{ssc:feature}我々がこれまで人手で作成した調停要約を分析した結果,調停要約として適切な記述には以下の三つの特徴があることが分かっている.第一の特徴は,着目言明や,焦点とする疑似対立との{\bf関連性}が高いことである.第二の特徴は,{\bf公平性}が高い,すなわち,着目言明を肯定する意見や根拠等と否定する意見や根拠等の両方に等しく言及していることである.調停要約は,疑似対立を読み解くための手掛かりとなる記述であるので,肯定側と否定側の双方の主張が含まれるパッセージはより適切であると考えられる.第三の特徴は,要約としての{\bf簡潔性}が高いことである.ここでの簡潔性とは,単純に短く記述されているというだけはなく,利用者の信憑性判断を支援するための材料を端的に示しているという意味も含んでいる.したがって,我々は,あるパッセージの関連性,公平性,簡潔性の度合いを計算することで,そのパッセージが調停要約として適切であるかどうかを判断できると考えた.\subsection{焦点となる2文を明確化した状況下での調停要約生成タスク}焦点となる2文が明確化した状況下での調停要約生成タスクでは,入力として,着目言明と,文書集合中の焦点となる疑似対立にある2文が利用者により与えられるものとする.通常の要約生成タスクでは,入力として要約対象となる文書集合が与えられるが,調停要約生成タスクでは,着目言明の真偽判断の材料となる文書を収集することもタスクの一部であると考えている.そのため,与えられた着目言明や焦点とする2文に関連した文書群をWeb上から検索して,要約対象とする必要がある.本論文では,最初に着目言明で検索された文書集合を利用者に提示してから,それを読んだ利用者が焦点とする対立関係にある2文を明示した後に調停要約を生成するというアプローチを採ることから,着目言明をクエリとして検索した文書集合を要約対象文書集合とすることとした.また,出力として,着目言明のトピックにおける焦点となる疑似対立の読み解き方の手掛かりを示すパッセージ群を抜粋して提示する. \section{提案手法} \label{sc:proposedmethod}\subsection{提案手法の概要}\label{ssc:outline}我々は,\ref{ssc:feature}節で述べた関連性,公平性,簡潔性の3つの特徴をもつパッセージを調停要約として抽出するために,以下の4種類の特徴語と3種類の手掛かり表現に基づく手法を提案する.まず,関連性に関する特徴量を,着目言明のトピックとの関連度と,焦点とする疑似対立との関連度に細分化し,それぞれの値を求めるために,{\bfトピック特徴語}と{\bf焦点特徴語}という2種類の特徴語を定義する.従来手法\cite{Shibuki2011a,Nakano2011,Shibuki2010}では,トピック特徴語のみを関連性の尺度として用いていたが,焦点とする疑似対立との関連性が低いパッセージも調停要約として出力されてしまうことがあった.それゆえ,利用者が焦点とする疑似対立への関連度をより確実に判断するため,焦点特徴語の概念を導入することとした.例えば,図\ref{fg:survey_report}の「朝バナナダイエットでダイエットできる」という着目言明において「バナナは低カロリーで満腹感がありますvs.バナナは果物の中では水分が少ないためカロリーは高めです」という疑似対立が焦点である場合,トピック特徴語は「バナナ」,焦点特徴語は「カロリー」となり,「バナナ」というトピックの中の「カロリー」の高低に焦点があることを考慮して処理できるようにした.次に,公平性に関する特徴量を,語彙的な観点と構造的な観点の両方から求めることとし,語彙的な観点からの特徴量を求めるために,{\bf肯定側特徴語}と{\bf否定側特徴語}という2種類の特徴語を,構造的な観点からの特徴量を求めるために,{\bf逆接表現}と{\bf限定表現}の2種類の手掛かり表現をそれぞれ定義する.従来手法では,着目言明を肯定または否定する意見や根拠等に現れやすい単語を肯定側特徴語および否定側特徴語として定義し,要約対象となる文書集合から統計的偏りに基づいて抽出していたが,提案手法では,焦点となる対立関係にある2文が与えられることから,2文の一方にのみ現れる単語を肯定側特徴語および否定側特徴語として定義して用いることとする.図\ref{fg:survey_report}の例であれば「低い」と「高い」が肯定側特徴語と否定側特徴語となる.また,これらの肯定側特徴語と否定側特徴語が調停要約の中でどのような構造を伴って現れるかを考えた場合,「ご飯やケーキよりは低いがオレンジやグレープフルーツよりは高い」といったように対比構造を伴っていることが多いと考えられる.そこで,対比構造を見つける手掛かり表現として,「しかし」などの逆接表現と「○○の場合に限り」などの限定表現を用いることとした.しかしながら,例えば,冒頭が「しかし」から始まるようなパッセージであった場合,その前の文脈が不明であるため逆接としての意味をなさない.それゆえ,パッセージ中に現れる位置を考慮して,これらの手掛かり表現を用いることとした.最後に,簡潔性に関する特徴量を求めるための手掛かり表現として{\bf結論表現}を定義する.従来手法で生成された調停要約の中には,「バナナ84~kcal,オレンジ24~kcal,ご飯168~kcal」のように,「ご飯やケーキよりは低いがオレンジやグレープフルーツよりは高い」といった結論を理解した上で読まないと何を主張している文章なのか理解が困難なパッセージが存在していた.提案手法では,主張が明確に述べられているかどうかを求めるために,「つまり」や「結論として」などの結論を導く表現を手掛かりとし,このような表現を結論表現と定義して用いることとした.また,パッセージ中に信憑性判断支援に寄与しない記述,例えば,商品一覧やリンク集といった名詞のリストや「TOPへ戻る」などのサイト内機能を表す文字列などが含まれていると,可読性の低下と共に利用者の理解を妨げてしまうことから,そのような不要な記述を含まないことも簡潔性を計算する上で必要な因子であると考えられる.本来であれば,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語の4種類全ての特徴語を全て含み,逆接表現,限定表現,結論表現の3種類の手掛かり表現を全てパッセージ中の適切な位置に含み,調停要約に不要な記述を一切含まないパッセージが調停要約として理想である.しかしながら,上記の因子を全て含むパッセージが要約対象文書集合中に存在する可能性は低いと思われる.また,全ての因子を含まなくとも調停要約として適切なパッセージが存在することがある.従って,提案手法では,全ての因子を含むパッセージが存在しない場合でも,可能な限り多くの因子を含むパッセージを上位にランキングできるようにする.\ref{ssc:flowchart}節で提案手法の全体の流れを述べた後,\ref{ssc:keyword_extraction}節で特徴語の抽出方法を,\ref{ssc:passage_extraction}節で各因子の定式化とパッセージのスコア付けの方法を説明する.\subsection{全体の流れ}\label{ssc:flowchart}\begin{figure}[t]\begin{center}\includegraphics{20-2ia1f2.eps}\end{center}\caption{提案手法の全体の流れ}\label{fg:outline}\end{figure}提案手法の全体の流れを図\ref{fg:outline}に示す.利用者は最初に「ディーゼル車は環境に良い」といった着目言明を入力し,システムは着目言明をクエリとして検索したWeb文書集合を利用者に提示する.利用者は提示された文書集合を読み,互いに矛盾しているように見えるために信憑性が疑わしく思える2文をマウス操作等によりマーキングする.ここで,マーキングされた2文の内,利用者が着目言明の内容を肯定する記述としてマーキングした方を{\bf肯定側記述},否定する記述としてマーキングした方を{\bf否定側記述}と定義する\footnote{便宜上,肯定側と否定側を明確にして定義しているが,本手法において両者の間に本質的な違いはない.インターフェイスにおいても,利用者は対立しているようにみえる2文の内,どちらが肯定側記述かといったことを意識することなくマーキングすることを想定している.}.システムは,着目言明,肯定側記述,否定側記述を基に,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語の4種類の特徴語を抽出する.その後,抽出された特徴語と,逆接表現,限定表現,結論表現といった手掛かり表現を用いて,調停要約としての適切性を示すスコアを計算し,検索された文書集合を対象に,調停要約として適切なパッセージを抽出する.最後に,抽出されたパッセージをスコア順にランキングして利用者に提示する.従来の調停要約生成手法では,肯定側特徴語と否定側特徴語を抽出するために,対義語辞書や用言の否定形を用いて着目言明の対立言明を自動生成し,その対立言明により検索されたWeb文書集合を利用していた.しかしながら,自動生成された対立言明の精度の問題や,対立言明で検索される文書が存在しないといった問題があった.提案手法では,利用者が肯定側記述と否定側記述を直接マーキングするため,このような問題を回避することができる.また,利用者が直接マーキングすることは,調停要約の前提である,信憑性を判断したい対立点を利用者に認識させる効果がある.さらに,システムの要約生成においても,着目言明に加えて参照できる情報が増えることから精度向上につながると考えられる.しかしながら,検索文書中のテキストに利用者が直接マーキングすることに対して,以下の問題も懸念される.本来,調停要約の生成において必要な情報は,「ディーゼル車は黒煙を出すvs.ディーゼル車は黒煙を出さない」といった構文レベルで明瞭な対比構造をもった2文であるが,そのような対比構造が肯定側記述と否定側記述の間に必ずしも存在するとは限らない.また,対比構造以外の部分に含まれる語句が精度に悪影響を及ぼす可能性もある.\ref{sc:experiment}節では,この点を調査する実験を行う.\subsection{特徴語の抽出}\label{ssc:keyword_extraction}\begin{figure}[t]\begin{center}\includegraphics{20-2ia1f3.eps}\end{center}\caption{特徴語抽出の流れ}\label{fg:keyword}\end{figure}利用者により入力された着目言明,肯定側記述,否定側記述を用いて特徴語の抽出を行う.着目言明が「ディーゼル車は環境に良い」,肯定側記述が「ディーゼル車は黒煙を出さない」,否定側記述が「ディーゼル車は黒煙を出す」とした場合の特徴語の抽出の流れを図\ref{fg:keyword}に示す.最初に,MeCab\footnote{http://mecab.sourceforge.net/}を用いて,着目言明,肯定側記述,否定側記述の形態素解析を行い,それぞれに含まれる内容語を抽出する.本論文では,以下の3つの条件を満たす語を内容語と定義した.(1)品詞が,`名詞',`動詞',`形容詞'のいずれかであり,(2)品詞細分類1が,`非自立',`接尾',`数',`代名詞',`特殊',`副詞可能'以外であり,(3)原形が`する',`なる',`できる',`ある',`いる',`ない'以外の単語である.内容語を抽出した後,各内容語が存在する文節内に存在する「不」などの接頭辞や「ない」などの助動詞により,否定の意味で用いられているかどうかも判断する\footnote{「効果がない」のような文は2文節として解析されてしまうが,「効果ない」と同値となるよう処理をしている.}.次に,抽出された肯定側記述の内容語と否定側記述の内容語を比較して,差分となる内容語(「出さない」と「出す」)をそれぞれ肯定側特徴語と否定側特徴語とする.内容語が同じであるかどうかを判定する際には,分類語彙表\cite{BunruiGoiHyou2004}による類義語拡張を行っている.最後に,肯定側記述と否定側記述に共通の内容語(「ディーゼル」,「車」,「黒煙」)と着目言明の内容語を比較して,着目言明に含まれない内容語(「黒煙」)を焦点特徴語とし,共通の内容語(「ディーゼル」,「車」)をトピック特徴語とする.このようにすることで,「ディーゼル車」というトピックにおける「黒煙」を「出す」か「出さない」かという対立点を明確に捉えることができると考えられる.\subsection{パッセージの抽出とランキング}\label{ssc:passage_extraction}調停要約となるパッセージの抽出は,従来手法\cite{Shibuki2011a,Nakano2011,Shibuki2010}と同様に以下の手順で行う.まず,抽出された特徴語を用いて,文単位で調停要約らしさのスコアを計算する.次に,各文のスコアを平滑化した後,平滑化されたスコアに基づいてパッセージの切り出しを行う.最後に,切り出されたパッセージ単位で調停要約らしさのスコアを計算し,ランキングする.ただし,\ref{sc:experiment}節では,既に正解パッセージが切り出されている調停要約コーパスを用いて評価することを想定していることから,パッセージ単位でのスコア計算に関してのみ記述する.調停要約として適切なパッセージには,\ref{ssc:outline}節で述べたように,(a)全ての種類の特徴語が多く存在し,(b)逆接,限定,結論などの手掛かり表現が適切な位置にあり,(c)不要な文が存在しない,といった特徴があると考えられるため,これらの特徴に基づいてパッセージのスコアを計算する.まず,各特徴語がパッセージ中にどれだけ多く存在しているかを求めるために,パッセージ$p$の,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語によるスコアをそれぞれ$sc_{tk}(p)$,$sc_{fk}(p)$,$sc_{pk}(p)$,$sc_{nk}(p)$とし,以下の式に従って計算する.{\allowdisplaybreaks\begin{gather}sc_{tk}(p)=\frac{N_{tk}(p)}{T_{tk}}+1\\sc_{fk}(p)=\frac{N_{fk}(p)}{T_{fk}}+1\\sc_{pk}(p)=\frac{N_{pk}(p)}{T_{pk}}+1\\sc_{nk}(p)=\frac{N_{nk}(p)}{T_{nk}}+1\end{gather}}$N_{tk}(p)$,$N_{fk}(p)$,$N_{pk}(p)$,$N_{nk}(p)$はパッセージ$p$中に含まれる各特徴語の異なり数であり,$T_{tk}$,$T_{fk}$,$T_{pk}$,$T_{nk}$は抽出された各特徴語の総異なり数である.また,各スコアの値を1から2の範囲に正規化するために1を加えている.調停要約は,調停という性質上,肯定意見と否定意見の両方に公平に言及していることが求められる.そのような互いに対立する意見に言及する文章では,両方の意見を対比する構造が存在しており,また,対比構造は一般に「しかし」などの逆接表現を伴って書かれることが多い.さらに,公平性という観点からは,両方の意見に対して等量の記述があることが望ましい.したがって,逆接表現がパッセージの中央に存在する場合にスコアが高くなるよう,逆接表現によるスコア$sc_{ae}(p)$を以下の式に従って計算する.\begin{equation}sc_{ae}(p)=2-\frac{|\frac{1}{2}N_{ts}(p)-FP_{ae}(p)|}{\frac{1}{2}N_{ts}(p)}\end{equation}$N_{ts}(p)$はパッセージ$p$に含まれる文数であり,$FP_{ae}(p)$は表\ref{tb:adversative_expression}に示すいずれかの逆接表現が$p$中で最初に現れた文の位置である.なお,表中の分類は,MeCabのIPA辞書の品詞体系に基づいている.\begin{table}[t]\caption{逆接表現の一覧}\label{tb:adversative_expression}\input{01table01.txt}\end{table}\begin{table}[t]\caption{限定表現の一覧}\label{tb:proviso_expression}\input{01table02.txt}\end{table}逆接表現を伴わない対比構造の表現方法の一つとして,「但し○○の場合に限る」といった一方の意見を限定する表現により,暗黙の内に対立するもう一方の意見の状況を示す方法がある.また,このような但し書きは文章の最後にあることが多いと考えられる.したがって,限定表現がパッセージの最後に存在する場合にスコアが高くなるよう,限定表現によるスコア$sc_{pe}(p)$を以下の式に従って計算する.\begin{equation}sc_{pe}(p)=\frac{N_{ts}(p)-LP_{pe}(p)}{N_{ts}(p)}+1\end{equation}$LP_{pe}(p)$は表\ref{tb:proviso_expression}に示すいずれかの限定表現が$p$中で最後に現れた文の位置である.信憑性判断を支援するという目的上,結論部分が明確に記述されていることが求められる.そのような結論部分は,「つまり」や「結論として」といった文章全体を総括する表現により書かれていることが多い.また,利用者の立場からは,唐突に結論だけを示されてもその結論が正しいかどうか判断が困難になると考えられるため,結論に至る根拠や前提が示されていることが望ましい.したがって,結論表現がパッセージの最後に存在する場合にスコアが高くなるよう,結論表現によるスコア$sc_{ce}(p)$を以下の式に従って計算する.\begin{equation}sc_{ce}(p)=\frac{N_{ts}(p)-LP_{ce}(p)}{N_{ts}(p)}+1\end{equation}$LP_{ce}(p)$は表\ref{tb:conclusive_expression}に示すいずれかの結論表現が$p$中で最後に現れた文の位置である.\begin{table}[t]\caption{結論表現の一覧}\label{tb:conclusive_expression}\input{01table03.txt}\end{table}調停要約は要約の一種であるため,重要性や関連性が低い部分を可能な限り省いた文章を提示することが求められる.本論文では,特徴語や手掛かり表現を含んでいない文を不要な文として,不要な文が少ないパッセージほどスコアが高くなるようにした.パッセージ$p$中に含まれる不要な文の数を$N_{rs}(p)$として,不要な文に関するスコア$sc_{rs}(p)$を以下の式に従って計算する.\begin{equation}sc_{rs}(p)=\frac{N_{ts}(p)-N_{rs}(p)}{N_{ts}(p)}\end{equation}最終的なパッセージ$p$のスコア$sc(p)$は以下の式に従って計算する.\begin{equation}sc(p)=sc_{tk}(p)\timessc_{fk}(p)\timessc_{pk}(p)\timessc_{nk}(p)\timessc_{ae}(p)\timessc_{pe}(p)\timessc_{ce}(p)\timessc_{rs}(p)\label{eq:final_score}\end{equation}各スコアの積を最終的なスコアとすることで,各特徴語,手掛かり表現,不要な文に関する条件を全て満たしているパッセージが上位にランキングされるようにした. \section{調停要約コーパス} \label{sc:corpus}調停要約コーパスは,渋木ら\cite{Shibuki2011b}において,調停要約の分析及び評価を目的として構築されたコーパスである.調停要約コーパスには,「コラーゲンは肌に良い」,「飲酒は健康に良い」,「炭酸飲料はからだに悪い」,「原発は地震でも安全である」,「車内での携帯電話の使用は控えるべきである」,「嘘をつくのは悪いことである」の6つの着目言明に対して,要約対象となる500程度のWeb文書集合と,人手で作成した調停要約が収録されている.各着目言明には,「コラーゲンは肌に良いvs.コラーゲンは肌に良いとは限らない」といった着目言明そのものに関する対立点と,「動物性のコラーゲンは良くないvs.動物性のコラーゲンは良い」や「コラーゲンは食べると良いvs.コラーゲンは塗ると良い」といった関連する4つの対立点の計5つの対立点が設定されている.各着目言明には4名の作業者が割り当てられ,各作業者は対立点ごとに要約対象のWeb文書集合から,肯定側の意見と思われる記述,否定側の意見と思われる記述,調停要約として適切なパッセージのそれぞれの集合を抽出している.渋木ら\cite{Shibuki2011b}は調停要約コーパスの構築作業のために専用のタグ付けツールを開発しており,全ての作業をツール上で行うことで,タグ付け労力の軽減とヒューマンエラーの抑制を行っている.\begin{figure}[t]\begin{center}\includegraphics{20-2ia1f4.eps}\end{center}\caption{調停要約コーパス中に収録されている調停要約の例}\label{fg:corpus}\end{figure}図\ref{fg:corpus}に,着目言明「コラーゲンは肌に良い」に対して,ある1名の作業者が作成した調停要約の一部を示す.調停要約に関する情報はXML形式で付与されている.各対立点は{\sf$<$Conflict$>$}タグにより区切られており,図\ref{fg:corpus}中のボックスでは3番目の対立点が示されている.各{\sf$<$Conflict$>$}タグ内には,一つの{\sf$<$Label$>$}タグ,複数の{\sf$<$Statement$>$}タグ,複数の{\sf$<$Mediation$>$}タグが存在する.{\sf$<$Label$>$}タグは,「コラーゲンは食べると良い⇔コラーゲンは塗ると良い」といった,対立点を表す,人手で作成されたラベルを示している.{\sf$<$Statement$>$}タグは,Web文書から抽出された,肯定側または否定側の意見と思われる記述を示しており,{\sfPolarity}属性の値が{\sf`POSITIVE'}か{\sf`NEGATIVE'}かで肯定側の意見か否定側の意見かを示している.{\sf$<$Statement$>$}タグの記述は,「コラーゲンドリンクで効いてる実感ってなかったけど,このコラーゲンは高純度っていうだけあってスゴイ」や「コラーゲンには保湿効果があるので,ヘアパックなどにも用いられることがあります」といったものであり,肯定側と否定側の記述でペアを作成しても,{\sf$<$Label$>$}タグの記述のように明瞭な対比構造をなすことは殆どない.{\sf$<$Mediation$>$}タグは,調停要約としてWeb文書から抽出されたパッセージを示している.なお,どの着目言明においても,1番目の対立点は,「コラーゲンは肌に良い⇔コラーゲンは肌に良いとは限らない」といった着目言明そのものに関する対立点となっている.また,2番目から5番目の対立点以外にも着目言明に関連する対立点は存在しているため,1番目の対立点の{\sf$<$Mediation$>$}タグの集合が,2番目から5番目の対立点の{\sf$<$Mediation$>$}タグの和集合と等しくなるわけではない. \section{実験} \label{sc:experiment}\subsection{目的と評価方法}\label{ssc:evaluation}本論文では,以下の3点を目的とした実験を行う.1点目は,提案する対話型調停要約生成手法の有効性を確認することである.2点目は,利用者が焦点とする2文を明確化する方法として,利用者が自ら生成する方法と,提示された文書集合から抽出する方法のどちらが適しているかを考察することである.3点目は,パッセージのスコア計算に用いられる各因子が,調停要約の精度にどの程度寄与しているかを調査することである.まず,対話型調停要約生成手法の有効性を確認するために,従来の調停要約生成手法である渋木ら\cite{Shibuki2011a}との比較を第一の実験として行う.次に,焦点とする2文を明確化する方法に関してであるが,提案手法における特徴語の抽出は,\ref{ssc:keyword_extraction}節で述べたように,肯定側記述と否定側記述の間の構文レベルでの対比構造に基づいて行われる.一方,肯定側記述と否定側記述は,\ref{ssc:flowchart}節で述べたように,提示された文書集合からマウス操作等により直接マーキングされることを想定しており,構文レベルで明瞭な対比構造をもたないと考えられる.それゆえ,第二の実験では,焦点とする2文を人手により生成した場合とマーキングの結果に基づきWeb文書から抽出した場合の影響を調査する.また,\ref{ssc:passage_extraction}節で述べたように,パッセージのスコアは,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語,逆接表現,限定表現,結論表現,不要な文の8種類の因子により計算されている.第三の実験では,これらの各因子が,調停要約の精度にどの程度寄与しているかを調査する.要約の評価手法としてROUGE\cite{Lin2003}が一般的であるが,N-gramによる再現度のスコア付けでは肯定側の記述と否定側の記述を区別せず,\ref{ssc:feature}節で述べた公平性を考慮することが困難であるため,調停要約の評価手法として適切ではない.提案手法の中核をなす処理は,\ref{ssc:passage_extraction}節に述べたパッセージの抽出とランキングであるため,正解パッセージと不正解パッセージからなる集合を作成し,正解パッセージ群を不正解パッセージ群よりも上位にランキングできるかどうかにより手法の評価を行うこととした.調停要約コーパスから以下の手順で実験データを作成した.まず,{\sf$<$Mediation$>$}タグの記述集合を正解のパッセージ集合とする.コーパスに収録されているWeb文書には,{\sf$<$Mediation$>$}タグ以外のパッセージ境界がないため,正解パッセージ集合の平均文字長を計算し,分割したパッセージの平均長が正解パッセージの平均長に近くなるよう,各文書の先頭から平均文字長$-\alpha$を超えた文境界で分割する.このとき,{\sf$<$Mediation$>$}タグを含む文書を分割対象外として,分割されたパッセージ集合を不正解のパッセージ集合とした.正解および不正解のパッセージ集合の中には,平均文字長との差が極めて大きいものがあるため,平均文字長$\pm\alpha$の範囲にない長さのパッセージを実験データから除外した.平均文字長は230であり,$\alpha$の値は経験則的に30とした.着目言明ごとの総パッセージ数と正解パッセージ数は,表\ref{tb:query_statement}の総数と正解に示す値となった.表\ref{tb:query_statement}の値から,調停要約生成は7,000以上のパッセージ中に数十程度しか存在しない正解パッセージを見つけ出すという困難なタスクであり,また,正解となるパッセージ数は非常に少ないが0ではなく,そのようなパッセージを抽出するという提案手法のアプローチに妥当性があるということが言える.\begin{table}[t]\caption{着目言明ごとのパッセージ数}\label{tb:query_statement}\input{01table04.txt}\end{table}評価指標として適合率と再現率を用いた.調停要約として適切なパッセージは,コーパスに収録されているWeb文書集合から網羅的に抽出しているため,コーパス中のWeb文書を要約対象文書として処理を行うと再現率を計算することができる.また,調停要約として適切なパッセージ群が可能な限り多く上位にランキングされているか調査するために,TREC\footnote{http://trecnist.gov/}やNTCIR\footnote{http://research.nii.ac.jp/ntcir/index-ja.html}の情報検索タスクで広く用いられている平均精度を用いた.第$r$位の適合率$\mathrm{Pre}(r)$と再現率$\mathrm{Rec}(r)$,および平均精度$\mathrm{AP}$は,それぞれ以下の式により計算される.\begin{gather}\mathrm{Pre}(r)=\frac{correct(r)}{r}\\\mathrm{Rec}(r)=\frac{correct(r)}{R}\\\mathrm{AP}=\frac{1}{R}\sum_rI(r)\mathrm{Pre}(r)\label{eq:average_precision}\end{gather}$R$は正解パッセージの総数,$correct(r)$は第$r$位までの出力パッセージに含まれる正解パッセージ数,$I(r)$は第$r$位のパッセージが正解ならば1,不正解ならば0を返す関数である.\subsection{従来手法との比較実験}\begin{table}[t]\caption{着目言明ごとの平均精度}\label{tb:average_precision}\input{01table05.txt}\end{table}\begin{table}[t]\caption{上位$r$件の適合率と再現率}\label{tb:precision_recall}\input{01table06.txt}\end{table}利用者が焦点とする2文を対話的に明確化した状況下における提案手法の有効性を示すために,本実験と同じ正解データを用いている従来手法\cite{Shibuki2011a}と比較した結果を表\ref{tb:average_precision}と表\ref{tb:precision_recall}にそれぞれ示す.従来研究\cite{Shibuki2011a}では,焦点とする2文が不明瞭な状況下で着目言明のみを入力としているため,1番目から5番目の全ての対立点における{\sf$<$Mediation$>$}タグの記述の和集合を正解データとして評価している.本論文では,提案手法と直截比較するため,対立の観点が明示されている2番目から5番目までの各対立点における{\sf$<$Mediation$>$}タグの集合を正解データとして適合率,再現率,平均精度を計算し,その値を平均した値を従来手法の評価とした.同様に,提案手法も2番目から5番目までの対立点ごとの{\sf$<$Mediation$>$}タグの集合を正解データとして評価した後,4つの対立点の値を平均している.一方,入力に関しては,従来手法が着目言明のみを与えたのに対し,提案手法は着目言明と焦点となる2文を与えている.焦点となる2文として,{\sf$<$Label$>$}タグの記述,または,{\sf$<$Statement$>$}タグの記述を用いることが考えられるが,表\ref{tb:average_precision}および表\ref{tb:precision_recall}の値は,着目言明と{\sf$<$Label$>$}タグの記述を用いた場合の結果と,着目言明と{\sf$<$Statement$>$}タグの記述を用いた場合の結果を平均した値である.表\ref{tb:average_precision}において,焦点となる2文を与える提案手法の方が従来手法よりも全体的に高い値を示している.なお,着目言明そのものに関する,第一の対立点の{\sf$<$Label$>$}タグを用いた場合でも,例えば,「コラーゲンは肌に良いとは限らない」といった対立言明が明確になるため,「コラーゲンは肌に良い」という着目言明のみを用いる従来手法よりも提案手法の方が入力される情報量は多くなる.表\ref{tb:precision_recall}の値は全ての着目言明の平均値を示している.表\ref{tb:average_precision}に示すように,正解パッセージ数は数十程度であるため,達成可能な適合率が必ずしも100\%になるとは限らない.それゆえ,表\ref{tb:precision_recall}では,正解パッセージをより上位に,より多く出力する方が優れた手法であると考える.従来手法と比較すると,上位10件の適合率が0.050から0.231に向上しており,下位まで評価範囲を広げた場合においても全体的に精度の改善が見られる.再現率に関しても,従来手法では上位1,000件において半分に達しなかった再現率が0.678に向上しており,網羅性の点で大きく改善されたと考えられる.\subsection{焦点とする2文の対比構造が精度に及ぼす影響に関する実験}焦点とする2文を人手により生成する場合とWeb文書から抽出する場合の影響を調査するために,{\sf$<$Label$>$}タグと{\sf$<$Statement$>$}タグを用いて,肯定側記述と否定側記述の入力を以下のように変えた場合の平均精度を求めた.人手により生成する場合の肯定側記述と否定側記述には,{\sf$<$Label$>$}タグの記述を利用することとし,Web文書から抽出する場合の肯定側記述と否定側記述には,{\sfPolarity}属性の値が{\sf`POSITIVE'}と{\sf`NEGATIVE'}である{\sf$<$Statement$>$}タグの記述をそれぞれ利用することとした.例えば,図\ref{fg:corpus}に示した,着目言明「コラーゲンは肌に良い」における3番目の対立点が焦点となる場合,人手により生成する場合の肯定側記述は,{\sf$<$Label$>$}タグの記述「コラーゲンは食べると良い⇔コラーゲンは塗ると良い」を用いて「コラーゲンは食べると良い」となり,否定側記述は「コラーゲンは塗ると良い」となる.また,{\sf$<$Statement$>$}タグの記述を用いて,Web文書から抽出する場合の肯定側記述は「コラーゲンドリンクで効いてる実感ってなかったけど,このコラーゲンは高純度っていうだけあってスゴイ」,否定側記述は「コラーゲンには保湿効果があるので,ヘアパックなどにも用いられることがあります」となる.なお,{\sf$<$Statement$>$}タグは複数存在し,全ての組み合わせを考慮すると膨大な数になるため,ランダムに組み合わせた5組を用いて実験を行った.表\ref{tb:focus_affect}に結果を示す.表\ref{tb:focus_affect}の値は,肯定側記述と否定側記述の組を入力とした時の平均精度の値を,全ての着目言明における全ての対立点について平均したものである.明瞭な対比構造をもつ,{\sf$<$Label$>$}の記述を用いた場合よりも,{\sf$<$Statement$>$}タグの記述を用いた方が良いという結果となった.したがって,提示された文書集合から焦点とする2文を選択するという対話的なアプローチを採ることが精度の面で問題ないと言える.このような結果になった理由として,まず,抽出される特徴語が増加したことによる焦点の明確化および焦点に関連するパッセージの絞り込みが容易になったことが考えられる.一方で,{\sf$<$Statement$>$}タグの記述を用いた場合には,「実感」や「スゴイ」といった,着目言明や焦点と無関係な語も特徴語として抽出されてしまうが,これらの語による悪影響が小さかった理由としては,手掛かり表現による制約が有効に働いたためと考えられる.\begin{table}[t]\caption{焦点となる2文の違いによる平均精度への影響}\label{tb:focus_affect}\input{01table07.txt}\end{table}\subsection{特徴語と手掛かり表現が精度に及ぼす影響に関する実験}調停要約としての適切性の計算には,式(\ref{eq:final_score})に示すように,トピック特徴語に関するスコア$sc_{tk}$,焦点特徴語に関するスコア$sc_{fk}$,肯定側特徴語に関するスコア$sc_{pk}$,否定側特徴語に関するスコア$sc_{nk}$,逆接表現に関するスコア$sc_{ae}$,限定表現に関するスコア$sc_{pe}$,結論表現に関するスコア$sc_{ce}$,不要文に関するスコア$sc_{rs}$の8種類の因子に関するスコアが用いられている.そこで,ある1種類の因子に関するスコアを考慮せずに,他の7種類の因子に関するスコアのみを用いて調停要約としての適切性を計算した場合の結果と比較することで,各因子が調停要約生成の精度にどの程度寄与しているかを調査した.着目言明ごとの平均精度への影響を表\ref{tb:average_precision_by_keywords}と表\ref{tb:average_precision_by_expressions_and_redundant}に示す.また,適合率と再現率への影響を表\ref{tb:influence1}と表\ref{tb:influence2}にそれぞれ示す.各列は,ある1種類の因子に関するスコアを考慮せずに,例えば,$-sc_{tk}$であればトピック特徴語に関するスコアを考慮せずに,調停要約の適切性を計算した場合の平均精度を示している.表\ref{tb:average_precision}や表\ref{tb:precision_recall}の提案手法の値と比較して低いほど,その因子が精度に寄与した割合が高いと考えられる.8因子の中で最も低下した因子の結果を太字で示している.また,考慮しない方が上昇している因子の結果を斜字体で示している.着目言明によってばらつきがあるものの,トピック特徴語,逆接表現,限定表現による影響が大きいことが分かる.特徴語の場合,「炭酸飲料はからだに悪い」の否定側特徴語を除いて,基本的に精度の向上に寄与しているが,手掛かり表現と不要な文の場合,着目言明によっては,考慮しない方が良い結果をもたらす場合があった.しかしながら,表\ref{tb:influence1}と表\ref{tb:influence2}の上位10件において値の低下が見られることから,総合的には全ての因子が調停要約の適切性を判定するのに必要であると考えられる.\begin{table}[t]\caption{特徴語による平均精度への影響}\label{tb:average_precision_by_keywords}\input{01table08.txt}\end{table}\begin{table}[t]\caption{手掛かり表現と不要な文による平均精度への影響}\label{tb:average_precision_by_expressions_and_redundant}\input{01table09.txt}\end{table}\begin{table}[t]\caption{特徴語,手掛かり表現,不要な文による適合率への影響}\label{tb:influence1}\input{01table10.txt}\end{table}\begin{table}[t]\caption{特徴語,手掛かり表現,不要な文による再現率への影響}\label{tb:influence2}\input{01table11.txt}\end{table}\subsection{事例の分析}従来手法と比較して,提案手法により精度の改善につながった例を表\ref{tb:success_examples}に示す.\begin{table}[t]\caption{提案手法により改善されたパッセージの例}\label{tb:success_examples}\input{01table12.txt}\end{table}着目言明「コラーゲンは肌に良い」におけるパッセージは,「コラーゲンは食べると良いvs.コラーゲンは塗ると良い」という疑似対立を調停している理想的な正解の出力例である.このパッセージは,従来手法において63位にランキングされていたが,「コラーゲンは食べると良いvs.コラーゲンは塗ると良い」という,焦点とする2文が与えられたことにより,肯定側特徴語「食べる」や否定側特徴語「塗る」に関するスコアが他のパッセージに比べて相対的に高くなり,1位にランキングされた.また,逆接表現「しかし」がパッセージの中程に現れていることも1位にランキングされる要因の1つとなった.着目言明「飲酒は健康に良い」における例は,「飲酒」に関連した記述ではあるが調停要約として相応しくないパッセージである.従来手法では,「飲酒」や「健康」といった特徴語を含んでいるため,950位にランキングしていたが,提案手法では,手掛かり表現や不要な文に関するスコアが低いことを考慮することで,調停要約として適切ではないと判定して4,265位にランキングすることができた.提案手法により改善できなかった例を表\ref{tb:fail_examples}に示す.着目言明「嘘をつくのは悪いことである」の例は,調停要約として適切な内容のパッセージであるが,提案手法では1,382位にランキングされることとなった.これは,着目言明や焦点とする2文では「嘘」と漢字で表記されていたのに対して,パッセージ中では「うそ」と仮名で表記されていたため,トピック特徴語「嘘」がパッセージ中に存在しないと判定されたことが原因であった.提案手法では,分類語彙表による類義語の処理しか行っていなかったため,今後,表記ゆれの処理を行うことで対処したいと考えている.\begin{table}[t]\caption{提案手法により改善されなかったパッセージの例}\label{tb:fail_examples}\input{01table13.txt}\end{table}着目言明「飲酒は健康に良い」の例は,飲酒と癌になるリスクとの関係に関する調停要約として適切なパッセージであるが,「飲酒は心臓病のリスクを上げるvs.飲酒は心臓病のリスクを上げない」という疑似対立に対する調停要約としては不適切なパッセージである.提案手法では,パッセージ中に,トピック特徴語「飲酒」,焦点特徴語「リスク」,逆接表現「一方」等が含まれていたため,63位にランキングされることとなった.また,焦点特徴語として「心臓病」と「リスク」の2語が抽出されたが,どちらの特徴語も同等の重みで処理をしている.しかしながら,癌のリスクではなく心臓病のリスクに焦点を当てるためには「心臓病」を「リスク」よりも重視した処理を行う必要がある.「リスク」の方が「心臓病」よりも一般的な語であることから,tf-idf法\cite{dictionary2010}等により単語の一般性を計算し,抽出された特徴語の重みに反映させることで,この問題に対処したいと考えている.着目言明「車内での携帯電話の使用は控えるべきである」の例は,車内での携帯電話の使用を話題としたパッセージであるが,単に札幌の地下鉄での現状とそれに対する個人の推測を述べているだけであり調停要約としては不適切なパッセージである.提案手法では,パッセージ中にトピック特徴語「車内」や「携帯電話」,逆接表現「しかし」等が含まれていることから全体的にスコアが高くなり,4位にランキングされることとなった.このパッセージが不適切である理由は,否定側記述の内容を行う人間の心理を推測しているだけであり,両立可能となる客観的な根拠や条件を示していないからだと考えられる.従って,今後,主観性判断\cite{Finn2001,Matsumoto2009}やモダリティ解析\cite{matsuyoshi2010}等を活用することで,この問題に対処していきたいと考えている. \section{おわりに} \label{sc:conclusion}本論文では,利用者が対立の焦点となる2文を対話的に明確化した状況下で調停要約を生成する手法を提案した.提案手法は,着目言明により検索された文書集合を最初に利用者に提示し,文書集合中で互いに矛盾しているようにみえる2文を利用者が選択した後に調停要約を生成するという対話的なアプローチを採ることで,利用者が焦点とする疑似対立に適合した調停要約を提示する.また,パッセージの関連性,公平性,簡潔性の3つの特徴量を,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語の4種類の特徴語と,逆接表現,限定表現,結論表現の3種類の手掛かり表現が含まれる位置と,特徴語も手掛かり表現も含まない不要な文の数を用いて求めることで,調停要約として適切なパッセージを抽出する.提案手法の有効性を確認するために,構文レベルで明瞭な対比構造をもたない2文を焦点とした場合と,計算で用いた8種類の各因子を除いた場合に,生成される調停要約の精度にどの程度影響を与えるかを調停要約コーパスを用いてそれぞれ調査した.その結果,明瞭な対比構造をもつラベルを用いた場合の平均精度0.022よりも,明瞭な対比構造をもたない,実文書から抽出された記述を用いた平均精度0.125の方が良い結果となったことから,対話的なアプローチを採ることの妥当性を確認した.また,着目言明により差があるものの,総合的に各因子を除くと精度が低下することから,全ての因子が調停要約の適切性を判定するのに必要であることを確認した.さらに,従来手法と比較した場合,上位10件の適合率が0.050から0.231に,上位1,000件での再現率が0.429から0.678にそれぞれ向上したことを確認した.今後は,誤り分析により明らかになった問題を解決することで,さらなる改善につなげたいと考えている.\acknowledgment本研究の一部は,科学研究費補助金(No.~22500124,No.~25330254),ならびに,横浜国立大学大学院環境情報研究院共同研究推進プログラムの助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2009}]{Akamine2009}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2009\BBCP.\newblock\BBOQWISDOM:AWebInformationCredibilityAnalysisSystem.\BBCQ\\newblockIn{\BemtheACL-IJCNLP2009SoftwareDemonstrations},pp.1--4.\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Leon-Suematsu,Kawada,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2010}]{Akamine2010}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Leon-Suematsu,Y.~I.,Kawada,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2010\BBCP.\newblock\BBOQOrganizingInformationontheWebtoSupportUserJudgmentsonInformationCredibility.\BBCQ\\newblockIn{\Bemthe4thInternationalUniversalCommunicationSymposium(IUCS2010)},pp.123--130.\bibitem[\protect\BCAY{Cutting,Karger,Pedersen,\BBA\Tukey}{Cuttinget~al.}{1992}]{Cutting1992}Cutting,D.~R.,Karger,D.~R.,Pedersen,J.~O.,\BBA\Tukey,J.~W.\BBOP1992\BBCP.\newblock\BBOQScatter/Gather:ACluster-BasedApproachtoBrowsingLargeDocumentCollections.\BBCQ\\newblockIn{\Bemthe15thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'92)},pp.318--329.\bibitem[\protect\BCAY{Finn,Kushmerick,\BBA\Smyth}{Finnet~al.}{2001}]{Finn2001}Finn,A.,Kushmerick,N.,\BBA\Smyth,B.\BBOP2001\BBCP.\newblock\BBOQFactorfiction:Contentclassificationfordigitallibraries.\BBCQ\\newblockIn{\BemtheSecondDELOSNetworkofExcellenceWorkshoponPersonalisationandRecommenderSystemsinDigitalLibraries},pp.18--20.\bibitem[\protect\BCAY{藤井}{藤井}{2008}]{Fujii2008}藤井敦\BBOP2008\BBCP.\newblockOpinionReader:意思決定支援を目的とした主観情報の集約・可視化システム.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ91-D}(2),\mbox{\BPGS\459--470}.\bibitem[\protect\BCAY{Fukumoto,Kato,Masui,\BBA\Mori}{Fukumotoet~al.}{2007}]{Fukumoto2007}Fukumoto,J.,Kato,T.,Masui,F.,\BBA\Mori,T.\BBOP2007\BBCP.\newblock\BBOQAnOverviewofthe4thQuestionAnsweringChallenge(QAC-4)atNTCIRWorkshop6.\BBCQ\\newblockIn{\Bemthe6thNTCIRWorkshopMeeting},pp.433--440.\bibitem[\protect\BCAY{言語処理学会}{言語処理学会}{2010}]{dictionary2010}言語処理学会\JED\\BBOP2010\BBCP.\newblock\Jem{デジタル言語処理学事典}.\newblock共立出版.\bibitem[\protect\BCAY{橋本\JBA奥村\JBA島津}{橋本\Jetal}{2001}]{Hashimoto2001}橋本力\JBA奥村学\JBA島津明\BBOP2001\BBCP.\newblock複数記事要約のためのサマリパッセージの抽出.\\newblock\Jem{言語処理学会第7回年次大会発表論文集},pp.285--288.\bibitem[\protect\BCAY{平尾\JBA佐々木\JBA磯崎}{平尾\Jetal}{2001}]{Hirao2001}平尾努\JBA佐々木裕\JBA磯崎秀樹\BBOP2001\BBCP.\newblock質問に適応した文書要約手法とその評価.\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),\mbox{\BPGS\2259--2269}.\bibitem[\protect\BCAY{石下\JBA渋木\JBA中野\JBA宮崎\JBA永井\JBA森}{石下\\Jetal}{2011}]{Ishioroshi2011}石下円香\JBA渋木英潔\JBA中野正寛\JBA宮崎林太郎\JBA永井隆広\JBA森辰則\BBOP2011\BBCP.\newblock直接調停要約自動生成システムHERMeSの言論マップとの連携.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},pp.~208--211.\bibitem[\protect\BCAY{Kaneko,Shibuki,Nakano,Miyazaki,Ishioroshi,\BBA\Morii}{Kanekoet~al.}{2009}]{Kaneko2009}Kaneko,K.,Shibuki,H.,Nakano,M.,Miyazaki,R.,Ishioroshi,M.,\BBA\Morii,T.\BBOP2009\BBCP.\newblock\BBOQMediatorySummaryGenaration:Summary-PassageExtractionforInformationCredibilityontheWeb.\BBCQ\\newblockIn{\Bemthe23rdPacificAsiaConferenceonLanguage,InformationandComputation},pp.240--249.\bibitem[\protect\BCAY{加藤\JBA河原\JBA乾\JBA黒橋\JBA柴田}{加藤\Jetal}{2010}]{Kato2010}加藤義清\JBA河原大輔\JBA乾健太郎\JBA黒橋禎夫\JBA柴田知秀\BBOP2010\BBCP.\newblockWebページの情報発信者の同定.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(1),\mbox{\BPGS\90--103}.\bibitem[\protect\BCAY{河合\JBA岡嶋\JBA中澤}{河合\Jetal}{2007}]{Kawai2011}河合剛巨\JBA岡嶋穣\JBA中澤聡\BBOP2007\BBCP.\newblockWeb文書の時系列分析に基づく意見変化イベントの抽出.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},pp.264--267.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{BunruiGoiHyou2004}国立国語研究所\JED\\BBOP2004\BBCP.\newblock\Jem{分類語彙表—増補改訂版}.\newblock大日本図書刊.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{Lin2003}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesUsingN-gramCo-OccurrenceStatistics.\BBCQ\\newblockIn{\Bemthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology---Volume1(NAACL'03)},pp.71--78.\bibitem[\protect\BCAY{松本\JBA小西\JBA高木\JBA小山\JBA三宅\JBA伊東}{松本\Jetal}{2009}]{Matsumoto2009}松本章代\JBA小西達裕\JBA高木朗\JBA小山照夫\JBA三宅芳雄\JBA伊東幸宏\BBOP2009\BBCP.\newblock文末表現を利用したウェブページの主観・客観度の判定.\\newblock\Jem{第1回データ工学と情報マネジメントに関するフォーラム(DEIM)},A5-4.\bibitem[\protect\BCAY{Matsuyoshi,Eguchi,Sao,Murakami,Inui,\BBA\Matsumoto}{Matsuyoshiet~al.}{2010}]{matsuyoshi2010}Matsuyoshi,S.,Eguchi,M.,Sao,C.,Murakami,K.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQAnnotatingEventMentionsinTextwithModality,Focus,andSourceInformation.\BBCQ\\newblockIn{\BemtheSeventhInternationalConferenceonLanguageResourcesandEvaluationConference(LREC2010)},pp.1456--1463.\bibitem[\protect\BCAY{Miyazaki,Momose,Shibuki,\BBA\Mori}{Miyazakiet~al.}{2009}]{Miyazaki2009}Miyazaki,R.,Momose,R.,Shibuki,H.,\BBA\Mori,T.\BBOP2009\BBCP.\newblock\BBOQUsingWebPageLayoutforExtractionofSenderNames.\BBCQ\\newblockIn{\Bemthe3rdInternationalUniversalCommunicationSymposium(IUCS2009)},pp.181--186.\bibitem[\protect\BCAY{Mori,Nozawa,\BBA\Asada}{Moriet~al.}{2005}]{Mori2005}Mori,T.,Nozawa,M.,\BBA\Asada,Y.\BBOP2005\BBCP.\newblock\BBOQMulti-Answer-FocusedMulti-DocumentSummarizationUsingaQuestion-AnsweringEngine.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf4}(3),\mbox{\BPGS\305--320}.\bibitem[\protect\BCAY{Murakami,Nichols,Mizuno,Watanabe,Masuda,Goto,Ohki,Sao,Matsuyoshi,Inui,\BBA\Matsumoto}{Murakamiet~al.}{2010}]{Murakami2010}Murakami,K.,Nichols,E.,Mizuno,J.,Watanabe,Y.,Masuda,S.,Goto,H.,Ohki,M.,Sao,C.,Matsuyoshi,S.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQStatementMap:ReducingWebInformationCredibilityNoisethroughOpinionClassification.\BBCQ\\newblockIn{\BemtheFourthWorkshoponAnalyticsforNoisyUnstructuredTextData(AND2010)},pp.59--66.\bibitem[\protect\BCAY{村田\JBA森}{村田\JBA森}{2007}]{Murata2007}村田一郎\JBA森辰則\BBOP2007\BBCP.\newblock利用者の興味を反映できる複数文書要約.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},pp.744--747.\bibitem[\protect\BCAY{中野\JBA渋木\JBA宮崎\JBA石下\JBA金子\JBA永井\JBA森}{中野\Jetal}{2011}]{Nakano2011}中野正寛\JBA渋木英潔\JBA宮崎林太郎\JBA石下円香\JBA金子浩一\JBA永井隆広\JBA森辰則\BBOP2011\BBCP.\newblock情報信憑性判断支援のための直接調停要約生成手法.\\newblock\Jem{電子情報通信学会論文誌(D)},{\BbfJ94-D}(11),\mbox{\BPGS\1019--1030}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2006}]{Sakai2006}酒井浩之\JBA増山繁\BBOP2006\BBCP.\newblockユーザの要約要求を反映するためにユーザとのインタラクションを導入した複数文書要約システム.\\newblock\Jem{ファジィ学会論文誌},{\Bbf18}(2),\mbox{\BPGS\265--279}.\bibitem[\protect\BCAY{Shibuki,Nagai,Nakano,Miyazaki,Ishioroshi,\BBA\Mori}{Shibukiet~al.}{2010}]{Shibuki2010}Shibuki,H.,Nagai,T.,Nakano,M.,Miyazaki,R.,Ishioroshi,M.,\BBA\Mori,T.\BBOP2010\BBCP.\newblock\BBOQAMethodforAutomaticallyGeneratingaMediatorySummarytoVerifyCredibilityofInformationontheWeb.\BBCQ\\newblockIn{\Bemthe23rdInternationalConferenceonComputationalLinguistics(COLING2010)},pp.1140--1148.\bibitem[\protect\BCAY{渋木\JBA中野\JBA石下\JBA永井\JBA森}{渋木\Jetal}{2011a}]{Shibuki2011a}渋木英潔\JBA中野正寛\JBA石下円香\JBA永井隆広\JBA森辰則\BBOP2011a\BBCP.\newblock調停要約生成手法の改善と調停要約コーパスを用いた評価.\\newblock\Jem{第10回情報科学技術フォーラム(FIT2011)},RE-003.\bibitem[\protect\BCAY{渋木\JBA中野\JBA宮崎\JBA石下\JBA永井\JBA森}{渋木\Jetal}{2011b}]{Shibuki2011b}渋木英潔\JBA中野正寛\JBA宮崎林太郎\JBA石下円香\JBA永井隆広\JBA森辰則\BBOP2011b\BBCP.\newblock調停要約のための正解コーパスの作成とその分析.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},pp.364--367.\bibitem[\protect\BCAY{Tombros\BBA\Sandersoni}{Tombros\BBA\Sandersoni}{1998}]{Tombros1998}Tombros,A.\BBACOMMA\\BBA\Sandersoni,M.\BBOP1998\BBCP.\newblock\BBOQAdvantagesofQueryBiasedSummariesinInformationRetrieval.\BBCQ\\newblockIn{\Bemthe21stAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'98)}.pp.2--10.\bibitem[\protect\BCAY{山本\JBA田中}{山本\JBA田中}{2010}]{Yamamoto2010}山本祐輔\JBA田中克己\BBOP2010\BBCP.\newblockデータ対間のサポート関係分析に基づくWeb情報の信憑性評価.\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf3}(2),\mbox{\BPGS\61--79}.\end{thebibliography}\begin{biography}\bioauthor{渋木英潔}{1997年小樽商科大学商学部商業教員養成課程卒業.1999年同大学大学院商学研究科修士課程修了.2002年北海道大学大学院工学研究科博士後期課程修了.博士(工学).2006年北海学園大学大学院経営学研究科博士後期課程終了.博士(経営学).現在,横浜国立大学環境情報研究院科学研究費研究員.自然言語処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本認知科学会各会員.}\bioauthor{永井隆広}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{中野正寛}{2005年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.2011年同専攻博士課程後期単位取得退学.修士(情報学).2011年から2012年まで同学府研究生.この間,自然言語処理に関する研究に従事.}\bioauthor{石下円香}{2009年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了.現在,国立情報学研究所特任研究員.博士(情報学).自然言語処理に関する研究に従事.言語処理学会,人工知能学会各会員.}\bioauthor{松本拓也}{2012年横浜国立大学工学部電子情報工学科卒業.現在,同大学大学院環境情報学府情報メディア環境学専攻博士課程前期在学中.自然言語処理に関する研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
V32N01-04
\section{はじめに} 話し言葉のツリーバンク(統語構造が付与されたコーパス)は,話し言語の自然言語処理タスクにおける基本的なアノテーションとして利用されてきた.社会的なコミュニケーションで用いられる話し言葉は,書き言葉と比較して異なる特徴がある\cite{carterSpokenGrammarWhere2017}.実社会における会話・相互行為の研究において,話し言葉のツリーバンクの存在は重要である.そのため,様々な話し言葉ツリーバンクが各国で構築・公開されている.話し言語ツリーバンクの構築において,近年\textbf{UniversalDependencies(以下UDと呼ぶ)}\cite{nivre-etal-2020-universal,de-marneffe-etal-2021-universal}を採用するコーパスが増えている.UDとは,多言語横断的に共通した形態論情報・統語構造をアノテーションする枠組み・ツリーバンクおよびそのプロジェクトである.UDは,\figref{fig:jp_ud1}のように,単語間の依存関係により記述される品詞ラベル・統語構造で構成されている.UDは2025年3月現在で,160以上の言語・300種類近くのツリーバンクが公開されておりガイドラインについてはGitHub上で活発に議論されている\footnote{\url{https://universaldependencies.org/}}.UDは現在,主に多言語依存構造解析や自然言語処理応用研究に広く利用されており,言語研究\cite{guzmannaranjoQuantitativeWordOrder2018,Levshina+2019+533+572}などにおいても類型論における事例調査に利用されている.話し言葉のUDについては\citeA{dobrovoljc_2022}の論文が詳しいが,\citeA{dobrovoljc_2022}以降も方言,危機言語,第二言語学習者などのように幅広い種類の話し言葉UDが公開されており\cite{kyle-etal-2022-dependency,liu2023,pughUniversalDependenciesWestern2022a,sonnenhauserUDGhegPear2022,alencar2023yauti,koshevoyBuildingUniversalDependencies2023},話し言葉のUD開発は活発に進められている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{32-1ia3f1.eps}\end{center}\hangcaption{UniversalDependencies(UD)の例(英語UD\_English-PUDと日本語UD\_Japanese-PUDLUW\texttt{id=n01018040}より)UDでは,日本語の「文節係り受け」で採用されている「文節」単位(白枠で囲んである単位)ではなく,「自立語(内容語)」と「付属語(機能語)」を分解した「構文的な語」を1単語(ワード)として規定されている(内容語は黒塗りの単語).上記例の場合,英語でも日本語でも太線の「得(makes)」と「取組(scheme)」は\dt{nsubj},「得(makes)」と「収入(money)」は\dt{obj}で同一の依存関係になっている.}\label{fig:jp_ud1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%日本語版UniversalDependencies(以降\textbf{日本語UD})では,すでにいくつかの種類のツリーバンクを公開している.既存に公開されている大規模な言語資源を活用するため,日本語UDはルールに基づく変換プログラムで自動変換し構築している\cite{asahara2019ud,omura-asahara-2018-ud}.これまでUD\_Japanese-BCCWJ\cite{omura-asahara-2018-ud}やUD\_Japanese-GSD\cite{tanaka_universal_2016}といった日本語UDにおいて,変換に必要な言語資源を整備しつつ,書き言葉のUDを中心に公開していった.一方で,話し言葉の日本語UDについては整備されていなかった.近年,\textbf{日本語日常会話コーパス(CorpusofEverydayJapaneseConversation;CEJC)}\cite{koiso-etal-cejc-2023}という,200時間以上に及ぶ大規模日本語日常会話コーパスが国立国語研究所によって開発された.CEJCは,雑談,相談,会議などさまざまなタイプの日本語母語話者の音声・映像データが収集されており,音声収録の協力者は,性別や年齢が均衡になるように選ばれている.さらに音声の転記テキストと形態論情報が自動解析および人手修正によって付与されている.日常場面の自然な会話について,200時間という規模で,さらに映像とのアライメントまで付与したデータは類をみない.このCEJCにUD依存構造を追加することで,より多くの話し言葉研究や統語解析開発への応用が期待できる.本稿では,CEJCに基づく日本語UDである\textbf{UD\_Japanese-CEJC}の構築について報告する.\udcejc{}の概要を\figref{fig:overview}に示す.CEJCは前述のとおり,音声と映像のデータに基づくコーパスであり,転記テキストと音声・映像データの時間アライメント情報も含まれている(\figref{fig:overview}内の「転記テキスト」「形態論情報」参照).そのためCEJCのUDを構築すれば結果として,映像・音声とUDのアライメントが実現可能であり,マルチモーダルで大規模な日本語話し言葉ツリーバンクが構築できることになる.%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure*}[t]\begin{center}\includegraphics{32-1ia3f2.eps}\end{center}\hangcaption{UD\_Japanese-CEJCの概要(例はCEJCのT010\_009から引用).本研究の貢献部分は右側の枠部分に相当する.}\label{fig:overview}\end{figure*}%%%%%%%%%%%%%%%%%%%%%%%%%%%我々は,\udcejc{}の構築のためにCEJCの一部(コアデータ,20時間)について国語研長単位の形態論情報・文節係り受けデータを新たにアノテーションした.さらに,形態論情報と文節係り受けに基づくルールベースの自動変換によりUDを構築した.我々の貢献は以下のとおりとなる.%%%%%\begin{itemize}\item日本語日常会話コーパスのUniversalDependenciesのデータ構築.\item\udcejc{}構築のため国語研長単位・文節係り受けアノテーションの構築・公開.\item他の話し言葉UDや書き言葉日本語UDとの比較による\udcejc{}の特性の提示.\end{itemize}%%%%%以降の章では,\udcejc{}の関連研究を示したのち,構築手順や特徴について紹介する.さらに,共通の枠組みで構築された書き言葉UDとUD\_Japanese-CEJCを用いて学習したUD依存構造解析の性能を評価し,\udcejc{}の特徴を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{話し言葉ツリーバンク}英語圏では,Switchboardコーパス\cite{treebank1999}がPennTreebankに収録・公開されて以降,T{\"{u}}bingenTreebanks\cite{Hinrichs2000},CHILDES\cite{sagae2004},OntoNotes\cite{hovy2006}のように,数多くの話し言葉ベースのツリーバンクが開発されてきた.これらのツリーバンクは,音声認識,音声合成,音声翻訳,音声言語理解といった対話システムなどのアプリケーションの開発に不可欠な言語資源として重要な役割を果たしている.しかし,話し言葉ベースのツリーバンクの設計・構築は書き言葉よりも複雑であるため,実際に構築された話し言葉のツリーバンクは,応用に求められる規模よりも小さいものばかりであった.近年,話し言葉ベースのツリーバンクを構築するため,UniversalDependencies(UD)\cite{nivre-etal-2020-universal,de-marneffe-etal-2021-universal}を採用する研究が多くなっている.UDは,多言語の共通の依存構造の枠組み,ガイドライン,データフォーマットなど\footnote{\url{https://universaldependencies.org/}}を提供している.\figref{fig:jp_ud1}のように,UDは機能語ではなく内容語を主辞とした依存構造構文を採用しており,関連する機能語を内容語に修飾させるような構造をとっている.内容語どうしで依存関係を取ることで,共通した内容語どうしの述語項関係が取りやすくなり,言語横断的な比較もより容易になっている.このUDの枠組みに基づいて,多言語依存構造解析器の開発\cite{straka-strakova-2017-tokenizing}や言語横断的なコーパスを用いた言語間比較の研究\cite{guzmannaranjoQuantitativeWordOrder2018,Levshina+2019+533+572}などさまざまな研究・開発が取り組まれている.UDでは半年に一度(毎年5月と11月)ガイドラインの見直しとアップデートによるVersion更新がおこなわれており\footnote{2025年3月現在はVersion2.15が最新である.Version2.5以降はUDのガイドラインに沿っているか確認するためのバリデーションも必須となっている.},個別のデータセットがガイドラインに沿うよう持続的にメンテナンスされているか検証されている.その点においてUDは一定の品質が保証されているといえる.話し言葉のUDについて包括的にまとめたサーベイ論文として\cite{dobrovoljc_2022}の論文が挙げられる.\citeA{dobrovoljc_2022}は12種類の話し言葉UD\footnote{\cite{dobrovoljc_2022}では,話し言葉しか含まれていないUDかつVersion2.9までのUDを比較対象とした.}の概要と特徴を比較しながら説明している.たとえば,比較的小規模なUDとしてベジャ語UD\_Beja-NSC\cite{kahane2021-morph}(56発話,1,101単語),チュクチ語UD\_Chukchi-HSE\cite{tyers2020}(1,004発話,5,389単語),フリジア語とオランダ語UD\_Frisian\_Dutch-Fame\cite{braggaar2021code}(400発話,3,729単語)が挙げられる.他にも,ナイジェリア・ピジン語UD\_Naija-NSC\cite{caron2019}(9,242発話,14,0729単語),ノルウェー語の方言UD\_Norwegian-NynorskLIA\cite{ovrelid2018-lia}(5,250発話,55,410単語),フランス語UD\_French-ParisStories\cite{kahane2021}(2,837発話,34,437単語)などのように,比較的大規模なUDについても説明している.\citeA{dobrovoljc_2022}はそれぞれのUDの特徴を「会話のメタ情報」「音声情報」「非言語的特徴」などの観点から統括的にまとめている.後の節にて,\udcejc{}についても\citeA{dobrovoljc_2022}の観点で特徴を述べ比較をする.\citeA{dobrovoljc_2022}の論文以降も,第二言語学習者\cite{kyle-etal-2022-dependency},方言\cite{sonnenhauserUDGhegPear2022,pughUniversalDependenciesWestern2022a},民族言語\cite{alencar2023yauti,koshevoyBuildingUniversalDependencies2023},母語習得データ\cite{liu2023}などの多くの話し言葉UDが開発・公開されており,UDベースの話し言葉ツリーバンク構築プロジェクトは大きな勢力となっているといえよう.我々の構築するUDに近いものとして,\citeA{yaari_aligned_2022}のAlignedMultimodalMovieTreebank(AMMT)がある.AMMTはハリウッド映画の31,264件の書き起こしからなる英語版UDである.AMMTは転記と音声と映像の間で対応が取られているマルチモーダルなコーパスである.その点で\udcejc{}に近いものであるが,AMMTは自然発生の発話データではなく,映画字幕の音声トランスクリプトで構成されており,本稿で説明する\udcejc{}とは異なる種類のツリーバンクである.他の言語の話し言葉UDを概観すると,独話,映画字幕の書き起こし,インタビュー形式のものが多く,1人の独話から1対1の対話形式までのものが多い.一方,CEJCはさまざまな場面における多人数の日常会話を含み,我々の構築した\udcejc{}も同様に複数人のインタラクティブな大規模自然会話のUDとして構築している.このように,\udcejc{}はいずれの話し言葉UDとも異なったレジスタのUDといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{日本語の話し言葉コーパス}もともと日本語の話し言葉コーパスは,音声認識や対話システムといった限定的な研究目的のために独自で音声データを集められていた.言語資源協会(GSK)\footnote{\url{https://www.gsk.or.jp/}}や国立情報学研究所の音声資源コンソーシアム(SRC)\footnote{\url{https://research.nii.ac.jp/src/}}といった言語資源をとりまとめ配布する機関の設立以降は,これらの機関を通しても多くの音声言語資源が公開・配布されるようになった.日本語の話し言葉コーパスは,独話・会話といった区別や,対象とする話者などによって種類が異なっている.たとえば,日本語母語話者の独話の話し言葉コーパスとして,日本語話し言葉コーパス(CSJ)\cite{maekawa2003csj}やATR音声データベース\cite{NayBanATRYinShengYanYudetabesuLtXiaoTeJi1992}などが挙げられる.日本語母語話者の会話のコーパスとしては,名大学会話コーパス(NUCC)\cite{fujimura_lexical_2012},千葉大学3人会話コーパス\cite{den2007tiba},JEITAマルチモーダル対話コーパス\cite{hashida2002}などがある.日本語学習者を対象としたコーパスとして,日本語学習者会話データベース\footnote{\url{https://mmsrv.ninjal.ac.jp/kaiwa/}},I-JAS(InternationalCorpusofJapaneseasaSecondLanguage)\cite{Sakoda2023ijas}なども存在する.本研究でベースとする日本語日常会話コーパス(CEJC)も後にあらためて説明するが,この中では会話コーパスに該当する.これらの話し言葉コーパスを用いて,音声学的研究,文法研究,会話研究,幼児の発達・獲得研究や日本語教育研究などがおこなわれてきた\cite{koisobook2015}.いずれにせよ,それぞれの話し言葉コーパスは異なった形式・注釈でアノテーションされたものである.そのため,異なるコーパス間どうしでの単純比較は難しい.また,形態論情報が付与された話し言葉コーパスはいくつか存在する一方で,日本語における係り受け構造のような統語情報アノテーションが付与された大規模話し言葉コーパスは,管見の限り提供されているものはCSJのみ\footnote{書き言葉コーパスを含めれば,EDR日本語コーパス\cite{takebayashi-1993-edr},京大コーパス\cite{kawahara-etal-2002-construction}やBCCWJ\cite{asahara2018dep}などで統語情報が提供されている.}であった.そのため,話し言葉の会話コーパスであるCEJCのUDを構築し公開することで,日本語の話し言葉ツリーバンクが充実することであろう.さらに,UDを採用していることから,言語やジャンルなどを超えた横断的な比較研究などにも利用しやすくなることが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.3\subsection{日本語版UniversalDependencies}日本語UDでは,UD\_Japanese-KTC\cite{tanaka_universal_2016}を発端として,いくつかの日本語UDが構築され,公開・メンテナンスされている.2025年3月現在,公開・メンテナンスされている現代日本語UDの一覧を\tabref{tab:udst}に示す\footnote{現代日本語UDのみ挙げている.UD\_Japanese-KTCについてはVersion1でメンテナンスが止まり,Legacy状態(最新の基準に適合しない状態)となっている.}.いずれも書き言葉ベースのUDとなっている.%%%%%%%%%%%%%%%%%%%%%T1\begin{table*}[b]\input{03table01.tex}\hangcaption{現在公開・メンテナンスされている現代日本語UDのコーパス.いずれも短単位(無印表記)と長単位(LUW)のものが公開されている.}\label{tab:udst}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%日本語UDでは,過去の日本語言語資源を最大限に利用しつつ,またUDのガイドラインの更新に随時適合させるため,既存の統語情報アノテーションを基にした自動変換ベースによりUDを構築している\cite{asahara2019ud}.従来の日本語の統語情報としては文節間の係り受け,すなわち文節係り受けが代表的なものである.しかし,UDのガイドラインに合わせて,日本語UDは文節ではなく単語(構文的な語,syntacticword)\footnote{\url{https://universaldependencies.org/u/overview/morphology.html}}を基本単位として依存構造を構築する必要があった.この単語単位として,日本語UDではVersion2.2からUniDic\cite{den2007unidic}の語彙項目による単位,すなわち\textbf{国語研短単位(短単位)}を採用している\cite{asahara2019ud}.また,日本語UDでは文節係り受け情報に基づいて,UDの単語間依存構造へと変換している.これまで構築された日本語UDについて簡単に説明する.UD\_Japanese-GSDは日本語のWikipediaから構築された日本語UD\cite{asahara2019ud}である.UD\_Japanese-PUDはWikipediaの対訳コーパスの日本語版になっている.このUD\_Japanese-GSDとPUDはVersion1.4までは海外で開発され,Version2.0からVersion2.5まではIBMグループが整備していたが,現在では国立国語研究所にて整備している.どちらもWikipediaのデータであることから全文データを自由に獲得できる.UD\_Japanese-BCCWJ\cite{omura-asahara-2018-ud}は現代日本語書き言葉均衡コーパス(BCCWJ)\cite{maekawa2014balanced}に基づいた書き言葉のUDである.BCCWJは均衡となるように設計して開発された大規模日本語書き言葉のコーパスである.BCCWJはアノテーションとして,国語研短単位・長単位および文節係り受け構造\cite{asahara2018dep}の情報が提供されている.UD\_Japanese-BCCWJはこのBCCWJから得られた形態論情報と係り受け構造を基に\citeA{omura-asahara-2018-ud}らが提案しているルールによって,UDへと自動変換されたものである.UD\_Japanese-GSDとPUDも同じく\citeA{omura-asahara-2018-ud}のルールによってあらためて変換された.そのため,UD\_Japanese-BCCWJ,GSD,PUDともに同じ統一された枠組みで変換されたUDといえる.さらに\citeA{omura2023}は,GSD,PUD,BCCWJについてそれぞれ\textbf{国語研長単位(長単位)}を単語単位として採用したUD(\tabref{tab:udst}のLUWが該当する)を派生版として構築・公開している.日本語UDの変換ルールは国語研短単位・長単位の形態論情報および文節ベースの依存構造アノテーションに基づいている.CEJCには国語研短単位の形態論情報が提供されている.つまり,CEJCに対し長単位形態論情報と文節係り受け構造が分かれば,話し言葉のUDリソースを開発できるということである.我々の貢献の一部は\udcejc{}構築のための長単位形態論情報と文節係り受け構造の整備を含む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{日本語日常会話コーパス(CEJC)} \label{sec:cejc-dec}日本語日常会話コーパス(CEJC)\cite{koiso-etal-cejc-2023}は,さまざまな場面における自然な日常会話をバランスよく収めた大規模な日本語話し言葉コーパスである.CEJCは(1)日常場面の中で当事者たち自身の動機や目的によって自然に生じる会話を対象とする(2)多様な場面の会話をバランスよく集める(3)音声だけでなく映像まで含めて収録・公開することを特徴としている.話者として延べ1675人が参加しており,577会話,約240万語,200時間分の会話を収録している.これらの音声・映像は,性別・年齢などの観点からバランスを考慮し,個人密着法と特定場面法という手法の両方を用いることで,なるべく過不足のない多様な場面の会話を収録している.世界的にみても,CEJCは充実した自由会話のコーパス\cite{koiso-etal-cejc-2023}といえる.この全体200時間の会話に対し映像・音声データが提供され,転記テキスト,形態論情報(短単位)が提供されている.さらに,音声・映像データに対して時間単位で転記テキストと形態論情報が対応付けされている.CEJCは,音声分析ソフトウェアのPraat\footnote{\url{http://www.praat.org/}},動画・音声アノテーションツールのELAN\footnote{\url{http://tla.mpi.nl/tools/tla-tools/elan/}}や全文検索システムひまわり\footnote{\url{https://csd.ninjal.ac.jp/lrc/index.php?himawari}}といった多様な解析ツールで表示・解析できるようになっている.CEJCにはコアデータという20時間分のサブセットが存在する.コアデータは個人密着法で収録した会話185時間の中から選別されたものである.577会話のうち,52の会話がコアデータに該当し,20時間分の音声・映像データとなっている.コアデータについても同様に映像・音声データ,転記テキスト,短単位形態論情報が付与されており人手修正もおこなわれている.コアデータには,さらに,談話行為情報\cite{Iseki-2019}や韻律情報\cite{koisolabel2020}が追加で付与されている.これらの情報は関係DB\footnote{\url{https://www2.ninjal.ac.jp/conversation/cejc/rdb.html}}によって関連付けもされている.本研究では,\udcejc{}の構築のために,CEJCのコアデータに対し国語研長単位の形態論情報・文節係り受け構造のアノテーションをおこなった.それらのデータを,既存の変換ルールを改変し日本語UDに変換した.つまり,我々は約20時間分の音声ツリーバンクを構築したことになる.以降の節から本研究の貢献部分について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{UD\_Japanese-CEJCの構築} \label{sec:udcejc}日本語UDでは,短単位・長単位の形態論情報および文節係り受けを入力とする変換ルールに基づき,UDへ変換している\cite{omura-asahara-2018-ud}.そのため,我々はCEJCについても,長単位の形態論情報・文節係り受けのアノテーションを付与した.この節では,我々が\udcejc{}を構築するために,新しくアノテーションした長単位形態論情報と文節係り受け構造について説明する.その後,構築手順についても述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{CEJCの国語研長単位・文節係り受けアノテーション}\label{sec:bun-dep}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.1\subsubsection{依存構造の単位}ツリーバンクでは「文」に相当するものを制定したのち,文単位でアノテーションを付与しているものが多く,UD依存構造でも同様に決める必要がある.日本語の書き言葉の場合,たとえば,著者が指定した文末の句点によって「文」,あるいは接続助詞などの文法的な手がかりによって「節」に分割できる.しかし,話し言葉のとくに会話の場合,文末の句点は存在せず,会話中に話者が交代し,言いよどみや相づちなどが挟まることも多い.よって,会話の文単位というのは曖昧である.我々は\udcejc{}の構築のために,書き言葉の文に相当する単位を設定する必要があった.CEJCでは転記テキストに対して「転記単位」「発話単位」という2つの単位を提供している\cite{tenki2018}.転記単位は,発話単位の切れ目,発話単位中の知覚可能な休止,あるいは異なる音種(言語音・単独の笑い・泣き・歌・その他)で分割されたものである.一方,発話単位は転記単位を内包している単位で,\citeA{UULM2017}によって策定された「長い発話単位」に準拠した単位である.長い発話単位は統語的・談話的・相互行為的なまとまりをもった単位であり,話し手と聞き手が行為や情報を交換する際の基本単位として定義されている.CEJCではこの長い発話単位を基にして,他の話し言葉コーパスには含まれない口語表現などに対応しながら,発話単位を制定した.我々はUD依存構造の単位として,統語的なまとまりであるこの\textbf{発話単位}を採用することにした.我々はこの発話単位を1単位として,長単位・係り受け構造情報のアノテーションを付与した.発話単位を超えた係り受け構造は考えない.コアデータに対して52会話,59,319発話分のデータにアノテーションをおこなった.発話単位は会話に多く含まれている相づちや応答,相互行為的境界は1つの単位として認定される\cite{maruyama2015}ため,書き言葉のコーパスと比較すれば短い単位となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.2\subsubsection{長単位形態論・文節情報}我々は,CEJCのコアデータの短単位データに対し,長単位形態論情報を新たにアノテーションした.さらに,文節係り受け情報を付与するために長単位情報とともに文節を付与した.\figref{fig:exp_cejc-suwluw}のように,短単位・長単位・文節はそれぞれ階層関係にあり対応している.また,長単位は短単位の組み合わせであり,文節は長単位の組み合わせで構成されている.%%%%%%%%%%%%%%%%%%%F3\begin{figure*}[b]\begin{center}\includegraphics{32-1ia3f3.eps}\end{center}\hangcaption{短単語・長単語・文節の例(CEJCのT011\_005より引用).簡略化のため,UniDic品詞の分類の一部のみを掲載している.文節の「/」記号は自立語(内容語)と付属語(機能語)の境界を表している.}\label{fig:exp_cejc-suwluw}\end{figure*}%%%%%%%%%%%%%%%%%%%%%短単位は形態的側面に着目して規定した単位であり,基準が分かりやすく,ゆれも少ないという特徴がある.短単位は最小単位という,現代語において意味を持つ最小の単位を高々2単位まで組み合わせて単位認定される.短単位の品詞は「可能性に基づく品詞体系」を採用し,文脈は考慮されていない.見出しや頻度といった統計・収集にふさわしい単位とされている.一方,長単位は文節境界を認定したのちに,各文節の内部を規則に従って自立語部分と付属語部分に分割していくという手順で認定する単位である.長単位は,複合的な機能表現を含めた複合語を構成要素に分割することなく全体で1つとして扱う.長単位の品詞は「用法に基づく品詞体系」として,複合化した結果の単位が文脈内で統語的にどう振る舞うかで品詞を認定する.長単位は文節に基づいて分割された単位であり,日本語における統語の単位とみなすことができる\footnote{国語研短単位・長単位・文節の関係については\url{https://clrd.ninjal.ac.jp/bccwj/morphology.html}や文献\cite{omura2023}も参照されたい.}.\udcejc{}は,この短単位と長単位の単語分割および品詞情報を用いて構築した.CEJCの長単位および文節情報のアノテーションは,長単位・文節解析ツールである{\linebreak}Comainu\footnote{\url{http://comainu.org/}}\cite{kozawa2014comainujp}を用いて解析した.Comainuによる解析では付属のBCCWJによる学習モデルを使用した.また,短単位を入力として解析をおこなっている.その後作業者が手作業で長単位と文節の修正をした.後の工程で,アノテーション・修正した文節を基に文節係り受け情報を付与していった.長単位の単位認定基準は基本的にBCCWJの規程集\cite{ogura:2011:book}に基づいている.しかし,話し言葉に長単位を付与するうえで規程に定義されていない表現が出現した場合,より自然な文節係り受けを表現しやすい単位を認定していった\cite{asahara2022cejcdep}.コアデータすべてに付与した結果,最終的に231,774単語分の長単位と136,071単位分の文節のデータができた.この長単位と文節は,事前にCEJCで付与されていた短単位を内包し対応づいており,それぞれ形態論情報を参照できる.最終的な作業結果を正解としたとき,ComainuによるCEJCの解析精度(すべてF値)は長単位境界は97.81\%,文節境界は94.23\%,長単位の品詞は97.46\%で解析できていた.\citeA{kozawa2014comainujp}らの解析結果F値98--99\%台の結果ほどまではいかずとも,書き言葉のモデルである程度の精度で解析できていたことが分かる.長単位境界の誤りとしては,\figref{fig:luwerr}の左側のような主に発話で生じやすい繰り返し表現が1つの長単位として認定されるものが多かった.また,後述するように,CEJCは書き言葉と比べて「だから」「でも」といった接続詞の表現が多い,\figref{fig:luwerr}の右側のように「から」「で」「も」といった助詞として判定されたものが多かった.Comainuのモデルは書き言葉コーパスであるBCCWJにて学習されているため,そのように出力されたものが多い傾向にあった.%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[b]\begin{center}\includegraphics{32-1ia3f4.eps}\end{center}\hangcaption{作業者による修正結果とComainuと解析の事例.\textbar{}が長単位の区切りであり,FNが区切る必要があるのに区切らなかった箇所,FPが区切らなくてもよいのに区切った箇所を指している.}\label{fig:luwerr}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1.3\subsubsection{文節係り受け情報}\label{sec:cejc-dep}日本語の文節係り受けは,文節間の修飾関係は大抵左から右に係り(strictlyheadfinal),係り関係の交差はほとんど発生しない(non-projective)\cite{matsumotobook2017}とされ,他言語と比べ依存構造解析が容易であるとされている.また,単語(文節)間の依存関係の構造であるUD依存構造と比較的似ており相性も良い.そのため,日本語UDではこの文節係り受けを基準としてUD依存構造に変換している.我々は\udcejc{}を構築するために,CEJCのコアデータに文節係り受け情報を付与した.CEJCの文節係り受けは,BCCWJの文節係り受けデータであるBCCWJ-DepPara\cite{asahara2018dep}の基準に準じた.BCCWJ-DepParaでは,通常の係り受け相当の`D',文境界相当の`Z',係り受けを付与するうえで後続文節と連結する`B',係り先が決められない`F'の4つのラベルを認定している.なお,BCCWJ-DepParaでは並列構造についてもアノテーションが規定されていたが,CEJCに対しては現在のところ並列構造の付与に取り組んでいない.話し言葉と書き言葉との大きな違いは,「あのー」「えーっと」のような言葉に詰まったときなどにでてくる\textbf{フィラー(fillers)}や,「``レン''レントゲン..」の「レン」,「ジュー柔道」の「ジュー」(いずれも会話ID「C001\_001」より)のようなところどころ途切れる際に現れる\textbf{言いよどみ(disfluency)}が話し言葉では頻出するという点である.CEJCの転記テキストにはフィラーは\texttt{F},言いよどみは\texttt{D}\footnote{厳密には,言いよどみの中でも\texttt{D}は語の言いさしと表現されるものである.言いよどみの中でも言い誤りの場合\texttt{W}のラベルが付与されるが,この場合は形態素解析により正規化された語が割り当てられる.}といった風にそれぞれラベルづけされている\cite{tenki2018}.CEJCのような会話では,述語や項の省略などで発話外に対象の語が含まれていたり,あるいは共通認識として対象の語が省略されていたりと,書き言葉以上に係り先の単語が同定できないパターンも多かった.このことからフィラーや言いよどみも厳密には係り先の決まる語とはいえない.そのため,係り先が不定な文節にはラベル`F'を付与し,無理に係り先を決めないという基本方針をとった.たとえば\figref{fig:exp2}では,単語「ショー」という言いよどみがある.単語「ショート」を「ショー」の修復先と考え,係り先を「ショート」とできるが,方針に基づき係り先なしの`F'のラベルを付与している.フィラーの「あの」も同様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F5\begin{figure}[b]{\vskip-13pt}\begin{center}\includegraphics{32-1ia3f5.eps}\end{center}\hangcaption{文節係り受けの例(例はCEJCのC001\_001より).単語を囲う実線枠は文節を表しており,文節からの矢印についている`D'は係り関係であることを示し,`F'はどの文節とも係り関係がないことを示す.}\label{fig:exp2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%このような基準で,CEJCに文節係り受け情報をアノテーションした.前の工程で得られた文節を入力とし,文節係り受け解析器であるCaboCha\cite{cabocha}で係り受けを解析した.その後,BCCWJ-DepParaの基準を参照しながら人手修正する形で,係り受け情報を付与していった.文節係り受けを付与している際,長単位情報と文節情報に齟齬が生じることもあった.その場合,長単位情報を修正し,あらためて文節係り受け情報を付与していった.この齟齬は,フィラーや言いよどみが本来の長単位の中に含まれていたときなどに生じていた.フィラーや言いよどみは基本的に1つの短単位かつ1つの文節として認定している.たとえば,係り受け付与の作業中発話の一部に「店員シさんが」(シは言いよどみ)という例を見つけた.作業前は「店員」「シ」「さん/が」という風に3つの文節に分けられていた.しかし「店員(シ)さん」という1つの長単位と見なしたほうが係り先として正確になるため,「店員/シ/さん/が」という1つの文節に修正した.また,前工程にて短単位の形態論情報自体が誤りだった場合に見直した結果,長単位と文節情報が変更になったケースもあった.ラベルDが付与された文節は127,266文節(全体の約93.5\%),ラベルFが付与された文節は8,559文節(全体の約6.2\%),ラベルZが付与された文節は215文節(全体の約6.2\%)であり,残り36文節は他のラベルが付与された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{UDへの変換}CEJCにアノテーションした長単位と文節係り受け情報を用い\udcejc{}に自動変換をした.UDの変換は\citeA{omura-asahara-2018-ud}で提案された手法を用いた.\citeA{omura-asahara-2018-ud}の手法では,文節係り受けから単純な規則で単語間係り受けに変換のあと,変換規則によりUDの品詞と依存関係ラベルを付与する.変換規則の一部を図\ref{fig:rule-sample}に示す.\citeA{omura-asahara-2018-ud}らの変換規則は短単位と長単位の表層形・語彙素・品詞といった形態論情報とそれらの係り先関係に基づいた対応表である.その対応表を参照し,それぞれの単語についてUDで定義されている品詞UPOS(UniversalPart-of-Speech)と依存構造ラベルDEPREL(DependencyRelationLabel)を決定する.%%%%%%%%%%%%%%%%%%%%%%%%%F6\begin{figure}[t]\begin{center}\includegraphics{32-1ia3f6.eps}\end{center}\hangcaption{UD変換ルールの簡単な例(例文はCEJCのC001\_001より).文節係り受けを図示する場合,修飾語から被修飾語へ矢印を描くが,UDの場合逆であることに注意(矢印関係の意味は同じである.)}\label{fig:rule-sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%これまで,\citeA{omura-asahara-2018-ud}らの変換規則はUD\_Japanese-BCCWJ,UD\_Japanese-GSD,UD\_Japanese-PUDといった書き言葉のUDに用いられてきた.この変換規則はコーパスに依存していない一貫した規則である.ほとんどの場合,この書き言葉UDで用いていた変換規則により変換可能であったため,\udcejc{}でもそのまま採用している.この変換規則によって,UPOSとDEPRELは一意に決まるが,アノテーションの不備や変換規則の衝突などにより,誤りが含まれる可能性はある\footnote{変換プログラムや規則はUDのガイドラインのアップデートごとに適宜修正をおこなっているが,日本語UDでは既存のコーパスに対して一貫性を保持することを重要視しているため\cite{asahara2019ud},変換規則適応後のUDについては人手修正をおこなってない.そのため,細かいところで直せないところも生じている.}.CEJCを一度書き言葉UDの規則にて変換した際,ほとんどの場合,曖昧性無く変換できた.それでも,書き言葉UDによる規則では変換できていない部分があった.そのため,\udcejc{}を構築する際にあらためて規則を追加することで対応をした.それは書き言葉にはあまり含まれていない「フィラー」と「言いよどみ」についての処理である.この2種類の語は,書き言葉UDにはほとんど含まれていない単語である.フィラーや言いよどみを扱うため,\tabref{tab:append-rule}のような変換規則を追加した.CEJCではUniDic品詞を参照することで,フィラー・言いよどみかを判定できる.変換プログラムにより,フィラーにはUPOS「\utag{INTJ}」とDEPREL「\dt{discourse(:filter)}」を付与し,言いよどみにはUPOS「\utag{X}」とDEPREL「\dt{reparandum}」を付与した.それぞれのUPOSとDEPRELはガイドラインに沿ったものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[t]\input{03table02.tex}\hangcaption{\udcejc{}に変換するために追加した規則.その語が「フィラー」「言いよどみ」かどうかはUniDic品詞を元にして判定している.}\label{tab:append-rule}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%UDでは,基本的にフィラーは関連する節\footnote{\dt{discourse}:\url{https://universaldependencies.org/u/dep/discourse.html}},言いよどみは修正後の語に係るように指示されている\footnote{\dt{reparandum}:\url{https://universaldependencies.org/u/dep/reparandum.html}}.中国語UD\_Chinese-HK,フリジア語とオランダ語UD\_Frisian\_Dutch-Fame,トルコ語とドイツ語UD\_Turkish\_German-SAGT,チュクチ語UD\_Chukchi-HSEなどはガイドラインに遵守している\cite{dobrovoljc_2022}.これらのUDはいずれも1,000から2,000文の発話に対して,自動変換ではなく人手作業で構築されたものである.一方,前節(\ref{sec:cejc-dep})で説明したとおり,日本語における文節の係り受けのフィラーや言いよどみの係り先は明白とはいえない.この「関連する節」を基準にした場合,とくに日本語の日常会話において,関連する節も省略されている可能性があるためである\footnote{たとえば,\figref{fig:exp1}の例には「ツ」という言いよどみがある.前後の発話からこの「ツ」の修飾先に該当する単語・節は「作る」であることが判明したが,この発話内に「作る」は明示されていない.このように,会話の流れで聞き手には伝わるために話し手により省略された節が存在する可能性がある.}.また,他言語のUDと比べてUD\_Japanese-CEJCの発話数は59,324発話と量が大きく,すべて確認することは難しい.そのため,文節の係り受けでは係り先なしと設定していた.しかし,UDでは文のrootに相当する語以外はいずれかの語に係らねばならない.そしてかつ,1文につき1つのrootにするという規定があり,複数のrootが認められていない.今回\udcejc{}を構築する際には,係り先なしであったフィラーや言いよどみについてはすべて,UDのrootに相当する語,すなわち文末の文節の内容語へ係るように取り決めた.\figref{fig:exp1}は文節係り受け構造をUD依存構造に変換した例である.\figref{fig:exp1}の例では,それぞれ「ツ」は「言いよどみ」であり,「ん」は「フィラー」となっている.文節係り受けのときは係り先なしとしていたが,UDに変換した際はいずれの単語も文末の文節の内容語である「でき」に係るように変換し直した.この変換規則のため,フィラーと言いよどみについては結果的に交差を認めている形になる.%%%%%%%%%%%%%%%%%%%%%%%%%%F7\begin{figure}[b]\begin{center}\includegraphics{32-1ia3f7.eps}\end{center}\hangcaption{文節係り受けから単語間依存構造(UD)への変換例(発話はT011\_007より).上の図は文節係り受け構造,下図は変換後のUDである.}\label{fig:exp1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{UD\_Japanese-CEJCの概要} 前節までの手順によって,CEJCを基にしたツリーバンク\udcejc{}を構築した.UDのデータはCoNLL形式というタブ区切りベースのデータフォーマットで表現する.\figref{fig:conll_sample}に構築した\udcejc{}のサンプルを示す.発話単位を1文として表記し,1単語1行のタブ区切りで各単語に対してそれぞれの列に表層形・原形・品詞・係り先関係ラベルなどを記述している.各発話にはそれぞれ文のIDが付与されており(\texttt{sent\_id}),IDにはその発話を含む会話IDと発話者IDが含まれている.構築した結果,全部でCEJCのコアデータ52会話分のデータが構築できた.この節では構築した\udcejc{}について説明する.先行研究との比較もかねた\udcejc{}の特徴を挙げ,書き言葉のUDと比較する形で全体の統計量も示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%F8\begin{figure}[b]%%%\begin{center}\resizebox{\textwidth}{!}{%\includegraphics{32-1ia3f8.eps}}%%%%\end{center}\caption{UD\_Japanese-CEJCのCoNLL形式の例(例は会話C001\_001の長単位版からの引用.一部抜粋)}\label{fig:conll_sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{UD\_Japanese-CEJCの特徴}\citeA{dobrovoljc_2022}は,話し言葉UDに対して大きく分けて「会話・話者のメタ情報」「正書法」「発話の分割・重なり」「非言語トークン」の観点で比較をした.\udcejc{}についてもこれらに倣って概要をまとめたものを\tabref{tbl:trans}に示す\footnote{あくまで\tabref{tbl:trans}に挙げている特徴は他言語話し言葉ツリーバンクと比較しやすいように挙げられている.\tabref{tbl:trans}の内容は\udcejc{}だけでなく元のCEJCの特徴ともいえるため,本研究のみの貢献ではないことは注意されたい.本研究によって,UD依存構造と\tabref{tbl:trans}の特徴は互いに参照できるようになった.}.本研究の貢献は,UD依存構造を生成したことにより,CEJCにて提供されているアノテーションの対応関係を提供している点にある.\tabref{tbl:trans}に沿って各特徴の説明をする.%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[t]\input{03table03.tex}\hangcaption{UD\_Japanese-CEJCの特徴リスト:文献\protect\cite{dobrovoljc_2022}のTable2に基づいて挙げたものである.「独自アノテーション」は\protect\cite{dobrovoljc_2022}では挙げられていないCEJCに含まれているものである.}\label{tbl:trans}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{会話・話者のメタ情報}会話ID・話者ID,テキストと音声の対応などはCEJCにて提供されている.そのため\udcejc{}でも容易に参照できる.もともとCEJC自体の会話・話者に関するメタ情報は充実している.会話形式,話者数,会話がおこなわれた場所,会話中の活動,話者間の関係性,年齢(5歳刻み),性別,出身地,居住地,職業,協力者からみた関係性(個人密着法のみ)などが提供されている.\udcejc{}でも\figref{fig:conll_sample}の\texttt{sent\_id}により会話と話者のIDを提供しているため,参照は容易である.言語変種(Languagevariety)については,CEJCでは性別・年齢などの観点からバランスを考慮されているものの,方言話者は含まれておらず基本的に関東近県在住のみである.%%%%%\paragraph{正書法}CEJCの発話転記テキストはテキストで表現できる範囲により転記し,原則として漢字仮名交じりで表記されている.転記テキストの中には「転記タグ」なども含まれており,コアデータについては「時間」「発話の重なり」「音調」情報も含まれている\cite{tenki2018}.それら表記を除いたものを\udcejc{}の表層形(UDの2列目)として記載している.発音情報も転記作業の際に形態素解析したうえで,「発音形」として提供されている.他言語のUDでは音声自体も提供されていることが少なく,対応する音声も提供できる点で\udcejc{}は優位性があるといえる.なお,日本語にはアルファベットのような大文字と小文字の区別がない.すなわちCapitalizationの慣習がないため,適応外としている.%%%%%%\paragraph{発話の分割・重なり}音声の重なりはCEJCの転記情報として含まれており,音声の開始・終了時間と単語の対応により参照できる.他の言語のUDの違いとして,いくつかの話し言葉UDには表記されている句読点がない\footnote{厳密には,転記データには発話の境界を表現する「。」が含まれているのだが,入力データである短単位情報データおよび係り受けデータには含まれていないため\udcejc{}にも含まれていない.かつ実際には書き言葉と異なり表記されているものではないのは自明であろう.また,同様に読点は含まれていない.}.UD\_Frisian\_Dutch-Fame\cite{braggaar2021code}は同じように句読点を用いていないUDであるが,多くの話し言葉UDでは句読点の記法が採用されている.たとえば,UD\_Norwegian-NynorskLIA\cite{caron2019}などは,発話の終了を「.」で,ポーズ部分を「\#」という記号にて句読点表記している.一方で,\udcejc{}では,\figref{fig:conll_sample}や他の例でも分かるとおり,そのように表現はしていない.句読点の有無は,後述のUD依存構造解析の実験でも影響のある点(\ref{sec:dep_parse}節参照)と考えられるが,発話の区切りというのは現実問題として自明に分かるところではない.%%%%%\paragraph{非言語トークン}\citeA{dobrovoljc_2022}の挙げた非言語トークンには「Incompletewords」「フィラー」「無声休止」「Incidents」があるが,いずれもCEJCの転記テキストから抽出可能である.とくにCEJCでは「笑い」「泣き」「歌」などにもタグが付与されている.この非言語トークンも短単位の形態論情報に含まれているため,\udcejc{}から参照できる.%%%%%\paragraph{独自アノテーション}CEJCの大きな特徴の1つは,音声データのみではなく,映像データも提供されていることである.CEJCでは音声・映像の時間に基づいて映像・音声と単語が互いにアライメントされているため,\udcejc{}のUD依存構造と映像との対応も取ることができる.CEJCのコアデータに含まれているアノテーションとして,ISO-24617に従った談話行為アノテーション\cite{Iseki-2019}も含まれている.さらに,コアデータの一部には韻律情報であるイントネーションラベルX-JToBI(eXtended-JapaneseToBI)\cite{maekawa2001}の簡易版が付与されている\cite{koisolabel2020}.本研究の貢献は,これらの充実したCEJCのアノテーションに対し,UD依存構造とのアライメントを実現しているところといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{UD\_Japanese-CEJCの統計量}\udcejc{}と書き言葉UDであるUD\_Japanese-GSDとUD\_Japanese-BCCWJの統計量を\tabref{tab:stat}に示す.この統計量はVersion2.11のものである.「文(発話)」はUDの文(発話)数,「単語数」は各UDの単語総数,「平均語数/文」は1文(発話)に対する単語数の平均,「文節数」は文節の総数を表す.\udcejc{}の59,319発話という量は,先行研究の話し言葉UDで最大規模である\citeA{yaari_aligned_2022}のAlignedMultimodalMovieTreebank(31,264発話)や\citeA{liu2023}の幼児と親の会話データUD(44,744発話)と比較しても大きいものとなっている.%%%%%%%%%%%%%%%%%%%%T4\begin{table*}[t]\input{03table04.tex}\hangcaption{日本語UDの統計分布.文数と文節数は短単位でも長単位でも同じ数値となるため省略している.UD\_Japanese-CEJC--は,UniDic品詞においてフィラー・言いよどみ・形態論情報付与対象外となるものを除いた統計となる.}\label{tab:stat}{\vskip-8pt}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:stat}の「平均語数/文」列で分かるとおり,\udcejc{}の1発話における発話の長さは4.3単語(3.9単語)と書き言葉のUDより短い傾向にある.これは\citeA{liu2023}の幼児と親の会話データUD(5.2単語)や,UD\_Chukchi-HSE(5.4単語)\cite{tyers2020}といった他の話し言葉UDと比較しても短いものとなっている.CEJCは会話コーパスであるため「はい」や「えー」などの相づちが多く含まれている(\figref{fig:conll_sample}なども参照).発話単位の規定に合わせると相づちのみで1発話となる.他のUDではCEJCと比べても話者交替はほとんどなく,そのため,他のUDコーパスと比較すると会話コーパスを基にした\udcejc{}は平均語数が短くなってしまう.\tabref{tab:upos}にUD\_Japanese-CEJC,GSD,BCCWJのそれぞれのUPOSラベルの分布を示す.短単位と長単位で分布は大きく変化しないため,短単位のみを掲載している.\udcejc{}では句読点や記号は含まれていないため\utag{PUNCT}も含まれていない.また,\utag{CCONJ}(主に接続詞),\utag{INTJ}(主にフィラー)が書き言葉コーパスより割合が大きい.\texttt{PRON}(主に代名詞)は書き言葉では記述することのあまり多くないのに対し,会話では話者を参照するときに\texttt{PRON}を述べることが多いため割合を多くしている.また書き言葉に比べると,話し言葉では\utag{PART}が多く頻出するが,これは発話中に頻出する「か」「よ」「よね」といった終助詞が含まれているためである.\texttt{X}は,CEJCにおいては言いよどみあるいは笑う,泣く,歌うなどのような形態素注釈のない単語\footnote{これらの語はUniDic品詞が付与されない「形態論情報付与対象外」とされる.}に付与される.%%%%%%%%%%%%%%%%%%T5\begin{table}[t]\input{03table05.tex}\caption{UD\_Japanese-CEJC,GSD,BCCWJにおけるUPOSラベルの分布(いずれも短単位)}\label{tab:upos}{\vskip-2pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[t]\input{03table06.tex}\caption{UD\_Japanese-CEJC,GSD,BCCWJにおけるDEPRELラベルの分布(いずれも短単位)}\label{tab:deprel}{\vskip-4pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:deprel}にそれぞれの\udcejc{},GSD,BCCWJのDEPRELラベルの分布を示す.書き言葉に比べると,CEJCはフィラーと言いよどみに相当する\dt{discourse}と\dt{reparandum}が多い.\texttt{PUNCT}は前述のとおり,CEJCには出現しないので,DEPRELの\dt{punct}は0となる.また前述のとおり,CEJCには終助詞が多く含まれるため\dt{mark}ラベルも多く含まれている.話し言葉は書き言葉に比べると,名詞の割合が少ない.これは\tabref{tab:upos}の\utag{NOUN}の割合が少ないことから分かる.同時に複合名詞も少なくなるため\dt{compound}は少なくなる.この名詞の割合が少ないことにより,格助詞に相当する\utag{ADP}や\dt{case}も少なくなる.また,話し言葉とくに会話においては,格助詞自体も省略されるため割合が少なくなっている.書き言葉UDと比べると\udcejc{}の発話単位は短いため(\tabref{tab:stat}参照),全体の依存関係の割合が少なくなる.その結果,DEPRELの\dt{root}は\udcejc{}の中でも大きな割合を占めている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{事例:日本語の話し言葉・書き言葉のUD依存構造解析の評価} \label{sec:dep_parse}\udcejc{}の応用実例として,話し言葉と書き言葉のUDに基づいたUD構造解析実験をしたのでこれを報告する.話し言葉と書き言葉のUDの解析結果を通して,話し言葉UDの特性を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1\subsection{使用コーパス}UD依存構造解析の評価データとして日本語UD(v.2.11)\footnote{2025年3月現在,Version2.15が最新版となるが,日本語UDの場合,Version2.11からVersion2.15の間でのガイドライン変更の影響はほとんど,最新のUDのガイドラインに準拠している.}を用いた.対象として,書き言葉UDであるUD\_Japanese-GSDと話し言葉UDであるUD\_Japanese-CEJCおよびそれらの組み合わせたUD(GSD+CEJC)を使用する.短単位と長単位のUDが存在するが,今回はフィラー・言いよどみといった主に話し言葉の短単位に現れる言語現象へ焦点を当てるため,短単位UDのみを利用した.GSDは公開されているデータで指定されている分割(訓練・開発・テスト)をそのまま使用した.UD\_Japanese-CEJCはあらためて,CEJCが提供する会話形式(雑談,相談,会議)に基づき,8:1:1の比率で訓練・開発・テストに分割した\footnote{具体的な一覧は\url{https://github.com/udjapanese/UD_Japanese-CEJCSUW/blob/main/core_sp_info.tsv}を参照.}.それぞれのUDについて訓練・開発・テストと分けたときのUDの分布を\tabref{tab:train-data-dist}に示す.UD\_Japanese-GSD+CEJCは,UD\_Japanese-GSDとCEJCをすべて合算したものであり,UD\_Japanese-GSD+CEJC(同数)は,UD\_Japanese-GSDとUD\_Japanese-CEJCをおおよそ半分かつ,UD\_Japanese-CEJCと単語数がほぼ同数となるようにしたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[b]\input{03table07.tex}\caption{評価に用いたUDデータの分布}\label{tab:train-data-dist}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:stat}の「平均語数/文」からわかるように,発話単位と書き言葉の文は明らかに長さが異なる.また予備実験したところ,発話単位の境界の検出精度が6割程度と著しく低かった.CEJCにおける発話単位は話者交替,非言語音(笑い・息・咳など)や休止時間などを考慮して境界を決めている\cite{UULM2017}\footnote{この予備実験の結果はspaCyに内蔵されている文境界検出機能を使ったものである.表層文字列を入力とし,話者情報や時間情報を考慮して検出していないため,参考程度の数値とする.たとえば「車積めんの{\textbar}\underline{ほんとに}」と発話を区切れなかったり,逆に「これほんとに{\textbar}\underline{ほんとに}」を2つの発話に区切ってしまう(T005\_006より)などの誤りがあったが,これらの違いを表層文字列から区別して分割するのは難しいだろう.}.本実験では非言語情報をほぼ含まない書き言葉と話し言葉との比較実験に焦点を当てるため,発話単位の境界解析はおこなわず,発話単位(文単位)は与えられているものとした.過去の研究においても節境界の検出は課題となっており(たとえば\citeA{hamabe2009}の研究では節境界の正答率が解析に影響があることを示している),発話単位の検出は今後の課題といえるだろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2\subsection{UD依存構造解析モデル}UD依存構造解析モデルのフレームワークとして,自然言語処理ライブラリであるspaCy\footnote{spaCyv3.4.3\url{https://github.com/explosion/spaCy/releases/tag/v3.4.3}を使用}を使用した.spaCyは文解析のために単語分割,品詞タグ付け,依存構造解析,エンティティ抽出といったコンポーネントを提供している.そして,それぞれのコンポーネントについてパイプラインの形でモデルを学習できる.spaCyはspacy-transformers\footnote{spacy-transformersv1.1.8\url{https://github.com/explosion/spacy-transformers/releases/tag/v1.1.8}を使用}というライブラリを使うことで,解析コンポーネントとの間で損失勾配を共有しながら学習できる.spacy-transformersでベースにする事前学習モデルとして,日本語BERTモデルであるcl-tohoku/bert-japanese\footnote{\url{https://github.com/cl-tohoku/bert-japanese/}}を使用した.\udcejc{}と他の書き言葉UDとの大きな違いとして,フィラーや言いよどみの有無が考えられる.この違いを考慮するために我々は\textbf{二段階解析モデル}と\textbf{同時解析モデル}と2つのモデルを提案する.\figref{fig:spacy-model}に2つのモデルの概略を示す.いずれもspaCyの解析コンポーネントを組み合わせたモデルであり,品詞情報付与(morphologizer)・依存構造解析(parser)・エンティティ抽出器(ner)のコンポーネントを用いて実装したものである.morphologizerでは形態素解析で得た\footnote{spaCy日本語モデルではtokenizerで形態素解析をおこなっている.形態素解析にSudachiPy,形態素解析辞書としてSudachiDictcoremodeAが用いられている.}単語分割・UniDic形態論情報からUPOSの付与をおこない,parserでは係り関係の決定とDEPRELラベルを付与した.また,nerではフィラー・言いよどみのスパンを判定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%F9\begin{figure*}[t]\begin{center}\includegraphics{32-1ia3f9.eps}\end{center}\caption{UD依存構造解析で用いた二段階解析モデルと同時解析モデル}\label{fig:spacy-model}\end{figure*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{二段階解析モデル}フィラー・言いよどみを除去したうえで,品詞情報付与と依存構造解析をする二段階のモデルである.フィラー・言いよどみをチャンキング問題として検出する\citeA{asahara03sspr}の手法にならい,フィラー・言いよどみのスパンをnerで学習しモデルを構築する.フィラー・言いよどみ抽出器nerにより該当スパンを入力テキストから除去したうえで,さらに品詞情報付与(morphologizer)・依存構造解析(parser)を別のパイプラインで処理し,UDを出力した.%%%%%%\paragraph{同時解析モデル}フィラー・言いよどみを含めて入力からUD依存構造の出力を一度に処理するモデルである.単一のspaCyパイプライン上にspacy-transformers・morphologizer・parser・nerの順にコンポーネントを配置し,すべての解析コンポーネントについてマルチタスクで同時学習をおこなう.この連結した1つのモデルにより一度にUDを出力した.nerとparserはどちらもTransition-based\footnote{\url{https://github.com/explosion/spaCy/blob/master/spacy/ml/models/parser.py}}の解析器である.ただし,parserについてはNon-MonotonicArc-EagerTransitionSystem\cite{honnibal2015animpoved}をベースとしている.さらに,parserは交差文脈を扱うために\citeA{nivre-nilsson-2005-pseudo}のLiftingによるProjectivization/Deprojectivizationの拡張が施されている.そのため,フィラー・言いよどみからrootへの係り先が周辺文脈と交差する場合にも対応できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3\subsection{UD依存構造解析モデルの結果と考察}前の節で説明した書き言葉UDと話し言葉UDおよび2つの解析モデル「二段階解析モデル」「同時解析モデル」によって得られた解析結果に対し,評価と比較をした.\tabref{tab:results-summary}に評価結果を示す.評価にはCoNLL2018SharedTaskにて使用された評価スクリプト\footnote{\url{https://universaldependencies.org/conll18/evaluation.html}}を用いた.\textbf{Tokens}が単語分割,\textbf{UPOS}がUPOS,\textbf{XPOS}がUniDic品詞,\textbf{Lemma\textbf{s}}が表層形の一致率を示しており,それぞれF$_1$値で表している.また,依存構造解析結果の評価指標として\textbf{UAS}(UnlabeledAttachmentScore),\textbf{LAS}(LabelledAttachmentScore)という構文解析の一般的な評価指標を用いた.UASは係り先が一致しているかを測る指標であり,LASは係り先かつ関係ラベル(DEPREL)が一致しているときの一致率を測る指標である.なお,二段階解析モデルにおけるUD依存構造解析の評価では,比較のため正解ラベルに基づいてフィラー・言いよどみを除去したUD\_Japanese-CEJC--(\tabref{tab:stat}記載)を入力として用いたものを掲載している.つまり,UD\_Japanese-CEJC--は1段階目のnerの処理はおこなっていない.また,UD\_Japanese-GSDにはフィラー・言いよどみが全体で1単語しか含まれておらず,二段階モデルの1段階目の工程はほぼ影響のないことが分かるため,二段階モデルにおけるUD\_Japanese-GSDの結果は省略している.以降,今回取り組んだ実験でのモデルとデータセットの組み合わせの範囲内での結果について考察していく.%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table*}[t]\input{03table08.tex}\hangcaption{CEJC,GSDおよびGSD+CEJCを学習コーパスとして使用したUD依存構造解析の結果(UD\_Japanese-は省略している.)}\label{tab:results-summary}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3.1\subsubsection{二段階モデルとフィラーや言いよどみによる影響}\tabref{tab:results-summary}より,UD\_Japanese-CEJCからフィラーや言いよどみを取り除いて学習した二段階解析モデル(訓練/開発とテストが両方CEJC--の行)の全体のF$_1$値が,他のモデルでCEJCのテスト評価した中で,最もよい結果となることが分かった.フィラーや言いよどみを自動抽出したモデル(二段階モデルのCEJC)で評価した場合,主に単語分割の精度が落ちてしまい1ポイントほどの精度の低下が見られた.しかし,二段階モデルにてある程度フィラー・言いよどみらしいものを除去したことで95.77\%と,同時解析モデルの結果である95.55\%よりは多少精度が良いことが分かった.このことから,フィラーと言いよどみがノイズとなっていることが伺える.この結果を踏まえ,今回のモデルにおいて,フィラーや言いよどみがどの程度検出できるか抽出精度を確認した.フィラーおよび言いよどみの解析結果を\tabref{tab:filler-reparandum-results}に示す.二段階解析モデルはnerからの出力の正解率を,同時解析モデルは出力したUDから言いよどみ・フィラーを抽出したうえでの正解率を求めている.\tabref{tab:filler-reparandum-results}から分かるとおり,同時解析モデルは二段階解析モデルよりもわずかに抽出精度が高い.これは,形態素解析や構文解析とフィラー・言いよどみ判定を同時に学習することによる効果と考えられる.ただし,全体で評価した場合(\tabref{tab:results-summary}のTokens列)と比べて,フィラーや言いよどみのみの単語分割精度はどちらのモデルも6ポイント以上低下している.また,同時解析モデルの品詞付与と構文解析精度においても,単語分割で精度を落とした分に相当する低下が見られる.実際,フィラーと言いよどみの検出は難しい.たとえば,「あの」「その」といった語のフィラー(\utag{INTJ})と連体詞(\utag{DET})の区別は形態素解析では難しい\cite{tenki2018}とされているが,本実験でも,同時解析モデルの結果で83件の間違いがある(後節で説明する\tabref{tab:err-cnt1}を参照)ことが分かった.%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table*}[t]\input{03table09.tex}\caption{フィラーおよび言いよどみの依存構造解析結果.}\label{tab:filler-reparandum-results}\end{table*}%%%%%%%%%%%%%%%%%%%%%%%%%理想的には,フィラーや言いよどみという文法的ノイズを除去し解析できれば話し言葉の依存構造解析は精度の高い結果を実現できるといえる.しかし,同時解析モデルのように互いの解析結果を参照しながら解析するほうがフィラーや言いよどみの抽出精度が良く,トレードオフの関係にあるともいえる.過去の研究でも,たとえば\citeA{uchimotoDependencystructureAnnotationCorpus2006}の研究のように,独話コーパスにて発話特有の現象を検出し,その情報を利用して依存構造解析の精度を向上させたと報告がある.会話の依存構造解析においてもフィラーや言いよどみといった現象への対応が課題といえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3.2\subsubsection{同時解析モデルと書き言葉・話し言葉データについての影響}また\tabref{tab:results-summary}のうち,同時解析モデルの実験結果内で比較すると,訓練データとテストデータが異なる場合(訓練/開発:GSD・テスト:CEJC,訓練/開発:CEJC・テスト:GSD),単語分割(\textbf{Tokens})と品詞タグ付け(\textbf{UPOS}と\textbf{XPOS})の精度が低くなっていることが分かった.これは書き言葉と話し言葉でUPOSとDEPRELの分布に違いがあるためと考えられる.たとえば,CEJCの主な品詞は\utag{INTJ}(感動詞),\utag{CCONJ}(接続詞),\utag{PRON}(代名詞)であるが,とくに\utag{INTJ}という品詞はGSDではまれであることはUDの統計量(\tabref{tab:upos})からも分かる.逆に,書き言葉には\utag{PUNCT}(句読点)が含まれているが,CEJCには含まれていないため誤りが多くなってしまう.依存構造解析結果についても訓練データとテストデータが異なる場合,精度の著しい低下が見られた.これも\tabref{tab:deprel}から見られるようにDEPRELの分布の違いが影響あるといえる.とくに,話し言葉にはフィラーの\dt{discourse}や言いよどみの\dt{reparandum}が含まれており,逆に句読点を表す\dt{punct}は含まれていない.GSDの書き言葉の依存構造解析においては,句読点が節末や文末を表すことで長距離の依存関係の曖昧性解消に有効と考えられる.しかし,CEJCにおいてはその手掛かりがないため,書き言葉のみのモデルでは解析精度が落ちてしまう可能性がある.話し言葉と書き言葉それぞれに違いがある一方で,\tabref{tab:results-summary}よりGSD+CEJCの両方のデータを訓練データに用いた同時解析モデルがもっとも性能の良いことが分かった.また,GSD+CEJCのデータ量をCEJCと同一にして学習したモデル(\tabref{tab:results-summary}のGSD+CEJC(同数)の行)も,単語分割の精度がわずかに落ちたものの,GSD+CEJCすべてを使用したものと大差ない結果となった.これは両方のデータを用いることで,書き言葉と話し言葉両方の語彙分布や依存構造関係を考慮したモデルを構築できたためと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3.3\subsubsection{発話の依存構造解析結果の誤り傾向とその事例}会話における発話の依存構造についての解析傾向をみるため,CEJCの同時解析モデルを用いてCEJCテストデータで出力した結果について誤り傾向を確認した.\tabref{tab:err-scnt1}に単語分割の誤り頻度を示す.さらに,表\ref{tab:err-cnt1}はUPOSとDEPRELの予測先の誤り頻度を示す.表\ref{tab:err-cnt1}は単語分割が正しく単語境界自体は一致しているものの頻度である.さらに\tabref{tab:err-ex}に誤り例を一部挙げている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[b]\input{03table10.tex}\hangcaption{単語分割(\textbf{Tokens})誤りの頻度上位10件.単語分割が誤っていた単語に含まれるUPOSの頻度を掲載している.}\label{tab:err-scnt1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[t]\input{03table11.tex}\hangcaption{解析の予測誤り頻度上位10件.正解の単語分割の単語正解ラベルに対し予測ラベルが間違っていたものの頻度を挙げている.}\label{tab:err-cnt1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table}[t]%%%%%\begin{center}\resizebox{\textwidth}{!}{%\includegraphics{32-1ia3t12.eps}}%%%%%%\end{center}\hangcaption{誤りの例.灰色の枠に囲まわているところが誤り箇所.発話の一部の場合前後に...で略していることを示す.}\label{tab:err-ex}\end{table}%%%%%%%%%%%%%%%%%%%\tabref{tab:err-scnt1}のとおり,誤り頻度上位にある名詞\utag{NOUN},固有名詞\utag{PROPN},感動詞フィラーの\utag{INTJ}や副詞\utag{ADV}の単語分割が難しい傾向にあった.名詞\utag{NOUN}や動詞\utag{VERB}は複合語になると\tabref{tab:err-ex}の例(1)(2)のように分割誤りが多くなっている.また格助詞相当の\utag{ADP}は他の単語分割がずれると付属語もともにずれるため誤り頻度が多くなっている(たとえば\tabref{tab:err-ex}の例(3)(4)(5)).\utag{PRON}も「なん/か」「なん/て」などの指示代名詞\utag{PRON}の「なん(何)」を表す語が発話には多く頻出するものの,一方で\tabref{tab:err-ex}の例(5)のように格助詞\utag{ADP}「なんか」「なんて」と1つの語として推測されてしまい誤りが多くなることが分かった.CEJCの転記テキストは転記時にはあまり正規化せず,形態素解析によって表記ぶれを吸収する方針\cite{tenki2018}である.そのためか,\tabref{tab:err-ex}の例(3)(4)(5)(6)のようにひらがな表記が連続しやすい.ひらがな表記が続くほど,単語分割の判断は曖昧となり誤りが増える傾向にあった.転記テキストを解析する際,文字種からの推測が書き言葉よりも困難になっているといえる.表\ref{tab:err-cnt1}をみると,UPOSの誤り傾向として,名詞\texttt{NOUN}$\leftrightarrow$固有名詞\texttt{PROPN},助動詞\texttt{AUX}$\leftrightarrow$助詞\texttt{ADP}あるいは連体詞\utag{DET}$\leftrightarrow$感動詞フィラー\utag{INTJ}などどうしの誤りが多かった.表\ref{tab:err-cnt1}の上位をみると,互いの正解ラベルで予測し間違っている傾向にあることが分かる.たとえば,\tabref{tab:err-ex}の例(7)や例(8)のように末尾に「で」あるから助動詞\utag{AUX}であるとはいえず,格助詞\utag{ADP}の可能性もある.この傾向から,会話中の品詞は曖昧であることが伺える.また表\ref{tab:err-cnt1}の誤り頻度から\dt{obl}(述語の格相当),\dt{nmod}(名詞の修飾)や\dt{advcl}(述語の修飾)の区別は難しいことが分かった.\dt{obl}は述語の要素を表し,述部に係ることが期待されている.しかし,\tabref{tab:err-ex}の例(9)のような例では,助詞が抜けていることもあり,「寄付」という名詞が述部の動詞「いただく」が修飾しているのか,「寄付する」という述語を補助動詞「いただく」が修飾している(\dt{aux})のかの判断しづらくなっている.話し言葉では助詞のような語が省略されているものが多く,発話単独での手がかりが少ないという点で書き言葉より判別が難しい.また,\tabref{tab:err-ex}の例(7)(8)のように\dt{case}と\dt{cop}の誤りは発話や節の末尾に相当する箇所で誤っていることが多かった.節なのか項なのかの区別をすれば適切にDEPRELを付与できると考えられるが,発話単体のみでは述部が省略されることも多いため判別は難しい.\tabref{tab:err-ex}の(4)「はせちゃん」という人名や(10)「きゅうきゅう」という表現の語は訓練データに含まれていれば解析できると考えられるが,含まれず解析が困難となる可能性がある.しかし,固有名詞(\utag{PROPN})であることや述語を修飾(\dt{advcl})する擬音語であることは対話中の前後の文脈で判別できることが分かった.対話の文脈が分かれば,省略された項の予測もでき,\tabref{tab:err-ex}の例(7)(8)(9)の問題も解決できる可能性がある.使用したモデルであるspacy-transformersのTransformersにより文全体の構造や意味を捉えている可能性はある.一方で,発話間の関係,すなわち対話自体の文脈を判断しているとはいいがたい.本実験では取り組めていないものの,実際には音声や非言語情報などを取り入れ,発話間を超えた意味解析や文脈解析を利用することで,前述した曖昧な語彙や省略表現に対しより良い解析結果になると考えられる.UD\_Japanese-CEJCでは音声や映像の情報を獲得することが実現できるため,将来的にはマルチモーダルな言語解析の実現も期待できるだろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7 \section{おわりに} 本論文では,日本語日常会話コーパス(CEJC)を基にした新しい話し言葉ツリーバンク\udcejc{}の構築手法およびその特徴を紹介した.\udcejc{}は音声・映像と統語情報がアライメントされた大規模な話し言葉ツリーバンクであり,過去の研究と比較しても,既存の話し言葉UDの規模を凌駕していることを示した.さらに,\udcejc{}と既存の書き言葉UDを用いたUD依存構造解析をした.二段階・同時解析モデルという2種類のモデルと,書き言葉・話し言葉のデータセットを用いて分析をおこなった.話し言葉独自の特徴として,フィラーや言いよどみの存在が構文解析の精度に影響を及ぼしていることが分かった.また,解析結果を基に書き言葉と話し言葉のUDの違いがあることを示しつつも,書き言葉のデータを加えることで話し言葉を精度よく解析できることも分かった.現在,\udcejc{}(Version2.11)および\udcejc{}を構築するのに用いた長単位形態論情報・係り受けアノテーションデータが国立国語研究所により有償版CEJC契約者向けに「中納言」のダウンロードサイトを通して配布されている\footnote{長単位形態論情報・係り受けアノテーション自体のライセンスはCCBY4.0だが,表層形・短単位形態論情報の利用には有償版CEJCの契約が必要である.}.さらに,GitHubリポジトリ\footnote{\leftline{短単位:\url{https://github.com/udjapanese/UD_Japanese-CEJCSUW}}{\linebreak}長単位:\url{https://github.com/udjapanese/UD_Japanese-CEJCLUW}}にも\udcejc{}から表層形・短単位形態論情報を除いたものを公開している.また,実験に使用したspaCyモデルである同時解析モデルも公開\footnote{\url{https://github.com/megagonlabs/UD_Japanese-GSD/releases/tag/nlp2023}}しており,実際に話し言葉のUD依存構造解析ができる.将来的には,主に音声情報や映像に基づくアノテーションを拡張する予定である.たとえば,UD\_France-Rhapsodie\cite{kahane2021}で使われているようなオーバーラップマーカー(\texttt{Overlap})などを取り入れることなど検討している.CEJCでは,それぞれの形態論情報に対する時間情報もマッピングされているため実現可能である.また,音声や映像情報を取り入れた応用解析にも取り組みたいと考えている.これまではCSJのような独話ベースでの統語解析\cite{uchimotoDependencystructureAnnotationCorpus2006}は取り組まれていたものの,自由会話という形式での日本語ツリーバンク解析はあまり取り組まれていなかった.\udcejc{}は統語解析の研究の中でも重要な資源といえよう.我々の構築した言語資源が日本語話し言葉や会話分析といった関連研究の発展にさらに貢献することを期待している.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,株式会社リクルート・国立国語研究所共同研究「日本語版UniversalDependenciesに基づく日本語依存構造解析モデルの研究開発」,国立国語研究所共同研究プロジェクト「実証的な理論・対照言語学の推進:アノテーションデータを用いた実証的計算心理言語学」,JSPS科研費JP19K13195,JP22H00663,JP22K18483の助成を受けたものです.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{03refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大村舞}{%国立国語研究所言語資源開発センタープロジェクト非常勤研究員.}\bioauthor{若狭絢}{%東北大学データ駆動科学・AI教育研究センター学術研究員.}\bioauthor{松田寛}{%株式会社リクルートMegagonLabs,ChiefResearchScientist.}\bioauthor{浅原正幸}{%国立国語研究所・総合研究大学院大学教授.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V24N05-03
\section{はじめに} 日本語は比較的語順が自由な言語であるとされるが,多くの研究において日本語にも基本語順が存在していることが示唆されている\cite{Mazuka2002,Tamaoka2005}.しかし,どの語順を基本語順とみなすかについては意見が分かれる場合があり,二重目的語構文についても,二つの目的語の基本語順に関し多くの説が提案されている.具体的な争点としては,二重目的語構文の基本語順は「がにを」である\cite{Hoji1985}か,「がにを」と「がをに」の両方である\cite{Miyagawa1997}かや,後者の立場の類型として基本語順は動詞の種類に関係するという説\cite{Matsuoka2003}や,ニ格の意味役割や有生性が関わっているとする説\cite{Miyagawa2004,Ito2007}などが存在している.また,これらの研究の分析方法に関しても,理論研究\cite{Hoji1985,Miyagawa2004}に加え,心理実験\cite{Koizumi2004,Nakamoto2006,Shigenaga2014}や脳科学\cite{Koso2004,Inubushi2009d}に基づく実証的研究など,多くの側面からの分析が行われている.しかし,これらの分析手法はいずれも分析の対象とした各用例について人手による分析や脳波等の計測が必要となるため,分析対象とした用例については信頼度の高い分析を行うことができるものの,新たな用例に対し分析を行う場合には改めてデータを収集する必要があり,多くの仮説の網羅的な検証には不向きである.一方,各語順が実際にどのような割合で出現するかの傾向は,コーパスから大規模に収集することが可能である.コーパス中の個別の事例から,それが基本語順なのか,かき混ぜ語順なのかを自動的に判定するのは容易でないものの,大規模に収集した用例において多数を占める語順であるならば,その語順が基本語順である可能性が高いと考えられる.たとえば,(\ref{EX::Kanjiru})に示すように\footnote{(\ref{EX::Kanjiru}),(\ref{EX::Sasou})に示した用例数は本研究で収集した各語順の用例数を表している.具体的な収集手順は\ref{SEC::CollectExamples}節で説明する.},動詞が「感じる」,ニ格要素が「言葉」,ヲ格要素が「愛情」の場合,「にを」語順が97.5\%を占めていることから,この動詞と格要素の組み合わせの場合,「にを」語順が基本語順であると考えられる.一方,(\ref{EX::Sasou})に示すように,動詞が「誘う」,ニ格要素が「デート」,ヲ格要素が「女性」である場合は,「をに」語順が99.6\%を占めており,この語順が基本語順であると考えられる.\ex{{\bfにを}:言葉に愛情を感じる。[用例数:118(97.5\%)]\label{EX::Kanjiru}\\&{\bfをに}:愛情を言葉に感じる。[用例数:3(2.5\%)]}\vspace{-2ex}\ex{{\bfにを}:デートに女性を誘う。[用例数:4(0.4\%)]\label{EX::Sasou}\\&{\bfをに}:女性をデートに誘う。[用例数:923(99.6\%)]}そこで本研究では,二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとの仮定に基づき,100億文を超える大規模コーパスから収集した用例を用いた日本語二重目的語構文の基本語順に関する各種の仮説の検証を行う.日本語二重目的語構文の基本語順を解明することができれば,日本語二重目的語構文の統語構造や言語理解プロセスの解明における重要な手掛りとなることが期待できる.本研究で行う大規模コーパスに基づく分析は,コーパス中で多数を占める語順が基本語順と同じであるとは限らないことから,基本語順の解明に直結するとは言えないものの,心理実験や脳科学等などのよりコストの掛かる検証を行う前段階の検証として有用であると考えられる. \section{日本語二重目的語構文と語順} 二重目的語構文とは,(\ref{EX::Shashin})に示す各文における「次郎」と「写真」のように,典型的にはニ格とヲ格で表される2つの目的語を取る構文である.これらの格はそれぞれの与格(dative,\texttt{DAT}),対格(accusative,\texttt{ACC})を表す.また,ガ格(主格)項も含めて3つの項を取ることから三項動詞文とも呼ばれる.(\ref{EX::Shashin})に示すa〜fの6つの文は語順は異なるものの,本質的には同じ事象を表している.\ex{a:太郎が次郎に写真を見せた。\label{EX::Shashin}\\&b\hspace{0.05em}:太郎が写真を次郎に見せた。\\&c\hspace{0.15em}:次郎に太郎が写真を見せた。\\&d\hspace{0.10em}:次郎に写真を太郎が見せた。\\&e\hspace{0.20em}:写真を太郎が次郎に見せた。\\&f\hspace{0.40em}:写真を次郎に太郎が見せた。}二重目的語構文の基本語順に関しては多くの研究が行われている.これらの研究の主張は大きく3つに分けることができる\cite{Koizumi2004}.1つ目は,いかなる場合であっても基本語順は(\ref{EX::Shashin})-aのように「がにを」語順であるという説\cite{Hoji1985},2つ目は「がにを」と「がをに」のいずれもが基本語順であるという説\cite{Miyagawa1997},3つ目は動詞のタイプにより「がにを」語順が基本語順である場合と「がをに」語順が基本語順である場合があるという説\cite{Matsuoka2003}である.これらの3つの説において,基本語順において3つの項のうちガ格項の位置は先頭であるということは共通していることから,以下本論文では「がにを」語順を単に「にを」語順,「がをに」語順を単に「をに」語順と表記する.また,基本語順という用語の意味が研究により異なっていることに注意する必要がある.具体的には,基本語順は語彙によらず構文ごとにただ1つ存在しているという立場\cite{Hoji1985},動詞のタイプや動詞と各項に入る名詞の組み合わせによって基本語順は異なるという立場\cite{Matsuoka2003,Nakamoto2006},ある文における基本語順が複数存在しうるという立場\cite{Miyagawa1997}が存在しており,各立場により基本語順という用語の意味は異なっている.本論文では,基本語順は動詞と各項に入る名詞の組み合わせが与えられた場合に定まる,日本語使用者にとってもっとも自然で理解しやすい語順のことであるとし,動詞と各項に入る名詞の組み合わせによって基本語順は異なるものの,基本的に1つの組み合わせに対する基本語順は1つだけ存在しているという立場で考察を行う.日本語における動詞の項の並び順に影響を与える要因は多く知られている.代表的なものとしては,多数の語で構成される長い項は動詞から遠い位置に,少数の語で構成される短い項は動詞の近くに置かれることが多いといった性質\cite{Yamashita2001}や,既知の情報は前方に,新情報は後方に置かれやすいという性質\cite{Kuno2006}などが挙げられる.これらの性質は日本語特有のものではなく,たとえば英語の与格交替に関しても類似した性質が確認されており,これらの性質が与格交替が起こるかどうかの予測に有用であることが報告されている\cite{Bresnan2007}.他にも,日本語における動詞の項の並び順に関する研究は古くから多く行われており,たとえば佐伯は4編の小説,計67ページに含まれる文を手作業で分析し,上記の2つの傾向に加えて「与格のニは対格のヲのまえにくる」,「慣用表現では特定の補語は動詞の直前にくる」などの傾向を抽出している\cite{Saeki1975}.本研究では,基本語順の分析を目的とすることから,項の長さや,新情報であるかどうかなどの文脈に基づく要因を取り除いた分析を行う.具体的には,極めて大規模なコーパスから得られる統計情報を用いることで,個別の用例における項の長さ等の要因は無視できると仮定し,分析を行う. \section{本研究で検証する仮説} \label{SEC::Hypo}本研究では,日本語二重目的語構文の基本語順に関する代表的な仮説およびその類型として,以下の5つの日本語二重目的語構文の基本語順に関する仮説を検証する.\begin{description}\item[A.]動詞によらず基本語順は「にを」である\cite{Hoji1985}\item[B.]基本語順は動詞のタイプによって異なる\cite{Matsuoka2003}\item[C.]省略されにくい格は基本語順において動詞の近くに位置する\item[D.]基本語順はニ格名詞の意味役割や有生性によって異なる\cite{Matsuoka2003,Ito2007}\item[E.]対象の動詞と高頻度に共起するヲ格,ニ格名詞は基本語順において動詞の近くに位置する\end{description}まず,仮説\textbf{A},\textbf{B},\textbf{C}はいずれもニ格名詞やヲ格名詞の性質を考慮に入れない仮説であり,収集したテキストにおける語順の割合を動詞ごとに調べることで検証が可能である.このうち仮説\textbf{B}は,(\ref{EX::Inchoative})-aに示す「見せる」のように使役起動交替を適用したときにニ格名詞が主語となるものをShowタイプ,(\ref{EX::Inchoative})-bに示す「渡す」のようにヲ格名詞が主語となるものをPassタイプと分類した上で,Showタイプの動詞は「にを」が,Passタイプの動詞は「をに」が基本語順であるとする仮説である\cite{Matsuoka2003}.また,仮説\textbf{C}は「役立てる」のニ格や「もたらす」のヲ格などのように,省略されることが少ない格は,動詞の直前に出現することが多いとする仮説である.\ex{a.彼に本を見せる。(cf.彼が見る。)\label{EX::Inchoative}\\&b.本を彼に渡す。(cf.本が渡る。)}一方,仮説\textbf{D},\textbf{E}はニ格やヲ格の性質も考慮に入れた仮説である.仮説\textbf{D}は基本語順はニ格名詞の意味役割によって異なるという仮説で,特に(\ref{EX::Role})-aにおける「先生」のようにニ格名詞が有生性を持つ所有者(着点)を表す場合,(\ref{EX::Role})-bにおける「学校」のように有生性を持たない場所(着点)を表す場合よりも「にを」語順をとりやすいとする仮説である\cite{Matsuoka2003,Ito2007}.\ex{a.先生に本を返却した。\label{EX::Role}\\&b.本を学校に返却した。}仮説\textbf{E}は「思ったことを口に出す」や「人のことに口を出す」などのような慣用表現を含む文に関するMiyagawaらの分析\cite{Miyagawa2004}を拡張したものであり,「変化をもたらす」などのように,慣用表現として特別な意味を持っていない場合であっても,高い頻度で動詞と共起するヲ格名詞やニ格名詞は動詞の近くに出現しやすいとする仮説である.中本ら\cite{Nakamoto2006}は,日本語の語順選好は動詞に還元できない文レベルの意味と相関する,すなわち,基本語順は単純な動詞のタイプやニ格の意味役割から決めることはできず,文を構成する主要な要素間の相互作用の結果としての文レベルの意味が語順選好に関係していると主張しているが,基本語順は動詞の種類だけでなく,動詞とヲ格名詞,ニ格名詞との組み合わせによって決まるという意味で仮説\textbf{E}は中本らの説に近い説であると言える. \section{分析に使用する用例の収集} \label{SEC::CollectExamples}大規模コーパスに基づく日本語二重目的語構文の基本語順の分析は,理論研究や,心理実験や脳科学などに基づく実証的手法と比べ,圧倒的に多くの用例を使用できるという利点がある一方で,自動的に用例を収集する必要があるため,誤った用例が収集されてしまうことが問題となる.たとえば,単純に動詞の前に出現した格助詞を収集すると,(\ref{EX::Kagi})のような文から「鍵を彼に教わった」という用例が収集されてしまう.このような問題は,係り受け解析を行い,名詞句「鍵を」の係り先が「教わった」ではなく「置いた」であることを考慮することで防ぐことができるが,現状の構文解析システムの精度はたかだか92\%程度であり\cite{Yoshinaga2014},係り受け解析を利用するだけでは,依然として多くの適切でない用例を収集してしまう可能性が残る.\ex{鍵を彼に教わった場所に置いた。\label{EX::Kagi}}そこで本研究では,非常に規模の大きいコーパスから,ニ格やヲ格が明示的に出現しており,かつ,構文的な曖昧性の少ない用例だけを抽出,利用することによりこの問題に対処する.具体的には,河原らの手法\cite{Kawahara2002d}を基にした下記の手順を,Webから収集したテキスト集合に適用することにより,大規模かつ高精度な用例の収集を実現する\footnote{用例収集には京都大学黒橋・河原研から提供された述語項構造データを使用した.}.\begin{enumerate}\item収集したテキスト集合を句点等を手がかりに文に分割.この際,コピーページなどから1つの用例を重複して収集するのを防ぐため,完全に同一の文は1つに統合する.\item構文解析システムKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}を用いて構文解析を行い\footnote{解析オプションとしてルールベースの解析を行う``-dpnd'',係り先の候補を出力する``-check''を指定した.},構文的曖昧性がないと解析された係り受け関係から動詞とガ格名詞,ニ格名詞,ヲ格名詞を収集\footnote{河原らの報告\cite{Kawahara2005}によると述語項構造全体の20.7\%が収集され,その精度は98.3\%である.また,動詞が「する」である用例は一般の動詞と性質が異なると考えたため収集対象から除いた.}.この際,格要素が複合名詞となっている場合は,主辞が1文字の場合はその直前の形態素とセットで,それ以外の場合は主辞のみを収集する.また,動詞は「れる」や「たい」などの接尾辞を伴わず出現したもののみを収集対象とする.\item収集した用例を動詞ごとにまとめ,以下の条件すべてを満たす動詞を分析の対象とする.\begin{enumerate}\item形態素解析システムJUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}の基本的語彙に含まれる動詞である.\itemヲ格名詞,ニ格名詞をともに持つ用例の割合が動詞の出現数の5\%以上である.\itemヲ格名詞,ニ格名詞をともに持ち,かつ,いずれもJUMANの基本的語彙に含まれる用例の異なり数が500以上である.\end{enumerate}\end{enumerate}上記2において,たとえば,(\ref{EX::Kagi})に示す文が与えられた場合,「鍵を」と「彼に」の2つの文節は後方に2つ動詞が存在するため係り先に曖昧性があることから「鍵を」と「彼に」を含む用例は収集されず,係り先に曖昧性のない「場所に」とその係り先である「置いた」で構成される「場所に置いた」という用例だけが収集される\footnote{この例のように,三項動詞であってもヲ格かニ格の一方しか収集されなかった用例は,各語順の出現率の算出には使用しないが,次節で説明するように格の省略されやすさ等の分析に使用する.}.また,3の(b)の条件は三項動詞のみを収集対象とするための条件である.目的語が2つ出現する用例が5\%以上というのは緩い条件のように思えるが,該当の項が省略されている,被連体修飾要素として出現している,係り受けに曖昧性がある等の理由で,三項動詞であっても目的語が2つ明示的に出現しないことが多いことから,実際にこの条件を満たした動詞の多くは三項動詞であった.100億文を超える文集合から用例を抽出した結果,上記の3の(a)〜(c)の条件をすべて満たす動詞は648種類収集された.1動詞あたりの出現数の平均は約35万,中央値は約8.3万,収集されたヲ格名詞,ニ格名詞をともに持つ用例数の平均は約3.8万,中央値は約0.9万であった. \section{大規模コーパスに基づく基本語順の分析} \subsection{動詞ごとの基本語順の分析}仮説\textbf{A},\textbf{C}の検証を行うため,前節で収集した648動詞それぞれに対し,ヲ格とニ格の一方のみが出現した用例に占めるニ格のみが出現した用例の割合$R_{\text{\texttt{DAT}-only}}$と,ヲ格とニ格の両方が出現した用例に占める「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$を算出し,これらの相関を調査した.このうち,以下の式で算出される$R_{\text{\texttt{DAT}-only}}$は,ニ格がヲ格と比べてどのくらい省略されにくいかを表す値であり基本的に語順に関する情報を含まない値である.\[R_{\text{\texttt{DAT}-only}}=\frac{N_{\text{\texttt{DAT}-only}}}{N_{\text{\texttt{DAT}-only}}+N_{\text{\texttt{ACC}-only}}}\]ここで,$N_{\text{\texttt{DAT}-only}}$,$N_{\text{\texttt{ACC}-only}}$は,それぞれニ格のみが出現した用例数,ヲ格のみが出現した用例数を表す.たとえば,(\ref{EX::Gakui})に示す文は,ヲ格は出現するものの,ニ格は出現しないため,後者の用例として計数される.\ex{学長が学位を授与した。\label{EX::Gakui}}しかし,\ref{SEC::CollectExamples}節で収集した用例のうち,ヲ格とニ格の一方のみが収集された用例すべてを使用すると,$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の値が大きい動詞ほど,$R_{\text{\texttt{DAT}-only}}$の値も大きくなりやすいというバイアスが生じてしまう.これは,動詞の近くに出現しやすい項の方が,実際の係り先との間に他の述語が出現する可能性が少ないため,係り先となる述語の曖昧性が相対的に少ないためである.このバイアスを軽減するため,本研究では$R_{\text{\texttt{DAT}-only}}$の値を算出する際に,(\ref{EX::Gakui})に示す文のようにガ格も収集された用例のみを使用した.これは,ガ格項,ヲ格項,ニ格項の中で,多くの場合,先頭に出現するガ格項が収集されているならば,収集されなかった項は出現していない可能性が高いと考えられるためである.表\ref{TAB::VERB}に動詞ごとの$R_{\text{\texttt{DAT}-only}}$と$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の値の例を,図\ref{FIG::VERB}に分析対象とした648動詞それぞれの2つの値を2次元にプロットした結果を示す.図中の各点は648個の動詞をそれぞれ表しており,破線は線形回帰直線を表している.相関係数は0.391であった.また,右の棒グラフは$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の値が該当する区間に含まれる動詞の数を表している.図\ref{FIG::VERB}に示す結果から,ヲ格とニ格の一方のみが出現した用例に占めるニ格の割合と,ヲ格とニ格の両方が出現した用例に占める「をに」語順の割合の間には弱いながらも正の相関があることが確認できる.この結果は仮説\textbf{C}が主張するように,省略されにくい格は動詞の近くに位置する傾向があることを示唆している.一方,38.2\%の動詞\footnote{図\ref{FIG::VERB}の棒グラフにおいて0.5から1.0の範囲に含まれる248動詞.}は「をに」語順の方が優勢であり,仮説\textbf{A}が主張するようにすべての動詞の基本語順が「にを」であるとは考えにくい.ただし,648動詞全体では「にを」語順の割合は67.2\%,「にを」語順が優勢な動詞は648個中400個であり,全体としては「にを」語順の方が優勢であった.\begin{table}[t]\caption{動詞ごとのニ格のみ出現した用例の割合$R_{\text{\texttt{DAT}-only}}$と「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の例}\label{TAB::VERB}\input{04table01.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{24-5ia4f1.eps}\end{center}\hangcaption{動詞ごとの,ニ格のみ出現した用例の割合$R_{\text{\texttt{DAT}-only}}$(横軸)と,「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$(縦軸).$\bullet$は各動詞,破線は線型回帰直線を表し,右の棒グラフは各区間に含まれる動詞の数を表す.}\label{FIG::VERB}\end{figure}また,仮説\textbf{B}に関しては,動詞によって各語順が占める割合は異なっているものの,61.3\%の動詞\footnote{図\ref{FIG::VERB}の棒グラフにおいて0.2から0.8の範囲に含まれる397動詞.}については優勢な語順であってもその占める割合は80\%以下であり,動詞によって基本語順が決定されるとは考えにくい結果であった.表\ref{TAB::VERB}に示した例のうち「近付ける」,「適用する」,「詰める」,「挙げる」の4動詞は2つの語順がほぼ拮抗していた動詞の例となっている.\subsection{動詞のタイプと基本語順}仮説\textbf{B}をさらに詳細に検証するため,Showタイプに分類される動詞と,Passタイプに分類される動詞をそれぞれ抜き出し,コーパス中での語順の分布を調査した.各タイプの動詞として,基本的にKoizumiら\cite{Koizumi2004}が心理実験で使用した動詞を使用した.ただし,Showタイプの動詞に関してはKoizumiらが使用した10動詞のうち「はかせる」はJUMANにおいて2形態素に分割されることから除外し,代わりに「知らせる」と「言付ける」の2動詞を追加し,全体でShowタイプ11動詞,Passタイプ22動詞を調査対象とした.各動詞のヲ格,ニ格を両方とる用例数と「をに」語順の割合を表\ref{TAB::SHOW-PASS}に示す.Showタイプに属する動詞の「をに」語順の割合の分布と,Passタイプに属する動詞の「をに」語順の割合の分布の差をWilcoxonの順位和検定により検定した結果,p値は0.359となり,両者に有意な差は確認できなかった.この結果は,容認性判断課題においてこれらの動詞タイプの間で反応時間の差が見られなかったとするKoizumiらの報告\cite{Koizumi2004}と一致しており,仮説\textbf{B}は正しくないことを示唆している.\begin{table}[b]\caption{ShowタイプとPassタイプの動詞ごとのヲ格とニ格を両方とる用例数と「をに」語順の割合}\label{TAB::SHOW-PASS}\input{04table02.txt}\end{table}\subsection{ニ格名詞の性質と基本語順}ニ格名詞の性質と基本語順の関係に関する仮説\textbf{D}を検証するため,ニ格名詞のカテゴリと語順の関係を調査した.ここで,ニ格名詞のカテゴリには,JUMAN辞書に付与されているカテゴリ情報\footnote{JUMAN辞書ではすべての普通名詞やサ変名詞に『人』や『抽象物』などの22種類のカテゴリが付与されている.}をもとに決定し,そのカテゴリに属するニ格名詞の用例数が100万を超える8つのカテゴリを対象に「をに」語順の割合を調査した.結果を表\ref{TAB::CAT}に示す.ニ格名詞のカテゴリによって「をに」語順の割合に違いがあることが確認できるが,ニ格名詞が有生名詞の典型である『人』カテゴリを持つ場合に着目すると,全体では35.3\%である「をに」語順の割合が38.7\%と僅かに大きな値となっている.これはニ格が有生名詞の場合「にを」語順をとりやすいという仮説と合致しない結果である.\begin{table}[b]\caption{ニ格名詞のカテゴリごとの「をに」語順の割合}\label{TAB::CAT}\input{04table03.txt}\end{table}しかしながら,この結果は,二重目的語構文をとるものの,ヲ格,ニ格の意味役割がまったく異なる動詞間で比較を行ったため生じた可能性が考えられる.そこで本研究ではさらに,滝本ら\cite{Takimoto2015d}が使用した実験文を参考に,(\ref{EX::Henkyaku})に示すようなニ格が着点を表す典型的な文を対象に,ニ格の有生性の有無による語順選好の違いを調査した.\ex{a.本を学校に返却した.\label{EX::Henkyaku}\\&b.先生に本を返却した.}具体的には,ヲ格名詞のカテゴリが『人工物-その他』である用例に限定した上で,所有者(着点)を表す有生名詞の典型として『人』カテゴリに属する名詞,場所(着点)を表す無生名詞の典型として『場所-施設』カテゴリに属する名詞を考え,ニ格名詞のカテゴリが『人』である用例数と,『場所-施設』である場合の用例数がいずれも100以上である動詞を対象に,ニ格名詞のカテゴリごとの「をに」語順の割合を調査した.調査の結果,用例数がいずれも100以上であった126動詞のうち,有意水準0.05で比率の差の検定を行った結果,ニ格名詞のカテゴリが『人』である場合と『場所-施設』である場合で,語順の出現割合に有意な差があると判定された動詞は94個存在し,そのうち64動詞はニ格名詞のカテゴリが『人』である場合の方が「にを」語順となる割合が大きいという結果が得られた.すなわち,ニ格名詞が有生性を持つ場合の方が「にを」語順をとりやすい動詞が64個存在するのに対し,「をに」語順をとりやすい動詞は30個であり,この差を二項検定を用いて検定を行うとp値は0.00059と算出され,有意な差であるとの結果が得られた.この結果は,ニ格名詞が所有者(着点)である場合の方が場所(着点)である場合と比べて「にを」語順をとりやすいという仮説\textbf{D}を支持している.表\ref{TAB::ANIM}に,用例数がいずれも100以上であった126動詞のうちの6動詞について,ニ格が『人』であった場合と『場所-施設』であった場合,それぞれの場合の「をに」語順となる割合と出現頻度の高い用例の例を示す.表中で太字記載された「をに」率はもう一方と比べて有意に割合が大きいことを表している.ニ格が『人』である場合の方が「をに」語順となる割合が大きかった動詞の1つに動詞「据える」があったが,その用例にはニ格が『人』である場合であっても「主役に据える」などのようにニ格が所有者(着点)を表していないものが多く含まれていた.また,動詞「展示する」の場合,副詞的に使用されている「一同」にカテゴリ『人』が付与されているため,ニ格が『人』である場合の方が「をに」語順となる割合が大きくなったと考えられる.このように,分析においてノイズとなるような不適切な用例は,ニ格が『人』である場合の方が「をに」語順となる割合が大きい動詞に多く出現していた.\begin{table}[t]\caption{ニ格の性質と語順の関係の調査に使用した動詞の例とその語順の割合および用例}\label{TAB::ANIM}\input{04table04.txt}\end{table}\subsection{動詞と名詞の共起度合と語順の関係}続いて,仮説\textbf{E}の検証を行うため,ヲ格名詞,ニ格名詞,動詞の3つ組が与えられた場合の,ヲ格名詞と動詞,ニ格名詞と動詞,それぞれの共起のしやすさと,「をに」語順の関係を調査した.本研究では,ある格$c$を埋める名詞$n$と動詞$v$の共起度合いの尺度として,以下の式により定義される正規化自己相互情報量(NPMI)を使用した.\[\mbox{NPMI}_c(n,v)=\frac{\mbox{PMI}_c(n,v)}{-\mbox{log}(p_c(n,v))},\\ただし,\\\mbox{PMI}_c(n,v)=\mbox{log}\frac{p_c(n,v)}{p_c(n)p(v)}.\]ここで,$p_c(n)$は対象の格$c$を埋める名詞が$n$である確率,$p(v)$は動詞が$v$である確率,$p_c(n,v)$は対象の格$c$を埋める名詞と動詞の組み合わせが$(n,v)$となる確率をそれぞれ表す.NPMIは自己相互情報量(PMI)を$[-1,1]$の範囲に正規化した尺度となっており,$n$と$v$が常に共起する場合に1,独立に出現する場合に0,一度も共起しない場合に$-1$の値をとる.本研究では,仮説\textbf{E}を検証するため,ニ格名詞と動詞のNPMI$_{\mathtt{DAT}}$の値と,ヲ格名詞と動詞のNPMI$_{\mathtt{ACC}}$の値の差を算出し,「をに」語順の割合との関係を調査した.仮説\textbf{E}が正しい場合,ニ格名詞の方が動詞と高頻度に共起する場合,すなわち,ニ格名詞と動詞のNPMIの方が大きな値となる場合,ニ格名詞は動詞の近くに出現しやすいことになるので,「をに」語順の割合が大きくなる.まず,検証に使用する用例の収集を行った.具体的には,500回以上出現したヲ格名詞,ニ格名詞,動詞の組み合わせを収集した.収集の結果,2,417個の組み合わせが収集された.ただし,仮説\textbf{E}を検証するにあたり,慣用表現の影響を考慮する必要がある.たとえば,(\ref{EX::Idiom})に示す「足を運ぶ」,「棚に上げる」は慣用表現であるが,このような慣用表現は多くの場合,間に別の項を挟まないことが知られている.たとえば(\ref{EX::Idiom})-bと同じ意味で「棚に自分を上げる。」などと言うことはできない.\ex{a.美術館に足を運ぶ。(ヲ型慣用表現)\label{EX::Idiom}\\&b.自分を棚に上げる。(ニ型慣用表現)}そこで,慣用表現による影響を確認するため,収集された2,417個の組み合わせを人手で確認し,慣用表現として使用されることが大半であると考えられる組み合わせであるかどうかの判定を行った.(\ref{EX::Idiom})-aのようにヲ格名詞と動詞が慣用表現を構成しているものをヲ型慣用表現,(\ref{EX::Idiom})-bのようにニ格名詞と動詞が慣用表現を構成しているものをニ型慣用表現と呼ぶことにすると,2,417個の組み合わせのうち,404個がヲ型慣用表現,84個がニ型慣用表現と判定された.また,この過程で検証に使用するのに適していないと考えられる事例,具体的には,(\ref{EX::Except})-aのようにニ格が副詞的に使用されている「最大限」や「最小限」であるものが58個,(\ref{EX::Except})-bの「友達に知らせる」のようにSNS等で定型句として自動生成されていると考えられるものが57個見つかったため,検証に使用する用例からこれらを除いた.この結果,最終的に検証に使用する組み合わせは2,302個,そのうち,404個がヲ型慣用表現,84個がニ型慣用表現であった.1組み合わせあたりの用例数の平均は1,534であった.\ex{a.魅力を最大限に生かす。\label{EX::Except}\\&b.美容室を友達に知らせる。}続いて,2302個の組み合わせに対して,$\mbox{NPMI}_{\mathtt{DAT}}(n,v)-\mbox{NPMI}_{\mathtt{ACC}}(n,v)$と,「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$を算出した.表\ref{TAB::VERB-NOUN}に算出された値の例を示す.表中で斜体となっている値は,仮説\textbf{E}と合致しない用例であることを示している.また,図\ref{FIG::NOUN-VERB}に2,302個の組み合わせそれぞれの値を2次元にプロットした結果を示す.図中の+はヲ型慣用表現,×はニ型慣用表現,$\bullet$はそれ以外の組み合わせを表しており,破線は線形回帰直線,右の棒グラフは$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の値が該当する区間に含まれる組み合わせの数を表している.\begin{table}[b]\caption{名詞と動詞の共起度合と「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の例}\label{TAB::VERB-NOUN}\input{04table05.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{24-5ia4f2.eps}\hangcaption{ヲ格名詞,ニ格名詞,動詞の組み合わせごとの名詞と動詞の共起度合$\mathrm{NPMI}_{\mathtt{DAT}}(n,v)-\mathrm{NPMI}_{\mathtt{ACC}}(n,v)$と「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の関係.+がヲ型慣用表現,×がニ型慣用表現,$\bullet$がそれ以外の組み合わせ,破線は線型回帰直線を表し,右の棒グラフは各区間に含まれる組み合わせの数を表す.}\label{FIG::NOUN-VERB}\end{center}\end{figure}ニ格名詞と動詞,ヲ格名詞と動詞のNPMIの値の差と,「をに」語順の割合の相関係数は全体では0.567,慣用表現を除いた場合は0.513であった.ほぼすべてのヲ型慣用表現は「にを」語順を,ニ型慣用表現は「をに」語順をとっており,これらの影響で相関係数がより大きくなっていると言えるが,これらの影響を除いた場合であっても正の相関があった.この結果は全体的な傾向として仮説\textbf{E}が正しいことを示唆している.さらに,図\ref{FIG::NOUN-VERB}の棒グラフに示すように,ヲ格名詞,ニ格名詞と動詞の組み合わせごとの語順の割合の分布を見ると,80.1\%の組み合わせ\footnote{図\ref{FIG::NOUN-VERB}の棒グラフにおいて0.0から0.1,または,0.9から1.0の範囲に含まれる1,844の組み合わせ.}では,優勢となる語順が90\%以上を占めていることが分かる.この結果は,優勢な語順であってもその占める割合は限定的であった動詞ごとの分析と対照的な結果であり,ヲ格名詞,ニ格名詞と動詞の3つ組が与えられた場合は,「をに」または「にを」のいずれかに優勢な語順が定まる可能性が高いと考えられる.ヲ格名詞,ニ格名詞と動詞の3つ組が与えられた場合,文レベルの意味も定まると考えられることから,この結果は,日本語の語順選好は動詞に還元できない文レベルの意味と相関するという中本ら\cite{Nakamoto2006}の説を支持する結果であると考えられる. \section{おわりに} 本研究では,100億文を超える大規模コーパスから収集された用例を用い,日本語二重目的語構文の基本語順,具体的には2つの目的語の基本語順が「をに」であるか「にを」であるかに関する各種の仮説の検証を行った.大規模コーパスに基づく分析結果が示唆する結論は以下のように要約される\footnote{括弧内の節番号はそれぞれの結論が得られた根拠となる節を示している.また,4節で挙げた仮説と対応する結論については対応する仮説とそれを支持する結果か否定する結果かも記している.}.\begin{itemize}\item省略されにくい格は動詞の近くに出現する傾向がある{\footnotesize[5.1節,仮説\textbf{C}を支持]}\item約6割の動詞は「にを」語順,4割の動詞は「をに」語順が優勢である{\footnotesize[5.1節,仮説\textbf{A}を否定]}\item優勢な語順であってもその割合が80\%以下である動詞が6割を占める{\footnotesize[5.1節]}\itemPassタイプとShowタイプなどの動詞タイプは基本語順と関係しない{\footnotesize[5.2節,仮説\textbf{B}を否定]}\itemニ格名詞が着点を表す場合,有生性を持つ場合の方が「にを」語順をとりやすい\\[-5pt]{\footnotesize[5.3節,仮説\textbf{D}を支持]}\item対象の動詞と高頻度に共起するヲ格名詞,ニ格名詞は動詞の近くに出現しやすい\\[-5pt]{\footnotesize[5.4節,仮説\textbf{E}を支持]}\itemヲ格名詞,ニ格名詞,動詞の3つ組が与えられた場合,「をに」語順と「にを」語順のいずれか一方の語順が90\%以上となる場合が8割を占める{\footnotesize[5.4節]}\end{itemize}本研究で行った日本語二重目的語構文の基本語順の分析の限界として,基本的にニ格とヲ格の両方が明示的に出現した構文的曖昧性のない用例のみを分析に使用しているため,ヲ格が副助詞「は」や「も」を用いて表現されやすい動詞や,連体節などを含む長い項を取りやすく項と動詞の間の係り受け関係に曖昧性が存在することが多い動詞等については正しく分析できていない可能性が考えられる.また,大規模コーパスに基づく基本語順の分析は,多くの仮説の網羅的な検証に向いていると言えるが,これらの分析は二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとの仮定に基づいており,実際に人がどのように二重目的語構文を処理し,どのような語順を基本語順として捉えているかの信頼度の高い結論を得るためには,脳科学などのより直接的な検証も行うことが望ましいと考えられる.\acknowledgment本研究で用例収集に使用した述語項構造データを提供していただいた京都大学の河原大輔准教授および黒橋禎夫教授に感謝いたします.本論文の一部はThe54thAnnualMeetingoftheAssociationforComputationalLinguisticsで発表したものです\cite{sasano2016}.また,本研究の一部はJSPS科研費25730131,16K16110の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bresnan,Cueni,Nikitina,\BBA\Baayen}{Bresnanet~al.}{2007}]{Bresnan2007}Bresnan,J.,Cueni,A.,Nikitina,T.,\BBA\Baayen,H.\BBOP2007\BBCP.\newblock\BBOQPredictingtheDativeAlternation.\BBCQ\\newblockInBouma,G.,Kr\"amer,I.,\BBA\Zwarts,J.\BEDS,{\BemCognitiveFoundationsofInterpretation},\mbox{\BPGS\69--94}.Amsterdam:RoyalNetherlandsAcademyofScience.\bibitem[\protect\BCAY{Hoji}{Hoji}{1985}]{Hoji1985}Hoji,H.\BBOP1985\BBCP.\newblock{\BemLogicalFormConstraintsandConfigurationalStructuresinJapanese}.\newblockPh.D.\thesis,UniversityofWashington.\bibitem[\protect\BCAY{犬伏\JBA飯島\JBA小泉\JBA酒井}{犬伏\Jetal}{2009}]{Inubushi2009d}犬伏知生\JBA飯島和樹\JBA小泉政利\JBA酒井邦嘉\BBOP2009\BBCP.\newblock日本語二重目的語文の脳内処理における基本語順の効果.\\newblock\Jem{日本言語学会第138回大会予稿集},\mbox{\BPGS\286--289}.\bibitem[\protect\BCAY{Ito}{Ito}{2007}]{Ito2007}Ito,A.\BBOP2007\BBCP.\newblock\BBOQArgumentStructureof{J}apaneseDitransitives.\BBCQ\\newblockInTakita,K.\BBACOMMA\\BBA\Fuji,C.\BEDS,{\BemNanzanLinguisticsSpecialIssue3},\mbox{\BPGS\127--150}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2002}]{Kawahara2002d}河原大輔\JBA黒橋禎夫\BBOP2002\BBCP.\newblock用言と直前の格要素の組を単位とする格フレームの自動構築.\\newblock\Jem{自然言語処理},{\Bbf9}(1),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara2005}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Koizumi\BBA\Tamaoka}{Koizumi\BBA\Tamaoka}{2004}]{Koizumi2004}Koizumi,M.\BBACOMMA\\BBA\Tamaoka,K.\BBOP2004\BBCP.\newblock\BBOQCognitiveProcessingof{J}apaneseSentenceswithDitransitiveVerbs.\BBCQ\\newblock{\BemGengoKenkyu},{\Bbf125},\mbox{\BPGS\173--190}.\bibitem[\protect\BCAY{高祖\JBA萩原\JBA曽雌}{高祖\Jetal}{2004}]{Koso2004}高祖歩美\JBA萩原裕子\JBA曽雌崇弘\BBOP2004\BBCP.\newblock三項動詞文処理の多チャンネル脳波研究.\\newblock\Jem{電子情報通信学会技術研究報告.TL,思考と言語,{\Bbf104}(170)},\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{Kuno}{Kuno}{2006}]{Kuno2006}Kuno,S.\BBOP2006\BBCP.\newblock\BBOQEmpathyandDirectDiscoursePerspectives.\BBCQ\\newblockInHorn,L.\BBACOMMA\\BBA\Ward,G.\BEDS,{\BemTheHandbookofPragmatics},BlackwellHandbooksinLinguistics,\mbox{\BPGS\315--343}.Wiley.\bibitem[\protect\BCAY{Matsuoka}{Matsuoka}{2003}]{Matsuoka2003}Matsuoka,M.\BBOP2003\BBCP.\newblock\BBOQTwoTypesofDitransitiveConsturctionsinJapanese.\BBCQ\\newblock{\BemJournalofEastAsianLinguistics},{\Bbf12},\mbox{\BPGS\171--203}.\bibitem[\protect\BCAY{Mazuka,Ito,\BBA\Kondo}{Mazukaet~al.}{2002}]{Mazuka2002}Mazuka,R.,Ito,K.,\BBA\Kondo,T.\BBOP2002\BBCP.\newblock\BBOQCostsofScramblinginJapaneseSentenceProcessing.\BBCQ\\newblockInNakayama,M.\BED,{\BemSentenceProcessinginEastAsianLanguages},\mbox{\BPGS\131--166}.Stanford,CA:CSLIPublications.\bibitem[\protect\BCAY{Miyagawa}{Miyagawa}{1997}]{Miyagawa1997}Miyagawa,S.\BBOP1997\BBCP.\newblock\BBOQAgainstOptionalScrambling.\BBCQ\\newblock{\BemLinguisticInquiry},{\Bbf28},\mbox{\BPGS\1--26}.\bibitem[\protect\BCAY{Miyagawa\BBA\Tsujioka}{Miyagawa\BBA\Tsujioka}{2004}]{Miyagawa2004}Miyagawa,S.\BBACOMMA\\BBA\Tsujioka,T.\BBOP2004\BBCP.\newblock\BBOQArgumentStructureandDitransitiveVerbsin{J}apanese.\BBCQ\\newblock{\BemJournalofEastAsianLinguistics},{\Bbf13},\mbox{\BPGS\1--38}.\bibitem[\protect\BCAY{中本\JBA李\JBA黒田}{中本\Jetal}{2006}]{Nakamoto2006}中本敬子\JBA李在鎬\JBA黒田航\BBOP2006\BBCP.\newblock日本語の語順選好は動詞に還元できない文レベルの意味と相関する.\\newblock\Jem{認知科学},{\Bbf13}(3),\mbox{\BPGS\334--352}.\bibitem[\protect\BCAY{佐伯}{佐伯}{1975}]{Saeki1975}佐伯哲夫\BBOP1975\BBCP.\newblock\Jem{現代日本語の語順}.\newblock笠間書院.\bibitem[\protect\BCAY{Sasano\BBA\Okumura}{Sasano\BBA\Okumura}{2016}]{sasano2016}Sasano,R.\BBACOMMA\\BBA\Okumura,M.\BBOP2016\BBCP.\newblock\BBOQACorpus-BasedAnalysisofCanonicalWordOrderofJapaneseDoubleObjectConstructions.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\2236--2244}.\bibitem[\protect\BCAY{Shigenaga}{Shigenaga}{2014}]{Shigenaga2014}Shigenaga,Y.\BBOP2014\BBCP.\newblock\BBOQCanonicalWordOrderof{J}apaneseDitransitiveSentences:APreliminaryInvestigationThroughaGrammaticalityJudgmentSurvey.\BBCQ\\newblock{\BemAdvancesinLanguageandLiteraryStudies},{\Bbf5}(2),\mbox{\BPGS\35--45}.\bibitem[\protect\BCAY{滝本\JBAカフラマン\JBA広瀬}{滝本\Jetal}{2015}]{Takimoto2015d}滝本宮美\JBAカフラマンバルジュ\JBA広瀬友紀\BBOP2015\BBCP.\newblock日本語の二重目的語構文における文理解の難易度について—ニ格名詞の有生性に着目して—.\\newblock\Jem{日本言語学会第150回大会},\mbox{\BPGS\110--115}.\bibitem[\protect\BCAY{Tamaoka,Sakai,Kawahara,Miyaoka,Lim,\BBA\Koizumi}{Tamaokaet~al.}{2005}]{Tamaoka2005}Tamaoka,K.,Sakai,H.,Kawahara,J.,Miyaoka,Y.,Lim,H.,\BBA\Koizumi,M.\BBOP2005\BBCP.\newblock\BBOQPriorityInformationUsedfortheProcessingof{J}apaneseSentences:ThematicRoles,CaseParticlesorGrammaticalFunctions?\BBCQ\\newblock{\BemJournalofPsycholinguisticResearch},{\Bbf34}(3),\mbox{\BPGS\281--332}.\bibitem[\protect\BCAY{Yamashita\BBA\Chang}{Yamashita\BBA\Chang}{2001}]{Yamashita2001}Yamashita,H.\BBACOMMA\\BBA\Chang,F.\BBOP2001\BBCP.\newblock\BBOQ``LongBeforeShort''PreferenceintheProductionofaHead-finalLanguage.\BBCQ\\newblock{\BemCognition},{\Bbf81}(2),\mbox{\BPGS\B45--B55}.\bibitem[\protect\BCAY{Yoshinaga\BBA\Kitsuregawa}{Yoshinaga\BBA\Kitsuregawa}{2014}]{Yoshinaga2014}Yoshinaga,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2014\BBCP.\newblock\BBOQASelf-adaptiveClassifierforEfficientText-streamProcessing.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1091--1102}.\end{thebibliography}\begin{biography}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.博士(情報理工学).自然言語処理,特に照応解析,述語項構造解析に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{奥村学}{1989年東京工業大学大学院理工学研究科博士課程修了.同年,東京工業大学助手.1992年北陸先端科学技術大学院大学助教授,2000年東京工業大学助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
V30N03-06
\section{はじめに} テキスト平易化\cite{shardlow-2014}とは,難解な文の意味を保持しつつ文法や語彙を変更し,平易な文に変換する言い換え生成タスクの一種である.この技術は,構文解析,文書要約,情報抽出,機械翻訳などの他の自然言語処理タスクの性能改善のために使われている\cite{chandrasekar-1996,xu-2009,evans-2011,stajner-2016}.また,子供や言語学習者への言語学習支援\cite{watanabe-2009,allen-2009}や,失読症の人々への文章読解支援\cite{canning-2000}にも役立てられている.本研究では英語母語話者に対する言語教育支援\cite{petersen-2007,watanabe-2009,allen-2009}を目的として,難易度制御可能なテキスト平易化に取り組む.インプット仮説\cite{krashen-1985}では,学習者の言語能力は,僅かに高い水準の教材で学習することで効果的に向上し,学習意欲を削ぐような過度に難易度の高い教材では向上しにくいとされている.そのため言語学習の教材は,学習者の言語能力や読解力に合わせて複雑な語彙や構文が少ないテキストに変換して作成される\cite{crossley-2007}.しかしその作業負荷は高く,教員の負担となっている.そこで適切な難易度の文を自動生成するために,多段階の難易度付きパラレルコーパスであるNewselaコーパス\footnote{\url{https://newsela.com/data/}}\cite{xu-2015}を用いて,目標とする難易度に合致した平易な文を生成する,テキスト平易化の難易度制御\cite{scarton-2018,nishihara-2020,agrawal-2021,yanamoto-2022}が研究されている.テキスト平易化は,文中の単語やフレーズに「削除」や「置換」の編集操作を施すことで実現される.また言語教育への応用を目的とした場合,文構造を複雑にし,文の難易度を上げる要因となる付加的な情報,すなわち文の主意に対する枝葉の情報,については省略することを許容する.本研究では難易度をK$12$に基づき幼稚園の年長から高等学校$3$年生までの$13$年間の学年に対応するものとする.表\ref{tbl:example}に本研究で用いるNewselaから抜粋したテキスト平易化の例を示す.ここではK$12$における$12$年生(高校$3$年生)向けのテキストを$7$年生(中学$1$年生)や$5$年生(小学$5$年生)向けに平易に書き換えている.$7$年生向けのテキストにおける\textbf{areas}や\textbf{emotion}は,$5$年生向けのテキストではそれぞれより平易な\textbf{parts}や\textbf{feelings}に「置換」されている.また$12$年生向けのテキストにおいて,付加的な情報である\textbf{noticeable}や\textbf{accordingto[...]BiobehavioralReviews}は,$7$年生および$5$年生向けのテキストでは省略されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}%\caption{Newselaにおける学年に応じたテキスト平易化の例}\label{tbl:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%深層学習に基づくテキスト平易化の手法には,ニューラル系列変換モデルを用いて文を生成する生成ベースのアプローチ\cite{nisioi-2017,zhang-2017,kriz-2019,martin-2022}がある.生成ベースのアプローチには,文全体を柔軟に言い換える利点がある.しかし入力文と出力文が同一言語というタスクの性質上,機械翻訳とは異なり,入力文を大幅に言い換える学習が難しく,積極的な言い換えを行いづらいという問題がある.一方,もう一つのアプローチとして各単語に対して編集操作を適用して入力文を言い換える編集ベースのアプローチ\cite{alva-2017,dong-2019,kumar-2020}がある.編集ベースのアプローチでは,各単語に対して行う操作が明示的であるため,生成ベースのアプローチの問題点である保守性は改善されるが,文全体を柔軟に言い換えることは難しい.生成ベースおよび編集ベースを組み合わせたハイブリッドなアプローチ\cite{kajiwara-2019,agrawal-2021,dehghan-2022}は,語彙に関する制約を生成ベースのモデルに与えることで,各アプローチの利点を活かす.ハイブリッドなアプローチでは,出力を避ける負の語彙制約として難解な単語を選択し平易な文を生成するが,平易な単語の出力を促す正の語彙制約を適用する試みは行われていない.正の語彙制約も用いることで,負の語彙制約のみを用いる場合よりも,難解な文から平易な文への言い換えを促進すると期待できる.そこで本研究では,テキスト平易化の難易度制御の品質を向上させるために,ハイブリッドなアプローチに対し正・負両方の語彙制約を導入する.具体的には,目標とする難易度と編集操作の予測に基づき,出力文に出現させない単語の制約(負の制約)と出力文に出現させる単語の制約(正の制約)を作成する.またこれらを用いて,正・負両方の語彙制約を事前訓練済み系列変換モデルに導入し,積極的かつ柔軟な文生成を促進させる.Newselaコーパス\cite{xu-2015}とNewsela-Autoコーパス\cite{jiang-2020}を用いた英語のテキスト平易化における評価実験の結果,提案手法が平易性に関する評価指標と制御性に関する評価指標を向上させることを確認できた.また,人手評価を行った結果,比較手法よりも,文法的に正しく,入力文の意味が保たれた文を生成できることを確認した.これは,提案手法の編集操作予測に基づく制約によって,文法的に正しい文構造や意味を保つことに寄与する単語の出力を促せているからだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト平易化に対するアプローチ}テキスト平易化は,同一言語内の翻訳タスクと見なすことができるため,機械翻訳モデルが適用されてきた.従来は統計的機械翻訳モデルによるアプローチ\cite{specia-2010,wubben-2012,xu-2016,kajiwara-2016}が用いられていたが,近年の研究ではニューラルネットワークを用いた生成ベースまたは編集ベースのアプローチや,それらを組み合わせたハイブリッドなアプローチが取られている.生成ベースのアプローチは,ニューラル系列変換モデルを用いて平易な文を生成するアプローチである.\citeA{nisioi-2017}はパラレルコーパスを用いてニューラル機械翻訳モデルの学習を行い,生成ベースのアプローチをテキスト平易化に導入した.DRESS\cite{zhang-2017}は,文の同義性,文法性,平易性を報酬とした深層強化学習を用いてテキスト平易化を行う手法である.また,MUSS\cite{martin-2022}は,Webから自動収集した言い換え文対で事前訓練済み系列変換モデルであるBART\cite{lewis-2020}をファインチューニングする手法である.一方,別のアプローチとして,入力文中の各単語に対して編集操作を適用する編集操作ベースのアプローチがある.\citeA{alva-2017}は,入力文中の各単語に対して必要な編集操作を,BidirectionalLongShortTermMemoryを用いて予測した.このアプローチでは,「置換」,「保持」,「削除」の編集操作を入力文の各単語に適用して言い換えることにより平易な文を生成する.EditNTS\cite{dong-2019}は,データのソートなどの一般的なタスクを達成するための実行プログラムの生成を学習するニューラルネットワークモデルであるNeuralProgrammer-Interpreter\cite{reed-2015}を用いて,編集操作列を生成し入力文に適用する手法である.また,\citeA{kumar-2020}は,文法性や同義性,平易性を考慮しながら編集操作を繰り返し適用する手法を提案した.生成ベースと編集ベースを組み合わせたアプローチは,語彙制約を生成ベースのモデルに与えることでそれぞれの利点を活かす.\citeA{kajiwara-2019}は,ハードな語彙制約手法として,難解な単語の出力を避けるデコーディング手法を提案している.\citeA{agrawal-2021}は,入力文中の難解な単語に「削除」の編集操作を施したものに基づき,非自己回帰型系列変換モデルで制約を強制しないソフトな語彙制約による平易化を行っている.また,\citeA{dehghan-2022}は入力文に「削除」の編集操作を施したものと,事前訓練済み系列変換モデルによる入力文の言い換えを出力候補として,その中から平易な文として適切なものを選択する.本研究では,ハイブリッドなアプローチに対しソフトな語彙制約を導入し,難解な単語の出力を避けながら平易な単語の出力を促す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{難易度を考慮したテキスト平易化}テキスト平易化の言語学習支援への応用を考慮すると,ただ難解な文から平易な文へ変換するだけでなく,学習者に応じて適切な難易度に文を変換することが求められる.\citeA{scarton-2018}は,Newselaを用いて,K12に基づく$2$学年から$12$学年までの$11$段階の難易度を考慮し,難易度に応じて文単位で出力を制御する.具体的には,入力文の先頭に目標とする難易度のラベルを付与した系列を系列変換モデルに入力することで,目標難易度に応じて出力する.これにより,難易度を考慮しながらテキスト平易化を行い,自動評価指標であるBLEU\cite{papineni-2002}およびSARI\cite{xu-2016}を改善させた.また,\citeA{nishihara-2020}は文単位ではなく単語単位で難易度を考慮した出力の制御手法を提案している.まず,難解な単語は難解な文に出現しやすいという仮定のもと,Newselaから単語単位の難易度を推定し単語難易度辞書を構築する.そして,損失計算の際に単語難易度に応じて各単語に重み付けをする手法や,推論の際に難解な単語を生成しないようにする手法で,出力文の制御を行う.本研究では,\citeA{nishihara-2020}と同様にコーパスから単語難易度辞書を構築して制約を作成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{語彙制約}語彙制約とは,系列変換モデルのデコーダに対し語彙に関する制約を加えることで出力を制御する手法である.特定の単語を出力に出現させる正の語彙制約は,対象に関する専門用語や事前知識が存在するテキスト生成タスクにおいて有効性が示されている.GridBeamSearch\cite{hokamp-2017}は,専門用語を考慮する機械翻訳において通常のビームサーチを拡張して語彙に関する制約を加えることで正の語彙制約を行う.また,\citeA{anderson-2017}は同様の手法で,画像キャプション生成において,画像内の物体を表す単語に関して正の語彙制約を行う.一方,特定の単語を出力に出現させない負の語彙制約は,言い換え生成タスクにおいて有効性が示されている.\citeA{hu-2019}は,負の語彙制約を適用した言い換え生成によって訓練データを拡張することで,テキストからある仮説が推論されるかどうかを判定する自然言語推論タスクと,ある質問に対して解答を抽出する質問応答タスクにおいてモデルの性能を改善させている.高速かつ正・負両方の制約を適用できる柔軟な語彙制約手法として,\citeA{lu-2021}はNeuroLogicDecodingを提案している.この手法は,系列変換モデルへの変更を必要としないソフトな語彙制約を考慮したデコーディング手法であり,あらゆる系列変換タスクに応用可能である.出力生成の各ステップにおいて,与えられた制約が満たされているかどうかを表す制約状態と生成確率に基づいて出力単語を決定する.本研究では,正・負両方の制約を作成する手法を提案し,NeuroLogicDecodingをテキスト平易化に導入する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{sec:proposed-method}提案手法の概要を図~\ref{fig:constraint_generator}に示す.まず入力文の各単語に対して編集操作の予測(\ref{sec:edit-label}節)と難易度の判定(\ref{sec:identify-level}節)を行う.そして必要に応じて語彙選択(\ref{sec:select-simple}節)を行い,テキスト平易化にNeurologicDecodingによる語彙制約を導入するための正の語彙制約と負の語彙制約を作成する.\subsection{単語の編集操作予測}\label{sec:edit-label}提案手法では,まず入力文の各単語に対してどのような編集操作を行うべきか予測する.編集操作は,「削除」,「置換」,「保持」の$3$種類とし,予測器にはBERT\cite{devlin-2019}を用いて各単語に対して$3$値分類を行なって編集操作を予測する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-3ia5f1.pdf}\end{center}\caption{提案手法の構成}\label{fig:constraint_generator}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%入力文にどのような編集操作が必要かは,目標難易度によって変わると考えられる.そこで,BERTの入力は入力文の文頭に目標難易度を示すラベルを特殊記号として付加したものとする\footnote{例えば,「$<\bf{3}>$However,alotofpeoplearealsoconcerned.」のように付加する.}.ファインチューニングのための正解ラベルとして,各単語に必要な編集操作を付与したコーパスを人手で作成するのはコストが高い.したがって正解ラベルは,同一言語内の単語アラインメント手法\cite{lan-2021}を用いて自動的に作成する.このモデルを用いて,訓練用コーパスと検証用コーパスの入力文と正解文に対し,単語アラインメントを得る.入力文の各単語に対し,正解文に対となる単語がない,つまり元の単語が削除されているとき,その単語の正解ラベルを「削除」とする.正解文に対となる単語があるとき,さらにそれが元の単語と同じなら,その単語の正解ラベルを「保持」とする.また同様に,正解文に対となる単語があり,かつ元の単語と異なるなら,その単語の正解ラベルを「置換」とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{辞書に基づく難易度判定}\label{sec:identify-level}難易度判定では,\citeA{nishihara-2020}の難解な単語は難解な文に出現しやすいという仮定に基づき,入力文の各単語が難解かどうかを各難易度におけるTF(TermFrequency)を用いて判定する.ここで用いるデータセットには,各文に難易度$l\in\{0,1,...,L\}$が付与されているとする.まず,訓練用コーパスの難易度$l$の文に出現する語彙$V_{l}$を作成する.$n_{l}(w)$を$V_{l}$における単語$w$の出現回数とすると,単語$w$の難易度$l$におけるTFは\begin{equation}\label{probability_of_occurrence}\textrm{TF}(w,l)=\frac{n_{l}(w)}{\sum_{w'\inV_{l}}n_{l}(w')}\end{equation}で求められる.難易度$l$においてTFが最も高い時,その単語の難易度を$l$とする.つまり,各難易度の単語集合の辞書$D_{l}$を式\ref{difficulty_of_word}で定義する.\begin{equation}\label{difficulty_of_word}D_{l}=\{w|\argmax_{k\in\{0,1,...,L\}}\textrm{TF}(w,k)=l\}\end{equation}次に,構築した難易度辞書を用いて入力文中の各単語が難解かどうか判定する.各単語が目標とする文の難易度よりも高い難易度の辞書に含まれる時,その単語は「難解」であるとする.この難易度辞書に基づく難易度判定を入力文の全ての単語に適用する.そして,表\ref{tbl:decide-constraint}で示す規則により各単語を制約にするか否かを決定する.単語が「難解」かつ予測された編集操作が「削除」の時,その単語を負の語彙制約とする(表\ref{tbl:decide-constraint},セル[6]).さらに,単語が「難解」かつ予測された編集操作が「置換」の時,その単語を負の語彙制約とし,その平易な言い換えを正の語彙制約とする(表\ref{tbl:decide-constraint},セル[4]).平易な言い換えは,次節で説明する方法で選択する.単語が「平易」かつ予測された編集操作が「保持」の時,その単語を正の語彙制約とする(表\ref{tbl:decide-constraint},セル[2]).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{05table02.tex}%\caption{提案手法における制約の決定方法}\label{tbl:decide-constraint}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,単語が「平易」にも関わらず予測された編集操作が「置換」,「削除」の場合や,単語が「難解」にも関わらず予測された編集操作が「保持」の場合(表\ref{tbl:decide-constraint},セル[1,3,5]),編集操作の予測結果と難易度辞書による難易度判定が競合しているといえる.これらの単語に対する編集操作は,一般的な語彙の言い換えや省略に対応すると考えられるため,テキスト平易化の難易度制御のための制約として適切であるとは考えにくい.従って,これらの単語は正・負いずれの制約にもせず,出力するか否かは系列変換モデルに委ねる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{平易な単語の選択}\label{sec:select-simple}語彙選択では,「難解」かつ予測された編集操作が「置換」(表\ref{tbl:decide-constraint},セル[4])である単語$w$の平易な言い換えを選択する.平易な単語の候補$w'$は,難易度が目標難易度$l$以下の辞書に含まれる単語とする.テキスト平易化は,文の意味を保持しつつ平易な表現を得るタスクであるため,言い換えは元の単語と意味が類似している単語が相応しいと考えられる.意味的な類似性の判定には,RoBERTa\cite{liu-2019}を用いる.意味的な類似性の判定では,$2$つの単語を入力とし,意味的な類似度を出力するというタスクで,RoBERTaをファインチューニング\cite{yoshinaka-2022}する.ファインチューニングには,言い換えに関する大規模データPPDBに収録されている,単語間の同義性のラベル付きデータ\footnote{\url{http://paraphrase.org/#/download}}\cite{pavlick-2015}を用いる.$1$エポックごとに,検証用データで損失を評価し,7回改善が見られなくなったところでファインチューニングを終了する.$w$と$w'$に対して,RoBERTaによりスコアを測り,最もスコアが高い単語を$w$の言い換えとする.難解な単語を負の制約とするため,言い換えにおける元の単語は負の制約とする.また,平易な単語を正の制約とするため,言い換えた単語は正の制約とする.このようにして作成した制約を用いて,NeurologicDecodingによる語彙制約を行う.なお,これら制約はNeurologicDecodingによって強制されるわけではないため,モデルは文の自然さを考慮しながら編集操作予測の情報を利用して文を生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} 本章では,評価実験の設定およびその結果について議論する.\ref{sec:exp_settings}節では,本実験で用いたデータセット,評価指標,実装方法,比較手法を示す.\ref{sec:exp_auto_eval}節では,各手法の出力に対して自動評価を行った結果を示す.\ref{sec:exp_human_eval}節では,各手法の出力に対して人手評価を行った結果を示す.\ref{sec:exp_eval_constraint}節では,提案手法で作成した制約の分析を行った結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sec:exp_settings}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データセット}評価用データセットには,既存手法でしばしば用いられているNewselaおよびNewselaの改良版であるNewsela-Auto\cite{jiang-2020}を用いる\footnote{テキスト平易化におけるもう一つの代表的なデータセットとしてWiki-Auto\cite{jiang-2020}があるが,難易度が「難解」と「平易」のみの$2$段階であり,本実験には適さないため除外する.}.それぞれのコーパスにおいて,各記事にはK12に基づく$2$学年から$12$学年までの$11$段階の難易度が付与されている.本実験では既存研究に従い,各文の難易度をその文が含まれる記事の難易度とみなす\cite{scarton-2018,nishihara-2020}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価指標}本実験では,\pagebreakEASSE\cite{alva-2019}を用いてSARI,Flesch-KincaidGradeLevel(FKGL),文長(Len)を評価する.SARIはテキスト平易化の評価指標であり,入力文に対して追加された単語(Add),入出力間で保持された単語(Keep),入力文から削除された単語(Del)のF値の平均を計算する.FKGLは,出力文に対して単語数と音節数からアメリカ合衆国の教育制度における学年を推定する.制御性の観点では,FKGLおよびLenは出力文と正解文との差分が少なければ,そのモデルが優れていると言える.また,提案手法の平易化の制御性を評価するために,先行研究\cite{agrawal-2021}と同じく,出力文と正解文のFKGL間のPearson'scorrelationcoefficient(PCC),MeanSquaredError(MSE),Accuracy(ACC)を測る.ACCは,出力文と正解文のFKGLの差が$1$以内である出力文の割合である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{手法の実装}系列変換モデルとして,HuggingFaceTransformers\footnote{\url{https://github.com/huggingface}}\cite{wolf-2020}を用いて,事前学習済み系列変換モデルBART-Base\footnote{\url{https://huggingface.co/facebook/bart-base}}\cite{lewis-2020}をファインチューニングする.BARTは,エンコーダとデコーダの両方で$768$次元の$6$層の隠れ層と,$12$個の注意ヘッドを持つ.語彙サイズは,$50,265$である.正則化には埋め込み層および隠れ層にて確率$0.1$でドロップアウトを適用する.最適化アルゴリズムには,Adam\cite{kingma-2014}を用いて,$20$エポック学習する.$1$エポックごとに,検証用データセットでSARIを評価し,最も優れたものを最終的なモデルとする.また,編集操作予測モデルとして,HuggingFaceTransformersを用いて,BERT-Base\footnote{\url{https://huggingface.co/bert-base-uncased}}\cite{devlin-2019}をファインチューニングする.BERT-Baseは,$768$次元の$12$層の隠れ層と,$12$個の注意ヘッドを持つ.事前学習に用いられた語彙のサイズは$30,522$である.ファインチューニングには,\ref{sec:proposed-method}章で作成した正解ラベルを用いる.$1$エポックごとに,検証用コーパスでF1スコアを評価し,$3$回改善が見られなくなったところでファインチューニングを終了する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{比較手法}本実験では,生成ベース,編集ベース,ハイブリッドなアプローチのそれぞれ代表的な手法と提案手法を比較する.生成ベースの手法として,文の同義性,文法性,平易性を報酬とした深層強化学習を用いるDRESS\cite{zhang-2017},テキスト平易化における最先端手法であり,Webから自動収集した言い換え文対でBARTをファインチューニングするMUSS\cite{martin-2022}を用いる.編集ベースの手法として,NeuralProgrammer-Interpreterを用いてend-to-endで入力文に編集操作を適用するEditNTS\cite{dong-2019},文法性や同義性,平易性を考慮しながら編集操作を繰り返し適用する手法\cite{kumar-2020}を用いる.ハイブリッドな手法として,難解な単語の出力を避けるデコーディングを行う手法\cite{kajiwara-2019},入力文中の難解な単語に「削除」の編集操作を施したものに基づき非自己回帰型系列変換モデルで文を生成する手法\cite{agrawal-2021},入力文に「言い換え」と「削除」の編集操作を施し,「言い換え」の過程で事前訓練済み系列変換モデルによって文を生成する手法\cite{dehghan-2022}を用いる.これらの既存手法について,実験設定が本論文と異なるものについては著者実装を用いて再現した.また,評価指標の計算の仕方が異なるものは著者の公開した出力を用いて再評価した.実験設定・評価設定が本論文と同じものについては,結果を論文から引用した.提案手法のアブレーション実験として,NewselaおよびNewsela-Autoの訓練データを用いてファインチューニングしたBART(提案手法から語彙制約を除いたモデルに該当)と比較する.また,提案手法における理想的な編集操作,すなわち編集操作予測の正解ラベルで作成した制約を用いた場合の結果である提案手法(Oracle)とも比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{05table03.tex}%\hangcaption{Newselaにおける実験結果:$^\dagger$は著者によって公開された出力を用いて,EASSEで評価した値,$^\star$は著者らによる公開実装を用いて再現した出力を評価した値,$^\ddagger$は本実験と同一の設定で行われた実験結果を論文から引用した値であることを示す.}\label{tbl:newsela_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec:exp_auto_eval}NewselaとNewsela-Autoの評価実験の結果をそれぞれ表\ref{tbl:newsela_score}と表\ref{tbl:newsela-auto_score}に示す.$3$段に分かれている各手法において,上段が生成ベースのアプローチ,中段が編集ベースのアプローチ,下段がハイブリッドなアプローチである.Newselaにおいて,提案手法は平易性に関する評価指標であるSARIおよび制御性に関する評価指標であるPCCとMSEで最も高い精度を達成した.さらに,Oracleは全ての評価指標で先行研究および提案手法を上回っている.また,Newsela-Autoにおいて,提案手法はSARIおよびMSEで最も良い結果を達成した.表\ref{tbl:example_output}に提案手法を用いて作成された制約と,それに基づく語彙制約による出力例を示す.$1$つ目の例では,入力文にはconcernedという単語が出現しているのに対し,正解文ではworriedという単語に置き換わっている.しかし,BARTではconcernedが残っており,単語の置き換えができていない.提案手法では,入力文から正の制約としてworried,負の制約としてconcernedを選択することで,単語が置き換えられており,積極的な言い換えが行われていることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{05table04.tex}%\caption{Newsela-Autoにおける実験結果:既存手法は著者らによる公開実装を用いて再現した性能である.}\label{tbl:newsela-auto_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{05table05.tex}%\caption{提案手法に基づくモデルの出力例}\label{tbl:example_output}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%$2$つ目の例では,入力文と正解文で主語が異なっており,文構造が変化している.入力文にはenforceという単語とexpectという単語が出現しているのに対し,正解文にはhavetoという句が出現している.しかし,BARTではenforceとexpectが残っており,文構造が変化していない.提案手法では,入力文から負の制約としてenforceとexpectを選択している.この制約を用いて語彙制約を行うと,enforceとexpectを出力しないように文生成することで文構造が変化しており,柔軟な平易化が行われている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手評価}\label{sec:exp_human_eval}出力文に対して文法性,同義性,平易性の$3$項目の人手評価を行った.Newsela-Autoからランダムに抽出した$60$文の入力文に対して,学年$2$(小学校$2$年生),学年$5$(小学校$5$年生),学年$8$(中学校$2$年生)の異なる$3$つの対象学年に向けた平易化を行い,$180$文の出力文を生成した.Newsela-AutoにおけるSARIが提案手法に次いで高く(表\ref{tbl:newsela-auto_score}),テキスト平易化の難易度制御を行なっている\cite{agrawal-2021}を比較手法とする.先行研究と提案手法の出力文について,AmazonMechanicalTurkの$5$人のワーカーに各項目の評価を依頼した\footnote{付録にワーカーの募集条件および依頼文を記載している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{05table06.tex}%\hangcaption{人手評価の結果:文法性,同義性の平均値と各学年の平易性の平均順位,$^\star$は比較手法と有意な差があることを示す.}\label{tbl:human_eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人手評価の結果を表\ref{tbl:human_eval}に示す.文法性および同義性の評価値は,$5$段階の絶対値であるため,全文に対してその平均値を計算した.平易性の評価値は平易さの順位であるため,対象学年ごとの平均順位を計算した.学年$2$に向けた出力文の平易さが$1$位で,学年$8$に向けた出力文が$3$位となることが理想的である.なお,難易度の制御は,出力文の流暢性が高く,文として自然な場合にのみ妥当な判断が可能と考えられるため,流暢性の低い出力文の順位は平均順位の計算から除外した.具体的には,文法性の評価値の平均が$2$以上のものに絞って平易性の評価値を計算した.各項目について,提案手法と\cite{agrawal-2021}の平均値が等しいという帰無仮説の下で,有意水準を$5\%$とし,ウィルコクソンの符号順位検定を行った.その結果,文法性と同義性の$p$値はそれぞれ$1.86\times10^{-6}$,$9.96\times10^{-3}$となり,有意差が確認された.一方,平易性はいずれの学年についても有意差はなかった.したがって,提案手法は文法性と同義性の平均値において先行研究を上回り,平易性に関しては先行研究と同等の制御ができていることが示された.これは,既存手法の制約が「削除」の編集操作のみを考慮しているのに対し,提案手法の「削除」および「保持」の編集操作予測に基づく制約が,文法的に正しい文構造や意味を保つことに寄与する単語の出力を促せているからだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{作成した制約に関する分析}\label{sec:exp_eval_constraint}表\ref{tbl:newsela_score}と表\ref{tbl:newsela-auto_score}で示されたように,理想的な編集操作を用いているOracleと予測した編集操作を用いる提案手法の間に,ほとんどの評価指標で大きな差が生じている.これは,編集操作予測の精度が低いために適切でない制約を選択しているからだと考えられる.よって,作成した制約の適切さと編集操作予測モデルの分析を行う.作成した正・負の制約に関して,以下の式で適合率を計算し,その結果を表\ref{tbl:CR_score}に示す.\begin{align*}\mbox{正の制約の適合率}&=\frac{\mbox{正解文に存在する正の制約の数}}{\mbox{正の制約の総数}}\\[1ex]\mbox{負の制約の適合率}&=\frac{\mbox{正解文に存在しない負の制約の数}}{\mbox{負の制約の総数}}\end{align*}NewselaとNewsela-Autoの両方において,負の制約に比べて正の制約の適合率が低い.適切な正の制約を作成できなければ,語彙制約によって正解文との一致率が下がり,平易性や制御性が損なわれてしまうと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{05table07.tex}%\caption{作成した制約の評価}\label{tbl:CR_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{05table08.tex}%\caption{編集操作予測器の性能評価}\label{tbl:EP_score}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,本研究で構築した編集操作予測モデルが,編集操作を適切に予測できているかを調べる.表\ref{tbl:EP_score}に,各データセットにおける予測したラベルと正解ラベルとのprecision,recall,F1を示す.性能評価から,編集操作予測の精度は高いとは言えず,特に置換の予測ができていない.これは,NewselaとNewsela-Autoにおいて,「置換」が行われる頻度が低いためと考えられ,実際にそれぞれの全ラベルのうち置換ラベルの割合は$12.6\%$,$6.2\%$となっている.作成した制約の評価と編集操作予測モデルの性能評価の結果から,「置換」ラベルの予測精度の低さにより正の制約の品質に課題があることが明らかとなった.従って,編集操作の予測精度の向上が今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,テキスト平易化における編集操作の予測に基づき,出力文に出現させない単語の制約(負の制約)と出力文に出現させる単語の制約(正の制約)を作成する手法を提案した.そして,正・負両方の語彙制約を系列変換モデルに導入し,積極的かつ柔軟に,難易度の制御が可能なテキスト平易化を行った.評価実験の結果,提案手法の正・負両方の語彙制約を用いた平易化によって,平易性と制御性の自動評価で比較手法を凌ぐ性能を達成した.また人手評価でも文法性や同義性において比較手法を上回った.一方で,本研究で作成した編集操作予測モデルの性能が十分とは言えず,特に置換すべき単語の予測に課題があることを確認した.また,本研究では単語単位の制約のみを系列変換モデルに与えているが,平易化はしばしばフレーズ単位でも行われる.よって,編集操作予測の性能向上やフレーズ単位での制約をモデルに与えることが今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は厚生労働科学研究費補助金AC事業JPMW21AC5001の助成を一部受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix人手評価(\ref{sec:exp_human_eval}節)において,アノテーションの品質を保証するために,HITの承認数が$1,000$件以上であること,承認率が$98\%$以上であること,アメリカ合衆国在住であることの$3$つの条件を設けて,ワーカーを募集した.文法性,同義性評価の依頼文と平易性評価の依頼文をそれぞれ図\ref{fig:mturk_gram_mean}と図\ref{fig:mturk_simp}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-3ia5f2.pdf}\end{center}\caption{文法性,同義性評価の依頼文}\label{fig:mturk_gram_mean}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{30-3ia5f3.pdf}\end{center}\caption{平易性評価の依頼文}\label{fig:mturk_simp}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{舌達也}{2022年大阪大学工学部電子情報工学科卒業,同年大阪大学大学院情報科学研究科マルチメディア工学専攻に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{梶原智之}{愛媛大学大学院理工学研究科助教.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).大阪大学データビリティフロンティア機構の特任助教を経て,2021年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現認識と生成,言語学習支援技術に興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\end{document}
V07N04-11
\section{はじめに} 近年の高度情報化の流れにより,種々の情報機器が自動車にも搭載されるようになり,さまざまな情報通信サービスが広がりつつある.このような車載情報機器は,自動車に搭載するためにCPUの速度やRAM,ROMなどのメモリ容量の制約が非常に厳しく,また,開発期間がより短いことや保守管理の労力の低減も同時に求められている.自動車内で提供される情報通信サービスには,交通情報,観光情報,電子メール,一般情報(例えばニュース)などが含まれるが,このような情報はディスプレイ上に文字で表示するよりも,音声により提供する方が望ましいとされている.文字情報を音声に変換する技術の研究開発は進んでいるが,その合成音声の韻律は不自然という問題がある.その原因として大きな割合を占めるものはポーズ位置の誤りであり,これを改善することにより韻律の改善が可能となる.ポーズ位置を制御する手法として,係り受け解析を利用する方法が研究されている\cite{Suzuki1995,Umiki1996,Sato1999,Shimizu1999}.これらの手法の中で,海木ら\cite{Umiki1996}や清水ら\cite{Shimizu1999}の手法は係り受けの距離が2以上の文節の後にポーズを挿入するという方法であり,その有効性がすでに示されている.そしてこの手法を実現するためには,高精度な係り受け解析が必要となる.文節まとめあげは図\ref{fig:文節まとめあげ}のように,形態素解析された日本語文を文節にまとめあげる処理のことをいう.この処理は,日本語文の係り受け解析に重要となるものであるため,文節まとめあげの精度が高いことが望まれる\footnote{形態素解析の精度は,既に十分高い精度を得られている.}.本研究はこのように,係り受け解析にとって重要な位置を占めている文節まとめあげに関する研究報告である.\begin{figure}\begin{center}\begin{tabular}{cl}\fbox{日本語文}&うまく日本語文を解析する.\\$\downarrow$&$\downarrow$\\\fbox{形態素解析}&うまく,日本語,文,を,解析,する,.\\$\downarrow$&$\downarrow$\\\fbox{\bold文節まとめあげ}&うまく|日本語文を|解析する.\\$\downarrow$&$\downarrow$\\\fbox{係り受け解析}&うまく|日本語文を|解析する.\\[-2mm]~&││↑↑\\[-3mm]~&│└────┘│\\[-3mm]~&└──────────┘\\\end{tabular}\caption{文節まとめあげの処理}\label{fig:文節まとめあげ}\end{center}\end{figure}従来の文節まとめあげは,人手によりまとめあげ規則を書き下す方法と,機械学習によって得た統計情報を利用する方法の二通りに大きく分けられる.人手により作成した規則を用いる方法としてはknp\cite{knp2.0b4}があり,高い精度を得られているが,人手により規則を保守管理することは容易ではなく,車載情報機器には不向きであるといえる.機械学習を用いる方法としては村田らによる方法\cite{Murata2000}があるが,まとめあげのための情報を152通りも利用しているなど非常に複雑なアルゴリズムになっている.このため新たに車載情報機器に実装するためには長い開発期間を要し,また規則の学習にも長い時間を要するため保守管理にも時間がかかり,さらにデータ量が膨大になるなどの問題も生じるため,車載情報機器には不向きであるといえる.本研究ではこれらの問題を解決し,従来手法と比べて遜色ない精度を持ち,保守管理が容易でかつ車載情報機器の求める厳しい条件に適した,複数決定リストの順次適用による文節まとめあげという新しい手法を考案した.そしてこの手法を用いて文節まとめあげを行ったところ,最高で99.38\%という非常に高い精度が得られたことを報告する. \section{従来の研究} label{sec:従来の研究}文節まとめあげに関する従来の研究は,人手により文節まとめあげの規則を書き下す方法と,大規模コーパスから機械学習により得た統計情報を利用する方法の2種類に大きく分けられる.これらの手法について以下で説明する.\subsection{人手規則による文節まとめあげ}人手により作成した文節まとめあげの規則を利用する最もよく知られているツールに,knpがある.knpは文節に関する規則を人手で網羅することにより,99\%以上という非常に高精度な文節まとめあげを実現している.knpの文節まとめあげの規則は906行のファイルに148種類の規則が記述されている\footnote{knpは係り受け解析ツールであるが,係り受け解析の前に文節まとめあげを行っているため,その部分だけの数値を利用した.}.knpへの入力は形態素解析ツールjuman\cite{juman3.5}の出力に限定されており,文節まとめあげの規則もその形式に基づいて作成されている.そのため,juman以外の形態素解析ツールの出力形式で利用するためには,規則をすべて書き直す必要がある.人手規則による文節まとめあげは,このように多数の規則を人手で修正・追加を繰り返さなければならず,大きな労力が必要という問題がある.しかしながら,車載情報機器の形態素解析部の出力形式はそれぞれ機種によって異なり,knpを車載情報機器に実装するためには規則をすべて書き直さなければならず,規則の保守管理も容易ではないため,問題が大きい.\subsection{機械学習による文節まとめあげ}\label{subsec:機械学習手法}人手規則による文節まとめあげの持つ問題に対処でき,最近最も盛んに研究されているのが,大規模コーパスから機械学習により得た統計情報を利用して文節まとめあげを行う手法である\cite{Zhang1998,Asahara1999,Murata2000}.機械学習による手法は,大規模コーパスから文節区切りの規則を学習し,それにより文節まとめあげを行う.そのため人手により規則を保守管理する必要がなく,また形態素解析ツールの出力形式に依存しないという利点がある.ただし機械学習の手法でも,学習用のコーパスを準備するという労力は必要である.しかし,京大コーパス\cite{KyotoCorpus}などの大規模コーパスの構文情報を,形態素解析ツールの各出力形式に変換するのは,文節区切りの情報だけに限定するため容易である.また人手により規則を作成する場合,プログラミングの専門的な知識が必要であるうえ,規則を改良するためには多くの試行錯誤が必要となる.それに対し,コーパスの作成を行う場合は,コーパスの原文を形態素解析した結果がほぼ100\%に近い精度であり,それを文節に区切るだけでコーパスが得られるので特別に専門的知識は必要ない.また,単にコーパスの量を増やすだけで精度を向上させることができる.これらのことから,機械学習の手法は必要な労力が少ないといえる.機械学習を用いる文節まとめあげには様々な種類があるが,これまでに最も精度の高い結果を得ているのが,村田らによる研究である\cite{Murata2000}.村田らは,決定リストを用いた文節まとめあげの手法に排反な規則を組み合わせた手法を提案している.決定リストは,規則をある優先順位を決めて1次元に並べたリストのことである.そしてそのリストを順に探索して一番最初に適用された規則のみを用いて解析を行う手法である.決定リストの要素としてよく用いられるのは,大規模コーパスから学習した結果であり,それを並べる優先順位としては確率が主に用いられる.例えば,図\ref{fig:決定リスト}のような決定リストにより,「うまく,日本語,文,を,解析,する,.」という形態素解析済みの文を処理する方法について考える.「うまく(形容詞)」と「日本語(名詞)」という情報から,「うまく」+「日本語」という規則が最初に適用されるため,この部分は「文節に区切る」と決定される.リストの下位に「形容詞」+「名詞」は「文節に区切らない」という規則があるが,決定リストはリストの上位の要素から適用するため,この規則は無視される.\begin{figure}\begin{center}\begin{tabular}{r@{}c@{}l|c|c}\multicolumn{3}{c|}{規則}&確率&文節区切り\\\hline「うまく」&+&「日本語」&100\%&区切る\\「うまい」&+&「日本語」&95\%&区切らない\\&$\vdots$&&$\vdots$&$\vdots$\\「形容詞」&+&「名詞」&70\%&区切らない\\&$\vdots$&&$\vdots$&$\vdots$\\\end{tabular}\caption{決定リストの例}\label{fig:決定リスト}\end{center}\end{figure}村田らの手法は,文節に区切るあるいは区切らない確率が100\%である規則を排反な規則と呼び,決定リストの手法に排反な規則を組み合わせて文節まとめあげを行う.確率が100\%でない規則を適用するのは,あらかじめ誤る可能性のあるものを利用するということになるため,高い精度を望むことができない.そのため排反な規則を重要視しなければならない,と主張している.図\ref{fig:村田手法}のような前後4つの形態素の4種類の情報を152種類組み合わせて,それにより決定リストを作成する.決定リストの要素を並べる順序は,まず確率でソートして,同じ確率のものは頻度順にソートする.\begin{figure}\begin{center}\begin{tabular}{cccc}二つ前&一つ前&一つ後&二つ後\\\hline&情報A&情報A&\\情報A&情報B&情報B&情報A\\情報B&情報C&情報C&情報B\\&情報D&情報D&\\\end{tabular}素性$\cdots~~\left(\begin{array}{ll}情報A:&品詞\\情報B:&品詞+品詞細分類\\情報C:&品詞+品詞細分類+意味情報\\情報D:&品詞+品詞細分類+意味情報+単語表記\\\end{array}\right)$\caption{村田らの手法で用いる情報}\label{fig:村田手法}\end{center}\end{figure}例えば,ある形態素の隙間の文節区切りを決定する時に図\ref{fig:村田リスト}のような規則のパターンが一致して適用可能である場合,決定リストの手法であれば,最初の規則Aが適用されるため「文節に区切らない」と決定される.しかし規則B,C,Dを見ると,各規則ごとの頻度は規則Aと比べると小さいが,それぞれの頻度を足しあわせると規則Aの頻度よりも大きい.そのため,規則B,C,Dに従って「文節に区切る」と決定する方が望ましいと考えられる.このように,排反な規則,つまり確率が100\%となる規則の頻度を足しあわせ,その頻度により文節区切りの決定を行う.\begin{figure}\begin{center}\begin{tabular}{cccrrc}\hline規則&パターン&&確率&頻度&文節区切り\\\hlineA&a&$\Rightarrow$&100\%&34&区切らない\\B&b&$\Rightarrow$&100\%&33&区切る\\C&c&$\Rightarrow$&100\%&25&区切る\\D&d&$\Rightarrow$&100\%&19&区切る\\E&e&$\Rightarrow$&81.3\%&123&区切る\\F&f&$\Rightarrow$&76.9\%&13&区切る\\G&g&$\Rightarrow$&57.4\%&540&区切らない\\$\vdots$&$\vdots$\\\end{tabular}\caption{村田らの手法の説明}\label{fig:村田リスト}\end{center}\end{figure}この手法による文節まとめあげは,最高で99.17\%という高い精度を得ている.しかしこの手法は,図\ref{fig:村田手法}のような情報の組み合わせが152種類もある.京大コーパス中のデータは,1文平均約23の形態素の隙間があるため,1つの形態素の隙間に対して152種類の組み合せを考慮すると,1文あたり$152\times23=約3500回$もの処理をしなければならない.このようにアルゴリズムが複雑なため,新たに車載情報機器に実装するためには長い開発期間を要し,また規則の学習に長い時間を要するため保守管理にも時間がかかり,さらにデータ量が膨大になるなど様々な問題がある.そのため,車載情報機器には不向きであるといえる.\ref{sec:文節まとめあげ}章では,これらの問題を解決するために考案した新しい手法について述べる. \section{本研究の文節まとめあげの手法} label{sec:文節まとめあげ}\subsection{複数決定リストの順次適用による文節まとめあげ}\label{subsec:複数決定リスト}本研究では,従来手法の問題点を解決するために次の点に着目した.\begin{itemize}\item学習が容易で用いる情報の数が少ないこと\item学習結果を利用して文節をまとめる方法が従来手法より簡明であること\item精度が従来手法と同程度かそれ以上となること\end{itemize}これらを実現するために,{\bold複数決定リストの順次適用による文節まとめあげ}という新しい手法を考案した.機械学習を用いる従来手法では,大規模コーパスから得られた様々なn-gram(主に2-gramから4-gram)が利用されている.本手法では,1つの形態素の隙間に対して6種類のn-gramのそれぞれの決定リストだけを考慮するという非常に簡明な方法を用いる.具体的には,品詞,単語表記,品詞細分類,単語表記+品詞の4種類の形態素2-gramと,品詞,単語表記の2種類の形態素3-gramを要素とする決定リストを利用する\footnote{品詞細分類の3-gramと単語表記+品詞の3-gramは,予備実験を行ったところ結果に変化がなかったため用いなかった.}(図\ref{fig:本手法}).以下では,これらのn-gramを要素とする決定リストを,n-gramリストと呼ぶ.文節まとめあげの処理は,村田らと同様に形態素解析済みのテキストに対して行い,形態素の隙間ごとにその前後の形態素の情報からn-gramリストを調べて文節を区切るか区切らないかを決定する処理とした.\begin{figure}\begin{center}\begin{tabular}{l|ccccc}&二つ前&&一つ前&&一つ後\\\hline単語表記2-gram&~&&単語表記&---&単語表記\\品詞2-gram&~&&品詞&---&品詞\\品詞細分類2-gram&~&&品詞細分類&---&品詞細分類\\単語表記+品詞2-gram&~&&単語表記+品詞&---&単語表記+品詞\\単語表記3-gram&単語表記&---&単語表記&---&単語表記\\品詞3-gram&品詞&---&品詞&---&品詞\\\end{tabular}\caption{本手法で用いる情報}\label{fig:本手法}\end{center}\end{figure}例えば,2-gramの場合には$Y$,$Z$という連続する2つの単語の$Y$と$Z$の間,3-gramの場合には$X$,$Y$,$Z$という連続する3つの単語の$Y$と$Z$の間に注目し,その間の文節区切りを次のように決定する\footnote{3-gramを考慮する場合,$X$,$Y$,$Z$という3つの単語の$X$と$Y$の間も考慮する必要があると思われるが,本手法は処理が簡明であることを最大の目標としたため,ここでは考慮しない.}.\begin{enumerate}\item$X$,$Y$,$Z$の形態素を得る.\item図\ref{fig:本手法}の6種類のn-gramリストを順番に調べる\footnote{n-gramリストの適用順は\ref{sec:実験}章の実験で最適化を行う.}.\begin{enumerate}\itemn-gramリスト中に規則が見つかり,文節に区切る数が区切らない数よりも多い場合には区切りを入れ,少ない場合には区切らないこととする.この段階で$Y$と$Z$の文節区切りを確定し,処理を終了する.\itemn-gramリスト中に規則が見つからない場合,または文節に区切る数と区切らない数が等しい場合には,次のn-gramリストを調べる.\end{enumerate}\item6種類すべてのn-gramリストを調べた結果,文節に区切るか区切らないか確定しない場合,デフォルト処理として文節に区切るものとする\footnote{デフォルト処理を文節に区切らないとした場合は,予備実験により精度が下がることがわかったため,文節に区切るものとした.}.\end{enumerate}本手法の最大の特徴は,このように{\bold6種類のn-gramリストを順番に調べるだけで文節まとめあげを行う},という非常に簡明な点である.村田らの手法では\ref{subsec:機械学習手法}節で示したように,1つの形態素の隙間に対して約3500回もの処理をしなければならない.しかし,本手法では最大で$6\times23=138回$の処理でよいため,村田らの手法と比べて約$\dfrac{1}{25}$の処理量で文節まとめあげを行うことができる.\subsection{n-gramリストの取得方法}\label{subsec:n-gramリスト取得}各n-gramリストの要素は,大規模コーパスから機械学習によって得る.本研究では,学習コーパスとして京大コーパス\cite{KyotoCorpus}を利用した.京大コーパスにはあらかじめ詳細な形態素の情報と文節区切りの情報が付与されているので,形態素の隙間ごとに文節に区切る数と区切らない数を数えて,それを確率の高い順に並べて保持する.ただし,確率には文節に区切る確率か文節に区切らない確率の2種類があるが,高い方の確率を基準としてリストに並べた.つまり,リストの最下位は確率50\%となる.以上のようにして得られた品詞2-gramの学習結果の決定リストの例を図\ref{tab:学習結果例}に示す.\begin{figure}\begin{center}\begin{tabular}{rr@{}c@{}lc}確率&\multicolumn{3}{c}{規則}&区切り\\\hline100\%&「連体詞」&+&「連体詞」&区切る\\100\%&「連体詞」&+&「名詞」&区切る\\$\vdots$&&$\vdots$&&$\vdots$\\55\%&「特殊」&+&「特殊」&区切る\\52\%&「特殊」&+&「接続詞」&区切らない\\\end{tabular}\caption{品詞2-gramの決定リスト}\label{tab:学習結果例}\end{center}\end{figure} \section{実験と考察} label{sec:実験}\subsection{実験方法}\label{subsec:実験方法}本手法の性能を評価するため,評価システムを作成して以下の実験を行った.\begin{enumerate}\item6種類のn-gramリストを適用する数や順序を変化させる実験\item学習コーパスの量を変化させる実験\item学習結果の一部分だけ利用する実験\item比較実験\itemn-gramや条件の追加実験\end{enumerate}1.,3.,4.,5.の実験の学習コーパスには,京大コーパスの最初の10000文を利用し,2.の実験には,京大コーパスを最初から1000文ずつ10000文まで変化させて利用した.また,すべての実験のテストコーパスは京大コーパスの10001文目からの残り9956文を利用した.学習コーパス,テストコーパスの内容は表\ref{tab:京大コーパス}の通りである.\begin{table}\begin{center}\caption{京大コーパスの内容}\label{tab:京大コーパス}\begin{tabular}{l||r|r}\hline&学習コーパス&テストコーパス\\\hline\hline文の数&10,000&9,956\\\hline形態素の隙間の数&240,682&227,053\\\hline文節区切りの数&98,395&93,971\\\hline\end{tabular}\end{center}\end{table}\subsection{評価基準}\label{subsec:評価基準}本研究の文節まとめあげの評価基準には,村田らが用いたF値を採用した.F値はF-measureを意味し,適合率と再現率の調和平均から得られる.適合率と再現率は,評価システムの出力とテストコーパスの内容を比較して,次のように計算する.\begin{eqnarray}\label{eq:Eval}\begin{array}{rcl}適合率&=&\dfrac{right}{result}\\[4mm]再現率&=&\dfrac{right}{correct}\end{array}\end{eqnarray}ここで,$result$を評価システムが文節に区切った数,$correct$をテストコーパスで文節に区切られている数(正解の区切り),$right$を両者の文節区切りが一致している数とする.これらの調和平均を以下のように計算すると,F値が得られる.\begin{displaymath}F=\left(\dfrac{\dfrac{1}{適合率}+\dfrac{1}{再現率}}{2}\right)^{-1}\times100(\%)\end{displaymath}例えば,次のようなテストコーパスの文節区切りと評価システムの出力がある時のF値の計算例を示す.文中「|」により文節の区切りを表すものとする.\begin{quote}{\boldテストコーパス}:\hspace{10mm}昨日|政府は,|国会移転の|候補地を|発表した.{\bold評価システム}:\hspace{10mm}昨日政府は,|国会|移転の|候補地を|発表|した.\begin{displaymath}right=3,~~result=5,~~correct=4\end{displaymath}\begin{displaymath}適合率=\dfrac{3}{5},~~再現率=\dfrac{3}{4}\end{displaymath}\begin{displaymath}F=\dfrac{2}{\dfrac{5}{3}+\dfrac{4}{3}}\times100=66.67(\%)\end{displaymath}\end{quote}\subsection{実験結果}\label{subsec:実験結果}\subsubsection{n-gramリストを用いる数や適用する順序を変化させる実験}\label{subsubsec:n-gramの数}6種類のn-gramリストを用いる時に,n-gramリストを用いる数や適用する順序により精度が変化すると考えられる.そこで,6種類のn-gramリストを用いる数や順序を変化させて実験したところ,図\ref{fig:n-gramの数}のような結果を得た.ただし図中,n-gramリストを用いた数が1,2,3,4は4種類の2-gramリストだけを用いた結果で,数が5,6はさらに2種類の3-gramリストを加えた結果である.n-gramリストを用いた数ごとのF値は,その数における最も精度の高かった順序の結果のみを示した.また,それぞれn-gramリストを1つだけ用いた結果を表\ref{tab:n-gram1つ}に,最も精度の高かった時のn-gramリストの適用順を表\ref{tab:適用順}に示した.表\ref{tab:n-gram1つ}中のデフォルト処理とは,n-gramリスト中で規則を見つけられなかった場合に適用する処理のことを表す.本手法ではデフォルト処理として「区切る」を用いるが,比較のため「区切らない」場合の精度も示した.また,表\ref{tab:n-gram1つ}中の被覆率は,規則を適用できた割合を示す.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=graph-1-10000-jis.eps,scale=0.8}\end{epsf}\begin{draft}\atari(216,152,1bp)\end{draft}\caption{n-gramリストを用いる数や順序による精度の変化}\label{fig:n-gramの数}\end{center}\end{figure}\begin{table}\begin{center}\caption{各n-gramリストの精度}\label{tab:n-gram1つ}\begin{tabular}{l|c|c|c|c|c|c|c|}~&\multicolumn{3}{c|}{デフォルト処理:区切る}&\multicolumn{3}{c|}{デフォルト処理:区切らない}\\\cline{2-7}n-gramリスト&適合率&再現率&F値&適合率&再現率&F値&被覆率\\\hline品詞2-gram&92.91\%&96.52\%&94.68\%&92.91\%&96.51\%&94.68\%&99.99\%\\単語表記2-gram&63.08\%&99.79\%&77.30\%&99.06\%&55.20\%&70.89\%&62.08\%\\品詞細分類2-gram&96.73\%&99.48\%&98.08\%&98.27\%&98.08\%&98.17\%&98.88\%\\単語表記+品詞2-gram&62.78\%&99.95\%&77.12\%&99.51\%&54.90\%&70.76\%&61.51\%\\品詞3-gram&86.38\%&96.09\%&90.97\%&94.66\%&93.78\%&94.21\%&95.49\%\\単語表記3-gram&44.78\%&99.96\%&61.85\%&99.84\%&11.70\%&20.95\%&21.73\%\\\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{n-gramリストの最適な適用順}\label{tab:適用順}\begin{tabular}{c|l}\begin{minipage}[b]{5zw}n-gram\\リストの数\end{minipage}&\\\hline1&品詞細分類2-gram\\2&品詞細分類2-gram→品詞2-gram\\3&単語表記+品詞2-gram→品詞細分類2-gram→品詞2-gram\\4&単語表記+品詞2-gram→単語表記2-gram→品詞細分類2-gram→品詞2-gram\\5&\begin{tabular}{c}単語表記3-gram→単語表記+品詞2-gram→単語表記2-gram\\→品詞細分類2-gram→品詞2-gram\end{tabular}\\6&\begin{tabular}{c}単語表記3-gram→単語表記+品詞2-gram→単語表記2-gram\\→品詞細分類2-gram→品詞3-gram→品詞2-gram\\\end{tabular}\\\end{tabular}\end{center}\end{table}この結果から,使用するn-gramリストの数が多いほど精度が上がるが,3つ以上のn-gramリストを用いるとほぼ精度が飽和することがわかった.\subsubsection{学習コーパスの量を変化させる実験}\label{subsubsec:学習コーパス}学習コーパスの量を変化させた時に,精度がどのように変化するか調べた.学習コーパスは京大コーパスの最初から1000文ずつ増やし10000文まで変化させ,テストコーパスは京大コーパスの10001文目からの9956文で固定して実験を行った.その結果を図\ref{fig:学習量}に示した.図中,4種類は2-gramリストのみ,6種類はすべてのn-gramリストを利用した時の結果である\footnote{適用順は表\ref{tab:適用順}の結果を利用している.}.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=graph-2-10000-jis.eps,scale=0.8}\end{epsf}\begin{draft}\atari(232,152,1bp)\end{draft}\caption{学習コーパスの量による精度の変化}\label{fig:学習量}\end{center}\end{figure}この結果から,学習量が増すにつれて精度が向上することがわかった.しかし,10000文学習した段階でほぼ飽和していると考えられる.\subsubsection{学習結果の一部分だけ利用する実験}\label{subsubsec:一部利用}学習をした結果は確率順に並べられており,リストの上位は確率が高いので確信度が高いといえ,逆にリストの下位は確率が50\%に近いので確信度が低いといえる.そこで,確率の高いものだけを利用すると精度がどのように変化するか調べた.この実験で調べる内容は,車載情報機器はメモリ容量の要求が厳しいため,学習結果のデータ量はできるだけ少ないことが求められるが,データ量を減らす時にどれだけの精度が得られるか,ということである.学習結果を利用する割合を,10000文を学習した各n-gramリストの上位から10\%,20\%と10\%ずつ増やし100\%まで変化させて実験を行ったところ,図\ref{fig:一部利用}の結果を得た.図中,4種類は2-gramリストのみ,6種類はすべてのn-gramリストを利用した時の結果である\begin{figure}\begin{center}\begin{epsf}\epsfile{file=graph-3-10000-jis.eps,scale=0.8}\end{epsf}\begin{draft}\atari(232,168,1bp)\end{draft}\caption{学習結果の一部利用による精度の変化}\label{fig:一部利用}\end{center}\end{figure}この結果,およそ60\%のデータを利用すれば100\%利用した時とほぼ同等の精度を得られることがわかった.以上の実験から,車載情報機器が要求する速度・データ容量などに柔軟に対応できることを示すことができた.\subsubsection{比較実験}\label{subsubsec:比較実験}本手法は,複数の決定リストを順次適用するというものであるが,これらの複数の決定リストを大きな一つの決定リストにまとめて考えると,n-gramの種類(素性)によりソートしてから確率でソートしたリストと考えることもできる.このソートの順序は村田らの提案する手法とは逆で,村田らの手法では確率,頻度,素性という順序でソートしたリストを用いている.そこで,本手法,村田らの手法,決定リストの手法の3手法を比較するために,本手法の決定リストを大きな1つの決定リストにまとめ,それを用いて比較実験を行った.決定リストの手法では,確率,頻度,素性という順序でソートして用い,村田らの手法では,この決定リスト中の同じ確率となる規則の各頻度を足しあわせた結果により文節の区切りを判定した.これらの実験結果を表\ref{tab:比較実験}に示した.\begin{table}\begin{center}\caption{比較実験の結果}\label{tab:比較実験}\begin{tabular}{l|c|c|c|c}&n-gramリストの数&適合率&再現率&F値\\\hline本手法&4&98.92\%&99.41\%&99.16\%\\本手法&6&99.07\%&99.38\%&99.23\%\\決定リスト手法&4&98.88\%&99.16\%&99.02\%\\決定リスト手法&6&99.07\%&99.16\%&99.12\%\\村田手法&4&98.90\%&99.18\%&99.04\%\\村田手法&6&99.10\%&99.18\%&99.14\%\\\end{tabular}\end{center}\end{table}この結果から,同じ評価基準で実験を行った場合には,本手法が最も優れていることが示された.\subsubsection{n-gramや条件の追加実験}\label{subsubsec:追加実験}本手法の最大の特徴は,非常に簡明な方法で充分な精度を得られることである.非常に簡明であるので,従来手法の長所だけを組み合わせることも容易である.そのことを示すため,京大コーパスの最初の10000文を学習コーパス,残りの9956文をテストコーパスとして以下のような2種類の追加実験を行った.\begin{itemize}\item1-gramを利用する方法2-gramや3-gramだけでなく,1-gramが非常に有効となる場合も考えられる.例えば,読点や区点は前の単語に必ずつながり,次の単語とは必ず区切れる.そこで,6種類のn-gramリストに加えて1-gramリストを用いて実験を行ったところ,F値が99.31\%に上昇した.\item排反な規則を用いる方法村田らにより,排反な規則を用いる手法が高い精度を得られると報告されている\cite{Murata2000}.6種類のn-gramリストの排反な規則を考慮して実験を行ったところ,F値が99.26\%に上昇した.\end{itemize}上記2種類の手法をすべて組み合わせて実験を行ったところ,村田らの手法よりも簡明であるが,99.38\%という非常に高いF値を得られた.\subsection{処理速度}\label{subsec:処理速度}n-gramリストの学習と評価システムの処理速度の計測を行った.\ref{subsec:n-gramリスト取得}節の図\ref{tab:学習結果例}で示した品詞2-gramの学習に関しては,学習プログラムの最適化は全く行わなかったが,計算機にSunUltra1133MHzを,プログラム言語にPerlを用いたところ,10000文の学習に要した時間は58秒(1文あたり5.8ms)と非常に高速であった.また,6種類のn-gramリストすべての学習に要した時間も,216秒(1文あたり21.5ms)と高速であった.6種類のn-gramリストを学習した結果は約41万規則で,圧縮を全く行わずに図\ref{tab:学習結果例}のようにテキストベースでデータを保持すると約14.4MB,圧縮を行うと約2MBとなった.また評価システムについても同様にアルゴリズムの最適化を全く行わなかったが,\ref{subsubsec:n-gramの数}節の実験に関して,計算機にSunUltra1133MHzを,プログラム言語にPerlを用いたところ,4種類のn-gramリストを用いた処理に要した時間は225秒(1文あたり22.6ms),6種類のn-gramリストの場合には253秒(1文あたり25.4ms)と非常に高速であった.\subsection{実験のまとめ}\label{subsec:まとめ}以上の実験の結果を図\ref{fig:まとめ}のグラフにまとめた.比較のため,knp2.0b4の精度とknp2.0b6\cite{knp2.0b6}の精度も示した.knp2.0b6の精度が非常に高いのは,京大コーパスがknp2.0b4の出力を人手で修正して作成されたものであり,その修正結果をさらにknpの文節まとめあげ規則に反映したためである.つまり,knp2.0b6の結果はクローズドテストにほぼ等しい.\begin{figure}\begin{center}\begin{epsf}\epsfile{file=all-result-jis.eps,scale=0.66}\end{epsf}\begin{draft}\atari(404,145,1bp)\end{draft}\caption{すべての実験の結果}\label{fig:まとめ}\end{center}\end{figure}本手法が従来の手法よりも優れていることは,\ref{subsubsec:比較実験}節の比較実験により示された.また,本手法が非常に簡明であること,車載情報機器への実装を最大の目標としていることを考慮すると,本手法は非常に優れているといえる.\subsection{考察}\label{subsec:考察}本手法のように非常に簡明な方法で99.38\%という高い精度を得られる理由と,本手法のロバスト性について,\ref{subsec:実験結果}節で行った実験の結果に基づいて考察する.\ref{subsubsec:n-gramの数}節の実験で,6種類のn-gramリストを適用する順序で最も高い精度を得られたのは,表\ref{tab:適用順}に示したように,\begin{center}単語表記3-gram$\rightarrow$単語表記+品詞2-gram$\rightarrow$単語表記2-gram$\rightarrow$品詞細分類2-gram$\rightarrow$品詞3-gram$\rightarrow$品詞2-gram\end{center}であった.これらのn-gramリストをそれぞれ1つだけ用いて文節まとめあげを行った場合の精度は,表\ref{tab:n-gram1つ}に示したとおりである.\ref{sec:文節まとめあげ}章で述べたように,本手法では文節に区切るか区切らないか決定できない場合のデフォルト処理を「文節に区切る」としているが,「文節に区切らない」とすると,それぞれの精度は表\ref{tab:n-gram1つ}のようになる.本手法の評価基準であるF値は,式\ref{eq:Eval}に示すように文節区切りを基準としている.そのため,デフォルト処理を文節に区切らないことにすると,得られる適合率は,n-gramリストにより「文節に区切る」と確定した個所が正しい区切りかどうか,という正確な値となる.この適合率が,表\ref{tab:n-gram1つ}の右側の中で最も注目すべき値である.この表から,先に適用されるn-gramリストほど適合率が高いことがわかる.つまり本手法の文節まとめあげ処理は次のように考えることができる.1つの形態素の隙間の文節区切りを確定するために,適合率の最も高いn-gramリストを最初に参照し,その中で見つけられれば最も高い適合率で文節区切りを確定できる.しかし,適合率が高いと再現率は低くなるため,規則を適用できる個所は少なくなる.そこで,そのn-gramリスト中で規則を見つけられなかった個所は,次に適合率の高いn-gramリストにより区切りを決定する.同様にして適合率の高い順にn-gramリストを調べることで,最終的に高い精度での文節まとめあげが可能になる(図\ref{fig:本手法の概念}).\begin{figure}\begin{center}\begin{tabular}{ccl}\fbox{1番目に高い適合率のn-gramリスト}&→適用&→確定\\↓\\非適用\\↓\\\fbox{2番目に高い適合率のn-gramリスト}&→適用&→確定\\↓\\非適用\\↓\\$\cdots$&→適用&→確定\\↓\\非適用\\↓\\\fbox{最も低い適合率のn-gramリスト}&→適用&→確定\\↓\\非適用\\↓\\確定\\(文節に区切る)\\\end{tabular}\caption{本手法の処理の概念図}\label{fig:本手法の概念}\end{center}\end{figure}低い適合率のn-gramリストを最初に適用して確定を行えば,その低い適合率が最終的な精度に大きく影響することは容易に想像できる.そのため,高い適合率のn-gramリストから順に適用するということは理想的な処理であるといえる.このことは,村田らのが100\%の確率である排反な規則を最優先に考慮するという考えを拡張してより柔軟にした,と考えることもできる.ただし,先に適用されるn-gramリスト中に51\%の確率の規則が存在する場合には,たとえ後に適用されるn-gramリスト中に100\%の確率の規則が存在しても,先のn-gramリストにより文節区切りが確定される.本手法はいかに簡明に文節まとめあげを行うか,ということを目標としていたため,この点についての考慮は行わなかった.しかし,さらに精度を向上させるためには,このような点も考慮して,決定リストの要素を並べる順序をどのようにするのが最適であるか,より詳しく調べる必要があると思われる.次に,本手法のロバスト性について考察する.本手法では,入力される形態素解析済みのデータは100\%正しいものとして扱っているが,実際には形態素解析ツールの精度は100\%ではない.そこで,形態素解析ツールの出力に誤りがある場合に,本手法の文節まとめあげの精度がどのように変化するか調べた.形態素解析ツールの出力の誤りには主に,付与する品詞の誤りや形態素の区切り誤りがある.形態素の区切りの誤りには,一つの形態素を複数に区切る誤りや,複数の形態素を一つのまとめる誤りなどがあるため非常に複雑であり,ここでは品詞の誤りがある場合についてだけ考える.ある形態素に品詞の誤りがある場合,3-gramを用いる時はその前後3個所の文節区切りに影響を及ぼし,2-gramを用いる時はその前後2個所の文節区切りに影響を及ぼす.そのため,品詞の誤りが1つ生じた場合に必ず文節区切りを誤ると仮定すると,形態素解析から文節まとめあげに至る間に誤りが増加する割合は,表\ref{tab:n-gram1つ}の被覆率と表\ref{tab:適用順}の適用順から,\begin{eqnarray*}誤りの増加率&=&3\times21.73\%+2\times(100\%-21.73\%)\times61.51\%+\cdots\\&=&2.49\end{eqnarray*}と求められる.つまり,形態素解析が99.0\%(誤りが1\%)の精度であるとすると,本手法の精度は99.38\%-2.49\%=96.89\%ということになる.従来の研究では,このような値が示されていないために単純にロバスト性を比較することはできない.しかし,形態素解析を誤ると必ず文節まとめあげを誤ると仮定していることや,他の手法が3-gram以上の情報も用いているためより多くの誤りを引き起こす可能性があることを考えると,本手法は従来の手法よりロバストであると考えられる. \section{おわりに} 本研究で提案した文節まとめあげの手法は,車載情報機器の求める条件を満たすよう考案したものであり,複数の決定リストを順次適用して文節の区切りを行うだけ非常に簡明かつ高速である.それにもかかわらず,従来の手法と比較してより高い精度を得られることが示された.また,本手法は非常に簡明であるため,他の手法の長所のみを導入することが容易である.そのことを1-gramや排反な規則を組み合わせることにより示した.今後は,本手法を係り受け解析の技術と融合させ,より高精度な係り受け解析の技術に応用し,音声合成の品質の向上に貢献しようと考えている.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{白木伸征}{1997年京都大学工学部電気系学科卒業.1999年同大学院修士課程修了.同年,株式会社豊田中央研究所に入社,現在に至る.自然言語処理,ヒューマンインタフェースの研究に従事.}\bioauthor{梅村祥之(正会員)}{1979年岐阜大学工学部電子工学科卒業.1981年名古屋大学大学院工学研究科修士課程修了.同年,東京芝浦電気(株)入社.1988年(株)豊田中央研究所入社.自然言語処理,音響・音声処理,画像処理の研究に従事.}\bioauthor{原田義久}{1973年名古屋工業大学計測工学科卒業,1975年東京工業大学制御工学専攻修士課程修了,工学博士(京都大学),同年(株)豊田中央研究所入社,2000年名古屋商科大学教授,IEEEICCD'84優秀論文賞,IJCNNBestPresentationAward受賞.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N03-09
\section{はじめに} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本解説論文の背景}ニューラル機械翻訳(NMT)技術の急速な発展により,機械翻訳の応用が次々に拡がっていることは論を俟たない.近年では新聞記事等の幅広い話題を扱う機械翻訳研究が加速しつつあり,一部の文では人手の翻訳と遜色ない水準の翻訳結果が得られるとも言われている.ここに至るまでの機械翻訳の研究開発や実用化において,特許文書はその対象として重要な役割を担ってきた,そして現在も担っていると言える.特許の審査においては各国の特許文書あるいは様々な技術文書を参照することが不可欠であり,審査官による公正かつ迅速な審査のために機械翻訳の活用について積極的な取り組みが続けられている.こうした取り組みは日本国特許庁(JPO)をはじめ,世界知的所有権機関(WIPO)や,米国特許商標庁(USPTO),欧州特許庁(EPO)等国際的に行われているものであり,中国を筆頭に特許出願数が増加を続ける中での業務改善を目的に,機械翻訳の活用を公的機関で大規模に行っていることは注目に値する.WIPOでは独自の機械翻訳サービスWIPOTranslate\footnote{\url{https://www.wipo.int/wipo-translate/}}を開発,提供しており,EPOではGoogleとの連携による機械翻訳サービス\footnote{\url{https://www.epo.org/searching-for-patents/helpful-resources/patent-translate.html}}を提供している.JPOでも長年にわたり機械翻訳が活用されており,統計的機械翻訳,NMTへの技術トレンドの変化に合わせた調査事業が継続的に実施され\footnote{\url{https://www.jpo.go.jp/system/laws/sesaku/kikaihonyaku/kikai_honyaku.html}},またそうした新しい機械翻訳技術の導入による特許情報プラットフォームの機能改善が進められている.一方の学術研究においては,特許が公開の文書であること,また国際出願のために同一の出願内容が複数言語に翻訳された形で存在することを背景に,コーパスベース機械翻訳の研究用リソースとして広く使われてきた経緯がある.特に日本語では2000年代の統計的機械翻訳(SMT)技術の伸長期に百万文規模の大規模な機械翻訳研究用対訳コーパスが広く利用できなかったこともあり,2008年のNTCIR-7PATMT\cite{NTCIR7PATMT}以降,NTCIR-8\cite{NTCIR8PATMT},NTCIR-9\cite{NTCIR9PatentMT},NTCIR-10\cite{NTCIR10PatentMT}で利用された日英,日中対訳コーパスは多くの機械翻訳研究で活用された.近年では特許庁が提供する,アジア言語翻訳ワークショップ(WorkshoponAsianTranslation)の共通タスクで利用されているJPOPatentCorpus\footnote{\url{http://lotus.kuee.kyoto-u.ac.jp/WAT/patent/}},また,高度言語情報融合(ALAGIN)フォーラムから提供されているJPO・NICT対訳コーパス\footnote{\url{https://alaginrc.nict.go.jp/jpo-outline.html}}が存在する.こうした研究用リソースの存在は特許機械翻訳の研究開発に非常に有益であると言えるが,NTCIR以後の日本の機械翻訳研究でよく用いられた論文抄録の対訳コーパスASPEC\cite{NAKAZAWA16.621},多くの機械翻訳研究においてベンチマークとして用いられるWMTNewsTaskデータ\cite{akhbardeh-etal-2021-findings}と比べて,特許のデータを扱う機械翻訳研究の発表は少なくなってきていることは否定できない.こうした背景から,本解説論文では実用的な特許機械翻訳に向けた諸課題に着目し,それらに関係する現在の技術をNMTを中心に概観する.そして,特許機械翻訳とその他の一般的機械翻訳の現状の課題の類似点と相違点,現状の到達点と実用とのギャップ,また今後の方向性について論じる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本解説論文で扱う特許機械翻訳の課題}上述の通り,本解説論文では特許機械翻訳において特徴的と考えられる以下の諸課題に着目し,それぞれの課題に関係する研究を示した上で技術の現状と将来について論じる.\begin{description}\item[訳抜け・過剰訳への対策(2節)]NMTにおいて顕著な問題としてよく挙げられるのが,入力文中の情報が訳出されない「訳抜け」,同じ内容を繰り返し出力してしまう「過剰訳」である.それ以前の統計的機械翻訳においてはあまり問題視されていなかった点でもあり,近年様々な対策が試みられている.\item[用語訳の統一(3節)]特許のような技術文書においては,同一の事物や概念を表す用語は翻訳においても統一して同一の用語で訳出しなければならないが,機械翻訳では言葉の多義性とのトレードオフがありしばしば異なる訳語を選択してしまうという深刻な問題が生じることがある.NMTでは厳密な訳語の指定は翻訳処理の柔軟性を損なう懸念もあり,工夫が必要である.\item[長文対策(4節)]特許文書では請求項を代表に長文による記述が多用される.長文の翻訳は,入力文の解析や訳語の選択,訳文の構成について膨大な候補の中からの選択を余儀なくされ,探索誤りが生じやすい.特にNMTにおいては訳抜け・過剰訳の問題が重なることがあり重要な課題であるが,実際に長文に焦点を当てた研究はあまり多くない.\item[低リソース言語対対策(5節)]英語を中心とする代表的な言語については大規模な対訳コーパス・単言語コーパスの蓄積が進みコーパスベース機械翻訳が有効に機能する状況となりつつあるが,今後の成長が予想される東南アジア諸国等における現地語文書については依然としてコーパスが不足しており翻訳が難しい.近年の機械翻訳研究でも非常に重視されている課題でもある.\item[評価(6節)]機械翻訳の精度が向上したことにより,機械翻訳の品質評価の重要性がより増していると言える.従来の表層的な自動評価手法の限界は広く知られるようになり,評価手法の研究が再び盛んになってきている.また,人手評価についても方法が変化しつつある.特許庁が独自に機械翻訳評価のマニュアルを公開している等の背景もあり,特許機械翻訳の評価は注目に値する.\item[翻訳高速化・省メモリ化(7節)]国際出願特許の審査,技術動向の調査等,特許文献に対する言語横断情報アクセスの重要性は飛躍的に増大してきており,日々大量の特許文書・技術文書の翻訳が求められる状況である.そうした中で計算効率は非常に重要な要因であり,大規模化が続くNMTモデルをそのまま実用に供することは容易ではない.モデルや計算の工夫による様々な対策が試みられている.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{訳抜け・過剰訳への対策} 機械翻訳において訳抜けや過剰訳は非常に深刻な問題である.NMT以前の機械翻訳においては,語・句・構文構造等の要素を対訳知識を利用して置換することで翻訳を行っていたため,入力文をすべて置換する過程で大きく訳抜けや過剰訳が生じることはさほど多くなかったという面もあり特別な注目を集めることは少なかった.しかし,通常NMTではそのような明示的な置換を行わないことから,入力文中で訳出されない要素や複数回訳出される要素が現れないことの保証が困難である.こうした問題への対策として,これまでに様々な研究が行われている.それらを大きく分類すると,次のように分けられる.(1)NMT内のネットワーク構造でのモデル化,(2)訳抜けを表すスコアとの組み合わせ,(3)低頻度語・未知語・曖昧性が高い訳語の対策,(4)出力長制御,(5)強化学習によるパラメータ最適化の補正,(6)繰り返しの抑制,(7)訓練データのノイズ対策,(8)NMTの動作分析.以下,それぞれ内容を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{NMT内のネットワーク構造でのモデル化}\label{sec:2-nmt-model}NMTのネットワーク構造を統計的機械翻訳(SMT)のカバレッジベクトル\cite{10.5555/1734086}を参考にして一部変更することで訳抜け・過剰訳を減らす試みである.翻訳時に各入力トークンに対応するアテンション確率を蓄積していき,それらの値をアテンション確率の計算に利用する\cite{tu-etal-2016-modeling}.アテンション確率を蓄積するのではなく,入力トークン列に対応する分散表現の系列を用意し,その各分散表現を1トークンの出力毎にRNNで更新する.この更新の際にアテンション確率\cite{tu-etal-2016-modeling,mi-etal-2016-coverage}やデコーダのステート\cite{meng-etal-2016-interactive}を入力する.この分散表現の系列をアテンション確率の計算に利用する.この分散表現の更新でRNNの代わりに忘却処理と追加処理を用いる手法もある\cite{ijcai2018-357}.また,各入力トークンに対応する分散表現を2つ用意し,それぞれ翻訳済みを表すものと未翻訳を表すものとして用いる手法もある\cite{zheng-etal-2018-modeling}.さらにこれらの翻訳済みと未翻訳の区別をカプセルネットワークで表すものもある\cite{zheng-etal-2019-dynamic}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訳抜けを表すスコアとの組み合わせ}NMTが生成する出力候補に対して,アテンションの確率や逆翻訳の生成確率で出力スコアを補正するものである.各入力単語に対して各出力でのアテンション確率を蓄積した場合に蓄積値が少ない入力単語は訳出不足の可能性が高いため,蓄積値が小さい場合にペナルティを加えて補正する\cite{DBLP:journals/corr/WuSCLNMKCGMKSJL16,li-etal-2018-simple}.出力候補を入力して原言語文を強制出力させた際の生成確率である逆翻訳の生成確率は,出力候補に不足がある場合に値が小さくなることが期待されるため,この値が小さいときにペナルティを加えて補正する\cite{DBLP:journals/corr/LiJ16,AAAI1714161,goto-tanaka-2017-detecting}.ただし,\citeA{AAAI1714161}は逆翻訳の生成確率を出力候補からではなく,入力文の情報も含まれているデコーダの分散表現の系列から計算している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{低頻度語・未知語・曖昧性が高い訳語の対策}\label{sec:low-frequent-terms}未知語,低頻度語の生成確率は高くなりにくく訳抜けしやすいため,低頻度語をサブワードに分割することで,各トークンの頻度を増やし,さらに未知語もサブワードの組み合わせによりある程度扱えるようにする手法がある\cite{sennrich-etal-2016-neural,kudo-2018-subword}.この手法は,コーパスに含まれる語彙数が大きくても,NMTで扱う必要があるトークンの種類数を減らすことができ,現在広く用いられている.低頻度語対策,未知語対策は訳抜け対策にも効果があると考えられる.詳しくは低頻度語対策,未知語対策の節を参照されたい.専門用語対策として対訳辞書を利用する方法がある.この方法を利用して,専門用語を変数に置き換えて翻訳し,出力中の変数を辞書の目的言語表現に置換することで訳抜けの減少が確認されている\cite{Kimura-etal-PSLT2017}.対訳辞書で訳語の候補が複数あり,訳語選択での曖昧性が高い(すなわち訳語のエントロピーが高い)原言語単語(高エントロピー語)の訳語に着目し,2段階で翻訳する手法がある\cite{Zhao_Zhang_Zong_He_Wu_2019}.訓練データにおいて,高エントロピー語の訳語を原言語単語\footnote{正確には語彙空間を目的言語の語彙空間とは別の特殊空間としている.}に置き換えて,1段階目の翻訳では高エントロピー語はそのまま現言語単語を出力する.2段階目で,1段階目の出力を用いて,最終的な出力を得る.なお,2段階ではなく通常出力と原言語単語に置き換えた出力をマルチタスク学習する方法の記載もある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{出力長制御}出力長を制御して不適切に短い出力を避ける取り組みがある.出力長が正解訳に比べて大幅に短い場合は訳抜けしている可能性が高い.このような出力にならないようにすることで,結果として訳抜けの低減が期待できる.次の手法が提案されている.長さバイアスに対する改善としてスコアを出力長で正規化する\cite{jean-etal-2015-montreal}.SMTの特徴量の1つである出力長に応じたスコアを追加する\cite{He_He_Wu_Wang_2016,murray-chiang-2018-correcting}.出力長が長すぎる時に出力長に基づくスコア追加を抑制するために,原言語文長$|y|$と目的言語文長$|x|$の比の平均$r$を用いてスコアを$\min\{|y|,r|x|\}$とする\cite{huang-etal-2017-finish}.出力長を予測するモデルを学習し,予測した出力長に応じたスコアを追加する\cite{yang-etal-2018-breaking}.翻訳の学習に加えて出力長の予測もマルチタスクで学習する\cite{yang-etal-2020-predicting}.これによって翻訳の改善が得られ,さらに,予測した出力長で長さの正規化を行う.出力長を予測するモデルを学習し,予測した出力長を用いて,Transformerの位置エンコーディングを制御することで出力長を制御する手法\cite{takase-okazaki-2019-positional}により,翻訳の出力長を制御する\cite{oka-etal-2020-incorporating}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{強化学習によるパラメータ最適化の補正}NMTモデルによる生成文にノイズ(繰り返しや訳抜け)が含まれる場合にペナルティ(負の報酬)を与える強化学習手法が提案されている\cite{Keisuke-Shirai2021}.この手法では,参照訳に対してノイズを付加した擬似的なノイズ付き参照訳データを作成し,このデータから,ノイズの混入を判別する識別器を学習する.得られた識別器を強化学習の報酬として用いることで,ノイズの生成を抑制する学習を行っている.通常のNMTと比べて,学習時に違いがあり,翻訳時はパラメータの値以外は同じである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{繰り返しの抑制}前記の強化学習によるパラメータ最適化の補正による繰り返し抑制の研究がある\cite{Keisuke-Shirai2021}.目的言語単語列に依存構造を表す開閉括弧を挿入することで,未知語を表す``UNK''の繰り返しの減少が確認されている\cite{nguyen-le-etal-2017-improving}.エンコーダ・デコーダモデルで出力系列に出現する各単語の頻度の上限を予測し,出力中の頻度が上限に達したら,その後はその単語を出力しないようにデコーダの出力スコアを補正する手法がある\cite{suzuki-nagata-2017-cutting}.要約タスクでの評価を行なっているが,機械翻訳にも応用可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練データのノイズ対策}訓練データでの訳抜けの影響を緩和する対策である\cite{Goto-etal-NLP2020}.訓練データの対訳文に訳抜けがあるとそれを学習してしまい,訳抜けの原因になる.この学習データのノイズを検出して,訳抜けしている部分と訳抜けしていない部分の区別を表すラベル系列も各トークンの特徴量\cite{sennrich-haddow-2016-linguistic}として用いることでこれらを区別して学習し,翻訳時には入力文に訳抜けしていないことを表すラベル系列を特徴量として付与することで,訳抜けしていない部分から学習した結果を主に用いて出力を生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{NMTの動作分析}訳抜け・過剰訳の直接的な対策ではないが,その原因の調査には,NMTの動作の分析が有用である.NMTの動作に対して可視化や分析が行われている.RNNベースのエンコーダ・デコーダモデルで,EOSトークンの確率が出力単語数に依存する特定のユニットの出力に基づいていることが示されている\cite{shi-etal-2016-neural}.アテンション機構を持つエンコーダ・デコーダモデルでの各原言語単語および各目的言語単語の履歴からの影響の強さが可視化され,各出力単語が入力文単語と目的言語単語履歴のどこからの影響を大きく受けているかを調べることができる\cite{ding-etal-2017-visualizing}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{特許機械翻訳と訳抜け・過剰訳}特許機械翻訳においては専門用語・新語が現れやすく,それらはしばしば低頻度語・未知語として訳抜けを誘発したり,逆にその他の箇所の過剰訳を生じる原因となることがある.また,1.1節で挙げた特許翻訳の対訳コーパスはパテントファミリから収集され,自動文対応付けによって得られたものであるため,厳密には文単位の対訳としては不適なものが含まれることもある.そうした状況において上に挙げた種々の対策の有効性について体系的に調査された研究は見当たらないが,NMTの実用に向けた重要な課題と言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{用語訳の統一} 自然言語では,同一の物事を複数の異なる表現で表すことができる.一方で,論文などの説明的文章では,一つの物事に対して統一した一つの表現を用いて表すことで無用な誤解を防ぐことが一般的である.またテキスト検索時においても,同じ物事に対して異なる表現が混在した場合,それらの表記揺れに対応しない限り網羅的な検索が困難になってしまうなど,用語訳の統一を行わなければテキストの機械的処理に支障をきたすことがある.従来の機械翻訳モデルは入力テキストを文単位で訳出しており,入力テキストにおいて同一の意味に対して統一した表現が用いられていたとしても同じ訳出がされる保証はない.例えば,``apple''は``りんご'',``リンゴ'',あるいは``林檎''のいずれにも訳される可能性があり,同じ文書で混在させるのは基本的に望ましくないが,文単位で訳出する機械翻訳システムは複数の訳を混在させる可能性がある.また,機械翻訳モデルのトレーニングに用いられる翻訳性能の自動評価尺度であるBLEU等は訳語の一貫性を直接評価していないため,それらの尺度を用いて開発を行っても訳語を統一させるような学習は期待できない.アジア言語翻訳ワークショップ(WorkshoponAsianTranslation)においては2021年から,出力文中で用いるべき語彙を制限した訳文生成を行う制約つき翻訳タスク\footnote{\url{https://sites.google.com/view/restricted-translation-task/}}が開催されており,語彙の制約を満たした出力文の割合を一貫性の評価尺度とした性能評価が行われている.本節では機械翻訳において訳語を統一させる種々の手法について,NMTによる近年の研究を中心に,SMTにおける関連研究にもいくつか触れながら説明する.主に,用語集を用いて訳出結果に反映させる方法と,用語集を用いずに翻訳履歴や文脈を考慮する方法の二つが挙げられ,以下それぞれの方法について概要を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{用語集や語彙制約の導入による訳語の統一}訳語を統一する必要のある語彙に対して既定の訳語を定めた対訳辞書あるいは用語集を導入することで,機械翻訳の過程で対訳辞書を適用したり,訳出文を後編集したりすることにより訳語が統一されることが期待される.訳出文の後編集は,例えば``リンゴ''を既定訳とする場合に訳出文中の``りんご''や``林檎''を``リンゴ''に置換するといった処理を指し,用いる機械翻訳システムに依らず適用ができる一方で,語の曖昧性から生じる誤った置換が生じるおそれや,そもそも訳出すべき語が抜けたり誤って訳された場合に対応できないことなどの課題に対処する必要が生じる.ルールベース機械翻訳においては語を訳出する部分で対訳辞書を適用することができるが,現在主流となっているNMTでは訳文中の語彙生成に相当する部分も含めた翻訳器全体を対訳コーパスから学習しており,訳文生成時に特定の辞書を直接参照するようなモデルは組み込まれていない.このため,対訳辞書を考慮した訳文生成を行う方法\cite{arthur-etal-2016-incorporating}や,訳文生成時に語彙制約を課した探索を行う方法\cite{hokamp-liu-2017-lexically,post-vilar-2018-fast,hu-etal-2019-improved,Hu_Rudinger_Post_Van_Durme_2019},翻訳器の学習に用いる対訳コーパスを対訳辞書により編集する方法\cite{dinu-etal-2019-training,song-etal-2019-code,ijcai2020-496}が考えられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対訳用語集による後編集}後編集(Post-Editing)とは,機械翻訳によって得られた訳出文をさらに修正することで翻訳品質を改善する手法である.人手による後編集については,国際標準規格であるISO18587:2017によって規定されており,そのうちのフル・ポストエディット(FullMachineTranslationPost-Editing)においては分野や翻訳依頼者が定める特定の用語集に応じて一貫性のある訳語を用いることも要件として含まれている.また,一貫性のある用語集を整備するための規格として,国際的に用いられているTBX(TermBaseeXchange,ISO30042)やAAMT(アジア太平洋機械翻訳協会)により策定されたシンプルな用語集形式UTX\cite{yamamoto-UTX}がある.これらにおいては,同じものを表す複数の用語候補の中で使用すべき用語や使用を避けるべき用語の情報を付加できるように設計されている.用語集を用いて後編集による訳語の統一を自動的に行う場合,機械翻訳の入力文に用語集の用語があり,かつ出力文にその用語の訳語として“使用を避けるべき用語”が現れていれば,それを“使用すべき用語”に置換することで訳語が統一される.ただし,入力文に現れる用語に曖昧性がある場合は,適切な曖昧性解消がなされていることが前提となる.また,出力文の中に用語集にある語が現れない場合は,置換すべき箇所を特定する,または訳出されていないなら適切に訳を変更する必要が生じる.さらに,用語の変化形への対応など文法的な処理を別途行わなければならない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対訳辞書を考慮した訳文生成}SMTにおける初期のモデルであるIBMModelの実装GIZA++においてはオプションとして対訳辞書を入力できたが,これは単語の共起頻度の反復計算において対訳辞書の用語対の出現を条件とするような制約をかけるものであり,必ずしも訳語の統一が期待できるものではなかった.その後,フレーズベースSMTにおいては対訳コーパスやフレーズテーブルに用語対を追加する手法\cite{bouamor-etal-2012-identifying}のほか,\citeA{okuma-etal-2007-introducing}は入力文中の低頻度な固有名詞を同じカテゴリの高頻度な固有名詞に予め置換した上で翻訳し,出力文中で訳出されたその固有名詞の訳語をもとの低頻度な固有名詞の訳語に置換する手法を提案している.\citeA{tan-etal-2015-passive}は外部辞書の導入方法として,学習用対訳コーパスに追加する方法と訳文生成時に辞書項目を用いるよう強制する方法を比較し議論している.NMTにおいて外部辞書を考慮した訳文生成を行うモデルとして,\citeA{arthur-etal-2016-incorporating}は出力層に語彙モデルを結合することで低頻度語の誤訳を低減する手法を提案している.入力文$F=f_1^{|F|}$に対して出力文の$i$番目の語が$e_i$となる確率$p_m(e_i|F,e_1^{i-1})$は以下の式で表される.\begin{equation}p_m(e_i|F,e_1^{i-1})=\mathrm{softmax}(W_s\bm{\eta}_i+\bm{b}_s),\end{equation}ただし,$W_s,\bm{b}_s$はそれぞれ重み行列,バイアスベクトル,$\bm{\eta}_i$は固定長のベクトルとする.用いる対訳辞書を,原言語の語$f$に対して目標言語の語$e$に訳される翻訳確率$p_l(e|f)$の形で表し,入力文$F=f_1,...,f_{|F|}$に対して以下のような翻訳確率の行列を求める.\begin{equation}L_F=\begin{bmatrix}p_l(e=1|f_1)&\cdots&p_l(e=1|f_{|F|})\\\vdots&\ddots&\vdots\\p_l(e=|V_e||f_1)&\cdots&p_l(e=|V_e||f_{|F|})\end{bmatrix}\end{equation}\citeA{arthur-etal-2016-incorporating}のbiasモデルでは,アテンションから得られたアラインメント確率$\bm{a}$を用いて,単語の出力確率にバイアスの値として$L_F$と$\bm{a_i}$の積を加えることで,外部辞書に存在する訳語の確率値を上げるような学習を行う.\begin{equation}p_b(e_i|F,e_1^{i-1})=\mathrm{softmax}(W_s\bm{\eta}_i+\bm{b}_s+\log(L_F\bm{a}_i+\epsilon))\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{語彙制約つき探索による用語の統一}語彙制約とは,\pagebreak特定の単語列の集合$V$について出力を制御するための制約であり,$V$に含まれる語彙を出力に含むことが可能な場合に,出力に$V$を含むように制御する制約を正の語彙制約,$V$を含まないように制御する制約を負の語彙制約と呼ぶ.機械翻訳における用語の統一の観点からみると,機械翻訳の入力文に対訳用語集の用語が現れた場合,その用語に対応する出力側の言語の用語を必ず含むような正の語彙制約を出力の探索時に適用することとなる.この手法は後編集による方法と比較して,出力する語彙に応じて出力文全体の最適化が期待されるという利点がある.一方で,語彙制約によって探索が制限されることによる訳質の低下が生じる可能性がある.また,入力側の用語に曖昧性がある場合,意図していない語彙制約を課すことで誤訳を生じさせるおそれがある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-3ia8f1.pdf}\end{center}\caption{語彙制約を課したデコーディングの例(\protect\citeA{hokamp-liu-2017-lexically}より引用)}\label{fig:hokamp2017}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:hokamp2017}に\citeA{hokamp-liu-2017-lexically}で示されている英独機械翻訳においてデコーディング時に語彙制約を課した場合の例を示す.上段の四角で囲まれた部分が出力における2つの語彙制約で,入力文に応じて出力に含めるべき単語(トークン)の列を示している.格子状の枠はビーム探索時の$k$-bestのスタックを表しており,各スタックに入る仮説は色付きの横長の四角で示されている.通常のデコーディングでは入力文の各トークンに対して左から右にスタックを埋めていくのに対し,語彙制約を課す場合には上下方向にもスタックを用意し,語彙制約が1トークン満たされた時点で上方向にも仮説を生成する.図\ref{fig:hokamp2017}中の``Start''は語彙制約中の用語の出力が開始されたことを示し,そこから用語の出力が終わるまでは強制的にその用語のトークンを順に出力する仮説を生成していく.最終的に最上段にある仮説が語彙制約をすべて満たした仮説であることになり,その中で最もスコアの高い訳文を出力することとなる.この手法では語彙制約の出力トークン数に比例して計算量が増加する.\citeA{post-vilar-2018-fast}はこの問題を軽減するため,語彙制約のトークン数だけ上下方向にスタックを並べる代わりに,ビーム幅を固定してその中で語彙制約を満たしたトークン数ごとの領域を動的に割り当てるDynamicBeamAllocation(DBA)方式を提案し,語彙制約のトークン数に比例しない計算量で探索できることを示した.また,\citeA{hu-etal-2019-improved}はDBAの手続き的な手法をベクトル化した手法に置き換えることでGPUによる高速な演算を可能にし,さらに語彙制約にトライ構造を用いることで効率化を図っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{データ拡張によるソフトな語彙制約}語彙制約の適用方法として,前節のように探索時に強制的に出力を制御する手法のほか,訓練データに語彙制約を適用することで間接的に訳語を統一させるデータ拡張手法が提案されており,前者のハードな語彙制約に対してソフトな語彙制約とも呼ばれる.探索時に語彙制約を適用する場合と比較して,語彙制約が常に優先して適用される保証はないが,曖昧な語の誤訳の問題に頑健である利点,および探索の計算量増大がない利点がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-3ia8f2.pdf}\end{center}\caption{Transformerエンコーダ層への語彙制約の埋め込み(\protect\citeA{ijcai2020-496}より引用)}\label{fig:chen2020}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{song-etal-2019-code}は訓練データの語彙を対訳辞書により事前に目標言語の語句に置き換えて学習させる手法を,\citeA{dinu-etal-2019-training}は置き換える場合と元の語句に付加する場合でそれぞれ学習する手法をそれぞれ提案している.\citeA{ijcai2020-496}はデータを直接置き換える代わりにTransformerのエンコーダ層への入力時に語彙制約を埋め込む手法を提案している.図\ref{fig:chen2020}では,入力文``DasteiltedieGewerkschaftmit.''の訳文に``announced''(発表した)と``union''(組合)という2つの語を用いることを指定するため,入力文の後ろに語彙制約を表すトークンを追加するとともに,位置およびセグメントの埋め込みのための特定のインデックスを与えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文脈を考慮した訳出}従来の機械翻訳システムにおいて訳語の統一がなされない原因の一つは,\pagebreak入力テキストの各文を独立に翻訳するためである.翻訳時に前後の文あるいは入力テキスト全体の文脈を考慮に入れることで,入力テキスト全体を考慮して統一した訳語が出力されることが期待できる.SMTにおいても訳語を統一することにより精度が向上する可能性が示唆されており\cite{carpuat-2009-one,carpuat-simard-2012-trouble},訳語を統一する手法も研究されている\cite{gong-etal-2011-cache,xiao-etal-2012-topic,hardmeier-etal-2012-document,hasler-etal-2014-dynamic}.NMTにおいて文脈を考慮に入れる方法は,入出力する文対にその直前の数文を直接付加する方法\cite{tiedemann-scherrer-2017-neural}のほか,過去の訳出語をキャッシュに置く方法\cite{tu-etal-2018-learning},入力側で文脈を扱うエンコーダを追加する方法\cite{jean2017does,zhang-etal-2018-improving},およびその他の方法に大別される\cite{lopes-etal-2020-document}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{29-3ia8f3.pdf}\end{center}\caption{翻訳履歴を保持するキャッシュを用いた翻訳モデル(\protect\citeA{tu-etal-2018-learning}より引用)}\label{fig:tu2018}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{tu-etal-2018-learning}は,キャッシュに過去に訳出した語を読み込んで後に続く文の翻訳において参照するモデルを提案した.図\ref{fig:tu2018}(a)は標準的なNMTにおいて,一つ前の出力トークン$y_{t-1}$,入力トークン$\mathbf{s}_t$,およびアテンションによる文脈ベクトル$\mathbf{c}_t$が与えられたときに次の出力トークン$y_t$を求める部分を示している.提案モデルでは(b)のようにこれまでの翻訳履歴を保持したキャッシュを用意し,翻訳中のトークンの文脈$\mathbf{c}_t$をキーとする値を読み出して入力トークン$\mathbf{s}_t$と結合することにより,これまでの翻訳履歴を考慮に入れた訳出を行う.文書レベルの文脈を入力とするエンコーダを追加した\citeA{zhang-etal-2018-improving}のモデルにおいては,文脈エンコーダの出力は翻訳用のエンコーダ及びデコーダーの両方にアテンションを用いて導入されている.\citeA{voita-etal-2018-context}は文脈と原言語側の両エンコーダでパラメーターを共有し,両エンコーダの出力はゲート機構により統合するモデルを提案した.ほかに階層的アテンションネットワーク(HAN)による統合手法\cite{miculicich-etal-2018-document},入力文に対して関連する文のみに着目するための選択的アテンションによる統合手法\cite{maruf-etal-2019-selective}が提案されている.\citeA{morishita-etal-2021-context}は文脈として考慮する文の選択にミニバッチ法を用いる手法を提案し,英日翻訳の実験において訳出される語彙が参照訳のものに修正される例を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{特許機械翻訳と用語訳の統一}特許文書では厳格な用語定義が求められ,原文で用語が統一されているものが機械翻訳を介することで用語の揺れを生じてしまうことは大きな問題である.特許機械翻訳を対象に本節で挙げたような手法の有効性を示した研究は知られておらず,今後実用的な検証が求められる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{長文対策} \citeA{koehn-knowles-2017-six}によって指摘されている現在のNMTにおける6つの課題の一つに長文問題がある.機械翻訳における長文問題とは,1文あたりの語数が大きい文(長文)を翻訳する際に翻訳精度が著しく劣化する問題である.特許文書は特に長文からなることを特徴の一つとしており,実用的な特許機械翻訳の実現のために長文の高精度な翻訳が必要とされている.SMTからNMTへの翻訳方式の変化により長文の翻訳への対策は変化してきており,近年はNMTの特性に合わせた様々な手法が提案されている.本節ではそれらの手法について,(1)アテンション機構,(2)文分割による手法,(3)NMTモデルの構造的特徴(依存構造や位置情報,自己アテンションなど),の大きく3つに分けて説明する.(1)はエンコーダ・デコーダにおける内部状態間の関係性を計算する機構である.(2)は,文構造等の特徴を用いて文全体を分割し,分割された個々の部分文を翻訳することで長文の精度劣化の問題を解決する手法である.(3)は,NMTのモデルを改良することで,長文に対応する手法である.アテンションそのものが長文に対応する手法となっているが,さらに自己アテンションに依存構造を導入する手法や,自己アテンションに被覆率を導入する手法,位置情報を改良する手法などが提案されており,長文における性能劣化を抑えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アテンション機構}単純なRNNエンコーダ・デコーダモデル\cite{kalchbrenner-blunsom-2013-recurrent,cho-etal-2014-learning}では,勾配消失や長距離依存の問題があり,高い精度を実現することは難しい.これらの問題を解決するために,RNNのユニットとしてLSTMユニット\cite{hochreiter1997lstm}やGRUユニット\cite{cho-etal-2014-learning}を導入することが提案され\cite{Sutskever:NNMT2014,luong-etal-2015-addressing},さらに言語間アテンションを導入することでこれらの問題は大きく改善された\cite{Bahdanau:NMT2015,luong-etal-2015-effective}.言語間アテンションは,現在のデコーダの内部状態に対し,エンコーダの各内部状態との関連性(重み付け)を計算し,エンコーダ内部状態の加重平均をデコーダの出力計算に用いる手法である.アテンションを用いることにより,計算グラフ上で遠い位置関係にある単語間の関連性を直接計算することができるようになる.\citeA{luong-etal-2015-effective}および\citeA{Bahdanau:NMT2015}の報告では,アテンションがついていないLSTMエンコーダ・デコーダモデルは文長が長くなるにつれ性能(BLEU)が低下していくが,アテンション付きLSTMエンコーダ・デコーダモデルは性能が低下することなく長文に対しても高い性能を維持出来ていることが示されている.基本的にNMTではアテンションを導入することによって長文の問題はおおよそ解決されていると考えられているが,言語の構造が大きく異なる言語間での翻訳や,特許翻訳のようにさらに長い文の翻訳ではその影響は明らかではない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文分割}長文問題を解決する方法として,長文を複数の短い文や句に分割し,それぞれを翻訳してつなげる方法が考えられる.\citeA{pouget-abadie-etal-2014-overcoming}は,部分トークンの翻訳に対する確信度を定義し,可能な部分トークン列の組み合わせに対して,整数線形計画法を用いることで,信頼度最大となる文分割を選ぶ分割法を提案している.信頼度は順方向(原言語から目的言語)の翻訳確率と逆方向(目的言語から原言語)の翻訳確率を用いて定義している.翻訳確率はNMTモデルにより与えられる.この手法により信頼度の高い文分割が得られるが,全ての可能な部分トークン列に対する翻訳を行う必要があるということと,部分トークン列の並び替えを行っていないという問題点がある.アテンションが使われていないRNNエンコーダ・デコーダモデル\cite{cho-etal-2014-learning}は長文に対し翻訳精度(BLEU)が著しく低下するが,提案する文分割法では翻訳精度の低下が起きていない.\citeA{tien2019}は,訓練コーパスにおける長文(長さ30トークン以上)の文ペアから,句アライメント(GIZA++)によって確率の高い句ペアを抽出し,それらを訓練コーパスに追加する手法を提案している.通常の長文翻訳の学習に加えて,長文から抽出された句から句への翻訳をあわせて学習するため,長文翻訳の学習においても対応すべき句から句へ翻訳が誘引されるように学習が進むことが期待される.\citeA{Kuang2016AutomaticLS}は,原言語文を句に分割し,句の順番を入れ替えることで長文の翻訳を行う手法を提案している.まず,パラレルコーパスに対して単語アライメント(GIZA++)を適用し,原言語側と目的言語側で連続する単語列が対応する場合に,それらを句ペアとして,句アライメント付きのパラレルコーパスを作成する.作成したパラレルコーパスから,句の分割点を予測する識別機を学習する.また,同様に対応する句順が正順か逆順か判別する識別機を学習し,原言語側の句順確率モデルを作成する.句の分割確率と正順となる句順確率の最も高い句分割と句順入れ替えを選択することで文分割と文結合を同時に解決している.中英機械翻訳においては,アテンション付き双方向LSTMでも長文に対しBLEUが顕著に低下しているが,彼らの手法ではBLEUがやや下がるものの概ね精度を維持できている.また,SMTは長文に対して頑健であることも示されている.\citeA{goh2011}は,ルールベース手法により長文を分割し,確率モデルに従って分割された節を結合する手法を提案した.提案手法では,まず,形態素解析を行い,形態素解析結果に対する複数のルールにより長文を分割する.文全体の翻訳確率は,分割された各節に対する翻訳確率の積と文全体に対する言語モデルにより与えられる.つまり,分割された各節の並び替えは主に言語モデルにより決定されることになる.\citeA{sudoh-etal-2010-divide}は,入力文に対して構文解析を行うことで単文(文というカテゴリの句)に分割し,それぞれを翻訳し,再結合することで長文の翻訳を行っている.分割されて生じる各単文は関係節やthat節などの埋め込まれた句も含まれるため,文全体の中に再帰的に埋め込まれた文が存在することになる.\citeauthor{sudoh-etal-2010-divide}は,各単文を非終端記号に変換することで,文全体を単文の集合に分割し,各単文を翻訳している.非終端記号も翻訳されているため,目的言語においてそれらの非終端記号を手がかりに文全体を自動的に再構成することができる.学習のために,単文の対訳コーパスを作る必要があり,単文のためのアライメントアルゴリズムも提案している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{NMTモデルの構造的特徴を利用する手法}この節では文分割以外の手法として,NMTの構造的特徴を利用した長文対策の手法を紹介する.\citeA{deguchi-etal-2019-dependency}や\citeA{bugliarello-okazaki-2020-enhancing}は,依存構造解析を用いてTransformerモデルを改良する手法を提案している.Transformerの自己アテンション層は,あるトークンからあるトークンへの係り受け関係を計算しているとみなすことができ,依存構造解析結果を教師信号として自己アテンションの教師付き学習を行うことで翻訳精度が向上する.\citeauthor{bugliarello-okazaki-2020-enhancing}は,長文に対する提案手法の影響を調査しており,長文に対して高い翻訳精度(BLEU)を実現することが報告されている.長文に対しては,長距離依存関係を翻訳モデルの学習中に捉えることが難しいことが考えられるが,依存構造解析結果を自己アテンションの教師信号として陽に与えることで,長距離依存の問題が緩和されていると考えられる.\citeA{tu-etal-2016-modeling}は,NMTにおける訳抜け・過剰訳への対策として,言語間アテンションを利用したカバレッジモデルを提案している(\ref{sec:2-nmt-model}節を参照のこと).原言語文の各トークン毎に今までかけられたアテンションの重みの累計を保持しておき,原言語文の全てのトークンのアテンション重みの累計が予測されるfertilityに達するように制約を与える.アテンション付きLSTMは長文に対し性能が劣化するが,カバレッジモデルにより性能劣化が緩和されている.Transformerでは正弦波に基づく絶対位置エンコーディングが用いられているが,訓練データに出現しなかった文長に対する翻訳精度が大きく低下することが報告されている\cite{neishi-yoshinaga-2019-relation}.絶対位置エンコーディングを用いない手法として,\citeA{shaw-etal-2018-self}は自己アテンションにおける単語間の相対位置に基づく位置エンコーディングを提案しており,\citeA{neishi-yoshinaga-2019-relation}はRNNを用いた位置エンコーディングを提案している.図\ref{fig:neishi2019}は,絶対位置エンコーディング,相対位置エンコーディング,RNN位置エンコーディングによるTransformerの翻訳精度を示している.図の灰色の領域は訓練データに出現しない文長を示しており,絶対位置エンコーディングを用いたTransformerでは大きく性能が低下していることがわかる.一方,\citeA{shaw-etal-2018-self}による相対位置エンコーディングの手法や,\citeA{neishi-yoshinaga-2019-relation}によるRNN位置エンコーディングの手法では,絶対位置エンコーディングほどの大きな性能低下は生じていないことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{29-3ia8f4.pdf}\end{center}\caption{相対位置エンコーディングとRNN位置エンコーディングによる長文対策の効果}\label{fig:neishi2019}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{特許機械翻訳と長文対策}特許文書では解釈の曖昧性を生じないよう,適切に内容を特定できるように複雑な構文構造を持つ長文がしばしば利用される.特に請求項においては権利化の対象を特定するために多くの語句や節で修飾された200語を超えるような名詞句が用いられることも少なくない.一方で,上に挙げた研究でもそこまで極端な長文の翻訳は考慮されていないのが実情である.特に長文に着目していない現在主流の研究においては,学習の効率化のために数十語を超えるような文は学習から除外されたり,評価用のデータにも目立って長文が含まれないため,特許機械翻訳で想定されるような長文についての検証は十分に行われていない.今後の特許機械翻訳への応用に向け,請求項のような極端な事例も含んだ評価・検証が今後求められる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{低リソース言語対対策} 言語Xから言語Yへの翻訳システム(本節ではこのような翻訳システムをX→Yと略記する)を構築したい場合,SMTやNMTではXとYとの間の対訳コーパスを用いて訓練するのが一般的である.訓練データのサイズが小さい場合を低リソース言語対と呼び,その中で訓練データが全くない場合はゼロリソース言語対と呼ぶ.低リソース言語対に対する翻訳システムは高リソース言語対に対するシステムに比較して翻訳性能が劣化する.そのための対策として,さまざなものが提案されている.以下の節では,まず低リソースのデータ量について説明し,その後順次これらの対策について説明する.\ref{カスケード方式}節では,間に第3の言語Z(中間言語あるいはピボット言語と呼ぶ)を挟んでX→ZおよびZ→Yを高リソースとする.\ref{データ拡張と操作}節では,XまたはYの単言語コーパスから疑似的な2言語コーパスを作成して訓練データを拡張する.\ref{転移学習}節では,高リソース言語対で事前訓練を行い低リソース言語対でファインチューニングを行う.\ref{多言語モデル}節では,多対多の翻訳システムの一部として低リソース言語対を含める.\ref{事前訓練モデル}節では,一般公開された事前訓練モデルをファインチューニングする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{低リソースと判断されるデータ量}どの程度の訓練データのサイズであれば低リソース言語対となるのであろうか.\citeA{koehn-knowles-2017-six}は,英語→スペイン語を対象に,訓練データのサイズによってSMTとNMTの精度(BLEUで計測)がどのように変化するかを調査した.訓練データの英語側の語数が1,200万語までの場合はSMTのBLEU値がNMTのそれを上回っており,2,400万語より多い訓練データを用いた場合は逆転する.1文の平均語数を20語と仮定すると60万文対と120万文対の間でSMTとNMTのBLEUが逆転する.\citeA{trieu-etal-2017-investigating}は,同様の調査を日本語→英語で行っている.600万語程度ではSMTの方がBLEUが高かった.\citeA{sennrich-zhang-2019-revisiting}は,NMTのハイパーパラメータやシステム構成を低リソース言語対に最適に調整することで10万語程度の訓練データでもNMTの方がBLEUが高くできることを示した.\citeA{duh-etal-2020-benchmarking}は,2.4万文対を用いた同様の実験でNMTはSMTと同じくらいのBLEUにできることを示した.ただし調整を慎重に行わないとBLEUが下がると指摘している.これらの研究から数万文から数十万文(数十万語から数百万語)以下を低リソース言語対と見なすことにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{カスケード方式}\label{カスケード方式}X→Yを構築したい場合,X→Yが低リソース言語対である場合でも他の言語Zを間にはさむことでX→ZおよびZ→Yは高リソース言語対とできる場合がある.例えば,英語や中国語を言語Zとすることが考えられる.このような方式を中間言語方式またはピボット方式と呼び,言語Zを中間言語またはピボット言語と呼ぶ.ピボット方式の最も単純な方法としてX→Zの後にZ→Yを直列につなぎX→Yを得るカスケード方式がある.\citeA{costajussa2018englishcatalan}は,英語→スペイン語にスペイン語→カタラン語をカスケードに繋いで英語→カタラン語を実現した.英語→スペイン語のBLEUは46.55,スペイン語→カタラン語は86.89,英語→カタラン語は41.38であった.カスケード方式は,いくつかの工夫が提案されている\cite{cheng-etal-2016-semi,ijcai2017-555,chen-etal-2017-teacher,kim-etal-2019-pivot}.\citeA{cheng-etal-2016-semi}は,カスケードモデルの目的言語を原言語と同一にしたオートエンコーダモデルを導入してX→YとY→Xを同時訓練した.その際,評価関数として原言語から目的原語への尤度,目的原語から原言語への尤度,原言語のオートエンコーダの尤度,目的原語のオートエンコーダの尤度の4項を設定した.\citeA{ijcai2017-555}は,カスケードモデルのパラメータを原言語Xから中間言語Z,中間言語Zから目的言語Yで独立ではなく,X,Z,Yの三者に関係する交差項を加えて訓練した.交差項としては,X→ZとZ→YにおけるZの埋め込みベクトルの近さを用いるものと,X→Yの少量の2言語コーパスに対する評価値を用いるものを使用し,後者のBLEUが高かった.\citeA{chen-etal-2017-teacher}は,ゼロリソース言語対(X,Y)に対して双方の言語と高リソースを有するピボット言語Zがある場合を想定してteacher-student方式を適用した.彼らの方法では,Z→Yを親システム(teacher)として,XとZの2言語コーパスを利用して子システム(student)であるX→Yを構築する.\citeA{kim-etal-2019-pivot}は,ピボット方式の翻訳システムで転移学習(\ref{転移学習}節参照)の新しいアーキテクチャを3種類提案した.Step-wise事前学習方式,ピボットアダプタ追加方式,Cross-lingualencoder方式である.Step-wise事前学習とCross-lingualencoderを組み合わせた方式がBLEUが高かった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データ拡張と操作}\label{データ拡張と操作}X→Yの2言語対訳コーパスが低リソースであっても,X単独あるいはY単独の単言語コーパスとしては高リソースな場合がある.そのような単言語コーパスを操作してデータ拡張する手法が種々に提案されている.逆翻訳(back-translation)は,目的言語側が高リソースな単言語コーパスを,何らかの翻訳システムで原言語側に翻訳して合成データ(syntheticdata)を作り,対訳コーパスに加えることで訓練データのサイズを拡張する\cite{sennrich-etal-2016-improving}.さまざまなコーパスサイズで逆翻訳を利用した場合の比較が\citeA{poncelas2018investigating}にある.逆翻訳の工夫も提案されている\cite{imamura-etal-2018-enhancement,edunov-etal-2018-understanding,imankulova-etal-2017-improving,imankulova-etal-2019-exploiting,zhou-etal-2019-handling,chaudhary-etal-2019-low,niu-etal-2019-bi,currey-heafield-2019-zero}.\citeA{imamura-etal-2018-enhancement}や\citeA{edunov-etal-2018-understanding}は,逆翻訳時にサンプリングやnベスト翻訳によって多様な翻訳を出力し,合成データのベスト多様性を増やした.\citeA{imankulova-etal-2017-improving}は,逆翻訳時に低品質で翻訳された文を除外することで訓練データの質を向上させた.さらに\citeA{imankulova-etal-2019-exploiting}は,in-domainに加えてout-of-domainの大規模なデータを利用して,BLEUを3.7ポイント上昇させた.逆翻訳を行う場合,そのための翻訳システムとして何を用いるかが問題となるが,\citeA{zhou-etal-2019-handling}は,辞書を用いた単語から単語への翻訳を利用する手法を提案した.\citeA{chaudhary-etal-2019-low}は,大規模なノイズのある対訳コーパスをフィルタリングすることでノイズ除去を行った.その結果,厳しくフィルタリングしたほうがBLEUが高かった.\citeA{niu-etal-2019-bi}は,双方向翻訳システム(X→YおよびY→X)を対象として,ノイズのある対訳コーパスあるいは逆翻訳された合成2言語コーパスを再構成する手法に工夫を加えた.\citeA{currey-heafield-2019-zero}は,カスケード方式(\ref{カスケード方式}参照)において,多対多のNMTを用いてピボット言語のデータを逆翻訳して訓練データを拡張した.逆翻訳を利用すると,双方向翻訳システムを同時訓練することができる.\citeA{NIPS2016_5b69b9cb}は,双方向同時訓練において少量の2言語コーパスと両言語の単言語コーパスを利用した.\citeA{ahmadnia-dorr-2019-bilingual}は,ゼロリソース設定で,X→YとY→Xの2つのシステムを同時訓練する次の手法を適用した.1)単言語コーパスから得られる言語モデルのスコアを陽に用いる,2)nベスト出力を用いてパラメータを修正する,3)単言語の文の翻訳結果を評価し,評価値の高い文を選択して訓練データに加える.原言語側と目的言語側の単言語コーパスを用いて,逆翻訳を反復適用することで翻訳精度を徐々に向上させる方法もある\cite{lakew2017improving,lample-etal-2018-phrase,hoang-etal-2018-iterative}.\citeA{lakew2017improving}は,多対多の翻訳システムを原言語と目的言語の単言語コーパスを利用して訓練・翻訳・再訓練を繰り返すことで逐次改良した.5回繰り返すことで1回目と比較してBLEUが5ないし6ポイント向上できた.\citeA{lample-etal-2018-phrase}は,反復適用をすることで初期の訓練データがゼロの翻訳システム(ゼロリソースNMT)を構築した.\citeA{hoang-etal-2018-iterative}は,少量の2言語コーパスと逆翻訳の反復適用によってBLEUを向上させた.逆翻訳以外にも,データ拡張や操作を行って合成データの規模と多様性を増やす方法がある.\citeA{currey-etal-2017-copied}は,対訳コーパスに,原言語側もしくは目的言語側の単言語コーパスを単にコピーして加えることで翻訳性能の向上を図った.この方法は,原言語・目的言語で文字種が同じ言語対で効果がある.固有名詞など,変換が不要な単語が多く含まれるためである.目的言語側の単言語コーパスをコピーして加えたときの効果の方が大きい.\citeA{fadaee-etal-2017-data}は,対訳コーパス中の高頻度の語を意味的に類似する低頻度の語で入れ替えて合成コーパスを作った.このことで低頻度の語を含むコーパスを増やすことができ,翻訳のための文脈を拡張できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{転移学習}\label{転移学習}低リソースなX→Yを構築する前に高リソースなZ→Yを構築し,\pagebreakその後X→Yをファインチューニングする転移学習(transferlearning)の手法がさまざま提案されている\cite{zoph-etal-2016-transfer,kocmi-bojar-2018-trivial,dabre-etal-2019-exploiting,bapna-firat-2019-simple,beloucif-etal-2019-naive}.\citeA{zoph-etal-2016-transfer}は,高リソースなZ→Yで事前訓練して親モデルとし,引き続き低リソースな複数の$\rmX_{i}$→Yでファインチューニングして子モデルを構築した.具体的にはフランス語→英語の親モデルから\{ハウサ語,トルコ語,ウズベク語,ウルドゥ語\}→英語の子モデルを作った.\citeA{kocmi-bojar-2018-trivial}は,多対1に加えて,1対多あるいは2対2のNMTを対象にした転移学習を提案した.これは,親モデルと子モデルの目的言語側が異なるまたは原言語側も目的言語側も異なる転移学習である.\citeA{dabre-etal-2019-exploiting}は,3段階の転移学習を行った.まず高リソースな英語→Xで事前訓練を行う.次に低リソースな複数の英語→$\rmY_{k}$(k=1,...,N)を加えてファインチューニング1を行う.最後に対象言語の英語→$\rmY_{j}$を用いて再度ファインチューニング2を行う.\citeA{bapna-firat-2019-simple}は,Transformerモデルにアダプタを導入して,多対多のNMTを全言語対で訓練し,対象となる低リソース言語対でアダプタ部分をファインチューニングした.\citeA{beloucif-etal-2019-naive}は,転移学習において,以下の3種類の言語学的正則化を導入した損失関数を利用した.1)入力と出力の単語単位での文長の差,2)入力と出力の句読点の個数の差,3)入力と出力の単語の頻度分布の差(Kullback-Leibler距離を利用).転移学習時のデータ操作についての工夫もある\cite{zoph-etal-2016-transfer,murthy-etal-2019-addressing,song-etal-2020-pre}.\citeA{zoph-etal-2016-transfer}は,フランス語→英語の親モデルから\{ハウサ語,トルコ語,ウズベク語,ウルドゥ語\}→英語の子モデルを作るシステムにおいて,低リソース言語の単語はフランス語の単語にランダムに対応させ初期値とした.その後は通常の訓練で調整し,4ないし8ポイントBLEUが向上できた.\citeA{murthy-etal-2019-addressing}は,英語→ヒンディ語を親モデル,\{ベンガル語,グジャラート語,マラーティー語,マラヤーラム語,タミル語\}→ヒンディ語を子モデルとする転移学習において英語を事前並べ替えした方が多くの場合BLEUが向上することを示した.\citeA{song-etal-2020-pre}は,親モデルを教師なしで訓練するような転移学習において,訓練データのフィルタリングを行った.加えて日本語→英語を子モデルとし,中国語→フランス語を親モデルとする場合,中国漢字を日本漢字に転写している.Y→英語で親モデルを訓練し,X→英語で子モデルを訓練する場合,XとYが言語的に近い方が有利である\cite{nguyen-chiang-2017-transfer,xia-etal-2019-generalized}.\citeA{nguyen-chiang-2017-transfer}は,XとYが言語的に近いと共通する語またはサブワードが多くあるため,親モデルの訓練には,かならずしも高リソースが必要でないことを示した.\citeA{xia-etal-2019-generalized}は,Xがベラルーシ語,Yがロシア語の場合,転移学習により7ポイントBLEUを向上させた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{多言語モデル}\label{多言語モデル}低リソース言語対を多対多の翻訳システムの中で実現することで,高リソースな言語対の影響を受けて低リソース言語対に対する翻訳精度も向上できる可能性がある.N言語×M言語の多対多NMTを単純に実現するにはN×M個のアテンション機構が必要であるが,\citeA{firat-etal-2016-multi}は,それを共通の1つのアテンション機構で実現した.\citeA{firat-etal-2016-zero}は,この手法をゼロリソース言語対に適用した.\citeA{johnson-etal-2017-googles}は,多対多NMTを1対1のNMTと同じアーキテクチャで実現した.つまりアテンション機構に加えてエンコーダとデコーダも多言語で共通化している.言語の選択は,原言語の文に特殊なトークンである翻訳先言語名を付加することで所望の言語での出力を得る.\citeA{gu-etal-2018-universal}は,多対1のNMTにおいて,単語埋め込み表現を用いて,異なる原言語表現を語彙レベルの普遍表現にし,MixtureofLanguageExpert(MoLE)と呼ばれる機構を用いて異なる原言語表現を文レベルの普遍表現にした.多言語モデルにおいては,言語対によってデータ量に多寡が生じ,それに従って精度が変化する.\citeA{arivazhagan2019massively}は,103言語間の多対多NMTを総数250億文対から訓練し,データ量に対するBLEU値を調査した.言語対毎に訓練データ量が異なり,高リソース言語対では20億文対,低リソース言語対では3万5千文対である.各言語対に対して同量の訓練データとなるようオーバーサンプリングすることによって低リソース言語対でのBLEUを向上できた.多言語モデルを構成する場合,言語の組み合わせによっても性能が変化する.\citeA{aharoni-etal-2019-massively}は,非常に低リソースな複数の言語対(X→英語と英語→X)を1対多,多対1,多対多で訓練した場合を比較した.X→英語では多対多のBLEUが高く,英語→Xでは1対多のBLEUが高った.\citeA{aharoni-etal-2019-massively}は,\citeA{arivazhagan2019massively}と同様の実験を,高リソース言語対の訓練データを100万文対に制限して実施した.この実験設定では,多対多(X→英語と英語→X)より多対1(X→英語)および1対多(英語→X)のBLEUが高った.\citeA{sachan-neubig-2018-parameter}は,1対多のNMTにおいて共通化するデコーダのパラメータを制限することの良否を調査した.複数の目的言語間の距離が近い場合は,多くのパラメータを共通化した方がBLEUが高く,遠い場合は少ないパラメータを共通化した方がBLEUが高かった.\citeA{mueller-etal-2020-analysis}は,対象言語Xから英語へのNMTを多対1のNMTで実現するときの最適な補助言語の組み合わせについて検討した.彼らの実験では,補助言語の数を多くしすぎるとBLEUが低下し,Xと言語的に近い言語を選ぶことの良否はまちまちであった.\citeA{tan-etal-2019-multilingual}は,多対1あるいは1対多のNMTにおいて対象言語に近い補助言語を用いる有効性を検討した.言語間の近さは,語族をベースとしたものと,言語名を表す特殊なトークンの単語埋め込みベクトルの近さをベースにしたものを比較した.その結果,後者の有効性がより大きかった.\citeA{he2019language}は,言語をノードとし,翻訳方向を考慮した言語対をエッジとした有向グラフである言語グラフ(languagegraph)を導入して補助言語を選択した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事前訓練モデル}\label{事前訓練モデル}近年,大規模な単言語コーパスで学習した事前訓練モデルが開発され,\pagebreakさまざまなタスクで効果を上げている.機械翻訳でも,事前訓練モデルを対訳コーパスでファインチューニングすることで,低リソースの弱点をカバーし,従来の翻訳品質を大幅に上回る精度を出せるようになっている.事前訓練モデルとしてBERT\cite{devlin-etal-2019-bert}を使用する場合,これはTransformerエンコーダなので,NMTのエンコーダー部分を置換または補完する形で使用する\cite{imamura-sumita-2019-recycling,clinchant-etal-2019-use,Zhu2020Incorporating}.そのため,英語用のBERTを使ったNMTでは,原言語が英語となり,目的言語が低リソース言語となる.\citeA{imamura-sumita-2019-recycling}は英語→ベトナム語,\citeA{clinchant-etal-2019-use}や\citeA{Zhu2020Incorporating}は英語→ロシア語で実験を行い,いずれもBLEUスコアが上昇することを確認した.事前訓練モデルとして多言語エンコーダ・デコーダモデル(たとえばmBART;\cite{liu-etal-2020-multilingual-denoising})を用いると,原言語・目的言語ともに,多言語モデルがサポートした言語すべてを使用することができ,\ref{多言語モデル}節の多言語モデルと,\ref{転移学習}節の転移学習を組み合わせたような効果が得られる.WorkshoponAsianTranslation\cite{wat-2021-asian}のNICT-SAP共通タスクでは,英語とヒンディー語,タイ語,マレー語,インドネシア語への翻訳が実験されており,mBARTモデルをファインチューニングしたシステムが翻訳品質上位を占めていた\cite{susanto-etal-2021-rakutens,imamura-sumita-2021-nict}.また,WorkshoponTechnologiesforMTofLowResourceLanguages\cite{mtsummit-2021-technologies}というワークショップも開催されており,さまざまな事前訓練モデルの利用が提案されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{特許機械翻訳における低リソース言語対策}特許機械翻訳ではこれまで主要国の知的財産庁で構成されるIP5\footnote{\url{https://www.jpo.go.jp/news/kokusai/ip5/index.html}}におけるデータを中心に研究が進められてきた経緯があり,これら主要国の言語間に対しては各庁やWIPOで機械翻訳の導入も進んでいる.一方で,その他各国の言語については特許文書のみならず各種技術文書の対訳コーパスは十分に整備されていないのが実情であり,今後国際的な連携によるデータの拡充が求められている.日本における特許文書の翻訳の場合を考察すると,日本語と低リソースとなる言語として東南アジアの言語(タイ語,ベトナム語など)が挙げられる.WAT2020,WAT2021において東南アジアの言語と英語との翻訳について研究されている\cite{nakazawa-etal-2020-overview,wat-2021-asian}.今後,日本語を含むアジア諸言語についての低リソース言語対対策の研究が進むことが望まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価} ある機械翻訳システムや機械翻訳結果が満足のいく品質水準にあるかどうかは実用上最も重要な問題である.出来上がったシステムの評価をすることの重要性もさることながら,機械翻訳システムの開発においては評価とシステム改善を繰り返し行うことが必要であることから,特に機械翻訳の発展著しい2000年代以降は機械翻訳の評価についての研究も数多く行われている.本節では機械翻訳の評価に関する代表的な方法について概説し,特許翻訳における課題との関係について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手評価}人間による評価(人手評価)は,本来多数の正解訳が許容される翻訳の問題において非常に重要な役割を持つ.人手評価が適切に実施されることにより,ある機械翻訳結果の品質がいかほどであるか,他の機械翻訳結果と比較して優れているか,どういう点で誤りがあるのか,等,様々な観点で機械翻訳を捉えることが可能となる.さらに人手評価は,後述する自動評価による評価結果が信頼に足るものであるかどうかを評価する\footnote{自動\emph{評価}の「評価」であるため,「メタ評価」と呼ばれることが多い.}ためのリファレンスでもあるため,機械翻訳技術や自動評価技術の進展の重要な基盤と考えることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{段階評価による人手評価}機械翻訳における人手評価では,1990年代に始まった米国ARPAの機械翻訳プロジェクトの評価尺度である\emph{忠実さ}(adequacy)と\emph{流暢さ}(fluency)がその後長く利用されていた\cite{white-etal-1994-arpa}.忠実さは原文や参照訳との比較で本来訳出すべき重要な内容をどの程度訳文が反映しているかを,流暢さは訳文がどの程度自然かつ流暢なことばになっているかを,それぞれ5段階で評価するものである.特許翻訳の共通タスクNTCIR-7PATMT\cite{NTCIR7PATMT}ではこれらの人手評価が用いられた.後のNTCIR-9及びNTCIR-10PatentMT\cite{NTCIR9PatentMT,NTCIR10PatentMT}では流暢さに変わって\emph{容認性}(acceptability)が採用された.容認性は,忠実さで測られる重要な情報がすべて訳出されている訳文について,文法的な正しさ,読みやすさ,流暢さ等で5段階にしたものであり,必要な内容は含まれているがそれが自然で伝わりやすいことばとして訳出されているかに注目したものである.特許という事実の伝達を目的とした文書の翻訳においてはまず内容が漏らさず含まれていることが必要条件と言えるため,特許翻訳の実用を反映した人手評価の仕組みと言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{相対評価から直接評価へ}こうした段階評価の方法は評価者間の一致度が十分でないことや,\pagebreak機械翻訳の精度向上とともにシステム間の差が測りづらくなってきたことが指摘されるようになった.機械翻訳研究における各種共通タスクを牽引している国際会議WMTでは機械翻訳の共通タスクと並行して機械翻訳評価手法の共通タスクを実施しているが,2000年代後半からは異なるシステムの翻訳結果を比較して行う順位による相対評価が中心となった\cite{callison-burch-etal-2007-meta}.一方で相対評価では絶対的な翻訳の良し悪しが分からないという面もあり,2010年代半ばからは直接評価(DirectAssessment;以下DA)と呼ばれる連続的な数値評価が行われるようになった\cite{graham_baldwin_moffat_zobel_2017}.DAでは0から100の整数で訳文の評価を行い,評価値の標準化を施すことで評価者間の違いを調整して利用している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{より詳細な品質評価に向けた動き}さらに近年ではNMTによる翻訳精度の向上を受け,DAでの訳質の識別も容易でなくなりつつあり,人手評価方法の見直しが議論されている.2021年のWMTではより詳細かつ系統的な翻訳品質評価尺度である多元品質評価尺度(MultidimentionalQualityMetrics;以下MQM)\footnote{\url{http://www.qt21.eu/mqm-definition/definition-2015-06-16.html}}\cite{lommel_2014}に基づく人手評価が採用された\cite{freitag-etal-2021-results}.MQMでは機械翻訳の誤りに対し,その誤りが様々な誤訳の類型のどれに当たるもので,誤りの程度が「なし(None)」「軽度(Minor)」「重度(Major)」「深刻(Critical)」のどれに当たるものかを分類して重み付けし点数付けする.\citeA{freitag-etal-2021-experts}ではMQMを利用した大規模な機械翻訳評価を行い,その分析を通じて人手翻訳と機械翻訳の違い,翻訳の人手評価における問題について論じている.MQMはそれ以前から存在した人手翻訳を含む翻訳評価の仕組みであるLISAQAModelやTAUSDQFに基づいて設計されたものであり,日本では日本翻訳連盟(JTF)が策定したJTF翻訳品質評価ガイドライン\cite{JTFguideline-2018}で類似した翻訳品質評価の設計が行われている.つまり,機械翻訳は人手翻訳と同様の厳しさをもって評価されるべきである,という時代が到来したと考えてよいだろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自動評価}自動評価は機械翻訳の評価を計算機が自動的に行う技術である.典型的な自動評価は,機械翻訳結果を参照訳と比較し,その「近さ」を定量化した評価値として返すというものであるが,近年では参照訳のみならず原文をも入力として活用する手法が提案される等大きな変化が始まっている.本稿では代表的な手法を中心に紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{表層ベース自動評価}自動評価の初期に用いられていたのは,音声認識の評価で現在も利用されている単語誤り率(WordErrorRate;WER)である.WERは機械翻訳結果と参照訳の表層情報のみを利用した,単語列の編集距離に基づく非常に直感的な「近さ」の尺度と言える.しかしながら,音声認識と異なり機械翻訳の場合は語順の変化が許容される場合が多く,参照訳の特定の語順に強く制約されるWERは評価尺度としては厳しすぎると見ることもできる.そのため,語順の情報を無視し,機械翻訳結果と参照訳それぞれを単語の集合とみなし,集合間の単語の一致率を用いた位置独立単語誤り率(Position-independentWordErrorRate;PER)が利用されることもあった\cite{tillmann97_eurospeech}.そうした中,2001年に提案されたのがBLEU(BiLingualEvaluationUnderstudy)\cite{papineni-etal-2002-bleu}である.BLEUは単語n-gram単位での機械翻訳結果と参照訳の一致率を利用することで,WERほど語順に強く左右されることもなく,ある程度の単語の繋がりを考慮することを可能にした.その後約20年にわたり機械翻訳の自動評価のデファクトスタンダードの位置を占めている.当時は米国NISTが機械翻訳の大規模な研究プロジェクトを実施しており,BLEUもそのプロジェクトにおける機械翻訳の自動評価尺度として提案されたものである.すぐ後にBLEUを改変した尺度であるNIST\cite{doddington-2002-automatic}も提案されている.WERはもとより,BLEUやNISTは単語の表層形のみで訳語の正誤判定をするものであり,活用形の違いや同義語への置換に対して過剰にペナルティをかけてしまう.METEOR\cite{banerjee-lavie-2005-meteor}はステミングやWordNetの同義語辞書を利用することで柔軟な評価を可能にしており,現在でも良く使われている.一方で,単語を単位とする自動評価においては単語分割を評価に際して行う必要があり,日本語や中国語等分かち書きが行われない言語においては,単語分割の方法により結果が大きく変わってしまうという問題があった.chrF\cite{popovic-2015-chrf}は文字n-gramのFスコアを用いて評価を行うことでそうした問題の解消を狙ったものである.さらに単語n-gramも用いた拡張版がchrF++\cite{popovic-2017-chrf}で,人手評価との相関が改善することが示されている.BLEUのように決まった長さの単語列の単位に分解するのではなく単語列全体としての正しさに注目したのが翻訳誤り率(TranslationErrorRate\footnote{編集距離を用いることから当初は翻訳編集率(TranslationEditRate)という名称であったが後に改められた.};TER)\cite{snover-etal-2006-study}である.TERはWERと同様の編集距離を利用しつつも,連続する部分単語列がまとまって移動するシフトという編集を許可することによって直感的な編集誤りの計算を行っている.IMPACT\cite{echizen-ya-araki-2007-automatic}は最長一致部分単語列に着目して句や節といったまとまった部分単語列を抽出することで評価の改善を狙ったものであり,RIBES\cite{isozaki-etal-2010-automatic}は単語列の順位相関を利用して大域的な語順の誤りに敏感な評価を狙ったものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モデルベース自動評価}2010年代に入りword2vec\cite{mikolov2013efficient}をはじめとする分散表現の利用が盛んになったことで,これまで表層に強く依存してきた機械翻訳評価に大きな変化が訪れた.特に2010年代後半以降の文の分散表現に関する研究の進展により,自動評価の性能も飛躍的に向上してきている.ここでは,翻訳評価のデータを使ったファインチューニングを要さない汎用性の高い手法と,翻訳評価のデータを用いたファインチューニングにより機械翻訳評価に特化した手法の二つに分けて概説する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ファインチューニングなし}翻訳評価のデータによらない方法として,文の意味的類似度によって翻訳に求められる意味的等価性を測る尺度が用いられている.WE\_WPI\cite{echizenya-etal-2019-word}は単語埋め込みの最適輸送を用いて文書の意味的類似度を測るWordMover'sDistance\cite{pmlr-v37-kusnerb15}に単語アライメントに基づいて語順の制約を加えることで翻訳の自動評価を行っている.BERTScore\cite{bert-score}は自然言語処理分野で広く活用されているBERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-etal-2019-bert}を用いて二つの文をそれぞれサブワードベクトルの集合として表現し,サブワードベクトル間の余弦(cosine)を類似度として用いて文の類似度を近似計算する.MoverScore\cite{zhao-etal-2019-moverscore}は最適輸送を利用したBERTScoreの拡張である.これらの方法は大規模なテキストで事前学習されたBERTにのみ依存するため,機械翻訳評価に限らず,幅広い分野の文の類似度尺度として利用できるという利点があるが,機械翻訳評価における性能においては次に挙げる手法よりもやや劣ることが多い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ファインチューニングあり}翻訳評価のデータを正解として評価モデルをファインチューニングすることで,翻訳評価に特化した高性能なモデルが得られることが知られている.特にWMTにおけるDAスコアの回帰問題と考え,翻訳文と参照訳の組を入力とし,DAスコアを出力として学習する手法がこの数年数多く発表されている.RUSE\cite{shimanaka-etal-2018-ruse}は文の分散表現を用いた機械翻訳評価の端緒となった手法であり,BERT以前に提案されていたInferSent,Quick-Thought,UniversalSentenceEncoderを利用したものである.RUSEにおける文の分散表現をBERTによるものに置き換えたのがBERTRegressor\cite{shimanaka2019}であり,RUSEより高い人手評価との相関を示している.BLEURT\cite{sellam-etal-2020-learning}は評価以外の補助タスクを用いた事前学習を行うことで汎用性を向上させた.C-SPEC\cite{KosukeTakahashi2022},COMET\cite{rei-etal-2020-comet}は回帰モデルの入力に原言語の入力文を加え,言語横断モデルに基づく文埋め込みにより翻訳文と参照訳の意味的類似性のみならず翻訳文と原文の意味的類似性を考慮することを目指したものである.これらの手法は人手評価との相関が高くなる一方で,学習データが必要になること,また性能がその学習データの特徴に左右されることが問題とも言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{特許機械翻訳と翻訳評価}上記の評価は翻訳の正しさという面に着目し,各翻訳文,もしくは文の集合としての文章の翻訳に対して,その優劣を問うものである.一方で,特許関連の実務において,こうした翻訳の評価における優劣が実用上の有効性と直結するとは限らない.そこで実用上の有効性を評価することを目的とした外的評価(extrinsicevaluation)が行われることがある.NTCIR-7PATMT\cite{NTCIR7PATMT}では特許における言語横断情報検索での応用を想定し,英語の検索クエリを日本語に機械翻訳して日本語の特許文書の検索を行う,という外的評価が行われた.後年のNTCIR-9及びNTCIR-10PatentMT\cite{NTCIR9PatentMT,NTCIR10PatentMT}では,特許審査評価(PatentExaminationEvaluation)と呼ばれるより実務に近いシーンを想定した外的評価が実施された.実際の特許出願審査で拒絶の審決が行われた出願を対象として,拒絶理由として用いられた既存発明の特許文書を機械翻訳し,それによって本来の審決と同様に拒絶の判定をするための情報が得られるかどうかを,特許審査実務の経験者が6段階で判定するというものであった.一方で,特許庁でも機械翻訳を広く活用していることから機械翻訳の評価方法について長年検討・調査を行っており,2014年には「特許文献機械翻訳の品質評価手順」と題した評価マニュアル\cite{JPOeval-2014}を公開している.この評価手順の特徴としては,従来の人手評価で利用されていた忠実さや流暢さによる絶対評価に加え,特許機械翻訳の評価において重視される重要技術用語の訳質についての評価が考慮されていることが挙げられる.また,機械翻訳の誤りフィードバックを目的としたチェックリストについても言及されており,これは先に述べたMQMやJTF翻訳品質評価ガイドラインと類似した誤り項目ごとのチェックが考慮されている.さらに,本マニュアルで挙げられた忠実さの設計では,評価の対象を重要情報と呼び,技術的要素とその相互関係を表す名詞句や述語等に注目することが明示されている.この忠実さの尺度は,アジア言語翻訳ワークショップ(WorkshoponAsianTranslation;WAT)の共通タスクにおいてJPOAdequacyとして2015年の第2回から人手評価に利用されている\cite{nakazawa-etal-2015-overview}.以上述べた通り,特許機械翻訳の実用的な評価と,学術界で広く利用されている様々な評価手法の間には少なからぬ乖離がある.特に機械翻訳研究で広く用いられている自動評価ではすべての情報を同等に扱う傾向が強く,どういう点が所与の翻訳タスクで重要であるか,という観点が具体的に考慮されることはほとんどない.最近研究が盛んになっている評価用データでファインチューニングを行うモデルベース自動評価であれば,特許を対象とした中規模の翻訳評価データを利用することで評価の性能が向上する可能性はあると考えられる.しかしながら,入力文に対して文平均での評価スコアを付するというような枠組みは機械的に扱うのには便利な反面,人に向けての誤りのフィードバックや分析には不便な面がある.昨今のMQMに基づく人手評価のように,専門家による詳細な評価アノテーションの特許翻訳領域での拡大と,データの蓄積とそれに基づく技術の改良が今後の重要な課題と言えよう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{翻訳の高速化・省メモリ化} 本節では,翻訳システムの使いやすさに影響する,翻訳実行時における速度向上,省メモリ技術について説明する.特許機械翻訳では膨大な特許文書を対象にモデルの学習や翻訳の実行を高速に行うことが求められ,一方で政府機関である知的財産庁での利用やサービスの提供にあたっては費用対効果が問われる面もあるため,実用にあたっての処理の効率化は非常に重要な課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{08table01.tex}\hangcaption{翻訳の高速化,省メモリ化のまとめ.〇は効果あり,×は効果なし,△は他の技術と組み合わせることにより効果ありを表す.}\label{tbl-summary}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本節における技術分類を表\ref{tbl-summary}に示す.本節で述べる技術は,モデルに関するもの,訓練・テスト時の処理,実装に関するものに細分して説明するが,複数の項目の組み合わせで動くものもあり,この分類は便宜上のものである.近年,超大規模事前訓練モデルの訓練,および利用時の速度向上やメモリ削減も注目されて来ているが(たとえば\cite{li-etal-2021-multilingual}),本節は中~小規模モデル利用時の高速化やメモリ削減がテーマである.本節では,翻訳モデルとして,Transformer\cite{DBLP:journals/corr/VaswaniSPUJGKP17}(図\ref{fig-transformer})を前提として説明するが,多くの技術は再帰ニューラルネット(RNN)ベースの翻訳器\cite{Sutskever:NNMT2014,Bahdanau:NMT2015}にも適用可能である.Transformer特有の技術に関しては明記する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{29-3ia8f5.pdf}\end{center}\caption{Transformerの構成}\label{fig-transformer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%翻訳実行時の性能は,ハードウェアやソフトウェアの実装方法に依存する.本節では,現在最も普及しているIntel社のCPU,NVIDIA社のGPUを前提とするが,バージョンによって利用可能な命令セットが異なるので,適用可否はハードウェア依存であることは注意が必要である.また,WorkshoponNeuralGenerationandTranslation\cite{birch-etal-2018-findings,hayashi-etal-2019-findings,heafield-etal-2020-findings}では共通タスクとして,EfficientMTTrackが実施されており,共通のデータ,および環境を用いて,翻訳速度,使用メモリの比較を行っている.参照していただきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル関連技術}\label{sec-model-techniques}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{小規模モデル}\label{sec-tiny-model}モデルのパラメータ数を削減することで,省メモリ・高速化する.削減方法には,\begin{itemize}\item深層モデルのレイヤー数を減らす方法\item分散表現の次元数(Transformerの場合,モデル幅とフィードフォワードネットワークの隠れ次元数)を削減する方法\end{itemize}がある.モデルのパラメータ削減による高速化は,翻訳品質とトレードオフであり,パラメータ数を減少させると,一般的には高速化される代わりに翻訳品質は低下する.この問題は,知識蒸留\cite{hinton2015distilling,kim-rush-2016-sequence}を併用することにより緩和させることができるため,第\ref{sec-distillation}節で再度議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{サブワード}\ref{sec:low-frequent-terms}節で述べたサブワード化\cite{Schuster:WordPiece2012,DBLP:journals/corr/WuSCLNMKCGMKSJL16}は,低頻度語を高頻度なサブワードの列に分割することによって,未知語や低頻度語を翻訳可能にする技術である.現在,サブワード化方法として,頻度に基づくバイトペア符号化(byte-pairencoding;BPE)\cite{sennrich-etal-2016-neural}と,文のunigram確率を最大化するように分割するSentencePiece\cite{kudo-2018-subword,kudo-richardson-2018-sentencepiece}が多く使われているが,どちらも語彙数を制御できるのが特徴である.語彙数は通常,数千から数万で設定される場合が多い.単語埋込テーブル(図\ref{fig-transformer}のE1およびD1)とデコーダ出力層の線形変換行列(同D7)が語彙に依存するパラメータであるが,これは全体のかなりの部分を占める.そのため,サブワードの語彙数を削減することは,メモリ使用量の削減に有効である.たとえば,Transformerの基本モデル\cite{DBLP:journals/corr/VaswaniSPUJGKP17}の場合,原言語,目的言語ともに語彙が64,000語だとすると,モデルパラメータは約1.4億個になるが,8,000語にすると6千万個以下に減少する.また,デコーダの出力層で行われるSoftMax操作(図\ref{fig-transformer}のD8)は,語彙数に依存した時間がかかるため,語彙数削減は高速化にも寄与する.最適な語彙数は,実験的に設定する場合が多いが,近年,翻訳品質を最高にするサブワード化方法も提案されている\cite{xu-etal-2021-vocabulary}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{パラメータ共有}NMTはさまざまな機能を持つサブネットワークの組み合わせで構成されているので,同じ機能を持つサブネットのパラメータを共有することで,モデルを小さくし,メモリ使用量を削減する方法も使われる.なお,パラメータ共有は処理を削減するわけではないので,高速化にはほとんど効果がない.UniversalTransformer\cite{DBLP:journals/corr/abs-1807-03819,Dabre:UniversalTransformer2019}は,Transformerのレイヤー(図\ref{fig-transformer}のE5およびD6)を繰り返し適用する方法で,翻訳時の使用メモリを削減できる.原言語と目的言語の語彙を共通化すると,エンコーダとデコーダの単語埋込テーブルを共有することができる.ヨーロッパ言語間のように使用文字が共通な場合には効果が高い.また,デコーダの単語埋込テーブル(図\ref{fig-transformer}のD1)と,デコーダ出力層の線形変換行列(同D7)は,基本的に逆変換操作であるので,両者を共有しても精度的な劣化は少なく,共有されることが多い(tiedvocabularyと呼ばれる\cite{nguyen-chiang-2018-improving}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自己アテンション機構の置き換え}Transformerのデコーダは,前方から1単語ずつ生成する自己回帰型(autoregressive)を使っている.一方,Transformerは,自己アテンション(self-attention)機構を使って,処理中の単語の周辺文脈を考慮している.自己回帰処理中は,それまでに生成したすべての単語の分散表現を混合するため,デコーディングの後半になるほど処理量が増大する.そのため,高速な自己アテンション機構がいくつか提案されている.Marian翻訳システム\cite{junczys-dowmunt-etal-2018-marian-cost,junczys-dowmunt-etal-2018-marian}は,Transformerデコーダの自己アテンション機構を直前状態のみに依存する機構に置き換えることで高速化した.SimplerSimpleRecurrentUnit(SSRU)\cite{kim-etal-2019-research,lei-etal-2018-simple}は,LSTMなどと同じRNNユニットの一種であるが,忘却ゲートを適応型指数平均に置き換え,さらにリセットゲートを省略することで処理を単純化している.基本的にRNNユニットなので,直前状態のみ保持していれば,現在の状態を更新できるため,自己回帰型デコーダの計算量が一定となる.AverageAttentionNetwork(AAN)\cite{zhang-etal-2018-accelerating}も直前状態のみに依存させることができるため,デコーダの高速化に寄与する.同様に,自己アテンション機構を置き換えた高速化モデルには,Reformer\cite{kitaev2020reformer},Linformer\cite{wang2020linformer}などがある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{非自己回帰デコーダ}デコーダの処理で,1単語ずつ生成する方式\cite{DBLP:journals/corr/VaswaniSPUJGKP17}を自己回帰型と呼ぶのに対して,Transformerの並列性を利用して,全単語を1ステップで生成する方式を非自己回帰デコーディング(non-autoregressivedecoding)\cite{DBLP:journals/corr/abs-1711-02281,lee-etal-2018-deterministic,ghazvininejad-etal-2019-mask}と呼ぶ.ただし,1ステップでは十分な精度が出ないため,非自己回帰デコーディングを繰り返し適用する場合が多い.非自己回帰デコーディングは,提案レベルでは高速な翻訳が可能であると報告されているが,自己回帰型に比べ翻訳品質が劣るため,実用的にはまだ使われていない.なお,自己回帰型でも,1ステップで2トークンを同時生成することで若干高速化が可能である\cite{ijcai2019-760,imamura-sumita-2020-transformer}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練・テスト時の技術}\label{sec-training-techniques}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{知識蒸留}\label{sec-distillation}知識蒸留(Knowledgedistillation)\cite{hinton2015distilling,kim-rush-2016-sequence}は,teacher-studentapproachとも呼ばれ,教師モデルが持つ知識を生徒モデルに反映させる技術である.知識蒸留自体は,高速化や省メモリ効果はないが,教師と生徒のモデルが分離されており,生徒側に\ref{sec-tiny-model}節で述べた小規模モデルを利用できるため,結果的に高速化・省メモリに寄与できる.NMTに適用可能な知識蒸留方式は2種類知られている.単語レベル知識蒸留\cite{hinton2015distilling}は,マルチクラス分類用の技術を機械翻訳に適用したもので,教師モデルの最終層(デコーダの出力単語分布)を模倣するように生徒モデルを学習する.分布を模倣させるため,教師モデルと生徒モデルの目的言語語彙は一致している必要がある.それに対して,系列レベル(文レベル)知識蒸留\cite{kim-rush-2016-sequence}は,原言語のコーパスを教師モデルで目的言語に翻訳し,原言語を対にした疑似コーパスで生徒モデルを学習する.目的言語の多様性が少なくなるため,小さなモデルでも教師モデルに近い精度で翻訳可能となる.機械翻訳で使用される知識蒸留は,ほとんどが系列レベル知識蒸留である.知識蒸留では,教師モデルの翻訳品質が生徒モデルの品質に影響するため,モデルアンサンブルなど,できるだけ高品質な教師モデルを用いることが多い\cite{kim-etal-2019-research}.\citeA{Imamura:KnowledgeDistillation2021j}は,日英翻訳を対象に,知識蒸留を適用した場合の小規模モデルの高速化効果を調査した.その結果,以下の知見を得ている.\begin{itemize}\item高速化の観点からは,分散表現の次元数を削減するより,深層モデルレイヤー数を削減した方が効果的である.\itemエンコーダのレイヤー数を削減するより,デコーダのレイヤー数を削減した方が,翻訳品質を劣化させずに高速化できる\cite{kasai2021deep}.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ビーム幅,貪欲探索}翻訳時の高速化に効果的なのは,ビーム探索時(図\ref{fig-transformer}のD9)のビーム幅を小さくして探索空間を縮小することである.一般的には翻訳品質は悪化するが,知識蒸留で構築したモデルの場合,比較的狭いビーム幅でも翻訳品質を落とさず翻訳できる\cite{Imamura:KnowledgeDistillation2021j}.幅1のビーム探索は,貪欲探索と呼ばれているが,探索中の翻訳仮説(ビーム中の候補)同士を比較する必要がなくなるので,デコーダ出力層のSoftMax操作(図\ref{fig-transformer}のD8)を省略することができる\cite{hoang-etal-2018-fast}.つまり,デコーダが出力するlogitのうち,最大の要素を選択すればよい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{動的語彙選択(CPU用)}GPUを使わずに翻訳する際にボトルネックとなる部分は,デコーダ出力におけるSoftMax操作(図\ref{fig-transformer}のD8)と出力単語分布からのTop-K選択操作である.SoftMaxは全要素の総和を含んでいるため,CPUで実行すると基本的には要素数ステップの計算を行わなければならない\footnote{GPUの場合は数百~数千コアで並列計算するので,ステップ数は少ない.}.Top-K選択も同様である.階層的SoftMax\cite{Morin:HierarchicalSoftmax2005}などを使って,SoftMax自体を高速化する方法もあるが,翻訳テスト時に限ると,SoftMaxが適用されるデコーダの語彙サイズを減少させることで,速度を向上させることができる.\citeA{shi-knight-2017-speeding}は,単語アライメントに基づく語彙選択を行った.手順は以下のとおり.\begin{enumerate}\itemMoses\cite{koehn-etal-2007-moses}などのツールキットを用いて,原言語と目的言語の単語翻訳確率テーブル$P(e|f)$を作成する.ただし,$f$は原言語の単語,$e$は目的言語の単語である.\item原言語の各単語$f$に対して,翻訳確率の高いトップ$M$個の目的言語単語$\{e_1,...,e_M\}$を抽出してハッシュテーブルに格納・保存しておく.\item翻訳テストの際には,原文(または原言語のミニバッチ)が与えられたら,すべての原言語単語をキーとしてハッシュテーブルを参照し,対応する目的言語の単語集合$V_{new}$を得る.\itemデコーダの出力層の線形変換行列(図\ref{fig-transformer}のD7)を,$V_{new}$のみに縮小する(またはマスクする).\end{enumerate}この方法には,いくつかバリエーションがある.\citeA{junczys-dowmunt-etal-2018-marian-cost}は,原言語の1単語ごとに目的言語100語($M=100$)を選択する他に,対訳コーパス全体を通した高頻度語100語を加えた.\citeA{senellart-etal-2018-opennmt}は,原言語1単語に対して目的言語の単語を選択するだけでなく,bigram,trigramに対しても選択するように拡張し,語彙サイズを抑えつつ,カバレッジを上げるようにした.動的語彙選択は,カバレッジが十分な場合,翻訳品質を変えずに高速化できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ミニバッチ構成法}ミニバッチは,ニューラルネットの処理単位で,機械翻訳では,長さの異なる複数の原文を1つにテンソルにパックしたものである.原文(単語列)は可変長であるので,最大長のものに合わせてテンソルを用意し,そこに単語IDを挿入している.余った部分には「詰め物」トークン(\texttt{<PAD>})のIDを入れることで,エンコーダの出力から無視できるようにしている.機械翻訳の利用環境にも影響されるが,文書翻訳のように,複数の文を順不同で翻訳できる場合,同じ長さの原文を集めてミニバッチを構成すると,\texttt{<PAD>}トークン数が最小になり,文書全体のテンソルサイズが小さくなる.また,長さが似たような原文は,翻訳文も長さが近くなることが多いので,デコーダの自己回帰数も減少させることができ,全体の処理速度が向上する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実装}\label{sec-implementation}本稿では,便宜上GPU用,CPU用という分類をしたが,GPUやCPUも製造会社やバージョンによってアーキテクチャが異なっており,使用可能なハードウェア毎に実装方針を変えるべき部分である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{半精度浮動小数点(GPU用)}半精度浮動小数点数は,IEEE754-2019で標準化された,浮動小数点数の表現形式である.符号1ビット,指数部5ビット,仮数部10ビットの計16ビットで表現するため,FP16とも呼ばれる.$\pm65504$(正規化数の場合)の浮動小数点数を表現できる.仮数部の精度は10進数でいうと約3桁である.単精度浮動小数点数(FP32)に比べるとメモリ使用量が半分になり,さらにハードウェア(NVIDIAP100GPUなど)がサポートしている場合,数倍の速度で計算が可能となるのが利点である.ただし,指数部が5ビットしかないため,勾配計算時や対数確率に指数関数を適用する際など,オーバーフローを起こすことがある\cite{DBLP:conf/iclr/MicikeviciusNAD18}.これを避けるためには,ユーザプログラム内でスケールを管理し,計算中にオーバーフローを発見した時点でテンソル全体の値を小さくするなどの対処が必要となる\cite{ott-etal-2018-scaling}.もう一つの16ビットの浮動小数点表現法は,bfloat16(brain浮動小数点)と呼ばれるものである(Google社が開発し,自社のTensorProcessingUnit(TPU)に実装)\cite{Wang:GoogleBfloat16}.これは,符号1ビット,指数部8ビット,仮数部7ビットを持つ.指数部が単精度浮動小数点と同じく8ビットあるので,ニューラルネットの勾配計算時にオーバーフローすることがほとんどなく,ユーザプログラム内では単精度浮動小数点と同様に扱うことができる.ただし,bfloat16は2021年9月現在はIEEEの規格ではないので,サポートされているハードウェアは多くない.なお,bfloat16は,仮数部の精度が十進数で2桁程度となるが,機械翻訳では最終的に,語彙集合から出力する単語を適切に選択できればよいので\cite{Och:SMTtutorial2005},この程度でも十分に実用になる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{8ビット整数量子化(CPU用)}Transformerは,LSTM(long-shorttermmemory)のような再帰ユニットを用いたNMTに比べ,行列の乗算,加算処理が多く含まれている.したがって,これを高速化できれば,全体の翻訳速度も向上する\cite{DBLP:journals/corr/abs-1906-00532}.8ビット整数量子化(INT8量子化)は,FP32で表現された数値を,0~255または$-127$~+127で表現する.\citeA{klein-etal-2020-efficient}の実装では,以下のように行列の列ごとに異なるスケールで量子化を行っている.\begin{align}s_{i}&=\mathop{\rmmax}_{j}\left|W_{i,j}\right|\\W_{i,j}^{Q}&=\left\lfloor\frac{127}{s_{i}}W_{i,j}\right\rfloor\end{align}ただし,$W$は量子化前の行列($W_{i,j}$はその$j$行$i$列の要素),$W^{Q}$は量子化後の行列($W_{i,j}^{Q}$はその要素),$s_{i}$はスケールである.INT8量子化行列は,行列の乗算だけに適用される.他のテンソル操作,特にレイヤー正規化については,平均と分散を算出するために,操作の内部に除算,二乗,平方根演算を含んでおり,精度が落ちたテンソルでの演算には向いていない.そのため,行列乗算以外の演算は,通常FP32で行われる.INT8量子化を行った行列の乗算操作のフローを図\ref{fig-int8-matmul}に示す.入力の2つのテンソルをINT8量子化して,量子化行列乗算操作を行い,量子化を解除する.通常,入力の一つはモデルパラメータであるので,事前に量子化しておくことができる.図\ref{fig-int8-matmul}の量子化行列乗算は,Intel社の一部のCPUでサポートされているAVX-512(advancedvectorextentions)命令セットや,VNNI(vectorizedneuralnetworkinstructions)命令セットで要素計算を並列に実行できる.量子化やその解除のための計算が増加するが,乗算操作が高速に実行できるため十分に速くなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{29-3ia8f6.pdf}\end{center}\caption{INT8量子化を使ったときの行列乗算のフロー\protect\cite{DBLP:journals/corr/abs-1906-00532}}\label{fig-int8-matmul}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%量子化モデルの訓練は通常,FP32浮動小数点(またはFP16)で行い,その後,必要部分だけINT8に量子化して保存する.ただし,モデルを量子化すると,パラメータが若干最適値からずれるため,量子化した状態で数エポックだけ追加訓練して,モデルを適応させた方がよい\cite{klein-etal-2020-efficient,bogoychev-etal-2020-edinburghs}.INT8量子化は,主にCPU用の実装技術であるが,近年はGPUでもサポートされつつある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{C/C++実装,メモリ確保・解放}高速かつ省メモリな実装を目指すには,C言語またはC++言語による実装を行うのが効果的である.Pythonのようなインタープリタ言語にくらべ,ガーベージコレクションを行わないので,実行時の遅延がない.ガーベージコレクションを行わないということは,メモリ管理を自分で行う必要があるということだが,これは省メモリという観点でのメリットになるほかに,高速化という観点でもメリットとなる.プログラム実行時に時間がかかる作業の一つは,メモリ確保と解放なので,これを最小限に抑えるように実装することで,処理が高速化される.なお,メモリ確保・解放は,インタープリタ言語でも行われることなので,Pythonでも,作業用テンソルを明示的に確保して,翻訳中はそれを再利用するように実装すれば,速度は向上する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{デコーダ計算結果のキャッシュ(1):レイヤー出力}一般的なTransformerデコーダでは,自己回帰型の生成方式を採用しているが,時刻$t$の生成単語$y_{t}$を決定するために,それまでのすべての生成履歴を利用している.これはレイヤーレベルでも同様で,デコーダのレイヤー$\ell$が出力する時刻$t$の分散表現$h_{t}^{\ell}$は,以下のように,1層前のレイヤー出力のすべての履歴から計算される.\[h_{t}^{\ell}=\mathrm{DecoderLayer}^{\ell}(\bm{h}_{1...t}^{\ell-1},\bm{h}_{enc}).\label{eq-autoreg-layer-out}\]ただし,$\mathrm{DecoderLayer^{\ell}(\cdot)}$はデコーダのレイヤー$\ell$の操作,$\bm{h}_{1...t}^{\ell-1}$はレイヤー$(\ell-1)$の時刻$1$から$t$までの全出力,$\bm{h}_{enc}$はエンコーダ出力である.このうち,時刻$t-1$までの分散表現$\bm{h}_{1...t-1}^{\ell-1}$は,時刻$t$以前に計算済なので,これを保存しておけば,テンソルの結合操作で入力が構成でき,自己回帰処理中に再計算する必要がない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{デコーダ計算結果のキャッシュ(2):マルチヘッドアテンション}Transformerデコーダでは,自己アテンション機構とエンコーダアテンション機構の2か所でマルチヘッドアテンションが使われている.マルチヘッドアテンションでは,複数のヘッド各々のアテンションを算出し,最後にそれらを連結する構成をとっている.(図\ref{fig-multihead-attention})%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{29-3ia8f7.pdf}\end{center}\caption{Transformerのマルチヘッドアテンション\protect\cite{DBLP:journals/corr/VaswaniSPUJGKP17}}\label{fig-multihead-attention}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%1つのアテンションは,入力であるQuery($Q$),Key($K$),Value($V$)の三つ組をそれぞれ線形変換してからアテンション計算を行う.\[{\rmhead}_{i}=\mathop{\rmAttention}(QW^{Q},KW^{K},VW^{V})\]ただし,${\rmAttention}(\cdot)$は図~\ref{fig-multihead-attention}のスケーリングされた内積アテンション計算関数,${\rmhead}_{i}$は1つのヘッドのアテンション,$W^{Q}$,$W^{K}$,$W^{V}$は変換行列である.したがって,$Q$,$K$,$V$が他のレイヤーや他の時刻と同じであれば,線形変換を省略することができる.自己アテンション機構では,\pagebreak\begin{align*}Q&=Q_{t}\\K&=Q_{1...t}\\V&=Q_{1...t}\end{align*}ただし,$t$は現在処理中の時刻,$Q_{t}$は時刻$t$のQuery,$Q_{1...t}$は時刻$t$までのQueryの履歴をすべて結合したものである.$t$以前のQueryは既知であるので,$Q_{1...t-1}W^{K}$と$Q_{1...t-1}W^{V}$は以前に計算したものを再利用することができる\cite{klein-etal-2020-efficient}.エンコーダアテンション機構では,$K$および$V$はエンコーダ出力であるので,すべての時刻,すべてのデコーダ層において同じである.したがって,$KW^{K}$,$VW^{V}$は一度計算したものを再利用すればよい.\cite{klein-etal-2020-efficient,hu-etal-2020-niutrans}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{翻訳コストの可視化}\label{sec-translation-cost}WorkshoponNeuralGenerationandTranslation\footnote{WorkshoponNeuralMachineTranslation(andGeneration)という名前で実施した年もある.}\cite{birch-etal-2018-findings,hayashi-etal-2019-findings,heafield-etal-2020-findings}では,EfficientMTという共通タスクを実施し,さまざまな組織の機械翻訳システムを,翻訳速度とメモリ・ディスク使用量という観点から比較を行っている.このワークショップでは,異なるシステムの翻訳コストを比較するために,Amazon社のクラウドサービスAWS(AmazonWebService)上の仮想マシンで翻訳システムを実行している.各参加者は,自分のシステムを仮想化ソフトウェアDockerのイメージとして提出し,主催者がAWSで翻訳時間,メモリ使用量を測定する.仮想マシンにはGPUあり・なしなど,いくつかの種類があり,比較条件によって使用する仮想マシンを変えている.たとえば,2020年の共通タスクのうち,GPUトラックでは,\texttt{g4dn.xlarge}という仮想マシンが使われた.これは,GPUとしてNVIDIAT4(16GBRAM)が1つ,CPUとしてXeonPlatium8259CLのうち2物理コアを使用する.マルチコアCPUトラックでは,\texttt{c5.metal}が使われた.これは,XeonPlatium8259CLの48物理コア(VectorNeuralNetworkInstructionsをサポート),192GBメインメモリの仮想マシンである.AWSは使用時間に対して料金が決まっているので,異なる環境(仮想マシン)で動作するシステム同士でも料金という基準でコスト比較が可能となる.ちなみに,2019年は,最も翻訳品質のよかったシステムはGPUベースだったのに対し,1ドルあたりの翻訳語数が最も多い(すなわちコストパフォーマンスがよい)システムはCPUベースのものだった\cite{hayashi-etal-2019-findings}.2020年はどちらもGPUベースのシステムだった\footnote{最も翻訳品質の良いシステムは,1ドルあたり2千万語翻訳し,翻訳語数が最も多いシステムは1ドルあたり1.4億語以上翻訳した.ただし,両者にはBLEUスコアで5ポイント以上の差がある.}\cite{heafield-etal-2020-findings}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,訳抜け・過剰訳への対策,用語訳の統一,長文対策,低リソース言語対対策,評価,翻訳速度・省メモリ対策の6つの観点で特許機械翻訳の課題解決に寄与することが期待される諸技術について解説した.多くの課題は現在のニューラル機械翻訳の研究・開発において注目を集めているものであるが,実際に特許を対象として検証が行われた研究は極めて少ないと言わざるを得ない.これは現在の機械翻訳の研究がWMTニュースタスクのような代表的ベンチマークデータによる実験を中心に議論されることが多いという面と,特定の言語対やタスクに着目した共通タスクがWMT,WAT,IWSLT等多く存在する一方で特許を対象とするタスクの存在感が小さく,またタスク間の知見の共有が十分でないという面が影響していると考えられる.本解説論文で紹介した様々な技術の大部分が特許に着目したものではないことからも分かる通り,特許機械翻訳で特に重視される課題に対処するための技術の種は数多く存在しており,今後はそれらを更に発展させ,特許機械翻訳における実用化が求められている状況と言えよう.逆に,特許文書は機械翻訳や自然言語処理の研究において決して特殊な外れ値ではなく,産業上重要な応用先であるとともに,自然言語処理の基本的な課題を多く内包する,重要な課題であると言える.本論文が今後の特許機械翻訳技術のさらなる発展と実用化に寄与することを期待したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本解説論文に関する技術動向調査は,アジア太平洋機械翻訳協会(AAMT)と日本特許情報機構(Japio)が運営するAAMT/Japio特許翻訳研究会の支援により実施されたものである.関係各機関のご協力に感謝する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{08refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{今村賢治}{%国立研究開発法人情報通信研究機構主任研究員,および株式会社ATR-Trek.奈良先端科学技術大学院大学博士(工学).2015年よりAAMT/\linebreakJapio特許翻訳研究会委員.}\bioauthor{越前谷博}{%北海学園大学大学院工学研究科教授.北海道大学博士(工学).2008年よりAAMT/Japio特許翻訳研究会委員.}\bioauthor{江原暉将}{%江原自然言語処理研究室代表.東京工業大学博士(工学).2003年よりAAMT/Japio特許翻訳研究会委員.}\bioauthor{後藤功雄}{%NHK放送技術研究所主任研究員.京都大学博士(情報学).2012年よりAAMT/Japio特許翻訳研究会委員.}\bioauthor{須藤克仁}{%奈良先端科学技術大学院大学准教授.京都大学博士(情報学).2012年よりAAMT/Japio特許翻訳研究会委員,2016年より同副委員長.}\bioauthor{園尾聡}{%東芝デジタルソリューションズ株式会社参事.九州工業大学博士(工学).2014年よりAAMT/Japio特許翻訳研究会オブザーバー.}\bioauthor{綱川隆司}{%静岡大学学術院情報学領域講師.東京大学博士(情報理工学).2004年よりAAMT/Japio特許翻訳研究会オブザーバー,2009年より同委員.2022年より同副委員長.}\bioauthor{中澤敏明}{%東京大学大学院情報理工学系研究科特任研究員.京都大学博士(情報学).2016年よりAAMT/Japio特許翻訳研究会委員.}\bioauthor{二宮崇}{%愛媛大学大学院理工学研究科教授.東京大学博士(理学).2008年よりAAMT/Japio特許翻訳研究会委員.}\bioauthor{王向莉}{%株式会社ディープランゲージFounder.新潟大学博士(工学).2009~2011年AAMT/Japio特許翻訳研究会委員.2011年よりAAMT/Japio特許翻訳研究会オブザーバー.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V10N01-05
\section{はじめに} 大量の電子化文書が氾濫する情報の洪水という状況に我々は直面している.こうした状況を背景として,情報の取捨選択を効率的に行うための様々な手法が研究されている.近年,それらの研究の一つとして文書要約技術が注目を集めている.特にある話題に関連する複数の文書をまとめて要約する複数文書要約といわれる技術が関心を集めており,検索技術などと組み合わせることにより効率的に情報を得ることが期待できる.DocumentUnderstandingConference(DUC)\footnote{http://duc.nist.gov}や,TextSummarizationChallenge(TSC)\footnote{http://lr-www.pi.titech.ac.jp/tsc}\cite{article32}といった評価型ワークショップにおいても複数文書要約タスクが設定されており,その注目度は高い.複数文書要約も含め自動要約では,文書中から重要な情報を持つ文を抽出する重要文抽出技術用いて,その出力をそのまま要約とする手法\cite{article25,article38,article39}や,その出力から不要な表現の削除や置換,あるいは,新たな表現の挿入を行い,より自然な要約にする手法がある\cite{article47,article40}.いずれの場合にも,重要文抽出は中心的な役割を担っている.そこで本稿では,複数文書を対象とした重要文抽出に着目する.複数文書からの重要文抽出も,単一文書からの重要文抽出と同様に,ある手がかりに基いて文の重要度を決定し,重要度の高い文から順に,要約率で指定された文数までを重要文として抽出する.この際,複数の手がかりを扱うことが効果的であるが,手がかりの数が多くなると,人手によって適切な重みを見つけることが難しいという問題がある.本稿では,汎化能力が高いとされる機械学習手法の一種であるSupportVectorMachineを用いて,複数の手がかりを効率的に扱い,特定の話題に関連する複数文書から重要文を抽出する手法を提案する.評価用のテストセットとして12話題に関する文書集合を用意し,文書集合の総文数に対して10\,\%,30\,\%,50\,\%の要約率で重要文抽出による要約の正解データを作成した.人間による重要文の選択の揺れを考慮するため,1話題に対し3名が独立に正解データを作成した.このデータセットを用いた評価実験の結果,提案手法は,Lead手法,TF$\cdot$IDF手法よりも性能が高いことがわかった.さらに,文を単位とした冗長性の削減は,情報源が一つである場合の複数文書からの重要文抽出には,必ずしも有効でないことを確認した.以下,2章では本稿における重要文抽出の対象となる複数文書の性質について説明し,3章ではSupportVectorMachineを用いた複数文書からの重要文抽出手法を説明する.4章では評価実験の結果を示し,考察を行う.5章ではMaximumMarginalRelevance(MMR)\cite{article48}を用いて抽出された文集合から冗長性を削減することの効果について議論する. \section{対象とする複数文書} 複数文書要約において,これまでに処理対象とされている文書集合は以下の2種に大別できる\cite{article8}.\begin{enumerate}\item[(1)]情報検索結果である文書集合\item[(2)]ある特定の話題(トピック)に関する文書集合\end{enumerate}(1)の分類を対象とした複数文書要約の研究としては,\cite{article41}などがある.(1)では,ユーザが入力した検索要求(すなわち,単語群)を含む全ての文書が該当する.このため,要約の対象となる文書の数が多い.また,検索結果には,様々な出来事を扱った文書が多く含まれるだけでなく,ユーザが必要としない文書も多く含まれる可能性も高い.こうした多様で大量の文書集合に対して,理想的な要約を作成することは困難であるという問題がある.一方,(2)の分類を対象とした複数文書要約の研究としては,\cite{article38,article39,article40}などがある.TSC,DUCで扱われている複数文書もこの範疇に入る.また,こうした文書集合を抽出するための研究はTopicDetectionandTracking(TDT)\cite{article37}などで盛んに行われている.(2)の分類に属する文書集合は,特定の話題(出来事)に関連する文書集合であるので,一つのまとまったストーリが形成されていると考えられる.こうした文書集合は,意味的に良くまとまっているという特徴を持っているので,要約対象とする文書集合としても適している.本稿では,理想的な要約を作成することが比較的,容易であると考えられる分類(2)に属する文書集合から重要文を抽出する手法を提案する.特に,McKeownの分類\cite{article51}や野畑らの分類\cite{article42}によるSingle-Eventに属する文書集合を処理の対象とする. \section{SupportVectorMachineに基づく複数文書からの重要文抽出手法} \subsection{SVMによる文のランキング}SVMは,Vapnikによって提案された2値分類のための教師あり学習アルゴリズムである\cite{article12}.近年,様々な自然言語処理のタスクに適用され,その有効性が報告されている\cite{article13,article14,article15,article16}.SVMは既に自然言語処理の分野でもよく知られているので,本稿では詳しい説明を省略する.解説記事\cite{article52}などを参照されたい.SVMでは,学習データを${\bfx}_i(1\lei\len)$としたときに,テストデータ${\bfx}$を判別する判別関数$f({\bfx})={\rmsgn}(g({\bfx}))$が以下の式で与えられる.\begin{equation}g({\bfx})=\sum_{i=1}^nw_iK({\bfx}_i,{\bfx})+b\end{equation}$w_i$,$b$は定数である.ここで,$w_i\ne0$となるベクトルはサポートベクトルと呼ばれ,学習データ中の正例,負例を代表する.結局,判別関数はサポートベクトルのみで記述される.$K({\bfx}_i,{\bfx})$はカーネル関数と呼ばれる.様々なカーネル関数が提案されているが,本稿では多項式カーネル(式2)を用いる.\begin{equation}K({\bfx},{\bfy})=({\bfx}\cdot{\bfy}+1)^d\end{equation}重要文抽出は,要約率で指定された重要文の数を$Num$とした時に,重要度の高い上位$Num$件の文を重要文とみなし,それ以外を非重要文と見なす2値分類問題と考えることができる.しかし,重要文抽出では,指定された要約率に応じた数だけ文を抽出する必要がある.判別関数$f({\bfx})$を用いて重要文であるかどうかの判断を行った場合には,重要文と判定された文の数が要約率で指定された文の数をみたすとは限らず,問題となる.そこで本稿では,入力となる複数文書集合に含まれる全ての文に対して$g({\bfx})$の値を用いてランキングを行い,指定された要約率をみたすように文を抽出する.\subsection{素性}複数文書からの重要文抽出は,話題に関する文書集合を連結して1文書とみなせば,従来の単一文書からの重要文抽出と同等である.しかし,文書集合中の任意の文が,それが属する文書において重要かどうかという観点だけでなく,文書集合全体において重要かどうかという観点も扱う必要がある.よって本稿では,1文書のみで決定することのできる素性(単一文書用素性)と文書集合が与えられたときに決定することのできる素性(複数文書用素性)の2種の素性を用いる.以下に詳細を述べる.また,素性ベクトル${\bfx}_j$の各要素は0か1の2値となるように${\bfx}_j$を定義した.2値とならない素性は,$[0,1]$の値に正規化\footnote{単一文書用の素性は文書内での最大値で割ることによって正規化する.複数文書用の素性は,文書集合内での最大値や後述するクラスタ内での最大値で割ることによって正規化する.}し,その後,正規化した値が$[0,1]$を10分割した区間$[0.0,0.1)$,$[0.1,0.2)$,$\cdots$,$[0.9,1.0]$のどこに属するかを表す10次元の2値ベクトルに変換した.たとえば,文$S_j$のある素性$F(S_j)が0.75$であれば,これがベクトル$0000000100$に変換され,素性ベクトル${\bfx}_j$の要素の内の10個となる.こうして,最終的に,各文の素性ベクトル${\bfx}_j$の次元は583となる.\subsubsection{単一文書用素性}従来より,単一文書からの重要文抽出において,多くの文の素性が過去の研究により報告されている.本稿ではこうした素性を参考にするだけでなく,文に出現する固有表現と係り受け構造を考慮したTF$\cdot$IDFを文の素性として導入した.\subsubsection*{文の位置\cite{article2}}特定の話題に関する文書集合を$E$とし,$E$に含まれる任意の文書を$D_i$,$D_i$に含まれる任意の文を$S_j$,任意のパラグラフを$P_k$とする.ここで,文$S_j$の位置を表す素性として,$D_i$における$S_j$の位置$\mbox{Posd}(S_j)$と$P_{k}$における$S_j$の位置$\mbox{Posp}(S_j)$を以下の式で定義する.\begin{eqnarray}\mbox{Posd}(S_j)&=&1-\mbox{BD}_i(S_j)/M(D_i)\nonumber\\\mbox{Posp}(S_{j})&=&1-\mbox{BP}_{k}(S_j)/M(P_{k})\nonumber\end{eqnarray}ここで,$M(D_i)$は$D_i$の文字数,$\mbox{BD}_i(S_j)$は,文書の先頭から$S_j$までの文字数である.$M(P_{k})$は$P_{k}$の文字数,$\mbox{BP}_{k}(S_j)$はそのパラグラフの先頭から$S_j$までの文字数を表す.\subsubsection*{文の長さ\cite{article27}}文$S_j$の長さを表わす素性として,$\mbox{Len}(S_j)$を以下の式で定義する.\[\mbox{Len}(S_j)=M(S_j)\]\noindentただし,$M(S_j)$は文$S_j$の文字数を表す.\subsubsection*{{\bf{\rmTF$\cdot$IDF}}\cite{article4}}文$S_j$に含まれる単語の重み(TF$\cdot$IDF値)に基づいた素性として,$\mbox{Score}(S_j)$を以下の式で定義する.なお,本稿では,形態素解析器「茶筌」\cite{chasen}を用いて解析した結果,名詞および未知語と判定されたものを処理対象とした.以下の記述において,単語とは名詞および未知語を指すものとする.\[\mbox{Score}(S_j)=\sum_{t\inT(S_j)}tf(t,S_j)\cdotw(t,D_i)\]ここで,$T(S_j)$は$S_j$に出現する単語の集合である.$tf(t,S_j)$は$S_j$における単語$t$の出現頻度であり,$w(t,D_i)$は文書$D_i$における単語$t$のTF$\cdot$IDF値である.$w(t,D_i)$はSMARTで用いられている以下の式で定義する.\[w(t,D_i)=0.5\left(1+\frac{tf(t,D_i)}{tf_{max}(D_i)}\right)\cdot\mbox{log}\left(\frac{N}{df(t)}\right)\]$tf(t,D_i)$は,単語$t$の文書$D_i$における出現頻度,$tf_{max}(D_i)$は文書$D_i$に含まれる単語の最大頻度,$df(t)$は,データベースにおいて単語$t$を含む文書の数である.$N$はデータベースとする文書集合に含まれる文書数である.本稿では,データベースとは毎日新聞99年の1年分(112401文書)をさす.\subsubsection*{キーワード密度\cite{article25}}まず,$D_i$に出現する単語の集合を$T(D_i)$とする.$T(D_i)$に含まれる全ての単語に対して$w(t',D_i)$を求め,それらの平均と標準偏差を$\mu$,$\sigma$とした場合に$\mu+0.5\sigma\lew(t',D_i)$をみたした$t'$の集合を$T_{sig}$とする.ここで,$T_{sig}$に含まれる単語の密度に基づいた$S_j$の素性を\cite{article29}で提案された以下の式を用いて定義する.\[\mbox{Den}(S_j)=\frac{\sum_{t\inT_{sig}}w(t,D_i)}{d(S_j)}\]$T_{sig}$に含まれる単語でかつ$S_j$に出現する単語集合を$T_{sig}(S_j)$とし,$k(\ge2)$番目に出現した$t''\inT_{sig}(S_j)$と$k-1$番目に出現した$t''\inT_{sig}(S_j)$の距離(何単語離れているか)を$dist_k$として,$d(S_j)$は,以下の式で定義される.\[d(S_j)=\frac{\sqrt{\sum_{k=2}^{|T_{sig}(S_j)|}(dist_k)^2}}{|T_{sig}(S_j)|-1}\]$d(S_j)$は$S_j$に出現する単語$t\inT_{sig}(S_j)$の2乗平均距離を表しており,これが小さいことは,それらが密集して出現していることを意味する.\subsubsection*{タイトルとの類似度\cite{article2}}文$S_j$と$S_j$を含む文書$D_i$のタイトル$H_l$との類似度$\mbox{Sim}(S_j,H_l)$を以下のcosinemeasureを用いて定義し,これを$S_j$の素性とする.\[\mbox{Sim}(S_j,H_l)=\frac{\vecv(S_j)\cdot\vecv(H_l)}{\left\Vert\vecv(S_j)\right\Vert\left\Vert\vecv(H_l)\right\Vert}\]ここで,$\vecv(S_j)$,$\vecv(H_l)$は,単語を素性としてその有無を素性の値とする2値ベクトルである.\subsubsection*{係り受け関係を考慮したTF$\cdot$IDF}文の構文的な構造に着目し,述語を修飾する文節集合に含まれる単語の重みを考慮したTF$\cdot$IDFを定義する.述語を修飾する文節の中で最も多くの情報を持っていると考えられる文節集合の重要度$\mbox{Score}_{d}$,述語を直接修飾する文節集合の重要度$\mbox{Score}_{w}$として,以下の式で定義する.\begin{eqnarray}\mbox{Score}_{d}(S_j)&=&\sum_{t\inT_d(S_j)}w(t,D_i)\nonumber\\\mbox{Score}_{w}(S_j)&=&\sum_{t\inT_w(S_j)}w(t,D_i)\nonumber\end{eqnarray}$\mbox{Score}_{d}$は,係り受け構造木の最長パスを形成する文節集合に含まれる単語の集合$T_{d}(S_j)$に着目したTF$\cdot$IDF値の総和,$\mbox{Score}_{w}$は,最終文節に直接係る文節集合に含まれる単語の集合$T_{w}(S_j)$に着目したTF$\cdot$IDF値の総和である.なお,係り受け解析にはCabocha\footnote{http://cl.aist-nara.ac.jp/\~{}taku-ku/software/cabocha}を用いた.\subsubsection*{固有表現}Nobataら\cite{article5}は,文書のタイトルに出現する固有表現に着目した重要文抽出手法を提案している.しかし,文書中に出現する全ての固有表現が文の重要度に影響を与えると予想されるので,本稿では$S_j$に特定の種類の固有表現が存在する場合に1,存在しない場合に0をとる2値の素性を定義する.\cite{article1}でも固有表現を素性として用いているが,本稿での分類のように詳細ではない.ここでの固有表現とはInformationRetrievalandExtractionExercise(IREX)\cite{article35}の固有表現基準による固有表現および数値表現を指し,以下の8種に分類される.固有表現の抽出には磯崎のアルゴリズム\cite{article7}を用いた.\begin{quote}PERSON,LOCATION,ORGANIZATION,ARTIFACT,DATE,MONEY,PERCENT,TIME\end{quote}\subsubsection*{接続詞\cite{article3}}$S_j$に特定の接続詞が出現した場合に1,出現しなかった場合に0をとる2値の素性を定義する.接続詞は50種である.\subsubsection*{助詞\cite{article3}}$S_j$に特定の助詞が出現した場合に1,出現しなかった場合に0をとる2値の素性を定義した.助詞は,``格助詞$-$一般''(11種)とトピックマーカとされる係助詞(「は」,「も」)の計13種である.\subsubsection*{文末表現(小分類および大分類)\cite{article3,article6}}$S_j$に特定の小分類に属する文末表現が出現した場合に1,出現しなかった場合に0をとる2値の素性を定義し,大分類についても同じく2値の素性を定義する.文末表現の分類については,福本らの分類\cite{article30}に加え「特殊」,「署名」,「その他」を加えた21種を用いた.「特殊」は会話文などのかぎ括弧で終わる文,「署名」は文書の著者を示す文を指す.大分類については,福本らの分類\cite{article30},田村らの分類\cite{article31}に「その他」を加えた4種を用いた.分類ルールについては,文献\cite{article30,article31}を参照されたい.分類の詳細を以下に示す.大分類:~意見\begin{quote}小分類:~意見,問掛,要望\end{quote}大分類:~断定\begin{quote}小分類:~断定,推量,理由,判断,義務\end{quote}大分類:~叙述\begin{quote}小分類:~叙述,可能,伝聞,様態,存在,継続,状態,使役,現在,過去\end{quote}大分類:~その他\begin{quote}小分類:~特殊,署名,その他\end{quote}\subsubsection*{修辞関係\cite{article34}}田村らの手法\cite{article31}を用いて$S_j$の修辞関係(計4種)を決定し,$S_j$が$S_{j-1}$に対して特定の修辞関係である場合に1,そうでない場合に0をとる2値の素性を定義する.修辞関係は,「順接」,「転換」,「結論」,「説明」の4種である.修辞関係の決定ルールについては文献\cite{article30,article31}を参照されたい.\subsubsection*{用言}$S_j$に出現する用言を日本語語彙大系\cite{article18}を用いて分類し,$S_j$に特定の分類の用言が出現したときに1,出現しなかった場合に0をとる素性を定義する.日本語語彙大系における用言の基本分類は36であるが,多義語は複数の基本分類に属する.よって,多義を考慮して「基本分類の組」も一つの分類とみなし,合計366分類とした.\subsubsection{複数文書用の素性}任意の文$S_j$に対し,複数の文書が与えられた場合に定義できる素性として,以下の3種の素性を定義した.\subsubsection*{文書集合全体における位置}文$S_j$の位置を表す素性として,文書集合$E$における位置$\mbox{Post}(S_j)$を以下の式で定義する.\begin{eqnarray}\mbox{Post}(S_j)&=&1-\mbox{BE}(S_j)/M(E)\nonumber\end{eqnarray}ただし,$M(E)$は文書集合に含まれる文書の文字数の合計,$\mbox{BE}(S_j)$は,$E$中の文書を時系列\footnote{文書番号と時系列は一致していると仮定した.}でソートした後,文書ごとの区切りを無視して1文書とみなした場合の先頭から$S_j$までの文字数である.\subsubsection*{文書集合に特徴的な単語によるTF$\cdot$IDF}本稿で対象とする複数文書は何らかの観点に基づいて集められた文書集合である.よって,これらの文書集合に特徴的な単語は重要文抽出のための手がかりとして有効である.文書集合に特徴的な単語としては,文書集合を得るための検索要求に含まれる単語であると考えることも可能であるが,検索要求に含まれる単語だけでは情報が少ないという問題がある.さらに,本稿では検索は用いていない.そこで,本稿では与えられた文書集合の情報を用いて特徴的な語を認定する手法を採る.従来より,母集団となる文書集合からある特定の文書集合を抽出した場合,取り出した文書集合に特徴的な単語を認定する手法として,$\chi^2$検定を用いた手法\cite{article43,article45}やAICを用いた手法\cite{article44}が提案されている.本稿では,これらの手法を拡張してMDL原理を用いて入力とする文書集合に特徴的な単語を認定する.\begin{table}[t]\begin{center}\caption{$2\times2$分割表}\label{tab01}\begin{tabular}{l|l|l}\hline\hline&$c$&$\negc$\\\hline$t$&$n_{11}$&$n_{12}$\\$\negt$&$n_{21}$&$n_{22}$\\\hline\end{tabular}\end{center}\end{table}まず,ある文書集合$c$に出現する全ての単語$t$に対して,表\ref{tab01}に示す$2\times2$分割表を得る.ここで,$n_{11}$は,文書集合$c$において$t$が出現する文書数,$n_{12}$は,$c$以外の文書集合において$t$が出現する文書数である.$n_{21}$は,$c$において$t$が出現しない文書数,$n_{22}$は,$c$以外の文書集合において$t$が出現しない文書数である.この時,$t$と$c$の間に依存関係があるとするモデル(DM)と独立であるとするモデル(IM)を考え,$t$がどちらに良く当てはまるかを調べることで$t$が$c$に特徴的な語かどうかの判断をする.DM,IMに対するMDL値はそれぞれ以下の式で求まる.\begin{eqnarray}\mbox{MDL}_{DM}(t,c)&=&-\mbox{MLL}_{DM}(t,c)-\frac{k_{DM}}{2}\mbox{log}N\\\mbox{MDL}_{IM}(t,c)&=&-\mbox{MLL}_{IM}(t,c)-\frac{k_{IM}}{2}\mbox{log}N\end{eqnarray}\noindentただし,$k_{DM}$,$k_{IM}$はそれぞれのモデルにおける自由パラメータの数であり,$k_{DM}=3$,$k_{IM}=2$である\cite{article50}.$N$は先述したデータベース中の全文書数であり,$N=n_{11}+n_{12}+n_{21}+n_{22}$である.さらに,$\mbox{MLL}_{DM}$,$\mbox{MLL}_{IM}$はそれぞれのモデルにおける最大対数尤度であり,以下の式で求まる\cite{article50}.\begin{eqnarray}\mbox{MLL}_{DM}(t,c)&=&(n_{11}+n_{12})\log(n_{11}+n_{12})+(n_{11}+n_{21})\log(n_{11}+n_{21})\nonumber\\&+&(n_{21}+n_{22})\log(n_{21}+n_{22})+(n_{12}+n_{22})\log(n_{12}+n_{22})\nonumber\\&-&2N\logN\nonumber\\\mbox{MLL}_{IM}(t,c)&=&n_{11}\logn_{11}+n_{12}\logn_{12}+n_{21}\logn_{21}+n_{22}\logn_{22}-N\logN\nonumber\end{eqnarray}MDLの値は小さいほど優れたモデルである.ここで,AICの場合\cite{article49}と同様に2つのモデルの差が1以上ならば有意な差であると考えた.よって,以下の式をみたす$t$を$c$に特徴的な語として認定する.\[\mbox{MDL}_{IM}(t,c)-\mbox{MDL}_{DM}(t,c)\ge1\]ここで,$c$として文書集合$E$,$E$において,同日に出現した文書の集合$C_{i}$の2つを考える.$C_i$を考える理由は時間が進むにつれて新たに出現する単語を認定するためである.$c=E$の時に上記条件をみたす単語集合を$T'(E)$,$c=C_i$の時に$T'(C_i)$とする.それぞれの場合の文$S_j$の素性を以下の式で定義する.\[\mbox{Score}_{E}(S_j)=\sum_{t\inT(S_j)\capT'(E)}tf(t,S_j)\cdotw(t,D_i)\]\[\mbox{Score}_{C}(S_j)=\sum_{t\inT(S_j)\capT'(C_i)}tf(t,S_j)\cdotw(t,D_i)\]\noindentただし,$S_j\inC_i$.上式はそれぞれ,文書集合$E$に特徴的な単語,$E$の部分文書集合$C_i$に特徴的な単語にのみ着目した単語重要度の総和である.\subsubsection*{文書のジャンル}重要文抽出の対象となる文書集合には様々なジャンルの文書が含まれる場合がある.この時,あるジャンルの文書には重要文が少ないなど文書のジャンルが文の重要度に影響を与えることが考えられる.そこで,本稿では$S_j$が特定のジャンルの文書に属する場合に1,属さない場合に0とする2値の素性を定義する.ここでのジャンルとは新聞記事の紙面の情報をもとにした下記の分類である.\begin{quote}報道,社説,解説,読書,総合,特集,科学\end{quote} \section{評価実験} \subsection{コーパス}まず,評価実験のために毎日新聞99年から12個の話題に関連する文書集合を記者経験のある人物1名が作成した.話題に関連する文書は,基本的に各話題の開始記事か続報記事であり,コラムなどは含まれない.表\ref{tab02}にデータの詳細を示す.次に,それぞれの文書集合の総文数に対して10\,\%,30\,\%,50\,\%の要約率を設定し,重要文抽出による要約の評価用データを人手によって作成した.重要文抽出データの作成には,新聞記事の編集などに深くかかわったことのある6名があたり,1つの話題に対して異なる3名によるデータを作成した.それぞれをセットA,セットB,セットCとよぶ.\begin{table}[t]\begin{center}\caption{評価用データセット}\label{tab02}\begin{tabular}{l|c|c|c|c|ccc}\hline\hline\raisebox{-1.8ex}[0pt][0pt]{話題}&{開始}&{終了}&\raisebox{-1.8ex}[0pt][0pt]{総文書数}&\raisebox{-1.8ex}[0pt][0pt]{総文数}&\multicolumn{3}{|c}{重要文数}\\\cline{6-8}&(月/日)&(月/日)&&&10\,\%&30\,\%&50\,\%\\\hline奈良で最古の貨幣出土&01/20&12/26&12&165&17&50&83\\ブラジル通貨切り下げ&01/14&11/04&23&445&45&134&228\\フセイン国王,骨髄移植へ&02/03&02/08&17&320&32&96&160\\プリマコフ解任&05/13&05/20&16&213&22&64&107\\北朝鮮警備艇が韓国艇と接触&06/10&08/27&18&179&18&54&90\\サミット開幕&06/19&06/22&8&160&16&48&80\\ステパーシン解任&08/10&08/13&11&282&29&85&141\\トンネルでコンクリート落下&10/09&10/31&14&281&29&85&142\\日本海に2不審船&03/24&12/19&35&652&62&185&307\\インドミサイル実験成功&04/12&08/16&16&232&24&70&116\\パキスタン軍が官邸占領&10/13&12/01&35&605&66&197&328\\H2ロケット打ち上げ失敗&11/16&12/28&26&479&49&145&241\\\hline\multicolumn{3}{c|}{合計}&231&4013&409&1213&2023\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{被験者間の一致率}\label{tab03}\begin{tabular}{l|ll|ll|ll}\hline\hline\raisebox{-1.8ex}[0pt][0pt]{組み合わせ$\setminus$要約率}&\multicolumn{2}{|c|}{10\,\%}&\multicolumn{2}{|c|}{30\,\%}&\multicolumn{2}{|c}{50\,\%}\\\cline{2-7}&一致率&$K値$&一致率&$K値$&一致率&$K値$\\\hlineA$\cap$B&0.465&0.40&0.521&0.32&0.661&0.32\\B$\cap$C&0.517&0.46&0.560&0.37&0.686&0.37\\C$\cap$A&0.451&0.39&0.474&0.25&0.603&0.20\\A$\cap$B$\cap$C&0.328&0.42&0.341&0.31&0.461&0.30\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{$K$値の解釈}\label{tab030}\begin{tabular}{rll}\hline\hline\multicolumn{2}{c}{$K$値}&信頼性\\\hline&$<$0&POOR\\0.0&$-$0.20&SLIGHT\\0.21&$-$0.40&FAIR\\0.41&$-$0.60&MODERATE\\0.61&$-$0.80&SUBSTANTIAL\\0.81&$-$1.0&NEARPERFECT\\\hline\end{tabular}\end{center}\end{table}まず,被験者が抽出した重要文間の一致率,つまり,表\ref{tab02}の重要文数に対する被験者間で共通な重要文の割合を調べた.次に,被験者間の重要文の一致をKappa統計値($K$値)で調べた.詳細を表\ref{tab03}に示す.$K$値の解釈については,表\ref{tab030}となる\cite{article54}.表\ref{tab03}より,被験者間で一致する重要文の割合は,要約率が高くなるにつれ大きくなる.これは,要約率が高くなるにつれ,被験者が抽出する文の数も多くなるので当然と言える.2つのセットの組み合わせでは,BとCの一致の割合が高い.これに比べ,AとCでは一致の割合は低い.しかし,$K$値でみた場合には,低い要約率の方が被験者間の一致に対する信頼性は高いという結果となった.表\ref{tab030}より,信頼性が高いとは言えないが,10\,\%の要約率では適度(MODERATE)な一致であると言える.30\,\%,50\,\%の要約率では信頼性は低くなる傾向にある.過去の重要文抽出の研究例である野本らのデータ\cite{article6}では,報道記事の10\,\%要約率における$K値$は0.34であった.よって,単一文書,複数文書という違いはあるが,低い要約率におけるデータの信頼性は本稿のデータがやや高い.\subsection{実験結果と考察}提案手法の有効性を検証するために,先に説明したデータセットを用いて評価実験を行った.Lead手法,TF$\cdot$IDF手法を比較手法として提案手法の性能評価を行った.Lead手法は文書の先頭から順に与えられた要約率をみたすまで文を抽出する手法である.ここで,複数文書要約におけるLead手法をどう定義するかが問題となる.本稿では,それぞれの話題に含まれる全ての文に対して3章で説明したPosdを計算し,その値の大きい文から順に与えられた要約率をみたすまでを重要文として採用した.TF$\cdot$IDF手法としては,話題に関する文書集合に特徴的な単語のみに着目した手法である$\mbox{Score}_E$を用いた.Lead手法と同様に値の大きい文から順に要約率をみたすまでを重要文として抽出した.この手法を以下TF$\cdot$IDFと略記する.提案手法では,2次の多項式カーネルを用い,コストパラメータは$C=0.001$に設定した\footnote{コストパラメータ$C$はTSCの単一文書の重要文抽出データを用いて最適値を決定した.}.$g({\bfx})$の値が大きい文から順に要約率をみたすまでを重要文として抽出した.以下,この手法をSVMと略記する.プログラムにはTinySVM\footnote{http://cl.aist-nara.ac.jp/\~{}taku-ku/software/TinySVM}を利用した.なお,評価指標はTSCの重要文抽出タスクに従った.つまり,文書集合に対して要約率によって抽出すべき文の数を設定し,各手法がその数だけ抽出した重要文に含まれる正解重要文の数の割合(Precision)で評価を行う.いま,システムが抽出した重要文の数を$a$,システムが抽出した重要文のうち正解の数を$b$とすると,$\mbox{Precision}=b/a\times100$となる.\begin{table*}[tb]\small\begin{center}\caption{各手法の性能評価}\label{tab04}\begin{tabular}{l|l|ccc}\hline\hline\raisebox{-1.8ex}[0pt][0pt]{要約率}&\raisebox{-1.8ex}[0pt][0pt]{手法}&\multicolumn{3}{|c}{Precision}\\\cline{3-5}&&セットA&セットB&セットC\\\hline&Lead&39.2&38.4&45.7\\10\,\%&TF$\cdot$IDF&39.7&36.9&37.6\\&SVM&{\bf51.1}&{\bf46.6}&{\bf50.7}\\\hline&Lead&43.3&42.3&44.1\\30\,\%&TF$\cdot$IDF&47.3&43.6&46.8\\&SVM&{\bf52.0}&{\bf50.1}&{\bf49.3}\\\hline&Lead&58.6&59.9&57.2\\50\,\%&TF$\cdot$IDF&63.2&60.6&64.6\\&SVM&{\bf67.5}&{\bf66.3}&{\bf67.0}\\\hline\end{tabular}\end{center}\end{table*}\subsubsection{各手法の性能比較}表\ref{tab04}~にそれぞれの手法の各要約率における重要文の抽出精度を示す.なお,SVMはA〜Cの各セットに対して,学習用の11話題とテスト用の1話題に分けて評価を行い,これを12回繰り返した結果の平均値である.表\ref{tab04}~より,どのセットと要約率の組み合わせにおいてもSVMの抽出精度が高い.10\,\%の要約率では,SVMに続いてLead手法,TF$\cdot$IDFの順となり,30\,\%,50\,\%の要約率では,TF$\cdot$IDF,Lead手法の順となる.特に,SVMはデータの信頼性が高い10\,\%の要約率において,他の2手法との抽出精度の差が大きい.利用したデータや素性が異なるため,正確な比較とは言えないが,Lead手法とSVMの差は単一文書(TSCの報道記事)の場合\cite{article53}と比較して大きくなっている.\begin{table}[t]\begin{center}\caption{A$\cap$Bに対して各手法の重要文が占める割合}\label{tab05}\begin{tabular}{c|c|c|c}\hline\hline手法$\setminus$要約率&10\,\%&30\,\%&50\,\%\\\hlineLead&63.9&53.6&63.7\\TF$\cdot$IDF&57.6&57.4&69.0\\\hlineSVM(A)&73.8&62.9&70.7\\SVM(B)&73.1&61.1&72.5\\SVM(C)&73.2&58.9&70.1\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{B$\cap$Cに対して各手法の重要文が占める割合}\label{tab06}\begin{tabular}{c|c|c|c}\hline\hline手法$\setminus$要約率&10\,\%&30\,\%&50\,\%\\\hlineLead&61.5&53.9&63.2\\TF$\cdot$IDF&55.9&54.4&69.2\\\hlineSVM(A)&69.5&58.0&66.7\\SVM(B)&69.4&60.6&73.1\\SVM(C)&72.0&59.0&73.5\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{C$\cap$Aに対して各手法の重要文が占める割合}\label{tab07}\begin{tabular}{c|c|c|c}\hline\hline手法$\setminus$要約率&10\,\%&30\,\%&50\,\%\\\hlineLead&75.3&58.1&63.2\\TF$\cdot$IDF&62.0&64.0&74.1\\\hlineSVM(A)&82.0&65.7&73.4\\SVM(B)&80.7&63.8&75.8\\SVM(C)&83.0&64.7&75.0\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{A$\cap$B$\cap$Cに対して各手法の重要文が占める割合}\label{tab08}\begin{tabular}{c|c|c|c}\hline\hline手法$\setminus$要約率&10\,\%&30\,\%&50\,\%\\\hlineLead&78.2&65.0&67.2\\TF$\cdot$IDF&66.9&69.2&77.3\\\hlineSVM(A)&85.1&72.7&76.0\\SVM(B)&86.7&70.6&78.3\\SVM(C)&85.5&70.3&79.8\\\hline\end{tabular}\end{center}\end{table}また,被験者間で一致した重要文に対して各手法が抽出した重要文の占める割合を調べた.表\ref{tab05}〜表\ref{tab08}にその結果を示す.なお,SVM(A),SVM(B),SVM(C)はそれぞれA,B,Cによる正解を学習に用いた結果を表す.各表より,どの正解セットの組み合わせに対しても,被験者間で共通な重要文に対する各手法の抽出した重要文の占める割合はSVMが高い.特に,10\,\%,30\,\%の要約率で他の2手法との差も大きい.また,セットA,Cを学習に用いた場合が,セットBを用いた場合よりもやや高い割合であることがわかる.今回のデータセットの中で$K$値の高い組み合わせ,B$\cap$Cの要約率10\,\%,A$\cap$B$\cap$Cの要約率10\,\%においてもSVMは高い割合で被験者間で共通な重要文を抽出しており,他の手法との差も大きい.以上より,提案手法はLead手法,TF$\cdot$IDFと比較して成績が良いことがわかった.さらに,被験者間で一致する重要文についても,提案手法は他の手法よりも高い割合で抽出できていることがわかった.\subsubsection{有効な素性に関する考察}\begin{table*}[tb]\scriptsize\begin{center}\caption{高い重みの素性(正)}\label{F_pair_pos}\begin{tabular}{l|l|l}\multicolumn{3}{c}{セットA}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$0.9{\le}\mbox{Sim}{\le}1.0$&$\mbox{文末(大):叙述}\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Len}{\le}1.0$&$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{助詞:「を」}$&$\mbox{助詞:「は」}\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$\mbox{文末(小):過去}\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}{\le}1.0$&$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{助詞:「は」}$&$\mbox{助詞:「は」}\land\mbox{文末(大):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:PERSON}$&$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{{\bfジャンル:報道}}$&$\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(小):過去}$&$0.8{<}\mbox{Posd}{\le}0.9\land\mbox{{\bfジャンル:報道}}$&$\mbox{助詞:「は」}\land\mbox{文末(小):その他}$\\$0.9{\le}\mbox{Len}{\le}1.0\land0.9{\le}\mbox{Den}{\le}1.0$&$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{文末(大):叙述}$&$0.2{<}\mbox{Sim}{\le}0.3\land0.1{<}\mbox{{\bfPost}}{\le}0.2$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}_d{\le}1.0$&$0.9{\le}\mbox{{\bfPost}}{\le}1.0$&$0.1{<}\mbox{{\bfPost}}{\le}0.2$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「を」}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.4{<}\mbox{Sim}{\le}0.5\land0.6{<}\mbox{{\bfPost}}{\le}0.7$\\$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{NE:PERSON}$&$0.6{<}\mbox{{\bfPost}}{\le}0.7\land\mbox{文末(小):過去}$&$0.9{\le}\mbox{{\bfPost}}{\le}1.0$\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{セットB}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Posp}{\le}1.0$&$\mbox{助詞:「は」}\land\mbox{文末(大):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Len}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:PERSON}$&$\mbox{助詞:「は」}\land\mbox{文末(少):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Posp}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「を」}$&$\mbox{助詞:「が」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Sim}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0$&$\mbox{助詞:「は」}\land0.0{\le}\mbox{{\bfPost}}{\le}0.1$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}_d{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.9{\le}\mbox{Posp}{\le}1.0\land\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Len}{\le}1.0\land0.9{\le}\mbox{Sim}{\le}1.0$&$\mbox{NE:LOC}\land\mbox{助詞:「を」}$&$0.3{<}\mbox{Score}{\le}0.4\land0.0{\le}\mbox{Den}{\le}0.1$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:PERSON}$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}{\le}1.0$&$0.1{<}\mbox{Den}{\le}0.2\land\mbox{助詞:「が」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「を」}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「は」}$&$\mbox{NE:PERSON}\land\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Score}{\le}1.0\land0.9{\le}\mbox{Sim}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{{\bfジャンル:報道}}$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{セットC}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.9{\le}\mbox{Posp}{\le}1.0\land\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(小):過去}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(小):過去}$&$\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Posp}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0$&$\mbox{助詞:「に」}$\\%3$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$0.4{<}\mbox{Score}{\le}0.5\land0.0{\le}\mbox{Den}{\le}0.1$\\%4$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Sim}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{{\bfジャンル:報道}}$&$\mbox{助詞:「は」}\land\mbox{助詞:「に」}$\\%5$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「は」}$&$\mbox{NE:PERSON}\land\mbox{{\bfジャンル:社説}}$\\%6$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Len}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「を」}$&$\mbox{文末(大):叙述}$\\%7L$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:PERSON}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(大):叙述}$&$0.9{\le}\mbox{Posp}{\le}1.0\land0.2{<}\mbox{{\bfScore}}_{\bfC}{\le}0.3$\\%8$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{NE:DATE}$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Posp}{\le}1.0$&$\mbox{文末(小):過去}$\\%9$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(大):叙述}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「が」}$&$0.9{\le}\mbox{Score}{\le}1.0$\\%10\hline\end{tabular}\end{center}\end{table*}\begin{table*}[tb]\scriptsize\begin{center}\caption{高い重みの素性(負)}\label{F_pair_neg}\tabcolsep=3pt\begin{tabular}{l|l|l}\multicolumn{3}{c}{セットA}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2$&$0.2{<}\mbox{Sim}{\le}0.3\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Score}{\le}1.0\land\mbox{助詞:「は」}$&$0.5{<}\mbox{Posd}{\le}0.6\land\mbox{助詞:「に」}$&$\mbox{{\bfジャンル:社説}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{修辞:順接}$&$\mbox{{\bfジャンル:特集}}$&$0.7{<}\mbox{{\bfPost}}{\le}0.8$\\$0.9{\le}\mbox{Score}_d{\le}1.0\land\mbox{NE:ORG}$&$0.2{<}\mbox{{\bfScore}}_{\bfE}{\le}0.3\land\mbox{助詞:「に」}$&$\mbox{文末(小):叙述}\land\mbox{{\bfジャンル:特集}}$\\$0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2\land\mbox{NE:LOC}$&$0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2\land\mbox{助詞:「で」}$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.0{\le}\mbox{Den}{\le}0.1$&$0.2{<}\mbox{{\bfPost}}{\le}0.3$&$\mbox{文末(小):過去}\land\mbox{{\bfジャンル:特集}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$&$0.0{\le}\mbox{Score}{\le}0.1$&$\mbox{文末(小):その他}\land\mbox{{\bfジャンル:報道}}$\\$0.5{<}\mbox{Score}{\le}0.6\land0.9{\le}\mbox{Sim}{\le}1.0$&$\mbox{助詞:「に」}\land\mbox{修辞:順接}$&$0.2{<}\mbox{Sim}{\le}0.3$\\$0.0{\le}\mbox{Den}{\le}0.1\land0.9{\le}\mbox{Sim}{\le}1.0$&$0.3{<}\mbox{Sim}{\le}0.4\land\mbox{{\bfジャンル:報道}}$&$0.0{\le}\mbox{Posd}{\le}0.1$\\$\mbox{{\bfジャンル:社説}}$&$0.9{\le}\mbox{Posp}{\le}1.0\land\mbox{修辞:順接}$&$\mbox{助詞:「は」}\land\mbox{{\bfジャンル:特集}}$\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{セットB}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land0.0{\le}\mbox{Den}{\le}0.1$&$0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$&$\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.4{<}\mbox{Len}{\le}0.5$&$0.3{<}\mbox{{\bfScore}}_{\bfE}{\le}0.4\land\mbox{助詞:「が」}$&$0.0{\le}\mbox{Posd}{\le}0.1\land\mbox{文末(大):その他}$\\$0.9{\le}\mbox{Den}{\le}1.0\land0.8{\le}\mbox{Sim}{\le}0.9$&$0.9{\le}\mbox{Posp}{\le}1.0\land0.0{\le}\mbox{{\bfPost}}{\le}0.1$&$0.0{\le}\mbox{Posd}{\le}0.1\land\mbox{文末(小):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1$&$0.5{<}\mbox{Sim}{\le}0.6\land0.9{\le}\mbox{{\bfPost}}{\le}1.0$&$0.0{\le}\mbox{Posd}{\le}0.1\land0.9{\le}\mbox{Posp}{\le}1.0$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{修辞:順接}$&$0.3{<}\mbox{Posd}{\le}0.4\land\mbox{NE:PERSON}$&$0.0{\le}\mbox{Posd}{\le}0.1$\\$0.9{\le}\mbox{Den}{\le}1.0\land0.4{<}\mbox{{\bfPost}}{\le}0.5$&$0.0{\le}\mbox{Sim}{\le}0.1$&$0.0{\le}\mbox{Posp}{\le}0.1\land\mbox{文末(大):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.6{<}\mbox{{\bfPost}}{\le}0.7$&$0.7{<}\mbox{Posd}{\le}0.8\land\mbox{NE:LOC}$&$0.0{\le}\mbox{Posp}{\le}0.1\land\mbox{文末(小):その他}$\\$\mbox{助詞:「で」}\land\mbox{助詞:「も」}$&$\mbox{NE:ORG}\land\mbox{助詞:「は」}$&$0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$\\$0.9{\le}\mbox{Sim}{\le}1.0\land0.3{<}\mbox{{\bfScore}}_{\bfC}{\le}0.4$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.0{\le}\mbox{Den}{\le}0.1$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Score}{\le}1.0\land0.8{<}\mbox{Sim}{\le}0.9$&$\mbox{NE:ORG}\land\mbox{NE:LOC}$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1$\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{セットC}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2$&$0.5{<}\mbox{Posd}{\le}0.6\land\mbox{NE:LOC}$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{修辞:順接}$&$\mbox{{\bfジャンル:特集}}$&$0.1{<}\mbox{Score}{\le}0.2$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$&$0.6{<}\mbox{Sim}{\le}0.7\land\mbox{NE:LOC}$&$0.0{\le}\mbox{Posd}{\le}0.1$\\$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{修辞:順接}$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{Score}{\le}0.2$&$0.3{<}\mbox{Len}{\le}0.4$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(大):その他}$&$\mbox{文末(大):叙述}\land\mbox{修辞:順接}$&$0.0{\le}\mbox{Posd}{\le}0.1\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(小):その他}$&$\mbox{NE:PERSON}\land\mbox{助詞:「を」}$&$\mbox{{\bfジャンル:特集}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.3{<}\mbox{Len}{\le}0.4$&$\mbox{文末(小):過去}\land\mbox{修辞:順接}$&$0.0{\le}\mbox{{\bfScore}}_{\bfC}{\le}0.1$\\$\mbox{NE:LOC}\land\mbox{修辞:順接}$&$\mbox{NE:PERSON}\land\mbox{{\bfジャンル:報道}}$&$\mbox{NE:PERSON}\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.3{<}\mbox{Score}{\le}0.4$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$&$0.3{<}\mbox{Len}{\le}0.4\land\mbox{助詞:「を」}$\\$0.9{\le}\mbox{Posp}{\le}1.0\land\mbox{修辞:順接}$&$0.3{<}\mbox{{\bfPost}}{\le}0.4\land\mbox{助詞:「を」}$&$0.2{<}\mbox{Score}{\le}0.3$\\\hline\end{tabular}\end{center}\end{table*}本稿で用いた各素性の有効性についての考察を行う.2次の多項式カーネルを用いた場合,テストデータを$\vecx=(x[1],\cdots,x[J]])$とすると,$g(\vecx)$は,式(1)の内積を展開して計算すると以下の式となる.\begin{equation}g(\vecx)=b+\sum_{i=1}^{n}w_i+2\sum_{i=1}^{n}w_i\sum_{k=1}^Jx_i[k]x[k]+\sum_{i=1}^{n}w_i\sum_{h=1}^{J}\sum_{k=1}^Jx_i[h]x_i[k]x[h]x[k]\end{equation}\noindent更に,$\vecx$が2値ベクトルであることを利用すると以下のように書き直すことができる.\begin{equation}g(\vecx)=W_0+\sum_{k=1}^JW_1[k]x[k]+\sum_{h=1}^{J-1}\sum_{k=h+1}^JW_2[k,h]x[h]x[k]\end{equation}\noindentただし,\[W_0=b+\sum_{i=1}^{n}w_i,~~~W_1[k]=3\sum_{i=1}^{n}w_ix_i[k],~~~W_2[h,k]=2\sum_{i=1}^{n}w_ix_i[h]x_i[k]\]\noindentである.ここで,$W_1[k]$は,単独の素性$k$に対する重み,$W_2[h,k]$は素性の組$h\landk$に対する重みである.この時,判別関数$g({\bfx})$は$k$,$h\landk$という素性に関するスコア関数と考えることができる.よって,$W_1[k]$,$W_2[h,k]$の絶対値の大きい素性$k$,$h\landk$はスコアに与える影響が大きい素性であり,重要文の判定に影響を与える.セットA〜Cの全てのデータを用いて学習した結果から,絶対値の大きい上位10個の素性を表\ref{F_pair_pos},表\ref{F_pair_neg}に示す.表\ref{F_pair_pos}は,文が重要文となるために必要な素性の一部を示しており,表\ref{F_pair_pos}に示す素性を含む文は重要文となる場合が多い.要約率10\,\%では,文が文書の先頭付近に出現することを表す素性に加え,以下の素性の組み合わせに高い重みが与えられていることがわかる.\begin{itemize}\itemTF$\cdot$IDF値(バリエーションを含む)が高いことを表す素性\item記事のタイトルとの類似度が高いことを表す素性\item固有表現(DATE,LOCATION,PERSON)が出現することを表す素性\item文末表現が叙述や過去であることを表す素性\end{itemize}\noindentこれは,文書集合を構成する記事の多くが報道記事であるため,文書の先頭付近に話題に関する重要事項が客観的に記述されており,それを人間が重要文として抽出する傾向があるからである.特に,実験に用いた文書集合はある話題(出来事)に関する文書であるので,その時系列情報を表す固有表現(DATE)や場所の情報を表す固有表現(LOCATION)が重要であることがわかる.また,特定の人物に関する話題も多いので人物名の固有表現(PERSON)も重要である.要約率30\,\%でも要約率10\,\%の場合とほぼ同等の傾向であるが,セットAに関してはタイトルとの類似度が高いことを表す素性の重要度が増している.また,全てのセットに共通して文書のジャンルを表す素性が重要な素性として新たに加わっている.要約率50\,\%では,要約率10\,\%,30\,\%の場合と異なり,特定の助詞が出現することを表す素性が単独で高い重みを獲得している.「は」や「が」は大胆な省略がしばしば行われる新聞記事において,新たな情報を導入する際に用いられることが多いからであると考える.一方,表\ref{F_pair_neg}は,重要文らしさのスコアを下げる素性の一部を表している.上位を占めているものをみると,文書の先頭付近に出現しながら重要でない文に特徴的な素性に高い重みがついていることがわかる.文書の先頭付近に出現する文でも全てが重要文となるわけではないことを示している.文書の位置以外の実数値(スコア)を取る素性はその値が小さい場合には,重要文とならない傾向が強い.以上より,各セットにより,わずかに違いはあるが,重要文であるために必要な素性は,文の位置が文書の先頭付近であること,固有表現が出現すること,TF$\cdot$IDFのスコアが高いこと等の組み合わせであることがわかった.更に実数値をとる素性はその値が低い場合には重要文とならない場合が多いこともわかった.また,本稿で新たに導入した複数文書用の素性である$\mbox{Score}_{E}$や$\mbox{Score}_{C}$に対しても高い重みが与えられており有効性がわかった.\subsubsection{複数文書用の素性の有効性}本稿で用いた複数文書用素性の有効性についての詳しい考察を行う.評価実験に用いた素性から3.2.2節で説明した複数文書用素性を取り除いた後に学習と評価を行った.SVMの抽出精度を表\ref{tab09},図\ref{isozakiS}〜図\ref{isozakiL}に示す.なお,図中の1は$\mbox{Post}$,2は$\mbox{Score}_{E}$,3は$\mbox{Score}_{C}$,4は$\mbox{Genre}$に対応する.\begin{table}[tb]\begin{center}\caption{複数文書用の素性を除いたときのSVMの抽出精度}\label{tab09}\begin{tabular}{l|lll|lll|lll}\hline\hline\raisebox{-1.8ex}[0pt][0pt]{取り除いた素性}&\multicolumn{3}{|c|}{要約率=10\,\%}&\multicolumn{3}{c|}{要約率=30\,\%}&\multicolumn{3}{c}{要約率=50\,\%}\\\cline{2-10}&A&B&C&A&B&C&A&B&C\\\hlinePost&49.9&46.6&47.4&51.5&46.6&48.5&67.8&65.4&63.1\\$\mbox{Score}_E$&50.9&46.0&48.1&51.9&47.1&46.8&67.6&65.7&63.1\\$\mbox{Score}_C$&51.1&46.9&47.1&51.4&47.3&47.3&68.1&66.5&63.1\\Genre&49.2&46.6&46.9&52.1&47.6&47.7&67.0&66.8&63.5\\\hlinePost+$\mbox{Score}_E$&50.8&46.8&46.9&50.1&46.6&46.5&67.8&64.8&63.1\\Post+$\mbox{Score}_C$&50.1&47.2&46.0&51.1&46.8&47.9&68.1&65.4&63.3\\Post+Genre&48.5&46.2&47.1&51.4&46.8&47.8&67.9&65.8&64.0\\$\mbox{Score}_E$+$\mbox{Score}_C$&50.9&45.8&47.0&50.4&47.3&46.9&67.8&65.7&62.6\\$\mbox{Score}_E$+Genre&49.4&45.5&47.7&51.8&47.1&46.5&67.0&66.5&63.3\\$\mbox{Score}_C$+Genre&48.6&47.1&46.7&52.3&48.3&48.1&67.5&66.7&64.0\\\hlinePost+$\mbox{Score}_E$&\raisebox{-1.8ex}[0pt][0pt]{50.4}&\raisebox{-1.8ex}[0pt][0pt]{47.2}&\raisebox{-1.8ex}[0pt][0pt]{45.3}&\raisebox{-1.8ex}[0pt][0pt]{50.6}&\raisebox{-1.8ex}[0pt][0pt]{46.3}&\raisebox{-1.8ex}[0pt][0pt]{45.8}&\raisebox{-1.8ex}[0pt][0pt]{67.8}&\raisebox{-1.8ex}[0pt][0pt]{64.4}&\raisebox{-1.8ex}[0pt][0pt]{63.2}\\+$\mbox{Score}_C$&&&&&&&&&\\Post+$\mbox{Score}_E$&\raisebox{-1.8ex}[0pt][0pt]{48.9}&\raisebox{-1.8ex}[0pt][0pt]{46.0}&\raisebox{-1.8ex}[0pt][0pt]{46.5}&\raisebox{-1.8ex}[0pt][0pt]{49.9}&\raisebox{-1.8ex}[0pt][0pt]{46.1}&\raisebox{-1.8ex}[0pt][0pt]{46.3}&\raisebox{-1.8ex}[0pt][0pt]{67.5}&\raisebox{-1.8ex}[0pt][0pt]{65.3}&\raisebox{-1.8ex}[0pt][0pt]{63.0}\\+Genre&&&&&&&&&\\$\mbox{Score}_E$+$\mbox{Score}_C$&\raisebox{-1.8ex}[0pt][0pt]{50.2}&\raisebox{-1.8ex}[0pt][0pt]{45.2}&\raisebox{-1.8ex}[0pt][0pt]{46.8}&\raisebox{-1.8ex}[0pt][0pt]{51.0}&\raisebox{-1.8ex}[0pt][0pt]{47.9}&\raisebox{-1.8ex}[0pt][0pt]{47.2}&\raisebox{-1.8ex}[0pt][0pt]{69.9}&\raisebox{-1.8ex}[0pt][0pt]{66.4}&\raisebox{-1.8ex}[0pt][0pt]{63.3}\\+Genre&&&&&&&&&\\Post+$\mbox{Score}_C$&\raisebox{-1.8ex}[0pt][0pt]{49.1}&\raisebox{-1.8ex}[0pt][0pt]{46.7}&\raisebox{-1.8ex}[0pt][0pt]{46.1}&\raisebox{-1.8ex}[0pt][0pt]{51.7}&\raisebox{-1.8ex}[0pt][0pt]{46.5}&\raisebox{-1.8ex}[0pt][0pt]{47.4}&\raisebox{-1.8ex}[0pt][0pt]{68.2}&\raisebox{-1.8ex}[0pt][0pt]{65.9}&\raisebox{-1.8ex}[0pt][0pt]{63.6}\\+Genre&&&&&&&&&\\\hlinePost+$\mbox{Score}_E$&\raisebox{-1.8ex}[0pt][0pt]{48.5}&\raisebox{-1.8ex}[0pt][0pt]{46.3}&\raisebox{-1.8ex}[0pt][0pt]{50.0}&\raisebox{-1.8ex}[0pt][0pt]{50.8}&\raisebox{-1.8ex}[0pt][0pt]{48.0}&\raisebox{-1.8ex}[0pt][0pt]{48.6}&\raisebox{-1.8ex}[0pt][0pt]{67.5}&\raisebox{-1.8ex}[0pt][0pt]{65.7}&\raisebox{-1.8ex}[0pt][0pt]{67.0}\\$\mbox{Score}_C$+Genre&&&&&&&&&\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[tb]\begin{center}\begin{tabular}{c}\epsfile{file=graph2/Small.eps,scale=0.6}\\\end{tabular}\caption{各素性を取り除いたときの抽出精度(要約率10\,\%)}\label{isozakiS}\end{center}\end{figure}\begin{figure}[tb]\begin{center}\begin{tabular}{c}\epsfile{file=graph2/Medium.eps,scale=0.6}\\\end{tabular}\caption{各素性を取り除いたときの抽出精度(要約率30\,\%)}\label{isozakiM}\end{center}\end{figure}\begin{figure}[tb]\begin{center}\begin{tabular}{c}\epsfile{file=graph2/Large.eps,scale=0.6}\\\end{tabular}\caption{各素性を取り除いたときの抽出精度(要約率50\,\%)}\label{isozakiL}\end{center}\end{figure}表\ref{tab09},図\ref{isozakiS}〜図\ref{isozakiL}より,全体の傾向としては,複数文書用の素性を取り除くことによって抽出精度が低下している.特に10\,\%,30\,\%の要約率ではその傾向が強い.ただし,複数文書用の全ての素性を取り除くよりも2つか3つの素性の組み合わせを取り除いた場合に最も抽出精度が低下している.特にセットCはどの要約率においても,TF$\cdot$IDFのバリエーションを組み合わせて素性を取り除いたときに抽出精度の低下が大きい.これに対し,セットA,セットBでは,セットC程大きな抽出精度の低下はみられないが,文書のジャンルと組み合わせて素性を取り除いたときに抽出精度の低下が大きい.また,セットCの要約率10\,\%では最も低い抽出精度の時には,Lead手法よりもわずかに低い成績であったが,それ以外の場合では,最も低い抽出精度であってもLead手法より高い成績であった.一方,セットBの10\,\%要約率,セットAの50\,\%要約率ではある組み合わせの素性を取り除くことによって,約2\,\%の抽出精度の向上がみられた.複数文書用の全ての素性を取り除いた場合には,10\,\%,30\,\%の要約率では表\ref{tab04}よりもやや抽出精度が低下し,50\,\%の要約率ではほぼ同等の抽出精度である.一般的には,取り除く素性の数を増やすことによって抽出精度が低下することが予測されるが,実験結果では逆に抽出精度がわずかながら向上するなど揺れがみられた.これは,データ(話題数)の規模が小さく分散が大きいことと実験に用いた素性間に従属関係があることが原因であると考える.例えば,Postは,Posdとの関連が強く,$\mbox{Score}_E$,$\mbox{Score}_C$といった素性は単一文書のTF$\cdot$IDFとの関連が強い.このように従属関係にある素性がある場合には,一方の素性を取り除いても他方が残っている場合には抽出精度が低下しないことも考えられる.以上より,複数文書用の素性を組み合わせて取り除くことで抽出精度の低下が起ること,複数文書用の全ての素性を取り除くことでわずかであるが抽出精度の低下が起ることがわかった.この結果より,本稿での評価実験において,複数文書用の素性を用いることは効果は小さいが有効であることがわかった.複数文書用の素性の効果が小さかった原因としては,対象とした文書集合に含まれる文書がすべて単一の話題を主題としている文書であったということが考えられる.たとえば,「奈良で最古の貨幣出土」という話題を考えた場合,対象文書集合に含まれる全文書は「奈良で最古の貨幣出土」という話題を主題としており,各文書における重要文がそのまま文書集合全体での重要文になる可能性が高い.このように単一文書での重要文が複数文書での重要文になることが多い場合では,複数の文書であることを考慮することの効果が小さいと考える. \section{冗長性削減の有効性} \begin{figure}[tb]\begin{center}\begin{minipage}{.75\linewidth}\begin{screen}$A=\{\}$;\\$R=\{S_1,S_2,\cdots,S_\ell\}$;\\$N=出力すべき文数$;\\$\mbox{While}(|A|<N)\{$\begin{quote}$S^*=\mbox{MMR}(A,R)$;\\$A=A\cup\{S^*\}$;\\$R=R-\{S^*\}$;\end{quote}\}\\Aを出力.\\ただし,\noindent\[\mbox{MMR}(A,R)=\left\{\begin{array}{ll}\displaystyle\mathop{\rmargmax}_{S_i\inR}s(g(S_i))\\\displaystyle\mathop{\rmargmax}_{S_i\inR}\lambdas(g(S_i))-(1-\lambda)\mathop{\rmmax}_{S_j\inA}\mbox{Sim}(S_i,S_j)\\\end{array}\right.\]\end{screen}\end{minipage}\end{center}\caption{MMRによる文の再ランキング}\label{fig01}\end{figure}一般的に,複数文書からの重要文を抽出した場合,抽出された文間で内容が重複する可能性があるということが言われている\cite{article8}.重要文として抽出された文集合からこのような冗長性を削減する方法として,Carbonellらは,MaximumMarginalRelevance(MMR)という指標を用いて,ある観点でランキングされた文に別の観点を導入し,再ランキングする手法を提案している\cite{article48}.本稿でもMMRを使った場合にSVMの重要文の抽出精度がどのように変化するかを調べる.MMRを用いた文の再ランキングアルゴリズムを図\ref{fig01}に示す.$R$は文集集合に含まれる文の集合を表し,$A$は出力となる文集合を表す.$s(x)$は,シグモイド関数$s(x)=1/(1+\mbox{exp}(-\betax))$を表し,$\beta=1$とした.$s(g(S_i))$は,式(1)の値を0〜1に正規化した値となる.$\mbox{Sim}(S_i,S_j)$は,文$S_i$と$S_j$の単語の重複度をcosinemeasureで表した指標である.3.2.1節のタイトルとの類似度と同様に計算する.ここでのMMRはSVMの判別関数の値から既に選択した文との重複度をペナルティとして引いたものである.$\lambda$はそれぞれの項の重みを決めるパラメータである.MMRを用いることで,冗長性の低い(重複の少ない)文集合を得られることが期待できる.図\ref{fig02}に$\lambda$を1〜0.8まで0.05刻で変化させた場合のSVMの抽出精度を示す.\begin{figure}[p]\begin{center}\vspace*{-1em}\begin{tabular}{c}要約率10\,\%\\\epsfile{file=graph3/Small.eps,scale=1.1}\\要約率30\,\%\\\epsfile{file=graph3/Medium.eps,scale=1.1}\\要約率50\,\%\\\epsfile{file=graph3/Large.eps,scale=1.1}\\\end{tabular}\caption{MMRを用いた場合の抽出精度の変化}\label{fig02}\end{center}\end{figure}図\ref{fig02}より,どのセットに対しても10\,\%,30\,\%の要約率ではSVMの抽出精度は低下するだけであり,MMRが有効でないことがわかる.これは,10\,\%,30\,\%の要約率では,SVMによる抽出結果に文単位での冗長性が無いことを示している.複数の文書からの重要文抽出では冗長性を削減することが有効であるといわれていたが,今回の実験では10\,\%,30\,\%の低い要約率では有効でないという結果となった.この傾向はSVMだけでなく,Lead手法,TF$\cdot$IDFでも同様であった.このような結果の原因として,重要文の抽出もととなる文集合に文を単位とした冗長性が少ないため,抽出された文にも結果として冗長性が少なかったということが考えられる.特に,評価実験の対象とした文集合が全て単一の情報源(毎日新聞)から得られたものであることの影響が大きい.このような文を単位とした冗長性が少ないデータに対してMMRが及ぼす悪影響の原因について考える.$\mbox{Sim}(S_i,S_j)$は2文間に共通する単語に依存する.ここで,ある文集合において全く冗長性が無い(文の意味的な内容に重複がない)ことをどの2文間にも共通する単語が無いことと捉える.この場合,$\mbox{Sim}(S_i,S_j)$は常に0となり,ランキングに対するMMRの悪影響は無い.しかし,実際には,文の意味としては異なるが,共通する単語は存在するような文の組は多数存在する.よって,$\mbox{Sim}(S_i,S_j)$が0とならず,再ランキングに悪影響を及ぼす.ただし,複数の情報源から得た文集合であれば,類似度の高い2文はほぼ同一の意味を持つ傾向が強いと予想されるので,MMRによる再ランキングは有効に働くと考える.一方,50\,\%の要約率ではわずかではあるが,抽出精度の向上が見られた.特に,SVM(C)では1.5\,\%程度,抽出精度が向上している.以下にSVM(C)においてMMRが有効に働いた例を示す.上の文が正解文として残った文で下の文が上の文に対して類似していることで削除(下位にランク)された文である.\begin{itemize}\item16、チェルノブイリ原子力発電所を2000年までに閉鎖するというウクライナが行った新たな約束を歓迎する。\itemまた、声明には、ウクライナのチェルノブイリ原子力発電所を来年までに閉鎖することを改めて確認、金融犯罪への取り組み強化も盛り込んだ。\end{itemize}このように2文間に共通する単語が多く,意味的にも類似した文の組がある場合には,MMRは有効である.先にも述べたが,今回の実験に用いたデータにはこうした例は少ない.よって,多数の文を抽出する50\,\%の要約率でしか効果が確認できなかったと考える.ただし,文を単位とした冗長性は少ないが,語句単位での冗長性は数多く見られた.一例を以下に示す.\begin{quote}{\bfブラジルの通貨レアルの切り下げ}と中央銀行総裁の辞任によるショックが,$\cdots$.\\宮沢喜一蔵相は14日の閣議後会見で,{\bfブラジルの通貨レアル切り下げ}で$\cdots$.\\{\bfブラジルの通貨レアル切り下げ}を受けた中南米は13日,$\cdots$.\end{quote}\noindentこのように語句を単位とした冗長性は多く存在するので,単一の情報源を対象とした場合には,文を単位とした冗長性ではなく,語句を単位とした冗長性を削減する手法を考える必要がある. \section{まとめ} 本稿では,機械学習手法の1種であるSupportVectorMachineを用いた複数文書からの重要文抽出手法について述べた.評価実験の結果,提案手法がLead手法,TF$\cdot$IDF手法よりも重要文の抽出精度が高いことを実証し,有効性を示した.また,わずかではあるが,複数の文書を考慮した素性を用いることで重要文の抽出精度が向上することがわかった.さらに,単一の情報源から得た複数の文書を対象とした場合,低い要約率では文を単位とした冗長性の削減法(MMR)が有効でないことがわかった.今後の課題としては,複数の情報源から得た複数文書を対象とした場合のMMRの効果の確認,文を単位とした冗長性だけでなく,語句を対象とした冗長性削減手法の研究がある.\acknowledgment評価法について有益なコメントをいただいた通信総合研究所の竹内和広氏に感謝いたします.また,データの使用を許諾してくださった毎日新聞社に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{ipsjpaper}\begin{biography}\biotitle{略歴}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期過程修了.同年,NTTデータ通信株式会社(現,株式会社NTTデータ)入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{賀沢秀人}{1995年東京大学理学部物理学科卒業.1997年同大学院理学系研究科修士課程修了.同年,日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所に所属.主として自然言語処理,機械学習の研究に従事.情報処理学会,ACM,IEEE各会員.}\bioauthor{磯崎秀樹}{1983年東京大学工学部計数工学科卒業.1986年同工学系大学院修士課程修了.同年,日本電信電話(株)入社.1990〜91年スタンフォード大学ロボティクス研究所客員研究員.現在,NTTコミュニケーション科学基礎研究所特別研究員.博士(工学).人工知能・自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,AAAI,ACL各会員.}\bioauthor{前田英作}{1984年東京大学理学部動物学科卒業.1986年同大学院理学系研究科修士課程修了.同年,日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所知能情報研究部知識処理研究グループリーダ.工学博士.1995〜96年ケンブリッジ大学(英国)客員研究員.主としてパターン認識,統計的機械学習,生物情報処理の研究に従事.IEEE,情報処理学会,日本バイオインフォマティックス学会各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学記述大学院大学教授,現在に至る.工学博士.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N02-01
\section{はじめに} \subsection{研究背景}今日ある検索システムは,索引語を用いたキーワード検索が主流となっている.検索漏れを防ぐために,キーワードに指定した語の同意語や関連語も自動的に検索対象にするといった工夫が凝らされているものも幾つか存在する.しかし,一般にキーワードによる絞込みは難しく,検索結果からまさに必要とする情報に絞り込むには,その内容についての説明文などを検索要求と比べる必要があった.例えば,判例検索システムで今担当している事件に似ている状況で起こった過去の事件の判例を調査するとき,当該事件を記述する適切な5つ位のキーワードを指定してand検索をしても,該当して表示される判例数は100件程度になり,この中から当該事件の当事者の関係や諸事実の時間的・因果的関係などが最も類似している事件の判例を人手で探すには大変な労力が必要となる.検索システムが有能な秘書のように,必要な情報の説明を文章で与えるだけで検索対象の要約などの解説文の内容を考慮して最適な情報を掲示してくれると,ユーザの検索労力は大幅に軽減される.この検索を支援する研究のポイントは,2つの文章に記述されている内容の類似性を如何に機械的に計算するかである.本研究の詳細に入る前に,文章の類似性を評価することを要素として含むこれまでの研究についてまず述べることにする.篠原\cite{sinohara}らは,一文ごとの要約を行う目的で,コーパスから類似した文を検索しこれとの対比において省略可能な格要素を認定する手法を提案している.ここでの文章間の類似性の計算方法は,2文間に共通する述語列を求め,これに係っている格要素について,それらが名詞である場合,その意味属性を元に対応関係を,同一関係,同義関係,類似関係に分け,類似度の算出式を設定し,総合的な文間の類似度を求めている.ただし,ここでは,格が表層格であり,文間の関係や述語間(用言間)の格(時間的順序,論理関係,条件関係など)についての類似性は考慮されていない.黒橋ら\cite{kurohashi}は,係り受け構造解析における並列構造の範囲の同定において,キー文節前後の文節列同士の類似性を,自立語の一致,自立語の品詞の一致,自立語の意味的類似度,付属語の一致を元に計算し,類似度最大の文節列の組を求める方法を提案している.宇津呂ら\cite{uturo}は,用例間の類似度を用いて構造化された用例空間中を効率よく探索することにより,全用例探索を行わずに類似用例を高速に検索する手法について提案している.ここでは類似度テンプレートを用いた用例高速化に重きを置いている.この研究においては文章間の類似度を対応する語同士の表層格の対応および格要素の名詞の意味カテゴリの類似度をもとに計算している.兵藤ら\cite{hyoudo}は,表層的情報のみを用いて安定的かつ高精度に構文解析を行う骨格構造解析を用いて辞典の8万用例文について構文付きコーパスを作成し,これを対象として類似用例文検索システムを構築している.ここでの類似用例文検索では,入力された検索対象文を構文解析し,自立語,意味分類コード,機能語を対象とした索引表を作成し,それを用いて検索の絞込みを行い,次に索引表にコード化されている構造コード中の文節番号,係り受け文節番号,文節カテゴリコードを参照して用例文との構造一致があるかを検査している.田中ら\cite{tanaka}は,用例提示型の日英翻訳支援システムにおける検索手法として入力キーワードの語順とその出現位置の感覚を考慮した手法を提案している.検索手法としては,入力文字列を形態素解析して自立語を抽出し,これをキーワードとしAND検索を行っている.この際,AND検索だけでは不必要な文を拾いやすいので語順と変異を考慮した検索を行っている.これにより構文解析した結果と同じような効果を得ることができるとしている.村田ら\cite{murata}は,自然言語でかかれた知識データと質問文を,類似度に基づいて照合することにより,全自動で解を取り出すシステムを開発している.ここでの文間の類似度計算には,自立語同士の類似度については基本的にIDFの値を用い,同義語の場合はEDRの概念辞書などを用い,質問側の文節が疑問詞などを含む文節の場合は意味制約や選考に従った類似性を用いている.日本語文章を検索インタフェースに用いている研究には,京都大学総合情報メディアセンターで公開されているUnixの利用方法に関する藤井ら\cite{kyoudai}のアドバイスシステムがある.このシステムは質問文の構文木と解説文の条件部の構文木を比較し,一致点に対して重みを付けて合計することによって類似度を求め,最も類似する解説文の結果部を表示するというものである.一方,法律文を対象とした自然言語処理の研究としては,平松ら\cite{hiramatu}の要件効果構造に基づいた統語構造の解析や高尾ら\cite{takao}の並列構造の解析の研究がある.前者では,法律文の論理構造を的確に捉えるために,条文中の要件・効果などを表す表層要素を特定し,これを用いた制限言語モデルを単一化文法として記述し,これに基づく法律文の構文解析を行い,解析木と素性構造を出力している.後者では,前者の研究を受けて,係り受け解析時の並列構造の同定において,経験則に基づく制約を用いて間違った構文構造を除去し,次に並列要素の長さ,表層的・深層的類似性などに基づく評価を行い,並列構造の範囲を推定している.なお,ここでの並列構造の類似性判定においては黒橋らの方法を用いている.このように,これまでの研究における文の類似性は,述語を中心として,それに構文的に係っている語についてその表層格と意味素を基に計算しているものである.これらでは,2つの文章中の対応する語間の論理的や時系列的やその他の意味的な関係による結合の類似性については比較の対象外になっており,本研究の目的とする文章に記述されている事実の内容的な類似性を評価するには十分でない.\subsection{研究目的}本研究では,意味解析を用いた情報検索の一手法を提案する.具体的には「判例」を検索対象とし,自然言語で記述された「問い合わせ文」を検索質問とした判例検索システムJCare(JudicialCAseREtrieverbasedonsemanticgraphmatching)を開発する.判例検索は社会的にも有用性が高いので,これを検索対象とした.本システムでは,自然語意味解析により「問い合わせ文」と「判例」の双方を意味グラフに展開し,意味的に同型な部分グラフを求めることで類似度を算出する.これにより両者の内容にまで踏み込んだ検索を実現する.検索対象は「判例」の中でも「交通事故関連の判例」に絞り込む.「交通事故」の判例には,被告,原告,被害者などの``当事者''が存在し,それぞれの``当事者''が相互に「関係」を持つという特徴がある.この特徴により,照合時における比較基準が設定しやすくなる. \section{意味グラフ} \subsection{検索対象--「判例」}「最高裁判所判例集」は最高裁判所判例委員会により選択されまとめられたもので,事件の判決を集めた「事例集」の中から特殊な事件,特殊な判決(裁判上の先例となる判決)とされるものを集めたものである.現在約50万件に達する「事例集」に対して「判例集」には約3000〜4000件が含まれている.この「判例集」に含まれるひとつひとつが「判例」である.「判例」は大きく分けて,判例ID,事件の種類,判決日,当事者の氏名などといった(論文で言えば「書誌情報」に相当するような)付帯情報と,その判例の内容自体を記述した内容情報から構成されている.内容情報は平均約8000字で記述されている.この内容情報はさらに,事件の事実を表すもの,その事実から裁判官が下した判決とその理由に分けることができる.判例の中に記述された事実文は大きく2つに分けることができる.ひとつは「当事者間に争いのない事実」を記述したもの,もうひとつは「当事者それぞれが主張する事実」を記述したものである.前者は当事者のもつ属性や事故のおきた場所など,確実に事実として認められるものを示す.これに対して後者は,確実に事実といえないものである.最終的に裁判官が,後者のものに対して確かな「事実」として認めるか否かの判断を下すのである.この時,裁判官は前者の「争いのない事実文」を事故当時の状況を判断するための要素として利用する.従って,判決を下す上で事故の状況を示す「争いのない事実文」が大きな役割を担っていると考えられる.そこで本研究では,検索対象を「当事者間に争いのない事実」文とする.図~\ref{fig:judicialcase}に,ある交通事故裁判の判例から取り出した事実文を示す.\begin{figure}\begin{center}\atari(130,21)\caption{交通事故裁判の判例から取り出した事実文の例}\label{fig:judicialcase}\end{center}\end{figure}実際の判例検索システムでは,「判例」の中からこの「争いのない事実文」を検索対象として取り出す必要がある.この抽出プロセスは,本研究では手作業による前処理として実現する.その自動化は今後の課題とする.\subsection{検索質問--「問い合わせ文」}本システムを利用するにあたって利用者は,図~\ref{fig:query}に示すような,``事件の状況を示す事実を記述した文章''を「問い合わせ文」として与えるものとする.ここでは,事故当時の現場の状況,当事者の行動,当事者の属性などの,事故の発生に関する事実関係を明確に記述する.JCareはこの問い合わせ文に記述されている事故に意味的に類似した事故に関する判例を検索する.\begin{figure}\begin{center}\atari(130,21)\caption{問い合わせ文の例}\label{fig:query}\end{center}\end{figure}\subsection{意味解析(自然言語処理)}実際に検索を行うには,問い合わせ文と判例をその意味的な内容を表す内部表現に変換する必要がある.このためには言語表現からその意味を抽出するための一連の自然言語処理を行う必要がある.本研究ではこのために,形態素解析に奈良先端科学技術大学院大学の松本研究室が開発した茶筌\cite{chasen}を,係り受け解析に同研究室が開発した茶掛を,意味解析に青山学院大学の原田研究室が開発したSAGE\cite{sage99,harada,sage2000}を,さらに文脈解析に同研究室が開発したInSeRA\cite{insera}を用いることとする.\begin{figure}\begin{center}\atari(120,113)\caption{図~\ref{fig:query}の問い合わせ文から抽出されたframe述語とinterRel述語}\label{fig:frame}\end{center}\end{figure}\begin{figure}\begin{center}\atari(120,76)\caption{図~\ref{fig:query}の問い合わせ文を表わす意味グラフ(見やすくするため一部のフレームを併合してある)}\label{fig:graph}\end{center}\end{figure}\subsection{意味グラフ}先に述べた4つの自然言語処理を経て判例や問い合わせ文の文章は,図~\ref{fig:frame}に示すように,文内の語の語意と係り受け関係にある他の語との間の文内深層格を表すframe述語リストと,文間の文間深層格を表すinterRel述語リストに変換される.さらに,手作業で用意した照応解析データやラベル解析データ(詳細は3章で述べる)をこれらと併合して,問い合わせ文は最終的に図~\ref{fig:graph}に示すような意味グラフという形に変換される.ここでは,frame述語が表すひとつひとつの語が頂点(ノード)で表現され,また,frame述語間の文内深層格および文間深層格,照応解析・ラベル解析による深層格が弧(アーク)で表わされている.意味グラフ中の各弧が表す深層格には,EDR電子化辞書\cite{edr}にて定義された全部で28個の文内深層格に加え,「日本語文書の意味解析システムSAGEの高速化と精度評価」\cite{sage2000}にて追加定義された7個の文内深層格及び「日本語文間の意味的関係解析システムInSeRAの開発研究」\cite{insera}における21個の文間深層格が含まれる.\begin{figure}\begin{center}\atari(110,108)\caption{JCareの処理概要}\label{fig:jcare}\end{center}\end{figure} \section{JCareの概要} JCareシステムの処理の概要を図~\ref{fig:jcare}に示す.まず前処理として「判例」から検索対象となる「争いのない事実文」を手作業で抽出し,自然言語処理による構造解析,意味解析,照応解析などを行う.「問い合わせ文」はそのまま同様な自然言語処理を行う.この結果得られた意味グラフをViewグラフに分割し,問い合わせ文と判例をViewグラフレベルで照合し,類似度の高い順に判例を提示する.\subsection{前処理}先に述べたように,照応解析とラベル解析は現状では手作業で行う.たとえば照応解析では,指示詞が文脈中に登場した人物を指す場合,図~\ref{fig:equalto}のようなequalTo述語を出力する.equalTo述語は第1引数に照応元のフレームIDを持ち,第2引数に照応先のフレームID群のリストを持つ.例えば,図中の最初の事例は,図~\ref{fig:frame}の34番のフレームで表される指示詞『この』が,23番のフレームで表される『交差点』に照応していることを表している.\begin{figure}\begin{center}\atari(100,30)\caption{照応解析結果を表わすequalTo述語}\label{fig:equalto}\end{center}\end{figure}\begin{figure}\begin{center}\atari(120,85)\caption{ラベル解析結果を表わすlabel述語}\label{fig:label}\end{center}\end{figure}ラベル解析では,図~\ref{fig:label}に示すような判例文における箇条書きの記述パターンを解析し,label述語を出力する.label述語は第1引数に文番号,第2引数に接頭語,第3引数に箇条書き番号,第4引数に接尾語,第5引数に箇条書き項目名をもつ.この第2から第5引数の記述パターンの解析から得た箇条書き構造により,どの内容文がどの箇条書き項目を説明したものなのかという情報を抽出する.これは深層格という形で意味グラフに取り込まれ,意味グラフを部分グラフへ分割するために有用な情報となる.\subsection{当事者の同定}言語処理の出力データ群から意味グラフを作成する前に,当事者の同定を行う.当事者とは事故に関係した人物であり,本研究では被告(defendant),原告(plaintiff),被害者(victim),遺族(bereaved),その他の当事者(others)の5つのクラスを用意する.当事者の記述表現が固有名詞であったり,被害者と原告が同一人物であるときに生じうる照合時の当事者不整合を排除するために当事者の同定を行う.具体的には,「被害者」,「被害者太郎」など,同一人物について多様な表現を含む文章があったとき,これらを同一視するために図~\ref{fig:instanceof}に示すinstanceOf述語を出力する.これは第2引数のリスト中の各フレームが第1引数の当事者クラス(図中で<の後にクラス名を示した)に属すことを表す.例えば,図中の2番目の事例は,図~\ref{fig:frame}のフレーム29の『被害者』とフレーム33の『被害者太郎』が共に原告クラスに属していることを表している.\begin{figure}\begin{center}\atari(90,34)\caption{当事者同定結果を表わすinstanceOf述語}\label{fig:instanceof}\end{center}\end{figure}\subsection{意味グラフ生成部}言語処理で出力する意味解析データ,文脈解析データに加え,前処理で用意する照応解析データ,ラベル解析データ,以上4つの解析データをまとめて,図~\ref{fig:graph}に示した意味グラフを生成する.具体的には図~\ref{fig:graphdata}に示すgraph述語で表す.graph述語には頂点の情報を保持するgraphNode述語と,弧の情報を保持するgraphArc述語がある.それぞれの述語句名のあとには,検索質問(Query)か検索対象(Object)かを判別する接尾語が続く.graphNode述語では第1引数にフレームID,第2引数に概念IDを保持する.また,graphArc述語では引数を,係り元フレームID,深層格,係り先フレームIDの順で保持する.例えば,図~\ref{fig:graphdata}に示すgraph述語では,頂点1が図~\ref{fig:frame}内の『南北』を,頂点2が『走る』を表しており,その間に『goal』格の弧が存在していることが宣言されており,これらは図~\ref{fig:graph}に示した意味グラフに視覚的に表現されている.\begin{figure}\begin{center}\atari(120,49)\caption{意味グラフの述語表現}\label{fig:graphdata}\end{center}\end{figure} \section{Viewへの分割} 本研究では,意味グラフ間の類似度算出のために個々の語意だけでなく,語と語を結ぶ深層格も考慮する.一般に判例の事実文の意味グラフのサイズは頂点数が平均約1000個,弧数は平均約1200個であり,頂点と弧の両者を考慮して意味グラフ間の同型部分グラフ探索を行うと,計算量が膨大になる.そのため探索空間を狭める方法として,意味グラフを視点(View)により部分グラフ(Viewグラフと呼ぶ)群に分割することにした.\begin{table}\begin{center}\caption{PrimaryViewとSecondaryView}\atari(70,62)\label{fig:view}\end{center}\end{table}\subsection{Viewとは}Viewは,事実文中に記述されている語をそれらが表す意味(EDRでは概念idと読んでいる)を考慮して,「事故現場の状況」,「当事者の行動」,「当事者の静的特徴」などの特定の``視点''でグループ分けする単位である.本研究では,このViewとして,``誰(who)'',``いつ(when)'',``どこ(where)'',``なに(what)'',``どのように(how)''という事件の基本構造を表すPrimaryViewと,「述語句」の意味により静的なものと動的なものへさらに細分割するSecondaryViewの2種類を用意した.これらを判例用語で表わすと,表\ref{fig:view}に示す計11種のViewとなる.\begin{description}\item[1)PrimaryView:]検索対象は,判例に含まれる「事件の状況を記述した事実文」であり,基本構造上の``when'',``where'',``what''では,これらの視点から選ばれたこの「事件」に直接に関連するものを対象とする.本研究では,対象が交通事故であることから,``when''は『発生日時』View,``where''は『発生場所』View,``what''は『関係車両』Viewを表現する.また``how''にあたる『事故態様』Viewは,事件の状況をまとめて記述した(要約した)部分グラフに当たり,たとえば「事故は被害者と被告が車を競わせたことでおきた.」などがこれにあたる.``who''では,『被告』View,『被害者』View,『原告』Viewの3つを用意する.先に述べた当事者の1つである「遺族」は,判例において存在しないことが多いと判断し,Viewからは外すことにした.また,事実文中に``被告''が複数人存在したとしても,被告らが関係する事実文は,同じ『被告』Viewへ割り振り,被告同士の区別は,意味グラフのレベルで行うこととした.以上で述べた6つのViewどれにも当てはまらないものは,『その他』Viewへ割り振る.\end{description}\begin{description}\item[2)SecondaryView:]当事者に関する3つのPrimaryView(「被告」,「被害者」,「原告」)グラフを,それぞれそこに含まれる「述語句」の意味によって,さらに2つのSecondaryViewグラフへ分割する.一般的に「述語句」は,当事者の属性を示すものと,当事者の行動を示すものに大きく2種類に分けることが出来る.SecondaryViewは,この2種類の視点に異なった類似度算出方法を選択することで,視点の性格に応じた比較を行うために用意した.具体的には当事者に関する3つのViewを,当事者の静的特徴についての記述を格納する『静的特徴』Viewと,当事者の行動についての記述を格納する『単独行動』Viewに分割する.たとえば,「被告は20歳の男性である」は前者に割り振られ,「被告は自動車を運転していた」は後者に割り振られる.また,行動に関する部分グラフの中に当事者が2人以上含まれていた場合は,『単独行動』Viewへ割り振らず,PrimaryViewの『事故態様』Viewへ割り振る.これは,当事者別にViewを分けたことで生じうる比較精度の低下を防ぐためである.たとえば,「問い合わせ文」での事故の状況を示す記述が,被告中心の表現となっており,反対に「判例」の「争いのない事実文」での記述が原告中心の表現である場合,それぞれが異なるSecondaryViewへと割り振られてしまう.そのため,この事故の記述が似ているものであろうとなかろうと類似度はゼロとなる.このような照合の漏れを防ぐために,当事者が相互に関連しあいながら生じた行動を記述した部分グラフは,『事故態様』Viewへ割り振ることとする.\end{description}\subsection{主体}意味グラフ中の用言を表す頂点に接続している頂点群には,この用言が表す述語の動作主体や動作対象などを表す語を含む頂点が存在し,これを主体と呼ぶ.具体的には,EDR電子化辞書の深層格で表される主体には,「有意志動作を引き起こす主体」,「属性をもつ対象」および「動作・変化の影響を受ける対象」の3つがある.1つ目は思考的・知的動作を含む意志を持って行われる動作の主体を表し,agent格にあたるものである.2つ目は,感情を表す動作の主体を表し,a-object格にあたるものである.3つ目は,自然現象・生理現象・物理現象の主体を表し,object格にあたるものである.\subsection{代表語}実際に意味グラフの各頂点をViewグラフに分配するには各頂点がどのViewに属するかを判定する必要がある.この判定は,各々のViewを代表する語(代表語)を用意し,意味グラフの割り振り判定対象となる頂点が表す語がどのViewの代表語のEDR概念体系辞書中の下位概念であるかに基づいて行う.意味グラフ中の主体を表す各頂点を,PrimaryViewに分類するための代表語を表にしたのが,表\ref{fig:primaryview}である.これに対し述語句を表す各頂点をSecondaryViewに分類するための代表語は,図~\ref{fig:secondaryview}に示すようにEDR概念体系辞書の最上位概念群を利用し,『静的特徴』Viewでは図中Aで表した計5つの概念を代表語とし,『単独行動』Viewでは図中Bで表した計4つの概念を代表語として用意する.\begin{table}\begin{center}\leavevmode\caption{PrimaryViewの代表語}\atari(120,24)\label{fig:primaryview}\end{center}\end{table}\begin{figure}\begin{center}\leavevmode\atari(120,52)\caption{SecondaryViewの代表語}\label{fig:secondaryview}\end{center}\end{figure}\subsection{Viewへの分割手法}意味グラフ生成部で生成した意味グラフをViewに分配する際の単位は,「述語句」を1つ,「主体」を少なくとも1つ含む部分グラフとする.この単位で,意味グラフから述語句頂点に連結する頂点群を取り出し,PrimaryViewでは主体となる頂点,SecondaryViewでは述語句となる頂点のもつ語が先に述べたどの代表語の下位概念になっているかを判定し,この部分グラフ全体を適切なViewへ分配する.この際PrimaryViewでは,当事者View(「被告」,「被害者」,「原告」)の代表語の下位概念にあたる主体が2種類以上存在する場合は,事故態様Viewへ割り振る.それ以外は割り振り先PrimaryViewの優先順位を,当事者View,発生場所View,発生日時View,関係車両View,その他Viewの順番として割り振る.またSecondaryViewでは,PrimaryViewにて当事者Viewに割り振られた部分グラフの述語句の概念が,『静的特徴』Viewと『動的特徴』Viewのどちらの代表語の下位概念であるかを判定し,割り振りを実現する.意味グラフの切断箇所は「述語句」頂点間の弧とする.この際複数のグラフに共有されている頂点は,個々のViewグラフにおいて重複して存在させることとする.たとえば「原告は信号を確認せずに,横断歩道を直進した.」という文章は図~\ref{fig:graphrule}のように,2つのViewグラフとして扱われる.\begin{figure}\begin{center}\atari(100,50)\caption{意味グラフのViewへの割振り単位}\label{fig:graphrule}\end{center}\end{figure} \section{Viewごとのマッチング手法} 問い合わせ文章と判例文章の各々11個のViewグラフ同士をViewごとに両者間の位相同型部分の大きさをもとに,内容類似度を算出する.この手順について以下に説明する.\subsection{語意類似度算出部}まず2つのViewグラフから任意の頂点を1つずつ取り出し,それらの語意類似度を算出する.2ノード間の語意類似度の算出は,EDR概念体系辞書を用いて2つの語が表す概念の概念体系木における深さと,2つの共通上位語の深さを求め,図~\ref{fig:wordsimilarity}左に示す式で算出する.たとえば``交差点''と``現場''というノード間の語意類似度は,図左下に示すように算出される.次に,語意類似度の値が一定値(現在は経験的に40としている)以上ならば仮のペアを1つづつ作る.すべてのノード同士の判定終了後,ノードが重複した仮ペア群の中で類似度の最も高いものを正式ペアとする.\begin{figure}\begin{center}\atari(130,86)\caption{EDR概念体系辞書を用いた語意類似度算出}\label{fig:wordsimilarity}\end{center}\end{figure}正式ペアの語意類似度の合計を問い合わせ文のViewグラフノード数で除算し,11個のView各々における総語意類似度を求める.\subsection{格類似度算出部}語意類似度算出において,類似しているとした正式ペアの頂点対から,任意の2つの頂点対を取り出し,その間にある最短路(関係パスと呼ぶ)上の深層格リストの類似性を評価する.この評価値を格類似度と呼ぶ.\begin{figure}\begin{center}\atari(70,91)\caption{格類似度算出}\label{fig:casesimilarity}\end{center}\end{figure}\begin{table}\begin{center}\caption{深層格類似度の割り当てパターン(一部)}\atari(100,50)\label{fig:deepcasesimilarity}\end{center}\end{table}具体的には,関係パス上の深層格群の類似性評価は,図~\ref{fig:casesimilarity}に示すようにグラフ1とグラフ2の頂点対A,B間及びA',B'間に有向路があれば,その最短路(関係パス)を求めそれらが類似する深層格を共有するごとに得点を加算することで実現する.加える得点は深層格ごとに表\ref{fig:deepcasesimilarity}の類似度割り当てパターンAに示すように定めた.この表で例えば,第1行目は,「グラフ1とグラフ2の両方の関係パス上に深層格agentが存在した時に,得点10を加える」ということである.この深層格類似度値は,深層格同士の類似性,事実文中における深層格の重要性から,同じ深層格であり重要度の高いものを10,同じ深層格であるが多少重要なものを9,同じ深層格であるが重要度の低いもの及び,重要度の高いもので互いに似ている深層格を8,多少重要なもので互いに似ている深層格を7としている.頂点対ごとの関係パスに対するこの類似度得点値の合計値を頂点対の数だけ合計し,その結果を問い合わせ文のViewグラフにおける格の数で除算する.この値を各々のViewにおける総格類似度とする.ここで,関係パスにおける格類似度得点値をViewごとに設定することで,全体の類似度を算出する上でのViewの独自性を表現する.具体的には表\ref{fig:deepcasesimilarity}の最右列に示すように,もう1つの類似度割り当てパターンBを用意した.これは主として時間軸における前後関係に関する格の類似性により多くの重みを与えたものである.パターンBは当事者の行動を記述した『単独行動』Viewグラフおよび『事故態様』Viewグラフ用に,パターンAはそれ以外のViewグラフ用として利用している.\subsection{意味グラフ類似度算出部}先で求めたViewグラフごとの総語意類似度と総格類似度の和をsigmoid関数を用いて算出された値が0〜100の範囲になるよう正規化する.この値をViewごとのViewグラフ類似度とする.そして11種類のViewごとのこの値の合計値を,判例各々の問い合わせ文に対する意味グラフ類似度とする.蓄積されている全ての判例の問い合わせ文に対する意味グラフ類似度を算出する.この類似度で判例をソートして,高いものからユーザへ提示することで,判例検索システムを実現する.\begin{figure}\begin{center}\atari(100,89)\caption{発生場所Viewに関する類似度比較の例}\label{fig:viewResult}\end{center}\end{figure}\begin{figure}\begin{center}\atari(110,29)\caption{すべてのViewに関する類似度比較結果と意味グラフ類似度}\label{fig:result}\end{center}\end{figure}\subsection{事例}本研究では実際に,事故の状況を文章で記述した図~\ref{fig:query}の問い合わせ文により図~\ref{fig:judicialcase}に示した判例を含む計3つの判例を対象として類似度評価を行った.問い合わせ文と3つの判例から,本システムでの解析における途中結果を分析して,発生場所Viewに関する類似度を計算する上で抽出された語と語間の関係を取り出し,人が分かりやすいように,これらを含む原文を取り出して示したのが,図~\ref{fig:viewResult}である.さらに,この図において発生場所Viewについての総語意類似度,総格類似度,Viewグラフ類似度の計算結果を列挙した.問い合わせ文の事故現場は信号機の設置された丁字路交差点であり,判例2および判例3も同様である.これに対し,判例1の事故現場は高速道路上り線上であり,問い合わせ文と異なる.この結果,まず判例1との比較では語意が近い語があることにより総語意類似度はある程度の値となったが,語間の関連性の類似性がなく総格類似度は0であった.一方判例2では,事故現場の交差点が共に2つの道路が『交差している』ということ,さらにその『交差する』で連体修飾されている『交差点』であること,『信号機が設置されている』ことなどの記述があることで,総語意類似度と総格類似度共に高い点になっている.一方判例3は,語の関連の仕方は判例2ほど似ていないので総格類似度は判例2ほど高くないが,『環八通り』という語が共に含まれているので総語意類似度は非常に高くなっている.これらと同様に他のViewについての比較計算が行われた結果,それぞれのViewごとの類似度は図~\ref{fig:result}に示すようになり,これらの和である意味グラフ類似度はそれぞれ138,202,264と算出された. \section{まとめ} 本研究では,日本語文章による問い合わせ文による情報検索として,一群の文章群から,出現する語の意味およびそれらの意味的関係において問い合わせ文と類似した記述をできるだけ多く含む文章を検索する手法を提案した.具体的には,検索対象を交通事故の判例文章に特定し,これら文章群に意味解析を中心とした自然言語処理を施して意味グラフ群へ展開し,それらの間に存在する意味的な位相同型部分の大きさを基に類似性を判定する判例検索システムJCareを開発した.ここでは,意味グラフを交通事故を特徴づける11個の視点によりViewグラフと呼ぶ部分グラフに分割し,Viewグラフごとの照合を行うことで類似度を算出する手法を構築し,検索の高速化・精度向上を図った.実際に交通事故の3つの判例に対し問い合わせ文との照合を行ったところ,おおよそこの類似度は内容的な類似性の程度をよく表わしているとの評価を得た.今後は類似度算出における関係パスの深層格の評価値を経験的に求めていく必要がある.また,前処理部などにおける手作業を自動化する必要がある.\acknowledgment本研究を進めるにあたり,日本語形態素解析システム『茶筌』,係り受け解析システム『茶掛』を提供してくださった奈良先端科学技術大学院大学の松本裕治教授に深く感謝致します.また,判例検索システム構築において多くのアドバイスおよび判例データを提供してくださった第一法規株式会社に深く感謝致します.\bibliographystyle{jnlpbbl}\bibliography{ipjpaper2000}\begin{biography}\biotitle{略歴}\bioauthor{原田実(正会員)}{1951年生.1975年東京大学理学部物理学科卒業.1980年東京大学理学系大学院博士課程修了.理学博士.(財)電力中央研究所研究員を経て,1989年より青山学院大学理工学部経営工学科助教授,2000年より同情報テクノロジー学科教授,現在に至る.1986年電力中央研究所経済研究所所長賞.1992年人工知能学会全国大会優秀論文賞.1996--1998年EAGL推進事業機構「ソフトウェア開発の統合的自動化」プロジェクトリーダー.主たる研究は,自動プログラミング,ソフトウェア分析・設計の自動化,自然語意味理解,ルールベースの自動更新,アクティブメッセージなど.編著書「自動プログラミングハンドブック」など.情報処理学会,電子情報通信学会,人工知能学会,ソフトウエア科学会,IEEE,ACM,AAAI各会員.}\bioauthor{鈴木亮(非会員)}{1999年青山学院大学理工学部経営工学科卒業.2001年同大学大学院修士課程修了.4月よりソニー株式会社.}\bioauthor{南旭瑞(非会員)}{2000年青山学院大学理工学部経営工学科卒業.現在同大学大学院.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V10N04-05
\section{はじめに} 著者らは,実用に近い日本語--ウイグル語機械翻訳システムの実現を目指して一連の研究をしてきた\cite{NLC93,MSTHESIS,MUHPARAM,PRICAI94,MUH_OGA2001,OGAWA2000,MT_SUMMIT2001,MUH_NLT_2002}.その過程で,一定の語彙数を持つ日本語--ウイグル語電子辞書の開発が不可欠であると考え,その開発に着手した.その時点では,日本語--ウイグル語に関する通常の辞書さえない状況であった.最初は,日本語--ウイグル語機械翻訳実験用の基本的な辞書の開発を考えて,IPAの計算機用日本語基本動詞辞書IPAL\cite{IPAL}をベースに,名詞や形容詞などを含め,約1,200語の日本語--ウイグル語電子辞書を作成した\cite{NLC93,MSTHESIS}.IPAL動詞辞書には,日本語の動詞のうちで語彙体系上ならびに使用頻度上重要であると考えられる基本的な和語動詞861語が含まれている.両言語のなかで特に格助詞を含む名詞接尾辞と動詞接尾辞が動詞と密接な関係にあり,日本語--ウイグル語機械翻訳においても,動詞が重要であるため,IPAL動詞辞書を選んだ.しかし,1,200語前後の辞書では不十分であり,実用に近い機械翻訳システムの実現には,少なくとも日常使われる最低限の語彙を含む日本語--ウイグル語電子辞書の開発が必要であるとの考えに至った.そこで,我々はまずウイグル語--日本語辞書であるウイグル語辞典\cite{UJDIC}を電子化して機械可読にし,その逆辞書を自動的に生成するという方針で本格的な日本語--ウイグル語電子辞書の開発に着手した\cite{UJDICE,JUDICGEN}.辞書開発は,著者らが行なったが,その内の一人は十分な日本語能力を有するウイグル語ネイティブ話者である.日本語--ウイグル語電子辞書の開発作業は次のような段階に分けて行なった.\\\begin{enumerate}\itemウイグル語--日本語電子辞書の作成\begin{itemize}\item[1-1.]ウイグル語辞典\cite{UJDIC}のデータの電子化と項目タグの付与\item[1-2.]各項目の修正および品詞の付与\end{itemize}\item日本語--ウイグル語電子辞書の作成\begin{itemize}\item[2-1.]ウイグル語--日本語辞書から日本語--ウイグル語辞書を自動生成\item[2-2.]各見出し語の検査および修正\item[2-3.]機械翻訳システムで利用できる形式への変換\end{itemize}\end{enumerate}各作業の詳細については,2章以降で順次説明する.こうした一連の作業を行なった結果,語彙数約20,000語の日本語--ウイグル語電子辞書を作成することができた.著者らは,この辞書が日常よく使われる語彙をどの程度見出し語として採録しているかを調べるために,\\\begin{itemize}\item[a.]国立国語研究所の教育用基本語彙\cite{KOKKEN}6,104語中のより基本的とされている2,071語に対する収録率,\item[b.]EDRコーパス\cite{EDRCORPUS}の日本語テキスト文に含まれる単語の上位頻度2,056語に対する収録率\end{itemize}\mbox{}\\の2点に関して調査した.a.は,日本語基本語彙に対する調査で,b.は,新聞記事などからのテキストを対象とした調査であり,それぞれの特徴はあるが,全体として見ると,a.,b.ともに約80\,\%の収録率であった.さらに,a.とb.それぞれについて収録されていない単語一つ一つに関して,収録されなかった,すなわち見出し語として採録されなかった理由について詳細な分析を行ない,その理由を大きくA〜Eの5つに分類し,それぞれをさらに細分類して検討した.この結果は,本論文と同様の手法で辞書作成をする際,収録率を上げるために注意すべき点について,いくつかの知見を与えている.本論文は,次のような構成になっている.\ref{section:denshika}章では,ウイグル語辞典\cite{UJDIC}を機械可読にし,それに対して一連の編集作業を行なってウイグル語--日本語電子辞書を作成した過程について述べる.\ref{section:jidoseisei}章では,ウイグル語--日本語電子辞書からその逆辞書である日本語--ウイグル語辞書の自動生成について述べる.\ref{section:for_majo}章では,自動生成で得られた日本語--ウイグル語辞書の機械翻訳用辞書への変換について述べる.\ref{section:hyoka}章では,以上のようにして著者らが作成した日本語--ウイグル語辞書の収録率,および,収録されていない単語の調査とその結果について述べ,著者らが作成した日本語--ウイグル語辞書の評価とする.\ref{section:owari}章は本論文のまとめである. \section{ウイグル語--日本語辞書の電子化} label{section:denshika}我々の目標は,日本語--ウイグル語機械翻訳システムに使用できる辞書の作成である.元となる日本語--ウイグル語辞書が存在しなかったため,まず維漢辞典\cite{UHDIC}の和訳であるウイグル語辞典\cite{UJDIC}を計算機で処理可能な形にするための電算入力から作業を始めた.この作業では,計算機での処理を容易にするために,各項目にタグを付加し,図\ref{fig:first_dic}のような形式でデータを入力した.\begin{figure}\begin{center}\rule{0.9\textwidth}{0.2mm}\\\mbox{}\\\begin{minipage}{0.9\textwidth}{\small\begin{verbatim}\un!etij!e\j結果,結論,成果,効果,成績\\uemusabi!kiningn!etijisi\je試合の結果.\\ue!uginixn!etijisi\je学業成績.\\ue~!kazanma!k\je成績を得る.\\uen!etijig!eerixm!ek\je成果を得る.\\ue~b!erm!ek\je効果があがる.\\ue~qi!kma!k\je結果が出る.\\ue~qi!karma!k\je結論を出す.\\end{verbatim}}\end{minipage}\\\mbox{}\\\rule{0.9\textwidth}{0.2mm}\caption{電子化されたウイグル語辞典の一部}\label{fig:first_dic}\end{center}\end{figure}ここで,\verb+\u+,\verb+\j+,\verb+\ue+および\verb+\je+は,それぞれウイグル語の語彙見出し,日本語の対訳語,ウイグル語の用例・例文およびその和訳文を示すタグである.日本語の対訳語が複数ある場合,意味的に近いものと,そうではないものが,それぞれ`,'と`;'で区切られ,ウイグル語例文と和訳文の末尾に`.'が付いている.`\verb+~+'は,見出し語を表わし,`\verb+\+'は,行末を表わす.また,ウイグル語には32の文字があり,`c'以外のローマ字25文字とウイグル語の発音に近いローマ字の前に\verb+`!'+を付した\verb+`!g'+,\verb+`!h'+,\verb+`!k'+,\verb+`!e'+,\verb+`!o'+,\verb+`!u'+,\verb+`!z'+の7文字の合計32の表記を対応させた.ウイグル文字と本論文での表記の対応は表\ref{table:arabic_latin}の通りである.\begin{table}[tbp]\begin{center}\caption{ウイグル文字とローマ字表記(本論文での表記)との対応}\label{table:arabic_latin}\epsfile{file=uirmtab.eps,width=0.9\textwidth}\end{center}\end{table}次に,このデータに対し,ウイグル語ネイティブ話者および日本語ネイティブ話者からなる著者らの合議検討の共同作業により,すべての見出し語とその項目について逐一,その内容を吟味,確認し,さらに以下の3点に注目して修正を施した.\\\begin{enumerate}\item[1)]品詞の付与,および複数の品詞をもつ見出し語を品詞ごとに分割.\item[2)]不適切な訳語の修正,および見出し語綴りの誤りの訂正.\item[3)]語源・語義が異なる見出し語を異なる語義ごとに分割.\end{enumerate}\mbox{}\\まず,1)の品詞の付与であるが,図\ref{fig:first_dic}に見るように,元のウイグル語辞典\cite{UJDIC}には品詞が付与されていなかったので,すべての見出し語に人手で品詞を付与した.また,複数の品詞を持っている見出し語については,品詞ごとに分けて別々の見出しとした.日本語と違って,ウイグル語では二つ以上の品詞を持つ単語が多く,特に,形容詞にも名詞にもなる語が多い.ウイグル語の`\verb+k!ok+'はその一例であるが,図\ref{fig:arranged_dic}のように別々の見出し語に分割し,日本語訳および例文も,それぞれの品詞ごとに分けて付加した.\begin{figure}[tbp]\begin{center}\rule{0.9\textwidth}{0.2mm}\\\mbox{}\\\begin{minipage}{0.9\textwidth}\small\begin{verbatim}\uk!ok\j青い\[形容詞]\ue~boya!k\je青い顔料.\\ue~k!oz\je青い目.\\ue~purqa!k\je青豆.\\uk!ok\j空,天空;青いあざ;青草;まだ実らない作物;青菜,野菜,ウマゴヤシの芽;ふさ状のもの\[名詞]\ueB!urk!ut~t!ep!erwaz!kilma!kta.\jeタカが空を舞っている.\\ueb!edinig!e~q!uxm!ek\je体に青いあざができる.\\ue!Koylar~k!etoydi.\je羊たちは青草を食べ飽きた.\\end{verbatim}\end{minipage}\\\mbox{}\\\rule{0.9\textwidth}{0.2mm}\vspace{-1.6ex}\end{center}\caption{人手による修正を加えたウイグル語--日本語辞書の一部}\label{fig:arranged_dic}\end{figure}また,今回使用したウイグル語辞典\cite{UJDIC}は,維漢辞典\cite{UHDIC}の中国語訳を日本語に翻訳して作成されており,二次翻訳による意味のずれや欠落がかなりあった.2)は,主にそうした点に関しての修正である.例えば,ウイグル語の`gilitserin'\footnote{`gilitserin'はウイグル語でも「外来語」である.}は,維漢辞典\cite{UHDIC}での中国語への訳語が``甘油''になっており,ウイグル語辞典\cite{UJDIC}でも日本語訳が「甘油」になっていた.しかし,「甘油」は,日本語国語辞書の見出し語として含まれていなかった.そこで,中国語--英語辞典\cite{EC_CE_DIC}を引くと,``甘油''の英訳が`glycerine'であることが分かり,ウイグル語の`gilitserin'に対して「グリセリン」という日本語訳語を当てた.また,ウイグル語の日本語訳として与えられている単語が日本語国語辞典の見出し語に含まれてはいるものの,中国語を介して訳付けをしたため,意味がずれていたものもあった.例えば,ウイグル語の`katta'の維漢辞典\cite{UHDIC}での中国語への訳語は``大事''であるが,その意味は,「重要」という意味の「大事」ではなく,「偉大」という意味の「大事」である.しかし,我々が出発点として用いたウイグル語辞典\cite{UJDIC}では,中国語の「大事」を日本語に訳すとき「大事」をそのまま日本語として解釈して`katta'の意味の一つに「重要」が付与されていた.これは`katta'の意味としては正しくないのでそれを削除した.このような意味の取り違えは中国語の「汽車」が,日本語では「自動車」を意味しているように,同じ文字列で表わされた単語が中国語と日本語では異なる意味を持つことから生じている.さらに,こうした作業と並行して,時代遅れになった単語や訳語を削除したり,逆に,適切な訳語を適宜追加したりして,訳語を修正した.また,見出し語の綴り字の誤りは気付く限り訂正した.例えば,維漢辞典\cite{UHDIC}ならびにウイグル語辞典\cite{UJDIC}で`ara-tora'とあるのは誤りであり,`ara-tura'とするのが正しいので,そのように訂正した\footnote{飯沼「ウイグル語辞典」には,アラビックウイグル文字綴りが独自に付加されているが,それとラテンウイグル文字綴りの間に不一致が見られる.このことを指摘してくださった査読者に感謝する.この点について,若干の説明を以下に記す.この不一致の原因には,次の4つの場合が考えられる.1.『維漢辞典』のラテン文字(ラテンウイグル文字)見出し語表記と飯沼『ウイグル語辞典』のそれとは同一であるが,飯沼版でアラビア文字(アラビックウイグル文字)の綴りを独自に付加した際に,『維漢辞典』とは異なった規準で綴り字を決めていることが原因で生じた不一致.2.ウイグル語表記にラテン文字を導入した時に,中国語の発音を正確に表すために,中国語のPINYINで使われているzh,ch,shをウイグル語の組み合わせ文字として取り入れたが,これに対応するアラビックウイグル文字はない.そのために,それらを,音が近いアラビックウイグル文字で表記したために生じた不一致.例えば,PINYIN式では`dad!uizhang'と表記されるものをアラビックウイグル文字で表記し,それをラテン文字に写すと`dad!uyjang'になる.これは,上記1の特別な場合である.3.『維漢辞典』の編集過程でラテン文字見出し語の綴りに間違いがあったものを正しく修正できなかったが,アラビック文字の見出し語は正しく追加しているために生じている不一致.例えば,飯沼版ならびに『維漢辞典』で`ara-tora'とあるのは誤りで,`ara-tura'とするのが正しい.4.飯沼版で,独自にアラビア文字綴りを追加した時にアラビア文字綴りに誤りを犯したために生じた不一致.ウイグル語綴り字の正書法は,現代ウイグル語正書法辞典\cite{UIIMLA}が1997年に出版されるまでは決まっていなかったので,上記の1,2のようなことが生じていた.しかし,ネイティブのウイグル語話者にとっては,そのような表記の不一致が生じても,いずれの表記でも同一の単語として同定できるものである.3と4の不一致は,間違いが原因で生じているので,その誤りは訂正しなければならない.3の誤りは気付く限り修正した.4の修正については,今回の辞書にはアラビック表記を入れなかったので,対処していない.}.2)の不適切な訳語の修正作業には,日本語の意味の確認のために,広辞苑\cite{KOJIEN},日本語大辞典\cite{KODANSHA},大辞林\cite{SANSEIDO},新明解国語辞典\cite{BOOKSHELF}を,ウイグル語の意味の確認のために,ウイグル語辞典\cite{UJDIC},維漢辞典\cite{UHDIC},中国語--英語辞典\cite{EC_CE_DIC},ウイグル語詳細辞典\cite{UILUGET}などを参照した.3)は複数の異なる語義を持つ単語が一つの見出し語になっている場合に,これを別々の見出し語とした.複数の語義を持つ単語を辞書によって同じ一つの見出し語として扱ったり,別の見出し語として扱ったりしていることがある.ここでも,元になった維漢辞典\cite{UHDIC}では一つの見出し語として扱われているものがウイグル語辞典\cite{UJDIC}では別々の見出し語になっていたり,またはその逆であったりして,区別する規準がはっきりしていなかったが,著者らのこの作業では,意味が類似していなければ,別の見出し語とした.その例を図\ref{fig:separated_word}に示す.\begin{figure}[t]\begin{center}\rule{0.9\textwidth}{0.2mm}\\\mbox{}\\\begin{minipage}{0.9\textwidth}\small\begin{verbatim}\uk!eqm!ek\j踏む,渡る;通る,経る,経験する\[自動詞][他動詞]\uelay~\je泥を踏む.\\ue!kar~\je雪を踏む.\\ueHiyalim!gabirixk!eqti.\jeあることが脳裏をかすめた.\\uk!eqm!ek\j捨てる,あきらめる;許す\[他動詞]\uehamhiyaldin~\je幻想を捨てる.\\uex!ehsin!epsidin~\je私欲を捨てる.\\uejandin~\je命を捨てる.\\end{verbatim}\end{minipage}\\\mbox{}\\\rule{0.9\textwidth}{0.2mm}\vspace{-1.6ex}\end{center}\caption{同じ綴の語を別々の見出し語に分けた例}\label{fig:separated_word}\end{figure}\begin{table}\begin{center}\caption{ウイグル語--日本語電子辞書の見出し語数および平均対訳語数}\label{mytab:ujwtab}\footnotesize\begin{tabular}{|l||r|r|r|r|r|r|r|r|r|r|r|r|r}\hline品詞&名詞&動詞&\parbox[c]{2zw}{形容詞}&\parbox[c]{2zw}{動作名詞}&副詞&\parbox[c]{2zw}{助数詞}&\parbox[c]{2zw}{感嘆詞}&\parbox[c]{2zw}{代名詞}&\parbox[c]{2zw}{接続詞}&\parbox[c]{2zw}{接続助詞}&\parbox[c]{2zw}{語気助詞}&合計\\\hline見出し語数&7,259&3,682&2,868&1,046&691&142&48&19&21&10&2&15,788\\\hline\parbox[c]{5zw}{日本語への\\平均対訳\\語数}&1.86&2.35&2.12&2.12&2.09&1.61&2.14&1.79&2.48&2.80&2.50&2.05\\\hline\end{tabular}\end{center}\end{table}\mbox{}\\こうした作業の結果,最終的に約16,000語の語彙数を持つウイグル語--日本語電子辞書を作成することができた.この辞書の品詞ごとの見出し語数と平均対訳語数を表\ref{mytab:ujwtab}に示す.この表の中で,形容詞としているのは体言を修飾するか,状態・状況・様子を表わす述語になりうる単語であり,また,動作名詞は,``-する''が付いて動詞化する日本語のサ変名詞のように,`!kilma!k'が後に続いて動詞化する名詞である.また,名詞,動詞,形容詞,動作名詞の合計は14,855語で,見出し語総数15,788語の94.09\,\%になる.ここで,動作や状況を表わす動詞,形容詞,動作名詞は,平均2.12〜2.35語の日本語対訳語をもつのに対して,名詞に対しては平均して1.86語であり,名詞の方が1:1対応の傾向が強いことが伺える.これらの様子は,図\ref{myfig:ujnoun},\ref{myfig:ujverb},\ref{myfig:ujadj},\ref{myfig:ujsverb}によく現れている.\begin{figure}\vspace*{-2mm}\begin{minipage}{0.47\textwidth}\fbox{\epsfile{file=graphujnoun.eps,width=0.96\textwidth}}\caption{ウイグル語名詞から日本語名詞への\\対訳語数の分布}\label{myfig:ujnoun}\end{minipage}\hfill\begin{minipage}{0.47\textwidth}\fbox{\epsfile{file=graphujverb.eps,width=0.96\textwidth}}\caption{ウイグル語動詞から日本語動詞への\\対訳語数の分布}\label{myfig:ujverb}\end{minipage}\vspace{2mm}\begin{minipage}{0.47\textwidth}\fbox{\epsfile{file=graphujadj.eps,width=0.96\textwidth}}\caption{ウイグル語形容詞から日本語形容詞への\\対訳語数の分布}\label{myfig:ujadj}\end{minipage}\hfill\begin{minipage}{0.47\textwidth}\fbox{\epsfile{file=graphujsverb.eps,width=0.96\textwidth}}\caption{ウイグル語動作名詞から日本語動詞への\\対訳語数の分布}\label{myfig:ujsverb}\end{minipage}\end{figure} \section{日本語--ウイグル語電子辞書の自動生成} label{section:jidoseisei}前章で述べた一連の手続きによって作成したウイグル語--日本語電子辞書に対して,機械処理を施すことによって逆辞書である日本語--ウイグル語辞書を生成した.{\begin{figure}[p]\begin{center}\rule{0.9\textwidth}{0.2mm}\\\mbox{}\\\begin{minipage}{0.9\textwidth}\small\verb+\uqotka\jはけ,ブラシ\[名詞]+\\\verb+\uqotkilima!k\jはけでみがく,ブラシをかける\[他動詞]+\\\verb+\uqox!ka\j豚\[名詞]+\\\\\hspace*{2cm}(a)第\ref{section:denshika}章の手続きで生成したウイグル語--日本語辞書の一部\\\hspace*{4cm}$\Downarrow$\\\end{minipage}\\\begin{minipage}{0.9\textwidth}\small\verb+\uqotka\jはけ\[名詞]+\\\verb+\uqotka\jブラシ\[名詞]+\\\verb+\uqotkilima!k\jはけでみがく\[他動詞]+\\\verb+\uqotkilima!k\jブラシをかける\[他動詞]+\\\verb+\uqox!ka\j豚\[名詞]+\\\\\hspace*{2cm}(b)ウイグル語--日本語の対の辞書\\\hspace*{4cm}$\Downarrow$\\\end{minipage}\\\begin{minipage}{0.9\textwidth}\verb+<はけ,はけ,名詞,qotka>+\\\verb+<ブラシ,ぶらし,名詞,qotka>+\\\verb+<はけでみがく,はけでみがく,他動詞,qotkilima!k>+\\\verb+<ブラシをかける,ブラシをかける,他動詞,qotkilima!k>+\\\verb+<豚,ぶた,名詞,qox!ka>+\\\\\hspace*{2cm}(c)\verb+<日本語見出し語,読み,品詞,ウイグル語訳>+の4項組辞書\\\hspace*{4cm}$\Downarrow$\\\end{minipage}\\\begin{minipage}{0.9\textwidth}\begin{tabular}{llll}(日本語見出し語)&(読み)&(品詞)&(ウイグル語訳語)\\はけ&はけ&名詞&\verb+qotka+\\はけでみがく&はけでみがく&他動詞&\verb+qotkilima!k+\\豚&ぶた&名詞&\verb+qox!ka+\\ブラシ&ぶらし&名詞&\verb+qotka+\\ブラシをかける&ぶらしをかける&他動詞&\verb+qotkilima!k+\\\\\end{tabular}\\\hspace*{2cm}(d)日本語--ウイグル語辞書の一部\\\end{minipage}\\\rule{0.9\textwidth}{0.2mm}\caption{ウイグル語--日本語辞書から日本語--ウイグル語辞書への変換}\label{fig:convert}\end{center}\end{figure}ウイグル語--日本語電子辞書において,一つのウイグル語見出し語に複数の日本語訳が付されている場合もあるが,まず,これらをウイグル語と日本語訳語の対にした(図\ref{fig:convert}--(b)).これに,ウイグル語--日本語電子辞書に付加した品詞,および,漢字かな変換プログラムKAKASI\footnote{http://kakasi.namazu.org/}を利用して得た読み仮名を加え,4項組$<$日本語見出し語,読み,品詞,ウイグル語訳語$>$を自動的に作成した(図\ref{fig:convert}--(c)).さらに,これを読みでソートして,結果的に図\ref{fig:convert}--(d)のような形で日本語--ウイグル語辞書の基本を作成した.さらに,この4項組に対し,次の3点に注意しながら,人手による修正を加えた.\\\begin{enumerate}\item[1)]見出し語としての適切さ\item[2)]ウイグル語訳の妥当性\item[3)]読みの正しさ\end{enumerate}~1)は,訳語として適切に意味が表わされていても,それが必ずしも見出し語として適切ではないことによって生じる問題である.例えば,元になったウイグル語--日本語辞書においては\begin{center}\verb+\urixal!e\j卵白と砂糖で作ったお菓子.\[名詞]+\end{center}という項目があったが,日本語訳の「卵白と砂糖で作ったお菓子」は`rixal!e'の説明であり,「卵白と砂糖で作ったお菓子」の総称が`rixal!e'であるのではない.よって,日本語--ウイグル語辞書において「卵白と砂糖で作ったお菓子」という見出し語を設け,`rixal!e'をその訳語とするのは適切でない.また,例えば,\verb+<メロンの一種,めろんのいっしゅ,[名詞],!kari!kax>+のように「○○の一種」といった説明的な日本語訳も日本語--ウイグル語辞書の見出し語としては相応しくない.さらに,\verb+<清朝時代の新疆の県知事,しんちょうじだいのしんきょうのけんちじ,[名詞],ambal>+や宗教儀式の言葉の説明などもやはり日本語見出し語として不適切である.こうした不適切な日本語見出し語をもつ4項組を人手で除去した.次に2)のウイグル語訳の妥当性については,例えば,「音」という日本語見出しを持つ4項組には,\begin{verbatim}<音,おと,[名詞],a!hang>----(1)×<音,おと,[名詞],awaz>----(2)<音,おと,[名詞],sada>----(3)×<音,おと,[名詞],tawux>----(4)×\end{verbatim}\begin{table}\begin{center}\caption{日本語--ウイグル語電子辞書の見出し語数および平均対訳語数}\label{mytab:juwtab}\footnotesize\begin{tabular}{|l||r|r|r|r|r|r|r|r|r|r}\hline品詞&名詞&動詞&形容詞&サ変名詞&副詞&助数詞&感嘆詞&接続詞&合計\\\hline見出し語数&8,457&5,411&3,480&1,785&784&156&73&20&20,166\\\hline\parbox[c]{8zw}{ウイグル語への\\平均対訳語数}&1.51&1.60&1.68&1.31&1.76&1.47&1.71&1.55&1.56\\\hline\end{tabular}\end{center}\end{table}\begin{verbatim}<音,おと,[名詞],tiwix>----(5)\end{verbatim}\noindentの5つが現れるが,これらは,それぞれウイグル語--日本語辞書の次の項目\begin{verbatim}\ua!hang\j音,音調;調和,協調;口ぶり,語気\[名詞]\uawaz\j声,音,音量;叫び声;票,投票\[名詞]\usada\j音声,音,声\[名詞]\utawux\j声,音\[名詞]\utiwix\j音声,音\[名詞]\end{verbatim}\noindentから出てきている.しかし,a!hangは,ここちよい音(ye!kimli!k〜),きつい口調(k!eskin〜)のように音の調子を言う語であり,sadaは,歌声(nahxa〜si),拍手の音(al!kix〜si),民衆の声(ammining〜si)のように,声ないしは特定の音を意味する語である.また,tawuxは,母音(sozu!k〜),子音(!uz!uk〜),声帯(〜p!erdisi)のように人の声に関連した意味を持つ.これらはいずれも「音」という日本語に対する訳としては狭すぎて不適切であるので,上の(1),(3),(4)の4項組を削除した.同様にして,日本語見出し語に対して付けられたウイグル語訳の意味が不適切な場合には,日本語見出し語を修正するか,対応する4項組を人手で削除した.なお、上記1),2)で削除した4項組は約1,000個である。3)は,漢字表記の読みの曖昧さから生じる問題である.元のウイグル語--日本語辞書においては日本語訳に読みが付加されていなかったので,今回は漢字かな変換ソフトKAKASIを利用して自動的に読みを付加した.しかし,日本語には表記は同じでも読みが複数ある語があり,さらにその中には,読みが異なれば意味も異なる単語が多数存在する.そうした場合,対応するウイグル語訳も異なることになり,例えば,「額」の場合,「ひたい」と読めばそのウイグル語訳は`pixan!e'であるが,「がく」と読めば,額縁の意味の`jaza',あるいは金額の意味の`somma'をそのウイグル語訳として与えねばならない.そこで,ウイグル語訳の意味に合わせて日本語の見出し語の読みを人手で修正した.以上の作業の結果,語彙数約2万の日本語--ウイグル語電子辞書を作ることができた.\mbox{表\ref{mytab:juwtab}}に,日本語--ウイグル語電子辞書の品詞ごとの見出し語数および平均対訳語数を示した.この表の形容詞には,いわゆる日本語文法で言う形容詞,形容動詞,連体詞が含まれている.表\ref{mytab:ujwtab}のウイグル語--日本語辞書の場合と同様に,名詞,動詞,形容詞,サ変名詞で19,133語で,総見出し語数20,166語の94.88\,\%を占めている.また,日本語1単語あたりのウイグル語訳語数は,各品詞ごとの平均で1.31〜1.76語であり,全体の平均で1.56である.これは,本辞書の作成手続きからも推察されるように,ウイグル語--日本語辞書のウイグル語見出し語しか,日本語--ウイグル語辞書の訳語に出現しないことからも当然の結果とうなづかれよう.また,表\ref{mytab:ujwtab}の段階では32,330組のウイグル語--日本語訳の対があったが,表\ref{mytab:juwtab}の段階では31,392組の日本語--ウイグル語訳の対に減少している.この差の938組が,上述の操作の1),2)に関連する作業で不適切であるとして,削除されたものである. \section{日本語--ウイグル語辞書の翻訳システム用辞書への変換} label{section:for_majo}前章で作成した日本語--ウイグル語電子辞書は,データが電子化されてはいるが,そのままでは機械翻訳に用いることはできない.その意味では,前章で作成した辞書は,電子化された人間向けの日本語--ウイグル語辞書である.そこで,我々の機械翻訳システムで使用できるように,以下の手順で変換した.\\\begin{enumerate}\item動詞の語尾の削除\item形容詞の細分化\item動名詞の追加\item漢字表記と読みの分離\end{enumerate}\mbox{}\\我々の派生文法に基づく日本語--ウイグル語機械翻訳\cite{MT_SUMMIT2001}は,名詞接尾辞と動詞接尾辞の適切な変換\cite{MUH_OGA2001,MAJO}と形態素解析結果を逐語訳することを基本としており,この変換作業のキー・テクノロジーは,形態素解析システム用の適切な辞書を作ることにある.この作業は,前章までの手続きで作成した4項組に対して行なうことになるが,説明を簡単にするために,最初は読みの部分を無視した3項組で説明し,読みの部分の処理については最後に述べる.まず,使用する日本語形態素解析システムMAJO\cite{MAJO}の仕様に合わせ,動詞の語尾を削除した.その際,日本語見出し語は,MAJOで形態素解析して末尾の形態素を除去し,ウイグル語訳語は語尾(-ma!kもしくは-m!ek)を機械的に取り除いた.また,品詞についても,前章では自動詞,他動詞を区別したが,MAJOではこの区分は不要であり,その代りに語幹の末尾音素が母音か子音かで母音幹動詞か子音幹動詞かの区別を行なった.例えば,$<$調べる,他動詞,selixturma!k$>$を,$<$調べ,母音幹動詞,selixtur$>$\footnote{音韻処理に基づくMAJOでは,平仮名部分をローマ字表記に変換するため,実際には$<$調be,母音幹動詞,selixtur$>$と登録した.}と変換した.なお,「ブラシをかける」のように日本語では1形態素ではない語も最後の語尾を取り除き,$<$ブラシをかけ,母音幹動詞,qotkila$>$のように登録した.次に,形容詞と品詞付けされた単語を細分類し,それぞれに適切な品詞を与えた.今回の日本語--ウイグル語辞書における品詞は,原則として元となるウイグル語--日本語辞書において付加した品詞をそのまま使用した\footnote{動詞については上で説明したように,他動詞・自動詞の区分は無視し母音幹動詞・子音幹動詞という品詞を与えたが,動詞であることには変わりはない.}が,ウイグル語で形容詞と品詞付けした単語の日本語訳は,必ずしも日本語の形容詞とはならない.実際にウイグル語で形容詞とされた語の訳語として挙げられる日本語単語には,例えば,「白い」「静かな」「いわゆる」「空いた」「秋の」「意味のある」「意味のない」などの様々なパターンが存在する.日本語の見出し語としては,これらの単語の品詞を区別する必要があるため,動詞の場合と同様に日本語見出し語をMAJOで形態素解析し,その結果から以下のような品詞を付加した.\begin{description}\item[形状動詞]末尾の形態素が「い」で,その直前の形態素の品詞がMAJOによって形状動詞と判定された語\item[形状名詞]末尾の形態素が「な」で,その直前の形態素の品詞がMAJOによって形状名詞と判定された語\item[連体詞]1語の形態素から成り,その品詞が連体詞である語\item[修飾詞]以上のいずれにも分類されない語\end{description}ここで,形状動詞と形状名詞という呼称であるが,これは本研究の基礎となる派生文法における用語であり,それぞれ,日本語文法のいわゆる形容詞,形容動詞を指す.また,修飾詞という品詞は,機械翻訳のために追加した品詞である.この分類によって,上に例として挙げた単語については,「白い」「意味のない」は形状動詞,「静か」は形状名詞,「いわゆる」は連体詞,「空いた」「秋の」「意味のある」は修飾詞として辞書に登録した\footnote{形状動詞と形状名詞に関しては,動詞の場合と同様に末尾の語尾を取り除いて辞書に登録した}.次に,ここまでの段階の辞書では,見出し語として一部のサ変名詞について次のような問題があるので登録語を変更してそれを解決した.例えば,「合意する」は登録されているが,「合意」は登録されていなかったので,「合意する」は翻訳できるが「合意」は翻訳できないことになるという問題がある.これは,ウイグル語の「合意」に相当する`kelixix'が動詞`kelixm!ek'の語幹`kelix-'に名詞化接尾辞`-ix'が接続することによって合成された派生語であり,そのためベースとしたウイグル語--日本語辞書に見出し語として掲載されていなかったからである.そこで,こうした動詞に対しては,動詞語幹に`-ix'に後接させ,自動的に名詞形を作成し,これに動名詞という品詞を与えて辞書に登録した.すなわち,上記の例では,$<$合意,動名詞,kelixix$>$という項目を辞書に加えた.なお,その際に,$<$合意す,母音幹動詞,kelix$>$の項目の方は辞書から削除したので,辞書に登録された単語数自体は,この作業では変化しない.しかし,「合意する」を翻訳する場合には,名詞`kelixix'を動詞語幹`kelix-'に戻す操作が必要となるが,これは機械的に実現できる.それについては参考文献\cite{OGAWA2000}を参照されたい.最後に,漢字表記と読みをそれぞれ別の単語として登録した.形態素解析では,字面だけを見て解析するため,例えば「物」が辞書に登録してあっても「もの」は解析できない.そこで,見出し語の表記と読み仮名を別々に登録し,例えば,$<$物,もの,名詞,madda$>$に対しては$<$物,名詞,madda$>$と$<$もの,名詞,madda$>$を辞書に登録した.また,動詞・形状動詞・形状名詞の語尾も漢字表記に合わせて削除した.以上の結果,表\ref{table:judic_for_majo}に示した数の単語が機械翻訳システム用の辞書に登録された.表\ref{mytab:juwtab}に比べて単語数が増えているのは,仮名表記を登録したためであり,語彙数自体は約2万語のままである.登録した仮名表記は表\ref{mytab:juwtab}の合計見出し語数と表\ref{mytab:juwtab}の合計見出し語数の差の約16,000語である.ただし,見出し語を形態素解析する段階で,不適切な解析となったものについては手作業で修正をした.例えば,前章で作成した日本語--ウイグル語辞書には$<$息苦しい,自動詞,!kisilma!k$>$という組があったが,ここで「自動詞」という品詞が付加されているのは,ウイグル語の`!kisilma!k'が自動詞だからである.しかし日本語訳の「息苦しい」は動詞ではないため,そのままでは辞書に登録できない.そこで,`!kisilma!k'の語幹に連体修飾語とする語尾`-idig!an'を付加し,その品詞を「修飾詞」とした.よって,$<$息苦しい,自動詞,!kisilma!k$>$の場合は$<$息苦しい,修飾詞,!kisilidig!an$>$を辞書に登録した.今回の辞書作成では,このようにして登録した単語は20語あった.\begin{table}[tbp]\begin{center}\caption{機械翻訳システム用日本語--ウイグル語辞書の登録語数}\label{table:judic_for_majo}\footnotesize\begin{tabular}{|l||r|r|r|r|r|r|r|r|r|r|r|r|}\hline品詞&名詞&\parbox[c]{2em}{動名詞}&動詞&\parbox[c]{2em}{形状動詞}&\parbox[c]{2em}{形状名詞}&\parbox[c]{2em}{修飾詞}&副詞&\parbox[c]{2em}{助数詞}&\parbox[c]{2em}{感嘆詞}&\parbox[c]{2em}{接続詞}&\parbox[c]{2em}{連体詞}&合計\\\hline\parbox[c]{2em}{登録語数}&18,323&1,629&7,611&1,320&1293&4,099&1,375&294&110&26&22&36,102\\\hline\end{tabular}\end{center}\end{table}また,実際の機械翻訳には元のウイグル語--日本語辞書に掲載されていなかった助詞,動詞接尾辞などが必要となるが,それらについてはウイグル語の解説書を参考に人手で343語を登録した.よって現在のシステム用の辞書の収録語数は表\ref{table:judic_for_majo}の36,102語に人手で登録した単語を加えた36,445語である. \section{日本語--ウイグル語電子辞書の評価} label{section:hyoka}これまでに説明してきた一連の作業によってでき上がった日本語--ウイグル語電子辞書(以下日--ウ辞書と略記する)が,日本語--ウイグル語機械翻訳システムの実験用の辞書として,また日常普通に使う日本語--ウイグル語辞書としてどの程度満足できるかについて評価をしておくことは当然であろう.本論文で,著者らは2種類の評価を行なった.一つは,国立国語研究所が発表している「教育基本語彙」に対する収録率であり,もう一つはEDRコーパスの日本語テキスト文に含まれる出現頻度の高い単語に対する収録率である.前者は日本語の基本語彙と認められている語に対する収録率であり,後者は新聞記事や雑誌記事に高い頻度で出現する単語に対する収録率である.この評価では,第\ref{section:for_majo}章で作成した翻訳システム用の辞書(以下,システム用辞書と略記する)を用いて,単語が辞書に収録されているかどうかを自動的に判定した.この判定では,単純な字面の一致だけを見るため,例えば「何時も」と「いつも」のように同じ単語が別の形で記されていた場合にも,辞書に収録されていないと判定されてしまう.こうした語は,機械翻訳システム用の辞書においては未収録語として扱うべきであるが,人間が日常使う翻訳辞書として考えれば収録されていると見なしても良いであろう.そこで,以下では最初に翻訳システム用辞書における収録率と未収録語について検討した.一方で,未収録語のうち人間が使用する際には収録済みと見なすことができる語を調べ,第\ref{section:jidoseisei}章で作成した辞書を人間が通常用いる辞書として評価する際にはそれらを収録語と見なした.まず,国立国語研究所のデータに関する評価について述べる.国立国語研究所の「教育基本語彙データベース」\cite{KOKKEN}に含まれている6,104(2,071+4,033)語の内,どれぐらいがシステム用辞書に収録されているかを調べた結果,3,552個(58.20\,\%)の単語が含まれていることが分かった.ここで2,071+4,033と書いているのは,より基本的な語として「◎」印が付されたのが2,071語,その他の基本語として「○」印が付されたのが4,033語と,国語研の語彙データベースで二つに分けているので,そのように表わした.\begin{figure}[tbp]\begin{center}\fbox{\begin{minipage}{0.9\textwidth}\epsfile{file=graphcover.eps,width=0.9\textwidth}\end{minipage}}\\\caption{EDRコーパス上位頻度単語の日本語--ウイグル語辞書に含まれる割合}\label{myfig:cover}\end{center}\end{figure}第2の評価に関しては,我々は約21万文が入っているEDRコーパスの日本語テキスト文中の形態素の中から出現頻度の上位6,055語\footnote{ここで,6,055になっているのは基本語彙とされる国語研の「教育基本語彙データベース」の語彙数は6,103であり,それに準じて6,000前後の上位頻度語を選んだ結果である.}を選択し,その中でどれぐらいの数の単語が収録されているかを調べた.\mbox{}\\その結果,3,135個の単語(51.77\,\%)が我々が作成したシステム用辞書に収録されていた.単語の出現頻度は,コーパスに含まれる文の出典や文の選び方によって偏りが生じる可能性もあるが,第1の評価の結果と比較してEDRコーパスに関してはその偏りは全体の収録率に大きく影響する程ではないと言えよう.また,EDRコーパス出現頻度上位単語を500単位ずつ増していって,対する収録率をグラフにまとめて図\ref{myfig:cover}に示した.これらの評価1,2の結果は,基本語彙を6,000ベースで考えた時の単語の約半分が収録されていないが,国語研においてより基本的とされる語彙2,000語ベースで考えると,それぞれ国語研の2,071語(以下国語研データと略記する),EDRの上位頻出の2,056語(以下EDRデータと略記する)に対してシステム用辞書の収録率は,国語研データに対して79.19\,\%(1,640語),EDRデータに対して78.45\,\%(1,613語)である.そこで,我々は,未収録語(国語研データ20.81\,\%,EDRデータ21.55\,\%)に関して,その収録されなかった理由や現象を調査し,5種類の分類規準を決定し,その規準に基づいて収録されなかった単語の分類を行なった.その結果を付録\cite{JUDIC_APPENDIX}に示した.また,それを集約した結果を表\ref{mytab:nocov}にまとめた.\newcommand{\myitemA}[1]{}\newcommand{\myitemB}[1]{}\newcommand{\myitemC}[1]{}\newcommand{\myitemD}[1]{}\newcommand{\myitemE}[1]{}\newcommand{\kenum}[2]{}\newcommand{\tkenum}[2]{}\normalsize\begin{table}[p]\begin{center}\caption{未収録語の調査結果}\label{mytab:nocov}\small\normalbaselineskip=17pt\begin{tabular}{|l|l|@{}c@{}|@{}c@{}|l@{}|}\hline&種類&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{c|c}\begin{minipage}[c]{0.24\textwidth}現象\end{minipage}&\begin{minipage}[c]{0.24\textwidth}例\end{minipage}\\\end{tabular}}&対処方法\\\hline\myitemA{A}&\myitemB{形式上の違いの理由で含まれなかった単語\kenum{10}{44}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)表記の違いや送り仮名の違いによるもの.\kenum{9}{35}}&\myitemD{「何時も」,「贈り物」は日本語--ウイグル語辞書の見出しに入っていないが,「いつも」,「贈物」はその見出しに入っている.}\\\hline\myitemC{(2)日本語で,形容詞の語幹が形容動詞の語幹にもなるもの.\kenum{0}{3}}&\myitemD{ウイグル語の形容詞'illi!k'の訳語として,「暖かい」[形]は辞書にあるが,「暖かな」[形動]はない.\\\begin{minipage}[t]{0.24\textwidth}\tiny\setlength{\unitlength}{1mm}\begin{picture}(32,18)\put(0,15){ウイグル語}\put(26,15){日本語}\put(5,10){\oval(12,6)}\put(1,9){illi!k}\put(29,9.8){\oval(8,7)}\put(26.5,8){\shortstack{\tiny暖かい\\{[形]}}}\put(26.5,0){\shortstack{暖かな\\{[形動]}}}\put(11,10){\vector(4,0){14}}\put(11,10){\vector(2,-1){14}}\end{picture}\\\mbox{}\end{minipage}}\\\hline\myitemC{(3)日本語の動詞で,その意味がウイグル語では形容詞で表されるもの,または逆に,日本語では形容詞で,その意味がウイグル語では動詞で表されるもの.\kenum{1}{6}}&\myitemD{「込む」は,動詞であるが,そのウイグル語訳である\\`besi!k'(込んでいる)は形容詞である.\\「痛い」は,形容詞であるが,そのウイグル語訳である\\`a!grima!k'は動詞である.}\end{tabular}}&\myitemE{これらの単語に対しては機械的処理を行なうことにより,辞書に追加できると考えられる.}\\\hline\myitemA{B}&\myitemB{元のウイグル語--日本語辞書で,日本語の訳付が不充分と考えられる単語\kenum{168}{205}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)同じ概念の違った表現.\kenum{15}{26}}&\myitemD{「米国」と「アメリカ」,\\「火曜」と「火曜日」など.}\\\hline\myitemC{(2)その単語の類似語が辞書に存在するもの.\kenum{42}{58}}&\myitemD{「辺り」対して「周り」,\\「危ない」に対して「危険な」など.}\\\hline\myitemC{(3)元のウイグル語--日本語辞書でウイグル語に語義が複数あるのに,その一部が落ちているもの.\kenum{95}{78}}&\myitemD{\tiny\setlength{\unitlength}{1mm}\begin{picture}(33,16)\put(0,14){ウイグル語}\put(26,14){日本語}\put(4,6.5){\oval(10,6)}\put(0,6){eqilma!k}\put(9,7){\vector(3,0){12}}\put(30,6.5){\circle{6}}\put(22,6){(門が)開く}\put(22,0){(花が)咲く}\put(9,7){\vector(2,-1){12}}\end{picture}}\\\end{tabular}}&\myitemE{ウイグル語--日本語辞書の編集時にできるだけ多くの訳語を入れる.}\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{table}[p]\addtocounter{table}{-1}\begin{center}\caption{未収録語の調査結果(続き)}\small\normalbaselineskip=17pt\begin{tabular}{|l|l|@{}c@{}|@{}c@{}|l@{}|}\hline&種類&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{c|c}\begin{minipage}[c]{0.24\textwidth}現象\end{minipage}&\begin{minipage}[c]{0.24\textwidth}例\end{minipage}\\\end{tabular}}&対処方法\\\hline\myitemA{}&\myitemB{}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(4)ウイグル語--日本語辞書の編集時に,複数の品詞を持つウイグル語に対して品詞の付け忘れがあったもの.\kenum{15}{28}}&\myitemD{ウイグル語の形容詞の`!kizil'\\(赤い)は名詞の場合もあるが,[名詞]という品詞を付けなかった.\\\begin{minipage}[t]{3.2cm}\tiny\setlength{\unitlength}{1mm}\begin{picture}(32,18)\put(0,15){ウイグル語}\put(26,15){日本語}\put(5,10){\oval(12,6)}\put(2,9){!kizil}\put(29,10.4){\oval(8,7)}\put(27,8){\shortstack{赤い\\{[形]}}}\put(27,0){\shortstack{赤\\{[名]}}}\put(11,10){\vector(4,0){14}}\put(11,10){\vector(2,-1){14}}\end{picture}\end{minipage}\\\mbox{}}\\\hline\myitemC{(5)日本語の丁寧語,尊敬語,謙譲語などの待遇表現.\kenum{1}{15}}&\myitemD{「参る」,「おっしゃる」,\\「いただく」など.}\\\end{tabular}}&\myitemE{}\\\hline\myitemA{C}&\myitemB{ウイグル語訳が一語で表せない単語.\kenum{191}{151}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)ウイグル語訳が派生語であるもの.\kenum{28}{9}}&\myitemD{\setlength{\unitlength}{1mm}\begin{picture}(33,16)\put(-1,5){「従来」}\put(18,5){{\bf!esli}{$\cdot$}d!e}\put(11,6){\vector(3,0){6}}\end{picture}}\\\hline\myitemC{(2)ウイグル語訳が2語以上の組合せからなる複合語であるもの.\kenum{150}{130}}&\myitemD{\setlength{\unitlength}{1mm}\begin{picture}(33,16)\put(-2,9){「握手」}\put(15,6){\shortstack{!kol\elixma!k\\手\\取り合う}}\put(9,10){\vector(3,0){5}}\put(-2,1){「彼処」}\put(15,-2){\shortstack{awu\\\\y!er\\あの\\\ところ}}\put(9,2){\vector(3,0){5}}\end{picture}}\\\hline\myitemC{(3)その語をウイグル語に訳す時,言い換えや語順の変更が必要になるもの.\kenum{10}{11}}&\myitemD{「...過ぎ」[接尾]$\longrightarrow$\\!h!eddidinoxu!k...(限度を超えて...)}\\\hline\myitemC{(4)その日本語を含む連語をウイグル語に訳すもの.\kenum{3}{1}}&\myitemD{「一緒」$\longrightarrow$...と{\bf一緒}に\\$\longrightarrow$...bil!enbill!e\\\\しれ$\longrightarrow$かも{\bfしれ}ない\\$\longrightarrow$...m!umkin\\\mbox{}}\\\end{tabular}}&\myitemE{辞書に新たに登録する.}\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{table}[p]\addtocounter{table}{-1}\begin{center}\caption{未収録語の調査結果(続き)}\small\normalbaselineskip=17pt\begin{tabular}{|l|l|@{}c@{}|@{}c@{}|l@{}|}\hline&種類&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{c|c}\begin{minipage}[c]{0.24\textwidth}現象\end{minipage}&\begin{minipage}[c]{0.24\textwidth}例\end{minipage}\\\end{tabular}}&対処方法\\\hline\myitemA{D}&\myitemB{その日本語単語のウイグル語訳が元のウイグル語--日本語辞書から,何らかの理由で外れた単語\kenum{65}{8}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)技術的用語.元の辞書ができた時点で,まだ使われていなかったか,技術的な用語との理由で外れた単語.\kenum{26}{1}}&\myitemD{「テレビ」,「アプリケーション」,「エイズ」など.}\\\hline\myitemC{(2)現代用語に含まれると考えられる固有名詞.\kenum{31}{0}}&\myitemD{「リクルート」,「ゴルバチョフ」,「IBM」など.}\\\hline\myitemC{(3)普通に使われるウイグル語であるが,たまたま元のウイグル語--日本語辞書の見出し語から外れたと考えられるもの.\kenum{1}{4}}&\myitemD{「人形(!koqa!k)」,「もしもし(w!ey)」など.}\\\hline\myitemC{(4)ウイグル語では接尾辞として訳されるもの.\kenum{7}{3}}&\myitemD{「...的」,「...性」,「...目」など.}\\\end{tabular}}&\myitemE{辞書に新たに登録する.}\\\hline\myitemA{E}&\myitemB{その概念がウイグル語の複合語や句で表すことのできない単語.\kenum{9}{23}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)その概念が元々ウイグル語にない単語.\kenum{6}{18}}&\myitemD{「昭和」,「畳」,「神社」など.}\\\hline\myitemC{(2)総称としての概念が,ウイグル語にはない単語.\kenum{1}{3}}&\myitemD{「親」,「親子」,「菓子」など.}\\\hline\myitemC{(3)対応する語法がウイグル語には存在しないもの.\kenum{2}{2}}&\myitemD{「お」[接頭語],「ご」[接頭語].}\\\end{tabular}}&\myitemE{}\\\hline\hline合計&\multicolumn{4}{@{}l@{}|}{\myitemB{\mbox{}\kenum{443}{431}}}\\\hline\end{tabular}\end{center}\end{table}\subsection{分類規準}\label{subsection:kijun}日--ウ辞書の見出し語に採録されなかった単語を大きく5種類に分類し,その理由ないしは現象を以下に説明する.\vspace{0.2cm}A)形式上の違いの理由で収録されなかった単語これらは,形式的な違いだけの理由でシステム用辞書に含まれなかったが,人間が利用する際には簡単に参照可能であり,語彙としては含まれていると考えられるものである.ここで形式的な違いというのは,表記の違いと品詞付けの違いであり,次のように3つに細分類される.(1)漢字表記と仮名表記の違いと送り仮名の違い.国語研では,「何時も」と表記され,日--ウ辞書では「いつも」と表わされる場合である.(2)日本語では形容詞と形容動詞が区別されていることに起因する違い.国語研データでは,形容詞「暖かい」と形容動詞「暖かな」の両方が基本語彙とされていた.しかし,ウイグル語の形容詞`illi!k'の訳語としては「暖かい」はあっても「暖かな」はなかったため,逆辞書においても「暖かな」の見出し語はないとされた.しかし,この二つは語彙としては同じであり,日本語の「暖か」が形容詞の語幹にも形容動詞の語幹にもなりえるために片方が収録されていないと判定されたのである.(3)動詞による表現と形容詞による表現の違い.例えば,日本語の動詞「込む」はウイグル語では形容詞`besi!k(込んでいる)'に相当し,また,日本語の形容詞「痛い」はウイグル語では動詞`a!grima!k(痛む)'と表わされる.このように,日本語では動詞とされる語に対応するウイグル語が形容詞であったり,また,その逆に,日本語では形容詞とされる語に対応するウイグル語が動詞であるような場合である.付録\cite{JUDIC_APPENDIX}では,これらの3つの場合をA1,A2,A3の種類として分類し,備考欄には,その根拠を示す語を示している.\\B)ウ--日辞書の日本語訳付けが不十分なことが理由で収録されなかった単語ウ--日辞書\cite{UJDIC}は,ウイグル語--中国語辞書\cite{UHDIC}を日本語に翻訳して作られているので,間接的な訳付けに基づく意味の欠落や歪みがあったり,ウイグル語単語の意味が十分理解されないまま訳付けされていたりする場合がある.また,ウ--日辞書\mbox{\cite{UJDIC}}は,日本語を母語とする人を対象にしたため,ウイグル語単語の日本語訳の表現がいくつかあっても,その中の一部だけを訳語にしている場合が見られる.例えば,ウイグル語の単語`h!et!erlik'の訳としては,「危険な」や「危ない」が考えられるが,辞書には「危険な」だけが採録されていた.このような理由で訳語が欠落すると,本論文の方法で辞書を生成する場合には,見出し語として収録されないことになる.このような場合に対処するには,ウ--日辞書を整備する段階で,できるだけ多くの日本語訳を付しておくことである.このクラスに属する単語は,国語研では205語,EDRでは168語である.しかし,人間が利用する場合を考えれば,「危険な」のウイグル語訳があれば「危ない」という語のウイグル語訳にもそれを使うことができ,そうした観点からは,このクラスに入る単語は,A)に属する単語と同様に,第\ref{section:jidoseisei}章で作成した人間用の辞書には,実質上,含まれていると考えてもよいであろう.このB)に属する単語はさらに次の5つに細分類される.(1)表現は異なっているが同じ概念の語が辞書に存在する場合.例えば,「米国」と「アメリカ」,「火曜」と「火曜日」のように,前者は辞書にないが,それと同じことを表わしている後者が辞書にある場合である.(2)類似語が辞書に存在する場合.例えば,「辺り」に対して「周り」,「危ない」に対して「危険な」のように,前者は,辞書に入っていないが,類似語の後者が入っている場合である.(3)ウイグル語単語に複数の語彙があるのに,ウ--日辞書ではその一部が落ちているために,日-ウ辞書に収録できなかった場合.例えば,`eqilma!k'には「門が開く」の「開く」と「花が咲く」の「咲く」という語義があるが,「咲く」という語義が付されていなかったので,「咲く」が収録されなかったというような場合である.(4)ウ--日辞書編集時に複数の品詞を持つウイグル語に対して品詞の付け忘れがあった場合.例えば,`!kizil'は,「赤い」と「赤」のように形容詞と名詞の2つの品詞を持つが,[形容詞]とだけ品詞付けをしたので,名詞の「赤」という語が収録できなかったような場合である.(5)日本語の丁寧語・尊敬語・謙譲語などの待遇表現で,それが意味することを表わす通常の語が辞書に存在する場合.例えば,「お父様」「参る」は辞書にないが,「お父さん」「行く」はあるような場合である.付録\cite{JUDIC_APPENDIX}の表では,これらの5つの場合をB1,B2,B3,B4,B5の種類として分類し,その根拠になる語を備考欄に示した.\\C)日本語のウイグル語訳が一語で表わせないことが理由で収録されなかった単語このクラスに属する日本語単語にウイグル語訳を付けようとすると,派生語もしくは複合語として表現せざるを得ない場合である.このような現象は,日本語--ウイグル語のみならず,他言語間の辞書作成時にも当然現れる.これらの単語については,例えば辞書の用例部分から獲得するか,人手によって新たに登録する必要がある.このクラスに属する単語は,次の4つに細分類される.(1)ウイグル語訳が派生語である場合.例えば,日本語の「従来」が`{\bf!esli}$\cdot$d!e'と,`!esli'の派生語と表わされるような場合.(2)ウイグル語訳が2語以上の組み合わせからなる複合語である場合.例えば,「握手」が`!kolelixma!k'のように,`!kol(手)'と`elixma!k(握る)'の複合語として表わされるような場合である.(3)ウイグル語訳をするときに,言い換えや語順の変更が必要になる場合.例えば,``食べ過ぎ''の「〜過ぎ」は`!h!eddidinoxu!k~(yem!ek)'(限度を超えて〜する(食べる))のように訳す.(4)その日本語単語単独でなく,それを含む連語をウイグル語に訳す場合.例えば,「一緒」は,「〜と{\bf一緒}に」のような連語として考え,それを訳して`〜bil!enbille'とするような場合である.付録\cite{JUDIC_APPENDIX}では,これらの4つの場合をC1,C2,C3,C4の4つの種類に細分類し,C1の場合には,備考欄に派生語がどのように分解されるかを示している.また,C4の備考欄には,その単語を含む連語を示している.\\D)その日本語単語に相当するウイグル語単語が何らかの原因でウ--日辞書の見出し語から外れたために収録されなかった単語基礎としたウ--日辞書\cite{UJDIC},すなわち,そのもとのウイグル語--中国語辞書\cite{UHDIC}を作った時に,その単語に相当するウイグル語単語が,何らかの原因でその見出し語から外れたために収録されなかった場合である.このグループに属する単語の数については,国語研データ8語,EDRデータ66語とはっきりした差がある.これは,EDRデータでは,技術用語や現代用語に現れる固有名詞が多く出現していたためである.必要ならばこれらの単語は人手で登録するより他にない.このクラスに属する語は,その原因別に次のように4つに細分類される.(1)技術用語で元のウ--日辞書が作られた時にまだ使われていなかったか,技術用語との理由で外れた単語.例えば,「テレビ」,「アプリケーション」,「エイズ」などである.(2)現代用語に含まれると考えられる固有名詞.例えば,「リクルート」,「ゴルバチョフ」,「IBM」,「中曽根」などである.(3)普通に使われるウイグル語であるが,たまたま元のウ--日辞書の見出し語から外れた単語.例えば,「人形(!koqa!k)」,「もしもし(w!ey)」などである.(4)ウイグル語では接尾辞として訳される単語.元のウ--日辞書には,接尾辞は登録されていなかったために,ウイグル語では接尾辞として訳される日本語単語は採録されなかったものである.例えば,「君」「的」「性」「目」などである.付録\cite{JUDIC_APPENDIX}では,これらの語をD1,D2,D3,D4と分類し,このクラスに属する単語に対して,ウイグル語訳が付けられる場合には,それを記してある.\\E)その概念をウイグル語の複合語や句で表わすことのできない単語日本語単語が表わす概念がウイグル語にはなく,ウイグル語の複合語や句で表現することができない場合である.このように,一方の言語の単語が表わす概念を他方の言語で簡潔に表現できない問題はどのような言語間でも存在する.このクラスの単語が,国語研データの方で多く見られるのは,EDRデータには新聞や雑誌での高頻出語が含まれるのに対して,国語研データには日本語特有の語彙を収録しているためと考えられる.これらの単語を登録する場合,人間用の辞書であれば,例文などを添えながら説明を書くことになる.システム用の辞書であれば,日本語の読みをそのまま登録するか,E3の場合には何も訳出しないことになる.このクラスに属する単語は,次の3つに細分類される.(1)概念がウイグル語にない単語.例えば,「昭和」「畳」「神社」などである.(2)総称として概念がウイグル語にない単語.例えば,「親」「親子」「菓子」などである.ウイグル語で「親」は「父と母(ata-ana)」と表わされ,「親子」は「父子(ata-bala)」もしくは「母子(ana-bala)」としか表現できない.(3)対応する語法がウイグル語には存在しない場合.例えば,「お食事」の「お」,「ご挨拶」の「ご」などである.\subsection{分類規準の妥当性と分類結果の検討}\label{subsection:kento}前節では,我々の日--ウ辞書の見出し語として未収録となった原因をA〜Eまで大きく5つに分類し,さらにそれらを細分類して,A1〜A3,B1〜B5,C1〜C4,D1〜D4,E1〜E3の全部で19の規準を与えた.この結果は表\ref{mytab:nocov}にまとめられた通りである.国語研の教育用基本語彙は学習者に日本語教育をする上で基本的と見なされるものとされており,一方,EDRコーパスの日本語文の高頻度出現の語彙は,新聞などから抽出されたものであり,以下にも述べるように,これらは性質の異なったソースと考えられる.これらの2つの異なった語彙集合のいずれについても,未収録語は上の規準に従って無理なく分類ができ,しかも,未収録の原因のいずれについても,それぞれどのように対処すればよいかをそれ自身が示している.この意味で,\ref{subsection:kijun}で示した分類規準は妥当であると考えられる.次に,この規準に従って,2,000語ベースの国語研データ,EDRデータの未収録語を分類した結果について検討する.まず,A1〜E3までの理由ごとに,未収録語数を示すグラフを図\ref{myfig:uncover}に示す.この図\ref{myfig:uncover}と表\ref{mytab:nocov}を見ると,次のような特徴が分かる.\\\mbox{}\begin{figure}[tbp]\begin{center}\epsfile{file=graphuncover.eps,width=0.9\textwidth}\caption{日本語--ウイグル語辞書の未収録語の分布}\label{myfig:uncover}\mbox{}\end{center}\end{figure}\noindent{\bf国語研データとEDRデータの共通的特徴}\\1.未収録語数は,国語研データでは431語(431/2,071=20.81\,\%),EDRデータでは443語(443/2,056=21.55\,\%)で,共に約20\,\%である.2.種類B,Cに属する語が未収録語の主要部分を占めており,国語研データでは205(B)+151(C)=356語(356/431=82.60\,\%),EDRデータでは168(B)+191(C)=359語(359/443=81.04\,\%)で,共に未収録語全体の約80\,\%である.\\\noindent{\bf国語研データとEDRデータの対照的特徴}\\3.種類Dに属する語は,国語研データでは8語であるのに対して,EDRデータは66語で,約8倍である.D1〜D4に細分してもD3を除いてこの傾向は変わらない.これは,EDRデータが技術的な用語や時代を反映した現代用語的な語彙を多数含んでいることから自然な結果である.D3は本来辞書にあるのが当然の語彙である.4.種類Eに属する語は,国語研データでは23語であるのに対して,EDRデータは9語であり,3分の1余りである.これは,国語研データが,教育上基本的であるとして選定されたもので日本語特有の概念を含むことになると考えることができよう.5.種類Aについては,国語研データでは44語,EDRデータは10語である.種類A1,A2は,表記の規準化(送り仮名の統一,語幹が同じである形容詞・形容動詞の処理など)によってほとんど解消されると考えられる.以上,未収録語の分類結果を検討し,1.〜5.が観察された.既に述べたように,種類Aおよび種類Bに属する語は,人間用の辞書としては収録されていると見なせるであろう.種類Aと種類Bに属する語を合計すると,国語研データでは249語,EDRデータでは178語である.これらは,2,000語ベースで収録されなかったそれぞれの語数431語(国語研),443語(EDR)の57.77\,\%,40.18\,\%である.よって,第\ref{section:jidoseisei}章で作成した辞書は2,000語ベースで考えれば,それぞれ91.21\,\%,87.11\,\%の収録率をもつと見なせる.その意味では,本論文の自動的に生成した日--ウ辞書が当初の目的を達成していることを示していると考えてもよいであろう.また,3.,4.に見るように,国語研データとEDRデータとでは対照的であり,これは何を基本語彙とするかに依存するところである.生活習慣や社会習慣が異なれば語彙も異なる.また,次々に現れる現代用語を辞書見出し語にするのは難しい.このように見ると種類D,Eの語があることは我々が作成した辞書のような場合には決定的な欠点にはならないとしてもよいであろう.一方で,種類Cの語数は,国語研データ151語,EDRデータ191語であり,2,000語ベースで考えれば,それぞれ7.29\,\%,9.29\,\%である.種類C,即ち,ウイグル訳が一語で表現できない場合には,ウ--日辞書中の例文の中から対訳を抽出して登録したり,人手で新たに辞書登録するなどの作業が必要であり,今後の課題でもある.現在,ウ--日辞書中の例文の中から抽出した訳語を人手でチェックしている段階である. \section{まとめ} label{section:owari}本論文では,実用に近い日本語--ウイグル語機械翻訳システムの実現の目的で,少なくとも日常使われる最低限の語彙を含む日本語--ウイグル語辞書の開発を目標に,既存の語彙数約16,000語のウイグル語--日本語辞書\cite{UJDIC}から,できるだけ自動的な手順,作業で語彙数約20,000語の日本語--ウイグル語辞書を開発したプロセスについて説明し,その成果として得られた日本語--ウイグル語辞書の収録語の分析を行なった.その結果,機械翻訳システム用の辞書に関し,国立国語研究所の教育基本語彙データベース\cite{KOKKEN}における,より基本的な語彙2,071語に対する収録率が約79\,\%,また,EDRコーパスの約21万の日本語文から抽出した出現頻度上位2,056語に対する収録率が約78\,\%であった.また,\ref{subsection:kento}節で述べた観点から人間が利用する辞書として考えれば,それぞれ,91\,\%,87\,\%の収録率であった.このように,所期の目標の日本語--ウイグル語翻訳のための辞書を得ることができた.次に,表\ref{mytab:nocov}に整理した未収録語の分類規準は,本研究の場合だけでなく,一般に,日本語から他の言語への翻訳辞書の評価の場合にも適用できると考えられる.日本語からの,と制限しない場合で,任意の言語間の翻訳辞書作成の場合でも,その枠組みは利用可能である.さらに,本研究の日本語--ウイグル語辞書の場合と同様に例えばトルコ語--日本語辞書はあるが,日本語--トルコ語辞書がないときに,それを生成をする場合に,本研究で採用した逆辞書を作るという手順を用いるアプローチはコストと時間の視点から有効な手段を提供すると考えられる.本研究で日常使われる最低限の語彙を含む日本語--ウイグル語辞書ができたので,引き続いてこれを用いて実用に近い日本語--ウイグル語機械翻訳システムの実現を計りたい.その際に,種々の形で辞書の充実が必要になるであろうが,語彙の追加の他に,例えば,専門用語や外来語に対する対処,あるいは日本語固有の概念を表わす単語に対する対処の仕方など,場合に応じた工夫も必要になろう.\bibliographystyle{jnlpbbl}\bibliography{judicj}\begin{biography}\biotitle{略歴}\bioauthor{ムフタル・マフスット}{1983年新疆大学数学系卒業.1996年名古屋大学大学院工学研究科情報工学専攻博士課程満了.同年,三重大学助手.2001年より,名古屋大学助手.工学博士.自然言語処理に関する研究に従事.人工知能学会,情報処理学会各会員.}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.2000年同大学院工学研究科情報工学専攻博士課程後期課程修了.同年より,名古屋大学助手.自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{杉野花津江}{1961年愛知学芸大学数学科卒業.1965年より名古屋大学工学部助手.1997年〜2003年3月まで同大学院工学研究科助手.現在,同大学院情報科学研究科臨時補助員.オートマトン・言語理論,確率オートマトン,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{稲垣康善}{1962年名古屋大学工学部電子工学科卒業.1967年同大学院博士課程修了.同大助教授,三重大学教授を経て,1981年より名古屋大学工学部・大学院工学研究科教授.2003年4月より同大学名誉教授,愛知県立大学情報科学部教授.工学博士.この間,スイッチング回路理論,オートマトン・言語理論,計算論,ソフトウエア基礎論,並列処理論,代数的仕様記述法,人工知能基礎論,自然言語処理などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会(現在副会長),人工知能学会,日本ソフトウエア科学会,IEEE,ACM,EATCS各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V10N01-03
\section{はじめに} 文書データベースから必要な文書を検索する場合,対象となる文書を正確に表現する検索式を作成する必要がある.しかし正確な検索式を作成するためには,検索対象となる文書の内容について十分な知識が必要であり,必要な文書を入手する前の検索者にとって適切な検索式を作成するのは難しい.レレバンスフィードバックはこの問題を解決する手法であり,システムと検索者が協調して検索式を作成することで,検索者にとって容易かつ高い精度で文書検索を行う手段である.検索者はまず初期の検索条件を与え,この検索条件により検索される文書からシステムが特定のアルゴリズムに従ってサンプル文書を選択する(本稿ではこの選択アルゴリズムをサンプリングと呼ぶ).サンプル文書から検索者が必要文書と不要文書を選択すると,選択された文書からシステムが自動的に検索条件を更新し,検索を行う.この検索結果に対してシステムによるサンプリング,検索者による選択,再検索が繰り返される.この選択による検索条件の更新がレレバンスフィードバックであり,検索結果について必要文書と不要文書を選択することで,利用者は容易に必要文書を収集することができる.また,この選択--検索のプロセスを繰り返すことで,検索条件がより検索者のニーズを反映したものとなるとともに,検索者は検索要求に適合する文書をより多く入手することができる.レレバンスフィードバックの検索精度はサンプリング手法によって異なる.通常のレレバンスフィードバックでは最も検索条件に適合すると考えられる文書をサンプル文書とする(本稿ではこの手法を「レレバンスサンプリング」と呼ぶ).これに対してLewisらはuncertaintyサンプリングを提案している\cite{bib:DLewis}.これは文書のうち必要であるか不要であるかを最も判定しにくいものをサンプルとする手法で,レレバンスサンプリングよりも高い検索精度が得られると報告されている.これらサンプリング手法は検索結果の上位から順に(レレバンスサンプリング),ないし必要文書と不要文書の境界と推定される文書,およびその前後の順位の文書(uncertaintyサンプリング)をサンプル文書として選択する.このため検索条件との適合度により順位付けされた検索結果のうち,適合度がある範囲にある文書からサンプルが選択される.比較的類似した文書は同じ検索条件との適合度が類似した値となる傾向があることから,これらサンプリング手法は複数の類似した文書をサンプルとして選択する可能性が高い.この問題点に対処するため,筆者はunfamiliarサンプリングを提案する.unfamiliarサンプリングはレレバンスサンプリングおよびuncertaintyサンプリングを改良する手法であり,既存のサンプル文書と類似した文書がサンプルとして追加されないように,サンプル選択の際に既存のサンプルと文書間距離が近いサンプルを排除する.この改良により,選択されるサンプル文書はよりバラエティに富んだものとなり,複数の類似した文書がサンプルとして用いられる場合に比べて検索精度の向上が期待できる.レレバンスフィードバックを用いた文書検索を行う場合,検索者が多くの文書について必要ないし不要の判定をすることは考えにくいので,少数のサンプル文書で高い精度を得ることが重要になる.近年,文書検索や文書分類を高い精度で実現する手法としてAdaBoostがよく用いられる\cite{bib:Boost}.AdaBoostは既存の分類アルゴリズム(弱学習アルゴリズム)を組合せることでより精度の高いアルゴリズムを生成する手法であるが,決定株,ベイズ推定法を弱学習アルゴリズムとして用いる場合,サンプル文書が少ない場合にはRocchioフィードバックに劣る精度となることが知られている\cite{bib:Boost_and_Rocchio,bib:Yu}.本稿ではRocchioフィードバックを弱学習アルゴリズムとして用いる例(Rocchio-Boost)を示し,実験により少数のサンプル文書でも高い検索精度を実現することを示す.次章以降の本稿の構成は次の通りである.2章で既存のレレバンスフィードバック技術であるRocchioフィードバックについて述べ,3章ではAdaBoostのRocchioフィードバックへの適用について述べる.4章で既存のサンプリング手法であるレレバンスサンプリング,uncertaintyサンプリングについて述べ,5章で提案手法であるunfamiliarサンプリングについて述べる.6章で実験に用いたNPLテストコレクションおよび実験手法について述べる.7章で実験結果とその考察について述べ,8章で本稿のまとめを述べる. \section{従来のレレバンスフィードバック技術} \label{sec:jyuurai}本章ではレレバンスフィードバックを実現する標準的な手法であるRocchioフィードバックアルゴリズムについて述べる.Rocchioフィードバック\cite{bib:Rocchio}はベクトル空間法とTF/IDF法\cite{bib:Salton}を用いた文書検索システムにおいて,レレバンスフィードバックを実現する.Rocchioフィードバックは検索要求文とその要求に適合するかどうか判定された文書(サンプル文書)を入力として,検索要求を表すベクトルを出力する.作成されたベクトルと検索対象となる文書のベクトルの内積が,文書と検索要求文との関連度を示す.ベクトル空間法\cite{bib:Salton}は文書や検索要求文をベクトル空間上のベクトルとして表現する.このベクトルは文書および文中の単語が持つ重要性を示す``重み''を要素として持つ.TF/IDF法は,文書データベース中の少数の文書に数多く登場する語を重要な語として扱い,大きな重みを与えることで語の``重み''を決定する\cite{bib:Salton,bib:Umino,bib:Buckley}.本稿ではTF/IDF法の一つである{\itltc-lnc}手法について述べる\cite{bib:Buckley5}.{\itltc-lnc}手法は検索要求文,サンプル文書については{\itltc}手法により単語の持つ重みを計算することでベクトルを作成し,検索対象文書については{\itlnc}手法によって同様にベクトルを作成する.{\itltc}手法は以下の式により単語の重みを計算する.\\文ないし文書$d_{j}$中の単語$t_{i}$の重み$w_{i,j}$は,文ないし文書$d_{j}$中に単語$t_{i}$が出現する回数$f_{i,j}$(TermFrequency,$\:$TF)および単語$t_{i}$が出現する文書データベース中の文書数$n_{i}$の逆数(InvertedDocumentFrequency,$\;$IDF)を用いて以下の式により計算される\cite{bib:Buckley}.\[w_{i,j}=\frac{(\log(f_{i,j})+1.0)*log(\frac{|DB|}{n_{i}})}{\sqrt{\sum_{k=1}^{N}{(\log(f_{k,j})+1.0)*log(\frac{|DB|}{n_{k}})}^2}}\label{eqn:tf-idf}\]なお$|DB|$は文書データベース中の文書総数である.{\itlnc}手法は以下の式により単語の重みを計算する.\[w'_{i}=\frac{(\log(f_{i})+1.0)}{\sqrt{\sum_{k=1}^{N}{(\log(f_{k})+1.0)}^2}}\]Rocchioフィードバック\cite{bib:Rocchio}は検索要求文およびサンプル文書のベクトルを用いて以下の式により検索者の意図を反映したベクトルを作成する.検索要求文のベクトルを$v_q$,提示した文書中から検索者が選択した必要文書$num_{rel}$件の持つベクトルの和を$v_{rel}$,検索者が選択しなかった文書(不要文書)$num_{nonrel}$件の持つベクトルの和を$v_{nonrel}$としたとき,新たなベクトルは\[v=\alphav_{q}+\frac{\betav_{rel}}{num_{rel}}-\frac{\gammav_{nonrel}}{num_{nonrel}}\]となる.ここで$\alpha,\beta,\gamma$は定数(本稿では各々16,32,8とした),また重みが負の値となる語は用いない.得られたベクトルと検索対象となる文書のベクトルの内積値が,検索要求に対する文書の関連度を表す.関連度が高い文書は必要文書に,関連度の低い文書は不要文書に分類されたと考えることができるため,Rocchioフィードバックは必要ないし不要の判定がされたサンプル文書を学習例として,未知の文書について必要ないし不要の判定をする分類学習アルゴリズムと考えられる.また内積値の大きさが必要文書に分類される確からしさを表していると考えられる. \section{Rocchio-Boost} AdaBoostはランダム予測より良い予測を行う学習アルゴリズム(弱学習アルゴリズム)を組み合わせることで,より高精度な予測を行う強学習アルゴリズムを構成するアルゴリズムであり,多くの実験結果から既存の分類学習アルゴリズムを弱学習アルゴリズムとして得られる強学習アルゴリズムは,従来の分類学習アルゴリズムに比べて高い性能が得られることが示されている\cite{bib:Boost}.AdaBoostの特徴は学習例に重みを付け,弱学習アルゴリズムでは学習が難しい学習例の重みを相対的に増加させることで,難しい例に適応した学習結果を得ること,また重み付きの学習例に対する学習の正確さを評価し,その正確さに応じた重みを付けて各学習結果を結合して強学習アルゴリズムを得る点にある.AdaBoostは多くの実験によりその効果が確認されているが,得られる強学習アルゴリズムの性質は弱学習アルゴリズムの性質に強く依存する.レレバンスフィードバックへの適用例として決定株,ベイズ推定を弱学習アルゴリズムとする手法が提案されているが,十分な数の学習例が得られる場合にはRocchioフィードバックより優れた精度が得られるものの,決定株,ベイズ推定は学習例が少ない場合には良好な精度が得られないため,これらを弱学習アルゴリズムとするAdaBoostは少ない学習例ではRocchioフィードバックに劣る精度となることが報告されている\cite{bib:Boost_and_Rocchio,bib:Yu}.これら結果は逆に,Rocchioフィードバックが少数の学習例でも良好な精度を示すと捉えることができる.Rocchioフィードバックによる検索対象文書の順位付けは文書を必要文書ないし不要文書に分類していると考えることができるため,Rocchioフィードバックを弱学習アルゴリズムとして用いることもできる.Rocchioフィードバックは少ない学習例でも比較的良好な精度が得られると考えられることから,Rocchioを弱学習アルゴリズムとしてAdaBoostを適用することで,少数の学習例でも良好な結果が得られる可能性がある.ここではRocchioフィードバックを弱学習アルゴリズムとしてAdaBoostを適用したアルゴリズムの一例(Rocchio-Boost)を示す.AdaBoostは弱学習アルゴリズムによる分類結果に,分類の確からしさを示すスコアが与えられる場合,これを信頼度(confidenceratio)として利用することができる\cite{bib:Boost_conf}.以下では長さ1に正規化したRocchioフィードバックによるベクトルと,文書ベクトル間の内積値(0から1までの値を取る)を-1から1にマッピングし,これを信頼度として用いる.\begin{enumerate}\item$x_{i}$を$i$番目のサンプル文書,$y_{i}$を$x_{i}$が正解文書なら1,不要文書なら-1とする.$m$をサンプル文書数とする.\item$D_{1}(i)=\frac{1}{m}$とする(学習例の重みを示す変数)\itemラウンド$s$を1から1ずつ加算して$T$に達するまで以下の作業を繰り返す\begin{enumerate}\itemRocchioフィードバックの式により$\vec{Q}_{s}$を計算する\begin{eqnarray*}\vec{Q}_{s}&=&\alpha\vec{Q}_{org}\\&&+\frac{\betam}{R}\sum_{y_{i}=1}{D_{s}(i)\vec{x_{i}}}\\&&-\frac{\gammam}{N}\sum_{y_{j}=-1}{D_{s}(j)\vec{x_{j}}}\end{eqnarray*}ここで$\vec{x_{i}}$は文書$x_{i}$のベクトルを表す.\itemベクトル$\vec{Q'}_{s}=\frac{\vec{Q}_{s}}{|\vec{Q}_{s}|}$とする.\item$\vec{Q'}_{s}$とサンプル文書$x_{i}$のベクトルの内積$p_{i}$を計算し,$h_{s}(x_{i})=2p_{i}-1$とする($\vec{Q'}_{s}$と文書ベクトルの内積値が0から1までの値を取るため,$-1\leqh_{s}(x_{i})\leq1$となる).\item弱学習アルゴリズムによる学習の正確さを示す変数$\alpha_{s}$を以下の式で求める.\[r=\sum_{i=1}^{m}D_{s}(i)y_{i}h_{s}(x_{i})\]\[\alpha_{s}=\frac{1}{2}\ln(\frac{1+r}{1-r})\]\item学習例の重みを更新する.\[D_{s+1}(i)=\frac{D_{s}(i)\exp{(-\alpha_{s}y_{i}h_{s}(x_{i})})}{Z_{s}}\]$Z_{s}$はいずれのラウンド$s$でも\[\sum_{i}D_{s+1}(i)=1\]となるよう定める.\end{enumerate}\itemラウンド$s$が$T$に達したら,各ラウンド$s$で得られた$\alpha_{s}$,$h_{s}$,$\vec{Q'_{s}}$を用いて最終的な強学習アルゴリズムを得ることができる.検索対象となる文書$x'_{i}$の文書ベクトルを$\vec{x'_{i}}$とすると,最終的な強学習アルゴリズム$H(x'_{i})$は\begin{eqnarray*}H(x'_{i})&=&\sum_{s=1}^{T}{\alpha_{s}h_{s}(x'_{i})}\\&=&\sum_{s=1}^{T}{\alpha_{s}(2(\vec{Q'_{s}}\cdot\vec{x'_{i}})-1)}\\&=&2(\sum_{s=1}^{T}{\alpha_{s}\vec{Q'_{s}}})\cdot\vec{x_{i}}-\sum_{s=1}^{T}\alpha_{s}\end{eqnarray*}となり,この式の値が検索要求に対して文書$x'_{i}$が持つ関連度となる.なお上式では文書$x'_{i}$を評価する際にRocchioフィードバックと同じく内積計算は一度のみ行えばよい.$H(x'_{i})$が大きい文書$x'_{i}$ほど検索要求に適合する度合が強いと考えられ,この値の大小で文書をソートし順位付けして出力する.\end{enumerate} \section{既存のサンプリング手法} 本章では既存のサンプリング手法について述べる.レレバンスサンプリングは最も検索条件に適合すると考えられる文書をサンプル文書とする手法であり,レレバンスフィードバックでのサンプル選択方法として最も良く用いられる.サンプル文書と検索者が閲覧する文書を同一のものとした場合,レレバンスフィードバックの繰り返しの過程で検索者に示されるサンプル文書は,常に既知のサンプルから推定される最も検索要求に合致した文書となる.このため,少数の正解文書を閲覧すれば十分な場合,サンプル文書の閲覧とフィードバックのみで目的が達成できる.以下にレレバンスサンプリングのアルゴリズムを示す.なお,本稿では各フィードバックにおいて選択されるサンプル文書を$n$文書とし,この$n$文書を各サンプリング手法により選択するものとする.また各フィードバックにおいては既存のサンプル文書全てを用いる.このためフィードバックの繰り返しごとにサンプル文書は$n$文書ずつ増加する.\renewcommand{\theenumii}{}\begin{enumerate}\item検索要求と既存のサンプル文書を用いたレレバンスフィードバックで得られる分類アルゴリズムを$A_{1}$とする.\item$s=1$として$s$を1ずつ加算して以下を任意の回数繰り返す.\begin{description}\item[(a)]検索対象の文書$x_{i}$をアルゴリズム$A_{s}$により分類し,より必要文書である(検索要求に適合する)と判定された文書の順に順位付けする.\item[(b)]高い順位の文書から$n$文書選択する.なお既存のサンプル文書は選択対象から外す.\item[(c)]選択された$n$文書について必要/不要の判定を行い,サンプル文書に追加する.\item[(d)]増加したサンプル文書を用いてレレバンスフィードバックを行い新たな分類アルゴリズム$A_{s+1}$を得る.\end{description}\end{enumerate}このレレバンスサンプリングと異なるサンプリング手法としてLewisらによってuncertaintyサンプリングが提案されている\cite{bib:DLewis}.これは文書のうち必要であるか不要であるか最も判定しにくいものをサンプルとする手法である.このサンプリング手法を用いることで,より良い分類学習が可能となり,最終的に得られる検索結果はレレバンスサンプリングに比して良くなると報告されている.uncertaintyサンプリングによるレレバンスフィードバックの過程では,検索者に示されるサンプル文書はレレバンスサンプリングに比べて検索要求との関連は低いため,フィードバックの過程で検索者が閲覧する文書の正解率は低い.このため,少数の正解文書を閲覧すれば十分な場合でも,サンプル文書とは別に検索結果の上位文書を閲覧する必要がある.以下にuncertaintyサンプリングのアルゴリズムを示す.\begin{enumerate}\item検索要求と既存のサンプル文書を用いたレレバンスフィードバックで得られる分類アルゴリズムを$A_{1}$とする.\item$s=1$として$s$を1ずつ加算して以下を任意の回数繰り返す.\begin{description}\item[(a)]検索対象の文書$x_{i}$をアルゴリズム$A_{s}$により分類し,より必要文書である(検索要求に適合する)と判定された文書の順に順位付けする.\item[(b)]必要文書か不要文書か最も分類が難しい文書から順に$n$文書選択する.「最も分類が難しい文書」としては分類アルゴリズムにより出力される分類の確からしさを表す値を用いて判定するが,AdaBoostでは強学習アルゴリズム$H(x_{i})$がこれに相当する.$H(x_{i})$が0に近いほど必要文書か不要文書か最も曖昧な,分類の難しい文書と判定されるので,$H(x_{i})$が0に近い文書から$n$文書を選択する.なお既存のサンプル文書は選択対象から外す.\item[(c)]選択された$n$文書について必要/不要の判定を行い,サンプル文書に追加する.\item[(d)]増加したサンプル文書を用いてレレバンスフィードバックを行い新たなベクトル$A_{s+1}$を得る.\end{description}\end{enumerate} \section{unfamiliarサンプリング} 検索要求に対して文書検索結果を順位付きで出力する文書検索システム(例えばWebサイトを検索するインターネット検索サイト等)を用いると,ほとんど同じ内容の文書が近い順位に複数提示されることがある.\footnote{この現象はクラスタ仮説(「文書が類似していれば,同じ検索要求に対する適合性も同様に類似している」\cite{bib:Cluster_hypo})の妥当性を裏付けるものと考えられる.}これはサンプリングにおいて以下のような問題を起こす可能性がある.レレバンスサンプリングは検索結果の上位文書を,uncertaintyサンプリングは最も判定が難しい文書をサンプル文書として選択する.このため検索要求との適合度により順位付けされた検索結果のうち,適合度が一定の範囲にある文書からサンプルが選択される.互いに類似した文書の文書ベクトルは,多くの共通した単語を同じ重みで持つことが多いため,同じ検索要求との適合度が類似した値となることがあり,これらサンプリング手法は複数の類似した文書をサンプルとして選択する可能性がある.文書データベースには内容がほぼ同一の文書が複数登録されていることがあるため,サンプルとして追加される文書が全て同じ内容の文書となることすらあり得る.このような場合,サンプル文書を追加しても,検索精度向上の効果が十分に得られない恐れがある.この問題点は互いに類似した文書がサンプル文書として用いられるために生じる.そのため追加サンプル選択の際に,既存のサンプル文書と文書間距離が近い文書を対象から除外することで,この問題を避けることができる.本稿では$ltc$手法により計算される文書ベクトル間の内積値を文書間距離として用い,レレバンスサンプリングおよびuncertaintyサンプリングにおける追加サンプル文書選択の際にいずれか既存のサンプル文書の最近傍(=全ての文書の中で内積値が最小となるもの)となっていないか確認する.もしいずれか既存のサンプル文書の最近傍であれば,既存サンプルの類似文書と考えられるので,この文書はサンプルとして追加しないことで,類似した文書がサンプルに追加されるのを防ぐ.レレバンスサンプリングに類似サンプル除外の手順を加えると,(2)-(b)の手順が以下の(2)-(b)\('\)に置き換わる.\begin{description}\item[(2)-(b)\('\)]$t=0$とし,$t<n$の間,以下を繰り返す.\begin{enumerate}\item順位付けされた文書から(2)-(b)\('\)で処理されていない最も内積値の高い文書$x_{i}$を取り出す.なお既存のサンプル文書は対象から外す.\item$x_{i}$がいずれのサンプル文書の最近傍でなければサンプル文書集合に追加し$t$を1加算する.最近傍ならサンプル文書集合に加えない.\end{enumerate}\end{description}uncertaintyサンプリングも手順(2)-(b)が以下の(2)-(b)\(''\)に置き換わる.\begin{description}\item[(2)-(b)\(''\)]$t=0$とし,$t<n$の間,以下を繰り返す.\begin{enumerate}\item順位付けされた文書から(2)-(b)\(''\)で処理されていない文書のうち,最も$H(x_{i})$が0に近い文書$x_{i}$を取り出す.なお既存のサンプル文書は対象から外す.\item$x_{i}$がいずれのサンプル文書の最近傍でなければサンプル文書集合に追加し$t$を1加算する.最近傍なら集合に加えない.\end{enumerate}\end{description}本稿では上記の手順でサンプリングの際に類似文書を除外する手法をunfamiliarサンプリングと呼ぶ.このunfamiliarサンプリングをレレバンスサンプリング,uncertaintyサンプリングに適用することで,選択されるサンプル文書はよりバラエティに富んだものとなり,複数の類似した文書がサンプルとして用いられる場合に比べて検索精度の向上が期待できる. \section{実験} \label{sec:experiment}本章では実験に用いたデータと実験手順について述べる.\subsection{実験に用いたデータ}検索精度の評価には,英文を対象とした文書検索テストコレクションとして広く用いられているNPLテストコレクション\cite{bib:NPL,bib:Glasgow}を用いた(表\ref{table:collections},対象文書は物理分野の文献の要約).テストコレクションは文書の集合と検索要求文からなり,検索要求文に対して関連する文書(正解)が与えられている.\begin{table}[tbp]\begin{center}\caption{NPLテストコレクション}\begin{tabular}{c|c|c|c|c}\hline文書数&文書総量(MB)&質問数&平均質問語数&平均正解数\\\hline11429&3.1&93&6.7&22.4\\\hline\end{tabular}\label{table:collections}\end{center}\end{table}テストコレクションの各質問,文書からはFreeWAIS-sf\cite{bib:free_wais}の不要語辞書に登場する語を除去後,Porterのstemmingアルゴリズム\cite{bib:Porter}により語幹を取り出して利用した.\subsection{実験手順}以下に実験手順を示す.\begin{enumerate}\item検索要求文からTF/IDF法を用いて$\vec{v_{q}}$を作成し,各文書のベクトルとの内積を計算して各文書のスコアとする.\label{enu:normal_search}\itemスコア上位30件を最初のサンプル文書集合とする.なお,この30件の文書については精度評価に用いない.\item$f=1$として以下のフィードバックを繰り返す.各フィードバックによってサンプル文書が追加されるが,各サンプリング手法,文書順位付け手法によって追加されるサンプル文書が異なり,その違いが検索精度に与える影響を検証する.\begin{description}\item[(a)]テストセットの正解を用いてサンプル文書集合中の各文書について正解($=$必要文書)と不正解($=$不要文書)を判定する.\label{enu:sample_doc}\item[(b)]RocchioフィードバックおよびRocchio-Boost(ラウンド数$T=50$)により,検索対象文書の順位付けを行う.$\alpha,\beta,\gamma$は文献\cite{bib:Buckley}より各々8,16,4とした.また他の弱学習アルゴリズムを用いたAdaBoostと比較するため,決定株を用いたAdaBoost(BoosTexterを使用\cite{bib:Boostexter})\footnote{学習例には$ltc$手法により重み付けされた文書ベクトルを与えた.ラウンド数$T$は300とした.}も用いる.\item[(c)]順位付けされた出力の各順位での適合率の平均を求める.評価にはtrec\_eval\cite{bib:trec_eval}を使用した.なお検索結果が検索要求文に対する正解記事であれば正解とする.\item[(d)]順位付けされた結果から各サンプリング手法によりサンプル文書を選択し,サンプル文書集合に追加する.\item[(e)]$f$に1を加算し,(a)に戻る.\end{description}\end{enumerate}なおRocchioフィードバックによって順位付けを行う場合,uncertaintyサンプリングでの$H(x_{i})$による「最も分類が難しい文書」の判定ができないため,代わりにサンプル文書中で最も順位の低い必要文書と最も順位の高い不要文書の中間の順位の文書を「最も分類が難しい文書」として扱い,その文書より上位にある4文書,下位にある5文書をサンプル文書として選択した. \section{実験結果} 各サンプル手法のフィードバック回数$f$における平均適合率を表\ref{table:NPL_n30}に示す.\begin{table*}[tbp]\begin{center}\caption{平均適合率(\%)}\begin{tabular}{c|c||c|c|c|c}\hlineサンプリング手法&順位付け&$f=1$&$f=2$&$f=3$&$f=4$\\\hline\hline{\bfrel}&{\bfBoost}&6.46&10.61&15.39&20.23\\\hline\hline{\bfrel}&{\bfRoc}&14.78&21.26&28.28&35.15\\\hline{\bfrel+unf}&{\bfRoc}&-&21.98&29.47&36.55\\\hline{\bfunc}&{\bfRoc}&-&21.29&28.30&35.16\\\hline{\bfunc+unf}&{\bfRoc}&-&22.01&29.69&36.71\\\hline\hline{\bfrel}&{\bfRoc-Boo}&14.83&21.73&31.31&38.35\\\hline{\bfrel+unf}&{\bfRoc-Boo}&-&22.77&34.16&38.42\\\hline{\bfunc}&{\bfRoc-Boo}&-&21.74&31.31&38.35\\\hline{\bfunc+unf}&{\bfRoc-Boo}&-&22.82&34.54&38.94\\\hline\end{tabular}\label{table:NPL_n30}\end{center}\end{table*}表中{\bfrel}がレレバンスサンプリング,{\bfunc}がuncertaintyサンプリングを示す.{\bf+unf}はunfamiliarサンプリングをレレバンスサンプリング,uncertaintyサンプリングに適用したことを示す.また``順位付け''の欄は検索結果の順位付けに用いた手法を示し,それぞれRocchioフィードバック({\bfRoc}),Rocchio-Boost({\bfRoc-Boo}),決定株を弱学習アルゴリズムとするBoosTexter({\bfBoost})を示す.なおフィードバック回数$f=1$では検索要求文による検索結果の上位30件をサンプルとして用いるので,サンプリング手法による違いはない.本稿で用いた学習例は30文書($f=1$)から60文書($f=4$)と比較的少数であるが,Rocchioフィードバックを弱学習アルゴリズムとするAdaBoost({\bfRoc-Boo})がRocchioフィードバック({\bfRoc})より優れた結果を示している.一方,弱学習アルゴリズムに決定株を用いる場合({\bfBoost}),本実験で扱う少数の学習例では優れた結果が得られないことが確認できる.そのため弱学習アルゴリズムとしてRocchioフィードバックを用いたことが,少数の学習例でも比較的良好な精度が得られるアルゴリズムとなった原因と考えられる.unfamiliarサンプリング({\bf+unf})をレレバンスサンプリング,uncertaintyサンプリングに適用すると{\bfRoc},{\bfRoc-Boo}ともに検索精度が向上している.順位付けを{\bfRoc}から{\bfRoc-Boo}に変えた場合と同じ程度,すなわちAdaBoostによる精度向上効果と同じ程度の効果を示す場合もあり,比較的良好な結果と考えられる.unfamiliarサンプリングとRocchio-Boostの両方を適用した場合には$f=3$で6\,\%程度の精度向上効果が得られていることがわかる.本稿で実施した実験ではレレバンスサンプリング({\bfrel})とuncertaintyサンプリング({\bfunc})で精度にほとんど差が見られない.表\ref{table:common_sample}に順位付けにRocchio-Boostを用いた場合にレレバンスサンプリングとuncertaintyサンプリングの両方で用いられるサンプル数(共通サンプル数)を示す(サンプル数は全ての検索要求文についての平均).\begin{table}[tbp]\begin{center}\caption{共通サンプル数}\begin{tabular}{c||c|c|c}\hline&$f=2$&$f=3$&$f=4$\\\hline\hline総サンプル数&40&50&60\\\hline共通サンプル数&38.04&46.11&54.17\\\hline\end{tabular}\label{table:common_sample}\end{center}\end{table}これはuncertaintyサンプリングで最も分類が難しいと判断される文書が比較的高い順位にあり,その前後の文書を選択しても,検索結果の上位から文書を選択するレレバンスサンプリングとあまり差がないためと考えられる.どの文書を最も分類が難しいと判断するかによって精度が変化すると考えられるので,$h_{t}(x_{i})=0$に最も近い点ではなく,必要文書の平均順位と不要文書の平均順位の中間の順位にある文書を最も分類が難しい文書とした場合の結果({\bfunc2})を表\ref{table:unc_n30}に示す.\begin{table}[tbp]\begin{center}\caption{2つのuncertaintyサンプリングの比較}\begin{tabular}{c|c||c|c|c}\hlineサンプリング手法&順位付け&$f=2$&$f=3$&$f=4$\\\hline\hline{\bfunc}&{\bfRoc-Boo}&21.74&31.31&38.35\\\hline{\bfunc2}&{\bfRoc-Boo}&23.51&30.18&33.35\\\hline\end{tabular}\label{table:unc_n30}\end{center}\end{table}{\bfunc}と{\bfunc2}で精度が大きく異なる.{\bfunc2}は{\bfunc}より優れた方法とはいえないが,少なくとも{\bfunc}における「最も分類が難しい文書」の選択方法を変化させることで精度が向上する場合があることがわかる. \section{まとめ} レレバンスフィードバックにおけるサンプル文書選択(サンプリング)において,類似したサンプルが追加されることを防ぐunfamiliarサンプリングと,少ないサンプル数でも良好な検索精度を得ることができるRocchioフィードバックを弱学習アルゴリズムとするAdaBoost(Rocchio-Boost)を提案した.これら手法をNPLテストコレクションを用いて検証したところ,従来手法に比較して平均適合率を6\,\%程度向上させることができた.また弱学習アルゴリズムとして決定株を用いるAdaBoost(BoosTexter)と比較したところ,30から70文書程度の比較的少数のサンプル数ではBoosTexterはRocchioフィードバックに劣る検索精度であるのに対して,Rocchio-BoostはRocchioフィードバックより優れた検索精度を示したことから,少数のサンプル数においてRocchioフィードバックを弱学習アルゴリズムとして用いる手法が有効であることがわかった.unfamiliarサンプリングを用いる際には文書間距離を計算する必要がある.今回は文書ベクトル間の内積値を用いたが,実際の検索システムでは大量の文書が検索対象となる上,同じ文書が何回も検索されることがあるので,検索毎に内積値を計算するのは無駄が多い.あらかじめ文書間距離が近いものを計算しておく,ないし一度発見された最近傍文書をキャッシュしておくなどの手段が必要になると考えられる.本稿のRocchio-Boostでは弱学習アルゴリズムとしてRocchioフィードバックを適用するAdaBoostの一例を示した.Rocchioフィードバックを弱学習アルゴリズムとして用いる手法は他にも考え得るが,本稿で提案する利用法では検索対象文書との内積計算を一度だけ行えばよい.一般にTF/IDF法を用いる文書検索においては,この内積計算に最も処理時間が必要となるが,通常のRocchioフィードバックと同じくRocchio-Boostにおいても内積計算は一度のみ行えばよいので実用上の利点として大きいと考えられる.本稿で述べた実験ではuncertaintyサンプリングの効果が明らかには得られなかった.Rocchio-Boostにおける強学習アルゴリズム$H(x_{i})$では分類の確からしさをうまく判定できていない可能性がある.また用いたテストコレクションによって効果に違いがある可能性があるので,条件を変更して検証する予定である.\bibliographystyle{jnlpbbl}\bibliography{bunken}\begin{biography}\biotitle{略歴}\bioauthor{中島浩之}{1994年東京工業大学大学院理工学研究科情報工学専攻修了.1994年4月NTTデータ通信(株)(現(株)NTTデータ)入社.2000年5月から2002年3月までNTTコミュニケーション科学基礎研究所に勤務.2002年4月より(株)NTTデータ,現在に至る.情報検索,言語処理の技術開発に従事.情報処理学会および人工知能学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V30N02-12
\section{序論} \label{sec:intro}ニュース記事や論文などの自然言語で記述された情報は構造化されていないため,記述された情報を認識しなければ情報として利用できない.これを解決するために,文章中の情報を計算機で扱いやすい形式に構造化する情報抽出の研究が盛んに行われている\cite{hendrickx-etal-2010-semeval,uzzaman-etal-2013-semeval-tempeval,yamaguchi-etal-2020-sccomics}.情報抽出の中でも,文章中の用語間の関係性を認識する関係抽出は,網羅的に情報を扱うことができるため,盛んに研究されている\cite{hendrickx-etal-2010-semeval,zhang-etal-2017-position-relation-sentence-tacred}.近年の研究では,深層学習の台頭によって,今まで文内の用語間の関係性しか扱えなかった状況から,文をまたいだ用語同士の関係性を対象とした文書単位関係抽出への拡張が進んでいる\cite{li-etal-2016-cdr,yao-etal-2019-docred}.以前の関係抽出の研究の多くでは,一文中に含まれる用語ペアの間の関係性のみを対象として抽出する文単位関係抽出に焦点が当てられていた\cite{zeng-etal-2014-relation,miwa-bansal-2016-end}.しかし,これらは文をまたいだ用語間の関係である文間の関係が無視されている.そこで,文間の関係も抽出可能とした文書単位関係抽出へ拡張して一般化されている.文書単位関係抽出の研究は広く行われているが,深層学習による関係抽出の研究では後発の研究が独立していて,先行研究のモデルを同時に利用するのが難しい.例えば,\citeA{zhou-2021-atlop-relation-cdr-docred}は事前学習モデル\cite{devlin-etal-2019-bert,liu2019roberta}による関係抽出をしたが,用語の関係性を潜在的なグラフを作成した\citeA{nan-etal-2020-reasoning-lsr}の後発の研究にもかかわらず,用語間の関係性を考慮した構造をモデルに導入していない.このように先行研究の利点が後続の研究で利用しにくい要因の一つは,深層学習モデルの開発において,モデル構造などの変更をする際に方法が明確ではないことである.一般的に,深層学習モデルを変更するためには,既存のモデル構造を活かしてモデルに新たな点を追加し,チューニングをする必要があるため,開発のコストが高い.実装も画一的なルールが整備されておらず,それぞれの研究で異なるため,モデルの再実装が必要となり,容易に先行研究の利点を導入できない.また,既存の関係抽出の研究では,関係間の相互作用を明示的に考慮できていないという問題点がある.文書単位関係抽出では,一つの文書から抽出された複数の関係同士に関連がある場合がある.例えば,材料合成手順の抽出においては,材料に対する操作や条件の関連性が影響し合い,材料に対する条件が操作に対して影響を及ぼしあう\cite{mysore-nipsws-2017,mysore-et-al-2019-olivetti-corpus,makino-2022-extracting-inorganic-access}.また,イベントの時刻歴を時間関係によって表現して抽出する時間関係抽出では,事前の事前のイベントは事前のイベントである,というような時間的な制約が存在する\cite{pustejovsky2003timebank,uzzaman-etal-2013-semeval-tempeval,cassidy-etal-2014-annotation-timebank-dense,Natsuda-2015-jnlp-relation-interaction-doc,ning-etal-2018-matres}.本稿ではこのような関係同士で及ぼしあう影響を関係間の相互作用と呼ぶ.関係間の相互作用を明示的に扱うために,\citeA{fu-etal-2019-graphrel}は文単位の関係抽出において,複数ステップで関係を抽出し,前ステップで抽出した関係を利用するGraphRelを提案した.しかし,GraphRelでは単語を節点としたグラフを構成するため,文書単位に拡張するのは計算コストが大きくなり困難である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia11f1.pdf}\end{center}\hangcaption{関係候補編集タスク.文章と用語から既存の関係抽出器で関係候補を作成し,その結果を付加的に利用して関係を編集し,最終的な関係を決定する.図中の青い矩形は用語,その間の矢印は関係,異なる種類の矢印は異なる関係クラスを示す.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで本研究では,\fref{fig:overview}のように,文書のみでなく,既存の関係抽出器で既に抽出された関係を関係候補として利用し,全ての関係を分類し直して編集するタスクとして,関係候補編集タスクを提案し,このタスクのもとで関係間の相互作用を考慮する.関係候補編集タスクでは,既存研究の知見を利用するために,抽出結果のみを利用して,モデルを統合せずに後発の研究で既存研究の特徴を考慮する.そして,このタスク設定の下で,用語を節点,抽出済みの関係候補を辺とした関係グラフを構築して,グラフ畳み込みネットワーク(GraphConvolutionalNetwork;GCN)\cite{kipf2017gcn}を利用することで関係間の相互作用を考慮する,逐次的な辺編集モデルを提案する.具体的には,既存手法によって抽出した関係によって関係グラフを初期化し,全ての辺に対してヒューリスティクスによって順序をつけ,逐次的に一度ずつ編集する.編集時には文脈表現に加えて関係グラフの表現を導入することで,その編集ステップ時点での関係間の相互作用を考慮する.これらの提案の有効性は,材料合成手順コーパス\cite{mysore-et-al-2019-olivetti-corpus}とMATRESコーパス\cite{ning-etal-2018-matres}に対する抽出性能によって評価する.そして,モデルの挙動を解析して,このタスク設定とモデルで性能を向上させられる条件を明らかにする.本研究の貢献は以下の点である.\begin{itemize}\item文書単位関係抽出において,抽出済みの関係を再利用し,編集するタスクとして,関係候補編集タスクを提案する.\item既存手法で抽出した関係を利用した関係グラフを構築し,そのグラフの全ての辺を逐次的に編集する逐次的な辺編集モデルによって,抽出済みの関係に対して関係間の相互作用を考慮する,逐次的な辺編集を提案する.\item関係候補編集タスクにおいて,編集で性能を向上させるための条件が,編集するモデル単体で抽出できる関係と編集前の関係に差分があることであることを明らかにする.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関係抽出}\label{ssec:related-re}関係抽出には文内の用語ペア間の関係のみを抽出の対象とした文単位関係抽出と,文をまたいだ用語ペア間の関係も含めて抽出の対象とした文書単位関係抽出がある.以前の関係抽出では,文単位関係抽出に焦点が当てられていた.これまでに様々な抽出が試みられており,カーネル法や特徴量ベースの抽出\cite{zelenko2003kernel,miwa-sasaki-2014-modeling-joint-relation-close-first},文脈に着目するために系列をモデル化した抽出\cite{zeng-etal-2014-relation,wang-etal-2016-relation-sentence,zhang-etal-2017-position-relation-sentence-tacred}や,依存構造木などのグラフ構造を導入した抽出\cite{miwa-bansal-2016-end,zhang-etal-2018-graph},Transformerベースのモデルを利用した抽出\cite{alt_improving_2019,baldini-soares-etal-2019-matching-bert-relation-sentence}が行われてきた.しかしながら,これらの手法では,用語のペアを分類することに重きを置いており,複数の関係同士の関係をモデル化できていない.このような中で\citeA{fu-etal-2019-graphrel}は,関係間の相互作用を考慮するために,節点を用語,辺を関係とした関係グラフを構成して,GCNによって作成したグラフ表現を活用することで,関係間の相互作用を考慮した文単位関係抽出を実現した.ただ,この手法では,節点を文内の単語単位で作成しており,文をまたぐことを想定していないため,文書単位関係抽出への拡張は容易ではない.文単位の関係抽出では文をまたいだ関係が抽出の対象外となってしまうため,近年では文書内の全ての用語が関係を持ちうる条件で抽出をする文書単位の関係抽出の研究が盛んになっている\cite{li-etal-2016-cdr,verga-etal-2018-bran,yao-etal-2019-docred}.多くの文書単位の関係抽出では,文単位の関係抽出と同様の方法だと離れて記述された語の関係性を考慮するのが困難であるため,節点を文書中の単語として,文をまたぐように付与された依存構造などの辺を付与した文書単位のグラフを作成して抽出を試みている.この文書単位のグラフを利用して,文書全体で単語同士の関係性を考慮する\cite{quirk-poon-2017-distant-document-relation-graph}.\citeA{christopoulou-etal-2019-connecting}はグラフとして,単語節点だけでなく,用語や文の代表節点など,複数の段階で節点を作成し,人手のルールで辺を接続したグラフを利用して文書内の単語同士の関係性を考慮した.\citeA{nan-etal-2020-reasoning-lsr}はグラフを潜在変数とすることで,関係抽出に適したグラフを構築して抽出を試みた.具体的には,関係抽出の学習によってEnd-to-Endに学習される潜在的なグラフの表現をGCNで作成し,実際の関係ではなく潜在的な関係性の相互作用をモデル化した.このように,文書単位のグラフを作成して関係を抽出する研究は盛んに行われているが,関係間の相互作用を明示的に考慮してグラフを作成して分類を試みた研究は少ない\cite{li-etal-2020-graph-relation-relation-interaction}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{グラフ畳み込みネットワーク}\label{ssec:related-gcn}GCNはグラフ構造を扱うためのニューラルネットワーク構造で,辺に沿って隣接節点に節点表現を伝播させてグラフの構造を考慮した節点の表現を作成するモデルである\cite{kipf2017gcn}.節点集合を$\mathcal{V}=\{v_1,v_2,\ldots,v_{|\mathcal{V}|}\}$,辺集合を$\mathcal{E}$としたグラフ$G(\mathcal{V},\mathcal{E})$を入力として,$i$番目の節点の表現を$\bmx_i\in\mathbbm{R}^{D_{\mathrm{in}}}$とすると,GCNによって畳み込んだ後の表現$\bmx'_i\in\mathbbm{R}^{D_{\mathrm{out}}}$は\eref{eq:gcn}のように表せる.\begin{equation}\bmx'_i=\sigma\left(\bm\Theta^\top\sum_{(i,j)\in\mathcal{E}}\frac{\bmx_j}{\sqrt{\hatd_{jj}\hatd_{ii}}}\right)\label{eq:gcn}\end{equation}ただし,辺集合$\mathcal{E}$の要素は$v_i,v_j$が隣接する場合に$(i,j)\in\mathcal{E}$となるようにし,$\hatd_{ij}$は自己ループを加えた隣接行列に対する次数行列の$i$行$j$列要素,GCNの重みは$\bm\Theta\in\mathbbm{R}^{D_\mathrm{out}\timesD_\mathrm{in}}$である.GCNは一層では隣接節点しか考慮できないが,複数層積み重ねて繰り返し節点表現を伝播させることで,複数ホップ離れた節点を考慮した表現を獲得することができる.関係グラフ畳み込みネットワーク(RelationalGraphConvlolutionalNetwork;RGCN)は,複数種類の役割の辺を持つ異種グラフを扱えるように拡張したGCNで,知識グラフのような辺毎に異なる意味を持つグラフを扱うために提案された\cite{schlichtkrull-2018-r-gcn}.RGCNではパラメタを辺の種類ごとに用意することで,異種グラフとして表現を作成する.まず辺の表記を拡張するために,辺のクラスの集合を$\mathcal{C}$として,辺の集合の要素は$v_i,v_j$間にクラス$c$の辺がある場合に$(i,c,j)\in\mathcal{E}$となるようにして,辺にクラスをつける.それぞれの辺のクラス$c$に対してパラメタ$\bm\Theta_c\in\mathbbm{R}^{D_\mathrm{out}\timesD_\mathrm{in}}$を用意すると,RGCNは\eref{eq:rgcn}のように表せる.\begin{equation}\bmx'_i=\sigma\left(\bm\Theta^\top_{\mathrm{self}}\bmx_i+\sum_{(i,m,j)\in\mathcal{E}}\bm\Theta_c^\top\bmx_j\right)\label{eq:rgcn}\end{equation}ただし,$\Theta_{\mathrm{self}}\in\mathbbm{R}^{D_\mathrm{out}\timesD_\mathrm{in}}$は自己ループを別の辺の種類として扱うための重みである.このように,RGCNは辺ごとに異なる重みを利用して異種グラフを扱うことができるように拡張されたGCNである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関係候補編集タスク} \label{sec:task}本研究では,既存研究で抽出された情報を後発の研究でモデルの入力として扱う出力編集タスクの設定を採用することで,少ない実装上の負担で以前の研究の利点を活かせるようにする.関係抽出の研究は以前から様々な方策で行われているが,近年の研究ではそれぞれの研究で独立して深層学習モデルを作成しており,後続の研究で以前の研究を利用しにくい現状がある.これは,研究ごとにモデルの実装が異なり,モデルの構造も異なるためで,それらを集約した実装をするのは再実装が必要となって容易ではない.更にそれぞれの方策を組み合わせて性能を向上させるには多大なチューニングコストがかかる.これらの問題を解決するために,以前の研究を容易に利用可能な方策が必要となる.そこで,抽出済みの関係を関係の候補として入力に利用して再度全ての関係を分類し直すことで,後続の研究は既存手法で抽出できている部分を前提として,正しい関係は入力をそのまま,誤った関係は修正するように出力するモデルを作成すればよくなる.このタスク設定では,既存手法で導入された部分をモデルに直接導入せずに,既存手法の視点を間接的に導入できる.文書$\mathrm{doc}$と文書に含まれる用語集合$\mathcal{V}$を受け取り,関係$R\in\mathcal{C}^{|\mathcal{V}|\times|\mathcal{V}|}$を返す従来の関係抽出器$\mathrm{RE}$は,\eref{eq:re}のように表現できる.\begin{equation}R=\mathrm{RE}(\mathrm{doc},\mathcal{V})\label{eq:re}\end{equation}関係$R$の要素$R_{ij}\in\mathcal{C}$は$v_i$と$v_j$の用語間の関係,$\mathcal{C}$は関係なしのクラス$\barc$を含めた関係クラス集合を示している.出力編集タスクでは,文章から直接抽出する設定で抽出した関係$R^{\mathrm{in}}=\mathrm{RE}(\mathrm{doc},\mathcal{V})$を入力として受け取って,出力となる関係$R^{\mathrm{out}}$を抽出する編集モデル$\mathrm{Edit}$が開発の対象となる.\begin{equation}R^{\mathrm{out}}=\mathrm{Edit}(\mathrm{doc},\mathcal{V},R^{\mathrm{in}})\end{equation}このように出力編集タスクでは,関係候補を介して,モデルを統合することなく既存手法の知識を間接的に利用した抽出ができる.なお,関係候補編集タスクは$R^{\mathrm{in}}$の全ての要素を関係なし$\barc$とすると,関係候補を与えない通常の関係抽出と同様の設定となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-2ia11f2.pdf}\end{center}\caption{逐次的な辺編集モデル}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{逐次的な辺編集モデル} \label{sec:method}本章では,文書単位の関係抽出を関係候補編集タスクとして扱い,既存の関係抽出結果に対して関係間の相互作用を導入する.そのために,\fref{fig:model}に示したような,関係候補編集タスク設定のもとで,関係間の相互作用を考慮した深層学習モデルによって関係グラフの辺を編集する逐次的な辺編集モデルを提案する.本提案モデルにおける$\mathrm{Edit}$に相当する逐次的な辺編集モデルは,\ssref{ssec:seq-edge-editor}の逐次的な辺編集の手続きで\ssref{ssec:edge-editor}の辺編集器$\mathrm{EE}(\mathrm{doc},\mathcal{V},R^{\mathrm{in}})$を適用したものである.辺編集器には,文章に加えて抽出済みの関係から作成した関係グラフを入力し,事前学習モデルによる文脈の表現とRGCNによるグラフの表現をもとにして,関係間の相互作用を考慮した辺の分類をする.そして,分類した結果で関係を上書きして編集を行う.その後,先に編集された関係で作成した関係グラフを再度入力して次の辺を編集することで,分類しにくい関係を分類する際に分類が容易な関係の情報を利用して効果的に編集できるようにする.編集時の順序はヒューリスティクスによって,編集する辺に分類が簡単な順とする.この手続きで,辺編集器によって全ての節点ペア間の辺を逐次的に編集して,最終的に全ての関係を一度ずつ分類して決定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{辺編集器}\label{ssec:edge-editor}まず辺同士の相互関係を考慮して辺を編集する深層学習ベースの辺編集器$\mathrm{EE}(\mathrm{doc},\mathcal{V},R^{\mathrm{in}})$について説明する.辺編集器はBERT\cite{devlin-etal-2019-bert}やRoBERTa\cite{liu2019roberta}のような事前学習モデルとRGCNによって,入力された関係候補$R^{\mathrm{in}}$で作成した関係グラフの表現を作成する.そして,その表現をもとに節点ペアを分類して,分類結果で辺を上書きして編集後の関係$R^{\mathrm{EE}}$を出力する.具体的には,(1)事前学習モデルによって用語の文脈表現を作成して節点の初期表現とし,(2)GCNを利用して入力グラフの構造情報を埋め込んだ節点の表現を作成し,(3)節点ペアの表現と編集前の辺の表現から辺を分類して編集後のグラフを作成する,という3ステップで行う.なお,入力された関係候補$R^{\mathrm{in}}$は表現を作成するためのみに利用している.まず,用語の文脈表現は事前学習モデルによって得られるトークンの表現を集約して作成し,節点の初期表現$\bmV^0=[\bmv_1^0,\bmv_2^0,\ldots,\bmv_{|\mathcal{V}|}^0]$とする.文長$T$の入力文書$\mathrm{doc}$を事前学習モデルによって埋め込んだトークンの表現$\bmX=[\bmx_1,\bmx_2,\ldots,\bmx_T](\bmx_i\in\mathbbm{R}^{D_{\mathrm{BERT}}})$を,重み$\bmW_r\in\mathbbm{R}^{D_{\mathrm{BERT}}\timesD}$によって線形変換し,用語の始点のトークンと終点のトークンとその間の表現を結合して節点の初期表現を作成する.結合した表現は,重み$\bmW_{\mathrm{ent}}\in\mathbbm{R}^{3D\timesD}$をパラメタとする結合層に入力する.$i$番目の節点の始点と終点をそれぞれ$s_i$と$e_i$として,節点の初期表現は\eref{eq:pool}のように作成する.\begin{align}\bmX'&=[\bmW_r^\top\bmx_1,\bmW_r^\top\bmx_2,\ldots\bmW_r^\top\bmx_T]\\\bmv_i^0&=\bmW_{\mathrm{ent}}^\top[\bmx'_{s_i};\mathrm{Average}([\bmx'_{s_{i}},\bmx'_{s_{i}+1},\ldots,\bmx'_{e_{i}}]);\bmx_{e_i}']\label{eq:pool}\end{align}次に関係間の相互作用をグラフ全体で考慮するため,RGCNによって節点の表現を作成する.関係ラベルの違いを捉えるために,グラフ表現は\ssref{ssec:related-gcn}で述べた複数種類の辺を持つ異種グラフを扱えるRGCNによって作成する.RGCNは$L$層積み重ね,$L$ホップまでの関係間の相互作用を考慮した表現を作成する.$\bmV^0$と$\mathcal{E}^{\mathrm{in}}=\{(i,R_{ij},j)|R_{ij}\in\mathcal{C}\setminus\barc\}$を入力としてRGCNを適用し,$L$層目の表現を$\bmV^L$として,分類に利用する.また,RGCNの各層をまたぐように残差接続\cite{he-2016-resnet}を追加する.最終的な節点の表現$\bmv'_i$は,文脈から作成した初期表現を残差接続として足して,$\bmv'_i=\bmv_i^L+\bmv_i^0$を分類に利用する.最後に,$i$番目と$j$番目の節点ペア間の関係を,その表現$\bmu_{ij}\in\mathbbm{R}^{2D+D_a}$をもとに分類する.$\bmu_{ij}$は\eref{eq:u}のように,RGCNの$L$層目の節点ペアの表現,編集前の辺のクラスを埋め込んだ$\bma_{ij}=\mathrm{Embed}(E_{ij})\in\mathbbm{R}^{D_a}$を結合した表現とする.$\bmW_{\mathrm{head}}\in\mathbbm{R}^{D\timesD}$と$\bmW_{\mathrm{tail}}\in\mathbbm{R}^{D\timesD}$はそれぞれ始点と終点に対する表現を作成するための重みである.\begin{equation}\bmu_{ij}=[\mathrm{ReLU}(\bmW_{\mathrm{head}}^\top\bmv'_i);\mathrm{ReLU}(\bmW_{\mathrm{tail}}^\top\bmv'_j);\bma_{ij}]\label{eq:u}\end{equation}節点ペア間の表現$\bmu_{ij}$を元に分類するための重みを$\bmW_{\mathrm{class}}\in\mathbbm{R}^{(2D+D_a)\times|C|}$とすると,$v_i,v_j$間の節点間の辺がクラス$c$である予測確率$p_{ij,c}$とそのロジット$\bmz_{ij}\in\mathbbm{R}^{|\mathcal{C}|}$は\eref{eq:prob}のように表現できる.\begin{align}\bmz_{ij}&=\bmW_{\mathrm{class}}^{\top}\bmu_{ij}\\p_{ij,c}&=\frac{\exp(z_{ij,c})}{\sum_{c'\inC}\exp(z_{ij,c'})}\label{eq:prob}\end{align}確率が最大となったクラスを選択することで,編集後の関係$R_{ij}^{\mathrm{EE}}$を決定する.\begin{align}R_{ij}^{\mathrm{EE}}&=\argmax_{c\inC}p_{ij,c}\label{eq:classify}\end{align}このようにして,辺編集器$\mathrm{EE}$は文脈の表現と入力された関係グラフの構造表現を合わせて分類した結果を出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{逐次的な辺編集}\label{ssec:seq-edge-editor}\ssref{ssec:edge-editor}の辺編集器を利用し,ヒューリスティクスに基づいて分類しやすい用語ペアから順にその間の辺を編集し,逐次的に関係を確定する.分類しやすい順に編集することで,分類が難しいペア間の分類に,既に編集された近くに記述された辺の情報を利用する\cite{miwa-sasaki-2014-modeling-joint-relation-close-first}.逐次的な辺編集の詳細な手続きは\algref{alg:sequential-editing}に示した.このアルゴリズムは関係候補編集タスクにおける編集モデル$\mathrm{Edit}$に相当する.逐次的な辺編集は文書$\mathrm{doc}$,用語集合$\mathcal{V}$,関係候補$R^{\mathrm{in}}$を受け取って,そのグラフの全ての節点ペア間の辺を一度ずつ編集すると完了する.編集は辺編集器によって行われ,各編集ステップで編集された辺でグラフの辺を更新し,そのグラフを再度入力して編集を繰り返す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.1\begin{figure}[b]\begin{center}\begin{minipage}{0.8\textwidth}\begin{algorithm}[H]\caption{辺編集器$\mathrm{EE}$を用いた逐次的な辺編集$\mathrm{Edit}$}\label{alg:sequential-editing}\begin{algorithmic}\REQUIRE$\mathrm{doc}$:文書,$\mathcal{V}$:用語集合,$R^{\mathrm{in}}$:関係候補\ENSURE$R^{\mathrm{out}}$\STATE$R^{\mathrm{out}}\LeftarrowR^{\mathrm{in}}$\WHILE{$h~\mathrm{in}~\mathrm{range}(1,h_{max})$}\STATE$R^{h}\Leftarrow\mathrm{EE}(\mathrm{doc},\mathcal{V},R^{\mathrm{out}})$\STATE$\mathcal{P}_h\Leftarrow\{(i,j)|\min(h_{ij},h_{max})=h\}$\WHILE{$(i,j)~\mathrm{in}~\mathcal{P}_h$}\STATE$R^{\mathrm{out}}_{ij}\LeftarrowR_{ij}^{h}$\ENDWHILE\ENDWHILE\end{algorithmic}\end{algorithm}\end{minipage}\end{center}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%編集の順序は,用語ペアが記述された距離が近い順をヒューリスティクスとして採用する\cite{miwa-sasaki-2014-modeling-joint-relation-close-first}.用語ペア$(v_i,v_j)$間の距離$h_{ij}$は文単位の距離に設定して,同じ文内に記述されたペア間の距離を1,隣接文では2と離れると可算されるように定義する.同一距離に記述されたペアは同時に編集する.また,最大距離$h_{max}$を超えた距離に記述された用語ペアは同時に編集する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{既存手法との接続}\label{ssec:method-connection}\sref{sec:task}で提案した関係候補編集タスクの下で,\ssref{ssec:seq-edge-editor}の逐次的な辺編集モデルで抽出済みの関係を利用する方法を述べる.既存手法との接続は,初期の関係候補$R^{\mathrm{in}}$を既存手法で抽出した関係に置き換えて実現する.このように逐次的な辺編集モデルは,事前に既存手法で予測した結果のみを利用するため,既存手法と編集モデルの学習は切り離されており,追加のモデルの実装を必要としない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練}\label{ssec:training}モデルの訓練は,最終的に出力された関係の予測$R^{\mathrm{out}}$に対する対数尤度を最大化するように行う.逐次的な辺編集では,辺を持ちうる全節点ペアを複数ステップに分けて一度ずつ分類し,各ステップの結果を統合したものを最終的な予測としているため,逐次的な辺編集の出力$R^{\mathrm{out}}$が正解に近づくように最適化すればよい.各ステップの節点$v_i,v_j$間の辺のクラス$c$に対する予測確率を$p_{ij,c}^h$,正解の$v_i,v_j$間の関係を$R^{gold}_{ij}$とすると,損失$L$は\eref{eq:loss}のように表せる.\begin{equation}L=-\sum_{h=1}^{h_{max}}\sum_{(i,j)\in\mathcal{P}_h}\sum_{c\in\mathcal{C}}\mathbbm{1}[R^{gold}_{ij}=c]\logp^h_{ij,c}\label{eq:loss}\end{equation}ただし,$\mathbbm{1}[\cdot]$は括弧内の条件を満たせば1,それ以外は0を返す関数,$\mathcal{P}_h$は\algref{alg:sequential-editing}中で使用した距離$h$にある用語ペアの集合である.この損失をデータ全体で最小化するようにモデルを最適化する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価} \label{sec:eval}逐次的な辺編集モデルの有効性を評価するために,材料合成手順のフローグラフを抽出するタスクと時間関係抽出タスクに対して適用し,その抽出性能を確認する.\ssref{ssec:eval-setting}の設定で材料合成手順コーパスに対する評価(\ssref{ssec:eval-material})とMATRESコーパスに対する評価(\ssref{ssec:eval-matres})を行う.文書単位関係抽出のベンチマークではDocREDコーパス\cite{yao-etal-2019-docred}やBioCreativeVCDRコーパス\cite{li-etal-2016-cdr}が一般的であるが,このようなコーパスを用いずにこれらのコーパスを利用する理由は,一つの用語に複数の関係がついていて,密に関係が付与されており,関係グラフにしたときに多くの用語がつながっている状況になるためである.用語が関係でつながらない場合では,本提案手法で利用しているGCNがうまく動作しなくなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{共通の評価設定}\label{ssec:eval-setting}提案した逐次的な辺編集モデルを関係候補編集タスクとして評価するための設定を述べる.モデルの最適化にはAdam\cite{kingma-2015-adam}を用いた.提案モデルでは文書単位で事前学習モデルを動かさなければならないため,GPUのメモリに載るように,バッチサイズは1とした.モデルで利用する事前学習モデルは,実験的にラージサイズを利用すると性能が低下したため,ベースサイズのRoBERTa\cite{liu2019roberta}を利用する.モデル自体の抽出性能を確認するために,$\foralli,j;R_{ij}=\barc$として入力のグラフの辺を空とした場合(以下,スクラッチと呼ぶ)に対する抽出性能も同時に確認する.スクラッチでは入力の関係が全て関係なしとなる部分のみが変更点で,その状態から全ての関係を編集する.つまり,最初の編集ステップでは文脈の表現のみで分類が行われ,その後のステップではそのステップの時点で抽出されている関係間の相互作用を考慮した表現を利用した分類になる.評価には3つの異なるシード値で実験したときの関係分類に対するF値[\%]の平均値を利用する.評価にはチューニングで得られたハイパーパラメタで学習した際に,開発データに対して最高の性能が得られた時点のモデルを利用する.モデルの学習時には正則化のためにドロップアウト\cite{srivastava-2014-dropout}を導入する.ドロップアウトは$\bmX$と出力層の前の$\bmu_{ij}$のそれぞれに対して適用する.ハイパーパラメタチューニングはOptuna\cite{akiba-etal-2019-optuna}を用いて,枝刈りされたものも含めて1,000回の試行で開発データに対するF値が最大となるパラメタを探索した.チューニングは材料合成手順コーパスとMATRESコーパス両者それぞれに対して行い,パラメタのサンプリングには木構造Parzen推定\cite{bergstra-2011-tpe-sampler},探索の枝刈りアルゴリズムはパラメタを$s=1,\eta=2,r=0.15$としたSuccessiveHalvingアルゴリズムを利用した\cite{li-etal-2020-successive-halving}.チューニングは複数の計算機で分散して行い,NVIDIA社のGTX1080Ti,RTX3090,TeslaV100,TITANVのGPUが搭載された計算機を利用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{11table01.tex}%\caption{ハイパーパラメタチューニングの探索空間と結果}\label{tab:tuning}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%探索空間とチューニングによって得られたパラメタは\tref{tab:tuning}に示した.チューニングしたパラメタは表の上から,Adamの学習率,RoBERTaに対する学習率,入力と出力に対するドロップアウト率,RGCNの層の数$L$,全体的な隠れ層の次元数$D$,編集前の辺の埋め込み$a_{ij}$の次元数$D_a$とそのドロップアウト率,距離$h$の定義と最大値$h_{max}$の計10種類である.距離の定義は,文単位で計算する場合と,出現順序に合わせて,$m$番目と$m+x$番目に出現した用語間の距離を$x$とする場合の2種類を定義したが,どちらも文単位の距離の方がよいと確認できたため,そちらをモデルに採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{材料合成手順コーパスによる評価}\label{ssec:eval-material}まず,材料合成手順のフローグラフを抽出するタスクのコーパスである材料合成手順コーパス\cite{mysore-et-al-2019-olivetti-corpus}を使用して,提案手法の有効性を評価する.このコーパスには,密に関係が付与されており,直感的には以前の合成手順が以降の合成手順に影響したり,材料に対する条件が操作に影響を及ぼしたりするなど,関係間に関係を及ぼすようなタグ付けがされている.材料合成手順コーパスには\fref{fig:material-example}の抽出事例のように,材料分野の論文中の材料合成手順が記述された段落に対して,材料や操作,質量などの数値条件やその他の条件付けとなる用語と,その間の関係がフローグラフのようにタグ付けされている.コーパスの分割は公式に提供されているものと同様に,訓練,開発,評価をそれぞれ200,15,15件とした.\tref{tab:mysore-num-relation}には材料合成手順コーパスの関係の統計量と説明を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{11table02.tex}%\caption{材料合成手順コーパスの関係ラベルとその統計値}\label{tab:mysore-num-relation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%材料合成手順コーパスに対しては,我々が作成したルールベース抽出器\cite{kuniyoshi-etal-2020-annotating,makino-2022-extracting-inorganic-access}をベースラインとして,その出力をモデルの入力とする.このコーパスに対する抽出手法は,このルールベース抽出器のみしか公開されている抽出手法がないため,この手法に対してのみ評価をする.ルールは文脈を考慮しない単純なもので,主に用語間の単語数や出現順序に基づいていて,一部の関係クラスに対しては辞書との一致をとって関係を抽出する.なお,\citeA{wen-ji-2021-utilizing}や\citeA{zhao-etal-2021-effective}といった手法は時間関係抽出に特化した手法で,適用することはできない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{11table03.tex}%\caption{材料合成手順コーパスでの評価(F値[\%])}\label{tab:mysore}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tref{tab:mysore}に示した材料合成手順コーパスに対する性能の評価では,逐次的な辺編集による性能の向上が確認できた.まず,スクラッチとヒューリスティクスによるルールベース抽出器による抽出結果(以下,ルールと呼ぶ)を比較すると,わずかにスクラッチの方が性能が低く,ルールの方が深層学習モデルより高い性能で抽出できた.これは,文脈を考慮せずとも抽出できる関係が多く存在し,事前学習モデルを利用した深層学習モデルでも抽出できない関係があることを示している.ルールの抽出結果を編集した場合では,ルールと比べて6.4\%ポイント向上しており,編集が効果的に作用している.これは,ルール中のヒューリスティクスを間接的に深層学習モデルに導入できたためで,逐次的な辺編集モデル単体ではルールベース抽出器より性能が低くても,ルールベース抽出器の出力を合わせて利用することで性能が向上した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{MATRESコーパスによる評価}\label{ssec:eval-matres}次に,MATRESコーパス\cite{ning-etal-2018-matres}を利用して,他のコーパスに対する評価と最先端のモデルの出力を編集した場合の効果を確認する.材料合成手順コーパスに対する性能評価では,このコーパスのルールベース抽出器の出力に対して,逐次的な辺編集の有効性が示された.他のコーパスにおいて,最先端の深層学習モデルの出力を編集した際の効果を確認するために,MATRESコーパスを使用する.MATRESコーパスは時間関係抽出の標準的なベンチマークとして利用されており,抽出するための手法が多く提案されている\cite{han-etal-2021-econet,wen-ji-2021-utilizing,zhao-etal-2021-effective,mathur-etal-2021-timers}.MATRESコーパスの時間関係抽出では,時間関係の制約を導入する有効性が確認されており\cite{ning-etal-2018-joint-transitivity},時間的制約として関係間の相互作用が重要となる.MATRESコーパスには,ニュース記事に対してイベントとなる用語と,その間の時間関係がタグ付けされている.MATRESコーパスの時間関係のラベルは,始点のイベントが終点のイベントの事前であること示す\before{},始点のイベントが終点のイベントの事後であること示す\after{},始点のイベントと終点のイベントが同時であること示す\equal{},始点のイベントと終点のイベントの時間関係が曖昧であること示す\vague{}の4つのラベルが存在し,これらの関係によってイベントの発生時間が相対的にタグ付けされている.MATRESコーパスでは始点の用語から後方で,文内及び隣接する次の文中に含まれる用語のみが終点の用語となる.そのため,既存研究\cite{ballesteros-etal-2020-severing-smtl}と同様に,時間関係を持つ用語ペアは与えて,時間関係を持ちえない用語ペアを無視する関係分類の設定として,\vague{}の関係を負例とした.データの分割は\citeA{wen-ji-2021-utilizing}と同様に,訓練,開発,評価用データをそれぞれ234,21,20件とした.関係の統計量は\tref{tab:matres-num-relation}に記述した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%tale4\begin{table}[b]\input{11table04.tex}%\caption{MATRESコーパスの関係ラベルとその統計値}\label{tab:matres-num-relation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{11table05.tex}%\caption{MATRESコーパスでの評価(F値[\%])}\label{tab:matres}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%MATRESコーパスに対しては,最先端の手法でソースコードが公開されているもの\cite{zhao-etal-2021-effective,wen-ji-2021-utilizing}に限定し,再現実験によって得た出力をモデルの入力として利用した.\citeA{zhao-etal-2021-effective}は,明示的に時間関係を言及している文を時間関係抽出の遠距離教師データとして収集して利用した.\citeA{wen-ji-2021-utilizing}は,時間関係抽出に特化して,イベントの相対的な時間を予測する手法を提案した.これらのモデルの公開されているソースコードを使用し,その出力を逐次的な辺編集モデルの入力として利用した.\tref{tab:matres}に示したMATRESコーパスに対する性能評価では,編集前と比べてわずかにF値が上昇した場合はあったものの,ほとんど逐次的な辺編集の効果は見られなかった.\citeA{zhao-etal-2021-effective}に対する場合では,編集前よりも編集後の方が高い性能で抽出できているが,両者ともスクラッチより低い性能であった.\citeA{wen-ji-2021-utilizing}に対しては,編集前はスクラッチよりも高い性能で,編集後にはわずかにF値が上昇したが,有意な差はなく,ほとんど効果はなかった.このように,MATRESコーパスにおいて最先端の深層学習モデルの出力を編集した場合に対しては,材料合成手順コーパスほどの改善が見られず,わずかにF値が上がる場合はあったもののほとんど効果はなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{解析} \label{sec:analysis}材料合成手順コーパスで評価した場合には逐次的な辺編集によって性能が向上した一方で,MATRESコーパスに対する評価ではほとんど性能が向上しなかった.MATRESコーパスの編集前が既存の深層学習モデルで得られている最先端の結果で,性能を向上させるのが困難なことを考慮しても,ほとんど性能が変化しない要因があると考えられる.そこで,これらの評価の実験の間で異なる点を洗い出し,関係候補編集タスクの設定で効果が得られる条件を明確にする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{編集事例の確認}\label{ssec:analysis-case-study}まず編集の特徴を確認するために,実際の編集事例を確認する.材料合成手順コーパスにおけるそれぞれのモデルの抽出結果を\fref{fig:material-example}に示した.それぞれ個別に特徴を確認すると,ルールベース抽出器は用語の出現パターンによって抽出しているため,用語が離れて記述されていても抽出できている関係がある一方で,\entity{SrCO3}・\entity{MoO3}・\entity{Ni}の間の並立の関係が認識できていなかったり,連続していない\entity{prepared}と\entity{mixed}の操作の間で関係をつけてしまったりしている.スクラッチでは離れて記述されている用語同士の関係がうまく抽出できておらず,\entity{SrCO3}・\entity{MoO3}・\entity{Ni}のうち,\entity{Appropreateproportions}と\entity{Ni}の間の関係や操作の順序がうまく抽出できていない.ルール$+$逐次的な辺編集では主にルールベース抽出器とスクラッチで抽出できている関係を合算したような抽出結果となっていて,操作の順序が正しく抽出できており,\entity{prepared}と\entity{mixed}が連続していない操作であることも認識できている.更に,追加で抽出できている関係も確認できた.例えば,\entity{Appropreateproportions}と\entity{SrCO3}・\entity{MoO3}・\entity{Ni}の間の関係を確認すると,ルールベース抽出器でもスクラッチでも抽出できていない\entity{Ni}との間の関係を抽出できている.これは,関係間の相互作用を表現することで,他の関係を介して並立の関係を認識できていると考えられ,逐次的な辺編集の利点が確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{30-2ia11f3.pdf}\end{center}\caption{材料合成手順コーパスの抽出事例}\label{fig:material-example}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%MATRESコーパスにおいて\citeA{wen-ji-2021-utilizing}の出力を逐次的な辺編集をした事例は\fref{fig:matres-case-study}に示した.材料合成手順コーパスの抽出結果と比較すると,MATRESコーパスに対してはあまり編集が行われず,編集された関係に明確な法則は確認できなかった.このことから,MATRESコーパスに対しては,逐次的な辺編集で編集するよりも,抽出済みの関係を保持するようにモデルが学習されていることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-2ia11f4.pdf}\end{center}\hangcaption{MATRESコーパスの抽出事例.矢印は編集,括弧内は正解ラベルを表しており,誤って抽出されている部分のみ正解ラベルを記述した.時系列順は時間関係から導き出したもので,数字が少ないほうが先に発生したイベントである.}\label{fig:matres-case-study}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アブレーション研究}\label{ssec:ablation}\sref{sec:eval}の抽出性能の評価で得られた結果が,提案のどの部分の寄与によるものかを解析するため,モデルの機能を変更して性能を確認するアブレーション研究を行う.アブレーション研究では,編集前の関係グラフの影響,編集順序の影響,および関係間の相互作用を考慮する影響を確認する.材料合成手順コーパスとMATRESコーパスの二つのコーパスに対して,それぞれ最も高い性能が得られたルールベース抽出器の出力と,\citeA{wen-ji-2021-utilizing}の出力に逐次的な辺編集を適用した場合について実験する.アブレーション研究のために,ランダムな辺で初期化した関係グラフを編集するランダム初期化,文書毎にランダムに定めた順序で編集をするランダム順序,全ての辺を同時に編集する$h_{max}=1$,関係間の相互作用を考慮せずに文脈のみで分類する$L=0$のモデルを用意した.ランダム初期化は編集前のグラフと同数の割合の辺となるように,ランダムに用語間に関係をつけて初期化した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{11table06.tex}%\caption{アブレーション研究}\label{tab:ablation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%アブレーション研究の結果を\tref{tab:ablation}に示した.まず,編集前の関係グラフの影響を確認するために,既存手法で初期化した関係グラフを入力とした関係候補$+$逐次的な辺編集,辺がついていない関係グラフを入力としたスクラッチ,ランダムに初期化した辺をもつ関係グラフを入力としたランダム初期化を比較する.両方のコーパスで関係候補$+$逐次的な辺編集が最も高い性能を示したため,関係候補編集タスクの設定では,既存手法が出力した関係を入力として利用して,モデルの抽出性能の改善に有効であると言える.また,ランダムな辺の関係グラフを入力しても性能が向上するわけではないことから,入力のグラフの内容が影響することがわかる.以上から,既存手法の出力を関係候補として初期化して編集することは有効であると確認でき,編集前の関係の内容によって向上する性能が変化することが確認できた.次に,編集順序の影響を確認するために,ヒューリスティクスとして近くに記述された用語ペア間の関係性から順番に分類した提案手法と,順番をつけずに全ての関係を同時に編集する$h_{max}=1$,ランダムな順番で編集するランダム順序を比較する.抽出性能を比較すると,全て同時に編集した場合より逐次的に編集したほうが性能が高く,材料合成手順コーパスでは近い順よりランダムな順序の方が,MATRESコーパスでは近い順の方が性能が高かった.編集前と比較すると,材料合成手順コーパスは性能が下がらなかったが,MATRESコーパスに対しては編集することでわずかながら性能が低下した.これは,適切な編集順序が存在しているが,必ずしも近い順が最適ではないことを示唆している.しかしながら,編集順序による性能の変化は小さく,性能が向上した要因とはならないことが確認できた.関係間の相互作用については,$L=0$として関係間の相互作用を考慮しないようにすると,材料合成手順コーパスに対してはわずかに性能が低下し,MATRESコーパスに対しては性能があまり変わらなかった.このことから,RGCNによる関係間の相互作用の表現は,材料合成手順コーパスには少し効果があるものの,性能に対する寄与は大きくなく,性能向上の最大の要因でないと確認できた.以上から,入力の関係グラフを変更した場合に最も性能の低下が変化したため,逐次的な辺編集によって性能向上できるかどうかの条件は入力の関係グラフの辺の内容にあると推測できる.アブレーション研究では性能に寄与する部分しか確認できないため,より詳細に入力の関係グラフの条件を調査する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{編集前の関係グラフの影響}\label{ssec:analysis-input-effect}アブレーション研究の結果から,逐次的な辺編集によって性能の向上に関与する最大の要因は入力される関係グラフの内容にあると確認できたため,関係グラフの内容について更なる調査が必要である.そこで,編集前のグラフの質の影響を確認するために,\fref{fig:edge-destroy}に編集前の関係グラフ中の辺を削除したときに抽出性能がどの様に変化するか示した.この時,編集前のグラフはアブレーション研究の実験と同様に,材料合成手順コーパスに対してはルールベース抽出器,MATRESコーパスに対しては\citeA{wen-ji-2021-utilizing}の出力とした.グラフの横軸は辺の維持率で,0\%のときにはスクラッチ,50\%の場合は編集前のグラフ中の辺を半分削除した場合,100\%のときには既存手法によって抽出された関係がそのまま入力される場合となる.辺の削除は,辺の維持率に合わせて,その辺が正解している関係かどうか関係なくランダムに行う.そのため,辺を削除したとしても編集前のF値が高くなる場合はあるが,編集前にはそれぞれF値で材料合成コーパスに対しては80.5\%,MATRESコーパスに対しては80.6\%と高い性能で抽出できているため,基本的には削除されたグラフの精度は低くなる.この解析ではランダム性があるため,試行回数を5回に増やして実験を行い\footnote{サンプル数が異なるので,数値は\tref{tab:mysore},\ref{tab:matres}と一致しない.},その平均と95\%信頼区間をグラフに示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-2ia11f5.pdf}\end{center}\hangcaption{編集前の関係を削除したときの抽出性能の推移.色が塗られた部分はそれぞれに対する95\%信頼区間である.}\label{fig:edge-destroy}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fref{fig:edge-destroy}から,入力されるグラフの辺の維持率を上昇させると性能が向上することが確認でき,編集前のグラフの精度が高い場合には編集後にも高い性能で抽出できるようになると言える.また,辺を削除したときの性能の低下は,MATRESコーパスの場合よりも材料合成手順コーパスの場合の方が大きかった.材料合成手順コーパスのグラフは,辺維持率が100\%から80\%の区間で急激に低下しており,信頼区間から分散が材料合成手順コーパスの方が大きいことも確認できる.このことから,材料合成手順コーパスに対して入力された関係グラフに含まれる辺の中に効果的な辺が含まれており,その辺が削除された場合に性能が低下していることが示唆される.この効果的な辺がどのような辺なのかわかれば,逐次的な辺編集を効果的に利用できる条件がわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{11table07.tex}%\hangcaption{材料合成手順コーパスの開発データにおけるルールベース抽出器とスクラッチで抽出された関係の混同行列.\none{}は関係がないことを示す.}\label{tab:cm-material-rule-scratch}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{table}[b]\input{11table08.tex}%\hangcaption{MATRESコーパスの評価データにおける\protect\citeA{wen-ji-2021-utilizing}の抽出器とスクラッチで抽出された関係の混同行列}\label{tab:cm-matres-wen-scratch}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで,性能の向上に寄与している関係は逐次的な辺編集モデル単体では抽出できない関係,つまりスクラッチの場合に抽出できない関係が性能に寄与しているという仮説を立てた.これは編集による変化を観察して建てた仮説で,MATRESコーパスにおいて編集された辺の数が少なかったことからこの洞察を得た.仮説の事前の検証のため,開発データの関係をスクラッチで抽出した場合と既存手法で抽出した場合の関係を比べる.編集前とスクラッチでどれだけ異なる関係が抽出されているのか確認するため,材料合成手順コーパスに対してはルールベース抽出器とスクラッチ,MATRESコーパスに対しては\citeA{wen-ji-2021-utilizing}とスクラッチが予測した関係の混同行列を作成して比較する.材料合成手順コーパスの混同行列は\tref{tab:cm-material-rule-scratch},MATRESコーパスの混同行列は\tref{tab:cm-matres-wen-scratch}に示した.材料合成手順コーパスに対しては,ルールとスクラッチで異なる関係を正例として予測しており,クラス間で誤っている場合は少ない特徴がみられた.MATRESコーパスに対しては,異なる部分の中でも多くが\after{}と\before{}の間で異なる予測をしている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\vspace{-0.5\Cvs}\input{11table09.tex}%\hangcaption{材料合成手順コーパスの評価データに対する関係予測の内訳.TPは正しく正例を,TNは正しく負例を,FPは誤って正例を,FNは誤って負例を予測した場合を表す.赤く塗られた部分はスクラッチで誤っていてルールで正しく抽出できている部分,青く塗られた部分はルールで誤っていてスクラッチで正しく抽出できている部分である.赤く塗られた部分の合計は554,青く塗られた部分の合計は205である.}\label{tab:material-tp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{11table10.tex}%\hangcaption{MATRESコーパスの評価データに対する関係予測の内訳.TPは正しく正例を,TNは正しく負例を,FPは誤って正例を,FNは誤って負例を予測した場合を表す.赤く塗られた部分はスクラッチで誤っていて\protect\citeA{wen-ji-2021-utilizing}で正しく抽出できている部分,青く塗られた部分は\protect\citeA{wen-ji-2021-utilizing}で誤っていてスクラッチで正しく抽出できている部分である.赤く塗られた部分の合計は43,青く塗られた部分の合計は35である.}\label{tab:matres-tp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%混同行列のみでは正解との対応が確認できないため,関係を持ちうる用語ペアごとに,その用語ペアの関係予測が正解しているかどうか,それが正例かどうかを数え,スクラッチと編集前で対応付けて関係予測の内訳を確認する.材料合成手順コーパスの予測の内訳は\tref{tab:material-tp},MATRESコーパスの予測の内訳は\tref{tab:matres-tp}に示した.スクラッチと比べて編集前の方が正しく抽出できているのが表中の赤く塗られた部分,スクラッチの方が正しく抽出できているのが青く塗られた部分で,これらの数が多いほど異なる関係が抽出できているということである.それらの合計から,材料合成コーパスの方が編集前とスクラッチの間で差分が大きいことがわかる.一つの指標として,どちらか一方のみで抽出できている正例の割合を計算したところ,\tref{tab:ratio-positive}のようになり,材料合成手順コーパスに対する抽出の方が差分があることが確認できた.以上の結果は,編集前と編集するモデル単体で抽出できる関係に差があることが条件であるという仮説に矛盾しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{11table11.tex}%\hangcaption{材料合成手順コーパスとMATRESコーパスにおける編集前とスクラッチのどちらか一方のみで抽出できている正例の割合}\label{tab:ratio-positive}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%仮説を実際に検証するため,編集前の関係グラフをスクラッチで正しく抽出できていない関係として,徐々に辺を追加したときの性能の変化を確認した.この実験では,スクラッチで抽出できなかった関係が重要な役割を持っているのか確認することを目的とする.まず,スクラッチで抽出した場合の関係と正解の関係を比べて,スクラッチで誤って抽出している関係を取り出す.そして,スクラッチで抽出した関係に対して,抽出できなかった関係を割合を変えながら辺に追加して,それを編集前の関係として編集したときの性能の変化を観察する.このとき,スクラッチで正しく抽出できている関係を追加した関係と置き換え,入力するグラフ全体の質は保った状態で検証を行った.つまり,0\%の場合は入力をスクラッチの出力にした編集,100\%の場合はスクラッチで編集できなかったすべての関係を追加して,その関係の数だけスクラッチの辺を誤るように置き換えたグラフを入力とした編集を表している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{30-2ia11f6.pdf}\end{center}\hangcaption{スクラッチで抽出できなかった関係を追加した場合の性能の変化.色が塗られた部分はそれぞれに対する95\%信頼区間である.}\label{fig:inject-edge}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fref{fig:inject-edge}に示した検証の結果より,効果的に作用している関係はスクラッチで抽出できていない関係であることが確認でき,仮説が正しいと確認できた.関係グラフ全体の質はほとんど変化させずに,スクラッチで抽出できていない関係に置き換えると編集後の性能が向上した.よって,編集するモデル単体で抽出できていない関係が性能向上に寄与していることがわかる.加えて,辺の導入率0\%は逐次的な辺編集モデルを使ってスクラッチの設定で抽出した関係を入力として,逐次的な辺編集モデルを学習しなおして編集している場合を示している.この場合では,スクラッチの場合とほとんど数値の変化はない.これから,編集前の抽出を行ったモデルと同じモデルで編集してもほとんど向上がみられないということが確認できる.また,追加する関係の数に対して完全に線形ではなく,それ以上に性能が向上していることが確認できる.このことから,単純に入力された辺を複製しているだけではなく,その辺を手掛かりに,他の辺の抽出ができるようになっていることがわかる.実際に編集前とスクラッチの両者で抽出できておらず,逐次的な辺編集モデルによって新たに抽出できるようになった関係の数を数えると,材料合成手順コーパスの場合で40,MATRESコーパスの場合で1の関係が新たに抽出できるようになった.この検証から,関係候補編集タスクにおいて編集によって性能を向上させるために重要な要素は,入力される関係と編集モデル単体で抽出可能な関係が異なることであると確認できた.つまり,編集によって組み合わせるモデルは異なる観点で作成されていることが重要である.本研究の場合では材料合成手順コーパスにおいて,ヒューリスティクスに基づくルールベース抽出器と深層学習モデルを組み合わせることで性能の向上が確認できたのは,編集前と編集するモデルは異なる観点のモデルで,異なる関係が抽出できていたため,性能が向上した.MATRESコーパスに対しては,編集前の関係抽出と編集の両者で事前学習モデルをベースとしたモデルを利用していたことから似たような出力をするモデルとなっていて,編集によって性能がほとんど向上しなかった.既存手法の出力を関係候補編集タスクの設定として再利用して効果があるのは,既存手法と編集するモデルに差分があることであり,関係候補編集タスクに利用する既存手法を決定する際の指標となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} \label{sec:conclusion}本研究では関係抽出において,関係抽出モデルの作成時に,既存手法で抽出された結果を再利用して編集する関係候補編集タスクを提案した.更に,そのタスク設定のもとで関係間の相互作用を考慮すべく,抽出済み関係候補を関係グラフとして構成して,関係グラフの構造の表現を導入して逐次的に関係を編集するモデルを提案した.実験では材料合成手順コーパスに対してルールベースの抽出器の出力を編集して改善できた.一方で,MATRESコーパスに対しては最先端の深層学習モデルの出力を編集したが有効性が確認できなかった.解析ではこの要因を解析し,関係候補編集タスクにおいて編集した際に性能が向上する条件は,編集するモデル単体で抽出可能な関係と編集前の関係に差があることであると明らかにした.今後は過去に提案された手法によって抽出された出力を解析することで,高性能なモデルのほとんどが深層学習となっている近年の状況であっても有用な手段を発見する必要がある.本研究によって,深層学習モデルによる抽出を,既存手法の出力を利用して向上させるための条件が示された.深層学習以前の研究では,情報抽出は別の手段や手法で行われていたが\cite{mccallum-2000-ie-maximum-entropy},それらの中には深層学習モデルと合わせて利用するのに有用なものがある可能性がある.例えば,本研究では単純なルールベース抽出器を深層学習モデルと合わせて使うことで抽出性能を向上させた.このような過去の研究から,深層学習と合わせて利用するのに有用な手段を明らかにできれば,さらなる情報抽出の性能向上を見込める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS特別研究員奨励費JP22J14025の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}%%%%\bibliography{11refs}\input{IA0300_11makino_bbl.tex}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{牧野晃平}{%2019年豊田工業大学工学部卒業.2021年豊田工業大学大学院修士課程修了.現在,豊田工業大学大学院工学研究科博士課程に在学中.言語処理学会,人工知能学会各会員.}\bioauthor{三輪誠}{%2008年東京大学大学院博士課程修了.博士(科学).東京大学,マンチェスター大学を経て,2014年より豊田工業大学知能数理研究室准教授.ACL,情報処理学会,言語処理学会,人工知能学会各会員.}\bioauthor{佐々木裕}{%1988年筑波大学修士課程理工学研究科修了.2000年同大学より博士(工学)授与.NTT研究所,ATR,マンチェスター大を経て,現在,豊田工業大学知能数理研究室教授.言語処理学会等会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V09N01-02
\section{はじめに} label{No1}近年,聴覚障害者の重要なコミュニケーション手段の1つである手話と,健聴者のコミュニケーション手段である日本語とのコミュニケーション・ギャップの解消を目的とする手話通訳システムや手話の学習支援システムなどの研究が各所で盛んに行われている\cite{Adachi1992a}.これら手話を対象とした自然言語処理システムを実現するための重要な要素技術の1つである手話の認識や生成処理技術は,動画像処理の研究分野であるが,対象が限定されているため,動画像構成の単位を明確に規定できる可能性があり,手話の知的画像通信や手話画像辞書への特徴素の記述法が提案されている\cite[など]{Kurokawa1988,Kawai1990,Sagawa1992,Terauchi1992,Nagashima1993,JunXU1993}.また,日本語文の手話単語列文への言語変換処理に関する基礎検討としては,\cite[など]{Kamata1992,Adachi1992b,Adachi1992c,Kamata1994,Terauchi1996}が報告されている.さらに,手話表現の認識結果を基に日本語文を生成する研究としては,\cite[など]{Sagawa1992,Abe1993}がある.なお,これらの処理精度に影響を与える電子化辞書の構成方法に関しては,\cite[など]{Adachi1993,Nagashima1993,Tokuda1998}が提案されている.さて,2言語間の対訳電子化辞書システムを構築する場合の重要な要素技術の1つとして,原言語側と目標言語側との双方向から単語を検索できる機能の実現が挙げられる.ここで,手話単語を対象とした場合の課題の1つは,視覚言語としての特徴から,手指動作表現を検索キーとし,対応する日本語の単語見出し(以後,本論文では,日本語ラベルと略記する.)を調べる手段をどのように実現するかという点である.すなわち,視覚情報としての手指動作特徴をどのように記号化して,検索要求に反映させ,検索辞書をどのように構成するかという問題といえる.この問題に対する従来のアプローチは,手の形,動き,位置などの手指動作特徴の属性を詳細な検索項目として用意し,これらの項目間の組合せとして検索条件を設定し,同様に,これらの検索項目を基に手話単語を分類したデータベースを検索辞書としていた\cite[など]{KatoYuji1993,Naitou1994}.この検索アプローチは,手話言語学における手話単語の表記法(単語の構造記述におけるコード法)に基づいている\cite{Kanda1984,Kanda1985}.しかし,これらの表記法と分類観点は,本来,個々の手話単語の表現を厳密に再現(記述)することを目的としているため\cite{Stokoe1976},項目数が多く,また,項目間の類似性もあり,初心者には難解なコード体系といえる.そのため,このアプローチによる検索システムの問題点が,\cite{Naitou1996}により指摘されている.それによると,手の形,動き,位置などの検索条件を指定する場合,\begin{enumerate}\item検索項目間に類似性が高いものがあり,利用者が区別しにくく,\item検索条件や検索項目が多くなると,利用者は選択操作が煩わしくなり,\end{enumerate}\noindent結果として選択ミスを生じ,満足のゆく結果が得られないとされる.これは,利用者が認知した手話表現の手指動作特徴を再生し,検索条件に設定する場合に,不必要な検索条件までも指定してしまう点に原因があるといえる.一方,認知された外界の情報を,ある表現形式(表象)から別の表現形式に変換することを,一般に,コーディング(符号化)と呼ぶ.また,視覚的な特性を持つ「視覚的コード」と言語的な特性を持つ「言語的コード」を重要視する「二重コード説」によると,写真などの視覚情報を記憶する場合に,視覚的コーディングに加え,「赤い色をした車」のように言語的コーディングも同時に行われているとされる\cite{Ohsima1986}.さらに,単語は文字(あるいは音素)の組み合わせで構成されるが,例えば,(1)「キ」を提示した後で,それは「キ」あるいは「シ」だったのかを質問した場合と,(2)「テンキ」を提示した後で,それは「テンキ(天気)」あるいは「テンシ(天使)」だったのかを質問した場合とでは,(2)の方が成績が良いとされ,文字の弁別が単語という文脈内で規定された方がより正確に記憶するとされる「単語(文脈)優位性効果\cite{Reicher1969}」が知られている.これら認知科学の成果を手話単語の検索問題に当てはめて考えてみると,人間が手指動作表現を認知する場合,「両手を左右に動かす」というように,言語文として言語的コーディングを行い記憶しているとすれば,記憶された言語的コード,すなわち,手指動作特徴を記憶した際の文脈環境を保持する言語文そのものを検索キーとするアプローチが考えられる.本論文では,検索条件を細かく指定する従来の方法とは異なり,手話単語の手指動作特徴を日本語文で記述した手指動作記述文を検索条件とみなし,辞書にある類似の手指動作記述文を類似検索し,検索結果に対応付けられている日本語ラベルを提示する方法を提案する.本手法の特徴は,手話単語の手指動作特徴間の類似性を手指動作記述文間の類似性と捉え,入力された手指動作記述文と辞書に格納された手指動作記述文との類似度を計算する点にある.すなわち,「{\bf手話単語の検索問題を文献検索問題と捉えたアプローチ}」といえる.また,この手指動作記述文は,一般に,市販の手話辞典に記載されており,手話の学習者の多くが,慣れ親しんでいる文形式と捉えることができる.なお,本提案手法に関連する研究として,翻訳支援を目的とした対訳用例の類似検索に関する研究が幾つか報告されている\cite[など]{NakamuraNaoto1989,SumitaEiichiro1991,SatoSatoshi1993,TanakaHideki1999}.これらにおいては,文間の類似度の計算に用いる照合要素として,文字を対象とする方式と単語を対象とする方式に大別することができる.また,これらの要素間の照合戦略としては,出現順序を考慮しながら共有要素を計算する方式(以後,順序保存と略記する.)と,出現順序を考慮しない計算方式(以後,順序無視と略記する.)に大別することができる.ここでは,照合要素が文字列と単語列という違いはあるが,順序無視と順序保存の照合戦略を用いた代表的な2つの手法について概説する.\cite{SatoSatoshi1993}は文字の連続性に着目した文間の類似性を基準に,「最適照合検索」として,順序保存を採用した検索システム(CTM1)\cite{SatoSatoshi1992}と順序無視を採用した(CTM2)の検索効率を比較し,ほぼ同等であるが順序無視の方が若干優位としている.一方,\cite{TanakaHideki1999}は,放送ニュース文の単語列を対象に,AND検索に順序保存の制約条件を加え,長文に対する効果的な用例検索法を提案し,順序保存の方が優位としている.なお,両者とも類似性を計る指標として,語順(あるいは文字の出現順序)を考慮するアプローチの重要性を指摘している.このことは,文構造の類似性を表層情報として得られる文形式(単語の配列順序)の類似性を文間の類似度に加味することの意義を示唆している.以下,2章で,手指動作記述文の特徴について述べ,3章では,手指動作記述文間の類似度と手話単語の検索方法について述べ,4章で,提案手法の妥当性を検証するために行った実験結果を示す.5章では,実験により明らかとなった問題点について議論し,今後の課題について述べる.最後に,6章で,まとめを行う. \section{手指動作記述文の特徴} label{tokuchou}一般に,市販されている手話辞典の多くは,手話単語の日本語ラベルに対して,その手指動作表現の手続きをイラスト以外に,日本語文で表現した手指動作記述文を記述している\cite[など]{MaruyamaKoji1984,Watashi1986}.そこで,以下に示す手話単語対の「午前」と「午後」を例に考えてみると,この単語対は,手指動作特徴の中で「手の動き(右に倒すのか左に倒すのか)」に関する手指動作特徴だけが異なる手話単語の最小対を構成している.明らかに,与えられた手指動作記述文間の比較からも,この関係を導出することができる.\begin{enumerate}\item{\gt午前}右手の人差指と中指を立て額の中央に当て\underline{右に倒す}\item{\gt午後}右手の人差指と中指を立て額の中央に当て\underline{左に倒す}\end{enumerate}このように,手指動作記述文は,手話単語の手指動作表現の特徴構造を,構造を持つ1次元の記号系列(言語文)に写像した特徴系列と捉えることができる.この特徴系列は,日本語文であり,文法構造を内在しており,手話単語の手指動作表現を生成するための手続きを記述したプログラム(手続き文)と捉えることもできる.また,手指動作記述文は一般の自然言語文に比べ,文中で用いられる語彙には,ある種の制約があると捉えることができる.例えば,名詞は手指動作表現を特徴付ける手や顔,胸などの身体の上半身の部位を表すものに限定されている.また,動詞は手指の形や動きを表現するものに限定されている.さらに,副詞は手指動作の強弱や反復などの程度を表すものに限定されている.同様に,動作表現を生成する手続き文としての特徴から,文中での単語の配列(文形式)に,ある種の構文パターンがあると考えられる.例えば,「午前,午後」の例が示すように,「手の形,手の位置,手の動き」の順に手指動作特徴を表す単語列が配列されている.これらの特徴から,手指動作記述文は言語の使用環境が,一般の自然言語文に比べて,語彙的にも構文的にも強い制約を受けた有限の文集合と捉えることができる. \section{手指動作記述文を用いた手話単語の類似検索} label{Sign}\cite{AdachiHisahiro2000}は,与えられた単語集合から類似の手指動作特徴を含む手話単語対を抽出する方法として,手話単語間の手指動作特徴の類似性を手指動作記述文間の類似性と捉えたアプローチによる方法を報告している.そこでは,手指動作記述文を,文を構成する文字配列を特徴観点とする$n$次元の特徴ビットベクトルで表現し,以下に示す文間の類似度の計算式(\ref{sim})を導出している.\begin{equation}\label{sim}S(A,B)=\frac{LCS(A,B)^2}{M・N}\end{equation}\noindentここで,$M,N$はそれぞれ,手指動作記述文$A,B$の長さ(文字数)を表し,$LCS(A,B)$は最長共有部分列の長さ\cite{Thomas1990}を表している.\subsection{手話単語の類似検索への適用}\cite{AdachiHisahiro2000}では,ある1つの辞書に記載の手指動作記述文の文集合をその処理対象としている.一方,本論文で対象とする手指動作記述文の文集合は,検索データベース,すなわち,検索辞書としての手指動作記述文(以後,{\bf辞書記述文}と略記する.)と,検索要求としての手指動作記述文(以後,{\bf検索記述文}と略記する.)というように,異なる2つの文集合を対象とする必要がある.すなわち,一般の情報検索システムで問題となる利用者の質問と辞書との表現上の差\cite{Nagao1983}の問題と同様に,検索記述文と辞書記述文とのギャップについて考慮する必要がある.例えば,辞書記述文は手話表現を生成する手続き文(プログラム文)としての特徴から,手の形,手の位置,手の動きなどの手指動作特徴を詳細に記述していると捉えることができる\footnote{必ずしも,全ての手指動作特徴を洩れなく記述している訳ではなく,イラストの情報との相補関係にあり,省略されている特徴素もある}.一方,検索記述文は手話の学習者の入力を想定しており,辞書記述文に比べ特徴素の省略などにより,より簡潔な文となる可能性が高い.しかし,手話の学習者が日常,手話単語を学習する際に参考としている手話辞典等で,慣れ親しんでいる辞書記述文と類似の文形式で入力するであろうと考えることができる.そこで,本研究では,このようなギャップがある手指動作記述文間の類似性の計算に適応させるため,検索記述文と辞書記述文の両者を疑似文節列に分割し,各疑似文節から平仮名以外の文字列のみを抽出した非平仮名キーワード列を特徴観点とした類似度の計算を行うこととする.\subsection{疑似文節列と検索キーワード列の抽出}漢字かな混じりの日本語文を形態素解析処理を用いないで,文節列に区切るヒューリスティック・ルール(経験則)として,以下に示す字種の違いに着目したものが考えられる.\subsubsection{文節区切りの経験則}\begin{description}\item平仮名文字が非平仮名文字へ字種が変位する境界部分を文節の区切りとする\end{description}\medskip例えば,「両手を交互に上下させながら左右に引き離す」をこの経験則で分割すると,『両手を/交互に/上下させながら/左右に/引き/離す』となる.この分割結果を本論文では,疑似文節列と呼ぶ.ここで,「疑似」という用語を冠した理由は,以下に述べるように,一般に,文節とは認定できない分割結果を含む場合があるためである.\subsubsection{経験則の問題点と利点}先に示した経験則による文節分割の問題点は,上記の例文にある複合動詞「引き離す」のような{\bf混ぜ書き}で表現される文要素を分割してしまう点と,「上下させながら」のように平仮名で表記される文要素は分割できない点である.しかし,上記の例文を辞書記述文とし、検索記述文に同じ意味を表す別の表現として「〜を左右に引く」や「〜を左右に離す」があった場合,混ぜ書きされた文要素を分割してしまう経験則の不具合は,逆に,このような同義関係にある文要素同士を類似度に反映できる利点があると考える.一方,この文字列の照合処理において,完全一致では動詞の活用部分の差や用いられる助詞の差(例えば,「左右に」と「左右へ」の関係)など,自然言語表現の持つ「語形の多様性」により同一視が難しいのは明らかである.\subsubsection{疑似文節列から非平仮名キーワード列へ}そこで,疑似文節列から語幹に相当する非平仮名列のみを抽出し,照合処理の対象キーワードとし,語形の多様性を吸収することとする.これにより,与えられた手指動作記述文からのキーワード列の抽出は,非平仮名文字列\footnote{漢字に限定しないのは,指文字等は一般にカタカナで表記される傾向がある点と,平仮名書きの文要素を,カタカナで表記あるいは置換できれば,比較的容易に類似度に反映させることが可能と考えたためである.なお,カタカナへの置換は今後の課題とする.}だけを対象とし,平仮名文字列は無視することとする.このため,漢字やカタカナで表記されていない文要素は類似度の計算では考慮されず,仮に,その文要素がその手話表現を特徴付ける場合であっても,類似度には反映されないという問題は残るが,本論文では,他の文要素間の類似性により文間の類似性を近似することとし,この問題は今後の課題とする.以上の議論から,検索記述文と辞書記述文との類似性を近似する類似度は,与えられた手指動作記述文から非平仮名の連続文字列を照合要素とし,以下に示す式(\ref{sim2})を用いて計算する.ここで,式(\ref{sim})と区別するため,$M_k,N_k$はそれぞれ,手指動作記述文$A,B$の非平仮名キーワード列の総数であり,$LCS_k(A,B)$は両者の最長共有キーワード部分列の長さを表す.なお,照合の際に次節で述べる「語選択の多様性」に対処する処理を適用する.\begin{equation}\label{sim2}S(A,B)=\frac{{LCS_k(A,B)}^2}{M_k・N_k}\end{equation}\subsection{キーワード照合における不要語と同義語の扱い}一般に,文献検索システムでは,出現頻度が高く文献の特徴付けに寄与しないキーワードを不要語(stopword)として,検索対象キーワードから除外する方法が採られる.手話単語は,一般に,両手の形が同一である「両手同形」,形が異なる「両手異形」と片手で表現する「片手」の3種類に大別される.ここで,両手同形の手話単語を例に考えると,市販の手話辞典に記載の手指動作記述文には,以下に示す例文(1)と(2)のように,「手の形」を規定する部分が「両手」に対して,前置される場合と後置される場合が混在している.\begin{enumerate}\item\underline{五指を折り曲げた}両手を交互に上下する\item両手\underline{の五指を折り曲げて}交互に上下する\end{enumerate}キーワードの出現順序を考慮する照合戦略では,利用者の検索要求を表す検索記述文が例文(2)と同一であった場合,例文(1)の共通キーワード数は例文(2)より少なくなる.この照合洩れを抑止するために,「両手」を不要語として,検索記述文と辞書記述文の両方から除外すれば,例文(1)と(2)の共通キーワードの数は同一となる.同様に,片手手話に分類される単語は,手話単語の基本形であり,一般に,「右手」を用いて表現する.そのため,利用者の検索記述文中で省略される可能性がある.このように,検索システム全体の構成として,最初に,両手同形なのか片手の手話なのかを利用者に指定させることで,片手手話の検索の際には「右手」を,両手同形手話の場合には「両手」をその照合対象から除外する戦略は,類似検索の照合処理に有効に機能すると考える.次に,検索記述文と辞書記述文のキーワードの一致を前提に照合を行なう本手法では,本来,同一であるべき照合要素が言語の多様性により別の表現となり,一致しない場合がある.例えば,「前方に出す」と「前に出す」の関係における「前方」と「前」との不一致である.また,手の動作位置などに関して,利用者の認識と辞書側の記述表現の差,すなわち,全体/部分の関係の捉え方の違いに起因する不一致が考えられる.例えば,辞書記述文では「胸の前」と記述されている部分に対して,利用者の検索記述文では「体の前」と記述する場合である.同様に,「口の前」と「顔の前」などが対応する,そこで,本手法では表\ref{dougi}に示すように,キーワード間の照合で同一視する同義置換表を用意し,これら「語選択の多様性」の一部を吸収することにする.このように,前節で述べた平仮名文字列を照合要素から除外する戦略が,語形に関する多様性に対処する枠組であり,本節で述べた処理は語選択の多様性に対する枠組と捉えることができる.\begin{table}[htbp]\caption{照合時に同一視するキーワード間の同義置換表の一部}\label{dougi}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular}{l|l}\hline同一視するキーワード群&文中で用いられる例\\\hline\hline前,前方&(前,前方)に出す\\\hline伸,立&親指を(伸ばす,立てる)\\\hline開,離,広&左右に(開く,離す,広げる)\\\hline体,胸,腹&両手を(体,胸,腹)の前に\\\hline\end{tabular}\end{center}\end{table} \section{実験と評価} 本手法の有効性を確認するため,本論文では,両手同形の手話単語集合を対象として,実験を行う.\cite{Naitou1996}の調査分析によれば,両手同形の手話単語は手話単語全体(2,524語)の41.7\%を占め,その中の90\%は両手の移動を伴う手話単語であり,移動を伴う手話単語は手話単語全体の84\%と報告されている.また,\cite{Kamata1991}は,手指動作特徴の中で「手の動き」の重み付けは,他の特徴素よりも大きいと指摘している.これは,\cite{Naitou1996}の分析でも両手同形の手話単語は他のタイプの手話単語に比べ,「手の形」が限定されており,手の動きが単語の弁別特徴素として働く割合が高い手話単語であるとの調査結果と一致する.これらの分析から,手話単語の大部分が動きを伴う表現であり,特に,両手同形の手話単語では,その割合が高く,本論文で提案する手法の妥当性を検証するのに適していると考える.\subsection{実験データとその特徴}実験データは以下の手順で準備したものを用いた.まず,検索記述文として「わたしたちの手話(1)」\cite{Watashi1986}に記載の手指動作記述文を,辞書記述文として「イラスト手話辞典」\cite{MaruyamaKoji1984}に記載の手指動作記述文を用い,文字列「両手」を含む両手同形の手話単語を抽出した.なお,複合手話表現と明示されている手話単語は,実験対象から除外した.次に,実験結果の分析・評価を明確にするため,抽出された検索記述文の日本語ラベルが,辞書記述文の文集合(613文)の日本語ラベルと対応関係にある検索記述文を選択し,最終的な検索記述文の文集合(87文)とした.ここで,両者の原辞書間で日本語ラベルが一致しないものがあるため\footnote{例えば,(離れる,別れる),(月日,いつ),(つまり,まとめる),(失う,なくす)などの対応関係を同定した.},原辞書の索引等を比較し,検索記述文の手話単語が辞書記述文に確実に含まれる検索記述文を選定し,人出により計算機に入力したものを実験データとして準備した.なお,表\ref{sample}には,検索記述文と辞書記述文の文字数の分布状況を示す.ここで,辞書記述文より検索記述文の方が短い文で構成されていることから,大まかな動作特徴を検索キーとする傾向にある利用者側の要求を反映した実験データと捉えることができる.\begin{table}[htbp]\caption{実験に用いた手指動作記述文の文字数による比較}\label{sample}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular}{c|r|r|r|r|r|r}\hline&総文数&平均字数&最大字数&最小字数&20字未満&20字以上\\\hline\hline検索記述文&87文&18.85&32&7&48文&39文\\\hline辞書記述文&613文&31.71&78&10&48文&565文\\\hline\end{tabular}\end{center}\end{table}\subsection{実験方法}実験は,まず,1次情報である検索記述文から非平仮名文字のみを検索キーワード列として抽出した2次情報を作成する.同様に,辞書記述文から抽出した非平仮名キーワード列の2次情報を作成する.そして,2次情報同士の文字列照合により類似度を求め,類似度の値が高いものほど上位に位置するように整列したものを検索結果とする.なお,共通キーワード数の計算には,順序保存と順序無視の照合方式をそれぞれ用いた類似度を計算し,検索結果を比較する.ここで,順序保存の類似度は式(\ref{sim2})で計算し,順序無視の場合には,式(\ref{sim2})の$LCS_k(A,B)$を,重複を許す形で照合を行なった共通キーワード数$C_k(A,B)$として類似度を計算する.また,2次情報との比較のため,与えられた1次情報の文字を照合要素とする類似度を式(\ref{sim})を用いて同様に計算し,検索結果を比較する.\subsection{評価方法}一般に,情報検索システムあるいは手法を評価する場合,利用者側の立場からみた検索効率を評価する尺度として,従来,呼出率と適合率が用いられてきた.ここで,呼出率とは,被検索対象である文書集合の中で,検索要求文に適合すると判断できる文書総数と,実際に検索された適合文書数との比で計算される.一方,適合率は検索された文書総数と,その中の適合文書数との比で計算される.なお,最近では,これらの指標が利用者の多様な検索要求に対して,必ずしも適切な評価尺度とはならないとの問題点が指摘されている\cite{Tokunaga1999}.本論文で対象とする手話単語を検索する場合,検索要求に適合する辞書の手指動作記述文は原則として1つである.すなわち,複数の適合手指動作記述文(に対する手話単語)を前提としていないため,適合率と呼出率による検索効率の評価は適していないと考え\footnote{現実には,予め,同一の手話表現に対する手指動作記述文を1つにマージしてない場合,複数の適合文が存在することになるが,すべての検索要求に対して,複数の適合文がある訳ではなく,その数は限られている.},以下で述べる評価尺度を用いることにする.\subsubsection{平均検索成功率}手話単語の検索の場合,一般的に,利用者の第一義的な検索要求は,「当該手話表現の日本語ラベルは何かを知りたい」であり,順序付けられた検索結果の上位に,対応する日本語ラベルが位置することが検索システムには求められる.さらに,現実的には,利用者は当該手話表現に適合する検索結果を上位から逐次調べる必要があるため,その手間数が少ない方が良い.すなわち,利用者の立場から見ると,その当該手話単語が見つかれば要求は満たされ,原則,それ以上は調べる必要性はない.しかし,手話単語を学習(手話表現を習得し理解を確実に)するためには,類似の動作特徴を持つ他の手話単語との関係を同時に学習することは重要である.一般に,音声言語の単語習得においても,他の単語との関係から当該単語の特徴や役割について理解することは,学習効果を高めるといわれている.この類似の動作特徴を持つ手話単語も同時に検索することが,本論文で提案する検索方法の重要な目的の一つである.そこで,本論文では,適合性の評価尺度として,検索結果の上位に位置するある規定範囲内で検索されたか否かの二値的な判断により,質問集合全体の総数と各質問に対する検索数の比で求まる「平均検索成功率」を評価指標とする.\subsubsection{平均到達度数}一方,検索結果の順序付けは類似度に応じて整列されるが,類似度の値が同じため同順位となる場合があり,適合部分集合の要素は複数となる.そのため,1位で検索された場合でも,同順位のものが10個あると,正解とみなされる手話単語に到達するまで,利用者は最悪で10回の手間を必要とする.この利用者が適合する結果に到達するまでの手間を評価尺度とする方法として,\cite{Cooper1968}の平均探索長(expectedsearchlength)がある.そこで,本論文では,評価尺度として,平均探索長の考えに基づく,「平均到達度数」を定義し,評価指標として用いることにする.平均到達度数は,平均探索長が同順位以外も含め,複数の適合文書の検索を想定して計算する必要があるが,本実験では,適合文書に対応する辞書記述文は,検索記述文の手話単語に対応する唯一の手指動作記述文を対象として評価したいため,適合辞書記述文を含む同順位の組み合わせだけを考慮すれば良いため,以下のように計算は比較的簡単化される.任意の検索要求に対して,同順位$i$番目で検索される部分集合の要素数を$P(i)$とする.また,当該手話単語が含まれる順位を$n$とすると,期待値としての平均到達度数$EL$は次式で求められる.\begin{equation}EL=\sum_{i=1}^{n-1}P(i)+\sum_{i=1}^{P(n)}\frac{i}{P(n)}\end{equation}ここで,すべての検索要求に対して,必ず$m$個の検索結果を出力するものとすると,到達度数の最小値は$1$であり,第一番目に当該手話単語が検索され,かつ,同順位のものがない場合となる.また,最大値は出力された$m$個をすべて調べる場合で$m$となる\footnote{検索に失敗した場合も,すべての出力結果を調べるため手間数は同等になる.また,同順位の要素数を含め$m$個を超えた場合,超えた分は検索されなかったものとみなす.}.\subsubsection{有用性の評価}有用性の観点からの評価と適合性の観点からの評価とは,一般に,直交する概念と捉えられる.すなわち,適合する文書ではなくても,その文書が,利用者にとって有用な情報を含んでいる場合があり,その観点で有用性が評価される.最近では,二値的な判断でなく多値的な判断を採り入れ,より詳細に適合性や有用性を評価している\cite{SatoSatoshi1993,TanakaHideki1999}.本論文では,検索結果を有用性の観点から評価するため,各検索記述文に対する上位10位までの検索結果の手話単語を求め,得られた手話単語に対して,以下に示す評価値をつける.\begin{itemize}\item[A]検索記述文の手話単語と一致する.\item[B]検索記述文の手話単語と手の形,位置,動きの中で1つだけ異なる最小対である.\item[C]検索記述文の手話単語と類似の動作特徴を含む.\item[F]類似の動作特徴を何も含まない.\end{itemize}また,各検索記述文に対する検索結果全体の評価は,上記の評価値の組み合わせとして,以下に示す総合評価値を与える.すなわち,Aを含むか否か(適合性)も加味された評価となる.\begin{description}\item[{\bfAB}]AとBを含む\item[{\bfAC}]AとCを含む\item[{\bfA\\}]Aを含む\item[{\bfBC}]BとCを含む\item[{\bfB\\}]Bを含む\item[{\bfC\\}]Cを含む\item[{\bfF\\}]A,B,Cいずれも含まない.\end{description}\subsection{結果と評価}\subsubsection{平均検索成功率による評価}表~\ref{kekka_hyouka}は,同順位で10位(上位から10番目)までの検索結果に対する平均検索成功率を示す.ここで,順序保存と順序無視による照合について,文字を照合要素とした場合,非平仮名キーワード列を照合要素とした場合との組み合わせによる検索結果を示している.欄中の最初の数値が検索要求総数(87件)の中で10位以内で検索に成功した数を示し,括弧の中は平均検索成功率を示している.\begin{table}[htb]\label{kekka_hyouka}\caption{上位から10番目までの平均検索成功率}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular}{c|p{7zw}|p{7zw}}\hline照合方式&文字&キーワード\\\hline\hline順序保存&52\(59.8\%)&61\(70.1\%)\\\hline順序無視&44\(50.6\%)&55\(63.2\%)\\\hline\end{tabular}\end{center}\end{table}明らかに,順序保存による照合が,順序無視に比べて平均検索成功率で優位にあることが分かる.同様に,照合要素をキーワードとした照合が,文字に比べて優位にあることが分かる.以上の結果から,本提案方式の順序保存・キーワード照合の組み合わせが優位にあり,上位10位以内で$70.1\%$の平均検索成功率を示している.\subsubsection{平均到達度数による評価}次に,平均到達度数をキーワード列を用いた順序保存による照合と順序無視による照合との計算結果を表~\ref{kekka_one}に示す.その結果,順序保存による照合方式の平均到達度数は5.01となり,順序無視による照合に比べて0.24優位にあることが分かる.一方,検索に成功した場合の平均到達度数では,逆に0.24の差がある.このように,上位10位以内に適合手話単語が含まれる場合,両者とも平均すると検索結果の上位3位以内に適合手話単語が位置していることを示している.\begin{table}[htbp]\caption{非平仮名キーワード列による検索結果}\label{kekka_one}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular}{c|c|c}\hline照合方式&成功時の平均到達度数&全検索要求に対する平均到達度数\\\hline\hline順序保存&2.99&5.01\\\hline順序無視&2.75&5.25\\\hline\end{tabular}\end{center}\end{table}\subsubsection{有用性の観点からの評価}図\ref{sample_hyouka}に評価結果の例を示す.この例の場合,入力された検索記述文の手話単語は【競技】であり,第1位で検索されたものが対応し,評価Aが与えられる.また,【競う】,【試験】は「手の動き」が異なる最小対であり\footnote{明らかに,図\ref{sample_hyouka}に示した「競う」と「試験」は同一の手話表現である.},【売買】は「手の形」が異なる最小対であり,いずれも評価Bとなる.一方,【話】は「手の形」と「手の位置」が異なるため,最小対とは認められず,評価Cとなる.その結果,検索結果全体の総合評価値は,AとBを含むため,最良値として,{\bfAB}のグレードが与えられる.\begin{figure}[tb]\setbox0\vbox{\footnotesize\tabcolsep=3pt\hbox{\|【競技(137)】=(競技):親指を立てた両手を交互に前後させる|}\hbox{\|keytoken(4)=親指立交互前後|}\hbox{\|--------------------------------------------------------------|}\hbox{\|A10.800lcs(4)m(5)【競技】親指立交互二度前後|}\hbox{\|B20.450lcs(3)m(5)【競う】親指立交互二三度上下|}\hbox{\|B30.375lcs(3)m(6)【試験】親指左右立二度交互上下|}\hbox{\|C40.321lcs(3)m(7)【話】人差指立口前二度交互前後|}\hbox{\|B50.281lcs(3)m(8)【売買】|}\hbox{\|親指人差指輪作左右交互前後動|}}\centerline{\fbox{\hboxto\textwidth{\hss\box0\hss}}}\caption{検索結果の有用性の評価例}\label{sample_hyouka}\end{figure}評価結果を表~\ref{Hyouka}に示す.総合評価が{\bfB}以上は71個で,全体の81.6\%である.また,総合評価が{\bfC}以上は78個で,全体の89.7\%を示している.このことから,検索に成功した場合には,類似の動作特徴を含む他の手話単語との比較が可能であり,適合手話表現と類似手話表現との弁別特徴の差や,意味の類似性や相違性を確認できるなど,手話単語の学習効果に貢献する有用な情報が検索できたといえる.\begin{table}[htb]\caption{検索結果の有用性の評価}\label{Hyouka}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular*}{\columnwidth}{@{\hspace{\tabcolsep}\extracolsep{\fill}}c|p{2zw}|p{2zw}|p{2zw}|p{2zw}|p{2zw}|p{2zw}|p{2zw}|r}\hline評価値&\multicolumn{1}{c|}{\bfAB}&\multicolumn{1}{c|}{\bfAC}&\multicolumn{1}{c|}{\bfA}&\multicolumn{1}{c|}{\bfBC}&\multicolumn{1}{c|}{\bfB}&\multicolumn{1}{c|}{\bfC}&\multicolumn{1}{c|}{\bfF}&\multicolumn{1}{c}{合計}\\\hline\hline計&\multicolumn{1}{r|}{52}&\multicolumn{1}{r|}{9}&\multicolumn{1}{r|}{0}&\multicolumn{1}{r|}{8}&\multicolumn{1}{r|}{2}&\multicolumn{1}{r|}{7}&\multicolumn{1}{r|}{9}&\multicolumn{1}{r}{87}\\\hlineA区分総計&\multicolumn{3}{c|}{61\(71.1\%)}&\multicolumn{4}{c|}{26\(29.9\%)}&87\\\hlineB区分総計&\multicolumn{5}{c|}{71\(81.6\%)}&\multicolumn{2}{c|}{16}&87\\\hlineC区分総計&\multicolumn{6}{c|}{78\(89.7\%)}&9&87\\\hline\end{tabular*}\end{center}\end{table}一方,該当手話単語の検索に失敗した場合には,その中の38.5\%は適合手話単語の最小対を,また,65.4\%は類似の動作特徴を含む手話単語の検索に成功していることから,利用者が「この表現は,ちょっと違うんだけど,よく似てる」と判断した場合,その辞書記述文を新たな検索記述文として再利用できる可能性がある.すなわち,検索のリカバリー処理を同じ枠組で実現できる.この場合,次章で議論するように,辞書側の手指動作記述文の正規化がリカバリー処理による検索成功率を向上させるための課題である.これらの評価結果から,検索結果の上位10位以内に,検索要求に適合する手話単語を含む割合は約70\%であり,平均すると上位から5個程度までを調べれば,当該手話単語を見つけられる.また,最小対などの類似の動作特徴を含む手話単語を検索結果に含んでおり,手話単語の学習効果の向上に貢献し,上位での検索に失敗した場合のリカバリー処理にも利用できる有用な情報を含む手話単語(辞書記述文)を検索しているなど,本論文で提案した手話単語の検索方法の妥当性を示す結果が得られたと考える. \section{検討} 本章では,実験により明らかになった問題点と今後の課題について議論する.特に,上位での検索に失敗した検索結果を分析し,検索例を示しながら議論を行う.ここで取り上げる問題の幾つかは,本論文で提案した手法に限らず,他のアプローチによる手話単語の検索方法にも共通の課題を含んでいると考える.\subsection{手指動作記述文の解釈における曖昧さ}実験により明らかになった問題点の1つは,同一の手指動作記述文の表す手指動作表現の解釈に,曖昧さがある点である.すなわち,文が複数の解釈を持つ場合があるという自然言語表現に特有の多義性の問題と捉えることができる\footnote{人工言語と自然言語の違いは,この多義性の有無といわれ,自然言語処理はこの多義性の問題との取り組みが重要な課題といえる.}.その結果,検索記述文に非常に類似した辞書記述文が検索された場合でも,利用者の意図した検索要求の手話表現とは,まったく異なる手話表現が上位で検索されてしまう問題である.例えば,手話単語の日本語ラベル【太陽】の検索記述文に対する検索結果の例を図\ref{fig:ambiguity}に示す.なお,図中の点線の下部は検索結果を示し,1番目の数字は順位を示し,2番目の数値は類似度を示す.また,``{\ttlcs}''の括弧付きの数字は順序保存による共通キーワード数,``{\ttm}''の括弧付きの数字は辞書記述文のキーワード数をそれぞれ示している.\begin{figure}[tb]\setbox0\vbox{\footnotesize\tabcolsep=3pt\hbox{\|【太陽(137)】=(太陽):両手の親指と人差指で輪を作り上げる|}\hbox{\|keytoken(5)=親指人差指輪作上|}\hbox{\|--------------------------------------------------------------|}\hbox{\|10.625lcs(5)m(8)【上がる(値段などが)】|}\hbox{\|親指人差指輪作並同時上上|}\hbox{\|20.556lcs(5)m(9)【木曜日】|}\hbox{\|親指人差指大輪作上上左右開|}}\centerline{\fbox{\hboxto\textwidth{\hss\box0\hss}}}\caption{手指動作記述文の解釈に曖昧さがある例}\label{fig:ambiguity}\end{figure}ここで,検索記述文「両手の親指と人差指で輪を作り上げる」が意図する手話表現は,『両手を使って太陽を模倣した{\bf大きな輪を1つだけ}作り,それを上にあげる』という手指動作を意味している.一方,第1位で検索された手話単語の日本語ラベル【上がる(値段などが)】の手話表現は,『右手と左手のそれぞれで親指と人差指を使って{\bf小さな輪}を作り\footnote{「お金」の意味として,しばしば用いられる手話表現の1つである.},その{\bf2つの輪を}並べて同時に上に上げる』手指動作を意味している.このように,両手を用いた表現に対して,検索側と辞書側の記述文の解釈に差が生じる場合がある.しかし,類似の文構造を持つ「両手の親指と人差指を立て(伸ばし)て〜」などでは,手話表現に上記のような2つの解釈は生じない.また,同様な多義性を持つものとして,「親指と人差指(の指先)を付け合わせる」の例を考えてみる.片手でこの表現を自然に行うと,いわゆる「小さな輪」になるであろう.一方.両手で表現する場合には,大きな輪以外に四角や三角も表現できる可能性がある.そのため,可能な解釈を絞り込む情報が付加された,「両手の親指と人差指(の指先)を付け合わせて輪を作り〜」のような,冗長な表現とも取れる手指動作記述文が,実験で用いた辞書記述文に存在する.さらに,第2位で検索された【木曜日】の例では,「輪」に関する解釈はほぼ一致しているが,【太陽】の輪は,動作主である人間の身体に対して平行な位置関係であるのに対し,【木曜日】のそれは,垂直な位置関係で表現する違いがある.この位置関係の差に関する情報は,検索側と辞書側の記述文には陽に表現されていない.実験に用いた手指動作記述文は,市販の手話辞典に記載のものであり,イラストとの併用を前提として記述されているため,イラストで理解できる情報の一部が手指動作記述文から省略されている場合がある.\subsection{語彙の多様性}次に,構造的な解釈の曖昧さと同様に,語彙的な表現の差が検索結果に与える影響について議論する.図\ref{fig:ambiguity2}に,辞書側の【太陽】の記述文から抽出されたキーワードを示す.ここで,「輪」が「丸」,「作(る)」が「表現」というように,使われている表現が異なるため,文字列照合の不一致が類似度に反映されない問題である.そこで,表\ref{dougi}に示したキーワード間の同義置換表に,この2つの同義関係(輪,丸)と(作,表現)を追加した結果,図\ref{fig:ambiguity3}に示すように,同順位で第2位で検索されることを確認した.このように,今後,キーワード間の同義置換表を整備することで検索精度を向上できる可能性がある.しかし,同義置換表による「同一視」は,安易な追加・変更が文字列の照合処理に副作用を生じる可能性もあり,同義置換表の拡充・利用法の検討は今後の課題とする.\begin{figure}[tb]\setbox0\vbox{\footnotesize\tabcolsep=3pt\hbox{\|【太陽(137)】=(太陽):両手の親指と人差指で輪を作り上げる|}\hbox{\|keytoken(5)=親指人差指輪作上|}\hbox{\|--------------------------------------------------------------|}\hbox{\|(中略)|}\hbox{\|190.200lcs(3)m(9)【太陽】|}\hbox{\|親指人差指丸形表現上上輪頭上|}}\centerline{\fbox{\hboxto\textwidth{\hss\box0\hss}}}\caption{辞書記述文と検索記述文の違い}\label{fig:ambiguity2}\end{figure}\begin{figure}[tb]\setbox0\vbox{\footnotesize\tabcolsep=3pt\hbox{\|【太陽(137)】=(太陽):両手の親指と人差指で輪を作り上げる|}\hbox{\|keytoken(5)=親指人差指輪作上|}\hbox{\|--------------------------------------------------------------|}\hbox{\|10.625lcs(5)m(8)【上がる(値段などが)】|}\hbox{\|親指人差指輪作並同時上上|}\hbox{\|20.556lcs(5)m(9)【太陽】|}\hbox{\|親指人差指丸形表現上上輪頭上|}\hbox{\|20.556lcs(5)m(9)【木曜日】|}\hbox{\|親指人差指大輪作上上左右開|}}\centerline{\fbox{\hboxto\textwidth{\hss\box0\hss}}}\caption{同義置換表の変更による検索結果の違い}\label{fig:ambiguity3}\end{figure}\subsection{視点の違いによる記述表現のゆれ}\label{douitsushi}\begin{enumerate}\item指先を上に向けて付け合わせた両手を左右に引き離す\item掌を前方に向けて付け合わせた両手を左右に引き離す\end{enumerate}上記の(1)と(2)に示した手指動作記述文は,同一の手話表現を表し,(1)が検索記述文であり,(2)が辞書記述文の適合文である.結果として,検索結果の上位では(2)は検索されなかった.上位で検索されたものは,すべて共通のキーワード列「指先,付,合,左右」をこの配列順序で照合されたものであった.このキーワード列から類推できるのは,「指先を付け合わせた手の形」が自然であり,前節で議論した「輪」の表現に相当する.このため,「手の形」が異なる類似の手指動作特徴を含む手話表現(手話単語)は上位で検索されたが,利用者の第一義的な要求に応える検索結果を上位で提供できないという問題である.一般に,2つのオブジェクトがある位置関係を持つ場合,その位置関係を文で記述するには2つの視点が考えられる.例えば,「Aの左にBがある」と「Bの右にAがある」の関係である.手話単語の手指動作表現を記述する場合,(1)と(2)で記述される手話表現の手の形は,基本形の1つであり,「掌の方向」と「指先の方向」は連動して変化する場合が多い.例えば,「掌を下に向ける」ことは「指先を前方に向ける」ことになる.この「視点」すなわち,手指動作特徴のどこに焦点をおき,手指動作記述文を記述するかについて,実験に使用した2つの手話辞典では,辞書記述文と検索記述文のいずれでも統一はされていない.このように,手指動作記述文の正規化の問題は,前節の議論と同様に,本提案手法の検索精度を向上させる上で重要な課題の1つといえる.なお,今回の実験では,市販の手話辞典に記載の手指動作記述文を辞書記述文と検索記述文の双方に用いているため,顕在化していないが,実際に利用者の検索記述文を入力とする場合に考慮すべき「視点の問題」として,左右方向の逆転現象がある.手話辞典の多くは,手話表現の動作主体から見た左右方向を記述している.一方,利用者は手話表現の動作主体と対面する形で手話表現を見ているため,利用者から見た左右の方向を記述してしまう傾向がある.しかし,この利用者が間違った記述をしたか否かの判断は,検索システム側では対処不能と考える.\subsection{動作表現の認識に関する曖昧さ}手話単語の検索問題では,この語彙に関する問題以上に,利用者側の手話表現の捉え方と辞書側の手話表現の捉え方が問題となる.前述した事例以外に,(a)「両手を二度ほど下におろす」表現と(b)「両手を上下に動かす」表現を「同一視」するか否かである.厳密には,(a)はある始点位置を動作の上限位置と定め,その範囲で下方に二度,両手を下げることを意味し,(b)はある始点位置を基準に上方/下方両方の範囲で両手を上げ下げすることを意味すると捉えることができる.辞書側で(a)を「手を下にだけ動かす」手話単語群に分類し,(b)を「手を上下双方に動かす」手話単語群に分類していた場合,利用者が(a)を「上下運動」と捉えたなら,(b)に分類された手話単語群しか検索されないことになる.このように,この問題は,動作表現を言葉で表現した手指動作記述文を用いる本論文で提案するアプローチだけでなく,検索項目や検索条件を詳細に設定する(すなわち,これらの基準で分類された検索辞書を用いる)従来のアプローチにも共通の問題と捉えることができる.次節では,これらの議論を基に,手指動作記述文の正規化の方法と利用について検討する.\subsection{手指動作記述文の正規化の方法と利用}2章で述べたように,手指動作記述文で用いられる語彙は,通常の日本語文と比べて制約が強く,文形式にパターンが存在すると捉えることができる.一般に,このような制限された文を受理する有限オートマトンは比較的容易に構成できることが知られている.すなわち,正規文法で手指動作記述文の構文規則を記述できる可能性がある.この文法を構成することは,検索記述文と辞書記述文の両方を正規化する言語処理的かつ汎用性のあるアプローチといえる.一方,\cite{AdachiHisahiro1998}は限られた動作に限定しているが,人物を背景画像とするパレット上でのマウスの位置とその移動軌跡に基づき,正規化された手指動作記述文を生成し,検索記述文とする検索アプローチを提案している.これは,前節で議論した視点や曖昧さの問題に対する1つの解と考えることができる.すなわち,検索記述文を辞書記述文に近づける正規化の試みの1つと捉えることができる.また,\cite{AdachiHisahiro1999}は,手指動作記述文が手話表現を生成する手続き文(プログラム)と捉えた手話アニメーションの生成方法について報告している.これら一連の研究では,手指動作記述文を電子化辞書の情報の中心に据え,言語と画像の接点として,手話単語の検索と生成を同じ枠組で構成しようとする提案である.今後の展開を期待する試みの1つである.実験では,「両手」を文の特徴付けに寄与しない不要語とみなし,手の形を記述する部分が「両手」に対して前置される場合と後置される場合の照合洩れを抑止する戦略を採った.一方,手指動作記述文の正規化,特に,単語の配列(文形式)に関して,このキーワード「両手」は有効利用できる可能性がある.すなわち,「手の形」の手指動作特徴は「両手」の前に置くように正規化する方法である.これにより,キーワード照合の際に,「両手」の前部と後部を分けて照合すれば,前部は「手の形」に関する類似性であることが明確になり,「手の形」を無視(手の位置と動きに注目)した検索や「手の形」に注目した検索など,検索手段の幅が広がる可能性があると考える.本手法では,キーワードに対して重み付けは考慮していない.手指動作特徴の各パラメータに関連するキーワードに重み付けをし,類似度の計算に反映させる枠組の検討は,今後の課題である.ここで,これまでの議論をまとめると,本論文で提案した検索方法は,手話単語の特徴構造を言語表現に写像した手指動作記述文を用いた検索方法であり,手話単語の検索問題を文献検索問題と捉えた点に特徴がある.この手指動作記述文は一般の自然言語文に比べて構文的にも語彙的にも制限のある文集合と捉えることができる.一方,このような制約のある文集合でも,自然言語表現の持つ特徴である「多義性」や「多様性」に起因する「解釈の曖昧さ」という自然言語処理全体に共通の問題点を解消する必要がある.この「曖昧さ」を除去するには,手指動作記述文から得られる情報と得られない情報を区別し,得られる情報でも現在は無視している部分(辞書記述文と検索記述文で共通でないキーワードの数やキーワードの持つ意味)を類似度の計算に組み入れる検討と,与えられた文からは得られない情報(利用者が手話表現を認知する場合の視点や省略された手指動作特徴など)については,\cite{AdachiHisahiro1998}の手法のように,言語処理の枠組内ですべて解決するのではなく,言語表現以外の手段により,得られた情報を基に正規化された言語表現を再構成し,検索記述文とするアプローチなども考慮しながら検討する必要がある.このように,本論文で提案した手法を実用レベルの検索精度に高めるには,ここで議論した手指動作記述文の正規化の問題を解決する必要があるなど,残された課題は少なくない.また,検索に失敗した場合の効果的なリカバリー処理についても,今後,検討する必要がある. \section{おわりに} 従来の手話単語の検索方法が,利用者に検索項目や検索条件を詳細に設定させ,検索単語の候補を絞り込むアプローチを採用していたため,初心者には適切な設定が困難であり,かつ煩わしく,その結果として,選択ミスを生じやすく,検索精度を低下させる問題点があった.本論文では,従来の検索項目や検索条件を設定する代わりに,手指動作記述文を用いた手話単語の検索方法を提案した.本手法の特徴は,与えられた入力文に類似している辞書中の手指動作記述文を検索し,対応する手話単語の日本語ラベルを提示する点にある.すなわち,手話単語の検索問題を文献検索問題と捉えたアプローチといえる.両手同形の手話単語を対象に検索実験を行った結果,本手法の妥当性を示す結果が得られた.また,実験により明らかとなった,手話表現を日本語文で記述した場合に生じる手指動作記述文の曖昧さに関する問題について検討を行った.今後の課題として,入力された手指動作記述文の曖昧さの検出,検索に失敗した場合のリカバリー処理の検討,および文の正規化による検索精度の向上が挙げられる.\acknowledgment本研究を進めるにあたり,有益なご示唆,ご討論を頂いた宇都宮大学鎌田一雄教授,熊谷毅助教授に心より感謝する.また,データ整理,実験等に協力頂いた研究室の学生諸氏に感謝する.なお,本研究の一部は文部省科研費,厚生省科研費,実吉奨学会,電気通信普及財団,放送文化基金,トヨタ自動車,栢森情報科学振興財団,大川情報通信基金の援助によった.\bibliographystyle{jnlpbbl}\bibliography{C}\begin{biography}\biotitle{略歴}\bioauthor{安達久博}{1981年宇都宮大学工学部情報工学科卒業.1983年同大学院工学研究科修士課程修了.同年,東京芝浦電気株式会社(現.(株)東芝)入社.同社総合研究所情報システム研究所に所属.この間,(株)日本電子化辞書研究所(EDR)に出向.1992年より宇都宮大学工学部助手.博士(工学).現在,聴覚障害者の情報獲得を支援する手話通訳システムに関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,計量国語学会,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V31N01-03
\section{はじめに} 質問応答は,自然言語処理における重要な研究テーマの一つである.質問応答の研究は,自然言語処理研究の黎明期である1960年代から継続的に取り組まれてきた\cite{green-1961,simmons-1964}.どのような質問に対しても的確に答えられるシステムを実現することは,多くの自然言語処理研究者が目指す究極的なゴールの一つと言える.質問応答研究は,深層学習技術の進展と言語資源の充実により世界的に盛り上がりを見せている.特に,SQuAD\cite{rajpurkar-etal-2016-squad}のような大規模な質問応答データセットや,BERT\cite{devlin-etal-2019-bert}に代表される大規模言語モデルの登場は,ここ数年の質問応答研究の飛躍的な進展を後押ししている.実際に,自然言語処理および人工知能分野の難関国際会議では,毎年質問応答に関する研究成果が多数報告されており,そのほぼ全てで大規模言語モデルや質問応答データセットがシステムの構築や評価に利用されている.ただし,これらの研究の多くは英語で作成されたデータを用いて実施されており,日本語での質問応答の評価はほとんどなされていない.そのため,日本語での質問応答技術がどの程度発展しているのか,その到達点は明らかになっていない.昨今の深層学習技術を質問応答に適用する方法では,言語の違いによる達成度の差異はあまり着目されてこなかったが,扱える言語表現の違い,学習データなどの知識源の質や量の違いなど,言語が異なることによる影響は十分に考慮すべき課題と考えられる.また,近年では汎用大規模言語モデルが登場しており,このようなモデルの中には日本語での質問応答が可能なものも存在する.しかし,これらのモデルのほとんどは,その大部分が英語で書かれた学習データを用いて事前学習が行われている.言語にはその言語を用いる文化圏の内容が色濃く反映されていると考えられるため,学習に用いる言語によってモデルが獲得する知識に含まれる文化的な内容は大きく異なると考えられる.従って,日本語を用いた質問応答タスクに取り組むことは,日本語圏の文化に関する内容に通じている質問応答システムを作ることに繋がると考えられる.実用的な観点からも,日常的に日本語を使用する人にとって,日本語を用いたやりとりが可能かつ,日本に関する内容について精度の高い回答を行うことができる質問応答システムの実現は望ましいことである.このような背景のもと,日本語での質問応答技術が今後発達していくためには,まず日本語を用いた質問応答技術の現状を明らかにした上で,解決するべき課題を明確にすることが必要である.そこで本論文では,日本語による質問応答技術の現在の到達点と課題を明らかにし,その上で日本語質問応答システムの今後の改善の方向性を示すことを目的とする.これまで日本語の質問応答技術を評価するための評価データは整備されてこなかったが,本論文では評価のための日本語の質問応答のデータセットとして,著者らが企画しこれまで運営してきた日本語質問応答のコンペティション「AI王~クイズAI日本一決定戦~」\footnote{\url{https://sites.google.com/view/project-aio/home}}のために作成したデータセットを用いる.このデータセットに含まれるクイズ問題には,人名や場所名を問う基本的な問題の他,数量推論や計算を必要とする問題や日本語版Wikipediaに記述が無いような言葉が正解となる問題などが含まれており,それら問題文の多様性は,日本語を用いた質問応答タスクを検証するために相応しいものと考えられる.なお,「AI王」とは,日本語を用いた質問応答研究を促進させるという目的のもと,日本語のクイズを題材とした質問応答データセットを用いてクイズの正解率の高い質問応答システムを作成するコンペティションである.また,評価対象の質問応答システムとしては,過去に実施されたAI王のコンペティションのうち,第2回および第3回に提出されたシステムと,汎用の質問応答システムとして利用できるChatGPTおよびGPT-4を用いる.これらのシステムが出力した全解答に対して,それぞれのシステムの特徴と,正解した問題文または不正解の問題文の中に共通した傾向があるかといった全数チェックを人手にて行い,現在の質問応答技術でどのような問題が正答できてどのような問題は正答できていないかを検証する.同様に,問題文の特性に基づいて問題を分類し,それぞれのカテゴリに属する問題をどの程度正解しているかで達成度を分析する.また,システムの特徴に応じた正解の傾向なども調査し,そこから一般化できる知見がないか考察する.以上の分析や考察を踏まえた上で,日本語質問応答システムの改善の方向性を示す.これらの人手分析の結果,質問応答システムの構成にはRetriever-Reader方式と呼ばれる形式が多く採用されていることや,正解率の高いシステムにはRerankerという構成要素が使われている傾向があることが分かった.また,問題文の特性については,正答するために数量推論や計算を必要とするような問題にはうまく解答できない場合が多いことが明らかになり,今後の質問応答技術の課題の一つと考えられる.本論文の主な貢献は以下のとおりである.\begin{itemize}\item日本語質問応答システムの構成やその構成要素を分析し,クイズ問題の正解率が高いシステムの理由を明らかにした\item現状の質問応答システムにとって課題となっている,難易度が高い問題の特性を明らかにした\itemそれら難易度が高い問題を正答できるようにするための,質問応答システムの改善の方向性を示した\item汎用の質問応答システムとして利用可能な大規模言語モデルが,どの程度日本語のクイズ問題を解くことができるのかを調査した\end{itemize}本論文の構成は以下の通りである:第2章にて日本語を対象とした質問応答研究や,コンペティションに対する分析についての関連研究を,第3章にてAI王プロジェクトの概要を述べる.第4章では,本論文で用いる評価データの詳細を述べる.その後,第5章にて検証対象となる質問応答システムの詳細,およびシステムとクイズ問題の分析方法を述べ,第6章にて分析結果を述べる.最後に,第7章にて本論文で得られた知見や考察をまとめ,今後の展望について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 質問応答は自然言語処理分野において盛んに研究が行われている分野の一つであり,自然言語処理および人工知能分野の難関国際会議では,質問応答技術に関わる多くの研究成果が毎年報告されている.世界的な流行に沿う形で日本でも質問応答に関する研究が多く行われているものの,質問応答の対象言語として日本語を扱っている研究は,例えばNTCIRプロジェクト\cite{kimura-2019,fukumoto-2007}などに限られており,依然として少ないのが現状である.なお数は限られているものの,最近では日本語のクイズを題材とした研究も存在している\cite{yamashita2023,sugiura2023}.本論文では,AI王のコンペティションに提出された質問応答システムと使用したクイズ問題を対象として分析を実施する.コンペティションの参加システムやタスクについての分析を実施している関連研究としては,機械翻訳に関する世界的なコンペティションであるTheConferenceonMachineTranslation(WMT)が挙げられる.WMTでは毎年Findingsが報告されている\cite{kocmi-etal-2022-findings,akhbardeh-etal-2021-findings}.AI王プロジェクトに関しても,言語処理学会第27回年次大会の併設ワークショップとして実施した第1回コンペティションについて,その実施報告を行っている\cite{suzuki-2021}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{AI王プロジェクト} 本論文で分析対象として取り扱うモデルやデータは,AI王プロジェクトのコンペティションにて実際に用いられたものになる.分析対象となるモデルやデータがどのような趣旨やルールの下に作られたかを明らかにするために,本章にてAI王プロジェクト全体の概要を簡単に説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{趣旨}「AI王~クイズAI日本一決定戦~」は,日本語によるクイズを題材とした,質問応答研究のコンペティションである.このプロジェクトを立ち上げた背景として,世界的に質問応答研究が活発に行われている一方で,日本国内においては,最先端の技術に追従しながら継続的に質問応答研究に取り組んでいる研究者・研究機関が非常に少なく,世界的な研究トレンドとの乖離が生じていることが挙げられる.さらに,質問応答研究に利用可能なデータセットやシステム実装の多くは英語を対象としたものであり,日本語を対象とした質問応答の研究をしたい学生や研究者にとっては,研究をスタートしづらい状況となっている.そこで,深層学習時代以降の日本での質問応答研究を促進するため,最新の質問応答研究に触れながら技術や知識を習得できる場を提供することを目的として「AI王」のコンペティションが企画され,2020年に第1回のコンペティションが実施された.以降,これまでに3回のコンペティションが実施されている.AI王プロジェクトでは,質問応答の題材として「日本語によるクイズ」を扱っている.クイズと質問応答(特にオープンドメイン質問応答)は,どちらも「世界知識を必要とする言語を使った営み」であるという点が共通しており,研究における親和性が高いと考えられる\footnote{もちろん,クイズには質問文に現れやすい文構造や解答になりやすい事物が存在するといったクイズ特有の偏りが存在することには留意が必要である.}.また,日本では戦後よりラジオやテレビ放送でクイズ番組が一定の人気を集めており,クイズは日本人にとって馴染み深いコンテンツとなっている.現在でもクイズは各種メディアで流行を見せていることから,クイズは学生や若手研究者にとって興味を持ちやすい題材であることが期待される.「AI王」では,日本語に対する質問応答研究を促進するため,およそ2万問の日本語のクイズ問題からなるデータセットや,日本語のテキストに対して正しく機能する質問応答システムのベースラインモデルを提供し,研究目的で自由に利用できるようにしている.類似プロジェクトとの対比から「AI王」の立ち位置を考える.クイズを対象とした質問応答システムという観点では,類似プロジェクトとして,2011年にIBMWatsonがアメリカ合衆国のクイズ番組Jeopardy!\footnote{\url{https://www.jeopardy.com/}(最終アクセス:2023/10/26)}にて実施したIBMチャレンジ\cite{ibmchallenge}が挙げられる.IBMチャレンジでは人間の解答者と競い合う形式で実施されたが,「AI王」のコンペティションでは質問応答システムとしての性能の達成度を測ることや手法間の比較を目的としている点が異なる.他にも関連するプロジェクトとして,RealTimeQA\cite{kasai2022realtime}が考えられる.RealTimeQAでは,実世界の新しい出来事や日々刻々と変化する情報についての質問に答えられる質問応答システムの構築を目的としている.RealTimeQAと対比した場合,「AI王」では基本的に時間と共に答えが変わらない問題を主に対象にしていると言える.また,IBMチャレンジ,および,RealTimeQAでの対象言語は英語である.「%AI王」では本論文の主旨である日本語に特化している点が,ここに挙げた2つのプロジェクトと異なる点として挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ルール}本コンペティションの第2回・第3回における基本ルールは,与えられる質問に対してシステムが出力する解答の正解率を競うという,一般的なオープンドメイン質問応答タスクの問題設定と同様のものである.機械学習系の共有タスクでは,公式に配布されるデータのみを用いてシステムを構築しなければならないという制約が課されるものもあるが,本コンペティションでは,実世界の森羅万象を問うというクイズおよびオープンドメイン質問応答の性質を踏まえて,「一般に利用可能なあらゆるデータを使ってクイズの正解率を向上させること」を目標とした.ただし,モデルの学習および推論時に利用可能なデータは,誰でも無償で利用可能なもの\footnote{独自に作成したデータであっても,データを無償公開する場合は利用可能とした.}のみに限定し,また,システムの推論時に利用可能な計算機リソースは,基本的に単一の計算機で動作するもの\footnote{第3回コンペティションでは,GoogleCloudPlatform上のvCPU12,Memory78GB+NvidiaTeslaV100(16GB)x1の仮想環境でシステムの評価を行うものとした.}とした.これは,本コンペティションの目的が主に若手研究者を対象とした研究促進であり,一部の参加者(特に大量のデータや大規模な計算機リソースを保持している組織)しか使えないリソースの使用を許すと,公平感や再現性の担保が難しく,本コンペティションの主旨に反するという考えに基づいた措置である.また,システムの推論時にはインターネットへの接続は不可とし,外部の検索エンジンやAPIを呼び出すことはできないものとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析に用いるデータセット} 本論文では,質問応答システムの現在の到達点と課題を,日本語のデータを用いて評価することによって明らかにする.本章では,その評価に用いるデータセットに関して説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}\label{subsec:official_dataset}著者らが過去に実施した質問応答のコンペティション「AI王~クイズAI日本一決定戦~」では,日本語を用いた質問応答研究の促進という目的のもと,日本語のクイズ問題を題材とした日本語質問応答データセットを構築し,ウェブ上で公開している.この日本語質問応答データセットは,学習用データ($22,335$問)と開発用データ($1,000$問),および,参加者がリーダーボードに投稿したシステムを評価するためのクイズ問題($1,000$問)と,コンペティションでシステムの最終評価を実施するためのクイズ問題($1,000$問)からなり,表\ref{table:training_data}に示すデータ仕様に沿って構築されている.なお,各クイズ問題の問題文と正解には,Unicode正規化(NFKC),および文中の振り仮名と注釈の除去がなされている.また,評価データはコンペティション参加者を含めて非公開である.上記データセットのうち,学習用データの一部,および開発・評価用データに含まれるクイズ問題は,コンペティション用にクイズ問題作成の専門家(クイズ作家)に新たに発注し作成している.なお,クイズ問題作成を発注する際には,クイズ番組やクイズイベント用に作成する際と同じ仕様での問題作成を依頼した.これは,人間に解かせることを念頭に置いて作成されたものと全く同じクイズ問題を用いていることを意味する.つまり,計算機が得意か不得意かといったことや,特別に計算機がクイズ問題を解くことを意識して問題を作成する,といったことはしていない.なお,本論文の分析ではこれらのデータセットのうち,リーダーボード評価用のデータセット(以下では単に「評価用クイズ問題」と表記する)のみを使用する.これは,質問応答システムの到達点と課題を明らかにするという本論文の目的のもとでは,システムの達成度を測る際にシステムが学習時に見ていないクイズ問題のみを用いて評価をすることが適当と判断したためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{02table01.tex}%\caption{提供した学習・開発用データの仕様と例.}\label{table:training_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{02table02.tex}%\hangcaption{評価用クイズ問題の例.データセット作成時の正解には含まれていなかったが,人手評価によって正しいと判断されたシステム解答を「追加された別解」の列に示している.}\label{table:aio_second_eval_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価方法および別解の扱い}\label{subsec:questions_and_answers}表\ref{table:aio_second_eval_example}に評価用クイズ問題の例を示す.問題文に対する正解は,クイズ作家によってデータセット作成時に定められている.質問応答システムの評価において,システムが予測した解答が正解かどうかを判断するために,毎回人間による正答評価を実施するのは時間も労力も多くかかり現実的ではない.そのため,データセット作成時に定められた正解集合の一つとシステムの予測した解答が一致するかどうかを,文字列の完全一致を用いて自動で評価するのが一般的である.しかし,このような文字列の完全一致による評価を考えた場合,網羅しきれない別解が存在する場合がある.例えば表\ref{table:aio_second_eval_example}の問題では,問題作成時に定められた正解は「棒棒鶏」であるが,「棒々鶏」という表記揺れによる別解が考えられる.また,表記揺れ以外にも,例えば問題作成時に定められた正解が「銀杏(ぎんなん)」である時の「イチョウの実」という解答など,語が異なる別解も存在する.以上のような別解も含めて正解/不正解を判定するために,コンペティションでは,情報検索の評価で用いられてきたプーリング法\cite{jones1975report}の要領でシステムが出力した解答を集め,その中で正解と認定できる別解を人手により判断し正解に追加するという作業を実施した(表\ref{table:aio_second_eval_example}内「追加された別解」列).この人手による別解付与作業を各システムの最終投稿の予測結果に対して実施することにより,システムの最終評価に関する正確性を担保している.本論文の評価でも同様の方法により,全てのシステムが出力した全ての解答に対して,計7名の作業者が人手で別解にあたるかを判定した\footnote{それぞれの解答が別解にあたるかをウェブ検索や辞書などを利用して確認した.さらに,抜け漏れがないよう各作業者の別解判定を他の作業者が確認するダブルチェックも実施した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析設定} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析対象システム}日本語の質問応答技術の到達点を明らかにするという目的から,分析対象とするシステムの選定基準として,過去のAI王コンペティションで上位の正解率を達成していること,かつシステムの実装に関する資料が公開されており分析可能であること\footnote{コンペティション参加者が持つ提出システムの権利に基づき,提出されたシステムファイルの解析による分析は行っていない.}の2点を満たすもの,または我々が提供を行ったベースラインとした.この基準に従い,本論文ではAI王コンペティションの参加チームによって提出されたシステムの中から,\begin{itemize}\item第2回コンペティション提出システムのうち正解率が上位の3システム\item第3回コンペティション提出システムのうち正解率が上位の6システム\item第3回コンペティションにて運営より提供した3つのベースラインシステム\end{itemize}の12システムを分析対象として選んだ.表\ref{table:participants}に,本論文で分析対象となったシステムを提出した,第2回および第3回コンペティション参加チームの一覧を示す.なお,第1回コンペティションの正解率上位システムを分析対象に含めなかったのは,第1回コンペティションは第2回・第3回コンペティションとルールが異なり,与えられた20択の候補の中からクイズに対する解答をシステムが選ぶという形式であったため,解答方式が異なるシステム間の単純な比較は成立しないと判断したためである.一方で,ベースラインシステムを分析対象に含めたのは,それらと正解率上位システムとの比較によって,現在の質問応答技術で可能になっていること,および未だ達成できていない課題を明らかにできると考えたためである.また,汎用の質問応答システムとして利用可能な大規模言語モデルであるChatGPT(gpt-3.5-turbo-0613)およびGPT-4(gpt-4-0613)の2システムも分析対象に含めた.これらのシステムとコンペティションに特化して構築されたシステムとの比較による分析を行うことで,日本語質問応答システムについての洞察を得ることが目的である.なお,これらのシステムの評価はOpenAIのAPIを経由して実施した.評価の際に用いるプロンプトには質問応答タスクを行う旨の指示と,いわゆるfew-shot(one-shot)の設定として質問応答の例を1つ含めた.プロンプトの詳細については,付録\ref{details_of_prompts}章で述べる.また,これらのシステムの解答についての評価に関しても,\ref{subsec:questions_and_answers}節で述べた人手による別解付与作業を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{02table03.tex}%\caption{コンペティション参加チーム(チーム名のアルファベット昇順).}\label{table:participants}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析方法}日本語での質問応答技術の現状と課題を明らかにするため,本論文では大きく分けて下記に示す3つの観点から日本語質問応答システムの分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{質問応答システムの構成に基づく分析}コンペティションのために構築された質問応答システムの構成やその構成要素を調査し,主にシステムの正解率との関連を分析する.現在利用されている質問応答技術の構成要素の効果を検証し,より適した構成要素を選択するための知見を得ることを目的とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{質問応答システムの学習に使用されたデータ資源に基づく分析}コンペティションのために構築された質問応答システムの学習に使用されたデータ資源を調査し,それぞれのデータ資源を用いることで得られる効果を推察する.日本語質問応答システムを作成する際に,より適したデータ資源を用いてシステムを構築するための知見を得ることを目的とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価用クイズ問題の特性に基づく分析}\label{quiz_features}本論文の分析に用いた評価用クイズ問題のうち,\begin{itemize}\itemAI王コンペティションのために構築された日本語質問応答システムが正答できなかった問題\item正解率が高い質問応答システムのみが正答できた問題\itemGPTベースラインのみが正答できていない問題\itemChatGPTとGPT-4が正答できていない問題\end{itemize}といった条件を満たす問題を抽出し,それらの問題に見られる特性を調べることで,現状の日本語質問応答システムで達成できている/いないことや,今後の課題点および改善点について考察する.なお,問題の特性を調査するにあたって,評価用クイズ問題の各問題を事前に人手作業によって表\ref{table:quiz_features_and_examples}に示す15個の特性を用いて分類した(\ref{add_characteristics}項).これらの特性のうち,表\ref{table:quiz_features_and_examples}の上部に示した3つは,問題文とWikipediaとの関係についての観点であり,全ての問題文が必ずこの3つのいずれかに分類される.一方で,その他の12個の特性は,問題文とクイズの定型パターン等との関係となっており,ある1つの問題文が必ずしも12個のいずれかに分類される訳ではない.なお,12個の特性についてはクイズ問題における定型パターン等をもとに決定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{02table04.tex}%\caption{評価用クイズ問題の分類に用いた特性と,その特性を持つ問題文および正解例.}\label{table:quiz_features_and_examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析結果} \label{analysis_results}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{質問応答システムの構成に基づく分析結果}AI王コンペティションのために構築された質問応答システムの構成を分析した結果を表\ref{table:qa_systems_architectures}に示す.分析の結果,GPT-2を利用したGPTベースライン以外のシステムは「Retriever-Reader方式」と呼ばれる構成であった.このRetriever-Reader方式は,\begin{itemize}\itemRetrieverと呼ばれる,質問文(クイズの場合は問題文)に関連する文書を文書集合から検索する構成要素\itemReaderと呼ばれる,検索された関連文書の文中から解答の位置を抽出する,または質問文と検索された関連文書の情報から解答そのものを生成する構成要素\end{itemize}という2つの構成要素によって構成されるシステム方式のことである.なお,本論文ではReaderについて,Retrieverによって検索された関連文書の文中から解答の位置を抽出するものを「抽出型Reader」,質問文と検索された関連文書の情報から解答自体を生成するものを「生成型Reader」と呼ぶことにする.分析対象の質問応答システムで用いられているものの中では,前者はBERTが,後者はFusion-in-Decoder(FiD)\cite{izacard-grave-2021-leveraging}およびT5\cite{raffel-etal-2020-t5}が該当する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{02table05.tex}%\hangcaption{AI王コンペティションのために構築された質問応答システムの構成と構成要素の分析.なお,抽出型Readerには``(E)''を,生成型Readerには``(G)''を先頭に付けたまた,比較のためにChatGPTとGPT-4の正解率も示した.}\label{table:qa_systems_architectures}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,表\ref{table:qa_systems_architectures}の中で正解率が高いシステムに注目すると,次のような傾向が観察される.\begin{enumerate}\itemRetrieverを2つ持つ構成である\itemRerankerと呼ばれる構成要素を構成に含む\itemReaderを複数持つ構成である\end{enumerate}(1)の傾向を細かく分析すると,2つのRetrieverは,\begin{itemize}\itemSparseretriever(BM25が該当)と呼ばれる,質問文と文書集合との単語一致によって関連文書の検索を行うRetriever\itemDenseretriever(DPR\cite{karpukhin-etal-2020-dense}およびBPR\cite{yamada-etal-2021-efficient}が該当)と呼ばれる,質問文と文書集合の各文書をベクトル化し,それらを用いた類似度計算によって関連文書検索を行うRetriever.関連文書検索において,意味的な類似性に強いという特徴がある\end{itemize}という,手法の異なるRetrieverの組み合わせであることが分かった.このように異なる手法のRetrieverを併用することで,片方のRetrieverでは解答に有用であるにも関わらず関連文書として検索できなかった文書があったとしても,もう片方のRetrieverによってその文書の検索漏れを防ぐ可能性を高めることができる.以上の理由から,2つのRetrieverを持つシステムの正解率が高くなっていると考えられる.(2)の傾向で登場するRerankerは,Retrieverが検索した関連文書を,関連度が高いと考えられる順に再度ランキングし直す構成要素である.Retrieverを2つ持っている質問応答システムはその構成上,検索方法の異なる2つのRetrieverによってそれぞれ検索が行われ,それぞれ関連文書が取得されている.ここで,それらの関連文書はそれぞれのRetrieverによって計算された「問題文についての関連度スコア」を持っている.しかし,それぞれのRetrieverが算出するスコアの取る値の違いが原因で,スコアの直接比較ではどちらのRetrieverによって検索された関連文書がより関連度が高いかを判断することができない.Rerankerを用いない場合は,それぞれの関連文書のスコアが上位のものから交互に取り出す方法などによってランキングし直すことになるが,関連度が高い順に並べ直される保証はない.そこでRerankerを用いることにより,2つのRetrieverによって検索された全ての関連文書を再度問題文に対する関連度が高い順に並べ直すことで,検索された関連文書のうちどの文書がより関連度が高いかを判断することが可能になる.これにより,Readerがより関連度の高い文書を用いて解答を抽出,または生成できるようになる.以上のような効果があることから,2つのRetrieverを持つ質問応答システムの中でも,Rerankerをシステム構成に含む質問応答システムの方が正解率が高くなっていると考えられる.(3)の傾向は,第3回コンペティション参加チームのうちチームレヴォとチームICSLab.の質問応答システムに見られたものであり,それぞれ次のようなReaderの構成となっている.\begin{itemize}\item\textbf{レヴォ:}2つのFiDにより構成される.一方を問題文と関連文書の情報から解答候補を生成する通常の生成型Readerとして使用し,もう一方を生成された解答候補と問題文,関連文書集合の情報をもとに各解答候補の正解らしさを判断する``Verifier''として使用している.これにより,問題文と関連文書集合に加えて解答候補の情報までエンコードした状態から最終的な解答を出力することが可能なシステム構成になっている.\item\textbf{ICSLab.:}3つの抽出型Readerと5つの生成型ReaderのそれぞれからTop-2の解答候補を,すなわち計16個の解答候補をアンサンブルして最終的な解答を出力している.この構成により,1つのReaderの解答候補が誤りであったとしても他のReaderの解答候補が正解であれば正答できるため,Readerが1つだけの構成よりも正答できる可能性を高めたシステム構成になっている.\end{itemize}上述のようにそれぞれ独自の工夫がなされており,結果としても,類似したRetrieverとRerankerの構成を持つ第2回チームレヴォおよび第3回チームVARCHの正解率と比較して$8$から$10$ポイント程度高い$94\%$台という正解率を記録していることから,複数のReaderを持つ構成はRetriever-Reader方式の質問応答システムの性能向上に寄与していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{02table06.tex}%\caption{質問応答システムが学習に使用したデータ資源(資源名のアルファベット昇順).}\label{table:systems_resources}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{質問応答システムの学習に使用されたデータ資源に基づく分析結果}\label{result:training_data}本節では,AI王コンペティションのために構築された質問応答システムが学習に利用したデータ資源を調査した.その結果を表\ref{table:systems_resources}に示す.表\ref{table:systems_resources}より,全ての質問応答システムが学習にWikipedia\footnote{\url{https://ja.wikipedia.org/wiki/メインページ}(最終アクセス:2023/10/26)}を使用していたことが判明した.また,いくつかの質問応答システムはWikipedia以外のデータ資源(5TQ\footnote{\url{http://www2s.biglobe.ne.jp/~effect/soft/ef_sdat1.html}(最終アクセス:2023/10/26)},Erin\footnote{\url{https://www.erin.jpf.go.jp/jp/section/culture-quiz/}(最終アクセス:2023/10/26)},語壺\footnote{\url{http://www.misakichi.net/quiz/gogogo.htm}(最終アクセス:2023/10/26)},JaQuAD\footnote{\url{https://github.com/SkelterLabsInc/JaQuAD}(最終アクセス:2023/10/26)},着物用語辞典\footnote{\url{http://www.37gi.com/着物用語辞典.html}(最終アクセス:2023/10/26)},クイズの杜\footnote{\url{https://quiz-schedule.info/quiz_no_mori/data/data.htm}(最終アクセス:2023/10/26)},競技かるた用語集\footnote{\url{https://karutadoujou.hatenablog.com/entry/basic/yougo/}(最終アクセス:2023/10/26)},みんなで早押しクイズ\footnote{\url{https://ss1.xrea.com/quizstocker.s1010.xrea.com/}(最終アクセス:2023/10/26)},Mr.~Tydi\footnote{\url{https://github.com/castorini/mr.tydi}(最終アクセス:2023/10/26)},QuizWorks\footnote{\url{https://quiz-works.com/}(最終アクセス:2023/10/26)},Wiktionary\footnote{\url{https://ja.wiktionary.org/wiki/Wiktionary:メインページ}(最終アクセス:2023/10/26)},WiktionaryQA)を使った学習を行っていたことも判明した.このようなデータ資源を用いた学習を行うことで,Wikipediaだけではカバーが困難な広範な知識に基づいて解答を行うことが可能になる.具体的には,「クイズの杜」や「みんなで早押しクイズ」といったクイズドメインに特化したデータ資源は,質問応答システムをよりクイズ問題に適応させる効果がある.また,「着物用語辞典」や「競技かるた用語集」といったデータ資源は,それらのドメイン知識がないと正答できないクイズ問題に対しても正答を可能にする効果がある.また,今回分類した問題文の特性と特に相関があると考えられるデータ資源として,「語壺」が挙げられる.この「語壺」は,「``何々''語で``〇〇''という意味の言葉に由来する,」という意味の前文で始まるクイズを集めたデータセットである.そのため,分類に用いた特性のうち,「由来が関係する問題」の正解率の向上に寄与すると考えられる.但し,「由来が関係する問題」の中には,その由来が語源ではない問題も含まれていることに注意する\footnote{例えば,「諸葛亮がいけにえの頭の代わりに作ったものが由来という食べ物は何?」といった問題が挙げられる.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{02table07.tex}%\caption{語壺を学習データに用いたかどうかと,「由来が関係する問題」の正解率.}\label{table:gotsubo}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上を踏まえ,「語壺を学習データに用いたか」と「『由来が関係する問題』の正解率」を調査し,語壺を学習に用いることの効果を検証した.調査結果を表\ref{table:gotsubo}に示す.この表\ref{table:gotsubo}より,学習データに語壺を利用している第3回コンペティションのチームICSLab.の「由来が関係する問題」の正解率が,同じく第3回コンペティションで総合1位であったチームレヴォの正解率を上回っていることが分かる.また,語壺を利用したその他のチームについても,「由来が関係する問題」の正解率が相対的に向上していることが確認できる.具体的には,語壺を利用した3チームは「由来が関係する問題」の正解率が,表\ref{table:qa_systems_architectures}に示した$1,000$問全てに対する正解率よりも3チーム平均で$+2.97$\%であるのに対し,語壺を利用しなかったチームは平均で$+0.94$\%にとどまっている.以上より,特定のデータ資源を用いた学習が,そのデータ資源に含まれる問題文の特性に対してより頑健なシステムの構築に効果的である可能性が示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価用クイズ問題の特性に基づく分析結果}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価用クイズ問題の特性の分析}\label{add_characteristics}クイズ問題と質問応答システムの関係の分析に移る前に,まず準備として\ref{quiz_features}項の表\ref{table:quiz_features_and_examples}で示した特性を持つ問題が,評価用クイズ問題(全$1,000問$)にどれだけ存在するか,その割合を調査した.調査の結果を表\ref{table:quiz_features_baseline}に示す.ここに示す値が,以降のクイズ問題と質問応答システムとの関係の各分析に対するベースラインとなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{02table08.tex}%\caption{評価用クイズ問題(全$1,000問$)について,問題の特性とその特性を持つ問題が全体に占める割合.}\label{table:quiz_features_baseline}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,\ref{quiz_features}項でも述べたように,Wikipediaに関する3つの問題文の特性についてはその分類上,全ての評価用クイズ問題がいずれか1つの特性を持つことに留意する\footnote{Wikipediaに関する特性の調査には,2023年3月28日時点のWikipediaを用いた.}.その他のクイズの定型パターン等に関する問題文の特性については,必ずしも各評価用クイズ問題が持つものではないが,中にはそれらの特性を複数持つ問題が存在した.例を挙げると,\begin{quote}\begin{tabbing}\hspace{4em}\=\kill\textbf{問題文}\>織田信長の妹・お市の方が最初に嫁いだ武将は浅井長政ですが、2番目に嫁いだ\\\>武将は誰?\\\textbf{正解}\>柴田勝家\end{tabbing}\end{quote}という問題は,「パラレル問題」「人名を問う問題」「順序の条件がある問題」の3つの特性を持っている.上記の調査を行う際に,表\ref{table:quiz_features_and_examples}で示した特性に加えて,いわゆる「時事問題」が評価用クイズ問題に存在するかを調べたが,該当する問題は存在しなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{AI王コンペティションのために構築された日本語質問応答システムが正答できなかった問題}\label{first_diff_analyze}評価用クイズ問題のうち,AI王コンペティションのために構築された12個の質問応答システム全てが不正解となっていた問題を抽出し,それらに対する問題文の特性の割合の調査を行った.その結果を表\ref{table:hard_quiz_features}に示す.なお,このような問題は全部で21問存在した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{02table09.tex}%\hangcaption{全てのシステムが不正解であったクイズ問題について,問題文の特性とそれらの問題内で占める割合.「差分」の列は表\ref{table:quiz_features_baseline}の「割合」列との差を示したものであり,「パラレル問題」以下に示された特性に関してはその値がプラスで大きいほど,システムにとって難易度が高い問題に顕著な特性であると考えられる.}\label{table:hard_quiz_features}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以下では,分析のベースラインとなる表\ref{table:quiz_features_baseline}中の「割合」列の値と,表\ref{table:hard_quiz_features}中の「割合」列の値との差を示した表\ref{table:hard_quiz_features}中「差分」列の値に注目し,分析する.この分析により,いずれのシステムも正答できなかった問題に顕著な傾向,すなわち現状の日本語質問応答システムにとって難易度が高いと考えられる問題の特性を知ることができる.なお,分析は\ref{quiz_features}項にて大きく分類した``Wikipediaとの関係''と``クイズの定型パターン等''という2つの観点から行っていく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Wikipediaとの関係による観点}\quad\\\quadまず,これらの問題とWikipediaとの関係について注目すると,「正解がWikipediaの記事名になっている」という特性を持つ問題の割合が$-17.8\%$となっているのに対し,「どのWikipediaの記事の本文にも正解が書かれていない」という特性が$+9.0\%$,「正解がWikipediaの記事名にはなっていないが,本文中には書かれている」という特性が$+8.8\%$となっている.これより,正解がWikipediaのいずれの文書中にも存在しない,もしくは記事として存在しない程度にはマイナーな単語が正解となる問題は,質問応答システムにとって難しい問題であると解釈できる.これは,表\ref{table:systems_resources}に示すように,全てのシステムが学習データとしてWikipediaを用いているため,学習データ中に存在しない,あるいは存在してもマイナーな単語ゆえに学習中に限られた回数しか出現しないことなどが理由となり,学習が十分に行われず質問応答システムがその単語を解答として出力することが難しくなっていることを意味している.そのため,学習データにWikipediaだけでなく,より多様なデータ資源を用いることでシステムが学習中に見る単語の種類を増やす,といった方策によって質問応答の性能を向上させることができると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{クイズの定型パターン等による観点}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph{数量推論や計算を必要とする問題}次に,クイズの定型パターン等による観点の特性について分析する.まず注目するのは,「数量推論や計算を必要とする問題」である.この特性を持つ問題の割合は,評価用クイズ問題全体(表\ref{table:quiz_features_baseline})の割合に対して$+18.1\%$となっている.このことから,現状の質問応答システムでは数量推論や計算を必要とする問題が難しく,まだ正答できる段階には至っていないと言える.このような問題の例を以下に示す.\begin{quote}\begin{tabbing}\hspace{4em}\=\kill\textbf{問題文}\>1200円の商品の2割引をさらに1割引するといくらになる?\\\textbf{正解}\>864円\\\textbf{誤答例}\>500円,0円,4000円,800円,1000円,400円,100円,1500円\end{tabbing}\end{quote}数量推論や計算を行うことは,現状の深層学習によるモデルにとって難易度が高く,そのため盛んに研究が行われている分野である\cite{mishra-etal-2022-numglue,chen-etal-2023-theoremqa,cobbe2021gsm8k}.本論文で分析している質問応答システムについて考えると,Retriever-Reader方式は正解に関連する文書の検索と,それらの文書と問題文を用いた解答の抽出・生成を行う構成であるため,解答を計算・推論するような問題を扱える構成であるとは言えない.そのため,数量推論や計算を必要とする問題に対しても正答を可能にするためには,質問応答システムの別の構成を考えていく必要がある.例えば,現在のRetriever-Reader方式の構成に加えて,計算を担当するシンボリックな推論が可能な構成要素を導入することにより,数量推論や計算を必要とする問題を正答できるシステムを構築できる可能性がある.また,別の観点としては,Retriever-Reader方式のシステムではなく,近年質問応答を含む様々なタスクで著しい性能向上が見られる大規模言語モデルを利用するという方法がある.このような大規模言語モデルに自然言語処理のタスクを解かせる際には,プロンプトと呼ばれる入力にそのタスクを解かせるための指示を記述する\footnote{本論文でも,ChatGPTやGPT-4に対し,プロンプトにタスク指示の記述を行った.}が,そのプロンプト記述の部分で``chain-of-thought''という手法が用いられることがある.これは,推論をモデルに行わせる際に,推論の思考過程を明に出力させるような指示を含むプロンプトを入力することで,推論を小さなステップに分けて行わせる手法である.この手法を用いることで,数量推論の性能を向上させることができる,ということが報告されている\cite{wei2022chain}.そのため,大規模言語モデルとchain-of-thought手法を組み合わせることによって,数量推論や計算を必要とする問題を正答できるシステムとなる可能性がある.このように,質問応答システムとして大規模言語モデルを用いることも,興味深いアプローチの方向性の一つである.以上の分析より,現状の質問応答システムでは数量推論や計算を必要とする問題を解くことは難しいが,そのような問題を正答できるようになるためのシステム改善の方向性はいくつか存在しており,今後の技術の発展が期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph{人名を問う問題}次に,「人名を問う問題」の特性を分析する.割合の差分を見ると$-13.4\%$となっており,また割合自体も$0.0\%$となっていることが分かる.このことは「人名を問う問題」に関しては,分析対象システムのいずれか1つ以上が必ず正答できていることを示している.これに加え,さらなる詳細な分析として「人名を問う問題」に対する各システムの正解率を調査した.調査結果を表\ref{table:person_name}に示す.この表\ref{table:person_name}より,ベースラインシステムを除くすべてのシステムが$8$割以上の正解率を,その内$5$つのシステムは$9$割以上の正解率を達成していることが分かる.従って,人名を問うような問題は現状の質問応答システムによって十分に解くことが可能な水準に達していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{02table10.tex}%\caption{「人名を問う問題」の正解率.}\label{table:person_name}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph{パラレル問題}\label{parallel_quiz}また,質問応答の中でもクイズに限った観点からの分析として,「パラレル問題」という特性に触れる.パラレル問題とは次に示す例のように,問題文中に「~ですが」などといった分岐を含むクイズ問題のことを指す.\begin{quote}\begin{tabbing}\hspace{4em}\=\kill\textbf{問題文}\>童謡『ちょうちょう』で、1番の歌い出しは「ちょうちょう、ちょうちょう」\\\>ですが、2番の歌い出しは何?\\\textbf{正解}\>``おきよ、おきよ''または``おきよ''\end{tabbing}\end{quote}上記の問題も全てのシステムが不正解となったクイズ問題であったが,その誤答例は以下のようなものであった.\begin{quote}\begin{tabbing}\hspace{4em}\=\kill\textbf{誤答例}\>``たきびだたきびだ'',``ちょうちょう、ちょうちょう'',``ちょうちょう'',\\\>``ぞうさん'',など\end{tabbing}\end{quote}一般的にクイズ問題において,その問題文中に正解が出現することはほとんどない\footnote{例外としては,「直列、行列、並列。このうち、乾電池のつなぎ方にないのはどれ?」といった,解答の選択肢を問題文中に含んでいるような問題がある.}.そのため,上に挙げた誤答例の中でも,``ちょうちょう、ちょうちょう''や``ちょうちょう''は正解となる確率が極めて低い.従って,クイズ問題を解く質問応答システムにおいては,最終的な解答が問題文中に含まれる場合を検知し,その解答の次に正解である可能性が高いと判断された解答候補を採用することによって,正解となる可能性が低い解答を行ってしまうことを抑制することが可能になると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{正解率が高い質問応答システムのみが正答できた問題}本項では,分析対象のシステムの中でも特に高い正解率を達成しているものについてその理由を明らかにすることで,高性能な日本語質問応答システムを構築するための知見を得ることを目的とする.そこで,表\ref{table:qa_systems_architectures}において正解率が$90\%$を超えている第3回チームレヴォと第3回チームICSLab.によって提出された2つの質問応答システムのみが正答しているクイズ問題を抽出し,その問題文の特性を分析した.抽出の結果,該当するクイズ問題は21問存在した.また,問題文の特性の割合を調べたものを表\ref{table:hard_quiz_features_best_systems}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{02table11.tex}%\hangcaption{正解率の高い質問応答システムのみが正答しているクイズ問題について,問題文の特性とそれらの問題内で占める割合.「差分」の列は,表\ref{table:quiz_features_baseline}の「割合」列との差を示したものであり,「パラレル問題」以下に示された特性に関してはその値がプラスで大きいほど,正解率の高いシステムのみが正答している問題に顕著な特性であると考えられる.}\label{table:hard_quiz_features_best_systems}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以下では\ref{first_diff_analyze}項と同様にして,表\ref{table:hard_quiz_features_best_systems}中「差分」列の値に注目し分析する.この分析により,正解率が高いシステムのみが正答できた問題の傾向,すなわち,現状の日本語質問応答システムの到達点を知ることができる.本項においても,``Wikipediaとの関係''と``クイズの定型パターン等''という2つの観点から分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Wikipediaとの関係による観点}\quad\\\quad表\ref{table:hard_quiz_features_best_systems}のうちまずWikipediaとの関係に注目すると,「正解がWikipediaの記事名にはなっていないが,本文中には書かれている」という特性が$+23.1\%$となっている.これは,質問応答システムの構成(表\ref{table:qa_systems_architectures})と照らし合わせて調査した結果,Rerankerの効果によるものであると推察される.正解率の高い第3回チームレヴォと第3回チームICSLab.の質問応答システムは,このRerankerに渡される関連文書の数が,他の質問応答システムに比べて非常に多いことが判明した.具体的には,他のシステムが多くても$200$件程度の関連文書を利用する構成であるのに対し,第3回チームレヴォのシステムは$750$件,第3回チームICSLab.のシステムは$1,000$件もの関連文書をRerankerに渡す構成となっていた.このように再度ランキングする文書数が多いことで,記事名にはなっていないが他の記事には出現するようなマイナーな単語が正解であるような問題であっても,その記事を取りこぼすことなく関連文書として利用することができるようになっている.この効果により,「正解がWikipediaの記事名にはなっていないが,本文中には書かれている」という特性を持つ問題に対しても,他の質問応答システムと比較して高い正解率を達成できていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{クイズの定型パターン等による観点}\quad\\\quad次に,クイズの定型パターン等による観点の特性に注目すると,「順序の条件がある問題」が$+12.3\%$,「慣用句・ことわざ・四字熟語・故事に関連する問題」が$+11.9\%$となっている.前者の特性を持つ問題の正解率が高いことを説明する明快な理由を分析によって明らかにすることはできなかったが,後者については,学習データとして用いたWikipedia以外のデータ資源の効果によるものであると推察される.特に,第3回チームレヴォの質問応答システムは,Retrieverの学習データとして用語辞典や辞書といったデータ資源を利用しており,さらにそれらを利用する際にはデータ資源内の各文書にそれぞれのジャンルについての説明を加えることで,Retrieverの検索精度を上げる取り組みが行われていた.具体的には,例えば慣用句についての文書では,文書の先頭に「慣用句で、」といった説明を加え,「慣用句で、◯◯は××を意味する。」といったような文書に変換することで,Retrieverに検索されやすい文書の作成を実現している.このようにWikipediaに限らない様々なデータ資源をシステムの学習時に利用することや,関連文書検索の際に上述のような工夫を凝らすことで,慣用句やことわざ等に関する問題を正答することが可能になっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{GPTベースラインのみが正答できていない問題}AI王コンペティションのために構築された質問応答システムのうち,GPTベースラインのみがRetriever-Reader方式でないシステム構成をしている.GPTベースラインとRetriever-Reader方式の比較を行うため,GPTベースラインのみが正解している問題,およびGPTベースラインのみが不正解の問題を抽出し,それらの問題に見られる傾向を調査した.調査の結果,GPTベースラインのみが正解している問題は存在しなかったものの,GPTベースラインのみが不正解の問題は$218$問存在することが分かった.これは,GPTベースラインが質問応答タスクの訓練をしていないことと,入力されるプロンプトの設定に起因するものと考えられる.本ベースラインは事前学習データとしてはWikipediaを使用しているものの,質問応答タスクを解くためのfine-tuningは行っておらず,さらにプロンプトもzero-shotの設定にて提供している.すなわち,評価用クイズ問題を解く時に初めて質問応答というタスクを解く設定となっているために,他のシステムよりも正解率が低くなっていると考えられる.また,GPTベースラインのみが不正解の問題のうち,「あと1つを答える問題」についてGPTベースラインの誤答を分析すると,問題文中に出現している単語をそのまま解答として出力することで誤答となってしまっているケースが多く見られた.以下に,その例を示す.\begin{quote}\begin{tabbing}\hspace{4.5em}\=\kill\textbf{問題文1}\>中国の書物「四書五経」の「四書」といえば、「大学」「論語」「孟子」と何?\\\textbf{誤答1}\>大学\\%\textbf{問題文2}\>「夏の大三角」を構成する3つの星は、アルタイル、ベガと何?\\\textbf{誤答2}\>夏の大三角\\%\textbf{問題文3}\>色の三原色を指す「CMY」の「C」はシアン、「M」はマゼンタの略ですが、\\\>「Y」は何の略?\\\textbf{誤答3}\>Y\end{tabbing}\end{quote}このような問題に対しては,\ref{parallel_quiz}項でも述べたように,最終的な解答が問題文中に含まれている場合を検知することで正解率が改善する可能性が高い.GPTベースラインについては,上述したように他のシステムと異なりクイズ問題を解くという訓練をしていない.しかし,プロンプト内でクイズ問題を解く事例をいくつか見せる,という設定に変更することは簡単に行うことができる.この変更により,クイズ問題を解く事例を先に見させた上で,GPTベースラインに評価用クイズ問題を解かせることができる.このような変更を行った場合に,どれほど正解率が向上するかは興味深い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ChatGPTとGPT-4が正答できていない問題}本項では,汎用の質問応答システムとして分析対象に含めたChatGPTとGPT-4の結果を用いて考察を行う.初めに評価用クイズ問題に対する正解率を測定した結果,表\ref{table:qa_systems_architectures}に示したようにChatGPTでは$56.8\%$,GPT-4では$73.0\%$の正解率であった.ChatGPTはGPT-2を用いたGPTベースラインよりも高い正解率を記録したものの,その他のベースラインの正解率は下回った.GPT-4に関しては,3つのベースラインシステムを凌駕する性能を達成したものの,コンペティションに特化して構築された日本語質問応答システムには及ばない結果となった.次に,2つのシステムの両方が不正解であった問題を抽出し,それらに対する問題文の特性の割合の調査を行った.その結果を表\ref{table:hard_quiz_features_chatgpt_and_gpt4}に示す.なお,ChatGPTとGPT-4のいずれもが不正解であった問題は全部で$244$問存在した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{02table12.tex}%\hangcaption{ChatGPTとGPT-4の両方が不正解であったクイズ問題について,問題文の特性とそれらの問題内で占める割合.「差分」の列は,表\ref{table:quiz_features_baseline}の「割合」列との差を示したものであり,「パラレル問題」以下に示された特性に関してはその値がプラスで大きいほど,ChatGPTとGPT-4にとって難易度が高い問題に顕著な特性であると考えられる.}\label{table:hard_quiz_features_chatgpt_and_gpt4}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{table:hard_quiz_features_chatgpt_and_gpt4}内でWikipediaとの関係についての特性に注目すると,「正解がWikipediaの記事名になっている」が$-12.0\%$,「正解がWikipediaの記事名にはなっていないが,本文中には書かれている」が$+11.2\%$となっている.この結果から,これら2つのシステムにとっても記事にならないようなマイナーな単語が正解の場合の方が難易度が高いことが分かる.また,ChatGPTとGPT-4の誤答を目視で確認したところ,興味深い傾向が観察された.それは,「誤答の中に正解の文字列とかなり近いものがある」という傾向である.以下に,その傾向が見られた例をいくつか示す\footnote{これらの解答を誤答判定としている理由は,一般的な言い回しでないことが別解として認める許容ラインを超えていることと,適切な応答を返すという質問応答システムとしての目的に反していると判断したためである.}.\begin{quote}\begin{tabbing}\hspace{5em}\=\kill\textbf{問題文1}\>第一次世界大戦中、ドイツ軍がイープル戦線において初めて使用した、独特の\\\>臭気を持つ毒ガスのことを、ある香辛料にちなんで何という?\\\textbf{正解1}\>マスタードガス\\\textbf{ChatGPT}\>ムスタードガス\\\hspace{5em}\=\kill\textbf{問題文2}\>コロイド溶液に光を通した時、光の散乱によって道筋が見える、という現象を\\\>発見者にちなんで何現象という?\\\textbf{正解2}\>チンダル現象\\\textbf{GPT-4}\>タインダール現象\end{tabbing}\end{quote}上に示した「ムスタードガス」や「タインダール現象」という表記を使っている用例は,ウェブ検索を行った限りでは確認できなかった.この傾向は,システムが主に英語のデータセットで学習されていることに起因し,日本語ドメインに転移できていないことを示していると考えられる.すなわち,システムが推論によって導き出した英語の解答候補(例えば,``Tyndalleffect'')を,問題文が日本語であることに合わせてカタカナ語に変換しようとするものの,その変換がうまくいっていない(``Tyndall''→「タインダール」)ために,このような現象が起こっていると予想される.そのため,ChatGPTやGPT-4のようなシステムと同規模のシステムを日本語のデータセットで学習することができた場合に,果たしてこの傾向が緩和されるかは興味深い.また,上記の誤答傾向とは別に,一般に``hallucination''\cite{DBLP:journals/corr/abs-1910-08684}と呼ばれている現象も観察された.その一例を以下に示す.\begin{quote}\begin{tabbing}\hspace{5em}\=\kill\textbf{問題文}\>サッカーの試合会場で、ゴールの横に描かれ、テレビ中継の視聴者にとっては\\\>立体的に見える広告看板のことを何という?\\\textbf{正解}\>90°システム広告\\\textbf{ChatGPT}\>バーチャルサイドライン広告\\\textbf{GPT-4}\>3Dピッチ広告\end{tabbing}\end{quote}ウェブ検索を行った限りでは,「バーチャルサイドライン広告」や「3Dピッチ広告」という言葉が使われている用例は確認できなかった.このようにChatGPTやGPT-4では,実際には存在しないが尤もらしい言葉や言い回しによって解答している誤答例が見受けられた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析結果のまとめ}以下に,\ref{analysis_results}章で行った分析結果をまとめる.\begin{itemize}\item現在の日本語質問応答システムとしては,Retriever-Reader型の構成が主に用いられる傾向にある.\item手法の異なるRetrieverを組み合わせて使用することや,複数のReaderを用いることで解答の正答らしさを高めること,Rerankerを使うことで問題文についてより関連度の高い文書を利用すること,などの工夫がなされたシステムの正解率が高く,このような工夫によって質問応答システムの性能を向上させることができると考えられる.\item現状の質問応答システムにとって,正解するために数量推論や計算を必要とする問題が難しいと考えられる.このような問題を正答できるようになるためには,記号処理によって計算を行う構成要素をシステムの構成に追加したり,大規模言語モデルを利用したりすることが考えられる.\itemWikipediaを学習に用いたシステムにとって,正解がWikipediaにあまり登場しないような単語である問題の難易度が高いことが示された.多様なドメインのデータセットの利用によりシステムが学習中に見る単語の種類を増やすことで,より広範な知識に基づいて解答を行うシステムの構築を見据えることができる.\item一方で,人名を問う問題のように,現状の質問応答システムでも十分に正当可能な水準にある問題の特性が存在することも判明した.\item汎用の質問応答システムとして利用可能なGPT-4は,評価用クイズ問題に対してコンペティションのベースラインの正解率を凌駕したものの,ChatGPTとともにコンペティションに特化して構築されたシステムの正解率には及ばなかった.もしChatGPTやGPT-4をコンペティションで提供されているデータで追加学習できた場合,コンペティションに提出されたシステムに匹敵する正解率を達成するかは興味深い点である.\itemChatGPTやGPT-4には,解答の一部に一般的な言い回しでない日本語で解答する傾向が見られた.これは,主に英語のデータセットを用いて学習されていることに起因し,日本語ドメインに転移できていないことを示唆していると考えられる.今後日本語に特化したChatGPTに匹敵する大規模言語モデルが登場した場合,この問題は解消される可能性が高い.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本論文では,現在の日本語質問応答技術の到達点と課題を明らかにするため,「AI王~クイズAI日本一決定戦~」に提出された質問応答システムと日本語のクイズ問題,および汎用の質問応答システムとして利用可能な大規模言語モデルを用いた分析を行った.分析の結果,現在の日本語質問応答システムにはRetriever-Reader方式が多く採用されており,RetrieverやReaderの数を増やしたりRerankerを採用したりするといった工夫や,システムの学習に用いるデータ資源のドメインを多様化することで,クイズ問題に対する正解率を向上させられることが分かった.このような工夫をしたシステムの中には,本論文で分析に用いた評価用クイズ問題に対して$9$割以上の正解率を達成するものもあった.また,人名を問うような問題に対しては,現在の日本語質問応答システムは十分に正答可能な水準にあることも示された.しかしその一方で,正答するために数量推論や計算を必要とするといった特性を持つ問題については,未だ正答することが難しいという課題も明らかになった.本論文の分析を通じて,Retrieverの検索性能の向上およびReaderの解答抽出・生成の性能向上を達成するための改善策として,データに注目した場合には学習データのドメインの多様性を高めたり,ReaderやRerankerが扱う関連文書の数を増加させたりすることが有効であることを示した.また,システムの構成に注目した場合は,関連文書検索と解答抽出・生成という戦略に沿ったRetriever-Reader方式では現状正答できていない問題の特性,例えば上述の数量推論などを扱うことができるような新たな質問応答システムの構成を考える必要があることを示した.本論文ではそのような構成の方向性として,問題の特性を扱うための専用の構成要素を既存の構成に追加することや,大規模言語モデルを用いた質問応答システムを開発することを提案した.このようなシステムにより,現状の質問応答技術では未だ正答するまでに到っていない質問に対しても答えられるようになる可能性がある.さらに,汎用の質問応答システムとして利用可能な大規模言語モデルであるChatGPTとGPT-4についても評価を行い,そのどちらもが日本語のクイズ問題を解くために特化して構築された質問応答システムの正解率には及ばないことを示した.また,これら2つのシステムの解答に日本語として不自然な言い回しが含まれる現象が起こること,および一般に``hallucination''と呼ばれる現象が解答に現れることも確認した.本論文では日本語質問応答技術についての分析を行ったが,分析を行うことができなかった質問応答タスクとして,解答が文章のような長文となるlong-form質問応答や,インターネットへの接続が許可された条件下での質問応答などが存在する.このようなタスクにおける日本語での質問応答技術については,今後の更なる検証・議論が必要である.最後に,日本語を対象とした質問応答研究は依然として発展途上であり,我々としても「AI王」というコンペティションを通じ,クイズを題材とした日本語質問応答データセットと日本語を扱う質問応答システムの公開を通して,日本語の質問応答研究を促進していきたいと考えている.本論文の分析結果が,今後の日本語質問応答技術の研究に役立ち,発展に寄与できることを期待している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentAI王プロジェクトは,理化学研究所革新知能統合研究センター(\url{https://aip.riken.jp})の支援を受けて実施しています.また,本コンペティションの学習・開発・リーダーボード・評価用データのクイズ問題は,株式会社キュービックおよびクイズ法人カプリティオへ依頼して作成しました.記して感謝いたします.また,TohokuNLPGroupの伊藤郁海氏には,本論文の校閲にご協力を賜ったことに深く感謝申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{ChatGPTとGPT-4で用いたプロンプト} \label{details_of_prompts}本章では,ChatGPTとGPT-4に解答を生成させる際に用いたプロンプトの詳細について述べる.プロンプトには,\begin{itemize}\item質問応答タスクを行う旨の指示\itemFew-shot(one-shot)の設定として,質問応答の例\end{itemize}を含めた.実際に使用したプロンプトを図\ref{GPT_prompt}に示す.プロンプトに含めた質問応答の事例は固定のものであり,全ての問題文に対して同じ事例を用いた.また,事例は著者らが無作為に考えたものである.一般論としてプロンプトチューニングをすればより正解率が向上する可能性はあるが,本論文の目的はプロンプトチューニングによるChatGPTやGPT-4の質問応答性能の向上ではないため,標準的なプロンプトを用いるにとどめた.\newpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\vspace{1\Cvs}\begin{lstlisting}[caption=実際に使用したプロンプト.,label=GPT_prompt]messages=[{"role":"system","content":"あなたは物知り博士です.どんな質問にも的確に答えます.解答は必ず,解答:「この中に解答の文字列」の形で答え\てください.複数の解答が考えられる場合でも,複数答えるのではなく最も正しいと思う一つを解答してください"},{"role":"user","content":"質問:2020年のワールドシリーズの勝者は?"},{"role":"assistant","content":"解答:「ロサンゼルスドジャーズ」"},{"":""},#ここに質問を入れる]\end{lstlisting}\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{有山知希}{%2022年東北大学工学部卒業.現在,東北大学大学院情報科学研究科博士前期課程2年.}\bioauthor{鈴木潤}{%2001年から2018年まで日本電信電話株式会社コミュニケーション科学基礎研究所研究員(主任研究員/特別研究員).2005年に奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.現在,東北大学データ駆動科学・AI教育研究センター教授,理化学研究所AIPセンター客員研究員.}\bioauthor{鈴木正敏}{%2019年東北大学大学院情報科学研究科博士前期課程修了.2021年同博士後期課程修了.2021年より株式会社StudioOusiaソフトウェアエンジニア,東北大学データ駆動科学・AI教育研究センター学術研究員.}\bioauthor{田中涼太}{%2020年名古屋工業大学大学院工学研究科博士前期課程修了.日本電信電話株式会社NTT人間情報研究所研究員.東北大学大学院情報科学研究科博士後期課程1年.}\bioauthor{赤間怜奈}{%2017年東北大学工学部卒業.2018年東北大学大学院情報科学研究科博士前期課程修了,2021年同博士課程修了.2021年より東北大学データ駆動科学・AI教育研究センター助教,理化学研究所AIPセンター客員研究員.}\bioauthor{西田京介}{%2008年北海道大学大学院情報科学研究科博士後期課程修了.博士(情報科学).2009年日本電信電話株式会社入社.2023年よりNTT人間情報研究所上席特別研究員(現職).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V09N05-01
\section{はじめに} 自然言語処理においてchunk同定問題(chunking)とは,単語列(一般にこれをtoken列とよぶ)をある視点からまとめ上げていき,まとめ上げた固まり(chunk)をそれらが果たす機能ごとに分類する一連の手続きのことを指す.この問題の範疇にある処理として,英語の単名詞句同定(baseNPchunking),任意の句の同定(chunking),日本語の文節まとめ上げ,固有名詞/専門用語抽出などがある.また,各文字をtokenとしてとらえるならば,英語のtokenization,日本語のわかち書き,品詞タグ付けなどもchunk同定問題の一種としてとらえることができる.一般に,chunk同定問題は,文脈から得られる情報を素性としてとらえ,それらの情報から精度良くchunkを同定するルールを導出する手続きとみなすことができる.そのため,各種の統計的機械学習アルゴリズムを適用可能である.実際に機械学習を用いた多くのchunk同定手法が提案されている\cite{Ramshaw95,Tjong_Kim_Sang2000a,Tjong_Kim_Sang2000b,Tjong_Kim_Sang2000d,内元00,Sassano00b}.しかしながら,従来の統計的手法は,いくつかの問題がある.例えば,隠れマルコフモデルや最大エントロピー(ME)モデルは素性どうしの組み合わせ(共起関係)を効率良く学習できず,有効な組み合わせの多くは人手によって設定される.また多く機械学習アルゴリズムは高い精度を得るために慎重な素性選択を要求し,これらの素性選択も人間の発見的な手続きにたよっている場合が多い.一方,統計的機械学習の分野では,Boosting\cite{Freund96},SupportVectorMachines(SVMs)\cite{Vapnik95a,Vapnik98}等の学習サンプルと分類境界の間隔(マージン)を最大化にするような戦略に基づく手法が提案されている.特にSVMは,学習データの次元数(素性集合)に依存しない極めて高い汎化能力を持ち合わせていることが実験的にも理論的にも明らかになっている.さらに,Kernel関数を導入するとこで,非線形のモデル空間を仮定したり,複数の素性の組み合せを考慮した学習が可能である.このような優位性から,SVMは多くのパターン認識の分野に応用されている.自然言語処理の分野においても,文書分類や係り受け解析に応用されており,従来の手法に比べて高い性能を示している\cite{Joachims99,平2000,kudo2000b,kudo2000c,工藤02}本稿ではchunk同定問題として,英語の単名詞句のまとめ上げ(baseNPchunking)および英語の任意の句の同定(chunking)を例にとりながら学習手法としてSVMを用いた手法を述べる.さらに,chunkの表現方法が異なる複数の学習データから独立に学習し,それらの重み付き多数決を行うことでさらなる精度向上を試みる.その際,本稿では,各モデルの重みとしてSVMに固有の新たな2種類の重み付けの手法を提案する.本稿の構成は以下の通りである.2章でSVMの概要を説明し,3章で一般的なchunk同定モデルおよびSVMの具体的な適用方法,重み付け多数決の方法について述べる.さらに4章で実際のタグ付きコーパスを用いた評価実験を提示し,最後に5章で本稿をまとめる. \section{SupportVectorMachine} \subsection{最適分離平面}分類問題において,正例,負例の2つのクラスに属す学習データのベクトル集合を,\begin{eqnarray*}({\bfx}_i,y_i),\ldots,({\bfx}_l,y_l)\qquad{\bfx}_i\in{\bfR}^n,\,\,y_i\in\{+1,-1\}\end{eqnarray*}とする.ここで${\bfx}_i$はデータ$i$の特徴ベクトルで,一般的に$n$次元の素性ベクトル$({\bfx}_i=[f_1,f_2,\ldots,f_n]^T\in{\bfR}^n)$で表現される.$y_i$はデータ$i$が正例($+1$)あるいは負例($-1$)のいずれかを表わす値である.パターン認識とは,この学習データ${\bfx}_i\in{\bfR}^n$から,クラスラベル出力$y\in\{\pm1\}$への識別関数$f:{\bfR}^n\rightarrow\{\pm1\}$を導出することにある.SVMでは,以下のような$n$次元Euclid空間上の平面で正例,負例を分離することを考える.\begin{eqnarray}{\bfw}^T{\bfx}+b=0\qquad{\bfw}\in{\bfR}^n,b\in{\bfR}\label{eq:hyperplane}\end{eqnarray}この時,近接する正例と負例の間の間隔({\bfマージン})ができるだけ大きいほうが,汎化能力が高く,精度よく評価データを分類できる.図\ref{fig:hyperplane}に,2次元空間上の正例(白丸),負例(黒丸)を分離する問題を例にこのマージン最大化の概略を表す.\begin{figure}\begin{center}\epsfxsize=7cm\epsfbox{hyperplane.eps}\caption{マージン最大化}\label{fig:hyperplane}\end{center}\end{figure}図\ref{fig:hyperplane}中の実線は式(\ref{eq:hyperplane})の分離平面を示す.一般にこのような分離平面は無数に存在し,図\ref{fig:hyperplane}に示す2つの分離平面はどちらも学習データを誤りなく分離している.分離平面に平行する2つの破線は分離平面が傾き${\bfw}$を変化させないまま平行移動したときに,分類誤りなく移動できる境界を示す.この2つの破線間の距離を{\bfマージン}と呼び,SVMはマージンが最大となる分離平面を求める戦略を採用している.図\ref{fig:hyperplane}の例では,右の分離平面が左の分離平面にくらべて大きなマージンを持っており,精度よくテスト事例を分離できることを意味している.実際に2つの破線を求めてみる.破線は,正例($+1$)もしくは負例($-1$)のラベルを出力する境界面になるように正規化を行えば,\begin{eqnarray*}&{\bfw}^T{\bfx}+b=\pm1\qquad{\bfw}\in{\bfR}^n,b\in{\bfR}\end{eqnarray*}で与えられる.さらにマージン$d$は,分離平面上の任意の点${\bfx'}$から各破線までの距離の和であり,${\bfx'}$は,${\bfw}^T{\bfx'}+b=0$を満たすため,\begin{eqnarray*}d&=&\frac{|{\bfw}^T{\bfx'}+b-1|}{\|{\bfw}\|}+\frac{|{\bfw}^T{\bfx'}+b+1|}{\|{\bfw}\|}=\frac{|-1|}{\|{\bfw}\|}+\frac{|1|}{\|{\bfw}\|}\nonumber\\&=&\frac{2}{\|{\bfw}\|}\end{eqnarray*}となる.このマージンを最大化するためには,$\|{\bfw}\|$を最小化すればよい.つまり,この問題は以下の制約付き最適化問題を解くことと等価となる\footnote{実際の我々の実験では多少の解析誤りを認めるSoftMarginの項を追加した最適化問題を解いている}.\begin{eqnarray*}&目的関数:&L({\bfw})=\frac{1}{2}\|{\bfw}\|^2\rightarrow最小化\\&制約条件:&y_i({\bfw}^T{\bfx}_i+b)\geq1\,\,(i=1\ldotsl)\end{eqnarray*}ここで,2つの破線上の分類を決定づける事例をサポートベクターと呼び,サポートベクター以外の事例は実際の学習結果に影響を及ぼさない.さらに,一般的な分類問題においては,学習データを線形分離することが困難な場合ある.このような場合,各素性の組み合わせを考慮し,より高次元な空間に学習データを写像すれば線形分離が容易になる.実際の証明は省略するがSVMの学習,分類アルゴリズムは事例間の内積しか使用しない.この点を生かし,各事例間の内積を任意のKernel関数におきかえることで,SVMは低次元中の非線形分類問題を高次元中の線形分離問題としてみなし分類を行うことが可能となっている.多くのKernel関数が提案されているが,我々は以下の式で与えられる$d$次の多項式Kernel関数を用いた.\begin{eqnarray*}K({\bfx}_i,{\bfx}_j)=({\bfx}_i^T{\bfx}_j+1)^d\label{eq:kernel_pol}\end{eqnarray*}$d$次の多項式関数は$d$個までの素性の組み合わせ(共起)を考慮した学習モデルと見なすことができる.\subsection{SVMの汎化能力}ここで,汎化能力に関する一般的な理論について考察する.学習データおよびテストデータがすべて独立かつ同じ分布$P({\bfx},y)$から生成されたと仮定すると,識別関数$f$のテストデータに対する汎化誤差$E_g[f]$,学習データに対する誤差$E_t[f]$は以下のように与えられる.\begin{eqnarray*}E_g[f]&=&\int\frac{1}{2}|f({\bfx})-y|dP({\bfx},y)\\E_t[f]&=&\frac{1}{l}\sum_{i=1}^{l}\frac{1}{2}|f({\bfx}_i)-y_i|\end{eqnarray*}さらに,$E_g[f],E_t[f]$には以下のような関係が成立することが知られている\cite{Vapnik98}.\newtheorem{theorem}{}\begin{theorem}[Vapnik]学習データの事例数を$l$,モデルのVC次元を$h$とする時,汎化誤差$E_g[f]$は,$1-\eta$の確率で以下の上限値を持つ.\begin{eqnarray}E_g[f]\leqE_t[f]+\sqrt{\frac{h(\ln\frac{2l}{h}+1)-\ln\frac{\eta}{4}}{l}}\label{eq:svm_gen}\end{eqnarray}\end{theorem}ここでVC次元$h$とは,モデルの記述能力,複雑さを表すパラメータである.式(\ref{eq:svm_gen})の右辺をVCboundと呼び,汎化誤差を小さくするには,VCboundをできるだけ小さくすればよい.従来からある多くの学習アルゴリズムは,モデルの複雑さであるVC次元$h$を固定し,学習データに対するエラー率を最小にするような戦略をとる.そのため,適切に$h$を選ばないとテストデータを精度良く分類できない.また適切な$h$の選択は一般的に困難である.一方SVMは,学習データに対するエラー率をSoftMarginやKernel関数を使って固定し,そのうえで右辺の第二項を最小化する戦略をとる.実際に式(\ref{eq:svm_gen})の右辺第二項に注目すると,$h$に対して増加関数となっている.つまり,汎化誤差$E_g(h)$を小さくするには,$h$をできるだけ小さくすればよい.SVMではVC次元$h$とマージン$M$には以下の関係が成立することが知られている\cite{Vapnik98}.\begin{theorem}[Vapnik]事例の次元数を$n$,マージンを$d$,全事例を囲む球面の最小直径を$D$とすると,SVMのVC次元$h$は,以下の上限値を持つ.\begin{eqnarray}h\leq\min(D^2/d^2,n)+1\label{eq:teiri}\end{eqnarray}\end{theorem}式(\ref{eq:teiri})から,$h$を最小にするためには,マージンを最大にすればよく,これはSVMがとる戦略そのものであることが分かる.また,学習データの次元数が十分大きければ,VC次元$h$は,学習データの次元数に依存しない.さらに,$D$は,使用するKernel関数によって決まるため,式(\ref{eq:teiri})はKernel関数の選択の指針を与える能力も持ちあわせていることが知られている\cite{Vapnik98}.また,Vapnikは式(\ref{eq:svm_gen})とは別に,SVMに固有のエラー率の上限を与えている.\begin{theorem}[Vapnik]$E_l[f]$を{\itLeave-One-Out}によって評価されるエラー率とする場合\begin{eqnarray}E_l[f]\leq\frac{サポートベクター数}{学習サンプル数}\label{eq:loo}\end{eqnarray}となる.\end{theorem}{\itLeave-One-Out}とは,$l$個の学習データのうち1個をとりのぞいてテストデータとし,残り$l-1$を使って学習することをすべてのデータについて$l$回繰り返すことで,未知データに対するエラー率を予測する手法である.式(\ref{eq:loo})は容易に証明可能である.つまり,SVMの特徴としてsupportvector以外の事例は最終の識別関数には一切影響を及ぼさない.そのため個々のsupportvectorすべてが誤ったときが最悪のケースとなり,式(\ref{eq:loo})が導かれる.このboundは,単純明解で汎化誤差のおおまかな値を予測することを可能にする.しかし,supportvectorの数が増えても汎化能力が向上する事例もあり,式(\ref{eq:loo})の汎化誤差の予測能力は式(\ref{eq:svm_gen})には劣ることが知られている.\vspace{-4mm} \section{SVMに基づくChunk同定} \subsection{Chunkの表現方法}Chunk同定の際,各chunkの状態をどう表現するかが問題となる.一つの手法として,各chunk同定を分割問題とみなし,各単語の間(ギャップ)にタグを付与する手法が考えられる.しかし,この手法は単語とは別の位置にタグを付与する必要があり,従来からある形態素解析などのタグ付けタスクとは異なる枠組が必要となる.その一方で,各単語にchunkの状態を示すタグを付与する手法がある.この手法は,従来からあるタグ付け問題と同じ枠組でモデル化ができる利点がある.後者の単語にタグを付与する表現法として,以下2種類の手法が提案されている.\begin{enumerate}\itemInside/Outside\\この手法は英語のbaseNP同定でよく用いられる手法の一つである\cite{Ramshaw95}.この手法では,chunkの状態として以下の3種類を設定する.\begin{tabular}{cl}I&現在位置の単語は,chunkの一部である.\\O&現在位置の単語は,chunkに含まれない.\\B&現在位置の単語は,あるchunkの直後に位置するchunkの先頭である.\\\end{tabular}\vspace*{5mm}さらにTjongKimSangらは,上記のモデルをIOB1と呼び,このモデルを基にIOB2/IOE1/IOE2の3種類の表現方法を提案している\cite{Tjong_Kim_Sang2000e}.\begin{tabular}{cp{34zw}}IOB2&IOB1と基本的に同じだが,Bタグの意味づけがことなる.IOB2の場合,Bタグはすべてのchunkの先頭に付与される.\\IOE1&IOB1と基本的に同じだが,Bタグの代わりにEタグを導入する.Eタグは,あるchunkの直前に位置するchunkの末尾の単語に付与される.\\IOE2&IOE1と基本的に同じだが,Eタグはすべてのchunkの末尾の単語に付与される.\end{tabular}\itemStart/End\\この手法は日本語固有名詞抽出において用いられた手法\cite{内元00}で,各単語に付与するタグとして以下の5種類を設定する\footnote{内元らは,C/E/U/O/Sの5種類のタグを用いているが,IOB1/IOB2/IOE1/IOE2モデルとの整合性から,便宜的にB/E/I/O/Sタグを用いる.タグの名称の変更のみで本質的なタグの意味づけに変更はない.}.\begin{tabular}{cp{34zw}}B&現在位置の単語は,2つ以上の単語から構成されるchunkの先頭の単語である.\\E&現在位置の単語は,2つ以上の単語から構成されるchunkの末尾の単語である.\\I&現在位置の単語は,3つ以上の単語から構成されるchunkの先頭,末尾以外の中間の単語である.\\S&現在位置の単語は単独で一つのchunkを構成する.\\O&現在位置の単語はchunkに含まれない\\\end{tabular}\end{enumerate}これら5種類のタグ付け手法を英語の単名詞句抽出(baseNPchunking)を例に以下に示す.\begin{center}\begin{tabular}{l|ccccc}&IOB1&IOB2&IOE1&IOE2&IOBES\\\hlineIn&O&O&O&O&O\\early&I&B&I&I&B\\trading&I&I&I&E&E\\in&O&O&O&O&O\\busy&I&B&I&I&B\\Hong&I&I&I&I&I\\Kong&I&I&E&E&E\\Monday&B&B&I&E&S\\,&O&O&O&O&O\\gold&I&B&I&E&S\\was&O&O&O&O&O\\\end{tabular}\end{center}各chunkに対し,そのchunkの役割を示すタグを付与する場合は,B/E/I/O/Sといったchunkの状態を示すタグと,役割を示すタグを'-'で連結し新たなタグを導入することによって表現する.例えば,IOB2モデルにおいて,動詞句(VP)の先頭の単語はB-VPというタグを付与すればよい.\subsection{SVMによるChunk同定}基本的にSVMは2値分類器である.そのため,chunkのタグ表現のように多値の分類問題を扱うためにはSVMに対し何らかの拡張を行う必要がある.一般に,2値分類器を多値分類器に拡張する手法として,以下に述べる2種類の手法がある.一つは,{\itoneclassvs.allothers}と呼ばれる手法で,$K$クラスの分類問題に対し,あるクラスかそれ以外かを分類する計$K$種類の分類器を作成する手法である.もう一つは,{\itpairwise}法であり,各クラス2つの組み合わせを分類する$K\times(K-2)/2$種類の分類器を作成し,最終的にそれらの多数決でクラスを決定する手法である.また,DietterichやAllweinらは,上記の二つを含む形で,二値分類を多値分類器に拡張するための統一的な手法を提案している\cite{dietterich95solving,allwein00reducing}.本稿では,多値分類器への拡張手法として{\itpairwise}法を採用した.採用の理由として以下が挙げられる.\begin{itemize}\item一般に,SVMは$O(n^2)\simO(n^3)$($n$は学習データのサイズ)の学習コストを要求する.そのために,個々の二値分類器に用いられる学習データのサイズが小さければ,学習コストを大幅に削減することができる.{\itpairwise}法は,{\itoneclassvs.others}に比べ多くの二値各分類器を作成するが,各二値分類器に用いられる学習データは少量であり,全体的に学習のコストを小さくすることができる.\item{\itpairwise}法が実験的に良い結果が得られたという報告\cite{Ulrich}がある.\end{itemize}chunkタグの学習に用いる素性としては,現在の単語およびその周辺の単語や品詞といった文脈を用いる.具体的には,位置$i$のchunkタグ$c_i$の推定を行う素性として$c_i$自身の単語と品詞,および右2つ,左2つの単語と品詞を用いた.また,左2つのchunkタグも素性として使用した.さらに,解析方向を逆(右向きから左向き)にし,右2つのchunkを素性として使用することも考えられる.本稿では,これら2つの解析手法を{\bf前向き解析/後ろ向き解析}と呼び区別する.\begin{center}\begin{tabular}{cccccc}&&$\rightarrow$&解析方向&$\rightarrow$&\\単語:&$w_{i-2}$&$w_{i-1}$&$w_{i}$&$w_{i+1}$&$w_{i+1}$\\品詞:&$t_{i-2}$&$t_{i-1}$&$t_{i}$&$t_{i+1}$&$t_{i+1}$\\chunk:&$c_{i-2}$&$c_{i-1}$&\fbox{$c_{i}$}\end{tabular}\end{center}一般に,左2つ(後ろ向きの場合は右2つ)のchunkタグは学習データに対しては付与されているが,テストデータに対しては付与されていない.そこで実際の解析時には,これらの素性は左から右向きに(後向きの場合は右から左に)解析しながら動的に追加していくこととした.このような処理は,一種の動的計画法(DP)と考えることができる.すなわち,全体として最尤なchunkタグ列は,各chunkタグに付与されるある種のスコアの和が最大になるようなタグ列を選択することにより決定される.さらに,動的計画法を行う際に,解析のビーム幅を指定することで曖昧性の候補の爆発を抑えることができる.CoNLL2000のsharedtaskにおいて,我々はスコアとしてpairwise時の投票数,また,ビーム幅を5として解析を行っている\cite{kudo2000a}.本稿では,このような曖昧性を考慮したビーム幅付きの解析は行わず,ビーム幅1の決定的な解析を行った.その理由としては以下が挙げられる.\begin{itemize}\item我々の詳細な調査の結果,ビーム幅を大きく設定しても,顕著な精度向上に繋がらず,決定的な解析でも十分な解析精度が得られることが分かった.\item本稿の目的は,後述する重み付き多数決の手法を比較することであり,単純な設定にすることで,個々の重み付け手法の相違点を明確にすることができる.\end{itemize}\subsection{重み付き多数決}重み付き多数決とは,1つの学習器で出力を得るのではなく,学習データ,学習データの表現方法,素性の選択手法,学習アルゴリズム,あるいは学習アルゴリズムのパラメータ等の異なる複数の学習器を線形結合して出力を得るアルゴリズムのことを指す.このような重み付き多数決の手法は,潜在的にマージン最大化の効果があり,汎化能力の高い強学習アルゴリズムを作成できることが理論的にも実験的にも明らかになっている.ここで,多数決がなぜ精度向上に繋がるのか,その簡単な証明を行う.重み付き多数決に用いる学習器の1つを$f_i\in{\bfR}$,さらに学習すべき対象(正解)を$t\in{\bfR}$とする.また,$f_i$の$M$個を均一な重み$1/M$で線形結合した学習器を$f'=\frac{1}{M}\sum_{i=1}^Mf_i$とする.この時,$f_i$と$t$,および$f'$と$t$の二乗誤差の期待値には以下のような関係が成立する.ただし$E[x]$は,$x$の期待値を表現する.\begin{eqnarray}E[(f'-t)^2]&=&E[\textstyle(\frac{1}{M}\textstyle\sum_{i=1}^Mf_i-t)^2]\nonumber\\&=&E[\textstyle\frac{1}{M}\textstyle\sum_{i=1}^M(f_i-t)^2-\frac{1}{M}\textstyle\sum_{i=1}^M(f_i-\frac{1}{M}\sum_{i=1}^Mf_i)^2]\nonumber\\&\leq&E[\textstyle\frac{1}{M}\sum_{i=1}^M(f_i-t)^2]\nonumber\\&=&E[(f_i-t)^2]\label{eq:w}\end{eqnarray}式\ref{eq:w}より,多数決を行った学習器の二乗誤差の期待値のが,単独に学習した学習器の期待値より小さくなることが分かる.ここでは,証明を簡単にするために均一な重みとしたが,不均一な重みの場合に対する一般化も可能である.詳細については文献\cite{Haykin99}を参照されたい.この重み付き多数決の概念の一つとしてBoosting\cite{Freund96}があり,自然言語処理の多くのタスクに応用され高い精度を示している.Chunk同定問題においても,重み付き多数決の手法が適用されている.例えば,TjongKimSangらは,baseNP同定の問題に対し,弱学習アルゴリズムにMBL,ME,IGTree等の7種類のアルゴリズム,さらにIOB1/IOB2/IOE1/IOE2の4種類の表現を用いて独立に学習した複数のモデルの重み付き多数決を行うことで,個々のモデルのどれよりも高精度の結果が得られたと報告している\cite{Tjong_Kim_Sang2000a,Tjong_Kim_Sang2000b}.本稿では,弱学習アルゴリズムにSVMを用い,IOB1/IOB2/IOE1/IOE2の4種類の表現,さらに解析方向(前向き/後ろ向き)の合計$4\times2=8$種類の重み付け多数決を行うことで精度向上を試みる.IOB1/IOB2/IOE1/IOE2には,それぞれ次のような特徴がある.IOB1/IOE2は,chunkが連続したときのみ他とは異なるタグ(B/E)が付与される.つまり,chunkが連続するような事例に特化した学習が行われる.また,IOB2/IOE2は,chunkの開始/終了位置に他とは違ったタグ(B/E)が付与される.これらは,chunkの開始/終了位置に特化した学習が行われるさらに,chunk中の主辞(Head)となる単語は,chunkの成立に必要不可欠であるために,他の単語に比べ頻出し,同定が容易である.主辞がchunkの先頭にある場合は,前向きに解析を行うことで,主辞が最初に決定され,その結果が後続するタグの素性に影響を及ぼすため,全体として高い精度が期待できる.逆に,主辞がchunkの末尾にある場合は,後ろ向きに解析を行ったほうが高い精度が得られる.前向き/後ろ向きとは,すべてのchunkの主辞が先頭/末尾にあると仮定し,それぞれの仮定に特化した学習手法である.このように,chunkの表現方法,及び解析方向の異なる複数の学習器を作成することで,それぞれ視点の異なる複数の学習器が作成される.一般に,複数の学習器の性質が異なれば異なるほど,多数決の結果の精度が高くなるために,単独のタグ表現方法,及び解析方向の手法より高い精度が期待できる.重み付き多数決を行う場合,各モデルの重みをどう決定するかが問題となる.真のテストデータに対する精度を用いることで良い結果を得ることができるが,一般に真のテストデータを評価することは不可能である.Boostingでは学習データの頻度分布を変更しながら,各ラウンドにおける学習データに対する精度を重みとしている.しかしながら,SVMは,SoftMarginパラメータ,Kernel関数の選択次第で,学習データを完全に分離することができ,単純に学習データに対する精度を重みにすることは困難である.本稿では,重み付き多数決の重みとして以下の4種類の手法を提案し,それぞれの手法の精度や計算量などを考察する.\begin{enumerate}\item{\bf均一重み}\\これは,すべてのモデルに対し均一の重みを付与する手法である.最も単純な手法であり,他の手法に対するベースラインとなる.\item{\bf交差検定}\\学習データを$N$等分し,$N-1$を学習データ,残りの$1$をテストとして評価する.この処理を$N$回行い,それぞれの精度の平均を各モデルの重みとして利用する.\item{\bfVCbound}\\式(\ref{eq:svm_gen}),式(\ref{eq:teiri})を用いてVCboundを計算し,その値から正解率の下限を推定し\footnote{エラー率の上限であるため,1からこの値を引き,正解率の下限とみなす.},重みとする手法である.ただし,式(\ref{eq:teiri})における全事例を囲む最小直径$D$は各学習データから原点までのノルム最大値を用いて近似を行った.\begin{eqnarray*}D^2\sim\max_{i}\{K({\bfx}_i,{\bfx}_i)-2K({\bfx}_i,O)+K(O,O)\}\,\,\,\,(O:原点)\end{eqnarray*}\item{\bfLeave-One-Out(L-O-O)bound}\\式(\ref{eq:loo})のLeave-One-Outboundを求め,正解率の下限を推定し,重みとする手法である.\end{enumerate}実際の解析は以下のように行った.\begin{enumerate}\item学習データをIOB1/IOB2/IOE1/IOE2の各表現に変換する.\item4つの表現に対し,前向き解析,後ろ向き解析の計$4\times2=8$種類のモデルを作成し,SVMで独立に学習する.\item8種類のモデルに対し,VCbound,Leave-One-Outboundを計算し重みを求める.交差検定に関しては,(1),(2)の処理を各分割したデータに対して行い,各ラウンドのタグ付け精度の平均を重みとする.実際の実験では,交差検定における分割数$N$は,5とした.\item合計8種類のモデルを用いて学習データとは別のテストデータを解析する.個々の8種類のモデルが出力するchunkの表現は,それぞれ異なるため,そのままでは多数決を行うことができない.多数決を行うためには,個々の結果を1つの統一表現に変換する必要がある.この目的のために,解析後のデータをIOB1/IOB2/IOE1/IOE2の各表現に再び変換する.\itemIOB1/IOB2/IOE1/IOE2の個々に変換された結果に対し,タグレベルで合計8種類の重みつき多数決を行う\footnote{実際にはchunkレベルで行わないとchunkの整合性が取れなくなる可能性があるが,本稿では問題を簡単にするためタグレベルで多数決を取ることとした}.つまり各重み付けの手法に対し,IOB1/IOB2/IOE1/IOE2の4種類の表現方法で評価した結果を得ることとなる.最終的に,$4$(統一表現のタイプ)$\times$$4$(重み付けの方法)$=16$種類の結果を得ることとなる.\end{enumerate}重み付き多数決の候補として,IOBES前向き解析とIOBES後向き解析の各モデルを参加させることは可能であるが,我々はそのような実験を行わなかった.その理由として,推定すべきクラスの数がIOB1,IOB2,IOE1,IOE2モデルは3に対し,IOBESモデルは5と異なり,VCboundや,Leave-One-Outboundを同じ条件で比較することが困難なことが挙げられる.IOBES前向き解析とIOBES後向き解析の各モデルの実験は,IOB1,IOB2,IOE1,IOE2の各モデルとの精度を比較するために行った. \section{実験と考察} \subsection{実験環境,設定}実験には以下の2種類のタグ付きデータを用いた.\begin{itemize}\itembaseNP標準データセット({\bfbaseNP})\\PennTree-bank/WSJの15-18を学習データ,00-14,19-24をテストデータとし,BrillTagger\cite{Brill95}を用いてpart-of-speech(POS)を付与したデータである.テストデータのサイズ以外は,baseNP抽出に用いられるデータとして一般的なものである.\itemChunkingデータセット({\bfchunking})\\baseNP標準データセットと基本的に同一であるが,baseNP以外に{\smallVP,PP,ADJP,ADVP,CONJP,INITJ,LST,PRT,SBAR}の合計10種類の英語の句を表現するタグが付与されている.テストデータのサイズを除けば,CoNLL-2000SheadTask\cite{Tjong_Kim_Sang2000c}と同一のデータである.\end{itemize}それぞれのデータのサイズを表\ref{fg:env}に示す.\begin{table}\begin{center}\begin{tabular}{r|r|r|r}\hline\hline&トークン(単語)数&chunk数&文数\\\hlinebaseNP学習データ&211,727&53,371&8,936\\baseNPテストデータ&962,039&248,656&40,272\\chunking学習データ&211,727&104,893&8,936\\chunkingテストデータ&962,039&483,301&40,272\\\end{tabular}\end{center}\caption{実験データ}\label{fg:env}\end{table}実験にはSVM学習パッケージ{\itTiny}SVMを用いた\footnote{http://cl.aist-nara.ac.jp/\~\,taku-ku/software/TinySVM/から入手可能}.このツールは,本実験のようなバイナリの素性表現に特化して高速化が施されており,VCboundを自動的に推定する機能を持っている.また,すべての実験において,Kernel関数は2次の多項式Kernelを使用した.評価方法としては,適合率と再現率の調和平均で与えられるF値($\beta=1$)を用いた.これはchunk同定において一般的に用いられる評価方法である.以後,特にことわらない限りF値のことを精度と呼ぶ.\subsection{実験結果}表\ref{fg:ind}に,各chunkの表現方法,および解析方向が異なる計8種のモデルで独立に学習した実験結果(テストデータに対する精度,推定された重み)をまとめた.また,比較対象として,Start/End法を用いた学習結果についても示している.さらに,表\ref{fg:voting}に,これらを均一重み,\,\,交差検定($N=5$),\,\,VCbound,\,\,LeaveonOutboundの4種類の重み付けで多数決を行った際の結果をまとめた.表\ref{fg:best}には,各の重み付け手法の中の最良の結果について,その適合率と再現率を示す.\begin{table}\begin{center}\begin{tabular}{@{}c@{}@{}c@{}|p{2.4zw}|ccc@{}}\hline\hline\multicolumn{2}{c|}{学習条件}&\multicolumn{1}{c|}{精度}&\multicolumn{3}{c}{推定された重み}\\学習データ&変換先&$F_{\beta=1}$&交差検定&VCbound&L-O-Obound\\\hlinebaseNP&IOB1-前&94.04&.9394&.4310&.9193\\&IOB1-後&94.08&.9422&.4351&.9184\\&IOB2-前&94.13&.9410&.4415&.9172\\&IOB2-後&94.13&.9407&.4300&.9166\\&IOE1-前&93.91&.9386&.4274&.9183\\&IOE1-後&94.14&.9425&.4400&.{\bf9217}\\&IOE2-前&94.09&.9409&.4350&.9180\\&IOE2-後&{\bf94.23}&{\bf.9426}&{\bf.4510}&.9193\\\hlinechunking&IOB1-前&93.56&.9342&.6585&.9605\\&IOB1-後&93.58&.9346&.6614&.9596\\&IOB2-前&93.54&.9341&.6809&.9586\\&IOB2-後&93.52&.9355&.6722&.9594\\&IOE1-前&93.46&.9335&.6533&.9589\\&IOE1-後&{\bf93.65}&.9358&.6669&.9611\\&IOE2-前&93.50&.9341&.6740&{\bf.9606}\\&IOE2-後&{\bf93.65}&{\bf.9361}&{\bf.6913}&.9597\\\hline\hlinebaseNP&IOBES-前&93.93&&&\\&IOBES-後&93.94&&&\\\hlinechunking&IOBES-前&93.36&&&\\&IOBES-後&93.41&&&\\\end{tabular}\end{center}\caption{個々のモデルの精度比較}\label{fg:ind}\end{table}\begin{table}\begin{center}\begin{tabular}{@{}c@{}c|ccccc@{}}\hline\hline\multicolumn{2}{c|}{学習条件}&\multicolumn{4}{c}{各重み付けに対する精度$F_{\beta=1}$}\\学習データ&評価手法&均一重み&交差検定&VCbound&L-O-Obound\\\hlinebaseNP&IOB1&94.31&94.37&94.39&94.36\\&IOB2&94.33&94.39&{\bf94.41}&94.38\\&IOE1&94.32&94.38&94.38&94.36\\&IOE2&94.33&94.38&94.40&94.38\\\hlinechunking&IOB1&93.78&93.81&93.81&93.81\\&IOB2&93.74&{\bf93.84}&{\bf93.84}&{\bf93.84}\\&IOE1&93.79&93.81&93.81&93.81\\&IOE2&93.81&93.82&93.83&93.82\\\end{tabular}\end{center}\caption{重み付き多数決の結果}\label{fg:voting}\end{table}\begin{table}\begin{center}\begin{tabular}{c|ccc}\hline\hlineデータセット&適合率&再現率&$F_{\beta=1}$\\\hlinebaseNP&94.48\%&94.34\%&94.41\\chunking&93.85\%&93.83\%&93.84\\\end{tabular}\end{center}\caption{各データセットに対する最良結果}\label{fg:best}\end{table}\subsection{Chunkの表現方法と解析精度}表\ref{fg:ind}から,Inside/Outsideに基づく8つの手法を比較すると,「IOE2+後ろ向き」が最良の精度を,「IOE1+前向き」が最低の精度を示すことが分かる\footnote{chunkingデータセットの「IOE1+後ろ向き」以外は,「IOE2+後ろ向き」の結果が10\%の棄却率で有意であることが確認された.}.これは,以下に述べる我々の直観と合致する.\begin{itemize}\item多くの場合,chunk中の主辞は末尾の単語となる.すなわち,後ろ向きからから解析すると,主辞を最初に決定できるため優位となる.\\$\rightarrow$(後ろ向き$>$前向き)\itemIOEは,主辞となりやすいchunkの末尾に特化した学習が行われるため,先頭に特化するIOBに比べ優位となる.\\$\rightarrow$(IOE$>$IOB)\itemIOBは,chunkの先頭を,IOEは,chunkの末尾に特化して学習が行われる.そのため,IOBは,前向き,IOEは後ろ向きから解析すると特化して学習される単語が先に推定されるため,優位となる.\\$\rightarrow$(IOB+前向き$>$IOB+後ろ向き,IOE前向き$<$IOE後ろ向き)\item同一のchunkが連続することは稀である.すなわち,chunkの連続に特化するIOB1/IOE1は,chunkの先頭/末尾に特化するIOB2/IOE2に比べ劣る.\\$\rightarrow$(\{IOB1IOE1\}$<$\{IOB2IOE2\})\item同一chunkが連続する場合は,前のchunkの末尾の単語(主辞)よりはむしろ,後続するchunkの先頭の単語が境界の認定に役割を果たす場合が多い.そのため,chunkが連続する場合は,chunkの先頭に特化するIOB1がIOE1に比べ優位となる.\\$\rightarrow$(IOB1$>$IOE1)\end{itemize}次にInside/Outside法(IOB1/IOB2/IOE1/IOE2の各手法)とStart/End法の精度を比較する.颯々野らは,各学習アルゴリズムの特徴を考察しながら,決定リストについては細かい組み合せを考慮するStart/End法が,最大エントロピー方についてはより粗い情報を考慮するInside/Outside法が精度が良いと報告している\cite{Sassano00b}.SVMを用いた本手法では,全体的にInside/Outside法の法が,Start/Endに比べ高い精度を示している.SVMは,決定リストのように単独の素性(ルール)で分類するのではなく,最大エントロピーと同じく複数の素性の線型結合で分類するために,この結果は,颯々野らの分析と合致する.さらに,別の要因として以下が考えられる.まず,Start/Endは,5種類のタグを使い表現するため,Inside/Outsideと比較して,データスパースネスの問題を助長してしまう恐れがある.また,5種類のタグを使うことで,矛盾のあるタグのシーケンスの数が増えてしまう.具体的には,S→E,I→B,O→Iといったタグの連続は,タグ付けとしては不適切である.一方,IOB1は,O→Bのみ,IOB2はO→Iのみが不適切な連続である.タグ付けに関する指針,制約といった「タグ付けスキーマ」は,それらを明示的な形で与えない本手法では,システム自身がデータから学習する必要があり,それだけ余計なコストが生じてしまう.つまり,矛盾のあるタグ列が少ない表現方法が優位であると考える.\subsection{モデル選択能力}重み付き多数決を行う際の重みは,各システムの未知データに対する精度の予測値であるため,これらの大小を比較することでモデル選択が行える.表\ref{fg:ind}から,VCbound,交差検定,それぞれが「IOE2+後ろ向き」に対し最高の重みを,「IOE1+前向き」に最低の重みを算出しており,テストデータに対する精度をうまく予想してる.これらの結果から,VCbound,交差検定がモデル選択基準として良好に機能していることが分かる.交差検定はモデル選択に用いられる一般的な手法であるが,分割数が多くなると推定に多くの計算量を必要とする.その一方で,VCboundは学習と同時にモデル選択が行え,交差検定に比べ効率的であると考える.Leave-One-Outboundは他に比べ計算コストの小さいモデル選択手法であるが,その能力はVCboundや交差検定よりも劣ることが分かった.\subsection{多数決の効果}表\ref{fg:voting}から,多数決を行うことで,重みの付与方法によらず,単独のどのモデルよりも精度が向上することが確認できる\footnote{棄却率10\%以下で有意差があると判定された}.重み付き多数決の手法間の精度差には,多くの場合,顕著な差は見られなかった.特にVCbound,交差検定,Leave-One-Outboundは,ほぼ同等の精度となった.しかし,均一重みと比較して,上記の3つ手法で重みを推定するほうが,若干ながら優位であることが分かる.\subsection{関連研究との比較}\subsubsection{baseNPデータセット}TjongKimSangらは,弱学習アルゴリズムにMBL,ME,IGTree等の7種類のアルゴリズム,さらにIOB1/IOB2/IOE1/IOE2の4種類の表現を用いて独立に学習した複数のモデルの重み付き多数決を行うことで,baseNPデータセットに対し93.86の精度が得られたと報告している\cite{Tjong_Kim_Sang2000a,Tjong_Kim_Sang2000b}.我々は単独の表現を用いた場合でも93.91-94.23の精度を得ている.テストデータが異なるため,厳密な比較は行えないが,SVM単独の結果は,従来手法と同等だと考える.一方,従来手法は7種類の学習アルゴリズム,及び4つのchunk表現の異なるシステムの多数決の結果であり,個々の学習器の学習,及びテストの計算量は,SVM単独のシステムに比べ大きい.システムの複雑さという観点から見れば,SVM単独のシステムは,従来手法に比べ優位であると考える.さらに,従来手法と同様に,各表現の重み付き多数決を行うことで94.40の精度を得ることができた.これは,従来法の精度93.86に比べ優れていると考える.多数決を実行することは,全体としてシステムが複雑になることが一つの問題点である.TjongKimSangらによる手法は,MBL,ME,IGTreeといった,7種類のアルゴリズムを用いており,全体として複雑になっている.さらに,個々の学習器のパラメータは恣意的に設定されており,これらの最適なパラメータを考慮すると,設定すべきパラメータの数が多く,制御が困難であると考える.一方,本手法は,単一のSVMのみを用い,それ以外の学習アルゴリズムを用いていない.重み付き多数決を行うという観点から見れば,本手法は,従来手法に比べシステム全体の設計が,簡潔であり,設定すべきパラメータ数が少ない.この点も,本手法の優位な点と考える.\subsubsection{CoNLLデータセット}CoNLL-2000SharedTaskにおいて我々はSVMとIOB2と前向き解析の単独システム用いて93.48の精度を報告している\cite{kudo2000a}\footnote{テストデータが異なるため精度に若干差が出ている.}.本実験結果から,多数決を行うことで,「IOB2+前向き」に限らず,どの単独システムに比べても精度が向上している.またCoNLL-2000で報告された重み付き多数決に基づく他の手法\cite{Tjong_Kim_Sang2000d}よりも高い精度を示すことができた.\subsection{今後の課題}\begin{itemize}\item他の分野への応用\\我々の提案する手法は,日本語の文節まとめ上げや固有名詞,専門用語抽出と一般的なchunk同定問題に応用可能である.我々の提案する手法がこれらの他の分野でも有効であるか実際に検証を行う予定である.\item可変長モデル\\本稿では,左右2つの文脈のみを考慮する単純な固定長モデルを採用した.しかし実際には,個々のchunkを同定に必要な文脈長は可変であり,個々のchunkに対し最適な文脈長を選択することでさらなる精度向上が期待できる.颯々野らは日本語の固有名詞抽出において可変長モデルを提案し単純な固定長のモデルより高い精度が得られたと報告している\cite{Sassano00b}.今後このような可変長のモデルを取りいれたいと考えている.\itemより予測能力の高いboundの採用\\本稿では,重み付き多数決の重みとして,SVMに固有の概念---VCbound,Leave-One-Outboundを提案した.その一方でChapelleらは,これらより予測能力の高いboundを提案し,Kernel関数の選択やSoftMarginパラメータの選択に極めて有効であるとこを示している\cite{ChaVap00}.これらの予測能力の高いboundを重みとして採用することでさらなる精度向上が期待できる.\end{itemize} \section{まとめ} 本稿では,SupportVectorMachine(SVM)に基づく一般的なchunk同定問題の解析手法を提案し,実際のタグ付きコーパスを用いて実験を行った.英語の単名詞句抽出における実験では,複数のシステム混合に基づく従来のモデルと同等の精度を示し,SVMの持つ高い汎化能力を裏づける結果となった.また,chunkの表現方法や解析方向の異なる複数のシステムの中から最適なものを選択するための「モデル選択基準」として,本稿で採用したVCboundは,従来からある交差検定と同程度の予測性能があることが確認された.VCboundは,交差検定のように学習を繰り返す必要がなく,学習と同時に計算が可能であるため,計算量の軽減に繋がる.さらに,chunkの表現方法や解析方向の異なる複数のシステムの重み付き多数決を行うことで,個々のどのモデルよりも高い精度を示した.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{工藤拓}{1976年生.1999年京都大学工学部電気電子工学科卒,2001年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了,同年同大学院博士後期課程に進学.専門は統計的自然言語処理.機械学習,統計的手法に興味を持つ.}\bioauthor{松本裕治}{1955年生.1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,日本ソフトウェア科学会,言語処理学会,認知科学会,AAAI,ACL,ACM各会員}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V08N01-07
\section{はじめに} 自然言語処理では,機械翻訳システムの研究開発を中心に,過去10年以上にわたって多大な投資が行われ,言語解析アルゴリズムなど,大きく発展してきた(田中穂積1989;長尾真1996;田中穂積1999)が,解析の過程で発生する表現構造と意味に関する解釈の曖昧性の問題は,依然として大きな問題となっている.日本語の構文解析では,特に,述語間の係り受け関係の曖昧さ(白井ほか1995)と並列構造の識別(黒橋,長尾1994)が問題とされているが,名詞句(冨浦ほか1995;菊池,白井2000)や複合語(小林ほか1996)の構造の曖昧さも大きな問題である.英語では,前置詞句の係り先の曖昧さ(隅田ほか1994)などがクローズアップされている.また,機械翻訳では,訳文品質低下の最大の原因は,動詞や名詞の訳語の不適切さにある(麻野間,中岩1999)とも言われており,訳語選択の問題(桐澤ほか1999)は,解決の急がれる問題の一つとなっている.ところで,このような解釈の曖昧性が発生する原因は,解析アルゴリズムにあるのではなく,解析に使用される情報や知識の不足にある(Ikehara1996).曖昧性は,解析の途中で生じた複数の解釈の候補の中から,正しい解釈が選択できないことであるから,選択に必要な情報がある場合は発生しない.これに対して,解析アルゴリズムは,与えられた情報を使用して解釈を決定する手順であるから,優れたアルゴリズムでも,不足している情報を補うことは不可能である.従って,曖昧性の問題を解決するには,不足する情報を見極め,それが,与えられた表現から得られないときは,辞書や知識ベースとして外部から補うことが必要である.ここで,与えられた表現の意味を決定する問題について考えると,要素合成法の原理に従えば,表現の意味は,それを構成する単語から合成されることになる.すなわち,辞書によって各単語の語義が与えられると,それらの組み合わせによって表現の意味が決定できることになる.このような観点からの研究としては,単語に対して詳細な語彙情報を用意し,それを組み合わせて表現の意味解釈を生成する生成意味論の方法(Pustejovsky1995),オントロジーをベースとした知識処理の方法(Nierenburgetal.1992;武田ほか1995),言語処理のための意味表現の研究(内海ほか1993)などがある.しかし,現実の言語表現では,個々の単語の役割と意味は,与えられた表現の中で,その単語が占める位置に依存して決定しなければならない場合も多く,そのため,表現構造に関する知識や情報が必要となる.事例から情報を得て処理を進める方法(長尾1984;佐藤1992;SumitaandIida1992),単語の共起関係の情報を使用する方法(小林ほか1996;麻野間,中岩1999;PivaAlves,et.al.1998),さらには,単語の共起関係をパターン化する方法(池原ほか1993;宇津呂ほか1993;Almuallimet.al.1994b;池原ほか1997)などは,いずれも表現の構造に関する情報を使用している.このように,表現構造に関する情報は,曖昧性解消のための重要な手がかりと言えるが,解析に先立ってこれらの情報を網羅的に収集することは容易でない.通常,自然言語において,語彙に関する情報は,高々,数十万語が対象と見られるのに対して,その組み合わせである表現の場合は,ほぼ無限と言える.また,表現構造には,広い範囲で一般化できるものや,個別的で汎用化の困難なものなどがあり,ばらつきが大きい.そこで,本論文では,コーパスなどの言語データから曖昧性解消に必要な表現構造の知識を収集するための方法の一つとして,言語表現とその解釈の関係を変数とクラスの組からなる構造規則として表現し,学習用標本から半自動的に収集する方法を提案する\footnote{本論文では,従来の還元論的な方法で解決できない曖昧性を解消することを目指しており,曖昧さが問題となる表現をいくつかの部分的な表現の組に分解することはせず,一体として扱う.}.本方式では,対象とする表現を字面による文字列部分と変数部分(他の単語に置き換え可能な部分で,制約条件を単語の属性で記述する)からなるパターンで表わし,そのとき使用された変数の組によって表現構造を定義する.ところで,このような構造規則によって多様な言語表現をカバーするには,大量の標本が必要であり,必要とされる規則数も大きいと予想される.また,多数の規則を相互矛盾なく定義するには,文法属性だけでなく,粒度のきめ細かな(属性数の多い)意味属性の体系が必要になると予想される.ここで,従来の学習技術との関係をみると,種々の帰納的学習の方法が提案されてきたが,学習事例数,意味属性数,生成される規則数が共に大きい問題では計算が難しい.大規模な木構造からなる意味属性を使用する点から見ると,本論文の問題は,従来の格フレーム学習(Almuallim,etal.1994b)と同種の問題であり,(Haussler1988)の方法の適用が期待される.しかし,この方法は,学習事例数の増大に弱く,数千件以上の学習事例では実用的でない.また,事例数に強い方法としては,(Quinlan1993)の決定木学習の方法が知られているが,この方法は,木構造で表現されるような属性間の背景知識を使用する場合には適用できない.この問題を解決する方法として,木構造をフラットな属性列にエンコーディングするなど,いくつかの方法(Quinlan1993;Almuallinetal.1994b;アルモアリムほか1997)が提案されているが,いずれも,事例数,属性数,規則数が共に大きい問題に対する適用は容易でない\footnote{Quinlanの方法では次元数$N$個分の意味属性の木を組み合わせて一つの新しい木を作るのに対して,(Almuallimetal.1994a)の方法は,意味属性の木を次元数×意味属性数のビット列に展開する.これに対して,(アルモアリム1997)の方法は,エンコーディングをせずに,予め,事例を属性木に「流し」,ノード上に事例情報を蓄えておくことにより,直接計算を可能とするものである.本論文のように,事例数,属性数,規則数が共に大きい問題の場合,計算量は,Quinlanの方法の方が小さい.しかし,この方法は,意味属性のレベルに対して粒度がバランスしていないときは,精度が保証されない.}.そこで,本論文では,実用性を重視する観点から新しい方法を提案する.本方式の構造規則は,構造定義に使用された変数の数に着目して,一次元規則,二次元規則などの次元規則に分類されるが,解析精度を落とさず,汎用的な構造規則から順に生成することを考え,一次元規則から順に生成する.また,得られた各次元の構造規則に対し,木構造で表現された文法属性と意味属性の意味的包含関係を利用した自動的な汎化の方法を示す\footnote{本論文の方法では,必ずしも,必要最小限の規則のセットが生成されるとは限らない.最近の計算機の記憶容量を考え,無理なく実装可能なルール数に収斂すればよいと考える.}.本論文では,提案した方法を日本語名詞句に適用してその効果を確認する.具体的には,「$AのBのC$」の形の名詞句の事例から名詞$A$の係り先を決定するための解析規則を生成し,生成した規則を解析に使用してその適用範囲(カバー率)と解析正解率を求める. \section{構造規則の記述方法} \subsection{構造規則の基本型}自然言語処理において発生する解釈の曖昧さの種類はさまざまである.それを解消するために必要な情報も,文脈情報や常識,世界知識や専門知識などさまざまで,すべての種類の曖昧さを解決できるような情報をあらかじめ網羅的に準備することは困難である.ここで,従来の自然言語処理を見ると,表現の構造に関する知識は,文法知識として意味から分離し,表現の意味は,文法規則に従って語彙情報から合成する方法が一般的であった.しかし,実際の自然言語では,表現の構造とその意味を一体化して扱うことの必要な場合も多い.従来の言語解析で発生する解釈の曖昧さの多くは,むしろ,このような構造と意味に関する知識をあらかじめ準備することによって解決できる可能性がある.そこで,本論文では,このような知識を「構造規則」として,その形式を定義し,収集する方法を考える.さて,このような「構造規則」は,一般に,表現構造を定義する部分とその解釈を定義する部分から構成できる.このうち,言語表現の構造を記述する方法としては,木構造,リスト構造,意味ネットワークなど様々な方法がある.言語表現の構造的,意味的多義について考えると,文字列や品詞の並びから見た限りでは,類似または同等と思われるような表現が,統語的もしくは意味的に複数の解釈を持つことが問題である.そこで,対象とする表現構造を,言語表現そのものに近く,理解しやすい表現として,文字もしくは記号の連鎖からなる一次元的なパターンとして表現する.すなわち,構造規則の対象とする表現は,キーとなる文字列部分(「固定部」と称す)と形式的に他の単語や表現に置き換えられる部分(「変数部」または,単に「変数」とも言う)から構成されるパターンで表現する\footnote{例えば,「<名詞>から<名詞>への<名詞>」の表現パターンでは,2つの文字列「からの」,「への」を「固定部」,3つの<名詞>を「変数部」という.}.但し,前者は,字面で記述され,後者は,通常,記号で記述される.ここでは,このような構造規則は,曖昧性が問題となる表現の種類毎に収集されるものとする.例えば,名詞句「東京の叔父の息子」では,名詞「東京」の係り先の解釈が問題となるが,これは,「$AのBのC$」($A,B,C$は,いずれも名詞)の形の名詞句における名詞$A$の係り先の問題として構造規則を用意する.「美しい私の娘」における形容詞「美しい」の係り先の問題では,「形容詞+$AのB$」の表現構造における形容詞の係り先多義の問題として別の構造規則を作成する.また,名詞句「$AのB$」の英語への翻訳規則の場合,「山の頂上」(topofthemountain),「すべての学生」(allofthestudents),「私の友人」(myfriend),「嵐の夜」(stormynight),「京都の寺」(templeinKyoto)などのように,名詞$A$と名詞$B$の組み合わせの違いなどによって,訳し方に多義が存在するが,これも表現構造と解釈の関係として定義される.すなわち,「東京の叔父の息子」と「美しい私の娘」に対する係り受け解析では,異なる規則集合を作成する.また,名詞句「$A$の$B$」の翻訳の問題でも別の規則集合を作成する.このように,構造規則の対象とする表現を,曖昧性の問題となる表現の種類毎にパターン化した場合,表現パターン内の定数部分は省略し,変数部分のみによって表現構造を定義しても問題はないから,パターン化された表現の中から変数部分だけを取り出し,表現の構造を変数の組(tuple)として表現する.以上から,本論文では,多義解消のための構造規則の基本形を下記の通りとする.\vspace*{2mm}\begin{eqnarray}&{(A_1,A_2,A_3,\dots,A_N:C)}&\\&但し,{A_i}:変数部,{N}:変数の数,{C}:クラス&\nonumber\end{eqnarray}以下では,構造規則のうち,${A_1,A_2,A_3,\dots,A_N}$の部分を「構造定義部」,$C$の部分を「クラス定義部」と呼ぶ.\subsection{表現構造とクラスの記述}ところで,ほぼ無数とも言える言語表現をなるべく少ない構造規則でカバーするには,汎用性の高い構造規則を生成することが望まれが,一方,多彩な言語表現をカバーするためには,個別的な表現に対する規則も記述できる必要がある.そこで,汎用性の程度に応じて柔軟に規則を記述するため,「構造定義部」の変数${A_i}$は,下記に示す4種類の言葉もしくは記号のいずれかで記述するものとする.\begin{eqnarray}{A_i}=\left\{\begin{array}{@{\,}ll}*:&オールマイティ(無指定)\\文法属性:&品詞,活用行,活用形など\\意味属性:&単語の意味的用法を表す言葉\\字面:&標準表記された原文文字列\end{array}\right.\end{eqnarray}上記の変数は,「オールマイティ」,「文法属性」,「意味属性」,「字面」の順に適用範囲が広いと考えられる.すなわち,「オールマイティ」は,制約条件のないことを意味しており,最も汎用性が高い.「文法属性」,「意味属性」では,使用する文法体系の違いなどによって,種々の分類法が考えられるが,通常,言語解析では「文法属性」は,数10程度に分類されるのに対して,「意味属性」は,数百から数千種類に分類される.これに対して,字面情報は,単語の数で見ても10万種類以上となり,それで定義された規則は汎用性に乏しい規則となるが,言語表現には,慣用句など字面指定によって解釈の決まるような表現も多数存在する.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu1.eps,scale=0.9}\end{epsf}\begin{draft}\atari(338,306,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{文法属性体系の例\(日英機械翻訳システムALT-J/Eの場合)}\label{fig:ALT-J}\end{figure}\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu2.eps,width=\columnwidth}\end{epsf}\begin{draft}\atari(405,244,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{一般名詞意味属性体系の例(「日本語語彙体系」の場合)}\label{fig:一般名詞意味属性体系}\end{figure}本論文では,「文法属性」として,日英機械翻訳システムALT-J/Eで使用されている「文法属性体系」(池原ほか1987;宮崎ほか1995)を使用し,「意味属性」としては,「日本語語彙大系」(池原ほか1997)で定義された「単語意味属性体系」を使用する.文法属性体系と単語意味属性体系の一部を,それぞれ,図1,図2に示す.次に,式(1)のクラス定義部のクラス$C$は解釈を示す記号であり,構造規則の種類に応じて,統語的,意味的解釈を与える記号として使用される.例えば,前述の「$AのBのC$」の形の名詞句では,名詞$A$の係り先が名詞$B$の場合と名詞$C$の場合の2種類の解釈の可能性があるから,これを区別するには,構造規則では,$C=\{b係り,c係り\}$とすればよい.また,「形容詞$+AのB$」では,$C=\{a係り,b係り\}$となる.また,「$AのB$」の英訳規則の場合は,$C=\{\rm{of}型,\rm{in}型,所有代名詞型,\dots\}$のようになる. \section{構造規則生成の基本的な考え方} 本章では,コーパスなどから得られた事例を対象に,構造規則を発見し汎化するための考え方について述べる.その方法は,表現構造が文法属性によって定義された構造規則(簡単のため,「文法属性規則」と言う)と意味属性によって定義された構造規則(同様,「意味属性規則」と言う)のいずれの場合も同様であるが,前者は,従来から検討されており,人手による標本分析で比較的容易に作成できるので,以下では,後者の場合を中心に述べる\footnote{表現が意味属性と文法属性の両者によって定義される構造規則の作成については,3.3(2)で触れる.}.\subsection{標本の収集と学習用事例の作成}以下では,コーパスなどの原文から抽出した表現の文字列とそれに対する解釈(クラス)からなるペアを「標本」,その集合を「標本集合」と呼び${S_0}$で表す.また,標本を式(1)の形式の書き換えたものを「事例」,その集合を「事例集合」と呼び,${S_1}$で表す.例として,「$AのBのC$」の形の名詞句に対する係り受け規則の場合の例を以下に示す.\begin{eqnarray}&&名詞句の標本集合{S_0}:私の母の友達(私\rightarrow母)\nonumber\\&&名詞句の事例集合{S_1}:(私,母,友達:{B})\\&&但し,{B}は,名詞A(「私」)が名詞B(「母」)に係ることを示す\nonumber\end{eqnarray}ここで,集合${S_1}$の中のすべての変数の値(字面)を対応する意味属性で置き換えて得られた事例集合を${S_2}$とする.上記の名詞句の事例では,${S_2}$の要素として,\begin{eqnarray}&&名詞句の事例集合{S_2}:(\#8「自称」,\#80「母」,\#125「友人」:B)\\&&但し,\#{n}は,意味属性番号,「」内は,意味属性名を表す.\nonumber\end{eqnarray}が得られる.以下では,簡単のため,これを,$(\#8,\#80,\#125:B)$または,$(8,80,125:B)$のように記す.\subsection{規則の次元分類とその発見}\subsubsection*{(1)特徴空間と構造規則の次元}前章で示した構造規則の記述方法に従えば,学習用事例${S_2}$も構造規則と同じ(1)式の形式で表現されるから,${S_2}$の各要素は,それ自体,構造規則と見なすことができる.事例からのこのような規則生成では,帰納的推論の方法(長尾1988)の適用が考えられる.そこで,式(1)の構造定義部で指定された$N$個の変数に対して,各変数を基底とする$N$次のベクトル空間(「特徴空間」とも言う)を考えると,各事例は,特徴空間上の点に対応するから,構造規則の生成は,この特徴空間内で,同一のクラスに属す部分空間を切り出す問題となる.この種の問題は,特徴空間が線形である場合,クラスタ分析もしくはクラスタリングの問題(安西1989;浅野,江島1996;Witten\&Frank1999)としても良く知られており,多変量解析,情報検索などの分野で研究されている.しかし,式(1)の構造定義部で与えられる各基底はいずれも非線形である\footnote{例えば,意味属性で表現された変数の場合,変数の値は,意味属性番号である.意味属性番号間では加法定理は成り立たず,特徴空間上で事例間の距離もしくはノルムを定義することができない.}ため,計算は簡単でない.基底がis-a関係で結ばれた木構造となる場合については,(Haussler1988)の方法があるが,学習事例が多い場合は,適用困難である.また,事例数の大きい問題への適用を狙った方法として,意味属性の木構造をエンコーディングした後,既存の計算プログラムC4.5を使用する方法など(アルモアリムほか1997)もあるが,学習事例,基底数,(生成される)規則数が共に大きい場合は,やはり計算困難である.そこで,本論文では,変数の数に着目して構造規則を次元に分類し,意味属性間の包含関係に着目して規則を生成する方法を考える.さて,特徴空間上,同一のクラスに属す点の集合に対して構造規則は定義される.すなわち,構造規則は,一般に,$N$次空間上の点,もしくは,特定の領域に対応する.これに対して,$N$個の変数のうち$K$個の変数がオールマイティ「$*$」で表現された規則は,$K$次元だけ縮退された規則となり,$N-K$次元の空間内のベクトルで表現されるが,$N$次元空間で見れば,$N-K$次元の立方体に対応する規則であり,この立方体内に属す事例に適用される.例えば,三次元の構造規則(${A_1}$,${A_2}$,${A_3}$:$C$)において,${A_1}$,${A_2}$,${A_3}$の何れかを「$*$」で置き換えた規則(例えば,($*$,${A_2}$,${A_3}$:$C$))は,三次元空間上の線に対応する規則となり,2変数を「$*$」で置き換えた規則(例えば,($*$,${A_2}$,$*$:$C$))は,三次元空間上の面に対応する規則となる.以上から,構造規則をそれが定義される特性空間の次元に従って,一次元規則から$N$次元規則までの$N$種類に分類する.\subsubsection*{(2)構造規則発見の方法}事例集合${S_2}$から構造規則を生成するための基本的な考え方について述べる.対象とする表現の意味は,その前後の文脈に依存せず,与えられた表現だけで決定できると仮定\footnote{文脈依存のある場合は,クラスが一意に決定できる範囲まで,構造定義の範囲を拡大すればよい.}すると,対象とする表現とそのクラスが1対1の関係を持つ.すなわち,標本集合${S_0}$と事例集合${S_1}$において,同一の表現構造が異なるクラスに属す要素はない.しかし,字面を意味属性に置き換えて得られた集合${S_2}$では,構造定義部とクラス定義部が1対1に対応する場合と,1対1には対応せず,同一の構造に対して異なる複数のクラスが対応する場合が存在すると考えられる\footnote{要するに,字面レベルでは,表現とクラスの関係は,1対1であるが,意味属性に置き換えた表現では,必ずしも1対1にならない.}.このうち,前者は,構造定義部で定義された表現の解釈は一意に決定できることを意味しているから,このような部分集合から「意味属性規則」が生成できる\footnote{得られる規則の精度は,部分集合に属す事例数に依存する.そのため,後に述べるように目標とする精度に応じた閾値を設け,その値以上の事例数の部分集合から規則を生成する.}.すなわち,\vspace{\baselineskip}\begin{enumerate}\item集合${S_2}$の要素を構造定義部の等しい要素毎に分類する.分類されたグループ内の要素が,いずれも同一のクラスを持つとき,そのグループから一つの構造規則が生成できる.生成された規則は,該当するグループの要素数が多いほど,信頼性が高い.\item分類されたグループ内の要素のクラスが一致しないときは,そのグループからは構造規則は生成できない.その場合,「意味属性規則」は存在しないと判断できるから,もとの${S_2}$の要素(字面表記)を構造規則(「字面規則」と呼ぶ)とする.\end{enumerate}\vspace{\baselineskip}このうち,(1)で得られる構造規則は,構造定義に使用された意味属性相互の包含関係を使用すれば,さらにグループ化することができて,より汎用的な規則の生成が期待できる.これに対して,(2)で得られた規則は,一般化の困難な表現,すなわち慣用表現に類する表現の規則であると推定されるから,汎化の対象外となる\footnote{表現構造を定義する$N$個の変数のすべてが単語字面で記述された規則が生成されるが,その中には,一部の単語字面を意味属性に置き換えてよい(汎化できる)規則が含まれている可能性がある.そのような規則は,意味属性から文法属性への書き換えの場合(3.3(2)参照)と同様,人手によって発見し,汎化するものとする.}.\subsection{規則生成の順序と汎化}\subsubsection*{(1)構造規則の生成順序と適用順序}すでに述べた一次元規則から$N$次元規則までの規則では,次元の小さい規則ほど制約条件が少なく,汎用性が高い.また,そのような規則は高速に適用できるから,規則生成においては,一次元規則から順に生成する\footnote{明確な証明はないが,従来,単純な規則と複雑な規則が混在しているときは,単純な規則の方を優先する方が良さそうだ(「オッカムのかみそり」の原則)と言われている.C4.5でも,決定木の生成順序の決定で同様の作戦が用いられている.}.このとき,規則生成で使用された学習事例を後の規則生成で再び使用するか否かが問題となる.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu3.eps,scale=0.9}\end{epsf}\begin{draft}\atari(317,144,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{構造規則汎化の方法}\label{fig:構造規則汎化の方法}\end{figure}ここで,言語解析では,得られた規則をその生成順に適用することとすると,後に生成された規則が,それ以前に生成された規則の適用範囲に適用されることはないから,後に生成された規則が先に適用される規則の適用範囲を含んでいても何ら問題は発生しない.そこで,規則生成では,図3の例に示すように,生成に使用した事例は,事例集合から削除し,後の規則生成は,残された事例を対象に進める.このように,事例の特徴空間から,ある部分的な空間から規則を抽出した後,その空間に含まれる事例を消去すると,その後の規則生成では,より広い範囲での汎化が期待できる\footnote{すでに述べたように,特徴空間は非線形であるので,汎化を進めるに当たって,空間を単純に拡張併合することができない.汎化の具体的方法は4章で述べる.}.以下では,この方法を「逐次型生成\footnote{これに対して,すべての事例を対象に,各次元を規則を生成する方法を「同時型生成」と呼ぶ.「同時型生成」については,後述する.なお,これらの方法は,事例呈示法の分類から見るといずれも「同時提示(simutaneouspresentation)」に属すもので,段階的に学習事例を提示する「逐次提示(incrementalpresentation)」ではない.}」と呼ぶ.以上から,構造規則生成の手順をまとめると,以下の通りとなる.\vspace{\baselineskip}\noindent{\bf<構造規則生成の手順>}\begin{enumerate}\item事例集合${S_1}$から,事例集合${S_2}$を作成する.${S_2}$は,${S_1}$の各標本内の変数部分の単語をその単語の属す意味属性番号に置き換えたものである.\item事例集合${S_2}$から,一次元規則の集合${R_1}$を生成し汎化する\footnote{全体が$N$次元からなる構造規則の場合,一次元規則は,指定される意味属性の位置によって$N$タイプの規則に分類される.$i$次元規則の場合,タイプの数は$_N\rm{C}_i$となる.総合的な品質が,生成する規則のタイプの順序に依存するかどうかは,実際に生成した規則によって判断する.後に述べるように,本論文の例題では,同次元内で構造規則の生成順序を変えても,得られる規則全体の精度は変わらなかった.}.そのとき,規則生成に使用した事例は,${S_2}$集合から削除する.\item上記で残った事例${S_2}$から,二次元規則の集合${R_2}$を生成し,汎化する.そのとき,規則生成に使用した学習事例は,${S_2}$集合から削除する.\item以下同様にして,$N$次元までの規則集合${R_i(1\leqi\leqN)}$を生成する.\item以上の結果,残された学習用事例${S_2}$の要素に対して,その元となった事例標本の集合を${R_e}$とする.(${R_e}$は,事例そのものであるが,同時に構造規則でもある.)\end{enumerate}\vspace{\baselineskip}なお,各次元規則の生成と汎化の方法は,次章で述べる.以上で得られる構造規則の種類は,以下の通りである.\begin{eqnarray}&(1)&「意味属性規則」の集合\\\\\{\sum_{i=1}^NR_i}\\&(2)&「字面規則」の集合\\\\\\\\\\\\{R_e}\end{eqnarray}\subsubsection*{(2)文法属性を使用した規則への汎化}以上の方法で生成された構造規則を対象に,構造定義部の意味属性を文法属性に置き換えてよい規則の組を探して,それらを文法属性による規則に置き換える.置き換えられた規則では,次元やタイプの異なる複数の構造規則が縮退されるため,適用順序の情報が失われる.従って,書き換え後の規則は,適用順序に依存しない独立した規則である必要がある.そこで,ここでは,書き換えの可否は,人手により判断するものとする.さて,前項までで得られる構造規則は,変数部分がいずれも「オールマイティ」,「意味属性」,「字面」の何れかで記述された規則である.ここで,「意味属性」で記述された規則の組を「転生名詞」,「時詞」,「形式名詞」など,より汎用な「文法属性」で記述された規則に汎化することを考える.一つの「文法属性」に複数の「意味属性」が対応することに着目し,各文法属性毎に,それと対応した意味属性を持つ規則を集め,該当する意味属性の部分を文法属性で置き換えた規則を作成する.新しい規則の作成では,後に述べる意味属性規則の汎化と同様,着目する意味属性以外の要素の同一性に注意する必要がある.また,書き換え後の規則の独立性を保証するため,木構造上,置き換え対象となる規則の適用領域内に他の規則が存在していないことを確認する必要がある\footnote{以上の処理は機械化することも可能であるが,文法属性は数が少ないため,人手作業とした.}.このようにして得られた文法規則を,文法属性の上下関係に着目して,さらに汎化する場合も同様である\footnote{意味属性数に比べて文法属性数は数が少なく,書き換え可能な文法属性は予想がつきやすいので,いずれの場合も,狙いを定めて書き換えの可能性を調べるとよい.但し,文法属性の場合,属性数が少ないことから,汎化による規則数削減の効果は,あまり期待できない.「文法属性規則」は,人手による標本分析で比較的容易に作成できるため,既存のシステムでは,すでに,構造解析規則として使用されている場合が多いと予想されるのに対して,従来の構文解析で解決できなかったような曖昧性を意味解析によって解消するためには,当面,意味属性による規則の収集ができることが要請される.}.なお,一般に,構造規則において,表現構造定義部は,字面,意味属性,文法属性などの混在する形式で記述できるから,上記の置き換えは,可能な変数のみを対象とすればよい. \section{構造規則の生成手順} 各次元の「意味属性規則」を生成し,汎化する方法について述べる.\subsection{一次元規則の生成}\subsubsection*{(1)一次元規則の発見}さて,一次元規則を発見する方法について述べる.まず,表現構造を規定する$N$個の変数に対応して,$N$個の意味属性体系の木を用意する.用意した各木のノードに「事例数リスト(${n_1,n_2,\dots,n_K}$)」を対応させる.但し,${n_i}$は,該当するノードの意味属性を持つクラス$i$の事例数で,$K$はクラスの数である.例えば,$m$番目の変数に対応する意味属性体系の木の$\#j$番目のノードの場合,${n_i}$は,事例集合${S_2}$の中で,$m$番目の変数の値が$\#j$である要素の数を表す.以下では,このようにして得られた意味属性体系の木を「意味属性数の木」と呼ぶ.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu4.eps,scale=0.9}\end{epsf}\begin{draft}\atari(378,155,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{「意味属性の木」と一次元規則の発見}\label{fig:「意味属性の木」と一次元規則の発見}\end{figure}図4に,クラス数$K=2$の場合について,構造定義部の$m$番目の変数に対応した「意味属性数の木」の例を示す.ここで,必要十分の標本データから「意味属性数の木」が求められているとし,$m$番目の属性の木の$\#j$番目のノードに付与された「事例数リスト」$({n_1,n_2,\dots,n_K})$の各数値について考える.各クラスの事例数を示す$K$個の数値のうち,$i$番目のクラスの事例数${n_i}$を除くすべての事例数が0であるとすると,このノードの表す事例,すなわち,$m$番目の変数が$\#j$番目の意味属性であるような事例は,他の変数($m$番目の変数以外)の値とは無関係に,すべてクラス$i$に属すことになる.従って,このノードから,一次元の構造規則$(*,\dots,*,j,*,\dots,*:i)$を生成する.但し,$\#j$は,先頭から$m$番目の変数の値である.このとき,規則生成の対象となったノードの「事例数リスト」の値は,すべてゼロにリセットする.「意味属性数の木」のノードで,事例数リストが0でない要素を2つ以上を持つノードでは,一次元規則は存在しないから,そのまま残しておき,後に述べるような二次元以上の規則生成を試みる.なお,すべての要素が0であるようなノードでは,構造規則を生成しない.\subsubsection*{(2)一次元規則の汎化}構造規則は,精度を失わない限り,汎用性が高く,規則数の少ない方がよい.意味属性体系上の上位の意味属性の語の性質は,下位の意味属性の語に伝搬することに着目すると,構造規則において,ある意味属性が指定されているとき,その意味属性の配下の意味属性を持つ語はすべて指定条件を満たすものと解釈される\footnote{前項の方法で生成された構造規則は,規則の定義で使用された意味属性に直属する単語の範囲にのみ適用され,その意味属性の配下にある意味属性では,別の構造規則が使用される.従って,上位の意味属性からなる規則が下位の意味属性の規則を包含するとはいえない.しかし,言語解析に適用する規則を選択するときは,表現に使用された単語の意味属性から順に上位の意味属性を辿り,最も近くの意味属性で記述された構造規則を選択すれば,それが適用すべき規則である.}.そこで,「意味属性数の木」のなかで,一次元規則の生成で使用されたノードに着目する.このノードから生成された一次元規則のクラスが$C$であり,かつ,その下位ノードのいずれからも同じクラス$C$の構造規則が生成されるとする.ただし,下位ノードには,対応する事例が存在せず,すべての要素がゼロとなる事例数リストは存在しても良いが,ゼロでないような要素が複数存在する事例数リストはないものとする.このとき,下位ノードから得られる規則は,着目したノードの規則で代表することができる.汎化は,このように,「事例数リスト」が上位ノードに畳み込めるようなノードを発見し,そのノードから生成された規則を削除することによって行われる.具体的には,下位ノードから汎化を開始し,順次,上位ノードに向かって汎化を進める.一度,汎化の結果得られたノードも,上記の条件を満たす限り,さらに上位ノードに縮退される.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu5.eps,scale=0.9}\end{epsf}\begin{draft}\atari(317,279,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{一次元規則の汎化の方法\(クラス数$K=2$の場合)}\label{fig:一次元規則の汎化の方法}\end{figure}図5に,クラス数$K=2$の場合の例を示す.図中,(a)では,$\#165$のノードの配下に,$\#166$,$\#185$の2つのノードがあるが,それらに属す事例(それぞれ,14件,21件)は,いずれも,$\#165$ノードの事例(18件)と同じく,クラス1の事例であるので,上位ノードに畳み込まれ,$\#165$ノードの事例数リストは,$(53,0)$となる.このとき,2つの下位ノートの事例数リストの値は,0にクリアされる.図中の(b)は,クラス2の場合の例で,以下同様である.\subsection{二次元以上の規則の生成}\subsubsection*{(1)二次元規則の発見}二次元規則では,表現を規定する$N$個の変数のうち,2個の変数の値が与えられるとクラスが決定されるから,得られる規則は,指定される変数の組み合わせによって,${N(N-1)/2}$組に分類される.以下では,そのうちの任意の一組の規則について考える.さて,対象とする表現が,${m_1}$番目の変数と${m_2}$番目の変数で定義されるような二次元の構造規則(${m_1\leqm_2}$とする)を抽出する.${m_1}$番目と${m_2}$番目の「意味属性数の木」の情報から,行番号,列番号をそれぞれの「属性数の木」のノード番号(意味属性番号)とし,要素を「事例数リスト」$({n_1,n_2,\dots,n_K})$とする二次元配列を作成する.但し,${n_i}$は,変数${m_1}$,${m_2}$の値が,それぞれ行番号,列番号で示される意味属性であるような事例のうち,クラスが$i$である事例の数を表す.図6に$K=2$の場合の例を示す.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu6.eps,scale=0.9}\end{epsf}\begin{draft}\atari(358,124,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{二次元規則の抽出}\label{fig:二次元規則の抽出}\end{figure}一次元規則の場合とほぼ同様,二次元規則は,この二次元配列から求められる.その方法は以下の通りである.二次元配列の要素に示された$K$個の事例数のうち,どれか一つを除くすべての数値が0であるような要素を考える.このような要素は,該当する変数の位置に,配列上の行と列で表される意味属性の語が使用された事例では,例外なくそのクラスが一意に定まっていることを示している.このことにより二次元規則は容易に抽出できる.例えば,いま,$\#{j_1}$行$\#{j_2}$列の位置の要素$({n_1,n_2,\dots,n_K})$の値が,$(0,0,\dots,{n_i},0,\dots,0)$であるとすると,下式の二次元規則が得られる.\begin{eqnarray}&&{(*,\dots,\#j_1,*,\dots,\#j_2,*,\dots;i)}\\&&但し{n_i}\neq0,また,{\#j_1},{\#j_2}は意味属性番号で,変数リストの先頭より,\nonumber\\&&それぞれ,{m_1}番目,{m_2}番目に位置する.\nonumber\end{eqnarray}なお,一次元規則の場合と同様,規則生成後,当該ノードの事例数リストの値は,すべてゼロにリセットされる.\subsubsection*{(2)二次元規則の汎化}二次元規則は,前述の二次元配列を使用して汎化する.ただし,行と列で表される意味属性の上下関係(包含関係)の情報については,意味属性体系を参照する.この場合,表現を指定する変数が二種類あるため,二方向での汎化が必要な点を除けば,汎化の方法は,一次元規則の場合と同様である.図7に,クラス数$K=2$の場合の汎化の例を示す.図では,${m_1}$番目の変数の値が意味属性$\#125$配下にあり,${m_2}$番目の変数の値が意味属性$\#522$の配下にある二次元規則を汎化している.初めに,行方向の汎化で,9つの構造規則が3つの構造規則に縮退され,次に,列方向の汎化で,3つ構造規則が1つに縮退されるから,全体では,9つの構造規則が最終的に1つに縮退される.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu7.eps,scale=0.7}\end{epsf}\begin{draft}\atari(337,446,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{二次元規則の汎化の例}\label{fig:二次元規則の汎化の例}\end{figure}この例では,行方向と列方向のいずれから汎化しても結果は変わらないが,場合によっては,汎化の順序によって縮退できる規則数に差が生じることが考えられる.従って,規則数の減少を図るため,双方向の汎化の結果を比べて,縮退できる規則数の大きい方を採用する.\subsubsection{(3)三次元以上の規則の抽出と汎化}二次元規則が事例数リストの二次元配列から得られたのと同様,$m$次元規則は,事例数リストの$m$次元配列から求められる.規則を求める方法とそれを汎化する方法は,次元数の違いを除けば,二次元規則の場合と同様である.\subsection{規則生成の閾値について}\subsubsection*{(1)規則生成対象となるノードの事例数}生成される規則の信頼性の観点から見たとき,事例数の少ないノードから生成された規則は信頼性に乏しい.従って,規則抽出は,ある程度以上の事例数を持つノードからに絞ることが望まれる.ここで,ある確率分布に従ってランダムに発生する事象を考えると,着目する現象の出現頻度はポアソン分布に従い,その信頼性は,その事象の出現回数の絶対値のみで決まる.そこで,規則生成のための事例数の閾値として,$\xi$件を設定する.すなわち,構造規則の生成においては,「事例数リスト」の数値の和(${n_1+n_2+}\dots$)が$\xi$以上となるノードを対象に,規則生成を試みる.\subsubsection*{(2)規則の精度を保証するための閾値}前節で示した各次元の規則生成では,事例の特徴空間上,例外なく同一のクラスの事例からなる空間からのみ構造規則を抽出し,それを汎化している.しかしこの方法では,ごくまれに発生する例外のため,規則が生成できないような場合が心配される.そこで,汎化の範囲をより拡大するため,この条件をゆるめ,規則生成の対象となる事例数に対して閾値$\gamma\%$を設ける.すなわち,規則生成において,クラス$C$に対する構造規則を生成するとき,クラス$C$以外のクラスの事例が$\gamma\%$以下であるノードの範囲まで特徴空間を広げて構造規則を生成する.汎化においても同様の基準を使用するものとする\footnote{決定木学習における枝刈りの方法としては,決定木を最後まで成長させてから,決定木上の一つ一つのノードの価値を調べ,悪影響の大きいノードから順に削除する方法と得られた決定木から規則集を生成して,精度の悪い規則を削除する方法がある(Mitechell1997)が,ここでは,計算量を削減するため,2つの単純な指標に基づき,規則生成の段階で生成の可否を判断する方法とした.}.閾値の値は,目標とする解析精度に依存して設定する必要がある.すなわち,閾値$\gamma\%$内の事例から得られた規則の場合,それを使用した解析では,最大$\gamma\%$の誤りが生じることが予想されるから,目標とする解析精度を$\eta\%$とするときは,閾値は,$\gamma\leq(100-\eta)\%$となるように設定する必要がある. \section{名詞句への適用例} 前章で提案した構造規則の生成法を,係り受け関係に多義を持つ名詞句として典型的な「の型名詞句」に適用し,係り受け解析のための「意味属性規則」を生成する.また,生成された規則を解析に使用して,その精度を評価する.名詞句の意味については,すでに人手によって詳細な意味分類(島津ほか1986)が行われてきた.また,本章で対象とする「の型名詞句」についても,人手による標本分析の結果として種々のヒューリスティックスが提案されており,名詞間の接続強度と用例を併用した解析方法の研究(江尻,宮崎1998)では,9割前後の係り受け精度が達成されている.しかし,計算機による解析では,解析精度の問題など,まだ多くの課題を残している.係り受け解析としては,コーパスに基づく方法として,単語の共起情報を用いて係り先を決定する方法(佐々木1995),複合名詞に意味クラスの共起情報を用いて係り先が決定される確率を求める方法(小林1996)などがある.名詞句翻訳では,生成語彙論の立場から,語彙情報によって英語表現を生成する方法(菊池,白井2000)もあるが,精度は不明である.また,大量の対訳例の中から意味的に類似した表現を発見し,翻訳結果を得る方法では,収集される用例は,通常,スパースであり,適切な用例がないときは,結果は保証されないことが問題であった.本論文の方法は,名詞句の持つ意味的な構造に着目した受け規則が生成できるので,比較的少ない事例から相対的にカバー範囲の広い構造規則が生成できると期待される.\subsection{意味属性規則の生成}\subsubsection{5.1.1\対象とする名詞句と実験の条件}\subsubsection*{(1)対象とする名詞句とその曖昧性}さて,2つの助詞「の」と3つの名詞$A,B,C$から構成された「$AのBのC$」の形の名詞句を考える.ただし,記号$A,B,C$は名詞の出現順序をも表すものとする.以下,この型の名詞句を単に「の型名詞句」という.日本語では,一般に,表現要素間に後方修飾の原則があることに注意すると,「の型名詞句」では,名詞$B$の係り先は名詞$C$に特定されるため,先頭の名詞$A$について,以下の2通りの係り受け解釈が存在する.但し,$\alpha\rightarrow\beta$は,$\alpha$が$\beta$に係ることを示す.\vspace{\baselineskip}\renewcommand{\labelenumi}{}\begin{enumerate}\item$A\rightarrowB$\(\&$B\rightarrowC$)の場合\\例)「\underline{私の母}の名前」,「\underline{浴室の脱衣場}の壁」\item$A\rightarrowC$\(\&$B\rightarrowC$)の場合\\例)「\underline{私の}昔の\underline{友達}」,「\underline{東京の}数学の\underline{教師}」\end{enumerate}以下では,簡単のため,1)を「$b$係り」,2)を「$c$係り」と呼ぶ.\subsubsection*{(2)解析規則の記述形式}名詞句「$AのBのC$」の構造を$(X,Y,X)$で表す.ただし,$X,Y,Z$は,それぞれ,名詞$A,B,C$の属す意味属性の番号とする.次に,この構造の名詞句に対する係り受け規則を式(1)の記法に従って,$(X,Y,X:D)$で表す.ただし,$D$は係り受けのタイプで,$D=b$は前方係り受け,$D=c$は後方係り受けを表すものとする.この規則を次元によって分類すると図8のようになる.\begin{figure}[htb]{\small\begin{tabular}{|cllc|}\hline\hspace*{40pt}&\multicolumn{2}{l}{一次元規則の種類$:(X,\*,\*:D),(\*,Y,\*:D),(\*,\*,Z:D)$}&\hspace{70pt}\\&\multicolumn{2}{l}{二次元規則の種類$:(X,Y,\*:D),(\*,Y,Z:D),(X,\*,Z:D)$}&\\&\multicolumn{2}{l}{三次元規則の種類$:(X,Y,Z:D)$}&\\&&&\\&但し,&$X$\:\名詞$A$の意味属性番号,\\$Y$\:\名詞Bの意味属性番号,&\\&&$Z$\:\名詞$C$の意味属性番号,&\\&&$D$\:\係り受けの種類($b$\:\前方係り,$c$\:\後方係り)&\\\hline\end{tabular}}\caption{生成する係り受け規則の種類}\end{figure}ここで,オールマイティ記号「*」は,名詞の意味属性のノード番号0に対応する.すなわち,ノード番号0は,ルートノードで,すべての名詞を表すから,係り受け規則上は,意味的制約のないことを意味する.以下では,図8の三種類,7タイプの構造規則を生成する.\subsubsection*{(3)実験対象と実験の手順}まず,小説100冊(新潮文庫)を対象に,形態素解析プログラムALT-JAWS(NTT1996)を使用して「の型名詞句」を抽出する.そのうちの1万件について,人手によって係り先を決定し,名詞句の事例集合${S_1}$を作成する.次に,「日本語意味属性体系」(池原ほか1997)に定義された「単語意味属性体系」を参照して,各名詞句標本の変数部分に相当する名詞を意味属性番号に置き換え\footnote{多くの名詞は,意味的に複数の用法を持つため,複数の意味属性に属すが,それが使用された表現では,意味的用法は,通常1つである.従って,与えられた名詞句では,各名詞が,どの意味で使用されているかを判定し,一つの意味属性を決定する必要がある.},事例集合${S_2}$を作成する.ただし,名詞は複数の意味的な用法を有する場合が多いが,ここでは,各名詞の名詞句内での意味を考え,単一の意味属性に置き換える.以下,このようにして得られた事例集合${S_2}$から構造規則を生成し,得られた規則を実際の名詞句の係り受け解析に適用する.解析結果を,あらかじめ人手で決定しておいた正解と比較して解析規則の解析精度を求める.実験は,10回のcross-validation法で行う.すなわち,まず,事例標本を規則生成用の9,000件と解析実験用の1,000件に分け,前者から,すでに述べた方法で解析規則を生成する.得られた規則を後者の標本の解析に適用して解析精度を求める.この手順を10回繰り返して得られた結果を平均して,生成される規則数とその精度を求める.図9に実験の手順を示す.\vspace*{-2mm}\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu9.eps,scale=0.8}\end{epsf}\begin{draft}\atari(402,171,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{実験の手順}\label{fig:実験の手順}\end{figure}\subsubsection{5.1.2\実験結果}\subsubsection*{(1)名詞句に使用された名詞とその意味属性}「の型名詞句」の標本1万件で使用されている名詞$A,B,C$の意味属性を集計した結果を表1に示す.この表で,「深さ」の欄は,意味属性体系上,該当する意味属性が,トップノードから何番目の深さにあるかを示す.数値が大きくなるにつれて,該当する名詞の意味の粒度が小さくなる.\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|r|r|r|r|r|r|r|r|}\multicolumn{8}{c}{{\small{\bf表1}\\名詞と意味属性の関係}}\\\hline&&\multicolumn{2}{|c|}{名詞$A$}&\multicolumn{2}{|c|}{名詞$B$}&\multicolumn{2}{|c|}{名詞$C$}\\\cline{3-8}深さ&意味属性&異なり&適用度数&異なり&適用度数&異なり&適用度数\\&の総数&属性数&&属性数&&属性数&\\\hline0&1&1&9&0&0&1&3\\\hline1&2&0&0&0&0&0&0\\\hline2&6&2&11&0&0&2&292\\\hline3&21&12&82&13&102&12&216\\\hline4&106&56&1,580&57&843&60&871\\\hline5&256&129&1,069&161&1,973&156&3,096\\\hline6&536&219&2,051&263&2,099&244&2,354\\\hline7&827&272&2,689&382&2,275&349&1,473\\\hline8&687&262&2,020&354&2,020&307&1,272\\\hline9&211&78&474&99&653&86&403\\\hline10&40&6&7&9&24&8&16\\\hline11&16&6&8&7&11&4&4\\\hline計&2,709&1,063&10,000&1,345&10,000&1,231&10,000\\\hline\end{tabular}\end{center}これより,以下のことが分かる.\vspace{\baselineskip}\renewcommand{\labelenumi}{}\begin{enumerate}\item使用された意味属性は,いずれの名詞の場合も意味属性全体の半分以下であり,意味的に見て,名詞の種類全体をカバーする範囲にはない.\item使用された意味属性当たりの標本数は,平均7〜10件である.\item名詞$C$は,名詞$A,B$に比べて,浅い意味属性の名詞,すなわち,粒度の大きい名詞が使用される傾向がある.\end{enumerate}\vspace{\baselineskip}ここで,木構造上のノード(意味属性)に対応した構造規則が生成されることを考えると,2)より,ほぼ7〜10件程度の事例から1構造規則が生成されると見込まれる\footnote{構造規則は,1〜3個の意味属性によって記述されるから,実際は,規則当たりの事例数は,もう少し小さくなると予想される.}.その場合,規則生成の対象となるノードが反事例を持たないとすると,得られる規則の精度は,約$80\%$以上となることが期待できる.また,3)は,名詞句「$AのBのC$」において,名詞$C$の意味は,名詞$A$または名詞$B$によって限定されることの多いことを物語っている.\subsubsection{(2)実験結果}構造規則生成実験によって生成された規則数とそれを使用した名詞句の解析実験の結果をまとめて表2に示す.表中,「デフォールト規則」の欄は,解析実験において,適用できる規則が存在しない事例はすべて,「b係り」と解釈したことを示す.規則生成に使用する事例数の閾値$\xi$は,一次元規則と二次元規則の生成では2,三次元規則の生成では,1とし,例外事例に関する閾値$\gamma$は0とした.なお,一次元規則,二次元規則の生成において,それぞれの3タイプの構造規則の生成順序を変えても得られた構造規則全体の解析精度は変わらなかった.\vspace{\baselineskip}\noindent{\bf<規則抽出結果>}表2から,構造規則生成の結果について以下のことが分かる.\vspace{\baselineskip}\begin{enumerate}\item得られた意味属性規則数は,全体で1,815件である.この規則は,9,000件の事例から得られているから,平均してみれば,5事例から1規則得られたことになる.\item各次元規則の中で,二次元規則の数が最も多く,$80\%$以上を占めている.\item三次元規則は,136件で,他の次元の規則に比べて最小である.\end{enumerate}\vspace{\baselineskip}このうち,2),3)から,この種の名詞句は,三つの名詞のうち二つの意味関係によって係り受け関係が決まることが多く,三つの名詞すべてに依存する場合は少ないことが分かる\footnote{例えば,二次元規則では,2つの名詞の意味属性によって係り受け関係が決定できるが,このことは,全体を2つの名詞の組に分けてもよいことを意味しない.何次元のどのタイプの規則が生成されるかは名詞句で使用される名詞の位置と意味によって決まるからである.}.\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|c|c|c|c|c|c|c|c|}\multicolumn{8}{c}{{\small{\bf表2}\\生成された構造規則の数と精度}}\\\hline番号*&構造規則種別&規則のタイプ&\multicolumn{2}{c|}{得られた規則数}&規則適用回数&累積の事例数&精度\\\hline1&&$(X,*,*:D)$&89.6&&800\(8.0\%)&800\(8.0\%)&92.0\%\\\cline{1-1}\cline{3-3}\cline{4-4}\cline{6-8}2&一次元規則&$(*,Y,*:D)$&81.5&小計&591\(5.9\%)&1,391\(13.9\%)&88.7\%\\\cline{1-1}\cline{3-3}\cline{4-4}\cline{6-8}3&&$(*,*,Z:D)$&27.3&198&253\(2.5\%)&1,644\(16.4\%)&89.3\%\\\hline4&&$(X,Y,*:D)$&888.8&&4,187\(41.9\%)&5,831\(58.3\%)&90.6\%\\\cline{1-1}\cline{3-3}\cline{4-4}\cline{6-8}5&二次元規則&$(*,Y,Z:D)$&355.1&小計&1,917\(19.2\%)&7,748\(77.5\%)&89.0\%\\\cline{1-1}\cline{3-3}\cline{4-4}\cline{6-8}6&&$(X,*,Z:D)$&236.2&1480&782\(7.8\%)&8,530\(85.3\%)&77.5\%\\\hline7&三次元規則&$(X,Y,Z:D)$&\multicolumn{2}{c|}{136}&453\(4.5\%)&8,983\(89.8\%)&68.4\%\\\hline------&合計&---------&\multicolumn{2}{c|}{1,815}&8,983&8,983\(89.8\%)&88.0\%\\\hline----&デフォールト規則&$b$係り&\multicolumn{2}{c|}{----}&1,017\(10.2\%)&10,000\(100\%)&66.6\%\\\hline\multicolumn{2}{|c|}{合計}&-----&\multicolumn{2}{c|}{1,815}&10,000\(100\%)&10,000\(100\%)&85.8\%\\\hline\multicolumn{8}{c}{($*$.)規則生成の順序,及び解析での規則適用の順序}\end{tabular}\end{center}\hspace*{-5mm}{\bf<解析実験結果>}次に,上記の解析規則を使用した名詞句解析実験の結果から,以下のことが観察される.\begin{enumerate}\item1万件の事例から全体で,カバー率$89.8\%$の規則が得られる.また,規則のカバーする範囲の解析正解率は,平均$88.0\%$である.\item一次元規則と二次元規則の精度は,ほぼ,同程度であるのに対して,三次元規則の精度は低い.\item適用できる規則の存在しない事例は,すべて,「b係り」と解釈した結果,全体の正解率は,$85.8\%$である.\end{enumerate}\vspace{\baselineskip}このうち1)は,従来の人手で作成された規則(宍倉,宮崎1995;江尻,宮崎1998)の精度($90\%$前後)より若干低いが,本論文と同一の名詞句に対する従来の要素合成法的な解析規則(中井ほか1998)より,かなり優れている\footnote{名詞句「$AのBのC$」を「$AのB$」と「$AのC$」に分け,それぞれの名詞の結合強度を意味属性間の共起頻度で評価することによって,名詞$A$の係り先を決定する方法である.本論文と同一の意味属性(2,700)を使用した結果では,使用する意味属性を81種に絞ったとき,全体の係り受け精度は最大($72\%$)になる.この結果から,名詞句を分割する還元論的な方法に比べて,要素分割をしないwhole方式の効果はかなり大きいこと(この問題の場合,$86\%-72\%=14\%$)が推定される.}.2)は,一次元規則と二次元規則を生成する段階で,事例の多くが使用済みとなり,三次元規則の生成に使用された事例が少ないためと考えられる.また,3)の値は,人間でも判断に迷う事例が$10\%$程度存在する\footnote{実験では,各事例に対して三人の人手によって係り先を付与し,多数決によって正解を決定した.}ことを考えると,かなり良い値と解釈される.\subsection{文法属性規則の作成と意味属性規則との併用}前節で使用した名詞句の事例から,「文法属性規則」を作成する場合,また,それを,「意味属性規則」と併用する場合についての例を示す.\subsubsection*{(1)文法属性規則の生成}「$AのBのC$」の形の名詞句では,変数部分はすべて名詞であるため,図1の文法属性体系の中の体言(名詞)の部分で示される文法属性を使用した構造規則を考える.具体的には,使用する文法体系は図10の通りとする.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu10.eps,scale=0.8}\end{epsf}\begin{draft}\atari(301,321,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{名詞の文法属性体系}\label{fig:名詞の文法属性体系}\end{figure}ここで,図10の構造を見ると,各文法属性間の段数は少ないから,最終段の文法属性のみを使用した構造規則を生成する.このようなフラットな分類では,決定木を作り,それより式(1)の形式の規則を作成する方法が便利である.ここでは,決定木生成では,プログラムC4.5(Quinlan1995)を使用する.その結果,得られた規則のカバー率は,$91.8\%$,また,その範囲での正解率は,$84.8\%$であった.従って,全体の正解率は,$77.8\%$である.得られた構造規則のうち,正解率$85\%$以上を示したものを表3に示す.\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|c|l|l|}\multicolumn{3}{c}{{\small{\bf表3}\\解析精度の良い構造規則(正解率$85\%$以上)}}\\\hline\#&\multicolumn{1}{c|}{文法属性による構造規則}&\multicolumn{1}{c|}{適用される名詞句の例}\\\hline1&$(\*\,<形式名詞>,\*\:B)$&「昔のままの姿」,「大人のための物語」\\\hline2&$(\*\,\*\,<形式名詞>:B)$&「玄関の石段のところ」,「声楽の勉強のため」\\\hline3&$(\*\,<指示代名詞>,\*\:B)$&「湿原の向こうの林」,「海の彼方の国々」\\\hline4&$(\*\,\*\,<副詞型名詞>:B)$&「彼の小説の数々」,「新宿の二丁目の近く」\\\hline5&$(\*\,\*\,<指示代名詞>:B)$&「窓のガラスの向う」,「逢坂の関の彼方」\\\hline6&$(\*\,<形容詞転生型>,\*\:B)$&「事件の残酷さの意味」,「もとの静けさのなか」\\\hline7&$(\*\,<動詞転生型\(自)>,\*\:B)$&「砂のくぼみの中」,「岬のつづきの丘」\\\hline8&$(<人称代名詞>,<サ変動詞型\(他)>,\*:B)$&「彼の指揮の下」,「私たちの受験の頃」\\\hline9&$(<指示代名詞>,\*\,\*\:B)$&「ここの学校の子」,「こちらの膝の上」\\\hline10&$(\*\,\*\,<時詞>:B)$&「父の死の直前」,「山本の訓示のあと」\\\hline11&$(\*\,<サ変動詞型\(自他)>,\*\:B)$&「ピアノの稽古のため」,「司祭の不在の間」\\\hline12&$(\*\,\*\,<形容詞転生型>:B)$&「漁夫の生活の厳しさ」,「父の声の暗さ」\\\hline\end{tabular}\end{center}これらの結果から,以下のことが分かる.\vspace{\baselineskip}\begin{enumerate}\item得られた規則のカバー率は,意味属性を使用した場合に比べて若干高い.\item得られた規則の正解率は,意味属性を使用した場合に比べて低い.\end{enumerate}\vspace{\baselineskip}このうち,1)は,意味属性に比べて文法属性の方がカバー範囲が大きいためと考えられる.また,2)は,意味属性に比べて品詞コードの分類が少ないこと,中でも大半の事例を構成する名詞は,「一般名詞」に属すため,分解能が低いことが原因と考えられる.\subsubsection*{(2)文法属性規則の作成}文法属性による規則として,どのような規則があるかについては,従来から検討されており(穴倉,宮崎1995),人間による標本分析で比較的容易に推定することができる.ここでは,「の型名詞句」において同格の「の」が使用された事例の解析に適用するための「文法属性規則」を考える.ところで,名詞句「$AのB$」において,助詞「の」が同格を意味する場合は,以下の二つの場合が代表的である.\renewcommand{\labelenumi}{}\renewcommand{\labelitemi}{}\begin{enumerate}\item人名を含む同格表現\begin{itemize}\item名詞$A$:\意味属性が,「人」で,文法属性が,「固有名詞(姓)(名)」でない名詞\item名詞$B$:\意味属性は,「人」で,文法属性が,「固有名詞(姓)(名)」である名詞\end{itemize}\item地名を含む同格表現\begin{itemize}\item名詞$A$:\意味属性は,「地域」で,文法属性が,「固有名詞(地名)」でない名詞\item名詞$B$:\意味属性は,「地域」で,文法属性が,「固有名詞(地名)」である名詞\end{itemize}\end{enumerate}\vspace{\baselineskip}前節で使用した1万件の名詞句のうち,人名,地名を含む同格表現,それぞれ,102件,13件に対して,上記の規則を適用した結果によれば,カバー率は,それぞれ,$74.5\%$,$100\%$で,正解率はいずれも$100\%$であった.\subsubsection*{(3)「文法属性規則」と「意味属性規則」の併用}今までの実験結果から見ると,「文法属性規則」に比べて,「意味属性規則」の方が総合的な解析精度は高いと言えるが,表現によっては,「文法属性規則」の方が精度の良い場合もある.そこで,ここでは,両者を組み合わせて使用する場合の効果について評価する.具体的には,4.1で得られた「意味属性規則」のそれぞれの正解率と4.2.1で得られた「文法属性規則」の正解率に基づき,以下の手順で解析実験を行う.\vspace{\baselineskip}\renewcommand{\labelenumi}{}\begin{enumerate}\itemまず,「文法属性規則」のうち,精度がある一定値$\eta\%$以上の規則を使用して,係り受け解析を行う.\item次に,1)で係り受け関係が決定できなかった標本に対して,「意味属性規則」によって係り受け解析を行う.\item$\eta$の値を変えながら,1),2)の手順を繰り返し,その結果を総合して,最終的な解析精度を評価する.\end{enumerate}\vspace{\baselineskip}以上の実験の結果を図11に示す.図では,左端の点,右端の点が,それぞれ,「意味属性規則」のみの場合と「文法属性規則」の場合を示しており,中間の2点は,$\eta=85\%$の場合と$\eta=70\%$の場合を示している.この結果によれば,$\eta=85\%$の時,すなわち,2割の名詞句は,「文法属性規則」,残る8割は,「意味属性規則」によって解析されるとき,解析精度は,ほぼ最大で,$86.8\%$となる.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu11.eps,scale=0.9}\end{epsf}\begin{draft}\atari(342,182,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{文法属性による規則と意味属性による規則の併用}\label{fig:文法属性による規則と意味属性による規則の併用}\end{figure}\subsection{検討}\subsubsection*{(1)「逐次型生成」と「同時型生成」の比較}本論文では,「意味属性規則」を生成するに際して,汎用性が高く,数少ない規則でカバー率をあげることを目標に,次元の低い規則から順に生成する方法を考えた.また,各次元の規則の生成では,一度,生成に使用した事例は,事例集合から削除し,残された事例から次の規則を生成する方法(「逐次型生成」)を採った.しかし,この方法は,事例数が少ないときは,解析精度の上で必ずしも良い方法と言えない可能性がある.すなわち,初めの段階での規則生成では,かなり多くの事例が存在するため,精度の良い規則が生成できるが,規則生成が進むにつれて,残された事例数が減少し,そこから生成される規則の精度が低下することが予想される.この傾向は,事例数1万件の場合(表2)において,構造規則の精度が,後に生成される規則ほど低下していることからも観察される.そこで,ここでは,規則の生成に使用した事例を捨てないで,各次元の規則を生成する方法(「同時型生成」と呼ぶ)について実験を行った.ただし,この方法では,一つの事例が異なる次元や異なるタイプの規則の生成で,クラスの異なった規則の生成に使用される可能性があるので,ここでは,得られた構造規則を使用して係り受け解析を行う場合,同次元内の構造規則で適用可能なものはすべて使用することとした.従って,解析では,異なった規則の適用によって異なった係り受け結果が得られる場合が生じる.そこで,係り受け解析においては,以下の方法で係り先を決定した.\vspace{\baselineskip}\noindent{\bf<係り受け解析の手順>}\begin{enumerate}\item係り受け解析規則は,一次元規則,二次元規則,三次元規則の順に適用する.\item同次元内の複数の規則が適用され異なる係り先が得られた場合は,その次元での判定は保留し,次の次元での結果に従う.\end{enumerate}\vspace{\baselineskip}実験の結果を表4と表5に示す.\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|c|c|c|c|c|c|c|c|}\multicolumn{8}{c}{{\small{\bf表4}\\生成された構造規則の数と精度}}\\\hline番号&構造規則の種類&規則のタイプ&\multicolumn{2}{c|}{得られた規則数}&\multicolumn{2}{c|}{カバー率}&精度\\\hline1&&${(X,*,*,D)}$&78.5&&9.0\%&&91.5\%\\\cline{1-1}\cline{3-4}\cline{6-6}\cline{8-8}2&一次元規則&${(*,Y,*,D)}$&84.3&小計&8.8\%&小計&89.2\%\\\cline{1-1}\cline{3-4}\cline{6-6}\cline{8-8}3&&${(*,*,Z,D)}$&60.3&223&6.2\%&19.3\%&87.6\%\\\hline4&&${(X,Y,*,D)}$&974.6&&59.3\%&&90.2\%\\\cline{1-1}\cline{3-4}\cline{6-6}\cline{8-8}5&二次元規則&${(*,Y,Z,D)}$&937.0&小計&69.8\%&小計&91.7\%\\\cline{1-1}\cline{3-4}\cline{6-6}\cline{8-8}6&&${(X,*,Z,D)}$&947.2&2,859&67.0\%&85.8\%&91.3\%\\\hline7&三次元規則&${(X,Y,Z,D)}$&\multicolumn{2}{c|}{2,455}&91.0\%&91.0\%&86.7\%\\\hline\multicolumn{2}{|c|}{合計}&-----&\multicolumn{2}{c|}{5,528}&&&\\\hline\end{tabular}\end{center}\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|c|c|c|c|}\multicolumn{4}{c}{{\small{\bf表5}\\係り受け解析への適用結果}}\\\hline規則の次元&適用事例数&累積頻度&正解率\\\hline一次元規則&1,925\(19.3\%)&1,925\(19.3\%)&91.7\%\\\hline二次元規則&6,594\(65.9\%)&8,519\(85.2\%)&90.7\%\\\hline三次元規則&1,083\(10.8\%)&9,602\(96.0\%)&68.4\%\\\hline字面規則&\\398\(4.0\%)&-----&----\\\hline合計&10,000&96.0\%&88.4\%\\\hline\end{tabular}\end{center}これらの結果を「逐次型生成」の場合の結果(表1)と比較すると,以下のことが分かる.\vspace{\baselineskip}\begin{enumerate}\item「同時型生成法」で生成された規則は,一次元規則,二次元規則に比べて,三次元規則の精度が若干悪いが,「逐次型生成」(表2)の場合と比べるとかなり向上している.\item規則のカバー率は,三次元規則が最大$(91\%)$で,次元が下がるにつれて,低下する.\itemこれらの結果,「逐次型生成」に比べて,「同時型生成」では,規則全体のカバー率が,$89.8\%$から$96\%$に向上し,解析正解率は,$85.8\%$から$88.4\%$に向上している.\itemしかし,「同時型生成法」で生成された規則数は,「逐次型生成法」の場合(1,815件)に比べてから,約3倍(5,528件)に増大している.\end{enumerate}\vspace{\baselineskip}これより,事例数1万件を使用したとき,「同時型生成法」は,「逐次型生成法」に比べて,カバー率が約$6\%$向上し,解析精度は,$2〜3\%$向上することが分かる.しかし,その代わりに生成される規則規則数は,ほぼ3倍に増加していることを考えると.事例数の少ないときに使用するのが適切と思われる.\subsubsection*{(2)事例数と構造規則の関係について}表1で示されるように,実験では,学習事例に含まれる名詞の種類は,異なり意味属性数から見て,半分弱に止まっており,決して,網羅的とは言えないが,得られた構造規則のカバー率は,表2に示されるように89.8\%に上っている.このことから,本方式では,比較的少ない事例から,カバー率の高い構造規則が得られることが分かる.次に,得られた構造規則の数と精度について見ると,表2の結果では,意味属性を使用した構造規則として,名詞句の事例1万件から1,815件の係り受け構造規則が得られている.本方式では,意味属性によって表現構造とクラスの関係が規定できる事例から構造規則は生成され,それ以外の事例は,字面のままの規則として残されるから,得られた構造規則において,元の事例の持つ情報量は失われない.従って,用例翻訳(長尾1984;佐藤1992)など,用例そのものを使用する方法に比べ,精度を落とすことなく,言語知識を$1/5$以下に圧縮する効果が期待できる\footnote{得られた規則数1,815件には,「字面規則」は含まれていない.これは以下の事情による.すなわち,生成された規則による係り受け解析実験では,「字面規則」が適用された例はないから,この規則を除いても,解析精度は低下しないことである.また,構造規則生成では,事例数が閾値以下の事例からは,構造規則は生成されず,無視されるが,これは,用例ベースによる処理の場合と同様で,違いは,あらかじめ事例から規則を生成しておくか,それとも,解析実行時に適用可能な用例をまねるかの差である.},また,本方式で得られた構造規則は,意味属性番号や文法属性番号を意味属性名や文法属性名に書き換えると,可読性が高いから,人手によってさらに圧縮できる可能性がある.ところで,最近の記憶装置の価格を考えると,実用上,規則数が多少多いことはあまり問題にならなくなってきた.これに対して,すでに述べたように,言語表現はきわめて多彩であり,構造的,意味的な曖昧性を解消するための知識を人手によって集積するのは,依然として,大変困難な課題である.本論文で提案した方法は,比較的少量の標本から,表現とその解釈に関する精度の良い構造知識を手軽に収集できる方法として,実用性が高いと期待できる.\subsubsection*{(3)規則生成に使用する事例数の閾値について}一般に,精度良い規則を得るには,事例数の多いところから構造規則を生成するのが望ましいが,実験では,一次元規則と二次元規則は,事例数が2以上のところから規則を生成し,三次元規則は,事例が1つしかない意味属性の組からも構造規則を生成した.これは,三次元規則の生成で,頻度2以上の事例から生成した規則より,頻度1以上の事例から生成した規則の方が全体として解析精度が良かったためである.しかし,表2では,一次元規則が使用される回数は,1規則あたり10回近くになるのに対して,二次元規則は4〜5回,三次元規則は3回程度と,順に使用回数が減少している.この点から見ると,低次元の規則は.より多くの事例のあるところから生成する方が適切と考えられる.従って,標本数がより多い場合は,事例数の多いところからのみ規則を生成するようにすれば,より精度の良い規則が得られるものと期待される. \section{あとがき} 自然言語処理において,さまざまな解釈の曖昧さを解消するための知識を構造規則として記述する方法と,その規則を事例から半自動的に収集する方法を提案した.これは,従来の要素合成法的な方式では解決できない曖昧さの解消を狙ったもので,解釈の曖昧さが問題となる表現を一つの表現単位として扱うことを基本としている.本方式の技術的特徴については,以下の通りである.本方式では,解釈の曖昧性が問題となる表現を,まず,変数部分と字面の部分からなるパターンで表現した後,構造規則を変数部分に対する制約条件と解釈の組によって定義した.変数部分の記述では,「オールマイティ記号」,「文法属性」,「意味属性」,「字面」の4種類の記号の使い分けが可能で,汎用的な規則から個別的で慣用的な表現まで柔軟に表現できる.次に,生成される規則は,オールマイティ以外の記号が使用される変数部分の数によって次元規則のグループに分類され,各グループの中で汎化が行われる.例えば,$N$個の変数を持つ表現パターンの場合,一次元規則から$N$次元規則までの規則と字面からなる例外規則を合わせて$N+1$のグループの構造規則が,順に生成される.汎化は,各次元の特徴空間の中で,木構造で表現された文法属性もしくは意味属性の意味的な包含関係を辿ることにより,容易に実行されるが,このとき,「実際の表現解析では,構造規則は生成された順に適用される」ことを前提に,一度,規則生成に使用された事例を事例集合から削除することにより,汎化領域の拡大と規則数の削減を図っている.本方式を「$AのBのC$」の型の名詞句に対する名詞間の係り受け解析規則の生成に適用した結果では,変数部分を意味属性で表現した構造規則の場合,1万件の学習事例から,一次元規則198件,二次元規則1,480件,三次元規則136件が得られた.そのカバー率は,$89.8\%$であったが,この値は,学習用の標本に含まれる名詞の種類が全体(約2,700種類)の半分以下(1,000〜1,300種類)であった点から見てかなり高い.これを使用した係り受け解析では,約86%の解析精度が得られた.また,変数部分を文法属性で表した規則と意味属性で表した規則を併用する場合は,解析精度は,$1〜2\%$向上する.これらを,2名詞間の結合強度に還元して評価する従来の方法(解析精度$72\%$)と比較すると,3つの名詞を1組として扱うことの重要性が確認できる.また,人間の判断能力と比べると,この種の名詞句では,人間でも係り先の判定に迷うような事例が$10\%$近く存在することから,得られた規則の精度は,人間の判断能力にかなり近い値と言える.なお,提案した方法では,一度,規則生成に使用した事例は学習事例から削除し,残された事例から次の次元の規則を生成する(「逐次生成法」)こととしているが,各次元の規則をすべての事例から生成する方法(「同時生成法」)では,得られた規則による解析精度は$2〜3\%$向上する.しかし,この方法は,事例削除の方法に比べて規則数が3倍にも増大する点が問題である.今後は,提案した方法を複合語解析,数量表現解析など,さまざまな表現解析用の規則生成に適用し,その効果を確認すると共に,より強力な汎化の方法についても検討していきたい.\acknowledgment本研究は,NTTコミュニケーション科学基礎研究所,および,文部省の科学研究費補助金の支援を受けて行われたことを記し,関係各位に深謝する.\nocite{*}\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学院修士課程終了.同年日本電信電話公社に入社.数式処理,トラフィック理論,自然言語処理の研究に従事.1996年スタンフォード大学客員教授.現在,鳥取大学工学部教授.工学博士.1982年情報処理学会論文賞,1993年同研究賞,1995年日本科学技術情報センタ賞(学術賞),同年人工知能学会論文賞受賞.電子情報通信学会,人工知能学会,言語処理学会,認知言語学会,各会員.}\bioauthor{中井慎司}{1999年鳥取大学大学院工学研究科知能情報工学専攻博士前期課程修了,現在,インテルコムズ(株)勤務.在学中は自然言語処理の研究に従事.}\bioauthor{村上仁一}{1986年,NTT情報通信処理研究所に入社。音声認識のための自然言語処理の研究に従事。特にtrigramの研究をおこなった。1991年から1995年,ATR自動翻訳電話研究所に出向。1995年からPB自動電話番号案内サービスの開発に従事。1997年に豊橋技術科学大学において論文博士を取得。タイトルは「確率的言語モデルによる自由発話認識に関する研究」。1998年に鳥取大学工学部知能情報学科に転職,現在に至る。電子情報通信学会および日本音響学会および言語処理学会各会員}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N03-02
\section{はじめに} 辞書ベースの自然言語処理ツールは高い精度が期待できる反面,辞書未登録語の問題があるため,統計情報を利用して辞書未登録語の抽出を行なう研究が盛んに行なわれている.辞書未登録語はドメイン固有の語句と考えることができ,対象ドメインの統計情報の利用が有効である.本稿ではドメイン固有の文字列の自動抽出で問題となるノイズを2方向のアプローチで解決する手法を提案する.本手法は辞書ベースのツールに付加的な情報を半自動的に与えて辞書未登録語の抽出を行なうことで処理精度の向上を図るものである.本稿では形態素解析ツールについて実験を行なったが,本手法は処理内容やツールに特化したものではなく,ツールの改変を伴うものではない. \section{語句抽出} 現在研究されている語句抽出システムは,ほとんどが対象を名詞に準じた単語列に限定したものである.これは,抽出の対象となる語句は未知語や専門用語が主であり,どちらも名詞がその大半を占めるためである.未知語,専門用語,固有名詞などはドメイン固有の語句と言ってよいが,ドメイン固有の語句となりうるのは新語や複合語がほとんどで,例えば助詞のように新語の出現しないものや活用語のようにドメインによってはほとんど新語がないものなどは抽出対象となりにくく,名詞に準じる語句を抽出対象とすることでかなりの未知語,専門用語などを取得することが可能である.また,対象とする品詞を限定することで抽出処理に必要なルールが削減され,ノイズの軽減に繋がるという利点がある.\subsection{名詞句抽出}抽出対象は主に,名詞の推定と名詞句の推定とに二分されており,特に名詞の推定では専門用語など複合語の推定を行なうものと固有名詞などの未知語を認識するものに分けられる.名詞句の推定を目的とした研究としては,Argamonらの提案したサブパターン概念を利用する手法\cite{argamon98}などが挙げられる.専門用語などドメイン固有の語句の抽出では,tf・idfモデルなど語句の出現頻度を利用する手法と$n$-gramなど文字の共起頻度を利用する手法がある.湯本らはunigramおよび隣接bigramの出現頻度を利用して複合名詞の認識を行なう手法を提案した\cite{yumoto01ipsjnl}.湯本らの抽出対象は専門用語であったが,彼らは専門用語として複合名詞のみを考え,名詞のみに着目した隣接bigramを利用して複合名詞の推定を行なった.専門用語となる語句の大部分を複合名詞が占めること,頻出複合名詞の構成要素である名詞は共起頻度が高く,また特定の単語同士の並びが多いことを考えると,この手法は効率的だと言える.Frantziらは英語を対象としてC-valueを利用して複合語を認識する手法を提案し,さらにこれにコーパスサイズや重みなどを利用してランク付けを行なった\cite{frantzi97}.Chaらは未登録語発見のための形態素パターン辞書を利用して未登録語の認識およびタグ付けを行なう手法を提案した\cite{cha98}.固有名詞の認識では,最大エントロピー法を利用して固有名詞の切り出しを行なうBorthwickの手法\cite{borthwick99}や,固有名詞の前後に出現しやすい語をトリガーワードとして固有名詞の認識を行なう手法\cite{kitani94,hisamitsu97},トリガーワードと構文解析情報を利用する福本らの手法\cite{fukumoto98}などがある.またCucerzanらは文字の並びの情報を利用して少ない訓練データからの固有名詞の推定を可能にする手法を提案し,ルーマニア語や英語など複数の言語に対して有効であることを示した\cite{cucerzan99}.\subsection{文字単位の統計情報を利用した辞書未登録語抽出}文字の共起情報を利用する手法としては,$n$-gramの画期的な抽出法を提案しこれを利用して文中の文字列の塊を認識する長尾らの手法\cite{nagao94}などが挙げられる.中渡瀬らは$n$-gram統計を利用して辞書未登録語を自動獲得する手法を提案した\cite{nakawatase98}.中渡瀬らは任意の文字列の頻度を正規化する手法を提案し,これを用いて語の境界を決定することで,辞書未登録語を獲得している.中渡瀬らはこの手法で漢字未登録語の43\%の取得に成功したと報告している.中渡瀬らの手法では評価対象を漢字未登録語に限定しているが,これは漢字とその他の字種の出現頻度分布が異なるためで,正規化を行なう中渡瀬らの手法では漢字での精度が高いためである.延澤らは品詞タグや文法などに頼らず機械的に取得可能な文字間の統計情報のみを利用して文の切り分けを行なう手法を提案している\cite{nobesawa96coling}.延澤らはこの手法を利用してドメイン固有の文字列の自動抽出を試みており,口語文章のような非文を多く含むコーパスに対しても有効であることを示した\cite{nobesawa00coling,nobesawa01anlp}他,固有名詞抽出など抽出対象を絞った場合などについても有効であるとしている\cite{nobesawa99}.文字列の抽出はその後の利用を見込んだものであるが,延澤らの手法では文字単位での処理を行なっているため抽出される文字列は単語,複合語,言い回しなどサイズがさまざまである.自然言語処理においては一般に単語または形態素が処理単位とされている.単語は多義性を持つものも多く,単語が最適な処理単位と言えるかは疑問が残る\cite{fung98}.その意味で,特定の処理単位を設定することは処理の精度に悪影響を与えている可能性もあるが,さまざまな処理単位を同時に扱う手法は確立されておらず,処理単位の特定が必要であるのが現状である.このため,さまざまな処理単位の文字列が同時に出力とされる延澤らの手法を用いて出力された文字列は,そのままでは他のツールでの利用が困難である.そこで本稿では,延澤らの手法の問題点を克服し,この手法を利用して辞書未登録語を抽出することで辞書ベースのツールの精度の向上を図る. \section{システム概要} 本稿で提案するシステムは,対象ドメインのコーパスからシンプルな手法でドメイン固有の語句を抽出する延澤らの手法\cite{nobesawa01anlp}を応用したものであり,辞書ベースの自然言語処理ツールの支援を目的として2方向からのアプローチを試みる.\subsection{システム概要}本稿では,辞書ベースの形態素解析ツールに対して統計情報を利用することでその精度の向上を図るため,以下の2つのアプローチを試みた.\begin{itemize}\itemシステムM:形態素解析ツールへの組み込みのための統計情報利用システム\begin{quote}形態素解析中に統計情報を利用してドメイン固有の語句を認識するシステムを形態素解析ツールに組み込むことで形態素解析時の誤解析を削減.\end{quote}\itemシステムD:統計情報を利用した辞書の作成システム\begin{quote}形態素解析の前処理として対象ドメイン固有の文字列の辞書登録を行なうことで形態素解析時の誤解析を削減.\end{quote}\end{itemize}どちらのアプローチも対象ドメインの訓練コーパスから得た統計情報を利用することで頻出文字列の認識を実現し,これに起因する解析誤りの削減を図るものである.本稿では形態素解析ツールとして日本語形態素解析ツール茶筌ver.2.2.3\cite{chasen}を採用した.また,統計情報としては文字間の共起情報を採用した.\subsection{共起関係抽出}文字間の共起情報が頻出文字列認識に有用であるとの延澤らの主張\cite{nobesawa01anlp}に基づき,本稿では対象ドメイン固有の頻出文字列の抽出に利用する統計情報として,文字間の共起情報を採用した.そこで,前処理として訓練コーパス中の各二文字ペアの共起頻度を数え上げる.本システムは訓練コーパスに全く制限を設けない.品詞情報などの付加情報を一切利用しないため,形態素解析や構文解析,タグ付けなども必要としない.訓練コーパス中の文字共起頻度の数え上げにはd-bigram確率モデル\cite{tsutsumi93}を利用した.d-bigramとは距離を考慮したbigramモデルであり,{\ttabbc}という文字列の場合,隣接する({\tta},{\ttb})などだけでなく{\tta}と{\ttc}のように離れて出現する二文字の共起関係も取得する.この例では{\tta}と{\ttc}は距離3となり({\tta},{\ttc};3)のように表される.隣接bigramでは視野が非常に狭く文脈情報が利用できないという欠点があり,特に文字レベルでの利用はノイズが大きい.これに対し,d-bigramモデルは距離の情報を保有することでこの問題に対処しており,例えば3単語の並び(trigram)も十分に評価できることが示されている\cite{tsutsumi96}.さらに,同じ文中であっても離れて出現する文字同士は近接して出現する文字同士に比べて関係が薄いと考えることができる\cite{church89acl}という主張に基づき,d-bigramの取得,利用に際して距離の上限および距離の影響力を設定することが可能である. \section{システムM:茶筌への組み込み} 本稿で提案するシステムは,日本語を対象とした形態素解析ツール・茶筌に統計情報を利用した文字列抽出モジュール(システムM)を組み込むことで統計情報の活用を図るものである.これは茶筌に特化した手法ではなく,茶筌本体の構造を改変するものではない.\subsection{茶筌での統計情報の利用}茶筌は辞書ベースの形態素解析ツールであり,文単位で処理を行なう.図\ref{fig:flo-o}に茶筌による形態素解析の流れを示す.入力であるテストコーパスは一文ずつ処理され,形態素解析結果が出力される.形態素解析処理においては,事前に準備された辞書を利用する.\begin{figure}[hbt]\begin{center}\epsfile{file=flo-o.eps,scale=0.21}\caption{茶筌のみでの形態素解析}\label{fig:flo-o}\end{center}\end{figure}図\ref{fig:flo-m}に本稿で提案する統計情報利用システムを茶筌に組み込んだ場合の形態素解析の流れを示す.\begin{figure}[hbt]\begin{center}\epsfile{file=flo-m.eps,scale=0.21}\caption{システムMを組み込んだ茶筌による形態素解析}\label{fig:flo-m}\end{center}\end{figure}本稿で提案するシステムではまず茶筌に有繋文字列抽出モジュールを組み込むことにより文字列の認識を行ない(\ref{sec:ukninshiki}節),抽出された文字列に専用の品詞名を付けることで辞書の見出し語と同等に扱うことができるようにする(\ref{sec:ukriyou}節).認識する文字列は延澤らの提案した有繋文字列\cite{nobesawa96coling}と呼ばれるもので,文字間の共起情報のみから一塊と推測された文字列である.本システムを組み込むことで,茶筌の持つ辞書の他に,その文中に含まれる有繋文字列を形態素の候補として利用することが可能となる.辞書に掲載されている語句が有繋文字列として抽出された場合は,辞書の情報を優先する.従って,辞書既登録語句は有繋文字列として抽出されることはない.\subsection{形態素解析時における有繋文字列の認識}\label{sec:ukninshiki}文中の$i$番目の文字と$i+1$番目の文字の間の有繋評価値$\uk(i)$の算出式を式(\ref{exp:uk})に示す\cite{nobesawa96coling}.ただし,$w_i$は文$w$の$i$番目の文字,$d$は2文字間の距離,$d_{max}$は$d$の最大値,$g(d)$は距離の影響に対する重み付け関数であり,本稿では$d_{max}=5$,$g(d)=d^{-2}$とした\cite{sano96}.\begin{eqnarray}\label{exp:uk}\uk(i)=\sum_{d=1}^{d_{max}}\sum_{j=i-(d-1)}^{i}\mi_d(w_j,w_{(j+d)};d)\timesg(d)\end{eqnarray}また,2文字間の相互情報量の計算式をd-bigramに対応するよう拡張したものとして式(\ref{exp:mid})を利用した\cite{nobesawa96coling}.ただし,$x$,$y$は各文字,$d$は2文字間の距離,$P(x)$は文字$x$が出現する確率,$P(x,y;d)$はd-bigram($x$,$y$;$d$)が起こる確率とする.\begin{eqnarray}\label{exp:mid}\mi_d(x,y;d)=log_2\frac{P(x,y;d)}{P(x)P(y)}\end{eqnarray}図\ref{fig:mountain-valley}に有繋評価値を利用した文字列認識の例を示す\cite{nobesawa96coling}.\begin{figure}[hbt]\begin{center}\epsfile{file=mountain-valley-half.eps,scale=0.21}\caption{有繋評価値を利用した文字列認識}\label{fig:mountain-valley}\end{center}\end{figure}図の横軸が入力文,縦軸が有繋評価値を示す.横軸のアルファベットは入力文中の各文字を示す.文中の各隣接文字ペア間の有繋評価値は,隣接文字ペアの共起頻度が高いほど高くなる.従って図の中で評価値を繋いだ線が山状になっている部分は共起する可能性の高い部分であり,一塊の文字列である可能性が高い.これに着目し山状の部分を抽出することで,文中の文字列の認識を行なう.\subsection{形態素解析時における有繋文字列の利用}\label{sec:ukriyou}形態素解析中\ref{sec:ukninshiki}節の手法で認識された有繋文字列は専用の品詞およびコストが設定され既存の辞書の登録語と同等として形態素解析処理に利用される.有繋文字列は特定の品詞に対応するものではないが,個々の有繋文字列に対してその品詞の推定を行なうことはシステムの実時間性を損ねるため,品詞「有繋文字列」を新設しこれに対して予め品詞情報を設定しておく.実際に認識される文字列は名詞またはそれに準じるものがほとんどであるため,品詞「有繋文字列」の接続はすべて名詞接続とした.茶筌では各語句に形態素コストが設定されている.有繋文字列は文字間の共起情報によって決定するものであり,一塊の文字列であると評価する際の評価値の高さがそれぞれ異なる.そこで,評価値によって有繋文字列を5段階に分類し,段階ごとに形態素コストを設定することで,評価値の高いものを優先的に利用できるように設定する.\subsection{統計情報を組み込んだ茶筌による形態素解析例}図\ref{fig:ex1newspaper}に,本システムを茶筌に組み込んだ場合の実行例を挙げる.図\ref{fig:ex1newspaper}の上段が茶筌のみで解析を行なった場合,下段がシステムMを組み込んで解析を行なった場合の切り分け結果である.下線は辞書未登録語を,太字は有繋文字列として抽出された部分を示す.\begin{figure}[hbt]\begin{center}\begin{tabular}{ll}茶筌のみ&自然/言語/処理/の/分野/で/は/\\&統計/情報/として/\underline{bigram}/な/ど/\\&n/-/\underline{gram}/が/よく/用い/られる/.\\&\\本システム&{\gt自然言語}/処理/の/分野/で/は/\\&{\gt統計情報}/として/{\bfbigram}/など/\\&{\bfn-gram}/が/よく/用い/られる/.\\\end{tabular}\caption{本システムによる切り分けの例}\label{fig:ex1newspaper}\end{center}\end{figure}図\ref{fig:ex1newspaper}では辞書未登録語2文字列が本システムを利用することで有繋文字列として抽出されている.「bigram」のように辞書未登録語がそのままの形で一語である場合,この部分の切り分け結果は正解と変わらないため他の部分の解析結果への影響がない場合が多いが,図\ref{fig:ex1newspaper}の例のように他の部分へ影響を与える場合もある.この例では本システムを利用し「bigram」の品詞が「有繋文字列」となったことで「など」が正しく認識されている.「n-gram」は茶筌のみを利用した場合「n(記号)」「-(記号)」「gram(未知語)」に分割された.複数の字種から成る未知語の場合は字種ごとに区切られる場合がほとんどである.システムMでは字種情報を利用せずすべての字種の文字を同様に扱うため,字種の替わり目で誤分割されず,「n-gram」の認識に成功した.またシステムMを利用することで「自然言語」「統計情報」などの複合語も多く認識された.「自然言語」は,複合語「自然言語処理」の一部分であるが,「自然言語」自体一塊で複合語を形成し「自然言語処理」の構成要素となると考えられる. \section{システムD:辞書への組み込み} 訓練コーパスから取得した共起情報をそのまま利用する手法ではノイズの問題が防げない.この問題を解決するため,本章では共起情報をそのまま利用するのではなく,共起情報を利用して辞書登録候補文字列を抽出しこれを事前に辞書に登録する手法を提案する.図\ref{fig:flo-d}に本章で提案する辞書作成システムを利用して事前に作成した有繋文字列辞書を茶筌の辞書に組み込んだ場合による形態素解析の流れを示す.\begin{figure}[hbt]\begin{center}\epsfile{file=flo-d.eps,scale=0.21}\caption{システムDを利用した茶筌による形態素解析}\label{fig:flo-d}\end{center}\end{figure}基本的な流れは図\ref{fig:flo-o}と同じだが,利用する辞書は茶筌の基本辞書に有繋文字列辞書を組み込んだものとなっている.この有繋文字列辞書は訓練コーパスから作成したものであり,この辞書を組み込むことによってドメイン固有の文字列を形態素解析処理で利用する.本章で作成する辞書は茶筌の辞書の補完という位置付けであり,辞書既登録語は登録しない.また,茶筌が元々持つ辞書の改変を行なうこともない.\subsection{登録文字列の属性設定}\label{sec:morphcost}辞書登録文字列の属性は以下のように決定する.\paragraph{品詞}登録文字列それぞれに対して適切な品詞を人手で設定することは多大な労力を必要とするだけでなく,その適切さの評価や曖昧性の問題などが存在するため,本稿では登録文字列はすべて同じ品詞とした.登録文字列に割り振る品詞として「有繋文字列」を新設した.品詞「有繋文字列」と他の品詞との接続コストの設定は茶筌の既存の品詞「名詞」中の「一般」カテゴリに準拠することとした.\paragraph{形態素コスト}個々の登録文字列の形態素コストはその文字列の頻度情報などの情報に基づいて個々に設定することとする.この関数で利用するパラメータは,本稿で提案する複数の有繋文字列辞書作成手法に依存するものとする.形態素コスト$c_i$の算出式を式(\ref{exp:morphcost})に示す.ここで$i$は文字列,$x_i$は文字列$i$の情報を示す値であり,$x_i$に適用する値を変化させることで各辞書の特徴を形態素コストに反映させる.\begin{eqnarray}\label{exp:morphcost}c_i=\left[-\frac{c_{max}}{x_{max}-1}\timesx_i+\frac{c_{max}\timesx_{max}}{x_{max}-x_{min}}\right]\end{eqnarray}形態素コストは「コーパス内に1回出現する文字列の形態素コストを4,000とする」とする茶筌の定義に基づき,下限$c_{min}$を0,上限$c_{max}$を4,000または8,000とする.$x_{min}$および$x_{max}$は各辞書で利用する$x_i$によって決まる.\subsection{登録文字列の選択}\label{sec:jisho}本稿では辞書に登録する文字列の選択手法を4種類用意し,4つの辞書を作成した(表\ref{tab:jisho}).\begin{table}[ht]\begin{small}\begin{center}\caption{有繋文字列登録のための辞書一覧}\label{tab:jisho}\begin{tabular}{l|lll}&作成基準&選別&コスト計算の基準\\\hline辞書\idl&一人の評価による選別&人手&文字列出現頻度\\辞書\chk&複数人による評価得点&人手&評価得点\\辞書\frq&出現頻度&自動&文字列出現頻度\\辞書\pos&品詞情報&自動&品詞出現頻度\\\end{tabular}\end{center}\end{small}\end{table}本稿では辞書登録の対象を名詞に準じる文字列に絞る.\subsubsection{辞書\idl:一人の評価による登録文字列選択}\label{sec:whatisidl}訓練コーパスから抽出された有繋文字列を一人の手によってすべての候補をチェックし,そのままで辞書登録可能な有繋文字列,過接合有繋文字列から適切な部分を切り出した文字列の2種類の文字列を選択した.過分割有繋文字列については,分割され削除されていた部分が容易に推測できる場合であっても,登録文字列としなかった.登録文字列の切り出しの対象は,名詞,複合名詞,数式,数値(単位も含む),意味のある記号の羅列,英単語の羅列とし,茶筌既登録語は登録文字列から除外した.各登録文字列$i$の形態素コスト$c_i$は,式(\ref{exp:morphcost})に$x_i$として$i$の候補文字列としての出現頻度$f_i$を適用して算出した.他の選択手法と異なり完全に人手で確認しているためノイズの心配がないことから,$c_{max}$は4,000とした.ユーザ個人が一人で選択する場合,登録語とする基準をユーザ個人で設定できるため,複数人で選別を行なう場合のようなばらつきや基準の統一といった問題がない.しかし,ドメインが大きくなれば登録候補語も増加するため,一個人がこの選別を行なうことは大きな労力となる.\subsubsection{辞書\chk:複数人による評価を利用した登録文字列登録}\label{sec:whatischk}11名の被験者に登録候補文字列のリストを提示し,登録すべきもの,登録すべきか迷うもの,登録すべきでないもの,判断できないものの4段階に分類してもらい,それぞれ2,1,0点として集計を行なった.「判断不能」は評価から外すものとした.評価得点が0となった文字列は,被験者全員が登録すべきでないと判断したものであるため,登録候補としない.各登録文字列$i$の形態素コスト$c_i$は,式(\ref{exp:morphcost})に$x_i$として$i$の評価得点$s_i$,$c_{max}=8,000$を適用して算出した.対象ドメインに詳しい複数の人間が選別を行なうことで,一人一人の労力の軽減が図れるだけでなく,適切な候補語選択がなされると考えられる.しかし選択を行なう人の専門分野や考え方などの相違から,候補語の絞り込みが難しくなる場合もあり得る.\subsubsection{辞書\frq:出現頻度による登録文字列選択}\label{sec:whatisfrq}自動的に選別を行なう場合の最もシンプルな手法は,登録候補になんらかの順位付けを行ないそれに従って登録文字列を決定するものである.評価値は共起情報を基に算出するため,出現頻度の高い文字列は評価値も高くなる傾向があり,この二点は独立ではない.従って,本稿では出現頻度のみを基準として辞書登録文字列の選択および形態素コストの設定を行なう.各登録文字列$i$の形態素コスト$c_i$は,式(\ref{exp:morphcost})に$x_i$として$i$の候補文字列としての出現頻度$f_i$,$c_{max}=8,000$を適用して算出した.出現頻度が1の文字列はノイズである可能性があるため登録文字列から外し,出現頻度2の時形態素コストは最大の8,000を採るように設定した.\subsubsection{辞書\pos:品詞情報による登録文字列選択}\label{sec:whatispos}登録候補文字列を茶筌に掛けて形態素解析を施し,得られた品詞情報を利用して登録文字列を決定する.各登録文字列$i$の形態素コスト$c_i$は,式(\ref{exp:morphcost})に$x_i$として$i$に対応する品詞列の候補文字列としての出現頻度$t_i$,$c_{max}=8,000$を適用して算出した. \section{システムM+D:辞書登録と切り分け処理の併用} 処理の段階で動的に有繋文字列を認識し利用するシステムMでは,ノイズを完全に防ぐことは不可能である.ノイズを抑えるためには,動的な処理でなく,事前に必要な有繋文字列を辞書登録してしまう方法が有効である.辞書登録を行なうことでドメイン固有の文字列を辞書に反映させることが可能となるが,完全な辞書の作成は不可能であるという辞書ベースの手法の問題点の完全な解決にはならない.また本稿で利用するd-bigram確率モデルはbigram情報の積み重ねであるため特に複合語やこれに類するものの認識において間に入る語句を柔軟に扱えるという利点があるが,辞書登録ではd-bigramの持つ柔軟性が失われる.これらの問題を解決するために,辞書登録と切り分け処理の併用が考えられる.事前にドメイン固有文字列の辞書登録を行ない,さらに補助として組み込みの切り分けシステムを利用することで,頻出語句の認識が可能な上,ノイズの減少を図ることが可能となる.図\ref{fig:flo-md}に本稿で提案する統計情報利用システムと辞書作成システムを利用した有繋文字列辞書の両方を茶筌に組み込んだ場合による形態素解析の流れを示す.\begin{figure}[hbt]\begin{center}\epsfile{file=flo-md.eps,scale=0.21}\caption{システムM,D両方を組み込んだ茶筌による形態素解析}\label{fig:flo-md}\end{center}\end{figure}表\ref{tab:threshold}にシステムMを組み込んだ実験での閾値ごとの形態素コストを示す.\begin{table}[hbt]\begin{center}\caption{システムMでの閾値および形態素コスト}\label{tab:threshold}\begin{small}\begin{tabular}{r|rr}閾値&\multicolumn{2}{c}{形態素コスト}\\&実験M&実験M+D\\\hline\hline11&1,000&10,000\\9&3,000&15,000\\7&4,000&20,000\\5&5,000&25,000\\3&20,000&30,000\\\end{tabular}\end{small}\end{center}\end{table}実験M+DではシステムMをシステムDの補完の立場で利用するため実験Mに比べて形態素コストを大きく設定している. \section{実験および考察} 本稿で報告する実験は,論文コーパスを茶筌を用いて形態素解析を行なったものである.対象ドメインの持つ統計情報を利用することで形態素解析の精度の向上を図る.\subsection{実験内容}\label{sec:experiments}本章では,本稿で提案している2つのシステムの利用実験について報告する.システムMだけを利用した場合,システムDだけを利用した場合,MとD両方併用した場合,どちらも利用しなかった場合の4種類の実験を行なった.システムDを利用した実験では,それぞれ,\ref{sec:jisho}節で提案した4種類の辞書を試みた.以上,10種類の実験について報告する.\subsubsection{コーパス}本実験では,コーパスとして自然言語処理分野の論文を利用した.訓練コーパス,テストコーパス共に,自然言語処理分野を専攻する学生6人の論文計17本を合わせて作成したものである.本稿では,統計情報利用システムの組み込みで利用する統計情報を得るための訓練コーパスおよび辞書登録のための辞書登録文字列の抽出について,同一の訓練コーパスを利用した.訓練コーパスに含まれる文の総数は4,816,含まれる文字の数は213,489(平均44.33文字/文)である.また本稿では,それぞれの実験における形態素解析対象として,同一のテストコーパスを利用した.テストコーパスに含まれる文の総数は1,149,含まれる文字の数は55,755(平均48.52文字/文)である.\subsubsection{正解形態素解析,正解文字列}\label{sec:seikaikeitaisokaiseki}比較のため,テストコーパスを人手で形態素解析したものと辞書登録すべき文字列の正解リストを作成した.\paragraph{正解形態素解析}テストコーパスを茶筌に掛け,その結果を人手で修正したものである.修正の対象は切り分け誤りおよびタグ付け誤りとした.切り分け誤りは,明らかな間違いの他,複合語とすべき語が切り分けられている場合も含む.複合語としたのは名詞の並びの他,接頭詞が付着するもの,英単語列などである.そのほか,数式,数値は全体で一塊とした.\paragraph{正解文字列}正解形態素解析結果中,茶筌に登録されていない文字列を正解文字列とした.ただし,本稿の手法では名詞に準じるものを対象として考えているため,動詞,形容詞などに相当する文字列は正解文字列から除外した.\subsection{実験結果}\label{sec:expresult}表\ref{tab:expresult}に各実験の結果をまとめる.「茶筌のみ」とある実験は統計情報を利用しない場合のものであり,これと比較することで本稿で提案するシステムの有用性を示す.未知語削減率は茶筌のみの場合に対する割合,形態素総数は正解形態素解析での形態素総数に対する割合である.\begin{table}[ht]\begin{small}\begin{center}\caption{実験結果}\label{tab:expresult}\begin{tabular}{l|rr|rr|rr}実験&\multicolumn{2}{c|}{完全チェック}&\multicolumn{2}{c|}{拡張チェック}&未知語&形態素\\&適合率&再現率&適合率&再現率&削減率&総数\\\hline\hline茶筌のみ&---&---&---&---&---&118.8\%\\\hlineシステムM&38.3\%&26.0\%&50.1\%&51.7\%&86.1\%&98.6\%\\\hlineシステムD\idl&77.0\%&38.9\%&98.1\%&47.8\%&71.4\%&110.2\%\\システムD\chk&67.2\%&23.5\%&96.9\%&34.1\%&66.3\%&112.6\%\\システムD\frq&55.8\%&17.4\%&81.2\%&27.6\%&58.6\%&112.5\%\\システムD\pos&68.2\%&5.8\%&97.5\%&8.7\%&65.0\%&117.1\%\\\hlineシステムM+D\idl&75.5\%&39.4\%&96.3\%&50.0\%&86.5\%&109.3\%\\システムM+D\chk&63.1\%&23.5\%&91.9\%&37.3\%&86.1\%&110.6\%\\システムM+D\frq&52.3\%&17.6\%&79.1\%&31.6\%&85.9\%&110.5\%\\システムM+D\pos&47.7\%&5.7\%&59.0\%&14.2\%&86.1\%&113.5\%\\\end{tabular}\end{center}\end{small}\end{table}それぞれのシステムについての考察は\ref{sec:resultsystemm}節以降で述べる.\paragraph{適合率,再現率}\label{sec:expresultprf}表\ref{tab:expresult}に示した適合率,再現率の算出には,正解形態素解析,正解文字列(\ref{sec:seikaikeitaisokaiseki}節)を利用した.有繋文字列と認識された箇所に対する正解形態素解析中の正解文字列の出現箇所の割合を適合率,全ての正解文字列に対して正しく認識された文字列の割合を再現率とした.正解文字列に完全にマッチしたものを完全適合率および完全再現率,正解文字列と同一ではないが誤りではない有繋文字列の場合を拡張適合率および拡張再現率とした\footnote{拡張適合率,拡張再現率では,有繋文字列が含まれている場合のみを数えた.すなわち正解文字列「自然言語処理」を一塊として抽出するのに失敗した場合,「自然言語(有繋文字列)」「処理(名詞)」のように切り分け結果に有繋文字列が含まれ,かつ切り分け結果が誤りでないと判断された場合を成功,「自然言(有繋文字列)」「語(名詞)」「処理(名詞)」のように有繋文字列を含んでいても切り分け誤りがある場合は失敗,また「自然(名詞)」「言語(名詞)」「処理(名詞)」のように切り分けは誤りでないが有繋文字列を含んでいない場合も失敗とした.}.再現率の計算には正解文字列の総数を利用しているが,この正解文字列はテストコーパスから作成したものであり,訓練コーパス中に出現しない文字列も多く存在する.再現率が低くなる理由の一つに,論文中に含まれる数式および数値が挙げられる\footnote{正解文字列から数式,数値を除いた場合,システムM+D\idlの完全再現率は46.9\%,拡張再現率は56.7\%となる.}.表\ref{tab:expresult}では数式の扱いが厳しく,完全に適合する数式でないと失敗としているが,実際には数式は必ずしも一定の形で現れるとは限らず,辞書登録の対象とするには無理がある.その他の要因としては,論文ごとの表記の揺れや出現語句の相違,複合語の認識失敗がある.表\ref{tab:expresult}を見ると,適合率は完全にマッチした場合で最高77.0\%,拡張適合率では最高98.1\%と高い.これは,有繋文字列が高い精度で抽出されたことを示す.有繋文字列は辞書既登録語を含まないことから,本手法が辞書未登録語の抽出に有効であると言える.どの辞書を利用した場合でも,適合率はシステムDがシステムM+Dの結果を上回る.これは辞書登録文字列の選択が適切になされたことを示す.システムM+DではシステムMの影響でノイズが増えたが,システムMだけの場合では50.1\%であり,システムDがノイズの削減に有効であることが判る.\paragraph{未知語削減率}\label{sec:expresultunk}表\ref{tab:expresult}の未知語削減率は,茶筌のみでの実験結果中の未知語数に対してどれだけ未知語が削減されたかを示す値である.統計情報を一切使わない場合483の文字列が未知語として出力された.本稿のシステムでは,最悪の場合でもその58.6\%の認識に成功している.未知語認識の上限は86\%前後となっているが,これらは訓練コーパス中に出現しなかった未知語67個の抽出に失敗したものである.表\ref{tab:expresult}によると実験M,実験M+Dでは未知語削減率が約86\%となっており,システムMが訓練コーパスに出現する未知語を最大限に削減できることが判る.それに対して辞書登録のみを利用した実験Dは低くなっており,辞書登録だけでは未知語を完全にカバーすることが困難であることを示している.システムM+DはシステムMの持つノイズの問題を抑えながら最大限の未知語削減率を保っている.訓練コーパス中に出現しない文字列の認識は,$n$-gramのように連続型のモデルでは不可能である.それに対し,本手法で採用したd-bigramはギャップのある事象の共起情報を複数組み合わせて文字列認識を行なうため,訓練コーパスに出現しない文字列についても有繋性の推定が可能である\cite{nobesawa98ipsjnl}.推定の精度は訓練コーパスや認識対象文字列に依存するため,これらの効果的な認識が今後の課題として挙げられる.\paragraph{総形態素数}\label{sec:expresultmorph}表\ref{tab:expresult}の総形態素数とは各実験での形態素の総数の正解形態素解析に含まれる総形態素数に対する割合を示す.総形態素数の割合が高ければ過分割が多いことが,割合が低ければ過接合が多いことが推察される.表\ref{tab:expresult}の形態素総数を見ると,本稿のシステムを利用しない場合の形態素総数は正解形態素解析の118.8\%であり,過分割が頻繁に起こって形態素数が2割近く増えていることが判る.システムMだけの場合にはこれが100\%を下回り,過分割がかなり抑えられている.しかし,訓練コーパスとテストコーパスが独立であるため未知語や過分割を完全には除去できないことを考えると,この結果には過接合も多く含まれることが考えられる.実際,システムMでは過接合が多く完全適合率は他に比べて低くなっていた.システムDだけの場合は形態素総数が正解の110\%から117\%となっており,茶筌のみの場合に比べて過分割が減少している.システムM+Dは適合率を十分高く保ったまま形態素総数を110\%前後にしており,システムDだけの場合よりもさらに正解に近づいている.本稿はオープンコーパスでの実験を行なったため,特に数式や数値などの文字列で過分割は避けられない.これらのことから,システムMとDを的確に組み合わせることで過分割を最大限減少させたと言える.\subsection{実験M:統計情報を組み込んだ茶筌による形態素解析}\label{sec:resultsystemm}表\ref{tab:expresult}によるとシステムMの適合率は他に比べてかなり低いが,これは形態素解析時に有繋文字列とされた文字列が他に比べて多いことにも起因する.システムMでは有繋文字列の絞り込みを一切行なっていないため動詞句などノイズとなる文字列を多く含むことが適合率の低下の原因である.システムMでの形態素総数は正解形態素解析の98.6\%と唯一100\%を下回り,システムMを適用することで過分割を大幅に削減できることが判る.しかし,本稿の手法では正解形態素解析よりも形態素総数が多くなることは避けられない.正解形態素解析よりも形態素数が少なくなったシステムMは過接合を多く含んでおり,他に比べて精度が良いとは言えない.システムMは拡張再現率が他に比べて高い(表\ref{tab:expresult}).これはシステムMによる動的な統計情報の利用が正解文字列の認識に有効であることを示している.辞書登録の場合ノイズは減少するが,柔軟な対応が必要な文字列の認識が難しくなる.システムMの利用はこの問題点の解消に有効である.表\ref{tab:paperresultpos}に論文コーパスを茶筌を利用して形態素解析した実験結果を示す.\begin{table}[hbt]\begin{small}\begin{center}\caption{論文コーパスでの実験結果}\label{tab:paperresultpos}\begin{tabular}{l|rrrrrrrrr|r}&\hspace{-2pt}{\footnotesize未知語}&\hspace{-2pt}{\footnotesize有繋文字列}&\hspace{-2pt}{\footnotesize名詞}&\hspace{-2pt}{\footnotesize動詞}&\hspace{-2pt}{\footnotesize副詞}&\hspace{-2pt}{\footnotesize形容詞}&\hspace{-2pt}{\footnotesize助動詞}&\hspace{-2pt}{\footnotesize助詞}&\hspace{-2pt}{\footnotesize記号}&{\footnotesize総形態素数}\\\hline\hline\hspace{-3pt}{\footnotesize茶筌のみ}&\hspace{-2pt}{\footnotesize483}&\hspace{-2pt}{\footnotesize---}&\hspace{-2pt}{\footnotesize12,863}&\hspace{-2pt}{\footnotesize3,892}&\hspace{-2pt}{\footnotesize213}&\hspace{-2pt}{\footnotesize364}&\hspace{-2pt}{\footnotesize1,777}&\hspace{-2pt}{\footnotesize8,499}&\hspace{-2pt}{\footnotesize4,445}&\hspace{-2pt}{\footnotesize33,812}\\\hspace{-3pt}{\footnotesizeシステムM}&\hspace{-2pt}{\footnotesize67}&\hspace{-2pt}{\footnotesize2,218}&\hspace{-2pt}{\footnotesize9,086}&\hspace{-2pt}{\footnotesize3,468}&\hspace{-2pt}{\footnotesize215}&\hspace{-2pt}{\footnotesize321}&\hspace{-2pt}{\footnotesize1,641}&\hspace{-2pt}{\footnotesize7,346}&\hspace{-2pt}{\footnotesize2,898}&\hspace{-2pt}{\footnotesize28,048}\\\end{tabular}\end{center}\end{small}\end{table}表\ref{tab:paperresultpos}を見ると名詞と記号が減少していることが判る.論文コーパスでは複合名詞の出現が多く,頻出する複合名詞が有繋文字列として一塊にされたことが,名詞の減少の大きな理由である.記号の減少については,数式と英字文字列,頻出言い回しが大きな理由として挙げられる.英字,その他の記号の減少の最大の理由は数式である.数式中に含まれる文字列はほとんど未知語または記号として扱われるが「P(x)」など確率を示す関数などは有繋文字列として認識されており,結果的に記号タグの振られる文字列が減少した.句読点と助詞,動詞の減少は,主に頻出言い回しに起因する.頻出言い回しの抽出はシステムMでは防ぐことができず,過接合の頻出の原因となっている.しかし表\ref{tab:paperresultpos}を見ると副詞など他の品詞の形態素数の変化は小さく,システムMの利用による誤解析は少ないことが判る.\subsection{実験D:有繋文字列の辞書登録}本稿では,訓練コーパスを入力として抽出された有繋文字列を辞書登録候補とし,\ref{sec:jisho}節で提案した4通りの方法で辞書登録文字列の選択を行なった.本稿ではそれぞれの登録候補選択手法について文字列ごとに形態素コストの設定を行なっている.登録候補文字列を取得するため,訓練コーパスに対して実験Mと同じ方法で形態素解析を施した.この結果有繋文字列として出力された文字列5,402が各辞書の登録候補文字列となっており,この集合から辞書登録文字列の絞り込みを行なう.\subsubsection{実験D\idl:一人での評価による登録文字列選択}\label{sec:didl}抽出された有繋文字列から選択された登録候補文字列の異なり文字列数は2,482であった.茶筌既登録語を除いた結果,登録文字列数は1,738となった.辞書\idlを利用した実験は適合率が高く,人手での選別でノイズをほぼ抑えることが可能であることが示された.\subsubsection{実験D\chk:複数人による登録文字列選択}\label{sec:dchk}複数人で選択を行なった結果は機械的に選択した2辞書によるものと大差ないという結果になった.システムMと組み合わせた場合には,機械的に作成した辞書に比べてノイズの抑制に効果があった.辞書登録の候補とすべきかどうかの判断では被験者それぞれの考え方にかなりの違いがあったことが問題の一つであると考えられる.\subsubsection{実験D\frq:出現頻度による登録文字列選択}\label{sec:dfrq}登録候補文字列の異なり数2,807のうち出現頻度が1のものは2,152であり,76.7\%に達する.これを登録候補から外すことで,登録文字列数は655となったが,これは4辞書中最少である.辞書\frqを用いた実験の結果を見ると,他に比べて未知語削減率が低いことが判る(表\ref{tab:expresult}).これは頻度だけでは未知語の認識には不十分であることを示す.しかし辞書\frqを利用した場合でも形態素総数の削減は辞書\chkと同等,特にシステムMと組み合わせた場合には辞書\idlを利用した場合に近い結果となっていることが判る.これはこの辞書が過分割の削減に有効であることを示し,頻度情報が複合語の認識に有効であることが判る.\subsubsection{実験D\pos:品詞による登録文字列選択}\label{sec:dpos}辞書\posを用いた実験の結果は,システムD,システムM+Dのどちらでも非常に再現率が低くなっている.これは,この辞書を用いた場合有繋文字列として形態素解析された文字列の数が少なかったためである.しかし辞書\posを利用した場合でも未知語数の削減は他と同等に実現しており,辞書\posは特に未知語の削減に対して有効であることが判る.これは,辞書\posの作成では品詞の情報を利用することで未知語を含むものが優先的に登録されたためであると考えられる.辞書登録すべき文字列とそうでない文字列との品詞情報には明らかな違いがあり,異なり品詞列のうち辞書登録の対象とすべき品詞列は約1割であることが判った.\subsection{実験M+D:辞書登録と統計情報利用システム組み込みの併用}形態素解析時の統計情報の利用を行なうシステムMは動的な文字列の切り分けを可能にし,柔軟な処理が可能となった反面,ノイズの問題が起こる.それに対して訓練コーパスから得られた統計情報を元に辞書未登録文字列を抽出し辞書登録を行なうシステムDは,登録文字列の絞り込みを行なうためノイズの問題を軽減することが可能であるが,柔軟な処理には不向きである.従って,システムDで認識しきれない部分をシステムMが補完する形で両者を組み合わせることで,訓練コーパスの情報を生かした処理が可能となり,精度の向上が期待できる.訓練コーパスからの学習では形態素総数の削減は正解の110\%程度が限界だが,システムM+Dでは形態素総数は110\%前後となっており,特に人手による辞書作成の場合適合率が十分高いことを考えると,コーパスの情報を利用することでテストコーパスの形態素切り分けの精度を十分にあげたと言ってよい.またシステムM+DではシステムMに対して大幅に過接合を削減したにもかかわらず,未知語の削減率はシステムMと同等であり,本手法で未知語の削減率を保ったままシステムDと組み合わせることに成功した.未知語の削減率は最高で86.5\%となっているが,未知語の14\%程度は訓練コーパス中に出現しないものであり,このことを考えると,本稿で提案した手法で未知語を最大限取得することに成功したと言える.さらにシステムMとDを組み合わせることで訓練コーパスに出現しなかった未知語文字列が訓練コーパスの情報を利用することで正しく一塊と認識された例もあった. \section{結論} 辞書ベースの自然言語処理ツールでは辞書未登録語の問題が防げない.そのため辞書未登録語の自動認識の研究が盛んに行われているが,辞書未登録語には未知語,複合語の二種類の問題があり,ほとんどの研究はそのどちらかに対象を絞ったものである.本稿では辞書ベースの形態素解析ツール・茶筌を対象とし,未知語,複合語双方の解決を目的として,統計情報を形態素解析段階で動的に利用するための組み込みシステム(システムM)と,統計情報を利用した辞書作成のシステム(システムD)の2種類のアプローチを提案した.本稿の手法は茶筌に特化したものではなく,辞書ベースのツールに対してそのシステムを改変することなく付加的な情報を半自動的に追加し辞書未登録語の問題の解決を図るものである.本稿で提案した手法は文字の共起頻度を元にしたものであり,構文解析などの処理は一切必要とせず,ヒューリスティクスも一切利用していない非常にシンプルなものでありながら,システムMのみで86.1\%,システムDのみで71.4\%,両方の併用で86.5\%の未知語の解決に成功した.また抽出した辞書未登録語の適合率が最高で98.1\%となり,複合語についても高い精度で認識することができた.本稿ではオープンコーパスを用いて実験を行ない,本稿で提案した2種類のアプローチを適切に組み合わせることで辞書未登録語の削減を効果的に行なうことに成功した.さらに精度を上げるためにはヒューリスティクスの利用が必要となる.\bibliographystyle{jnlpbbl}\bibliography{biblio.ja}\begin{biography}\biotitle{略歴}\bioauthor{延澤志保}{1994年慶應義塾大学理工学部数理科学科卒業.2002年同大学院理工学研究科計算機科学専攻博士課程修了.工学博士.現在,東京理科大学理工学部助手.}\bioauthor{佐藤健吾}{1995年慶應義塾大学理工学部数理科学科卒業.1997年同大学院理工学研究科計算機科学専攻修士課程修了.現在,慶應義塾大学理工学研究科博士課程に在籍中.}\bioauthor{斎藤博昭}{1983年慶應義塾大学理工学部数理科学科卒業.工学博士.慶應義塾大学理工学部専任講師.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V04N01-01
\section{はじめに} テキストの解釈を一意に決定することは,依然として,自然言語処理において最も難しい課題である.テキストの対象分野を限定しない場合,解釈の受理/棄却の基準を記述した拘束的条件すなわち制約だけで解釈を一意に絞り込むことは容易ではない\cite{Tsujii86,Nagao92}.このため,解釈の良さの比較基準を記述した優先的条件すなわち選好によって,受理された解釈に優劣を付け,評価点が最も高い解釈から順に選び出そうとするアプローチが取られることが多く,実際,その有効性が報告されている\cite{Fass83,Schubert84,Petitpierre87,Hobbs90}.本稿では,日英機械翻訳システムにおいてテキストの最良解釈を定義するための制約と選好を備えたテキスト文法Text-WideGrammar(TWG)\cite{Jelinek93}について,照応関係に関する制約と選好に焦点をあてて説明し,さらに,TWGに基づいて意味解析と照応解析を効率良く行なう機構について述べる.テキスト解析に必要な知識の中でも,特に,照応関係に関する制約と選好は,最良解釈の選択に大きく影響を及ぼす.照応関係は,日英機械翻訳システムでは,日本語で明示することは希であるが,英語では明示しなければならない言語形式上の必須情報を得るための重要な手がかりとなる.例えば,ゼロ照応詞\footnote{ここでは,日本語で明示する必要はないが英語では明示する必要のある照応詞をゼロ照応詞と呼ぶ.}や名詞句の人称,性,数,意味素性,定/不定性の決定は,それらが関与する照応関係を明らかにし,人称,性,数,意味素性の情報を伝播することによって行なえる.このようなことから,照応関係に関する種々の制約や選好がこれまでに提案されている\cite{Yoshimoto86,Fujisawa93,Murata93,Nakaiwa93}.また,テキスト解析で用いる選好には,照応関係に関する選好の他に,構文構造や意味的親和性に関する選好などがあるが,各選好をどのように組み合わせるかが重要な課題となる.ある選好による最良解釈と他の選好による最良解釈が相容れるとは限らないからである.TWGは,形態素,構文構造,意味的親和性,照応関係に関する制約と選好によって,テキストの可能な解釈を定義し,それらに優劣を付ける.照応関係に関する選好による評価では,テキストを構成する構造体\footnote{構造体とは,テキストであるか,構造体の直接構成要素である\cite{Jelinek65}.}がより多く照応関係に関与する解釈を優先する(\ref{sec:twg:corref}節,\ref{sec:twg:eval}節).ある構造体が他の構造体を指せるかどうかは,主に,陳述縮約に関する規範\cite{Jelinek65,Jelinek66}に基づいて決めることができる.陳述縮約に関する規範は,完全形(fullform)\footnote{書き手が記述しようとしている事柄についての知識を読み手が全く持っていないと書き手が判断したときに用いる構造体.}がゼロ形に縮約される過程を11段階に分類し,指す構造体の陳述縮約度と指される構造体の陳述縮約度の間で成り立つ制約を記述したものである.TWGでは,構文構造,意味的親和性,照応関係に関する選好による各評価点の重み付き総和が最も高い解釈をテキストの最良解釈とする(\ref{sec:twg:balance}節).TWGで定義されている形態素に関する選好の精度は十分高く,この選好による最良解釈からテキストの最良解釈が生成される可能性が高い\footnote{2000文について,形態素に関する選好による最良解釈が人間による解釈と一致するかどうかを調べたところ,94.7\%において一致していた.}ので,この選好と他の選好との相互作用は考慮しない.選好によるテキスト解析手法でのもう一つの課題は,最良解釈を効率良く選び出せる処理機構を実現することである.テキストの可能な解釈の数は,テキストが長くなるにつれ,組み合せ的に増える.解釈数の組み合せ的な増大に対処するためには,解釈を個別に表現するのではなく,まとめて表現しなければならない.また,解釈をいったんすべて求めた後その中から最良解釈を選ぶのではなく,解析の途中過程で競合する解釈の評価点を比較しながら,最終的に最良解釈になりそうな候補だけを優先的に探索し,そうでない候補の探索はできるだけ行なわないようにしなければならない.本稿の処理機構は,テキストの構文構造のすべての曖昧さをまとめて表現した圧縮共有森(packedsharedforest)\cite{Tomita85}上で,遅延評価による意味解析と照応解析を行なう(\ref{sec:lazy}節).圧縮共有森上で処理を行なうことによって,部分的解釈の再利用が可能となり重複処理を避けることができる.遅延評価によって,総合評価点が最も高い解釈を求めるために必要な処理だけの実行,それ以外の処理の保留が可能となり,不必要な処理を避けることができる.統合共有森はAND/ORグラフと等価とみなせるので,本稿では説明の便宜上,圧縮共有森をAND/ORグラフと呼ぶ. \section{Text-WideGrammar} \label{sec:twg}\subsection{照応関係に関する制約の定式化}\label{sec:twg:corref}テキストの適格性は,主に,テキストを構成する構造体の間で成り立つ照応関係によって生じる.\hspace{-0.3mm}ある構造体$X$\hspace{-0.1mm}で触れた事象に,\hspace{-0.3mm}他の構造体$Y$\hspace{-0.1mm}が再び言及している($Y$\hspace{-0.1mm}が\hspace{-0.1mm}$X$\hspace{-0.1mm}を指している)とき,これら二つの構造体は次の三つの制約を満たす.\begin{LIST}\item[\bf構文構造に関する制約]$X$はある構文構造上で$Y$の前方に現れる.\item[\bf意味に関する制約]$X$の意味と$Y$の意味は矛盾しない.\item[\bf陳述縮約に関する制約]$Y$は$X$を縮約した言語形式である.\end{LIST}テキストがこれらの制約に従っている限り,通常,テキストの読み手は縮約形(depredicatedform)\footnote{読み手に既知であると書き手が判断した情報を明示しない構造体.}から完全形を復元することができるので,そのテキストは適格であるとみなせる.次のテキストを例として,各制約について詳しく検討する.\begin{TEXT}\textソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任したと発表した.大統領の解任が西側の対ソ政策に重大な影響を及ぼすことは必至である.政府は,臨時の閣議を開き,この事態への対応を協議している.また,$\phi_{\SBJ}$為替相場へ及ぼす影響も懸念されている.\label{TEXT:gorb_wellform}\end{TEXT}このテキストでは,文「ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任した」と名詞句「大統領の解任」,指示連体詞「この」,ゼロ照応詞「$\phi_{\SBJ}$」の間に成り立つ照応関係によって,四つの文が結び付いている.以降の説明では,構造体$X$と$Y$はAND/ORグラフ上の節点$X$と$Y$にそれぞれ対応するものとする.\subsubsection{構文構造に関する制約}\label{sec:twg:corref:syn}節点$Y$\hspace*{-0.1mm}が\hspace*{-0.1mm}$X$\hspace*{-0.1mm}を指せるための構文構造に関する制約として,\hspace*{-0.5mm}$X$\hspace*{-0.1mm}と\hspace*{-0.1mm}$Y$\hspace*{-0.1mm}が同じ構文構造に属し,そ\\の構文構造上で$X$が$Y$\hspace*{-0.1mm}より左側(前方)に位置し,\hspace*{-0.5mm}$X$と$Y$\hspace*{-0.1mm}の間の言語心理的距離はある一定の範\\囲を越えてはならないという制約をおく\footnote{後方照応\cite{Hirst81}と,構文構造が異なる解釈間での照応関係(例えば,punning)は,ここでは扱わない.また,$X$と$Y$がある一定の距離以上離れていると$Y$は$X$を指せなくなると考えられるが,現在のところ距離の具体的な制約は設けていない.}.$X$が$Y$より左側に位置するかどうかは,AND/ORグラフ上での$X$の右位置を$R_X$,\hspace*{-0.3mm}$Y$\hspace*{-0.1mm}の左位置を$L_Y$\hspace*{-0.1mm}とする\footnote{AND/ORグラフ上のある節点$X$が,構文解析への入力である終端節点列において左から数えて第$(L+1)$番目の終端節点から第$R$番目の終端節点を覆うとき,節点$X$の左位置を$L$,右位置を$R$とする.}とき,\hspace*{-0.3mm}$R_X\leL_Y$が満たされるかどう\\かで判定する.AND/ORグラフにおける節点の先祖/子孫関係は文脈自由文法形式の構文解析規則で定義される構文範疇間の支配関係に対応するので,$R_X\leL_Y$が満たされることから,$X$\\は$Y$の先祖でも子孫でもないということが導ける.$X$と$Y$が同じ構文構造に属することを制約としているのは,テキストの構文構造を,木として個別に表しているのではなく,AND/ORグ\\ラフとしてまとめて表しているため,グラフ上の任意の二つの節点が一つの木に属するとは限らないからである.構文構造に関する制約として,さらに次の制約をおく.$X$がある用言の主語であり$Y$がその\\用言の目的語である場合,あるいは,$X$がある用言の目的語であり$Y$がその用言の主語である\\場合,少なくとも$X$と$Y$のいずれか一方は再帰名詞でなければならない.この制約は,例えば\\文「大統領を$\phi_{\SBJ}$解任する.」において,ゼロ照応詞「$\phi_{\SBJ}$」が「大統領」を指すことを禁止す\\るためのものである.\subsubsection{意味に関する制約}\label{sec:twg:corref:sem}節点$X$\hspace*{-0.1mm}と$Y$\hspace*{-0.1mm}が満たすべき意味に関する制約として,\hspace*{-0.3mm}$X$の人称,\hspace*{-0.1mm}性,\hspace*{-0.1mm}数が$Y$\hspace*{-0.1mm}の人称,性,数に\\それぞれ一致し,$X$の意味素性と$Y$の意味素性が上位下位関係になければならないという制約\\をおく.節点の意味を表現するデータ構造として,人称,性,数,意味素性を素性とする素性構\\造を用い,$X$と$Y$の素性構造が単一化できるとき,意味に関する制約が満たされるものとする.\\人称(per)は1st,2nd,3rdを区別し,性(gen)はm,f,nを,数(num)はsg,plを,それぞれ区別する.意味素性(sem)は上位下位関係を記述した意味体系上の範疇であり,A(animal),AC(action),F(food),H(human)などの区別を設ける.AND/ORグラフ上の終端節点の素性構造は,辞書に記述しておく.他方,非終端節点の素性構造は,終端節点の素性構造を合成して求めなければならないが,これは今後の課題である.しかし,非終端節点は,通常,それの主要部(head)である終端節点の素性構造を特化した素性構造を持つと考えてよい\footnote{等位構造の場合や主要部の意味を限定部が否定する場合などは,この限りではない.}.特に,非終端節点に子節点が一つしかない場合,非終端節点の素性構造は,その子節点の素性構造に一致する.例えば,動詞「解任した」は,\FEATS{3rd}{n}{sg}{AC}という素性構造を持つ.このとき,「解任した」を主要部とする文「ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任した」全体が持つ素性構造は,\FEATS{3rd}{n}{sg}{AC+$\alpha$}と表せる.\hspace{-0.3mm}ここで,\hspace*{-0.3mm}複合意味素性AC+$\alpha$は,\hspace*{-0.3mm}原子意味素性ACに何らかの意味$\alpha$が加わったAC\\の下位範疇を意味する.原子意味素性$A$が原子意味素性$B$の下位範疇であるとき,複合意味素性$A+\alpha$は$B$の下位\\範疇であると定める.また,$A$が複合意味素性$B+\beta$の下位範疇であるかどうかと,$A+\alpha$が\\$B+\beta$の下位範疇であるかどうかは不明であると定める.二つの節点$X$と$Y$の意味素性間の上\\位下位関係が不明である場合も,\hspace*{-0.3mm}$X$と$Y$は素性構造に関する制約を満たすとみなす.\hspace*{-0.3mm}ただし,\hspace*{-0.3mm}上\\位下位関係にあることが明確にわかっている場合と不明の場合とでは,評価点が異なる(\ref{sec:twg:eval}節).\subsubsection{陳述縮約に関する制約}\label{sec:twg:corref:cor}先行文脈で触れた事象に再び言及する場合には先行陳述の縮約形を用いるという制約は,「テキストの読み手が先行文脈から復元できる情報を略さずにそのまま反復すると,そのテキストは冗長で理解困難になる」という観察に基づく.仮に,テキスト\ref{TEXT:gorb_wellform}に現れる文「ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任した」を全く縮約せずに,そのまま繰り返したとする.\begin{TEXT}\textソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任したと発表した.ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任したことが西側の対ソ政策に重大な影響を及ぼすことは必至である.政府は,臨時の閣議を開き,ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任したという事態への対応を協議している.また,ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任したことが為替相場へ及ぼす影響も懸念されている.\label{TEXT:gorb_illform}\end{TEXT}テキスト\ref{TEXT:gorb_wellform}が適格であるのに対しテキスト\ref{TEXT:gorb_illform}はそうではないことから,陳述縮約は,テキストを構成する場合に従うべき規範であるといえる.テキスト\ref{TEXT:gorb_wellform}では,文「ソ連の国家非常事態委員会が19日ゴルバチョフ大統領を解任した」が,まず名詞句「大統領の解任」に縮約され,次に指示連体詞「この」に,そして最後にゼロ照応詞「$\phi_{\SBJ}$」に縮約されている.完全形からゼロ形への陳述縮約が最も緩やかに進む場合,その過程は次の11段階から成る.この11段階の分類は,日英翻訳を目的とした分類であり,日本語,英語それぞれにおける縮約過程\cite{Jelinek65,Jelinek66}を合成したものである.\begin{DEPRED}\depredテキスト.一つ以上の文から成る構造体.\depred文.\vspace{-0.1mm}\begin{DEPEX}\depexample\underline{国家非常事態委員会はゴルバチョフ大統領を解任するだろう.}{\itTheNationalEmergencyCommitteewilldismissPresidentGorbachov.}\end{DEPEX}\depred直接話法.文の部分に成りうる構造体.\vspace{-0.1mm}\begin{DEPEX}\depexample委員の一人は「\underline{委員会は大統領を解任するだろう.}」と述べた.AmemberoftheCommitteesaid:``{\itTheCommitteewilldismissthePresident.}''\end{DEPEX}\depred間接話法.日本語において,この陳述縮約度の構造体内で普通体/丁寧体が区別されることは希である.英語においては,構造体内での時制の区別が時制の一致に支配されるようになり,この陳述縮約度の構造体からは元の完全文の時制が何であったかが分からなくなることもある.\vspace{-0.1mm}\begin{DEPEX}\depexample\underline{委員会が大統領を解任するだろう}と報じられた.Itwasreportedthat{\ittheCommitteewoulddismissthePresident}.\end{DEPEX}\depred日本語では初めて,英語ではさらに,構造体内での時制の区別が制限されるようになる.日本語においては,主語でない主題(theme)は希にしか構造体内で表現されなくなる.両言語において,任意格は,情報伝達に必須である場合にのみ表現されるようになる.\vspace{-0.1mm}\begin{DEPEX}\depexample\underline{委員会が大統領を解任する}前に,大統領は懸命の政治工作を行なった.Before{\ittheCommitteedismissedhim},thePresidentmadesomecourageouspoliticalmoves.\end{DEPEX}\depredこの陳述縮約度の構造体内では時制の区別が不可能になる.文法上いずれの格要素も表現可能であるが,実際には希にしか表現されなくなる.\vspace{-0.1mm}\begin{DEPEX}\depexample\underline{委員会が大統領を解任すれ}ば,為替相場へ大きな影響が出るだろう.If{\ittheCommitteedismissedthePresident},itwouldhavegraverepercussionsontheexchangerates.\end{DEPEX}\depred構造体内でなされる文法上の区別は極めて少数となる.完全文で表現可能であった格要素のうち,いくつかは形式上表現できなくなる.\begin{DEPEX}\depexample\underline{大統領を解任する}と同時に,委員会は新大統領選びにも乗り出した.Aswellas{\itdismissingthePresident},theCommitteeembarkeduponchoosinghisreplacement.\end{DEPEX}\depred名詞,連体詞,副詞内で表現されるのと同程度の区別だけになる.構造体内での主題/解題(rheme)の区別の痕跡は,ほとんどなくなる.肯定/否定を区別することは文法上可能であるが,実際には希である.日英両言語において名詞句は名詞句を指せるが,英語では,通常,先行文脈中に現れた名詞句をそのまま反復することは文体上の理由から希であり,別の名詞句に言い換えることが多いのに対し,日本語では既出の名詞句をそのまま繰り返すことが多い.\begin{DEPEX}\depexample\underline{委員会による大統領解任}は為替相場へ大きな影響を及ぼすだろう.{\itThedismissalofthePresidentbytheCommittee}willhavegraverepercussionsontheexchangerates.\end{DEPEX}\depred両言語において照応詞で表現される.構造体内での文法上の区別はすべてなくなる.\begin{DEPEX}\depexample\underline{これ}は為替相場へ大きな影響を及ぼすだろう.{\itThis}willhavegraverepercussionsontheexchangerates.\end{DEPEX}\depred日本語で表現する必要はないが英語では表現する必要のある照応詞.\begin{DEPEX}\depexample\underline{$\phi_{\SBJ}$}為替相場へ大きな影響を及ぼすだろう.{\itIt}willhavegraverepercussionsontheexchangerates.\end{DEPEX}\depred両言語においてテキスト中では表現されないが,そのテキストの理解に不可欠なすべての世界知識と状況に関する知識.現在のところ扱っていない.\end{DEPRED}以上の分類に基づき,\hspace*{-0.3mm}陳述縮約に関する制約として,\hspace*{-0.3mm}指される節点$X$と指す節点$Y$の陳述縮\\約度の間で,表\ref{tab:depredlevel}に示す関係が成り立たなければならないという制約をおく.表\ref{tab:depredlevel}は,例えば,節点$X$の陳述縮約度が9であるとき,節点$Y$の陳述縮約度は8か9でなければならないことを\\表している.AND/ORグラフ上の終端節点の陳述縮約度は辞書に,また,非終端節点の陳述縮約度は構文解析規則に記述しておく.\begin{table}[htbp]\caption{陳述縮約度に関する制約}\label{tab:depredlevel}\begin{center}\begin{tabular}{|c|r|}\hline節点$X$の陳述縮約度&\multicolumn{1}{|c|}{節点$Y$の陳述縮約度}\\\hline\hline0&1,2,3,4,5,6,7,8,9\\1&2,3,4,5,6,7,8,9\\2&3,4,5,6,7,8,9\\3&4,5,6,7,8,9\\4&5,6,7,8,9\\5&6,7,8,9\\6&7,8,9\\7&7,8,9\\8&8,9\\9&8,9\\\hline\end{tabular}\end{center}\end{table}\subsection{照応関係に関する選好による解釈の評価}\label{sec:twg:eval}節点$X$と$Y$が,\hspace*{-0.2mm}構文構造,\hspace*{-0.2mm}意味,\hspace*{-0.2mm}陳述縮約に関する制約をすべて満たしているとき,\hspace*{-0.2mm}$Y$は$X$\\を指すことができる.$Y$が$X$を指しているとき,二つの節点を,$Y$から$X$へ向かうリンクで結\\ぶ.リンクには,次の選好によって照応関係の評価点を与える.\begin{enumerate}\item$X$と$Y$の意味素性の間に上位下位関係にあるかどうかが不明である場合,評価点は0\\点とする.\item$X$と$Y$の意味素性の間に上位下位関係にあることが明確にわかっており,かつ,$X$と\\$Y$の陳述縮約度が共に7以下である場合,評価点は1点とする.\item$X$と$Y$の意味素性の間に上位下位関係にあることが明確にわかっており,かつ,$X$ま\\たは$Y$の陳述縮約度が8以上である場合,評価点は2点とする.\end{enumerate}テキストのある解釈の照応関係に関する選好による評価点は,その解釈を構成するリンクの評価点の和とし,その値が最も高い解釈を照応関係に関する選好による最良解釈とする.\subsection{解釈の総合評価}\label{sec:twg:balance}テキストの解釈は,照応関係に関する選好による評価の他に,構文構造に関する選好と意味的親和性に関する選好による評価を受ける.これら三つの選好による各評価を組み合わせた総合的な評価は,次式を用いて行なう.\begin{equation}S=W_{\SYN}\timesS_{\SYN}+W_{\SEM}\timesS_{\SEM}+W_{\COR}\timesS_{\COR}\label{eq:balance}\end{equation}ここで,$S_{\SYN}$,$S_{\SEM}$,$S_{\COR}$は,それぞれ,構文構造,意味的親和性,照応関係に関する選好に\\よる評価点であり,$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$は各評価点についての相対的重要度である.各選好による解釈の評価の間には相互に依存関係があり,それらが相容れない場合もある.すなわち,AND/ORグラフからある構文構造を選ぶと,意味的親和性に関する選好と照応関係に関する選好による評価の対象を,その構文構造に属する節点に限定したことになるが,最良の構文構造に属する節点から素性構造の最良の単一化結果を得るとは限らない.また,意味的親和性に関する選好による素性構造の単一化結果と照応関係に関する選好による素性構造の単一化結果とは,必ずしも相容れない.例えば,ある用言が[sbj:[sem:H]]\footnote{ある素性が可能な素性値のすべてをとる場合,その素性と素性値を省略する.ここでは,per,gen,numを省略した.}という格構造を持ち,その用言の主語である節点$X$が\FEATS{3rd}{\{m,f,n\}}{sg}{\{A,H\}}という素性構造を持つとする.さらに,\FEATS{3rd}{n}{\{sg,pl\}}{A}という素性構造を持ち,$X$との間で構文構造に関する制約と陳述縮約度に関する制約を満たす節点$Y$が存在するとする.このとき,$X$が$Y$と照応関係にないと解釈すると,$X$の素性構造は\\用言が要求する素性構造と単一化できるが,$X$が$Y$と照応関係にあると解釈すると,$X$と$Y$の\\素性構造を単一化した結果,$X$の素性構造は\FEATS{3rd}{n}{sg}{A}となるので用言からの要求を満たさなくなる.各選好による最良解釈が相容れない場合,どの選好による解釈を優先させるかは,主に総合評価式(\ref{eq:balance})における相対的重要度$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$に依存する.これらは経験的に決定する. \section{意味・照応解析機構} \label{sec:lazy}TWGに基づく意味解析と照応解析を実現するために,AND/ORグラフ上での遅延評価による優先度計算機構\cite{Tamura91,Sugiyama94}を応用する.図\ref{fig:andorstream}に示すように,AND/ORグラフの枝をストリームに対応させて,解釈をストリーム要素として表し(\ref{sec:lazy:streamelem}節),節点で行なうストリーム操作として意味解析と照応解析を実現する(\ref{sec:lazy:gen}節).ストリーム操作は遅延評価(要求駆動)によって制御する.処理の概要は次のようになる.まず,解釈を求めるための要求を根節点から終端節点へ向けて送る.要求が終端節点に到達すると,そこで初期ストリーム要素を生成し,総合評価点の降順に親節点へ送る.非終端節点では,子節点から来たストリーム要素に対して操作を行ない,その結果を総合評価点の降順に親節点へ送る.そして,根節点で得るストリームの第一要素を,AND/ORグラフ全体で総合評価点が最も高い解釈とみなす.\begin{figure}[htbp]\begin{center}\epsfile{file=andorstream.eps,width=0.45\textwidth}\end{center}\caption{AND/ORグラフとストリームの対応}\label{fig:andorstream}\end{figure}意味・照応解析系への入力であるAND/ORグラフには,ゼロ照応詞が補ってあるものとする.ただし,この段階では,どの格要素を補う必要があるかがわかっているだけである.補った格要素を具体的にどの照応詞として英訳するかは,意味・照応解析によって決まる.関係節として英訳しなければならない従属節に格要素を補う場合,その従属節を支配する主名詞が従属節内でどの格要素になるかを判定した後,すなわち適切な関係詞を選択した後でないと,従属節にどの格要素を補うかは決めることはできない.\subsection{解釈の表現}\label{sec:lazy:streamelem}ストリームの要素は,\ELEM{S_{\SYN}}{S_{\SEM}}{S_{\COR}}{D_{\SYN}}{D_{\SEM}}{D_{\COR}}という形式をした評価点と解釈の対である.解釈は,構文構造記述$D_{\SYN}$,意味的親和性記述$D_{\SEM}$,照応関係記述$D_{\COR}$から成る.総合評価点は,各記述の評価点$S_{\SYN}$,$S_{\SEM}$,$S_{\COR}$から,\\総合評価式(\ref{eq:balance})によって求める.AND/ORグラフ上の節点$X$で得るストリームの第$i$要素が,$X$で得うる全解釈のうち総合評価点が第$i$番目に高いと処理機構が判断した解釈を表す.構文構造の記述には,OR子供リスト(ORchildlist)\cite{Tamura91}を用いる.OR子供リストは,AND/ORグラフ上の各OR節点の子節点全体の部分集合を,OR節点の辞書式順序に従って並べたリストである.OR子供リストによって,AND/ORグラフの中から特定の構文構造を選び出すことができる.例えば,次の二つの文から成るテキスト\ref{TEXT:pig}から得るAND/ORグラフ\footnote{節点`4.sent'〜`7.sent'に対応する翻訳は,次の通りである.\newcounter{myctr1}\begin{list}{}{\parsep-3pt\itemsep0pt\topsep-15pt\usecounter{myctr1}\addtocounter{myctr1}{3}\renewcommand{\makelabel}{}}\itemHehasstronglikesanddislikes.\itemAsforhim,$\phi_{\SBJ}$\{have/has\}stronglikesanddislikes.\itemAsforhim,likesanddislikeshavestrongone.\itemAsforhim,likesanddislikesarestrong.\end{list}}(図\ref{fig:andor})において,実線の構文構造はOR子供リスト[4.sent,8.sent]で表せる.\begin{TEXT}\text彼は好き嫌いが激しい.豚は食べる.\label{TEXT:pig}\end{TEXT}このOR子供リストは,OR節点`2.sentence'で子節点`4.sent'を選び,OR節点`3.sentence'で子節点`8.sent'を選ぶこと,すなわち,`25.彼'を第一文の主語(`11.sbj'),`26.好き嫌い'を目的語(`13.sobj')と解釈し,`29.豚'を第二文の目的語(`19.obj')と解釈することを意味する.OR子供リストは,意味・照応解析を行なう前に,AND/ORグラフ上の各節点に与えておく.節点$X$に与えたOR子供リストは,$X$を含む構文構造を表す.すなわち,$X$より下位の構造についての局所的情報だけでなく,上位の構造についての大局的な情報も表せる.\begin{figure}[htbp]\begin{center}\epsfile{file=andor.eps,width=\textwidth}\end{center}\caption{テキスト\protect\ref{TEXT:pig}のAND/ORグラフ}\label{fig:andor}\end{figure}照応関係記述は,AND/ORグラフ上の節点間の照応関係を表す有向グラフの集合である.以降,この有向グラフを照応関係グラフと呼ぶ.ある照応関係グラフに属する節点は,意味に関する制約を満たし,どの二つの節点も互いに単一化可能な素性構造を持つ.各節点の素性構造を単一化した結果が,照応関係グラフの素性構造となる.ある照応関係グラフに属する二つの節点$X$と$Y$が,構文構造に関する制約と陳述縮約度に関する制約を満たしているとき,二つ\\の節点を$Y$から$X$へのリンクで結ぶ.一般に,照応関係グラフは次の形式で表せる.\[\left[\begin{array}{l}素性構造\\\left[\begin{array}{l}\left[\X_{1,1},\,X_{1,1}を指す節点の集合\\right]\\\multicolumn{1}{c}{\vdots}\\\left[\X_{1,p_1},\,X_{1,p_1}を指す節点の集合\\right]\end{array}\right]\\\multicolumn{1}{c}{\vdots}\\\left[\begin{array}{l}\left[\X_{n,1},\,X_{n,1}を指す節点の集合\\right]\\\multicolumn{1}{c}{\vdots}\\\left[\X_{n,p_n},\,X_{1,p_n}を指す節点の集合\\right]\end{array}\right]\end{array}\right]\]ここで,節点$X_{i,j+1}$は節点$X_{i,j}$の主要部である.以降,$X_{i,p_1}$--$X_{i,p_2}$--$\,\cdots\,$--$X_{i,p_i}$を主要部連鎖と\\呼ぶ.例えば,図\ref{fig:andor}のAND/ORグラフの根節点で得るストリームの第一要素(図\ref{fig:bestelem})の照応関係記述は,二つの照応関係グラフから成る.第一の照応関係グラフは,第二文に補った主語である主要部連鎖`22.defsbj'--`30.$\phi$'が,第一文の主語である主要部連鎖`11.sbj'--`25.彼'を指しており,素性構造の単一化によって,これら二つの主要部連鎖の素性構造を\FEATS{3rd}{m}{sg}{H}に特定できたことを意味する.\begin{figure}[htbp]\begin{center}\epsfile{file=bestelem.eps,width=0.8\textwidth}\end{center}\caption{テキスト\protect\ref{TEXT:pig}の最良解釈}\label{fig:bestelem}\end{figure}意味的親和性記述は,AND/ORグラフ上の節点間の意味的な親和性に関する選好を表す.意味的親和性に関する選好は,選択制限などから得る.用言とその格要素間の意味的親和性は,格要素が属する照応関係グラフの素性構造と用言の格構造に記述してある素性構造とが単一化できるかどうかによって表せる.単一化できる場合,その単一化結果が,格要素の属する照応関係グラフの素性構造となる.図\ref{fig:bestelem}のストリーム要素の意味的親和性記述は,`31.食べる'の目的語が持つべき素性構造[sem:F]と主要部連鎖`19.obj'--`29.豚'が属する照応関係グラフの素性構造が単一化でき,主語が持つべき素性構造[sem:\{A,H\}]と主要部連鎖`22.defsbj'--`30.$\phi$'が属する照応関係グラフの素性構造が単一化できたことを意味する.\subsection{解釈の生成}\label{sec:lazy:gen}AND/ORグラフ上の各節点では,その種類に応じて次の三種類の処理を行なう.\begin{enumerate}\item終端節点では,辞書情報などに基づいて初期ストリームを,その要素が総合評価点の降順に並ぶように生成し親節点に送る.\itemOR節点では,子節点から来るストリームを併合し,総合評価点が最も高い要素から順に親節点へ送る.\itemAND節点では,子節点から来るストリーム要素に対し,構文構造を決定する処理と節点の素性値を決定する処理を行ない,総合評価点が最も高いと処理機構が判断した要素から順に親節点へ送る.素性値を決定する処理では,意味的親和性に関する選好と照応関係に関する制約と選好を組み合わせて用いる.\end{enumerate}\subsubsection{構文構造の選択}\label{sec:lazy:gen:syn}AND/ORグラフの中から特定の構文構造を選ぶには,OR子供リストの連言を求めればよい.\hspace*{-0.5mm}節点$Z$\hspace*{-0.1mm}が子節点$X_1,\,X_2,\,\cdots,\,X_n$\hspace*{-0.1mm}を持つとき,\hspace*{-0.3mm}$Z,\,X_1,\,X_2,\,\cdots,\,X_n$\hspace*{-0.1mm}それぞれのOR子供リス\\トの連言が$Z$での構文構造記述となる.連言が空になれば,それはいかなる構文構造も表せない.構文構造に関する選好による評価点は,構文解析によって各節点に与えておく.\subsubsection{意味的親和性による素性値の選択}\label{sec:lazy:gen:sem}用言とその格要素の間の意味的親和性の照合は,用言節点からのストリームと格要素節点からのストリームが初めて出会う節点で行なう.上位下位関係を記述した意味体系を参照して,用言の格構造に記述してある選択制限と格要素の素性構造とを照合し,その結果に応じて評価点を与える.選択制限に違反する解釈も必要に応じて生成する.否定文や比喩などは選択制限に違反してもよいからである.また,照応関係に関する選好との相互作用があるからである.例えば,意味素性Hと上位下位関係にある主要部連鎖を主語に要求する用言である終端節点からは,まず\ELEM{S_{\SYN}}{10}{S_{\COR}}{D_{\SYN}}{\mbox{[[sbj:[sem:H]]]}}{D_{\COR}}というストリーム要素が来る.さらに,第二要素として\ELEM{S_{\SYN}}{-4}{S_{\COR}}{D_{\SYN}}{\mbox{[[sbj:[sem:not(H)]]]}}{D_{\COR}}が来る.この用言の主語が属する照応関係グラフの素性構造と第一要素の意味的親和性記述との照合によって,選択制限を満たす場合の解釈を生成する.素性構造と意味的親和性記述が単一化可能であれば,評価点10点を与える.第二要素を用いた処理によって,選択制限に違反する場合の解釈を生成する.\subsubsection{照応関係による素性値の選択}\label{sec:lazy:gen:cor}節点$Z$で,その子節点から来るストリーム要素の照応関係記述を結合して,新たな照応関係記述を得る問題は,一種の結婚問題とみなせる.$Z$の一方の子節点から来る照応関係記述$\{\,G_1,\,G_2,\,\cdots,\,G_g\,\}$を男性の集合とし,他方の子節点から来る照応関係記述$\{\,L_1,\,L_2,\,\cdots,\,L_l\,\}$を女性の集合とする.照応関係グラフ$G_j\,(j=1,\,2,\,\cdots,\,g)$と$L_k\,(k=1,\,2,\,\cdots,\,l)$が単一化可能な素性構造を持つとき,男性$G_j$と女性$L_k$が知合いであるということにし,各男性は何人かの女性と知合いであるとする.互いに知合いの男女は結婚することができる.ただし,重婚は認めない.結婚した$G_j$と$L_k$が新たな一つの照応関係グラフ$GL$となる.照応関係グラフ$G_j$と$L_k$の持つ素性構造を単一化して得る素性構造を,$GL$の素性構造とす\\る.$G_j$に属する節点$X$と$L_k$に属する節点$Y$が構文構造に関する制約と陳述縮約度に関する制\\約を満たしているとき,\hspace*{-0.2mm}$Y$から$X$へ向かうリンクで結ぶ.\hspace*{-0.3mm}$GL$の評価点は,\hspace*{-0.2mm}$G_j$の評価点と$L_k$の\\評価点の和に,$G_j$に属する節点と$L_k$に属する節点を結ぶ各リンクの評価点(\ref{sec:twg:eval}節)を加えた値\\である.各男女は,知合いの異性と必ず結婚しなければならないというわけではなく,独身であってもよい.節点$Z$では独身であるほうが,将来($Z$より上位の節点で),より良い(評価点が高くな\\る)異性を見つけることができるかもしれないからである.また,意味的親和性に関する選好との相互作用があるからである.節点$Z$の各子節点から来る照応関係記述を結合して得た照応関係記述に$Z$を加えたものを,最終的に$Z$での照応関係記述とする.$Z$で得た照応関係記述を構成する照応関係グラフのいずれかは,$Z$の主要部である主要部連鎖を含んでいる.この主要部連鎖に$Z$を加え,この主要部連鎖を含む照応関係グラフの素性構造と$Z$の素性構造を単一化する.ここで$Z$を照応関係記述に加えることによって,AND/ORグラフ上の非終端節点も以降の照応解析の対象となる.図\ref{fig:andor}のAND/ORグラフ上の根節点`1.text'で照応関係記述を求める処理は,次のようになる.二つの子節点`2.sentence'と`3.sentence'からは,図\ref{fig:cor}の照応関係記述が来る.これら二つの照応関係記述において,単一化可能な素性構造を持つのは,主要部連鎖`11.sbj'--`25.彼'を含む照応関係グラフと主要部連鎖`22.defsbj'--`30.$\phi$'を含む照応関係グラフである.これら二つの照応関係グラフを結合すれば,図\ref{fig:bestelem}のストリーム要素の照応関係記述を得る.なお,図\ref{fig:bestelem}では,主要部連鎖を一つしか含まず,意味的親和性記述との関連がない照応関係グラフは,簡単のため省略した.二つの照応関係グラフを結合しなければ,主要部連鎖`11.sbj'--`25.彼'と主要部連鎖`22.defsbj'--`30.$\phi$'が照応関係にないとする解釈を得る.\begin{figure}[htbp]\begin{center}\epsfile{file=cor.eps,width=0.95\textwidth}\end{center}\caption{テキスト\protect\ref{TEXT:pig}のAND/ORグラフの根節点に到達する照応関係記述}\label{fig:cor}\end{figure}\vspace*{-0.3mm}\subsection{解釈生成の保留}\label{sec:lazy:suspend}\vspace*{-0.2mm}テキスト全体での最良解釈は,テキストの断片に対する最良解釈を単純に合成したものとは限らない.ある断片に対する解釈としてはあまり良くない解釈が,テキスト全体として見ると最も相応しくなることもある.このため,全体で最良解釈を得るためには,最悪の場合,断片に対する可能な解釈をすべて生成しなければならない.しかし,人間は,テキストのある断片に膨大な解釈の可能性がある場合でも,それらを同時にすべて保持するのではなく,局所的に評価点が高い少数の解釈だけを念頭において,それ以降へ読み進む\cite{Tsujii88}.このような人間の言語処理を部分的にではあるが模倣する\footnote{本稿の処理機構は入力テキスト全体に対する構文解析が完了した後に起動されるため,形態素解析から照応解析までを統合的に実行すると考えられる人間の言語処理を完全に模倣するものではない.}ために,評価点の低い解釈の生成は必要になるまで行なわないようにする.AND節点にその親節点から,解釈を生成するよう要求が来ると,まず,AND節点で得る解釈の総合評価点を推定する.次に,解釈を一つを生成し,その総合評価点が推定値より低くなければ,その解釈を親節点に送り,残りの解釈の生成は保留する.もし総合評価点が推定値より低ければ,推定値よりも低くない総合評価点を持つ要素が現れるまで,次の解釈の生成,その次の解釈の生成と続ける.保留した処理は,次の解釈を求める要求が親節点から来たときに再開する.OR節点にその親節点から,解釈を生成するよう要求が来ると,OR節点の各子節点で得る解釈の総合評価点を推定し,それらのうち推定値が最大となる子節点での処理を優先的に行なう. \section{実験} \label{sec:experiment}本テキスト解析手法をSunSPARCstationIPX上でSICStusProlog2.1を用いて実装し,小規模の実験を行なった.遅延評価は,SICStusProlog2.1の{\ttblock}宣言を用いて実現した.今回の実験では,解釈の総合評価式(\ref{eq:balance})における相対的重要度$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$を,訓練用テキストの分析結果に基づいて,それぞれ21,3,1とした.また,解釈の総合評価点の推定は,次式を用いて行なった.\[E=W_{\SYN}\timesS_{\SYN}+W_{\SEM}\timesE_{\SEM}+h\timesW_{\COR}\timesE_{\COR}\]$E_{\SEM}$は,照応関係に関する選好との相互作用を考えないときの意味的親和性に関する選好による評価点の推定値である.$E_{\COR}$は,意味的親和性に関する選好との相互作用を考えないときの照応関係に関する選好による評価点の推定値であり,次のような方法で求めた.実際に照応解析\\を行なう場合,AND/ORグラフ上のすべての節点が処理の対象となるが,$E_{\COR}$を求める場合は終端節点だけを対象とした.また,実際に照応解析を行なう場合,二つの照応関係グラフ$G_j$と$L_k$を結合して得た新たな照応関係グラフ$GL$の素性構造は$G_j$\hspace*{-0.1mm}と\hspace*{-0.1mm}$L_k$の素性構造の連言である\\が,推定を行なう場合は$G_j$と$L_k$の素性構造の選言を$GL$の素性構造とした.$h$は0.4とした.訓練用テキストとは異なる五つのテキスト(表\ref{tab:text})を対象として,部分的解釈の再利用と解釈生成の保留を行なう本手法と,いずれも行なわない全解探索法,それぞれの処理時間(SICStusPrologのruntime)とメモリ使用量(globalstack)を測定した.その結果を,全解探索法に対する本手法の性能比と共に,表\ref{tab:result}に示す.表\ref{tab:result}からわかるように,処理時間は,いずれのテキストでも本手法の方が全解探索法より短く,テキストの可能な解釈の数が増えるにつれ,両手法の差は広がる.メモリ使用量は,可能な解釈の数が比較的少ないテキストc.では全解探索法のほうが少ないが,それ以外では本手法のほうが少なく,可能な解釈の数が増えるにつれ,両手法の差は広がる.\begin{table}[htbp]\caption{実験に用いたテキスト}\label{tab:text}\begin{center}\begin{tabular}{r|p{0.8\textwidth}}\hline&\multicolumn{1}{|c}{テキスト}\\\hline\hlinea.&彼は好き嫌いが激しい.豚は食べる.\\b.&トナー工場が生産を開始しました.八月にはフル稼働体制に移ります.\\c.&明日は梅雨前線が次第に北上する.このため,東日本では雨が降るだろう.\\d.&携帯電話の市場が開放されました.今後,誰でも自由に販売することができます.\\e.&学生によるボランティア活動が始まりました.学校近くの駅前広場を毎朝清掃します.\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{処理時間とメモリ使用量}\label{tab:result}\begin{center}\begin{tabular}{|r|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{c@{}|}{runtime(msec.)}&\multicolumn{3}{c@{}|}{globalstack(bytes)}\\\cline{3-8}\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{番号}}&\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{解釈総数}}&\multicolumn{1}{|c|}{全解探索}&\multicolumn{1}{|c|}{本手法}&\multicolumn{1}{|c|}{性能比}&\multicolumn{1}{|c|}{全解探索}&\multicolumn{1}{|c|}{本手法}&\multicolumn{1}{|c|}{性能比}\\\hline\hlinea.&1584&63539&2170&0.03&1689916&358452&0.21\\b.&740&10550&379&0.04&1770456&104104&0.06\\c.&32&1450&590&0.41&67792&121932&1.80\\d.&8720&247210&2900&0.01&6373792&326404&0.05\\e.&240&5379&699&0.13&423016&189280&0.45\\\hline\end{tabular}\end{center}\end{table}AND/ORグラフの根節点で得たストリームの第一要素がTWGによって定義される最良解釈に一致しているかどうかを調べたところ,テキストb.では第一要素は総合評価点が第6番目に高い解釈になっていたが,それ以外のテキストでは第一要素がTWGによる最良解釈であった.次に,TWGによる最良解釈が人間による最良解釈に一致するかどうかを調べたところ,テキストb.以外では一致していた.テキストb.の人間による最良解釈では「トナー工場」と第二文のゼロ照応詞「$\phi_{\SBJ}$」との間に照応関係が成り立つだろうが,TWGによる最良解釈では「生産」と「フル稼働体制」と「$\phi_{\SBJ}$」との間に照応関係が成り立っていた.実験に用いた意味素性の分類が91分類と粗く,「生産」と「フル稼働体制」の素性構造が単一化できることが原因である. \section{おわりに} \label{sec:conclusion}本稿では,構文構造,意味的親和性,照応関係に関する選好を組み合わせてテキストの可能な解釈を総合的に評価し,最良解釈を定義する文法TWGと,TWGを効率良く解釈実行するために,部分的解釈の再利用と解釈生成の保留を行なう処理機構について述べ,実験を通じて本テキスト解析手法の有効性を確認した.実験結果によれば,テキストの可能な解釈の数が増えるにつれ,本手法と全解探索法の性能差が広がることが明らかになった.本手法の有効性は,実験に用いたテキストよりも複雑で,可能な解釈の数もより多い現実の標準的なテキストの解析において,より顕著になろう.テキストの構造体の間で照応関係が成り立つかどうかをより正確に判定するためには,より詳細な意味体系を用いることと,意味合成の枠組みを実現することが必要である.より詳細な意味体系を用いれば,テキストの構造体がAND/ORグラフ上の終端節点に対応する場合に,照応関係をより正確に判定できるようになる.非終端節点の素性構造を終端節点の素性構造から求める意味合成の枠組みが実現できれば,構造体が非終端節点に対応する場合に,より正確な判定が可能となる.これまでに提案されている,式の連言結合と式に含まれる項の単一化に基づく意味合成の手法\cite{Kato91}などを本テキスト解析手法で利用できないかを検討し,意味合成の枠組みを実現することが今後の課題である.\acknowledgment第一稿に対し,有益な助言を下さった査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{twin}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)情報商品開発研究所にて機械翻訳システムの研究開発に従事.在職のまま,1996年より神戸大学大学院自然科学研究科博士課程在学中.}\bioauthor{JiriJelinek}{チェコのプラハのUniversitaKarlova卒業(言語学・英語学・日本語学).1959年以来,日英機械翻訳実験中.英国Sheffield大学日本研究所専任講師を1995年退職.1992年より1996年までシャープ専任研究員.}\bioauthor{西田収}{1984年大阪教育大学教育学部中学校課程数学科卒業,同年より神戸大学工学部応用数学科の教務補佐員として勤務.1987年シャープ(株)に入社.現在は,同社の情報商品開発研究所に所属.主に,機械翻訳の研究に従事.情報処理学会会員.}\bioauthor{田村直之}{1985年神戸大学大学院自然科学研究科システム科学専攻博士課程修了.学術博士.同年,日本アイ・ビー・エム(株)に入社し東京基礎研究所に勤務.1988年神戸大学工学部システム工学科助手.講師を経て,現在同大学大学院自然科学研究科助教授.論理型プログラミング言語,線形論理などに興味を持つ.著書に「Prologプログラミング入門」(オーム社,共著).情報処理学会,日本ソフトウェア科学会,システム制御情報学会,ACM,IEEE各会員.}\bioauthor{村上温夫}{1952年大阪大学理学部数学科卒業.神戸大学理学部助手,講師,教養部助教授を経て,1968年より工学部教授.この間,UniversityofKansas客員助教授,UniversityofNewSouthWales客員教授,NanyangUniversity客員教授を併任.1992年より甲南大学理学部教授.神戸大学名誉教授.理学博士(東京大学).関数解析,偏微分方程式,人工知能,数学教育などに興味を持つ.著書に``MathematicalEducationforEngineeringStudents''(CambridgeUniversityPress)など.日本数学会,日本数学教育学会,情報処理学会,教育工学会,AMS各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}