id
stringlengths 9
9
| text
stringlengths 8.54k
92.7k
| title
stringclasses 1
value |
---|---|---|
V17N04-01
|
\section{はじめに}
近年,様々な言語処理タスクにおいて,大量の正解データから学習した統計的言語モデルを解析に用いる教師あり機械学習のアプローチが広く普及している.このアプローチでは,言語の文法的な知識を統計的な特徴量として捉えることができ,形態素解析や固有表現抽出,機械翻訳などの自然言語処理で広く活用されている.本稿では固有表現抽出タスクに焦点をあてる.固有表現抽出は,形態素解析済みの各単語に対して,「どの種類の固有表現か」というタグを付与することにより実現されている.近年では,条件付確率場(ConditionalRandomFields;CRF)\cite{Lafferty:CRF2001,suzuki-mcdermott-isozaki:2006:COLACL}に基づく系列ラベリングが好成績を収めている.しかし,これらの教師あり機械学習に基づく言語処理では,モデルを学習するための正解データを構築するコストが極めて高いことが常に課題となっている.一方,情報検索や情報抽出の分野では,近年ブログなどのConsumerGeneratedMedia(CGM)を対象とした研究も多くなってきている.CGMは,テキストそのものが日々変化してゆくため,新しい語や話題が常に出現するという特徴がある.このような日々変化するテキストにモデルを適応させる確実な方法は,正解の追加データを作成することである.しかし,人手コスト問題のため,迅速に対応させるのは困難であった.これらの人手コストを削減するための従来研究として,能動学習\cite{shen-EtAl:2004:ACL,laws-schutze:2008:PAPERS},半教師あり機械学習\cite{suzuki-isozaki:2008:ACLMain},ブートストラップ型学習\cite{Etzioni2005}などが提案されてきた.能動学習は,膨大なプレーンテキスト集から学習効果の高いデータを取捨選択し,正解は選択されたデータのみに対して人手で付与する手法であり,人手コストを効果的に集中させることに着眼している.そのため,能動学習では学習効果の高いデータ(文)を選択するという,データセレクションが最も重要なポイントとなる\footnote{本来の能動学習では,少ないデータ量で統計モデルの精度を向上させるため,データの取捨選択を行っているが,目的の一つは,大規模正解データで学習したモデルと同等の精度を,少ない作業量で達成するためである.そのため,本稿では,人手作業コストを削減するデータセレクション→人手修正→モデル再学習の一連の手順を能動学習と呼ぶ.}.ここでのデータセレクションの単位は常に文である.一方,もしシステムの解析結果をそのまま正解データとして利用できれば,人手コストは大幅に削減可能である.しかし,現実には解析結果には解析誤りが存在するため,その解析誤りを一つ一つ人手で確認修正する作業が必要である.データセレクションの単位が文である限り,どこに解析誤りが存在するか明白ではないため,全てのタグをチェックする必要がある.しかし,実際には大部分のタグが正解であることが多いため,文全体の全てのタグを確認するコストは無駄が多い.本稿では,タグ単位の事後確率に基づいて算出したタグ信頼度を導入する.この手法では,文単位の信頼度ではなく,各単語に付与されうる全てのタグについてのタグ信頼度を計算する.そしてタグ信頼度に基づいて解析誤りタグを自動的に検出する.自動的に検出された解析誤り箇所だけを人手チェック・修正の対象とすれば,能動学習の学習効率は更に高まる.更に,もし検出された解析誤りを自動的に正解に修正できれば,更に学習コストを削減できる.本稿では,シードとなる正解固有表現リストを利用してブートストラップ的に正解データを収集する半自動自己更新型固有表現抽出を提案する.この手法では,予め人手でシードを準備するだけで,膨大なテキストからシードに存在する固有表現を含む正解データ\footnote{本稿では「正解データ」と呼ぶが,自動で固有表現を認識しているため,実際には少量の誤りも含んだ擬似正解データである.}を自動的に収集し,モデル更新をすることが可能となる.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f1.eps}\end{center}\caption{本稿で提案する学習手法の模式図}\label{fig-overall}\end{figure}本稿で提案する2つの学習手法の模式図を図\ref{fig-overall}に示す.タグ信頼度に基づいて大規模平文データからシステム解析誤りを自動検出し,誤りタグの有無でデータセレクションを実施する.誤りタグを人手で修正する能動学習(\ref{sec-active-learning}章)と,半自動で修正する自己更新型固有表現抽出UpdateNER(\ref{sec-bootstrapping}章)を本稿では提案する.以下,第\ref{sec-ner}章では固有表現抽出タスクについて述べ,第\ref{sec-confidence-measure}章では,今回提案するタグ信頼度について説明する.第\ref{sec-active-learning}章では,タグ信頼度を能動学習に適応したときの効果を示し,第\ref{sec-bootstrapping}章では半自動自己更新型固有表現抽出について説明する.第\ref{sec-related-works}章で関連研究について述べ,第\ref{sec-conclusion}章でまとめる.
\section{固有表現抽出}
\label{sec-ner}固有表現抽出とは,テキストに含まれる人名,地名,組織名などの固有表現を抽出するタスクである.本稿では,表\ref{tbl-irex-tags}に示すとおり,IREX\cite{IREX1999}で定義される8種の固有表現を抽出対象とし,IOB2方式\cite{Sang:IOB1999}に基づいて17種類のタグを使用する.\begin{table}[b]\caption{固有表現タイプとタグ}\label{tbl-irex-tags}\input{02table01.txt}\end{table}例えば,``東京/都/に''という文は次のようにタグ付けされる:\begin{center}``東京/B-$<$LOC$>$都/I-$<$LOC$>$に/O''\end{center}このタスクは単語列$W=w_1\ldotsw_n$に対して固有表現の種類を表す固有表現タグ列$T=t_1\ldotst_n$を付与する系列ラベリング問題として考えることができる.近年,系列ラベリング問題ではCRF\cite{Lafferty:CRF2001,suzuki-mcdermott-isozaki:2006:COLACL}などの識別モデルが成功を収めている.本稿ではlinear-chainCRFを利用し,固有表現タグ列の事後確率を以下の式で算出する.\begin{align}P(T|W)&=\frac{1}{Z(W)}\exp\left\{\sum_{i=1}^{n}\left(\sum_{a}\lambda_{a}\cdotf_{a}(t_i,w_i)+\sum_{b}\lambda_{b}\cdotf_{b}(t_{i-1},t_{i})\right)\right\}\label{eqn-sentence-prob}\\Z(W)&=\sum_{T}\exp\left\{\sum_{i=1}^{n}\left(\sum_{a}\lambda_{a}\cdotf_{a}(t_i,w_i)+\sum_{b}\lambda_{b}\cdotf_{b}(t_{i-1},t_{i})\right)\right\}\end{align}$w_i$と$t_i$は位置$i$に置ける単語(周辺単語を含む)と固有表現タグ,$f_{a}(t_i,w_i)$,$f_{b}(t_{i-1},t_{i})$は当該単語及び固有表現タグがある条件を満たす時に1となる素性関数\footnote{本稿では素性として,windowサイズ5単語での表記と品詞に関するnグラム(n=1,2,3)と,固有表現タグの2グラムを利用する.}である.$\lambda_{a}$,$\lambda_{b}$は素性関数の重みであり,正解データから推定される.$Z(W)$は正規化項である.(\ref{eqn-sentence-prob})式を最大化するタグ列が最尤タグ列であり,Viterbiアルゴリズムを利用して求められる.
\section{タグ信頼度に基づく解析誤り検出}
\label{sec-confidence-measure}\subsection{タグ事後確率}(\ref{eqn-sentence-prob})式から,文全体の事後確率をタグ列全体の信頼度として利用することは自然であり,従来の能動学習では,通常,文全体の事後確率からデータ選択のための信頼度を算出していた.本稿では,文ではなくタグ単位の事後確率に着目し,この値をタグ自体の信頼度とみなす.そしてタグ信頼度の値を利用して解析誤りであるタグを自動的に判定する.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f2.eps}\end{center}\caption{タグ信頼度計算の模式図}\label{fig-confidence-measure}\end{figure}図\ref{fig-confidence-measure}はタグ信頼度計算の模式図である.単語$w_i$のタグ候補$t_{i,j}$についての信頼度は,次式のように計算される.\begin{equation}P(t_{i,j}|W)=\sum_{T}P(t_{i,j},T|W)\label{eqn-tag-prob}\end{equation}ここで$\sum_{T}P(t_{i,j},T|W)$はタグ候補$t_{i,j}$を通る全てのタグ列の事後確率を総和したものであり,周辺確率(marginalprobability)とも呼ばれる.なお,$j=1,\ldots,k$は表\ref{tbl-irex-tags}に示す固有表現タグの全種類に対応するものであり,本稿では$k=17$である.タグ候補の信頼度は,前向きおよび後向きアルゴリズム\cite{FSNLP1999}により以下のように効率的に算出することができる.\begin{equation}P(t_{i,j}|W)=\frac{1}{Z(W)}\alpha_{i,j}\cdot\beta_{i,j}\end{equation}ここで{\allowdisplaybreaks\begin{align}\alpha_{i,j}&=\sum_{k}\left\{\alpha_{i-1,k}\cdot\exp\left(\sum_{a}\lambda_{a}\cdotf_{a}(t_i,w_i)+\sum_{b}\lambda_{b}\cdotf_{b}(t_{i-1},t_{i})\right)\right\}\\\beta_{i,j}&=\sum_{k}\left\{\beta_{i+1,k}\cdot\exp\left(\sum_{a}\lambda_{a}\cdotf_{a}(t_{i+1},w_{i+1})+\sum_{b}\lambda_{b}\cdotf_{b}(t_{i},t_{i+1})\right)\right\}\\\alpha_{0,j}&=1\\\beta_{n+1,j}&=1\end{align}}以上のようにして,文中の各単語に付与されうる全てのタグに関して信頼度が得られる.\subsection{リジェクター}\label{sec-rejector}リジェクターは,タグ信頼度を参照し,システム出力の解析誤りを自動で検出する.各単語において,デコーダが出力した最尤タグ$t_d$と信頼度1位タグ$t_1$を参照し,以下のような手順で各固有表現タグが正解か不正解かを判定する.なお,最尤タグ$t_d$は,(\ref{eqn-sentence-prob})式を最大化するタグであり,信頼度1位タグ$t_1$は(\ref{eqn-tag-prob})式を最大化するタグである.\begin{stepenumerate}\item最尤タグ$t_d$が信頼度1位タグ$t_1$と不一致ならば,最尤タグ$t_d$を解析誤りとしてリジェクトする\footnote{最尤タグ$t_d$は稀に信頼度1位タグ$t_1$と一致しない.これはCRFの特徴に由来する.}\label{step-reject1}\item{[\ref{step-reject1}]}でアクセプトされた場合,信頼度1位タグ$t_1$の信頼度$cs_1$が閾値$\theta$以下ならば最尤タグ$t_d$を解析誤りとしてリジェクトする\itemそれ以外であれば最尤タグ$t_d$を正解としてアクセプトする\end{stepenumerate}閾値が高ければリジェクトされるタグ数が増え,人手のチェック・修正コストが増加する.実際の運用では,開発データにてリジェクト・アクセプトの判定誤り率が最小となるような閾値を設定すればよい.このようにして,タグ信頼度を利用することにより,タグを単位として解析誤りを検出することが可能となる.
\section{能動学習}
\label{sec-active-learning}タグ単位での誤り検出は能動学習のデータセレクションに有効である.もし,文中にリジェクトタグが1つでも含まれれば,その文は,現在のモデル(ベースモデル)が確信を持って解析できない,何か新しい事象が存在していることを意味する.すなわち,このような文を優先的にモデル学習の対象とすることで高い学習効果を期待できる.そこでここでの能動学習では,文中にリジェクトタグを含むか否かに基づいたデータセレクションを採用する.また,選別された文について,全てのタグを人手でチェック・修正する必要は無く,リジェクトされたタグのみを対象としてチェック・修正すればよい.図\ref{fig-active-learning}は本稿で提案する能動学習のスキームを示したものである.固有表現抽出デコーダでは,初期正解データから学習したベースモデルに基づいて最尤タグが出力される.続いて\ref{sec-confidence-measure}章で示した手順で最尤タグの解析誤りを検出する.このステップでは,同じベースモデルを利用してタグ信頼度を計算し,その結果を参照してリジェクターで誤り検出を実行する.データセレクションにて少なくとも1つ以上のリジェクトタグを含む文のみを選別し,検出された誤りタグ(リジェクトタグ)のみを人手でチェック・修正する.最終的に,人手修正済みデータを初期正解データに追加し,モデルを再学習して更新する.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f3.eps}\end{center}\caption{提案する能動学習スキーム}\label{fig-active-learning}\end{figure}\subsection{評価実験}\begin{table}[b]\caption{能動学習でのデータ構成}\label{tbl-al-corpus}\input{02table02.txt}\end{table}今回,本稿で提案する能動学習の効果を学習コストの面から評価した.実験用にブログデータ(45,694文)をWebから収集し,表\ref{tbl-al-corpus}に示すとおり4つのセグメントに分割した.全データに対して予め人手で正解となる固有表現タグを付与したが,追加平文データに関しては,これらの正解タグは隠しておき,プレーンテキストとして扱う.そして人手修正を模する際にこの正解タグの情報を利用する.開発データは\ref{sec-rejector}節で述べたリジェクター判定に利用する閾値を最適化する際に利用した.学習コストは人手でタグをチェック・修正した単語の割合(WCR:WordCheckRate)とみなした.WCRは,追加平文データに含まれる総単語数に対するチェックされた単語数の割合であり,次式で表される.\begin{displaymath}WCR=チェックした単語数/総単語数\end{displaymath}本方式は,リジェクターの閾値に依存して,検出されるリジェクトタグ数が変化するため,閾値を0.1から1.0の範囲で0.1ずつ段階的に変更し,リジェクトタグを含む文のみをデータセレクションで選別して,誤り検出済みデータとした.それぞれの閾値で得られた誤り検出済みデータのうち,リジェクトタグだけを予め付与していた正解タグと変換した.この手順は,人手修正を模したものである.修正後のデータを初期正解データに追加し,ベースモデルを再学習する.この能動学習と比較するため,タグ単位ではなく文単位の信頼度に基づくデータセレクションによる能動学習と比較した.文全体の事後確率を信頼度とみなし,低信頼度の文を優先的に選択する能動学習である.本稿で提案するタグ単位の信頼度に基づく能動学習と異なり,文単位の信頼度の能動学習では,選択された文は全ての単語についてタグのチェックが必要であるとみなされる.以上,2つの能動学習について,再学習したモデルの精度と学習コスト(WCR)の関係を評価した.モデルの精度は評価データにおけるF値を利用した.\begin{equation}F=\frac{2\timesrecall\timesprecision}{recall+precision}\end{equation}\subsection{結果と考察}\subsubsection{学習曲線と精度:}図\ref{fig-learning-curve}に提案手法でのタグ単位のデータセレクションによる能動学習と,文単位のデータセレクションによる能動学習での学習曲線を示す.再学習後のモデルの精度がF値で0.76となるために,文単位での能動学習では全データの60\%を人手でチェックするコストが必要だが,タグ単位での能動学習では,わずか20\%で済む.言い換えると,タグ単位の能動学習は従来の文単位の能動学習と比較して学習コストを1/3に低減したことを意味する.また,図\ref{fig-learning-curve}に,追加平文データのタグをまったく修正しないで,モデルを再学習して測定した精度も併せて示す.ベースモデルではF値0.612であったものが,タグ修正なしの追加平文データをすべて加えた場合はF値0.602に若干低下した.タグ修正なしデータには誤りタグが多く残存しており,そのためF値が低下したと考えられる.このように,ベースモデルによるデコード結果を単純に加えただけでは,学習データ量が増えても精度向上には寄与せず,悪化する場合もある.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f4.eps}\end{center}\caption{能動学習の学習曲線}\label{fig-learning-curve}\end{figure}\subsubsection{タグ修正内容の分析:}更にタグ単位の能動学習の効果を調べるために,リジェクトタグに対して実施されたタグ修正の内容を以下の4タイプに分類して内訳を分析した.\begin{itemize}\item{\bfNoChange:}リジェクトタグが修正不要\item{\bfOtoBI:}リジェクトタグがOタグであり,B-又はI-タグに置換\item{\bfBItoO:}リジェクトタグがB-又はI-タグであり,Oタグに置換\item{\bfBItoBI:}リジェクトタグがB-又はI-タグであり,別のB-又はI-タグに置換\end{itemize}\begin{table}[b]\caption{リジェクトタグの置換タイプ分布}\label{tbl-rejected-tags}\input{02table03.txt}\end{table}表\ref{tbl-rejected-tags}はリジェクター閾値が0.5の時のリジェクトタグについて,上記4タイプの分類の分布を示している.この閾値は開発データで,リジェクターの判定誤り率が最低となる値である.表からわかるとおり,{\bfNoChange}タイプの割合が最も多い.これはリジェクターが本来修正の必要の無いタグまで過剰にリジェクトしていることを意味する.この結果は,更新するモデルの精度そのものには悪影響を及ぼさないが,学習コストの面では無駄が含まれていることを示している.続いて{\bfOtoBI}タイプが2番目に割合が多く,全体の1/3を占める.実質的な変化のなかった{\bfNoChange}タイプを除き,何かしらの修正が加わった3つのタイプ({\bfOtoBI},{\bfBItoO},{\bfBItoBI})だけを考慮すると,{\bfOtoBI}タイプは全修正の約60\%を占める.つまり,ベースモデルでは固有表現として認識できなかったものが,固有表現に修正されたケースが最も多い.このことは,誤り検出済みデータ中には,初期正解データにはない,新しい固有表現が多く含まれていることを示唆している.
\section{ブートストラップ型固有表現抽出}
\label{sec-bootstrapping}\ref{sec-active-learning}章で述べた通り,実際の修正では約60\%がOタグをB-またはI-タグに変更する必要がある.この事実は固有表現抽出タスクの特徴に由来するものと推察される.つまり,固有表現抽出タスクでは,全コーパスの殆どはOタグで占められている.実際,\ref{sec-active-learning}章で我々が整備した追加平文データにおいても,91\%がOタグであった.そのため固有表現の新語が文中に出現すると,ベースモデルではOタグが付与されてしまうことが多い.\begin{table}[b]\caption{上位2位のタグ精度}\label{tbl-second-accuracy}\input{02table04.txt}\end{table}このようにOタグが支配的であるという傾向があるならば,OタグではないB-またはI-タグの候補の可能性を考慮することが必要である.即ち,Oタグがリジェクトされたときに,次に信頼度の高いタグは何かを調べることは意味があると考えられる.そこで,閾値0.5の時のタグ信頼度が上位2位までのタグについて,その精度を分析したものを表\ref{tbl-second-accuracy}に示す.信頼度1位のタグ(1位タグ)がアクセプトとされた時,その精度は94\%と高い.一方,1位タグがリジェクトされた時,1位タグの精度はわずか43\%であった.しかし,信頼度2位のタグ(2位タグ)の精度は29\%であり,1位タグと2位タグをどちらも考慮すると,いずれかに正解タグが存在する可能性が72\%まで高まる.このことから,上位2位のタグまでを考慮することにより,システム出力のリジェクト箇所を自動的に修正できる可能性があることがわかる.図\ref{fig-tag-graph}に,閾値0.5で1位タグがリジェクトされる場合は2位タグまで考慮するときのタグの状況を示す.以後,本稿ではこのラティス構造をタググラフと呼ぶ.``3丁目の夕日''という映画タイトル(固有物名ART)を1位タグだけでは正しく固有表現として認識できていない.しかし,2位タグまで考慮すると,正しいタグ列が存在していることがわかる.もしこの正解のタグ列を自動的にシステムが発見できれば,この正しいタグ列情報を人手修正した正解データと同等のものとして利用できる.\begin{figure}[t]\begin{center}\includegraphics{17-4ia2f5.eps}\end{center}\caption{タググラフ}\label{fig-tag-graph}\end{figure}\subsection{半自動自己更新型固有表現抽出}以上の考察をふまえ,新しい学習スキームである半自動自己更新型固有表現抽出(UpdateNER)を提案する.これは,予め用意する固有表現リストをシードとし,そのシードを利用してタググラフから正解のタグ列を発見する方式であり,シードを利用して新しいインスタンスを取得するブートストラップ型の学習に類似している.図\ref{fig-update-ner}にUpdateNERの概要を示す.リジェクターでは,タグ信頼度に基づいてリジェクト/アクセプト判定をした後,適宜2位までのタグを考慮したタググラフを出力する.ここでリジェクターは\ref{sec-active-learning}章で述べた処理手続きを以下のように変更して動作する.\begin{stepenumerate}\item1位タグの信頼度スコア$cs_1$が閾値以上であれば,1位タグ$t_1$のみをアクセプトする.それ以外は[\ref{step-second-accept}]の処理へ進む\item$cs_1$が閾値より小さければ,1位タグ$t_1$と更に2位タグ$t_2$をアクセプトする\label{step-second-accept}\end{stepenumerate}後続のデータセレクションでは,2位までのタグ候補を有するタググラフ構造を持つ文を抽出する.そして,コンテキスト抽出にて以下の手順で正解タグ列が存在するかを調べ,該当するタグ列が存在すればそのタグ列を抽出する.\begin{stepenumerate}\itemタググラフ内で最長となる固有表現が成立するタグ列を選択する\label{step-longest-match}\item該固有表現が別途準備するシードリストである固有表現リストに存在していれば文全体のタグ列を正解タグ列として抽出する\label{step-seed-comparison}\end{stepenumerate}\begin{figure}[t]\begin{center}\includegraphics{17-4ia2f6.eps}\end{center}\caption{UpdateNERの概要}\label{fig-update-ner}\end{figure}ステップ[\ref{step-longest-match}]では,タググラフの中から最も有望と思われるタグ列を選ぶことを意図して,最長となる固有表現が成立するルートを選択する.例えば,図\ref{fig-tag-graph}で示すタググラフの場合,``3'',``丁目'',``の'',``夕日''の4単語が2位タグまでの候補を有しているため,16通りのタグ列が存在する.例えば,``BIII'',``BIIO'',``BIOO'',``OOOI'',``OOOO''などである.しかし,ここでは``BIII''のタグ列で最長の固有表現(``3丁目の夕日''で固有物名ART)が構成できるため,このタグ列を選択する.他の部分文字列からなる固有表現,例えば,``3'',``3丁目'',``3丁目の''でいずれも固有物名ARTとなるようなタグ列は全て無視される.ステップ[\ref{step-seed-comparison}]では,ステップ[\ref{step-longest-match}]で選択した有望なタグ列が本当に正解であるとみなしてよいかを判定する.タグ列の確からしさを判定するための手がかりが必要となるので,ここではシードとなる固有表現リストを準備し,表記と対応する固有表現タイプを記載しておく.このリストは,人手で必要な固有表現を登録しても良いし,辞書のような外部DBを利用して自動的に構築しても良い.もし同じ固有表現がステップ[\ref{step-longest-match}]で選択されたタグ列および固有表現リストに存在していれば,このタグ列は正解であると判断されて正解データとして抽出される.そして,このようにして抽出されたデータを初期正解データに追加し,モデルを再学習する.以上のようにUpdateNERでは,シードを与えるだけで学習データの収集・構築を実行できるため,日々増大する固有表現にモデルを追随させることが可能となる枠組みを備えている.\subsection{評価実験}UpdateNERで1週間分のブログテキストからどの程度効果的にモデル更新ができるか評価した.表\ref{tbl-update-corpus}に実験でのデータ内訳を示す.モデルの性能評価を行う評価データは2006年12月のブログを利用する.また,ベースモデルの学習に利用する初期正解データは評価データより半年以上古いものである.そのため,評価データにはベースモデルでは未知の固有表現が存在することが予想される.評価データと同時期の2006年12月から1週間分のブログを収集して追加平文データとし,ここからシードを使ってブートストラップ的に正解データを収集する.なお,評価データのうち,追加平文データと重複するものは予め削除してある.\begin{table}[b]\caption{UpdateNER評価実験でのデータ内訳}\label{tbl-update-corpus}\input{02table05.txt}\end{table}リジェクターの閾値を0.5に設定し,追加平文データから2位までのタググラフを含む文を選別した.シードとなる固有表現リストは日本語Wikipediaのエントリから自動的に収集した.Wikipediaには,世間で注目される人や固有物が次々とエントリに登場するため,話題語や新語を獲得する上では貴重な言語資源であると言える.本実験では,Wikipediaの記事タイトルを表記とし,固有表現タイプは各記事のカテゴリー情報から予め設定したルールにより自動的に推定した.最終的に104,296エントリの固有表現リストを得た.UpdateNERではこのシードを利用して,ブログ記事からシードの固有表現を含むタグ列を自動的に探索する.もし同じ固有表現を発見したら,そのタグ列を正解データとして抽出する.このようにして自動修正したデータを初期正解データに追加し,モデルの再学習を行う.なお,タググラフ探索時には,5.1節で述べた最長固有表現列を採用したが,異なるタイプの固有表現列に展開可能な場合は,複数の候補を別の文として扱い,追加データとした.今回,比較のために,シードそのものの効果を調査した.ここでは,シードと同じ単語列を文中に発見したら必ず固有表現と認識するような固有表現抽出システムを想定する.なお他の単語列の部分はベースモデルに基づいて確率的に固有表現を抽出する.このシステムは,ベースモデルの他に,ユーザが固有表現として認識したいリストをユーザ辞書(シード)として装備したシステムと捉えることができるため,以後,ユーザ辞書システム(userdic.)と呼ぶ.更新後のモデルの精度を再現率(rec.)と適合率(prec.)で評価した.\subsection{結果}実験の結果,のべ2,100文が追加データとして抽出された.このデータのうち,6,125タグが誤りと推定されたリジェクトタグで,その中で2,038個は信頼度2位のタグが採用された.タググラフ付きデータが73,563文あったことを考えると,得られた文数は少ない.表\ref{tbl-update-results}に,人名(PSN),地名(LOC),組織名(ORG),固有物名(ART)での解析精度について,ベースモデル,ユーザ辞書システム(userdic.),UpdateNERの結果をそれぞれ示す.\begin{table}[b]\caption{解析精度}\label{tbl-update-results}\input{02table06.txt}\end{table}シードをユーザ辞書として扱う場合,再現率は向上するが,適合率は殆ど変化しないか,むしろARTでは0.667から0.620へと低下している.これはユーザ辞書を単に追加するだけでは固有表現抽出システムの性能を向上するには十分ではないことを示唆している.ユーザ辞書の枠組みでは,周囲のコンテキストを利用せず単に同一の単語列(表記)を発見すれば一意に固有表現と認定してしまうため,過剰に固有表現を抽出する危険があるからである.一方,UpdateNERでは再現率と適合率ともに向上している.例えば,ARTでは再現率が0.321から0.370,適合率が0.667から0.698へと向上している.この結果から,シードに存在する固有表現だけでなく,その固有表現の周囲の文全体のタグ列の情報がモデルの再学習には必須であると解釈できる.UpdateNERでは,シードの固有表現が出現する文全体でのタグ列,即ち,固有表現とそのコンテキストのうち,有望で確からしいものを自動的に発見して抽出すると言う点で優れている.シードを準備するには多少の人手コストが必要ではあるが,そのコストは正解データそのものを作成するコストと比較すれば極めて小さい.そのため,このUpdateNERの学習スキームは,実際に固有表現抽出システムを運用する場面においては学習コストを抑える1つの有望な手法であると考える.表\ref{tbl-update-results}で示す通り,ユーザ辞書システムもUpdateNERもORGに対しては効果が見られなかった.これはシードに含まれる固有表現の分布によるものと考えられる.Wikipediaから自動作成したシードでは,PSNの固有表現が74\%と最も多かった.一方ORGはわずか11\%しか存在せず,UpdateNERではORGについての正解データを抽出する機会が十分になかったものと考えられる.また,同じ表記でもORGとPSNの曖昧性が生じるケースはもともと多いため,PSNが支配的なシードを利用したUpdateNERではORGをPSNに過剰に学習してしまっている可能性もある.今後,シードの分布とその学習効果への影響は検討を進めたい.なお,UpdateNERでは,初期正解データへの追加データには誤りが含まれる可能性があることを指摘しておく.実験では,追加したデータにどの程度の誤りが含まれていたかは調査できていない.ただし,第\ref{sec-active-learning}章の実験では誤りタグを含むデータを追加して再学習することは精度を若干低下させることが示されていることと,本実験において精度の低下があまり見られないことを考え合わせると,本手法で追加するデータには,モデルの性能に悪影響を与えるような誤りはほとんど含まれないと推察される.\subsection{考察}従来の機械学習の手法と比較して,UpdateNERの一番の特徴は1位タグが信頼できない時に2位タグまで考慮する点にある.これにより特に固有表現抽出タスクのようにベースモデルではOタグであると認識されたとき,次点の候補が何であるかを考慮することが可能となった.しかしUpdateNERには,2つの大きな制約がある.1つは2位タグまでに正解が存在しなければ自動的に正解データとして抽出することができない,という点である.もう1つはその固有表現がシードにも存在していなければならない,という点である.これらの2つの制約があるため,UpdateNERが自動的に収集・修正できる正解データの範囲は狭いと考えられる.この弱点を克服するには,実運用にてUpdateNERとタグ単位でのデータセレクションによる能動学習を組み合わせる手法が有望であると考えている.能動学習の場合,2位までに正解が存在しなければならないという制約はないため,単純に解析誤りを人手で優先的に修正して学習対象とすることが可能である.即ち,能動学習ではベースモデルが解析誤りをするデータ全般を学習対象とすることとなり,その学習範囲はUpdateNERよりも広い.そのため,能動学習ではベースモデルの精度を底上げするような学習に向いていると考えられる.一方,UpdateNERは日々増大する膨大なテキストから半自動で正解データを収集できるという利点があり,新語への追随学習には向いていると言える.そこで,例えば,短期的にはUpdateNERで毎週モデルの新語追随学習を実行し,中期的には1ヵ月或いは半年といった間隔で能動学習を行ってベースモデルの底上げをする,というような運用形態が考えられる.今後,実際のシステム運用上での本手法の効果について,評価を実施したい.
\section{関連研究}
\label{sec-related-works}能動学習は固有表現抽出タスクへの適応\cite{shen-EtAl:2004:ACL,laws-schutze:2008:PAPERS}に限らず,様々な自然言語処理タスクへの適応が研究されており,品詞タグ付け\cite{argamonengelson99committeebased},テキスト分類\cite{Lewis94heterogeneousuncertainty},構文解析\cite{Hwa:ActiveLearning2000},単語選択での曖昧性解消\cite{banko_ACL_2001}など数多くの関連研究がある.いずれの場合も信頼度や情報量といった何かしらの指標に基づいて学習効果の高いデータを選択することが重要であり,その指標の算出やデータセレクションの単位は基本的に文,もしくは一定の語数以上の単語列であった.今回我々が提案する能動学習では,モデル出力の信頼度を指標とするが,その算出単位は文単位ではなく,タグ単位である点が従来研究とは異なる.更にデータセレクションも文単位ではなく,タグ単位でリジェクト/アクセプトを決定し,リジェクトタグのみを修正箇所対象として絞っているため,更なる学習コストの削減に繋がった.なお,\cite{tomanek-hahn:2009:ACLIJCNLP}では,本稿と同様にタグ単位の信頼度に基づいた能動学習を英語の固有表現抽出タスクで評価しており,本稿と同程度のコスト削減効果を報告している.今回,我々は更にタグ単位の信頼度を利用して半自動で誤り修正を行うUpdateNERの提案および評価を実施した点が新しい.一方,特に機械学習の分野において,正解データだけでなく膨大な量のプレーンテキストを利用する半教師あり学習の研究も進められている.自然言語処理タスクでは,語義曖昧性解消\cite{Yarowsky:WSD1995},テキスト分類\cite{Fujino:SemiSupervised2008},チャンキング・固有表現抽出\cite{suzuki-isozaki:2008:ACLMain}などへも適応されている.特に近年は,GigaWord単位のプレーンテキストも入手可能になってきたため,このデータを正解データと組み合わせてモデル学習することにより従来技術の性能限界を超える可能性が示唆されている.ただし,今回我々がターゲットとしているのは,日々語彙や話題の変化が激しいブログなどのCGMドメインにおいて,モデルを低コストで再学習するタスクであり,このような状況を反映するようなGigaWord単位のプレーンテキストを入手するのは困難であると考えられる.そのため,膨大な量のプレーンテキストを利用する半教師あり学習をそのまま適応することは現実的ではない.プレーンテキストを利用するという点で半教師あり学習と類似する手法にブートストラップ学習の研究がある\cite{Etzioni2005,pantel-pennacchiotti:2006:COLACL}.これは,少量のシードを準備して,シードと同じカテゴリに属する新しいインスタンスをプレーンテキストから自動獲得する学習法である.本稿のUpdateNERはシードを準備するだけで,データセレクションとその修正・抽出までを自動的に実行するブートストラップ学習とみなすことができる.しかし,従来のブートストラップは新しいインスタンスを獲得して辞書(シソーラス)を構築することを目的としているのに対し,本手法では,固有表現単体ではなく,固有表現を含むタグ列,即ちコンテキスト全体を獲得している点が異なる.モデルの再学習のためには固有表現辞書だけではなく,固有表現を含むコンテキストそのものが必要である.UpdateNERではブートストラップ学習を適用して最終的には教師あり学習の枠組みでモデル更新を実現するという点が新しい.この学習コストはシードを準備する部分のみのため,能動学習と比較しても極めて低く抑えられるという利点もあり,本手法は有効である.
\section{おわりに}
\label{sec-conclusion}本稿では,タグ単位の事後確率から算出したタグ信頼度を利用してモデルの学習コストを削減する2つの手法を提案した.本手法ではタグ信頼度から解析誤りタグを自動的に判定することが可能である.そしてタグ単位でデータセレクションを行うことでベースモデルが学習対象とすべき箇所を効果的に発見でき,かつ,人手のコストを解析誤り箇所のみに集中させることが可能となった.まず始めに,本手法を能動学習に適応して評価した結果,従来の文単位でデータセレクション・修正する能動学習と比較して,学習コストを1/3まで低減できた.能動学習はベースモデルが解析誤りするデータ全般を学習対象とできるため,モデル全体の精度向上を狙った学習に効果があると考えられる.次に,本手法を利用して半自動自己更新型固有表現抽出(UpdateNER)を提案した.この手法はシードと2位までのタグ候補を利用してブートストラップ的に正解データを自動生成するものである.この手法では,予めシードを準備するだけで膨大なテキストから正解データを自動的に収集・構築することが可能となった.この学習では,日々増大する膨大なテキストを利用してモデルを新語追随させることを狙った学習に効果がある.能動学習とUpdateNERを組み合わせることでモデル更新の学習コストを抑えた固有表現抽出システムの運用が可能となる.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Argamon-Engelson\BBA\Dagan}{Argamon-Engelson\BBA\Dagan}{1999}]{argamonengelson99committeebased}Argamon-Engelson,S.\BBACOMMA\\BBA\Dagan,I.\BBOP1999\BBCP.\newblock\BBOQCommittee-basedsampleselectionforprobabilisticclassifiers.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf11},\mbox{\BPGS\335--360}.\bibitem[\protect\BCAY{Banko\BBA\Brill}{Banko\BBA\Brill}{2001}]{banko_ACL_2001}Banko,M.\BBACOMMA\\BBA\Brill,E.\BBOP2001\BBCP.\newblock\BBOQScalingtoVeryVeryLargeCorporaforNaturalLanguageDisambiguation.\BBCQ\\newblockIn{\BemProceedingsof39thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\26--33}.\bibitem[\protect\BCAY{Etzioni,Cafarella,Downey,Popescu,Shaked,Soderland,Weld,\BBA\Yates}{Etzioniet~al.}{2005}]{Etzioni2005}Etzioni,O.,Cafarella,M.,Downey,D.,Popescu,A.-M.,Shaked,T.,Soderland,S.,Weld,D.~S.,\BBA\Yates,A.\BBOP2005\BBCP.\newblock\BBOQUnsupervisednamed-entityextractionfromtheweb:anexperimentalstudy.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf165}(1),\mbox{\BPGS\91--134}.\bibitem[\protect\BCAY{Fujino,Ueda,\BBA\Saito}{Fujinoet~al.}{2008}]{Fujino:SemiSupervised2008}Fujino,A.,Ueda,N.,\BBA\Saito,K.\BBOP2008\BBCP.\newblock\BBOQSemisupervisedlearningforahybridgenerative/discriminativeclassifierbasedonthemaximumentropyprinciple.\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence(TPAMI)},{\Bbf30}(3),\mbox{\BPGS\424--437}.\bibitem[\protect\BCAY{Hwa}{Hwa}{2000}]{Hwa:ActiveLearning2000}Hwa,R.\BBOP2000\BBCP.\newblock\BBOQSampleSelectionforStatisticalGrammarInduction.\BBCQ\\newblockIn{\BemProceedings5${}^{th}$EMNLP/VLC},\mbox{\BPGS\45--52}.\bibitem[\protect\BCAY{{IREXCommittee}}{{IREXCommittee}}{1999}]{IREX1999}{IREXCommittee}\BBOP1999\BBCP.\newblock\BBOQTheIREXworkshop.\BBCQ\http://nlp.cs.nyu.edu/irex/.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:CRF2001}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning(ICML-2001)},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{Laws\BBA\Sch\"{u}tze}{Laws\BBA\Sch\"{u}tze}{2008}]{laws-schutze:2008:PAPERS}Laws,F.\BBACOMMA\\BBA\Sch\"{u}tze,H.\BBOP2008\BBCP.\newblock\BBOQStoppingCriteriaforActiveLearningofNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(Coling2008)},\mbox{\BPGS\465--472},Manchester,UK.Coling2008OrganizingCommittee.\bibitem[\protect\BCAY{Lewis\BBA\Catlett}{Lewis\BBA\Catlett}{1994}]{Lewis94heterogeneousuncertainty}Lewis,D.~D.\BBACOMMA\\BBA\Catlett,J.\BBOP1994\BBCP.\newblock\BBOQHeterogeneousUncertaintySamplingforSupervisedLearning.\BBCQ\\newblockIn{\BemInProceedingsoftheEleventhInternationalConferenceonMachineLearning},\mbox{\BPGS\148--156}.MorganKaufmann.\bibitem[\protect\BCAY{Manning\BBA\Sch\"{u}tze}{Manning\BBA\Sch\"{u}tze}{1999}]{FSNLP1999}Manning,C.~D.\BBACOMMA\\BBA\Sch\"{u}tze,H.\BBOP1999\BBCP.\newblock{\BemFoundationsofStatisticalNaturalLanguageProcessing}.\newblockTheMITPress,Cambridge,Massachusetts.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel-pennacchiotti:2006:COLACL}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120},Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sang\BBA\Veenstra}{Sang\BBA\Veenstra}{1999}]{Sang:IOB1999}Sang,E.F.T.~K.\BBACOMMA\\BBA\Veenstra,J.\BBOP1999\BBCP.\newblock\BBOQRepresentingTextChunks.\BBCQ\\newblockIn{\BemProceedingsoftheNinthConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL'99)},\mbox{\BPGS\173--179},Bergen,Norway.\bibitem[\protect\BCAY{Shen,Zhang,Su,Zhou,\BBA\Tan}{Shenet~al.}{2004}]{shen-EtAl:2004:ACL}Shen,D.,Zhang,J.,Su,J.,Zhou,G.,\BBA\Tan,C.-L.\BBOP2004\BBCP.\newblock\BBOQMulti-Criteria-basedActiveLearningforNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe42ndMeetingoftheAssociationforComputationalLinguistics(ACL'04),MainVolume},\mbox{\BPGS\589--596},Barcelona,Spain.\bibitem[\protect\BCAY{Suzuki\BBA\Isozaki}{Suzuki\BBA\Isozaki}{2008}]{suzuki-isozaki:2008:ACLMain}Suzuki,J.\BBACOMMA\\BBA\Isozaki,H.\BBOP2008\BBCP.\newblock\BBOQSemi-SupervisedSequentialLabelingandSegmentationUsingGiga-WordScaleUnlabeledData.\BBCQ\\newblockIn{\BemProceedingsofACL-08:HLT},\mbox{\BPGS\665--673},Columbus,Ohio.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Suzuki,McDermott,\BBA\Isozaki}{Suzukiet~al.}{2006}]{suzuki-mcdermott-isozaki:2006:COLACL}Suzuki,J.,McDermott,E.,\BBA\Isozaki,H.\BBOP2006\BBCP.\newblock\BBOQTrainingConditionalRandomFieldswithMultivariateEvaluationMeasures.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\217--224},Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Tomanek\BBA\Hahn}{Tomanek\BBA\Hahn}{2009}]{tomanek-hahn:2009:ACLIJCNLP}Tomanek,K.\BBACOMMA\\BBA\Hahn,U.\BBOP2009\BBCP.\newblock\BBOQSemi-SupervisedActiveLearningforSequenceLabeling.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\1039--1047},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky:WSD1995}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL1995)},\mbox{\BPGS\189--196}.\end{thebibliography}\begin{biography}\bioauthor{齋藤邦子}{1996年東京大学理学部化学科卒業.1998年同大学院修士課程修了.同年日本電信電話株式会社入社.現在,NTTサイバースペース研究所研究主任.自然言語処理の研究・開発に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.博士(工学).同年日本電信電話株式会社入社.2000年〜2006年ATR音声言語コミュニケーション研究所.2006年よりNTTサイバースペース研究所主任研究員.現在に至る.主として自然言語処理の研究・開発に従事.電子情報通信学会,情報処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V19N04-02
|
\section{はじめに}
近年,作文技術の習熟度を評定する目的で文章を自動的に評価する技術に対して,需要が高まっている.大学入試や就職試験等の大規模な学力試験において課される小論文試験の採点や,e-learning等の電子的な学習システムにおいて学習者の作文技術についての能力を測るために出題される記述式テストの採点が,例として挙げられる.このような,多数の文章を同一の基準で迅速に評価する必要があるタスクにおいて,対象となる全ての文章を人手で評価することは,多くの場合困難を伴う.第一に,評価に要する時間と労力が問題となる.記述式回答の評価は,選択式回答の評価に比べて,評価者が捉えるべき情報と考慮すべき基準が多く,それらの情報や基準自体も複雑である.第二に,評価基準の安定性が問題となる.文章の良悪を決定する基準は,評価者個々において完全に固定的なものではない.評価する順序による系列的効果や,ある要素についての評価が他要素の特徴に歪められるハロー効果\cite{NisbettWilson1977}の影響も考えられる.また,このような状況において他者による評価基準に自基準を合わせる場合,少なくとも他者との基準の差異についての定量的な情報がない限り,基準の統合は困難といえる.これらの問題の存在は,「個々の評価者が着目する言語的要素」や「評点決定に寄与する各要素の配分(重み)」に相違が生じる要因となり得る.結果的に,それらの相違が評価者間での評点の差異として表れることも考えられる.これらに対し,文章評価の自動化は,評価の公平性を損なう要因となる問題の解消に役立つと考えられる.また,評価者が着目する言語的要素やその配分の定量的な提示を行うことで,正確かつ円滑な評価者間の基準統合が可能になると考えられる.本稿では,単独の評価者により対象文章に与えられる総合的な評点と,国語教育上扱われる言語的要素についての多種の特徴量から,任意の試験設定における個人の評価者の文章評価モデルを推定する手法について述べる.また,個人の評価者の評価モデルにおいて評点決定に寄与する要素毎の配分(重み)について,他の評価者の評価モデルとの間で定量的に比較可能な形で提示する手法について述べる.ただし,複数の評価者の評価モデルによる評価から最終的な評価判断を導き出すことについては扱わない.提案手法は,文章を採点する行為を順序付き多クラス分類として捉え,SupportVectorRegression(SVR)\cite{SmolaSch1998}を用いた回帰手法により,評価者が付けうる評点を予測する.SVRの教師データには,表層や使用語彙,構文,文章構造などの特徴に関する様々な素性を用意する.これらの素性には,日本の国語科教育において扱われる作文の良悪基準に関わる素性が多く含まれる.なおかつ,全ての素性は,評価対象文章で議論されるトピック固有のものは含まない汎用的なものである.本手法は,国語教育\footnote{本稿では便宜上,小学校,中学校,高等学校における作文教育を国語教育と呼ぶこととする.}上扱われる言語的要素をSVRの素性に用いて文章評価をモデル化し,SVRの回帰係数の差として評価者間での評価基準の個人差を明示できるという点に,新規性を持つ.国語教育上扱われる要素に基づいて文章評価モデルを説明することができるため,教育指導を行う立場にある評価者が,普段の指導で参照する要素を介して容易に文章評価モデルを認識,比較することができる.作文技術についてのあらゆる能力評価に対応可能であるよう,素性を網羅的に設定するが,「文章を意味面で適切に記述する能力」の評価に関しては扱わない.ここでいう意味面での適切さとは,文章中の文が示す個々の内容の正しさを指す.例えば,「月は西から昇る」のような文が示す内容が正しいか正しくないかについての判断は,本研究では扱わない.
\section{関連研究}
自動的に文章の評価を行うためのモデルを得る先行研究には様々なアプローチが存在する.一つは,評価者による文章のスコアをラベル,文章上の素性を事例として,教師付き学習により単一のスコア推定モデルを求めるものである\cite{BursteinEtAl1998,BursteinWolska2003,Elliot2003,Ellis1966,Ellis1994,LandauerLahamFoltz2003a,LandauerLahamFoltz2003b,FoltzLahamLandauer1999,AttaliPowers2008,AttaliBurstein2006}.もう一方は,模範と考えられる文章上の素性値を基準として,その基準との距離を用いてスコア推定モデルを求めるものである\cite{IshiokaKameda2006,IshiokaKameda2003,Ishioka2008b}.e-rater\cite{AttaliBurstein2006}は,12の固定的な素性\footnote{変数選択を行うことがなく,常に12の素性を説明変数とする.}を説明変数,評価者によるスコアを従属変数として重回帰分析を行い,得られた回帰式をスコア推定モデルとする.しかし,この手法では,説明変数として用いられる特徴量が何の変量であるかが抽象的であり,評価者の評価基準の違いを十分に表現できないと考えられる.例えば,e-raterでは「総ワード数に対する語の使用法についてのエラーの割合」や「総ワード数に対する文法エラーの割合」といった特徴量が説明変数として扱われるが,「語の使用法」や「文法エラー」が具体的に示す言語現象が不明瞭である.したがって,評価基準の個人差をモデル式の回帰係数の差として示すことはできても,その差が何を意味するかについての具体性が乏しく,評価者にとって明確な差として捉えづらいと考えられる.また,モデルが重回帰分析であることから多重共線性が問題となり,扱う特徴量を詳細化する上では,各特徴量の独立性が厳密に保たれる必要がある.この点で,提案手法は,多重共線性の影響が少ない回帰的手法(SVR)を用いており,素性間の関連性を殆ど考慮することなく,多種の詳細な言語現象についての素性を用いて,評価基準をモデル化することができる.Jess\cite{IshiokaKameda2006}は,あらかじめ三種の観点(修辞,論理構成,内容)に沿って模範となる文章(新聞の社説やコラム)における種々の素性値の分布を獲得し,理想的な分布とする.評価対象文章の各素性値が模範文章における素性値分布の四分位数範囲の1.5倍を超える場合,外れ値とみなしてそれぞれについて評点を減ずる.しかしこの手法では,模範文章の選択の妥当性について,評価が行われる背景(試験の目的等)毎に検証が必要である.その検証自体も,実用的に難しいと考えられる.また,評価基準をある基準に固定することが前提とされているため,評価者の基準の個人差を明示する提案手法とは目的が異なる手法であるといえる.なお,これらの関連研究に関しては石岡によるサーベイ\cite{Ishioka2008a}が詳しい.提案手法は,多種の詳細な言語現象についての変量を教師付き学習の素性として用いることで,「詳細な言語的要素に視座を置いた,評価基準の個人差の明示」を実現するスコア推定手法である.
\section{評価基準の共通性に関する調査}
\begin{figure}[b]\begin{center}\includegraphics{19-4ia2f1.eps}\end{center}\caption{各評価者の評点当たりの事例数($x$軸は評点,$y$軸は小論文の事例数)}\label{fig:1}\end{figure}図\ref{fig:1},表\ref{table:Kappa},表\ref{table:AveAndSD}に同一の文章群に対する複数人の手による評価結果の例を示す.これは宇佐美の小論文評価に関する研究\cite{Usami2011}の中で示された,高校生による584編の小論文データとそれを4人の国語教育専門家が評価した結果のデータから,評点当たりの事例数とその分布や一致具合をまとめたものである.評価は特定の観点に沿ったものではなく総合的なもので,10段階の絶対評価により施される.評点は10点が最高点,1点が最低点である.\begin{table}[t]\caption{評価者間での評点の$\kappa$係数}\label{table:Kappa}\input{02table01.txt}\end{table}\begin{table}[t]\caption{各評価者の評点分布の平均と標準偏差}\label{table:AveAndSD}\input{02table02.txt}\end{table}Krippendorffの考察\cite{Krippendorff1980}によれば,あるデータ間の$\kappa$係数が0.7未満の場合,両データの関連を示すことは困難であることが多いとされる.表\ref{table:Kappa}において評点の$\kappa$係数は全評価者間で0.7を下回っている.また,表\ref{table:AveAndSD}と図\ref{fig:1}より,評点の分布にも異なりが認められる.このことから,本例においては評価者の評価基準が共通のものであるとはいい難い.以上の結果から本研究では,全評価者の評点をまとめた点数ではなく,個々の評価者の評点を再現する評価モデルを推定する方針をとり,前述した10段階で評価する小論文試験の設定に沿って評価行為を模倣する.
\section{評価モデルの学習}
\subsection{自動評価の定式化と学習の手法}文章の自動評価は,入力となる文章についての評点が出力となる.この評点は,順序関係を持った個別のクラスとみなすことができる.そこで本研究では,自動評価を,全順序関係にある多クラスに分類されたスコアを回帰的に推定する問題として定式化し,SupportVectorRegression(SVR)を用いて評点の予測を行う.SVRを用いて全順序関係にある多クラスに分類されたスコアを回帰的に推定する先行研究には,岡野原らの研究\cite{OkanoharaTsujii2007}がある.岡野原らは,評判分類タスクを順序付き多クラス分類問題として定式化した上で,レビューが評価対象に与える評価の度合を二極指標(実数値)で表す手法を提案している.また,SVRの回帰係数の絶対値がモデル上での重要さに相関することを用いて,レビュー記事の評価決定に重要と思われる表現を導出する手法を提案している.この中で岡野原らは,(順序関係を考慮しない)多クラス分類問題を解く分類器であるpairwiseSupportVectorMachine(pSVM)\cite{Kresel1999}とSVRの間で,順序付き多クラス分類問題に対する適合性を比較している.その結果,SVRがより高い精度で分類を行うことが示されている.pSVMは,予測クラスを間違えた際のペナルティに全クラス間で差が無いため,SVRに比べて分類モデルに大きな誤差を含む可能性が高いと思われる.\subsection{システムで採用した素性}評価者は,様々な言語的要素について文章を捉えて評価を行った上で,その判断結果を評点として数値化する.本研究ではこの過程を国語教育で参照される言語的要素を素性にとってモデル化する.学校教育上考えられる様々な試験を想定して,それらで参照される言語的要素をマージし,素性として扱う.評価対象文章から自動的にそれぞれの素性値を算出する.得られる数値は,SVRの素性として評価モデルの訓練に用いられる.以下,提案手法において素性として用いる言語的要素を,説明の分かり易さのためカテゴリ毎に列挙した上で,一部の素性についてその詳細を述べる.本研究において独自に設定した素性については,素性名の末尾に(*)を付す.\subsubsection{カテゴリ「表層」の素性群}文字数や文数,字種などの表層的特徴に関する素性を表\ref{table:FV}\footnote{FV8-13は,当該文字種の文字数を,総文字数で割った値とする.}に列挙し,特にFV2について説明する.この群の素性は,主に,文章の形式面の妥当性についての評価に役立つ.国語教育上扱われる事項に関連する素性として,FV2は「目的や意図に応じて簡単に書いたり詳しく書いたりする」\cite{MonbuKagakuSho2008}という事項に,FV10は「習得した漢字を使用して記述する」という事項にそれぞれ関連する.\begin{table}[b]\caption{カテゴリ「表層」の素性群}\label{table:FV}\input{02table03.txt}\vspace{-1\Cvs}\end{table}\begin{indent1zw}{\textbf{\underline{FV2}}}:文字数制限には,(I)「〜字以上」,(II)「〜字以内」,(III)「〜字程度」の3種類が存在する.制限(指定)文字数を$r$,評価対象文章の文字数を$n$としたとき,下記のように達成度$d$を算出することにする.ただし,(I)(II)については制限が守られなかった場合,達成度を0とする.\begin{align*}\mbox{(I)}:\&d=1\quad\mbox{(II)}:d=n/r\\\mbox{(III)}:\&d=\begin{cases}\frac{n}{r},&n\leqr\\\frac{2r-n}{r},&n>r\end{cases}\mbox{(バートレッド窓関数の変形)}\end{align*}{\textbf{\underline{FV7}}}:文は長くなるほど,内部の係り受け関係に曖昧さを生じやすいとされており\cite{Morioka1963},これを用いる.\end{indent1zw}\subsubsection{カテゴリ「語」の素性群}単語\footnote{本研究では,形態素解析による出力単位を単語として扱う.}(特に自立語)の用法や品詞,記法に関する素性を表\ref{table:FW}\footnote{これらの素性の素性値は,当該語の延べ数を全自立語の数で割った値とする.このとき複合名詞は一つの自立語として数える.}に列挙する.国語教育上扱われる事項に関連する素性として,FW3,FW4,FW5は「表現の効果などについて確かめたり工夫したりすること」\cite{MonbuKagakuSho2008}という事項に,FW10は「文章内で数字の表記法を統一する」という事項にそれぞれ関連する.\begin{indent1zw}{\textbf{\underline{FW2}}}:自立語の異なり数(タイプ数)を延べ数(トークン数)で割った値とする.ただし用言については活用形を計数の考慮に入れず,異なり数,延べ数ともにその用言の原形を数える.{\textbf{\underline{FW4}}}:オノマトペは副詞に分類される.しかし,論説文におけるオノマトペの使用は特に着目されることが多いと考えられるため,副詞とは別途に扱う.\end{indent1zw}\begin{table}[b]\caption{カテゴリ「語」の素性}\label{table:FW}\input{02table04.txt}\end{table}\subsubsection{カテゴリ「文体」の素性群}文末の形式や文内で用いられる文体等に関する素性を表\ref{table:FF}に列挙する.国語教育上扱われる事項に関連する素性として,FF1,FF9は「表現の効果などについて確かめたり工夫したりすること」\cite{MonbuKagakuSho2008}という事項に,FF7は「文章の敬体と常体の違いに注意しながら書くこと」\cite{MonbuKagakuSho2008}という事項に,FF10は「話し言葉と書き言葉との違いに気付くこと」\cite{MonbuKagakuSho2008}という事項にそれぞれ関連する.\begin{indent1zw}{\textbf{\underline{FF4}}}:述語が“名詞句+断定の助動詞(「だ」「である」「です」等)”で構成される文の出現数を,文の総数で割った値とする.{\textbf{\underline{FF7}}}:文中の助動詞に着目し,文体が一貫している場合は0,混用が認められる場合は1を素性値とする.{\textbf{\underline{FF8}}}:式$-\log(n/N)$により算出する.ただし,$n$は文の最終文節の表記異なり数,$N$は文の総数とする.\end{indent1zw}\begin{table}[b]\caption{カテゴリ「文体」の素性}\label{table:FF}\input{02table05.txt}\end{table}\begin{table}[b]\caption{カテゴリ「係り受け」の素性群}\label{table:FD}\input{02table06.txt}\end{table}\subsubsection{カテゴリ「係り受け」の素性群}同一表層格の多用や文節間の修飾関係の複雑さを捉える素性を表\ref{table:FD}に列挙する.これらの素性は,主に係り受けの適切さに関わる素性である.国語教育上扱われる事項に関連する素性として,FD1〜4,FD16は「一文の意味が明確になるように語と語の続き方を考える」\cite{MonbuKagakuSho2008}という事項,FD5〜8は「文の中における主語と述語との関係に注意すること」\cite{MonbuKagakuSho2008}という事項にそれぞれ関連する.\begin{indent1zw}\textbf{\underline{\mbox{FD6,FD7}}}:格助詞「ガ」,係助詞「ハ」を付属語に持つ文節が文中に出現する回数の最大値を素性値とする.文中で同じ助詞を繰り返し使用することで,文の表す内容が不明瞭になる場合がある\cite{Iwabuchi1979}.例:英語の早期教育\underline{が}もたらす効果\underline{が}測れないうちに実行に移すこと\underline{が}問題であることは,言うまでもない.\textbf{\underline{\mbox{FD14,FD15}}}:一文中における名詞文節の出現回数を用言の出現回数で割った値を全文について平均した値,またその分散を素性値とする.\textbf{\underline{FD16}}:一文中で,用言の連用形や接続助詞等によって文が途中で中止される回数の最大値を素性値とする.中止法の多用は,係り受け関係を曖昧にする原因となりうる\cite{Iwabuchi1979}.\end{indent1zw}\subsubsection{カテゴリ「文章のまとまり」の素性群}文章のまとまりに関する性質として,「テキスト一貫性」\cite{TakuboEtc2004}と「テキスト結束性」\cite{HallidayHasan1976}が挙げられる.テキスト一貫性は,概念や事象の間の意味的なつながりの良さを指す.テキスト一貫性は,隣り合う二文間における一貫性を示す「局所的な一貫性」と,文章全体での話題遷移の一貫性を示す「大域的な一貫性」に区別できる.一方テキスト結束性は,意味的なつながりではなく,文法的なつながりの良さを指す.Barzilayら\cite{BarzilayLapata2008}は,局所的な一貫性のモデルとして「entitygridモデル」{\kern-0.5zw}\footnote{文を行,文章中の語句要素を列,文における語句要素の構文役割を成分とする行列を用いて,語句要素の分布パターンを表現するモデル.行列から構文役割の遷移確率と構文役割の出現確率を成分とするベクトルを導出し,局所的一貫性の評価等に用いる.表\ref{table:FC}のFC1〜FC120は,構文役割についての2-gram生起確率に対応する.}を提案している.横野ら\cite{YokonoOkumura2010}は,結束性に寄与する要素\footnote{Hallidayら\cite{HallidayHasan1976}は,参照,接続,語彙的結束性,省略を挙げている.}をentitygridモデルに組み込むことで,結束性と局所的一貫性を同時に捉えるモデルを提案している.\begin{table}[b]\caption{カテゴリ「文章のまとまり」の素性群}\label{table:FC}\input{02table07.txt}\end{table}横野らは,結束性を考慮する目的で既存手法に下記の手法を組み込んでいる.\begin{enumerate}\item[i.]語句要素の文間遷移確率の計算に文間の接続関係の考慮を加え,接続関係の種類別に遷移確率を計算する.\item[ii.]意味的な類似性に基づいて語句要素のクラスタリングを行う.\item[iii.]参照表現が正しく機能している割合を素性として導入する.\end{enumerate}また,Barzilayらのentitygridにおいて扱われる構文役割は4種類(S:主語,O:目的語,X:その他,---:出現せず)であるが,横野らは構文役割の体系を日本語に特化する目的で,2種類の構文役割(H:主題,R:述部要素)を加えている.本研究では,文章のまとまりについての特徴を捉える目的に,横野らのモデルに基づいた素性を用いる(表\ref{table:FC}).ただし,FC122のみ筆者らが独自に設定する素性である.接続関係の分類・同定方法,語句要素が持つ構文役割の同定方法,参照表現が機能している割合の導出方法は,それぞれ横野らの方法に従う.類似性に基づいた語句要素のクラスタリングについては,EDR電子化辞書\cite{NihonDenshikaJishoKenkyujo2010}の日本語単語辞書内で同一の概念識別子を持つ語句要素を同じクラスタとして扱う.クラスタの持つ構文役割は,$\text{H}>\text{S}>\text{O}>\text{R}>\text{X}$という優先順位(cf.,\cite{WalkerIidaCote1994})に基づいて,クラスタ毎に一つの構文役割を決定する.また,考慮する遷移確率は文2-gramのみとする.国語教育上扱われる事項に関連する素性として,FC1〜121は「語と語や文と文との続き方に注意しながら,つながりのある文章を書くこと」\cite{MonbuKagakuSho2008}という事項,FC122は「自分の考えを明確に表現するため,文章全体の構成の効果を考えること」\cite{MonbuKagakuSho2008}という事項にそれぞれ関連する.\begin{indent1zw}{\textbf{\underline{FC122}}}:並列的に展開して述べる接続関係が文章中に存在する場合に1,存在しない場合に0を素性値とする.並列的な接続を明示する特定の表現(人手で設定)の有無により,同定する.\end{indent1zw}\begin{table}[b]\caption{結束性と局所的一貫性を同時に捉えるentitygridの例}\label{table:EntityGrid}\input{02table08.txt}\end{table}\begin{iindent1zw}以下に,FC1〜FC120の素性値の算出方法を示す.表\ref{table:EntityGrid}においてentitygridで表される文章は,文1と文2の間,文3と文4の間がそれぞれ論理的結合関係,文2と文3の間が多角的連続関係と捉えられている.語句要素1は文1で主題,文2で主語,文4でその他の構文役割として,語句要素2は文1と文3で目的語として捉えられている.このとき,FC1〜36の素性値は以下のようにして求める.2文間での構文役割の遷移パターンは,合計36通り(「HH」「HS」「HO」…「R-」「X-」「--」)ある.論理的結合関係で接続する2文間では,合計4カ所の遷移箇所のうち,「HS」「-X」の遷移が1回ずつ,「O-」の遷移が2回出現している.従って,FC1〜FC36の素性のうち,「HS」と「-X」の遷移確率を表す素性の値は0.25,「O-」の遷移確率を表す素性の値は0.5となる.その他の33個の素性の値は全て0となる.FC37〜72の素性値も同様にして求め,「S-」と「-O」の遷移確率を表す素性の値は0.5,その他の34個の素性の値は全て0となる.拡充的合成関係の接続関係は文章中に出現しないので,FC73〜FC108の素性値は全て0となる.FC109〜FC114,FC115〜FC120はそれぞれ,文章始端と文章終端にダミー要素(始端をB,終端をE)を持つとした時の遷移パターン「BH」{\kern-0.5zw}〜{\inhibitglue}「B-」,「HE」{\kern-0.5zw}〜{\inhibitglue}「-E」の出現確率をFC1〜FC108と同様に算出した結果を値とする.\end{iindent1zw}\subsubsection{カテゴリ「モダリティ」の素性群}松吉ら\cite{MatsuyoshiEtAl2010}は,情報発信者の主観的な態度(モダリティ)に真偽判断や価値判断などの情報を統合した「拡張モダリティ」を提案し,体系化している.拡張モダリティは主に「態度表明者」,「相対時」,「仮想」,「態度」,「真偽判断」,「価値判断」の6項目から成る(文献\cite{MatsuyoshiEtAl2011}を参考にした).このうち態度\footnote{言語学における「表現類型のモダリティ」\cite{Masuoka1991}に相当する.}と真偽判断について文の特徴を捉え,素性として扱う(表\ref{table:FM}).国語教育上扱われる事項に関連する素性として,FM1〜8,FM12は「事実と感想,意見などとを区別すること」\cite{MonbuKagakuSho2008}という事項にそれぞれ関連する.\begin{table}[b]\caption{カテゴリ「モダリティ」の素性群}\label{table:FM}\input{02table09.txt}\end{table}松吉らは態度を8種類に,真偽判断を9種類に分類している.この分類に基づいて,機能表現辞書つつじ\cite{MatsuyoshiEtAl2007}に助動詞型機能表現として収録される機能表現と,分類語彙表\cite{KokuritsuKokugoKenkyujo2004}に「精神および行為/心」として収録される用言を手がかりにしたルールベース手法で,文の態度,真偽判断について分類を行う.ただし,真偽判断については,肯否極性とアスペクトに関する区別をせずに判断の程度(強さ)のみを扱うこととし,断定,推量,判断程度不明の3種類を扱う.これら拡張モダリティ体系に準拠する素性(FM1〜FM11)は全て,当該拡張モダリティカテゴリに分類される文が出現する回数を文の総数で割った値とする.\begin{indent1zw}{\textbf{\underline{FM12}}}:最終文節で思考動詞,知覚・感覚動詞が用いられる文の出現回数を文の総数で割った値を素性値とする.思考動詞,知覚・感覚動詞であるか否かの判断は,分類語彙表\cite{KokuritsuKokugoKenkyujo2004}を典拠とする.\end{indent1zw}\subsubsection{カテゴリ「内容」の素性群}文章の内容(筆者により書かれた行動,出来事,状態)について,その正しさを意味面で判断することは,本研究の目的としない.その代わりに,与えられた論題に対して適合した語彙が使用されていることを捉えるための素性を用意する.論題に含まれる名詞と文章中の名詞が,EDR電子化辞書\cite{NihonDenshikaJishoKenkyujo2010}において同一の概念識別子を持つ,もしくは所属概念が直接の上位または下位関係にある場合,論題に適合する語彙として判断する.このように判断される語彙が文章中の全名詞中で占める割合を素性(FS1)とする.\subsection{評価モデルの構築とそのための素性値の正規化}SVRは,線形カーネルを使用して学習する場合,回帰係数$w$の成分値(以下,成分値)を参照することで,各素性がスコア推定モデルに寄与する度合を知ることができる.これにより,教師データにラベル(評点)をつけた評価者が,各素性に対して「どの程度の配分で評価していたか」,また「加点要素としたか減点要素としたか」を定量化することができる.前者は成分値の絶対値,後者は成分値の正負に着目することでそれぞれ明らかになる.この方法により個々の評価者の評価モデルにおいて重要な変量を明らかにする.これらの特徴を素性間で比較する目的で,下記の2通りの方法で素性値を正規化する.\begin{dingautolist}{192}\item$x_{regularized}=(x_{original}-minX)/(maxX-minX)$\item$x_{regularized}=(x_{original}-Q_{1})/(Q_{3}-Q_{1})$\end{dingautolist}$x_{original}$は任意の文章データにおける任意の素性の素性値,$X$は全教師データにおける任意の素性の素性値の集合,$Q_{1}$は集合$X$中の第1四分位値,$Q_{3}$は集合$X$中の第3四分位値である.\ding{"C0}は,全教師データ中の素性値が0から1の間に分布するように正規化する方法である.一方\ding{"C1}は,全教師データの四分位数範囲に位置する素性値が0から1の間に分布するように正規化する方法である.
\section{実験・考察}
\subsection{設定}提案手法の評価のために実験を行う.SVRの学習にはSVMlight\footnote{http://svmlight.joachim.org/}を用いる.\pagebreakまた,素性の抽出には形態素解析器MeCab\footnote{http://mecab.sourceforge.net/},係り受け解析器CaboCha\footnote{http://sourceforge.net/projects/cabocha/}を用いる\footnote{標準のIPA辞書のほか,我々が独自に拡張したユーザ辞書\cite{FujitaFujitaTamura2011}を用いている.}.教師データには第3章で用いた高校生による小論文を電子化したものを用いる.これらの小論文は,論題$\alpha$「小学校の授業における,英語の早期教育は必要であるか否かに対して意見を述べよ」,論題$\beta$「グラフと説明文を読み,日本人の子育ての態度に関してどのような特色が読み取れるかに関して述べよ」という2種類の論題に沿って書かれている.また,400字以内と800字以内の2種類の字数制限が存在する.事例は合計で584事例あり,論題と字数制限毎の内訳は表\ref{table:TrainingDataNum}に示す通りである.\begin{table}[b]\caption{教師データ事例数の内訳}\label{table:TrainingDataNum}\input{02table10.txt}\end{table}これらの584事例に対して4人の評価者が総合的につけた10段階の評点を,各教師データのラベルとする.ラベルとなる評点は,下記に示す線形変換を行うことで,評価者系列毎に評点分布の平均が0,分散が1になるよう正規化する.\[score_{i}'=\frac{score_{i}-\overline{score}}{\sqrt{\frac{1}{n}\sum^{n}_{i=1}{(score_{i}-\overline{score})}^{2}}}\]\subsection{実験}\noindent\textgt{実験1.評点推定の性能}\begin{iindent1zw}教師データを用いてSVRを構築し,各評価者がつけた評点とSVRによる評点推定結果の間の差について検討する.また,本手法とベースラインで評点推定性能を比較することで,素性設計の妥当性についても検証する.SVRによる評点推定の評価指標には平均二乗誤差(MeanSquareError)\footnote{$\frac{1}{n}\sum^{n}_{i=1}{(y_{i}-f_{i})}^2\quady_{i}$を評価者による評点,$f_{i}$をSVRにより推定される評点,$n$を事例数とする.}を用いる.また素性値の正規化に,4章で述べた2通り(\ding{"C0},\ding{"C1})の方法を適用し,それぞれを教師データに用いて構築したSVRのMSEを比較する.評点推定性能のベースラインには,本研究において独自に設定した素性を除いた素性のみでSVRを構築した場合のMSEを設定する.なお,ベースラインにおける正規化手法には\ding{"C1}の手法を用いた.SVR構築に以降全て,線形カーネル,コストパラメータ$C=10$を用いる.それぞれ表\ref{table:MSE}に全教師データを用いた場合(ALL),論題$\alpha$のみ(only$\alpha$),論題$\beta$(only$\beta$)のみの教師データを用いた場合の5分割交差検定の結果を示す.なお以降の実験では素性値の正規化に\ding{"C1}の手法を用いる.\end{iindent1zw}\begin{table}[t]\caption{提案手法の評点推定性能(MSE)}\label{table:MSE}\input{02table11.txt}\end{table}\noindent\textgt{実験2.評価モデルの構築}\begin{iindent1zw}教師データを全て訓練に用いてSVRを構築し,回帰係数の各成分値について検討する.表\ref{table:Omega}に,成分値の絶対値が大きいもの上位5素性を正負別に示す.この実験により,提案手法が国語教育で参照される言語的要素を用いて評価モデルを表現でき,なおかつ個人間での重みの配分の違いを明示できることを確認する.ただし,FC1からFC120までの素性については,素性が示す意味自体をIDとして表記する.これらの素性IDはそれぞれ,1文字目が前文,2文字目が後文の構文役割を,3文字目が2文間の接続関係を表す.構文役割「B」は文章始端,「E」は文章終端のダミー要素に,「N」は前述の「---:出現せず」に対応する.また接続関係は,1が論理的結合関係,2が多角的連続関係,3が拡充的合成関係に対応する.例えば,FC1〜FC36の素性群(論理的結合関係で接続する文間の構文役割遷移確率)のうち,前文での構文役割が「H」,後文での構文役割が「N」である語句要素の2文間での遷移確率についての素性は「HN1」と表記する.\end{iindent1zw}\begin{table}[t]\caption{評価者別の回帰係数$w$の成分値}\label{table:Omega}\input{02table12.txt}\end{table}\noindent\textgt{実験3.教師データ数と評点推定性能の関係}\begin{iindent1zw}教師データの増加に伴う評点推定性能の推移について検討する.図2に584事例の教師データの部分集合(無作為抽出)を用いた5分割交差検定の結果を示す.\end{iindent1zw}\subsection{考察}\noindent\textgt{実験1の考察}\begin{iindent1zw}表\ref{table:MSE}より,素性値の正規化手法には,\ding{"C0}の手法に比べて\ding{"C1}の手法を適用した場合の方が良い結果が得られる傾向がある.全ての結果において,設定したベースラインよりも低いMSEが得られている.従来の文章自動評価で用いられて来た素性のみを用いる場合に比べ,本研究において独自に設定した素性を追加する場合の方が,より高い精度で個人の評価モデルを推定できたことがわかる.このことから,本研究で新たに提案する素性は,評価基準のモデル化に有用な素性であるといえる.教師データのラベル系列(評価者)別にMSEを比較すると,差がみられる.これは,評価者が評価の依拠とした言語的要素の中に,本実験で設定した素性群に含まれないものが存在したことに因るものと考えられる.論題別の評点推定性能に関して,論題$\alpha$に沿って書かれた小論文の評点性能は,相対的に低い傾向にある.論題$\alpha$は,ある事柄に関して是非を問う類の論題であり,回答は賛成もしくは反対いずれかの立場をとる2種類に分類される.そのため,回答の方向性が定められていない論題$\beta$に比べて表現手法や構成に多様性がなく,教師データが偏りやすいと考えられる.\end{iindent1zw}\noindent\textgt{実験2の考察}\begin{iindent1zw}表\ref{table:Omega}より,「文字数制限の達成度(FV2)」「複合名詞の使用率(FW6)」「真偽判断の程度が『断定』の文の出現率(FM9)」は加点要素,「文末思考知覚感覚動詞使用率(FM12)」「オノマトペ使用率(FW4)」「文末の単調さ(FF8)」は減点要素として,それぞれ一部の評価者の間で共通した傾向があることがわかる.「HN-」「NH-」の素性は,「ある文で主題として出現する語が隣接する前後の文で出現しない」という文章のつながりの悪さを示す素性である.これらの素性についても,減点要素とされる傾向にあることがわかる.提案手法で独自に設定した素性のうち,カテゴリ「表層」「語」「文体」「モダリティ」に該当する素性に有効な(一部の評価者の間で共通して有効な傾向があるとは限らない)素性が多い傾向がみられた.特に,「文字数制限の達成度(FV2)」「オノマトペ使用率(FW4)」「文末の単調さ(FF8)」などの,国語教育に関連する素性に有効なものが多い.本手法で用いる素性には,既存手法\cite{AttaliBurstein2006}\cite{IshiokaKameda2006}でも共通して用いられるものも含まれているが,そのうち回帰係数の大きいものは「文字数(FV1)」「自立語の最大長(FW1)」などの一部分に限られた.本手法のように総合面での文章評価を国語教育上扱われる言語的要素を用いてモデル化する手法と,そうでない手法では,有効な素性が異なると考えられる.一方,ほとんど影響を持たない素性も存在する.カテゴリ「文章のまとまり」に関する素性群には「OE3」「HN3」など,成分値の絶対値が大きくかつ評価者間で極性が一致する傾向にある素性もあるが,大半の素性は成分値が0に近い.カテゴリ「内容」に関する素性も,全評価者において成分値の絶対値が小さく,あまり評点に影響を与えていないことがわかる.なお,ここでは絶対値0.01以上の重みをもつ素性を絶対値の大きい素性として扱う.論題別の評価モデルに関して,論題$\alpha$と論題$\beta$では重要な素性が異なる傾向にあることがわかる.論題$\alpha$では,評価者A,Bの評価モデルの推定結果に「真偽判断の程度が『推量』の文の出現率(FM10)」が大きな減点要素として含まれている.一方,論題$\beta$では評価者A,Bともに加点要素にも減点要素にも含まれていない.論題$\beta$はデータを参照した上で推量される事柄を述べる性質の論題であるため,推量表現は一般的に用いられる.他方,論題$\alpha$は賛成か反対かを問う論題であるため,断定的な態度をとった文章に比べて,婉曲的な態度の文章は論旨が不明確になりやすいと考えられる.\begin{figure}[b]\begin{center}\includegraphics{19-4ia2f2.eps}\end{center}\caption{教師データの増加に伴うMSEの推移\protect\footnotemark}\label{fig:B}\vspace{-1\Cvs}\end{figure}小論文試験で出題される論題間の異なりは,「内容の異なり」と「形式の異なり」の二種があると考えられる.本研究では内容面について「論題に示された語と関連する語を使っているかどうか」のみを素性として導入している.したがって,出題内容の異なりが評価モデルに影響を与えることはないと考えられる.しかしながら,実験結果に示されたように出題形式の異なりが評価モデルに影響を与えることがある.評価モデルをより汎用的なものとするために,論題の出題形式を一定の粒度で分類した上で,同類の出題形式の論題に対して同じ評価モデルを適用することが妥当であるかを今後確認する必要がある.\end{iindent1zw}\noindent\textgt{実験3の考察}\begin{iindent1zw}図2より,全体的にデータの増加に対するMSEの変化は収束傾向にあることがわかる.\end{iindent1zw}\footnotetext{教師データを最小数から始めて25編ずつ追加し,それぞれについての5分割交差検定の結果を表示した.}
\section{おわりに}
本稿では,国語教育的評価項目を「表層」「語」「文体」「係り受け」「文章のまとまり」「モダリティ」「内容」というカテゴリに分けられる素性群で表し,機械学習を用いて個人の評価者の評価モデルを学習する手法について述べた.また評価モデルにおいて重要な変量を明らかにする手法について述べた.この手法により,個々の評価者について「総合的評価(採点)処理のシミュレーション」,「国語教育上扱われる言語的要素を用いての評価モデルの説明」,「他者との評価モデルの違いの定量的明示」が可能になった.予め手本となる評価者を設定し,その評価者による採点結果を本手法で分析すれば,他の評価者による評価がどの要素についてどの程度手本から離れているかを照らし合わすことができる.このように,本手法により得られる情報は,多人数での評価作業において公平性を損なう要因となる「評価基準の個人差」についての問題解消に役立つと考えられる.しかし,本稿で言及した素性のうち「文章のまとまり」「内容」といったカテゴリの素性群は,ほかの素性群に比べ影響が小さいことが分かった.今後,特にカテゴリ「文章のまとまり」を評価の観点に加えるには,修辞構造等の文章構造を大域的にとらえたものを素性として加える必要があると考えられる.本稿では総合面での評点を順序関係付きラベルとして個人の評価者の評価モデルの学習を試みているが,今後個々の観点に関して素性の適性の検討を行う上では観点別の評点をラベルとして学習を行う必要がある.我々が研究対象とした高校生の小論文データには,「総合」評価のほかに「語句」「表現」「語彙」「課題」「簡潔」「明確」「構成」「一貫」「説得」「独創」という観点からの評価も存在する.今後,「文章のまとまり」「内容」といったカテゴリの素性群の影響が大きく反映される観点(「課題」,「一貫」等)からの評価モデルの学習を試みた上で,各素性についてさらに検討を行う必要があると考えられる.今後,個人の評価モデルについての情報が評価基準の個人差の解消にもたらす効果について,臨床的な実験(ある評価者が,他者の評価モデルとの差異についての情報に基づいて自身の基準を再考した後に,再評価した結果を考察する実験)による検証を行いたい.また本稿では,複数の評価者の評価モデルによる評価から最終的な評価判断を導き出すことについて扱っていないが,受験者の最終的な評価を決定することは,自動評価手法一般に期待される機能であるといえる.今後これらの機能について検討を行う必要がある.\acknowledgment本研究については,公益財団法人博報児童教育振興会の児童教育実践事業についての研究助成事業,「学習指導要領に立脚した児童作文自動点検システムの実現」(助成番号:11-B-081,研究代表:藤田彬)の援助を受けた.また,高校生の小論文答案をお貸しいただき,研究利用を認めて下さった揚華氏,宇佐美慧氏,東京工業大学大学院社会理工学研究科の前川眞一教授に感謝の意を表す.\begin{thebibliography}{}\bibitem[\protect\BCAY{Attali\BBA\Burstein}{Attali\BBA\Burstein}{2006}]{AttaliBurstein2006}Attali,Y.\BBACOMMA\\BBA\Burstein,J.\BBOP2006\BBCP.\newblock\BBOQAutomatedEssayScoringWithE-raterv.2.0\BBCQ\\newblock{\BemArticleinJournalofTechnology,Learning,andAssessment},{\Bbf4}(3).\bibitem[\protect\BCAY{Attali\BBA\Powers}{Attali\BBA\Powers}{2008}]{AttaliPowers2008}Attali,Y.\BBACOMMA\\BBA\Powers,D.\BBOP2008\BBCP.\newblock\BBOQADevelopmentalWritingScale\BBCQ\\newblock\BTR\ETSResearchReportNo.RR-08-19,EducationalTestingService.\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2008}]{BarzilayLapata2008}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQModelingLocalCoherence:AnEntity-basedApproach.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\1--34}.\bibitem[\protect\BCAY{Burstein,Kukich,Wolff,Lu,Chadorow,Braden-Harder,\BBA\Harris}{Bursteinet~al.}{1998}]{BursteinEtAl1998}Burstein,J.,Kukich,K.,Wolff,S.,Lu,C.,Chadorow,M.,Braden-Harder,L.~C.,\BBA\Harris,M.~D.\BBOP1998\BBCP.\newblock\BBOQAutomatedScoringUsingAHybridFeatureIdentificationTechnique.\BBCQ\\newblockIn{\BemACL'98Proceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics},\lowercase{\BVOL}~1.\bibitem[\protect\BCAY{Burstein\BBA\Wolska}{Burstein\BBA\Wolska}{2003}]{BursteinWolska2003}Burstein,J.\BBACOMMA\\BBA\Wolska,M.\BBOP2003\BBCP.\newblock\BBOQTowardEvaluationofWritingStyle:FindingOverlyRepetitiveWordUseinStudentEssays.\BBCQ\\newblockIn{\BemEACL'03Proceedingsofthe10thconferenceonEuropeanchapteroftheAssociationforComputationalLinguistics},\lowercase{\BVOL}~1.\bibitem[\protect\BCAY{Elliot}{Elliot}{2003}]{Elliot2003}Elliot,S.\BBOP2003\BBCP.\newblock\BBOQHowDoesIntelliMetricScoreEssayResponses?\BBCQ\\newblock\BTR\RB-929,VantageLearning,Newtown,PA.\bibitem[\protect\BCAY{Ellis}{Ellis}{1966}]{Ellis1966}Ellis,B.~P.\BBOP1966\BBCP.\newblock\BBOQTheImminenceofGradingEssaysbyComputer.\BBCQ\\newblock{\BemThePhiDeltaKappan},{\Bbf47}(5).\bibitem[\protect\BCAY{Ellis}{Ellis}{1994}]{Ellis1994}Ellis,B.~P.\BBOP1994\BBCP.\newblock\BBOQNewComputerGradingofStudentProse,UsingModernConceptsandSoftware.\BBCQ\\newblock{\BemJournalofExperimentalEducation}.\bibitem[\protect\BCAY{Foltz,Laham,\BBA\Landauer}{Foltzet~al.}{1999}]{FoltzLahamLandauer1999}Foltz,P.~W.,Laham,D.,\BBA\Landauer,T.~K.\BBOP1999\BBCP.\newblock\BBOQAutomatedEssayScoring:ApplicationstoEducationalTechnology.\BBCQ\\newblock\Jem{Proc.EdMedia'99}.\bibitem[\protect\BCAY{藤田\JBA藤田\JBA田村}{藤田\Jetal}{2011}]{FujitaFujitaTamura2011}藤田央\JBA藤田彬\JBA田村直良\BBOP2011\BBCP.\newblock\JBOQWikipediaから抽出した語彙関係リソースの小論文自動評価タスクへの適用.\Jem{第10回情報科学技術フォーラム(FIT2011)},E-053,2\JVOL,\mbox{\BPGS\341--344}.\bibitem[\protect\BCAY{Halliday\BBA\Hasan}{Halliday\BBA\Hasan}{1976}]{HallidayHasan1976}Halliday,M.A.~K.\BBACOMMA\\BBA\Hasan,R.\BBOP1976\BBCP.\newblock{\BemCohesioninEnglish}.\newblockLongman,London.\bibitem[\protect\BCAY{Ishioka\BBA\Kameda}{Ishioka\BBA\Kameda}{2006}]{IshiokaKameda2006}Ishioka,T.\BBACOMMA\\BBA\Kameda,M.\BBOP2006\BBCP.\newblock\BBOQAutomatedJapaneseEssayScoringSystembasedonArticlesWrittenbyExperts.\BBCQ\\newblockIn{\BemProc.21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\233--240}.\bibitem[\protect\BCAY{石岡}{石岡}{2008a}]{Ishioka2008a}石岡恒憲\BBOP2008a\BBCP.\newblock\JBOQ小論文およびエッセイの自動評価採点における研究動向.\\newblock\Jem{人工知能学会誌},{\Bbf23}(1),\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{石岡}{石岡}{2008b}]{Ishioka2008b}石岡恒憲\BBOP2008b\BBCP.\newblock\JBOQ日本語小論文の論理構成の把握とその図式表現.\\newblock\Jem{人工知能学会論文誌,特集論文「情報編纂:要素技術と可能性」\inhibitglue},{\Bbf23}(5),\mbox{\BPGS\303--309}.\bibitem[\protect\BCAY{石岡\JBA亀田}{石岡\JBA亀田}{2003}]{IshiokaKameda2003}石岡恒憲\JBA亀田雅之\BBOP2003\BBCP.\newblock\JBOQコンピュータによる小論文の自動採点システムJessの試作.\\newblock\Jem{計算機統計学},{\Bbf16}(1),\mbox{\BPGS\3--18}.\bibitem[\protect\BCAY{岩淵}{岩淵}{1979}]{Iwabuchi1979}岩淵悦太郎\BBOP1979\BBCP.\newblock\Jem{第三版悪文}.\newblock日本評論社.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{KokuritsuKokugoKenkyujo2004}国立国語研究所\BBOP2004\BBCP.\newblock分類語彙表増補改訂版データベース.\bibitem[\protect\BCAY{Kresel}{Kresel}{1999}]{Kresel1999}Kresel,U.\BBOP1999\BBCP.\newblock{\BemPairwiseClassificationandSupportVectorMachinesMethods}.\newblockMITPress.\bibitem[\protect\BCAY{Krippendorff}{Krippendorff}{1980}]{Krippendorff1980}Krippendorff,K.\BBOP1980\BBCP.\newblock{\BemContentAnalysis:Anintroductiontoitsmethodology}.\newblockSagePublications.\bibitem[\protect\BCAY{Landauer,Laham,\BBA\Foltz}{Landaueret~al.}{2003a}]{LandauerLahamFoltz2003b}Landauer,T.~K.,Laham,D.,\BBA\Foltz,P.~W.\BBOP2003a\BBCP.\newblock\BBOQAutomatedScoringandAnnotationofEssayswiththeIntelligentEssayAssessor.\BBCQ\\newblockInSherims,M.\BBACOMMA\\BBA\Burstein,J.\BEDS,{\BemAutomatedEssayScoring:ACrossdisciplinaryPerspective},\mbox{\BPGS\87--112}\Hillsdale,NJ.LawrenceErlbaumAssociates.\bibitem[\protect\BCAY{Landauer,Laham,\BBA\Foltz}{Landaueret~al.}{2003b}]{LandauerLahamFoltz2003a}Landauer,T.~K.,Laham,D.,\BBA\Foltz,P.~W.\BBOP2003b\BBCP.\newblock\BBOQTheIntelligentEssayAssesor,theDebateonAutomatedEssayGrading.\BBCQ\\newblock{\BemIEEEIntelligentSystems},{\Bbf15}(5),\mbox{\BPGS\27--31}.\bibitem[\protect\BCAY{益岡}{益岡}{1991}]{Masuoka1991}益岡隆志\BBOP1991\BBCP.\newblock\Jem{モダリティの文法}.\newblockくろしお出版.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{MatsuyoshiEtAl2010}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock\JBOQテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ93-D}(6).\bibitem[\protect\BCAY{松吉\JBA佐尾\JBA乾\JBA松本}{松吉\Jetal}{2011}]{MatsuyoshiEtAl2011}松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock\JBOQ拡張モダリティ付与コーパス作成の基準version0.8$\beta$,\Turl{http://cl.naist.jp/nltools/modality/manual.pdf}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{MatsuyoshiEtAl2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock\JBOQ日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{文部科学省}{文部科学省}{2008}]{MonbuKagakuSho2008}文部科学省(著作権所有)\BBOP2008\BBCP.\newblock\Jem{小学校学習指導要領解説国語編}.\newblock東洋館出版社.\bibitem[\protect\BCAY{森岡}{森岡}{1963}]{Morioka1963}森岡健二\BBOP1963\BBCP.\newblock\Jem{文章構成法文章の診断と治療}.\newblock至文堂.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{2010}]{NihonDenshikaJishoKenkyujo2010}日本電子化辞書研究所\BBOP2010\BBCP.\newblockEDR電子化辞書V4.0.\newblock独立行政法人情報通信研究機構.\bibitem[\protect\BCAY{Nisbett\BBA\Wilson}{Nisbett\BBA\Wilson}{1977}]{NisbettWilson1977}Nisbett,R.\BBACOMMA\\BBA\Wilson,T.\BBOP1977\BBCP.\newblock\BBOQThehaloeffect:EvidenceforUnconsciousAlternationofJudgements.\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf35}(4),\mbox{\BPGS\250--256}.\bibitem[\protect\BCAY{岡野原\JBA辻井}{岡野原\JBA辻井}{2007}]{OkanoharaTsujii2007}岡野原大輔\JBA辻井潤一\BBOP2007\BBCP.\newblock\JBOQレビューに対する評価指標の自動付与.\\newblock\Jem{自然言語処理},{\Bbf14}(3),\mbox{\BPGS\273--295}.\bibitem[\protect\BCAY{Smola\BBA\Sch}{Smola\BBA\Sch}{1998}]{SmolaSch1998}Smola,A.\BBACOMMA\\BBA\Sch,B.\BBOP1998\BBCP.\newblock\BBOQAtutorialonSupportVectorRegression.\BBCQ\\newblock\BTR\NeuroCOLT2TechnicalReportNC2-TR-1998-030.\bibitem[\protect\BCAY{田窪\JBA西山\JBA三藤\JBA亀山\JBA片桐}{田窪\Jetal}{2004}]{TakuboEtc2004}田窪行則\JBA西山佑司\JBA三藤博\JBA亀山恵\JBA片桐恭弘\BBOP2004\BBCP.\newblock\Jem{談話と文脈,言語の科学7}.\newblock岩波書店.\bibitem[\protect\BCAY{宇佐美}{宇佐美}{2011}]{Usami2011}宇佐美慧\BBOP2011\BBCP.\newblock\JBOQ小論文評価データの統計解析—制限字数を考慮した測定論的課題の検討—.\\newblock\Jem{行動計量学},{\Bbf38}(1),\mbox{\BPGS\33--50}.\bibitem[\protect\BCAY{Walker,Iida,\BBA\Cote}{Walkeret~al.}{1994}]{WalkerIidaCote1994}Walker,M.,Iida,M.,\BBA\Cote,S.\BBOP1994\BBCP.\newblock\BBOQJapaneseDiscourseandtheProcessofCentering.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf17}(1),\mbox{\BPGS\21--48}.\bibitem[\protect\BCAY{横野\JBA奥村}{横野\JBA奥村}{2010}]{YokonoOkumura2010}横野光\JBA奥村学\BBOP2010\BBCP.\newblock\JBOQテキスト結束性を考慮したentitygridに基づく局所的一貫性モデル.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\161--182}.\end{thebibliography}\begin{biography}\bioauthor{藤田彬}{2008年横浜国大教育人間科学部卒業.2009年同大大学院環境情報学府博士課程前期短縮修了.同年より同大大学院環境情報学府博士課程後期.現在に至る.自然言語処理,特に文章の自動評価,教育分野への応用の研究に興味を持つ.公益財団法人博報児童教育振興会第六回児童教育実践についての研究助成事業優秀賞.言語処理学会,情報処理学会,全国大学国語教育学会各会員.}\bioauthor{藤田央}{2011年電通大電気通信学部情報通信工学科卒業.同年より横浜国大大学院環境情報学府博士課程前期.現在に至る.自然言語処理の研究に従事.情報処理学会員.}\bioauthor{田村直良}{(正会員)1985年東工大大学院理工学研究科情報工学専攻博士課程了.工博.同年東工大助手.1987年横浜国大工学部講師.助教授,1996年同大教育人間科学部教授を経て,2001年同大学院環境情報研究院教授.自然言語処理,特に文章構造の解析,文章理解の研究,音声合成,認識の応用,福祉情報工学の研究に興味を持つ.FIT2006論文賞.2011年電子情報通信学会論文賞.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会各会員.}\end{biography}\biodate\end{document}
| |
V11N02-04
|
\section{はじめに}
対訳コーパスの充実に伴い,コーパスから自動学習した知識を用いる機械翻訳システムが提案されてきている\cite{Brown:SMT1993,Menezes:PAandTranslation2001,Imamura:PatternGeneration2002}.しかし,対訳コーパスを無制限に用いて翻訳知識を自動構築すると,コーパスに内在する翻訳の多様性に起因して冗長な知識が獲得され,誤訳や曖昧性増大の原因となる.翻訳の多様性はコーパスサイズの拡大と共に増加する.たとえば,対訳コーパスは大規模になるに従い,通常,同一の原文であるにも関わらず異なった翻訳文が含まれる.また,文脈や状況に依存した特異な翻訳も大規模コーパスでは増加する.我々の対象は,このような10万文以上を含んだ大規模対訳コーパスである.本稿では,このような翻訳の多様性に対し,機械翻訳に適した対訳(制限対訳と呼ぶ)に制限することを試みる.制限対訳には様々な指標が考えられるが,本稿では特に直訳性に着目する.そして直訳性を利用した2つの知識構築法を提案する.第一は,翻訳知識構築の前処理としての,直訳性を用いた対訳文フィルタリング,第二は一つの対訳文を直訳部/意訳部に分割し,部分に応じた汎化手法を適用する.このような制限を行いながら機械翻訳知識を自動構築することにより,機械翻訳の訳質が向上することを示す.以下,第\ref{sec-translation-variety}章では翻訳の多様性が引き起こす問題点について述べ,第\ref{sec-controlled-translation}章では機械翻訳に適した対訳とは,どのような対訳であるのか,議論する.続いて第\ref{sec-translation-literalness}章では,制限対訳の指標のうち,直訳性に着目し,その測定手法について提案する.第\ref{sec-construction-methods}章では直訳性を利用した機械翻訳知識構築方法について述べ,第\ref{sec-translation-experiments}章でその評価を行う.
\section{翻訳の多様性}
\label{sec-translation-variety}まず,コーパスに内在する翻訳の多様性と,翻訳知識自動構築の観点から見た場合の問題点について述べる.\subsection{文脈/状況依存訳}対訳コーパス中には通常,文脈や状況に依存した,言い換えると文脈や状況が変わると不適切となる対訳が存在する.たとえば,英語を日本語に翻訳する場合,定冠詞`{\itthe}'は通常訳出されない.しかし,人間の翻訳でも,文内文脈では解決できない曖昧な表現となる場合,「私の」「その」など,限定表現が付与される場合がある.また,日本語「写真を撮っていただけますか」は,通常英語に翻訳した場合,``{\itCouldyoutakeourphotograph?}''となるが,``{\itCouldyoupressthisshutterbutton?}''と,写真撮影を人に依頼する状況でしか使用できない翻訳がされる場合がある.このように,文脈/状況依存訳は,強度な意訳になっていることが多い.このような文脈や状況に依存した対訳から構築した翻訳知識は,適合しない文脈/状況で使用されると,過剰な省略や冗長語が発生し,誤訳の原因となりうる.\subsection{言い換え表現}一般的に,原言語の表現は,様々な目的言語表現に翻訳することができるため,同じ原文であっても複数種類の対訳がコーパス中に存在する.たとえば,日本語「このトラベラーズチェックを現金にしてください」は,英語では,\begin{itemize}\item{\itI'dliketocashthesetraveller'schecks.}(平叙文)\item{\itCouldyouchangethesetraveller'schecksintocash?}(疑問文)\item{\itPleasecashthesetraveller'schecks.}(命令文)\end{itemize}\noindentなどと翻訳することができる.これらは文脈や状況に依存せず,常に正しい翻訳である.実際,BTECコーパス\cite{Takezawa:PBCorpus2002,Kikui:BTECandMADCorpus}では,上記日本語の対訳は10種類存在する.このような多様性を含むコーパスから翻訳知識を学習すると過剰に知識が生成される.たとえば,\shortciteA{Imamura:PatternGeneration2002}が使用したパターンベース翻訳システムの場合,言い換え表現から,すべて異なる変換規則が作成される.しかし,実際の翻訳処理では1規則だけで十分であるため,冗長な規則は曖昧性の増大や翻訳速度の低下を招く\cite{Meyers:PAandTranslation2000}.
\section{機械翻訳に適した対訳}
\label{sec-controlled-translation}\subsection{制限対訳}単言語の処理においては,コーパス中の多様性を排除する方法として,制限言語が提案されている\cite{Mitamura:ControlledLanguage1991,Mitamura:ControlledLanguage1995,Huijsen:ControlledLanguage1998}.これは使用語彙や文法を制限して文章を記述する方法である.制限言語で記述された文章は,人間が読んだりコンピュータが処理を行う際,構文構造や意味解釈の曖昧性を減少させる効果があると報告されている.対訳コーパスからの翻訳知識自動構築の場合にも,同じ考え方が利用できる.すなわち,コーパス中の対訳を,すべての表現を許すのではなく,「機械翻訳に適した対訳」に制限することにより,誤訳の原因となる文脈/状況依存訳を自動構築の前段階で排除したり,そこから構築させた翻訳知識の言語変換時の曖昧性を減少させることができると期待される.これを本稿では制限対訳と呼ぶ.制限対訳の指標としては,以下のものが考えられる.前半3項目は,対訳単位の指標であり,最後の1項目は対訳コーパス全体に対する指標である.\begin{itemize}\item{\bf直訳性}\\原言語・目的言語間で省略・冗長語が少ない.すなわち,原文の単語のほとんどが翻訳文の単語に対応する.\item{\bf文脈自由性}\\原文の単語列が翻訳文の単語列に,局所的に(文脈情報なしで)対応する.この指標は,部分文が翻訳単位として再利用しやすいことを示している.\item{\bf語順一致性}\\原文の語順が翻訳文でも保たれている.この指標は,翻訳時の語順調整が少ないことを示している.\item{\bf訳語一定性}\\コーパスを通じて,ある1単語が常に同じ単語に翻訳されている.たとえば,形容動詞「必要だ」は,英語では形容詞`{\itnecessary}',動詞`{\itneed}',動詞`{\itrequire}'などに翻訳することができる.しかし,可能であれば常に一つの表現,たとえば`{\itnecessary}'に翻訳されている方が望ましい.\end{itemize}これらの指標は,翻訳方式により必要とされるものが異なる.たとえば,単語直接方式の統計翻訳\cite{Brown:SMT1993}では,単語の変換と語順調整を組み合わせて翻訳を行うため,語順一致性は重要な指標となる.しかし,構文トランスファ方式では,構文変換時に語順を大幅に変更することができるため,それほど重要な指標ではない.本稿では,句構造ベースの構文トランスファ方式について検討する.\subsection{前提とした機械翻訳システム}本稿では,句構造ベースの構文トランスファ方式翻訳システムである,HPAT(HierarchicalPhraseAlignment-basedTranslator;\cite{Imamura:PatternGeneration2002})を実験に使用する.これは,変換主導型機械翻訳システムTDMT\cite{Furuse:TDMT1999j}を基に,従来人手で構築していた変換規則を,対訳コーパスから自動獲得するように拡張したものである.\begin{figure*}\begin{center}\leavevmode\epsfxsize=100mm\epsfbox{fig-HPAT.eps}\caption{HPATにおける翻訳知識構築と翻訳処理概要}\label{fig-HPAT-procedure}\end{center}\end{figure*}HPATの動作を簡単に説明する(図\ref{fig-HPAT-procedure}).まずパラレルコーパスから階層的句アライメント\cite{Imamura:PhraseAlignment2002j}を用いて,句レベルの対応を階層的に抽出する.そして,その階層関係を用いて対応をパターン化する.これが変換規則で,基本的には同期文脈自由文法である.翻訳時には,変換規則の原言語パターンを用いて入力文の構文解析を行う.次に使用された原言語パターンを目的言語パターンにマッピングすることにより,目的言語に変換する.解析や変換時に発生した曖昧性は,変換規則に記述されている用例(訓練コーパスの実例)と入力文の意味的距離を計算し,最も近いパターンを選択することにより解消する.\subsection{構文トランスファ方式に適した対訳}\label{sec-suitable-translation}構文トランスファ方式に適した対訳について考察するため,本節ではTDMTを分析する.TDMTは,ルール記述者がコーパスから対訳を一つづつ取得し,それと同等な翻訳が得られるよう,規則を追加または調整し,変換規則が作成された.言い換えると,TDMTのルール記述用対訳は,コーパスの対訳とまったく同一ではなく,訳質を維持したまま規則数が最小となるように,目的言語側の文を書き換えている.つまり,書き換えられた対訳文(以下,TDMT訓練訳と呼ぶ)は,TDMTという構文トランスファ方式翻訳システムに適した対訳となっている.そこで,TDMT(英日翻訳版)の変換規則の訓練に用いられたTDMT訓練訳6,304文と,同じ原文の元コーパスに含まれる対訳(コーパス訳と呼ぶ)の比較を行った\footnote{TDMTは,訓練済みの文に関しては,機械翻訳結果とルール記述者が意図した対訳は等しいため,訓練済の原文をTDMTで翻訳する方法でTDMT訓練訳を取得した.}.その統計データを表\ref{tbl-corpus-comparison}に,例を表\ref{tbl-tdmt-ideal-example}に示す.これらからは,以下の制限対訳指標が構文トランスファ方式の機械翻訳に適していることを示している.なお,本データは,形態素解析結果と,単語アライメント結果(\ref{sec-translation-experiments}章参照)を元に算出した.単語アライメントが出力した単語の対応関係を,単語リンクとも呼ぶ.\begin{table}\begin{center}\caption{TDMT訓練訳とコーパス訳の比較}\label{tbl-corpus-comparison}{\smalltable\begin{tabular}{c|r@{}lr@{}l}\hline\hline&\multicolumn{2}{|c}{コーパス訳}&\multicolumn{2}{c}{TDMT訓練訳}\\\hline目的言語上での単語リンク数&20,722語&(34.0\%)&28,300語&(49.5\%)\\目的言語語彙数&3,601語&&3,107語&\\対応がとれた単語の平均訳語数&1.94語&&1.51語&\\単語リンク4のときの平均文脈自由数&4.21&&4.45&\\\hline\hline\end{tabular}}\vspace*{1.5em}\caption{コーパス訳とTDMT訓練訳の例}\label{tbl-tdmt-ideal-example}{\smalltable\begin{tabular}{c|l|l}\hline\hline番号&種類&文\\\hline1&原文&{\itAretaxandservicechargesincluded?}\\&コーパス訳&その料金は税金とサービス料は込みですか\\&TDMT訓練訳&税とサービス料は含まれていますか\\\hline2&原文&{\itIsbreakfastincluded?}\\&コーパス訳&朝食はついていますか\\&TDMT訓練訳&朝食は含まれていますか\\\hline3&原文&{\itWhat'sthedifferencebetweentherateforasingleandatwin?}\\&コーパス訳&料金はシングルとツインではどのくらい違いますか\\&TDMT訓練訳&シングルとツインの料金の違いはどれくらいですか\\\hline\hline\end{tabular}}\end{center}\end{table}\paragraph{直訳性}まず,表\ref{tbl-corpus-comparison}の単語リンク数について着目すると,TDMT訓練訳は値がかなり増加しており,目的言語の約50\%の単語について,対応する単語が存在することになっている.つまり,TDMT訓練文は原文の単語が忠実に訳されており,直訳的であることを示している.表\ref{tbl-tdmt-ideal-example}の1番の対訳はその例である.コーパス訳では原文に現れない冗長語「その」が付加されているが,TDMT訓練訳では原文の内容語が過不足なく対応している.\paragraph{訳語一定性}次に,目的言語語彙数,および平均訳語数を見ると,TDMT訓練訳は目的言語語彙数がかなり減少しており,それに伴い,平均訳語数が減少している.これは,原文の単語訳ができる限り一定になるように,ルール記述者が翻訳文を書き換えながら訓練したためであり,そのため訳語のバラエティが減少したものである.言い換えると,TDMT訓練訳は訳語一定性が高い.たとえば,表\ref{tbl-tdmt-ideal-example}の1番と2番の`{\itinclude}'について着目すると,コーパス訳では,1番は名詞「込み」,2番は動詞「つく」と異なる訳語が使用されている.しかし,TDMT訓練訳ではどちらも「含む」で一定である.\paragraph{文脈自由性}表\ref{tbl-corpus-comparison}の平均文脈自由数は原文で連続した単語が翻訳文上でも連続している組み合わせ数をカウントしたものである.この値が大きいものは文脈自由性が高く,部品化しやすい対訳であると言える.単語リンク数(単語対応数)が多いほど,この数値は大きくなる傾向があるが,同じ単語リンク数の場合,TDMT訓練訳の方が若干大きい値を示している.表\ref{tbl-tdmt-ideal-example}の3番はその例である.TDMT訓練訳では,名詞句``{\ittherateforasingleandatwin}''は,やはり名詞句「シングルとツインの料金」と局所的にに訳されているため,規則化した際も再利用が可能である.しかし,コーパス訳では,動詞「違う」を修飾する2つの連用修飾句「料金は」「シングルとツインでは」に分割されて訳されている.そのため,修飾先を含めて規則化しないと再利用はできない.
\section{直訳性}
\label{sec-translation-literalness}前節で示した制限対訳指標のうち,本稿では特に直訳性に着目する.直訳性の高い対訳のみを使用して翻訳知識を構築できれば,文脈/状況に依存する変換規則の生成が抑制され,誤訳を減少させることができると期待される.訳語一定性,および文脈自由性は,コーパスを通じて訳語や構造が一定であることを示しているため,言い換え表現対策として有効と考えられるが,今回は曖昧性の減少より,誤訳の減少を優先する.\subsection{直訳性スコア}\label{sec-literalness-score}「直訳」は,原文の単語が忠実に翻訳文に反映されていることを意味する.したがって,対訳文があったとき,原文・翻訳文の単語対応が多く取れる文は直訳性が高い.対訳文の単語対応は,対訳辞書を参照する方法や,統計的単語アライメント(たとえば\cite{Melamed:WordAlignment2000})等を用いると取得することができる.しかし,言語によっては,必ずしも単語同士が対応づかない場合もある.たとえば,日本語と英語を考えたとき,格助詞「が」などは,英語の単語として現れない.ところが同じ助詞でも,副助詞「だけ」の場合は,英語では`{\itonly}'などに訳されている場合が多く,たとえ機能語でも単語としての翻訳が必要な場合と不必要な場合がある.つまり,単語対応数だけでなく,本来翻訳すべき単語が原文・翻訳文双方にどの程度含まれているか判断しなければ,直訳性は決定しない.このような考えから,本稿では直訳性を以下の手順で判定する.なお,ここでは対訳辞書を用いる.対訳辞書は市販辞書を用いることも可能だと考えられるが,ここでは,対訳コーパスの単語アライメント結果から,単語リンクを集めて自動的に作成されるものとする.また,一つの対訳文中で原言語・目的言語間は1対1に単語が対応するものと仮定する.\begin{enumerate}\item原言語の単語で対訳辞書を引く.辞書の見出しに存在する単語は,翻訳されるべき単語と見なす.その数を$T_s$とする.\item目的言語の単語で対訳辞書を逆引きする.辞書の訳語に存在する単語は,翻訳されるべき単語と見なす.その数を$T_t$とする.\item対訳辞書にエントリが存在する対訳単語を,単語リンクと見なす.その数を$L$とする.\item以下の式で直訳性を計算する.これを対訳対応率(TranslationCorrespondenceRate;TCR)と呼ぶ.\begin{equation}TCR=\frac{2L}{T_s+T_t}\label{eqn-tcr}\end{equation}\end{enumerate}対訳対応率は,「本来翻訳されるべき単語のうち,実際に翻訳された語の割合」を表す.双方向に見ているので,省略語と冗長語を同等に検出することができる.また,辞書に記載されていない語は分母・分子共に無視されるため,辞書のカバレッジの影響が少ない.\begin{figure*}\begin{center}\leavevmode\epsfxsize=110mm\epsfbox{fig-example.eps}\caption{対訳対応率(TCR)による直訳性判定例}(丸囲み単語は,対訳辞書に記載されている単語,文間の直線は単語リンクを表す)\label{fig-tcr-example}\end{center}\end{figure*}たとえば,原文「私はこのステーキを頼んでいません」の翻訳として,翻訳文1``{\itIdidn'torderthissteak}''と,翻訳文2``{\itThisisdifferentwhatIordered}''があったとする(図\ref{fig-tcr-example}).直感的には,翻訳文1は原文に忠実な直訳であり,翻訳文2は意訳が含まれている対訳である.図中の丸囲み単語が対訳辞書に載っている単語だったとすると,原文は5単語が見出しとして存在している($T_s=5$).また,翻訳文1の単語も5単語が対訳として存在している($T_t=5$).単語リンクは,I-私,not-ぬ,order-頼む,this-この,steak-ステーキの5つである($L=5$)ので,式(\ref{eqn-tcr})によると,対訳対応率$TCR=1.0$となる.一方,翻訳文2を見ると,対訳辞書の訳語として載っている単語は,this,different,I,orderの4つであり($T_t=4$),単語リンクはthis-これ,order-頼む,I-私の3つしかない($L=3$).したがって,$TCR=\frac{2*3}{5+4}\simeq0.67$となり,翻訳文1の方が直訳性が高いと判断される.このように,対訳対応率は基本的に形態素解析結果と対訳辞書だけから判断され,構文解析などの深い解析を必要としない.
\section{直訳性を用いた翻訳知識構築}
\label{sec-construction-methods}本章では,直訳性を利用した機械翻訳知識構築方法について述べる.本稿では,2つのアプローチを取る.一つは,対訳文からの知識獲得の前処理として,対訳コーパス自体にフィルタリング処理を行い,対訳文を絞り込む方法,もう一つは,翻訳知識構築時に対訳文を直訳部とそれ以外(意訳部)に分離し,構築条件を変える方法である.\subsection{対訳コーパスフィルタリング}ここでは,コーパスフィルタリング方法として,さらに2つの方法を考える.\paragraph{閾値によるフィルタリング}高直訳対訳のみを用いて機械翻訳知識を自動構築した場合.閾値を高く設定するに従い,高直訳対訳だけが残るが,部分コーパスサイズは減少するため,そこから作成した機械翻訳知識のカバレッジが低下する.\paragraph{グループ内最高値によるフィルタリング}原言語が同じ対訳でグループを作成し,各グループから最高スコアを持つものを用いて機械翻訳知識を自動構築した場合.前者に比べてすべての原言語が学習対象となるため,翻訳知識のカバレッジが下がらないが,低直訳対訳であっても,コーパス中に1回しか出現しない場合は知識構築対象となるため,文脈/状況依存訳が残る可能性がある.\subsection{直訳句と意訳部の分割構築}\ref{sec-literalness-score}節で定義した対訳対応率TCRは,完全な文ばかりでなく,部分文(句)に対しても適用可能なスコアである.対訳コーパスフィルタリングの場合,高直訳対訳に絞るに従い,翻訳規則のカバレッジが低下するという欠点がある.しかし低直訳対訳でも,部分的に見ると直訳と見なせる句が存在する.つまり,低直訳対訳の直訳部を抽出し,翻訳知識構築に利用できれば,カバレッジの低下を抑えることができる.ここで問題となるのは,低直訳対訳中には,慣用表現など直訳では訳すべきでないものが存在する点である.たとえば,``{\itMayIhelpyou}''を直訳すると,「あなたを助けてもよいでしょうか」になるが,「どうしましたか」と訳すのが普通である.このような慣用表現は,かなり長単位の単語列で表現される.両者を共存させるため,ここでは対訳を直訳部と意訳部(非直訳部)に分割し,機械翻訳知識の構築方法を変える.すなわち,直訳部に関しては,できる限り再利用可能なように細かい単位で規則化を行い,意訳部は規則化を最小限にして翻訳知識を構築する.具体的には以下の手順による.\begin{enumerate}\item階層的句アライメントを行い,句レベルの対応関係を取得する.\item階層構造をトップダウンに走査し,句レベルで直訳性を測る.直訳性スコアが閾値以上の場合,その句を直訳句と判定する.\item直訳句の場合,自分自身とその下位構造を汎化し,翻訳知識を構築する.\itemもし,最上位構造(対訳文全体)が直訳句でない場合,直訳句までの句対応を無視した翻訳知識を構築する.\end{enumerate}\begin{figure*}\begin{center}\leavevmode\epsfxsize=140mm\epsfbox{fig-rule-example2.eps}\caption{日英翻訳における生成規則例:(A)直訳の場合(B)意訳からの分割構築の場合}\label{fig-rule-example}\end{center}\end{figure*}たとえば,図\ref{fig-rule-example}のように,同じ原文に対応する2つの翻訳文があったとする.翻訳文(A)の場合は,文全体{\tt(A-1)S}のTCR値は1.0である.そのため,すべての句が汎化され,全部で6規則が生成される.直訳から生成された規則は他の翻訳文にも適用可能な一般的な規則である.一方,(B)では文全体{\tt(B-1)S}のTCR値は0.25と低い.しかし,部分的に見ると,名詞句「市内」と``thecity''のTCR値は1.0である.そのため,文全体のうち,句{\tt(B-2)NP}だけが汎化対象となり,{\tt(B-1)S}のように,単語数の多い規則が生成される.このように,分割構築では直訳句は本来の構文トランスファ用変換規則を生成し,意訳部からはテンプレート的パターンを生成する.意訳から生成された規則は,入力文の単語列とほぼ完全一致した場合のみ適用されるため,異なった文脈では使われにくい規則となる.
\section{翻訳実験}
\label{sec-translation-experiments}翻訳知識自動構築における直訳性の効果を測定するため,\ref{sec-construction-methods}章で述べた手法で機械翻訳知識を自動構築し,英日機械翻訳の翻訳品質という観点で評価を行った.\subsection{実験条件}\paragraph{対訳コーパス}対訳コーパスは,BTECコーパス\cite{Takezawa:PBCorpus2002,Kikui:BTECandMADCorpus}のうち,149,882対訳を使用した.このコーパスは,旅行会話に頻出する表現を集めたものである.原文が同じ対訳も多く含まれ,約13\%の英語文が複数の日本語訳を持つ.\paragraph{単語対応抽出方法:対訳辞書構築方法}単語同士の対応は,コーパス中の共起頻度が10回以上の単語については,\shortciteA{Melamed:WordAlignment2000}と同様に,CompetitiveLinkingAlgorithmを用いて統計的に単語アライメントを行い,コーパス全体に対してこの対応を集めて,対訳辞書を構築した.低頻度語については,シソーラス\cite{Thesaurus1984j}を参照し,同一グループに属する単語を対応付けた.この対応付けの結果を用い,以下の2種類の対訳辞書を構成した.\begin{itemize}\item{\bf辞書A}\\統計的単語アライメントとシソーラス参照の両方の対応付けを用いた辞書.再現率が比較的高く,対応付けの精度を内容語のみで測定した場合,クローズドテストで適合率91\%,再現率73\%程度である.\item{\bf辞書B}\\統計的単語アライメントのみの対応付けを用いた辞書.再現率が比較的低い.精度を辞書Aと同様に測定した場合,適合率93\%,再現率61\%程度である.\end{itemize}\paragraph{翻訳品質評価方法}評価方法は,以下の2種類を用いた.\begin{itemize}\item{\bf自動評価}\\自動評価では,予めコーパスから除外したテストセット10,150文を使い,BLEU\cite{papineni-EtAl:2002:ACL}を用いて評価した.使用した参照訳は1原文あたり1つで,4-gramまで使用した.\item{\bf主観評価}\\主観評価では,上記テストセット中の510文を使い,日本語ネイティブ話者1名が一対比較法で評価した.具体的には,全対訳を使用した機械翻訳結果をベースとし,それに対して直訳性に基づく自動構築後の翻訳結果を1文づつ比較し,どちらの翻訳がよい翻訳であるのか,あるいは同品質であるのか,判定する形で行った.主観評価における翻訳品質(主観品質)は,以下の式で表す.したがって,これはベースに対する相対評価である.\begin{equation}\mbox{主観品質}=\frac{\mbox{改善文数}-\mbox{改悪文数}}{\mbox{テスト文数}}\end{equation}\end{itemize}\subsection{閾値によるコーパスフィルタリングの効果}\begin{figure}\begin{center}\leavevmode\epsfxsize=75mm\epsfbox{fig-stat-sem.eps}\caption{対訳対応率の閾値を変化させたときの翻訳品質(辞書A使用時)}\label{fig-stat-sem}\vspace*{2ex}\leavevmode\epsfxsize=75mm\epsfbox{fig-stat-nosem.eps}\caption{対訳対応率の閾値を変化させたときの翻訳品質(辞書B使用時)}\label{fig-stat-nosem}\end{center}\end{figure}まず,対訳対応率の閾値を変化させてコーパスフィルタリングを行い,自動評価で翻訳品質を測定した結果を図\ref{fig-stat-sem}(辞書A使用時),図\ref{fig-stat-nosem}(辞書B使用時)に示す.これは,各閾値以上を持つ対訳文を用いたときの翻訳品質を,対訳数(訓練コーパスサイズ)でプロットしたものである.なお,同グラフ中のランダム選択とは,ランダムに訓練コーパスサイズを変化させた場合を示す.辞書A,辞書B使用時とも,対訳対応率の閾値を上げるに従い,訓練コーパスサイズは減少するが,翻訳品質は逆に若干向上した.どちらも$TCR\geq0.3$のとき,BLEUスコアは最大となっており,辞書Aでは0.233,辞書Bでは0.234を示した.さらに閾値を上げて高直訳対訳に限定すると,訓練コーパスサイズも減少するが,辞書A使用時で約8万対訳,辞書B使用時で約7万対訳まで,ランダム選択より高いBLEUスコア値を示し,その後急激に翻訳品質は悪化した.これは慣用表現など,直訳性が低いにも関わらず翻訳に必要な対訳が排除されたためと考えられる.いずれにしても辞書A,辞書B使用時ともに同じ傾向を示しており,対訳対応率による直訳性の測定は,辞書のカバー率の影響が少ないことを示している.\subsection{構築方法の違いと翻訳品質}\begin{table*}[t]\begin{center}\caption{構築方法を変えたときの翻訳品質(辞書B使用時)}\label{tbl-constructions}{\smalltable\begin{tabular}{p{5pt}l|c|c|c|c}\hline\hline&&全対訳使用&\multicolumn{2}{c|}{フィルタリング}&分割構築\\\cline{4-5}&&(ベース)&閾値($TCR\geq0.3$)&グループ最高値&($TCR\geq0.8$)\\\hline\multicolumn{2}{l|}{対訳数}&149,882&134,521&121,623&121,623\\\multicolumn{2}{l|}{(サイズ比)}&(100\%)&(89.8\%)&(81.1\%)&(81.1\%)\\\hline\multicolumn{2}{l|}{翻訳知識カバー率}&65.7\%&64.0\%&65.3\%&61.4\%\\\hline\multicolumn{2}{l|}{BLEUスコア}&0.232&0.233&0.240&{\bf0.252}\\\hline\multicolumn{2}{l|}{主観品質}&&+3.3\%&+1.8\%&{\bf+8.6\%}\\&改善文数&&30&30&119\\&同品質(同一翻訳)&&467(424)&459(413)&316(213)\\&悪化文数&&13&21&75\\\hline\hline\end{tabular}}\end{center}\end{table*}次に,翻訳知識構築法を変えて,翻訳品質を測定した結果を,表\ref{tbl-constructions}に示す.なお,本表は,辞書Bを用いて測定した結果であり,表中の翻訳知識カバー率とは,翻訳知識中の用例が入力文と完全一致した規則だけで翻訳できた割合を示す.また,分割構築では,グループ最高値によるフィルタリング後の対訳コーパスを用い,TCRが0.8以上の句を直訳句と判断して構築した.閾値によるフィルタリングと,グループ内最高値によるフィルタリングを比較すると,主観評価では閾値によるフィルタリングの方が高品質となっているが,BLEUスコアはグループ内最高値の方が高い.翻訳知識カバー率も,使用した対訳数が減少しているにも関わらず,グループ内最高値の方が若干高く,グループ内最高値によるフィルタリングは,翻訳知識のカバレッジを保持したまま翻訳品質を向上できている.今回用いたコーパスは約13\%の英語文が複数の日本語訳を持つ高密度なコーパスであるにも関わらず,フィルタリングでは1〜3\%程度の品質改善しかできなかった.対訳文のフィルタリングは,誤訳の原因となる低直訳対訳の排除と,翻訳知識のカバレッジ保持の両立は難しく,大幅な品質改善は困難である.一方,分割構築では,BLEUスコア,主観品質共に大幅に向上した.特に主観品質は8.6\%の翻訳文について改善された.意訳から生成される翻訳知識の適用条件を厳しくしたため,翻訳知識カバー率は低下したが,このことが誤訳の抑制に貢献したためである.いずれの構築方法も,ベースに比べ,BLEUスコアまたは主観品質が向上しており,対訳対応率を利用した翻訳知識構築は,機械翻訳品質向上に効果があると言える.
\section{おわりに}
本稿では,対訳コーパス中に含まれる翻訳の多様性を,制限対訳によって機械翻訳に適した対訳に制限することを提案した.制限対訳の指標として,直訳性に着目し,直訳性を測定するスコアとして,対訳対応率を定義した.対訳対応率を用いて対訳文のフィルタリングを行い,低直訳対訳を排除することにより,翻訳品質を若干向上させることができる.対訳対応率は,対訳文の直訳性を測定できるだけでなく,部分文(句)の直訳性も測定することができる.言い換えると,対訳を機械翻訳に適した部分文とそれ以外に分割することができる.このことを利用し,対訳文を直訳部分と意訳部分に分割し,意訳部分から獲得される翻訳規則の適用条件を厳しくすることにより,主観評価では約8.6\%の文について翻訳品質を向上させることができた.今回は直訳性のみに着目したが,制限対訳の指標としては他にも訳語一義性,文脈自由性が考えられる.これらの指標も組み込むことにより,言い換え表現が減少し,翻訳品質はさらに向上できると推測される.\acknowledgment類語新辞典分類体系の研究利用を許可してくださった,(株)角川書店に感謝いたします.また,本研究を進めるにあたって有意義な議論をさせていただいたATR音声言語コミュニケーション研究所の皆様,および奈良先端科学技術大学院大学情報処理学科自然言語処理講座の皆様に感謝いたします.なお,本研究は通信・放送機構の研究委託「大規模コーパスベース音声対話翻訳技術の研究開発」により実施したものです.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{Brown:SMT1993}Brown,P.~F.,Pietra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofMachineTranslation:ParameterEstimation\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),263--311.\bibitem[\protect\BCAY{古瀬,山本,山田}{古瀬\Jetal}{1999}]{Furuse:TDMT1999j}古瀬蔵,山本和英,山田節夫\BBOP1999\BBCP.\newblock\JBOQ構成素境界解析を用いた多言語話し言葉翻訳\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(5),63--91.\bibitem[\protect\BCAY{Huijsen}{Huijsen}{1998}]{Huijsen:ControlledLanguage1998}Huijsen,W.-O.\BBOP1998\BBCP.\newblock\BBOQControlledLanguage---AnIntroduction\BBCQ\\newblockIn{\BemProceedingsoftheSecondInternationalWorkshoponControlledLanguageApplications(CLAW-98)},\BPGS\1--15.\bibitem[\protect\BCAY{今村}{今村}{2002}]{Imamura:PhraseAlignment2002j}今村賢治\BBOP2002\BBCP.\newblock\JBOQ構文解析と融合した階層的句アライメント\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),23--42.\bibitem[\protect\BCAY{Imamura}{Imamura}{2002}]{Imamura:PatternGeneration2002}Imamura,K.\BBOP2002\BBCP.\newblock\BBOQApplicationofTranslationKnowledgeAcquiredbyHierarchicalPhraseAlignmentforPattern-based{MT}\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI-2002)},\BPGS\74--84.\bibitem[\protect\BCAY{Kikui,Sumita,Takezawa,\BBA\Yamamoto}{Kikuiet~al.}{2003}]{Kikui:BTECandMADCorpus}Kikui,G.,Sumita,E.,Takezawa,T.,\BBA\Yamamoto,S.\BBOP2003\BBCP.\newblock\BBOQCreatingCorporaforSpeech-to-SpeechTranslation\BBCQ\\newblockIn{\BemProceedingsofEuroSpeech2003},\BPGS\381--384.\bibitem[\protect\BCAY{Melamed}{Melamed}{2000}]{Melamed:WordAlignment2000}Melamed,I.~D.\BBOP2000\BBCP.\newblock\BBOQModelsofTranslationalEquivalenceamongWords\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf26}(2),221--249.\bibitem[\protect\BCAY{Menezes\BBA\Richardson}{Menezes\BBA\Richardson}{2001}]{Menezes:PAandTranslation2001}Menezes,A.\BBACOMMA\\BBA\Richardson,S.~D.\BBOP2001\BBCP.\newblock\BBOQAbestfirstalignmentalgorithmforautomaticextractionoftransfermappingsfrombilingualcorpora\BBCQ\\newblockIn{\BemProceedingsofthe`WorkshoponExample-BasedMachineTranslation'inMTSummitVIII},\BPGS\35--42.\bibitem[\protect\BCAY{Meyers,Kosaka,\BBA\Grishman}{Meyerset~al.}{2000}]{Meyers:PAandTranslation2000}Meyers,A.,Kosaka,M.,\BBA\Grishman,R.\BBOP2000\BBCP.\newblock\BBOQChart-BasedTranslationRuleApplicationinMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofCOLING-2000},\BPGS\537--543.\bibitem[\protect\BCAY{Mitamura\BBA\Nyberg}{Mitamura\BBA\Nyberg}{1995}]{Mitamura:ControlledLanguage1995}Mitamura,T.\BBACOMMA\\BBA\Nyberg,E.~H.\BBOP1995\BBCP.\newblock\BBOQControlled{English}forKnowledge-Based{MT}:Experiencewiththe{KANT}System\BBCQ\\newblockIn{\BemProceedingsofTMI-95}.\bibitem[\protect\BCAY{Mitamura,Nyberg,\BBA\Carbonell}{Mitamuraet~al.}{1991}]{Mitamura:ControlledLanguage1991}Mitamura,T.,Nyberg,E.~H.,\BBA\Carbonell,J.~G.\BBOP1991\BBCP.\newblock\BBOQAnEfficientInterlinguaTranslationSystemforMulti-lingualDocumentProduction\BBCQ\\newblockIn{\BemProceedingsofMachineTranslationSummitIII},\BPGS\55--61\Washington,DC.\bibitem[\protect\BCAY{大野,浜西}{大野\JBA浜西}{1984}]{Thesaurus1984j}大野晋,浜西正人\BBOP1984\BBCP.\newblock\Jem{類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQ{BLEU}:aMethodforAutomaticEvaluationofMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\BPGS\311--318.\bibitem[\protect\BCAY{Takezawa,Sumita,Sugaya,Yamamoto,\BBA\Yamamoto}{Takezawaet~al.}{2002}]{Takezawa:PBCorpus2002}Takezawa,T.,Sumita,E.,Sugaya,F.,Yamamoto,H.,\BBA\Yamamoto,S.\BBOP2002\BBCP.\newblock\BBOQTowardaBroad-coverageBilingualCorpusforSpeechTranslationofTravelConversationsintheRealWorld\BBCQ\\newblockIn{\BemProceedingsoftheThirdInternationalConferenceonLanguageResourcesandEvaluation(LREC2002)},\BPGS\147--152.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年日本電信電話株式会社入社.2000年より,ATR音声言語通信研究所主任研究員,現在に至る.主として自然言語処理の研究・開発に従事.情報処理学会,電子情報通信学会,ACL各会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了.1999年京都大学工学博士.ATR音声言語コミュニケーション研究所主任研究員.自然言語処理,機械翻訳,情報検索,並列処理の研究に従事.情報処理学会,電子情報通信学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V03N02-03
|
\section{まえがき}
国文学研究は,わが国の文学全体に渡る文学論,作品論,作家論,文学史などを対象とする研究分野である.また,広く書誌学,文献学,国語学などを含み,歴史学,民俗学,宗教学などに隣接する.研究対象は上代の神話から現代の作品まで,全ての時代に渡り,地域的にも歴史上のわが国全土を網羅する.文学は,人の感性の言語による表出であるから,国文学は日本人の心の表現であり,日本語を育んだ土壌であると言える.すなわち,国文学研究は現代日本人の考え方と感じ方を育てた土壌を探る学問であると言える.文学研究の目標は,文学作品を通じて,すなわち文字によるテキストを主体として,思潮,感性,心理を探求することである.テキストは単なる文字の羅列ではなく,作者の思考や感情などが文字の形で具象化されたものであるから,研究者は書かれた文字を「ヨム」ことによって,作者の思考や感情を再構築しようとする.換言すれば,文学作品を鑑賞し,評論し,その作品を通しての作者の考え方を知ることである.なお,「ヨム」こととは,読む,詠む,訓むなどの意味である.最近,国文学とコンピュータの関わりに対する関心が高まり,議論が深まってきた\cite{Jinbun1989-1990}.元来,国文学にとってコンピュータは最も縁遠い存在と見られてきた.国文学者からみれば,コンピュータに文学が分かるかとか,日本語のコンピュータが無いなどの理由である.一方では,コンピュータへ寄せる大きな期待と,現状との落差から来る批判もある\cite{Kokubun1982,Kokubun1992,Kokubun1989-1994}.現在,文学研究にコンピュータが役立つかを確かめることが必要となった.日本語処理可能なパソコンなどの普及により,国文学者の中でも\cite{DB-West1995},自身でテキストの入力を行い,また処理を始めている.しかし,未だほんの一部であって,普及にはほど遠く,またワープロ的な利用が多い.コンピュータは,単に「ハサミとノリ」の役割\cite{Murakami1989}であるとしても,その使い方によっては,かなり高度な知的生産のツールに成り得る.また,研究過程で使われる膨大な資料や情報と,それから生成される多様なデータや情報の取り扱いには,コンピュータは欠かせないに違いない.具体的にコンピュータの活用を考えるためには,文学の研究過程の構造認識が必要である.文学研究は個人的と言われるが,この研究過程が普遍化できれば,モデルが導出できる.すなわち,コンピュータの用途が分かってくる.本稿では,国文学研究資料館における事例に基づき,国文学とコンピュータの課題について考える.国文学研究資料館は,国の内外に散在する国文学資料を発掘,調査,研究し,収集,整理,保存し,広く研究者の利用に供するために,設立された大学共同利用機関である.また,国文学研究上の様々な支援活動を行っている\cite{Kokubun1982}.本稿は,以下のような考察を行っている.2章では,国文学の研究態様を分析し,情報の種類と性質を整理し,研究過程を解明し,モデル化を行っている.3章では,モデルを詳細に検討し,定義する.また,モデルの役割をまとめ,コンピュータ活用の意味を考える.4章は,モデルの実装である.研究過程で利用され,生成される様々な情報資源の組織化と実現を行う.そのために,「漱石と倫敦」考という具体的な文学テーマに基づき,システムの実装を行い,モデルの検証を行った.その結果,モデルは実際の文学研究に有効であること,とくに教育用ツールとして効果的であるとの評価が得られた.
\section{国文学研究におけるコンピュータ}
\subsection{課題の整理}コンピュータは国文学研究に役立つか,という問いに答えるためには,まず国文学研究とは何かを知る必要がある.例えば,和歌研究などではよく本歌どり\footnotemark\footnotetext{国文学の用語は,まとめて付録で解説している.}の研究などと言われる.これは,ある和歌が過去の和歌の系譜を引いて詠まれることがよくあり,その関連を探ることである.有名な事例に次のようなものがある.新古今集巻六の冬に,藤原定家朝臣の歌(歌番号671)がある.\vspace{1em}「駒とめて\underline{袖打ちはらふかげもなし}\underline{\underline{佐野のわたり}}の雪の夕暮」\vspace{1em}この歌は,万葉集巻三の長忌寸奥麻呂(ナガノイミキノオキマロ)の次の歌(歌番号265)が,本歌とされている.\vspace{1em}「苦しくも降りくる雨か三輪が崎\underline{\underline{佐野のわたり}}に\underline{家もあらなくに}」\vspace{1em}この例では,単純に本歌を見つけるという点では,「佐野のわたり」の文字列検索でよい.しかし,「佐野のわたり」は他にも例があって,本歌の確定はこれだけでは充分ではない.「袖打ちはらふかげもなし」の意味と,「家もあらなくに」が対照されなければならない.定家は雨を雪に変え,家なしという直接的な表現に新しい描写を与え,寂しさに優美な情感を込めている\cite{Tanaka1992}.万葉集の素朴さと,新古今集の優雅さを比べる古来より有名な例である.和歌の解釈,あるいは鑑賞をコンピュータで行うことは,極めて困難であろうが,この例のような本歌を探すこと位は可能であろうか.しかし,本歌取りと言っても次のような例もある.例えば,散文中で意味や句の切れ端によって引かれる引歌\setcounter{footnote}{0}\footnotemark,男女間などでやりとりされる問答歌\hspace{-0.2mm}\setcounter{footnote}{0}\footnotemark,\hspace*{-1.3mm}また同じ主題で詠われる連歌\hspace{-0.2mm}\setcounter{footnote}{0}\footnotemarkなどがある.\hspace*{-1.2mm}さらに,\hspace*{-1.3mm}折句\hspace{-0.2mm}\setcounter{footnote}{0}\footnotemarkの1つである沓冠(クツカブリ)\hspace{-1.2mm}\setcounter{footnote}{0}\footnotemarkなどの技巧歌などもある.これらの研究にコンピュータは使えるであろうか.このような課題に応えるためには,様々な関連する材料の収集と整理,並びに組織化が不可欠である.その上で,知的活動を行うための方法と技術が準備されていなければならない.まず,コンピュータの役割はこの辺りにあると考えられる.すなわち,第1に研究材料の収集と整理であり,第2にそれらを用いた知的創造への参与である.国文学の研究は観念的,思弁的であり,かつ主観的であると言われる.しかし,プロダクトはそうであるにしても,それに至るプロセスは一般化して考えることができる.研究過程は普遍的と考えられる.普遍的な文学研究過程を解明し,その構造を把握し,モデルを構築することができれば,研究過程をコンピュータ上に再現できる.さらに,研究過程におけるコンピュータ活用の様相が分かる.つまり,集積すべき情報やシステムの性格がより明確になるはずである.なお,研究過程を知ることは知的創造のプロセスを知ることにつながる.要するに,コンピュータの役割は国文学の研究材料の組織化とその高次活用にあり,並びに研究過程の構造認識にある.そこで,次のようなステップに従って,この問題を考える.\begin{enumerate}\item国文学研究の態様を知る.\item取り扱う資料や情報の種類や性質を知る.\item資料や情報の整理,分析などの処理の方法を知る.\itemこれらについて情報科学的考察を行う.\end{enumerate}なお,観点を変えれば,国文学の研究過程のシミュレータの開発とも考えられる.\subsection{国文学の研究態様}国文学研究のスタイルとも言うべき研究の態様を考える.図\ref{fig:1}に,研究過程のモデルを示す.このモデルはかなり一般化したもので,国文学研究のみならず,他の多くの分野にも通じるモデルと考えている.研究過程は図に示す順序で展開するものとする.\begin{figure}[htb]\begin{center}\epsfile{file=fig1.eps,width=74mm}\caption{国文学の研究過程モデル}\label{fig:1}\end{center}\end{figure}\begin{itemize}\item[1.][研究課題]ステップから,研究は開始する.ここでは,関心のある分野の先人の研究と動向が詳しく調査研究される.各種の関連する資料や文献などが収集され,参照され,分析され,やゝ漠とした広い分野から,より具体的な研究対象が絞り込まれる.すなわち,研究課題の確立が行われる.次に,研究課題の解のための仮説が立てられる.\item[2.][調査]ステップは,仮説の検証のための具体的な実験,観測,調査などである.実験を例に取れば,実験計画,方法の準備,その実行とデータ採取まで,一連の流れを含む.実験の結果はデータとして取得され,集積される.\item[3.][展開]ステップは,これらのデータの考察と評価,すなわち検証である.ここでは,データに対する計算,分析,図式化などの処理が行われる.検証の結果,仮説の構造認識に至り,仮説が実証される.場合によっては,再度前段階へのフィードバックが行われたり,仮説の修正なども行われる.\item[4.][研究成果]ステップで,最後に結果がまとめられる.研究成果は論文の形で公表され,一応これで完了である.しかし,[研究成果]ステップは,また新しく次の[研究課題]ステップに戻る.この研究過程はサイクルをなしていると考えられる.ただし,回を追う毎に,質的な展開が行われている.\end{itemize}図の中心に,研究ファイル(FR:FilesforResearch)を置く.研究の全過程において,研究者個人が生成し,かつ参照する資料,データ,情報のファイルである.手書きで採取,記録されたデータやメモ類,あるいは複写物,写真,原本など,あらゆる研究用の材料も含む.この段階のFR中の各ファイルはたいへん雑多なもので,それらには相互に何のまとまりも脈絡もない.単に資料類の集積に過ぎない.研究成果として出版,公表されるもの以外は,FRに個人仕様に基づき蓄積されている.さて,このFRのファイル構造の認識は可能であろうか.すなわち,分類,整理などは可能であろうか.これらのファイルの電子情報化(ここでは,コンピュータに入力すること,以下電子化と言う)が可能であれば,FRのデータベース化が考えられる.この段階のFRの様相を知ることは,コンピュータ利用の可能性を知ることに繋がる.なお,現状では利用済みの材料はそのまま死蔵されるか,捨てられることが多い.他者による再利用を考慮することは,この分野への大きな貢献となる.\subsection{国文学情報の種類と性質}国文学研究で取り扱うべき材料の種類と性質を知る必要がある.研究対象である資料は,文献資料\setcounter{footnote}{0}\footnotemark及びテキスト資料\setcounter{footnote}{0}\footnotemarkである.文献資料には写本や刊本\setcounter{footnote}{0}\footnotemarkなどの原本\setcounter{footnote}{0}\footnotemarkや写真資料があり,また翻刻\setcounter{footnote}{0}\footnotemarkされ,印刷された活字本もある.テキスト資料はテキスト,語彙索引,用例索引などがある.また,研究論文の必要なことは言うまでもない.表\ref{tbl:1}に,国文学における資料,情報の種類と特徴をまとめる\cite{Yasunaga1989a}.高次性とは情報の表現形態を表す性質ではなく,取り扱うべき資料,情報の質的な違いを区分するものである.国文学情報は階層構造をなすと考えられる\cite{Yasunaga1995b}.情報は各階層においてそれぞれ独自に記録され,表現されている.文字だけではなく,画像,音声などマルチメディアによる表現である.\begin{table}[htb]\begin{center}\caption{国文学における資料,情報の種類と特徴}\label{tbl:1}\epsfile{file=tab1.eps,width=82mm}\end{center}\end{table}\vspace{-1mm}0次情報は,原本そのものに関わる情報である.1つの作品に関する本は,異本\setcounter{footnote}{0}\footnotemarkとして複数種類存在する.古典籍では同じ本はないと言っても過言ではない.主に,画像として取り扱う.さらに,動画,音曲,音声も用いる.1次情報は,原本の翻刻されたテキストに関わる情報(校訂本\setcounter{footnote}{0}\footnotemarkを含む)を対象とする.原本とその翻刻された本は異なるものである.また,1つの原本に対しても複数種類の翻刻本がある.主に文字で表すが,画像も取り扱う.2次情報は,主として目録情報である.目録情報はその伝本\setcounter{footnote}{0}\footnotemarkの書誌や所在を示すが,目録そのものを研究対象とする場合も多く,1次情報的に取り扱われる場合がある.研究論文などの目録も2次情報である.2次情報はおおむね文字である.3次情報は,特定テーマや分野に関する解説,研究動向あるいは目録の目録などを対象とする.また,高次情報は年間の全論文の総合解説や広範な引用分析など,より総合的な情報を言う.両者共文字と画像を用いる.音声を用いる場合もある.なお,文字は日本語として伝来された文字全てを対象とするため,システム外字(JIS規格外字)が多い.外字セットは先験的に分かっているものではなく,新資料発掘の度に発生する.すなわち,日常的な研究や業務の進行中に頻出する.恐らく,国文学用文字セットの定義域を規定することは不可能である.\subsection{従来の情報の処理}従来からの国文学研究におけるコンピュータの役割は,情報検索である\cite{Yasunaga1988,Yasunaga1989b}.情報の提供者側から見れば,国文学に関わる様々な学術情報の組織化を行い,データベースの形成を計り,研究者に役立つ情報検索システムを作り,サービスを行うことである.例えば,国文学研究資料館では創設時のコンピュータ導入に当たって,文献資料の検索,研究論文の検索,主要語彙の検索,及び定本\setcounter{footnote}{0}\footnotemarkの作成が計画されている.これらを対象とした情報検索システムの開発が進み,一部はサービスされてきている.また,表\ref{tbl:2}に示す様なデータベースの研究開発と構築が進んでいる.これらは,主として大型コンピュータを中心とした大量データの共有と共用に主眼が置かれたシステムである\cite{Yasunaga1990,Yasunaga1991}.\begin{table}[htb]\begin{center}\caption{国文学データベースの一覧}\label{tbl:2}\epsfile{file=tab2.eps,width=73.5mm}\end{center}\end{table}一方,情報の利用者側から見れば,コンピュータの役割は情報の探査と取得である.また,高次に利用することである.研究活動においては単純な情報検索だけではなく,いわゆる応用プログラマとして,多角的な観点からの柔軟な活用ができなければならない.\subsection{データベースの利用}図\ref{fig:2}に,データベースの利用を前提とした研究過程のモデルの1例を示す.このモデルは,表\ref{tbl:2}に基づく現在研究中の国文学研究支援システムに基づいている\cite{Hara1994,Hara1995}.\begin{figure}[htb]\begin{center}\epsfile{file=fig2.eps,width=74mm}\caption{データベース利用による研究過程のモデル}\label{fig:2}\end{center}\end{figure}論文検索フェーズでは,まず研究テーマを高次情報や3次情報により広く調査研究する.次いで,その研究テーマを確定するために,過去の研究経緯と成果を深く調査研究する.これはオンラインデータベース利用によって行う.例えば,2次情報によって関連資料の所在,有無などを知り,1次情報があれば直接入手する.原本検索フェーズでは,研究テーマの研究対象である文献資料を探し,入手する.すなわち,2次情報によって文献資料の書誌や所在を知り,1次情報あるいは0次情報によって直接入手する.研究推進フェーズでは,研究支援ツールを用いて研究を進める.支援ツールは一般的なテキスト解析システム,画像処理システムなどである.図\ref{fig:2}は,図\ref{fig:1}を電子化の側面で,やゝ具体的にとらえ直したモデルと考えられる.ただし,情報提供者側からの公用的な共有ファイルの提供である.ここで,考えるべきは個人の参画である.共有ファイルを個人で活用し,個人の環境に合わせて改編して行くことが出来ればよい.個人環境への部分集合の切り出しと,そのFRへの転化が必要である.
\section{研究ファイルのモデル}
\subsection{研究ファイル(FR)の基本構成}再びFRを考える.FRは研究者個人が自分の研究のために,自分で収集,蓄積し,かつ所有する資料,情報の集合と蓄積である.この蓄積は自分の仮説の検証のために行うのであって,研究過程の進展において,種類,量,質も変って行く.ときに,データとの対比により,仮説の再構築も必要となる.図\ref{fig:3}に,FRの基本構造を示す.5つの基本ファイルから構成している.各基本ファイルは,それぞれ内部に様々な個別のデータファイルを集積している.また,基本ファイル間には相互に密接な関連がある.\begin{figure}[htb]\begin{center}\epsfile{file=fig3.eps,width=78mm}\caption{FRの基本ファイルとその関連}\label{fig:3}\end{center}\end{figure}文献ファイルは,研究動向を知るための研究論文などのデータファイルの集積である.環境ファイルは作家,登場人物,時代,地域,ジャンルなど,その作品成立の諸々の環境をデータファイルとして集積する.素材ファイルは研究対象である作品そのものであって,原本,図書,校訂テキスト,各種索引などのデータファイルの集積である.ときに原稿も含む.人文科学でよく行われる用例などの採取されたデータのカードやノート類は,ここに位置づける.参照ファイルは事例や事項,風俗や習慣,各種制度,行事や式典,及び用字,用語,用例などの参考事項のデータファイルの集積である.図の中心に,メモファイルを置く.メモファイルは研究途中のデータ分析,計算,実験,シミュレーション,メモなどの記録のデータファイルである.各基本ファイルは随時に編集を可能とする.また,個別のデータファイルは随時に書き込み,切り張りを行う.ときに,関連の付け替えなど構造の改編を伴う.最大の特徴はメモファイルにある.単なる備忘的記録ばかりではなく,研究推進中のあらゆる記録が保存され,個人の研究そのものの経緯を持っている.さて,これらのデータファイルの電子化は可能であろうか.現在の技術環境からは,データの入力にそれほどの問題はない.問題は入力したデータの蓄積と取り扱いである.また,相互関連の付与である.関連は,極めて多様なかつ重層構造を持つであろう.さらに,各個別のデータファイル間,並びに基本ファイル間を渡り歩くことを可能としなければならない.\subsection{FRの成長過程}研究ファイルの電子化された状態のファイルを,以下FRと言う.とくに,この段階のFRは個人仕様であるので,これを個FR(PFR:PrivateFR)と言う.PFRは主観的であり,他者への提供を考慮して初めてデータに客観性が生まれる.ただし,この段階のデータはまだ特定の範囲に限定されている.この段階での客観的なFRを共有FR(SFR:SharedFR)と呼ぶことにする.ただし,以下の理由で,一次SFRと言う.研究成果のSFRへの投入を考える.このとき,情報構造の再編成が行われる.研究課題あるいは分野の範囲を明確に規定し,その情報表現と構造を確定することができれば,データファイルとしてのより確かな客観性が生まれる.少なくとも同じ分野の研究者への提供が可能になる.すなわち,他者への提供,あるいはデータファイルの流通である.この段階のSFRを二次SFRと言う.一次SFRと二次SFRにはあまり差異は無いが,二次SFRには構造の再編があり,より普遍的と考えられる.ところで,このデータファイルに対して,さらに網羅性と普遍性が保証されれば,これはデータベースに成長する\cite{Inose1981}.つまり,SFRからデータベースへの転換である.この段階でのデータは研究過程の全てを提供するのではなく,もっと客観的で普遍的なデータの提供である.一般の利用者が,誤りなくデータを利用できなければならない.FRの成長過程を図\ref{fig:4}にまとめる.図\ref{fig:4}では,机上の雑多なファイルを整理し,組織化し,電子化をはかる.PFRの形成である.PFRは研究者間での共有を考慮して,再編をはかればSFRに成長する.すなわち,一次SFRである.一次SFRは研究成果の投入によって,二次SFRに転換できる.さらに,データの網羅性を増し,普遍化されることによって,データベースへ成長する.\begin{figure}[htb]\begin{center}\epsfile{file=fig4.eps,width=79mm}\caption{FRの成長過程}\label{fig:4}\end{center}\end{figure}\subsection{FRの構築}FRの実現に当たっての課題は,個人仕様に依存するメモファイルの組織化,並びに各基本ファイルのマルチメディア対応である.SFRとしての実現は前述したモデルと方法に従って行う.実現の方式にはいくつかの方法が考えられるが,ここではハイパーテキストによる実装を考える.ハイパーテキストは上記の課題に応えられ,実装も各種ツールを使えば比較的容易である.本稿では,SFRの一般的な実装方法については触れていないが,次章で示すように具体的な課題を設定し,これを実現し,評価している.この場合,SFRそのものの具体的な実現を,一種の本の体裁,形式に合わせて作る.これを電子本と呼ぶ.電子本としてのイメージはSFRの実現形態の事例として,作る立場からも,使う立場からも分かり易いことによる.
\section{実験的FR「漱石と倫敦」考}
\subsection{実験的FRのテーマ設定}コンピュータにFRを作り,使うという試みを行った.このねらいはFRを実際に作ることができるかどうか,またこれを使うことによって文学研究は可能かどうかということの検証である.さらに,他者が使うことができるかどうかという重要な検証がある.具体的な文学研究のテーマとして,「漱石と倫敦」考を選んだ.「漱石と倫敦」考は,漱石が文学創作を始めるに至った彼のロンドン留学の影響を考察しようとするものである\cite{Inagaki1988}.19世紀末(ビクトリア期最後)の大英帝国の首都ロンドンに,夏目漱石(33歳)は文部省給費留学生として,英語研究のために(本人は英文学研究と認識している)2年間滞在した.この留学がその後の創作活動に与えた影響は大きい\cite{Deguchi1991}.そこで,ここでは漱石と共に,この留学を追体験し,漱石研究に資するという研究テーマを考えてみることにする.しかし,このテーマはたいへん大きいので,FRの例題としては少し絞らざるを得ない.留学に関わる創作で,最も影響のある作品の1つに処女作とも言うべき短編「倫敦塔\setcounter{footnote}{0}\footnotemark」がある.これをヨムこととする.すなわち,漱石のロンドン留学を知ることがテーマであるが,その直接的な影響による創作である倫敦塔を読むことを主題とする.この場合,どのような文学的テーマがあるであろうか\cite{Mizutani1987}.例えば,倫敦塔は暗く,漱石的狂気であるなどの研究が主なものであるが,シェークスピアの戯曲の影響による実験的創作と見ても差し支えない.あるいは,抑圧された漱石の女に対する憧れの吐露とみても差し支えない.文学は読み手の主観に訴える.さらに,ここから「ロンドンが漱石に与えた影響」について考え,あるいは「漱石がロンドンから得た知見」について考えることは可能であろうか.\subsection{実験的FRの考え方}\subsubsection{FRの作成}「漱石と倫敦」考を命題と言おう.この命題を考究し,分析し,文学的なテーマの解を得るステップ,すなわち文学研究過程を考える.この場合の研究過程は,図\ref{fig:1}〜図\ref{fig:3}に示す考え方に従って,構造を把握し,モデル化し,コンピュータに実装しなければならない.すなわち,FRを実現することが目的である.なお,当初の開発段階ではPFRの形成で進めたが,開発中にある程度の普遍化が可能であったため,SFRとして実現をはかっている.また,資料などの入力に当たっては,著作権などを極力考慮している.FRの作成は以下の手順で進める.(1)\\まず,倫敦塔を読む.また,関連して,漱石の最初の短編集「漾虚集\setcounter{footnote}{0}\footnotemark」,ロンドンでの生活についての小作品や文章(例えば「永日小品」や「自転車日記」),ロンドン滞在中の日記や書簡なども読む.次に,テキストをコンピュータに入力する.現代文であるが,校訂テキストが必要である\cite{Etou1991}.著作権を考慮し,解説,注記も入れる.(2)\\命題に関する研究論文を収集する.単行本,学会雑誌などである.現在,人文科学で利用可能なオンラインデータベースは少ない.冊子体で分散しており入手し難いが,国文学では明治期からの研究論文を参照しなければならない\cite{Sawai1993}.書誌目録程度はFRに入力する.著作権を考慮し,可能な限りテキストも入力する.(3)\\可能な限り,文献資料をオンラインで入手する.恐らく写真,絵などの画像である.著作権を考慮し,FRに入れる.(4)\\研究論文を読みながら,研究動向を分析し,把握し,研究テーマを確立する.文学研究のテーマは,例えば,\begin{quote}\begin{enumerate}\item漱石の倫敦塔におけるx,\itemxの視座から見た倫敦塔,\item倫敦塔とx\end{enumerate}\end{quote}などと考えられる.ここで,xは漱石の女性観,狂気,孤独,歴史観などである.ここでは何でも良い.(5)\\研究を展開する.経緯をFRに取り込む.研究の展開は,まず漱石の留学に関わる状況,環境,行動などを知ることである.例えば,以下のような課題について調査研究する.\begin{quote}\begin{enumerate}\item漱石はどの様な精神状態であったか.\item漱石はどの様な生活をしたか.\itemロンドンはどの様な都市であったか.\item時代背景・文化の潮流はどうであったか.\end{enumerate}\end{quote}このためには,参考となる資料,情報を集める必要がある.例えば,彼の日記や書簡から知る様々な環境情報,ロンドン市街地図,主たる建造物,風景などの絵または写真,もしくは動画による疑似体験,彼を取り巻く歴史的環境の情報,関連人物の情報,漱石がその点景で考えたことなどである.さらに,漱石は絵画などをよく鑑賞し,作品にはその影響が表れている.これらを全てFRに入れる.なお,各点景は関連する歴史的事実や解釈などによって,同定されなければならない.(6)\\これらをデータベースにする.文字,数値,画像,音声などマルチメディアである.\subsubsection{FRの検証}以上のFRが,データベースとして準備できれば,検証のための利用実験を行う.利用実験の目的は幾つかある.まず,倫敦塔をヨムことにどれだけ役立ったかの評価である.漱石と実際にロンドンを生活し,歩いてみること,あるいは漱石とロンドン塔に行くことである.このとき,具体的なテーマxが倫敦塔のどの箇所にどの様に現れているか,データベースより,具体的,網羅的に考究し,結論が得られるかどうかを検証する.この過程で,資料,情報の不備が判明し,それらの充足の必要性が分かる.この繰り返しによって,FRは徐々に完成度に近づく.なお,このとき他者の目が入ると,SFRが作成可能である.次の関心事は,新しい研究テーマと研究成果が期待できるかである.これについては後述する.他の観点として,教育への利用がある.すなわち,教材としての活用が考えられる.電子本として,完成された本に構成できれば,普遍的知識の提供という点で,利用効果は高いと考えられる.また,新しい出版メディアとしての電子出版も考えられる.なお,この検証は教育などの専門家によらなければならない.\subsection{実験的FRの構築}\subsubsection{FRの基本設計}図\ref{fig:5}に示すように,FRの基本構造を階層構造で定義する.電子本を意識しているので,目次建ての構成にしている.横軸は目次の章立てを表す.縦軸は各章の階層を表すと同時に,その章に含まれるべき各データファイルを置く.データファイルには,文献ファイルを例にとれば,特定の主題毎の研究論文リスト,あるいは研究論文のテキストなどがまとまりの単位として,定義される.\begin{figure}[htbp]\begin{center}\epsfile{file=fig5.eps,width=83mm}\caption{FRの基本構造}\label{fig:5}\end{center}\end{figure}階層はあまり深くしない.同じ階層に位置づけられるデータファイルは,厳密な範囲を設けないため,種類と数が多くなる.データファイルは,同じ階層間並びに異なる階層間で相互に関連を持つ.FRの構造はネットワーク構造などが適しているかも知れない.しかし,ここではプロトタイプとしての実現の容易さを考慮して,階層構造とした.各データファイル間の連絡は,HTML(HyperTextMarkupLanguage)などによる実現を想定している.一方,FRは倫敦塔をヨムことに主眼を置いている.倫敦塔は紀行的作品の形態をとっている.作者の目と共に,ロンドン塔の点景が移ろい行き,それぞれの点景で漱石的幻想空間が広がる.すなわち,漱石が感じたそれぞれの点景が,時系列として移り行き,作品に盛り込まれている.したがって,具体的な点景に基づき,そこに必要なあらゆる資料,情報が参照できると良いと考えられる.このFRの概念モデルを,彼が現実の下宿を出て,市街を歩き,ロンドンを眺め,ロンドン塔に入り,幻想的体験に浸り,また出て行き,現実の下宿に帰るという時の流れに従って定義する.図\ref{fig:6}に,時系列に従った構造を持つ概念モデルを簡潔に表す.この図に従って,電子本,すなわちFRを構成するものとする.\begin{figure}[htbp]\begin{center}\epsfile{file=fig6.eps,width=82mm}\caption{「漱石と倫敦」考の時系列による概念モデル}\label{fig:6}\end{center}\end{figure}なお,他の作品については倫敦塔と同様の構造が定義できなければならないが,作品によって時系列は使えない場合がある.その場合は,論理的構造,空間的構造などを考慮する.\subsection{実験的FRの実現}\subsubsection{電子本を作る}実装はハイパー構造を考えた.ここでは,ハイパーテキストをベースとして考えているが,必ずしもこれが最適と言うわけではない.ある知識の固まりが自由に手軽にポイントされるという点で,実装の便宜から選んだ.Macintoshに実装している.システムはボイジャー社製ツールキットを用いた.ツールキットは,電子本の作成を意識して開発されたハイパーカードをベースとする作成ツールである.構造は本の体裁をとる.すなわち,表紙,タイトル,目次,各章,本文,解説,索引などの目次スタイルの構造を持つ.図\ref{fig:7}に,「漱石と倫敦」考の電子本の目次と構成例を示す.煩雑さを避けるため,第2階層までとし,かつ一部しか示していない.目次から各章に飛ぶ.もちろん,目次を順に追うこともできる.各章ではその配下のデータファイルに対しては,事項のマウスクリックによるハイパージャンプで参照する.データファイル間のジャンプの他,ポインティング用ウインドウが定義できる.機能ウインドウも各種定義できる.例えば,テキストに対しての語彙の探査とコンコーダンスの作成,インデックスの作成などである.大まかな実装は以下の通りである.\begin{figure}[htb]\begin{center}\epsfile{file=fig7.eps,width=80mm}\caption{電子本「漱石と倫敦」考のもくじ構成}\label{fig:7}\end{center}\end{figure}1章は,「漱石と倫敦」の関わりである.留学の経緯,ロンドンにおける漱石を考える.留学に関わるあらゆる情報を集積する.基本ファイルのうち,環境ファイルと参考ファイルに相当する.2章は,ロンドンの情景である.環境ファイルである.ロンドンの市街地図(目下百年前の地図を探している),倫敦塔に関わる市街の建造物,風景の絵画,挿し絵,写真など,とくにロンドン塔の情景,建物構造図,言及している建物や文物の写真などを入れる.漱石は2年余の間下宿を5回変わっている.その図や近郊の情景は作品に関係が深い.3章は,漱石のロンドンに関わる作品に対する研究者と研究である.文献ファイルである.研究論文の索引,あるいは研究論文そのものをテキストで入れる.研究動向や研究経緯も入力する.研究の現在が辿れ,必要なデータベースなどへのアクセス法も分かる.4章は,倫敦塔をヨム.この電子本の中核である.すなわち,素材ファイルである.校訂テキストと事項解説などを入力する.作品の解題や解説,各種注記も入力する.このためには様々な参考ファイルが必要である.具体的な構造は後述の図\ref{fig:8}によっている.5章は,漱石のロンドン留学に関わる他の作品,例えばカーライル博物館,自転車日記などである.これも素材ファイルである.構造は4章と同様である.6章は,史跡の散策である.環境ファイルである.ここでは,現在のロンドンの町並みを動画による案内風にまとめた.言わば,観光案内のようなものである.動画と音声による情景描写は,仮想現実感を与え,作品をヨムことの深まりを与える.なお,ここではメモファイルは明確に定義していない.7章に準備だけはしている.何故ならば,メモは各章の各ページの中で,ツールキットにより自由に書き込みができるためである.また,逆のような理由で,ロンドンの情景は全て第2章に集約した.必要なデータファイルから,自由にアクセスできるためである.\begin{figure}[htb]\begin{center}\epsfile{file=fig8.eps,width=83mm}\caption{倫敦塔をヨム}\label{fig:8}\end{center}\end{figure}\subsubsection{倫敦塔をヨム}4章の実装は図\ref{fig:8}による.倫敦塔のテキストは,ロンドン塔へ実際に彼と行くことを想定して,時系列に従って,各種点景が参照できるよう配慮した.いつでも事項によるハイパージャンプによって,対応するデータが参照可能である.また,テキストには朗読を入れた.これにより,テキストを文字を追って読むこと以外にも,音声による鑑賞を可能とした.なお,可能ならば,漱石自筆の原稿が入ると価値が高まる.図\ref{fig:8}は,また「漱石と倫敦」考の全体構造を示している.実装は図\ref{fig:7}によっているが,言わば1つのビューとして図\ref{fig:8}が位置づけられる.この意味では,図\ref{fig:8}を基軸にした実装も考えられる.電子本として,約40枚の画像,主たるテキストとその朗読,及び各種索引,解説,注記などを含む.現在,約200ページの本となっているが,なお追加されつつある.実装したテキストとその検索例を,図\ref{fig:9}に示す.この例は,倫敦塔テキスト中から「余」と言う語を探し,そのKWICを表示した例である.画面コピーで示した.余は作品中で主体であり,その視点の移動によって,主題が展開する.\begin{figure}[htb]\begin{center}\epsfile{file=fig9.eps,width=113mm}\caption{倫敦塔テキストの検索例}\label{fig:9}\end{center}\end{figure}ハイパーテキストは基本的に階層構造であり,情報のまとまりを関連付けることができる.しかし,それらの複雑な相互関連,とくに論理構造は定義できない.限界はあるが,実験としては十分と考えている.\subsection{評価実験}\subsubsection{検証課題(電子本をヨム)}電子本をヨムことは,漱石と一緒に留学を追体験し,とくに一緒に倫敦塔の情景に従って,ロンドン塔まで歩いてみることである.日記には,ロンドン着後4日の10月31日(水)に,「TowerBridge,LondonBridge,Tower,Monumentヲ見ル」とある.どう歩いたか,何を考えたか想像しながら歩く.実際に,彼の辿った足取りを追って行く.これは地図,写真,関連する文などによって,ある程度可能である.これらの情報は現在入手可能な資料などで作るが,可能な限り当時の資料を収集する.なお,幸いなことに百年前と今のロンドンの町並みはほとんど変わっていない.漱石のロンドン留学が,漱石の内面にどの様な変化を生じさせたか.彼の文学論構築に至る精神活動は,彼と共に仮想現実的にロンドン体験を置くことにより,よりはっきりとするはずである.このシステムを訪れることによって,何かの発見が生まれると素晴らしい.次に,作品倫敦塔を読みながら,彼と一緒にロンドン塔内を歩いてみる.作品で何を言おうとしたかを考える.英国史の断片と,シェークスピアを知らなければならない.参照すべき情報が大量に必要である.19世紀末のロンドンを考え,日本を考えることに役立つ情報の集積がなければならない.これは,ある程度図\ref{fig:8}に従って実装されている.\subsubsection{評価}作り手以外の他者による利用を,大学院の教育現場における実験として行った.また,研究者による新しい知見獲得の可能性を探る利用実験も試みた.幾つかの経緯と文学的評価について述べる.10数名の国文学の学生を対象とした利用実験を行った.結果はおおむね好評であった.彼らにとっては初めての経験であり,戸惑いも多いようであったが,数時間の訓練で充分使いこなすことができた.机上と同じように研究を進めることができ,自分の感想や考えを簡単に入力できる(メモを取る)ことが評価された.また,題材としては,やや使い尽くされた感があり,必ずしも素材が完備していないとの批判があるが,プロセスそのものは新しく,かつ応用が利くことが確認された.一方,研究者による利用実験では建設的な評価が多く,以下にまとめる.漱石はジェーンの処刑の場面を,ドラローシュ\setcounter{footnote}{0}\footnotemarkの絵によっている.この絵は現在英国ナショナルギャラリにある.実際の絵は畳3枚くらいの大きさの絵であるが,コンピュータでは画面サイズでしかない.しかし,この程度のイメージでも,単に文を読むだけでは味わえない臨場感を与え,彼の幻想を体験できる意義が強調され,評価された.作品では首切り役人は醜く書かれ,哀れさを助長するのに役立つ風情があるが,漱石が見たドラローシュの絵の首切り役人は,大した美丈夫に描かれている.果たして,この差には何らかの意味,あるいは意図があるのであろうか,大きなテーマであり,このシステムによる発見である.すなわち,彼が作品の中で言及した絵を実際に見ることによって,発見できるテーマである.ジェーンの処刑の場面は,その幽閉された塔に行って,その題辞を見ることによって,より深く作品に同化できる.実際に,システムを通じて目にしなくては実感が湧かない.処刑の場面に登場する首切り歌などは,そこに恐ろしい音楽のように響く描写がなされている.これなども,実際に朗読を聴くことで,より作者と同化する作品鑑賞につながる.以上は,マルチメディアによる新しい作品鑑賞,並びに研究の道があることの事例となった.また,テキストは結構難解な歴史的背景や事項があり,これらの解説など多くの参考データをハイパージャンプで簡単に参照できる.作品を読むに当たって,たいへん有効な手段であることが確認され,好評であった.さらに,自分のメモが残せることも有用であった.これらのことに加え,様々な知識の利用や参照に関して,自由度の高い教材の提供が可能であろうという点で,一般教育への電子本の活用はかなり有効であるとの評価を得た.
\section{あとがき}
コンピュータを用いて国文学研究を進めるには,研究ファイルの組織化が必要なことを述べた.現在,その試みとして電子本「漱石と倫敦」考の研究開発を進めている.実際に研究者による評価では概して評判がよい.例えば,倫敦塔と言う作品をヨム場合に,各種関連情報を利用できるメリットが大きい.利用者はメモを書き込んだり,必要な情報を入れるなど,自分の研究環境の整備がコンピュータ上でできる.狙いは,文学的テーマの解が得られるか,あるいは知的生産活動に耐えうるかということである.この評価が必要である.実験ではマルチメディアで文学作品をヨムことにより,従来無かった新しい研究テーマも指摘されている.しかしながら,「漱石と倫敦」考と言うテーマは極めて大きい.しかも倫敦塔に絞っている.そのため,カーライル博物館や自転車日記など他の関連作品に進み,トータルな「漱石と倫敦」考を体験できることが望まれている.なお,電子本は先験的に構造が与えられているので,自由度がなく研究には向かないとの指摘もある.これは,メモファイルは常時書き込み,修正などが許され,1部の共有部分を除き,個人研究環境の累積となることで,対処できよう.確かに,倫敦塔から他の作品に適用する場合など,時系列を柱とすることはできないかも知れない.この場合は,その作品特有の構造に着目すればよい.要するに,本稿で述べた方法は,言わば方式の例示的標本を提供し,そこから自由に個人環境を作れるようにすることである.特筆すべきは,教育用の電子本という点である.大学院レベルの教育用素材としての価値の他に,大学あるいは高校,一般においても,充分価値のある新しい形態の本ではなかろうか.著作権などをクリアして上での電子出版が望まれている.また,SFRの共有は例えばグループウェアとして,プロジェクト研究などの推進に役立つと考えられる.とくに,今後はパソコン環境への実装ばかりではなく,例えばWWW(WorldWideWeb)サーバなどへの登録,あるいはグループ内のLAN環境での実装など,用途は広いと考えられる.Mosaicなどによる一般提供なども考慮する必要がある.現在計画中である.本稿は,現在死蔵される運命にある研究個人環境の研究過程の素材の活用に道を開いた.恐らく,今後はコンピュータの活用を前提にすれば,研究過程でのPFRの活用は,ある程度の研究者の責務と考えるべきかも知れない.以上のような観点から,コンピュータ応用を考える場を,コンピュータ国文学と呼んでいる.コンピュータ国文学は,国文学研究にとって従来型の研究をより一層推進することは当然であるが,一歩進んで従来無かった新しい研究領域を提供することが期待される.本論では触れなかった重要な課題が多くある.例えば,データベースの一貫性制御,典拠コントロール,テキスト処理の実際,並びに著作権の問題である.とくに,著作権は原著者,校訂者,電子化データ作成者,出版者などの複雑な関連もあり,今後真剣に考え対処すべき問題である.ここでは,問題点の指摘に留める.最後に,本稿は文献\cite{Yasunaga1995a}に基づいている.\acknowledgment本研究では,日頃ご指導いただく国文学研究資料館の佐竹昭廣館長,藤原鎮男教授,立川美彦教授に御礼申し上げる.また,同館松村雄二教授,中村康夫助教授には,有益な助言と批評などをいただいた.とくに,原正一郎助教授,情報処理係野村龍氏をはじめ,係員諸氏には,システム開発,実験などの協力をいただいた.合わせて深謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\section*{付録}\subsection*{国文学の用語}主として,広辞苑(1983,岩波書店,第三版)によった,読みのABC順で示す.\begin{description}\item[異本(イホン):]同一の書物であるが,文字,語句,順序に異同があるもの.別本.\item[折句(オリク):]短歌,俳句などの各句の上に物名などを一字ずつ置いたもの.\item[刊本(カンポン):]狭義には主として江戸時代の木活字本,銅活字本,整版本などの称.版本.\item[沓冠(クツカブリ):]ある語句を各句の始めと終わりに1音ずつ読み込むもの.折句の1つ.\item[原本(ゲンポン):]写し,改訂,翻刻などをする前の元になる本.\item[校訂本(コウテイボン):]古書などの本文を他の伝本と比べ合わせ,手を入れて正した本.\item[定本(テイホン):]異本を校合して誤謬,脱落などを検討し,校正し類書中の標準となるように本文を定めた本.\item[テキスト資料:]国文学作品の本文(ほんもん),ここでは活字化され印刷された本.\item[伝本(デンポン):]ある文献の写本または版本として世に伝存するもの.\item[ドラローシュ:]Delaroche,Paul(1797-1856).フランスの歴史画家.漱石の見た絵は,フランスルーブル美術館にある「エドワードの子供達」と,イギリスナショナルギャラリにある「ジェーンの処刑」.\item[引歌(ヒキウタ):]有名な古歌を自分の文章にひき踏まえて表現し,その箇所の情趣を深め広める表現技巧.\item[文献資料:]国文学の研究対象となる原本や写真資料.\item[本歌(ホンカ)どり:]和歌,連歌などで,意識的に先人の作の用語,語句などを取り入れて作ること.\item[翻刻(ホンコク):]手書き文字,木版文字などを活字に置き換えること.翻刻本とは,写本,刊本を底本として,木版または活版で刊行した本.\item[問答歌(モンドウカ):]一方が歌で問い,他方が歌で答えたものの併称.\item[漾虚集(ヨウキョシュウ):]夏目漱石の短編集.倫敦塔を含む初期7編の短編を収めたもので,明治39年(1906)大月書店から出版された.\item[連歌(レンガ):]和歌の上句と下句に相当する長句と短句との唱和を基本とする詩歌の形態.\item[倫敦塔(ロンドントウ):]夏目漱石の短編.明治38年(1905)「帝国文学」に発表.ロンドン滞在中に見物したロンドン塔の印象を骨子とする.\end{description}\begin{biography}\biotitle{略歴}\bioauthor{安永尚志}{1966年電気通信大学電気通信学部卒業.同年電気通信大学助手,東京大学大型計算機センター助手,同地震研究所講師,文部省大学共同利用機関国文学研究資料館助教授を経て,1986年より同館教授.情報通信ネットワークに興味を持っている.現在人文科学へのコンピュータ応用に従事.とくに,国文学の情報構造解析,モデル化,データベースなどに関する研究と応用システム開発を行っている.最近では,テキストデータベースの開発研究に従事.電子情報通信学会,情報知識学会,情報処理学会,言語処理学会,ALLC,ACHなど会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V13N03-02
|
\section{はじめに}
自然言語処理において高い性能を得ようとするとき,コーパスを使った教師あり学習(supervisedlearning)は,今や標準的な手法である.しかしながら,教師あり学習の弱点は一定量以上のタグ付きコーパスが必要なことである.仮によい教師あり学習の手法があったとしても,タグ付きコーパス無しでは高い性能は得られない.ここでの問題は,コーパスのタグ付けは労力がかかるものであり,非常に高くつくことである.この点を克服するためいくつかの手法が提案されている.最小限教師あり学習\footnote{``minimally-supervisedlearning''をさす.全ての事例に対してラベルを与えるのではなく,極めて少量の事例に対してのみラベルを与える手法.例えば\cite{Yarowsky1995,Yarowsky2000}などがある.}や能動学習(activelearning)(例えば\cite{Thompson1999,Sassano2002})である.これらに共通する考え方は,貴重なラベル付き事例を最大限に活かそうということである.同じ考え方に沿う別の手法として,ラベル付き事例から生成された{\em仮想事例}(virtualexamples)を使う手法がある.この手法は,自然言語処理においてはあまり議論されていない.能動学習の観点から,LewisとGale\shortcite{Lewis1994}が文書分類での仮想事例について少し触れたことがある.しかしながら,彼らはそれ以上仮想事例の利用については踏み込まなかった.このとき考えられた利用方法は,分類器(classifier)が自然言語で書かれた仮想的な文書例を作り,人間にラベル付けさせるものだったが,それは現実的ではないと考えられたからである.パターン認識の分野では,仮想事例はいくつかの種類について研究されている.SVMsとともに仮想事例を使う手法を最初に報告したのは,Sch\"{o}lkopfら\shortcite{Schoelkopf1996}である.彼らは,手書き文字認識タスクにおいて精度が向上したことを示した(第~\ref{sec:vsv}節でも述べる).このタスクでの次のような事前知識(priorknowledge)に基づいて,ラベル付き事例から仮想事例を作り出した.その事前知識とは,ある画像を少しだけ修正した画像(例えば,1ピクセル右にシフトさせた画像)であっても元の画像と同じラベルを持つということである.また,Niyogiらも事前知識を使って仮想事例を作り,それにより訓練事例の数を拡大する手法について議論している\cite{Niyogi1998}.我々の研究の大きな目的は,コーパスに基づく自然言語処理において,Sch\"{o}lkopfら\shortcite{Schoelkopf1996}がパターン認識で良好な結果を報告している仮想事例の手法の効果を調べることである.コーパスに基づく自然言語処理での仮想事例の利用については,バイオ文献中の固有表現認識を対象にした研究\cite{Yi2004}があるが,対象タスクも限られており,研究が十分に進んでいるとは言えない状況である.しかしながら,仮想事例を用いるアプローチを探求することは非常に重要である.なぜなら,ラベル付けのコストを削減することが期待できるからである.特に,我々はSVMs\cite{Vapnik1995}における仮想事例の利用に焦点をあてる.SVMは自然言語処理で最も成功している機械学習の手法の一つだからである.文書分類\cite{Joachims1998,Dumais1998},チャンキング\cite{Kudo2001},係り受け解析\cite{Kudo2002}などに適用されている.本研究では,文書分類タスクを自然言語処理における仮想事例の研究の最初の題材として選んだ.理由は大きく二つある.一つには,機械学習を用いた文書分類を実際に適用しようとすると,ラベル付けのコストの削減は重要な課題になるからである.もう一つには,ラベル付き事例から仮想事例を作り出す方法として,単純だが効果的なものが考えられるからである(第~\ref{sec:vx}節で詳細に述べる).本論文では,仮想事例がSVMを使う文書分類の精度をどのように向上させるか,特に少量の学習事例を使った場合にどうなるかを示す.
\section{サポートベクタマシン}
本節では,サポートベクタマシン(SVMs)の理論的な枠組みを簡単に与える.訓練事例が以下のように与えられるとする:\begin{displaymath}(\bmath{x}_{1},y_{1}),\ldots,(\bmath{x}_{i},y_{i}),\ldots,(\mbox{\boldmath$x$}_{l},y_{l}),\mbox{\boldmath$x$}_{i}\in\mbox{\boldmath$R$}^{n},y_{i}\in\{+1,-1\}.\end{displaymath}SVMの枠組みにおける決定関数(decisionfunction)$g$は次のように定義される:\begin{eqnarray}g(\mbox{\boldmath$x$})&=&{\rmsgn}(f(\mbox{\boldmath$x$}))\\f(\mbox{\boldmath$x$})&=&\sum_{i=1}^{l}y_{i}\alpha_{i}K(\mbox{\boldmath$x$}_{i},\mbox{\boldmath$x$})+b\label{eq:fx}\end{eqnarray}ここで$K$はカーネル関数,$b\in\bmath{R}$は閾値,$\alpha_{i}$は重みである.さらに,重み$\alpha_{i}$は次の制約も満たす:\begin{displaymath}\foralli:0\leq\alpha_{i}\leqC\{\rmand}\\sum_{i=1}^{l}\alpha_{i}y_{i}=0,\end{displaymath}ここで$C$は誤分類のコストである.ゼロでない$\alpha_{i}$を持つ事例$\bmath{x}_{i}$はサポートベクタと呼ばれる.線形(linear)SVMでは,カーネル関数$K$は次のように定義される:\begin{displaymath}K(\mbox{\boldmath$x$}_{i},\mbox{\boldmath$x$})=\mbox{\boldmath$x$}_{i}\cdot\mbox{\boldmath$x$}.\end{displaymath}このとき,式~(\ref{eq:fx})は次のように書き直すことができる:\begin{eqnarray}f(\bmath{x})&=&\bmath{w}\cdot\bmath{x}+b\end{eqnarray}ここで$\bmath{w}=\sum_{i=1}^{l}y_{i}\alpha_{i}\bmath{x}_{i}$である.SVMの学習とは,次の最適化問題を解いて$\alpha_{i}$と$b$を求めることである.\begin{eqnarray*}\mbox{\rmmaximize}&\displaystyle{\sum_{i=1}^{l}\alpha_{i}-\frac{1}{2}\sum_{i,j=1}^{l}\alpha_{i}\alpha_{j}y_{i}y_{j}K(\mbox{\boldmath$x$}_{i},\mbox{\boldmath$x$}_{j})}\\\mbox{\rmsubjectto}&\displaystyle{\foralli:0\leq\alpha_{i}\leqC\{\rmand}\\sum_{i=1}^{l}\alpha_{i}y_{i}=0}\label{alphacond}.\end{eqnarray*}この解は,最適超平面(optimalhyperplane)を与える.この超平面は二つのクラスの決定境界(decisionboundary)である.図~\ref{fig:sv}に最適超平面とサポートベクタの例を示す.\begin{figure}\begin{center}\epsfile{file=sv-hp-2.eps,width=24em}\end{center}\caption{超平面(太線)とサポートベクタ}\label{fig:sv}\end{figure}
\section{仮想事例と仮想サポートベクタ}
label{sec:vsv}仮想事例は,ラベル付き事例から生成されるとする\footnote{ここではラベル付き事例からの生成のみ考える.ラベルが分からない事例からの生成は考えないとする.}.ターゲットとなるタスクの事前知識に基づいて,元になった事例のラベルと同じものを,仮想事例として生成された事例のラベルに設定する.例えば,手書き数字の認識では,上下左右の方向に1ピクセル移動させても事例に対するラベルは変化しないとの仮定を置いて,仮想事例を作ることができる\cite{Schoelkopf1996,DeCoste2002}.特にサポートベクタから作られた仮想事例は,{\em仮想サポートベクタ}({\emvirtualsupportvectors})と呼ばれる.妥当な仮定に基づいて生成された仮想サポートベクタは,よりよい最適超平面を与えると期待される.仮想事例がターゲットとなるタスクにおける事例の自然なバリエーションを表現していると仮定すると,決定境界はより正確になるはずである.図~\ref{fig:vsv}は仮想サポートベクタの例を示している.仮想サポートベクタが与えられた図~\ref{fig:vsv}の例では,最適超平面が図~\ref{fig:sv}と異なっていることに注意されたい.\begin{figure}\begin{center}\epsfile{file=vsv-hp-4.eps,width=24em}\end{center}\caption{超平面と仮想サポートベクタ.図~\ref{fig:sv}に,サポートベクタの仮想事例,\\つまり仮想サポートベクタが追加されている.}\label{fig:vsv}\end{figure}
\section{文書分類のための仮想事例}
label{sec:vx}本節では,文書分類のための仮想事例の作り方の提案手法を述べる.まず,文書分類の事前知識から仮定を設定し,次にその仮定に基づく提案手法を述べる.ここでは,文書分類について次の仮定を置く:\begin{assumption}\label{assum1}ある文書に付けられているカテゴリは,たとえ少量の単語を追加あるいは削除しても変化しない.\end{assumption}この仮定は十分妥当であろう.文書分類の典型的な適用場面では,大抵の文書は,カテゴリを暗示する数個以上のキーワードと,一定量のカテゴリによらない単語を含んでいる.少量の単語の追加削除の影響は多くの場合に限定的だと考えられる.仮定~\ref{assum1}に従って,文書分類のための仮想事例を生成する方法を二つ提案する.第一の方法は,少量の単語を文書から削除する方法である.仮想事例のラベルは,その仮想事例の元となった事例のラベルと同じであるとする.もう一つの方法は,少量の単語を文書に追加する方法である.仮想事例に追加される単語は,元となる文書と同じラベルを持つ文書群から選ぶ.仮定~\ref{assum1}に基づく仮想事例の作り方にはいろいろなものが考えられるが,本研究では非常に簡単なものをまず提案し,その効果を検証したい.提案手法を述べる前に,本研究で用いた文書の表現方法(textrepresentation)について述べる.一つの文書は一つの単語ベクタ(wordvector)で表現する.文書を単語に分割し,それらを小文字に統一,ストップワードを削除した.ストップワードのリストはfreeWAIS-sf\footnote{http:\slash\slashls6-www.informatik.uni-dortmund.de\slashir\slashprojects\slashfreeWAIS-sf\slash}のものを用いた.ステミングは行なっていない.各単語をバイナリ素性として表現している.単語の頻度は利用していない.このとき,文書集合全体には$m$個の異なり単語$w_{1},w_{2},\ldots,w_{m}$があるとすると,一つの文書は単語のベクタとして表現できる.以下では,文書に存在する単語をコンマで区切って並べ,$[\]$で囲って単語ベクタを記述することにする.例えば,ある文書$\bmath{x}$が四つの単語$w_{1},w_{3},w_{4},w_{6}$から構成されるとき,$\bmath{x}=[w_{1},w_{3},w_{4},w_{6}]$と書く.それでは,二つの提案手法\GenerateByDeletion\と\GenerateByAddition\を述べる.ある文書を表す単語ベクタ$\bmath{x}$と,$\bmath{x}$から生成された単語ベクタ$\bmath{x'}$があるとする.アルゴリズム\GenerateByDeletion\は次の通り:\begin{enumerate}\item$\bmath{x}$を$\bmath{x'}$にコピーする.\item$\bmath{x'}$のそれぞれの単語$w$について,もし${\rmrand}()\let$なら単語$w$を$\bmath{x'}$から削除する.ここで${\rmrand}()$は$0$から$1$の乱数を生成する関数,$t$はどの程度の素性を削除するかを決めるパラメータである.\end{enumerate}例を示す.表~\ref{tbl:sample}にあるような文書集合があるとする.\begin{table}\caption{文書集合の例}\label{tbl:sample}\begin{center}\begin{tabular}{c|lc}\hline\hlineDocumentID&単語ベクタ(\bmathsmall{x})&ラベル($y$)\\\hline1&$[w_{1},w_{2},w_{3},w_{4},w_{5}]$&$+1$\\2&$[w_{2},w_{4},w_{5},w_{6}]$&$+1$\\3&$[w_{2},w_{3},w_{5},w_{6},w_{7}]$&$+1$\\4&$[w_{1},w_{3},w_{8},w_{9},w_{10}]$&$-1$\\5&$[w_{1},w_{8},w_{10},w_{11}]$&$-1$\\\hline\end{tabular}\end{center}\end{table}Document~1からアルゴリズム\GenerateByDeletion\で生成される仮想事例としては$([w_{2},w_{3},w_{4},w_{5}],+1)$や$([w_{1},w_{3},w_{4}],+1)$,$([w_{1},w_{2},w_{4},w_{5}],+1)$などが考えられる.アルゴリズム\GenerateByAddition\は次の通り:\begin{enumerate}\item訓練事例の中から$\bmath{x}$と同じラベルを持つ文書を集める.\itemそれら文書を表す単語ベクタを全てつなげて,単語の配列$a$を作る.\item$\bmath{x}$を$\bmath{x'}$にコピーする.\item$\bmath{x}$のそれぞれの単語$w$について,もし${\rmrand}()\let$なら配列$a$からランダムに一つの単語を選び,それを$\bmath{x'}$に加える.\end{enumerate}例を示す.表~\ref{tbl:sample}のDocument~2からアルゴリズム\GenerateByAddition\を用いて仮想事例を作ろうとするとき,まず配列$a=(w_{1},w_{2},w_{3},w_{4},w_{5},w_{2},w_{4},w_{5},w_{6},w_{2},w_{3},w_{5},w_{6},w_{7})$を作る.このとき,アルゴリズム\GenerateByAddition\で作られる仮想事例として,$([w_{1},w_{2},w_{4},w_{5},w_{6}],+1)$や$([w_{2},w_{3},w_{4},w_{5},w_{6}],+1)$,$([w_{2},w_{4},w_{5},w_{6},w_{7}],+1)$などが考えられる.逆に,$([w_{2},w_{4},w_{5},w_{6},w_{10}],+1)$のような事例はDocument~2からは決して作られない.$+1$のラベルを持つ文書には,$w_{10}$は含まれていないからである.
\section{評価実験と議論}
label{sec:exp}\subsection{対象データ}我々はReuters-21578データセット\footnote{DavidD.Lewisのwebサイトから利用できる.URL:http:\slash\slashwww.daviddlewis.com\slashresources\slashtestcollections\slashreuters21578\slash}を提案手法の有効性の検証に使った.このデータセットには,訓練事例とテスト事例の分け方(split)にいくつかのバリエーションがある.今回我々は``ModApte''と呼ばれる分け方を用いた.文書分類の文献で最も広く使われているものである.``ModApte''では,訓練事例9,603,テスト事例3,299と分けられている.Reuters-21578には100以上のカテゴリが含まれているが,他の多くの文献と同様,我々も最も頻度が高い10カテゴリのみ利用した.表~\ref{tbl:numcat}に,その10カテゴリと,カテゴリごとの訓練事例数とテスト事例数を示す.\begin{table}\caption{カテゴリごとの訓練事例数とテスト事例数}\begin{center}\begin{tabular}{l|r|r}\hline\hlineカテゴリ名&訓練事例&テスト事例\\\hlineearn&2877&1087\\acq&1650&719\\money-fx&538&179\\grain&433&149\\crude&389&189\\trade&369&117\\interest&347&131\\ship&197&89\\wheat&212&71\\corn&181&56\\\hline\end{tabular}\end{center}\label{tbl:numcat}\end{table}\subsection{性能評価尺度}本研究では,F値(F-measure)\cite{vanRijsbergen1979,Lewis1994}を実験結果を評価する第一の尺度として用いる.F値は次のように定義される:\begin{eqnarray}{\rmF値}&=&\frac{(1+\beta^{2})pq}{\beta^{2}p+q}\label{eq:f-measure}\end{eqnarray}ここで$p$は適合率(precision),$q$は再現率(recall),$\beta$は適合率と再現率の相対的な重みを決めるをパラメータである.$p$と$q$は次のように定義される:\begin{eqnarray*}p&=&\frac{分類器の出力が+1でかつ正しい事例の数}{分類器の出力が+1であった事例の数}\\q&=&\frac{分類器の出力が+1でかつ正しい事例の数}{ラベルが+1である事例の数}\end{eqnarray*}式~(\ref{eq:f-measure})では通常$\beta=1$が用いられる.これは適合率と再現率に等しく重みを置くことを意味する.複数のカテゴリを持つデータセットに対して,分類器の性能を評価しようとするとき,F値を計算する方法としては二つある.マクロ平均(macro-averaging)とマイクロ平均(micro-averaging)である\cite{Yang1999b}.前者はまずそれぞれのカテゴリに対してF値を計算し,平均する方法である.後者は全てのカテゴリ全体に対して適合率と再現率をまず計算し,それを使ってF値を計算する方法である.\subsection{SVMの設定}実験には我々が作成したSVMのツールを用いた.線形SVMを用い,誤分類のコスト$C$は$0.016541$に設定した.この値は$1/{\rmavg}(\bmath{x}\cdot\bmath{x})$により決めた.ここで$\bmath{x}$は事例数9603の訓練事例に含まれる素性ベクタである.実験を単純にするため,$C$の値は全ての実験において固定した.表~\ref{tbl:numcat}で示した10のカテゴリそれぞれに対して2値分類を行なう分類器を構築した.\subsection{実験結果と考察}まず,\GenerateByDeletion\と\GenerateByAddition\をそれぞれ独立に用いて仮想事例を作って実験を行なった.なお,このときサポートベクタに対してのみ仮想事例を作った.全ての実験に対して,\GenerateByDeletion\と\GenerateByAddition\のいずれに対しても,パラメータ$t$は$0.05$\footnote{最初に,$t$として$0.01,0.05,0.10$の三つの値を試した.\GenerateByDeletion\を使って,事例数9,603の訓練事例から仮想事例を作った.テスト事例に対して,$t=0.05$の場合に最も高いマイクロ平均F値が得られた.同じ$t$の値を,\GenerateByAddition\の場合にも用いた.}とした.仮想事例を使ったSVMを学習して得るための手順は次の通り:\begin{enumerate}\item(仮想事例を使わずに)SVMを訓練する.\itemサポートベクタを抽出する.\itemそれらサポートベクタから仮想事例を生成する.\item元々の訓練事例と仮想事例とを合わせて使って新たなSVMを訓練する.\end{enumerate}\begin{table}\caption{異なる手法間のマイクロ平均F値の比較.``VSV''は仮想サポートベクタ,``GenByDel''は\\\GenerateByDeletion,``GenByAdd''は\GenerateByAddition\を意味する.}\label{tbl:pretest}\begin{center}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{7}{c}{訓練事例中の事例数}\\\cline{2-8}手法&9603&4802&2401&1200&600&300&150\\\hlineA.オリジナルSVM&89.42&86.58&81.69&77.24&71.08&64.44&53.28\\B.SVM+1VSVperSV(GenByDel)&90.17&88.62&84.45&81.11&75.32&70.11&60.16\\C.SVM+1VSVperSV(GenByAdd)&90.00&88.51&84.48&81.14&75.33&69.59&60.04\\D.SVM+2VSVsperSV(Combined)&90.27&89.33&86.27&83.59&77.44&72.81&64.22\\E.SVM+4VSVsperSV(Combined)&90.45&89.69&87.12&84.97&79.16&73.25&65.05\\\hline\end{tabular}\end{center}\end{table}訓練事例のサイズを変えて,\GenerateByDeletion\と\GenerateByAddition\の二つの手法の性能を評価した.7つのサイズ(9603,4802,2401,1200,600,300,150)を用意した\footnote{事例数4802以下のセットを作る際,事例をランダムに選択したので,事例数が少ないセットにおいて頻度の小さいカテゴリでは,$+1$のラベルを持つ事例が非常に少ないかまったく無い場合がある.}\<.この二つの手法を用いた場合のマイクロ平均F値を表~\ref{tbl:pretest}に示す.表~\ref{tbl:pretest}の手法Bが\GenerateByDeletion{},手法Cが\GenerateByAddition{}である.この表から両手法ともオリジナルのSVM(手法A)よりも性能が良いことが分かる.訓練事例の事例数が少ないほうが,性能の向上が大きい.事例数9603の訓練事例の場合,\GenerateByDeletion\によるF値向上は0.75($=90.17-89.42$)であるが,一方,事例数150の訓練事例では,F値向上は6.88($=60.16-53.28$)となっている.これらの結果から,事例数が少ない訓練事例には,よりよい決定境界を与えるのに十分なだけの事例のバリエーションが存在しておらず,それゆえ,事例数が少ない訓練事例では,仮想事例の効果が大きくなったと考えられる.上記結果より,\GenerateByDeletion\と\GenerateByAddition\の両手法が本タスクに対してはよい仮想事例を生成しており,それが精度向上につながったと結論付けてよいだろう.仮想事例を作り出す簡単な二つの方法\GenerateByDeletion\と\GenerateByAddition\が効果的なことが分かったが,次にこれらを組み合わせた方法についても調べた.1つのサポートベクタにつき,2つの仮想事例を作ることにする.つまり,\GenerateByDeletion\で1事例を作り,\GenerateByAddition\でもう1事例を作る.この組み合わせた手法を手法Dとし,そのマイクロ平均F値を表~\ref{tbl:pretest}に示す.この手法によるF値向上は,\GenerateByDeletion{},\GenerateByAddition\それぞれを単独で用いた場合よりも大きい.さらに,1つの事例から\GenerateByDeletion\で2つ,\GenerateByAddition\で2つ事例を作り出す手法についても実験を行なった.つまり,1つのサポートベクタから4つの仮想事例を作る.この手法を手法Eとし,そのF値を表~\ref{tbl:pretest}に示す.1つのサポートベクタから4つの仮想事例を作り出す手法が最もよい結果を得た.\begin{figure}\begin{center}\epsfile{file=microf1-j02.eps,scale=0.95}\end{center}\caption{マイクロ平均F値と訓練事例中の事例数}\label{fig:micro-f1}\end{figure}\begin{figure}\begin{center}\epsfile{file=macrof1-j02.eps,scale=0.95}\end{center}\caption{マクロ平均F値と訓練事例中の事例数.事例数が少ないところでは,適合率が\\未定義となり,F値は計算することができなかった.}\label{fig:macro-f1}\end{figure}\begin{figure}\begin{center}\epsfile{file=error-j02.eps}\end{center}\caption{エラー率と訓練事例中の事例数}\label{fig:error}\end{figure}本節の以下の議論では,オリジナルのSVMと,1つのサポートベクタから生成された4つの仮想事例を使うSVM(以降\SVMFourVSVs\と記す)の実験結果の比較に焦点をあてる.オリジナルSVMと\SVMFourVSVs\の学習曲線を図~\ref{fig:micro-f1},図~\ref{fig:macro-f1}に示す.マイクロ平均F値,マクロ平均F値の両方で,\SVMFourVSVs\がオリジナルSVMより明らかに性能が良い.\SVMFourVSVs\は,あるレベルのF値を得るのに,オリジナルSVMに比べて概ね半分以下の訓練事例数で済んでいる.例えば,オリジナルSVMでは,マイクロ平均F値64.44を得るのに300事例必要である(表~\ref{tbl:pretest}参照).一方,\SVMFourVSVs\では150事例で65.05を得ている.F値の改善は,ただ再現率が大きく改善したせいで実現され,その裏でエラー率が上昇している可能性もある.これを確認するため,32990のテスト(3299のテストを10カテゴリそれぞれについて)に対してのエラー率の変化を図~\ref{fig:error}にプロットした.エラー率においても,\SVMFourVSVs\がオリジナルSVMよりも優れている\footnote{我々は有意水準0.05で``p-test''~\cite{Yang1999}と呼ばれる検定を行なった.事例数9603の訓練事例では,エラー率の改善は統計的に有意とは言えなかったが,それ以外の全ての場合においては統計的有意となった.}.\begin{table}\caption{10カテゴリそれぞれに対するオリジナルSVMによるF値.ハイフン`-'はF値が\\計算できなかったことを示す.分類器が常に$-1$を返し,適合率が未定義となったため.\\太字はオリジナルSVMが\SVMFourVSVs\(表~\ref{tbl:vsv-each}参照)より優れていることを示す.}\label{tbl:sv-each}\begin{center}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{7}{c}{訓練事例中の事例数}\\\cline{2-8}カテゴリ名&9603&4802&2401&1200&600&300&150\\\hlineearn&98.06&97.49&97.40&96.39&95.94&94.85&93.73\\acq&91.94&89.87&84.43&84.01&78.17&63.10&12.03\\money-fx&64.90&61.69&56.03&51.69&17.91&01.11&05.38\\grain&86.96&81.68&75.20&59.63&41.27&06.49&\undefv\\crude&84.59&81.52&67.11&33.33&01.05&\undefv&\undefv\\trade&74.89&64.58&54.86&40.26&12.80&01.69&\undefv\\interest&{\bf63.89}&60.29&50.27&35.15&08.57&05.88&\undefv\\ship&66.19&44.07&32.73&02.22&\undefv&\undefv&\undefv\\wheat&{\bf89.61}&80.60&38.30&08.11&\undefv&\undefv&\undefv\\corn&84.62&62.79&10.17&\undefv&\undefv&\undefv&\undefv\\\hlineマクロ平均&80.56&72.46&56.65&\undefv&\undefv&\undefv&\undefv\\マイクロ平均&89.42&86.58&81.69&77.24&71.08&64.44&53.28\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{10カテゴリそれぞれに対する\SVMFourVSVs\によるF値.太字は\SVMFourVSVs\が\\オリジナルSVMより優れていることを示す(表~\ref{tbl:sv-each}参照).}\label{tbl:vsv-each}\begin{center}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{7}{c}{訓練事例中の事例数}\\\cline{2-8}カテゴリ名&9603&4802&2401&1200&600&300&150\\\hlineearn&{\bf98.07}&{\bf98.02}&{\bf97.56}&{\bf97.37}&{\bf97.14}&{\bf96.00}&{\bf95.46}\\acq&{\bf94.20}&{\bf93.06}&{\bf91.71}&{\bf88.81}&{\bf88.92}&{\bf78.70}&{\bf59.92}\\money-fx&{\bf70.83}&{\bf73.10}&{\bf62.86}&{\bf65.68}&{\bf47.91}&{\bf32.43}&{\bf33.76}\\grain&{\bf89.20}&{\bf84.72}&{\bf85.11}&{\bf80.44}&{\bf60.79}&{\bf44.10}&{\bf01.00}\\crude&{\bf84.93}&{\bf86.33}&{\bf76.92}&{\bf74.36}&{\bf15.53}&{\bf02.00}&\undefv\\trade&{\bf75.83}&{\bf73.21}&{\bf62.31}&{\bf43.53}&{\bf37.58}&{\bf18.32}&{\bf01.65}\\interest&62.73&{\bf63.16}&{\bf65.77}&{\bf63.35}&{\bf59.11}&{\bf37.50}&{\bf11.92}\\ship&{\bf73.68}&{\bf67.14}&{\bf50.79}&{\bf30.48}&{\bf06.45}&{\bf02.22}&\undefv\\wheat&87.42&{\bf82.61}&{\bf87.94}&{\bf68.91}&{\bf10.67}&\undefv&\undefv\\corn&{\bf87.50}&{\bf84.11}&{\bf46.75}&{\bf68.09}&{\bf03.45}&\undefv&\undefv\\\hlineマクロ平均&{\bf82.44}&{\bf80.55}&{\bf72.77}&{\bf68.10}&{\bf42.76}&\undefv&\undefv\\マイクロ平均&{\bf90.45}&{\bf89.69}&{\bf87.12}&{\bf84.97}&{\bf79.16}&{\bf73.25}&{\bf65.05}\\\hline\end{tabular}\end{center}\end{table}10カテゴリそれぞれに対する性能の変化を表~\ref{tbl:sv-each},表~\ref{tbl:vsv-each}に示す.\SVMFourVSVs\は殆どの場合でオリジナルSVMよりもよい.事例数9603での``interest''と``wheat''の場合のみ,\SVMFourVSVs\が下回っているが,理由は不明である\footnote{仮想事例の効果は事例数が多いほど減少するという一般的な傾向があるので,文書の性質によっては,一定数以上の事例の場合に効果が出ないことは十分考えられる.ただ,何がその限界を決めているのかは現時点では不明である.}.頻度が小さい``ship''や``wheat'',``corn''といったカテゴリに対して,オリジナルSVMの性能は良くない.分類器が決して$+1$を出力しなかった場合,つまり再現率ゼロの場合も多い.これは,ラベルとして$+1$を持つ事例が非常に少ないバランスの悪い訓練事例のために,オリジナルSVMがよい超平面を見つけられなかったことを示している\footnote{SVMでバランスの悪い訓練事例に対処する方法として,誤分類のコスト$C$を,$+1$のラベルを持つ事例,$-1$のラベルを持つ事例それぞれで別の値に設定する方法がある\cite{Morik1999}.}.これに対し,\SVMFourVSVs\はそういうバランスの悪い訓練事例のような難しい場合でもよりよい結果を得ている.
\section{関連研究との比較}
自然言語処理においてSVMsを仮想事例とともに用いている研究として,Yiらの研究\cite{Yi2004}がある.ここで彼らの研究との違いをまとめておく.違いは大きく二つある.対象タスクと,仮想事例の元となる事例の選び方である.彼らは固有表現認識を対象とし,全ての事例から仮想事例を作っている.一方,我々の研究では,文書分類を対象とし,サポートベクタとなる事例からのみ仮想事例を作っている.サポートベクタ以外から仮想事例を作っても精度向上にはあまり影響せず\footnote{Sch\"{o}lkopfは,手書き数字の認識タスクにおいて,全ての事例から仮想事例を作った場合は精度が向上しなかったと報告している\cite[page112]{Schoelkopf1997}.SVMでは,サポートベクタ以外の事例は最適超平面の位置を決めるのに影響しないので,サポートベクタ以外から仮想事例を作っても精度向上にあまり寄与しないのは納得できることである.},また事例数増加による学習時間増加のデメリットがあるので,本研究ではサポートベクタのみから仮想事例を作っている.なお,対象タスクが異なるので,仮想事例の作り方が異なるのは言うまでもない.彼らは,ある文中に現れた固有表現を,同じクラスを持つ別の固有表現で置き換えて新しい文を作り,これを仮想事例としている.
\section{おわりに}
我々は仮想事例がSVMsを使った文書分類においてどのように性能を改善するかについて調べた.文書分類において,ある文書のラベルは少量の単語を追加あるいは削除しても変化しないとの仮定を置いて,仮想事例を作り出す方法を提案した.実験結果によれば,我々の提案手法はSVMsを用いた文書分類の性能を向上させることが分かった.特に事例数の少ない場合に有効であった.提案手法が文書分類以外の自然言語処理タスクにすぐに適用可能というわけではないが,今回,今まで自然言語処理の分野で十分に議論されていなかった仮想事例の利用について実験的に評価したことは意味があると言える.将来的には,仮想事例を,ラベル付き事例とラベルなし事例を使う手法(\cite{Blum1998,Nigam1998,Joachims1999,Taira2001}など)と組み合わせることも興味深いだろう.この両者を組み合わせたアプローチは,少量のラベル付き事例しかない場合に対して,さらによい結果が得られる可能性がある.別の興味深い将来の研究の方向性は,他の自然言語処理のタスク(品詞タグ付けや構文解析など)に対しても仮想事例を作る方法を開発することであろう.自然言語処理のさまざまなタスクにおいても,事前知識をうまく使い,効果的な仮想事例を作る方法があると信じる.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blum\BBA\Mitchell}{Blum\BBA\Mitchell}{1998}]{Blum1998}Blum,A.\BBACOMMA\\BBA\Mitchell,T.\BBOP1998\BBCP.\newblock\BBOQCombiningLabeledandUnlabeledDatawithCo-training\BBCQ\\newblockIn{\BemProceedingsoftheEleventhAnnualConferenceonComputationalLearningTheory},\mbox{\BPGS\92--100}.\bibitem[\protect\BCAY{DeCoste\BBA\Sch\"{o}lkopf}{DeCoste\BBA\Sch\"{o}lkopf}{2002}]{DeCoste2002}DeCoste,D.\BBACOMMA\\BBA\Sch\"{o}lkopf,B.\BBOP2002\BBCP.\newblock\BBOQTrainingInvariantSupportVectorMachines\BBCQ\\newblock{\BemMachineLearning},{\Bbf46},\mbox{\BPGS\161--190}.\bibitem[\protect\BCAY{Dumais,Platt,Heckerman,\BBA\Sahami}{Dumaiset~al.}{1998}]{Dumais1998}Dumais,S.,Platt,J.,Heckerman,D.,\BBA\Sahami,M.\BBOP1998\BBCP.\newblock\BBOQInductiveLearningAlgorithmsandRepresentationsforTextCategorization\BBCQ\\newblockIn{\BemProceedingsoftheSeventhInternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\148--155}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1998}]{Joachims1998}Joachims,T.\BBOP1998\BBCP.\newblock\BBOQTextCategorizationwithSupportVectorMachines:LearningwithManyRelevantFeatures\BBCQ\\newblockIn{\BemProceedingsofthe10thEuropeanConferenceonMachineLearning},\mbox{\BPGS\137--142}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1999}]{Joachims1999}Joachims,T.\BBOP1999\BBCP.\newblock\BBOQTransductiveInferenceforTextClassificationusingSupportVectorMachines\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonMachineLearning},\mbox{\BPGS\200--209}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2001}]{Kudo2001}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2001\BBCP.\newblock\BBOQChunkingwithSupportVectorMachines\BBCQ\\newblockIn{\BemProceedingsoftheSecondMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\192--199}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking\BBCQ\\newblockIn{\BemProceedingsoftheSixthWorkshoponComputationalLanguageLearning},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Lewis\BBA\Gale}{Lewis\BBA\Gale}{1994}]{Lewis1994}Lewis,D.~D.\BBACOMMA\\BBA\Gale,W.~A.\BBOP1994\BBCP.\newblock\BBOQASequentialAlgorithmforTrainingTextClassifiers\BBCQ\\newblockIn{\BemProceedingsoftheSeventeenthAnnualInternationalACM-SIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\3--12}.\bibitem[\protect\BCAY{Morik,Brockhausen,\BBA\Joachims}{Moriket~al.}{1999}]{Morik1999}Morik,K.,Brockhausen,P.,\BBA\Joachims,T.\BBOP1999\BBCP.\newblock\BBOQCombiningStatisticalLearningwithaKnowledge-BasedApproach--ACaseStudyinIntensiveCareMonitoring--\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthInternationalConferenceonMachineLearning},\mbox{\BPGS\268--277}.\bibitem[\protect\BCAY{Nigam,McCallum,Thrun,\BBA\Mitchell}{Nigamet~al.}{1998}]{Nigam1998}Nigam,K.,McCallum,A.,Thrun,S.,\BBA\Mitchell,T.\BBOP1998\BBCP.\newblock\BBOQLearningtoClassifyTextfromLabeledandUnlabeledDocuments\BBCQ\\newblockIn{\BemProceedingsoftheFifteenthNationalConferenceonArtificialIntelligence(AAAI-98)},\mbox{\BPGS\792--799}.\bibitem[\protect\BCAY{Niyogi,Girosi,\BBA\Poggio}{Niyogiet~al.}{1998}]{Niyogi1998}Niyogi,P.,Girosi,F.,\BBA\Poggio,T.\BBOP1998\BBCP.\newblock\BBOQIncorporatingPriorInformationinMachineLearningbyCreatingVirtualExamples\BBCQ\\newblockIn{\BemProceedingsoftheIEEE},\lowercase{\BVOL}~86,\mbox{\BPGS\2196--2209}.\bibitem[\protect\BCAY{Sassano}{Sassano}{2002}]{Sassano2002}Sassano,M.\BBOP2002\BBCP.\newblock\BBOQAnEmpiricalStudyofActiveLearningwithSupportVectorMachinesfor{Japanese}WordSegmentation\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\505--512}.\bibitem[\protect\BCAY{Sch\"{o}lkopf}{Sch\"{o}lkopf}{1997}]{Schoelkopf1997}Sch\"{o}lkopf,B.\BBOP1997\BBCP.\newblock{\BemSupportVectorLearning}.\newblockR.OldenbourgVerlag,M\"{u}nchen.\newblockhttp://www.kyb.tuebingen.mpg.de/\~{}bs.\bibitem[\protect\BCAY{Sch\"{o}lkopf,Burges,\BBA\Vapnik}{Sch\"{o}lkopfet~al.}{1996}]{Schoelkopf1996}Sch\"{o}lkopf,B.,Burges,C.,\BBA\Vapnik,V.\BBOP1996\BBCP.\newblock\BBOQIncorporatingInvariancesinSupportVectorLearningMachines\BBCQ\\newblockInvon~derMalsburg,C.,vonSeelen,W.,Vorbr\"{u}ggen,J.,\BBA\Sendhoff,B.\BEDS,{\BemArtificialNeuralNetworks--ICANN'96,SpringerLectureNotesinComputerScience,Vol.1112},\mbox{\BPGS\47--52}.\bibitem[\protect\BCAY{Taira\BBA\Haruno}{Taira\BBA\Haruno}{2001}]{Taira2001}Taira,H.\BBACOMMA\\BBA\Haruno,M.\BBOP2001\BBCP.\newblock\BBOQTextCategorizationUsingTransductiveBoosting\BBCQ\\newblockIn{\BemProceedingsoftheTwelfthEuropeanConferenceonMachineLearning},\mbox{\BPGS\454--465}.\bibitem[\protect\BCAY{Thompson,Califf,\BBA\Mooney}{Thompsonet~al.}{1999}]{Thompson1999}Thompson,C.~A.,Califf,M.~L.,\BBA\Mooney,R.~J.\BBOP1999\BBCP.\newblock\BBOQActiveLearningforNaturalLanguageParsingandInformationExtraction\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthInternationalConferenceonMachineLearning},\mbox{\BPGS\406--414}.\bibitem[\protect\BCAY{vanRijsbergen}{vanRijsbergen}{1979}]{vanRijsbergen1979}vanRijsbergen,C.\BBOP1979\BBCP.\newblock{\BemInformationRetrieval\/}(2nd\BEd).\newblockButterworths.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Vapnik1995}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Yang}{Yang}{1999}]{Yang1999b}Yang,Y.\BBOP1999\BBCP.\newblock\BBOQAnEvaluationofStatisticalApproachestoTextCategorization\BBCQ\\newblock{\BemJournalofInformationRetrieval},{\Bbf1}(1/2),\mbox{\BPGS\67--88}.\bibitem[\protect\BCAY{Yang\BBA\Liu}{Yang\BBA\Liu}{1999}]{Yang1999}Yang,Y.\BBACOMMA\\BBA\Liu,X.\BBOP1999\BBCP.\newblock\BBOQARe-examinationofTextCategorizationMethods\BBCQ\\newblockIn{\BemProceedingsofSIGIR-99,2ndACMInternationalConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\42--49}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky1995}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{Yarowsky\BBA\Wicentowski}{Yarowsky\BBA\Wicentowski}{2000}]{Yarowsky2000}Yarowsky,D.\BBACOMMA\\BBA\Wicentowski,R.\BBOP2000\BBCP.\newblock\BBOQMinimallySupervisedMorphologicalAnalysisbyMultimodalAlignment\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\207--216}.\bibitem[\protect\BCAY{Yi,Lee,\BBA\Park}{Yiet~al.}{2004}]{Yi2004}Yi,E.,Lee,G.~G.,\BBA\Park,S.-J.\BBOP2004\BBCP.\newblock\BBOQSVM-basedBiologicalNamedEntityRecognitionusingMinimumEdit-DistanceFeatureBoostedbyVirtualExamples\BBCQ\\newblockIn{\BemProceedingsoftheFirstInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\241--246}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{颯々野学}{1991年京都大学工学部電気工学第二学科卒業.同年より富士通研究所研究員.1999年9月より1年間,米国ジョンズ・ホプキンス大学客員研究員.2006年3月よりヤフー株式会社勤務.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N04-07
|
\section{はじめに}
\label{sect_intro}計算機の急速な普及に伴い,様々な自然言語処理システムが一般に用いられるようになっている.中でも,日本語の仮名漢字変換は最も多く利用されるシステムの1つである.仮名漢字変換の使いやすさは変換精度に大きく依存するため,常に高精度で変換を行うことが求められる.近年では,変換精度の向上とシステム保守の効率化を両立させるために,確率的言語モデルに基づく変換方式である統計的仮名漢字変換\cite{確率的モデルによる仮名漢字変換}が広まりつつある.変換精度を向上させる上で問題となるのは,多くの言語処理システムと同様,未知語の取り扱いである.統計的仮名漢字変換では,文脈情報を反映するための単語$n$-gramモデル,入力である読みと出力である単語表記の対応を取るための仮名漢字モデルの2つのモデルによって出力文候補の生成確率を計算し,候補を確率の降順に提示するが,未知語(単語$n$-gramモデルの語彙に含まれない単語)を含む候補の生成はできない.この問題に対処して変換精度を向上させる一般的な方法は,仮名漢字変換の利用対象分野における未知語の読み・文脈情報を用いたモデルの改善である.仮名漢字変換の利用対象となる分野は多岐に渡っており,未知語の読み・文脈情報を含む対象分野の学習コーパスがあらかじめ利用可能であるという状況は少ない.このため,情報の付与されていない対象分野のテキストに必要な情報を付与して学習コーパスを新たに作成するということが行われる.しかしながら,未知語の中には,読みや単語境界をテキストの表層情報から推定することが困難な単語が少なからず存在する.このような場合には,対象分野の学習コーパスを作成するためにその分野についての知識を有する作業者が必要となるなど,コストの面で問題が多い.上記の問題を解決するために,本論文では,テキストと内容の類似した音声を認識することで未知語の読み・文脈情報を単語とその読みの組として自動獲得し,統計的仮名漢字変換の精度を向上させる手法を提案する.以下に手法の概略を述べる.まず,情報の付与されていない対象分野のテキストから,未知語の出現を考慮した単語分割コーパスである疑似確率的単語分割コーパスを作成し,未知語候補の抽出を行う.次に,疑似確率的単語分割コーパスから音声認識のための言語モデルを構築するとともに,未知語候補の読みを複数推定・列挙し,発音辞書を作成する.その後,言語モデルと発音辞書を用いて対象分野の音声を認識し,音声認識結果から単語と読みの組の列を獲得する.最後に,獲得した単語と読みの組の列を統計的仮名漢字変換の学習コーパスに追加して言語モデルと仮名漢字モデルを更新する.実験では,統計的仮名漢字変換のモデル構築に用いる一般分野のコーパスに,獲得した未知語の読み・文脈情報を追加し,モデルを再構築することで変換精度が向上することを確認した.本論文で提案する枠組みは,対象分野のテキストと音声の自動収集が可能であるという前提のもとで,未知語に対して頑健なモデルを構築することができるため,統計的仮名漢字変換の効率的かつ継続的な精度向上に有効である.
\section{単語$n$-gramモデルとその応用}
\label{sect2_LM}確率的言語モデルとは,任意の記号列\footnote{ここで述べる「記号」は処理単位としての記号であり,文字や単語,品詞など様々なものを考えることができる.}に対して,その記号列がある自然言語から生成された確率を計算する枠組みを与えるためのモデルである\cite{確率的言語モデル}.本節では,最も一般的な確率的言語モデルの1つである単語$n$-gramモデルとその応用について述べる.\subsection{単語$n$-gramモデル}\label{subsect:W-ngram}本項では,確率的言語モデルとして広く用いられる単語$n$-gramモデルならびにモデルパラメータの推定について述べる.単語$n$-gramモデルは,文を単語列$\Bdma{w}=\Conc{w}{h}$とみなし,単語の生起を($n-1$)重マルコフ過程で近似したモデルである.すなわち,単語$n$-gramモデルにおいて,ある時点での単語$w_{i}$の生起は直前の$(n-1)$単語に依存する.ここで,単語列$\Bdma{w}$の生成確率$M_{w,n}(\Bdma{w})$は以下の式で与えられる.\[M_{w,n}(\Bdma{w})=\displaystyle{\prod_{i=1}^{h+1}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})}\]この式で,$w_{i}\;(i\leq0)$と$w_{h+1}$はそれぞれ文頭と文末を表す特別な記号である.言語モデル構築の際には,学習コーパス内で観測されたデータの生じる確率を最大にするように最尤推定法でモデルパラメータを決定することが一般的である.最尤推定で単語$n$-gramモデルのパラメータ推定を行う場合は,あらかじめ単語分割されているコーパス内に出現する単語$n$-gramの頻度を計数し,以下の式によって単語$n$-gramの確率を求める.\begin{align}\label{equation:para1}&\qquad\qquad&P(w_i)&=\cfrac{f(w_i)}{f(\cdot)}&(\text{if}\quadn=1)&\qquad\qquad&\\\label{equation:para2}&&P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})&=\cfrac{f(\Bdma{w}_{i-n+1}^i)}{f(\Bdma{w}_{i-n+1}^{i-1})}&(\text{if}\quadn>1)&&\end{align}式(\ref{equation:para1})において,$f(w_i)$はコーパス内の単語$w_i$の出現頻度(1-gram頻度)を表し,$f(\cdot)$はコーパス内における全ての単語の出現頻度(0-gram頻度)を表す.式(\ref{equation:para2})において,$f(\Bdma{w}_{i-n+1}^i)$はコーパス内における連続する$n$単語の組の出現頻度($n$-gram頻度)を表す.ここで,未知語を含む単語列の生成確率を単語$n$-gramモデルで計算する場合を考える.未知語を含む単語列の生成確率が0となることを防ぐため,未知語を表す特別な記号$\UW$を用意して,モデル構築の際に他の語彙エントリと同様に0より大きい確率を与えておく.未知語を予測するには,まず単語$n$-gramモデルにより$\UW$を予測し,さらにその表記(文字列)$\Bdma{x}$を以下の文字$n$-gramモデルにより予測する.\[M_{x,n}(\Bdma{x})=\prod_{i=1}^{h'+1}P(x_{i}|\Bdma{x}_{i-n+1}^{i-1})\]ここで$x_{i}\;(i\leq0)$と$x_{h'+1}$は,それぞれ語頭と語末を表す特別な記号である.本項で述べた$n$-gramモデルの応用として,文献\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法}では日本語や中国語のように分かち書きされない言語に対する形態素解析器を提案している.また,文献\cite{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}では,文献\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法}で提案された手法の拡張として,式(\ref{equation:para1})(\ref{equation:para2})における$w_i$を単語,読み,アクセント,品詞の4つ組に置き換えた$n$-gramモデルによってテキストの読みとアクセントの推定を行うシステムを提案している.\subsection{統計的仮名漢字変換}\label{subsect:KKC}本項では,\cite{確率的モデルによる仮名漢字変換}で提案されている確率的モデルを用いた統計的仮名漢字変換について述べる.日本語の仮名漢字変換システムは,計算機のキーボードからの入力記号列\footnote{入力記号列の記号とは,キーボードから入力可能なラテン文字,記号,仮名文字を表す.}$\Bdma{z}$を仮名漢字混じり文である文字列$\Bdma{x}$に変換する.ここでは,出力を文字列$\Bdma{x}$とする代わりに単語列$\Bdma{w}$とし,入力記号列$\Bdma{z}$に対応する候補$\Bdma{w}$を以下に示す事後確率$P(\Bdma{w}|\Bdma{z})$が大きいものから順に列挙する.\begin{equation}P(\Bdma{w}|\Bdma{z})=\cfrac{P(\Bdma{z}|\Bdma{w})P(\Bdma{w})}{P(\Bdma{z})}\end{equation}最尤の変換結果$\hat{\Bdma{w}}$は,$P(\Bdma{w}|\Bdma{z})$をベイズの定理により以下のように変形することで求めることができる.\begin{equation}\label{equation:KKC}\hat{\Bdma{w}}=\argmax_{\Bdma{w}}P(\Bdma{z}|\Bdma{w})P(\Bdma{w})\end{equation}式(\ref{equation:KKC})において,後半の$P(\Bdma{w})$は言語モデルであり,\ref{subsect:W-ngram}節で述べた単語$n$-gramモデルを用いることができる.前半の$P(\Bdma{z}|\Bdma{w})$は確率的仮名漢字モデルと呼ばれ,単語列$\Bdma{w}$が与えられた際の入力記号列の生成確率を表す.ここで述べている変換モデルでは出力を文字列$\Bdma{x}$ではなく単語列$\Bdma{w}$とみなしているため,単語と入力記号列との対応関係がそれぞれ独立であると仮定することで$P(\Bdma{z}|\Bdma{w})$は以下の式で表される.\begin{equation}\label{equation:PMg}P(\Bdma{z}|\Bdma{w})=\prod_{i=1}^{h}P(z_{i}|w_{i})\end{equation}ここで,部分入力記号列$z_{i}$は単語$w_{i}$に対応する入力記号列であり,全体の入力記号列は$\Bdma{z}=\Conc{z}{h}$となる.仮名漢字モデルのパラメータ推定には,単語ごとに入力記号列が付与されたコーパスを用い,式(\ref{equation:PMg})における確率$P(z_{i}|w_{i})$の値は,以下の式によって計算される.\begin{equation}\label{equ_param_PM}P(z_{i}|w_{i})=\frac{f(z_{i},\;w_{i})}{f(w_{i})}\end{equation}ここで$f(z_{i},\;w_{i})$は単語と読みの組の出現頻度であり,$f(w_{i})$は単語出現頻度である.\subsection{確率的単語分割コーパス}\label{subsection:SSC}$n$-gramモデルの性能はパラメータ学習のためのコーパスに大きく依存する.しかし,決定的な単語分割を行うコーパスを単語$n$-gramモデルのパラメータ推定に用いる場合,分割誤りによって未知語の出現頻度が0となっている可能性がある.このようなコーパスから構築される単語$n$-gramモデルは未知語に対する頑健性に欠けるため,本項では,確率的単語分割コーパス並びにその近似である疑似確率的単語分割コーパス\cite{擬似確率的単語分割コーパスによる言語モデルの改良}の枠組みを用いてこの問題に対処する方法を述べる.\subsubsection{確率的単語分割コーパスを用いた$n$-gram確率の推定}\label{subsubsect:WBP}日本語の単語分割は,入力文における各文字間に単語境界があるかどうかを決定する問題とみなせる.入力となるコーパスを長さ$n_r$の文字列$\Bdma{x}_1^{n_r}=\Conc{x}{n_r}$としたとき,確率的単語分割コーパスは隣接する2文字$x_{i}$と$x_{i+1}$の間に単語境界確率$P_{i}$を与えたものとして定義される.ここでは,確率的単語分割コーパスを作成するために最大エントロピーモデルを用いて単語境界確率の推定を行う\cite{擬似確率的単語分割コーパスによる言語モデルの改良}.単語境界をある文字列境界が単語境界であるか否かを決めるための素性として,単語境界の周辺$x_{i-2}^{i+2}$の範囲の文字$n$-gram($n=1,2,3$)と文字種の情報を用いる.ここで,確率的単語分割コーパス内での単語の扱いについて述べる.決定的に単語分割されたコーパスにおいて,単語0-gram頻度はコーパス中の全単語数,単語1-gram頻度はそれぞれの単語の出現頻度である.確率的単語分割コーパスにおいては,単語0-gram頻度$f(\cdot)$はコーパス中に現れる全ての部分文字列の期待頻度として,以下の式で定義される.\[f(\cdot)=1+\sum_{i=1}^{n_{r}-1}P_{i}\]また,確率的単語分割コーパス中のある1箇所に現れる単語$w$の期待頻度$f(w)$は,文字列$x_{i+1}x_{i+2}\cdotsx_{i+k}$が単語$w$である確率を以下に示す式から計算することで得られる.\[f(w)=P_{i}\left[\prod_{j=1}^{k-1}(1-P_{i+j})\right]P_{i+k}\]これは$x_{i+1}$の左側($i$番目の文字列境界)が単語境界,$x_{i+1}x_{i+2}\cdotsx_{i+k}$の間にある文字列境界が単語境界ではない,$x_{i+k}$の右側が単語境界である,というときに文字列$x_{i+1}x_{i+2}\cdotsx_{i+k}$が単語$w$である確率を示している.確率的単語分割コーパス中における単語$w$とその期待頻度の扱いを図\ref{figure_sect2_SSC_freq}に示す.$f(w)$は1箇所の$w$に対する期待頻度なので,単語1-gram期待頻度はコーパス中の全ての出現にわたる期待頻度の合計となる.単語$n$-gram期待頻度($n\geq2$)についても,単語境界である確率$P_i$と単語境界ではない確率($1-P_i$)から同様に期待頻度の計算を行う.単語$n$-gram確率は,式(\ref{equation:para1})(\ref{equation:para2})における$n$-gram頻度を$n$-gram期待頻度として推定する.以上に述べた確率的単語分割コーパスから構築される単語$n$-gramモデルは,テキスト中に出現する全ての部分文字列が語彙となるため,未知語に対して頑健なモデルとなる.\begin{figure}[t]\begin{center}\includegraphics{17-4ia8f1.eps}\end{center}\caption{確率的単語分割コーパスにおける期待頻度}\label{figure_sect2_SSC_freq}\end{figure}\subsubsection{疑似確率的単語分割コーパス}\label{subsubsection:P-SSC}上述の確率的単語分割コーパスを用いて$n$-gram確率の推定を行う場合,単語の出現頻度を計算するために多くの計算時間が必要となる.本節では,この問題に対処するために提案されている疑似確率的単語分割コーパス\cite{擬似確率的単語分割コーパスによる言語モデルの改良}の枠組みについて述べる.これにより,決定的に単語分割されたコーパスを用いて確率的単語分割コーパスに近い$n$-gram確率を推定することができ,かつ未知語に対する頑健性を保持することができる.疑似確率的単語分割コーパスは,確率的単語分割コーパスに対して以下の処理を最初の文字から最後の文字まで($1\leqi\leqn_{r}$)行うことで得られる.\begin{enumerate}\item文字$x_{i}$を出力する.\item乱数$r_{i}(0\leqr_{i}<1)$を発生させ$P_{i}$と比較する.$r_{i}<P_{i}$の場合には単語境界記号(空白)を出力し,そうでない場合には何も出力しない.\end{enumerate}これにより,確率的単語分割コーパスの特徴をある程度反映し,かつ決定的に単語分割されたコーパスを得ることができる.この処理を1回行って得られるコーパスにおいて,文字列としての出現頻度が低い単語$n$-gramの頻度は,確率的単語分割コーパスから期待頻度を計算した場合と大きく異なる可能性がある.近似による誤差を減らすためには,上記の手続きを$M$回行って得られる単語分割コーパス全てを単語$n$-gram頻度の計数の対象とすればよい.このコーパスを疑似確率的単語分割コーパスと呼び,$M$をその倍率と呼ぶ.
\section{未知語とその読み・文脈情報の自動獲得}
\label{sect3_Ext}本節では,仮名漢字変換の対象となる分野のテキストと音声を用いて未知語の読み・文脈情報を自動獲得し,統計的仮名漢字変換で用いられる言語モデルならびに仮名漢字モデルの性能を改善させる手法について述べる.\subsection{提案手法の概略}\label{subsect:ext_overview}\begin{figure}[b]\begin{center}\includegraphics{17-4ia8f2.eps}\end{center}\caption{提案手法の概要図}\label{figure_sect4_overview}\end{figure}本項では提案手法の概略について述べる.図\ref{figure_sect4_overview}に提案手法全体の概要を示す.本研究では,人手によって読みと単語境界が付与されている一般分野のコーパス$C_b$があらかじめ用意されているものとする.また,以下では一般分野のコーパスから読みを取り除いたコーパスを一般分野の単語分割コーパスと記述し,その中に存在する単語を既知語,それ以外の単語を未知語と定義する.提案手法では,以下に示す4段階の処理により,未知語の読み・文脈情報を未知語を含む単語と読みの組の列として音声認識結果から獲得\footnote{音声認識には大語彙音声認識システムJulius\cite{Julius.--.An.Open.Source.Real-Time.Large.Vocabulary.Recognition.Engine}を用いる.}し,統計的仮名漢字変換のモデルを更新する.\begin{enumerate}\item情報の付与されていない対象分野のテキストから疑似確率的単語分割コーパスを作成し,未知語の候補となる単語(以下,未知語候補と記述する)の抽出を行う(3.2項を参照).\item疑似確率的単語分割コーパスを用いて音声認識のための言語モデルを構築する.また,未知語候補の読みを複数推定し,音声認識のための発音辞書を作成する(3.3項参照).\item準備した言語モデル,発音辞書,音響モデルを用いて対象分野の音声を認識し,音声認識結果から単語と読みの組の列を獲得する(3.4項を参照).\item獲得した単語と読みの組の列を統計的仮名漢字変換の学習コーパスに追加して言語モデルと仮名漢字モデルを更新する(3.5項を参照).\end{enumerate}以下では,これらの処理について詳細を述べる.\subsection{疑似確率的単語分割コーパスを用いた未知語候補の抽出}\label{subsect:ext_unk}まず,獲得対象となる未知語候補を単語境界の付与されていない対象分野のテキストから抽出する.本項では,\ref{subsection:SSC}項で述べた疑似確率的単語分割コーパスを用いた未知語候補の抽出について述べる.疑似確率的単語分割コーパスは決定的に単語分割されたコーパスの集合であるが,全く同様の文であっても単語境界に揺れが存在するため,未知語の分割誤りを抑制可能である.しかしながら,テキスト中に出現する全ての部分文字列が単語になり得るという疑似確率的単語分割コーパスの性質上,低頻度の文字列は単語として適切ではないものが多い.このため,出現頻度閾値を設定して適切な未知語候補を抽出する.以下では,未知語候補「守屋」を抽出する場合を例にとり,その手続きを示す.\begin{enumerate}\item一般分野の単語分割コーパスから単語境界確率を推定するためのモデル(\ref{subsubsection:P-SSC}項を参照)を構築し,対象分野のテキストに単語境界確率を付与する.{\tabcolsep=1.5pt\vspace{10pt}\begin{center}\begin{tabular}{|ccccccccccccccccccccc|}\hline$\cdots$&&昨&&日&&、&&\underline{守}&&\underline{屋}&&前&&次&&官&&が&&$\cdots$\\$\cdots$&0.8&&0.1&&0.9&&0.9&&0.4&&0.7&&0.8&&0.3&&0.8&&0.8&$\cdots$\\\hline\end{tabular}\end{center}\vspace{10pt}}\item単語境界確率と乱数の比較を行い,倍率$M$の疑似確率的単語分割コーパスを作成する.\vspace{10pt}\begin{center}\begin{tabular}{|c|c|}\hline(試行1)&$\cdots$昨日、\underline{守屋}前次官が$\cdots$\\(試行2)&$\cdots$昨日、\underline{守屋}前次官が$\cdots$\\(試行3)&$\cdots$昨日、守屋前次官が$\cdots$\\$\vdots$&$\vdots$\\(試行$M$)&$\cdots$昨日、\underline{守屋}前次官が$\cdots$\\\hline\end{tabular}\end{center}\vspace{10pt}\item作成した疑似確率的単語分割コーパス内に出現する単語のうち,頻度$F_{th}$以上の未知語(一般分野のコーパスに出現しない単語)を未知語候補として抽出する.\end{enumerate}次項では,未知語候補の音声認識を行うための言語モデルと発音辞書について述べる.\subsection{未知語候補を含む言語モデルと発音辞書の作成}\label{subsect:ucest}音声認識システムを用いて未知語候補を正しい読みとともに認識するためには,未知語候補が語彙に含まれる言語モデルと発音辞書が必要である.本項では,未知語候補を考慮した言語モデルならびに発音辞書の作成方法について述べる.まず,音声認識のための言語モデルを構築する.大語彙連続音声認識システムを用いる場合には,対象分野のコーパスと一般分野のコーパスを用いて対象分野に適合した言語モデルの構築を行うことが一般的である\cite{Task.adaptation.in.stochastic.language.models.for.continuous.speech.recognition}\cite{N-gram出現回数の混合によるタスク適応の性能解析}.本研究では,\ref{subsect:ext_unk}項で作成した疑似確率的単語分割コーパスを一般分野の単語分割コーパスに追加し,言語モデルを構築する.次に,未知語候補の読みを複数推定し,既知語から作成された発音辞書に追加する.読みの推定は,\ref{subsect:W-ngram}項の$n$-gramモデルにおける単語$w$を文字とその読みの組に置き換えた$n$-gramモデルによって行う.以下では,未知語候補「守屋」を例にとって説明する.\begin{enumerate}\item単語を1文字ごとに分割し,それぞれの文字について単漢字辞書から得られる読みを列挙する.\vspace{10pt}\begin{center}\begin{tabular}{|ll|}\hline守:&マモ,シュ,モリ\\屋:&ヤ,オク\\\hline\end{tabular}\end{center}\vspace{10pt}\item各文字の読みを組み合わせ,可能性のある単語の読みを列挙する.\vspace{10pt}\cfbox{マモヤ,マモオク,シュヤ,シュオク,モリヤ,モリオク}\vspace{10pt}\item文字と読みの組を単位とする$n$-gramモデルにより,単語表記からの読みの生成確率を計算する.\vspace{10pt}\begin{center}\begin{tabular}{|rcr|}\hline$P(マモヤ|守屋)$&$=$&$0.53$\\$P(モリヤ|守屋)$&$=$&$0.22$\\$P(シュオク|守屋)$&$=$&$0.05$\\\multicolumn{3}{|c|}{$\vdots$}\\\hline\end{tabular}\end{center}\vspace{10pt}\item読みが付与されている一般分野のコーパスから発音辞書を作成し,(3)で推定した未知語候補と読みの組の中から,確率の上位$L$個を追加する.この際,$L$個の未知語候補と読みの組の生成確率を反映させるため,単語の読みごとの確率を発音辞書に記述する\footnote{上位$L$個の確率の合計が1となるように正規化を行う.}.\vspace{10pt}\begin{center}\begin{tabular}{|rrr|rrr|}\hline\multicolumn{3}{|c|}{既知語}&\multicolumn{3}{c|}{未知語候補}\\\hline\multicolumn{3}{|c|}{$\vdots$}&\multicolumn{3}{c|}{$\vdots$}\\国会&1.00&コッカイ&\underline{守屋}&0.53&マモヤ\\前&0.50&ゼン&\underline{守屋}&0.22&モリヤ\\前&0.50&マエ&\underline{守屋}&0.05&シュオク\\\multicolumn{3}{|c|}{$\vdots$}&\multicolumn{3}{c|}{$\vdots$}\\\hline\end{tabular}\end{center}\vspace{10pt}\end{enumerate}上記の例における「守屋」の正しい読みは「モリヤ」であるが,(3)で述べた$n$-gramモデルによって与えられる確率$P(モリヤ|守屋)$は最大とならないため,確率の比較による正しい読みの選択は難しい.次項では,本項で作成した言語モデルと発音辞書を用いた音声認識によって未知語候補の正しい読みを選択する方法について述べる.\subsection{未知語の読み・文脈情報の獲得}\label{subsect:ASR}前項の処理で発音辞書中に列挙される未知語候補の読みの中に正しい読みが含まれている場合には,音声認識によって未知語候補を含む単語と読みの組の列が得られる.しかし,前項の処理で推定した読みの多くは誤った読みであるため,音声認識の際に似た発音の単語を取り違え,誤った読みの未知語候補を出力する可能性がある.この問題に対処するため,ここでは言語モデルならびに音響モデルの尤度を反映した事後確率から計算される信頼度\cite{Confidence.measures.for.large.vocabulary.continuous.speech.recognition}\footnote{ある単語を含む全ての単語列候補(音声認識結果)の相対的な尤度の比率を,その単語の信頼度として表す.なお,本研究で用いる音声認識システムJuliusに実装されている単語信頼度は,信頼度計算の対象となる単語を含む最尤パスの確率で全体の確率の和を近似することによって計算される\cite{2パス探索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法}.}を用いて,認識結果における単語の文脈上の妥当性を判定する.ある単語の信頼度$CM$は0から1の間の値で与えられ,大きい値であるほど信頼性が高いとみなされる.以下では,音声認識を用いて未知語の読み・文脈情報を単語とその読みの列として獲得する手順を示す.\begin{enumerate}\item対象分野のテキストと同様の話題を扱った音声と,その音声に適合した音声認識用の音響モデルを用意する.\item(1)の音響モデルと,\ref{subsect:ucest}項の処理によって得られた言語モデルならびに発音辞書を用いて(1)の音声に対し音声認識を行い,単語,読み,単語信頼度の3つ組の列を出力する.\vspace{-5pt}\begin{center}\begin{tabular}{|c|}\hline$\cdots$\underline{\mbox{守屋/モリヤ/0.7}}前/ゼン/0.8事務/ジム/0.8次官/ジカン/0.9$\cdots$\\$\cdots$全体/ゼンタイ/0.4の/ノ/0.7守屋/シュヤ/0.05が/ガ/0.8狭/セマ/0.9い/イ/0.9$\cdots$\\\hline\end{tabular}\end{center}\vspace{10pt}\item音声認識結果のうち,単語信頼度が$CM_{th}$以上の単語を抽出し,連続する単語とその読みの組の列を作成する.なお,単語信頼度が$CM_{th}$より小さい単語は抽出せず,それまでに抽出された単語とその読みの列を独立した文とみなす.\vspace{10pt}\begin{center}\begin{tabular}{|c|}\hline$\cdots$\underline{\mbox{守屋/モリヤ}}前/ゼン事務/ジム次官/ジカン$\cdots$\\$\cdots$全体/ゼンタイの/ノ\\が/ガ狭/セマい/イ$\cdots$\\\hline\end{tabular}\end{center}\vspace{10pt}\end{enumerate}\subsection{統計的仮名漢字変換のためのモデル構築}\label{subsect:mkmodel}仮名漢字変換のモデル性能を改善するには,対象分野の学習コーパスを大量に用意することが重要である.人手によって十分な量のコーパスを作成することはコストの面で実用的ではないため,まずテキストの読み推定を行うことによって対象分野のテキストに単語境界と読みを自動的に付与する.ここでは,\ref{subsect:W-ngram}項の式(1)(2)において単語$w$を単語と読みの組に置き換え,読み推定のための$n$-gramモデルを一般分野のコーパス$C_b$から構築する.この結果得られるコーパスを$C_n$とする.一般的には,情報の付与されていない対象分野のテキストのみを大量に入手可能である,という状況が多いため,上述の読み推定システムや形態素解析器の利用によって大規模なコーパス$C_n$を作成し,$C_b$と$C_n$からモデルを構築することによって変換精度を向上させることが可能である.しかしながら$C_n$は一般分野のコーパス$C_b$から構築されるモデルを用いたシステムによって単語境界や読みを付与されるため,$C_b$の内部に出現しない未知語の情報をモデルに反映させることは難しい.この問題を解決するため,提案手法では\ref{subsect:ASR}項の処理によって獲得される,未知語を含む単語と読みの列をコーパス$C_r$とみなし,$C_r$によって未知語の読み・文脈情報をモデルに反映させ,未知語の変換精度の向上を図る.
\section{評価}
\label{sect:eval}本節では,\ref{sect3_Ext}節で述べた提案手法の評価実験について述べる.まず,\ref{subsect:ext_unk}項〜\ref{subsect:ASR}項で述べた手法に従って,未知語の読み・文脈情報を単語とその読みの組の列として獲得した.その後,\ref{subsect:mkmodel}項で示した学習コーパスから統計的仮名漢字変換の言語モデルならびに仮名漢字モデルを構築して精度評価を行い,提案手法の有効性を検証した.\subsection{実験で利用するテキストと音声}\label{subsect:text_pre}本項では,実験を行う際にあらかじめ準備するデータ,ならびに実験の過程で利用するデータについて述べる.\subsubsection{テキスト}本実験において利用するテキストコーパスを以下に示す.一般分野のコーパス$C_b$には現代日本語書き言葉均衡コーパス(BalancedCorpusofContemporaryWrittenJapanese;BCCWJ)\cite{『現代日本語書き言葉均衡コーパス』形態論情報規程集}を用いた.BCCWJはあらかじめ単語分割がされており,各単語に読みが付与されている\footnote{本研究では,人手による修正が入ったコアデータのみを使用し,さらに活用語を語幹と語尾に分割する等の変更を加えている.}.ここで,BCCWJの内部に出現する全ての単語が既知語となる.対象分野のテキストとして,2007年11月2日から2008年1月8日のうち68日間のウェブニュースを自動収集したものを用いた.このウェブニューステキストには情報が付与されていないため,このテキストに対して\ref{subsect:mkmodel}項で示した手法を適用することで,単語分割と読みの付与を自動的に行い,コーパス$C_n$を作成した.また,ウェブニュースのテキストは\ref{subsect:ext_unk}項で述べた疑似確率的単語分割コーパスの作成に用いた.後述する\ref{subsect:ex_ext}項の実験により,音声認識結果$C_r$として単語と読みの組の列が獲得される.$C_r$は,$C_n$と同様に仮名漢字変換のためのモデル構築に用いた.テストセット$C_t$として,2008年1月9日,2008年1月10日の2日間のウェブニュースを単語分割し,読みを付与したものを用いた.\begin{table}[b]\caption{コーパスの一覧}\input{08table01.txt}\label{table_corpus_suff}\end{table}以上に述べたテキストコーパスの文数,単語数,文字数を表\ref{table_corpus_suff}に示す.なお,表\ref{table_corpus_suff}において,対象分野のテキストに対する自動読み推定結果,ならびに音声認識結果の単語数は,各システムの出力結果から単語数を計数したものである.また,音声認識結果の出力から文境界を同定することは困難であるため,単語数と文字数のみを示す.表\ref{table_unkr_test}に,テストセットにおける未知の1-gram率(未知語率),未知の2-gram率を,単語を単位とする場合と単語と読みの組を単位とする場合のそれぞれについて示す.\begin{table}[t]\caption{テストセット$C_t$の未知$n$-gram率(\%)}\input{08table02.txt}\label{table_unkr_test}\end{table}\subsubsection{音声}読みを選択するために用いる音声として,収集したウェブニュース記事と同時期に当たる2007年12月5日から2008年1月8日の間に放送された30分のニュース番組の合計17時間の音声を用いた.ここで,対象分野のテキストと音声の類似度として,音声の一部の書き起こし(2008年1月7日,8日の2日分)に対するパープレキシティを示す.後述する対象分野の疑似確率的単語分割コーパスから単語3-gramモデルを構築し,書き起こしに対するパープレキシティを求めたところ,58.5となった.これは,本実験で用いる疑似確率的単語分割コーパスから構築される音声認識用言語モデルは認識対象となる音声に対して十分な単語予測性能を持っている(対象分野の音声と対象分野のテキストが十分に似ている)ことを示している.\subsection{未知語とその読み・文脈情報の自動獲得}\label{subsect:ex_ext}本項では,対象分野のテキストと対象分野の音声を用いた未知語とその読み・文脈情報の自動獲得について述べる.また,処理の途中段階で獲得した未知語とテストセット中の未知語を比較し,各処理における未知語の検出精度を示す.\subsubsection{未知語候補の抽出}まず,\ref{subsect:ext_unk}項で述べた手法に従って対象分野のテキストから疑似確率的単語分割コーパスを作成し,未知語候補の抽出を行った.ここで,疑似確率的単語分割コーパスの倍率は$M=10$とした.また,未知語候補を決定する際の閾値は,$F_{th}=50$とした.また,対象分野のテキストの規模と最終的に獲得可能な未知語の数との関係として,表\ref{table_cov_cond}に,未知語候補のテストセット$C_t$中の未知語に対する再現率を示す.表\ref{table_cov_cond}では,利用するウェブニュースの日数と疑似確率的単語分割コーパスの倍率$M$を変えることでテキストの規模を調節し,それぞれについて再現率を示した.また,確率的単語分割コーパスを作成せず,決定的に単語分割を行った場合の再現率についても,併せて表\ref{table_cov_cond}に示した.$C_t$内の未知語の集合を$UW_t$,疑似確率的単語分割コーパス内の未知語候補の集合を$UW_c$とし,コーパス$C$における単語$w$の出現頻度を$f(C,w)$とすると,再現率は\[\cfrac{\displaystyle\sum_{w\inUW_t\capUW_c}f(C_t,w)}{\displaystyle\sum_{w\inUW_t}f(C_t,w)}\]で表される.ここで,$\sum_{w\inUW_t}f(C_t,w)=2,772$である(表\ref{table_unkr_test}参照).\begin{table}[t]\caption{対象分野のテキストから抽出した未知語候補の再現率(\%)}\input{08table03.txt}\label{table_cov_cond}\end{table}表\ref{table_cov_cond}から,未知語の抽出を行う場合には,決定的な単語分割を行ったコーパスではなく,疑似確率的単語分割コーパスを利用することが有効であることがわかる.\subsubsection{未知語候補を含む言語モデルと発音辞書の作成}\ref{subsect:ucest}項で述べた手法を用いて音声認識用の言語モデルと発音辞書を作成した.本実験で用いる音声認識システムJuliusは言語モデルとして順向き2-gramモデル,逆向き3-gramモデルを必要とする.ここでは,一般分野の単語分割コーパス(BCCWJ)と対象分野の疑似確率的単語分割コーパス(ウェブニュース)から単語表記を単位とする順向き2-gramモデルならびに逆向き3-gramモデルを構築した.次に,抽出した未知語候補の読みを,文字と読みの組を単位とする2-gramモデルによって推定し,生成確率の上位$L$個の単語と読みの組を既知語から作成される発音辞書に追加した.本実験では$L=5$とした.作成した発音辞書の詳細を表\ref{table_pron-dict}に示す\footnote{片仮名のように文字ごとの読み候補が少ない場合,もしくは単語長が短い場合など,5個まで読みの列挙を行うことができない未知語候補が存在する.このため,未知語候補のエントリ数は単語数の5倍未満になることがあり得る.}.言語モデルにおける語彙の総数は表\ref{table_pron-dict}における既知語と未知語候補の単語数を合計した数である20,712,発音辞書のエントリ(単語と読みの組)の総数は26,880となった.ここで,$L$の値の妥当性を検証するため,$L$を変えた場合に得られる未知語候補と読みの組の,テストセット$C_t$内の未知語と読みの組に対する再現率を表\ref{table_cov_prondict}に示す.コーパス$C$における単語と読みの組$u$の出現頻度を$f(C,u)$,未知語候補と推定された読みの組の集合を$UU_e$,テストセット$C_t$内の未知語と読みの組の集合を$UU_t$とすると,再現率は\[\cfrac{\displaystyle{\sum_{u\inUU_t\capUU_e}f(C_t,u)}}{\displaystyle{\sum_{u\inUU_t}f(C_t,u)}}\]で表される.ここで,$\sum_{u\inUU_t}f(C_t,u)=2,925$である(表\ref{table_unkr_test}参照).表\ref{table_cov_prondict}より,$L\geq5$では再現率に大きな変化が見られないことから,$L$の値を単純に大きくしても最終的に獲得可能な未知語と読みの組の量は変わらないことが予想される.また,$L$を大きくするに従って,誤った読みを持つエントリがより多く発音辞書に登録され,認識誤りが増加する.本実験では以上の2点を考慮し,$L=5$とした.\begin{table}[t]\caption{音声認識用の発音辞書}\input{08table04.txt}\label{table_pron-dict}\end{table}\begin{table}[t]\caption{発音辞書に列挙された未知語候補と読みの組の再現率(\%)}\input{08table05.txt}\label{table_cov_prondict}\end{table}\subsubsection{未知語の読み・文脈情報の獲得}作成した言語モデルと発音辞書を利用し,音声認識によって読みを選択し,音声認識結果から未知語を含む単語と読みの組の列を獲得した.音声認識システムには,Julius3.5.3を用いた.なお,Juliusの動作に必要となる音響モデルは,連続音声認識コンソーシアム2003年度版ソフトウェア\footnote{http://www.lang.astem.or.jp/CSRC/}に同梱されている,新聞記事読み上げ音声コーパス(JNAS)から学習された3,000状態,64混合のPTMtriphoneモデル\cite{Phonetic.Tied-Mixture.モデルを用いた大語彙連続音声認識}を用いた.音声認識結果のうち,単語信頼度が$CM_{th}$を超えている単語のみを抽出し,単語と読みの組の列を単語境界と読みの付与されたコーパス($C_r$)の形で獲得した.この際,単語信頼度の閾値は$CM_{th}=0.1$とした.また,獲得頻度の少ない未知語候補には音声認識誤りと考えられるものが多かったため,上記の閾値による制限に加えて2回以上認識した未知語候補のみを獲得した\footnote{アナウンサーの発話のように,音声が明瞭である部分の認識精度は80\%程度,記者発表のように,背景に雑音が多く含まれる部分の認識精度は30\%程度であった.}.$C_r$の単語数ならびに文字数は表\ref{table_corpus_suff}で示した通りである.また,表\ref{table_unkr_rec}に音声認識結果$C_r$の未知語率を示す.ここでは,テストセット$C_t$の未知語率(表\ref{table_unkr_test}参照)と同様に,単語ならびに単語と読みの組を単位とした場合の未知$n$-gram率を示す.なお,最終的に獲得された未知語候補と読みの組(異なり数)は872となった.最後に,対象分野の音声の規模と獲得した未知語と読みの組の数との関係を調べるため,使用するニュースの日数を変更した場合の$C_t$に対する再現率を表\ref{table_cov_rec}に示す.$C_r$内の未知語と読みの組の集合を$UU_{r}$とすると,再現率は\[\cfrac{\displaystyle{\sum_{u\inUU_t\capUU_{r}}f(C_t,u)}}{\displaystyle{\sum_{u\inUU_t}f(C_t,u)}}\]で表される.\begin{table}[t]\caption{音声認識結果$C_r$の未知$n$-gram率(\%)}\input{08table06.txt}\label{table_unkr_rec}\end{table}\begin{table}[t]\caption{音声認識結果内の未知語候補と読みの組の再現率(\%)}\input{08table07.txt}\label{table_cov_rec}\end{table}\subsubsection{獲得した未知語と読み・文脈情報の再現率と適合率}本実験の目的は,後述する仮名漢字変換の精度評価において,音声認識結果$C_r$から獲得した未知語とその読み・文脈情報を利用してテストセット$C_t$を対象とした仮名漢字変換の変換精度を向上させることにある.$C_r$を用いて仮名漢字変換のモデルを構築する場合,$C_t$と$C_r$に共通して出現する未知語と読みの組,または単語を単位とする未知の2-gramが多いほど仮名漢字変換の精度が向上する\footnote{前者は\ref{subsect:KKC}項で述べた仮名漢字モデルの性能に影響し,後者は言語モデルの性能に影響する.}.以下では,それぞれの再現率ならびに適合率を示す.まず,$C_r$から獲得した未知語と読みの組の再現率,適合率を示す.再現率ならびに適合率はそれぞれ\[再現率=\cfrac{\displaystyle{\sum_{u\inUU_t\capUU_{r}}f(C_t,u)}}{\displaystyle{\sum_{u\inUU_t}f(C_t,u)}}\quad,\qquad適合率=\cfrac{\displaystyle{\sum_{u\inUU_t\capUU_{r}}f(C_r,u)}}{\displaystyle{\sum_{u\inUU_t}f(C_r,u)}}\]で表される.計算の結果,再現率は31.6\%,適合率は38.2\%となった.次に,未知の2-gramの再現率,適合率を示す.コーパス$C$における単語2-gram($w_{i-1}^i$)の出現頻度を$f(C,w_{i-1}^i)$,テストセット$C_t$内の未知の単語2-gramの集合を$UB_t$,音声認識結果$C_r$内の未知の単語2-gramの集合を$UB_r$とすると,再現率ならびに適合率は\[再現率=\cfrac{\displaystyle{\sum_{w_{i-1}^i\inUB_t\capUB_{r}}f(C_t,w_{i-1}^i)}}{\displaystyle{\sum_{w_{i-1}^i\inUB_t}f(C_t,w_{i-1}^i)}}\quad,\qquad適合率=\cfrac{\displaystyle{\sum_{w_{i-1}^i\inUB_t\capUB_{r}}f(C_r,w_{i-1}^i)}}{\displaystyle{\sum_{w_{i-1}^i\inUB_t}f(C_r,w_{i-1}^i)}}\]で表される.計算の結果,再現率は31.9\%,適合率は25.5\%となった.\subsection{統計的仮名漢字変換による精度評価}\label{subsect:eval_KKC}本項では,\ref{subsect:mkmodel}項で挙げた学習コーパスを用いて統計的仮名漢字変換の精度評価を行い,提案手法の有効性を検証する.\subsubsection{実験の条件}本実験では,一般分野のコーパス$C_b$,対象分野のテキストの自動読み推定結果$C_n$,音声認識結果$C_r$を用いて統計的仮名漢字変換のためのモデルを構築した.各コーパスの規模は\ref{subsect:text_pre}の表\ref{table_corpus_suff}に示した通りである.本実験では,3種類のコーパスを以下のように組み合わせて学習コーパスとし,言語モデル(単語2-gramモデル)ならびに仮名漢字モデルを構築した.\begin{enumerate}\item$C_b$:ベースライン\item$C_b+C_n$:テキストのみを用いた手法(既存手法)\item$C_b+C_n+C_r$:テキストと音声に共通して現れる未知語の読み・単語文脈を反映させる手法(提案手法)\end{enumerate}統計的仮名漢字変換システム全体の精度を評価する基準として,文字単位の再現率と適合率を計算し,(1)--(3)について比較を行った.\pagebreakまた,提案手法において未知語の読みと単語文脈を共に利用することの有効性を検証するため,(2)を基準として,$C_r$から言語モデル(LM)のみを更新した場合\footnote{$C_b+C_n+C_r$から言語モデルを構築し,$C_b+C_n$から仮名漢字モデルを構築する.}と,仮名漢字モデル(PM)のみを更新した場合\footnote{$C_b+C_n$から言語モデルを構築し,$C_b+C_n+C_r$から仮名漢字モデルを構築する.}についても変換精度の評価を行った.本実験における評価指標として,文字単位の再現率と適合率を用いる.それぞれの定義を以下に示す.\begin{align*}\mbox{再現率}&=\cfrac{\mbox{正解文字数}}{\mbox{テストセット中の文字数}}\\\mbox{適合率}&=\cfrac{\mbox{正解文字数}}{\mbox{システムの出力した文字数}}\\\end{align*}\subsubsection{実験結果と考察}(1)--(3)で示した学習コーパスから構築されるモデルによる再現率,適合率を表\ref{table_result}に示す.\begin{table}[b]\caption{統計的仮名漢字変換による評価(\%)}\input{08table08.txt}\label{table_result}\end{table}$C_b$を用いる場合(ベースライン)の変換精度と$C_b,C_n$を用いる場合(既存手法)の変換精度を比較した結果,再現率で8.94\%,適合率で11.68\%の精度向上が確認された.ここで$C_n$と$C_t$は同分野のコーパスであり,$C_b$は$C_n$に比較すると小規模なコーパスであるため,この精度向上は単純に学習データの量を増やしたことに起因すると考えられる.次に,$C_b,C_n$を用いる場合(既存手法)の変換精度と$C_b,C_n,C_r$を用いる場合(提案手法)の変換精度を比較した結果,仮名漢字変換の精度は再現率で0.36\%,適合率で0.48\%の改善が見られた.既存手法において,コーパス$C_n$は対象分野の未知語を考慮しない手法で読みを付与されているため,未知語の正しい分割と読みの付与が行われず,$C_b$と$C_n$のみを用いて構築されるモデルでは未知語の誤変換が発生する.しかし,提案手法では\ref{subsect:ex_ext}項の実験で得られた$C_rを用いて$未知語の読み・文脈情報をモデルに反映させることが可能である.上記の精度増加は,\ref{subsect:ex_ext}項で示した未知語の読み・文脈情報の獲得の実験で獲得した未知語と読みの組,未知の2-gramの量に対応しており,より多くの未知語を獲得するほど変換精度が向上すると考えられる.また,$C_r$を追加することによる精度向上の要因を明らかにするため,$C_b$と$C_n$から構築したモデルによる変換精度を基準に,$C_r$を利用して言語モデルと仮名漢字モデルを独立に更新して精度を比較した.言語モデルのみを更新した場合は,再現率,適合率ともに0.03\%の改善となり,仮名漢字モデルのみを更新した場合は,再現率で0.17\%,適合率で0.27\%の改善となった.言語モデルのみを更新する場合,未知語と読み(仮名漢字変換における入力記号列)との対応付けを行うことが不可能であるため,未知語周辺の文脈が変換精度の向上にほとんど寄与しない.この際,変換精度の向上に寄与する要素は$C_r$に現れる既知語周辺の文脈情報のみであり,かつ$C_n$に比較して$C_r$の規模は非常に小さいために,精度がほぼ変化していないと考えられる.仮名漢字モデルのみを更新する場合については,一定の精度向上が観察された.しかしながら,ある読みを持つ未知語に対し,同じ読みを持つ既知語,もしくは結合の結果同じ読みとなる既知語の連続が存在するという状況では,未知語を含む変換候補の言語モデル確率は既知語を含む変換候補の確率に比較して小さくなる.言語モデルと仮名漢字モデルの両方を更新する場合(提案手法)との精度の差は,上述の言語モデル確率の差に起因する.最後に,提案手法を用いることで未知語の変換誤りが改善した例を示す.\vspace{10pt}\begin{center}\begin{tabular}{|rl|}\hline$C_b+C_n$:&前事務次官の森やタケマサ\\$C_b+C_n+C_r$:&前事務次官の守屋武昌\\\hline\end{tabular}\end{center}\vspace{10pt}\ref{subsect:ext_unk}〜\ref{subsect:ASR}項において例として示した未知語(守屋)は,本実験において実際に獲得された未知語の例であり,音声認識結果$C_r$を用いることによって未知語の誤変換が改善されることを確認した.以上の結果より,テキストと音声から獲得される未知語の読み・文脈情報は統計的仮名漢字変換システムの精度向上に有効であることが確認された.
\section{関連研究}
\label{sect5_rwork}第\ref{sect_intro}節で述べた通り,人手によって任意の分野における未知語の情報を収集することはコストの面で現実的ではない.このため,未知語に関する情報を自動獲得する研究が多く行われている.まず,形態素解析など,自動単語分割を行うシステムにおいて単語辞書に未知語を追加することを目的とした研究について述べる.文献\cite{未知語の確率モデルと単語の出現頻度の期待値に基づくテキストからの語彙獲得}では,ある文の自動単語分割候補における$N$-bestの相対確率を,それぞれの候補において出現する未知語の出現頻度の期待値として与える.その後,出現した未知語の中から一定の閾値より大きい出現頻度の期待値を持つ未知語を獲得している.また,単語分割の際には,未知語を構成する字種によって9種類の未知語タイプを定義し,それぞれのタイプにおける単語長の分布を考慮した未知語モデルを用いることで,未知語モデルの性能向上を図っている.形態素解析のため,品詞を考慮して未知語を獲得する研究として,文献\cite{Word.Extraction.from.Corpora.and.Its.Part-of-Speech.Estimation.Using.Distributional.Analysis}では,コーパス中に出現する任意の部分文字列$\alpha$に注目し,$\alpha$の前後の文字から,$\alpha$が未知語として出現する可能性の高い品詞に属する確率を推定している.その後,出現頻度が一定値以上かつ2文字以上の文字列$\alpha$を単語として抽出しておき,形態素解析器にかけた結果に辞書未登録語が含まれている文字列$\alpha$を未知語として獲得している.日本語は分かち書きを行わない言語であるため,自動単語分割器や形態素解析器において必須となる未知語の情報は正しい単語単位である.このため,形態素解析器のための未知語獲得を行う研究では未知語の読みには言及しないことが多い.しかしながら,本研究では統計的仮名漢字変換の精度向上を目的としているため,未知語の表記ならびにその読みに関する情報を同時に獲得することが望ましい.文献\cite{自動未知語獲得による仮名漢字変換システムの精度向上}では,仮名漢字変換を用いる際の入力とその変換結果から未知語の獲得と言語モデルの更新を行う手法を提案している.また,言語モデルの更新を繰り返すことで,仮名漢字変換システムの精度が徐々に向上すると報告している.ただし,ここで行われている実験はユーザによるシステムの利用を想定したシミュレーションであり,本論文で扱う自動獲得とは性質が異なる.音声認識の分野においては,未知語を原因とする認識誤りの影響を抑制するため,単語より小さい単位の語彙であるサブワードを擬似的な単語とし,未知語をサブワードの連続として認識する手法が提案されている\cite{単語N-gram言語モデルを用いた音声認識システムにおける未知語・冗長語の処理}\cite{Open.Vocabulary.Speech.Recognition.with.Flat.Hybrid.Models}\cite{New.Word.Acquisition.Using.Subword.Modeling}.しかしながら,日本語の音声認識においてサブワードは基本的に仮名文字列から構成されるため,サブワードをそのまま未知語獲得に用いても仮名漢字変換への寄与は低いと考えられる.文献\cite{音声とテキストを用いた認識単語辞書の自動構築}では,規則を用いてテキストから未知語の候補を抽出,音声認識を用いて読みを自動的に獲得し,発音辞書に追加する手法が提案されている.この手法は,テキストと音声から未知語と読みの情報を獲得する点で本研究と共通しているが,未知語候補の抽出方法と獲得する情報の粒度が本研究と異なる.本研究では,疑似確率的単語分割コーパスを用いることにより,一貫した単語単位で言語モデルと発音辞書を作成する.また,音声認識結果から未知語の読みだけではなく文脈情報を獲得し,統計的仮名漢字変換で利用する確率的言語モデル全体の性能向上を図っている.
\section{結論}
\label{sect6_conc}本論文では,類似した話題を扱っているテキストと音声から未知語の読み・文脈情報を単語と読みの組の列として自動獲得し,統計的仮名漢字変換の精度向上に利用する手法を提案した.自動的に収集可能なニュース記事とニュース音声を用いた実験の結果,音声認識結果から得られる単語と読みの組の列を学習コーパスとして統計的仮名漢字変換のモデルを学習することにより,システム全体の精度が向上することを確認した.以上の結果から,テキストと音声を用いることにより,仮名漢字変換システムの効率的かつ継続的な精度向上を行うことが可能であることが示された.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bisani\BBA\Ney}{Bisani\BBA\Ney}{2005}]{Open.Vocabulary.Speech.Recognition.with.Flat.Hybrid.Models}Bisani,M.\BBACOMMA\\BBA\Ney,H.\BBOP2005\BBCP.\newblock\BBOQOpenVocabularySpeechRecognitionwithFlatHybridModels.\BBCQ\\newblockIn{\BemProceedingsoftheInterspeech2005},\mbox{\BPGS\725--728}.\bibitem[\protect\BCAY{Choueiter,Seneff,\BBA\Glass}{Choueiteret~al.}{2007}]{New.Word.Acquisition.Using.Subword.Modeling}Choueiter,F.~G.,Seneff,S.,\BBA\Glass,J.\BBOP2007\BBCP.\newblock\BBOQNewWordAcquisitionUsingSubwordModeling.\BBCQ\\newblockIn{\BemProceedingsoftheInterspeech2007},\mbox{\BPGS\1765--1768}.\bibitem[\protect\BCAY{伊藤\JBA好田}{伊藤\JBA好田}{2000}]{N-gram出現回数の混合によるタスク適応の性能解析}伊藤彰則\JBA好田正紀\BBOP2000\BBCP.\newblockN-gram出現回数の混合によるタスク適応の性能解析.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ83-D-II}(11),\mbox{\BPGS\2418--2427}.\bibitem[\protect\BCAY{甲斐\JBA廣瀬\JBA中川}{甲斐\Jetal}{1999}]{単語N-gram言語モデルを用いた音声認識システムにおける未知語・冗長語の処理}甲斐充彦\JBA廣瀬良文\JBA中川聖一\BBOP1999\BBCP.\newblock単語N-gram言語モデルを用いた音声認識システムにおける未知語$\cdot$冗長語の処理.\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(4),\mbox{\BPGS\1383--1394}.\bibitem[\protect\BCAY{北}{北}{1999}]{確率的言語モデル}北研二\BBOP1999\BBCP.\newblock\Jem{確率的言語モデル}.\newblock言語と計算4巻.東京大学出版会.\bibitem[\protect\BCAY{倉田\JBA森\JBA伊東\JBA西村}{倉田\Jetal}{2008}]{音声とテキストを用いた認識単語辞書の自動構築}倉田岳人\JBA森信介\JBA伊東伸泰\JBA西村雅史\BBOP2008\BBCP.\newblock音声とテキストを用いた認識単語辞書の自動構築.\\newblock\Jem{情報処理学会論文誌},{\Bbf49}(8),\mbox{\BPGS\2900--2909}.\bibitem[\protect\BCAY{Lee,Kawahara,\BBA\Shikano}{Leeet~al.}{2001}]{Julius.--.An.Open.Source.Real-Time.Large.Vocabulary.Recognition.Engine}Lee,A.,Kawahara,T.,\BBA\Shikano,K.\BBOP2001\BBCP.\newblock\BBOQJulius---anopensourcereal-timelargevocabularyrecognitionengine.\BBCQ\\newblockIn{\BemProceedingsoftheEurospeech2001},\mbox{\BPGS\1691--1694}.\bibitem[\protect\BCAY{李\JBA河原\JBA武田\JBA鹿野}{李\Jetal}{2000}]{Phonetic.Tied-Mixture.モデルを用いた大語彙連続音声認識}李晃伸\JBA河原達也\JBA武田一哉\JBA鹿野清宏\BBOP2000\BBCP.\newblockPhoneticTied-Mixtureモデルを用いた大語彙連続音声認識.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ83-D-II}(12),\mbox{\BPGS\2517--2525}.\bibitem[\protect\BCAY{李\JBA河原\JBA鹿野}{李\Jetal}{2003}]{2パス探索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法}李晃伸\JBA河原達也\JBA鹿野清宏\BBOP2003\BBCP.\newblock2パス探索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法.\\newblock\Jem{情報処理学会研究報告},2003-SLP-49-48,\mbox{\BPGS\281--286}.\bibitem[\protect\BCAY{Matsunaga,Yamada,\BBA\Shikano}{Matsunagaet~al.}{1992}]{Task.adaptation.in.stochastic.language.models.for.continuous.speech.recognition}Matsunaga,S.,Yamada,T.,\BBA\Shikano,K.\BBOP1992\BBCP.\newblock\BBOQTaskadaptationinstochasticlanguagemodelsforcontinuousspeechrecognition.\BBCQ\\newblockIn{\BemProceedingsoftheICASSP1992},\lowercase{\BVOL}~1,\mbox{\BPGS\165--168}.\bibitem[\protect\BCAY{森\JBA土屋\JBA山地\JBA長尾}{森\Jetal}{1999}]{確率的モデルによる仮名漢字変換}森信介\JBA土屋雅稔\JBA山地治\JBA長尾真\BBOP1999\BBCP.\newblock確率的モデルによる仮名漢字変換.\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),\mbox{\BPGS\2946--2953}.\bibitem[\protect\BCAY{森\JBA小田}{森\JBA小田}{2007}]{自動未知語獲得による仮名漢字変換システムの精度向上}森信介\JBA小田裕樹\BBOP2007\BBCP.\newblock自動未知語獲得による仮名漢字変換システムの精度向上.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\340--343}.\bibitem[\protect\BCAY{森\JBA小田}{森\JBA小田}{2009}]{擬似確率的単語分割コーパスによる言語モデルの改良}森信介\JBA小田裕樹\BBOP2009\BBCP.\newblock擬似確率的単語分割コーパスによる言語モデルの改良.\\newblock\Jem{自然言語処理},{\Bbf16}(5),\mbox{\BPGS\7--21}.\bibitem[\protect\BCAY{Mori\BBA\Nagao}{Mori\BBA\Nagao}{1996}]{Word.Extraction.from.Corpora.and.Its.Part-of-Speech.Estimation.Using.Distributional.Analysis}Mori,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1996\BBCP.\newblock\BBOQWordExtractionfromCorporaandItsPart-of-SpeechEstimationUsingDistributionalAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING1996},\mbox{\BPGS\1119--1122}.\bibitem[\protect\BCAY{長野\JBA森\JBA西村}{長野\Jetal}{2006}]{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}長野徹\JBA森信介\JBA西村雅史\BBOP2006\BBCP.\newblockN-gramモデルを用いた音声合成のための読み及びアクセントの同時推定.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1793--1801}.\bibitem[\protect\BCAY{永田}{永田}{1999a}]{統計的言語モデルとN-best探索を用いた日本語形態素解析法}永田昌明\BBOP1999a\BBCP.\newblock統計的言語モデルとN-best探索を用いた日本語形態素解析法.\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{永田}{永田}{1999b}]{未知語の確率モデルと単語の出現頻度の期待値に基づくテキストからの語彙獲得}永田昌明\BBOP1999b\BBCP.\newblock未知語の$\!\!\!$確率モデルと単語の出現頻度の期待値に基づくテキストからの語彙獲得.\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3373--3386}.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA原}{小椋\Jetal}{2008}]{『現代日本語書き言葉均衡コーパス』形態論情報規程集}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA原裕\BBOP2008\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』形態論情報規程集}.\bibitem[\protect\BCAY{Wessel,Schl{\"u}ter,\BBA\Ney}{Wesselet~al.}{2001}]{Confidence.measures.for.large.vocabulary.continuous.speech.recognition}Wessel,F.,Schl{\"u}ter,R.,\BBA\Ney,H.\BBOP2001\BBCP.\newblock\BBOQConfidenceMeasuresforLargeVocabularyContinuousSpeechRecognition.\BBCQ\\newblock{\BemIEEETransactionsonSpeechandAudioProcessing},{\Bbf9}(3),\mbox{\BPGS\288--298}.\end{thebibliography}\begin{biography}\bioauthor{笹田鉄郎}{2007年京都大学工学部電気電子工学科卒業.2009年同大学院情報学研究科修士課程修了.同年,同大学院博士後期課程に入学,現在に至る.}\bioauthor{森信介}{1993年京都大学工学部電気工学第二学科卒業.1995年京都大学大学院工学研究科電気工学第二専攻修士課程修了.1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.工学博士.同年日本アイ・ビー・エム(株)入社.2007年日本アイ・ビー・エム(株)退社.同年より京都大学学術情報メディアセンター准教授.現在に至る.自然言語処理ならびに音声言語処理,特に確率的言語モデルに関する研究に従事.1997年情報処理学会山下記念研究賞受賞.2010年情報処理学会論文賞受賞.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年同博士後期課程退学.博士(工学).同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.この間,1995年から1996年まで米国・ベル研究所客員研究員.1998年から2006年までATR客員研究員.1999年から2004年まで国立国語研究所非常勤研究員.2001年から2005年まで科学技術振興事業団さきがけ研究21研究者.2006年から情報通信研究機構短時間研究員.音声言語処理,特に音声認識及び対話システムに関する研究に従事.1997年度日本音響学会粟屋潔学術奨励賞受賞.2000年度情報処理学会坂井記念特別賞受賞.情報処理学会連続音声認識コンソーシアム代表,IEEESPSSpeechTC委員,IEEEASRU2007GeneralChair,言語処理学会理事,を歴任.情報処理学会音声言語情報処理研究会主査.日本音響学会,情報処理学会各代議員.電子情報通信学会,人工知能学会,言語処理学会,IEEE各会員.}\end{biography}\biodate\end{document}
| |
V06N06-06
|
\section{はじめに}
本論文では,文,文章上の特徴,および文章の解析により得られた構造上の特徴をパラメタとして用いた判定式による文章の自動抄録手法を示す.さらに,抽出された文の整形や照応を考慮した文章要約手法について述べる.近年のインターネットなどの発展により,大量の電子化された文書が我々の周りに溢れている.これら大量の文書から必要とする情報を効率良く高速に処理するために,キーワード抽出や文章要約,抄録といった研究が行なわれている.それらのためには,計算機を用い,必ずしも深い意味解析を行なわずに文章の表層的特徴から解析を行なう方法が有効である.文章抄録とは文章から何らかの方法で重要である文を選び出し,抽出することである.山本ら\cite{Masuyama:95}は照応,省略,語彙による結束性など多くの談話要素から重要文を選択していく論説文要約システム(GREEN)を発表している.このシステムは談話要素を利用したものではあるが,文章の局所的な特徴を基に文を抽出するもので,本研究の立場からすれば文章全体の構造に基づく抽出と,電子化された大量のコーパス利用を考慮した抽出手法や手法の評価が必要と考える.また,亀田\cite{Kameda:97}は重要文の抽出の際に文章の中で小さなまとまりを示す段落や,一種の要約情報である文の見出しに着目する手法を提案,実現しているが,重要度計算の調整は人手により,系統的でないところが感じられる.さて,重要文の抽出に用いられるテキスト中の表層的特徴については,\cite{Okumura:98}にサーベイがある.これによると,Paice\cite{Paice:90}の分類として,(1)キーワードの出現頻度によるもの,(2)テキスト,段落中の位置情報によるもの,(3)タイトル等の情報によるもの,(4)文章の構造によるもの,(5)手がかり語によるもの,(6)文や単語間のつながりによるもの,(7)文間の類似性によるものがあげられている.本研究での手法は,上記のかなりの要素を組み合わせてパラメタとして利用している.いくつかの観点からのパラメタを組み合わせるという同様な手法として,\cite{Watanabe:96},\cite{Nomoto:97}がある.それぞれ,重回帰分析,決定木学習により訓練データから自動学習するものである.われわれの手法は,構造木に関する情報を特に重視している.人間は,目的の意見,主張を読み手に伝えるために,意識下/無意識下に文章構成の約束に基づいて文章生成を行なっているが,それらの文章に論証性を持たせるためのものが文章構造である.また逆に,文章を理解し論旨を捉える際に文章構造を活用していると考えられる.したがって,文章の抄録にあたり,論旨を捉え,文章構造を理解した上で重要文を抽出していく手法は人間の文章抄録の流れに沿っており,ごく自然であると考えられる.実際,\cite{Marcu:97}では,人間の手による生成ではあるが文間の関係を解析した修辞構造生成後の文抽出の再現率,適合率は良好と報告されている.われわれの手法でも,修辞構造を含めた文章構造解析による情報を利用する.文章構造解析には田村ら\cite{Tamura:98}の分割と統合による構造解析手法を利用する.文章抄録には,構造解析で用いたパラメタに加えて,得られた文章構造上の情報についてのパラメタにより文抽出のための判定式を作り,それを基にして抄録を作成する.判定式とパラメタの重みの決定は重回帰分析に基づき,その訓練のため,およびシステムの評価のための基準データは,被験者に対するのべ350編の抄録調査による.なお,実験の対象とした文章は,均一な文章が容易に入手可能であるとの理由から,新聞の社説を用いる.一方,原文から単に文を選ぶだけの文章抄録では,選択された文間の隣接関係が不自然になる場合がある.また,たとえ選択された一文でも文内には冗長な表現が残っている場合がある.そこで,自動要約に向けては,抄録後になんらかの文章整形過程が必要である.本研究では,抄録の整形過程としての照応処理と,一文の圧縮処理を行なう.以下,第2章では文章抄録,要約のための文章構造解析について述べ,第3章では文章の自動抄録の手法について説明する.第4章では,提案の手法について再現率,適合率により評価検討を行う.最後に付録として,抄録の整形過程について述べ,実際に要約した文章例を示す.
\section{分割と統合による文章構造解析}
\label{structure}文章とはある首尾一貫性を持った文の集まりである.それゆえ文章を理解し,抄録を作成するためには,その文章がどのような構成(構造)になっているかを知る必要がある.よってここでは文章の構造解析について述べる.文章の構造化としてはMann\cite{Mann:87:a}の修辞構造理論を基にして論旨の展開を木構造として表現する手法\cite{Tamura:98}を用いる.これは大量の文章を高速に処理するために深い意味解析に立ち入らず,主に表層的な処理のみでセグメントの分割(トップダウン的アプローチ),およびセグメントの統合(ボトムアップ的アプローチ)を行なっている.こうすることで,文章の木構造を根から葉へ,かつ葉から根へと交互に生成してゆき,一方の欠点を他方の利点で補う効果的な文章解析を行なうことができる.この解析処理の例を摸式的に示したのが図\ref{fig:kaiseki}である.\begin{figure}[hbtp]\begin{center}\epsfile{file=tb_model.eps,scale=0.7}\caption{分割と統合による構造解析}\label{fig:kaiseki}\end{center}\end{figure}トップダウン的解析では,望月ら\cite{Mochiduki:96}の文章の表層表現を情報とした,テキストセグメンテーションの手法を利用して文章の分割を行なう.すべての文間について判定式による評価値を求め,評価値の高い順にセグメントの分割を行なう.また,ボトムアップ的解析でも判定式を用い,すべての文間について評価値を求め,評価値の高い順にセグメントの統合を行なう.それぞれの判定式のパラメタの重みは,訓練データ\footnote{日本経済新聞の社説100編}のテキスト中のすべての文と文の境界についてパラメタを評価し,重回帰分析により求める.パラメタは以下の観点から選択する\cite{Mochiduki:96}(詳細は\ref{hantei}の1(単独の文に関するもの)参照).\begin{itemize}\item助詞「は」と「が」の出現\item接続語の有無\item指示詞の有無\item時制の情報\item文末表現の情報\item語彙連鎖情報\end{itemize}本手法によって新聞社説\footnote{日本経済新聞1993年1月28日(付録に示す)}を解析してできた修辞構造木の例を図\ref{fig:tb_tree}に示す.\begin{figure}[htb]\begin{center}{\footnotesize{\baselineskip=11pt\begin{verbatim}[]|-(1,1)|-順接|-[]|-[]||-[]|||-[]||||-[]|||||-[(2,1),順接,(2,2)]|||||-逆接|||||-[[(3,1),順接,(3,2)],順接,(3,3)]||||||||-順接||||-(4,1)||||||-順接|||-[]|||-[]||||-[[(5,1),順接,(5,2)],順接,(5,3)]||||-順接||||-(5,4)||||||-順接|||-(5,5)||||-順接||-[]||-[[(6,1),順接,(6,2)],順接,(6,3)]||-順接||-[(7,1),順接,(7,2)]||-順接|-[[(8,1),結論,(8,2)],転換,(8,3)]\end{verbatim}\caption{修辞構造解析結果の例}\label{fig:tb_tree}}}\end{center}\end{figure}この修辞構造木において\verb|(m,n)|は1文に対応し,\verb|m|が原文章の形式段落の番号,\verb|n|が形式段落内の文の番号を表す.また,「順接」,「強調」,「説明」等は隣接するセグメント間の修辞関係\footnote{それ以外に「逆接」,「換言」,「添加」,「条件」,「結論」,「一般化」,「相反」,「提起」,「根拠」,「因果」,「並列」,「選択」,「対比」,「転換」,「例示」がある.}を表している\cite{Mann:87:a}.修辞関係は,cuewordにより文頭の接続表現を18種,文末表現を14種に分類し,接続表現があればそれにより同定し,なければ,隣接する前文,後文の文末表現その他の組み合わせをもとに決定している.それぞれの関係に応じて,どちらが核(nucleus),衛星(satellite)であるかも決定する.また,セグメント間の修辞関係の同定は,核をたどることによってセグメントを代表する1文を求め,これらの文間の関係により同定する.なお,「順接」をdefaultとしている.(詳細については,\cite{Tamura:98}を参照されたい.)
\section{文章抄録}
label{shouroku}本論文で提案する抄録手法は,まず文章の構造化を行ない,得られた修辞構造木の情報やその他抄録の観点から選択されたパラメタに基づく判定式により各文の重要度を算出し,重要度の高い文から抽出していく.判定式中のパラメタの重みは被験者が作成した抄録について重回帰分析により訓練する.また,本研究では,文だけでなく構造木の部分木の削除も行なう手法についても検討する.部分木とは,根に近い枝から順に構造木を分割したもののリスト構造で,文章の段落に相当するものである.部分木の数は,社説の全文数を形式段落内の文の数の平均2.69\footnote{1993,1994年の日本経済新聞の社説1227編から求めた.}で除することにより求める.この処理を摸式的に示したのが図\ref{fig:sub_tree}であり,構造木の根に近い節点から(1,2,3)順に分割していったものが部分木である.実際に図\ref{fig:tb_tree}の構造木から再構成される部分木の例を図\ref{fig:part_tree}に示す.この例では文の数が20個なので,それを2.69で割り,部分木の数が7となる.\begin{figure}[hbtp]\begin{center}\epsfile{file=sub_tree.eps,scale=0.9}\caption{構造木の部分木}\label{fig:sub_tree}\end{center}\end{figure}\begin{figure}[htbp]{\footnotesize{\baselineskip=11pt\begin{verbatim}[]|-(1,1)||-[]||-[]|||-[(2,1),順接,(2,2)]|||-逆接|||-[[(3,1),順接,(3,2)],順接,(3,3)]||||-順接||-(4,1)||-[]||-[[[(5,1),順接,(5,2)],順接,(5,3)],順接,(5,4)]||-順接||-(5,5)||-[(6,1),順接,(6,2)]|-(6,3)|-[(7,1),順接,(7,2)]|-[[(8,1),結論,(8,2)],転換,(8,3)]\end{verbatim}}\vspace{-6ex}\caption{構造木から再構成される部分木の例(図2の構造木より)}\label{fig:part_tree}}\end{figure}\subsection{抄録手法}\label{method}本研究で提案する抄録手法は,基本的には\ref{structure}節で述べた文章の構造化を行ない,その構造上の情報と\ref{hantei}節で述べるパラメタより重要文を選択,抽出するものである.ここでは,さらに文の抽出の前に部分木を削除する過程を加えた手法も検討対象とする.また,構造化は行なわずに判定する手法も加え,以下の3種の手法を検討する.\begin{description}\item[手法1](文章構造解析+部分木削除+重要文抽出による抄録)\\この手法では,(i)文章構造解析により修辞構造木を作成し,作成された修辞構造木をさらに部分木に分割する.(ii)各部分木の重要度を後出の式(\ref{import})を用いて算出し,重要度の低い部分木から削除していく.(iii)残った各文の重要度を算出し,重要度の高い文から抽出していく.という3つの段階を踏む.(ii),(iii)での削除,抽出の量は実験時に設定する.\item[手法2](i)+(iii)\\この手法では,パラメタを採集するために文章の構造化,さらに部分木の再構成を行い,その後で構造上の情報その他を用いて各文の重要度を算出し,抽出する.\item[手法3](iii)\\この手法では,文章の構造化は行なわずに,単独の文個々についてのパラメタにより各文の重要度を算出し,抽出する.\end{description}\subsection{判定式を用いた自動抄録}\label{hantei}観測点の各種パラメタを基にそれが属するクラスを判定する手法はいくつかあるが,本研究では重回帰分析を用いる.判定のための式は以下である.ただし,採用,不採用の判定は,対象文章の各文を式(\ref{import})により評価し,評価値が大きいものから,順に所定の要約率となるまで採用することとする.\vspace{-6ex}\begin{center}\begin{equation}\hat{z}_{sum}=\delta_{0}+\delta_{1}y_{1}+\delta_{2}y_{2}+\cdots+\delta_{q}y_{q}\label{import}\vspace{-2ex}\end{equation}($y_{i}$:パラメタ$i$の点数,$\delta_{i}$:パラメタ$i$の重み)文の重要度算出の判定式\end{center}各文のパラメタとして以下を用いる.\begin{enumerate}\item単独の文に関するもの\begin{itemize}\item文末表現(3種)\\表層表現から文を「意見」,「断定」,「陳述」の3タイプに分類し,該当するパラメタを1とする.\item時制(1種)\\文を「現在」,「過去」に分類し,「現在」ならパラメタを1とする.\item参照表現(1種)\\文に「これ」,「その」,「あれ」などの指示語による参照表現が存在すれば1とする.\item助詞「は」と「が」の出現(2種)\\文に助詞「は」,「が」が存在すれば,該当するパラメタを1とする.\item接続詞(2種)\\「補足」的,「展開」的な接続詞が存在すれば,該当するパラメタを1とする.\item文に含まれる重要語の数(1種)\\キーワード抽出で用いられるtf*idf法\footnote{実験では,idf値は,1993,1994年の日本経済新聞の社説1227編より求めた.}により抽出された重要語の出現数を値とする.\item文を通過する重要語の語彙連鎖の数(1種)\\語彙連鎖を形成する重要語の出現数を値とする.ただし,同義語はまとめて1語とし,連鎖中の短いギャップに対しては重要語が存在しなくても数に加える.\item文の位置(2種)\\文章の先頭からの距離,終わりからの距離を値とする.\end{itemize}\item構造木上の情報に関するもの\begin{itemize}\item修辞関係の核(nucleus)または衛星(satellite)であるかどうか(34種\footnote{訓練の結果,使用されなかったものもある.})\\各パラメタは「順接」を除く修辞関係17種それぞれについての核,衛星に対応する.文が文章構造解析で得られた修辞関係の核,衛星であれば対応するパラメタを1とする.\end{itemize}\item部分木(段落)の情報に関するもの\begin{itemize}\item文の位置(6種)\\文が含まれる部分木の位置,部分木中の位置,など.\end{itemize}\item部分木の削除についても,以下のパラメタを持つ判定式を用い,重回帰分析により訓練する.\begin{itemize}\item部分木内の文の文末タイプの情報(3種)\\部分木内で,「意見」,「断定」,「陳述」についてそれぞれのタイプの文が出現する割合を値とする.\item部分木内の文に含まれる重要語の数(1種)\\前述の重要語の数.\item部分木内の文を通過する重要語の語彙連鎖(1種)\\同様に,重要語の語彙連鎖の数.\item文章の開始または終りからの距離(2種)\\この部分木(段落)が,初めまたは終わりから幾つめの部分木であるか.\item部分木内の文の数(1種)\\部分木(段落)内に含まれる文の数.\end{itemize}\end{enumerate}
\section{実験と検討}
label{experiment}\subsection{パラメタの訓練}実験にあたって,まず訓練と評価のために人間の被験者の抄録結果による正解を定める.抄録は,学生5人\footnote{本学学部1年生.自然言語処理についての教育は特に受けていない.}を被験者として,日本経済新聞CD-ROM'93〜'94版の中の社説のべ350編について重要であると思う文を全文数の3割程度選択させる.調査用社説は表\ref{tab:set}のようにA〜Lのセットに分け,A〜Fセットを訓練用セット,G〜Lセットを評価用セットとする.被験者と調査させたセットの対応を表\ref{tab:set2}に示す.{\small\begin{table}[htbp]\begin{center}\begin{tabular}{|c|c||c|c|}\hline訓練セット&記事数&評価セット&記事数\\\hline\hlineA&20&G&10\\\cline{1-2}B&30&H&10\\C&30&I&10\\D&30&J&10\\E&30&K&10\\\cline{3-4}F&30&L&10\\\hline\end{tabular}\end{center}\caption{調査セットと記事数}\label{tab:set}\end{table}}{\small\begin{table}[htbp]\begin{center}\begin{tabular}{|c|c|}\hline被験者&調査セット\\\hline\hline1&A,B,G,L\\\hline2&A,C,H,L\\\hline3&A,D,I,L\\\hline4&A,E,J,L\\\hline5&A,F,K,L\\\hline\end{tabular}\end{center}\caption{調査セットの被験者への配分}\label{tab:set2}\end{table}}調査の結果,全文数8164,選択された文数2172,平均要約率26.6\%となった.まず,Aセット20編(以下,訓練セット1),B〜Fセット合計150編(以下,まとめて訓練セット2)の2セットについてそれぞれ重回帰分析により,式(\ref{import})におけるパラメタの重みを決定する.それぞれは,次のような方針に基づく.\begin{description}\item[訓練セット1]訓練セット1の基準値としては各文についてその文が重要であるとした被験者の人数を与える.つまり,各文に$0〜5$の値を与える.この訓練セットは同一の文章を多人数で調査することによって判定の質を重視した訓練セットである.\item[訓練セット2]訓練セット2の基準値としては各文について担当した被験者が重要であるとした文に$1$,そうでない文に$0$の値を与える.この訓練セットは標本集合を大きくすることによって訓練の規模を重視する訓練セットである.\end{description}手法1では,部分木の選択においても重回帰分析による手法を用いるが,被験者には文単位での重要文選択しか行なわせていないため,あらかじめ前述の手法により各社説の構造化を行ない,部分木を作成する.その上で,被験者が選択した文が部分木に含まれていればその部分木の観測値を$10$,含まれていなければ$0$とする.これを正解として重回帰分析によりパラメタの重みを決定する.\subsection{生成された抄録文の評価}抄録は\ref{method}節に示した3種類の抄録手法で作成し,さらに手法1については部分木の削除の段階で,部分木(段落)を50\%,25\%,10\%ずつ削除した場合についてそれぞれ抄録を作成する.抽出する文の数は,人間の重要文選択調査における平均要約率26.6\%を目安とする.評価セットG〜K,および評価セットLに対する実験結果から,それぞれについて以下の式により,再現率,適合率を求める.{\small\[再現率=\frac{自動抄録により得られた抄録文に含まれる正解文数}{正解文数(人間によって選択された文数)}\]\[適合率=\frac{自動抄録により得られた抄録文に含まれる正解文数}{自動抄録により得られた抄録文数}\]}ここで,正解とは以下のように定義する.評価セットG〜Kについては,個別に評価するのではなくひとまとまりとして扱い,担当した被験者が選択したかどうかによるもとのする.評価セットLについては,被験者5人中2人以上が重要であると判断された文を抄録の正解とする.評価セットG〜Kに対する再現率,適合率を表\ref{tab:saigen_tekigou1}に,評価セットLに対する再現率,適合率を表\ref{tab:saigen_tekigou2}に示す.{\footnotesize\begin{table}[hbtp]\begin{center}\tabcolsep=5mm\begin{tabular}{|c|c||c|c|c|c|}\hline&部分木&\multicolumn{2}{|c|}{訓練セット1で訓練}&\multicolumn{2}{c|}{訓練セット2で訓練}\\\cline{3-6}&の削除率&再現率&適合率&再現率&適合率\\\hline\hline&50\%&26.9\%&36.9\%&25.3\%&36.7\%\\\cline{2-6}手法1&25\%&31.9\%&37.4\%&30.9\%&36.4\%\\\cline{2-6}&10\%&33.1\%&36.4\%&35.3\%&38.8\%\\\hline手法2&$-$&33.4\%&34.5\%&37.5\%&38.7\%\\\hline手法3&$-$&32.8\%&33.9\%&34.1\%&35.2\%\\\hline\end{tabular}\end{center}\caption{評価セットG〜Kに対する再現率・適合率}\label{tab:saigen_tekigou1}\end{table}}{\footnotesize\begin{table}[hbtp]\begin{center}\tabcolsep=5mm\begin{tabular}{|c|c||c|c|c|c|}\hline&部分木&\multicolumn{2}{|c|}{訓練セット1で訓練}&\multicolumn{2}{c|}{訓練セット2で訓練}\\\cline{3-6}&の削除率&再現率&適合率&再現率&適合率\\\hline\hline&50\%&33.3\%&40.7\%&34.7\%&42.4\%\\\cline{2-6}手法1&25\%&31.9\%&39.0\%&34.7\%&42.4\%\\\cline{2-6}&10\%&33.3\%&40.7\%&35.4\%&43.2\%\\\hline手法2&$-$&33.3\%&40.7\%&34.7\%&42.4\%\\\hline手法3&$-$&40.3\%&49.2\%&33.3\%&40.7\%\\\hline\end{tabular}\end{center}\caption{評価セットLに対する再現率・適合率}\label{tab:saigen_tekigou2}\end{table}}\subsection{抄録文に対する検討}\begin{itemize}\item評価セットG〜Kに対する検討\\再現率に関しては手法1の場合が低い値となった.これは部分木の削除の際に被験者が選択した文が含まれていても,その文を含む部分木の重要度評価値が低かったために部分木が削除されてしまい,抄録文として抽出されなかったためと思われる.訓練セット別に見ると訓練セット1より訓練セット2で訓練した方が,高い値となっている.これは訓練セット1の文章の数が社説20編と少なかったからと考えられる.適合率に関してはすべての手法でほぼ同じ値となった.訓練セット間の比較では訓練セット1の方が低い値となったが,再現率のときと同様の理由と思われる.抄録手法別に見ると再現率・適合率ともに手法1(10\%)と手法2が高い値となった.これは本研究で提案する文章構造の情報をパラメタに含めた判定式による抄録手法が有効であることを示している.また,過度に部分木を削除することの不適切性を示している.\item評価セットLに対する検討\\再現率・適合率ともに評価セットG〜Kに対する結果に比べ高い値となった.これは特異的に優しいセットだったためだと思われる.あるいは,被験者5人の判定を重ね合わせているので判定の質がアップしていることも寄与していると考えられる.訓練セット別に関してと抄録手法別に関しては,前述の評価セットG〜Kに対する結果と同様の傾向を示した.また,訓練セット1と評価セットLの組合せでは手法3の再現率・適合率が他より高いが,これは訓練セット,評価セット共に少ないため信頼できる評価ができないためで,より多くの評価セットで評価を行なう必要があると思われる.\itemパラメタ学習に関する検討\\セットAで訓練し,それを評価セットとして抄録を作成したときの再現率,適合率を表\ref{tab:saigen_tekigou3}に示す.ただし,正解は被験者5人中2人以上が重要であると判断された文とする.{\footnotesize\begin{table}[hbtp]\begin{center}\tabcolsep=5mm\begin{tabular}{|c|c||c|c|}\hline&部分木&\multicolumn{2}{|c|}{訓練セット1で訓練}\\\cline{3-4}&の削除率&再現率&適合率\\\hline\hline&50\%&41.1\%&54.3\%\\\cline{2-4}手法1&25\%&42.3\%&55.9\%\\\cline{2-4}&10\%&42.9\%&56.7\%\\\hline手法2&$-$&42.9\%&56.7\%\\\hline手法3&$-$&39.3\%&52.0\%\\\hline\end{tabular}\end{center}\vspace{2mm}\caption{セットAで訓練,評価したときの再現率・適合率}\label{tab:saigen_tekigou3}\end{table}}本来,訓練セットそのものを評価した場合,再現率,適合率とも100\%になってもよさそうなものである.表\ref{tab:saigen_tekigou3}の値は,訓練の限界を示す目安になっており,先の評価結果は,再現率ではこの値にかなり近付いている.\item人間の判断のばらつきに関する検討\\被験者5人に対して,重要文選択調査した社説のうち4人の結果を正解として,残り1人の結果と比較する.以上の実験を順に5人すべてに対して評価を行なった結果を表\ref{tab:only}に示す.なお,正解は4人中2人以上が選択した文とする.人間同士の比較でも再現率,適合率は表\ref{tab:only}で表される程度にばらつきがある.ただし,再現率,適合率間でそれほど大きな差はない.自動抄録についての研究の一つの目標を示しているものと考えられる.{\footnotesize\begin{table}[hbtp]\begin{center}\begin{tabular}{|c|c|c|c|c|c|c|}\hline被験者&1&2&3&4&5&平均\\\hline\hline再現率($\%$)&61.1&61.8&53.5&48.6&55.9&57.2\\\hline適合率($\%$)&56.4&67.2&67.9&58.4&68.6&63.7\\\hline要約率($\%$)&30.8&26.3&24.2&24.9&24.8&26.2\\\hline\end{tabular}\end{center}\vspace{2mm}\caption{被験者の抄録についての評価}\label{tab:only}\end{table}}\end{itemize}以上の結果より,本研究で提案する文章構造情報を利用した抄録手法が,利用しない抄録手法より有効であると言える.また,文章構造木を部分木に分割し,重要文抽出の前段階で部分木を削除する手法も提案したが,小規模な部分木削除(10\%)でもっとも良好な結果を示している.部分木の削除を考慮する場合,周囲との関連がない重要な文の存在が結果の精度に大きく影響する.すなわち,ノイズ的にパラメータの評価値が高くなってしまう文では,部分木の削除を行う場合(手法1),これが削除され,精度は向上する.
\section{おわりに}
label{conclusion}本論文では,文章中のさまざまな特徴をパラメタとした判定式から文章の構造化を行ない,さらに文章抄録の観点から選択したパラメタを加えた判定式による自動抄録手法を提案,実現し,評価,検討した.従来の抄録手法は文章中の情報を用いて各文について重要度を算出し,重要度の高い文から順に抽出していくものが多かった.本論文における手法も同様のものであるが,判定式に用いるパラメタは抄録作成の観点から選択したものに加えて,文章構造解析による構造木の修辞関係や部分木の位置などの構造的なものも選択した.パラメタの重みは,人間による重要文抽出調査の結果をもとに重回帰分析により求めた.また,文章構造の情報を考慮した場合としない場合での比較を行なうために,3種類の手法で抄録を作成し,検討を行なった.結果からパラメタとして文章構造の情報を使用する方が使用しない場合よりも良い結果が得られることが分かった.また,個人差があっても大規模な訓練セット(150編)を用いた方が,同一の記事を複数人で調査した訓練セット(20編)を用いるよりも結果は良好であった.なお,開発途中であるが,照応解析および一文内の圧縮をすることによる抄録から要約への展開および自動要約の実現を付録に示した.今後の課題として,他の学習方法についての検討,より大きい訓練セットでの実験,抄録文章の整形過程の検討,また,システムとしてのユーザインタフェースの整備があげられる.\section*{謝辞}本実験で使用したコーパスは,日本経済新聞CD-ROM'93〜94版から得ている.同社,および使用に関して尽力された方々に深く感謝します.\newpage{\large\bf付録(文章要約)}\vspace{5mm}抄録文章は,原文章から文を抜き書きしたものであり,参照表現,接続詞等も原文章のままであるので,そのままでは人間が読むときに不自然さを感じる.要約とは,より少ない文字数で原文章と同じ内容を表現することであるが,1つの文章として文を越えた何らかの意味的なつながり,つまり論旨が成り立っている必要がある.そこで本研究では,照応関係を解析し,その情報を利用することで照応情報の欠落による抄録文の首尾一貫性の低下を避ける.また,文内で比較的重要度が低いと考えられる表現を削除することで要約文章の圧縮を行なう.本方法では,対象とする照応表現は指示詞および指示連体詞とし,以下のような照応関係の判定を行なう.\begin{itemize}\item指示対象が直前文である.\item指示対象が前段落(部分木)である.\item指示対象が前出の名詞句である.\item指示対象が文章内に存在しない.\end{itemize}判定の結果,指示対象が文章内に存在する場合,指示対象を抄録文に採用する.ただし,指示対象が名詞句の場合はその名詞句を含む文を指示対象と判断する.抄録処理で文を抜き出すだけでは,要約文章として冗長な部分があったり,文間の接続が不自然な場合がある(結束性の悪化).そこで,省略することによって結束構造を発生することができる主題や文の論旨に影響を及ぼさない表現を削除することによって,結束性を高めるとともに,一文の量的な圧縮を行なう.本方法では,以下のような表現を削除の対象とする.\begin{description}\item[削除対象となる表現]\\begin{itemize}\item接続詞(文頭にある場合のみ)\item修飾句\begin{itemize}\item固有名詞への修飾句\item例示句\item話括弧``「」''の前語句\item時間格\end{itemize}\item副詞\begin{itemize}\item量副詞(「ほとんど」,「ほぼ」等)\item程度副詞(「きわめて」,「かなり」等)\item時制相副詞(「まだ」,「もう」等)\end{itemize}\item丸括弧``()''および丸括弧内語句\item主題(維持されている場合のみ)\end{itemize}\end{description}以上の要約手法によって生成された要約文章の例を,原文章,抄録文章(下線部分)とともに以下に示す.\vspace{5mm}{\baselineskip=15pt{\bf原文章と抄録文章(下線部分)}{\normalsize{\baselineskip=12pt\begin{itemize}\item[]日本経済新聞93年1月28日の社説\item[]改憲論の前に日本の“自画像”を描け(社説)\item[]\underline{(1,1):通常国会の代表質問が二十七日終わったが,今回の特色は与野党の党首や主要役}\\\underline{員級の質問者が異なった発想に基づく憲法改正論を展開,慎重な姿勢をとった宮沢首相}\\\underline{との間で踏み込んだ論議を交わした点にある.}\item[]\underline{(2,1):もとより憲法には改正条項があり,その長所と短所を点検し,論議を深めること}\\\underline{自体は望ましいことである.}\item[](2,2):この意味で「神棚に上げず日常的に議論することは,憲法を自分のものとするためにも有意義だ」(首相)といってよい.\item[](3,1):しかし,まず改憲ありき,といった前提で衆参両院に憲法に関する協議会を設置し,直ちに憲法九条を中心とする改正の具体化に進むという提案(三塚自民党政調会長)はいささか性急にすぎるというほかない.\item[](3,2):まず,広く国民各層,各界の間で,国際貢献,人権,環境権,地方分権など幅広く総点検を進め,じっくりと時間をかけて日本の国づくりの方向はどうあるべきかを徹底的に議論するのが大事である.\item[](3,3):その過程から,法律改正で足りるものと,憲法改正なしには改善されないものとが自然に区分けされてくるはずである.\item[](4,1):私たちが,拙速を避け,慎重な対処をすべきだと主張する理由を,別の角度から整理し直してみると次の二点が挙げられよう.\item[](5,1):第一に,憲法改正の実現のためには,高いハードルを越えねばならない.\item[](5,2):憲法九六条では,改正は衆参各議院の総議員の三分の二以上の賛成で国会が発議し,特別の国民投票または国政選挙の際に行われる投票で過半数の賛成を必要とする.\item[](5,3):この厳しい条件を満たすには,何を実現するための憲法改正で,その結果,得られるプラス点と甘受すべきマイナス点は何か,という肝心な点をきちんと国民に説明し,納得を得なければならない.\item[](5,4):政党側に都合のいいことばかり宣伝して,国民にとって苦痛となりうる点を隠しているようでは政治不信を招くだけである.\item[](5,5):この困難な過程を,目をつぶって急ぎ足で通り抜けてはならない.\item[](6,1):第二に,改憲により自衛隊が正規の軍隊と同じ扱いとなった場合,しばしば海外に派遣されよう.\item[](6,2):ガリ国連事務総長は報告書で,紛争防止のための平和維持活動(PKO)だけでなく,停戦合意が守られない事態に対処する平和執行部隊の創設を含む平和創造活動を提唱している.\item[](6,3):これは武力行使を覚悟した派遣であり,カンボジアに派遣中のPKOとは質的に異なる.\item[]\underline{(7,1):将来,仮に日本が国連安保理の常任理事国になった場合,平和執行部隊派遣に賛}\\\underline{成しながら自国の部隊派遣を拒否することは利己的な態度として非難されよう.}\item[]\underline{(7,2):日本は国際貢献と犠牲の調和をどこに求めるのか.}\item[]\underline{(8.1):その答えを出すには,まず日本はどのようなコストを負担して世界に寄与するの}\\\underline{か,という国家としての自画像について国民的合意を固めねばならない.}\item[]\underline{(8,2):この意味で首相と自民党政調会長が二十七日,党の憲法調査会で論議を深めるこ}\\\underline{とで合意したのは,その第一歩として歓迎したい.}\item[](8,3):先入観を捨て,謙虚な姿勢で論議を尽くしてほしい.\end{itemize}}}\vspace{5mm}{\bf要約文章}\begin{itemize}{\normalsize{\baselineskip=12pt\item[]日本経済新聞93年1月28日の社説\item[]改憲論の前に日本の“自画像”を描け(社説)\item[](1,1):通常国会の代表質問が二十七日終わったが,今回の特色は与野党の党首や主要役員級の質問者が異なった発想に基づく憲法改正論を展開,宮沢首相との間で踏み込んだ論議を交わした点にある.\item[](2,1):憲法には改正条項があり,その長所と短所を点検し,論議を深めること自体は望ましいことである.\item[](7,1):将来,日本が国連安保理の常任理事国になった場合,平和執行部隊派遣に賛成しながら自国の部隊派遣を拒否することは利己的な態度として非難されよう.\item[](7,2):日本は国際貢献と犠牲の調和をどこに求めるのか.\item[](8,1):その答えを出すには,どのようなコストを負担して世界に寄与するのか,という国家としての自画像について国民的合意を固めねばならない.\item[](8,2):この意味で首相と自民党政調会長が二十七日,党の憲法調査会で論議を深めることで合意したのは,その第一歩として歓迎したい.}}\end{itemize}}\vspace{-4mm}\bibliographystyle{jnlpbbl}\bibliography{v06n6_05}\begin{biography}\biotitle{略歴}\bioauthor{比留間正樹}{1997年横浜国立大学工学部電子情報工学科卒業.1999年横浜国立大学大学院工学研究科電子情報工学専攻前期課程修了,その間,自然言語処理の研究に従事.同年,日本アイ・ビー・エム入社,現在に至る.}\bioauthor{山下卓規}{1997年横浜国立大学工学部電子情報工学科卒業.1999年横浜国立大学大学院工学研究科電子情報工学専攻前期課程修了,その間,文章要約などの自然言語処理の研究に従事.同年,株式会社東芝入社,現在に至る.}\bioauthor{奈良雅雄}{1996年横浜国立大学工学部電子情報工学科卒業.1998年同大学大学院工学研究科電子情報工学専攻前期課程修了,自然言語処理,文章要約の研究に従事,同年,日立ソフトウェアエンジニアリング(株)入社,現在に至る.}\bioauthor{田村直良}{1985年東京工業大学大学院博士課程情報工学専攻修了,工学博士.同年東京工業大学大学工学部助手.1987年横浜国立大学工学部講師,同助教授を経て,1995年米国オレゴン州立大学客員教授,1997年横浜国立大学教育人間科学部教授,現在に至る.構文解析,文章解析,文章要約などの自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V08N01-06
|
\section{はじめに}
\label{sec:introduction}形態素解析は日本語解析の重要な基本技術の一つとして認識されている.形態素解析の形態素とは,単語や接辞など,文法上,最小の単位となる要素のことであり,形態素解析とは,与えられた文を形態素の並びに分解し,それぞれの形態素に対し文法的属性(品詞や活用など)を決定する処理のことである.近年,形態素解析において重要な課題となっているのは,辞書に登録されていない,あるいは学習コーパスに現れないが形態素となり得る単語(未知語)をどのように扱うかということである.この未知語の問題に対処するため,これまで大きく二つの方法がとられてきた.一つは未知語を自動獲得し辞書に登録する方法(例えば\cite{Mori:96}など)であり,もう一つは未知語でも解析できるようなモデルを作成する方法(例えば\cite{Kashioka:97,Nagata:99}など)である.ここで,前者の方法で獲得した単語を辞書に登録し,後者のモデルにその辞書を利用できるような仕組みを取り入れることができれば,両者の利点を生かすことができると考えられる.森らはn-gramモデルに外部辞書を追加する方法を提案している\cite{Mori:98}.ある文字列が辞書に登録されている場合にその文字列が形態素となる確率を割り増しするような方法である.しかし,わずかな精度向上に留まっていることから,n-gramモデルでは辞書の情報を利用する仕組みを容易に組み込むのは難しいのではないかと考えられる.本論文では,最大エントロピー(ME)モデルに基づく形態素解析の手法を提案する.この手法では,辞書の情報を学習する機構を容易に組み込めるだけでなく,字種や字種変化などの情報を用いてコーパスから未知語の性質を学習することもできる.ここで辞書の情報とは,辞書に登録されている語が複数の品詞をとり得る場合にどの品詞を選択するべきかといった情報を意味する.京大コーパスを用いた実験では,再現率95.80\%,適合率95.09\%の精度が得られた.本論文では,辞書の情報を用いない場合,未知語の性質を学習しない場合についても実験し,それぞれの精度に及ぼす影響についても考察する.
\section{形態素モデル}
\label{sec:model}この章では形態素としての尤もらしさを計算するモデルについて述べる.我々はこのモデルをMEモデルとして実装した.テストコーパスが与えられたとき,そのコーパスの各文を形態素解析するという問題は文を構成する各文字列に二つのタグのうち一つ,つまり,形態素であるかないかを示す「1」か「0」を割り当てる問題に置き換えることができる.さらに,形態素である場合には文法的属性を付与するために「1」を文法的属性の数だけ分割する.すると,文法的属性の数が$n$個のとき,各文字列に「0」から「$n$」までのうちいずれかのタグを割り当てる問題に置き換えることになる.形態素解析の問題において,この$n+1$個のタグはMEモデルを定式化するときに「未来(futures)」空間を形成する.ここで,未来空間とは学習モデルにおける分類先に対応する.MEモデルでは他の類似したモデルと同様に,可能性のある未来空間$F$における任意の$f$と可能性のある履歴空間$H$におけるすべての$h$に対して確率分布$P(f|h)$を計算することができる.ここで,MEモデルにおける「履歴(history)」とは未来空間においてどこに分類するかという判断を下す根拠となるデータのことである.形態素解析の問題における確率分布は次の式で表すことができる.\begin{eqnarray*}\label{eq:ex:p}P(f|h_t)\=\P(f|テストコーパスから関係tに関して導出可能な情報)\end{eqnarray*}これは,テストコーパスからある関係$t$に関して導出可能な情報が得られたときに$f$の確率が求まることを示している.MEモデルにおける確率分布$P(f|h)$の計算は「素性(features)」の集合,つまり,未来を予測する助けとなる情報に依存する.この情報は素性関数として定義され,近年の計算言語学の研究で用いられてきた他の多くのMEモデルと同様に我々のモデルでも,履歴と未来を引き数とし0か1を返す2値関数として定義する.以下にその一例をあげる.\begin{eqnarray}\label{eq:g}g(h,f)&=&\left\{\begin{array}[c]{l}1\:\{\rmif\has}(h,x)={\rmtrue},\\\q\qx={\rm``品詞(-1)(Major):動詞''}\p\\\q\p\&\f=1\\0\:\{\rmotherwise.}\end{array}\right.\end{eqnarray}ここで,「has($h$,$x$)」は履歴$h$に素性$x$が観測されるときに真を返す2値関数である.我々の場合,素性としては辞書の情報\footnote{\baselineskip=0.7\baselineskip今回の実験では既存の辞書の情報のみを用いたが,自動獲得した辞書の情報も利用可能であると考えている.}とともに,未知語の性質を学習できるように,着目している文字列の長さや文字種,その文字列が辞書にあるかどうか,連接する形態素の文法的属性,文字種の変化などを用いる.詳しくは\ref{sec:exp_discussion}~章で述べる.素性集合と学習データが与えられたとき,エントロピーを最大にするという操作によりモデルが生成される.このモデルではすべての素性$g_i$に対しパラメータ$\alpha_i$が関係付けられ,モデルは次のような条件付き確率として表される\cite{berger:cl96}.\begin{eqnarray}\label{eq:p}P(f|h)&=&\frac{\prod_{i}\alpha_{i}^{g_{i}(h,f)}}{Z_{\lambda}(h)}\\Z_{\lambda}(h)&=&\sum_f\prod_{i}\alpha_{i}^{g_{i}(h,f)}\end{eqnarray}パラメータを推定する際には,学習コーパスにおけるすべての素性$g_i$に対し,MEモデルから計算される$g_i$の期待値が$g_i$の経験的期待値と等しくなるようにする.つまり,以下の式を成り立たせるようなパラメータを推定する.\begin{eqnarray}\label{eq:constraint}\sum_{h,f}\tilde{P}(h,f)\cdotg_{i}(h,f)\=\\sum_{h}\tilde{P}(h)\cdot\sum_{f}P_{ME}(f|h)\cdotg_{i}(h,f)\end{eqnarray}ここで,$\tilde{P}$は経験的確率分布であり,$P_{ME}$はMEモデルとして推定される確率分布である.形態素に付与するべき文法的属性が$n$個あると仮定する.文法的属性としては品詞と文節区切りを考える.品詞が$m$個の場合,その各々についてその品詞を付与した形態素の左側が文節区切りであるかないかを考慮し,文法的属性の数は$n=2\timesm$とする.文字列が与えられたとき,その文字列が形態素であり,かつ$i$$(1\leqi\leqn)$番目の文法的属性を持つとしたときの尤もらしさを確率値として求めるモデルを形態素モデルと呼ぶ.このモデルは式(\ref{eq:p})を用いて表される.ここで,$f$は0から$n$までの値をとる.一文が与えられたとき,一文全体で確率の積が最大になるよう形態素に分割し文法的属性を付与する.最適解の探索にはビタビアルゴリズムを用いる.N-best解の探索には文献\cite{Nagata:94}の方法を用いる.
\section{実験と考察}
\label{sec:exp_discussion}\subsection{実験の条件}\label{sec:exp_condition}品詞体系はJUMAN\cite{juman3.61}のものを仮定した.品詞は細分類まで考慮すると全部で53種類ある.これに文節区切りを考慮すると推定するべき文法的属性の数は倍の106種類となる.活用型,活用形は品詞が決まれば表記からほぼ一意に決めることができるので,モデルから確率的に推定することはしない.したがって,式(\ref{eq:p})の$f$は$0$から$106$までの107個の値をとるものとする.実験には,京大コーパス(Version2)\cite{kurohashi:nlp97}を用いた.学習には1月1日と1月3日から8日までの7日分(7,958文),試験には1月9日の1日分(1,246文)を用いた.一文が与えられると,5文字以下のすべての文字列および5文字を越えるが辞書に登録されている文字列に対して,その文字列が形態素であるかないか,形態素である場合にはその文法的属性が何かを推定する.5文字以下のすべての文字列としたのは,5文字を越えるような形態素は大抵,複合語あるいはカタカナ語であり,辞書に登録されていなければ,ほとんどの場合形態素ではないためである.複合語は辞書に登録されているもの以外は5文字以下の文字列に分割できると仮定する.また,カタカナ連続は辞書に登録されていない場合,ひとまとまりにして「未定義語(大分類),カタカナ(細分類)」という品詞を持つものとして辞書に登録されていたものとして扱う.ビタビアルゴリズムを用いて最適解を探索する際には,JUMANで定義されている連接規則を満たさなければならないという制約を加えた.\ref{sec:model}章に述べたモデルでは,各文字列に対し品詞を付与する際,すべての品詞候補(53種類)のうち一文全体の確率を最大にするものが選ばれる.このとき,必ずしも辞書に記述されている品詞が選ばれるとは限らない.そこで,辞書に登録されている文字列については,その文字列に付与可能な品詞がすべて辞書に記述されていると仮定し,各文字列に対し品詞を付与する際には,辞書に記述されている品詞の中から選択するという制約を加える.\begin{table*}[htbp]\scriptsize\begin{center}\caption{学習に利用した素性}\label{table:feature}\leavevmode\begin{tabular}[c]{|c|l|p{4cm}|c|c|c|}\hline素性&&&\multicolumn{3}{c|}{削除した時の精度}\\\cline{4-6}番号&\multicolumn{1}{c|}{素性名}&\multicolumn{1}{c|}{素性値}&再現率&適合率&F\\\hline\hline1&文字列(0)&(4,331個)&93.66\%&93.81\%&93.73\\2&文字列(-1)&(4,331個)&($-$2.14\%)&($-$1.28\%)&($-$1.71)\\\hline3&辞書(0)(Major)&動詞\,動詞\&連語\,形容詞\,形容詞\&連語$\ldots$(28個)&94.64\%&92.87\%&93.75\\4&辞書(0)(Minor)&普通名詞\,普通名詞\&連語\,副助詞$\ldots$(90個)&($-$1.16\%)&($-$2.22\%)&($-$1.69)\\5&辞書(0)(Major\&Minor)&名詞\&普通名詞\,名詞\&普通名詞\&連語$\ldots$(103個)&&&\\\hline6&長さ(0)&123456以上(6個)&95.52\%&94.11\%&94.81\%\\7&長さ(-1)&123456以上(6個)&($-$0.28\%)&($-$0.98\%)&($-$0.63)\\\hline8&文字種(0)(頭)&漢字平仮名記号数字カタカナアルファベット(6個)&95.17\%&93.89\%&94.52\%\\9&文字種(0)(末尾)&漢字平仮名記号数字カタカナアルファベット(6個)&($-$0.63\%)&($-$1.20\%)&($-$0.92)\\10&文字種(0)(変化)&漢字$\rightarrow$平仮名\,数字$\rightarrow$漢字\,カタカナ$\rightarrow$漢字$\ldots$(30個)&&&\\11&文字種(-1)(末尾)&漢字平仮名記号数字カタカナアルファベット&&&\\12&文字種(-1)(変化)&漢字$\rightarrow$平仮名\,数字$\rightarrow$漢字\,カタカナ$\rightarrow$漢字$\ldots$(30個)&&&\\\hline13&品詞(-1)(Major)&動詞形容詞名詞助動詞接続詞未定義語$\ldots$(15個)&95.60\%&95.31\%&95.45\%\\14&品詞(-1)(Minor)&普通名詞サ変名詞数詞程度副詞$\ldots$(45個)&($-$0.20\%)&($+$0.22\%)&($+$0.01)\\15&品詞(-1)(Major\&Minor)&無\,名詞\&普通名詞\,名詞\&普通名詞\&連語$\ldots$(54個)&&&\\\hline16&活用(-1)(Major)&母音動詞子音動詞カ行$\ldots$(33個)&95.66\%&95.00\%&95.33\%\\17&活用(-1)(Minor)&語幹基本形未然形意志形命令形$\ldots$(60個)&($-$0.14\%)&($-$0.09\%)&($-$0.11)\\\hline18&文節区切り(-1)&無有(2個)&95.82\%&95.25\%&95.53\%\\19&文節区切り(-1)\&&名詞\&普通名詞\&区切り\,&($+$0.02\%)&($+$0.16\%)&($+$0.09)\\&品詞(-1)(Major\&Minor)&名詞\&普通名詞\&区切りではない$\ldots$(106個)&&&\\\hline\end{tabular}\end{center}\end{table*}\vspace{1pt}次に,実験に用いた素性を表~\ref{table:feature}にあげる.ここで素性とは,各素性名に対し素性値を展開したもののことである.各々の素性は式(\ref{eq:p})の素性関数$g_{i}(h,f)$の$i$に対応する.素性番号は便宜上設けたものであり,各素性名に対応している.例えば,素性番号,素性名,素性値がそれぞれ「13」,「品詞(-1)(Major)」,「動詞」である素性および,「3」,「辞書(0)(Major)」,「形容詞」である素性に対応する素性関数はそれぞれ,式(\ref{eq:g})および以下の式のように表わされる.なお,式中では添字の$i$は省略している.\begin{eqnarray*}g(h,f)&=&\left\{\begin{array}[c]{l}1\:\{\rmif\has}(h,x)={\rmtrue},\\\q\qx={\rm``辞書(0)(Major):形容詞''}\p\\\q\p\&\f=1\\0\:\{\rmotherwise.}\end{array}\right.\end{eqnarray*}これらの式および表~\ref{table:feature}で素性名に使われている「(0)」「(-1)」という表記はそれぞれ,着目している文字列,その文字列の左に連接する一形態素を意味する.素性関数としては,素性とfutureの組が学習コーパスで3回以上観測されたもののみを用いた.結果として実験に用いた素性は8,525個であった.以下で,表~\ref{table:feature}の各素性名,素性値について説明する.\noindent{\bf(文字列)}学習コーパスに形態素として現れた文字列のうち,頻度5以上のもの\\{\bf(長さ)}文字列の長さ\\{\bf(文字種)}文字の種類.「(頭)」「(末尾)」はそれぞれ文字列の先頭と末尾の文字を表す.文字列ではなく一文字の場合はともに同じ文字を指すものとする.「文字種(0)(変化)」は先頭と末尾の文字の変化を表す.「文字種(-1)(変化)」は左に連接する一形態素の末尾文字の文字種から着目している文字列の先頭文字の文字種への変化を表す.例えば,左に連接する一形態素が「先生」,着目している文字が「に」の場合,素性値は「漢字$\rightarrow$平仮名」と表す.\\{\bf(辞書)}JUMANの辞書を用いる.この辞書に登録されている異なり形態素数は約20万個である.Major,MinorはそれぞれJUMANの品詞大分類と細分類に対応する.Major\&MinorはMajorとMinorの可能な組み合わせである.着目している文字列が辞書に登録されている場合,辞書に記述されている品詞の情報を素性として利用する.複数の品詞を持つものとして登録されている場合にはそれぞれを素性として用いたときに形態素モデルから推定される確率が一文全体で最大となるものを採用する.その文字列が,連語辞書に登録されている形態素列の一番左の形態素の文字列である場合には,その文字列が連語の先頭の形態素であるという情報を付加したものを素性として利用する.この場合,素性値としては「連語」という表記が付加されているものを用いる.連語については文献\cite{Yamaji:96}に詳しい説明がある.未知語の性質を学習するために,学習コーパスにおいて各文字列に対し辞書引きをしたときに一回しか引かれなかったものは辞書になかったものとして学習する.今回の実験ではそのような語の数は20,317個であった.ちなみに,辞書引きされた語の延べ数は1,964,829個,異なり語の総数は60,908個であった.このような学習方法をとることによって,辞書が充実すればその情報を反映できるとともに,辞書に依存し過ぎることなく未知語にも対処できると考えている.\\{\bf(品詞)}Major,MinorはそれぞれJUMANの品詞大分類と細分類に対応\\{\bf(活用)}Major,MinorはそれぞれJUMANの活用型,活用形に対応\\{\bf(文節区切り)}形態素の左側に文節区切りがあるかないか\subsection{実験結果と考察}\label{sec:exp_result}パラメータの推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra95}を用いた.計算マシンとしてSunEnterprise450(400MHz,SunOSRelease5.6Version)を用いたところ,推定に要した時間は二日程度であった.形態素解析の結果を表~\ref{Result}に示す.ここで,再現率はコーパス中の全形態素に対して区切りと品詞(大分類のみ)を正しく推定できたものの割合を,適合率はシステムが推定した全形態素に対して区切りと品詞(大分類のみ)を正しく推定できたものの割合を求めたものである.表中のFというのはF-measureのことで,以下の定義式により計算した.\begin{eqnarray*}{\rmF-measure}&=&\frac{2\times再現率\times適合率}{再現率+適合率}\end{eqnarray*}\noindent表の各行にはそれぞれ,\ref{sec:exp_condition}~節で述べた手法およびJUMANによる精度をあげた.JUMANは単独では辞書に登録されていないカタカナ語に対し「未定義語」という品詞を付与するため,それによる誤りが多くなる.ルールベースの構文解析システムKNP\cite{KNP2.0b6}は,JUMANに複数解の出力を許しその出力を入力とすると,構文解析の過程で品詞の曖昧性を解消し,未定義語も何らかの品詞に置き換えることができる.そこで,JUMANとKNPで解析した結果も評価した.表には+KNPと表記した.\begin{table}[tbh]\small\begin{center}\caption{解析結果(形態素区切りと品詞大分類)}\label{Result}\begin{tabular}{|c||c|c|c|}\hline&再現率&適合率&F\\\hline本手法&95.80\%(29,986/31,302)&95.09\%(29,986/31,467)&95.44\\JUMAN&95.25\%(29,814/31,302)&94.90\%(29,814/31,417)&95.07\\+KNP&98.49\%(30,830/31,302)&98.13\%(30,830/31,417)&98.31\\\hline\end{tabular}\end{center}\end{table}表~\ref{Result}にあげた形態素区切りと品詞大分類に対する推定精度は,我々の手法ではJUMAN+KNPよりも3\%程度低かった.その原因として学習コーパスの量,素性,コーパスにおける形態素の揺れなどが考えられる.今回用いた学習コーパスは約8,000文と少なく,素性については文献\cite{Uchimoto:eacl99}などで用いられているような組み合せの素性に相当するものはあまり用いていない.利用可能なマシンのメモリ容量の都合上,今回は学習コーパスの量,素性の数ともにこれ以上増やすのは困難であったが,いずれ可能になるだろう.次に形態素の揺れについてであるが,これは実験に用いた京大コーパスがJUMAN+KNPの解析結果を人手で修正したものであるということに起因していると思われる.このことはJUMAN+KNPの出力の評価に有利に働いている.例えば,最後が「者」で終わる形態素はテストコーパス中に153個あり,すべてJUMAN+KNPの出力と同じであった.このうち我々のシステムの誤りは3個(約2\%)であった.コーパスには「生産(名詞)者(接尾辞)」と「消費者(名詞)」の違いなどの揺れがあり,このように区切りに一貫性のない場合,過学習にならないように学習するのは難しい.揺れに関してはコーパス全体を通して他にも同様な例がいくつかある.例えば,「芸術家(名詞)」と「工芸(名詞)家(接尾辞)」,「警視庁(名詞)」と「検察(名詞)庁(名詞)」,「現実的(形容詞)」と「理想(名詞)的(接尾辞)」などがそうである.この揺れの問題を解決するためには,コーパス修正の研究がより活発に行なわれる必要がある.一つの方法として,我々のモデルを用いる方法が考えられる.学習したモデルを用いて学習コーパス中の各形態素の確率を再推定し,確率の低い部分に一貫性を欠いたものがある可能性が高いと推測する方法である.今後,この方法を試してみたい.\vspace{2pt}\subsection{素性と精度}\label{sec:features_and_accuracy}辞書の情報,未知語の性質は,我々が実験で用いた素性に反映されている.表~\ref{table:feature}にあげた素性のうち,「文字列」「辞書」の素性が辞書の情報を\footnote{「文字列」は学習コーパスに5回以上出現した形態素の文字列であり,これを素性として用いることは,学習コーパスから辞書的な情報を得て利用していることに相当する.},「長さ」「文字種」の素性が未知語の性質を反映する.表~\ref{table:feature}の右欄には,それぞれの素性を削除したときの解析精度と削除したことによる精度の増減を示した.ほとんどの素性が精度向上に貢献しており,特に辞書情報の貢献度が高いことが分かる.逆に辞書が解析結果に悪い影響を及ぼす例もある.例えば,「/海/に/かけた/ロマンは/,/」「/荒波/に/負け/ない心/と/」(「/」は形態素区切り)といった形態素区切りが出力として得られることがある.これは,漢字を使った表記「ロマン派」「内心」に加えて平仮名を使った表記「ロマンは」と「ない心」も名詞として辞書に登録されていたために生じた誤りである.このような間違いをなくすためには,不自然な表記を辞書に登録しないようにする,あるいは,辞書の表記に使われる文字種の性質を学習する必要がある.学習の際,一回しか辞書引きされなかった語は辞書に登録されていなかったものとして扱った.このようにしたのは,テストコーパスを解析するときには未知語が多くなると予想されるため,学習の際にもそれと同じ状況に少しでも近付けようとしたためである.ところが,実験後,学習コーパス,テストコーパスにおける未知語の割合を調べたところ,辞書に登録されていなかった語の数(見出し語の異なり数)の異なり形態素数に対する割合は,学習コーパスで26.6\%(3,859/14,493),テストコーパスで17.7\%(901/5,093)であり,テストコーパスにおける未知語の割合の方が学習コーパスにおける割合より少ないことが分かった.ちなみに,未知語の大部分は数詞およびカタカナで表記された名詞が占めていた.そこで,辞書に登録されていた場合には辞書引きの頻度に関わりなくその情報をすべて学習に用いることにすると,精度は再現率95.78\%,適合率95.38\%,F-measure95.58ポイントとなった.これは表~\ref{table:feature}にあげた精度よりわずかに良い結果である.今回の実験では学習コーパスより未知語の割合が少ないコーパスに対して実験したためこのような結果となったが,本手法を学習コーパスよりも未知語の割合が多い分野に適用するときには我々がとった学習手法は有効ではないかと考えている.その有効性を調べることは今後の課題である.\subsection{学習コーパスと精度}\label{sec:training_corpus_and_accuracy}この節では,学習コーパスと解析精度の関係について考察する.図~\ref{fig:learning_curve}に学習コーパスとテストコーパスのそれぞれを解析した場合の学習コーパスの量と解析精度の関係をあげる.図の横軸は学習コーパスの文数,縦軸はF-measureを表す.学習コーパスの解析には基本的に京大コーパスの1月1日の一日分を用いた.学習曲線(図~\ref{fig:learning_curve})を見ると,わずかではあるが増加する傾向にある.したがって,学習コーパスの量が増えればもう少し精度の向上が期待できそうである.\begin{figure*}[htbp]\begin{center}\leavevmode\atari(94.5,90)\caption{学習コーパスの量と精度の関係}\label{fig:learning_curve}\end{center}\end{figure*}\subsection{未知語と精度}\label{sec:unknown_words_and_accuracy}我々の手法は,未知語に対しても前後の形態素のつながりから形態素と認定でき,適切な品詞を付与することができる.例えば,「漱石」や「露伴」はJUMANの辞書には登録されていないため,JUMAN+KNPでは「漱(名詞)石(名詞)」「露(副詞)伴(名詞)」のように解析されるのに対し,我々のシステムではどちらも正しく名詞であると解析される.この場合は,細分類も正しく人名であると解析できた.このような固有名詞などは未知語になることが多い.そこで,未知語(辞書にも素性にもなかった語)に対する再現率を調査した.結果を表~\ref{Result2}にあげる.表には品詞細分類まで正しい場合に正解とするという基準で求めた再現率もあげた.この基準で求めた我々の手法の精度はJUMAN+KNPに比べて10\%程度良かった.この結果は我々のモデルでは未知語,特に固有名詞や人名,組織名,地名に関する語に対する学習が比較的にできていることを示していると考えて良いだろう.\begin{table}[htbp]\small\begin{center}\caption{未知語に対する精度(再現率)}\label{Result2}\begin{tabular}{|c|c|c|}\hline&形態素区切り&形態素区切り\\&と品詞大分類&と品詞細分類\\\hline本手法&77.96\%(849/1,089)&39.67\%(432/1,089)\\本手法+NE&79.52\%(866/1,089)&42.15\%(459/1,089)\\JUMAN+KNP&86.87\%(946/1,089)&29.94\%(326/1,089)\\\hline\end{tabular}\end{center}\end{table}さらに,固有表現に関する情報を素性として利用した場合の実験を行なった.ここで固有表現とは,人名,組織名,地名など特定の事物を示す表現のことである.これらの表現は特に未知語になりやすい.固有表現に関する情報は,固有表現にSGML形式のタグを付与したコーパスから抽出した.このようなコーパスとしては,CRL(郵政省通信総合研究所)固有表現データ,IREX-NE予備試験トレーニングデータ,IREX-NE予備試験データ,IREX-NE本試験逮捕トレーニングデータなど(合計約12,000文)\cite{Uchimoto:jnlp2000a}がある.これをJUMANを用いて形態素解析した結果から,固有表現を構成する形態素あるいは固有表現の前後の形態素の文字列として5回以上出現したもの2,279個を抽出し,素性として追加した.実験結果を表~\ref{Result2}の二行目(本手法+NE)にあげる.未知語に対する再現率は表~\ref{Result2}に本手法としてあげた精度より約2\%良くなっている.テストコーパスに対する精度は再現率95.93\%,適合率95.12\%,F-measure95.52ポイントであった.これは表~\ref{Result}にあげた本手法の精度よりもわずかに良い.これらの結果から,未知語になりやすい文字列を選択して素性として利用すると全体の精度が良くなるだけでなく,未知語に対する再現率も良くなることが分かる.
\section{関連研究}
\label{sec:related_works}実験で比較として用いたJUMANはルールベースのシステムであり,形態素に品詞を付与するときにかかるコスト(品詞コスト)と形態素を連接するときにかかるコスト(連接コスト)の和が一文全体で最小となるように形態素区切りと品詞を決める.それぞれのコストは予め人手により設定する必要がある.一方,我々の手法は学習に基づくシステムであり,JUMANの品詞コストと連接コストに相当するものを一つの確率値として表し,その確率値を計算するためのモデルをコーパスから統計的に学習する.大きな違いは,ルールベースと統計ベースという点だけでなく,JUMANが未知語を一文字からなる名詞と既知語に分割して出力するのに対し,我々の手法は,未知語に対しても前後の形態素のつながりから形態素と認定でき,適切な品詞を付与することができる点にもある.日本語では,我々の手法の他にも統計モデルに基づく方法がこれまでにいくつか提案されている.HMM\cite{Takeuchi:97}や可変記憶長マルコフモデル(VariableMemoryMarkovModel,VMM)\cite{Haruno:acl97,Kitauchi:99}に基づく方法ではF-measureで約96ポイントの精度が得られている.これは我々の手法よりも良い精度であるが,これらの手法では未知語に対する扱いがあまり考慮されていない.未知語は一文字からなる名詞と既知語に分割して出力される.春野らは着目している形態素と一つ前の形態素の情報,つまり2gramの情報を用いたときに,94\%程度の再現率が得られ,3gramあるいはそれ以上の情報を用いたときに96\%程度の再現率が得られたと報告している\cite{Haruno:acl97}.我々は2gramの情報のみで96\%程度の再現率を得ていることを考慮すると,3gram以上の情報を用いることにより,より良い精度が得られることが期待できる.3gram以上の情報を用いることは今後の課題である.\ref{sec:introduction}節で述べたように,未知語の問題に対処するため,これまで大きく二つの方法がとられてきた.一つは未知語を自動獲得し辞書に登録する方法(例えば\cite{Mori:96}など)であり,もう一つは未知語でも解析できるようなモデルを作成する方法(例えば\cite{Kashioka:97,Nagata:99}など)である.永田は未知語のモデルを提案し,未知語に対し約40\%の再現率が得られたと報告している\cite{Nagata:99}.我々の方法では表~\ref{Result2}に示したように,最大で,形態素区切りと品詞大分類を推定したときに79.52\%,形態素区切りと品詞細分類を推定したときに42.15\%の精度を得ることができた.我々の手法の精度は永田の手法に比べて品詞細分類を推定したときでもわずかに良い.永田は我々とは異なるコーパス(EDRコーパス)を用いており,直接精度を比較することは難しいが,京大コーパスとEDRコーパスでは品詞体系と形態素の定義が似ていることから,この結果は我々の手法を評価するのに十分な材料の一つになると考えている.森らは辞書情報を用いるモデルを提案した\cite{Mori:98}.彼らはEDRコーパスを用いたときにF-measureで約92ポイント,京大コーパスを用いたときにF-measureで約95ポイントの精度を得ている.彼らが辞書情報を用いて得た精度向上はF-measureで約0.2ポイントであるのに対し,我々の手法では辞書情報を用いることにより,F-measureで約1.7ポイント精度が向上した.森らが京大コーパスを用いて得た約95ポイントの精度は,我々の精度とほぼ同程度である.しかし,彼らは学習コーパスに現れた形態素の文字列の情報をすべて用いているため,我々の実験に比べて未知語が少ない状況で実験していたものと思われる.英語では,品詞タグ付けの手法として,HMM\cite{Cutting:92},可変記憶長マルコフモデル\cite{Schutze:94},決定木モデル\cite{Daelemans:96},MEモデル\cite{ratnaparkhi:emnlp96},神経回路網モデル\cite{Schmid:94},誤り主導の変換に基づく学習\cite{Brill:95}などに基づく方法やこれらのうちいくつかのモデルを組み合せた方法\cite{Marquez:97,Halteren:98}などがこれまでに提案されてきた.それぞれ高い精度が得られているが,これらの方法では大規模な語彙情報を利用することは難しい.一方,我々の提案したモデルは,辞書引きをする仕組みが素性の一つとして組み込まれているため,大規模な語彙情報も辞書情報として利用することができる.さらに,未知語の性質も学習することができる.そのため,我々のモデルを英語の品詞タグ付けに用いればより良い精度が得られる可能性が高いと考えている.
\section{まとめ}
\label{sec:conclusion}本論文では次の二つの特徴をもつモデルをMEモデルとして実装した形態素解析の手法を提案した.(1)学習コーパスからだけでなく辞書から得られる情報も用いる.(2)形態素となる文字列だけでなく形態素とはならない文字列の性質も学習することによって,未知語も形態素として推定でき,同時にその文法的属性も推定できる.実験により,辞書の精度に及ぼす影響の大きさ,および,我々の手法が,固有名詞,人名,組織名,地名など未知語になりやすいものに対して比較的に推定精度がよいことが分かった.さらに,固有表現を構成するような文字列を抽出し素性として利用すると,精度,特に未知語に対する再現率が良くなる(約2\%)ことが分かった.今後の課題としては以下の三点をあげておきたい.\begin{enumerate}\item学習に用いる情報について.一つ前の形態素の情報だけでなく,二つから四つくらい前の形態素の情報を利用するとともに,組み合わせの素性を増やす.\itemコーパスについて.コーパスの量を増やすとともに,コーパス修正の研究を活発に進める.また,異なるコーパスについても実験する.\item辞書について.今回実験に用いた辞書は既存の辞書であったが,今後,自動獲得した辞書を利用したときにどの程度精度の違いがあるかについて調査したい.また,文法体系が変わったときにその体系に合うように辞書情報を変換する技術を開発したい.\end{enumerate}\begin{flushleft}{\bf謝辞}\end{flushleft}本研究の評価にあたり,評価ツールを提供して下さった京都大学の黒橋禎夫講師に心から感謝の意を表する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.現在,同研究所けいはんな情報通信融合研究センター感性情報処理研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V30N04-02
|
\section{はじめに}
人の日常生活に自然言語処理システムを取り入れるとき,そのシステムに人の語に関する背景知識を与えることで,より適切な動作が行えるようになるだろう.たとえば,人やロボットに「洗濯機を運んで欲しい」と依頼する場面を考える.人に依頼する場合,人は「運ぶ」という動作に対して「誰が」「何を」「どこから」「どこへ」という情報が必要であることを理解しているため,「どこへ」置いたら良いかが不明である場合には「どこへ置けば良い?」と聞き返して,運ぶ場所を特定し,その動作を達成することができる.一方で,ロボットに依頼する場合,ロボットが「運ぶ」の知識を持っていなければ,「どこへ」置けば良いかわからないまま運び,依頼者の意図通りにならない可能性がある.意味フレームとは,このような「運ぶ」に対して「誰が」「何を」「どこから」「どこへ」という情報が必要であるといった人が持つ語の背景知識をまとめたものであり,それを自然言語処理システムに明示的に与えることでこのような問題は解消される可能性がある.意味フレームの代表的なリソースとしてFrameNet\cite{baker-1998-berkeley-framenet,ruppenhofer-2016-framenet}が存在する.FrameNetの意味フレームは,特定の動作や状況などの概念に対応し,そのフレームを喚起する語(LexicalUnits;LUs)とそのフレーム固有の意味役割であるフレーム要素(FrameElements;FEs)に関する知識で構成されている.FrameNetは高品質なリソースであるが,人手で整備されたものであることから語彙やフレームのカバレッジに限界がある.このため,大規模なテキストコーパスから動詞の意味フレームを自動構築する取り組みが行われている\cite{kawahara-2014-inducing,ustalov-2018-unsupervised}.しかし,これらは動詞や項の表層的な情報に基づき構築されているため,それらの出現する文脈が十分に考慮されておらず,その品質は十分とはいえない.そこで,本研究では,文脈を考慮した単語埋め込みを活用して動詞や項の出現文脈を考慮することで,より高品質な意味フレームの自動構築を目指す.これを実現するためには,動詞の意味フレーム推定とフレーム要素推定が必要であるが,本論文では,前者の動詞の意味フレーム推定に焦点を当てる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{01table01.tex}%\caption{FrameNet内のフレームを喚起する動詞の事例}\label{tab:examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{30-4ia1f1.pdf}\end{center}\hangcaption{(a)VanillaBERTと(b)AdaCosを用いてfine-tuningしたBERTによる動詞の文脈化単語埋め込みの2次元マッピング.各色(形)は{\color[HTML]{1f77b4}\textsc{Filling}}({\large$\bullet$}),{\color[HTML]{ff7f0e}\textsc{Placing}}({\small${\boldsymbol\times}$}),{\color[HTML]{2ca02c}\textsc{Removing}}({\scriptsize$\blacksquare$}),{\color[HTML]{d62728}\textsc{Topic}}({\scriptsize${\boldsymbol+}$})フレームを示し,数字は表\ref{tab:examples}と対応する.}\label{fig:examples}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%動詞の意味フレーム推定は,テキスト中の動詞を,その動詞が喚起するフレームごとにまとめるタスクである.たとえば,表\ref{tab:examples}に示すFrameNetの8つの事例の場合,各動詞が喚起するフレームごとで事例をグループ化し,\{(1),(2)\},\{(3),(4)\},\{(5),(6)\},\{(7),(8)\}の4つのクラスタを形成することが目標となる.本タスクでは,事例(1)の「cover」と事例(2)の「fill」のように異なる動詞であっても同じ\textsc{Filling}フレームを喚起する事例もあれば,事例(1)と(7)の動詞「cover」のように同じ動詞であっても異なるフレームを喚起する事例も存在するという特徴がある.動詞の意味フレーム推定において,ELMo\cite{peters-2018-deep}やBERT\cite{devlin-2019-bert}などの文脈化単語埋め込みの有用性が報告されている\cite{arefyev-2019-neural,anwar-2019-hhmm,ribeiro-2019-l2f,yamada-2021-verb,yamada-2021-semantic}.図\ref{fig:examples}(a)はFrameNetに含まれる事例中の動詞の事前学習のみに基づくBERT(VanillaBERT)による埋め込みをt-SNE\cite{maaten-2008-visualizing}で2次元に射影し,可視化した結果である.動詞「cover」の事例(1)と(7)は埋め込み空間上で離れている一方,同じ\textsc{Topic}フレームを喚起する動詞の事例(7)と(8)は近くに位置しており,ある程度,意味フレームの違いを反映した埋め込み空間であるといえる.しかし,同じフレームを喚起する動詞の事例が離れた位置に存在するケースも散見される.たとえば,同じ\textsc{Removing}フレームを喚起する動詞の事例(5)と(6)は互いに離れた位置に存在している.これはVanillaBERTの埋め込み空間が,意味的に類似した事例が近い位置に,異なる事例が離れた位置に存在するという人の直観と常に一致しているわけではないことを意味している.本研究では,フレームに関する人の直観をより強く反映した意味フレーム推定を実現するため,コーパス内の一部の述語に対して意味フレームラベルが付与された教師データの存在を仮定し,深層距離学習に基づき文脈化単語埋め込みをfine-tuningすることで,高精度な意味フレーム推定を実現する手法を提案する.深層距離学習とは,同じラベルの事例を埋め込み空間上で近づけ,異なるラベルの事例を遠ざける学習を行う手法であり,教師データに基づく埋め込み空間の調整が期待できる.図\ref{fig:examples}(b)は代表的な深層距離学習手法の1つであるAdaCos\cite{zhang-2019-adacos}を用いてfine-tuningしたBERTによる埋め込みを2次元に射影し,可視化した結果である.VanillaBERTにおいて同じ意味フレームを喚起する動詞の事例であるにも関わらず,距離が離れていた事例(3)と(4),事例(5)と(6)が,AdaCosを用いてfine-tuningしたBERTでは,互いに近い位置に存在していることが確認できる.これは,深層距離学習によって,意味フレームに関する人の直観をより反映させた埋め込み空間が得られたことを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
意味フレームの自動構築へ向けて,テキスト中の述語を,その述語が喚起するフレームごとにまとめるタスクとして,意味フレーム同定(frameidentification)と意味フレーム推定(semanticframeinduction)の2つのタスクが存在する.意味フレーム同定は,事前に定義された意味フレームを与えた上で,テキスト中の述語に対して,その述語が喚起するフレームを同定するタスクである.これは意味フレーム解析のサブタスクの1つとして扱われることが多く,意味フレームが事前に定義されていることを前提とするため,フレーム数をはじめとして,フレームの定義文やフレーム要素知識などのフレーム情報が利用可能な教師ありタスクとして取り組まれている.近年では,文脈化単語埋め込みモデルであるBERTを用いた手法が主流となっている.たとえば,\citeA{jiang-2021-exploiting}はフレームとLUsの定義文に基づく文埋め込みを活用したフレーム同定モデルを構築しており,\citeA{su-2021-knowledge}はフレーム喚起語の周囲の文脈を埋め込む文脈エンコーダと,フレームの定義文とフレーム要素を埋め込むフレームエンコーダを構築し,それらに基づき生成された埋め込み表現を基にフレームを同定している.また,\citeA{yong-2020-semi}は,意味フレーム同定をクラスタリングタスクとして扱っている.具体的には,まず,異常検知モデルを応用することで,FrameNetに存在しないフレームを喚起する述語を除去し,その後,述語の文脈化単語埋め込みとフレームの定義文に基づく文埋め込みを用いて,テキスト中の述語をクラスタリングすることで,意味ごとにまとめている.意味フレーム推定は,テキスト中の述語を,その述語が喚起するフレームごとにまとめるタスクである.多くの研究では,事前に定義されたフレームの存在を仮定せず,フレーム情報を利用しない教師なしタスクとして取り組まれており,文脈化単語埋め込みを用いた手法が提案されている.\citeA{arefyev-2019-neural}は,まず,BERTによるフレーム喚起語の文脈化単語埋め込みを用いて階層型クラスタリングを行い,その後,多義性のあるフレーム喚起語に対応するため,BERTを用いてフレーム喚起語の言い換えを生成し,それを基に各クラスタを2分することでフレームクラスタを生成している.\citeA{anwar-2019-hhmm}は,skip-gram\cite{mikolov-2013-distributed}やELMoによって獲得できる,フレーム喚起語の埋め込みと文中の全ての単語の埋め込みを平均した埋め込みを基に階層型クラスタリングを行っている.\citeA{ribeiro-2019-l2f}は,フレーム喚起語のELMoによる埋め込みに基づきグラフクラスタリングを行っている.\citeA{yamada-2021-semantic}は,フレーム喚起語の文脈化単語埋め込みを用いて一度に全ての事例をクラスタリングする従来手法の欠点を改善するため,マスクされたフレーム喚起語の文脈化埋め込みと2段階クラスタリングを行う手法を提案している.これらの研究はすべて,教師データを使用しない教師なし意味フレーム推定に焦点を当てている.一方,本研究では,コーパス中に出現する述語のサブセットに対してフレームがラベルづけられたデータの存在を仮定した教師あり意味フレーム推定に取り組む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{動詞の教師あり意味フレーム推定}
\label{sec:method}本研究では,より性能の高い動詞の意味フレーム推定手法を実現するため,コーパス内の一部の動詞については教師データが存在することを仮定した教師あり意味フレーム推定に取り組む.ベースライン手法として,教師なし意味フレーム推定で広く用いられているフレーム喚起語の文脈化単語埋め込みを用いてクラスタリングする手法を採用し,教師データを用いて深層距離学習に基づき文脈化単語埋め込みモデルをfine-tuningすることによって,より高性能な意味フレーム推定手法を実現する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースライン手法}\label{sec:method_baseline}本研究では,2つのベースライン手法を使用する.まず,シンプルなベースライン手法として,動詞の文脈化単語埋め込みを用いて一度に全ての事例をクラスタリングする1段階クラスタリングを導入する.クラスタリング方法には,ユークリッド距離に基づく群平均法による階層型クラスタリングを採用する.群平均法では,クラスタリングの終了条件を決める必要があるが,本研究ではクラスタ間距離に関する閾値を導入し,その閾値より小さなクラスタ間距離となるクラスタのペアがなくなった時点でクラスタリングを終了している.閾値の決定には開発セットを利用し,開発セットを対象にクラスタリングを実施した場合に,生成されるクラスタの数と,開発セット中の用例に付与されたフレームの数が等しくなるような値に設定している.もう1つのベースライン手法として,\citeA{yamada-2021-semantic}によって提案されたマスクされた単語埋め込みと2段階クラスタリングを導入する.マスクされた単語埋め込み($v_\mathit{mask}$)とは,動詞を特殊トークン``[MASK]''に置き換えたときの文脈化単語埋め込みのことである.これは動詞の文脈化単語埋め込み($v_\mathit{word}$)がその動詞の表層情報の影響を受けて意味ごとにまとまりにくい傾向がある欠点を解消するために提案されたものである.本研究では,式(\ref{eq:wm})で定義されるように,$\alpha$を重みとして,$v_\mathit{word}$と$v_\mathit{mask}$を加重平均した埋め込み($v_\mathit{w+m}$)を利用している.\begin{equation}v_\mathit{w+m}=(1-\alpha)\cdotv_\mathit{word}+\alpha\cdotv_\mathit{mask}\label{eq:wm}\end{equation}2段階クラスタリングは,1段階クラスタリングのノイズとなる事例に弱い点を指摘して提案された手法である.具体的には,1段階目に動詞ごとで事例をクラスタリング,2段階目に動詞横断的にクラスタリングを行う手法である.ここで,1段階目で得られたクラスタは,意味ごとにまとめられた同じ動詞の事例のクラスタであるため,\citeA{yamada-2021-semantic}と同様に本論文では擬似LU(pseudo-LU;pLU)と呼ぶことにする.クラスタリング手法として,1段階目にX-means\cite{pelleg-2000-x-means},2段階目に群平均法を用いる.それぞれのクラスタ数に関しても,\citeA{yamada-2021-semantic}と同様の手法を用いて決定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{深層距離学習を用いた動詞の意味フレーム推定手法}本研究では,深層距離学習を用いた動詞の意味フレーム推定手法を提案する.提案手法では,まず,意味フレームリソースの一部から作成した学習セットを用いて,深層距離学習に基づき文脈化単語埋め込みモデルをfine-tuningし,その後,ベースライン手法と同様の方法で,モデルから動詞の埋め込みを獲得し,クラスタリングを行うことで意味フレームクラスタを作成している.ここで提案する深層距離学習とは,埋め込み空間上で,同じラベルの事例を近づけるように,異なるラベルの事例を遠ざけるように深層学習モデルを学習する方法である\cite{kaya-2019-deep,musgrave-2020-metric}.これによって,埋め込み空間上で,類似したフレームの事例が近づき,異なるフレームの事例が遠ざかるため,動詞の意味フレーム推定手法の性能向上が期待される.本論文では,距離ベースと分類ベースの2つの代表的な深層距離学習アプローチを採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{距離ベースのアプローチ}距離ベースのアプローチは,一般に複数エンコーダを用いて事例ペア間の距離を直接学習する方法である.事例ペアは,ある事例をアンカーとし,アンカーと同じクラスの事例を正例,アンカーと異なるクラスの事例を負例としてそれぞれ作成される.本研究では,以下の2つの損失を導入する.1つ目は,Contrastive損失\cite{hadsell-2006-dimensionality}である.これはパラメータを共有した2つのエンコーダを持つネットワークを用いて,事例ペアの距離を学習するために使用される.具体的には,正例ペアを近づけ,負例ペアを一定のマージン以上遠ざける学習を行うために使用される.以下の式(\ref{eq:contrastive})で定義される.\begin{equation}L_{\mathrm{cont}}=\begin{cases}D\left(\boldsymbol{x}_i,\boldsymbol{x}_j\right)&i=j\\\max\left(m-D\left(\boldsymbol{x}_i,\boldsymbol{x}_j\right),0\right)&i\neqj\end{cases}\label{eq:contrastive}\end{equation}ここで,$\boldsymbol{x}_i$はエンコーダを用いて得られるクラス$i$の事例の埋め込み,$m$はマージン,$D$は平方ユークリッド距離に基づく距離関数を意味する.2つ目はTriplet損失\cite{weinberger-2009-distance}である.これはパラメータを共有した3つのエンコーダを持つネットワークを用いて,事例の3つ組の距離を学習するために使用される.具体的には,事例の3つ組に対して,負例ペアの距離を正例ペアの距離より一定のマージン以上遠ざけるために使用される.Triplet損失は,負例ペアを正例ペアに対して相対的に遠ざける点でContrastive損失とは異なる.以下の式(\ref{eq:triplet})で定義される.\begin{equation}L_{\mathrm{tri}}=\max\left(D\left(\boldsymbol{x}_a,\boldsymbol{x}_p\right)-D\left(\boldsymbol{x}_a,\boldsymbol{x}_n\right)+m,0\right)\label{eq:triplet}\end{equation}ここで,$\boldsymbol{x}_a$はアンカー事例の埋め込み,$\boldsymbol{x}_p$は正例の埋め込み,$\boldsymbol{x}_n$は負例の埋め込みを意味する.本研究では,1つのフレームを1つのクラスとみなし,同じフレームの事例を近づけ,異なるフレームの事例を遠ざける学習を行うことで,よりフレームの持つ情報を反映した埋め込み表現の獲得を実現する.本研究における事例ペアの作成方法は,学習セット内の各事例において,その事例と同じフレームの事例を無作為に選択して正例とし,その事例と異なるフレームの事例を無作為に選択して負例としている.その際に同じ動詞の事例であるか否かは考慮していない.また,より汎用的な埋め込み空間を獲得するため,学習時の事例ペアはエポックごとで変更させている.マージンはハイパーパラメータであり,開発セットにおける評価スコアに基づき決定している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{分類ベースのアプローチ}分類ベースのアプローチは,近年,顔認識タスクを中心に広く利用されている.このアプローチの多くは,単一のエンコーダと多クラス分類のための線形層を持つネットワークを利用している.距離ベースのアプローチと比較して,サンプリングの検討が不要である点や,単一エンコーダであることから学習時に必要なメモリを減らすことができる利点がある.このアプローチに用いる損失は,式(\ref{eq:softmax})に示すSoftmax損失がベースとなっている.\begin{equation}L_{\mathrm{soft}}=-\log\frac{e^{\boldsymbol{w}_i^{\top}\boldsymbol{x}_i+b_i}}{\sum_{j=1}^{n}e^{\boldsymbol{w}_j^{\top}\boldsymbol{x}_i+b_j}}\label{eq:softmax}\end{equation}ここで,$\boldsymbol{w}_i$と$b_i$はクラス$i$の線形層の重みとバイアス,$n$はクラス数を示している.分類ベースのアプローチでは,Softmax損失に対して様々なマージンを導入する損失が提案されている\cite{liu-2017-sphereface,wang-2018-cosface,deng-2019-arcface}.これらの損失では,線形層の重み$\boldsymbol{w}_i$をクラス$i$の埋め込みと捉え,事例とクラスの埋め込みの距離を学習するように設計されている.ArcFace損失\cite{deng-2019-arcface}は,その中でも幾何的な解釈に優れることから広く利用されている.ArcFace損失は,式(\ref{eq:arc})のように定義されており,Softmax損失から線形層のバイアス$b_i$を除き,$\boldsymbol{w}_i$と$\boldsymbol{x}_i$に$l_2$正規化を適用することで$\boldsymbol{w}_i^{\top}\boldsymbol{x}_i$を$\cos\theta_i$と表現している.加えて,同じクラス内の集約性と異なるクラス間の分散性を強化するため,角度ベースのマージン$m$とスケール$s$を導入している.\begin{equation}L_{\mathrm{arc}}=-\log\frac{e^{s\cdot\cos\left(\theta_i+m\right)}}{e^{s\cdot\cos\left(\theta_i+m\right)}+\sum_{j=1,j\neqi}^{n}e^{s\cdot\cos\theta_j}}\label{eq:arc}\end{equation}\citeA{zhang-2019-adacos}はArcFace損失を用いたモデルの性能がハイパーパラメータに依存する点を指摘し,マージンやスケールの振る舞いを調査している.その結果,マージンとスケールの効果が類似することを確認したため,ArcFace損失からマージンを除き,また,事例数やクラス数に応じて動的に決めるスケール$\tilde{s}$を導入したAdaCos損失を提案している.AdaCos損失は式(\ref{eq:ada})で定義される.\begin{equation}L_{\mathrm{ada}}=-\log\frac{e^{\tilde{s}\cdot\cos\theta_i}}{\sum_{j=1}^{n}e^{\tilde{s}\cdot\cos\theta_j}}\label{eq:ada}\end{equation}本研究では,1つのフレームを1つのクラスとみなし,学習セットに存在するフレームを分類できるように学習を行うことで,よりフレームの持つ情報を反映した埋め込み表現の獲得を実現する.分類ベースのアプローチの中でSoftmax損失やAdaCos損失を用いたモデルではハイパーパラメータの探索が不要であるが,ArcFace損失を用いたモデルではマージンとスケールを探索する必要がある.本研究では,これらの働きが類似することが報告されている\cite{zhang-2019-adacos}ことから片方のハイパーパラメータのみを探索することにし,距離ベースのアプローチがマージンを探索しているため,ArcFace損失を用いたモデルもマージンのみを探索する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験}
動詞の教師あり意味フレーム推定において,深層距離学習を用いた文脈化単語埋め込みモデルのfine-tuningの有用性を検証した.具体的には,fine-tuningしたモデルを,fine-tuningしていないモデルや先行研究のモデルと性能を比較した.また,学習に用いた事例数の変化による提案手法の性能への影響を調査した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット}FrameNet1.7\cite{ruppenhofer-2016-framenet}から,フレームを喚起する動詞の事例を抽出し,データセットを作成した.学習セットに存在しない動詞の意味フレーム推定に対応するため,データセットに含まれる事例を動詞単位で3分割し,3つのサブセットを作成した.このとき,サブセット間の多義動詞の割合は一定としている.作成した3つのサブセットは,3分割交差検証に利用され,それぞれ学習セット,開発セット,テストセットとして用いる.表\ref{tab:dataset}にその統計値を示す\footnote{異なる動詞が同一のフレームを喚起するケースが存在することからサブセット間で重複するフレームが存在するため,全体のフレーム数が全サブセットのフレーム数の和とは一致していない.}.学習セットは文脈化単語埋め込みモデルのfine-tuningに使用し,開発セットは$v_\mathit{w+m}$の重み$\alpha$,クラスタ数,マージンの決定に使用する.$\alpha$は0から1まで0.1刻みで探索し,マージンはContrastive損失とTriplet損失では,0.1,0.2,0.5,1.0の4値,ArcFace損失では,0.01,0.02,0.05,0.1の4値を候補に探索する.テストセットにおいて,動詞の事例を意味ごとにまとめたフレームクラスタを生成することで手法の性能を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{比較手法}文脈化単語埋め込みモデルとして,HuggingFaceのTransformers\cite{wolf-2020-transformers}で提供されている事前学習済みBERT(\textsf{bert-base-uncased})\footnote{\url{https://huggingface.co/bert-base-uncased}}を使用する.fine-tuningしていないモデル(Vanilla)と5つのfine-tuningしたモデル(Contrastive,Triplet,Softmax,ArcFace,AdaCos)に対して,それぞれ1段階クラスタリングと2段階クラスタリングを用いた全部で12の手法を比較する.Vanillaモデルを用いた2段階クラスタリングの手法は,\citeA{yamada-2021-semantic}の提案手法に対応している.埋め込み表現は全て$l_2$正規化を適用している.ハイパーパラメータに関して,バッチサイズは32,学習率は$1\mathrm{e}-5$,エポック数は5とし,ArcFaceモデルのスケールは64に固定する.最適化アルゴリズムは,AdamW\cite{loshchilov-2017-decoupled}を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{01table02.tex}%\caption{3分割交差検証で用いたFrameNetデータセットの統計値}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,SemEval-2019Task2のサブタスクAの共有タスク\cite{qasemizadeh-2019-semeval}で用いられた3つの教師なし意味フレーム推定手法\cite{arefyev-2019-neural,anwar-2019-hhmm,ribeiro-2019-l2f}も比較する.Arefyevらは,まず,フレームを喚起する動詞のBERTによる埋め込み表現を利用して群平均法によるクラスタリングを行い,その後,その動詞の言い換えをBERTを用いて生成し,それに基づくTF-IDF特徴量を用いて,各クラスタを2分割することでフレームクラスタを形成している.Anwarらは,skip-gram\cite{mikolov-2013-distributed}によって得られる,フレームを喚起する動詞の埋め込みと,文中の全単語の埋め込みの平均を結合した表現を用いて,群平均法によるクラスタリングを行っている.Ribeiroらは,フレームを喚起する動詞のELMoによる埋め込みを用いて,Chinesewhispers\cite{biemann2006}によるグラフクラスタリングを適用している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{評価指標}評価指標として,Purity(\textsc{Pu}),InversePurity(\textsc{iPu}),およびその調和平均であるF値(\textsc{PiF})\cite{zhao-2001-criterion}と,B-cubedPrecision(\textsc{BcP}),Recall(\textsc{BcR}),およびその調和平均であるF値(\textsc{BcF})\cite{bagga-1998-entity-based}を使用する.\textsc{Pu}はクラスタが単一のラベルの事例で占められている度合いを示す指標であり,\textsc{iPu}は同じラベルの事例が単一のクラスタに集中する度合いを示す指標である.また,\textsc{BcP}と\textsc{BcR}は,クラスタとラベルを関連付けずに,各事例の適合率と再現率をそれぞれ評価する指標である.SemEval-2019Task2のサブタスクAの共有タスク\cite{qasemizadeh-2019-semeval}では,\textsc{BcF}に従ってシステムをランク付けされている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{01table03.tex}%\hangcaption{3分割交差検証による動詞の教師あり意味フレーム推定の実験結果.\#pLUと\#CはそれぞれpLU数とクラスタ数を示す.}\label{tab:clustering}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec:result}実験結果を表\ref{tab:clustering}に示す.クラスタリング方法に関わらず,fine-tuningしたモデルを用いた手法は,Vanillaモデルを用いた手法と比較して全体的に高い\textsc{PiF}および\textsc{BcF}を示している.特に,Triplet,ArcFace,AdaCosモデルを用いた手法において,\textsc{PiF}で73ポイント以上,\textsc{BcF}で62ポイント以上の高いスコアを達成しており,これらのモデルを用いて文脈化単語埋め込みモデルをfine-tuningする有用性が確認できる.一方,Contrastiveモデルを用いた手法では相対的に低いスコアとなっている.これはContrastiveモデルのマージンが適切な粒度のクラスタ構築との親和性が低いことが主な要因であると考えられる.クラスタリング方法を比較すると,2段階クラスタリングの手法が1段階クラスタリングの手法に比べて,全体的に高いスコアを達成している.しかし,Vanillaモデルの場合では,\textsc{BcF}と\textsc{PiF}共に12ポイント以上の差があったが,fine-tuningしたモデルの最高スコアを比較すると,その差が2ポイント程度に縮まっている.この結果から,fine-tuningを行う場合,2段階クラスタリングだけではなく1段階クラスタリングも有望な選択肢になる.ただし,1段階クラスタリングの手法は2段階クラスタリングの手法と比較して実装は容易であるが,一度にクラスタリングする事例数が多いことから計算コストが高いことに注意が必要である\footnote{本実験では,16コアのIntelXeonGold6134CPU(3.20GHz)を用い,1段階クラスタリングで約10分,2段階クラスタリングで約5分の実行時間であった.}.重み$\alpha$に着目すると,スコアの高いAdaCosモデルやTripletモデルを用いた2段階クラスタリングの手法において,その値は0.5であるため,マスクされた単語埋め込みを考慮する効果が確認できる.しかし,Vanillaモデルを用いたときほどの効果が確認できない.一方,1段階クラスタリングの手法では,fine-tuningしたモデルの方がVanillaモデルよりマスクされた単語埋め込みを考慮するという逆の傾向が確認できる.これは,Vanillaモデルを用いた1段階クラスタリングの手法では,十分にフレームを表現した埋め込み空間となっていなかったために,動詞の表層ごとでまとまる方がより尤もらしいフレームクラスタを構築できていたが,fine-tuningしたモデルでは埋め込み空間が改善され,動詞の表層ではなく,意味ごとでまとまるようなフレームクラスタを構築できるようになったためであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{01table04.tex}%\caption{先行研究の手法と提案手法の比較結果}\label{tab:previous}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:previous}に先行研究の手法と,TripletモデルとAdaCosモデルをそれぞれ用いた1段階クラスタリングと2段階クラスタリングの手法の比較結果を示す.提案手法は,先行研究の手法より高い評価スコアを達成しており,提案手法の中でも最もスコアの高いAdaCosモデルを用いた2段階クラスタリングの手法では,両評価指標において従来の最高スコアを8ポイント以上上回る結果が得られており,その有用性が確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習事例数の変化による性能への影響}前節の実験を通して,約30,000という学習事例数が比較的多く存在する場合では,深層距離学習に基づき文脈化単語埋め込みモデルをfine-tuningすることで高性能な動詞の意味フレーム推定手法を実現できることを示した.しかし,提案手法を意味フレームリソースの存在しない言語へ適用する場合,フレームを定義するコストやフレーム情報をテキストに付与するコストが高いことから,学習事例が少量しか存在しない場合であっても高い性能を示すことが重要となる.そこで,学習事例数を変化させた実験を行い,学習事例数の性能への影響を調査した.具体的には,LUごとの最大学習事例数の条件を`1',`2',`5',`10',`all'と変化させて実験を行った.3セットの平均学習事例数は,それぞれ1,273,2,445,5,680,10,053,27,537であった.ここで,LUごとで学習事例数を変更しているため,学習セット内の動詞,LU,フレームの異なり数は変更していない点,また,学習セットで使用する事例数のみを変更しているため,開発セットおよびテストセットは変更していない点に注意が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{01table05.tex}%\hangcaption{学習事例数を変化させたときの実験結果.各列は学習セット内の各LUに対して使用された最大学習事例数を示す.}\label{tab:n_instances}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:n_instances}に学習事例数を変化させたときの各手法の\textsc{PiF}と\textsc{BcF}のスコアを示す.Vanillaモデルは,fine-tuningを行わないため,各設定で同じスコアとなっている.Tripletモデルの結果に着目すると,`1'や`2'の設定において,Vanillaモデルと比較してかなり高いスコアを示しており,少ない学習事例数においても有用であることが確認できる.特に,2段階クラスタリングの手法では,`1'と`all'において学習事例数が1,273と27,536と大きな差があるにも関わらず,スコアは3ポイント程度の差しかなかった.このため,少量であっても教師データが存在するのであれば,Tripletモデルを用いた2段階クラスタリングの手法を使用することで,高性能な意味フレーム推定が実現可能であると考えられる.一方,ArcFaceモデルやAdaCosモデルは,`5'や`10'の設定ではTripletモデルと同程度のスコアを得ているが,さらに学習事例数が少ない場合,Vanillaモデルからの改善はほとんど確認できなかった.これは少量の学習事例数では線形層の重みの学習を十分に行えないためであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Fine-tuningした埋め込み表現の分析}
クラスタリングによる評価は,埋め込み表現だけではなくクラスタリング手法やクラスタ数にも性能が影響されるため,埋め込み表現のみの性質を分析することは容易ではない.そこで,fine-tuningした埋め込み表現をより直感的に理解するために,事例間の類似度に基づく評価と埋め込み表現の可視化を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{類似度ランキング評価}深層距離学習に基づき文脈化単語埋め込みモデルをfine-tuningすることによって,埋め込み空間上で,同じフレームの事例が近づき,異なるフレームの事例が遠ざかっているのかを確認するため,埋め込み表現の類似度に応じて事例をランク付けし,評価する類似度ランキング評価を行った.具体的には,特定の動詞の事例をクエリ事例とし,クエリ事例とそれ以外の事例の埋め込みのコサイン類似度を計算して,その値を基に事例を降順に並べ,評価した.埋め込み表現は,\ref{sec:result}節の1段階クラスタリングの手法の$v_\mathit{w+m}$を使用する.評価指標にはRecallを用いている.これはクエリ事例と同じフレームの事例である正解事例と,正解事例と同じ数のランキング上位の事例を抽出して得られる予測事例の一致率である.たとえば,表\ref{tab:dataset}のセット1では,全事例28,314件のうち,\textsc{Filling}フレームの事例が153件存在する.このうちの1つをクエリ事例とするとき,正解事例は152件となる.全事例からクエリ事例に類似した上位152件の予測事例を抽出し,その中で114件が正解事例であれば,Recallは$114/152=0.75$となる.各事例をクエリ事例としてRecallを算出し,そのスコアの平均を評価する.予測事例の対象に関して3つ設定で類似度ランキング評価を行う.1つ目は全事例が対象である\textsc{All}であり,これは埋め込み空間全体の改善が見られるかを検証するための設定である.2つ目はクエリ事例と同じ動詞の事例のみを対象\footnote{単一のフレームの事例しか存在しない動詞は,Recallが必ず1となるため,対象に含まない.}とする\textsc{Same}であり,表層が同じ事例に対して,意味の異なることを埋め込み空間が反映しているかを検証するための設定である.3つ目はクエリ事例と異なる動詞の事例のみを対象とする\textsc{Diff}であり,これは埋め込み空間上で,異なる動詞で同じフレームの事例が互いに近い位置になっているかを検証する設定である.実験結果を表\ref{tab:ranking}に示す.まず,\textsc{All}に着目するとfine-tuningしたすべてのモデルでVanillaモデルからの改善が見られる.特にContrastiveモデル以外の4つのfine-tuningしたモデルは20ポイント以上スコアが向上し,埋め込み空間がかなり改善されたことがわかる.次に,\textsc{Same}と\textsc{Diff}に着目すると,その両方でスコアの向上が確認でき,動詞の表層に関係なく,深層距離学習によるfine-tuningが有用であることがわかる.\textsc{Same}と\textsc{Diff}を比較すると,\textsc{Same}の方が対象事例数が少ないこともあり,全体的に高いスコアとなっている.ただし,\textsc{Diff}の方が\textsc{Same}よりもスコアの向上度合いが大きく,fine-tuningによるクラスタリング性能の向上は,主に同じフレームを喚起する異なる動詞の事例が互いに近づくように学習したことに起因することが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{01table06.tex}%\hangcaption{3分割交差検証による類似度ランキング評価の実験結果.\textsc{All},\textsc{Same},\textsc{Diff}は,ランキングする対象がそれぞれ,全事例,クエリ事例と同じ動詞の事例,クエリ事例と異なる動詞の事例を意味している.}\label{tab:ranking}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,fine-tuningによる意味フレーム推定手法の性能向上が,学習セットに含まれるフレームによるもののみではないことを検証することは重要である.そこで,クエリ事例のフレームが学習セットに含まれる場合(\textsc{Overlap})と含まれない場合(\textsc{Non-Overlap})に分けて,表\ref{tab:ranking}の\textsc{All}のスコアを集約した.その結果を表\ref{tab:ranking_agg}に示す.いずれのfine-tuningしたモデルも,学習セットに含まれるフレームだけではなく,含まれないフレームについても,Vanillaモデルより高いスコアを実現している.このため,深層距離学習を用いたfine-tuningによって,学習セットに含まれていないフレームにも対応した埋め込み空間を獲得できることが確認できる.ここで,\textsc{Non-Overlap}の設定の各手法のスコアが,\textsc{Overlap}の設定におけるスコアよりも全体的に高くなっている.これは直感に反するかもしれないが,\textsc{Overlap}の設定に含まれるフレームは多くの動詞の事例が存在するため,\textsc{Non-Overlap}の設定に比べて難しい設定となっていることが要因だと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{01table07.tex}%\hangcaption{表\ref{tab:ranking}の\textsc{All}の結果を,テストセットに含まれるフレームが学習セットに存在する場合\textsc{Overlap}と存在しない場合\textsc{Non-Overlap}で分けて集約した結果である.}\label{tab:ranking_agg}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{埋め込み表現の可視化}文脈化単語埋め込みモデルのfine-tuning前後で,埋め込み空間がどれほど変化しているのかを直感的に理解するため,埋め込み表現の可視化を行った.表\ref{tab:dataset}のセット1の全事例を対象に,Vanillaモデル,Tripletモデル,AdaCosモデルによるフレームを喚起する動詞の文脈化単語埋め込みをt-SNEにより2次元に射影し,可視化した結果を図\ref{fig:visualization}に示す.Vanilla,AdaCos,Tripletのモデルにおいて,それぞれ$v_\mathit{word}$,$v_\mathit{w+m}$,$v_\mathit{mask}$を使用している.$v_\mathit{w+m}$の重み$\alpha$は,\ref{sec:result}節の実験結果でTripletモデルとAdaCosモデルを用いた1段階クラスタリングの手法の最適値であった0.3としている\footnote{Vanillaモデルでは,$v_\mathit{w+m}$の$\alpha$は0であったが,これは$v_\mathit{word}$と同じであるため,ここでは$\alpha$が0.3のときの結果を示す.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-4ia1f2.pdf}\end{center}\hangcaption{Vanillaモデル,AdaCosモデル,Tripletモデルにおける$v_\mathit{word}$,$v_\mathit{w+m}$,$v_\mathit{mask}$の2次元マッピング.各色および形状は事例数の多い上位10フレームを示す.}\label{fig:visualization}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,Vanillaモデルに関して,$v_\mathit{word}$の結果に着目すると,フレームごとに事例がまとまる傾向は見られるものの,たとえば,\textsc{Self\_motion}フレームや\textsc{Experiencer\_obj}フレームの事例は2つの大きなグループに分かれており,\textsc{Removing}フレームの事例もかなり散在しており,フレームごとに十分にまとまっているとはいえない.また,$v_\mathit{mask}$の結果を見ると,$v_\mathit{word}$の結果より,さらに事例が全体的に散在する傾向が確認できる.$v_\mathit{w+m}$に関しては,$v_\mathit{word}$と$v_\mathit{mask}$に比べて,同じフレームの事例がまとまる傾向が確認でき,両方の埋め込みを考慮する利点があることを示している.次に,AdaCosモデルとTripletモデルの$v_\mathit{word}$は,Vanillaモデルの$v_\mathit{word}$と比較して,意味フレームごとで事例がまとまっていることが確認できる.特に,Vanillaモデルでは識別困難であった\textsc{Placing}フレームや\textsc{Filling}フレームのような類似した意味のフレームの事例に対しても,ある程度識別可能であるような事例の分布になっていることが確認された.しかし,これらのモデルの$v_\mathit{word}$は,同じ意味フレームごとでまとまっているが,その中で事例の塊のようなものが観測される.これは深層距離学習によるfine-tuningよって,動詞の埋め込み表現がその表層情報を考慮しすぎていることを示唆している.AdaCosモデルとTripletモデルの$v_\mathit{mask}$の結果を見ると,Vanillaモデルの$v_\mathit{mask}$よりは事例が意味フレームごとにまとまっている傾向は確認できるものの,これらのモデルの$v_\mathit{word}$ほど意味フレームごとにまとまらなかった.これは,$v_\mathit{mask}$を獲得する際のトークンがすべて同じ``[MASK]''トークンであるため,学習が難しいことが要因であると考えられる.AdaCosモデルとTripletモデルの$v_\mathit{w+m}$に関しては,他の埋め込み表現と比較して,最もフレームごとに事例ごとにまとまっており,その有用性が確認できる.AdaCosモデルとTripletモデルによる結果を比較すると,全体的に類似した事例の分布になっており,これは共に距離を学習している点は変わらないため,類似した埋め込み空間になっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
本論文では,文脈化単語埋め込みを深層距離学習に基づきfine-tuningすることで高性能な意味フレーム推定手法が可能となることを示した.fine-tuningしたモデルの中では,Triplet,ArcFace,AdaCosモデルが全体的に高いスコアを達成しており,意味フレーム推定における有用性が確認された.特に,Tripletモデルにおいては,少量の学習事例数でもVanillaモデルと比較して,かなり性能が向上することから,人手で作成された意味フレームリソースが存在しないような言語に対しても意味フレームリソース構築へ有用であることが期待できる.また,fine-tuningしたモデルを利用する際には,2段階クラスタリングの手法だけではなく,1段階クラスタリングの手法も有用であることが明らかとなった.本研究の最終目標は,大規模なテキストコーパスから意味フレームを自動的に構築することである.この目標を達成するためには,テキスト中の動詞を,その動詞が喚起するフレームごとにまとめる動詞の意味フレーム推定だけでなく,その項となる語句もその役割ごとにグループ化するフレーム要素推定も必要である.フレーム要素推定においても,動詞の項となる語句の役割を表現する埋め込み空間を獲得できれば実現可能であるため,本研究で提案した深層距離学習によるfine-tuningが有効である可能性は高いと考えられる.また,FrameNet内で実験を行うだけではなく,実際に大規模なテキストコーパスにおいて,本手法を適用することで,意味フレームリソースの構築を行うことを考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,JST創発的研究支援事業JPMJFR216N,およびJSPS科研費21K12012と23KJ1052の支援を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{山田康輔}{%2021年名古屋大学大学院情報学研究科博士前期課程修了.同年,同大学院同研究科博士後期課程に進学.2022年より日本学術振興会特別研究員(DC2).}\bioauthor{笹野遼平}{%2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.博士(情報理工学).2019年より理化学研究所AIPセンター客員研究員を兼任.}\bioauthor{武田浩一}{%1983年京都大学大学院工学研究科情報工学専攻修士課程修了.同年日本アイ・ビー・エム株式会社に入社.2017年より名古屋大学教授.博士(情報学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V32N02-10
|
\section{はじめに}
地図上で位置情報や経路情報を正確に伝えるためには,さまざまな参照情報が用いられる.例えば,固有の位置情報やランドマークに基づいて東西南北で位置を示す絶対参照情報,また,話者の向きを基に前後左右で位置を指示する相対参照情報が挙げられる.しかし,実際の場面では東西南北の方角がわからない状況も多く,その場合には話者が伝える固有位置情報や相対参照情報が,位置を特定するための重要な手がかりとなる.本研究では,地図を刺激に用いて位置情報参照表現のデータ収集を行った.20種類の地図を使用し,クラウドソーシングを通じて,1地図あたり40件の位置情報参照表現を収集した.これらの表現は,固有位置情報と相対参照情報のみで記述されており,収集後にそれぞれが固有位置情報と相対参照表現のみであるかを確認した上で,次の4つの視点に基づいて分類した:一人称視点(目標点から見えるものの描写),空間内視点(他の地点から目標点を参照),空間内移動(他の地点から目標点への移動を表現),鳥瞰視点(地図全体を俯瞰した視点).さらに,各表現のわかりやすさに関するアンケート調査を実施し,その結果をデータとして収集した.同様に,経路情報の参照表現に関してもデータ収集を行った.20種類の地図に対してそれぞれ2パターンの経路(始点と終点)を設定し,合計40の図面を用いてクラウドソーシングを実施した.1図面あたり40件の経路情報参照表現を収集し,それぞれが固有位置情報と相対参照情報のみで記述されているかを確認した後,始点,通過地点,終点の情報が含まれているかどうかをラベル付けした.これに加え,収集した経路表現についてもわかりやすさを評価するアンケート調査を行い,データとして収集した.本研究は,マイクロモビリティの自動運転技術の開発を目標として,このようなデータ収集をしている.自動運転技術においては,周囲の環境を正確に把握し,適切な位置情報や経路情報を基に走行することが求められる.そのためには,人間が自然に使用する位置情報参照表現や経路情報参照表現を理解し,機械に適応させることが必要である.特に,固有位置情報や相対参照情報は,目標地点への正確な到達に直結する重要な要素となる.自動運転車両が人間の指示に従い,柔軟かつ効率的に動作するためには,これらの位置情報・経路情報がどのように表現され,理解されるかを定量的に把握することが鍵となる.本研究では,このような参照表現のデータを収集することで,自動運転技術における位置認識能力の向上を目指し,今後の技術開発に貢献することを目指している.上記目的を踏まえ,マイクロモビリティの移動を想定した縮尺の地図を提示し,位置情報および経路情報に基づく言語表現に関する豊富なデータセットを構築し,様々な視点や表現のわかりやすさに関する洞察を得た.このデータセットは,自動運転における口頭での行き先説明の基礎データとして活用できるだけでなく,地図情報と自然言語表現を結びつけたマルチモーダルなデータであり,実世界の状況に接続されたデータとしても重要である.地図を参照した言語表現の理解や生成に役立つだけでなく,リアルタイムのナビゲーションや自動運転システムにおける実用的なコミュニケーションの向上に寄与することが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
\section{関連研究}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{位置情報参照表現}『場所参照表現タグ付きコーパス』\cite{松田2015}は,Twitter(現X)のようなSNSに投稿された場所参照表現に位置情報を付与したコーパスである.地名・施設名といった固有位置情報表現を対象とする.\citeA{徳永2004}は日本語の空間名詞の分類を行った.部分型(位相)・距離型・方向型の3つに分類し,主として一人称視点・空間内視点に資する体系化を行った.\citeA{小林2008}は2つの物体の空間的関係を表す空間表現語の選択について,対象物間の距離や大きさなどの幾何的な要因がどのような影響を与えるかについて調査を行った.\citeA{striegnitz2005knowledge}は,ノースウエスタン大学のキャンパスの道案内のジェスチャーのビデオを収録し,RoutePerspective(空間内移動)とSurverPerspective(鳥瞰視点)を識別した.収録された368のジェスチャーの内,RoutePerspectiveが54\%(199/368)で,SurveyPerspectiveが16\%(60/368)と,空間内移動が鳥瞰視点よりも多く用いられることが示された.この割合は我々の調査に近い値である.\citeA{長谷川2017-1}は擬人化エージェントによる道案内システムを構築し,空間内移動の説明と鳥瞰視点の説明のどちらがわかりやすいかの検証を行った.彼らの擬人化エージェントを用いた設定では鳥瞰視点のほうがわかりやすいという我々の調査と異なる結果が報告されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{経路情報参照表現}古くはDirectiongiving(経路説明)の会話分析が\citeA{Psathas-Kozloff1976}によって行われ,状況定義・情報と指示・終結の3つの段階があるとされ,さらに最初の指示においてa)startingpoint(始点),b)destination(終点),c)modeoftravel(移動手段),d)timeoftravel(移動時間),e)membershipcategorizationbyeachofthepartiesofeachother(会話参与者の役割)が重要であると指摘している\cite{psathas1986some,psathas1990direction}.\citeA{lakoff1987women}も同様にSOURCE-PATH-GOALSchemaにおいて,a)SOURCE(始点),b)DESTINATION(終点),c)PATH(経路),d)DIRECTION(方向)の4つの構造的要素をあげている.\citeA{村上1996}は\citeA{https://doi.org/10.1002/ejsp.2420030405}が用いた地図を用いて,日本語道順対話を収集し,経路上のどの方向の参照地点が言及されているかについて検討を行った.\citeA{堀内1999}は,HCRCMapTaskCorpus\cite{thompson-etal-1993-hcrc}と同様の設定で,情報提供者と情報追随者とで部分的に情報を共有した設定で,音声対話コーパスを構築した.情報提供者が地図上に始点・経路・終点・目標物の情報を保持し,情報追随者が地図上に始点と目標物のみの情報を保持するという設定で,情報伝達の対話を収録した.なお目標物は双方の地図に表示されているものと,片方の地図にのみ表示されているものが設定されている.\citeA{塚本2012}は仮想空間内の経路説明表現やジェスチャーの収集を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3
\section{参照表現の収集}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1\subsection{共通設定}位置情報および経路情報参照表現の収集は,いずれもYahoo!クラウドソーシングを用いて実施した.本研究では,ホンダ・リサーチ・インスティチュート・ジャパン社より著作権処理済の21枚の地図の提供を受けた\footnote{1枚をスクリーニング調査,20枚を本調査に使用.}.同社はマイクロモビリティの自動運転技術の開発を目的としており,その目的に資する地図が提供された.表現の収集は,いずれもスクリーニング調査と本調査の2段階で構成されている.スクリーニング調査では,本調査で使用しない1枚の地図を30度,120度,210度,300度のいずれかに回転させた4パターンの刺激を用い,回転角度ごとに400人・合計1,600人のデータを収集した.地図を回転させることで「上下左右」の感覚を意図的に曖昧にするアフォーダンスを設計した.いずれの調査においても,次の3点を共通の指示として提示した:%%%%%\begin{itemize}\item作業者が地図上の位置にいるような観点で「前後左右」を使うこと\item地図の図面における「上下左右」を使わないこと\item「東西南北」を使わないこと\end{itemize}%%%%%スクリーニング調査後,個人的な土地勘や地図に記載されていない情報を用いていない,固有位置情報表現および相対位置情報表現のみを用いた適切な表現を記述した作業者を対象に本調査を実施した.これにより,土地勘の影響を最小限に抑えたデータ収集を実現している.調査の概要について表1に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{09table01.tex}\caption{Yahoo!クラウドソーシング調査概要}\label{tab:crowd}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2\subsection{位置情報参照表現の収集}図\ref{fig:map1}(a)に示すような地図を提示し,★または●で示した目標点の位置を記述する形式で位置情報参照表現を収集した.目標点の選定はマイクロモビリティの自動運転技術においてアクセス可能な地点を前提に,著者らによって行った.本調査では,20種類の地図に対して4種類の回転を加えた80パターンの刺激を作成し,各パターン10人,合計800表現を収集した.調査画面の例を図\ref{fig:map1}(b)に示す.スクリーニング調査は2023/11/01~11/02に,位置情報の本調査は2023/11/07~11/16にかけて実施された.%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[b]\begin{center}\includegraphics{32-2ia9f01.eps}\end{center}\caption{位置情報参照表現に関する図}\label{fig:map1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.3\subsection{経路情報参照表現の収集}図\ref{fig:map2}(a)に示すような地図を提示し,■を始点,★または●を終点として,2地点間の経路を記述する形式で経路情報参照表現を収集した.始点・終点はマイクロモビリティの走行可能性を考慮して著者らが設定した.本調査では,20種類の地図それぞれに2パターンの経路を設定し,合計40図面に4種類の回転を加えた160パターンの刺激を作成,各パターン10人,合計1,600表現を収集した.調査画面の例を図\ref{fig:map2}(b)に示す.スクリーニング調査は2023/11/02~11/03に,経路情報の本調査は2023/11/17~11/19にかけて実施された.なおスクリーニング調査後,表現の「わかりやすさ」に関する6段階の評定(詳細は\ref{sec:understandability}節)で平均3.0以上の評定値を得た206人を対象として本調査を実施した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[t]\begin{center}\includegraphics{32-2ia9f02.eps}\end{center}\caption{経路情報参照表現に関する図}\label{fig:map2}{\vskip-3pt}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4
\section{参照表現の分類}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{位置情報参照表現の分類}本調査で収集した800表現について,以下の表現分類のいずれかを作業者1名(第3著者)・監督者1名(第5著者)により付与した:%%%%%\begin{itemize}\itemA:固有位置情報表現・相対位置情報表現のみである(東西南北などを用いていない)\itemB:固有位置情報表現・相対位置情報表現・絶対位置情報表現である(東西南北を用いている)\item(C:位置情報参照表現として適さない)\end{itemize}%%%%%結果,800表現中797表現がAであり,3表現がBであった.スクリーニング調査が効果的に機能し,効率的に目的の表現を収集できたといえる.さらに,「A:固有位置情報表現・相対位置情報表現のみである」表現については,以下の視点分類を作業者1名・監督者1名により付与した(例は図\ref{fig:map1}(a)\footnote{これらの例の地図はスクリーニング調査時にラベルの基準策定に利用したもので,公開する本調査のデータには含まれていない.}を刺激としたもの):%%%%%\begin{itemize}\itemP:自分が目標点に立っている(一人称視点)\\例)「★印は野村證券の建物を正面に見て、右に文化ビルがあり、背面には伊勢丹、左には伊勢丹メンズ館がある。そのような位置となります。」\itemQ:自分が地図中の目標点以外の位置に立っているが移動はしない(空間内視点)\\例)「文化ビルから見て伊勢丹メンズ館の方面へ見た向かい側の建物」\itemR:自分が地図中の目標点以外の位置から目標点に移動する(空間内移動)\\例)「新宿3丁目駅を出るとマルイがあるので三菱UFJ銀行がある方向へ進みます。\#\#交差点を左折して伊勢丹を抜けると目的の場所に着きます。」\itemS:目標点の周りにあるものを鳥瞰して示している(鳥観視点)\\例)「伊勢丹と野村證券の中間にある建物で、大通りに面した新宿3丁目駅側。伊勢丹メンズ館の隣、ローソン側。」\end{itemize}%%%%%なお,視点分類は複数のラベルが付与可能なマルチラベルとした.複数の表現が含まれるものや,1つの表現で複数の視点によるとらえ方が可能なものについては,可能なラベルをすべて付与した:%%%%%\begin{itemize}\itemQ+S:(空間内視点)+(鳥瞰視点)\\例)「新宿三丁目駅の近くにある伊勢丹、ローソン、マルイメン、野村證券に囲まれた交差点の一画に星印の場所がある。ローソン前に立ち正面に野村證券を見た場合、右側にマルイメン、左側に星印の場所がある。マルイメンとの位置関係は交差点を挟んだ対角線上である。」\itemR+S:(空間内移動)+(鳥瞰視点)\\例)「新宿三丁目駅を伊勢丹側に向かっていくと、野村証券の手前に目的地があります。そこは伊勢丹メンズ館と文化ビルが左右に並ぶ建物です。」\end{itemize}%%%%%なお,実際に作業を進めてみると,複数の視点のいずれか判断がつかない事例もあった.その場合は$|$で複数のラベルを並列した(以下の事例は図1を刺激としたものではなく,実際のデータにあったもの).%%%%%\begin{itemize}\itemP$|$Q:自分がその位置●に立っているか、その位置●が見える場所に立っているのか\\例)大通りを挟んでオーク表参道の向かいである。(12.png)\itemQ$|$S:その位置●が見える場所に立っているのか、俯瞰で見ているのか\\例)成増駅から西友のほうに出て、公園との丁字路の公園でも西友でもない角(18.png)\\例)高速道路を背にして目の前にマツモトキヨシとニトリがあるところ(13.png)\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{経路情報参照表現の分類}本調査で収集した1,600表現を作業者1名・監督者1名により確認したところ,すべて「固有位置情報表現・相対位置情報表現のみ」で東西南北などの絶対位置情報表現を用いていなかった.ただし5表現が,地図上で誤ったマークを始点・終点として認識しており,不適切な経路情報参照表現であった.さらに29表現が,始点と終点を反対に認識しており,不適切な経路情報参照表現であった(ラベルWを付与した).次に,以下の分類を作業者1名・監督者1名により付与した(例は図\ref{fig:map2}(a)を刺激としたもの):%%%%%\begin{itemize}\itemX:始点についての詳細な説明がある\itemY:途中の経路上の地点の説明がある\itemZ:終点についての詳細な説明がある\end{itemize}%%%%%始点(X)の判定においては「○○を背に」「正面の○○を見て(立ち)」「○○と△△の間に立って」「○○を出て」「○○から」など始点の定まりがある場合に始点あり(X)と判定した.また始点周辺の情報が不十分だが「現在地から」「■から」のように始点が明示されている場合は,始点あり(X)と判定した.経路(Y)の判定においては「左折」「右折」「曲がる」「進む」「回り込む」などの移動を意味する動詞の有無で判定した.終点(Z)の判定においては「ゴール」「目的地」「着く」などの明示的な終点を示す語が確認できた場合に,終点あり(Z)と判定した.また明示的な語がなくとも,終点周辺の具体的な描写がある場合は終点あり(Z)と判断した.ただし,「しばらく進むと左側に見える」「広場の先」「通り過ぎたところ」など終点の具体性がない場合には終点なしと判定した.これらの分類はマルチラベルとして設定した.以下に図\ref{fig:map2}(a)を刺激としたスクリーニング調査の例\footnote{これらの例はスクリーニング調査時にラベルの基準策定に利用したもので,公開する本調査のデータには含まれていない.}を示す:%%%%%\begin{itemize}\itemXYZの例:\\「エリコネイルに背を向けて、右手側に進み、交差点を右折する。そこからまっすぐ進み、三菱UFJのところで左折し、直進するとローソンがあるので、そこで左手側を見れば目的地です。」\itemYZの例:(始点がない)\\「新宿三丁目駅のある通りに出て右に曲がり、次の交差点を左に曲がって進み、左側の二つ目のビルが目的地です。」\itemXZの例:(経路が不明瞭)\\「新宿三丁目駅を正面に見て、左ビックカメラと右マルイの交差点が■地点。駅向こうにある伊勢丹右角先の敷地右角が★印で道路を挟んで正面に野村証券があります。」\itemYの例:(始点がない・終点が不明瞭)\\「新宿三丁目駅を渡り、伊勢丹を通過して、伊勢丹メンズ館を右折する。」\\「大通りにでて新宿三丁目駅と伊勢丹角の交差点方面にに向かう。交差点を左折後、次の大通りまで直進。」(原文ママ)\\「新宿三丁目駅を渡り、伊勢丹メンズ館まで進み、新宿ピカデリーの逆に進むとたどり着く」\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5
\section{参照表現のわかりやすさ評定\label{sec:understandability}}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{位置情報参照表現のわかりやすさ評定}本調査で収集した位置情報参照表現800表現について,表現のわかりやすさ評定のアンケート調査をYahoo!クラウドソーシングを用いて実施した.スクリーニング調査を通過した569人を対象に募集し,308人が評定調査に参加した.図\ref{fig:exp05}(a)に調査画面を示す.1地図に対して7つの表現をランダムに配置し,評定は0:わかりにくい~5:わかりやすいの6段階評価とした.1回答あたり2円相当のPayPayポイントを謝礼として支払った.1表現あたり35人の評定値を取得した.わかりやすさの評定調査は2023/12/1417:02に開始し,2023/12/1511:10に終了した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[tp]\begin{center}\includegraphics{32-2ia9f03.eps}\end{center}\caption{参照表現のわかりやすさに関するアンケート調査画面}\label{fig:exp05}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,P:一人称視点,Q:空間内視点,R:空間内移動,S:鳥瞰視点の観点の有無(観点ありがTRUE,観点なしがFALSE)で個別に集計を行い,それぞれのわかりやすさの平均値を求めた.表\ref{tab:result:l1}(a)に集計結果を示す.目標物からの一人称視点(P)の表現は用いていないものが多く(688/800),一人称視点を用いない表現(わかりやすさ平均2.68)のほうが用いた表現(わかりやすさ平均2.59)よりもわかりやすい.目標物を空間内から見る空間内視点(Q)の表現も用いていないものが多く(664/800),空間内視点の表現の利用の有無についてわかりやすさの差異はなかった.空間内移動(R)の表現がもっとも多く,約半数(398/800)の位置情報表現に含まれており,わかりやすさも空間内移動表現(わかりやすさ平均2.77)のほうがわかりやすい.最後に鳥瞰視点(S)の表現は,約4分の1(206/800)の位置表現に見られるが,鳥瞰視点を用いない表現(わかりやすさ平均2.72)のほうが用いた表現(わかりやすさ平均2.50)よりもわかりやすい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[t]\input{09table02-3.tex}\caption{観点の個別のわかりやすさ}\label{tab:result:l1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%観点の組み合わせに基づく集計結果を表\ref{tab:result:l2}(a)に示す.組み合わせを見ても空間内移動(R)の頻度が高く,わかりやすい傾向がみられた.一人称視点(P)については,空間内移動(R)や鳥瞰視点(S)と組み合わせた場合にはわかりやすい傾向があるが,そうでない場合は平均よりも低いわかりやすさであった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[t]\input{09table04-5.tex}\caption{観点の組み合わせごとのわかりやすさ}\label{tab:result:l2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:examples:l}にわかりやすい位置情報参照表現上位10例を示す.空間内視点(Q)・空間内移動(R)・鳥瞰視点(S)などの表現が含まれるが,いずれも複数の固有位置情報からの多様な相対位置表現が含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[t]\input{09table06.tex}\caption{わかりやすい位置情報参照表現例}\label{tab:examples:l}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:examples:l-}にわかりにくい位置情報参照表現10例を示す.ほとんどが鳥瞰視点(S)の短い表現であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{09table07.tex}\caption{わかりにくい位置情報参照表現例}\label{tab:examples:l-}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{経路情報参照表現のわかりやすさ評定}スクリーニング調査で収集した経路情報参照表現1,600表現と本調査で収集した経路情報参照表現1,600表現について,表現のわかりやすさ評定のアンケート調査をYahoo!クラウドソーシングを用いて実施した.スクリーニング調査において,固有位置情報表現・相対位置情報表現のみの参照表現を記述した887人を対象に募集し,スクリーニング調査データの評定に216人が,本調査データの評定に605人参加した.図\ref{fig:exp05}(b)に調査画面を示す.1図面に対して7つの表現をランダムに配置し,評定は0:わかりにくい~5:わかりやすいの6段階評価とした.1回答あたり2円相当のPayPayポイントを謝礼として支払った.本調査データのわかりやすさの評定調査は,1表現あたり35人分の評定情報を収集した.本調査は2023/12/1417:01に開始し,2023/12/1613:10に終了した.表\ref{tab:result:l1}(b)に各観点\footnote{「始点と終点を取り違えたもの(W)」について「わかりやすさ」の評定から排除すべきという意見もあるが,排除すべき合理的理由がなく,実際の使用場面では始点と終点が誤解される可能性を考慮し,そうした状況下での表現のわかりやすさを評価することが有用であると著者らが判断したため,評定対象とした.}の有無(観点ありがTRUE,観点なしがFALSE)で個別に集計を行い,それぞれのわかりやすさの平均を求めた.まず,始点と終点を取り違えたもの(W)29件については,正しいものよりもわかりやすさが低い傾向がみられた.次に,始点(X)の説明は省略されやすく,37.5\%(599/1,600)の表現において始点の説明がなかった.始点の説明がなかったもの(わかりやすさ平均2.72)は,始点の説明があったもの(わかりやすさ平均2.81)よりも若干わかりやすさが低い傾向がみられた.経路(Y)の説明がなかったもの(わかりやすさ平均2.00)は1.5\%(24/1,600)で,経路の説明があったもの(わかりやすさ平均2.79)よりもわかりやすさが低い.終点(Z)の説明がなかったもの(わかりやすさ平均2.43)は3.2\%(51/1,600)で,終点の説明があったもの(わかりやすさ平均2.79)よりもわかりやすさが低い.ゆえに,始点・経路・終点の3観点はいずれも重要であることがわかる.観点の組み合わせに基づく集計結果を表\ref{tab:result:l2}(b)に示す.組み合わせで見ると,経路(Y)と終点(Z)がともにあるものが多く93.9\%((558+944)/1,600)であった.これらのなかで始点(X)の有無でわかりやすさが異なり,始点があるもの(わかりやすさ平均2.85)のほうが,始点がないもの(わかりやすさ平均2.76)よりもわかりやすい.表\ref{tab:examples:r}にわかりやすい経路情報参照表現上位10例を示す.いずれも経路情報(Y)と終点情報(Z)を含む経路情報参照表現が含まれている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[t]\input{09table08.tex}\caption{わかりやすい経路情報参照表現例}\label{tab:examples:r}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:examples:r-}にわかりにくい経路情報参照表現例を示す.逆順(W:T)の場合,通常の視点とは逆の方向で説明が行われているため,認識が難しくなった可能性がある.また,始点と終点の説明があるが途中の経路の説明がない場合(X:T,Y:F,Z:T)のように,実質的に経路を説明していないものがある.15-a.pngの例では,「目の前の道」「斜め45度の位置」のような特定できない参照表現が用いられているがゆえにわかりやすさの評定値が低くなったと考える.26-b.pngの例では,説明が非常に詳細でありながら,過剰な情報が詰め込まれているために,重要なポイントが埋もれてしまい,認知負荷が高くなるがゆえに,わかりやすさの評定値が低くなったと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[t]\input{09table09.tex}\caption{わかりにくい経路情報参照表現例}\label{tab:examples:r-}{\vskip-6pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[p]\input{09table10.tex}\caption{わかりにくい経路情報参照表現例(W:F,X:T,Y:T,Z:Tのもののみ)}\label{tab:examples:r--}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:examples:r--}に,逆順ではない(W:F)もので,始点・経路・終点(X:T,Y:T,Z:T)であるにもかかわらず,わかりやすさの評定が低い例10件を示す.まず,移動体視点の表現が曖昧で,わかりやすい表現(表\ref{tab:examples:r})と比べて場所の特定までに至らない表現「警視庁を左手にまっすぐに進み」「ホンダ研究所を右に見て」が見られた.また,文を「。」で区切らず逐次的に複数の指示を「、」で羅列する表現(26-1.png,15-1.png,25-1.pngなど)や,経路の説明が簡素な表現(16-a.png)が見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6
\section{おわりに}
本研究では,固有位置情報と相対位置情報を用いた,よりわかりやすい位置情報および経路情報の参照表現を収集し,データセットを構築した.クラウドソーシングを活用して地図上の位置情報および経路情報に関する言語表現を集め,一人称視点,空間内視点,空間内移動,鳥瞰視点といった観点で分類を行い,わかりやすさの評定を実施した.位置情報の参照表現に関する調査では,「空間内移動」の視点による表現が最も多く生成され,また最もわかりやすいという結果が得られた.一方,経路情報の参照表現では,始点の情報が抜け落ちる傾向が見られ,途中の経路および終点の情報がわかりやすさにおいて重要な役割を果たすことが確認された.これらのデータは,自動運転における口頭での行き先説明の基礎データとなるだけでなく,地図情報と自然言語表現を結びつけたマルチモーダルなデータであり,実世界に接地した重要なデータとして今後の研究に貢献できる.既存の地図課題コーパスでは,経路情報のわかりやすさに焦点を当てた研究が不足しており,本研究は,わかりやすい経路情報参照表現を生成するためのデータ構築を行った点で新たな貢献を果たしている.今回整備したデータは,地図情報,視点分類,わかりやすさの評定結果とともに公開しており,今後のナビゲーションシステムや自動運転技術における実用的なコミュニケーションの向上に寄与することが期待される.一方で,マイクロモビリティの自動運転についての法制度がまだ整備されておらず,実用に向けてはより精緻な交通ルールを順守した経路設定が可能なシステムを構築する必要がある.その際に必要な参照表現は,より適切な言語表現であることが求められ,法的・社会的な枠組みの中で運用可能な形に落とし込むことが重要であろう.これにより,自動運転技術が社会に適応し,安全かつ効率的に運用されるための一歩を踏み出すことができると考えられる.本研究の実施に際して,表現の収集および表現の印象評定に関する研究倫理審査を国立国語研究所にて実施し,承認を受けている.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はホンダリサーチインスティチュート‐国立国語研究所共同研究プロジェクト「行き先目標物の参照表現に関する日本語話し言葉の分析」・国立国語研究所基幹型共同研究プロジェクト「アノテーションデータを用いた実証的計算心理言語学」・科研費JP22K13108,JP19K13195によるものです.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{09refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大村舞}{%大阪樟蔭女子大学助教.}\bioauthor{川端良子}{%国立国語研究所特任助教.}\bioauthor{小西光}{%Tecca合同会社代表社員.}\bioauthor{浅原正幸}{%国立国語研究所・総合研究大学院大学教授.}\bioauthor{竹内誉羽}{%株式会社ホンダ・リサーチ・インスティチュート・ジャパンプリンシパル・エンジニア.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
| |
V21N03-07
|
\section{はじめに}
ゼロ照応解析は近年,述語項構造解析の一部として盛んに研究されている.ゼロ照応とは用言の項が省略される現象であり,省略された項(ゼロ代名詞)が他の表現を照応していると解釈できることからゼロ照応と呼ばれている.\ex.パスタが好きで、毎日($\phi$ガ)($\phi$ヲ)\underline{食べています}。\label{例:ゼロ照応}例えば,例\ref{例:ゼロ照応}の「食べています」では,ガ格とヲ格の項が省略されている.ここで,省略されたヲ格の項は前方で言及されている「パスタ」を照応しており,省略されたガ格の項は文章中では明確に言及されていないこの文章の著者を照応している\footnote{以降の例では,ゼロ代名詞の照応先を埋めた形で「パスタが好きで、毎日([著者]ガ)(パスタヲ)食べています。」のように記述する場合がある.ここで「[著者]」は文章内で言及されていない文章の著者を示す.}.日本語では曖昧性がない場合には積極的に省略が行われる傾向にあるため,ゼロ照応が文章中で頻繁に発生する.例\ref{例:ゼロ照応}の「パスタ」の省略のようにゼロ代名詞の照応先\footnote{先行詞と呼ばれることもあるが,本論文では照応先と呼ぶ.}が文章中で言及されているゼロ照応は{\bf文章内ゼロ照応}と呼ばれ,従来はこの文章内ゼロ照応が主な研究対象とされてきた.一方,例\ref{例:ゼロ照応}の著者の省略のようにゼロ代名詞の照応先が文章中で言及されていないゼロ照応は{\bf外界ゼロ照応}と呼ばれる.外界ゼロ照応で照応されるのは例\ref{例:ゼロ照応}のような文章の著者や読者,例\ref{外界:不特定人}のような不特定の人や物などがある\footnote{一般に外界照応と呼ばれる現象には,現場文脈指示と呼ばれる発話現場の物体を指示するものも含まれる.本研究では,このようなテキストの情報のみから照応先を推測できない外界照応は扱わない.また,実験対象としたコーパスにも,画像や表を照応している文書などはテキストのみから内容が推測できないとして含まれていない.}.\ex.内湯も窓一面がガラス張りで眺望がよく、快適な湯浴みを([不特定:人]ガ)\underline{楽しめる}。\label{外界:不特定人}従来,日本語ゼロ照応解析の研究は,ゼロ照応関係を付与した新聞記事コーパス\cite{KTC,iida-EtAl:2007:LAW}を主な対象として行われてきた.新聞記事は著者から読者に事件の内容などを伝えることが目的であり,社説や投書の除いては著者や読者が談話構造中に登場することはほとんどない.一方,近年ではWebを通じた情報伝達が盛んに行われており,Webテキストの言語処理が重要となってきている.Webテキストでは,著者自身のことを述べたり,読者に対して何らかの働きかけをすることも多く,著者・読者が談話構造中に登場することが多い.例えば,Blogや企業の宣伝ページでは著者自身の出来事や企業自身の活動内容を述べることが多く,通販ページなどでは読者に対して商品を買ってくれるような働きかけをする.このため,著者・読者に関するゼロ照応も必然的に多くなり,その中には外界ゼロ照応も多く含まれる.\cite{hangyo-kawahara-kurohashi:2012:PACLIC}のWebコーパスではゼロ照応関係の54\%が外界ゼロ照応である.このため,Webテキストに対するゼロ照応解析では,特に外界ゼロ照応を扱うことが重要となる.本研究では,ゼロ照応を扱うためにゼロ代名詞の照応先候補として[著者]や[読者]などの文章中に出現しない談話要素を設定することで,外界ゼロ照応を明示的に扱う.用言のある格が直接係り受け関係にある項を持たない場合,その格の項は表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}の3種類に分類される.1つ目は「(a)文章内ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先は文章中の表現である.2つ目は「(b)外界ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先に対応する表現が文章中にないものである.3つ目は「(c)ゼロ照応なし」であり,項はゼロ代名詞をとらない,すなわちその用言が本質的にその項を必要としない場合である.外界ゼロ照応を扱うことにより,照応先が文章内にない場合でも,用言のある格がゼロ代名詞を項に持つという現象を扱うことができる.これにより,格フレームなどの用言が項を取る格の知識とゼロ代名詞の出現が一致するようになり,機械学習によるゼロ代名詞検出の精度向上を期待することができる.\begin{table}[b]\caption{文章内ゼロ照応,外界ゼロ照応,ゼロ照応なしの分類とその例}\label{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}\input{1011table01.txt}\end{table}用言が項としてゼロ代名詞を持つ場合,そのゼロ代名詞の照応先の同定を行う.従来研究ではその手掛かりとして,用言の選択選好\cite{sasano-kawahara-kurohashi:2008:PAPERS,sasano-kurohashi:2011:IJCNLP-2011,imamura-saito-izumi:2009:Short,hayashibe-komachi-matsumoto:2011:IJCNLP-2011}や文脈的な情報\cite{iida-inui-matsumoto:2006:COLACL,iida-inui-matsumoto:2009:ACLIJCNLP}が広く用いられてきた.本研究では,それらに加えて文章の著者・読者の情報を照応先同定の手掛かりとして用いる.先に述べたように,従来研究で対象とされてきた新聞記事コーパスでは,著者や読者は談話中にほとんど出現しない.そのため著者や読者の情報が文脈的な手掛かりとして用いられることはなかった.しかし,著者や読者は省略されやすいためゼロ代名詞の照応先になりやすい,敬語やモダリティなど著者や読者の省略を推定するための手掛かりが豊富に存在する,などの特徴を持つため,談話中の著者や読者を明示的に扱うことは照応先同定で重要である.また,著者や読者は前述のような外界ゼロ照応の照応先だけでなく,文章内に言及されることも多い.\ex.\underline{私}$_{著者}$はもともとアウトドア派ではなかったので,東京にいた頃もキャンプに行ったことはありませんでした。\label{著者表現1}\ex.\underline{あなた}$_{読者}$は今ある情報か資料を送って,アドバイザーからの質問に答えるだけ。\label{読者表現1}例\ref{著者表現1}では,文章中に言及されている「私」がこの文章の著者であり,例\ref{読者表現1}では「あなた」が読者である.本研究ではこのような文章中で言及される著者や読者を{\bf著者表現},{\bf読者表現}と呼び,これらを明示的に扱うことでゼロ照応解析精度を向上させる.著者や読者は人称代名詞だけでなく固有表現や役職など様々な表現で言及される.例えば,下記の例\ref{梅辻}では著者自身の名前である「梅辻」によって著者が言及されており,例\ref{管理人}では著者の立場を表す「管理人」によって言及されている.また,例\ref{お客様}では著者から見た読者の立場である「お客様」という表現によって読者が言及されている.本研究では人称代名詞に限らず,著者・読者を指す表現を著者・読者表現として扱うこととする.\ex.こんにちは、企画チームの\underline{梅辻}$_{著者}$です。\label{梅辻}\ex.このブログは、\underline{管理人}$_{著者}$の気分によって書く内容は変わります。\label{管理人}\ex.いくつかの質問をお答えいただくだけで、\underline{お客様}$_{読者}$のご要望に近いノートパソコンをお選びいただけます。\label{お客様}著者・読者表現は様々な表現で言及されるため,表層的な表記のみから,どの表現が著者・読者表現であるかを判断することは困難である.そこで,本研究では談話要素とその周辺文脈の語彙統語パターンを素性としたランキング学習\cite{herbrich1998learning,joachims2002optimizing}により,文章中の著者・読者表現の同定を行う.文章中に出現する著者・読者表現が照応先となることを推定する際には通常の文章中の表現に利用する手掛かりと著者・読者特有の手掛かりの両方が利用できる.\ex.僕は京都に(僕ガ)\underline{行こう}と思っています。\\皆さんはどこに行きたいか(皆さんガ)(僕ニ)\underline{教えてください}。\label{著者表現2}\ref{著者表現2}の1文目では「僕」が文頭で助詞「は」を伴ない,「行こう」を越えて「思っています」に係っていることから「行こう」のガ格の項であると推測される.これは文章中の表現のみが持つゼロ照応解析での手掛かりと言える.一方,2文目の「教えてください」では,依頼表現であることからガ格の項が読者表現である「皆さん」であり,ニ格の項が著者表現である「僕」であると推測できる.このような依頼や敬語,モダリティに関する手掛かりは著者・読者特有の手掛かりと言える.また,著者・読者特有の手掛かりは外界ゼロ照応における著者・読者においても同様に利用できる.そこで,本研究では,ゼロ照応解析において著者・読者表現は文章内ゼロ照応および外界ゼロ照応両方の特徴を持つものとして扱う.本論文では,文章中の著者・読者表現および外界ゼロ照応を統合的に扱うゼロ照応解析モデルを提案し,自動推定した著者・読者表現を利用することでゼロ照応解析の精度が向上することを示す.\ref{114736_18Jun13}節で関連研究について説明し,\ref{114801_18Jun13}節で本研究で利用する機械学習手法であるランキング学習について説明する.\ref{114838_18Jun13}節ではベースラインとなるモデルについて説明し,\ref{130555_9May13}節で実験で利用するコーパスについて述べる.その後,\ref{135602_6May13}節で著者・読者表現の自動推定について説明し,\ref{115042_18Jun13}節で著者・読者表現と外界照応を考慮したゼロ照応解析モデルを提案する.\ref{115121_18Jun13}節で実験結果を示し,\ref{115208_18Jun13}節でまとめと今後の課題とする.
\section{関連研究}
\label{114736_18Jun13}日本語でのゼロ照応解析は文章内ゼロ照応を中心に行われてきた.ゼロ照応解析の研究では,ゼロ代名詞は既知のものとして照応先の同定のみを行っているものがある.\cite{iida-inui-matsumoto:2006:COLACL}はゼロ代名詞と照応先候補の統語的位置関係を素性として利用することでゼロ照応解析を行った.この研究では,外界照応を,それに対応するゼロ代名詞に照応性がないと判断する形で扱っている.この研究では,表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}における(a)文章内ゼロ照応と(b)外界ゼロ照応を区別して扱っているが,(c)ゼロ照応なしについては扱っていないといえる.\cite{磯崎秀樹:2006-07-15}は,ランキング学習\footnote{当該論文中では優先度学習と呼ばれている.}を利用することで,ゼロ代名詞の照応先同定を行っている.この研究で扱うゼロ代名詞は文章内に照応先があるものに限定しており,表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}における(a)文章内ゼロ照応の場合のみを扱っているといえる.ゼロ照応解析は述語項構造解析の一部として解かれることも多い.述語項構造解析を格ごとに独立して扱っている研究としては\cite{imamura-saito-izumi:2009:Short,hayashibe-komachi-matsumoto:2011:IJCNLP-2011}がある.\cite{imamura-saito-izumi:2009:Short}は言語モデルの情報などを素性とした最大エントロピーモデルによるゼロ照応解析を含めた述語項構造解析モデルを提案している.このモデルでは各格の照応先の候補として,NULLという特別な照応先を仮定しており,解析器がこのNULLを選択した場合には,「項が存在しない」または「外界ゼロ照応」としており,これらを同一に扱っている.\cite{hayashibe-komachi-matsumoto:2011:IJCNLP-2011}は述語と項の共起情報などを素性としたトーナメントモデルにより述語項構造解析の一部としてゼロ照応解析を行っている.この研究でも外界ゼロ照応と項が存在しないことを区別して扱っておらず,また解析対象はガ格のみとしている.用言ごとに全ての格に対して統合的に述語項構造解析を行う研究としては\cite{sasano-kawahara-kurohashi:2008:PAPERS,sasano-kurohashi:2011:IJCNLP-2011}がある.\cite{sasano-kawahara-kurohashi:2008:PAPERS}はWebから自動的に構築された格フレームを利用し,述語項構造解析の一部としてゼロ照応解析を行う確率的モデルを提案した.\cite{sasano-kurohashi:2011:IJCNLP-2011}は格フレームから得られた情報や照応先の出現位置などを素性として対数線形モデルを学習することで,識別モデルによるゼロ照応解析を行った.これらの研究では外界ゼロ照応は扱っておらず,外界ゼロ照応の場合にはゼロ代名詞自体が出現しないものとして扱っている.これらの研究では表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}における(b)外界ゼロ照応と(c)ゼロ照応なしを区別せず扱っているといえる.外界ゼロ照応を扱った研究としては\cite{山本和英:1999,平2013}がある.\cite{山本和英:1999}では対話文に対するゼロ代名詞の照応先の決定木による自動分類を行っている.この研究では,ゼロ代名詞は既知として与えられており,その照応先を5種類に分類された外界照応,および文章内照応(具体的な照応先の推定までは行わない)の計6種類から選択している.また,話題は旅行対話に限定されている.この研究では,機能語および用言の語彙情報がゼロ照応における素性として有効であるとしている.機能語,特に待遇表現は著者・読者に関する外界ゼロ照応解析で有効であると考えられ,本研究でも機能語の情報を素性として利用する.一方,用言の語彙情報は文章内ゼロ照応において有効であるとしているが,これは話題を限定しているためであると考えられ,本研究の対象である多様な話題を含むコーパスに対しては有効に働かないと考えられる.本研究では,格フレームにおける頻度情報などとして用言の情報を汎化することで,用言の情報を扱うこととする.また,この研究ではゼロ代名詞を既知としているため,ゼロ代名詞検出において外界ゼロ照応を扱うことの影響については議論されていない.\cite{平2013}では新聞記事に対する述語項構造解析の一部として外界ゼロ照応も含めたゼロ照応解析を扱っている.新聞記事コーパスでは外界ゼロ照応自体の出現頻度が非常に低いと報告しており,外界ゼロ照応の精度(F値)はガ格で0.31,ヲ格で0.75,ニ格で0.55と非常に低いものとなっている.また,これらの研究では文章中に出現する著者・読者(本論文における著者・読者表現)と外界の著者・読者との関係については扱っていない.日本語以外では,中国語,ポルトガル語,スペイン語などでゼロ照応解析の研究が行われている.中国語においてはゼロ照応解析は独立したタスクとして取り組まれることが多い.\cite{kong-zhou:2010:EMNLP}ではゼロ代名詞検出,照応性判定,照応先同定の3つのサブタスクにおいて構文木を利用したツリーカーネルによる手法が提案されている.ポルトガル語,スペイン語では述語項構造解析の一部ではなく,照応解析の一部としてゼロ照応解析に取り組まれることが多い.これらの言語では主格にあたる語のみが省略されるが,照応解析の前処理として省略された主格を検出し,照応先が文章内にあるかを分類する研究が行われている\cite{poesio2010creating,rello2012elliphant}.英語においてはゼロ照応解析に近いタスクとして意味役割付与の研究が行われている\cite{gerber-chai:2010:ACL,ruppenhofer-EtAl:2010:SemEval}.\cite{gerber-chai:2010:ACL}では頻度の高い10種類の動作性名詞に対して,直接係り受けにないものも項として扱い意味役割付与を行ったデータを作成している.また,共起頻度の情報などを利用して自動的に意味役割付与を行っている.\cite{ruppenhofer-EtAl:2010:SemEval}では意味役割付与タスクの一部として省略された項を扱っている.また,省略された項については,照応先が特定されるDefiniteNullInstanceと照応先が不特定なIndefineteNullInstanceを区別して扱っている.
\section{ランキング学習}
\label{114801_18Jun13}本研究では,ゼロ照応解析および著者・読者表現推定において,ランキング学習と呼ばれる手法を利用する.ランキング学習は優先度学習とも呼ばれ,インスタンス間のランキングを学習するための機械学習手法である\cite{herbrich1998learning,joachims2002optimizing}.ランキング学習では識別関数を$f(\mathbf{x})=\mathbf{w}\cdot\mathbf{x}$とし以下のように$\mathbf{w}$を学習する.ここで$\mathbf{x}$は,入力インスタンスの素性表現であり,$\mathbf{w}$は$\mathbf{x}$に対応する,重みベクトルである.まずランキングに含まれる各インスタンスの組み合わせを生成する.ここでランキング$A>B>C$を考えると,生成される組み合わせは$A>B$,$A>C$,$B>C$となる.そして各組み合わせにおいて識別関数の値がランキング上の順序と同じになるように$\mathbf{w}$を学習する.上述の例で,各インスタンスに対応する素性ベクトルが$\mathbf{x}_A$,$\mathbf{x}_B$,$\mathbf{x}_C$だとすると,$f(\mathbf{x}_A)>f(\mathbf{x}_B)$などとなるように学習する.なお,学習する順位内に同順位のものがあっても,「それらが同順位である」ということは学習されない.例えば$A>B=C$という順位があった場合には生成される組み合わせは$A>B$,$A>C$だけであり$B=C$という関係が考慮されることはない.また,同時に複数のランキングを学習することも可能である.例えば,$A_1>B_1>C_1$と$A_2>B_2>C_2$という二つの独立したランキングがあった場合には$A_1>B_1$,$A_1>C_1$,$B_1>C_1$,$A_2>B_2$,$A_2>C_2$,$B_2>C_2$のようにそれぞれ独立した組み合わせを生成し,これら全てを満たすように識別関数を学習する.未知のインスタンス集合に対するランキング予測では,各インスタンスに対して学習された$\mathbf{w}$を用いて$f(\mathbf{x})$を計算し,その値の順が出力されるランキングとなる.ランキング学習は二値分類に適用することが可能であり,正例と負例に対応関係がある場合には通常の二値分類よりも有効であると言われている\cite{磯崎秀樹:2006-07-15}.これは通常の二値分類器では,全ての正例と負例を同一の特徴空間に写像するが,ランキング学習では正例と負例の差を特徴空間に写像するためである.例えば,入力$x_1$に対する出力候補が$(A_1\colon+,B_1\colon-,C_1\colon-)$\footnote{$+$は正例,$-$は負例を示す.},入力$x_2$に対する出力候補が$(A_2\colon+,B_2\colon+,C_2\colon-)$となるような学習事例があったとする.この場合,通常の二値分類器では$(A_1\colon+,B_1\colon-,C_1\colon-,A_2\colon+,B_2\colon+,C_2\colon-)$のように事例をひとまとめにして扱うため,本来直接の比較の対象ではない$A_1\colon+$と$C_2\colon-$などが同一の特徴空間上で比較されることとなる.一方,ランキング学習であれば,$A_1>B_1=C_1$と$A_2=B_2>C_2$のように,ランキングとして表現することで,$A_1\colon+$と$C_2\colon-$などが同一特徴空間上で比較されることはない.このようにして学習された識別関数は二値分類問題における識別関数として利用することができ,二値分類の場合と同様に出力の信頼度としても利用できる.そこで本研究では,入力毎の出力候補に対して正負の正解がラベル付けされた事例からランキング学習により識別関数を学習し,推定の際には識別関数の出力が最も高くなる(最尤)ものを出力する形でランキング学習を利用する.
\section{ベースラインモデル}
\label{114838_18Jun13}本節では本研究でのベースラインとなる外界ゼロ照応を考慮しないゼロ照応解析モデルを説明する.本研究ではゼロ照応解析を用言単位の述語項構造解析の一部として扱う.用言単位の述語項構造解析では,用言と複数の項の間の関係を扱うことができる.例えば「(不動産屋ガ)物件を紹介する」のガ格のゼロ照応解析ではヲ格の項が「物件」であることが大きな手掛かりとなる.各述語項構造は格フレームと,その格フレームの格スロットとその格スロットを埋める項の対応付けとして表現される.格フレームは用言の用法毎に構築されており,各格フレームはその用言が項を取る表層格(格スロット)とその格スロットの項として取られる語(用例)からなる.本研究では,Webページから収集された69億文から\cite{kawahara-kurohashi:2006:HLT-NAACL06-Main}の手法で自動構築された格フレームを用いる.構築された格フレームの例を図\ref{述語項構造解析によるゼロ照応解析の概要}に示す\footnote{{\textless}時間{\textgreater}は「今日」「3時」などの時間表現を汎化したものである.}.本研究では,ゼロ代名詞の照応先を談話要素という単位で扱う.談話要素とは文中の表現のうち共参照関係にあるものをひとまとめにしたものである.例えば図\ref{述語項構造解析によるゼロ照応解析の概要}の例では,「僕」と「自分」や「ラーメン屋$_1$」\footnote{同じ表現を区別するために添字を付与している.},「その店」,「ラーメン屋$_2$」と「お店」は共参照関係にあるので,それぞれ一つの談話要素として扱う.そしてゼロ代名詞の照応先はこの談話要素から選択する.例えば,「紹介したい」のガ格では「僕」に対応する(a)を照応先として選択することになる.述語項構造解析の例を図\ref{述語項構造解析によるゼロ照応解析の概要}に示す\footnote{格に対応付けられるのは談話要素だが,出力される述語項構造を見やすくするために談話要素の代表的な表現を併せて表記している.「×」は格に何も対応付けないことを示す.}.なお,本研究ではゼロ照応解析の対象としてはガ,ヲ,ニ,ガ2格のみを扱うため,時間格などの他の格については省略することがある.ここでガ2格とは京都大学テキストコーパスで定義されている,二重主格構文における主格にあたる格である\footnote{「彼はビールが好きだ」の場合「彼」がガ2格にあたる.}.この例では,「紹介する」に対応する格フレームから「紹介する(1)」を選択し,そのガ格に談話要素(a),ヲ格に談話要素(c),時間格に談話要素(d)を対応付け,それ以外の格には談話要素を対応付けない.ゼロ照応解析の出力としては,ガ格の談話要素(a)のみが出力される.\begin{figure}[t]\includegraphics{21-3ia1011f1.eps}\caption{述語項構造解析によるゼロ照応解析の概要}\label{述語項構造解析によるゼロ照応解析の概要}\vspace{-6pt}\end{figure}ベースラインモデルでは,先行研究\cite{sasano-kurohashi:2011:IJCNLP-2011}と同様に以下の手順で解析を行う.\begin{enumerate}\item形態素解析,固有表現認識,構文解析を行う.\item共参照解析を行いテキスト中に出現した談話要素を認識する.\label{談話要素設定}\item各用言について以下の手順で述語項構造を決定する.\label{述語項構造}\begin{enumerate}\item以下の手順で解析対象用言がとりえる述語項構造(格フレームと談話要素の対応付け)の組み合わせを列挙する.\label{述語項構造列挙}\begin{enumerate}\item解析対象用言の格フレームを1つ選ぶ.\label{格フレーム選択}\pagebreak\item解析対象用言と係り受け関係にある語と格スロットの対応付けを行う.\label{係り受け対応付け}\item対応付けられなかったガ格,ヲ格,ニ格,ガ2格の格スロットと,対象用言の格スロットとまだ対応付けられていない談話要素の対応付けを行う.\label{ゼロ照応}\end{enumerate}\item学習されたランキングモデルによりもっとも高いスコアが与えられたものを述語項構造として出力する.\label{手順:スコア関数}\end{enumerate}\end{enumerate}先行研究と本研究でのベースラインモデルとの違いは,(\ref{手順:スコア関数})でのスコア付けの際の重みの学習方法の違いである.先行研究では対数線形モデルを利用していたが,本研究ではランキング学習を用いた\footnote{対数線形モデル,ランキング学習は共に線形識別器であり,本質的な表現力に差はない.また,事前実験においてベースライン手法においてこれらの間の精度に大きな差がないことを確認している.}.このランキング学習の詳細は\ref{素性の重みの学習}節で説明する.\begin{figure}[b]\includegraphics{21-3ia1011f2.eps}\caption{述語項構造の候補の例}\label{述語項構造の候補の例}\end{figure}手順(\ref{述語項構造})の述語項構造解析について説明する.まず,(\ref{述語項構造列挙})の手順で候補となる述語項構造$(cf,a)$を列挙する.ここで$cf$は選ばれた格フレーム,$a$は格スロットと談話要素の対応付けである.ただし,同一用言の複数の格に同じ要素が入りにくいという経験則\cite{199787}から,手順(\ref{ゼロ照応})では既に他の格に対応付けられた談話要素は,ゼロ代名詞には対応付けないこととする.手順(\ref{述語項構造列挙})で列挙される述語項構造の例を図\ref{述語項構造の候補の例}に示す\footnote{【i-j】はi番目の格フレームに対するj番目の対応付けを持つ述語項構造に対して便宜的に割り振ったものである.}.【1-1】と【2-1】,【1-2】と【2-2】などは,格と談話要素の割り当ては同じであるが格フレームは異なるため別々の述語項構造候補として扱う.【1-2】と【2-2】のどちらを述語項構造として選んでもゼロ照応解析としての出力は同じになる.この列挙された述語項構造をそれぞれ\ref{述語項構造を表現する素性}節で説明する手法で素性として表現し,\ref{素性の重みの学習}節で説明する方法で学習された重みを利用してスコア付けを行い,最終的に最もスコアが高かった述語項構造を出力する.\subsection{述語項構造を表現する素性}\label{述語項構造を表現する素性}本節では述語項構造を表現する素性について説明する.入力テキスト$t$の解析対象用言$p$に格フレーム$cf$を割り当て,その格フレームの格スロットと談話要素の対応付けを$a$とした述語項構造を表現する素性ベクトルを$\phi(\mathit{cf},a,p,t)$とする.$\phi(\mathit{cf},a,p,t)$は直接係り受けがある述語項構造に関する素性ベクトル$\phi_{\textit{overt-PAS}}(\mathit{cf},a_\mathit{ovet},p,t)$とゼロ照応解析で対象となる各格$c$に談話要素$e$が割り当てられることに関する素性ベクトル$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$からなり,具体的には以下のような形とする.ここで,$a_\mathit{overt}$は用言$p$と直接係り受けのある談話要素と格スロットの対応付けである.\begin{equation}\begin{split}\phi(\mathit{cf},a,p,t)=(&\phi_{\textit{overt-PAS}}(\mathit{cf},a_\mathit{overt},p,t),\\&\phi_\mathit{case}(\mathit{cf},ガ\leftarrowe_{ガ},p,t),\phi_\mathit{case}(\mathit{cf},ヲ\leftarrowe_{ヲ},p,t),\\&\phi_\mathit{case}(\mathit{cf},ニ\leftarrowe_{ニ},p,t),\phi_\mathit{case}(\mathit{cf},ガ2\leftarrowe_{ガ2},p,t))\end{split}\end{equation}各格に対応する素性ベクトル$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$は格$c$に談話要素$e$が対応付けられた場合の素性ベクトル$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$と何も対応付けられなかった場合の素性ベクトル$\phi_\mathit{NA}(\mathit{cf},c\leftarrow\linebreak×,p,t)$からなる.$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$は格$c$がゼロ照応として対応付けられた場合にのみ考慮し,直接係り受け関係にある談話要素に対応付けられた場合には0ベクトルとする.例えば図\ref{述語項構造の候補の例}の【2-2】を表現する素性ベクトル$\phi(紹介する(2),\{ガ:(a)僕,ヲ:(c)ラーメン屋,ニ:×,ガ2:×,時間:(d)今日\})$は以下のようになる\footnote{入力テキスト$t$と対象用言$p$は省略した.${\bf0_\phi}$は$\phi$と同次元を持つ0ベクトルを表す.}.\begin{gather}\small{\phi(紹介する(2),\{ガ:(a)僕,ヲ:(c)ラーメン屋,ニ:×,ガ2:×,時間:(d)今日\})=}\nonumber\\[-2pt]\begin{split}(\phi_{\textit{overt-PAS}}(紹介する(2),\{ガ:×,ヲ:(d)ラーメン屋,ニ:×,\\ガ2:×,デ格:(c)ブログ\}),\label{素性ベクトル例}\end{split}\\[-2pt]\begin{aligned}\small&\phi_{A}(紹介する(2),ガ\leftarrow(a)僕),&{\bf0_{\phi_\mathit{NA}}},\nonumber\\[-2pt]\small&{\bf0_{\phi_\mathit{A}}},&{\bf0_{\phi_\mathit{NA}}},\\[-2pt]\small&{\bf0_{\phi_{A}}},&\phi_\mathit{NA}(紹介する(2),ニ\leftarrow×),\nonumber\\[-2pt]\small&{\bf0_{\phi_{A}}},&\phi_\mathit{NA}(紹介する(2),ガ2\leftarrow×))\nonumber\end{aligned}\end{gather}\begin{table}[p]\caption{$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$の素性一覧}\label{割り当ての素性一覧(1)}\input{1011table02.txt}\end{table}述語項構造ベクトルを表現する各要素$\phi_{\textit{overt-PAS}}(\mathit{cf},a_\mathit{overt},p,t)$,$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_\mathit{NA}(\mathit{cf},c\leftarrow×,p,t)$の素性について説明する.まず,$\phi_{\textit{overt-PAS}}(\mathit{cf},a_\mathit{overt},p,t)$には確率的格解析モデル\cite{河原大輔:2007-07-10}から得られる表層の係り受けの確率を用いる.$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$に用いる素性の一覧を表\ref{割り当ての素性一覧(1)}に示す\footnote{値の列でlogと書かれたものは,実際にはその対数をとったものを素性として利用している.バイナリと書かれたものは,多値の素性をバイナリで表現したものを素性として利用している.整数値と書かれたものは,その値をそのまま利用している.}.格フレーム素性は,格フレームから得られる情報である.$e$が複数回言及される場合には,各素性ごとにそれらの値で最も大きいものをその素性の値とする.例えば,談話要素$e$が格フレーム$\mathit{cf}$の格$c$に対応付く確率の素性を式(\ref{素性ベクトル例})のガ格について考える.上述の例ではガ格に対応付けられた談話要素(a)は「僕」「自分」と2回言及されている.そこで「僕」「自分」が「紹介する(2)」のガ格に対応付く確率をそれぞれ計算し,最も値が高いものを(a)が「紹介する(2)」のガ格に対応付く確率とする.用言素性における$p$の持つモダリティなどの情報は,用言の属する基本句に日本語構文・格解析システムKNPver.~4.0\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}により付与された情報を利用する.文脈素性は$e$が前後の文脈でどのような表現で出現するかを扱う素性であり,$e$が複数回言及される場合には,その全てを素性として扱う.$c$が割り当てられたことの素性は,その格にどの程度ゼロ代名詞が出現するかを調整するための素性となっている.$\phi_\mathit{NA}(\mathit{cf},c\leftarrow×,p,t)$に用いる素性を表\ref{割り当てないの素性一覧}に示す.$\phi_\mathit{NA}(\mathit{cf},c\leftarrow×,p,t)$では対応付けられる要素$e$がないため,格フレームに関する素性のみとなっている.\begin{table}[t]\caption{$\phi_\mathit{NA}(\mathit{cf},c\leftarrow×,p,t)$の素性一覧}\label{割り当てないの素性一覧}\input{1011table03.txt}\end{table}\subsection{素性の重みの学習}\label{素性の重みの学習}前節で入力テキスト$t$,解析対象用言$p$が与えれられたとき,格フレーム$\mathit{cf}$,格スロットと談話要素の対応付け$a$からなる述語項構造を表現する素性を$\phi(\mathit{cf},a,p,t)$としたが,それに対応する素性の重み$\mathbf{w}$をランキング学習により学習する.ランキング学習の学習データ作成は,対象用言ごとに順位データを作成し,全用言の順位データを集約したものとする.もし,述語項構造の正解が一意に求められるなら,その述語項構造を上位とし,それ以外の述語項構造を下位とする順位データを作成すればよい.しかし,実際には以下の2つの問題がある.1つ目は正解コーパスには1つの格に対して複数の談話要素が対応付けられたものが含まれることである.例えば図\ref{述語項構造の候補の例(2)}の「焼いている」では正解として\{ガ:×,ヲ:(b)ケーキ+(c)クッキー,ニ:×,ガ2:×,時間:(d)毎週\}のように,ヲ格に2つの談話要素が対応付けられる.一方,提案手法では先に述べたように1つの格に対して1つの談話要素しか対応付けない.そこで,1つの格に対して複数の談話要素が対応付けられている場合には,そのうちどれか1つの談話要素を割り当てていれば正解として扱うこととする.例えば,図\ref{述語項構造の候補の例(2)}では\{ガ:×,ヲ:(b)ケーキ,ニ:×,ガ2:×,時間:(d)毎週\}と\{ガ:×,ヲ:(c)クッキー,ニ:×,ガ2:×,時間:(d)毎週\}を正解の談話要素対応付けとする.また,この正解となる対応付けの集合を$(a^{*}_{1},\cdots,a^{*}_{N})$とする.2つ目はコーパスには格フレームの正解は付与されていないことである.先に述べたように述語項構造は格フレームと格スロットと談話要素の対応付けからなる.格フレームは用言の用法ごとに構築されており,述語項構造候補の格フレームには文脈で使用される用法と全く異なるもの\footnote{慣用的な用法に対応する格フレームなど.}が含まれる.格スロットと談話要素の対応付けは正しいが,文脈での使用とは異なる用法の格フレームを持つような述語項構造を正解として扱った場合,学習に悪影響を与えると考えられる.そこで,確率的ゼロ照応解析\cite{sasano-kawahara-kurohashi:2008:PAPERS}を利用することで,各文脈における用法の格フレームを推定する.確率的ゼロ照応解析では各述語項構造$(\mathit{cf},a)$に対し格フレームの情報などを用いることで$P(\mathit{cf},\mathit{a|p},\mathbf{e})$を推定する.ここで$\mathbf{e}$は文章中に出現する談話要素$e$の集合である\footnote{数式の変数は本論文における表記に統一した.}.具体的には以下の手順で各対象用言$p$に対して学習データとなるランキングを生成する.\begin{enumerate}\item用言$p$に対して取り得る述語項構造$(\mathit{cf},a)$を訓練事例として列挙する.\label{190308_16Oct13}\item正解となる対応付け$a^{*}_{1},\cdots,a^{*}_{N}$について\begin{enumerate}\item各$(\mathit{cf},a^*_{i})$の確率的ゼロ照応解析確率を計算し,最も確率が高いものを$(\mathit{cf}^*_{i},a^*_{i})$とする.\label{190424_16Oct13}\item$(\mathit{cf},a^*_{i})$のうち,$(\mathit{cf}^*_{i},a^*_{i})$以外のものを訓練事例から取り除く.\label{190439_16Oct13}\end{enumerate}\item各$(\mathit{cf}^*_{i},a^*_{i})$が他の$(\mathit{cf},a)$より順位が高くなるようなランキングを用言$p$に対する学習データとする.\label{190449_16Oct13}\end{enumerate}図\ref{述語項構造の候補の例(2)}の「焼いている」を例に説明する.まず「焼いている」の述語項構造解析の候補として【1-1】,$\cdots$,【2-1】,$\cdots$を列挙する(手順(\ref{190308_16Oct13})).このうち,格と談話要素の対応付けが正解となるもの$(\mathit{cf},a^*_{i})$は,\{ガ:×,ヲ:(b)ケーキ,ニ:×,ガ2:×,時間:(d)毎週\}となっている【1-2】と【2-2】,\{ガ:×,ヲ:(c)クッキー,ニ:×,ガ2:×,時間:(d)毎週\}となっている【1-3】と【2-3】である.【1-2】,【2-2】,【1-3】,【2-3】について確率的ゼロ照応解析スコアを計算した結果,【1-2】$>$【2-2】,【1-3】$>$【2-3】となったとする.この場合【1-2】と【1-3】が$(\mathit{cf}^*_{i},a^*_{i})$となる(手順(\ref{190424_16Oct13})).そこで,訓練事例から【2-2】と【2-3】を取り除く(手順(\ref{190439_16Oct13})).そして,【1-2】$=$【1-3】$>$【1-1】$=$【1-4】$=\cdots=$【2-1】$=$【2-4】$=\cdots$というランキングを「焼いている」についての学習データとする(手順(\ref{190449_16Oct13})).このように各対象用言に対するランキング学習データを生成し,それらを統合したものに対してランキング学習を行うことで$\mathbf{w}$を学習する.\begin{figure}[t]\includegraphics{21-3ia1011f3.eps}\caption{1つの格に複数の談話要素が割り当てられる例}\label{述語項構造の候補の例(2)}\vspace{-1\Cvs}\end{figure}
\section{コーパス}
\label{130555_9May13}本研究では,DiverseDocumentLeadsCorpus(DDLC)\cite{hangyo-kawahara-kurohashi:2012:PACLIC}を利用する.DDLCはWebから収集されたテキストに対して,形態素情報,構文関係,固有表現,共参照関係,述語項構造,著者・読者表現が付与されている.形態素情報,構文関係,固有表現,共参照関係は京都大学テキストコーパス\cite{KTC}と同様の基準で付与されている.述語項構造も京都大学テキストコーパスと同様の基準で付与されており,文章内ゼロ照応だけでなく外界ゼロ照応も付与されている.外界ゼロ照応の照応先としては表\ref{外界ゼロ照応の照応先と例}の5種類が設定されている.著者・読者表現は,「=:[著者]」「=:[読者]」というタグ\footnote{「{\itrel}:A」という表記は{\itrel}という関係でAという情報が付与されていることを示す.また,「B$\leftarrow${\itrel}:A」という表記はBに対して「{\itrel}:A」という情報が付与されていることを示す.}で基本句単位に付与されており,著者・読者表現が複合語の場合にはその主辞に対して付与されている.DDLCでは,著者表現,読者表現は1文書中にそれぞれ最大でも1つの談話要素と仮定されており,著者・読者が複数回言及される場合には,そのうち1つに「=:[著者]」「=:[読者]」を付与し,それ以外のものは,著者・読者表現と共参照関係にある,という形で表現される.下記の例\ref{こま}では,著者は「主婦」や「こま」,「母」など複数の表現で言及されているが,「=:[著者]」は「主婦」に対してだけ付与され,「こま」や「母」には「=:主婦」というタグにより,「主婦」と共参照関係にあるという情報が付与されている.\begin{table}[t]\caption{外界ゼロ照応の照応先と例}\label{外界ゼロ照応の照応先と例}\input{1011table04.txt}\end{table}\ex.東京都に住む「お気楽\underline{主婦}」\underline{こま}です。\\\label{こま}0歳と6歳の男の子の\underline{母}をしてます。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}主婦$\leftarrow$=:[著者]\\こま$\leftarrow$=:主婦\\母$\leftarrow$=:主婦\end{tabular}\right)$また,組織のウェブページなどの場合にはその組織名や組織を表す表現を著者表現としている.\ex.ここでは\underline{弊社}の商品及び事業を簡単にご説明します。\\\hspace*{4ex}(弊社$\leftarrow$=:[著者])\ex.神戸徳洲会\underline{病院}では地域の医療機関との連携を大切にしています。\\\hspace*{4ex}(病院$\leftarrow$=:[著者])ウェブページでは実際には不特定多数が閲覧できる状態であることが多いが,著者が特定の読者を想定していると考えられる場合には,その特定の読者を表す表現も読者表現として扱っている.下記の例\ref{読者=人}では,想定している読者が「今後就職を迎える人」だと考えられるので,その主辞の「人」に「=:[読者]」が付与されている.\ex.今後就職を迎える\underline{人}に,就職活動をどのように考えれば良いのかをお知らせしてみましょう。\label{読者=人}\\\hspace*{4ex}(人$\leftarrow$=:[読者])一方,想定している読者のうち一部だけを対象とした表現は読者表現として扱っていない.下記の例\ref{ローソン}では,想定される読者は「オーナーを希望する人」であり,「店舗運営の経験がない方」はそのうちの一部であると考えられるので,読者表現として扱われていない.\ex.店舗運営の経験がない\underline{方}でも、ご安心ください。\label{ローソン}ローソンの研修制度なら、オーナーに必要とされるノウハウを段階的に修得することができます。\begin{table}[b]\caption{DDLCにおけるゼロ照応の個数}\label{ゼロ照応の個数}\input{1011table05.txt}\end{table}\begin{table}[b]\caption{DDLCの文章内ゼロ照応の内訳}\label{本コーパスの文章内ゼロ照応の内訳}\input{1011table06.txt}\end{table}\begin{table}[b]\begin{center}\caption{DDLCの外界ゼロ照応の内訳}\label{本コーパスの外界ゼロ照応の内訳}\input{1011table07.txt}\end{table}表\ref{著者・読者表現の例}にDDLC中の著者・読者表現の例を示す.DDLC全体1,000文書のうち著者表現が付与された文書は271文書,読者表現が付与された文書は84文書であった.DDLCにおけるゼロ照応の個数を表\ref{ゼロ照応の個数}に,文章内ゼロ照応,外界ゼロ照応における照応先の内訳を表\ref{本コーパスの文章内ゼロ照応の内訳}と表\ref{本コーパスの外界ゼロ照応の内訳}に示す.表\ref{本コーパスの文章内ゼロ照応の内訳}において著者・読者とは照応先が著者・読者表現にあたることを示す.DDLCにおいてはゼロ照応のうち54\%が外界ゼロ照応であること,ゼロ照応はガ格で特に多く起こることが分かる.また,著者や読者に関するゼロ照応はガ格,ニ格,ガ2格で多く出現し,ヲ格ではほとんど出現しないことが分かる.\begin{table}[t]\caption{著者・読者表現の例}\label{著者・読者表現の例}\input{1011table08.txt}\end{table}
\section{著者・読者表現推定}
\label{135602_6May13}日本語では様々な表現で著者や読者が文章中で言及され,\ref{130555_9May13}節で述べたように人称代名詞だけでなく,固有表現,役職など様々な表現で言及される.一方,表\ref{著者・読者表現の例}に挙げたような表現でも文脈によっては著者・読者表現にならないこともある.下記の例\ref{お客様not著者}では,「お客様」はこの文章の読者として想定している客とは別の客を指していると考えられるので,読者表現とはならない.\ex.先月、お部屋のリフォームをされた\underline{お客様}の例を紹介します。\label{お客様not著者}このように,表記のみから著者・読者表現を同定することは困難である.本研究では著者・読者表現候補自体の表現だけでなく,周辺文脈や文章全体に含まれる情報から文章の著者・読者表現を推定することとする.\ref{130555_9May13}節で述べたように,DDLCでは基本句単位で著者・読者表現がアノテーションされており,共参照関係にある複数の表現が著者・読者表現である場合には,その内の1つに対して著者・読者表現を付与するとしている.これは\ref{114838_18Jun13}節で述べた談話要素単位に著者・読者表現が付与されていると言え,本研究でも著者・読者表現は談話要素単位で扱う.著者・読者表現の推定にはランキング学習を利用し,その素性には著者・読者表現自身および周辺文脈の語彙統語パターンを利用する.\subsection{著者・読者表現推定モデル}著者・読者表現の推定は著者表現,読者表現それぞれ独立して行う\footnote{以降の具体例では著者表現を例として説明するが,読者表現の場合でも同様である.}.著者・読者表現の推定にはランキング学習を利用し,著者・読者表現にあたる談話要素が他の談話要素より上位になるように学習する.例えば図\ref{著者表現が出現する文章例}の著者表現では,談話要素(1)が他の談話要素より上位となる学習データを作成する.そして学習された識別関数により最上位となった談話要素を著者・読者表現と推定する.なお,著者・読者表現候補として扱う談話要素は下記の条件のうち最低1つは満たしているもののみとする.\begin{itemize}\item自立語の形態素のJUMANカテゴリが「人」「組織・団体」「場所」\item固有表現である\item形態素に「方」「人」を含む\end{itemize}ここで,学習データ作成時および推定時に考慮しなければならないのは,著者・読者表現が出現しない文書が存在することである.著者・読者表現が出現しない文書は大きく分けて2つの種類がある.1つ目は図\ref{談話構造自体に著者が出現しない文章例}のように談話構造自体に著者・読者が出現しない文書である.2つ目は図\ref{談話構造に著者が出現するが著者表現が出現しない文章例}のように談話構造には著者・読者が出現するが著者・読者表現として明示的に言及されない場合である\footnote{全て省略されており,外界ゼロ照応の照応先としてのみ出現する.}.これらに対応する仮想的なインスタンスとして,「著者・読者表現なし(談話構造)」と「著者・読者表現なし(省略)」を設定する.\begin{figure}[b]\includegraphics{21-3ia1011f4.eps}\caption{著者表現が出現する文書例}\label{著者表現が出現する文章例}\end{figure}\begin{figure}[b]\includegraphics{21-3ia1011f5.eps}\caption{談話構造自体に著者が出現しない文書例}\label{談話構造自体に著者が出現しない文章例}\end{figure}「著者・読者表現なし(談話構造)」は談話構造自体に外界ゼロ照応としても著者・読者が出現しないことに対応するインスタンスであり,文書全体の語彙統語パターンを素性とした文書ベクトルで表現されるインスタンスである.これは,著者・読者が談話構造自体に出現しない文書では,尊敬や謙譲表現が少ないなど文体的な特徴があると考えられ,文書全体の語彙統語パターンは文体を反映した素性といえるからである.\begin{figure}[t]\includegraphics{21-3ia1011f6.eps}\caption{談話構造に著者が出現するが著者表現が出現しない文書例}\label{談話構造に著者が出現するが著者表現が出現しない文章例}\end{figure}「著者・読者表現なし(省略)」は談話構造には外界ゼロ照応として著者・読者が出現するが,著者・読者表現として明示的に言及されないことに対応するインスタンスであり,ゼロベクトルとして表現される.識別関数はゼロベクトルについて常に$0$を返すため,このインスタンスより下位に順位付けされた談話要素は二値分類における負例とみなすことができる.学習された識別関数によるランキングの結果,これらのインスタンスが最上位となった文書については,著者・読者表現が出現しないものとする.各文書に対する学習データの作成について説明する.以下の手順で著者表現,読者表現に対して文書ごとにランキングデータ作成し,統合したものを最終的な学習データとする.著者・読者表現が存在する文書については,著者・読者表現にあたる談話要素が他の談話要素および「著者・読者表現なし」より上位になるように学習データを作成する.例えば,図\ref{著者表現が出現する文章例}の文書における著者表現推定では,\[(1)>(2)=(3)=\cdots=(6)=著者表現なし(談話構造)=著者表現なし(省略)\]となるように学習データを作成する.談話構造自体に著者・読者が出現しない場合には,「著者・読者表現なし(談話構造)」が文書中の談話要素および「著者・読者表現なし(省略)」より上位になるように学習データを作成する.例えば,図\ref{談話構造自体に著者が出現しない文章例}の文書における著者表現推定では,\[著者表現なし(談話構造)>(1)=(2)=\cdots=(6)=著者表現なし(省略)\]となるように学習データを作成する.談話構造に著者・読者が出現するが著者・読者表現が出現しない場合には,「著者・読者表現なし(省略)」が文書中の談話要素および「著者・読者表現なし(談話構造)」より上位になるように学習データを作成する.例えば,図\ref{談話構造に著者が出現するが著者表現が出現しない文章例}の文書における著者表現推定では,\[著者表現なし(省略)>(1)=著者表現なし(談話構造)\]となるように学習データを作成する.学習時の談話構造に著者・読者が出現するかの判定には,コーパスに付与された外界ゼロ照応の情報を利用する.外界ゼロ照応の照応先として著者・読者が出現する場合には談話構造に著者・読者が出現するとし,それ以外の場合には出現なしとする.例えば図\ref{談話構造に著者が出現するが著者表現が出現しない文章例}では,「気がつけば」のガ2格,「ほっとしました」のガ格などの照応先で著者が出現するので,談話構造に著者が出現していると分かる.なお,この情報はランキングの学習データを作成する際にのみ利用するので,テストデータに対する著者・読者表現推定時には利用しない.\subsection{素性として利用する語彙・統語パターン}談話要素に対しては,談話要素自身と係り先およびこれらの係り受けの語彙統語パターンを素性として扱う.ここで,語彙統語パターンを扱う単位として,基本句と文節という2つの単位を考える.談話要素は基本句単位であるが,その基本句が含まれる文節の情報も重要と考えられるからである.談話要素を表現する語彙統語パターンとしては,談話要素が含まれる基本句・文節,談話要素の係り先の基本句・文節およびこれらの係り受け関係を後述する基準にて汎化したものとなる.1つの談話要素が複数言及されている場合には,それらを合わせたものをその談話要素の素性として用いる.また,1文目には自己紹介的な表現が用いられることが多く,以降の文と区別して扱うことが有効であると考えられる.そこで,1文目で出現した語彙統語パターンは別の素性としても扱うこととする.例えば,図\ref{著者表現が出現する文章例}の談話要素(1)に対応する素性として利用するものは以下のものを汎化したものとなる.\begin{screen}「基本句:ホテルは」「基本句係り先:ございます。」「基本句係受け:ホテルは$\rightarrow$ございます。」「文節:米子タウンホテルは」「文節係り先:ございます。」「文節係り受け:米子タウンホテルは$\rightarrow$ございます。」「基本句:ホテルです。」「文節:ホテルです。」「1文目基本句:ホテルは」「1文目基本句係り先:ございます。」「1文目基本句係受け:ホテルは$\rightarrow$ございます。」「1文目文節:米子タウンホテルは」「1文目文節係り先:ございます。」「1文目文節係り受け:米子タウンホテルは$\rightarrow$ございます。」\end{screen}\begin{table}[t]\caption{汎化する種類と基準}\label{汎化する種類と基準}\input{1011table09.txt}\end{table}\begin{table}[t]\caption{一人称代名詞と二人称代名詞}\label{一人称代名詞}\input{1011table10.txt}\end{table}これらの要素を表\ref{汎化する種類と基準}の基準で汎化することで語彙統語パターンの素性として利用する.「形態素単位A」の汎化は形態素単位に付与された情報を元に形態素毎に汎化を行う.なお「品詞+活用」では内容語に対してのみ行い,機能語については汎化しない.「形態素単位B」でも形態素単位での汎化を行うが,内容語に対する汎化のみを行う.対象となる汎化表現を持たない場合(固有表現による汎化の際に固有表現を持たない場合など)には「品詞+活用」で汎化を行う.「形態素単位C」では「形態素単位B」と同様に汎化を行うが,複数の形態素をまたいだ汎化を行う場合がある.分類語彙表による汎化では,分類語彙表に複合語として登録されている場合には,その複合語の分類語彙表の内容を利用する.例えば,「ゴルフ場」は2形態素であるが,分類語彙表には「ゴルフ場:土地利用」として登録されているので,「ゴルフ場」を「土地利用」と汎化する.固有表現による汎化では,形態素に付与された固有表現は「固有表現名:head」「固有表現名:middle」「固有表現名:tail」「固有表現名:single」のように固有表現中での位置が付与されている.文節による汎化の際には連続したこれらの表現をまとめて「固有表現」という形に汎化する.例えば「ヤフージャパン株式会社」では「ORGANIZATION:head+ORGANIZATION:middle+ORGANIZATION:middle+\linebreak[2]ORGANIZATION:tail」のように固有表現が付与されるが,「ORGANIZATION」として汎化する.これらの形態素単位での汎化では,形態素ごとに汎化を行い,その後基本句内,文節内で汎化された情報を結合することでその基本句,文節の語彙統語パターンとする.例えば,「基本句:ホテルは」をカテゴリ(CT)の基準で汎化する際には,「ホテル」を「CT-場所-施設」に汎化し,「は」は機能語なのでそのまま「は」とする.そしてこれらを結合した「基本句:CT-場所-施設+は」がこの基本句のカテゴリによる汎化表現となる.上述の形態素単位の汎化の場合には,基本句,文節内に含まれる個々の汎化表現も素性とする.例えば,「基本句:ホテルは」のカテゴリによる汎化では上述の「基本句:CT-場所-施設+は」に加えて,「基本句内形態素:CT-場所-施設」も素性とする\footnote{「は」はカテゴリでは汎化されないので,形態素単位の素性としては利用しない.}.基本句・文節単位での汎化は基本句・文節に付与された情報を元に汎化を行う場合に利用する.基本句・文節単位での汎化では基本句・文節に付与された情報そのものを基本句,文節の語彙統語パターンとして利用する.このため,形態素単位による情報は素性としては利用しな\linebreakい.
\section{外界照応および著者・読者表現を考慮したゼロ照応解析モデル}
\label{115042_18Jun13}本節では,外界ゼロ照応および著者・読者表現を考慮したゼロ照応解析モデルについて説明する.提案モデルでは,ベースラインモデルと同様にゼロ照応解析を述語項構造解析の一部として解く.提案モデルではゼロ照応解析は以下の手順で行う.\begin{enumerate}\item形態素解析,固有表現認識,構文解析を行う.\item共参照解析を行いテキスト中に出現した談話要素を認識する.\item著者・読者表現の推定を行い,どの談話要素が著者・読者表現にあたるのかを推定する.\label{手順:著者・読者推定}\item推定された著者・読者表現から仮想的な談話要素を設定する(\ref{節:仮想的談話要素}節で説明).\label{手順:仮想的談話要素}\item各用言について以下の手順で述語項構造を決定する.\begin{enumerate}\item以下の手順で解析対象用言がとりえる述語項構造(格フレームと談話要素の対応付け)の組み合わせを列挙する.\begin{enumerate}\item解析対象用言の格フレームを1つ選ぶ.\item解析対象用言と係り受け関係にある語と格スロットの対応付けを行う.\item対応付けられなかったガ格,ヲ格,ニ格,ガ2格の格スロットと,対象用言の格スロットとまだ対応付けられていない談話要素の対応付けを行う.\end{enumerate}\item学習されたランキングモデルによりもっとも高いスコアが与えられたものを述語項構造として出力する.\end{enumerate}\end{enumerate}ベースラインモデルと異なる点は,手順(\ref{手順:著者・読者推定})で文章中の著者・読者表現を推定すること,手順(\ref{手順:仮想的談話要素})で仮想的な談話要素を設定することである.\subsection{外界ゼロ照応を扱うための仮想的談話要素}\label{節:仮想的談話要素}ベースラインモデルではゼロ代名詞の照応先を文章中の談話要素から選択することとした.提案モデルでは,文章中の談話要素に加えて仮想的な談話要素として[著者],[読者],[不特定:人],[不特定:その他]を設定し,解析の際の述語項構造の列挙においては,格に対応付ける談話要素の候補としてこれらの仮想的な談話要素も考えることとする\footnote{[不特定:状況]は数が少ないため,[不特定:物]と[不特定:状況]を合わせて[不特定:その他]とした.}.そして,これらが対応付けられた格は外界ゼロ照応であるとする.例\ref{仮想的談話要素例}では,「説明します」のガ格が外界ゼロ照応で著者を照応しており,ニ格は外界ゼロ照応で読者を照応しているため,ガ格に[著者]を,ニ格に[読者]を対応付けた述語項構造として表現される.\ex.今日はお得なポイントカードについて\underline{説明します}。\label{仮想的談話要素例}著者・読者表現が文章中に出現する場合には,[著者]と[読者]の仮想的談話要素の扱いが問題となる.下記の例\ref{著者・読者表現あり}ではゼロ代名詞$\phi$の照応先は,著者表現である「私」とも[著者]とも考えられる.\ex.肩こりや腰痛で来院された患者さんに対し、\underline{私}$_{著者}$は脈を診ることにしています。\\それは心臓の状態を($\phi$ガ)診ているだけではなく、身体全体のバランスを($\phi$ガ)診たいからです。\label{著者・読者表現あり}本研究では,このような曖昧性を取り除くため,照応先としては[著者],[読者]より著者・読者表現を優先することする.解析の際,文章中に著者・読者表現が存在する場合には,[著者],[読者]の仮想的談話要素は照応先として対応付けないこととする.図\ref{述語項構造解析によるゼロ照応解析の概要}の「紹介します」に対して列挙される述語項構造の例を図\ref{提案手法における述語項構造の候補の例}に示す.この例では,【1-3】のガ格や【1-4】のガ格などに仮想的な談話要素が対応付けられている.また,「(a)僕」が著者表現にあたるので[著者]はどの格にも対応付けを行わない.\begin{figure}[t]\includegraphics{21-3ia1011f7.eps}\caption{提案手法における述語項構造の候補の例}\label{提案手法における述語項構造の候補の例}\end{figure}一方,著者・読者表現は外界の[著者]や[読者]と似た振る舞いを取ると考えられる\footnote{例えば著者表現と外界の著者は共に謙譲表現の主体になりやすいなど.}.そこで,著者・読者表現は他の談話要素と区別し,素性表現の際に[著者]や[読者]の性質を持つように素性を与える.詳細は\ref{素性による述語項構造の表現}節で示す.\subsection{素性による述語項構造の表現}\label{素性による述語項構造の表現}ベースラインモデルと同様に提案モデルでも述語項構造単位を素性で表現し,その構成もベースラインモデルと同様に$\phi(\mathit{cf},a,p,t)$は直接係り受けがある述語項構造に関する素性ベクトル$\phi_{\textit{overt-PAS}}\allowbreak(\mathit{cf},a_\mathit{overt},p,t)$とゼロ照応解析で対象となる格$c$に談話要素$e$が割り当てられることに関する素性ベクトル$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$からなる.ベースラインモデルと提案モデルの差は$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$のうち,$c$に談話要素$e$が割り当てられた場合の素性ベクトル$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$の構成である.ここでベースラインモデルでの$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$を$\phi'_{A}(\mathit{cf},c\leftarrowe,p,t)$とおく.この$\phi'_{A}(\mathit{cf},c\leftarrowe,p,t)$と同内容,同次元の素性ベクトルを文章中に出現した談話要素,外界の[著者],[読者]などと対応する形で複数並べることで$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$を構成する.具体的には以下のような形となる.\begin{align*}\phi_{A}(\mathit{cf},c\leftarrowe,p,t)=(&\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t),\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t),\\&\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t),\phi_{[不特定:人]}(\mathit{cf},c\leftarrowe,p,t),\\&\phi_{[不特定:その他]}(\mathit{cf},c\leftarrowe,p,t),\phi_\mathit{max}(\mathit{cf},c\leftarrowe,p,t))\end{align*}ここで,$\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t)$は$e$が文章中に出現した談話要素の場合のみに発火し,内容は$\phi'_{A}(\mathit{cf},c\leftarrowe,p,t)$と同内容とする.$\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t)$は$e$が外界の[著者],[読者]の場合または著者・読者表現に対応する談話要素の場合にのみ発火する.$\phi_{[不特定:人]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:その他]}(\mathit{cf},c\leftarrowe,p,t)$は$e$が外界の[不特定:人],[不特定:その他]の場合にのみ発火する.$\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:人]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:その他]}(\mathit{cf},c\leftarrowe,p,t)$は外界の談話要素に対応するため,表記やJUMANカテゴリといった情報を持たない.そこで,格フレーム素性で$e$の表記やJUMANカテゴリの情報を利用する場合には擬似的に表\ref{疑似表記,JUMANカテゴリ}の表記やJUMANカテゴリを利用する.最後の$\phi_\mathit{max}(\mathit{cf},c\leftarrowe,p,t)$は各素性において$\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:人]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:その他]}(\mathit{cf},c\leftarrowe,p,t)$で対応する素性の最大値を持つ素性ベクトルとする.\begin{table}[b]\caption{疑似表記,JUMANカテゴリ}\label{疑似表記,JUMANカテゴリ}\input{1011table11.txt}\end{table}このように素性を表現することで,著者・読者表現に対応する談話要素では$\phi_\mathit{mentioned}$および$\phi_{[著者]}$・$\phi_{[読者]}$が発火することになり,通常の談話要素と著者・読者としての両方の性質を持つこととなる.また,$\phi_\mathit{max}$は全ての要素に対して発火するため,$\phi_\mathit{max}$に対応する重みでは,ゼロ照応全体に影響する性質が学習されると考えられる.ここで,図\ref{提案手法における述語項構造の候補の例}の述語項構造候補【1-5】ついて各格の$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$の例を示す.\begin{align*}\phi_{A}(\mathit{cf},ガ\leftarrow(a)僕,p,t)&=(\phi_\mathit{mentioned}(\mathit{cf},ガ\leftarrow(a)僕,p,t),\phi_{[著者]}(\mathit{cf},ガ\leftarrow(a)僕,p,t),\\&\qquad{\bf0_{\phi_{[読者]}}},{\bf0_{\phi_{[不特定:人]}}},{\bf0_{\phi_{[不特定:その他]}}},\\&\qquad\mathit{max}(\phi_\mathit{mentioned}(\mathit{cf},ガ\leftarrow(a)僕,p,t),\phi_{[著者]}(\mathit{cf},ガ\leftarrow(a)僕,p,t)))\end{align*}まず,ガ格では「僕」は文章中に言及されているので,$\phi_\mathit{mentioned}(cf,ガ\leftarrow(a)僕,p,t)$が発火し,また著者表現に対応している談話要素なので$\phi_{[著者]}(\mathit{cf},ガ\leftarrow(a)僕,p,t)$も発火する.$\phi_{[読者]}(\mathit{cf},ガ\leftarrowe,p,t)$,$\phi_{[不特定:人]}(\mathit{cf},ガ\leftarrowe,p,t)$,$\phi_{[不特定:その他]}(\mathit{cf},ガ\leftarrowe,p,t)$は発火せず0ベクトルとなる.$\phi_\mathit{max}(\mathit{cf},ガ\leftarrowe,p,t)$は各要素において$\phi_\mathit{mentioned}(\mathit{cf},ガ\leftarrow(a)僕,p,t)$と$\phi_{[著者]}(cf,ガ\leftarrow(a)僕,p,t)$のうち大きい方の値が素性の値となる.\begin{align*}\phi_{A}(cf,ニ\leftarrow[読者],p,t)&=({\bf0_{\phi_\mathit{mentioned}}},{\bf0_{\phi_{[著者]}}},\\&\qquad\phi_{[読者]}(\mathit{cf},ニ\leftarrow[読者],p,t),{\bf0_{\phi_{[不特定:人]}}},\\&\qquad{\bf0_{\phi_{[不特定:その他]}}},\mathit{max}(\phi_{[読者]}(\mathit{cf},ニ\leftarrow[読者],p,t)))\end{align*}ニ格では文章中に言及されていない読者が対応付けられているので,$\phi_{[読者]}(\mathit{cf},ニ\leftarrow[読者],p,t)$のみが発火し,$\phi_\mathit{max}(\mathit{cf},ニ\leftarrow[読者],p,t)$は$\phi_{[読者]}(\mathit{cf},ニ\leftarrow[読者],p,t)$と同じ値となる.ヲ格は直接係り受けのある「ラーメン屋」と対応付けられているので,ベースラインモデルと同様に素性として考えず,$\phi_{A}(\mathit{cf},ヲ\leftarrowe,p,t)$,$\phi_\mathit{NA}(\mathit{cf},ヲ\leftarrow×,p,t)$ともに0ベクトルとなる.ガ2格は談話要素に対応付けられていないので,ベースラインモデルと同様に$\phi_\mathit{NA}(\mathit{cf},ガ2\leftarrow\linebreak×,p,t)$が発火し,$\phi_{A}(\mathit{cf},ガ2\leftarrowe,p,t)$は0ベクトルとなる.\subsection{使用する素性}提案モデルでは\ref{述語項構造を表現する素性}節で述べたものに加えて,著者表現,読者表現推定スコアを素性として利用する.著者表現,読者表現推定スコアは\ref{135602_6May13}節で著者・読者表現を推定した際のランキング学習の識別関数のスコアである.著者表現推定スコアは$e$が著者表現の場合に$\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t)$と$\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t)$に,読者表現推定スコアは$e$が読者表現の場合に$\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t)$と$\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t)$に素性として導入する.
\section{実験}
\label{115121_18Jun13}\subsection{実験設定}実験ではDDLCの1,000文書を利用し,5分割交差検定により評価を行った.述語項構造解析および著者・読者表現推定以外の解析結果が原因となる解析誤りを除くため,形態素情報,係り受け情報,固有表現情報,共参照関係はコーパスに人手で付与された正しい情報を利用する.著者・読者表現推定および述語項構造のランキング学習には$\mathit{SVM}^\mathit{rank}$\footnote{http://www.cs.cornell.edu/people/tj/svm\_light/svm\_rank.html}を用いた.\subsection{著者・読者表現推定実験結果と考察}\begin{table}[b]\caption{著者・読者表現推定結果}\label{著者・読者推定結果}\input{1011table12.txt}\end{table}DDLCに対して,著者表現および読者表現を推定した結果を表\ref{著者・読者推定結果}に示す.ここで,著者表現と読者表現は独立に推定しているため,評価も独立して行った.著者・読者表現はそれぞれ各文書で最大1つと仮定されているため,著者・読者表現推定は文書ごとの多値分類問題といえる.そのため評価は文書単位で行い,以下のような数式で求めた.\pagebreak\begin{gather*}適合率=\frac{システムが著者・読者表現を正しく推定できた文書数}{システムが著者・読者表現ありと推定した文書数}\\[0.5zw]再現率=\frac{システムが著者・読者表現を正しく推定できた文書数}{コーパスに著者・読者表現が付与されている文書数}\\[0.5zw]F値=\frac{2\times適合率\times再現率}{適合率+再現率}\\[0.5zw]精度=\frac{システムが著者・読者表現を正しく推定or著者・読者表現なし推定できた文書数}{全文書数}\end{gather*}この結果より,著者・読者表現なしを含めた精度では,著者において0.829,読者において0.936と高い精度を達成できた.一方,再現率はあまり高くなく,著者表現で0.509,読者表現で0.595であった.これはコーパス全体で著者・読者表現が出現文書より著者・読者表現のない文書の方が多く,学習時に著者・読者表現なしを優先するように学習してしまったためと考えられる.読者において適合率が低いが,これは読者の一部のみを想定した表現を読者表現と推定してしまうことが多かったためと考えられる.\begin{figure}[b]\includegraphics{21-3ia1011f8.eps}\caption{著者推定誤り例1}\label{著者推定誤り例1}\end{figure}図\ref{著者推定誤り例1},図\ref{著者推定誤り例2},図\ref{読者推定誤り例1}に誤り例を示す.図\ref{著者推定誤り例1}では,コーパスでは著者表現が出現しないが誤って「山形県山上市」を著者表現と推測してしまった.著者表現では固有表現は大きな手掛かりとなり,特に1文目に出現する固有表現は著者表現となる傾向が強い.また,文体的に談話構造中に著者が出現するような表現が多用されている.そのため誤って「山形県山上市」を著者表現と推測してしまったと考えられる.図\ref{著者推定誤り例2}では,コーパスでは「ジュエリー工房」が著者表現だが,著者表現なしと推定してしまった.この例では「ジュエリー工房」を表現する語彙統語パターンとして利用する部分は,「ジュエリー工房だから」「実現します。」のみであり,手掛かりが少ない.また,「ジュエリー工房」は固有表現でないことも著者表現であると推定することが困難な原因である.\begin{figure}[t]\includegraphics{21-3ia1011f9.eps}\caption{著者推定誤り例2}\label{著者推定誤り例2}\end{figure}\begin{figure}[t]\includegraphics{21-3ia1011f10.eps}\caption{読者推定誤り例1}\label{読者推定誤り例1}\end{figure}図\ref{読者推定誤り例1}では,コーパスでは読者表現は出現しないが誤って「お客様」を読者表現と推測してしまった.この例では,文中の「お客様」は読者ではなく過去に質問をした人を指している.このような場合でも,「様」や「頂きます」のような敬語表現を用いることが多い.これらの表現は読者に対しても頻繁に利用されるため,これらの表現が用いられている「お客様」を著者表現と推定してしまったと考えられる.\subsection{ゼロ照応解析結果と考察}DDLCに対してゼロ照応解析を行った.ベースラインは\ref{114838_18Jun13}節で述べた外界ゼロ照応および著者・読者表現を考慮しないモデルである.提案モデルは\ref{115042_18Jun13}節で述べたモデルである.「提案モデル(推定)」は\ref{135602_6May13}節で述べた手法により自動推定した著者・読者表現を利用したものである.「提案モデル(正解)」は著者・読者表現についてはコーパスの正解を与えたものである.評価は各用言の各格ごとに行い,ある格に複数の正解が付与されている場合は,そのうちの1つと一致すれば正解とした.また,先に述べたように,著者・読者表現がある場合には[著者]・[読者]より著者・読者表現を照応先として優先するとしたが,提案モデル(推定)において,著者・読者表現がある文書に対して著者・読者表現なし,と推定してしまった場合,本来著者・読者表現があるにも関わらず,[著者]・[読者]を割り当てる場合がある.ここでは,ベースラインとの比較のため,このようなものは誤りとして扱った.表\ref{文章内ゼロ照応解析結果}はベースラインとの比較のために,文章内ゼロ照応のみで評価した結果であり,表\ref{全ゼロ照応解析結果}は外界ゼロ照応を含めた全てのゼロ照応で評価を行った結果である.\begin{table}[b]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果}\label{文章内ゼロ照応解析結果}\input{1011table13.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果}\label{全ゼロ照応解析結果}\input{1011table14.txt}\end{minipage}\end{table}\begin{figure}[b]\includegraphics{21-3ia1011f11.eps}\caption{提案モデルによりゼロ照応解析が改善した例1}\label{提案モデルによりゼロ照応解析が改善した例}\end{figure}この結果から,ゼロ照応解析において外界ゼロ照応および著者・読者表現を考慮することで,外界を含めたゼロ照応全体だけでなく,照応先が文章内に出現する文章内ゼロ照応においても再現率・適合率が向上することが分かる.文章内ゼロ照応での評価において,提案モデルは推定した著者・読者表現を利用した場合において,ベースラインのモデルよりも適合率,再現率ともに向上していることが分かる.適合率が向上している原因としては,必須的な格を埋める際に,無理に文章内から選択せず外界の談話要素を選択することができること,敬語などの表現の際に著者表現や読者表現を照応先として選択できることが考えられる.例えば,図\ref{提案モデルによりゼロ照応解析が改善した例}では,ガ格ではベースラインでは「あなた」を対応付けているが,提案モデルでは[著者]を対応付けることで文章内照応に限っても再現率・適合率が向上している.また,敬語表現に対してニ格を読者表現の「あなた」を正しく対応付けることができるようになった.再現率が向上する原因としては,ベースラインモデルでは学習の際に外界照応をゼロ代名詞なしと学習してしまうため,必須的な格でも必ずしも対応付ける必要がないと学習してしまうが,提案手法では必須的な格はなるべく埋めるように学習するためである.例えば図\ref{提案モデルによりゼロ照応解析が改善した例2}では,ベースラインモデルでは必須的な格であるガ格に何も対応付けていない.一方,提案手法ではガ格に対して「神さま」を対応付けることができた.正解の著者・読者表現を与えた場合には,再現率,適合率ともに大きく向上している.このことから著者・読者表現の推定精度を向上させることで,ゼロ照応解析の再現率・適合率がより向上すると考えられる.\begin{figure}[b]\includegraphics{21-3ia1011f12.eps}\caption{提案モデルによりゼロ照応解析が改善した例2}\label{提案モデルによりゼロ照応解析が改善した例2}\end{figure}\begin{table}[b]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果(ガ格)}\label{文章内ゼロ照応解析結果(ガ格)}\input{1011table15.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果(ガ格)}\label{全ゼロ照応解析結果(ガ格)}\input{1011table16.txt}\end{minipage}\end{table}\begin{table}[t]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果(ヲ格)}\label{文章内ゼロ照応解析結果(ヲ格)}\input{1011table17.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果(ヲ格)}\label{全ゼロ照応解析結果(ヲ格)}\input{1011table18.txt}\end{minipage}\end{table}\begin{table}[t]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果(ニ格)}\label{文章内ゼロ照応解析結果(ニ格)}\input{1011table19.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果(ニ格)}\label{全ゼロ照応解析結果(ニ格)}\input{1011table20.txt}\end{minipage}\end{table}\begin{table}[t]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果(ガ2格)}\label{文章内ゼロ照応解析結果(ガ2格)}\input{1011table21.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果(ガ2格)}\label{全ゼロ照応解析結果(ガ2格)}\input{1011table22.txt}\end{minipage}\end{table}格ごとに評価を行った結果を表\ref{文章内ゼロ照応解析結果(ガ格)},表\ref{全ゼロ照応解析結果(ガ格)},表\ref{文章内ゼロ照応解析結果(ヲ格)},表\ref{全ゼロ照応解析結果(ヲ格)},表\ref{文章内ゼロ照応解析結果(ニ格)},表\ref{全ゼロ照応解析結果(ニ格)},表\ref{文章内ゼロ照応解析結果(ガ2格)},表\ref{全ゼロ照応解析結果(ガ2格)}に示す.表\ref{文章内ゼロ照応解析結果(ガ格)},表\ref{全ゼロ照応解析結果(ガ格)}から,ガ格において特に提案手法により再現率,適合率が共に向上したことが分かる.これは,ガ格では特に著者に関するゼロ照応が多いこと,外界ゼロ照応を考慮することでほぼ全てのガ格がゼロ代名詞を持つことが原因と考えられる.表\ref{文章内ゼロ照応解析結果(ニ格)},表\ref{全ゼロ照応解析結果(ニ格)}から,ニ格においても提案手法により再現率,適合率が共に向上したことが分かる.特に適合率が大きく向上しており,これはニ格は用言の受け手(「紹介します」のニ格など)となることや謙譲語の敬意を示す対象(「お届けします」)となることが多く,読者の情報が照応先推定に大きく寄与したためと考えられる.一方,表\ref{文章内ゼロ照応解析結果(ヲ格)},表\ref{全ゼロ照応解析結果(ヲ格)}から,ヲ格では適合率が向上しているものの,再現率が低下していることが分かる.ヲ格は著者・読者に関するゼロ照応が少なく,外界ゼロ照応の割合も少ないことから提案手法が有効に働かなかったものと考えられる.適合率が向上し,再現率が低下した要因としては格フレームの選択誤りが考えられる.格フレームの用例選択においては特にヲ格が重要な役割を持っており,ヲ格が省略された場合には正しい格フレームを選択することが困難となる.特に他の格が外界ゼロ照応となる場合には,ベースライン手法では他の格の割り当てを考慮せずに,照応先候補の中にヲ格として対応するものが存在する格フレームを選択することが多い.この場合,格フレームとしてはヲ格に対応付けられることが妥当であるが,文脈的には正しくないものも含まれるので,再現率は高くなるが適合率が低くなると考えられる.一方,外界ゼロ照応を考える場合には,ガ格が格フレームに適合するかを考慮する必要があるため,述語項構造全体として適切な格フレームを選択できない場合がある.その場合には,ヲ格には適切な照応先がないと判断されてしまうので,再現率が低下していると考えられる.表\ref{文章内ゼロ照応解析結果(ガ2格)},表\ref{全ゼロ照応解析結果(ガ2格)}からガ2格はベースライン,提案手法ともにほぼ推定できていないことが分かる.これは,ガ2格のゼロ照応での出現が非常に少なく学習時にガ2格を割り当てる必要がないと判断されることと,ガ2格を持つ格フレームが少ないことが原因である.\begin{figure}[b]\vspace{-0.5\Cvs}\includegraphics{21-3ia1011f13.eps}\caption{提案モデルの誤り例1}\label{提案モデルの誤り例1}\end{figure}\begin{figure}[b]\includegraphics{21-3ia1011f14.eps}\caption{提案モデルの誤り例2}\label{提案モデルの誤り例2}\vspace{-0.5\Cvs}\end{figure}提案手法で誤った例を図\ref{提案モデルの誤り例1}と図\ref{提案モデルの誤り例2}に示す.図\ref{提案モデルの誤り例1}では,提案手法は「捻出しなければならない」のガ格に[不特定:人]を対応付けてしまった.\pagebreakこれは,「提出する」の格フレームではガ格に「国」を対応付ける用例が少なかったため,「国」ではなく外界の[不特定:人]を対応付けることを選択してしまったためである.\begin{table}[t]\caption{正解の条件を緩めて評価した結果}\label{緩和評価}\input{1011table23.txt}\end{table}図\ref{提案モデルの誤り例2}は著者表現の推定誤りがゼロ照応解析の誤りの原因である.この文章では著者表現が「領事館」であるため,「開設しました」のガ格には「領事館」を対応付けなければならない.しかし,提案手法では誤って著者表現なしと推定してしまったため,「領事館」を対応付けることができず,[著者]を対応付けてしまった.しかし,このような誤りは著者がガ格であるということは推定できているため厳密には誤りとは言えない.そこで,このような著者・読者表現を対応付けるべき格に対して[著者],[読者]を対応付けてしまった場合にも正解とみなして評価を行った結果を表\ref{緩和評価}に示す.表\ref{緩和評価}と表\ref{文章内ゼロ照応解析結果}および表\ref{全ゼロ照応解析結果}を比較すると,正解の条件を緩めた場合に再現率,適合率共に大きく向上している.このことから,提案モデル(推定)の誤りの多くが図\ref{提案モデルの誤り例2}のように著者・読者表現の推定が誤りといえる.一方,正解の条件を緩和させた場合でも提案モデル(コーパス著者・読者表現)よりは低い再現率と適合率となっている.これらの差は,解析時に正しい著者・読者表現を利用できる場合には$\phi_\mathit{mentioned}$および$\phi_{[著者]}$または$\phi_{[読者]}$を素性として利用しているが,解析後に著者・読者表現の情報から[著者],[読者]を正解とする場合には,解析時には$\phi_{[著者]}$,$\phi_{[読者]}$のみを利用していることである.このことから,提案手法のように著者・読者表現に対して文章中に言及される談話要素と仮想的な談話要素の両方の性質を与えることが有効といえる.\subsection{京都大学テキストコーパスでの実験}DDLCは先頭3文のみで構成されており,文章全体でゼロ照応解析を行った場合の影響が調査できない.そこで,文章全体での本手法の精度を調査するために京都大学テキストコーパスを利用した実験を行った.実験では京都大学テキストコーパスのゼロ照応関係が付与された567文書のうち,454文書を訓練に,113文書を評価に利用した.京都大学テキストコーパスには著者・読者表現が付与されていないため,全ての文書において著者・読者表現が存在しないと仮定して実験を行った.その結果を表\ref{京都大学テキスココーパスにおける文章内ゼロ照応解析結果}と表\ref{京都大学テキストコーパスにおける全ゼロ照応解析結果}に示す.この結果から,提案モデルはベースラインモデルに比べ大きくF値が向上したとは言い難い.これは,京都大学テキストコーパスを構成している新聞記事は,著者・読者が談話に登場することが稀であることが大きな原因である.提案手法では,特に著者・読者に着目しており,そのために外界ゼロ照応を扱ったが,著者・読者が談話に出現しない場合,外界ゼロ照応を扱うことの寄与度は低いことが分かる.\linebreak一方,文章全体におけるF値がベースラインとほぼ同等であり,提案手法を文章全体適用した場合についても,悪影響などはないと言える.これらの考察から,提案手法を著者・読者が談話に出現する文章の全体に対して適用した場合,先頭3文における実験結果と同様に精度が向上するものと考えられる.\vspace{-0.3\Cvs}\begin{table}[t]\setlength{\captionwidth}{200pt}\begin{minipage}{200pt}\hangcaption{京都大学テキストコーパスにおける文章内ゼロ照応解析結果}\label{京都大学テキスココーパスにおける文章内ゼロ照応解析結果}\input{1011table24.txt}\end{minipage}\hfill\begin{minipage}{200pt}\hangcaption{京都大学テキストコーパスにおける全ゼロ照応解析結果}\label{京都大学テキストコーパスにおける全ゼロ照応解析結果}\input{1011table25.txt}\end{minipage}\end{table}
\section{まとめ}
\label{115208_18Jun13}\vspace{-0.2\Cvs}本論文では,外界ゼロ照応および著者・読者表現を考慮した日本語ゼロ照応解析モデルを提案した.ゼロ照応解析の前処理として文章中の著者・読者表現を語彙統語パターンを用いて自動的に判別し,ゼロ照応解析において他の談話要素と区別して扱った.DDLCを用いた実験の結果,外界ゼロ照応だけでなく,文章内ゼロ照応においても提案手法を用いることで,高い精度が得られた.今後の課題としては,著者・読者表現の精度向上が挙げられる.本研究では,テキストの内容のみから著者・読者表現推定を行ったが,実際の解析ではWeb特有の情報(URLやHTMLタグ)が利用できる.これらの情報は,URLのドメインに含まれる表現は著者表現である可能性が高い,.comドメインでは客が読者表現になりやすい,など,著者・読者表現推定において有用であると考えれられる.ゼロ照応解析の精度向上では,事態間関係知識の利用などが考えられる.例えば,「Aを食べた$\leftarrow$Aが美味しかった」といった関係が分かっていれば,「チョコを食べたが(チョコガ)美味しかった」の「美味しかった」のゼロ照応解析で手掛かりになると考えられる.\vspace{-0.5\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Gerber\BBA\Chai}{Gerber\BBA\Chai}{2010}]{gerber-chai:2010:ACL}Gerber,M.\BBACOMMA\\BBA\Chai,J.\BBOP2010\BBCP.\newblock\BBOQBeyondNomBank:AStudyofImplicitArgumentsforNominalPredicates.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1583--1592},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hangyo,Kawahara,\BBA\Kurohashi}{Hangyoet~al.}{2012}]{hangyo-kawahara-kurohashi:2012:PACLIC}Hangyo,M.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2012\BBCP.\newblock\BBOQBuildingaDiverseDocumentLeadsCorpusAnnotatedwithSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe26thPacificAsiaConferenceonLanguage,Information,andComputation},\mbox{\BPGS\535--544},Bali,Indonesia.FacultyofComputerScience,UniversitasIndonesia.\bibitem[\protect\BCAY{Hayashibe,Komachi,\BBA\Matsumoto}{Hayashibeet~al.}{2011}]{hayashibe-komachi-matsumoto:2011:IJCNLP-2011}Hayashibe,Y.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQJapanesePredicateArgumentStructureAnalysisExploitingArgumentPositionandType.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\201--209},ChiangMai,Thailand.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Herbrich,Graepel,Bollmann-Sdorra,\BBA\Obermayer}{Herbrichet~al.}{1998}]{herbrich1998learning}Herbrich,R.,Graepel,T.,Bollmann-Sdorra,P.,\BBA\Obermayer,K.\BBOP1998\BBCP.\newblock\BBOQLearningPreferenceRelationsforInformationRetrieval.\BBCQ\\newblockIn{\BemICML-98Workshop:TextCategorizationandMachineLearning},\mbox{\BPGS\80--84}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida-inui-matsumoto:2006:COLACL}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingSyntacticPatternsasCluesinZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\625--632},Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2009}]{iida-inui-matsumoto:2009:ACLIJCNLP}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQCapturingSaliencewithaTrainableCacheModelforZero-anaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\647--655},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida-EtAl:2007:LAW}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop},\mbox{\BPGS\132--139},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura-saito-izumi:2009:Short}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},\mbox{\BPGS\85--88},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{磯崎\JBA賀沢\JBA平尾}{磯崎\Jetal}{2006}]{磯崎秀樹:2006-07-15}磯崎秀樹\JBA賀沢秀人\JBA平尾努\BBOP2006\BBCP.\newblock辞書式順序を持つペナルティによるゼロ代名詞解消.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(7),\mbox{\BPGS\2279--2294}.\bibitem[\protect\BCAY{Joachims}{Joachims}{2002}]{joachims2002optimizing}Joachims,T.\BBOP2002\BBCP.\newblock\BBOQOptimizingSearchEnginesusingClickthroughData.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\133--142}.ACM.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2007}]{河原大輔:2007-07-10}河原大輔\JBA黒橋禎夫\BBOP2007\BBCP.\newblock自動構築した大規模格フレームに基づく構文・格解析の統合的確率モデル.\\newblock\Jem{自然言語処理},{\Bbf14}(4),\mbox{\BPGS\67--81}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara-kurohashi:2006:HLT-NAACL06-Main}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\176--183},NewYorkCity,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hasida}{Kawaharaet~al.}{2002}]{KTC}Kawahara,D.,Kurohashi,S.,\BBA\Hasida,K.\BBOP2002\BBCP.\newblock\BBOQConstructionofaJapaneseRelevance-taggedCorpus.\BBCQ\\newblockIn{\BemProceedingsofThe3rdInternationalConferenceonLanguageResourcesEvaluation}.\bibitem[\protect\BCAY{Kong\BBA\Zhou}{Kong\BBA\Zhou}{2010}]{kong-zhou:2010:EMNLP}Kong,F.\BBACOMMA\\BBA\Zhou,G.\BBOP2010\BBCP.\newblock\BBOQATreeKernel-BasedUnifiedFrameworkforChineseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\882--891},Cambridge,MA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{村田\JBA長尾}{村田\JBA長尾}{1997}]{199787}村田真樹\JBA長尾真\BBOP1997\BBCP.\newblock用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定.\\newblock\Jem{自然言語処理},{\Bbf4}(1),\mbox{\BPGS\87--109}.\bibitem[\protect\BCAY{Poesio,Uryupina,\BBA\Versley}{Poesioet~al.}{2010}]{poesio2010creating}Poesio,M.,Uryupina,O.,\BBA\Versley,Y.\BBOP2010\BBCP.\newblock\BBOQCreatingaCoreferenceResolutionSystemforItalian.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonInternationalLanguageResourcesandEvaluation(LREC'10)},Valletta,Malta.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Rello,Baeza-Yates,\BBA\Mitkov}{Relloet~al.}{2012}]{rello2012elliphant}Rello,L.,Baeza-Yates,R.,\BBA\Mitkov,R.\BBOP2012\BBCP.\newblock\BBOQElliphant:ImprovedAutomaticDetectionofZeroSubjectsandImpersonalConstructionsinSpanish.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\706--715}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ruppenhofer,Sporleder,Morante,Baker,\BBA\Palmer}{Ruppenhoferet~al.}{2010}]{ruppenhofer-EtAl:2010:SemEval}Ruppenhofer,J.,Sporleder,C.,Morante,R.,Baker,C.,\BBA\Palmer,M.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task10:LinkingEventsandTheirParticipantsinDiscourse.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\45--50},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2008}]{sasano-kawahara-kurohashi:2008:PAPERS}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(Coling2008)},\mbox{\BPGS\769--776},Manchester,UK.Coling2008OrganizingCommittee.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2011}]{sasano-kurohashi:2011:IJCNLP-2011}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2011\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseZeroAnaphoraResolutionwithLarge-scaleLexicalizedCaseFrames.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\758--766},ChiangMai,Thailand.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{平\JBA永田}{平\JBA永田}{2013}]{平2013}平博順\JBA永田昌明\BBOP2013\BBCP.\newblock述語項構造解析を伴った日本語省略解析の検討.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\106--109}.\bibitem[\protect\BCAY{山本\JBA隅田}{山本\JBA隅田}{1999}]{山本和英:1999}山本和英\JBA隅田英一郎\BBOP1999\BBCP.\newblock決定木学習による日本語対話文の格要素省略補完.\\newblock\Jem{自然言語処理},{\Bbf6}(1),\mbox{\BPGS\3--28}.\end{thebibliography}\begin{biography}\bioauthor{萩行正嗣}{2008年京都大学工学部電気電子工学科卒業.2010年同大学大学院情報学研究科修士課程修了.2014年同大学院博士後期課程修了.博士(情報学).現在,株式会社ウェザーニューズ所属.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞等を受賞.}\end{biography}\biodate\end{document}
| |
V15N01-02
|
\section{はじめに}
手話はろう者の間で生まれ広がった自然言語であり,ろう者にとっての第一言語である\cite{Yonekawa2002}.そのため手話による情報アクセスやサービスの提供はろう者の社会参加にとって重要であるが,手話通訳者は不足しており,病院や職場,学校などで手話通訳を必要とする人々に十分な通訳サービスが提供されているとはいえない.これらを支援するシステムの実現が期待されている.音声言語では機械翻訳をはじめとして,言語活動を支援するさまざまの自然言語処理技術が研究開発されている.ところが,手話はこれまで自然言語処理の領域では研究対象としてほとんど取り上げられていない.手話には広く一般に受け入れられた文字による表現(テキスト表現)が存在しないため,これまでのテキストを対象とした自然言語処理技術が手話に対して適用できないことがその要因としてあげられる.そこで我々は,手話言語をテキストとして書き留める方法について検討し,「日本語援用手話表記法」を提案した\cite{Matsumoto2006,Matsumoto2005c,Ikeda2006,Matsumoto2004a,Matsumoto2004b,Matsumoto2005a,Matsumoto2005b}.本論文では,この表記法で表現された手話を目的言語とする日本語—手話機械翻訳システムについて述べる.手話テキストから手話動画像等への変換(音声言語におけるテキスト音声合成に相当する)もまた大きな課題であるが,本論文ではこの課題は扱わない.手話のテキスト表現を導入したことにより,手話テキストから手話動画像等への変換を,テキスト音声合成の問題と同じように,本研究とは別の一つの大きな問題領域としてとらえることができる.このように音声言語の翻訳の場合と同じように翻訳過程を二つの領域にモジュール化することによって,手話の翻訳の問題が過度に複雑になることを避けることができる.\nocite{Matsumoto2005a,Matsumoto2005b,Matsumoto2004a,Matsumoto2004b}\ref{sec:JSL}節で述べるように日本の手話には日本手話と日本語対応手話および中間型手話がある.これらの間には必ずしも明確な境界があるわけではないが,本論文で対象として念頭に置いているのは日本手話である.日本手話は日本語の影響を強く受けているものの,日本語とは別の言語である.語彙は日本語と1対1に対応しておらず,文法的にも独自の体系を持っている.例えば,日本語において内容語に後置される機能語や前置される修飾語が,手話では独立した単語としてではなく,内容語を表す手の動きや位置の変化(内容語の語形変化),顔の表情などによって表現される場合がある.また,動詞の主語・目的語・道具などの内容語も,動詞を表す手の形や動きの変化として動詞の中に組み込まれる場合がある.したがって,日本手話への翻訳は単に日本語の単語を手話単語に置き換えるだけでは不十分であり,外国語への翻訳と同等の仕組みが必要となる.本研究では,日本語から種々の言語への翻訳を目的として開発が進められているパターン変換型機械翻訳エンジンjaw\cite{Shie2004}を核とし,手話に対する計算機内部での表現構造,日本語から手話表現構造への翻訳規則,表現構造から手話テキストへの線状化関数を与えることにより,日本語から手話への機械翻訳システムjaw/SLの作成を試みた.以下,2節では目的言語である手話と,我々が定義した手話表記法の概略を述べる.3節で機械翻訳エンジンjawの翻訳方式について,4節で手話を目的言語とした翻訳システムjaw/SLについて述べ,5節で翻訳実験と現状の問題点について述べる.
\section{手話とそのテキスト表現}
\subsection{手話について}\label{sec:JSL}手話は手の形,位置,動き,顔の表情など複数の要素を組み合わせて意味を伝達する言語である.各要素をパラメータのように変化させることによっても様々な意味が表現される.身体だけでなく,話者の周りの空間も文法的に利用される.日本手話は日本のろう者の間で使われている手話言語である.手話通訳に期待される事柄についての調査\cite{Shirasawa2002}において,「頭の中で日本語を考えなくてもよく,手話として自然に頭に入ってくること」,「(日本語の)口話に頼らなくても十分に内容が伝わってくること」,「日本語の口形は日本語借用部分でのみ用い,それ以外では手話口形を用いること」などがあげられていることからも,日本語とは異なる体系を持つ言語であることがうかがえる.日本手話のほかに,日本で一般に手話と呼ばれるものに「日本語対応手話」がある.これにはさまざまな考え方があり,定義は一つではないが,多くの場合,日本手話が日本語とは異なる別の体系を持つ手話言語(手話を第一言語とするろう者同士が日常使う手話)をさすのに対し,日本語対応手話は,手話単語を使用してはいるが,文法や語彙などが日本語的な表現になっているものをさす\cite{Yonekawa2004}.日本語の語順に手話単語を並べただけのものから,手話的な表現を部分的に取り入れたものまで幅がある.両者が入り混じったものは中間型手話とも呼ばれる.一般に日本語を話しながら表現され,手話独自の口型や表情は省かれる.本研究では日本手話を目的言語とするが,手話には地域差や,世代・集団(ろう学校/普通学校)・失聴時期・日本語能力などによる個人差が見られ,今のところ標準日本手話というものも存在しない\cite{Nakamura2002,Inaba1998}.同じ話者(ろう者)が,聞き手に応じて無意識に手話を切り替える場合もある.我々は日本手話を対象とした文献や教材・ビデオ映像から翻訳規則を取得した.手話文はいずれも日本語の口話を伴わないものだが,その中にも日本語的な表現が混ざっている可能性はある.我々が取り上げた個々の手話文が厳密な意味での日本手話であるか否かという点についてはあるいは議論があるかもしれないが,我々はその点にはあまりこだわらず,本論文ではおおよその分類として日本手話という呼び方を用いている.与えられた日本語文とその手話訳によって,システムに組み込まれる翻訳規則は変化するが,同じ機械翻訳の枠組みの中で対処できるものと考える.\subsection{日本語援用手話表記法}\label{sec:notation}ここでは機械翻訳結果として出力される日本手話の文を,テキストとして表現するのに用いる手話表記法の概略を述べる.詳しくは文献\cite{Matsumoto2006}を参照されたい.従来の手話表記法\cite{Prillwitz2004,Sutton2002,Ichikawa2001}は,その多くが音声言語における発音記号のように手話の動作を記述するものであり,翻訳の問題と動作合成の問題とを分離するという目的には適していない.本表記法では個々の手話単語の動作の詳細よりも,動作によって表される語彙内容や文法的な機能の記述に重点を置いた.それによって,動作の詳細に立ち入らずに手話を言語として処理するのに適した表現方法となった.機械翻訳のための内部的な中間表現ということではなく,音声言語のテキストと同様,手話文をテキストの形で書き留め,利用することを念頭に置いている.日本語から手話への機械翻訳の研究には,徳田・奥村(1998)\nocite{Tokuda1998}や黒川ら\cite{Fujishige1997,Hirata2003,Ikeda2003,Miyashita2004}の研究がある.いずれも手話表記法を定義して翻訳に利用しているが,日本語の口話を伴い,基本的に日本語と同じ語順で表現される日本語対応手話/中間型手話を対象としているため,これらをそのまま日本手話の記述に用いるには記述能力の点で問題があった\cite{Matsumoto2006}.また,後者\cite{Ikeda2003}では手話画像生成のために有効な形式として手話表記法が導入されているが,入力日本語文の解析結果を部分的に含んだ中間表現的なものであり,手話言語に対するテキスト表現というものではなかった.今のところ,日本手話を目的言語とした機械翻訳の研究は見あたらない.日本手話では顔の表情や頭の動きなどの非手指要素が,文法標識などの言語的に重要な役割を果たしている.本研究では,非手指要素や単語の語形変化によって表される語彙的・文法的な情報もテキストとして表現できるような表記法を定義することによって,これらの要素を翻訳結果として出力できるようにした.\subsubsection{手話単語}手話単語は手話単語名と語形変化パラメータにより,次のように記述する\footnote{手話単語の表記は拡張BNFを用いてやや詳しく記述すると以下のようになる.\\\begin{minipage}{1.0\linewidth}\begin{tabbing}\qquad\qquad手話\=単語::=手話単語名[``\texttt{[}''手形``\texttt{]}''][``\texttt{(}''[空間][``\texttt{;}''修飾]``\texttt{)}'']\\\>空間::=位置$\mid$方向\\\>方向::=([位置]``→''位置)$\mid$(位置``→''[位置])\\\>位置::=``1''$\mid$``2''$\mid$``3''$\mid$``4''$\mid$``x''$\mid$``y''$\mid$``R''$\mid$``L''$\mid$``C''$\mid$$\cdots$\end{tabbing}\end{minipage}}.\vspace{-0.5\baselineskip}\begin{format}\texttt{手話単語名[手形](空間;修飾)}\end{format}\vspace{-0.5\baselineskip}手話単語名は手話単語を識別するための識別子である.便宜上その単語の意味に近い日本語の語句\footnote{現在は基本的に『日本語—手話辞典』\cite{JISLS1997}のイラスト名を単語名として利用している.そこにない単語やあまり一般的でない名前については一般的と思われる名前を使っている.}を単語名として用いるが,日本語と手話の語彙は1対1に対応していないため,単語名と単語の意味とが一致しない場合もある.語形変化パラメータには,その単語の基本形(辞書形)からの変化によって表される付加的な語彙的・文法的情報を,「手形」「空間」「修飾」の各要素に分けて記述する.手形パラメータには手の形による数詞等の情報,空間パラメータには単語が表現される空間上の位置や動詞の方向によって表される人称や格関係,修飾パラメータには動作の強弱・大小・緩急・反復などによって表される修飾内容を記述する.修飾パラメータにも日本語の語句を援用している.なお,基本形から変化しない要素については記述を省略する.以下に表記例を示す\footnote{空間パラメータに現れる文字`1',`2',`$x$'は,空間上の位置を表すと同時に,人称を表している(`1'は1人称,`2'は2人称,それ以外の`3',`4',`$x$',`$y$',`$L$','$R$'などは3人称).人称と位置,格関係等については\ref{sec:param}節で述べる.\\なお,手形パラメータに現れる`1',`2',`3'などの数字は人称ではなくその数を示す手話単語(の手形)を表す.}.\begin{ex}(1)\>\texttt{人[3]}\>;3人(手話単語〈3〉の手形で〈人〉を表現)\\(2)\>{\tt話す(2→1)}\>;あなたが私に言う(動詞の方向(=格関係)の表示)\\(3)\>\texttt{友達($x$)もらう($x$→1)}\=;友達からもらう(名詞の位置と動詞の始点の一致)\\(4)\>{\tt過去(;とても)}\>;ずっと前(〈過去〉の強調)\end{ex}\subsubsection{単語の合成}単語の合成は,単語の逐次的な合成(複合語),左右の手で異なる単語を同時に表現する同時的な合成,1つの単語を表現した後,片手をそのまま残して,他方の手で別の単語を表現する半同時的な合成の3つに分けて,それぞれ以下のように記述する.\begin{ex}\noindent(5)\>手話—サークル\>;手話サークル(逐次的合成)\\(6)\>電話\verb+|+仕事\>;電話しながら仕事をする(同時的合成)\\(7)\>家($x$)/帰る(→$x$)\>;家に帰る(半同時的合成)\end{ex}\subsubsection{非手指要素と句読点}手話では顔の表情や頭の動きなどの非手指要素が,文法的にも重要な機能を持つことが知られている.単語の並びが同じでも,平叙文と疑問文では非手指要素が異なるため,実際の会話では区別ができる.木村・市田(1995)\nocite{Kimura1995}は,日本手話における疑問文,話題化,条件節,同意を求める表現などの非手指動作について述べており,例えば話題化では,話題化される語句に眉上げとあご引きの動作が伴うとしている.このような非手指文法標識についても,その機能をテキストとして明示的に記述する.次の表記は,単語列に非手指要素{\itNMS}が伴うことを表す.\begin{format}\textrm{\{$<${\itNMS}$>$単語列\}}\end{format}\textit{NMS}の部分には,\texttt{t}(話題化),\texttt{cond}(条件節),\texttt{cleft}(分裂文)など,\pagebreak非手指要素による文法標識を表す文字列を指定する.ただし,疑問文を表す非手指要素は文末の記号「?」で表す.このほか,通常の文末は「。」,文法的な区切りは「\texttt{,}」「\texttt{;}」で表す.これらは動作的には,うなずきや瞬き,時間的な間合いによって表される.\begin{ex}(8)\>\tt\textrm{\{}$<$t$>$私家族\textrm{\}}人[4]。\>;私の家族は4人です.\end{ex}また,助動詞には「\texttt{\~{}}」を前置する.手話の助動詞のほとんどが内容語としての用法を併せ持っているため,この記号により助動詞的用法であることを明示する.\begin{ex}(9)\>\texttt{行く\~{}いらない}\>;行かなくてもいい\end{ex}
\section{日本語から多言語への機械翻訳エンジンjaw}
翻訳システムの核となる機械翻訳エンジンjawについては謝ら(2004)が既に述べているが,その後の進展もあるためここで改めてその翻訳方式について簡潔に述べる.jawは日本語から他の任意の言語への翻訳を目的とした,パターン変換に基づく機械翻訳エンジンである.日本語パターンとそれに対する変換規則を用意することによって,いろいろの目的言語に対応することができる.これまでにjawを用いて中国語・ベトナム語・ミャンマー語・シンハラ語を目的言語とする機械翻訳について研究が行われている(図\ref{fig:Chinese-Vietnamese}).以下では中国語への翻訳を例に用いて述べる.\begin{figure}[b]\centering\includegraphics{15-1ia4f1.eps}\caption{jawを用いた機械翻訳システムの出力例}\label{fig:Chinese-Vietnamese}\end{figure}\subsection{表現構造を介した翻訳の流れ}\begin{figure}[t]\centering\includegraphics{15-1ia4f2.eps}\caption{jawによる翻訳の流れ}\label{fig:jaw}\end{figure}jawによる機械翻訳の流れを図\ref{fig:jaw}に示す.入力された日本語文に対して,日本語解析器ibukiCおよびibukiS(山田他2006)\nocite{Yamada2006}を用いて形態素・文節構造・係り受け構造の各解析を行なった後,目的言語の表現構造を介して目的言語テキストを生成する.表現構造は目的言語の文の表現要素(単語など)を表すC++言語のオブジェクトであり,表現要素に対する訳語や,関連する他の表現要素へのリンクなどの情報をその属性として保持する.日本語文の解析結果に対してパターン翻訳規則と機能語翻訳規則を適用することにより,日本語文を目的言語の表現構造へ変換する.パターン翻訳規則は,入力日本語文の係り受け構造と関係データベース(RDB)上の日本語パターンを照合し,マッチした箇所を目的言語の表現構造に変換するC++の関数群であり,主として文の骨格となる命題部分の表現構造を組み立てる.機能語翻訳規則は,モダリティ等を表す機能語の翻訳として,表現要素オブジェクトに情報を設定する.各表現要素オブジェクトには,それを一次元のテキストに変換するためのメソッド(線状化関数と呼ぶ)が,クラス(品詞等)毎に定義されており,この線状化関数の呼び出しにより表現構造から目的言語テキストが生成される.\subsection{目的言語表現構造への変換}日本語の文は基本的に,命題的な内容とモダリティ等で構成される.命題的な内容は,パターン翻訳規則により目的言語の表現構造へ変換する.機能語で表されるモダリティ等については,命題部分とは分離して機能語翻訳規則で処理することも,パターンに含めて命題部分と一緒に処理することも可能である.\subsubsection{パターン翻訳規則による表現構造の生成}照合に用いる日本語パターンにはキーワードとなる語が必ず一つだけ存在する.パターンの種類は,キーワードの種類(内容語/機能語),および,キーワード文節の他の文節との係り受け関係によって,次の3種類に分類される(図\ref{fig:JapanesePatterns}).\begin{description}\item[(a)基本型:]受け側の語句の内容語をキーワードとするパターン.\item[(b)追加型(内容語):]係り側の語句の内容語をキーワードとするパターン.\item[(c)追加型(機能語):]係り側の語句の機能語をキーワードとするパターン(文や文節を接続する機能語をキーワードとするパターン).\end{description}基本型は従来の結合価パターンと同様のパターンであるが,次のような特徴がある.\begin{itemize}\itemキーワード文節の機能語に対する条件も指定できる(図\ref{fig:baseType}左)\item2階層以上の深さを持ったパターンも記述できる(大域パターン.図\ref{fig:baseType}中央)\item名詞や副詞など,動詞以外の語に対しても記述できる(図\ref{fig:baseType}右)\end{itemize}\begin{figure}[b]\centering\includegraphics{15-1ia4f3.eps}\caption{日本語パターンの種類.二重枠で囲まれた語句はそのパターンのキーワード}\label{fig:JapanesePatterns}\end{figure}\begin{figure}[b]\centering\includegraphics{15-1ia4f4.eps}\caption{基本型パターンの例(従来の結合価パターンとの違い)}\label{fig:baseType}\end{figure}日本語パターンは表\ref{tab:patterns}のような形式でRDBに格納される.各パターンは1文節1レコードで記述され,そのうち1つがキーワードを含む.各レコードには,そのパターン内での文節番号,係り先文節番号,内容語条件(意味属性\footnote{意味属性は『日本語語彙大系』\cite{Ikehara1999}を参考にした.}または字面),機能語条件,省略可能文節かどうかのフラグのほか,パターン内文節の語順についての制限の有無,(動詞キーワードの場合)受動態としての使用可能性などの情報が登録されている.\begin{table}[t]\caption{RDB上の日本語パターンの例(概略)}\label{tab:patterns}\centering\input{04table1.txt}\end{table}入力日本語文の解析で得られた文節係り受け構造の各部と,これら日本語パターンとの照合は,まず基本型パターンを用いて次のように行う.\begin{enumerate}\item根の内容語をキーとして,RDB上の日本語パターンを検索する.\item得られたパターンの各子ノードに対して機能語条件をチェックし,候補を絞り込む.\item各子ノードに対して日本語パターンとの照合を行い(子ノードを根として,再帰的に照合する),照合できたパターンを内容語条件で絞り込む.\end{enumerate}基本型パターンとの照合の後,照合されずに残ったノード(文節)があれば,その部分に対して追加型パターンとの照合を試みる.このような照合を根から葉に向かって再帰的に行う.このようにして,入力文の木構造を覆うことのできる日本語パターンの組み合わせをすべて求める.使用したパターンの種類や数,パターンの持つ条件(内容語条件,機能語条件)の厳しさ,適用された意味属性の距離(意味カテゴリの階層構造における距離)などからコストを算出して最適解を求める.日本語パターンにはそれぞれ,そのパターンにマッチした入力日本語文の(部分)構造を,目的言語の表現構造に変換するパターン変換規則が定義されている.この変換規則は,目的言語の表現要素オブジェクトを生成し,そのデータメンバに訳語や他の表現要素へのリンクなどの属性を書き込むプログラムである.図\ref{fig:ITtoET}に追加型(内容語)の日本語パターンの変換規則によって生成される目的言語の表現構造の例を示す.\begin{figure}[t]\centering\includegraphics{15-1ia4f5.eps}\hangcaption{「Nのあおりを食ってV」の日本語パターン(左上)と,それに対する変換規則によって生成される中国語の表現構造(右).破線部分は別のパターン翻訳規則によって生成されるオブジェクトを表す.}\label{fig:ITtoET}\end{figure}パターン変換規則(C++プログラム)は,専用のエディタ(jawEditor)を使って,日本語パターンとともにフォームに必要事項を記入することで自動生成される.場合によっては人手で書く,あるいは,修正することも可能である.図\ref{fig:TransferRule}に,「Nのあおりを食ってV」のパターン(表\ref{tab:patterns}下部)に対する変換規則入力フォームを示す.図のように,jawEditorでは多階層の規則が記述できる.\begin{figure}[t]\centering\includegraphics{15-1ia4f6.eps}\caption{jawEditorによる翻訳規則の記述}\label{fig:TransferRule}\end{figure}\subsubsection{機能語翻訳規則}\label{sec:fw}パターン翻訳規則によって文の骨格となる命題的な内容を目的言語の表現構造へ変換した後,機能語翻訳規則により,用言に後続してモダリティ等を表す助動詞や体言/用言に後続する取り立て詞の翻訳に対応する各種の情報を,表現要素オブジェクトに設定する.入力された日本語文の各文節は,文節構造解析器ibukiCによって内容語と機能語,係り先情報などに分割される.機能語はさらにその機能と語順に応じて,複数のグループに分割して出力される(図\ref{fig:ibukiC_fw}).これら機能語や係り先の情報は,命題部分のパターン変換時に,一旦そのまま目的言語の表現構造に受け渡される.パターン変換終了後,それらに対して機能語翻訳規則を適用することによって,目的言語での表現に必要となる情報が表現構造オブジェクトのデータメンバに設定される.\begin{figure}[t]\centering\includegraphics{15-1ia4f7.eps}\caption{ibukiCによる文節構造解析結果の概略(左:体言文節,右:用言文節)}\label{fig:ibukiC_fw}\end{figure}\begin{table}[t]\caption{機能語翻訳規則テーブル(1対1対応)}\label{tab:fwTable1}\centering\input{04table2.txt}\end{table}\begin{table}[t]\caption{「も」に対する機能語翻訳規則テーブルSP\_mo(訳語選択用)}\label{tab:fwTable2}\centering\input{04table3.txt}\end{table}機能語翻訳規則は表\ref{tab:fwTable1}(日本語と目的言語の機能語が1対1に対応する場合)や表\ref{tab:fwTable2}(機能語の訳し分けが必要な場合)のような表形式で,分割された機能語要素ごとに記述する.例えば,表\ref{tab:fwTable1}の先頭の規則は,用言に後続する機能語要素1が「たい」だけなら,\texttt{mModeC}のデータメンバ\texttt{aux\_verb}に訳語``想''を設定することを示している.一方,「ない」「ている」については,訳語が1対1に決まらないため,それぞれ専用の訳語選択テーブル\texttt{SP\_nai},\texttt{SP\_teiru}を参照することを示している.表\ref{tab:fwTable2}(\texttt{SP\_mo})は体言に後続する取り立て詞「も」に対する14番目の規則である.規則は番号順に実行され,規則1〜13の条件がいずれも満たされなかった場合に限り,14番目の規則が適用される.この例では,検査対象となる表現構造オブジェクト\texttt{it}(体言)が主語である場合に,データメンバ\texttt{postSubject}(主語の後ろの位置)に,訳語``也''を設定するという規則を表している.機能語翻訳規則は機能語に対する訳語の選択のほか,語順の決定で必要となる文型(受身文,使役文など)や文のムードの判定なども行う.RDB上に表形式で記述された機能語翻訳規則は,命題部分の翻訳規則と同様,C++プログラム(動的ライブラリ)に自動変換される.\subsection{目的言語テキストの生成}表現要素オブジェクトが持つ線状化関数の呼び出しにより,表現構造から目的言語テキストが生成される.始めにjawが,文の述語(複文の場合は主節の述語)を表す表現要素オブジェクトの線状化関数を呼び出すと,そのオブジェクトはそれ自身の訳語を生成するほか,それに係る名詞や副詞,従属節の述語などの線状化関数を,目的言語の語順に従って呼び出していく.呼び出された表現要素に係る表現要素があった場合も同様に,その表現要素の線状化関数が呼び出され,訳文が生成される.
\section{日本手話テキストへの機械翻訳システムjaw/SL}
前節ではjawを用いた機械翻訳システムすべてに共通する事柄について述べた.ここでは,手話を目的言語とした機械翻訳を実現するために設定した手話の表現構造,翻訳規則,線状化関数について述べる.\subsection{日本手話の表現構造のためのクラス設計}手話単語の品詞分類については議論があるが\footnote{例えば田上ら(1979)\nocite{Tanokami1979}は,名詞・動詞・形容詞を区別をせず,これらを自用詞と呼ぶ単一の品詞に分類している.},ここでは音声言語と同様の品詞を想定し,表現要素オブジェクトのクラス階層を図\ref{fig:class}のように設定した.\begin{figure}[b]\centering\includegraphics{15-1ia4f8.eps}\caption{手話文の表現構造を構成するオブジェクトのクラス階層の概略}\label{fig:class}\end{figure}主なクラスのデータメンバの例を表\ref{tab:member}に示す.ここで,TObjectクラスはjawの目的言語に共通する基底クラスである.それを根とする部分表現構造を線状化して得られた目的言語テキストを保持するとともに,対応する日本語の機能語情報を保持する.Signクラスは手話単語共通の基底クラスで,手話単語名と単語の語形変化パラメータ(手形・空間・修飾)などを持つ.Propositionクラスは文の大枠を決める述語を表し,格要素となる名詞(句)や,述語を修飾する副詞,従属節へのリンク,テンス・モダリティなどの情報を持つ.Nounクラスは名詞を表すクラスであり,数量や複合名詞などを表すクラスの基底クラスでもある.名詞を修飾・限定する表現要素へのポインタを持つ.\begin{table}[t]\caption{手話の表現要素クラスとそのデータメンバの例}\label{tab:member}\input{04table4.txt}\end{table}\subsection{語形変化による表現への翻訳}\label{sec:param}日本語では機能語や修飾語などの独立した単語として表現される情報が,手話では主となる単語の語形(手の形・位置・動き)の変化によって表現される場合がある.例えば,動作の主体/対象といった格関係が動詞の手の動きの向きにより表現される場合や,様態・程度・アスペクトなどが動詞/形容詞の動きの変化により表現される場合がある.\subsubsection{格関係(名詞の位置と動詞の方向)}\label{sec:case-relation}手話では名詞の人称と話者の回りの空間上の位置が対応づけられている\cite{Matsumoto2001,Baker-Shenk1980}.1人称と2人称はそれぞれ話し手と聞き手の位置に固定されており,会話の場にいない人や物,場所などの3人称はその他の位置に割り当てられる\footnote{標準的には,人は話し手の斜め前方,物や場所は話し手と聞き手の中間に配置される\cite{Matsumoto2001}.}(図\ref{fig:personalLocations}).\begin{figure}[b]\centering\includegraphics{15-1ia4f9.eps}\caption{人称と位置}\label{fig:personalLocations}\end{figure}主体や対象の人称(位置)に呼応して手の運動の向きが変化する動詞は一致動詞(agreementverb)と呼ばれる\cite{Ichida1999,Sutton-Spence1999,Sandler2006}.日本語では名詞に後置された格助詞によって表される格関係が,一致動詞を使った文では,名詞の位置と動詞の(手の動きや指先の)方向によって表示されることになる\footnote{一方,人称といった文法的な情報ではなく,動詞が表す動作の軌道や動作が行われる場所など,現実世界での動きや位置関係に呼応して手の動きや位置が変化する動詞は空間動詞(spatialverb)あるいはclassifierpredicateなどと呼ばれる.例えば,「上方に立つ」,「右方に立つ」は動詞〈立つ〉をそれぞれ通常より高い位置,体の右側で表現することにより表される.ただし,一致動詞が空間動詞として使われる場合もあり,明確な境界があるわけではない.}.例えば,「AがBをしかる」,「AがBに言う」,「AがBへ行く」では,動詞の手の動きは基本的にみな名詞Aの位置から名詞Bの位置へ向かう.\begin{figure}[t]\centering\input{04fig10.txt}\caption{一致動詞へのパターン翻訳規則の例}\label{fig:shikaru}\end{figure}一致動詞への翻訳を行うためのパターン翻訳規則の例を図\ref{fig:shikaru}に示す.この翻訳規則により,「AがBをしかる」における名詞Aは動作主格(mAgent),名詞Bは目標格(mGoal)に設定される.また,一致動詞であることを示すフラグ(mIsAgreement)にtrueが設定される.「AがBに言う」,「AがBへ行く」の場合も同様に,名詞AをmAgent,名詞BをmGloalに設定する.これら3つの例において名詞Bは,日本語ではそれぞれ異なる格だが,手話の格をこのように捉えることで,一致動詞の方向が通常mAgentからmGoalへ向かうことになり,処理が簡単化できる\footnote{ただし,「AがCからBへ行く」のように,起点(mSource)が指定されている場合には,mAgentではなくmSourceの名詞位置を動詞の始点とする.}.一致動詞に対する線状化関数では,名詞オブジェクトmAgentおよびmGoalの人称情報(mPerson)を元に,その名詞の表現位置(mParam.position)と動詞の始点・終点(mParam.direction)を決定する.1人称,2人称の場合はそれぞれ`1',`2'(位置定数)を,3人称の場合は`$x$',`$y$'等(位置変数)を設定する.ただし,身体の一部を背景として利用するために表現位置あるいは始点/終点が固定される単語については,固定部分の位置指定は行わない.位置を決定した後,手話の語順(\ref{sec:linearization}節)に沿って名詞・動詞の訳語を生成する.一致動詞では1人称と2人称の名詞は動詞の方向によって表示されるため,「私」「あなた」といった単語は省かれることが多い.例えば,「あなたが私に言う」は``話す(2→1)''という動詞とその向きだけで表現できる.このような名詞の省略も考慮して線状化を行う.\subsubsection{様態やアスペクトなどの修飾表現}音声言語では副詞として語彙化される修飾概念が,手話では述語の語形変化として表現される場合が多い.例えば「\underline{だんだん}暗くなる」は,手話単語〈暗い〉を徐々に動かすことで表現される\cite{Yonekawa2005}.語形変化で表現される修飾内容としては,様態(ゆっくり,激しく),アスペクト(ずっと,しばしば),程度(とても,少し)などがあげられる.日本語援用手話表記法では,今のところ語形変化によって表される修飾内容は,被修飾語の修飾パラメータにその内容を次のように日本語の語句で指定することにより表現している.\begin{center}\begin{tabular}{lll}「\underline{ずっと}前」&⇒&{\tt過去(;とても)}\\「\underline{だんだん}暗くなる」&⇒&{\tt暗い(;徐々に)}\end{tabular}\end{center}副詞を述語の語形変化へ翻訳するための日本語パターンと翻訳規則の例を図\ref{fig:sugoku}に示す.この規則により,「すごく」が係る状態述語の語形変化パラメータ(修飾要素)に``とても''が設定される.なお,述語の語形変化ではなく,独立した手話単語〈とても〉を用いて表現される場合もあるが,その場合にはPropositionのメンバmAdverbialに〈とても〉を設定する.\begin{figure}[t]\centering\input{04fig11.txt}\hangcaption{副詞を述語の語形変化として翻訳するためのパターン翻訳規則の例.qualifiersは述語に係る修飾内容(複数可)を保持する.}\label{fig:sugoku}\end{figure}日本語の1つの単語が,手話では修飾パラメータを含んだ表現となる場合もある.例えば,「さっき」は〈{\tt過去(;少し)}〉,「真っ赤」は〈{\tt赤い(;とても)}〉と表現される.これらはその翻訳規則において各単語の修飾パラメータに値を直接設定する.このほか,日本語では動詞・助動詞によって表されるアスペクト等の情報が,語形変化で表現される場合もある.それらは,動詞・助動詞の翻訳規則で修飾パラメータに値を設定する.\subsection{手話の助動詞と機能語翻訳規則}\label{sec:functionwords}手話にも日本語の助動詞のように,動詞の後ろに置かれ,モダリティやアスペクトなどを表す単語が存在する\cite{Ichida2000,Ichida2005b,Matsumoto2001}.その例を表\ref{tab:aux}に示す.\begin{table}[t]\caption{手話の助動詞の例}\label{tab:aux}\centering\input{04table5.txt}\end{table}用言に後続する機能語の翻訳規則の例を図\ref{fig:FWTransRule}に示す.同図左側の表は日本語の機能語を,それに1対1に対応する訳語に置き換える規則の例であり,右側の表は訳し分けが必要な場合の例である.この例では,日本語の終助詞「か」が文末にあり,かつ,機能語が「ます」等を含むとき,「か」を直接手話単語に置き換えるのではなく,文のムード(Propositionオブジェクトが持つmModeSLオブジェクトのデータメンバmoodの値)をinterrogative(疑問)に設定している.この値は線状化の段階で,語順や句読点の種類を決定する際に参照される.\begin{figure}[t]\centering\includegraphics{15-1ia4f12.eps}\caption{機能語翻訳規則の例}\label{fig:FWTransRule}\end{figure}\subsection{線状化関数}\label{sec:linearization}最後に,命題部分と機能語部分の変換により得られた手話言語の表現構造から,語順の決定,非手指文法標識の付加,一致動詞における方向や名詞の位置の決定等を行い,手話テキストを生成する.この処理は先に述べたように各表現要素オブジェクトが持つ線状化関数で行う.\subsubsection{語順}日本手話の基本的な文は,話題(主題)とそれに関する陳述で形成されている(topic-comment構造).これは日本語やBSL(イギリス手話),ASL(アメリカ手話)などと同様である\cite{Nakamura2002,Sutton-Spence1999}.話題は文頭に置かれ,話題化のための非手指要素による文法標識を伴う.〈昨日〉〈今〉のような語によって,時間的な枠組みが文頭で設定される場合も多い.また,日本手話の基本語順はS-O-V(主語—目的語—動詞)と言われており,日本語と同様,述語は原則として文末に配置される\cite{Kimura1995,Matsumoto2001}.述語には助動詞が後続し,さらに,動作主や述語の対象などを示す指差し(pronouncopy)が付加される場合もある.話題と述語以外の要素はこれらの間に置かれるが,前述のように動作主や対象は動詞の方向によって表わされ,単語として表現されない場合もある.また,疑問詞を含む疑問文では,疑問詞が文末に置かれる場合が多い\cite{Yonekawa2005}.談話の先頭以外の文は,「ところで」,「次に」,「しかし」,「だから」などの接続的な語で始まることも少なくない\cite{Tanokami1979}.jaw/SLでは,Propositionオブジェクトがデータメンバとして持つ表現要素を,基本的に次のような順序でテキスト化している.\begin{quote}接続的な語→話題化された名詞(句)・時間的枠組みを設定する語→その他の格要素となる名詞(句)→(述語に前置される)副詞→述語→(述語に後置される)副詞→助動詞→(疑問文での)疑問詞.\end{quote}修飾語は被修飾語に前置される場合と後置される場合とが併存している.修飾語の語順について松本(2001)\nocite{Matsumoto2001}は,原則的には中心的な語が付随的な語に先行するのが手話の自然な語順だが,倒置によって修飾語を強調する効果があること,そして,日本語の影響を受けて修飾語の前置が受け入れられ,単語によっては原則の方が廃れていったという考えを述べている.しかし,〈とても〉〈最高〉〈最低〉など程度を表す副詞は現在でも前置すると不自然であり,大きさや形状を表す修飾語も後置が一般的としている.一方,市田(1998)\nocite{Ichida1998}は,名詞句内の語順は,形容詞—名詞,関係節—名詞,属格—名詞であり,形容詞や関係節が名詞に後置されているように見える例は,主要部内在型関係節という構造を利用した表現であると説明している.副詞の語順については言及していない.jaw/SLでは,修飾語ごとに前置/後置が分かれるものと仮定して,修飾語の表現要素クラスに前置/後置を指定するためのデータメンバを設け,個々に語順を指定することにした.このほか,数と単位の語順/表現は,(1)単位を数に後置する(金額など),(2)単位を数に前置する(年齢など),(3)数を手形で表し,単位を動きで表す(年数など),(4)片手で数,もう一方の手で単位を表す(人数など)というように対象により異なっている.手話の表現構造レベルでは,これら語順/表現の違いを,数量表現クラスQuantityの持つ単位格納用メンバ(mPostfixedUnit,mMovementUnitなど)の違いとして表現しており,メンバごとに異なる線状化コードを割り当てている.\subsubsection{非手指要素による文法標識}話題化や疑問文,条件節などを表す非手指要素による文法標識のテキスト化も線状化関数で行う.話題化された名詞の検出は,Propositionクラスの線状化関数内で,mAgent,mObject等の格要素に対して表\ref{tab:fwrule_ha}のような機能語翻訳規則を適用することにより行う.この規則では,助詞「は」を伴う名詞のうち自称の代名詞でないものに話題化の印が付けられる.表中の\texttt{it}は述語の格要素となる名詞オブジェクトへのポインタである.このテーブルには2つの規則(id=1およびid=99)が登録されており,idの小さいものから順に適用される.規則1により,名詞オブジェクトの日本語における意味属性(メンバ変数\texttt{mSemanticAttr})の値が10007〜10013の範囲(僕,私など自称の代名詞)である場合には話題化フラグ(メンバ変数\texttt{topic})にfalseが設定され,その他の場合には規則99によりtrueが設定される.話題化された名詞(句)には,話題化の非手指文法標識を表す記号``\{$<$t$>$$\cdots$\}''を付加して線状化する.機能語の翻訳によって文が疑問のムードを持つと判断された場合は,格要素に疑問詞が存在するならその格の線状化を文末まで遅延し,文末記号を標準の「。」から疑問の非手指文法標識を表す「?」に変更する.\begin{table}[t]\caption{助詞「は」に対する機能語翻訳規則(訳語選択テーブルSP\_wa).}\label{tab:fwrule_ha}\centering\input{04table6.txt}\end{table}
\section{翻訳実験}
手話学習教材から取得した文を題材として翻訳実験を行った.まだオープンテストによって精度を評価するような段階にはなく,取得した文の翻訳に必要な規則を実際に与えてシステムを構築していく過程で,現状の問題点を明らかにしていくことをねらいとした.\subsection{実験方法}\begin{table}[b]\caption{『手話ジャーナル』における手話文の自然な日本語訳と構造訳}\label{tab:struct}\centering\input{04table7.txt}\end{table}翻訳実験の題材には主として日本手話のビデオ教材『手話ジャーナル初級教材No.~1\&2』\cite{SignFactory1997,SignFactory1999}を用いた(以下,単に「手話ジャーナル」と記す).各巻にはそれぞれ4人のろう者がカメラに向かって家族や日常生活について日本手話で語った映像が記録されている.日本語の音声や字幕は一切含まれていないが,全文(約720文)に対する自然な日本語訳と,手話の構造に沿った日本語訳(手話ジャーナルでは``構造訳''と呼んでいる)が記載された小冊子が付属している.表\ref{tab:struct}に自然な日本語訳と構造訳の例を示す.このほか,手話の教育番組\cite{Yonekawa2006}からの文も補助的に使用した.これらはすべて会話文/話し言葉である(手話には文字がないので書き言葉は存在しないことからくる必然である).基本的に手話文に対する``構造訳''を入力日本語テキストとし,手話映像を\ref{sec:notation}節の日本語援用表記法で書き取った手話テキストを正解とした.教材に含まれる文から80文を抽出し,正解を出力するために必要な日本語パターンとその変換規則,機能語翻訳規則,線状化関数をシステムに与えた.談話の一部を抜き出して利用した文もある.手話ジャーナルの映像を対象に行った調査\cite{Matsumoto2006}において,\ref{sec:notation}節の表記法による記述が困難と判断された表現を含む文が全体の1割程度あったが,これらは対象から除外した.また,現在jawの翻訳単位は文であるため,空間上の位置と名詞との対応関係が複数の文をまたいで持続するような文も除外した.このほか,言い間違いを訂正したり,付け加えたりしている箇所を含む文も80文には含まれていない.ただし,翻訳規則の検討や問題点の分析には翻訳対象以外の文も考慮に入れた.なお,入力文に対する文節構造解析や文節係り受け解析に誤りが生じた場合は,誤り箇所を人手で修正した.\subsection{実験結果と考察}実験の結果,正解どおりの手話文を導くことができたのは80文中48文,正解どおりではないが正しい手話文が得られたと考えられるものが20文,正しく翻訳できない表現を含むものが12文あった.次のような項目については,意図したとおり出力させることができた(括弧内の数字は表\ref{tab:transexamples}の文番号).\begin{table}[t]\caption{正解を導けた翻訳結果の例\label{tab:transexamples}}\input{04table8.txt}\end{table}\begin{itemize}\item格関係による動詞の方向変化と名詞の位置変化(1,4,14,17,24など)\item疑問文,話題化,条件節等の非手指文法標識への翻訳(2,5,7,20など)\item用言に後続する機能語によるモダリティやアスペクトなどの翻訳(4,5,18,20など)\item手話単語の(半)同時的な組み合わせによる表現(2,12など)\item語順(数詞と単位,疑問詞,話題化,修飾語と被修飾語)(9,22など)\item手形変化による語義の変化(手形で数詞,動きで単位を表す場合)(5,9,20)\item語形変化による副詞の表現(6)\item複文(5)\item指文字による単語表現(23)\end{itemize}また,次のような表現については,正解と異なっていても正しく翻訳できたと判断した.\setcounter{example}{0}\begin{table}[t]\caption{正解どおりではないが正しい手話文が得られたと判断した翻訳結果の例}\label{tab:transexamples2}\input{04table9.txt}\end{table}\begin{itemize}\renewcommand{\labelenumi}{}\item時間・金額の表現:一般に時刻の表現では,時間を表す数詞に手話単語〈時間〉を前置するとされるが,〈時間〉が省かれる例が多く見られた(表\ref{tab:transexamples2}:例文1).金額の表現でも同様に,通常,数詞に後置される単位〈円〉が省かれる例が見られた(同表例文2).翻訳結果では基本的にこれらの単位を省略せずに出力している\footnote{ただし,話題の中に〈時間〉という単語が現れた場合は,数詞の前の〈時間〉を省くようにしている.}.\item祖父・祖母の表現:手話単語〈祖父〉と〈祖母〉は,人差し指でほおに触れる動作(肉親を表すといわれる)を行った後,それぞれ手話単語〈おじいさん〉または〈おばあさん〉を表現することで表される.ほおに触れる動作が省略される例が多く見られたが,試作システムでは基本的に省かず表現している(例文3).\item文末の指差し:手話では文末に人や物,場所と対応づけられた位置への指差し(代名詞)が現れる場合がある.例えば〈私朝苦手私〉=「私は朝が苦手です.」のように文中の代名詞が文末で繰り返されこともあれば,〈起きる難しい私〉=「(私は)起きられないのです.」のように,文末だけに現れることもある.文末の指差しには,だれ(何)についての話なのかを明確にする働きがあると推測される.しかし,同じ日本語「私は朝が苦手です.」が〈私朝苦手〉と文末の代名詞なしで表現される例もあり,また,例文全体から見ても使用しない文の方が多いため,試作システムでは文末の代名詞を出力していない(例文4).\item接続助詞「ので」:「ので」に相当する手話単語〈ので〉は省略され,うなずきだけで表現される場合もあるが,システムの出力結果は〈ので〉を省略していない(例文5).\end{itemize}一方,適切な訳を出力することが難しい表現も多く存在した.以下,現状での主な問題点について述べる.\subsubsection{省略・文脈に伴う問題点}\begin{table}[t]\caption{問題の残った表現を含む例文の一部}\label{tab:problems}\input{04table10.txt}\end{table}表\ref{tab:problems}の例1では,動詞〈断る〉が複数変化(終点を3人称の位置範囲で変えながら,2,3回繰り返す)して,複数の相手に対して「断る」ことを表している.手話では動作主や対象等の数に呼応して動詞の語形が変化する\cite{Oka2005,Matsumoto2001,Sandler2006,Sutton-Spence1999}が,この例文のように入力日本語文が数についての情報を持たない場合,正解を導けなかった.また,例2の〈しかる〉は,「ことが多い」という言葉から,〈しかる〉という行動が複数回行われることが分かるが,その対象が同一人物か複数かまでは判断できない.手話ではその違いが動詞の方向の違いとして表現される.これらを正確に処理するには,その文で明示的に述べられていない情報について文脈から取得し補完する必要がある.現状では文脈を考慮した翻訳には対応していないために,このような動詞の変化を正しく出力することができていない.一般に,日本語に比べて手話では物事をより具体的に表現する傾向があるため,日本語から手話への翻訳では入力文中に明示されていない情報を正しく補わなければ,手話として不自然な表現や間違った表現になる可能性がある.数の一致はその一例といえる.不足した情報をいかに補足するかが問題である.\subsubsection{グループ化や対比のための空間の利用}表\ref{tab:problems}の例3と4は重文で,それぞれ前半と後半の節で表現位置が変わる.例3では母と父の仕事,例4では家族内でのろう者と聴者のグループごとに表現位置を分けることによって,話の内容を視覚的に分かりやすく伝えている.しかし,重文が常にこのように表現されるわけではなく,現状ではこのような空間の利用についての判断が機械的に行えていない.\subsubsection{機能語(ながら,られる,た,ている)の翻訳}\begin{itemize}\item「ながら」:複数の行為を並行して行うことを表す接続助詞「ながら」は,手話では単語として表現されない.各行為を表す動詞を実際に(部分的に)同時に表現する(例5),動詞を交互に連続的に表現する(例6),非手指動作を使って同時性を表現する(例7の「食べながら仕事をする」は,食べ物を噛む仕草をしながら〈仕事〉を表現)といった方法が見られた.動詞の組み合わせによって,「ながら」の表現方法が異なると考えられるが,現状ではその訳し分けはできていない.〈食べる〉や〈眠い〉の非手指動作部分(口の動き,顔の表情)が次の動詞と同時に表現されることによっても同時性が表されているが,そのような表現に対する表記法上の問題もある.\item「た」:過去や完了を表す日本語の助動詞「た」に相当する手話単語には〈た〉と〈終わる〉がある.だが,『手話ジャーナル』の例文中に出現した「た」270例のうち,これらの単語が使用されたのは11例であり,その他の例では単語として表現されていなかった\footnote{一方,手話ニュース等の改まった場での報告では,過去を表すためにこれらの語が頻繁に用いられるようである.}.例えば「亡くなった」は21例中,2例だけが〈死ぬ終わる〉と表現されていた.〈た〉と〈終わる〉はいずれも単純な過去というより,完了的な意味合いが強いとされるため,話者の主観によって表現が異なることも考えられる.現状では,一部の慣用的な表現を除いて,「た」に対する訳語を出力していない.逆に,例8の「昼食をとって」のように,日本語では「た」が現れない箇所での〈終わる〉の出力も現状ではできていない.なお,単語として過去を表現しない場合でも,動詞を表現する際,口形が「た」になる例が散見された.また,〈終わる〉には,過去・完了の助動詞的な用法の他に,動詞「終わる」や名詞「終わり」としての用法があり,「仕事が終わる」「食べ終わる」「おしまい」など,動詞や名詞としての用法は多数見られた.\item「ている」:動きの継続・進行中・習慣や動きの結果の状態を表す「ている」は,『手話ジャーナル』の例文中に145回出現し,〈最中〉を使った表現が7例,〈いる〉と〈ある〉がそれぞれ2例ずつあった.その他の「ている」は単語として表現されなかった.「(寝ないで)起きている」のように動詞〈目覚める〉を長めに表現することで状態の継続を表す例もあった.現状では,明確な翻訳規則を見出すことができず,「ているところだ」など一部の慣用的な表現を除いて「ている」に対する訳語を出力していない.\item「られる」:受身の「られる」に対応する手話単語は存在しない\footnote{可能の「られる」には〈できる〉が対応する.}.動詞の方向の変更(一致動詞の場合)や,格要素の入れ替え,機能語条件として「られる」を持つ動詞パターンの追加によって翻訳できた例文もある.しかし,「(桜の木でびっしり)囲まれている」を,立てた指の動きと表情で,楕円状に木が密に並んでいる様子を表現する例や,「(ビールを)飲まされる」を,コップを渡され嫌々飲む様子で表現する例は,日本語と手話との構造の隔たりが大きく,次に述べる「言い換え」や表記法の問題と絡んで翻訳することができていない.\end{itemize}\subsubsection{言い換えの問題}『手話ジャーナル』からの例文は手話の構造に近い「構造訳」を入力文としたが,実用的な観点からは「自然な日本語文」から「手話への翻訳に適した日本語文(構造訳)」への言い換えをシステム側で行う必要がある.現状では,次のように構造訳からさらに(文脈を考慮して)手を加え,「(正しく翻訳可能な文)」のようにしなければ正しい手話テキストに翻訳できない例もあった.\begin{ex}\>将来飼ってみたいのは大きな犬です。\>\rule{16zw}{0pt}\=(自然な日本語文)\\\>将来飼ってみたいのは\underline{何かというと},大きな犬\underline{が欲しい}です。\>\>(構造訳)\\\>将来\underline{欲しい}のは何かというと,大きな犬が欲しいです。\>\>(正しく翻訳可能な文)\\\>\{$<$cleft$>$将来好き何\},犬大きい好き。\>\>(手話文)\end{ex}また,実験では主に手話文の日本語訳を入力としたが,現実の翻訳では手話の語彙不足も問題である.機能語や副詞については,単語として存在しなくても,語形変化・非手指動作・同時表現などで表される場合があるため単純に比較できないものの,市販の手話辞典の語彙は数千語しかなく,日本語のそれに比べて著しく少ない.指文字(50音等に対する手指表現)を使って単語の音を伝えることはできるが,聞き手がその言葉を知らなければ意味は伝わらない.そのため(固有名詞を除き)類義語で代用するか,手話語彙の範囲で意味を説明するといった処理が必要となる\footnote{例えば,田上ら(1979)\nocite{Tanokami1979}は,「弟はテレビばかり見ている」の「ばかり」を各地の手話通訳者が〈だいたい〉,〈毎日〉,〈たくさん〉,〈一生懸命〉,〈だけ〉などの手話単語で代用して訳したという例をあげている.}.この点からも,手話への翻訳において言い換え技術の導入は今後検討すべき大きな課題といえる.\subsubsection{表記法,その他の問題}今回の実験では,単語を用いないパントマイム的な表現や,単語を用いていても,その動きや表現位置が現実世界での動きや位置関係を再現するように変化する自由度の高い表現(空間動詞)など,\ref{sec:notation}節の表記法による記述が難しい例文は対象としなかった.例えば「(隣で)向かい合って座っていた(男女)」は,両手のそれぞれで表した〈座る〉の手形を向かい合わせにし,話者の右側に配置することで,男女間および男女と話者の間の位置関係が簡潔に表現された.このような表現は視覚的で分かりやすい,手話らしい表現であり,その生成は手話への機械翻訳において重要であると考えられる.しかしながら,現状ではそれらをどう記述し,機械的に生成するか,難しい問題である.口形の表記と生成についても検討が必要と考えられる.現状では口形を単語の一部と見なし,明示的に表記していないが,実験に用いた例文では,省略された時間の単位を口形で補う例,過去を表す口形,同じ手話単語(手指要素)で口形だけが異なる例などが見られた.このような口形の語彙的な働きについて調査・整理する必要がある.
\section{おわりに}
日本語—日本手話機械翻訳システム構築のための最初のステップとして,パターン変換型機械翻訳エンジンjawを核としたルールベースの翻訳システムを試作した.入力は日本語テキスト,出力は我々が提案した日本語援用手話表記法である.このアプローチの有効性と現状の問題点を明らかにするため,日本手話のビデオ教材等を題材とした翻訳実験を行った.格関係による動詞の方向や名詞の位置の変化,話題化や疑問を表す非手指文法標識など,手話に特徴的な言語要素を含む手話文が生成可能であることが確認できた.しかし,数の一致,言い換え,表記法上の問題など未解決の問題も多く,課題は山積している.また,音声言語と比較すると手話の言語学的解析はまだ十分行われているとは言えず,そのことも翻訳システムを構築する上での大きな課題である.手話言語学の領域での今後の進展に期待したい.\acknowledgment本研究を進めるにあたり,手話に関してご教示いただいた愛知医科大学原大介先生,岐阜県立岐阜聾学校鈴村博司先生・長瀬さゆり先生,岐阜大学池谷尚剛先生に深く感謝いたします.なお,本研究の一部は科学研究費補助金・基盤研究C(課題番号18500111)により行われました.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baker-Shenk\BBA\Cokely}{Baker-Shenk\BBA\Cokely}{1980}]{Baker-Shenk1980}Baker-Shenk,C.\BBACOMMA\\BBA\Cokely,D.\BBOP1980\BBCP.\newblock{\BemAmerican{S}ign{L}anguage,ATeacher'sResourceTextonGrammarandCulture}.\newblockClercBooks,GallaudetUniversityPress.\bibitem[\protect\BCAY{藤重\JBA黒川}{藤重\JBA黒川}{1997}]{Fujishige1997}藤重栄一\JBA黒川隆夫\BBOP1997\BBCP.\newblock\JBOQ意味ネットワークを媒介とする日本語・手話翻訳のための日本語処理\JBCQ\\newblock\Jem{計測自動制御学会ヒューマン・インタフェース部会HumanInterfaceNewsandReport},{\Bbf12}(1),\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{平田\JBA池田\JBA岩田\JBA黒川}{平田\Jetal}{2003}]{Hirata2003}平田麗湖\JBA池田隆二\JBA岩田圭介\JBA黒川隆夫\BBOP2003\BBCP.\newblock\JBOQ中間型手話における名詞表現位置に関する文法とその日本語手話翻訳への導入\JBCQ\\newblock\Jem{ヒューマンインタフェースシンポジウム2003論文集},\mbox{\BPGS\293--296}.\bibitem[\protect\BCAY{市田}{市田}{1998}]{Ichida1998}市田泰弘\BBOP1998\BBCP.\newblock\JBOQ日本手話の名詞句内の語順について\JBCQ\\newblock\Jem{日本手話学会第24回大会論文集},\mbox{\BPGS\50--53}.\bibitem[\protect\BCAY{市田}{市田}{1999}]{Ichida1999}市田泰弘\BBOP1999\BBCP.\newblock\JBOQ日本手話一致動詞パラダイムの再検討—「順向・反転」「4人称」の導入から見えてくるもの—\JBCQ\\newblock\Jem{日本手話学会第25回大会論文集},\mbox{\BPGS\34--37}.\bibitem[\protect\BCAY{市田\JBA川畑}{市田\JBA川畑}{2000}]{Ichida2000}市田泰弘\JBA川畑裕子\BBOP2000\BBCP.\newblock\JBOQ日本手話の助動詞について\JBCQ\\newblock\Jem{日本手話学会第26回大会論文集},\mbox{\BPGS\6--7}.\bibitem[\protect\BCAY{市田}{市田}{2005}]{Ichida2005b}市田泰弘\BBOP2005\BBCP.\newblock\JBOQ手話の言語学(11)文法化—日本手話の文法(7)「助動詞,否定語,構文レベルの文法化」\JBCQ\\newblock\Jem{月刊言語},{\Bbf34}(11),\mbox{\BPGS\88--96}.\bibitem[\protect\BCAY{市川}{市川}{2001}]{Ichikawa2001}市川熹\BBOP2001\BBCP.\newblock\JBOQ手話表記法sIGNDEX\JBCQ\\newblock\Jem{手話コミュニケーション研究},{\Bbf\rule{0pt}{1pt}}(39),\mbox{\BPGS\17--23}.\bibitem[\protect\BCAY{池田\JBA岩田\JBA黒川}{池田\Jetal}{2003}]{Ikeda2003}池田隆二\JBA岩田圭介\JBA黒川隆夫\BBOP2003\BBCP.\newblock\JBOQ日本語手話翻訳のための言語変換とそこにおける語形変化規則の処理\JBCQ\\newblock\Jem{ヒューマンインタフェース学会研究報告集},{\Bbf5}(1),\mbox{\BPGS\19--24}.\bibitem[\protect\BCAY{池田}{池田}{2006}]{Ikeda2006}池田尚志\BBOP2006\BBCP.\newblock\JBOQ言語バリアフリーな社会を目指して—日本語テキストから手話テキストへの機械翻訳—\JBCQ\\newblock\Jem{放送文化基金報(HBF)},{\Bbf\rule{0pt}{1pt}}(69),\mbox{\BPGS\30--31}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山芳史\JBA林}{池原\Jetal}{1999}]{Ikehara1999}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1999\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{稲葉}{稲葉}{1998}]{Inaba1998}稲葉通太\BBOP1998\BBCP.\newblock\Jem{アクセス!ろう者の手話:言語としての手話入門}.\newblock明石書店.\bibitem[\protect\BCAY{日本手話研究所}{日本手話研究所}{1997}]{JISLS1997}日本手話研究所\JED\\BBOP1997\BBCP.\newblock\Jem{日本語-手話辞典}.\newblock全日本ろうあ連盟.\bibitem[\protect\BCAY{木村\JBA市田}{木村\JBA市田}{1995}]{Kimura1995}木村晴美\JBA市田泰弘\BBOP1995\BBCP.\newblock\Jem{はじめての手話—初歩からやさしく学べる手話の本}.\newblock日本文芸社.\bibitem[\protect\BCAY{松本}{松本}{2001}]{Matsumoto2001}松本晶行\BBOP2001\BBCP.\newblock\Jem{実感的手話文法試論}.\newblock全日本ろうあ連盟.\bibitem[\protect\BCAY{Matsumoto,Tanaka,Yoshida,Imai,\BBA\Ikeda}{Matsumotoet~al.}{2004}]{Matsumoto2004a}Matsumoto,T.,Tanaka,N.,Yoshida,A.,Imai,Y.,\BBA\Ikeda,T.\BBOP2004\BBCP.\newblock\BBOQThefirststeptowardamachinetranslationsystemfrom{J}apanesetexttosignlanguage\BBCQ\\newblockIn{\BemProceedingsofAsianSymposiumonNaturalLanguageProcessingtoOvercomeLanguageBarriers},\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{松本\JBA田中\JBA吉田\JBA谷口\JBA池田尚志}{松本\Jetal}{2004}]{Matsumoto2004b}松本忠博\JBA田中伸明\JBA吉田鑑地\JBA谷口真代\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ手話の表記法とテキストレベルの日本語—手話機械翻訳システムの試みについて\JBCQ\\newblock\Jem{信学技報},{\Bbf104}(316),\mbox{\BPGS\7--12}.\bibitem[\protect\BCAY{Matsumoto,Taniguchi,Yoshida,Tanaka,\BBA\Ikeda}{Matsumotoet~al.}{2005}]{Matsumoto2005b}Matsumoto,T.,Taniguchi,M.,Yoshida,A.,Tanaka,N.,\BBA\Ikeda,T.\BBOP2005\BBCP.\newblock\BBOQAproposalofanotationsystemfor{J}apanese{S}ign{L}anguageandmachinetranslationfromJapanesetexttosignlanguagetext\BBCQ\\newblockIn{\BemProceedingsoftheConferencePacificAssociationforComputationalLinguistics(PACLING2005)},\mbox{\BPGS\218--225}.\bibitem[\protect\BCAY{松本\JBA谷口\JBA吉田\JBA田中\JBA池田}{松本\Jetal}{2005}]{Matsumoto2005a}松本忠博\JBA谷口真代\JBA吉田鑑地\JBA田中伸明\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ日本語—手話機械翻訳システムに向けて—テキストレベルの翻訳系の試作と簡単な例文の翻訳—\JBCQ\\newblock\Jem{信学技報},{\Bbf104}(637),\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{松本\JBA池田}{松本\JBA池田}{2005}]{Matsumoto2005c}松本忠博\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ日本語から手話への機械翻訳のための手話表記法の試み\JBCQ\\newblock\Jem{手話コミュニケーション研究},{\Bbf\rule{0pt}{1pt}}(57),\mbox{\BPGS\31--37}.\bibitem[\protect\BCAY{松本\JBA原田\JBA原\JBA池田}{松本\Jetal}{2006}]{Matsumoto2006}松本忠博\JBA原田大樹\JBA原大介\JBA池田尚志\BBOP2006\BBCP.\newblock\JBOQ日本語を援用した日本手話表記法の試み\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\177--200}.\bibitem[\protect\BCAY{宮下\JBA高橋\JBA森本\JBA黒川}{宮下\Jetal}{2004}]{Miyashita2004}宮下純一\JBA高橋正己\JBA森本一成\JBA黒川隆夫\BBOP2004\BBCP.\newblock\JBOQ日本語手話翻訳における重文,複文,埋め込み文の言語処理\JBCQ\\newblock\Jem{ヒューマンインタフェースシンポジウム2004論文集},\mbox{\BPGS\33--38}.\bibitem[\protect\BCAY{Nakamura}{Nakamura}{2002}]{Nakamura2002}Nakamura,K.\newblock\BBOQAboutJapaneseSignLanguage\BBCQ,\Turl{http://www.deaflibrary.org/\allowbreakjsl.html}.\bibitem[\protect\BCAY{岡}{岡}{2005}]{Oka2005}岡典栄\BBOP2005\BBCP.\newblock\JBOQ日本手話の動詞における数の一致\JBCQ\\newblock\Jem{手話コミュニケーション研究},{\Bbf\rule{0pt}{1pt}}(57),\mbox{\BPGS\18--26}.\bibitem[\protect\BCAY{Prillwitzet~al.}{Prillwitzet~al.}{2004}]{Prillwitz2004}Prillwitz,S.et.~al.\newblock\BBOQSignLanguageNotationSystem\BBCQ,\Turl{http://www.sign-lang.unihamburg.de\allowbreak/Projects/HamNoSys.html}.\bibitem[\protect\BCAY{Sandler\BBA\Lillo-Martin}{Sandler\BBA\Lillo-Martin}{2006}]{Sandler2006}Sandler,W.\BBACOMMA\\BBA\Lillo-Martin,D.\BBOP2006\BBCP.\newblock{\BemSignLanguageandLinguisticUniversals}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{謝\JBA今井\JBA池田}{謝\Jetal}{2004}]{Shie2004}謝軍\JBA今井啓允\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ日中機械翻訳システムjaw/Chineseにおける変換・生成の方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(1),\mbox{\BPGS\43--80}.\bibitem[\protect\BCAY{白澤}{白澤}{2002}]{Shirasawa2002}白澤麻弓\BBOP2002\BBCP.\newblock\JBOQ手話通訳に対する期待の内容に関する研究\JBCQ\\newblock\Jem{日本手話学会第28回大会論文集}.\bibitem[\protect\BCAY{SignFactory}{SignFactory}{1997}]{SignFactory1997}SignFactory\BBOP1997\BBCP.\newblock\Jem{手話ジャーナル初級教材No.~1(VHSビデオ)}.\newblockワールドパイオニア.\bibitem[\protect\BCAY{SignFactory}{SignFactory}{1999}]{SignFactory1999}SignFactory\BBOP1999\BBCP.\newblock\Jem{手話ジャーナル初級教材No.~2(VHSビデオ)}.\newblockワールドパイオニア.\bibitem[\protect\BCAY{Sutton}{Sutton}{2002}]{Sutton2002}Sutton,V.\BBOP2002\BBCP.\newblock{\BemLessonsInSignWriting,Textbook\&Workbook,3rded.}\newblockTheDeafActionCommitteeforSignWriting.\bibitem[\protect\BCAY{Sutton-Spence\BBA\Woll}{Sutton-Spence\BBA\Woll}{1999}]{Sutton-Spence1999}Sutton-Spence,R.\BBACOMMA\\BBA\Woll,B.\BBOP1999\BBCP.\newblock{\BemTheLinguisticsofBritishSignLanguage---AnIntroduction}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{田上\JBA森\JBA立野}{田上\Jetal}{1979}]{Tanokami1979}田上隆司\JBA森明子\JBA立野美奈子\BBOP1979\BBCP.\newblock\Jem{手話の世界}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{徳田\JBA奥村}{徳田\JBA奥村}{1998}]{Tokuda1998}徳田昌晃\JBA奥村学\BBOP1998\BBCP.\newblock\JBOQ日本語から手話への機械翻訳における手話単語辞書の補完方法について\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(3),\mbox{\BPGS\542--550}.\bibitem[\protect\BCAY{山田\JBA高松\JBA石原\JBA水野\JBA大口\JBA佐藤\JBA松本\JBA池田}{山田\Jetal}{2006}]{Yamada2006}山田佳裕\JBA高松大地\JBA石原吉晃\JBA水野智美\JBA大口智也\JBA佐藤芳秀\JBA松本忠博\JBA池田尚志\BBOP2006\BBCP.\newblock\JBOQ日本語文解析システムibukiC/Sについて\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\280--283}.\bibitem[\protect\BCAY{米川}{米川}{2002}]{Yonekawa2002}米川明彦\BBOP2002\BBCP.\newblock\Jem{手話ということば—もう一つの日本の言語}.\newblockPHP新書.\bibitem[\protect\BCAY{米川\JBA井崎}{米川\JBA井崎}{2004}]{Yonekawa2004}米川明彦\JBA井崎哲也\BBOP2004\BBCP.\newblock\Jem{NHKみんなの手話4--6月号}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{米川\JBA井崎}{米川\JBA井崎}{2005}]{Yonekawa2005}米川明彦\JBA井崎哲也\BBOP2005\BBCP.\newblock\Jem{NHKみんなの手話4--6月号,7--9月号}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{米川\JBA井崎}{米川\JBA井崎}{2006}]{Yonekawa2006}米川明彦\JBA井崎哲也\BBOP2006\BBCP.\newblock\Jem{NHKみんなの手話4--6月号,7--9月号}.\newblock日本放送出版協会.\end{thebibliography}\begin{biography}\bioauthor{松本忠博}{1985年岐阜大学工学部電子工学科卒業.1987年同大学院修士課程修了.現在,同大学工学部応用情報学科助教.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本ソフトウェア科学会,日本手話学会,ヒューマンインタフェース学会各会員.}\bioauthor{池田尚志}{1968年東京大学教養学部基礎科学科卒業.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
| |
V10N03-05
|
\section{はじめに}
本論文では,SENSEVAL2の日本語翻訳タスクに対して帰納論理プログラミング(InductiveLogicPrograming,以下ILPと略す)を適用する.背景知識として分類語彙表を利用することで,正解率54.0\,\%を達成した.この値は,訓練データを新たに作成しない翻訳タスク参加の他システムと比較して優れている.SENSEVAL2の日本語翻訳タスクは,TranslationMemory(以下TMと略す)と呼ばれる日英対訳対が与えられ,テスト文中の該当単語を英訳する際に利用できるTMの例文番号を返すタスクである\footnote{厳密には,英訳自体を解答としてもよいが,ここではこの解答形式は考慮しない.}\cite{sen2}.これは英訳を語義と考えた場合の多義語の曖昧性解消問題となっており,分類問題の一種である.このため従来から活発に研究されている帰納学習手法を用いて解決可能である.おそらく大規模かつ高品質な訓練データを用いたシステムが,コンテストで優秀な成績を納めるはずである.しかし翻訳タスクでは大規模かつ高品質な訓練データを用意するコストが高い.TMは1つの単語に対して平均して21.6例文がある.今仮にある単語Aの例文として\(id_1\)から\(id_{20}\)までの20例文がTMに記載されているとする.新たに訓練データを作成する場合,単語Aを含む新たな文を持ってきて,\(id_1\)から\(id_{20}\)のどれか1つのラベルをその事例に与える必要がある.〇か×かの二者択一は比較的容易であるが,20個のラベルの中から最も適切な1つを選ぶのは非常に負荷のかかる作業である.この理由のために,実際のコンテストにおいて,大規模かつ高品質な訓練データを用意する方法をとったシステムは1つ(Ibaraki)だけであった.ここでは訓練データを新たに作成せずに,日本語翻訳タスクを解決することを目標とする.訓練データを新たに作成しないとしても,TMの例文は訓練データとして扱える.ただしTMの例文を訓練データと見た場合,その量は少量と言わざるをえない.つまり問題は,少量の訓練データからどのようにして精度の高い分類規則を獲得するかである.そのための戦略としてILPを用いる.少量の訓練データからどのようして分類規則を学習したらよいかは,機械学習における1つの重要な課題である.その解決方法として背景知識の利用が提案されている\cite{ipsj-kaisetu}.背景知識とは,訓練データには明示されない問題固有の知識であり,広く捉えれば,人間の持つ常識的知識と考えて良い.一種の知識データベースである.問題はその背景知識を,どのように学習手法に取り入れてゆくかである.その解決のために提案されているのがILPである.ILPは訓練データを述語論理の形式で表し,そこから分類規則に相当する規則(述語論理の形式では節に対応)を導出する.知識データベースは述語論理の形式によって自然に表現できるので,背景知識の利用の観点からはILPを用いた学習戦略が優れている\cite{furukawa}.更にILPの背景知識では,複雑なグラフ構造を持ったものも表現できるので,近年,CMUの機械学習チームはWebページの文書分類にILPを利用している\cite{webkb}.更にいくつかの自然言語処理への応用も知られている\cite{cohen}\cite{califf}\cite{shimazu}.本論文では,ILPの処理系としてMuggletonによるProgolを利用する\cite{muggen2}.Progolによって多義語の曖昧性解消を行う.そして背景知識としては分類語彙表\cite{bunrui-tab}を利用する.以下2章で多義語の曖昧性解消をILPで行う方法を示す.3章では分類語彙表をどのように背景知識として組み込むかを説明し,4章で実験,5章で考察を述べ,最後にまとめる.
\section{ILPによる多義語の曖昧性解消}
ILPによる分類問題の解決については,書籍\cite{furukawa}に詳しく解説されている.ここでは関連する事柄についてのポイントのみを述べる.自然言語処理の個々の問題の多くは分類問題として以下のように定式化できる.まず分類先のクラスの集合\(C=\{c_1,c_2,\cdots,c_m\}\)を設定し,次に事例\(x\)を\(n\)個の要素からなる素性ベクトル\((f_1,f_1,\cdots,f_n)\)で表す.各素性は事例を識別するための観点に対応する.\(k\)番目の素性を\(attr_k\)と名前をつけておく.訓練事例は事例\(x\)とそのクラス\(c_x\)の対の情報\((x,c_x)\)であり,これを多数集めたものが訓練データとなる.確率統計的な帰納学習手法(決定木,決定リスト,ME法など)は訓練データを入力として,分類器\(F\)を構築する.分類器\(F\)への入力は事例であり,出力はクラスである.分類問題を解決するとは,この分類器\(F\)を作成することである.ILPでは訓練事例\((x,c_x)\)を以下の節で表現する.\bigskip\hspace{25mm}\begin{minipage}[t]{50mm}\verb|class(|{\bfx},\(\bf{c_x}\)).\\\verb|attr_1(|{\bfx},\(\bf{f_1}\)).\\\verb|attr_2(|{\bfx},\(\bf{f_2}\)).\\...\\\verb|attr_n(|{\bfx},\(\bf{f_n}\)).\end{minipage}\bigskipこれらの節が訓練データとなる.ILPではここからあるクラスにのみ共通して見られ,他のクラスには見られないある種のパターンの発見を行う.これは本質的に帰納推論の処理である.その結果,例えば,以下のような節をILPは出力する.\bigskip\hspace{25mm}\begin{minipage}[t]{50mm}\verb|class(X,c):-attr_5(X,h).|\end{minipage}\bigskipこれは事例\verb|X|の5番目の素性が\verb|h|であれば,事例\verb|X|のクラスが\verb|c|であることを示している.また左辺が\verb|class(Y,c)|である節が他になくしかも,事例\verb|X|の5番目の素性が\verb|h|でなければ,事例\verb|X|のクラスは\verb|c|でないことも示している.ここまでは特に確率統計的な手法と大きな違いはない.確率統計的手法にはないILPの大きな特徴は,訓練データ中に任意の述語や節を記述できる点である.この与えられた訓練事例の集合以外から追加される述語や節を背景知識と呼ぶ.つまり問題固有の知識や,人間の常識といったものを背景知識として訓練データ内に簡単に追加できることがILPの大きな特徴となっている.特に,述語論理の節の表現力は高く,ILPは表形式(素性ベクトル)では表現できない複雑な構造を持つ訓練事例も表現できる.以下,ILPによって多義語の曖昧性解消を行う.利用する素性は以下の4種類を用いた.\begin{verbatim}対象単語の直前の単語e1対象単語の直後の単語e2e1から前方3単語e3e2から後方3単語e4\end{verbatim}例を示す.対象とする多義語を「与える」として「彼では力不足という印象を与えるかもしれない。」という文は,以下のように形態素解析される.第1列が表記,第2列が原型,第3列が品詞を表す.\begin{verbatim}彼彼普通名詞でで格助詞はは副助詞力力普通名詞不足不足サ変名詞とと格助詞いういう動詞印象印象普通名詞をを格助詞与える与える動詞かもかも接続助詞しれしれる動詞ないない形容詞性述語接。。句点\end{verbatim}ここから以下の素性が得られる.\begin{verbatim}e1='を'e2='かも'e3={'と','いう','印象'}e4={'しれ','ない'}\end{verbatim}例えば,この例文のIDが\verb|sen25|であり,この文の「与える」の語義IDが\verb|ataeru2|だとすれば,この例文に対するデータは,以下の節で表現される.\begin{verbatim}class(sen25,ataeru2).e1(sen25,'を').e2(sen25,'かも').e3(sen25,'と').e3(sen25,'いう').e3(sen25,'印象').e4(sen25,'しれ').e4(sen25,'ない').\end{verbatim}
\section{分類語彙表の利用}
前節の設定で,訓練事例を節に変換すれば,ILPにより分類規則が節の形で得られる.ここで得られる規則を,背景知識を利用することで更に高めることも可能である.本論文では,背景知識として分類語彙表\cite{bunrui-tab}を利用する.分類語彙表は木構造をもったシソーラスである.ただし木のリーフノードにのみ単語が配置されている.つまり木のあるノード以下に位置するリーフノードの単語群はそのノードの階層において同一の意味クラスに属すると考えて良い.当然階層が上がるほど,同じ意味クラスの単語は増加することになる.\begin{figure}[htbp]\begin{center}\epsfxsize=95.67mm\epsfbox{bunrui2.eps}\end{center}\caption{分類語彙表}\label{fig::bunrui}\end{figure}例えば\mbox{図\ref{fig::bunrui}}において一番下の階層で考えると,「課題」「宿題」「問題」は同じ意味をもつグループとなり,「語意」「題意」「意義」は別の意味のグループとなる.1つ上の階層で考えると,これらの単語はすべて同じ意味をもつ単語と見なせる.本論では一番下の階層でみた場合のグループの単語を同じ意味をもつ単語とした.図\ref{fig::ex_rule}に示した規則は,素性(\verb|e1|,\verb|e2|,\verb|e3|,\verb|e4|の単語)と,分類語彙表に含まれる単語と,その単語と同じ意味を持つ単語を結び付ける.つまり,ILPは同じ意味の単語を同じ単語として扱うようになる.述語\verb|b|は,分類語彙表の単語とその意味の番号の組を表す.述語\verb|e1〜e4|は,文の素性を表す.述語\verb|e1_w〜e4_w|は,単語の代わりに語義を用いることによって述語\verb|e1〜e4|を拡張したものであり,\verb|e1〜e4|の代りに素性として用いられる.\begin{figure}[htbp]\begin{verbatim}e1_w(ID,Number):-e1(ID,Word),b(Word,Number).e2_w(ID,Number):-e2(ID,Word),b(Word,Number).e3_w(ID,Number):-e3(ID,Word),b(Word,Number).e4_w(ID,Number):-e4(ID,Word),b(Word,Number).\end{verbatim}\caption{単語を語義に一般化する規則}\label{fig::ex_rule}\end{figure}
\section{実験}
本論文ではILPの実装システムとしてMuggletonによるProgol\cite{muggen2}を利用した.Progolへの入力形式は,Prolog形式の述語や節であり,本論文で説明に用いた形式で行える.ILPの実装システムは他にも存在するが,Progolが最もよく利用される代表的なシステムである.まず,TMの形態素解析結果から素性(\verb|e1|,\verb|e2|,\verb|e3|,\verb|e4|)を抽出する.また例文番号を分類先のクラスとする.例文番号,クラス,素性の情報を節に変換し,Progolの入力ファイルを作成する.入力ファイルをProgolに読み込ませて,規則を生成した.テストは翻訳タスクのコンテストで用いられた全40単語(各単語30問,計1,200問)が対象である.それらに対して,Progolにより得られた規則を使い,多義語の曖昧性解消のテストを行った(実験1).次に,TMの例文の他に背景知識として分類語彙表を用いて,Progolにより規則を生成した.得られた規則を使い,40単語に対してテストを行った(実験2).実験1と実験2の結果を\mbox{表\ref{result1}}に示す.\mbox{表\ref{result1}}のTMの列は実験1の結果を示し,TM+背景知識の列は実験2の結果を示している.\begin{table}[htbp]\begin{center}\leavevmode\caption{背景知識の効果}\label{result1}\begin{tabular}{|c|c|c||c|c|c|}\hline見出し&TM&TM+背景知識&↓&↓&↓\\\hlineataeru&0.167&0.167&kiroku&0.267&0.267\\baai&0.033&0.033&koeru&0.967&0.867\\chikaku&0.333&0.500&kokunai&1.000&1.000\\chushin&0.367&0.367&kotoba&0.700&0.933\\deru&0.333&0.333&mae&0.167&0.000\\egaku&0.333&0.333&mamoru&0.033&0.033\\hakaru&0.600&0.567&matsu&0.867&0.867\\hana&0.667&0.700&miseru&0.733&0.933\\hantai&0.800&0.933&mitomeru&0.233&0.233\\ima&0.067&0.867&mondai&0.533&0.533\\imi&0.400&0.567&motomeru&0.867&0.867\\ippan&0.333&0.533&motsu&0.333&0.867\\ippou&0.633&0.533&mune&0.233&0.267\\iu&0.033&0.033&noru&0.300&0.267\\jidai&0.700&0.733&shimin&0.867&0.967\\jigyou&0.500&0.500&sugata&0.200&0.133\\kaku\_n&0.800&0.733&tsukau&0.700&0.667\\kaku\_v&0.967&0.967&tsukuru&0.633&0.367\\kau&0.467&0.833&tsutaeru&0.400&0.367\\kiku&0.500&0.500&ukeru&0.400&0.433\\\hline↓&↓&↓&平均&0.487&0.540\\\hline\end{tabular}\end{center}\end{table}平均の正解率はTMのみは48.7\,\%であり,TM+背景知識では54.0\,\%であった.分類語彙表を背景知識として用いた効果が確認できる.またこの54.0\,\%という値は,付加的な訓練データを用いない翻訳タスクの他のシステムの正解率と比較しても,優秀な値と言える.次に確率統計的な手法の1つである決定リストと比較してみる.論文\cite{shinnou-sen2}では翻訳タスクの正解から語義(例文番号)をグループ化して,TMの例文番号をグループ化することで,正解率が向上することを述べている.そのため翻訳タスクに対する学習手法を比較する場合,TMの例文のグループ化を揃える必要がある.そこで,ここでは論文\cite{shinnou-sen2}と同じ手法を用いて,正解データから例文をクラスタリングし,同一の訓練データを用いることにした.確率統計的な学習手法としては,決定リストを用いた(実験3).実験の結果を\mbox{表\ref{result2}}に示す.\begin{table}[htbp]\begin{center}\leavevmode\caption{決定リストとの比較}\label{result2}\begin{tabular}{|c|c|c||c|c|c|}\hline見出し&決定リスト&ILP&↓&↓&↓\\\hlineataeru&0.333&0.867&kiroku&0.833&0.933\\baai&0.367&0.933&koeru&0.633&0.600\\chikaku&0.367&0.467&kokunai&1.000&0.633\\chushin&0.200&0.700&kotoba&0.967&0.967\\deru&0.367&0.233&mae&0.267&0.200\\egaku&0.567&0.267&mamoru&0.367&0.833\\hakaru&0.733&0.900&matsu&0.867&0.767\\hana&0.800&0.933&miseru&0.933&0.733\\hantai&0.900&0.967&mitomeru&0.200&0.300\\ima&0.367&0.933&mondai&0.533&0.467\\imi&0.767&1.000&motomeru&0.633&0.000\\ippan&0.333&0.567&motsu&0.900&0.833\\ippou&0.500&0.767&mune&0.267&0.300\\iu&0.733&0.900&noru&0.300&0.433\\jidai&0.567&0.233&shimin&0.567&0.433\\jigyou&0.667&0.567&sugata&0.367&0.233\\kaku\_n&0.300&0.800&tsukau&0.533&0.967\\kaku\_v&0.967&0.967&tsukuru&0.033&0.233\\kau&0.733&0.533&tsutaeru&0.367&0.200\\kiku&0.467&0.500&ukeru&0.333&0.100\\\hline↓&↓&↓&平均&0.548&0.605\\\hline\end{tabular}\end{center}\end{table}平均の正解率は決定リストでは54.8\,\%であったが,本手法では60.5\,\%の結果を得た.つまりTMだけを用いた学習システムとしては,決定リストよりもILPの方が優れていた.ただし,いくつかの単語については,実験3でのILPの正解率が,実験1でのILPの正解率や,実験3での決定リストの正解率よりも,極端に低くなっている.例えば,mokuteki,jidai,ukeru,baai,egaku,imaなどである.これらの正解率が極端に下がっている理由は,学習結果として生成された節の順序の問題である.これは,default規則にあたるものを適切に設定できなかったことを意味している.これについては次節の考察に記述する.
\section{考察}
背景知識を用いても必ずしも正解率が高くなるとは限らないことは容易に予想がつく.実際に,実験1,2でも精度が下がる単語がいくつか存在する.また,実験3と同様の課題についてさらに分類語彙表を背景知識として用いた実験も行ったが,この場合の平均の正解率も60.5\,\%から58.9\,\%に低下した.分類語彙表を用いることで,単語を語義に一般化すれば,ある部分では効果があるが,別の部分では過度の一般化になるので,その影響が現れると精度は下がる.過度の一般化への対処は今後の課題である.また節を規則として見た場合,節の適用順序が重要になる.これは入力事例と訓練事例に矛盾がないことを仮定する論理を基盤とする推論では問題にならない.しかし現実の問題では訓練データに矛盾する入力も有り得る.例えば,以下のケースを考えてみる.\begin{verbatim}class(X,c1):-attr_1(X,a).class(X,c2):-attr_2(X,b).\end{verbatim}節Aは事例の1番目の素性の値がaなら分類クラスがc1であることを示し,節Bは事例の2番目の素性の値がbなら分類クラスがc2であることを示している.この2つの規則が学習されたということは,訓練データ内には,1番目の素性の値がaでしかも2番目の素性の値がbの事例が存在しなかったことを意味する.また同時にそのような事例が存在しないことも仮定したことになる.ところが,現実にはそのような事例が入力されることもある.この場合,上記の規則では,クラスはc1と識別される.一方,上記の規則の順序を変更し,以下の形にすれば,クラスはc2と識別される.\begin{verbatim}class(X,c2):-attr_2(X,b).class(X,c1):-attr_1(X,a).\end{verbatim}節の出現順序はProgolでは考慮されていないようである.訓練データに対応する述語や節の与える順序が,生成される節の順序に影響する.本実験ではこの点は何も対策をたてずに,学習された節をそのまま適用した.しかしこのような節の順序はdefault規則が何に対応するかという問題にもなっており,正解率に大きく影響する.実験3で正解率が大きく下がる単語は,みなこの問題がからんでいた.この対策も今後の課題である.また上記の問題とも関連するがILPでは頻度の情報がなくなってしまう.例えば,上記の節Bに合致した訓練事例の数が10,000で,節Aに合致した訓練事例の数が1のとき,普通に考えれば合致する事例数の多い節Bを優先させるのが正しいであろう.しかしILPでは,頻度の情報が節Bと節Aに反映されず,結果として同じ重みを与えている形になる.この問題は,確率と論理を結び付ける研究と関連しており,いまだ決定版は出ていない状況である\cite{furukawa}.少量の訓練データしかない場合,識別精度を高めるには,訓練データ以外の情報,つまり背景知識をいかに取り込むかが重要である.今回の実験では背景知識として分類語彙表を用いたが,単語を語義で一般化することは通常の確率統計的な手法でも実現可能であり\cite{almuallim},この点ではILPを用いた利点は少ない.ただし翻訳タスクでは背景知識の利用という観点以外からも,ILPを用いた方が適切であると思われる.なぜならここで扱っている少量のデータは統計学でいうサンプルではないからである.例えば,仮に\begin{verbatim}語義c1の例文1からe1=aとe2=bいう素性語義c2の例文2からe1=cとe2=dいう素性語義c1の例文3からe1=aとe2=eいう素性\end{verbatim}\noindentが得られたとする.確率統計的な手法では,以下の5つの確率が高くなる.\begin{verbatim}確率対応する例文------------------------------P(c1|e1=a)例文1,例文3P(c1|e2=b)例文1P(c1|e2=e)例文3P(c2|e1=c)例文2P(c2|e2=d)例文2\end{verbatim}\noindentそして特に\verb#P(c1|e1=a)#の確率が高くなる.同じクラスc1の例文1と3に素性\verb|e1=a|が発生しているからである.ただし,このような確率の算出が妥当なのは,例文1,2,3がサンプル,つまり等確率で現れる事例という仮定がある.TMの例文はサンプルではありえない.例えば,ある単語は90\,\%以上の割合で,語義c1の意味用法で利用されるとしても,TMのその単語の例文の90\,\%以上が語義c1の例文であることはない.つまり,TMの例文数から素性に重みをつけるのは意味がない.そのためTMから得られる素性は,同じ重みで評価するのが妥当であろう.今回ILPが決定リストよりも優れた結果を出せた要因がそこにあると思われる.またILPの背景知識として,今回は分類語彙表を用いたが,任意の節が組み込めることは大きな魅力である.特に,Webページは解析の観点によっては,複雑な構造をもつことになり,そのような複雑なデータ構造からの学習にはILPが利用できるため,今後応用範囲が広がる研究分野だと思われる.
\section{おわりに}
本論文では,SENSEVAL2の日本語翻訳タスクに対してILPを適用した.ILPは背景知識を容易に学習に組み込めるという確率統計的な手法にはない長所がある.翻訳タスクは少量の訓練データしか利用できない分類問題と見なせるため,翻訳タスクはILPの格好の応用となっている.ここではILPの実装システムとしてProgol,背景知識として分類語彙表を利用することで,正解率54.0\,\%を達成した.この値は,訓練データを新たに作成しない翻訳タスクの他システムと比較して優れている.また語義のクラスを同一にした訓練データを用いて,確率統計的手法の1つである決定リストと比較したところ,決定リストの正解率54.8\,\%に対して,ILPでは60.5\,\%となり,決定リストよりも良い結果が得られた.分類語彙表を利用した場合の過度の一般化をどう押さえるか,出力される規則の優先順序をどのように制御するかが今後の課題である.\bibliographystyle{jnlpbbl}\bibliography{ilp}\begin{biography}\biotitle{略歴}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年茨城大学工学部システム工学科助手.1997年同学科講師,2001年同学科助教授.情報処理学会,人工知能学会,言語処理学会,ACL各会員.博士(工学).}\bioauthor{阿部修也}{2001年茨城大学工学部システム工学科卒業.2003年茨城大学大学院理工学研究科システム工学専攻博士前期課程修了.同年4月より株式会社システム計画研究所.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V16N05-02
|
\section{はじめに}
\label{sec:Intro}検索エンジン\textit{ALLTheWeb}\footnote{http://www.alltheweb.com/}において,英語の検索語の約1割が人名を含むという報告\footnote{http://tap.stanford.edu/PeopleSearch.pdf}があるように,人名は検索語として検索エンジンにしばしば入力される.しかし,その検索結果としては,その人名を有する同姓同名人物についてのWebページを含む長いリストが返されるのみである.例えば,ユーザが検索エンジンGoogle\footnote{http://www.google.com/}に``WilliamCohen''という人名を入力すると,その検索結果には,この名前を有する情報科学の教授,アメリカ合衆国の政治家,外科医,歴史家などのWebページが,各人物の実体ごとに分類されておらず,混在している.こうしたWeb検索結果における人名の曖昧性を解消する従来研究の多くは,凝集型クラスタリングを利用している\cite{Mann03},\cite{Pedersen05},\cite{Bekkerman-ICML05},\cite{Bollegala06}.しかし,一般に人名の検索結果では,その上位に,少数の同姓同名だが異なる人物のページが集中する傾向にある.したがって,上位に順位付けされたページを種文書として,クラスタリングを行えば,各人物ごとに検索結果が集まりやすくなり,より正確にクラスタリングができると期待される.以下,本論文では,このような種文書となるWebページを「seedページ」と呼ぶことにする.本研究では,このseedページを用いた半教師有りクラスタリングを,Web検索結果における人名の曖昧性解消のために適用する.これまでの半教師有りクラスタリングの手法は,(1)制約に基づいた手法,(2)距離に基づいた手法,の二つに分類することができる.制約に基づいた手法は,ユーザが付与したラベルや制約を利用し,より正確なクラスタリングを可能にする.例えば,Wagstaffら\cite{Wagstaff00},\cite{Wagstaff01}の半教師有り$K$-meansアルゴリズムでは,``must-link''(2つの事例が同じクラスタに属さなければならない)と,``cannot-link''(2つの事例が異なるクラスタに属さなければならない)という2種類の制約を導入して,データのクラスタリングを行なう.Basuら\cite{Basu02}もまた,ラベルの付与されたデータから初期の種クラスタを生成し,これらの間に制約を導入する半教師有り$K$-meansアルゴリズムを提案している.また,距離に基づいた手法では,教師付きデータとして付与されたラベルや制約を満たすための学習を必要とする.例えば,Kleinら\cite{Klein02}の研究では,類似した2点$(x_{i},x_{j})$間には``0'',類似していない2点間には$(\max_{i,j}D_{ij})+1$と設定した隣接行列を作成して,クラスタリングを行なう.また,Xingら\cite{Xing03}の研究では,特徴空間を変換することで,マハラノビス距離の最適化を行う.さらに,Bar-Hillelら\cite{Bar-Hillel03}の研究では,適切な特徴には大きな重みを,そうでない特徴には小さな重みを与えるRCA(RelevantComponentAnalysis)\cite{Shental02}により,特徴空間を変換する.一方,我々の提案する半教師有りクラスタリングでは,seedページを含むクラスタの重心の変動を抑える点において,新規性がある.本論文の構成は次のとおりである.\ref{sec:ProposedMethod}章では,我々の提案する新たな半教師有りクラスタリングの手法について説明する.\ref{sec:Experiments}章では,提案手法を評価するための実験結果を示し,その結果について考察する.最後に\ref{sec:Conclusion}章では,本論文のまとめと今後の課題について述べる.
\section{提案手法}
\label{sec:ProposedMethod}\ref{sec:Intro}章で述べた凝集型クラスタリングに基づいた人名の曖昧性解消は,クラスタリングを適切に導いていく基準がないため,正確なクラスタリングを行うことは難しい.一方,これまでに提案されている半教師有りクラスタリングは,クラスタ数$K$をあらかじめ設定する必要がある$K$-meansアルゴリズム\cite{MacQueen67}を改良することを目的としている.しかし,本研究においては,Web検索結果における同姓同名人物の数は,事前にわかっているわけではない.したがって,我々の手法においては,事前にクラスタ数を設定するのではなく,新たに生成されたクラスタと,すでに生成されているクラスタ間の類似度を計算し,これらの値がすべて,あらかじめ設定した閾値よりも小さくなった場合に,クラスタリングの処理を終え,その時点で生成されているクラスタ数を最終的な同姓同名人物の数とする.また,従来の半教師有りクラスタリングアルゴリズムは,制約を導入したり\cite{Wagstaff00},\cite{Wagstaff01},\cite{Basu02},距離を学習したり\cite{Klein02},\cite{Xing03},\cite{Bar-Hillel03}することにのみ着目していた.しかし,半教師有りクラスタリングにおいて,より正確なクラスタリング結果を得るためには,seedページ間への制約の導入とともに,seedページを含むクラスタの重心の変動の抑制も重要である.これは,(1)seedページを導入して半教師有りクラスタリングを行なう場合,通常の重心の計算法では重心の変動が大きくなる傾向にあり,クラスタリングの基準となるseedページを導入する効果が得られない,(2)重心を完全に固定して半教師有りクラスタリングを行なう場合,その重心と類似度が高いWebページしかマージされなくなり,多数の独立したクラスタが生成されやすくなる,という二つの考えに基づく.したがって,seedページを含むクラスタの重心の変動を抑えることができれば,より適切なクラスタリングが実現できると期待される.本章では,我々の提案する半教師有りクラスタリングの手法について説明する.以下,検索結果集合$W_{p}$中のWebページ$p_{i}$の特徴ベクトル$\boldsymbol{w}^{p_{i}}$$(i=1,\cdots,n)$を式(\ref{Eq:featurevector_org})のように表す.\begin{equation}\boldsymbol{w}^{p_{i}}=(w_{t_{1}}^{p_{i}},w_{t_{2}}^{p_{i}},\cdots,w_{t_{m}}^{p_{i}})\label{Eq:featurevector_org}\end{equation}ここで,$m$は検索結果集合$W_{p}$における単語の異なり数であり,$t_{k}$$(k=1,2,\cdots,m)$は,各単語を表す.予備実験として,(a)TermFrequency(TF),(b)InverseDocumentFrequency(IDF),(c)residualIDF(RIDF),(d)TF-IDF,(e)$x^{I}$-measure,(f)gainの6つの単語重み付け法を比較した.これらの単語重み付け法は,それぞれ,次のように定義される.\clearpage\noindent\textbf{(a)TermFrequency(TF)}TFは,与えられた文書において,ある単語がどれだけ顕著に出現するかを示し,この値が大きければ大きいほど,その単語が文書の内容をよく表現していることを示す.$tf(t_{k},p_{i})$をWebページ$p_{i}$における単語$t_{k}$の頻度とする.このとき,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:tf})によって定義される.\begin{eqnarray}w_{t_{k}}^{p_{i}}=\frac{tf(t_{k},p_{i})}{\sum_{s=1}^{m}tf(t_{s},p_{i})}\label{eq:tf}\end{eqnarray}\noindent\textbf{(b)InverseDocumentFrequency(IDF)}\cite{Jones73}によって導入されたIDFは,その単語が出現する文書数が少なければ少ないほど,その単語が出現する文書にとっては,有用であることを示すスコアである.このとき,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:idf})によって定義される.\begin{eqnarray}w_{t_{k}}^{p_{i}}=\log\frac{N}{df(t_{k})}\label{eq:idf}\end{eqnarray}ここで,$N$はWebページの総数,$df(t_{k})$は単語$t_{k}$が現れるWebページ数である.\noindent\textbf{(c)ResidualInverseDocumentFrequency(RIDF)}ChurchandGale\cite{Church95VLC,Church95JNLE}は,ほとんどすべての単語は,ポアッソンモデルのような独立性に基づいたモデルに応じて,非常に大きなIDFスコアを持つことを示した.また,単語の有用性は,推定されるスコアからは大きな偏差を持つ傾向があるという考えに基づいて導入したスコアがresidualIDFである.このスコアは,実際のIDFとポアッソン分布によって推定されるIDFとの差として定義される.$cf_{k}$を文書集合中における単語$t_{k}$の総出現数,$N$をWebページの総数としたとき,1つのWebページあたりの単語$t_{k}$の平均出現数は,$\lambda_{k}=\frac{cf_{k}}{N}$と表される.このとき,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:ridf})によって定義される.\begin{align}w_{t_{k}}^{p_{i}}&=IDF-\log\frac{1}{1-p(0;\lambda_{i})}\nonumber\\&=\log\frac{N}{df(t_{k})}+\log(1-p(0;\lambda_{k}))\label{eq:ridf}\end{align}ここで,$p$は,パラメータ$\lambda_{k}$を伴うポアッソン分布である.この手法は,少数の文書のみに出現する単語は,より大きなRIDFスコアを持つ傾向がある.\noindent\textbf{(d)TF-IDF}TF-IDF法\cite{Salton83}は,文書中の単語を重み付けするために,情報検索の研究において広く使われている.TF-IDFは,上述した(a)TFと(b)IDFに基づいて,式(\ref{eq:tfidf})のように定義される.\begin{eqnarray}w_{t_{k}}^{p_{i}}=\frac{tf(t_{k},p_{i})}{\sum_{s=1}^{m}tf(t_{s},p_{i})}\cdot\log\frac{N}{df(t_{k})}\label{eq:tfidf}\end{eqnarray}ここで,$tf(t_{k},p_{i})$と$df(t_{k})$は,それぞれ,Webページ$p_{i}$における単語$t_{k}$の頻度と,単語$t_{k}$が出現するWebページ数を表す.また,$N$はWebページの総数である.\noindent\textbf{(e)$x^{I}$-measure}BooksteinandSwanson\cite{Bookstein74}は,単語$t_{k}$に対する$x^{I}$-measureというスコアを導入した.$tf(t_{k},p_{i})$をWebページ$p_{i}$における単語$t_{k}$の頻度,$df(t_{k})$を単語$t_{k}$が現れるWebページ数とすると,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:xI})によって定義される.\begin{eqnarray}w_{t_{k}}^{p_{i}}=tf(t_{k},p_{i})-df(t_{k})\label{eq:xI}\end{eqnarray}この手法は,同程度の出現頻度である2つの単語のうち,少数の文書に集中して出現する単語ほど,高いスコアを示す.\noindent\textbf{(f)gain}一般に,IDFは単語の重要性を表すと考えられているが,Papineni\cite{Papineni01}は,IDFは単語の特徴を表す最適な重みに過ぎず,単語の重要性とは異なるものであるため,利得を単語の重要性と考え,gainを提案した.本手法では,$\boldsymbol{w}^{p_{i}}$の各要素$w_{t_{k}}^{p_{i}}$は,式(\ref{eq:gain})によって定義される.\vspace{-0.5\baselineskip}\begin{eqnarray}w_{t_{k}}^{p_{i}}=\frac{df(t_{k})}{N}\left(\frac{df(t_{k})}{N}-1-\log\frac{df(t_{k})}{N}\right)\label{eq:gain}\end{eqnarray}ここで,$df(t_{k})$は,単語$t_{k}$が現れるWebページ数を,$N$はWebページの総数を示す.本手法では,ほとんど出現しない単語と,非常に頻出する単語は,両方とも低いスコアとなり,中頻度の単語は高いスコアとなる.上述した(a)〜(f)の単語重み付け手法の中で,本研究においては,``(f)gain''が最も効果的な単語の重み付け法であることがわかったため,これを本研究における単語の重み付け法として用いる.さらに,クラスタ$C$の重心ベクトル$\boldsymbol{G}^{C}$を式(\ref{Eq:centroidvector})のように定義する.\begin{eqnarray}\boldsymbol{G}^{C}=(g^{C}_{t_{1}},g^{C}_{t_{2}},\cdots,g^{C}_{t_{m}})\label{Eq:centroidvector}\end{eqnarray}ここで,$g^{C}_{t_{k}}$は$\boldsymbol{G}^{C}$における各単語の重みであり,$t_{k}$$(k=1,2,\cdots,m)$は各単語を表す.なお,以下で述べるクラスタリング手法では,2つのクラスタ$C_{i}$,$C_{j}$間の類似度$sim(C_{i},C_{j})$を,式(\ref{eq:sim})によって計算する.\begin{eqnarray}sim(C_{i},C_{j})=\frac{\boldsymbol{G}^{C_{i}}\cdot\boldsymbol{G}^{C_{j}}}{|\boldsymbol{G}^{C_{i}}|\cdot|\boldsymbol{G}^{C_{j}}|}\label{eq:sim}\end{eqnarray}ただし,$\boldsymbol{G}^{C_{i}}$,$\boldsymbol{G}^{C_{j}}$は,それぞれ,クラスタ$C_{i}$,$C_{j}$の重心ベクトルを表す.\subsection{凝集型クラスタリング}\label{subsec:AggCls}凝集型クラスタリングにおいては,はじめに各Webページを,\pagebreak個々のクラスタとして設定する.次に,二つのクラスタ間の類似度が,あらかじめ設定された閾値より小さくなるまで,類似度が最大となる二つのクラスタをマージして新たなクラスタを生成する.図\ref{Fig:AggClsAlgorithm}に凝集型クラスタリングのアルゴリズムを示す.\begin{figure}[b]\begin{center}\includegraphics{16-4ia3f1.eps}\end{center}\caption{凝集型クラスタリングアルゴリズム}\label{Fig:AggClsAlgorithm}\end{figure}このアルゴリズムでは,あるクラスタ$C_{i}$(要素数$n_{i}$)を最も類似したクラスタ$C_{j}$(要素数$n_{j}$)にマージした後の,新たなクラスタ$C^{new}$の重心ベクトル$\boldsymbol{G}^{new}$は,式(\ref{eq:newagg-centroid})のように定義される.\begin{eqnarray}\boldsymbol{G}^{new}=\frac{\sum_{\boldsymbol{w}^{p}\inC_{i}}\boldsymbol{w}^{p}+\sum_{\boldsymbol{w}^{p}\inC_{j}}\boldsymbol{w}^{p}}{n_{i}+n_{j}}\label{eq:newagg-centroid}\end{eqnarray}\subsection{提案する半教師有りクラスタリング}\label{subsec:SSCls}一般に,seedページを含むクラスタ$C_{s_{j}}$と,seedページを含まないクラスタ$C_{i}$の類似度が大きい場合には,両者を新たなクラスタとしてマージすべきであるが,両者の距離が大きい場合には,通常の重心の計算法では,重心の変動が大きくなる傾向にある.そこで,はじめに,あるクラスタ$C_{i}$(重心ベクトル$\boldsymbol{G}^{C_{i}}$)を,seedページを含むクラスタ$C_{s_{j}}$(重心ベクトル$\boldsymbol{G}^{C_{s_{j}}}$)にマージする際,これらのクラスタの重心間の距離$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}})$に基づいて,Webページ$p$の特徴ベクトル$\boldsymbol{w}^{p}\inC_{i}$を重み付けする.次に,この重み付けした特徴ベクトルを用いて重心の計算を行なうことで上述した傾向を防ぎ,重心の変動を抑える.まず,これまでに$k_{j}$個のクラスタがマージされたseedページを含むクラスタ$C_{s_{j}}^{(k_{j})}$(要素数$n_{s_{j}}$)に対して,クラスタ$C_{i}$(要素数$n_{i}$)が$k_{j}+1$回目にマージされるクラスタであるとする.なお,クラスタ$C_{s_{j}}^{(0)}$の要素は,初期のseedページとなる.\noindent\textbf{(1)}この$C_{s_{j}}^{(k_{j})}$にマージされるクラスタ$C_{i}$に含まれる各要素について,$C_{s_{j}}^{(k_{j})}$の重心$\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}}$と,クラスタ$C_{i}$の重心$\boldsymbol{G}^{C_{i}}$間の距離尺度$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})$を用いて,クラスタ$C_{i}$に含まれるWebページの特徴ベクトル$\boldsymbol{w}^{p_{l}}_{C_{i}}$$(l=1,\cdots,n_{i})$を重み付けし,その後に生成されるクラスタを$C_{i'}$(要素数$n_{i'}$)とする.このとき,$C_{i'}$の要素となる重み付けした後のWebページの特徴ベクトル$\boldsymbol{w}^{p_{l}}_{C_{i'}}$は,式(\ref{eq:TransferedCor})で表される.\begin{eqnarray}\boldsymbol{w}^{p_{l}}_{C_{i'}}=\frac{\boldsymbol{w}^{p_{l}}_{C_{i}}}{D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})+c}\label{eq:TransferedCor}\end{eqnarray}本研究では,$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})$として,(i)ユークリッド距離,(ii)マハラノビス距離,(iii)適応的マハラノビス距離,の三つの距離尺度を比較する.また,$c$は$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})$が0に非常に近い値となったとき,$\boldsymbol{w}^{p}$の各要素が極端に大きな値となることを防ぐために導入した定数である.この$c$の値の影響については,3.3.1節で述べる.\noindent\textbf{(2)}次に,seedページを含むクラスタ$C_{s_{j}}^{(k_{j})}$(要素数$n_{s_{j}}$)に$C_{i'}$(要素数$n_{i'}$)の要素を追加し,クラスタ$C_{s_{j}}^{(k_{j}+1)}$(要素数$n_{s_{j}}+n_{i'}$)を作成する.\[C_{s_{j}}^{(k_{j}+1)}=\{\boldsymbol{w}^{p_{1}}_{C_{s_{j}}^{(k_{j})}},\cdots,\boldsymbol{w}^{p_{{n}_{s_{j}}}}_{C_{s_{j}}^{(k_{j})}},\boldsymbol{w}^{p_{1}}_{C_{i'}},\cdots,\boldsymbol{w}^{p_{n_{{i'}}}}_{C_{i'}}\}\]\noindent\textbf{(3)}このとき,$k_{j}+1$回目のクラスタをマージしたクラスタ$C_{s_{j}}^{(k_{j}+1)}$の重心$\boldsymbol{G}^{C_{s_{j}}^{(k_{j}+1)}}$は,式(\ref{eq:NewG})のように計算される.ここで,式(\ref{eq:TransferedCor})において,マージされるクラスタの特徴ベクトル$\boldsymbol{w}^{p_{l}}_{C_{i}}$に重み付けをしているため,重み付き平均の計算となるように,$n_{i'}$にも同様の重みを乗じている.\begin{eqnarray}\boldsymbol{G}^{C_{s_{j}}^{(k_{j}+1)}}=\frac{\sum_{\boldsymbol{w}^{p}\inC_{s_{j}}^{(k_{j}+1)}}\boldsymbol{w}^{p}}{n_{{s_{j}}}+n_{i'}\times\frac{1}{D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}^{(k_{j})}})+c}}\label{eq:NewG}\end{eqnarray}このように本研究では,seedページを含むクラスタを重視してクラスタリングの基準を明確にし,正確なクラスタリングを行うことを目的とする.もし,2つのクラスタが種用例を含まないのであれば,新たなクラスタの重心ベクトル$\boldsymbol{G}^{new}$は,式(\ref{eq:newcentroid(agg)})のように計算される.\begin{eqnarray}\boldsymbol{G}^{new}=\frac{\sum_{\boldsymbol{w}^{p}\inC_{i}}\boldsymbol{w}^{p}+\sum_{\boldsymbol{w}^{p}\inC_{j}}\boldsymbol{w}^{p}}{n_{i}+n_{j}}\label{eq:newcentroid(agg)}\end{eqnarray}本研究では,seedページを含むクラスタに,それと最も類似したクラスタをマージする際,seedページを含むクラスタの重心の変動を抑える半教師有りクラスタリングを適用して,Web検索結果における人名の曖昧性を解消する.従来の半教師有りクラスタリングの手法のうち,制約を導入する手法では,クラスタの基準となる重心についての検討は見逃されており,また,距離を学習する手法では,特徴空間が大域的に変換される.一方,我々の手法は,seedページを含むクラスタの重心の変動を抑え,その重心を局所的に調整できる効果が期待される.なお,seedページを導入することで,検索結果を改善することは,適合性フィードバック\cite{Rocchio71}に類似した手法であると考えられる.しかし,適合性フィードバックでは,検索結果中の文書に対して,ユーザが判断した適合文書・非適合文書に基づいた検索語の修正を目的としているのに対し,本手法は,あらかじめ設定したseedページに基づいて,検索結果の改善,特に本研究においては,検索結果のクラスタリング精度の改善を目的としている点が異なる.また,検索結果をクラスタリングする検索エンジンとして,``Clusty''\footnote{http://clusty.com}が挙げられる.しかし,そのクラスタリングされた検索結果には,適合しないWebページが含まれることも多く,クラスタリングを行う上で,何らかの基準が必要である.すなわち,本研究のように,seedページをクラスタリングの基準として導入し,かつ,そのseedページを含むクラスタの重心を抑えることで,その基準を保つような手法が必要であると考えられる.図\ref{Fig:SSClsAlgorithm}に,我々の提案する半教師有りクラスタリングアルゴリズムの詳細を示す.なお,提案する半教師有りクラスタリングでは,対象とするすべてのWebページが,いずれかのseedページを含むクラスタにマージされるのではなく,seedページを含まないクラスタにもマージされることに,注意されたい(図\ref{Fig:SSClsAlgorithm}下から7行目,``elseif''以降参照).\begin{figure}[p]\begin{center}\includegraphics{16-4ia3f2.eps}\end{center}\caption{提案する半教師有りクラスタリングアルゴリズム}\label{Fig:SSClsAlgorithm}\end{figure}ここで,本研究において比較する式(\ref{eq:TransferedCor})直後に述べた(i),(ii),(iii)の3つの距離尺度は,それぞれ,以下のように定義される.\noindent\textbf{(i)ユークリッド距離}式(\ref{eq:TransferedCor})において,ユークリッド距離を導入した場合,seedページを含むクラスタの重心ベクトル$\boldsymbol{G}^{C_{s}}$と,あるクラスタ$C$の重心ベクトル$\boldsymbol{G}^{C}$間の距離$D(\boldsymbol{G}^{C_{s}},\boldsymbol{G}^{C})$は,式(\ref{Eq:centroidvector})に基づいて,式(\ref{Eq:Euclideandisrance})のように定義される.\begin{eqnarray}D(\boldsymbol{G}^{C_{s}},\boldsymbol{G}^{C})=\sqrt{\sum_{k=1}^{m}(g^{C_{s}}_{t_{k}}-g^{C}_{t_{k}})^{2}}\label{Eq:Euclideandisrance}\end{eqnarray}\noindent\textbf{(ii)マハラノビス距離}マハラノビス距離は,データ集合の相関を考慮した尺度であるという点において,ユークリッド距離とは異なる.したがって,ユークリッド距離を用いるよりもマハラノビス距離を用いた方が,クラスタの重心の変動を,より効果的に抑えられることが期待される.式(\ref{eq:TransferedCor})において,マハラノビス距離を導入した場合,seedページを含むクラスタ$C_{s}$の重心ベクトル$\boldsymbol{G}^{C_{s}}$と,あるクラスタ$C$の重心ベクトル$\boldsymbol{G}^{C}$間の距離$D(\boldsymbol{G}^{C_{s}},\boldsymbol{G}^{C})$は,式(\ref{Eq:Mahalanobisdistance})のように定義される.\begin{eqnarray}D(\boldsymbol{G_{C_{(s)}}},\boldsymbol{G_{C}})=\sqrt{(\boldsymbol{G}^{C_{s}}-\boldsymbol{G}^{C})^{T}\boldsymbol{\Sigma}^{-1}(\boldsymbol{G}^{C_{s}}-\boldsymbol{G}^{C})}\label{Eq:Mahalanobisdistance}\end{eqnarray}ここで,$\boldsymbol{\Sigma}$は,seedページを含むクラスタ$C_{s}$の要素によって定義される共分散行列である.すなわち,クラスタ$C_{s}$内の要素を,\[C_{s}=\{\boldsymbol{w}^{p_{1}}_{C_{s}},\boldsymbol{w}^{p_{2}}_{C_{s}},\cdots,\boldsymbol{w}^{p_{m}}_{C_{s}}\}\]と表せば,重心ベクトル$\boldsymbol{G}^{C_{s}}$,\[\boldsymbol{G}^{C_{s}}=\frac{1}{m}\sum_{i=1}^{m}\boldsymbol{w}^{p_{i}}_{C_{s}}\]を用いて,共分散$\Sigma_{ij}$を式(\ref{eq:CovMHD})のように定義することができる.\begin{eqnarray}\Sigma_{ij}=\frac{1}{m}\sum_{i=1}^{m}(\boldsymbol{w}^{p_{i}}_{C_{s}}-\boldsymbol{G}^{C_{s}})(\boldsymbol{w}^{p_{j}}_{C_{s}}-\boldsymbol{G}^{C_{s}})^{T}\label{eq:CovMHD}\end{eqnarray}以上から,共分散行列$\boldsymbol{\Sigma}$は,\[\boldsymbol{\Sigma}=\left[\begin{array}{@{\,}cccc@{\,}}\Sigma_{11}&\Sigma_{12}&\cdots&\Sigma_{1m}\\\Sigma_{21}&\Sigma_{22}&\cdots&\Sigma_{2m}\\\vdots&\vdots&\ddots&\vdots\\\Sigma_{m1}&\Sigma_{m2}&\cdots&\Sigma_{mm}\end{array}\right]\]と表すことができる.\noindent\textbf{(iii)適応的マハラノビス距離}(ii)のマハラノビス距離は,クラスタ内の要素数が少ないときに,共分散が大きくなる傾向がある.そこで,seedページを含むあるクラスタ$C_{s_{j}}$について,このクラスタに含まれるWebページの特徴ベクトル間の非類似度を局所最小化することを考える.この局所最小化で得られる分散共分散行列を用いて計算した$C_{s_{j}}$の重心ベクトル$\boldsymbol{G}^{C_{s_{j}}}$と,このクラスタにマージされるクラスタ$C_{l}$の重心ベクトル$\boldsymbol{G}^{C_{l}}$間の距離が,適応的マハラノビス距離\cite{Diday77}である.この分散共分散行列は,次のように導出される.\noindent\textbf{(1)}まず,クラスタ$C_{s_{j}}$において,このクラスタに含まれるWebページの特徴ベクトル$\boldsymbol{w}^{p_{i}}$と,それ以外の特徴ベクトル$\boldsymbol{v}$$(\boldsymbol{w}^{p_{i}}\neq\boldsymbol{v})$との非類似度$d_{s_{j}}(\boldsymbol{w}^{p_{i}},\boldsymbol{v})$を,式(\ref{eq:intra-cls})により定義する.\begin{eqnarray}d_{s_{j}}(\boldsymbol{w}^{p_{i}},\boldsymbol{v})=(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})^{T}\boldsymbol{M}_{s_{j}}^{-1}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})\label{eq:intra-cls}\end{eqnarray}ただし,$\boldsymbol{M}_{s_{j}}$は$C_{s_{j}}$の分散共分散行列を表す.すなわち,クラスタ$C_{s_{j}}$内の要素を,\[C_{s_{j}}=\{\boldsymbol{w}^{p_{1}}_{C_{s_{j}}},\boldsymbol{w}^{p_{2}}_{C_{s_{j}}},\cdots,\boldsymbol{w}^{p_{m}}_{C_{s_{j}}}\}\]\pagebreakと表せば,重心ベクトル$\boldsymbol{G}^{C_{s_{j}}}$,\[\boldsymbol{G}^{C_{s_{j}}}=\frac{1}{m}\sum_{i=1}^{m}\boldsymbol{w}^{p_{i}}_{C_{s_{j}}}\]を用いて,共分散$M_{ij}$を式(\ref{eq:CovAMHD})のように定義することができる.\begin{eqnarray}M_{ij}=\frac{1}{m}\sum_{i=1}^{m}(\boldsymbol{w}^{p_{i}}_{C_{s_{j}}}-\boldsymbol{G}^{C_{s_{j}}})(\boldsymbol{w}^{p_{j}}_{C_{s_{j}}}-\boldsymbol{G}^{C_{s_{j}}})^{T}\label{eq:CovAMHD}\end{eqnarray}以上から,共分散行列$\boldsymbol{M_{s_{j}}}$は,\[\boldsymbol{M_{s_{j}}}=\left[\begin{array}{@{\,}cccc@{\,}}M_{11}&M_{12}&\cdots&M_{1m}\\M_{21}&M_{22}&\cdots&M_{2m}\\\vdots&\vdots&\ddots&\vdots\\M_{m1}&M_{m2}&\cdots&M_{mm}\end{array}\right]\]と表すことができる.\noindent\textbf{(2)}次に,目的関数\begin{align*}\Delta_{s_{j}}(\boldsymbol{v},\boldsymbol{M}_{s_{j}})&=\sum_{\boldsymbol{w}^{p_{i}}\inC_{s_{j}}}d_{s_{j}}(\boldsymbol{w}^{p_{i}},\boldsymbol{v})\\&=\sum_{\boldsymbol{w}^{p_{i}}\inC_{s_{j}}}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})^{T}\boldsymbol{M}_{s_{j}}^{-1}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})\end{align*}を定義し,これを局所最小化するような$C_{{s}_{j}}$の代表点の特徴ベクトル$\boldsymbol{L}_{s_{j}}$と分散共分散行列$\boldsymbol{S}_{{s}_{j}}$を求める.\noindent(i)まず,クラスタ$C_{s_{j}}$の要素により定義される共分散行列$\boldsymbol{M}_{s_{j}}$を固定し,$\Delta_{s_{j}}$を最小化する$\boldsymbol{L}_{s_{j}}$を求める.\begin{eqnarray}\boldsymbol{L}_{s_{j}}=\arg\min_{\boldsymbol{v}}\sum_{\boldsymbol{w}^{p_{i}}\inC_{s_{j}}}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})^{T}\boldsymbol{M}_{s_{j}}^{-1}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v})\label{eq:Lj}\end{eqnarray}式(\ref{eq:Lj})において,クラスタ$C_{s_{j}}$の重心$G$に最も近い点$G'$の特徴ベクトルを$\boldsymbol{v}_{G'}$と表せば,$\boldsymbol{L}_{s_{j}}=\boldsymbol{v}_{G'}$と求めることができる.\noindent(ii)次に,(i)で求めた代表点の特徴ベクトル$\boldsymbol{L}_{s_{j}}=\boldsymbol{v}_{G'}$を固定する.ここで,$det(\boldsymbol{M}_{s_{j}})=1$のもとで,$\Delta_{s_{j}}$を局所最小化する$\boldsymbol{S}_{s_{j}}$を求める.\begin{eqnarray}\boldsymbol{S}_{s_{j}}=\arg\min_{\boldsymbol{M}_{s_{j}}}\sum_{\boldsymbol{w}^{p_{i}}\inC_{s_{j}}}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v}_{G'})^{T}\boldsymbol{M}_{s_{j}}^{-1}(\boldsymbol{w}^{p_{i}}-\boldsymbol{v}_{G'})\label{eq:dj}\end{eqnarray}この$\boldsymbol{S}_{s_{j}}$は,クラスタ$C_{s_{j}}$の共分散行列$\boldsymbol{M}_{s_{j}}$を用いて,式(\ref{eq:AdpCov})によって与えられることが,文献\cite{Diday77}により示されている.\pagebreak\begin{eqnarray}\boldsymbol{S}_{s_{j}}=(det(\boldsymbol{M}_{s_{j}}))^{1/m}\boldsymbol{M}_{s_{j}}^{-1}\label{eq:AdpCov}\end{eqnarray}ただし,$det(\boldsymbol{M}_{s_{j}})\neq0$であり,$m$は検索結果集合における単語の異なり数を表す.以上から,seedページを含むあるクラスタ$C_{s_{j}}$において,Webページ間の非類似度を局所最小化することを考慮した分散共分散行列$\boldsymbol{S}_{s_{j}}$を求めることができる.この$\boldsymbol{S}_{s_{j}}$を用いて,$C_{s_{j}}$の重心ベクトル$\boldsymbol{G}^{C_{s_{j}}}$と,このクラスタにマージされるべきクラスタ$C_{l}$の重心ベクトル$\boldsymbol{G}^{C_{l}}$間の適応的マハラノビス距離は,式(\ref{Eq:Adapt.Mahalanobisdistance})のように定義される.\begin{eqnarray}D(\boldsymbol{G}^{C_{s_{j}}},\boldsymbol{G}^{C_{l}})=\sqrt{(\boldsymbol{G}^{C_{s_{j}}}-\boldsymbol{G}^{C_{l}})^{T}\boldsymbol{S}_{s_{j}}^{-1}(\boldsymbol{G}^{C_{s_{j}}}-\boldsymbol{G}^{C_{l}})}\label{Eq:Adapt.Mahalanobisdistance}\end{eqnarray}なお,式(\ref{Eq:Adapt.Mahalanobisdistance})は,上述した\textbf{(1)}〜\textbf{(2)}によるクラスタ$C_{s_{j}}$におけるWebページ間の非類似度を考慮して得られた式(\ref{eq:AdpCov})の分散共分散行列$\boldsymbol{S}_{s_{j}}$を適用している点で,式(\ref{Eq:Mahalanobisdistance})とは異なる.
\section{実験}
\label{sec:Experiments}\subsection{実験データ}\label{subsec:ExperimentalData}本研究では,``WebPeopleSearchTask''\cite{Artiles07}において作成された「WePSコーパス」を,実験に用いた.このWePSコーパスは,訓練集合とテスト集合から構成され,それぞれ49,30,合計で79の人名が含まれる.これらは,人名を検索語として,Yahoo!\footnote{http://www.yahoo.com/}の検索APIを通じて得られた上位100件の検索結果から取得されたものである.すなわち,このコーパスは約7,900のWebページから構成される.具体的な統計量を表\ref{tab:WePS-stat}に示す.まず前処理として,このコーパスにおけるすべてのWebページに対して,不要語リスト\footnote{ftp://ftp.cs.cornell.edu/pub/smart/english.stop}に基づいて,不要語を取り除き,PorterStemmer\cite{Porter80}\footnote{http://www.tartarus.org/\~{}martin/PorterStemmer/}を用いて語幹処理を行なった.次に,WePSコーパスの訓練集合を用いて類似したクラスタをマージするための最適なパラメータを決定し,これをWePSコーパスのテスト集合に適用した.\begin{table}[t]\caption{WePSコーパスにおける統計量}\label{tab:WePS-stat}\input{06table01.txt}\end{table}\subsection{評価尺度}\label{subsec:EvaluationMeasure}本研究では,``purity'',``inversepurity''と,これらの調和平均である$F$値\cite{Hotho05}に基づいて,クラスタリングの精度を評価する.これらは,``WebPeopleSearchTask''において採用されている標準的な評価尺度である.以下,生成されたクラスタに割り当てられるべき,人手で定めた正解を「カテゴリ」と呼ぶことにする.``purity''は,各クラスタにおいて最もよく現れるカテゴリの頻度に注目し,ノイズの少ないクラスタを高く評価する.$C$を評価対象となるクラスタの集合,$L$を人手で作成したカテゴリの集合,$n$をクラスタリング対象の文書数とすると,purityは,式(\ref{eq:Purity})に基づいて,最大となる適合率の重み付き平均をとることで計算される.\begin{eqnarray}Purity=\sum_{i}\frac{|C_{i}|}{n}\maxPrecision(C_{i},L_{j})\label{eq:Purity}\end{eqnarray}ここで,あるカテゴリ$L_{j}$に対するクラスタ$C_{i}$の適合率$Precision(C_{i},L_{j})$は,式(\ref{eq:Precision})によって定義される.\begin{eqnarray}Precision(C_{i},L_{j})=\frac{|C_{i}\bigcapL_{j}|}{|C_{i}|}\label{eq:Precision}\end{eqnarray}``inversepurity''は,各カテゴリに対して最大の再現率となるクラスタに着目する.ある一つのクラスタにおいて,各カテゴリで定められた要素を多く含むクラスタを高く評価する.inversepurityは,式(\ref{eq:InvPur})によって定義される.\begin{eqnarray}InversePurity=\sum_{j}\frac{|L_{j}|}{n}\maxRecall(C_{i},L_{j})\label{eq:InvPur}\end{eqnarray}ここで,あるカテゴリ$L_{j}$に対するクラスタ$C_{i}$の再現率$Recall(C_{i},L_{j})$は,式(\ref{eq:Recall})によって定義される.\begin{eqnarray}Recall(C_{i},L_{j})=\frac{|C_{i}\bigcapL_{j}|}{|L_{j}|}\label{eq:Recall}\end{eqnarray}また,purityとinversepurityの調和平均$F$は,式(\ref{eq:F})によって定義される.\begin{eqnarray}F=\frac{1}{\alpha\frac{1}{Purity}+(1-\alpha)\frac{1}{InversePurity}}\label{eq:F}\end{eqnarray}なお,本研究では,$\alpha=0.5$,$0.2$として,評価を行なった.以下,$\alpha=0.5$,$0.2$のときの$F$値を,それぞれ,$F_{0.5}$,$F_{0.2}$と示すことにする.\subsection{実験結果}\label{subsec:ExpResults}我々の提案する半教師有りクラスタリングの手法では,次の2種類のseedページを用いた実験を行なった.\begin{itemize}\item[(a)]Wikipedia\cite{Remy02}における各人物の記事,\item[(b)]Web検索結果において上位に順位付けされたWebページ.\end{itemize}\subsubsection{パラメータ$c$の設定}我々の提案する手法では,seedページを含むクラスタ$C_{s_{j}}$と,それに最も類似したクラスタ$C_{i}$をマージした後の新しいクラスタの重心ベクトルは,\ref{sec:ProposedMethod}章で述べたように,式(\ref{eq:TransferedCor})に基づいてクラスタ$C_{i}$に含まれるWebページの特徴ベクトル$\boldsymbol{w}^{p_{l}}_{C_{i}}$$(l=1,\cdots,n_{i})$を重み付けし,この重み付けした特徴ベクトルを用いて,式(\ref{eq:NewG})によって計算される.式(\ref{eq:TransferedCor})における$c$は,$D(\boldsymbol{G}^{C_{i}},\boldsymbol{G}^{C_{s_{j}}})$が0に非常に近い値となったとき,$\boldsymbol{w}^{p}$の各要素が極端に大きな値となることを防ぐために導入した定数であるが,この値によっては,クラスタリングの精度にも影響が及ぶものと考えられる.そこで,WePSコーパスの訓練集合を用いて,上述した2種類のseedページ(a),(b)ともに7個までのseedページを用いた場合について,$0.1\lec\le50$として得られるクラスタリング精度について検証した.ここで,seedページの数を7個までと定めたのは,少数のseedページでの効果を確認するためである.この結果,表\ref{Table:CbyEuclidDistance}〜\ref{Table:CbyAdpMahalanobisDistance}に示す$c$の値のときに,$F_{0.5}$,$F_{0.2}$ともに,最良なクラスタリング精度が得られた.\begin{table}[b]\caption{ユークリッド距離を用いたときの最良なクラスタリング精度を与える$c$の値}\label{Table:CbyEuclidDistance}\input{06table02.txt}\end{table}なお,以下の3.3.3節では,距離尺度,seedページの種類とその数,に応じて,表\ref{Table:CbyEuclidDistance}〜\ref{Table:CbyAdpMahalanobisDistance}に示した$c$の値を,WePSコーパスのテスト集合に適用して得られた実験結果を示している.\begin{table}[t]\caption{マハラノビス距離を用いたときの最良なクラスタリング精度を与える$c$の値}\label{Table:CbyMahalanobisDistance}\input{06table03.txt}\end{table}\begin{table}[t]\caption{適応的マハラノビス距離を用いたときの最良なクラスタリング精度を与える$c$の値}\label{Table:CbyAdpMahalanobisDistance}\input{06table04.txt}\end{table}\subsubsection{文書全体を用いた実験結果}\noindent\textbf{(1)凝集型クラスタリングを用いた実験結果}凝集型クラスタリングによって得られた精度を表\ref{Table:AggCls}に示す.\begin{table}[t]\caption{凝集型クラスタリングを用いて得られたクラスタリング精度}\label{Table:AggCls}\input{06table05.txt}\end{table}\noindent\textbf{(2)半教師有りクラスタリングを用いた実験結果}seedページを導入することによる効果を確かめるため,はじめに一つのseedページを用いて実験を行なった.この際,\ref{subsec:ExpResults}節はじめに述べた2種類のseedページに関して,(a)は検索結果の上位にあるWikipediaの記事を,(b)は第1位に順位付けされたWebページを用いた.しかしながら,\ref{subsec:ExperimentalData}節で述べたWePSコーパスのテスト集合におけるすべての人名が,必ずしもWikipediaに対応する記事を有するわけではない.したがって,ある人名がWikipediaに記事を有するのであれば,これをseedページとして用いた.そうでなければ,Web検索結果において第1位に順位付けされたWebページを用いた.この方針に基づき,WePSコーパスのテスト集合における30の人名のうち,16の人名に対してはWikipediaの記事を,14の人名に対しては第1位に順位付けされたWebページをseedページとして用いた.なお,人名の曖昧性解消にWikipediaを利用した最近の研究として,Bunescu\cite{Bunescu06}らは,Wikipediaの構造を用いることによって固有名を同定するとともに,その固有名の曖昧性を解消している.表\ref{Table:OneSeedSSCls}に,一つのseedページでの半教師有りクラスタリングを用いて得られたクラスタリング精度を示す.\begin{table}[b]\hangcaption{1つのseedページを使い,提案する半教師有りクラスタリングを用いて得られたクラスタリング精度}\label{Table:OneSeedSSCls}\input{06table06.txt}\end{table}さらに,一つのseedページを用いた実験において,最も良い$F$値($F_{0.5}=0.68$,$F_{0.2}=0.66$)が得られた適応的マハラノビス距離に関して,seedページの数を変えることによって,さらなる実験を行なった.3.3.1節でも述べたように,少数のseedページでの効果を確認するために,導入するseedページの数は7個までとした.また,図\ref{Fig:SSClsAlgorithm}に示したように,これらのseedページの間には,``cannot-link''の制約を導入している.これは,上位に順位付けされる検索エンジンの出力結果を信頼し,それぞれのWebページが異なる人物について記述していると想定していることに基づく.図\ref{fig:multipleseeds(Wiki)},\ref{fig:multipleseeds(Web)}は,それぞれ,複数のWikipedia記事,上位7位までに順位付けされたWebページを用いて得られたクラスタリング精度($F$値)を示す.また,この実験では,\ref{sec:ProposedMethod}章で述べたように,seedページを含むクラスタの重心と,それにマージされるクラスタの重心間の距離を考慮する.この提案手法の有効性を確認するために,\ref{sec:Intro}章で述べた距離を学習する半教師有りクラスタリング手法であるKleinら\cite{Klein02},Xingら\cite{Xing03},Bar-Hillelら\cite{Bar-Hillel03}の手法を用いて得られた結果との比較を示す.また,seedページを含むクラスタの重心の変動を抑えることによる効果を確認するために,重心を固定する手法との比較も示す.\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f3.eps}\end{center}\caption{複数のseedページを用いて得られたクラスタリング精度(7つまでのWikipedia記事)}\label{fig:multipleseeds(Wiki)}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f4.eps}\end{center}\hangcaption{複数のseedページを用いて得られたクラスタリング精度(上位7位までに順位付けされたWebページ)}\label{fig:multipleseeds(Web)}\end{figure}\subsubsection{文書を部分的に用いた実験結果}\label{subsec:ExpResults(Fragments)}3.3.2節で述べた実験では,検索結果のWebページとseedページの全文を用いた.しかし,人物について記述されたWebページにおいて,その人物を特徴付ける単語は,人名の周囲にしばしば現れること,また,検索結果のスニペットにおいても,同様の傾向が観察される.そこで,seedページを用いて最も良い結果が得られている場合,すなわち,図\ref{fig:multipleseeds(Wiki)}において,5つのWikipedia記事を用いた場合($F_{0.5}=0.76,F_{0.2}=0.74$)に,さらに精度が改善されるかを確認するために,\begin{itemize}\item[(i)]seedページと検索結果のWebページにおいて,人名前後の単語,および文の数を変化させる,\item[(ii)]検索結果のスニペットを用いる,\end{itemize}実験を行なった.(i)については,まず,WePSコーパスの訓練集合を用いて,最も良い$F$値を与えるseedページと検索結果のWebページのそれぞれにおいて用いる人名前後の単語数,または文数を求める.この結果を図\ref{fig:multipleseeds(Partial)}に示す.次に,これらのパラメータをテスト集合に適用し,評価する.(ii)についても同様に,WePSコーパスの訓練集合を用いて,最も良い$F$値を与えるseedページでの人名前後の単語数,または文数を求める.この結果を図\ref{fig:RsltSnippet}に示す.次に,これらのパラメータをテスト集合に適用し,評価する.最終的に(i),(ii)の実験によって得られたクラスタリング精度を,表\ref{Table:ResultsByOthers}に示す.\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f5.eps}\end{center}\hangcaption{図\ref{fig:multipleseeds(Wiki)}における5つのseedページ(Wikipedia記事)の場合に,seedページと検索結果のWebページで用いる人名前後の単語数と文数を変化させて得られるクラスタリング精度(``w''と``s''は,それぞれ「単語」と「文」を表す)}\label{fig:multipleseeds(Partial)}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f6.eps}\end{center}\hangcaption{図\ref{fig:multipleseeds(Wiki)}における5つのseedページ(Wikipedia記事)の場合に,検索結果のスニペットを用い,seedページ中の人名前後の単語数と文数を変化させて得られるクラスタリング精度(``w''と``s''は,それぞれ「単語」と「文」を表す)}\label{fig:RsltSnippet}\end{figure}\subsubsection{他手法との比較}\label{subsec:ComparisonWithOthers}``WebPeopleSearchTask''における上位3チームのクラスタリング精度($F値$)を,表\ref{Table:ResultsByOthers}に示す.なお,これらのチームで採用している手法の詳細については,表\ref{Table:ResultsByOthers}に示した文献を参照されたい.基本的には,凝集型クラスタリングの手法が採用されている.また,提案手法によって得られた結果も,比較のために示す.\begin{table}[t]\caption{WebPeopleSearchTaskにおける上位3チームと提案手法とのクラスタリング精度の比較}\label{Table:ResultsByOthers}\input{06table07.txt}\end{table}\subsection{処理時間に関する検討}\label{subsec:ProcessingTime}3.3.2節で述べたように,式(\ref{eq:TransferedCor})において,適応的マハラノビス距離を用いて,seedページを含むクラスタにマージされるクラスタに含まれるWebページの特徴ベクトルを重み付けし,この変換された特徴ベクトルを用いて重心の計算を行なった場合に,最良なクラスタリング精度が得られることがわかった.この場合について,7つまでのWikipedia記事,上位7位までに順位付けされたWebページをseedページとして用い,最も処理時間を要すると考えられる3.3.2節の文書全体を用いた場合についての処理時間を測定した.なお,提案手法は,PC(CPU:IntelPentiumM・2.0~GHz,Memory:2~GByte,OS:WindowsXP)上にPerlを用いて実装されている.図\ref{fig:time}に,その結果を示す.\begin{figure}[t]\begin{center}\includegraphics{16-4ia3f7.eps}\end{center}\caption{seedページ数を変化させたときのクラスタリングに要する処理時間}\label{fig:time}\end{figure}\subsection{考察}\label{subsec:Discussion}式(\ref{eq:TransferedCor})における$c$の値について,特徴ベクトルを重み付けする際には,表\ref{Table:CbyEuclidDistance}〜\ref{Table:CbyAdpMahalanobisDistance}から$c=0.95$前後の値を用いたときに,最良なクラスタリング精度が得られることがわかった.なお,$5\lec\le50$の大きな値のときには,それほど高いクラスタリング精度が得られないことも観察された.これは,式(\ref{eq:TransferedCor})において,距離尺度よりも$c$が支配的になることにより,クラスタにマージすべきWebページの特徴ベクトルの各要素の値が小さくなりすぎることによる影響であると考えられる.凝集型クラスタリングの手法においては,表\ref{Table:AggCls}から,purity(0.67)は,inversepurity(0.48)よりも高いことがわかる.このように,purityが高いことは,凝集型クラスタリングが,一つの要素しか含まないクラスタを生成する傾向にあることを示す.また,$F$値が$F_{0.5}$=0.52,$F_{0.2}$=0.49であり,それほど高い精度が得られていないことは,凝集型クラスタリングでは,クラスタリングを適切に行なうことが難しいことを改めて確認できたといえる.\ref{sec:ProposedMethod}章で述べた半教師有りクラスタリングの手法において,表\ref{Table:OneSeedSSCls}からpurityの値(0.47〜0.57)は,表\ref{Table:AggCls}の凝集型クラスタリングを用いて得られたpurityの値(0.67)を上回ることができなかったが,inversepurityの値(0.75〜0.88)は,すべての手法が凝集型クラスタリングの値(0.48)を上回っていることがわかる.また,良好なinversepurityの値によって,$F$値においても,良い結果が得られている.これは,seedページを導入したこと,ならびに,そのseedページを含むクラスタの重心の変動を抑えられたことによる効果であると考えられる.さらに,表\ref{Table:OneSeedSSCls}からは,seedページとしてWikipediaの記事を用い,適応的マハラノビス距離を適用した場合において,最も良い$F$値($F_{0.5}=0.68$,$F_{0.2}=0.66$)が得られたことがわかる.複数のseedページを用いた半教師有りクラスタリング手法においては,図\ref{fig:multipleseeds(Wiki)},\ref{fig:multipleseeds(Web)}から,次の内容が観察される.まず,いずれのseedページを用いても,また,いずれの手法においても,導入する種文書数の増加とともに,クラスタリング精度($F$値)が改善されている.seedページの数について,7個まで導入したが,いずれのseedページとも5個の時点でのクラスタリング精度が最も良いことが観察される.さらに,重心を固定する方法は,他の手法に比べて非常に精度が劣る結果となった.これは,重心を完全に固定してしまうと,その重心と類似度が高いWebページしかマージされなくなるため,本来クラスタにマージされるべきWebページが独立したクラスタとなってしまうことが原因であると考えられる.この実験においては,高いpurityの値が得られていたことからも,上述した原因が裏付けられるといえる.一方,距離を学習するクラスタリング手法では,Bar-Hillelら\cite{Bar-Hillel03},Xingら\cite{Xing03},Kleinら\cite{Klein02}の手法の順に良いクラスタリング精度が得られている.\ref{sec:Intro}章で述べたように,Kleinらの手法では,類似した2点($x_{i},x_{j}$)間を0,類似していない2点間を($\max_{i,j}D_{ij}$)+1と設定した単純な隣接行列を作成した上で,クラスタリングを行なうのに対し,Xingら,Bar-Hillelらの方法では,特徴空間を適切に変換する手法が用いられている.後者の二つの手法では,この変換手法が有効に作用しているものと考えられる.しかし,これらの距離を学習する手法と比較しても,重心の変動を抑えたクラスタリングを行なう我々の提案手法が,最も良いクラスタリング精度を示した.これは,あるクラスタをseedページを含むクラスタにマージするたびに,そのseedページを含むクラスタの重心を局所的に調整できることによる効果であると考えられる.さらに,seedページについては,Wikipediaにおける各人物の記事を用いたほうが,Web検索結果の上位に順位付けされたWebページを用いるよりも良い精度が得られた.これは,クラスタリングのためのseedページとして,Wikipediaの記述内容を用いることが有効であることを示す事例であると考えられる.また,文書を部分的に用いた場合には,以下に述べるような傾向が観察される.まず,WePSコーパスの訓練集合において,3.3.3節(i)で述べたように,seedページ,および検索結果のWebページ中の人名前後の単語数または文数を変化させた場合,図\ref{fig:multipleseeds(Partial)}から,検索結果のWebページに関して,単語よりも文を用いることで,より良いクラスタリング精度が得られることが観察される.これは,人名前後の数語のみでは,人物の実体を識別することは難しいが,人名前後の数文を用いることで,その人物を特徴付ける情報を獲得でき,人物の実体を識別しやすくなったことによる効果であると考えられる.また,図\ref{fig:multipleseeds(Partial)}からは,seedページ,検索結果のWebページについて,それぞれ,人名前後の2文,3文を用いた場合に最も良い$F$値($F_{0.5}=0.79$,$F_{0.2}=0.80$)が得られることがわかった.これらの文数をWePSコーパスのテスト集合に適用した場合,[purity:0.80,inversepurity:0.83,$F_{0.5}=0.81$,$F_{0.2}=0.82$]の結果が得られた.特に$F$値は,$\alpha=0.5$のとき,表\ref{Table:ResultsByOthers}に示した``WebPeopleSearchTask''\cite{Artiles07}の第1位のチーム(CU\_COMSEM)の結果を0.03上回り,提案手法が有効であることが確認される.なお,3.3.2節(2)で述べたように,Wikipediaに記事のある16人名のうち,Wikipediaから取得した人名数は10(表\ref{tab:WePS-stat}参照,以下(A)とする),ACL'06参加者リスト,アメリカ合衆国・国勢調査の人名のうち,Wikipediaにも記事のある人名数は6(表\ref{tab:WePS-stat}参照,以下(B)とする)である.これらの人名について,Wikipediaをseedページとしてクラスタリングした場合に,その精度に差があるか否かを検証した.その結果を表\ref{Table:WikiDetail}に示す.(A)の方が(B)よりも,0.02〜0.04上回る結果が得られているが,それほど大きな差ではない.このことから,seedページとしてWikipediaの記述内容を用いることは,(B)のように他分野から取得した人物のWebページに対しても有効であり,Wikipediaの記述内容の汎用性が特徴付けられる結果であると考えられる.また,クラスタ数については,seedページを導入したことで,このseedページを中心に,Webページのグループが形成され,実際の正解クラスタ数よりも少ない数のクラスタが生成される傾向が観察された.これは,表\ref{Table:ResultsByOthers}において,inversepurityの値が高いことからも裏付けられる.\begin{table}[b]\hangcaption{Wikipediaをseedページとした場合,(A)Wikipediaから取得した10人名と,(B)Wikipediaに記事はあるが,ACL'06参加者リスト,アメリカ合衆国・国勢調査から取得した6人名のクラスタリング精度の比較}\label{Table:WikiDetail}\input{06table08.txt}\end{table}\begin{table}[b]\hangcaption{``WebPeopleSearchTask''の上位3チームが使用した素性を,提案する半教師有りクラスタリングに適用して得られたクラスタリング精度}\label{Table:ClsRsltsbyWePSFeat}\input{06table09.txt}\end{table}なお,``WebPeopleSearchTask''の上位3チームは,凝集型クラスタリングの手法を採用しているが,これらの手法は素性を工夫することで,比較的高い精度を得ている.一方,我々の提案する半教師有りクラスタリングでは,seedページを含むクラスタの重心の変動を抑えることで,表\ref{Table:AggCls}に示した凝集型クラスタリングよりも精度が改善されている.我々が導入した素性は,\ref{sec:ProposedMethod}章で述べたように,gainによって単語を重み付けする簡単なものであるが,``WebPeopleSearchTask''の上位3チームが使用した素性を我々の手法に適用すれば,さらなる精度の向上が期待される.そこで,これらの3チームの素性を,我々の手法で用いた結果を表\ref{Table:ClsRsltsbyWePSFeat}に示す.なお,表\ref{Table:ResultsByOthers}に示した我々の提案手法で得られた最良の結果と比較するため,seedページとしてWikipediaにおける各人物の記事を5つ導入した場合についての比較を行った.まず,CU\_COMSEMについて,表\ref{Table:ResultsByOthers}に示した凝集型クラスタリングの$F$値($F_{0.5}=0.78$,$F_{0.2}=0.83$)と比較して,半教師有りクラスタリングの$F$値も高め($F_{0.5}=0.81$,$F_{0.2}=0.84$)となっている.しかし,$F_{0.5}$で0.03,$F_{0.2}$で0.01程度の改善に過ぎない.これは,文中の単語,URLのトークン,名詞句など,すでに多くの素性を導入しているため,半教師有りクラスタリングを適用しても,それほど効果は得られないことによると考えられる.IRST-BPについては,表\ref{Table:ResultsByOthers}に示した凝集型クラスタリングの$F$値($F_{0.5}=0.75$,$F_{0.2}=0.77$)と比較しても,半教師有りクラスタリングの精度は($F_{0.5}=0.76$,$F_{0.2}=0.81$)であり,改善の程度は$F_{0.5}$で0.01,$F_{0.2}$で0.04であった.このチームが使用している固有名詞,時制表現,人名のある段落で最も良く出現する単語といった素性は,あまり有効な素性ではないと考えられる.PSNUSについては,NE素性をTF-IDFで重み付けしたのみの単純な素性であるが,表\ref{Table:ResultsByOthers}に示した凝集型クラスタリングの$F$値($F_{0.5}=0.75$,$F_{0.2}=0.78$)と比較して,半教師有りクラスタリングで得られた$F$値は$F_{0.5}=0.78$,$F_{0.2}=0.82$であり,$F_{0.5}$で0.03,$F_{0.2}$で0.04の改善が観察される.一方,我々の手法では素性としてgainを用い,表\ref{Table:ResultsByOthers}に示したとおり,$F_{0.5}=0.81$,$F_{0.2}=0.82$の$F$値を得ている.これは,CU\_COMSEMで使用されている多数の素性で得られた$F$値とほぼ同じ値が得られていることから,gainによって単純にWebページ中の単語を重み付けした素性だけでも,我々の提案する半教師有りクラスタリングを適用することで,高い精度が得られることが確認された.また,表\ref{Table:AggCls}に示した凝集型クラスタリングによる$F$値($F_{0.5}=0.52$,$F_{0.2}=0.49$)と比較しても,$F_{0.5}$で0.29,$F_{0.2}$で0.33の改善が観察されたことから,我々の提案する半教師有りクラスタリングの有効性が確認される.次に,WePSコーパスの訓練集合において,3.3.3節(ii)で述べたように,検索結果のスニペットを用い,seedページ中の人名前後の単語数または文数を変化させた場合,図\ref{fig:RsltSnippet}から,seedページ中の人名前後の単語ではなく,同様に文を用いたときに,より良いクラスタリング精度が得られることが観察される.この場合も同様に,人名前後の数語の情報よりも,人名前後の数文を用いることで,その人物を特徴付ける情報が獲得でき,人物の実体が識別しやすくなった効果によるものと考えられる.また,図\ref{fig:RsltSnippet}からは,seedページについて,人名前後の3文を用いた場合に最も良い$F$値($F_{0.5}=0.64$,$F_{0.2}=0.67$)が得られることがわかった.この文数をWePSコーパスのテスト集合に適用した場合,[purity:0.70,inversepurity:0.62,$F_{0.5}=0.66$,$F_{0.2}=0.68$]の結果が得られた.この結果は,WebPeopleSearchTaskの上位3チームの結果,および本研究における他の実験結果と比較して,かなり劣っている.これは,スニペットのような数語程度の情報だけでは,seedページで人名前後の3文という情報を用いたとしても,該当する人物について述べた適切なWebページが,そのseedページには集まらず,結果として,クラスタリング精度が悪くなったことによるためであると考えられる.以上から,提案手法ではWikipediaの記事をseedページとして利用し,人名前後の2文を,また,検索結果のWebページについては人名前後の3文を用いた場合に,良好な検索結果が得られることがわかった.さらに,処理時間に関して,最良なクラスタリング精度が得られた適応的マハラノビス距離の式(\ref{Eq:Adapt.Mahalanobisdistance})における分散共分散行列の計算には,単語数の2乗の計算量が必要となるが,1人名について100件のWebページのクラスタリングを行なうのに,最も多い5つのseedページを用い,seedページと検索結果のWebページの双方ともに文書全体を用いた場合でも,0.8秒余りで処理できることが図\ref{fig:time}から観察され,妥当な応答性を実現できていると考えられる.
\section{むすび}
\label{sec:Conclusion}本論文では,Web検索結果における人名の曖昧性を解消するため,seedページを含むクラスタの重心の変動を抑える半教師有りクラスタリングの手法を提案した.実験の結果,最良な場合において,[purity:0.80,inversepurity:0.83,$F_{0.5}$:0.81,$F_{0.2}$:0.82]の評価値が得られた.今回は,上位に順位付けされる検索エンジンの出力結果が異なることを想定して実験を行った.すなわち,同一人物のseedページ間にも``cannot-link''の制約が導入されている可能性がある.しかし,クラスタが生成される過程で,seedページ以外の人物のページがクラスタ内の要素として支配的になり,最終的には比較的正確なクラスタが生成されることが観察された.同一人物のseedページ間でも,その人物を正確に表現しているページ,そうでないページがあることによるためであると考えられる.したがって,その人物についてより正確に記述されたWebページをseedページとして選択することが,今後の課題の一つとして挙げられる.また,Web検索結果における人名の曖昧性解消の精度を高めるには,その人物を特徴付ける単語の重みが大きくなるように,Webページの特徴ベクトルを作成して,クラスタリングを行なうことが重要である.そのために,特に,seedページの内容に適合する人物のページが集まるように,より的確なseedページの特徴ベクトルを作成するための手法を開発してクラスタリングを行なうことも,今後の課題として挙げられる.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Artiles,Gonzalo,\BBA\Sekine}{Artileset~al.}{2007}]{Artiles07}Artiles,J.,Gonzalo,J.,\BBA\Sekine,S.\BBOP2007\BBCP.\newblock\BBOQTheSemEval-2007WePSEvaluation:EstablishingaBenchmarkfortheWebPeopleSearchTask.\BBCQ\\newblockIn{\BemProc.oftheSemeval2007,AssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\64--69}.\bibitem[\protect\BCAY{Bar-Hillel,Hertz,\BBA\Shental}{Bar-Hillelet~al.}{2003}]{Bar-Hillel03}Bar-Hillel,A.,Hertz,T.,\BBA\Shental,N.\BBOP2003\BBCP.\newblock\BBOQLearningDistanceFunctionsUsingEquivalenceRelations.\BBCQ\\newblockIn{\BemProc.ofthe20thInternationalConferenceonMachineLearning(ICML2003)},\mbox{\BPGS\577--584}.\bibitem[\protect\BCAY{Basu,Banerjee,\BBA\Mooney}{Basuet~al.}{2002}]{Basu02}Basu,S.,Banerjee,A.,\BBA\Mooney,R.\BBOP2002\BBCP.\newblock\BBOQSemi-supervisedClusteringbySeeding.\BBCQ\\newblockIn{\BemProc.ofthe19thInternationalConferenceonMachineLearning(ICML2002)},\mbox{\BPGS\27--34}.\bibitem[\protect\BCAY{Bekkerman,El-Yaniv,\BBA\McCallum}{Bekkermanet~al.}{2005}]{Bekkerman-ICML05}Bekkerman,R.,El-Yaniv,R.,\BBA\McCallum,A.\BBOP2005\BBCP.\newblock\BBOQMulti-wayDistributionalClusteringviaPairwiseInteractions.\BBCQ\\newblockIn{\BemProc.ofthe22ndInternationalConferenceonMachineLearning(ICML2005)},\mbox{\BPGS\41--48}.\bibitem[\protect\BCAY{Bollegala,Matsuo,\BBA\Ishizuka}{Bollegalaet~al.}{2006}]{Bollegala06}Bollegala,D.,Matsuo,Y.,\BBA\Ishizuka,M.\BBOP2006\BBCP.\newblock\BBOQExtractingKeyPhrasestoDisambiguatePersonalNamesontheWeb.\BBCQ\\newblockIn{\BemProc.ofthe7thInternationalConferenceonComputationalLinguisticsandIntelligentTextProcessing(CICLing2006)},\mbox{\BPGS\223--234}.\bibitem[\protect\BCAY{Bookstein\BBA\Swanson}{Bookstein\BBA\Swanson}{1974}]{Bookstein74}Bookstein,A.\BBACOMMA\\BBA\Swanson,D.~R.\BBOP1974\BBCP.\newblock\BBOQProbabilisticModelsforAutomaticIndexing.\BBCQ\\newblock{\BemJournaloftheAmericanSocietyforInformationScience},{\Bbf25}(5),\mbox{\BPGS\312--318}.\bibitem[\protect\BCAY{Bunescu\BBA\Pasca}{Bunescu\BBA\Pasca}{2006}]{Bunescu06}Bunescu,R.\BBACOMMA\\BBA\Pasca,M.\BBOP2006\BBCP.\newblock\BBOQUsingEncyclopedicKnowledgeforNamedEntityDisambiguation.\BBCQ\\newblockIn{\BemProc.ofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL2006)},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Chen\BBA\Martin}{Chen\BBA\Martin}{2007}]{Chen07}Chen,Y.\BBACOMMA\\BBA\Martin,J.\BBOP2007\BBCP.\newblock\BBOQCU-COMSEM:ExploringRichFeaturesforUnsupervisedWebPersonalNameDisambiguation.\BBCQ\\newblockIn{\BemProc.oftheSemeval2007,AssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\125--128}.\bibitem[\protect\BCAY{Church\BBA\Gale}{Church\BBA\Gale}{1995a}]{Church95VLC}Church,K.~W.\BBACOMMA\\BBA\Gale,W.~A.\BBOP1995a\BBCP.\newblock\BBOQInverseDocumentFrequency(IDF):AMeasureofDeviationfromPoisson.\BBCQ\\newblockIn{\BemProc.ofthe3rdWorkshoponVeryLargeCorpora},\mbox{\BPGS\121--130}.\bibitem[\protect\BCAY{Church\BBA\Gale}{Church\BBA\Gale}{1995b}]{Church95JNLE}Church,K.~W.\BBACOMMA\\BBA\Gale,W.~A.\BBOP1995b\BBCP.\newblock\BBOQPoissonMixtures.\BBCQ\\newblock{\BemJournalofNaturalLanguageEngineering},{\Bbf1}(2),\mbox{\BPGS\163--190}.\bibitem[\protect\BCAY{Diday\BBA\Govaert}{Diday\BBA\Govaert}{1977}]{Diday77}Diday,E.\BBACOMMA\\BBA\Govaert,G.\BBOP1977\BBCP.\newblock\BBOQClassificationAutomatiqueAvecDistancesAdaptatives.\BBCQ\\newblock{\BemR.A.I.R.O.InformatiqueComputerScience},{\Bbf11}(4),\mbox{\BPGS\329--349}.\bibitem[\protect\BCAY{Elmacioglu,Tan,Yan,Kan,\BBA\Lee}{Elmaciogluet~al.}{2007}]{Elmacioglu07}Elmacioglu,E.,Tan,Y.~F.,Yan,S.,Kan,M.-Y.,\BBA\Lee,D.\BBOP2007\BBCP.\newblock\BBOQPSNUS:WebPeopleNameDisambiguationbySimpleClusteringwithRichFeatures.\BBCQ\\newblockIn{\BemProc.oftheSemeval2007,AssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\268--271}.\bibitem[\protect\BCAY{Hotho,N{\"{u}}rnberger,\BBA\Paa\ss}{Hothoet~al.}{2005}]{Hotho05}Hotho,A.,N{\"{u}}rnberger,A.,\BBA\Paa\ss,G.\BBOP2005\BBCP.\newblock\BBOQABriefSurveyofTextMining.\BBCQ\\newblock{\BemGLDV-JournalforComputationalLinguisticsandLanguageTechnology},{\Bbf20}(1),\mbox{\BPGS\19--62}.\bibitem[\protect\BCAY{Jones}{Jones}{1973}]{Jones73}Jones,K.~S.\BBOP1973\BBCP.\newblock\BBOQIndexTermWeighting.\BBCQ\\newblock{\BemInformationStrageandRetrieval},{\Bbf9}(11),\mbox{\BPGS\619--633}.\bibitem[\protect\BCAY{Klein,Kamvar,\BBA\Manning}{Kleinet~al.}{2002}]{Klein02}Klein,D.,Kamvar,S.~D.,\BBA\Manning,C.~D.\BBOP2002\BBCP.\newblock\BBOQFromInstance-levelConstraintstoSpace-levelConstraints:MakingtheMostofPriorKnowledgeinDataClustering.\BBCQ\\newblockIn{\BemProc.ofthe19thInternationalConferenceonMachineLearning(ICML2002)},\mbox{\BPGS\307--314}.\bibitem[\protect\BCAY{MacQueen}{MacQueen}{1967}]{MacQueen67}MacQueen,J.\BBOP1967\BBCP.\newblock\BBOQSomeMethodsforClassificationandAnalysisofMultivariateObservations.\BBCQ\\newblockIn{\BemProc.ofthe5thBerkeleySymposiumonMathmaticalStatisticsandProbability},\mbox{\BPGS\281--297}.\bibitem[\protect\BCAY{Mann\BBA\Yarowsky}{Mann\BBA\Yarowsky}{2003}]{Mann03}Mann,G.~S.\BBACOMMA\\BBA\Yarowsky,D.\BBOP2003\BBCP.\newblock\BBOQUnsupervisedPersonalNameDisambiguation.\BBCQ\\newblockIn{\BemProc.ofthe7thConferenceonNaturalLanguageLearning(CoNLL-2003)},\mbox{\BPGS\33--40}.\bibitem[\protect\BCAY{Papineni}{Papineni}{2001}]{Papineni01}Papineni,K.\BBOP2001\BBCP.\newblock\BBOQWhyInverseDocumentFrequency?\BBCQ\\newblockIn{\BemProc.ofthe2ndMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL2001)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Pedersen,Purandare,\BBA\Kulkarni}{Pedersenet~al.}{2005}]{Pedersen05}Pedersen,T.,Purandare,A.,\BBA\Kulkarni,A.\BBOP2005\BBCP.\newblock\BBOQNameDiscriminationbyClusteringSimilarContexts.\BBCQ\\newblockIn{\BemProc.ofthe6thInternationalConferenceonComputationalLinguisticsandIntelligentTextProcessing(CICLing~2005)},\mbox{\BPGS\226--237}.\bibitem[\protect\BCAY{Popescu\BBA\Magnini}{Popescu\BBA\Magnini}{2007}]{Popescu07}Popescu,O.\BBACOMMA\\BBA\Magnini,B.\BBOP2007\BBCP.\newblock\BBOQIRST-BP:WebPeopleSearchUsingNameEntities.\BBCQ\\newblockIn{\BemProc.oftheSemeval2007,AssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\195--198}.\bibitem[\protect\BCAY{Porter}{Porter}{1980}]{Porter80}Porter,M.~F.\BBOP1980\BBCP.\newblock\BBOQAnAlgorithmforSuffixStripping.\BBCQ\\newblock{\BemProgram},{\Bbf14}(3),\mbox{\BPGS\130--137}.\bibitem[\protect\BCAY{Remy}{Remy}{2002}]{Remy02}Remy,M.\BBOP2002\BBCP.\newblock\BBOQWikipedia:TheFreeEncyclopedia.\BBCQ\\newblock{\BemOnlineInformationReview},{\Bbf26}(6),\mbox{\BPG\434}.\bibitem[\protect\BCAY{Rocchio}{Rocchio}{1971}]{Rocchio71}Rocchio,J.\BBOP1971\BBCP.\newblock\BBOQRelevanceFeedbackinInformationRetrieval.\BBCQ\\newblockInSalton,G.\BED,{\BemTheSmartRetrievalSystem:ExperimentsinAutomaticDocumentProcessing},\mbox{\BPGS\313--323}.Prentice-Hall,EnglewoodCliffs,NJ.\bibitem[\protect\BCAY{Salton\BBA\McGill}{Salton\BBA\McGill}{1983}]{Salton83}Salton,G.\BBACOMMA\\BBA\McGill,M.~J.\BBOP1983\BBCP.\newblock{\BemIntroductiontoModernInformationRetrieval}.\newblockMcGraw-Hill.\bibitem[\protect\BCAY{Shental,Hertz,Weinshall,\BBA\Pavel}{Shentalet~al.}{2002}]{Shental02}Shental,N.,Hertz,T.,Weinshall,D.,\BBA\Pavel,M.\BBOP2002\BBCP.\newblock\BBOQAdjustmentLearningandRelevantComponentAnalysis.\BBCQ\\newblockIn{\BemProc.ofthe7thEuropeanConferenceonComputerVision(ECCV2002)},\mbox{\BPGS\776--792}.\bibitem[\protect\BCAY{Wagstaff\BBA\Cardie}{Wagstaff\BBA\Cardie}{2000}]{Wagstaff00}Wagstaff,K.\BBACOMMA\\BBA\Cardie,C.\BBOP2000\BBCP.\newblock\BBOQClusteringwithInstance-levelConstraints.\BBCQ\\newblockIn{\BemProc.ofthe17thInternationalConferenceonMachineLearning(ICML2000)},\mbox{\BPGS\1103--1110}.\bibitem[\protect\BCAY{Wagstaff,Rogers,\BBA\Schroedl}{Wagstaffet~al.}{2001}]{Wagstaff01}Wagstaff,K.,Rogers,S.,\BBA\Schroedl,S.\BBOP2001\BBCP.\newblock\BBOQConstrainedK-meansClusteringwithBackgroundKnowledge.\BBCQ\\newblockIn{\BemProc.ofthe18thInternationalConferenceonMachineLearning(ICML2001)},\mbox{\BPGS\577--584}.\bibitem[\protect\BCAY{Xing,Ng,Jordan,\BBA\Russell}{Xinget~al.}{2003}]{Xing03}Xing,E.~P.,Ng,A.~Y.,Jordan,M.~I.,\BBA\Russell,S.~J.\BBOP2003\BBCP.\newblock\BBOQDistanceMetricLearningwithApplicationtoClusteringwithSide-Information.\BBCQ\\newblock{\BemAdvancesinNeuralInformationProcessingSystems},{\Bbf15},\mbox{\BPGS\521--528}.\end{thebibliography}\begin{biography}\bioauthor{杉山一成}{1998年横浜国立大学工学部電子情報工学科卒業.2000年同大学院工学研究科電子情報工学専攻博士前期課程修了.KDDI(株)勤務を経て,2004年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了,博士(工学).(株)日立製作所勤務を経て,2006年東京工業大学精密工学研究所研究員,2009年シンガポール国立大学計算機科学科研究員,現在に至る.情報検索,自然言語処理に関する研究に従事.電子情報通信学会,情報処理学会,人工知能学会,IEEE,ACM,AAAI各会員.}\bioauthor{奥村学}{1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.工学博士.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,認知科学会,計量国語学会,AAAI,ACL各会員.}\end{biography}\biodate\end{document}
| |
V21N02-05
|
\section{はじめに}
label{sec:intro}自然言語処理の分野において,文章を解析するための技術は古くから研究されており,これまでに様々な解析ツールが開発されてきた.例えば,形態素解析器や構文解析器は,その最も基礎的なものであり,現在,誰もが自由に利用することができるこれらの解析器が存在する.形態素解析器としては,MeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}やJUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}などが,構文解析器としては,CaboCha\footnote{http://code.google.com/p/cabocha/}やKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}などが利用可能である.近年,テキストに存在する動詞や形容詞などの述語に対してその項構造を特定する技術,すなわち,「誰がいつどこで何をするのか」という\textbf{事象}\footnote{この論文では,動作,出来事,状態などを包括して事象と呼ぶ.}を認識する技術が盛んに研究されている.日本語においては,KNPやSynCha\footnote{https://www.cl.cs.titech.ac.jp/{\textasciitilde}ryu-i/syncha/}などの解析ツールが公開され,その利用を前提とした研究を進めることが可能になってきた.自然言語処理の応用分野において,述語項構造解析の次のステップとして,文の意味を適切に解析するシステムの開発,および,その性能向上が望まれている.意味解析に関する強固な基盤を作るために,次のステップとして対象とすべき言語現象を見定め,言語学的観点および統計学的観点から具にその言語データを分析する過程が必要である.主に述語項構造で表現される事象の末尾に,「ない」や「ん」,「ず」などの語が付くと,いわゆる否定文となる.否定文では,一般に,その事象が成立しないことが表現される.否定文において,否定の働きが及ぶ範囲を\textbf{スコープ},その中で特に否定される部分を\textbf{焦点}(フォーカス)と呼ぶ\cite{neg2007}.否定のスコープと焦点の例を以下に示す.ここでは,注目している否定を表す表現を太字にしており,そのスコープを角括弧で囲み,焦点の語句に下線を付している.\begin{enumerate}\item雪が降っていたので、[ここに\underline{車では}来ませ]\textbf{ん}でした。\item別に[\underline{入りたくて}入った]\textbf{のではない}。\end{enumerate}文(1)において,否定の助動詞「ん」のスコープは,「ここに車では来ませ」で表現される事象である.文(1)からは,この場所に来たが,車を使っては来なかったことが読み取れるので,否定の焦点は,「車では」である.文(2)において,否定の複合辞「のではない」のスコープは,「入りたくて入った」であり,否定の焦点は,「入りたくて」であると解釈できる.文(1)も文(2)もいずれも否定文であるが,成立しない事象のみが述べられているわけではない.文(1)からは,書き手がここに来たことが成立することが読み取れ,文(2)からは,書き手がある団体や部活などに入ったことが事実であることが読み取れる.一般に,否定文に対して,スコープの事象が成立しないことが理解できるだけでなく,焦点の部分を除いた事象は成立することを推測することができる\cite{neg2007,EduardoMoldo2011b}.ゆえに,自然言語処理において,否定の焦点を的確に特定することができれば,否定文を含むテキストの意味を計算機がより正確に把握することができる.このような技術は,事実性解析や含意認識,情報検索・情報抽出などの応用処理の高度化に必須の技術である.しかしながら,現在のところ,日本語において,実際に否定の焦点をラベル付けしたコーパスや,否定の焦点を自動的に特定する解析システムは,利用可能ではない.そこで,本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点に関する情報をテキストにアノテーションする枠組みを提案する.提案するアノテーション体系に基づいて,既存の2種類のコーパスに対して否定の焦点の情報をアノテーションした結果についても報告する.日本語において焦点の存在を明確に表現する時に,しばしば,「のではない」や「わけではない」といった複合辞が用いられる.また,「は」や「も」,「しか」などに代表されるとりたて詞\cite{toritate2009}は,否定の焦点となりやすい.我々のアノテーション体系では,前後の文脈に存在する判断の手がかりとなった語句とともに,これらの情報を明確にアノテーションする.本論文は,以下のように構成される.まず,2章において,否定のスコープおよび否定の焦点を扱った関連研究について紹介する.次に,3章で,否定の焦点アノテーションの基本指針について述べる.続く4章で,与えられた日本語文章に否定の焦点をアノテーションする枠組みを説明する.5章で,既存の2種類のコーパスにアノテーションした結果について報告する.6章はまとめである.
\section{関連研究}
\label{sec:related}言語学の分野においては,英語や日本語を対象として,否定という言語現象に関して多くの研究や解説書が存在する.そこには,否定の焦点についての説明や理論を述べる文献\cite{Cambridge,kato2010,neg2007}も存在する.日本語においては,否定文の解釈にとりたて詞が強く関わる.それゆえ,否定との共起関係\cite{neg2007,toritate2009}や,とりたて詞のスコープの広さ\cite{Numata1986,Mogi1999,Numata2009,Kobayashi2009}といった観点から,とりたて詞が関わる否定文の研究が行われている.自然言語処理の分野では,これまでに,否定のスコープを対象としたアノテーションコーパスがいくつか構築されている.BioScope\cite{VeronikaVince2008}は,生医学分野における英語文章を対象に,``not''や``without''などの否定の手がかり語句とそのスコープをアノテーションしたコーパスである.Moranteらは,このコーパスを利用して,教師あり機械学習手法を用いた,否定のスコープ検出システムを提案している\cite{Morante2008}.Liらは,BioScopeを対象として,浅い意味解析を取り入れた,否定のスコープ検出システムを提案している\cite{Li2010}.*SEM2012\footnote{http://ixa2.si.ehu.es/starsem/}では,Sharedtaskの1つとして,否定のスコープを検出するタスクが設定されており,ConanDoyleの小説を対象とした,否定のスコープアノテーションコーパスが提供されている\footnote{http://www.clips.ua.ac.be/sem2012-st-neg/}.日本語に関しては,川添らが,日本語の新聞を対象として否定のスコープのアノテーションを進めている\cite{Kawazoe2011}.否定のスコープを対象とした研究に比べ,否定の焦点を対象とした研究はまだ少ない.Blancoらは,PropBank\cite{Olga2005}を基盤データとし,そこにラベル付けされた述語と項の間の関係を利用して,否定の焦点をアノテーションする方法を提案し,アノテーションコーパスを構築した\cite{EduardoMoldo2011b}.彼らは,次の手順で否定の焦点をアノテーションする.\begin{enumerate}\item``not''などの否定の語句に付与されるMNEGラベルを含む文を抽出する\itemMNEGラベルと直接関係する述語を対象とする\item対象の述語に関係する項(A0,A1,A2,TMP,LOCなど)の中から否定の焦点を選択\footnote{否定の焦点がスコープ全体である場合は,便宜上,MNEGラベルを選択する.}し,その項のラベルを「焦点」としてコーパスに記述する\end{enumerate}このコーパスを利用して,Blancoらは,機械学習手法やヒューリスティックを用いて否定の焦点を検出するシステムを提案している\cite{EduardoMoldo2011b,EduardoMoldo2011}.*SEM2012では,Sharedtaskの1つとして,このコーパスを利用して,否定の焦点を検出するタスクが設定された\footnote{http://www.clips.ua.ac.be/sem2012-st-neg/}.Rosenbergらは,4つのヒューリスティック規則を組み合わせる手法を用いて,否定の焦点を検出するシステムを提案している\cite{Rosenberg2012}.日本語に関しては,松吉らが,拡張モダリティの1項目として否定の焦点を扱っている\cite{matuyosi2010}.しかしながら,主要な項目ではないとして,彼らのコーパスにおいて実際にアノテーションされた事例の数は非常に少ない.
\section{否定の焦点アノテーションの基本指針}
文章に存在する否定を検出し,その焦点にラベルを付け,コーパスを構築する.言語学的利用のみでなく,自然言語処理への応用も考慮して,アノテーションの基本指針を定める.\subsection{焦点の部分を除いた事象が成立すること}\label{subsec:hold}『現代日本語書き言葉均衡コーパス』(BCCWJ)\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}から抽出した,否定の焦点の例を以下に示す.ここでは,否定を表す表現を太字にし,焦点の語句に下線を付している\footnote{例文の後の``PN''から始まる文字列は,その例文を抽出したBCCWJ内のファイル名を表す.}.\begin{enumerate}\item[(3)]だが、\underline{学校での}子どもの様子はわから\textbf{ない}から、それだけでうれしい。[PN1a\_00002]\item[(4)]\underline{十七日まで}選手にも協会関係者にも明かさ\textbf{ない}。[PN2f\_00002]\item[(5)]\underline{力を出し切って}敗れた\textbf{わけではない}。[PN2f\_00003]\item[(6)]WHOは五月十八日、ジュネーブで開いた総会で台湾の総会へのオブザーバー参加問題を議題としないことを決め、オブザーバー参加を認め\textbf{なかっ}た。[PN4g\_00001]\end{enumerate}\ref{sec:intro}章で述べたように,否定文において,否定の働きが及ぶ範囲が否定のスコープである\cite{neg2007}.一般に,否定のスコープには,次のものが含まれる\footnote{生成文法においては,「ない」や「ず」がc-統御する領域が否定のスコープであると定められる\cite{kato2010,Kataoka2006}.文中に量化子や数量表現やとりたて詞が存在する場合,否定のスコープとこれらが持つスコープの間の包含関係が文の解釈を定めるために重要であり,生成文法の記法を用いてこれを正確に表現することができる.本研究では,否定のスコープに関して深く立ち入らない.}.\begin{itemize}\item否定付与の対象となった述語\itemその述語のすべての項(必須の項だけでなく,任意の項も含む)\item(従属度が高い)従属節\item述語のアスペクト\end{itemize}「のではない」や「わけではない」などの形式が用いられた場合,文の主題や述語のモダリティもスコープに含まれることがある.これらの要素を含むスコープの中で,特に否定される部分が否定の焦点である.文(3)は,家庭訪問を受けた母親の発言の一部である.「ない」のスコープは,「学校での子どもの様子はわから」で表現される事象である.家庭での子どもの様子は分かると考えられるので,焦点は「学校での」とするのが妥当であると思われる.文(4)は,最終登録選手に関しての監督の発言の一部である.「ない」のスコープは,「十七日まで選手にも協会関係者にも明かさ」で表現される事象である.十七日かそれ以降に登録選手を明かすことが期待できるので,焦点は「十七日まで」と考える.文(5)は,試合に敗れた選手に関する報道記事の一部である.否定の複合辞「わけではない」のスコープは「力を出し切って敗れた」であり,否定の焦点は「力を出し切って」であると解釈できる.文(6)は,WHO総会に関する報道記事の一部である.「なかっ」のスコープは,「WHOはオブザーバー参加を認め」で表現される事象である.この例文においては,(前後の文脈を考慮しても,)スコープの中に特に否定される部分はないように思われる.本研究では,このような場合に,「なかっ」の焦点は,無しとせず,便宜上,スコープ全体であると考える.紙面が煩雑になるのを避けるため,焦点がスコープ全体である場合には,例文に下線を付けない.否定の焦点がスコープ全体でない場合,スコープの事象が成立しないことだけでなく,焦点の部分を除いた事象は成立することが推測できる\cite{neg2007,EduardoMoldo2011b}.例えば,文(5)において,「力を出し切って敗れた」ことは否定されるが,「力を出し切って」の部分に否定の焦点があることが分かれば,「敗れた」ことは成立することが推測できる.同様に,文(4)において,「十七日まで」の部分に否定の焦点があることが分かれば,監督はずっと明かさないのではなく,十七日かそれ以降に「選手にも協会関係者にも明かす」ことが成立することが推測できる.我々は,基本指針の1つとしてこの考え方を取り入れる.\subsection{否定要素}\label{subsec:neg}本論文では,文中において否定を表す表現のことを\textbf{否定要素}と呼ぶ.本研究では,次の3種類の語群をまとめたものを否定要素と定める.\begin{description}\item[否定辞]助動詞「ない」と「ず」,接尾辞「ない」,接頭辞「非」,「不」,「無」,「未」,「反」,「異」\item[非存在の内容語]形容詞「無い」,名詞「無し」\item[否定を表す複合辞]「のではない」,「わけではない」,「わけにはいかない」など\end{description}否定辞のみでなく,非存在の内容語まで含める理由は,「無い」は,存在の内容語「ある」の丁寧な否定「ありません」と同等と思われるからである.否定辞「ん」が使用されている「ありません」は対象とし,「無い」は内容語なので対象としないのは,不合理であると思われる.言語学の文献\cite{morita1989,neg2007}において,否定を表す複合辞とされる表現は,1形態素の否定辞と異なる性質を持つと思われるので,区別して扱う.接頭辞「非」や「不」は,直後の語を否定する働きを持つのみであり,これらに対して焦点を判断する必要はないと思われがちである.しかしながら,次の例のように,「ない」や「ん」と同様に,接頭辞もスコープの一部に焦点を持つことがあるので,対象とした.\begin{enumerate}\item[(7)]九十年代の「失われた十年」ではっきりしたのは、もはや\underline{民間まかせでは}過剰債務処理は\textbf{不}可能ということだ。[PN1b\_00004]\end{enumerate}これは,前の文脈から,過剰債務処理には政府の介入が必要であることが読み取れる例であり,否定の焦点は「民間まかせでは」であると考える.\subsection{否定要素としない語句}\label{subsec:outof}否定辞か非存在の内容語を含む2形態素以上の慣用表現は,全体を1語とし,焦点判断の対象としないこととする.これらの慣用表現は,大きく分けると,次の2種類からなる.\begin{description}\item[複合語]「物足り\underline{ない}」,「仕方が\underline{ない}」,「思わ\underline{ず}」など\item[否定以外の意味を持つ複合辞]「\underline{なけれ}ばなら\underline{ない}」,「\underline{ない}といけ\underline{ない}」,「かもしれませ\underline{ん}」,「にもかかわら\underline{ず}」,「だけで\underline{なく}」など\end{description}上記の複合語に相当するかどうかは,次の2点から判断する.\begin{itemize}\item肯定形(例えば,「仕方がない」に対する「仕方がある」)が,通常,使用されるか\item国語辞典\cite{daijisen,iwanami}に見出しが立っているか\end{itemize}複合辞であるかどうかの判断は,言語学や日本語教育の文献\cite{morita1989,Jamasi1998}を参考にし,前節で述べたように,否定を表す複合辞とされる表現は,否定要素として扱う.助動詞「ない」か接尾辞「ない」,もしくは,形容詞「無い」を使った単純な否定表現に言い換えられない否定の接頭辞は,否定要素とはしない.例えば,「\underline{不}十分」は,「十分でない」ことであるので,焦点判断の対象とする.一方,「\underline{不}気味」は,「気味が悪い」ことであり,「気味がない」や「気味でない」に言い換えられないので,対象としない.\subsection{否定要素と呼応する程度・頻度の副詞}以下の例文のように,否定要素に呼応する,程度の副詞や頻度の副詞が用いられることがある.ここでは,注目している否定要素を太字にし,程度の副詞や頻度の副詞に下線を付ける.\begin{enumerate}\item[(8)]ボールを回すくらいで、\underline{そんなに}ハードな練習じゃ\textbf{なかっ}た。[PN2f\_00002]\item[(9)]市街地では、街灯やライトアップによる“光害”で夜空の星が\underline{なかなか}見え\textbf{ない}。[PN2g\_00004]\item[(10)]価格は1万円前後で、「\underline{いつもは}ぜいたくでき\textbf{ない}けれど、お正月くらい、という方が多いようです」。[PN3b\_00004]\end{enumerate}文(8)で述べられていることは,「全くハードな練習ではなかった」ことではなく,ハードな練習ではあったが,その程度が想定されるよりも高くなかったということである.同様に,文(9)では,星は全く見えないのではなく,見える程度や頻度が低いということが述べられている.文(10)の該当箇所は,いわゆる部分否定であり,「ぜいたくできる」ことが全く成り立たないわけではなく,たまには成り立つことが読み取れる.否定要素に呼応する,程度の副詞や頻度の副詞は,全く成り立たないことを強調する\textbf{完全否定}の副詞と,全く成り立たないわけではないことを表現する\textbf{弱否定}の副詞に分類することができる\cite{neg2007}\footnote{文献\cite{neg2007}では,頻度の副詞については,このような分類がなされていないが,本研究では,程度の副詞と同様に,頻度の副詞も完全否定と弱否定に分類する.}.「全然」や「絶対に」,「決して」などの副詞は,完全否定の副詞であり,文(8)〜(10)における下線の副詞などは,弱否定の副詞である.本研究では,否定と呼応する弱否定の副詞を否定の焦点とみなす.これらの副詞は,「多くは(持てない)」や「速くは(走れない)」のような形容詞連用形+「は」や,「頻繁には(通えない)」のような形状詞+「には」と同様に用いられる.このような形容詞や形状詞を否定の焦点として扱うことは自然であることから,これらの形容詞や形状詞に連続するものとして,否定と呼応する弱否定の副詞も否定の焦点とみなす\footnote{本研究では,連続するものとしてまとめて扱うが,否定の焦点として狭義のもののみを認める立場の場合,\ref{subsec:hold}節の考え方が成立する言語現象の1つとして,異なる枠組みを用意して弱否定の副詞を扱うことが考えられる.}.このようにみなしても,\ref{sec:intro}章で述べた,言語学の文献における焦点の定義と矛盾することはないと思われる.上の例で見たように,弱否定の副詞に対しても\ref{subsec:hold}節の考え方が成立する.一方,完全否定の副詞は,否定のスコープの一部ではなく,否定のスコープ全体が全く成り立たないことを強調する\cite{neg2007}.文(11)と文(12)に,否定と呼応する完全否定の副詞の例を示す.ここでは,注目している否定要素を太字にし,完全否定の副詞に二重下線を付ける.\begin{enumerate}\item[(11)]栃乃洋を\underline{\underline{まったく}}寄せ付け\textbf{なかっ}た。[PN1e\_00004]\item[(12)]\underline{\underline{一向に}}出口が見え\textbf{ない}長期の不況、社会全体をおおう閉塞状況、重なる将来への不安など前世紀終盤から引き継いだ課題への各党の対応を、国民はどう判断するか。[PN1b\_00002]\end{enumerate}このような場合,スコープ全体が否定の焦点であるので,否定と呼応する完全否定の副詞を否定の焦点とみなすことはしない.\subsection{とりたて詞}\label{subsec:toritate}\textbf{とりたて}とは,文中のある要素をきわだたせ,同類の要素との関係を背景にして,特別な意味を加えることである\cite{toritate2009}.「は」や「も」,「さえ」,「しか」など,とりたての機能を持つ助詞のことを,本研究では\textbf{とりたて詞}と呼ぶ.とりたて詞が付いた語句は,否定の焦点になりやすい.例として,対比を表す「は」を含む否定文と,限定を表す「しか」を含む否定文を以下に示す.いずれの例においても,とりたて詞が付いた箇所が否定の焦点である.\begin{enumerate}\item[(13)]\underline{前半は}スコアが伸び\textbf{ず}パープレー。[PN3d\_00003]\item[(14)]普段は\underline{決まったものしか}料理し\textbf{ない}ので、おけいこ感覚で。[PN3b\_00004]\end{enumerate}文(13)は,ゴルフの大会において,前半と後半を対比して述べるものであり,後半はスコアが伸びたことがほのめかされている.文(14)\footnote{「普段は\underline{決まったもの以外}料理し\textbf{ない}.」という文において,「以外」を含めて否定の焦点であると判断するように,文(14)では,「しか」も含めて否定の焦点であると判断する.}では,決まったものは料理するが,それ以外のものは料理しないことが述べられている.本研究では,否定の焦点ととりたて詞の関係を観察するために,とりたて詞の有無とその種類をアノテーションする.基本的にはガ格やヲ格などの格情報と同様の形式でアノテーションするが,限定を表す「しか」と,数量語に付く「も」には特別なマークを付与する.文(14)で見たように,「しか」は,必ず否定要素と共起する.「しか」が付く項は強く取り立てられるので,常に否定の焦点となる.\underline{「しか」が存在する否定文では,文に述べられたまさ}\\\underline{にこの場合には事象は成立するが,これ以外の場合には成立しないことが表現される}.「しか」が存在する事例には,\ref{subsec:hold}節の考え方を適用できないので,特別なマークを付けて,「しか」が存在することを明示する.これにより,計算機は以下に例示するような解釈を得ることが可能になる.文(13)の焦点には特別なマークを付けないので,計算機は,\ref{subsec:hold}節の考え方を適用して,「前半でない場合にスコアが伸びた」という解釈を得る.一方,下の文(13$'$)の焦点には「しか」という特別なマークを付けるので,計算機は,規則の例外であることを認識し,「前半にスコアが伸びた.前半でない場合はスコアが伸びなかった」という解釈を得る.\begin{enumerate}\item[(13$'$)]\underline{前半しか}スコアが伸び\textbf{なかっ}た。[作例]\end{enumerate}数量語に付く「も」が否定要素と共起すると,「その概数には届かない」という意味と,「書き手はそれを少ない・低いと捉えている」ことが表現される\cite{toritate2009}.これは,累加の「も」にはない性質である.例を以下に示す.\begin{enumerate}\item[(15)]出場者ランキングの\underline{二十位にも}入ってい\textbf{なかっ}た2年生・高平慎士が、晴れの舞台で堂々と高校3傑入り。[PN1e\_00003]\end{enumerate}\ref{subsec:hold}節の考え方の適用外ではないが,自然言語処理における評判分析・感情解析タスクに有用であると思われるので,累加の「も」ではないことを示す特別なマークを付けて,数量語に付く「も」が存在することを明示する.\ref{sec:related}章の冒頭で少し触れたように,言語学の分野においては,否定文にとりたて詞が存在する場合,否定のスコープととりたて詞のスコープのどちらが広いかを考慮しながら,否定文の解釈に対するとりたて詞の性質を議論する\cite{Numata1986,Mogi1999,Numata2009,Kobayashi2009}.例えば,次の文は,2つのスコープのどちらが広いかにより,2つの異なる解釈が可能である\cite{Mogi1999}.\begin{enumerate}\item[(16)]親にまで打ち明けなかった。[\cite{Mogi1999}のp.~29]\end{enumerate}\begin{description}\item[「まで」のスコープが否定のスコープより広い場合の解釈]最初に打ち明けるべきである親に対しても打ち明けなかったし,親以外に対しても打ち明けなかった.\item[否定のスコープが「まで」のスコープより広い場合の解釈]信頼できる親友には打ち明けたが,(問題を大きくしたくなかったので,)親には打ち明けなかった.\end{description}\ref{subsec:guideline}節で述べるように,本研究では,\ref{subsec:hold}節の考え方に基づいて否定の焦点をアノテーションする.とりたて詞のスコープの広さも考慮しながら情報をアノテーションすることは,今後の課題である.\subsection{二重否定}否定要素が2つ重なって用いられることを\textbf{二重否定}と呼ぶ\cite{neg2007}.以下に,二重否定を含む例文を示す.ここでは,否定要素とその焦点の対応を明示するため,$i$や$j$などの添字を用いている.\begin{enumerate}\item[(17)]1年生のうち、\underline{鈴木は}$_{j}$、眠たそうに走っていたけれど、早朝練習に来$\mbox{\textbf{なかっ}}_{i}$た\textbf{わけで}$\mbox{\textbf{はない}}_{j}$。[作例]\item[(18)]山田は、\underline{気まずくて}$_{j}$合宿に参加し$\mbox{\textbf{なかっ}}_{i}$た$\mbox{\textbf{のではない}}_{j}$。[作例]\item[(19)]\underline{理由$\mbox{\textbf{なく}}_{k}$~}$_{j}$、\underline{レストランでは}$_{i}$これを食べ$\mbox{\textbf{ない}}_{i}$$\mbox{\textbf{のではない}}_{j}$。[作例]\item[(20)]\underline{彼なら}$_{j}$金曜日までに報告書を仕上げることは$\mbox{\textbf{不}}_{i}$可能では$\mbox{\textbf{ない}}_{j}$。[作例]\end{enumerate}文(17)では,「なかっ」と「わけではない」という2つの否定要素が重なって用いられている.鈴木以外の1年生の誰かは早朝練習に来なかったことが読み取れるので,外側の否定要素の「わけではない」は,「鈴木は」に焦点を持つと考えられる.文(18)では,外側の否定要素の「のではない」の焦点は,「気まずくて」であると思われる.文(19)には,3つの否定要素が使用されており,「のではない」のスコープの中に,残りの2つの否定要素が含まれる.家ではこれを食べるが,レストランでは食べないことが推測できるので,「ない」の焦点は,「レストランでは」である.理由がないのではなく,理由があることが読み取れるので,「のではない」の焦点は,「理由なく」であると考える.文(20)は,接頭辞の否定要素を含む例である.彼以外には不可能であることが推測できるので,「ない」の焦点は「彼なら」である.本研究では,二重否定に関わる否定要素に対して,それぞれその焦点が何であるかを判断してアノテーションする\footnote{残念ながら,今回対象としたテキスト(\ref{sec:corpus}章参照)には二重否定は出現しなかった.}.このとき,内側の否定要素のスコープの事象が二重否定により成立する場合,内側の否定要素に特別なマークを付ける.例えば,文(17)の「なかっ」のスコープは,「鈴木は早朝練習に来」で表現される事象であり,二重否定により,この事象は成立することが読み取れる.この「なかっ」には上記のマークを付け,「鈴木は早朝練習に来なかった」ことが事実ではないこと(すなわち,「鈴木は早朝練習に来なかった」ことが否定されていること)を表現する.一方,文(18)の「なかっ」のスコープは,「山田は合宿に参加し」で表現される事象であり,この文からは,「山田は合宿に参加しなかった」ことが事実であることが推測できる.この場合は,二重否定に関わらない通常の否定要素と同様に扱うことができるので,特別なマークは付けない.このようなアノテーションは,\ref{subsec:hold}節の考え方と矛盾を起こさない.例えば,文(17)における外側の否定要素である「わけではない」に対して\ref{subsec:hold}節の考え方を適用して,1年生のうち鈴木以外の誰かは早朝練習に来なかったことを推測することができる.同様に,文(19)における内側の否定要素である「ない」に対して\ref{subsec:hold}節の考え方を適用して,レストラン以外の場所ではこれを食べることが推測できる.\ref{subsec:toritate}節で述べたように,「しか」が存在する事例には,\ref{subsec:hold}節の考え方を適用できない.二重否定と「しか」が混在する場合は,これらに対する特別なマークを併用する.例えば,次の例文からは,田中が早朝練習に来たことと,田中以外の誰かも早朝練習に来たことが読み取れる.\begin{enumerate}\item[(21)]今朝は、\underline{田中しか}$_{i}$早朝練習に来$\mbox{\textbf{なかっ}}_{i}$た$\mbox{\textbf{わけではない}}_{j}$。[作例]\end{enumerate}このような解釈を表すために,内側の否定要素である「なかっ」に「否定されている」ことを表す特別なマークを付け,さらに,その焦点である「田中しか」に「しか」に関する特別なマークを付ける.出現頻度はかなり低いと思われるが,三重以上の否定が存在する場合も,二重否定の場合と同様にアノテーションする.
\section{否定の焦点アノテーションの枠組み}
この章では,まず,否定の焦点を判断する基準について述べる.そして,否定要素とその焦点に対して定めたアノテーション項目と,そこに付与するラベルについて説明する.\subsection{否定の焦点の判断基準}\label{subsec:guideline}\ref{sec:intro}章で述べたように,否定要素によって特に否定される部分が否定の焦点である.これを安定して判断するために,\ref{subsec:hold}節の考え方に基づいて,我々は次のような判断基準を定めた.\begin{enumerate}\itemある文の否定の焦点を判断する時には,その文だけでなく,周りの文脈も広く参照する\item対象とする文から,一部の表現と否定要素を除外した事象を生成する.その事象が成立することが推測できれば,除外した表現の部分を否定の焦点と判断する\item解釈に複数の可能性が考えられる場合は,否定の焦点はスコープ全体であるとする\begin{itemize}\item例えば,一部に焦点があると考えることもできるし,スコープ全体が焦点であると考えることもできる場合\item例えば,Aという部分に焦点があると解釈することもできるし,Bという部分に焦点があると解釈することもできる場合\end{itemize}\end{enumerate}基準(3)は,判断する人間の思い込みを最大限排除するために設けたものである.複数の解釈が発生するのはどのような状況であるかを調査し,その状況の説明を含め,複数の解釈が存在することをアノテーションする枠組みを設計することは,今後の課題である.\subsection{項目とラベル}\label{subsec:label}否定要素に対して,以下の5つのアノテーション項目を定める.\begin{description}\item[表層文字列]文に出現した否定要素の表層文字列.出現形で記述する\item[形態素ID]否定要素の形態素のID\item[品詞]助動詞,接尾辞,接頭辞,形容詞,名詞,否定複合辞のいずれか(\ref{subsec:neg}節参照)\item[二重否定]二重否定により,事象が成立しているとみなせるか\item[最終更新日]``YYYYMMDD''という形式で記述された最終更新日\end{description}否定複合辞のリストとプログラムを用意すれば,これらのうち,二重否定以外の情報は自動付与が可能である.ただし,形態素解析辞書UniDic\footnote{http://sourceforge.jp/projects/unidic/}では,助動詞ではない「ない」は,すべて「形容詞,非自立可能」と解析されるため,これらを半自動的に「形容詞」と「接尾辞」に分類する必要がある.否定の焦点に対して,以下の7つのアノテーション項目を定める.\begin{description}\item[代表表層文字列]焦点の表層文字列.ただし,後述する代表形態素のみを記述する\item[代表形態素ID]焦点の代表形態素のID\item[項・節の種類]ガ格,ヲ格,デ格,副詞,ノの項,ナの項,テ節,ト節など,焦点の統語的分類.複数記述可\item[特別なとりたて詞]「しか」や,数量語に付く「も」が存在するか\item[意味分類]制限-時間,制限-場所,制限-対象,付加-連用修飾,付加-連体修飾,付加-アスペクトなど,意味解釈に基づいた,否定されている語句の分類\item[判断の根拠]その箇所を焦点であると判断するに至った根拠.自由記述\item[手がかり語句]文章中に存在する,焦点判断の手がかりとなった語句.複数記述可\end{description}コーパスにおいて否定の焦点は代表1形態素にラベル付けする.このように決めた理由は,否定の焦点の自動検出システムを評価する際に,正解とシステムの出力の比較が容易になるからである.代表1形態素は,次のように定める.\begin{itemize}\item内容語\item複合語の場合,接尾辞を除く末尾の語\item修飾語が存在する場合,それが係る末尾の語\end{itemize}1形態素にラベル付けするが,その1形態素のみに焦点があると考えるのではなく,その形態素を含む項(場合によっては,節)全体に焦点があるとみなす.表層的な格助詞や接続助詞などに基づく分類が,「項・節の種類」であり,焦点の語句が表す意味に基づく分類が,「意味分類」である.例えば,「意味分類」の``制限-場所''は,場所を表す語句に否定の焦点があり,そこではない場所をうまく選べば,対象事象が成立することを表す.「意味分類」の``付加-連用修飾''は,程度の副詞や頻度の副詞に対して付与する.文中に存在する形態素列をそのまま記述する項目が「手がかり語句」であり,人手による判断の根拠を備考として自由記述する項目が「判断の根拠」である.現在は,「判断の根拠」は自由記述としているが,使用できる語彙を制限した,いわゆる制限言語により根拠を記述する方法を模索している.上に挙げた項目のうち,「項・節の種類」と「意味分類」,「手がかり語句」は,否定の焦点を自動的に検出するシステムを構築する際に,有用な情報を提供すると考えている.焦点検出の最初の処理として,焦点の候補となる語句に対してこれらの項目を適切に特定することができれば,その情報は,それぞれ,形態的・統語的手がかり,意味的手がかり,談話的手がかり\footnote{機械学習手法を用いる場合は,それぞれ,形態的・統語的素性,意味的素性,談話的素性に対応する.}として,否定の焦点を決定する処理に利用することが可能であると思われる.構文的制約から,否定要素に対して選択できる焦点の候補が1つしかない場合,すなわち,焦点はスコープ全体であると考えるしかない場合,そのような事例とその他の事例を区別することは有用である.なぜならば,焦点検出システムの評価にアノテーションコーパスを用いる時,このような事例に対してシステムは必ず正解のラベルを出力するので,システムの本質的な性能を見るために,評価データからこのような事例をすべて除去したいことがあるからである.我々は,上で述べた項目に加え,アノテーション項目として「候補数」を設計\footnote{ラベルは,``1''か``複数''の2択とした.}し,アノテーション作業を行ったが,今回の作業では,候補数が1となる事例は見つからなかった.アノテーションコストを考慮すると,人手によりこの項目をアノテーションすることは良い方法ではないことが分かった.プログラムにより,「1文中に述語と否定要素しか存在しない」事例を見つけることが,候補数が1の事例を見つけるための得策であると思われる.現在,「候補数」をアノテーションすることは保留している.\subsection{否定のスコープ}本来ならば,否定の焦点をアノテーションする前に,否定のスコープを明示的にアノテーションすべきである.既存の述語項構造解析の技術を用いれば,ある程度は自動的に否定のスコープを認識することができるが,対象が整った文章でない場合,人間による修正作業が多く発生する.本研究では,人的コストの関係から,否定のスコープをアノテーションしない.人間が否定の焦点を判断する時には,対象となる否定要素のスコープを目で確認するに留める.頑健かつ高い精度で否定のスコープを認識するシステムを開発することは,今後の課題である.\subsection{データ構造}\label{subsec:XML}我々が提案するアノテーション体系に基づく否定の焦点コーパスは,図\ref{fig:XML}のようなXMLによって表現する.この図は,\ref{subsec:hold}節の文(3)に対するアノテーション結果である.アノテーション対象のテキストデータは,次のような形式でファイルに保存されていることを前提とする.\begin{itemize}\item文分割されている\item1文が$<$sentence$>$要素で囲まれている\item形態素解析されている\item各形態素は,$<$SUW$>$や$<$tok$>$のような要素で囲まれている\item形態素を囲む要素は,少なくとも1文内で一意のID属性を持っている\end{itemize}例えば,BCCWJのXML形式のデータは,上記の形式に合う.また,文分割したテキストデータを,オプション``-f3''を指定しながら構文解析器CaboChaで構文解析した出力結果もまた,上記の形式に合う.我々は,前処理として,すべての$<$sentence$>$要素に独自のID(通し番号)を付与する.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA6f1.eps}\end{center}\caption{提案するアノテーション体系に基づくXMLファイルの例[PN1a\_00002]}\label{fig:XML}\end{figure}提案するXMLでは,$<$wsb:negation$>$要素を用いて否定要素の情報を記述し,$<$wsb:focus$>$要素と$<$wsb:description$>$要素,$<$wsb:clue$>$要素を用いて否定の焦点の情報を記述する\footnote{ここで,``wsb''は,植物のわさびから名付けた名前空間である.}.\subsubsection*{$<$wsb:negation$>$要素}1文もしくは文の断片を表す$<$sentence$>$要素の直接の子要素として記述する.\ref{subsec:label}節で述べたアノテーション項目に対する値を以下の属性に記述する.\begin{itemize}\item@wsb:orthtoken(必須属性):表層文字列\item@wsb:morphID(必須属性):形態素ID\item@wsb:POS(必須属性):品詞\item@wsb:doubleNegative(任意):二重否定\item@wsb:lastupdate(必須属性):最終更新日\end{itemize}\subsubsection*{$<$wsb:focus$>$要素}$<$wsb:negation$>$要素の直接の子要素として記述する.否定の焦点がスコープ全体である場合は,1という値を記述した@wsb:scope属性のみを指定する.否定の焦点がスコープの一部である場合,子要素として$<$wsb:description$>$要素と$<$wsb:clue$>$要素を用意すると同時に,$<$wsb:focus$>$要素の以下の属性\footnote{@wsb:numOfCandidatesは,\ref{subsec:label}節で述べた「候補数」を表す.図\ref{fig:XML}における``pl''という値は「複数」を表す.}に値を記述する.\begin{itemize}\item@wsb:orthtoken(必須属性):代表表層文字列\item@wsb:morphID(必須属性):代表形態素ID\item@wsb:argTypes(必須属性):項・節の種類\item@wsb:toritate(任意):特別なとりたて詞\item@wsb:class(必須属性):意味分類\end{itemize}$<$wsb:description$>$要素のコンテンツに「判断の根拠」を記述する.この要素は1つのみ用意することができる.「手がかり語句」を記述する$<$wsb:clue$>$要素には,次の属性の値を記述する.\begin{itemize}\item@wsb:sID(任意):手がかりの形態素列が対象の文の外に存在する場合,手がかりが存在する文のIDを記述する\item@wsb:orthtokens(必須属性):手がかりの表層文字列の列.形態素間は``.''で区切る\item@wsb:morphIDs(必須属性):表層文字列の列に対応する形態素IDの列.形態素間は``.''で区切る\end{itemize}必要ならば,$<$wsb:clue$>$要素は2つ以上用意しても良い.我々のデータ構造は,$<$sentence$>$要素に1つの子要素(孫要素を含む)を追加するのみであるので,BCCWJのXML形式のデータを利用するアノテーションや,XML形式のCaboChaフォーマットを利用するアノテーションと共存できるという長所を持つ.例えば,松吉らの拡張モダリティアノテーション(松吉他2010)と我々のアノテーションは共存可能である.
\section{否定の焦点コーパス}
\label{sec:corpus}前章で説明したアノテーションの枠組みに基づき,次の2つのテキストデータを対象として,否定の焦点コーパスを構築した.\begin{enumerate}\item楽天データ\footnote{http://travel.rakuten.co.jp/}の楽天トラベル:レビューデータ\itemBCCWJにおけるコアデータ内の新聞(PN)\end{enumerate}\subsection{楽天トラベル:レビューデータ}楽天トラベル:レビューデータのうち,重要文抽出に関して小池らが使用したものと同じレビュー集合\cite{koike2012}を対象とした.これを選択した理由は,小池らのコーパスと合わせることで,要約における重要文と否定の焦点の間の関係が明らかになる可能性があるからである\footnote{この関係性の分析は今後の課題である.}.小池らのレビュー集合について説明する.彼らは,まず,宿泊施設に対するレビュー数の分布を調査し,90\%以上の宿泊施設はレビュー数が1から58の範囲にあることを明らかにした.そして,その結果に基づき,レビュー数が10から58の範囲の宿泊施設の全体から,無作為に40の宿泊施設を抽出した.最後に,独自の文分割規則により半自動的にそのレビュー集合を文分割した.このコーパスには,5,178文が含まれており,形態素の品詞情報のみに基づいて抽出した否定要素の候補は,1,246個であった.以下,このコーパスを「レビュー」と表記する.\subsection{BCCWJコアデータの新聞}BCCWJ全体の約1/100のデータがコアデータに指定されており,このデータは,その他の部分と比較して高い精度で解析が施されている.コアデータの一部に言語学的情報を付与する場合,国立国語研究所が定めたファイル優先順位\footnote{http://d.hatena.ne.jp/masayua/20120807/1344313720}に従うことが推奨される.我々は,コアデータ内の新聞340ファイルのうち,優先順位が1から54までの``A''グループを対象とした.このコーパスには,1文もしくは文の断片を表す,XMLの$<$sentence$>$要素が2,708個含まれており,否定要素の候補は,406個であった.以下,このコーパスを「新聞」と表記する.\subsection{アノテーション作業}\ref{subsec:XML}節で説明したXML形式のファイルは,独自プログラムにより,HTML形式のファイルに変換することができる.このHTML形式のファイルをブラウザーで開いたところを,図\ref{fig:HTML}に示す.作業者は,ブラウザー上でHTMLファイルを確認しながら,テキストエディターにおいてXMLファイルを更新する.作業にかかる時間は,100個の否定要素候補に対して3時間程度である.XMLの編集に適したエディター環境の構築は,今後の課題である.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA6f2.eps}\end{center}\caption{ブラウザー上で見たHTMLファイル}\label{fig:HTML}\end{figure}2人の作業者が独立に「新聞」に対してアノテーション作業を行い,2人の作業結果において焦点の場所がどれほど一致するかを調査した.全304個の否定要素のうち,103個が不一致であったが,2時間ほど2人で議論することにより,これらの不一致をすべて解消することができた.不一致の主な原因は,以下の3点であった.\begin{itemize}\itemスコープが明示されていないことによる勘違い\item作業者のうち1名は,広く文脈を参照していなかった\itemとりたて詞「だけ」が持つ限定の意味に引っ張られた\end{itemize}「レビュー」に対するアノテーション作業は,1人の作業者が行った.その後,もう1人の作業者が作業結果を確認し,議論の上,数個のラベルを修正した.\subsection{コーパスの分析}2つのコーパス「レビュー」と「新聞」における,否定要素候補の分布を表\ref{tab:neg}に示す.2つのコーパスにおいて,否定要素はそれぞれ1,023個と304個であり,いずれのコーパスでも,助動詞「ない」と「ず」が全体の過半数を占めることが分かる.2つのコーパスにおいて,否定の焦点がスコープ全体でないものは,それぞれ301個と72個であった.「レビュー」では,29\%(301/1,023)の否定要素が,「新聞」では,24\%(72/304)の否定要素が,スコープの一部に焦点を持つことが分かる.自然言語処理において,否定の焦点が適切に検出されず,すべての焦点はスコープ全体であるとして否定文を扱う場合,30\%弱の事例に対して,否定文が含意する解釈を把握できないことになる.この数字は無視できないほど大きいと思われる.スコープ全体でない焦点の「項・節の種類」の分布を表\ref{tab:foc}に示す.図\ref{fig:XML}に例示されるような,ある格と``ノの項''が同時に付与されている事例は,この表では,``ノの項''として集計した.「レビュー」には,焦点が副詞である否定要素が多いことが分かる.「新聞」のデータ数が少ないので,確定的なことは言えないが,どの格が焦点になりやすいかも,2つのコーパスで異なる傾向があるようである.\begin{table}[b]\begin{minipage}[t]{0.48\hsize}\caption{否定要素候補の分布}\label{tab:neg}\input{ca06table01.txt}\end{minipage}\hfill\begin{minipage}[t]{0.48\hsize}\caption{スコープ全体でない焦点の分布}\label{tab:foc}\input{ca06table02.txt}\end{minipage}\end{table}焦点である部分に付いていたとりたて詞の数を表\ref{tab:toritate}に示す.2つのコーパスを合わせ,35\%(129/373)の焦点に何らかのとりたて詞が付いていたことが分かる.とりたて詞「は」は,焦点である箇所の手がかりとして利用できそうに見えるが,「は」は,特に主題を表す「は」として,スコープ全体が焦点である事例にも多く出現するので,注意が必要である.\ref{subsec:toritate}節で述べたように,スコープの中に「しか」が付く項が存在する場合,それが否定の焦点となる.焦点の語句が表す意味に基づく分類結果を表\ref{tab:semantic}に示す.「レビュー」には,焦点が副詞である否定要素が多いため,``付加-連用修飾''が多いことが見て取れる.「レビュー」は宿泊施設のレビュー集合であるので,場所を表す語句に否定の焦点がある``制限-場所''が,「新聞」に比べ,著しく多いことが分かる.判断の根拠\footnote{判断の根拠と手がかり語句は,アノテーションコストの理由により,今回,1人の作業者しか記述していない.}は,自由記述であるため,様々な回答が見られた.「レビュー」では,副詞が焦点となる事例が多かったので,次のような根拠が多く見られた.\begin{itemize}\item程度の副詞が付加的に使用されている(86事例)\item時間の副詞(句)が付加的に使用されている(20事例)\item様態の副詞が付加的に使用されている(8事例)\end{itemize}しかしながら,このような特別な場合を除けば,一致する回答はほとんどなく,出現回数が1回の回答は,160事例あった.参考として,その中から任意に選択した回答を以下に示す.\begin{itemize}\itemそれまでは連絡が取れた\item一般に材料は入れる\item一部は押さえた\itemその他の項目では負ける可能性がある\itemこのホテルは特別なサービスがある\end{itemize}これらの回答を自然言語処理において有効に活用するためには,\ref{subsec:label}節で述べたように,できる限り,語彙と書き方を制限する方法が有効であると思われる.\begin{table}[b]\begin{minipage}[t]{0.48\hsize}\caption{焦点に付いていたとりたて詞}\label{tab:toritate}\input{ca06table03.txt}\end{minipage}\hfill\begin{minipage}[t]{0.48\hsize}\caption{焦点の意味分類結果}\label{tab:semantic}\input{ca06table04.txt}\end{minipage}\end{table}\begin{table}[b]\caption{手がかり語句が存在した位置}\label{tab:clue}\input{ca06table05.txt}\end{table}対象文内に存在した手がかり語句の数と,対象文の外に存在した手がかり語句の数を,表\ref{tab:clue}に示す.「レビュー」では,2事例に対してそれぞれ2つの手がかり語句が記述されていたため,合計が373ではなく,375となっている.この表から,87\%(327/375)の手がかり語句は,対象文内に見つかることが分かる.しかしながら,今回のアノテーション作業においては,広く文脈を見渡すことにより,対象文が持つ意味の曖昧性を解消してから,手がかり語句を決定しているので,ほとんどの否定の焦点は対象文内の情報のみで特定できると結論付けることはできないと思われる.今後は,徐々に参照する文脈を広げながら,「どこまで参照したか」という情報とともに,手がかり語句を記述する枠組みが必要である.
\section{おわりに}
本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し,実際に2種類のテキストを対象として構築した否定の焦点コーパスについて報告した.今後の課題は大きく3つある.1つめは,アノテーション結果を分析することにより明らかになった,アノテーション体系の不備を改めることである.特に,判断の根拠や手がかり語句の情報を,自然言語処理において使いやすい形で記述する方法を考案する必要がある.2つめは,新しいジャンルのテキストに焦点の情報をアノテーションし,コーパスを大きくすることである.現在,BCCWJの新聞以外のレジスタに対してアノテーション作業を進めることを計画している.3つめは,構築したコーパスを利用して,実際に日本語における否定の焦点を検出するシステムを実装することである.大槻らは,独自のヒューリスティックを利用することにより,日本語における否定の焦点を検出するシステムを提案している\cite{otsuki2013}.我々は,今回アノテーションした情報を有効に活用することにより,高い精度で焦点を検出できるシステムの構築を目指したい.構築したコーパスは,楽天データおよびBCCWJとの差分形式で,無償で一般公開する予定である.\acknowledgment本論文の査読者の方々から,本研究に関して有益なご助言をいただきました.また,本研究では,楽天トラベル株式会社の施設レビューデータと,国立国語研究所の『現代日本語書き言葉均衡コーパス』を利用させていただきました.ここに記して感謝の意を表します.本研究の一部は,科研費若手研究(B)「否定焦点コーパス構築と焦点自動解析に関する研究」(課題番号:25870278,代表:松吉俊)の支援を受けています.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Babko-Malaya}{Babko-Malaya}{2005}]{Olga2005}Babko-Malaya,O.\BBOP2005\BBCP.\newblock{\Bem{PropBankAnnotationGuidelines}}.\newblockACE(AutomaticContentExtraction)Program.\newblock\url{http://verbs.colorado.edu/~mpalmer/projects/ace/PBguidelines.pdf}.\bibitem[\protect\BCAY{Blanco\BBA\Moldovan}{Blanco\BBA\Moldovan}{2011a}]{EduardoMoldo2011b}Blanco,E.\BBACOMMA\\BBA\Moldovan,D.\BBOP2011a\BBCP.\newblock\BBOQSemantic{R}epresentationof{N}egation{U}sing{F}ocus{D}etection.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\581--589}.\bibitem[\protect\BCAY{Blanco\BBA\Moldovan}{Blanco\BBA\Moldovan}{2011b}]{EduardoMoldo2011}Blanco,E.\BBACOMMA\\BBA\Moldovan,D.\BBOP2011b\BBCP.\newblock\BBOQSome{I}ssueson{D}etecting{N}egationfrom{T}ext.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalFloridaArtificialIntelligenceResearchSocietyConference},\mbox{\BPGS\228--233}.\bibitem[\protect\BCAY{グループ・ジャマシイ}{グループ・ジャマシイ}{1998}]{Jamasi1998}グループ・ジャマシイ\JED\\BBOP1998\BBCP.\newblock\Jem{教師と学習者のための日本語文型辞典}.\newblockくろしお出版.\bibitem[\protect\BCAY{Huddleston\BBA\Pullum}{Huddleston\BBA\Pullum}{2002}]{Cambridge}Huddleston,R.\BBACOMMA\\BBA\Pullum,G.~K.\BEDS\\BBOP2002\BBCP.\newblock{\BemTheCambridgeGrammarofthe{English}Language}.\newblockCambridge{U}niversity{P}ress.\bibitem[\protect\BCAY{片岡}{片岡}{2006}]{Kataoka2006}片岡喜代子\JED\\BBOP2006\BBCP.\newblock\Jem{日本語否定文の構造かき混ぜ文と否定呼応表現}.\newblockくろしお出版.\bibitem[\protect\BCAY{加藤\JBA吉村\JBA今仁}{加藤\Jetal}{2010}]{kato2010}加藤泰彦\JBA吉村あき子\JBA今仁生美\JEDS\\BBOP2010\BBCP.\newblock\Jem{否定と言語理論}.\newblock開拓社.\bibitem[\protect\BCAY{川添\JBA齊藤\JBA片岡\JBA崔\JBA戸次}{川添\Jetal}{2011}]{Kawazoe2011}川添愛\JBA齊藤学\JBA片岡喜代子\JBA崔栄殊\JBA戸次大介\BBOP2011\BBCP.\newblock\Jem{言語情報の確実性に影響する表現およびそのスコープのためのアノテーションガイドラインVer.2.4}.\newblockTechnicalReportofDepartmentofInformationScience,OchanomizuUniversity.\bibitem[\protect\BCAY{小林}{小林}{2009}]{Kobayashi2009}小林亜希子\BBOP2009\BBCP.\newblockとりたて詞の極性とフォーカス解釈.\\newblock\Jem{言語研究},{\Bbf136},\mbox{\BPGS\121--151}.\bibitem[\protect\BCAY{小池\JBA松吉\JBA福本}{小池\Jetal}{2012}]{koike2012}小池惇爾\JBA松吉俊\JBA福本文代\BBOP2012\BBCP.\newblock評価視点別レビュー要約のための重要文候補抽出.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\1188--1191}.\bibitem[\protect\BCAY{Li,Zhou,Wang,\BBA\Zhu}{Liet~al.}{2010}]{Li2010}Li,J.,Zhou,G.,Wang,H.,\BBA\Zhu,Q.\BBOP2010\BBCP.\newblock\BBOQ{LearningtheScopeofNegationviaShallowSemanticParsing}.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(Coling2010)},\mbox{\BPGS\671--679}.\bibitem[\protect\BCAY{松村\JBA小学館『大辞泉』編集部}{松村\JBA小学館『大辞泉』編集部}{1998}]{daijisen}松村明\JBA小学館『大辞泉』編集部\JEDS\\BBOP1998\BBCP.\newblock\Jem{大辞泉(増補・新装)}.\newblock小学館.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{matuyosi2010}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌.D,情報・システム},{\Bbf93}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{茂木}{茂木}{1999}]{Mogi1999}茂木俊伸\BBOP1999\BBCP.\newblockとりたて詞「まで」「さえ」について—否定との関わりから—.\\newblock\Jem{日本語と日本文学},{\Bbf28},\mbox{\BPGS\27--36}.\bibitem[\protect\BCAY{Morante,Liekens,\BBA\Daelemans}{Moranteet~al.}{2008}]{Morante2008}Morante,R.,Liekens,A.,\BBA\Daelemans,W.\BBOP2008\BBCP.\newblock\BBOQ{LearningtheScopeofNegationinBiomedicalTexts}.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\715--724}.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2007}]{neg2007}日本語記述文法研究会\JED\\BBOP2007\BBCP.\newblock\Jem{現代日本語文法3}.\newblockくろしお出版.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2009}]{toritate2009}日本語記述文法研究会\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語文法5}.\newblockくろしお出版.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{2000}]{iwanami}西尾実\JBA岩淵悦太郎\JBA水谷静夫\JEDS\\BBOP2000\BBCP.\newblock\Jem{岩波国語辞典第六版}.\newblock岩波書店.\bibitem[\protect\BCAY{沼田}{沼田}{2009}]{Numata2009}沼田善子\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語とりたて詞の研究}.\newblockひつじ書房.\bibitem[\protect\BCAY{奥津\JBA沼田\JBA杉本}{奥津\Jetal}{1986}]{Numata1986}奥津敬一郎\JBA沼田善子\JBA杉本武\JEDS\\BBOP1986\BBCP.\newblock\Jem{いわゆる日本語助詞の研究}.\newblock凡人社.\bibitem[\protect\BCAY{大槻\JBA松吉\JBA福本}{大槻\Jetal}{2013}]{otsuki2013}大槻諒\JBA松吉俊\JBA福本文代\BBOP2013\BBCP.\newblock否定の焦点コーパスの構築と自動検出器の試作.\\newblock\Jem{言語処理学会第19回年次大会論文集},\mbox{\BPGS\936--939}.\bibitem[\protect\BCAY{Rosenberg\BBA\Bergler}{Rosenberg\BBA\Bergler}{2012}]{Rosenberg2012}Rosenberg,S.\BBACOMMA\\BBA\Bergler,S.\BBOP2012\BBCP.\newblock\BBOQ{UConcordia:CLaCNegationFocusDetectionat*Sem2012}.\BBCQ\\newblockIn{\BemProceedingsofthe1stJointConferenceonLexicalandComputationalSemantics:SemEval'12},\mbox{\BPGS\294--300}.\bibitem[\protect\BCAY{Vincze,Szarvas,Farkas,M\'ora,\BBA\Csirik}{Vinczeet~al.}{2008}]{VeronikaVince2008}Vincze,V.,Szarvas,G.,Farkas,R.,M\'ora,G.,\BBA\Csirik,J.\BBOP2008\BBCP.\newblock\BBOQThe{B}io{S}cope{C}orpus:{B}iomedical{T}exts{A}nnotatedfor{U}ncertainty,{N}egationandtheir{S}copes.\BBCQ\\newblockIn{\BemBMCBioinformatics},\mbox{\BPGS\1--9}.\end{thebibliography}\begin{biography}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2008年同大学院情報学研究科博士後期課程修了.奈良先端科学技術大学院大学情報科学研究科特任助教を経て,現在,山梨大学大学院医学工学総合研究部助教.京都大学博士(情報学).自然言語処理の研究に従事.情報処理学会,言語処理学会,各会員.}\end{biography}\biodate\end{document}
| |
V08N03-01
|
\section{はじめに}
電子化テキストの爆発的増加に伴って文書要約技術の必要性が高まり,この分野の研究が盛んになっている\cite{okumura}.自動要約技術を使うことにより,読み手の負担を軽減し,短時間で必要な情報を獲得できる可能性があるからである.従来の要約技術は,文書全体もしくは段落のような複数の文の中から,重要度の高い文を抽出することにより文書全体の要約を行うものが多い.このような方法で出力される個々の文は,原文書中の文そのものであるため,文間の結束性に関してはともかく,各文の正しさが問題になることはない.しかし,選択された文の中には冗長語や不要語が含まれることもあり,またそうでなくとも目的によっては個々の文を簡約することが必要になる.そのため,特にニュース字幕作成を目的として,表層文字列の変換\cite{tao,kato}を行ない,1文の文字数を減らすなどの研究が行われている.また,重要度の低い文節や単語を削除することによって文を簡約する手法も研究されており,単語重要度と言語的な尤度の総和が最大となる部分単語列を動的計画法によって求める方法\cite{hori}が提案されている.しかし,この方法ではtrigramに基づいた局所的な言語制約しか用いていないので,得られた簡約文が構造的に不自然となる可能性がある.削除文節の選択に係り受け関係を考慮することで,原文の部分的な係り受け構造の保存を図る方法\cite{mikami}も研究されているが,この方法ではまず一文全体の係り受け解析を行い,次に得られた構文木の中の冗長と考えられる枝を刈り取るという,二段階の処理が必要である.そのため,一つの文の係り受け解析が終了しなければ枝刈りが開始できず,枝刈りの際に多くの情報を用いて複雑な処理を行うと,文の入力が終了してから簡約された文が出力されるまでの遅延時間が長くなる可能性がある.本論文では,文の簡約を「原文から,文節重要度と文節間係り受け整合度の総和が最大になる部分文節列を選択する」問題として定式化し,それを解くための効率の良いアルゴリズムを提案する.この問題は,原理的には枚挙法で解くことが可能であるが,計算量の点で実現が困難である.本論文ではこの問題を動的計画法によって効率よく解くことができることを示す\cite{oguro,oguro2}.文の簡約は,与えられた文から何らかの意味で``良い''部分単語列あるいは部分文節列を選択することに尽きる.そのとき,削除/選択の単位として何を選ぶか,選ばれる部分単語列あるいは部分文節列の``良さ''をどのように定義するか,そして実際の計算をどのように行うか,などの違いにより,種々の方式が考えられる.本論文では,削除/選択の単位として文節を採用している.この点は,三上らの方法と同じであるが,一文を文末まで構文解析した後で枝刈りを行うという考え方ではなく,部分文節列の``良さ''を定量的に計るための評価関数を予め定義しておき,その基準の下で最適な部分文節列を選択するという考え方を採る.その点では堀らの方法に近いが,削除/選択の単位がそれとは異なる.また評価関数の中に二文節間の係り受け整合度が含まれているので,実際の計算は係り受け解析に近いものになり,その点で堀らの方法とは非常に異なったものとなる.さらに,このアルゴリズムでは文頭から係り受け解析と部分文節列の選択が同時に進行するので,一つの文の入力が終了してから,その文の簡約文が出力されるまでの遅延時間を非常に短くできる可能性がある.オンラインの字幕生成のような応用では,この遅延時間はできるだけ短い方が良い.以下では,あらためて文簡約問題の定式化を行い,それを解くための再帰式とアルゴリズム,および計算量について述べる.そして,最後に文の簡約例を掲げ,このアルゴリズムによって自然な簡約文が得られることを示す.
\section{問題の定式化}
文節を削除/選択の単位として行う文の簡約は,原文からできるだけ``良い''部分文節列を選択することであると考えることができる.この問題を明確に定式化するためには,文節列の``良さ''を計る評価関数が必要である.このような評価関数は,理想的には,文脈を考慮した上で原文の意味を理解し,その意味を部分文節列がどの程度保つかという観点から定められるべきものであろう.しかし,そのような評価関数を構成することは現時点では困難である.そもそも,文の``意味''とは何かということさえ,現時点で明確に定義づけることは困難と思われる.そこで,本研究では,各文節の重要度と二文節間の係り受け整合度という限られた情報のみを用いて,現実的に定義や計算ができるようなアプローチを採る.すなわち,文の簡約においては,\begin{itemize}\item[a)]簡約された文が原文の持つ重要な情報をできるだけ保つこと,\item[b)]簡約された文ができるだけ文法的に良い構造を持つこと.\end{itemize}\noindentの2つが重要であることを考慮し,ここでは,部分文節列の``良さ"を計る評価関数を,a),b)に対応した2つの評価関数の和として以下のように定義する.まず,原文を文節列として$w_{0}w_{1}\cdotsw_{M-1}$と表し,その中の長さ$l\/$の部分文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{l-1}}$を考える.もし,各文節$w_{m}$の重要度を表す関数$q(m)$が与えられているとすると,この部分文節列の重要度はそれらの総和$\sum_{i=0}^{l-1}q(k_i)$で計ることができよう.もちろん,他の定義も可能であるが,ここでは,これを部分文節列の重要度を計る評価関数として採用する.また,文節$w_{m}$が文節$w_{n}$に係るときの係り受け整合度$p(m,n)$が与えられているとすると,このような係り受け整合度の総和が大きい値となる係り受け構造が存在するような文節列は,日本語文として見たとき,文法的に``良い''文節列であると考えられる.文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{l-1}}$上の係り受け構造は,係り文節番号を受け文節番号に対応させる写像\begin{displaymath}c:\{k_{0},k_{1},\cdots,k_{l-2}\}\longrightarrow\{k_{1},k_{2},\cdots,k_{l-1}\}\end{displaymath}によって表される.ただし$c$は\begin{itemize}\item[(1)]後方単一性:$k_{m}<c(k_{m})$\item[(2)]非交差性:$m<n$ならば$[c(k_m)\leqk_n\mbox{または}c(k_n)\leqc(k_m)]$\end{itemize}を満たす必要がある.本研究では,写像$c$を用いて,文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{l-1}}$の文法的な``良さ''を$\max_{c}\sum_{i=0}^{l-2}p(k_{i},c(k_{i}))$で定義することとする.ここで,最大化は可能な全ての係り受け構造に対して行う.以上のことから,本論文では文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{l-1}}$の``良さ''を計る評価関数$g$を次のように定義する:\begin{displaymath}g(k_{0},k_{1},...,k_{l-1})\stackrel{\triangle}{=}\left\{\begin{array}{l}q(k_0),\l=1のとき\\\max_c\sum_{i=0}^{l-2}p(k_i,c(k_i))+\sum_{i=0}^{l-1}q(k_i),2\leql\のとき\end{array}\right.\end{displaymath}\noindent評価関数$g$を用いると,$M$文節からなる原文を$N$文節からなる文に簡約する問題は次のように述べることができる.\bigskip\noindent{\bf文簡約問題\\}文節列$w_{0}w_{1}\cdotsw_{M-1}$の部分文節列$w_{k_{0}}w_{k_{1}}\cdotsw_{k_{N-1}}$$(0\leqk_{0}<k_{1}<\cdots<k_{N-1}\leqM-1)$の中で,関数$g(k_{0},k_{1},\cdots,k_{N-1})$が最大になるものを求めよ.\bigskip与えられた原文の部分文節列の総数は有限である.また,各部分文節列上の係り受け構造の総数も有限である.したがって,上の文簡約問題は,原理的には枚挙法で解くことができるが,計算量の点で現実的でない.本論文では,動的計画法の原理に基づき,この問題を効率的に解くアルゴリズムを導出する.評価関数$g$の定義には,文節重要度$q$と係り受け整合度$p$の2つの関数が含まれている.これらの関数をどのように定義するかは実際の応用においては重要な問題であるが,本論文ではこれについては議論しない.しかし,文節重要度$q$の定め方については,例えば\cite{hori}のような方法が考えられ,係り受け整合度$p$の定め方については係り受け解析の分野で研究されている\cite{ehara,zhang}などの方法が利用できると考えられる.{\bf3}節で導かれるアルゴリズムは,これらの関数の定義には依らない.二文節間の係り受け整合度の総和は,従来,係り受け解析にも用いられている評価関数であり,その意味で本手法による簡約文は,係り受け整合度$p$が適切に設定されていれば,原文の部分的な係り受け構造を保った自然な係り受け構造を持つことが期待できる.しかし,それにより原文の意味がどの程度保たれるかについては,最終的には人間の簡約結果と比較するなどの評価が必要となる.本論文では,そこまでは立ち入らず,上のような評価関数を用いて問題を定式化したとき,それを現実的な計算量で解くアルゴリズムが構成できることを示すことに重点を置いている.
\section{再帰式とアルゴリズム}
\subsection{再帰式}文簡約問題,すなわち関数$g(k_0,k_1,{\cdots},k_{N-1})$の最大化問題を解くために,その``部分解とそれらの間の関係''を考える.まず,先頭文節を$w_m$に,末尾文節を$w_n$に,文節列長を$l\/$に固定したときの最大化を考え,その最大値を表す関数$f$を以下のように定義する.\begin{definition}{最大値関数$f$}\hfill\[\textstylef(m,n,l)\stackrel{\triangle}{=}\max_{m=k_0<k_1<{\cdots}<k_{l-1}=n}g(k_0,k_1,{\cdots},k_{l-1})\]\end{definition}\noindentそうすると$f(m,n,l)$は次の再帰式を満たすことが示される.証明は付録とする.\begin{thesis}{再帰式}\label{def:recursion}\hfill\begin{itemize}\item[1.]$m=n$のとき:($l\$の動く範囲:$l=1$のみ)\begin{equation}f(m,n,l)=q(m)\label{eqn:eqn1}\end{equation}\item[2.]$m<n$のとき:($l\$の動く範囲:$2\leql\leqn-m+1$)\item[i.]$l=2$のとき\begin{equation}f(m,n,l)=f(m,m,1)+f(n,n,1)+p(m,n)\label{eqn:eqn2}\end{equation}\vspace*{1zh}\item[ii.]$l=3$のとき\begin{eqnarray*}\lefteqn{f(m,n,l)=\max\left\{\begin{array}{l}f(m,m,1)+\max_{m{\!<\!}m'{\!<\!}n}\{f(m',n,2)\}+p(m,n);\hspace*{3.5zw}\hfill(\arabic{equation}\rma)\\\max_{m{\!<\!}n'{\!<\!}n}\{f(m,n',2)+p(n',n)\}+f(n,n,1)\hfill(\arabic{equation}\rmb)\end{array}\right.}\label{eqn:eqn3}\end{eqnarray*}\addtocounter{equation}{1}\vspace*{1zh}\item[iii.]$l\geq4$のとき\begin{eqnarray*}\lefteqn{f(m,n,l)=}\\&&\max\left\{\begin{array}{l}f(m,m,1)+\max_{m{\!<\!}m'<n-l+3}\{f(m',n,l-1)\}+p(m,n);\hspace*{3.0zw}\hfill(\arabic{equation}\rma)\\\\\max_{1{\!<\!}l'{\!<\!}l-1,{\,}m+l'-2{<}n'{\!<\!}m'{<}n-l+l'+2}\\\{f(m,n',l')+f(m',n,l-l')+p(n',n)\};\hfill(\arabic{equation}\rmb)\\\\\max_{m+l-3{<}n'{\!<\!}n}\{f(m,n',l-1)+p(n',n)\}+f(n,n,1)\hfill(\arabic{equation}\rmc)\end{array}\right.\label{eqn:common}\end{eqnarray*}\addtocounter{equation}{1}\end{itemize}\end{thesis}\subsection{アルゴリズムの構成}再帰式は$2{\;\leq\;}l\/$のとき,$l'{<\,}l\/$となる$f(m,\cdot,l')$と$f(\cdot,n,l-l')$の全てが既に計算されていれば,高々3つの変数に関する最大化問題を解くことにより$f(m,n,l)$が計算できることを表している.すなわち式(\ref{eqn:eqn1})より,$f(\cdot,\cdot,1)$は,入力文節の重要度から直接計算できる.また,式(\ref{eqn:eqn2})より2文節の重要度とその間の係り受け整合度の和から,$f(\cdot,\cdot,2)$が計算できる.これらから始めて,$l=3$のときは$f(\cdot,\cdot,3)$を2変数$m',n'$が制約条件を満たす範囲で最大化を行ない,$4\leql\$では3変数$m',n',l'\/$が制約条件を満たす範囲で最大化を行なうという再帰的な処理によって,$f(m,n,l)$を計算することができる.\begin{figure}[hbtp]\begin{center}\includegraphics[width=70mm,clip]{table2.ps}\caption{$f(m,n,l)$を計算するとき参照される領域}\label{fig:region}\end{center}\end{figure}以上の事実に注意すると,計算済の$f(\cdot,\cdot,\cdot)$の値を図\ref{fig:region}のようなテーブルの升目に順次埋めていくアルゴリズムが構成できる.図\ref{fig:region}には$f(m,n,l)$を埋める場合を示した.再帰式によると,$f(m,n,l)$の計算は,その左の領域$f(m,\ast,1)\simf(m,\ast,l-1)$から$f(m,n',l')$を,その下の領域$f(\ast,n,1)\simf(\ast,n,l-1)$から$f(m',n,l-l')$を選択する組合わせの中から,それぞれの持つ$f$の値と両者の係り受け構造間の係り受け整合度の総和が最大となるような$m',n',l'\/$を探索することで行なわれていく.このとき,係り文節$w_m$は必ず受け文節$w_n$より文頭側にあること,文節列$w_mw_{m+1}{\cdots}w_n$を簡約する場合,簡約後の部分文節列の長さは原文節の長さより大きくなることがないことから,変数には以下のような制約が課せられる.\begin{itemize}\item$m{\;\leq\;}n$\item$m=n$のとき$l=1$\item$m<n$のとき$1<l{\;\leq\;}n-m+1$\end{itemize}これを図示したものが図\ref{fig:region2}である.また,ここでは$1\leqN\leqM$を満たす任意の$N$に対して最適解が探索できる領域を考えているが,$N$の最大値$N_{max}$があらかじめ定まっているときは,$l\/$の動く範囲を$1\leql\leq\min\{n-m+1,{\,}N_{max}\}$に制限できる.したがって$N_{max}<M$の場合には探索領域はさらに小さくてすみ,計算量と記憶量を減らすことができる.\begin{figure}[hbtp]\vspace{-3mm}\begin{center}\includegraphics[width=70mm,clip]{table3.ps}\caption{制約条件を満たさない領域}\label{fig:region2}\end{center}\end{figure}図\ref{fig:region}のテーブルの升目を埋める順序については,$f(m,n,l)$を計算する際に$f(m,n',l')$と$f(m',n,l-l')$が制約条件の範囲で全て計算済であるという条件さえ満たしていればよいので,その順序には大きな自由度がある.変数$l,m,n$を動かすとき,アルゴリズム\ref{alg:recursion}のように最外ループを$n$に関するループとすると,入力文節に同期した処理が可能なアルゴリズムとなる.すなわち,文頭文節からある文節までが入力されたとき,そこまでの情報に基づいてできる計算は,それより後の文節に関係なく済ませることができる.そして,もし必要ならば,その時点で{\bf3.3}に述べるバックトレースを行い,そこまでの入力に対する簡約文を出力することができる.また,最外ループを$l\/$に関するループとすれば,そのループの第$l$ステップの処理が終わった時点で,$N=l$としてバックトレースが可能になるので,文節数$1$から順に求めたい文節数までの簡約文を出力するアルゴリズムが構成できる.\begin{algorithm}{再帰式の実行}\label{alg:recursion}\rm\begin{tabbing}\hspace*{5mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\+\kill{\bffor}$n:=0${\bfto}$M-1${\do}\+\\{\bfbegin}\\{\bffor}$m:=n${\bfdownto}$0${\bfdo}\+\\{\bfbegin}\\{\bfif}($m=n$){\bfthen}$f(m,m,1):=q(m)$;\`\makebox[10zw]{\dotfill式(\ref{eqn:eqn1})}\\{\bfelse}\+\\{\bfbegin}\\{\bffor}$l:=2${\bfto}$n-m+1${\bfdo}\+\\{\bfbegin}\\{\bfif}($l=2$){\bfthen}$f(m,n,l):=$...;\`\makebox[10zw]{\dotfill式(\ref{eqn:eqn2})}\\{\bfelse}{\bfif}($l=3$){\bfthen}$f(m,n,l):=$...;\`\makebox[10zw]{\dotfill式(\ref{eqn:eqn3}a,\ref{eqn:eqn3}b)}\\{\bfelse}$f(m,n,l):=$...;\`\makebox[10zw]{\dotfill式(\ref{eqn:common}a,\ref{eqn:common}b,\ref{eqn:common}c)}\\{\bfend};\-\\{\bfend};\-\\{\bfend};\-\\{\bfend};\end{tabbing}\end{algorithm}\subsection{バックトレース}アルゴリズム1の計算結果から最適部分文節列を構成することを,ここでは「バックトレース」という.ここで用いるバックトレースの方法は\cite{ozeki}の手法に類似したものであり,形式的な証明も可能であるが,ここでは,考え方の概略とアルゴリズムを示すにとどめる.まず「係り受け構造の分解」について述べる.$v_{1}v_{2}\cdotsv_{K}$を文節列とし,その上の係り受け構造$c$を考える.$c$において,末尾の文節$v_{K}$に係る最も文頭側の文節を$v_{k}$とすると,$c$は$v_{1}v_{2}\cdotsv_{k}$上の係り受け構造と$v_{k+1}v_{2}\cdotsv_{K}$上の係り受け構造に分解できる.ただし,$v_{k}$が$v_{K}$に係るという情報を加えておく必要がある\cite{ozeki}.付録の証明から明らかなように,$f(m,n,l)$に対する再帰式の導出においては,この事実が以下のように利用されている.$f(m,n,l)$を計算するためには,$w_{m}$から始まり,$w_{n}$で終わる長さ$l$の部分文節列上の係り受け構造を考慮する必要がある.上に述べたことから,そのような係り受け構造は,$w_{n}$に係る最も文頭側の文節を$w_{n^{\prime}}$とするとき,$w_{n}$から始まり$w_{n^{\prime}}$で終わる長さ$l^{\prime}$の部分文節列上の係り受け構造と,ある文節$w_{m^{\prime}}$から始まり$w_{n}$で終わる長さ$l-l^{\prime}$の部分文節列上の係り受け構造に分解できる.ただし,$w_{n^{\prime}}$が$w_{n}$に係るという情報を加えておく必要がある.さて,再帰式の証明が示すように,$f(m,n,l)$を求めるためには,評価関数$g$を,上のように分解した部分文節列,および係り受け構造に関して最大化すればよい.それは,\begin{displaymath}f(m,n^{\prime},l^{\prime})+f(m^{\prime},n,l-l^{\prime})+p(n^{\prime},n)\end{displaymath}を,$l^{\prime}$,$m^{\prime}$,$n^{\prime}$に関して最大化することに帰着する.最大値を与えるこれらの変数の値を再び$l^{\prime}$,$m^{\prime}$,$n^{\prime}$と表せば,以上のことから,$f(m,n,l)$を与える最適部分文節列$A$は$f(m,n^{\prime},l^{\prime})$を与える最適部分文節列$B$と$f(m^{\prime},n,l-l^{\prime})$を与える最適部分文節列$C$の連接で与えられること,また$A$上の最適係り受け構造は$B$上の最適係り受け構造と$C$上の最適係り受け構造を併せたものに,$w_{n^{\prime}}$が$w_{n}$に係るという情報を加えたものになることが分かる.また,$m=n$の場合は$l=1$しか許されず,$f(m,n,l)$を与える最適部分文節列は``$w_{m}$''となる.したがって,アルゴリズム\ref{alg:recursion}の各ステップで最大値を与える$l^{\prime}$,$m^{\prime}$,$n^{\prime}$の値(最適分割点)を記憶しておけば,アルゴリズム\ref{alg:recursion}の終了後,任意の長さの簡約文と,必要ならばその上の係り受け構造を再帰的に得ることができる.最適分割点はバックトレースのための,いわゆるバックポインタの役割を果たす.実際の計算では,アルゴリズム\ref{alg:recursion}の各ステップにおいて最適分割点を記憶するための変数$bp[m,n,l]$を用意する.最適分割点は再帰式中の場合に応じて,次のように設定される.$m',n',l'\/$は再帰式の中で最大値を与えるそれらの変数の値を表す.\begin{definition}{最適分割点}\label{def:opt_point}\hfill\\\begin{itemize}\item[a)]$m=n$の場合\\何も記憶する必要がない.\item[b)]$m<n$の場合\\\begin{tabular}{rlll}{\rm(\ref{eqn:eqn2})}の場合&$bp[m,n,l].lp=1,$&$bp[m,n,l].np=m,$&$bp[m,n,l].mp=n$\\{\rm(\ref{eqn:eqn3}a)}の場合&$bp[m,n,l].lp=1,$&$bp[m,n,l].np=m,$&$bp[m,n,l].mp=m'$\\{\rm(\ref{eqn:eqn3}b)}の場合&$bp[m,n,l].lp=l-1,$&$bp[m,n,l].np=n',$&$bp[m,n,l].mp=n$\\{\rm(\ref{eqn:common}a)}の場合&$bp[m,n,l].lp=1,$&$bp[m,n,l].np=m,$&$bp[m,n,l].mp=m'$\\{\rm(\ref{eqn:common}b)}の場合&$bp[m,n,l].lp=l',$&$bp[m,n,l].np=n',$&$bp[m,n,l].mp=m'$\\{\rm(\ref{eqn:common}c)}の場合&$bp[m,n,l].lp=l-1,$&$bp[m,n,l].np=n',$&$bp[m,n,l].mp=n$\end{tabular}\end{itemize}\end{definition}与えられた文節列から$1\leqN\leqM$の範囲で任意に指定した長さ$N$の最適部分文節列を探索するには,まず,最も評価値の高い$f(m_o,n_o,N)$を見つけることから始める.そして,この$m_o,n_o,N$を出発点として,アルゴリズム\ref{alg:backtrace}で示す再帰関数を用いて最適部分文節列が得られる:\begin{eqnarray*}(m_o,n_o)&:=&\textstyle\argmax_{m,n}f(m,n,N);\\最適部分文節列&:=&out(m_o,n_o,N)\end{eqnarray*}\noindentここでは,最適分割点が一意に定まる場合を考えているが,これが複数個存在する場合には,その全てを記憶し,そのそれぞれに対して最適部分文節列を求めればよい.異なる最適分割点から,同じ最適部分文節列が得られる可能性があるが,この場合,これらの最適部分文節列上には複数の最適係り受け構造が存在している.\begin{algorithm}{バックトレース}\label{alg:backtrace}\rm($\oplus$は文字列の連接を表す)\begin{tabbing}\hspace*{5mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\=\hspace*{3mm}\+\kill{\bffunction}\$out(m,n,l)$:charstring;\+\\{\bfbegin}\\{\bfif}\($m=n$){\bfthen}$out:=$``$w_{m}$'';\\{\bfelse}\\{\bfbegin}\+\\$l^{\prime}:=bp[m,n,l].lp$;\\$n^{\prime}:=bp[m,n,l].np$;\\$m^{\prime}:=bp[m,n,l].mp$;\\$out:=out(m,n',l')\oplusout(m',n,l-l')$;\-\\{\bfend};\-\\{\bfend}.\end{tabbing}\end{algorithm}ここで,本アルゴリズムにおける最適分割点と簡約文の係り受け構造の対応について述べる.$bp[m,n,l]$は文節列$w_m\cdotsw_n$を長さ$l\/$に簡約するときの最適分割点であるが,再帰式の証明(付録)からわかるように,$n'=bp[m,n,l].np$は簡約結果において$w_n$に係る文節の中で最も文頭側にあるものの番号である.したがって,$w_{n'}$は$w_n$に係ることがわかる.これを再帰的に繰り返せば,簡約文中の全ての文節の係り先がわかる.すなわち,アルゴリズム\ref{alg:backtrace}を用いてバックトレースを行なうとき,$n'=bp[m,n,l].np$ならば$c(n')=n$であることを記憶し,まとめて出力すれば,簡約文中の全ての文節に対する$c$の値,つまり係り受け構造を知ることができる.\subsection{計算量}まず,アルゴリズム\ref{alg:recursion}における加算回数について考察する.計算ステップ$m,n,l$における加算回数を$F(m,n,l)$とすると$f(m,n,l)$に対する再帰式より,次のことが容易に分かる.\renewcommand{\baselinestretch}{}\tiny\normalsize\begin{itemize}\item[a)]$l=1$のとき:\begin{eqnarray*}F(m,n,1)&=&0\makebox[10zw]{\hfill(式(1)より)}\end{eqnarray*}\item[b)]$l=2$のとき:\begin{eqnarray*}F(m,n,2)&=&2\makebox[10zw]{\hfill(式(2)より)}\end{eqnarray*}\item[c)]$l=3$のとき:\begin{eqnarray*}F(m,n,3)&=&2\makebox[18zw]{\hfill(式(3a)より)}\\&&{}+(n-m-1)+1\makebox[10zw]{\hfill(式(3b)より)}\\&=&n-m+2\end{eqnarray*}\item[d)]$l\geq4$のとき:\begin{eqnarray*}F(m,n,l)&=&2\makebox[23.5zw]{\hfill(式(4a)より)}\\&&{}+2(l-3)\left(\begin{tabular}{c}{$n-m-l+3$}\\2\end{tabular}\right)\makebox[10zw]{\hfill(式(4b)より)}\\&&{}+(n-m-l+2)+1\makebox[14zw]{\hfill(式(4c)より)}\\&=&(l-3)(n-m-l+3)(n-m-l+2)+(n-m-l+5)\end{eqnarray*}\end{itemize}\renewcommand{\baselinestretch}{}\tiny\normalsize総加算回数$A(M)$は$F(m,n,l)$を$0\leqm\leqn\leqM-1$,$1\leql\leqn-m+1$について加え合わせたものになるが,$m=n$のときは$l=1$であり,そのとき$F(m,n,l)=0$であるから,\begin{eqnarray*}A(M)&=&\sum_{0\leqm<n\leqM-1}\;\sum_{2\leql\leqn-m+1}F(m,n,l)\end{eqnarray*}となる.詳細は省略するが,この右辺を計算すると,\begin{eqnarray*}A(M)&=&\tfrac{1}{360}{\times}(M-3)(M-2)(M-1)M(M+1)(M+2)\nonumber\\&&+\\tfrac{1}{24}{\times}(M-4)(M-3)(M-2)(M-1)\nonumber\\&&+\\tfrac{2}{3}{\times}(M-3)(M-2)(M-1)\nonumber\\&&+\\tfrac{1}{6}{\times}(M-1)(M-2)(M+9)\nonumber\\&&+\(M-1)M\nonumber\end{eqnarray*}が得られる.同様の計算により,総比較演算回数$C(M)$は\begin{eqnarray*}C(M)&=&\tfrac{1}{720}{\times}(M-3)(M-2)(M-1)M(M+1)(M+2)\nonumber\\&&+\\tfrac{1}{12}{\times}(M-4)(M-3)(M-2)(M-1)\nonumber\\&&+\\tfrac{1}{2}{\times}(M-2)(M-2)(M-1)\end{eqnarray*}で与えられる.\begin{table}[hntb]\center\caption{原文文節数$M$に対する加算回数$A(M)$と比較演算回数$C(M)$}\label{tbl:order}\begin{tabular}{rrr}$M$&$A(M)$&$C(M)$\\\hline5&79&27\\10&2628&1464\\20&159011&85443\\40&10624042&5438446\\\end{tabular}\end{table}\hspace{-11pt}したがって計算量のオーダは$A(M)$,$C(M)$共に$O(M^6)$となる.これはかなり大きな計算量のように見えるが,最高次の係数が小さいことと$M$は高々40程度までを考えておけばよいことから,計算が困難なほど大きな値にはならない.実際,$M=40$の場合,加算回数と比較演算回数は表\ref{tbl:order}で示したように,$A(40){\approx}1.1{\times}10^7,C(40){\approx}5.4{\times}10^6$であり,アルゴリズム\ref{alg:recursion}をCで実装しUltraSPARC-IIi(270MHz)上で処理したときの処理時間は,1秒以内である.また,アルゴリズム\ref{alg:backtrace}の実行時間は,これに比べて無視できる程度である.\vspace{-3mm}
\section{簡約例}
本手法の評価は今後の課題であるが,アルゴリズムの動作を示すため,文節重要度と係り受け整合度を仮に与えて実行した例を2つ示す.簡約文の係り受け構造も\cite{ozeki}による括弧表記を用いて示している.\begin{footnotesize}\bigskip\begin{minipage}{50zw}\begin{verbatim}文節数:簡約結果例1原文<<また><<<<<袖や>袖口>ポケット口などが><油汚れで><変色を>おこす>ことも>あります>8:<<<<<<袖や>袖口>ポケット口などが><油汚れで><変色を>おこす>ことも>あります>7:<<<<<<袖や>袖口>ポケット口などが><変色を>おこす>ことも>あります>6:<<<<<袖や>袖口>ポケット口などが><変色を>おこす>ことも>5:<<<<袖や>袖口>ポケット口などが><変色を>おこす>4:<<<袖口>ポケット口などが><変色を>おこす>3:<<<変色を>おこす>ことも>2:<<変色を>おこす>例2原文<<<年齢は><まだ>十四だが><<数えきれぬほど><<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>8:<<<年齢は><まだ>十四だが><<<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>7:<<<年齢は>十四だが><<<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>6:<<十四だが><<<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>5:<<<<日本の>舞台を>踏んだので><日本語は>ぺらぺらだそうだ>4:<<<舞台を>踏んだので><日本語は>ぺらぺらだそうだ>3:<<踏んだので><日本語は>ぺらぺらだそうだ>2:<<日本語は>ぺらぺらだそうだ>\end{verbatim}\end{minipage}\\\bigskip\\\end{footnotesize}本アルゴリズムで必要とされる係り受け整合度は,\cite{zhang}の係り受けペナルティに$-1$を乗じたものとした.ここで定義されているペナルティ関数は学習コーパス中の係り受け距離の頻度分布を元に作成されている.また文節重要度は,\begin{itemize}\item主部/述部や名詞/動詞を含む文節に形容詞や動作の程度や目的を表す文節より大きい値\item文末の動詞には大きな値\item形式名詞には小さな値\end{itemize}を人手で設定した.この例における具体的な値を表\ref{tbl:example}に示す.\begin{table}[hntbp]\label{tbl:example}\caption{例文における係り受け整合度$p$と重要度$q$の設定値}\label{tbl:example}\vspace*{-1zh}\begin{footnotesize}\begin{center}\begin{tabular}{lrl}単語&重要度&係り受け整合度(係り先の単語)これ以外は$-10000$\\\hline\hline(0)また&0.0&-5000(6),-26.3906(8)\\(1)袖や&10.0&-1.8232(2),-23.0259(3),-5000(4),\\&&-5000(5),-5000(6),-5000(7),-5000(8)\\(2)袖口&10.0&-7.2887(3)\\(3)ポケット口などが&35.0&-38.0221(6)\\(4)油汚れで&2.0&-18.9712(6),-32.8341(8)\\(5)変色を&40.0&-4.9419(6),-41.5261(8)\\(6)おこす&20.0&-17.869(7)\\(7)ことも&0.0&0.0(8)\\(8)あります&0.0&\\\hline(0)年齢は&20.0&-24.7498(2),-29.0142(3),-5000(6),-42.2318(8)\\(1)まだ&2.0&-10.7264(2),-19.3284(3),-5000(6),-43.3073(8)\\(2)十四だが&10.0&-5000(3),-5000(6),-28.3321(8)\\(3)数えきれぬほど&2.0&-21.9722(6),-5000(8)\\(4)日本の&12.0&-1.3933(5),-30.7385(6),-51.5329(7),-5000(8)\\(5)舞台を&10.0&-4.9419(6)\\(6)踏んだので&10.0&-8.4730(8)\\(7)日本語は&22.0&-0.0000(8)\\(8)ぺらぺらだそうだ&20.0&\\\hline\end{tabular}\end{center}\end{footnotesize}\end{table}例にあげた文は\cite{zhang}の手法で正しく係り受け解析できたものである.簡約文の文節数$N$を原文の文節数$M$に等しく設定すると簡約文は原文そのものしかあり得ない.したがって,その場合には本アルゴリズムは原文の係り受け解析のみを行なうことになり,その結果は\cite{zhang}の手法によるものと一致する.実際に簡約文を出力するためには,その長さ$N$を指定する必要がある.これは,現実の場面で文章全体をどの程度に圧縮したいかという要求と簡約文の品質を考え合わせて決めるものであるが,本手法を人が文を簡約するときの支援システムとして使用する場合には$N$の値を順次変化させ,それに応じて得られる簡約文の中から人が適切なものを選ぶという使い方も考えられる.また,評価関数の値を利用して,「できるだけ短く」と「できるだけ情報を保つ」という相反する要求のバランスを自動的に取ることも考えられるが,それは今後の問題である.
\section{おわりに}
文節重要度と係り受け整合度に基づいて,効率的に文の簡約を行なうアルゴリズムを提案した.このアルゴリズムは簡約文の係り受け構造も同時に出力できるので,簡約文を引き続き他言語に翻訳するときなどにも有用である.計算量は原文文節数の6乗のオーダとなるが,各変数の制約条件のために現実的な文節数に対して実行可能なものとなっている.また,最外ループを制御する変数の選び方には自由度があるため,即答性が求められる場合には文節の入力と同期して計算を進めるようにアルゴリズムを構成することが可能である.今後は,文節重要度や係り受け整合度の設定の仕方が簡約結果に与える影響や,文節重要度から定まる評価関数値と係り受け整合度から定まる評価関数値の適切な重み付けなどについて検討し,簡約手法としての評価を行なう予定である.\bibliographystyle{jnlpbbl}\bibliography{v08n3_01}\begin{appendix}
\section{再帰式の証明}
最も一般的な式(\ref{eqn:common}a)$\sim$(\ref{eqn:common}c)の場合について証明する.他の場合については,より容易に証明できる.\begin{eqnarray*}\lefteqn{f(m,n,l)}\nonumber\\&=&\textstyle\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}g(k_{0},k_{1},\cdots,k_{l-1})\nonumber\\&=&\textstyle\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}\{\max_{c}\sum_{i=0}^{l-2}p(k_{i},c(k_{i}))+\sum_{i=0}^{l-1}q(k_{i})\}\nonumber\\&=&\textstyle\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}\nonumber\\&&\max\left\{\begin{tabular}{l}$\max_{c}\sum_{i=1}^{l-2}p(k_{i},c(k_{i}))+p(k_{0},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})$;\\\\$\max_{1<l^{\prime}<l-1}\{\max_{c}\sum_{i=0}^{l'-2}p(k_{i},c(k_{i}))+\max_{c}\sum_{i=l'}^{l-2}p(k_{i},c(k_{i}))$\\$+p(k_{l'-1},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}$;\\\\$\max_{c}\sum_{i=0}^{l-3}p(k_{i},c(k_{i}))+p(k_{l-2},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})$\end{tabular}\right.\nonumber\\&&\mbox{(係り受け構造$c$を末尾の文節$x_{k_{l-1}}$に係る文節の中で最も左にあるもの}\nonumber\\&&\mbox{の位置により分類)}\nonumber\\\mathstrut\\&=&\max\left\{\begin{tabular}{l}$\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=1}^{l-2}p(k_{i},c(k_{i}))+p(k_{0},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}$;\\\\$\max_{1<l'<l-1}$\\$[\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=0}^{l'-2}p(k_{i},c(k_{i}))+\max_{c}\sum_{i=l'}^{l-2}p(k_{i},c(k_{i}))$\\$+p(k_{l'-1},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}]$;\\\\$\max_{m=k_{0}<k_{1}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=0}^{l-3}p(k_{i},c(k_{i}))+p(k_{l-2},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}$\end{tabular}\right.\nonumber\\\mathstrut\\&=&\max\left\{\begin{tabular}{l}$\max_{m=k_{0}<k_{1}=m'}\max_{m'=k_{1}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=1}^{l-2}p(k_{i},c(k_{i}))+p(k_{0},k_{l-1})+\sum_{i=1}^{l-1}q(k_{i})\}+q(k_{0})$;\\\\$\max_{1<l'<l-1}$\\$[\max_{m=k_{0}<\cdots<k_{l'-1}=n'},\max_{n'=k_{l'-1}<pk_{l'}=m'},\max_{m'=k_{l'}<\cdots<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=0}^{l'-2}p(k_{i},c(k_{i}))+\max_{c}\sum_{i=l'}^{l-2}p(k_{i},c(k_{i}))$\\$+p(k_{l'-1},k_{l-1})+\sum_{i=0}^{l-1}q(k_{i})\}]$;\\\\$\max_{m=k_{0}<k_{1}<\cdots<k_{l-2}=n'}\max_{n'=k_{l-2}<k_{l-1}=n}$\\$\{\max_{c}\sum_{i=0}^{l-3}p(k_{i},c(k_{i}))+p(k_{l-2},k_{l-1})+\sum_{i=0}^{l-2}q(k_{i})+q(k_{l-1})\}$\end{tabular}\right.\nonumber\\\mathstrut\\&=&\max\left\{\begin{tabular}{l}$\max_{m<m'}$\\$\{\max_{m'=k_{1}<\cdots<k_{l-1}=n}$\\$[\max_{c}\sum_{i=1}^{l-2}p(k_{i},c(k_{i}))+\sum_{i=1}^{l-1}q(k_{i})]+p(m,n)+q(m)\}$;\\\\$\max_{1<l'<l-1},\\max_{n'<m'}$\\$[\max_{m=k_{0}<\cdots<k_{l'-1}=n'}\{\max_{c}\sum_{i=0}^{l'-2}p(k_{i},c(k_{i}))+\sum_{i=0}^{l'-1}q(k_{i})\}$\\$+\max_{m'=k_{l'}<\cdots<k_{l-1}=n}$$\{\max_{c}\sum_{i=l'}^{l-2}p(k_{i},c(k_{i}))+\sum_{i=l'}^{l-1}q(k_{i})\}$\\$+p(n',n)]$;\\\\$\max_{n'<n}$\\$\{\max_{m=k_{0}<k_{1}<\cdots<k_{l-2}=n'}$\\$[\max_{c}\sum_{i=0}^{l-3}p(k_{i},c(k_{i}))+\sum_{i=0}^{l-2}q(k_{i})]+p(n',n)+q(n)\}$\end{tabular}\right.\nonumber\\\mathstrut\\&=&\max\left\{\begin{tabular}{l}$f(m,m,1)+\max_{m<m'<n-l+3}\{f(m',n,l-1)\}+p(m,n)$;\\\\$\max_{1<l'<l-1,\m+l'-2<n'<m'<n-l+l'+2}$\\$\{f(m,n',l')+f(m',n,l-l')+p(n',n)\}$;\\\\$\max_{m+l-3<n'<n}\{f(m,n',l-1)+p(n',n)\}+f(n,n,1)$\end{tabular}\right.\end{eqnarray*}\end{appendix}\begin{biography}\biotitle{略歴}\bioauthor{小黒玲}{1996年電気通信大学電気通信学部情報工学科卒業.1998年同大学院博士前期課程修了.現在,同博士後期課程在学中.自動音声認識,自然言語処理に興味がある.日本音響学会会員.}\bioauthor{尾関和彦}{1965年東京大学工学部電気工学科卒業.同年NHK入社.1968年より1年間エジンバラ大学客員研究員.音声言語処理,パターン認識などの研究に従事.電子通信学会第41回論文賞受賞.現在,電気通信大学情報通信工学科教授.工学博士.電子情報通信学会,情報処理学会,日本音響学会,IEEE各会員.}\bioauthor{張玉潔}{1999年電気通信大学情報工学専攻博士後期課程修了.博士(工学).同年,電気通信大学情報通信工学科助手.2000年ATR音声言語通信研究所客員研究員,現在に至る.日本語及び中国語処理の研究に従事.}\bioauthor{高木一幸}{1989年筑波大学大学院修士課程理工学研究科修了.同年日本アイ・ビー・エム(株)入社.1992年筑波大学大学院工学研究科博士課程入学.1995年同課程修了.博士(工学).現在,電気通信大学電気通信学部情報通信工学科助手.日本音響学会,電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N02-07
|
\section{はじめに}
\label{sec:introduction}国立国語研究所を中心に開発された『現代日本語書き言葉均衡コーパス(BCCWJ)』\cite{前川2008}\footnote{現代日本語書き言葉均衡コーパスhttp://www.ninjal.ac.jp/corpus\_center/bccwj/}は17万ファイル以上のXML文書に短単位・長単位の二つのレベルの形態論情報アノテーションを施した,1億語を超える大規模なコーパスである.コーパスの構築期間は5年以上に及んだ.BCCWJの形態論情報付与には,新たに開発された電子化辞書UniDic\footnote{UniDichttp://sourceforge.jp/projects/unidic/}が用いられたが,UniDicの見出し語はBCCWJ構築と並行して整備されたため,コーパスの形態論情報の修正とUniDicの見出し語登録は整合性を保ちつつ同時並行で進める必要があった.また,BCCWJの形態論情報アノテーションでは全体で98\%以上の高い精度が求められ,これを実現するためには自動解析結果に対して人手による修正を施して精度を高める必要があった.1億語規模のコーパスにこうしたアノテーションを施すためには,作業体制も大きな規模になり,コーパスのアノテーターは最大で20人ほどが同時にフルタイムで作業に当たった.作業は国語研究所の内部だけでなく,外注業者等の研究所外部からも行われる必要があった.こうした作業環境を構築するためにはアノテーションを支援するコーパス管理システムが必要とされる.このような大規模なコーパスへのアノテーションを支えるため,筆者らは,形態論情報がタグ付けされた大規模なコーパスと辞書の見出し語のデータベースとを関連付け,整合性を保ちつつ,国語研究所の内部だけでなく,研究所外部からも多くの作業者が同時に編集していくことを可能にするシステムを新たに開発した.本論文は,この「形態論情報データベース」の設計・実装・運用について論ずる.本研究の貢献は,1億語規模の日本語コーパスに形態論情報アノテーションを施し,修正することを可能にした点にある.従来のコーパス管理ツールではこれが実現できなかったが,本システムによりBCCWJの形態論情報アノテーションが可能になり,BCCWJを構成する全てのデータは本システムのデータベースから出力された.また,本システムによってUniDicの見出し語のデータ整備を支援し,UniDicの見出し語と対応付けられた人手修正済みの学習用コーパスを提供した.これにより,形態素解析辞書UniDicの開発に貢献した.このシステムは,現在では「日本語歴史コーパス」{\kern-0.5zw}\footnote{日本語歴史コーパスhttp://www.ninjal.ac.jp/corpus\_center/chj/}の構築にも活用されている.以下,2章で本論文の前提となる情報について確認した後,3章で関連する先行事例との比較を行う.そのうえで,4章で本システムの概要を説明し,5章で辞書データベース部,6章でコーパスデータベース部の設計・実装・運用について述べる.また,7章で辞書とコーパスを修正するためのクライアントツールについて説明する.
\section{前提となる知識}
\label{sec:knowledge}\subsection{短単位と長単位}\label{sec:knowledge_unit}BCCWJでは,短単位と長単位の二つの言語単位によるアノテーションが施された.短単位は,揺れが少なく斉一な単位となるように設計された短い単位である\cite{小椋ほか2011}.例えば「国立国語研究所で研究している.」という文は,次の10単位に分割される.\begin{quote}/国立/国語/研究/所/で/研究/し/て/いる/./\end{quote}個々の短単位には,語彙素・語形・品詞・活用型・活用形といった形態論情報が付与される.短単位への分割と情報の付与は,新たに開発された電子化辞書UniDic\cite{伝ほか2007}を用いた形態素解析によって行われた.形態素解析器はMeCab\footnote{MeCabhttps://code.google.com/p/mecab/}が用いられた.一方,長単位はほぼ文節に近い長さの言語単位で,上記の例は長単位では次のように5単位に分割される.\begin{quote}/国立国語研究所/で/研究し/ている/./\end{quote}長単位は,コーパス中で出現した短単位を必要に応じて結合させる形で構成され,個々の長単位にはそれを構成する短単位が持つ形態論情報をもとにして長単位としての形態論情報が付与される.この処理は,長単位解析器Comainu~\cite{小澤ほか2011}によって行われた.Comainuの処理により,例えば上の例の「研究し」には,短単位「研究」と「する」を結合して作られる「研究する」という長単位の見出しが付され,全体として一つの動詞として情報が付与される.このように,短単位は形態素解析用の辞書に見出し語として登録されたものであるのに対し,長単位はそれ自体は見出し語として登録されたものではなく,コーパスでの出現に応じて短単位情報をもとにして構成されるものである.長単位と短単位はBCCWJの最も基本的なアノテーションの一つであり,公式のコーパス検索ツール「中納言」{\kern-0.5zw}\footnote{中納言https://chunagon.ninjal.ac.jp}等で利用され,多くのユーザーによって活用されている.\subsection{形態論情報の精度と修正作業}\label{sec:knowledge_accuracy}BCCWJの形態論情報は,コアデータとして選定された約100万語は99\%以上の精度を,それ以外の非コアデータは98\%以上の精度を確保することとされた.この解析精度を実現するために,コアデータについては人手による徹底した修正が行われた.一方,非コアデータは原則として自動解析結果によったが,最終的には人手による修正も含めてこの精度が確保された\cite{国立国語研究所コーパス開発センター2011}.また,非コアデータからUniDic未登録語が採集され,それに伴う修正をコーパス全体に対して行う必要があったほか,短単位規程の見直しによってコーパス全体に対して特定の語の人手修正の処理を施す必要があった.したがってコーパスの修正作業はコアデータに対して頻繁に行われるだけでなく,1億語以上のコーパス全体を対象に行う必要があった.\subsection{C-XMLとM-XML}\label{sec:knowledge_xml}BCCWJでは,C-XMLとM-XMLの二つの形式のXML文書が作成された\cite{国立国語研究所コーパス開発センター2011}.C-XMLは,BCCWJのサンプルとして取得されたテキストに文書構造をXMLでアノテーションしたもので,形態論情報データベースにとっては入力となるデータの形式である.このXML形式のデータをインポートし,形態論情報をアノテーションした上で,表形式やXML形式で出力することがこのシステム全体の処理の流れになる.M-XMLはC-XMLをもとに形態論情報をアノテーションしたXML文書で,このシステムの出力形式の一つである.M-XMLでは,後述する数字の前処理や,一部のタグの変更が行われているため,テキストやタグはC-XMLとは必ずしも一致しない.なお,誤字修正などがシステム上で行われるため,M-XMLだけでなく,形態論情報を含まないC-XMLも最終版は形態論情報データベースから出力される必要がある.\subsection{数字の前処理}\label{sec:knowledge_numtrans}BCCWJの形態論情報付与では,UniDicを用いた形態素解析に先立って,数字について次のような変換処理がなされた.これは,テキスト中の数字に対して実際に読み上げるときの語として形態論情報を与えられるようにするためである.この処理はnumTrans~\cite{Numtrans}というルールベースのツールによって行われた.\begin{quote}例:120円→百|二十|円\\$<$fraction$>$1/2$<$/fraction$>$→2|分|1\end{quote}この処理により処理前後で文字位置がずれたり,分数の分子と分母で文字の順が逆になったりすることがある.上述のC-XMLはこの変換前のテキストであるのに対し,M-XMLは変換後のテキストに基づいており,これに変換処理の内容(原文文字列と変換タイプ)をXMLでタグ付けして保持している.このため,BCCWJを構築するためのシステムは,この変換処理前後の二つの状態のテキストを適切に保持管理する必要がある.
\section{関連する先行事例との比較}
\label{sec:related}\subsection{BCCWJの形態論情報アノテーションのための要件}\ref{sec:introduction}章・\ref{sec:knowledge}章で確認したことを踏まえるとBCCWJに形態論情報のアノテーション施すためには,少なくとも次の要件を満たすシステムが必要とされる.\begin{enumerate}\def\theenumi{}\item1億語規模のコーパスを格納して実用的な検索や修正が行えること\item辞書を参照しその情報を用いてコーパスのアノテーションが行えること\item辞書(語彙表)とコーパスとを同期して整合性を保つことができること\item形態素解析によって付与された単語境界を容易に修正可能なこと\end{enumerate}BCCWJの修正作業では\ref{sec:knowledge_accuracy}節で見たとおり,1億語規模のコーパスを対象に,同様の誤りを一括して修正する必要がある.したがって,(i)は最も重要な要件である.さらに,BCCWJの構築では,階層構造を持つ新しい電子化辞書UniDicのために専用の辞書データベースを用意し,その見出し語を用いてコーパスを修正する必要があった.また,辞書とコーパスが同時並行で拡張されることから,辞書とコーパスを関連付けて管理し,整合性を保つことが必要となる.したがって,(ii)(iii)の辞書連携の機能も欠くことができない.これに加えて,分かち書きがなされない日本語のテキストを対象とすることから,(iv)の要件も強く求められる.英語を初めとする分かち書きがなされる言語では,既存の境界にしたがって単語に対してアノテーションを付与すれば良いため,単語境界の修正は重要な問題ではない.しかし日本語では,自動形態素解析によって分割された単語の境界自体が誤っている場合が少なくないため,境界を変更する修正が頻繁に行われるからである.\subsection{既存のアノテーションツールとの比較}人手による修正を加えた日本語コーパスで,1億語を超える規模のものはこれまでに構築されてこなかったこともあり,管見に入る限り,前節の要件を完全に満たす先行事例は存在しない.しかし,コーパスへのアノテーション支援ツールには多くの実装がある.既存のツール類が上記の条件をどの程度満たしているのかを調査した.取り上げたのは,次の4つの実装である.多くのツールの中で,日本語の形態論情報付きコーパスの管理ツールとして実績があるChaKi\cite{Matsumoto2005}の最新版と,比較的最近になって発表されたツールに注目した.\begin{itemize}\itemChaKi.NET\footnote{http://sourceforge.jp/projects/chaki/}\itemBRAT\cite{Stenetorp2012}\footnote{http://brat.nlplab.org/}\itemSLATE\cite{Kaplan2011}\footnote{http://www.cl.cs.titech.ac.jp/slate/}\itemAnotatornia\cite{Przepiorkowski2011}\footnote{http://zil.ipipan.waw.pl/Anotatornia/}\end{itemize}BRATはWeb上での使いやすいインターフェイスを備える汎用のアノテーションツールであり,係り受け・固有表現・照応・句のチャンキングなどのアノテーションに利用されている.SLATEもまたWeb上で容易に使える汎用のアノテーションツールであるが,さらにアノテーションの版管理まで考慮したものになっている.Anotatorniaはポーランド語のコーパス(NationalCorpusofPolish)構築のために開発されたアノテーションツールで,形態素解析辞書との連携が可能である.これら4つのツールと,本研究のシステムについて,前節でみた要件と,利用のしやすさ,実装に利用されている技術の観点から比較した結果を表1にまとめた.表中,「○」は条件を満たすもの,「△」は限定的に要件を満たすもの,「×」が満たさないものである.\begin{table}[b]\caption{先行事例と本システムの比較}\input{ca11table01.txt}\label{tab1}\end{table}表\ref{tab1}のうち,BCCWJの構築にとって最も重要なのは,前節で確認したとおり,大規模データへの対応,単語境界修正,辞書連携の機能である.BRATとSLATEは,いずれもWeb上で動作する汎用のアノテーションツールとして開発されたものであり,表\ref{tab1}において両者とも同じ結果となっている.これらWeb上の汎用ツールは,導入の敷居が低く作業者も容易に利用が可能だが,比較的少数の文書ファイルに対してアノテーションを施すことを前提としており,BCCWJ構築のように,大量の文書を一度に修正するような作業には向いていない.また,一般に単語よりも上位のレベルでのアノテーションに用いられることを想定していると思われ,文字列を単位としたアノテーションが可能ではあっても,単語境界の修正に適したツールにはなっていない.また,多くの語の形態論情報を一括で修正するような作業には向かない.Anotatorniaは単語境界の修正や辞書連携が可能であるが,ポーランド語の特定の電子辞書に対応したものであるため,BCCWJでの利用には適さない.また,DBMSに軽量なSQLiteを用いたWebベースのシステムであるため,大規模データの処理にも向かないと考えられる.ChaKiは,日本語コーパス管理に関係データベースを用いる\citeA{浅原ほか2002}の設計にもとづき,前節で見たような日本語の形態論情報アノテーションの特徴を踏まえたコーパス管理システムとなっている.そのため,単語境界修正や辞書との連携が可能であるうえに,係り受けやチャンキング,グループ化など多様なアノテーションを可能にしている.しかし,大規模データへの対応で難があり,現在のChaKi.NETの実装では1,000万語を超えるコーパスを格納すると実用的な速度が出ず,多数の作業者が十分な速度と同時実行性を以て利用することはできなかった.\subsection{本システムの優位性と問題点}前節で確認したとおり,最も重要となる大規模データへの対応,単語境界修正,辞書連携の3つを満たすシステムは,本システムしか存在しない.日本語の形態論情報アノテーションに適した機能を持ち,1億語を超える規模のコーパスを一度に取り扱うことを可能にしたこと,そして辞書データベースとの完全な連携が本システムの特長である.本システムはBCCWJにあわせて作り込まれているため,\ref{sec:knowledge}章で挙げたBCCWJ独自の処理にも対応している.また,階層構造をもつUniDicの辞書データベースを包含しており,アノテーションツールに留まらない言語資源管理のシステムとなっている.一方で,本システムにはいくつかの問題点も存在する.BCCWJに特化した設計となっているため汎用性に乏しいこと,Webベースのシステムではないためクライアントソフトウェアの配布が必要であり導入の敷居が高いこと,フリーウェアではなくプロプライエタリなソフトウェアを用いて構築されているため配布が難しいこと,などは他のシステムと比較して劣る点である.
\section{形態論情報データベースシステムの概要}
\label{sec:bdsystem}\subsection{形態論情報データベースの構成}形態論情報データベースは,UniDicの見出し語を格納する「辞書データベース」と,コーパスを格納する「コーパスデータベース」から構成される.図\ref{fig1}にその全体図を示す.形態論情報データベースは,UniDicの見出し語を管理する部分と,コーパスを格納して修正を行う部分に分かれる.これに対応するように,データベースをインスタンスのレベルで,辞書見出しを格納する「辞書データベース」部と,コーパスを格納する「コーパスデータベース」部に分割した.そのうえで,コーパスの形態論情報と辞書の情報を同一に保つために,見出し語表・活用表・変化表などから生成される「語彙表」を挟んで二つのデータベースを連係させた.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f1.eps}\end{center}\caption{形態論情報データベース全体図}\label{fig1}\end{figure}辞書データベースには,短単位の見出し語表と,これを出現形まで展開するための活用表・変化表が含まれる.辞書データベースの詳細は\ref{sec:dicdb}章で述べる.辞書見出しを出現形まで展開した「語彙表」はレコードごとに語彙表IDが一意に割り振られ,コーパスデータベース内に生成される.コーパスデータベースには,BCCWJのテキストを形態素解析した短単位のコーパスが含まれる.コーパスのレコードは語彙表IDにより語彙表と関連付けられ,これを介して辞書の見出し表と関連付けられる.なお,コーパスデータベースには短単位を組み上げた長単位の情報が含まれる.長単位は定義上,コーパスに出現したものをそのまま単位として認める形をとるため,辞書データベースとは接続されない.コーパスデータベースの詳細は\ref{sec:corpusdb}章で述べる.コーパスと辞書は独立性が高く,それぞれが単独でも利用できる必要があるため,コーパスにも辞書データベースがもつ多様な情報が付与されている.次節で見るように,辞書データベースのデータが変更された場合は,語彙表を介してコーパスにも変更が反映される.\subsection{語彙表展開とコーパスとの同期処理}\label{sec:sync}コーパスデータベースと辞書データベースを連携するための仕組みとして語彙表展開と同期処理が重要であるが,この処理は本システムの中でも最もコストのかかる処理のひとつである.BCCWJはコーパスの規模が大きいために出現頻度が数万以上となる見出し語も少なくない.仮に語彙表展開とコーパスとの同期を全てリアルタイム処理で行うとすると,こうした見出し語を変更した場合のコーパスとの同期処理には大きな負荷がかかり,レコードロックなどが頻発し作業上深刻な問題となる可能性がある.そのため,データの変更が及ぼす影響の範囲や処理の必要性に応じて,リアルタイム処理と,通常深夜に行われる日次処理とを使い分けている.見出し語の変更による当該語の語彙表展開は,語彙表への影響も少なく,また変更した語を即座にコーパス修正に使用できるようにする必要があるためにリアルタイム処理としている.一方,活用表や変化表の変更によって生じる語彙表展開と同期処理では,影響を受ける見出し語が多数にのぼり,関連付けられたコーパスの更新箇所も膨大となる可能性があるため,リアルタイム処理ではなく日次処理により行っている.このようにシステムへの負荷を軽減し作業性を上げるために,辞書データベースとコーパスデータベースはリアルタイムの同期処理のみによる密結合ではなく,日次処理を含めたゆるやかな連携をとる疎結合のシステムとして設計されている.辞書データベースとコーパスデータベースとの関連付けには,語彙表テーブルが保持する語彙表IDを用いるが,語彙表テーブルはコーパスの各語が持つ属性値\footnote{\ref{sec:corpusdb}章の表\ref{tab8}の基本8属性.}も保持している.語彙表IDと属性値で二重に情報が保持されているため,語彙表IDでの接続が失われた状態でも,属性値の組み合わせにより語彙表(及び辞書データベースの見出し語表)との接続を回復できる.これにより,見出し語の修正によって語彙表IDが変わってしまった場合や,コーパスの修正によって一部の属性が一括変更された場合など,コーパスと語彙表の関連づけが失われた際にも,語彙表IDか属性値のいずれかをキーとして同期をとることができるようにした.語彙表の更新は,見出し語表の見出し語の追加時・修正時にリアルタイムで該当する語彙表のレコードを自動生成・更新する.これにより辞書追加した語をすぐにコーパス修正に利用できるようにしている.また日次のバッチ処理により上述のコーパスと語彙表との同期処理を行い,語彙表IDと属性値のいずれによっても対応がとれないレコードが発生した場合には作業者に修正を促すことで関連付けを保っている.\subsection{利用したシステム}形態論情報データベースで使用した主な機器・ソフトウェアは以下のとおりである.\begin{itemize}\itemクライアント\begin{itemize}\itemソフトウェア\begin{itemize}\itemOS:MicrosoftWindowsXP(後に7に更新)\itemツール開発:MicrosoftAccess2003(後に2007に更新)\end{itemize}\end{itemize}\itemサーバ\begin{itemize}\itemソフトウェア\begin{itemize}\itemOS:MicrosoftWindowsServer2003R2x64(後に2008R2に更新)\itemDBMS:MicrosoftSQLServer2005StandardEditionx64\end{itemize}\itemハードウェア\begin{itemize}\item機種:DELLPowerEdge2950\itemメモリ:24.0GB\itemCPU:IntelXeonX5355(2.66~GHz4コア2×4~MBL2キャッシュ\\1333~MHzFSB)×2\itemHDD:300~GB15000~rpmSAS×6(RAID5構成で実質容量1.5~TB)\end{itemize}\end{itemize}\itemバックアップストレージ\begin{itemize}\itemハードウェア\begin{itemize}\item機種:DELLPowerVaultMD-1000\itemHDD:1~TBSATA×15(うち2台がホットスペア,RAID5構成で実質容量11~TB)\end{itemize}\end{itemize}\end{itemize}形態論情報データベースは1台のデータベースサーバに複数の端末からアクセスするクライアント・サーバ型のシステムとして構築されている.プロジェクト開始までの開発期間が限られていたこと,運用中も頻繁な仕様変更が想定されたことなどから,機能追加・変更が容易に行えるAccessでクライアントツールを開発し,DBMSにはAccessとの親和性が高く,データベース管理,分析,チューニング等のツールが充実しているSQLServerを採用した.DBMSはBCCWJの電子テキスト化で用いられるJISX0213の文字集合\cite{山口ほか2011}を適切に扱える必要があったが,BCCWJ構築開始時点で当該文字集合が適切に扱えるものが少なく,このこともSQLServerを採用した理由となっている\footnote{データベースの既定の照合順序(COLLATE)は,UnicodeのCJK統合漢字拡張漢字B集合の文字が扱える「Japanese90BIN2」とした.}.なお,所外の作業者などAccessがインストールされていない環境からも作業ができるよう,無償配布されているAccessランタイム上で動作するクライアントツールの外部接続用インストールパッケージを別途用意した.
\section{辞書データベースの設計と実装}
\label{sec:dicdb}\subsection{見出し語表の設計と実装}辞書データベースは,形態素解析辞書UniDicの元となるデータベースである.見出し語表のほか,活用表などの辞書作成に必要な情報からなる.\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA11f2.eps}\end{center}\caption{UniDic見出し語の階層構造}\label{fig2}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA11f3.eps}\end{center}\caption{辞書データベース・見出し語のテーブル設計(短単位)}\label{fig3}\end{figure}UniDicでは図\ref{fig2}のような見出し語の階層構造が設定されている.「語彙素」は国語辞典の見出し語に相当するレベル,「語形」は異語形を区別するレベル,「書字形」は異表記を区別するレベル,「発音形」は発音を区別するレベルである.辞書データベースの見出し語表は,\citeA{伝ほか2007}の基本設計を踏襲し,このUniDicで設定されている見出し語の階層構造をそのまま反映させる形で実装した(図\ref{fig3}).辞書データベースの基本となる見出し語表を構成するのは「短単位語彙素」「短単位語形」「短単位書字形」「短単位発音形」の4つの見出し語のテーブルである.\begin{table}[b]\caption{見出し語のテーブルの主要項目}\label{tab2}\input{ca11table02.txt}\end{table}4つの見出し語のテーブルはそれぞれ一意のIDによって関連付けられており,各IDは計算によってテーブルの階層関係が確認できるように設計した.例えば,語形IDは親となる語彙素のIDに32(一つの語彙素が持ちうる語形の最大数)を乗じたものに自身の語形SubIDを加えたものを一意のIDとしている.IDで関連付けられたテーブル間では,レコードの生成や削除に関連するデータベース制約を設定し,不正な見出し語のエントリを防いでいる.見出し語のテーブルが持つ主要項目を表\ref{tab2}に示す.UniDicでは,語彙素・語彙素読み・語彙素細分類・品詞・語形・活用型・書字形・発音形(表\ref{tab2}の列名に◎を付した)の組み合わせによって,見出し語が一意に区別される.辞書データベースの見出し語のテーブルでもこの関係を外部キー制約として記述し,見出し語の二重登録を防いだ.\begin{table}[t]\caption{見出し語のテーブルの共通項目}\label{tab3}\input{ca11table03.txt}\end{table}表\ref{tab2}の項目に加え,見出し語のテーブルに表\ref{tab3}の項目を共通して持たせ,各見出し語のメタ情報を記録した.これにより,見出し語を追加・修正した際の作業者やソースのトレースを可能にし,誤った見出し語の追加・修正への対処を可能にしている.また,状態属性によりジャンル別の形態素解析辞書の作成を可能にしている.\subsection{語彙表展開の設計と実装}辞書データベースには,見出し語のテーブルのほかに,活用語を展開するための「活用表」テーブル,語頭・語末変化形を展開するための「語頭変化」「語末変化」テーブルを置き,見出し語をコーパス上に出現する形にまで展開させる.この処理を語彙表展開と呼び,「語頭変化」→「語末変化」→「活用形展開」の順に,見出し語を展開することで行う.以下,この処理の内容について述べる.\subsubsection*{語頭・語末変化}語頭・語末変化テーブルは,語形が持つ語頭・語末変化型に応じた語頭・語末文字の変化パターンを記した表であり,語形・書字形の見出し語の語頭・語末変化形を語彙表に展開する処理で使用される.実体は辞書データベース内の語頭変化テーブル・語末変化テーブルである.語頭変化テーブルの主要な項目を表\ref{tab4}に示す(語末変化テーブルは語頭変化テーブルと同様のため省略する).主な対象は連濁現象で,例えば「カライ(辛い)」の「語頭変化型」に「カ濁」を設定すると,語頭変化表により基本形「カライ」と,語頭文字を置き換えた濁音形「ガライ」が生成される.データベース上では,この変形は語形テーブルと語頭変化テーブルを語頭変化型で結合することで,各形を生成している.書字形のレベルでは,濁音形の書字形は,漢字表記の場合には基本形と同じものが使われる(例:辛い)が,ひらがな・カタカナで表記されている場合には書字形の先頭部分を変化させたもの(例:がらい・ガライ)を生成する.語末変化も語頭変化と同様で,「語形」が持つ「語末変化型」に応じて,語形変化した形を生成する.例えば「サンカク(三角)」の語末変化型に「ク促」を設定すると,語末変化表により,基本形「サンカク」と,語末文字を置き換えた促音形「サンカッ」を生成する.\subsubsection*{活用}活用は,語形が持つ活用型に応じて,活用形を展開する処理である.その処理に用いる活用表テーブルの主要な項目を表\ref{tab5}に示す.\begin{table}[b]\caption{語頭変化テーブルの主な項目}\label{tab4}\input{ca11table04.txt}\end{table}\begin{table}[b]\caption{活用表テーブルの主な項目}\label{tab5}\input{ca11table05.txt}\end{table}内部活用型は語彙表展開時に処理内部で一時的に使用されるもので,語形に付与した活用型と詳細活用型,語形に関連付けられた書字形と発音形を専用関数に渡すことで生成される.例えば書字形「辛い」「からい」は同じ語形「カライ(活用型「形容詞-ライ」)を持つが終止形の変化を「辛``え''」「か``れえ''」と区別する必要があるため,内部活用型により活用パターンをより細分化した上で活用変化が行われる.生成された内部活用型により活用表から活用形と活用語尾書字形が取得されるが,同時に書字形の活用部分が「終止形-一般」の活用語尾書字形より取得される.書字形を活用変化した形は,ここで取得した活用語尾書字形をその他の活用形の活用語尾書字形で置換したものにより生成される.以上の活用表による語彙表展開の流れを図\ref{fig4}に示す.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f4.eps}\end{center}\caption{活用形の展開の流れ}\label{fig4}\end{figure}活用に際して,書字形が異なると変化する語尾の部分が異なる場合がある.たとえば,カ行変格活用の動詞「来る」では,仮名で書かれた「くる」の場合,未然形の書字形は「こ」,連用形は「き」だが,漢字で書かれた「来る」では書字形はいずれも「来」である.このように,辞書登録されている書字形ごとに活用語尾の長さを変える必要があるため,書字形に「活用型書字形」を持たせて活用形の展開の仕方を変えている.活用語の変化部分の長さの違いは,発音形についても起こる.たとえば,音便形の処理で語形が「オイ」でおわる形容詞は,その直前の音がオ段の場合には終止形などの発音形を長音にする必要がある(「トオイ」→「トーイ」)が,オ段以外の場合にはその必要がない(「アオイ」→「アオイ」).このため,発音形に「活用型発音形」を持たせて活用形の展開の仕方を変えている.\subsubsection*{特殊活用形}通常の活用形の展開では生成できない,または特定の語においてのみ活用形を展開する特殊な活用形は,「特殊活用形テーブル」に活用した形の書字形を登録する(表6).たとえば活用語尾までがカタカナ表記される「イイ(良い)」「デキル(出来る)」や,活用語尾のない特殊な表記「也」(助動詞「なり」の終止形),特殊な語形「ま〜す」(助動詞「ます」の終止形)などがそれにあたる.特殊活用形に登録した書字形は語彙表生成時にそのまま語彙表に追加される\footnote{特殊活用形を語彙表展開する際の活用形IDは,通常使用されない活用形IDの範囲である480--512を用いる.}.\subsubsection*{語彙表の展開}ここまでに説明してきた語頭・語末変化と活用により,語彙表がコーパスデータベース内に生成される.語彙表展開では語形に付与された語頭・語末変化型,活用型により,語頭・語末変化と活用のいずれか,または両方による展開処理が行われる.図\ref{fig5}に例として形容詞「辛い」の語彙表展開を図示する.\begin{table}[b]\caption{特殊活用形テーブルの主な項目}\label{tab6}\input{ca11table06.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA11f5.eps}\end{center}\caption{語彙表展開の例}\label{fig5}\end{figure}辞書データベースでは,語彙素テーブルの主要項目のほか,語彙素・語形・書字形・発音形テーブルを結合した主要項目,語彙表テーブルにも一意制約が設定されているため,語彙素・語形・書字形・発音形が登録できてもその後語彙表展開したものが重複した場合には,語彙表展開がロールバックされ登録自体も無効となる.つまり語彙表テーブルは常にデータの重複がない状態であることが保証されている.\subsubsection*{語彙表ID}語彙表生成時には語彙表のレコード毎に一意の語彙表IDを割り当てる.語彙表IDは通常10進数の数値として扱われるが,ビット列としてみると,発音形・語頭変化・語末変化・活用それぞれの展開処理において,各変化形の表現に十分なビット幅をフィールドとして追加したものとなっている.図\ref{fig6}に例として形容詞「辛い」を語彙表展開して生成される出現書字形「がらかっ」の語彙表ID(10進数・2進数)を示す.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f6.eps}\end{center}\caption{語彙表IDの例}\label{fig6}\end{figure}この設計により,語彙表IDのみから,語彙素・語形・書字形等の見出し語のIDや変化形のIDを容易に計算できるようにしている.全体として通常の整数型(32ビット)で表現できる範囲を超えるため,bigint(64ビット符号付き整数)型で表現する.したがって,語彙素IDの最大数は25ビット分(約3400万)確保可能である.\subsection{辞書データベースの運用}\subsubsection*{辞書データベースのロック処理}一般的にクライアント・サーバ型のシステムでは複数の作業者が同時にデータを変更した場合に,処理が混在しデータに矛盾が生じる可能性がある.辞書データベースにおいては,見出し語を変更すると見出し語の各テーブルに設定したトリガにより語彙表展開までが一連の処理として行われるが,語彙表展開の処理は内部に「非語頭語末変化パターンの展開」「語頭語末変化パターンの展開」「特殊活用形の展開」など複数の処理のステップがあり,なおかつ処理中は見出し語表,活用表など複数のテーブルのデータを参照する必要があることから,見出し語の変更から語彙表展開までは形態論情報データベースのなかでもコストがかかる処理となっている.表\ref{tab7}に示すように,語彙表展開処理は,書字形や活用変化パターンを多く持つ語彙素ほど処理に時間を要する.\begin{table}[t]\caption{語彙表展開時のコスト}\label{tab7}\input{ca11table07.txt}\end{table}語彙表展開処理に時間がかかるほど,処理中に他の作業者による見出し語の変更が起こりやすくなり,処理の衝突やデータの矛盾が起こる可能性が高くなる.一般にデータベースでは,複数の処理が混在した際に起こりうるデータの矛盾として「ダーティリード」「反復不能読取り」「ファントムリード」があり,それらを回避するために分離レベル「READCOMMITTED」「REPEATABLEREAD」「SERIALIZABLE」をトランザクション開始時に指定できる.分離レベルは同時実行性とのトレードオフの関係にあり,SERIALIZABLEは前述のデータの矛盾を全て回避することができるが,トランザクション中は他の作業者が処理を行えなくなり全体としての作業量が落ちる.そのため,他の分離レベルを使用して同時実行性を維持しつつ,分離レベルでは回避できないデータの矛盾をシステム上で対処するよう設計を行う必要がある.また処理が混在した場合のトラブルとして,複数のトランザクションがたすき掛けでデータをロックし合うことによりお互いの処理が行き詰まる「デッドロック」があるが,これについても対策を行う必要がある.これらを考慮して,語彙表展開に関連する一連の処理では以下のような設計を行った.\begin{enumerate}\renewcommand{\labelenumi}{}\item語彙表展開処理内の複数のステップをトランザクション処理とし,分離レベルをREADCOMMITTEDとした.\item見出し語の語彙素・語形・書字形・発音形の変更では必ずリアルタイム処理による語彙表展開処理が行われるようにした.\item語彙表展開処理内の冒頭で語彙素--語形--書字形--発音形への参照を行うこととした.\end{enumerate}まず分離レベルをREADCOMMITTEDを指定することで,ダーティリードを回避しつつ,同時実行性を確保した(a.).ただしREADCOMMITTEDでは他の作業者によるデータ変更がブロックされず,反復不能読取り,ファントムリードが起こるため,別途回避策をとる必要がある.トランザクション処理中に他の作業者によりデータ変更が行われてしまう反復不能読取りについては,語彙表展開なしに見出し語を変更できないようにし(b.),さらに先行の処理が完全に終了されるまで後続の処理をロック待ちにすることで(a.とc.),複数の作業者が同一箇所について同時にデータ変更が行えないようにすることで回避した.トランザクション処理中にデータが追加されてしまうファントムリードについては,そもそもトランザクション中に他の作業者によりデータが追加されても,作業者にとってはその時点では必要のないデータなので作業上も支障がなく,また語彙表は日次処理により全件が再生成されるため,不正なデータの語彙表展開は排除される.またデッドロックについては,前述のとおり見出し語変更時の処理を一本化してレコードロックの順番を統一することで回避した.\subsection{辞書データのエクスポート}辞書データベースは,コーパスデータベースの修正に用いられるだけでなく,形態素解析用の辞書(見出し語リスト)を出力する役割も担っている.辞書データベースから出力された辞書と,コーパスデータベースから出力される人手修正済みの学習用コーパスを利用して形態素解析辞書が作成された.UniDic1.x系列の形態素解析辞書の作成に当たっては,辞書データベースの見出し語表・活用表・語頭語末変化表を組み合わせて展開した語彙表を表形式テキストとして出力し,これをMeCab用の辞書のソースデータとして提供した.さらに,見出し語のテーブルを結合・再構成してUniDicの階層構造を再現したXML形式で出力し,UniDic2.x系列の辞書データとして提供した.同時に活用表や語形変化表もXML形式で出力し,辞書データベースの大部分をXML形式で外部に提供することを可能にした.
\section{コーパスデータベースの設計・実装・運用}
\label{sec:corpusdb}\subsection{コーパスデータベースの設計と実装}\ref{sec:knowledge}章で確認したとおり,BCCWJのテキストはXML文書の形で提供される.テキストの形態論情報は,形態素解析等の自動出力結果を人手で修正した後で,元のXML文書に対するアノテーションとして出力する必要がある.BCCWJでは,短単位と長単位という階層的な関係を持つ2つの言語単位によって形態論情報がアノテーションされるが,この階層関係もXMLのタグによって表現される.BCCWJのコアデータから,短単位と長単位のアノテーション例をリスト1に示す.LUWが長単位,SUWが短単位のタグである(一部のタグを省略した).関係データベースを用いてこうしたXML文書を扱うために,スタンドオフ・アノテーションの方法に基づき,XML文書が含む文字データ(CDATA)とタグをテーブルに分割し,ファイル先頭からの文字オフセット値(タグを除いた文字の開始終了位置)によって関係づけて管理する設計とした.全体の整合性を保持するため,文字やタグを含む全てのデータの修正をこのデータベース上で行う.このデータベースのテーブル関連図を図\ref{fig7}に示す.コーパスデータベース中のテーブルは,XML文書起源のものとして「文字」テーブル,「タグ」テーブル,「ルビ」テーブル,「文字修正」テーブルがあり,これに後述する数字処理による「数字」テーブル,形態論情報アノテーションとしての「短単位」テーブルと「長単位」テーブルが加わる.形態論情報も文字位置によってテーブルを関連付けて管理する.このほかに,全文検索用の「文」テーブルや長単位修正作業用の「長単位語彙表」テーブルを置く.このうち,コーパスデータベースにとって必須のデータは文字テーブルと短単位テーブルであり,XML文書の復元や長単位アノテーションを必要としない場合にはこれ以外のテーブルは不要となる.コーパスデータベースの根幹である短単位テーブルの主要な項目を表\ref{tab8}に示す.\begin{lstlisting}[title=\textbf{リスト1}短単位と長単位のアノテーション例(X-XML)]<mergedSamplesampleID="OW6X_00028"type="BCCWJ-MorphXML"version="1.0"><articlearticleID="OW6X_00028_V001"isWholeArticle="false"><titleBlock><title><sentencetype="quasi"><LUWB="S"SL="v"l_lemma="第一章"l_lForm="ダイイッショウ"l_wType="漢"l_pos="名詞-普通名詞-一般"l_formBase="ダイイッショウ"><SUWorderID="10"lemmaID="22937"lemma="第"lForm="ダイ"wType="漢"pos="接頭辞"formBase="ダイ"pron="ダイ"start="10"end="20">第</SUW><SUWorderID="20"lemmaID="2050"lemma="一"lForm="イチ"wType="漢"pos="名詞-数詞"formBase="イチ"kana="イッ"pron="イッ"start="20"end="30">1</SUW><SUWorderID="30"lemmaID="16559"lemma="章"lForm="ショウ"wType="漢"pos="名詞-普通名詞-一般"formBase="ショウ"pron="ショー"start="30"end="40">章</SUW></LUW><LUWSL="v"l_lemma=""l_lForm=""l_wType="記号"l_pos="空白"><SUWorderID="40"lemmaID="23"lemma=""lForm=""wType="記号"pos="空白"formBase=""pron=""start="40"end="50"></SUW></LUW><LUWB="B"SL="v"l_lemma="障害者施策"l_lForm="ショウガイシャシサク"l_wType="漢"l_pos="名詞-普通名詞-一般"l_formBase="ショウガイシャシサク"><SUWorderID="50"lemmaID="16607"lemma="障害"lForm="ショウガイ"wType="漢"pos="名詞-普通名詞-サ変可能"formBase="ショウガイ"pron="ショーガイ"start="50"end="70">障害</SUW><SUWorderID="60"lemmaID="15852"lemma="者"lForm="シャ"wType="漢"pos="接尾辞-名詞的-一般"formBase="シャ"pron="シャ"start="70"end="80">者</SUW><SUWorderID="70"lemmaID="15256"lemma="施策"lForm="シサク"wType="漢"pos="名詞-普通名詞-一般"formBase="シサク"pron="シサク"start="80"end="100">施策</SUW></LUW><LUWSL="v"l_lemma="の"l_lForm="ノ"l_wType="和"l_pos="助詞-格助詞"l_formBase="ノ"><SUWorderID="80"lemmaID="28989"lemma="の"lForm="ノ"wType="和"pos="助詞-格助詞"formBase="ノ"pron="ノ"start="100"end="110">の</SUW></LUW><LUWB="B"SL="v"l_lemma="総合的取り組み"l_lForm="ソウゴウテキトリクミ"l_wType="混"l_pos="名詞-普通名詞-一般"l_formBase="ソウゴウテキトリクミ"><SUWorderID="90"lemmaID="21023"lemma="総合"lForm="ソウゴウ"wType="漢"pos="名詞-普通名詞-サ変可能"formBase="ソウゴウ"pron="ソーゴー"start="110"end="130">総合</SUW><SUWorderID="100"lemmaID="25076"lemma="的"lForm="テキ"wType="漢"pos="接尾辞-形状詞的"formBase="テキ"pron="テキ"start="130"end="140">的</SUW><SUWorderID="110"lemmaID="26779"lemma="取り組み"lForm="トリクミ"wType="和"pos="名詞-普通名詞-一般"formBase="トリクミ"pron="トリクミ"start="140"end="160">取組</SUW></LUW></sentence><brtype="automatic_original"/></title></titleBlock>\end{lstlisting}\subsubsection*{XML文書と形態論情報のインポート}XML形式でリリースされるデータをコーパスデータベースにインポートする方法を図\ref{fig8}のように設計・実装した.既述の通り,XML形式のデータを表に変換し,それらの表を,文字位置(ファイル先頭からの文字オフセット値)をキーにしたIDで相互に関係づける.この際,辞書登録やコーパス修正時に確認することが必要なルビタグ・数字タグ・文字修正タグのみを専用のテーブルに格納して編集可能とし,それ以外のタグについては元の形のまま「タグ表」にまとめて保存している.インポート処理の過程で形態素解析の上で妨げとなるタグの除去や,数字変換(後述)などの処理が加わるため,それぞれの表の情報を取り出す段階が異なっている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f7.eps}\end{center}\caption{コーパスデータベースのテーブル関連図}\label{fig7}\end{figure}なお,BCCWJでは,\ref{sec:knowledge_numtrans}節で述べた数字変換処理が行われているため,形態素解析結果から原文の文字位置をキーにした短単位テーブルを単純にとりだすことができない.そこで,形態素解析結果を埋め込んだ状態のXMLファイルから,原文文字列や数字タグ・分数タグの情報を元に,元の文字との対応を取りながら文字位置を取得する必要がある.この処理はデータベース外部の解析プログラムによって行っている.長単位のデータは,修正済みの短単位データをコーパスデータベースからエクスポートし,Comainuによって処理を行った後,データベースの長単位テーブルにインポートする.\ref{sec:knowledge_unit}節で見たとおり,長単位は短単位を組み上げる形で生成される.長単位テーブルからは,長単位の修正作業用に長単位語彙表テーブルを生成する.以上のような手順でコーパスデータベースに格納されたデータは,後述のクライアントツール「大納言」を通して修正される.\begin{table}[t]\caption{短単位テーブルの列名}\label{tab8}\input{ca11table08.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f8.eps}\end{center}\caption{XML文書の形態素解析とインポートの流れ}\label{fig8}\end{figure}\subsection{コーパスデータベースの運用}\subsubsection*{運用実績}コーパスデータベースの運用実績は,履歴をもとに集計すると,BCCWJ全体の更新件数が約302万件(約1,000日間),1日あたりの平均更新件数が約2,800件,1日あたりの最大更新件数が約25,000件,最大接続ユーザー数が22名であった(更新件数は一部推計によるものを含む).\subsubsection*{コーパス更新時の不整合の回避(ロールバック)}コーパスデータの更新時には,複数作業者による同一箇所の同時更新による文脈の不整合が発生する可能性が考えられる.このような場合にはロールバックにより不整合が回避されるようシステムを設計している.しかし,コーパスの同一箇所をほぼ同時に更新する状況は極めて稀である.BCCWJでの作業では,短単位テーブルに約1億2千万件のレコードが存在し,そのうち人手によるデータ更新が302万箇所(推計値)で行われた.しかし,このうち最も近いタイミングで隣接箇所を更新した事例でも14秒以上の間隔があり,近接箇所を1分以内に更新した例も15箇所しか存在しない.また,現在の日本語歴史コーパス修正作業のログ3日間分においては,更新件数は7,858件であったが,不整合が起こりうる同時更新は0件であった.このように,同一箇所の同時更新が発生しにくいのは,コーパスのサイズが極めて大きいことに加え,コーパスデータの更新作業おいて作業範囲や作業内容が作業者間で効率的に割り振られていたことによると考えられる.\subsubsection*{ジョブ}リアルタイム更新が必要でない処理や,通常作業のために必要なデータ整備の処理,バックアップ処理などは,必要なタイミングや所要時間などを考慮して,以下のように日中毎時・平日深夜・週末深夜のジョブによりバッチ処理を行った.\begin{itemize}\item日中毎時ジョブ\\1時間間隔でトランザクションログのバックアップを行う.作業を中断する必要はなく,通常数秒程度で完了する.\item平日深夜ジョブ\\平日深夜に開始され,翌日の作業開始まで行われる.負荷や排他ロックにより日中に行えない処理(データのインポート,一括変換処理等)や,即時性が必要でないデータの更新(辞書とコーパスの完全同期等)を行う.\item週末深夜ジョブ\\データベースのバックアップやインデックスの再作成,データの削除などを行う.\end{itemize}\subsubsection*{バックアップ体制}データベースは障害時に特定の時点に復旧できるよう完全復旧モデルを採用している.毎週末深夜にバックアップストレージに対してバックアップファイルが作成され,その後,翌週末深夜まで1時間間隔でログバックアップを行う.つまり週毎に「完全バックアップ+ログバックアップ」のバックアップセットが作成されることになる.バックアップセットは一定期間保存されたのち,古いものから削除される.\subsubsection*{コーパスデータベースのチューニング}コーパスデータベースでは1億語を超える大規模なデータを対象に,複数の作業者が同時に更新処理を行う必要がある.そのため,コーパスデータベースの実装に当たっては処理の高速化とデータの整合性,同時実行性の確保のための対策が重要である.そのために次の(a)〜(c)のような対応を行った.\noindent{\bf(a)KWICに最適化した主キー項目の選定}コーパスデータベースでは,後述する「大納言」でコーパス修正を行うためにKWIC(キーワードの前後文脈情報)を多用する.しかし,あらかじめKWIC情報を作成してデータベース内に格納することはデータベースサイズが肥大化することから困難であり,また最新のコーパス修正結果をもとにしたKWICを表示することが望ましい.そのため,検索の都度,ヒットした語についてリアルタイムでKWICを生成する設計とした.通常,一度の検索で数百〜数千語程度のKWIC作成処理が発生するため,この処理の高速化はシステム全体の処理性能に直結する.そこで,短単位テーブルの主キーとしてKWIC作成に必須となる「サンプルID」と「連番」を選択することで,この処理の高速化を図った.SQLServerでは主キーとして設定した項目を元にクラスタ化インデックスが作成されるため,「サンプルID」と「連番」を主キーに設定することで,データベース上でデータが短単位の出現順に物理的に並ぶことになり,語の並び替えが不要となる.またインデックスを経由することなく直接データにアクセスできるため,KWIC生成処理の短単位の組み上げ時のコストを節約できる.約14,000レコード分のKWIC生成に要する時間を比較した結果を表\ref{tab9}に示す.表\ref{tab9}のSQL文中の「fnGetContextPreOpenClose」「fnGetContextPre」はKWIC生成関数である.検索時間は10回検索を行い最小値と最大値を除いた平均時間となっていて,検索毎にキャッシュを消去することでキャッシュによる高速化の影響を排除した.通常のインデックス項目による場合と比較してKWIC生成速度が2倍程度に高速化された.また,コーパス名の検索をサンプルIDの検索に変換にすることで検索の高速化を行った.短単位テーブルにはサンプルIDの上位の括りとして「コーパス名」列がある.コーパス名は定義上ファイルをレジスタ別に分けるための情報だが,短単位テーブルのデータをプロジェクトや用途別に区別することにも利用している.ユーザーが大納言で作業する際は,短単位テーブル全体ではなくあらかじめユーザー毎に割り振られた作業対象(コーパス名)毎に作業を行うことが多い.このことから,作業者が大納言で検索対象(作業対象)のコーパス名を指定した際に,システム内でコーパス名をサンプルIDに変換するための「コーパス名−サンプルID対応テーブル」を作成した.このことにより,コーパス名による検索を短単位テーブルの主キーであるサンプルIDによる検索に変換することができ,検索対象の絞込が高速化された.書籍・白書・雑誌のコアデータについて品詞を指定して検索した結果を表\ref{tab10}に示す.\begin{table}[b]\caption{KWIC生成時間の比較}\input{ca11table09.txt}\label{tab9}\end{table}\begin{table}[b]\caption{コーパス名—サンプルID対応テーブルによる検索}\input{ca11table10.txt}\label{tab10}\end{table}検索時間は10回検索を行い最小値と最大値を除いた平均時間である.検索の都度キャッシュは消去した.SQL文中の「fileList」が「コーパス名−サンプルID対応テーブル」で,これを使用することによりコーパス名を指定した検索速度が100倍程度に高速化された.\noindent{\bf(b)トランザクション分離レベルの設定}短単位テーブルの修正は,そのほとんどが単位境界の切り直しを伴いレコード数が変化することになる.そのため,修正の反映は,レコードの更新処理ではなく,削除処理によって修正前のレコードを削除した後に修正後のレコードを挿入することで行っている.単位境界を変更する場合には,修正後のレコードに文字位置を振り直す処理も必要であり,1箇所のデータ修正のために複数の処理を実行する必要がある.そこで,これらをまとめてトランザクション処理で実行し,データが1箇所更新される度にトランザクションが終了されるようにした.複数箇所を一度に更新する場合は,ループ処理により複数回処理を実行する.これは大規模な修正を行う際のレコードロックの時間を最小限にし,他の作業者への影響を抑え同時実行性を高めるためのものである.データの正確性を高めるのであればトランザクションの分離レベルをSERIALIZABLEなどに設定すればよいが,反面,同時実行性は低下することになる.そこで大納言では更新処理が他のユーザーの作業に影響するのを抑えるため,データの更新時のトランザクションの分離レベルをREADCOMMITTEDとした.このレベルでは反復不可能読取りが起こる可能性があるが,更新処理内部に処理前後の文脈を比較する処理を組み込むことで,不正な変更処理が回避されるよう設計した.仮に処理前後の文脈を比較する処理でエラー(文脈が変更される)と判定された場合は,トランザクションがロールバックされ,文脈の整合性が維持される.つまり本文の文脈が書き換わらない限り,複数作業者による同一箇所の同時変更を許容する設計を行っている.\noindent{\bf(c)ダーティリードの許容}他の作業者の更新処理中であってもデータベースからデータが読み取れるように,データの検索やKWIC生成処理時のSELECT文ではダーティリードを許容した.このことにより検索結果やKWIC内に誤ったデータが表示される可能性があるが,データの更新時には文脈チェック処理により不正なデータが検出されるため,不正な書き換えは防止される.この実装により同時実行性が確保され,不正な書き換えの問題も発生していない.\subsection{コーパスのエクスポート}人手で修正を行った形態論情報は,元のXML文書にタグとして埋め込んだXML形式でエクスポートすることができる.BCCWJを構成する全てのXML文書(C-XML,M-XML)は,このデータベースから出力された.XMLエクスポート用のSQL文では,各テーブルを結合し,データベース内部でXML型のデータとして生成した後,ファイル出力している.これによりデータが整形式のXMLであることが保証される.テーブルの結合時には,6.1で示したインポートの流れを逆にたどる.この際,タグテーブルを参照するが,ルビや数字などの別テーブルで管理するタグはタグテーブルからではなく,それぞれのテーブルの情報を元にタグを再構成して出力する.当然ながら,表形式の形態論情報を出力することも可能であり,BCCWJを構成する表形式の形態論情報データ(短単位・長単位TSV)はこのデータベースから出力された.また,Webベースのコーパス検索ツール「中納言」のソースデータもここから出力されたものである.さらに,形態素解析辞書UniDicの機械学習に用いるコーパスも,コーパスデータベースの短単位テーブルの一部を出力したものである.なお,データベースに格納されている形態論情報は,インポート前の数字処理を経たテキストを元にしておりBCCWJのM-XMLおよび表形式の形態論情報データではこれを出力しているが,データベース上では原文に相当するC-XMLを元にして管理されているため,数字処理を行わない形でXML文書を取り出すことも可能な設計になっている.
\section{クライアントツールの開発}
\label{sec:client}\subsection{辞書データベース用ツール「UniDicExplorer」}辞書管理ツール「UniDicExplorer」は辞書データベースへの見出し語の追加・修正をするために開発したクライアントツールである.ツール上にUniDicの見出し語の階層構造をそのまま可視化しており,階層構造を意識した辞書管理を可能にしている(図\ref{fig9}).上段左の検索用コントロールで,各階層の見出し語の情報(語彙素・語彙素読み・語形・書字形・その他)を対象に見出し語表を検索すると,左ペインにマッチした語がUniDicの階層構造を反映したツリー形式で表示される.右ペインには各階層の見出し語が,階層構造を反映した重層的なフォームの形で表示される.見出し語の追加は,見出し語のテーブルのデータが表示されている画面から「新規」ボタンをクリックすることにより行う.見出し語表のデータベース制約により,見出し語は必ず親となる見出し語に追加する形で入力するよう制限されており,逆に見出し語を削除する場合には,その見出し語の子となっている見出し語をあらかじめ削除しておかなければならない.これによって見出し語表の階層構造の整合性を確保している.画面下部の「ツリーの操作」では,見出し語の移動・コピー・削除を行うことができる.この画面では,当該見出し語だけでなく,子や孫となる見出し語ツリー全体をまとめて処理することができる.見出し語は語彙表を介してコーパスと接続されているため,当該見出し語のコーパス中での用例をこのツールから確認することができる.当該語のコーパス中の頻度は右ペインの各階層の見出し語の部分に常に表示されている.頻度情報の横の「用例」ボタンを押下することで,当該語のコーパス中の用例を文脈付きで全て表示することができる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f9.eps}\end{center}\caption{UniDicExplorer実行画面}\label{fig9}\end{figure}\subsection{コーパスデータベース用ツール「大納言」}短単位の自動解析精度はおおむね98\%程度であった.長単位解析の精度も(短単位データが全て正解であることを前提として)99\%ほどであり,人手による修正が必要であった.こうした形態論情報アノテーションの人手修正を行うためのツールが,「大納言」である(図\ref{fig10}).「大納言」の中心となる機能は形態論情報の修正であるが,それ以外にも多くの機能を持つため,画面上段のタブによってモードや機能を切り替えて利用する形になっている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f10.eps}\end{center}\caption{「大納言」実行画面(短単位アノテーションの修正)}\label{fig10}\end{figure}\subsubsection*{形態論情報の修正機能}多くの修正作業は,形態論情報を使った検索の結果に対して行うことになるが,その検索条件の指定では,「語彙素」「書字形」などの単純な形態論情報の検索だけでなく,形態論情報を前後5グラム分まで自由に組み合わせた高度な検索が可能である.また,単位境界を意識しない全文検索を行って,検索結果に形態論情報を表示させることもできる.短単位アノテーションの修正作業は,短単位の「分割結合」モードで行う.検索結果から修正対象を選択し,当該箇所の短単位境界を文字単位で分割・結合して正しい境界を指定する.境界が直ったところで語彙表を参照して,辞書データベースに登録された語の出現形を当てはめる.この際,該当する短単位がなければ,UniDicExplorerで新規の見出し語を追加した後,新たに語彙表に追加された出現形を使用する.長単位の修正時には「長単位」モードで短単位の情報を閲覧しながら,短単位を基本単位として長単位を分割・結合して正しい長単位境界を指定する.長単位境界が直ったところで長単位語彙表を参照して適切な長単位を選択する.この際,該当する長単位がなければ,選択箇所の短単位から自動構成される長単位をもとにして長単位語彙表に新しい語彙を追加してこれを当てはめる.こうした形態論情報の修正処理は,修正箇所と同一の形態論情報の組み合わせを持つもの全てを対象にして一括で行ったり,必要なものだけを作業者が選択して一括で行ったりすることが可能で,これによって効率的な修正作業を実現している.\subsubsection{文字とタグの修正機能}「大納言」では形態論情報そのものの修正作業のほかに,原テキストの文字修正,数字変換の誤り修正,ルビの文字修正を行う機能を実装した.6章で示したとおり,コーパスデータベースは文字ベースの開始終了IDで全体が関連付けられているが,「大納言」を通してこれらの修正を行うことで,作業者が意識することなく全体の関連付けの整合性を保つことができる.コーパス中の文字の修正では,文字テーブルを修正した後,文字修正テーブルに修正内容を記録する.自動数字変換(\ref{sec:knowledge_numtrans}節参照)の修正では,タグ付けされた変換内容をもとに,変換処理を元に戻したり,適切な変換内容に人手で修正したりする機能を持たせた.数字を変換し直す場合には数字テーブル,形態論情報を修正する.タグの修正については,XML文書を極力整形式に保ったまま,直接修正できる機能を実装した.
\section{おわりに}
以上に述べた「形態論情報データベース」を開発することで,形態素解析された1億語規模のコーパスを格納し,その全体に対して形態論情報の修正処理を行うことを可能にした.これにより,約100万語のコアデータについて形態論情報に十分な人手修正を施し,それ以外の部分についても人手による修正を施して高い精度を達成することを可能にした.このシステムがBCCWJの形態論情報アノテーションを支え,BCCWJを構成する全てのデータはこのデータベースから出力された.また,本システムによってUniDicの見出し語のデータ整備を支援し,見出し語のデータと対応付けられた学習用コーパスを提供したことで形態素解析辞書UniDicの開発に貢献した.このデータベースシステムは,現在「日本語歴史コーパス」の構築に利用されているほか,BCCWJのタグ修正や新形式のデータ出力などメンテナンス作業の基盤としても活用されている.今後も大規模コーパスの構築を支えるシステムとして活用される予定である.なお,本システムは研究所内でのコーパス構築を目的に開発したものであり,そのままの形で一般公開を行う予定はないが,BCCWJの活用やコーパス開発のために本システムの利用を希望する場合には,プログラムの提供を含めて対応する用意があるので問い合わせてほしい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA米田\JBA山下\JBA伝\JBA松本}{浅原\Jetal}{2002}]{浅原ほか2002}浅原正幸\JBA米田隆一\JBA山下亜希子\JBA伝康晴\JBA松本裕治\BBOP2002\BBCP.\newblock語長変換を考慮したコーパス管理システム.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(7),\mbox{\BPGS\2091--2097}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{伝ほか2007}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源—形態素解析用電子化辞書の開発とその応用(特集コーパス日本語学の射程).\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Kaplan,Iida,Nishina,\BBA\Tokunaga}{Kaplanet~al.}{2011}]{Kaplan2011}Kaplan,D.,Iida,R.,Nishina,K.,\BBA\Tokunaga,T.\BBOP2011\BBCP.\newblock\BBOQSlate-AToolforCreatingandMaintainingAnnotatedCorpora.\BBCQ\\newblock{\BemJournalforLanguageTechnologyandComputationalLinguistics},{\Bbf26}(2),\mbox{\BPGS\89--101}.\bibitem[\protect\BCAY{国立国語研究所コーパス開発センター}{国立国語研究所コーパス開発センター}{2011}]{国立国語研究所コーパス開発センター2011}国立国語研究所コーパス開発センター\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』マニュアル}.\newblock国立国語研究所コーパス開発センター.\bibitem[\protect\BCAY{前川}{前川}{2007}]{前川2008}前川喜久雄\BBOP2007\BBCP.\newblock{KOTONOHA}『現代日本語書き言葉均衡コーパス』の開発.\\newblock\Jem{日本語の研究},{\Bbf4}(1),\mbox{\BPGS\82--95}.\bibitem[\protect\BCAY{Matsumoto,Asahara,Kawabe,Takahashi,Tono,Ohtani,\BBA\Morita}{Matsumotoet~al.}{2005}]{Matsumoto2005}Matsumoto,Y.,Asahara,M.,Kawabe,K.,Takahashi,Y.,Tono,Y.,Ohtani,A.,\BBA\Morita,T.\BBOP2005\BBCP.\newblock\BBOQChaKi:AnAnnotatedCorporaManagementandSearchSystem.\BBCQ\\newblockIn{\BemProceedingsfromtheCorpusLinguisticsConferenceSeries,Vol.1,No.1}.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2011}]{小椋ほか2011}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内左夜香\JBA小西光\JBA原裕\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』形態論情報規程集第4版(上・下)}.\newblock国立国語研究所内部報告書.LR-CCG-10-05.国立国語研究所.\bibitem[\protect\BCAY{小澤\JBA内元\JBA伝}{小澤\Jetal}{2011}]{小澤ほか2011}小澤俊介\JBA内元清貴\JBA伝康晴\BBOP2011\BBCP.\newblock{BCCWJ}に基づく中・長単位解析ツール.\\newblock\Jem{特定領域「日本語コーパス」平成22年度公開ワークショップ予稿集},\mbox{\BPGS\331--338}.特定領域「日本語コーパス」総括班.\bibitem[\protect\BCAY{Przepi\'{o}rkowski\BBA\Murzynowski}{Przepi\'{o}rkowski\BBA\Murzynowski}{2011}]{Przepiorkowski2011}Przepi\'{o}rkowski,A.\BBACOMMA\\BBA\Murzynowski,G.\BBOP2011\BBCP.\newblock\BBOQManualAnnotationoftheNationalCorpusofPolishwithAnotatornia.\BBCQ\\newblockInGo\'{z}d\'{z}-Roszkowski,S.\BED,{\BemExplorationsacrossLanguagesandCorpora:PALC~2009},\mbox{\BPGS\95--103},FrankfurtamMain.PeterLang.\bibitem[\protect\BCAY{Stenetorp,Pyysalo,Topi\'{c},Ohta,Ananiadou,\BBA\Tsujii}{Stenetorpet~al.}{2012}]{Stenetorp2012}Stenetorp,P.,Pyysalo,S.,Topi\'{c},G.,Ohta,T.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP2012\BBCP.\newblock\BBOQBRAT:AWeb-basedToolforNLP-assistedTextAnnotation.\BBCQ\\newblockIn{\BemProceedingsoftheDemonstrationsatthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},EACL'12,\mbox{\BPGS\102--107},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{山田\JBA小磯}{山田\JBA小磯}{2008}]{Numtrans}山田篤\JBA小磯花絵\BBOP2008\BBCP.\newblock{Numtrans}マニュアル.\\newblock\JTR,{TheUniDicConsortium}.\bibitem[\protect\BCAY{山口\JBA高田\JBA北村\JBA間淵\JBA大島\JBA小林\JBA西部}{山口\Jetal}{2011}]{山口ほか2011}山口昌也\JBA高田智和\JBA北村雅則\JBA間淵洋子\JBA大島一\JBA小林正行\JBA西部みちる\BBOP2011\BBCP.\newblock『現代日本語書き言葉均衡コーパス』における電子化フォーマットVer2.2.\\newblock\JTR\LR-CCG-10-04,{国立国語研究所コーパス開発センター}.\end{thebibliography}\begin{biography}\bioauthor{小木曽智信}{1995年東京大学文学部日本語日本文学(国語学)専修課程卒業.1997年東京大学大学院人文社会系研究科日本文化研究専攻修士課程修了.2001年同博士課程中途退学.2014年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2001年より明海大学講師.2006年より独立行政法人国立国語研究所研究員を経て,2009年より人間文化研究機構国立国語研究所准教授,現在に至る.専門は日本語学,自然言語処理.日本語学会,情報処理学会各会員.}\bioauthor{中村壮範}{2000年武蔵工業大学機械工学科卒業.卒業後,顧客管理データベース等の構築業務を経て,2006年より,国立国語研究所勤務において「現代日本語書き言葉均衡コーパス」「日本語歴史コーパス」のための形態論情報データベースの構築・運用に従事.現在,マンパワーグループ株式会社所属.}\end{biography}\biodate\end{document}
| |
V27N04-03
|
\section{はじめに}
\label{sec:intro}議論は人間にとって主要な言語活動のひとつである.議論の参加者は,前提・根拠に基づきながら,筋道を立てて自身の意見を伝える.例えば,国の方針を決定したり,親を説得したり,価格を交渉したり,問題解決や合意形成において議論は欠かせないものである.近年,自然言語処理の分野では,特に作文や意見文といった独話的な論述文を対象とし,議論の解析を行う議論マイニング(ArgumentMining)が進展を遂げてきた\cite{cabrio2018five,Lawrence2019tutorial}.議論マイニングにおける知見やシステムは,人々の意見の集約\cite{stab-etal-2018-cross,reimers-etal-2019-classification}や,議論の質の自動評価・フィードバック\cite{Stab2016a,Wachsmuth2017b,reisert2019}などへ応用が期待されている.議論マイニングにおける中心的なゴールとして,論述文における談話構造の解析(以降,{\bf論述構造解析})が挙げられる.本研究では,論述構造解析のためのベンチマークデータセット\cite{Peldszus2016,stab2017}上で,高性能な論述構造解析モデルの開発を行う.論述構造解析モデルは,与えられた論述文について,談話単位間の論述関係とその種類(\textsc{Support}や\textsc{Attack}),談話単位の機能(\textsc{Premise}や\textsc{Claim},\textsc{MajorClaim})などの構造を予測する.図~\ref{fig:intro}に論述文とその論述構造の例を示す.この例では,{\itInaddition,Ibelievethatcityprovidesmoreworkopportunitiesthanthecountryside.}という主張(談話単位1)について,主張を支持する言及(談話単位2)や,主張と対立する意見(談話単位3)などが述べられている.論述構造はグラフで表現され\cite{Peldszus2015,stab2017},グラフの頂点は談話単位を,グラフの辺は談話単位間の論述関係を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-4ia2f1.eps}\end{center}\hangcaption{論述文とその構造の例.グラフ中の各頂点は談話単位に,各辺は論述関係に対応する.談話単位の下に記しているラベルは談話単位の種類を,辺の上に記しているラベルは論述関係の種類を示す.また,談話単位中の下線付き部分は接続表現に,それ以外の部分は命題に対応する.}\label{fig:intro}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%談話単位のように一単語以上からなる意味的関連のあるまとまりを{\bfスパン}と呼ぶ.論述構造解析は論述文中の談話単位スパンの役割を解析するタスクであるため,スパンに対する特徴ベクトル(スパン分散表現)をどのように計算するかはモデル設計において重要な点である.論述構造解析における既存研究\cite{Potash2016}では,ニューラルネットワークベースのスパン分散表現を用いることで,高い解析性能が実現されてきた.同様に,統語解析や意味解析などの自然言語処理における他タスクにおいても,ニューラルネットワークベースのスパン分散表現は注目を集めており,より効果的なスパン分散表現抽出方法について知見が得られてきた\cite{wang:16,stern:17,P18-2058,D18-1191}.これらの知見と論述文特有の言語的性質を踏まえ,本研究では論述構造解析において効果的なスパン分散表現抽出方法の提案を行う.談話単位の機能や役割は文脈に大きく依存するため,各談話単位のスパン分散表現に論述の文脈情報をうまく取り入れることが解析精度向上の鍵である\cite{Nguyen2016,Lawrence2019tutorial}.論述構造を予測する上で,重要となる文脈情報は大きく二つあると考える.一つは,ある談話単位の周辺にどのような論述関係が存在するかという高次の情報であり,文章中の接続表現の配置からある程度推測することができる.例えば,``ofcourse''$\xrightarrow{}$``but''といった接続表現の系列からは,一旦譲歩した上で反論し返すという\textsc{Attack}関係の連鎖など,典型的な部分構造が捉えられる(図~\ref{fig:intro}中,談話単位3と4).もう一つは,談話単位間の語彙的な結束の強さや話題の変化である.近い話題について議論している談話単位同士は,論述関係を共有している可能性が高いと考える.例えば,図~\ref{fig:intro}中,談話単位1と2では``morework''$\xrightarrow{}$``morejobs''という非常に意味の近い内容語が含まれており,これらの談話単位間の関係は支持の関係で結ばれている.そこで本研究では,各談話単位を機能的な表現(接続表現)と内容(命題)に分解し(図~\ref{fig:intro}中,下線付き部分と下線なし部分),談話単位,接続表現,命題という様々な観点における文脈情報を考慮しながら,談話単位のスパン分散表現を獲得する(\ref{sec:model}節).接続表現の系列は論述のテーマ非依存な文章の型に関する手がかりであるのに対し,命題は論述のテーマに大きく依存した内容であるなど,両者が異なる性質を持つことも,接続表現と命題を区別して扱う動機の一つである.実験から,本研究で提案したスパン分散表現獲得方法を用いることで解析性能が向上することを示す.また,BERTなどの強力な言語モデルから得られる単語分散表現を用いた際にも,既存のスパン分散表現獲得方法をただ適用しただけでは十分な性能が得られないが,本研究で提案したスパン表現獲得法を用いることで,大幅な性能向上が得られることを示す.分析から,特に複雑な構造をもつ論述文において,スパン表現の工夫による性能向上が得られることが分かった.本研究の貢献は以下の通りである.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item論述構造解析において,言語処理における他タスクで有効とされていたスパン分散表現と,本タスクのために拡張したスパン分散表現の有効性を調査した.\item実験結果から,既存のスパン分散表現,およびスパン分散表現の拡張が本タスクにおいて有効であることを示し,複数のベンチマークデータで最高性能を達成した.\item分析から,複雑な論述構造(深いグラフ)を持つ文章において,特に我々のスパン分散表現の獲得方法が有効であることが分かった.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
\label{sec:rwork}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{論述構造解析.}論述構造解析は,論述文から議論の構造を抽出するタスクである.議論学の知見\cite{toulmin1958uses,freeman2011dialectics}に基づき,論述構造アノテーションの仕様検討から,論述構造解析モデルの開発に至るまで様々な研究が行われてきた\cite{reed2006preliminary,mochales2011argumentation,Peldszus2013,Peldszus2015,Peldszus2016,Stab2014a,stab2017,Niculae2017,Potash2016,Eger2017,habernal2017argumentation}.また近年は,論述構造を考慮したエッセイスコアリングや論述文の評価も注目を集めている\cite{ke2018learning,nguyen2018}.近年,論述構造解析のための比較的高品質なデータセット\cite{stab2017,Peldszus2016}が公開され,これらのベンチマークデータセットの上で,論述構造解析のための様々なモデルが提案されてきた.論述構造解析モデルの設計は,(i)人手で設計された素性に基づくモデル\cite{Peldszus2015,stab2017,afantenos2018comparing}と,(ii)ニューラルネットベースのモデル\cite{Potash2016,Eger2017}に分けられる.人手による素性に基づくモデルでは,論述文の言語的な性質を踏まえ,解析精度向上のため論述文や談話に関連した素性が設計されてきた.これらの研究では,論述関係を予測する際に広い文脈を考慮する重要性や,周辺文脈に出現する接続表現が手がかりとなることが報告されてきた.一方,ニューラルネットベースのモデルでは,言語的に動機付けされた素性はほとんど用いられていないものの,高性能な解析が実現されてきた.したがって,それぞれのアプローチで得られた知見が,もう一方のアプローチでは活かされてこなかった.本研究では,素性ベースの研究で得られた知見に着目し,ニューラルベースのモデルに論述文の性質を考慮した改良を加えることで,両アプローチにおけるこれまでの知見を統合し,解析性能の向上を図る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{談話構造解析.}論述構造解析と関連の強いタスクとして,修辞構造理論\cite{mann1987rhetorical}{\kern0.5em}に基づく談話構造解析や,{\kern0.25em}PennDiscourseTreeBank(PDTB)\cite{prasad2008penn}スタイルの談話関係認識があげられる.修辞構造理論やPDTBスタイルの談話解析では一般的なドメインの談話を解析対象とし,談話単位間で生じている原因,結果,対比,並列などの関係を予測する.一方,論述構造解析では論述的・説得的な文章に焦点が当たり,相手を説得するという目標における談話単位の機能(根拠・主張)や談話単位間の関係(支持・反論)を予測する.修辞構造理論や論述構造といった,異なる談話構造アノテーション間の対照的な性質についても,近年分析が行われている.既存研究\cite{stede2016parallel}では,同じテキストに論述構造,修辞構造理論に基づく談話構造など複数の談話構造を重ねて付与し,付与された辺(どの談話単位間に関係があるか)全体のうち,両構造で重複する辺は高々60\%程度であるなどの報告があり,既存の談話解析タスクとの性質の違いが示唆されている.また,PDTBスタイルの談話関係認識は,二つの談話単位が与えられ談話単位間の関係の種類を予測するタスクであるのに対し,論述構造解析や修辞構造理論に基づく談話構造解析では,2つ以上の談話単位が与えられ,どの単位間に関係が存在するかも予測する点でタスク設定が異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{接続表現と命題.}人手による素性設計を行った論述構造解析の研究\cite{stab2017}では,典型的な接続表現のリストを作成し,各談話単位の周辺文脈に存在する接続表現を素性として用いることで,有意な精度向上を実現している.例えば,ある談話単位が{\itTherefore,}で始まる場合,その談話単位は結論であると考えられる上に,その直前の談話単位は根拠である可能性が高い.接続表現は,一般的な談話構造解析\cite{mann1987rhetorical,prasad2008penn}でも,非常に有用な手がかりとされている\cite{marcu2000theory,braud2016learning}.接続表現の活用は,談話構造解析の枠を超え,文の表現学習などの分野でも注目を集めている\cite{sileo2019mining,pan2018discourse}.また,テクスト言語学の文脈\cite{de1981introduction,halliday2014cohesion}では,節や文の繋がりについて,結束性(cohesion)・一貫性(coherence)という二つの観点から論じられてきた.結束性は文章の表層に現れる繋がりを指し,接続詞・指示代名詞などによって実現される文法的結束性と,同じ語の繰り返しなどで実現される語彙的結束性に更に分類される.また,一貫性は節・文間の意味的な繋がり(出費が多い$\rightarrow$収入が必要など)を指す.ニューラルネットワーク内部で接続詞と命題を区別して文章の流れを捉える本研究の試みは,文章の文法的結束性(接続表現がどう配置されているか)と,語彙的結束性・一貫性(命題の語彙・意味的な繋がり)の観点それぞれに特化した機構を,ネットワーク構造に導入する試みと考えることもできる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{スパン分散表現.}統語解析\cite{wang:16,stern:17,kitaev:18},意味役割付与\cite{P18-2058,D18-1191},共参照解析\cite{lee:17,lee:18},談話解析\cite{Li16}などの言語処理諸タスクにおいて,スパン分散表現の設計は大きな注目を得ている.ここで,スパンとは複数の単語からなる言語単位(句やフレーズなど)を指す.近年,{\bfLSTM-minus}と呼ばれるスパン特徴表現抽出方法が提案され\cite{wang:16},様々なタスクで適用されている.この手法では,スパン$(i,j)$に対してスパン両端のトークンに対応するBiLSTMの隠れ層の差(${\bfh}_j-{\bfh}_{i-1}$)を用い,文脈情報を取り入れたスパン分散表現を計算する.論述文中の談話単位の解釈において文脈情報は重要であり\cite{Nguyen2016,Lawrence2019tutorial},例えば,「りんごには栄養がある」という発話の機能は,「毎朝りんごを食べるべきだ」に続く発話であれば,主張を支持していることになるが,「果物は体に悪い」に対する発話であれば反論になる.本研究でも,文脈を考慮したスパン分散表現獲得法であるLSTM-minusをベースとし,より効果的なスパン分散表現について研究を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{モデル}
\label{sec:model}論述構造解析モデルの概要,及び提案手法について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデルの概要}\label{subsec:orv}論述構造解析は,(i)論述単位分割,(ii)論述関係認識,(iii)論述関係タイプ分類,(iv)論述単位タイプ分類の4つのサブタスクによって構成される.既存研究\cite{Potash2016,Niculae2017,Peldszus2015}に従い,本研究では論述単位は分割済みであると仮定する.論述構造解析モデルは論述文を入力とし,各論述単位のスパン分散表現を計算する(\ref{subsec:segment},\ref{subsec:span},\ref{subsec:dist_ac_ce}節).その後,各論述単位間の論述関係の有無,各論述関係のタイプ分類,各論述単位のタイプ分類を行う(\ref{sec:layer:output}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{スパンの種類}\label{subsec:segment}論述文は$T$個の単語$w_{1:T}=(w_1,w_2,\cdots,w_T)$で構成され,$K$個の論述単位スパン$S^\text{ADU}_{1:K}=(s_1^\text{ADU},s_2^\text{ADU},\cdots,s_K^\text{ADU})$をもつ.ここでスパン$s^\text{ADU}_k$は,単語インデックス$i_k$,$j_k$を用いて$(i_k,j_k)$と表す($1\leqi_k\leqj_k\leqT$).本研究では,各論述単位$s^\text{ADU}_k$をさらに接続表現$s^\text{AM}_k$と命題$s^\text{AC}_k$に分解する.本研究で扱う英語の論述文では,接続表現は論述単位の先頭に存在し,命題は論述単位中の接続表現より後ろとする(図~\ref{fig:connective}下).すなわち,各論述単位$s^\text{ADU}_k=(i_k,j_k)$は,単語インデックス$\ell_k$($i_k\leq\ell_k<j_k$)を用いて,接続表現$s^\text{AM}_k=(i_k,\ell_k)$と命題$s^\text{AC}_k=(\ell_k+1,j_k)$に分割できる\footnote{接続表現が存在しない論述単位の扱いなどについては,\ref{sec:exp}節を参照.}.論述文中に論述単位が$K$個存在する場合,接続表現および命題も$K$個ずつ存在する.以降,論述単位を{\bfADU}(argumentativediscourseunit),命題を{\bfAC}(argumentcomponent),接続表現を{\bfAM}(argumentativemarker)と表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-4ia2f2.eps}\end{center}\hangcaption{論述文の例と,接続表現と命題の区別をする/しないモデルの概要.ADUは論述単位,AMは接続表現,ACは命題を指す.}\label{fig:connective}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{LSTM-minusに基づくスパン分散表現}\label{subsec:span}はじめに,言語処理他タスクで有効なスパン分散表現であるLSTM-minus\cite{wang:16}に基づく,論述構造解析モデルを設計する(図~\ref{fig:connective}左).本モデルでは,ACとAMを区別せず,ADUを一つのスパンとして扱う.ADUスパン$s^\text{ADU}_k=(i_k,j_k)$のスパン分散表現${\bfh}^\text{ADU}_k$を以下のように得る.\begin{align}\nonumber{\bfw}_{1:T}&=f^\text{emb}(w_{1:T})\:\:,\\\nonumber{\bfh}_{1:T}&=\text{BiLSTM}({\bfw}_{1:T})\:\:,\\\nonumber{\bfh}^\text{ADU}_k&=[\overrightarrow{{\bfh}}_{j_k}-\overrightarrow{{\bfh}}_{i_k-1};\overleftarrow{{\bfh}}_{i_k}-\overleftarrow{{\bfh}}_{j_k+1};\overrightarrow{{\bfh}}_{i_k-1};\overleftarrow{{\bfh}}_{j_k+1};\phi(w_{i_k:j_k})]\:\:.\end{align}ここで,単語埋め込み層$f^\text{emb}$は,入力系列$w_{1:T}$を単語分散表現の系列${\bfw}_{1:T}$に変換する.BiLSTMレイヤは${\bfw}_{1:T}$を入力とし,隠れ層の系列${\bfh}_{1:T}$を出力する.${\bfh}_{1:T}$から,各ADUスパン$s^\text{ADU}_k$についてLSTM-minusベースのスパン分散表現${\bfh}^\text{ADU}_k$を計算する.なお,既存研究\cite{Potash2016}に従い,各スパン分散表現に特徴ベクトル$\phi(w_{i:j})$を追加している\footnote{詳細は付録に記載.}.本スパン分散表現を用いたモデルを{\bfLSTMモデル}と呼ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{接続表現と命題を区別したスパン分散表現}\label{subsec:dist_ac_ce}LSTM-minusに基づくスパン分散表現の拡張として,AMとACを区別したスパン分散表現を用いる(図~\ref{fig:connective}右).ACは論述の論理的な筋を構成する考えや事実,AMは{\itHowever}などの論の流れを汲み取る上で標識となる接続表現に対応する.ACの内容は論述のテーマに依存するのに対し,AMは論述のテーマに非依存であるなど,ACとAMは異なる性質を持つ.各論述単位$s^\text{ADU}_k$を接続表現$s^\text{AM}_k$と命題$s^\text{AC}_k$に分解する.LSTMスパンモデルと同様に,各AMスパン$s^\text{AM}_k$をスパン分散表現${\bfh}^\text{AM}_k$に,各ACスパン$s^\text{AC}_k$をスパン分散表現${\bfh}^\text{AC}_k$にエンコードする.$K$個のAM/ACスパン分散表現の系列をそれぞれ,$H^\text{AM}_{1:K}=({\bfh}^\text{AM}_1,{\bfh}^\text{AM}_2,\cdots,{\bfh}^\text{AM}_K)$,$H^\text{AC}_{1:K}=({\bfh}^\text{AC}_1,{\bfh}^\text{AC}_2,\cdots,{\bfh}^\text{AC}_K)$と表す.$H^\text{AM}_{1:K}$と$H^\text{AC}_{1:K}$について,異なるBiLSTMを用いてそれぞれ文脈情報を取り入れる.\begin{align}\nonumberH_{1:K}^\text{AM\_ctx}&=\text{BiLSTM}^\text{AM}(H^\text{AM}_{1:K})\:\:,\\\nonumberH_{1:K}^\text{AC\_ctx}&=\text{BiLSTM}^\text{AC}(H^\text{AC}_{1:K})\:\:.\end{align}ここで$H_{1:M}^\text{AM\_ctx}=({\bfh}_1^\text{AM\_ctx},{\bfh}_2^\text{AM\_ctx},\cdots,{\bfh}_K^\text{AM\_ctx})$と$H_{1:K}^\text{AC\_ctx}=({\bfh}_1^\text{AC\_ctx},{\bfh}_2^\text{AC\_ctx},\cdots,{\bfh}_K^\text{AC\_ctx})$は,それぞれ文脈情報を取り込んだ$K$個のAM/ACスパン分散表現の系列を表す.AMとACを別々に処理することで,複数の観点における論の大域的な流れを捉える.例えば,直前の談話単位が譲歩({\itofcourse...})をしていた場合,その直後の談話単位では譲歩の内容に反論し返す(\textsc{Attack}関係をもつ)のが自然である.譲歩している節では対立する見解が述べられていると考えられ,自分の主張にとって不利な見解には直ちに反論しなければ,論述文の説得力が低下する恐れがあるからだ.このような特徴量は$\text{BiLSTM}^\text{AM}$によって捉える.また,一つのテーマについて論じられている文章であっても,しばしば論述の中では様々な論点が挙げられ,テーマに対して多角的に批判・分析が行われる.近い話題について議論している談話単位同士は,論述関係を共有している可能性が高いと考える.このような話題,結束性の変化は$\text{BiLSTM}^\text{AC}$によって捉える.各ADUスパン$s^\text{ADU}_k$を,${\bfh}_k^\text{AM\_ctx}$と${\bfh}_k^\text{AC\_ctx}$,LSTMモデルと同様の特徴ベクトル$\phi(w_{i_k:j_k})$を用いて以下のように表す.\[{\bfh}^\text{ADU\_dist}_k=[{\bfh}_k^\text{AM\_ctx};{\bfh}_k^\text{AC\_ctx};\phi(w_{i_k:j_k})]\:\:.\]本スパン分散表現を用いたモデルを{\bfLSTM+distモデル}と呼ぶ.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{出力層}\label{sec:layer:output}以降はLSTMモデル,LSTM+distモデルで共通のレイヤとなる.\ref{subsec:span}節または\ref{subsec:dist_ac_ce}節で得られた,ADUスパン$s^\text{ADU}_k$に対する分散表現を${\bfh}^\text{ADU}_k$と表記し\footnote{LSTMモデルの場合,\ref{subsec:span}節における${\bfh}^\text{ADU}_k$,LSTM+distモデルの場合,\ref{subsec:dist_ac_ce}節における${\bfh}^\text{ADU\_dist}_k$に対応する.},$K$個のスパン分散表現の系列を$H^\text{ADU}_{1:K}=({\bfh}^\text{ADU}_1,{\bfh}^\text{ADU}_2,\cdots,{\bfh}^\text{ADU}_K)$とする.$H^\text{ADU}_{1:K}$をBiLSTMに入力し,ADUのレベルでスパン分散表現に文脈情報を取り入れる.\begin{align}\label{eq:LSTM_ADU}H_{1:K}^\text{ADU\_ctx}=\text{BiLSTM}(H_{1:K}^\text{ADU})\:\:.\end{align}LSTMモデルとLSTM+distモデルを平等に比較するため,LSTM+distモデルでは,式~\ref{eq:LSTM_ADU}におけるBiLSTMの層数を減らし,LSTMモデルとパラメータ数を揃えている.得られたADUスパン分散表現$H_{1:K}^\text{ADU\_ctx}=({\bfh}^\text{ADU\_ctx}_1,{\bfh}^\text{ADU\_ctx}_2,\cdots,{\bfh}^\text{ADU\_ctx}_K)$をもとに,それぞれのサブタスクにおけるクラスの確率分布を求める.サブタスクは,(i)論述関係認識,(ii)論述関係タイプの分類,(iii)論述単位のタイプの分類の3つである.いずれのタスクも,各ADUに対する多クラス分類問題として定義される.以降簡略化のため,論述単位$s^\text{ADU}_{k}$のスパン分散表現${\bfh}^\text{ADU\_ctx}_k$を${\bfh}_k$と表記する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{論述関係認識.}論述関係認識レイヤでは,スパン$s^\text{ADU}_m$がスパン$s^\text{ADU}_n$に対して有向辺を張る確率を以下のように計算する.\begin{align}\nonumber\text{score}^\text{link}_{m,n}&={\bfw}^\text{link}\cdot[{\bfh}_m;{\bfh}_n;{\bfh}_m\odot{\bfh}_n;\phi(m,n)]\:\:,\\\nonumber\text{P}(n|s^\text{ADU}_m)&=\frac{\text{exp}(\text{score}^\text{link}_{m,n})}{\sum^K_{n'=1}\text{exp}(\text{score}^\text{link}_{m,n'})}\:\:,\end{align}ここで${\bfw}^\text{link}$は学習対象となるパラメータである.$\phi(m,n)$は,$m$番目のスパンと$n$番目のスパンの間の相対的な距離を示すone-hotvectorである.本研究で扱うデータセットでは,論述構造は木構造として付与されており,出力に木の制約を課すため,各ADU間に有向辺が貼られる確率$\text{P}(n|m)$をもとに,Chu-Liu/Edmondsアルゴリズムを用いてデコードした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{論述関係タイプの分類.}スパン$s^\text{ADU}_o$が論述関係タイプ$r$に分類される確率を,スパン分散表現${\bfh}_o$をもとに以下のように計算する.\begin{align}\label{eq:classification}\text{score}^\text{link-type}_{o,r}&={\bfw}^\text{link-type}_r\cdot{\bfh}_o+b^\text{link-type}_r\:\:,\\\label{eq:softmax}\text{P}(r|s^\text{ADU}_o)&=\frac{\text{exp}(\text{score}^\text{link-type}_{o,r})}{\sum_{r'\in\mathcal{R}}\text{exp}(\text{score}^\text{link-type}_{o,r'})}\:\:,\end{align}ここで,${\bfw}^\text{link-type}_r$,$b^\text{link-type}_r$は学習対象となるパラメータである.また,$\mathcal{R}=\{\text{\textsc{Support}},\text{\textsc{Attack}}\}$である.既存研究に従い,各ADUスパンを係り元とする論述関係のタイプの分類という形で各ADUスパン分散表現をもとに予測を行う.また,本研究で用いるデータセットの一つであるPersuasiveessaycorpus(PEC)\cite{stab2017}では,\textsc{Claim}に筆者と同じ立場か異なる立場かというスタンスのラベルが付与されている.既存研究に従い,PECでは本スタンスの分類も論述関係タイプ分類問題として扱う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{論述単位タイプの分類.}式\ref{eq:classification},\ref{eq:softmax}と同様に,パラメータ${\bfw}^\text{ac-type}_r$,$b^\text{ac-type}_r$を用いて,スパン$o$が論述単位タイプに分類される確率$\text{P}(r|s^\text{ADU}_o)$を,スパン分散表現${\bfh}_o$をもとに求める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習}\label{sec:train}以下の訓練データセット$\mathcal{D}$を用いる.\begin{align*}\mathcal{D}&=\{(X,Y^\text{link},Y^\text{link-type},Y^\text{ac-type})_d\}_{d=1}^{|\mathcal{D}|}\:\:,\\X&=\{w_{1:T},S^{\text{ADU}}_{1:K},S^{\text{AM}}_{1:K},S^{\text{AC}}_{1:K}\}\:\:,\\Y^\text{link}&=\{h_1,\cdots,h_K\}\:\:,\\Y^\text{link-type}&=\{t_1,\cdots,t_K\}\:\:,\\Y^\text{ac-type}&=\{r_1,\cdots,r_K\}\end{align*}ここで,$h_k\in\{\texttt{root},1,2,\cdots,K\}$,$t_k\in\{\text{\textsc{Support}},\text{\textsc{Attack}}\}$,$r_k\in\{\text{\textsc{MajorClaim}},\text{\textsc{Claim}},\linebreak\text{\textsc{Premise}}\}$\footnote{microtextcorpus\cite{Peldszus2016}では,\textsc{MajorClaim}クラスは存在しない.}である.マルチタスク学習が有効であるという既存研究\cite{Potash2016,stab2017}の知見に従い,本研究ではこれら3つのサブタスクをマルチタスクで解く.以下の式より,モデルパラメータ$\hat{\theta}$を得る.\begin{align}\nonumber\hat{\theta}&=\argmin_\theta\mathcal{L}(\theta)\:\:,\\\nonumber\mathcal{L}(\theta)&=\:\:\:\:\:-\smashoperator{\sum_{(X,Y^\text{link},Y^\text{link-type},Y^\text{ac-type})\in\mathcal{D}}}\bigr(\alpha\:\ell^\text{link}_\theta(X,Y^\text{link})+\beta\:\ell^\text{link-type}_\theta(X,Y^\text{link-type})+(1-\alpha-\beta)\:\ell^\text{ac-type}_\theta(X,Y^\text{ac-type})\bigr),\end{align}ここで,$\alpha$と$\beta$は各サブタスクに対応する損失関数の重みを決める係数であり,人手により決定するハイパーパラメータである.ただし,$\alpha\geq0$,$\beta\geq0$,$\alpha+\beta\leq1$とする.また,各サブタスクの損失関数は以下のように表される.\begin{align}\nonumber\ell^\text{link}_\theta(X,Y^\text{link})&=\sum_{k\in\{1,2,\cdots,K\}}\text{log}\text{P}_\theta(h_k|s_k^\text{ADU})\:\:,\\\nonumber\ell^\text{link-type}_\theta(X,Y^\text{link-type})&=\sum_{k\in\{1,2,\cdots,K\}}\text{log}\text{P}_\theta(t_k|s_k^\text{ADU})\:\:,\\\nonumber\ell^\text{ac-type}_\theta(X,Y^\text{ac-type})&=\sum_{k\in\{1,2,\cdots,K\}}\text{log}\text{P}_\theta(r_k|s_k^\text{ADU})\:\:.\end{align}学習時のハイパーパラメータは,付録表~\ref{tbl:hyperparam}に記載する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験}
\label{sec:exp}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{subsec:exp_setting}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{データセット.}本研究では,Persuasiveessaycorpus(PEC)\cite{stab2017}と,arg-microtextcorpus(MTC)\cite{Peldszus2016}の2つのベンチマークデータセットを用いる.PECはオンラインフォーラム\footnote{\url{https://essayforum.com/}}に投稿された402作文(1,833段落)からなる.PECにおける論述構造は各段落内に閉じているため,既存研究に従い,各段落を入力としてタスクを解いた.データセット作成者\cite{stab2017}が定めた訓練/評価データの分割を用い,学習データから無作為に選ばれた10\%のデータを開発データとした.また,既存研究\cite{Potash2016}に従い,PECにおけるスコアについては,異なるシードを用いて行った3回の試行の平均を報告した.MTCは,様々な年齢や教育課程のドイツ語話者によって書かれた112テキストを,英語に翻訳したもので構成される\cite{Peldszus2016}.本データセットは規模が小さいため,既存研究\cite{Peldszus2015}の分割に従い,5分割交差検証を分割の仕方を変えて10回行った際の平均スコアを報告する.表~\ref{tab:corpus}にPECとMTCの統計を示す.PECはMTCのおよそ10倍大きいデータセットである.表中の論述構造の深さは,それぞれの段落における論述構造の深さの平均値であり,ルートオブジェクトは深さの計算に含めていない.例えば\textsc{Claim}とそれに直接掛かる\textsc{Premise}のみが存在する場合は,段落の深さは1とする.また,PECにおける導入の段落など論述関係が存在しない段落は計算から外した.MTCの方が比較的深い構造を有しているが,これは,MTCデータの収集時に「なるべく反論を含めること」など論述構造が複雑になる方向の指示がされていることが原因であると考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{PECとMTCの統計}\label{tab:corpus}\input{02table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{接続表現の抽出.}PECとMTCで付与されているスパンが異なる.PECでは,ACスパンは付与されているものの,AMスパンは付与されていない.本研究では,ルールに基づいてAMスパンを抽出した.各ACが属する文のうち,ACに先行する部分をAMスパンとする.ただし,AMスパンは他のACスパンと重ならない.また,AMにおいて主節・従属節の区別を明確にするため,AMスパンに前の文の終了記号(i.e.,{\it.},{\it!},and{\it?})やテキストの始まりを示す特殊記号を含めた.例として,以下の二つの文における節BのAMを考える.\eenumsentence[1]{\item{\itA.{\bfBecause}B,C.}\item{\itA{\bfbecause}B.C.}}例(1)-aにおいてBはCの従属節であり,例(1)-bにおいてBはAの従属節である.節BのAMを,例(1)-aでは``{\it.Because}'',例(1)-bでは``{\itbecause}''として抽出した.ADUがAMを持たない場合は,前の文の終了記号やテキストの始まりを示す特殊記号のみがAMとなる.PECデータセットでは,63\%のADUが終了記号以外の単語を含むAMを持っていた.ACと対応するAMを合わせて,ADUスパンとした.MTCでは,ADUが付与されており,ACとAMの区別はついていない.そこで,PECで同定したAMとPennDiscourseTreeBank(PDTB)\cite{prasad2008penn}における談話標識のリストをもとにAMのリストを作成し,各ADUからAMを抽出した\footnote{AMリスト作成段階では,前の文の終了記号(i.e.,{\it.},{\it!},and{\it?})やテキストの始まりを示す特殊記号は含めず,ADUからAMを抽出する段階で,それらの記号をAMスパンの一部として追加した.}(表~\ref{tab:AM}).AMのリストには1,131の表現(平均5.38トークン)が含まれ,うちPDTBから収集した表現が173種類,PECから収集した表現が958種類である.各ADUについて,AMリスト中に存在する表現がADUの先頭に存在する場合,最長一致するフレーズをそのADUのAMとした.ADU中のAM以外の箇所はACとした.MTC中のADUのうち,およそ48\%にAMが付与された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{接続表現の例}\label{tab:AM}\input{02table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%AMが文頭以外に出現した場合({\itOthers,{\bfhowever},thinkthatthesechildrenmaydisrupttheirschoolworkandshouldbeallowedtoleaveschoolearlytofindajob.}),AMとACを区別するとACが複数のスパンに分かれてしまう.従ってこのようなケースでは,AMに対応する表現は存在しないとみなした.AMがADUの途中に挿入される事例は稀であり,例えば``{\it,however,}''が存在するADUは,PEC中の全ADUのうち1\%程度である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{接続表現の同定性能}\label{tab:am_eval}\input{02table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%MTC上で,本アプローチによるAMの同定性能を調べた.MTCからランダムに抽出した100個のADUについて,人手でAMスパンのアノテーションを行い,本アプローチによるAMの抽出結果を評価した(表~\ref{tab:am_eval}).表中のスコア\footnote{\url{https://github.com/davidsbatista/NER-Evaluation}によって,exactスコアを求めた.}は,AMスパンの完全一致を正解とみなして計算している.抽出された結果を観察すると,``but''などの典型的なAMは概ね抽出できているものの,例えば``Thiswouldmeanthat''などの長い表現については抽出漏れが目立ち,改善の余地があった.実験では,本アプローチで同定したAMの情報を活用し,MTC上で性能が向上していることから,ある程度妥当な同定が実現できていると解釈している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{単語表現.}単語表現の獲得手段として,GloVe\cite{pennington:14},ELMo\cite{peters:18},BERT\cite{devlin2019bert},RoBERTa\cite{liu2019roberta},XLNET\cite{yang2019xlnet}を用いた.ELMoを用いた実験では,1層目から3層目の表現の平均\footnote{事前実験において,重みつき和をとるよりも平均をとった方が性能が高かった.}を用いた.BERT,RoBERTa,XLNETを用いた単語表現については,Transformers\cite{wolf2019transformers}で公開されている事前学習済みモデル\footnote{bert-large-cased,roberta-large,xlnet-large-casedを使用した.}に文章を入力し,各トークンに対応する中間表現を獲得した.各層から獲得した中間表現の重みつき和を対応するトークンの表現とし,重みはタスク依存で学習した.トークンが複数のサブワードに分割される場合は,それらのサブワードに対応する表現の平均をトークンの表現とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベースライン.}既存の論述構造解析モデル\cite{Potash2016}で活用されているスパン分散表現を用い,LSTM-Minusに基づくスパン分散表現と比較した.Potashらのスパン分散表現では,スパン中の単語ベクトルの平均などが用いられており,以降このスパン分散表現を用いたモデルを{\bfBoWモデル}(Bag-of-Words)と呼ぶ.詳細な実装は付録に記載する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}\label{sec:result}既存研究に従い,3タスクそれぞれにおけるF1スコアと,モデルの総合的な性能として3タスクのF1スコアの平均を報告する.各タスクのMacroF1スコアについて,ブートストラップ法\cite{W04-3250}で検定を行った\cite{dror2018hitchhiker}.表~\ref{Table:span_pec}にPEC上での実験結果を,表~\ref{Table:span_mtc}にMTC上での実験結果を示す.結果から,(i)BoWモデルに比べて,LSTMモデルの方が良い性能を示していること,(ii)ACとAMの区別を行うモデル(LSTM+dist)が,区別を行わないモデル(LSTM)よりも良い性能を示していること,(iii)これらの傾向は,異なるデータセット,異なる単語表現を用いた場合も概ね一貫していることがわかる.XLNETやRoBERTaを用いた実験結果においてもベースライン(BoW)の性能が低いことから,強力な言語モデルから得られた単語表現を活用するだけでは十分な性能は引き出せず,これらの単語表現を用いてどのようにスパン分散表現を獲得するかが更なる精度向上の鍵であると分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{PEC上でのLSTM+dist,LSTM,BoWモデルの性能比較}\label{Table:span_pec}\input{02table04.tex}\vspace{4pt}\smallMCは\textsc{MajorClaim}の略である.$\dagger$がついているLSTMモデルの結果は,BoWモデルの結果と統計的に有意に差がある($p<0.05$)ことを示す.$\ddagger$がついているLSTM+distモデルの結果は,LSTMモデルの結果と統計的に有意に差がある($p<0.05$)ことを示す.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{MTC上でのLSTM+dist,LSTM,BoWモデルの性能比較}\label{Table:span_mtc}\input{02table05.tex}\vspace{4pt}\small$\dagger$がついているLSTMモデルの結果は,BoWモデルの結果と統計的に有意に差がある($p<0.05$)ことを示す.$\ddagger$がついているLSTM+distモデルの結果は,LSTMモデルの結果と統計的に有意に差がある($p<0.05$)ことを示す.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%LSTM-minusベースのスパン分散表現を用いたことによる性能向上(LSTM$>$BoW)は特にPEC上で顕著である(表~\ref{Table:span_pec}).MTC上では性能向上の傾向が比較的小さいが(表~\ref{Table:span_mtc}),MTCが小規模なデータセットであるため,LSTM-minusスパン分散表現の抽出に用いるパラメータを十分に学習できなかったことなどが原因として考えられる.また,ACとAMの区別による性能向上(LSTM+dist$>$LSTM)は,特にMTC上で大きい(表~\ref{Table:span_mtc}).MTCデータセットは,PECに比べて\textsc{Support}に対する\textsc{Attack}関係の比率が高いことから,対立意見を踏まえて譲歩し,反論し返すなどの複雑な構造を持つ文章が多いことが考えられる.AC・AMごとの流れ(例えば,{\itofcourse}$\rightarrow${\itbut}などの接続表現の系列)を追うことにより,このような複雑な文章においても頑健に解析できたのではないかと考える.また,PECデータセットは非常に多様なトピックに関する作文で構成されるのに対し,MTCデータセットには同じトピックに関する論述が複数含まれている.そのためMTCでは,トピックの影響が大きいACのレベルにおいても,同一トピックの他の論述文から学習したパターンを,新たな論述の解析に転用しやすかった可能性が考えられる.例えば模擬試験における作文の自動評価への論述構造解析の応用などを考えると,特定のテーマに関する論述文が複数存在するMTCの状況は自然である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{PECにおける既存研究との性能比較}\label{Table:comp_PEC}\input{02table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\caption{MTCにおける既存研究との性能比較}\label{Table:comp_PEC2}\input{02table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%LSTM+distモデルと既存研究における結果との比較を表~\ref{Table:comp_PEC}と表~\ref{Table:comp_PEC2}に示す.スパン分散表現の工夫と最先端のモデルから得られた単語表現を組み合わせることで,PECにおいて論述関係認識におけるLink有りクラスのF1値を10ポイント近く向上させる(60.8$\rightarrow$70.3)など,解析性能を大きく更新した.強力な言語モデルによる単語ベクトルを用いた場合も,BoW(XLNET)とPotash+2017の比較から,スパン表現の獲得方法次第では既存のモデルと大きく変わらない性能を示すことが分かり,LSTM+dist(XLNET)とBoW(XLNET)の比較から,提案法によるスパン表現によって性能が大きく向上することが分かる.また,スパン分散表現獲得法により談話レベルの文脈を積極的に取り入れることで,論述構造解析における性能が大きく向上することから,単語の穴埋めや次の文の予測といった言語モデルの目的関数によって得られた単語分散表現そのものには,周囲の論の流れといった談話的な文脈情報は十分に含まれていない可能性があることも示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{分析}
\label{sec:analysis}論述構造解析において主要に取り組まれてきた論述関係認識・分類タスクに着目し,予測の難しいインスタンスや既存のモデルとの出力傾向の違いについて分析する.本分析では,比較的規模の大きいPECの開発データを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-4ia2f3.eps}\end{center}\caption{深さごとの論述関係認識タスクにおける精度}\label{fig:ana:depth:result}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{論述構造の深さ}既存研究\cite{stab2017}では,論述構造解析モデルが正解の木よりも浅い木を予測しがちであることが指摘されていた.この指摘を踏まえ,木の深さと予測性能の観点から,既存のモデルと本研究における提案モデルを比較する.図~\ref{fig:ana:depth:result}に,ルートオブジェクトの認識精度(深さ0),深さ1のADUから出る関係の認識精度,深さ2以上のADUから出る関係の認識精度を示す.各数値は正しい親を当てることができたかの正解率を示す.全体的な傾向として,正解の構造において深い位置にある論述関係ほど,予測が難しいことが分かる.深さ2以上の関係の予測精度に着目すると,既存のモデル(Potash+2017)の予測精度は大きく低下しているのに対し,スパン分散表現に多粒度の文脈情報を取り込んでいるLSTM+distモデルは,比較的頑健に予測できていることが分かる.これらの結果から,深い位置の関係を予測する際には文脈情報が手がかりとなり,文脈情報をスパン表現にどのように取り込むかが予測において重要であることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{27-4ia2f4.eps}\end{center}\caption{既存のモデルとLSTM+distモデルの予測結果の例}\label{fig:depth_ex}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%論述構造が深くなる典型的なケースとして,一旦想定される対立意見を述べそれに対して反論し返すという,\textsc{Attack}関係の連鎖が挙げられる\cite{Peldszus2013,freeman2011dialectics}.図~\ref{fig:depth_ex}は,\textsc{Attack}が連鎖する部分構造(論述単位4$\rightarrow$論述単位3$\rightarrow$論述単位1)を持つ論述構造の例と,既存モデルの予測および提案モデルの予測結果である.既存のモデルは予測に失敗しているが,LSTM+distモデルは正しく予測できている.表~\ref{tbl:attack_attack}に,\textsc{Attack}関係が連鎖している部分構造における論述関係の予測精度を示す.LSTM+distモデルが良い性能を示していることから,ACとAMの区別が予測に良い影響を与えていることが分かる.異なる立場の意見を挙げて議論を進める文章では,何が自分の主張で何が対立意見なのかを読み手が追いやすいよう,接続表現(AM)が頻繁に用いられると考えられる.従って,{\itofcourse}$\rightarrow${\itbut}といったAMの流れが予測の手がかかりになったと考えられる.また,このような部分構造は特にMTCで頻繁に観察され,MTCにおいてLSTMモデルとLSTM+distモデルの性能差が大きい理由の一つであるとも考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[p]\caption{\textsc{Attack}関係が連鎖している部分構造における論述関係の予測精度}\label{tbl:attack_attack}\input{02table08.tex}\vspace{-0.3\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[p]\caption{深さごとの論述関係分類性能}\label{tbl:ltc_depth}\input{02table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%木の深さと論述関係分類性能についても分析を行う.正解の木における深さごとの論述関係分類性能を求めた(表~\ref{tbl:ltc_depth}).深さ0における論述関係分類は\textsc{Claim}が作文の筆者自身の立場のものであるか,対立する立場のものであるかという問題に対応し,特に深さ0における予測性能がLSTM+distを用いた場合に一貫して向上していることが分かる.この結果は,論述関係認識において深い位置のADUの係り先の予測精度が向上している傾向と対照的である.\textsc{Claim}の立場を推測するためには,その主張が周囲のADUから反論されているのか,補強されているのかといった大域的な論の流れが手がかりとなると考えられる.様々な粒度で大域的な文脈を汲み取るLSTM+distモデルが,深さ0における論述関係分類性能の向上に有効であったと考えられる.また,表~\ref{tbl:attack_attack}における\textsc{Attack}関係の連鎖の分析では,筆者に対立する立場の\textsc{Claim}とそれに反論し返す\textsc{Premise}といった部分構造の予測性能も対象となっている.対立的な\textsc{Claim}は周囲の\textsc{Premise}によって再反論されやすいという高次の傾向が存在し\cite{kuribayashi2017examining},LSTM+distモデルが対立する\textsc{Claim}をうまく同定できることで,付近に存在する\textsc{Premise}の係り先(反論先)を予測する手がかかりとなり,表~\ref{tbl:attack_attack}にみられるようなマクロな構造の解析性能の向上や,図~\ref{fig:ana:depth:result}でみられるような深い位置の\textsc{Premise}の係り先の予測性能の向上に影響を与えていると考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\caption{接続表現の有無と論述関係認識性能.}\label{tbl:am_existance}\input{02table10.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{接続表現の有無}\label{appendix:am_existance}本研究では,論述文における接続表現(AM)に焦点を当ててモデルの改良を行ったため,分析においても接続表現に焦点を当て,接続表現をもつ/もたないADUから出る論述関係の認識精度について調査する.表~\ref{tbl:am_existance}に分析結果を示す.各数値は正しい親を当てることができたかの正解率を示す.全体の傾向として,接続表現のあるADUよりも,接続表現のないADUの方が論述関係の予測精度が低いことが観察される.この傾向は,PDTBスタイルの談話関係認識などにおいて,談話標識が表示されていない非明示的な談話関係の認識性能が難しいことと一貫している.BoWモデルと比較すると,LSTMモデルやLSTM+distモデルでは,接続表現の有無にかかわらず性能が向上している.また,LSTMモデルとLSTM+distモデルの結果を比べると,特に接続表現のないADUにおいて,LSTM+distモデルによる性能の改善幅が大きい傾向が観察された.論述文の論の流れには談話のレベルで一定のパターンがあると考えられ,周囲の論の流れが接続表現のないADUの役割を推定する上で手がかかりになると考えられる.LSTM+distによって得られた多粒度の文脈情報が,接続表現のないADUに関する解析に役立っていることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{まとめ}
\label{sec:conc}本研究では,論述構造解析において効果的なスパン分散表現獲得手法を提案し,実験結果から,接続表現と命題をネットワーク内で明示的に区別し,スパン分散表現に多粒度の文脈を取り込むことの重要性を示した.分析から,深い論述構造をもつ論述文において特に解析構造が向上することが明らかになった.今後の展望として,論述単位の分割も含めて全てのサブタスクを一気通貫学習で解くことや,修辞構造理論に基づく談話構造の解析や,論述構造に関連した他タスク\cite{Trautmann2019}における,本手法の有効性の検証を行いたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部はThe57thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2019)で発表したものです\cite{kuribayashi-etal-2019-empirical}.また,本研究の一部はJSTCREST(課題番号:JPMJCR1513)の支援を受けて行いました.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{02refs}\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{追加素性}
\label{appendix:feature}既存研究\cite{Potash2016}に従い,ADUに関する以下の離散的な特徴量を用いた\begin{itemize}\itemADU中に出現する単語の集合(出現単語に対応する次元が1,それ以外が0である語彙数長のベクトル)\itemADU中に含まれる単語の分散表現について,average,max,minプーリングを施したもの\item論述全体の中で何番目のADUか(one-hot-vector)\item段落内で何番目のADUか(one-hot-vector)\itemADUが論述文中で,最初の段落,最後の段落,それ以外の段落のいずれに属するか(one-hot-vector)\end{itemize}Potashらに従い,これらの特徴から得られた離散特徴ベクトルを全結合層によって,連続的な特徴表現に変換した.特徴表現の次元数は,LSTM,LSTM+distモデルでは512次元,BoWモデルではLSTM-Minusベースのスパン表現の次元数と合わせるため1536次元にしている.また,単語の分散表現を用いた素性については,各実験設定で用いた分散表現と同じもの(例えば,XLNETの各層から得られた分散表現の重みつき和)を用いている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\caption{ハイパーパラメータの一覧}\label{tbl:hyperparam}\input{02table11.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{ハイパーパラメータ}
\label{appendix:hparam}表~\ref{tbl:hyperparam}にハイパーパラメータを示す.LSTMは1層のものを用いた.BoW,LSTM,andLSTM-distモデルをパラメータ数の観点で正当に比較するため,LSTMモデルではBiLSTMの隠れ層の次元を大きくし,ADUレベルのLSTMの層の数を2層にしている.BoWモデルでは,パラメータ数を増やしても性能がほとんど変わらなかったため表~\ref{tbl:hyperparam}の通りのハイパーパラメータを用いている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{栗林樹生}{2020年東北大学大学院情報科学研究科博士前期課程修了.現在,東北大学大学院情報科学研究科にて博士課程取得に向けて研究を進めている.2020年より日本学術振興会特別研究員(DC1).Langsmith株式会社共同創業者.}\bioauthor{大内啓樹}{奈良先端科学技術大学院情報科学研究科にて,2015年博士前期課程修了.2018年博士後期課程修了.2018年より理化学研究所革新知能統合研究センター特別研究員.}\bioauthor{井之上直也}{2013年東北大学大学院情報科学研究科博士後期課程修了.株式会社デンソー基礎研究所研究員,東北大学大学院情報科学研究科助教,理化学研究所客員研究員を経て,2020年よりStonyBrookUniversity研究員.}\bioauthor{鈴木潤}{2001年から2018年まで日本電信電話株式会社コミュニケーション科学基礎研究所研究員(主任研究員/特別研究員).2005年奈良先端科学技術大学院情報科学研究科博士後期課程修了.現在,東北大学データ駆動科学・AI教育研究センター教授.}\bioauthor{PaulReisert}{2017年東北大学大学院情報科学研究科博士後期課程修了.2017年より理化学研究所革新知能統合研究センター特別研究員.}\bioauthor{三好利昇}{2002年京都大学理学部卒業.2007年同大学院情報学研究科博士課程修了.博士(情報学).同年,(株)日立製作所中央研究所に入社.現在,日立製作所研究開発グループテクノロジーイノベーションセンタに勤務.自然言語処理などの研究に従事.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.2010年より東北大学大学院情報科学研究科教授.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V14N02-02
|
\section{はじめに}
\label{sec:intro}本論文では,ウェブを利用した専門用語の訳語推定法について述べる.専門用語の訳語情報は,技術翻訳や同時通訳,機械翻訳の辞書の強化などの場面において,実に様々な分野で求めれらている.しかしながら,汎用の対訳辞書には専門用語がカバーされていないことが多く,対訳集などの専門用語の訳語情報が整備されている分野も限られている.その上,専門用語の訳語情報が整備されていたとしても,最新の用語を追加していく作業が必要になる.このため,あらゆる分野で,専門用語の訳語情報を人手で整備しようとすると,大変なコストとなる.そこで,本論文では,対象言語を英語,日本語双方向とし,自動的に専門用語の訳語推定を行う方法を提案する.これまでに行われてきた訳語推定の方法の1つに,パラレルコーパスを用いた訳語推定法がある~\cite{Matsumoto00a}.しかしながら,パラレルコーパスが利用できる分野は極めて限られている.これに対して,対訳関係のない同一分野の2つの言語の文書を組にしたコンパラブルコーパスを利用する方法\cite{Fung98as,Rapp99as}が研究されている.これらの手法では,コーパスにそれぞれ存在する2言語の用語の組に対して,各用語の周囲の文脈の類似性を言語を横断して測定することにより,訳語対応の推定が行われる.パラレルコーパスに比べれればコンパラブルコーパスは収集が容易であるが,訳語候補が膨大となるため,精度の面で問題がある.また,この方法では,訳語推定対象の用語を構成する単語・形態素の情報を利用していない.これに対して,\cite{Fujii00,Baldwin04multi}では,訳を知りたい用語を構成する単語・形態素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成し,単言語コーパスを用いて訳語候補を検証するという手法を提案している.(以下,本論文では,用語の構成要素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成する方法を「要素合成法」と呼ぶ.)要素合成法による訳語推定法の有効性を調査するために,既存の専門用語対訳辞書の10分野から,日本語と英語の専門用語で構成される訳語対を617個抽出した\footnote{\ref{sec:evaluation_set}節で述べる未知訳語対集合$Y_{ST}$に対応する.}.そして,それぞれの訳語対の日本側の用語と英語側の用語の構成要素が対応しているかを調べたところ,88.5\%の訳語対で日英の構成要素が対応しているという結果が得られた.このことから,専門用語に対して要素合成法による訳語推定法を適用することは有効である可能性が高いことがわかった.(以下,本論文では,訳語対において各言語の用語の構成要素が対応していることを「構成的」と呼ぶものとする.)しかしながら,単言語コーパスであっても,研究利用可能なコーパスが整備されている分野は限られている.このため,本論文では,大規模かつあらゆる分野の文書を含むウェブをコーパスとして用いるものとする.ウェブを訳語候補の検証に利用する場合,\cite{Cao02as}の様に,サーチエンジンを通してウェブ全体を利用して訳語候補の検証を行うという方法がまず考えられる.その対極にある方法として,訳語推定の前にあらかじめ,ウェブから専門分野コーパスを収集しておくことも考えられる.サーチエンジンを通してウェブ全体を利用するアプローチは,カバレージに優れるが,様々な分野の文書が含まれるため誤った訳語候補を生成してしまう恐れもある.また,それぞれの訳語候補に対してサーチエンジンで検索を行わなければいけないため,サーチエンジン検索の待ち時間が無視できない.これに対して,ウェブから専門分野コーパスを収集するアプローチは,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補を削除する効果が期待できる.また,ひとたび専門分野コーパスを収集すれば,訳語推定対象の用語が大量にある場合でも,サーチエンジンを介してウェブにアクセスすることなく訳語推定を行うことができる.しかしながら,これまで,この2つのアプローチの比較は行われてこなかったため,本論文では,評価実験を通して,この2つのアプローチを比較し,その得失を論じる.さらに,上記の2つのアプローチの比較も含めて,本論文では,訳語候補のスコア関数として,多様な関数を以下のように定式化する.要素合成法では,構成要素に対して,対訳辞書中の訳語を結合することにより訳語候補が生成されるので,構成要素の訳語にもとづいて訳語候補の適切さを評価する.これを対訳辞書スコアと呼ぶ.また,それとは別に,生成された訳語候補がコーパスに生起する頻度に基づいて,訳語候補の適切さを評価する.これをコーパススコアと呼ぶ.本論文では,この2つスコアの積で訳語候補のスコアを定義する.本論文では,対訳辞書スコアに頻度と構成要素長を考慮したスコアを用い,また,コーパススコアには頻度に基づくスコアを用いたスコア関数を提案し,確率に基づくスコア関数\cite{Fujii00}と比較する.さらに,対訳辞書スコア,コーパススコアとしてどのような尺度を用いるか,に加え,訳語候補の枝刈りにスコアを使うかどうか,コーパスとしてウェブ全体を用いるか専門分野コーパスを用いるか,といったスコア関数の設定を変化させて合計12種類のスコア関数を定義し,訳語推定の性能との間の相関を評価する.実験の結果,コーパスとしてウェブ全体を用いた場合,ウェブには様々な分野の文書が含まれるため誤った訳語候補を生成してしまうことが多い反面,カバレージに優れることがわかった.逆に,ウェブから収集した専門分野コーパスを用いた場合,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補の生成を抑える効果が確認された.また,ウェブから収集した専門分野コーパスを用いる方法の性能を向上させるためには,専門分野コーパスに含まれる正解訳語の割合を改善することが課題であることがわかった.以下,本論文では,第\ref{sec:web_yakugosuitei}章でウェブを用いた専門用語訳語推定の枠組みを導入し,専門分野コーパスの収集方法について述べる.第\ref{sec:compo-method}章では要素合成法による訳語推定の定式化を行い,訳語候補のスコア関数を導入する.第\ref{sec:experiments}章では実験と評価について述べる.第\ref{sec:related_work}章では関連研究について述べ,本論文との相違点を論じる.
\section{ウェブを用いた専門用語訳語推定}
\label{sec:web_yakugosuitei}\subsection{概要}\begin{figure}[b]\centering\includegraphics[width=300pt]{jnlp-compo-fig-overview1.eps}\caption{ウェブを用いた専門用語訳語推定}\label{fig:overview1}\end{figure}ウェブを用いた専門用語の訳語推定の全体像を図\ref{fig:overview1}に示す.本論文では,言語$S$の専門用語が複数個が与えられたとき,それらの用語に対して,言語$T$における訳語を推定するという問題を考える.このような状況としては,例えば,ある専門分野において,まとまった数の専門文書が与えられ,それらの文書から用語を抽出し,専門用語の対訳辞書を作成する場合が考えられる.あるいは,ある専門分野の文書と既存の汎用対訳辞書があり,この文書を翻訳家が翻訳したい場合などが考えられる.ここで,一般に,与えられた複数の専門用語は,既存の汎用対訳辞書に含まれる訳語の個数にしたがって,訳語が1個である用語の集合$X_S^U$,訳語が2個以上である用語の集合$X_S^M$,そして,訳語が得られない用語の集合$Y_S$という3つの部分集合に分けられる.本論文では,既存の辞書に訳語が1個だけ含まれる用語の集合$X_S^U$の訳語は正しいと仮定し,集合$X_S^U$の用語の訳語の集合$X_T^U$を用いてウェブから専門分野コーパスを収集し,訳語推定に利用するものとする.本論文では,既存の対訳辞書で訳語が得られない用語の集合$Y_S$を訳語推定の対象とする.一方,集合$X_S^M$の用語に対しては,既存の対訳辞書にある訳語の中から最も適切なものを選択する必要がある.例えば,論理回路分野に属する日本語の専門用語「レジスタ」の訳語としては,サッカー用語の``regista''ではなく,用語``register''が選択されなければならない.この訳語選択の課題については,\cite{Tonoike05cs}において,すでに一定の成果が得られており,ウェブから収集した専門分野コーパスに生起する頻度の最も大きい訳語を選択することにより,英日方向で69\%,日英方向で75\%の正解率が得られたと報告されている.そこで,本論文では,集合$X_S^M$の用語の訳語選択の課題は取り扱わない.\subsection{専門分野コーパスの収集}\label{sec:corpus}本論文では,言語$T$の専門分野コーパスをウェブから収集して訳語推定に利用する.この専門分野コーパスを集める際には,既存対訳辞書に訳語が1つだけ存在する専門用語の訳語の集合$X_T^U$を利用する.具体的には,集合$X_T^U$に含まれる用語$x_T^U$を含むサーチエンジンのクエリーを用いてウェブから上位100ページを収集する\footnote{本論文では,サーチエンジンを用いる場合,日本語のクエリーの場合はgoo(\url{http://www.goo.ne.jp})を用い,英語のクエリーの場合はYahoo!(\url{http://www.yahoo.com/})を用いる.}.それらのページに,用語$x_T^U$がアンカーテキストとなっているアンカーが存在する場合は,そのアンカー先ページも入手する.これを,集合$X_T^U$に含まれる用語すべてに対して行い,収集されたウェブページを集めて,専門分野コーパスとする.日本語のコーパスを収集する際に用いたクエリーは,“$x_T^U$とは”,“$x_T^U$という”,“$x_T^U$は”,“$x_T^U$の”,及び,``$x_T^U$''である.一方,英語のコーパスを収集する際に用いたクエリはー,``$x_T^U$ANDwhat's'',``$x_T^U$ANDglossary'',及び,``$x_T^U$''である.ここでは,専門用語$x_T^U$について記述されている文書,例えば,オンライン用語集などを上位にランクするために,経験的にこれらのクエリーを用いている.ここで,計算コストや記憶容量の問題を考慮した上で,できるだけ訳語推定の性能を向上させるためには,訳語推定対象の分野の用語を十分に含むできるだけ小さいコーパスを収集することが望ましい.これを実現する方法として,サーチエンジンのクエリーに複数の用語を含めたり,取得すべきページ数を変更することなどが考えられる.しかしながら,本論文では,ウェブから収集した専門分野コーパスを利用する方式と,サーチエンジンを通してウェブ全体を利用する方式の比較に焦点を当てるため,訳語推定対象の分野の用語を十分に含むできるだけ小さいコーパスを収集する方式を確立することは,論文の対象外とする.この問題に関連する知見としては,\cite{Takagi05aj}の研究がある.\cite{Takagi05aj}では,評価用の正解訳語の集合を設定し,上記の方法によってウェブから収集したコーパスに,評価用の正解訳語を含む割合の評価を行った.その結果,サーチエンジンのヒット数に上限を設けてコーパス収集に使用する用語の数を絞り込むことにより,コーパス収集に使用する用語の数を少なくしても,評価用の正解訳語を含む割合が下がらないことが報告されている.また,\cite{Takagi05aj}では,訳語推定対象の用語(および評価用の正解訳語)とは異なる分野のコーパスを利用する場合についても評価を行っている.これによると,評価用の正解訳語を含む割合は,訳語推定対象の用語と近い分野のコーパスを用いた場合は低下しないが,全く異なった分野のコーパスを用いた場合は低下することを実験的に確かめている.このことは,訳語推定対象の用語の分野となるべく近い分野のコーパスを用いて訳語推定をすべきであることを示している.
\section{要素合成法による専門用語訳語推定の定式化}
\label{sec:compo-method}\subsection{概要}\begin{figure}[b]\centering\includegraphics[width=300pt]{jnlp-compo-fig-compositional.eps}\caption{日本語の専門用語「応用行動分析」の要素合成法による訳語推定}\label{fig:compositional}\end{figure}要素合成法による訳語推定の例として,日本語の専門用語「応用行動分析」の訳語推定の様子を図~\ref{fig:compositional}に示す.まず,既存の対訳辞書を参照し,日本語の見出しを検索することにより,日本語の専門用語「応用行動分析」を構成要素に分割する\footnote{ここで,既存の対訳辞書として,「英辞郎」Ver.79(\url{http://www.eijiro.jp/})と英辞郎の訳語対から作成した部分対応対訳辞書(詳細は\ref{sec:bcl}節で述べる)を用いる.}.この例の場合,構成要素分割の結果は,図~\ref{fig:compositional}に``a''で示した“応用”,“行動”,“分析”という分割及び,``b''で示した“応用”,“行動分析”という分割の2種類になる.次に,それぞれの構成要素を英語に翻訳する.それぞれの構成要素の訳語には,ある信頼度のスコアが与えられる.そして,``a'',``b''それぞれの分割に対して,それらの構成要素の訳語を結合することによって訳語候補を生成する.この例では,構成要素に与えられているスコアの乗算で訳語候補のスコアを計算する.``appliedbehavioranalysis''のように分割``a'',``b''で同じ訳語候補が生成される場合には,それぞれの分割でスコアを計算し両者のスコアを加算するものとした.分割``a''では,``applied''と``behavior''と``analysis''を結合して``appliedbehavioranalysis''が生成され,スコアは,$1.6\times1\times1=1.6$となる.また,分割``b''では,``applied''と``behavioranalysis''を結合して``appliedbehavioranalysis''が生成され,スコアは,$1.6\times10=16$となる.そして,最終的に``appliedbehavioranalysis''のスコアは,$1.6+16=17.6$と計算される.\subsection{部分対応対訳辞書の作成}\label{sec:bcl}専門用語の訳語推定をするためには,既存の対訳辞書の訳語情報だけでは不十分である.複合語中の単語はどのように訳されるのが自然かという情報が重要となる.そこで,複合語中の単語の訳し方を,既存の対訳辞書の複合語エントリから収集することを試みる.一般に対訳辞書のエントリは見出し語と1つ以上の訳語から構成される.このエントリを展開し,見出し語と訳語を一対一の語の組にしたものを本論文では訳語対と呼ぶ.本節では,\cite{Fujii00}の語基辞書の作成方法を参考にして,既存の対訳辞書(英辞郎)の複合語の訳語対から,英語及び日本語の用語の構成要素の訳語対応を推定し,このような訳語対応を集めて新たな対訳辞書を作成する方法について述べる.本論文では,この,既存の訳語対の構成要素を利用して作成された対訳辞書を部分対応対訳辞書と呼ぶ.既存の対訳辞書を部分対応対訳辞書で補う方法を,図~\ref{fig:bubunicchi-rei}の例を用いて説明する.既存の対訳辞書に“applied:応用”という訳語対自体は含まれないが,1番目の英単語が``applied''かつ1番目の日本語単語が「応用」であるような複合語の訳語対が数多く含まれていると仮定する\footnote{日本語のエントリは,形態素解析器JUMAN(\url{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html})で形態素列に分解されているものとする.}.このようなとき,それらの訳語対を対応付け,構成要素の訳語対応“applied:応用”を推定する.\begin{figure}[t]\small\centering\begin{tabular}{ccccc}applied&mathematics&:&応用&数学\\applied&science&:&応用&科学\\applied&robot&:&応用&ロボット\\&&$\vdots$&&頻度\\&&$\Downarrow$&&↓\\\hline\multicolumn{1}{|c}{applied}&&:&応用&\multicolumn{1}{c|}{:40}\\\hline\end{tabular}\vspace{8pt}\caption{構成要素の訳語対の推定の例(前方一致)}\label{fig:bubunicchi-rei}\end{figure}より詳細には,既存の対訳辞書から,まず,日本語及び英語の用語がそれぞれ2つの構成要素からなる訳語対を抽出し,これを別の対訳辞書$P_2$とする.次に,$P_2$中の訳語対から英語及び日本語の第一構成要素だけを抜き出して訳語対とし,これを集めて構成した対訳辞書を前方一致部分対応対訳辞書$B_P$と呼ぶ.同様に,$P_2$中の訳語対から英語及び日本語の第二構成要素だけを抜き出して訳語対とし,これを集めて構成した対訳辞書を後方一致部分対応対訳辞書$B_S$と呼ぶ.本論文では,部分対応対訳辞書$B_P$と$B_S$に,以下の2つの制約を課す.\begin{itemize}\item前方一致部分対応対訳辞書$B_P$は,用語の先頭および中間位置の構成要素の訳語を得る場合にのみ参照することとし,用語の最後尾の構成要素の訳語を得るために参照することはできない.\item後方一致部分対応対訳辞書$B_S$は,用語の中間位置および最後尾の構成要素の訳語を得る場合にのみ参照することとし,用語の先頭の構成要素の訳語を得るために参照することはできない.\end{itemize}これらの制約は,不適切な訳語候補が生成されるのを防ぐために課した.なお,\cite{Fujii00}においては,$B_P$と$B_S$を統合した部分対応対訳辞書(以下,本論文では,この辞書を部分対応対訳辞書$B$と呼ぶ)を作成しており,上記のような制約を課していない.$B_P$と$B_S$を統合すると訳語対の数が増える利点はあるが,例えば,“システム応用”という用語の訳語推定を行うときに,第二構成要素である“応用”の訳語を得るために,$B_P$に含まれる訳語対〈“応用”,``applied''〉が参照されるなど,過剰に参照される恐れがある.そこで,実際に,部分対応対訳辞書に$B_P$及び$B_S$を利用する場合と,$B$を利用する場合の比較を行った.まず,英辞郎と部分対応対訳辞書を用いて,与えられた用語に対して正解訳語が生成できるかどうかの評価を行った.詳細は\ref{sec:evaluation_set}節で述べるが,部分対応対訳辞書として$B$を用いた場合,$B_P$及び$B_S$を用いた場合に比べて,正解訳語が生成できる用語の割合は2\%程度しか上回らなかった.また,訳語推定の性能においては\footnote{詳細は\ref{sec:evaluation}節で述べるが,訳語候補のスコア付けの方法としては,ウェブから収集した専門分野コーパスを利用する方法の中では総合的に最も性能のよかった`DF-CO'というスコア関数を用いた.},英日方向では再現率は$B$を用いる場合の方が1\%程度高く,逆に精度は$B_P,B_S$を用いる場合の方が1\%弱高かった.一方,日英方向では,$B_P,B_S$を用いる場合の方が,再現率は1\%弱高く,精度は数\%高かった.この結果を総合的に判断して,本論文では,部分対応対訳辞書として$B_P,B_S$を用いることとした.表\ref{tab:entry_number}に,英辞郎,対訳辞書$P_2$,および,部分対応対訳辞書$B_P,B_S,B$における,見出し語の数\footnote{英辞郎は英日辞書であるので,本来は日本語の見出し語は存在しない.本論文では英辞郎を編集することによって日英版を作成したので,表\ref{tab:entry_number}にはその見出し語数を掲載している.}と訳語対の個数を示す.\begin{table}[t]\small\centering\caption{対訳辞書の見出し語数と訳語対数}\label{tab:entry_number}\begin{tabular}{|c|r|r|r|}\hline\multirow{2}{*}{対訳辞書}&\multicolumn{2}{c|}{見出し語数}&訳語対の個数\\\hhline{|~|--|~|}&\multicolumn{1}{c|}{英語}&\multicolumn{1}{c|}{日本語}&\\\hline英辞郎&1,292,117&1,228,750&1,671,230\\$P_2$&217,861&186,823&235,979\\$B_P$&37,090&34,048&95,568\\$B_S$&20,315&19,345&62,419\\$B$&48,000&42,796&147,848\\\hline\end{tabular}\begin{tabular}{ccl}英辞郎&:&既存の汎用対訳辞書(Ver.79)\\$P_2$&:&両言語とも2構成要素からなる英辞郎の訳語対の集合\\$B_P$&:&前方一致部分対応対訳辞書$B_P$\\$B_S$&:&後方一致部分対応対訳辞書$B_S$\\$B$&:&部分対応対訳辞書$B$\end{tabular}\end{table}\subsection{訳語候補の生成}\label{sec:generation}本節及び次節において,\ref{sec:bcl}節で準備した対訳辞書及び,\ref{sec:corpus}節で述べた専門分野コーパスまたはウェブ全体を利用して,与えられた専門用語の訳語推定を要素合成法によって行う方法の詳細を述べる.本節では,要素合成法により訳語候補を生成する過程を定式化する.そして,次節で,本論文で実際に評価した訳語候補のスコア関数の詳細について述べる.まず,$y_S$を訳語推定すべき専門用語とする.ここで,$S$が英語であれば$w_i$を単語,$S$が日本語であれば$w_i$を形態素として,$y_S$は以下のように$w_i$の列で表される.\begin{equation}\label{eq:y_S}y_S=w_1,w_2,\ldots,w_m\end{equation}例えば,$y_S$が“応用行動分析”であれば,$w_1=$“応用”,$w_2=$“行動”,$w_3=$“分析”となる.要素合成法では,対訳辞書中の訳語対の見出し語と照合する用語は,一個以上の単語もしくは形態素から構成されると考える.そして,$y_S$を一個以上の単語もしくは形態素から構成される単位に分割し,各単位の訳語を結合することにより訳語候補を生成する.以下,まず$y_S$を上記の単位$s_j$の列に分割する.\begin{equation}y_S=w_1,w_2,\ldots,w_m\equivs_1,s_2,\ldots,s_n\end{equation}ただし,各$s_j$は一個以上の$w_i$の列を表す.例えば,$y_S$を“応用行動分析”とすると,以下の3通りの分割が考えられる\footnote{\ref{sec:evaluation_set}節で導入する評価用用語集合では,訳語推定すべき用語$y_S$全体が英辞郎に含まれる用語は除外している.これを除くと,この例の場合,3通りの分割が考えられる.}.\begin{equation}\begin{array}{l}\label{eq:bunkatsu_ouyou}s_1=\mbox{“応用”,}\s_2=\mbox{“行動分析”}\\s_1=\mbox{“応用”,}\s_2=\mbox{“行動”,}\s_3=\mbox{“分析”}\\s_1=\mbox{“応用行動”,}\s_2=\mbox{“分析”}\end{array}\end{equation}また,$y_S$を``appliedbehavioranalysis''とすると,以下の3通りの分割が考えられる\begin{equation}\begin{array}{l}\label{eq:bunkatsu_applied}s_1=\mbox{``applied'',}\s_2=\mbox{``behavioranalysis''}\\s_1=\mbox{``applied'',}\s_2=\mbox{``behavior''},\s_3=\mbox{``analysis''}\\s_1=\mbox{``appliedbehavior'',}\s_2=\mbox{``analysis''}\end{array}\end{equation}次に,対訳辞書から得られた$s_i$の訳語を$t_i$とすると,$y_S$の訳語候補$y_T$は,以下のように$y_S$と同じ語順で構成される\footnote{\label{fn:of_hyphen}英語の専門用語の中には``angleofradiation''のように前置詞を含むものがある.この用語の日本語訳語は「放射角」であるが,英語用語と日本語用語の間で双方向に適切な訳語候補として生成できるようにするためには,``of''の前後の語順の入れ替えや``of''を挿入または削除する操作を考慮する必要がある.本論文では,上記の場合も含めて,以下の様な英語・日本語の用語の組において,双方向に訳語候補の生成ができるような規則を実装した.\begin{eqnarray*}\mbox{英語の用語\\\\\}&&\mbox{日本語の用語}\\\left.\begin{array}{@{\,}ll}\mbox{angleofradiation}\\\mbox{radiationangle}\end{array}\right\}&\Longleftrightarrow&\left\{\begin{array}{@{\,}ll}\mbox{放射角}\\\mbox{放射の角}\end{array}\right.\end{eqnarray*}なお,本論文では前置詞``of''のみに関してこの規則を実装した.また,〈光ファイバーケーブル,optical-fibercable〉のように,英語または日本語の用語どちらかにのみ,ハイフン記号を含む場合がある.このような場合に双方向に訳語候補生成を行うためには,ハイフンの挿入及び削除を考慮する必要がある.前置詞を含む場合と同様に,ハイフンが挿入または削除される可能性を考慮した訳語候補生成を行う規則を実装した.}.\begin{equation}y_T=t_1,t_2,\ldots,t_n\end{equation}そして,訳語候補$y_T$にスコアを与えることを考える.先行研究と同様に,本論文においても,対訳辞書を用いて$y_S$と$y_T$の対応の適切さを推定し,スコアを与える(これを対訳辞書スコアと呼ぶ.).ただし,$y_T$全体の対訳辞書スコアは,訳語対$\langles_i,t_i\rangle$のスコア$q(\langles_i,t_i\rangle)$の積で構成される.また,それとは別に,目的言語コーパス中で訳語候補$y_T$がどの程度出現するかによって$y_T$の適切さを評価し,スコアを与える(これをコーパススコア$Q_{corpus}(y_T)$と呼ぶ.).訳語候補$y_T$のスコアは,この2つのスコアの積により構成されるとする.\begin{equation}\label{eq:score_one}\prod_{i=1}^{n}q(\langles_i,t_i\rangle)\cdotQ_{corpus}(y_T)\end{equation}(ただし,訳語対のスコア$q$とコーパススコア$Q_{corpus}$の詳細は\ref{sec:score_details}節で述べる.)実際には,例(\ref{eq:bunkatsu_ouyou}),(\ref{eq:bunkatsu_applied})で示したように,$y_S$には複数の分割の仕方が考えられるので,本論文ではそれぞれの分割の仕方に対して式(\ref{eq:score_one})によりスコアを計算し,それらの和を訳語候補$y_T$のスコアとする.\begin{equation}\label{eq:score}Q(y_S,y_T)=\sum_{y_S=s_1,s_2,\ldots,s_n}\prod_{i=1}^{n}q(\langles_i,t_i\rangle)\cdotQ_{corpus}(y_T)\end{equation}例えば,$y_S=$“応用行動分析”,$y_T$=``appliedbehavioranalysis''の場合を考える.訳語対$\langley_S,y_T\rangle$が既存の対訳辞書に含まれず,かつ,訳語対〈“応用”,``applied''〉,〈“行動”,``behavior''〉,〈“分析”,``analysis''〉,〈“行動分析”,``behavioranalysis''〉が既存の対訳辞書に含まれるとき,$y_T$を生成することができる$y_S$の分割を,$y_T$の生成に用いる訳語対と共に以下に示す.\begin{itemize}\item$s_1=\mbox{“応用”,}\s_2=\mbox{“行動”,}\s_3=\mbox{“分析”}$\\〈“応用”,``applied''〉,〈“行動”,``behavior''〉,\\〈“分析”,``analysis''〉\item$s_1=\mbox{“応用”,}\s_2=\mbox{“行動分析”}$\\〈“応用”,``applied''〉,〈“行動分析”,``behavioranalysis''〉\end{itemize}$\langley_S,y_T\rangle$のスコアは,上記の2通りの分割に対して,それぞれ対訳辞書スコアとコーパススコアの積を求めたものの和となる.次に,訳語候補生成の方法を説明する.単語または形態素数の多い用語の訳語推定を行う場合,単語または形態素の訳語のすべての組み合せを生成すると,計算機のメモリ消費量が指数関数的に増えてしまう.そこで,本論文では,この問題を避けるために,動的計画法のアルゴリズムを採用し,訳語候補の生成と枝刈りを行う.式(\ref{eq:y_S})で,訳すべき用語$y_S$を以下のように単語または形態素の列で定義した.\[y_S=w_1,w_2,\ldots,w_m\]ここで,単語または形態素$w_i$の区切りの位置に,位置を表すラベル$0,\ldots,m$を付与する.\begin{equation}y_S=\_0\w_1\_1\w_2\_2\\cdots\_{m-1}\w_m\_{m}\end{equation}この位置を表すラベルを利用して,位置$i$と位置$j$の間の単語または形態素の列を表す記号$w_{j,k}$を導入する.\begin{equation}w_{j,k}\equivw_{j+1},w_{j+2},\ldots,w_{k}\end{equation}ただし,$w_{0,0}\equiv\varepsilon$とする.ここで,$\varepsilon$は空文字を表すものとし,$y$を1つ以上の単語または形態素の列とすると$\varepsilony=y$とする.まず,動的計画法による$y_S$の訳語推定の概略を述べる.先頭から$k$番目までの単語または形態素の列$w_{0,k}$に対して生成された訳語候補の集合を$Tran(w_{0,k})$とすると,$y_S=w_{0,m}=w_{1},\ldots,w_{m}$の訳語を得るには$Tran(y_S=w_{0,m})$からスコア1位の訳語候補を取り出せばよい.ここで,各$Tran(w_{0,k})$$(k=1,\ldots,m)$は以下の式に従って,再帰的に計算される.\begin{equation}\label{eq:Tran_calc}\begin{array}{ll}Tran(w_{0,k})=top(\hspace{-0.2cm}&merge(\\bigcup\limits_{i=0}^{k-1}concat(Tran(w_{0,i}),\tran(w_{i,k}))),\\&r\)\end{array}\end{equation}この式では,$w_{0,k}=w_{1},\ldots,w_{k}$をある位置$i$で$w_{0,i}=w_{1},\ldots,w_{i}$と$w_{i,k}=w_{i+1},\ldots,w_{k}$の2つに分割する.分割の場所$i$は先頭$i=0$から順に$i=k-1$まで移動させていく.それぞれの分割の仕方において,$w_{0,i}$に対しては再帰的に訳語候補の集合$Tran(w_{0,i})$を求め,$w_{i,k}$に対しては$w_{i,k}$を見出し語として対訳辞書から訳語の集合$tran(w_{i,k})$を得る.そして,両者を$concat$により結合することにより,新しい訳語候補を生成する.このとき,同一の訳語候補が複数の異なる分割の仕方から生成される場合がある.その場合は,$merge$により,それらの訳語候補のスコアがまとめられる.最後に,$top$によりスコア上位$r$個の訳語候補のみ出力することで,訳語候補の枝刈りを行い,この出力を$Tran(w_{0,k})$とする.実際に式(\ref{eq:Tran_calc})を用いて,図\ref{fig:compositional}の例をもとに$y_S$=“応用”,“行動”,“分析”の訳語候補の集合$Tran(y_S=w_{0,3})$が生成される様子を説明する.ただし,ここでは枝刈り後出力される訳語候補数$r$を3とする.式(\ref{eq:Tran_calc})の$i=0,\ldots,k-1$のループに注目すると,以下のように訳語候補が生成されていくことがわかる.\begin{description}\item[($i=0$)]$w_{0,3}$は$w_{0,0}=\varepsilon$と$w_{0,3}=$“応用”,“行動”,“分析”に分割される.$w_{0,3}=$“応用”,“行動”,“分析”は対訳辞書に訳語がないので,$concat$の出力は空集合となる.\item[($i=1$)]$w_{0,3}$は$w_{0,1}=$“応用”と$w_{1,3}=$“行動”,“分析”に分割される.$Tran(w_{0,1})$により,$w_{0,1}$の訳語候補の集合を再帰的に求め,$tran(w_{1,3})$により,対訳辞書から得られる$w_{1,3}$の訳語の集合を求める.そして,それらの訳語候補を$concat$により結合し訳語候補を生成する.$Tran(w_{0,1})=\{$``application'',``practical'',``applied''$\}$,$tran(w_{1,3})=\{$``behavioranalysis''$\}$のとき生成される訳語候補を以下に示す.\begin{itemize}\item``applicationbehavioranalysis''\item``practicalbehavioranalysis''\item``appliedbehavioranalysis''\end{itemize}\item[($i=2$)]$w_{0,3}$は$w_{0,2}=$“応用”,“行動”と$w_{2,3}=$“分析”に分割される.$Tran(w_{0,2})$により,$w_{0,2}$の訳語候補の集合を再帰的に求め,$tran(w_{2,3})$により,対訳辞書から得られる$w_{2,3}$の訳語の集合を求める.そして,それらの訳語候補を$concat$により結合し訳語候補を生成する.$Tran(w_{0,2})=\{$``appliedaction'',``appliedactivity'',``appliedbehavior''$\}$,$tran(w_{2,3})=\{$``analysis'',``diagnosis'',``assay''$\}$のとき生成される訳語候補を以下に示す.\begin{itemize}\item``appliedactionanalysis''\item``appliedactiondiagnosis''\item``appliedactionassay''\item``appliedactivityanalysis''\item``appliedactivitydiagnosis''\item``appliedactivityassay''\item``appliedbehavioranaylysis''\item``appliedbehaviordiagnosis''\item``appliedbehaviorassay''\end{itemize}\end{description}以上の操作が終了したら,$y_S$に対して複数個の訳語候補が生成された状態となる.生成された訳語候補に同じものが存在した場合,関数$merge$によりこれらがまとめられ,最後に関数$top$によりスコア上位$r$個の訳語候補が出力される.\subsection{訳語候補のスコア付け}\label{sec:score_details}\subsubsection{対訳辞書スコア}\label{sec:lexicon_score}訳語推定対象の用語$y_S$と訳語候補$y_T$の対応の適切さを対訳辞書を用いて測定するための「対訳辞書スコア」を\ref{sec:generation}節で導入した.この対訳辞書スコアは,訳語候補$y_T$を生成するときに使用した訳語対$\langles_i,t_i\rangle$のそれぞれの適切さを関数$q$により測定し,それらの積で計算されるものであった.本節では,対訳辞書に基づいて訳語対$\langles_i,t_i\rangle$のスコアを計算するための関数$q$を2種類定義する.\subsubsection*{頻度-長さ(DF)}``naturallanguageprocessing''という用語が,既存の対訳辞書に含まれないため,訳語推定の対象となる場合を考える.〈``natural'',“自然な”〉,〈``language'',“言語”〉,〈``processing'',“処理”〉の3つの訳語対から生成される“自然な言語処理”という訳語候補よりも,〈``naturallanguage'',“自然言語”〉のような単語数または形態素数の多い訳語対と〈``processing'',“処理”〉を利用して得られる訳語候補“自然言語処理”の方が信頼度が高いと思われる.また,表~\ref{tab:entry_number}の部分対応対訳辞書に含まれる訳語対は,英辞郎に含まれる複合語の訳語対から,英語及び日本語の構成要素の訳語対応を推定することにより作成された訳語対であるため,対訳辞書$P_2$に出現する頻度の少ない訳語対よりも,出現する頻度の多い訳語対の方が信頼度が高いと思われる.以上のような,訳語対の長さと頻度に基づく経験的な選好に基づいて,訳語対を順位付けする方法について述べる.まず,スコア付けの対象となる対訳辞書の訳語対は,以下のように分類できる.\begin{itemize}\item英辞郎の訳語対(利用できる情報:単語数または形態素数)\begin{itemize}\item単語数または形態素数が2以上の訳語対((a)とする)\item1単語または1形態素の訳語対((b)とする)\end{itemize}\item部分対応対訳辞書の訳語対(利用できる情報:対訳辞書$P_2$に出現する頻度)((c)とする)\end{itemize}ここではスコア付けの方針を決める問題を,上記の(a),(b),(c)で示した3種類の訳語対の間に優先順位を付けることに帰着させて考える.(a),(b),(c)の優先順位として,本論文では,まず,(a)の訳語対に与えるスコアを極めて高く設定し,(b)または(c)の訳語対のスコアを必ず上回るようにする.次に,(b)と(c)の訳語対の間のスコアの大小関係については,(c)の訳語対が対訳辞書$P_2$に出現する頻度に閾値を設け,(c)の訳語対の頻度が頻度閾値と同じであれば,(b)の訳語対のスコアと同じにし,(c)の訳語対の頻度が頻度閾値より大きければ,(b)の訳語対のスコアより大きくし,そして,(c)の訳語対の頻度が頻度閾値より小さければ,(b)の訳語対のスコアより小さくする.本論文では,この頻度閾値を10に設定した.この頻度閾値を変化させることにより,英辞郎に含まれる1単語または1形態素の訳語対のスコアと,部分対応対訳辞書に含まれる訳語対のスコアの大小関係が変化するため,訳語推定の性能にもある程度影響を与える.しかしながら,本論文の目的は,コーパスとしてウェブ全体を用いる方法と,ウェブから収集した専門分野コーパスを利用する方法の比較にあるので,最適なパラメータの値の追求は行わなかった.この優先順位を実現するため,英辞郎の訳語対のスコアには単語数または形態素数を指数とする関数を用い,部分対応対訳辞書の訳語対のスコアには頻度の対数を用いることで,単語数または形態素数が2以上の英辞郎の訳語対のスコアが,部分対応対訳辞書の訳語対のスコアよりも大きくなるようにした.訳語対$\langles,t\rangle$のスコア$q(\langles,t\rangle)$の定義として,以下の式を採用する.\begin{equation}\label{eq:DF}q(\langles,t\rangle)=\left\{\begin{array}{ll}10^{(compo(s)-1)}&\mbox{($\langles,t\rangle$in英辞郎)}\\\log_{10}f_p(\langles,t\rangle)&\mbox{($\langles,t\rangle$in}B_P\mbox{)}\\\log_{10}f_s(\langles,t\rangle)&\mbox{($\langles,t\rangle$in}B_S\mbox{)}\end{array}\right.\end{equation}ここで,$compo(s)$は$s$の単語または形態素の数を表すものとし,$f_p(\langles,t\rangle)$は,$P_2$中に第一要素として$\langles,t\rangle$が出現する回数を表すものとし,$f_p(\langles,t\rangle)$は,$P_2$中に第二要素として$\langles,t\rangle$が出現する回数を表すものとする.式(\ref{eq:DF})では,対数関数の底の値が部分対応対訳辞書の訳語対の頻度閾値に対応する.すなわち,部分対応対訳辞書の訳語対で対訳辞書$P_2$に10回出現する訳語対と,英辞郎に含まれる1単語または1形態素の訳語対のスコアが等しくなる.なお,このスコアでは,部分対応対訳辞書に一度しか現れない訳語対のスコアはゼロとなる.この場合,訳語として利用しないものとする.式(\ref{eq:DF})に示した訳語対のスコア関数の積で定義される対訳辞書スコアを,以下ではDFと呼ぶものとする.\subsubsection*{確率(DP)}\cite{Fujii00}は,対訳辞書に基づく$y_S$と$y_T$の対応の適切さを,確率$P(y_S|y_T)$を計算することにより評価した.このスコアは,条件付き確率$P(s_i|t_i)$の積で定義される.\cite{Fujii00}は対訳辞書として部分対応対訳辞書$B$のみを用いているため,同じ設定とするには,本論文でも部分対応対訳辞書$B$のみを用いなければならない.しかしながら,部分対応対訳辞書$B$のみを用いた実験を行った結果,英辞郎と部分対応対訳辞書$B$を併用する場合に比べ,訳語推定の性能(精度・再現率)が10\%前後も低いことがわかった.このため,本論文では,部分対応対訳辞書$B$に加え英辞郎も用いて,条件付き確率$P(s_i|t_i)$に基づく対訳辞書スコアを評価することとした.本論文では,英辞郎と部分対応対訳辞書$B$を併用できるようにするために,以下の式に示す拡張を行った.\begin{eqnarray}&q(\langles,t\rangle)=P(s|t)=\frac{f_{prob}(\langles,t\rangle)}{\sum_{s_j}f_{prob}(\langles_j,t\rangle)}&\label{eq:DP1}\\&f_{prob}(\langles_j,t\rangle)=\begin{cases}10&\text{($\langles,t\rangle$in英辞郎)}\\f_B(\langles_j,t\rangle)&\text{($\langles,t\rangle$inB)}\end{cases}&\label{eq:DP2}\end{eqnarray}上式では,英辞郎の訳語対の頻度は10とみなすものとした\footnote{辞書スコア`DF'では,頻度10の部分対応対対訳辞書の訳語対のスコアと,構成要素長が1の用語の英辞郎の訳語のスコアと同じにしている.これに合わせるため,英辞郎の訳語対の頻度を10とみなすものとした.}.式(\ref{eq:DP1}),(\ref{eq:DP2})に示した訳語対のスコア関数から計算される対訳辞書スコアを以下ではDPと呼ぶものとする.\subsubsection{コーパスに基づくスコア}\label{sec:corpus_score}訳語候補$y_T$の適切さを目的言語コーパスを用いて測定するための「コーパススコア」を\ref{sec:generation}節で導入した.本論文では,コーパススコアとして以下に示す3種類を評価した.\begin{itemize}\item頻度(CF):目的言語コーパスにおける訳語候補$y_T$の生起頻度\begin{equation}Q_{corpus}(y_T)=freq(y_T)\end{equation}\item確率(CP):以下のバイグラムモデルによって推定される,訳語候補$y_T$の生起確率.\cite{Fujii00}で用いられたコーパススコアの評価を目的とする.本来は$t_i$を単語または形態素とすべきであるが,実装の都合上,$t_i$を対訳辞書から得られた訳語とする.したがって,$t_i$は1つ以上の単語または形態素から構成される\footnote{前節で述べたように,\cite{Fujii00}のスコア関数の評価に際しては,対訳辞書スコアにおいて,部分対応対訳辞書$B$と英辞郎を併用している.ここで,英辞郎の訳語には複数の単語または形態素で構成されるものがあるが,このような場合,厳密には,訳語を単語また形態素に分割して,単語また形態素のバイグラムに基づいて式(\ref{eq:CP})の計算をしなければならない.しかしながら,実装上の手間を避けるため,ここでは,対訳辞書から得られた訳語をそのまま用い,$t_i$は1つ以上の単語または形態素から構成されるとした.}.\pagebreak\begin{equation}\label{eq:CP}Q_{corpus}(y_T)=P(t_1)\cdot\prod_{i=1}^{n-1}P(t_{i+1}|t_i)\end{equation}\item生起(CO):目的言語コーパスに訳語候補$y_T$が生起するかどうか\begin{equation}Q_{corpus}(y_T)=\begin{cases}1&\text{$y_T$がコーパス中に生起する}\\0&\text{$y_T$がコーパス中に生起しない}\end{cases}\end{equation}\end{itemize}\subsubsection{スコア関数}\begin{table}[b]\small\centering\caption{訳語候補のスコア関数と構成要素}\label{tab:param_method}\begin{tabular}{|c||c|c||c|c|c||c|c|}\hline&\multicolumn{2}{|c||}{対訳辞書スコア}&\multicolumn{3}{|c||}{コーパススコア}&\multicolumn{2}{|c|}{コーパス}\\\cline{2-8}スコア関数&頻度-長さ&確率&頻度&確率&生起&専門分野&ウェブ\\&(DF)&(DP)&(CF)&(CP)&(CO)&コーパス&全体\\\hline\hlineDF-CF&p/f&&p/f&&&o&\\\hlineDF-CF${\rm_f}$&p/f&&f&&&o&\\\hlineDF-CP&p/f&&&p/f&&o&\\\hlineDF-CO&p/f&&&&p/f&o&\\\hlineDF-CO${\rm_f}$&p/f&&&&f&o&\\\hlineDP-CF&&p/f&p/f&&&o&\\\hlineDP-CP&&p/f&&p/f&&o&\\\hlineCF&&&p/f&&&o&\\\hlineCP&&&&p/f&&o&\\\hline\hlineDF-CF${\rm_f}$-w&p/f&&f&&&&o\\\hlineDF-CO${\rm_f}$-w&p/f&&&&f&&o\\\hline\hlineDF&p/f&&&&&&\\\hline\end{tabular}\vspace{4pt}p(prune):枝刈りに利用,f(final):最終スコアに利用\end{table}表\ref{tab:param_method}に示すように,本論文では,辞書に基づくスコアとコーパスに基づくスコアに対して,12種類の組み合せのスコア関数を作成し評価を行った.この表において,`p(prune)'は,動的計画法のアルゴリズムを用いた訳語候補生成の過程において,式(\ref{eq:Tran_calc})の$top$を実行することで,生成された訳語候補の部分列の順位付けと枝刈りにそのスコアが用いられることを示す.`f(final)'は,生成された訳語候補の最終結果の順位付けにそのスコアが用いられることを示す.また,列`コーパス'において,`専門分野コーパス'は,あらかじめウェブから専門分野コーパスを収集し,その後,このコーパスを用いて生成された訳語候補の検証を行うことを示す.`ウェブ全体'は,サーチエンジンを通してウェブ全体を利用して訳語候補の検証を行うことを示す.スコア関数の命名方法は,`対訳辞書スコア名-コーパススコア名'の原則に基づく.例えば,スコア関数`DF-CO'は,対訳辞書スコアに`DF'を用い,コーパススコアに`CO'を用いたスコア関数である.ここで,式(\ref{eq:Tran_calc})の$top$による訳語候補の枝刈りについて考えると,不要な候補を早い段階で削減するため,基本的には対訳辞書スコアとコーパススコアの両方を用いるべきである.しかしながら,コーパスとしてウェブ全体を用いる場合は,サーチエンジンの検索に要する時間を考慮すると,訳語候補の生成過程でコーパススコアを利用することは効率的ではない.そこで,訳語候補の枝刈りにはコーパススコアを用いず,訳語候補の最終的なスコア計算のみにコーパススコアを用いる.コーパススコアを枝刈りに用いない場合は,`DF-CO${\rm_f}$'の様に,コーパススコア名の後ろに`${\rm_f}$'を付加する.そして,コーパスとしてウェブ全体を用いる場合は,`DF-CO${\rm_f}$-w'の様に,`-w'を付加する.本論文で評価したスコア関数は,コーパススコアの計算において用いるコーパスの違いにより,ウェブから収集した専門分野コーパスを用いるタイプ,サーチエンジンを通してウェブ全体を用いるタイプ,コーパスを一切用いないタイプの,3つのタイプに分けることができる.対訳辞書スコアには,訳語対が部分対応対訳辞書に出現する頻度と訳語対の構成要素長に基づく`DF'と,条件付き確率$P(s|t)$に基づく`DP'の2つがある.コーパススコアには,訳語候補がコーパスに生起する頻度に基づく`CF',訳語候補がコーパスに生起する確率に基づく`CP',訳語候補がコーパスに生起するか否かに基づく`CO'の3つがある.ここで,\ref{sec:evaluation}節で示す実験結果においては,対訳辞書`DF'を用いたスコア関数と`DP'を用いたスコア関数の間で性能に大きな差はないが,`DF'を用いた方が若干精度が高かった.そこで本論文では,精度を重視する立場に立ち,対訳辞書スコアとして主に`DF'を用いて評価を行う\footnote{本論文の焦点は,ウェブから収集した専門分野コーパスを用いる方法と,サーチエンジンを通してウェブ全体を用いる方法の比較にある.従って,定義し得るスコア関数を網羅的に評価することは行っていない.}.以下,本論文で実際に評価した辞書スコアとコーパススコアの組み合わせについて説明する.コーパスとしてウェブから収集した専門分野コーパスを用いる場合には,対訳辞書スコア`DF'を用いたスコア関数とコーパススコアとの組み合わせでは,`CF',`CP',`CO'の3種類を網羅したが,それらの性能に大差はなかった.そこで,対訳辞書スコア`DP'では,大きく性質の異なるコーパススコアである`CF',`CP'との組み合わせを評価した.ここで,スコア関数`DP-CP'は,\cite{Fujii00}で提案されたモデルに,部分対応対訳辞書に加え英辞郎自体も用いることができるように拡張を加えたスコア関数である.一方,コーパスとしてウェブ全体を用いる場合は,辞書スコアとしては`DF'を用いた.また,コーパススコア`CP'は,`CF'や`CO'と比べ,サーチエンジンの検索回数が多くなるので,評価の対象から除外した.さらに,上述したように,サーチエンジンの検索時間の都合で,コーパススコアによる枝刈りは行わない.以上をまとめると,コーパスとしてウェブ全体を用いるスコア関数としては,`DF-CF${\rm_f}$-w'と`DF-CO${\rm_f}$-w'の2種類を評価する.そして,この2つのスコア関数との直接的な比較のため,ウェブから収集した専門分野コーパスを用いるスコア関数として,コーパススコアによる枝刈りを行わないDF-CF${\rm_f}$とDF-CO${\rm_f}$についても評価を行う.最後に,対訳辞書スコアまたはコーパススコアどちらかのみを用いるスコア関数の評価のために,次のスコア関数を評価する.辞書スコアのみで訳語候補のスコア付けをした場合の評価のため,スコア関数`DF'を評価する\footnote{\ref{sec:evaluation}節の評価実験では,スコア関数`DF'は極めて低いF値であった.本論文ではスコア関数`DP'は評価していないが,同様の傾向であると思われる.}.コーパススコアのみで訳語候補のスコア付けをした場合の評価のため,スコア関数`CF'及び`CP'を評価する\footnote{スコア関数`CO'は,辞書スコアは利用せずコーパススコア`CO'のみを用いるスコア関数であるが,訳語候補のスコアが0か1となってしまい,順位付けできないので取り扱わない.}.
\section{実験と評価}
\label{sec:experiments}\subsection{評価用用語集合}\label{sec:evaluation_set}\begin{table}[b]\small\centering\caption{評価用用語の数}\label{tab:mondai_number}\begin{tabular}{|c|c|r|r|r|r|r|}\hline\multirow{2}{*}{辞書}&\multirow{2}{*}{分野}&\multirow{2}{*}{$|Y_{S}|$}&\multicolumn{2}{|c|}{$S$=英語}&\multicolumn{2}{|c|}{$S$=日本語}\\\hhline{|~|~|~|--|--|}&&&$|X_S^U|$&MBytes&$|X_S^U|$&MBytes\\\hline\hlineマグローヒル&電磁気学&30&36&28&32&99\\科学技術用語&電気工学&41&34&21&25&71\\大辞典&光学&31&42&37&22&48\\\hline岩波&プログラム言語&28&37&34&38&135\\情報科学辞典&プログラミング&28&29&33&29&110\\\hline英和コンピュータ&\multirow{2}{*}{(コンピュータ)}&\multirow{2}{*}{99}&\multirow{2}{*}{91}&\multirow{2}{*}{67}&\multirow{2}{*}{69}&\multirow{2}{*}{232}\\用語大辞典&&&&&&\\\hline&解剖学&91&91&73&33&66\\25万語&疾患&86&91&83&53&100\\医学用語大辞典&化学物質及び薬物&84&94&54&74&131\\&物理化学及び統計学&99&88&56&58&135\\\hline\hline\multicolumn{2}{|c|}{合計}&617&633&482&433&1127\\\hline\end{tabular}\end{table}実験では,図\ref{fig:overview1}で示したように,既存の対訳辞書に含まれている用語と含まれていない用語が混在した形で複数の専門用語が与えられるものとし,既存の対訳辞書に載っていない用語の訳語推定の評価を行う.本論文では,言語$\langleS,T\rangle$の組を〈英語,日本語〉または,〈日本語,英語〉とする.評価セットを作成するため,まず,表\ref{tab:mondai_number}に示す既存の4種類の日英専門用語対訳辞書「マグローヒル科学技術用語大辞典」\cite{dic-McGraw-Hill},「岩波情報科学辞典」\cite{dic-iwanami-info},「英和コンピュータ用語大辞典」\cite{dic-computer},「25万語医学用語大辞典」\cite{dic-25igaku}の10分野から,以下の条件を満たす2種類の訳語対集合を無作為に選定した.1種類目は,英辞郎にも訳語対として存在し,かつ英語用語・日本語用語共にヒット数が100以上の訳語対であり,この種類の訳語対の集合を既知訳語対集合$X_{ST}$とする.2種類目は,以下の条件を満たす訳語対$\langlet_e,t_j\rangle$の集合であり,これを未知訳語対集合$Y_{ST}$とする.ただし,$t_e$は英語の用語,$t_j$は日本語の用語を表すものとする.\begin{itemize}\item$t_e$,$t_j$共に英辞郎に見出し語として存在しない\item$t_e$は2語以上,$t_j$は2形態素以上からなる\item$t_e$及び$t_j$のヒット数は10以上\end{itemize}次に,$S=英語$,$S=日本語$,それぞれの場合において,既知訳語対集合$X_{ST}$から,英辞郎に含まれる訳語が一個の用語の集合$X_S^U$を作成した.そして,\ref{sec:corpus}節で述べた方法で,$X_S^U$の用語に対して,それら用語の英辞郎に含まれる訳語の集合$X_T^U$を利用して,各分野毎にウェブから専門分野コーパスを収集した.同様に,$S=英語$,$S=日本語$,それぞれの場合において,未知訳語対集合$Y_{ST}$から,評価用用語集合$Y_S$を作成した.そして,$Y_S$のそれぞれの用語に対して,未知訳語対集合$Y_{ST}$にもともと含まれる訳語に加えて,必要であれば人手で一個以上の正解訳語を付与した.この結果,正解訳語の個数の平均は,$S=英語$のとき1.31個,$S=日本語$のとき1.62個となった.10分野のそれぞれに対して,表~\ref{tab:mondai_number}に$X_S^U$及び$Y_{S}$に含まれる用語の個数,及び,ウェブから収集したコーパスのサイズを分野毎に示す.続いて,$Y_S$及び,それに属する用語の正解訳語の性質について述べる.$Y_S$に属する用語の構成要素数の平均は,$S$が英語のとき2.28語(2語の用語は437個で全体の70.8\%,3語以上の用語は180個で全体の29.2\%),$S$が日本語のとき2.47形態素(2形態素の用語は396個で全体の64.2\%,3形態素以上の用語は221個で全体の35.8\%)であった.また,$Y_S$の用語とその正解訳語が構成的に対応しているかどうかを調べると,$S$が英語のとき90.6\%,$S$が日本語のとき92.5\%であった\footnote{\ref{sec:intro}章では,未知訳語対集合$Y_{ST}$に含まれる訳語対が構成的かどうかを調査した結果を述べている.これに対して,本節では,未知訳語対集合$Y_{ST}$に含まれる訳語対に対して,新たに人手で正解訳語を追加したものに対して構成的かどうか評価を行っているので,\ref{sec:intro}章の結果よりも割合が増加し,また,$S$が英語のときと日本語のときで割合も異なる.}.\begin{figure}[t]\centering\includegraphics[width=300pt]{jnlp-compo-fig-benzu.eps}$t\inY_S,S(t)\mbox{は$t$の正解訳語の集合}$\begin{align*}T_g&=\{t|\existss\inS(t),s\mbox{は生成可能}\}\\T_c&=\{t|\existss\inS(t),s\mbox{はコーパスに存在}\}\\T_{gc}&=\{t|\existss\inS(t),s\mbox{は生成可能かつ}s\mbox{はコーパスに存在}\}\end{align*}\caption{正解訳語の生成可能性/コーパス中の出現による集合$Y_S$の部分集合の分類}\label{fig:benzu}\end{figure}次に,集合$Y_S$の用語のどの程度が訳語推定可能かを調べるために,$Y_S$の部分集合として,図\ref{fig:benzu}に示す$T_g$,$T_c$,$T_{gc}$を定義する.$T_g$は,対訳辞書として英辞郎と部分対応対訳辞書$B_P$,$B_S$を利用して,\ref{sec:generation}節で述べた方法で,出力される訳語候補数$r$を無限大にしたときに,正解訳語を生成可能な用語の集合である.$T_c$は,その用語が属する分野の専門分野コーパスに正解訳語が含まれている用語の集合である.$T_{gc}$は,図\ref{fig:benzu}に示したように,生成可能かつ専門分野コーパスに含まれる正解訳語が存在するという条件を満たす用語の集合である.言い換えると,英辞郎,および部分対応対訳辞書$B_P$,$B_S$を用いた訳語候補生成手法において,専門分野コーパスを利用した場合には,$T_{gc}$に属する用語に対してのみ,正解訳語を生成できる可能性がある\footnote{コーパススコア`CP'を用いた場合は,訳語推定対象の用語が$T_g$に属し,かつ,コーパススコアの確率の各項$P(t_1)$,$P(t_{i+1}|t_i)$がゼロでなければ,正解訳語そのものがコーパスに存在しなくても,正解訳語を生成できる可能性が{\linebreak}ある.}.$T_g$と$T_c$の積集合の中には,生成可能かつ専門分野コーパスに含まれる正解訳語が存在しない用語も含まれているが,このような用語に対しては正解訳語を生成することができない.$T_{gc}$は,$T_g$と$T_c$の積集合の部分集合となっていることに注意されたい.\begin{table}[t]\small\centering\caption{英辞郎と部分対応対訳辞書$B_P,B_S$における正解訳語の生成可能性と正解訳語がコーパスに存在するかどうかの調査}\label{tab:seiseika}\begin{tabular}{|c|r|r|r|r|r|r|}\hline&\multicolumn{3}{|c|}{英語→日本語}&\multicolumn{3}{|c|}{日本語→英語}\\\cline{2-7}&&コーパス&生成可能かつ&&コーパス&生成可能かつ\\\raisebox{0.5\normalbaselineskip}[0cm][0cm]{分野}&生成可能&に存在&コーパスに存在&生成可能&に存在&コーパスに存在\\&\multicolumn{1}{|c|}{($T_g$)}&\multicolumn{1}{|c|}{($T_c$)}&\multicolumn{1}{|c|}{($T_{gc}$)}&\multicolumn{1}{|c|}{($T_g$)}&\multicolumn{1}{|c|}{($T_c$)}&\multicolumn{1}{|c|}{($T_{gc}$)}\\\hline\hline電磁気学&60\%&93\%&57\%&87\%&90\%&73\%\\電気工学&71\%&78\%&59\%&71\%&68\%&51\%\\光学&61\%&65\%&35\%&71\%&68\%&52\%\\プログラム言語&86\%&93\%&79\%&82\%&100\%&82\%\\プログラミング&75\%&96\%&71\%&82\%&86\%&75\%\\コンピュータ&74\%&52\%&34\%&80\%&61\%&46\%\\解剖学&78\%&92\%&74\%&80\%&55\%&45\%\\疾患&69\%&83\%&55\%&76\%&70\%&56\%\\化学物質及び薬物&54\%&63\%&39\%&56\%&54\%&36\%\\物理化学及び統計学&85\%&71\%&58\%&80\%&61\%&53\%\\\hline全体&71.8\%&74.9\%&53.8\%&75.7\%&65.3\%&51.9\%\\\hline\end{tabular}\end{table}以上の定義をふまえて,$T_g$,$T_c$,$T_{gc}$に属する用語の割合を分野毎に調べた結果を表\ref{tab:seiseika}に示す.これより,英辞郎と部分対応対訳辞書$B_P$,$B_S$を利用して正解訳語が生成可能な用語の割合は,英日方向で71.8\%,日英方向で75.7\%であることがわかる.一方,英辞郎のみを利用して生成可能な用語の割合を評価すると,英日方向で50.4\%,日英方向で56.6\%であった.このことから,部分対応対訳辞書が有効であることがわかる.また,英辞郎,および部分対応対訳辞書$B_P$,$B_S$を用いた訳語候補生成手法において,専門分野コーパスを利用した場合には,正解訳語を生成できる用語の割合の上限は,$T_{gc}$欄より,英日方向で53.8\%,日英方向で51.9\%であることがわかる.参考として,対訳辞書として,英辞郎と部分対応対訳辞書$B$を利用して,正解訳語の生成可能性を調べた結果を表\ref{tab:fujii_seiseika}に示す.この結果を見ると,対訳辞書として,英辞郎と部分対応対訳辞書$B$を用いる方が,正解訳語を生成可能な用語数が若干多い.しかしながら,\ref{sec:bcl}節で述べたように,本論文では両者の性能を総合的に比較して,部分対応対訳辞書として$B_P,B_S$を用いている.\begin{table}[t]\small\centering\caption{英辞郎と部分対応対訳辞書$B$における正解訳語の生成可能性}\label{tab:fujii_seiseika}\begin{tabular}{|c|r|r|}\hline分野&英語→日本語&日本語→英語\\\hline\hline電磁気学&60\%&87\%\\電気工学&80\%&78\%\\光学&61\%&71\%\\プログラム言語&86\%&82\%\\プログラミング&79\%&82\%\\コンピュータ&75\%&81\%\\解剖学&79\%&81\%\\疾患&71\%&78\%\\化学物質及び薬物&55\%&57\%\\物理化学及び統計学&86\%&81\%\\\hline全体&73.6\%&77.0\%\\\hline\end{tabular}\end{table}ここで,\ref{sec:generation}節の脚注\ref{fn:of_hyphen}で述べた,前置詞``of''及びハイフンの挿入・削除に関する規則の効果について述べる.未知訳語対集合$Y_{ST}$の訳語対617個のうち,前置詞``of''を含むものは24個存在した.また,英語の用語のみにハイフンを含む訳語対は33個,日本語の用語のみにハイフンを含む訳語対は2個存在した.英日方向において,この2つの規則を加えることで,$T_g$に含まれる用語の数が27個しか増加しなかった.逆に日英方向の場合,この2つの規則を加えることで,$T_g$に含まれる用語の数が7個しか増加しなかった.$T_g$に含まれる用語数の増加が少ないのは,正解訳語を人手で付与することにより,ofやハイフンを含まない正解訳語が追加されたためである.\subsection{スコア関数の評価}\label{sec:evaluation}表~\ref{tab:param_method}に示したスコア関数を用いて,集合$Y_S$に対して訳語推定の評価実験を行った.実験の条件として,動的計画法による訳語生成過程で,保持する訳語候補の数$r$は10とした.専門分野コーパスを用いる場合は,対象の用語が属する分野の専門分野コーパスを用いる.ウェブ全体を用いる場合は,サーチエンジンとして,英日方向の場合はgooを,日英方向の場合はYahoo!を用いた.また,日英方向では,日本語の用語の分かち書きは人手で行った.\begin{table}[b]\small\centering\caption{集合$Y_S$全体に対するスコア関数の評価(再現率)}\label{tab:evaluation}\begin{tabular}{|c|r|r|r|r|}\hline&\multicolumn{2}{|c|}{英語→日本語}&\multicolumn{2}{|c|}{日本語→英語}\\\cline{2-5}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{スコア関数}&top1&top10&top1&top10\\\hline\hlineDF-CF&42.5\%&50.1\%&41.8\%&48.1\%\\DF-CF${\rm_f}$&38.2\%&41.5\%&39.5\%&44.1\%\\DF-CP&43.6\%&52.4\%&44.6\%&51.9\%\\DF-CO&44.7\%&47.6\%&43.9\%&48.6\%\\DF-CO${\rm_f}$&39.9\%&41.7\%&39.7\%&44.1\%\\DP-CF&46.0\%&54.3\%&44.7\%&51.5\%\\DP-CP&{\bf46.7\%}&56.2\%&{\bf48.9\%}&56.1\%\\CF&26.3\%&48.0\%&31.3\%&43.8\%\\CP&25.9\%&48.6\%&32.6\%&46.5\%\\\hlineDF-CF${\rm_f}$-w&{\bf52.0\%}&59.0\%&{\bf51.1\%}&65.8\%\\DF-CO${\rm_f}$-w&44.1\%&59.0\%&50.1\%&65.0\%\\\hlineDF&35.7\%&59.0\%&45.1\%&63.2\%\\\hline\end{tabular}\end{table}$Y_S$全体に対する実験の結果を表\ref{tab:evaluation}に示す.列`top1'には,スコア1位の訳語候補が正解である割合を,列`top10'には,正解訳語がスコア10位以内に含まれる割合を示す.ここで,$Y_S$全体に対して,スコア1位の訳語候補が正解である用語の割合を再現率と定義する.次に,訳語候補が1つ以上生成される用語に限定した評価の結果を表\ref{tab:precision}に示す.表の「出力あり」の欄には,訳語候補が1つ以上生成される用語数を示した.訳語候補が1つ以上生成される用語に対して,スコア1位の訳語候補が正解である割合を精度と定義する.また,「F値」の欄は,表\ref{tab:evaluation}の値を再現率として計算した.\begin{table}[t]\small\centering\caption{訳語候補が1つ以上生成される用語に対する評価}\label{tab:precision}(a)英語→日本語\vspace{4pt}\begin{tabular}{|c|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{|c|}{1位正解}&\multicolumn{3}{|c|}{10位以内正解}\\\cline{3-8}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{スコア関数}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{出力あり}&個数&精度&F値&個数&精度&F値\\\hline\hlineDF-CF&396&262&66.2\%&51.7\%&309&78.0\%&61.0\%\\DF-CF${\rm_f}$&303&236&77.9\%&51.3\%&256&84.5\%&55.7\%\\DF-CP&428&269&62.9\%&51.5\%&323&75.5\%&61.8\%\\DF-CO&379&276&72.8\%&{\bf55.4\%}&294&77.6\%&59.0\%\\DF-CO${\rm_f}$&303&246&{\bf81.2\%}&53.5\%&257&84.8\%&55.9\%\\DP-CF&455&284&62.4\%&53.0\%&335&73.6\%&62.5\%\\DP-CP&495&288&58.2\%&51.8\%&347&70.1\%&62.4\%\\CF&456&162&35.5\%&30.2\%&296&64.9\%&55.2\%\\CP&497&160&32.2\%&28.7\%&300&60.4\%&53.9\%\\\hlineDF-CF${\rm_f}$-w&481&321&{\bf66.7\%}&{\bf58.5\%}&364&75.7\%&66.3\%\\DF-CO${\rm_f}$-w&481&272&56.5\%&49.5\%&364&75.7\%&66.3\%\\\hlineDF&559&220&39.4\%&37.4\%&364&65.1\%&61.9\%\\\hline\end{tabular}\vspace{\baselineskip}(b)日本語→英語\vspace{4pt}\begin{tabular}{|c|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{|c|}{1位正解}&\multicolumn{3}{|c|}{10位以内正解}\\\cline{3-8}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{スコア関数}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{出力あり}&個数&精度&F値&個数&精度&F値\\\hline\hlineDF-CF&372&258&69.4\%&52.2\%&297&79.8\%&60.1\%\\DF-CF${\rm_f}$&317&244&77.0\%&52.2\%&272&85.8\%&58.2\%\\DF-CP&418&275&65.8\%&53.1\%&320&76.6\%&61.8\%\\DF-CO&369&271&73.4\%&{\bf55.0\%}&300&81.3\%&60.9\%\\DF-CO${\rm_f}$&317&245&{\bf77.3\%}&52.5\%&272&85.8\%&58.2\%\\DP-CF&428&276&64.5\%&52.8\%&318&74.3\%&60.9\%\\DP-CP&489&302&61.8\%&54.6\%&346&70.8\%&62.6\%\\CF&428&193&45.1\%&36.9\%&270&63.1\%&51.7\%\\CP&488&201&41.2\%&36.4\%&287&58.8\%&51.9\%\\\hlineDF-CF${\rm_f}$-w&522&315&{\bf60.3\%}&{\bf55.3\%}&406&77.8\%&71.3\%\\DF-CO${\rm_f}$-w&522&309&59.2\%&54.3\%&401&76.8\%&70.4\%\\\hlineDF&565&278&49.2\%&47.0\%&390&69.0\%&66.0\%\\\hline\end{tabular}\end{table}\subsubsection*{ウェブから収集した専門分野コーパスとウェブ全体の比較}まず,ウェブから収集した専門分野コーパスを用いる方法とウェブ全体を用いる方法の比較を行う.英日方向,日英方向で平均を取ってみると,ウェブ全体を用いるスコア関数の方が再現率が高いことがわかる.これは,表\ref{tab:seiseika}からわかるように,集合$Y_S$全体に対して,収集した専門分野コーパスに正解訳語が含まれる割合$T_c$が,英日方向で74.9\%,日英方向で65.3\%と,あまり高くないことが原因と考えられる.精度に関しては,専門分野コーパスを用いるスコア関数であれば`DF-CO${\rm_f}$'の平均79.3\%が最も高く,ウェブ全体を用いるスコア関数であれば`DF-CF${\rm_f}$-w'の平均63.5\%が最も高い.このことから,専門分野コーパスを用いるスコア関数の方が精度が高いことがわかる.これは,ウェブ全体には一般語や訳語推定対象の分野以外の用語が多数含まれており,不正解の訳語にも大きいスコアが与えられてしまうためと考えられる.F値に関しては,専門分野コーパスを用いるスコア関数であれば`DP-CO'の平均55.2\%が最も高く,ウェブ全体を用いるスコア関数であれば`DF-CF${\rm_f}$-w'の平均56.9\%が最も高い.このことから,F値には大きな差はないことがわかる.以上より,コーパスとしてウェブ全体を用いる手法は再現率を重視した手法と言える一方,専門分野コーパスを用いる手法は精度を重視した手法と言える.また,これらの考察から,ウェブから収集した専門分野コーパスを用いる方法において,精度を下げることなく,再現率を上げるためには,対象分野の用語を十分に含み,かつ,できるだけ小さなコーパスを収集する必要があることがわかる.また,両者を相補的に統合する方法としては,まず,ウェブから収集した専門分野コーパスを用いて高い精度で訳語推定を行い,訳語候補が1つも得られなかった用語に対しては,ウェブ全体を用いて訳語推定を行うことが考えられる.\subsubsection*{ウェブから収集した専門分野コーパスを用いるスコア関数の評価}次に,ウェブから収集した専門分野コーパスを用いるスコア関数を比較し評価する.まず,最も精度が高かったスコア関数は,英日方向,日英方向とも,スコア関数`DF-CO${\rm_f}$'であった.2番目に精度が高かったスコア関数は,英日方向,日英方向とも,スコア関数`DF-CF${\rm_f}$'であった.`DF-CO${\rm_f}$'や`DF-CF${\rm_f}$'のように,訳語候補の生成途中でコーパススコアを利用しないスコア関数が高い精度となったのは,辞書スコアのみを利用して生成される訳語候補のほとんどはコーパスに存在せず,最後にコーパスで検証することにより,これらがすべて消えてしまい,正解訳語が高いスコアとなって残った場合のみ,これが出力されるという現象による.このため,この2つのスコア関数の「出力あり」の個数は他のスコア関数に比べて低い値となっており,再現率は,他のスコア関数に比べ若干低い値となっている.F値で評価した場合は,他のスコア関数と大きな差はない.F値を下げずに,精度を上げたい場合は,このスコア関数が有効である.次に,辞書スコア`DF'を用いるスコア関数と辞書スコア`DP'を用いるスコア関数の比較を行う.スコア関数`DF-CF'と`DP-CF'を比較し,同様に,スコア関数`DF-CP'と`DP-CP'の比較を行う.再現率を比べると,英日方向,日英方向共に,辞書スコア`DP'を用いるスコア関数の方が再現率が若干高いことがわかる.これは,表\ref{tab:seiseika},表\ref{tab:fujii_seiseika}で示したように,対訳辞書スコア`DF'よりも対訳辞書スコア`DP'の方が,正解訳語を生成可能な用語数が多いことによると考えられる.一方,精度に関しては,対訳辞書スコア`DF'を用いるスコア関数の方が,若干高いことがわかる.F値を見た場合,対訳辞書スコア`DF'を用いるスコア関数と対訳辞書スコア`DP'を用いるスコア関数にはほとんど差がない.また,`CF',`CP',`CO'の3つのコーパススコアを用いたスコア関数の再現率を比較すると,`DF-CF',`DF-CP',`DF-CO'の間で大きな差はない.ただし,`DF-CF'と`DF-CO'を比較すると,`DF-CO'の再現率及び精度が若干高い.これは,生成された不正解の訳語が一般的な語であった場合,コーパススコア`CF'では高いスコアが与えられてしまうことが原因と考えられる.これに対して,`DF-CO'においては,訳語候補のスコアの値が対訳辞書スコア`DF'の値のみによって決定されるので,コーパス中に高頻度に出現する一般語に対して過剰に高いスコアを与えるということはない.一方,コーパススコア`CP'に注目すると,コーパススコア`CP'を用いたスコア関数`CF-CP'及び`DP-CP'の精度が他のスコア関数より低いことがわかる.コーパススコア`CP'を用いると訳語候補全体がコーパスに存在しなくても,スコアが付与されることとなり,不適切な訳語候補が数多く出力されていると考えられる.上記のコーパススコア`CP'の評価と関連して,\cite{Fujii00}で用いられた確率に基づくスコア関数の評価として,部分対応対訳辞書に加えて英辞郎自体も用いることができるように拡張を加えた`DP-CP'に注目する.このスコアは,他のスコア関数と比べ,性能に大きな差はないが,再現率が若干高く,精度が若干低い値となっている.したがって,F値でみると,他のスコア関数とほとんど差がないことがわかる.対訳辞書スコアのみを用いるスコア関数`DF'は,英日方向では再現率が他のスコア関数より低いが,日英方向では他のスコア関数に比べて遜色のない結果となった.しかしながら,精度及びF値は他のスコア関数に比べ極めて低い.このことから,訳語候補の順位付けには,コーパスに基づくスコアを用いることが必要であることがわかる.コーパススコアのみを用いるスコア関数`CF'及び`CP'に着目すると,英日方向,日英方向共に,再現率,精度,F値が最も低い.このことより,訳語候補の順位付けには,辞書に生起する頻度に基づく何らかのスコアを利用することが必要であることがわかる.\subsubsection*{前置詞とハイフンの規則の評価}\ref{sec:generation}節の脚注\ref{fn:of_hyphen}で述べた前置詞``of''とハイフンの挿入・削除に関する規則の効果について述べる.スコア関数として`DF-CO'を用いて,これらの規則の評価を行ったところ,英日方向において,この2つの規則を加えることで,正解数が18個増加した.逆に日英方向の場合,この2つの規則を加えることで,正解数が7個増加した.このことから,この2つの規則は正解数の向上に有効であることがわかる.\subsubsection*{分野別の再現率と精度に関する考察}ここでは,分野別に訳語推定の性能を評価する.まず,$Y_S$全体に対する再現率の定義と同様に,各分野に属する用語のうち,スコア1位の訳語候補が正解である用語の割合を分野別再現率と定義する.同様に,各分野に属する用語のうち,訳語候補が1つ以上生成される用語に対して,スコア1位の訳語候補が正解である割合を分野別精度と定義する.\begin{table}[b]\small\centering\caption{スコア関数`DF-CO'の分野別再現率}\label{tab:category_seikairitsu}\begin{tabular}{|c|r|r|r|r|}\hline&\multicolumn{2}{|c|}{英語→日本語}&\multicolumn{2}{|c|}{日本語→英語}\\\cline{2-5}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{分野}&top1&top10&top1&top10\\\hline\hline電磁気学&40\%&47\%&60\%&63\%\\電気工学&46\%&49\%&44\%&46\%\\光学&32\%&32\%&42\%&48\%\\プログラム言語&68\%&71\%&75\%&82\%\\プログラミング&61\%&64\%&57\%&71\%\\コンピュータ&32\%&32\%&38\%&43\%\\解剖学&52\%&57\%&36\%&41\%\\疾患&48\%&49\%&50\%&52\%\\化学物質及び薬物&35\%&37\%&33\%&35\%\\物理化学及び統計学&51\%&56\%&43\%&51\%\\\hline全体&44.7\%&47.6\%&43.9\%&48.6\%\\\hline\end{tabular}\end{table}ウェブから収集した専門分野コーパスを用いるスコア関数の中では最もF値の値が高かったスコア関数`DF-CO'を対象とし,分野別再現率を表\ref{tab:category_seikairitsu}に示す.これと,表\ref{tab:seiseika}の$T_{gc}$に属する用語の割合を比較すると,$T_{gc}$に属する用語の割合が小さい分野ほど,再現率が低くなっていることがわかる.正解訳語が生成可能な用語を増やすための対訳辞書の強化と,コーパスに正解訳語が含まれる割合の改善が課題となる.\begin{table}[t]\small\centering\caption{訳語候補が1つ以上生成される用語に対する分野別精度とF値:スコア関数`DF-CO'の結果}\label{tab:category_seido}(a)英語→日本語\vspace{4pt}\begin{tabular}{|c|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{|c|}{1位正解}&\multicolumn{3}{|c|}{10位以内正解}\\\cline{3-8}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{分野}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{出力あり}&個数&精度&F値&個数&精度&F値\\\hline\hline電磁気学&16&12&75\%&52\%&14&88\%&61\%\\電気工学&26&19&73\%&57\%&20&77\%&60\%\\光学&14&10&71\%&44\%&10&71\%&44\%\\プログラム言語&25&19&76\%&72\%&20&80\%&75\%\\プログラミング&21&17&81\%&69\%&18&86\%&73\%\\コンピュータ&53&32&60\%&42\%&32&60\%&42\%\\解剖学&64&47&73\%&61\%&52&81\%&67\%\\疾患&54&41&76\%&59\%&42&78\%&60\%\\化学物質及び薬物&36&29&81\%&48\%&31&86\%&52\%\\物理化学及び統計学&70&50&71\%&59\%&55&79\%&65\%\\\hline全体&379&276&72.8\%&55.4\%&294&77.6\%&59.0\%\\\hline\end{tabular}\vspace{\baselineskip}(b)日本語→英語\vspace{4pt}\begin{tabular}{|c|r|r|r|r|r|r|r|}\hline&&\multicolumn{3}{|c|}{1位正解}&\multicolumn{3}{|c|}{10位以内正解}\\\cline{3-8}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{分野}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{出力あり}&個数&精度&F値&個数&精度&F値\\\hline\hline電磁気学&21&18&86\%&71\%&19&90\%&75\%\\電気工学&26&18&69\%&54\%&19&73\%&57\%\\光学&16&13&81\%&55\%&15&94\%&64\%\\プログラム言語&25&21&84\%&79\%&23&92\%&87\%\\プログラミング&22&16&73\%&64\%&20&91\%&80\%\\コンピュータ&62&38&61\%&47\%&43&69\%&53\%\\解剖学&51&33&65\%&46\%&37&73\%&52\%\\疾患&51&43&84\%&63\%&45&88\%&66\%\\化学物質及び薬物&34&28&82\%&47\%&29&85\%&49\%\\物理化学及び統計学&61&43&70\%&54\%&50&82\%&63\%\\\hline全体&369&271&73.4\%&55.0\%&300&81.3\%&60.9\%\\\hline\end{tabular}\end{table}表\ref{tab:category_seido}に,訳語候補が1つ以上生成される用語に対する分野別精度を示す.スコア関数としては`DF-CO'を用いた.表\ref{tab:category_seikairitsu}において$Y_S$全体に対する分野別再現率が他の分野と比べて低かったのは「化学物質及び薬物」の分野であったが,表\ref{tab:category_seido}においては,「化学物質及び薬物」の分野の精度は英日方向,日英方向とも80\%以上という高い精度となっている.訳語候補が1つ以上生成される用語に対する評価では,$T_{gc}$に属する割合との相関はないことがわかる.\subsubsection*{翻訳ソフトによる翻訳性能との比較}$Y_S$の用語を市販の翻訳ソフトで翻訳し,その翻訳性能と表\ref{tab:evaluation}の再現率を比較する.翻訳ソフトとしては,富士通の「ATLAS翻訳パーソナル2003」,東芝の「The翻訳オフィスV6.0」,IBMの「インターネット翻訳の王様バイリンガルVersion5」の3種類を用いた.この実験は,構成要素の訳語選択がどの程度できるのかを調べるのが目的であるので,翻訳ソフトのオプションの専門用語辞書は使用しなかった.このうち最も性能が良かったのは,富士通の翻訳ソフト「ATLAS翻訳パーソナル2003」で翻訳した場合で,翻訳結果が正解であった用語の割合は英日方向26.7\%,日英方向で38.1\%であった.スコア関数`CF'及び`CP'を除くすべてのスコア関数の再現率は,翻訳ソフトによる翻訳結果が正解であった用語の割合を上回っている.\subsection{正解訳語が生成できない原因の分析}\label{sec:seiseifuka_analysis}\begin{table}[p]\small\centering\caption{生成不可の原因分析:集合$Y_S$のうち,正解訳語が生成不可能な用語を対象}\label{tab:seiseifuka}(a)英語→日本語\vspace{4pt}\begin{tabular}{|l|r|r|}\hline生成不可の主原因&個数&割合\\\hline非構成的&58&33\%\\辞書にエントリがない&73&42\%\\表記の揺れ&6&3\%\\前置詞による順序交換&6&3\%\\前置詞なし順序交換&18&10\%\\訳語に「の」が必要&2&1\%\\「性」を挿入する必要&1&1\%\\アルファベットのままにすべき&2&1\%\\正解訳語に「・」を含む&1&1\%\\複数形で辞書引き失敗&6&3\%\\ハイフンの挿入が必要&1&1\%\\\hline合計&174&100\%\\\hline\end{tabular}\vspace{\baselineskip}(b)日本語→英語\vspace{4pt}\begin{tabular}{|l|r|r|}\hline生成不可の主原因&個数&割合\\\hline非構成的&46&31\%\\辞書にエントリがない&66&44\%\\表記の揺れ&15&10\%\\前置詞による順序交換&4&3\%\\前置詞なし順序交換&13&9\%\\「性」を外す必要&2&1\%\\アルファベットのままにすべき&1&1\%\\用語に「・」を含む&1&1\%\\正解訳語が複数形&1&1\%\\訳語中に冠詞が必要&1&1\%\\\hline合計&150&100\%\\\hline\end{tabular}\par\vspace{\baselineskip}\small\centering\caption{スコア関数DF-COの訳語推定結果の分析:集合$Y_{S}$を対象}\label{tab:DF-CO}\begin{tabular}{|l||r|r|r|r|r|r|}\hline&\multicolumn{6}{|c|}{スコア1位の訳語候補}\\\hhline{|~|---|---|}&\multicolumn{3}{|c|}{英語→日本語}&\multicolumn{3}{|c|}{日本語→英語}\\\hhline{|~|---|---|}&正解&不正解&なし&正解&不正解&なし\\\hline\hline$T_{gc}$&276&30&26&271&36&13\\\hline$T_g-T_{gc}$&--&40&71&--&40&107\\\hline$\overline{T_g}$&--&33&141&--&22&128\\\hline\hline$Y_S$&276&103&238&271&98&248\\\hline\end{tabular}\end{table}本節では,対訳辞書として,英辞郎と部分対応対訳辞書$B_P$,$B_S$を用いたときに,正解訳語が生成できない場合に関して,その主原因を調査した結果について述べる.分析対象は,表\ref{tab:seiseika}に示した生成可能な用語の集合($T_g$)に属さない用語であり,英日方向で174語,日英方向で150語である.分析結果を表\ref{tab:seiseifuka}に示す.まず,用語とその正解訳語が構成的に対応しておらず,本手法では扱えないものが,英日方向で33\%,日英方向で31\%存在した.これは英日方向で,集合$Y_S$全体の9.4\%,日英方向で7.5\%に相当する.次に,辞書にエントリがないことが原因であるものが,英日方向で42\%,日英方向で44\%存在した.「ディジタル」と「デジタル」のような表記の揺れが原因であるものが,英日方向で3\%,日英方向で10\%存在した.これらに対しては,部分対応対訳辞書の強化が課題となる.英語用語中に前置詞を含まず英語と日本語で語順が異なるものが,英日方向で10\%,日英方向で9\%存在した.これらは,医学分野に多いため,特定の語が構成要素に現れた場合は,語順の入れ替えを行うという対処法が考えられる.\subsection{スコア関数`DF-CO'とスコア関数`DF-CF${\rm_f}$-w'の併用と誤り分析}\label{sec:error_analysis}\ref{sec:evaluation}節の評価では,ウェブから収集した専門分野コーパスを用いる方法は精度に優れ,ウェブ全体を用いる方法は再現率に優れることを示した.そこで,本節では,両者を相補的に統合するために,ウェブから収集した専門分野コーパスを用いるスコア関数で訳語推定を行い,その結果,訳語候補が1つも生成されない場合は,サーチエンジンを通してウェブ全体を利用するスコア関数を用いるというアプローチの評価と誤り分析を行う.ここでは,各々の方法におけるスコア関数としては,それぞれ,最もF値が大きかった`DF-CO',および,`DF-CF${\rm_f}$-w'を用いる.まず,スコア関数`DF-CO'で訳語推定を行った結果を,図\ref{fig:benzu}で示した生成可能性に関する分類を利用して整理した.その結果を表\ref{tab:DF-CO}に示す.\ref{sec:evaluation_set}節で説明したように,$T_{gc}$は生成可能かつ専門分野コーパスに含まれる正解訳語が存在する用語の集合である.$T_g$は,正解訳語を生成可能な用語の集合なので,$T_g-T_{gc}$は,いずれかの正解訳語は生成可能であるが,生成可能かつ専門分野コーパスに含まれる正解訳語は存在しない用語の集合となる.そして,$\overline{T_g}$は正解訳語が生成不可能な用語の集合である.これらの,$T_{gc}$,$T_g-T_{gc}$,及び$\overline{T_g}$に含まれる用語を,スコアが1位の訳語候補が正解か,不正解か,もしくは,訳語候補が出力されないかによって,それぞれ再分類した.\begin{table}[b]\small\centering\caption{スコア関数DF-COにおいて,$T_{gc}$中の用語に対して,正解訳語のスコアが1位とならない原因の\hspace*{32pt}分析}\label{tab:sukoa-make}\begin{tabular}{|l|r|r|r|r|}\hline&\multicolumn{2}{|c|}{英語→日本語}&\multicolumn{2}{|c|}{日本語→英語}\\\cline{2-5}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{正解訳語のスコアが1位とならない主原因}&個数&割合&個数&割合\\\hline正解訳語の辞書スコアがゼロ&13&23\%&10&20\%\\正解訳語が生成過程で枝刈りされる&25&45\%&10&20\%\\その他&18&32\%&29&59\%\\\hline合計&56&100\%&49&100\%\\\hline\end{tabular}\end{table}さらに,$T_{gc}$の用語のうち,スコア1位の訳語候補が「不正解」のものと「なし」のものに関して,正解訳語が1位とならなかった原因の分析を行った.英日方向では56個,日英方向では49個がその対象である.その結果を表\ref{tab:sukoa-make}に示す.まず,正解訳語の辞書スコアがゼロとなることが原因であるものがあった.これは,辞書スコア`DF'が,部分対応対訳辞書に一度しか現れない訳語対のスコアをゼロとするように設計されているためである.次に,正解訳語が訳語候補の生成過程で枝刈りされてしまっていることがあった.また,「その他」の理由としては,コーパス中に出現する頻度を考慮したスコア関数を用いていないことなどが挙げられる.\begin{table}[b]\small\centering\caption{スコア関数DF-COとスコア関数DF-CF${\rm_f}$-wの差分の分析:スコア関数DF-COで訳語候補が生\hspace*{32pt}成されない用語を対象}\label{tab:DF-CFf-w}\begin{tabular}{|l|r|rr|r|rr|r|}\hline\multicolumn{2}{|c}{}&\multicolumn{3}{|c|}{英語→日本語}&\multicolumn{3}{|c|}{日本語→英語}\\\hhline{|~~|---|---|}\multicolumn{2}{|c}{}&\multicolumn{3}{|c|}{正解訳語生成可能性}&\multicolumn{3}{|c|}{正解訳語生成可能性}\\\hhline{|~~|---|---|}\multicolumn{2}{|c}{}&\multicolumn{2}{|c|}{可}&不可&\multicolumn{2}{|c|}{可}&不可\\\hline\hline&&1位&63&&1位&83&\\\hhline{|~~|--~|--~|}訳語&あり&2〜10位&4&\multirow{2}{*}{39}&2〜10位&13&\multirow{2}{*}{43}\\\hhline{|~~|--~|--~|}候補&&10位以下&0&&10位以下&1&\\\hhline{|~~|--~|--~|}出力&&出力されない&8&&出力されない&16&\\\hhline{|~|-|--|-|--|-|}&なし&&22&102&&7&85\\\hline\hline\multicolumn{2}{|c|}{合計}&\multicolumn{3}{|c|}{238}&\multicolumn{3}{|c|}{248}\\\hline\end{tabular}\end{table}次に,スコア関数`DF-CO'で,訳語候補が生成されなかった用語を対象として,スコア関数`DF-CF${\rm_f}$-w'を利用して訳語推定を行い,その性能を評価した.対象は,英日方向では238個,日英方向では248個の用語である.評価結果を表\ref{tab:DF-CFf-w}に示す.ここではまず,1つ以上の訳語候補が出力されたか否かにより,「あり」と「なし」に分類している.さらに,それぞれの分類に対し,正解訳語が生成可能か否かによって,さらに分類している.そして,正解訳語が生成可能かつ,訳語候補が出力される用語に対しては,正解訳語のスコアの順位でさらに分類を行っている.ここで,正解訳語がスコア1位となったものは,英日方向で63個,日英方向で83個である.これと,スコア関数`DF-CO'の正解を合わせると,正解数は英日方向で339個,日英方向で354個となる.集合$Y_S$全体に対する再現率を求めると,英日方向で54.9\%,日英方向で57.4\%となり,他のどのスコア関数よりも高い.また,最終的に訳語候補が1つ以上出力されるものを対象にした評価を行うと,精度は,英日方向で68.8\%,日英方向で67.4\%となり,スコア関数`DF-CO'に比べて精度を大きく下げることなく,正解数を増やすことに成功した.さらに,F値は,英日方向で61.1\%,日英方向で62.0\%となり,他のどのスコア関数よりも高い.このことから,スコア関数`DF-CO'とスコア関数`DF-CF${\rm_f}$-w'を組み合わせるアプローチが有効であることがわかる.ここで,正解訳語が2位以下に出力される用語に対しては,\cite{Kida06}で提案されている用語の分野判定の技術により訳語候補の分野判定を行い,分野外の訳語候補を削除することによって,正解訳語を1位にできる可能性があると考えられる.また,正解訳語が生成不可で訳語候補が1つ以上出力されている用語に対しては,訳語候補の分野判定を行うことによって,候補数をゼロにできる可能性がある.
\section{関連研究}
\label{sec:related_work}関連研究として,\cite{Fujii00}は,言語横断情報検索の目的のために要素合成法による訳語推定法を提案した.本論文では,ここで提案されているスコア関数に対して,部分対応対訳辞書だけでなく,英辞郎自体も利用できるように拡張し(スコア関数`DP-CP'),他のスコア関数との比較を行った.その結果,スコア関数`DP-CP'は他のスコア関数と比べ,$Y_S$全体に対する評価では最も再現率が高かったが,不正解訳語も多く生成されるため,訳語候補が1つ以上生成される用語に対する評価では,精度は高くないことがわかった.そして,F値に関しては,他のスコア関数とほとんど差がなかった.\cite{Fujii00}の手法と,本論文で提案した手法の重要な違いの一つは,\cite{Fujii00}においては,訳語推定対象の用語が属する分野の文書のみを含むコーパスではなく,様々な専門分野にわたる65種類の日本の学会から出版された技術論文を集めたものをコーパスとして利用していることである.また,\cite{Fujii00}において,彼らは言語横断情報検索の性能のみを評価し,訳語推定の性能評価はしていない.\cite{Adama04}も,言語横断情報検索の性能を評価対象として,クエリー翻訳の方法を提案している.この研究では,コーパススコアはNTCIR-1\cite{Kando99-NTCIR1},または,NTCIR-2\cite{Kando01-NTCIR2-JEIR}の言語横断情報検索タスクの検索課題文書(論文等の技術文書)から求める.コーパススコアには,\cite{Fujii00}で提案されたスコアと合わせて$\chi^2$検定を用いたスコアを併用している.しかしながら,2つのコーパススコアの併用は,言語横断情報検索の精度向上には貢献しなかったと報告されている.また,カタカナ語に関しては翻字技術を適用している.\cite{Baldwin04multi}も要素合成法による訳語推定手法を提案している.コーパスに基づく8つの素性と辞書に基づく6つの素性とテンプレートに基づく2つの素性を立て,SVMを利用して訳語候補のスコア関数を学習している.この論文でも,辞書に基づく素性でのみ,もしくは,コーパスに基づく素性でのみスコア関数を構成するよりも,両者を利用した方が精度が良いことが報告されている.\cite{Baldwin04multi}の手法と,本論文で提案した手法の重要な違いは,\cite{Baldwin04multi}においては,コーパスとして,英語側ではReutersCorpusを,日本語側では毎日新聞を利用しているのに対し,本論文では,専門分野コーパスを利用した場合と,サーチエンジンを通してウェブ全体を利用した場合の比較を行っている.また,\cite{Baldwin04multi}においては,訳語推定対象の用語を,英語2単語または,日本語2形態素のものに限定している.\cite{Cao02as}もまた,複合語に対する要素合成法による訳語推定法を提案した.\cite{Cao02as}の手法では,用語の訳語候補は,用語の構成要素の訳語を結合することによって構成的に生成され,サーチエンジンを通してウェブ全体を用いて検証される.本論文では,サーチエンジン通してウェブ全体を用いて訳語候補の検証をするスコア関数を導入することによって,\cite{Cao02as}で提案されたアプローチの評価を行い,ウェブから収集した専門分野コーパスを用いる方法と比較した.その結果,訳語候補が一つ以上出力される場合においては,サーチエンジンを通してウェブ全体を用いるよりも,ウェブから収集した専門分野コーパスを用いる方が精度が良いことがわかった.その一方で,再現率に優れるのは,サーチエンジンを通してウェブ全体を用いる方法であった.そこで,この2つの方法の長所を生かすために,まず,ウェブから収集した専門分野コーパスを用いる方法で訳語推定を行い,訳語候補が一つも得られなかった場合,サーチエンジン通してウェブ全体を用いて訳語推定を行う方法を評価した.その結果,本論文で評価したどのスコア関数よりも高いF値を達成できることがわかった.なお,\cite{Cao02as}においては,英語の用語に対して中国語の訳語を推定しているが,訳語推定対象の用語は英語2単語から構成されるものに限定されている.\cite{Maeda00}は,言語横断情報検索のためのクエリー翻訳の方法を提案している.まず,要素合成法によりクエリーの訳語候補を生成する.次に,ウェブ上の頻度が一定数以上の訳語候補に対して,それぞれの訳語候補のスコアは,訳語候補の構成要素間の相互情報量を拡張した尺度で計算される.最後に,スコアの閾値を越える訳語候補を(サーチエンジンの)OR演算子で結合したものを,クエリーの翻訳結果とする.評価は言語横断情報検索の性能に関して行っているので,訳語推定結果の比較はできないが,\cite{Maeda00}らの手法は,本論文で言えば,コーパススコアのみのスコア関数を利用した手法に対応する.\cite{Kimura04}も,言語横断情報検索のために,クエリー翻訳における訳語曖昧性解消の方法を提案している.準備として,あらかじめYahoo!の日英のウェブディレクトリのそれぞれのカテゴリにおいて,特徴語の抽出と重み付与をし,日英のカテゴリの対応付けをしてしておく.検索をするときは,まず,クエリーに含まれる単語とカテゴリの特徴語を利用して適合するカテゴリを決める.次に,クエリーに含まれる各単語に対して,訳語を対訳辞書で調べる.そして,適合カテゴリの特徴語となっている訳語のうち,特徴語の重みが最も大きいものをその単語の訳語と決定する.
\section{おわりに}
\label{sec:end}本論文では,ウェブを利用した専門用語の訳語推定法について述べた.これまでに行われてきた訳語推定の方法の1つに,パラレルコーパス・コンパラブルコーパスを用いた訳語推定法があるが,既存のコーパスが利用できる分野は極めて限られている.そこで,本論文では,訳を知りたい用語を構成する単語・形態素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成し,単言語コーパスを用いて訳語候補を検証するという手法を採用した.しかしながら,単言語コーパスであっても,研究利用可能なコーパスが整備されている分野は限られている.このため,本論文では,ウェブをコーパスとして用いた.ウェブを訳語候補の検証に利用する場合,サーチエンジンを通してウェブ全体を利用する方法と,訳語推定の前にあらかじめ,ウェブから専門分野コーパスを収集しておく方法が考えられる.本論文では,評価実験を通して,この2つのアプローチを比較し,その得失を論じた.また,訳語候補のスコア関数として多様な関数を定式化し,訳語推定の性能との間の相関を評価した.実験の結果,ウェブから収集した専門分野コーパスを用いた場合,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補の生成を抑える効果が確認され,高い精度を達成できることがわかった.また,ウェブ全体を用いる方法とウェブから収集した専門分野コーパスを用いる方法を相補的に結合することにより,再現率とF値を改善できることを示した.今後の課題として,訳語推定対象の分野の用語を十分に含むできるだけ小さいコーパスを収集することが挙げられる.また,本論文で提案した,ウェブを用いた要素合成法による訳語推定法を,他の訳語推定技術と相補的に用いることが挙げられる.相補的な技術としては,用語とその訳語が併記されたテキストの利用\cite{Nagata01asl,huang-zhang-vogel:2005:HLTEMNLP}や,固有名詞の翻字の技術\cite{Knight98,Oh05}などが挙げられる.また,用語の分野判定の技術\cite{Kida06}を利用することにより,不適切な訳語候補を削除することが挙げられる.応用的な課題としては,本論文で提案した専門用語の訳語推定手法を,例えば,ウェブからの関連語収集手法\cite{Sasaki06}や,論文からの用語抽出\cite{Banba06aj}の結果に対して適用することが考えられる.\bibliographystyle{jnlpbbl_1.2}\newcommand{\gengoshori}{}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{阿玉\JBA橋本\JBA徳永\JBA田中}{阿玉\Jetal}{2004}]{Adama04}阿玉泰宗\JBA橋本泰一\JBA徳永健伸\JBA田中穂積\BBOP2004\BBCP.\newblock\JBOQ日英言語横断情報検索のための翻訳知識の獲得\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf45}(SIG10(TOD23)),\mbox{\BPGS\37--48}.\bibitem[\protect\BCAY{Baldwin\BBA\Tanaka}{Baldwin\BBA\Tanaka}{2004}]{Baldwin04multi}Baldwin,T.\BBACOMMA\\BBA\Tanaka,T.\BBOP2004\BBCP.\newblock\BBOQTranslationbyMachineofCompoundNominals:GettingitRight\BBCQ\\newblockIn{\BemProc.ACL2004WorkshoponMultiwordExpressions:IntegratingProcessing},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{馬場\JBA外池\JBA宇津呂\JBA佐藤}{馬場\Jetal}{2006}]{Banba06aj}馬場康夫\JBA外池昌嗣\JBA宇津呂武仁\JBA佐藤理史\BBOP2006\BBCP.\newblock\JBOQ対訳辞書とウェブを利用した専門文書中の用語の訳語推定\JBCQ\\newblock\Jem{言語処理学会第12回年次大会論文集},\mbox{\BPGS\416--419}.\bibitem[\protect\BCAY{Cao\BBA\Li}{Cao\BBA\Li}{2002}]{Cao02as}Cao,Y.\BBACOMMA\\BBA\Li,H.\BBOP2002\BBCP.\newblock\BBOQBaseNounPhraseTranslationUsing{Web}Dataandthe{EM}Algorithm\BBCQ\\newblockIn{\BemProc.19th{COLING}},\mbox{\BPGS\127--133}.\bibitem[\protect\BCAY{コンピュータ用語辞典編集委員会}{コンピュータ用語辞典編集委員会}{2001}]{dic-computer}コンピュータ用語辞典編集委員会\JED\\BBOP2001\BBCP.\newblock\Jem{英和コンピュータ用語大辞典}.\newblock日外アソシエーツ.\bibitem[\protect\BCAY{藤井\JBA石川}{藤井\JBA石川}{2000}]{Fujii00}藤井敦\JBA石川徹也\BBOP2000\BBCP.\newblock\JBOQ技術文書を対象とした言語横断情報検索のための複合語翻訳\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(4),\mbox{\BPGS\1038--1045}.\bibitem[\protect\BCAY{Fung\BBA\Yee}{Fung\BBA\Yee}{1998}]{Fung98as}Fung,P.\BBACOMMA\\BBA\Yee,L.~Y.\BBOP1998\BBCP.\newblock\BBOQAn{IR}ApproachforTranslatingNewWordsfromNonparallel,ComparableTexts\BBCQ\\newblockIn{\BemProc.17th{COLING}and36th{ACL}},\mbox{\BPGS\414--420}.\bibitem[\protect\BCAY{Huang,Zhang,\BBA\Vogel}{Huanget~al.}{2005}]{huang-zhang-vogel:2005:HLTEMNLP}Huang,F.,Zhang,Y.,\BBA\Vogel,S.\BBOP2005\BBCP.\newblock\BBOQMiningKeyPhraseTranslationsfromWebCorpora\BBCQ\\newblockIn{\BemProc.HLT/EMNLP},\mbox{\BPGS\483--490}.\bibitem[\protect\BCAY{医学用電子化AI辞書研究会}{医学用電子化AI辞書研究会}{1996}]{dic-25igaku}医学用電子化AI辞書研究会\JED\\BBOP1996\BBCP.\newblock\Jem{25万語医学用語大辞典}.\newblock日外アソシエーツ.\bibitem[\protect\BCAY{Kando,Kuriyama,\BBA\Yoshioka}{Kandoet~al.}{2001}]{Kando01-NTCIR2-JEIR}Kando,N.,Kuriyama,K.,\BBA\Yoshioka,M.\BBOP2001\BBCP.\newblock\BBOQOverviewofJapaneseandEnglishInformationRetrievalTasks(JEIR)attheSecondNTCIRWorkshop\BBCQ\\newblockIn{\BemProc.2ndNTCIRWorkshopMeeting},\mbox{\BPGS\73--96}.\bibitem[\protect\BCAY{Kando,Kuriyama,\BBA\Nozue}{Kandoet~al.}{1999}]{Kando99-NTCIR1}Kando,N.,Kuriyama,K.,\BBA\Nozue,T.\BBOP1999\BBCP.\newblock\BBOQNACSIStestcollectionworkshop(NTCIR-1)\BBCQ\\newblockIn{\BemProc.22ndSIGIR},\mbox{\BPGS\299--300}.\bibitem[\protect\BCAY{木田\JBA外池\JBA宇津呂\JBA佐藤}{木田\Jetal}{2006}]{Kida06}木田充洋\JBA外池昌嗣\JBA宇津呂武仁\JBA佐藤理史\BBOP2006\BBCP.\newblock\JBOQウェブを利用した専門用語の分野判定\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ89-D}(未定).\bibitem[\protect\BCAY{木村\JBA前田\JBA宮崎\JBA吉川\JBA植村}{木村\Jetal}{2004}]{Kimura04}木村文則\JBA前田亮\JBA宮崎純\JBA吉川正俊\JBA植村俊亮\BBOP2004\BBCP.\newblock\JBOQWebディレクトリを言語資源として利用した言語横断情報検索\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf45}(SIG7(TOD22)),\mbox{\BPGS\208--217}.\bibitem[\protect\BCAY{Knight\BBA\Graehl}{Knight\BBA\Graehl}{1998}]{Knight98}Knight,K.\BBACOMMA\\BBA\Graehl,J.\BBOP1998\BBCP.\newblock\BBOQMachineTransliteration\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf24}(4),\mbox{\BPGS\599--612}.\bibitem[\protect\BCAY{前田\JBA吉川\JBA植村}{前田\Jetal}{2000}]{Maeda00}前田亮\JBA吉川正俊\JBA植村俊亮\BBOP2000\BBCP.\newblock\JBOQ言語横断情報検索におけるWeb文書群による訳語曖昧性解消\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf41}(SIG6(TOD7)),\mbox{\BPGS\12--21}.\bibitem[\protect\BCAY{Matsumoto\BBA\Utsuro}{Matsumoto\BBA\Utsuro}{2000}]{Matsumoto00a}Matsumoto,Y.\BBACOMMA\\BBA\Utsuro,T.\BBOP2000\BBCP.\newblock\BBOQLexicalKnowledgeAcquisition\BBCQ\\newblockInDale,R.,Moisl,H.,\BBA\Somers,H.\BEDS,{\Bem{\emHandbookofNaturalLanguageProcessing}},\BCH~24,\mbox{\BPGS\563--610}.MarcelDekkerInc.\bibitem[\protect\BCAY{マグローヒル科学技術用語大辞典編集委員会}{マグローヒル科学技術用語大辞典編集委員会}{1998}]{dic-McGraw-Hill}マグローヒル科学技術用語大辞典編集委員会\JED\\BBOP1998\BBCP.\newblock\Jem{マグローヒル科学技術用語大辞典}.\newblock日刊工業新聞社.\bibitem[\protect\BCAY{長尾\JBA石田\JBA稲垣\JBA田中\JBA辻井\JBA所\JBA中田\JBA米澤}{長尾\Jetal}{1990}]{dic-iwanami-info}長尾真\JBA石田晴久\JBA稲垣康善\JBA田中英彦\JBA辻井潤一\JBA所真理雄\JBA中田育男\JBA米澤明憲\JEDS\\BBOP1990\BBCP.\newblock\Jem{岩波情報科学辞典}.\newblock岩波書店.\bibitem[\protect\BCAY{Nagata,Saito,\BBA\Suzuki}{Nagataet~al.}{2001}]{Nagata01asl}Nagata,M.,Saito,T.,\BBA\Suzuki,K.\BBOP2001\BBCP.\newblock\BBOQUsingthe{Web}asaBilingualDictionary\BBCQ\\newblockIn{\BemProc.WorkshoponData-drivenMethodsinMachineTranslation},\mbox{\BPGS\95--102}.\bibitem[\protect\BCAY{Oh\BBA\Choi}{Oh\BBA\Choi}{2005}]{Oh05}Oh,J.\BBACOMMA\\BBA\Choi,K.\BBOP2005\BBCP.\newblock\BBOQAutomaticExtractionofEnglish-KoreanTranslationsforConstituentsofTechnicalTerms\BBCQ\\newblockIn{\BemProc.2ndIJCNLP},\mbox{\BPGS\450--461}.\bibitem[\protect\BCAY{Rapp}{Rapp}{1999}]{Rapp99as}Rapp,R.\BBOP1999\BBCP.\newblock\BBOQAutomaticIdentificationofWordTranslationsfromUnrelated{English}and{German}Corpora\BBCQ\\newblockIn{\BemProc.37th{ACL}},\mbox{\BPGS\519--526}.\bibitem[\protect\BCAY{佐々木\JBA宇津呂\JBA佐藤}{佐々木\Jetal}{2006}]{Sasaki06}佐々木靖弘\JBA宇津呂武仁\JBA佐藤理史\BBOP2006\BBCP.\newblock\JBOQ関連用語収集問題とその解法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\151--175}.\bibitem[\protect\BCAY{高木\JBA木田\JBA外池\JBA佐々木\JBA日野\JBA宇津呂\JBA佐藤}{高木\Jetal}{2005}]{Takagi05aj}高木俊宏\JBA木田充洋\JBA外池昌嗣\JBA佐々木靖弘\JBA日野浩平\JBA宇津呂武仁\JBA佐藤理史\BBOP2005\BBCP.\newblock\JBOQウェブを利用した専門用語対訳集自動生成のための訳語候補収集\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\mbox{\BPGS\13--16}.\bibitem[\protect\BCAY{Tonoike,Kida,Takagi,Sasaki,Utsuro,\BBA\Sato}{Tonoikeet~al.}{2005}]{Tonoike05cs}Tonoike,M.,Kida,M.,Takagi,T.,Sasaki,Y.,Utsuro,T.,\BBA\Sato,S.\BBOP2005\BBCP.\newblock\BBOQEffectofDomain-SpecificCorpusinCompositionalTranslationEstimationforTechnicalTerms\BBCQ\\newblockIn{\BemProc.2ndIJCNLP,CompanionVolume},\mbox{\BPGS\116--121}.\end{thebibliography}\begin{biography}\bioauthor{外池昌嗣}{2001年京都大学工学部情報学科卒業.2003年同大学大学院情報学研究科修士課程知能情報学専攻修了.2007年同大学大学院情報学研究科博士後期課程修了予定.自然言語処理の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学情報学研究科知能情報学専攻講師を経て,2006年より筑波大学大学院システム情報工学研究科知能機能システム専攻助教授.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院博士課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\end{biography}\biodate\end{document}
| |
V20N02-02
|
\section{はじめに}
\label{First}ロボットと人間との関係は,今後大きく変化していくと考える.今までのような単純な機械作業だけがロボットに求められるのではなく,例えば施設案内や介護現場のサポート,愛玩目的,ひいては人間と同じようにコミュニケーションを行うパートナーとしての存在も要求されると考える.このとき,人間との円滑なコミュニケーションのために必要不可欠となるのが会話能力である.あいさつや質問応答,提案,雑談といった様々な会話を人間のように行えてこそ,自然なコミュニケーションが実現すると考える.ロボットがこういった会話,とくに提案や雑談といった能動的なものを行うためにはそのためのリソースが必要である.例えば日々の時事情報が詰まった新聞などは,情報量の多さや入手の手軽さ,話題の更新速度などから言っても適当なリソースといえる.この新聞記事によって与えられる時事情報を会話の話題として利用することは,ロボットに人間らしい会話を行わせるためには有効なのではないかと考えた.新聞記事を利用した会話をロボットに行わせる最も簡単な方法は,新聞記事表現を会話テンプレートに埋め込むといったものと考える.このとき問題になるのが新聞記事表現の難解さである.新聞のように公に対して公開される文章は短い文で端的に内容を表すため,馴染みの薄い難解な言葉,俗にいう「堅い」言葉を多く使う.これらの言葉は文章として読むには違和感はないが,会話に用いるには自然ではないことが多い.例えば「貸与する」という言葉は会話では「貸す」という言い方をするほうが自然である.また,一般的にはそう難解ではない言葉,例えば「落下した」という言葉も会話ということを考えると「落ちた」のような更に易しい表現の方が馴染みやすいと感じる.つまり会話に用いられる言葉と新聞といった公的な文中に用いられる言葉の間には,同じ意味を表すにしても難易度や馴染みの深さに違いがある.ロボットの発話リソースとして新聞を用いることを考えると,このような語の馴染みの違いに考慮しなければならない.そこで本稿ではロボットと人間との自然な会話生成を担う技術の一端として,新聞記事中の難解な語を会話表現に見あった平易な表現へと変換する手法を提案する.本稿では変換後の記事をより人間にとって違和感の無いものとするために,人間が自然に行う語の変換に則った処理を提案する.つまり,語をそれと同じもしくは近い意味の別の平易な1語に変換する1:1の変換処理(1語変換)および語を平易な文章表現に変換する1:$N$の変換処理($N$語変換)の双方を併用することで人間が自然だと感じる語の変換を目指す.語の難解さ,平易さの判断には\cite{Book_01}で報告されている単語親密度を用いる.これは語の「馴染み深さ」を定量化した数値であり,新聞記事に用いられる語と一般的な会話に用いられる語の間にある単語親密度の差を調査することで新聞記事中の難解語を自動的に判断,平易な表現への変換を可能とする.また,変換処理を行う上で重要な意味の保持に関しては,人間の連想能力を模倣した語概念連想を用いることでそれを実現する.語と語,文と文の間の意味関係を柔軟に表現することを目指した語概念連想の機構を利用することで,変換前の記事が持つ意味を考慮した変換を行う.
\section{関連研究と本研究の特徴}
\label{Second}文中の語を他の表現に変換に関する研究は数多くなされており,平易な表現への変換技術そのものとしての研究\cite{Article_02}やWeb検索への利用を目的とした複数パターンの変換の生成\cite{Article_13},利用者の言語能力に配慮した平易化\cite{Article_01,Article_12,Article_16},会話への利用\cite{Article_15}といった形で報告が成されている.これらの研究においても,語の表現を変換するためのアプローチとして\ref{First}章で述べたような1:1の変換処理および語を文によって表現する1:{$N$}の変換処理が挙げられている.1:1の変換については,例えば\cite{Article_01}では児童向け新聞の記事と一般の新聞記事との間でベクトル空間モデルによるマッチングを取り,同一内容の記事の対から1語対1語の変換対を作成している.また\cite{Article_13}ではWebを用いて入力された文字列中の語の変換候補を生成している.変換対象となる語(名詞,形容詞,動詞,カタカナ語)を入力から取り除いた文字列を用いてWeb検索を行うことで,変換対象の語があった場所に入る他の語を取得することが出来る.対して\cite{Article_02}の報告では,国語辞典の定義文を変換に用いる1:$N$の変換処理が報告されている.定義文を変換に適した形の文に整形するルールを策定し,日本語として違和感の無い変換を行うことを目指している.これらの変換処理はそれぞれ,1:1の変換処理および1:$N$の変換処理を単独で行っているが,本稿で提案する手法はこの双方を組み合わせることでより人間の思考に沿った変換処理を提案できると考える.人間がある語の変換を行う際には,まず別の1語に言い換えることができないかを考える.これは変換の対象となる語の同義語や類義語によって行うことが可能である.しかし同義語や類義語を持たない語も数多く存在することを考えると,この1:1の変換では不十分である.また私たちの行う会話では,1つの語の変換に文を用いる場合も多々考えられる.これは分かりにくい語が出現した場合にその語の「意味を説明する」ことで語の変換を行っている.例えば「明言」という語ならば,同じ意味を持つ一語を探すよりも「はっきりと言い切る」という文による変換が自然である.1つの語に対して文,つまり$N$個の語による変換という機能が無ければ,人間の会話に近い自然な変換はできない.\cite{Article_12}や\cite{Article_16}では,本稿と同じく1:1の変換と1:$N$の変換の組み合わせについて述べられている.例えば\cite{Article_12}では対象となる文章を自治体のWebページに固定し,人手による変換対の作成によって語の変換を実現している.変換対はシソーラスや国語辞典の定義文を人の目で参照して作成しており,よってある語を変換するための対は1語である場合もあれば短い文の場合もある.\cite{Article_16}では文化遺産に関する説明文を平易化することを目的として,そのための変換パターンの解析を行っている.この中では専門用語に対して文章による変換で補足を行うパターンや,外来語を同じ意味の日本語へ変換するといった手法により説明文を平易化できると報告している.これらの手法では変換対や変換のためのパターンが人手により作成されるため高精度を期待できるが,それに伴う労力も非常に大きい.また,変換対象を固定しているため作成した変換対やパターンの汎用性に欠けると考えられる.本稿の提案手法では変換のための語や文を既存の辞書資源から自動的に選択するため,労力や汎用性の点で優位性があると考える.国外でも語の変換に着目した評価型ワークショップ\cite{Article_22,Article_23}が開催され,\cite{Article_24,Article_25,Article_26}といった研究が報告されている.\cite{Article_22}では文章中の英単語1語を別の語で変換するというタスクが設定されており,例えば\cite{Article_24}では変換のための語を得るために$N-gram$,語の出現頻度,Webヒット件数,さらには変換前の文章を他言語に翻訳した後,再度英語に翻訳するなどの様々な手法を組み合わせることで語にポイント付けを行い,変換を実現している.\cite{Article_23}では\cite{Article_22}で示された1語の変換に際してより平易な語を選択するというタスクになっている.例えば\cite{Article_25}では\cite{Article_24}のポイント付けを基礎とし,さらに\cite{Article_27,Article_28}で定義された心理言語学的モデル,例えば語の具体性やイメージアビリティといった側面でスコア付けを行ったデータを用いて平易性の判断を行っている.\cite{Article_26}では語の平易性の判断材料として様々なコーパス内における出現頻度や語の長さを用いている.これらのタスクにおいても変換の処理は1:1のものが大半であり,英文による変換は行われていない.また,\cite{Article_23}のタスクでは人手で用意された変換の候補となる語に対して平易性のランク付けをすることで変換を行っており,変換の候補となる語の選出は行っていない.候補の選出処理は\cite{Article_24}によって報告されているが,この手法は\cite{Article_22}における総括でも述べられている通り,変換に必要なリソースや処理過程が非常に複雑なものとなっている.前述したとおり,本稿の提案手法では1:1および1:$N$の変換手法を組み合わせることで人間の自然な変換を実現する点,語概念連想を用いることで変換のための語や文を既存の辞書資源から自動的に選択できる点でこれらの研究と比べて優位性があると考える.
\section{難解語の変換手法の概要}
本稿で提案する難解語の変換手法は人間が自然に行う語の変換に沿い,1:1および1:$N$の変換処理を組み合わせることで行う.同義語,類義語を用いた1:1の変換処理(1語変換)と,1つの語を文で変換する1:$N$の変換処理($N$語変換)によりこれを実現する.また,各変換処理において人間の連想能力を模倣した語概念連想を用いることで,語の表記に依存しない柔軟な語の変換を行う.語と語,文と文の意味的な近さを考慮した変換を行うことで,人間の常識に沿った語の選択や多義性の解消を図ることが出来る.語概念連想の詳しい構造については\ref{Gogainen}章に示す.\begin{figure}[b]\begin{center}\includegraphics{20-2ia2f1.eps}\end{center}\caption{語変換処理の概要図}\label{fig:gaiyouzu}\end{figure}図\ref{fig:gaiyouzu}に提案する語変換処理の概要図を示す.入力は新聞記事とし,語の変換処理は句点を区切りとする記事中の1文ずつで行う.入力された記事中から会話に適さない馴染みの薄い語(難解語)を判別し,別の平易な語もしくは文に変換する.難解語の判別には単語親密度\cite{Book_01}を用いる.単語親密度とは単語に対する馴染みの度合いを主観的に評価した値であり,数値が高いほどより馴染みのある単語であることを示す.これは18歳以上の被験者40名に対して単語を提示し,1から7までの数字で馴染みがあるか否かを評価した結果を平均化することで算出される.表\ref{tab:tansin_rei}に単語親密度の一部を示す.\begin{table}[b]\vspace{-1\Cvs}\caption{単語親密度の例}\label{tab:tansin_rei}\input{02table01.txt}\end{table}表\ref{tab:tansin_rei}に示した通り,例えば「あいさつ」のようにごく一般的な語は単語親密度が高く,万人にとって馴染みの深い語であることがわかる.一方「サイドマイド」(睡眠薬の一種)は専門的な用語であり,一般的には馴染みが薄く単語親密度も低い値となる.日常的に使用する語とは,万人にとって馴染みのある語であると考える.新聞記事中に現れる「危ぶむ」という表現は,一般的な会話ならば「心配する」程度の表現の方が違和感なく馴染みやすい.つまり馴染みの度合いが高い語ほど会話への利用に適していると考えられる.また単語親密度が高ければ高い語ほど,その語を文字として提示された場合と音声として提示された場合の双方で語彙判断の反応時間が短く認知の誤りも少ないという結果が報告されており\cite{Article_20,Article_21,Book_05},この事からも単語親密度が高い語ほど会話への利用に適した平易な語であるといえる.そこで本稿では単語親密度が低い語を変換すべき難解語とみなし,平易な表現への変換処理を行う.難解語と置き換える平易な表現は語の同義・類義関係を示した関係語辞書\cite{Article_10,Article_11}および国語辞書から得る.1語変換においては国語辞典から自動構築された関係語辞書を用いて難解語の同義語・類義語を取得し,これらを変換に用いる語の候補(変換候補語)とする.辞書における同義語はある語と同じ意味を持つ別表記の語,類義語は類似の意味を持ち言い換えることの出来る語と定義されているため,これらの語を用いることで1語変換を行うことができる.$N$語変換では国語辞書を用いて難解語の意味を説明する定義文を取得し,これらを変換に用いる文の候補(変換候補文)とする.$N$語変換に用いる変換候補文は辞書に記載されているそのままの形で語の変換を行うと,出力される文が日本語として不自然な場合がある.例えば辞書の定義文に出現する「転じて」や「〜の別名」といった言い回しは,そのままの形で変換に用いた場合に不自然さを発生させる要因となる.このような変換に必要の無い語を不要語と定義し,不要語リストを用いてこれらの削除を行う.また,元の記事中の語を定義文で変換した際にWhatやWhoといった文中の情報が重複することによって不自然さが発生する場合がある.そこで意味理解システム\cite{Article_03}を用いて不自然さを排除した上で難解語を文に変換し,会話に適した語句で構成された文を出力する.
\section{語概念連想}
\label{Gogainen}一般的に語や文の類似性を計る際には,ベクトル空間モデル\cite{Article_08}のように単語の出現頻度や共起,表記の一致などを利用した手法が往々にとられる.しかし人間はそのような情報に依存することなく,語と語や文と文の間に意味的な関連性を自然と連想し,処理している.そのような人間の連想能力を模倣し,人間らしい柔軟な言葉の意味理解を行う機構として語概念連想が提案されている.語概念連想は語の意味定義を行う概念ベース\cite{Article_04}と,語と語の間の関連性を定量的に表現する手法である関連度計算方式\cite{Article_05},そしてヒッチコック型輸送問題\cite{Book_06}で計算される距離尺度であるEarthMover'sDistance(EMD)を用いた記事関連度計算方式\cite{Article_06}を有する,人間の連想能力を表現した機構である.語概念連想に関する研究報告ではベクトル空間モデルといった従来手法と比べてその有効性が示されている\cite{Article_05}.本稿では語の変換を行う際に,元の語と変換の候補となる語(変換候補語)との間の意味的な近さを考慮するために語概念連想を用いる.具体的には,まず1語変換においては複数得られる可能性のある同義語・類義語の中から最も元の語に近い意味を持つ変換候補語を選別するために関連度計算方式を用いる.次に$N$語変換においては多義性の解消のためにEMDを用いた記事関連度計算方式を用いる.これは難解語が多義語であった場合に辞書の定義文が複数取得されるため,文書間の関連性を定量化することで元の記事と最も関連の強い定義文を判別し,意味の特定を図るものである.以下に概念ベース,関連度計算方式,EMDを用いた記事関連度計算方式について述べる.\subsection{概念ベース}概念ベースは複数の電子化国語辞書などの見出し語を概念と定義し,見出し語の定義文に使われる自立語群を概念の特徴を表す属性として構築された知識ベースである.本稿で使用した概念ベースは自動的に概念および属性を構築した後に人間の常識に沿った属性の追加や削除を行ったものであり,概念は87,242語となっている.概念ベースのある概念$A$は,$m$個の属性$a_i$と,その属性の重要性を表す重み$w_i$の対によって次のように表現される.\[\text{概念}A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_m,w_m)\}\]概念$A$の意味定義を行う属性$a_i$を,概念$A$の一次属性と呼ぶ.概念ベースの特徴として,属性を成す単語群も概念ベースの中で概念として定義されている点がある.つまり属性$a_i$を概念とみなして更に属性を導くことができる.概念$a_i$から導かれた属性$a_i{}_j$を,元の概念$A$の二次属性と呼ぶ.概念ベースの具体例を表\ref{tab:gainenrei}に示す.\begin{table}[t]\caption{概念ベースの例}\label{tab:gainenrei}\input{02table02.txt}\end{table}例えば「医者」という概念が持つ属性「患者」は,概念「患者」としても定義されている.この概念「患者」の持つ「病人,看病,治療,…」といった属性群が,元の概念「医者」の二次属性ということになる.\subsection{関連度計算方式}\label{DOA}関連度計算方式は概念ベースの特徴である属性の連鎖的構造を活用して,高い精度で概念間の関連性を定量化することが可能である.概念をベクトルで表現し,概念間の関連性をベクトル内積により算出した場合と比較しても,関連度計算方式は高い精度となっており,概念間の関連性の定量化における関連度の有効性が示されている\cite{Article_05}.以下に関連度計算方式の具体的な処理を述べる.関連度計算方式では2つの概念間の関連性を関連度という値で定量的に表現する.関連性を算出する概念の二次属性を用いて,それぞれの一次属性を最も関連が強いもの同士で対応付けを行った上で算出する.以下に,概念$A$と概念$B$の関連度$DoA(A,B)$の算出方法について示す.概念$A$および概念$B$の一次属性をそれぞれ$a_i$,$b_i$とし,対応する重みを$u_i$,$v_i$とする.それぞれが持つ属性数が$L$個と$M$個($L\leqM$)とすると,概念$A$,$B$はそれぞれ以下のようになる.\begin{gather*}\text{概念}A=\{(a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L)\}\\\text{概念}B=\{(b_1,v_1),(b_2,v_2),\cdots,(b_M,v_M)\}\end{gather*}なお,このとき各概念の属性の重みを,その総和が1.0となるよう正規化している.ここで一次属性の数が少ない概念$A$の属性の並びを固定する.その上で概念$B$の各一次属性を対応する概念$A$の各一次属性との一致度$DoM(A,B)$の合計が最大になるように並べ替える.ただし,概念$A$の属性と対応付けされなかった属性については無視する.\[\text{概念}B=\{(b_{x1},v_{x1}),(b_{x2},v_{x2}),\cdots,(b_{xL},v_{xL})\}\]このとき,概念$A$と概念$B$の関連度$DoA(A,B)$は,\begin{equation}\mathit{DoA}(A,B)=\displaystyle{\sum_{i=1}^{L}\mathit{DoM}(a_i,b_{xi})\times\frac{(u_i+v_{xi})}{2}\times\frac{\mathit{min}(u_i,v_{xi})}{\mathit{max}(u_i,v_{xi})}}\end{equation}と定義する.ここで$\mathit{min}(u_i,v_{xi})$は$u_i$と$v_{xi}$を比較して小さい値を,$\mathit{max}(u_i,v_{xi})$は大きい値を指す.なお,一致度$\mathit{DoM}(A,B)$は以下のように定義する.\begin{equation}\mathit{DoM}(A,B)=\displaystyle{\sum_{a_i=b_j}^{}\mathit{min}(u_i,v_j)}\end{equation}$a_i=b_j$は属性が表記的に一致した場合を示している.つまり一致度とは概念$A$と概念$B$双方が共通して持つ属性の内,小さいほうの重みを足し合わせたものとなる.共通した属性は概念$A$と概念$B$でそれぞれ重みが付与されており,このうち小さいほうの重み分は概念$A$と概念$B$両方の属性に有効であると考えるためである.\subsection{EMDを用いた記事関連度計算方式}\label{EMD}EMDを用いた記事関連度計算方式は,ヒッチコック型輸送問題\cite{Book_06}(需要地の需要を満たすように供給地から輸送を行う際の最小輸送コストを解く問題)で計算される距離尺度であるEMDを文書検索へ適用したもので,2つの記事間の関連性を定量的に表現することが可能であり\cite{Article_06}によりその有用性が報告されている.EMDとは2つの離散分布があるときに一方からもう一方の分布への変換を行う際の最小コストを指す.離散分布はそれを構成する要素と重みの対の集合で表現され,コスト算出の際には変換前の離散分布の要素が持つ重みを供給量,変換先の離散分布の要素が持つ重みを需要量と考え,要素間の距離を供給量,需要量にしたがって重みを運送すると考える.できるだけ短い距離で,かつ需要量に対して効率的に重みを運送する経路がEMDとなる.これを文書検索に適応させる際には,文章中の自立語(名詞,動詞,形容詞)を要素として捉え,自立語の集合を離散分布と考える.ある文章の離散分布を違う文章の離散分布へ変換すると考えると,その際のコストが最小となる文章が元の文章に最も近い文章となり文書検索へ適用することが可能となる.EMDを用いた記事関連度計算方式について,以下の図\ref{fig:EMD}に示すような簡略図を用いて説明する.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f2.eps}\end{center}\caption{EMDによる記事関連度計算方式}\label{fig:EMD}\end{figure}ある文書$A$と$B$があったとき,文書$A$を文書$B$に変換する際のコストを考える.それぞれの文書を文中の自立語$\mathit{Word}_{Ai},\mathit{Word}_{Bj}$の離散分布と考える.まず自立語それぞれには重みの付与を行うが,本稿では$tf・idf$の考え方を用いた.語の網羅性である$tf$は,文書$A$中に出現する語$\mathit{Word}_{Ai}$の頻度$\mathit{tfreq}(\mathit{Word}_{Ai},A)$を文書$A$中のすべての語数$\mathit{tnum}(A)$で割ったものを利用する.算出式は以下のようになる.\begin{equation}\mathit{tf}(\mathit{Word}_{Ai},A)=\frac{\mathit{tfreq}(\mathit{Word}_{Ai},A)}{\mathit{tnum}(A)}\end{equation}次に語の特定性である$idf$については,概念ベース$idf$\cite{Article_09}を用いた.概念ベースは一次属性,二次属性,というように$N$次までの属性の連鎖集合を持つ.この$N$次まで属性を展開した空間内で,ある概念$X$を属性として持つ概念数から算出されるのが概念ベース$idf$である.概念ベース$idf$の算出式は以下のように定義される.\begin{equation}CV_N(\mathit{Word}_{Ai})=\log\frac{V_{\mathit{all}}}{\mathit{df}_N(\mathit{Word}_{Ai})}\end{equation}$CV_N(\mathit{Word}_{Ai})$は$N$次属性空間内における概念$\mathit{Word}_{Ai}$の概念ベース$idf$である.$V_{\mathit{all}}$は概念ベースに定義されている全概念数,$\mathit{df}_N(\mathit{Word}_{Ai})$は$N$次属性集合内において概念$\mathit{Word}_{Ai}$を属性として持つ概念の数である.本稿では\cite{Article_09}の報告より最も精度が良いとされる三次属性空間内における概念ベース$\mathit{idf}$を用いた.以上で示した式により,自立語$\mathit{Word}_{Ai}$へ付与する重み$w$は次のような式で定義される.\begin{equation}w=\mathit{tf}(\mathit{Word}_{Ai},A){\times}CV_3(\mathit{Word}_{Ai})\end{equation}つまりある自立語の重みは,自立語の網羅性$\mathit{tf}$と自立語の概念ベース$\mathit{idf}$を掛け合わせることで与えられる.このようにして文書$A,B$共に自立語への重みを付与する.ここでは例として図\ref{fig:EMD}のように重みが付与されたとする.EMDでは変換コストの算出を行う際に離散分布を構成する要素同士の距離を用いる.EMDを用いた記事分類方式ではこの距離を自立語同士の関連性であると考え,一致度によってこれを求める.$\mathit{Word}_{A1}$と$\mathit{Word}_{B1}$の距離$\mathit{dis}_{A1B1}$は次の式で表される.\begin{equation}\mathit{dis}_{A1B1}=1-\mathit{DoM}(\mathit{Word}_{A1},\mathit{Word}_{B1})\end{equation}一致度は関連性が高いと値が大きくなるため,1から引いた値を距離としている.ここで$\mathit{Word}_{A1}$と$\mathit{Word}_{B1}$の間の変換コスト$\mathit{cost}_{A1B1}$は次の式で算出される.\begin{equation}\mathit{cost}_{A1B1}=\mathit{dis}_{A1B1}{\times}1.5\end{equation}これは$\mathit{Word}_{A1}$と$\mathit{Word}_{B1}$の距離に重みを掛けたものである.$\mathit{Word}_{A1}$と$\mathit{Word}_{B1}$が持つ重みは同じく1.5であるため供給量と需要量が合致し,$\mathit{Word}_{A1}$からの重みの運送はこの時点で終了する.同様にコストの計算を行っていき,最終的にすべての運送経路のコストを足し合わせたものがEMDとなる.図\ref{fig:EMD}の例ではEMDは次のように表される.\begin{gather}\mathit{EMD}=\mathit{cost}_{A1B1}+\mathit{cost}_{A2B2}+\mathit{cost}_{A2B3}\\\mathit{cost}_{A1B1}=\mathit{dis}_{A1B1}{\times}1.5\\\mathit{cost}_{A2B2}=\mathit{dis}_{A2B2}{\times}2.0\\\mathit{cost}_{A2B3}=\mathit{dis}_{A2B3}{\times}1.0\end{gather}以上のような式で算出されたEMDの値の最小値を最適化計算で求めて文書間の類似性を算出している.
\section{語の変換処理の流れ}
\label{nagarezu}語の変換処理では入力された文から難解語を自動的に判別し,関係語辞書\cite{Article_10,Article_11}による馴染みのある語への変換,もしくは国語辞書による文への変換を行う.具体的な処理の流れを図\ref{fig:nagare}に示す.まず入力文を構成する単語の内,馴染みのない語を単語親密度の閾値により判別し,難解語とする.この難解語をシソーラス\cite{Book_02}上で検索し,難解語を意味的に包含するノードの中にノード名「具体物」が存在する場合には$N$語変換を,それ以外の場合には1語変換を先に行う.これは具体的な物を示す単語は別の1語に変換することが困難であるため,シソーラスにより具体物と判断できる語に関しては$N$語変換のみによって変換を行うためである.例えば「サリドマイド」のように具体的な薬品名を別の1語に変換することを考えると,物質を示す化学式や化合物名などが挙がる.それらは平易な表現とは言いがたく,そもそも難解な具体物の別称が平易であることは少ないと考えられる.この場合ならば「睡眠薬の一種」という文による変換を行えば自然でかつ平易な表現となる.ノード「具体物」を上位に持たない語は,まず1語変換の処理を行う.ここでは語の同義,類義関係を示した関係語辞書から難解語の同義語および類義語を取得することで変換候補語を得る.これら変換候補語と難解語との関連度を算出し,最も高い関連度の候補語を用いて変換を行う.ただし,この際の関連度には下限値を設定し,最大関連度が閾値以下の場合には1語変換によって得られた候補語の信憑性が薄いと判断して$N$語変換へ処理を移す.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f3.eps}\end{center}\caption{語の変換処理の流れ}\label{fig:nagare}\end{figure}$N$語変換では国語辞書から変換候補文を取得して変換を行う.難解語が多義性を持つ場合には複数の変換候補文を取得することになるため,元の記事中で使われている意味をもつ変換候補文を記事関連度計算方式により判別する.また,難解語をそのまま変換候補文に変換した場合,辞書特有の言い回しや記事全体での情報の重複などにより元の文が不自然になる場合がある.そこで元の文と変換候補文との比較を行い,不要語句の削除を行うことで変換による不自然さを排除する.これらの処理を行った上で得られる文を用いて新聞記事中の1文を変換する.
\section{難解語の判別}
\label{ikiti}まず入力された新聞記事から,変換すべき馴染みの薄い語を判別する処理を行う.入力された新聞記事を句点(“。”もしくは“.”)を区切りとして1文ごとの記事文に分割して処理を行う.1文に対して形態素解析を行い,各単語の単語親密度に閾値を定めることによって馴染みの有無を判断し,馴染みの無い単語を難解語とする.本稿では会話のための資源として新聞記事を用いることを背景としているため,単語の馴染み深さの基準は「一般的な会話で使われる単語であるか否か」とする.この基準の作成には日本語話し言葉コーパス\cite{Book_03}を用いた.\subsection{閾値の決定}\label{ikiti_hyouka}日本語話し言葉コーパスとは日本語による発話音声を大量に収集したデータベースである.収録されている発話音声中の語数は約750万語,時間は約66時間分となっている.発話音声には一般的な対話や学会講演といった様々なデータが収録されているが,このうち対話の音声を用いて「一般的な会話で使われる単語」の調査を行った.表\ref{tab:nihongo}にデータの一部を示す.\begin{table}[b]\vspace{-0.5\Cvs}\caption{日本語話し言葉コーパスの例}\label{tab:nihongo}\input{02table03.txt}\end{table}単語親密度の閾値を決定するために,表\ref{tab:nihongo}に示したような日本語話し言葉コーパスの対話データを構成する単語2,000語と,新聞記事中の単語2,000語とを無作為に抽出し,それぞれの単語親密度の平均と分布を調査した.その結果,新聞記事における単語親密度の平均が5.74,標準偏差は0.70,対話データにおける単語親密度は平均が6.05,標準偏差が0.66となった.対話において用いられる語の単語親密度の平均の方が,新聞記事より高い値になっている.この事から会話に利用するには新聞記事中の単語は馴染みが薄いことがわかる.新聞記事における単語親密度のデータ群($A$とおく)と対話データにおける単語親密度のデータ群($B$とおく)が,お互いにできるだけ他方の分布に属さないような値を閾値とすれば,「一般的な会話で使われる単語」を判別する閾値になると考えられる.そこで確率密度関数を用いて最適な閾値の調査を行った.確率密度関数は以下の式によって求める.\begin{equation}f_{(x)}=\frac{1}{\sqrt[]{\mathstrut(2\pi\sigma^{2})}}\mathrm{e}^{\frac{(x-\mu)^{2}}{\sigma^{2}}}\end{equation}ここで$\mu$は単語親密度の平均,$\sigma$は標準偏差である.ある閾値があった時に,$A$に属するデータが閾値を越える確率および$B$に属するデータが閾値を越える確率を算出し,双方の和が最も小さい時の閾値を$A$と$B$を区切る最適な値とした.その結果,新聞記事に用いられる単語と一般的な会話で使われる単語の単語親密度による閾値は5.82となった.よって,入力された新聞記事中の単語の内,単語親密度が5.82以下の単語を難解語と判別し,語の変換処理を行うこととした.\subsection{閾値の評価}前節で決定した閾値が,人間と同じレベルで馴染み深い語と難解語を判別できるかの評価を行った.単語親密度が5.82よりも大きい,つまり馴染み深いと判断された200語と,単語親密度が5.82以下,難解語と判断された200語を新聞記事からランダムに取得し,それらを人間の目視で評価した.評価は著者,共著者を含まない被験者3名(男性2名,女性1名)で行い,それぞれの語が会話に出現する語としたときに難解と感じるか,平易と感じるかの判断を行った.なおこのとき,被験者には評価を行う合計400語が単語親密度の閾値以上であるか否かは知らせていない.多数決により2名以上が難解と感じた語は「人が難解と感じる語」,2名以上が平易と判断した語を「人が平易と感じる語」とした.単語親密度の閾値によって馴染み深いと判断された200語については「人が難解と感じる語」であった場合に×,「人が平易と感じる語」であった場合に○と評価する.単語親密度の閾値によって難解語と判断された200語については,「人が難解と感じる語」であった場合に○,「人が平易と感じる語」であった場合に×と評価する.表\ref{tab:ikitiHyouka}に閾値の評価結果を示す.\begin{table}[t]\caption{閾値の評価結果}\label{tab:ikitiHyouka}\input{02table04.txt}\end{table}各評価者2名ずつのkappa係数はそれぞれ0.729,0.668,0.790であった.結果として,「人が難解と感じる語」を83.0\%の精度で難解語であると判断できた.また,「人が平易と感じる語」に関しては99.5\%の精度で馴染み深い語,つまり変換の必要がない語であると判断することができた.
\section{1語変換}
1語変換では1つの単語をより平易な別の1つの単語に変換する.難解語の同義語・類義語を取得してこれらを変換候補語とし,その中から変換に最も適した語を選択する.本稿における変換に適した語とは,変換前の語と比べて平易であり,かつ意味が同じ語である.平易であるかどうかの判断は単語親密度により行う.また,変換前と意味が同じ語を適切に選択するために関連度計算方式を用いた手法を提案する.\subsection{変換候補語の取得}変換候補語には難解語の同義語・類義語を用いる.これにより難解語と同じもしくは近い意味を持つ別の単語群を得ることができる.同義語・類義語の取得には関係語辞書を用いた.関係語辞書とは国語辞書に記載されている定義文から,見出し語の同義語,類義語といった関係語を自動的に抽出した辞書である.関係語の抽出手法に関しては\cite{Article_10}および\cite{Article_11}において示されている.定義される関係語の例を表\ref{tab:gokankei}に示す.\begin{table}[b]\vspace{-0.5\Cvs}\caption{関係語辞書の例}\label{tab:gokankei}\input{02table05.txt}\end{table}この辞書から得られる同義語,類義語を1語変換における変換候補語とする.表に示したように,1つの単語に対して複数の同義語・類義語が定義されている場合があるため,変換候補語は複数の単語群となる.\subsection{単語親密度と関連度による変換語の選出}\begin{figure}[b]\begin{center}\includegraphics{20-2ia2f4.eps}\end{center}\caption{変換語の選出}\label{fig:syorirei}\end{figure}変換候補語の語群から1語変換に適切な変換語を選出する.選出には変換候補語の単語親密度および,難解語と変換候補語との関連度を用いる.まず同義語・類義語として得られた語のうち,\ref{ikiti}章で述べた閾値5.82以上の単語親密度を持つ語を選出する.これは単語親密度が高く馴染みが深いと判断される語であるほど,平易な変換に適すると考えられるためである.しかし単語親密度は馴染みの深さのみを表現する数値であり,語と語の意味の近さに関しては考慮されていない.変換を行う以上,難解語と最も意味の近い語が選出されるべきである.そこで語の意味を定量化する手法として,\ref{DOA}節で述べた関連度計算方式を用いる.単語親密度が閾値以上である変換候補語の中から,元の難解語との関連度が最も高い語を選出することで「平易性がある語のうち,最も意味が近い語」を変換語とすることが出来る.具体的な変換候補語の選出方法について,「わが国は支配者の法を否定した.」というトルコの憲法改正についての記事の一部を用いて説明する(図\ref{fig:syorirei}).この文の中で「法」という語の単語親密度は5.75であり,これは\ref{ikiti}章で述べた閾値5.82を下回るため難解語となる.「法」の同義語・類義語から「法律」「規則」「方法」「道理」という4つの変換候補語が得られる.これら変換候補語から,最も適切な変換語を選択する.まずそれぞれの単語親密度を見ると,「道理」は単語親密度が5.44となり閾値5.82に達していないため変換語から外れる.ここで各変換候補語と元の難解語「法」との関連度を算出し,最も関連度が高い語を変換語として選出する.この例では単語親密度が最も高い「方法」ではなく,関連度の最も高い「法律」が変換語として選ばれることになる.\subsection{1語変換から$N$語変換へ移行する条件}\label{1Nzyouken}難解語と変換候補語との関連度に閾値を定め,閾値を越える変換候補語が存在しない場合には$N$語変換を行う.これは関連度が低いということは難解語と変換候補語との関連性が薄く,変換には不適切であると判断できるためである.関連度の閾値設定は概念ベースの評価方法である$X$-$ABC$評価\cite{Article_04}を参考にして行う.この評価は関連度の値を比較することで概念ベースを評価する方法であり,表\ref{tab:xabc}に示すような評価セットを用いる.\begin{table}[b]\caption{$X$-$\mathit{ABC}$評価セットの例}\label{tab:xabc}\input{02table06.txt}\end{table}評価セットはある基準概念$X$と,この概念$X$と非常に関連が強い概念$A$,概念$A$ほどではないが関連があると思われる概念$B$,まったく関連のない概念$C$によって構成される.実際に用いた評価セットは\cite{Article_05}に示された方法で人手により作成された500組のセットとなっている\cite{Article_04}.ここで,$X$-$A$の関係は基準概念$X$と非常に関連が強い概念$A$というもので,実際の評価セット作成時には\cite{Article_05}に示された方法を基に$X$の同義ないしは類義語となりうる語を収集している.このテストセットは被験者実験によって作成されており,つまり人間の感覚に合致した評価セットになっている.人間の自然な感覚を反映しているこの評価セットにおいて同義,類義関係と判断された$X$-$A$間の関連度は,本提案手法における難解語と変換候補語との関連性の有無を判断する閾値に値すると考えた.評価セットは500組存在するため,$X$-$A$間の関連度も500個の値が算出される.そこから人間が同義,類義と感じる語同士の関連度を意味する値として平均値を算出した.これは\cite{Article_04}において用いられている評価式の中で,まったく関連のない$X$-$C$間の関連度の平均値を「関連がない語の間で算出される関連度」として用いる考え方に倣い,同義,類義関係にある$X$-$A$間の関連度の平均値を「同義,類義関係の語の間で算出される関連度」とした.$X$-$A$間の平均値は0.34,分散は0.04,$X$-$C$間の平均値は0.002,分散は$9.43×10^{-6}$であった.よって提案手法では,難解語と変換候補語との関連度が$X$-$A$間の平均値である0.34より低かった場合には$N$語変換へ処理を移行する.
\section{$N$語変換}
1語変換では変換ができない場合,つまり1つの語では説明できない語を相手に伝える際に人間はその語の意味を文で伝える.そこで$N$語変換では1つの単語を$N$語の単語群,つまり文で変換することで1語変換ができない難解語の変換を行う.\ref{nagarezu}章に示した通り,まずシソーラスにおいて難解語の包含関係にあるノードに「具体物」が存在する場合には1語変換が不可能であると判断し,$N$語変換を行う.例えば「サリドマイド」という具体物は一般的に馴染みの薄い語であるが,「催眠薬の一種」という文章で変換されることでその内容を理解することが出来る.このように具体的な物を示す語は,同じ意味を持つ別の1語に変換するよりも具体物の説明を文章で行う方が馴染みのある表現になる.また\ref{1Nzyouken}節に示したように1語変換における変換候補語の関連度が閾値以下の場合にも,1語変換では適切な変換を行えなかったと判断して$N$語変換を行う.\subsection{変換候補文の取得}$N$語変換では国語辞書\cite{Book_04}に記載された語の定義文を,変換を行うための文(変換候補文)として利用する.国語辞書の定義文は語の意味を説明する文であるため,これを利用することで難解語の意味を損ねることなく$N$語による変換が可能になる.また,定義文が端的かつ正しい日本語表現で記されているため,変換後の記事表現が煩雑にならないと考えられる点で,$N$語変換の資源として国語辞書は適当である.本稿で使用した国語辞書には238,000語の見出し語とその定義文が格納されている.このうち,固有名詞および単一で意味を成さない代名詞,助詞の見出し語を省いた94,544語の見出し語と定義文を$N$語変換に用いた.\subsection{多義語の意味特定}難解語が多義語であった場合,それぞれの意味から辞書の説明文が得られるため変換候補文が複数取得される.そこで適切な文を選択するために\ref{EMD}節で説明した記事関連度計算方式を用いて難解語が含まれる元の文に意味が近い変換候補文を選択して変換を行う.図\ref{fig:tagigo}に具体的な変換候補文の選択方法を示す.\begin{figure}[b]\begin{center}\includegraphics{20-2ia2f5.eps}\end{center}\caption{多義語の意味特定の具体例}\label{fig:tagigo}\end{figure}「日中」という語には図に示すように2つの意味が定義文として記載されており,多義語である.このような多義語の場合は,辞書のそれぞれの定義文と,難解語を含む元の記事文との間で記事関連度の算出を行い,値の高い変換候補文を語の変換に用いる.例の場合では「日中」は「日本と中国」という候補文が選択され,記事は「日本と中国の未来志向の…」と変換される.\subsection{不自然さの排除}\label{NoNeed}辞書の定義文の中には,そのままの形で$N$語変換に用いると日本語として不自然になってしまうものがある.例えば「財政再生計画を策定する」という文中の「策定」は単語親密度が3.16の難解語であり,1語変換では関連度が閾値より大きい変換候補語が得られず,$N$語変換が行われる語である.この時,辞書における「策定」の定義文「政策や計画などを考えて決めること」をそのまま語の変換に用いてしまうと「財政再生計画を政策や計画などを考えて決めること」となり,日本語として不自然である.このような変換によって起こる不自然さの排除方法として,不要語の削除と記事中の情報の重複排除を行う.まず,不要語の削除について述べる.不要語とは辞書によく出現する言い回しのうち,変換を行う際には必要の無い語の事を指す.この不要語を人手で判断してリスト化したものが不要語リストである.図\ref{fig:fuyougo}に具体的な不要語の一覧を示す.\begin{figure}[b]\begin{center}\includegraphics{20-2ia2f6.eps}\end{center}\caption{不要語の一覧}\label{fig:fuyougo}\end{figure}例えば「蜀魂」という語の定義文は「ホトトギスの別名」となっているが,実際に「蜀魂」という語を変換する際に必要となる語は「ホトトギス」の部分のみである.このように辞書の定義文に存在する不要な言い回しは変換の際に削除する.不要語を削除した後に記事中の情報の重複排除を行うが,これには意味理解システム\cite{Article_03}を利用する.このシステムは入力された文を,6W1H(Who,What,When,Where,WhomWhy,How)と用言の8種類に分類する.意味理解システムの出力例を図\ref{fig:imirikai}に示す.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f7.eps}\end{center}\caption{意味理解システム}\label{fig:imirikai}\end{figure}入力文の「誰が」にあたる語は「妹」であり,これが意味理解システムではWhoに分類される.このシステムで元の記事文と辞書から得た変換候補文をそれぞれ処理し,分類が重複した場合には不自然にならないように不要部分を削除する.具体的な例を図\ref{fig:kakusaku}に示す.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f8.eps}\end{center}\caption{格重複の排除}\label{fig:kakusaku}\end{figure}図\ref{fig:kakusaku}の例では元の記事文「財政再生計画を策定する」と不要語を削除した変換候補文「政策や計画を考えて決める」の2文である.ここで元の記事文と変換候補文の間で分類に重複があった場合,どちらか一方を用いて出力する文を作成する.具体的には難解語ではない部分で分類の重複が起こった場合には元の記事文を,難解語の部分で分類の重複が起こった場合には変換候補文を用いる.図\ref{fig:kakusaku}を見るとWhatの重複は難解語ではない部分であるため,元の記事文である「財政再生計画」が選択される.逆に用言での重複は難解語の部分であるため,変換候補文である「考えて決める」が選択される.このようにして分類の重複を排除した上で,変換を行い結果を出力する.図\ref{fig:kakusaku}の例では最終的に「財政再生計画を策定する」という元の記事文が「財政再生計画を考えて決める」と変換される.
\section{提案手法の評価と考察}
\ref{First}章,\ref{Second}章で述べたとおり,人間が違和感を感じない語の変換を行うためには,人間と同じく1:1の変換と1:$N$の変換を組み合わせることが必要である.それを踏まえ,ここまでで提案してきた1語変換および$N$語変換の手法を統合した手法を,本稿で提案する難解語の変換手法としてその評価を行う.変換処理を統合したことによる有効性を示すため,提案手法,難解語を無理やり1語変換のみで変換した場合,$N$語変換のみで変換した場合の3種類の変換について評価を行った.評価実験の方法および評価結果について以下に述べる.評価には朝日新聞から取得した50記事からランダムに選んだ記事文を利用した.全単語数は1567語,うち単語親密度の閾値によって難解語と判断された語は249語である.まず著者,共著者以外の被験者3名(男性2名,女性1名)に対して記事中の全単語を提示し,それぞれの語について会話に出現する語としたときに難解と感じるか,平易と感じるかの判断を行った.多数決により全単語を難解と感じる語,平易と感じる語に分類し,人が変換すべきと判断した語と変換しなくてよいと判断した語の判別を行った.次に評価に用いた記事を変換前と変換後のセットにして被験者に提示し,平易な表現となっている方の記事を選択させる.この際,被験者にはどちらが変換前でどちらが変換後かは示さない状態で記事を提示し,表現が分かりやすいと感じる方を選択させた.提案手法により変換された後の記事が平易であると選ばれた場合に○,変換前が選ばれた場合に×の評価とする.最後に同じ被験者3名に対して変換前と変換後の記事を各々がどちらの記事であるか示した上で,変換後の記事が意味的に欠損したり違和感のある表現になっていないかという意味の保持性について評価を行った.意味が保持され,違和感もない場合には○,何らかの違和感を感じる場合には△,意味が違っていたり,日本語表現としておかしいといった意味が保持されていない場合に×の評価とした.手法の評価は,人が変換すべきと判断した語と変換すべきでないと判断した語に分けて示す.まず人が変換すべきと判断した語については,変換手法により語が適切に変換されたか否かを評価した.なお,人が変換すべきと判断した語は222語,そのうち提案手法によって変換された語は206語であった.平易性に関する評価結果を図\ref{fig:hyouka1H}に,意味保持性に関する評価結果を図\ref{fig:hyouka1I}に示す.提案手法では平易性の評価が75.7\%,意味保持性の評価が81.1\%となった.難解語となった249語について1語変換および$N$語変換のどちらで処理が行われたかの内訳は,1語変換によって処理された難解語が76語,$N$語変換によって処理された難解語が173語であった.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f9.eps}\end{center}\caption{変換すべき語の評価結果(平易性)}\label{fig:hyouka1H}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f10.eps}\end{center}\caption{変換すべき語の評価結果(意味保持性)}\label{fig:hyouka1I}\end{figure}1語変換のみで変換を行った場合,平易性で58.7\%,意味保持性で52.9\%が×の評価となった.これは,1語変換では同義語および類義語が存在しない場合は変換することが出来ないため,変換すべき語の多くが変換できず難解語のまま残ってしまったためである.今回の評価ではすべての難解語のうち48.1\%にあたる99語が変換不可となった.$N$語変換のみの場合は辞書に定義された語であれば変換可能であるため,変換不可の語は全体の7.3\%,15語に留まったが,こちらも提案手法と比べて平易性,意味保持性共に評価は低くなっている.次に変換すべきでないと判断した1,345語についての評価を表\ref{tab:NoChange1}および表\ref{tab:NoChange2}に示す.人が変換すべきでないと判断した語に関しては,変換が行われないもしくは変換されてしまったが平易である,意味が保持されている場合にそれぞれ○の評価としている.すべての手法において,○の評価は高くなっている.1語変換のみの場合には,前述したとおり変換がそもそも不可能である難解語が多かったため,変換すべきで無い語の多くが変換されないままとなり○の評価が高くなっている.以下に実際の変換例を示す.まず表\ref{tab:1orTei}に1語変換のみを用いた場合と提案手法の変換例を示す.なお,括弧の中は各変換の評価を示す.\begin{table}[t]\caption{変換すべきでない語の評価結果(平易性)}\label{tab:NoChange1}\input{02table07.txt}\end{table}\begin{table}[t]\caption{変換すべきでない語の評価結果(意味保持性)}\label{tab:NoChange2}\input{02table08.txt}\end{table}\begin{table}[t]\caption{1語変換のみと提案手法の比較}\label{tab:1orTei}\input{02table09.txt}\end{table}「送還」という難解語は同義語,類義語ともに得られず,1語変換のみでは変換することができない.$N$語変換では送還の意味として「送り返すこと」が存在するため正しい変換が行えている.「維持」の例では1語変換を行うと類義語から「持つ」という変換候補語が得られる.「持つ」は確かに「維持」を平易に変換したものだが,文脈から不自然であると判断されて意味保持性は×となった.これを提案手法で変換すると$N$語変換により「保ち続ける」という変換がされ,双方とも○の評価となった.最後の例では難解語が2つ存在している.1語変換のみの場合には「破片」という難解語が「かけら」に変換されるが,「落下」に関しては変換候補語が得られずに変換できない.提案手法では$N$語変換により「落下」に関しても「下に落ちること」という定義文から変換が可能となり,結果として表のような変換が行えた.次に,表\ref{tab:NorTei}に$N$語変換のみを用いた場合と提案手法の変換例を示す.\begin{table}[t]\caption{N語変換のみと提案手法の比較}\label{tab:NorTei}\input{02table10.txt}\end{table}表\ref{tab:NorTei}に示した例を見ると,$N$語変換のみを用いた場合の変換結果は意味的には元の記事文と相違ない.しかしこれらの表現が会話中に現れると想定すると多くの人は不自然であると感じる.$N$語変換は文章による変換であるため,この変換が多用されると変換後の記事が冗長であると感じやすく,結果として意味保持性において違和感を感じてしまい△の評価となる場合や,平易性の無い×の評価となっている.一方,提案手法ではこれらの記事は1語変換によって変換され,その変換結果は意味を損ねず,かつ違和感もないことがわかる.以上のことから,1語変換および{$N$}語変換を組み合わせることによってより人間にとって違和感の無い変換が行えることが分かる.提案手法では難解語の判別に\ref{ikiti_hyouka}節で示した閾値を用いている.本評価では人が変換すべきと判断した222語のうち206語が難解語と判別されており,つまり変換すべき難解語16語がこの閾値では難解語と判断されていない.人が難解と感じる語を100.0\%判断できることを重視する場合には親密度の閾値を上げればよいが,閾値が高すぎると記事中の多くの語が難解語と判断されると考えられる.各変換処理によってそれらの語が全て別表現に変換されると変換後の記事が冗長になる可能性がある.そこで本評価において人が変換すべきと判断したが,提案手法では難解語と判別されなかった語のうち最も高い親密度であった「汚染」という語を基準として評価を行い,提案手法との比較を行った.具体的な親密度の閾値は6.15である.平易性に関する評価結果を図\ref{fig:hyoukananhen1}に,意味保持性に関する評価結果を図\ref{fig:hyoukananhen2}に示す.結果として,難解語判別の閾値を6.15とした場合には平易性,意味保持性ともに評価が下がる結果となった.表\ref{tab:IkitiChange}に提案手法による出力と難解語判別の閾値変更を行った場合の出力の比較を示す.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f11.eps}\end{center}\caption{難解語判別の閾値変更による評価結果(平易性)}\label{fig:hyoukananhen1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f12.eps}\end{center}\caption{難解語判別の閾値変更による評価結果(意味保持性)}\label{fig:hyoukananhen2}\end{figure}難解語判別の閾値を高くしたことで,提案手法では変換されなかった「視野」や「交差点」といった語が難解語と判断されている.これらの語は目視では変換しなくて良い語と判断されていた語である.これらが難解語と判断されることによって,例えば「視野」という語は$N$語変換により「視線を固定したままの状態で見ることのできる範囲」と変換されている.これは意味としては正しいが,元の「視野」という1語の表現と比べて非常に冗長であるため,平易性において評価が×となっている.「交差点」の評価も「視野」と同様に冗長な表現で平易性を失っている.しかし同じ記事中の「右折」という語は,人が変換すべきと判断したが提案手法では変換されなかった16語の1つであり,これは「右へ曲がる」という平易な表現へ変換することが出来ている.閾値を上げることで,人が変換すべきと判断したが提案手法では変換されなかった16語に対しての変換は行われたが,それに伴い人が変換しなくてよいと判断した語に対しても多くの変換が行われた.具体的には新たに88語が難解語となったが,これらの語は人の判断では変換せずとも平易であるとされており,変換を行うことで逆に平易性が損なわれやすい結果となった.このことより,\ref{ikiti_hyouka}節において示した閾値の設定は有効であると考える.\begin{table}[t]\caption{提案手法と難解語判別の閾値変更の出力比較}\label{tab:IkitiChange}\input{02table11.txt}\end{table}以上の評価結果より,会話中に出現する語の単語親密度によって難解語の判別を行い,1語変換と$N$語変換を組み合わせることで平易な表現への変換を行う提案手法の有効性を示した.
\section{おわりに}
本稿では,新聞記事中の難解な語を会話に適した平易な表現へ変換する手法を提案した.変換の際には人間が行う語の変換処理に沿い,1つの語を別の1語で変換する1語変換および文章で変換す$N$語変換を組み合わせることでより人間にとって自然な変換が行えることを示した.1語変換では難解な語を同義語・類義語により別の1語へ変換し,$N$語変換では1語では変換できないような語や具体物を示す語について文による変換を行った.この二つの変換を組み合わせた変換手法を提案,評価してその有効性を示した.また,処理の各段階において語概念連想により語と語,文と文の関連性の有無を判断することで変換前の語から変換後表現にかけて意味の保持を行った.最終的な結果として新聞記事50件,249語の変換を行い,変換すべき難解語を結果として変換すべき難解語を75.7\%の精度で平易な表現に,81.1\%の精度で正しい意味を保持した表現に変換することが出来た.これにより,ロボットと人間との自然な会話生成を担う技術の一端を示せたと考える.\acknowledgment本研究の一部は,科学研究費補助金(若手研究(B)24700215)の補助を受けて行った.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{1998}]{Article_20}天野成昭\JBA近藤公久\BBOP1998\BBCP.\newblock音声単語の語彙判断に対する新密度の影響.\\newblock\Jem{日本音響学会秋季研究発表会講演論文集1},\mbox{\BPGS\363--364}.\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{1999}]{Book_01}天野成昭\JBA近藤公久\BBOP1999\BBCP.\newblock\Jem{NTTデータベースシリーズ日本語の語彙特性(第1期CD-ROM版)}.\newblock三省堂.\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{2008}]{Book_05}天野成昭\JBA近藤公久\BBOP2008\BBCP.\newblock\Jem{日本語の語彙特性第1巻単語新密度増補}.\newblock三省堂.\bibitem[\protect\BCAY{Connine,Mullennix,Shernoff,\BBA\Yelen}{Connineet~al.}{1990}]{Article_21}Connine,C.~M.,Mullennix,J.,Shernoff,E.,\BBA\Yelen,J.\BBOP1990\BBCP.\newblock\BBOQWordfamiliarityandfrequencyinvisualandauditorywordrecognition.\BBCQ\\newblock{\BemJournalofExperimentalPsychology.Leaning,memoryandcognition},{\Bbf16}(6),\mbox{\BPGS\1084--1096}.\bibitem[\protect\BCAY{藤江\JBA渡部\JBA河岡}{藤江\Jetal}{2009}]{Article_06}藤江悠五\JBA渡部広一\JBA河岡司\BBOP2009\BBCP.\newblock概念ベースとEarthMover'sDistanceを用いた文書検索.\\newblock\Jem{自然言語処理},{\Bbf16}(3),\mbox{\BPGS\25--49}.\bibitem[\protect\BCAY{藤沢\JBA相原\JBA神門}{藤沢\Jetal}{2006}]{Article_16}藤沢仁子\JBA相原健郎\JBA神門典子\BBOP2006\BBCP.\newblock文化遺産に関する説明文の対象ユーザに合わせた言い換えの提案.\\newblock\Jem{電子情報通信学会技術研究報告.NLC,言語理解とコミュニケーション},{\Bbf106}(109),\mbox{\BPGS\7--12}.\bibitem[\protect\BCAY{Gonzalez\BBA\Davis}{Gonzalez\BBA\Davis}{2006}]{Article_28}Gonzalez,H.~S.\BBACOMMA\\BBA\Davis,C.\BBOP2006\BBCP.\newblock\BBOQThebristolnormsforageofacquisition,imageability,andfamiliarity.\BBCQ\\newblock{\BemBehaviorResearchMethods},{\Bbf38}(4),\mbox{\BPGS\598--605}.\bibitem[\protect\BCAY{Hassan,Csomai,Banea,Sinha,\BBA\Mihalcea}{Hassanet~al.}{2007}]{Article_24}Hassan,S.,Csomai,A.,Banea,C.,Sinha,R.,\BBA\Mihalcea,R.\BBOP2007\BBCP.\newblock\BBOQUNT:SubFinder:combiningknowledgesourcesforautomaticlexicalsubstitution.\BBCQ\\newblock{\BemSemEval'07Proceedingsofthe4thInternationalWorkshoponSemanticEvaluations},\mbox{\BPGS\410--413}.\bibitem[\protect\BCAY{Hoffman}{Hoffman}{1963}]{Book_06}Hoffman,A.~J.\BBOP1963\BBCP.\newblock\BBOQOnsimplelinearprogramingproblems.\BBCQ\\newblockIn{\BemProceedingsofthe7thSymposiuminPureMathmaticsoftheAMS},\mbox{\BPGS\317--327}.\bibitem[\protect\BCAY{Jauhar\BBA\Specia}{Jauhar\BBA\Specia}{2012}]{Article_25}Jauhar,S.~K.\BBACOMMA\\BBA\Specia,L.\BBOP2012\BBCP.\newblock\BBOQUOW-SHEF:SimpLex:lexicalsimplicityrankingbasedoncontextualandpsycholinguisticfeatures.\BBCQ\\newblock{\BemSemEval'12ProceedingsoftheFirstJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\477--481}.\bibitem[\protect\BCAY{鍜治\JBA黒橋\JBA佐藤}{鍜治\Jetal}{2001}]{Article_02}鍜治伸裕\JBA黒橋禎夫\JBA佐藤理史\BBOP2001\BBCP.\newblock国語辞典に基づく平易文へのパラフレーズ.\\newblock\Jem{情報処理学会研究報告},{\Bbf2001}(69),\mbox{\BPGS\167--174}.\bibitem[\protect\BCAY{鍜治\JBA岡本\JBA黒橋}{鍜治\Jetal}{2004}]{Article_15}鍜治伸裕\JBA岡本雅史\JBA黒橋禎夫\BBOP2004\BBCP.\newblockWWWを用いた書き言葉特有語彙から話し言葉語彙への用言の言い換え.\\newblock\Jem{自然言語処理},{\Bbf11}(5),\mbox{\BPGS\19--37}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2001}]{Article_10}小島一秀\JBA渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock常識判断のための概念ベース構成法:概念間論理関係を用いた概念属性の重み決定法.\\newblock\Jem{電子情報通信学会技術研究報告.AI,人工知能と知識処理},{\Bbf100}(709),\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{Article_11}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock連想システムのための概念ベース構成法—属性信頼度の考え方に基づく属性重みの決定.\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2006}]{Book_03}国立国語研究所\BBOP2006\BBCP.\newblock\Jem{日本語話し言葉コーパスの構築法}.\newblock国立国語研究所.\bibitem[\protect\BCAY{熊本\JBA田中}{熊本\JBA田中}{2008}]{Article_13}熊本忠彦\JBA田中克己\BBOP2008\BBCP.\newblock2種類の共起辞書を用いた語彙的言い換えに基づくWeb検索システム.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(5),\mbox{\BPGS\355--363}.\bibitem[\protect\BCAY{松村}{松村}{1995}]{Book_04}松村明\BBOP1995\BBCP.\newblock\Jem{大辞林第2版}.\newblock三省堂.\bibitem[\protect\BCAY{McCarthy\BBA\Navigli}{McCarthy\BBA\Navigli}{2007}]{Article_22}McCarthy,D.\BBACOMMA\\BBA\Navigli,R.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007task10:Englishlexicalsubstitutiontask.\BBCQ\\newblock{\BemSemEval'07Proceedingsofthe4thInternationalWorkshoponSemanticEvaluations},\mbox{\BPGS\48--53}.\bibitem[\protect\BCAY{中野\JBA遠藤\JBA菅原\JBA乾\JBA藤田}{中野\Jetal}{2005}]{Article_12}中野智子\JBA遠藤淳\JBA菅原昌平\JBA乾健太郎\JBA藤田篤\BBOP2005\BBCP.\newblockWebサイトへのアクセシビリティ向上を目的とした難語の平易化.\\newblock\Jem{電子情報通信学会技術研究報告},{\Bbf105}(186),\mbox{\BPGS\11--14}.\bibitem[\protect\BCAY{西村\JBA田中\JBA北野\JBA田中\JBA大林}{西村\Jetal}{2009}]{Article_01}西村健二\JBA田中成典\JBA北野光一\JBA田中裕一\JBA大林睦\BBOP2009\BBCP.\newblock児童向け新聞教材のための言い換え表現対の抽出に関する研究.\\newblock\Jem{情報処理学会第71回全国大会},\mbox{\BPGS\293--294}.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{Book_02}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{奥村\JBA小島\JBA渡部\JBA河岡}{奥村\Jetal}{2005}]{Article_09}奥村紀之\JBA小島一秀\JBA渡部広一\JBA河岡司\BBOP2005\BBCP.\newblock電子化新聞を用いた概念ベースの拡張と属性重み付与方式.\\newblock\Jem{情報処理学会研究報告},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{奥村\JBA土屋\JBA渡部\JBA河岡}{奥村\Jetal}{2007}]{Article_04}奥村紀之\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2007\BBCP.\newblock概念間の関連度計算のための大規模概念ベースの構築.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\41--64}.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{Article_08}Salton,G.,Wong,A.,\BBA\Yang,C.~S.\BBOP1975\BBCP.\newblock\BBOQAVectorspacemodelforautomaticindexing.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(3),\mbox{\BPGS\613--620}.\bibitem[\protect\BCAY{篠原\JBA渡部\JBA河岡}{篠原\Jetal}{2002}]{Article_03}篠原宜道\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock常識判断に基づく会話意味理解方式.\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\651--654}.\bibitem[\protect\BCAY{Sinha}{Sinha}{2012}]{Article_26}Sinha,R.\BBOP2012\BBCP.\newblock\BBOQUNT-SimpRank:systemsforlexicalsimplificationranking.\BBCQ\\newblock{\BemSemEval'12ProceedingsoftheFirstJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\493--496}.\bibitem[\protect\BCAY{Specia,Jauhar,\BBA\Mihalcea}{Speciaet~al.}{2012}]{Article_23}Specia,L.,Jauhar,S.~K.,\BBA\Mihalcea,R.\BBOP2012\BBCP.\newblock\BBOQSemEval-2012task1:EnglishLexicalSimplification.\BBCQ\\newblock{\BemSemEval'12ProceedingsoftheFirstJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\347--355}.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{Article_05}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock常識的判断のための概念間の関連度評価モデル.\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{Wilson}{Wilson}{1988}]{Article_27}Wilson,M.\BBOP1988\BBCP.\newblock\BBOQTheMRCPsycholinguisticDatabase:MachineReadableDictionary,Version2.\BBCQ\\newblock{\BemBehaviorResearchMethods},{\Bbf20}(1),\mbox{\BPGS\6--11}.\end{thebibliography}\begin{biography}\bioauthor{芋野美紗子}{2009年同志社大学工学部知識工学科卒業.2011年同大学院工学研究科情報工学専攻博士前期課程修了.同大学院工学研究科情報工学専攻博士後期課程在学.主に,概念処理の研究に従事.言語処理学会会員.}\bioauthor{吉村枝里子}{2004年同志社大学工学部知識工学科卒業.2006年同大学院工学研究科知識工学専攻博士前期課程修了.2009年同大学院工学研究科知識工学専攻博士後期課程修了.博士(工学).同年より同志社大学理工学部研究員.主に,知識処理,意味処理,会話処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.2009年同志社大学理工学部インテリジェント情報工学科助教.2011年同准教授.博士(工学).主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,日本認知科学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.2006年同教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\end{biography}\biodate\end{document}
| |
V30N02-14
|
\section{はじめに}
自然言語推論(NLI)\cite{series/synthesis/2013Dagan}とは,2つのテキスト(一方を\emph{前提},他方を\emph{仮説}と呼ぶ)の間に成り立つ推論的関係を同定するタスクである.前提から仮説が,論理的知識や常識的知識を用いて導出可能である場合は\emph{含意},前提と仮説が両立しえない場合は\emph{矛盾},そのいずれでもない場合は\emph{中立}と判定する.質問応答,情報検索,テキスト要約などの幅広い分野での応用が期待されている.近年,ニューラルモデルに基づくアプローチ\cite{parikh-etal-2016-decomposable,chen-etal-2017-enhanced,devlin-etal-2019-bert,DBLP:journals/corr/abs-1909-11942,tai-etal-2020-exbert,Wang2021EntailmentAF}が提案され,SNLIコーパス\cite{bowman-etal-2015-large},MultiNLI(MNLI)コーパス\cite{williams-etal-2018-broad},AdversarialNLI(ANLI)データセット\cite{nie-etal-2020-adversarial},QNLIデータセット\cite{wang-etal-2018-glue}などのNLIデータセットを用いた実験で高い正答率を達成している.しかし,このアプローチに基づくNLIは,判定結果に至る過程や理由を説明する能力を有していないという問題がある.ニューラルモデルの内部はブラックボックスであり,どのような推論を経て判定に至ったのかを人間が推察することは容易ではない\footnote{Kumarら\cite{kumar-talukdar-2020-nile}は説明文を生成するNLIシステムを提案している.しかし,説明文はニューラルモデルにより生成されるため,説明文の生成過程はブラックボックス化しており,内部の処理を知ることは困難であるといえる.}.このような問題に対して,近年,機械学習モデルの判定の過程を明らかにするための技術,いわゆる説明可能なAI(XAI)\cite{BARREDOARRIETA202082}の研究が進められており,自然言語処理の分野においても同様の問題意識を共有している\cite{danilevsky-etal-2020-survey}.また,ニューラルモデルによる推論の正当性についても問題が指摘されている.例えば,Yanakaら\shortcite{yanaka-etal-2020-neural}は,ニューラルモデルが自然言語における推論の体系性を学習するかについてmonotonicityの観点から評価する手法を提案し,現状のニューラルモデルの汎化性能には限界があることを示している.\pagebreakまた,Gururanganら\shortcite{gururangan-etal-2018-annotation}やTsuchiya\shortcite{tsuchiya-2018-performance}は,SNLIコーパスやMNLIコーパスなどのNLIデータセットには,本来2つのテキストに対して定まるはずの推論的関係が,一方のテキストのみから推測できてしまうバイアスがあることを示し,ニューラルモデルが単にバイアスに基づいて推論的関係を同定しているという危険性を指摘している.一方,NLIでは従来より,記号操作に基づくアプローチが提案されてきた\cite{bar2007semantic,maccartney-manning-2007-natural,maccartney-manning-2008-modeling,maccartney-manning-2009-extended,mineshima-etal-2015-higher,abzianidze-2015-tableau,abzianidze-2017-langpro,hu-etal-2020-monalog}.このアプローチには,ニューラルモデルによるものと異なり,推論の論理的な過程を明示できるという利点がある.また,推論における記号操作は,論理学や言語学による裏付けが与えられているため,推論の根拠を示すことができる.しかし,このアプローチでは,推論規則を人手で作成する必要があり,語の同義・対義関係や上位・下位関係を網羅的に扱うことが難しいという問題がある.加えて,「雨が降ると地面が濡れる」といった常識的知識を推論規則として表現しなければならず,それを人手で網羅することは困難である.実際,記号操作に基づくアプローチは,FraCaStestsuite\cite{Consortium96usingthe}やSICKデータセット\cite{marelli-etal-2014-sick}など,論理的知識に基づき推論的関係が導出できるように統制をかけて作成されたNLIデータセット(以下,統制NLIデータと呼ぶ)に対して優位性が示されている.一方,上述したSNLIコーパスやMNLIコーパスなどは,統制NLIデータで課されたような統制をかけず比較的自由に作成されている(以下,非統制NLIデータと呼ぶ).語の意味的知識や常識的な知識を十分に備えていない記号操作に基づくアプローチでは,非統制NLIデータに対して高い正答率を達成することは難しい.そこで本論文では,ニューラルモデルに基づくアプローチが備える,非統制NLIデータへの適用可能性を維持しつつ,論理的な推論過程を明示可能な自然言語推論システムを実現するための一手法を提案する.本手法では,形式論理の証明手法の一つであるタブロー法のアルゴリズムとニューラルNLIモデルを組み合わせる.タブロー法は,推論規則の適用に基づく論理式の分解,並びに論理式への真偽値割り当てが存在するか否かの検査から構成される.提案手法ではこのうち,真偽値割り当ての検査にニューラルNLIモデルを用いる.タブロー法は通常,論理式を操作対象とするのに対し,本手法では,依存構造を操作対象とする.依存構造を用いることにより,ニューラルNLIモデルをタブロー法アルゴリズムに組み込むことが可能となる.本手法で導入するニューラルNLIモデルには,入力として前提文と仮説文を受け取ること,及び,それらの推論的関係を出力することのみを課し,その内部処理に関する制約はない\footnote{すなわち,本手法は任意のニューラルNLIモデルに適用可能である.}.本論文の構成は以下の通りである.まず2章で,提案手法のベースとなるタブロー法について概説する.3章では,タブロー法とニューラルNLIモデルを組み合わせた推論手法を提案する.続く4章では,提案手法の意味論をモデル理論的に定式化し,手法の理論的性質を明らかにする.5章では,SLNIコーパスを用いて,提案手法の推論能力を定量的及び定性的に評価する.6章では,関連研究を整理し,提案手法との違いを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{タブロー法}
本章では,提案手法のベースとなるタブロー法について説明する.タブロー法は,論理式と真偽値の対の集合が与えられたとき,集合中のすべての論理式にその対となる真偽値を割り当てることが可能か否かを証明する手続きである.タブロー法では,与えられた集合をもとに,タブローと呼ばれる木構造を構成する.タブローのノードのラベルは,3つ組$(f,v,a)$であり,\emph{エントリ}と呼ばれる.これは,論理式$f$が真偽値として$v$を取らなければならないという制約を表しており,$a$はこのエントリに対して後述するタブロー規則が適用されたか否かを表すフラグである.真偽値は,\texttt{T}か\texttt{F}のいずれかであり,それぞれ真と偽を表す.フラグは,0か1のいずれかであり,0はタブロー規則が未適用,1は適用済みであることを表す.\emph{初期タブロー}は,与えられた集合の要素である論理式と真偽値の対に対して,フラグとして値0を付加したエントリから構成される.タブローのエントリに\emph{タブロー規則}と呼ばれる推論規則を適用することにより新たなタブローが導出される.タブロー規則の適用により,エントリが表現する制約,すなわち,論理式が与えられた真偽値を取らなければならないという制約は,部分論理式に関する制約に分解され,新たなエントリとしてタブローに付け加えられる.この分解により,推論の過程が明示化される.以下では,タブロー$t$に対して,タブロー規則集合$R$中のタブロー規則を適用して,タブロー$t'$が導出されるとき,$t\stackrel{R}{\rhd}t'$と表記する.また,$\stackrel{R}{\rhd}$の反射推移閉包を$\stackrel{R}{\rhd^{*}}$と表記し,$t\stackrel{R}{\rhd}t'$であるような$t'$が存在しないタブロー$t$を\emph{完成したタブロー}と呼ぶことにする.タブロー規則の適用は,適用元のエントリが表現する制約を,それと等価な制約へと変換する操作と位置づけられる\footnote{弱い制約を導出するタブロー規則も考えられるが,本論文ではそのような規則は対象としない.}.したがって,タブロー規則が適用されたエントリの制約は,新たに導出されたエントリにより表現されているため,それ以上規則の適用,および後述する閉鎖性判定の対象にする必要はない.エントリ$(f,v,a)$の$a$はこれらの操作の適用の制御に利用でき,タブロー規則が適用されたときにこれを1に変更する.フラグが1のエントリは以後,規則の適用,および閉鎖性判定の対象とはしない.タブローは木構造であり分岐する.分岐は場合分けに相当する.タブローの根から葉への経路を\emph{枝}と呼び,ある枝の上に$(f,\texttt{T},0)$,および$(f,\texttt{F},0)$($f$は論理式)というエントリが存在するとき,その枝は\emph{閉じている}という.タブローのすべての枝が閉じているとき,そのタブローは\emph{閉じている}という.閉じているタブローを\emph{閉鎖タブロー}と呼ぶ.タブローが閉じていることによって,最初に与えられた論理式と真偽値の対の集合のような真偽値割り当てが存在しないことが証明される.例として,命題記号$\texttt{p},\texttt{q},\texttt{r}$について,$\texttt{p}\land\texttt{q}\rightarrow\texttt{r}$,$\texttt{p}$,$\texttt{q}$が真であるとき,$\texttt{r}$も真であることを命題論理におけるタブロー法を用いて証明する.この証明には,$\{(\texttt{p}\land\texttt{q}\rightarrow\texttt{r},\texttt{T}),(\texttt{p},\texttt{T}),(\texttt{q},\texttt{T}),(\texttt{r},\texttt{F})\}$に対する完成したタブローが閉じていることを示せば十分である.完成したタブローを図\ref{fig:meidai-tableau-example}(a)に示す.初期タブローは,図中のエントリ$e_1$~$e_4$からなるタブローである.この初期タブローに対して,図\ref{fig:meidai-tableau-example}(b)にその一部を記した命題論理におけるタブロー規則の適用を繰り返すと,図\ref{fig:meidai-tableau-example}(a)が得られる.その後,各枝において,それが閉じているかどうかを判定する.この例では,全ての枝が閉じている(図では,×により閉じていることを示す),すなわちこのタブローは閉じている.これは,$\texttt{p}\land\texttt{q}\rightarrow\texttt{r}$,$\texttt{p}$,$\texttt{q}$に真,$\texttt{r}$に偽を割り当てることができないことを意味しており,$\texttt{p}\land\texttt{q}\rightarrow\texttt{r}$,$\texttt{p}$,$\texttt{q}$が真であるならば,$\texttt{r}$も真であることが証明される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f1.pdf}\end{center}\caption{命題論理に対するタブロー推論の例}\label{fig:meidai-tableau-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{提案手法}
本章では,タブロー法とニューラルNLIモデルを組み合わせた自然言語推論の手法を提案する.この手法は以下の処理を順に実行する.\begin{description}\item[依存構造解析]前提文$p$と仮説文$h$に依存構造を付与する.依存構造が付与された文をそれぞれ$D_p$,$D_h$とする.\item[タブローの構成]前提$D_p$と仮説$D_h$をもとに,含意関係を証明するタブロー(集合$\{(D_p,\texttt{T}),$\linebreak$(D_h,\texttt{F})\}$から導出される完成したタブロー)と矛盾関係を証明するタブロー(集合$\{(D_p,\texttt{T}),$\linebreak$(D_h,\texttt{T})\}$から導出される完成したタブロー)を構築する.以下では,これらのタブローをそれぞれ\textbf{含意タブロー},\textbf{矛盾タブロー}と呼ぶ.\item[タブローの閉鎖性判定]含意タブロー,および矛盾タブローが閉じているか否かをニューラルNLIモデルを用いて判定する.\item[推論的関係の同定]含意タブローと矛盾タブローの閉鎖性の判定から,推論的関係を同定する.\end{description}以下では,各処理について,その背景となる考え方と合わせて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{30-2ia13f2.pdf}\end{center}\caption{``EitherSmithorAndersonsignedthecontract.''の依存構造解析結果}\label{fig:udconvert}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{依存構造解析}提案手法ではタブローが閉じているか否かの判定にニューラルNLIモデルを利用する.これにはニューラルNLIモデルへの入力は論理式ではなく自然言語文2文であることが課題となる.この課題を解決する,すなわち,自然言語文をモデルに入力するためのアプローチの一つとして,タブローのエントリは論理式とし,前提文と仮説文を論理式に変換して記号操作を行った後に,論理式を自然言語文へ再変換してニューラルモデルを利用する方法が考えられる.しかし,論理式からテキストへの変換は現状の技術では困難である\footnote{馬目ら\cite{manome-etal-2018-rnn}はLSTM(LongShort-TermMemory)\cite{HochSchm97}を用いて,高階論理式から文生成を行う手法を提案している.これは,高階論理式を自然言語文にデコードする試みであるが,単純なパターン以外の文のデコードは困難とされている.}.そこで提案手法では,自然言語文を論理式に変換してタブロー法を適用するのではなく,タブロー法を自然言語文に適用できるように拡張するアプローチを取る.具体的には,依存構造を付与した自然言語文をタブローのエントリに採用する.タブロー規則は,依存構造情報をもとに,新しいエントリを導出する.提案手法では,依存構造としてUniversalDependencies(UD)\cite{de-marneffe-etal-2021-universal}を採用する.提案手法の最初のステップは,前提と仮説の自然言語文に依存構造を与える処理であり,この処理には,UDに基づく任意の依存構造解析器を用いることができる.図\ref{fig:udconvert}に依存構造の例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タブローの構成}本節では,依存構造に基づくタブロー法について述べる.通常のタブロー法が,タブロー規則により複雑な論理式をより単純な論理式に分解するのに対して,提案手法では,依存構造に基づき,自然言語文をより単純な自然言語文に分解するタブロー規則を設計する.提案手法におけるタブローのエントリは,四つ組$(D,v,a,o)$である.$D$は依存構造であり,$v$と$a$は通常のタブロー法と同様であり,それぞれ真偽値およびフラグである.$o$は,そのエントリがどのエントリから導出されたかを表す.初期タブローのエントリ$e$は,自分自身から導出されたものとする.すなわち$e=(D,v,0,e)$という形をとる.タブローは,通常のタブロー法と同じくタブロー規則を繰り返しエントリに適用することで導出される.提案手法におけるタブロー規則の一般形は,次の表記で表される.\[r=(c_{1,1}\wedge\cdots\wedgec_{1,n_1})\vee\cdots\vee(c_{m,1}\wedge\cdots\wedgec_{m,n_m})\]ここで,$c_{i,j}$は,エントリ$(D,v,0,o)$を受け取り,エントリ$(D',v',0,o)$を返す任意の部分関数である.$r$を構成するすべての$c_{i,j}$について,$c_{i,j}(e)$が未定義でないとき,タブロー規則$r$はエントリ$e$に\emph{適用可能}であるという.タブロー中に,タブロー規則が適用可能なエントリ$e$が存在するとき,そのエントリが支配するすべての葉に,それらの子として新たな$m$個の経路$\langlec_{1,1}(e)\cdotsc_{1,n_1}(e)\rangle,\cdots,\langlec_{m,1}(e)\cdotsc_{m,n_m}(e)\rangle$を追加する.タブロー規則が適用されたエントリ$(D,v,0,o)$を$(D,v,1,o)$に置き換える.図\ref{fig:rules-sample}にタブロー規則の例に示す.この図において,根は入力として取ることができる依存構造(のパターン)と真偽値の対を表している.すなわち,このパターンに合致しないような依存構造に対して$c_{i,j}$は未定義である.根以外のラベルは各c$_{i,j}$に対応しており,入力されたエントリに対してどのようなエントリを返すかを表現している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{30-2ia13f3.pdf}\end{center}\caption{タブロー規則の例}\label{fig:rules-sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%初期タブローを$e_1=$(EitherSmithorAndersonsignedthecontract,\texttt{T},0,$e_1$),$e_2=$(IfSmithdidnotsignthecontractAndersonmadeanagreement,\texttt{F},0,$e_2$)としたときのタブローの構成を例に,タブロー規則の適用の流れを説明する(完成したタブローを図\ref{fig:tableau-example}に示す).$e_2$:(IfSmithdidnotsignthecontractAndersonmadeanagreement,\texttt{F},0,$e_2$)に図\ref{fig:rules-sample}(a)の規則を適用すると,$e_2$が支配するすべての葉に新たな2つのエントリ$e_3$:(Smithdidnotsignthecontract,\texttt{T},0,$e_2$)と$e_4$:(Andersonmadeanagreement,\texttt{F},0,$e_2$)が追加され,$e_2$のフラグが1に変更される.次に,$e_3$:(Smithdidnotsignthecontract,\texttt{T},0,$e_2$)に図\ref{fig:rules-sample}(b)の規則を適用すると,新たなエントリ$e_5$:(Smithsignedthecontract,\texttt{F},0,$e_2$)が追加され,$e_3$のフラグが1に変更される.最後に,$e_1$:(EitherSmithorAndersonsignedthecontract,\texttt{T},0,$e_1$)に図\ref{fig:rules-sample}(c)の規則を適用すると,新たな2つのエントリ$e_6$:(Smithsignedthecontract,\texttt{T},0,$e_1$)と$e_7$:(Andersonsingnedthecontract,\texttt{T},0,$e_1$)が追加され,$e_1$のフラグは1に変更される.以上により,タブローが構成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{30-2ia13f4.pdf}\end{center}\caption{含意タブローの例}\label{fig:tableau-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タブローの閉鎖性判定}一般のタブロー法においては,枝上に真偽値のみが異なるエントリが存在することをもって閉じた枝を定義している.提案手法ではこれに加えてニューラルNLIモデルに基づく閉じた枝を定義する.ニューラルNLIモデルは,前提文$p$と仮説文$h$を入力として受け取ると,それを含意(\texttt{E}),中立(\texttt{N}),矛盾(\texttt{C})のいずれかのクラスに分類するものとする.以下では,$L\timesL(Lは自然言語文の集合)$から集合$\{\texttt{E},\texttt{N},\texttt{C}\}$への関数$\nu$を\emph{NLIシステム}と呼ぶ.$\nu(p,h)=\texttt{E}$は$p$が$h$を含意することを表す.\texttt{N},及び\texttt{C}についても同様である.提案手法では,枝上に次のいずれかが成り立つようなエントリ$e_1=(D_{s_1},v_1,0,o_1)$,$e_2=(D_{s_2},v_2,0,o_2)$(ただし$o_1\neqo_2$)が存在するとき,その枝は閉じていると再定義する(閉じたタブローについてもこの再定義のもとで同様に再定義する).以下では再定義した3つの条件を,枝の\emph{閉鎖条件}と呼ぶ.\begin{enumerate}\item$v_1=\texttt{T}$かつ$v_2=\texttt{F}$かつ$s_1=s_2$\item$v_1=\texttt{T}$かつ$v_2=\texttt{T}$かつ$\nu(s_1,s_2)=\texttt{C}$\item$v_1=\texttt{T}$かつ$v_2=\texttt{F}$かつ$\nu(s_1,s_2)=\texttt{E}$\end{enumerate}閉鎖条件(1)は従来のタブロー法と同じである.閉鎖条件(2)は,$s_1,s_2$が矛盾関係にあることと$e_1,e_2$の両方が真であることは両立しえないことに由来する条件である.閉鎖条件(3)は,$s_1$が$s_2$を含意するとき,$s_1$が真ならば,$s_2$も真でなければならないが,エントリはそのようにはなっていないことを意味する.閉鎖条件(2),(3)については,4章において改めて議論する.NLIシステムに応じてタブローが閉じているか否かが異なるため,以下では,いかなるNLIシステムのもとで閉じているかを明示する場合には,NLIシステム\emph{$\nu$のもとで閉じている}ということにする.$o_1\neqo_2$という条件は,前提から導出されたエントリ同士,あるいは仮説から導出されたエントリ同士について,閉鎖性の判定の対象から除外するものである.これは前提や仮説が恒真(偽)でなければ問題となることはない.タブローの閉鎖性判定の例について見るために,図\ref{fig:tableau-example}のタブローを考える.また,\[\nu\bigl(sen(e_7),sen(e_4)\bigr)=\texttt{E}\]であると仮定する\footnote{ここで,$sen((D_s,v,a,o))=s$と定義する.}.このタブローは2つの枝をもつが,左の枝$\langlee_1,e_2,e_3,e_4,e_5,e_6\rangle$では,$e_6$:(Smithsignedthecontract,\texttt{T},0,$e_1$),$e_5$:(Smithsignedthecontract,\texttt{F},0,$e_2$)が存在している.この枝は閉鎖条件(1)を満たすので,閉じている.一方,右の枝$\langlee_1,e_2,e_3,e_4,e_5,e_7\rangle$では,$e_7$:(Andersonsignedthecontract,\texttt{T},0,$e_1$),$e_4$:(Andersonmadeanagreement,\texttt{F},0,$e_2$)が存在している.$\nu(sen(e_7),sen(e_4))=\texttt{E}$であるので,閉鎖条件(3)によってこの枝は閉じている.したがって,図\ref{fig:tableau-example}のタブローは,仮定のようなNLIシステムの下で閉じている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{推論的関係の同定}含意タブロー,および矛盾タブローは,それぞれ前提と仮説の間に含意関係,矛盾関係が成り立つかどうかを判定するためのタブローである.これらのタブローの閉鎖性と,仮説と前提の間の推論的関係は,Abzianidze\cite{abzianidze-2015-tableau}と同様に表\ref{table:closing-and-output}のように整理でき,これに従って推論的関係を同定する\footnote{含意関係も成立し,かつ,矛盾関係も成立すると判定される場合は,解釈不能であるためエラークラスとする.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{13table01.tex}%\caption{タブローの閉鎖性と推論的関係の対応}\label{table:closing-and-output}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{提案手法の意味論}
本章では,3章で提案した手法の論理的な整合性を検証する.提案手法をモデル理論的に定式化し,手法の性質とその限界を理論的に明らかにする.具体的には,提案手法において健全性が常に成立する一方で,完全性が一般には成立しないことを示す.本章で使用する記号とその説明を表\ref{table:symbols}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{13table02.tex}%\caption{提案手法の定式化に使用する記号}\label{table:symbols}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}本節では,提案するタブロー法を形式的に議論するために,まず,その基盤となるモデル理論的な文の解釈について定義する.次に,モデルに基づいて,タブロー規則,およびNLIシステムを特徴付け,タブロー規則により導出された完成したタブローにおけるNLIシステムを用いた閉鎖性判定のもつ性質を明らかにする.まず,モデルを定義する.\begin{dfn}[モデル]\label{dfn:sentence-model}$L$($L$は自然言語文の集合)から$\{\texttt{T},\texttt{F}\}$への関数$m$をモデルと呼ぶ.$\mathcal{M}$をすべてのモデルの集合とする.モデルの集合$M\subseteq\mathcal{M}$に対して,$M(s)=\{m\inM\midm(s)=\texttt{T}\}$と定義する.\end{dfn}以下では,モデル集合$M$が与えられたとき\footnote{ここですべてのモデルの集合$\mathcal{M}$ではなく,その部分集合$M$を考えるのは,$\mathcal{M}$の中には,論理的に不自然なモデル,例えば,すべての自然言語文に対して\texttt{T}を返すようなモデルが含まれるからである.論理的に自然なモデルの集合が仮に$M$として与えられたものとして以下では議論を進める.なお,$M$に対して何の条件も課さないため,$M$がどのような集合であっても以下の議論は成り立つ.},$M$と整合性のとれたNLIシステム,およびタブロー規則がどのようなものであるかを定義し,整合性が取れているという条件の下で提案手法による推論的関係の同定の理論的限界を明らかにする.\begin{dfn}\label{dfn:nli-system-consistent}次の3つの条件が全て成り立つとき,NLIシステム$\nu$はモデル集合$M$と\emph{整合的}であるという.なお,$s_1,s_2\inL$とする.\begin{itemize}\item$M(s_1)\subseteqM(s_2)$ならば,かつ,そのときのみ$\nu(s_1,s_2)=\texttt{E}$\item$\neg(M(s_1)\subseteqM(s_2))\land\neg(M(s_1)\capM(s_2)=\emptyset)$ならば,かつ,そのときのみ$\nu(s_1,s_2)=\texttt{N}$\item$M(s_1)\capM(s_2)=\emptyset$ならば,かつ,そのときのみ$\nu(s_1,s_2)=\texttt{C}$\end{itemize}\end{dfn}この定義では,含意関係をモデル集合の包含関係として,矛盾関係を互いに素な関係として捉えている.以下では,モデルに基づいてタブローを特徴付ける.その準備として,エントリ,タブローの枝,タブローに対応するモデルを,$M(s)$を拡張することにより定義する.\begin{dfn}[エントリに対するモデル集合]\label{dfn:entry-model}タブローのエントリ$e=(D_s,v,a,o)$に対して,$M(e)$を次のように定義する.\[M(e)=\begin{cases}M(s)&(v=\texttt{T})\\M-M(s)&(v=\texttt{F})\end{cases}\]\end{dfn}\begin{dfn}[タブローの枝に対するモデル集合]\label{dfn:branch-model}タブローの枝$b$に対して,$M(b)$を次のように定義する.\[M(b)=\bigcap_{e\inb}M(e)\]\end{dfn}\begin{dfn}[タブローに対するモデル集合]\label{dfn:equal-branch-model-tableau-model}タブロー$t$に含まれる全ての枝の集合を$B$とする.$M(t)$を次のように定義する.\[M(t)=\bigcup_{b\inB}M(b)\]\end{dfn}提案手法では,タブロー規則の適用前後で,エントリが表現する制約が等価であることを想定しており,この性質を以下のように定義する.\begin{dfn}\label{dfn:tableau-rule-consistent}$r=(c_{1,1}\wedge\cdots\wedgec_{1,n_1})\vee\cdots\vee(c_{m,1}\wedge\cdots\wedgec_{m,n_m})$,$E$をすべてのエントリの集合とし,$E_r=\{e\inE\midrはeに適用可能\}$とする.任意の$e\inE_r$に対して次の条件が満たされるとき,タブロー規則$r$はモデル集合$M$と\emph{整合的}であるという.\[M(e)=\biggl(M\bigl(c_{1,1}(e)\bigr)\cap\cdots\capM\bigl(c_{1,n_1}(e)\bigr)\biggr)\cup\cdots\cup\biggl(M\bigl(c_{m,1}(e)\bigr)\cap\cdots\capM\bigl(c_{m,n_m}(e)\bigr)\biggr)\]この等式において,左辺は,エントリ$e$に対する制約に相当する.右辺は,エントリ$e$にタブロー規則$r$を適用した結果,導出されるエントリにより表現される制約に対応する.また,任意の$r\inR$が$M$と整合的であるとき,$R$は$M$と\emph{整合的}であるという.\end{dfn}提案手法の振る舞いは,タブロー規則の集合$R$とNLIシステム$\nu$によって定まる.以下では,この対$(R,\nu)$を\emph{証明システム}とよび,$R$と$\nu$がモデル$M$と整合的であるとき,\emph{$(R,\nu)$は$M$と整合的である}という.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{健全性と完全性}本節では,前節で定義したモデルに基づき提案手法の健全性と完全性を定義する.任意の証明システムについて健全性が成り立つことを証明し,完全性について反例を示す.ここで定義する健全性とは,含意(矛盾)タブローが閉じているとき,前提と仮説に対するモデル集合は,包含(互いに素な)関係にあるという性質である.定義は以下のとおりである.\begin{dfn}[含意タブロー,および矛盾タブローの健全性]\label{dfn:entailment-tableau-kenzen}$M$をモデル集合,$(R,\nu)$を$M$と整合的な証明システムとする.任意の前提文$p$と仮説文$h$について,次の条件が成り立つならば,$(R,\nu)$は,モデル集合$M$において\emph{健全}であるという.\begin{itemize}\item$R$によって構成された含意タブローが$\nu$のもとで閉じているならば,$M(p)\subseteqM(h)$.\item$R$によって構成された矛盾タブローが$\nu$のもとで閉じているならば,$M(p)\capM(h)=\emptyset$.\end{itemize}\end{dfn}一方で,完全性を次のように定義する.\begin{dfn}[含意タブロー,および矛盾タブローの完全性]\label{dfn:entailment-tableau-kanzen}$M$をモデル集合,$(R,\nu)$を$M$と整合的な証明システムとする.任意の前提文$p$と仮説文$h$について,次の条件が成り立つならば,$(R,\nu)$は,モデル集合$M$において\emph{完全}であるという.\begin{itemize}\item$M(p)\subseteqM(h)$ならば,$R$によって構成された含意タブローが$\nu$のもとで閉じている.\item$M(p)\capM(h)=\emptyset$ならば,$R$によって構成された矛盾タブローが$\nu$のもとで閉じている.\end{itemize}\end{dfn}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{健全性の証明}本節では,健全性に関する以下の定理を証明する.\begin{thm}[健全性の定理]\label{thm:kenzensei}$M$をモデル集合とする.$M$と整合的な任意の証明システムは,$M$において健全である.\end{thm}以下では,まず定理\ref{thm:kenzensei}を証明するための補助定理を導入し,それにも基づき定理\ref{thm:kenzensei}を証明する.\begin{lem}\label{thm:entry-model-immutable-all}$R$が$M$と整合的であるならば,$t\stackrel{R}{\rhd}t'$を満たす任意のタブロー$t$と$t'$において次が成立する.\[M(t)=M(t')\]\end{lem}補助定理\ref{thm:entry-model-immutable-all}は定義\ref{dfn:tableau-rule-consistent}から明らかである.\begin{lem}\label{thm:tableau-model-immutable-all}$t$と$t'$をタブローとし,$t\stackrel{R}{\rhd^{*}}t'$とする.$R$が$M$と整合的であるならば,$M(t)=M(t')$.\end{lem}補助定理\ref{thm:tableau-model-immutable-all}は補助定理\ref{thm:entry-model-immutable-all}から明らかである.含意タブローの健全性の証明は次の通りである.\begin{proof}$R$によって構成された含意タブロー$t_\textrm{comp}$が$\nu$のもとで閉じているとする.このとき,$t_\textrm{comp}$のすべての枝$b$に閉鎖条件のいずれかを満たす2つのエントリ$e_1=(D_{s_1},v_1,0,o_1)$,$e_2=(D_{s_2},v_2,0,o_2)$(ただし$o_1\neqo_2$)が存在する.\begin{itemize}\item閉鎖条件(1)を満たすならば,$s_1=s_2$.したがって,定義\ref{dfn:entry-model}より$M(e_1)\capM(e_2)=M\bigl((D_{s_1},\texttt{T},0,o_1)\bigr)\capM\bigl((D_{s_2},\texttt{F},0,o_2)\bigr)=\emptyset$.\item閉鎖条件(2)を満たすならば,$\nu(s_1,s_2)=\texttt{C}$.$\nu$は$M$と整合的であるから,定義\ref{dfn:nli-system-consistent}より$M(s_1)\capM(s_2)=\emptyset$.よって,定義\ref{dfn:entry-model}より$M(s_1)\capM(s_2)=M\bigl((D_{s_1},\texttt{T},0,o_1)\bigr)\capM\bigl((D_{s_2},\texttt{T},0,o_2)\bigr)=M(e_1)\capM(e_2)=\emptyset$.\item閉鎖条件(3)を満たすならば,$\nu(s_1,s_2)=\texttt{E}$.$\nu$は$M$と整合的であるから,定義\ref{dfn:nli-system-consistent}より$M(s_1)\subseteqM(s_2)$.定義\ref{dfn:entry-model}より$M(e_1)=M(s_1)$,$M(e_2)=M-M(s_1)$.ここで$M(s_1)\subseteqM(s_2)$であるから,$M(e_1)\capM(e_2)=\emptyset$.\end{itemize}以上より,$M(e_1)\capM(e_2)=\emptyset$.ゆえに,定義\ref{dfn:branch-model}より$M(b)=\emptyset$となる.したがって,すべての$t$中の枝$b$について$M(b)=\emptyset$であるので,定義\ref{dfn:equal-branch-model-tableau-model}から$M(t_\textrm{comp})=\emptyset$である.$t_\textrm{start}$を初期タブローとすると,$t_\textrm{start}\stackrel{R}{\rhd^{*}}t_\textrm{comp}$であるので補助定理\ref{thm:tableau-model-immutable-all}から$M(t_\textrm{start})=\emptyset$である.初期タブローは$e_1=(D_{p},\texttt{T},0,e_1)$,$e_2=(D_{h},\texttt{F},0,e_2)$から構成されるため,定義\ref{dfn:branch-model}と\ref{dfn:equal-branch-model-tableau-model}から$M\bigl((D_{p},\texttt{T},0,e_1)\bigr)\capM\bigl((D_{h},\texttt{F},0,e_2)\bigr)=\emptyset$である.したがって,$M\bigl((D_{p},\texttt{T},0,e_1)\bigr)\subseteqM\bigl((D_{h},\texttt{T},0,e_2)\bigr)$.定義\ref{dfn:entry-model}から$M(p)\subseteqM(h)$である.以上より定義\ref{dfn:entailment-tableau-kenzen}の1番目の条件は満たされる.矛盾タブローに関する2番目の条件も同様に証明できる.すなわち,証明システム$(R,\nu)$は$M$において健全である.\end{proof}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{完全性の反例}本節では,完全性が一般には成立しないことを反例を用いて説明する.完全性が一般に成り立たないことを示すには,次の条件を満たすモデル集合$M$,証明システム$(R,\nu)$,前提文$p$,仮説文$h$が存在することを示せば十分である.\begin{description}\item[条件1]$M(p)\subseteqM(h)$\item[条件2]$(R,\nu)$は$M$と整合的である.\item[条件3]$R$によって構成された$p$と$h$の含意タブローは$\nu$のもとで閉じていない.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{13table03.tex}%\caption{完全性が成立しないモデルの例}\label{table:not-kanzen-tableau-sample}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f5.pdf}\end{center}\caption{タブローの完全性の反例}\label{fig:not-kanzen-tableau-sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次のインスタンス,表\ref{table:not-kanzen-tableau-sample}に示すモデル$M$,図\ref{fig:not-kanzen-tableau-sample}に示すタブローを構成する証明システム$(R,\nu)$($\nu$は$M$と整合的なものを任意に選んでよい)は,上の条件を満たす,完全性が一般には成り立たないことを示す反例となっている.\begin{description}\item{\textbf{前提}}:SmithandAndersondidnotgoout.\item{\textbf{仮説}}:SmithandAndersonwerehome.\item{\textbf{推論的関係}}:含意\end{description}$M(p)=M(h)=\{m_1\}$であるので,$M(p)\subseteqM(h)$である.すなわち条件1を満たす.$M(e_1)=M(e_3)=M(e_4)\capM(e_5)=\{m_1\},M(e_2)=M(e_6)\cupM(e_7)=\{m_2,m_3,m_4\}$であることから,このタブローの構成に用いられたタブロー規則は$M$と整合的である.$\nu$は$M$と整合的であるので,$(R,\nu)$は$M$と整合的である.すなわち条件2を満たす.図\ref{fig:not-kanzen-tableau-sample}の含意タブローにおいてタブロー規則が未適用であるエントリ$e_4$,$e_5$,$e_6$,$e_7$の真偽値はいずれも\texttt{F}である.3.3節で述べた閉鎖条件に現れるエントリのペアは,いずれかのエントリの真偽値が\texttt{T}でなければならない.このため,この含意タブローにおいて,閉鎖条件を満たすエントリの対は存在せず,$\nu$のもとでこのタブローが閉じていることはあり得ない.(条件3を満たす).以上から,$M$,$(R,\nu)$,$p$,$h$は完全性が一般には成り立たないことを示す反例となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験}
提案手法における論理的な推論過程の明示可能性を評価すること,\pagebreak及び,提案手法の欠点を明らかにすることを目的に,下記の準備のもと実験を実施した\footnote{実装したコードは\url{https://github.com/ayahito-saji/nli-tableau-ml}から利用できる.}.\begin{description}\item[データセット]%ニューラルNLIモデルの構築,および評価用データセットとしてSNLIコーパスを使用した.SNLIコーパスには,訓練データとして549,367件,開発データとして9,842件,テストデータとして9,824件が含まれている\footnote{ラベルなしと分類されているデータはすべて取り除いた.}.\item[依存構造解析]依存構造解析器としてUdify\cite{kondratyuk-straka-2019-75},およびUdify事前学習モデルを用いた\footnote{\url{https://github.com/Hyperparticle/udify}を使用した.}.UdifyはMultilingualBERT\footnote{\url{https://github.com/google-research/bert/blob/master/multilingual.md}}ベースの多言語対応の依存構造解析器であり,UDに基づく依存構造を出力する.\item[ニューラルNLIモデル]フレームワーク内で使用するニューラルNLIモデルとして,LSTMに基づくニューラルNLIモデルであるESIM\cite{chen-etal-2017-enhanced}を採用した\footnote{\url{https://github.com/coetaur0/ESIM}の実装を使用した.}.ESIMのパラメータは,SNLIコーパスの訓練用データと開発用データを用いて学習した.\item[タブロー規則]タブロー規則として,命題論理のタブロー法の連言,選言,否定,条件法の4つの規則に相当する規則を合計32個作成した.作成したタブロー規則について付録Aにまとめる.連言,選言については,文の等位接続だけでなく,UDのcoreargument(主語,目的語など)の等位接続を扱える規則となっている.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{推論過程の明示可能性}提案手法における推論過程の明示可能性を評価するために,含意タブロー,および矛盾タブローのサイズ(エントリの数)を測定した.提案手法はタブロー規則の適用により推論の明示化を行っており,タブローのサイズは推論の明示化の程度を評価する指標である.含意タブローと矛盾タブローのサイズの分布を図\ref{fig:tableau_size}の左と右にそれぞれ示す.サイズが2となる(タブロー規則が適用されなかった)推論も多いが,一方で,サイズが4以上となる(タブロー規則が複数回適用された)推論も少なくなく,提案手法における明示可能性が示された.なお,何らかのタブロー規則が適用されたインスタンスは,9,824件中800件であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f6.pdf}\end{center}\caption{含意タブロー(左)と矛盾タブロー(右)のサイズの分布}\label{fig:tableau_size}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験データ内のあるインスタンスを対象に,提案手法による推論がどのように行われたのかを分析した.\begin{description}\item{\textbf{前提}}:Alittleboyisstandinginfrontofaweddingpartylaughing.\item{\textbf{仮説}}:Thereisabrideandgroombehindthelittleboy.\item{\textbf{推論的関係}}:含意\end{description}図\ref{fig:correct-tableau-example}に,このインスタンスに対して作成された含意タブローを示す.この例では,$e_2$に含まれる等位構造``abrideandgroom''が``groom''と``bride''に分解され,それぞれ$e_3$と$e_4$として導出された後,それらが$e_1$と矛盾することを正しく判定できている.すなわち,タブロー法に基づいて名詞句の等位構造により表現された連言を分解する推論過程を明示化できている.一方で,記号操作的アプローチでは扱いが難しい``weddingparty''と``groom'',``bride''といった単語の類似関係や``infrontof''と``behind''といった異なる単語(列)によって表現された位置の関係は,ニューラルモデルにより柔軟に扱うことができている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f7.pdf}\end{center}\caption{正しい含意タブローの例}\label{fig:correct-tableau-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{13table04.tex}%\caption{提案手法とニューラルNLIモデルの予測結果}\label{table:result-tableau-ml-result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{13table05.tex}%\caption{提案手法とニューラルNLIモデルの正解率}\label{table:result-tableau-ml-result-2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誤り分析}タブロー法とニューラルNLIモデルを組み合わせる提案手法の問題点を明らかにするために,提案手法において何らかのタブロー規則が適用された800件を対象に,その推論性能を測定した.提案手法による結果,及び,ニューラルNLIモデルによる結果を表\ref{table:result-tableau-ml-result},および表\ref{table:result-tableau-ml-result-2}に併せて示す.なお,「エラー」とは,3.4節の表\ref{table:closing-and-output}に示したように,含意関係と矛盾関係のいずれも成立すると判定され,解釈不能であることを示すラベルである.推論性能として,標準的な評価指標である正解率,再現率,精度,$F_1$値を求めた\footnote{提案手法の目的は,NLIタスクの性能向上にはない点に注意.}.$F_1$値は,以下で定義する再現率と精度の調和平均である.\begin{align*}\textrm{Recall}_A&=\frac{\textrm{TP}_A}{\textrm{True}_A}\\\textrm{Precision}_A&=\frac{\textrm{TP}_A}{\textrm{Positive}_A}\end{align*}ここで,$A$は「含意」,「中立」,「矛盾」のいずれかのラベルを表し,$\textrm{TP}_A$は正解ラベルと予測ラベルがクラス$A$であるインスタンス数,$\textrm{True}_A$は正解ラベルがクラス$A$であるインスタンス数,$\textrm{Positive}_A$は予測ラベルがクラス$A$であるインスタンス数である.提案手法は,ニューラルNLIモデルと比べて,正解率の低下がみられた.以下では,提案手法においてタブロー規則が適用され,かつ誤りが生じたケースについて,その要因を分析し,考察する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{誤りの原因の分析}本節では,開発データ中においてタブロー規則が適用された762件のインスタンスを用いて提案手法が推論的関係を誤って同定した原因を分析する.開発データに対して提案手法を適用した予測結果の混合行列を表\ref{table:result-tableau-dev}に示す.開発データの結果はテストデータと大きな乖離がなく,誤りの原因についても同様の傾向が見られた.誤って予測したインスタンスの合計は268件であった.この268件の中で,正解ラベルが誤っていたインスタンスは35件存在した.正解ラベルを修正したところ,そのうち16件は提案手法によって正しく推論的関係を同定できていた.また,文中の単語の誤りによって意味が通らないインスタンスが4件存在した.そこで,以上の20件を除いた248件のインスタンスについて,その閉鎖性判定が誤っているタブロー292個\footnote{正解クラスが「含意」で,予測ラベルが「矛盾」である場合のように,含意タブローと矛盾タブローの両方が誤っている場合はいずれもがカウントされる.}を,次の4つに分類した\footnote{提案手法では,依存構造解析,タブロー規則の適用によるタブローの構成,NLIシステムによるタブローの閉鎖性判定の順に処理を行う.誤りが最初に生じた処理のみを,閉鎖性判定の誤りの要因として扱った.}.\begin{itemize}\itemNLIシステムに起因する誤り(5.2.2節)\itemタブロー規則に起因する誤り(5.2.3節)\item依存構造解析に起因する誤り(5.2.4節)\item提案手法の限界に起因する誤り(5.2.5節)\end{itemize}それぞれに該当するタブローの数を表\ref{table:reason-of-failure}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{13table06.tex}%\caption{開発データに対する提案手法の予測結果}\label{table:result-tableau-dev}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{13table07.tex}%\caption{開発データにおける誤りの要因}\label{table:reason-of-failure}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以下では具体例を挙げながら,各誤りについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{NLIシステムに起因する誤り}本節では,NLIシステムに起因する誤りについて説明する.292個の誤りのうち,239個の誤りは,NLIシステムが推論的関係の同定を誤ったことが原因である.例として,以下のインスタンス\begin{description}\item{\textbf{前提}}:Twopeopleareinagreenforest.\item{\textbf{仮説}}:Theforestisnotdead.\item{\textbf{推論的関係}}:含意\end{description}に対して生成された含意タブローを図\ref{fig:error-tableau-nli1}に示す.このインスタンスの推論的関係は「含意」であるため,含意タブローは閉じなければならないが,閉じていなかった.$\textrm{sen}(e_1)$における``greenforest''と$\textrm{sen}(e_3)$=``Theforestisdead''から,正しくは$\nu(\textrm{sen}(e_1),\textrm{sen}(e_3))=\texttt{C}$であると考えられるが,$\nu(\textrm{sen}(e_1),\textrm{sen}(e_3))=\texttt{N}$と判定されたために,閉鎖条件(2)を満たさず,このタブローは閉じていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{30-2ia13f8.pdf}\end{center}\caption{NLIシステムに起因して誤った含意タブローの例}\label{fig:error-tableau-nli1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,NLIシステムの推論的関係の同定の誤り239個のうち,SNLIコーパスから学習したニューラルモデルがもつある特性が原因であると考えられるものが141個存在した.例として,以下のインスタンス\begin{description}\item{\textbf{前提}}:Amanandwomanwalkatopahill.\item{\textbf{仮説}}:Amanandwomanarewalking.\item{\textbf{推論的関係}}:含意\end{description}に対して生成された矛盾タブローを図\ref{fig:error-tableau-nli2}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f9.pdf}\end{center}\caption{NLIシステムに起因して誤った矛盾タブローの例}\label{fig:error-tableau-nli2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%推論的関係は「含意」であるこのタブローのエントリ$e_3$と$e_6$について,$\nu(\textrm{sen}(e_3),\textrm{sen}(e_6))=\texttt{C}$と判定された.そのため,$\nu$のもとでこの矛盾タブローは閉じてしまい,正しい推論的関係を同定できなかった.$\textrm{sen}(e_3)$と$\textrm{sen}(e_6)$の間の推論的関係には,ある種の不確定性が存在することが,文献\cite{bowman-etal-2015-large}において指摘されている.名詞句が参照する実体が同一であるか否かに応じて推論的関係が異なる場合があり,$\textrm{sen}(e_3)$と$\textrm{sen}(e_6)$の推論的関係においては``aman''と``woman''が同一の実体を参照するとすればその推論的関係は「矛盾」であるが,同一の実体を参照しないとすれば「中立」である.SNLIコーパスにおいては,同一の実体を参照するという想定のもとで推論的関係が定められる傾向にあり,SNLIコーパスに基づき構築されたESIMもその傾向を持っていると考えられる.ここで注目すべきポイントは,提案したタブロー法による推論によってこの事実を捉えることができた点である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{タブロー規則に起因する誤り}本節では,タブロー規則の適用に起因する誤りについて説明する.タブロー規則を適用することにより不適格文が生成されるケースが確認された.例えば,次のようなインスタンスが存在した.\begin{description}\item{\textbf{前提}}:Themanandwomanarebothsmiling.\item{\textbf{仮説}}:Aguyandaladyarestandingneareachother.\item{\textbf{推論的関係}}:中立\end{description}この仮説文に対してタブロー規則を適用した結果を図\ref{fig:error-tableau-rule1}に示す.ここで,$e_1$に含まれる``eachother''は,``aguy''が``alady''を,``alady''が``aguy''を先行詞とする相互代名詞であるものの,タブロー規則を適用した結果得られる$e_2$と$e_3$では先行詞が存在しなくなるため,不適格文となる.タブロー規則を適用した結果,不適格文が生成されたタブローは19個存在した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{30-2ia13f10.pdf}\end{center}\caption{タブロー規則の適用により意味的に不適格な文が生成される例}\label{fig:error-tableau-rule1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%別の誤りの要因としては,not+anyを含む文に対して否定に関するタブロー規則を適用することによるものが挙げられる.例えば,\begin{description}\item{\textbf{前提}}:Acementtruckpourscementonthestreet.\item{\textbf{仮説}}:Thetruckisn'tdoinganything.\item{\textbf{推論的関係}}:矛盾\end{description}の仮説文に否定に関するタブロー規則を適用すると,図\ref{fig:error-tableau-rule2}のようになる.$e_1$と$e_2$は等価な制約を表していない.$e_2$における``anything''を``something''に置き換えれば等価な制約を表せるものの,現状のタブロー規則ではnotを単純に取り除くことしかできない.このような原因により誤りが生じたタブローは17個存在した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f11.pdf}\end{center}\caption{not+anyを含むエントリに対するタブロー規則の適用の例}\label{fig:error-tableau-rule2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%他の誤りの要因として,非合成的な要素(イディオム,固有名詞など)をタブロー規則が分解してしまうことが挙げられる.以下のインスタンスでは,図\ref{fig:error-tableau-rule3}のように,仮説文に含まれる``hideandseek''というイディオムが分解されたために,意味的に不適格な文が生成されている.\begin{description}\item{\textbf{前提}}:Asmallchildissittingonastumpinaforestclearing.\item{\textbf{仮説}}:Alittleboyisplayinghideandseekinthewoods.\item{\textbf{推論的関係}}:矛盾\end{description}このようなタブローは2個存在した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f12.pdf}\end{center}\caption{非合成的な要素を含むエントリの誤った分解}\label{fig:error-tableau-rule3}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{依存構造解析に起因する誤り}前提文,または仮説文の依存構造解析に誤っているタブローは53個存在した.このうち,タブロー規則がマッチする部分における解析誤りによって,意味的に不適格な文が生成されたタブローは3個存在した.例えば,次のインスタンス\begin{description}\item{\textbf{前提}}:Amaleandafemalewithablackhat,andsunglassesstopandtalk.\item{\textbf{仮説}}:Manandwomanstopandchatwitheachother.\item{\textbf{推論的関係}}:含意\end{description}の前提文は,正しくは図\ref{fig:error-tableau-ud-correct}のような依存構造を持つが,依存構造解析の誤りによって図\ref{fig:error-tableau-ud}のように分解されてしまい,意味的に不適格な文``Sunglassesstopandtalk.''が生成されている.残りのタブロー50個における依存構造解析誤りの影響はみられなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.13\begin{figure}[b]\begin{center}\includegraphics{30-2ia13f13.pdf}\end{center}\caption{``Amaleandafemalewithablackhat,andsunglassesstopandtalk.''の正しい依存構造}\label{fig:error-tableau-ud-correct}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14\begin{figure}[b]\begin{center}\includegraphics{30-2ia13f14.pdf}\end{center}\caption{依存構造解析の誤りによる意味的に不適格な文の生成}\label{fig:error-tableau-ud}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.15\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f15.pdf}\end{center}\caption{提案手法の限界に起因する誤った含意タブローの例}\label{fig:error-tableau-limit}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{提案手法の限界に起因する誤り}NLIシステム,タブロー規則の適用,依存構造解析のいずれにも誤りがないにもかかわらず,推論的関係の同定を誤ったものは,提案手法の限界,すなわち完全性が一般には成り立たないことに起因するものと位置づけられる.例として,以下のインスタンス\begin{description}\item{\textbf{前提}}:Twomenandonewomanareperformingmusiconastage.\item{\textbf{仮説}}:Threemusiciansareperformingataconcert.\item{\textbf{推論的関係}}:含意\end{description}に対して生成された含意タブローを図\ref{fig:error-tableau-limit}に示す.このタブローでは,正しく依存構造解析が行われており,$e_1$は$e_3$および$e_4$に分解されているが,タブロー規則の適用に誤りはない.また,$\nu(\textrm{sen}(e_3),\textrm{sen}(e_2))=\texttt{N}$,$\nu(\textrm{sen}(e_4),\textrm{sen}(e_2))=\texttt{N}$であり,NLIモデルも正しい.前提と仮説の間の推論的関係は「含意」であり,このタブローは閉じられる必要があるが,閉じていない.これは,この提案手法の完全性が一般には成立しないことによるものと位置づけられる.このように,実際のデータセット中でも,完全性が一般に成立しないために推論的関係を正しく同定できなかったインスタンスが存在することがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
提案手法は,\pagebreak構文構造を用いて推論を行う自然論理(NaturalLogic)\cite{lakoff1970linguistics}のアイデアに基づく手法と位置付けられる.本章では,自然論理に基づく従来のNLI手法と提案手法を定性的に比較する.自然論理に基づくNLI手法は,遷移に基づく手法と証明に基づく手法に大別できる.遷移に基づく手法では,前提の自然言語文を仮説の自然言語文へと何らかの操作を用いて変換する.Bar-Haimら\cite{bar2007semantic}は,依存構造に基づく変換操作を提案している.この変換操作は,含意関係を保存するような操作に限られ,前提から仮説への変換が成功することは,前提と仮説の間に含意関係が成り立つことを意味する.MacCartneyら\cite{maccartney-manning-2008-modeling}は,NatLogと呼ばれるシステムを提案している.このシステムは単調性に関する推論\cite{maccartney-manning-2009-extended}に基づいている.これらの手法は,自然言語文を直接的に扱うという点で提案手法と同様であるが,NLIモデルと統合できるかどうかは明らかではない.また,遷移に基づくこれらの手法は,前提が複数の文からなる問題を本質的に解くことができないが,提案手法は初期タブローのエントリとして前提を加えるだけでこのような問題にも適用可能である.証明に基づく手法として,Abzianidze\cite{abzianidze-2017-langpro}は,LangProと呼ばれるタブロー法に基づくシステムを,Huら\cite{hu-etal-2020-monalog}はMonaLogと呼ばれる単調性推論に基づくシステムを開発している.これらのシステムでは,自然言語文に似た意味表現を採用しているが,あくまでも似た意味表現であって自然言語文ではない.このため,提案手法のようにニューラルNLIモデルと証明システムを組み合わせることはできない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
本論文では,タブロー法とニューラルモデルを用いてNLIを行う手法を提案した.提案手法をモデル理論的に定式化し,一般に,健全性は成り立つが完全性は成り立たないことを示した.また,SNLIコーパスを用いた実験により,提案手法の振る舞いを分析した.今後の発展として,タブロー規則の充実や多言語への対応などが考えられる.今回の実験では,命題論理に対するタブロー規則を作成し利用したが,より広範に提案手法を適用できるようにするために,量化,時相,様相,命題的態度などの現象を扱うことが可能なタブロー規則を整備する必要がある.高階論理に対するタブロー法のための規則の拡充法がAbzianidze\cite{abzianidze-2015-tableau}により提案されており,それを本手法に応用することが一つのアプローチとして考えられる.また,今回の実験では,データセットの前提と仮説をそのまま用いてニューラルモデルを学習したが,タブロー法に従って前提と仮説をより小さい文に分解した上で,それに基づきモデルを構築する手法の検討も今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,一部,科学研究費補助金基盤研究(C)(No.22K12148)により実施したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{13refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix
\section{付録A}
図\ref{fig:rule-list}に,実験の際に関数として作成したタブロー規則の一覧を示す.ここで$C,C_i,C'_i$は任意の依存構造である.また,$X$は依存関係であり,$X\in\{\textrm{nsubj},\textrm{csubj},\textrm{obj},\textrm{iobj},\textrm{ccomp},\textrm{xcomp}\}$である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.16\begin{figure}[t]\begin{center}\includegraphics{30-2ia13f16.pdf}\end{center}\caption{作成したタブロー規則の一覧}\label{fig:rule-list}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{2\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{佐治礼仁}{2021年名古屋大学情報学部卒.2023年,同大学院情報学研究科博士前期課程修了.現在,ヤフー株式会社に在籍中.}\bioauthor{高尾大樹}{2017年名古屋大学工学部卒.2019年同大学大学院情報学研究科博士前期課程修了.現在,同博士後期課程在学中.}\bioauthor{加藤芳秀}{2003年名古屋大学大学院工学研究科情報工学専攻博士課程後期課程修了.博士(工学).同大助手,助教等を経て,准教授.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL各会員.}\bioauthor{松原茂樹}{1998年名古屋大学大学院工学研究科情報工学専攻博士課程修了.博士(工学).同大助手,助教授,准教授を経て,2017年名古屋大学教授.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V10N05-01
|
\section{はじめに}
LR構文解析法は,構文解析アルゴリズムとして最も効率の良い手法の一つである.LR構文解析法の中でも,横型探索で非決定的解析を行うことにより文脈自由言語の扱いを可能にした方法は一般化LR法(GLR法)と呼ばれ,自然言語処理および,音声認識で利用されている.また,LR法の構文解析過程に確率を割り当てることで,確率言語モデルを得ることができる.確率一般化LR(PGLR)モデル\cite{inui1998},およびその一般化であるAPGLRモデル\cite{akiba2001}は,構文解析結果の構文木の曖昧性解消や,音声認識の確率言語モデル\cite{nagai1994,imai1999,akiba2001}として利用されている.LR構文解析法では,文法が与えられた時点であらかじめ計算できる解析過程を先に求め,LR解析表(以下,LR表)で表しておき,文解析時に利用する.LR法は,言わば,空間効率を犠牲にする(LR表を作成する)ことによって,解析時間の効率化を実現する手法である.LR法を実際の問題に適用する場合の問題点の一つは,文法の規則数増加に伴うLR表のサイズの増大である.計算機言語の解析\cite{aho1986},自然言語の解析\cite{luk2000},音声認識\cite{nagai1994},それぞれの立場からこの問題点が指摘されている.LR表のサイズを押えるひとつの方法は,解析効率を犠牲にして空間効率をある程度に押える方法である.本来LR法が利用されていた計算機言語用の構文解析においては,LR法は決定的解析器として利用されてきた.決定的解析としてのLR法が扱える文法は,文脈自由文法のサブセットである.LR表は,その作り方から幾つかの種類に分類されるが,それらは決定的解析で扱える言語に違いがある.単純LR(SimpleLR;SLR)表は,作り方が単純で表サイズを小さく押えられるが扱える文法の範囲が狭い.正準LR(CannonicalLR;CLR)表は,サイズは非常に大きくなるが扱える文法の範囲は最も広い.両者のバランスを取るLR表として,サイズを小さく押えつつ扱える文法の範囲をそこそこ広くとれる,LALR(LookAheadLR)表が提案されている.一方,文脈自由文法を扱う自然言語処理でLR表を利用する場合は,非決定的解析として利用するのが普通である.決定的解析で扱える言語の大きさは,非決定的解析での解析効率に相当する.すなわち,SLR,LALR,CLRの順に効率は良くなるが,それに伴い表のサイズは増大する.また,計算機言語に用いるLR表のサイズ圧縮手法には,2次元配列としてのスパースな表をいかに効率よく圧縮するかという視点のものも多い.これらは,作成後の表を表現するデータ構造に工夫を行ったもので,表自体が運ぶ情報には違いがない.自然言語処理の分野でも,解析表縮小の手法が提案されている.田中らは,文脈自由文法と単語連接の制約を切り放して記述しておき,LRテーブル作成時に2つの制約を導入する手法(MSLR法)\cite{tanaka1995}を用いることで,単独の文脈自由文法を記述するより解析表のサイズを小さくすることができたと報告している\cite{tanaka1997}.Lukらは,文法を小さな部分に分割して,それぞれを扱うパーザを組み合わせることで,解析表のサイズを押える方法を提案している\cite{luk2000}.以上の従来手法をまとめると,次の3つの手法に分類できる.\begin{enumerate}\item処理効率を犠牲にして空間効率を稼ぐ方法.\item表のデータ構造を工夫して記憶量を引き下げる方法.\item文法の記述方法を工夫してより小さな表を導出する方法.\end{enumerate}本稿では,LR表のサイズを圧縮する,上記の3分類には当てはまらない新規の手法を提案する.提案法は従来の手法と異なり,LR表作成アルゴリズムの再検討を行い,解析に不要な情報を捨象することによって,表の圧縮を実現する.本手法は,次のような特徴を持つ.(1)上記の従来の縮小手法とは手法の軸が異なるため,どの手法とも同時に適用可能である\footnote{ただし,MSLR法\cite{tanaka1995}との同時適用には,表作成に若干の修正が必要である.MSLR法では,提案法で解析に不要とする情報の一部を利用しているためである.MSLR法への対応方法ついては,付録.Bで述べる.}.(2)入力文の構文木を得るという自然言語処理用途において,提案法は解析時の効率に影響をあたえることはない\footnote{計算機言語の構文解析では,解析時に規則に付随するアクション(プログラム)を実行することが要求される.提案法による圧縮LR表では適用されるCFG規則は解析時に動的に求まるので,規則から付随するアクションを検索する処理の分オーバーヘッドが生じる.入力文から構文木を得ることを目的とする自然言語処理用途では,このオーバーヘッドは生じない.}.(3)従来の表作成および解析アルゴリズムへの変更個所は小さく,プログラムの軽微な修正で適用可能である.特に,提案法によって作成された圧縮LR表は,既存のLR構文解析プログラムでほぼそのまま利用可能である.本稿の構成は以下の通りである.まず\ref{ss:base}節で,提案法の基本原理を説明する.また,提案法の性質を考察する.続く\ref{ss:experiment}節では,提案法の実装方法と,実際の文法に提案手法を適用した実験結果を示す.\ref{ss:extension}節では,提案手法の限界を克服するための拡張方法について述べ,実際の文法に適用した結果を報告する.\ref{ss:related}節では,関連研究について述べる.
\section{LR解析表の圧縮}
\label{ss:base}本稿で提案するLR解析表の圧縮方法について,その原理と性質について述べる.\subsection{提案法の基本原理}\label{sec:basic}LR構文解析法は,LR表と,スタック,先読み語を参照し,次の動作を決定する.LR表は,文法が与えられた時点であらかじめ計算できる構文解析過程を表したものである.LR表の作成(付録.A参照)には,構文解析中のある状態を表すデータ構造として,LR項(LRItem)を用いる.LR項とは,ある生成規則(CFG規則)の右辺の記号列中のある位置にドット`・'を付けたデータ構造である.ドットは,記号列のどの部分まで解析が進んだかを表す.下記のLR(0)項\footnote{説明では,LR(0)項を用いるが,提案法は,LR(1)項にも適用可能である.すなわち,SLR,LALR,CLRなどのLR表の種類に依らず適用可能である.}は,生成規則$A\rightarrow\alpha$において,$\alpha$の先頭部分列$\beta$まで解析が終了し,その後記号列$\gamma$を解析する必要がある状態を表す.\begin{quote}$[A\rightarrow\beta\cdot\gamma]$\end{quote}$\beta$や$\gamma$は空記号列の場合も含まれる.例えば,生成規則$A\rightarrowB_1B_2B_3$に対して,$[A\rightarrow\cdotB_1B_2B_3]$,$[A\rightarrowB_1\cdotB_2B_3]$,$[A\rightarrowB_1B_2\cdotB_3]$,$[A\rightarrowB_1B_2B_3\cdot]$の4つのLR項が考えられる.このように,従来のLR表で用いられるLR項は規則毎に作成され,LR項だけで解析中の規則とその解析位置,解析された記号列($\beta$)およびこれから解析すべき記号列($\gamma$)を特定することができる.一方,LR構文解析法では,解析途中の状態を表現するデータ構造として,解析済の(終端および非終端)記号を記憶する解析スタックが併用される(文脈自由言語を受理するプッシュダウン・オートマトンのスタックに相当する).上の例のLR項が表す状態では,解析スタックには,記号列$\beta$が,スタックトップから逆順に保持されているはずである.例えば,LR項$[A\rightarrowB_1B_2\cdotB_3]$が表す状態では,スタックは$[...B_1,i,B_2,j]$(ただし,$i,j$は状態番号,スタックトップは右)となる.したがって,すでに解析済の記号列は,LR項と解析スタックに重複して記載されており,冗長である.そこで,LR項から冗長な解析済記号列$\beta$の記号情報を捨象することが可能となる.ここで,捨象可能なのは,記号情報だけで,記号数の情報は保持する必要があることに注意されたい.解析スタックには,解析済の記号がその記号が属する規則に関係なくフラットに保持される.スタック$[...,B_1,i,B_2,j,B_3,k]$を見ただけでは,記号$B_3$が規則$A\rightarrowB_3$,$A\rightarrowB_2B_3$,$A\rightarrowB_1B_2B_3$のいずれに属する$B_3$なのか,区別することができない.そこで,LR項が表す解析状態で,スタックトップからいくつの記号がこの規則で解析中かという情報を保持しなければならない.以上のことから,従来のLR項のドットの左側の記号列を抽象化して,その記号の個数で置き換え,新しいLR項とする.すなわち,次のようなLR項を用いる.\begin{quote}$[A\rightarrow|\beta|\cdot\gamma]$\end{quote}ここで,$|\beta|$は,記号列$\beta$の記号数を表すものとする.このLR項を{\bf左方抽象化LR項}と呼ぶことにする.例えば,生成規則$A\rightarrowB_1B_2B_3$に対して,$[A\rightarrow0\cdotB_1B_2B_3]$,$[A\rightarrow1\cdotB_2B_3]$,$[A\rightarrow2\cdotB_3]$,$[A\rightarrow3\cdot]$の4つの左方抽象化LR項が考えられる.LR表は,生成規則集合が与えられた時点で,そこから求められる構文解析時のあらゆる解析途中の状態を抽出し,また各状態間の遷移関係を求めて,状態遷移図(プッシュダウンオートマトン)として表現したものである.ここで解析途中の状態は,LR項の集合(クロージャ)に対応し,規則適用の部分的解析結果(LR項に相当)の複数の可能性(集合)を表している.この時,解析状態の同一性は,クロージャの同一性で判断される.例えば,異なる解析パスから,同一のLR項集合が得られる場合,それらは同じ状態とみなすことができる.クロージャの要素として,従来のLR項の代わりに,不必要な情報が捨象された左方抽象化LR項を用いると,より多くの解析状態(クロージャ)が同一の状態と見なされる.したがって,結果として得られるLR表の状態数が減少し,表のサイズが縮小される.これが提案手法の原理である.\newpage\subsection{圧縮LR表作成アルゴリズム}LR表作成アルゴリズムは,従来のLR項の代わりに,上記の左方抽象化LR項を用いても,新たな処理を加えること無く若干の修正だけで適用できる.以下では,LR表作成手順の[クロージャ][GOTO手続き][LR項集合の集合][LR表の作成]の各手続き(付録.A参照),それぞれについて,修正手続きを示す.(この手法を,{\bf提案法1}と呼ぶ.また提案法1によって作成されたLR表を{\bf圧縮LR表}と呼ぶ.)[クロージャ],[GOTO手続き],[LR項集合の集合]では,LR項のドットの左側を参照する手続きが存在しないので,左方抽象化LR項を用いて,ほぼそのまま,「LR項集合の集合」を作成できる.唯一,ドットの左側の生成・修正の手続きに若干の変更を加える.具体的には,以下の2点を変更する.[クロージャ]作成手続きのステップ2を次のように変更する.\begin{enumerate}\setcounter{enumi}{1}\item$\mbox{closure}(I)$に左方抽象化LR項$[B\rightarrow|\beta|\cdotA\gamma]$があれば,左辺が$A$の全ての生成規則$A\rightarrow\alpha$について,LR項$[A\rightarrow0\cdot\alpha]$を加える.この手続きを新たなLR項が加えられなくなるまで繰り返す.\end{enumerate}また,[GOTO手続き]$\mbox{GOTO}(I,A)$を次のように変更する.\begin{itemize}\item$I$中の,ドットのすぐ右が$B$である全てのLR項$[A\rightarrow|\beta|\cdotB\gamma]$に対し,LR項$[A\rightarrow|\beta|+1\cdot\gamma]$を求め,そのクロージャを返す.\end{itemize}得られたLR項集合の集合から[LR表の作成]において,$\mbox{action}$表への$\mbox{shift}$や$\mbox{accept}$の書き込み,および$\mbox{goto}$表の作成にも変更点はない.一方,$\mbox{reduce}$動作の引数には,従来の生成規則の代わりに,生成記号の左辺記号と右辺記号列の記号数のペアを記述する.すなわち,[LR表の作成]のreduce動作の書き込みを次のように変更する.\begin{itemize}\item$I_i$にLR項$[A\rightarrow|\alpha|\cdot]$が存在するならば,$a\infollow(A)$について,$\mbox{action}(i,a)$に$\mbox{reduce}~~|\alpha|,A$を加える.\end{itemize}このように,修正手続きで作成されるLR表では,reduce動作の引数には生成規則のうち,左辺の記号列の記号情報を捨象した一部の情報しか記述されない.しかし,この情報$|\alpha|$と$A$さえあれば,どの生成規則が適用されたかは,構文解析時に特定可能である点に注意されたい.左辺記号$A$と,解析スタックから$|\alpha|$個の記号をポップすることで得られる記号列$\alpha$から,$A\rightarrow\alpha$と復元可能である.また,提案手法での修正箇所は,既存の表作成アルゴリズム中のある手続きを同等の手続きで置き換えただけであり,新たな手続きの呼び出しは行っていない.したがって,従来の表作成アルゴリズムと同じ計算オーダで作成可能である.\newpage\subsection{提案法の適用例}日本語において,動詞の格を表す句は,語順が自由であり,任意に省略可能であることが多い.次のような日本語を解析する文法(図\ref{fig:g_example})を考える.\begin{quote}太郎が花子にりんごを与える花子に太郎がりんごを与えるりんごを太郎が花子に与える太郎がりんごを与えるりんごを与える与える\end{quote}\begin{figure}\begin{quote}\begin{verbatim}S→PP_HUMAN_gaPP_HUMAN_niPP_OBJECT_woVPS→PP_HUMAN_gaPP_OBJECT_woPP_HUMAN_niVPS→PP_HUMAN_niPP_HUMAN_gaPP_OBJECT_woVPS→PP_HUMAN_niPP_OBJECT_woPP_HUMAN_gaVPS→PP_OBJECT_woPP_HUMAN_gaPP_HUMAN_niVPS→PP_OBJECT_woPP_HUMAN_niPP_HUMAN_gaVPS→PP_HUMAN_niPP_OBJECT_woVPS→PP_OBJECT_woPP_HUMAN_niVPS→PP_HUMAN_gaPP_OBJECT_woVPS→PP_OBJECT_woPP_HUMAN_gaVPS→PP_HUMAN_gaPP_HUMAN_niVPS→PP_HUMAN_niPP_HUMAN_gaVPS→PP_OBJECT_woVPS→PP_HUMAN_niVPS→PP_HUMAN_gaVPS→VPPP_HUMAN_ga→NP_HUMANがPP_HUMAN_ni→NP_HUMANにPP_OBJECT_wo→NP_OBJECTをNP_HUMAN→太郎NP_HUMAN→花子NP_OBJECT→りんごNP_OBJECT→本VP→与えるVP→渡す\end{verbatim}\end{quote}\caption{文法例}\label{fig:g_example}\end{figure}この文法から,従来の表作成アルゴリズムと,提案法による表作成アルゴリズムによってつくられたGOTOグラフの一部(記号`S'を左辺に持つ規則の集合に相当する部分)を,それぞれ図\ref{fig:goto},図\ref{fig:r_goto}に示す.従来法では,規則右辺に現れる記号列の文脈によって異なる状態が作成されるため,木の形に分岐したグラフが作成される.一方提案法では,記号列の文脈によらずに後方部分がマージされたグラフが作成され,状態数が32から12へ大幅に減少することが分かる.\begin{figure}\begin{center}\leavevmode\epsfile{file=goto2.eps,scale=1.0}\caption{従来法によるGOTOグラフ}\label{fig:goto}\end{center}\end{figure}\begin{figure}\begin{center}\leavevmode\epsfile{file=r_goto2.eps,scale=1.0}\caption{提案法によるGOTOグラフ}\label{fig:r_goto}\end{center}\end{figure}\subsection{提案法の効果と解析効率}\label{ss:quality}提案法の効果と効率について,その性質を考察する.\subsubsection{圧縮の効果}LR項においてドットより左方の記号列が記号数へと抽象化されることにより,従来異なるLR項として認識された以下のような2つのLR項が,同一のLR項として認識されることになる.\begin{quote}$[A\rightarrow\beta_1\cdot\gamma]$~~~,~~~$[A\rightarrow\beta_2\cdot\gamma]$where$|\beta_1|=|\beta_2|$\end{quote}これらから生成されるクロージャも同一のクロージャとなる.すなわち,「LR項集合の集合」作成時に,従来異なる状態(LR項集合)となっていたものが,1つの状態にマージされることになる.よって,最終的なLR表の状態数は減少する.ここで,マージされるLR項が存在するための,文法$G$の必要条件を考察する.上記の同一視される2つのLR項について,$\beta_1$と$\beta_2$以外は等しくなければならない.また,$|\beta_1|=|\beta_2|$,すなわち$|\beta_1\gamma|=|\beta_2\gamma|$である必要がある.以上をまとめると,文法$G$に,以下の条件を満たす規則のペア$A_1\rightarrow\alpha_1$,$A_2\rightarrow\alpha_2$が少なくとも一組以上存在する必要がある.\begin{itemize}\item左辺記号$A_1$,$A_2$が等しい.\item$\alpha_1$と$\alpha_2$の接尾記号列が一致する.すなわち,$\alpha_1=\beta_1\gamma_1$,$\alpha_2=\beta_2\gamma_2$と書けるとき,$\gamma_1=\gamma_2$となる$\gamma_1,\gamma_2$が存在する.\item$|\alpha_1|=|\alpha_2|$\end{itemize}このような規則のペアが,文法$G$中に多く存在するほど,提案法による状態数の削減の効果は大きい.\subsubsection{解析の効率}圧縮LR表を用いて構文解析を行った場合の効率について考える.提案法は,すでに解析済の情報(ドットの左側の記号情報)だけを捨象する.これから解析する部分(ドットの右側の記号情報)には手を加えない.提案法によって状態の統合が行われた場合,統合後の状態(クロージャ)は以前の状態と同数のLR項を持ち,それぞれのLR項のこれから解析する部分(ドットの右側の記号情報)も等しい.したがって,統合後もその後の解析の処理量は等しく,構文解析の効率は悪くならない.\newpage
\section{実装と実験}
\label{ss:experiment}\subsection{実装}提案法を実装するには,LR表作成プログラム,構文解析プログラムの修正が必要となる.しかし以下に示す通り,既存の処理系のわずかな個所の修正で実装可能である.\subsubsection{LR表}圧縮LR表では,従来のLR表と比べ,唯一reduce動作の引数の意味が変更になる.従来のLR表では,reduce動作の引数には生成規則を指定する.実際には,規則へのポインタ(規則番号)が記述される.一方,圧縮LR表では,生成規則から右辺の記号情報を捨象した情報,すなわち「左辺記号と右辺の記号数」(へのポインタ)である.あらかじめ存在する生成規則のリストとは異なり,「左辺記号と右辺の記号数」のリストは表作成のために新規に導入する概念である.厳密に実装するならば,LR表作成プログラムでこのリストを新規に作成し,構文解析プログラムとの間でこのリストを共有しなければならない.しかし,「左辺記号と右辺の記号数」は生成規則の一部であることを利用して,reduceの引数に「左辺記号と右辺の記号数」の条件を満たす任意の規則番号を記述し代用することで,リストの受け渡しを避けることが可能である.\subsubsection{LR表作成プログラム}提案法で用いる左方抽象化LR項は,次のような方法によって,既存のLR表作成プログラムに比較的容易に導入することが可能である.左方抽象化LR項は,文法に現れない記号$X$を$|\beta|$個ドットの左に書くことでも表現できる.例えば,$|\beta|=2$とすると,次のように書ける.\begin{quote}$[A\rightarrowXX\cdot\gamma]$\end{quote}このようなLR項表現は,従来のLR項と容易に交換可能である.GOTO手続きにおいて,LR項のドットを右へ一つ移動する時に,飛び越えた記号を$X$で置き換えるように変更するだけで,従来法に組み込むことができる.\subsubsection{構文解析プログラム}「左辺記号と右辺の記号数」リストの参照を除けば,圧縮LR表は,従来のLR構文解析アルゴリズムでそのまま利用可能である.また多くの実装系では,読み込んだ規則集合のうち,実際の解析に利用する「左辺記号と右辺の記号数」だけを保持するものが多いため,提案法の実装は極めて容易である.実際,MSLRパーザ\cite{mslr1998}では,LR表読み込み部分の若干の修正で動作可能となった.また,LR法を利用した音声認識システムniNja\cite{itou1992}では,全く修正の必要はなくそのまま動作可能であった.\subsection{実験}\label{sec:exp1}提案法の効果を調べるため,3種類の文法から従来法と提案法1でLR表を作成し,表のサイズを比較した.比較には,LR表(およびGOTOグラフの)状態数,表中の空欄でないセルの数を表すエントリ数,を用いた.文法「道案内1」「道案内2」は,道案内対話\cite{itou1999}に現れるユーザの発話をモデル化した文法で,音声認識用に設計された\cite{akiba2001}.語彙サイズはどちらも約380,規則数はそれぞれ616,1302である.「道案内2」は,「道案内1」に比べて,意味的に整合性のある文だけを受理するように,より強い制約を加えた文法である.文法「旅行会話」は,ATR研究用自然発話音声データベース\cite{morimoto1994}旅行会話タスクの発話を受理するように記述した文法である\cite{imai1999}.語彙サイズは2839,規則数3971と,文法1,2に比べて大規模な文法である.また,自然言語処理用途に開発されており,入力文に対して構文的に可能な数多くの構文木を割り当てる.提案法1でLR表を作成し,その性質を調べた.結果を表\ref{tbl:state}に示す.すべての文法について,LR表圧縮の効果が得られていることがわかる.LR表のサイズは,「道案内1」「道案内2」に関しては約60\,\%前後に,「旅行会話」に関しては約1/4まで圧縮することができた.文法の規則数が大きいほど圧縮率が大きくなる傾向が見られるが,これは規則数が増えることで,\ref{ss:quality}節で述べた性質を満たす規則対の候補が増えることに起因すると考えられる.また,作成したLR表を用いてテキスト解析の実験を行ったが,従来のLR表を使った場合と全く同じ結果が得られ,解析時間にも差は認められなかった.\begin{table}\caption{LR表圧縮の効果}\label{tbl:state}\begin{center}\begin{tabular}{|l|l|r|r|r|r|r|}\hline&文法&\multicolumn{2}{c|}{道案内1}&\multicolumn{2}{c|}{道案内2}&\multicolumn{1}{c|}{旅行会話}\\\cline{2-7}&LR表タイプ&\multicolumn{1}{c|}{SLR}&\multicolumn{1}{c|}{CLR}&\multicolumn{1}{c|}{SLR}&\multicolumn{1}{c|}{CLR}&\multicolumn{1}{c|}{SLR}\\\cline{2-7}&規則数&\multicolumn{2}{c|}{616}&\multicolumn{2}{c|}{1,302}&\multicolumn{1}{c|}{3,971}\\\hline従来法&状態数&703&876&2,079&3,530&4,017\\&エントリ数&13,689&15,164&21,092&29,698&10,054,708\\\hline&状態数&444&568&757&1,815&935\\提案法1&(圧縮率)&(63.2\,\%)&(64.8\,\%)&(36.4\,\%)&(51.4\,\%)&(23.3\,\%)\\(左方抽象化LR項)&エントリ数&8,031&9,155&12,282&18,669&2,250,317\\&(圧縮率)&(58.7\,\%)&(60.4\,\%)&(58.2\,\%)&(62.9\,\%)&(22.4\,\%)\\\hline&状態数&404&518&669&1,600&842\\提案法2&(圧縮率)&(57.5\,\%)&(59.1\,\%)&(32.1\,\%)&(45.3\,\%)&(21.0\,\%)\\(可変長LR項)&エントリ数&7,111&8,132&10,435&16,345&1,978,521\\&(圧縮率)&(51.9\,\%)&(53.6\,\%)&(49.5\,\%)&(55.0\,\%)&(19.7\,\%)\\\hline\end{tabular}\end{center}\end{table}
\section{更なる圧縮のための改良手法}
\label{ss:extension}\ref{ss:quality}節で述べたように,(1)規則左辺の記号が同じ,(2)右辺の接尾部分が共通,(3)右辺の記号数が同じ,の3条件を満たす規則の組が文法中に多く現れるほど,提案法の効果は大きい.このうち,(3)右辺記号数の条件は,改善の余地がある.本節では,この条件を克服するための拡張方法について述べる.\subsection{可変長LR項}ドットの左側に記号数が必要なのは,reduce動作時にスタックからポップする要素数を記録するためである.この要素数は,LR表にreduce動作の引数として,静的に記述される.しかし,このポップ要素数は解析時に動的に求めることもできる.そこで,図\ref{fig:stack}のように,この情報をスタックに保持することを考える.すなわち,reduce動作の際,スタックに保持された区切り位置までポップするような構文解析アルゴリズムを考える.\begin{figure}\begin{center}\leavevmode\epsfile{file=stack2.eps,scale=1.0}\caption{区切り付きスタック}\label{fig:stack}\end{center}\end{figure}このような区切りをスタックに入れるようなLR表はどのように生成すればよいだろうか.区切りは,規則右辺の最初の記号をスタックに積む時に挿入すればよい.すなわち,LR項\begin{quote}$[A\rightarrow\cdotB\alpha]$\end{quote}からGOTO手続きによって,LR項\begin{quote}$[A\rightarrowB\cdot\alpha]$\end{quote}を生成する際に,スタックに挿入すればよい.ドットが最左にある場合の,次の状態への遷移(すなわち,shift動作やgoto)の場合に,スタックに区切りを挿入する.注意すべきなのは,ある状態(クロージャ)に,ドットのすぐ右の記号が同じで,ドットが最左のものと規則途中にあるものの,2つ以上のLR項が含まれている場合があることである.すなわち,次のような2つのLR項が,同じクロージャ$I$に含まれている可能性がある.\begin{quote}$[A\rightarrow\cdotB\alpha]$~~~,~~~$[A\rightarrow\beta\cdotB\gamma]$\end{quote}この場合,前者(ドットが最左のもの)と後者(ドットが途中のもの)からの,記号$B$による遷移($\mbox{GOTO}(I,B)$)を別に扱うことを考える.例えば,前者を記号$B_{\mbox{start}}$による遷移,後者を記号$B_{\mbox{cont}}$による遷移とし,$\mbox{GOTO}(I,B_{\mbox{start}})$と$\mbox{GOTO}(I,B_{\mbox{cont}})$を別々に計算する.このように変更したGOTOグラフでは,もはやLR項にドット左の記号数は必要ない.ただし,ドットが最左であるか,途中であるかの区別は必要となる.ドットが途中にある場合のLR項を,次のようなドット左方可変長のLR項で表すことにする.\begin{quote}$[A\rightarrow*\cdot\gamma]$\end{quote}記号$*$は,長さ1以上の記号列があることを表す.このようなLR項を用いることで,ドット左方の記号列に関する情報がさらに抽象化され,GOTOグラフ作成時の状態数がさらに減少することが期待できる\footnote{ただし,GOTO手続きの記号を場合別けしたことによって,状態数が増加するため,全体としてかならずしも状態数減少になるとは限らない.}.LR表生成アルゴリズムに必要な変更点は,以下の通りである.(この変更を行った手法を{\bf提案法2}とする.){\flushleft\bf[GOTO手続き]}\begin{itemize}\item$I$中の,ドットのすぐ右が$B$であるLR項$[A\rightarrow\cdotB\gamma]$すべてに対し,LR項$[A\rightarrow*\cdot\gamma]$を求め,そのクロージャを$\mbox{GOTO}(I,B_{\mbox{start}})$の返り値とする.また,LR項$[A\rightarrow*\cdotB\gamma]$に対し,LR項$[A\rightarrow*\cdot\gamma]$を求め,そのクロージャを$\mbox{GOTO}(I,B_{\mbox{cont}})$の返り値とする.\end{itemize}{\flushleft\bf[LR項集合の集合]}\begin{enumerate}\setcounter{enumi}{1}\item$C$の各LR項集合$I$,$G'$のある記号$A$,$s\in\{\mbox{start},\mbox{cont}\}$について,$\mbox{GOTO}(I,A_s)$を計算し,LR項集合$I'$を求め,$C$に加える.この手続きを,$C$に新たなLR項集合が加えられなくなるまで繰り返す.\end{enumerate}{\flushleft\bf[LR表の作成]}\begin{itemize}\item終端記号$a$と,$s\in\{\mbox{start},\mbox{cont}\}$について,$\mbox{GOTO}(I_i,a_s)=I_j$ならば,$\mbox{action}(i,a)$に$\mbox{shift}~s,j$を加える.\item非終端記号$A$,$s\in\{\mbox{start},\mbox{cont}\}$について,$\mbox{GOTO}(I_i,A_s)=I_j$ならば,$\mbox{goto}(i,A)$に$s,j$を加える.\end{itemize}構文解析アルゴリズムに必要な変更は,以下の3点である.\begin{itemize}\itemshift動作とgoto時に,LR表の記述に従い,スタックに区切り記号を挿入する.\itemshift動作とgoto時に,shift/shiftコンフリクト,goto/gotoコンフリクトを扱えるようにする.実装は,GLR法によるshift/reduceコンフリクト,shift/reduceコンフリクトの扱いと同様に,スタックを分岐させればよい.\itemreduce動作の際,従来の固定数ポップ動作の代わりに,スタックの最初の区切り記号までポップする.\end{itemize}\subsection{実験}\ref{sec:exp1}節で用いた3種類の文法から,提案法2を用いてLR表を作成した.実験結果を表\ref{tbl:state}に示す.LR表のサイズをさらに10\,\%程度縮小できることを確認した.また,音声認識システムniNja\cite{itou1992}に提案法2の解析アルゴリズムを実装し,従来法と同じ解析結果が得られることを確認した.
\section{関連研究}
\label{ss:related}\subsection{共通記号列のまとめ処理}生成規則($A\rightarrow\alpha$)に対し右辺記号列($\alpha$)中のある位置にドット`・'を付けたデータ構造($A\rightarrow\beta\cdot\gamma$,ただし$\alpha=\beta\gamma$)は,項(Item)と呼ばれ,構文解析中に規則のどこまで解析が進んだかを表すために,本稿で述べたLR項の他,Earley法\cite{earley1970}やチャート法\cite{key1980}など,種々の構文解析アルゴリズムで共通に利用されている.本稿で示した手法は,LR法においてItem以降の解析がドットの左側(右辺記号列のprefix,$\beta$)には依存しないことを利用し,ドットの右側の記号列(右辺記号列のsuffix,$\gamma$)が共通なものをまとめあげることによって,LR表の圧縮を実現したと考えることができる.同様に,Itemのドット左右の記号列について複数の規則の間で共通する記号列をまとめて処理することによる,解析の効率化手法が知られている.本稿の提案法のように,ドットの右側の記号列($\gamma$)が共通なItemをまとめて扱う手法が提案されている.文献\cite{leermakers1992}では,Earley法においてItem以降の解析がドットの右側の記号列($\gamma$)のみに依存し,ドットの左側($\beta$)や生成規則左辺の記号($A$)には依存しないことを利用して,これらを重複処理しないことによる効率化手法が示されている.文献\cite{moore2000}では,同様の手法をチャート法に適用している.逆に,ドットの左側の記号列($\beta$)が共通なItemをまとめて処理する手法としては,LR法が挙げられる.LR法では,共通なprefixを持つ複数のItemをまとめて解析の一状態とするようにLR表を作成することで,解析の効率化を実現している.文献\cite{nederhof1994}では,この考え方を進めて,共通のprefixをもつ規則をすべてまとめて処理する手法が示されている.また,共通したprefixを持つ2つ以上の規則を持たないように文法を変形することによって効率化を行なう手法も提案されている\cite{moore2000}.\subsection{可変な規則長の扱い}本稿の提案法2では,ドット左側の記号数情報を捨象した可変長LR項の導入のため,reduce動作時にスタックからポップする記号数を動的に求める必要があった.そのために,GOTO手続きを規則の解析開始か途中かによって別々に計算する手法を示した.同様の考え方は,規則の右辺に記号の正規表現を許した拡張CFG(正規右辺文法)を扱うLR構文解析法として提案されている\cite{nederhof1994,purdom1981}.正規右辺文法では,規則の右辺に合致する記号数を予め知ることができないので,解析時に動的に求める必要があるためである.
\section{結論}
解析に使用するLR表の大きさが問題であったLR構文解析法について,表作成に用いられる基本データ構造(LR項)の見直しを行うことにより,LR表の状態数を減少させ,サイズを圧縮する手法について述べた.提案法を実際の文法に適用したところ,規則数500〜1500程度の文法に対しては元のサイズの60\,\%程度,規則数4000の文法に対しては25\,\%程度に圧縮できることを確認した.提案法は,従来のLR表作成アルゴリズム,解析アルゴリズムに大きく手を加えることなく実装可能であるとともに,解析効率に影響を与えることもない.また,提案法を拡張し圧縮率を改善する手法を検討した.アルゴリズムへの変更個所は増加するが,実験結果ではさらに10\,\%程度サイズを圧縮できることを確認した.本研究により,これまで解析表のサイズの問題でLR法の適用が困難であった分野,例えば大規模な文法を用いた自然言語処理や音声認識,また計算資源(記憶容量)に制限がある環境(例えば,モバイル用途)での使用などにおいて,効率の良いLR法を適用する機会が増えると考えられる.\acknowledgment本稿の実験には,東工大田中・徳永研究室で開発されたMSLRパーザ\cite{mslr1998}および文法を使用した.また,本手法に関して御討論いただいた田中・徳永研究室の皆様に感謝する.\bibliographystyle{jnlpbbl}\bibliography{427}\appendix
\section{LR表作成手順}
LR表は,文法が与えられた時点であらかじめ計算できる構文解析過程を表したものである.LR構文解析法におけるパーザは,このLR表と,スタック,先読み語,を参照し,次の動作を決定する.LR表には,SLR(SimpleLR),LALR(Look-AheadLR),CLR(CanonicalLR),などの幾つかのバリエーションがあり,これらは決定性解析で扱える言語の範囲に違いがある.以下,説明のためLR表の作成法を簡単に述べる.詳細は文献\cite{aho1986,tanaka1989}等を参照されたい.LR項は,LR表作成に使用するデータ構造であり,構文解析中のある状態を表すものである.SLR表作成にはLR(0)項を,CLR表作成にはLR(1)項を用いる\footnote{LALR表作成には,LR(0)項,LR(1)項それぞれから作成する手法が知られている.}.LR(0)項とは,ある生成規則の右辺の任意の位置にドットを付けたデータ構造である.ドットは,規則中のどの部分まで解析が進んだかを表す.下記のLR(0)項は,生成規則$A\rightarrow\alpha$において,$\alpha$が$\beta\gamma$と書けるとき,$\beta$まで解析が終わった状態を表している.\begin{quote}$[A\rightarrow\beta\cdot\gamma]$\end{quote}LR(1)項とは,ドット付き生成規則と,1つの先読み語(終端記号)からなるデータ構造である.下記のLR(1)項は,同様に$\beta$まで解析が終わった状態を表し,さらに1つの先読み語$a$を持つ.$a$は,直感的には,この生成規則適用の直後に現れる先読み語を表す.\begin{quote}$[A\rightarrow\beta\cdot\gamma,a]$\end{quote}以降の説明では,LR(0)項を用いてSLR表を作成する場合について考えるが,LR(1)項からCLR表を作成する場合も,先読み語の計算が付け加わるだけで,ほぼ同様に求めることができる.{\flushleft\bf[クロージャ]}クロージャ(closure)とは,LR項の集合であり,あるLR項集合$I$が与えられると,以下の手続きでクロージャ$\mbox{closure}(I)$を求めることができる.\begin{enumerate}\item$I$の全要素を$\mbox{closure}(I)$に加える.\item$\mbox{closure}(I)$にLR項$[B\rightarrow\beta\cdotA\gamma]$があれば,左辺が$A$の全ての生成規則$A\rightarrow\alpha$について,LR項$[A\rightarrow\cdot\alpha]$を加える.この手続きを新たなLR項が加えられなくなるまで繰り返す.\end{enumerate}クロージャとは,直感的には,あるLR項の表す解析状態と同時に現れ得る全てのLR項を,あらかじめトップダウンに展開して求めたものである.{\flushleft\bf[GOTO手続き]}GOTO手続き$\mbox{GOTO}(I,B)$は,アイテム集合$I$と記号$B$から,新しいアイテム集合を次のように求める.\begin{itemize}\item$I$中の,ドットのすぐ右が$B$である全てのLR項$[A\rightarrow\beta\cdotB\gamma]$に対し,ドットを一つ右に移動したLR項$[A\rightarrow\betaB\cdot\gamma]$を求め,そのクロージャを返す.\end{itemize}直感的には,構文解析のある状態$I$で,$B$が得られたときの,次の状態を求めている.{\flushleft\bf[LR項集合の集合]}上記クロージャ,GOTO手続きを用いて,ある拡大文法\footnote{開始記号を$S$とする文法$G$に対して,新しい開始記号$SS$と生成規則$SS\rightarrowS$を追加して得られる文法を,$G$の拡大文法という.}$G'$から,LR項集合の集合$C$を次の手順で求める.\begin{enumerate}\item初期のLR項集合を$\mbox{closure}({[SS\rightarrow\cdotS]})$とし,$C$に加える.\item$C$の各LR項集合$I$,$G'$のある記号$A$に対して,$\mbox{GOTO}(I,A)$を計算し,LR項集合$I'$を求め,$C$に加える.この手続きを,$C$に新たなLR項集合が加えられなくなるまで繰り返す.\end{enumerate}{\flushleft\bf[LR表の作成]}「LR項集合の集合」$C$の各状態(すなわちLR項集合)は,LR表の1状態に対応する.LR表は,状態$i$と終端記号$a$からパーザの動作を決める表$\mbox{action}(i,a)$と,$i$と非終端記号$A$から状態$j$を決める表$goto(i,A)$から成る.$C$の各LR項集合$I_i$について,次の手順でLR表を作成することができる.\begin{itemize}\item$I_i$にLR項$[A\rightarrow\alpha\cdot]$が存在するならば,終端記号$a\in\mbox{follow}(A)$について,$\mbox{action}(i,a)$に$\mbox{reduce}A\rightarrow\alpha$を加える.$\mbox{follow}(A)$は,ある記号の次に現れ得る終端記号を計算する手続き.\item$I_i$にLR項$[SS\rightarrowS\cdot]$が存在するならば,$\mbox{action}(i,\$)$に$\mbox{accept}$を加える.\item終端記号$a$について,$\mbox{GOTO}(I_i,a)=I_j$ならば,$\mbox{action}(i,a)$に$\mbox{shift}j$を加える.\item非終端記号$A$について,$\mbox{GOTO}(I_i,A)=I_j$ならば,$\mbox{goto}(i,A)$に$j$を加える.\end{itemize}\subsection*{LR構文解析法}LR構文解析法は,解析スタックのトップに積まれているLR表状態,次の入力語(先読み語)から,action表を参照して,次のように解析を進める.\begin{itemize}\item$\mbox{shift}i$:先読み語と状態$i$をスタックにプッシュする.先読み語を一つ読み進める.\item$\mbox{reduce}A\rightarrow\alpha$:スタックから$2|\alpha|$個ポップし,その時のスタックトップの状態$j$を用い,スタックに非終端記号$A$と$\mbox{goto}(j,A)$をプッシュする.\item$\mbox{accept}$:入力を受理\end{itemize}
\section{MSLR法への適用}
MSLR法\cite{tanaka1995}は,文脈自由文法から生成したLR表に,形態素の接続可能性を表した接続表の制約を組み込む手法である.終端記号$a$と$b$の接続可能性を使って,LR表から次のような動作を削除することで,接続表を組み込むことができる.\begin{quote}動作Actの直前に実行する動作がshiftで,そのshiftの先読み語が$a$,Actの先読み語が$b$であるとき,$a$と$b$が接続不可ならActを削除する.\end{quote}この手法を可能にするためには,shift直後の状態が,その先読み語($a$)毎に分節されていなければならない.しかし,提案法のLR表では,shift直後の状態では,直前の先読み語($a$)の情報は抽象化されてしまい,その結果,先読み語($a$)毎に分節された状態にはならないため,MSLR法をそのまま導入することはできない.この問題を解決するためには,提案手法においてドットのすぐ左の終端記号を抽象化しないようにすればよい.すなわち,次のようなLR項を導入する.\begin{quote}$[A\rightarrow|\beta|a\cdot\gamma]$($a$が終端記号の場合)$[A\rightarrow|\betaA|\cdot\gamma]$($A$が非終端記号の場合)\end{quote}このようなLR項からLR表を作成すると,終端記号の直後のshift動作で遷移する状態については,終端記号毎に分節された状態となり,MSLR法の適用が可能となる.\begin{biography}\biotitle{略歴}\bioauthor{秋葉友良}{1990年東京工業大学理学部情報科学科卒業.1995年同大学院総合理工研究科システム科学専攻博士課程了.同年,電子技術総合研究所入所.2001年,産業技術総合研究所.現在,情報処理研究部門主任研究員.博士(工学).自然言語処理,音声認識,音声対話の研究に従事.}\bioauthor{伊藤克亘}{博士(工学).1993年,電子技術総合研究所入所.2003年,名古屋大学大学院情報科学研究科助教授.現在に至る.音声を主とした自然言語全般に興味を持つ.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V02N03-03
|
\section{はじめに}
著者らは放送分野を対象とした英日機械翻訳システムを開発している\cite{Aiz90,Tan93,TanAndHat94}.この中で最もコストがかかり手間を要するのが辞書の作成である.著者らの経験によれば,この中で最も困難なのが動詞の表層格フレーム(以下,格フレームと省略する)の記述である.これは英語の動詞の日本語訳語を選択するために利用される情報で,動詞の取りうる文型とその時の訳語を記述したものである.従来,これらは冊子辞書や用例を参照しながら人手で収集・記述していた.しかし,\begin{enumerate}\item記述する表層格要素(以下,格要素と省略する)や,その制約を一貫して用いることが難しいこと\item格フレームの一部を変更した場合に,訳語選択に与える影響が把握しにくいこと等の問題があり,この収集・記述作業の効率は非常に悪かった.\end{enumerate}このため本論文ではこれらの問題の解決を目指し,格フレームの新たな表現手法,および獲得手法を提案する.これは著者らの英日機械翻訳システムのみならず,動詞訳語選択に格フレームを利用するその他の機械翻訳システムの構築にも応用できるものである.本論文では上記の2問題を解決するために次の2点を提案する.\begin{enumerate}\item動詞の翻訳のための格フレームを決定木の形で表現する.以下,本論文ではこの決定木を格フレーム木と呼ぶ.\item英日の対訳コーパスから,統計的な帰納学習アルゴリズムを用いて格フレーム木を自動的に学習する\cite{TanAndEha93,Tan94a,Tan94b}.\end{enumerate}また,この提案に基づいて実際に対訳コーパスから格フレーム木を獲得する実験を2種類行う.本論文で学習の対象としたのは訳語の数の多い英語の7つの動詞(``come'',``get'',``give'',``go'',``make'',``run'',``take'')である.最初の獲得実験では格要素の制約として語形を利用した.この結果,人間の直観に近く,かつ人手で獲得する場合より精密な訳し分けの情報が獲得されたことを示す.また2番目の実験では,格フレーム木の一般性を確保することを目的とし,意味コードを格要素の制約として用いた.この結果,未学習のデータを入力して動詞の訳語を決定する実験で2.4\%から32.2\%の誤訳率が達成された.これらの結果と,単純に最高頻度の訳語を出力した場合の誤訳率との差は13.6\%から55.3\%となりかなりの改善が得られた.実験に先だって著者らは英日の対訳コーパスを作成した.著者らの目的とする格フレーム木は,放送ニュース文を対象とすることを想定している.このため,学習には放送分野のコーパスを利用するのが望ましい.しかし,現在このような英日対訳コーパスは入手可能でないため,AP(AssociatedPress)のニュース英文を利用して作成した.本論文ではこの対訳コーパスの設計,作成過程および特徴についても触れる.著者らの研究は,コーパスから自然言語処理システムのルールを獲得する研究である.大規模コーパスが入手可能になるにつれ,この種の研究は盛んになりつつある.また,その獲得の目的とするルールもさまざまである.これらの中で本論文に近い研究としては,\cite{UtuAndMat93}および,\cite{Alm94}の研究が挙げられる.\cite{UtuAndMat93}では,自然言語処理一般に利用することを目的とした日本語動詞の格フレームの獲得を試みている.ここで提案されている手法は,タグ付けされていない対訳テキストから格フレームが獲得できる点で著者らの手法より優れている.しかし,ここで利用されている学習アルゴリズムは,格フレームの利用の仕方を考慮したものではない.このため,著者らの目的である動詞の訳語選択にどの程度有効であるかは不明である.これに対して,著者らのアルゴリズムはエントロピーを基準にして,動詞の訳語選択の性能を最大にするように格フレーム木の獲得を行う.この結果,訳語選択に適した情報が獲得され,しかもその性能が統計的に把握できる利点を持っている.\cite{Alm94}では著者らと逆に日英機械翻訳システムで利用するための日本語動詞の翻訳ルールを学習する手法を提案している.用いられている学習手法は基本的には本論文と同じものである.ただし,この論文では動詞の翻訳のための規則を決定木で表現することの利点について触れていないが,これには大きな利点があることを著者らは主張する.また,この論文では学習に利用した対訳事例をどのような所に求めたかは明らかにされていない.しかし,これは獲得される格フレーム木に大きな影響を与えるため著者らはこれを詳細に論ずる.さらに,この論文では人手で作成したルールとの一致で評価を行っているが,訳語選択の性能については触れられていない.これに対して著者らは動詞の誤訳率で評価を行う.本論文の構成は以下の通りである.2章では,人手で行っていた従来の格フレームの獲得,記述の問題点を整理する.3章ではこの解決のため,先に述べた提案を行うとともに,格フレーム木を英日対訳コーパスから学習する手法を説明する.4章では,本論文で利用する英日対訳コーパスの作成について述べる.5章では,このコーパスの語形を直接的に利用した格フレーム木の獲得実験を行う.6章では,対訳コーパスを意味コードで一般化したデータを作成して格フレーム木の獲得実験を行う.7章では本論文のまとめを行い,今後の課題について述べる.\begin{figure}\begin{center}\begin{tabular}{|ll|}\hlineSN[man]takeON[boy]&選ぶ\\SN[I]takeON[him]PN[to]PNc[BUILD]&連れていく\\SN[HUMAN]takeON[CON]PN[to]PNc[BUILD]&持っていく\\\hline\multicolumn{2}{r}{記号:格要素{[制約]}}\\\end{tabular}\caption{``take''の格フレームの例}\end{center}\end{figure}
\section{人手による格フレーム獲得の問題点}
著者らの英日機械翻訳システムで現在利用している格フレームの例(説明用)を図~1に示す.これは,英語の動詞が持つ複数の日本語訳語から適切な訳語を選択するために利用される.これらの格フレームは,それぞれの訳語ごとに記述されている.著者らの格フレームに記述してある要素は次の4つである.\begin{itemize}\item動詞が必須格として取りうる格要素\item格要素の制約(語形や意味分類のマーカー)\item動詞の日本語訳語\itemウエイト(図~1では省略)\end{itemize}ウエイトとは,それぞれの格フレームに与えられた数値であり「使われにくさ」の指標として使われる.この値が大きいほどその格フレームは利用されにくくなる.格フレームは構文解析が終了してから利用される.すなわち入力英文の構文構造と動詞が認定されてから利用される.この動詞の訳語を決定するには,まず動詞の持つ格フレームすべて(辞書中に登録されているもの)と構文構造の比較が行われ,それらの間の類似度が計算される.そして最も類似度の高い格フレームの訳語が出力される.類似度は,構文構造と格フレームの間での格要素と制約の一致度合,および格フレームのウエイトを総合して計算される.従来,格フレームは人手で記述されていたが,困難かつコストのかかる作業となっていた.これは以下のような理由による.\begin{enumerate}\item[{\bf問題1)}]{\bf利用する情報の一貫性の確保}\\格要素として何を記述すべきか.必須格の定義は何か.格要素の制約は何を使用するか.これらは記述する時に必ず決めなければならないパラメータである.これらは何らかの規範として事前に決められ,作業者はそれに添って記述を行う.このとき,規範で決められた制約と格要素は一貫して利用しなくてはならない.なぜなら,動詞の訳語を選択する時に行われる計算は,すべての格フレームが平等であることを前提としているからである.しかし,人手で一貫した方針を貫くのは困難であり不平等な記述になりがちである.\item[{\bf問題2)}]{\bf格フレームの不透明性}\\格フレームは一旦記述し終わった後で部分的に変更されることがしばしばある.例えば,ある格フレームの格要素を削除,追加したり,格要素の制約を変更することなどである.しかし,この結果が動詞の訳語選択にどういう影響を与えるかを把握するのは難しい.これには構文構造との比較時に発生する他の格フレームとの競合の状態の変化,すなわち類似度計算への影響を把握しなくてはならないからである.このような格フレームの変更結果の不透明性は,記述,保守管理の重大な障害となっている.\item[{\bf問題3)}]{\bfウエイト決定の恣意性}\\ある格フレームのウエイト,すなわち「使われにくさ」を人間の内省で決めるのは非常に難しい.しかもウエイトは格要素と制約の一致度合と共に類似度計算に用いられるため,両者の評価の比重をどう設定するかなど問題は多い.実際には辞書の頻度情報などを参考に記述することが多いが,客観的なウエイトを与えることは難しい.\end{enumerate}以上の3点の問題の内,問題3は著者らのシステムに固有の問題であるが,問題1,2は格フレームを利用して動詞の訳語を決定する場合の共通する問題であると考える.
\section{対訳コーパスからの格フレーム木の学習}
著者らは,2章で述べた問題の解決のため以下の2点を提案する.\begin{itemize}\item格フレームを決定木の形で表現する(格フレーム木)\item英日の対訳コーパスから,統計的な帰納学習アルゴリズムを用いて格フレーム木を自動的に学習する\end{itemize}また,本章ではこれらを実現する手法を具体的に述べる.\subsection{格フレーム木}\begin{figure}\begin{center}\unitlength=1mm\begin{picture}(60,35)\put(0,0){\framebox(60,35){}}\put(10,5){\makebox(0,0){連れていく}}\put(30,5){\makebox(0,0){選ぶ}}\put(45,10){\makebox(0,0){持っていく}}\put(10,10){\makebox(0,0){$\bullet$}}\put(30,10){\makebox(0,0){$\bullet$}}\put(45,15){\makebox(0,0){$\bullet$}}\put(20,20){\makebox(0,0){$\bullet$}}\put(30,30){\makebox(0,0){$\bullet$}}\put(30,30){\makebox(0,0)[b]{\raisebox{1ex}{ON}}}\put(20,20){\makebox(0,0)[rb]{PN}}\put(25,25){\makebox(0,0)[rb]{him}}\put(15,15){\makebox(0,0)[rb]{to}}\put(35,25){\makebox(0,0)[lb]{box}}\put(25,15){\makebox(0,0)[lb]{$\phi$}}\thicklines\put(10,10){\line(1,1){20}}\put(20,20){\line(1,-1){10}}\put(30,30){\line(1,-1){15}}\end{picture}\end{center}\caption{``take''の格フレーム木}\end{figure}格フレーム木は図~2に示すような構造をしている.各ノードには格要素,アークにはその制約,リーフには動詞の訳語が付与されている.一方,従来の形式の格フレーム(図~1)を便宜的に線形格フレームと呼ぶ.格フレーム木は決定木であるため,動詞の訳語選択を行うには,ルートからリーフに向かって構文構造と比較するだけでよい.このため線形格フレームよりも効率良く動詞の訳語選択を行うことができる.しかし,この構造を採用する最大の利点は,2章で述べた問題2の「格フレームの不透明さ」を軽減できる点にある.これは,決定木にすることによって,変更の影響が変更場所の下の訳語に限られるためである.例えば,図~2の格要素PN(前置詞)を削除した場合には,下位の訳語「連れていく」と「選ぶ」の選択が行われなくなることが容易にわかる.\subsection{統計的な帰納学習}2章で述べた問題1「利用する情報の一貫性の確保」は,統計的な帰納学習プログラムを利用することで解決される.このようなプログラムとしてはCART~\cite{Brei84},ID3~\cite{Qui86},C4.5~\cite{Qui93}など,いろいろなものが既に提案されている.これらは共通して(属性,属性値,クラス)の形式の表から決定木を学習する.著者らの目的とする格フレーム木を学習するには属性として格要素,属性値として格要素の制約,クラスとして動詞の訳語を与える(表~1).本稿ではこの表を原始格フレーム表と呼ぶ.またこの表の各行を事例と呼ぶ.\begin{table}\begin{center}\caption{原始格フレ−ム表}\begin{tabular}{ccccc|c}\hline\hlineSN&V&ON&PN&PNc&動詞の訳語\\\hlineI&take&him&to&theater&連れていく\\you&take&him&to&school&連れていく\\you&take&him&to&park&連れていく\\you&take&box&to&theater&持っていく\\you&take&box&to&park&持っていく\\I&take&box&to&school&持っていく\\I&take&him&$\phi$&$\phi$&選ぶ\\you&take&him&$\phi$&$\phi$&選ぶ\\\hline\end{tabular}\end{center}\end{table}著者らの利用するプログラム(C4.5)では,原始格フレーム表の格要素が,動詞の訳語の分類にどれだけ有効かを統計的に計算する\footnote{ID3,C4.5は基本的に同じアルゴリズムである.後者は前者の機能拡張版であるが,木の学習部分についてはほぼ同等である.CARTは2分木を学習するため著者らの目的に直接は利用できない.しかし木を作成していく過程はID3,C4.5と同じような統計的基準を採用している.}.すなわち,ある格要素の制約に従って訳語を分類した場合に,どれだけ「きれいに」訳語が分類されるかをエントロピーを用いて計算し,これによって有効性を判定する.そして,有効性の高い格要素から順番に上位ノードから下位ノードに配置して決定木を生成する(アルゴリズムの概要は付録Aに示す.).表~1にプログラムを適用すると,図~2で示した格フレーム木が学習される.このアルゴリズムでは,格要素およびその制約は,訳語の分類に対する有効性という観点で一貫して評価されることになり,2章の問題1「利用する情報の一貫性の確保」は解決される.この手法で獲得された格フレーム木には,線形格フレームの個々のウエイトに相当する指標は陽には現われない.しかし,個々の格要素の有効性の高い順に格フレーム木が構成されるのでウエイトによる評価は必要なくなる.そのため2章の問題3「ウエイト決定の恣意性」の問題も解決されると言える.また,この手法を用いると格要素が必須格か自由格かという判定は,訳し分けの観点からプログラムで自動的に決定されることになる.例えば,図~2には主格がなく不自然な印象を受ける.しかし,これは訳し分けのための有効性を主格が持たなかった結果である.従来,自動学習は手間の軽減を目的として利用されることが多かった.しかし,有用な情報を目的に合わせて適切に配列する能力も大きな特徴である.本提案はこの特徴を生かしており,動詞の訳し分けを行うのに必要な情報を単に自動的に獲得するだけでなく,それらを,動詞の訳語を最適に選択できる決定木の形で構成する\footnote{各ノードでの訳語選択を最適に行うように格フレーム木を構成する意味であり,全体としての訳語選択の性能の最適性を保証するものではない.}.またこの決定木の表現は実用上の利便性が高いものである.\subsection{格フレーム木の段階的な獲得}統計的な帰納学習アルゴリズムを利用する上で重要なのは入力,すなわち,原始格フレーム表である.この表は,訳し分けの対象とするドメインの事例の頻度分布を反映して作成しなければならない.なぜなら格フレーム木は,原始格フレーム表の事例の頻度を元に作成されるため,対象ドメインと原始格フレーム表で事例の分布が違った場合には,対象ドメインの動詞を有効に訳し分ける条件が学習されないからである.さらに,原始格フレーム表に記述する格要素と制約を決める必要があるが,これには試行錯誤を要する.以上のことより,対象ドメインの英日対訳コーパスを柔軟に変換して原始格フレーム表を作成する手法が有効と考えられる.しかし,著者らの対象ドメインである放送ニュース分野の英日対訳コーパスの入手は難しい.このため,著者らは英日の対訳コーパスを作成し,これを変換して原始格フレーム表を作成する方針を採用した.この結果,格フレーム木獲得の筋道は図~3に示すものとなった.\begin{figure}\begin{center}\epsfile{file=fig3.eps,width=94.0mm}\end{center}\caption{格フレーム木の段階的獲得}\end{figure}従来,線形格フレームは直接的に人手で記述していた.しかし,提案手法では,対訳コーパスから人手を介しながら段階的に格フレーム木を獲得することになる.この手法で人間が介入する部分は,対訳コーパスの作成,および原始格フレーム表へ変換する部分だけである.対訳コーパス作成の部分では,英文への統語ラベルの付与,日本語への翻訳等を行う.また,原始格フレーム表への変換では,単に利用する格要素や制約を決定するだけである.このような人手の作業は,線形格フレームをいきなり記述するより安定に行うことができる.そのため,格フレーム木に入る人間の恣意性を最小限に押さえることができると期待できる.
\section{英日対訳コーパス}
\subsection{コーパスのソース}先に述べたように,本手法では原始格フレーム表の事例の頻度分布が重要となる.このため英和辞典の例文などを利用することには問題がある.なぜなら高頻度で出現する訳語もそうでない訳語も例文の数にあまり差がないからである.そこで著者らの場合は,AP(AssociatedPress)電ニュースをコーパスのソースとして採用することにした.そしてこの英文から以下に示す条件を満たすものを抽出して,日本語訳を付与することで対訳コーパスを作成した.\subsection{対象動詞}訳語の数が多く機械翻訳を行う場合に問題となる以下の動詞を対象とした.\begin{quote}``come'',``get'',``give'',``go'',``make'',``run'',``take''\end{quote}\subsection{データ量}上記の動詞を訳し分けるために必要な対訳コーパスの量を直接見積るのは困難である.そこで,これらの動詞が出現する頻度調査を6ヶ月分のAP電について行った.この結果,各月での動詞の出現頻度はほとんど一定していることが明らかになった.もちろんこれは訳語の頻度が一定であることを保証するものではないが,一月単位が最低必要な量であろうと考えた.そこで1990年1月,1991年1月の2ヶ月を英文抽出の母集団とした.\subsection{作成手順}作成は以下の手順で行った.図~4に作成したコーパスの一部を示す.\begin{enumerate}\item{\bf英文の抽出}\\2ヶ月分のAP電から上記の7動詞を含む文を自動的に抽出した.このとき文の長さは15語以下とした.これは,文の長さをあまり長くすると解析が大変になること,類似の文型の個数が減るため有効な原始格フレーム表が作成できないことによる.\item{\bf動詞の支配範囲の認定}\\対象動詞が直接支配している範囲を人手で認定した.図~4のENG行がこれを示す.\item{\bf英語の格要素の認定}\\英語の文章を人手で解析して必要な情報を付与した.精度の高い構文解析器が利用できればこの作業はかなり自動化ができる.しかし,現状ではかなりの人手の介入が必要であるため,著者らは人手による解析を行うことにした.また,人手による精密な構文解析は手間が大きいので,原始格フレーム表を作成するのに最低限必要な解析を行うことにした.この解析で認定,付与した情報は,\begin{itemize}\item[(I)]文のタイプ,\item[(II)]主格,目的格などの統語単位,\item[(III)]統語単位中の主辞単語と前置詞,副詞小詞などの機能語である.\end{itemize}(I),(II)には,それぞれラベルを設定した.文のタイプは11種類設定した.そして英文中の動詞に文のタイプを示すラベルを付与した.統語単位は24種類設定した.そして英文中の各統語単位に該当する範囲を\bras{}で認定し,統語単位を示すラベルを付与した\footnote{一つの英文内に同一の統語単位が複数回出現した場合,例えば副詞句(DD)が3回出現した場合,英語のケースデータには出現順にDD,DD1,DD2と展開したラベルを付与している.}.また,各統語単位の主辞は{[\]}で,機能語は\pp{\enskip}で認定した.ここで作成したデータを英語のケースデータと呼ぶ.図~4のCASE行がこれにあたる.ラベルの詳細を付録Bの表~6,~7に記す.\item{\bf日本語翻訳の付与}\\英語のケースデータの主辞と機能語に対して日本語の訳語を人手で付与した.図~4のJAP行がこれにあたる.また,JAP行でも主辞と機能語の指定がしてある.対象の英文一つだけで翻訳できない場合は,前後の文脈を翻訳者に提供した.\end{enumerate}\begin{figure}[h]\begin{center}\begin{tabular}{|l@{}p{0.8\textwidth}|}\hline19:&``IjustknowI'mgoingtotakethoserublesandbuildanotherrestaurant,''hesaid.\\ENG:&I'mgoingtotakethoserubles\\CASE:&SN\bras{[I]}AX\bras{[begoingto]}V\bras{[take]}ON\bras{those[ruble]}\\JAP:&SN\bras{[私]\pp{は}}AX\bras{[BEGOINGTO]}V\bras{[受け取る]}ON\bras{[ルーブル]\pp{を}}\\&\\20:&``Itakeeverybodyseriously,''Grafsaid.\\ENG:&Itakeeverybodyseriously\\CASE:&SN\bras{[I]}V\bras{[take]}ON\bras{[everybody]}DD\bras{[seriously]}\\JAP:&SN\bras{[私]\pp{は}}V\bras{[受け止める]}ON\bras{[すべての人]\pp{を}}DD\bras{[真剣に]}\\\hline\multicolumn{2}{r}{\bras{}統語単位,{[]}主辞,\pp{\enskip}機能語}\\\end{tabular}\caption{英日対訳コーパス}\end{center}\end{figure}\begin{table}[h]\begin{center}\caption{英日対訳コ−パスの作成結果}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{1}{c}{come}&\multicolumn{1}{c}{get}&\multicolumn{1}{c}{give}&\multicolumn{1}{c}{go}&\multicolumn{1}{c}{make}&\multicolumn{1}{c}{run}&\multicolumn{1}{c}{take}\\\hline英文数&795&867&635&1204&1024&440&1062\\翻訳に文脈が必要であった場合&3.4\%&5.2\%&4.1\%&3.7\%&6.6\%&6.0\%&4.0\%\\得られたデ−タ数&782&849&637&941&1020&303&1067\\\hline\end{tabular}\end{center}\end{table}\subsection{コーパスの特徴}対訳コーパスを作成するのに要した労力は6人月であった.表~2に作成したコーパスのデータを示す\footnote{その後も対訳データの作成作業を継続しており,``call'',``cut'',``fall'',``keep'',``look'',``put'',``stand'',``turn''についても対訳コーパスを作成している(総数約6,000).さらに,``give''は490,``make''は1,770,``take''は1,820データ追加されている.}.この表の2行目に示した数字は,翻訳を行う場合に前後の文脈が必要であった比率を示す.すなわち,人間の翻訳者が一つの文だけを見て翻訳ができなかった割合を示している.このような文章の多くは``it''などの代名詞を含んでおり,翻訳のためにはそれらの指示内容が必要であった.
\section{語形を利用した実験}
\subsection{方針}提案手法の基本的な能力を調査するために,以下の方針に従って原始格フレーム表を作成して格フレーム木獲得実験を行った\cite{TanAndEha93,Tan94a}.\begin{itemize}\item文の種類に応じて格フレーム木を作成\\従来,動詞の訳語選択を行う場合,その動詞がどういう文型で使われていても同じ格フレームを利用していた.しかし,同じ動詞でも平叙文,疑問文,関係節,不定詞句の中では共起する格要素は異なることが予想される.そこで文型ごとに格フレーム木の作成を行う.\itemコーパスに出現する格要素すべてを利用\\これは著者らの使うアルゴリズムによって,どのような格要素が選択されるかを調査するためである.\item格要素の制約としては,主辞の語形と機能語を利用\\これらは,それぞれの統語単位を代表する成分であるため,まずこれを利用する.\end{itemize}学習に利用したプログラムはC4.5(オプションなし,枝刈りなし)である.\subsection{実験結果}各動詞の各文型パターンについて格フレーム木の作成実験を行った.訳し分けの対象にしたのは各動詞とも,頻度が10以上である.これは頻度が小さいと有効なデータとならないからである.\begin{table}\begin{center}\caption{入力諸元と出力(平叙文)}\begin{tabular}{c|rrrrrrr}\hline\hline&\multicolumn{1}{c}{come}&\multicolumn{1}{c}{get}&\multicolumn{1}{c}{give}&\multicolumn{1}{c}{go}&\multicolumn{1}{c}{make}&\multicolumn{1}{c}{run}&\multicolumn{1}{c}{take}\\\hline(1)&398&274&292&225&367&68&285\\(2)&30&28&31&20&33&15&21\\(3)&10&9&9&8&8&3&10\\\hline(4)&6&5&5&6&6&3&5\\(5)&10.1\%&5.5\%&13.0\%&10.2\%&6.2\%&0.0\%&6.0\%\\\hline\end{tabular}\par\medskip\null\hskip8em\begin{tabular}{r@{}l}(1)&学習に利用した事例数\\(2)&原始格フレ−ム表に出現した格要素数(異なり)\\(3)&動詞の訳語数\\(4)&格フレ−ム木に出現した格要素数(異なり)\\(5)&学習した事例を再分類した場合の誤訳率\\\end{tabular}\end{center}\end{table}表~3に,入力とした原始格フレーム表の諸元と結果の一覧を示す.ここでは,平叙文のデータから作成した格フレーム木の結果のみを示した.\begin{figure}\begin{center}\vspace*{-4mm}\begin{minipage}{80mm}\large\def\baselinestretch{}\normalsize\begin{tabbing}D\bras{}\==over:引き継ぐ(12.0)\\D\bras{}=up:取る(3.0/1.0)\\D\bras{}=0:\\$|$\>ON\bras{}\==0:かかる(5.0/1.0)←A\\$|$\>ON\bras{}=action:とる(8.0)\\$|$\>ON\bras{}=bronze:獲得する(9.0)\\$|$\>ON\bras{}=hour:かかる(11.0/3.0)←C\\$|$\>ON\bras{}=measures:とる(10.0)\\$|$\>ON\bras{}=part:参加する(33.0/1.0)←B\\$|$\>ON\bras{}=while:かかる(6.0)\\$|$\>ON\bras{}=place:\\$|$\>\>$|$SN\bras{}=SergeiShupletsov:獲得する(1.0)←D\\$|$\>\>$|$SN\bras{}=attack:行われる(4.0)←D\\$|$\>ON\bras{}=time:\\$|$\>\>$|$AX\bras{}=0:かかる(4.0/2.0)\\$|$\>\>$|$AX\bras{}=may:必要とする(1.0)\\$|$\>\>$|$AX\bras{}=could:かかる(1.0)\end{tabbing}\end{minipage}\end{center}\caption{``take''の格フレーム木の一部}\end{figure}また図~5に獲得された``take''の格フレーム木の一部を示す.この図では左がルートノードである.また各行の右端の数字は,学習に利用した事例を格フレーム木で分類した場合に(そのリーフに分類された事例数/事例とリーフの訳語が一致しなかった数[あれば])である.以下に結果の特徴を記す.\begin{enumerate}\item{\bf通常の辞書との類似}\\図~5に示すように,格フレーム木は直感的に理解しやすいものであった.これは,格フレーム木に使われた格要素の多くが,通常の辞書に使われていたことによる.例えば``take''の格フレーム木では,AX(助動詞相当語句),D(副詞小詞),ON(直接目的語名詞句),SIN(主語の不定詞句),SN(主語名詞句)が使われていた.この中の,SN,ON,Dは通常の冊子辞書でも頻繁に使われている.さらにこの場合,ルートノード,すなわち訳し分けに最も有効な格要素はDとなっていた.冊子辞書でも副詞小詞は重要な要素と見なされており,動詞と組み合わせて別項として記述されていることが多い.同様の特徴はその他の動詞にも見られた.表~3の第2行と第4行を比べると,入力に与えられた格要素の内,実際に格フレーム木で利用された格要素は少ないことがわかる.また,利用された格要素の多くは冊子辞書でもよく利用されるものであった.それぞれの動詞の格フレーム木に利用された格要素を付録~Cの表~8に示す.\item{\bf訳し分けの精度}\\得られた格フレーム木は,直観では気付きにくい情報を学習していた.図~5のAに示した部分では,ONが何もないときの訳語は「かかる」と学習されている.``take''は通常他動詞として用いられるため,目的語がないというのは不自然な印象を受ける.しかし,対訳コーパスを調査してみると``takeawhile'',``takelong''といった時間表現があることがわかった.これらの表現では,目的語ではなく副詞を伴って「かかる」の意味になっており,妥当な学習と言える.また図~5のBで示した部分では,``takepart''で「参加する」と学習されており,``in''は冗長だとされている.これは通常の辞書の記述とは異なっている.しかし,これも対訳コーパス中に実際に``in''を伴わない用法が見つかり,むしろ望ましい学習と言える.このように格フレーム木の細部を見た場合には,コーパスの動詞を訳し分けるのに適した情報が学習されていた.また,表~3の第5行目には誤訳率を記している.これは,学習に利用した事例を格フレーム木で分類した場合に,誤った訳語が出力された割合である.学習データであっても誤訳率がゼロにならない理由は,\begin{itemize}\item[(I)]格フレーム木を作成するアルゴリズムが,過剰学習を避けるため多少の誤訳を許すように設定されていること(付録A,脚注10,11参照)\item[(II)]1文の範囲では訳し分けができない場合があることである.\end{itemize}以下具体的に説明する.(I)に該当する例は図~5のCの部分に見られる.ここでは``takehour''(11例)は「かかる」と訳すように学習されたが,3例は誤っている.これらは「必要とする」と訳されなくてはならない.原始格フレーム表を調べてみると,``takehour''の11事例の主語はすべて異なっていた.そこで,このノードの下をさらに主語で分岐すると上記の2つの訳語は正しく分類することができる.ただしこの場合,主語の語形によって11の枝が生成され,リーフには1事例しか分類されない.このためこれは予測力の低い過剰学習であると判定され,このような分岐は実行されない.(II)に相当するのは同一の文でありながら動詞の訳が違う場合である.``make''のコーパスには``Iamgoingtomakeit.''という同一の文章で``make''の訳語が「作る」と「成功する」になる2通りの場合が収録されている\footnote{人手で翻訳した際には当然文脈を参照している.4.4節(4),4.5節参照.}.これらの訳語はこの文の格要素だけで訳し分けることはできないため,誤りを含んだまま枝の生成は停止せざるを得ない.この誤りは文脈を扱わない本手法の限界を示すものである.\item{\bf補償的な学習}\\図~5のDでは``takeplace''が「獲得する」と「行われる」に訳し分けられている.前者は``takethirdplace''「3位を獲得する」というコーパスの例文から学習されており,後者は成句表現を学習したものである.前者は通常の辞書には記述されていない.ここで興味深いのは学習された訳し分けの条件である.ここでは主語の性質によって訳し分けられている.すなわち,主語が「人間」の時は「獲得する」となり,「動作名詞」の時は「行われる」となっている.これは言語学的に納得できる条件である.しかし,この訳し分けは``place''の前の修飾語の有無で行うことも可能である.前者は``third''という修飾を受けているが,後者は成句表現であるため,修飾は基本的に受けないからである.この実験の原始格フレーム表には修飾語を利用していないため,このような学習は起こりえない.そこで,これに替わる条件を学習しているのである.このような学習を本論文では「補償的な学習」と呼ぶ.この「補償的な学習」は,その他の格フレーム木でも数多く見られた.例えば図~6(``come''の格フレーム木の一部)では,主語が``it''の場合に,その内容を参照することなく,前置詞を条件として動詞の訳し分けが行われている.また,この条件で事例の分類を行った結果,15事例の内12事例で訳語が正しく選択されている.補償的な学習は,与えられた情報の中で最適な訳し分け条件を見つけ出すアルゴリズムの性質を反映したものであり,ここで述べたように人手で見つけにくい有効な格要素を発見する上で有用である.しかし,この性質は格フレーム木のノードとして本来使うべき格要素を選ばずに,たまたま原始格フレーム表の訳語をきれいに分類する格要素を選択することにつながる場合もある.このため,必ずしも言語学的な直観にあわない格要素が格フレーム木に含まれる場合もあり,その正しさは人間が判定する必要がある.\item{\bf文型による格フレーム木の違い}\\平叙文に比べてその他の文型の事例数が少ないため同列の比較はできないが,文型による格フレーム木の違いはかなり顕著であった.例えば比較的事例数の多かった「to不定詞として用いられた``take''と``make''」の格フレーム木に使われた格要素はON(直接目的語名詞句)だけであった.また,これらの格フレーム木には平叙文で重要であったD(副詞小詞)は出現しなかった.これらのことは,格フレーム木は文型に合わせて作成する必要があることを示唆している.\end{enumerate}\begin{figure}\begin{center}\begin{minipage}{80mm}\large\def\baselinestretch{}\normalsize\begin{tabbing}D\=\bras{}=0:\\$|$\>PN\=1\bras{}c=0:\\$|$\>\>$|$SN\=\bras{}=it:\\$|$\>\>$|$\>$|$PN\bras{}=0:来る(5.0/2.0)\\$|$\>\>$|$\>$|$PN\bras{}=as:なる(2.0)\\$|$\>\>$|$\>$|$PN\bras{}=atatimeof:起きる(1.0)\\$|$\>\>$|$\>$|$PN\bras{}=during:来る(1.0)\\$|$\>\>$|$\>$|$PN\bras{}=like:起きる(1.0)\\$|$\>\>$|$\>$|$PN\bras{}=on:なる(1.0)\\$|$\>\>$|$\>$|$PN\bras{}=to:なる(4.0/1.0)\end{tabbing}\end{minipage}\end{center}\caption{``come''の格フレーム木の一部}\end{figure}\subsection{議論1}本章では,語形を利用した格フレーム木の学習を行った結果,大局的には人間の直観に近い,わかりやすい格フレーム木が獲得された.また,細かく見ると人手で獲得するよりも精密な条件が抽出される場合や,人手では気がつきにくい条件が抽出されることがわかった.ここで問題になるのは格フレーム木の一般性である.本手法では,格要素の制約として語形を使ったため,未学習の事例の動詞を訳し分ける性能には疑問がある.なぜなら,未学習の事例を格フレーム木のルートからリーフへ照合する過程で,制約(アークのラベル)が未知の語形になり,格フレーム木をたどれなくなるからである.そこで,次章ではこの問題を解決する手法を提案して実験を行う\cite{Tan94b}.
\section{意味コードを用いた実験}
\subsection{意味コードの利用}著者らが利用している学習プログラムでは,事例と格フレーム木との照合中に,あるノードで行き詰まった場合には訳語を予測して出力するようになっている.このプログラムでは格フレーム木の作成と同時に各学習事例がどのリーフに分類されるかを計算しており,リーフにはその頻度が付与されるようになっている(図~5の右端の数字).そして訳語の予測にはこの頻度を利用している.今,図~5の格フレーム木で,``D=0''かつ``ON=place''かつ``SN=war''という事例を分類しようとすると,SNの制約(war)が未知語であるため訳語が決定できない.このように行き詰まった場合には,先に述べた頻度を利用して,そのノードの下で最も頻度の高い訳語を予測値として出力する.今の場合,行き詰まったノードSN\footnote{2つのSNがあるが(図~5のD)これは同じノードである.}の下で最高の頻度であった「行われる」が出力される.このような予測機能のおかげで未知語は表面上は問題にはならない.しかし,この「局所的な多数決原理」のヒューリスティクスがどれだけ有効であるかは不明である.未知語になる可能性が高いのはオープンクラスの語彙,特に名詞である.これを軽減する手法としては,名詞を意味コード\footnote{名詞をある体系に従って分類し,それに与えたコード.例えば,類語国語辞典\cite{類語85}や分類語彙表\cite{分類64}などの分類番号.}で置換することが考えられる.これによって膨大な数の名詞を一定の分類数で押さえることができるからである.そこで本章では,名詞を意味コードで置換した格フレーム木の獲得を行い,これが未学習の事例の動詞の訳し分けにどの程度有効かを評価する.語形の代わりに意味コードを利用した格フレーム木を獲得するには,原始格フレーム表の語形を意味コードで置き換えて学習すればよい.これには英語の語形がどの意味で使われたかを決定する必要があるが,意味的な曖昧性があるため,英語の語形だけを見たのでは自動的には決定できない.そこで対訳コーパスに意味コードを付与して,これを原始格フレーム表に変換することにした.対訳コーパスには日本語の訳語があり,これが英語の語形の意味を表しているため,比較的容易に英語の語形の意味を決定できるからである.\subsection{コーパスへの意味コードの付与}本論文で利用した意味コードは類語国語辞典\cite{類語85}のコードである.これは,基本的には3桁の10進分類であり,補助的に4桁目が利用されている.4桁すべてを利用すると2,794個の分類となる.意味コードを付与したのは名詞を主辞に取る格要素である:SN(主語名詞句),ON(直接目的語名詞句),CN(補語名詞句),QN(間接目的語名詞句),PNc(前置詞句本体).意味コードの付与は,あらかじめ作成してあるテーブル,(英単語,日本語訳語,意味コード[,意味コード])の形式,を利用して半自動的に行った\cite{TanAndEha91}.具体的には対訳コーパスの英語と日本語の対応する格要素の主辞をこのテーブルで参照してコードを付与した\footnote{類語国語辞典は(日本語,意味コード[,意味コード])の形式のデータである.著者らは,これを英和辞書と照合して(英単語,日本語訳語,意味コード[,意味コード])の形式のデータを既に作成している.英語と日本語では,単語の持つ意味の広がりに差がある.このため,英単語と類語国語辞典のデータを組み合わせる際に,意味コードの中に不適切なコードが発生するが,これは人手で排除している.}.意味コードが自動的に付与できない場合には,人手で付与できるものは付与し,それでもわからない名詞については不明を意味するコードを付与した.これはほとんど固有名詞で,人名,地名の判別ができない単語であった.図~7のCODE行に意味コードを付与したデータを示す.この図では2桁の意味コードを与えているが,任意の桁の意味コードを付与できる.\begin{figure}\begin{center}\begin{tabular}{|l@{}l|}\hlineENG:&mytruthgavemeallthestrengthIneeded\\CASE:&SN\bras{[truth]}V\bras{[give]}QN\bras{[me]}ON\bras{[strength]}\\JAP:&SN\bras{[誠実さ]\pp{は}}V\bras{[与える]}QN\bras{[私]\pp{に}}ON\bras{[強さ]\pp{を}}\\CODE:&SN\bras{[83]}V\bras{[give]}ON\bras{[83]}QN\bras{[50]}\\\hline\end{tabular}\end{center}\caption{意味コードを付与した英日対訳コーパス}\end{figure}\subsection{実験方法}\begin{table}\begin{center}\caption{実験方法}\begin{tabular}{c|c}\hline\hline実験&制約\\\hline1&語形\\2&4桁のコ−ド\\3&3桁のコ−ド\\4&2桁のコ−ド\\5&1桁のコ−ド\\\hline\multicolumn{2}{c}{}\\\multicolumn{2}{c}{出現格要素をすべて利用}\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{入力デ−タ諸元}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{1}{c}{come}&\multicolumn{1}{c}{get}&\multicolumn{1}{c}{give}&\multicolumn{1}{c}{go}&\multicolumn{1}{c}{make}&\multicolumn{1}{c}{run}&\multicolumn{1}{c}{take}\\\hlineデータ数&398&274&292&225&367&68&285\\訳語異なり数&10&9&9&8&8&3&10\\基準誤訳率&66.3\%&73.3\%&64.3\%&52.4\%&27.7\%&32.3\%&82.8\%\\基準誤訳を率を与える訳語&来る&なる&与える&行く&する&走る&かかる\\\hline\end{tabular}\end{center}\end{table}5章の実験で用いた平叙文のコーパスに対して,表~4に示す5つの実験を行った.原始格フレーム表に記述する格要素は5章と同じく,コーパスに現われたすべての格要素である.これらの実験の違いは,格要素に与えた制約である.実験1では,制約として語形を与えた.この実験は評価方法を除けば5章の実験と基本的に同じである.実験2--5は,意味コードの粗さと動詞の訳し分けの精度の関係を調べることを目的とし,4桁から1桁の意味コードを制約として与えた.実験に用いたデータの諸元を表~5に記す.この表の第3行の基準誤訳率とは,各動詞での最高頻度の訳語を入力に関わらず出力した場合に発生する誤訳率である\footnote{言い換えると6.1節の「局所的な多数決原理」をルートノードに適用して全事例を分類した場合の誤訳率である.}.``take''は訳語の分布が平坦であるため,高い基準誤訳率になっている.また第4行には基準誤訳率を与える訳語を記した.格フレーム木の評価は,学習に利用した事例を入力した場合と,学習に利用していない事例を入力した場合の誤訳率で行った.誤訳率は,事例と学習プログラム出力の訳語が一致しなかったものの相対頻度である.このとき,誤訳率の精度を確保するために原始格フレーム表の事例を5分割してクロスバリデーション法で評価した.この手法では,評価データでの誤訳率の計算は以下のように行われる.\begin{itemize}\item原始格フレーム表を5つに分割して80\%の事例で格フレーム木を学習する.\item残りの20\%の事例をこの格フレーム木で分類し,誤訳率を計算する.\itemこの操作を5回,データをシフトしながら行い,訳語の平均誤訳率を算出する.\end{itemize}学習データ上での誤訳率も同様に算出した.(以下,誤訳率は平均誤訳率のことである)格フレーム木の獲得に用いたプログラムは5章と同じC4.5(オプションなし,枝刈りなし)である.\subsection{結果}\begin{figure}\begin{center}\epsfile{file=fig8.eps,width=137.0mm}\end{center}\caption{誤訳率の推移}\end{figure}実験1--5の学習データ,評価データでの誤訳率を図~8に示す.このデータから次の特徴が読み取れる.\begin{itemize}\item実験1:殆どの動詞で評価データでの誤訳率は最大である.\item実験1--5:学習データ,評価データの誤訳率ともほぼ下に凸の曲線を描いた.極小値を与える分類コードの桁数は動詞によって異なった.\itemいずれの実験でも,評価データ上の誤訳率は基準誤訳率より低い.実験で得られた意味コード(2桁)付きの格フレーム木を図~9に示す.\end{itemize}\begin{figure}[h]\begin{center}\begin{minipage}{80mm}\large\def\baselinestretch{}\normalsize\begin{tabbing}ON\bras{}\==10:与える(4.0)\\ON\bras{}=12:言う(3.0/1.0)\\ON\bras{}=15:与える(7.0)\\ON\bras{}=26:与える(3.0)\\ON\bras{}=27:伝える(4.0/1.0)\\ON\bras{}=34:する(32.0/1.0)←A\\ON\bras{}=36:与える(3.0)\\ON\bras{}=41:する(7.0/1.0)\\ON\bras{}=46:もたらす(3.0/1.0)\\ON\bras{}=47:与える(4.0/1.0)\\ON\bras{}=81:示す(4.0/2.0)\\ON\bras{}=93:与える(3.0)\\ON\bras{}=97:与える(2.0)\\ON\bras{}=99:与える(2.0)\\ON\bras{}=0:\\$|$\>D\bras{}=0:与える(2.0)\\$|$\>D\bras{}=up:諦める(11.0)\end{tabbing}\end{minipage}\end{center}\caption{``give''の意味コード付きの格フレーム木(部分)}\end{figure}\subsection{議論2}本章の実験によって,殆どの動詞で意味コードを抽象化すると評価データ上での誤訳率が一旦減少し,また上昇することが確認された.この理由は,意味コードを利用すれば未知語が減るものの,意味コードが粗くなりすぎると格フレーム木の分類能力が低下するためだと思われる.意味コードが有効に働いたのは,図~9のAで示すような,事例が集中して,かつ訳語が正しく決定された部分である(意味分類コード34は「陳述」を表す).また,最小の誤訳率を与える意味コードの粒度は動詞によって異なっていた.従来,固定的な意味コードを格フレームに与える場合が多かったが,そこには再考の余地があることをこの結果は示唆している.付録Cの表~9に格フレーム木に採用された格要素を記した.5章の実験と同じように,多くの格要素は冊子辞書に利用されているものであり,得られた格フレーム木は言語学的な直観に合うものであった.本実験での各動詞の評価データ上での最小の誤訳率は2.4\%から32.2\%となった.これと基準誤訳率の差は13.6\%から55.3\%となり,かなりの改善が得られている.すべての動詞で十分な精度が得られたわけではないが,``take''のように基準誤訳率が82.8\%もあるような動詞に対して誤訳率27.5\%が得られたことは,本手法の基本的な有効性を示したものと考えられる.
\section{むすび}
従来の人手による格フレーム獲得の問題点を明らかにし,これを解決する手法を提案した.ここで行った提案は,格フレームを決定木で表現すること(格フレーム木),および,これを統計的な帰納学習アルゴリズムを用いて対訳のコーパスから獲得することである.この提案に添って語形,意味コードを利用した2種類の実験を行った.得られた結果は以下の通りである.\begin{itemize}\item人間の直観に近くかつ精密な情報が学習された.\item意味コードを利用すると未学習データでの誤訳率が低下した.また,動詞によって最適な意味コードの粒度は異なった.\end{itemize}今回,意味コードを利用して得られた誤訳率は,動詞によっては必ずしも低くないものがある.この原因としては,意味コードを利用した格要素では,語形が全く利用されていないことが挙げられる.この結果,本来語形で記述すべき成句的な表現も意味コードで抽象化されており,これが高い誤訳率につながったと考えられる.これを解決するには,同一格要素内で意味コードと語形の両者を柔軟に用いる学習アルゴリズムの開発が必要である.もう一つ,意味コード体系そのものの問題が挙げられよう.著者らが利用した意味コードは動詞の訳し分けを目的に開発された体系ではない.そのため,これが誤訳率を高めている可能性はある.もし,著者らの目的に合うような意味コード体系を利用できれば,さらに誤訳率を減らすことができるであろう.\acknowledgment類語国語辞典の研究利用を許可していただいた(株)角川書店,ならびに,配信電文の研究利用を許可していただいたAP通信社に感謝する.この研究を進めるにあたって議論して頂いたNHK放送技術研究所,先端制作技術研究部の江原暉将主任研究員,および機械翻訳研究グループの諸氏に感謝する.\begin{thebibliography}{}\bibitem[\protect\BCAY{Aizawaet~al.}{Aizawaet~al.}{1990}]{Aiz90}Aizawa,T.\BBACOMMA\et.~al\BBOP1990\BBCP.\newblock\BBOQAMachineTranslationSystemforForeignNewsinSatelliteBroadcasting\BBCQ\\newblockIn{\BemProceedingsofthe13thColing},\lowercase{\BVOL}~3,\BPGS\308--310.\bibitem[\protect\BCAY{Almuallim\&Akiba}{Almuallim\&Akiba}{1994}]{Alm94}Almuallim,H.\BBACOMMA\\&Akiba,Y.\BBOP1994\BBCP.\newblock\BBOQInductionofJapanese-EnglishTranslationRulesfromAmbiguousExamplesandaLargeSemanticHierarchy\BBCQ\\newblock{\BemJournalofJapaneseSocietyforArtificialIntelligence},{\Bbf9}(5),730--740.\bibitem[\protect\BCAY{Breiman,Friedman,Olsen,\&Stone}{Breimanet~al.}{1984}]{Brei84}L.,Breiman,B.,Friedman,J.~H.,Olsen,R.~A.,\&Stone,C.\BBOP1984\BBCP.\newblock{\BemClassificationandRegressionTrees}.\newblockChapman\&Hall.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1986}]{Qui86}Quinlan,J.~R.\BBOP1986\BBCP.\newblock\BBOQInductionofDecisionTrees\BBCQ\\newblock{\BemMachineLearning},{\Bbf1},81--106.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{Qui93}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5ProgramsforMachineLearning}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Tanaka}{Tanaka}{1993}]{Tan93}Tanaka,H.\BBOP1993\BBCP.\newblock\BBOQMTUserExperience(STAR:NipponHosoKyokai)\BBCQ\\newblockInNirenberg,S.\BED,{\BemProgressinMachineTranslation},\BPGS\247--249.IOS\&Ohmsha.\bibitem[\protect\BCAY{Tanaka}{Tanaka}{1994}]{Tan94a}Tanaka,H.\BBOP1994\BBCP.\newblock\BBOQVerbalCaseFrameAcquisitionfromaBilingualCorpus:GradualKnowledgeAcquisition\BBCQ\\newblockIn{\BemProceedingsofthe15thColing},\lowercase{\BVOL}~2,\BPGS\727--731.\bibitem[\protect\BCAY{田中}{田中}{1994}]{Tan94b}田中英輝\BBOP1994\BBCP.\newblock\JBOQ意味コード付き対訳データからの訳し分け情報の自動学習\JBCQ\\newblock\Jem{情報処理学会第49回全国大会},3\JVOL,\BPGS\205--206.\bibitem[\protect\BCAY{田中,畑田,江原}{田中\Jetal}{1994}]{TanAndHat94}田中英輝,畑田のぶ子,江原暉将\BBOP1994\BBCP.\newblock\JBOQ日本語字幕作成用英日機械翻訳システムの研究経緯と今後\JBCQ\\newblock{\BemNHKR\&D},{\Bbf34},33--46.\bibitem[\protect\BCAY{田中,江原}{田中,江原}{1991}]{TanAndEha91}田中英輝\BBACOMMA,江原暉将\BBOP1991\BBCP.\newblock\JBOQ名詞への意味マーカーの自動付与\JBCQ\\newblock\Jem{情報処理学会第43回全国大会},3\JVOL,\BPGS\211--212.\bibitem[\protect\BCAY{田中,江原}{田中,江原}{1993}]{TanAndEha93}田中英輝\BBACOMMA,江原暉将\BBOP1993\BBCP.\newblock\JBOQ対訳データからの「訳し分け情報」の自動抽出\JBCQ\\newblock\Jem{情報処理学会第47回全国大会},3\JVOL,\BPGS\195--196.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{分類64}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{大野,浜西}{大野,浜西}{1985}]{類語85}大野晋\BBACOMMA,浜西正人\BBOP1985\BBCP.\newblock\Jem{類語国語辞典}.\newblock角川書店.\bibitem[\protect\BCAY{宇津呂,松本,長尾}{宇津呂\Jetal}{1993}]{UtuAndMat93}宇津呂武仁,松本裕治,長尾眞\BBOP1993\BBCP.\newblock\JBOQ二言語対訳コーパスからの動詞の格フレーム獲得\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf34}(5),913--924.\end{thebibliography}\appendix
\section{決定木作成アルゴリズム}
図~10に基本的なアルゴリズムを示す.ステップ2の終了条件は,基本的には訳語が一種類となることである\footnote{この条件では,枝分かれの多くなる格要素が選択されがちになり,各リーフに分類される事例が少なくなってしまう.これは未知データに対する予測力の低い,すなわち過剰学習を起こした木である.このため,ある程度の誤分類を含んだ段階で停止するようになっている.この条件は経験的に決められているが,この問題については本論文ではこれ以上立ち入らない.詳細は\cite{Qui93}を参照のこと.}.ステップ3の「訳語を最も良く分類する格要素を選択する」という部分は以下の手順で決定される.現在の\hspace*{0.1mm}ノード\hspace*{0.1mm}の下\hspace*{0.1mm}にある\hspace*{0.1mm}訳語の\hspace*{0.1mm}集合を\hspace*{0.5mm}$S$\hspace*{0.5mm}と\hspace*{0.1mm}し,\hspace*{0.5mm}そ\hspace*{0.1mm}の\hspace*{0.1mm}大\hspace*{0.1mm}き\hspace*{0.1mm}さ\hspace*{0.5mm}(\hspace*{0.1mm}訳\hspace*{0.1mm}語\hspace*{0.1mm}数\hspace*{0.1mm})\hspace*{0.5mm}を\hspace*{1mm}$\left|S\right|$\hspace*{0.5mm}と\hspace*{0.1mm}す\hspace*{0.1mm}る\hspace*{0.1mm}.\hspace*{0.5mm}$S$に\\は$k$種類\hspace*{0.1mm}の\hspace*{0.1mm}訳\hspace*{0.1mm}語\hspace*{0.1mm}が\hspace*{0.1mm}あ\hspace*{0.1mm}る\hspace*{0.1mm}と\hspace*{0.1mm}し\hspace*{0.1mm},\hspace*{1mm}各\hspace*{0.1mm}訳\hspace*{0.1mm}語\hspace*{0.1mm}の\hspace*{0.1mm}名\hspace*{0.1mm}前\hspace*{0.1mm}を$C_j(1\lej\lek)$で\hspace*{0.1mm}表\hspace*{0.1mm}す\hspace*{0.1mm}.$\mbox{\emfreq}(C_j,S)$は$S$の中で\\の訳語$C_j$の個数を表すとする.そうすると${{\mbox{\emfreq}(C_j,S)}\over{\left|S\right|}}$は$S$の中での訳語$C_j$の相対頻度を表し$-\log_2\left({{{\mbox{\emfreq}(C_j,S)}\over{\left|S\right|}}}\right)$はその情報量になる.\hspace*{-0.2mm}ここですべての訳語について情報量を計算してその平\\均を求めると\begin{displaymath}\mbox{\eminfo}(S)=-\sum\limits_{j=1}^k{{{\mbox{\emfreq}(C_j,S)}\over{\left|S\right|}}}\times\log_2\left({{{\mbox{\emfreq}(C_j,S)}\over{\left|S\right|}}}\right)\end{displaymath}となる.\hspace*{0.2mm}これは現在の訳語分布が持つエントロピー\hspace*{0.1mm}(乱雑さ)\hspace*{0.1mm}を示す.\hspace*{0.2mm}ここである格要素$X$を選択する.そしてその制約(単語)によって$S$が$n$個の部分集合に分割されたとする.$S_i(1\lei\len)$を各部分集合とする.この各部分集合に対して\begin{displaymath}\mbox{\eminfo}_X(S)=\sum\limits_{i=1}^n{{{\left|{S_i}\right|}\over{\left|S\right|}}}\times\mbox{\eminfo}(S_i)\end{displaymath}を計算するとこれは$X$を選択した後にできた部分集合が持つエントロピーの平均を表す.これらから\begin{displaymath}\mbox{\emgain}(X)=\mbox{\eminfo}(S)-\mbox{\eminfo}_X(S)\end{displaymath}を計算する.これは分割前と後のエントロピーの減少,すなわち格要素$X$を選択して分類したことによる訳語の分布の乱雑さの減少を示している.基本的には,これを最大にするような格要素を最適な格要素として選択する\footnote{ただし,エントロピーの減少を利用した場合は,枝分かれの多い木が作成されがちになり過剰学習が発生しやすくなる.このためC4.5では,エントロピーの減少量を枝分かれの数の評価値で割った量を採用している.この詳細についても\cite{Qui93}を参照.}.\medskip\vbox{\begin{center}\begin{tabular}{l|p{0.7\textwidth}|}\cline{2-2}ステップ1&すべての訳語をルートノードに配置する.ステップ2へ\\\cline{2-2}ステップ2&終了条件を満足すれば終わり.そうでなければステップ3へ\\\cline{2-2}ステップ3&分岐ノードである.以下の手順で子を作成.\nl自分の下の訳語を最も良く区別する格要素を1つ選択して現在のノードの名前にする.\nl選択した格要素の制約(単語)に従って訳語を部分集合に分割する.\nlそれぞれの部分集合にノードを付与し,親ノードとの間に制約(単語)の名前を持つリンクを張る.\nl作成したノードすべてに対してステップ2を実行.\\\cline{2-2}\end{tabular}\\\medskip{\small{\bf図~10}\enskipアルゴリズムの概要}\end{center}}
\section{コーパスに付与したラベルの詳細}
\vbox{\begin{center}\small{\bf表~6}\enskip文タイプ(動詞に付与,以下の文型から抽出したことを示す)\\\bigskip\begin{tabular}{ll}AIV&疑問副詞を用いた文\\GV&動名詞句内\\IMV&命令文\\IV&不定詞句内\\PASV&受動態\\PIV&疑問代名詞を用いた文\\PV-ED&過去分詞形(分詞構文/完了形など).受動態は除く\\PV-ING&現在分詞形(分詞構文/進行形など)\\PVQ&YES-NO疑問文\\RV&関係詞節の中\\V&平叙文\end{tabular}\end{center}}\vbox{\begin{center}\small{\bf表~7}\enskip統語単位(動詞以外に付与)\\\medskip\begin{tabular}{ll}AX&助動詞句\\C-ED&補語の過去分詞句\\C-ING&補語の現在分詞句\\CA&補語形容詞句\\D&複合動詞の要素である副詞的小詞に付与\\CG&補語の動名詞句\\CIN&補語の不定詞句(詳しくはCIN:不定詞とCINc:不定詞句本体)\\CN&補語名詞句\\DC&副詞節(詳しくはDC:接続詞とDCc:副詞節本体)\\DD&副詞句\\DP-ED&副詞句としての過去分詞形\\DP-ING&副詞句としての現在分詞形\\INF&不定詞句:副詞的用法(詳しくはINF:不定詞とINFc:不定詞句本体)\\INFR&不定詞句:結果を表す場合(詳しくはINFR:不定詞とINFRc:不定詞句本体)\\OC&目的節(詳しくはOC:接続詞とOCc:目的節本体)\\OG&目的語としての動名詞句\\OIN&目的語としての不定詞句(詳しくはOIN:不定詞とOINc:不定詞句本体)\\ON&直接目的語名詞句\\PN&前置詞句(詳しくはPN:前置詞とPNc:前置詞句本体)目的・副詞的用法\\QN&間接目的語名詞句\\SC&主語節\\SG&主語動名詞句\\SIN&主語の不定詞句(詳しくはSIN:不定詞とSINc:不定詞句本体)\\SN&主語名詞句\end{tabular}\end{center}}\vfill
\section{実験で学習された格要素}
\vbox{\begin{center}\small{\bf表~8}\enskip語形を利用した格フレーム木に採用された格要素(平叙文)\\\medskip\begin{tabular}{ll}COME&D,DD,PN1c,PN,PNc,SN\\GET&C-ED,D,DD,ON,SN\\GIVE&AX,D,DD,ON,SN\\GO&AX,D,DC,DD1,PN,SN\\MAKE&AX,CIN,D,DD,ON,PN\\RUN&D,DD,PN\\TAKE&AX,D,ON,SIN,SN\\\multicolumn{2}{r}{}\\\multicolumn{2}{r}{格要素の数字については4.4節の脚注3を参照.}\end{tabular}\end{center}}\vbox{\begin{center}\small{\bf表~9}\enskip意味コード付き格フレームに採用された格要素(平叙文)\\\medskip\begin{tabular}{ll}\begin{tabular}{ll}\multicolumn{2}{l}{COME}\\4桁&D,DD,DP-ED,INF,PN1,PN,SN\\3桁&CA,D,DC,DD,PN1,PN,PNc,SN\\2桁&D,DD,DP-ED,INF,PN1,PN,SN\\1桁&CA,D,DC,DD,PN1,PN,PNc,SN\\\end{tabular}&\begin{tabular}{ll}\multicolumn{2}{l}{GET}\\4桁&AX,C-ED,D,DD,ON,PN\\3桁&AX,C-ED,D,DD,ON,PN,SN\\2桁&AX,C-ED,D,DD,ON,PN\\1桁&C-ED,D,DD1,DD,ON,PN,SN\\\end{tabular}\\&\\\begin{tabular}{ll}\multicolumn{2}{l}{GIVE}\\4桁&AX,D,DD,ON,QN,SN\\3桁&D,DD,ON,QN,SN\\2桁&AX,D,DD,ON,QN,SN\\1桁&AX,DD,ON,PN,PNc,QN,SN\\\end{tabular}&\begin{tabular}{ll}\multicolumn{2}{l}{GO}\\4桁&CA,D,DC,DD,PN,SN\\3桁&AX,D,DC,DD,PN,PNc,SN\\2桁&CA,D,DC,DD,PN,SN\\1桁&AX,D,DC,DD,PN,PNc,SN\\\end{tabular}\\&\\\begin{tabular}{ll}\multicolumn{2}{l}{MAKE}\\4桁&AX,CIN,D,DC,DD,ON,PNc,SN\\3桁&AX,CIN,D,DD,ON,SN\\2桁&AX,CIN,D,DC,DD,ON,PNc,SN\\1桁&AX,CIN,D,DD,ON,PNc,SN\\\end{tabular}&\begin{tabular}{ll}\multicolumn{2}{l}{RUN}\\4桁&D,PN,SN\\3桁&D,SN\\2桁&D,PN,SN\\1桁&D,SN\\\end{tabular}\\&\\\begin{tabular}{ll}\multicolumn{2}{l}{TAKE}\\4桁&D,ON,SIN,SN\\3桁&AX,D,ON,SIN,SN\\2桁&D,ON,SIN,SN\\1桁&AX,D,ON,PN,PNc,SN\\\end{tabular}&\\\end{tabular}\end{center}}\begin{biography}\biotitle{略歴}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士過程修了.同年,NHK入局.1987年より放送技術研究所にて勤務.機械翻訳,機械学習の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V23N01-02
|
\section{はじめに}
場所や時間を気にすることなく買い物可能なオンラインショッピングサイトは重要なライフラインになりつつある.オンラインショッピングサイトでは商品に関する説明はテキスト形式で提供されるため,この商品説明文から商品の属性-属性値を抽出し構造化された商品データを作成する属性値抽出技術は実世界でのニーズが高い.ここで「商品説明文から商品の属性値を抽出する」とは,例えばワインに関係した以下の文が入力された時,(生産地,フランス),(ぶどう品種,シャルドネ),(タイプ,辛口)といった属性と属性値の組を抽出することを指す.\begin{itemize}\itemフランス産のシャルドネを配した辛口ワイン.\end{itemize}\noindentこのような商品の属性値抽出が実現できれば,他の商品のレコメンドやファセット検索での利用,詳細なマーケティング分析\footnote{商品を購入したユーザの属性情報と組み合わせることで「30代女性にフランス産の辛口ワインが売れている」といった分析ができる.}等が可能になる.商品の属性値抽出タスクは従来より多くの研究がなされており,少数のパターンにより属性値の獲得を試みる手法\cite{mauge2012},事前に人手または自動で構築した属性値辞書に基づいて属性値抽出モデルを学習する手法\cite{ghani2006,probst2007,putthividhya2011,bing2012,shinzato2013},トピックモデルにより属性値を獲得する手法\cite{wong2008}など様々な手法が提案されている.本研究の目的は商品属性値抽出タスクに内在している研究課題を洗い出し,抽出システムを構築する上でどのような点を考慮すべきか,またどの部分に注力するべきかという点を明らかにすることである.タスクに内在する研究課題を洗い出すため,属性-属性値辞書に基づく単純なシステムを実装し,このシステムが抽出した結果のFalse-positve,False-negative事例の分析を行った.エラー分析という観点では,Shinzatoらがワインとシャンプーカテゴリに対して得られた結果から無作為に50件ずつFalse-positive事例を抽出し,エラーの原因を調査している\cite{shinzato2013}.これに対し本研究では5つの商品カテゴリから20件ずつ商品ページを選びだして作成した100件のデータ(2,381文)を対象に分析を行い,分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた.システムのエラー分析を行い,システム固有の問題点を明らかにすることはこれまでも行われてきたが,この規模のデータに対して商品属性値抽出タスクに内在するエラーのタイプを調査し,カテゴリ化を行った研究は筆者らの知る限りない.後述するように,今回分析対象としたデータは属性-属性値辞書に基づく単純な抽出システムの出力結果であるが,これはDistantsupervision\cite{mintz2009}に基づく情報抽出手法で行われるタグ付きコーパス作成処理と見なすことができる.したがって,本研究で得られた知見は商品属性値抽出タスクだけでなく,一般のドメインにおける情報抽出タスクにおいても有用であると考えられる.
\section{分析対象データ}
\label{corpus}楽天データ公開\footnote{http://rit.rakuten.co.jp/opendataj.html}より配布されている商品データから,論文\cite{shinzato2013}を参考に,ワイン,シャンプー,プリンターインク,Tシャツ,キャットフードカテゴリに登録されている商品ページを無作為に20件ずつ,計100件抽出した.そして,抽出したページをブロック要素タグ,記号\footnote{【,】,。,?,!,♪,※,●,○,◎,★,☆,■,□,▼,▽,▲,△,◆,◇,《,≫,≪.ただし,これらが括弧内(「」,『』)に出現している場合は区切らない.}を手がかりに文に分割した.\begin{table}[b]\caption{対象カテゴリ,対象属性および対象データの規模.商品ページ数は各カテゴリ共に20件.}\label{attributes}\input{02table01.txt}\end{table}カテゴリ毎に分析対象とした属性を表\ref{attributes}に示す.これらの属性は論文\cite{shinzato2013}で抽出対象とされたものに以下の修正を加えたものである.\begin{itemize}\item同じ意味を表す属性名を人手で統合した.\item誤った属性を人手で削除した.\itemブランド名,商品名,メーカー名などの重要な属性が抽出対象となっていなかったので,これらを分析対象として加えた.\end{itemize}続いて,各商品ページのタイトル,商品説明文,販売方法別説明文に含まれる属性値を1名の作業者によりアノテーションした.アノテーション時には,後述する\ref{dictbuild}節の方法で作成した属性-属性値のリストを提示し,これらと類似する表現をアノテーションするよう依頼した.また.アノテーションにあたり作業者に以下の点を指示した.\begin{description}\item[長い表現をとる]属性値を$v$,任意の語を$w$とした時,表現「$w$の$v$」が属性値として見なせる場合,$w$もまた属性値として見なせる場合であっても「$w$の$v$」を1つの属性値としてアノテーションする.例えば「フランスのブルゴーニュ産ワインです」という文があった場合,「フランス」,「ブルゴーニュ産」をそれぞれアノテーションするのではなく,「フランスのブルゴーニュ産」をアノテーションする.\item[記号で区切る]記号を挟んで属性値が列挙されている場合は別々にアノテーションする.例えば,「フランス・ブルゴーニュ産ワインです」という文があった場合,記号「・」で区切り,「フランス」,「ブルゴーニュ産」をそれぞれアノテーションする.ただし固有名詞(e.g.,「カベルネ・ソーヴィニョン」),数値(e.g.,「3,000ml」),サイズ(e.g.,「$19.5\times24.1\times8.0$cm」),数値の範囲(e.g.,「10〜15cm」)の場合は例外とし,記号があっても区切らない.\item[括弧の扱い]括弧の直前,中にある表現が共に属性値と見なせる場合は別々にアノテーションする.例えば「ブルゴーニュ(フランス)のワインです.」の場合,「ブルゴーニュ」,「フランス」を個別にアノテーションする.一方,「シャルドネ(100\%)」の場合は,「シャルドネ(100\%)」をアノテーションする.\end{description}\noindent以上の作業により得られた分析対象データの規模を表\ref{attributes}の文数および属性値数列に示す.カテゴリ毎に文数およびアノテーションされた属性値数に差があることがわかる.\begin{figure}[b]\begin{center}\includegraphics{23-1ia2f1.eps}\end{center}\caption{商品ページ中に含まれる半構造化データ(枠で囲まれた部分)}\label{semi-structured-data}\end{figure}
\section{商品の属性値抽出システム}
\label{system}本節では商品の属性値を商品説明文から抽出するシステムについて述べる.本研究で用いる情報抽出システムは,オンラインショッピングサイト上の商品データの特徴を考慮したものであるため,まず商品データの特徴について整理する.\subsection{商品データの特徴}オンラインショッピングサイト上の商品データの特徴として以下の点が挙げられる.\begin{enumerate}\item商品カテゴリ数が多い.\item一部の商品ページには表や箇条書きなどの形式で整理された属性情報が含まれている.\end{enumerate}\noindent一般にオンラインショッピングサイトの商品カテゴリ数は多く,例えば,今回分析対象とした楽天では4万以上のカテゴリが存在する.そのため,それぞれのカテゴリにおいて学習データを準備することはとてもコストの高い作業となるため現実的ではない.その一方で,一部の商品ページにおいては,図\ref{semi-structured-data}に挙げたように商品の属性情報が表や箇条書きなどを使って整理されている場合がある.これら半構造化データはショッピングサイトに出店している店舗ごとにその形式が異なるものの,いくつかのパターンを用いれば,そこから属性-属性値情報をある程度の精度で抽出することができる.例えば,Shinzatoら\cite{shinzato2013}は簡単な正規表現パターンを適用することで,ワインとシャンプーカテゴリに対して70\%程度の精度で属性-属性値辞書が構築できたと報告している.\subsection{抽出システム}タスクに内在する研究課題を明らかにするためには,少なくとも2つの方法が考えられる.1つは複数のシステムを同じデータで実行し,多くのシステムがエラーとなる事例の分析を通してタスクの研究課題を明らかにする方法である.もう1つはシステムがシンプルでどのような動きになっているかをグラスボックス的に分析できるものを実行し,その結果を基に課題を明らかにする方法である.今回の商品属性値抽出タスクは,標準的なタグ付きコーパスや属性値抽出のためのソフトウェア等が公開されているわけではないため,多くのシステムを実行させることは現実的ではない.そこで,今回のエラー分析は2つ目の方法により行った.具体的には,商品ページに含まれる半構造化データから属性-属性値辞書を自動構築し,この辞書を使った辞書マッチによって商品ページのタイトル,商品説明文,販売方法別説明文から属性値を抽出する.この辞書マッチに基づくシステムは,辞書に属性値が登録されているか否かで属性値の抽出を行うためエラーの原因の特定が容易である.このような単純なシステムのエラー分析を行うことで,このタスクに含まれるエラーのタイプおよびその割合が明らかとなり,この結果は複雑なシステムを実装する際も,その素性の設計や重みの調整などに役立つと考えられる.近年,図\ref{flow-of-ds}に示すようなDistantsupervisionに基づく情報抽出手法が多く提案されている\cite{mintz2009,wu2010,takamatsu2012,ritter2013,xu2013}.これらはFreebaseやWikipediaのInfoboxなどの人手で整備された辞書を活用してテキストデータに対し自動でアノテーションし,これを訓練データとして抽出規則を学習する.本手法でFreebaseやWikiepdiaのInfoboxを用いない理由は,これら辞書にはオンラインショッピングで有用となる商品の属性-属性値が記述されていない商品カテゴリが多く,教師データを自動構築する際の辞書データとしては利用できないためである.\begin{figure}[t]\begin{center}\includegraphics{23-1ia2f2.eps}\end{center}\caption{Distantsupervisionの流れ}\label{flow-of-ds}\end{figure}本手法は単純なものであるが,これはDistantsupervisionにおける初期タグ付きデータ作成部分に相当する(図\ref{flow-of-ds}の破線の部分).多くの手法では,この後,固有表現抽出と組み合わせたフィルタリングや,統計量を用いたフィルタリング等の処理を行ってタグ付きコーパスからFalse-positive,False-negativeを減らすように工夫している\cite{roth2013}.そのため,本研究で得られたエラー分析の結果は商品の属性値抽出のみならず,Distantsupervisionに基づく一般の情報抽出タスクにおいても,どのようなエラーについて後続のフィルタリング処理で考慮しないといけないのかを示唆する有用な知見になると考えられる.以下,属性-属性値辞書の構築方法,および辞書に基づく属性値抽出方法について述べる.\subsubsection{属性-属性値辞書の構築}\label{dictbuild}属性-属性値辞書の構築はShinzatoらの手法\cite{shinzato2013}に基づいて行った.この手法は「属性-属性値の抽出」,「同じ意味を持つ属性の集約」の2つの処理からなる.\vspace{1\Cvs}\noindent\textbf{属性-属性値の抽出}前述したように一部の商品ページには表や箇条書きなどの半構造化データが含まれており,辞書の構築にはこれらのデータを利用する.まずドメイン特有の属性を得るため,正規表現パターン$<$TH.*?$>$.+?$<$/TH$>$を使って表のヘッダーから属性を獲得する($<$TH$>$は表のヘッダーを表すHTMLタグ).獲得された属性のうち「保存方法」「その他」「商品説明」「広告文責」「特徴」「仕様」は適切な属性と見なせないため除く.続いて属性-属性値の組を抽出するため,以下の正規表現パターンを商品ページに適用し,[ANY]にマッチした表現を[ATTR]に対応する属性の値として抽出する.\newpage\begin{description}\item[P1:]$<$T(H$|$D).*?$>$[ATTR]$<$/T(H$|$D)$><$TD.*?$>$[ANY]$<$/TD$>$\item[P2:][P][ATTR][S][ANY][P]\item[P3:][P][ATTR][ANY][P]\item[P4:][ATTR][S][ANY][ATTR][S]\end{description}\noindentここで[ATTR]は事前に獲得しておいた属性を表す文字列,[ANY]は任意の文字列,[P]は○,●,◎,□,■,・,☆,★,【,<,[のいずれかの文字,[S]は:,/,】,>,]のいずれかの文字を表す.なおP4において,[ANY]は最初に出現した[ATTR]の値とする.抽出された属性-属性値の組に対して,それらを表や箇条書きなどの形式で記述した店舗の異なり数を計数する.この店舗の異なり数を以降では店舗頻度と呼ぶ.この店舗頻度が高いほど抽出された属性-属性値が正しい関係にあることが報告されており\cite{shinzato2013},次節で述べる属性値抽出システムでは,店舗頻度を用いて属性値の曖昧性解消を行っている.\vspace{1\Cvs}\noindent\textbf{同じ意味を持つ属性の集約}前述の方法で抽出した属性-属性値には属性の表記に揺れがある.これは商品データを店舗が記述するための標準的な方法(規則)がないためである.例えば,「イタリア」「フランス」はワインカテゴリにおいて「生産地」であるが,店舗$m_1$は「生産地」,店舗$m_2$は「生産国」として記述することがある.そこでShinzatoらは「属性$a,b$が同一の半構造化データに出現しておらず,$a,b$が店舗頻度の高い同一の属性値をとる場合,$a,b$は同義である」という仮説を用いて表記の揺れた属性の認識・集約を行っている.具体的には,まず,店舗頻度が$N$を超える属性-属性値を対象に,同じ属性値を持つ属性のベクトル($a_1$,$a_2$)を生成する.そして,属性$a_1$,$a_2$が同一の半構造化データに含まれているかどうかチェックし,含まれていなければそれらを同義語と見なす.$N$は$N=\mathrm{max}(2,M_S/m)$で求まる値であり,$M_S$は対象カテゴリにおいて半構造化データを提供している店舗数を表す.$m$は店舗頻度の閾値を決定するパラメータであり,本手法では経験的に100としている.この処理により,例えばワインカテゴリであれば$v_1$=(生産国,生産地),$v_2$=(ぶどう品種,品種)が得られる.得られた属性のベクトルの集合(\{$v_1,v_2,\cdots$\})を$S_{attr}$で表す.続いて,属性ベクトルの集合$S_{attr}$の中で類似度の高い属性のベクトル同士をマージする.例えば,(地域,生産国,生産地)は,(地域,生産国),(生産国,生産地)をマージすることで得られる.ベクトル間の類似度はコサイン尺度で求め,マージ処理は類似度の最大値が0.5を下回るまで繰り返し行う.この閾値0.5は経験的に決定した.\vspace{1\Cvs}\noindent以上の操作を楽天市場のワイン,シャンプー,プリンターインク,Tシャツ,キャットフードカテゴリに登録されている商品データに対して適用した.獲得された属性-属性値をカテゴリ毎に400件無作為に抽出し,正しい関係になっているかどうかを1人の被験者により評価した.獲得された属性-属性値の数,および正解率を表\ref{dicteval}に示す.Tシャツカテゴリで極端に低い精度(43.5\%)が得られたが,それ以外はShinzatoらの報告と同程度,もしくはより高い精度が達成できていることがわかる.最後にワインカテゴリに対して獲得された属性-属性値の例を表\ref{dict}に示す.括弧([~])内の数字は店舗頻度を表す.\begin{table}[b]\caption{属性-属性値の数と正解率}\label{dicteval}\input{02table02.txt}\end{table}\begin{table}[b]\caption{ワインカテゴリに登録された商品データから自動構築した属性-属性値辞書の例}\label{dict}\input{02table03.txt}\par\vspace{4pt}\small[~]内の数字は店舗頻度を表す.\end{table}\subsubsection{属性値の抽出}まず入力文を形態素解析し,属性-属性値辞書中の属性値と最長一致した形態素列を対応する属性の値として抽出する.この時,抽出された属性値からさらに別の属性値を取ることは考えない.また,誤抽出の影響を少なくするため属性値が数値のみからなる場合は抽出しなかった.形態素解析器にはJUMAN~7.01\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}を用いた.一部の表現は複数の属性の値となることがあるため抽出時に曖昧性を解消する必要がある.例えば「55cm」はTシャツカテゴリの属性「身幅」,「着丈」のどちらの値にもなりえる.本システムでは店舗頻度が高いほど自動抽出された属性-属性値の信頼性が高いことに注目し,複数の属性が考えられる場合は店舗頻度の高い属性の値として抽出した.先程の例の場合,(身幅,55cm)の店舗頻度は35,(着丈,55cm)の店舗頻度は7であるため,Tシャツカテゴリでは,表現「55cm」は「身幅」の属性値として常に抽出される.
\section{エラー分析}
\ref{corpus}節で述べたデータに対し属性値の抽出を行った時のTrue-positive/False-positive/False-negativeの事例数および精度(Prec.)と再現率(Recall)を表\ref{tpfpfn}に示す.5カテゴリ中3カテゴリでは,辞書の正解率は80\%に近かったにも関わらず,それらを用いて行った自動抽出の精度は50\%程度であることがわかる.以下では,まず,False-positive,False-negativeの事例について分析し,各エラーを除くためにどのような処理・データが必要となるかを検討する.\ref{chiken}節では,エラー分析を通して得られた知見のうち,Distantsupervisionに基づく一般の情報抽出タスクにおいても有用なものについて考える.\begin{table}[b]\caption{True-positive/False-positive/False-negativeの数および精度と再現率}\label{tpfpfn}\input{02table04.txt}\end{table}\subsection{False-positiveの分析}False-positiveとなった1,057事例について,以下の項目を順次チェックすることで分類を試みた.\begin{enumerate}\item誤った属性-属性値に基づいて属性値が抽出されている\item属性値を抽出するべき商品ページでない\item商品と関係ないパッセージから属性値が抽出されている\end{enumerate}\noindent分類の結果を表\ref{checkitems}に示す.表より誤った辞書エントリに起因する誤抽出が多いことがわかる.各チェック項目の詳細については\ref{check1}節,\ref{check2}節,\ref{check3}節で述べる.チェック項目(1),(2),(3)をパスした抽出結果は,適切な商品ページの適切なパッセージから適切な属性-属性値に基づいて抽出されたものであるにも関わらず誤抽出と判断されたものである.そこで,残った事例を調査し,何が原因なのかを検討した.この結果については\ref{check4}節で述べる.\begin{table}[t]\caption{事前チェック項目の該当事例数}\label{checkitems}\input{02table05.txt}\end{table}\subsubsection{誤った属性-属性値に基づいて属性値が抽出されている}\label{check1}属性値の抽出は商品ページの半構造化データより構築した辞書に基づいて行っている.辞書は自動構築しているため,誤った属性-属性値の組も含まれている.そこでまず,誤った属性-属性値に基づいて抽出された結果であるかどうかを確認した.この項目に該当する事例数は712であり,False-positive事例の67.4\%に相当する.自明ではあるが,高い精度で辞書を構築することが,辞書ベースの情報抽出システムにおいて重要であることがわかる.この項目に該当する事例を減らすためには辞書構築の方法を見直す必要がある.今回は表・箇条書きデータに注目して辞書を構築しているため,辞書構築の精度を改善するためには,商品ページ中のこれら半構造化データの解析をより正確に行う必要があるだろう.また,表・箇条書き以外の手がかり(例えば語彙統語パターン)を取り入れることも辞書構築の精度向上に有効であると考えられる.次に人手でチェックするなどして属性-属性値辞書に含まれる誤ったエントリを削除した場合,辞書マッチに基づく抽出システムの精度がどの程度改善されるのかについて確認する.誤った属性-属性値に基づいて抽出されてしまった事例を除いた後,再度計算したカテゴリ毎の精度を表\ref{estprec}に示す.表\ref{tpfpfn}および表\ref{estprec}を比べると,平均で精度が45.2\%から71.6\%に改善されていることがわかる.この結果から,エントリが全て正しい辞書を用いたとしても3割程度は誤抽出となることがわかる.\begin{table}[t]\caption{エントリが全て正しい辞書を用いた場合の精度}\label{estprec}\input{02table06.txt}\end{table}\subsubsection{属性値を抽出するべき商品ページでない}\label{check2}楽天では商品ページを商品カテゴリに登録する作業は店舗によって行われており,そこには誤りが含まれている.そこで誤って分析対象カテゴリに登録された商品ページかどうかを確認した.誤ったカテゴリに登録されている商品ページは今回のデータセット中に4件\footnote{シャンプーカテゴリにシャンプーの容器,化粧品,Tシャツカテゴリに帽子,キーホルダーが登録されていた.}あり,そこに含まれるFalse-positive事例数は53件(5.0\%)であった.このような誤りを除くためには,与えられた商品ページが商品カテゴリに該当するものであるかどうかを判定する処理が必要である.例えば,村上ら\cite{murakami2012}は辞書に基づく方法で商品ページが正しい商品カテゴリに登録されているかを判定する手法を提案している.このような手法を用いることで,この項目に該当する事例を減らすことができると考えられる.\subsubsection{商品と関係ないパッセージから属性値が抽出されている}\label{check3}商品ページには当該ページで販売している商品以外のことについて記述されることも多い.例えば,商品ページ閲覧者を店舗サイト内で回遊させるために,当該ページで販売されている商品以外の商品の広告を掲載していたり,検索結果に頻繁に表示されるようキーワードスタッフィングが行われている商品ページがある.そこで3番目の項目として,当該ページにて販売されている商品に関係ないパッセージから属性値抽出が行われたかどうかを確認した.結果,99件(9.4\%)の事例がこの項目に該当した.このうち90件は以下のような他の商品へのナビゲーションであった(括弧内はカテゴリ名).\begin{itemize}\itemその他の\underline{シャンパン}$_{タイプ}$&スパーク&ワイン関連はコチラをクリック♪※順次追加中!(ワイン)\item\underline{ミルボン}$_{メーカー}$一覧はこちら(シャンプー)\item色違い”\underline{ナチュラル}$_{色}$”’’THEREAREWAVESNAT’’クルーネックTシャツ(Tシャツ)\item《チャオ缶\underline{国産}$_{原産国}$》(キャットフード)\end{itemize}\noindent他の商品ページへのリンクが埋め込まれているかどうかの確認や,他の商品へのナビゲーションは複数の商品ページに対して設置されることが多いため,商品ページのテンプレートを認識した結果を利用することで,このような事例は減らせるのではないかと考えられる.残りの9件はキーワードスタッフィングが行われた領域から抽出されたものであった.前処理としてキーワードスタッフィングが行われているかどうかを判定することで,これらの事例を削除することが期待できる.\vspace{0.5\Cvs}\subsubsection{残りの誤り事例はどんなものか?}\label{check4}ここまでの項目をパスした抽出結果は,適切な商品ページの適切なパッセージから適切な属性-属性値に基づいて抽出されたものであるが誤抽出となった事例である.このような誤りは193件(18.2\%)あり,これら事例を重複を考慮して分類すると表\ref{error_type_fp}のようになった.\begin{table}[b]\caption{各商品カテゴリにおける誤りの種類とその事例数.}\label{error_type_fp}\input{02table07.txt}\end{table}以下エラータイプ毎に事例を列挙するとともに,エラーを除くために必要となる処理・データについて検討する.\vspace{1.5\Cvs}\noindent\textbf{人手アノテーションと部分一致}人手アノテーションと部分一致している事例が84件あった.このうち以下の例のように正解とみなしても問題ない事例が37件あった(太字が人手アノテーション,下線が自動抽出結果).\begin{itemize}\itemドメーヌ・レ・グリフェは{\bf\underline{ボジョレー}の南}$_{産地}$に位置する歴史あるドメーヌです。\item{\bf\underline{国内}製}$_{製造国}$ヘアケア品\item{\bf薄手の\underline{コットン素材}}$_{素材}$で着心地抜群。\item\underline{表記{\bfL}}$_{サイズ}$\end{itemize}\noindentこれらは「どのような表現を属性値として抽出するか」という属性値の定義と関係している.定義は抽出結果を利用するアプリケーションに依存する部分であり,アプリケーションによっては上に挙げた抽出結果でも問題ない場合がある.そのため,これらはFalse-positiveであるが,ほぼ正解と見なしても問題ないと考えられる.残りの47件中41件はシャンプーの成分に関するものであり,以下の例のように人手アノテーションと部分一致しているものの,これが抽出されても意味をなさないものであった.\begin{itemize}\item2−アルキル−N−カルボキシメチルヒドロキシエチルイミダゾリニウムベタイン、{\bfラウロイルメチル−Β−\underline{アラニン}$_{成分}$NA液}、ヤシ油脂肪酸アミドプロピルベタイン液\end{itemize}\noindentこのような事例は属性-属性値辞書のカバレージを改善することで減らせると考えられる.\vspace{1\Cvs}\noindent\textbf{他のエンティティの部分文字列からの抽出}次に多かった誤りは他のエンティティの部分文字列から抽出している事例であり40件あった.これらはエンティティのタイプから組織名やイベント名,型番,ブランド名などの固有表現,ドメイン固有の用語,一般的な名詞句に分類できた.固有表現の一部から抽出されていた例を示す(太字が固有表現相当の表現).\begin{itemize}\item{\bf\underline{フランス}$_{産地}$革命}の戦いの舞台にもなった歴史あるシャトー。\itemまた、フランスで最も古いAOC、{\bfブランケット・ド・\underline{リムー}}$_{産地}$を産出します。\item醸造方法も{\bfシャトー・\underline{マルゴー}$_{産地}$}と同じ手法をとって、セカンドながらも品質は他の特級シャトーに匹敵するほどです。\item2011年度の{\bfトロフィー・リヨン・\underline{ボジョレー}$_{産地}$・ヌーヴォーコンクール}では見事金賞を受賞!\item1円3個までリピート歓迎CANON(キヤノン)対応の純正互換インクカートリッジBCI−6PM(残量表示機能付)(関連商品{\bfBCI−6\underline{BK}$_{カラー}$}BCI−6CBCI−6MBCI−6YBCI−6PCBCI−6PMBCI−6RBCI−6G)\itemアメリカンイーグル(AMERICANEAGLE)は、{\bf\underline{ABERCROMBIE}$_{ブランド}$&FITCH}(アバクロンビー&フィッチ)と並んで人気のカジュアルブランドで、北米では800店舗の直営店を持っています。\item{\bf\underline{ブラック}$_{色}$メタル}ページ正規ライセンスTシャツ販売\end{itemize}\noindentこのような事例は全部で25件あり,前処理として固有表現認識を行い,固有表現の一部からは属性値を抽出しない,等のルールを適用することで事例を減らすことができると考えられる.ただ,ブランド名等は従来の固有表現タイプではカバーされていないため,従来にはないタイプの固有表現の認識技術が求められる.次にドメイン固有の用語から抽出していた例を示す.\begin{itemize}\item{\bf\underline{ボジョレー}$_{産地}$・ヌーヴォー}2013年(新酒)!\itemパーマ・デジパー(デジタルパーマ)・縮毛矯正ストレートパーマエアウエーブ・{\bf\underline{水}$_{成分}$パーマ}・フィルムパーマなどパーマのウエーブを長持ちさせたい方に。\end{itemize}\noindentこのような例は全部で12件であった.固有表現の場合と同様に,ドメイン毎に専門性の高い用語を抽出するなどし,用語の部分文字列からは属性値を抽出しないなどのルールを設ける必要があると考えられる.最後に名詞句の一部から抽出されていた事例を示す.このような事例は以下の3件であった.\begin{itemize}\item2位にルイ・ロデレール・ブリュット、7位にテタンジュ・ブリュットなど大手の{\bf\underline{シャンパン}$_{タイプ}$ハウス}も名を連ねています。\itemジョエル・ファルメ氏が引き継いだころは、栽培した葡萄を{\bf\underline{シャンパン}$_{タイプ}$メーカー}に売っていましたが、現在は、葡萄の栽培・醸造・瓶詰めまで行うRM(レコルタン・マニピュラン)です。\item{\bf\underline{アメリカ}$_{製造国}$各種機関}で厳しい環境基準をクリアした分解作用で汚れだけを分解してくれるから髪や頭皮を傷めません。\end{itemize}\noindentこれらを除くためには名詞句の構造を解析し,主辞以外の部分からは属性値を抽出しない,等の処理が考えられる.\vspace{1\Cvs}\noindent\textbf{当該商品の属性値の説明とは関係ない記述からの抽出}このような事例は37件あった.以下に例を示す.\begin{itemize}\item\underline{スペイン}$_{産地}$のロマネ・コンティで知られるヴェガ・シシリア社がハンガリーで造るワイン。\item米国ではアメリカンイーグル、アバクロ、\underline{GAP}$_{ブランド}$(ギャップ)は3大アメカジブランドとして、3つとも同じくらいの知名度となっています。\itemM,Lモデル着用サイズ:M(モデル身長:170CM,体重:58KG,ウエスト:72CM,ヒップ:90CM,胸囲:88CM,肩幅:\underline{44CM}$_{肩幅}$,首周り:37CM)\item成猫体重\underline{1KG}$_{内容量}$当り1日約1.4袋を目安として、1日の給与量を2回以上に分けて与えてください。\itemレビューで\underline{5%}$_{粗脂肪}$OFFクーポン!\end{itemize}\noindent上の例からわかるように,ワインはワイナリーに関する記述から,Tシャツはブランドの説明およびモデルの体型に関する記述から,キャットフードはその利用方法やクーポンに関する記述から誤った情報が抽出されている.このような誤抽出を除くためには,商品ページ内の各文が何について言及しているのかといった文中の主題を認識する必要がある.\vspace{1\Cvs}\noindent\textbf{属性値の多義性に起因する誤抽出}このような事例は33件あった.この中で最も多かったタイプはサイズに関する属性値であり,16件であった.以下に例を示す.\begin{itemize}\item着丈59CM、身幅\underline{42CM}$_{肩幅}$、袖幅17CM\item\underline{54.5CM}$_{身幅}$\end{itemize}\noindent1つ目の例のように,サイズに関する情報は属性名とともに属性値が記述されることがあるため,属性名に相当する表現と属性値がどのくらい離れた場所に記述されているか,という指標を考慮することで誤りを減らせる可能性がある.2つ目の例は表のセルに記述されたものであった.そのため,表形式で記述されたデータの理解も重要な処理と考えられる.次に多かったタイプは割合に関する表現であった.このタイプの事例は9件であった.以下にその例を示す.\begin{itemize}\itemピノノワール70%、ピノムニエ\underline{20%}$_{度数}$、シャルドネ10%\item粗たん白質:\underline{4.0%以上}$_{粗脂肪}$、粗脂肪:0.1%以上、粗繊維:0.1%以下、粗灰分:1.0%以下、水分:94.0%以下、エネルギー:約15KCAL/袋\item\underline{0.05%以上}$_{粗脂肪}$\end{itemize}\noindent1つ目の例のように混合比が素材と一緒に併記されることがある.そのため,素材に相当する表現の間に挟まれる割合表現を抽出対象としないことでエラーを減らせると考えられる.サイズ同様,割合についても2つ目の例のように属性名にあたる表現と併記されることがあるため,属性名との距離を考慮することである程度事例数を減らすことが期待できる.また割合も表形式のデータで記述されることがあるため,表データの理解は重要であろう.以下は本来であれば,ワインの属性「タイプ」の値として抽出されるべきであるが,地名として抽出されてしまった例である.\begin{itemize}\itemNYタイムズで、ベスト\underline{シャンパーニュ}$_{産地}$(40ドル以下)に選ばれました。\itemモエ・シャンドン・ドンペリニヨンの最高級品、通称「ドンペリ・ゴールド」最高の葡萄を熟成させ生産量が極めて少なく本場フランスと日本でしか手に入れることのできない究極の「幻の\underline{シャンパーニュ}$_{産地}$」と呼ばれています。\end{itemize}\noindentこのような地名に関係した誤りは3件あり,サイズ,割合表現についで多かった.最初の例は「40ドル以下」,次の例は「幻の」や「フランスと日本でしか手に入れることのできない」という表現から「シャンパーニュ」が「地名」ではなく「タイプ」の意味で使われていることがわかる.このことから,属性値の周辺の語彙を見ることで多義性解消を行う従来手法で解決できそうである.しかし従来手法は機械学習に基づくものが多く,教師データを曖昧性のある属性値ごとに作成するのは膨大なコストがかかる.そのため,教師なし学習に基づく解消方法が求められる.\vspace{1\Cvs}\noindent\textbf{メトニミーに起因する誤抽出}このタイプに該当する事例は5件あり,すべて「ボジョレー」に関するものであった.以下に例を示す.\begin{itemize}\item本物の\underline{ボジョレー}$_{産地}$の味わいを感じさせてくれる、自然派!\item\underline{ボジョレー}$_{産地}$に求める要素をすべて備えていると言っても過言ではありません。\end{itemize}\noindent「ボジョレー」はワインの産地の1つであるが,ここでは産地としてではなく,「ボジョレー産のワイン」という意味で用いられている.上の例は「の味わい」という表現に注目することで「産地」でないことがわかる.その一方で下の例は文単体では「産地」という理解も可能である.しかしながら,当該文の直前の文が「彼らのスタイルは飲み心地が良く、フルーティで果実味が豊か。」であることを考えると「産地」ではないことがわかる.このタイプのエラー事例を減らすには,ある表現がメトニミーなのかどうかを判定する処理が必要であり,さらに2つ目の例のように一文中の情報では判定できない事例もあるため,文を跨いだ解析が求められる.\vspace{1\Cvs}\noindent\textbf{形態素解析器の過分割による誤抽出}形態素解析器により過分割されたために誤って抽出された事例が1件あった.以下に示す.\begin{itemize}\itemトカイ・フルミント・ドライ・マン\underline{デュラス}$_{品種}$[2006](オレムス)\end{itemize}\noindentマンデュラス(mandulas)とはハンガリー語でアーモンドを意味する語である.形態素解析器の辞書にマンデュラスが登録されていなかったため,過分割されてしまい誤った属性値が抽出されていた.しかしながら,マンデュラスのような語が形態素解析器の辞書にあらかじめ登録されていることは期待できないため,あるドメインに関するテキスト集合から自動的に語彙を獲得し,形態素解析器の辞書を動的に拡充する手法(例えば,村脇らの手法\cite{murawaki2010})が必要であると考えられる.\vspace{1\Cvs}\noindent\textbf{商品ページ内の誤った情報からの抽出}誤った情報が商品ページに記述されており,そこから誤った属性値が抽出されている事例が1件あった.以下に示す.\begin{itemize}\itemアリミノミントシャンプーフローズンクール\underline{220ML}$_{容量}$\end{itemize}\noindent商品タイトルには1000mlと記述されており,商品画像も1000mlのものであったことから220mlは誤りであることがわかった.このように抽出元となるテキストの信頼度や,画像データなどのテキスト以外の情報を考慮することも精度の向上に必要である.\subsection{False-negativeの分析}False-negativeに該当する事例は全部で831件あった.分析にあたり,まず,キャットフードカテゴリについては全18件,キャットフード以外のカテゴリからは無作為に50件ずつ選び出した.そして,以下の条件のいずれかに一致する事例を削除して残った188件について分析を行った.\begin{itemize}\item誤ったカテゴリに登録された商品ページ.\item人手アノテーションと部分一致し,かつ正解と見なしても問題ないもの.\end{itemize}\noindent分析の結果,False-negative事例は(1)異表記すら辞書に含まれていない,(2)異表記は辞書に含まれている,(3)抽出手法の問題の3種類に分類できた.本節では各タイプについて述べる.\subsubsection{異表記すら辞書に含まれていない}\label{notContainedSpellingVariation}当該表現だけでなく,その異表記すら辞書に含まれていない事例が100件(53.2\%)あった.表\ref{fn_type}に異表記が辞書に含まれていない属性値のタイプと例を示す.組織名,地名,割合表現,人名など既存の固有表現のタイプが見てとれる.そのため,固有表現のタイプと属性の間に変換ルールを設けることで,辞書に含まれていない属性値についても固有表現認識技術を用いることで抽出できる可能性がある.しかしながら,この操作によってFalse-positiveの数が増えてしまう可能性があることに留意する必要がある.\begin{table}[b]\caption{異表記すら辞書に含まれていない属性値の例}\label{fn_type}\input{02table08.txt}\end{table}\subsubsection{異表記は辞書に含まれている}\label{containedSpellingVariation}属性値自身は辞書に含まれていないが,その異表記が辞書に含まれている事例は69件(36.7\%)あった.異表記のタイプ,各タイプの数および例を表\ref{variation}に示す.空白,中黒,ハイフンの有無や入れ替わり,長音とハイフンの入れ替わり,接辞の有無,翻字の違い,小数点の扱い,送り仮名の有無など,テキスト中と辞書中の表現の柔軟なマッチングを行うことで改善できる事例が多いことがわかる.その一方で,略語,翻訳,言い換えなど事前の知識獲得処理を必要とする事例も見られる.\begin{table}[b]\caption{テキスト中の表現と辞書エントリの表記の違い}\label{variation}\input{02table09.txt}\end{table}\subsubsection{抽出手法の問題}辞書に正しい属性-属性値の組が登録されているにも関わらず\ref{system}節で述べた手法の問題により抽出されなかった事例が19件(10.1\%)あった.この中で最も多かったタイプは数値単体からなる属性値であった(13件).誤抽出の影響を減らすため数値のみの属性値は抽出しないようにしたことが原因である.数値に関する抽出手法を洗練することで,このタイプの誤りは減らせると考えられる.残り6件のうち3件は,辞書エントリとテキストの最長一致による属性値抽出方法が問題となっていた.具体的には,正解の属性値(例えば,(メーカー,デミコスメティクス))よりも文字列長の長い誤った属性値(例えば,(メーカー,日華化学株式会社デミコスメティクス))が先に抽出されてしまい,正しい属性値が抽出されなくなっていた.文字列長だけではなく,属性-属性値としての正しさも考慮に入れて抽出を行うことで改善できる可能性がある.残りの3件は属性値に多義性がある場合であった.属性値抽出を行う際,店舗頻度をもとに多義性解消を行っているが,この処理が誤っていた.そのため,店舗頻度だけでなく,前後の文脈を考慮するなどして多義性解消を行う必要があると考えられる.\subsection{Distantsupervisionに基づく一般の情報抽出タスクに対して有用な知見}\label{chiken}一般にDistantsupervisionに基づく情報抽出手法では,FreebaseやWikipediaのInfoboxなどの人手で整備された辞書に登録されているエンティティ(もしくはエンティティの組)がテキストに出現している際,エンティティに紐づいている辞書内の情報(例えば,エンティティのタイプやエンティティ間の関係)を当該テキストに付与することで教師データを自動的に作成する.例えばDistantsupervisionの考え方を一般的な関係抽出タスクに初めて用いたMintzら\cite{mintz2009}の手法では,まず固有表現抽出器をテキストに対して適用し,任意の文$s$に固有表現$e_1$,$e_2$が含まれ,かつFreebaseに$<e_1,e_2,r>$というレコードが登録されている時,文$s$を関係$r$の学習データとして利用する.Distantsupervisionに基づく方法で教師データを作成する際,エンティティの誤認識が問題となる.どのような誤認識のタイプがあるのか,という点で4.1.4節で述べた以下のエラーカテゴリはDistantsupervisionに基づく一般の情報抽出においても有用な知見になると考えられる.\begin{itemize}\item他のエンティティの部分文字列からの抽出\item形態素解析器の過分割による誤抽出\item属性値の多義性に起因する誤抽出\itemメトニミーに起因する誤抽出\end{itemize}\noindent「他のエンティティの部分文字列からの抽出」に関しては,固有表現の認識を事前に行うことで,ある程度の誤認識は減らせるかもしれない.しかしながら,4.1.4節で述べたように,従来の固有表現抽出で定義されたタイプ以外の表現の認識も求められることから,依然としてこの問題点は考慮する必要がある.「形態素解析器の過分割による誤抽出」についても,固有表現の認識に失敗する可能性があるため,タグ付け対象となるテキストのドメインに特化した表現の自動獲得手法が求められる.関係抽出では「文に2つのエンティティが含まれている」という条件が各エンティティの多義性解消の手がかりになると考えられるが,この条件だけで全ての多義性を解消できるとは考えにくい.また,固有表現抽出のような1つエンティティを対象としたタスクの場合は上述の条件が適用できない.そのため,「エンティティがどの意味で用いられているのか」を認識することが一般の情報抽出においても重要である.このことから,「属性値の多義性に起因する誤抽出」および「メトニミーに起因する誤抽出」で列挙した事例については,商品属性値抽出タスクに限らず,一般の情報抽出においても考慮する必要があるだろう.エンティティの誤認識以外には,エンティティが出現しているにも関わらず認識されないFalse-negativeの問題がある.この問題のうち,異表記が辞書に含まれているエンティティについては\ref{containedSpellingVariation}節で得られた結果が役立つと考えられる.この結果は,辞書中とテキスト中の表現のマッチングを行う際,どのような「ずれ」について考慮しなければならないか,を検討する1つの知見になりえる.
\section{おわりに}
本稿では商品の属性値抽出タスクにおけるエラー分析のひとつの事例研究について述べた.まず,楽天市場のワイン,シャンプー,プリンターインク,Tシャツ,キャットフードカテゴリに登録された商品データ100件に対して,人手で属性値のアノテーションを行った.次に属性-属性値辞書に基づく情報抽出システムを実装し,このシステムを属性値がアノテーションされた商品データに対して適用した.その結果明らかとなるFalse-positive,False-negtive事例を調査し,各事例をそのエラーのタイプに応じて分類した.こうすることで,商品属性値抽出タスクに内在する研究課題を洗い出し,抽出システムを構築する上でどのような点を考慮するべきか,またどのような点に注力するべきかという部分を明らかにした.本研究で行ったエラー分析の結果,より高い精度で属性値を抽出するためには,以下の処理・データが必要になることがわかった.\begin{itemize}\item質とカバレージの高い属性-属性値辞書\item適切でない商品カテゴリに登録されている商品ページの検出\item商品ページで販売されている商品と関係のあるパッセージの同定\itemブランド名や商品名といったオンラインショッピングに特化した固有表現の認識\item商品説明文中の主題の認識\item属性値を抽出する際の多義性解消技術\itemメトニミーの認識\item商品説明文中に含まれる表形式データの解釈\item知識獲得(新規辞書エントリの獲得,辞書エントリの同義語獲得,形態素解析辞書の動的な拡張)\item辞書エントリとテキスト中の表現の柔軟なマッチング\end{itemize}\noindentエラー分析に用いた属性値抽出システムは,Distantsupervisionにおけるタグ付きデータ作成方法と見なせる.そのため,今後は本稿で挙げた問題点を考慮した高品質なタグ付きコーパス作成方法を実装し,それを基にした機械学習ベースの属性値抽出システムの開発を考えている.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bing,Wong,\BBA\Lam}{Binget~al.}{2012}]{bing2012}Bing,L.,Wong,T.-L.,\BBA\Lam,W.\BBOP2012\BBCP.\newblock\BBOQUnsupervisedExtractionofPopularProductAttributesfromWebSites.\BBCQ\\newblockIn{\BemProceedingsofthe8thAsiaInformationRetrievalSocietiesConference},\mbox{\BPGS\437--446}.\bibitem[\protect\BCAY{Ghani,Probst,Liu,Krema,\BBA\Fano}{Ghaniet~al.}{2006}]{ghani2006}Ghani,R.,Probst,K.,Liu,Y.,Krema,M.,\BBA\Fano,A.\BBOP2006\BBCP.\newblock\BBOQTextMiningforProductAttributeExtraction.\BBCQ\\newblock{\BemACMSIGKDDExplorationsNewsletter},{\Bbf8}(1),\mbox{\BPGS\41--48}.\bibitem[\protect\BCAY{Mauge,Rohanimanesh,\BBA\Ruvini}{Maugeet~al.}{2012}]{mauge2012}Mauge,K.,Rohanimanesh,K.,\BBA\Ruvini,J.-D.\BBOP2012\BBCP.\newblock\BBOQStructuringE-CommerceInventory.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\805--814}.\bibitem[\protect\BCAY{Mintz,Bills,Snow,\BBA\Jurafsky}{Mintzet~al.}{2009}]{mintz2009}Mintz,M.,Bills,S.,Snow,R.,\BBA\Jurafsky,D.\BBOP2009\BBCP.\newblock\BBOQDistantSupervisionforRelationExtractionwithoutLabeledData.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\1003--1011}.\bibitem[\protect\BCAY{村上\JBA関根}{村上\JBA関根}{2012}]{murakami2012}村上浩司\JBA関根聡\BBOP2012\BBCP.\newblockカテゴリに強く関連する語の発見と商品データクリーニングへの適用.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\195--198}.\bibitem[\protect\BCAY{村脇\JBA黒橋}{村脇\JBA黒橋}{2010}]{murawaki2010}村脇有吾\JBA黒橋禎夫\BBOP2010\BBCP.\newblock形態論的制約を用いたオンライン未知語獲得.\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\55--75}.\bibitem[\protect\BCAY{Probst,Ghani,Krema,Fano,\BBA\Liu}{Probstet~al.}{2007}]{probst2007}Probst,K.,Ghani,R.,Krema,M.,Fano,A.,\BBA\Liu,Y.\BBOP2007\BBCP.\newblock\BBOQSemi-supervisedLearningofAttribute-valuePairsfromProductDescriptions.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalJointConferenceinArtificialIntelligence},\mbox{\BPGS\2838--2843}.\bibitem[\protect\BCAY{Putthividhya\BBA\Hu}{Putthividhya\BBA\Hu}{2011}]{putthividhya2011}Putthividhya,D.\BBACOMMA\\BBA\Hu,J.\BBOP2011\BBCP.\newblock\BBOQBootstrappedNamedEntityRecognitionforProductAttributeExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1557--1567}.\bibitem[\protect\BCAY{Ritter,Zettlemoyer,Mausam,\BBA\Etzioni}{Ritteret~al.}{2013}]{ritter2013}Ritter,A.,Zettlemoyer,L.,Mausam,\BBA\Etzioni,O.\BBOP2013\BBCP.\newblock\BBOQModelingMissingDatainDistantSupervisionforInformationExtraction.\BBCQ\\newblockIn{\BemTransactionsoftheAssociationofComputationalLinguistics--Volume1},\mbox{\BPGS\367--378}.\bibitem[\protect\BCAY{Roth,Barth,Wiegand,\BBA\Klakow}{Rothet~al.}{2013}]{roth2013}Roth,B.,Barth,T.,Wiegand,M.,\BBA\Klakow,D.\BBOP2013\BBCP.\newblock\BBOQASurveyofNoiseReductionMethodsforDistantSupervision.\BBCQ\\newblockIn{\BemProceedingsofthe2013WorkshoponAutomatedKnowledgeBaseConstruction},\mbox{\BPGS\73--78}.\bibitem[\protect\BCAY{Shinzato\BBA\Sekine}{Shinzato\BBA\Sekine}{2013}]{shinzato2013}Shinzato,K.\BBACOMMA\\BBA\Sekine,S.\BBOP2013\BBCP.\newblock\BBOQUnsupervisedExtractionofAttributesandTheirValuesfromProductDescription.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1339--1347}.\bibitem[\protect\BCAY{Takamatsu,Sato,\BBA\Nakagawa}{Takamatsuet~al.}{2012}]{takamatsu2012}Takamatsu,S.,Sato,I.,\BBA\Nakagawa,H.\BBOP2012\BBCP.\newblock\BBOQReducingWrongLabelsinDistantSupervisionforRelationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\721--729}.\bibitem[\protect\BCAY{Wong,Wong,\BBA\Lam}{Wonget~al.}{2008}]{wong2008}Wong,T.-L.,Wong,T.-S.,\BBA\Lam,W.\BBOP2008\BBCP.\newblock\BBOQAnUnsupervisedApproachforProductRecordNormalizationacrossDifferentWebSites.\BBCQ\\newblockIn{\BemProceedingsofthe23rdAAAIConferenceonArtificialIntelligence},\mbox{\BPGS\1249--1254}.\bibitem[\protect\BCAY{Wu\BBA\Weld}{Wu\BBA\Weld}{2010}]{wu2010}Wu,F.\BBACOMMA\\BBA\Weld,D.~S.\BBOP2010\BBCP.\newblock\BBOQOpenInformationExtractionUsingWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\118--127}.\bibitem[\protect\BCAY{Xu,Hoffmann,Zhao,\BBA\Grishman}{Xuet~al.}{2013}]{xu2013}Xu,W.,Hoffmann,R.,Zhao,L.,\BBA\Grishman,R.\BBOP2013\BBCP.\newblock\BBOQFillingKnowledgeBaseGapsforDistantSupervisionofRelationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\665--670}.\end{thebibliography}\begin{biography}\bioauthor{新里圭司}{2006年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(情報科学).京都大学大学院情報学研究科特任助教,特定研究員を経て,2011年から楽天技術研究所.自然言語処理,特に,知識獲得,情報抽出,評判分析の研究に従事.}\bioauthor{関根聡}{NewYorkUniversity,AssociateResearchProfessor.1998年NYUPh.D..松下電器産業,UniversityofManchester,ソニーCSL,MSR,楽天技術研究所ニューヨークなどでの研究職を歴任.ランゲージ・クラフト代表.専門は自然言語処理,特に情報抽出,固有表現抽出,質問応答の研究に従事.}\bioauthor{村上浩司}{2004年北海道大学大学院工学研究科博士課程単位取得退学.ニューヨーク大学コンピュータサイエンス学科,東京工業大学統合研究院,奈良先端科学技術大学院大学情報科学研究科を経て2010年より楽天技術研究所ニューヨークに所属.博士(工学).自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V06N02-04
|
\section{はじめに}
日本語テキスト音声合成は,漢字かな交じりの日本語テキストに対して,読み,アクセント(韻律上の基本単位であるアクセント句の設定とそのアクセント型付与),ポーズ等の読み韻律情報\footnote{本論文では,読みと,アクセントやポーズなどの韻律情報をまとめて読み韻律情報とよぶ.}を設定し,これらを元に音声波形を生成して合成音声を出力する.自然で聞きやすい合成音声を出力するためには,この読み韻律情報を正しく設定する必要がある.読みは,形態素解析により認定された単語の読みにより得られるため,形態素解析の精度が読みの精度に直結する.ただし,数量表現の読み(例:11本→ジューイ\underline{ッポ}ン:\mbox{下線部分=読み}が変化)と連濁化(例:子供+部屋→コドモ\underline{ベ}ヤ:\mbox{下線部分=連濁)については,すべてを単語}として辞書登録するのは困難であるため,規則により読みを付与する.数量表現の読みについては\cite{Miyazaki4},連濁化については\cite{Sato}等により,その手法がほぼ確立されている.アクセント句のアクセント型設定については,\cite{Sagisaka}の付属語アクセント結合規則,複合単語(自立語)のアクセント結合規則,文節間アクセント結合規則により,その手法がほぼ確立されている.アクセント句境界とポーズの設定については,従来から多くの手法が提案されている.ヒューリスティックスベースの手法としては,係り受けの構造を利用する\cite{Hakoda1},右枝分かれ境界等の統語情報を用いる\cite{Kawai}等がある.また,統計的手法によるポーズの設定としては,係り受け情報を利用した手法\cite{Kaiki}が提案されている.しかしこれらは,係り受けなどの言語的情報が既知であることを前提としており,これらの言語的情報の取得が課題となる.一方,\cite{Suzuki}ではN文節の品詞情報を用いて局所的な係り受け構造を推定し,また\cite{Fujio}では,品詞列を入力として確率文脈自由文法を用いて係り受けを学習し,アクセント句境界や韻律句境界,ポーズの設定を行う.しかし\cite{Suzuki}は,文節内の処理については言及しておらず,また,\cite{Fujio}では文節内での設定において,文節内構造の予測誤りによる精度の低下が問題点として挙げられている.我々は,\cite{Miyazaki1}の方式をベースとし,多段解析法による形態素解析を用いて得られた単語情報を利用して規則により読み韻律情報を設定し,\cite{Hakoda2}の音声合成部を用いて合成音声を出力する日本語テキスト音声合成システムAUDIOTEXを開発した.このAUDIOTEXには,現在,数多く開発されている音声合成システムと比較して以下の2つの特徴がある.\begin{itemize}\item単語辞書の登録単語数が多いため,形態素解析における未知語認定が少ない.\\(AUDIOTEX:約37万語,市販の主な音声合成システム:10〜14万語)\item単語辞書において,特に名詞と接辞は,他のシステムにはない意味カテゴリ等の意味情報をもち,これらの意味情報を用いた複合語の意味的係り受け解析により,複合語の構造を高精度に解析できるため,複合語の多用されるニュース文などに対しても,正しく読み韻律情報が設定できる.\end{itemize}本論文では,AUDIOTEXにおける読み韻律情報の設定,特に\cite{Miyazaki1}からの主な改良点として,形態素解析における読み韻律情報付与に対応した長単位認定,アクセント句境界設定における複数文節アクセント句の設定,ポーズ設定における多段階設定法の導入について述べ,さらに,これらの処理で用いる単語辞書の構成について説明する.この読み韻律情報の設定においては,文節間の係り受け解析は行わず,多段解析法の形態素解析により得られる複合語内意味的係り受け情報,品詞等の単語情報のみを用いる.文節間の係り受け解析を行わないのは,現状,係り受け解析の精度が十分でなく,コストがかかり,また,文節間係り受けの影響を大きく受けるポーズ設定においては,アクセント句境界前後の品詞情報等から得られるアクセント句結合力を導入することにより,実用上十分な精度が得られるためである.さらに,文節内の構造に対しては,複合語意味的係り受け情報を用いることにより,その局所構造を元に適切にポーズを設定できる.以下,\ref{sec:TTS-flow}節ではテキスト音声合成処理の流れ,\mbox{\ref{sec:morph}節では形態素解析における読み韻律情報設定}のための特徴,\ref{sec:dic}節では読み韻律情報設定のための単語辞書の情報,\ref{sec:assign}節では読み韻律情報の設定方法,\ref{sec:evaluation}節では読み韻律情報設定に対する評価と考察,\ref{sec:conclusion}節ではまとめを述べる.
\section{テキスト音声合成の流れ}
label{sec:TTS-flow}テキスト音声合成の一般的な流れを図\ref{fig:system}の左側に示す.漢字かな交じりの日本語テキストを入力し,テキスト解析部において,言語的な解析\footnote{形態素解析,構文解析,意味解析等.一般に,現状,構文解析や意味解析を高精度で行うことは困難であるため,形態素解析のみ,あるいは形態素解析と局所的な係り受け解析が行われる場合が多い.}を行い,その情報を利用して読み韻律情報を生成する.そして音声合成部では,読み韻律情報を用いてピッチや時間長データを設定して音声波形を生成し,合成音声を出力する.\begin{figure*}[tb]\begin{center}\epsfile{file=system.eps}\end{center}\caption{テキスト音声合成処理の流れ}\label{fig:system}\end{figure*}次にAUDIOTEXにおける読み韻律情報,テキスト解析部,音声合成部の概略を述べる.AUDIOTEXでは,読み韻律情報として,アクセント句単位に読み,アクセント型,音調結合型を指定するアクセント付カナ文を用いる.このアクセント付カナ文は,ピッチパタンを話調成分\footnote{ポーズで区切られる単位(呼気段落)ごとに設定される.}の上にアクセント成分\footnote{アクセント句ごとに設定される.}が重畳したものとして表し,アクセント句の間(アクセント句境界)に音調結合という概念を導入して,アクセント句成分の相対的な大きさやポーズ挿入の現象を統一的にモデル化する韻律制御モデル\cite{Hakoda1}に基づいている.ここで音調結合型は,話調成分,アクセント成分,ポーズの関係により分けられ,本論文では,表\ref{tab:oncyo}に示す6種類を用いる.また,読み上げ速度としては,通常,ニュースなどが読み上げられる速度を想定しており\footnote{ポーズ区間を除いた平均速度6.4モーラ/秒を基準の\mbox{速度としている.読み上げ速度の変更は可能であるが,読み韻律情}報が読み上げ速度により変化することはない.},この速度を基準として読み韻律情報を設定する.\begin{table}[thb]\caption{音調結合型}\label{tab:oncyo}\begin{center}\begin{tabular}{l|l|l|l|l}\hline名称&表記&ポーズ&話調成分&直後アクセント成分\\\hline強結合&$\ast$&なし&同一&抑圧\\弱結合&/&なし&同一&抑圧なし\\小ポーズ&$\sqcup$(スペース)&小ポーズ(300msec)&再設定&-\\中ポーズ&,&中ポーズ(500msec)&再設定&-\\大ポーズ&.&大ポーズ(700msec)&再設定&-\\疑問調\footnotemark&?&大ポーズ(700msec)&再設定&-\\\hline\end{tabular}\end{center}\end{table}\footnotetext{直前アクセント句末尾のピッチを上げる.}テキスト解析部は図\ref{fig:system}の右側に示す5部により構成される.\begin{description}\item[形態素解析]文を単語に分割し,品詞や読み等の単語情報を付与する.この単語情報は,読み韻律情報を設定するために必要な多くの情報を備えている.この形態素解析で利用する単語辞書には約37万語が登録されている.詳しくは,\ref{sec:morph}節,\ref{sec:dic}節で述べる.\item[テキスト書き換え]入力テキストが,そのまま音声化するのに不適当な表現や形式である場合,それを音声化に適した表現に書き換える.書き換え内容は入力テキストの形式やドメインに依存する.例えば,新聞記事では漢語表現や文末表現の書き換え(例:``今秋''→``今年の秋'',``〜の予定。''→``〜の予定です。'')が必要であり,また,電子メールでは,読み上げ対象とならない引用記号やsignatureの削除などが必要である.現在,新聞記事用\cite{Matsuoka},電子メール用の2種類のテキスト書き換えを備えているが,本論文ではこの詳細については省略する.\item[読み付与]数量表現の読み付与,連濁化を規則により行う.その他の読みは,形態素解析で得られる各単語の読みを用いる.\item[アクセント付与]複合語意味的係り受け情報等を用いて,韻律上の基本単位であるアクセント句を設定する.また,単語固有のアクセント型,単語のアクセント的性質を用いたアクセント結合規則により,アクセント句のアクセント型を付与する.詳しくは,\ref{subs:accent}節で述べる.\item[音調結合型付与]時間表現,数量表現や同格表現(例えば役職名+人名)など,独立に扱うことができ,その構造が複合語内意味的係り受け情報より得られる局所構造内のアクセント句境界,および,句読点の直後など品詞情報から容易に意味的,構文的な切れ目であることを推定できるアクセント句境界を対象として,その局所構造に基づき音調結合型を設定した後,残りのアクセント句境界に対して,アクセント句結合力を用いて音調結合型を設定する,段階的な音調結合型設定法(多段階設定法)に基づき,音調結合型を付与する.詳しくは,\ref{subs:pause}節で述べる.\end{description}音声合成部は,波形編集方式の音声合成ソフトウェアFLUET\cite{Hakoda2}の音声合成部を利用しており,アクセント付カナ文を音素記号列に変換する韻律パラメータ生成部,音素片ファイルから隣接する音素環境が一致する音素片データを選択する音素片選択部,選択した音素片データを結合し,規則で設定されたピッチ,時間長データに基づいて波形データを加工する音素片接続部からなる.また,AUDIOTEXはCでコーディングされており(音声合成部はC++ライブラリ),UNIXおよびWindows上で動作する.
\section{形態素解析における読み韻律情報設定のための特徴}
label{sec:morph}形態素解析は,\cite{Miyazaki1}の多段解析法による形態素解析を,より高精度な読み韻律情報設定を行うために拡張して利用している.多段解析法は,文字種の違いに着目して仮に設定した範囲内(仮文節)であらゆる単語の組合わせを検定する局所総当たり法をベースとし,構文や意味の情報が有効となる複合語解析や同型語判別などには,部分的に深く解析する.辞書としては,各単語の情報を記述した単語辞書と,文法的接続情報を記述した接続辞書を用いる.以下,読み韻律情報設定のための形態素解析という観点から,その特徴を詳しく説明する.ここで,連語の認定と用言語幹語尾の一語化は,\cite{Miyazaki1}より新たに拡張した項目であり,共に長単位認定を行うための手法である.\begin{figure}[tb]\begin{center}\epsfile{file=kakari.eps}\end{center}\caption{複合語内意味的係り受け例}\label{fig:kakari}\end{figure}\begin{description}\item[複合語内意味的係り受け情報]複合語を構成する単語間の意味的結合関係を係り受けによって解析する\cite{Miyazaki2}.係り受け解析では,数詞,固有名詞,接辞,用言性名詞,非用言性名詞など14種の係り受け規則を用いる.例として``前平成株式会社社長山田太郎氏51才''に対する複合語内意味的係り受けを図\ref{fig:kakari}に示す.この意味的係り受け情報は,アクセント句境界,音調結合型の設定に利用する.\item[連語の認定]単語の認定精度の向上は,読み韻律情報の精度向上に直結する.そこで,認定\mbox{精度が比較的低かった,補助用言(例:``話している''の``いる'')や}格助詞相当語(例:``彼について''の``について'')の認定精度を向上させるために,「助詞+補助用言」(例:``て+いる'')や格助詞相当語(例:``に+つい+て'')を連語として登録し,認定することとした.しかし,これらの連語内でアクセント句が分割される場合等があるため(例:彼{\dgに}/{\dgついて}\footnote{/はアクセント句境界を表す.以降でも同様に記述する.また,この例における太字は,1つの連語であることを示す.}),アクセント,音調結合型設定時に,連語すべてを1単語として扱うのは問題がある.そこで,形態素解析では,連語として1語で認定する単語を,連語を構成する各構成単語に分解できる機能を設けた.詳しくは,\ref{sec:dic}節で述べる.\item[用言語幹語尾の一語化]規則的な活用を行う用言は,単語辞書では,不変化部分(例:似)と変化部分(例:る,れ,ろ)に分離し,それぞれを1単語として登録している.また,サ変名詞(運動)が,サ変動詞(運動する)の一部を構成する場合があるが,単語辞書上は,サ変動詞型名詞(運動)とサ変動詞活用形(する)のみを登録し,語幹語尾をまとめた単語(運動する)としては登録していない.アクセント句結合力に基づく音調結合型の設定においては,アクセント句境界前後の単語の品詞情報が重要となる.しかし,辞書の登録単位である短単位での単語認定では,例えば``グランドで/運動する''のアクセント句境界の直後単語をサ変名詞(運動)として扱い,その結果,音調結合型の設定を誤るという問題があった.そこで,単語認定後,「用言不変化部分+変化部分」,「用言性名詞+活用語尾」を一語に統合することにした.これにより,例えば``運動する''を1語のサ変動詞として扱うことになる.\end{description}\vspace{3mm}
\section{読み韻律情報設定のための単語辞書情報}
label{sec:dic}一般に単語辞書は,形態素解析において単語を認定するための情報をもつが,AUDIOTEXの単語辞書では,読み韻律情報を設定するための様々な情報も保持している.本節では,読み韻律情報の設定に関連がある単語辞書情報について述べる.\vspace{3mm}\subsection{長単位語への対応}\label{subs:cho}単語辞書に登録する単語の単位は,原則的には語基や接辞などの短単位語であり,複合語などの長単位語は,短単位語の組み合わせとみなす.ただし,次に示す語は,以下の理由により例外的に長単位で登録している.\begin{itemize}\item連語:補助用言や格助詞相当語の認定精度の向上のため.(例)について,ていまし\item短単位語から長単位語の意味や読みなどを合成できない,または合成するのが難しい一部の慣用表現,熟語,複合語,並列語:短単位語の組み合わせでは,正しく認定できないため.(例)十六夜(イザヨイ),一期一会(イチゴイチエ),日仏英(ニチフツエイ)\item有名な人名・地名等や一般語で構成される作品名・商品名等の一部の固有名詞:\\固有名詞の読みはバリエーションが多く,このうち有名な人名・地名等は長単位で登録することにより,その読み精度を向上できるため.\\(例)羽生善治(ハブヨシハル),清水寺(キヨミズデラ)\\また,一般語のみで構成される固有名詞は短単位語の組み合わせでは固有名詞として認定できないため.(例)週間住宅情報\item国語辞典に子見出し語や派生語などとして収録されている一般用語:出現頻度が高く一般性が高いと考えられるため.(ただし,これらの単語すべてが認定精度向上に役立つとは限らない.)(例)為替相場,人工呼吸,身分証明書\end{itemize}このように,長単位で登録することにより,一般に形態素解析の精度は向上する.しかし,アクセント,音調結合型の設定においては,長単位語を短単位語と同様に一語として取り扱うことは,以下のような問題を生じる.\begin{itemize}\item長単位語の内部に設定すべきアクセント句境界に対応できない.\\並列語:``日仏英''→日/仏/英,連語:``について''→彼{\dgに}/{\dgついて}\item長単位語内部にアクセント句境界を設定する必要はないが,複合語を構成する単語数によりアクセント句境界を設定する場合に,複合語を構成する単語数が正しく得られず設定を誤る.\\(例)``為替相場''が1語(長単位登録)の場合\\形態素解析結果:``為替相場+速報+サービス''(3単語扱い,実際は4単語)\\アクセント句:×``為替相場速報サービス''と設定.(○:``為替相場/速報サービス'')\\cf.``為替+速報+サービス''(3単語)→○``為替速報サービス''\end{itemize}これらの長単位語に対して適切に読み韻律情報を設定するために,次の3つの単語辞書情報をもつ.\begin{description}\item[アクセント句情報]アクセント句情報は,最大3アクセント句分のモーラ数,読み長(読みの表記上の長さ),アクセント型を保持する.最大3アクセント句分の情報をもつのは,固有名詞など,1語で登録されている複合語内部の特定の位置にアクセント句境界が必ず存在する場合に対応するためである.例えば,短単位語の``日本''のアクセント句情報は,\\\hspace*{1cm}第1アクセント句:モーラ数=3,読み長=3,アクセント型=2\\\hspace*{1cm}第2,3アクセント句:なし\\となり,長単位語の``日仏英''(3アクセント句)は,\\\hspace*{1cm}第1アクセント句:モーラ数=2,読み長=2,アクセント型=1(日)\\\hspace*{1cm}第2アクセント句:モーラ数=2,読み長=2,アクセント型=1(仏)\\\hspace*{1cm}第3アクセント句:モーラ数=2,読み長=2,アクセント型=1(英)\\となる.この情報により,``日/仏/英''と正しくアクセント句境界が設定できる.\item[語数]登録単語の内部ではアクセント句境界を生じないが,長単位で登録されていることを表すための情報であり,登録単語を構成する単語数を表す.例えば,``為替相場(2)+速\mbox{報(1)+サービス(1)''(かっこ内の数字が語数を表す)では,}形態素解析の認定単語数は3語であるが,語数により4語からなる複合語であることがわかり,``為替相場/速報サービス''と正しくアクセント句境界が設定できる.\item[構成単語情報]長単位で登録された単語を短単位の構成単語に展開するために,各構成単語(最大10語)の見出し長,品詞,読み長をもつ.これは,長単位語の内部に設定すべきアクセント句境界があり,構成単語に付属語を含む場合,つまり,主に連語に対応するためである.これらの長単位語は,アクセント付与を行う前に構成単語情報を元に辞書検索を行い,短単位に展開しておく.上記のアクセント情報で対応する単語と異なり,辞書検索を行って短単位に展開するのは,付属語のアクセント結合のための情報(表\ref{tab:dic}の付属語アクセント属性,副次アクセントフラグ)を長単位語内で保持するのは煩雑なためである.(例)連語``ていまし(て+い+まし)''\\\hspace*{1cm}て:見出し長=1,品詞=接続助詞,読み長=1\\\hspace*{1cm}い:見出し長=1,品詞=一段動詞語幹,読み長=1\\\hspace*{1cm}まし:見出し長=2,品詞=助動詞連用形(断定),読み長=2\end{description}\subsection{読み韻律情報設定で用いる単語辞書情報}表\ref{tab:dic}に,読み韻律情報を設定する際に利用する単語辞書情報を,全処理で利用する共通情報と,特定の処理のみで利用する,読み付与用情報,アクセント句境界設定用情報,アクセント型設定用情報,音調結合型設定用情報の5種類に分けて示す.読み付与用には,数量表現の読みの補正,連濁化のための情報をもつ.アクセント句境界設定用には,複合語の内部構造を表すための各種フラグ,および,韻律的な特徴を表すフラグ,アクセント型設定用にはアクセント的特徴を示す各種フラグ,音調結合型設定用には,助詞を構文的に分類した助詞ポーズ属性をもつ.\begin{table}[thb]\caption{読み韻律情報設定用単語辞書情報}\label{tab:dic}\begin{center}\begin{tabular}{|l|l|}\hline\multicolumn{2}{|l|}{共通情報}\\\hline品詞&\cite{Miyazaki5}を元にした品詞体系(注1)\\モーラ数&\ref{subs:cho}節のアクセント句情報の一部\\\hline\multicolumn{2}{|l|}{読み付与用情報}\\\hline読み&長音化表記(例:可能→カノー)\\連濁フラグ&語頭が連濁する条件(直前語尾条件)\\数詞音韻フラグ&助数詞に設定し,数詞の読みを補正[11\underline{回}→ジューイ\underline{ッ}カイ](注2)\\助数詞音韻フラグ&助数詞に設定し,助数詞の読みを補正[3\underline{本}→サン\underline{ボ}ン](注2)\\\hline\multicolumn{2}{|l|}{アクセント句境界設定用情報}\\\hline承接語フラグ&\footnotesize{特定品詞(助数詞,地名,姓,名,組織名,その他固有名)に承接する語}\\連体詞化フラグ&複合語内で連体詞的(〜の)に使われる語[クリスマス]\\前置助数詞フラグ&数詞の前で助数詞的に用いられる語[国道,第]\\後置助数詞フラグ&数詞の後で助数詞的に用いられる語[科目,議席]\\役職・敬称フラグ&役職,職種,敬称を表す語[先生,様]\\独立アクセント句フラグ&その語(+付属語)のみでアクセント句を構成[前(接頭辞)]\\\footnotesize{前方アクセント句境界フラグ}&単語前方にアクセント句境界を設定[全体]\\\footnotesize{後方アクセント句境界フラグ}&単語の後方にアクセント句境界を設定[生まれ]\\\hline\multicolumn{2}{|l|}{アクセント型設定用情報}\\\hlineアクセント型&\ref{subs:cho}節のアクセント句情報の一部\\アクセント結合例外属性&自立語アクセント結合での,例外的なアクセント型付与\\助数詞種別&助数詞のアクセント型付与規則種別\\副次アクセントフラグ&副次アクセント属性をもつ語[ます]\\付属語アクセント属性&付属語アクセント結合用属性(直前語品詞(動詞,形容詞,その他)別)\\\hline\multicolumn{2}{|l|}{音調結合型設定用情報}\\\hline助詞ポーズ属性&助詞に設定し,結合力を求めるために利用\\\hline\multicolumn{2}{l}{(注1)大分類:名詞,動詞,形容詞,形容動詞,副詞,連体詞,接続詞,感動詞,}\\\multicolumn{2}{l}{\hspace*{2cm}接辞,助動詞,助詞,記号}\\\multicolumn{2}{l}{(注2)表記の下線部はそのフラグが設定される単語を表し,}\\\multicolumn{2}{l}{\hspace*{1cm}読みの下線部はそのフラグにより補正が行われた読みを表す}\\\multicolumn{2}{l}{(注3)[]内に,当該フラグがonとなる単語例を表す}\end{tabular}\end{center}\end{table}\normalsize
\section{読み韻律情報の設定法}
\label{sec:assign}本節では,読み韻律情報の設定方法について説明する.特に,新たに多段階設定法を導入した音調結合型の設定について詳細に述べる.読み付与については,\cite{Miyazaki1}の手法(数量表現読み付与,連濁化)をそのまま利用するため省略する.\subsection{アクセント付与}\label{subs:accent}複合語内意味的係り受け情報および表\ref{tab:dic}に示した単語辞書情報を用いて,アクセント句境界およびアクセント型の設定を行う.数詞については\cite{Miyazaki4},複合語については\cite{Miyazaki3}を基本としてアクセント句境界を設定し,\cite{Sagisaka}に基づきアクセント句のアクセント型を設定する.ここで\cite{Miyazaki1}では,文節間のアクセント結合を行っていない(文節境界をすべてアクセント句境界としている).これは,文節間のアクセント結合を行わなくても,音調結合型を強結合とすることにより実用上十分と判断しているからである.しかし,次に示す,結び付きの強い文節間においては,強結合としても不自然に感じるという実験結果が得られたため,アクセント結合を行うこととした.\begin{itemize}\item指示副詞+用言\\そう(指示副詞)+思う(動詞)→そう思う\item連体詞+名詞($\neq$複合語)\\この(連体詞)+会議(名詞)→この会議\\cf.この(連体詞)+国際(名詞)+会議(名詞)→この/国際会議\end{itemize}また,複合語内のアクセント句境界設定において,独立性の高い時詞等は常に独立のアクセント句とされていたが,複合語内意味的係り受け情報,直後単語の品詞情報(一般名詞,サ変名詞,転生名詞,その他)により,他の単語と結合するか判断することにした.(例)\\\hspace*{1cm}正月(時詞)+番組(一般名詞)+で(格助詞)→正月番組で\\\hspace*{1cm}今日(時詞)+番組(一般名詞)+で(格助詞)→今日/番組でさらに,自立語アクセント結合において,付属語アクセント結合における副次アクセントと同様の現象が存在する.例えば,神奈川等:カナ'ガワ/ト'ー,大阪等:オーサカト'ー\footnote{'はアクセント位置を表し,/はアクセント句境界を表す.以降も同様に記述する.}\\のうち,先行語(``神奈川'')がアクセントをもつ``神奈川等''は副次アクセントをもつ.そこで,自立語でも,付属語と同様に副次アクセントに対応することにした.\subsection{音調結合型(ポーズ)付与}\label{subs:pause}音調結合型の設定は,複合語内等から段階的に音調結合型を設定していく多段階設定法を新たに導入した.多段階設定法では,はじめに,時間表現,数量表現や同格表現(例:「役職名+人名」では役職名と人名は同格とみなせる)など,独立に扱うことができ,その構造が複合語内意味的係り受け情報より得られる局所構造内のアクセント句境界,および,句読点の直後など品詞情報から容易に意味的,構文的な切れ目であることを推定できるアクセント句境界を対象として,意味的,構文的に大きな切れ目となるアクセント句境界にポーズを,つながりが強いアクセント句境界にポーズなしを設定する.次に,上記において音調結合型が設定されなかったアクセント句境界に対し,前後の単語の品詞情報等より得られるアクセント句結合力(以降では結合力と表記)を用いて音調結合型を設定する.ここで,すべてのアクセント句境界に音調結合型が設定されるが,あるモーラ長以上連続してポーズが設定されていない連続アクセント句列(ポーズ未設定区間)に対しては,結合力を用いてポーズ付与のための補正を行う.結合力の値は1〜10の10段階(値が大きいほど結合力が強い)であり,アクセント句境界の前後アクセント句の係り受けがありえない場合(例:用言連用形<アクセント句境界>名詞)では極端に値を小さく,逆に係り受けが生じる可能性が高い場合(例:用言連体形<アクセント句境界>名詞)では大きく設定している.この多段階設定法を導入することにより,従来手法では精度が低かった複数アクセント句からなる複合語内の設定においても,その内部構造を反映した適切な音調結合型の設定が可能となり,また,文節間の係り受け解析を用いなくても,結合力により近似的に係り受け構造を推定し,結合力の強さとポーズ未設定区間のモーラ数に応じて段階的にポーズを付与していくので,実用上十分な精度で音調結合型を設定できる.以下,多段階設定法の各ステップについて説明する.ポーズ付与の補正以外では,すでに音調結合型が設定されているアクセント句境界は対象とせず,未設定のアクセント句境界のみを対象とする.\subsubsection{記号に基づく音調結合型設定}\label{subsub:kigo}アクセント句末尾が句読点等の記号の場合,その直後アクセント句境界に対して,音調結合型を設定する.句点,感嘆符の場合は大ポーズ(700msec),疑問符には,疑問調(末尾ピッチが上がる+700msecポーズ),読点,開きかっこには中ポーズ(500msec),その他の中点以外の記号には小ポーズ(300msec)を付与する.\subsubsection{日時表現・数量表現の音調結合型設定}\label{subsub:num}日時表現,数量表現は,その局所構造に基づき音調結合型を決定する.日時表現は,その表現を年要素,月要素,日要素に分類し,この出現パターンにより,音調結合型を設定する.\\(例)\\\{小ポーズ\}\footnote{\{{\itTYPE}\}は,その位置がアクセント句境界であり,音調結合型として{\itTYPE}を設定することを表す.以降も同様に記述する.}年要素\{小ポーズ\}月要素\{強結合\}日要素:\\\hspace*{1cm}{\dg会議は\{小ポーズ\}平成10年\{小ポーズ\}6月\{強結合\}1日から}\\\{小ポーズ\}月要素\{強結合\}日要素:{\dg会議は\{小ポーズ\}6月\{強結合\}1日から}数量表現は,\cite{Miyazaki4}で,\\(前置助数詞)+(符号)+数詞+(助数詞)+(接辞)\footnote{()は省略可を表す.}\\と定義された表現である.この数量表現のパターンやその前後アクセント句の品詞に応じて,数量表現内および,その前後の音調結合型を設定する.\\(例)\\\{小ポーズ\}前置助数詞\{小ポーズ\}2つ以上の数詞(+助数詞)アクセント句:\\\hspace*{1cm}{\dg\{小ポーズ\}第\{小ポーズ\}百/二十/三回}\\\{小ポーズ\}前置助数詞\{強結合\}1つの数詞(+助数詞)アクセント句:\\\hspace*{1cm}{\dg\{小ポーズ\}第\{強結合\}三回}\subsubsection{特定単語の組み合わせによる音調結合型設定}\label{subsub:combi}連続する2または3アクセント句の品詞等の単語情報を参照して得られる局所構造により,意味的,構文的な切れ目となり,常にポーズを付与すべきアクセント句境界に小ポーズを,また,つながりが非常に強く,常にポーズなしとすべき境界に強結合または弱結合を設定する.\\(例)\\役職\{小ポーズ\}人名[同格表現]:{\dg社長\{小ポーズ\}山田太郎氏}\\``など''(副助詞)\{小ポーズ\}用言以外の単語[例示表現]:\\\hspace*{1cm}{\dg証人喚問など\{小ポーズ\}事実審理が/始まります。}\subsubsection{結合力に基づく音調結合型設定}\label{subsub:ketsugo}記号に基づく音調結合型設定〜特定単語の組み合わせによる音調結合型設定で音調結合型が設定されなかったアクセント句境界に対し,アクセント句境界前後の単語の品詞等により得られる結合力を用いて音調結合型を設定する.\begin{table}[t]\caption{直前単語の品詞分類}\label{tab:prev}\begin{center}\begin{tabular}{|c|l|l|}\hline分類&品詞&具体例\\\hlineP1&副詞型名詞,時詞,数詞&\\P2&連体詞型名詞,連体詞&\\P3&用言,助動詞連体形&\\P4&用言,助動詞連用形&\\P5&副詞&\\P6&P1〜P5,P7〜P11以外&\\P7&助詞:ポーズ属性1&副助詞:は(この語のみ)\\P8&助詞:ポーズ属性2&接続助詞:から,けれど,ば,副助詞:だけ,しか\\P9&助詞:ポーズ属性3&格助詞:が,副助詞:も,接続助詞:たり,つつ\\P10&助詞:ポーズ属性4&格助詞:から,で,を副助詞:ずつ,でも\\P11&助詞:ポーズ属性5&格助詞:の,と,や副助詞:か,なり,やら\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{直後単語の品詞分類}\label{tab:next}\begin{center}\begin{tabular}{|l|l|}\hline分類&品詞\\\hlineN1&副詞型名詞,時詞,数詞\\N2&連体詞型名詞,連体詞\\N3&本動詞\\N4&補助動詞\\N5&形容詞,形容動詞\\N6&副詞\\N7&その他(一般名詞,接辞等)\\\hline\end{tabular}\end{center}\end{table}結合力を設定するために,品詞により,アクセント句境界の直前単語を表\ref{tab:prev}に示すP1〜P11の11種類,直後単語を表\ref{tab:next}に示すN1〜N7の7種類に分類した.これらは,品詞の構文的性質(例:P3=連体修飾をする用言),および,独立性\footnote{大分類が名詞と同一でも副詞型名詞,時詞等の方が一般名詞等より独立性が高いため,名詞を細分類している.(P1・P6,N1・N7)}という2つの観点により分類を行ったものである.このため,直前単語の分類においては,助詞を単語辞書情報の助詞ポーズ属性(構文的性質と独立性により助詞を分類)により5種類に細分類した.表\ref{tab:prev}のP7〜P11には各ポーズ属性毎にその属性をもつ助詞(抜粋)をあわせて示している.結合力は,Pi×Nj(i=1〜11,j=1〜7)の組み合わせマトリックスにより決定する\footnote{ただし連語から分解された単語の境界には,無条件に結合力最大値(10)を与える.\\(例){\dgに}(結合力=10){\dgついて}}.この組み合わせマトリックスの各値は,PiとNjの構文的な性質(係り受けがありえる,ありえない),および,それぞれの独立性,さらに,係り受けがありえる組み合わせにおいては,その韻律的特徴\footnote{アクセント句のモーラ長や複合語の複数アクセント句化など.}を考慮して経験的に設定している.ここでは,Pi×N7の組み合わせマトリックスのみを表\ref{tab:ketsugo}に示して具体的に説明する.直前単語がP2,P3,P11の場合は,このアクセント句境界の直前文節が直後文節に係る連体修飾関係となる可能性が高いため,表\ref{tab:ketsugo2}に示すように,直後アクセント句等の条件に応じて結合力を変える.表\ref{tab:ketsugo2}の項番1は,直後が複数アクセント句からなる複合語である場合を表しており,この場合は,連体修飾関係が成立していても,アクセント句単位の構造としては,右枝分かれ構造となる場合がほとんどである\footnote{例えば``昨年/成立した/(A)男女/雇用機会/均等法''では,文節単位の構造としては``成立した''→``\mbox{男女雇用機会均等}法''と係り受けが成立するが,アクセント句単位の構造としては,``成立した''→``均等法''となり,(A)は右枝分かれ境界となる.}ため,結合力を最小とする.\begin{table}\caption{Pi×N7の組み合わせマトリックス}\label{tab:ketsugo}\begin{center}\begin{tabular}{|l|l|l|l|l|l|}\hlineP1=2&P2=表\ref{tab:ketsugo2}&P3=表\ref{tab:ketsugo2}&P4=1&P5=2&P6=9\\\hlineP7=1&P8=1&P9=2&P10=2&P11=表\ref{tab:ketsugo2}&\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{P2,P3,P11の結合力}\label{tab:ketsugo2}\begin{center}\begin{tabular}{|c|l|l|c|c|c|}\hline項&直後アクセント句条件&その他の条件&\multicolumn{3}{c|}{結合力}\\\cline{4-6}番&&&P2&P3&P11\\\hline1&名詞,接辞,連体詞のみ&2つ後のアクセント句先頭=名詞or接辞&-&1&1\\2&自立語の総モーラ数$\geq$5&Pi$\ne$格助詞``の''&5&4&2\\3&自立語の総モーラ数$\geq$5&Pi=格助詞``の''&-&-&5\\\hline4&\multicolumn{2}{|l|}{上記以外}&8&7&8\\\hline\end{tabular}\end{center}\end{table}この結合力はポーズ付与の補正でも利用するため,記号に基づく音調結合型設定〜特定単語の組み合わせによる音調結合型設定ですでに強結合または弱結合を設定しているアクセント句境界に対しても求めておく(ただし音調結合型の設定は行わない).ただし,これらのアクセント句境界に対しては,得られた結合力に10を加算する.これは,記号に基づく音調結合型設定〜特定単語の組み合わせによる音調結合型設定で設定される音調結合型を結合力に基づく音調結合型設定で設定される音調結合型より信頼性が高いと考えるためである.音調結合型未設定のアクセント句境界に対しては,結合力=1となるアクセント句境界に小ポーズ,それ以外のアクセント句境界には,文節境界となるアクセント句境界に弱結合,それ以外に強結合を付与する.\subsubsection{ポーズ付与の補正}\label{subsub:unpause}あるモーラ長以上ポーズが設定されていない場合(このポーズが設定されていない区間をポーズ未設定区間とよぶ)に,結合力を用いてポーズを設定する.ここでは,ポーズ未設定区間の長さと結合力に基づく音調結合型設定で設定した結合力の強さにより,段階的にポーズを付与する.\begin{description}\item[20モーラ\hspace{-0.05mm}$\leq$\hspace{-0.05mm}ポーズ未設定区間長\hspace{-0.05mm}$<$\hspace{-0.05mm}30モーラの場合]\mbox{ポーズ未設定区間先頭から5モーラ目}〜\mbox{末尾から5モーラ目までに}\mbox{結合力3以下のアクセント句境界が存在する場合にのみ,そ}の中で最小の結合力をもつアクセント句境界に小ポーズを付与する.\mbox{それ以外の場合は}ポーズを付与しない.\item[ポーズ未設定区間長$\geq$30モーラの場合]ポーズ未設定区間先頭から5モーラ目〜末尾から5モーラ目までに結合力が6以下のアクセント句境界が存在する場合にその中で最小の結合力をもつアクセント句境界に小ポーズを設定する.条件を満たすアクセント句境界が存在しない場合には,ポーズ未設定区間先頭から2モーラ目〜末尾から2モーラ目までのアクセント句境界において,最小の結合力をもつアクセント句境界に小ポーズを付与する.\end{description}ここで,ポーズ付与の補正を行った後のポーズ未設定区間が上記条件を満たす場合には,再帰的にポーズ付与の補正を行う.これは,ポーズ未設定区間長が20モーラ以上30モーラ未満と,ポーズが挿入されなくてもあまり不自然でない長さの場合には,結合力が弱い(3以下)アクセント句境界が存在した場合にのみポーズを付与し,ポーズ未設定区間長が30モーラ以上と,ポーズがなければ不自然となる長さを越えた場合には,必ずポーズを設定するという2段階のポーズ付与の補正を行うものである.\subsubsection{ポーズ付与例}図\ref{fig:pause}に多段階設定法によるポーズ付与例を示す.まず,$[$A$]$,$[$B$]$,$[$C$]$に順にポーズが設定された後,結合力が求められ\footnote{$[$A$]$,$[$B$]$,$[$C$]$のアクセント句境界はすでにポーズが設定されているため,結合力を求める必要がない.},結合力=1である$[$D$]$に小ポーズが付与される.そして,ポーズ未設定区間``実態調査を共同で行うことで合意しました。''(27モーラ)において最小結合力2($\leq$3)をもつ$[$E$]$に小ポーズが付与される.ポーズ未設定区間``放射性廃棄物の海洋投棄に''(23モーラ)は,ポーズ未設定区間長が20モーラ以上30モーラ未満であり,最小結合力が5($>$3)であるため,ポーズは付与されない.\begin{figure}[tb]\vspace{-4mm}\begin{center}\epsfile{file=pause.eps}\end{center}\caption{ポーズ付与例}\label{fig:pause}\end{figure}
\section{評価}
label{sec:evaluation}\subsection{読み韻律情報の評価法}\label{subs:kana}本論文で提案した読み韻律情報設定法の有効性を検証するため,AUDIOTEXで生成した読み韻律情報(アクセント付カナ文)に対する評価を行った.具体的には,読み付与,アクセント句境界設定,アクセント型設定,ポーズ設定,読み韻律設定(総合評価)の5種類の正解率を算出した.ここで,AUDIOTEXでは6種類の音調結合型を付与しているが,本評価ではポーズの有無の2段階で評価を行うこととした.これは,現在の合成音声の品質はまだ十分といえず,ポーズなしのアクセント句境界に対して強結合と弱結合のどちらを設定するのが正しいかを正確に聞き分けることができないためである.\footnote{一般には,左枝分かれ境界に対しては強結合,右枝分かれ境界に対しては弱結合を付与するのが適切であるが,現在の合成音声の品質では,左枝分かれ境界に対しても弱結合を付与する方が明瞭性が増し,聞きやすい場合がある.このためAUDIOTEXでは,ポーズを付与しない文節境界にはすべて弱結合を付与している.}それぞれの正解率は以下の式により表される.\begin{eqnarray}読み正解率&=&\frac{C_{al}-C_{er}}{C_{al}}\\アクセント句境界正解率&=&\frac{(C_{al}-C_{ep})-B_{er}}{C_{al}-C_{ep}}\\アクセント型正解率&=&\frac{A_{sp}-A_{te}}{A_{sp}}\\ポーズ正解率&=&\frac{A_{sp}-A_{pe}}{A_{sp}}\\読み韻律正解率&=&\frac{A_{cr}}{A_{al}}\end{eqnarray}\begin{small}\begin{tabbing}\hspace{1.5cm}\=\hspace{1cm}\=\kill\>$C_{al}$\>全文字数\\\>$C_{er}$\>読みを誤った文字数\\\>$C_{ep}$\>読み誤り同一アクセント句文字数\\\>$B_{er}$\>誤ったアクセント句境界数\\\>$A_{sp}$\>正しく分割されたアクセント句数\\\>$A_{te}$\>アクセント型を誤ったアクセント句数\\\>$A_{pe}$\>ポーズ有無を誤ったアクセント句数\\\>$A_{cr}$\>読み,アクセント句境界,アクセント型,ポーズ有無が正しいアクセント句数\\\>$A_{al}$\>全アクセント句数\end{tabbing}\end{small}ここで,アクセント句境界正解率における「読み誤り同一アクセント句文字数」($C_{ep}$)とは,読みを誤った文字,および,読みを誤った文字と同一アクセント句を構成する文字の総数である.例えば,``通算1アンダー''は``通算''と``1アンダー''の2アクセント句となるが,``1''の読みを``イチ''と読み誤った場合(正解は``ワン''),読み誤った文字``1''と同一アクセント句となる``アンダー''も評価対象から除く.また,アクセント型,音調結合型正解率の分母となる「正しく分割されたアクセント句数」とは,前後共に正しいアクセント句境界で区切られたアクセント句数を表す.さらに,「アクセント型を誤ったアクセント句数」($A_{te}$),「ポーズ有無を誤ったアクセント句数」($A_{pe}$)は,正しく分割されたアクセント句を対象とする.このように正解率を定めたのは,正しく与えられた情報を用いた際の設定精度評価を行うためである.ところで,アクセント句境界やポーズはゆれが許容され,単一の正解は存在しない.例えば,``小型処理装置''は,``小型/処理装置''(2アクセント句)でも``小型処理装置''(1アクセント句)でもよく,``初めて/(A)相場水準に/触れ、''の(A)の位置にポーズがあっても\mbox{なくても許容}される.また,誤りに対する許容度は個人差も存在する.そこで,合成音声に慣れ,読み韻律情報の誤りの種類の判定を行うことができ,誤まった読み韻律情報を正しく修正することができる2名の評価者(評価者A,B)が,AUDIOTEXにより生成された合成音声を聴き,不自然に聞こえる個所を誤りとして評価を行った.評価対象としたテキストは,ニュース文章484文(29829文字)である.評価は,(1)評価テキストに対して単語辞書を全く整備しない状態で生成されたアクセント付カナ文(オープン評価),(2)評価テキストに対して単語辞書の整備を行った後に生成されたアクセント付カナ文(クローズ評価),そして本手法のベースとなった手法である\cite{Miyazaki1}により生成されたアクセント付カナ文の3種類を対象に行った.\subsection{読み韻律情報の評価結果}各正解率を求めるための各値を表\ref{tab:ev_value},正解率を表\ref{tab:evaluation}に示す.表\ref{tab:ev_value},表\ref{tab:evaluation}において,「A$\mid$B正解」は評価者A,B共に正解と判断したもの,および評価者AまたはBのいずれかが正解と判断したものを正解としたもの,「A\&B正解」は評価者A,B共に正解と判断したもののみを正解としたものである\footnote{ただし,表\ref{tab:ev_value}における$C_{er}$,$B_{er}$などの誤り数においては,「A$\mid$B正解」は,評価者A,Bが共に誤りとしたもの,「A\&B正解」は,評価者A,B,一方でも誤りとしたものを表している.}.\begin{table}[tb]\caption{評価式の各値}\label{tab:ev_value}\begin{center}\begin{tabular}{|c|l|cccc|}\hline\multicolumn{2}{|l|}{}&評価者A&評価者B&A$\mid$B正解&A\&B正解\\\hline共通&$C_{al}$&\multicolumn{4}{|c|}{29829}\\\hline(1)&$C_{er}$&\multicolumn{4}{|c|}{88}\\単語&$C_{ep}$&\multicolumn{4}{|c|}{281}\\辞書&$B_{er}$&178&146&107&217\\未整備&$A_{al}$&\multicolumn{4}{|c|}{7253}\\(オープン)&$A_{sp}$&7009&7055&7122&6942\\&$A_{te}$&85&141&57&169\\&$A_{pe}$&80&375&63&392\\&$A_{cr}$&6721&6425&6890&6256\\\hline(2)&$C_{er}$&\multicolumn{4}{|c|}{32}\\単語&$C_{ep}$&\multicolumn{4}{|c|}{75}\\辞書&$B_{er}$&56&69&27&98\\整備後&$A_{al}$&\multicolumn{4}{|c|}{7207}\\(クローズ)&$A_{sp}$&7133&7108&7164&7077\\&$A_{te}$&18&86&14&90\\&$A_{pe}$&82&382&64&400\\&$A_{cr}$&7005&6617&7072&6550\\\hline(3)&$C_{er}$&\multicolumn{4}{|c|}{97}\\(宮崎,&$C_{ep}$&\multicolumn{4}{|c|}{317}\\大山&$B_{er}$&403&466&282&587\\1986)&$A_{al}$&\multicolumn{4}{|c|}{7360}\\&$A_{sp}$&6762&6580&6884&6458\\&$A_{te}$&324&559&281&602\\&$A_{pe}$&469&1198&374&1293\\&$A_{cr}$&5823&4751&5986&4588\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\caption{読み韻律情報の正解率}\label{tab:evaluation}\begin{center}\begin{tabular}{|l|l|ccccc|}\hline評価対象&種別&\multicolumn{5}{|c|}{正解率(\%)}\\\cline{3-7}&&評価者A&評価者B&A$\mid$B正解&A\&B正解&A,B平均\\\hline(1)&読み&\multicolumn{5}{|c|}{99.70}\\単語&アクセント句境界&99.39&99.51&99.64&99.27&99.45\\辞書&アクセント型&98.79&98.00&99.20&97.57&98.40\\未整備&ポーズ&98.86&94.68&99.12&94.35&96.77\\(オープン)&読み韻律&92.67&88.58&95.00&86.25&90.63\\\hline(2)&読み&\multicolumn{5}{|c|}{99.89}\\単語&アクセント句境界&99.81&99.77&99.91&99.67&99.79\\辞書&アクセント型&99.75&98.79&99.80&98.73&99.27\\整備後&ポーズ&98.85&94.63&99.11&94.35&96.74\\(クローズ)&読み韻律&97.20&91.81&98.13&90.88&94.51\\\hline(3)&読み&\multicolumn{5}{|c|}{99.67}\\(宮崎,&アクセント句境界&98.63&98.42&99.04&98.01&98.53\\大山&アクセント型&95.21&91.50&95.92&90.68&93.36\\1986)&ポーズ&93.06&81.79&94.57&79.98&87.43\\&読み韻律&79.12&64.55&81.33&62.34&71.84\\\hline\end{tabular}\end{center}\end{table}ここで,(2)のクローズ評価用に行った単語辞書の整備は,新語登録(人名等)48語,アクセント句境界設定用情報整備27語,アクセント型設定用情報整備24語,複合語意味的係り受け情報を正しく設定するため,および同型語認定精度を向上させるための情報(意味カテゴリ,承接属性など)整備18語,不適切な単位や誤った内容で登録されている単語の削除4語であった.\subsubsection{評価者間の比較}評価者Aと評価者Bの評価結果を比較すると,全体的な傾向は同じ,すなわち,(2)クローズ評価,(1)オープン評価,(3)\cite{Miyazaki1}の手法の順に各正解率が高いといえる.ただし,全体的に評価者Bの方が評価者Aより正解率が低い.これは,韻律のゆれの許容範囲は個人差が大きいことを表している.特に,アクセント型では,評価者Bが判定した誤りは評価者Aの約2〜5倍,ポーズ有無では,約3〜5倍となっている.このうち,(2)クローズ評価のアクセント型誤り($A_{te}$)において,評価者Bのみ誤りとしたアクセント句のうち,44\%(32件)は,設定されたアクセント型は1型以上であるが,評価者Bは0型(平板型)と判断したものであった(例:キノ'ー(昨日),クワワ'ル(加わる),ス'ーカイ(数回)).また,(2)クローズ評価のポーズ有無誤り($A_{pe}$)において,評価者Bのみ誤りとしたアクセント句のうち,12\%(37件)は,連体修飾句が修飾する複合語が複数アクセント句である場合の,連体修飾句と複合語の間のポーズであった(例:``大統領の/(A)財政赤字/削減策に''における(A)の位置のポーズ).また,10\%(31件)は,数量表現内のポーズであった(例:``およそ/(B)七億/七千万円の''における(B)の位置のポーズ).\subsubsection{評価対象間の比較}表\ref{tab:evaluation}の(1)オープン評価と(2)クローズ評価を,評価者A,Bが共に誤りとしたもの(A$\mid$B正解)を対象として比較すると,(2)クローズ評価において,読みの誤り($C_{er}$)が\mbox{約$\frac{1}{3}$,アクセ}ント句境界($B_{er}$),アクセント型($A_{te}$)の誤りが約半数に減少している.この減少分は,未知語の新規登録,複合語係り受け用情報の整備による形態素解析精度の向上,および,表\ref{tab:dic}に示した読み韻律付与用単語情報の適正さによって改善される割合を示し,本手法ではこの単語辞書情報の正確さが読み韻律情報の精度に大きな影響を与えるといえる.ここで,(2)クローズ評価においてポーズ有無誤り($A_{pe}$)が微増しているのは,読み,アクセント句境界が誤った部分はポーズ評価の対象としていないため,ポーズにおいては,形態素解析誤りに起因する誤りはほとんどなく,また,辞書整備により読み,アクセント句境界誤りが減少したために,ポーズ評価の対象となるアクセント句数が増え,さらに,ポーズ付与のための単語辞書情報は1つしかない(助詞ポーズ属性)ため,辞書整備の影響が少ないからである.(3)の\cite{Miyazaki1}で提案された手法と比較すると,本提案方式((1),(2))はポーズ正解率の向上が顕著であり,新たに導入した多段階設定法によるポーズ付与,および形態素解析における長単位認定が有効であるといえる.\vspace{2mm}\subsubsection{(2)クローズ評価における誤り原因}(2)クローズ評価において,評価者A,Bが共に誤りとしたもの(A$\mid$B正解)を対象として,各誤りの原因を以下に示す.\begin{description}\item[読み誤り]1文節1自立語における同型語の読み分け誤りが75\%(24件)と誤り原因の大半を占めた.このような同型語の読み分けが多段解析法による形態素解析の課題であるといえる.\\(例)\\\hspace*{1cm}香港ドルと{\dg元}(×モト→○ゲン)の交換\\\hspace*{1cm}{\dg大勢}(×オオゼー→○タイセー)が判明\item[アクセント句境界誤り]主要な誤り原因は以下の2点である.\begin{description}\item[形態素解析誤り]品詞認定誤り,単語境界誤り等の形態素解析誤りが原因となる誤りが33\%(9件)をを占めた.\\(例)\\\hspace*{1cm}×国会会/期末(○国会/会期末):\\\hspace*{1.5cm}``国会(固有名詞)+会(接尾辞)+期末(名詞)\hspace{-2mm}''と誤認定されるため\\\hspace*{1.5cm}(正解:``国会(固有名詞)+会期(名詞)+末(接尾辞)'')\item[数量表現における誤り]数量表現において,通常は数詞に承接しない単語等が承接した場合に,アクセント句境界を誤った.(11\%(3件))\\(例)\\\hspace*{1cm}×捜査/一課(○捜査一課):``捜査''と``一''が関連付けできない\end{description}\item[アクセント型誤り]品詞の認定誤り等(引き上げ:×動詞,○転生名詞)の形態素解析誤りが原因となる誤りが36\%(5件)であった.\item[ポーズ有無誤り]文節間係り受け解析を行っていないことに起因し,係り受けのない``連体形+名詞'',``が(助詞)+用言''間等,および,並列句での誤りが20\%(13件)を占めた.\\(例)\\\hspace*{1cm}×5百万ポンドと\{弱結合\}前の\{小ポーズ\}年の/同じ時期に/比べ\\\hspace*{1cm}(○5百万ポンドと\{小ポーズ\}前の\{弱結合\}年の/同じ時期に/比べ)\end{description}また,新たに導入した多段階設定法では,係り受けがありえないアクセント句境界前後の単語の組み合わせについては,極端に結合力を弱く設定したが,総桐タンスを\{小ポーズ\}納入などと/報道されました。\\\hspace*{1cm}(結合力=2,ポーズ付与の補正により小ポーズ付与)\\の``を+納入''のような体言止め等の表現に対応できず,\mbox{実際には係り受け関係があるにも関わ}らず,誤ってポーズが付与され,\cite{Miyazaki1}よりディグレードした場合が5\%(3件)生じた.\subsection{処理性能評価}\ref{subs:kana}節で用いた評価文(29829文字)に対するテキスト解析部の処理時間(アクセント付カナ文を生成するまでの時間)を測定した結果を,表\ref{tab:speed}に示す.使用マシンは,SunSparcStation20である.表\ref{tab:speed}により,\cite{Miyazaki1}と比較して,AUDIOTEXが約3.9倍も処理時間がかかることがわかる.この理由として,形態素解析における用言語幹語尾1語化処理の追加,および,読み韻律情報設定における規則の追加が考えられる.\begin{table}[bt]\caption{テキスト解析処理の処理時間}\label{tab:speed}\begin{center}\begin{tabular}{l|c|c}\hline&処理時間&100文字あたりの処理時間\\\hlineAUDIOTEX&280.22秒&0.94秒\\\cite{Miyazaki1}&72.57秒&0.24秒\\\hline\end{tabular}\end{center}\end{table}しかしAUDIOTEXでは,読み韻律情報設定と平行して合成音声の出力を行うことが可能であり,100文字の読み上げ時間は約15〜20秒程度であるため,実用上十分な処理速度であるといえる.
\section{おわりに}
label{sec:conclusion}多段解析法による形態素解析より得られる単語情報を用いて,読み韻律情報を規則により設定する方法,および読み韻律情報設定のための単語辞書の構成を示した.そして,特に音調結合型(ポーズ)の設定において,多段階設定法を新たに導入し,文節間の係り受け情報を用いなくても,実用上十分な精度でポーズを付与できることを示し,本手法の有効性を確認した.本手法による読み韻律情報の設定精度は,単語辞書の精度に大きく依存しているため,今後は単語辞書の精度向上を容易に行う手法を考えていく必要があると考えられる.\vspace{-3mm}\bibliographystyle{jnlpbbl}\bibliography{v06n2_04}\begin{biography}\biotitle{略歴}\bioauthor{浅野久子}{1991年横浜国立大学工学部電子情報工学科卒業.同年,日本電信電話(株)入社.音声合成,情報抽出のための自然言語処理,テキスト処理の研究に従事.現在,NTT情報通信研究所知的通信処理研究部勤務.情報処理学会会員.}\bioauthor{松岡浩司}{1979年九州大学工学部電子工学科卒業.同年,日本電信電話公社(現NTT)入社.現在,NTTマルチメディアシステム総合研究所関西リモートオフィスにて電子図書館システムの研究開発に従事.形態素解析,音声合成,情報検索の研究に興味を持つ.情報処理学会,電子情報通信学会各会員.}\bioauthor{高木伸一郎}{1981年金沢大学大学院電気工学専攻修士課程修了.同年,日本電信電話公社(現NTT)入社.日本語形態素解析を用いた校正支援システムなど知的支援サービスの開発に従事.現在,NTT情報通信研究所知的通信処理研究部主幹研究員.情報処理学会,電子情報通信学会各会員.}\bioauthor{小原永}{1979年慶応義塾大学大学院電気工学専攻修士課程修了.同年,日本電信電話公社(現NTT)入社.機械翻訳,推敲支援,韻律生成技術の研究に従事.現在,NTT情報通信研究所知的通信処理研究部主幹研究員.情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N06-02
|
\section{はじめに}
従来の紙版の国語辞典\footnote{国語辞典は,対象や規模により多種類のものが存在する.著者らが研究対象としているものは,小型国語辞典(6〜9万語収録)と呼ばれ,「現代生活に必要な語,使用頻度の高い語」の収録と記述とに重きがおかれているものである(柏野2009).}は紙幅の制約などから,用例の記述は必要最小限に厳選されていた.しかし,電子化編集が容易になり,国語辞典データ\footnote{『岩波国語辞典』(岩波書店)はCD-ROM版が市販され,さらに,電子化データ(岩波国語辞典第5版タグ付きコーパス2004)が研究用に公開されている(http://www.gsk.or.jp/catalog.html).}や種々のコーパスが活用できるようになった今,新たな「コーパスベース国語辞典」の構築が可能になった.ここで,「コーパスベース国語辞典」とは,従来の紙版の国語辞典の記述に加え,コーパス分析から得られる豊富な用例,そのほか言語のさまざまな辞書的情報を詳細に記述する,電子テキスト版の国語辞典のことである.紙幅によって制約されていた記述量の制限をなくし,辞書記述の充実をはかることがねらいである.そうした「コーパスベース国語辞典」は,人にも計算機にも有用性の高いものと期待される.しかし,単に情報を増やせばよいというものではなく,有用な情報を的確に整理して記述することが不可欠である.著者らはそのような観点から,その用例記述の際に見出し語のもつ文体的特徴を明記することにより,より利用価値の高い「コーパスベース国語辞典」を構築することを目指している.文体的特徴の記述は,語の理解を助け,文章作成時にはその語を用いる判断の指標になり得るため,作文指導や日本語教育,日本語生成処理といった観点からの期待も高い.従来の国語辞典では,文体的特徴として,「古語,古語的,古風,雅語,雅語的,文語,文語的,文章語,口語,俗語」などのように,位相と呼ばれる注記情報が付与されてきた\footnote{そのほか,使用域についてその語が用いられる専門分野を示すことが試みられている.}.本論文では,そのような注記が付与されるような語のうち,「古さ」を帯びながら現代語として用いられている語に着目する.本論文ではそのような語を「古風な語」と呼び,次の二点を満たすものと定義する.\begin{itemize}\item[(a)]「時代・歴史小説」を含めて現代で使用が見られる.\item[(b)]明治期以前,あるいは,戦前までの使用が見られる.\end{itemize}(a)は,現代ではほとんど使われなくなっている古語と区別するものである.(b)は「古風な語」の「古さ」の範囲を定めるものである.本論文では,現代語と古語との境と一般にされている明治期以前までを一つの区切りにする.また,戦前と戦後とで文体変化が大きいと考えられるため,明治期から戦前までという区切りも設ける.しかしながら,一般には,戦前までさかのぼらずとも,事物の入れ替わりや,流行の入れ替わりにより,減っていったもの,なくなっていったものに「古さ」を感じることは多い.例えば,「ポケベル」「黒電話」「ワープロ」「こたつ」などである.こういった,近年急速に古さを感じるようになっている一連の語の分析も辞書記述の一つの課題と考えるが,本論文で取り上げる「古風な語」は,戦前までさかのぼって「古さ」を捉えることとし,それ以外とは区別する.「古風な語」に注目する理由は,三点ある.一点目は,現代語の中で用いられる「古風な語」は少なくないにも関わらず,「古語」にまぎれ辞書記述に取り上げ損なってしまう危険性のあるものであること.二点目は,その「古風な語」には,文語の活用形をもつなど,その文法的な扱いに注意の必要なものがあること.三点目は,「古風」という文体的特徴を的確かつ,効果的に用いることができるよう,十分な用法説明が必要な語であるということ,である.「古風な語」には,例えば,「さ【然】」がある.これは,「状態・様子がそうだという意を表す語。」(『岩波国語辞典』第7版,岩波書店)であり,現代では,「さほど」「さまで」「さばかり」「さしも」「さも」…のように結合して用いられる.その一つ,「さもありなん」(そうなるのがもっともだ)は,「さも」+「あり」+文語助動詞「ぬ」の未然形「な」+文語助動詞「む」である「ん」,から成る連語である.枕草子(128段)に,「大口また、長さよりは口ひろければさもありなむ」と使われている.一方,国立国語研究所『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下,BCCWJと記す\footnote{BCCWJの詳細は,山崎(2009,2011),前川(2008,2013)を参照.})には,全体で34件の用例があり,いずれも,現代文脈での使用である.「まさか和久さんが指導員として復帰してるなんて思わなかったから。でも、\textbf{さもありなん}、という気もする。」(君塚良一(1950年代生まれ)/丹後達臣,『踊る大捜査線スペシャル』扶桑社,1998年)などである.同じように,「なきにしもあらず」「いわずもがな」「推して知るべし」…など,現代文脈で用いられる文語調の表現は他にもあり,BCCWJの現代文脈でそれぞれの用例を得ることができる.「古風な語」は,これまでにも現代日本語における特徴的な語として着目されてきた.実際,多くの国語辞典では,現代文脈で使われる古さを帯びている語については,「古語」とはせず,「古語的」「古風」「雅語」「文語」「文語的」といった注記が付されている.しかし,これらの注記を横断的に俯瞰することや,「古風な語」の使用実態とその辞書記述との関連を検討する試みは,これまで行われていなかった.以上の問題を解決するために,本論文では,まずは「古風な語」の調査語として,電子化版が市販されている『CD-ROM岩波日本語表現辞典—国語・漢字・類語—』(2002年)収録の『岩国』(第6版)に「古語的」「古風」と注記されている語を用い,現在刊行されている国語辞典で「古風な語」がどのように取り上げられているかを横断的に俯瞰する.次に,現代語のコーパスであるBCCWJに収録されている約3,000万語分の書籍テキストを用いて,その使用実態を分析し(柏野,奥村2010,2011),それに基づき,文脈の特徴や用例を『コーパスベース国語辞典』に記述する方法を提案し,その有用性を論じる.
\section{「古風な語」の現行辞典での扱い}
\subsection{現行の国語辞典}多くの国語辞典で,「古風な語」に関し,「古風」あるいは,「古語的」「雅語」「文語」「文語的」といった注記を付す記述が試みられている.積極的に「古風な語」の収録と記述が試みられているものは『三省堂国語辞典』(第6版,三省堂,以下『三国』)である.巻頭にある「この辞書の使い方」(p.~15)には,次の注意書きが記されている.\vspace{1\Cvs}\begin{quotation}\noindent注意古語ではないかと思われることばが、ずいぶん〔文〕や〔雅〕として出ていますが、これらは評論文〔新聞のコラムをふくむ〕・小説、新聞・雑誌の短歌欄や俳句欄などで実際に使われている\bou{現代語}です.\end{quotation}\vspace{1\Cvs}そして,〔文〕とは文章語〔現代語のうち、文章などに使われる、話しことばとの差の大きいことば〕であり,〔雅〕とは雅語の略であり,「短歌・俳句・歌詞などで、現代でも使われるみやびやかなことばや詩的なおもむきのあることば」であると説明されている.さらに,「年配者の話しことば、小説のせりふ、落語・時代劇などに出てくる古めかしいことばは、〔古風〕として示しました.」とも記されている.つまり,『三国』では,現代語として扱うべき「古風な語」を「文章語,雅語,古風」と分類して取り上げ,記述しているということである.一方,『新選国語辞典』(第8版,小学館,以下『新選』)のように,「古語」を現代文脈で使われる語だけに収録対象を絞っていないものもある.巻頭にある「この辞典を使う人のために」(p.~6)には,「中学校・高等学校の国語科学習に必要な基本的な古語」は収録したと説明されている.それら以外の国語辞典においては,「古風な語」について,何らかの注記は付されているものの,その扱いについての明確な定義や説明はない.宮島(1977)が「「文章語」「文語」「雅語」など,それぞれの辞書で呼んでいるものの内容が,はたして一致しているのかどうかは,凡例にかいていないのでわからない」と指摘したのをはじめ,注記の用語や定義が明確でないことはしばしば指摘されてきた(遠藤1988,後藤2001,前坊2009).そこで,本論文では,「古風な語」を定義し,そのうえで「古風な語」の実態を調査・分析し,辞書記述案を提案する.\subsection{現行の英語辞典}英語辞典では,1970年代頃より,さまざまな文体や使用域をどうしたら辞書で最もよく示し得るかという考察がはじまったと言われている(ハートマン1984).カウイー(2003)によると,文体や使用域に関する情報が「ラベル」(label)として英語辞典の記述に初めて導入されたのは『TheOxfordAdvancedLearner'sDictionaryofCurrentEnglish』(OxfordUnivPress;3版,1974年)であり,体系的に定義されたラベルが導入されたのは『LongmanDictionaryofContemporaryEnglish』(Longman;初版,1978年)であるという.以降,多くの英語辞典において,さまざまなラベルが活用されている.本論文で焦点をあてている「古風」に近いラベルは,「Time」に関わるものである.H\"{u}nig(2003)\footnote{調査対象は次の4つの辞書である.CollinsCobuildEnglishDictionary(1995,2nd),LongmanDictionaryofContemporaryEnglish(1995,3rd),OxfordAdvancedLearners'DictionaryofCurrentEnglish(1995,5th),CambridgeInternationalDictionaryofEnglish(1995,1st).}によると,「Time」に関わるラベルには,「dated」,「old-fashioned」,「olduse」,「archaic」の4つがある.これらは,「比較的最近まで使用され,現在高齢者に用いられている」「近現代英語では使われない」「過去の世紀に使用された」ことを示すものとして用いられている.しかしながら,それら用語と定義,付与される語は辞典間に差異のあることが指摘されている(Fedorova,2004,H\"{u}nig,2003,Ptaszynski,2010,Sakwa,2011).英語辞典の編集は早くからコーパスベースになっていると言われているが(5.1節),コーパスベースでこれらのラベルを体系的に付与することを論じた文献は見当たらない\footnote{MichaelRundell(2012)``LabelsinDictionaries''(http://trac.sketchengine.co.uk/wiki/AK/CourseNotes{\#})}.
\section{「古風な語」の従来の国語辞典における記述}
\subsection{対象の国語辞典}現行の国語辞典の「古風な語」に対する付与情報の記述の現状を把握するため,次の5種の国語辞典を取り上げ,「古風な語」の見出し語としての採否,および,ラベル・注記の有無とその内容とを比較した.まず,表1に,対象とした辞典名と,各辞典において「古風な語」に該当すると思われる語に付されていたラベル・注記情報の一覧を示す.表1をみると,ラベルや注記情報は似てはいるがそれぞれに特徴のあることがわかる.例えば,『新選』にはほかで「雅語(的)」とされるものに相当するものは設けられていない.\begin{table}[t]\caption{調査対象の国語辞典と「古風な語」への注記一覧}\input{02table01.txt}\end{table}\subsection{調査対象語の選定}調査対象とした国語辞典のうち,唯一電子化版が市販されているのが『岩国』である.そこで,『CD-ROM岩波日本語表現辞典—国語・漢字・類語—』(2002年)収録の『岩国』(第6\linebreak版)\footnote{紙版は第7版新版(2011年)が最新である.}を利用して,付された注記を手掛かりに調査対象語を選定し,それらの語について,ほかの4辞書の記載を確認することとした.先の表1に示したとおり,『岩国』では,「古語的」「古風」「雅語的」「文語(的)」の4つの注記が付されている.本論文では,これらのうち,「古い」ということだけを表す指標と思われる「古語的」「古風」に着目した.「雅語」には風雅な趣があることや,和歌などに用いられる語という側面があり,「文語」「文章語」には主に文章に用いられる語という側面があるため,今回の調査には含めないこととした.「古語的」や「古風」という注記は,例えば次の『岩国』の記述例に示すように,下位区分された特定の語義にだけ付されるもの(例:「いたい」)もあれば,語に付されるもの(例:「あいやく」「ころおい」)もある(引用中の太字表示は本論文著者による)\footnote{「いでたち」と「かまえて」の注記は,語につくのか\MaruTwoのみにつくのかがわからないが,これらの場合は,いずれの語も\MaruOneも\MaruTwoも「古語」としてすでにその用法があったものなので,語につく注記と考える.}.また,「古風」の場合は,実際は,「古風」「既に古風」「やや古風」や,「古風な言い方」といったように注記の仕方に差異が見られる(例:「いでたち」「あいやく」「ころおい」「かまえて」).本論文では,これらを区別せず「古風」とあるものをすべてひとくくりにして調査候補語とする.\textbf{『岩国』(第6版)より:}{\setlength{\leftskip}{2zw}\setlength{\parindent}{0pt}\textbf{いた‐い}一【痛い】神経に耐えがたいほど強い刺激を受けた感じだ.\MaruOne刃物で手を切る、虫歯がうずく等、外力・病気で肉体や精神が苦しい.(略)\MaruTwoしまったと思うほど手ひどい打撃を受けたり、弱点を鋭く突かれたりして、つらい.(略)二《「—・く」の形で》はなはだしく.ひどく.「自分の不明を—・く恥じる」「—・く感心した」一とは別語源か.\textbf{古語的}.\textbf{いでたち【出(で)立(ち)】}\MaruOne(外出する時の)身なり.装い.「たいそうな—だ」\MaruTwo旅立ち.しゅったつ.▽\textbf{古風}.\textbf{あいやく【相役】}同じ役(についている者).▽\textbf{既に古風}.\textbf{ころおい【頃おい】}その折.「晩秋の—」.ころあい.「—を見て訪ねる」▽\textbf{やや古風}.\textbf{かまえて【構えて】}《副詞的に》\MaruOne待ちうけて.用意して.心にかけて.\MaruTwo決して.「—油断するな」▽\textbf{古風な言い方}.\par}具体的には,『岩国』には,「古語的」と注記される語は,「いたく【痛く】(〜する)」「いとど」など16語あり,「古風」と注記される語は,「あいやく【相役】」,「あとげつ【後月】」など,151語あった.それらの語について最新版の第7版の記述を確認したところ,「古語的」と注記のあった「いやちこ」,「古風」と注記のあった「かえり【回り】」「じする【治する】」「みやばら【宮腹】」の合計4語は,第7版未収録語となっていた.現代語辞書の見出し語として取り上げずともよいという判断のもと収録から外されたものと考えられる.そこで,以上の語を除いた,「古語的」15語(付録:表5の「見出し」を参照),「古風」147語(付録:表6の「見出し」を参照)を本論文の調査対象語として選定した.\subsection{採否と注記付与状況の比較}調査対象語の辞典における見出し語としての採否,および,調査対象語へのラベル・注記の有無とその内容とを比較した.表2に『岩国』で「古語的」の注記のあるものより3例の,表3に『岩国』で「古風」の注記のあるものより5例の調査結果を示す.\begin{table}[t]\caption{採否と注記付与状況の例(古語的)}\input{02table02.txt}\end{table}\begin{table}[p]\caption{採否と注記付与状況の例(古風)}\input{02table03.txt}\end{table}表2と表3には,5種の辞典に見出し語として採用されている数,そのうち,古さについてのラベルや注記が付与されている数,ラベルや注記の内容,語釈を示した.調査対象語に対して,辞典によっての見出し語としての採否や注記付与に差異が見られる.例えば,表2の「まがまがしい【禍々・枉々・曲々・凶々しい】」(災いをもたらしそうだ。いまわしい。不吉だ。『岩国』)と表3の「よしなに【良しなに】」(よろしく。いいぐあいになるように。『岩国』)は,5種の辞典とも見出し語に採用としている点は一致しているが,注記が付与されているのは2種の辞典のみである.調査対象語すべてについての採用数と注記付与数の調査結果は,付録の表5,表6に示した.そして,付録の表5,表6には,半数以上の辞典が見出し語として採用し,かつ,注記をつけていた語の数も示した.『岩国』で「古語的」と扱っている15語については6語であり,「古風」と扱っている語148語については62語であった.辞典により編集方針が異なるため,採否や注記の付与に違いが生じるのは当然のことではある.しかしながら,著者らが構築を目指す「コーパスベース国語辞典」は,辞書編集者の主観的洞察の重要性を認識しつつも,見出し語の採否や注記の付与をはじめとする辞書記述全般において,コーパスを用いた使用実態の分析に基づく客観的指標を導入することを主眼とする.そこで,次章でBCCWJを用いた「古風な語」の使用実態の分析を行う.
\section{「古風な語」のコーパス分析}
\subsection{「古風な語」の使用頻度}「古風な語」の現代書き言葉における使用実態を把握するために,BCCWJ\footnote{BCCWJを本調査で用いた主な理由は次の2点である.(1)現代日本語書き言葉の均衡がとられたコーパスであり,1億語の規模があるため,現代語を対象とする国語辞典の記述でおさえるべき用例,用法を調べることができる.(2)著作権処理済であるため,国語辞典の例文作成時の参考にできる.}の使用頻度を調査した.全文検索システム『ひまわり』(http://www2.ninjal.ac.jp/lrc/)を用いて,「BCCWJ領域内公開データ2009」の「図書館サブコーパス」\footnote{1986年から2005年までの20年間に発行された書籍のうち,東京都内の13自治体以上の公共図書館で共通に所蔵されていた書籍が母集団とされ,そこから抽出したサンプルから成るサブコーパスである.}(約3,000万語)における調査対象語の使用頻度を調査した(柏野,奥村2010,2011).3.2節では,「古語的」15語,「古風」147語を調査対象語としたが,ここでは,別語や別の意味用法の用例と紛れ,該当用例の判別が困難であった次の語は,検索の対象外とした.{\setlength{\leftskip}{1zw}\setlength{\parindent}{0pt}●「古語的」15語より対象外とした語こうべ【首・頭】,つつみ【堤】,ぶにん【補任】●「古風」147語より対象外とした語(23語)いっそ,う,うつ【打つ】,くにびと【国人】,さと【里】,じきげ【直下】,しも【下】,じゃ(ぢや),しょせい【書生】,ぜんぶ【全部】,そち【其方】,それ【其(れ)】,たいじん【大人】,たいぜい【大勢】,つ【唾】,つかさ【司・官】,であう【出合う・出会う】,とうじ【当時】,とも,の,むやく【無益】,やうち【家内】,やくだい【薬代】\par}つまり,使用頻度調査の対象語は,「古語的」12語と,「古風」124語である\footnote{念のため第7版の未収録を理由に調査対象外とした4語についても使用頻度を調査したところ,「かえり【回り】」(回数・度数を表す,古風な助数詞.回かい.たび.)のみ,「蕎麦の三かえり」(藤村和夫,1930年代生まれ,『蕎麦屋のしきたり』日本放送出版協会,2001年)という用例があった.ほかは,使用頻度0であった.}.これらのBCCWJにおける使用頻度を求めた結果を付録の表5,表6に示した.「使用有」の欄に「—」のある語は,上記で非調査対象とした語である.「○」のある語が使用頻度の得られたものであり,その数は「使用頻度」の欄に示した.使用頻度が得られたのは,付録の表5,表6の最終行に示した通り,「古語的」12語のうちでは7語,「古風」124語のうちでは76語であった.約3,000万語という規模のコーパスで「古風な語」を検索した場合,頻度が100を超えた語は6語であった.また,頻度が0だった語は53語あった.\subsection{「古風な語」の用法の分類}「古風な語」の用法を分析するためには,コーパスから得られる用例がどういった文脈の用例であるのかを区別する必要がある.BCCWJ「図書館サブコーパス」より得られる用例は,その文脈により,執筆及び,記述対象の年代に着目して,大きく次の4つに分類することができる.\begin{enumerate}\item古典(江戸時代以前の文章)の引用での使用\item明治期から戦前までの使用\item時代・歴史小説での使用\item現代文脈での使用\end{enumerate}以下,4分類の詳細を述べる.\subsubsection{古典(江戸時代以前の文章)の引用での使用}BCCWJは現代語コーパスであるが,収録テキストに「非現代語」(BCCWJでは,明治元年より前に書かれた日本語と定義)が若干混在している\footnote{BCCWJに収録するテキストの抽出基準についての詳細は,柏野・稲益・田中・秋元(2009)を参照.}.まとまった「非現代語」は収録テキスト対象外要素として収録しないのだが,一文単位でのテキストの完全収録を保証するために,インライン中に引用されているような「非現代語」は排除せず,そのまま収録している.本論文ではこれを「古典の引用」と呼ぶ.そのような引用中に出現する「古風な語」は「古語」としての使用例である.例えば,次に古典の引用中に現われる「あんずるに【案ずるに・按ずるに】」の例を示す(用例中に用いる,太字,下線及び,括弧内注記は本論文著者による).\begin{itemize}\item仏御前は「つくづく物を\textbf{案ずるに}、娑婆の栄華は夢のうちの夢、たのしみさかえてもなにかせん」(「百二十句本」巻一〈義王出家〉)と言い、つづいて「一旦のたのしみにほこりて、後生を知らざらんことのかなしさに、今朝まぎれ出でて、かくなりてこそ参りたれ」(同前)と言って、かぶっていた衣をのけると、仏御前は、すでに尼姿になっていたのである。(中石孝,1920年代生まれ,『平家れくいえむ紀行』新潮社,1999年)\end{itemize}\subsubsection{明治期から戦前までの使用}BCCWJでは,明治期以降に執筆されたテキストは現代語のテキストであるとされ,明治期以降のテキストが収録されている.しかしながら,明治期から戦前までに執筆されたものは,例えば,旧仮名遣いを用いるなど,現代とは異なる印象を受ける文体のものが多い.また,「古風な語」が「古風」という意識なしで用いられている可能性があると考える.よって,この時期に執筆されているテキストはBCCWJにそう多くは収録されていないが,現代文脈とは区別することとする.例えば次のようなテキストである.前者からは「いずれ【何れ】」の,後者からは「はたまた【将又】」の用例が得られる.\begin{itemize}\item遠野物語の中にも書いてある話は、同郡松崎村の寒戸といふ処の民家で、若い娘が梨の樹の下に草履を脱いで置いたまゝ、行方知れずになつたことがあつた。三十何年を過ぎて或時親類知音の者が其家に集まつて居るところへ、極めて老いさらぼうて其女が戻つて来た。どうして帰つて来たのかと尋ねると、あまりみんなに逢ひたかつたから一寸来た。それでは又行くと言つて、忽ち\textbf{何れ}へか走り去つてしまつた。(柳田國男,1870年代生まれ,『柳田國男全集第3巻』筑摩書房,1997年)\item然らば私の希ふ真の自由解放とは何だらう。云ふ迄もなく潜める天才を、偉大なる潜在能力を十二分に発揮させることに外ならぬ。それには発展の妨害となるものゝ総てをまず取除かねばならぬ。それは外的の圧迫だらうか、\textbf{はたまた}智識の不足だらうか、否、それらも全くなくはあるまい、併し其主たるものは矢張り我そのもの、天才の所有者、天才の宿れる宮なる我そのものである。(平塚雷鳥,1880年代生まれ,『元始、女性は太陽であった平塚らいてう自伝1』大月書店,1992年)\end{itemize}(※いずれも明治期の文章.)\subsubsection{時代・歴史小説での使用}いわゆる「時代小説」「歴史小説」などと呼ばれる,江戸時代以前を舞台とする文芸作品(国内,国外を問わず)のテキストに「古風な語」が多く現れる.「時代小説」とは「古い時代の事件や人物に題材をとった通俗小説。」であり,「歴史小説」とは「過去の時代を舞台にとり、その時代の様相と人間とを描こうとする小説。(中略)単に過去の時代を背景にする時代小説とは異なる。」(以上,『広辞苑第』第6版,岩波書店)と,両者には異なる定義がされているが,本論文では特に両者を区別することはせず,まとめて,「時代・歴史小説」とひとくくりで扱うこととする.石井(1986)は,例えば「おぬし,…でござるか」などは,「歴史小説なり時代小説なりに現はれるからと言つて,その小説の扱ふ時代の古代語と考へるのは,早計である.非現代語すなはち古代的言語を用ゐた作品においては,作家が古代的言語を創造し,読者がそれを享受する,といふ図式が想定できる.」と述べ,そういった享受と創造による「非現代語」が『源氏物語若紫』現代語訳や,日本文芸家協会『歴史ロマン傑作選』の会話文に多く現れることを調査分析し,報告している.本論文では,まさにこれも「古風な語」であると捉える.BCCWJには「時代小説」「歴史小説」などのテキストが多数収録されており,そういった文脈で用いられる「古風な語」の用例が多く得られる.次に,「あんずるに【案ずるに・按ずるに】」と,「にょにん【女人】」の例を示す.\begin{itemize}\item成之の天才的な兵站事務の噂をききつけてのことであった。\textbf{按ずるに}、成之常に加賀藩の事務に従ひしも、其理財に老けたるの名、夙に朝廷に聞へしを以て、終に此事ありし也。(磯田道史,1970年代生まれ,『武士の家計簿「加賀藩御算用者」の幕末維新』新潮社,2003年)\\(※江戸時代を舞台にした時代・歴史小説.)\item廐戸には見せなかったが、河勝はいずれ山背に戻る運命にあることを覚悟していたようだった。\\「そうか、河勝も里心がついたか、それもそうだ、河勝は山背に戻れば葛野の王者だ、屋形も大きく、そちにかしずく\textbf{女人}も多い、いつまでも吾に仕えてくれる、と思っていた吾が甘かった」(黒岩重吾,1920年代生まれ,『聖徳太子日と影の王子1』文芸春秋,1990年)\\(※飛鳥時代を舞台にした時代・歴史小説.)\end{itemize}\subsubsection{現代文脈での使用}執筆時期が戦後であり,上記(3)に該当しない現代語の文章(口語体)を,本論文では「現代文脈」と呼んでいる.一部の見出し語に関しては,その現代文脈に出現する「古風な語」の用例が数多く得られている.例えば次のようなものである.\begin{itemize}\itemここで泣いては\textbf{いかん}、と咽喉の塊を懸命にのみ下しながら、(宮尾登美子,1920年代生まれ,『朱夏』新潮社,1998年)\item不審な気持ちが消え\textbf{失せ}て、とにかく言葉が交わしたかった。(浅倉卓弥,1960年代生まれ,『雪の夜話』中央公論新社,2005年)\itemコミック誌から飛び出してきたような\textbf{いでたち}の男だ。(佐々木譲,1950年代生まれ,『新宿のありふれた夜』角川書店,1997年)\itemセブン‐イレブンの店にほしいものがなければ、\textbf{いと}も単に、買いにこなくなります。(鈴木敏文\textbar述;緒方知行\textbar編,『商売の創造』講談社,2003年)\item恋なのか、忠義なのか、\textbf{はたまた}親子の恩愛なのか。(古井戸秀夫,1950年代生まれ,『歌舞伎』新潮社,1992年)\end{itemize}例えば,「ものども【者共】」には,分類(1)(3)(4)に該当する次のような用例がある.{\setlength{\leftskip}{1zw}\setlength{\parindent}{0pt}\textbf{・(1)古典の引用:}壇の浦の合戦では、源平両軍は三十余町をへだててあい対し、いよいよ戦闘開始ということになったが、早い潮に流された平家の舟を梶原景時の舟が熊手でひっかけて、敵の首を数多く取る功名第一の働きから始まった。そして両軍あわせて鬨をつくり、それが静まると、平知度が大音声に、\ul{「天竺震旦にも、日本わが朝にも、雙びなき名将勇士といへども、運命尽きぬれば力及ばず、されども名こそ惜しけれ、東国の{\bfseries者ども}に弱気見すな、何時の為にか命をば惜しむべき、軍ようせよ、{\bfseries者ども}、只これのみぞ思ふ事よ」}と全軍に宣した(同上・巻十一)。(阿部猛,1920年代生まれ,『鎌倉武士の世界』東京堂出版,1994年)(※下線が古典の引用部分.上記「同上」とは『平家物語』.)\textbf{・(3)時代・歴史小説での使用:}久幸ははじめて深い笑みを見せ、「この臆病者が必ずお守り申す。ご安心あれ」といった。そして、「\textbf{者ども}続け!」と大声をあげると、私兵五百人を率いて、まっしぐらに大内勢に向かって行った。(童門冬二,1920年代生まれ,『小説毛利元就』PHP研究所,2002年)(※時代小説.この例は室町時代から戦国時代の時代設定.)\textbf{・(4)現代文脈での使用:}「なるほど、これは無用のことを申しました\textellipsisさあ、\textbf{ものども}、引っ立てい!」ドラホマノフの命令を受けて、兵士たちがユリアスとパッシェンダールに縄をかける。さすがに、この人数差では、パッシェンダールといえども抵抗のすべがなかった。(赤城毅,1960年代生まれ,『滅びの星の皇子』中央公論新社,2001年)\par}つまり,「ものども【者共】」は,BCCWJにおいて,古語としての用例が現われる語であり,時代小説や歴史小説では,その時代設定にあう語として使われる語であり,かつ,現代文脈においても使われる語であることがわかる.「古風な語」としてひとくくりする中には,現代語書き言葉においてこのように幅広い用法で出現する語のあることが,本調査により確認できた.\subsection{「古風な語」の用法の分類結果}BCCWJが現代語書き言葉を収集したコーパスであるため,古典の引用の用例数はそもそも少ない.また,先に述べたとおり,明治期から戦前までに執筆されたテキストも少ないため,その用例数も少ない.一方,時代小説や歴史小説のテキストはBCCWJに多く収録されていることから,それらの用例数は多い.また,現代文脈から得られる用例も一定数以上得られている.\begin{table}[b]\caption{「古風」使用頻度上位9語の用例分類結果}\input{02table04.txt}\end{table}使用頻度が50以上あった,上位9語(「古語的」1語(いたく),「古風」8語(いかん,ほか),付録の表5,表6を参照)を取り上げ,それらの用例を分類した結果を表4に示す.上から5語は,時代・歴史小説の用例の割合が多い順,次の3語は現代文脈の用例の割合が多い順である.そして,最後の1語が両者の用例の割合が拮抗していた語である.割合の高いところに色をつけて示している.このように,BCCWJにおいて高頻度である「古風な語」は,時代・歴史小説の用例の割合が多いものと,現代文脈の用例の割合が多いものとがあった.同じ「古風な語」とくくるには,用法の傾向は大きく異なっている.つまり,時代・歴史小説の使用が多い,現代文脈の使用が多い,といったその語が使用されている文脈の特徴を辞書に明記し,その用例を具体的に記述することが,「古風な語」とひとくくりに説明するよりも,それぞれの語の文体的特徴を説明することができるようになるということである.\subsection{辞典間の記載に差異のある語の分析}3.3節では,5種の辞典間に,見出し語として採用されている数や,古さについてのラベルや注記が付与されている数が異なる語があることを述べた.表2の「まがまがしい【禍々・枉々・曲々・凶々しい】」と,表3の「よしなに【良しなに】」の2語は,見出し語として採用しているのは5辞書であるが,注記は2辞書ずつという語であった.また,表2の「やわか」は,見出しとして採用し,注記を付与しているのが2辞書のみ,という語であった.付録の表5,表6に示す通り,BCCWJには,「まがまがしい」に33例,「よしなに」に7例の使用がある.そのうち,2例ずつ引用する.\begin{itemize}\itemそれは途方もなく暗鬱な感じの建物で、\textbf{まがまがしい}気配にみち、見物するのは愉快な体験ではなかつた。(丸谷才一,1920年代生まれ,『日本の名随筆』作品社,1988年)\item「お気をおつけ下さい」ヒロはいう。「今夜は、\textbf{まがまがしい}気配が満ちております。その心を感じるのです。ザック様のことですから何がおころうときっと大丈夫でしょうが\textellipsis心配でなりません」(眉村卓,1930年代生まれ,『迷宮物語』角川書店,1986年)\item「よう冷えるなあ。こらたまらんワ。泰平堂、まあ\textbf{よしなに}調べてくれ」声をかけて信濃は去っていった。(阿部牧郎,1930年代生まれ,『出合茶屋』講談社,2003年)\item「お世話をかけます、なにとぞ\textbf{よしなに}」懐しさを顔一ぱいにみせてお茂の方は、頭を下げた。(竹内勇太郎,1920年代生まれ,『甲府勤番帖』光風社出版,1992年)\end{itemize}「まがまがしい」は33例中,5例が時代・歴史小説の用例であったが,残り28例は上記2例のような現代文脈の使用であった.「よしなに」は,7例中のすべての例が,上記2例のような時代・歴史小説の用例であった.どちらにも時代・歴史小説の用例のあることから,「古風な語」という注記を付与すべき語であることがまずはわかる.それに加え,「まがまがしい」は現代文脈での使用が多く,「よしなに」は時代・歴史小説での使用が多い語であるということもわかる.続けて,2辞書のみ見出し語に採用していた「やわか」の使用例をみてみる.BCCWJから得られる用例3例中より,2例を示す.\begin{itemize}\item「この胴も手足も、蓬山から出た鉄を百年も磨き抜いてこしらえたものよ。項羽の豪刀をもってしても傷ひとつつかなんだ。\textbf{やわか}、おまえの妖糸ごときに引けは取らぬぞ」「そりゃ、どうも」(菊地秀行,1940年代生まれ,『夜叉姫伝』祥伝社,1991年)\item「いかなる御用とて、われらにおきかせあれ!拙者、\textbf{やわか}島田虎之助の働きに劣りましょうや」と、斎藤弥九郎が、いかにも体調の悪いらしい島田虎之助をあごでさして、そのあごをお耀の方にぐいとつき出す。(山田風太郎,1920年代生まれ,『武蔵野水滸伝』富士見書房,1993年)\end{itemize}こういった用例に触れて国語辞典をひく読者がいることを想定すると,「やわか」は「古風な語」として現代語辞書に取り上げるとよい語であると言える.このようにコーパスで使用例を確認することは,辞書によって扱いに差異のある語の辞書記述の判断の参考になることを示した.
\section{コーパス分析を活かした辞書記述}
前章で,「古風な語」の使用実態についてコーパスの分析結果を示した.本章にて,そのコーパス分析に基づく辞書記述を提案する.\subsection{コーパス分析に基づく辞書記述の利点}従来,辞書記述はもっぱら編集者の知識や内省によって行われていたが,これを補うものとして徐々にコーパスの利用が試みられるようになった.1964年にアメリカでBrownCorpusが公開されて以降,各種大規模コーパスの構築,公開に伴い,欧米における辞書記述のコーパス活用は一気に加速していく(Sinclair1991,石川2004,井上2005).例えば,英国のCollins,Longman,Oxford,Cambridge各社の辞書である.それらの影響を受け,日本の英和辞書にもコーパスの活用は広がっている.コーパスベースの辞書記述を取り入れた英和・和英辞書には,『ウィズダム英和辞典』(三省堂,2002年),『ウィズダム和英辞典』(三省堂,2007年)や『ユース・プログレッシブ英和辞典』(小学館,2004年)がある.コーパスベースを謳う国語辞典や日本語の辞書は今現在ないが,コーパス分析を日本語の辞書記述に活かそうとする議論は徐々に活発になってきている(加藤1998,後藤2001,田野村2009,荻野2010,石川2011,カルヴェッティ2011など).辞書記述がコーパスベースになる利点は,以下の3点である(柏野2011).\begin{itemize}\item[\textbf{(1)}]\textbf{見出し語の選定や,語義の選定・配列の客観性}:見出し語単独の頻度の情報が得られる.辞書に記載すべき見出し語の選定や,語義の選定・配列を,客観的に行える.\item[\textbf{(2)}]\textbf{用例記述の網羅性}:見出し語とほかの語との組み合わせの頻度の情報が得られる.見出し語とその前後の連なり,見出し語と共起する語(コロケーションと呼ばれる),見出し語の現れる構文などの特徴的なパターンを発見しやすい.用例を網羅的に辞書に記述できる.\item[\textbf{(3)}]\textbf{見出し語の使用域記述の具体性}:資料の幅が広がり,見出し語の多様性を捉えることができる.ジャンルあるいはレジスタなどと呼ばれる,言葉の使用域が異なる場合,それを具体的に辞書記述に反映できる(例えば,話し言葉的か,書き言葉的か,フォーマルか,インフォーマルか).\end{itemize}\subsection{コーパス分析を「古風な語」の辞書記述に活かす方法}5.1節で述べたコーパスベースによる辞書記述に期待できる3点に照らし合わせながら,コーパス分析を「古風な語」の辞書記述に活かす方法を検討する.\subsubsection{見出し語の選定や,語義の選定・配列の客観性}各種国語辞典やコーパスを利用して得た「古風な語」の頻度情報をコーパスで得る.頻度情報は,「コーパスベース国語辞典」の見出し語選定の参考になる.4.1節,および,付録の表5,表6にて,『岩国』から抽出した「古風な語」の使用頻度を示した.頻度の高い語はどの辞典でも見出し語として採用されていることが確認できる.が,頻度が低い語の場合,例えば,「あんずるに【案ずるに・按ずるに】」「て」「しんずる【進ずる】」「のう」の4語は,見出し語として採用していない辞典のあることがわかる.現行辞典の採用状況から見出し語選定をしようとする場合には,これらが採否のボーダー上になってくるだろう.しかし,筆者らは,BCCWJで低頻度でも用例の得られる語は現代語として目にする機会のある語であると考え,これら4語いずれについても,見出し語として採用すべき語と考える.一方,今回の調査で頻度0であった語を,ただちに見出し語として採録しないと結論づけるのは難しい.現代語の辞典で取り扱う必要性の低い「古語」であるのか,あるいは,たまたま例がとれなかった「現代語」であるのかがわからないからである.BCCWJにおいて頻度0であることの意味は,今後,調査範囲とするコーパスを増やしたさらなる検討が必要であるだろう.次に,既存の国語辞典等によらず,コーパスから自動的に「古風な語」の抽出が可能であるかを考える.BCCWJ「図書館サブコーパス」の形態素解析結果より,「活用型:文語」となっている語の抽出を行った.BCCWJは,短単位(意味を持つ最小の単位を結合させる,または結合させないことによって認定)と長単位(文節を規定に基づいて分割する,または分割しないことによって認定)とで解析されている(小椋,小磯,冨士池,宮内,小西,原2011,小椋,冨士池2011).短単位の抽出結果では,その使用頻度の上位は「べし:13,889,なり:5,421,たり:3,357,ごとし:2,048,り:1,888」であった.高頻度の助詞・助動詞の用例が多数得られることがまずは確認できた.また,「有り:618,然り:525,来たる:284,恐る:262」など,文語の活用形で用いられる語の抽出ができることも確認できた.しかしながら,長単位の抽出結果とあわせてみても,文語形を含む見出し語そのものの形での抽出は自動では簡単ではない.例えば,「止む無し」は一つの長単位として抽出できているが,そういう語は少ない.多くは,「なきにしもあらず」が「なき+に+しも+あら+ず」となっているように,長単位も短単位同様に複数に切れている.また,「さもありなん」のように誤解析されている場合もある(「なん」が「名詞【何】」と誤解析.正しくは文語助動詞「な+む」).いずれの場合も,自動抽出のためには形態素解析の辞書整備が必要であるが,そのためには,結局,既存の国語辞典等にある見出し形をあらかじめ先に参照しなければならない,ということになる.語義の選定・配列についてのコーパス情報の利用は,5.3節で具体例をもって示す.\subsubsection{用例記述の網羅性}BCCWJにおいて一定数以上の用例が得られれば,ある程度の網羅的な記述は可能である.ただし,「古風な語」を扱う場合は,BCCWJよりも前の時代のコーパス分析も欠かせないだろう.現時点では,少し前の時代のコーパスとして,著作権の消滅した作品が中心に集められ,明治〜昭和初期の小説が多く収録されている『青空文庫』\footnote{http://www.aozora.gr.jp/}や,明治後期〜大正期の総合雑誌『太陽』から5年分が抽出されている『太陽コーパス』\footnote{http://www.ninjal.ac.jp/corpus\textunderscorecenter/cmj/taiyou/}(国立国語研究所)などが利用可能である.\subsubsection{見出し語の使用域記述の具体性}「古風な語」の用法は,(1)古典の引用での使用,(2)明治期から戦前までの使用,(3)時代・歴史小説での使用,(4)現代文脈での使用,と分類でき,かつ,その使用傾向が語の用法把握につながることを,4.2節と4.3節とで示した.その際に,特に,分類(3)と(4)に相当する用法の具体的記述が重要であることを述べた.(3)の,主に時代小説や歴史小説での使用は,現代においてそれら小説を読む際の理解に欠かせないものである.現代語ではないと排除することなく,辞書にとりあげ,詳細に記述すべきものであろう.さらに,(4)の,現代文脈での使用は,一部の「古風な語」における顕著な特徴である.よって,「古風な語」の現代文脈における使用例がある場合は,それを具体的に辞書に記述すべきである.これらの考察をふまえ,次節では具体例を用いて,コーパス分析に基づく「古風な語」の辞書記述案を示す.\subsection{コーパス分析に基づく「古風な語」の辞書記述}本論文では,次のとおり,コーパス分析に基づく「古風な語」の「コーパスベース国語辞典」記述方法を提案する.\vspace{1\Cvs}\vbox{{\hruleheight0.25ptdepth0ptwidth420pt}\hboxto420pt{{\vrulewidth0.25pt}\hfill\begin{minipage}{410pt}\kern0.5\Cvs\textbf{「古風な語」の「コーパスベース国語辞典」記述方法}\begin{itemize}\item[1.]現行の国語辞典類や,BCCWJ,『青空文庫』,『太陽』等のコーパスを利用し,次の条件を満たす,「古風な語」を選定する.\begin{itemize}\item[(a)]「時代・歴史小説」を含めて現代で使用が見られる.\item[(b)]明治期以前,あるいは,戦前までの使用が見られる.\end{itemize}\item[2.]BCCWJ,『青空文庫』,『太陽』等のコーパスから,「古風な語」の使用頻度,用例を得る.\end{itemize}\end{minipage}\hfill{\vrulewidth0.25pt}}}\clearpage\hboxto420pt{{\vrulewidth0.25pt}\hfill\vboxspread0.5\Cvs{\noindent\begin{minipage}{410pt}\begin{itemize}\item[3.]多義語の場合,意味分析を行い,意味別の使用頻度を得る.\item[4.]得られた用例を,(1)古典の引用での使用,(2)明治期から戦前までの使用,(3)時代・歴史小説での使用,(4)現代文脈での使用,に分類し,各頻度を得る.\item[5.]分類別の使用頻度を参考に,中心的となる語義から順に配列する.\item[6.]用例は,用例の(1)〜(4)の分類傾向や,具体的な使用域がわかるよう明記する.\item[7.]そのほか,表記情報や,使用者の性別・年代など,コーパスから抽出できた情報を明記する.\end{itemize}\end{minipage}}\hfill{\vrulewidth0.25pt}}{\hruleheight0.25ptdepth0ptwidth420pt}\vspace{1\Cvs}「そなた【其方】」を例に,現行の国語辞典の記述(『岩国』)に対する,上記,「コーパスベース国語辞典」記述方法に即した記述案を次に示す.「そなた」は,上記,(a),(b)の条件を満たす.\textbf{例:そなた【其方】}\textbf{[『岩国』(第7版)]}\MaruOneそちらのほう。そちら側の所。\MaruTwo目下の相手を指す語。おまえ。なんじ。古風な言い方。\textbf{[コーパス分析]}\begin{itemize}\item「そなた【其方】」はBCCWJで434の頻度があり,「古風な語」の中では高頻度である語である.\\→\textbf{見出し語の選定:}十分な頻度が得られるため見出し語として採録すべき語と判断.\item『岩国』\MaruOneの該当用例はBCCWJでは頻度0.『青空文庫』には3例見つかる.BCCWJで得られる434の用例は,すべて『岩国』\MaruTwoの用法の該当例である.\\→\textbf{語義の選定・配列:}\MaruOneと\MaruTwoを語義と認定.ただし,\MaruOneの用法はBCCWJで0であり,現代語では,\MaruTwoの用法がより中心的な語義と認定できるため,語義の配列順を入れ替える.\item『岩国』\MaruTwoの用例分類は4.3節の表4の通り,ほとんどが「(3)時代・歴史小説での使用」である.国内の時代小説のほか,時代設定の古い翻訳小説の用例もある.現代文脈での使用は少ないが,ある.また,BCCWJで得られた用例はすべて発話部分における使用.\\→\textbf{用例記述・見出し語の使用域:}(3)時代・歴史小説での使用例を1番に.続けて,翻訳小説,現代文脈の使用例を記述.「発話で多用」を明記.発話については話者間の関係を明記。\item漢字表記「其方」の使用例は見つけられない.検索される「其方」は「そちら」「そのほう」の漢字表記の使用例と思われる.\\→表記情報を注記.\end{itemize}\textbf{[「コーパスベース国語辞典」記述案]}\begin{itemize}\item[\rlap{\MaruOne}]多くは目下の相手をさす語。おまえ。なんじ。時代・歴史小説的。同等の相手をさすこともある。\begin{itemize}\setlength{\fboxsep}{1pt}\item[\textbullet]時代・歴史小説等の発話で多用。\\「\colorbox[gray]{.9}{そなた}、勘六どのを見舞って来やれ。さっきの飴の甘味はきつすぎます。よけい食べさせてはなりませぬ。急いでゆきゃれ」(山岡荘八『徳川家康』)\\※後に家康を産む於大の方(目上)から,召使いの百合(目下)への発話。\\「ほう、\colorbox[gray]{.9}{そなた}もさようなことを考えておったのか?」豪族は大きく頷いた。(山田智彦『木曽義仲』)\\※信濃国の各地から集まってきた豪族たち同士(同等)の対話。\item[\textbullet]時代設定の古い小説(特に翻訳小説)における発話で使用。\\「\colorbox[gray]{.9}{そなた}は誰なのか、教えてくれ」。(井村君江『アーサー王物語』)\\※アーサー王(目上)から,騎士であるトリストラム卿(目下)への発話。\\「ねえ乳母や、\colorbox[gray]{.9}{そなた}の申し条、もっともなことです。ただ怒りのあまり分別を失っていたのです」と言いました。(池田修『アラビアン・ナイト』)\\※王女である姫(目上)から,老女の乳母(目下)への発話。\item[\textbullet]現代文脈での使用は多くはないが,威厳や威圧があるよう造形された人物(多くは目上)からの発話を表すものとして使用。\\「厚志よ」\\舞が呼びかけると、厚志はビクリと身を震わせた。\\「え、なに?」\\「何を驚く?\colorbox[gray]{.9}{そなた}の名を呼んだだけだぞ」\\(榊涼介『ガンパレード・マーチ5121小隊九州撤退戦』)\\※小隊司令官である舞(目上)から,その下にいる厚志(目下)への発話。\end{itemize}\item[\rlap{\MaruTwo}]そちらのほう。そちら側の所。▽明治期頃まで。\begin{itemize}\setlength{\fboxsep}{1pt}\item[\textbullet]使用はまれ。\\\ruby{五月雨}{さみだれ}に四尺伸びたる\ruby{女竹}{めだけ}の、\ruby{手水鉢}{ちょうずばち}の上に\ruby{蔽}{おお}い重なりて、余れる一二本は高く軒に\ruby{逼}{せま}れば、風誘うたびに戸袋をすって\ruby{椽}{えん}の上にもはらはらと所\ruby{択}{えら}ばず緑りを\ruby{滴}{したた}らす。「あすこに画がある」と葉巻の煙をぷっと\colorbox[gray]{.9}{そなた}へ吹きやる。(夏目漱石『一夜』)\\\ruby{恋}{こひ}の\ruby{淵}{ふち}・峯の薬師・百済の\ruby{千塚}{ちづか}など、通ひなれては、\colorbox[gray]{.9}{そなた}へ足むくるもうとましきに、折しも秋なかば、汗にじむまで晴れわたりたる日を、たゞ一人、小さき麦稈帽子うち傾けて、家を出でつ。(折口信夫『筬の音』)\end{itemize}※漢字表記「其方」の使用例は見つけにくい.該当表記例があっても,別見出し「そちら」「そのほう」との区別がつけがたい。\end{itemize}以上の記述案により,「そなた【其方】」の用法は,時代・歴史小説の発話文での使用が中心的な語であることが明確になる.多くの用例を示したことにより,現代の文章生成時の語選択においては,時代がかったセリフとなる効果のある語であることに留意すべき語であることがわかる.さらに,漢字表記の【其方】はほとんど使用例がなく,かつ,「そちら」「そのほう」とまぎれる可能性があるので,ひらがな表記を選択すべきこともわかる.このように,「コーパスベース国語辞典」に文体的特徴や用例を記述することは,語の理解はもとより,語の選択時の情報量を増やし,その利用価値を高めると期待される.なお,中世・近世のコーパスがない状況においては,国語史研究の知見を参照することが有効である.「そなた」は中世より,主に上位の話し手が,下位の話し相手に対して使用する例の多い人称の一つと位置づけられている.中世から近世にかけての使用実態については,山崎(2004),小島(1998)に詳細な分析があり,上位から下位に用いられ,時には対等の間柄でも用いられるものであると報告されている.「上位から下位」の例,「対等」の例がともにコーパスから得られたため,辞書記述案ではそれら先行研究の知見を活かし,「主に上位から下位へ」「時には対等」で用いられることがわかるよう注記することも有用である.国立国語研究所では,将来的に上代から近代の作品をカバーする「日本語歴史コーパス」の構築が進められている(http://www.ninjal.ac.jp/corpus\textunderscorecenter/chj/).それらコーパスの整備に伴い,コーパス分析の可能性が広がることが期待される.
\section{おわりに}
本論文では,「古風な語」に着目し,『岩波国語辞典』に「古語的」と注記がついている15語と,「古風」と注記がついている145語を調査対象語に選定し,現行の国語辞典5種の記述調査及び,現代語コーパスの使用頻度調査と用例分析とを行った.そして,コーパス分析に基づく「コーパスベース国語辞典」における記述方法を提案した.(1)古典の引用での使用,(2)明治期から戦前までの使用,(3)時代・歴史小説での使用,(4)現代文脈での使用,という4分類に基づく辞書記述方法が,従来の「古風な語」をひとくくりにする辞書記述よりも,語の文体的特徴をより豊富に記述できることを示した.その一例として「そなた」の記述例を示した.なお,「コーパスベース国語辞典」記述方法(5.3節)の3に挙げた意味判別に関しては,例えば,Pulkit・白井(2012)など,すでに自動化の研究が進んでいる.筆者らは,4に挙げた,当該語の用いられる文脈が,分類(1)〜(4)のいずれであるかの判別についても,自動化が可能であると考えている.コーパスから自動的に抽出できる辞書情報を活用していくことにより,従来の主に人手による国語辞典の編集とは異なる,一貫性のある「コーパスベース国語辞典」の構築が可能になると考える.\acknowledgment本研究は,文部科学省科学研究費補助金基盤研究(C)「辞書用例の記述仕様標準化のための実証研究」(課題番号:20520428),並びに,文部科学省科学研究費補助金基盤研究(C)「コーパス分析に基づく辞書の位相情報の精緻化」(課題番号:23520572)の助成を受けたものです。\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\itemカウイー,A.P.(赤須薫,浦田和幸訳)(2003).学習英英辞書の歴史:パーマー,ホーンビーからコーパスの時代まで.研究社.(Cowie,A.P.(2002)\textit{EnglishDictionariesforForeignLearners.AHistory.}Oxford:OxfordUniversityPress).\itemカルヴェッティ・パオロ(2011).イタリア人向けの和伊辞典編纂におけるBCCWJの貢献.「現代日本語書き言葉均衡コーパス」完成記念講演会予稿集,pp.217--226.\item遠藤織枝(1988).話しことばと書きことば—その使い分けの基準を考える—.日本語学,\textbf{7}(3),pp.27--42.\itemFedorova,I.V.(2004).``StyleandUsageLabelsinLearners'Dictionaries:WaysofOptimization.''In\textit{Proceedingsofthe11thEURALEXInternationalCongress,July6--10.}pp.265--272.\item後藤斉(2001).日本語コーパス言語学と語の文体レベルに関する予備的考察.東北大学文学研究科研究年報,\textbf{50},pp.201--214.\itemハートマン,R.R.K.(編)(1984).辞書学:その原理と実際.三省堂.木原研三,加藤知己(翻訳監修),Hartmann,R.R.K.(ed.)(1983).\textit{Lexicography:PrinciplesandPractice.}London:AcademicPress.\itemH\"{u}nig,W.H.(2003).``StylelabelsinmonolingualEnglishlearners'dictionaries.''InH.Cuyckensetal.(eds),\textit{MotivationinLanguage:StudiesinHonorofG\"{u}nterRadden.}Amsterdam:JohnBenjamins,pp.367--389.\item井上永幸(2005).コーパスに基づく辞書編集.齊藤俊雄,中村順作,赤野一郎(編).英語コーパス言語学—基礎と実践—改定新版.研究社,pp.207--228.\item石井久雄(1986).古代的言語の享受と創造.文部省昭和60年度科学研究費補助金による一般研究(C)研究報告書.\item石川慎一郎(2004).Corpus,Dictionary,andEducation:近刊EFL辞書に見る辞書編集の潮流.KobeEnglishLanguageTeaching,\textbf{19},pp.61--79.\item石川慎一郎(2011).現代日本語書き言葉均衡コーパス(BCCWJ)における複合動詞〜出すの量的分析.統計数理研究所研究レポート,\textbf{238},pp.15--34.\item柏野和佳子(2009).1.3辞書.言語処理学会(編).言語処理学事典,pp.80--85.共立出版.\item柏野和佳子・稲益佐知子・田中弥生・秋元祐哉(2009).第4章対象外要素の排除指定.特定領域研究「日本語コーパス」平成20年度研究成果報告書「現代日本語書き言葉均衡コーパス」における収録テキストの抽出手順と事例,pp.66--88.\item柏野和佳子・奥村学(2010).国語辞典に「古い」と注記される語の現代書き言葉における使用傾向の調査.情報処理学会人文科学とコンピュータ研究会報告,\textbf{88},pp.59--70.\item柏野和佳子・奥村学(2011).国語辞典に「古風」と注記される語の使用実態調査—「現代日本語書き言葉均衡コーパス」を用いて—.言語処理学会第17回年次大会発表論文集,pp.444--447.\item柏野和佳子(2011).コーパスに基づく辞書づくり—これからの国語辞典はこう変わる—.日本知能情報ファジイ学会誌,\textbf{23}(5),pp.705--713.\item加藤安彦(1998).辞典とコーパス.日本語学,\textbf{17}(12),pp.37--44.\item小島俊夫(1998).日本敬語史研究—後期中世以降.笠間書院.\item小椋秀樹,小磯花絵,冨士池優美,宮内佐夜香,小西光,原裕(2011).「現代日本語書き言葉均衡コーパス」形態論情報規程集第4版(上)(下).国立国語研究所内部報告書,LR-CCG-10-05-01,02.\item小椋秀樹,冨士池優美(2011).第4章形態論情報.国立国語研究所「現代日本語書き言葉均衡コーパス」利用の手引第1.0版,4-1--4-35.\item前坊香菜子(2009).語の文体的特徴に関する情報についての一考察—国語辞典と類語辞典の調査から—.一橋日本語教育研究報告,\textbf{3},pp.50--60.\item前川喜久雄(2008).KONONOHA「現代日本語書き言葉均衡コーパス」の開発.日本語の研究,\textbf{4}(1),pp.82--95.\item前川喜久雄(編)(2013).講座日本語コーパス1コーパス入門.朝倉書店.\item宮島達夫(1977).単語の文体的特徴.村松明教授還暦記念国語学と国語史,pp.871--903.明治書院.\item荻野綱男(編)(2010).特定領域研究日本語コーパス平成21年度研究成果報告書,コーパスを利用した国語辞典編集法の研究.\itemPtaszynski,M.O.(2010)``TheoreticalConsiderationsfortheImprovementofUsageLabellinginDictionaries:ACombinedFormal-FunctionalApproach.''\textit{InternationalJournalofLexicography,}\textbf{23}(4),pp.411--442.\itemPulkit,K.,白井清昭(2012).パラレルコーパスから自動獲得した用例に基づく語義曖昧性解消.情報処理学会研究報告,自然言語処理研究会報告,\textbf{2012-NL-207}(3),pp.1--8.\itemSakwa,L.N.(2011).``ProblemsofUsageLabellinginEnglishLexicography.''\textit{LEXIKOS},\textbf{21}(1),pp.305--315.\itemSinclair,J.(1991).\textit{CorpusConcordanceCollocation.}Oxford:OxfordUniversityPress.\item田野村忠温(2009).コーパスを用いた日本語研究の精密化と新しい研究領域・手法の開発.人工知能学会誌,\textbf{24}(5),pp.647--655.\item山崎久之(2004).増補補訂版国語待遇表現体系の研究近世編.武蔵野書院,\item山崎誠(2009).代表性を有する現代日本語書籍コーパスの構築.人工知能学会誌,\textbf{24}(5),pp.~623--631.\item山崎誠(2011).第2章「現代日本語書き言葉均衡コーパス」の設計.国立国語研究所「現代日本語書き言葉均衡コーパス」利用の手引第1.0版,2-1--2-8.\end{thebibliography}\appendix(1)表5「古語的」15語の調査結果(2)表6「古風」147語の調査結果※表中,「多義」の欄に「*」を付してある語は,「古語的」あるいは「古風」の注記が多義のうちの一つの語義についていた語であることを示す.※表中,「使用有」の欄に「—」のある語は,使用頻度調査の対象外の語であることを示す.※表中,使用頻度が50を超えている語には,使用頻度の欄に色をつけて強調している.\begin{table}[h]\caption{「古語的」15語の調査結果}\input{02table05.txt}\end{table}\clearpage\begin{table}[p]\caption{「古風」147語の調査結果}\input{02table06-1.txt}\end{table}\addtocounter{table}{-1}\begin{table}[p]\caption{(続き)}\input{02table06-2.txt}\end{table}\addtocounter{table}{-1}\begin{table}[p]\caption{(続き)}\input{02table06-3.txt}\end{table}\addtocounter{table}{-1}\begin{table}[t]\caption{(続き)}\input{02table06-4.txt}\end{table}\clearpage\begin{biography}\bioauthor{柏野和佳子}{東京女子大学文理学部日本文学科卒業.現在,大学共同利用機関法人人間文化研究機構国立国語研究所言語資源研究系准教授.辞書,語彙研究に従事.これまで『計算機用日本語基本辞書(IPAL)』(情報処理振興事業協会),『国立国語研究所資料集14分類語彙表』(大日本図書),『岩波国語辞典』(岩波書店)の編集作業に携わる.情報処理学会,計量国語学会,日本語学会,人工知能学会各会員.[email protected]}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.[email protected],http://oku-gw.pi.titech.ac.jp/\textasciitildeoku/.}\end{biography}\biodate\end{document}
| |
V04N03-04
|
\section{はじめに}
近年,大量の機械可読なテキスト(コーパス)が利用可能になったことや,計算機の性能が大幅に向上したことから,コーパス・データを利用した確率的言語モデルの研究が活発に行われてきている.確率的言語モデルは,従来,自然言語処理や音声処理などの工学分野で用いられ,その有効性を実証してきたが,比較言語学,方言研究,言語類型論,社会言語学など,言語学の諸分野においても有用な手法を提供するものと思われる.本稿では,言語学の分野での確率的言語モデルの有用性を示す一例として,言語のクラスタリングを取り上げる.ここでは,言語を文字列を生成する情報源であるとみなし,この情報源の確率・統計的な性質を確率モデルによりモデル化する.次に,確率モデル間に距離尺度を導入し,この距離尺度に基づき言語のクラスタリングを行なう方法を提案する.以下では,まず2節で先行研究について概説し,3節で確率的言語モデルに基づく言語のクラスタリング手法を提案する.4節では,提案した手法の有効性を示すために行った実験について述べる.ここでは,ECI多言語コーパス(EuropeanCorpusInitiativeMultilingualCorpus)中の19ヶ国語のテキスト・データから,言語の系統樹を再構築する.また,実験により得られた結果を,言語学的な観点から考察する.最後に,他分野への応用および今後の課題などについて述べる.
\section{従来の研究}
統計的手法に基づき,言語の比較を計量的に行う研究は,従来から広く行われてきている.KroeberおよびChr\'{e}tienは,1930年代に,音韻や語形等の言語的特徴から言語間の相関係数を求め,これに基づきインド・ヨーロッパ諸言語9ヶ国語およびヒッタイト語の間の類似性を求める研究を行っている\cite{Kroeber37,Kroeber39}.また,クラスター分析に基づき,自動的に言語や方言を分類する研究に関しても,いくつかの先行研究がある.文献\cite{Yasumoto95Book}には,これらの研究の古典的な諸方法が概説されている.また,数学的手法に基づく言語のクラスタリングに関する最近の研究として,Batageljらの研究\cite{Batagelj92}があり,そこでは65ヵ国語の言語に対するクラスタリング結果が示されている.ここで,従来研究では,言語間の距離(あるいは類似度)を導入するために,どのような方法が用いられてきたかを若干紹介する.文献\cite{Yasumoto95Book}の4章で述べられている方法では,インド・ヨーロッパ諸言語の一致度を調べるために,2つの言語の対応する数詞の最初の子音が一致しているか否かを調べている.たとえば,ドイツ語とスペイン語の数詞``1''はそれぞれ``eins''および``uno''であるが,これらの2単語において,最初に出現する子音は共に``n''であるので,数詞``1''に関しては,ドイツ語とスペイン語は一致していると考える.10個の数詞のうち,何個の数詞について最初の子音が一致しているかを調べ,これをもとに言語間の距離を導入している.また,Batageljらの研究では,2つの言語の対応する単語の文字列間距離に基づき,言語間の距離を定義している.いま,2つの文字列$u$および$v$が与えられたとき,文字列$u$中に文字を追加したり,あるいは$u$中の文字を削除したりして,文字列$u$を文字列$v$に変換することを考える.このとき,文字列$u$を文字列$v$に変換するために必要な最小の追加および削除文字数で,2つの文字列間の距離を定義する.たとえば,$u=\mbox{``belly''}$,$v=\mbox{``bauch''}$に対しては,まず$u$から``elly''を削除し,次に``auch''を追加することにより,$u$を$v$に変換することができるので,この場合の文字列間距離は8(削除4文字+追加4文字)である.以上の文字列間距離を各言語から抽出した16個の単語について求め,これらの距離の和により,言語間距離を定義している\footnote{Batageljらは,文字の追加・削除に加え置換を考慮した文字列間距離など,他の文字列間距離についても議論しているが,本稿では省略する.}.以上のように,従来の研究では,あらかじめ人間が言語を分類する上で有用であると思われる音韻や語形等の言語的特徴を抽出したり,あるいは比較のための基礎語彙を選定するなどの作業が必要であった.また,言語間距離の定義にも恣意的な部分が残されていたということができる.
\section{確率モデルに基づく言語のクラスタリング}
本稿で提案する方法の概略を図\ref{Fig:OurApproach}に示す.この方法では,まず各言語の言語データから確率的言語モデルを自動的に学習し,次に確率モデル間に距離を導入することにより,言語間の距離を定義する.このように,本稿の方法は,自己組織的(self-organizing)であり,あらかじめ人間が各言語の言語的特徴を抽出したり,基礎語彙を選定する必要はない.また,本稿の方法の利点として,各言語のデータを独立に選ぶことができるという点をあげることができる.たとえば,言語によって違うジャンルのテキストであったり,あるいはデータのサイズが異なっていても,これらのデータの揺れを確率モデルの中に吸収することができる.確率モデルとしては,様々なものが考えられるが,4節で述べる評価実験では文字のtrigramモデルを用いた.trigramモデルは,$N$-gramモデルの特別な場合($N=3$の場合)であり,以下では$N$-gramモデルについて簡単に説明する.$N$-gramモデルに関する詳細な説明は,たとえば文献\cite{Jelinek90,Kita96Book}などを参照せよ.\begin{figure}\begin{center}\atari(80,98)\end{center}\caption{確率モデルに基づく言語のクラスタリング}\label{Fig:OurApproach}\end{figure}\subsection{$N$-gramモデル}たとえば,英語では文字qには文字uが後続するとか,ドイツ語においては文字cに後続するのはhやkであるなど,文字の連鎖には確率・統計的な性質が存在する.$N$-gramモデルは,このような文字の連鎖をモデル化するために適した確率モデルである.文字の$N$-gramモデルは,文字の生起を$N-1$重マルコフ過程により近似したモデルであり,文字の生起は直前に出現した$N-1$文字にのみ依存すると考える.すなわち,$n$文字から成る文字列$c_{1},\cdots,c_{n}$に対し,\begin{equation}P(c_n|c_1,\cdots,c_{n-1})\approxP(c_n|c_{n-N+1},\cdots,c_{n-1})\label{Eq:NgramDef}\end{equation}となる.$N$-gramモデルを用いた場合,文字列$c_{1},\cdots,c_{n}$の生成確率は,次のようにして計算することができる.\begin{eqnarray}P(c_1,\cdots,c_n)&=&\prod_{i=1}^{n}P(c_i|c_1,\cdots,c_{i-1})\nonumber\\&\approx&\prod_{i=1}^{n}P(c_i|c_{i-N+1},\cdots,c_{i-1})\end{eqnarray}上式において,最初の等式は,確率論の基本定理から導かれる.また,2番目の近似式は,式(\ref{Eq:NgramDef})による.いま,文字列$c_{1},\cdots,c_{n}$が言語データ中に出現する回数を$F(c_{1}\cdotsc_{n})$で表すことにする.$N$-gramの確率は,言語データ中に出現する文字の$N$個組と$(N-1)$個組の出現回数から,次のように推定することができる.\begin{equation}P(c_n|c_{n-N+1},\cdots,c_{n-1})=\frac{F(c_{n-N+1},\cdots,c_n)}{F(c_{n-N+1},\cdots,c_{n-1})}\label{Eq:NgramTraining}\end{equation}$N$の値が大きい場合には,統計的に信頼性のある確率値をコーパスから推定することが難しくなるため,通常は$N=3$あるいは$N=2$のモデルが用いられることが多い.なお,$N=3$の場合をtrigramモデル,$N=2$の場合をbigramモデル,$N=1$の場合をunigramモデルと呼ぶ.\subsection{$N$-gramモデルのスムージング}$N$-gramの確率値は,式(\ref{Eq:NgramTraining})に示すように,言語データ中の文字列の頻度から推定することができる.しかし,与えられた言語データが少ない場合には,精度のよい確率値を推定することが難しくなる.この問題に対処するために,我々の実験では,線形補間法と呼ばれる方法を用いて,$N$-gramモデルのスムージング(平滑化)を行った.線形補間法では,$N$-gramの確率値を低次の$M$-gram$(M<N)$の確率値と線形に補間する.trigramの場合には,次のようになる.\begin{equation}P(c_{n}|c_{n-2}c_{n-1})=\lambda_{1}P(c_{n}|c_{n-2}c_{n-1})+\lambda_{2}P(c_{n}|c_{n-1})+\lambda_{3}P(c_{n})\label{Eq:NgramLinearInterpolation}\end{equation}ここで,$\lambda_{1},\lambda_{2},\lambda_{3}$は,それぞれtrigram,bigram,unigramに対する重み係数であり,$\displaystyle\sum_{i}\lambda_{i}=1$となるように設定される.式(\ref{Eq:NgramLinearInterpolation})の補間では,学習データ中に三つ組$c_{n-2},c_{n-1},c_{n}$が出現しない場合には,bigramとunigramから$P(c_{n}|c_{n-2},c_{n-1})$の値を推定している.二つ組$c_{n-1},c_{n}$も出現しない場合には,unigramの値によって近似している.なお,$\lambda_{i}$の値は,削除補間法と呼ばれる方法によって推定した.削除補間法については,たとえば文献\cite{Jelinek80,Kita96Book}などを参照されたい.\subsection{言語モデル間の距離}次に,言語モデル間に距離を導入する.我々の用いた距離は,文献\cite{Juang85,Rabiner93}において提案されているものと同一である.上記文献においては,隠れマルコフ・モデル(HiddenMarkovModel;HMM)間の距離として定義されているが,一般の言語モデルに対しても同様に用いることができる.いま,言語$L_1$および言語$L_2$の言語データとして,それぞれ$D_1$,$D_2$が与えられているとする.$D_i$$(i=1,2)$は,文字列データであり,その長さ(文字数)を$|D_i|$と表記する.また,言語データ$D_i$から作成された言語モデルを$M_i$で表す.まず,言語モデル$M_1$および$M_2$に対し,距離尺度$d_0(M_1,M_2)$を次のように定義する.\begin{equation}d_0(M_1,M_2)=\frac{1}{|D_2|}\left[\logP(D_2|M_2)-\logP(D_2|M_1)\right]\label{Eq:DistanceMeasure0}\end{equation}式(\ref{Eq:DistanceMeasure0})では,言語$L_1$と$L_2$の間の距離を,言語$L_1$のモデル$M_1$からデータ$D_2$が生成される確率と,言語$L_2$のモデル$M_2$から同一のデータ$D_2$が生成される確率の差に基づいて決めている.もし,言語$L_1$と$L_2$が類似していれば,モデルからのデータの生成確率も似た値になるので距離は小さくなるし,類似していなければ,データの生成確率が大きく違うので距離は大きくなる.式(\ref{Eq:DistanceMeasure0})は,言語モデル$M_1$および$M_2$に対し,非対称である(すなわち$d_0(M_1,M_2)\neqd_0(M_2,M_1)$).対称形にするために,$d_0(M_1,M_2)$と$d_0(M_2,M_1)$の平均を取る.従って,言語モデル$M_1$と$M_2$の間の距離$d(M_1,M_2)$は,最終的に次のように定義される.\begin{equation}d(M_1,M_2)=\frac{d_0(M_1,M_2)+d_0(M_2,M_1)}{2}\label{Eq:DistanceMeasure}\end{equation}
\section{評価実験}
\subsection{言語データ}以上で提案した方法の有効性を実証するために,ECI多言語コーパス(EuropeanCorpusInitiativeMultilingualCorpus)中の言語データを用いて,言語の系統樹を再構築する実験を行った.ECIコーパスは,ELSNET(EuropeanNetworkinLanguageandSpeech)からCD-ROMにより提供されているもので,総語数約1億語から成る.ECIコーパス中には,主要なヨーロッパ各国語およびトルコ語,日本語,ロシア語,中国語,マレー語等の言語データが含まれている.本実験では,このうち,ISOLatin-1文字セットでコード化されている19言語のデータを用いた.表\ref{Tab:ECI_data}は,本実験で用いた言語の種類,各言語データのECIコーパス中での識別子,言語データのジャンルを示している.表のジャンル欄において,「並行テキスト」と記されているのは,同一の内容を多言語で記述したものであることを示している.ECIコーパス中のテキストはSGMLによりコード化されているが,本評価実験では,まずSGMLのタグを除去し,テキスト部分のみを抽出した.次に,多言語の言語データ間に均質性を持たせるために,単語表記中にアルファベット大文字が使われている場合は小文字に変換し,言語によってはウムラウトやアクセント記号等を表す特殊符号が入っていたが,英語式アルファベット26文字以外の特殊文字は,すべて対応するアルファベットに変換した.たとえば,\~{a}はaに変換した.また,文字のtrigramは,表\ref{Tab:ECI_data}の識別子欄に示されているテキストの最初の1,000単語を用いた.\begin{table}\caption{実験で用いた言語の種類・言語データの識別子・テキストのジャンル}\label{Tab:ECI_data}\begin{center}\begin{tabular}{c|c|c}\hline言語&ECIコーパスでの識別子&ジャンル\\\hline\hlineアルバニア語&alb01b&小説\\\hlineチェコ語&cze01a01&新聞\\\hlineラテン語&lat01a01&詩\\\hlineリトアニア語&lit01a&フィクション\\\hlineマレー語&mal01a01&技術文書\\\hlineノルウェー語&nor01a01&フィクション\\\hlineトルコ語&tur02a&新聞\\\hlineクロアチア語&cro18a&小説\\\cline{1-2}セルビア語&ser18a&(並行テキスト)\\\cline{1-2}スロベニア語&slo18a&\\\hlineデンマーク語&dan16a&\\\cline{1-2}オランダ語&dut16a&\\\cline{1-2}英語&eng16a&\\\cline{1-2}フランス語&fre16a&技術文書\\\cline{1-2}ドイツ語&ger16a&(並行テキスト)\\\cline{1-2}イタリア語&ita16a&\\\cline{1-2}ポルトガル語&por16a&\\\cline{1-2}スペイン語&spa16a&\\\hlineウズベク語&mul13a&小説\\\hline\end{tabular}\end{center}\end{table}\subsection{実験結果および考察}上記により作成した文字trigramモデルに対し,階層的(凝集型)クラスター分析を行ない,言語のデンドログラム(dendrogram;樹状図)を作成した.クラスタリング・アルゴリズムには,群平均法UPGMA(UnweightedPair-GroupMethodusingAverage)\cite{Washio89Book}と呼ばれる方法を用いた.群平均法は,広い範囲においてよい結果を与えるクラスター分析法であるといわれている.図\ref{Fig:ExprResult}に,19言語のクラスタリング結果を示す.言語名の左側の樹状図が実験により得られた結果であり,右側には各言語のおおまかな分類を記している.以下では,言語学的な観点から,クラスタリング結果の妥当性について考察する.なお,言語の分類および諸言語間の関係に関しては,文献\cite{GengoBook}を参考にした.まず,評価実験で用いた言語は,以下のように大きく分類される.\begin{itemize}\item[(A)]インド・ヨーロッパ語族\begin{itemize}\item[(A-1)]アルバニア語派(アルバニア語)\item[(A-2)]スラブ語派(チェコ語,クロアチア語,セルビア語,スロベニア語)\item[(A-3)]バルト語派(リトアニア語)\item[(A-4)]イタリック語派(ラテン語,フランス語,ポルトガル語,スペイン語,イタリア語)\item[(A-5)]ゲルマン語派\begin{itemize}\item[(A-5-1)]北ゲルマン語派(ノルウェー語,デンマーク語)\item[(A-5-2)]西ゲルマン語派(オランダ語,ドイツ語,英語)\end{itemize}\end{itemize}\item[(B)]アルタイ諸語(トルコ語,ウズベク語)\item[(C)]オーストロネシア語族(マレー語)\end{itemize}図\ref{Fig:ExprResult}の右側に示すように,実験により得られた結果は,上記の大分類を反映したものになっている.\begin{figure}[p]\setlength{\baselineskip}{0.25\baselineskip}\begin{small}\begin{center}\begin{verbatim}┌─────────────アルバニア語──アルバニア語派││┌───────チェコ語─┐┌──┤││││┌───┤┌─クロアチア語│││││┌───┤│スラブ語派│││└─┤└─セルビア語││└─┤││┌─┤│└─────スロベニア語─┘│││││└───────────リトアニア語──バルト語派││││┌────────────トルコ語──┐アルタイ諸語│└───┤│チュルク語族│└────────────ウズベク語──┘┌─┤││┌───────────ラテン語──┐││││││┌───┤┌───────フランス語│││││┌─┤│││││││┌─────ポルトガル語│イタリック語派│││└─┤└─┤│││││└─────スペイン語││└──┤││││└─────────イタリア語──┘─┤│││┌───────ノルウェー語─┐││┌─────┤│北ゲルマン─┐ゲ│││└───────デンマーク語─┘語派│ル│└─┤│マ││┌─────────オランダ語─┐│ン││┌─┤││語│└─┤└─────────ドイツ語│西ゲルマン─┘派│││語派│└───────────英語─┘│└────────────────────マレー語──オーストロネシア語族西部オーストロネシア語派\end{verbatim}\end{center}\end{small}\caption{ECI多言語コーパスより得られたクラスタリング結果}\label{Fig:ExprResult}\end{figure}\clearpage次に,言語間のより細かな関係について調べる.まず,実験結果では,スラブ語派に属するクロアチア語とセルビア語を,最初に一つのクラスタとしてまとめている.クロアチア語とセルビア語はともに,南スラブ語群に属し,両者の差異は方言的なものであるとされている.従って,両者を一つのクラスタとすることは,きわめて妥当であるといえる.また,実験結果では,スラブ語派とバルト語派を併合した後に,これをアルバニア語派と併合している.スラブ語派とバルト語派の諸言語には,多くの類似点が見られ,バルト・スラブ祖語の存在を考えている研究者もいる.アルバニア語は,同一の語派に属する言語がなく,1言語で1語派の扱いを受けているが,南スラブ語等の言語からの影響を受けている.実験結果は,以上の点を反映しているということができる.西ゲルマン語派に関しては,オランダ語とドイツ語を,まず併合しているが,ドイツ語学では,オランダ語をドイツ語の1方言,低地フランク語として扱っており,この2言語はきわめて類似している.以上のように,実験結果は,言語の細分類に関しても,かなりの部分で言語学での分類と一致しており,提案したクラスタリング手法が有効なものであることを示している.また,文字trigramモデルにおけるスムージングの効果を調べるために,スムージングを行わない場合についても実験を行った.スムージングを行わない場合には,トルコ語,ウズベク語,マレー語が1つのクラスタを形成するという結果が得られた(図\ref{Fig:ExprResult}から分かるように,スムージングを行った場合には,マレー語は単独で1つのクラスタを形成している).しかし,それ以外には,クラスタを形成する順序が多少違うだけで,結果に大きな違いを見いだすことはできなかった.この結果より,言語系統樹の構築では,言語モデルを多少精密化しても,精密化の影響を受けるまでには至らなかったということができる.\subsection{言語識別の実験}上記実験により,確率的言語モデルは言語のクラスタリングにきわめて有効であることを示したが,クラスタリング以外の分野での確率的言語モデルの有用性を示すために,追加実験として言語識別の実験を行った.この実験では,上記で作成した各言語の文字trigramモデルを用いて,未知のテキストから,そのテキストの使用言語を特定するということを行った.以下に,本実験の手順を示す.\begin{itemize}\item[(1)]各言語に対し,2つの未知テキストを評価データとして用意する.未知テキストは,表\ref{Tab:ECI_data}に示したものとは別のテキスト・データである.言語によっては,表\ref{Tab:ECI_data}以外のテキスト・データがないものもあり,言語識別用の評価データは26個(13言語)となった.なお,未知テキストとして用いた言語データは,以下の通りである.チェコ語(cze01a02,cze01a03),ラテン語(lat01a02,lat01a03),マレー語(mal01a02,mal01a03),ノルウェー語(nor01a02,nor01a03),セルビア語(ser01a01,ser01a02),デンマーク語(mda12a,mda12b),オランダ語(dut01a01,dut01a02),英語(eng01a,eng01b),フランス語(fre01a01,fre01a02),ドイツ語(ger02a,ger02b),イタリア語(ita01a,ita03a),ポルトガル語(por01a,por01b),スペイン語(spa02a,spa02b).\item[(2)]各未知テキストから,4.1節に示した手順と同様にして,未知テキストに対する言語モデル(文字trigramモデル)を作成する.\item[(3)]3.3節で導入した距離を用いて,未知テキストの言語モデルと各言語の言語モデルとの間の距離を計算する.最も小さな距離を与える言語を,未知テキストの使用言語と判断する.\end{itemize}上記による実験において,未知テキストの最初の10単語,20単語,30単語,40単語,50単語,100単語,1000単語を用いた場合について,言語識別率を求めた.実験結果を,図\ref{Fig:Rate}に示す.図から分かるように,未知テキストからの使用言語の特定には,20単語程度あれば十分であるということができる.20単語を用いたときには,26個の未知テキストのうち,25個についてその言語を正確に推定できた(識別率96.2\%).なお,識別に失敗したものは,例えばセルビア語のテキストをクロアチア語と間違うなど,近親関係の言語間での間違いが主であった.なお,$N$-gramに基づいた言語識別に関する研究としては,CavnarおよびTrenkleの研究\cite{Cavnar94}などがある.Cavnarらは,テキスト中に頻出する$N$-gram文字列の出現順位に基づいた距離を用いて,高い精度で言語の自動識別ができることを示している.彼らの実験では,8ヶ国語のネットニュースの記事を用いており,未知テキストが300文字以上与えられた場合には,99.8\%の識別率を達成したと報告している.実験に用いた言語データや対象言語の数などが異なることから,本論文の結果と直接比較することはできないが,Cavnarらの結果も本論文の結果も,$N$-gramが言語の自動識別に非常に有効であることを示している.\begin{figure}\begin{center}\atari(113,81)\end{center}\caption{未知テキスト中の単語数と言語識別率}\label{Fig:Rate}\end{figure}
\section{おわりに}
本稿では,確率的言語モデルに基づいた言語のクラスタリング手法を提案した.また,ECI多言語コーパス中の19ヶ国語のテキスト・データから言語の系統樹を再構築する実験を行ない,実験結果を言語学での分類と比較することにより,提案した手法の有効性を示した.本稿では,確率的言語モデルとして文字の$N$-gramモデルを用いたため,文字の連鎖という観点からのクラスタリング結果が得られた.言語類型論の分野では,言語の語順等により諸言語間の比較を行うことなどが行われているが,語順等に対する言語モデルを設定することができれば,言語類型性という観点から見たクラスタリングを行うことができるであろう.今後の課題として,(1)他の言語モデルを用いたときの言語のクラスタリング,(2)より多くの言語を対象としたクラスタリング実験を行いたいと考えている.また,本稿で述べた実験では,クラスタリング手法として群平均法UPGMAを用いたが,クラスタリング手法には他にも様々なものがあり,他の手法を用いた場合についても検討していく必要があろう.本稿では,言語のクラスタリングを中心に扱ったが,提案した手法はテキストの分類(TextCategorization)などにも応用可能であると考えられる.また,本稿で述べた基本的な手法は,比較言語学,方言研究,言語類型論,社会言語学などの幅広い分野で役立つものと期待される.本論文で提案した手法を,これらの分野において広く用いて頂くために,プログラムおよび実験に用いたデータを公開する.\[email protected]+宛に電子メイルで問い合わせられたい.\bibliographystyle{jnlpbbl}\bibliography{kita}\begin{biography}\biotitle{略歴}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同助教授.工学博士.確率・統計的自然言語処理,音声認識等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N04-04
|
\section{はじめに}
自然言語には一つの意味内容を指し示すのに様々な表現を用いることができるという特徴がある.これは同義異表記の問題と呼ばれ,多くのアプリケーションの高精度化を妨げる原因の一つである.例えば情報検索や質疑応答といったアプリケーションでは,検索質問と文書が異なる表現を用いて記述されている場合,それらが同じ意味内容を表しているかどうかを判定する必要がある.また,計算機上で正しく推論を行うためには,推論ルールと実際の文の間の表現の違いを吸収しなくてはならない.そこで,言い換えという「同じ意味内容を表す複数の表現を結びつける変換」を自然言語処理の基礎技術として使い,この問題を解決しようとする考え方が現われてきた\cite{Sato99,Sato01,Kurohashi01}.このような背景から,近年では言い換え処理の重要性が認識されはじめ,さかんに研究が行われている.テキストを平易に言い換えてユーザの読解補助を行うアプリケーションが注目を集めていることも,言い換え研究が盛んに行われている一つの理由である\cite{Takahashi01}.近年の計算機やネットワークの発達によって,我々は膨大な電子テキストにアクセスすることが可能となったが,一方で年少者やノンネイティブなど,その恩恵を十分に受けることができないユーザが存在している.そのため,このようなアプリケーションへのニーズは今後増加し,言い換え処理の重要性も高まると考えられる.
\section{国語辞典による言い換え}
本研究では,国語辞典を使った用言(動詞,形容詞,形容動詞,サ変名詞)の言い換え手法を提案する.これは定義文から見出し語の同等句を取り出して言い換えを行うというものである.例えば,見出し語「要求」を言い換える場合,その同等句は「強く求める」であるので,(\theparactr)のように言い換えることができる.以下では,(\theparactr)のように,「見出し語が用言であれば,その定義文は用言を主辞とする形で記述されており,なおかつ主辞は定義文の末尾に位置する」と仮定して議論を行う.また,定義文の主辞となる用言のことを{\bf定義文主辞}と呼ぶ.\rsk{要求}{強く求めること}{}\para{工事の中止を\underline{要求した}}{工事の中止を\underline{強く求めた}}\subsection{特徴}国語辞典の定義文は,少数の平易な語彙を使って記述されている.そのため国語辞典を使って言い換えを行うことによって,以下のことが期待できる.\begin{itemize}\itemテキストで使用される語彙のサイズを減らし,冒頭で述べたような同義異表記問題の解決に寄与できる.\itemノンネイティブなどの話者でも理解できる語のみを使った表現へと言い換える,テキスト平易化アプリケーションの開発につながる.\end{itemize}例えば「激怒」と「立腹」は類似する意味内容を表しているが,計算機がそれらの意味の同値性を判定することは難しい.しかし下に示すように,定義文はいずれも「怒る」という語を使って記述されているため,これを利用すれば意味の同値性を判定することも可能である.\rsk{激怒}{激しく怒ること}{}{}\rsk{立腹}{怒ること}{}{}また下に示すのは,国語辞典による言い換えがテキストを平易化し,ユーザの読解支援につながるような例である.言い換え前の文「渡航費用を支給する」には「渡航」「支給」という語が含まれているが,すべての年少者やノンネイティブがこれらの語を知っているとは限らない.そのため,この文は彼らにとって理解しにくい可能性がある.しかし「渡航」「支給」という語を,下に示す定義文を使って言い換えると「外国へ行くのに必要な費用をわたす」となる.この文に含まれる「行く」「わたす」という語は,年少者やノンネイティブにとっても理解しやすい表現であると考えられる.\rsk{渡航}{船や飛行機で海をこえて,外国へ行くこと}{}{}\rsk{支給}{お金や品物をわたすこと}{}{}\para{渡航費用を支給する}{外国へ行く費用をわたす}\subsection{用言の言い換えの難しさ}国語辞典を使って用言を言い換える場合,技術的な問題となるのは以下の三つの処理である.\paragraph{多義性の解消}多義語を言い換える場合,その語義の曖昧性解消が必要となる.例えば「しのぐ」は下のような二つの定義文を持っているので,(\theparactr)のように言い換えるには「苦境をしのぐ」の「しのぐ」が,どちらの意味を持つか判別しなくてはならない.\rsk{しのぐ}{耐え忍ぶこと}{優れていること}{}\para{苦境をしのぐ}{苦境を耐え忍ぶ}\paragraph{同等句の決定}先に示した例文(1)のように,見出し語の同等句は「定義文主辞とそれに副詞的にかかる語」であることが多い.しかし,定義文主辞にかかる「体言+格助詞」(以下では「体言+格助詞」のことを{\bf項}と呼び,そこに含まれる体言を{\bf格要素}と呼ぶ)も同等句に含めなくてはならない場合も存在する.例えば「体得」の同等句は「つける」ではなく「身につける」である.\rsk{体得}{知識やわざを\underline{身につける}こと}{}\para{技術を体得する}{技術を身につける}\newpage\paragraph{格助詞の変換}用言を言い換える時,(\theparactr)のように格助詞が変化する現象にも対応しなくてはならない.\rsk{下回る}{ある数や量より,少なくなる}{}\para{前年\underline{を}下回る}{前年\underline{より}少なくなる}\subsection{格フレームの対応付けに基づく用言の言い換え}\begin{figure*}[t]\begin{center}\epsfile{file=VerbParaphrase.eps,width=110mm}\caption{格フレームの対応付けに基づく用言の言い換え}\label{VerbParaphrase}\end{center}\end{figure*}国語辞典だけを利用していたのでは,前節で述べたような問題を克服するのは困難である.当然のことであるが,国語辞典には見出し語がとる項についての記述はない.また定義文主辞がとる項の情報も,日本語では項の省略が頻繁に行われるため,定義文に記述されているとは限らない.下の例のように,完全に項が省略されている定義文も珍しくない.このような現象は,国語辞典に限らず,既存の語彙知識を言い換えに利用しようとする際,つねに起こりうる問題である.\rsk{しのぐ}{耐え忍ぶこと}{優れていること}そのため本研究では,格フレーム辞書をあらかじめ大規模コーパスから自動構築して,見出し語と定義文主辞がもつ格フレームの対応付けを学習し,それを利用した言い換え手法を提案する.言い換えの流れは次のようになる(図\ref{VerbParaphrase}).次章以降では,1,2の処理について詳しく述べる.\begin{enumerate}\item{\bf格フレーム辞書の自動構築\\}まず大規模コーパスから用言の格フレーム辞書を自動構築する\cite{Kawahara01}.複数の意味を持つ用言には,複数の格フレームが学習される.\item{\bf格フレームの対応付け\\}国語辞典から「見出し語と定義文主辞」の対を抽出して,見出し語が持つ格フレームと定義文主辞が持つ格フレーム(見出し語格フレーム,主辞格フレームと呼ぶ)の対応付けを学習する.図\ref{VerbParaphrase}の場合では「\{組織,$\cdots$\}ガ\{メーカー,社,$\cdots$\}ヲしのぐ」という格フレームは「\{$<$主体$>$\}ガ\{他社\}ヨリ優れている」という格フレームと対応付けられる.\item{\bf言い換え処理\\}入力文と類似する見出し語格フレームを一つ選択して,その格フレームの対応付け情報を使って言い換える.図\ref{VerbParaphrase}の場合では,「しのぐ」の格フレームの中から,入力文「他社をしのぐ」と最も類似する「\{組織$\cdots$\}ガ\{メーカー,社$\cdots$\}ヲしのぐ」という格フレームが選択される.そして,2の処理で学習した格フレームの対応付けを利用して言い換える.\end{enumerate}
\section{格フレーム辞書の自動構築}
提案手法を実現するためには,大規模で高精度な格フレーム辞書が必要である.本研究では,河原らの手法\cite{Kawahara01}を用いて作成した大規模な格フレーム辞書を用いる.\subsection{概要}格フレーム辞書をコーパスから自動学習する際に最も問題となるのは,用言の多義性である.つまり表記が同じ用言でも,その意味が違えば別の格フレームを持つ.そのため,コーパスから自動収集した用言の係り受けデータを,意味ごとにクラスタリングする処理が必要となる.用言の直前に現れる項({\bf直前項}と呼ぶ)は用言の意味に強い影響を与えているので,直前項が決まれば用言の語義もほとんど一意に決まる.\cite{Kawahara01}ではこの考え方を使って,自動収集した係り受けデータを次のような二段階の処理でクラスタリングする手法を提案している(図\ref{AbstractCaseFrame}).\begin{enumerate}\item同じ直前項をもつ係り受けデータをまとめる.このようにして作成されたデータを{\bf用例パターン}と呼ぶ.以下では「荷物」「物資」など,用例パターンの項に含まれる各単語を{\bf用例}と呼ぶ.\item用例パターン間に類似度を設定して,類似度の高いものをクラスタリングする.\end{enumerate}ここで設定されている用例パターンの類似度は,この次のステップの「格フレームの対応付け」で非常に重要な役割を果たしている.そのため本章では,\cite{Kawahara01}で提案されている用例パターンの類似度の計算方法について説明を行う.\begin{figure}[t]\begin{center}\epsfile{file=caseframe.eps,width=130mm}\caption{格フレーム辞書構築の流れ}\label{AbstractCaseFrame}\end{center}\end{figure}\subsection{用例パターンの類似度}\label{CFSim}用例パターン$F_1,F_2$の類似度は次のように定める.\begin{quote}\vspace{10pt}用例パターンに含まれる用例の類似度$\times$項の一致度\vspace{10pt}\end{quote}以下では,この類似度計算について詳しく述べる.ただし説明の中では,二つの用例パターン$F_1,F_2$は,下のように,それぞれ項$C_{11},C_{12},\dotsC_{1m}$と$C_{21},C_{22},\dotsC_{2n}$を持っていて,$C_{11}$と$C_{21}$,$C_{12}$と$C_{22},\dotsC_{1l}$と$C_{2l}$が,それぞれ同じ格助詞をもっているものとする.なお,同じ格助詞をもつ項を共通項と呼ぶ.\begin{quote}\tr{$F_1$:}{}{$F_2$:}\tr{$C_{11},$}{1}{$C_{21},$}\tr{$C_{12},$}{1}{$C_{22},$}\tr{\dots}{}{\dots}\tr{$C_{1l},$}{1}{$C_{2l},$}\tr{\dots}{}{\dots}\tr{$C_{1m}$}{}{$C_{2n}$}\end{quote}\subsubsection{用例の類似度}用例群間の類似度を定義するためには,まず二つの用例$e_1,e_2$間の類似度$ExSim(e_1,e_2)$を定義する必要がある.$ExSim(e_1,e_2)$は,日本語語彙大系\cite{Ntt}を利用して,以下のように計算する.\begin{eqnarray*}ExSim(e_1,e_2)=max_{x\ins_1,y\ins_2}sim(x,y)\\[10pt]sim(x,y)=\frac{2D}{D_x+D_y}\hspace{2.8cm}\\[10pt]D=max\{D_z|x\subsetz,y\subsetz\}\hspace{1.9cm}\end{eqnarray*}日本語語彙大系は,用例に意味属性を与えるために使う.日本語語彙大系から与えられる意味属性には,二つの特徴がある.まず,用例が多義である場合は,一つの用例に複数の意味属性が与えられている.そして,意味属性は階層構造を持っている.$s_1,s_2$は,用例$e_1,e_2$が日本語語彙大系\cite{Ntt}の中で持っている意味属性集合で,$x,y$はそれらの中の一つである.$D_x,D_y,D_z$は意味属性$x,y,z$の階層の深さである.$x\subsetz$は,$z$が$x$の上位に位置する意味属性であることを表している.$sim(x,y)$の計算式で分子が$2D$となっているのは,用例間の類似度を1に正規化するためである.\subsubsection{共通項に含まれる用例の類似度}つぎに,共通項$C_{1i},C_{2i}$に含まれる用例の類似度$ArgSim(C_{1i},C_{2i})$を定義する.類似度は,$C_{1i},C_{2i}$に含まれる用例間の類似度を,それらの出現頻度で重み付けして平均したものとする.計算式は以下のようになる.\begin{eqnarray*}ArgSim(C_{1i},C_{2i})=\frac{\sum_{e_1\inC_{1i}}\sum_{e_1\inC_{2i}}\sqrt{|e_1||e_2|}\cdotExSim(e_1,e_2)}{\sum_{e_1\inC_{1i}}\sum_{e_1\inC_{2i}}\sqrt{|e_1||e_2|}}\end{eqnarray*}ここで,$e_1,e_2$は,$C_{1i},C_{2i}$に含まれる用例を表す.また,$|e_1|,|e_2|$は,用例$e_1,e_2$の用例パターン$F_1,F_2$における出現頻度とする.\subsubsection{用例パターンに含まれる用例の類似度}用例パターンに含まれる用例の類似度$Sim(F_1,F_2)$は,各共通項の$ArgSim(C_{1i},C_{2i})$の重み付け平均とする.重みは,$C_{1i},C_{2i}$に含まれる用例の出現総数の積の平方根とする.したがって,$Sim(F_1,F_2)$は以下のように計算される.\begin{eqnarray*}Sim(F_1,F_2)=\frac{\sum_{i=1}^{l}\sqrt{|C_{1i}||C_{2i}|}\cdotArgSim(C_{1i},C_{2i})}{\sum_{i=1}^{l}\sqrt{|C_{1i}||C_{2i}|}}\end{eqnarray*}$|C_{1i}|,|C_{2i}|$は,$C_{1i},C_{2i}$に含まれる用例の延べ数を表す.\subsubsection{項の一致度}用例パターン$F_1,F_2$の項の一致度は、それぞれの用例パターンについて「すべての項に含まれる用例の出現総数」に対する「共通項に含まれる用例の出現総数」の割合を求めて,それらの積の平方根をとったものとする.項の一致度$Correspond$の計算式は以下のようになる.\begin{eqnarray*}Correspond(F_1,F_2)=\sqrt{\frac{\sum_{i=1}^{l}|C_{1i}|}{\sum_{i=1}^{m}|C_{1i}|}\times\frac{\sum_{i=1}^{l}|C_{2i}|}{\sum_{i=1}^{n}|C_{2i}|}}\end{eqnarray*}\subsubsection{用例パターンの類似度}これらを踏まえて,二つの用例パターン$F_1,F_2$の類似度$Similarity$は次のように定義する.式の前半部分は用例パターンに含まれる用例の類似度で,後半部分は項の一致度である.\begin{eqnarray*}\lefteqn{Similarity(F_1,F_2)=}\hspace{13cm}\\[10pt]\frac{\sum_{i=1}^{l}\sqrt{|C_{1i}||C_{2i}|}\cdotArgSim(C_{1i},C_{2i})}{\sum_{i=1}^{l}\sqrt{|C_{1i}||C_{2i}|}}\times\sqrt{\frac{\sum_{i=1}^{l}|C_{1i}|}{\sum_{i=1}^{m}|C_{1i}|}\times\frac{\sum_{i=1}^{l}|C_{2i}|}{\sum_{i=1}^{n}|C_{2i}|}}\end{eqnarray*}上記の計算式に基づいて用例パターンの類似度を求め,類似度が0.9以上となる用例パターンをマージして格フレームを作成する.
\section{格フレームの対応付け}
次に,構築された格フレーム辞書を利用して,国語辞典の見出し語の各格フレームに対して,それを言い換える上で最も適切な主辞格フレームを選択する.ここでは,見出し語の各格フレームと主辞格フレームの間に類似度を定義して,それに基づいて対応先を決定するという方法をとる.ただし,定義文やそれに付与されている例文が有効に利用できる場合には,あらかじめ対応付ける格フレームの候補を絞り込む処理を行う.すなわち格フレームの対応付けは以下の三つのステップで行う.\begin{enumerate}\item定義文を用いて,見出し語格フレームの対応先候補となる主辞格フレームを絞り込んでおく.\item例文を用いて,それぞれの見出し語格フレームの語義を絞り込む.\item見出し語格フレームと主辞格フレームの間の類似度計算に基づいて,見出し語格フレームに最も類似する主辞格フレームを選択する.\end{enumerate}図\ref{prune}に「\{本部,幹部\}ガ\{外部,専門家\}ニ\{教え\}ヲ仰ぐ」という格フレームに対応する主辞格フレームを決定する過程を示す.\begin{figure*}\begin{center}\epsfile{file=prune_all.eps,width=140mm}\caption{格フレームの対応付け}\label{prune}\end{center}\end{figure*}\subsection{定義文を用いた主辞格フレームの絞り込み}図\ref{prune}の「\{米国,団体\dots\}ガ\{国,日本\dots\}ニ\{公開,解除\dots\}ヲもとめる」のように,主辞格フレームの一部は,定義文主辞と異なる意味を持っている.このような主辞格フレームと見出し語格フレームの間に対応関係が存在することはありえない.そのため定義文を使って,これらの主辞格フレームを取り除き,見出し語格フレームの対応付け候補となる主辞格フレームを絞り込む.絞り込みを行うための手掛かりとして,定義文中に現れる定義文主辞の項を用いる.とくに定義文主辞の直前に現れる項({\bf主辞直前項}と呼ぶ)がガ格,ヲ格,ニ格のときは,主辞直前項だけを使って絞り込みを行う.このような場合には,主辞直前項が定義文主辞の用法に与える影響は非常に大きいと考えられるからである.すなわち絞り込み方法は,主辞直前項がガ格,ヲ格,ニ格のいずれかであるときと,それ以外のときの二通りを用意することになる.ただし,定義文主辞が項をとらない場合は,定義文を用いた絞り込みは行わない.\begin{table}[h]\caption{絞り込みの方法}\label{puning}\begin{center}\begin{tabular}{ccl}\\\hline主辞直前項のタイプ&格要素への制約&具体例(下線部が主辞直前項)\\\hline格要素が単語一つ&全く同じ&{\bf挑む}\underline{戦いを}しかける\\格要素が並列構造&類似度が0.8以上&{\bf侵犯}よその国の\underline{領土や権利などを,}おかすこと\\格要素が一般概念語&同じ意味属性&{\bf参集}\underline{人々が}集まってくること\\\hline\end{tabular}\end{center}\vspace{-20pt}\end{table}\paragraph{主辞直前項がガ格,ヲ格,ニ格の場合}直前項の格助詞が主辞直前項と同じで,なおかつ直前項の格要素が表\ref{puning}の制約を満たすような主辞格フレームのみを対応付け候補とする.格要素への制約は主辞直前項のタイプによって三つに分かれている.ただし,一般概念語とは「人々」「場所」などのように一般的な概念を表す単語のことである.図\ref{prune}の場合では,主辞直前項のタイプは表\ref{puning}の「格要素が並列構造」である.それゆえ,主辞直前項の格要素(教え,さしず)と類似度が0.8以上の用例を持った主辞格フレームが対応先候補となる.\paragraph{主辞直前項がガ格,ヲ格,ニ格でない場合}この場合は主辞直前項のみを使った絞り込みは難しい.そのため,主辞格フレームと定義文に共通して現れるガ格・ヲ格・ニ格の項の類似度の平均をもとめ,それが0.8以上の格フレームだけを対応付け候補とした.なお,主辞格フレーム・定義文間の項の類似度は,以下のように定義した.\begin{eqnarray*}項の類似度=max\{ExSim(e_{def},e)|e\inC\}\end{eqnarray*}ここで$e_{def}$は定義文主辞がとる格要素であり,$e$は主辞格フレームの項$C$に含まれる用例である.また$ExSim(e_1,e_2)$は日本語語彙大系に基づいて計算した用例$e_1,e_2$の類似度で,\ref{CFSim}節で定義した計算方法と同様である.\subsection{例文を用いた語義の絞り込み}上記のように対応付け候補となる主辞格フレームを絞り込んだ後,定義文に与えられた例文を用いて,それぞれの見出し語格フレームの語義を絞り込む.例えば図\ref{prune}に示した,点線で囲まれた「仰ぐ」の格フレームは,語義2に与えられた例文(先生の教えを仰ぐ)と類似している.そのため,この見出し語格フレームの対応先を,語義2の定義文主辞「もとめる」の格フレームに絞り込むことができる.例文と見出し語格フレームの類似度は,例文と見出し語格フレームに共通して現れるガ格・ヲ格・ニ格の項の類似度の平均とする.項の類似度は前述と同様のものを用いた.そして,類似度が0.8以上である見出し語格フレームは,その語義を絞り込んだ.この処理は,定義文に例文が与えられていない場合や,見出し語格フレームと類似する例文が見つからない場合には行わない.\subsection{類似度計算による対応付け}以上のようにして対応先を絞り込んだ後,見出し語格フレームと主辞格フレームの間に設定した類似度に基づき,各見出し語格フレームに対して最も類似する主辞格フレームを一つ選択する.類似度計算は\ref{CFSim}節で説明した用例パターン間の類似度計算方法に,若干の修正を加えたものを使う.以下では,見出し語格フレーム$F_1$と主辞格フレーム$F_2$において,$C_{11}\dotsC_{1l}$と$C_{21}\dotsC_{2l}$が共通項で,$F_2$の$C_{2n+1}$は見出し語の同等句に含まれるとする.\begin{quote}\tr{$F_1$:}{}{$F_2$:}\tr{$C_{11},$}{1}{$C_{21},$}\tr{$C_{12},$}{1}{$C_{22},$}\tr{\dots}{}{\dots}\tr{$C_{1l},$}{1}{$C_{2l},$}\tr{\dots}{}{\dots}\tr{$C_{1m}$}{}{$C_{2n}$}\tr{}{}{$(C_{2n+1})$}\end{quote}\subsubsection{同等句に含まれる項の決定}どの項が同等句に含まれているかは,見出し語格フレームと主辞格フレームの類似度計算を通して決定する.つまり,ある項が同等句に含まれると仮定して求められた類似度が,含まれないと仮定した場合の類似度より高ければ,その項は同等句に含まれると判定する.ただし,対応付けの処理を補助するために,次に述べる仮定に基づいて同等句に含まれる可能性がある項を絞り込む.まず,同等句に含められる可能性がある項は,主辞直前項だけであると仮定する.さらに,主辞直前項が以下のいずれかの場合にあてはまれば,それが同等句に含まれる可能性はないと仮定する.\begin{enumerate}\item主辞直前項の格要素が一般概念語である場合\item並列構造になっている場合\item格助詞がガ格,ヲ格,ニ格以外の場合\end{enumerate}つまり,表\ref{puning}の「格要素が単語一つ」に分類される主辞直前項だけが,同等句に含まれる可能性を考慮する対象となる.\subsubsection{共通項の決定}\ref{CFSim}節では,同じ格助詞をもつ項が二つの格フレームの共通項であると定義していた.しかし,この定義は異なる用言の格フレームを対象とした場合には適切ではない.なぜなら,異なる格助詞をもつ項でも共通項になることができる,同等句に含まれる項は共通項になることができない,といった現象が起こりうるからである.共通項の決定は,同等句に含まれる項を決定する作業と同様に,見出し語格フレームと主辞格フレームの類似度計算を通して行う.ただし,任意的な項は用言が変わっても格助詞が変わらないことが多いので,任意的な項は,異なる格助詞をもつ項と共通項にならないと仮定する.ここでは任意的な項とは「格フレーム中で,その項に含まれる用例出現頻度が低いもの」又は「ガ格,ヲ格,ニ格,ト格,ヨリ格,カラ格,マデ格以外の項」とした.\subsubsection{項の一致度の修正}\ref{CFSim}節においては項の一致度は,それぞれの格フレームについて「すべての項に含まれる用例数の出現総数」に対する「共通項に含まれている用例の出現総数」の割合を求めて,それらの積の平方根をとったものとしていた.しかし「すべての項に含まれる用例数の出現総数」を数えるときに,同等句に含まれる項の用例は数えない.\subsubsection{共通項に含まれる用例の類似度の修正}見出し語格フレーム$F_1$と主辞格フレーム$F_2$の共通項$C_{1i},C_{2i}$間の類似度$ArgSim(C_{1i},C_{2i})$を以下のように新しく定義する.\ref{CFSim}節では,項に含まれるすべての用例の組合せについて類似度を計算し,その類似度の重み付け平均を共通項に含まれる用例の類似度としていた.ここでは見出し語格フレームに出現する一つの用例に対して,主辞格フレームに出現する用例の中から類似度が最大となるものを一つ選び,その類似度の重み付け平均を$ArgSim(C_{1i},C_{2i})$としている.この修正の理由は,一般に定義文主辞の方が見出し語よりも広い意味をカバーしていることが多く,そこに現われる用例も多様なためである.\begin{eqnarray*}ArgSim(C_{1i},C_{2i})=\frac{\sum_{e_1\inC_{1i}}|e_1|\cdotmax\{ExSim(e_1,e_2)|e_2\inC_{2i}\}}{\sum_{e_1\inC_{1i}}|e_1|}\end{eqnarray*}
\section{実験}
例解小学国語辞典\cite{RSK}と,毎日新聞と日経新聞の計20年分から自動構築した格フレーム辞書を用いて格フレームの対応付けを行い,新明解国語辞典\cite{SHINMEIKAI}に記載されている例文(220文)に含まれる用言を言い換える実験を行った.ただし「使う」「作る」などの基本的な用言は,定義文を使って言い換えることが難しい.また,それらの用言は十分に平易なので,工学的な立場からみれば,言い換え処理を行うメリットが少ない.そこで例解小学国語辞典の定義文に頻出する形態素の上位2000に含まれる用言はこのような基本的な用言であると考え,実験対象から外した.\subsection*{評価方法}システムの評価を行うためには,言い換え結果が正しい言い換えであるかどうかを判定する必要がある.ここでは,筆者らが,多義性解消・同等句の抽出・表層格の変換が適切に実現されているかをチェックし,三つの処理全てが実現されていれば,その言い換え結果は正しい言い換えであると判定した.コーパスから言い換えを自動抽出するような研究では,抽出された二つの表現が言い換えになっているかどうかは,それらの文脈に強く依存していることが多い.そのため客観的な評価が難しく,複数の人間が評価を行うケースが多い\cite{Kimura01,Brazilay01}.これに対して,本研究で扱う国語辞典による言い換えはより基本的な処理であり,その言い換えの結果が日本語として妥当であるかどうかについて,判断が迷うようなケースはほとんど無かった.\begin{table}[t]\caption{語義の曖昧性解消の精度}\label{WSD}\begin{center}\begin{tabular}{cccc}\hline&成功&失敗&精度\\\hlineベースライン&60&55&52\,\%\\提案手法&82&33&71\,\%\\\hline\end{tabular}\end{center}\vspace{3pt}\caption{語義の曖昧性がない用言,又は曖昧性解消に成功した用言の言い換え精度}\label{NoWSA}\begin{center}\begin{tabular}{cccc}\hline&成功&失敗&精度\\\hlineベースライン&163&24&87\,\%\\提案手法&170&17&90\,\%\\\hline\end{tabular}\end{center}\vspace{3pt}\caption{実験文全体の言い換え精度}\label{ALL}\begin{center}\begin{tabular}{cccc}\hline&成功&失敗&精度\\\hlineベースライン&147&73&66\,\%\\提案手法&170&50&77\,\%\\\hline\end{tabular}\end{center}\end{table}\subsection*{実験結果}実験の結果を表\ref{WSD},\ref{NoWSA},\ref{ALL}に示す.表\ref{WSD}は,語義に曖昧性がある用言を含む115文を対象として,語義の曖昧性解消の精度を求めたものである.ベースラインは,先頭の定義文を選択するという方法を用いた.表\ref{NoWSA}は,語義の曖昧性がない用言,又は語義の曖昧性解消に成功した用言の言い換え精度である.ここでのベースラインは,「定義文主辞が“する”と“ある”の場合だけ,直前項を同等句に含める」「格助詞は変化させない」という方法を用いた.このとき,ベースラインが言い換えに失敗した文は24文であった.これは「適切な同等句の抽出が難しい文」と「用言の言い換えによって格助詞が変化する文」があわせて24文あったということになる.このうち提案手法によって正しく言い換えることができたものは13文であった.逆に,ベースラインが正しく言い換えることができた163文のうち,提案手法は6文の言い換えに失敗した.その結果,提案手法は170文を正しく言い換えることができた.最後の表\ref{ALL}は実験文全体の言い換え精度である.ここで比較するベースラインは,上記二つの手法を組み合わせたものである.全ての精度でベースラインを上回っており,提案手法は有効に働いたといえる.表\ref{succeed}に入力文を正しく言い換えることができた例を示す.\begin{table}\caption{成功例}\label{succeed}\begin{center}\begin{tabular}{@{}l@{}l@{}}\\\hline{\bf攻略}&{\bf1}敵の陣地や城をうばうこと\\&{\bf2}敵を攻めて,負かすこと\\[3pt]\multicolumn{2}{l}{横綱を攻略する$\rightarrow$横綱を負かす}\\[3pt]\hline{\bf体得}&知識やわざを身につける事\\[3pt]\multicolumn{2}{l}{こつを体得する$\rightarrow$こつを身につける}\\[3pt]\hline{\bf遠ざける}&{\bf1}遠くへはなれさせる\\&{\bf2}つきあわなくする\\[3pt]\multicolumn{2}{l}{悪友を遠ざける$\rightarrow$悪友とつきあわなくする}\\[3pt]\hline{\bf鳴り響く}&{\bf1}鳴る音が,広く聞こえる\\&{\bf2}評判が知れ渡る\\[3pt]\multicolumn{2}{l}{ベルが鳴り響く$\rightarrow$ベルの音が広く聞こえる}\\[3pt]\hline\end{tabular}\end{center}\end{table}
\section{考察}
言い換えを誤った主な原因は,格フレームの用例不足であった.本実験では,20年分の新聞記事という大量のコーパスから学習した格フレーム辞書を利用したが,一部の表現には対応できていなかった.例えば「夢中になる」の格フレームは,次のようなものが集まっている.しかし,「研究に夢中になる」という表現と類似する格フレームは一つもなかった.\begin{quote}\vspace{5pt}\{中学生,選手\dots\}ガ\{ゲーム,サッカー\}ニ夢中になる\\\{大人,武田\dots\}ガ\{自分,子育て\dots\}ノ\{話\}ニ夢中になる\\\dots\vspace{5pt}\end{quote}また定義文には,下に示すような,独特の不自然な表現が存在する.新聞記事から学習した格フレームには,このような表現に対応できる用例は集まっておらず,不適切な対応付けが行われた.\rsk{ぶら下がる}{ぶらりと下がる}{}格フレームの不適切なクラスタリングが原因で,言い換えを誤った例も見られた.クラスタリングの際に用いる類似度計算方法は,対応付けの際に用いる類似度計算と同様に,改良の余地があると考えられる.我々の提案した言い換え手法は,多義性解消の手法と見ることも出来る.表\ref{WSD}に示したように,先頭の定義文の語義を選択するというベースライン手法の精度は52\,\%であった.これに対して我々の手法の精度は71\,\%であり,有効に働いたといえる.多義性解消に関する研究の多くは,語義のタグが付与されたコーパスを利用する,教師有りの手法を用いている\cite{SENSEVAL_J,SENSEVAL_E}.このような手法では,各語がどのような語義を持っているかという,タスク設定が変わるとコーパスの再利用が難しくなる.また,コーパスの作成にコストがかかるという問題もある.それゆえ今後は,我々の手法のような,教師無しの手法による多義性解消が重要になると考えている.
\section{先行研究}
高橋らは不完全な構文変換規則とそれを修正する規則を人手で作成し,読解支援のための言い換えを行うシステムを開発している\cite{Takahashi01}.近藤らは,動詞を受身形や使役形に言い換える際に必要な,格助詞の変換規則を人手で作成している\cite{Kondo01}.また近藤らは,既存の辞書を利用して動詞句を言い換える手法も提案している\cite{Kondo99}.この他,\cite{Kimura01,Torisawa01,Brazilay01}のようにコーパスから言い換えを抽出しようとする研究も多い.学習対象のコーパスも完全な生コーパスからパラレルコーパスまで様々である.「同等句の抽出」「格助詞の変換」は,用言の言い換えにおいて非常に重要な処理であるにも関わらず,十分な議論を行った研究はこれまでにほとんどない.\cite{Kondo01}は格助詞の変換を扱っているが,「態の変化に伴う格助詞の変化だけを扱っている」「人手で規則を記述するというアプローチである」という二つの理由から,カバレージのある手法とはいえず問題が残っていた.これに対してわれわれの手法は,広いカバレージをもって上記の処理を実現できる枠組をはじめて提案したといえる.
\section{まとめ}
本研究では,言い換えのタスクの一つとして国語辞典による用言の言い換えを取り上げた.この言い換えを実現するには,語義の曖昧性解消,定義文からの同等句抽出,格助詞の変換などの処理が必要である.しかし,定義文にはこれらの処理を実現させるために必要な情報が,十分に記述されているとは限らないため実現が難しく,従来研究でもこれらの処理は十分に扱われていなかった.これに対して本研究では,格フレームの自動学習・対応付けに基づいて用言を言い換える手法を提案し,実験によってその有効性を示した.今後は,提案手法を用いて,読解補助やテキスト検索といったアプリケーションの品質向上に取り組む予定である.\bibliographystyle{jnlpbbl}\bibliography{paper}\begin{biography}\biotitle{略歴}\bioauthor{鍜治伸裕}{2000年京都大学工学部電気電子工学科卒業.2002年京都大学大学院情報学研究科修了.現在,東京大学大学院情報理工学系研究科博士後期課程在学中.自然言語処理の研究に従事.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.現在,東京大学大学院情報理工学系研究科学術研究支援員.構文解析,文脈解析の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学科第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師を経て,2001年東京大学大学院情報理工学系研究科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学科第二学科卒業.1988年同大学院博士課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授を経て,2000年より京都大学大学院情報学研究科助教授.京都大学博士(工学).自然言語処理,情報の自動編集などの研究に従事.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N02-03
|
\section{はじめに}
label{sec:intro}自然言語処理や言語学においてコーパスは重要な役割を果たすが,従来のコーパスは大人の文章を集めたものが中心で子供の文章を集めたコーパスは少ない.特に,著者らが知る限り,書き言葉を収録した大規模な子供のコーパスは存在しない.\ref{sec:problems}節で詳細に議論するように,子供のコーパスの構築には,子供のコーパス特有の様々な難しさがある.そのため,大規模な子供のコーパスの構築は容易でない.例えば,ChildLanguageDataExchangeSystem(CHILDES)~\cite{macwhinney1,macwhinney2}の日本語サブコーパスであるHamasakiコーパス~\cite{hamasaki},Ishiiコーパス~\cite{macwhinney1,macwhinney2},Akiコーパス~\cite{aki},Ryoコーパス~\cite{ryo},Taiコーパス~\cite{tai},Nojiコーパス~\cite{macwhinney1,macwhinney2}は,全て話し言葉コーパスである.また,対象となる子供の数は1人である(表~\ref{tab:previous_corpus}に,従来のコーパスの概要を示す.英語コーパスについては,文献~\cite{chujo}に詳しい).言語獲得に関する研究や自然言語処理での利用を考えた場合,コーパスは,子供の人数,文章数,収集期間の全ての面で大規模であることが望ましい.\begin{table}[b]\caption{従来の子供のコーパス}\label{tab:previous_corpus}\input{04table01.txt}\end{table}一方で,様々な分野の研究で子供の作文が収集,分析されており,子供のコーパスに対する需要の高さがうかがえる.例えば,国立国語研究所~\cite{kokken}により,小学生の作文が収集され,使用語彙に関する調査が行われている.同様に,子供の作文を対象とした,文章表現の発達的変化に関する分析~\cite{ishida},自己認識の発達に関する分析~\cite{moriya}なども行われている.更に,最近では,子供のコーパスの新しい利用も試みられている.石川~\cite{ishikawa}は,英語コーパスと子供のコーパス(日本語)を組み合わせて,小学校英語向けの基本語彙表を作成する手法を提案している.掛川ら~\cite{kakegawa}は,子供のコーパスから,特徴的な表現を自動抽出する手法を提案している.坂本~\cite{sakamoto}は,小学生の作文の分析に基づき,共感覚比喩一方向性仮説に関する興味深い考察を行っている.これらの研究は,いずれも子供のコーパスを利用しているものの,言語データの収集とコーパスの構築は独自に行っている.そのため,コーパスは一般には公開されておらず,研究や教育に自由に利用できる状態にはない.したがって,大規模な子供のコーパスの一般公開は関連分野の研究の促進に大きく貢献すると期待できる.また,研究者間で共通のコーパスが利用できるため,研究成果の比較も容易となる.そこで本論文では,子供のコーパス構築の難しさ解消し,効率良く子供のコーパスを構築する方法を提案する.そのため,まず,子供のコーパスを構築する際に生じる難しさを整理,分類する.その整理,分類に基づき子供のコーパスの構築方法を提案する.また,提案方法を用いて実際に構築した「こどもコーパス」についても述べる(表~\ref{tab:pupil_corpus}に「こどもコーパス」の概要と特徴を示す).「こどもコーパス」は,小学5年生81人を対象にして,8ヵ月間言語データを収集したコーパスである.その規模は39,269形態素であり,形態素数と人数において公開されている書き言葉の子供コーパスとして最大である\footnote{教育研究目的での利用に限り「こどもコーパス」を公開している.利用希望者は,第一著者に連絡されたい.今後は,Webページなどで同コーパスを公開する予定である.}.規模以外に,「こどもコーパス」には,作文履歴がトレース可能という特徴がある.作文履歴がトレース可能とは,いつ誰が何を書いたか,および,どのように書き直したかの履歴が参照可能であることを意味する.なお,本論文では,特に断らない限り,子供とは小学生のことを指すこととする.したがって,以下では,小学生のコーパス構築を念頭に置いて議論を進める.以下,\ref{sec:problems}節では,子供のコーパスを構築する際に生じる難しさを整理,分類する.\ref{sec:proposed_method}節では,\ref{sec:problems}節の議論に基づき,効率良く子供のコーパスを構築する方法を提案する.\ref{sec:pupil_corpus}節では,「こどもコーパス」の詳細を述べる.\begin{table}[h]\caption{「こどもコーパス」の概要と特徴}\label{tab:pupil_corpus}\input{04table02.txt}\end{table}\vspace{-1\baselineskip}
\section{子供コーパス構築の難しさ}
label{sec:problems}子供のコーパスの構築には,通常のコーパスを構築する際に生じる難しさに加えて,子供のコーパス特有の難しさが多く存在する.子供のコーパス特有の難しさは,大きく(a)書き手の確保の難しさ,(b)データ収集に関する難しさ,(c)データの記録と管理に関する難しさ,(d)著作権に関する難しさ,(e)データ整備の難しさに分類される.(a)書き手の確保の難しさとは,どのように書き手となる子供を集めるかという難しさである.大人の文章を対象としたコーパス構築では,新聞記事や小説など出版された文章を利用できる.一方で,出版された子供の文章は一般には存在しない.そのため,まず,書き手となる子供を確保する必要がある.書き手が小学生であるため,学習者コーパス\cite{izumi,granger2}の構築などでよく利用される,謝金支払いによる書き手の募集という方法をとることも困難である.授業中に言語データを収集できれば,一度に多くの書き手を確保できる.しかしながら,授業は,カリキュラムに従う必要があり,自由に言語データを収集できるわけではない.したがって,カリキュラムに沿いながら,言語データを収集できる方法を考案する必要がある.(b)データ収集に関する難しさは,実際に子供に文章を書いてもらう際に生じる.継続的に文章を書くという活動は子供にとって難しいものである.興味を持って継続的に書けるよう,書くこと以外の負担が減るような収集方法を取るべきである.例えば,書くための手順や書き方(コンピュータを使用する場合は入力方法)は可能な限り簡便にするべきである.また,ある程度,書き易い内容に制限してデータ収集を行う必要があるかもしれない.(c)データの記録と管理の難しさとは,どのように多数の子供,且つ,大量の言語データを記録し,管理するかという難しさである.本論文が目指すトレース可能なコーパスでは,誰がいつ何を書いたかを正確に記録しなければならない.また,誰がいつどのように書き換えたかという履歴も記録しなければならない.このことは,授業中での言語データ収集など多人数同時の収集では特に問題となる.紙ベースの収集方法では,多人数同時に編集履歴を記録,管理することは,ほぼ不可能である.以上の(a)〜(c)は,言語データ収集に直接関連する難しさである.間接的な難しさとして,(d)著作権に関する難しさがある.子供の書いた文章にも著作権は発生する.そのため,単に言語データを収集しただけでは,コーパスとして研究に自由に利用することはできない.研究に自由に利用するためには,著作物の利用に関する同意を得る必要がある.ただし,子供は未成年であるため,実際には,保護者から同意を得なければならない.著作物の利用に関する同意書などを保護者一人一人に配布し,署名してもらう必要がある.この配布,回収にかかる労力が多大であることは想像に難くない.(e)データ整備の難しさは,言語データの収集後に生じる難しさである.収集した言語データには,一般のコーパスでは稀であるような言語現象やノイズが含まれる.具体的には,判読不能な文字,意味不明な文字列,句点の抜け,表記の誤り,文法誤りなどがある.コーパス構築の際に,これらの言語現象やノイズをどのように扱うか決定しなければならない.例えば,コーパス中の文章は文に分割されていることが一般的であるが,子供の言語データの場合,句点の抜けのため,単純に文の同定ができない場合がある.このような言語現象やノイズの扱いを定めたガイドラインが必要となる.上述の通り,子供コーパスの構築には様々な難しさがある.次節では,これらの難しさを解消し,子供のコーパスを構築する方法を提案する.
\section{提案する構築方法}
label{sec:proposed_method}\subsection{言語データの収集方法}\label{subsec:system}(a)書き手の確保の難しさを解決する方法として,われわれは,総合学習の時間などで行われる情報発信の活動に着目した.現在では,小学校でも,Webページやブログを利用して情報を発信する学習活動が盛んに行われている\cite{ando,suda}.子供が発信する情報(文章)を収集することで,一度に多くの子供を対象にして言語データの収集ができる.また,収集のためにカリキュラムから外れることもない.更に,後述するように,(c)データの記録と管理の難しさも解消できる.具体的には,図書をテーマとしたブログを利用した言語データの収集方法を提案する.ブログは情報発信ツールとして子供にとって操作が容易であることが報告されている\cite{suda}.また,(i)身近なメディアである図書をテーマとすること,(ii)読書は小学校において日常的な活動であること\cite{suda2}も,活発な情報発信に繋がると期待できる.実際,提案する方法で,小学5年生(3学級98名)を対象にして,約2年間の予備的な言語データの収集を行ったところ,子供たちは興味を持って積極的に情報を発信し,効率良く言語データが収集できることが明らかとなった.提案する収集方法では,まず,子供は図書室など\footnote{後述するように,図書のISBNの情報があればアイテムの登録が可能である.したがって,一般の図書館で借りた本や書店で購入した本でもよい.}で本を借りて,その本を読む.読書後,ブログ上で本に関する情報(例えば,本の推薦,感想文,あらましなど)をアイテムとして発信する.この情報がコーパスの基本データとなる.必要があれば,子供は,書き込んだ情報を修正し,再度,書き込みを行う.書き込みの度に,書き込み日時と書き込んだ内容がブログシステムに保存される.この繰り返しによりシステム上に言語データが蓄積される.この際に子供にかかる余分な負担を減らすために,通常のブログシステムに次のような機能を実装する.ブログのアイテムの登録は,ブログシステムが半自動的に行う.具体的には,子供を識別するユーザIDと本のISBNをバーコードリーダーなどによりブログシステムへ入力すると,ブログシステムは本のタイトル,著者名,表紙画像などの情報\footnote{\ref{sec:pupil_corpus}節で利用したブログシステムでは,本のタイトル,著者,出版社,表紙画像,ISBN,十進分類,出版年,巻号,シリーズ名,本の大きさ,出版国の情報が利用可能である.このうち,アイテム上に表示されるのは,本のタイトル,著者,出版社,表紙画像,出版年,シリーズ名,本の大きさ,出版国とした.}をアイテムに記入する.その結果,図~\ref{fig:image}に示すようなアイテムが登録される.このとき,アイテムのタイトルは,本のタイトルとする.書誌情報は,ネットワークを通じて市立図書館などから得る.読書後,子供は本に関する情報を登録されたアイテムに書き込む(図~\ref{fig:image}では,「メッセージ」の右側のテキストエリアに書き込む).発信された文章がコーパスの元データとなる.アイテムが半自動的に登録される機能により,子供は文章の作成に集中することができる.また,表紙画像や履歴がブログ上で閲覧できることは情報発信の活動の促進につながると期待できる\cite{reuter,suda2}.すなわち,(b)データ収集に関する難しさの解消が期待できる.なお,図書以外に,映画や音楽などをテーマとしても同様な収集が可能である.\begin{figure}[t]\begin{center}\includegraphics{17-2ia4f1.eps}\end{center}\caption{アイテム入力画面}\label{fig:image}\end{figure}このブログシステムの利用による言語データの収集方法は,(c)データの記録と管理の難しさの解消にも有効である.ブログにはユーザ管理機能が備わっているため子供の識別は容易である.また,ブログのログ機能を利用することで,いつ誰が何を書いたかを記録できる.同様に,いつ誰が何をどのように書き換えたかも記録できる.著作権に関する同意を得るための簡便な方法を検討したところ,現状では,保護者一人一人に同意書を配布する従来からの方法しか解決策がないという結論に達した.しかしながら,同意書の回収率と同意率を上げるため,法律の専門家,小学校教員,研究者(著者ら)の三者で協力し,子供のコーパス構築向けの同意書を作成した\footnote{本同意書は,小学生のデータを収集する際の同意書作成の参考になると考えられる.利用を希望する場合は,第一著者に相談されたい.}.作成にあたって次の3点について注意した.第一に,法律の専門家でなくとも理解が容易な同意書となるように,可能な限り平易,且つ,一般的な表現を用いることとした.第二に,学習目的が明らかになるよう,言語データの収集が学習活動の一環であることを明記した.第三に,コーパス構築の教育的,学術的意義が明らかになるよう,コーパス構築の目的と意義を同意書に盛り込んだ.このような同意書を作成し,保護者の同意を得るまでに,約1年の年月を要した.このことからも分かるように,著作権に関する同意を得ることは,子供のコーパスを構築する上で大きな問題となる.今後は,より簡便に同意を得るための手順を確立していく必要がある.簡便な手順の確立は今後の課題としたい.\subsection{コーパス構築のためのガイドライン}\label{subsec:guidline}一貫した方針でコーパスを構築するためには,コーパス構築のためのガイドラインが必要不可欠である.特に,提案する手法で収集した言語データはブログの文章であるため,ブログ特有の課題に対処するためのガイドラインが重要となる.橋本ら~\cite{hasimoto}によると,ブログ特有の課題として,(I)不明瞭な文区切りへの対処,(II)括弧表現への対処,(III)誤字,方言,顔文字などの多様な形態素への対処がある.このうち,子供のコーパスでは(I)と(III)が問題となる((II)は構文構造を括弧でアノテーションする場合の課題であるので,本論文で対象とする子供のコーパスでは問題とならない).また,個人情報の保護の観点からは個人名に対するガイドラインも必要となる.本節では,これらの課題への対処方法を規定したガイドラインについて説明する.なお,本ガイドラインは「こどもコーパス」と共に公開している.【基本方針】基本方針として,収集した言語データは,可能な限りそのままの形でコーパスに収録することとした.したがって,(III)誤字,方言,顔文字などの多様な形態素は,そのままの形でコーパスに含める.また,一見不要と思われるような意味不明な文字列(例:``jhshsxsainvtquoicab'')も消去せずコーパスに含める.この理由として,一見不要と思われるものでも,目的に応じて重要な情報となる可能性があることが挙げられる.例えば,意味不明な文字列は,学習意欲を失った子供を自動的に発見する手法の考案へ繋がる可能性がある.意味不明な文字列を頻繁に書き込むということは,子供が学習意欲を失い,目的としている学習が行われてないことを示唆する.理想的には,このような状態に至る前に,その子供を見つけ出し,適切な指導を行うべきである.したがって,書き込み履歴から,学習意欲を失いつつある子供を自動発見できることは有益である.そのような手法の開発には,意味不明な文字列が書き込まれた時間情報,意味不明な文字列自身,それ以前の書き込み履歴が重要となる.以上のような理由から収集した言語データは可能な限りそのままの形でコーパスに収録することとした.例外として,個人名に対する処理,文分割処理,文字の処理がある.なお,データ形式はXML形式とする.【個人名の処理】個人情報の保護の観点から,子供の名前や個人が特定できるあだ名などは削除されるべきである.そこで,個人が特定される名前などが言語データに含まれていた場合,別の文字列(例:$<$NE$>$人名$<$/NE$>$など)に置き換える.固有表現抽出ツール~\cite{masui}などを利用した半自動の処理も検討したが,対象文章が子供の文章ということを考慮し,全て人手で作業することとした.【文分割処理】ブログの文章では文境界が不明確なことがある.言語の分析や自然言語処理では,文を単位として分析や処理を行うことが多いため,コーパス中の文章は文に分割されていることが好ましい.そこで,言語データ中の文を同定するためのガイドラインを28項目策定した.なお,分割された文については一文一行形式とする.基本的には,文末記号で改行することとする.文末記号は``。'',``!'',``!'',``?'',``?'',``.'',``.''とする.しかしながら,ブログの文章では,文境界に文末記号がない場合がある.この現象に対処するために例外処理をガイドラインとして策定した.文末記号がない場合,文同定のための客観的かつ明確なルールを定めることが困難であることが多い.その結果,文同定を主観判断に基づいて行うことが多くなる.このことを踏まえ,本ガイドラインでは,文末記号がない場合は,文の同定を主観判断で行うこととした.もし,判断に迷う場合は,複数人で相談し決定する.複数人で相談しても解決できない場合は,文境界とはしない.主観判断による文同定で重要となることは,いかに,コーパスを通して一貫した主観判断で文の同定を行うかということである.本ガイドラインでは,一貫した主観判断を行えるよう各項目に分かり易い見出しをつけ,辞書的にガイドラインを使えるようにした.更に,判断規則を言語化することが難しい場合が多いことを考慮し,主観判断の結果を可能な限り例示した.例示により,作業者は類似したケースに対して一貫した文同定が行える.以下,文同定に関するガイドラインの代表的なものを紹介する(下記では,文境界を{\tt\_kaigyo\_}で示す)\<.\begin{enumerate}\item文末記号がない場合\label{subsubsec:3-6-1}\begin{itemize}\item[]説明:文と文の間に文末記号がない場合\item[]処理:作業者の主観により文末であると判断された箇所で改行する\item[]例:\begin{itemize}\item[]処理前:あんまリおもしろくないよでもよんでね\item[]処理後:あんまリおもしろくないよ{\tt\_kaigyo\_}\\でもよんでね\end{itemize}\end{itemize}\item読点を用いた文末表現\label{subsubsec:3-6-2}\begin{itemize}\item[]説明:文末記号の代わりに「、」「,」等の読点が用いられている場合\item[]処理:作業者の主観により文末であると判断された場合は読点の直後で改行する.文末か文の途中か判断がつかない場合は文中とし,改行しない.\item[]例:\begin{itemize}\item[]処理前:「助けて」という声がした、そしてどろまるはおそるおそるちかずいた\item[]処理後:「助けて」という声がした、{\tt\_kaigyo\_}\\そしてどろまるはおそるおそるちかずいた\end{itemize}\end{itemize}\item文末記号+顔文字の場合\label{subsubsec:3-3-2}\begin{itemize}\item[]説明:文末記号の直後に顔文字がある場合\item[]処理:顔文字の直前に文末記号があるときのみ顔文字の後で改行する.顔文字は直前の文の気持ちを表すことが多いため.\item[]例:\begin{itemize}\item[]処理前:おもしろいよ。(^−^)/夏休み中に、読んで見てね。\item[]処理後:おもしろいよ。(^−^)/{\tt\_kaigyo\_}\\夏休み中に、読んで見てね。\end{itemize}\end{itemize}\item引用符中の文末記号\label{subsubsec:3-2-1}\begin{itemize}\item[]説明:文の途中に引用符があり,引用符の中に文末記号がある場合.ただし,引用符は「」,『』,【】,(),〔〕,[],{},〈〉,《》,“”,‘’とする.\item[]処理:引用符の中では改行しない\item[]例:\begin{itemize}\item[]処理前:「バンパイアって、こんなことが出来るんだ。」って思いましたね。\item[]処理後:「バンパイアって、こんなことが出来るんだ。」って思いましたね。(改行せず)\end{itemize}\end{itemize}\item文の途中に改行が入っている場合\label{subsubsec:3-1-1}\begin{itemize}\item[]説明:文の途中に改行が入っている\item[]処理:改行を消す\item[]例:\begin{itemize}\item[]処理前:にせもののお金をソフトクリームやさん{\tt\_kaigyo\_}で、使った。\item[]処理後:にせもののお金をソフトクリームやさんで、使った。\end{itemize}\end{itemize}\end{enumerate}【文字の処理】文字の処理とは,言語データ中の``$>$''や``\&''などの文字をエスケープする処理のことである.これは,「こどもコーパス」がXML形式を採択しているためである.XMLでエスケープする必要がある全ての文字に対してエスケープを行う.\subsection{収録情報}\label{sec:corpus_information}\ref{subsec:system}節で説明した言語データ収集方法では,子供の書いた文章以外に様々な情報が収集できる.これらの情報の中には,言語獲得や言語処理の研究に有益な情報も含まれる.そこで,コーパスに含める情報の選定を行った.以下,収録情報と対応するXMLタグについて説明する(具体例は,図~\ref{fig:sample}を参照のこと).【ユーザタグ:$<$USR$>$】子供1人分の言語データを表すタグである.子供の文章を含む全ての情報がこのタグの間に含まれる.子供に関する情報としては,各子供を識別するユーザID($<$USR\_ID$>$)とブログシステム開始時の学年情報($<$USR\_GRADE$>$)が含まれる.【アイテムタグ:$<$ITEM$>$】ブログの1アイテムに対応するデータである.したがって,子供が登録したアイテム数と同じ数のアイテムタグが含まれることになる.アイテムには,アイテムを識別するアイテムID($<$ITEM\_ID$>$),タイトル($<$TITLE$>$),著者($<$AUTHOR$>$),ISBN($<$ISBN$>$),十進分類($<$NDC$>$),書き込み履歴($<$EDTN$>$)が含まれる.【書き込み履歴タグ:$<$EDTN$>$】文章の書き込み履歴である.$<$EDIT\_NO$>$タグは,何番目に書き込まれた(編集された)文章かを表す.また,$<$DATE$>$タグは,書き込み(編集)日時(秒まで)を表す.この二つのタグ情報から,いつ何を書き込んだかがわかる.すなわち,作文履歴をトレースすることが可能となる.子供の文章自体は,$<$TEXT$>$タグに含まれる.一文一行に,文分割した形式とした.\begin{figure}[t]\begin{center}\includegraphics{17-2ia4f2.eps}\end{center}\caption{こどもコーパスのサンプル}\label{fig:sample}\end{figure}以上が,選定した収録情報である.子供の言語データだけでなく,関連する様々な情報を提供できることがわかる.これらの情報により,多様な分析への応用が期待できる.例えば,書き込み時間と編集履歴から,子供はどのように文章の推敲や修正を行うかということが分析できる.また,本のタイトルや十進分類の情報が得られるので,読んだ本のジャンルが子供の語彙の使用に及ぼす影響の分析などにも利用できる.
\section{こどもコーパス}
label{sec:pupil_corpus}提案方法により実際に子供のコーパスを構築した.言語データの収集期間は,2008年6月9日〜2009年2月15日である.収集対象は,小学校5年生3学級81人とした\footnote{現在でも,引き続き言語データの収集を行っている.5年生終了時を一区切りとし,データの整理を行いコーパスを構築した.}.言語データの収集は,総合的な学習の時間中に情報発信の学習活動の一環として行った.情報発信の学習ということを踏まえ,書き込む内容は本の推薦とした(以下,「おすすめメッセージ」と表記する).基本的に週一回授業時間を設け,その中で書き込みをしてもらうこととした.加えて,休み時間や放課後にも書き込みが行えるようシステムを開放した.なお,他の子供のブログの内容を検索,閲覧できる環境とした.上述の条件で1,256の文章を収集することができた(アイテム数592,総書き込み数1,256).形態素数にすると39,269形態素分の文章を収集することができた(形態素の計数には茶筌~\cite{matsumoto}を利用した).このことから1つの「おすすめメッセージ」は,平均66.3形態素から成ることがわかる.また,1人の子供は平均約16回の書き込みを行っていることがわかる\footnote{基本的に,週一回の授業で収集を行ったが,自然学校や音楽会などで授業がなくなることもあり,平均すると週一回を下まわるペースとなっている.}.また,約半分の「おすすめメッセージ」について,何らかの編集を行っていることもわかる(ただし,編集時に「おすすめメッセージ」に何の修正も加えず,そのまま登録したものも含む).このように,「こどもコーパス」には,人数,期間,形態素数の面で大規模な言語データが収録されており様々な応用が期待される.例えば,年齢と語彙数の関係を推定する重要な資料になると考えられる.また,子供間の語彙の伝搬に関する知見も得られるのではないかと期待している.子供は,他者のブログを検索,閲覧できる環境で,各自の「おすすめメッセージ」を書き込む.したがって,他者のブログから影響を受けることは容易に推測できる.例えば,他者の「おすすめメッセージ」中の単語や表現を利用して,自分の「おすすめメッセージ」を作成することなどが予想される.「こどもコーパス」には,書き込みおよび編集履歴が記録されているため,ある程度,語彙の伝搬の情報を得ることができる.現在,より詳細な情報として,検索と閲覧に関する情報もコーパスに収録することを検討している.収集に利用したブログシステムには,どのようなキーワードで検索を行い,検索された「おすすめメッセージ」のうちどれを閲覧したかという情報も記録する機能を実装した.将来的には,この検索に関する情報もコーパスに含めたいと考えている.更に,形態素情報をコーパスに付与することも計画している.そのためには,子供が書いた文章に対応できるよう,既存の形態素に関するガイドラインを拡張する必要がある.形態素情報が付与されたコーパスがあれば,子供の書いた文章専用の形態素解析が開発できる.子供の書いた文章専用の形態素解析は,更に詳細な,子供の文章の分析に繋がると期待できる.一方で,「こどもコーパス」の利用には,注意しなければならない点もある.以下,この点について議論する.第一に,データの偏りが挙げられる.「おすすめメッセージ」は,本の推薦文であるため,内容は本に関するものに偏っている.実際,``本''や``話''など本に関する単語が多く出現する傾向にある.また,推薦文であるため勧誘表現が多い.そのため,「こどもコーパス」から得られた語句の頻度と他のコーパスから得られた語句の頻度とを単純に比較することは意味を持たない場合があるということに注意しなければならない.第二に,入力方法の問題がある.子供たちは,キーボードもしくはソフトウエアキーボードを用いて,「おすすめメッセージ」を入力する.漢字入力は,コンピュータの漢字変換機能を利用する.したがって,子供たちは,自分では書けない漢字を「おすすめメッセージ」に使用している可能性が高い.このことは,「こどもコーパス」を利用して,漢字の習得に関する分析などを行う際には注意が必要であることを意味する.最後に,ブログを利用して収集された言語データであることにも注意しなければならない.ブログ上の文章であるため,紙と鉛筆で書く通常の作文とは,語用や文体が異なる可能性がある.このことも,「こどもコーパス」を利用して何らかの分析を行う際に,念頭においておく必要がある.
\section{おわりに}
label{sec:conclusions}本論文では,子供のコーパスを構築する際に生じる難しさを整理,分類し,効率良く子供のコーパスを構築する方法を提案した.本論文の新規性として,子供のコーパスを効率よく構築する新たな方法を提案した点が挙げられる.実際に「こどもコーパス」を構築し,提案した方法の有効性を確認した.また,「こどもコーパス」自体も,著者らが知る限り,公開されている日本語書き言葉子供コーパスとしては最大規模であり,新規性,有用性共に高いといえる.更に,「こどもコーパス」は,作文履歴がトレース可能という特徴も有する.今後は,言語データの収集を続けると共に,検索に関する情報の収録や形態素情報の付与などを行っていく予定である.\acknowledgment言語データの収集にあたり,多大な協力をいただいた神戸市立南落合小学校の皆様に感謝いたします.本研究に対して貴重な助言をいただいた(株)ホンダ・リサーチインスティチュート・ジャパンの船越孝太郎氏に感謝いたします.著作権に関する情報を提供していただいた甲南大学フロンティア推進機構のスタッフの方々に感謝いたします.本研究の一部は,(株)ホンダ・リサーチインスティチュート・ジャパンからの助成金により実施した.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{安藤\JBA高比良\JBA坂元}{安藤\Jetal}{2004}]{ando}安藤玲子\JBA高比良美詠子\JBA坂元章\BBOP2004\BBCP.\newblock小学校のインターネット使用量と情報活用の実践力との因果関係.\\newblock\Jem{日本教育工学会論文誌},{\Bbf28Suppl.},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{中條\JBA内山\JBA中村\JBA山崎}{中條\Jetal}{2006}]{chujo}中條清美\JBA内山将夫\JBA中村隆宏\JBA山崎淳史\BBOP2006\BBCP.\newblock子供話し言葉コーパスの特徴抽出に関する研究.\\newblock\Jem{日本大学生産工学部研究報告B},{\Bbf39}.\bibitem[\protect\BCAY{Granger}{Granger}{1993}]{granger2}Granger,S.\BBOP1993\BBCP.\newblock\BBOQTheInternationalCorpusofLearner{English}.\BBCQ\\newblockInAarts,J.,de~Haan,P.,\BBA\Oostdijk,N.\BEDS,{\BemEnglishLanguageCorpora:{Design},AnalysisandExploitation},\mbox{\BPGS\57--69}.Rodopi.\bibitem[\protect\BCAY{Hamasaki}{Hamasaki}{2002}]{hamasaki}Hamasaki,N.\BBOP2002\BBCP.\newblock\BBOQTheTimingShiftofTwo-year-old'sResponsestoCaretakers'Yes/NoQuestions.\BBCQ\\newblockIn{\BemStudiesinLanguageSciences},\mbox{\BPGS\193--206}.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2009}]{hasimoto}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2009\BBCP.\newblock構文・照応・評判情報つきブログコーパスの構築.\\newblock\Jem{言語処理学会第15回年次大会発表論文集},\mbox{\BPGS\614--617}.\bibitem[\protect\BCAY{石田\JBA森}{石田\JBA森}{1985}]{ishida}石田潤\JBA森敏昭\BBOP1985\BBCP.\newblock児童の自己認識の発達:児童の作文の分析を通して.\\newblock\Jem{広島大学教育学部紀要},{\Bbf1}(33),\mbox{\BPGS\125--131}.\bibitem[\protect\BCAY{石川}{石川}{2005}]{ishikawa}石川慎一郎\BBOP2005\BBCP.\newblock日本人児童用英語基本語彙表開発における頻度と認知度の問題:母語コーパスと対象語コーパスの頻度融合の手法.\\newblock\Jem{信学技報TL2005-25},\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{Izumi,Saiga,Supnithi,Uchimoto,\BBA\Isahara}{Izumiet~al.}{2003}]{izumi}Izumi,E.,Saiga,T.,Supnithi,T.,Uchimoto,K.,\BBA\Isahara,H.\BBOP2003\BBCP.\newblock\BBOQTheDevelopmentoftheSpokenCorpusofJapaneseLearnerEnglishandtheApplicationsinCollaborationwith{NLP}Techniques.\BBCQ\\newblockIn{\BemProceedingsoftheCorpusLinguistics2003conference},\mbox{\BPGS\359--366}.\bibitem[\protect\BCAY{掛川\JBA永田\JBA森田\JBA須田\JBA森広}{掛川\Jetal}{2008}]{kakegawa}掛川淳一\JBA永田亮\JBA森田千寿\JBA須田幸次\JBA森広浩一郎\BBOP2008\BBCP.\newblock自由記述メッセージからの学習者の特徴表現抽出.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ91-D}(12),\mbox{\BPGS\2939--2949}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1989}]{kokken}国立国語研究所\BBOP1989\BBCP.\newblock\Jem{児童の作文使用語彙},98\JVOL.\newblock国立国語研究所報告.\bibitem[\protect\BCAY{MacWhinney}{MacWhinney}{2000a}]{macwhinney1}MacWhinney,B.\BBOP2000a\BBCP.\newblock{\BemTheChildesProject:ToolsforAnalyzingTalk,VolumeI:TranscriptionformatandPrograms}.\newblockLawrenceErlbaum.\bibitem[\protect\BCAY{MacWhinney}{MacWhinney}{2000b}]{macwhinney2}MacWhinney,B.\BBOP2000b\BBCP.\newblock{\BemTheChildesProject:ToolsforAnalyzingTalk,VolumeII:TheDatabase}.\newblockLawrenceErlbaum.\bibitem[\protect\BCAY{桝井\JBA鈴木\JBA福本}{桝井\Jetal}{2002}]{masui}桝井文人\JBA鈴木伸哉\JBA福本淳一\BBOP2002\BBCP.\newblockテキスト処理のための固有表現抽出ツール{NExT}の開発.\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\176--179}.\bibitem[\protect\BCAY{松本}{松本}{2000}]{matsumoto}松本裕治\BBOP2000\BBCP.\newblock形態素解析システム「茶筌」.\\newblock\Jem{情報処理},{\Bbf41}(11),\mbox{\BPGS\1208--1214}.\bibitem[\protect\BCAY{Miyata}{Miyata}{1992}]{ryo}Miyata,S.\BBOP1992\BBCP.\newblock「パパワ?」---子どもの「ワ」を含む質問について---.\\newblock\Jem{愛知淑徳短期大学研究紀要},{\Bbf31},\mbox{\BPGS\151--155}.\bibitem[\protect\BCAY{Miyata}{Miyata}{1995}]{aki}Miyata,S.\BBOP1995\BBCP.\newblockアキ・コーパス---日本語を獲得する男児の1歳5ヵ月から3歳までの縦断観察による発話データ集---.\\newblock\Jem{愛知淑徳短期大学研究紀要},{\Bbf34},\mbox{\BPGS\183--191}.\bibitem[\protect\BCAY{Miyata}{Miyata}{2000}]{tai}Miyata,S.\BBOP2000\BBCP.\newblock\BBOQTheTAIcorpus:{Longitudinal}SpeechDataofa{Japanese}BoyAged1;5.20--3;1.\BBCQ\\newblock{\BemBulletinofShukutokuJuniorCollege},{\Bbf39},\mbox{\BPGS\77--85}.\bibitem[\protect\BCAY{守屋\JBA森\JBA平崎\JBA坂上}{守屋\Jetal}{1972}]{moriya}守屋慶子\JBA森万岐子\JBA平崎慶明\JBA坂上典子\BBOP1972\BBCP.\newblock児童の自己認識の発達:児童の作文の分析を通して.\\newblock\Jem{教育心理学研究},{\Bbf20}(4),\mbox{\BPGS\205--215}.\bibitem[\protect\BCAY{Reuter\BBA\Druin}{Reuter\BBA\Druin}{2005}]{reuter}Reuter,K.\BBACOMMA\\BBA\Druin,A.\BBOP2005\BBCP.\newblock\BBOQBringingTogetherChildrenandBooks:AnInitialDescriptiveStudyofChildren'sBookSearchingandSelectionBehaviorinaDigitalLibrary.\BBCQ\\newblockIn{\BemProceedingsoftheAmericanSocietyforInformationScienceandTechnology},\lowercase{\BVOL}~41,\mbox{\BPGS\339--348}.\bibitem[\protect\BCAY{坂本}{坂本}{2009}]{sakamoto}坂本真樹\BBOP2009\BBCP.\newblock小学生の作文にみられるオノマトペ分析による共感覚比喩一方向性仮説再考.\\newblock\Jem{日本認知言語学会第10回大会発表論文集},\mbox{\BPGS\155--158}.\bibitem[\protect\BCAY{須田\JBA永田\JBA掛川\JBA森広}{須田\Jetal}{2008}]{suda2}須田幸次\JBA永田亮\JBA掛川淳一\JBA森広浩一郎\BBOP2008\BBCP.\newblock図書を話題としたブログでの児童が発信するメッセージにおける語彙の広がり.\\newblock\Jem{日本教育工学会研究報告集},\mbox{\BPGS\59--62}.\bibitem[\protect\BCAY{須田\JBA永田\JBA掛川\JBA森広}{須田\Jetal}{2007}]{suda}須田幸次\JBA永田亮\JBA掛川淳一\JBA森広浩一郎\BBOP2007\BBCP.\newblock児童が共同構築するブログにおける検索が情報発信能力に及ぼす効果.\\newblock\Jem{日本教育工学会研究報告集},\mbox{\BPGS\11--16}.\end{thebibliography}\begin{biography}\bioauthor{永田亮}{平11明大・理工・電気卒.平14三重大大学院博士前期課程了.平17同大学院博士後期課程了.同年兵庫教育大助手.平19同大学院学校教育研究科助教.平20より甲南大知能情報学部講師.博士(工学).冠詞の振る舞いのモデル化,英文誤り検出,Edu-miningなどの研究に従事.電子情報通信学会会員.}\bioauthor{河合綾子}{平21甲南大・理工・情報システム工学科卒.同年株式会社インテックに入社.在学中は,子供のコーパス構築の研究に従事.}\bioauthor{須田幸次}{昭58和歌山大・教育卒.同年神戸市立菅の台小学校教諭.平17兵庫教育大大学院学校教育研究科修士課程入学.平19同大学院学校教育研究科修士課程了.現在神戸市立南落合小学校教諭.情報活用能力育成のための学校図書館蔵書データベースの開発とその利用法の研究に従事.日本教育工学会会員.}\bioauthor{掛川淳一}{平11東京理科大・基礎工・電子応用工学卒.平13同大学院修士課程了.平16同大学院博士後期課程了.同年同学ポストドクトラル研究員を経て,平16兵庫教育大学助手.平19同大学院学校教育研究科助教.平21年より,山口東京理科大助教.博士(工学).学習支援システム,第二言語学習支援,Edu-miningの研究に従事.人工知能学会,日本教育工学会,教育システム情報学会,電子情報通信学会各会員.}\bioauthor{森広浩一郎}{平元東京学芸大・教育・数学卒.平3同大大学院修士課程了.平5大阪大大学院工学研究科博士後期課程中退.同年兵庫教育大助手.同大講師・助教授を経て,現在同大大学院学校教育研究科准教授.博士(工学).学習支援システムの開発と,それを用いた教育実践に関する研究に従事.日本教育工学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V06N03-04
|
\section{はじめに}
係り受け解析は日本語文解析の基本的な方法として認識されている.日本語係り受けには,主に以下の特徴があるとされている\footnote{もちろん,例外は存在するが\cite{sshirai:jnlp98},その頻度は現在の解析精度を下回り,現状では無視して構わないと考える.つまり,これらの仮定の基に解析精度を向上させた後に,そのような例外に対し対処する手法を考えればよいのではないかと思う.また,(4)の特徴はあまり議論されてはいないが,我々が行なった人間に対する実験で90\%以上の割合で成立する事が確認された.}.我々はこれらの特徴を仮定として採用し,解析手法を作成した.\begin{itemize}\item[(1)]係り受けは前方から後方に向いている.(後方修飾)\item[(2)]係り受け関係は交差しない.(非交差条件)\item[(3)]係り要素は受け要素を一つだけ持つ.\item[(4)]ほとんどの場合,係り先決定には前方の文脈を必要としない.\end{itemize}このような特徴を仮定した場合,解析は文末から文頭に向けて行なえば効率良く解析ができると考えられる.以下に述べる二つの利点が考えられるためである.今,文節長Nの文の解析においてM+1番目の文節まで解析が終了していると仮定し,現在M番目の文節の係り先を決定しようとしているとする(M$<$N).まず,一つ目の利点は,M番目の文節の係り先は,すでに解析を終了しているM+1番目からN番目の文節のいずれかであるという事である.したがって,未解決な解析状態を積み上げておく必要はないため,チャートパーザーのように活性弧を不必要に多く作る必要はないし,一般的なLRパーザー等で利用されているようなスタックにそれまでの解析結果を積んで後の解析に依存させるという事をしなくて済む.別の利点は,M番目の文節の解析を開始する時点には,M+1番目からN番目の係り受け解析はなんらかの形式において終了しており,可能な係り先は,非交差条件を満足する文節だけに絞られるという事である.実験では,この絞り込みは50\%以下になり,非常に有効である.また,この論文で述べる統計的手法と文末からの解析手法を組み合せると,ビームサーチが非常に簡単に実現できる.ビームサーチは解析候補の数を絞りながら解析を進めていく手法である.ビーム幅は自由に設定でき,サーチのための格納領域はビーム幅と文長の積に比例したサイズしか必要としない.これまでにも,文末からの解析手法はルールベースの係り受け解析において利用されてきた.例えば\cite{fujita:ai88}.しかし,ルールベースの解析では,規則を人間が作成するため,網羅性,一貫性,ドメイン移植性という点で難がある.また,ルールベースでは優先度を組み入れる事が難しく,ヒューリスティックによる決定的な手法として利用せざるを得なかった.しかし,本論文で述べるように,文末から解析を行なうという手法と統計的解析を組み合せる事により解析速度を落す事なく,高い精度の係り受け解析を実現する事ができた.統計的な構文解析手法については,英語,日本語等言語によらず,色々な提案が80年代から数多くあり\cite{fujisaki:coling84}\cite{magerman:acl95}\cite{sekine:iwpt95}\cite{collins:acl97}\cite{ratnaparkhi:emnlp97}\cite{shirai:emnlp98}\cite{fujio:emnlp98}\cite{sekine:nlprs97}\cite{haruno:nlpsympo97}\cite{ehara:nlp98},現在,英語についてはRatnaparkhiのME(最大エントロピー法)を利用した解析が,精度,速度の両方の点で最も進んでいる手法の一つと考えられている.我々も統計的手法のツールとしてMEを利用する.次の節でMEの簡単な説明を行ない,その後,解析アルゴリズム,実験結果の説明を行なう.
\section{最大エントロピー法の利用}
最大エントロピー法(ME)は,トレーニングデータ中の素性の頻度等の情報から特徴的な素性を学習し,その特徴を生かした確率的なモデルを作成する方法である.素性とは,我々の場合,二つの文節間の係り受けの確率を計算するための情報であり,そこで使用される基本素性には表~\ref{素性}に挙げた種類の素性を利用した.括弧内の数字は素性値の数である.\begin{table}[tbh]\begin{center}\caption{素性}\label{素性}\begin{tabular}{|l|l|}\hline前文節/後文節&主辞見出し(2204),品詞(34),活用情報(90),\\&語形情報(218),助詞の細い情報(135),\\&句読点,括弧の情報(31)\\\hline文節間情報&距離(3),読点,括弧の有無(6),「は」の有無(2),\\&前文節と同じ素性を持つ物の有無等(127)\\&後文節と同じ素性を持つ物の有無等(220)\\\hline\end{tabular}\end{center}\end{table}また,これらの素性を組合せた組合せの素性も利用した.その数は約4万個である.素性の詳細,および素性の選択による比較実験については\cite{uchimoto:nlken98}を参照されたい.そして,テストの際には,トレーニングデータを使用して学習されたモデルを基にテスト文中に与えられた二つの文節の素性からその二つの文節の係り受けの確率を計算する.これまでの多くの先行研究と同様にすべての係り受けは独立であると仮定し,一文全体の係り受け確率を,その文中にあるそれぞれの係り受けの確率の積で表す.そして,一文全体の確率が最大となるような係り受け関係が正しい係り受け関係であると仮定する.
\section{解析アルゴリズム}
この章では,解析アルゴリズムを紹介する.まず,例を利用して,概略を説明し,その後フォーマルな形で解析アルゴリズムを示す.特徴は文末から文頭に向けての係り受け解析と確率を利用したビームサーチにある.例には以下の入力文を用いる.文節解析まで終っていると仮定しており,文節の区切は''$|$''で示される.説明図において,文節の係り先は,それぞれの文節の下にある番号で示される.\begin{verbatim}-----------------------------------------------------------<初期状態>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.-----------------------------------------------------------\end{verbatim}\begin{flushleft}\underline{解析手順}\end{flushleft}\begin{enumerate}\item[(1)]{\bf文末から二つ目の文節}\\文末の文節は係り先はなく,文末から二つ目の文節は必ず文末の文節にかかる.この結果は以下のようになる.\end{enumerate}\begin{verbatim}-----------------------------------------------------------<文末から二つ目まで>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.候補6------------------------------------------------------------\end{verbatim}\begin{enumerate}\item[(2)]{\bf文末から三つ目の文節}\\この文節(「作り,」)は,係り先として二つの文節が考えられる.一つは「彼女に」であり,もう一つは「贈った」である.MEを利用して計算された確率を付与した二つの解析候補を作成する.(それぞれの確率は0.1,0.9としてあり,各候補の最後には,総合の確率(各係り受けの確率の積)を括弧の中に示す.)\end{enumerate}\begin{verbatim}-----------------------------------------------------------<文末から三つ目まで>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.候補166-(0.9)候補256-(0.1)-----------------------------------------------------------\end{verbatim}\begin{enumerate}\item[(3)]{\bf文末から四つ目の文節}\\それぞれの候補に対して,「パイを」の文節の係り先を求める.候補1に対しては,非交差の条件から「パイを」の文節は「彼女に」の文節に係る事はありえない.したがって「パイを」が「作り,」と「贈った」のそれぞれに係る候補を作成する.候補2についても同様にする.\end{enumerate}\begin{verbatim}-----------------------------------------------------------<文末から四つ目まで>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.候補1466-(0.54)候補2666-(0.36)候補3456-(0.05)候補4656-(0.04)候補5556-(0.01)-----------------------------------------------------------\end{verbatim}\begin{enumerate}\item[]このように計算していくと,候補の数は文頭に行くにしたがって増えていく.しかし,解析途中の候補の数に上限を設けて,ビームサーチを行なえば,解析候補数の爆発は防げる.また,上記の例から直感的に分るように,その場合でも解析精度の悪化も少なく抑えられる.実際の実験で得られたビーム幅と精度のデータは次章で紹介する.例えば,この例でビーム幅を3とすると,候補4と候補5はこの段階で捨てられ,以降の解析には使用されない.\item[(4)]{\bfそれ以降}\\上記で示したような解析を文頭まで繰り返す.例えば,ビーム幅を3とした場合の解析結果は以下のようになる.\end{enumerate}\begin{verbatim}-----------------------------------------------------------<文頭まで>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.候補164466-(0.11)候補244666-(0.09)候補364656-(0.05)-----------------------------------------------------------\end{verbatim}以下にフォーマルな解析アルゴリズムを示す.\begin{verbatim}----------------------------------------------------------------Length:入力文節長Input[Length]:入力文N:ビーム幅Cand[Length][N]:解析結果候補(各文節の係り先文節IDの配列で表される)例えばCand[1][1]={6,4,4,6,6,-}.この方法では,必要なメモリのサイズは文長とビーム幅の積以上になるが,簡単な変換で,上記のサイズに納める事ができる.add(l,cand):cand(解析結果候補)の確率がl番目の文節の解析結果候補の内のN番目のものより良い場合は,candをCand[l]の解析候補に加える.この際,N+1番目の候補になった物は捨てられる.get(l):Cand[l]の候補群から候補を取り出す.候補がなければNULLを返す.ins(i,cand):iをcandの先頭に追加する.procedure係り受け解析beginadd(Length-1,{Length,-});for(i=Length-2;i>=1;i--)beginwhile((cand=get(i))!=NULL)beginfor(j=i+1;j<=Length;j++)beginif(iからjへの係り受けがcandにおいて有効)add(i,ins(j,cand));endifendendendend----------------------------------------------------------------\end{verbatim}このアルゴリズムの解析時間オーダーは,文節数の2乗であり,ビーム幅をNとすると,ビーム幅に対しNlog(N)であると推測される.
\section{実験結果}
この章では,係り受け解析の実験を色々な角度から分析する.実験に用いたコーパスは,京大コーパス(Version2)\cite{kurohashi:nlp97}の一般文の部分で,基本的にトレーニングには1月1日と1月3日から8日までの7日分(7960文),試験には1月9日の1日分(\mbox{1246}文)を用いた.試験は頻繁に行なうと,高い成績を追及する結果その試験のデータに自然とチューニングされてしまう危険性があるので,頻繁に行なわないようにした.\subsection{実験結果}まず最初に,我々の結果を示し,他の手法の結果との比較を行なう.それ以降の節では,我々の実験内で得られた興味深いデータを紹介する.まずは,我々の解析結果を表~\ref{Result}に示す.京大コーパス1月9日の\mbox{1246}文に対して,形態素解析,文節区切認定まで終った状態から文節間係り受けの解析を決定的に(ビーム幅=1)行なった結果である.\begin{table}[tbh]\begin{center}\caption{解析結果}\label{Result}\begin{tabular}{|l|l|}\hline係り受け正解率(文末から二つ目の文節も含める)&87.14\%(9814/11263)\\係り受け正解率(文末から二つ目の文節を除く)&85.54\%(8575/10024)\\文正解率(文全体の解析が正しい割合)&40.60\%(503/1239)\\平均解析時間(一文当り)&0.03秒\\\hline\end{tabular}\end{center}\end{table}また,文節数と係り受け正解率の関係を図~\ref{LengthAndAccuracy}に示す(文節数28以上は,それぞれデータ数が1なので図に載せていない.).図から分るように,文節数の増加に伴なう精度の劣化は比較的に小さいと考えられる.日本語の係り受けは多くの場合,係り元と係り先以外の大域的な情報を利用せず,局所的な情報のみで決められる事が多いので,文が長くなっても係り受け正解率の劣化があまり見られないのは納得できる.\begin{figure}[htbp]\beginpicture\setcoordinatesystemunits<6pt,180pt>\setplotareaxfrom0to30,yfrom0to1\axisbottomlabel{文節数}ticksshortquantity7numberedat0102030//\axisleftlabel{係り受け正解率}ticksshortquantity11numberedat00.20.40.60.81.0//\multiput{*}at30.937540.944450.908960.894570.901480.897790.8812100.8880110.8639120.8742130.8605140.8778150.8777160.8474170.8415180.8529190.8360200.8368210.8346220.8214230.8591240.8385250.7986260.8640270.8205280.9185/\setlinear\plot30.937540.944450.908960.894570.901480.897790.8812100.8880110.8639120.8742130.8605140.8778150.8777160.8474170.8415180.8529190.8360200.8368210.8346220.8214230.8591240.8385250.7986260.8640270.8205280.9185/\put{0.8714}at-100.8714\multiput{-}at-70.8714*3710/\endpicture\caption{文節数と係り受け正解率}\label{LengthAndAccuracy}\end{figure}\subsection{他の手法との比較}この節では他の手法との比較を行なう.他の手法においては同じコーパスを使って評価した物がないため,その精度は参考として載せる.同じプラットフォームで同じ評価方法を用いた比較が望まれる.\begin{flushleft}\underline{白井およびKNPとの比較}\end{flushleft}白井\cite{shirai:jnlp98:1}は構文規則に基いた確率一般化LR法を提案している.構文および語彙的な統計情報を用い,その学習にはMEを利用している.実験では京大コーパスの文節数7〜9の文からランダムに選んだ500文の内,KNPによる文節区切がコーパスと一致した388文を対象に,白井の解析結果とKNPの解析結果の正解率を比較している.(KNPについては\cite{kurohashi:snlr94}を参照の事.)そこで,我々の試験コーパスの中で文節数が7〜9の文,279文における結果を用いて比較した(表~\ref{CompShiraiKNP}).すべて,文末から二つ目の文節は評価から除いており,白井の方法も文節切りができた状態からの解析である.\begin{table}[tbh]\caption{白井,KNPとの比較}\label{CompShiraiKNP}\begin{center}\begin{tabular}{|l|c|}\hlineシステム&係り受け正解率\\\hline白井&84.53\%\\KNP&90.76\%\\本手法&87.41\%\\\hline\end{tabular}\end{center}\end{table}対象の文が完全に一致しておらず,対象の文の選択の方法も異なるので,参考にしかできないが,この文長の文に対しては,白井の手法に比較して3\%程度良い結果を,KNPと比較した場合には3\%程度悪い結果を得た.白井の実験では,EDRコーパス,RWCコーパスを利用し,トレーニングデータとしては我々よりも大きなデータを利用している.また,白井はランダムに選んだ500文については84.34\%という解析結果を示している.KNPは,この評価で使用したテストコーパスに基づいて改良されており,KNPの評価結果は,トレーニングデータに対するものと言う事ができる.\begin{flushleft}\underline{藤尾,春野との比較}\end{flushleft}藤尾\cite{fujio:emnlp98}は文節間の属性の共起頻度による統計的解析手法を提案した.また,春野\cite{haruno:nlpsympo97}は決定木およびブースティングを利用した係り受け解析を行なっている.これらの評価はEDRコーパスを利用し,試験対象データの選択手法も我々とは異なっているため,直接的な評価は難しい.彼等の場合は,形態素解析から解析を行なっているが,評価には文節区切が正しい物のみを利用したり,正解を自分の文節区切の結果に翻訳してから評価を行なっている.しかし,共に85\%程度の正解率が出ており,我々の手法も同様な位置を占めている.これらの手法は,ほぼ利用している知識の種類が同様であり,計算の手法に違いがあるものの,同様な結果を得ていると考えていいと思う.手法の違いによる詳しい比較を行なうためにも,同じプラットフォームでの実験とそれを元にした考察が望まれる.\begin{flushleft}\underline{江原との比較}\end{flushleft}江原の手法\cite{ehara:nlp98}は,我々の手法と同様にMEを用いており,そういった意味で比較するのは意味があるが,対象文は,NHKのニュース原稿であり,平均文節数も17.8と我々の対象にしている京大コーパスとは全く異なっている(平均文節数は10.0).ただし,図~\ref{LengthAndAccuracy}に示したように,我々の結果は文節数と係り受け正解率の関係はあまり変化が見られず,長いからといって必ずしも解析が困難だとは限らない.これらの理由により,単純な比較は意味がないが,正解率において,我々の手法が約10\%上回っているのはなんらかの要因が存在すると考えられる.(江原の手法では正解率は76.4\%と報告されている.)特に江原の方法とは素性の数に大きな差があるようである.江原が用いた一次的な素性値の数は200個程度であり,我々の一時的な素性値の数の約5000個とは大きく異なっている.また,我々は組合せの素性も4万個程度利用している.この点深く掘り下げて検討する事に意味があると考える.また,MEに利用する素性の選択に関しては,江原の他にも白井\cite{shirai:jnlp98:2}Berger\cite{berger:emnlp98}等が興味深い提案をしている.\subsection{ビーム幅と精度}次に,我々の実験の中での比較結果を報告する.まずは,解析時に用いたビーム幅と精度の関係である.解析時のビーム幅が広ければ広い程,全体として確率の高い解析が得られる可能性が高くなるので,ビーム幅は高く設定した方が望ましいと考えられる.しかし,結果はその直観とは異なっていた.表~\ref{BeamAndAccuracy}にビーム幅を1から20に変化させた時の係り受け正解率と文正解率を示す.\begin{table}[tbh]\caption{ビーム幅と係り受け正解率,文正解率との関係}\label{BeamAndAccuracy}\begin{center}\begin{tabular}{|c||c|c|}\hlineビーム幅&係り受け正解率&文正解率\\\hline1&87.14&40.60\\2&87.16&40.76\\3&87.20&40.76\\5&87.14&40.60\\10&87.20&40.60\\15&86.21&40.60\\20&86.21&40.60\\\hline\end{tabular}\end{center}\end{table}全体的に変化は小さいが,係り受け正解率はビーム幅が3と10の時に,文正解率はビーム幅が2と3の時に最大になっている.これは,全体の確率が最大の物が正解ではなく,各段階ごとに正解を絞っていった方が正解になるという場合がある事を示している.これは「はじめに」で書いた,日本語係り受けの特徴(4)にも関係していて面白い.この結果によると,文末から文頭に係り受け解析をする際に,最良の結果のみを得たい場合には,決定的に行なってもかなり精度の良いものが得られるという事が言える.実際に,ビーム幅を1とした時に得られた答が,ビーム幅20とした時の解析結果のどこに現われるかを調査した結果を表~\ref{OneOnTwenty}に示す.\begin{table}[tbh]\caption{決定的解析結果の位置}\label{OneOnTwenty}\begin{center}\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c|}\hline位置&1&2&3&4&5&6&7&8&9&10\\\hline頻度&1175&20&11&8&4&2&1&2&0&3\\(\%)&(95.3)&(1.6)&(0.9)&(0.6)&(0.3)&(0.2)&(0.1)&(0.2)&&(0.2)\\\hline\hline位置&11&12&13&14&15&16&17&18&19&20以上\\\hline頻度&1&0&1&0&1&0&1&1&0&8\\(\%)&(0.1)&&(0.1)&&(0.1)&&(0.1)&(0.1)&&(0.6)\\\hline\end{tabular}\end{center}\end{table}実際に全体の95\%の場合,ビーム幅1の解析結果がビーム幅20の解析において最大の確率を持つ結果と同等であった.また,ビーム幅が1の解析において文全体が正解であった503文の中では,N=20での結果において1位の場所に同じ解析結果があったものが498文(99.0\%)と非常に高い率であった(以下2位の位置が3文,3位と5位の位置がそれぞれ1文づつあった.).これらの文においては,最大の確率を持つ解析は,文末から解析していった場合に,各文節ごとの段階においてつねに最良の結果であったという事を意味している.これは,「はじめに」で書いた特徴(4)とも関係がある.「はじめに」の脚注に書いた人間に対する実験は文節に対する割合であるので,上記の文に対しての数字は,人間の実験で得られたよりもかなり高い割合で,前方の文脈の不必要さを実証したという事になる.\subsection{N--Best文正解率}文正解率はビーム幅が1の実験では40.60\%であったが,最終的に得られる解析の数を広くすればする程,正解率が向上する事が考えられる.図~\ref{NBestAccuracy}にビーム幅を20として解析を行なった場合のN--best文正解率を示す.N--best文正解率とは,上位N個の解析結果を見た場合に,文中のすべての文節係り受けの解析が正しい解析結果がその中にある割合の事を言う.\begin{figure}[htbp]\beginpicture\setcoordinatesystemunits<10pt,4pt>\setplotareaxfrom0to20,yfrom30to80\axisbottomlabel{N}ticksshortquantity21numberedat05101520//\axisleftlabel{文正解率}ticksshortquantity6numberedat304050607080//\multiput{*}at140.60253.19358.35462.71565.54667.96769.65870.70971.271072.481173.771275.061375.541476.431576.671677.241777.891878.291978.292078.53/\setlinear\plot140.60253.19358.35462.71565.54667.96769.65870.70971.271072.481173.771275.061375.541476.431576.671677.241777.891878.291978.292078.53/\put{40.60\%}[lb]at240.60\put{78.53\%}[lb]at1973\endpicture\caption{N--best文正解率}\label{NBestAccuracy}\end{figure}N=20,つまり,ビーム幅と同様の最終結果を見た場合に,文全体の係り受けが正解である解析結果が上位20個の解析結果に含まれる割合は78.5\%であるという事である.この中から正解を捜し出せる理想的なシステムを開発できた場合には,文正解率が78.5\%という非常に優れた解析システムができる可能性があるという事である.この結果から二つの考察ができる.まず,一点はN=1の文正解率は約40\%であるのに対して,N=2で向上した割合,つまり,2番目の解析結果が正解であった割合は10\%程度と非常に低くなっている.また,この40\%という数字は,N=20の場合の78.5\%という数字の半分以上であり,半分以上の場合においてN=1の所に正解が存在したという事を意味する.これは,我々の確率の計算手法が,まだ改善の余地はあるものの,かなり正確であるという事を示している.もう一点は,文正解率が80\%あたりで飽和しており,80\%程度以上の向上はNを多少大きくしても望めなさそうであるという事である(もちろん,Nをすべての組み合わせの数にすれば100\%にはなるが現実的に意味はない.).これは,我々が何か大きな要因を見過ごしている可能性がある.特に,並列構造についての解析能力が低いようである.この点を改良し,再度検討していきたいと思う.\subsection{解析速度}前章にあるアルゴリズムを分析すると,解析時間は文節長に対して2乗になっていると推測できる.実際に,ビーム幅1の時の文節長と解析速度の関係を調べた(図~\ref{Kaisekisokudo}).実験はSunのUltra10,周波数(300MHz)を利用した.係り受け解析のプロセスの大きさは8M程度であった.\begin{figure}[htbp]\beginpicture\setcoordinatesystemunits<4pt,360pt>\setplotareaxfrom0to50,yfrom0to0.5\axisbottomlabel{文長}ticksshortquantity6numberedat01020304050//\axisleftlabel{解析時間(秒)}ticksshortquantity11numberedat00.10.20.30.40.5//\multiput{*}at170.06750.008120.048150.06190.029120.045100.02660.01450.00880.011190.05560.014100.039100.04070.01790.025140.035130.03350.010110.03970.016190.05780.01990.02260.014100.022160.03810.00040.007230.12360.012150.04340.006130.03160.01660.015100.018100.01710.00160.01230.00410.00110.00140.005140.04550.01120.00240.00550.01030.00360.01050.00860.00930.00350.01080.02620.00290.031140.058160.087140.033150.041110.035100.03770.018100.03090.020170.109100.030100.03350.01460.011140.041130.02540.00870.02090.02270.01920.00310.00140.00820.00280.01720.002120.04160.01410.00190.01650.00740.01130.00530.00470.022110.03440.008160.05040.00560.01780.01440.00560.00870.01540.00620.00290.03120.00330.00450.010100.02590.027130.03650.00860.01370.012170.039110.042100.02310.00190.02060.01690.030160.06380.02070.01320.002120.02640.00950.011160.04050.008130.05580.01970.01510.00160.00860.01660.01380.01980.01590.025160.09970.02020.003110.041140.05980.026130.051170.063270.087130.031110.03080.020140.050210.191210.067120.04580.01680.01950.008110.03050.008100.035140.083200.11150.010130.037100.051100.02250.01160.01650.01240.00740.006190.07660.01060.011110.025110.026110.032130.03450.00880.017100.026110.02840.00650.013130.04260.013130.039100.02480.018100.021110.027230.09280.018140.058100.03840.00640.00970.01050.01090.01870.015100.03540.008150.06440.006150.03450.01550.01020.003120.02960.01590.02310.00150.007180.04980.01670.013120.065120.032140.04670.022110.04380.02050.009140.02560.01270.01590.02730.00430.005100.03840.005120.03990.01950.006110.02830.00790.023120.044140.04730.00380.025110.02880.018120.05370.01450.00980.01890.017120.033140.03790.03870.01470.01360.01680.026100.04270.018100.022150.07130.00550.012190.060100.036220.111230.06430.00440.006180.042210.10560.01270.01480.016190.075110.02230.00490.022130.03780.01350.01040.00690.017140.038130.039110.016130.03540.00540.00590.02390.02340.01090.03560.02160.01430.00540.006100.02040.00850.00850.00730.00550.01140.00520.00430.00430.00360.01260.013100.02270.01620.00380.01710.00160.01090.03290.023130.03220.00360.01460.012110.03380.02480.01950.01320.00390.026100.02790.03380.01680.018150.04640.008220.08250.008150.05060.01590.02560.014110.03060.020140.04680.022150.045140.039140.034250.082140.038150.042100.031140.049110.028120.046150.057120.02990.020150.05090.038100.02780.02720.00350.01290.01930.005100.04170.021110.034120.044190.090210.078140.059190.119130.04330.003170.03670.017120.02670.01660.01330.003180.07560.01080.020110.048100.06080.02610.00190.04530.00510.00210.001180.059100.033120.04590.01940.00890.03090.024130.04470.01940.008160.05430.003100.06290.01850.009150.03890.02850.01260.00990.02110.00140.00720.00210.00150.009240.10320.00320.00230.00450.00710.00160.01420.003100.02740.00880.018130.02780.023180.082100.02490.02910.00020.00150.00940.00640.00880.01780.01240.00780.023140.04260.00940.007100.023100.037130.031110.03530.003120.02950.011150.09150.007120.03090.01850.011110.031250.104270.11860.01130.006130.04450.01280.017300.126100.021160.05940.007110.043260.12570.01490.02170.01970.015280.133200.078120.040100.031220.06660.015170.07460.02570.020200.079130.03910.000100.020120.05280.018120.02610.001130.03080.017120.039120.04190.01790.02050.008160.04220.00240.010110.03040.00810.00160.009140.07280.02350.01170.01990.01830.00450.008130.02680.01940.00540.00590.02040.00880.01690.01850.00550.009150.05680.014100.02280.01340.008150.03540.00760.011180.05480.020100.04090.019130.03390.01990.019140.05240.01220.003100.02590.020170.05270.02450.010120.022110.034160.05760.01250.01190.032120.034120.039140.03770.01830.00740.00740.00760.013120.02750.00970.01690.024190.05330.00470.014150.07780.02130.00560.012120.02650.011160.041120.03960.01020.00270.01590.020130.05340.01090.02440.005180.04680.014100.02420.00390.02280.02180.03230.00420.003140.03850.01170.021140.06060.01270.013110.032120.03260.018130.031180.05590.022130.04980.018110.03250.00880.01930.00490.018140.03950.00740.00960.010100.02710.00120.00260.00910.00240.00660.014140.05370.014140.03680.02030.00580.01970.01890.020130.02810.001150.026140.055110.035240.142180.08490.021170.055170.09690.026100.029150.03530.006140.03590.02280.02160.00980.02070.02270.01940.00760.01780.01670.01760.01390.01660.01440.008160.05230.004120.02470.01410.00130.005100.031110.02540.00990.02040.00980.02340.00650.01280.020130.03390.02420.00340.00640.00890.03530.00360.01170.01370.01340.009150.043110.038120.03150.008120.03450.00980.02310.00120.00340.010180.10290.01990.01740.00930.00490.01790.03430.00590.02330.004150.04840.008270.139130.029140.05350.00970.017100.02290.01790.03180.028130.047160.046100.026140.04660.01260.012150.080120.029120.03580.01930.004170.060230.143230.096110.029100.040140.04280.014240.09790.03290.031220.066150.043100.023150.05180.021150.06190.029210.088110.02230.006110.026140.038180.039100.028200.102140.04580.02950.01090.055140.064210.124100.04680.018110.051140.097120.05930.005160.05290.02840.007160.045200.06690.032180.04720.00260.01070.01710.00120.00240.00860.00820.00620.00340.006110.02830.003150.05740.00650.013160.07730.00550.01360.01310.00150.012130.030200.06650.01280.027110.03540.01150.01360.013210.09280.035100.02170.02470.01470.01360.013140.04090.02670.021120.023140.03910.00130.003150.03450.01170.02660.01240.00760.01850.01030.00640.00450.01250.008100.02890.02560.01380.01860.01380.01990.02760.00920.00310.00190.02670.02430.00790.02180.023130.05040.00720.00260.01260.01130.00480.020100.02340.00690.02570.01380.01690.014110.02840.008130.04170.015210.06550.01260.010190.065200.062110.02750.009120.03990.018140.03190.02550.014250.087150.080160.059180.070120.041160.047150.044220.104130.040100.024160.05380.02080.019120.031100.029180.063200.078110.02890.02690.022160.06210.00040.00760.011170.04540.00740.00630.006170.03750.00870.01680.01390.02690.02620.00170.018110.02640.00720.00280.02650.010250.06970.01790.023100.02120.00410.00130.00410.00190.01960.012180.06980.02340.006140.06270.02080.040170.061130.02660.015130.050120.03290.03110.00190.030200.06350.009170.041110.02960.013110.030150.08690.022110.03370.013140.035140.039100.026110.01770.01290.03340.006200.065110.033170.05110.00040.009170.04790.020100.041150.03660.01450.01130.00660.01720.00430.00410.00140.01030.00540.00620.00390.02490.020160.03720.00380.02210.00150.00820.00230.003100.02640.006140.05320.002400.28790.01600.00080.017150.061100.042110.031130.06440.008170.074100.03090.02670.01460.01990.030130.034240.10140.00620.00340.01070.02270.01400.00080.01940.00640.00960.01780.01660.01350.010100.032260.07240.004110.02930.00340.00910.00160.01460.01780.01820.00390.02090.02150.01540.00670.01640.00840.00840.006120.046110.02660.015250.11460.01510.001180.094120.059110.041130.03860.014270.113140.076140.04250.00880.02490.026210.091130.03890.023170.065150.046170.090140.03960.008100.024130.04450.010200.09490.02790.02290.03190.02440.00980.01850.009270.267170.133160.04660.01390.02180.02470.01780.021150.050110.031100.030100.02650.009190.06220.00450.00940.00380.01670.011130.038180.05440.00830.00890.02530.00360.01190.03570.014150.060130.034130.03430.007100.031100.031140.04370.01580.022240.06730.006100.02380.020110.03440.008110.03950.00940.007100.032220.10070.018170.05870.012160.03670.01530.003110.027230.067200.09130.005240.076260.16170.026160.04390.02120.00470.032100.03950.013230.13060.023100.032180.08630.006160.076370.151180.062130.03030.004180.040150.04580.02170.01530.00580.026210.059100.02290.027100.03130.005150.06130.005100.041130.046110.03470.026110.040100.03310.00160.01020.002160.055220.119360.19250.00980.02640.008210.09050.013100.02150.01490.01760.01280.02990.025220.11890.02580.033210.08420.00230.005110.03770.01240.005120.035140.05810.00180.02140.01070.01930.006100.03360.01370.015120.044110.033130.058100.023140.052100.033180.059200.059120.046150.057100.023160.05250.01160.01360.012140.07530.00740.007170.05680.016130.036120.04590.022160.04530.00640.00630.00670.012220.098220.14840.00890.02540.008130.039120.05840.013130.05680.023110.02730.005/\setquadratic\plot00200.08400.32/\put{$t=0.0002*n^{2}$}[lb]at300.4\endpicture\caption{ビーム幅1の時の文節長と解析速度の関係}\label{Kaisekisokudo}\end{figure}図から実際の解析時間も,文長に対してほぼ2乗になっている事が分かる(参考の為に描き入れた二次曲線を参照.).実際は定数部分がある為に曲線の最初の部分は分布よりも下になっていると考えられる.一文あたりの平均解析時間は0.03秒(平均文節数10.0),最長文である41文節の文に対しては0.29秒で解析を行なった.実際,プログラムを最適化する余地は存在し,その係数については改善の余地があると考えている.また,プロセスサイズについても必要ならば,縮小する余地はあると考えている.
\section{まとめ}
本論文では文末から解析する統計的係り受け解析アルゴリズムを示した.日本語の係り受けは,ほとんどが前方から後方であるという特徴を生かし,解析は文末から文頭の方向へ解析を進めるという点と,色々な提案によって有効性が示されている統計的文解析を利用するという二つの特徴を兼ね備えた日本語文係り受け解析を提案した.係り受けの正解率は,正しい文節解析ができた結果から開始した場合,京大コーパスを使用した実験で係り受け正解率が87.2\%,文正解率が40.8\%と高い精度を示している.ビームサーチのビーム幅を調整した実験では,ビーム幅を小さくする事による精度の劣化が認められなかった.実際にビーム幅が1の際に得られた結果の95\%はビーム幅20の時の最良の結果と同一であった.また,N--best文正解率を見た時には,Nが20の時には78.5\%という非常に高い結果を示している.解析速度は,解析アルゴリズムから推測される2乗程度であり,平均0.03秒(平均文節数10.0),最長文である41文節の文に対しては0.29秒で解析を行なった.また,他の手法との比較では,共通のベンチマークがない為,直接的な比較はできなかったが,各手法と同程度か優れた結果が得られたと判断した.共通のベンチマークを作る事は,お互いのシステムの特徴を直接的に比較し,技術の向上を計る為に有意義であると考えられる.また,今回は,文節切りができている点から解析を開始したが,そうでなく文からの解析を行なった場合には,評価の方法も難しくなる.特に文節切りが正解とシステムが出した結果とで異なる場合にはどのように判断したらよいかスタンダードな方法がない状態である.協力しあってこのようなスタンダードを決める事は意味があると思われる.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{内元清貴}{1994年京都大学工学部電気工学第二学科卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.工学博士.同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.情報処理学会,言語処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V30N04-05
|
\section{はじめに}
\label{section:introduction}計算機による自然言語理解の実現は,自然言語処理における大きな目標のひとつである.この目標に向けて,計算機の言語理解力を訓練・評価する問題設定を考え,そのデータを構築する研究が盛んに行われている\cite{Wang_et_al_2019_GLUE,Wang_et_al_2019_SuperGLUE,Srivastava_et_al_2022}.このような取り組みの中で,計算機による自然言語理解を実現するためには,言語に関する知識(語句の意味,構文など)と言語を超えた実世界に関する知識の両方が必要であると議論されてきた.前者の言語に関する知識は,汎用言語モデルBERT\cite{Devlin_et_al_2019}の登場以降,相当学習できるようになった.大規模テキストから文脈に応じた語のベクトル表現を事前に学習し,下流タスクに合わせてfine-tuningすることで,言い換え認識や構文解析といった基礎的な解析タスクで人間に匹敵する精度が達成されている.一方で,後者の実世界に関する知識の獲得については,まだ課題が残る.実世界に関する知識は無数に存在するため,その基本的な部分,すなわち常識に焦点を当てたデータが盛んに構築されている.そこでは,広範な知識の中から常識を獲得するために,どのように常識に焦点を当てるかが課題となる.これまでに行われた工夫を見ると,例えば,SWAG\cite{Zellers_et_al_2018}は動画キャプションをベースとすることで対象を視覚で捉えられる日常的な出来事に限定している.しかし,これでは扱える常識の範囲が制限される.その他の試みとして,ConceptNet\cite{Speer_et_al_2017}をベースとするCommonsenseQA\cite{Talmor_et_al_2019}がある.ConceptNetがカバーする基本的な語句の間の関係をベースとしているが,ConceptNet全体を用いても1.2万問しか作問できないという拡張性の問題がある.また,作問時に含まれるバイアスをできるだけ排除しなければならないという課題もある.前述の試みについて,例えば,SWAGでは誤り選択肢文を言語モデルで自動生成し,CommonsenseQAでは問題文をクラウドソーシングで作成している.このため,これらのデータセットには言語モデルの生成バイアスやAnnotationArtifacts\footnote{クラウドワーカーの作文に含まれる語彙や文体などのパターンのことを指す.}\cite{Gururangan_et_al_2018}が含まれうる.本研究では,これらの問題を解決するために,人手で構築された言語資源をベースとした作問や人手による作問ではなく生のテキストデータからの作問を試みる.蓋然的関係\footnote{ある程度続けて起こりうる/真である事態間に成立する関係.PennDiscourseTreebank\cite{Prasad_et_al_2008,Prasad_et_al_2019}における談話関係``Contingency''に相当する日本語の用語として定義する.}を持つ基本的なイベント表現の組をテキストから自動抽出し,クラウドソーシングで確認を行い,それをベースに常識推論問題を自動生成するという手法を提案する.基本的なイベント表現(\textbf{基本イベント}と呼ぶ)は「テキストから抽出した述語項構造をクラスタリングし,その中の高頻度なものを核とする表現」と定義する.これをもとに,談話標識を手かがりとして「蓋然的関係を持ち,前件・後件が共に基本イベントである節の組」を自動抽出する.これを\textbf{蓋然的基本イベントペア}と呼ぶ.例えば,蓋然的基本イベントペアは次のようなものである.\ex.\a.お腹が空いたので,ご飯を食べる\b.ご飯を食べたら,すごく眠い\c.眠いので,コーヒーを飲む\d.激しい運動をすると,汗をかくある蓋然的基本イベントペアの前件を文脈,後件を正解選択肢とし,その他のイベントペアの後件を誤り選択肢とすることで,図\ref{figure:example}のような常識推論問題を自動生成することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-4ia4f1.pdf}\end{center}\caption{常識推論問題の作問例.$\checkmark$印は正解選択肢である.}\label{figure:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法はテキストからの自動抽出をベースとするため,拡張性があり,ドメインを限定しない.クラウドソーシングについても,確認(フィルタリング)を行うだけなので,低コストかつAnnotationArtifactsの問題もない.また,人手で構築された言語資源やクラウドソーシングに強く依存せず,談話標識は様々な言語に普遍的に存在するため,他言語にも比較的適用しやすいと考えられる.本研究では,まず,日本語7億文を含むウェブコーパスに提案手法を適用し,常識推論問題10万問から成るデータセットを構築する.計算機による解答実験を行い,様々なタスクで高い性能を達成している汎用言語モデルでも人間との間に性能の開きがあることを示す.次に,この性能の開きを改善するため,提案手法の拡張性の高さを利用したデータ拡張による常識推論能力の改善に取り組む.具体的には,クラウドソーシングによる確認を省略することで常識推論問題を模した疑似問題を大規模に自動生成し,これを訓練時に組み込むという手法を検証する.最後に,蓋然的関係に関する知識の転移可能性を検証するため,常識推論問題および擬似問題からの転移学習による関連タスクへの効果を定量的に評価する.これらの実験の結果,常識推論問題および擬似問題を通して蓋然的関係を広範に学習することで常識推論タスクおよび関連タスクにおいて一定の効果があることを示す\footnote{構築した常識推論データセットおよび疑似問題は\url{https://nlp.ist.i.kyoto-u.ac.jp/?KUCI}にて公開している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
\label{section:related_work}常識に焦点を当てた言語資源はこれまでに様々なものが構築されており,それらはデータセットと知識ベースの2つに大別される.本研究で構築する常識推論データセットは前者に分類され,後者の常識知識ベースはConceptNet\cite{Speer_et_al_2017}やATOMIC\cite{Sap_et_al_2019_ATOMIC,Hwang_et_al_2021}などがある.本節では,常識推論に関するデータセット並びに常識推論能力の改善に向けたアプローチについて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{常識推論データセット}\label{subsection:commonsense_inference_datasets}常識推論能力の訓練・評価に向けたデータセットは主に英語で盛んに構築されており,SWAGやCommonsenseQAなどがある.これらのデータセットについて説明する.SWAG(SituationsWithAdversarialGenerations)\cite{Zellers_et_al_2018}は,与えられた文脈に続く最も適切な動詞句を問う多肢選択式問題11万問から成る常識推論データセットである.常識としての知識の一般性を保証するために動画キャプションをベースに問題を作成しており,ドメインは視覚で捉えられる日常的な出来事に限定される.各問題は,動画キャプションから連続する2文を抽出し,その1文目から2文目の主語までを文脈,残りの部分を正解選択肢としている.誤り選択肢文の候補は言語モデルから生成し,分類モデルが簡単に誤りだと見分けられるものを除去することで,より紛らわしい誤り選択肢文を獲得している.しかし,SWAGはBERTによって人間に匹敵する精度で解かれている.これは,言語モデルが生成した誤り選択肢文にバイアスが含まれており,BERTがこれを検知するような学習をしたためだと考えられている\cite{Zellers_et_al_2019}.これを受けてZellersらは,より高性能な言語モデルを使用してBERTがバイアスを検知できないデータセット(HellaSwag)を構築した\cite{Zellers_et_al_2019}.しかし,HellaSwagも同様の問題が指摘されており\cite{Tamborrino_et_al_2020},バイアス問題の本質的な解決には至っていない.CommonsenseQA\cite{Talmor_et_al_2019}は,問題文の答えとして最も適切な語句を問う多肢選択式問題1.2万問から成る常識推論データセットである.常識知識ベースであるConceptNetから部分グラフを抽出し,それをもとにクラウドソーシングで作問する.部分グラフは1つのソースコンセプトと,それと同じ関係で結ばれる3つのターゲットコンセプトから成る.クラウドワーカーは,ソースコンセプトを含み,ターゲットコンセプトの内1つだけが答えとなるような問題文を各ターゲットコンセプトに対して作成する.さらに,作成した問題に対してクラウドソーシングで誤り選択肢を2つ追加することで5択問題を作る.この手法はConceptNetをベースとするため,拡張性の問題がある.また,AnnotationArtifacts\cite{Gururangan_et_al_2018}が潜在的に含まれる可能性がある.これらの他にも,日常的な出来事の間の因果関係を問うCOPA(ChoiceOfPlausibleAlternatives)\cite{Roemmele_et_al_2011},社会常識を問うSocialIQA(SocialIntelligenceQA)\cite{Sap_et_al_2019_Social_IQA},手続き的な知識を問うPIQA(PhysicalInteraction:QuestionAnswering)\cite{Bisk_et_al_2020}など,ある種の常識に焦点を当てたデータセットが多数構築されている.また,常識推論能力を直接問うものではないが,解答に常識が必要となるデータセットとして,WinogradSchemaChallenge(WSC)\cite{Levesque_2011}およびWSC形式の問題をクラウドソーシングで大規模に作成して構築されたWinoGrande\cite{Sakaguchi_et_al_2020}がある.いずれも既存の言語資源や人手(専門家・クラウドソーシング)による作問をベースとしており,前述の問題が考えられる.上記のデータセットの多くはタスクが2択から5択までの多肢選択式であるが,生成タスクとして評価する取り組みも存在し\cite{Lin_et_al_2020,Enomoto_and_Shimada_2022,Suzuki_and_Shinnou_22},代表的なデータセットとしてCommonGenがある.CommonGenは,画像キャプション,ConceptNet,クラウドソーシングを利用して作成された制約付きの文生成問題3.5万問から成る.具体的には,物体もしくは動作を表す複数の単語が与えられ,それらの単語を全て用いて日常的な場面を記述した文を生成するというタスクである.例えば,``dog'',``frisbee'',``catch'',``throw''の4単語から``Adogleapstocatchathrownfrisbee.''といった文を生成することが正解となる.生成タスクはより直接的に計算機の推論能力を見ることができる一方で,確立された自動評価指標がなく,性能を比較しづらいという問題がある.また,自動評価の信頼性を上げるために,各問題で複数の解答例を用意することはしばしば現実的でない.多肢選択式は出力の候補が制限されるものの,解答精度をもとに性能を客観的に比較しやすいことは利点であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{常識推論能力の改善に向けたアプローチ}常識推論能力の改善に向けたアプローチとして自動生成した訓練データを活用するものがあり,擬似問題を自動生成する我々のアプローチもこれに該当する.例えば,\citeA{Ye_et_al_2019}は,WikipediaとConceptNetから自動生成した1,600万問規模の多肢選択式穴埋め問題に対して追加の事前学習を行った.ConceptNetを必要とするものの,語句レベルの常識推論タスク(CommonsenseQAおよびWSC)における解答精度の向上が報告されている.\citeA{Staliunaite_et_al_2021}は,ウェブテキストから談話標識を手がかりに因果関係を持つ節の組を抽出し,負例を言語モデルから生成することで,COPAおよびBalancedCOPA\cite{Kavumba_et_al_2019}に対するデータ拡張を行った.日常的な因果関係を推論する能力の改善に焦点を当てており,関連タスクへの効果は検証していない.その他のアプローチとして,常識推論に向けた既存の言語資源から知識を転移するものがある.例えば,前述のSocialIQAおよびWinoGrandeを中間タスクとして解くことで,COPAおよびWSCに対する解答精度の向上が報告されている\cite{Sap_et_al_2019_Social_IQA,Sakaguchi_et_al_2020}.また,CosmosQA\cite{Huang_et_al_2019}やHellaSwag\cite{Zellers_et_al_2019}といった複雑な常識推論を要するデータセットは転移元のタスクとして効果的であることが,\citeA{Pruksachatkun_et_al_2020}によって実験的に示されている.\citeA{Lourie_et_al_2021}は,マルチタスク学習によって常識推論に関する言語資源間の相互作用を検証し,複数の常識推論データセットを学習する効果を示した.本研究では,基本的な蓋然的関係を推論する能力に焦点を当て,これに関する知識の転移可能性を日本語で検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{提案手法}
\label{section:proposed_method}常識推論問題は図\ref{figure:example}に示すように文脈と4つの選択肢から成り,文脈の後に続く文として最も適切なものを選ぶタスクである.人間はこのような基本的な蓋然的関係の推論を文章読解や対話といった日常の様々な場面で行っており,自然言語理解において重要な推論能力を問う.これらの問題は常識としての知識の一般性を担保するために,基本イベントから成り,クラウドソーシングによる確認を経たイベントペアから生成する.また,テキストからの自動抽出をベースとすることで拡張性を担保する.これらを踏まえ,次の手順で常識推論問題を作成する(図\ref{figure:proposed_method}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig.2\begin{figure}[t]\begin{center}\includegraphics{30-4ia4f2.pdf}\end{center}\caption{提案手法の概要図.}\label{figure:proposed_method}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item格フレームから高頻度な述語項構造を「基本イベントの核となる表現(\textbf{コアイベント}と呼ぶ)」として獲得する.\itemテキストに係り受け解析・談話関係解析を適用し,「蓋然的関係を表す談話標識で接続され,かつコアイベントから成るイベントの組」を自動抽出する.\item抽出されたイベントペアが実際に蓋然的関係があるか否かをクラウドソーシングで確認し,蓋然的基本イベントペアを得る.\itemある蓋然的基本イベントペアの前件を文脈,後件を正解選択肢とし,これと中程度に類似するその他のイベントペアの後件を誤り選択肢とすることで,常識推論問題を自動生成する.\end{enumerate}\noindent以降,各ステップの詳細について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コアイベントの獲得}\label{subsection:acquire_core_events}本研究における基本イベントは「テキストから抽出した述語項構造をクラスタリングし,その中の高頻度なもの(コアイベント)を核とする表現」と定義する.述語項構造をクラスタリングした既存の言語資源として格フレーム\cite{Kawahara_and_Kurohashi_2006,Kawahara_et_al_2014}があり,本研究ではこれを利用する.格フレームデータにおいては,各述語が用法ごとに格フレームを持つ.各格フレームは複数の格を持ち,各格は格要素となりうる名詞群からなる.日本語格フレームの例を表\ref{table:case_frame}左に示す.本研究では,格フレームから高頻度な述語項構造を抽出し,それらをコアイベントとする.まず,格フレームデータから,能動態の述語を対象に頻度上位$\alpha$件の述語を取得する.取得した各述語に対して,格フレーム,格,格要素をそれぞれ頻度順に見た時に,頻度の累積和がその項目全体の$\beta$\%,$\gamma$\%,$\delta$\%を超えるまで取得する.例えば,格フレームはその述語の頻度の$\beta$\%をカバーするまで取得する.上記の閾値は対象言語に応じて経験的に決定する.日本語格フレームから獲得したコアイベントの例を表\ref{table:case_frame}右に示す.例えば,表\ref{table:case_frame}左において,述語「壊す」の1番目の格フレームは「お腹」もしくは「体」をヲ格の項に取るものが用例の過半数を占めており,$\delta$を50に設定すると「お腹を壊す」と「体を壊す」がコアイベントとして獲得される.日本語におけるパラメータ$\alpha$,$\beta$,$\gamma$,$\delta$の詳細な値は\ref{section:build_dataset}節で述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.1\begin{table}[t]\input{04table01.tex}%\hangcaption{述語「壊す」の格フレーム(左表)と抽出されるコアイベントの例(右表).表中の数値は,格もしくは格要素の頻度を表す.}\label{table:case_frame}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{蓋然的基本イベントペアの自動抽出}\label{subsection:extract_event_pairs}まず,テキストに係り受け解析と談話関係解析を適用し,蓋然的関係を表す談話標識で接続されるイベントペアを抽出する.イベントは単一の事態を表す単位であり,修飾要素を含む述語項構造に相当する\cite{Saito_et_al_2018}.また,蓋然的関係は「原因・理由」または「条件」の談話関係とし,これはPennDiscourseTreebank\cite{Prasad_et_al_2008,Prasad_et_al_2019}における談話関係``CONTINGENCY:Cause''または``CONTINGENCY:Condition''に相当する.続いて,解析結果から信頼性の高い部分を選択し,常識的な内容を表すイベントペアに絞るため,以下の2つの条件を共に満たすイベントペアを選択する.本研究では,原因・理由などを表す1つ目のイベントを「前件」,結果などを表す2つ目のイベントを「後件」と呼ぶ.\begin{description}\item[Reliable]前件が後件に曖昧性なく係る.\begin{itemize}\item1文中にイベントが2つしかない場合,係り受けの曖昧性は無い.\item1文中にイベントが3つ以上ある場合,対象言語に合わせた基準を設け,それに従って係り受けの曖昧性が無い部分を抽出する.日本語における基準は\ref{subsection:extract_japanese_event_pairs}節で述べる.\end{itemize}\item[Basic]前件および後件が共に基本イベントである.\begin{itemize}\item基本的には前件・後件がコアイベントを包含するか否かを調べるが,後件の項は代名詞化もしくは省略される可能性が高いため,後件が明示された項をもたない場合は前件から項を補完してコアイベントの包含関係を調べる.例えば,イベントペア「台風でガラスが割れる$\to$取り替える」の場合,後件「取り替える」に対して,前件に含まれる項「台風」もしくは「ガラス」を取るコアイベントの有無を調べる.日本語格フレームからはコアイベント「ガラスを取り替える」が獲得されるため,このペアはBasic条件を満たすことになる.\end{itemize}\end{description}最後に,次のステップのクラウドソーシングによる確認に向けて,次の後処理を行う.\begin{itemize}\item事態性の弱いもの,ウェブ特有の定型表現を含むものを除くため,抽出されたイベントペアに含まれるコアイベントの頻度を数え,高頻度のコアイベント\footnote{「問題が無い」や「情報が満載」などが例として挙げられる.}を含むイベントペアを除く.\item指示代名詞・未知語を含むイベントペアを除く.\item同じ述語項構造の組から成るイベントペアは1つを残して重複を除く.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングによる確認}\label{subsection:verify_by_crowdsourcing}自動抽出された蓋然的基本イベントペアから,クラウドソーシングを利用して蓋然的関係があるものを選択する.クラウドワーカーは,各イベントペアに対して次の2択から評価を選択する.\begin{enumerate}\itemAはBの原因・理由である\itemその他の関係,もしくは関係がない\end{enumerate}ここでは前件をA,後件をBと表現する.AとBを接続した文の自然さではなく,AとBの間の蓋然的関係を評価してもらうために,談話標識は省略して提示する.各イベントペアを複数人のクラウドワーカーが評価し,過半数以上が「AはBの原因・理由である」と評価したイベントペアを蓋然的基本イベントペアとして採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{常識推論問題の自動生成}\label{subsection:generate_problems}蓋然的基本イベントペアから常識推論問題を自動生成する.各問題は,蓋然的基本イベントペアを1つ選び(\textbf{ベース}と呼ぶ),その前件を文脈,後件を正解選択肢とする.誤り選択肢は,ベースと中程度に類似する\footnote{正解選択肢と誤り選択肢が酷似していると生成される問題が解答不能になってしまう一方で,類似度が低いと計算機に容易に誤りだと識別されてしまうため,中程度に類似するものを選択する.}その他のイベントペアの後件から自動的に選択する.正解選択肢と中程度に類似する誤り選択肢を獲得するため,次の条件で選択を行う.\\\begin{description}\item[ChoiceSimilarity]後件と正解選択肢の間の類似度が\choiceの範囲にある.\begin{itemize}\item後件と正解選択肢の間の類似度は,文のベクトル表現間のコサイン類似度で測る.\item文のベクトル表現は,文に含まれる自立語の単語ベクトルの平均とする.\end{itemize}\item[ContextSimilarity]後件と組を成す前件と文脈の間の類似度が\contextの範囲にある.\begin{itemize}\item前件と文脈の類似度は条件\textbf{ChoiceSimilarity}と同様に計算する.\end{itemize}\end{description}\noindentまた,問題の体裁を整えるため,正解選択肢に対して単語数の比が\lengthの範囲にある後件に限定する\footnote{予備実験の結果,この単語数に基づく条件は計算機の解答精度に影響しないことを確認した.}.誤り選択肢の候補が3件以上得られた場合,無作為に3件選択することで問題を生成する.誤り選択肢の候補が3件以上得られなかった場合,問題を生成しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{日本語常識推論データセットの構築}
\label{section:build_dataset}\ref{section:proposed_method}節の手法に従って,日本語を対象に常識推論データセットを構築した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コアイベントの獲得}コアイベントは,日本語100億文を含むウェブコーパスから自動構築された京都大学格フレーム\footnote{\url{https://www.gsk.or.jp/catalog/gsk2018-b}}から獲得した.頻度に関する閾値$\alpha$,$\beta$,$\gamma$,$\delta$は,それぞれ5,000,75,50,50に設定した.この結果,28,642個の格フレームから約1,400万件のコアイベントを獲得した\footnote{格を2つ以上取るコアイベントについては各格要素の全ての組み合わせを計数しているため,件数が多く出ている.}.コアイベントの例は表\ref{table:case_frame}右に示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{蓋然的基本イベントペアの自動抽出}\label{subsection:extract_japanese_event_pairs}まず,日本語7.1億文を含むウェブコーパスから蓋然的関係を持つイベントペアを自動抽出した.2006年から2015年までクローリングして構築された内製のコーパスの一部を用いている.抽出には日本語解析器KNP\footnote{\url{https://github.com/ku-nlp/knp}}\cite{Kurohashi_and_Nagao_1994}とEventGraph\footnote{\url{https://github.com/ku-nlp/pyknp-eventgraph}}\cite{Saito_et_al_2018}を用いた.KNPは係り受け解析と談話標識に基づく節間の明示的な談話関係の解析を行うツールであり,EventGraphはKNPの解析結果をイベント単位に整形するツールである.KNPおよびEventGraphをテキストに適用した結果,約8,500万組の蓋然的関係を持つイベントペアを自動抽出した.次に,係り受けの曖昧性がない基本イベントペアに絞るため,\textbf{Reliable}条件と\textbf{Basic}条件を満たすイベントペアを選択した.日本語における\textbf{Reliable}条件は「文中の末尾2節である」と設定した.これは,日本語では基本的に語が左から右に係るため,末尾2節の間に係り受けの曖昧性がないためである.最後に後処理を行い,164,910組の蓋然的基本イベントペアを抽出した.表\ref{table:stats_of_extraction}に詳細な統計を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.2\begin{table}[t]\input{04table02.tex}%\hangcaption{イベントペアの抽出に関する統計.例えば,項目``+Reliable''の数値は\textbf{Reliable}条件を満たす蓋然的イベントペアの数を表す.}\label{table:stats_of_extraction}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Basic条件の予備調査}\textbf{Basic}条件による効果を調査するため,表\ref{table:stats_of_extraction}の``+Reliable''および``+Reliable+Basic''に相当するイベントペア集合から無作為に100組ずつ抽出し,常識的な内容を表すか否かを著者らが人手で評価した.便宜上,抽出されたイベントペアをそれぞれ``R''および``RB''と表現する.人手評価の結果,``R''は47組,``RB''は76組が常識的であると評価された.``R''に含まれるイベントペアで,\textbf{Basic}条件によって除かれるものを次に例示する.\ex.魔力カウンターの乗っていない「魔法都市エンディミオン」に対してサイクロンを発動すると,$\to$破壊できる\ex.すると,$\to$泣きやすい\textbf{Basic}条件によって,限定的なドメインでのみ用いられる表現や必須補語が欠けた表現を含むイベントペアが除かれている.この点で,\textbf{Basic}条件は常識的な内容を表すイベントペアを抽出するのに効果的であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングによる確認}\label{subsection:actually_verify_by_crowdsourcing}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig.3\begin{figure}[t]\begin{center}\includegraphics{30-4ia4f3.pdf}\end{center}\caption{イベントペアの蓋然的関係を評価するクラウドソーシングのタスク画面のスクリーンショット.}\label{figure:crowdsourcing_verification}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%自動抽出された蓋然的基本イベントペアから,クラウドソーシングを利用して蓋然的関係があるものを選択した.クラウドソーシングサービスはYahoo!クラウドソーシング\footnote{\url{https://crowdsourcing.yahoo.co.jp/}}を利用した.クラウドワーカーは1タスクあたり17組のイベントペアが提示され,それぞれ\ref{subsection:verify_by_crowdsourcing}節で述べた2択から評価を選択する(図\ref{figure:crowdsourcing_verification}).17組の内2組は注意力を測るためのダミーの設問であり,このイベントペアの評価を間違えたクラウドワーカーの回答は除外される.イベントペア1組あたり4人のクラウドワーカーが評価し,過半数以上が「AはBの原因・理由である」と評価したものを蓋然的基本イベントペアとして採用した.クラウドソーシングの結果,164,910組から104,266組の蓋然的基本イベントペアを獲得した.クラウドソーシングによって約1/3のイベントペアが除かれているが,これは\textbf{Basic}条件の予備実験結果に沿っている.クラウドソーシングにかかった費用は合計48.4万円であり,1問あたりの作問コストに換算すると4.7円であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{常識推論問題の自動生成}最後に,蓋然的基本イベントペアから常識推論問題を生成した.条件\textbf{Choice-Similarity}における類似度の範囲\choiceは(0.4,0.6),条件\textbf{Context-Similarity}における類似度の範囲\contextは(0.5,0.7)とした.条件\textbf{Context-Similarity}は条件\textbf{Choice-Similarity}と比べて正解選択肢との類似度の調整が間接的であるため,\contextを\choiceより高く設定している.選択肢をベクトル表現に変換する際は,日本語ウェブコーパスから学習したword2vecモデル\footnote{\url{https://code.google.com/archive/p/word2vec/}}を用いた.また,自立語は形態素解析器Juman++\cite{Morita_et_al_2015,Tolmachev_et_al_2018}の辞書に含まれる動詞,形容詞,名詞とした.これらのパラメータによって得られる誤り選択肢の候補数の平均値は3,459,中央値は1,355であった.この結果,蓋然的基本イベントペア104,266組から常識推論問題を103,907問生成した.作問結果の例は,図\ref{figure:prediction}および図\ref{figure:improved}に計算機による解答結果と共に示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{人間の解答精度の調査}人間の解答精度を調査するため,生成した常識推論問題から無作為にサンプリングし,クラウドソーシングを利用して解答を収集した.具体的には,500問から成る問題セットを3セット用意し,各セットに対して異なる時間帯にクラウドソーシングを行うことで,多様なクラウドワーカーの解答を収集した.また,各問題に対して5人のクラウドワーカーから解答を収集した.この結果,クラウドワーカーの平均正解率は83.8\%,多数決で集約した解答の正解率は88.9\%であった.以降,多数決で集約した解答の正解率を人間の性能とみなす.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{常識推論データセットの構築}\label{subsection:build_dataset}計算機による解答実験に向けて,生成した問題を$8:1:1$に分割し,それぞれ訓練データ,開発データ,テストデータとした.リークを抑えるため,訓練データの各問題のベースに含まれるコアイベントの組とテスト(開発)データの各問題のベースに含まれるコアイベントの組の間に重複がないように分割を行った\footnote{例えば,図\ref{figure:example}の問題のベースは「お腹が空いたので,ご飯を食べる」であり,「お腹が空く$\to$ご飯を食べる」というコアイベントの組を含む.この問題が訓練データに含まれる場合,「お腹が空いたから,駅でご飯を食べる」のような同じコアイベントの組を含むイベントペアをベースとする問題はテスト(開発)データに含まれないことを表す.}.構築した常識推論データセットの統計を表\ref{table:stats_of_dataset}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.3\begin{table}[b]\input{04table03.tex}%\caption{構築した常識推論データセットの統計.表中の数値は問題数を表す.}\label{table:stats_of_dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{既存の常識推論データセットとの比較}既存の常識推論データセットにあまり含まれていない知識が構築したデータセットに含まれていることを確認する.本研究では,比較対象としてSWAG\cite{Zellers_et_al_2018}およびSocialIQA\cite{Sap_et_al_2019_Social_IQA}を選択した.いずれも同規模かつ句間・節間の蓋然的関係を対象とし,構築したデータセットとの関連性が高いと考えられるためである.\ref{subsection:commonsense_inference_datasets}節で述べたとおり,SWAGは動画キャプションをベースとするため,手続き的な知識が主な対象であり,文脈から誘発される状態や感情などの知識\footnote{「友達と遊ぶ$\to$とても楽しい」などが例として挙げられる.}はあまり含まれていないことが推測される.これを確認するために,全訓練事例のうち正解選択肢に形容詞句を含む事例の割合を調査した\footnote{英語の句構造解析にはStanza\cite{Qi_et_al_2020}を使用した.}.この結果,SWAGが1.1\%,構築したデータセットが15.7\%であった.SocialIQAは与えられた文脈と質問文に対する答えを3択から選ぶ問題3.8万問から成るデータセットである.ATOMIC\cite{Sap_et_al_2019_ATOMIC}をベースとするため,イベントとそれに関する精神状態(意図,感情など)の間の関係知識も対象としている.一方で,ATOMICは基本形のイベント間の関係知識が大半を占めるため,否定条件の知識\footnote{「すごく眠い$\to$やる気が出ない」などが例として挙げられる.}に乏しいことが推測される.これを確認するために,全訓練事例のうち正解選択肢に否定表現を含む事例の割合を調査した.この結果,SocialIQAは1.6\%\footnote{質問文に否定表現を含む事例の割合は0.0\%であった.},構築したデータセットは11.3\%であった.以上の結果から,構築したデータセットは句の品詞や否定のモダリティを限定しない点でより広範な知識を含んでいると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{疑似問題の自動生成}
\label{section:generate_pseudo_problems}提案手法において,ステップ3のクラウドソーシングを省略することで疑似問題の自動生成が可能となる(図\ref{figure:proposed_method}赤点線).本研究では,これを利用して擬似問題を大規模に自動生成し,このデータ拡張による常識推論タスクおよび関連タスクへの効果を検証した.コアイベント獲得時の頻度に関する閾値や誤り選択肢の抽出条件など,手法のパラメータは常識推論データセットの構築時(\ref{section:build_dataset}節)と同じ値に設定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似問題の生成元となる蓋然的基本イベントペアの自動抽出}\ref{section:proposed_method}節の手法に従って,疑似問題の生成元となる蓋然的基本イベントペアの自動抽出を行った.抽出元のテキストには日本語33億文から成るウェブコーパスを利用した.\ref{subsection:extract_japanese_event_pairs}節と同じ内製のコーパスの一部を用いているが,常識推論データセットの構築時に用いた部分との重複はない.この結果,83.2万組の蓋然的基本イベントペアが自動抽出された.クラウドソーシングによる確認で約1/3のイベントペアが除かれたことを考慮すると,約50万組のイベントペアは有効であることが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{リークへの対処}\label{subsection:deal_with_leakage}提案手法に従って大規模テキストから疑似問題を生成する際の懸念として,DataContaminationの問題がある\cite{Brown_et_al_2020}.テキスト中に評価データと同じもしくは酷似した文が含まれているために意図せず教師信号を学習し,性能が過大評価されてしまうというものである.本研究では,常識推論データセットのテスト(開発)データに含まれる各問題のベースと酷似するイベントペアをヒューリスティックにもとづいて事前に除去することで,この問題に対処する.具体的には,単語の並びおよびコアイベントの組にもとづくフィルタリングを適用する.\begin{description}\item[単語の並びにもとづくフィルタリング]ベースと重複する単語の並びの長さが,ベースの単語数の75\%を超えるものを除く.\item[コアイベントの組にもとづくフィルタリング]ベースに含まれるコアイベントの組と同じコアイベントの組を含むイベントペアを除く.\end{description}例えば,図\ref{figure:example}の問題のベースは「お腹が空いたので$\to$ご飯を食べる」であり,「お腹が空く$\to$ご飯を食べる」というコアイベントの組を含む.これに対し,イベントペア「お腹が空いたから$\to$友達とご飯を食べる」が上記のフィルタリングによって除かれるか否かを考える.これらのイベントペアの間で\{お腹,が,空いた,ご飯,を,食べる\}という6単語の並びが重複し,この長さはベースの単語数(7)の75\%を超える.また,同じコアイベントの組を含むため,両方のフィルタリングによって除かれる.1点目のフィルタリングは構文的に似ているイベントペアを,2点目は内容が似ているイベントペアを除く目的で適用する.上記のフィルタリングを適用した結果,77.4万組の蓋然的基本イベントペアが獲得された.これらのイベントペアから疑似問題を自動生成した結果,77.2万問が生成された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{疑似問題の品質の予備調査}疑似問題の品質を調査するため,生成された疑似問題から100問を無作為にサンプリングし,解答可能であるか否かを著者らが人手で評価した.この結果,100問中71問が解答可能であると判断された.自動生成データであることを考慮すると妥当な品質であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{計算機による解答実験}
\label{section:experiment}まず,構築した常識推論データセットに対する計算機の性能を検証するため,計算機による解答実験を行った.また,疑似問題による常識推論タスクへの効果を検証した.便宜上,常識推論データセットの訓練データを常識推論問題と呼び,疑似問題と区別する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}\label{subsection:model}本研究では,BERTモデル\cite{Devlin_et_al_2019}およびXLM-RoBERTa(XLM-R)モデル\cite{Conneau_et_al_2020}の性能を検証した.いずれもTransformer\cite{Vaswani_et_al_2017}をベースとした深層学習モデルである.BERTの事前学習モデルは,日本語Wikipediaで事前学習したNICTBERT日本語Pre-trainedモデル(BPEあり)\footnote{\url{https://alaginrc.nict.go.jp/nict-bert/index.html}}を用いた.モデルのアーキテクチャはBERT$_{\text{BASE}}$と同等であり,RoBERTa\cite{Liu_et_al_2019}の訓練設定を一部参照しているために比較的性能が高いことが報告されている.XLM-Rの事前学習モデルは,WikipediaおよびCC-100\cite{Wenzek_et_al_2020}から成る大規模多言語コーパスで事前学習したXLM-RoBERTa$_{\text{LARGE}}$モデル\footnote{\url{https://huggingface.co/xlm-roberta-large}}を用いた.モデルのアーキテクチャはBERT$_{\text{LARGE}}$と同等であるが,多言語モデルであるために単語埋め込み層の次元数が比較的大きい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{subsection:experimental_settings}常識推論問題および疑似問題でfine-tuningする際は,ソフトマックス関数で正規化した各選択肢のスコアと,正解を1とするone-hotベクトルとの間の交差エントロピー誤差を最小化するように訓練する.各選択肢のスコアは,文脈と選択肢のペアを特殊トークンで区切って入力し,先頭の特殊トークン([CLS])の隠れ状態をスカラーに線形変換することで算出する.擬似問題を訓練に組み込む際は,目的関数Lを常識推論問題の交差エントロピー誤差と擬似問題の交差エントロピー誤差の重み付き和で定義する.上記は次の式で表される.\begin{align}H&=-\frac{1}{N}\sum_{k}\log\frac{\exp(\textbf{s}_{kj})}{\sum_{i=1}^{4}\exp(\textbf{s}_{ki})}\\L&=H_{常識推論問題}+\lambda\timesH_{疑似問題}\end{align}$N$は訓練事例数,${j}\in\{1,2,3,4\}$は正解選択肢のインデックス,$\textbf{s}_{ki}$は$k$番目の訓練データの$i$番目の選択肢のスコア,$\lambda$は常識推論問題に対する疑似問題の重みを表す.ハイパーパラメータの詳細は付録\ref{appendix:hyper_parameters}に示している.推論時は最もスコアの高い選択肢を計算機による解答とみなす.モデルの性能はその正解率で評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{比較手法}多肢選択式という形式の効果を検証するため,Task-AdaptivePre-Training\cite{Gururangan_et_al_2020}を参考にした事前学習手法と比較した.具体的には,疑似問題の生成元となった88万組のイベントペアに対して追加のMaskedLanguageModeling(MLM)タスクを実行し,その後目的のデータセットでfine-tuningした時のモデルの性能を調査した.便宜上,これを``AMLM''と表記する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}計算機による解答実験の結果を表\ref{table:KUCI}に示す\footnote{本実験後に公開された日本語RoBERTalargeモデル(\url{https://huggingface.co/nlp-waseda/roberta-large-japanese})の性能を予備実験で検証した結果,「常識推論問題」および「常識推論問題+疑似問題$(\lambda=0.5)$」の設定における正解率はそれぞれ$90.0±0.1$および$90.5±0.5$であった.関連タスクにおいては転移学習なしで人間と同等の性能に達しているものもあり,転移学習の効果の議論が難しいと判断して本論文では省略する.}.常識推論問題だけでは人間の解答精度との間に開きがあり,疑似問題によってBERTは5.4ポイント,XLM-Rは2.8ポイントの改善が見られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.4\begin{table}[p]\input{04table04.tex}%\hangcaption{構築した常識推論データセットのテストデータに対する正解率.表中の数値は異なる3つのシード値でfine-tuningした結果の平均と標準偏差である.また,矢印($\to$)は多段階のfine-tuningであることを表す.例えば,``$\text{AMLM}\to\text{常識推論問題}$''は疑似問題の生成元となった88万組のイベントペアに対して追加のMaskedLanguageModelingタスクを実行し,その後,常識推論問題でfine-tuningすることを表す.}\label{table:KUCI}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig.4\begin{figure}[p]\begin{center}\includegraphics{30-4ia4f4.pdf}\end{center}\hangcaption{構築した常識推論データセットの開発データに対するモデルの学習曲線.XLM-Rは訓練事例数が少ない時($N\in\{10^{3},3×10^{3}\}$)に学習が進まなかったため,それらの結果については省略した上で学習曲線を算出している.}\label{figure:learning_curve}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{figure:learning_curve}は開発データに対するモデルの学習曲線を表す.図中の×印は疑似問題を加えてfine-tuningした際の正解率を表すが,最小二乗法で外挿された学習曲線の下に位置している.疑似問題は性能の向上に寄与する一方で,常識推論問題に対する疑似問題の品質の差やモデルの解答精度が飽和していることが見て取れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定性的分析}計算機の解答結果について定性的分析を行った.図\ref{figure:prediction}にBERTの正答例と誤答例を示す.誤答例について顕著な傾向は見られなかったが,文脈と選択肢の間に自立語の重複がある場合にスコアを高く出力する傾向が見られた.また,図\ref{figure:improved}に疑似問題によってBERTが正答するようになった問題例を示す.これらの基本的な蓋然的関係を問う問題に正答するようになったほか,全ての選択肢に低いスコアを付けて消去法的に誤り選択肢を選んでいた問題に対する改善も見られた.疑似問題によって常識推論問題のカバレッジ不足が補われ,予測の確信度が向上したと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig.5\begin{figure}[b]\begin{center}\includegraphics{30-4ia4f5.pdf}\end{center}\hangcaption{BERTの正答例と誤答例.$\checkmark$印は正解選択肢であり,$\times$印はBERTの誤答選択肢である.また,文末の数字はBERTが出力したスコア($\in[-15,15]$)を表す.}\label{figure:prediction}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig.6\begin{figure}[b]\begin{center}\includegraphics{30-4ia4f6.pdf}\end{center}\hangcaption{疑似問題によってBERTが正答するようになった問題例.$\checkmark$印は正解選択肢であり,$\times$印は訓練時に疑似問題を使用しなかった際の誤答選択肢である.}\label{figure:improved}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{選択肢のバイアスの検証}意図しないバイアスがデータセットに含まれているために,問題文の一部を与えるだけで問題が解けてしまうという報告がある\cite{Gururangan_et_al_2018,Zellers_et_al_2019,Tamborrino_et_al_2020}.本研究では,文脈を省略し,選択肢のみを入力として与えて訓練・評価した時の正解率を測ることで,生成した常識推論問題に含まれるバイアスの有無を検証した.検証にあたり,モデルおよびハイパーパラメータは\ref{subsection:model}節および付録\ref{appendix:hyper_parameters}と同じものを用いた.文脈を省略し,選択肢のみを入力として与えた時の計算機の正解率は,BERTが42.6\%,XLM-Rが41.3\%であった.文脈を省略しない場合と比較して十分低い精度であり,選択肢のバイアスが小さいことを示している.一方で,チャンスレート(25\%)と比較すると開きがあり,この原因を検証するために誤り選択肢の分布を調査した.図\ref{figure:distribution_of_distractors}は各蓋然的基本イベントペアの後件が誤り選択肢として使い回される頻度を計数した結果を表すが,誤り選択肢の頻度に差があることが分かる.そこで,後件が誤り選択肢として5回以上使い回されないように問題を生成し,そこから\ref{subsection:build_dataset}節に従って構築したデータセットに対して計算機の正解率を同様に検証した.この結果,BERTの正解率が33.5\%,XLM-Rの正解率が33.2\%であった.以上の結果から,誤り選択肢として使い回される頻度が高いために誤りだと識別しやすいものが存在し,これによって解答精度がチャンスレートより高くなっていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig.7\begin{figure}[t]\begin{center}\includegraphics{30-4ia4f7.pdf}\end{center}\caption{構築した常識推論データセットにおける誤り選択肢の頻度の計数結果.}\label{figure:distribution_of_distractors}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングによるフィルタリングの検証}\ref{subsection:actually_verify_by_crowdsourcing}節で述べたとおり,本研究ではデータセット構築時にクラウドソーシングによるフィルタリングの閾値を4人中2人以上と設定している.これは,評価が割れたイベントペアもしばしば蓋然的関係があることを予備実験で確認し,再現率を重視したためである.この閾値によるデータセットへの影響を検証するために,閾値を3人以上および4人以上に設定して構築したデータセットに対する計算機の正解率を調査した.検証にあたり,モデルおよびハイパーパラメータは\ref{subsection:model}節および付録\ref{appendix:hyper_parameters}と同じものを用いた.閾値を変えて構築したデータセットの統計およびこれらのデータセットに対する計算機の正解率を表\ref{table:stats_and_results}に示す.閾値を厳しくすると,訓練事例数は減少するものの計算機の正答率は低下しないことが見て取れる.この原因として,訓練データの質が向上すると同時に,評価データに含まれる悩ましい問題が減ることが挙げられる.また,評価データの規模が小さくなることで問われる知識のカバレッジが低下している可能性もある.問題の難易度や多様さをある程度保証する目的で閾値を2人以上に設定することは妥当であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.5\begin{table}[t]\input{04table05.tex}%\hangcaption{クラウドソーシングによるフィルタリングの閾値を変えて構築した常識推論データセットの統計(左表)とこれらのデータセットのテストデータに対する正解率(右表).左表中の数値は問題数,右表中の数値は異なる3つのシード値でfine-tuningした結果の平均と標準偏差である.}\label{table:stats_and_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{蓋然的関係に関する知識の転移学習}
\label{section:transfer_learning}蓋然的関係に関する知識の転移可能性を検証するため,常識推論問題および擬似問題からの転移学習による関連タスクへの効果を定量的に評価した.具体的には,常識推論問題および擬似問題でfine-tuningしたモデルの重みを初期値として関連タスクでさらにfine-tuningを行い,関連タスクにおける性能を評価した.本研究では,計算機と人間の間に性能の開きがあるタスクの中から蓋然的関係または常識推論との関連性を考慮して,関連タスクとして談話関係解析,日本語WinogradSchemaChallenge(JWSC)\cite{Shibata_et_al_2015},JCommonsenseQA(JCQA)\cite{Kurihara_et_al_2022}を選択した.モデルは\ref{subsection:model}節と同様で,ハイパーパラメータは付録\ref{appendix:hyper_parameters}に記載した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連タスク}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{談話関係解析}談話関係解析は節間の談話関係を分類するタスクである.本研究が対象とする蓋然的関係に加えて,「目的」や「譲歩」といった多様な談話関係の理解が要求される.\ref{subsection:extract_event_pairs},\ref{subsection:extract_japanese_event_pairs}節で述べたとおり,常識推論問題および擬似問題はKNPによって「原因・理由」または「条件」の談話関係があると自動解析されたイベントペアをベースとするため,転移学習によってこれらの談話関係を中心に解析精度の改善が期待される.談話関係解析に向けた日本語のデータセットとして,京都大学ウェブ文書リードコーパス(KWDLC)\cite{Kishimoto_et_al_2020}がある.KWDLCは多様なウェブ文書の冒頭3文を収集することで構築されており,その規模は6,445文書から成る.これらの文書には,クラウドソーシングを用いて節間に談話関係が注釈付けされている.また,これらの内500文書には専門家による注釈も付与されている.本研究では,クラウドワーカーによる注釈のみが付与された節ペア約3.7万組を訓練データに用い,専門家による注釈が付与された節ペア2,320組の分類精度を5分割交差検証で評価した.タスクは「談話関係なし」を含む談話関係の7値分類であり,モデルの性能は「談話関係なし」を除いたmicro-Fで評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{JWSC}WSCは文中の照応詞が指示する先行詞を2つの候補から選択するタスクである\cite{Levesque_2011}.タスクそのものは共参照解析であるが,解答に常識推論を要するように問題が設計されている.JWSC\footnote{\url{https://github.com/ku-nlp/Winograd-Schema-Challenge-Ja}}は\citeA{Rahman_and_Ng_2012}が作成したWSCを翻訳することで構築されている.問題例を次に示す.\ex.ライオンはシマウマを食べる。それ(ライオン/シマウマ)は捕食動物だからだ。この例をはじめとして,JWSCは蓋然的関係を間接的に問う問題が多数含まれる.このため,転移学習によってこのような問題に対する正解率の改善が期待される.\ref{subsection:extract_event_pairs}節の後処理によって問題の生成元となるイベントペアは指示代名詞を含まないため,常識推論問題および擬似問題を中間タスクとして学習すると照応詞に関する知識が忘却され,JWSCに対する性能が悪化する懸念がある.そこで,文中の照応詞を先行詞の候補の1つで置換することでタスクを2択問題に変換し,訓練データ2,644文とテストデータ1,128文から成るデータセットを生成した.開発データは用意されていないため,訓練データを8:2に分割することで5分割交差検証を行い,モデルの性能を正解率およびAreaUndertheROCCurve(AUC)で評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{JCQA}JCQAはCommonsenseQAの日本語版であり,基本的な語句に関する知識を問う5択問題約1.1万問から成る.問題はConceptNetから抽出した部分グラフをベースにクラウドソーシングを用いて人手で作成されている(\ref{subsection:commonsense_inference_datasets}節を参照).常識推論問題および擬似問題は基本イベントから成るため,これらを通して基本的な語句の共起関係を事前に学習することで,JCQAに対する正解率の改善が期待される.タスクは常識推論問題と同じ多肢選択式であるため,\ref{subsection:experimental_settings}節と同様にfine-tuningを行った.モデルの性能は正解率で評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}各関連タスクへの転移学習の実験結果およびAMLMとの比較について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.6\begin{table}[b]\input{04table06.tex}%\hangcaption{談話関係解析の実験結果.評価指標は「談話関係なし」を除いたmicro-Fで,表中の数値は異なる3つのシード値でfine-tuningした結果の平均と標準偏差である.また,表\ref{table:KUCI}と同様に矢印($\to$)は多段階のfine-tuningであることを表す.なお,AMLMはKWDLCの訓練データではなく擬似問題の生成元となった88万組のイベントペアに対して行っている(\ref{subsection:experimental_settings}節「比較手法」の段落を参照).人間の性能は,専門家とクラウドワーカーの両者による注釈が付与された文書に対して,専門家による注釈を正解,クラウドワーカーによる注釈を予測として算出されている.}\label{table:KWDLC}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.7\begin{table}[b]\input{04table07.tex}%\hangcaption{談話関係解析の談話関係ごとの性能.表中の左側の数字は対応する談話関係の真陽性の数を,右側の数字は真陽性の数と偽陽性の数の和を表す.}\label{table:KWDLC_details}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{談話関係解析}表\ref{table:KWDLC}に談話関係解析の実験結果を示す.常識推論問題および疑似問題を中間タスクとして解くことで,談話関係解析に有効であることが分かる.談話関係解析の談話関係ごとの性能を表\ref{table:KWDLC_details}に示す.常識推論問題および疑似問題から転移学習したモデルは「原因・理由」や「目的」の談話関係において改善が見られる.一方で,「条件」の談話関係においては改善が見られなかった.また,クラウドワーカーと比較すると,「譲歩」や低頻度の談話関係の適合率に改善の余地がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.8\begin{table}[b]\input{04table08.tex}%\hangcaption{JWSCのテストデータに対する実験結果.表中の数値は異なる3つのシード値でfine-tuningした結果の平均と標準偏差である.$^{\dagger}$はdegeneraterunが観測されたことを表す.参考のため,degeneraterunを除いた性能を丸括弧内に記載している.}\label{table:JWSC}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{JWSC}表\ref{table:JWSC}にJWSCのテストデータに対する実験結果を示す.``JWSC''の設定において,一部訓練時に学習が進まない現象(degeneraterun)\cite{Phang_et_al_2018,Pruksachatkun_et_al_2020}が観測された.この現象は訓練データが小規模である場合によく観測され,中間タスク転移学習によって軽減できることが報告されているが,本研究でも同様の結果が確認された.転移学習による効果については,特にBERTにおいて常識推論問題による性能の向上が見られるが,疑似問題の寄与は小さい.JWSCは蓋然的関係だけでなく「譲歩」の談話関係に関する問題\footnote{「ジェームズはロバートに頼みごとをした。しかし、彼(ジェームズ/ロバート)は断った。」が例として挙げられる.}も無視できない程度に含まれるため,蓋然的関係に関する知識を重点的に学習することはかえって性能を低下させてしまうと考えられる.多様な談話関係を学習することが改善案として挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{JCommonsenseQA}表\ref{table:JCQA}にJCQAの開発データに対する実験結果を示す.XLM-Rにおいて,転移学習による正解率の改善が見られる.JCQAはCC-100で事前学習したモデルの性能が良いことが報告されており\cite{Kurihara_et_al_2022},ウェブドメインに適応することが改善に繋がるとみなされている.このため,構築した問題とJCQAのドメインが合っており,基本イベントを通して基本的な語句の共起関係を学習する効果が表れたと考えられる.ただし,BERTにおける正解率の改善幅は小さいため,構築した問題はWikipediaのみで事前学習したモデル(BERT)をウェブドメインに適応させるには規模が小さく,CC-100で事前学習したモデル(XLM-R)の補助データとして効果的であると推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.9\begin{table}[t]\input{04table09.tex}%\hangcaption{JCQAの開発データに対する実験結果.表中の数値は異なる3つのシード値でfine-tuningした結果の平均と標準偏差である.参考のため,元論文で報告された性能を丸括弧内に記載している.}\label{table:JCQA}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{AMLM}疑似問題の生成元となった88万組のイベントペアに対して追加のMLMタスクを実行すると,常識推論タスクでは改善が見られるが,関連タスクへの転移学習は概して性能が悪化することが分かる\footnote{AMLMの後に目的の関連タスクのデータセットでfine-tuningする設定(例えば,``$\text{AMLM}\to\text{KWDLC}$''など)も試したが,AMLMの後に常識推論問題を中間タスクとして学習した場合と比較して,性能は概して良くないことを確認した.}.AMLMでは常識推論タスクにのみ有効(特化)した知識を学習していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
\label{section:conclusion}本研究では,基本イベントに基づく常識推論データセットの構築手法を提案した.各問題は基本的なイベント表現間の蓋然的関係を問う多肢選択式問題である.提案手法を7.1億文から成る日本語ウェブコーパスに適用し,常識推論問題10.4万問を含む常識推論データセットを構築した.構築したデータセットを用いて高性能な汎用言語モデルの性能を検証した結果,人間の性能との間に開きがあることを確認した.また,提案手法がテキストからの自動抽出をベースとしていることを利用して大規模な疑似問題を自動生成し,これを訓練時に組み込むことによる常識推論タスクおよび関連タスク(談話関係解析,JWSC,JCommonsenseQA)への効果を検証した.実験の結果,蓋然的関係を広範に学習することで,常識推論タスクおよび関連タスクにおいて一定の効果があることを確認した.これは,蓋然的関係を推論する能力が自然言語理解において重要であることを改めて示唆している.今後の課題として,データセットの高品質化・高難易度化が挙げられる.例えば,提案手法は蓋然的基本イベントペアから常識推論問題を自動生成するため,生成された問題の解答可能性を保証していない.また,クラウドソーシングによるフィルタリングを適用しても,ウェブテキストにありがちな質の悪い文を完全に除くことはできていない.このため,構築したデータセットには解答不能な問題や悪文を含む問題が存在する.これを解決するためには,クラウドソーシングなどの人手で問題を修正・選別することが必要であると考えられる.高難易度化については,選択肢をより紛らわしいものに修正するというアプローチに加えて,選択肢間の序列や推論の理由を問うといったタスクの発展も考えられる.この他にも,蓋然的関係だけでなく多様な談話関係を学習することによる自然言語理解タスクへの効果の検証や文章読解問題の作問支援といった人間の学習への応用なども検討したい.本研究の限界として,提案手法はreportingbias\cite{Gordon_and_Durme_2013},即ち当たり前のことはわざわざ書かないというテキストの性質のために,対象とする常識のカバレッジが不十分である可能性が無視できない.この問題に対しては,SWAGで用いられた動画キャプションのような意図的に書き起こされたテキストなどを取り入れることで軽減されると考えられる.%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は(公財)日本漢字能力検定協会の支援を受けた.また,第一著者は京都大学科学技術イノベーション創出フェローシップ(情報・AI分野)およびJSPS特別研究員奨励費~JP22J15958の支援を受けた.%%%%\bibliographystyle{jnlpbbl_1.5}\bibliographystyle{jnlpbbl_1.7}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{ハイパーパラメータ}
\label{appendix:hyper_parameters}表\ref{tab:hyper-params1},\ref{tab:hyper-params2},\ref{tab:hyper-params3},\ref{tab:hyper-params4},\ref{tab:hyper-params5}に実験で使用したハイパーパラメータの一覧を示す.XLM-Rは学習率を低く設定すると学習が安定したため,BERTの学習率より低く設定した.また,入力の最大系列長はいずれの実験も128に設定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.10\begin{table}[h]\input{04table10.tex}%\caption{常識推論問題および擬似問題のfine-tuning時に使用したハイパーパラメータ.}\label{tab:hyper-params1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.11\begin{table}[p]\input{04table11.tex}%\caption{KWDLCのfine-tuning時に使用したハイパーパラメータ.}\label{tab:hyper-params2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.12\begin{table}[p]\input{04table12.tex}%\hangcaption{JWSCのfine-tuning時に使用したハイパーパラメータ.学習を安定させるため,\protect\citeA{Mosbach_et_al_2021}を参考にエポック数を大きく設定している.}\label{tab:hyper-params3}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.13\begin{table}[p]\input{04table13.tex}%\caption{JCQAのfine-tuning時に使用したハイパーパラメータ.}\label{tab:hyper-params4}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Tab.14\begin{table}[t]\input{04table14.tex}%\hangcaption{AMLM実行時に使用したハイパーパラメータ.パラメータ値は\protect\citeA{Gururangan_et_al_2020}を参照した.}\label{tab:hyper-params5}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\newpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大村和正}{%2019年京都大学工学部電気電子工学科卒業.2021年京都大学大学院情報学研究科修士課程修了.同年京都大学大学院情報科学研究科博士課程に進学,現在に至る.修士(情報学).自然言語処理の研究に従事.2022年度より日本学術振興会特別研究員(DC2).}\bioauthor{河原大輔}{%1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構主任研究員,京都大学大学院情報学研究科准教授を経て,2020年より早稲田大学基幹理工学部情報通信学科教授.自然言語処理,知識処理の研究に従事.博士(情報学).}\bioauthor{黒橋禎夫}{%1994年京都大学大学院工学研究科博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.2023年4月より同特定教授および国立情報学研究所長を併任.自然言語処理,知識情報処理の研究に従事.JSTさきがけ「社会システムデザイン」研究総括(2016~2022),文部科学官(2020~2022)等を歴任.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward,文部科学大臣表彰科学技術賞等を受賞.}\end{biography}\biodate\end{document}
| |
V26N03-04
|
\section{はじめに}
本研究では眼球運動に基づき文の読み時間を推定し,ヒトの文処理機構の解明を目指すとともに,工学的な応用として文の読みやすさのモデル構築を行う.対象言語は日本語とする.データとして\ref{subsec:bccwj-eyetrack}節に示す『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014-LRE}の読み時間データBCCWJ-EyeTrack\cite{Asahara-2019d}を用いる.\ref{subsec:prev}節に示す通り,過去の研究は統語・意味・談話レベルのアノテーションを重ね合わせることにより,コーパス中に出現する言語現象と読み時間の相関について検討してきた.一方,Haleは,\modified{言語構造の頻度(Structuralfrequency)}が文処理過程に影響を与えると言及し,漸進的な文処理の困難さについて情報量基準に基づいたモデルをサプライザル\modified{理論}(SurprisalTheory)として定式化している\cite{Hale-2001}.このサプライザル\modified{理論}に基づく日本語の読み時間の分析が求められている.しかしながら,日本語においては,心理言語学で行われる読み時間を評価する単位と,コーパス言語学で行われる頻度を計数する単位に齟齬があり,この分析を難しくしていた.具体的には,前者においては一般的に統語的な基本単位である文節が用いられるが,後者においては斉一な単位である短い語(国語研短単位など)が用いられる.この齟齬を吸収するために,単語埋め込み\cite{Mikolov-2013a}の利用を提案する.単語埋め込みは前後文脈に基づき構成することにより,単語の置き換え可能性を低次元の実数値ベクトル表現によりモデル化する.このうちskip-gramモデルは加法構成性を持つと言われ\footnote{\modified{原論文\cite{Mikolov-2013b}5節AdditiveCompositionalityを参照.}},句を構成する単語のベクトルの線形和が,句の置き換え可能性をモデル化できる\cite{Mikolov-2013b}.日本語の単語埋め込みとして,『国語研日本語ウェブコーパス』(NWJC)\cite{Asahara-2014}からfastText\cite{fastText}により構成したNWJC2vec\cite{nwjc2vec}を用いた.ベイジアン線形混合モデル\cite{Sorensen-2016}に基づく統計分析\footnote{\modified{本研究では,複雑な要因分析の際にモデルの収束が容易なベイズ主義的な統計分析を行う.頻度主義的な統計分析を用いない理由については,『言語研究』論文\cite{Asahara-2019d}の付録を参照されたい.}}の結果,skip-gramモデルに基づく単語埋め込みのノルムと隣接文節間のコサイン類似度が,読み時間を予測する因子となりうることが分かった.前者のノルムが\modified{読み時間を長くする文節の何らかの特性}を,後者の隣接文節間のコサイン類似度が隣接\modified{尤度}をモデル化すると考える.\modified{「隣接尤度」は文節のbigram隣接尤度のようなものを想定する.}以下,\ref{sec:related}節に前提となる関連情報について示す.\ref{sec:method}節に分析手法について示す.4節に結果と考察について示し,5節でまとめと今後の展開を示す.
\section{前提}
\label{sec:related}\subsection{BCCWJ-EyeTrack}\label{subsec:bccwj-eyetrack}BCCWJ-EyeTrack\cite{Asahara-2019d}は,BCCWJの新聞記事サンプル20記事に対して,日本語母語話者24人分(女性19人,未回答1人,男性4人;20--55歳)の読み時間を収集して,データベース化したものである.自己ペース読文法(SELF:Self-PacedReading)と視線走査法に基づく文節単位の5種類の読み時間(FFT:FirstFixationTime,FPT:FirstPassTime,SPT:SecondPassTime,RPT:RegressionPathTime,Total:TotalTime)が視線停留オフセット値に基づいて算出されている.\modified{自己ペース読文法は,実験協力者がスペースキーを押しながら1文節ずつ読む方法で,スペースキーを押す時間間隔が当該文節を読む時間として計測される.基本的に後戻りして読むことはできない.視線走査法は,視線走査装置を用いて眼球運動を計測することにより,視線停留時間から読み時間を直接評価する手法である.}図\ref{fig:eyetrack}に読み時間のタイプの集計例を示す.\begin{figure}[b]\begin{center}\includegraphics{26-3ia4f1.eps}\end{center}\caption{視線走査データの読み時間のタイプの集計例}\label{fig:eyetrack}\end{figure}表\ref{tbl:data}にBCCWJ-EyeTrackのデータ形式について示す.{\ttsurface}は単語の表層形である.読み時間(i.e.,{\tttime})は対数に変換したデータ(i.e.,{\ttlogtime})も保持し,一般化線形混合モデル用に用いられる.{\ttmeasure}は読み時間のタイプ\{SELF,FFT,FPT,RPT,SPT,TOTAL\}を表す.{\ttsample,article,metadata\_orig,metadata}は記事に関連する情報である.{\ttspace}は文節境界に半角空白を入れたか否かを示す.{\ttlength}は表層形の文字数である.{\ttis\_first,is\_last,is\_second\_last}はレイアウトに関する特徴量である.{\ttsessionN,articleN,screenN,lineN,segmentN}は要素の呈示順に関する特徴量である.{\ttsubj}は被験者のIDで統計処理においてランダム要因として用いる.{\ttdependent}は当該文節に係る文節の数を人手で付与したもの\cite{Asahara-2016b}である.\begin{table}[t]\caption{BCCWJ-EyeTrackのデータ形式}\label{tbl:data}\input{04table01.tex}\end{table}また,被験者が記事をきちんと読んでいるか確認するために,各記事を読んだ後に,Yes/Noで解答できる簡単な内容理解課題を課した.視線走査法の内容理解課題の正解率は99.2\%(238/240)で,自己ペース読文法の内容理解課題の正解率77.9\%(187/240)より有意に高かった(p$<$0.001)\footnote{\modified{自己ペース読文法は,読み戻しができないために正解率が低くなったと考える.}}.\subsection{サプライザル}\label{subsec:surprisal}\citeA{Hale-2001}は文脈中に出現する言語的な事象$x$(音韻的特徴・単語・発話)が伝達する情報を次式によりはかることができ,これを\modified{サプライザル(surprisal)\footnote{\modified{以下,サプライザル理論一般を表す場合にカタカナ表記で,個々の式を表す場合にアルファベット表記を用いる.}}}と呼んだ:\[{\ttSurprisal}(x)=\log_{2}\frac{1}{P(x|{\ttcontext})}\]Surprisalは$x$の(文脈{\ttcontext}による条件付き)確率が低い場合に大きい値をとり,確率が高い場合に小さい値をとる.さらに単語を処理する認識努力(cognitiveeffort)はそのsurprisalに比例するとしている:\[{\ttEffort}\propto{\ttSurprisal}\]Surprisalは前方部分単語列に基づいて選好されるparse木を再考するコストと\pagebreakともに後方部分単語列を期待しうるか否かの困難さをモデル化する.Surprisalは,確率的言語モデルに基づくもの\footnote{確率的言語モデル:${\ttSurprisal}_{k+1}=-\log_{2}P(w_{k+1}|w_{1}\ldotsw_{k})$}・N-gramSurprisal\footnote{N-gram:${\ttSurprisal}_{w_{k+1}}=-\log_{2}P(w_{k+1}|w_{k-2},w_{k-1},w_{k})$}・Parser(PCFG)Surprisal\footnote{PCFG:${\ttSurprisal}_{n}=-\log_{2}P(T{i},w_{i}|T_{1}\ldotsT_{i-1},w_{1}\ldotsw_{i-1})$}などがあり,\citeA{Hale-2001}はEarley法に基づくParserSurprisalを提案した.\citeA{Levy-2008}は,前方部分単語列に対する可能なparse木の確率分布を反映するKLダイバージェンスに基づくsurprisal\footnote{KLダイバージェンス:${\ttSurprisal}_{k+1}=D(P_{k+1}||P_{k})=-\logP(w_{k+1}|w_{1}\ldotsw_{k})$}を提案した.またPynteらはLatentSemanticAnalysis(LSA)\cite{Landauer-1997}による分散表現を用いたsemanticsurprisal\cite{Pynte-2008}を提案し,英語の視線走査データであるDundeeCorpusのモデル化を行っている.具体的には,300次元のLSAモデルを用いて,\modified{wLSA\footnote{\modified{wordlevelLSA}}}-basedsurprisal(前隣接単語と注目単語との意味的類似度)と\modified{sLSA\footnote{\modified{sentencelevelLSA}}}-basedsurprisal(従前に出現する前隣接単語以外の単語と注目単語の意味的類似度)について一般化線形混合モデルにより調査した.wLSA-basedsurprisalは読み時間を予測する効果が確認されたが,sLSA-basedsurprisalには効果が確認できなかった.Mitchellらは,LatentDirechretAllocation(LDA)\cite{Blei-2003,Griffiths-2007}による分散表現を用いたLDA-basedsurprisalを提案した\cite{Mitchell-2010}.\subsection{単語埋め込みとNWJC2vec}\label{subsec:nwjc2vec}単語埋め込み\cite{Mikolov-2013a}\modified{は}単語を数百次元のベクトルで表現する技術である.従来はその単語か否かを表すone-hot表現が用いられていたため,大規模語彙を表現するために高次元ベクトルになっていた.学習の際のモデルとして,文脈から単語を推定するCBOWモデルと単語から文脈を推定するskip-gramモデルが提案されている.単語埋め込みにより,単語の入れ替え可能性を低次元のベクトルで表現できるようになったほか,skip-gramモデルには加法構成性と呼ばれる句を構成する語ベクトルの和が,句ベクトルとして利用できるという良い性質を持つ.本研究ではこの性質を,日本語における語を計数する単位と読み時間を評価する単位の齟齬の吸収に用いる.NWJC2vec\cite{nwjc2vec}はNWJC258億語から訓練した日本語の単語埋め込みデータである.fastText\cite{fastText}を用いて訓練した300次元のCBOWおよびskip-gramモデル\footnote{CBOWかskip-gramか以外のオプションは次の通り:{\tt-size300-window8-negative25-hs0-sample1e-4-iter15}}を用いる.この学習した単語ベクトルを用いて,視線走査データの集計単位である文節単位のベクトルを合成する.合成には線形和を用いた.\subsection{BCCWJ-EyeTrackの過去の分析}\label{subsec:prev}BCCWJ-EyeTrackに対して,統語・意味・談話レベルのアノテーションを重ね合わせて,様々な言語現象に対してヒトがどのような反応をするのかについて検討を進めてきた.\citeA{Asahara-2017a}は被験者属性を対象とし,記憶力がある群は読む速度が速いが全読み時間は記憶力がない群と変わらないこと,語彙力がある群が読み時間が長いことを明らかにした.浅原ら\citeyear{Asahara-2019d}は文節係り受けアノテーションBCCWJ-DepPara\cite{Asahara-2016b}と対照比較を行い,係り受けの数が多い文節ほど読み時間が短くなることを明らかにした.\citeA{Asahara-2018a}は節情報アノテーションBCCWJ-ToriClause\cite{Matsumoto-2018}と対照比較を行い,節末の読み時間が短いことを明らかにした.\citeA{Asahara-2017b}は分類語彙表番号アノテーションBCCWJ-WLSP\cite{Kato-2018}と対照比較を行い,統語分類の「用の類」$<$「相の類」$<$「体の類」の順で読み時間が長くなる傾向と,意味分類の「関係」が他の分類(「主体」「活動」「生産物」「自然物」)と比べて読み時間が短くなる傾向を明らかにした.\citeA{Asahara-2017c}は情報構造アノテーションBCCWJ-Infostr\cite{Miyauchi-2018}と対照比較を行い,共有性において旧情報(hearer-old)が新情報(hearer-new)よりも読み時間が短いことを明らかにした.\citeA{Asahara-2018b}は述語項構造・共参照情報アノテーションBCCWJ-PAS\cite{Ueda-2015,Asahara-2016c}と対照比較を行い,主語がゼロ代名詞の際に外界照応として二人称を指す場合の述語において,SPTが短くなることを明らかにした.これらの分析には,サンプルと被験者をランダム要因とし,アノテーションを固定要因とした対数時間に対する一般化線形混合モデルかベイジアン線形混合モデル\cite{Sorensen-2016}に基づく方法を用いている.
\section{分析手法}
\label{sec:method}分析においては,いくつかの要因に基づく線形式に基づいて,読み時間をベイジアン線形混合モデル\cite{Sorensen-2016}により推定し,その係数を見ることにより進める.図\ref{fig:formula}に推定に用いた線形式を示す.分析は,分散表現のノルムと隣接文節類似度に基づくもの($\mu_{\ttwv}$),頻度情報に基づく当該文節の出現確率のみに基づくもの($\mu_{\ttfreq}$),両方を用いたもの\modified{に}基づくもの($\mu_{\ttall}$)を対比する.分散表現は\ref{subsec:nwjc2vec}節に示したfastTextに基づくNWJC2vec300次元のものを用い,CBOWモデルとskip-gramモデルの両方を比較した.対象とする読み時間は,読み戻しが可能な視線走査法のFFT,FPT,RPT,TOTALとする.SPTについては,\modified{付録}\ref{sec:spt}節に述べる.\begin{figure}[t]\begin{center}\includegraphics{26-3ia4f2.eps}\end{center}\caption{推定に用いた線形式}\label{fig:formula}\end{figure}まず読み時間{\tttime}を対数正規分布lognormalによりモデル化し,期待値を$\mu_{\tt*}$,分散を$\sigma$とする.式において$\mu_{\ttbase}$は基本的な要因を表し,$\alpha$を切片とする.$\beta^{\ttlength}$は文節の文字数に対する係数,$\beta^{\ttspace}$は文節間に半角空白を入れたか否かの係数である.$\beta^{\ttsessionN}$,$\beta^{\ttarticleN}$,$\beta^{\ttscreenN}$,$\beta^{\ttlineN}$,\linebreak$\beta^{\ttsegmentN}$が呈示順に対する係数,$\beta^{\ttis\_first}$,$\beta^{\ttis\_last}$,$\beta^{\ttis\_second\_last}$がレイアウト情報に対する係数である.その他,記事に対するランダム係数として$\gamma^{{\ttarticle}=a(x)}$を,\modified{実験協力者}に対するランダム係数として$\gamma^{{\ttsubj}=s(x)}$を考慮する.\modified{このランダム係数により記事間の揺れと実験協力者間の揺れを,それぞれ$\sigma_{article}$,$\sigma_{subj}$を標準偏差とする正規分布によりモデル化することにより吸収する.}$\beta^{\ttdependent}$は当該文節に係る文節の数に対する係数である.先行研究においては,PCFGの部分木により統語構造に基づく効果をモデル化していた.日本語においては,比較的語順が自由な言語であるために句構造木ではなく,文節係り受け木により評価する.日本語は主辞後置言語であり,当該文節に係る文節は基本的に全て前置することから,この係数によって実質的に統語構造に基づく効果がモデル化できると考える\footnote{\modified{詳細については『言語研究』論文\cite{Asahara-2019d}の付録を参照されたい.}}.単語ベクトルから構成した文節ベクトルの情報の二つの情報を用いる.一つは当該文節ベクトルのノルム${\ttwv\_norm}(x)$である.もう一つは当該文節ベクトルと左隣接ベクトルのコサイン類似度${\ttwv\_sim}(x)$である.この上で,単語埋め込みを考慮した期待値として\modified{$\mu_{\ttwv\_all}$}を検討する.$\beta^{\ttwm\_norm}$は単語埋め込みに基づく文節ベクトルのノルムに対する係数,$\beta^{\ttwm\_sim}$は単語埋め込みに基づく左隣接文節とのコサイン\modified{類似度}に対する係数であり,これを評価する.分散表現のモデルとして,CBOWとskip-gramの二つを評価する.\modified{また,比較のためにノルムのみのもの$\mu_{\ttwv\_norm}$とコサイン類似度のみのもの$\mu_{\ttwv\_sim}$も評価する.}比較対照として,単語の頻度を考慮した期待値として$\mu_{\ttfreq}$を検討する.$\beta^{\ttfreq\_ave}$は文節内頻度に対する係数である.単語の頻度に基づく手法については,文節間の連接\modified{尤度}を考慮しない.文節内頻度は文節内の単語の頻度の相乗平均を評価する\footnote{\modified{頻度を確率値とした場合に連接単語数で正規化した対数線形モデルに相当し,Surprisalの式と親和性が良いと考える.}}.相乗平均を評価する際にゼロ頻度は1を乗じた.なお,相加平均でも評価したがモデルが収束しなかった.最後に,単語埋め込みと単語の頻度の両方を考慮した$\mu_{\ttall}$を検討する.分析においては,\modified{RStan}\footnote{\modified{https://mc-stan.org/users/interfaces/rstan}}を用いた.500iterのwarmupのあと,5000iterを4chains行った.\begin{table}[b]\caption{分析結果(概要)}\label{tbl:result}\input{04table02.tex}\end{table}
\section{結果と考察}
\label{sec:result}表\ref{tbl:result}に各モデルの分析結果を示す.詳細な結果については,\modified{付録}\ref{sec:detailed}節に示す.推定されるmeanが0.00から$\pm2$SD以上の差があるものに+もしくは$-$を付与する.0はmeanが$\pm2$SD以内のものである.+はその値が大きければ,読み時間が長くなることを示す.$-$はその値が大きければ,読み時間が短くなることを示す.まず,いずれの結果も\modified{($\beta_{\ttdependent}$)}で係り受けが多ければ多いほど,読み時間が短くなった\footnote{\modified{先行文脈が統語的な関係を持ち,予測に効くために読み時間が短くなる\cite{Levy-2008}.}}.つまり,次に述べる結果は係り受けの効果を確認したうえでの付加的な効果である.単語埋め込みに基づくモデル\modified{($\mu_{\ttwv\_all}$)}においては,隣接文節間類似度が大きければ大きいほど読み時間が短くなる傾向が見られた($\beta_{\ttwm\_sim}$).skip-gramモデルにおいては,ベクトルのノルムが大きければ大きいほど読み時間が長くなる傾向が見られた($\beta_{\ttwm\_norm}$).この傾向はCBOWには見られなかった.\modified{また,ノルムと類似度を個別にモデル化したもの($\mu_{\ttwv\_norm}$,$\mu_{\ttwv\_sim}$)でも同じ傾向がみられた.}次に,頻度の相乗平均に基づくモデル($\mu_{\ttfreq}$)においては,高頻度のものが読み時間が短くなる傾向がみられた.単語埋め込みと頻度の双方を考慮したモデル($\mu_{\ttall}$)では,skip-gramのFFT以外において,両者を個別にモデル化したものを合成したような結果が得られた.以下,結果について考察する.まず,文節間の隣接\modified{尤度}ついては,\modified{隣接文節間類似度に関する係数$\beta_{\ttwm\_sim}$で確認できる.類似度が大きいほど読み時間が短くなることにより,隣接\modified{尤度}による予測が効くことが考えられる.つまり,}wLSA-basedsurprisal\cite{Pynte-2008}やLDA-basedsurprisal\cite{Mitchell-2010}\modified{などの既存のsemanticsurprisal}と同様に,fastTextによる単語埋め込みに基づくモデルでもモデル化できることが確認された.単語の頻度情報からは文節単位の隣接尤度の推定が困難であった.\modified{skip-gramの}加法構成性に基づき構成した文節単位のベクトルのコサイン類似度が,適切に隣接尤度をモデル化できた.\modified{一方,CBOWについては加法構成性をもつか否かについては管見の限り報告されていない.本稿の結果,読み時間の推定においてCBOWはskip-gramほどの明確な加法構成性が認められないことが示唆される.}文節内の単語の頻度の相乗平均は,その文節の生起確率を表す.確率が高ければ高いほど読み時間が短くなることが適切にモデル化できている.これは文節単位のunigramsurprisalを適切にモデル化できていると考える.skip-gramのFFT以外においては,このunigramsurprisalと異なる文節単位の特徴として,単語埋め込みのノルムの効果が認められた\modified{.}単語埋め込みのノルム\modified{($\beta_{\ttwm\_norm}$)}は,他の単語の\modified{特徴}を表現していると考えられる.\modified{Schakelらは,単語埋め込みのノルムが,単語の頻度と同様に単語の重要度(wordsignificance)を表している\cite{Schakel-2015}とし,Luhn\citeyear{Luhn-1958}らの議論を引用しながら語の共起に関連する何らかの尺度を示していることを議論している.我々はこのノルムが文節間の何らかの\modified{特性}を表していると考える.}\modified{加法構成性に基づき文節単位のベクトルを構成することにより,ノルムが大きければ大きいほど予測が難しく,読み時間が長い傾向が確認できた.skip-gramのノルムの大きなものの例を見ると,数値表現\footnote{数値表現例:「2262億ドルで」「9975億1300万円と」}・長い付属語連接\footnote{長い付属語連接例:「掲載させていただくことがあります。」「持たせてくれるんですよね」}・長い複合語\footnote{長い複合語例:「クラーク元北大西洋条約機構(NATO)欧州連合軍最高司令官が、」「「21世紀COE(センター・オブ・エクセレンス)プログラム」に」「農畜産業振興事業団(現農畜産業振興機構)から、」}が見られた.数値表現や付属語連接は,一般的に構成要素の頻度が高くなり,頻度の相乗平均の効果($\beta_{\ttfreq\_ave}$)のみの場合は読みやすいと判定されるが,この部分の読みにくさがモデル化されているのではないかと考える.}\modified{文脈から単語を推定するCBOWモデルではこの傾向が見られなかった.skip-gramにおいてはその加法構成性を持つことが解説されている\cite{Mikolov-2013b}が,CBOWに関してはそのモデル化の方向性のためか加法構成性について議論がされていない.本研究結果でもCBOWの線形和に基づくノルムに対する読み時間の効果は確認できなかった.}いずれの結果も係り受けの効果とともに表れていることから,\modified{先行研究で示されている効果と従属性が低い特徴量}が発見できたといえる.
\section{おわりに}
本研究では,日本語の読み時間の推定のために単語埋め込みを用いることを提案した.英語などで進められているsurprisalの分析において,単語の頻度に基づく確率が用いられている.しかしながら,日本語においては頻度を計数する単位と読み時間を評価する単位との齟齬があり,この分析を難しくしていた.今回skip-gramの単語埋め込みを用いて,ベクトルの線形和により文節ベクトルを構成することにより,この問題を解決した.文節ベクトルのノルムが当該文節の\modified{頻度とは異なる何らかの特性}をモデル化し,ノルムが大きければ大きいほど読み時間が長くなることを確認した.さらにこれらの結果は統語的なモデルとともに導入されるものであり,新しいsurprisalを発見したといえる.また,先行研究と同様に,左隣接文節のベクトルと当該文節ベクトルのコサイン類似度が,\modified{読み時間}を適切にモデル化できることを確認した.\modified{今回,この文節ベクトルのノルムが読み時間に影響を与える何らかの特性を持っていることを経験的に発見したが,数学的に言語学的に何であるのかについての理論的検証については今後の課題としたい.}工学的な応用として重要な点として,これらの単語埋め込みに関する情報は形態素解析器などで単語単位に割り当て可能であり,線形和やコサイン類似度など比較的軽い演算で計算できる.今回用いた統計モデル\modified{は}線形式であることから,\modified{任意の日本語文章に対して簡単に読み時間の推定が計算できる.これまでのBCCWJ-EyeTrackの分析は,高度な統語・意味・談話情報アノテーションに基づくものであり,読み時間のモデル化については,人手によりアノテーションを行う必要があった.}本研究で提案する単語埋め込みに基づくモデルは,NWJC2vecに収録されている語で構成される文章であれば,人間が解釈しやすい線形式で読み時間を与えることができる.本モデルを用いて,読み時間に基づく文章の読みやすさの自動評価ができると考える.\acknowledgment本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費基盤研究(A)17H00917,挑戦的研究(萌芽)18K18519,新学術領域研究18H05521の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara}{Asahara}{2018a}]{Asahara-2018b}Asahara,M.\BBOP2018a\BBCP.\newblock\BBOQBetweenReadingTimeandZeroExophorainJapanese.\BBCQ\\newblockIn{\BemREAD2018:InternationalInterdisciplinarySymposiumonReadingExperience\&AnalysisofDocuments},\mbox{\BPGS\34--36}.\bibitem[\protect\BCAY{Asahara}{Asahara}{2018b}]{nwjc2vec}Asahara,M.\BBOP2018b\BBCP.\newblock\BBOQNWJC2Vec:Wordembeddingdatasetfrom`NINJALWebJapaneseCorpus'.\BBCQ\\newblock{\BemTerminology:InternationalJournalofTheoreticalandAppliedIssuesinSpecializedCommunication},{\Bbf24}(2),\mbox{\BPGS\7--25}.\bibitem[\protect\BCAY{浅原}{浅原}{2018}]{Asahara-2017c}浅原正幸\BBOP2018\BBCP.\newblock名詞句の情報の状態と読み時間について.\\newblock\Jem{自然言語処理},{\Bbf25}(5),\mbox{\BPGS\527--554}.\bibitem[\protect\BCAY{浅原}{浅原}{2019}]{Asahara-2018a}浅原正幸\BBOP2019\BBCP.\newblock日本語の読み時間と節境界情報—主辞後置言語におけるwrap-upeffectの検証.\\newblock\Jem{自然言語処理},{\Bbf26}(2),\mbox{\BPGS\301--328}.\bibitem[\protect\BCAY{浅原\JBA加藤}{浅原\JBA加藤}{2019}]{Asahara-2017b}浅原正幸\JBA加藤祥\BBOP2019\BBCP.\newblock読み時間と統語・意味分類.\\newblock\Jem{認知科学},{\Bbf26}(2),\mbox{\BPGS\219--230}.\bibitem[\protect\BCAY{Asahara,Maekawa,Imada,Kato,\BBA\Konishi}{Asaharaet~al.}{2014}]{Asahara-2014}Asahara,M.,Maekawa,K.,Imada,M.,Kato,S.,\BBA\Konishi,H.\BBOP2014\BBCP.\newblock\BBOQArchivingandAnalysingTechniquesoftheUltra-large-scaleWeb-basedCorpusProjectofNINJAL,Japan.\BBCQ\\newblock{\BemAlexandria:TheJournalofNationalandInternationalLibraryandInformationIssues},{\Bbf25}(1--2),\mbox{\BPGS\129--148}.\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2018}]{Asahara-2016b}浅原正幸\JBA松本裕治\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造.\\newblock\Jem{自然言語処理},{\Bbf25}(4),\mbox{\BPGS\331--356}.\bibitem[\protect\BCAY{浅原\JBA小野\JBA宮本}{浅原\Jetal}{2017}]{Asahara-2017a}浅原正幸\JBA小野創\JBA宮本エジソン正\BBOP2017\BBCP.\newblock『現代日本語書き言葉均衡コーパス』の読み時間とその被験者属性.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\473--476}.\bibitem[\protect\BCAY{浅原\JBA小野\JBA宮本}{浅原\Jetal}{2019}]{Asahara-2019d}浅原正幸\JBA小野創\JBA宮本エジソン正\BBOP2019\BBCP.\newblockBCCWJ-EyeTrack『現代日本語書き言葉均衡コーパス』に対する読み時間付与とその分析.\\newblock\Jem{言語研究},{\Bbf156},\mbox{\BPG\ToAppear}.\bibitem[\protect\BCAY{浅原\JBA大村}{浅原\JBA大村}{2016}]{Asahara-2016c}浅原正幸\JBA大村舞\BBOP2016\BBCP.\newblockBCCWJ-DepParaPAS:『現代日本語書き言葉均衡コーパス』の係り受け・並列構造と述語項構造・共参照アノテーションの重ね合わせと可視化.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\489--492}.\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{Blei-2003}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQLatentDirichletAllocation.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Bojanowski,Grave,Joulin,\BBA\Mikolov}{Bojanowskiet~al.}{2017}]{fastText}Bojanowski,P.,Grave,E.,Joulin,A.,\BBA\Mikolov,T.\BBOP2017\BBCP.\newblock\BBOQEnrichingWordVectorswithSubwordInformation.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf5},\mbox{\BPGS\135--146}.\bibitem[\protect\BCAY{Griffiths,Steyvers,\BBA\Tanenbaum}{Griffithset~al.}{2007}]{Griffiths-2007}Griffiths,T.~L.,Steyvers,M.,\BBA\Tanenbaum,J.~B.\BBOP2007\BBCP.\newblock\BBOQTopicsinSemanticRepresentation.\BBCQ\\newblock{\BemPsychologicalReview},{\Bbf114}(2),\mbox{\BPGS\211--244}.\bibitem[\protect\BCAY{Hale}{Hale}{2001}]{Hale-2001}Hale,J.\BBOP2001\BBCP.\newblock\BBOQAProbabilisticEarleyParserasaPsycholinguisticModel.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\lowercase{\BVOL}~2,\mbox{\BPGS\159--166}.\bibitem[\protect\BCAY{加藤\JBA浅原\JBA山崎}{加藤\Jetal}{2019}]{Kato-2018}加藤祥\JBA浅原正幸\JBA山崎誠\BBOP2019\BBCP.\newblock分類語彙表番号を付与した『現代日本語書き言葉均衡コーパス』の書籍・新聞・雑誌データ.\\newblock\Jem{日本語の研究},{\Bbf15}(2),\mbox{\BPGS\134--141}.\bibitem[\protect\BCAY{Landauer\BBA\Dumais}{Landauer\BBA\Dumais}{1997}]{Landauer-1997}Landauer,T.~K.\BBACOMMA\\BBA\Dumais,S.~T.\BBOP1997\BBCP.\newblock\BBOQASolutiontoPlato'sproblem:TheLatentSemanticAnalysisTheoryofAcquisition,InductionandRepresentationofKnowledge.\BBCQ\\newblock{\BemPsyochologicalReview},{\Bbf104}(2),\mbox{\BPGS\211--240}.\bibitem[\protect\BCAY{Levy}{Levy}{2008}]{Levy-2008}Levy,R.\BBOP2008\BBCP.\newblock\BBOQExpectation-basedSyntacticComprehension.\BBCQ\\newblock{\BemCognition},{\Bbf106},\mbox{\BPGS\1126--1177}.\bibitem[\protect\BCAY{Luhn}{Luhn}{1958}]{Luhn-1958}Luhn,H.~P.\BBOP1958\BBCP.\newblock\BBOQTheAutomaticCreationofLiteratureAbstracts.\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf2}(2),\mbox{\BPGS\159--165}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Matsumoto,Asahara,\BBA\Arita}{Matsumotoet~al.}{2018}]{Matsumoto-2018}Matsumoto,S.,Asahara,M.,\BBA\Arita,S.\BBOP2018\BBCP.\newblock\BBOQJapaneseClauseClassificationAnnotationonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofthe13thWorkshoponAsianLanguageResources(ALR12)},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{Mikolov-2013a}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemInternationalConferenceonLearningRepresentations,{\upshape\textbf{abs/1301.3781}}}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{Mikolov-2013b}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mitchell,Lapata,Demberg,\BBA\Keller}{Mitchellet~al.}{2010}]{Mitchell-2010}Mitchell,J.,Lapata,M.,Demberg,V.,\BBA\Keller,F.\BBOP2010\BBCP.\newblock\BBOQSyntacticandSemanticFactorsinProcessingDifficulty:AnIntegratedMeasure.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\196--206}.\bibitem[\protect\BCAY{宮内\JBA浅原\JBA中川\JBA加藤}{宮内\Jetal}{2018}]{Miyauchi-2018}宮内拓也\JBA浅原正幸\JBA中川奈津子\JBA加藤祥\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』への情報構造アノテーションとその分析.\\newblock\Jem{国立国語研究所論集},{\Bbf16},\mbox{\BPGS\19--33}.\bibitem[\protect\BCAY{Patterson\BBA\Drummer}{Patterson\BBA\Drummer}{2016}]{Patterson-2016}Patterson,C.\BBACOMMA\\BBA\Drummer,J.\BBOP2016\BBCP.\newblock\BBOQEyeTracking--Focus:EyetrackingDuringReading.\BBCQ\\newblockLinguistischerMethodenworkshop(HUBerlin).\bibitem[\protect\BCAY{Pynte,New,\BBA\Kennedy}{Pynteet~al.}{2008}]{Pynte-2008}Pynte,J.,New,B.,\BBA\Kennedy,A.\BBOP2008\BBCP.\newblock\BBOQOn-lineContextualInfluencesDuringReadingNormalText:AMultiple-regressionAnalysis.\BBCQ\\newblock{\BemVisionResearch},{\Bbf48},\mbox{\BPGS\2172--2183}.\bibitem[\protect\BCAY{Schakel\BBA\Wilson}{Schakel\BBA\Wilson}{2015}]{Schakel-2015}Schakel,A.M.~J.\BBACOMMA\\BBA\Wilson,B.~J.\BBOP2015\BBCP.\newblock\BBOQMeasuringWordSignificanceusingDistributedRepresentationsofWords.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1508.02297}.\bibitem[\protect\BCAY{Sorensen,Hohenstein,\BBA\Vasishth}{Sorensenet~al.}{2016}]{Sorensen-2016}Sorensen,T.,Hohenstein,S.,\BBA\Vasishth,S.\BBOP2016\BBCP.\newblock\BBOQBayesianLinearMixedModelsUsingStan:ATutorialforPsychologists,Linguists,andCognitiveScientists.\BBCQ\\newblock{\BemQuantitativeMethodsforPsychology},{\Bbf12},\mbox{\BPGS\175--200}.\bibitem[\protect\BCAY{植田\JBA飯田\JBA浅原\JBA松本\JBA徳永}{植田\Jetal}{2015}]{Ueda-2015}植田禎子\JBA飯田龍\JBA浅原正幸\JBA松本裕治\JBA徳永健伸\BBOP2015\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する述語項構造・共参照関係アノテーション.\\newblock\Jem{第8回コーパス日本語学ワークショップ予稿集},\mbox{\BPGS\205--214}.\bibitem[\protect\BCAY{Vasishth\BBA\Drenhaus}{Vasishth\BBA\Drenhaus}{2011}]{vasishth2011locality}Vasishth,S.\BBACOMMA\\BBA\Drenhaus,H.\BBOP2011\BBCP.\newblock\BBOQLocalityinGerman.\BBCQ\\newblock{\BemDialogue\&Discourse},{\Bbf2}(1),\mbox{\BPGS\59--82}.\end{thebibliography}\appendix
\section{分析結果(詳細)}
\label{sec:detailed}本節では,skip-gramの最大モデル($\mu_{all}$)の結果の詳細について示す.Rhatが収束判定指標でchain数3以上ですべての値が1.1以下を収束とみなす.本研究では全ての設定でchain数4とした.n\_effが有効サンプル数,meanがサンプルの期待値(事後平均),sdがMCMC標準偏差(事後標準偏差),se\_meanが標準誤差で,MCMCのサンプルの分散をn\_effで割った値の平方根を表す.\modified{なお,表中$\sigma$が対数正規分布の標準偏差,$\sigma_{article}$が記事に対するランダム係数をモデル化する分布の標準偏差,$\sigma_{subj}$が実験協力者に対するランダム係数をモデル化する分布の標準偏差を表す.}\subsection{分析結果:FFTskip-gram}表\ref{tbl:fft}にFFTskip-gramの最大モデル($\mu_{all}$)の結果を示す.FFTは文節内の最初の停留の注視時間を評価する.\modified{1回の停留のみの評価のために,文節の長さが長い場合(文節内に複数回視線が停留する場合)に,その2回目以降の停留は加算されない.このため短い文節でかつ文処理負荷が高い文節で長くなる傾向がある.}このため文節長の効果($\beta_{\ttlength}$)や文節間に空白を入れるか否かの効果($\beta_{\ttspace}$)が確認されなかった.呈示順($\beta_{\ttsessionN}$,$\beta_{\ttarticleN}$,$\beta_{\ttscreenN}$,$\beta_{\ttlineN}$,$\beta_{\ttsegmentN}$)・レイアウト情報($\beta_{\ttis\_first}$,$\beta_{\ttis\_last}$,$\beta_{\ttis\_second\_last}$)に関しては,行呈示順($\beta_{\ttlineN}$)で読み時間が短くなる傾向が,文節呈示順($\beta_{\ttsegmentN}$)で読み時間が長くなる傾向が,行内最右要素($\beta_{\ttis\_last}$)で読み時間が短くなる傾向が見られた.\begin{table}[t]\caption{分析結果:FFTskip-gram($\mu_{all}$)}\label{tbl:fft}\input{04table03.tex}\end{table}係り受けの数が多いほど読み時間が短くなる傾向($\beta_{\ttdependent}$)がみられる.ベクトルのノルム($\beta_{\ttwm\_norm}$)については,ノルムが大きくなればなるほど読み時間が長くなるという弱い効果がみられる.\modified{ベクトルのノルムは,長い文節ほど大きくなる傾向があるために,1回の停留のみの評価では強い効果が出なかったのではないかと考える.}隣接要素との類似度($\beta_{\ttwm\_sim}$)や頻度($\beta_{\ttfreq\_ave}$)については,値が大きいほど読み時間が短くなるという強い効果がみられる.\subsection{FPTskip-gram}表\ref{tbl:fpt}にFPTskip-gramの最大モデル($\mu_{all}$)の結果を示す.FPTは文節内に初めて視線が停留し,その後文節から出るまでの総注視時間である.出る方向は右方向でも左方向でも構わない.\modified{一般に,予想と異なる文節とは異なるものが出てきた場合(expectation-based),短期記憶の負荷がかかる文節が出てきた場合(memory-based)に値が大きくなるとされている.}文節長の効果($\beta_{\ttlength}$)は視線停留対象の面積に相当するために,正方向に効果が出る.また,レジビリティの観点である文節間に空白を入れるか否かの効果($\beta_{\ttspace}$)ついては,空白を入れたほうが読み時間が短くなることが確認された.呈示順($\beta_{\ttsessionN}$,$\beta_{\ttarticleN}$,$\beta_{\ttscreenN}$,$\beta_{\ttlineN}$,$\beta_{\ttsegmentN}$)に関しては,記事呈示順以外で実験が進むにつれて読み時間が短くなる.記事呈示順は実験計画として4パターンのみ準備しており,記事に対するランダム効果($\sigma_{\ttarticle}$)に吸収されたと考える.以上の傾向は,RPT,TOTALについても共通してみられる.\begin{table}[t]\caption{分析結果:FPTskip-gram($\mu_{all}$)}\label{tbl:fpt}\input{04table04.tex}\end{table}レイアウト情報($\beta_{\ttis\_first}$,$\beta_{\ttis\_last}$,$\beta_{\ttis\_second\_last}$)は,行内最左要素($\beta_{\ttis\_first}$)と右から2番目の要素($\beta_{\ttis\_second\_last}$)で読み時間が長くなる傾向が見られた.これは,注視点の復帰改行の移動の効果だと考える.係り受けの数が多いほど読み時間が短くなる傾向($\beta_{\ttdependent}$)がみられる.ベクトルのノルム($\beta_{\ttwm\_norm}$)については,ノルムが大きくなればなるほど読み時間が長くなるという強い効果がみられる.隣接要素との類似度($\beta_{\ttwm\_sim}$)や頻度($\beta_{\ttfreq\_ave}$)については,値が大きいほど読み時間が短くなるという強い効果がみられる.\subsection{RPTskip-gram}表\ref{tbl:rpt}にRPTskip-gramの最大モデル($\mu_{all}$)の結果を示す.RPTは文節内に初めて視線が停留し,その後文節の右側から出るまでの総注視時間である.左側に抜ける場合は継続して合算する.\modified{当該文節が予想と異なった場合に事前文脈を再確認する時間を評価している.}\begin{table}[t]\caption{分析結果:RPTskip-gram($\mu_{all}$)}\label{tbl:rpt}\input{04table05.tex}\end{table}文節長・空白・呈示順については,FPTと同じ傾向であった.レイアウト情報($\beta_{\ttis\_first}$,$\beta_{\ttis\_last}$,$\beta_{\ttis\_second\_last}$)は,行内最右要素($\beta_{\ttis\_last}$)と右から2番目の要素($\beta_{\ttis\_second\_last}$)で読み時間が長くなる傾向が見られた.これは,RPTの読み時間の定義から,最右要素や右から2番目の要素はこれ以上右につきぬけにくいためであろう.係り受けの数が多いほど読み時間が短くなる傾向($\beta_{\ttdependent}$)がみられる.ベクトルのノルム($\beta_{\ttwm\_norm}$)については,ノルムが大きくなればなるほど読み時間が長くなるという強い効果がみられる.隣接要素との類似度($\beta_{\ttwm\_sim}$)や頻度($\beta_{\ttfreq\_ave}$)については,値が大きいほど読み時間が短くなるという強い効果がみられる.\subsection{TOTALskip-gram}表\ref{tbl:total}にTOTALskip-gramの最大モデル($\mu_{all}$)の結果を示す.TOTALは文節内の総注視時間である.\modified{2回目以降の確認作業も含めた読み時間を評価する.}文節長・空白・呈示順については,FPTと同じ傾向であった.\begin{table}[t]\caption{分析結果:TOTALskip-gram($\mu_{all}$)}\label{tbl:total}\input{04table06.tex}\end{table}レイアウト情報($\beta_{\ttis\_first}$,$\beta_{\ttis\_last}$,$\beta_{\ttis\_second\_last}$)は,FPTと同様に,行内最左要素($\beta_{\ttis\_last}$)と右から2番目の要素($\beta_{\ttis\_second\_last}$)で読み時間が長くなる傾向が見られた.係り受けの数が多いほど読み時間が短くなる傾向($\beta_{\ttdependent}$)がみられる.ベクトルのノルム($\beta_{\ttwm\_norm}$)については,ノルムが大きくなればなるほど読み時間が長くなるという強い効果がみられる.隣接要素との類似度($\beta_{\ttwm\_sim}$)や頻度($\beta_{\ttfreq\_ave}$)については,値が大きいほど読み時間が短くなるという強い効果がみられる.
\section{SecondPassTimeについて}
\label{sec:spt}SecondPassTime(SPT)は研究者によって,ゼロ読み時間(読み飛ばし)の扱いが異なり,査読などで議論が対立することが多く,本稿ではSPTの結果を除外した.自己ペース読文法においては,実験協力者は必ずすべての文節を見るために読み飛ばしが発生しない.視線走査法のFFT,FPT,RPT,TOTALにおいては,ゼロ読み時間を考慮しないことが研究コミュニティにおいて共有されている.SPTはゼロ読み時間を扱う研究とゼロ読み時間を扱わない研究があり,BCCWJ-EyeTrackでは後者の扱いをとっている.著者らが考える理由は三つある.一つ目はTOTALとFPTの関係である.SPTにおいてゼロ読み時間をする場合,TOTALにおいてゼロ読み時間の場合を除いて$\text{TOTAL}-\text{FPT}$の値とSPTの値が完全従属する.二つ目は対数正規分布{\ttlognormal}によりモデル化できる点である.対数正規分布は定義域が$0<x<\infty$であり,ゼロ読み時間を評価することができない.しかしながら,正規分布と異なり,サンプリングの際に自然に負の時間を回避できるほか,外れ値の影響が軽減されるというメリットがある.三つ目は,本質的に2回目の読み時間がないということは欠損値であると考え,モデル化する対象から外すことで,0の値を割り当てるというoverspecifiedの問題を回避することができる.Vasishthらは,ゼロ読み時間を扱うものをrereadingtimeと呼び,ゼロ読み時間を扱わないものをSPTとして区別したうえで,SPTを扱うべきとしている\cite{vasishth2011locality}.さらにrereadingtimeについてはUMASSのeyedry\footnote{http://blogs.umass.edu/eyelab/software/}など$\text{rereadingtime}=\text{RPT}-\text{FPT}$としているものもある.Pattersonらは2016年の時点で``controversyoverincluding0whennorereading''\cite{Patterson-2016}とし,この扱いについては,まだ議論が収束していない.なお,SPT分析結果としては,分散表現のノルムのみ(CBOW,skip-gramとも)が効果として確認され,それ以外の効果(単語頻度の幾何平均・隣接文節との類似度)は確認されなかった.\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\end{biography}\biodate\end{document}
| |
V18N02-01
|
\section{はじめに}
確率的言語モデルは,統計的手法による仮名漢字変換\cite{確率的モデルによる仮名漢字変換}\cite{Google.IME}\cite{漢字かなのTRIGRAMをもちいたかな漢字変換方法}や音声認識\cite{音声認識システム}\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}などに広く用いられている.確率的言語モデルは,ある単語列がある言語でどの程度自然であるかを出現確率としてモデル化する\footnote{単語の定義に関しては様々な立場がある.本論文では,英語などの音声認識の言語モデル\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}と同様に,ある言語においてなんらかの方法で認定される文字列と定義する.}.仮名漢字変換においては,確率的言語モデルに加えて,仮名漢字モデルが用いられる.仮名漢字モデルは,入力記号列と単語の対応を記述する.音声認識では,仮名漢字モデルの代わりに,発音と単語の対応を記述する発音辞書と音響モデルが用いられる.確率的言語モデルの推定のためには,システムを適応する分野の大量のテキストが必要で,その文は単語に分割されている必要がある.このため,日本語を対象とする場合には,自動単語分割や形態素解析が必要であるが,ある程度汎用性のあるツールが公開されており,辞書の追加などで一般的な分野の言語モデルが構築可能となっている.仮名漢字モデルや発音辞書における確率の推定には,実際の使用における単語の読みの頻度を計数する必要がある.しかしながら,読み推定をある程度の汎用性と精度で行うツールは存在しない\footnote{音声認識では発音が必要で,仮名漢字変換では入力記号列が必要である.これらは微妙に異なる.本論文では,この違いを明確にせず両方を意味する場合に「読み」という用語を用いる.}.したがって,仮名漢字モデルを比較的小さい読み付与済みコーパスから推定したり\cite{確率的モデルによる仮名漢字変換},後処理によって,一部の高頻度語にのみ文脈に応じた発音を付与し,他の単語に関しては,各発音の確率を推定せずに一定値としている\cite{音声認識システム}のが現状である.一方で,単語(表記)を言語モデルの単位とすることには弊害がある.例えば,「…するや,…した」という発声が,「…する夜,…した」と書き起こされることがある.この書き起こし結果の「夜」は,この文脈では必ず「よる」と発音されるので,「夜」と書き起こすのは不適切である.この問題は,単語を言語モデルの単位とする仮名漢字変換においても同様に起こる.これは,単語の読みの確率を文脈と独立であると仮定して推定(あるいは一定値に固定)していることに起因する.このような問題を解決するために,本論文では,まず,すべての単語を読みで細分化し,単語と読みの組を単位とする言語モデルを利用することを提案する.仮名漢字変換や音声認識において,単語と品詞の組を言語モデルの単位とすることや,一部の高頻度語を読みで細分化することが行われている\cite{確率的モデルによる仮名漢字変換}\cite{音声認識システム}.提案手法は,品詞ではなく読みですべての単語を細分化することとみなすこともできるので,提案手法は既存手法から容易に類推可能であろう.しかしながら,提案手法を実現するためには,文脈に応じた正確な読みを様々な分野のテキストに対してある程度の精度で推定できる必要がある.このため,提案手法を実現したという報告はない.単語を単位とする言語モデルのパラメータは,自動単語分割の結果から推定される.自動単語分割の精度は十分高いとはいえ,一定の割合の誤りは避けられない.この問題による悪影響を避けるために,確率的単語分割\cite{確率的単語分割コーパスからの単語N-gram確率の計算}という考えが提案されている.この方法では,各文字の間に単語境界が存在する確率を付与し,その確率を参照して計算される単語$n$-gramの期待頻度を用いて言語モデルを構築する.計算コストの削減のために,実際には,各文字間に対してその都度発生させた乱数と単語境界確率の比較結果から単語境界か否かを決定することで得られる擬似確率的単語分割コーパスから従来法と同様に言語モデルが構築される\cite{擬似確率的単語分割コーパスによる言語モデルの改良}.単語と読みの組を単位とする言語モデルのパラメータは,自動単語分割および自動読み推定の結果から推定される.自動単語分割と同様に,自動読み推定の精度は十分高いとしても,一定の割合の誤りは避けられず,言語モデルのパラメータ推定に悪影響がある.これを回避するために,確率的タグ付与とその近似である擬似確率的タグ付与を提案する.実験では,タグとして入力記号列を採用し,単語と入力記号列の組を単位とする言語モデルを用いる仮名漢字変換器を構築し,単語を単位とする言語モデルを用いる場合や,決定的な単語分割や入力記号付与などの既存手法に対する提案手法の優位性を示す.
\section{統計的仮名漢字変換}
\label{section:KKC}統計的手法による仮名漢字変換\cite{確率的モデルによる仮名漢字変換}は,キーボードから直接入力可能な入力記号$\calY$の正閉包$\Bdma{y}\in{\calY}^{+}$を入力として,日本語の文字$\calX$の正閉包である変換候補$(\Bdma{x}_{1},\;\Bdma{x}_{2},\;\cdots)$を確率値$P(\Bdma{x}|\Bdma{y})$の降順に提示する\footnote{一般的な仮名漢字変換フロントエンドと同様に,ローマ字から(主に)平仮名への変換が行われると仮定している.したがって,入力記号は${\calY}=\{A,B,\cdots,Z,0,1,\cdots,9,ぁ,あ,\cdots,ん,ヴ,ヵ,ヶ,ー,=,¥,`,「,」,;,’,、,。,!,@,#,$,%,^,&,*,(,),_,+,|,〜,{,},:,”,<,>,?,・\}$である.}.文献\Cite{確率的モデルによる仮名漢字変換}では文を単語列$\Bdma{w}=\Conc{w}{h}$とみなし,これを単語$w\in{\calX}^{+}$を単位とする言語モデルと仮名漢字モデルに分解して実現する方法を提案している.本節では,まずこれについて説明し,次に単語と読みを組とする言語モデルによる方法を提案し定式化する.\subsection{従来手法}文献\Cite{確率的モデルによる仮名漢字変換}では,変換候補を$P(\Bdma{w}|\Bdma{y})$で順序付けすることを提案しており,これを次の式が示すように,単語を単位とする言語モデルと仮名漢字モデルに分解する\footnote{正確には,単語と品詞の組を単位とする言語モデルを提案している.}.\begin{equation}\label{equation:M1}P(\Bdma{w}|\Bdma{y})=\frac{P(\Bdma{y}|\Bdma{w})P(\Bdma{w})}{P(\Bdma{y})}\end{equation}ここで,後述するパラメータ推定のために,単語と入力記号列との対応関係は各単語において独立であるとの仮定をおく.さらに,分母$P(\Bdma{y})$は出力に依らないので,分子だけを以下のようにモデル化する.\begin{gather}P(\Bdma{y}|\Bdma{w})P(\Bdma{w})=\prod_{i=1}^{h}P(\Bdma{y}_{i}|w_{i})P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})\nonumber\\P(\Bdma{y}_{i}|w_{i})P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})=\begin{cases}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})P(\Bdma{y}_{i}|w_{i})&\text{if}\w_{i}\in{\calW}\\P(\UW|\Bdma{w}_{i-n+1}^{i-1})M_{y,n}(\Bdma{y}_{i})&\text{if}\w_{i}\not\in{\calW}\end{cases}\label{eqnarray:KKConv1}\end{gather}ここで${\calW}$は確率的言語モデルの語彙を表す.簡単のために,この式の中の$w_{i}\;(i\leq0)$は,文頭に対応する特別な記号\BTであり,これは文末$w_{h+1}$も表す.この式の$P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})$と$P(\UW|\Bdma{w}_{i-n+1}^{i-1})$は,語彙に\BTと未知語記号\UWを加えた${\calW}\cup\{\BT,\UW\}$上の$n$-gramモデルである.パラメータは,単語に分割されたコーパスから以下の式を用いて最尤推定する.\begin{equation}\label{equation:LM}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})=\frac{f(\Bdma{w}_{i-n+1}^{i})}{f(\Bdma{w}_{i-n+1}^{i-1})}\end{equation}この式中の$f(e)$は,事象$e$のコーパスにおける頻度を表す.\figref{figure:LMA}が示すように,この学習コーパスには自動単語分割の結果であることが多いが,自動単語分割器の学習に用いたタグ付きコーパスが利用可能な場合にはこれを加えることもある.\begin{figure}[tb]\begin{center}\includegraphics{18-2ia1f1.eps}\end{center}\caption{単語を単位とする言語モデルの作成の手順}\label{figure:LMA}\end{figure}\equref{eqnarray:KKConv1}の$P(\Bdma{y}_{i}|w_{i})$は,単語単位の仮名漢字モデルであり,パラメータは,単語に分割されかつ各単語に入力記号列が付与されたコーパスから以下の式を用いて最尤推定する.\begin{equation}\label{equation:PM}P(\Bdma{y}_{i}|w_{i})=\frac{f(\Bdma{y}_{i},\;w_{i})}{f(w_{i})}\end{equation}\equref{eqnarray:KKConv1}から分かるように,単語単位の仮名漢字モデルでは,単語と入力記号列との対応関係が各単語において独立であると仮定している.この仮定により,比較的少量の入力記号列付与済みコーパスからある程度信頼できるパラメータを推定することができる.\equref{eqnarray:KKConv1}の$M_{y,n}(\Bdma{y}_{i})$は,未知語モデルであり,入力記号の集合に単語の両端を表す記号を加えた${\calY}\cup\{\BT\}$上の$n$-gramモデルで実現される\footnote{文献\Cite{確率的モデルによる仮名漢字変換}によれば,あるテストコーパスにおいて未知語を構成する文字の33.0\%が片仮名であった.入力記号集合は主に平仮名からなるが,この先行研究と同様に,出力においてはこれらを片仮名とする.}.このパラメータは低頻度の単語に対応する入力記号列から推定する.\subsection{提案手法}本論文では,言語モデルの単位を単語と入力記号列の組$u=\unit$とすることを提案する.その上で,以下の式のように$P(\Bdma{w}|\Bdma{y})$をモデル化する.\[P(\Bdma{w}|\Bdma{y})=\frac{P(\Bdma{w},\Bdma{y})}{P(\Bdma{y})}=\frac{P(\Bdma{u})}{P(\Bdma{y})}\]分母$P(\Bdma{y})$は出力に依らないので,分子だけを以下のようにモデル化する.\begin{gather}P(\Bdma{u})=\prod_{i=1}^{h}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})\nonumber\\P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})=\begin{cases}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})&\text{if}\u_{i}\in{\calU}\\P(\UU|\Bdma{u}_{i-n+1}^{i-1})M_{u,n}(u_{i})&\text{if}\u_{i}\not\in{\calU}\end{cases}\label{eqnarray:KKConv2}\end{gather}ここで${\calU}$は言語モデルの語彙(単語と入力記号列の組の集合)を表す.この式の中の$u_{i}\;(i\leq0)$と$u_{h+1}$は,単語を単位とする場合と同様に,文頭と文末に対応する記号\BTである.また\UUは未知の組を表す記号である.\equref{eqnarray:KKConv2}の$M_{u,n}(u)=M_{u,n}(\unit)$は未知語モデルである.従来手法と同様に,大きな学習コーパスを用いれば実際の使用における未知語率は極めて低く,また未知語に対する正確な仮名漢字変換は困難であると考えて,アルファベット${\calU}$上の未知語モデルの代わりにアルファベット${\calY}$上の未知語モデル$M_{y,n}(\Bdma{y})$を用いることとする.これは,\equref{eqnarray:KKConv1}と共通である.以上から,提案手法の仮名漢字変換は,以下の式のようになる.\begin{equation}\label{eqnarray:KKConv3}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})=\begin{cases}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})&\text{if}\u_{i}\in{\calU}\\P(\UU|\Bdma{u}_{i-n+1}^{i-1})M_{y,n}(\Bdma{y}_{i})&\text{if}\u_{i}\not\in{\calU}\end{cases}\end{equation}ここで$\Bdma{y}_{i}=y(u_{i})$は$u_{i}=\unitA1{i}$の入力記号列である.なお,$M_{u,n}(u)$の代わりに$M_{y,n}(\Bdma{y})$を用いることは以下の式で与えられる近似であり,${\calY}\subsetneq{\calX}$であるので,入力記号列のみからなる文字列を未知語として出力することになる.\[M_{u,n}(u)=M_{u,n}(\unit)\approx\begin{cases}M_{y,n}(\Bdma{y})&\text{if}\w\in{\calY}^{+}\\0&\text{if}\w\not\in{\calY}^{+}\end{cases}\]この式の$M_{y,n}(\Bdma{y})$のパラメータは,学習コーパスにおける語彙${\calU}$に含まれない表記と入力記号列の組の入力記号列から推定する.これは,学習コーパスにおける未知の組の単語を入力記号列に置き換えた結果から$M_{u,n}(u)$を推定しているのと同じである.\begin{figure}[t]\begin{center}\includegraphics{18-2ia1f2.eps}\end{center}\caption{単語と読みの組を単位とする言語モデルの作成の手順}\label{figure:LMB}\end{figure}\equref{eqnarray:KKConv3}の$P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})$と$P(\UU|\Bdma{u}_{i-n+1}^{i-1})$は,語彙に\BTと\UUを加えた${\calU}\cup\{\BT,\UU\}$上の$n$-gramモデルである.パラメータは,単語に分割されかつ入力記号列が付与されたコーパスから以下の式を用いて最尤推定する.\begin{equation}\label{equation:UM}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})=\frac{f(\Bdma{u}_{i-n+1}^{i})}{f(\Bdma{u}_{i-n+1}^{i-1})}\end{equation}\figref{figure:LMB}が示すように,この学習コーパスには自動単語分割・読み付与の結果を用いることができる.さらに自動単語分割器や読み付与の学習に用いたタグ付きコーパスが利用可能な場合にはこれを加えることもできる(\figref{figure:LMB}の点線).単語を単位とする従来手法と同程度の信頼性となるパラメータを推定するために,従来手法においてパラメータ推定に用いられる単語に分割されたコーパスと同程度の量の単語に分割されかつ入力記号列が付与されたコーパスが必要である.換言すれば,自動単語分割と同程度の精度で入力記号列を推定するシステムが必要である.これまで,各単語に対する入力記号列(読み)をその文脈に応じて十分な精度で推定する研究やフリーウェアがなかったために,提案手法は現実的ではなかったと思われる\footnote{研究としては文献\Cite{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}があるが,公開されていない.また,読み推定ツールとしてKAKASI(http://kakasi.namazu.org/,2010年5月)があるが,様々な分野において十分な精度とはいえない.}.次節では,この方法を説明し,さらに入力記号列を確率的に付与することで,入力記号列の推定誤りの影響を緩和する方法を提案する.
\section{仮名漢字変換のための言語資源とその処理}
\label{section:LRS}仮名漢字変換や音声認識のための言語モデルは,単語分割済みコーパスと生コーパスの自動単語分割結果から構築される.この節では,まずこの過程を概説する.次に,前節で提案したモデルのパラメータをより正確に推定するために,単語に入力記号列や発音などのタグを確率的に付与することを提案する.\subsection{コーパス}仮名漢字変換や音声認識のための単語を単位とする言語モデル作成においては,これらを適用する分野のコーパスが必須である.一般に,コーパスには単語境界情報がないので,自動単語分割器\cite{点推定と能動学習を用いた自動単語分割器の分野適応}や形態素解析器\cite{日本語形態素解析システムJUMAN使用説明書.version.1.0,確率的形態素解析,統計的言語モデルとN-best探索を用いた日本語形態素解析法,形態素クラスタリングによる形態素解析精度の向上,Conditional.Random.Fields.を用いた日本語形態素解析}を用いて文を言語モデルの単位に分割し,その結果に対して単語$n$-gram頻度を計数する(\figref{figure:LMA}参照)\inhibitglue\footnote{形態素解析を利用する場合は,品詞も付与されるので,単語と品詞の組を単位とすることもあるが,仮名漢字変換や音声認識の出力に品詞は不要なので,実質的には品詞の異なる同音異義語の識別程度の効果しかない.さらに,茶筌などを利用すると「読み」も付与されるが,これらは文脈に依存しないので実質的には付与していないのと同じである.}.なお,これら自動単語分割器や形態素解析器などの自然言語処理システムは,単語分割済みあるいは品詞付与済みのコーパスから学習することが多い.その場合には,これら自然言語処理システムの学習コーパスも言語モデルの学習コーパスに加えることができる(\figref{figure:LMA}の点線)が,実際には,これら自然言語処理システムはツールとして配布され,辞書追加程度の適応しかなされず,自然言語処理システムの学習コーパスが言語モデルの学習に利用されることは少ない.\subsection{形態素解析と自動単語分割}形態素解析は,日本語の自然言語処理の第一段階として研究され,ルールに基づく方法が一定の成果を上げた\cite{日本語形態素解析システムJUMAN使用説明書.version.1.0}.同じ頃,統計的手法\cite{確率的形態素解析,統計的言語モデルとN-best探索を用いた日本語形態素解析法}が提案され,アルゴリズムとデータの分離に成功した.統計的手法は,ルールに基づく方法と同等かそれ以上の精度を達成しており,現在では主流になっている.さらに,フリーソフトとして公開され,容易に利用可能となっている.このような背景から,仮名漢字変換や音声認識のための言語モデル作成のために,形態素解析が用いられている.結果的に,単語(表記)と品詞の組を言語モデルの単位とすることが多い\footnote{音声認識\cite{音声認識システム}ではすべての可能な読みも付加しているが,文脈に応じた読みは付与されず,同音異義語の峻別には用いられていない.}.しかしながら,仮名統計的漢字変換や音声認識等の実現には品詞情報は不要であり,形態素解析器の学習コーパス作成のコストを不必要に増大させるのみである.また,英語等の単語間に空白を置く言語の音声認識においては,言語モデルの単位として当然単語が用いられる.日本語においても単語を言語モデルの単位とする音声認識の取り組みがあり,十分な認識精度を報告している\cite{単語を認識単位とした日本語の大語彙連続音声認識}.以上の考察から,本論文では,単語と品詞の組を言語モデルの単位とする手法は,単語を単位とする手法に含まれるとして,以下の議論を展開する.言語モデルの構築においては,適応対象の分野の大量のテキストに対する統計をとることが非常に有用である.このため,形態素解析や自動単語分割等の自動処理が必須であるが,自動処理の結果は一定量の誤りを含む.この単語分割誤りによる悪影響を緩和するために,確率的に単語に分割することが提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この手法では,自動単語分割器によって各文字の間に単語境界がある確率を付与し,その確率を参照して計算される単語$n$-gramの期待頻度を用いて言語モデルが構築される.実用上は,モンテカルロシミュレーションのように,各文字間に対して都度発生させた乱数と単語境界確率の比較結果から単語境界か否かを決定することで得られる擬似確率的単語分割コーパスから従来法と同様に言語モデルが構築される\cite{擬似確率的単語分割コーパスによる言語モデルの改良}.\subsection{自動読み推定}前節で,仮名漢字変換のための言語モデルの単位として単語と入力記号列の組を用いることを提案した.この考え自体は特に新規ではなく,以前から存在している.実際,音声認識において,数詞のあとの「本」など一部の高頻度語に文脈に応じた発音を付与する後処理が行われている\cite{音声認識システム}.また,発音レベルでの書き起こしが得られる場合に,単語と発音の対応を推定し,単語と品詞と発音の組を単位をとする言語モデルを構築する研究もある\cite{講演音声認識のための音響・言語モデルの検討}.しかしながら,この考えを一般的な場合において実現するためには,高精度の自動読み推定システムが必要である.前述の形態素解析の研究とその成果であるフリーソフトにおいては,読みの推定は軽視されており,文脈に応じた読みを高い精度で出力する研究やフリーソフトはなかった.このため,単語と入力記号列の組や単語と発音の組を単位とする言語モデルは一般的な意味で実現されていなかった.前節で提案した単語と入力記号列の組を単位とする言語モデルの構築においては,コーパスを単語に分割し,文脈に応じた読みを付与することができるKyTea(京都テキスト解析ツールキット)\cite{仮名漢字変換ログの活用による言語処理精度の自動向上}を用いて適応対象の分野のテキストを自動的に単語と入力記号列の組の列に変換する(\figref{figure:LMB}参照).その結果から\equref{equation:UM}を用いて単語と入力記号列の組の$n$-gram確率を推定する.KyTeaの詳細は\appref{appe:kytea}に記述した.\subsection{確率的タグ付与}自動読み推定の結果は,形態素解析や自動単語分割等の自動処理の場合と同様に,一定量の誤りを含む.学習コーパスに含まれる読み推定誤りは,言語モデルや仮名漢字モデル,あるいは発音辞書に悪影響を及ぼす.特に,ある単語に対して至る所で同じ誤った読みを付与する場合には,非常に重大な問題となる.この問題を回避するために,確率的単語分割と同様に,単語に対する入力記号列付与や発音付与を確率的に行うことを提案する.すなわち,読み推定においては,ある単語に対する読みを決定的に推定するのではなく,可能な読みとその確率値を返すようにする.より一般的には,単語に対する読みや品詞などのタグ付与を,ある基準で最適となる唯一のタグを出力する処理ではなく,タグ$t$と確率値$p$の組の列$(\pair{t_{1}}{p_{1}},\pair{t_{2}}{p_{2}},\cdots)$を出力する処理へと一般化する.この際,タグの確率値は,周辺の他の単語のタグと独立であるとの仮定をおく.この結果得られるコーパスを確率的タグ付与コーパスと呼ぶ.確率的タグ付与コーパスの文$\Conc{w}{h}$は,以下のように,各単語に可能なタグと確率値の組の列が付与されている.\begin{gather*}\langlew_{1},(\pair{t_{1,1}}{p_{1,1}},\pair{t_{1,2}}{p_{1,2}},\cdots,\pair{t_{1,k_1}}{p_{1,k_1}})\rangle\\\langlew_{2},(\pair{t_{2,1}}{p_{2,1}},\pair{t_{2,2}}{p_{2,2}},\cdots,\pair{t_{2,k_2}}{p_{2,k_2}})\rangle\\\vdots\\\langlew_{h},(\pair{t_{h,1}}{p_{h,1}},\pair{t_{h,2}}{p_{h,2}},\cdots,\pair{t_{h,k_h}}{p_{h,k_h}})\rangle\end{gather*}ここで,$t_{i,j}$と$p_{i,j}$はそれぞれ,$i$番目の単語の$j$番目のタグとその確率を表す.このような確率的タグ付与コーパスにおける単語とタグの組の$n$-gramの1回の出現あたりの頻度$f_{1}(\Bdma{u})$は,以下の式で計算される期待頻度として定義される.\begin{equation}\label{equation:STCFreq}f_{1}(\Bdma{u})=f_{1}(\pair{w_{1}}{t_{1,j_1}}\pair{w_{2}}{t_{2,j_2}}\cdots\pair{w_{n}}{t_{n,j_n}})=\prod_{i=1}^{n}p_{i,j_i}\end{equation}この値をコーパスにおけるすべての出現箇所に渡って合計した結果が\pagebreak単語とタグの組の列$\Bdma{u}$の期待頻度である.単語とタグの組の$n$-gram確率は,この期待頻度の相対値として定義される.仮名漢字変換のための言語モデル構築では,タグとして単語に対応する入力記号列を用いる.確率的入力記号列付与のためのモデルは,単語ごとに入力記号列が付与されたコーパスからロジスティック回帰などの点予測器を推定しておくことで実現できる.\subsection{擬似確率的タグ付与}\label{subsec:pseudo}確率的単語分割の場合と同様に,確率的タグ付与コーパスに対する単語とタグの組の列の頻度の計算は,決定的タグ付与コーパスに対する頻度計算と比べてはるかに多い計算を要する.実際,対象となる組の列としての頻度が$F$回とすると,\equref{equation:STCFreq}による期待頻度の計算は,各出現箇所における$(n-1)$回の浮動小数点の積を実行し($F(n-1)$回の乗算),その結果の総和を$(F-1)$回の加算により算出することになる.通常の決定的タグ付与コーパスに対する頻度の計算は,$F$回のインクリメントで済むことを考えると,非常に大きな計算コストが必要である.また,非常に小さい期待頻度の単語とタグの組の列が多数生成され,これによる計算コストの増大も起こる.このような計算コストの問題は,次に述べる擬似確率的タグ付与コーパスによって近似的に解決される.擬似確率的タグ付与コーパスは,各単語に対して都度発生させた乱数とタグの確率の比較結果から当該単語のタグを唯一に決定することで得られる単語とタグの組の列である.この手続きを複数回繰り返して得られるコーパスに対して頻度を計数することで確率的タグ付与コーパスの期待頻度の近似値が得られる.このときの繰り返し回数を倍率と呼ぶ.擬似確率的タグ付与コーパスは,確率的単語分割コーパス\cite{擬似確率的単語分割コーパスによる言語モデルの改良}と同様に一種のモンテカルロ法となっており,近似誤差に関しては以下の議論が同様に可能である.モンテカルロ法による$d$次元の単位立方体$[0,1]^{d}$上の定積分$I=\int_{[0,1]^{d}}f(x)dx$の数値計算法では,単位立方体$[0,1]^{d}$上の一様乱数$\Stri{x}{N}$を発生させて$I_{N}=\sum_{i=1}^{N}f(x_{i})$とする.このとき,誤差$|I_{N}-I|$は次元$d$によらずに$1/\sqrt{N}$に比例する程度の速さで減少することが知られている.擬似確率的タグ付与コーパスにおける単語とタグの組の$n$-gram頻度の計算はこの特殊な場合である.すなわち,\equref{equation:STCFreq}の値は,$n$次元の単位立方体中の矩形の部分領域($i$番目の軸方向の長さが$p_{i,j_{i}}$)の体積である.したがって,誤差は$n$の値によらずに$1/\sqrt{FN}$に比例する程度の速さで減少する.
\section{評価}
\label{section:評価}提案手法の評価のために,学習コーパスの作成の方法と言語モデルの単位が異なる仮名漢字変換を構築し,テストコーパスに対する変換精度を測定した.この節では,その結果を提示し提案手法の評価を行う.\subsection{実験条件}実験に用いたコーパスの諸元を\tabref{table:corpus}に掲げる.学習コーパスは,$L$と$R$の2種類である.学習コーパス$L$は,現代日本語書き言葉均衡コーパス2009年モニター版\cite{Balanced.Corpus.of.Contemporary.Written.Japanese}と日常会話の辞書の例文と新聞記事からなり,人手による単語分割と入力記号付与がなされている.学習コーパス$R$は新聞記事からなり,単語境界や入力記号などの付加情報はない.単語境界や入力記号の推定は,京都テキスト解析ツールキットKyTea\cite{点推定と能動学習を用いた自動単語分割器の分野適応}\footnote{Version0.1.0,http://www.phontron.com/kytea/(2010年10月).}によって行った.テストコーパス$T$は,学習コーパス$R$と同じ新聞の別の記事であり,変換精度の計算のために入力記号が付与されてある.\begin{table}[tb]\caption{コーパス}\input{01table01.txt}\label{table:corpus}\vspace{1\baselineskip}\end{table}\subsection{評価基準}\begin{figure}[tb]\begin{center}\includegraphics{18-2ia1f3.eps}\end{center}\caption{評価基準}\label{figure:criteria}\end{figure}仮名漢字変換の評価基準は,各入力文の一括変換結果と正解との最長共通部分列(LCS;longestcommonsubsequence)\cite{文字列中のパターン照合のためのアルゴリズム}の文字数に基づく再現率と適合率である(\figref{figure:criteria}参照).正解コーパスに含まれる文字数を$N_{COR}$とし,一括変換の結果に含まれる文字数を$N_{SYS}$とし,これらの最長共通部分列の文字数を$N_{LCS}$とすると,再現率は$N_{LCS}/N_{COR}$と定義され,適合率は$N_{LCS}/N_{SYS}$と定義される.\figref{figure:criteria}の例では,これらは以下のようになる.\begin{description}\item[\再現率:]$N_{LCS}/N_{COR}=5/8$\item[\適合率:]$N_{LCS}/N_{SYS}=5/11$\end{description}これらに加えて,文正解率も計算した.これは,変換結果が文全体に渡って一致している文の割合を表す.\subsection{評価}学習コーパスの作成の方法と言語モデルの単位による仮名漢字変換精度の差を調べるために,以下の3通りの方法で作成された学習コーパスのそれぞれから,単語を言語モデルの単位とする仮名漢字変換(\equref{eqnarray:KKConv1}参照)と単語と入力記号列の組を言語モデルの単位とする仮名漢字変換(\equref{eqnarray:KKConv3}参照)を作成した.言語モデルはすべて2-gramモデルである\footnote{音声認識で一般的な3-gramモデルを用いなかったのは,仮名漢字変換の先行研究\cite{確率的モデルによる仮名漢字変換}とその実用化の例\cite{Google.IME}が2-gramモデルを用いていること,仮名漢字変換での入力記号列は比較的短い傾向があり(第1著者の場合約2.2単語分)長い履歴が実際にはほとんど有効ではないこと,3-gramモデルは必要となる記憶域が増大し処理速度が低下するなど実用化に向かないことである.}.\par\KKC{DD}:決定的に単語分割し,決定的に入力記号列を付与する.\par\KKC{DS}:決定的に単語分割し,確率的に入力記号列を付与する.\par\KKC{SS}:確率的に単語分割し,確率的に入力記号列を付与する.\par\noindentここで,「確率的」は擬似確率的単語分割および疑似確率的入力記号付与を意味し,全て倍率は1とした.文献\cite{擬似確率的単語分割コーパスによる言語モデルの改良}では,1,890,041文字の生コーパスに対して1〜256の倍率による擬似確率的単語分割コーパスを評価している.その結果,倍率が8〜32程度で確率的単語分割コーパスと同程度の性能となっている.前後数単語の単語分割の可能性は16〜32通り程度(その出現にも偏りがある)なので高頻度の単語(候補)の高頻度の文脈はある程度大きいコーパスであれば,倍率が1の擬似確率的単語分割コーパスでも十分に真の分布に近い推定値が得られると考えられる.本実験での生コーパスの文字数は,この文献での実験の約27.9倍であり,ある程度の頻度の組の列$\Bdma{u}$の出現頻度(\subref{subsec:pseudo}の$F$)は約27.9倍となっていることが期待される.したがって,倍率(第3.5項の$N$)が1であっても,上述の文献における実験での倍率27.9に相当し,確率的タグ付与コーパス($N\rightarrow\infty$)に近い性能が期待される.3つの学習コーパスの作成の方法と2つの言語モデルの単位のすべての組み合わせによる仮名漢字変換の精度を\tabref{table:result}に示す.表中のIDの最初の2文字は学習コーパスの作成の方法を表し,次の1文字は言語モデルの単位を表す.文献\Cite{確率的モデルによる仮名漢字変換}は,単語と品詞の組を言語モデルの単位とし,生コーパスの形態素解析結果を学習コーパスに利用していないが,生コーパスの利用による精度向上は広く一般に知られているので,単語を言語モデルの単位とし,生コーパスの決定的な単語分割と入力記号列付与結果を利用する\KKC{DDw}が既存手法に対応するとし,これをベースラインとする.\begin{table}[t]\caption{仮名漢字変換の精度2-gram}\input{01table02.txt}\label{table:result}\end{table}まず,\tabref{table:result}中の\KKC{DDw}と\KKC{DSw}と\KKC{SSw}の比較についてである.これらは,すべて単語を言語モデルの単位とする.自動分割と入力記号付与の両方を決定的に行った結果から言語モデルを推定するベースライン\KKC{DDw}に対して,入力記号付与を確率的に行う\KKC{DSw}はより高い変換精度となっている.これにより,入力記号付与を確率的に行うことが有効であることが分かる.\KKC{DDw}と\KKC{DSw}の言語モデルは共通で,違いは仮名漢字モデルのみである.このことから,入力記号付与を確率的に行うことで,仮名漢字モデルがより適切に推定できることが分かる.さらに,単語分割も確率的に行う\KKC{SSw}の精度は,入力記号付与のみを確率的に行う\KKC{DSw}よりも高くなっている.このことから,確率的入力記号付与は,確率的単語分割\cite{擬似確率的単語分割コーパスによる言語モデルの改良}と協調して精度向上に寄与することがわかる.次に,\tabref{table:result}中の\KKC{DDu}と\KKC{DSu}と\KKC{SSu}の比較についてである.これらは,すべて単語と入力記号列の組を言語モデルの単位とする.この場合も,確率的に入力記号を付与することで精度が向上し,単語分割も確率的に行うことでさらに精度が向上していることが分かる.さらに,言語モデルの単位の差異についてである.\tabref{table:result}から,\KKC{DDw}と\KKC{DDu},\KKC{DSw}と\KKC{DSu},\KKC{SSw}と\KKC{SSu}のいずれの組の比較においても,言語モデルの単位を単語から単語と入力記号列の組に変更することで変換精度が向上していることが分かる.\begin{figure}[tb]\begin{center}\includegraphics{18-2ia1f4.eps}\end{center}\caption{疑似確率的単語分割と疑似タグ付与の合計の倍率($m^{2}$)と仮名漢字変換精度の関係}\label{figure:graph}\end{figure}最後に,提案手法\KKC{SSu}における倍率と精度の関係についてである.これを調べるために,$m$倍の疑似確率的単語分割の各結果に対する$m$倍の疑似確率的タグ付与の結果(合計$m^2$,$m\in\{1,\,2,\,4\}$)を用いた場合の精度を計算した.\figref{figure:graph}は,倍率と精度の関係である($m=1$は,\tabref{table:result}の\KKC{SSu}と同じ).この結果から,倍率を上げることで,少しではあるが精度が向上することがわかる.一方で,それぞれの場合の語彙(表記と読みの組)のサイズは順に,123,078組,181,800組,295,801組であり,単語分割とタグ付与を決定的に行う\KKC{DDu}の99,210組との差は,倍率が大きくなるに従って非常に大きくなる.\figref{figure:graph}から精度の差は大きくないので,倍率は$1^2$か$2^2$程度が現実的であろう.以上のことから,仮名漢字変換の言語モデルを単語から単語と入力記号列の組とし,入力記号を確率的に付与したコーパスからこれを推定することが有効であると言える.さらに,確率的単語分割と組み合わせることでさらなる精度向上が実現できると結論できる.
\section{おわりに}
本論文では,単語分割済みコーパスの各単語に対して,確率的にタグを付与することを提案した.具体的なタグとして単語の読みを採用し,ある単語がある読みになる確率を読みが付与されていないコーパスから推定することを実現した.さらに,単語分割済みコーパスから自動読み推定を用いて表記と読みの組を単位とする確率的言語モデルを推定し,仮名漢字変換に用いることを提案した.実験では,単語分割や読み推定が決定的にあるいは確率的に行われているコーパスから,単語を単位とする言語モデルと,単語と読みの組を単位とする言語モデルを推定し,仮名漢字器を構築した.これら複数の仮名漢字器の変換精度を比較した結果,単語と読みの組を言語モデルの単位とし,そのパラメータを確率的に単語分割されかつ確率的に読み付与されたコーパスから推定することで最も高い変換精度となることが分かった.したがって,本論文で提案する単語と読みの組を単位とする言語モデルと,確率的タグ付与コーパスの概念は有用であると結論できる.\appendix\newtheorem{命題}{}\newtheorem{証明}{}
\section{自動読み推定}
\label{appe:kytea}本論文で用いた自動読み推定\cite{仮名漢字変換ログの活用による言語処理精度の自動向上}は,コーパスに基づく方法であり,単語に分割された文を入力とし,単語毎に独立に以下の分類に基づいて読み推定が行われる.\begin{description}\item[Q$_1$]学習コーパスに出現しているか\item[\]はい\begin{description}\item[Q$_2$]読みが唯一か複数か\item[\]複数$\Rightarrow$ロジスティック回帰\cite{LIBLINEAR:.A.Library.for.Large.Linear.Classication}を用いて読みを選択\item[\]唯一$\Rightarrow$その読みを選択\end{description}\item[\]いいえ\begin{description}\item[Q$_2^{'}$]辞書に入っているか\item[\]はい$\Rightarrow$最初の項目の読みを選択\item[\]いいえ$\Rightarrow$文字と読みの2-gramモデルによる最尤の読みを選択\end{description}\end{description}複数の読みが可能でその確率が必要な場合には,ロジスティック回帰の出力確率や文字と読みの2-gramモデルによる生成確率を正規化した値を利用する.分類器の学習に用いたコーパスは,現代日本語書き言葉均衡コーパス\cite{Balanced.Corpus.of.Contemporary.Written.Japanese}であり,辞書はUniDic\cite{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}である.学習コーパスとして33,147文(899,025単語,1,292,249文字)を用い,テストコーパスとして同一分野の3,681文(98,634単語,141,655文字)を用いた場合の読み推定精度を測定した.評価基準は,入力記号単位の適合率と再現率である.その結果,一般的な手法である単語と読みを組とする3-gramモデル\Cite{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}の適合率と再現率はそれぞれ99.07\%と99.12\%であり,本論文で用いた自動読み推定の適合率と再現率はそれぞれ99.19\%と99.26\%であった.この結果から,本論文で用いた自動読み手法は,既存手法と同程度の精度となっていることがわかる.\acknowledgment本研究の一部は,科学研究費補助金・若手A(課題番号:08090047)により行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aho}{Aho}{1990}]{文字列中のパターン照合のためのアルゴリズム}Aho,A.~V.\BBOP1990\BBCP.\newblock\JBOQ文字列中のパターン照合のためのアルゴリズム\JBCQ\\newblock\Jem{コンピュータ基礎理論ハンドブック}.I:形式的モデルと意味論\JVOL,\mbox{\BPGS\263--304}.ElsevierSciencePublishers.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--122}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{LIBLINEAR:.A.Library.for.Large.Linear.Classication}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassication.''\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Google}{Google}{2010}]{Google.IME}Google\BBOP2010\BBCP.\newblock\newblock\BBOQGoogleIME.\BBCQ\newblockhttp://www.google.com/intl/ja/ime/(2010年10月).\bibitem[\protect\BCAY{Jelinek}{Jelinek}{1985}]{Self-Organized.Language.Modeling.for.Speech.Recognition}Jelinek,F.\BBOP1985\BBCP.\newblock\BBOQSelf-OrganizedLanguageModelingforSpeechRecognition.\BBCQ\\newblockTech.rep.,IBMT.J.WatsonResearchCenter.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Conditional.Random.Fields.を用いた日本語形態素解析}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblockConditionalRandomFieldsを用いた日本語形態素解析.\newblock\Jem{情報処理学会研究報告},NL161\JVOL.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2008}]{Balanced.Corpus.of.Contemporary.Written.Japanese}Maekawa,K.\BBOP2008\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponAsianLanguageResources},\mbox{\BPGS\101--102}.\bibitem[\protect\BCAY{丸山\JBA荻野\JBA渡辺}{丸山\Jetal}{1991}]{確率的形態素解析}丸山宏\JBA荻野紫穂\JBA渡辺日出雄\BBOP1991\BBCP.\newblock確率的形態素解析.\newblock\Jem{日本ソフトウェア科学会第8回大会論文集},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{松本\JBA黒橋\JBA宇津呂\JBA妙木\JBA長尾}{松本\Jetal}{1993}]{日本語形態素解析システムJUMAN使用説明書.version.1.0}松本裕治\JBA黒橋禎夫\JBA宇津呂武仁\JBA妙木裕\JBA長尾眞\BBOP1993\BBCP.\newblock\Jem{日本語形態素解析システムJUMAN使用説明書version1.0}.\newblock京都大学工学部長尾研究室.\bibitem[\protect\BCAY{森\JBA長尾}{森\JBA長尾}{1998}]{形態素クラスタリングによる形態素解析精度の向上}森信介\JBA長尾眞\BBOP1998\BBCP.\newblock形態素クラスタリングによる形態素解析精度の向上.\newblock\Jem{自然言語処理},{\Bbf5}(2),\mbox{\BPGS\75--103}.\bibitem[\protect\BCAY{森\JBANeubig}{森\JBANeubig}{2010}]{仮名漢字変換ログの活用による言語処理精度の自動向上}森信介\JBANeubigGraham\BBOP2010\BBCP.\newblock仮名漢字変換ログの活用による言語処理精度の自動向上.\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{森\JBA小田}{森\JBA小田}{2009}]{擬似確率的単語分割コーパスによる言語モデルの改良}森信介\JBA小田裕樹\BBOP2009\BBCP.\newblock擬似確率的単語分割コーパスによる言語モデルの改良.\newblock\Jem{自然言語処理},{\Bbf16}(5),\mbox{\BPGS\7--21}.\bibitem[\protect\BCAY{森\JBA宅間\JBA倉田}{森\Jetal}{2007}]{確率的単語分割コーパスからの単語N-gram確率の計算}森信介\JBA宅間大介\JBA倉田岳人\BBOP2007\BBCP.\newblock確率的単語分割コーパスからの単語N-gram確率の計算.\newblock\Jem{情報処理学会論文誌},{\Bbf48}(2),\mbox{\BPGS\892--899}.\bibitem[\protect\BCAY{森\JBA土屋\JBA山地\JBA長尾}{森\Jetal}{1999}]{確率的モデルによる仮名漢字変換}森信介\JBA土屋雅稔\JBA山地治\JBA長尾真\BBOP1999\BBCP.\newblock確率的モデルによる仮名漢字変換.\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),\mbox{\BPGS\2946--2953}.\bibitem[\protect\BCAY{村上}{村上}{1991}]{漢字かなのTRIGRAMをもちいたかな漢字変換方法}村上仁一\BBOP1991\BBCP.\newblock漢字かなのTRIGRAMをもちいたかな漢字変換方法.\newblock\Jem{情報処理学会第43回全国大会},3\JVOL,\mbox{\BPGS\287--288}.\bibitem[\protect\BCAY{長野\JBA森\JBA西村}{長野\Jetal}{2006}]{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}長野徹\JBA森信介\JBA西村雅史\BBOP2006\BBCP.\newblockN-gramモデルを用いた音声合成のための読み及びアクセントの同時推定.\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1793--1801}.\bibitem[\protect\BCAY{永田}{永田}{1999}]{統計的言語モデルとN-best探索を用いた日本語形態素解析法}永田昌明\BBOP1999\BBCP.\newblock統計的言語モデルとN-best探索を用いた日本語形態素解析法.\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{Neubig\JBA中田\JBA森}{Neubig\Jetal}{2010}]{点推定と能動学習を用いた自動単語分割器の分野適応}Neubig,Graham,中田陽介\JBA森信介\BBOP2010\BBCP.\newblock点推定と能動学習を用いた自動単語分割器の分野適応.\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{西村\JBA伊東\JBA山崎}{西村\Jetal}{1999}]{単語を認識単位とした日本語の大語彙連続音声認識}西村雅史\JBA伊東伸泰\JBA山崎一孝\BBOP1999\BBCP.\newblock単語を認識単位とした日本語の大語彙連続音声認識.\newblock\Jem{情報処理学会論文誌},{\Bbf40}(4),\mbox{\BPGS\1395--1403}.\bibitem[\protect\BCAY{鹿野\JBA伊藤\JBA河原\JBA武田\JBA山本}{鹿野\Jetal}{2001}]{音声認識システム}鹿野清宏\JBA伊藤克亘\JBA河原達也\JBA武田一哉\JBA山本幹雄\BBOP2001\BBCP.\newblock\Jem{音声認識システム}.\newblockオーム社.\bibitem[\protect\BCAY{堤\JBA加藤\JBA小坂\JBA好田}{堤\Jetal}{2002}]{講演音声認識のための音響・言語モデルの検討}堤怜介\JBA加藤正治\JBA小坂哲夫\JBA好田正紀\BBOP2002\BBCP.\newblock講演音声認識のための音響・言語モデルの検討.\newblock\Jem{電子情報通信学会技術研究会報告},\mbox{\BPGS\117--122}.\end{thebibliography}\begin{biography}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム(株)入社.2007年より京都大学学術情報メディアセンター准教授.現在に至る.自然言語処理ならびに計算言語学の研究に従事.工学博士.1997年情報処理学会山下記念研究賞受賞.2010年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.情報処理学会会員.}\bioauthor{笹田鉄郎}{2007年京都大学工学部電気電子工学科卒業.2009年同大学院情報学研究科修士課程修了.同年同大学院博士後期課程に進学.現在に至る.}\bioauthor[:]{NeubigGraham}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.同年同大学院博士後期課程に入学.現在に至る.自然言語処理に関する研究に従事.}\end{biography}\biodate\end{document}
| |
V31N01-09
|
\section{はじめに}
label{sec:introduction}語ることは人間の基本的な欲求である.語る行為は,聴き手がいて初めて成立する.国内では,独居高齢者の増加など社会の個人化が進み\cite{EN_kozinka-2019},聴き手不在の生活シーンが増加しており,人が語れる機会を増やすことが重要な社会課題となっている.これに対し,コミュニケーションロボットやスマートスピーカーなどの会話エージェントが語りを聴く役割を担うことが考えられる.これらが聴き手として認められるには,語りを傾聴していることを語り手に伝達する機能を備える必要がある.このための明示的な手段は語りに応答することであり,傾聴を示す目的で語りに応答する発話,すなわち{\emph{傾聴応答}}の表出が有力である.これまでに,相槌をはじめとする傾聴応答の生成法が検討されている\cite{EN_Noguchi-1998,EN_Ward-2000,EN_Cathcart-2003,EN_Fujie-2004,EN_Kitaoka-2005,EN_Poppe-2010,EN_Morency-2010,EN_Yamaguchi-2016,JP_EN_Ohno-2017,EN_Ruede-2017,EN_Jang-2021}.\par語りの傾聴では,語り手に理解を示し,共感を伝えることが重要とされており,反対に,傾聴において相手の話を否定することは,語り手の心を遠ざける原因になりかねない\cite{JP_EN_Ohtani-2019}.そのため,語り手の発話を受容することが,語りを傾聴する聴き手の基本的な応答方略となる.例えば,傾聴応答の代表例である相槌は,「語りを続けて」というシグナルや内容理解を示す機能を持っており\nocite{JP_EN_Maynard-1993}(メイナード1993),これも,語りを受容していることを伝えるものといえる.一方で,語りでは,時として自虐や謙遜などの発話が行われることがある.この場合,その発話内容を否定することなくそのまま受容することは必ずしも適切ではなく,語り手の発話に同意しないことを示す応答,すなわち,{\emph{不同意応答}}を積極的に表出することが求められる.このように,語りの傾聴を担う会話エージェントが不同意を示すべき発話を検出し応答できることは不可欠な機能であるものの,傾聴応答生成に関する従来研究において,不同意応答の生成に関する試みは行われていない.\parそこで本論文では,語りを傾聴する会話エージェントによる不同意応答生成の実現性を示す.語り手による自虐や謙遜などの発話をそのまま受容することは致命的であり,このような場面で適切に不同意応答を生成できれば,語りの傾聴を語り手に伝達する上で高い効果が見込まれる.\par傾聴応答における不同意応答生成の適切なタイミングや表現は規則的に定まるものではなく,データに基づき決定することが現実的である.そのような不同意応答生成の実現性を示すために,%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item不同意応答の生成に利用できる応答コーパスを作成できること,ならびに,\label{enu:approach1}\item応答コーパスを用いて不同意応答を適切に生成できること\label{enu:approach2}\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%を示す必要がある.そのために本研究では,まず,語りデータに対して,不同意応答をタグ付けする基準を定め,不同意応答の生成に適したコーパスの作成可能性を実証する.続いて,事前学習済みのTransformer\cite{EN_Vaswani-2017}ベースのモデルに基づく手法を実装し,不同意応答の表出に適したタイミング(以下,不同意応答タイミング)の検出実験,及び,表出する表現(以下,不同意応答表現)への分類実験を通して,不同意応答生成の実現性を実証する.\par本論文の構成を以下に示す.\ref{sec:attentive_listening}章では,傾聴応答と不同意応答について関連研究を交えて概説する.\ref{sec:disagreement_response_corpus}章では,不同意応答の生成に利用できるコーパスの設計について論じ,コーパスの具体的な作成法とその結果について述べる.\ref{sec:main_experiment}章で不同意応答タイミングの検出実験について,\ref{sec:following_response}章で不同意応答表現への分類実験について,それぞれ報告する.最後に,\ref{sec:conclusion}章で本論文のまとめを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{傾聴応答における不同意応答}
label{sec:attentive_listening}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{会話エージェントによる傾聴応答}\label{subsec:attentive_listening_response}コミュニケーションロボットやスマートスピーカーなどの会話エージェントが聴き手を担うことは,人が語る機会の創出に効果的である.これらが語りの聴き手として認められるには,単に語りを聴いて理解するだけでなく,そのこと自体を語り手に伝達する必要がある.このための明示的な手段は語りに応答することであり,傾聴を示す目的で語りに応答する発話,すなわち傾聴応答の生成が有効である.\par一般に,傾聴応答にはいくつかの種類があり,「はい」や「ええ」などの相槌のほか,感心,繰り返し,評価,同意,納得,驚き,言い換え,補完などがある\cite{JP_EN_kuroshio-2009}.表\ref{tab:example_of_attentive_listening_response2}に,傾聴応答の例をその種類と共に示す.【】で囲んだ文字列が傾聴応答の種類である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[t]\input{08table01.tex}\caption{傾聴応答の例とその種類}\label{tab:example_of_attentive_listening_response2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連研究}\label{subsec:related_works}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{相槌の生成に関する研究}\label{subsubsec:related_works_bc}相槌の生成法について,これまで多くの研究が行われている\cite{EN_Noguchi-1998,EN_Ward-2000,EN_Cathcart-2003,EN_Fujie-2004,EN_Kitaoka-2005,EN_Poppe-2010,EN_Morency-2010,EN_Yamaguchi-2016,JP_EN_Ohno-2017,EN_Ruede-2017,EN_Jang-2021}.これらの研究では,主に,語りから抽出されるピッチやパワーなどの音響情報,及び,単語や品詞などの言語情報に基づき,相槌の生成に適したタイミングを検出する手法を提案している.これまでに,ルールベースによる手法\cite{EN_Ward-2000,EN_Poppe-2010},n-gramモデルによる手法\cite{EN_Cathcart-2003},有限状態トランスデューサによる手法\cite{EN_Fujie-2004},決定木による手法\cite{EN_Noguchi-1998,EN_Kitaoka-2005},CRFによる手法\cite{EN_Morency-2010},SVMによる手法\cite{EN_Yamaguchi-2016,JP_EN_Ohno-2017}などがある.近年では,LSTMやTransformerなどのニューラルネットワークを用いた手法\cite{EN_Ruede-2017,EN_Jang-2021}も提案されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{相槌以外を含めた傾聴応答の生成に関する研究}\label{subsubsec:related_works_others}繰り返しや評価など,相槌以外を含めた傾聴応答を生成するシステムを開発する試みもある\cite{EN_Kobayashi-2010,EN_Meguro-2011,JP_EN_Shitaoka-2017,EN_Inoue-2020}.これらのシステムは,事前に定義したルールやアルゴリズムに従い,まず応答タイミングを同定し,生成する応答の種類を選択した後,生成する応答表現を決定する.また,特定の種類の傾聴応答に着目した研究として,繰り返し応答の表現をTransformerベースの手法により生成する手法も提案されている\cite{EN_Kawamoto-2022}.他にも,傾聴応答の生成に適したタイミングを直接検出するのではなく,その表出されやすさを推定する試みもある\cite{JP_EN_Ito-2023}.\par傾聴応答の生成法に関する研究では,その生成タイミングや表現が付与されたコーパスを用いることが多い.また,コーパスとしては,人間同士で遂行された対話を収録したデータが用いられる\cite{EN_Meguro-2011,EN_Inoue-2020}.このような収録データから,話し手の発話と聴き手の応答が相互作用する自然なやり取りを観察することができる.しかし一方で,話し手の発話が聴き手の応答の影響を受けることになるため,評価実験でやり取りを再現することは難しいという問題がある.この問題を解決するために,事前に収録された語りの音声に同期して,聴き役の作業者が表出するに相応しい傾聴応答を発声することでコーパスを作成する試みがある\cite{JP_EN_Murata-2018}.リアルタイム環境下での自然な応答音声を収録できるとともに,聴き手の反応が話し手に影響しない分,聴き手は傾聴応答の積極的な表出に集中できるという特徴がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{不同意応答}\label{subsec:disagreement_response}語りの傾聴では,語り手に理解を示し,共感を伝えることが重要とされており,反対に,傾聴において相手の話を否定することは,語り手の心を遠ざける原因になりかねない\cite{JP_EN_Ohtani-2019}.そのため,語りの傾聴では,語り手の発話を受容することが聴き手の基本的な応答方略となる.しかし,語りには,次に示すような発話が含まれることがある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{itemize}\item老い先短い私にとっては今回のイタリア旅行が人生最後の旅行でしょう\end{itemize}これは,話し手の謙遜が込められた発話であり,聴き手がこれをそのまま受容することは,話し手にとって必ずしも本意ではない.他にも,\begin{itemize}\item私は子どもの頃から気が利かないというか空気が読めなくて\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%のような話し手の自虐が含まれる発話も同様である.このような発話に対して,会話エージェントがそれを受容するような応答をすれば,語りが理解されているかに関する疑念が生じるとともに,語り手が不快に感じる可能性がある.発話内容をそのまま受容することが相応しくない場面では,語り手の発話に同意しないことを示す応答,すなわち,{\emph{不同意応答}}を確実に表出できることが重要となる.\parこれまでに,主に言語学の視点から,不同意という言語行為の定義とその分類が行われている.日本語の雑談における不同意を対象とした先行研究\cite{JP_EN_Kiyama-2006}によると,不同意は,「相手の発話が表す事実あるいは意見について,納得しない,または受け入れていないことを伝える発話(群)」と定義されている.さらに,不同意の先行発話の内容に基づき,不同意を以下の2つに分類している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item実質的不同意:不同意の対象となる先行発話(群)が,相手に対するプラス評価,または自己に対するマイナス評価ではない場合\item儀礼的不同意:不同意の対象となる先行発話(群)が,相手に対するプラス評価,または自己に対するマイナス評価である場合\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%上述した,自虐や謙遜などの発話は,語り手が自己をマイナス評価するものであり,これらに対する不同意は儀礼的不同意に該当する.なお,儀礼的不同意のうち,相手をプラス評価する発話の例としては,相手を褒める発話が挙げられているが,本研究では,特定の聴き手の存在を前提としておらず,聴き手に対して言及する発話は含まれてない語りを対象とすることから,本研究の対象外とする.すなわち,本研究における不同意応答とは,語り手が自己をマイナス評価している発話に対して,聴き手がその評価を受容しないことを示す応答であるとする.\parなお,応答を表出せずにあえて沈黙することも,不同意を示すための戦略の1つとして挙げられる.ただし,沈黙によって不同意を示すためには,単に応答を表出しなければよいというわけではなく,その代わりに,表情やジェスチャによって,不同意を伝える必要があると考えられる.本研究では,コミュニケーションロボットやスマートスピーカーなどの,主に音声によって応答する会話エージェントを対象としている.これらの会話エージェントにおいては,不同意を明示的に示す応答を生成できることが重要となる.\parしかし,傾聴応答に関する従来研究では,相槌に代表されるように,語り手の発話内容をそのまま受容することを前提とした応答の生成が対象とされており,不同意応答の生成に関する検討は行われていない.そこで本研究では,不同意応答を生成することの実現性を明らかにするために,%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item不同意応答の生成に利用できる応答コーパスの作成,ならびに,\label{enu:todo1}\item応答コーパスを用いた不同意応答の適切な生成\label{enu:todo2}\end{enumerate}に取り組む.\par不同意応答が収録されたデータとして,\ref{subsubsec:related_works_others}節で言及した村田他(2018)のコーパス(以下,傾聴応答コーパス)が挙げられる\footnote{傾聴応答コーパスは,音声データの書き起こしと分割処理の見直し,応答の種類の拡張などの更新が行われている.本論文における傾聴応答コーパスとは更新版データを指し,その統計量などは更新版データを用いて算出されたものである.}.傾聴応答コーパスでは,\ref{subsubsec:related_works_others}節で述べた方法で語りに対する傾聴応答を収録し,各傾聴応答の種類を人手で分類している.このコーパスには,16種類の傾聴応答が合計17,036個収録されている.その59.94\%にあたる10,211個が相槌であり,相槌以外の傾聴応答の内訳は図\ref{fig:ALRC_response_type_dist}に示す通りである.感心や繰り返しが多数出現しているのに対し,不同意応答はわずか1.51\%にあたる103個の出現に留まっている.このコーパスの収録では,作業者は,事前に収録された語りの音声の再生に同期して傾聴応答を表出する.このため,作業による応答の付与は時間制約下で行われる.このようなリアルタイム環境での応答付与では,作業者は必ずしも一様に振舞うことは難しく,不同意応答が期待される場面であっても,必ずしも適切に遂行されない可能性がある.また,対話における妥当な応答は唯一でないため,不同意応答が適する語りの発話であっても,そこで作業者が必ずしも不同意応答を表出するとは限らない.\par不同意応答生成の実現性を明らかにするには,不同意応答タイミングの検出結果と不同意応答表現への分類結果を適切に評価できる必要がある.その評価に利用可能なコーパスには,不同意応答タイミングが網羅的に付与され,かつ,不同意応答表現が揺れが少なく,すなわち,安定的に付与されていることが求められる.上述の傾聴応答コーパスは,語りに対する自然な応答音声を収録したのちに,各応答をその種類で分類することにより構築されているため,この要求を満たしていない可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\begin{center}%%%%%\includegraphics[width=0.70\linewidth]{figures/JNLP_eps/ALRC_response_type_dist_wo_bc.eps}\includegraphics{31-1ia8f1.pdf}\end{center}\caption{傾聴応答コーパスにおける相槌を除く応答の種類の内訳}\label{fig:ALRC_response_type_dist}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{不同意応答生成のための傾聴応答コーパス}
\label{sec:disagreement_response_corpus}語りに対して不同意応答を生成することの実現性を示すために,不同意応答の生成に利用可能なコーパスを作成できることを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{問題設定とコーパスの作成方針}\label{subsec:problem_setting_AND_corpus_collection_policy}語りの音声に同期して応答を表出するリアルタイム環境下で収録されたデータでは,不同意応答タイミングが網羅的に,また,不同意応答表現が安定的に付与されたコーパスを作成することは容易ではない.この問題を解決するために,本研究では,語りに同期しない時間制約なしの環境で,不同意応答をタグ付けする方式を採用する.具体的には,語りのテキストに対して,その内容に基づき,不同意応答の生成に適したタイミングと表現を付与する.テキストに対して付与することで,網羅性と安定性を備えた結果を期待できる.\par語りのテキスト上に付与するために,まず,不同意応答が生成されるタイミング上の候補を定める必要がある.一般に,同意や不同意の応答は,語り手の言明に対する肯定または否定の提示であり,その対象は命題に相当するものであると考えられる.命題に対応する言語的な最小単位は,「節(述語を中心としたまとまり)」であることから,本研究では節を語りの構成単位とし,節の境界を不同意応答タイミングのタグ挿入位置の候補とする.すなわち,タグ付けでは,節の並びで表現された語りに対して,作業者は節ごとにその直後が不同意応答に適したタイミングであるか否かを判断する.\par次に,付与可能な不同意応答表現の候補を定める必要がある.傾聴応答コーパスに含まれる103個の不同意応答について,その応答表現の出現分布を調査した.まず,「いえ」や「いえいえ」など「いえ」を含む応答表現の総数が全体の59.22\%にあたる61個と最も多かった.その他,「いや」や「いやいや」など「いや」を含む応答表現の総数は全体の6.80\%にあたる7個と少なかった.応答表現「いえ」と「いや」を比較した先行研究\cite{JP_EN_Togashi-2006}は,「いえ」の方がより丁寧であり,「いや」が非丁寧(ぞんざい,威圧的)であると位置づけている.傾聴における不同意応答表現として,「いえ」を含む応答表現の出現が最も多かったことは,その丁寧さによるものと考えられる.「いえ」を含む応答表現の中でも「いえいえ」が全体の27.18\%にあたる28個と最も多かったことから,本研究では「いえいえ」を不同意応答の代表表現と定めた.\par不同意応答表現「いえいえ」は,ほとんどの場合,それが表出されれば不同意を示すことになる.しかし,不同意の対象や意図をより明確に語り手に提示するために,「いえいえ」のみではなく,それに適切な表現を付加することが効果的であると考えられる.上述の先行研究\cite{JP_EN_Togashi-2006}においても,応答表現「いえ」の後に何らかのコメント(提示された情報を否定する内容,根拠)が付加されやすく,単独の発話では若干の不足感を感じさせる,と指摘されている.そこで本研究では,「いえいえ」と付加表現を連接したものを不同意応答表現とし,付加表現のタイプごとに代表表現を定める.作業者は,付与した不同意応答タイミングに対し,そこで生成するのに適した付加表現を選択する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{語りデータへのタグ付け方針}\label{subsec:annotation_method}タグ付けの対象の語りデータとして,高齢者のナラティブコーパスJELiCo\cite{EN_JELiCo-2016}を用いた.この語りデータには,合計で30名の高齢者による1人約20分の語りの音声が収録されている.全高齢者共通の10個の質問に対し,その回答を語るという収録形式が採用されている.このうち本研究では,高齢者29名が共通の質問9個に対して回答した語りをタグ付け対象とした\footnote{10個の質問のうち,「動物の名前を思いつくだけ言ってください」という質問に対して回答する形式の語りは,本研究が対象とする語りとは性質が異なるので,作業の対象外とした.また,高齢者1名分の語りについては,作業者への不同意応答のタグ付けの説明に利用したため,作業の対象外とした.}.\par語りの分割には,節境界解析ツールCBAP\cite{JP_EN_CBAP-2004}を用いた.ツールによって挿入された節境界で挟まれた区間を「節」と定めた.\par\ref{subsec:disagreement_response}節で述べた通り,本研究における不同意応答とは,語り手が自己をマイナス評価している発話に対して,聴き手がその評価を受容しないことを示す応答のことをいう.そこで本研究では,不同意の対象となる先行発話(群)におけるマイナス評価のされ方に基づき,「いえいえ」に連接する付加表現のタイプを決定する.具体的には,傾聴応答コーパスにおいて不同意応答が付与された周辺の語りの発話における,マイナス評価のされ方の観察を通して,付加表現のタイプを定めた.その結果6種類に分類され,各分類に対して代表表現を定めた.定めた代表表現をそのタイプ,すなわち,どのようなマイナス評価に対して利用可能であるか,と共に以下に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\itemそんなことないですよ\\以下の(2)$\sim$(6)に該当しない\itemいいと思いますよ\\プラス評価になりうることを否定的に捉える\item十分ですよ\\プラス評価の水準に達していないことを示す\itemこれからですよ\\過去と比較し現在を否定的に捉える\item大丈夫ですよ\\謝罪あるいは恐縮する\item仕方ないですよ\\自責,後悔,無念,卑下を感じさせる否定的な事実(失敗談等)を自己開示する\end{enumerate}上述の分類とそれに対する代表表現の割り当てが,過不足ないものとなっているかを確認するために,作業者が付加表現を選択する際には,上述の6つの代表表現に加えて,いずれにも属さない「その他」を選択することも可能とした.「その他」を選択した際には,上述の代表表現以外の,「いえいえ」に連接する付加表現を付与するよう指示した.\parタグ付けは,1名の作業者が実施し,実施にあたり参照可能な作業マニュアルを作成した.マニュアルでは,作業の目的,傾聴における不同意応答の説明,データの説明,タグ付け作業内容の説明,タグ付け作業の参考例を記すとともに,不同意応答の表出に適するタイミングを網羅的にタグ付けするよう指示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{作成されたコーパスとその評価}\label{subsec:made_corpus}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{不同意応答タイミングのタグ付け結果とその評価}\label{subsubsec:made_corpus_timing}%不同意応答タイミングの個数と割合作成した不同意応答コーパスの規模を表\ref{tab:response_timing_distribution}に示す.459個の不同意応答タイミングが付与された.節の直後の4.31\%(459/10,662)に不同意応答タイミングが出現している.比較には,語りに対する傾聴応答をリアルタイム環境下で収録することで作成された傾聴応答コーパス\cite{JP_EN_Murata-2018}を用いる.傾聴応答コーパスの作成には,本研究の不同意応答コーパスと同じ語りデータが用いられている.両コーパスの不同意応答タイミングの比較のために,傾聴応答コーパスに含まれる不同意応答を節の直後に対応付ける処理を行った.具体的には,不同意応答を,その発声開始時刻が,語りデータ内の節の発声終了時刻のうち,最も近くにある節に対応付けた.この処理によって,対応付けられた不同意応答が存在する節の直後を,傾聴応答コーパスにおける不同意応答タイミングとみなした.%workspace/AnalysisMaterials/ALRC/聴き手ごとの不同意応答タイミングの数.csvその結果,傾聴応答コーパスにおける不同意応答タイミングは93個であり,節全体の0.87\%(93/10,662)であった.両コーパスにおける不同意応答タイミング数の差は著しく,時間制約のない環境で不同意応答のみに限定してタグ付けを実施することの効果が示された\footnote{本研究の不同意応答コーパスにおける不同意応答タイミングにおいて,傾聴応答コーパスではどのような応答がなされていたのかの分析を付録\ref{appendix_sec:vs_ALRC}に示す.}.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table02.tex}\caption{作成した不同意応答コーパスの規模}\label{tab:response_timing_distribution}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%時間制約のない環境で作業することにより,網羅的にタグ付けが行われたかを評価するために,コーパス作成のタグ付け作業者(X)とは別の作業者(A)を設け,タグ付けの一致率を測定した.作業者間の一致度が高ければ,付与されたタグ付け位置の他にタグ付けの余地が少ないことを意味し,作成されたコーパスが高い網羅性を備えていることを示唆する.一致率の測定には,Cohenのkappa値\cite{EN_Cohen-1960}を用いた.この指標は,観測された一致率を$P(O)$,期待される一致率を$P(E)$とするとき,%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{eqnarray}\kappa=\frac{P(O)-P(E)}{1-P(E)}\end{eqnarray}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%で算出する.$.80<\kappa$であればgoodreliability,$.67<\kappa<.80$であればusablequalityの水準にあるとされる\cite{EN_Carletta-1996}.測定の結果,$\kappa=0.771$であり,実質的に一致している水準にあった.比較のために,傾聴応答コーパス\cite{JP_EN_Murata-2018}に含まれる1名の作業者(x)と同様の作業を,別の10名の作業者(a,b,c,d,e,f,g,h,i,j)が実施して節と対応付けたデータ(以下,比較データ)を用いる.具体的には,新たに10名の作業者が,\ref{subsec:disagreement_response}節で述べた事前に収録された語りの音声の再生に同期して傾聴応答を表出する作業を実施した.この作業では,不同意応答に限らず,幅広く傾聴応答を表出している.表出された傾聴応答のうち,不同意応答のみを対象に,その発声開始時刻が,語りデータ内の節の発声終了時刻のうち,最も近くにある節に対応付けた.すなわち,比較データには,傾聴応答コーパスの作業者(x)による不同意応答タイミングに加えて,10名の作業者(a$\sim$j)によるものが付与されている.表\ref{tab:kappa_ARLC}に,比較データにおける傾聴応答コーパスの作業者(x)と,追加分の10名の各作業者(a$\sim$j)との間のkappa値を示す.最も低い作業者間でkappa値が0.075,高い場合でも0.390であった.以上の結果から,時間制約のない環境で不同意応答タイミングを付与することで,相対的に高い網羅性を備えた応答コーパスを作成できることが示された%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table03.tex}\caption{比較データにおける作業者間のkappa値}\label{tab:kappa_ARLC}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{不同意応答表現のタグ付け結果とその評価}\label{subsubsec:made_corpus_expression}図\ref{fig:breakdown_following_response}に,作成されたコーパスにおいて,不同意応答タイミングに付与された不同意応答表現の出現数を示す.いずれのタイプの表現も多く出現していること,また,「その他」の出現はわずか2個に留まっていることから,\ref{subsec:annotation_method}節で述べた6つの分類が概ね過不足なく定められたものであることが示唆された\footnote{代表表現として「その他」が選択された2つの不同意応答タイミングでは,「体が痛くても我慢する」といった内容の語りの発話に対して,作業者によって「無理しないでください」という表現が付与されていた.}.表\ref{tab:following_response_sample}に,表現ごとに,それがタグ付けられた不同意応答タイミングの例を示す.表では,不同意応答タイミングから遡って5つの節を記載している.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[b]\begin{center}%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/worker2_following_response_type_count_1fig.eps}\includegraphics{31-1ia8f2.pdf}\end{center}\caption{「いえいえ」に付加される表現の出現数}\label{fig:breakdown_following_response}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table04.tex}\caption{不同意応答タイミングと不同意応答表現の例}\label{tab:following_response_sample}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%不同意応答表現のタグ付けが安定的に実施されているかを評価する.\ref{subsubsec:made_corpus_timing}節で述べた作業者(A)が,自身が付与した不同意応答タイミングに同様のタグ付けを実施した.作業者(X)と(A)の両者でタグ付けが一致した不同意応答タイミング349個の節の直後を対象に,それぞれがタグ付けた表現に関する混同行列を図\ref{fig:worker_following_response_confusion_matrix}に示す.78.80\%(275/349)において表現が一致しており,安定的に不同意応答表現をタグ付けできているといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\centering%%%%%\includegraphics[width=0.70\linewidth]{figures/JNLP_eps/following_response_type_match_wo_none.eps}\includegraphics{31-1ia8f3.pdf}\caption{「いえいえ」に付加される表現に関する作業者間の混同行列}\label{fig:worker_following_response_confusion_matrix}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{不同意応答タイミングの検出実験}
\label{sec:main_experiment}語りの傾聴において,不同意応答を生成することの実現性を示すために,本論文の以下では,不同意応答コーパスが不同意応答の生成に効果的に機能することを示す.本章では,不同意応答タイミングの検出における応答コーパス利用の有効性を実験的に検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験概要}\label{subsec:main_experimental_overview}本実験では,語りの節ごとに,その直後が不同意応答タイミングであるか否かの判定を行う.実験は5分割交差検定で実施した.不同意応答コーパスを8:2に分割し,前者を学習及びテスト用データ,後者を開発データとした.学習及びテスト用データを5分割し,そのうちの1グループをテストデータ,残りの4グループを学習データとした実験を5回繰り返した.開発データは,交差検定の各試行における,ハイパーパラメータの調整に用いた.表\ref{tab:experimental_data}に,実験データにおける不同意応答タイミングの個数と節数に対する割合を示す.評価指標は,不同意応答タイミングに対する適合率,再現率,F値とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{不同意応答タイミングの検出手法とその実装}\label{subsec:main_experimental_implementation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table05.tex}\caption{実験データにおける不同意応答タイミングの個数と割合}\label{tab:experimental_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本節では,作成したコーパスを用いて不同意応答タイミングを検出する手法について述べる.本手法では,節の並び$c_{1}\cdotsc_{n}$で表される語りに対して,語りにおける節が1つ入力されるごとに,その直後が不同意応答タイミングであるか否かを判定する.本研究の目的は,不同意応答タイミング検出の実現性を示すことであるため,不同意応答タイミングであるか否かの判定には,幅広いタスクで用いられている事前学習済みのTransformer\cite{EN_Vaswani-2017}ベースのモデルを単純に用いた手法を採用した.具体的には,事前学習済みモデルを2クラス分類タスク用にfine-tuningすることで,語りにおける節の直後が不同意応答タイミングであるか否かを判定するためのモデルを構築した.図\ref{fig:method_overview}に本手法の概略を示す.語りにおける節$c_{t}$の直後の判定の際には,節$c_{t}$を含めて直前$m$個の節の並びを入力として用いる.すなわち,節の並び$c_{t-(m-1)}c_{t-(m-2)}\cdotsc_{t}$で表される語りの文字列を入力とする.入力の文字列をTransformerベースの事前学習済みモデルでエンコードしたのち,全結合層とsoftmax関数による分類層で処理することで,2次元のベクトルを得る.最後に,argmax関数を適用することによって,節$c_{t}$の直後が不同意応答タイミングであるか否かの判定結果が出力される.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[b]\centering%%%%%\includegraphics[width=0.70\linewidth]{figures/JNLP_eps/method_overview.eps}\includegraphics{31-1ia8f4.pdf}\caption{不同意応答タイミングの検出手法の概略}\label{fig:method_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%不同意応答タイミングの検出のためには,語りの文脈を考慮することが望ましい.そこで本実験では,節$c_{t}$を含めて直前5個の節の並びを入力として用いる.すなわち,図\ref{fig:method_overview}における$m$を5に設定した\footnote{入力節数が検出性能に与える影響については付録\ref{appendix_sec:LEN}を参照されたい.}.検出手法で用いる事前学習済みのTransformerベースのモデルとしては,この実装を開始した時点における主流なものとして,BERT\cite{EN_BERT-2019},RoBERTa\cite{EN_RoBERTa-2019},DeBERTa-v2\cite{EN_DeBERTa-v2-2021},GPT2\cite{EN_GPT2-2019}を採用した.いずれも,huggingface\footnote{\url{https://huggingface.co/models}}で公開されている,隠れ層のサイズが768次元,レイヤー数が12のモデル\footnote{\url{https://huggingface.co/cl-tohoku/bert-base-japanesse-whole-word-masking}}\,\footnote{\url{https://huggingface.co/nlp-waseda/roberta-base-japanese}}\,\footnote{\url{https://huggingface.co/ku-nlp/deberta-v2-base-japanese}}\,\footnote{\url{https://huggingface.co/rinna/japanese-gpt2-small}}である.モデルの学習における損失関数はCrossEntropyLossとして,バッチサイズを32,エポック数を50とした.モデルの最適化手法には,weightdecayを0.01としたAdamW\cite{EN_AdamW-2019}を用いた.学習率には,warmupratioを10\%とした,線形スケジューリングを採用した.すなわち,学習開始時から学習全体の10\%が終了するまでの間は,事前に定めた学習率の最大値まで線形に学習率を増加させ,それ以降は線形に学習率を減少させた.本実験では,各モデルの学習率の最大値は,1e-6,5e-6,1e-5,5e-5のうち,学習終了時のモデルの開発データにおけるF値が最良となったものとした.\par上述の事前学習済みモデルによる手法の性能を評価するために,節の直後が不同意応答タイミングであるか否かを,不同意応答コーパスに基づくことなくランダムに分類する以下の2つの手法を実装し,その結果を参照することとした.\begin{itemize}\item\textbf{random(even)}:50\%の確率でランダムに分類する手法\item\textbf{random(balanced)}:学習データにおける不同意応答タイミングの割合に従ってランダムに分類する手法\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[b]\input{08table06.tex}\caption{不同意応答タイミング検出の実験結果}\label{tab:experimental_results1}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{subsec:main_experimental_results}表\ref{tab:experimental_results1}に,各手法の適合率,再現率,F値を示す.ランダム手法は,random(even)のF値が0.079,random(balanced)のF値が0.037と極めて低い.一方で,事前学習済みモデルを用いた手法のF値は,最低で0.324,最高で0.437を達成した.事前学習済みモデルを単純にfine-tuningした手法を用いており,その性能に向上の余地があるとはいえ,不同意応答タイミングを一定の水準で検出できること,ならびに,不同意応答コーパスの利用の効果が示された.\par表\ref{tab:experimental_output1}に,事前学習済みモデルに基づく4つの手法のいずれかで検出に成功した不同意応答タイミングの例を,その直前の語りと共に示す.成功例1は末尾の「ごめんなさい」の直後(4つの手法すべてで成功),成功例2は末尾の「悪いんですけれども」の直後(DeBERTa-v2による手法とGPT2による手法で成功)が,それぞれ正解の不同意応答タイミングである.これらの例では,謝罪の発話を含む語りを対象とした不同意応答のタイミング検出に成功している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エラー分析}\label{subsec:disagreement_target_type}実験結果のエラー分析を行う.エラーの要因を明らかにするために,\ref{subsec:annotation_method}節の付加表現の分類ごとに,実験結果における不同意応答タイミング検出の再現率を算出した.表\ref{tab:disagreement_clause_type_recall_for_each_model}にその結果を,事前学習済みモデルに基づく4つの検出手法ごとに示す.1行目の()内の数字は,学習及びテストデータ区分の各応答表現の個数である\footnote{実験データには「その他」が付与された不同意応答タイミングが2つ存在するが,いずれも開発データに割り当てられている.}.いずれも,「大丈夫ですよ」に対する不同意応答タイミングの再現率が相対的に高いという結果となった.この表現は,謝罪や恐縮などを含む発話に対して利用可能であり,そのような発話には,「申し訳ない」「すいません」「ごめんなさい」などのフレーズが含まれることが多い.したがって,モデルはその特徴を捉えやすかったものと考えられる.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table07.tex}\caption{検出に成功した不同意応答タイミングとその直前の語り}\label{tab:experimental_output1}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table08.tex}\caption{不同意応答タイミング検出の再現率(付加表現の分類別)}\label{tab:disagreement_clause_type_recall_for_each_model}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,「そんなことないですよ」「いいと思いますよ」については,「大丈夫ですよ」と同程度の出現頻度であるにも関わらず,その再現率は高くなかった.表\ref{tab:experimental_output2}に,事前学習済みモデルに基づく4つの手法のいずれかが,検出すべきか否かの判断を誤った例を,その直前の語りと共に示す.失敗例1は末尾の「暇があるので」の直後,失敗例2は末尾の「私がその暇を持て余しているっていうことから」の直後が,正解の不同意応答タイミングである.それぞれ,付加表現としては,「いいと思いますよ」「そんなことないですよ」が選択されていた.これら2つの不同意応答タイミングは,4つの手法すべてで検出できていなかった.いずれも,語り手自身に暇があることを自虐的に話す発話であるが,それぞれ語りの表現は異なる.一方,実験データには,「ちょっとできたんですけれどもね特別うーん遊びって小さい時はあんまり遊べない子でしたね今やっと暇ができて」という語りの発話も存在していた.これは,語り手が自身に暇があることを前向きに語っている発話であり,この発話の直後は不同意応答タイミングではない.このように,語られる内容が似ていても,それが自虐や謙遜として語られるかは,語り手の立場や状況によって異なる.さらに,語りの発話に自虐や謙遜が含まれているか否かの判断には,語りの対象が何であるかにも依存する.例えば,表\ref{tab:experimental_output2}の失敗例3の語りの末尾「人がないっていう」の直後は,不同意応答タイミングではない.しかし,RoBERTaによる手法とDeBERTa-v2による手法は,誤って不同意応答タイミングであると検出していた.失敗例3の語りの対象は,語り手ではなく,語り手よりも10歳から15歳年下の別の人物である.「自分は誰も相談する人がない」という語りの発話は,文脈によっては自虐や謙遜になりうる.しかし,失敗例3における「自分」は語り手ではないため,自虐や謙遜の発話とは異なる.このように,自虐・謙遜に対する不同意応答タイミングの検出には,語りをより深く理解することが必要であり,その検出は容易ではなかったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table09.tex}\caption{検出に失敗した不同意応答タイミングとその直前の語り}\label{tab:experimental_output2}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{検出結果の主観評価}\label{subsec:subjective_evaluation}\ref{subsec:main_experimental_results}節では,不同意応答タイミングを網羅的にタグ付けしたコーパスを正解データとし,それとどの程度一致するかという観点から,不同意応答タイミングを一定の水準で検出できること,ならびに,不同意応答コーパスの利用の効果を確認した.しかしながら,会話エージェントに対する語り手の印象は様々な要因によって影響を受ける.そのため,語り手の印象に影響を与えるような水準の不同意応答を生成できることを確認するには,正解データとの一致に基づく評価だけでは十分ではない可能性がある.そこで本節では,主観評価に基づき,不同意応答タイミングの検出における不同意応答コーパスの利用の有効性を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\centering%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/subjective_evaluation_process.eps}\includegraphics{31-1ia8f5.pdf}\caption{不同意応答タイミングの検出結果の主観評価の手順の概略(ダミーのペアの比較の工程は除く)}\label{fig:subjective_evaluation_process}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価の概要}\label{subsubsec:subjective_evaluation_overview}主観評価の手順の概略を図\ref{fig:subjective_evaluation_process}に示す.実験データにおいて,本手法が検出したタイミングで,実際に不同意応答を生成し,それを被験者が主観評価する\footnote{一方で,正解のタイミングで検出されなかった場合についても,同様に主観評価することは有意義である.不同意応答が生成されないときの損失の程度を被験者実験により測定することが考えられ,その実施は今後の課題である.}.被験者は,不同意応答「いえいえ」が挿入された語りの音声を聴取し,その印象を評価する.本手法は,語りの節ごとに,その直後が不同意応答タイミングであるか否かを,直前の語りの文字列から判定することで検出を行う.不同意応答「いえいえ」の挿入位置は,検出された節の最終形態素の発声終了時刻の200ミリ秒後とした.検出には,表\ref{tab:experimental_results1}のF値が最も高かったRoBERTaによる手法を用いた.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table10.tex}\caption{主観評価における評価項目}\label{tab:subjective_evaluation_criterion}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%評価は,表\ref{tab:subjective_evaluation_criterion}の積極性,自然さ,理解度の3つの項目で実施した.ただし,挿入された不同意応答を絶対評価することは必ずしも容易ではない.そこで本実験では,不同意応答のタイミングで,相槌が挿入された語りの音声を別途用意し,不同意応答が挿入された音声との比較評価を行った.すなわち被験者は,積極性,自然さ,理解度の3つの項目で,不同意応答が挿入された音声と相槌が挿入された音声のどちらが優れていたかを評価する.相槌の応答表現としては,傾聴応答コーパス\cite{JP_EN_Murata-2018}で最も出現が多かった「はい」を用いた.不同意応答「いえいえ」と相槌「はい」の音声には,AmazonPolly\footnote{\url{https://aws.amazon.com/jp/polly/}}によって生成された合成音を用いた.いずれの応答についても,合成音ができるだけ自然となるように,アクセント,話速,発声の強度を調整して音声合成を行った.被験者が聴取する語りの音声の範囲は,検出されたタイミングの直前5つ目の節から直後2つ目の節までとし,コーパスから抽出した人間の語り手の音声を用いた.\par実験データのうち,RoBERTaを用いた手法が検出したタイミングは261個存在していた.そのうち40個をランダムに抽出して主観評価に用いた.また,主観評価は,30代から50代の被験者10名が各々実施した.すなわち,10名の被験者が,同一の語り音声に対して不同意応答「いえいえ」が挿入された音声と相槌「はい」が挿入された音声の比較評価を40回行った.\par主観評価では,被験者が評価の目的や意図を推測して偏見を持っていると,純粋な評価が行われないリスクがある.これを軽減するために,上述の不同意応答「いえいえ」と相槌「はい」がそれぞれ挿入された音声のペア40個に加えて,ダミーのペアを20個用意した.すなわち,10名の被験者が各々,不同意応答「いえいえ」と相槌「はい」がそれぞれ挿入された音声ペア40個に,ダミーのペア20個を加えた合計60個の音声ペアを比較評価した.ダミーのペアは,不同意応答「いえいえ」と相槌「はい」を挿入する際に,少なくとも一方を別の応答に置き換えることで作成した.置き換えに用いる応答は,傾聴応答コーパス及び\ref{subsubsec:made_corpus_expression}節の比較データに含まれる応答からランダムに選択し,AmazonPollyによって音声合成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[b]\centering%%%%%\includegraphics[width=0.80\linewidth]{figures/JNLP_eps/subjective_evaluation_box_plot_ver_ratio.eps}\includegraphics{31-1ia8f6.pdf}\caption{被験者が不同意応答「いえいえ」の方が優れていると判定したペアの割合の分布}\label{fig:subjective_evaluation_result1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[b]\centering%%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/subjective_evaluation_bar_plot_1by3.eps}\includegraphics{31-1ia8f7.pdf}\caption{不同意応答「いえいえ」の方が優れていると判定した被験者数ごとのペア数の分布}\label{fig:subjective_evaluation_result2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価結果}\label{subsubsec:subjective_evaluation_result}図\ref{fig:subjective_evaluation_result1}に,被験者が不同意応答「いえいえ」の方が優れていると判定したペアの割合の分布を示す.被験者10人中,積極性では3人,自然さでは5人,理解度では4人において,不同意応答「いえいえ」の方が優れていると判定した回数が,全体の半数以上となった.相槌「はい」を高く評価する傾向にある被験者の方が多かったものの,不同意応答「いえいえ」を高く評価する傾向にある被験者も存在することを確認できた\footnote{被験者3は,特に「いえいえ」を好む傾向にあったため,その評価結果の信頼性を調査した.各評価項目において,被験者3が「いえいえ」の方が優れていると判定したペアと,「はい」の方が優れていると判定したペアのそれぞれにおける,他の9名の被験者の評価傾向を比較した.その結果,前者のペアの方が,他の9名の被験者も「いえいえ」が優れていると判定する傾向が高かった.このことから,被験者3の評価が不適当ではないことが示唆された.}.語り手の個性や嗜好などによっても,不同意応答への印象は異なるものと考えられる.これらの情報を考慮した不同意応答の生成は今後の課題である.\par図\ref{fig:subjective_evaluation_result2}に,不同意応答「いえいえ」の方が優れていると判定した被験者数ごとのペア数の分布を示す.「いえいえ」の方が優れていると判定した被験者数について,積極性では2名,自然さでは3名または4名,理解度では3名のペアが最も多かった.一方で,「いえいえ」の方が優れていると判定した被験者が多くを占めるペアも存在していた.このことから,「はい」の生成の方が好印象な場面が多かったものの,不同意応答コーパスに基づく本手法によって「いえいえ」を生成することで,好印象を獲得できた場面も存在することを確認できた.\par表\ref{tab:subjective_evaluation_result3}に,被験者による主観評価の例を示す.不同意応答とその周辺の語りの列については,<>で囲んだ文字列が不同意応答であり,その他の文字列が語りである.積極性,自然さ,理解度の数値は,不同意応答「いえいえ」の方を優れていると判定した被験者の数である.例1と例2は,被験者からの評価が高かった例である.それぞれ,語り手の自虐的な発話と,謝罪の発話に対して,適切に不同意応答「いえいえ」を生成できたため,評価が高かったものと考えられる.例3は,被験者内で評価が割れた例である.語り手の「お世話焼きばっかりしている」という発話が,自虐や謙遜に当たるか否かの判断が被験者ごとに異なったため,評価が割れたものと考えられる.例4は,被験者による評価が低かった例である.「いえいえ」の直前には,語り手の「晴耕雨読ではないですが」という否定語と逆接を含む発話があるものの,自虐や謙遜,謝罪などには該当せず,評価が低かったものと考えられる.否定や逆接を表す表現の扱いは,不同意応答の生成における今後の課題といえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table11.tex}\caption{不同意応答タイミングの検出結果に対する主観評価の例}\label{tab:subjective_evaluation_result3}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{不同意応答表現への分類実験}
label{sec:following_response}不同意応答表現への分類における不同意応答コーパス利用の有効性を実験的に検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{subsec:following_response_experimental_setting}実験では,不同意応答タイミングを,\ref{subsec:annotation_method}節で設定した「その他」を除く6種類の不同意応答表現に分類する.実験は,不同意応答タイミングの検出実験と同様の交差検定で実施した.分類手法として,不同意応答タイミングの検出手法と同じく,Transformerベースのモデルを単純に用いた手法を採用する.具体的には,事前学習済みモデルを6クラス分類タスク用にfine-tuningすることで分類モデルを構築する.すなわち,不同意応答タイミングを,6つの表現のいずれかに分類するためのモデルを構築する.モデルの入力には,不同意応答タイミングから遡って5つの節を用いる\footnote{入力節数が分類性能に与える影響については付録\ref{appendix_sec:LEN}を参照されたい.}.\par不同意応答表現への分類性能を評価するために,\ref{subsec:main_experimental_overview}節と同じデータを用いた.ただし,表現として「その他」が付与された2個の不同意応答タイミングは,本実験データから取り除いた.表\ref{tab:experimental_data2}に,本実験データでの不同意応答タイミングにおける,「いえいえ」に付加される表現の内訳を示す.評価指標には,正解率に加えて,マクロ適合率,マクロ再現率,マクロF値を用いた.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table12.tex}\caption{不同意応答表現への分類実験で使用したデータの内訳}\label{tab:experimental_data2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%事前学習済みのTransformerベースのモデルとしては,BERT,RoBERTa,DeBERTa-v2,GPT2を採用した.モデルの学習における損失関数はCrossEntoropyLossとして,バッチサイズを8,エポック数を50とした.最適化手法にはweightdecayを0.01としたAdamWを,学習率にはwarmupratioを10\%とした線形スケジューリングを採用した.本実験では,各モデルの学習率の最大値は,1e-6,5e-6,1e-5,5e-5のうち,学習終了時のモデルの開発データにおける正解率が最良となったものとした.上述の事前学習済みモデルによる手法の他に,不同意応答タイミングにてランダムに分類する以下の2つの手法を実装した.これらの手法による結果は,その性能が分類の難易度を示すものとして参照できる.\begin{itemize}\item\textbf{random(even)}:50\%の確率でランダムに分類する手法\item\textbf{random(balanced)}:学習データにおける表現の出現分布に従って,ランダムに分類する手法\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{subsec:following_response_experimental_results}表\ref{tab:experimental_results2}に,各手法の正解率,適合率,再現率,F値を示す.事前学習済みモデルを用いた手法に関しては,正解率は0.4程度であった.一方で,ランダムな手法であるrandom(even)の正解率は0.155,random(balanced)の正解率は0.205であった.適合率,再現率,F値についても,同程度の結果が得られた.これらの結果から,事前学習済みモデルを単純に用いた手法によって,一定の水準で不同意応答表現に分類できること,ならびに,不同意応答コーパスの利用の効果が示された.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table13.tex}\caption{不同意応答表現への分類の実験結果}\label{tab:experimental_results2}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\centering%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/LEN5_confusion_matrixs_2by3.eps}\includegraphics{31-1ia8f8.pdf}\caption{不同意応答表現への分類に関する混同行列}\label{fig:experimental_result_response_confusion_matrix}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:experimental_result_response_confusion_matrix}に,random(even),random(balanced),事前学習済みモデルに基づく4つの手法の分類結果に対する混同行列を順に示す.混同行列内の括弧書きの数字は,表\ref{tab:experimental_data2}における表現の番号と対応している.事前学習済みモデルに基づく手法の混同行列では,対角成分の値が比較的大きくなっている.このことからも,不同意応答表現への分類可能性を確認した.表\ref{tab:response_selection_experimental_example}の上段に,事前学習済みモデルに基づく手法の全てで分類に成功した例を,直前の語りと共に示す.図\ref{fig:experimental_result_response_confusion_matrix}から分かる通り,いずれの手法も,「いえいえ,大丈夫ですよ」については,適切に分類することができていた.この表現は,表\ref{tab:response_selection_experimental_example}の成功例のように,謝罪の語りに対して表出されることが多く,モデルはその特徴を捉えていたものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エラー分析}\label{subsec:following_response_experimental_error_analysis}表\ref{tab:experimental_results3}に,各事前学習済みモデルに基づく4つの分類手法のF値を,不同意応答表現ごとに示す.いずれの手法も,「いえいえ,仕方ないですよ」に対するF値が極めて低く,ほとんど正しく分類できなかった.表\ref{tab:response_selection_experimental_example}の下段に,事前学習済みモデルに基づく手法の全てが正しく分類できなかった例を,直前の語りと共に示す.この失敗例では,「いえいえ,そんなことないですよ」に誤って分類した手法が多かった.「いえいえ,仕方ないですよ」に正しく分類するには,「草書体は一般に難解であり,それを読める人は稀である」という知識を有し,それに基づき「仕方ない」事象であることを推論できる必要がある.本実験で実装した手法では,そのような知識や機能を備えておらず,分類は困難であったと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table14.tex}\caption{不同意応答表現への分類の成功例と失敗例}\label{tab:response_selection_experimental_example}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table15.tex}\caption{各不同意応答表現に対するF値(「いえいえ」は省略)}\label{tab:experimental_results3}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[b]\centering%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/subjective_evaluation2_process_vs_ieie.eps}\includegraphics{31-1ia8f9.pdf}\caption{不同意応答表現への分類結果の主観評価の手順の概略(「いえいえ」との比較)}\label{fig:subjective_evaluation2_process_vs_ieie}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\centering%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/subjective_evaluation2_process_vs_random.eps}\includegraphics{31-1ia8f10.pdf}\caption{不同意応答表現への分類結果の主観評価の手順の概略(ランダムとの比較)}\label{fig:subjective_evaluation2_process_vs_random}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分類結果の主観評価}\ref{subsec:following_response_experimental_results}節では,不同意応答タイミングに不同意応答表現をタグ付けしたコーパスを正解データとし,それとどの程度一致するかという観点から,不同意応答表現への分類を一定の水準で実現できること,ならびに,不同意応答コーパスの利用の効果を確認した.本節では,主観評価によって,不同意応答表現への分類における不同意応答コーパスの利用の有効性を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価の概要}主観評価の手順の概略を図\ref{fig:subjective_evaluation2_process_vs_ieie}と\ref{fig:subjective_evaluation2_process_vs_random}に示す.評価には,不同意応答表現への分類の実験データを用いる.本手法が分類した不同意応答表現を実際に生成し,それを被験者が主観評価する\footnote{一方で,正解の不同意応答タイミング以外で不同意応答表現を生成した場合についても,同様に主観評価することは有意義である.不同意応答表現が生成されないときの損失の程度を被験者実験により測定することが考えられ,その実施は今後の課題である.}.被験者は,表\ref{tab:experimental_data2}の6つの不同意応答表現のいずれかが挿入された語りの音声を聴取し,その印象を評価する.本手法は,語りの文字列を用いて,不同意応答タイミングを不同意応答表現に分類する.不同意応答表現の挿入位置は,不同意応答タイミング直前の最終形態素の発声終了時刻の200ミリ秒後とした.分類には,表\ref{tab:experimental_results2}の正解率が最も高かったRoBERTaによる手法を用いた.\par評価は,表\ref{tab:subjective_evaluation_criterion}の積極性,自然さ,理解度の3つの項目で実施した.本手法が分類した不同意応答表現とは別の応答が挿入された音声と比較する.比較音声として,下記の2つの音声を用意した.\begin{enumerate}\item不同意応答「いえいえ」を挿入した音声\item表\ref{tab:experimental_data2}の6つの不同意応答表現から,本手法が分類した表現を除いた5種類の表現のいずれかをランダムに挿入した音声\end{enumerate}すなわち被験者は,本手法が分類した不同意応答表現が挿入された音声と,上記の2つの比較音声のいずれかとの比較をし,積極性,自然さ,理解度の3つの項目で,それぞれどちらが優れていたかを評価する.不同意応答「いえいえ」と表\ref{tab:experimental_data2}の6つの不同意応答表現の音声合成には,AmazonPollyを用いた.音声合成の際には,応答の音声が自然となるよう,アクセント,話速,発声の強度を調整した.被験者が聴取する語りの音声の範囲は,不同意応答タイミングの直前5つ目の節から直後2つ目の節までとし,コーパスから抽出した人間の語り手の音声を用いた.\parテストに用いた実験データから60個をランダムに抽出して主観評価に用いた.60個のうち,30個は不同意応答「いえいえ」を挿入した音声との比較,残りの30個は表\ref{tab:experimental_data2}の6つの不同意応答表現のいずれかをランダムに挿入した音声との比較に用いた.また,主観評価は,30代から50代の被験者10名が各々実施した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\centering%%%%%\includegraphics[width=0.80\linewidth]{figures/JNLP_eps/subjective_evaluation2_vs_ieie_box_plot_ver_ratio.eps}\includegraphics{31-1ia8f11.pdf}\caption{「いえいえ」との比較において本手法が分類した不同意応答表現の方が優れていると被験者が判定したペアの割合の分布}\label{fig:subjective_evaluation2_ieie_result1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{「いえいえ」との比較結果}本手法が分類した不同意応答表現が挿入された音声と,不同意応答「いえいえ」が挿入された音声との比較結果について述べる.図\ref{fig:subjective_evaluation2_ieie_result1}に,被験者が本手法が分類した不同意応答表現の方が優れていると判定したペアの割合の分布を示す.被験者10人中,積極性では10人,自然さでは5人,理解度では8人が,本手法が分類した不同意応答表現の方が優れていると判定した回数が,全体の半数以上に達した.積極性と理解度において,本手法が分類した不同意応答表現の方を高く評価する傾向にある被験者の割合が高く,不同意応答コーパスに基づく本手法の有効性を確認できた.特に,積極性における割合は極めて高かったが,一方で,自然さにおける割合は相対的に低かった.この原因の1つとして,付加表現を伴う不同意応答は,「いえいえ」よりも長い応答となるため,合成音声の不自然さに意識が向きやすかったものと考えられる.これは,音声合成の性能向上によって改善が期待される.また,長く応答することに伴い,「いえいえ」よりも語りとの重複が発生しやすくなることも,自然さが低かった原因として考えられる.本コーパスと本手法では,語りの音響的な情報を考慮していない.例えば,語りの間の長さを考慮した不同意応答コーパスや不同意応答生成手法の実現によって,語りとの重複を解消することが期待できる.これらについても今後検討していきたい.\par図\ref{fig:subjective_evaluation2_ieie_result2}に,本手法が分類した不同意応答表現の方が優れていると判定した被験者数ごとのペア数の分布を示す.本手法が分類した不同意応答表現の方が優れていると判定した被験者の数について,積極性では10名,自然さでは4名,理解度では3名または5名のペアがもっと多かった.評価項目ごとに分布の形状は異なるものの,各評価項目において,本手法が分類した不同意応答表現の方が優れていると判定した被験者が多いペアが存在していた.このことから,本手法に基づいて付加表現を伴う不同意応答を生成することで,より好印象を獲得できる場面の存在を確認できた.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[t]\centering%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/subjective_evaluation2_vs_ieie_bar_plot_1by3.eps}\includegraphics{31-1ia8f12.pdf}\caption{「いえいえ」との比較において本手法が分類した不同意応答表現の方が優れていると判定した被験者数ごとのペア数の分布}\label{fig:subjective_evaluation2_ieie_result2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:subjective_evaluation2_ieie_result3}に,被験者による主観評価の例を示す.不同意応答とその周辺の語りの列については,<>で囲んだ文字列が不同意応答であり,その他の文字列が語りである.積極性,自然さ,理解度の数値は,本手法が分類した不同意応答表現の方を優れていると判定した被験者数である.例1は,全ての評価項目で,被験者からの評価が相対的に高かった例である.語り手の申し訳なさを感じさせる発話に対して,本手法によって「いえいえ,大丈夫ですよ」と適切に応答を生成できたため,被験者からの評価が高かったものと考えられる.例2は,自然さと理解度の評価が相対的に低かった例である.この例では,語り手が自身の経験を自虐を交えて話しており,謝罪の発話や例1のような申し訳なさを感じさせる発話とは異なる.そのため,本手法によって生成された「いえいえ,大丈夫ですよ」は語りの文脈に合わず,評価が低かったものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table16.tex}\caption{「いえいえ」との比較における不同意応答表現への分類結果に対する主観評価の例}\label{tab:subjective_evaluation2_ieie_result3}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\centering%%%%%\includegraphics[width=0.80\linewidth]{figures/JNLP_eps/subjective_evaluation2_vs_random_box_plot_ver_ratio.eps}\includegraphics{31-1ia8f13.pdf}\caption{ランダムな分類結果との比較において本手法が分類した不同意応答表現の方が優れていると被験者が判定したペアの割合の分布}\label{fig:subjective_evaluation2_random_result1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\centering%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/subjective_evaluation2_vs_random_bar_plot_1by3.eps}\includegraphics{31-1ia8f14.pdf}\caption{ランダムな分類結果との比較において本手法が分類した不同意応答表現の方が優れていると判定した被験者数ごとのペア数の分布}\label{fig:subjective_evaluation2_random_result2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ランダムな分類結果との比較結果}本手法が分類した不同意応答表現が挿入された音声と,ランダムに分類した不同意応答表現が挿入された音声との比較結果について述べる.図\ref{fig:subjective_evaluation2_random_result1}に,被験者が本手法が分類した不同意応答表現の方が優れていると判定したペアの割合の分布を示す.積極性,自然さ,理解度のすべての評価項目において,10名の被験者全員が,本手法が分類した不同意応答表現の方が優れていると判定した回数の方が多かった.いずれの評価項目においても,本手法が分類した不同意応答表現の方を高く評価する傾向にある被験者の割合が高く,不同意応答コーパスに基づく本手法の有効性を確認できた.\par図\ref{fig:subjective_evaluation2_random_result2}に,本手法が分類した不同意応答表現の方が優れていると判定した被験者数ごとのペア数の分布を示す.積極性,自然さ,理解度ともに,本手法が分類した不同意応答表現の方が優れていると判定した被験者が10名であるペアが,最も多かった.各評価項目において,本手法が分類した不同意応答表現の方が優れていると判定した被験者が多いペアが存在していた.このことから,本手法に基づいて付加表現を伴う不同意応答を生成することで,より好印象を獲得できた場面が存在することを確認した.\par表\ref{tab:subjective_evaluation2_random_result3}に,被験者による主観評価の例を示す.不同意応答とその周辺の語りの列については,<>で囲んだ文字列が不同意応答であり,その他の文字列が語りである.積極性,自然さ,理解度の数値は,本手法が分類した不同意応答表現の方を優れていると判定した被験者数である.例1は,全ての評価項目で,被験者からの評価が高かった例である.この例では,語り手が自身の趣味について部分的に自虐を交えて話しており,本手法では「いえいえ,いいと思いますよ」と適切に応答を生成できたため,被験者からの評価が高かったものと考えられる.例2では,語り手が過去の経験について謙遜を交えて話しており,自責,後悔,無念などを感じさせる語りの発話とはいえない.そのため,本手法によって生成された「いえいえ,仕方ないですよ」は語りの文脈に合わないといえる一方,ランダムな分類が正解と偶然一致しており,本手法が分類した不同意応答表現の方が優れていると判定した被験者数が0になったものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{table}[tb]\input{08table17.tex}\caption{ランダムな分類結果との比較における不同意応答表現への分類結果に対する主観評価の例}\label{tab:subjective_evaluation2_random_result3}%\footnotesize%\tabcolsep=0.5mm\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
label{sec:conclusion}本論文では,会話エージェントなどによる語りの傾聴において,自虐や謙遜などの発話に対しては不同意応答を確実に表出できるべきである点に着目し,語りの傾聴における不同意応答生成の実現性を検証した.このために,本研究ではまず,高齢者の語りデータに対して,不同意応答タイミングと不同意応答表現をタグ付けし,応答コーパスを作成した.評価の結果,不同意応答タイミングが網羅的に,不同意応答表現が安定的に付与された応答コーパスを作成できることを確認した.次に,作成した応答コーパスを用いて,不同意応答タイミングの検出実験を実施した.検出手法は,事前学習済みのTransformerベースのモデルを単純にfine-tuningすることで実装した.実験の結果,不同意応答タイミングの検出が,一定の水準で可能であることが示された.同様にして,不同意応答表現への分類実験を行い,その分類の実現性を示した.\par本研究では,不同意応答タイミングに対して,不同意を示す対象や意図を明示することを目的に不同意応答表現を付与しているが,表現の分類にあたっては,例えば,不同意の強さなど,いくつかの観点が関係すると考えられる.今後は,不同意応答表現への分類に関わる様々な観点とその利用について検討したい.\par本研究では,不同意応答に限定して,語りデータに網羅的なタグ付けを実施した.ただし,対話における妥当な応答は唯一でないため,本研究で作成したコーパスにおいて不同意応答が付与されたタイミングであっても,生成可能な不同意応答以外の応答が存在しうる.そのため,不同意応答を含め,実際に応答を生成する際には,生成可能な応答候補の中から最終的に生成する応答を選択する必要がある.今後は,このような応答選択タスクにも取り組んでいきたい.また,本研究で実施した被験者による主観評価の結果から,被験者によっても不同意応答に対する印象は異なることが示された.応答選択タスクにおいて不同意応答を生成するか否かを判定する際には,語り手の個性や嗜好の考慮も必要であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment高齢者のナラティブデータは,奈良先端科学技術大学院大学ソーシャル・コンピューティング研究室から提供いただいた.本研究は,一部,名古屋大学及びJST科学技術イノベーション創出に向けた大学フェローシップ創設事業JPMJFS2120による「名古屋大学融合フロンティアフェローシップ」により実施したものである.本研究は,一部,名古屋大学のスーパーコンピュータ「不老」の一般利用制度により実施した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\begingroup\addtolength{\baselineskip}{-0.5pt}\bibliography{08refs}\endgroup%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{傾聴応答コーパスを用いた不同意応答タイミングの分析}
label{appendix_sec:vs_ALRC}%導入とToDo本付録では,不同意応答コーパスの不同意応答タイミングにおいて,傾聴応答コーパス\cite{JP_EN_Murata-2018}では,どのような応答がなされていたのかの分析について述べる.分析にあたり,傾聴応答コーパスの各応答を語りデータ内の節に対応付けた.対応付けは,応答の発声開始時刻と節の発声終了時刻に基づく,\ref{subsubsec:made_corpus_timing}節と同じ方法で実施した.ただし,\ref{subsubsec:made_corpus_timing}節では,両コーパスの不同意応答タイミングの数の比較が目的であったため,不同意応答に限定して対応付け処理を行ったが,本分析を行うにあたっては,不同意応答以外の傾聴応答も対応付けた.\par図\ref{fig:barplot_ALRC_response_occurrences_in_DA_timing}に,傾聴応答コーパスにおける応答の種類ごとに,それが対応付いた不同意応答タイミング数を示す.不同意応答コーパスにおける不同意応答タイミング459個に対しては,不同意応答以外の種類の応答も対応付けられていることを確認した.また,相槌,感心,不同意の順に,それぞれが対応付いた不同意応答タイミングの数が多かった.これらの結果は,不同意応答が期待される場面であるにも関わらず,それを適切に遂行できなかった可能性に加えて,不同意応答の表出が適するタイミングであっても,それ以外にも表出に適する応答が存在することを示している.\ref{sec:conclusion}章でも述べた通り,不同意応答の生成が適する場合に,不同意応答を生成するのか,あるいは他の応答を生成するのかの選択は,今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[tb]\centering%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/barplot_ALRC_response_occurrences_in_DA_timing.eps}\includegraphics{31-1ia8f15.pdf}\caption{傾聴応答コーパスにおける各種類の応答が対応付いた不同意応答タイミング数}\label{fig:barplot_ALRC_response_occurrences_in_DA_timing}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{入力節数の影響分析}
label{appendix_sec:LEN}本付録では,不同意応答タイミングの検出と不同意応答表現への分類における,入力の節数の影響について述べる.これらをより正確に実施するには,語りの文脈を考慮することが必要であると考えられる.\ref{sec:main_experiment}章及び\ref{sec:following_response}章の実験では,入力の節数を5として語りの文脈を考慮した検出と分類を実施し,各手法の学習と評価を行った.本付録では,入力の節数を変えて,\ref{sec:main_experiment}章及び\ref{sec:following_response}章と同様の実験を実施し,入力の節数が性能に与える影響を考察する.入力の節数としては,1から10までの10通りについて評価した.実験データ,事前学習済みモデル,fine-tuningの方法など,入力の節数以外の実験設定は,\ref{sec:main_experiment}章及び\ref{sec:following_response}章の実験と共通である.\par%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[p]\centering%%%%%\includegraphics[width=\linewidth]{figures/JNLP_eps/exp1_LEN_metric_1by3_line_plot.eps}\includegraphics{31-1ia8f16.pdf}\caption{入力節数ごとの不同意応答タイミングの検出性能}\label{fig:exp1_LEN_metric_line_plot}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{figure}[p]\centering%%%%%\includegraphics[width=0.70\linewidth]{figures/JNLP_eps/exp2_LEN_metric_2by2_line_plot.eps}\includegraphics{31-1ia8f17.pdf}\caption{入力節数ごとの不同意応答表現への分類性能}\label{fig:exp2_LEN_metric_line_plot}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%不同意応答タイミングの検出実験の結果を図\ref{fig:exp1_LEN_metric_line_plot}に示す.いずれの評価指標においても,節数が1や2の場合は若干性能が低い傾向がみられるものの,節数の増減に伴う性能の差異は大きくなかった.また,入力節数によらず,BERTによる検出手法の性能が最も低い結果となった.\par不同意応答表現への分類実験の結果を図\ref{fig:exp2_LEN_metric_line_plot}に示す.不同意応答タイミングの検出実験と同様に,いずれの評価指標においても,節数の増減に伴う性能の差異は大きくなかった.また,入力節数によらず,RoBERTaによる分類手法の性能が相対的に高い結果となった.\par以上から,入力節数の増減に伴う,検出性能と分類性能の差異は大きくないことを確認した.これは,節という言語単位が述語を中心としたまとまりであり,節単体でも一定の情報を有するためであると考えられる.すなわち,性能向上のためには,単に入力節数を増やせばよいというわけではなく,入力された節をどのように利用するのかの検討が必要となる.また,検出及び分類に適したモデルと適さないモデルの存在が示唆された.検出性能と分類性能のさらなる向上のためには,使用するモデルの選定も重要であると考えられる.今後は,本実験で取り扱った4つのモデル以外についても,利用を検討したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{伊藤滉一朗}{%2019名大・工・情報卒.2021同大大学院情報学研究科博士前期課程了.修士(情報学).現在,同博士後期課程在学中.自然言語処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,ACL各会員.}\bioauthor{村田匡輝}{%2008名大・工・情報卒.2013同大大学院情報科学研究科博士後期課程了.博士(情報科学).同年,豊田工業高等専門学校情報工学科助教.現在,同准教授.自然言語処理,音声言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{大野誠寛}{%2003名大・工・情報卒.2007同大大学院情報科学研究科博士後期課程了.博士(情報科学).同年,名古屋大学大学院国際開発研究科助教.2011同大情報基盤センター助教.2017東京電機大学未来科学部情報メディア学科准教授.現在,同教授.2006~2007日本学術振興会特別研究員.自然言語処理,音声言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{松原茂樹}{%1993名工大・工・電気情報卒.1998名大大学院博士課程了.博士(工学).同大助手,助教授,准教授を経て,2017名古屋大学教授.この間,日本学術振興会特別研究員,ATR音声言語コミュニケーション研究所客員研究員,情報通信研究機構専攻研究員.自然言語処理,音声言語処理,情報検索,ディジタル図書館の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,IEEE各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate%%%%受付日の出力(編集部で設定します)\end{document}
| |
V27N04-07
|
\section{はじめに}
比喩表現は,意味解釈の構成性の要請を満たさない事例の代表である.\citeA{Lakoff-1980}(日本語訳\cite{Lakoff-1986})は「思考過程の大部分が比喩によって成り立つ」と言及している.言語学においても,そもそも形態や語彙,辞書構造,文法をはじめ,言語の大部分が比喩的な性質に\fixed{基づくとされ},比喩研究は「言語の伝達のメカニズムを理解していくための基礎的な研究」と位置づけられる\cite{山梨-1988}.また,言語処理においても基本義からの転換という現象が意味処理の技術的障壁になっている.比喩表現データベースは,言語学・言語処理の双方で求められている重要な言語資源である.そこで我々は,『現代日本語書き言葉コーパス』\cite{Maekawa-2014-LRE}(以下BCCWJと呼ぶ)コアデータ1,290,060語57,256文に基づく大規模比喩表現データベースを構築した.比喩性の判断は,受容主体の主観によ\fixed{るものであ}り,形式意味論的な妥当性・健全性を保持しうるものではない.我々は,\fixed{研究対象となる比喩表現が適切に含まれるような}作業手順としてMIP(MetaphorIdentificationProcedure)\cite{Pragglejaz-2007}を拡張したMIPVU(MetaphorIdentificationProcedureVUUniversityAmsterdam)\cite{steen-2010}を取り入れる.さらに,\fixed{安定的に一貫して抽出する}ため,先行研究の中でもより形式的に比喩を捉える\citeA{中村-1977}の研究に倣い,\fixed{\underline{喩辞(喩える表現)の}}\underline{\bf基本義からの語義の転換・}\underline{逸脱と\fixed{喩辞に関連する}要素の結合}に着目する.\fixed{喩辞の}語義の転換・逸脱の判断には,『分類語彙表』\cite{WLSP}に基づいた語義を用い,\fixed{被喩辞(喩えられる表現)との語義の差異を検討する\footnote{本稿では,喩える表現・語を「喩辞」,喩えられる表現・語を「被喩辞」と呼ぶ.それぞれ,「喩詞」と「被喩詞」,「ソース(source)」と「ターゲット(target)」,「サキ」と「モト」,「媒体(vehicle)」と「主題(topic)」と呼ばれるものに相当する.}.}\fixed{さらに,被喩辞相当の語義があるべき箇所に喩辞の語義が現れる}表現中の要素の結合における比喩的な転換・逸脱の有無を確認する.\fixed{比喩表現と考えられる部分について,喩辞相当の出現箇所を同定するともに,比喩関連情報をアノテーションする.}但し,非専門家が比喩表現と認識しない表現を多く含む結果となるため,非専門家の判断としてクラウドソーシングによる比喩性の判断を収集する.我々が構築した指標比喩データベースは,以下のもので構成される:\begin{itemize}\item比喩表現該当部(\ref{subsec:db:extract}節)\item比喩指標要素とその類型\cite{中村-1977}(\ref{subsec:db:nakamura}節),その分類語彙表番号(\ref{subsec:db:nakamura}節,\ref{subsec:db:wlsp}節)\item比喩的転換に関わる要素の結合とその類型(\ref{subsec:db:nakamura}節),その分類語彙表番号(\ref{subsec:db:wlsp}節)\item概念マッピングにおける喩辞・被喩辞(\ref{subsec:db:anno}節),その分類語彙表番号(\ref{subsec:db:wlsp}節)\item概念マッピングに基づく比喩種別(擬人・擬生など)(\ref{subsec:db:anno}節)\item非専門家の評定値(比喩性・新奇性・わかりやすさ・擬人化・具体化)(\ref{subsec:db:crowd}節).\end{itemize}本稿では,そのデータ整備作業の概要を示すとともに構築したデータベースの基礎統計や用例を示す.\fixed{本研究の貢献は次の通りである.まず,BCCWJコアデータ6レジスタ(Yahoo!知恵袋・白書・Yahoo!ブログ・書籍・雑誌・新聞)1,290,060語57,256文に基づく,日本語の大規模指標比喩データベースを構築した.この指標比喩データベース構築において,まず英語で実施された比喩用例収集手法であるMIP,MIPVUに対して『分類語彙表』の語義に基づく手法を提案し,日本語の比喩用例収集作業手順を整理した.本作業に必要な比喩用例収集の手掛かりとなる\citeA{中村-1977}の比喩指標要素(359種類)を電子化し,新たに分類語彙表番号を付与し,再利用可能な比喩指標要素データベースを整備した.また,収集した比喩表現に対し,喩辞・被喩辞・分類語彙表番号・比喩種別などをアノテーションした.さらに,収集した指標比喩を刺激としてクラウドソーシングによる質問紙調査を実施し,非専門家の比喩性判断を収集した.構築した大規模指標比喩データベースに基づく調査が可能となったため,比喩表現の遍在性を確認し,非専門家の比喩性判断の実態を明らかにした.}本稿の構成は次のとおりである.\ref{sec:related}節に関連研究を示す.\ref{sec:db}節ではデータ整備の概要について解説する.\ref{sec:eval}節ではデータの集計を行い,指標比喩の分布を概観する.\ref{sec:final}節にまとめと今後の方向性について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
\label{sec:related}以下では,比喩表現コーパス・比喩表現用例集の先行研究について確認する.\ref{subsec:related:mip}節では,英語に関する先行研究としてAmsterdamMetaphorCorpus\cite{steen-2010}とその作業手順であるMetaphorIdentificationProcedure(MIP)\cite{Pragglejaz-2007}について解説する.\ref{subsec:related:nakamura}節では,我々の研究の基底となる\citeA{中村-1977}の『比喩表現理論と分類』における日本語の比喩表現の定義について示す.\ref{subsec:related:japanese}節では,その他の日本語の比喩表現コーパスおよび比喩表現用例集について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{AmsterdamMetaphorCorpusとその作業手順MIP}\label{subsec:related:mip}英語における大規模な比喩コーパスの先行研究として,AmsterdamMetaphorCorpus\cite{steen-2010}がある.BNC-Babyコーパスから抽出した4レジスタ約19万語を用い,隠喩(indirect)と直喩(direct),暗黙(implicit)の3種類の比喩の関連語を検索可能にしたもので,MIP(MetaphorIdentificationProcedure)\cite{Pragglejaz-2007}を拡張したMIPVU(MetaphorIdentificationProcedureVUUniversityAmsterdam)\footnote{\url{http://www.vismet.org/metcor/documentation/MIPVU.html}}\cite{steen-2010}により,語単位の比喩性が判定され,直喩の指標(metaphorsignals)と概念マッピング(conceptualmappings)情報が付与されている.図\ref{fig:MIP}にMIPの概要(著者訳)\cite{Pragglejaz-2007}を示す.テキストを読んで,テキストの文脈内における語義を判定し,基本義からの転換を認識する作業手順であるが,語義の判定基準および基本義の定義などは言語依存であろう.\fixed{\ref{subsec:db:mip}節では,このMIPに基づく日本語の比喩表現収集手順の概要を図\ref{fig:MIP}に対応する形で示す.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-4ia6f1.eps}\end{center}\caption{MetaphorIdentificationProcedure(MIP)の概要(著者訳)}\label{fig:MIP}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fixed{MIPVUはMIPが認定する比喩表現を直喩や境界事例にも拡張したものである.}図\ref{fig:MIPVU}にMIPVUによるMIPの拡張(著者訳)\cite{steen-2010}を示す.\fixed{比喩表現と見なす収集対象として,隠喩のみならず,直喩や比喩の境界事例を含む.}語義の典拠として,主にMacmillanDictionary\footnote{\url{https://www.macmillandictionary.com/}}を用い,MacmillanDictionaryでは判断できない場合に,LongmanDictionaryofContemporaryEnglish\footnote{\url{https://www.ldoceonline.com/}}を用いる.2つの辞書でも判断がつかない場合は,OxfordEnglishDictionary\footnote{\url{https://www.oed.com/}}を用いる.基本義の認定に,通時的な語源を重視しないことが明記されている.また,比喩と判断されうるものを網羅的に抽出することを目指しているが,概念メタファー(conceptualmetaphor)は認定しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-4ia6f2.eps}\end{center}\caption{MIPVUによるMIPの拡張(著者訳)}\label{fig:MIPVU}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{中村の『比喩表現の理論と分類』}\label{subsec:related:nakamura}日本語比喩表現の実態調査に,明治~昭和期の文学作品50種から比喩情報の抽出を行った国立国語研究所報告57『比喩表現の理論と分類』\cite{中村-1977}があり,我々の研究の比喩の定義は\citeA{中村-1977}の研究に基づく.中村は,日本語の比喩表現を,受容過程における比喩性把握に着目し,次の3類型に分類している:\begin{itemize}\item第1類指標比喩\\受容主体が表現主体の比喩意識を感じ取る,換言すれば,受け手側での比喩の成立に直接に形式的に慣用している,特定の言語形式をそなえており,それを<中略>2項間の関係の特異性としてでなく,他から独立に抽出できる種類の比喩表現\item第2類結合比喩\\何らかの言語単位の結びつきに,慣用からの顕著な逸脱または非論理性,少なくとも言語上の論理的な飛躍が感じられる種類の比喩表現\item第3類文脈比喩\\比喩の目印となる指標も,要素間の結合上の異常性も特に認められないが,その表現形式が表す言語的な意味と,それがその場であらわしていると思われる個別的な意味との対応に慣用から著しいずれが意識される種類の比喩表現\end{itemize}第1類の指標比喩は,手掛かり句を持つ表現で技法としては直喩(simile)に相当し,中村は例文(\ref{exe:type1})をあげている.ここでは,実際に行われた事柄の非現実性を表現するために,「宙を歩いている」という表現により喩えている\footnote{比喩を表す場合に「喩える」を用い,例示を表す場合に「例える」を用いる.クラウドソーシング調査における\fixed{実験協力者}への教示は,「たとえる」を用いた.}とするが,「ような気がする」という形式によって,比喩であることが把握される例である.\begin{exe}\ex耕はひたいに汗をおぼえた。息が苦しくなった。宙を歩いているような気がする。\\\label{exe:type1}\hfill{(「顔」丹羽文雄)}\end{exe}第2類の結合比喩は,技法としての隠喩(metaphor)に相当し,中村は例文(\ref{exe:type2})をあげている.例文中には複数の比喩表現がみられ,仮想の抽象体である「えたいのしれない不吉な塊」が,精神活動の抽象体である「私の心」に対して,物理的な働きかけである「圧えつけ」を行っている,全体として文字どおりの解釈ができない見立てとする.\begin{exe}\exえたいのしれない不吉な塊が私の心を始終圧えつけていた。\\\label{exe:type2}\hfill{(「檸檬」梶井基次郎)}\end{exe}第3類の文脈比喩は,言語形式も構成要素間の結びつきの異常も持たない表現である.技法としては諷喩(allegory)にあたり,中村は例文(\ref{exe:type3})をあげている.「打つべき釘を、打ち残した気持ち」は,大工仕事をしたあとの気持ちを表すことも可能であり,「気組みを守った。」まで読んだ全体としても文字どおりの解釈が可能である.しかし,前後の文脈から文字どおりの意味ではなく何かの見立てであると感じる場合,文脈中において文脈との無縁性のために比喩となる例である.\begin{exe}\ex打つべき釘を、打ち残した気持ちがつづき、香奈江は、答えをせぬことで、わずかに相手をはねかえす気組みを守った。\\\label{exe:type3}\hfill{(「風ふたたび」永井龍男)}\end{exe}中村は「表現主体の比喩意識の反映とみられる何らかの言語形式をそなえており,それが受容主体の比喩把握に一役買っている」場合を「A型把握」とし,A型把握によって収集された指標比喩にあたる用例を1,617種類の類型に整理し,359種類の比喩指標要素を体系化した.本研究においては,この中村の比喩指標要素の近傍に出現する比喩表現の収集を行う.指標比喩の全数収集を目指すが,結合比喩・文脈比喩が認められた場合にはデータベースに登録する.作業に先立ち,同書に含まれる比喩指標要素などの電子化を行った.詳細については\ref{subsec:db:nakamura}節に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{その他の日本語の比喩表現用例集および比喩表現コーパス}\label{subsec:related:japanese}本節では,\citeA{中村-1977}以外の日本語の比喩表現用例集および比喩表現コーパスの先行研究について紹介する.\pagebreak最初に指標比喩(いわゆる直喩)関連の研究を紹介し,次に結合比喩(いわゆる隠喩)関連の研究を紹介する.最後に書籍として出版されている比喩表現用例集を示す.{\bf指標比喩関連:}比喩表現の収集にあたり,比喩であることを明示する,比喩の指標(手掛かり句)となる表現を含む指標比喩(いわゆる直喩)は,指標を用いた比較的容易な収集が期待される.過去の研究は比喩指標要素「ようだ」のみを対象とするものが多い.これらすべての比喩指標要素を含む表現を収集すれば,多くの直喩用例が収集可能であるように思われる.しかし,指標は必ずしも比喩表現のみに含まれる語句ではない.指標を手掛かりにコーパスから用例収集を試みる際にも,人手による判別作業が必須である.また,比喩指標の語句は,類語や言い換えの可能な表現があり得るため多様であり,類似表現を網羅的に検索することも必要になる.\citeA{寺井-2018}は,REX-Jコーパス\cite{Spanger-2012}に含まれる参照表現において比喩が用いられているかを検討した.\citeA{寺井-2019}は,青空文庫に出現するデータから「ように」「ような」を\modified{比喩指標要素}として19,209文の自動抽出を試みた.抽出には係り受け解析器(CaboCha)の出力に基づくパターンと分類語彙表番号に基づく喩辞の制約を課している.但し,我々の研究のように比喩と例示の区別はされていないと考えられる.また,質問紙調査による指標比喩に対する小規模な評定調査が,心理学の分野で進められている.\citeA{楠見-2004}は直喩形式の評定を行うために,「AはBのようだ」に修正可能な表現を500以上収集した.収集元は,心理学研究の先行研究\cite{楠見-1995,Nakamoto-2003,Ortony-1985}や比喩表現辞典\cite{榛谷-1988,中村-1995}であった.このうち120用例を取りあげ,理解可能性・構成語類似性・独創性・面白さについて7件法により60--64人規模で評定調査を行った.\citeA{平-2007}は直喩文30文に対して,理解容易性・主題と喩辞の類似性・表現の意外性・表現の親しみやすさ・面白さについて5件法で70人規模で評定調査を行った.\citeA{岡-2019}は,\citeA{楠見-2004}の120用例について,50名規模で解釈産出課題を行い,多義性の検討を行った.さらに24名規模で,9件法による表現の選好性課題・喩辞の慣習性課題\cite{Bowdle-2005,Utsumi-2007}を行った.{\bf結合比喩関連:}一方,比喩であることが比喩指標要素によって明示されない比喩表現の収集は,指標比喩と比べて困難である.このうち,結合比喩は,基底となる語義の体系を決定したうえで,語義の連接・共起のちがいを手掛かりとした抽出が試みられている.なお,この語義の連接・共起のちがいは,指標比喩においても有用な手掛かりであると考える.作業手順としては,基本的に\ref{subsec:related:mip}節に示した,MIP・MIPVUに基づく手法が利用される.日本語でも,MIPを用いた比喩表現コーパスの構築を目指し\cite{伊藤-2014},MIP,MIPVUによる比喩判定も試みられている\cite{宮澤-2016}.\citeA{宮澤-2016}は,MIP・MIPVUに基づき,『岩波国語辞典第五版タグ付きコーパス2004』を語義の判断基準とし,目的語・動詞の結合についての比喩性判断(中村の結合比喩に相当)を1,100文に対して行った.動詞の複合語の語義判断については,『複合動詞レキシコン』\cite{神崎-2013}による.これに対し,本研究はMIP,MIPVUをBCCWJのコアデータおよび『分類語彙表』\cite{WLSP}の語義に基づき整理を行う(\ref{subsec:db:mip}節).分類語彙表の語義情報である分類番号が付与されたデータBCCWJ-WLSP\cite{kato-2018-wlsp}を基底となる語義の体系とし,\ref{subsec:related:nakamura}節に示す\citeA{中村-1977}に基づく比喩指標要素と語義の連接・共起に基づく比喩表現の収集作業を行った.さらに,全文を対象として比喩指標要素を用いない,語義の連接・共起のみに基づく,結合比喩の収集作業についても着手している\cite{Kato-2019}.{\bfその他:}紙の辞典形式の比喩表現用例集として,\citeA{榛谷-1988,中村-1995,中村-2007,野内-1998,野内-2005,佐藤-2006}などがある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{指標比喩データベースの構築手法}
\label{sec:db}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{MIPに基づく日本語\fixed{指標比喩データベース整備作業の全体像}}\label{subsec:db:mip}\fixed{本節では指標比喩データベース整備作業の全体像について解説する.比喩用例収集手順として\ref{subsec:related:mip}節に示したMIP\cite{Pragglejaz-2007},MIPVU\cite{steen-2010}を採用し,日本語対応した.本研究の比喩表現の捉え方は\ref{subsec:related:nakamura}節に示した\citeA{中村-1977}に基づく.}本研究の基本的な対象は,比喩指標要素の近傍に,非慣用,非論理的など,基本義の用法から逸脱した異例の結合を,何らかの比喩的転換として確認できる用例である.しかし,指標比喩の用例は概ね結合比喩と重複するが,言語形式が認められても結合の確認が困難な例や,言語形式(指標と認定する範囲)が不明瞭である例,結合要素そのものよりも周辺語句の影響が強くみとめられる例などもあるため,関連語を漏れのないよう収集する必要がある.MIPを用いることで,語単位に比喩性の判定が可能となり,広く比喩表現に関係する要素の収集が可能となる.また,比喩的な転換の見られる要素の結合に着目し,慣用からの逸脱を確認する点においても,基本義との対照を行う手法が有用であると考えられる.但し,この比喩的な転換の認識は,主観的なものであり,客観性を持たせることは本質的に困難である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-4ia6f3.eps}\end{center}\caption{MIPに基づく日本語比喩表現\fixed{指標比喩データベース整備作業}}\label{fig:MIP-JA}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以下では,\fixed{図\ref{fig:MIP-JA}に,図\ref{fig:MIP}に示したオリジナルのMIPに対応する形式で,}日本語において言語資源を援用しながら客観性を担保して比喩表現を抽出する\fixed{指標比喩データベース構築手法を}示す.日本語比喩表現抽出手順の概要について示す.まず最初にテキストを読んで語義の理解を行う(1).\fixed{比喩用例収集にあたっては\citeA{中村-1977}の359種類の比喩指標要素とその類似用例(『分類語彙表』\cite{WLSP}により判定)を手掛かりとし,その近傍を調査する.本研究の前提となる比喩指標要素の詳細を\ref{subsec:db:nakamura}節に示す.比喩用例収集対象をBCCWJコアデータ6レジスタ(Yahoo!知恵袋・白書・Yahoo!ブログ・書籍・雑誌・新聞)1,290,060語57,256文とする.比喩用例収集対象の一部には『分類語彙表』\cite{WLSP}の語義(分類番号)が付与されている.また,同じサンプルに助動詞の用法が付与されている.本研究で語義の転換の認識に用いる語義・用法アノテーションの詳細を\ref{subsec:db:wlsp}節に示す.}次に単位を決める(2).本作業では国語研短単位を基本とした.次に各単位の語義を推定する(3)(i).基本的にはテキストを読んで作業を行うが,語義アノテーションが利用できる場合には語義アノテーションを援用する.さらに各単位について他の文脈での基本義との対照を検討する(3)(ii).基本義の同定においては,『日本国語大辞典』\footnote{\url{https://japanknowledge.com/lib/search/nikkoku/}}のほか,代表義\cite{yamazaki-2017}・語義アノテーションの頻出語\cite{kato-2018-wlsp}などを手掛かりとする.また要素の結合の比喩性の認識にあたっては基本結合\cite{宮島-1972}・比喩的結合\cite{中村-1977}を確認する(3)(iii).\fixed{上記(1)(2)(3)(i)~(iv)の手続きに基づき,}比喩的な転換のみとめられる結合と判定し,比喩性を認定し,\fixed{喩辞の出現箇所の同定を行う}(4)(i).\fixed{なお,提喩など比喩的結合のみとめられないものも,その喩辞の出現箇所同定および比喩表現該当部の同定を行う.}\fixed{比喩表現には,比喩指標要素・比喩表現該当部・喩辞・被喩辞・結合・類型化・比喩種別(擬人・擬生や換喩・提喩・慣用など)を付与する}(4)(ii).詳細については\ref{subsec:db:anno}節で述べる.最後に,比喩表現に対する非専門家の評定値をクラウドソーシングにより収集する(4)(iii).\ref{subsec:db:crowd}節に評定値の収集手法について示す.なお,MIPはMetaphor(隠喩,\citeA{中村-1977}の結合比喩・文脈比喩)を主対象とした手法である.MIPを拡張したMIPVUは,比喩指標要素に該当する「MFlag」の付与も行っているが,指標比喩をMetaphorと区別する\fixed{も}のではない.本作業は,指標のあるいわゆるSimile(直喩,\citeA{中村-1977}の指標比喩)を主対象とするが,概ね同時に結合比喩が確認できる(比喩的な転換に差がない)ことから,収集した表現がMetaphorと別種とは位置づけない.また,類似に基づく典型的な転換ではない,いわゆる換喩(事物・事象の隣接性という類縁関係に基く「質的転換」)や提喩(類と種という概念の「量的転換」)のような用例も,要素の結合における比喩的転換の把握によって取得される\footnote{「換喩」「提喩」の定義は\cite{中村-1977}に基づく.}.このほか,比喩指標要素を用いることで,MIPにおいても作業効率のあがる可能性を期待した.いずれ比喩指標要素と共起しない第2類結合比喩・第3類文脈比喩も収集するが,本稿では網羅的な比喩データベース構築の出発点として,また指標比喩用例の実態分析を進めるために,\ref{subsec:db:nakamura}節に示す\citeA{中村-1977}の比喩指標要素を手掛かりとした作業を行う.さらに比喩指標要素については,分類語彙表番号に基づく同義性を用いた汎化も試みる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{中村(1977)の比喩指標要素と比喩指標要素に対する分類語彙表番号付与}\label{subsec:db:nakamura}本研究では,受容過程における比喩性把握に着目し,比喩意識の指標となる言語形式を有する比喩(指標比喩)のデータベース構築を目標とする.「あたかも」「まるで」「よう」など,手掛かり句である「比喩指標要素」が明示的に出現する,指標比喩の事例収集を行うことになる.但し,指標は,比喩性を感じ取る(A型把握)という点において有用な言語形式であるが,比喩性の判断においては,指標比喩も結合比喩や文脈比喩と同様の手順を必要とする.よって,指標から当該表現に比喩性があるという可能性を感じるとしても,比喩性の判断には根拠を要する.そこで,本データベースにおいても,結合比喩・文脈比喩と同様,要素の結合や文脈における慣用からのずれに着目した情報を含める.そのために『分類語彙表』\cite{WLSP}の分類番号(分類語彙表番号)を語義の判断基準とした分析を進める.我々は,指標比喩データベースの整備のため,\citeA{中村-1977}の指標比喩の1,617類型と359種類の比喩指標要素を電子化し,分類語彙表番号を新たに付与した.紙面から手入力し電子化ファイルを構築し,形態素解析MeCabとUniDicを用いて,短単位形態論情報を付与した.その後,UniDic語彙素-分類語彙表番号対応表(WLSP2UniDic)\footnote{\url{https://github.com/masayu-a/wlsp2unidic}}\cite{Kondo-2018}を用い,分類語彙表番号を付与した.自動で付与できなかったものについては,人手で修正を施した.\citeA{中村-1977}の類型は分類語彙表番号順に整理されており,本指標整備時から分類語彙表の体系を意識していたことが推察される.比喩指標要素は,その品詞からD類(動詞)・F類(副詞)・J類(助詞)・K類(形容詞・形容動詞)・M類(名詞)・R類(連体詞)・S類(接尾辞)に類型化されている.表\ref{tbl:ruikei}に例を示す.「ようだ」以外にも多様な比喩指標要素が定義されていることがわかる.比喩指標要素は,類・種・号により階層化されている.%表\ref{tbl:candidate}右の候補数・抽出用例数の分布については,\ref{subsec:db:extract}節で触れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{比喩指標要素の類型と例}\label{tbl:ruikei}\input{06table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\hangcaption{比喩指標要素に対する分類語彙表番号割り当ての例:「よう」分類番号3.1300(様相)と3.1130(類似)}\label{tbl:you}\input{06table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:you}に比喩指標要素に対する分類語彙表番号割り当ての例として「よう(比喩指標要素の類型:K-9-1・UniDic語彙素:様)」を示す.多義である「よう」は,分類語彙表番号として3.1300の「様相」と3.1130の「類似」の2つを持つ.また,同範囲には助動詞「ようだ」の用法として,「類似」・「内容指示」・「例示」・「婉曲」の4つのいずれかが付与されている.このうち,3.1130「類似」の例のみが比喩表現に相当している.この分類語彙表番号を用いて,多義語に対する語義の曖昧性解消を行いながらの比喩指標要素の抽出が可能になる.また分類語彙表番号が同じ要素を類似比喩指標要素とし,候補の抽出に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{『現代日本語書き言葉均衡コーパス』に対する分類語彙表番号アノテーション\modified{および助動詞用法アノテーション}}\label{subsec:db:wlsp}比喩表現は意味的な転換を含む表現であるため,語義アノテーションを含むデータを用いることにより,効率的に抽出できる.また比喩指標要素も多義性があるため,助動詞の用法も含めた語義アノテーションを用いることにより,作業者の負担を減らすことができると期待される.本研究では語義アノテーションとしてBCCWJコアデータの一部に対する分類語彙表番号アノテーションデータ\cite{kato-2018-wlsp}を用いる.同データは,前述のUniDic語彙素-分類語彙表番号対応表(WLSP2UniDic)により,BCCWJの言語単位(短単位・長単位)に対応可能性のある分類語彙表番号を列挙したうえで,人手で文脈上の正しい語義を選択したものである.列挙された分類語彙表番号の選択肢に該当する意味分類がない場合には,新たに適切な番号を付与してある.BCCWJコアデータにはアノテーションの優先順位\footnote{\url{https://github.com/masayu-a/BCCWJ-ANNOTATION-ORDER}}が規定されており,レジスタ毎にA,B,C,D,Eまでの2--5の集合に分割されている.分類語彙表番号はサンプルPB(A),PB(B),PM(A),PM(B),PN(A),PN(B)(書籍・雑誌・新聞)347,094語15,969文の短単位すべてに人手によって付与されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{BCCWJに対する分類語彙表番号アノテーション}\label{fig:wlsp}\input{06table03.tex}\par\vspace{4pt}\small(サンプルID:PB12\_0000,『闇を歩く』中野純(著))\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{fig:wlsp}に分類語彙表番号アノテーション例を示す.この例では,比喩指標要素である「よう」に,「関係-類-異同・類似」を示す「.1130」の分類語彙表番号下4ケタが付与されており,続く「闇を体験する」という結合から,比喩表現であるとされる.さらに喩辞「闇」の語義1.5010(体-自然-自然-光)が,被喩辞「サブリミナル」の語義1.3001(体-活動-心-感覚)に転換されていることもわかる.上に述べた分類語彙表番号は自立語が主な対象であるが,付属語の情報として,同範囲に助動詞の文法的な用法が別途付与されている\cite{加藤-2019}.以下の例文(\ref{exe:you})では,2つ出現する「よう」のうち,前者は比喩指標要素になる「類似」用法であり,後者は「内容指示」用法である.助動詞の用法アノテーションにより,後者の比喩指標要素の語義の判定が不要になる.\begin{exe}\ex転機はひとみさんが六年生のとき。研究のため家族四人そろって渡米した。不登校は相変わらずだったが、本に興味を持ってくれた。日本から送った古典の現代語訳作品をはじめ、本棚に並ぶ本をむさぼり読んだ。一緒に行動しようと自分が好きな舞台に連れ出すと、長時間のオペラを食い入る\underline{よう}に見つめていた。帰国後、中学校の校長は「特別扱いはできないが、卒業証書は出す」と言った。不登校に加え、何度となくリストカットも繰り返す。カウンセリングにも通った。本格的に小説を書く\underline{よう}になったのもこのころだ。\label{exe:you}\\\hfill{(サンプルID:PN4g\_00003\footnote{BCCWJにおけるサンプルの識別子.},西日本新聞,下線部は著者による)}\\\end{exe}本データはBCCWJのコアデータの一部であるが,語義の曖昧性が解消されており,指標比喩データベースの整備作業の補助に利用できる.コーパスに分類語彙表番号と助動詞の用法が付与されているため,あらかじめ判明している指標となりえる要素(自立語もしくは助動詞)については,多義語が比喩指標要素に適合するか否かの絞り込みを行える.また,\ref{subsec:db:extract}節で述べるように,分類語彙表の同じ分類番号を持つ語のグループを類義語としてみなし,\citeA{中村-1977}の比喩指標要素の類義語を新しい手掛かり語として展開する.\citeA{中村-1977}の比喩指標要素は分類語彙表番号順に整理されていることから,分類語彙表番号が抽出の手掛かりになると考える.さらに,自動処理により比喩を検出する場合にも,UniDic語彙素-分類語彙表番号対応表(WLSP2UniDic)により,特徴量として分類語彙表の情報を用いることを想定する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比喩\fixed{表現出現箇所同定}}\label{subsec:db:extract}次に比喩\fixed{表現出現箇所同定}の詳細について示す.\citeA{中村-1977}の比喩指標要素をBCCWJコアデータ全体1,290,060語57,256文に対して語彙素のパターンマッチにより枚挙した.抽出された比喩指標要素の前後文脈100形態素を与え,\fixed{言語学の知識を持つ者2名により}比喩表現であるか否かの判定を行った.さらに,分類語彙表番号で類義語句を展開したうえで,比喩表現候補を枚挙した.\citeA{中村-1977}の比喩指標要素に付与された分類語彙表番号で,BCCWJコアデータの分類語彙表番号付与済み部分347,094語15,969文(書籍・雑誌・新聞)に対してパターンマッチを行い,前後100形態素を展開し,比喩表現であるか否かの判定を行った.例えば,D1類については,「2.3001(感覚)」「2.3061(思考)」「2.3062(注意・認知)」「2.1130(類似)」「2.3066(判断・推測)」「2.1310(風・観・姿)」「2.3103(表現)」などが対応する分類語彙表番号であった.この分類語彙表番号により展開し,短単位では3,060例,長単位では539例が候補として得られた.この分類語彙表番号に基づく用例では,短単位で1.3\%にあたる41例,長単位で0.7\%にあたる4例が比喩表現を含んでいた.表\ref{tbl:candidate}に,D類(動詞)・F類(副詞)・J類(助詞)・K類(形容詞\modified{・形容動詞})・M類(名詞)・R類(連体詞)・S類(接尾辞)および分類語彙表番号により展開された比喩指標要素によって展開された候補数と抽出用例数を示す.K(形容詞\modified{・形容動詞})は「よう」「みたい」などの率が高い要素が多い一方,R(連体詞)は1件もなかった.分類語彙表番号により汎化したパターンのうち,実際に比喩表現の指標であったものは0.3\%であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{比喩指標要素による候補数と抽出用例数}\label{tbl:candidate}\input{06table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fixed{基本的に1つの比喩表現該当部に1つの喩辞が出現するように抽出する\footnote{但し,被喩辞・喩辞が明確でない提喩や文脈比喩が単体で出現する場合においてはこの限りではない.}.}1つの比喩用例が複数の比喩指標要素を含む場合(複合用例)もあり,その場合は重複して確認するが,1つの比喩表現該当部として抽出する.さらに,目的の比喩指標要素ではない要素による比喩表現該当部(指標外比喩用例)も抽出した.このため比喩指標要素と比喩表現が必ずしも1対1対応するわけではない.結果,822件の比喩表現該当部が抽出できた.このうち,複数(2つ以上)の比喩指標要素を含む複合用例は157件で,指標外比喩用例は10件であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比喩関連情報アノテーション}\label{subsec:db:anno}抽出された822件の比喩表現に対して,言語学の知識を持つ者\fixed{2名}により関連情報のアノテーションを行った.表\ref{tbl:annotation}に比喩情報アノテーション例を示す.この事例を用いて比喩関連情報アノテーション作業の概要を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{比喩関連情報アノテーション例}\label{tbl:annotation}\input{06table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%作業者は,\ref{subsec:db:extract}節の作業により\fixed{比喩表現出現箇所同定を行う}際に,比喩指標要素の前文脈100形態素と比喩指標と後文脈100形態素(表\ref{tbl:annotation}上部)の比喩用例を見て,何らかの要素の結合において慣用(基本義)からの逸脱を含むと判断した喩辞\fixed{(喩える語)}の位置を同定し,その文脈を比喩表現該当部として抽出する.\fixed{提喩などで,喩辞が明確化されない場合は,提喩の出現位置を同定し,その文脈を比喩表現該当部として抽出する.}この比喩表現該当部に対して,次に示す結合・被喩辞\fixed{(喩えられる語)}・喩辞・類型・種別・比喩指標要素分類などの情報を付与する.{\bf結合:}\fixed{結合は,被喩辞相当句が文脈上語義的に逸脱しない文脈において,喩辞相当句が語義的に逸脱して位置する場合,比喩的結合として逸脱が確認できる語句の連接を抽出する.}用例によっては,複数の結合を含む.要素の結合の欄には「跡が蛇」という結合に比喩的な語義の転換があると判定した旨を記載する.但し,例示や指示に近い用法\fixed{(境界事例)},指標がなければ成立しない表現などは,可能な形で記述し,種別欄にその旨を付記する.\fixed{また,提喩のように本質的に比喩的結合がみとめられない事例\footnote{例えば,「空気のような存在」「どこかこの世ではない場所」のような提喩の例などでは,用例中に被喩辞・喩辞が明示されないため,比喩的結合も確認できない.}もある.}\fixed{基本結合か否かの判定には,分類語彙表に基づく動詞の結合価の大規模な資料である\citeA{宮島-1972}を参照する.また,\citeA{中村-1977}の305ページ以下に比喩的結合5,537例\footnote{本作業に先立ち,中村の比喩的結合についてもMSExcel形式に入力したうえで,分類語彙表番号を付与した.}が示されており,これらも参考にする.}{\bf被喩辞・喩辞:}\fixed{被喩辞は「喩えられる語」,喩辞は「喩える語」を意味する.表\ref{tbl:annotation}では},被喩辞である「流れ出た溶岩の跡(その姿)」\footnote{ここでは,テキスト中において同定可能な語句として抽出している.なお,MIPの手順により,複数の作業者が各々比喩性を感じた短単位全てへのマークを別途行っている.}と喩辞である「巨大な黒ヘビ」を抽出する.比喩表現(概念マッピング)であることを読み取るにあたり,喩辞や被喩辞は結合から直接取得できない(「時代が痩せる」など)例が多いが,喩えるものと喩えられるものの認識が必要である.要素の結合に何らかの比喩的な語義の転換があることを明確化するとともに,概念マッピングの類型化の補助として収集する.比喩用例中に明記がなければ前後文脈から取得するか文脈を整理して記入する\footnote{ゼロ代名詞や省略など,比喩表現該当部に被喩辞が文字列として出現しない場合は,「#」を付記し,喩えられているものを記述する.}が,\fixed{先に述べた提喩をはじめ},いずれも不明瞭で取得できない場合がある.{\bf類型:}\fixed{類型は,比喩的結合に対して,字義どおりの解釈ができない(つまり,基本結合から逸脱している)ことを明らかにするための形式である.結合を要素に分解したもので,結合に含まれる喩辞と連接する語との間には比喩となる語義的な転換があり,その語義的な転換が分類語彙表上のどの語義とどの語義が基本結合から逸脱して連接しているかを示すものである.喩辞の語義を被喩辞の語義に置き換えると基本結合になることを想定する.}類型には,語義の転換のある結合に相当する要素とその分類語彙表番号,付随する付属語の情報(結合の関係)を記載する.なお,結合要素が固有名詞をはじめ複雑な構成を有した表現であるなどの場合には,分類語彙表番号が付与可能なレベルに概念化する.この類型の分類語彙表番号の差異から,どのような語義の間に転換が起きているのかが観察できる.\fixed{さらに,電子化した中村の比喩的結合5,537例と対照することも可能である.}{\bf種別:}種別には,擬人化・擬物化・擬生化・具象化など,比喩性の判断根拠となった要素の結合分類,喩辞と被喩辞の関係にあたる概念マッピング情報を付与する.\begin{enumerate}\renewcommand{\labelenumi}{\alph{enumi}).}\item『擬人』化(物(抽象物・具体物)を人に喩える)\\\modified{例)「溶岩が島民をあざ笑う(かのように)」「時代が痩せている(みたい)」\item『擬物』化(人を物に喩える)\\例)「私を貴方の道具としてお使いください」「平七郎が彫像のように立つ」\item『擬生』化(動植物に喩える,活喩,準擬人化)\\例)「生き物としての音楽」\item\modified{上記外の}『具象』化(抽象物を具体物に喩える)\\例)「学術研究の基盤(として)」「心を洗われた(と感じる)」\item\modified{上記外の『抽象』化(具体物を抽象物に喩える)}\\\modified{例)「何かの啓示のように雲が浮かぶ」}\itemその他の『転換』(上記外の別種の物事に喩える)\\例)「被害想定は防災カルテ(として)」「マエストロを歌舞伎役者にたとえた」}\end{enumerate}上記a)~e)は,類似性に基づく転換の,人(生物)・物体・抽象体における大まかな概念マッピングであり,\citeA{中村-1977}の結合類型の9割以上が上記a)~e)に分類される.しかし,他の事物・事象に置き換える際には,それほど大きく移行しない場合も見られる.たとえば,液体を気体に喩える(体の転換),聴覚を視覚に喩える(感覚の転換),哺乳類を鳥類に喩える(界の転換)などの転換が含まれる.本作業においては,このような{\bf小規模な転換}の出現頻度の少ないことが予想されたため,その他の「転換」としてまとめることにした.但し,後に付与する分類語彙表番号の中分類などにより,詳細な分類が可能である.なお,MIPVUではpersonalization(擬人化)を定義する\footnote{MIPVUの定義では擬人化に擬生化の一部が含まれている可能性がある.}が,日本語の比喩の議論で言及される,擬物化・具象化・抽象化といったものは導入されていない.以上の一般的な類似性に基づく転換のほか,語感のずれなどで感じやすい類と種の関係(量的転換)を判断根拠とした場合は『提喩』と分類し,付属物や中身を用いてあるもの全体を表現しているなど,隣接性(質的転換)を判断の根拠とした場合には『換喩』と分類した\footnote{『換喩』・『提喩』(『メトニミー』・『シネクドキ』)は研究者により,指すものが異なる傾向がある.本研究における分類は\citeA{中村-1977}に基づく.}.文脈比喩である(結合要素からのみでは判定できない)場合は『文脈』に分類し,慣用表現と判断された場合などは『慣用』に分類した.指標要素が別用法である可能性も考えられた場合は,「例示」「指示」「非断定」などの用法を『その他』として付記した.これらの種別情報は,\fixed{被喩辞-喩辞間}・結合単位\footnote{『提喩』などは単体の表現に,『文脈』はより広い範囲の表現に付与することもある.}に付与を行うため,複数の結合を持つ1つの比喩表現に対して複数の種別情報を付与する場合がある.例えば,「イカソーメンは、生のイカを二枚あるいは三枚に分け、素麺のように細く切り...」\fixed{で}は,結合「イカが素麺」(『転換』)と結合「素麺のように細い」(『提喩』)の2つの結合に対して付与し\fixed{用例全体には『転換-提喩』とタグ付けする\footnote{比喩表現該当部全体に対して付与する場合には,結合(要素)間の種別の共起を``-''で,結合(要素)内の種別の共起を``\_''で表す.}}.\fixed{また,「肝臓はすっかりブルーになっていたのか」という表現においては,「肝臓(の状態)」に対して『提喩』を付与するほか,結合「ブルーにな(る)」(『換喩』)と結合「肝臓がブルーにな(る)」(『擬人』)の2つの結合に付与し,用例全体には『提喩-換喩-擬人』を付与する.}さらに1つの結合が複数の種別ラベルを持つ場合がある.例えば,「その事態は会社がつぶれるようなもので」という表現中の結合「会社がつぶれる」に対しては,\fixed{『具象\_換喩\_慣用』}の複数ラベルが付与される.{\bf比喩指標要素分類・備考:}最後に,出現した\citeA{中村-1977}の比喩指標要素の分類記号「F-1-1(副詞:まるで)・K-9-1(形容詞:よう)」を付与する.比喩性に関わると考えられた指標要素全てにタグ付けする.備考には関連する情報を付与する.喩辞と被喩辞を含め,比喩性に関わると考えられた語句を可能な限り収集した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングによる評価}\label{subsec:db:crowd}これまでの作業は言語学の背景知識を持つ者により進めたが,専門的知識を持たない者が指標比喩表現をどのように捉えるかは明らかでない.そこでクラウドソーシングにより,表現に関する3つの観点(比喩性・新奇性・わかりやすさ)と,3つの観点との関連性を調査するための2種(擬人化・具体化)を加えた5つの評価を行った.\fixed{なお,表現に関する同様の質問紙調査を\citeA{中村-1977}の例文(比喩表現のみ)やIPAL辞書の動詞・形容詞の例文(比喩表現以外も含む)にも行った.}\begin{itemize}\item比喩性:何かを他の物事でたとえる(比喩)表現を含むか\footnote{我々は比喩性を二値的なもの(比喩であるか否かの二律背反なもの)ではなく,程度性を持つものとして扱う.}\\提示する例文はすべて比喩表現を含んでいるが,\fixed{実験協力者}が比喩であることを認識できるかについて評価する\\\fixed{質問項目:「何かを他の物事でたとえる(比喩)表現をふくんでいますか.」}\item新奇性:新しい表現を使っていると思うか\\(比喩)表現の新しさについて評価する.\\\fixed{質問項目:「新しい表現を使っていると思いますか.」}\itemわかりやすさ:わかりやすく表現されているか\\(比喩)表現を導入することによって,文意がわかりやすくなっているかわかりにくくなっているかを評価する.\\\fixed{質問項目:「わかりやすく表現されていると思いますか.」}\end{itemize}以下は,比喩表現に多いとされる「擬人化」「具象化(具体化)」が一般に読み取られるのかを調査するために用いた観点である.これらの概念マッピングを読み取ることで,その他の観点の判定に影響が現れるのかを調査するという補助的な目的で設定している.\begin{itemize}\item擬人化:人でないものを人に見たてているか\\比喩であるとして,擬人化か否かが認識できるかを評価する.\\\fixed{質問項目:「人でないものを人に見たてていますか.」}\item具体化:具体的なものに見たてて説明しているか\\比喩であるとして,具象化か否かが認識できるかを評価する.具象化が一般的な用語でないために「具体的」という用語を用いた.\\\fixed{質問項目:「具体的なものに見立てて説明していますか.」}\end{itemize}本調査はYahoo!クラウドソーシングを用いて行った.対象は20歳以上のYahoo!クラウドソーシングのアカウント所持者であった.調査協力者は,上記5つの観点について,「0:まったく違う」~「5:そう思う」の6種類の評定値(6件法)から1つ選択する.前節で抽出された822件の比喩表現該当部を820件に整理したうえで提示文とした\footnote{該当部だけでは比喩表現と認識されない場合は「<中略>」などとして整理を行った.結果複数の比喩表現該当部が1つに集約された場合があった.複数の比喩指標要素を持つ比喩表現該当部は複数回提示したが,同一の比喩表現該当部が同じ調査協力者に割り当てられないように配慮した.}.2019年2月15日8:00--2月16日00:10の間に異なり1,657人の評定値を収集した.\fixed{5つの観点の組み合わせについて全く同じパターンの回答を5回以上行った実験協力者を,データから除外し,1,164人分のデータを分析対象とした.}\fixed{実験協力者は6用例を判定するごとに10円相当のTポイントを得,最大30用例まで評価した.}費用は149,040円であった.%149040結果,1つの例文に対する22人~77人分の評定値(平均33.0人)を得た.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{比喩指標要素近傍における比喩表現使用傾向の検証}
\label{sec:eval}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーションデータ}\label{subsec:eval:anno}以下ではアノテーションデータの分布について確認する.表\ref{tbl:count}にレジスタ毎の比喩表現該当部の分布を示す.レジスタの文数・形態素数が異なるために10,000文あたりの相対度数,1,000,000形態素あたりの相対度数で評価する.書籍(PB)が最も多く,Yahoo!知恵袋(OC)や白書(OW)が少ない傾向にあった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\caption{比喩表現該当部および結合の分布}\label{tbl:count}\input{06table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:type-count}にレジスタ毎の種別の分布を示す.レジスタ毎に各種別の度数と相対度数(10,000文あたりの種別(結合)数)を計数した.なお,「結合0」は「その他」に分類し,1件と数えた.種別は1つの事例に複数の結合を認定したうえで結合ごとに複数のラベルを付与する(マルチラベル)ため,レジスタ毎の総計は表\ref{tbl:count}の比喩表現該当部数と異なる.種別を分類すると,「転換」(小規模な転換)が多数を占める(10,000文あたり57.8件)ことがわかる.文学作品の結合類型\cite{中村-1977}では1割未満の種別であったことから,隠喩として一般的ではない転換であるとも考えられる.大きな転換であれば,カテゴリーの違いによって比喩性のあることが読み取りやすいが,小規模な転換であるがゆえに,指標を用いて比喩であるという把握を促す傾向が考えられる.比喩表現の使用実態における指標の必要性が考えられる.本データベースで収集した用例の分析によって,指標を用いる必要のある表現の整理や,例示や内容指示など比喩との区別が問題視される表現の傾向も明らかになると期待される.擬人化は文学作品を含む書籍(PB)に多く(表\ref{tbl:type-count}下線部),\citeA{中村-1977}文学作品の結合類型の分布(擬人化が全類型の41.8\%)の結果と整合する.今後,書籍サンプルに付与されているNDC(日本十進分類法)の情報と対照することで,書籍のジャンル毎の検討を行いたい.また,抽象の用例が3件確認された.MIP,MIPVUのアノテーションの定義においては,具象化・具体化の方向で語義の転換があることを前提に比喩表現の認定がなされていたが,本データベースでは抽象化の方向でも語義の転換のあることが認められた.今後,他言語においても抽象化の用例があるかを検討する必要があろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\caption{結合に割り当てられる種別の分布}\label{tbl:type-count}\input{06table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:indicator-type-count}に比喩指標要素の頻度上位10件とその種別の分布を示す.よく直喩指標で用いられると考えられているK-9-1「よう」は,357例\footnote{種別は1事例に複数付与されるために行の合計より少ない数になる.}(今回抽出した指標比喩用例の43\%)に出現した.D-1-16「する」は「にする」「とする」が含まれ,特に慣用表現が多い傾向にある.K-9-3「みたい」とF-1-1「まるで」は小規模な転換(『転換』)が多い一方,D-1-1「感じる」は『具象』が多かった.小規模な転換においては,「まるで~のような」などの指標を組合せた類型が用いられやすく,言語形式によって比喩性の把握を促す傾向が強いといえる.「感じる」は身体性に関わる比喩表現に用いられ\cite{菊地-2018},被喩辞が身体で感じることの可能な具体物にされることになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{比喩指標要素(頻度上位10位まで)と種別の分布}\label{tbl:indicator-type-count}\input{06table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\caption{\modified{種別ラベルの共起}}\label{tbl:multilabel}\input{06table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:multilabel}に種別ラベルの共起について示す.具象と転換(用例(\ref{exe:comb:1})),具象と慣用(用例(\ref{exe:comb:3})(\ref{exe:comb:4})),転換と提喩(\ref{exe:comb:5})(\ref{exe:comb:6})が共起する傾向が見られた.具象化は一般に慣用化している例が多い.用例(\ref{exe:comb:1})は「作品が文化に筋を通す」(具象)と「作品のさわやかな筋」(転換\_具象)の2つの結合がある\footnote{用例単位のラベルとして結合(要素)間の種別の共起を``-''で,結合(要素)内の種別の共起を``\_''で表す(再掲).}.用例(\ref{exe:comb:3})は「胸が空く」(具象)と「胸のすくような成功」(慣用)の2つの結合がある.用例(\ref{exe:comb:4})は「チャンスを手にする」(具象\_慣用)の1つの結合がある.用例(\ref{exe:comb:5})は「得点で王となる」(転換)と「日本語キング(日本語クイーン)」(提喩)の結合がある.用例(\ref{exe:comb:6})は「相撲取りみたいな体格」(提喩\_転換)の1つの結合がある.なお,3つ以上ラベルが共起する場合(用例(\ref{exe:comb:7}):「政権が崩壊」(具象\_換喩)・「崩壊が目の当たり」(具象)・「崩壊を目の当たりにする」(慣用))もある.\begin{exe}\ex佐藤さんが指摘する「意地」は、大衆文化の中に、1本のさわやかな筋を通しているように思える。\\\hfill{(「具象-具象\_転換」サンプルID:PN4a\_00010)}\label{exe:comb:1}\ex胸のすくような成功の軌跡を一挙公開\\\hfill{(「具象-慣用」サンプルID:PM31\_00275)}\label{exe:comb:3}\exタイ・バンコクではチャンスも手にした。\\\hfill{(「具象\_慣用」サンプルID:PN4g\_00002)}\label{exe:comb:4}\ex次回の試験は十一月です。最高得点者は日本語キング、日本語クイーンとして表彰されます。\hfill{(「転換-提喩」サンプルID:PN3b\_00009)}\label{exe:comb:5}\ex兄は独り者で、相撲取りみたいな体格だという話だった。\hfill{(「転換\_提喩」サンプルID:PM31\_00020)}\label{exe:comb:6}\ex「私たちはイラクの中央政権の崩壊を目の当たりにしている」\\\hfill{(「具象\_換喩-具象-慣用」サンプルID:PN3a\_00002)}\label{exe:comb:7}\end{exe}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\caption{クラウドソーシングによる評定の分布(レジスタに基づく用例単位マクロ平均)}\label{tbl:crowdsource:register}\input{06table10.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{クラウドソーシングによる評定データ}\label{subsec:eval:crowd}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{クラウドソーシングによる評定値の基礎統計と上位事例・下位事例}\label{subsubsec:eval:crowd:stat}表\ref{tbl:crowdsource:register}にクラウドソーシングによる評定のレジスタに基づく提示用例\fixed{ごとの平均評定値の平均(用例単位マクロ平均)}を示す.比喩性は,書籍(PB)・Yahoo!ブログ(OY)・雑誌(PM)が高く,白書(OW)が低い傾向が見られた.新奇性は,Yahoo!ブログ(OY)・書籍(PB)が高く,白書(OW)が低い傾向が見られた.わかりやすさは,Yahoo!知恵袋(OC)が高く,白書(OW)が低い傾向が見られた.擬人化は,書籍(PB)・Yahoo!ブログ(OY)が高く,白書(OW)が低い傾向が見られた.具体化は,書籍(PB)・雑誌(PM)が高く,白書(OW)が低い傾向が見られた.これらの傾向に対しては,実験協力者のバイアスを考慮したうえで統計的に分析する必要がある.\ref{subsubsec:eval:crowd:analysis}節で詳細に検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\caption{クラウドソーシングによる評定の分布(種別に基づく提示用例単位マクロ平均)}\label{tbl:crowdsource:type}\input{06table11.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\caption{\modified{比喩性の評定(上位事例)}}\label{tbl:metaphorical-top}\input{06table12.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:crowdsource:type}にクラウドソーシングによる評定の種別に基づく提示用例単位マクロ平均を示す.比喩性は,擬生が最も高く,慣用が最も低い傾向が見られた.新奇性は,抽象が最も高く,慣用が最も低い傾向が見られた.わかりやすさは,転換が最も高く,抽象が最も低い傾向が見られた.擬人化は,擬人・擬生が高く,慣用が低い傾向が見られた.具体化は,擬生が高く,慣用が低い傾向が見られた.また,具象が低く,抽象が高いという傾向も見られた.これらの傾向に対して,実験協力者のバイアスを考慮したうえで統計的に分析する必要がある.\ref{subsubsec:eval:crowd:analysis}節で詳細に検討する.以下では,クラウドソーシングによる評定の上位事例・下位事例を検討する.表\ref{tbl:metaphorical-top}に比喩性の評定が上位の事例を示す.\modified{下線部は比喩指標要素を表す.比喩指標要素の範囲が重なる場合は最大の範囲のみ示す.なお,クラウドソーシングの呈示画面には,比喩指標要素が比喩性判断を促進しないように比喩指標要素を呈示しない.}「顔/りんご」「海に浮かぶ様/一本の棒」「本/宝石箱」といった結合は論理的に成立しないため,非比喩の解釈が発生しにくいと考えられる.また,「赤さ」「線状」「高い価値」のような,喩辞の有する属性を根拠とする見立てであることが,比喩性の判断に影響した可能性がある.表\ref{tbl:metaphorical-bottom}に比喩性の評定が下位の事例を示す.「口にする」「耳にする」「柱とする」「基礎にする」が比喩性評定の下位に来た.前二者は,発話や聴取をその行為が行われる器官を用いて表現する,いわゆる換喩である.一般に,換喩は「赤ずきん」「鍋を食べる」などの典型表現をはじめ,意識的に用いられる例が少ないと考えられる.また,「柱とする」「基礎にする」は\cite{Lakoff-1980}でいうところの`THEORIESAREBUILDINGS'の概念メタファーに基づく比喩表現である.人間の認知に根ざした比喩である場合,表現に対する異質性の印象が薄い可能性がある.なお,PB35\_00013の例において,比喩指標要素「となり」と「という」は,比喩表現を構成する指標ではない.このような比喩指標要素は比喩性判断に影響を与えることが考えられるため,クラウドソーシングの際には呈示していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\caption{比喩性の評定(下位事例)}\label{tbl:metaphorical-bottom}\input{06table13.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[b]\caption{新奇性の評定(上位事例)}\label{tbl:new-top}\input{06table14.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:new-top}に新奇性の評定が上位の事例を示す.「home/犠牲」「時代/痩せる」「リアリティーの無さ/スクリーンの向こう側」「闇/サブリミナル」「人生/ステップを刻みながら斜面を登る」といった取り合わせの異常性が目立つ.また,瞬きによる一瞬の闇を「サブリミナル」として捉え,死に至るまでの人生の歩みを「ステップを刻む」ものとして捉えるといった,通常ならば予測できないそれぞれの物事の側面を表現している.これが新奇性の一つの根拠になると推測される.表\ref{tbl:new-bottom}に新奇性の評定が下位の事例を示す.「手にする」「後にする」「教訓とする」「目の当たりにする」といった「Xに(と)する」形式と「動きを止められたように」が評定の下位となっている.「Xにする」形式は換喩的に意味を形成するものであり,積極的に表現対象となる事物をカテゴリーの異なる事物に見立てるものではない.「Xに(と)する」形式は比喩性の評定でも下位であったが,新奇性も薄い.「動きを止められたように」は助動詞「よう」の様態用法と区別しがたい境界的な例であり,比喩の新奇性という面では低いと判断されると予測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[b]\caption{新奇性の評定(下位事例)}\label{tbl:new-bottom}\input{06table15.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[b]\caption{わかりやすさの評定(上位事例)}\label{tbl:understandable-top}\input{06table16.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:understandable-top}にわかりやすさの評定が上位の事例を示す.大人として求められる性格・性質を欠いた人間を「子供」と表現することは慣用的であるが,〈幼稚〉という明確な属性を付加することができる.このように明確に属性が用いられる場合,理解されやすいと推測される.また,「噴火/噴水」や「大きな鉄船/巨大な壁」の取り合わせは被喩辞の様態を「噴水」や「巨大な壁」といった視覚的なイメージを有する喩辞によって説明している.このように明確な視覚的イメージを用いた場合も理解しやすい比喩として判断されると推測される.「いつも黒い服を着ている女性」を「葬式帰りのように見え」ると表現することは,「黒い服」が葬儀に着ていくことから,連想が容易であることによりわかりやすくなるのだと推測される.表\ref{tbl:understandable-bottom}にわかりやすさの評定が下位の事例を示す.「強たる物欲しみして身を亡すに譬給えるにや」は比喩関係の難しさよりも古語であるという文体による解読の難しさが存在する.また,「くずC」\footnote{分類語彙表番号1.3721資本・金銭:「C」は前場(前引け)や後場(大引け)の時刻にできた売買の値.}や「ヒョーヒボハン(表皮母斑)」のように被喩辞が馴染みの薄いものであり,何が喩えられているのか分からない場合もわかりやすさが低くなると推測される.これらのわかりにくさは比喩の問題ではなく文体・指示物の問題である.「(処女の失い方が)天使のような捨て方」であるという比喩は被喩辞である「処女の失い方」が明記されていないので,「天使」と「捨て方」の結合から理解することになる.処女についての文脈が無い場合\fixed{,}両者の結びつきは意外性があり,理解が難しくなる.「音楽としての意味思想の世界」は「音楽」に「意味思想の世界」が存在すると捉えている.ただ,喩辞・被喩辞の両者ともに抽象的であり,具体性が伴わないためにわかりやすさは低くなると推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[b]\caption{わかりやすさの評定(下位事例)}\label{tbl:understandable-bottom}\input{06table17.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table18\begin{table}[b]\caption{擬人化の評定(上位事例)}\label{tbl:prosopopoeia-top}\input{06table18.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:prosopopoeia-top}に擬人化の評定が上位の事例を示す.いずれの比喩表現も「月/王さま」「鳥/恋人」「水/友だち」「船/片眼・横たえる」「道路・公園/養子」「ボランティア/里親」と喩辞が人物・身体部位・動作であり,語彙的に人間であることが保証されている.人に喩えていることが語彙的に明確であることが擬人的であるという判断につながるのだと推測される.表\ref{tbl:prosopopoeia-bottom}に擬人化の評定が下位の事例を示す.擬人化的な比喩関係を持たない例が評定の下位となっている.また,「火口/すり鉢」のように場所の特徴を具体的な物によって喩えている例は人であることが関係しないため下位になると推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table19\begin{table}[b]\caption{擬人化の評定(下位事例)}\label{tbl:prosopopoeia-bottom}\input{06table19.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table20\begin{table}[b]\caption{具体化の評定(上位事例)}\label{tbl:concrete-top}\input{06table20.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table21\begin{table}[b]\caption{具体化の評定(下位事例)}\label{tbl:concrete-bottom}\input{06table21.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:concrete-top}に具体化の評定が上位の事例を示す.「メーク/ピカソ(の絵)」「噴火/噴水」「海に浮かぶ様/一本の棒」「鉄船/巨大な壁」「内出血の赤さ/ペンキ」はいずれも喩辞が明確な視覚的イメージを有している.そのようなイメージを被喩辞と重ね合わせることにより,被喩辞の具体的な様態が受け手に伝わると推測される.「メーク/ピカソ」「海に浮かぶ様/一本の棒」は比喩性判定の上位であり,「噴火/噴水」「鉄船/巨大な壁」はわかりやすさの判定の上位でもある表現であり,比喩性とわかりやすさと具体化には関連が存在することが予測される.表\ref{tbl:concrete-bottom}に具体化の評定が下位の事例を示す.「口にする」が4例存在する.「Xにする」形式が換喩的であり,積極的に表現対象を他の事物・事柄に見立てるものではないために具体化ではないと判断されたと推測される.「思い出したように」はある人物の話し方に対する表現主体の印象を示すものであり,具体化しようとする例とは判断されない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{クラウドソーシングによる評定値の統計分析}\label{subsubsec:eval:crowd:analysis}以下では得られたクラウドソーシングデータに関して,例文のバイアスおよび実験協力者のバイアスを考慮した統計分析を行う.rstan\cite{rstan}により,レジスタによる効果を分析するモデル(1)とレジスタ・種別による効果を分析するモデル(2)の線形混合モデル\fixed{を}構築し,ベイズ推定する.具体的には,比喩性・新奇性・わかりやすさ・擬人化・具体化の各パラメータを,提示文と実験協力者をランダム傾き(変量効果)としたうえで,レジスタと種別を傾き(固定効果)として定義した次式によりモデル化する.\begin{align*}&y\sim\mbox{Normal}(\mu,\sigma),\nonumber\\\mbox{(1)}&\mu\leftarrow\alpha+\beta^{OC}_{レジスタ}*\chi_{OC}(x)+\beta^{OW}_{レジスタ}*\chi_{OW}(x)+\beta^{OY}_{レジスタ}*\chi_{OY}(x)+\beta^{PB}_{レジスタ}*\chi_{PB}(x)\\&+\beta^{PM}_{レジスタ}*\chi_{PM}(x)+\beta^{PN}_{レジスタ}*\chi_{PN}(x)+\gamma^{*}_{例文}+\gamma^{*}_{実験協力者}.\nonumber\\\mbox{(2)}&\mu\leftarrow\alpha+\beta^{OC}_{レジスタ}*\chi_{OC}(x)+\beta^{OW}_{レジスタ}*\chi_{OW}(x)+\beta^{OY}_{レジスタ}*\chi_{OY}(x)+\beta^{PB}_{レジスタ}*\chi_{PB}(x)\\&+\beta^{PM}_{レジスタ}*\chi_{PM}(x)+\beta^{PN}_{レジスタ}*\chi_{PN}(x)+\beta^{擬人}_{種別}*x^{擬人}_{種別}+\beta^{擬生}_{種別}*x^{擬生}_{種別}+\beta^{擬物}_{種別}*x^{擬物}_{種別}\\&+\beta^{具象}_{種別}*x^{具象}_{種別}+\beta^{抽象}_{種別}*x^{抽象}_{種別}+\beta^{転換}_{種別}*x^{転換}_{種別}+\beta^{換喩}_{種別}*x^{換喩}_{種別}+\beta^{提喩}_{種別}*x^{提喩}_{種別}+\beta^{文脈}_{種別}*x^{文脈}_{種別}\\&+\beta^{慣用}_{種別}*x^{慣用}_{種別}+\beta^{その他}_{種別}*x^{その他}_{種別}+\gamma^{*}_{例文}+\gamma^{*}_{実験協力者}.\nonumber\end{align*}ここで,$y$は比喩性・新奇性・わかりやすさ・擬人化・具体化の各パラメータとする(評定値ごとに推定を行う).$\mbox{Normal}$は平均$\mu$標準偏差$\sigma$の正規分布とし,切片$\alpha$とレジスタ・種別に対応する傾き($\beta^{*}_{レジスタ},\beta^{*}_{種別}$)と例文・実験協力者のバイアス($\gamma^{*}_{例文},\gamma^{*}_{実験協力者}$)の線形式\footnote{ここで$\chi_{A}(x):=\begin{cases}1&\mbox{if}\;x\inA\\0&\mbox{if}\;x\notinA\end{cases}$(そのレジスタか否かの指示関数),$x^{A}_{種別}:=x\mbox{中の種別Aの結合の数}$とする.}である.各変数の事前分布は標準正規分布とし,ハイパーパラメータ$\sigma$も含めて,ベイズ推定(3chains,warmup100,1,000iteration)を行う.有効データポイント数は27,072,提示文数820,実験協力者数1,164であった.Gelman-Rubin統計量(Rhat)は1.1未満となっているときに,連鎖が定常状態に収束していると判断した.\fixed{本分析では,}構築したいずれのモデルも収束した.なお,同等のモデルを頻度主義的な線形混合モデル(lmer)により推定したところ収束しなかった.統計的な検討は事後平均(mean)が事後標準偏差(sd)の2倍以上の差がある場合に,強い証拠がある(以下の表中{\bf太字}で示す)と判断し,事後偏差の差がある場合に弱い証拠があると判断する\footnote{本分析は帰無仮説に基づかないために,帰無仮説を前提とする有意差の議論は行わない.ベイズ推定に基づく同様の用語として「強い証拠(strongevidence)」「弱い証拠(weakevidence)」を用いる.}.表\ref{tbl:stat1},\ref{tbl:stat2}にレジスタによる効果を分析するモデル(1)とレジスタ・種別による効果を分析するモデル(2)の結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table22\begin{table}[t]\caption{統計分析結果:レジスタによる効果を分析するモデル(1)}\centering\label{tbl:stat1}\input{06table22.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table23\begin{table}[t]\caption{統計分析結果:レジスタ・種別による効果を分析するモデル(2)}\label{tbl:stat2}\input{06table23.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fixed{まず,比喩性の結果について確認する.}レジスタにおいては,レジスタの標準偏差が大きいため,白書(OW)\fixed{の傾きが小さく},書籍(PB)の\fixed{傾きが大きい}という弱い証拠のみが確認された.種別においては,擬人・擬生・擬物・転換・提喩\fixed{の傾きが大きく},換喩・慣用\fixed{の傾きが小さい}という強い証拠が確認された.また,具象・抽象は標準偏差が大きい傾向が見られた.活喩(擬人化・擬生化)\fixed{の場合},\modified{クラウドソーシングによる}擬人化の評定とも関係するが,比喩性が高いと認識される傾向にあった.擬人化と対照的な擬物化も高く評定されており,人に関わる比喩表現は,一般に比喩性が読み取られやすいといえよう.しかし,具象化の比喩性は様々に判定されている.例を見ると,「研究の基盤」「時の流れ」「(以下の点を)柱とする・軸とする」のように,慣用的に用いられている表現が多く,これらは新奇性の評定とともに比喩性の判定が低いためである.具象化は多くの結合類型例と頻度を有する分類であるからこそ,一般的な表現であって比喩性を感じにくいともいえる.また,小規模な転換(その他の転換)は,比喩性の高い傾向にあるが,「クレーターのようなくぼみ」のような例示に近い例や,「自転車がバイクに似ている」のように喩辞と被喩辞の類似性が高いと考えられる結合例も含み,例によっては比喩性の判定に差が生じたようである.換喩は,「耳にする」「口にする」などで比喩性が低く判定される傾向があり,比喩表現と認識されにくい例が多いようである.文脈比喩については,解釈に長い文脈を要する例もあり,実験で表示された該当部分では比喩性が読み取りにくかった影響も考えられる.\fixed{次に,新奇性の結果について確認する.}レジスタにおいては,白書(OW)の\fixed{傾きが小さい}という弱い証拠のみが確認された.種別においては擬人の\fixed{傾きが大きく},慣用の\fixed{傾きが小さい}という強い証拠が確認された.また擬生・擬物・転換の\fixed{傾きが大きい}という弱い証拠が確認された.比喩性が認識されやすい人を用いた表現(擬人・擬物)で新奇性が高く評定される傾向にある.慣用はその定義から新奇性が低いのは当然の結果であると言える.また,換喩は相対的に\fixed{傾きが小さい}(事後平均0.01)傾向にある.換喩は一般に用いられている慣用的な表現が多い(「慣用」と重なりやすい)ため,新奇な印象は得にくいものと考えられる.小規模な転換については,指標を必要として比喩性の把握を促すような表現では高く判定されるが,比喩性が低いと評定された喩辞と被喩辞の類似性が低い表現ではみとめられない傾向にあった.\fixed{わかりやすさにおいては,}レジスタ\fixed{間}に特段の傾向は見られなかった.種別\fixed{間}は,転換\fixed{の傾きが大きい}という弱い証拠が見られた.指標を含む比喩用例は,概ねいくぶんかわかりやすいという印象で読まれているようである.分類中,慣用表現の評定が他分類よりも僅かに高く,提喩や活喩など,一般に目にしやすいと考えられる表現ほど,わかりやすいと判断される傾向がみられる.比喩表現がわかりやすさに直結するというよりも,新奇でない目にしやすい表現がわかりやすいという判断につながっている可能性もある.\fixed{擬人化の結果について検討する.}まずレジスタにおいては特段の傾向は見られなかった.種別においては,擬人・擬生・擬物\fixed{の傾きが大きい}という強い証拠が見られた.また,慣用\fixed{の傾きが小さい}という弱い証拠が見られた.擬人化の用例で高い傾向がみられることは,専門家の判断と一般の判断にそこまで揺れがないということでもある.しかし,擬生化に分類された用例でも高く評定されている他,擬物化でも高めの評定となっている.喩辞が人に限らないとしても概ね生命に関する表現が含まれ,結合としてわかりやすいためであろう(\fixed{わかりやすさの結果を}参照).また,活喩については,一般には,人と生命体(人には限定できない)を厳密に分類せず,生命活動であるという点において読み手自らの身体性に鑑みるといえる.擬物化は,擬人化とは反対に人が被喩辞として物に喩えられる例であるが,擬物化も人を用いた比喩表現であるとの判断で,人に喩えた例と判断されたようである.なお,擬人化・擬生化・擬物化については,「子どもたちは魚のように水と友だちだった」「次郎は舟と一体になる」のような重複ラベル用例も含んでいる.\fixed{具体化においては,レジスタ間の差異}に特段の傾向は見られなかった.\fixed{種別間では,}転換\fixed{の傾きが大きく},慣用\fixed{の傾きが小さい}という強い証拠が見られた.また擬生・擬物・提喩・その他\fixed{の傾きが大きく},換喩\fixed{の傾きが小さい}という弱い証拠が見られた.\modified{人に関わる}用例において高く評定される傾向は,生命活動に関わる比喩表現が身体性としてわかりやすく,具体的であると認識されるためであろう.また,標準偏差が大きいものの具象化の用例は,具象化と判断されにくい傾向を示す結果となった.具象化の用例は,比喩性においても低い評定傾向であったことから,概念メタファー\cite{Lakoff-1980}として一般的,かつ慣用的な用例が多いため,言語形式が比喩表現の把握を促していても,指標まで含めたイディオム的な認識となり,具象化しているとあらためて認識されない可能性が高い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
\label{sec:final}本研究では,比喩の指標の可能性のある語句を手掛かりとし,BCCWJから比喩用例を収集した.手掛かりには359種類の指標とそれらの語義タグも用い,広く指標となり得る語句と語義を含む網羅的な指標比喩の可能性を有する用例を収集している.指標比喩の可能性のある97,118用例から人手で822件を抽出し,比喩情報のアノテーションを行った.収集した用例と付与した情報により,指標比喩の特徴を確認した.種々の指標比喩を収集する試みにより,たとえばいわゆる直喩において一般的な指標と考えられる「よう」が本データでは\fixed{43}\%にとどまるなど,指標要素が多様であることをはじめ,指標比喩類型の分布傾向を見ることができた.%比喩性の評定は「よう」のような一般的に指標の意識がありそうなタイプだと高い可能性もちらっと気になります:A型把握!さらに,比喩種別を分類すると,指標比喩においては,結合比喩に少な\modified{い}「その他の転換」とまとめた小規模な転換の頻度が明らかに高いとわかった.喩辞と被喩辞がかけ離れている大きなカテゴリーの転換(擬人化や具象化など)がある場合には,比喩性があきらかで指標が不要な場合が多く,小規模な転換であるゆえに言語形式で比喩性を示す傾向にあるといえる.指標の有無は,比喩表現を構成する要素の概念マッピングの幅に関わっている可能性が考えられる.今後,\modified{比喩表現の}指標の有無\modified{による差異}についても調査を進めたい.また,クラウドソーシングによる比喩種別の分類から,観点の関係性が読み取れた.擬人化や擬生化,擬物化の評定結果など,専門知識を有する作業者と一般的な読み手間における認識差の影響が現れた観点もあるが,本調査で一般的な比喩認識が用例に付与されたことにより,明らかになった差であるともいえる.但し,複数の表現(比喩的な要素の結合)が互いに影響しあっている可能性も考えられるため,今後は表現別に観点の評定を行う他,影響関係についても評定実験を考えている.\citeA{伊藤-2014}は,比喩表現コーパスに望むこととして以下をあげている:\begin{itemize}\item一つのテクストを通して比喩のタグ付けをすること\itemデータとした談話やテクストは,全文を閲覧可能であること\itemデータのメタ情報にアクセス可能なこと\item判断の揺れるものについては,できるだけ比喩であると認めること\itemオープンであること\item比喩の判断基準を明示すること\end{itemize}我々のデータは以上のいずれも満たす.さらに,\citeA{中村-1977}の文学作品中心の比喩用例データベースと異なり,Yahoo!知恵袋・白書・Yahoo!ブログ・書籍・雑誌・新聞の6レジスタを対象として収集を行った.\fixed{本データにより,文学作品以外にも比喩が多用されていることが確認できた.}現在,分類語彙表番号を意味情報として用いた,結合比喩(中村の第2類)パターンに基づく,比喩表現用例の収集も進めている\cite{Kato-2019}.また,語義や結合の認識の効率化のために,文脈化単語埋め込み\cite{peters-etal-2018-deep}の利用を検討している.『国語研日本語ウェブコーパス』\cite{Asahara-2014}から学習した自然言語処理のBERT\cite{devlin-etal-2019-bert}モデルであるNWJC-BERT\cite{浅原-2020a}を構築し,BCCWJに文脈化単語埋め込み情報を付与した\cite{浅原-2020b}.本研究で得られたデータと重ね合わせることで比喩情報付き均衡コーパスのさらなる整備を進めたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,TheInternationalCognitiveLinguisticConference(ICLC15)の発表``CollectingFigurativeExpressionsUsingIndicatorsandaSementicTaggedJapaneseCorpus''に基づくものに,追加実験を行い,加筆修正をしたものです.本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費挑戦的研究(萌芽)18K18519,基盤研究(A)17H00917,新学術領域研究18H05521,基盤研究(C)18K00634,19K00591の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{加藤祥}{%2011年神戸大学人文学研究科博士後期課程修了.2012年より国立国語研究所コーパス開発センタープロジェクトPDフェロー.同プロジェクト非常勤研究員.2020年より目白大学外国語学部専任講師.博士(文学).日本語学会,日本認知言語学会,日本認知科学会各会員.}\bioauthor{菊地礼}{%2018年中央大学文学研究科博士課程前期修了.同年より同大学博士課程後期に在学.}\bioauthor{浅原正幸}{%2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\end{biography}\biodate\end{document}
| |
V01N01-01
|
\section{はじめに}
テキストや談話を理解するためには,{\bf文章構造}の理解,すなわち各文が他のどの文とどのような関係({\bf結束関係})でつながっているかを知る必要がある.文章構造に関する従来の多くの研究\cite[など]{GroszAndSidner1986,Hobbs1979,Hobbs1985,ZadroznyAndJensen1991}では,文章構造の認識に必要となる知識,またそれらの知識に基づく推論の問題に重点がおかれていた.しかしそのような知識からのアプローチには次のような問題があると考えられる.\begin{itemize}\item辞書やコーパスからの知識の自動獲得,あるいは人手による知識ベース構築の現状をみれば,量的/質的に十分な計算機用の知識が作成されることはしばらくの間期待できない.\item一方,オンラインテキストの急増にともない,文章処理の技術は非常に重要になってきている\cite{MUC-41992}.そのため,現在利用可能な知識の範囲でどのような処理が可能であるかをまず明らかにする必要がある.\item現在の自然言語処理のターゲットの中心である科学技術文では,文章構造理解の手がかりとなる情報が表層表現中に明示的に示されていることが多い.科学技術の専門的内容を伝えるためにはそのように明示的表現を用いることが必然的に必要であるといえる.\end{itemize}このような観点から,本論文では,表層表現中の種々の情報を用いることにより科学技術文の文章構造を自動的に推定する方法を示す.文章構造抽出のための重要な情報の一つは,多くの研究者が指摘しているように「なぜなら」,「たとえば」などの{\bf手がかり語}である\cite[など]{Cohen1984,GroszAndSidner1986,Reichman1985,Ono1989,Yamamoto1991}.しかし,それらだけで文章全体の構造を推定することは不可能であることから,我々はさらに2つの情報を取り出すことを考えた.そのひとつは同一/同義の語/句の出現であり,これによって{\bf主題連鎖}/{\bf焦点-主題連鎖}の関係\cite{PolanyiAndScha1984}を推定することができる.もうひとつは2文間の類似性で,類似性の高い2文を見つけることによってそれらの間の{\bf並列/対比}の関係を推定することができる.これらの3つの情報を組み合わせて利用することにより科学技術文の文章構造のかなりの部分が自動推定可能であることを示す.\begin{table}\caption{結束関係}\vspace{0.5cm}\begin{center}\begin{tabular}{lp{11cm}}\hline\hline{\bf並列}&{\ttSi}と{\ttSj}が同一または同様の事象,状態などについて述べられている(例:付録\ref{sec:text}のS4-3とS4-6).\\{\bf対比}&{\ttSi}と{\ttSj}が対比関係にある事象,状態などについて述べられている(例:付録\ref{sec:text}のS3-3とS3-4).\\{\bf主題連鎖}&{\ttSi}と{\ttSj}が同一の主題について述べられている(例:付録\ref{sec:text}のS1-13とS1-19).\\{\bf焦点-主題連鎖}&{\ttSi}中の主題以外の要素(焦点要素)がSjにおいて主題となっている(例:付録\ref{sec:text}のS1-12とS1-13).\\{\bf詳細化}&{\ttSi}で述べられた事象,状態,またはその要素についての詳しい内容が{\ttSj}で述べられている(例:付録\ref{sec:text}のS1-16とS1-17).\\{\bf理由}&{\ttSi}の理由が{\ttSj}で述べられている(例:付録\ref{sec:text}のS1-13とS1-14).\\{\bf原因-結果}&{\ttSi}の結果{\ttSj}となる(例:付録\ref{sec:text}のS1-17とS1-18).\\{\bf変化}&{\ttSi}の状態が{\ttSj}のものに(通常時間経過に伴い)変化する(例:付録\ref{sec:text}のS1-11とS1-12).\\{\bf例提示}&{\ttSi}で述べられた事象,状態の具体例の項目が{\ttSj}で提示される(例:付録\ref{sec:text}のS1-13とS1-16).\\{\bf例説明}&{\ttSi}で述べられた事象,状態の具体例の説明が{\ttSj}で行なわれる,\\{\bf質問-応答}&{\ttSi}の質問に対して{\ttSj}で答が示される(例:付録\ref{sec:text}のS4-1とS4-2).\\\hline\end{tabular}\\({\ttSi}はある結束関係で接続される2文のうちの前の文,{\ttSj}は後ろの文を指す)\end{center}\label{tab:CRelations}\end{table}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(140,120)\put(5,5){\framebox(130,110){ps/ds.ps}}\end{picture}\end{center}\caption{文章構造の一例}\label{fig:DSExam}\end{figure}}
\section{文章構造のモデルと結束関係}
従来,文章構造のモデルとしてはその基本単位の結束関係(2項関係)を再帰的に組み合わせることによる木構造(文章構造木)が一般的に用いられてきた\cite[など]{Cohen1984,Dalgren1988,GroszAndSidner1986,HallidayAndHassan1976,Hobbs1979,Hobbs1985,LockmanAndKlappholz1980,Mann1984,PolanyiAndScha1984,Reichman1985,ZadroznyAndJensen1991}.しかし,何をその基本単位とするか,また基本単位間にどのような結束関係を考えるかについては研究者ごとに独自の定義が与えられてきた.本論文では,文章構造の自動抽出の可能性を示すことを第一義的に考え,句点で区切られた文を基本単位とするもっとも単純な文章構造モデルを採用する\footnote{複文内の節の間にもある種の結束関係が存在すると考えられるが,その問題については本手法の発展させるかたちで別の機会に扱う.}.一方,結束関係としてどれだけのものを考えればよいかという問題は,対象とするテキストの種類に大きく依存する\cite{Reichman1985}.たとえば,物語文などでは過去の事象間の時系列の関係が中心となるが,科学技術文や論説文などではそのような関係はほとんどみられない.本論文では,従来の研究で扱われてきた種々の結束関係のうち,対象とする科学技術文の構造を説明するために必要なものとして表\ref{tab:CRelations}に示すものを考える(付録\ref{sec:text}に示した実験文の文章構造を図\ref{fig:DSExam}に示す\footnote{図\ref{fig:DSExam}中,初期節点とは文章構造の初期状態として与えられるもので,実際の文には対応しない.初期化関係はこの初期節点との間の特別の関係である.これらの詳細は3.1節で述べる.}).{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(120,75)\put(5,5){\framebox(110,65){ps/assump.ps}}\end{picture}\end{center}\caption{文章構造モデルに対する仮定}\label{fig:Assump}\end{figure}}さらに,文章構造モデルに対して以下の仮定を行なうことにする.\begin{quote}{\bf新たな文(入力文)は,それまでの文章構造木の右端の節点に対応する文のいずれかに接続される.}\end{quote}これは,「新しい主題が導入された後は,古い主題に関する詳しい説明は参照されない」ということを意味する(図\ref{fig:Assump}).計算量の点で有効であり,また科学技術文の場合直観的に妥当であると考えられたことからこの仮定を採用した\footnote{\begin{tabular}[t]{@{}cc@{}}\begin{tabular}[t]{@{}p{8cm}@{}}S1とS2が並列/対比以外の結束関係(Rs)を持ち,S2とS3が並列あるいは対比の関係(Rc)を持つ場合,S1とS3が関係Rsを持つことが推論できる.この時その次の文のS4は,S1とS3だけでなくS2との間に何らかの結束関係を持つことも考えられる.前に示した文章構造モデルに対する仮定のもとでこのS2への接続を許すようにするため,S3はRsの関係によってS1に接続する(図a)のではなく,単にRcの関係でS2に接続する(図b)ことにする.\\\end{tabular}&\begin{tabular}[t]{@{}c@{}}\null\\[-12pt]{\unitlength=1mm\begin{picture}(60,35)\put(5,5){\framebox(50,25){ps/footnote.ps}}\end{picture}}\end{tabular}\end{tabular}}.なお,本論文で扱う実験テキスト(約200文)の各章(9章)についてはこの仮定のもとでそれぞれに適当な文章構造木を考えることが可能であった.以下ではある入力文に対してそれが接続される文を{\bf接続文},また,接続文になり得る文章構造木の右端の節点に対応する文を{\bf接続候補文}とよぶことにする.
\section{文章構造の自動抽出}
{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(140,85)\put(5,5){\framebox(130,75){ps/ns\_cs.ps}}\end{picture}\end{center}\caption{3つの表層情報による接続候補文への結束関係の得点付け}\label{fig:NS_CS}\end{figure}}\subsection{概要}前節で示したモデルに基づくと文章構造の解析は,入力文章を前から1文づつ順に処理し,各文(入力文)に対して適切な接続文と適切な結束関係を決定するという問題になる.この処理を行うために,表層表現中の次の3つの情報に着目する.\begin{itemize}\item種々の結束関係を示す手がかり表現\item主題連鎖または焦点-主題連鎖関係における同一/同義の語/句の出現\item並列/対比関係にある2文の間の類似性\end{itemize}以降に示す方法によって,入力文と接続候補文に対してこれらの情報を自動的に抽出し,対応する結束関係への確信度に変換することができる.この処理によって入力文と各接続候補文との間のすべての結束関係に対する確信度を計算し,最終的に最大の確信度をもつ接続候補文と結束関係を選択する(図\ref{fig:NS_CS}).文章構造には初期状態として{\bf初期節点}(文には対応しない)を与え,この初期節点と入力文の間の{\bf初期化}関係に一定の確信度を与えておく(入力文と初期節点の組については上で述べた情報の抽出処理は行なわない).いずれの接続候補文に対してもこの値よりも大きな確信度を持つ結束関係が存在しない場合には,その入力文は初期節点に接続されるとする.これはその入力文が新しい段落の始まりの文であるような場合に対応する.以下,各情報に対してそれらを抽出し結束関係への確信度に変換する方法を説明する.{\unitlength=1mm\begin{table}\caption{手がかり表現に対するルール}\label{tab:HR}\begin{center}\begin{picture}(130,140)\put(5,5){\framebox(120,130){table1}}\end{picture}\end{center}\end{table}}\subsection{手がかり表現の抽出}種々の結束関係を示す手がかり表現を取り出しその関係への確信度を得るために,ヒューリスティック・ルールを用意した.ルールは以下のものからなる.\begin{itemize}\item{\bfルールの適用条件}:\begin{itemize}\item{\bfルールの適用範囲}(どれだけ離れた接続候補文までルールを適用するか)\item{\bf接続候補文とその接続文との結束関係}\footnote{ある入力文に対する処理を行なう時点では,それより前の部分の文章構造はすでに決定されている.そこで,接続候補文がどのような結束関係でそれ以前の文(接続候補文の接続文)と接続されているかということをルールの適応条件とすることができる.}\item{\bf接続候補文の依存構造のパターン}\item{\bf入力文の依存構造のパターン}\end{itemize}\item{\bf対応する結束関係と確信度}\end{itemize}接続候補文と入力文のパターンはそれぞれの文の依存構造解析結果に対して適用される\cite{KurohashiAndNagao1994}.この処理は依存構造木に対する柔軟なパターン照合機能を用いて実現した.そこでは,依存構造木とその構成要素である文節(単語の並び)に対するパターンが,正規表現,論理和,論理積,否定などによって指定できる\cite{MurataAndNagao1993}.ルールは各接続候補文と入力文の組に対して適用され,条件部が満たされれば対応する結束関係に指定された確信度の得点が与えられる(複数のルールがマッチした場合確信度の得点は加算されていく).ルールの一例を表\ref{tab:HR}に示す(すべてのルールを付録\ref{sec:rule}に示す).たとえば,ルールa(表\ref{tab:HR})は入力文が「なぜなら」で始まる場合,その入力文と直前の接続候補文の間の理由関係に得点を与える(ルールの適用範囲が1であるので,直前の接続候補文との間の関係に対してのみ得点が与えられる).ルールb(表\ref{tab:HR})の場合は,条件部で同一の語の出現を指定しており,直前の接続候補文だけでなく他の接続候補文に対しても適用される.ルールc(表\ref{tab:HR})では,条件として「接続候補文とその接続文との結束関係」を指定している.このルールは,「例提示関係によって具体例が導入されれば,次にその例の説明が続く場合がある」ことを表現している.ルールd(表\ref{tab:HR})は時制の変化を手がかりとして文章構造の区切れを検出するためのルールで,連続する2文の時制が現在から過去に移行する場合,その間の全ての結束関係の確信度を指定された値だけ減少させる.このペナルティの値によって入力文が直前の文以外の接続候補文へ接続されることが優先される.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(130,65)\put(5,5){\framebox(120,55){ps/tf.ps}}\end{picture}\end{center}\caption{主題連鎖関係,焦点-主題連鎖関係の確信度}\label{fig:TF}\end{figure}}{\unitlength=1mm\begin{table}\begin{center}\caption{主題部分,非主題部分,語/句の一致に対するルール}\label{tab:TDCRule}\begin{picture}(140,155)\put(5,5){\framebox(130,145){table2}}\end{picture}\end{center}\end{table}}\subsection{語連鎖の抽出}一般に文は主題を示す部分(主題部分)とそれ以外の部分(非主題部分)に分けることができる.2つの文が同じ主題について述べられている場合,それら2文は主題連鎖関係にあるとする.この関係は2つの文の主題部分に同一/同義の語/句(以下これを{\bf語連鎖}とよぶ)が現れていることで発見できる.一方,ある文の主題以外の要素がその後の文の主題となるような結束関係を焦点-主題連鎖関係とよぶことにする(この時,後の文で主題となる要素は前の文において焦点要素であると考えられるため).この関係は2文間の主題部分から非主題部分への語連鎖を調べることで発見できる.しかし,多くの場合一つの入力文に対して各接続候補文との種々の関係を支持する複数の情報が存在する.そのため,単に語連鎖を発見するだけでなく,その連鎖の強さに応じて主題連鎖関係あるいは焦点-主題連鎖関係に確信度を与えることが必要となる.そこで,主題部分,非主題部分の各語に対して,文中での重要度に応じた得点を与え,また同一/同義の語/句の照合に対してもその一致度に応じた得点を定義した.その上で,連鎖する2語/句のそれぞれの文での重要度の得点とその一致度の得点の総和を語連鎖の得点とし,これを主題連鎖関係あるいは焦点-主題連鎖関係に確信度として与えるということを行った(図\ref{fig:TF}).これらの処理は,依存構造に対するパターンと得点からなるルールを適用するという形で実現した(ルールの一例を表\ref{tab:TDCRule}に示す).ルールa,b(表\ref{tab:TDCRule})は主題を示す助詞「は」を伴う語とその修飾語/句に,ルールc,d(表\ref{tab:TDCRule})は条件節内の語に,主題部分としての得点を与える.ここでは,主題部分の中でもっとも重要であると考えられる,助詞「は」を直接ともなう語に最大の得点を与えている.ルールe(表\ref{tab:TDCRule})は「〜Aがある」という文のAに対して非主題部分の要素として高い得点を与える.このような文体ではAが重要な新情報であり,この語が以降の文で主題として取り上げられる(焦点-主題連鎖関係が存在する)場合が多い.ルールf,g,h(表\ref{tab:TDCRule})は語/句の一致に対して得点を与えるルールである.ここでは「XのY」のような句の一致(ルールg)に対しては単なる語の一致(ルールf)よりも高い得点を与える.語連鎖の検出における最大の問題は,著者が,単に同一の語/句を繰り返すのではなく,微妙に異なった表現によってそのような連鎖を示す傾向にあるという問題である.シソーラスの利用,ルールh(表\ref{tab:TDCRule})などによってそのような表現の一部は検出可能であるが,検出できない微妙な表現は多数存在する.それらの取扱いについては本論文の範囲外とした.\subsection{2文間の類似度の計算}並列/対比の結束関係にある2文の間にはある種の類似性が認められる.しかしそれらは文全体についての類似性であるため,これまでに示したような文中の比較的狭い部分を調べるルールを適用することでは検出できない.そこで,1文内の並列構造の範囲を調べるために開発したダイナミックプログラミングによる類似性検出の方法\cite{KurohashiAndNagao1992b}を拡張するということを行った.この方法では任意の長さの文節列間の類似度を計算することが可能である.そこでは,まず文節間の類似度を,品詞の一致,語の一致,シソーラス辞書中での語の近さなどによって計算し,その上でそれらの文節間の類似度を組み合わせることによって文節列間の類似度を計算する.この手法は並列構造の構成要素を決定するために1文内の句/節間の類似度を計算するものとして開発した.これを2文間(入力文と接続候補文)の類似度を計算するように拡張することは,その2文を連結しそれらが仮想的に並列構造を構成すると見なすことによって簡単に実現することができる.このことにより,その仮想的並列構造の構成要素である2文間の類似度をまったく同じ枠組みで計算することができるからである.最終的には,この方法によってえられた類似度を2文の長さの和によって正規化した値を,それらの間の並列関係と対比関係の確信度に加算する.
\section{実験と考察}
\subsection{実験方法と結果}実験には科学雑誌サイエンスのテキスト,「科学技術のためのコンピューター」(Vol.17,No.12)を用いた(付録\ref{sec:text}にその一部を示す).実験文はあらかじめ章ごとに分割し(全9章,1章は平均24文),文章構造の推定は章単位で行なった.実験は以下の手順で行なった.まずはじめの3章に対して.主題部分/非主題部分の重要度のルール,語/句の照合ルール,手がかり表現のルールを作成し,できるだけ正しい文章構造が求まるようにそれらの得点を人手で調整した\footnote{これまでに表,付録等で示したルールの得点はこの調整後のものである.また,あらかじめ初期節点との初期化関係に与えておく確信度は10点とした.}.2文間の類似度の計算については,単に並列構造検出のシステムを用いただけで,得点付けの調整/変更は行なわなかった.次に,残りの6章に対して手がかり表現のルールだけを追加し,その新しいルールセットによって残り6章に対する解析実験を行なった.これらの実験結果を表\ref{tab:Experiment}に示す.ここでは,各入力文に対して正しい接続文と正しい結束関係,また結束関係が主題連鎖または焦点-主題連鎖の場合はその正しい語連鎖が求まった場合を正解とした.結束関係ごとの解析結果の集計では,解析失敗のものについてはその正しい結束関係の欄に分類した.なお,残りの6章に対するルールを追加した新しいルールセットでもとの3章を解析したところ,解析結果は全く同じであった.\begin{table}\caption{実験結果}\begin{center}\begin{tabular}{l|rr|rr}\hline\hline&\multicolumn{2}{c|}{学習サンプル}&\multicolumn{2}{c}{テストサンプル}\\結束関係&\multicolumn{2}{c|}{(はじめの3章)}&\multicolumn{2}{c}{(残りの6章)}\\\cline{2-5}&正解&誤り&正解&誤り\\\hline初期化&7&1&6&2\\並列&10&1&15&2\\対比&6&1&2&2\\主題連鎖&13&1&21&5\\焦点-主題連鎖&10&4&37&14\\詳細化&9&1&9&1\\理由&3&0&1&0\\原因-結果&2&0&6&0\\変化&3&0&0&0\\例提示&1&0&0&0\\例説明&3&0&2&0\\質問-応答&1&0&1&0\\\hline合計&68&9&100&26\\&\multicolumn{2}{c|}{(正解率88\%)}&\multicolumn{2}{c}{(正解率79\%)}\\\hline\end{tabular}\\\vspace{5pt}(各章のはじめの文は必ず初期化関係となるのでこの表からは除外した)\end{center}\label{tab:Experiment}\end{table}これらの結果から,科学技術文の場合,表層表現中の情報をうまく取り出すことができればその文章構造のかなりの部分が自動的に推定可能であることがわかる.手がかり表現についての汎用性のあるルールセットを用意するためには,かなりの規模のテキストを対象としたルール作成作業が必要であると思われる.しかし,手がかり表現に関するルールの多くは排他的なものとして記述することができるので,本実験においてそうであったように,新しく追加したルールがもとのルールと競合して副作用を起こすということは非常に少ないと予想される.\subsection{解析例と考察}まず,文章構造推定の経緯の具体例を示す.付録のS1-11からS1-20までの文章は以下に示す情報によって図\ref{fig:DSExam}-aに示す構造に変換された.\begin{description}\item[S1-11--初期化$\rightarrow$初期節点]---S1-10との関係に対するペナルティ(付録\ref{sec:rule}ルール1).他の接続候補文との間に大きな確信度をもつ結束関係がないため,初期節点に接続される.\item[S1-12--変化$\rightarrow$S1-11]---過去から現在への時制の変化と,手がかり語「しかし」(ルール40).\item[S1-13--焦点-主題連鎖$\rightarrow$S1-12]---「合成による分析」と「合成法」の連鎖.\item[S1-14--理由$\rightarrow$S1-13]---手がかり表現「からである」(ルール34).\item[S1-15--詳細化$\rightarrow$S1-14]---手がかり表現「わけである」(ルール20).\item[S1-16--例提示$\rightarrow$S1-13]---手がかり表現「〜の例として」(ルール41).\item[S1-17--詳細化$\rightarrow$S1-16]---直前の例提示関係(ルール26).\item[S1-18--原因-結果$\rightarrow$S1-17]---手がかり表現「その結果は」(ルール36).\item[S1-19--主題連鎖$\rightarrow$S1-13]---「合成法」の連鎖.\item[S1-20--変化$\rightarrow$S1-19]---S1-12と同様.\end{description}また付録のS4-1からS4-7までの文章は以下の手順で図\ref{fig:DSExam}-bに示す構造に変換された.\begin{description}\item[S4-2--質問-応答$\rightarrow$S4-1]---手がかり表現「〜か」(ルール43).\item[S4-3--焦点-主題連鎖$\rightarrow$S4-2]---「連星」の連鎖.\item[S4-4--焦点-主題連鎖$\rightarrow$S4-3]---「温めることがある」と「この過程」の連鎖(ルール19).\item[S4-5--焦点-主題連鎖$\rightarrow$S4-4]---「核融合」の連鎖.\item[S4-6--並列$\rightarrow$S4-3]---s4-3との類似度と手がかり表現「また」(ルール5).\item[S4-7--並列$\rightarrow$S4-6]---類似度による得点が高いため誤ってS4-6との並列関係が推定された.正解はS4-6との焦点-主題関係である.\end{description}接続詞「しかし」は,S1-12,S1-20のように変化関係を示す手がかり語であるだけでなく,S3-4のように対比関係を示す場合もある.この区別は,この手がかり語と他の情報を組み合わせて調べることによって可能となる.すなわち,S1-12,S1-20の場合は過去から現在への時制の変化を見ることによって変化関係を推定することができる.一方,S3-3とS3-4の間には高い類似度(得点23)があるため,これと手がかり語「しかし」によって対比関係が推定できる(これに対して,S1-11とS1-12の類似度は0,S1-19とS1-20の類似度は3である).連続する2文間の結束関係だけでなく,離れた2文間の関係も,種々の情報によって正しく推定することが可能である.例えば,S1-16,S1-12間の例提示関係は表層表現中の手がかり語によって,S1-19,S1-13間の主題連鎖関係は語連鎖によって,またS4-6とS4-3の並列関係は2文間の類似度によってそれぞれ正しく推定されている.S4-7については正しい結束関係が推定できなかった,ここではS4-6の「温度が上昇する」ことによって生じる「熱」がS4-7で主題となっている.すなわち,推論を介した焦点-主題連鎖関係が存在している.このように結束関係の推定に推論を必要とするような問題は本論文では対象としなかった.このような問題を含めて,実験テキストの解析誤りの原因は次のように分類できる.なお,学習サンプル,テストサンプルともに解析誤りの原因の種類は同じものであった.\begin{enumerate}\item語連鎖の抽出について\\3.3節でも述べたように,主題連鎖/焦点-主題連鎖関係を示す語連鎖にはシソーラスやある種のパターン(表\ref{tab:TDCRule}のルールhなど)を用いるだけでは検出不可能なものがある.上記のS4-7はその一例である.また逆に,主題連鎖/焦点-主題連鎖関係を示すものではない同一語句の出現に対して得点が与えられ,それが他の正しい関係の推定の妨げとなる場合がある.\item2文間の類似度の計算について\\たとえば,\begin{quote}「銀河の中には、互いに近接していて、橋がかかっているように見えるものがある。しかし大多数の銀河は、ほぼ対称的な渦巻き形、あるいは単純な円形または楕円形をしている。」\end{quote}という対比関係の2文では,同一/同義の単語も少なく構造(品詞の並び)的にも似ていないため我々の方法では高い類似度が与えられない.このような場合並列/対比関係が正しく推定されないということになる.また逆に,並列/対比関係にない2文でも同一の語を多数含んでいるような場合高い類似度が与えられ,誤ってそれら2文間の並列/対比関係が推定されてしまう場合がある.\item詳細化関係について\\詳細化関係ではたとえば次の例のように手がかり表現といえるものが存在しない場合がある.\begin{quote}「こうした終局的な型は、初期条件に左右される。遭遇時の速度や傾きの角度を少し変えるだけで、複雑な3体の動きは大幅に変わる。」\end{quote}このような2文間の詳細化関係は本手法では正しく推定できない.\end{enumerate}表\ref{tab:Experiment}に示すとおり解析誤りの大部分は並列/対比関係,主題連鎖/焦点-主題連鎖関係についての誤りで,これらの多くは上の1,2の原因が組み合わさって生じたものである.たとえば,微妙な表現の語連鎖が抽出できない場合に,別の不適当な文との間の高い類似度によって並列/対比関係が推定されてしまったというような場合である.なお,本論文では同一著者のテキストを学習サンプル,テストサンプルとして実験を行なった.種々のテキストに対して本手法の有効性を検証することは今後の課題である.しかし,科学技術文の本質的目的がその内容を正確に伝えることであるということを考えれば,著者・テキストによって文体に差があるとしても,それは本手法の精度に大きな影響を与えるほどのものではないと考えられる.
\section{結論}
本論文では,手がかり表現,語連鎖,文間の類似性,という表層表現中の3つ情報に基づいて文章構造を自動的に推定する手法を示した.科学技術文の場合,これら3つの表層的情報を組み合わせて利用することにより,知識に基づく文理解という処理を行なわなくても,文章構造のかなりの部分が推定できることがわかった.微妙な表現による語連鎖の扱い,手がかり表現についての汎用性のあるルールセットの作成などの問題を克服すれば,大規模なテキストに対して文単位でなく文章単位の処理を実現することが可能となるだろう.\bibliographystyle{jtheapa}\bibliography{main}\appendix{
\section{実験テキスト}
label{sec:text}\noindent{\bf「科学技術のためのコンピューター」}(サイエンス,Vol.17,No.12)\\(以下,Si-jのiは章番号,jは文番号を示す)\vspace{0.5cm}\noindent{\bfS1-1}:コンピューターによる高速計算は科学研究の方法を、劇的に変えつつある。\begin{center}$\vdots$\end{center}{\bfS1-10}:たとえば、重力に関するニュートンの法則はすでによく理解されており、太陽系の正確な計算モデルが存在することから、計算機実験によって、火星がなければ地球の軌道がどう変わるか、といった問題を解くこともできる。\\{\bfS1-11}:これまでの理論家は、近似的な結果を計算して、現実の世界と比較できるようにするために、極端な単純化を強いられることが多かった。\\{\bfS1-12}:しかし科学者が利用できる計算機の能力が増大した1つの結果として、研究方法は従来の近似法から“合成による分析”へと移行しつつある。\\{\bfS1-13}:合成法は、「あるシステムの各部分の間の相互作用の基本過程はわかっているが、当のシステムの細かな構成はわからない」という場合に使われる。\\{\bfS1-14}:それにより、未知の構成を合成によって決定したり、可能な構成を考えて、その結果を試してみることも可能だからである。\\{\bfS1-15}:そうした結果を実験から得られる細かなデータとつき合わせてみれば、観察の結果を最もよく説明できる構成を選ぶことができるわけである。\\{\bfS1-16}:19世紀以来の合成法の有名な例として、天王星の軌道に見られる不可解な摂動を理解しようとした試みをあげることができる。\\{\bfS1-17}:研究者たちは太陽系に仮想の惑星を加え、満足のいく摂動が得られるまで、その軌道のパラメーターを変化させていった。\\{\bfS1-18}:その結果は、予想された位置の近くでの海王星の発見という成果に直接結びついたのである。\\{\bfS1-19}:この合成法が適用できるのは、過去には、比較的単純な場合に限られていた。\\{\bfS1-20}:しかし、高速計算機の登場により、合成法は、伝統的な近似解析に次ぐ地位を確実に占めようとしている。\begin{center}$\vdots$\end{center}{\bfS3-3}:2つの恒星あるいは惑星間に働く重力の相互作用は、紙と鉛筆で容易に計算することができる。\\{\bfS3-4}:しかし、3個の物体間の相互作用(すなわち3体問題)となると、その運動方程式は手におえないものになってしまう。\begin{center}$\vdots$\end{center}{\bfS4-1}:天文学者はこの種の衝突になぜ興味をもつのだろうか。\\{\bfS4-2}:その答えは、“熱”を発生させるのに連星が演じている役割にある。\\{\bfS4-3}:連星と単星が衝突する際、連星は縮んで小さくなり、単星にエネルギーを与え、その周囲の星の集団を温めることがある。\\{\bfS4-4}:この過程は、原子核が衝突して融合し、より重い原子核になる際、エネルギーを放出する核融合とよく似ている。\\{\bfS4-5}:核融合は、太陽を含む恒星を光らせるメカニズムである。\\{\bfS4-6}:また、遭遇によって連星の軌道が縮小し、そのために高密度の星団の中核の温度が上昇することも考えられる。\\{\bfS4-7}:この熱は、星が絶えず沸騰している星団の表面における熱損失と釣り合うことのできるものである。\\
\section{手がかり表現のルール}
label{sec:rule}\noindentA欄:Oははじめの3章に対して作成したルール,Nは残りの6章に対して作成したルール.\\適用範囲:$\ast$は制限なし.\\パターン:\{a$|$b\}は「aまたはb」を示す.\vspace{5pt}\noindent\begin{tabular}{@{}r|c|lr|p{9cm}@{}}\hline\hlineNo.&A&結束関係&確信度&適用範囲:$\langle$接続可能文の結束関係・パターン$\rangle$$\langle$入力文のパターン$\rangle$\\\hline1&O&$\ast$&$-$15&1:$\langle$〜(用言:現在形)$\rangle$$\langle$〜(用言:過去形)$\rangle$\\2&O&$\ast$&$-$20&1:$\langle$〜$\rangle$$\langle$〜(副助詞「は」なし)〜だ(判定詞)$\rangle$\\3&O&$\ast$&$-$20&1:$\langle$〜$\rangle$$\langle$〜がある$\rangle$\\4&O&並列&10&$\ast$:$\langle$〜$\rangle$$\langle$〜さらに〜$\rangle$\\5&O&並列&15&$\ast$:$\langle$〜$\rangle$$\langle$〜また〜$\rangle$\\6&O&並列&40&$\ast$:$\langle$[並列関係]$\rangle$$\langle$〜さらに〜$\rangle$\\7&N&並列&5&1:$\langle$〜$\rangle$$\langle$そして〜$\rangle$\\8&N&並列&15&1:$\langle$〜$\rangle$$\langle$しかも〜$\rangle$\\9&N&並列&30&$\ast$:$\langle$第〜$\rangle$$\langle$第〜$\rangle$\\\hline\end{tabular}\noindent\begin{tabular}{@{}r|c|lr|p{9cm}@{}}\hline\hlineNo.&A&結束関係&確信度&適用範囲:$\langle$接続可能文の結束関係・パターン$\rangle$$\langle$入力文のパターン$\rangle$\\\hline\vspace*{-1mm}10&N&並列&40&$\ast$:$\langle$[並列関係]$\rangle$$\langle$〜最後に〜$\rangle$\\\vspace*{-1mm}11&O&対比&15&$\ast$:$\langle$〜$\rangle$$\langle$〜一方〜$\rangle$\\\vspace*{-1mm}12&O&対比&15&1:$\langle$〜$\rangle$$\langle$〜しかし〜$\rangle$\\\vspace*{-1mm}13&O&対比&15&1:$\langle$〜$\rangle$$\langle$〜その代わり〜$\rangle$\\\vspace*{-1mm}14&O&対比&30&1:$\langle$[対比関係]$\rangle$$\langle$〜さらに〜$\rangle$\\\vspace*{-1mm}15&N&対比&15&$\ast$:$\langle$〜$\rangle$$\langle$〜対照的に〜$\rangle$\\\vspace*{-1mm}16&N&対比&30&1:$\langle$〜$\rangle$$\langle$むしろ〜$\rangle$\\\vspace*{-1mm}17&N&対比&40&$\ast$:$\langle$[対比関係]$\rangle$$\langle$〜最後に〜$\rangle$\\\vspace*{-1mm}18&O&焦点-主題連鎖&30&1:$\langle$〜(動詞)\{ことがある$|$ことができる$|$(文末)\}$\rangle$$\langle$(名詞修飾形態指示詞)\{方法$|$成果\}〜$\rangle$\\\vspace*{-1mm}19&N&焦点-主題連鎖&30&1:$\langle$〜(動詞)\{ことがある$|$ことができる$|$(文末)\}$\rangle$$\langle$(名詞修飾形態指示詞)\{技法$|$段階$|$過程$|$サービス$|$扱い\}〜$\rangle$\\\vspace*{-1mm}20&O&詳細化&20&1:$\langle$〜$\rangle$$\langle$〜わけだ$\rangle$\\\vspace*{-1mm}21&O&詳細化&20&1:$\langle$〜(数詞)〜分類\{できる$|$される\}$\rangle$$\langle$〜$\rangle$\\\vspace*{-1mm}22&O&詳細化&30&1:$\langle$〜$\rangle$$\langle$\{すなわち$|$つまり$|$いずれにせよ\}〜$\rangle$\\\vspace*{-1mm}23&O&詳細化&30&1:$\langle$〜$\rangle$$\langle$この場合〜$\rangle$\\\vspace*{-1mm}24&O&詳細化&30&1:$\langle$〜$\rangle$$\langle$〜とする$\rangle$\\\vspace*{-1mm}25&O&詳細化&30&1:$\langle$〜$\rangle$$\langle$実際〜$\rangle$\\\vspace*{-1mm}26&O&詳細化&40&1:$\langle$[例提示関係]$\rangle$$\langle$〜$\rangle$\\\vspace*{-1mm}27&N&詳細化&20&1:$\langle$〜$\rangle$$\langle$まず〜$\rangle$\\\vspace*{-1mm}28&N&詳細化&20&1:$\langle$〜$\rangle$$\langle$第一〜$\rangle$\\\vspace*{-1mm}29&N&詳細化&20&1:$\langle$〜$\rangle$$\langle$最初の〜$\rangle$\\\vspace*{-1mm}30&N&詳細化&30&1:$\langle$〜$\rangle$$\langle$事実〜$\rangle$\\\vspace*{-1mm}31&N&詳細化&30&1:$\langle$〜$\rangle$$\langle$ここで〜\{は$|$が\}〜だ$\rangle$\\\vspace*{-1mm}32&N&詳細化&30&1:$\langle$〜$\rangle$$\langle$ここで〜(用言:条件形)〜$\rangle$\\\vspace*{-1mm}33&O&理由&30&1:$\langle$〜$\rangle$$\langle$なぜなら〜$\rangle$\\\vspace*{-1mm}34&O&理由&30&1:$\langle$〜$\rangle$$\langle$〜からだ$\rangle$\\\vspace*{-1mm}35&N&理由&30&1:$\langle$〜$\rangle$$\langle$〜\{に$|$にも\}よる$\rangle$\\\vspace*{-1mm}36&O&原因-結果&30&1:$\langle$〜$\rangle$$\langle$その\{結果$|$結果は\}〜$\rangle$\\\vspace*{-1mm}37&N&原因-結果&30&1:$\langle$〜$\rangle$$\langle$\{したがって$|$このため$|$そのため$|$こうすることによって$|$そうすることによって\}〜$\rangle$\\38&N&原因-結果&30&1:$\langle$〜$\rangle$$\langle$\{こう$|$そう\}して〜ことにより〜$\rangle$\\\hline\end{tabular}\noindent\begin{tabular}{@{}r|c|lr|p{9cm}@{}}\hline\hlineNo.&A&結束関係&確信度&適用範囲:$\langle$接続可能文の結束関係・パターン$\rangle$$\langle$入力文のパターン$\rangle$\\\hline39&N&原因-結果&30&1:$\langle$〜$\rangle$$\langle$\{こう$|$そう\}して〜(用言:条件形)〜$\rangle$\\40&O&変化&30&1:$\langle$〜\{いた(接尾辞)$|$(形容詞過去形)\}$\rangle$$\langle$\{しかし$|$ところが\}〜$\rangle$\\41&O&例提示&30&1:$\langle$〜X〜$\rangle$$\langle$〜Xの例として〜\{ある$|$あげる\}$\rangle$\\42&O&例説明&30&1:$\langle$〜$\rangle$$\langle$たとえば〜$\rangle$\\43&O&質問-応答&30&1:$\langle$〜か$\rangle$$\langle$〜$\rangle$\\\hline\end{tabular}}\begin{biography}\biotitle{略歴}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.同年,京都大学工学部助手,現在に至る.自然言語処理,知識情報処理の研究に従事.1994年4月より1年間Pennsylvania大学客員研究員.}\bioauthor{長尾眞}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.1976年より国立民族学博物館教授を兼任.京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5).計算機にどこまで人間的なことをやらせられるかに興味を持ち,この分野に入った.パターン認識,画像処理,機械翻訳等の分野を並行して研究.機械翻訳の国家プロジェクトを率いて,本格的な日英,英日翻訳システムを完成した.またアナロジーの概念に基づく翻訳(用例を用いた翻訳)を提唱.今日その重要性が世界的に認識されるようになって来ている.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N01-04
|
\section{はじめに}
英語前置詞句(PrepositionalPhrase,PP)の係り先の曖昧性は文の構造的曖昧性の典型例をなすものである.その解消は自然言語処理における難題の一つとしてよく知られている.この問題の解決法には,大略,構文構造に基づく手法,知識に基づく手法,コーパスに基づく手法,シソーラスに基づく手法がある.構文構造に基づく手法は,文の構成素の結び付き関係を構文情報によって決めようとするものである.この手法の代表例に,RightAssociation(Kimball1973)とMinimalAttachment(Frazier1978)がある.RightAssociationでは,文の構成素は右側に隣接する句と結び付く傾向があると考え,MinimalAttachmentでは,構成素はより大きな構造に係る傾向があると見る.こうして,前置詞句はRightAssociationでは名詞句(NP)に,MinimalAttachmentでは動詞句(VP)に係る傾向を示す.構文構造に基づく手法には係り先を決めるのが簡単で,意味分析や特定の知識に依存しないという利点がある.しかし,係り先決定の正解率は低く実用性も低い(Whittemore,FerraraandBrunner1990).知識に基づく手法は,世界知識や対話モデルを用いて曖昧性の解消を試みるものである(DahlgrenandMcDowell1986;JensenandBinot1987など).この手法では,ドメインを限定し,その範囲での知識の利用が有効にできれば高い正解率が得られる.しかし,現在の知識表現技術では知識の獲得が難しく,コスト面の問題もある.コーパスに基づく手法は,コーバスから諸種の情報を抽出した上で係り先の確率を計算し曖昧性を解消するものである.近年,大規模のタグつきコーバスの開発が進み,コーパスに基づく言語研究が活発になっている.Hindleら(1993)の提案した語彙選好(lexicalpreference)モデルは,コーパスから自動的に抽出した動詞,目的語となる名詞,それと前置詞の出現頻度によりLA(lexicalassociation)scoreを計算し,その値によって前置詞句が動詞か名詞のどちらに係るかを判断している.コーパスに基づく手法は曖昧性の解消の有望な方法であることが認められている.しかし,この手法は希薄なデータ(sparsedata)の問題を抱えている.また,現状ではコーパスの資源や計算量の膨大さの問題もある.シソーラスに基づく手法は,シソーラスや機械可読辞書の情報を利用し,あるいはシソーラスと例文を利用することによって,前置詞句の曖昧性の解消を行うものである(JensonandBinot1987;Nagao1992;隅田ら1994など).この手法では特定のドメインで高い正解率を達成している.しかし,ドメインを限定しない場合,単語の多義性によって係り先の決定率が著しく低下する傾向がある.また,シソーラスや辞書にはカバーする情報が分野によって不均一であることや意味の粒度の問題もある.本稿では概念情報に基づく曖昧性の解消手法(ConceptualInformationBasedDisambiguation,CIBD)を提案する.ここでは,まず言語知識と曖昧性解消に使っている世界知識から,いくつかの一般的な係り先決定ルール(選好ルールとよぶ)を抽出する.選好ルールは係り先決定に際し,概念情報をはじめ,語彙情報,構文情報と共起情報を利用している.もし,選好ルールによって一意的に係り先が決まらない場合は,コーパスから得られるデータにより係り先の確率計算をし,その結果により係り先を選択する.以下,最初に機械可読辞書から抽出する概念情報を使っての曖昧性解消について述べる.その後で,選好的曖昧性解消モデル(PreferentialDisambiguationModel)を提案し,選好ルールを述べる.最後に,この手法によって行った曖昧性解消の実験結果を示し,本手法の有効性を論ずる.
\section{概念情報に基づく曖昧性解消}
前置詞句の係り先は文脈に依存する.CIBDでは,曖昧性の解消に用いる文脈を文の中に現れる4つの語(すなわち,動詞v,動詞と前置詞の間の名詞n1,前置詞p,前置詞の目的語である名詞n2)に限定する.以下,この4語を(v,n1,p,n2)として参照する.\subsection{曖昧性解消における概念情報の役割}CIBDでは,語の概念分類と語間の概念関係が曖昧性の解消に大きな役割を果す.これらの概念情報を曖昧性の解消に用いるのは,前置詞句を観察してみると,次のような一般則が得られるからである.\vspace*{3mm}\begin{itemize}\item[1.]語の素性がしばしば係り先を決める重要な手がかりとなる.例えば,n2が場所で,pがatであれば,係り先は動詞句である(例:Iboughtabottleofwine{\itat}a{\itdrugstore}.).\item[2.]vとn2,あるいはn1とn2の間にある種の概念関係か共起関係があれば,多くの場合,それにより前置詞句の係り先が決まる.例えば,Someonehad{\itbroken}thewindow{\itwith}a{\itstone}.において,{\itstone}/n2は{\itbreak}/vの道具となるので,この前置詞句は動詞句に係る.\item[3.]n1とn2の間に特定の概念関係がある場合,前置詞句の係り先は名詞句に限定される.例えば,Hespenttwoyearstowritea{\itnovel}inthree{\itvolumes}.では,{\itvolume}(巻)は{\itnovel}(小説)の構成単位であるため,前置詞句inthreevolumesは名詞novelに係る.\end{itemize}\vspace*{3mm}われわれはv,n1,n2を特定の意味を持つ概念と考え,それぞれの概念のもつ素性と概念間の意味的関係(概念関係)を利用して曖昧性を解消する.しかし,この解消法では,諸種の情報をどこから,どう抽出するかの問題が生ずる.われわれは,EDR電子辞書を利用してこの問題に対処する.EDR電子辞書は(株)日本電子化辞書研究所により編集され,その中に概念辞書,日本語と英語の単語辞書と共起辞書,日英と英日対訳辞書,専門用語辞書,日本語と英語コーパスを含む(EDR1993).われわれはその中の概念辞書,英語の単語辞書とコーパスを使って前置詞の曖昧性を解消する.\subsection{概念類と概念体系}前置詞句の係り先の決定に使うために,動詞や名詞を素性によりいくつの概念類に分類する.例えば,動詞をmental,motion,change\_stateなどの概念類に分類し,名詞をplace,time,state,abstract,degree,human,animalなどの概念類に分類する.ここで,概念類はEDR概念辞書に依拠したものである.EDR概念辞書は40万の概念を持ち,概念見出し辞書,概念体系辞書,概念記述辞書に分けられている.概念見出し辞書は概念の意味を説明するものである.概念体系辞書は概念の上位ー下位関係を用いて概念全体をシソーラスにしたものである.概念記述辞書は概念間の上位ー下位関係以外の意味関係や共起関係による概念を意味ネットワークにしたものである.一つの概念類は概念辞書の概念体系の中にある一つの概念とその下位概念の集合を意味する.一つの概念がどの概念類に属するかはEDR概念辞書の概念体系によって判明する.図1は概念体系の一例を示したものである.ここで,animalという概念類はanimalという概念及びanimalを上位概念とする下位概念の集合である.dogという概念はanimalという概念の下位概念であるので,animalという概念類に所属する(この関係をanimal(dog)と書く).\begin{figure}[h]\begin{center}\epsfile{file=fig1.eps,scale=0.45}\end{center}\caption{概念体系の例}\end{figure}\vspace*{-5mm}\subsection{概念関係}vとn2またはn1とn2の間の意味関係は前置詞句の係り先の決定に重要な役割を果す.EDR概念記述辞書は,概念間の意味関係として27種類の概念関係を定義している.表1は,その中から前置詞句の曖昧性の解消に役立つ12の概念関係を抽出したものである.概念記述辞書は二つの概念間に現れる概念関係を記述するものである.例えば,Tom{\bfrepaired}hiscarwitha{\bfwrench}.において,repair(修理する)とwrench(レンチ)の2概念の関係はimplementとなっている.ここで,$<$repair$>-<$implement$>-><$wrench$>$はwrenchがrepairに使う道具であることを示す.したがって,前置詞句withawrenchの係り先はrepairedである.同様に,Petergreetedthe{\bfgirl}inyellow{\bfskirt}.において,girl(若い女)とskirt(スカート)両概念間a-objectという概念関係がある.これは,skirtはgirlがもつものを物語る.前置詞句inyellowskirtの係り先はこの関係により名詞girlに決める.\begin{table}\caption{曖昧性の解消に用いる概念関係}{\normalsize\begin{center}\begin{tabular}{|l|l|l|}\hline\makebox[15mm]{関係子}&\makebox[42mm]{記述}&\makebox[48mm]{例}\\\hline\hlinea-object&属性を持つ対象&$<$red$>$--$<$a-object$>$--$><$apple$>$\\\hlineobject&動作・変化の影響を受ける対象&$<$eat$>$--$<$object$>$--$><$meat$>$\\\hlinemanner&動作・変化のやり方&$<$run$>$--$<$manner$>$--$><$slowly$>$\\\hlineimplement&有意志動作における道具・手段&$<$gun$>$--$<$implement$>$--$><$kill$>$\\\hlinesource&事象の主体または対象の最初の位置&$<$come$>$--$<$source$>$--$><$Osaka$>$\\\hlinegoal&事象の主体または対象の最後の位置&$<$go$>$--$<$goal$>$--$><$HongKong$>$\\\hlinepossessor&所有関係&$<$father$>$--$<$possessor$>$--$><$book$>$\\\hlinepurpose&目的&$<$go$>$--$<$purpose$>$--$><$fishing$>$\\\hlinecondition&事象・事実の条件関係&$<$delay$>$--$<$condition$>$--$><$rain$>$\\\hlineplace&事象の成立する場所&$<$study$>$--$<$place$>$--$><$library$>$\\\hlinequantity&物・動作・変化の量&$<$three$>$--$<$quantity$>$--$><$egg$>$\\\hlinenumber&数&$<$six$>$--$<$number$>$--$><$feet$>$\\\hline\end{tabular}\end{center}}\end{table}\
\section{概念情報に基づく選好的曖昧性解消モデル}
CIBDでは,概念情報をはじめ,語彙情報や統語情報や共起情報を用いて曖昧性を解消する.以下,このモデルの詳細を述べる.\subsection{選好ルール}前置詞句の係り先の決定手順をルール化したものを選好ルール(preferencerule)と呼ぶ.選好ルールは数多くの文例を収集,分析した結果を一般則にしたものである.選好ルールはさらに適用範囲によって大域的規則(globalrule)と局所的規則(localrule)に分けられる.前者はすべての前置詞に適用され,後者は特定の前置詞にのみ適用されるものである.大局的規則は,構文構造の特徴から抽出した曖昧性解消の手がかりを利用している.局所的規則は,概念辞書から抽出した概念情報を利用している.表2に7つの大域的規則を,表3に本稿で分析の対象とした12の前置詞に対応する局所的規則を示す.規則の中の$->$の左側の一項述語は概念類のラベルを示す(例:passivized(v)).二項述語は概念関係を示す(例:a-object(n1,n2)).これらの規則の右側に,vp\_attachは係り先が動詞句,np\_attachは係り先が名詞句であることを示す.\newpage\begin{table}[htb]\caption{大域的規則}{\normalsize\begin{center}\begin{itemize}\item[1.]lexical(passivized(v)+PP)ANDprep$\neq$'by'$->$vp\_attach(PP)\\vが受身形で前置詞が{\itby}ではない場合,前置詞句はVPに係る.\item[2.]n1==n2$->$vp\_attach(n1+PP)\\n2とn1が重複する場合(例:{\itstepbystep},{\itlossonloss}),n1とPPは一つの構成語になる.\item[3.](prep$\neq$'of'ANDprep$\neq$'for')AND(time(n2)ORperiod(n2))$->$vp\_attach(PP)\\n2が時を示し,前置詞が{\itof}あるいは{\itfor}ではない場合,前置詞句はVPに係る.\item[4.]lexical(Adjective+PP)$->$adjp\_attach(PP)\\置詞句の前の語が形容詞(分詞を含む)の場合,前置詞句は補語として形容詞に係る.\item[5.]is\_a(n2,reflexive\_pronoun)$->$vp\_attach(PP)\\n2が再帰代名詞の場合,前置詞句はVPに係る.\item[6.](v,p)あるいは(v,n1,p)が慣用句としてEDR辞書に登録されている場合,前置詞句はVPに係る.\item[7.](n1,p,n2)が慣用句としてEDR辞書に登録されている場合,前置詞句はNPに係る.\end{itemize}\end{center}}\end{table}局所的規則を適用する前に,文の中の単語v,n1,n2をそれぞれの意味を表す概念に写像することが必要である.単語が一つの意味しか持たない場合は,1対1の写像になる.しかし,単語は複数の意味を持つ方が通例である.このような場合,単語を特定の概念に写像することは難しい.ここでは,1対1の写像をとるのではなく,いくつの意味的に可能な概念に写像する.以下にそのアルゴリズムを示す.\vspace*{5mm}\begin{itemize}\item[1.]v,n1,n2の候補概念リストを用意しておく,それぞれの定義をEDR単語辞書\footnote{EDR単語辞書では,単語や句の意味は特定の概念と対応している.}で調べ,とり得る意味(つまり概念)の集合を各リストに入れる.すべての候補リストに候補概念が一つしかない(単独の意味が特定された)場合は終了.\item[2.]EDR英語コーパス\footnote{EDR英語コーパスは16万文を含む.文の形態素情報,構文情報,意味情報を提供している.}に(v,n1,p,n2),(v,p,n2),(n1,p,n2),(v,n1)のどれかと同一の表現が存在するかどうかを調べる.もし存在するなら,文の中の単語はコーパスの中の単語と同じ意味を持つ可能性が高いため,候補リストはコーパスの中の概念により置換される.もしすべてのリストに候補概念が一つしかない場合は終了.\item[3.]一つのリストに二つ以上の候補概念があるとき,複数の候補が同じ親概念を持つ場合には,それらを親概念によって置換する(これをクラスタリングと呼ぶ).\end{itemize}\clearpage\begin{table}\caption{局所的規則}\begin{center}\epsfile{file=fig2.eps,scale=0.48}\end{center}\end{table}\clearpage\subsection{選好的曖昧性解消}CIBDは,大域的規則と局所的規則を使って前置詞句の係り先を選ぶ.係り先が一意に決められない場合,候補となっている係り先の確率計算をし,その値の高いものを係り先として選択する.CIBDのアルゴリズムは次の通りである.\vspace*{3mm}\begin{itemize}\item[1.]大域的規則を試す.もし,いずれかの規則が適用可能なら,その規則にある係り先を解として返して終了.\item[2.]前置詞に関連する局所的規則に現われる単語を前節で述べたアルゴリズムにより概念化する.未定義語がある場合には,ステップ4に行く.\item[3.]前置詞句に関連する局所的規則を試す.規則が一つだけ適用される場合は,この規則によって係り先を返して終了.さもなければ,もし前置詞がwithでなく,かつn2の前に不定冠詞か所有代名詞がある場合,前置詞句はVPに係る.\item[4.]次の式でlra-score(LikelihoodRatioonAttachment,前置詞句が動詞句か名詞句に係る可能性の比率)を算出し,その値により係り先を決める.この値が1.0より大きい場合はVPに係る.さもなければNPに係る.\vspace*{3mm}\hspace*{2mm}lra(v,p)=$\frac{count(p\midvp\_attach)}{count(p\midnp\_attach)}$+$log_2$$\frac{count(v\midp)\ast\Sigmacount(prep)}{\Sigmacount(v\midprep)\astcount(p)}$\hspace*{6mm}(prep$\subset$allprepositions)\end{itemize}\vspace*{3mm}アルゴリズムのステップ3で,係り先がVPかNPの両方になれる場合,n2の前の修飾語がしばしば係り先を示す.例えば,下の例文では,1aと2aの前置詞句の係り先は曖昧である.それに対し,1bと2bの前置詞句はVPに係ると考えられる.\vspace*{3mm}(1a)Tomcutthemeatonthetable.(1b)Tomcutthemeaton{\ita}table.\vspace{2mm}(2a)Theykeptthecarinthegarage.(2b)Theykeptthecarin{\ittheir}garage.\vspace*{3mm}アルゴリズムのステップ4の式に用いるデータはEDR英語コーパスから抽出されたものである.第一項は指定された前置詞pにおけるVPとNPに係る割合の比率である.第二項は動詞と前置詞の相対共起頻度の大きさによりVPに係る傾向性があるかどうかを推定するものである.lra-scoreに基づく曖昧性解消はデフォルト手段である.すなわち,未知語が出てくる場合,あるいは選好ルールにより一意に係り先を決められない場合に統計的手段が使われる.いくつの例を通して曖昧性解消の過程をみておこう.\clearpage(3)Ican'tfindabooksuitableformyson.\vspace*{1.8mm}この文が与えられたとき,まず,大域的規則を順番に調べる.すると,四番目の規則が適用されることがわかる.したがって,前置詞句{\itformyson}の係り先はsuitableとなる.\vspace*{2mm}(4)Suddenlytheguest{\bfstopped}her{\bfspeechwith}a{\bfchokingin}her{\bfthroat}.\vspace*{1.8mm}この文には2つの前置詞がある.最初に,第一の前置詞句withachokingに対し,大域的規則の適用を試みる.ここで,どの規則も適用されないことがわかる.次に,withに関する局所的規則を順番に試みる.最初の規則によりstop/vとchoking/n2の間にimplementという概念関係のあることが概念辞書から判明する.また他の規則の適用は不可のため,係り先はVPに決まる.第二の前置詞句inherthroatには,大域的規則は適用できないので,inに関し局所的規則の適用を試みる.ここで三番目の規則が適合する(choking/n1とthroat/n2の間にscopeとa-objectという概念関係がある).この規則により前置詞句の係り先はNPとなる.\vspace*{2mm}(5)We{\bfextracted}lexical{\bfpropertiesfrom}a{\bftreebank}toresolveambiguousPP\hspace*{6mm}attachments.\vspace*{1.8mm}この文には,大域的規則の適用は不可能である.また,treebank/n2は辞書に定義されていないので,局所的規則の適用も不可能である.そこで,lra-scoreの値を計算すると,4.733という値が得られる.この値は1.0より大きいので,前置詞句fromatreebankの係り先はVPとなる.\vspace*{-3mm}
\section{実験とその結果}
\vspace*{-1mm}CIBDの有効性を検証するため,12の前置詞を含む2877の文を使って曖昧性の解消実験を試みた.このテスト用のデータはある新聞と2つの本から4語組の文をランダムに抽出したものである.表4はその実験結果である.ここでは大域的規則,局所的規則,lra-scoreによる係り先決定の試行数,それぞれの場合の正解数,正解率を示す.大域的規則による係り先決定の正解率は97.1\%に達している.局所的規則による係り先決定の正解率は84.4\%,lra-scoreによる係り先決定の正解率は73.9\%である.正解率の平均は86.5\%である.\begin{table}[h]\caption{CIBDによる曖昧性解消の実験結果}{\normalsize\begin{center}\begin{tabular}{|l|r|r|r|}\hline\makebox[17mm]{段階}&\makebox[16mm]{試行数}&\makebox[16mm]{正解数}&\makebox[16mm]{正解率}\\\hline\hline大域的規則&784&761&97.1\%\\\hline局所的規則&1721&1452&84.4\%\\\hlinelra-score&372&275&73.9\%\\\hline\hline\hspace*{5mm}合計&2877&2488&86.5\%\\\hline\end{tabular}\end{center}}\end{table}4語組がEDR単語辞書で未定義の単語(未知語)を含む場合,局所的規則は係り先の決定に適用できない.そこで,lra-scoreより効率面で優れている局所的規則をできるだけ使えるように、次のようなローカルな処理を施してみることにする.\vspace*{3mm}\begin{itemize}\item4桁の数字を年代とみて概念{\itdate}に置き換える.他の数字は概念{\itnumber}に置き換える.\itemn1が大文字で始まる文字列(固有名詞)の場合,それを概念{\itname}に置き換える.\itemn2が大文字で始まる文字列の場合,前置詞が{\itin}であれば,n2を概念{\itplace}に,さもなければ,概念{\itname}に置き換える.\itemn2が人称代名詞の場合,概念{\itperson}に置き換える.\end{itemize}\vspace{3mm}これらの処置はCollinsらのコーパスの処理と似ている(CollinsandBrooks1995).表5はこの処理を加えた後で同じテストデータを用いて曖昧性解消の実験を試みた結果である.\begin{table}[h]\caption{未知語の処理を加えた場合のCIBD実験結果}{\normalsize\begin{center}\begin{tabular}{|l|r|r|r|}\hline\makebox[18mm]{段階}&\makebox[15mm]{試行数}&\makebox[15mm]{正解数}&\makebox[15mm]{正解率}\\\hline\hline大域的規則&784&761&97.1\%\\\hline局所的規則&1826&1543&84.5\%\\\hlinelra-score&267&197&73.8\%\\\hline\hline\hspace*{5mm}合計&2877&2501&86.9\%\\\hline\end{tabular}\end{center}}\end{table}表5では,未知語の処理を加えた正解率が86.9\%に達している.これは表4の結果より0.4\%よくなったものである.言い換えると、この改善は局所的規則で処理不能のケースが372文から267文に減ったことを意味する.
\section{性能の評価}
前置詞句の係り先の曖昧性解消実験では,それぞれが用いたテストデータがドメイン,規模,処理対象とした前置詞数などの点でを異なっている.したがって,正解率の精密な比較をすることは難しい.ここではCIBDが全前置詞を対象にしたときの性能の推定と,CIBDと他の手法との相対的な比較を行っておこう.\subsection{全前置詞を対象としたときのCIBDの性能}CIBDの実験は使用頻度の高い12の前置詞を選んで行ったものである.前置詞を5つの独立のテキストで調べてみると,CIBDで対象にした12の前置詞は全体の91.7\%(91.4\%$\sim$92.1\%)を占めている.その他の前置詞の出現頻度は8.3\%である.このうちの27.9\%には係り先の決定に大域的規則を使うことができるので,表5にある97.1\%の正解率を得られよう.残りの72.1\%の前置詞句の係り先をlra-scoreによって決めてみると,73.8\%の正解率が得られると考えられる.このことから,全前置詞に対しての予想正解率は86.4\%となる.\footnote{平均正解率=0.917$\ast$0.869+0.083$\ast$(0.279$\ast$0.971+0.721$\ast$0.738)=0.864}\subsection{他の手法との性能の評価}表6は4つの手法によって行った前置詞句の係り先決定の実験結果である.ここで,(1)は構文構造に基づく手法の一つであるRightAssociation\hspace*{1.5mm}をCIBDで用いたテストデータに適用した結果を示す.その正解率は67.1\%である.(2)と(3)はコーバスに基づく手法(BrillandResnik1994;CollinsandBrooks1995)の結果である.ここでは,訓練データとしてTheWallStreetJournalTreebank(Marcus,SantoriniandMarcinkiewicz1993)を使い,テストデータにはIBMDataを使っている.正解率はそれぞれ81.9\%と84.5\%である.\hspace*{2mm}(4)は隅田らが提案した用例に基づく手法の実験結果である.\begin{table}[h]\caption{他の手法とCIBDの比較}{\normalsize\begin{center}\begin{tabular}{|l|r|r|}\hline\makebox[48mm]{手法}&\makebox[23mm]{データのサイズ}&\makebox[15mm]{正解率}\\\hline\hline(1)\hspace*{3mm}RightAssociation&2877&67.1\%\\\hline(2)\hspace*{3mm}Rule-based[BR94]&3097&81.9\%\\\hline(3)\hspace*{3mm}Backed-off[CB95]&3097&84.5\%\\\hline(4)\hspace*{3mm}Example-based[SFI94]&131&85.7\%\\\hline(5-1)CIBD(付加処理なし)&2877&86.5\%\\\hline(5-2)CIBD(未知語処理を付加)&2877&86.9\%\\\hline(5-3)CIBD(全前置詞を対象)&&86.4\%\\\hline\end{tabular}\end{center}}\end{table}ここで,3299件の人工的に生成した用例(ドメインは国際会議申込の英日対話文)とLongmanLexicon準拠のシソーラスを用いた曖昧性の解消を討みている.131件の実験データを使って行った結果の正解率は85.7\%である.本稿での前置詞句の係り先決定結果をこれらの先行実験と比べてみると,CIBDの正解率が他の手法のものより優れていることがわかる.\footnote{(2)(3)(5)ともにドメインに依存しないものであり,それらのテストデータの規模には大きな差もない.}
\section{むすび}
CIBDによる曖昧性解消の実験結果は,その有効性を証明した.その理由として次のようなことが考えられる.\vspace*{3mm}\begin{itemize}\item[1.]機械可読辞書から多様な情報を利用したことCIBDでは,機械可読辞書と注釈つきコーバスから概念情報をはじめ,統語情報,形態素情報,語彙情報,共起情報等幅広い情報を入手して,総合的に曖昧性の解消をしている.一般に辞書には分野によってカバーする情報の不均一の問題がある.しかし,各情報の相互補完性を利用することにより,辞書からの情報が不十分な場合でも,曖昧性の解消を有効に行っている.\vspace*{2mm}\item[2.]段階的に曖昧性を解消したことCIBDでは,曖昧性の解消を漸進的に3段階に分け,成功率の高い方を優先させている.また,未知語を適切に処理することによって、局所的規則の適用を増やして正解率を上げることに成功している.\vspace*{2mm}\item[3.]多義語への対応をしたこと多義語の意味を特定の概念に写像することは難しい.CIBDは,単語のいくつ意味的可能な概念を選択し,その上位概念へのクラスタリングによって多義語の問題に対処することで正解率を上げている.\end{itemize}\vspace*{3mm}本論文は,概念情報を中心に語彙情報,統語情報,共起情報を用いて前置詞句係り先の曖昧性解消手法を示した.CIBDでは,機械可読辞書とタグつきのコーパスを利用して情報を抽出しているため,人工的な訓練データを用意する必要がない.また,CIBDはドメインに依存しないため,汎用性にも優れているといってよいだろう.\begin{thebibliography}{18}\bibitem{BA91}Boggess,L.,Agarwal,R.andDavis,R.(1991).``DisambiguationofPrepositionalPhrasesinAutomaticallyLabeledtechnicaltexts.''In{\itProceedingsofthe9thAAAI},155-159.\bibitem{BR94}Brill,E.andResnik,P.(1994).``ARule-basedApproachtoPrepositionalPhraseAttachmentDisambiguation.''In{\itProceedings,the15thCOLING},1198-1204.\bibitem{CB95}Collins,M.andBrooks,J.(1995).``PrepositionalPhraseAttachmentThroughaBacked-offModel.''http://xxx.lanl.gov/cmp-lg/9506021.\bibitem{CE93}Charniak,E.(1993).``StatisticalLanguageLearning.''TheMITPress.\bibitem{DM86}Dahlgren,K.andMcDowell,J.(1986).``UsingCommonsenseKnowledgetoDisambiguatePrepositionalPhraseModifiers.''In{\itProceedingsofthe5thAAAI}.589-593.\bibitem{EDR93}JapanElectronicDictionaryResearchInstitute,Ltd.(1993).``EDRElectronicDictionarySpecificationsGuide.''\bibitem{Fra78}Frazier,L.(1978).``OnComprehendingSentences:SyntacticParsingStrategies.''DoctoralDissertation,UniversityofConnecticut.\bibitem{Fuk95}福本文代(1995).``3語の同時出現頻度を利用した前置詞句の係り先の曖昧性解消.''自然言語処理,2(5),67-74.\bibitem{HR93}Hindle,D.andRooth,M.(1993).``StructuralAmbiguityandLexicalRelations.''{\itComputationalLinguistics},19(1),103-120.\bibitem{JB87}Jensen,K.andBinot,J.(1987).``DisambiguatingPrepositionalPhraseAttachmentsbyUsingOn-lineDictionaryDefinition.''{\itComputationalLinguistics}.13(3-4),251-260.\bibitem{Kim73}Kimball,J.(1973).``SevenPrinciplesofSurfaceStructureParsinginNaturalLanguage.''{\itCognition},2,15-47.\bibitem{Luk95}Luk,A.K.(1995).``StatisticalSenseDisambiguationwithRelativelySmallCorporaUsingDictionaryDefinitions.''{\itProceedingsofthe33rdAnnualMeetingofACL}.181-188.\bibitem{MSM93}Marcus,M.P.,Santorini,B.andMarcinkiewicz,M.A.(1993).``BuildingaLargeAnnotatedCorpusofEnglish:thePennTreebank.''{\itComputationalLinguistics},19(2),313-330.\bibitem{Nag92}NagaoM.(1992).``SomeRationalesandMethodologiesforExample-basedApproach.''In{\itProceedingsofFGNLP'92},82-94.\bibitem{RRR94}Ratnaparkhi,A.,Reynar,J.andRoukos,S.(1994).``AMaximumEntropyModelforPrepositionalPhraseAttachment.''In{\itProceedingsoftheHumanLanguageTechnologyWorkshop},250-255.\bibitem{SFI94}隅田英一郎,古瀬蔵,飯田仁(1994).``英語前置詞句係り先の用例主導あいまい性解消.''電子情報通信学会論文誌D-II,Vol.J77-D-II,No.3,557-565.\bibitem{WF95}Wu,H.,Ito,T.andFurugori,T.(1995).``APreferentialApproachforDisambiguatingPrepositionalPhraseModifiers.''In{\itProceedingsofthe3rdNaturalLanguageProcessingPacificRimSymposium},745-751.\bibitem{WFB90}Whittemore,G.,Ferrara,K.andBrunner,H.(1990).``EmpiricalStudyofPredictivePowersofSimpleAttachmentSchemesforPost-modifiersPrepositionalPhrases.''In{\itProceedingsofthe28thAnnualMeetingofACL},23-30.\bibitem{WHD85}Wilks,Y.,Huang,X.andFass,D.(1985).``Syntax,PreferenceandRightAttachment.''In{\itProceedingsofthe5thIJCAI},779-784.\end{thebibliography}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{呉浩東}{1983年重慶大学情報工学部卒業.1986年同大学院修士課程修了.同年,重慶大学情報工学部助手,1988年講師.1994年電気通信大学院博士課程入学.自然言語処理,知的CAI,情報システムの研究に従事.}\bioauthor{古郡廷治}{ニューヨーク州立大学計算機科学科博士課程修了.Ph.D.電気通信大学情報工学科教授.自然言語処理,認知科学,人工知能などの研究に従事.ACM,情報処理学会,電子情報通信学会,計量国語学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V19N02-02
|
\section{はじめに}
自然言語処理技術を用いた多様なアプリケーションにおいて,対象ドメインに特化した辞書が必要となる場面は多く存在する.例えば情報検索タスクにおいて,検索クエリとドメイン辞書とを併用することで検索結果をドメイン毎に分類して提示することを可能としたり,特定のドメインに特化した音声認識システムにおいてはそのドメインに応じた認識辞書を用いた方が音声認識精度が高いことが知られている\cite{廣嶋2004}.一方で,特定のドメインに対する要求でなく,ドメイン非依存の場面においても,詳細なクラスに分類した上で体系的な辞書を用いる必要が生じる場合がある.例えば関根らの定義した拡張固有表現\cite{sekine2008extended}は,従来のIREX固有表現クラスが8クラスであったのに対し,200もの細分化されたクラスを持つ.橋本らによって作成された関根の拡張固有表現に基づくラベル付きコーパスにより,機械学習による拡張固有表現抽出器の研究がなされている\cite{橋本08,橋本10}が,コーパスにおいて付与された各クラスの出現数にはばらつきがあり,極端に学習データの少ないクラスも存在する.コーパスから単純な学習により固有表現抽出器を構築した場合,これら低頻度のクラスについて正しく学習できないことが予想されるため,各クラス毎の直接的な辞書の拡充が必要とされる.このようにドメインやクラスに依存した辞書の重要性は高いが,一方で辞書の作成には大きな人的コストがかかってしまうため,可能な限りコストをかけずにドメイン依存の語彙を獲得したいという要求がある.本論文で対象とする語彙獲得タスクは,ドメインやクラスに応じた少量の語彙集合,特に固有表現集合で表される教師データを用いて,新たな固有表現集合を獲得することを目的とする.なお,本論文では固有表現をエンティティ,初期に付与される教師データをシードエンティティと呼ぶこととする.語彙獲得タスクにおいては,教師データを繰り返し処理により増加させることのできる,ブートストラップ法を用いた手法が多く提案されており\cite{pantel2006espresso,bellare2007lightly},本論文でも同様にブートストラップ法に基づいた手法を提案する.ブートストラップ法の適用により,初期に少量のシードエンティティしか存在しない場合であっても,手掛かりとなる情報,すなわち学習データを逐次的に増加させることが可能であるため,大規模なエンティティ獲得に繋がる.しかしブートストラップ法を用いたエンティティ獲得における課題として,獲得されるエンティティの持つ意味が,シードエンティティ集合の元来の意味から次第に外れていくセマンティックドリフトと呼ばれる現象があり,エンティティ獲得精度を悪化させる大きな要因となっている.本論文では,従来用いられてきた局所的文脈情報だけではなく,文書全体から推定されるトピック情報を併用することで,セマンティックドリフトの緩和とエンティティ獲得の精度向上を図る.本論文におけるトピックとは,ある文書において述べられている「政治」や「スポーツ」等のジャンルを指し,統計的トピックモデル(以下トピックモデル)を用いて自動的に推定する.本論文ではエンティティ獲得精度向上のために,トピック情報を3通りに用いた手法を提案する.第一に,識別器を用いたブートストラップ法における素性として利用する.第二に,識別器において必要となる学習用の負例を自動的に生成する尺度として利用する.第三に,教師データ中のエンティティの多義性を解消することで,適した教師データのみを利用する.以下2節で先行研究とその課題,3節でトピック情報を用いた詳細な提案手法,4節で実験結果について報告し,提案手法が少量のシードからのエンティティ獲得において効果があることを示す.
\section{ブートストラップ法を用いた語彙獲得における課題}
\subsection{ブートストラップ法とセマンティックドリフト}本節では,ブートストラップ法によるエンティティ獲得の基本的な処理の流れと,その課題について述べる.はじめに,ブートストラップ法に基づくエンティティと属性の関係獲得法であるEspresso\cite{pantel2006espresso}について述べる.属性とは獲得対象とするエンティティ集合において,複数のエンティティが共通して関係する語(``has-a''や``is-a''等の関係)であるとする.例えばエンティティ「ヤクルト」と「巨人」の属性は,「監督」(has-a)や「球団」(is-a)等となる.関係獲得タスクは語彙獲得タスクを含んだタスクと捉えられるため,両者を比較することに意味はある.Espressoでは,初期に与えられるシードエンティティとシード属性の組から,それらを含んで出現する文脈パターンを手掛かりとして,新たなエンティティ--属性ペアに対し,自己相互情報量(PMI)に基づいて定義されたスコア関数に基づいてスコアを付与する.ここでの文脈パターンの例としては,「NTT」をエンティティ(X),「株価」を属性(Y)とした場合,「X(NTT)/の/Y(株価)/が/反発」といったものがあげられる.Espressoはブートストラップ法の各繰り返しにおいて,スコア関数値を高くするようなエンティティ--属性ペアを新たな正例として獲得するフェーズと,文脈パターンの獲得フェーズを交互に行い,必要なエンティティ--属性ペア数が得られるまで繰り返す.ブートストラップ法を用いることで少量のシードエンティティのみが与えられた場合でも,教師データを増加させつつ新たなエンティティを獲得していくことが可能なため,本稿でもEspressoと同様,ブートストラップ法に基づいた語彙獲得を行っていく.ブートストラップ法によって少量のシードエンティティから新たなエンティティ集合を獲得する際の主な課題として,獲得する対象が本来獲得すべき種類とは異なる対象へと次第に変わっていってしまうという現象があげられる.例えば獲得対象が企業名である場合に,「NTT」と「トヨタ」をシードエンティティとして与え,Espresso等のエンティティ獲得アルゴリズムにより「ヤクルト」が獲得できたとする.しかし「ヤクルト」には企業名以外にも,プロ野球球団名や飲料品名といった多義性が存在するため,次の繰り返しにおいて獲得されるエンティティが「巨人」等の本来獲得対象としていたエンティティではないものに遷移していく場合がある.この現象はセマンティックドリフトと呼ばれ,ブートストラップ法に基づく語彙獲得における精度低下の大きな要因となっている.\subsection{識別モデルに基づくブートストラップ法と課題}\label{sec:problem}先行研究では,新たなエンティティを選択する際のスコア関数を独自に定義することでセマンティックドリフトを抑え,エンティティを精度良く獲得する手法が提案されている\cite{thelen2002bootstrapping,sarmento2007more}.これらのスコア関数は,基本的にはEspressoと同様にシードエンティティの特徴になるべく近い特徴を持つエンティティに対し,高いスコアを与えるように設計されている.スコア関数についての研究とは異なる観点で提案されたのがBellareらの識別モデルに基づくブートストラップ法である\cite{bellare2007lightly}.彼らの方法では識別モデルからのスコアによってスコア関数を構築するため,柔軟な素性設計が可能となる.例えば,「X(NTT)/の/Y(株価)/が/上昇」という文脈を考えた時,素性関数$f$によって$f({\rmsurf.}=``$の$'',{\rmposition}=X+1)=1,\\f({\rmsurf.}=``$上昇$'',{\rmposition}=Y+2)=1$といった素性が構築される.BellareらはEspressoと同様に関係獲得タスクに識別モデルに基づくブートストラップ法を適用しているが,文脈パターンに相当する素性の重みは,識別学習によって自動的に付与される.そのためEspressoにおける文脈パターン獲得フェーズは不要となり,代わりにエンティティ獲得フェーズと属性獲得フェーズとに分けた手法が提案されている.我々はBellareらの手法に若干の変更を加えたものをベースラインとして用いることとした.このベースラインについては\ref{sec:baseline}節で詳しく述べる.Bellareらの手法及び我々のベースラインシステムには3つの課題が残存する.1つ目の課題は,大域的な情報が識別モデルに反映されていないという点である.識別モデルの導入により素性の柔軟な設計が可能になった一方,彼らは局所的な文脈中の単語の表層と品詞のみを素性として用いるのみで,識別モデルの利点を積極的には用いていない.局所的文脈に基づく素性のみでは,エンティティの曖昧性を解消できない場合がしばしばある.例えばエンティティ「ヤクルト」は企業名としても球団名としても存在する.「ヤクルト」に対して「捕手」のような属性を付与することによって,ある程度曖昧性を解消することは可能であるが,属性を付与した場合でもなお曖昧性が残る場合もある.ここで属性として「広報」が与えられ,文書が次のように与えられている場合を考える.「18日の夜,ヤクルトの広報担当者が取材に対してコメントを発表した.18日の試合で途中退場したY選手は,診断の結果軽いねんざと診断された,とコメントは伝えている.」一文目だけを見た場合,このヤクルトは企業名を指すか球団名を指すかは明らかではない.文書全体を読むことで,このエンティティが「球団名」を指していることが明らかになるが,局所的な文脈パターンのみを用いた場合,文書全体からの大域的情報を利用することはできない.我々は文書全体を通して存在するトピックを,エンティティ識別の際の素性として用いる方法を\ref{sec:topicfeature}節において述べる.2つ目の課題は,識別学習における負例の問題である.識別学習では正例と負例が必要になることが一般的である.Bellareらは現在の正例以外全てを負例として扱っているが,この場合も偽負例が混じる可能性が排除できない上,正例と負例の量が大きく乖離するというデータ非平衡の問題もある.一方,Mintzらは複数のクラスに属する正例群を与えた後,別のクラスに属するエンティティと属性を擬似的な負例ペアとすることで負例を生成している\cite{mintz2009distant}.しかし,1つのクラスのみを獲得対象とする場合,このような負のクラスを加えることには人的コストがかかる上,属性を組み合わせたとしても,エンティティ「ヤクルト」に対する多義属性「広報」が存在するように,属性の多義性によって偽負例が生成されてしまう可能性がある.3つ目の課題はシードエンティティの質及び獲得された正例エンティティの多義性についての問題である.少量のシードエンティティのみを手がかりとして行う語彙獲得タスクでは,シードエンティティによる精度への影響は大きい.Pantelらは大規模なWEBに対して,比較的単純なスコアリング関数を用いて効率的なエンティティ獲得手法を提案しており\cite{pantel2009web},10個程度のシードエンティティにより十分な精度でエンティティ集合が得られると報告している.一方でVyasらはシードエンティティの選択によりエンティティ獲得の結果に影響が出ることを示している\cite{vyas2009helping}.特に多義性のあるシードエンティティが混入した場合にセマンティックドリフトが生じやすく,精度の劣化は大きいと考えられるため,Vyasらは精度を落とす可能性の高いシードを除去するアルゴリズムを提案している.この問題はシードエンティティに限らず,獲得された後に教師データとして用いられるエンティティについても同様が生じてしまう.我々はこれら3つの課題に対し,トピック情報を用いて解決する手法を以下で提案する.
\section{トピック情報を用いたブートストラップ法}
\label{sec:propose}\subsection{ベースライン手法}\label{sec:baseline}本節ではBellareらの手法を基としたベースライン手法について述べる.なお,本節ベースライン手法は図\ref{fig:structure}の実線矢印で,次節以降で述べる提案手法は破線矢印で表している.本ベースライン手法がBellareらの手法と異なる点は,獲得対象がエンティティに限られるという点である.そのため,本ベースライン手法ではエンティティ獲得と属性獲得との交互獲得は行わず,初期に正例属性集合として与えた後の属性集合は不変であるとする.新規属性獲得を行うことも可能ではあるが,獲得された属性集合に偽正例が混じることによってセマンティックドリフトが生じるリスクを排除するために,エンティティのみの獲得を行うこととした.\begin{figure}[t]\begin{center}\includegraphics{19-2ia938f1.eps}\end{center}\caption{提案手法のシステム構成図}\label{fig:structure}\end{figure}ベースライン法においては,はじめに人手によって$N_e$個の正例シードエンティティ集合$E_P$が与えられた後,シードエンティティとのPMIの大きい順に各名詞のランキングを行う.ランキングされた名詞のうちスコアの高い方から$N_a$個の正例属性集合($A_p$)を選択する.$N_e$及び$N_a$は事前に調整するパラメータであり,本論文ではいずれも$10$とした.エンティティ--属性ペアとしてのシードは,シードエンティティ集合$E_P$と正例属性集合$A_P$とを組み合わせることで得た.次にこのエンティティ--属性ペアを,正例教師データ用の文書集合を獲得する際の検索クエリとして用いる.検索の結果得られる,あるエンティティ--属性ペア$\{e,a\}$を含む正例文書集合を$D_{e,a}$と表す.1つ1つの文書を個別に教師データとして用いるのではなく,同じエンティティ--属性ペアを含む文書をまとめることにより,過適応の緩和が期待できる.正例文書集合$D_{e,a}$を元に$e,a$の周辺文脈についての素性化を行う一方,学習用の負例についても文書集合全体からランダムに選択した後に素性化を行い,これらを元に識別モデルを学習する.次に識別モデルの適用方法について述べる.新規正例エンティティとなりうる候補エンティティは,正例属性$a\inA_P$の近傍に出現する固有表現$e'$のみに限定する.訓練データの場合と同様,過適応緩和のため,識別対象$e',a$は文書集合$D_{e',a}$としてまとめられ,素性化処理を行った後に識別モデルが適用される.識別モデル適用の結果出力されるスコアを$s(e,a)$とし,正例属性集合$A_p$について$s(e,a)$の和をとったスコア$\sum_{a\inA_P}s(e,a)$の値の高い方から順に,任意の種類数の新規正例エンティティを獲得する.\subsection{トピック素性とトピックモデル}\label{sec:topicfeature}\ref{sec:problem}節で1つ目の課題として述べたように,識別モデルにおける素性としてこれまでは局所的文脈に基づく素性が用いられてきた\cite{bellare2007lightly}.我々は文脈情報に加え,トピック情報を併用することでエンティティの持つ曖昧性を解消し,セマンティックドリフトの影響を緩和する.文書の背景にあるトピックを利用する場合,文書に対して明示的にトピックラベルが付与されているデータであれば,そのラベルを直接トピック情報として用いることができるが,全ての文書にトピックラベルを人手で付与するにはコストがかかる.本稿ではラベル無しの文書集合しか存在しない場合でもトピック情報の取得を可能にするため,文書のトピックと単語との関係をモデル化するトピックモデルを用いる.トピックモデルは,文書のトピックと関連の強い単語に高い確率を付与することで,文書をより緻密に表現できるモデルであり,情報検索等多様なアプリケーションにおいて利用されている\cite{hofmann1999probabilistic}.例えばある文書のトピックがスポーツであるならば,「サッカー」といったスポーツに関する単語が出現しやすく,「国会」といった単語が出現しにくい,といった大域的情報を扱うことができる.本稿ではトピックモデルとして,各文書におけるトピック間の共起関係をディリクレ分布によって表現するLatentDirichletAllocation(LDA)を用いることとする\cite{blei2003latent}.LDAをはじめとするトピックモデルを用いることで,具体的には文書$d$におけるトピック$z$の事後確率$p(z|d)$を計算することが可能となる.LDAを用いた場合,事後確率を解析的に求めることは困難であるが,変分ベイズ法を用いて近似的に事後確率を求めたり\cite{blei2003latent},マルコフ連鎖モンテカルロ法を用いて近似的に事後確率を推定することが可能である\cite{Griffiths2004fst}.例えば,\ref{sec:problem}節の「ヤクルト」の例に関して,トピックモデルはトピック$z=\text{``野球''}$に対して高い事後確率を付与することが期待される\footnote{$z$は離散変数上の確率変数であり,明示的にトピックを表すような単語を値とはとらない.}.この事後確率は文書$d$のトピック$z$らしさを表現していることに他ならないので,識別における大域的素性として直接的に活用できる.我々の手法において,エンティティ--属性ペア$e,a$に対するトピック素性$\phi_t(z,e,a)$は,LDAの事後確率に基づいて以下のように計算される.\[\phi_t(z,e,a)=\frac{\sum_{d\inD_{e,a}}p(z|d)}{\sum_{z^\prime}\sum_{d\inD_{e,a}}p(z^\prime|d)}.\]\subsection{トピック情報に基づく負例生成}\label{sec:negative}正例のみが存在する状況下で識別モデルを利用する際に問題となるのは,学習用の負例をいかに生成するかという点であり,\ref{sec:problem}節において2つ目の課題としていた.例えば初期の正例以外全てを負例として扱う場合や,ランダムに負例を選択する場合,実際には正例である事例を,誤って負例として扱ってしまう偽負例を生じてしまい,識別結果に対しても悪影響を及ぼす可能性がある.我々の目的は偽負例の生成を抑制するというだけでなく,正例と負例の量を平衡に保ちつつ,セマンティックドリフトを緩和するために幅広いジャンルから負例としてふさわしいものを獲得することである.本節ではトピックモデルを用いることでこのような要求を満たす負例を自動的に獲得する手法について述べる.負例生成問題は,正例とラベルなしデータのみが存在する場合における主要な問題と捉えられている\cite{liu2002partially,li2010negative}.しかし先行研究における手法はある程度大きな規模の正例データを想定しており,我々が用いる非常に少量の正例データについては有効に機能しないと考えられる.そこで,前節で用いたトピックモデルの尺度において,正例からできるだけ遠い事例を負例として選択する手法を提案する.トピックの分布は単語の分布と比べ比較的密であり,少量の正例データからでも正のトピックが推定可能である.各異なり単語を独立次元とするベクトル表現では,例えば「プリウス」と「キャディラック」では全く異なる次元に存在するが,トピックを独立次元とするベクトル表現で捉えると,これらの単語を含む文書は同じトピック次元上に存在する可能性が高く,逆に言えば,負例はそれ以外のトピック次元中に存在しやすい.トピックに基づくこの尺度をトピック$z$に対する``正のトピックスコア''$PT(z)$と呼び,本スコアを元に負例にふさわしい文書を選択していく.正のトピックスコア$PT(z)$を,以下のように正例文書集合$D_{e,a}$中の各文書が与えられた時の事後確率の和として定義する.\begin{equation}PT(z)=\frac{\sum_{d\in{D_{e,a}}}p(z|d)}{|D_{e,a}|}.\end{equation}$PT(z)$の低い方から$50\%$のトピックを負のトピックとし,負のトピック各々において同数ずつ,総数が正例文書数と等しくなるように文書を選択した.この際の文書の選択基準としては,負のトピックに対する事後確率が高く,かつエンティティ候補となり得る固有表現と属性に相当する名詞が,任意のウインドウサイズ内に現れる文書であるとした.本実験に用いたウインドウサイズは3単語である.\subsection{トピック情報による正例の多義性解消}\label{sec:tpc_sel}本節では\ref{sec:problem}節で挙げた3つ目の課題,正例の教師データに多義性が含まれ得るという課題を解決する手法を提案する.正例の中には多義性を持つものも存在するため,その正例が出現する全ての文書を正例の抽出対象として用いることはセマンティックドリフトを引き起こす要因となる(例えば\ref{sec:problem}節の「ヤクルト」の例があげられる).従来研究ではこのようなセマンティックドリフトを引き起こす要因となるシードエンティティを除外する手法が提案されている\cite{vyas2009helping}.これに対し,我々はトピックを用いることにより,エンティティを無条件に除外するのではなく,ドメインに合ったトピックでは活かし,ドメインから外れたトピックでは除外するといったような,細かな処理を可能とする手法を提案する.「ヤクルト,広報」というエンティティ--属性の二つ組に加え,「ヤクルト,広報,$z=\text{``野球''}$」のような三つ組の形とすることで,より確実性の高い正例集合を作ることができる.具体的には,前節で述べた正のトピックスコア$PT(z)$をここでも利用する.まず,任意の閾値$th$において,$PT(z)>th$を満たすトピック$z$を正のトピックとする.もしも条件を満たす$z$が1つもない場合は,最も$PT(z)$の高い$z$を正のトピックとする.そして正例文書集合の中から,正のトピックに含まれる全てのトピック$z^\prime$に対し,$p(z^\prime|d)\leth$となるような文書$d$を正例文書集合から除外する.なお,シードエンティティが与えられているか否かに関わらず,文書単位のトピック事後確率は事前に全て計算しておくことが可能であるため,本手法の適用は比較的高速に行うことが可能である.本節で述べた手法は,\ref{sec:topicfeature}節のトピック素性をハード制約として用いた場合と捉えることができる.
\section{実験}
\subsection{実験条件}本節では提案手法の有効性を示すために,少量のシードエンティティからの新規エンティティ獲得精度を比較し,その結果についての考察を行う.実験には2008年5月の日本語ブログ約3000万記事を用いた.単語及び固有表現を処理単位として素性に変換しており(以後簡単のため固有表現を含めて単語と呼ぶ),形態素解析にはJTAG\cite{Fuchi98}を,IREX定義に基づく固有表現抽出器には最小誤り分類基準に基づくCRFを用いた\cite{suzuki2006training}.素性を獲得する素性テンプレートとしては``(head)\textit{entity}(mid.)\textit{attribute}(tail)''を用いた.head,mid.tailに位置する各単語は表層,品詞,固有表現ラベルに対し,その位置情報を付加した上で素性に変換する.文脈のウインドウサイズ($|head|,|mid|,|tail|$)はそれぞれ最大で2単語とし,素性は正例,負例を通じて最低5回以上出現しているものを用いた.\begin{table}[b]\caption{シードエンティティ及び正例属性}\label{table:seed}\input{03table01.txt}\end{table}本節では「車名」「番組名」「スポーツ組織名」の3つのドメインを対象に実験を行う.一回の繰り返しで獲得するエンティティ種類数は$100$種類とし,合計10回の繰り返しを経て,最終的に1000種類の新規エンティティを獲得する.シードとしたエンティティと属性を表\ref{table:seed}に示す.正例属性はシードエンティティとのPMIの高いものから順に10個を選択したが,番組名においては,属性として明らかにふさわしくないと判断したものを主観的に除去した(「この間」と「さっき」).識別器には$SVM^{light}$\cite{joachims1999making}の2次多項式カーネルを用いた.トピックモデルの学習と適応にはMessagePassingInterface(MPI)でLDAを利用できるParallelLDAを用い\cite{liu2011plda},トピック数100のLDAを学習,適応した.トピックモデルの学習コーパスは,本実験で用いる2008年5月のブログコーパス31日分のうち,14日分の記事約1400万記事を用いた.予備実験の検討より,学習におけるマルコフ連鎖モンテカルロ法のサンプリング回数は200回とし,うち50回を初期値への依存を弱めるためのburn-inとして用いた.実験条件として以下の4条件に基づいて実験を行った.\begin{itemize}\item{1.ベースライン:\ref{sec:baseline}節で述べたものに相当する}\item{2.ベースラインにトピック素性を追加した手法}\item{3.2.に対し負例生成法を追加した手法}\item{4.3.に対し正例の多義性解消法を追加した手法(図\ref{fig:structure}の全破線矢印部に一致)}\end{itemize}システムが獲得した1000個のエンティティについて,2人の評価者が商用検索エンジンを用いて検索し,エンティティと各ドメイン名のAND検索の検索結果上位40件中に,シードエンティティと同じ使い方をされているものが存在するか否かという観点で,正解または不正解のラベルを付与した.また獲得された単語のうち,固有表現抽出器が誤って獲得した固有表現以外の単語(例えば「番組名」における「月9」等)については不正解とした.評価者間の$\kappa$値は$0.895$であった.2人の評価者間で評価が異なった場合,第3の評価者が評価を行い,その評価を正しい評価として用いた.\subsection{実験結果と考察}表\ref{table:result}に各ドメイン毎の実験結果を示す.表中の値は精度と有意差を表している.トピック素性を用いた手法2.においては,車名とスポーツ組織名のドメインにおいて改善を示している.\begin{table}[b]\hangcaption{3ドメインにおける各手法による評価.太字で示している数値は直前行の結果と二項検定を行い,$5\%$の有意差水準において有意に差があったものを示している.斜体は同$10\%$での有意差水準の場合}\label{table:result}\input{03table02.txt}\end{table}また負例生成法は車名と番組名のドメインにおいて改善を示している.これは,負例生成法が偽負例を選択するリスクを低減させたことが要因の1つと考えられる.同様に正例の多義性解消法においても車名と番組名において精度の改善を示している.スポーツ組織名のドメインにおいてはトピック素性を追加した場合に明らかな改善が見られたものの,ある程度の改善がなされてしまったために,他の2つの手法による改善は見られなかった.車名における精度が他のドメインより低いのは,「バイク名」のような比較的近い意味のエンティティが獲得されたことに起因する.これら似たドメインというのは,文脈的特徴が似ているだけでなく,トピックによる特徴も近くなったためと考える.\begin{table}[b]\hangcaption{$z_h$,$z_l$,$z_e$の3トピックに属する特徴的な単語.獲得対象となるドメインに対し,$z_h$は最も近い($PT(z)$が最も高い)トピック,$z_l$は最も遠い($PT(z)$が最も低い)トピックを表す.$z_e$は負例生成で選ばれる負のトピックの1つを表しており,ベースラインを用いた場合の結果に見られるエンティティのセマンティックドリフト(3行目)を抑えることに効果があったことを示している}\label{table:real_topic}\input{03table03.txt}\end{table}提案手法が有効に機能した結果,ベースラインにおいて生じていたセマンティックドリフトが軽減されたということを示すため,ターゲットドメインに近いトピックと遠いトピックに属する単語を表\ref{table:real_topic}に挙げる.表\ref{table:real_topic}は以下に定義される正のトピック$z_h$と負のトピック$z_l$,$z_e$に属する特徴的な単語を示している.\begin{itemize}\item{$z_h$(2行目)$PT(z)$が最大となるトピックであり,正のトピックとして用いられる.}\item{$z_e$(4行目)ベースラインにおいて観察されるエンティティのセマンティックドリフトを抑えるのに効果があったトピック.$PT(z)$の大きい順にソートした際に下位半分に現れる負のトピックの1つから選択したトピック.}\item{$z_l$(5行目)$PT(z)$を最小とするトピックであり,負のトピックとして用いられる.}\end{itemize}各トピックにおける特徴単語として,スコア$p(v|z)/p(v)$が最も高くなる3単語を選択した.ここで$p(v|z)$はLDAにおけるモデルパラメータ,$p(v)$は単語$v$のユニグラム確率であり,コーパス全体からの単純な最尤推定で求められる.正例の多義性解消法が有効に機能するためには,正のトピック$z_h$が対象ドメインに近い必要がある.反対に負例生成法が有効に機能するためには,下位半分のトピックに含まれるトピック$z_l$,$z_e$が対象ドメインから遠い必要がある.表\ref{table:real_topic}を見ると,このいずれもを満たしていることが確認できる.例えば表中「車名」において,最も近いトピックには「車検」という単語等を含み,最も遠いトピックには「内科」という単語を含んでいるため,対象ドメインに対しそれぞれ近い単語,遠い単語が選ばれていると言える.さらに効果的な負のトピックとして,電子機器のトピックが選ばれているために,ベースラインにおいて獲得された「iPod」等の単語が提案手法では獲得されなかった.この傾向は「車名」以外のドメインにおいても確認でき,提案手法の語彙獲得精度の向上に繋がった要因であると考えられる.
\section{関連研究}
先行研究においては,文書/文レベルの全ての単語を素性とした分布類似度を用いたアプローチ(distributionalapproach)が提案されている\cite{pantel2009web}.これらの手法は大域的情報を用いた手法とみなすことができるが,単語の素性空間は非常に多次元かつ疎な空間であり,データ量が増えた場合においてもこの問題を完全に解消することはできない.我々の手法はトピック情報という中間的な単位に落とし込むことでこれらの問題を解消する.我々が用いたトピックモデルは一種の確率的クラスタリングモデルであるので,エンティティ獲得にクラスタリング情報を用いた先行研究としてPa\c{s}caらの研究を挙げて比較する\cite{pasca2008weakly}.Pa\c{s}caらはエンティティの獲得だけでなく,周辺文脈をクラスタリングし,その中からクラスを代表するにふさわしい単語を選択してクラス名として定義する.さらに検索クエリログを用いて,当該クラス内のエンティティと共に用いられるクエリを当該クラスの属性であるとする,「クラス,エンティティ,属性」の3つ組を取得する手法を提案している.Pa\c{s}caらの手法ではクラスタリングを用いているものの,クラスタリング対象範囲は周辺の文脈にとどまる.これに対し我々の手法は文書全体からトピックを推定する点で,より広域な情報を取り入れることができる.また提案手法は語彙獲得の目的に特化させるため,Pa\c{s}caらで用いられていたクラス名を,エンティティの候補が対象クラスに属するか否かを判定するための属性の1つ(``is-a''の属性)として扱う.属性をクラス名のみに絞った方が適合率は高くなると考えられるが,局所的な文脈中にはクラス名が存在しない場合も多い.例えば書籍の場合,書籍タイトルの前後に「本」や「書籍」といったクラスを表わす単語が共起することは少ない.このため,他の属性と併用することで,より高精度かつ網羅的なエンティティ獲得が可能となる.トピックモデルを用いた関連研究として,selectionalpreferencesをモデル化するために,LDAを拡張した生成モデルを利用したRitterらの研究が挙げられる\cite{ritter2010}.Ritterらの手法は我々の手法に最も近いものと言えるが,生成モデルであるか識別モデルであるかの違いがあり,局所的文脈素性と柔軟に統合できるという点で我々のモデルには優位性がある.\ref{sec:negative}節で述べた負例生成は,正例とラベルなしデータのみが存在する場合においての主要な問題と捉えられている\cite{liu2002partially,li2010negative}.しかし先行研究における手法はある程度の規模の正例データを想定しており,非常に少量な正例データについては有効に機能しないと考えられる.これに対し,本稿では少量の正例データからでも適切に負例を生成可能な手法を提案した.一方McIntoshは,複数クラスの語彙獲得タスクにおいて獲得されたエンティティが,シードエンティティよりもそれ以降のイテレーションに得られたエンティティ集合に近い場合に負例であると自動的に判定し,さらに負例のクラスタリングと拡張を行うことで,適切な負例集合を得る手法を提案している\cite{mcintosh2010unsupervised}.またKisoらは単語の共起関係をグラフ上で表現し,HITSスコアの高い単語が正例に該当しない場合はそれらをストップリストとして用いることで,セマンティックドリフトを抑える手法を提案している\cite{kiso2011hits}.McIntoshやKisoらの手法が,セマンティックドリフトを生じやすい単語を直接的に負例として捉えることを主眼としているのに対し,我々はセマンティックドリフトが生じる先のトピックに制約を設ける目的で負例を捉えるという点で異なる.特にMcIntoshの手法では,セマンティックドリフトを抑える効果の高い負例を抽出できる可能性が高い反面,本来の正例が負例になってしまう偽負例を生じる可能性がある.本稿ではセマンティックドリフトを生じやすい単語,言いかえると正例・負例両方の多義性が存在する単語の場合,\ref{sec:tpc_sel}節のトピック情報による多義性解消を併用することで,負例として当該単語が用いられている事例では,正例としても負例としても用いないという判断を行っている.一方正例として当該単語が用いられている事例では,正例学習データとして用いることで,学習データを可能な限り増やしていくというブートストラップ法の観点に見合った手法となっている.本稿ではリソースとして文書集合を用いたが,一方でクエリログを用いたエンティティ獲得の研究も進められている.小町らはクエリログ中に共起する単語をエンティティ及び属性とみなし,ブートストラップ法に基づくエンティティ獲得法の提案を行っている\cite{小町08}.クエリログを使った他の手法としては,他にもSekineらの研究\cite{sekine2007acquiring}やPa\c{s}caらの研究\cite{pasca2008weakly}が挙げられる.しかし,クエリログ単独ではトピックのような大域的な文脈を考慮することができず,また,非公開で一般的に入手が困難なリソースであるという現実的な側面もある.我々はこれらの観点から文書をリソースとして用いることとした.
\section{まとめと今後の課題}
本稿ではトピック情報を用いた3通りの手法により,エンティティ獲得精度を改善できることを示した.従来の識別モデルを用いたブートストラップ法の課題であった,大域的情報を取り込んだ素性の設計,教師データにおける負例の生成,正例教師データにおける多義性を持ったエンティティの存在といった諸問題を,トピックモデルから得られるトピック情報を用いることで解消した.今後のさらなる獲得精度向上のためには,トピックモデルの粒度を目的のドメインに合わせていくことが必要である.このためにはトピックモデルに対する能動学習が有効であると考える\cite{Hu2011}.また関連研究の1つとして挙げた分布類似度を用いたアプローチ\cite{pantel2009web}との比較や統合についても検証する必要もある.別の観点としては,ブートストラップ法のグラフ理論的な拡張があげられる.小町らはエンティティ獲得のアルゴリズムをグラフ理論に基づいて解釈し,グラフカーネルの一種であるラプラシアンカーネルを導入することで性能を改善している\cite{小町10}.トピックモデルを扱えるグラフ理論に基づく枠組みとしては,Cohnら提案したPHITSがあり\cite{cohn2000learning},彼らの考えを導入することができれば,より高い精度のエンティティ獲得法を構築できると考える.\acknowledgment本研究の一部は,\textit{the49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies}で発表したものである\cite{sadamitsu2011}.本論文に関して,非常に有益なコメントを頂いた査読者の方々に感謝の意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bellare,Talukdar,Kumaran,Pereira,Liberman,McCallum,\BBA\Dredze}{Bellareet~al.}{2006}]{bellare2007lightly}Bellare,K.,Talukdar,P.~P.,Kumaran,G.,Pereira,F.,Liberman,M.,McCallum,A.,\BBA\Dredze,M.\BBOP2006\BBCP.\newblock\BBOQ{Lightly-supervisedattributeextraction}.\BBCQ\\newblockIn{\BemProceedingsoftheAdvancesinNeuralInformationProcessingSystemsWorkshoponMachineLearningforWebSearch}.\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{blei2003latent}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQ{Latentdirichletallocation}.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Cohn\BBA\Chang}{Cohn\BBA\Chang}{2000}]{cohn2000learning}Cohn,D.\BBACOMMA\\BBA\Chang,H.\BBOP2000\BBCP.\newblock\BBOQ{Learningtoprobabilisticallyidentifyauthoritativedocuments}.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonMachineLearning},\mbox{\BPGS\167--174}.\bibitem[\protect\BCAY{Fuchi\BBA\Takagi}{Fuchi\BBA\Takagi}{1998}]{Fuchi98}Fuchi,T.\BBACOMMA\\BBA\Takagi,S.\BBOP1998\BBCP.\newblock\BBOQ{Japanesemorphologicalanalyzerusingwordco-occurrence-JTAG}.\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\409--413}.\bibitem[\protect\BCAY{Griffiths\BBA\Steyvers}{Griffiths\BBA\Steyvers}{2004}]{Griffiths2004fst}Griffiths,T.~L.\BBACOMMA\\BBA\Steyvers,M.\BBOP2004\BBCP.\newblock\BBOQ{Findingscientifictopics}.\BBCQ\\newblock{\BemProceedingsoftheNationalAcademyofSciencesoftheUnitedStatesofAmerica},{\Bbf101Suppl}(Suppl1),\mbox{\BPGS\5228--5235}.\bibitem[\protect\BCAY{Hofmann}{Hofmann}{1999}]{hofmann1999probabilistic}Hofmann,T.\BBOP1999\BBCP.\newblock\BBOQ{Probabilisticlatentsemanticindexing}.\BBCQ\\newblockIn{\BemProceedingsofthe22ndannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},\mbox{\BPGS\50--57}.\bibitem[\protect\BCAY{Hu\BBA\Boyd-graber}{Hu\BBA\Boyd-graber}{2011}]{Hu2011}Hu,Y.\BBACOMMA\\BBA\Boyd-graber,J.\BBOP2011\BBCP.\newblock\BBOQ{Interactivetopicmodeling}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\248--257}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1999}]{joachims1999making}Joachims,T.\BBOP1999\BBCP.\newblock{\Bem{Makinglarge-ScaleSVMLearningPractical.AdvancesinKernelMethods---SupportVectorLearning}}.\newblockSoftwareavailableathttp://svmlight.joachims.org/.\bibitem[\protect\BCAY{Kiso,Shimbo,Komachi,\BBA\Matsumoto}{Kisoet~al.}{2011}]{kiso2011hits}Kiso,T.,Shimbo,M.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQ{HITS-basedseedselectionandstoplistconstructionforbootstrapping}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\30--36}.\bibitem[\protect\BCAY{Li,Liu,\BBA\Ng}{Liet~al.}{2010}]{li2010negative}Li,X.-L.,Liu,B.,\BBA\Ng,S.-K.\BBOP2010\BBCP.\newblock\BBOQ{Negativetrainingdatacanbeharmfultotextclassification}.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\218--228}.\bibitem[\protect\BCAY{Liu,Lee,Yu,\BBA\Li}{Liuet~al.}{2002}]{liu2002partially}Liu,B.,Lee,W.~S.,Yu,P.~S.,\BBA\Li,X.\BBOP2002\BBCP.\newblock\BBOQ{Partiallysupervisedclassificationoftextdocuments}.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonMachineLearning},\mbox{\BPGS\387--394}.\bibitem[\protect\BCAY{Liu,Zhang,Chang,\BBA\Sun}{Liuet~al.}{2011}]{liu2011plda}Liu,Z.,Zhang,Y.,Chang,E.~Y.,\BBA\Sun,M.\BBOP2011\BBCP.\newblock\BBOQ{PLDA}+:ParallelLatentDirichletAllocationwithDataPlacementandPipelineProcessing.\BBCQ\{\itshapeACMTransactionsonIntelligentSystemsandTechnology,specialissueonLargeScaleMachineLearning}.Softwareavailableathttp://code.google.com/p/plda.\bibitem[\protect\BCAY{McIntosh}{McIntosh}{2010}]{mcintosh2010unsupervised}McIntosh,T.\BBOP2010\BBCP.\newblock\BBOQ{Unsuperviseddiscoveryofnegativecategoriesinlexiconbootstrapping}.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\356--365}.\bibitem[\protect\BCAY{Mintz,Bills,Snow,\BBA\Jurafsky}{Mintzet~al.}{2009}]{mintz2009distant}Mintz,M.,Bills,S.,Snow,R.,\BBA\Jurafsky,D.\BBOP2009\BBCP.\newblock\BBOQ{Distantsupervisionforrelationextractionwithoutlabeleddata}.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing},\mbox{\BPGS\1003--1011}.\bibitem[\protect\BCAY{Pa\c{s}ca\BBA\Durme}{Pa\c{s}ca\BBA\Durme}{2008}]{pasca2008weakly}Pa\c{s}ca,M.\BBACOMMA\\BBA\Durme,B.~V.\BBOP2008\BBCP.\newblock\BBOQ{Weakly-supervisedacquisitionofopen-domainclassesandclassattributesfromwebdocumentsandquerylogs}.\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\19--27}.\bibitem[\protect\BCAY{Pantel,Crestan,Borkovsky,Popescu,\BBA\Vyas}{Pantelet~al.}{2009}]{pantel2009web}Pantel,P.,Crestan,E.,Borkovsky,A.,Popescu,A.-M.,\BBA\Vyas,V.\BBOP2009\BBCP.\newblock\BBOQ{Web-scaledistributionalsimilarityandentitysetexpansion}.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\938--947}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel2006espresso}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQ{Espresso:Leveraginggenericpatternsforautomaticallyharvestingsemanticrelations}.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Ritter\BBA\Etzioni}{Ritter\BBA\Etzioni}{2010}]{ritter2010}Ritter,A.\BBACOMMA\\BBA\Etzioni,O.\BBOP2010\BBCP.\newblock\BBOQ{ALatentdirichletallocationmethodforselectionalpreferences}.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\424--434}.\bibitem[\protect\BCAY{Sadamitsu,Saito,Imamura,\BBA\Kikui}{Sadamitsuet~al.}{2011}]{sadamitsu2011}Sadamitsu,K.,Saito,K.,Imamura,K.,\BBA\Kikui,G.\BBOP2011\BBCP.\newblock\BBOQ{Entitysetexpansionusingtopicinformation}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\726--731}.\bibitem[\protect\BCAY{Sarmento,Jijkuon,Rijke,\BBA\Oliveira}{Sarmentoet~al.}{2007}]{sarmento2007more}Sarmento,L.,Jijkuon,V.,Rijke,M.~D.,\BBA\Oliveira,E.\BBOP2007\BBCP.\newblock\BBOQ{Morelikethese:growingentityclassesfromseeds}.\BBCQ\\newblockIn{\BemProceedingsofthe16thACMConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\959--962}.\bibitem[\protect\BCAY{Sekine}{Sekine}{2008}]{sekine2008extended}Sekine,S.\BBOP2008\BBCP.\newblock\BBOQ{Extendednamedentityontologywithattributeinformation}.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalLanguageResourcesandEvaluation}.\bibitem[\protect\BCAY{Sekine\BBA\Suzuki}{Sekine\BBA\Suzuki}{2007}]{sekine2007acquiring}Sekine,S.\BBACOMMA\\BBA\Suzuki,H.\BBOP2007\BBCP.\newblock\BBOQ{Acquiringontologicalknowledgefromquerylogs}.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\1223--1224}.\bibitem[\protect\BCAY{Suzuki,McDermott,\BBA\Isozaki}{Suzukiet~al.}{2006}]{suzuki2006training}Suzuki,J.,McDermott,E.,\BBA\Isozaki,H.\BBOP2006\BBCP.\newblock\BBOQ{Trainingconditionalrandomfieldswithmultivariateevaluationmeasures}.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\217--224}.\bibitem[\protect\BCAY{Thelen\BBA\Riloff}{Thelen\BBA\Riloff}{2002}]{thelen2002bootstrapping}Thelen,M.\BBACOMMA\\BBA\Riloff,E.\BBOP2002\BBCP.\newblock\BBOQ{Abootstrappingmethodforlearningsemanticlexiconsusingextractionpatterncontexts}.\BBCQ\\newblockIn{\BemProceedingsofthe2002ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\214--221}.\bibitem[\protect\BCAY{Vyas,Pantel,\BBA\Crestan}{Vyaset~al.}{2009}]{vyas2009helping}Vyas,V.,Pantel,P.,\BBA\Crestan,E.\BBOP2009\BBCP.\newblock\BBOQ{Helpingeditorschoosebetterseedsetsforentitysetexpansion}.\BBCQ\\newblockIn{\BemProceedingofthe18thACMConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\225--234}.\bibitem[\protect\BCAY{小町\JBA鈴木}{小町\JBA鈴木}{2008}]{小町08}小町守\JBA鈴木久美\BBOP2008\BBCP.\newblock{検索ログからの半教師あり意味知識獲得の改善}.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(3),\mbox{\BPGS\217--225}.\bibitem[\protect\BCAY{小町\JBA工藤\JBA新保\JBA松本}{小町\Jetal}{2010}]{小町10}小町守\JBA工藤拓\JBA新保仁\JBA松本裕治\BBOP2010\BBCP.\newblock{Espresso型ブートストラッピング法における意味ドリフトのグラフ理論に基づく分析}.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(2),\mbox{\BPGS\233--242}.\bibitem[\protect\BCAY{廣嶋\JBA大附\JBA林}{廣嶋\Jetal}{2004}]{廣嶋2004}廣嶋伸章\JBA大附克年\JBA林良彦\BBOP2004\BBCP.\newblock関連語彙獲得に基づく認識辞書のオフライン教師なし適応.\\newblock\Jem{情報処理学会研究報告(SIG-SLP),74号},\mbox{\BPGS\107--114}.\bibitem[\protect\BCAY{橋本\JBA乾\JBA村上}{橋本\Jetal}{2008}]{橋本08}橋本泰一\JBA乾孝司\JBA村上浩司\BBOP2008\BBCP.\newblock{拡張固有表現タグ付きコーパスの構築}.\\newblock\Jem{情報処理学会研究報告(SIG-NLP),113号},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{橋本\JBA中村}{橋本\JBA中村}{2010}]{橋本10}橋本泰一\JBA中村俊一\BBOP2010\BBCP.\newblock{拡張固有表現タグ付きコーパスの構築—白書,書籍,Yahoo!知恵袋コアデータ}.\\newblock\Jem{言語処理学会第16回年次大会},\mbox{\BPGS\916--919}.\end{thebibliography}\begin{biography}\bioauthor{貞光九月}{2004年筑波大学第三学群情報学類卒業.2009年同大学大学院博士課程修了.同年日本電子電話株式会社入社.現在,NTTサイバースペース研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会各会員}\bioauthor{齋藤邦子}{1996年東京大学理学部化学科卒業.1998年同大学院修士課程修了.同年日本電信電話株式会社入社.現在,NTTサイバースペース研究所主任研究員.自然言語処理研究開発に従事.言語処理学会,情報処理学会各会員.}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年日本電信電話株式会社入社.1995年--1998年NTTソフトウェア株式会社.2000年--2006年ATR音声言語コミュニケーション研究所.2006年よりNTTサイバースペース研究所主任研究員.現在に至る.主として自然言語処理の研究・開発に従事.博士(工学).電子情報通信学会,情報処理学会,言語処理学会,ISCA各会員.}\bioauthor{松尾義博}{1988年大阪大学理学部物理学科卒.1990年同大大学院研究科博士前期課程修了.同年日本電信電話(株)入社.機械翻訳,自然言語処理の研究に従事.情報処理学会,言語処理学会,各会員.}\bioauthor{菊井玄一郎}{1984年京都大学工学部電気工学科卒.1986年同大学大学院工学研究科修士課程電気工学第二専攻修了.同年日本電信電話(NTT)入社.1990--1994(株)国際電気通信基礎技術研究所(ATR).2001年ATR音声言語コミュニケーション研究所研究室長.2006年NTTサイバースペース研究所音声・言語基盤技術グループリーダ.2011年岡山県立大学情報工学部情報システム工学科教授.現在に至る.博士(情報学).言語処理学会,情報処理学会,音響学会各会員.}\end{biography}\biodate\end{document}
| |
V14N03-02
|
\section{はじめに}
現代日本語の「です・ます」は,話手の感情・評価・態度に関わるさまざまな意味用法を持つことが指摘されている.従来の研究では,敬語および待遇表現,話し言葉/書き言葉の観点や,文体論あるいは位相論といった立場・領域から個別に記述されてきたが,「です・ます」の諸用法を有機的に結びつけようとする視点での説明はなされていない\footnote{「敬語」の一種であるという位置づけがなされている程度である.一例として,次のような記述がある.「「です・ます」は,一連の文章や話し言葉の中では,使うとすれば一貫して使うのが普通で,その意味で文体としての面をもちます.「です・ます」を一貫して使う文体を敬体,一貫して使わない文体を常体と呼びます.(中略)しかし,文体である以前に,「です・ます」はやはりまず敬語です」(菊地1996:90--91)}.本稿では「伝達場面の構造」を設定し,言語形式「です・ます」の諸用法を,その本質的意味と伝達場面との関係によって導かれるものと説明する.こうした分析は,「です・ます」個別の問題に留まらず,言語形式一般の記述を単純化しダイナミックに説明しうる汎用性の高いものと考える.本稿の構成は以下の通りである.まず,\ref{youhou}.で従来指摘されている「です・ます」の諸用法を確認し,\ref{model}.において「話手/聞手の「共在性」」に注目しつつ伝達場面の構造をモデル化する.さらに「共在性」を表示する形式を「共在マーカー」と名付け,なかでも「です・ます」のような聞手を前提とする言語形式の操作性に注目する.これを受けて\ref{meca}.では,「です・ます」の「感情・評価・態度」の現れが,伝達場面の構造モデルと「です・ます」の本質的機能および共在マーカーとしての性質から説明できることを述べ,\ref{matome}.のまとめにおいて今後の課題と本稿のモデルの発展性を示す.
\section{「です・ます」の諸用法---従来の指摘と本稿の立場}
label{youhou}\subsection{従来の指摘}まず「です・ます」の諸用法について,先行研究における指摘,記述を確認しておこう.\subsubsection{丁寧語としての「です・ます」}(\ex{+1})は,クラスメートと先生に対しての小学生の発話である\footnote{以下,用例の下線は引用者による.また出典情報が長い場合は脚注とする.下線の種類は次の通りである.\begin{list}{}{}\itemです・ます:\unami{},非です・ます:\utensen{},その他:\ul{}.\end{list}}.\enumsentence{(司=小学生,女子=クラスメート)\begin{description}\item[司:](クラスメートに対して)「小坂先生に恋人がいることは本当のことだし,みんな,どんな人か興味\utensen{あるよね}」\item[女子:]「\utensen{あった},すごく興味\utensen{あった}」(…中略…)\item[司:](先生に対して)「ね.僕は先生にアドバイスされた通り,みんなの知りたがってることを書いた\unami{だけです}」\end{description}\hfill(シナリオ「うちの子にかぎって……」\unskip\footnote{BANISFORBAN伴一彦オフィシャルサイト.{\tthttp://www.plala.or.jp/ban/index.html}(2006.2.5アクセス)})}クラスメートに対しては,「興味あるよね」と「非です・ます」の普通体を使うのに対し,先生に対しては,「書いただけです」と「です・ます」を使う\footnote{ここでの「です・ます」,「非です・ます」が使われる場は,鈴木(1997)の「丁寧体世界」・「普通体世界」にそれぞれ相当する.}.聞手が目上である場合だけでなく,初対面,ソトの人物,嫌いな人物の場合,あるいは公的な場,忌避すべき話題に言及する場合などに「です・ます」が用いられる.近年のポライトネス理論では敬意の表示よりむしろ,聞手との心的距離の表示として説明される\footnote{滝浦(2002,2005a,2005b),また本稿\ref{Ikyori}節参照.}.\subsubsection{文体の基調をなす「です・ます」}新聞などの文字メディアでは,(\ex{+1}a)(\ex{+2}a)のように「非です・ます」の「だ・である体」が一般的であるが,(\ex{+1}b)(\ex{+2}b)のように「です・ます体」が使われる場合もある.文末が全て「です・ます」の場合は,書き言葉における「です・ます体」というスタイルの一つと捉えられている.\eenumsentence{\item財政再建にあたって国・地方の公務員の総人件費削減は\utensen{緊急課題だ}.高すぎる給料や余剰な定員を大胆に\utensen{削減する}.官僚の抵抗は強まろうが,小泉純一郎首相の言う構造改革の試金石\utensen{である}.(中日新聞社説,2005.10.24)\item「ポスト郵政」の最大テーマに政府系金融機関の改革が\unami{浮上しています}.ここは官僚機構のいわば\unami{「聖域」です}.小泉純一郎首相はどこまで\unami{切り込めるでしょうか}.(中日新聞社説,2005.10.23)}\eenumsentence{\label{iraq}\itemイラクに派遣された陸上自衛隊は,既に相応の責任を果たした.基本計画の修正により派遣期間は一年延長されたが,今から撤収の準備に着手\utensen{すべきだ}.(中日新聞社説,2005.12.9)\itemイラクに駐留する自衛隊は,しばらく復興支援を続けることに\unami{なりました}.でも,いずれ治安がよくなれば政府開発援助(ODA)などに\unami{出番が回るはずです}.(中日新聞社説,2005.12.11)}(\ex{-1}b)(\ex{0}b)のように尊敬語や謙譲語とともに使用されていない「です・ます」については,永野(1966)が「「です・ます体」は読者への``敬意''にもとづく敬体ではなく,相手意識の相対的強さを感じさせる「文体」である」と,つとに指摘しているが,話手\footnote{本稿における「話手」と「聞手」は,「話す」「聞く」という行為の参与者に限定するものではなく,メディアにかかわらず言語の発信者とその受け手に相当する術語として用いる.}の「相手意識の相対的強さ」という漠とした基準は,文体の特徴を述べる指摘にとどまっている.\subsubsection{感情・態度の表示とされる「です・ます」}\label{hyoji}(\ex{+1})は,スポーツ新聞のコラムである.「非です・ます」で書かれたコラムの最後の一文に「です」が使用され,感情の表示となっている.\enumsentence{福留が名カメラマンぶりを\utensen{披露した}.室内練習場で報道陣から取材用のカメラを拝借.マシン打撃中の森野を\utensen{激写だ}.そのうちの1枚がボールがバットに当たる,打つ瞬間をバッチリ\utensen{捉(とら)えていた}.これには貸したカメラマンもびっくり.「おれ,職間違えた.カメラマンが合ってるよ」とは福留.いやいや,できる人は何をやらせてもできるということ\utensen{です}.(中日スポーツ,2006.2.4)}会話でも,「非です・ます体」のくだけたやりとりの中で「です・ます」が出現し,話手の感情・評価・態度を表示する効果が生まれることがある\footnote{例文(\ex{+1})〜(\ex{+3})は鑑定士・気象予報士・芸能人など「特定のキャラクターと結びついた,特徴のある言葉づかい」の「役割語」(金水2003)として,単に感情を表示するのみならずある種の役割と結びついて態度の表示となっていると捉えることもできる.}.\enumsentence{(鑑定士ぶって)「\unami{いい仕事してますねえ}」}\enumsentence{(気象予報士ぶって)「今日は花粉が\unami{多いようです}」}\enumsentence{(記者会見の芸能人ぶって)「\unami{4カラットですの},ホホホ」\unskip\footnote{例文(\ex{0})は定延利之氏との個人談話による.}}こうした例については,従来多くの論考で,普通体と丁寧体の「混在・混用」と捉えられ,その「スタイルシフト」によって感情が表示される効果があると説明されてきた(メイナード1991,2001a,2001b;日高2004,2005など).メイナードは,「です・ます」は相手への配慮を表すとし,「相手意識の強さや相手に自分をどのようにアピールしたいかという」話手の「感情が作用」(メイナード2001b)してシフトが起こるとしている.しかし「です・ます」の感情表示機能発現のメカニズムを,他の用法と関連づけようとはしていない.以上のように「です・ます」の諸用法についてはさまざまな記述がある.しかし,それぞれ離散的,個別的に記述されたものであり,「です・ます」がなぜこのような諸用法を持つのか,その用法はいかなる条件で現れるかといった包括的な説明は試みられていない.\subsection{本稿の立場}本稿は,言語形式の現れ方を個別に記述説明するだけでなく,話手/聞手のあり方を含めた伝達場面を設定することにより,言語形式の「文法」と「文体」を有機的に統合し,諸用法に対する包括的説明を試みるものである.話手/聞手の関係や条件から言語形式の用法を説明するという点においては,言語行為論(Austin1962;Searl1969),関連性理論(Grice1975;SperberandWilson1986),ポライトネス理論(BrownandLevinson1978)などの語用論的研究,さらに,語用論的条件を組み入れた統合的な理論であるという点で談話管理理論(田窪,金水1993など)などと軌を一にする.しかし,本稿のモデルでは,聞手は話手から見た受け手として発話の場を条件づける要素であるに留まり,情報内容の伝達やコミュニケーションの成否を問題にするものではない.つまり,コミュニケーションモデルの中で言語現象を説明するという目的から導き出されたものである一方,話手の認識条件のみで言語形式の用法を説明できる汎用的な発話モデルとして提案するものである.以下,「伝達場面の構造」の枠組みから「です・ます」の諸用法を説明していく.
\section{「伝達場面の構造」モデル}
label{model}言語研究において,コミュニケーションモデルや語用論的条件を考慮に入れた試みは多いが,一方で理論上の限界と問題点も指摘されている.例えば談話管理理論では,話手/聞手の「相互知識の無限遡及」(ClarkandMarshall1981)を回避して知識の相互性から独立した言語形式の記述を提案したにもかかわらず,「伝達モデルの残滓というようなア・プリオリに仮定された発話の意味や意図を引きずって」いると指摘される(山森1997).また,感動詞など談話に特有の言語形式の分析記述においても機能や目的を読み込む「狩人の智恵」式機能主義が跋扈しているという憂慮もある(定延2005e).さらに,話手/聞手の知識・情報差とその伝達の成否を前提としたコミュニケーションモデル(コード・モデル)の前提そのものに関わるパラドックスも指摘されている\footnote{「共有知識(sharedknowledge)のパラドックスに関する批判[ClarkandMarshall1981;SperberandWilson1986]」(水谷1997)}.以上の問題点をふまえ,本稿では日常の対面対話をプロトタイプとし,情報伝達の成否を問題としない「伝達場面」の構造モデルを提示する.\subsection{伝達場面の構造モデル}\label{submodel}\subsubsection{〈共在〉/〈非共在〉\unskip\protect\footnote{本稿の〈共在〉/〈非共在〉は,定延(2003)でも引用されるTannen(1980,1982)のinvolvementとその訳語「共在(性)」から示唆を得て設定したものであるが,Tannenのinvolvement(「相手と同じコミュニケーションの場に身を置き,その場の中で,(時には相手と一緒に)言語表現をおこなうという構図」)/detachment(「解釈者とは切り離された構図」)とは異なる.またGoffman(1963)のcopresence,ClarkandCarlson(1982)の言語的共在(linguisticcopresence),物理的共在(physicalcopresence),木村(1996)の「共在」などの術語「共在/copresence」とも同一の概念ではない.}}伝達場面の構造モデルでは,日常の対面対話すなわち話手から個別・具体・特定の受け手(聞手とする)への発話をコミュニケーションのプロトタイプとし,このような発話の場を「共在」とする.「共在性」はさまざまな要因によって決定されうるが,最も重要な条件は聞手の特定性,個別・具体性である.例えば伝達場面において,特定の聞手と対面しているなどの条件があれば共在性は高く,その場は〈共在〉といえる(図\ref{kyozai}(I)).〈共在〉の場においては,「話手から個別・具体・特定の受け手への発話としての表示」がある.その表示,マーカーを「共在マーカー」と呼ぼう.共在マーカーには言語形式と非言語形式がある.話手は,具体的な発話場面(時間・場)を共有する特定の聞手に対し,共在マーカーとして,表情,視線,身振りなどとともに,あいづち,いいよどみ,といった談話の標識を自在に用いることができる.また聞手への働きかけ(質問・命令・勧誘),話手の視点に関わる表現で聞手や場の位置づけを前提とする表現(ダイクシス・待遇・授受表現など)や文脈情報の扱いを表示する言語形式(終助詞(山森1997))などが使用される.「です・ます」も話手による聞手の位置づけの表示であり,相手との心的距離を示すものとして,「聞手を必須とする要素」共在マーカーの一つにあたる.\begin{figure}[htbp]\begin{center}\includegraphics[scale=0.8]{./zu1.eps}\caption{\label{kyozai}聞手条件による伝達場面の共在性}\end{center}\end{figure}\subsubsection{共在マーカーの操作性}図\ref{kyozai}に示すように,聞手が不特定・多数で抽象的である場合の伝達場面は〈非共在〉で,共在マーカーは現れない.個別・具体・特定の聞手が存在する場合,伝達場面は〈共在〉であり,言語形式としての共在マーカーが現れる.伝達場面における「共在性」の高/低は聞手の個別・具体性によるもので,共在マーカーの出現と連動する.共在性の低い場,すなわち(II)〈非共在〉の場では共在マーカーは基本的に出現しない.しかし,文字媒体のマス・メディアのような受信者が不特定多数の伝達場面においても,「です・ます」や終助詞が使用されることがある\footnote{映像媒体のマス・メディアにおいても共在マーカーが使用される傾向にある.受信者が不特定多数という点では文字媒体のマス・メディアと同じであるが,「カメラ」の存在によって,基本的に場の共在性が「高」の,対面のコミュニケーションと位置づけられる.すなわち〈共在〉(I)として共在マーカーが出現すると考えられ,次に述べる〈疑似共在〉を作り出すストラテジーとは区別する.}.これは,プロトタイプの場で共在マーカーが共在の表示となるという関係から説明できる.聞手が個別・具体・特定でない非共在の場において,あえて有標の言語形式「共在マーカー」\unskip\footnote{話手にとって操作可能性・応用性の最も高いのが言語形式の共在マーカーである.共在マーカーは,形式として明示的であるという点でメディアの制約を受けにくい.記号(!・?・♪),絵文字やフェイスマーク,音声特徴を示す表記なども,「形を持つ」共在マーカーといえる.}を用いることで,共在マーカーは「疑似的な〈共在〉の場」を作り出すストラテジーとなる(図\ref{kyozai2}).このように,共在マーカーを用いることで設定される疑似的な〈共在〉の場(III)を〈疑似共在〉と呼ぼう.(I)の共在性と(II)の非共在性は,話手の聞手認識が,個別・具体・特定か,不特定多数・抽象かといった対立によって決まるが,(III)は,共在マーカーの使用以外に共在性を保証する要素はなく,共在マーカーの出現によって〈共在〉の場が構築されると考えられる.以下ではこの伝達場面の違いを確認した上で,共在マーカーの諸用法を動態的に説明していく.\begin{figure}[htbp]\begin{center}\includegraphics[scale=0.8]{./zu2.eps}\caption{\label{kyozai2}共在マーカーの使用による(III)〈疑似共在〉の構築}\end{center}\end{figure}\subsection{伝達場面の諸相}図\ref{kyozai2}では,(I)(II)(III)(IV)の4つの伝達場面を設定している.(I)は,話手から特定の聞手への発話の場〈共在〉であり,通常の対面対話や特定の個人宛の手紙・メールなどである.(II)は,聞手が不特定多数・抽象的である場〈非共在〉であり,新聞・論文など「書くメディア」を典型とする.(I)(II)では,共在マーカーの有無が〈共在〉/〈非共在〉に対応するが,(III)(IV)では一致しない.(I)(II)の関係を前提として,(III)は不特定多数の聞手を特定化する〈疑似共在〉の場であり,(IV)は目の前に対面する聞手が具体的にありながら共在マーカーを使用しない疑似的な〈非共在〉の場である.\subsubsection{共在マーカー「無」の場面---(II)(IV)の非共在性}(II)(IV)では共在マーカーが出現しないという意味でも,また伝達場面のプロトタイプとしての(I)との対立においても,〈非共在〉性を持つ.ただし,それぞれの対立による効果は異なる.\subsubsection{(II)の非共在性---「論理性」の追求}\label{tuikyu}(II)は聞手の不特定性によって「共在マーカー」の表示の根拠がないが,「共在マーカーを使用しないこと」でプロトタイプを離れる効果が生じる.具体的な発話場面(時間/場(イマ・ココ))を共有する話手/聞手関係からの乖離によって場の抽象性が確立し,その抽象性に支えられて,論理性・客観性を追求する場となっている.論文,レポートなど,客観的,普遍的記述を求めるタイプの文の書き方マニュアルを見てみよう.論文・レポートでは,明確さ,正確さに基づく客観的な情報の伝達が目的であり,論理展開を明解に示すこと,情緒的,冗長な表現は避けることに加え,「具体的な話手や聞手の存在をにおわせない」ことが指向される.それは例えば森山(2003)で「無私の文体」とされるもので,「私的な手紙やメールと異なり,不特定多数の読者を想定する文章では,筆者の個人的立場に拠った情報の提示の仕方は避けるべき」といった指導に反映する.このように「話手や聞手の存在を示さない」ことが,とりわけ注意されている.(\ex{+1})は,論文・レポートの書き方マニュアルの一例である.話手/聞手の存在を示さず「無私の文体」を実現する注記とともに,「「です」「ます」は使わず,普通体で書く」「「ね」「よ」のような終助詞も使わない」と「共在マーカー」の使用を厳に禁じている.\enumsentence{第一に,\ul{書き手自身の存在を強く感じさせる語・表現や,読み手に話しかけるような語・表現は,あまり使わない}.例えば,「僕」「俺」「あたし」のような語は,書き手の属性(どのような書き手であるか)を感じさせるので,論文・レポートでは基本的に使わない.\ul{一人称を指すことばはあまり使わずに書くのがよい}.「私は〜と思う」のような表現ではなく,「〜と思われる」「〜と考えられる」「〜する」のような形にする.また,\ul{「です」「ます」は使わず,普通体で書く}.名詞文では,「これは例外だ」のような「〜だ」の形よりも,「これは例外である」のような「〜である」の形を用いたほうがよい.また,\ul{「ね」「よ」のような終助詞も使わない}.\\\hfill(ケース19論文・レポートのことば\footnote{ケーススタディ日本語のバラエティ.おうふう.2005:114--119.(下線は引用者)})}「書くメディア」における文の「客観的記述」においては,「書き手・読み手の存在を消す」「共在マーカーを用いない」といった,すなわち「非共在性」が欠かせないものとなっている\footnote{この点歴史的には「言文一致体」の獲得において追求,腐心されたことであるという(清水1989:33).具体的な伝達場面から離れることで現代の我々の論理的文章が成立しているという経緯は興味深い.この点については別稿に譲る.}.〈非共在〉の場では,共在マーカーを用いないことにより,時間・場およびそれらを共有する聞手(といった〈共在〉の要素)から脱した「抽象的」な場が構築され,故に「客観性」「記録性」「論理性」が指向されたモノローグ,すなわち(本稿の定義におけるプロトタイプとしての)コミュニケーションでない発話の場として成り立っていると考えられる.この(II)の非共在性を共在マーカーの使用によって疑似的な〈共在〉の場にみなしたのが(III)である.「みなす」ことにより言語形式の意味用法が変化する.その効果は後に確認することにしよう.\subsubsection{(IV)の非共在性---疑似的な非共在}一方,(IV)は,「特定の聞手に向けての発話にも関わらず,共在マーカーが(あえて)使用されない」という伝達場面である.対面している聞手を意識しないかのような発話場面は有り難いように思われるが,(IV)には例えば辞令交付などの場面が相当する可能性がある.典型的には「証する」「命ずる」といった遂行動詞述語文が現れ,聞手を目の前にしながら共在マーカーは現れない.\enumsentence{(辞令交付)4月1日付けで本社営業部への異動を命ずる.}\enumsentence{(学位記授与)博士(文学)の学位を授与する.}「聞手の存在を前提としない言語要素」すなわち「非共在マーカー」というようなものは想定しにくいが,「共在マーカーをあえて使用」することがストラテジーだとすれば,使うべき場面での「非使用」も,「一方的な伝達」としてのストラテジーとも考えられる.\subsubsection{共在マーカー「有」の場面---(I)(III)の共在性}(I)(III)は,ともにどちらも共在マーカーがあるという点では共通するが,その共在マーカーが単に特定の聞手に向けられた発話であることの表示か,特定の聞手が設定できない場面で聞手の特定化を指向したストラテジーとして使用されるかという大きな違いがある.(I)はコミュニケーションのプロトタイプで特定の聞手に対して会話特有の要素としての共在マーカーが用いられる.これに対して(III)では共在マーカーが聞手の特定化に伴う表現効果を持つ.ここでは(III)の様相について例を挙げて具体的にみておこう.新聞・ブログ・エッセイ・教科書など,本来具体的な聞手が存在しないにもかかわらず「です・ます」「終助詞」「やりもらい」などの共在マーカーが使用されることがある.これが(III)の疑似的な〈共在〉である.(\ex{+1})は大学生向けの教科書であるが,「です・ます体」が採用されている.書名に「やさしい」とあり出版社のレビューにも「わかりやすく」と明記されているように「わかりやすさ」を目指したものである.(\ex{+2})は新聞の署名記事であり,書き手としての記者が明示されている.一般の記事には使われない「〜てあげる」という授受表現が出現し聞手を顕在化する興味深い用例である\footnote{待遇表現の場合,聞手に関わりのない話題の人物を待遇すると,話手の視点を聞手に同化する作用がある(東他2005).授受表現においても,話手の話題の人物に対する視点:エンパシーを聞手に同化すると考えられ,そのことが共在マーカーとしての効果を持つと考えられる.}.\enumsentence{「だろう」(丁寧な言い方では「でしょう」)という助動詞が\unami{あります}.学校文法では推量を表すと\unami{されています}.よく似たものに「ようだ」(話しことばでは「みたいだ」になることが多い)が\unami{あります}.こちらは推定と呼ばれることが\unami{多いようです}.推量と推定,よく\unami{似ていますね}.実際,この2つはどちらも使える場合がよく\unami{あります}.例えば,次のような\unami{場合です}.\\\hfill(庵功雄他2003.やさしい日本語のしくみ,くろしお出版.\unskip)}\enumsentence{堀江容疑者は表舞台から\utensen{退場した}.だが,彼の「功」の部分を\ul{認めてあげる}ことも\utensen{大切なのではないか}.社会の反発を浴びつつも,既成概念や閉塞感を打破することは,いつの時代でも\utensen{必要だからだ}.\hfill(毎日新聞,記者の目,2006.02.01\footnote{「堀江バッシングに違和感」=柴沼均(北海道報道部)})}さらに(II)〈非共在〉であるはずの「書くメディア」において,共在マーカーの使用によって〈疑似共在〉の場に移行していると考えられる例を見よう.(\ex{+1})は幼児向けの絵本,(\ex{+2})はウェブ上の求人情報である.どちらも,不特定多数の聞手を具体化・特定化するような表現となっている.終助詞,「ほら」などの同一視点からの呼びかけ,問いかけ,「です・ます」などの共在マーカーが使われている.さらに,「くださぁ〜い」といった,話し言葉で効果を持つ音声特徴を記号化した書記の工夫も見られる\footnote{書き言葉では字体や飾り,文字色などの工夫も可能である(定延2005c).なお,(\ex{+1})(\ex{+2})の\unami{}は共在マーカを示す.}.\enumsentence{キラリンのはねは,いろだけじゃない\unami{よ}.\\もようもかわるんだ\unami{よ}.\\\unami{ほら},くまちゃんのふくとおんなじ.\\うさちゃんのふくとおんなじ.(「まほうのはねのキラリン」\unskip\footnote{チャイルドブックジュニア,4月号,2004.4,チャイルド本社.})}\enumsentence{ずっと愛されるお店になるため,名物スタッフが必要\unami{です}!皆さんも親しみの持てる名物スタッフにならない\unami{?}キレイなお店で仲間もたくさん\ul{出来ちゃう}\unami{よ}!みんな集合して\ul{くださぁ〜い}!(フロムエー・ナビ)\unskip\footnote{{\tthttp://www.froma.com/}(2006.3.10アクセス)}}いずれも話し言葉的文体などといわれるものの,これらの言語要素が書き言葉で出現する際の表現効果や用法,どのように発現するのかについては詳細に記述した研究はない.話し言葉的という観点だけでは,(\ex{0})のように「です・ます」が「心的距離--遠」を示す敬語ではないばかりか,「くださぁ〜い」のようなくだけた話し言葉的要素と連動して用いられ,親しみをも感じさせる事実を説明できない.(I)〈共在〉と(III)〈疑似共在〉の共通点と相違点を整理することで明確に示すことができる.本稿では,(I)(III)の〈共在〉が「場」としての「共在」だけでなく,共在性の表示となる,形を持つものとしての共在マーカーの使用によって構築されるものと考える.ただし,(I)と(III)では「場」における共在性の違いによって言語形式の「役割」が異なるのである.
\section{「です・ます」諸用法発現のメカニズム}
label{meca}\ref{submodel}で提案したモデルに基づき,「です・ます」の諸用法を,場面の設定と関連づけて分析する.\subsection{(I)〈共在〉{\unskip}…心的距離の表示}\label{Ikyori}まず,(I)〈共在〉の場における「です・ます」を見る.ここでは,聞手の条件によって「共在性」が高であるので,共在マーカーはその本質的働きをそのまま表すと考えられる.〈共在〉では次のような場合に用いられる.\eenumsentence{\item(上司に:上)コピーを取ってき\unami{ます}.\item(初対面:疎)はじめまして,佐藤\unami{です}.\item(講演:公)今日はアンチエイジングについてお話をしたいと思い\unami{ます}.\item(夫婦喧嘩:遠)一体何を隠したというの\unami{です}か?}(\ex{0}a)は会社で上司に,(\ex{0}b)は初対面の人物に,そして(\ex{0}c)は「公」の場面で聴衆に,(\ex{0}d)は喧嘩相手としての配偶者に対しての待遇表現である.「丁寧語」と説明されてきたこれらの用法は,夫婦喧嘩の冷戦状態の際に使われる「です・ます」なども含め,本質的に心的な「距離」の表示と整理できる\footnote{本質的働きとした「心的距離」については滝浦(2005b)参照.この本質的働きは聞手の存在を何らか前提するという共在マーカーの定義とも矛盾しない.また,聞手との心的距離の関係が待遇表現の本質であるという考え方は東(2004)東他(2005)にも示されている.研究書ではないが橋本(2005)も同様である.}.「心的距離の表示」は,敬語(丁寧語)に直結するものではあるが,敬意のみを表すのではなく\footnote{「です・ます」に限らず「敬語」が表すさまざまな運用上の意味については,南(1987)に詳しい.},忌避・疎遠・公などを統一的に表示する一つの軸である.〈共在〉にあたる対面コミュニケーションの場で「です・ます」が採用されると,その「話手/聞手の心的距離」が表示される.これを本稿のモデルでは「です・ます」の本質的機能の発現としての用法と見る.\enumsentence{(大河内=教授,財前=助教授,里見=財前と同期の助教授)\begin{description}\item[大河内:]入りなさい.\item[財前:]失礼\unami{いたします}.\item[財前:](里見を見て)\unami{驚いたな},君も\unami{いたのか}.\item[大河内:]困るかね?\item[財前:]いいえ.基礎講座でともに大河内先生に教わったころを\unami{思い出します}.\end{description}\hfill(ドラマ「白い巨塔第一部」\unskip\footnote{「白い巨塔第一部DVD-BOX」ポニーキャニオン.})}財前助教授は,大河内教授に対しては「失礼いたします」「思い出します」のように「です・ます」を使い,大河内教授との心的距離を「遠」に置くが,同期の里見に対しては,「驚いたな,君もいたのか」のように「非です・ます」を使い,心的距離が「近」であることを示す.対面対話や特定の相手に向けた手紙文などでは「です・ます」が「心的距離」の表示となり,他の敬語(尊敬語・謙譲語)などとも連動して用いられる.\subsection{(III)〈疑似共在〉{\unskip}…{\unskip}「節度ある」聞手の特定化}次に(III)〈疑似共在〉の場での「です・ます」を見る.書くメディアのような,話手から見て聞手が特定できないコンテクストの場合,\ref{tuikyu}で述べた通り,一般的には「だ・である体」が好まれ「です・ます体」は推奨されない選択肢の一つとなっている.しかしそこで「です・ます」が用いられると,共在マーカーは(III)〈疑似共在〉の場の構築を指向した話手のストラテジーとなり,疑似的な聞手の顕在化という役割が前面に出ると予測できる.さきに挙げた例をもう一度見よう.\eenumsentence{\itemイラクに派遣された陸上自衛隊は,既に相応の責任を果たした.基本計画の修正により派遣期間は一年延長されたが,今から撤収の準備に着手\utensen{すべきだ}.((\ref{iraq}a)再掲)\itemイラクに駐留する自衛隊は,しばらく復興支援を続けることに\unami{なりました}.でも,いずれ治安がよくなれば政府開発援助(ODA)などに\unami{出番が回るはずです}.((\ref{iraq}b)再掲)}例(\ex{0}b)のような,書くメディアでは推奨されないはずの「です・ます」が採用された文章では,「わかりやすい」「やさしい」ニュアンスが生じている.教科書や子供向けの文章,非日本語話者向けの文章で「です・ます体」が採用されているのは,「です・ます体」の選択が「わかりやすい雰囲気」を演出する意図に合った文体として確立しているためといえる\footnote{これについて東他(2006)では,メディア論(原田2005)を援用し,文字という媒体の制限によって表情や繰り返し確認,音声による強調などの手段が制限されるために「書くメディア」において採られる代替手段と位置づけている.}.「です・ます」が,ストラテジーとして共在マーカーの機能を果たしていることから生じる効果である.話手と聞手が顕在化し,元来は関係のなかったところに関係が生じることによって「近づく感じ」\unskip\footnote{「「近づく」感じがする」というのは,あくまで話手の感覚である.一般的には「です・ます」体について「柔らかい」「優しい」「わかりやすい」という解釈は聞手側においても成り立ちうる.ただしそれは,このストラテジーが(例えば「先生」口調,子ども向けのやさしい・わかりやすい解説のモードとして)社会的に成立していること(すなわち母語話者として,話手側のストラテジーを知っていること)によって成り立つ解釈と考える.「近づく感じ」は,話手側が装い,その装いがモードとして共有される場合に限られるのである.例えば,外国人向けの災害時情報で使用されている「やさしい日本語」による表現では「です・ます」体が採用されることが多いが,これはカタカナ語を含め難解な語彙を避け,単文で構成するといった配慮とともに,ほとんどの日本語初級教科書で導入されている「〜があります」「〜てください」「〜ないでください」などの文型にあてはめて表現することで「わかりやすく」情報を伝えるためであり(佐藤(2000)参照),「です・ます」が,非母語話者にとっての「やさしさ」に直結するものではない.}が生まれる.これが演出されたものとしての「わかりやすさ」の正体であろう.相手を敬して遠ざけるはずの「です・ます」が,共在性のない伝達場面で使用されると却って「近づく」感じの演出となる,「です・ます」が共在のストラテジーとして機能していることから説明可能となる.\def\boutenchar{}\def\bou#1{}\def\getlength#1{}\def\dot#1{}一方,「です・ます」を他の共在マーカーと比較したときには,\bou{相対的}に「遠」なる聞手を顕在化させる.それぞれの共在マーカーによってどのような聞手が顕在化するのか見てみよう.(\ex{+1}a)は新聞の社説,(\ex{+1}b)は幼児向け絵本の例である.\eenumsentence{\item新聞の社説\\日本はことしから人口減少時代に\unami{入るかもしれません}.いまは悲観論ばかりが\unami{先行しています}が,{\unskip}総選挙では真の豊かさを実感できる社会にする論争を\unami{期待します}.\\\hfill(中日新聞社説,2005.8.28)\item絵本\\ここがどこだか\utensen{わかる?}\\ひまわりがこんなにいっぱいさいていて,\\まるでひまわりのうみみたいでしょ!\\\hfill(『よいこのがくしゅう』第44巻第4号,学習研究社,2005.7)}「です・ます」は,心的距離が「遠」なる聞手を顕在化することで,話手と聞手の「節度ある」関係を導くため,公的な場においての使用に堪える.対して,(\ex{0}b)の,「わかる?」「うみみたいでしょ!」のような問いかけや終助詞は,共在マーカーとして心的距離が「近」の話手/聞手関係を顕在化する.したがって,これらの共在マーカーは,親密,私的な場において使用されている.これは「です・ます」と他の共在マーカーの相対的な関係の反映である.共在マーカーにより聞手を顕在化する例は,ほかにも見られる.(\ex{+1})は求人誌から引用したものである.求人誌はその性格上,不特定多数の読者に向けられるが,どの共在マーカーを使うかによって,求める人物像が浮かび上がってくる.\eenumsentence{\itemお客様からなどの電話対応やパソコンでの文書作成などを\unami{お願いします}.\item閉店後のお店の清掃を\unami{お願いします}.広いお店なのでいい運動に\unami{なりますよ}.\itemいろんなスポーツ用品やアメカジに囲まれて,楽しく\utensen{バイトしよう}!!\\\hfill(『タウンワーク名古屋東部・瀬戸周辺版』12/22号vol.~1--2,2005)}共在マーカーの使用が,話手/聞手を顕在化させ,関係を作り出すものであること,その「関係」「近づき方」が共在マーカーの使い分けによって異なって実現されていることが見て取れる.この違いには,作り出された〈疑似共在〉(III)であっても,(I)の場での各要素の本質的機能の差が反映していると考えられる.一度〈共在〉の場が作り出されると,その場では,聞手が特定である(I)と同様,「です・ます」か「非です・ます」かによる関係の違いが生じるのである.これはあくまで共在マーカー間の相対的な関係の反映であり,「です・ます」自体の問題ではないと考える.\subsection{感情・態度の表示となるメカニズム}次に,「です・ます」の出現が,話手と聞手の関係のあり方の変化を表し,「感情・態度の表示」となる場合を説明する.本稿のモデルでは,話手と聞手の関係変化について,二通りの変化が想定できる.一つは,聞手が不特定・多数・抽象的であるような共在性の低い場で,話手が「です・ます」を使用し,そもそも存在しなかった,話手と聞手の関係を生じさせるという関係変化,すなわち〈非共在〉(II)から〈疑似共在〉(III)へのシフトである.そしてもう一つは,〈共在〉(I)および〈疑似共在〉(III)の場において「非です・ます」がスタイルとなっている中で「です・ます」を,また「です・ます」がスタイルとなっている中で「非です・ます」を使用することによって,話手と聞手の関係を変化させるものである.\subsubsection{〈非共在〉から〈共在〉へのシフト}まず,(II)の場において「です・ます」を使用し,〈非共在〉から〈疑似共在〉へと変化させるタイプを見よう.(\ex{+1})は「だ・である体」で書かれた論文である.最後の謝辞で「です・ます」が出現している.また(\ex{+2})は新聞所載の「だ・である体」のエッセイの末尾に「〜ますよ」が出現している.\enumsentence{付記\hspace{3mm}インフォーマントのお二人,またインフォーマントを紹介してくださった××氏\footnote{用例(\ex{0})の「××氏」については原典で個人名のため記号に置き換えた.}に\unami{お礼申し上げます}.本稿は,国語学会2000年度秋季大会で発表した内容を大幅に改訂したもの\utensen{である}.発表の際,\unami{ご意見・ご教示くださった}皆様に\unami{お礼申し上げます}.(国語学.52(3),p.~44)}\enumsentence{では,その高揚感をあおってくれたものは\utensen{何だったろう}.そこで思い浮かぶのが各局の中継の\utensen{テーマ曲だ}.NHKなら古関裕而作曲の「スポーツ・ショー行進曲」(♪チャンチャチャンチャチャンチャチャララ……),(中略)TBSならばあの曲(ツッチャッチャッチャッ,チャッチャララッチャッチャーン).どれも今でも口ずさめるテーマ曲\utensen{ばかりだ}.(中略)いかんせんわかりづらい表記になってしまったが,ツーだのチャラだの口ずさんで\ul{みられよ}\footnote{用例(\ex{0})には末尾の「〜ますよ」の直前に命令形「みられよ」が出現している.命令形も,命令の動作内容を達成能力のある聞手の存在を前提とする点で共在マーカーの一つと考えられる.「だ・である体」には一般に命令形は出現しにくく,「〜たいものだ」「べきだ」などの義務表現で代用されている.}.きっと\unami{思い出しますよ}.\hfill(毎日新聞夕刊,2006.4.8\footnote{やくみつる「週間テレビ評「プロ野球中継」」})}聞手が不特定多数の(II)〈非共在〉の発話においては,共在マーカーは現れない.そのような場で,共在マーカー「です・ます」が出現すると,「です・ます」は聞手を顕在化させ,異なる伝達場面を構築することとなる.すなわち,瞬間的に〈非共在〉(II)を〈疑似共在〉(III)に変化させることで,話手の態度の表示となると考えられる.(\ex{-1})のように「××氏」「皆様」という個別具体的かつ特定の聞手を顕在化する場合も,(\ex{0})のように不特定のままで集合を絞り込むように具体化・顕在化する場合もある.興味深いのは(\ex{-1})で「ご教示くださった」「申し上げる」といった敬語が用いられていることである.論文の読者が不特定多数であることに変わりはなく,名指しされた「××氏」が読んでいるとは限らないが,共在マーカーを使用することで発話を(III)〈疑似共在〉とし,特定化した聞手に待遇表現を用いているのだと考えられる.共在マーカーの使用は,話手の〈共在〉指向ストラテジーである.そのストラテジーにおいて,敬語の使用も「です・ます」の出現も連動して可能になっていると考えられる.〈疑似〉的に特定化した聞手に対しても,その個別性・具体性・特定性が高ければ高いほど,〈共在〉での聞手同様に扱うことができ,待遇的に位置づけることも可能になる.不特定多数の読者というコンテクストが公の場として,あるいは第三者の存在として敬語の出現に影響している可能性もある\footnote{「第三者の存在」(バフチン1952--1953[1988])については,対話の大前提と考える.また,BrownandLevinson(1978,1987),Bell(1984),Clark(1993)などで,多様なaudienceの存在によるコミュニケーションへの影響を示唆したモデルが提案されている.本稿においては扱えないが,傍聴者を含めた伝達場面の構成要素とそのあり方,さらに共在性との関わりの整理は今後の課題である.}.以上,共在マーカーの使用によって〈非共在〉から〈疑似共在〉へのシフトにより,話手の感情・態度の表示となる例を見た.\subsubsection{〈共在〉における心的距離の変化}次に,〈共在〉の場において話手と聞手の心的距離を変化させるタイプを見てみよう.話手と聞手が「共在」もしくは「疑似共在」している(I)および(III)の場において,「非です・ます」スタイルとなっている中に「です・ます」が出現すると,\ref{hyoji}で見たように感情・態度の表示となる.これは,「です・ます」の使用により聞手が「近」から「遠」になる,という関係変化が起こり,それによって感情,態度を表すことになるものと考える.(\ex{+1})の\unami{}部では「です・ます」の出現により,聞手である朋美との心的距離を瞬間的に遠くし,察しの悪い朋美に対する「皮肉」のような感情を表す.(\ex{+2})では,(III)〈疑似共在〉の場で「起きたら雨だったよ〜,しかたないねー」のように,「非です・ます」の「近」の関係で共在していた聞手(ブログ読者)に対し,「夫婦揃ってお腹壊しました」と「です・ます」を出現させることで,改まった態度の表示となり「照れ隠し」といった感情が示される.\enumsentence{(次郎(32歳):父が営む児童養護施設に仮住まいの身,朋美(27歳):児童養護施設の保育士)\begin{description}\item[次郎:]ねえねえ?どうして\utensen{朋美先生なの}?\item[朋美:]はっ?\item[次郎:]何で保育士に\unami{なったんですか}?\item[朋美:]こんなときに語れるほど簡単じゃありません.\item[次郎:]\utensen{あっそう}.\item[朋美:]どうしてですか?\item[次郎:]いや\utensen{鈍いから}.(せきばらい)\end{description}\hfill(ドラマ「エンジン」\unskip\footnote{「エンジンDVD-BOX」ビクターエンタテインメント})}\enumsentence{今日は,先週いけなかったゴルフ(ハーフだけ)に行こうとしてたのに,起きたら\utensen{雨だったよ}〜{\tt(T\_T)}\utensen{しかたないねー}.(中略)今日は実は結婚記念日.何が食べたいか協議の結果,餃子の王将に決定.でも年取ったせいか(油がきつかったのかな?)夫婦揃ってお腹\unami{壊しました}.来年は,もうちょっとヘルシーなもの食べよう…\\\hfill(「しろうと女房の厩舎日記」\unskip\footnote{{\tthttp://blog.livedoor.jp/yukiko.miyamotol/}(2006.1.30アクセス)})}逆に「です・ます」スタイルの中に,「非です・ます」を出現させると,聞手との関係が「遠」から「近」に変化する.いずれも,〈共在〉の場において「です・ます」と「非です・ます」を瞬間的にスイッチすることで,「遠--近」の関係を変化させ感情を示すものである.\enumsentence{(里見=助教授,柳原=医局員,君子=看護師)\begin{description}\item[柳原:]財前先生は?\item[君子:]オペに\unami{入りましたよー}.\item[柳原:]えっ?\item[君子:](柳原に)今日みたいな大事なオペに\utensen{遅れるわけないじゃない}.\item[里見:]大事なオペってー?\item[君子:]ご存じない\unami{んですか?}患者,大阪府知事の鶴川幸三\unami{なんです}.\end{description}\hfill(ドラマ「白い巨塔第一部」\unskip\footnote{「白い巨塔DVD-BOX第一部」ポニーキャニオン})}君子と柳原には看護師と医師という立場の差があり,君子は通常,柳原に対して「オペに入りましたよー」のように「です・ます」を使うが,「大事なオペに遅れるわけないじゃない」と「非です・ます」を出現させると,心的距離が「近」となり,職業上の立場差が示されなくなる.その結果,医師と看護師という立場の差からは表れ得ない,柳原に対する「あきれ」といった感情が示されている.また,「です・ます」が,特定のキャラクターと結びついた「役割語」として使われる場合も,話手と聞手の関係変化によると考えられる.「です・ます」を使うことで,普段の話手と聞手の関係とは異なる「遠」の関係の表示となり,話手は,自分とは違うキャラクターに変身する.\enumsentence{(のび太が思わぬ品物を手に入れて悦に入る場面)\\のび太:「これは\unami{たいへんなものですよ}.」\\\hfill(ドラえもん,7巻,小学館,(定延2005d:128))}ある種の役割やキャラクターを表す場合,終助詞の類がその中心的な役割を果たす.役割やキャラクターを表しうる共在マーカーの使い分けが,話手の変身の演出,すなわち聞手との関係変化につながる\footnote{キャラ助詞については,音声特徴の多様性を利用することができない書くメディアでより多く使用される(定延2005a,2005c).またウェブ上の匿名ブログではあるが,キャラ助詞を書き言葉で使用すると「わかりやすくなる」という指摘がある(「それだけは聞かんとってくれ」「第6回猫なんだニャ」{\tthttp://www.sorekika.com/dame.jsp?idx=006}(2006.4.2アクセス)).}.以上のような〈共在〉での心的距離の遠近の操作は,小説等のセリフで効果的に利用され表現効果を発揮する.(\ex{+1})は,小説の中の嫁--舅の口喧嘩の中での舅のセリフである.\enumsentence{「……\ul{なんじゃい},二言めにはスジだの金だのといい\utensen{くさって}.ああ,どうせわしは得手勝手な\ul{爺いじゃ}.震災からこのかた遊びくらした道楽もんの,憎まれものの,邪魔っけな\ul{爺いじゃ}.ようわかってるよそんなことは.お前はえらい,\unami{しっかり者です}.立派な\unami{女子さんです}.わしは\ul{バカじゃ}.失言もし物忘れも\utensen{する}.この年だ,文句は年に\utensen{いうてくれよ}.……ふん,鬼みたいな顔で睨み\utensen{くさって}.わしは,お前みたいなこわい女とはよう\unami{暮しません}.この年になってピリピリチリチリ暮すなんて,わしは\ul{ごめんじゃ}.ああ,\unami{まっぴらです}.わしを,Sへ\utensen{やってください\\}」\hfill(山川方夫1975,海岸公園.新潮文庫.p.~23)\footnote{用例(\ex{0})は定延利之氏との個人談話による.}}「わし」「〜じゃ」といった老人の役割語とともに「です・ます」と「非です・ます」が混在して現れるセリフによって,「老人」が「感情むき出し」でいじけてみせていることが見事に表されている.\subsubsection{感情・態度の表示となるメカニズム}感情の表示については,従来一様にスタイルシフトの効果と説明されてきたが,本稿の枠組みでは二通りに整理した.一つは伝達場面の転換というべき「〈非共在〉から〈共在〉への変化」によって,話手/聞手が顕在化し,それと同時に共在という関係が生じることから,「近づく」感じの感情・評価・態度の表示となるものである.もう一つは〈共在〉における,ある一定のスタイルの中で異なるスタイルが出現する場合であり「聞手との関係変化」の表示,すなわち「遠ざかる・改まる」といった感情・評価・態度の現れとなるものである.この整理により,どのような場合に「親しみ」「わかりやすさ」「仲間意識」といった近づく方向の感情・態度の表示になり,どのような場合に「卑下」「遠慮」「皮肉」「専門家意識」「照れ隠し」といった遠ざかる方向の感情・態度の表示になるのかといったことも説明可能となった.
\section{まとめと今後の課題}
label{matome}本稿では,「です・ます」の諸用法を概観し,その分化を伝達場面の構造モデルに照らし合わせることで包括的な説明を試みた.そして,「です・ます」の諸用法とされてきたものは,「です・ます」が持つ「話手と聞手の心的距離の表示」という本質と,伝達場面における〈共在〉/〈非共在〉性およびそれに基づいた話手のストラテジーによって説明できることを明らかにした.これは,コミュニケーションのあり方のさまざまを,伝達場面の構造として文法記述に生かす立場であり,本稿はそのような立場の有効性・発展性を主張するものである.言語形式が伝達場面の変化によって意味・機能を変えるという事実は,本稿のモデルの言語形式の機能変化を含む言語の動態を説明する枠組みとしての有用性をも示唆するものである.「です・ます」に加え,個別の共在マーカーの分析を積み重ねることでその有効性を補強すると同時に,伝達場面の構造モデルそのものの精緻化,他の語用論的条件やコミュニケーションモデルと本稿の伝達場面の構造モデルとの関係づけなどは,全て今後の課題である.\acknowledgment本稿は,執筆者一同による次の発表論文および口頭発表に基づいて大幅に整理し加筆修正したものである.これらに対する多くのご意見および査読者の貴重なご指摘,照会に依るところが大きい.記して謝意を表する.\begin{itemize}\item北村雅則他(2006).``伝達場面の構造と「です・ます」の諸機能''.言語処理学会第12回年次大会発表論文集,pp.~1139--1142.\item東弘子他.伝達場面の構造と言語形式—「です・ます」の諸機能と話手・聞手の共在性を手がかりに—.名古屋言語研究会第32回例会2006.3.18(於:名古屋大学)\end{itemize}本研究は平成17年度科学研究費16720108(若手研究B:研究代表者・東弘子)の研究成果の一つである.\begin{thebibliography}{3}\item東弘子(2004).``「話題の人物」の待遇を決定するシステム.''名古屋大学国語国文学,\textbf{95},pp.~103--192.\item東弘子,加藤淳,宮地朝子,江口正(2005).``マスメディアにおける敬語使用の変異と聞手の感情に及ぼす効果.''言語処理学会第11回年次大会(NLP2005)発表論文集,pp.~458--461.\item東弘子,加藤良徳,北村雅則,石川美紀子,加藤淳,宮地朝子(2006).``「書くメディア」にあらわれる「です・ます体」のわかりやすさ.''言語処理学会第12回年次大会(NLP2006)発表論文集,pp.~24--27.\item菊地康人(1994).敬語.角川書店(講談社学術文庫より再刊1997).\item菊地康人(1996).敬語再入門.丸善ライブラリー.\item木村大治(1996).ボンガンドにおける共在感覚.叢書・身体と文化2コミュニケーションとしての身体.大修館書店,pp.~316--344.\item金水敏(2003).ヴァーチャル日本語役割語の謎.岩波書店.\item金水敏,田窪行則(1996).``複数の心的距離による談話管理.''認知科学,\textbf{3}(3),pp.~58--74.\item鈴木睦(1997).日本語教育における丁寧体世界と普通体世界.視点と言語行動,田窪行則編,くろしお出版,pp.~45--76.\item定延利之(2003).``体験と知識—コミュニカティブストラテジー.''国文学解釈と教材の研究,\textbf{48}(12),pp.~54--64.\item定延利之(2005a).ささやく恋人,りきむレポーター—口の中の文化.岩波書店.\item定延利之(2005b).ケース17話しことばと書きことば(音声編){\unskip}.ケーススタディ日本語のバラエティ,上野智子・定延利之・佐藤和之・野田春美編,おうふう,pp.~102--107.\item定延利之(2005c).ケース18話しことばと書きことば(文字編){\unskip}.ケーススタディ日本語のバラエティ,上野智子・定延利之・佐藤和之・野田春美編,おうふう,pp.~108--113.\item定延利之(2005d).ケース21マンガ・雑誌のことば.ケーススタディ日本語のバラエティ,上野智子・定延利之・佐藤和之・野田春美編,おうふう,pp.~126--133.\item定延利之(2005e).``「表す」感動詞から「する」感動詞へ.''言語,\textbf{34}(11),pp.~33--39.\item佐藤和之(2000).``「災害時の外国人用日本語」マニュアルを考える—災害時情報と外国人居住者.''日本語学,\textbf{19}(2),pp.~34--45.\item清水康行(1989).文章語の性格.(講座日本語と日本語教育5)日本語の文法・文体(下){\unskip},山口佳紀編,明治書院,pp.~26--45.\item滝浦真人(2002).``敬語論の“出口”—視点と共感と距離の敬語論に向けて—.''言語,\textbf{31}(6),pp.~106--117.\item滝浦真人(2005a).``日本社会と敬語像—「親愛の敬語」を超えて」{\unskip}.''言語,\textbf{34}(12),pp.~36--43.\item滝浦真人(2005b).日本の敬語論—ポライトネス理論からの再検討.大修館書店.\item谷泰編(1997).コミュニケーションの自然誌.新曜社.\item永野賢(1966).``「です」「ます」体の文章と敬語—敬体の文章における敬語.''国文学解釈と教材の研究,\textbf{11}(8),pp.~108--113.\item橋本治(2005).ちゃんと話すための敬語の本.ちくまプリマー新書.\itemバフチン,ミハイル(1952--1953).ことばの諸ジャンルの問題.(邦訳:ことばのジャンル.ことば・対話・テキスト,ミハイル・バフチン著作集8,新谷敬三郎訳(1988),新時代社,pp.~115--189.)\item原田悦子(2005).メディアと表現様式の変化;認知工学の立場から.講座社会言語科学2メディア,ひつじ書房,pp.~118--133.\item日高水穂(2004).``普通体と丁寧体の混在による表現効果.''言語,\textbf{33}(11),pp.~118--119.\item日高水穂(2005).ケース11ことばの切りかえ.ケーススタディ日本語のバラエティ,上野智子・定延利之・佐藤和之・野田春美編,おうふう,pp.~66--71.\item水谷雅彦(1997).伝達・対話・会話—コミュニケーションのメタ自然誌へむけて—.コミュニケーションの自然誌,谷泰編.新曜社,pp.~5--30.\item南不二男(1987).敬語.岩波新書.\item三宅和子,岡本能里子,佐藤彰(2004).メディアとことば1.ひつじ書房.\itemメイナード,K・泉子(1991).``文体の意味—ダ体とデスマス体の混用について—.''言語,\textbf{20}(2),pp.~75--80.\itemメイナード,K・泉子(2001a).``心の変化と話しことばのスタイルシフト.''言語,\textbf{30}(7),pp.~38--45.\itemメイナード,K・泉子(2001b).``日本語文法と感情の接点—テレビドラマに会話分析を応用して—.''日本語文法,\textbf{1}(1),pp.~90--110.\item森山卓郎(2003).コミュニケーション力をみがく—日本語表現の戦略—.NHK出版.\item安川一(1991).ゴフマン世界の再構成—共在の技法と秩序.世界思想社.\item山森良枝(1997).終助詞の局所的情報処理機能.コミュニケーションの自然誌,谷泰編.新曜社,pp.~130--172.\itemAustin,J.L.(1962).HowtoDoThingsWithWords.OxfordUniversityPress:Oxford,England.\itemBell,A.(1984).``Languagestyleasaudiencedesign.''\textit{LanguageinSociety},\textbf{13},pp.~145--203.\itemBrown,P.andLevinson,S.(1987[1978]).Politeness:SomeUniversalsinLanguageUsage.CambridgeUniversityPress:Cambridge,England.\itemClark,HerbertH.andCarlson,ThomasB.(1982).``Speechactsandhearers'beliefs.''InN.V.Smith(Ed.),Mutualknowledge.NewYork:AcademicPress,pp.~1--45.\itemClark,HerbertH.(1992).ArenasofLanguageUse.UniversityofChicagoPress,Tx.\itemClark,HerbertH.andMarshall,C.R.(1981).``DefiniteReferenceandMutualKnowledge.''InJoshi,A.K.,WebberB.L.andSagI.A.(Ed.),``ElementsofDiscourseUnderstanding.''CambridgeUniversityPress:Cambridge,England.\itemGoffman,Eaving(1963).BehaviorinPublicPlaces:NotesontheSocialOrganizationofGathering.NewYork:TheFreePress.\itemGrice,H.P.(1975).``Logicandconversation.''InCole,Peter,andMorganJ.L.(Ed.),Syntaxandsemantics:Speechacts.Vol.~3.NewYork:Academic.pp.~41--58.\itemSearle,J.R.(1969).SpeechActs:AnEssayinthePhilosophyofLanguage.CambridgeUniversityPress:Cambridge,England.\itemSperber,D.andWilson,D.(1986).Relevance:CommunicationandCognition,HarvardUniversityPress.\itemTannen,Deborah(1980).``Spoken/WrittenLanguageandtheOral/LiterateContinuum.''\textit{ProceedingsofTheSixthAnnualMeetingofTheBerkleyLinguisticsSociety},UniversityofCalifornia,Berkley,pp.~207--218.\itemTannen,Deborah(1982).``TheOral/LiterateContinuuminDiscourse.''SpokenandWrittenLanguage:ExploringOralityandLiteracy,Norwood,NJ:ABLEXPublishingCorp.,pp.~1--16.\end{thebibliography}\begin{biography}\bioauthor{宮地朝子}{2001年名古屋大学大学院文学研究科博士課程後期課程修了,博士(文学),現在名古屋大学大学院文学研究科講師,日本言語学会,日本語学会,日本語文法学会,日本語教育学会各会員.}\bioauthor{北村雅則(正会員)\unskip}{2005年名古屋大学大学院文学研究科博士課程後期課程満期退学,同年博士(文学)取得,現在独立行政法人国立国語研究所特別奨励研究員,日本語学会,日本語文法学会各会員.}\bioauthor{加藤淳}{2006年愛知県立大学外国語学部英米学科卒業,現在名古屋大学大学院文学研究科博士課程前期課程在学中.}\bioauthor{石川美紀子}{2002年名古屋大学大学院文学研究科博士課程前期課程修了,現在名古屋大学大学院文学研究科博士課程後期課程在学中,日本語学会会員.}\bioauthor{加藤良徳}{2002年名古屋大学大学院文学研究科博士課程後期課程満期退学,博士(文学),現在静岡英和学院大学人間社会学部講師,日本語学会会員.}\bioauthor{東弘子(正会員)\unskip}{1997年名古屋大学大学院文学研究科博士課程後期満期退学,同年博士(文学)取得,現在愛知県立大学外国語学部准教授,日本言語学会,日本語学会,日本語文法学会各会員.}\end{biography}\biodate\end{document}
| |
V31N02-07
|
\section{はじめに}
近年,ニューラル機械翻訳(NeuralMachineTranslation:NMT)は発展・普及し,利用者の層が幅広くなっている.従来の一般的なNMTは,利用者や状況に依らない機械翻訳の実現を想定していたが,近年では,出力される目的言語文の表現を制御するための研究が盛んになっている\cite{sennrich-etal-2016-controlling,Kuczmarski-James-2018-Gender,schioppa-etal-2021-controlling}.そのひとつに,ユーザの読解レベルにあわせた翻訳を行うため,原言語文と共に目的とする難易度を入力として受け付け,指定された難易度の目的言語文を生成する難易度制御機械翻訳がある.初期の難易度制御機械翻訳\cite{marchisio-etal-2019-controlling}では,難易度は2段階であったが,近年では,より柔軟に出力文の難易度を制御するため,3段階以上の難易度(例えば,小学生,高校生,一般,専門家向けなど)を制御可能な多段階難易度制御機械翻訳(Multi-LevelComplexity-ControllableMachineTranslation:MCMT)\cite{agrawal-carpuat-2019-controlling}の研究が行われている.しかし,先行研究では英語とスペイン語間のMCMTしか取り組まれていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-2ia6f1.pdf}\end{center}\caption{日英MCMTの概要図}\label{img:example-MCMT}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで本研究では,日本語(日)から英語(英)への日英MCMTの構築を目指す.図\ref{img:example-MCMT}に日英MCMTの概要図を示す.従来のMCMTの研究\cite{agrawal-carpuat-2019-controlling}は英語とスペイン語(西)の言語対を対象にしているため,日英MCMT用の評価データセットが存在しない.また,従来研究では,多段階の難易度で記述された英語とスペイン語のニュース記事が記事単位で対応づいているコーパス(具体的にはNewselaコーパス\footnote{\url{https://newsela.com/data/}})から評価データセットを自動構築している.しかし,日英の言語対ではそのようなコーパスが存在しない.そこで本研究では,多段階の難易度で記述されている同一内容の英語文集合をNewselaコーパスから抽出し,人手の翻訳によって日本語文を付与することで日英MCMT用の評価データセットを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{06table01.tex}%\caption{提案手法で用いる訓練データの例}\label{tab:example-train-data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,本研究では日英MCMTの性能を向上させるため,MCMTのための学習方法として,異なる難易度の複数参照文を用いる学習手法を提案する.従来の学習\cite{agrawal-carpuat-2019-controlling}では,原言語文と難易度付き目的言語文の文対を単位として学習を行う.しかし,MCMTの学習では,一つの原言語文に対し,難易度の異なる複数の参照文が対応した訓練データを使用でき,学習対象の参照文と内容が同じで難易度が異なる参照文を学習時の手がかりにすることができる.例えば,MCMTの訓練データとして表\ref{tab:example-train-data}のようなデータを利用できるが,表\ref{tab:example-train-data}の訓練データは従来手法では3つの訓練データ(日本語文‐難易度12の英語文,日本語文‐難易度7の英語文,日本語文-難易度4の英語文)に展開される.そして,それぞれ独立した訓練データとして学習が行われるため,例えば,難易度12の英語文への翻訳を学習する際,難易度4や難易度7の英語文と対比させた学習を行うことはできない.そのため,難易度12の英語文への翻訳を学習する時に,難易度4や難易度7の英語文は出力として適切ではないということや,難易度4の英語文は難易度7の英語文よりも目的の難易度から離れるためより不適切であるということが利用できない.そこで本研究では,同一の原言語文と難易度の異なる複数の参照文からなる組を単位としてMCMTモデルを学習する手法を提案する.提案手法では,学習対象の参照文と共に異なる難易度の参照文も使い,学習対象以外の難易度の参照文に対する損失が学習対象の難易度の参照文に対する損失よりも小さくなることに対して,難易度が離れるほど大きなペナルティを与える損失に基づきMCMTモデルを学習する.これにより,例えば,難易度12の英語文への翻訳を学習する際,出力を難易度12の英語文に最も近づけ,かつ,難易度4の英語文より難易度7の英語文に近づけるように学習を行う.提案手法の有効性を本研究で構築した評価データセットを用いた日英MCMTの実験で検証した.その結果,提案損失を利用することで,BLEUが従来手法より0.93ポイント改善することを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
label{sect:related}本節では本研究の関連研究を概観する.難易度制御機械翻訳は,機械翻訳と平易化の複合領域とも捉えることができる.そこで,\ref{subsect:simplification}節では単言語における文の平易化に関する従来研究を述べる.また,難易度制御機械翻訳は,難易度の観点で出力文の表現を制御する機械翻訳とも捉えることができる.そこで,\ref{subsect:2CMT}節では出力文の表現を制御するNMTに関する従来研究を述べる.そして,\ref{sect:conventional}節では,本研究が対象とするMCMTに関する従来研究を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テキスト平易化}\label{subsect:simplification}本節では,テキスト平易化について説明する.入力文を同一言語の簡単な文に変換する平易化技術は自然言語処理において盛んに研究されている.例えば,ScartonandSpecia\cite{scarton-specia-2018-learning}は,平易度を表す特殊なトークンを入力文に付与することで英語の平易化を行うモデルを提案しており,Katoら\cite{kato-etal-2020-bert}は述語に焦点を当てたBERTベースの日本語平易化モデルを提案している.他にもスペイン語における平易化\cite{stajner-etal-2015-automatic},イタリア語における平易化\cite{brunato-etal-2016-paccss},ドイツ語における平易化\cite{klaper-etal-2013-building}に関する取り組みが行われている.また,特殊なトークンを利用しない教師なし平易化モデル\cite{surya-etal-2019-unsupervised}など,様々な平易化手法も提案されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{出力文の表現を制御するニューラル機械翻訳}\label{subsect:2CMT}本節では,出力文の表現を制御するNMTについて説明する.Senrichら\cite{sennrich-etal-2016-controlling}は英独NMTにおいて,翻訳結果となるドイツ語文の丁寧さを表す特殊トークンを入力の英語文の末尾に追加することで出力文の丁寧さを制御するNMTモデルを提案した.これに倣い,出力文の表現に関する特殊トークンを入力文の先頭や末尾に付与することで出力文の表現を制御するNMTに関する研究が行われてきた.例えば,Niuら\cite{niu-etal-2018-multi}は特殊トークンに基づき丁寧さを制御するNMTモデルを,単言語における丁寧さ変換タスクと機械翻訳タスクのマルチタスク学習により実現している.Kuczmarskiら\cite{Kuczmarski-James-2018-Gender}はトルコ語と英語間の翻訳において特殊トークンを用いて性別の観点で出力文を制御するNMTモデルを提案し,Yamagishiら\cite{yamagishi-etal-2016-controlling}は特殊トークンに基づき出力文の態(能動態か受動態か)を制御する日英NMTモデルを提案している.そして,Feelyら\cite{feely-etal-2019-controlling}は英日翻訳において特殊トークンを用いることで敬語表現を制御している.近年では,特殊トークンに依らずに出力文の表現を制御するNMTモデルも提案されている.例えば,Schioppaら\cite{schioppa-etal-2021-controlling}は,ベクトルの加重線形結合によって,文長や丁寧さ,単調さといった複数の属性を同時に制御するNMTモデルを提案している.また,Marchisioら\cite{marchisio-etal-2019-controlling}は,原言語文と二段階の難易度(「平易」か「難解」)を入力として受け取り,入力された難易度にしたがった翻訳を行う二段階難易度制御NMT(2CMT)において,平易な目的言語文を生成するsimple-decoderと難解な目的言語文を生成するcomplex-decoderの2つのdecoderを用いる2CMTモデルを提案している.2CMT用のリソースは,通常のMTと比べて豊富ではないため,その構築も試みられている.MaruyamaandYamamoto\cite{maruyama-yamamoto-2018-simplified}は,英日の対訳コーパスである田中コーパス内の日本語文に対して,語彙を限定することで平易化した「やさしい日本語」文を学生が手作業で作成し公開している\footnote{\url{https://www.jnlp.org/GengoHouse/snow/t15}}.そして,KatsutaandYamamoto\cite{katsuta-yamamoto-2018-crowdsourced}は,MaruyamaandYamamoto\cite{maruyama-yamamoto-2018-simplified}のコーパスをクラウドソーシングにより拡張し,公開している\footnote{\url{https://www.jnlp.org/GengoHouse/snow/t23}}.これらのコーパスは,英語文と日本語文と「やさしい日本語」文の三つ組データとなっており,英日2CMTのリソースとして利用できる.また,Marchisioら\cite{marchisio-etal-2019-controlling}は,Newselaコーパスに対して,アンダーサンプリングとオーバーサンプリングを行うことで難易度の高い英西対訳文対の集合と難易度の低い英西対訳文対の集合を抽出し,スペイン語と英語間の2CMT用のリソースを構築している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{多段階難易度制御機械翻訳}\label{sect:conventional}本節では,MCMTの唯一の従来研究\cite{agrawal-carpuat-2019-controlling}について述べる.%revisedon10/31\ref{subsect:conventional-dataset}節では従来研究で用いられたデータセットについて説明し,\ref{subsect:multitask}節では従来研究において提案されたマルチタスクモデルについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{従来研究における訓練・評価データ}\label{subsect:conventional-dataset}従来研究では,Newselaコーパス\footnote{\url{https://Newsela.com/data/}}から自動作成したデータセットを用いて,英語とスペイン語間のMCMTモデルの学習と評価を行っている.Newselaコーパスは,複数の難易度で記述された英語記事と,英語記事の一部に対応するスペイン語の記事で構成されている.各記事には記事単位でgradelevelという難易度が付与されている.gradelevelの値は2から12であり,アメリカでの学齢に対応する数値であり,値が高いほど難しい記事であることを示す.Newselaコーパスは英語記事とスペイン語記事が記事単位で対応付けられているが,文単位では対応づいていない.そこで,西英機械翻訳と,同一言語内で文アライメントをするツールMASSAlign\cite{paetzold-etal-2017-massalign}を用いて,西英MCMT用のデータセットを作成している.作成手順は以下の通りである.\begin{description}\item[Step1]Google翻訳\footnote{\url{https://translate.google.com/}}を用いてNewselaコーパスのスペイン語記事を英語に翻訳する.\item[Step2]MASSAlignにより,Newselaコーパスの英語記事内の文と,英語に翻訳されたスペイン語記事の文を対応付ける.\item[Step3]対応付いた文の組を1事例とする.その際,翻訳された文は元のスペイン語文に戻す.また,各文の難易度は,その文が属する記事の難易度(gradelevel)にする.\end{description}このように自動構築されたデータセットには次の問題がある.\begin{description}\item[問題点1]対訳関係になっていないデータを含む\\英語文とスペイン語文の対応付けを自動で行っているので,必ずしも正しい翻訳文対になっているとは限らない.\item[問題点2]難易度が異なると情報量が変わるデータを含む\\同一言語内での対応付けを自動で行っているので,例えば,難易度が異なると情報の抽象度が変わり,含まれる情報量が変わる場合がある.表\ref{example-pop}に,高難易度の文には含まれない固有名詞が低難易度の文で出現している例を示す.湧き出している固有名詞を太字で示してある.この例のように難易度が変わった時に固有名詞などの情報が新たに湧き出す場合,難易度制御時に情報を増やすことは難しいため問題となる.\item[問題点3]難易度が不適切なデータを含む\\文の難易度として文が属する記事の難易度(gradelevel)を採用しているが,文単位の難易度は必ずしも記事単位の難易度ではない.そのため,必ずしも文の難易度が正しく設定されているとは限らない.例えば,記事単位のgradelevelが異なっていたとしても,完全に同じ文である場合や記号のみが異なる場合(:が,に変わっているだけなど)がある.表\ref{example-bad}に不適切な難易度が付与されているデータの例を示す.各組において太字の文同士は完全一致,あるいはほとんど同じ文であるにもかかわらず,異なる難易度が与えられている.\end{description}上記問題を含むデータを評価データとして使用する場合には,モデルの正確な性能評価ができなくなるため問題となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{06table02.tex}%\caption{固有名詞の湧き出しを含むデータ例}\label{example-pop}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{06table03.tex}%\caption{gradelevelは異なるが難易度が変わらない文対を含むデータ例}\label{example-bad}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{従来のMCMTモデル:マルチタスクモデル}\label{subsect:multitask}従来研究\cite{agrawal-carpuat-2019-controlling}では,難易度を制御しない通常の機械翻訳,単言語平易化,MCMTを同時に学習するマルチタスクモデルを提案している.実験では,ベースラインのMCMTとして,難易度を制御しない通常の機械翻訳モデルと単言語平易化モデルをパイプラインでつなげたパイプラインモデルを実装し,パイプラインモデルとマルチタスクモデルを比較した結果,マルチタスクモデルの方が性能が高いことを示している.本節では,西英間のMCMTで最高性能を達成しているマルチタスクモデルを説明する.マルチタスクモデルは,マルチリンガルNMTのフレームワーク\cite{johnson-etal-2017-googles}に倣い,原言語文の先頭にタスクを表す特殊トークンを結合した文を入力文とすることで,LSTMに基づくエンコーダ・デコーダモデル\cite{2015_NeuralMachineTranslationbyJoint}を複数タスクで学習している.具体的には,以下の式(\ref{eqn:multitask})の損失に基づき,通常の機械翻訳と単言語平易化の2つのサブタスクとメインタスクのMCMTを1つのモデルで同時に学習する.\begin{gather}loss=L_{MT}+L_{Simplify}+L_{MCMT}\label{eqn:multitask}\\L_{MT}=\smashoperator{\sum_{(s_i,s_o)\inD_{MT}}^{}}CrossEntropy((s_i;\theta),s_o)\\L_{Simplify}=\smashoperator{\sum_{(s_o,c_{o'},s_{o'})\inD_S}^{}}CrossEntropy((s_{o},c_{o'};\theta),s_{o'})\\L_{MCMT}=\smashoperator{\sum_{(s_i,c_o,s_o)\inD_{MCMT}}^{}}CrossEntropy((s_i,c_o;\theta),s_o)\end{gather}ここで,$L_{MT}$,$L_{Simplify}$,$L_{MCMT}$は,それぞれ,難易度を制御しない通常の機械翻訳の損失,単言語平易化の損失,MCMTの損失である.そして,$CrossEntropy$は交差エントロピー誤差,$\theta$はモデルパラメータ,$s_i$は原言語文,$s_o$は目的言語文,$s_{o'}$は$s_o$を平易化した文,$c_{o/o'}$は$s_{o/o'}$の難易度である.また,$D_{MT}$,$D_{S}$,$D_{MCMT}$は,それぞれ,通常の機械翻訳,単言語平易化,MCMT用の訓練データである.この従来MCMTモデルは,原言語文と難易度付き目的言語文の文対$(s_i,c_o,s_o)$の単位で学習される.そのため,同一の原言語文に対応付く異なる難易度の目的言語文間を対比させた学習を行うことができないことに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{日英MCMT用評価データセットの作成}
label{sect:evaluation-dataset}本節では,日英MCMT用の評価データセットの作成手順と作成した評価データセットの統計量を示す.\ref{subsect:conventional-dataset}節で説明した従来の評価データセット構築手法は,多段階の難易度で記述され文書単位で対応づいている原言語文と目的言語文のコーパスを前提とした手法である.日英の言語対ではそのようなコーパスが存在しない.そこで本研究では,次の2ステップで評価データセットを構築する.\begin{description}\item[Step1]多段階の難易度で記述される同一内容の英語文集合の作成\\\textbf{1-1:}Newsela-autoコーパスから自動抽出\\\textbf{1-2:}自動フィルタリングによる不適切データの除去\\\textbf{1-3:}人手チェックによる最終確認%\item[Step2]人手翻訳による日本語訳の付与\end{description}ステップ1では,Newselaコーパスの英語記事集合から多段階の難易度で記述される同一内容の英語文集合を抽出する.本ステップでは,機械的に同一内容の文同士を対応付けした結果であるNewsela-autoコーパス\cite{jiang2020neural}を活用する.Newsela-autoコーパスは,難易度が異なる同一内容の文を人手で対応付けしたNewsela-manualコーパスから学習したalignerを用いて,Newselaコーパス中の難易度が異なる英語記事内の英語文を自動で対応付けしたコーパスである.Newsela-autoコーパスには,同一内容の異なる難易度の英語文が813,972文対含まれている.ここで,Newsela-autoコーパスを作成する際に用いられたalignerは,従来のMCMT用データセット\cite{agrawal-carpuat-2019-controlling}の作成時に用いられたMASSAlign\cite{paetzold-etal-2017-massalign}よりも対応付け精度が良いことが示されている\cite{jiang2020neural}.本研究では多段階の難易度を制御することを目的としているので,ステップ1-1ではNewsela-autoコーパスから3つ以上の文が同一内容となる英語文集合を抽出する.ステップ1-1の結果として98,500組の英語文集合が得られた.ここで,ステップ1においても,先行研究と同様,文の難易度としてその文が属する記事の難易度を設定する.したがって,従来の評価データセット構築手法が抱える問題点3(\ref{subsect:conventional-dataset}節参照)が生じる可能性がある.そこで本研究では,自動フィルタリング\footnote{自動フィルタリングを行う前の文組からランダムに抽出した100組のうち63組が,gradelevelが異なるにもかかわらず,記号のみが変化するなど難易度が変わらない文対を含んでいた.これらを人手だけで除くのは効率が悪いため,自動フィルタリングを導入する.}(ステップ1-2)と人手チェック(ステップ1-3)により,確実に難易度が異なる3文以上から成る同一内容の英語文集合を作成する.自動フィルタリングでは,記号を除いた状態での編集距離が1以上になり,かつ,gradelevelの差が2以上となる文集合を残す.なお,編集距離は単語単位で計算する.また,Newsela-autoコーパスは同一内容の文を自動で対応付けているため,従来の評価データセット構築手法が抱える問題点2(\ref{subsect:conventional-dataset}節参照)が生じる可能性がある.そこで本研究では,ステップ1-3の最終確認として,固有名詞などの情報が湧き出していないかを著者が人手でチェックし,情報が湧き出している場合は,その事例を除いた.ステップ2では,ステップ1で作成した各英語文集合に対して,最もgradelevelが大きい,すなわち最も難しい文を翻訳会社に依頼して人手で日本語に翻訳し,その日本語訳を付与する.この人手翻訳により,本研究で作成する評価データには,従来の評価データセットが抱える問題点1(\ref{subsect:conventional-dataset}節参照)は起こらないことに注意されたい.以上の作成手順により,結果的に1,014組の日英MCMT用の評価データセットを作成した.作成した評価データセットに関して,図\ref{img:eval-grade}に英語文の難易度(gradelevel)の内訳を示し,表\ref{tab:eval-steps}に各組が含む異なる難易度の英語文数(段階数)の内訳を,表\ref{tab:article-grade}にNewselaコーパスに含まれる記事のgradelevelの内訳を示す\footnote{Newselaコーパスは表\ref{tab:article-grade}に示すようにgradelevelに大きな偏りがあるため,作成した評価データにおいても難易度の分布に偏りが生じている.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-2ia6f2.pdf}\end{center}\caption{評価データセット中の英語文のgradelevelの内訳}\label{img:eval-grade}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{06table04.tex}%\caption{評価データセット中の英語文の段階数の内訳}\label{tab:eval-steps}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{06table05.tex}%\caption{Newselaコーパス内に含まれる記事のgradelevelの内訳}\label{tab:article-grade}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{提案手法:異なる難易度の複数参照文に基づく学習}
label{sect:proposed}本節では,学習対象の難易度の参照文と共に同一内容の異なる難易度の参照文も用いてMCMTモデルを学習する手法を提案する.具体的には,学習対象の難易度の参照文に対する従来の損失と共に,学習対象以外の難易度の参照文に対する損失が学習対象の難易度の参照文に対する損失よりも小さくなることに対して,難易度が離れるほど大きなペナルティを与える損失に基づきMCMTモデルを学習する.提案手法では,一つの原言語文と難易度の異なる複数の参照文からなる組の単位でMCMTモデルを学習する.表\ref{tab:example-train-data}に提案手法で用いる訓練データの例を示す.この訓練データは,一つの日本語文に対して難易度が異なる3つの英語文が対応付けられている.提案手法では,このまとまり(組)単位で学習を行う.具体的には,以下の式(\ref{equation:proposed-criterion})の損失を最小化することでモデルを学習する.提案損失は,同一の原言語文に対応付けられた難易度の異なる複数の参照文をまとめた組単位で定義される.\begin{gather}\label{equation:proposed-criterion}loss=L_\text{tgt}+{\alpha}\cdot\frac{1}{{n}}\smashoperator{\sum_{k=1}^{{n}}}{(c_\text{tgt}-c_{\text{sub}_{k}})^2\cdot\text{max}(L_\text{tgt}-L_{\text{sub}_k},0)}\\\label{equation:L-target}L_\text{tgt}=CrossEntropy((x,c_{\text{tgt}};\theta),y_{\text{tgt}})\\\label{equation:L-sub}L_{\text{sub}_k}=CrossEntropy((x,c_{\text{tgt}};\theta),y_{\text{sub}_k})\end{gather}ここで,tgtと${\text{sub}_k}$は,それぞれ,学習対象の参照文と同一組内の学習対象以外の参照文を表す.また,$n$は同一組内の学習対象以外の難易度の参照文数である.そして,$L_{\text{tgt}}$,$L_{\text{sub}_k}$,$x$,$y$,$c$,$\theta$,$\alpha$は,それぞれ,学習対象の難易度の参照文との誤差,学習対象以外の難易度の参照文との誤差,原言語文,目的言語文,難易度,モデルパラメータ,学習対象以外の難易度の参照文に対する誤差の重みを調整するためのハイパーパラメータ%revisedon10/30である.提案損失は,第1項目の$L_{\text{tgt}}$により,出力を学習対象の参照文に近づける.この項は,従来の学習で用いられている損失と同じである.これに加えて第2項目で,出力が同一組中の参照文の中で学習対象の参照文に最も近づくように,$L_{\text{tgt}}-L_{\text{sub}_k}>0$であるとき%revisedon10/30にペナルティを与える.この際,表\ref{tab:example-train-data}の例のように,難易度が離れるほど語彙や構文が変化して出力が異なると期待されるため,難易度の差($c_\text{tgt}-c_{\text{sub}_{k}}$)の二乗を掛けて,学習対象の難易度から離れた難易度の参照文ほど大きなペナルティを与える.また,学習対象以外の参照文数($n-1$)は組によって異なるため,その数で割る.このペナルティ項の影響度はハイパーパラメータ$\alpha$で制御する.$\alpha=0$のときは学習対象以外の参照文を用いない従来の学習手法と等価%revisedon10/30になる.提案手法の概要を図\ref{img:proposed-criterion}に示す.図\ref{img:proposed-criterion}では,難易度8の目的言語文への翻訳を学習する際,難易度8の参照文と共に,同一内容の難易度が3,5,12の参照文も用いて学習している.その際,出力が学習対象の難易度8から離れるほど大きな損失を与えて学習する.つまり,難易度3,12,5の順で大きなペナルティを与える%revisedon10/30ことで,出力が指定難易度から離れることを抑制する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-2ia6f3.pdf}\end{center}\caption{提案手法の概要図}\label{img:proposed-criterion}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験}
label{sect:experiment}本節では,\ref{sect:evaluation-dataset}節の通り作成した評価データセットを用いた日英MCMTの実験により,\ref{sect:proposed}節の提案手法の有効性を検証する.\ref{subsect:settings}節で実験設定を,\ref{subsect:results}節で実験結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{06table06.tex}%\caption{訓練データの種類とその量(文対数)}\label{tab:amount-train-data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{subsect:settings}本節では実験設定を説明する.評価データは\ref{sect:evaluation-dataset}節の通り作成した日英MCMT用評価データ(1,014組)を用いた.訓練%revisedon10/31データは,表\ref{tab:amount-train-data}に示すように,難易度制御を行わない通常の機械翻訳用訓練%revisedon10/31データ$D_{MT}$(9.7M文対),単言語平易化用訓練%revisedon10/31データ$D_{S}$(260K文対),MCMT用訓練%revisedon10/31データ$D_{MCMT}$(70K組)\footnote{従来のマルチタスクモデルは文対に分解して文対単位で学習する.分解後の文対数は260K文対である.}の3種類を用いた.$D_{MT}$は,JParaCrawl\cite{morishita-etal-2020-jparacrawl}とNews-Commentaryの日英対訳文対からなる機械翻訳用データであり,$D_{S}$は,Newsela-autoコーパス中の英語文集合毎に抽出した最高難易度の英語文とそれ以外の英語文の対からなる単言語平易化用データである.そして,$D_{MCMT}$は,Newsela-autoコーパス中の各英語文集合に対して,最高難易度の英語文をGoogle英日翻訳で翻訳した日本語文を付与したMCMT用データ(ただし,評価データセットに含まれるデータは除く)である.$D_{MCMT}$では,一つの日本語文に対して難易度がそれぞれ異なる3から5文の英語文が対応付けられている.%revisedon10/31検証データは訓練%revisedon10/31データに用いなかった$D_{MCMT}$の500組(1,834文対)を用いた.各データはSentencePiece\cite{kudo-richardson-2018-sentencepiece}を用いてBPE\cite{sennrich-etal-2016-neural}によるサブワード分割を行った\footnote{character\_coverageは0.9995,vocab\_sizeは32,000に設定した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{06table07.tex}%\caption{Fairseqにおける実験設定}\label{tab:experiment-settings}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本実験では提案手法の有効性を検証するため,\ref{sect:proposed}節で説明した提案損失を用いて学習したMCMTモデル(提案モデル)と,提案損失においてハイパーパラメータ$\alpha$を0にして学習したMCMTモデル(ベースラインモデル)の性能を比較する.また,\ref{subsect:multitask}節で述べた従来のマルチタスクモデル\footnote{従来研究ではLSTMに基づくエンコーダ・デコーダモデルを使用しているが,本研究の実験では,より翻訳性能の高い,Transformerに基づくエンコーダ・デコーダモデル\cite{NIPS2017_3f5ee243}を用いた.}%revisedon10/31の性能とも比較する.各モデルはTransformer\cite{NIPS2017_3f5ee243}を採用した.実装はFairseq\cite{ott2019fairseq}を用い,モデルの構造はFairseqのデフォルトの設定にした.具体的には,エンコーダ及びデコーダの層数は6,マルチヘッド注意機構のヘッド数は8,埋め込み次元数は512,順伝搬層の次元数は2048とした.その他の実験設定は表\ref{tab:experiment-settings}に示す.具体的には,Transformerの文献\cite{NIPS2017_3f5ee243}に倣い,パラメータの最適化にはAdam\cite{KingBa15}を用い,$\beta_1=0.9,\beta_2=0.98$とした.正則化手法としてドロップアウト\cite{srivastava2014dropout}を用い,ドロップアウト確率は0.1とした.また,ラベル平滑化交差エントロピー\cite{szegedy2016rethinking}では平滑化$\epsilon$は,0.1に設定した.提案モデルおよびベースラインモデルでは,まず,$D_{MT}$と$D_{S}$を用いて英語多段階平易化をサブタスク,通常の日英翻訳をメインタスクとしたマルチタスク学習により日英NMTモデルを事前学習した.その後,$D_{MCMT}$に対して%revisedon10/30提案損失を用いてファインチューニングした.提案モデルのハイパーパラメータ$\alpha$の値は0.5と1.0を試し,検証データに対するBLEU\cite{papineni-etal-2002-bleu}が高かった1.0に設定した.ベースラインモデルではハイパーパラメータ$\alpha$の値は0である.マルチタスクモデルでは,日英MCMTをメインタスク,通常の日英翻訳と英語多段階平易化をサブタスクとしたマルチタスク学習を行った.日英MCMTタスクの学習には$D_{MCMT}$,日英翻訳タスクと英語多段階平易化タスクの学習には,それぞれ,$D_{MT}$と$D_{S}$を使用した.なお,損失は,検証データにおける比較から,単純な交差エントロピーではなくラベル平滑化交差エントロピーを用いた.評価指標は,翻訳性能の指標であるBLEU\cite{papineni-etal-2002-bleu}を用いた.BLEUの算出には,EASSE\cite{alva-manchego-etal-2019-easse}を通じてSacreBLEU\cite{post-2018-call}を使用した\footnote{-tokmoses--no-lowercaseオプションを使用した.}.%revisedon10/31%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{subsect:results}実験結果を表\ref{tab:result-BLEU}及び表\ref{tab:random-BLEU}に示す.表\ref{tab:result-BLEU}の値は,ランダムシードを変更して学習した3回の実験結果の平均の値であり,表\ref{tab:random-BLEU}は各シードでの実験結果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{06table08.tex}%\caption{実験結果}\label{tab:result-BLEU}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{06table09.tex}%\caption{シード毎のBLEU}\label{tab:random-BLEU}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:result-BLEU}より,提案モデルの翻訳性能の方がベースラインモデルの翻訳性能よりも高いことが分かる.また,マルチタスクモデルと提案モデルの差およびベースラインモデルと提案モデルの差をブートストラップ再サンプリングによる有意差検定\cite{koehn-2004-statistical}で検定した結果,マルチタスクモデルとは有意差水準5\%,ベースラインモデルとは有意差水準10\%で有意差を確認した.これらの結果より,提案損失に基づき,学習対象以外の難易度の参照文も用いて学習することでMCMTの翻訳性能を改善できることが分かり,提案手法の有効性を確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{考察}
label{sect:discussion}本節では,難易度を変えた際に出力文が適切に変化するかという観点で提案手法の有効性を考察する.具体的には,難易度を変えても出力が同じになる数の比較とテキスト平易化の指標であるSARI\cite{xu-etal-2016-optimizing}の比較,各モデルの出力例に基づく定性評価,そして,目的難易度ごとのBLEUの比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{異なる難易度における同一出力数}\label{subsect:duplication}MCMTは,同じ原言語文に対して,指定する難易度に応じて異なる目的言語文を出力をする必要がある.そのため,指定する難易度が異なるにもかかわらず,同一の出力を行うMCMTモデルは好ましくないと考えられる.特に,離れた難易度の場合は,出力が変わることが期待される.そこで,評価データセットの各日本語文(1,014文)に対して,異なる3種類の難易度(最も易しい難易度2,中間難易度7,最も難しい難易度12)を指定して翻訳を行い,その出力が同一となる回数を調査した.結果を表\ref{tab:dup}に示す.なお,表\ref{tab:dup}における各モデルの値は,ランダムシードを変更して学習した3回の実験結果の合計値である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\input{06table10.tex}%\caption{異なる難易度における同一出力数}\label{tab:dup}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:dup}において提案損失の有効性を検討するために,提案モデルとベースラインモデルを比較する.その結果,提案モデルの方が,ベースラインに比べて,同一出力を行った総数及び同一出力を含む組数が少ないことが分かる.特に,難易度7と難易度12において同一出力を行う回数が少なくなっている.これにより,提案損失のペナルティ項が難易度ごとに異なる出力を行うことを促進する効果があると考えられる.また,表\ref{tab:dup}ではマルチタスクモデルが同一出力の総数が最も少ないが,表\ref{tab:result-BLEU}から提案モデルの方がマルチタスクモデルよりも翻訳性能が高いことが分かる.これより,提案モデルは高い翻訳性能を維持しつつ異なる目的言語文を出力しやすくするのに役立つと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{SARIの比較}\label{subsect:compare-SARI}本節では,テキスト平易化の指標であるSARIの比較を行う.SARIは,入力文(平易化元の文),出力文(平易化後の文),参照文(平易化後の正解文)を用いて同一言語における平易化性能を評価する指標である.本評価では,評価データセットの日本語文が最高難易度の英語文を翻訳した文であることを踏まえて,最高難易度の英語参照文をSARIの入力文とし,最高難易度以外の英語参照文およびそれに対応するMCMTモデルの出力英語文をそれぞれSARIの参照文と出力文とすることで,MCMTモデルが出力を適切に平易化して翻訳できているかをSARIにより評価した.\ref{subsect:settings}節のBLEU同様,SARIもEASSEを用いて算出した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{06table11.tex}%\caption{各モデルのSARIの比較}\label{tab:result-SARI}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{06table12.tex}%\caption{シード毎のSARI}\label{tab:random-SARI}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験結果を表\ref{tab:result-SARI}及び表\ref{tab:random-SARI}に示す.表\ref{tab:result-SARI}の値は,ランダムシードを変更して学習した3回の実験結果の平均の値であり,表\ref{tab:random-SARI}は各シードでの実験結果である.表\ref{tab:result-SARI}より,SARIの観点でも提案モデルが最も性能がよいことが分かる.これより,提案モデルはベースラインモデルやマルチタスクモデルよりも難易度に応じて適切に翻訳を変化させられることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{出力例の比較}\label{subsect:example-hyp}本節では,提案モデル,ベースラインモデル,マルチタスクモデルの各モデルの出力例を比較する.各モデルの難易度別の出力を表\ref{tab:compare-hyp}に示す.表\ref{tab:compare-hyp}より,マルチタスクモデルとベースラインモデルでは,難易度12と8について,指定した難易度が異なっているにも拘らず,同一の出力となった.一方で,提案モデルは,異なる難易度に対してそれぞれ異なる出力を行った.このように,提案損失のペナルティ項を導入することで難易度が変わると出力を変えることができ,MCMTに有効に働く例を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{06table13.tex}%\caption{翻訳結果の比較(従来:マルチタスクモデル,BS:ベースラインモデル,提案:提案モデル)}\label{tab:compare-hyp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{目的難易度ごとのBLEU}\label{subsect:BLEU-by-level}本節では,MCMTの学習において学習対象の難易度以外の参照文を活用するという提案手法の効果が,目的難易度によって異なるのかを確認するために,目的難易度ごとにBLEUを算出し,比較を行った.表\ref{tab:BLEU-by-each}にベースラインモデルと提案モデルでの,目的難易度ごとのBLEUを示す\footnote{Newselaコーパスではgradelevelが11の記事の割合が0.018\%と少ない.本研究の評価データはランダムに組を抽出してから作成を進めた結果,その偏りの影響を受け,gradelevelが11の文対が含まれていない.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[t]\input{06table14.tex}%\caption{目的難易度ごとのBLEUの比較(3つの異なるランダムシードでの平均値)}\label{tab:BLEU-by-each}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:BLEU-by-each}より,提案モデルは,多くのgradelevelでベースラインモデルを上回っていることが分かる.このことから,提案損失を用いたことによる性能改善は特定の難易度に対する性能改善に由来するものではなく,各難易度に対して性能が全体的に改善できてることが確認できる.一方で,gradelevelが3,7,10に対してはベースラインモデルの方が性能が高い.ただし,gradelevelが7に対しては差は非常に小さい.性能の差が比較的大きかったgradelevelが3と10についてデータ量の観点で比較すると,gradelevelが3と10の訓練データは,その他のgradelevelの訓練データと比較して量が少ない.したがって,gradelevelごとの訓練データ量の偏りによって,学習が難しくなっている可能性が考えられる.本研究では従来研究に倣って記事に付与されているgradelevelをそのまま利用したが,例えば,目的難易度ごとのデータ数の正規化やビニング処理を検討したり,gradelevel以外の難易度の利用や新たな文単位の難易度の作成などを検討したりする必要があると考える.これらの点は今後の課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
本研究では,日英MCMTの実現を目指して研究を行った.具体的には,従来研究は英語とスペイン語の言語対が対象となっているため,まず,日英MCMT用の評価データセットを作成した.そして,日英MCMTの性能を向上させるため,学習対象の難易度の参照文と共に異なる難易度の参照文を用いるMCMTの学習手法を提案した.本研究で構築した評価データセットを用いた日英MCMTの評価実験を通じて,提案手法は,従来の学習対象の難易度の参照文のみを用いる学習手法に比べて,BLEUおよびSARIの値が改善し,提案手法の有効性を確認した.本研究では日英MCMTの実現に取り組んだが,今後は英日MCMTも対象にしていきたい.また,本研究の難易度は,従来研究同様,Newselaコーパスの記事に付与されているgradelevelを利用したが,難易度そのものについての議論も進め,MCMTの更なる発展のための研究を進めていきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文を構成する日英MCMT用評価データセット作成は,%revisedon10/30Proceedingsofthe13thLanguageResourcesandEvaluationConferenceで発表した論文\cite{tani-etal-2022-benchmark}の内容である.本研究はJSPS科研費JP22K12177,JP21K12031の助成を受けたものである.また,本研究成果の一部は,国立研究開発法人情報通信研究機構(NICT)の委託研究(22501)により得られたものである.ここに謝意を表する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{谷和樹}{2022年同志社大学理工学部情報システムデザイン学科卒業.2024年同大学院理工学研究科情報工学専攻修了予定.}\bioauthor{田村晃裕}{2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教.2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).情報処理学会,言語処理学会,人工知能学会,ACL各会員.}\bioauthor{梶原智之}{愛媛大学大学院理工学研究科講師.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).2018年より大阪大学データビリティフロンティア機構の特任助教,2021年より愛媛大学大学院理工学研究科の助教を経て,2024年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{二宮崇}{1996年東京大学理学部情報科学科卒業.1998年同大学大学院理学系研究科修士課程修了.2001年同大学大学院理学系研究科博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会各会員.}\bioauthor{加藤恒夫}{1994年東京大学工学部電子工学科卒業.1996年同大学工学系大学院電子工学専攻博士前期課程修了.同年,国際電信電話株式会社入社.KDD研究所,KDDI研究所を経て,2015年より同志社大学理工学部.現在同志社大学理工学部教授.博士(情報理工学).言語処理学会,情報処理学会,電子情報通信学会,日本音響学会,日本音声学会,ヒューマンインターフェース学会,ACM,IEEE各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V27N02-10
|
\section{はじめに}
日本語は語順が自由な言語であり\footnote{本稿で言う「語順が自由」とは,名詞句の(述語に対する)配列に関して,命題的意味を変更させることなく,容認され得る複数の選択肢が存在することを意味している.同じ項や述語を用いて語順のみが異なっているような文を複数想定したとき,それらのニュアンスや語用論的意味解釈の同一性について保証するものではない点に注意されたい.以降についても同様である.},その基本語順については様々な研究がある.特に,ヲ格要素とニ格要素が共に文に現れる二重目的語構文については,計算言語学の領域においても理論言語学の領域においても多くの研究がある\cite{yamashita-2011,orita:2017:CMCL,笹野-2017,Hoji1985,Miyagawa1997,Matsuoka-2003}.その中でも,日本語の二重目的語構文について,格要素ではなく情報構造により語順が決まる傾向にあることを指摘した研究として,\citeA{asahara-nambu-sano:2018:CogACLL}が挙げられる.\citeA{asahara-nambu-sano:2018:CogACLL}は,『現代日本語書き言葉均衡コーパス』\cite{Maekawa2014}(以下,BCCWJ)のコアデータに対する述語項構造・共参照情報アノテーション\cite{Ueda2015}を用いて,ガ・ヲ・ニすべての格要素を含む二重目的語構文を抽出し,その共参照情報をもとに格名詞句に情報の新旧を付与した.その結果,名詞句が直接目的語(ヲ格要素)であるか間接目的語(ニ格要素)であるかという点よりも,情報の新旧が語順に与える影響が大きいという傾向が明らかになった.しかしながら,名詞句を特徴付ける情報構造に関わる要素は,共参照に基づく情報の新旧だけではない.例えば,\citeA{givon76}や\citeA{keenan76}は有生性(animacy),動作主性(agentivity)がトピックやフォーカス\footnote{トピックとは聞き手・読み手の前提となっている部分で,主張(assertion)を導入する働きをする.フォーカスとは聞き手・読み手の前提にないような新しい情報を伝える部分であり,主張に直接関わってくる.詳細は\citeA{Erteschik1997,Erteschik2007}などを見られたい.}といった情報構造と関係があることを示している.そのため,情報の新旧以外の情報構造にかかわる要素についても検討する必要がある.また,\citeA{asahara-nambu-sano:2018:CogACLL}では二重目的語構文の場合のみが対象となっているため,それ以外の場合についてどのような語順になるのかを調査する必要がある.そこで,本稿では,BCCWJ内の名詞句に対して情報構造に関わる文法情報をアノテーションしたBCCWJ-InfoStr\cite{Miyauchi2018,宮内2018}を利用して,情報の新旧以外のものも含めた情報構造に関わる文法情報がどのように語順に影響を及ぼすのかについて,二重目的語構文以外も対象に調査した結果を報告する.つまり,本研究は\citeA{asahara-nambu-sano:2018:CogACLL}で示された傾向を踏まえ,より広い観点,および対象から検討するものであると位置づけられる.具体的には,BCCWJ-InfoStrに含まれる名詞句とその係り先との距離を,情報状態・共有性・定性・有生性という4つの情報構造に関わる文法情報を特徴量として,ベイジアン線形混合モデル(BayesianLinearMixedModel;\cite{Sorensen2016})により回帰分析する.その結果,名詞句は文中で,(I)情報状態が旧情報であるものが新情報であるものに先行する,(II)共有性が共有であるものが非共有であるものに先行する,(III)定名詞句が不定名詞句に先行する,(IV)有生名詞句が無生名詞句に先行するという傾向が確認された.これらの傾向は,主に機能主義言語学の分野で言及されている「伝達のダイナミズム」\cite{Firbas1971}・「旧から新への情報の流れ」\cite{Kuno1978}・「名詞句階層」\cite{Tsunoda1991}を支持する結果となった.以下,2節では分析方法として,使用したデータの概要と統計手法について示す.3節では統計分析の結果を提示する.4節では言語学的な考察を行う.5節でまとめと今後の研究の方向性を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{方法}
本節では分析に用いたデータについて解説する.BCCWJ-DepParaPAS\cite{Ueda2015,AsaharaOmura2016}とBCCWJ-Infostr\cite{Miyauchi2018,宮内2018}を重ね合わせたデータを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BCCWJ-DepParaPAS}BCCWJ-DepParaPASは係り受け情報(BCCWJ-DepPara)\cite{BCCWJ-DepPara}と述語項構造・共参照情報(BCCWJ-PAS)を一つのファイルにしたデータである.図\ref{fig:ano}中,表層形+係り受けの列が,表層形と係り受け情報を表している.表層形は国語研短単位が規定する単位に分かち書きされており,{\tt*}ではじまる列が国語研長単位によって規定される文節境界を表し,各文節の係り先を表す.例えば,{\tt*34D0/10.000000}は,この行以下が0-originで3番目の文節を表し,当該文節が4番目の文節に係ることを表す.{\tt0/1}は,当該文節の末尾から数えて0-originで0番目の単語が付属語主辞であり,末尾から数えて0-originで1番目の単語が自立語主辞であることを表す.{\tt0.000000}は係り受け解析器が出力する係り受けに関するパラメータが登録される領域である.図\ref{fig:ano}中,PAS情報の列がBCCWJ-PASに含まれる述語項構造である.idは,述語のガ・ヲ・ニの項名詞句に割り当てられる.また,述語についてはその項名詞句の情報が付与されている.例えば{\ttga="36"ga\_dep="dep"ni="33"ni\_dep="zero"o="35"o\_dep="dep"type="pred"}は,ガ格名詞句が{\ttid="36"}の名詞句「先生(たち)」で係り受け関係({\ttga\_dep="dep"})があり,ニ格名詞句が前の文にある{\ttid="33"}の名詞句であり(同一文内にないたために{\ttni\_dep="zero"}とゼロ代名詞であることを明示),ヲ格名詞句が{\ttid="35"}の名詞句「レッテル」で係り受け関係があることを表現する.なお,{\tttype="pred"}は,名詞述語でない述語であることを意味する.他に,図\ref{fig:ano}には記載されていないが,共参照情報として{\ttid="36"}が事前文脈に同一指示名詞句があることを含んでいる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-2ia9f1.eps}\end{center}\caption{調査に用いるアノテーション例}\label{fig:ano}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究の評価対象は,BCCWJ-DepParaPASの述語項構造アノテーションで定義される各項名詞句と係り受けアノテーションで定義されるその係り先(図\ref{fig:ano}中,係り先列)との距離(図\ref{fig:ano}中,係り先との距離列)である.係り先との距離は,係り先と当該名詞句との間に入る文節数で評価する.この値が,次に示す名詞句の情報構造(情報状態,共有性,定性,有生性)により統計的にモデル化できるかを検討する.なお,名詞句の情報構造のうち,情報状態はBCCWJ-DepParaPASの共参照情報に由来する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BCCWJ-Infostr}BCCWJ-InfostrはBCCWJのテキスト(新聞(PN)コアデータ16サンプル,全16,657語(短単位),5,195文節,739文)内の名詞句2,023に対し,情報構造に関係する文法情報のタグ(情報状態,共有性,定性,特定性,有生性,有情性,動作主性)をアノテーションしたものである\footnote{BCCWJ-InfoStrでは,情報構造をアノテーションしたいくつかの先行研究\cite{Hajicova2000,Gotze2007}とは異なり,トピックやフォーカスを直接アノテーションしていない.例えば,トピックやフォーカスをアノテーションしている\citeA{Gotze2007}でも,実際には指示的(referential)な名詞句,特定(specific)解釈や総称(generic)解釈を持つ不定(indefinite)の名詞句など,様々な種類のアバウトネストピック(aboutnesstopic)が区別されている.これらを考慮し,BCCWJ-InfoStrでは,定性や特定性のような要因はトピックと独立にアノテーションされている.このことは,情報構造におけるトピックやフォーカスがそれぞれに多次元的であり\cite{Nakagawa2016},より小さい要素に分解可能であることを示唆している.}.図\ref{fig:ano}では,情報状態,定性,有生性,共有性についてのみ,ゴシック体で示す.ただし,複合語については,前部要素には指示性(referentiality)がないこと等を考慮して,前部要素まで含めて一つの名詞と捉えることにより,実質的に長い名詞句へアノテーションされている.この単位に対する方針については,基本的にはBCCWJ-DepParaPASの作業方針と同じとなっている.上記に示したタグは言語学の専門的な知識を持つものでないとアノテーションができないために,1人の言語学専攻の博士課程の学生がアノテーションした上で,3人によりその結果が確認されている.アノテータはBCCWJ-DepParaPASに付与された共参照情報を確認しながら作業を行った.本研究では\citeA{Miyauchi2018,宮内2018}で付与されたタグの内,情報状態,共有性,定性,有生性の各値を用いた\footnote{本研究で利用しない特定性・有情性・動作主性に関しては\citeA{Miyauchi2018,宮内2018}を参照のこと.また,本研究でこれらのタグを使用しない理由については\ref{Conc}節を見られたい.}.情報状態とは話し手・書き手\footnote{これ以降,単に「話し手」と表記する.}の観点に基づく情報の新旧で,共有性は聞き手・読み手\footnote{これ以降,単に「聞き手」と表記する.}の観点に基づく情報の新旧である\cite{Prince1992}.定性については情報構造との関連が指摘されており\cite{Erteschik2014},情報構造と語順に関係がある\cite{asahara-nambu-sano:2018:CogACLL}ことから定性と語順の関係を調査する必要がある.また,定性を表示する機能を持つ冠詞の習得は,冠詞を持たない言語を母語とする者にとっては難しい\cite{Ionin2004,Tanaka2013}ことから,その解消を目指して冠詞推定の研究が行われている\cite{竹内他2013,乙武永田2016}が,定性と語順との関連が分かることにより冠詞推定に寄与する可能性がある.有生性は,存在動詞の差異(いる/ある)\footnote{日本語については,有生/無性の区別よりも有情/非情の区別が重要であるとする研究もある\cite{山口1985}が,この点については本研究に特に大きな影響を及ぼさない.}のほか,格交代を表出する使役・受動態との関連があり\footnote{例えば,日本語の受動文においては,有生性制約(animacyconstraint)があることがよく知られている\cite{Kuroda1979}.動作主がニ格で表現される受動文において,以下(ia)で示すように,無生の主語は容認されづらい.一方,(ib)のように,有生の主語は問題なく容認される.\begin{exe}\exi{(i)}\begin{xlist}\ex[??]{机が花子に叩かれた.}\ex[]{太郎が花子に叩かれた.}\end{xlist}\end{exe}},語順に影響を及ぼす可能性がある.情報状態,共有性,定性,有生性について,名詞句に付与されたタグの値は以下(\ref{label})の通りである.\begin{exe}\ex\label{label}\begin{xlist}\ex\label{inf}情報状態(informationstatus):\\「新情報(discourse-new)」/「旧情報(discourse-old)」\ex\label{com}共有性(commonness):\\「共有(hearer-new)」/「非共有(hearer-old)」/「想定可能(bridging)」\ex\label{def}定性(definiteness):\\「定(defnite)」/「不定(indefinite)」\ex\label{an}有生性(animacy):\\「有生(animate)」/「無生(inanimate)」\end{xlist}\end{exe}\noindentなお,定性・有生性については,与えられた文脈から判断できない場合に「どちらでもよい」というタグが認められている.共有性については,その概念が認めがたい場合に「どちらでもない」というタグも認められている.これらのタグを含む名詞句については,本研究の分析対象から除外した.以下,\citeA{Miyauchi2018,宮内2018}をもとに,実例と共にそれぞれのタグのアノテーション基準を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{情報状態・共有性}情報状態とは,いわゆる談話上の旧情報と新情報の区別である.ある談話において,新たな情報は「新情報」となり,既出の情報は「旧情報」となる\footnote{情報状態についてのより詳細は\citeA{KruijffSteedman2003}や\citeA{Hinterwimmer2011,Prince1992}等を参照のこと.}.一つのテクスト(BCCWJ新聞サンプルにおける記事単位)全体を一つの談話とみなし,アノテーションされた.実例として,(\ref{is:ex})を見られたい.\begin{exe}\ex\label{is:ex}\begin{xlist}\ex\label{is:ex1}担任だった池田弘子[$_{新情報}$先生]は違った。\ex\label{is:ex2}スクールカウンセラーでもあった[$_{旧情報}$先生]の授業は[...]\\\hfill{(読売新聞[BCCWJ:PN1c\_00001])}\end{xlist}\end{exe}\noindent(\ref{is:ex1})の名詞「池田弘子先生」はこのテクストで初出の実体(entity)であるために,末尾の短単位名詞「先生」に新情報タグが付与されている.一方,談話中で(\ref{is:ex1})より後方に出現する(\ref{is:ex2})の「先生」は(\ref{is:ex1})の「池田弘子先生」を指示しているため旧情報タグが付与されている.これらの名詞は共参照関係にあり,BCCWJ-DepParaPASのアノテーションから展開できるが,展開したのち,全数確認を行いタグ付与がなされた.共有性は,談話成立時点において,情報を聞き手が既に知っていると話し手が想定しているか否かを示す分類である.聞き手が既に知っていると話し手が想定している情報は「共有」であり,知らないと想定している情報は「非共有」である\footnote{共有性についてのより詳細は\citeA{Prince1992}などを見られたい.}.なお,この判断の際はアノテータの世界知識を使ってもよいこととされており,「想定可能」というタグも許されている.このタグは,ブリッジングを起こしている際に付与される.実例として,(\ref{com:ex1})を見られたい.\begin{exe}\ex\label{com:ex1}\relax[$_{共有}$キャンティ街道]を抜け、[$_{非共有}$オリーブ畑]に囲まれた田園地帯の[$_{想定可能}$レストラン]で、[...]\hfill{(読売新聞[BCCWJ:PN4c\_00001])}\end{exe}\noindent(\ref{com:ex1})において,名詞「キャンティ街道」は,世界遺産にも登録されている,ワインで有名な街道であり,アノテータは既にこの街道について知っていたため,共有のタグが付与された.「オリーブ畑」については,この記事からどんなオリーブ畑であるのか判断できないため,非共有のタグが与えられている.「レストラン」はキャンティ街道のレストランを指しており,ある種のブリッジングを起こしているため,想定可能のタグが付与されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{定性}定性とは,指示対象を聞き手が同定できるか否かを示す分類である.指示対象を聞き手が同定できると話し手が想定していれば「定」であり,同定できないと想定していれば「不定」である\footnote{定性についてのより詳細は\citeA{Lyons1999,Heim2011}などを参照のこと.}.同データでは,判定する際に確認する文脈として前後3文を見ることとしている.実例として,(\ref{def:ex1})を見られたい.\begin{exe}\ex\label{def:ex1}高等部では自由な校風もあって、流行に乗ってかばんを薄くつぶしたり、ピアスをしたり。呼び出して注意する先生もいたが、二、三年時に担任だった池田弘子先生(七十五)は違った。「そんな薄い[$_{定}$かばん]じゃ[$_{不定}$遊び道具]も入らないよ」[...]\\\hfill{(読売新聞[BCCWJ:PN4c\_00001])}\end{exe}\noindent(\ref{def:ex1})の3文目の名詞「かばん」はスコープである前3文以内に既出の名詞であり,ここでは具体的に聞き手の持ち物のかばんを指示している.話し手はこの「かばん」は聞き手により同定しうると想定していると考えられるため,定のタグが与えられている.一方,「遊び道具」については,特に具体的な何か遊び道具を指示しているわけではないことから,不定のタグが付与されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{有生性}有生性とは,生きているか否かを示すカテゴリーである.生物(人間,動物など)は「有生」であり,無生物(植物を含む)は「無生」である.有生性は名詞句レベルのみで判断し付与されるものとしている.実例として,(\ref{an:ex1})を見られたい.\begin{exe}\ex\label{an:ex1}オオクチバスなどの[$_{有生}$ブラックバス類]が、少なくとも四十三都道府県の七百六十一のため池や[$_{無生}$湖沼]に侵入し、[...]\hfill{(読売新聞[BCCWJ:PN4c\_00001])}\end{exe}\noindent(\ref{an:ex1})における「ブラックバス」は生物であるため,有生のタグが付与される.「湖沼」は無生物であり,無生のタグが与えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{基礎統計}表\ref{tbl:features}に,本研究で用いたデータの各特徴量の頻度をピボットテーブル形式で示す.情報状態が旧情報である場合(678件),共有性が共有(611件)になりやすい傾向にある.一方,情報状態が新情報である場合(1,343件)は,共有性が共有(425件)・想定可能(455件)・非共有(459件)といずれの可能性もありうる.共有(旧情報611件・新情報425件)の場合,定性(旧情報604件・新情報406件)である可能性が高い.有生性については,新聞記事という性質上,無生のものが多い傾向にある.その他の特徴量の傾向については,\citeA{Miyauchi2018,宮内2018}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[p]\caption{各特徴量の頻度}\label{tbl:features}\input{09table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:dist}に,名詞句の係り先との距離の分布を示す.係り先との距離は,当該名詞句と係り先文節との間に入る文節数で表現する.ゆえに,名詞句と係り先文節が隣接する場合には係り先の距離を0とする.例えば,図\ref{fig:ano}において「先生(たち)」の係り先との距離は2であり,「レッテル」の係り先との距離は0である.基本的に,約半数の名詞句は隣接文節に係るために係り先との距離は0である.但し,係り先の距離が0であるもののうち,77名詞句は新聞記事に頻出する文末名詞句(体言止め)であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{係り先との距離の分布}\label{tbl:dist}\input{09table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル化の方法}本研究では,情報状態,共有性,定性,有生性の各タグをもとに,係り元名詞句とその係り先文節との距離dist(図\ref{fig:ano}中,係り先との距離)をベイジアン線形混合モデルで評価した.アノテーションされた名詞句2,023のうち,特徴量のタグに「どちらでもよい」「どちらでもない」が含まれる7例と文末に出現した名詞句77例を除外した1,939を分析対象とした.係り受けの情報は2.1節のBCCWJ-DepParaPASの情報を用いた.具体的には以下のような線形式でモデル化を行った:\begin{align*}&{\mbox{dist}\sim\mbox{Normal}(\mu,\sigma),}\\&\mbox{但し,}\mu\leftarrow\alpha+\beta^{*}_{情報状態}+\beta^{*}_{共有性}+\beta^{*}_{定性}+\beta^{*}_{有生性}.\end{align*}ここで,$\mbox{dist}$は係り元名詞句と係り先名詞句の間に入る文節の数(図\ref{fig:ano}中,係り先との距離)とする.$\mbox{Normal}$は平均$\mu$標準偏差$\sigma$の正規分布とし,切片$\alpha$と名詞句の各カテゴリパラメータ$\beta^{旧情報}_{情報状態},\beta^{新情報}_{情報状態},\beta^{共有}_{共有性}$(図\ref{fig:ano}中,情報状態の列に入っている値に応じて0--1の値を割り当てる,以下同様),$\beta^{想定可能}_{共有性}$,$\beta^{非共有}_{共有性}$(図\ref{fig:ano}中,共有性の列),$\beta^{定}_{定性}$,$\beta^{不定}_{定性}$(図\ref{fig:ano}中,定性の列),$\beta^{有生}_{有生性}$,$\beta^{無生}_{有生性}$(図\ref{fig:ano}中,有生性の列)の取りうるパラメータ割り当ての線形結合で平均$\mu$を定式化した.{各パラメータに割り当てられる値が大きいほど,名詞句の係り受けの距離が遠いことを表す.つまり,他の要素よりも先行する傾向にあることを表す.}ベイズ推定時には,各名詞句の特徴に応じてカテゴリパラメータ割り当てを与える.例えば,図\ref{fig:ano}の「先生(たち)」の事例では,モデル化する係り先との距離を2として,情報状態:旧情報・共有性:想定可能・定性:定性・有生性:有生の特徴量を与える.同様に「レッテル」の例では,係り先との距離を0として,情報状態:新情報・共有性:共有・定性:定性・有生性:無生の特徴量を与える.事前分布として平均0分散$\sigma'$である標準分布を各パラメータに与え,ハイパーパラメータ$\sigma'$についてもベイズ推定を行った.なお,同等のモデルを頻度主義的な線形混合モデル(lmer)により推定したところ収束しなかった.推定された線形モデルの線形式(一次方程式)を解釈するには,傾きであるカテゴリパラメータを確認する.簡単化のために出力$y$,切片$a$,傾き$b$の線形式$y=a+b$を用いて説明すると,傾き$b$が正の場合,$y$の値を増やす効果がある.一方,傾き$b$が負の場合$y$の値を減らす効果がある.このように,カテゴリパラメータが正である場合には出力である係り先との距離を遠くする効果があると解釈でき,カテゴリパラメータが負である場合には出力である係り先との距離を近くする効果があると解釈できる.ベイジアン線形混合モデルによりrstanパッケージ\cite{rstan}を用いて推定を行った\footnote{動作環境はPanasonicLet'sNoteCF-SV上のRversion3.5.1(2018-07-02,x86\_64-w64-mingw32).}.warm-up後のイテレーションを15,000回に設定し,4回シミュレーションを実施した.全てのモデルは収束した.ここで用いたベイジアン線形混合モデルとは,線形混合モデルのベイズ主義的なモデルである.線形混合モデルは,多要因の集約が必要ないという点で,分散分析や対応ありt検定などのアプローチよりも本研究にとって適切である.帰無仮説に基づく頻度主義的な線形混合モデルでは,本研究のような多要因の回帰が困難であるが,ベイズ主義的なモデルでは柔軟にモデル化が可能となる.特に,ベイジアン線形混合モデルには,線形混合モデルを使用した頻度分析に比べて2つの大きな利点がある.まず,事前分布を使用して情報を組み込むことができる.さらに多数のランダム分散成分を持つ複雑なモデルをマルコフ連鎖モンテカルロ法によって適合させることができる.以上の利点から,本研究ではベイジアン線形混合モデルを用いて,係り元名詞句とその係り先文節との距離distを評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{結果}
統計処理の結果,表\ref{tbl:R}の結果が得られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{統計処理の結果}\label{tbl:R}\input{09table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Rhatは収束判定パラメータで1.2以下を収束とみなす.meanは事後平均であり,各タグにより係り先との距離が長くなるか($+$方向)短くなるか($-$方向)を数値で示す.日本語は主辞が後置されるために,係り先との距離が長くなる要素が語順においては先行する要素となる.これをもとに各名詞句の語順を推定すると,表\ref{tbl:S}の通りとなり,名詞句は文中で,「旧情報$\rightarrow$新情報」,「共有$\rightarrow$想定可能$\rightarrow$非共有」,「定$\rightarrow$不定」,「有生$\rightarrow$無生」の順で並ぶという推定結果が得られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\caption{名詞句とその係り先との距離}\label{tbl:S}\input{09table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%具体的には,図\ref{fig:ano}の「先生(たち)」は情報状態:旧情報・共有性:想定可能・定性:定・有生性:有生であることから,$\alpha+\beta^{旧情報}_{情報状態}+\beta^{想定可能}_{共有性}+\beta^{定}_{定性}+\beta^{有生}_{有生性}=0.243+1.147+0.764+1.147+0.442=3.743$と距離がモデル化される.「レッテル」は情報状態:新情報,共有性:共有,定性:定,有生性:無生であることから,$\alpha+\beta^{新情報}_{情報状態}+\beta^{共有}_{共有性}+\beta^{定}_{定性}+\beta^{無生}_{有生性}=0.243-0.632+1.332+1.147-0.697=1.393$とモデル化される.この2つの距離を比較すると「先生(たち)」が「レッテル」よりも係り先より遠いことが確認できる.各特徴量に割り当てられた差を表\ref{tbl:diff}で示す.\citeA{asahara-nambu-sano:2018:CogACLL}の調査では,ヲ・ニ格の格要素よりも,情報状態に相当する共参照情報が語順に影響を与えるという結果であったが,情報状態よりも共有性のほうが顕著な距離の差を表出することがわかる.また,共有性の中でも,共有と想定可能の差が小さく,想定可能と非共有の間に大きな差があることが確認できた.名詞句の共有性が想定可能であることは,日本語においては顕在的な標識がないために言語処理において認識が困難な現象である.反対に,今回得られた結果から,語順が共有性の推定に有効な可能性が示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{推定結果の差の確認}\label{tbl:diff}\input{09table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,この分析手法は帰無仮説に基づかないために,有意差という概念は存在しない.得られた推定値の差が得られた2標準偏差よりも大きい場合に顕著であると判断する.今回得られた結果はいずれも顕著な結果であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{考察}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{情報状態,共有性}表\ref{tbl:S}で示したように,情報状態に関しては,旧情報の名詞句が新情報の名詞句に先行する傾向が確認された.また,共有性に関しては,共有の名詞句が想定可能の名詞句に先行し,想定可能の名詞句が非共有の名詞句に先行するという結果であった.より具体的には,旧情報/共有の名詞句が新情報/非共有の名詞句に先行している(\ref{info-a})のような文は,旧情報/共有の名詞句が新情報/非共有の名詞句に後続する(\ref{info-b})のような文よりも対象のコーパスにおいて多く出現する.対象としているコーパスはBCCWJであり,BCCWJが現代日本語の書き言葉について代表性を有していることを踏まえれば,この結果は現代日本語の書き言葉の特徴を示していること考えることができる\footnote{ただし,本稿で検討してるレジスタは新聞のみである.情報構造と語順の相関についてレジスタによって変わるという報告はないことから,情報構造と語順の相関がレジスタに(少なくとも大きくは)依存しないと考えられる.なお,以降もこれを前提とする.他のレジスタにおける詳細な検討は今後の課題としたい.}.\begin{exe}\ex\begin{xlist}\ex\label{info-a}[$_{旧情報/共有}$蓮舫さん]は[...]自分の[$_{新情報/非共有}$意見]を言った.\\\hfill(読売新聞[BCCWJ:PN1c\_00001])\ex\label{info-b}[$_{新情報/非共有}$海外派兵]とごう慢な外交がさらに[$_{旧情報/共有}$国]を弱らせていると[...]\\\hfill(毎日新聞[BCCWJ:PN4b\_00001])\end{xlist}\end{exe}これらの結果は,まさに文中で旧情報を前に置き新情報を後ろに置くという「旧から新への情報の流れ」\cite{Kuno1978}を支持している.これは(\ref{ON})のように定義されている.\begin{exe}\ex\label{ON}「旧から新への情報の流れ」(From-Old-To-NewPrinciple)\\文中の語順は,旧情報を表す要素から,新情報を表す要素へ進むのを原則とする.\\\hfill\cite[p.~59]{Kuno1978}\end{exe}\noindentこの原則により語順の選好性が説明され得る.\citeA{Kuno2004}に基づいて,英語の語順の選好性について説明する.(\ref{ONex})を見られたい.\begin{exe}\ex\label{ONex}\begin{xlist}\ex[]{\label{O-N}Johngavethegirlabook.}\ex[??]{\label{N-O}Johngaveagirlthebook.}\hfill\cite[p.~325]{Kuno2004}\end{xlist}\end{exe}\noindent\citeA{Kuno2004}は,英語の語順が自由であるとされる部分として,(\ref{ONex})のように直接目的語と間接目的語の間の語順に関して,この原則の有効性を検討している.(\ref{ONex})において,(\ref{O-N})は容認される一方で,(\ref{N-O})の容認性は著しく低下する.(\ref{O-N})では,間接目的語である\emph{thegirl}が談話上旧情報であり,新情報である直接目的語の\emph{abook}に先行している.これは(\ref{ON})で示した原則に従う語順である.しかし,(\ref{N-O})においては,新情報を表す間接目的語の\emph{agirl}が旧情報を表す直接目的語\emph{thebook}に先行している.これは(\ref{ON})で示した原則に反する語順であり,(\ref{N-O})の容認性の低さは「旧から新への情報の流れ」に帰着させることができる.以上のように,「旧から新への情報の流れ」は,英語における自由な語順における選好性のみならず,日本語における情報状態,および共有性についての語順の推定結果を予測するものである.さらに,情報状態,および共有性についての語順の推定結果は,機能的文眺望(FunctionalSentencePerspective)の研究で議論される,「伝達のダイナミズム」\cite{Firbas1971}を支持する.これは(\ref{CD})で示される概念である.\begin{exe}\ex\label{CD}「伝達のダイナミズム」(CommunicativeDynamism)\\BythedegreeoramountofCDcarriedbyalinguisticelement,Iunderstandtherelativeextenttowhichtheelementcontributestothedevelopmentofthecommunication,towhich,asitwere,it`pushesthecommunicationforward'.\\「ある言語要素によって運ばれるCDの量によって,その要素がコミュニケーションの発展に寄与する,いわばコミュニケーションを推し進める相対的な大きさがわかる.」\\\hfill\cite[p.~136]{Firbas1971}\end{exe}\noindent(\ref{CD})に従うと,文の要素は担う伝達情報の量に応じて少ない情報量のものから多いものへ順に並べられるというということになる.\citeA{Firbas1979}によれば,CDが小さい要素は文中の左方に配置され,CDが大きい要素は右方に配置される\footnote{なお,\citeA{Firbas1979}はこのような語順を``ordonatularis''「自然な語順」と呼んでいる.}.CDの大小は文脈への依存度によって決まってくる.旧情報/共有の名詞句が文脈依存度が相対的に高く,新情報/非共有の名詞句が相対的に文脈依存度が低いことはそれらの定義から明らかであるため,旧情報/共有の名詞句は相対的にCDが大きく,新情報/非共有の名詞句は相対的にCDが小さいことになる.このように考えると,「伝達のダイナミズム」は情報状態,および共有性についての語順の推定結果を予測しうる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定性}表\ref{tbl:S}の通り,定性については,定の名詞句が不定の名詞句に先行する傾向があるという結果であった.この結果は,(\ref{def-a})のような文は(\ref{def-b})よりも対象のコーパスにおいて多く出現することを意味しており,現代日本語の書き言葉の特徴を示していると考えられる.\begin{exe}\ex\begin{xlist}\ex\label{def-a}そんな薄い[$_{定}$かばん]じゃ[$_{不定}$遊び道具]も入らないよ\\\hfill(読売新聞[BCCWJ:PN1c\_00001])\ex\label{def-b}[$_{不定}$看護師=当時(五三)=]が、[...][$_{定}$病院駐車場]から車で連れ去られ[...]\\\hfill(中日新聞[BCCWJ:PN4f\_00001])\end{xlist}\end{exe}前述の「伝達のダイナミズム」\cite{Firbas1971,Firbas1979}は,定の名詞句と不定の名詞句の文中での分布についても説明を与えることができる.定,および不定の定義から,定の名詞句は相対的に文脈依存度が高く,不定の名詞句は相対的に文脈依存度が低いことがわかる.よって,前述のように文脈依存度によりCDの大小が決まり,CDの大小に応じて(自然な)語順が決まることを考えれば,文脈的依存度が相対的に高い定の名詞句が前方に現れやすく,逆に文脈的独立度が高い不定の名詞句が後方に現れやすいことが予測される.実際に,語順が自由であり,かつ冠詞による定性の表示を行わないという点で日本語と類似しているスラヴ系の言語では,かつてより定性と語順の関係が指摘されており\cite{Kramsky1972,Chvany1973,Szwedek1974},それは「伝達のダイナミズム」に沿うものである.例として,(\ref{Ru})のロシア語の例文を見られたい.\begin{exe}\ex\label{Ru}\begin{xlist}\ex\label{RuI}\gllNastalestojalalampa.\\ontablestoodlamp-{\scnom.}{\scindef}\\\ex\label{RuD}\gllLampastojalanastole.\\lamp-{\scnom.}{\scdef}stoodontable\\\trans「ランプがテーブルの上にあった.」\hfill\cite[p.~266]{Chvany1973}\end{xlist}\end{exe}\noindent(\ref{RuI})の主語\emph{lampa}「ランプ」は不定で解釈されやすく,(\ref{RuD})の主語\emph{lampa}は定で解釈されやすいとされる.これら2つの主語の違いは,文の前方に位置するか後方に位置するかという文中における位置のみである.定の名詞句が文中の前方の位置を占める傾向があり,不定の名詞句が後方の位置を占める傾向が見られる\footnote{なお,英語においても同様の傾向が見られると考えることもできる.例えば,(\ref{ONex})の例文では,直接目的語と間接目的語の冠詞による定性の表示から定の名詞句が相対的に前方に位置し,不定の名詞句が相対的に後方に位置することが確認できる.また,以下(ii)のような存在構文に見られる,定の名詞が出現できないという定性制限(definitenessrestriction)についてもこの傾向と類似したものであると考えられる.\begin{exe}\exi{(ii)}\begin{xlist}\ex[]{Thereisawolfatthedoor.}\ex[*]{Thereisthewolfatthedoor.}\hfill\cite{Milsark1977}\end{xlist}\end{exe}\noindent(iib)では定の名詞句を存在構文の主語にした際に非文になることが示されているが,(iii)で示すように,虚辞の\emph{there}を用いた存在構文でない形であれば容認される.\begin{exe}\exi{(iii)}Thewolfexistsatthedoor.\end{exe}\noindentしかしながら,(iib)と(iii)は,例えば(\ref{Ru})などとは異なり,相互に異なる文構造であるため,この点について結論を出すにはより詳細な検討が必要となる.}という表\ref{tbl:S}で示した結果から,日本語もスラヴ諸語と同様の傾向が見られることがわかる.さらに,それは「伝達のダイナミズム」によって説明され得るものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{有生性}有生性に関しては,有生の名詞が無生の名詞に先行する傾向があるという結果であった.この結果は,(\ref{ani-a})のような文が(\ref{ani-b})よりも対象のコーパスにおいて多く出現することを意味しており,現代日本語の書き言葉の特徴であると考えられる.\begin{exe}\ex\begin{xlist}\ex\label{ani-a}[$_{有生}$蓮舫さん]は[...]自分の[$_{無生}$意見]を言った.\\\hfill(読売新聞[BCCWJ:PN1c\_00001])\ex\label{ani-b}[$_{無生}$共同通信社]は今回審査を受ける九人の[$_{有生}$裁判官]にアンケートをした.\\\hfill(西日本新聞[BCCWJ:PN3g\_00001])\end{xlist}\end{exe}これは,有生の名詞が無生の名詞より階層が高いとする有生性階層に従う形となっている.例えば,\citeA{Silverstein1976}は,文の成立において名詞句の階層でより高い位置にあるものが主語となる文構造が優先されるとする.Silversteinの階層をもとに,\citeA{Dixon1979}や\citeA{Zubin1979}の研究などを受けて\citeA{Tsunoda1991}が修正した名詞句階層を図\ref{fig:H}に示す.図中の左方が階層の上位を,右方が下位を表す.図\ref{fig:H}においては,代名詞を除き,親族名詞,(有生の)固有名詞\footnote{ここで,固有名詞は「太郎」「花子」などの人間を指すもののみを指しており,無生の固有名詞は想定されていない\cite[p.39]{Tsunoda1991}.},人間名詞,動物名詞といった有生の名詞が,無生の名詞である無生物名詞(自然の力の名詞,抽象名詞,地名)よりも階層上で高い位置を占めることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-2ia9f2.eps}\end{center}\caption{名詞句階層}\label{fig:H}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%日本語の基本語順はSOVであると考えられており,スクランブリング等による語順の変更がない限り\footnote{スクランブリングなどが起こる場合についての詳細な検討は今後の課題である.},主語は他の要素より前方に現れる.そのため,有生の名詞句が無生の名詞句に先行するという本研究の結果は,実質的に有生の名詞句が主語に立ちやすいというSilversteinの名詞句階層と一致すると考えることができる.また,\citeA{Tsunoda1991}は名詞句階層において,親族名詞,固有名詞,人間名詞,動物名,自然の力の名詞,抽象名詞,地名といった多様な名詞の階層を想定しているが,少なくとも有生と無生という2項の対立に限定すれば,この階層の妥当性が統計的に確認されたといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
\label{Conc}本稿では,情報構造に関係する文法情報がどのように語順に影響を及ぼすのかについて調査するため,BCCWJ内の名詞句に対して付与された情報構造に関わる文法情報のタグ\cite{Miyauchi2018,宮内2018}の各値を利用し,値が付与された名詞句の文末からの距離をベイジアン線形混合モデル\cite{Sorensen2016}によりモデル化した結果を報告した.本研究では,名詞句は文中で,「旧情報$\rightarrow$新情報」,「共有$\rightarrow$想定可能$\rightarrow$非共有」,「定$\rightarrow$不定」,「有生$\rightarrow$無生」の順で並ぶという推定結果が得られた.これらの結果は,先行研究の「伝達のダイナミズム」\cite{Firbas1971}や「旧から新への情報の流れ」\cite{Kuno1978},「名詞句階層」\cite{Silverstein1976}を支持するものである.従来の機能主義的言語学の領域の成果を,データから統計的に検討したという点に本研究の貢献がある.なお,BCCWJ-InfoStrには,有情性,特定性,動作主性のタグも付与されている.有情性は有生性と,特定性は定性と強い相関\footnote{具体的には,有情性と有生性の間の$\kappa$係数は0.98であり,特定性と定性の間の$\kappa$係数は0.96である\cite{Miyauchi2018,宮内2018}.なお,\citeA{LandisKoch1977}の示した$\kappa$値を評価する基準では,0.81--1.00の値は「ほとんど完璧な一致」(AlmostPerfect)であるとされる.}があるために同時に入れると線形モデルにおいて多重共線性の問題があるために今回のモデル化から除外した.しかしながら,それぞれ相関がある情報構造のタグと同じ傾向があることが言える.また,予備調査においてはBCCWJ-InfoStrに含まれる動作主性についても統計分析を行ったが,件数が少なく統計的に顕著な傾向が見られなかった.今回選択したパラメータの単純な交互作用を含むモデルについても分析を行ったが,いずれのモデルも収束しなかった.このことから,各特徴量間の関係は不明である.今後,データ量を増やしたうえで,各特徴量間の関係を階層的にモデル化することで各特徴量間の関係を検討したい.\citeA{笹野-2017}は大規模ウェブコーパスを用いて日本語二重目的語構文の基本語順に関してさまざまな調査を行った.しかしながら,彼らの調査においては,情報の新旧の観点が取り入れられていないという問題点がある.\citeA{asahara-nambu-sano:2018:CogACLL}の共参照情報に基づく分析が示す通り,日本語の二重目的語構文の基本語順は既出の名詞句が先行する顕著な傾向があり,分類語彙表に基づく動詞や名詞の分類やヲ・ニの表層格においては特段の傾向が見られなかった.本研究は,同調査を任意の名詞句に拡張するとともに,情報構造を情報状態,共有性,定性,有生性の観点で整理したうえで,再分析したものである.\citeA{笹野-2017}で示されている「ニ格名詞が着点を表す場合は有生性を持つ名詞の方が「にを」語順をとりやすい」については,本研究の結果の有生名詞句が無生名詞句に先行するという結果に一致する.これらの結果から,日本語の格要素の語順については,ガ格以外においては本研究で取り扱った情報構造(情報状態・共有性・定性・有生性)がより強い影響を与える特徴であり,\citeA{笹野-2017}の調査においても情報構造を含めた再調査が必要であることを示唆する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,The16thInternationalConferenceofthePacificAssociationforComputationalLinguistics(PACLING2019)の発表``StatisticalApproachestoaCorrelationbetweenInformationStructureandWordOrdersofNounPhrasesinJapanese''\cite{Miyauchi2019}に基づいている.また,本研究の一部は国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」,JSPS科研費17J07534,19K23073,18K18519,17H00917,18H05521の助成を受けている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{09refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{宮内拓也}{%2019年東京外国語大学総合国際学研究科博士後期課程単位取得満期退学.国立国語研究所非常勤研究員,日本学術振興会特別研究員等を経て,2019年より東京大学大学院教育学研究科特任助教.修士(言語学).言語処理学会,日本言語学会,SlavicLinguisticsSociety各会員.}\bioauthor{浅原正幸}{%2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\end{biography}\biodate\end{document}
| |
V25N01-03
|
\section{はじめに}
オンラインショッピングでは出店者(以下,店舗と呼ぶ)と顔を合わせずに商品を購入することになるため,店舗とのやりとりは顧客満足度を左右する重要な要因となる.商品の購入を検討しているユーザにとって,商品を扱っている店舗が「どのような店舗か」という情報は,商品に関する情報と同じように重要である.例えば,以下に示す店舗A,Bであれば,多くのユーザが店舗Aから商品を購入したいと思うのではないだろうか.\begin{figure}[b]\begin{center}\includegraphics{25-1ia3f1.eps}\end{center}\hangcaption{楽天市場における店舗レビューの例.自由記述以外に6つの観点(品揃え,情報量,決済方法,スタッフの対応,梱包,配送)に対する購入者からの5段階評価(5が最高,1が最低)がメタデータとして付いている.自由記述部分を読むと,発送が遅れているにも関わらず,店舗から何の連絡も来ていないことがわかる.店舗からの連絡に関する評価は,評価対象となっている6つの観点では明確に捉えられていない.}\label{review}\end{figure}\begin{description}\item[店舗A:]こまめに連絡をとってくれ,迅速に商品を発送してくれる\item[店舗B:]何の連絡もなく,発注から1週間後に突然商品が届く\end{description}ユーザに対して店舗に関する情報を提供するため,楽天市場では商品レビューに加え,店舗に対するレビューの投稿・閲覧ができるようになっている.店舗レビューの例を図\ref{review}に示す.自由記述以外に6つの観点(品揃え,情報量,決済方法,スタッフの対応,梱包,配送)に対する購入者からの5段階評価(5が最高,1が最低)が閲覧可能である.この5段階評価の結果から店舗について知ることができるが,評価値からでは具体的にどう良かったのか,どう悪かったのかという情報は得られないのに加え,ここに挙がっている観点以外の情報も自由記述に含まれているため,店舗をより詳細に調べるには自由記述に目を通す必要がある.そのため,レビュー内の各文をその内容および肯定,否定といった評価極性に応じて分類することができれば,店舗の良い点,悪い点などユーザが知りたい情報へ効率良くアクセスできるようになり,今まであった負担を軽減することが期待できる.このような分類は,オンラインショッピングサイトの運営側にとっても重要である.例えば楽天では,より安心して商品を購入してもらえるように,ユーザに対する店舗の対応をモニタリングしており,その判断材料の1つとして店舗レビューの自由記述部分を用いている.そのため,レビューに含まれる各文を自動的に分類することで,問題となる対応について述べられた店舗レビューを効率良く発見できるようになる.こうした背景から,我々は店舗レビュー中の各文を記述されている内容(以下,アスペクトと呼ぶ)およびその評価極性(肯定,否定)に応じて分類するシステムの開発を行った.店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでないため,まず無作為に選び出した店舗レビュー100件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した.その結果,14種類のアスペクトについて書かれていることがわかった.次いでこの調査結果に基づき,新しく選び出した1,510件の店舗レビュー(5,277文)に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文をアスペクトおよびその評価極性に分類するシステムを開発した.アスペクト分類の際は,2つの異なる機械学習手法により得られた結果を考慮することで,再現率を犠牲にはするものの,1つの手法で分類する場合より高い精度を実現している.このように精度を重視した理由は,システムの結果をサービスや社内ツールとして実用することを考えた場合,低精度で網羅的な結果が得られるよりも,網羅的ではないが高精度で確実な結果が得られた方が望ましい場合が多いためである.例えば1つの機能として実サービスに導入することを考えた際,誤った分類結果が目立つと機能に対するユーザの信頼を失う要因となる.このような事態を回避するため,本手法では精度を重視した.以降,本稿では店舗レビュー中に記述されているアスペクト,機械学習を使ったアスペクト・評価極性の分類手法について述べた後,構築した店舗レビュー分析システムについて述べる.
\section{店舗レビューには何が書かれているか?}
\label{mentions}調査にあたり,まず楽天市場の店舗レビューを評価が高いものと低いものに分類した.具体的には,各店舗レビューに含まれる6つの評価観点に対する評価値の平均を求め,値が4.5以上のものを高評価,2.0以下のものを低評価レビューとした.続いてレビューを「\textbackslashn」「。」「!」「?」「‥」「…」「...」「・・・」を手がかりに文に区切った\footnote{ただし「」内に出現する場合は区切らない.また(1)直前の文が「:」もしくは「、」で終了している場合,または(2)直前の文が「?」又は「!」で終了し,当該文が「が」「とても」「とりあ」「ところ」で始まっている場合は当該文を直前の文に連結した.}.そして,高評価,低評価に分類されたレビューのうち,3文以上含むものを無作為に50件ずつ選びだし,それらに記述されている内容を調査した.対象となったレビュー100件には487文含まれていた.3文以上含むレビューを調査対象とした理由は,(1)「大変良かったです。」のように一言だけ書かれたレビューを除くため,および(2)文数が多いレビューほど具体的にアスペクトを記述していると考えたためである.\begin{table}[p]\vspace{2\Cvs}\caption{店舗レビューで言及されるアスペクト}\label{aspect-list}\input{03table01.tex}\end{table}調査により明らかとなったアスペクトを表\ref{aspect-list}に示す.実際の調査では決済方法に関する記述は見当たらなかったが,決済方法に関する観点が店舗レビューのメタデータとして含まれるため追加した.表よりメール・電話などの店舗とのやりとり,店舗に対する評価,再度購入したいと思ったかどうか,キャンセル・返品時の対応など,先述した6つの評価観点では明確に捉えられていないアスペクトについてレビュー中で言及されていることがわかる.また店舗レビューではあるが,商品やその価格に関する言及もあることがわかる.
\section{アスペクトおよび評価極性の自動分類}
\label{methodology}表\ref{aspect-list}のアスペクトをもとに,新しく無作為に選び出した店舗レビュー1,510件(5,277文)に対して人手でアノテーションを行い,これに基づいてアスペクトおよびその評価極性(肯定,中立,否定)を分類するモデルを構築した.本節ではこれらについて述べる.\subsection{学習データの作成}\label{training-data}まず\ref{mentions}節で述べた方法で,店舗レビューを高評価および低評価に分類し,文分割処理を行った.そして表\ref{datastats}に示す割合でレビューを無作為に選びだし,アノテーションの対象とした.\begin{table}[t]\caption{アノテーションの対象とした店舗レビューの統計}\label{datastats}\input{03table02.tex}\end{table}アノテーションは1名のアノテータで行った.まず調査に用いたレビュー100件を使って訓練した後,5,277文に対して該当する全てのアスペクトおよびその評価極性を付与するよう依頼した.アスペクトに「その他」を設けてあるため各文には必ず1つ以上のアスペクトおよびその評価極性が付与されることに注意されたい.また文単体ではアスペクト・評価極性の同定が難しい場合は,前後の文脈を利用するように指示した.そのため,同じ文であっても前後の文脈により付与されるアスペクト・評価極性が異なる場合がある.以下に,文脈によってアスペクト・評価極性の判定結果が異なる例を示す(「/」は文の境界を表す).\begin{description}\item[レビューA:]欲しかった商品の在庫がなかったのにすぐ手配してくれてとても助かりました。/注文した翌々日に届きました。/{\bf驚きました。}\item[レビューB:]初めてこの店舗を利用しましたが、梱包が最低。/{\bf驚きました。}/商品にクッションもされず、コードが箱から出ちゃって、一度使うのに出した物を、また箱に戻してキレイに戻らなくて、セロテープでペタペタ貼ってあるように見えました。/人となりが、解ってしまう様な店舗です。\end{description}\noindentレビューA,Bは文「驚きました。」をそれぞれ含んでいるが,そのアスペクト・評価極性は異っており,レビューAは(配送,肯定),Bは(梱包,否定)が適切なアノテーションである.\begin{table}[t]\caption{店舗レビュー1,510件(5,277文)中に言及されるアスペクトの評価極性の分布}\label{topic}\input{03table03.tex}\end{table}5,277文における各アスペクトおよびそれらの評価極性の分布を表\ref{topic}に示す.1文に対して複数のアスペクト,評価極性が付与されることがあるため実際の文数よりもアノテーションの件数は多くなっている.連絡,店舗,再購入,情報,商品価格など多くのアスペクトで評価極性の分布に偏りが見られる.\subsection{分類モデルの構築}\label{models}\ref{training-data}節で構築したアスペクトおよび評価極性がアノテートされたデータを使いアスペクト分類モデルおよび評価極性分類モデルを構築する.表\ref{topic}からわかるように,評価極性分類モデルの構築に十分な量の事例数が確保できないアスペクトがあるため,アスペクト分類および評価極性分類のモデル構築は独立に行った.分類にあたり,文ごとに分類を行う文単体モデル,およびレビュー内の文に対する系列ラベリング問題とみなし,レビュー単位で各文の分類を行う文書モデルの2種類を考えた.文書モデルを設けた理由は,先述の「驚きました。」の例のように前後の文脈を利用しないとアスペクト・評価極性の同定が難しい曖昧な文があるためである.\subsubsection{アスペクトの分類}\label{topic-classificaiton}より高い精度(Precision)を得るため,文単体モデルおよび文書モデルの両方を構築し,両モデルにより推定されたアスペクトが同じ場合のみアスペクトを出力した.そのため,現状では1文に対して1つのアスペクトしか推定できない.複数のアスペクトを推定する方法については今後検討する予定である.文単体モデルおよび文書モデルでは以下に示す共通の素性を用いた.\begin{table}[b]\caption{アスペクト分類用辞書の例(全171件)}\label{feature-topic}\input{03table04.tex}\end{table}\begin{description}\item[単語素性:]品詞の大分類が名詞\footnote{\ref{eval}節で述べるように形態素解析をMeCab,NAISTJapanesedictionaryを利用して行っているが,その際に品詞の細分類が非自立のものは除いた.},形容詞,動詞,感動詞,副詞となる単語の原形を素性とした.ただし接尾辞が後続している場合は,「良心:的」のように当該単語と接尾辞を連結した.また当該単語の直前が接頭辞「未」「不」,もしくは次の単語素性になりえる語(最後方の語の場合は文末)との間に否定を表す語(「ない」「無い」「無し」,助動詞「ぬ」「ん」のいずれか)が存在する場合は,否定を表すフラグを付与し,肯定の場合と区別した.例えば文「余計な梱包もなく、ごみも出なくて助かります。」からは「余計」「梱包【否定】」「ごみ」「出る【否定】」「助かる」が単語素性として抽出される.\item[辞書素性:]人手で構築した辞書の要素と一致する形態素(列)が文中に含まれていれば,要素に対応するラベルを素性とする.表\ref{feature-topic}に構築した辞書の例を示す.\end{description}\subsubsection{評価極性の分類}\label{polarity-classificaiton}アスペクトが推定された文に対してのみ分類を行う.同じ評価極性の文が続けて現れやすい文脈一貫性\cite{nasukawa_2004,kanayama2006}を利用するため,評価極性の判定には文書モデルを採用した.文単体モデルと併用しなかった理由は,\ref{eval}節で示すように文書モデルだけである程度の精度が達成できたこと,および全体としてのカバレージがさらに下がることを避けるためである.評価極性の分類には以下の素性を用いた.\begin{description}\item[単語素性:]アスペクト分類と同じ.\item[接続詞素性:]逆接の関係を表す接続詞「でも」「しかし」「だけど」で文が始まっているかどうか.これらの接続詞は,それ以前の文と評価極性が反転することがあるために素性として扱った.\cite{nasukawa_2004,kanayama2006,inui2013}.\item[評価極性素性:]文内に含まれる肯定的な語,否定的な語の数.\end{description}\begin{table}[b]\caption{肯定,否定に分類された表現の例}\label{positive-negative-dict}\input{03table05.tex}\end{table}\noindent評価極性素性を抽出するにあたり,次の方法で単語に対してポジティブ,もしくはネガティブの度合いを計算した.まず2016年に楽天に投稿された店舗レビューの中から,5文以上含む高評価,低評価レビューを無作為に5万件ずつ集めた.文分割方法および高評価,低評価の判定方法は\ref{mentions}節と同じである.次に集められたレビューから単語素性と同様の方法で単語を抽出し,各語について高評価レビュー中での文書頻度$df_{pos}$,低評価レビュー中での文書頻度$df_{neg}$を算出した.そして,$df_{pos}>df_{neg}$であれば肯定的,それ以外は否定的として各語の評価極性を決定した.この時,$df_{pos}$と$df_{neg}$の和が100未満のものは低頻度語として見なし削除した.この結果,806表現が肯定的,2,102表現が否定的として判定された.得られた肯定的な語,否定的な語の一部を表\ref{positive-negative-dict}に示す.表を見ると「ゴム(肯定的)」や「始める(否定的)」のように直感的でない事例も確認できるが,評価極性素性としては各単語の出現をそのまま用いるのではなく,各評価極性に分類される語の頻度を集計してから用いているため,このような直感的でない事例による影響は小さいと考えられる.
\section{実験}
本節では,\ref{training-data}節で構築したアノテーションデータの評価,\ref{topic-classificaiton}節,\ref{polarity-classificaiton}節で述べた分類手法の性能について報告する.\subsection{$\kappa$統計量に基づくアノテーションの評価}\ref{training-data}節で述べたアノテーション済の1,510件のレビューから高評価レビュー100件,低評価レビュー100件を無作為に選びだし,別の作業者に改めてアスペクトおよび評価極性のアノテーションを依頼した.この200件のレビューには752文含まれていた.作業者には\ref{mentions}節の調査に用いたレビュー100件を使って事前に訓練してからアノテーションに取り組んでもらった.今回の作業者をA,1,510件のレビューに対してアノテーションを実施した作業者をBとすると,作業者Aが752文に対して付与したラベル(アスペクトとその評価極性)の異なり数は169,作業者Bは168であった\footnote{例えば,1文に対して配送\_肯定,梱包\_否定がアノテーションされていた場合,それぞれに分解することはせず,「配送\_肯定,梱包\_否定」を1つのラベルとして計数した.}.またどちらの作業者にも共通するラベルの異なり数は98であった.$\kappa$統計量\cite{kappa}を計算する際,複数のラベルがアノテートされている文については,作業者間で全てのラベルが一致しているかどうかをチェックした.その結果,作業者間の$\kappa$統計量は0.562であった.これは{\itmoderateagreement}とされる値である.\subsection{アスペクト分類および極性判定の評価}\label{eval}\ref{training-data}節で作成したデータをもとに10分割交差検定を行い分類手法の性能を評価した.評価の際,アスペクト「システム」および「決済方法」は事例数が少ないため学習が困難と判断し,「その他」として扱った.文単体モデルの学習にはopal\footnote{http://www.tkl.iis.u-tokyo.ac.jp/\textasciitildeynaga/opal/}を,文書モデルの学習にはCRFsuite\footnote{http://www.chokkan.org/software/crfsuite/}を用いた.opalで学習する際は2次の多項式カーネルを用い,他のパラメータはデフォルトを利用し,CRFsuiteでの学習は全てデフォルトのパラメータを利用した.素性を抽出する際は前処理としてMeCab\footnote{http://taku910.github.io/mecab/}およびNAISTJapaneseDictionary\footnote{https://ja.osdn.net/projects/naist-jdic/}を使って文を形態素解析した.モデルを学習する際,複数のアスペクト,評価極性がアノテートされた文は,その全てのアスペクト・評価極性の訓練事例とした.例えば,図\ref{lattice}は複数のアスペクトを持つ文を含むレビューの例である.文単体モデルではs$_3$を配送,梱包の事例として扱った.一方で文書モデルの場合は,系列「その他$\to$商品$\to$配送$\to$再購入」「その他$\to$商品$\to$梱包$\to$再購入」を学習データとして利用した\footnote{評価極性分類の際も同様に全て系列を利用した.}.\begin{figure}[b]\begin{center}\includegraphics[width=407pt]{25-1ia3f2.eps}\end{center}\caption{複数のアスペクトが付与された文の例}\label{lattice}\end{figure}\begin{table}[b]\caption{アスペクト分類(評価極性判定込み)の評価結果}\label{performance}\input{03table06.tex}\vspace{4pt}\small斜体はデータセット中での事例数が100件未満のものを意味する.\end{table}\begin{table}[t]\noindent\begin{minipage}[t]{0.5\columnwidth}\caption{アスペクト分類のみの評価結果}\label{performance_aspect}\input{03table07.tex}\end{minipage}\hfill\begin{minipage}[t]{0.4\columnwidth}\caption{評価極性判定のみの評価結果}\label{performance_pn}\input{03table08.tex}\end{minipage}\end{table}評価極性判定を考慮したアスペクト分類の評価結果を表\ref{performance},アスペクト分類単体の評価結果を表\ref{performance_aspect},極性判定単体の評価結果を表\ref{performance_pn}にそれぞれ示す.複数の正解ラベルを持つ文がある一方で,\ref{topic-classificaiton}節で述べたように提案手法は1つの文に対して1つのアスペクト,評価極性しか出力できない.そこで部分一致を考慮するために,各表の精度$P$,再現率$R$を以下の方法により求め,${\rmF_1}$値は以下の式において$\beta=1$として計算した.{\allowdisplaybreaks\begin{gather*}P=\frac{提案手法がラベルlを出力した際,正解ラベルの集合にlが含まれていた文の数}{提案手法がlを出力した文の数}\\[1ex]R=\frac{提案手法がラベルlを出力した際,正解ラベルの集合にlが含まれていた文の数}{lを正解ラベルの集合に含む文の数}\\[1ex]F_{\beta}=(1+\beta^2)\times\frac{P\timesR}{(\beta^2\timesP)+R}\end{gather*}}ここでラベル$l$は評価極性付きアスペクト,アスペクト単体,評価極性単体のいずれかである.表\ref{performance},表\ref{performance_pn}より,肯定,否定に比べ中立の性能が低いことがわかる.表\ref{performance}では事例数が100件未満のものを斜体で表示しており,これを見ると訓練事例数が少ないアスペクトが多く,これらは性能が低いことがわかる.このことが他の評価極性に比べて性能が低い理由と考えられる.また表\ref{performance},表\ref{performance_aspect}より,アスペクト「商品」「その他」に関して性能が低いことがわかる.これは(1)そもそも店舗レビューは店舗について記述することが前提となっているため商品に関する記述が少ない,(2)楽天では多種多様な商品が販売されており,それらをカバーするだけの商品に関する十分な量のテキストが学習データに含まれていないためと考えられる.「その他」についても様々な事柄について言及した文がこのアスペクトに分類されており,そのバリエーションの多さゆえに十分学習できておらず性能が低くなったと考えられる.\ref{topic-classificaiton}節で述べたように,より高い精度を得るために,文単体モデルおよび文書モデルの両方の出力が一致した場合のみ,推定されたアスペクトを出力している.これが実際にどの程度の効果があるのかを確認した.表\ref{sent-doc-models}に各モデル単体での性能および組み合わせた場合の性能を示す.${\rmF_1}$値に加え,精度を重視した尺度である${\rmF_{0.5}}$値もあわせて示した.全てのアスペクトにおいて,両モデルを組み合わせて用いることで精度を改善できていることが表よりわかる.より具体的には,組み合わせることで,再現率がマクロ平均で8.6\%,マイクロ平均で9.1\%それぞれ下がるが,それと引き換えに精度をマクロ平均で7.4\%,マイクロ平均で8.2\%改善できている.また${\rmF_{0.5}}$値の値も,マクロ平均,マイクロ平均ともに改善されていることがわかる.\begin{table}[t]\caption{文単体モデルおよび文書モデルの評価結果}\label{sent-doc-models}\input{03table09.tex}\end{table}評価極性判定の精度については表\ref{performance_pn}に示したとおりであるが,実応用を考えた時,肯定的な文を誤って否定的に分類してしまうケース,もしくはその反対のケースは致命的なエラーとなる.そこでこのような事例数がどの程度あるか調査した.具体的には,評価極性が1つのみアノテーションされた4,789文を対象に両ケースの事例数を調べた.その結果,肯定を誤って否定と判定してしまった件数は99件(2.1\%),その反対のケースは52件(1.1\%)であった.これより評価極性判定を極端に誤るような致命的なエラーはほとんど起きていないことがわかる.図\ref{senti_error}に判定を極端に誤った文の例を示す.店舗が好意で行った特別な梱包方法に対し,「送れない」などの表現が引き金となって評価極性判定を誤ったと考えられる.\begin{figure}[t]\vspace{0.5\Cvs}\begin{center}\includegraphics[width=412pt]{25-1ia3f3.eps}\end{center}\caption{評価極性判定を極端に誤った文の例}\label{senti_error}\end{figure}
\section{考察}
\ref{aspect-design-analysis}節では\ref{training-data}節で設計したアスペクトの妥当性について考察する.続いて,アスペクト「商品」「その他」の分類において,そのバリエーションの多さゆえに現状の学習データ量では不十分であることが示唆される結果が評価実験により得られたため,アスペクト分類の性能と学習データの量について調査した.\ref{aspect-learning-curve}節ではこの結果について述べる.\ref{error-analysis}節では,前節で行った実験によりアスペクト分類の方が評価極性分類に比べ性能が低いことがわかったため,アスペクト分類の誤り分析について報告する.\subsection{設計したアスペクトの分析}\label{aspect-design-analysis}表\ref{topic}を見ると,7,113件のアノテーションのうち,6,416件が「その他」以外の13個のアスペクトでカバーされていることがわかる.これは全アノテーション数の90.2\%にあたる.この結果から,店舗レビュー中の大多数の文に対して「その他」以外のアスペクトが付与されていることがわかり,これは定義したアスペクトが店舗レビューに記載された内容を代表するものになっていることを示唆していると考えられる.「決済方法」は,\ref{mentions}節の調査では見つからなかったが,決済方法に関する評価観点が店舗レビューのメタデータに含まれているため追加したものである.1,510件の店舗レビューを対象にアノテーションを実施したところ,「決済方法」が付与された文数は9件であり,楽天のレビューにおいてメタデータとして特別扱いされているものの,それに関する記述はレビュー内にはほとんどないことがわかる.このことから,少なくとも楽天の店舗レビューにおいては,「決済方法」に関しては自由記述部分よりもメタデータを用いて分析する方が良いことがわかる.類似の既存研究と比較すると,レビューではないが,大野ら\cite{ohno_2005}が,ネットオークションサイトの出品者に対する評価コメントを調査し13種類のアスペクトを定義している.これには「配送」「梱包」「連絡」「商品」「対応」など今回我々が設計したアスペクトとの重なりも見られる一方で,「お礼」「挨拶」「謝罪」「入金」「出品者」など評価コメント特有と考えられるアスペクトも含まれている.反対に,我々が設計した「店舗」「商品の在庫・種類」「キャンセル・返品」「情報」「商品価格」「システム」「決済方法」は,大野らのアスペクトの定義に類似したものはなく,店舗レビューに特有のものであると考えられる.これらのアスペクトが付与された文は全体(5,277文)の34.6\%に相当する1,826文あり,店舗レビューのアスペクトとして重要であることがわかる.\subsection{アスペクト分類の学習曲線}\label{aspect-learning-curve}\ref{eval}節の実験より,アスペクト「商品」「その他」の分類については記述内容のバリエーションが多く,現状の学習データでは量が不足しているため性能が低い可能性が示唆された.本節では,これを確認するため「商品」「その他」について学習データの量を変えながら,性能がどのように変化するのかを確認する.具体的には,1,510件の評価データセットから無作為に選び出した510件を評価用データ,残りの1,000件を学習用データとし,学習データに用いるレビューの数を100件ずつ増やした時の${\rmF_1}$値を調査した.\begin{figure}[t]\begin{center}\includegraphics{25-1ia3f4.eps}\end{center}\caption{アスペクト分類の学習曲線}\label{lc}\end{figure}調査の結果得られた学習曲線を図\ref{lc}に示す.図には「商品」「その他」に加え,これらと事例数が近い「店舗」および「再購入」の結果,さらに参考として全体(マクロ平均)の${\rmF_1}$値の推移も含めた.図よりアスペクト「商品」「その他」は,「店舗」「再購入」に比べ,事例数が近いにも関わらず性能が低いことがわかる.これは「店舗」「再購入」に比べ「商品」「その他」は事例のバラつきが多く,難しい分類問題になっていることが原因と考えられる.また「商品」「その他」「全体」を見ると,学習に用いる事例数を増やすことで性能の改善が見られる.改善の幅は緩やかであるが,分類に用いる素性の工夫や複雑なモデルを用いるなどすることでその幅を大きくすることが期待できる.\subsection{アスペクト分類の誤り分析}\label{error-analysis}無作為に選んだ1,358件のレビュー(4,740文)で学習を行い,残り152件(537文)をアスペクト分類した際の誤りについて分析した.分析の対象となった事例は63件であり,各事例には1つ以上のエラータイプを付与した.分析の結果を表\ref{error}に示す.最も数が多かったタイプは「分類に必要な素性が得られていない」で42件あった.例えば「欲しい色とサイズもあって、良かったです。」は「商品の在庫・種類」に分類されるべきであるが,提案手法は「商品」に分類していた.抽出された素性と各アスペクトの関連を調べたところ,「商品」と関連の強い素性が多く,「商品の在庫・種類」と関連のある素性はなかった.また商品に関する記述を含む文はアスペクト「商品」と関連の強い素性が抽出されていない傾向にあった.これは,楽天で多様な商品を扱っていること,店舗レビューの性質上,商品に関する記述はメインでないことから十分な量の訓練事例が得られていないためと考えられる.「商品」以外では「親戚宅への訪問土産に購入しました。」のような購入背景,「重さのあるものも家の玄関に届くのでとっても助かっています。」のような感想を述べた文もこのタイプのエラーに分類された.購入背景や感想はユーザによって様々であるため,これらを正しく分類するためには,学習データを増やすほか,これらを認識するモデルを別途用意するなどの対応が考えられる.\begin{table}[t]\caption{エラーのタイプおよびその事例数}\label{error}\input{03table10.tex}\end{table}次に多かったタイプは「文単体では分類が難しい」であり,21件が該当した.例えば文「あきれます。」は商品にも店舗にも当てはまる表現であり,この文を正しいアスペクトに分類するためには,この文の前後にどのような記述があるのかを捉える必要がある.現状では文単体モデル,文書モデルともに明確な素性として前後の文脈の内容を用いていない.このタイプのエラーを減らすには,何らかの方法で前後の文脈を取り込む素性が必要になる.また「アノテーションの誤り」も確認された.例えば文「別に目立つほど悪い点は無かったです。」は「その他」が付与されていたが,提案手法は「商品」に分類していた.レビューを確認するとこれは商品についての記述であり「商品」が付与されることが妥当である.このようなエラーを減らすには複数人のアノテータにアノテーションを依頼し多数決をとる,または分類基準を精緻にするなどが考えられる.
\section{関連研究}
従来より評判分析は多くの研究がなされてきており\cite{inui_2006,pang2008},その対象はレビューのみならず,新聞記事,ブログ,Twitterなどのマイクロブログと様々である\cite{seki_2013}.レビューを対象とした評判分析研究では,映画\cite{pang_2002},宿泊施設\cite{wang_2010},商品\cite{ding_2008}に対して書かれたレビューに基づくデータセットが利用されている.また,意味解析に関する国際的評価型プロジェクトSemEvalにおいて2014年より毎年実施されているAspectBasedSentimentAnalysisにおいてもデータセットが提供されており,その内容はノートパソコン,マウス,レストラン,デジタルカメラなど7種類の対象について英語,中国語,ドイツ語など8言語で書かれたレビューである\cite{semeval_2016}.オンラインショッピングサイトを利用して商品を購入する際,商品レビューに加えて「どの店舗から購入するのか」も重要な指針の1つであるが,店舗の評判が記載されたレビューに基づくデータセットはない.日本語で書かれたレビューを対象にした研究ではAndoら\cite{ando_2012},浅野ら\cite{asano2014},Tsunodaら\cite{tsunoda_2015}が宿泊施設レビューを対象に,記述されているアスペクトの調査や,特定のタスクを対象とした宿泊施設に関するアスペクトの設計を行っている.安藤ら\cite{ando2013}は商品レビューを対象に,そこに記述されている内容を調査し,23種類のアスペクトが書かれていると報告している.また,レビューではないが,Kobayashiら\cite{kobayashi_2007}はレストラン,車,携帯電話,ゲームについて書かれたブログを対象に,アスペクトを含む7種類の情報を付与した意見タグ付きコーパスを構築している.大野ら\cite{ohno_2005}は,ネットオークションサイトの出品者に対する評価コメントの要約を目的に,コメントの記述内容を調査し13種類のアスペクトを定義している.いずれの研究もレビューやブログ,オークション出品者に対する評価コメントに記載されているアスペクトの調査や,その(自動)分類という点で本研究と類似しているが,対象が宿泊施設,商品・製品,レストラン,オークション出品者であり本研究で対象とした店舗ではない.従来よりアスペクト分類に関する研究は数多く行われている.例えば先述したSemEvalではアスペクト分類およびその評価極性の判定というタスクが設定されており,対象は異なるものの解こうとしている問題は同じである.今回の分類手法はごく単純なものであるため,既存研究の成果(例えば論文\cite{wang_2016}等)を取り入れることで今よりも高い精度で分類を行える可能性がある.山下ら\cite{yamashita2016}は商品レビューを商品について記述したものと,店舗について記述したものに分類する手法を提案している.このような分類を行う背景には,商品レビューにも関わらず店舗について記述したレビューの存在があり,これらは純粋に商品について知りたいユーザや,商品に関する評判を抽出したいサイト運営者にとってノイズとなるため自動検出したいという要望がある.同様に新里ら\cite{shinzato_2015}の研究においても,商品の使用感を記述した文を抽出する際に,商品レビュー中に存在する店舗に関しての言及が問題となることが報告されている.そのため,商品レビューに対して事前に今回構築したアスペクト分類モデルを適用することで,商品に関する記述だけを精度良く集めることが可能になり,これらの研究の改善が見込める.評判分析システムに関する研究として富田らの研究がある\cite{tomita_2012}.彼らのシステムはブログを対象に評判分析を行い,任意のキーワードに対する評判を整理してユーザに提示するものである.評判抽出の際は係り受け解析を行い,アスペクトに相当する単語と,その係り先になっている単語の組を評判として抽出する.そのため,係り受け解析に失敗した場合や,文をまたいで評判が記述されている場合は評判を抽出できない.我々の手法は文を単位にアスペクト分類を行っており,その際は当該文から得られる情報だけでなく,同一レビュー内の他の文から得られるアスペクトの遷移情報も用いている.このため,当該文内にアスペクトに相当する語が含まれていない場合であっても正しく分類することが可能である.また,係り受け解析を用いていないため,係り受け解析に失敗するような長文や構文的に複雑な文であっても正しく分類できる可能性がある.しかしながら,富田らのシステムは1文から複数の評判を抽出することができるのに対し,我々の手法は1つの文を複数のアスペクトに分類することができないという欠点もある.
\section{店舗レビュー分析システム}
\label{application}これまでに述べた技術を用いて店舗レビュー分析システムを開発した.本節ではシステムの概要,およびその性能について報告する.\subsection{システムの概要}開発した店舗レビュー分析システムの実行例を図\ref{screenshot}に示す.分析を行いたい店舗名およびアスペクトをクエリとしてユーザより受け取ると,システムは条件に一致するレビューをその評価極性分類結果と共に出力する.過去2年分の店舗レビューおよびその分類結果をApacheSolr\footnote{http://lucene.apache.org/solr/}を用いてインデキシングしており,任意の店舗名およびアスペクト・評価極性(肯定,否定)の組み合わせに対して分類結果を検索できるようになっている.\begin{figure}[t]\begin{center}\includegraphics{25-1ia3f5.eps}\end{center}\hangcaption{店舗レビュー分析システムの実行例(クエリとして与えた店舗名およびレビューを投稿したユーザ名は伏せてある).画面右には,自動分析結果に基づきグラフ化した肯定的レビュー,否定的レビューの割合の時系列変化が表示される.画面左にはクエリとして与えられたアスペクトに分類された肯定的,否定的な文を含むレビューの一覧が表示される.画面では「配送」に関する肯定的な文を含むレビューのリストが表示されている.}\label{screenshot}\end{figure}画面右側には,分類結果に基づく肯定的レビュー,否定的レビューの割合の時系列変化がグラフで表示される.グラフ中の実線は肯定的,破線は否定的なレビューの変化をそれぞれ表しており,線の太さは細いものが1週間分の,太いものが3ヶ月分の変化の単純移動平均を示している.このグラフを確認することで,ユーザの調べたいアスペクトに関する評判の推移が簡単に把握できるようになっている.例えば図の場合,一時期配送に関する否定的なレビューが増大したが,現在は収束していることが読み取れる.一方,画面左側にはクエリに一致する店舗レビューのリストが,肯定,否定に分かれて表示される.肯定,否定の切り替えはリスト上部のタブをクリックすることでできる.図では肯定的なレビューが表示されており,クエリとして与えられたアスペクトかつ肯定的と自動的に分類された文がハイライトされている.これにより,ユーザは任意のアスペクトについて具体的にどう良かったのか(またはどう悪かったのか)を簡単に調べることができる.別の使い方として,ある店舗からの購入をやめた理由の検索が挙げられる.以下はある店舗に対して書かれたレビューのうち,再購入-否定に分類された文を含むものである.\begin{itemize}\itemX月X日に注文しましたが、\underline{まだ届きません}。/\underline{連絡もないし...}/こんなに遅い通販て珍しいですね。/どこ頼んでも2〜3日で届きます。/{\bf2度と注文しません。}\item{\bfもう二度と購入しません。}/間違えてすぐにショップにメールしたのに、発送してしまったとの事。/私が注文間違えた事に問題はありますが、\underline{キャンセル出来ない}ところでは購入しません。\end{itemize}太字は再購入-否定に分類された文,下線の引かれた文・表現は購入をやめた理由について記述しているものである.このような理由について記述した箇所を自動的に特定することは今後の課題であるが,現状のシステムを使って「再購入-否定」を含むレビューを検索することで,再購入しない理由を述べたレビューを効率よく集めることができる.このような再購入をやめた理由は運営サイト側にとって大変貴重なデータであり,店舗やサービスの改善など,いろいろな場面で役立てることが可能である.以上,ここで挙げた任意のアスペクト・評価極性について記述された文(を含むレビュー)の検索や,該当する文のハイライト機能,さらには検索結果に基づくレビューの活用は,図\ref{review}に示したレビューをユーザから得られる5段階評価のみで管理していては実現できない.本稿で述べた手法を用いてレビュー本文を構造化することで初めてこれらが実現可能になる点を強調したい.\subsection{性能評価}店舗の良い点,悪い点を調べようとする際,従来はレビュー本文を1つずつユーザは読む必要があった.しかしながら,図\ref{screenshot}に挙げたシステムを用いることで,ユーザは任意のアスペクト・評価極性について記述されたレビューに簡単にアクセスできるようになる.そこで,どのくらいの精度,再現率で条件に一致するレビューにアクセスできるのかを調査した.具体的には,\ref{training-data}節で構築した学習データ中のそれぞれのレビューについて,各文に付与されたアスペクト-評価極性のラベルを集約し,それをレビューに対するラベルと見なした.例えば,図\ref{aggregation}のレビューであれば,「配送-否定」「対応-肯定」をレビューに対するラベルと見なす.\begin{figure}[b]\begin{center}\includegraphics[width=348pt]{25-1ia3f6.eps}\end{center}\hangcaption{店舗レビューの例.各文についたラベルを集約し,「配送-否定」,「対応-肯定」をこのレビューに対するラベルと見なす.}\label{aggregation}\end{figure}実験結果を表\ref{system-performance}に示す.表のマイクロ平均を見ると,否定的なものに比べ,肯定的なアスペクトを含むレビューをより高い精度で収集できることがわかる.一方で,マクロ平均に関しては,「キャンセル・返品-肯定」に関して性能が出ていないため,否定的なアスペクトを含むレビューの分類の方が${\rmF_1}$値で高い結果となった.また表\ref{performance}の文単位での評価結果と比べると,精度の改善に比べ,再現率の改善の方が大きい.これはラベルを集約した結果,同一の評価極性付きアスペクトを複数含むレビューにおいて,そのいずれか1つを分類することができれば良くなったためであると考えられる.\begin{table}[t]\caption{レビュー単位で評価した場合の評価結果}\label{system-performance}\input{03table11.tex}\end{table}
\section{おわりに}
本稿では,オンラインショッピングサイト出店者(店舗)に対するレビュー中の各文を,記述されている内容(アスペクト)およびその評価極性(肯定,否定)に応じて分類するシステムについて述べた.店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでなかったため,まず無作為に選び出した店舗レビュー100件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した.その結果,配送や梱包など14種類のアスペクトについて書かれていることがわかった.このうち,店舗とのやり取り,店舗に対する評価,再度購入したいと思ったかどうか,キャンセル・返品時の対応などは,店舗レビューがもともとメタデータとして持っているアスペクトには含まれていないものであり,自由記述部分には店舗に対するより詳細な評価が含まれていることがわかった.次いでこの調査結果に基づき,新しく選び出した1,510件の店舗レビュー(5,277文)に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文をアスペクトおよびその評価極性に分類する店舗レビュー分析システムを開発した.システムを用いることで肯定的レビュー,否定的レビューの割合の時系列変化を確認できたり,任意のアスペクト,評価極性に分類された文,およびそれらを含むレビューへ簡単にアクセスすることが可能となる.このような利便性の向上はオンラインショッピングサイトのユーザのみならず,運営側にとっても店舗の対応をモニタリングする上で大変有用であり,社内ツールとしての運用に向けて関係部署と現在調整中である.以下,今後の課題について述べる.現在の手法では1文に対して1つのアスペクト,評価極性しか推定できないが,実際には複数のアスペクトおよび評価極性をもつ文が無視できない数あった.そのため,複数のアスペクト,評価極性を推定できるように分類手法を拡張する必要がある.またエラー分析の結果,アスペクト分類に必要な素性が抽出できていない場合が多いこともわかった.そのため,素性に関して再検討することも今後の課題である.さらに分析システムという観点から考えると,分類結果の効果的な表示方法についても検討する必要がある.分類結果をどのように表示すればより良いのかはその利用方法と関連が深いため,今後システムの利用を想定している関係部署のメンバーと表示方法について検討していく必要があるであろう.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ando\BBA\Ishizaki}{Ando\BBA\Ishizaki}{2012}]{ando_2012}Ando,M.\BBACOMMA\\BBA\Ishizaki,S.\BBOP2012\BBCP.\newblock\BBOQAnalysisofTravelReviewDatafromReader'sPointofView.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponComputationalApproachestoSubjectivityandSentimentAnalysis},\mbox{\BPGS\47--51}.\bibitem[\protect\BCAY{安藤\JBA関根}{安藤\JBA関根}{2013}]{ando2013}安藤まや\JBA関根聡\BBOP2013\BBCP.\newblockレビューには何が書かれているのか?\\newblock\Jem{ALAGIN\&NLP若手の会合同シンポジウム}.\bibitem[\protect\BCAY{浅野\JBA乾\JBA山本}{浅野\Jetal}{2014}]{asano2014}浅野翔太\JBA乾孝司\JBA山本幹雄\BBOP2014\BBCP.\newblock談話役割に基づくクラス制約規則を利用したレビュー文の意見分類.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\880--883}.\bibitem[\protect\BCAY{Ding,Liu,\BBA\Yu}{Dinget~al.}{2008}]{ding_2008}Ding,X.,Liu,B.,\BBA\Yu,P.~S.\BBOP2008\BBCP.\newblock\BBOQAHolisticLexicon-basedApproachtoOpinionMining.\BBCQ\\newblockIn{\BemProceedingsofthe2008InternationalConferenceonWebSearchandDataMining},\mbox{\BPGS\231--240}.\bibitem[\protect\BCAY{乾\JBA奥村}{乾\JBA奥村}{2006}]{inui_2006}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockテキストを対象とした評価情報の分析に関する研究動向.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{乾\JBA梅澤\JBA山本}{乾\Jetal}{2013}]{inui2013}乾孝司\JBA梅澤佑介\JBA山本幹雄\BBOP2013\BBCP.\newblock評価表現と文脈一貫性を利用した教師データ自動生成によるクレーム検出.\\newblock\Jem{自然言語処理},{\Bbf20}(5),\mbox{\BPGS\683--706}.\bibitem[\protect\BCAY{Kanayama\BBA\Nasukawa}{Kanayama\BBA\Nasukawa}{2006}]{kanayama2006}Kanayama,H.\BBACOMMA\\BBA\Nasukawa,T.\BBOP2006\BBCP.\newblock\BBOQFullyAutomaticLexiconExpansionforDomain-orientedSentimentAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\355--363}.\bibitem[\protect\BCAY{Kobayashi,Inui,\BBA\Matsumoto}{Kobayashiet~al.}{2007}]{kobayashi_2007}Kobayashi,N.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQExtractingAspect-EvaluationandAspect-OfRelationsinOpinionMining.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\1065--1074}.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{kappa}Landis,R.\BBACOMMA\\BBA\Koch,G.\BBOP1977\BBCP.\newblock\BBOQTheMeasurementofObserverAgreementforCategoricalData.\BBCQ\\newblock{\BemBiometrics},{\Bbf33}(1),\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{那須川\JBA金山}{那須川\JBA金山}{2004}]{nasukawa_2004}那須川哲哉\JBA金山博\BBOP2004\BBCP.\newblock文脈一貫性を利用した極性付評価表現の語彙獲得.\\newblock\Jem{情報処理学会研究報告},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{大野\JBA楠村\JBA土方\JBA西田}{大野\Jetal}{2005}]{ohno_2005}大野華子\JBA楠村幸貴\JBA土方嘉徳\JBA西田正吾\BBOP2005\BBCP.\newblock社会的関係を用いたネットオークションの評価コメントの自動要約.\\newblock\Jem{電子情報通信学会論文誌.D,情報・システム},{\Bbf88}(3),\mbox{\BPGS\668--683}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2008}]{pang2008}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2008\BBCP.\newblock{\BemOpinionMiningandSentimentAnalysis}.\newblockFoundationsandTrendsinInformationRetrieval.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaithyanathan}{Panget~al.}{2002}]{pang_2002}Pang,B.,Lee,L.,\BBA\Vaithyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsUp?SentimentClassificationusingMachineLearningTechniques.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\76--86}.\bibitem[\protect\BCAY{Pontiki,Galanis,Papageorgiou,Androutsopoulos,Manandhar,AL-Smadi,Al-Ayyoub,Zhao,Bing,Clercq,Hoste,Apidianaki,Tannier,Loukachevitch,Kotelnikov,Bel,Jimenez-Zafra,\BBA\Eryigit}{Pontikiet~al.}{2016}]{semeval_2016}Pontiki,M.,Galanis,D.,Papageorgiou,H.,Androutsopoulos,I.,Manandhar,S.,AL-Smadi,M.,Al-Ayyoub,M.,Zhao,Y.,Bing,Q.,Clercq,O.~D.,Hoste,V.,Apidianaki,M.,Tannier,X.,Loukachevitch,N.,Kotelnikov,E.,Bel,N.,Jimenez-Zafra,S.~M.,\BBA\Eryigit,G.\BBOP2016\BBCP.\newblock\BBOQSemEval-2014Task5:AspectbasedSentimentAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\19--30}.\bibitem[\protect\BCAY{関}{関}{2013}]{seki_2013}関洋平\BBOP2013\BBCP.\newblock意見分析コーパスの現状と課題.\\newblock\Jem{情報処理学会論文誌データベース},{\Bbf6}(4),\mbox{\BPGS\85--103}.\bibitem[\protect\BCAY{新里\JBA益子\JBA関根}{新里\Jetal}{2015}]{shinzato_2015}新里圭司\JBA益子宗\JBA関根聡\BBOP2015\BBCP.\newblockオノマトペを利用した商品の使用感の自動抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf56}(4),\mbox{\BPGS\1305--1316}.\bibitem[\protect\BCAY{富田\JBA松尾\JBA福田\JBA山本}{富田\Jetal}{2012}]{tomita_2012}富田準二\JBA松尾義博\JBA福田浩章\JBA山本喜一\BBOP2012\BBCP.\newblock大規模データを対象とした文書情報集約データベースと評判分析サービスにおける検証.\\newblock\Jem{電子情報通信学会論文誌.D,情報・システム},{\Bbf95}(2),\mbox{\BPGS\250--263}.\bibitem[\protect\BCAY{Tsunoda,Inui,\BBA\Sekine}{Tsunodaet~al.}{2015}]{tsunoda_2015}Tsunoda,T.,Inui,T.,\BBA\Sekine,S.\BBOP2015\BBCP.\newblock\BBOQUtilizingReviewAnalysistoSuggestProductAdvertisementImprovements.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponComputationalApproachestoSubjectivity,SentimentandSocialMediaAnalysis},\mbox{\BPGS\41--50}.\bibitem[\protect\BCAY{Wang,Lu,\BBA\Zhai}{Wanget~al.}{2010}]{wang_2010}Wang,H.,Lu,Y.,\BBA\Zhai,C.\BBOP2010\BBCP.\newblock\BBOQLatentAspectRatingAnalysisonReviewTextData:ARatingRegressionApproach.\BBCQ\\newblockIn{\BemProceedingsofthe16thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\783--792}.\bibitem[\protect\BCAY{Wang,Huang,Zhu,\BBA\Zhao}{Wanget~al.}{2016}]{wang_2016}Wang,Y.,Huang,M.,Zhu,Z.,\BBA\Zhao,L.\BBOP2016\BBCP.\newblock\BBOQAttention-basedLSTMforAspect-levelSentimentClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\606--615}.\bibitem[\protect\BCAY{山下\JBA東野}{山下\JBA東野}{2016}]{yamashita2016}山下達雄\JBA東野進一\BBOP2016\BBCP.\newblock商品レビューに含まれるストア言及の抽出.\\newblock\Jem{情報処理学会第78回全国大会講演論文集}.\end{thebibliography}\begin{biography}\bioauthor{新里圭司}{2006年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(情報科学).京都大学大学院情報学研究科特任助教,特定研究員を経て,2011年から楽天技術研究所.自然言語処理,特に,知識獲得,情報抽出,評判分析の研究に従事.}\bioauthor{小山田由紀}{2017年東京女子大学人間科学研究科人間文化科学専攻現代日本語・日本語教育分野博士前期課程修了.修士(人間文化科学).楽天技術研究所で自然言語処理のためのアノテーション業務に従事.}\end{biography}\biodate\end{document}
| |
V06N05-01
|
\section{はじめに}
従来,日本語記述文の解析技術は大きく進展し,高い解析精度~\cite{miyazaki:84:a,miyazaki:86:a}が得られるようになったが,音声会話文では,助詞の省略や倒置などの表現が用いられること,冗長語や言い直しの表現が含まれることなどにより,これを正しく解析することは難しい.省略や語順の変更に強い方法としては,従来,キーワードスポッテイングによって文の意味を抽出する方法\cite{kawahara:95:a,den:96:a,yamamoto:92:a}が考えられ,日常会話に近い「自由発話」への適用も試みられている.冗長語に対しては,冗長語の出現位置の前後にポーズが現れることが多いこと,また冗長語の種類がある程度限定できることから,頻出する冗長語を狙い撃ちして抽出する方法や上記のキーワードスポッテイングの方法によってスキップする方法などの研究が行なわれている\cite{nakagawa:95:a,murakami:91:a,murakami:95:a}.言い直し表現の抽出では,冗長語の場合のように予め言い直しのタイプを限定することが難しいが,音響的な特徴に基づく解析や言語的な特徴に基づく解析が試みられている.このうち,音響的特徴による方法としては,DPマッチングによるワードスポッテイングを用いた方法が提案されているが,繰り返し型の言い直しを対象にした実験では,40\%程度の抽出精度しか得られておらず~\cite{nakagawa:95:a},また音素モデルにガーベージモデルを使用した方法では,180文中に言い直し表現が21件存在する場合の実験結果は,67\%の抽出精度に留まっている\cite{inoue:94:a}.これらの研究結果に見られるように,音響的な情報に基づいて抽出するだけでは限界があるために,言語の文法や意味的な情報を用いることが期待される.従来,言語的な特徴による方法としては,英語では,発話を記録したテキストを対象に,音響的な特性を利用して言い直し表現を抽出する方法が提案され,90\%の抽出精度が得られており~\cite{shriberg:92:a,nakatani:94:a},日本語では,漢字かな混じり表記の文を対象に,文法的な解析によって言い直し表現を抽出する方法が提案され,108個所の言い直し抽出実験では70\%の精度が得られている~\cite{sagawa:94:a}.さらに,対話文中に含まれる言い直し表現の言語的な構造を詳細に調べる方法\cite{nakano:97:a,den:97:a}が考えられている.しかし,このような漢字かな混じり文を対象とした方法は,言い直しの検出に単語品詞情報や構文解析情報などを利用しているために,音声認識されたかな文字列(言い直し表現を含めた対話文)に対してそのまま適用することが困難である.これに対して,音素モデルの単語trigramなどを利用して言い直し部分をスキップさせる方法や未知語抽出の単語モデルを用いて未知語を言い直しとして抽出する方法がある~\cite{wilpon:90:a,asadi:91:a,murakami:95:a}.この方法は単語数が制限されることが問題である.本論文では,音響処理によって得られたべた書き音節文を対象に,言語的な情報の一部である音節の連鎖情報に着目して,言い直し音節列を抽出する方法を提案する.この方法は,単語数が限定されない利点をもつ.具体的には,次の2段階の処理によって言い直しの抽出を行なう.まず,最初の第1段階では,言い直しの音節列が文節境界に挿入されることが多いことに着目して,言い直しを含んだべた書き音節文の文節境界を推定する.音節文字列の文節境界の推定では,すでにマルコフ連鎖を用いた方法が提案されているが,言い直しを含む音節列では,言い直し音節列の近傍で音節連鎖の結合力が弱くなる傾向があるため,この方法では,正しく文節境界位置を求めることが難しくなると予想される.そこで,この問題を解決するために,すでに提案された方法~\cite{araki:97:a}を,前方向・後方向の双方向から音節連鎖の結合力が評価できるように改良する.次に第2段階では,第1段階で得られた文節境界を用いて文節を抽出し,抽出した文節を相互に比較して言い直し音節列を抽出する.マッチングの方法としては,(i)1つの文節境界を起点に,繰り返し部分を含む文字列を抽出する方法,(ii)連続した2つの文節境界のそれぞれを起点とする文字列を比較する方法,(iii)連続した3つのすべての文節境界を用いて,抽出された2文節を比較する方法の3種類を提案する.また,これらの方法を「旅行に関する対話文(ATR)」~\cite{ehara:90:a}のコーパスに適用し,個別実験結果から得られる言い直し表現の抽出精度を計算によって推定すると共に,その結果を総合的な実験結果と比較して,提案した方法の効果を確認する.
\section{言い直し表現の特徴と抽出の方針}
\subsection{言い直し表現の特徴}言い直し(以下では「換言」とも言う)とは,下記の例に示すように,前に言ったことの誤りを訂正してもう一度言ったり,話の途中で言い淀んでしまってもう一度言うといった表現を示す.\Vspace「はい,(かしこ)\(\underline{かしこまり}\)ました.」「(わたし)\(\underline{わたくし}\)鈴木が承りました.」\Vspace以下では,言い直しによって訂正される対象となる部分(括弧で示した部分)を「換言前音節列(又は換言前文節)」と呼び,また言い直しによって訂正された部分(下線で示した部分)を「換言後音節列(換言後文節)」と呼ぶ.さて,言い直し表現の出現位置と種類について考える.換言前音節列は,後で換言後音節列によって訂正される部分であるから,一種の誤りと見なすことができ,それを削除すれば発話者の意図した文になると考えられる.このような観点から,会話テキストデータベース(ATR音声翻訳通信研究所)に収録された「旅行に関する対話」の対話例を対象に,言い直し表現が出現した位置を分類すると表1の通りとなる.この表から,換言前の音節列の約80%が正しい文の文節境界の位置に挿入された形になっていることが分かる.\begin{table}[htbp]\begin{center}\caption{言い直しの出現位置の傾向}\label{tab:1}\medskip\epsfile{file=fig/6.eps,height=99mm}\end{center}\end{table}次に,換言前音節列と換言後音節列が連続する場合について,言い直しのタイプを分類すると表2の結果を得る.この表から,言い直しの大半(表2の中の切り捨てタイプと置き換えタイプを除く約60%が該当)は,間違った表現をそれと同一内容を表す正しい表現への言い換えとなっており,繰り返しの構造を持っていることが分かる.\subsection{言い直し表現抽出の方針}前節の考察に従い,本論文では言い直し表現抽出の第1ステップとして,文節境界位置に現れる繰り返しタイプの言い直し表現を対象にその抽出法を考える.ところで,抽出の対象とする言い直し表現は文節境界に現れることから,言い直し表現自体は文節で,換言前表現の始点,終点は共に文節境界であると考えることができる.また,繰り返しタイプの言い直しでは,換言前音節列と換言後音節列は連続しており,両者は類似した音節を持つ可能性が高いから,隣接した2つの文節の音節を比較すれば,言い直し表現が抽出できると期待される.\begin{table}[htbp]\begin{center}\caption{言い直しパターンのタイプ}\label{tab:2}\medskip\epsfile{file=fig/7.eps,height=161mm}\vspace*{-3mm}\end{center}\end{table}以上から,ここでは,図1に示すように,以下の2つの段階に分けて言い直し表現を抽出する.\noindent{\bf第1段階}:言い直しを含む音節文の文節境界を推定する.\begin{figure}[bp]\bigskip\bigskip\begin{center}\epsfile{file=651_8.eps}\medskip\caption{言い直し対象の検出の概要}\label{fig:1}\end{center}\end{figure}\noindent{\bf第2段階}:連接する2つの文節間で音節列を比較し,類似性の高い文節の組の前方の文節を「換言前音節列」と判定する.
\section{言い直し表現の抽出法}
\subsection{言い直しを含む文節境界の推定}\subsubsection{文節境界推定の基本的考え方}言い直しを含む音節列の文節境界を推定する方法について考える.従来,べた書きされた日本語かな文の文節境界を推定する方法として,マルコフ連鎖モデルを用いた方法~\cite{araki:97:a}が提案されている.この方法は,図2-(i)に示すように,文節内では文字間の連鎖強度が高いことに着目して,文字連鎖確率値が落ち込むところを仮文節境界と推定するもので,具体的には,文節境界は以下の2つの手順で決定される.\Vspace\begin{enumerate}\itemかな文字列の前方から順にマルコフ連鎖確率を求め,連鎖確率がある閥値以下(落ち込み)となる文字を$x_i$とする.($x_i$の直前に文節境界がある可能性が高い)\item文字$x_i$の直前に文節境界記号bを挿入し,この記号と前方文字との連鎖確率を求める.確率がある閥値以上(立ち上がり)になったとき,bの位置を文節境界と判定する.\end{enumerate}\Vspaceなお,(1),(2)共に,連鎖確率の評価では,正しく文節境界記号の挿入されたべた書きかな文から得られた連鎖確率を使用する.ところで,この方法は,文法的にも意味的にも正しい日本文を対象に提案された方法である.言い直しを含む文では,換言前音節列の部分で発話の中断や言い誤りが起こっているため,仮文節境界の判定に用いた連鎖確率の「落ち込み」や「立ち上がり」が必ずしもシャープには現れない危険性があり,上記の方法を,言い直しを含む文にそのまま適用するのは適切でないと考えられる.そこで,言い直し音節列の挿入された文節境界の性質について考えると以下のことが分かる~\cite{araki:96:a}.まず,換言前音節列の始点に当たる文節境界では,その境界の直前の文字列は正しい文字列であるので,前方向(順方向)のマルコフ連鎖確率値が落ち込む位置を求めれば,その位置が換言前音節列の始点となっている可能性が高い.これに対して,換言前音節列の終点に当たる文節境界では,その境界の直前の文字列は言い直し対象の一部(言い誤りなど)であるので,前方向(順方向)のマルコフ連鎖確率値が必ずしも落ち込むとは限らない.しかし,その境界の後方の音節列は正しく言い直された音節列であるので,後方向(逆方向)のマルコフ連鎖を使用すれば,連鎖確率の落ち込みによってその位置を抽出できる可能性が高い.以上から,本論文では,図2-(iv)のように前方向(順方向)と後方向(逆方向)のマルコフ連鎖確率値を組み合わせることによって文節境界を判定する.\vfill\begin{figure}[p]\begin{center}\epsfile{file=fig/10.eps,height=180mm}\medskip\caption{言い直し列を含んだ音節文の仮文節境界の推定法}\label{fig:2}\end{center}\end{figure}\subsubsection{文節境界の推定}文節境界の推定では,前方法,後方向のマルコフ連鎖モデルを使用することを述べたが,ここではさらに,文節境界をまたがる文字連鎖の確率をも考慮し,3つの方法を考える.以下では,\cite{araki:97:a}で用いられた下記の記号を用いて,各方法を定義する.\Vspace\begin{enumerate}\itemFBL:文節境界記号bと前方文字との連鎖確率の「立ち上がり」を順方向に評価する方法\itemBBL:文節境界記号bと後方文字との連鎖確率の「立ち上がり」を逆方向に評価する方法\itemFL:文節間をまたがる音節間の結合力(「落ち込み」のみ)を順方向に評価する方法\itemBL:文節間をまたがる音節間の結合力(「落ち込み」のみ)を逆方向に評価する方法\end{enumerate}\Vspaceなお,ここでは,マルコフ連鎖確率として3重マルコフモデルを用いる.また,以下では,複数の方法を組み合わせて使用するときの文節境界の判定条件を記号「・(and)」,「+(or)」で表す.\Vspace\begin{enumerate}\item{\bf第一の方法}:《単純な双方向型の推定》(FBL+BBL法:図3-(i))\\連鎖確率の小さいところを抽出し,その位置に文節境界を表す記号bを挿入したとき,記号bについての双方向のマルコフ連鎖確率値の少なくともどちらか一つが,ある閾値より大きくなるところを文節境界と推定する.\item{\bf第二の方法}:《順方向挟み込み型を併用した双方向型の推定》(FL・(FBL+BBL)法:図3-(ii))\\第一の方法に加えて,文節境界をまたがる文字間の連鎖確率を順方向に評価する.\item{\bf第三の方法}:《双方向挟み込みを併用した双方向型の推定》(FL・BL・(FBL+BBL)法:図3-(iii))\footnote{3.1.3で後述するように,1つの文節境界だけを用いてマッチングを行う方式1の場合には,文節境界の中で換言前音節列の始点に当たる文節境界の検出精度を高くすることが必要となる.その場合には,換言前音節列は一種の誤り文字列と見なすことができるから,逆方向のマルコフ連鎖モデルとしてBBLを用いる効果は少ないが,BLを用いる効果は大きい(誤り文字列の場合はBLが落ち込む)と考えられることから,FL・BL・(FBL+BBL)法よりもFL・BL・FBL法が有効と考えられる.両者の比較については,5.の実験結果で議論される.}\\第一の方法に加えて,文節境界をまたがる文字間の連鎖確率を順方向と逆方法から評価する.\end{enumerate}\Vspace\subsubsection{言い直し音節列の判定}第1段階の方法で得られた文節境界のうち,任意の境界から始まる3つの連続した文節境界を順に,第1,第2,第3文節境界と呼ぶ.連続した文節の類似性を判定するには,これらの文節境界に挟まれた文字列を比較すればよいが,これらの文節境界は必ずしも正しいとは保証されない.\begin{figure}[tbp]\begin{center}\epsfile{file=fig/12.eps,height=140mm}\medskip\caption{マルコフモデルによる文節境界の推定方法}\label{fig:3}\end{center}\end{figure}特に,3つの文節境界が共にすべて正しい確率は,一つの境界が正しい場合よりも低下するから,なるべく少ない数の境界を使用して言い直し表現を抽出できるのが望ましい.しかし,逆に,使用できる文節境界が少ない場合は,文節間の類似性判定の精度が低下する恐れがある.これらの点を考慮して,ここでは,文節間の類似性を判定する方法(マッチング法)として,以下の3つの方法を考える.\newpage\begin{enumerate}\item{\bf方式1}:1つの文節境界だけを使用する方法\item{\bf方式2}:連続した2つの文節境界を使用する方法\item{\bf方式3}:連続した3つの文節境界を使用する方法\end{enumerate}\Vspace以下,これらの3つの方法の詳細を述べる.まず,隣接する任意の2つの文節候補をそれぞれ,$B_1=x_1x_2\cdotsx_m$,および,$B_2=x_{m+1}x_{m+2}\cdotsx_{m+n}$とする.\bigskip{\bf【方式1のマッチング方法】}\Vspace\begin{enumerate}\item与えられた文節の先頭を始点として,長さ$l$文字($l$は平均文節長の2〜3倍程度)の\break音節列$X=x_1x_2\cdotsx_l$(但し,$X$の中に先頭文字$x_1$と等しい文字$x_i$が存在する.すなわち,$x_1=x_i$)を取り出す.\item$x_1$,$x_2$,$\cdots$,$x_l$を図4のように横と縦にならべたマトリックスを考え,$x_1=x_i$となる$x_i$\breakの位置$i$(但し,$2\lei\lel$)を換言後文節の開始点とする.\item換言前文節候補の$i-1$個の音節列$x_1x_2\cdotsx_{i-1}$の少なくとも$j=(i-1)-k$個の$j$(ここで,$1\lej\lei-1$)に対して,式$x_j=x_{j+i-1}$が成り立つ時,$i-1$個の音節列$x_1x_2\cdotsx_{i-1}$を換言前音節列として抽出する.ここで,$k$はハミング距離であり,実験的に最適値を定める.\end{enumerate}\bigskip{\bf【方式2のマッチング法】}\Vspace\begin{enumerate}\item2つの文節候補$B_1$と$B_2$において,$B_1$を換言前文節候補とし,$B_2$の文字列の中からその部分列として,$B_1$の文節長$m$と同じ長さの音節列$B_2=x_{m+1}x_{m+2}\cdotsx_{2m}$を取\breakり出す.\item$m-k$個以上の$j$(ここで,$1\lej\lem$)について$x_j=x_{m+j}$である場合に,$B_1$を換言\break前音節列とする.ただし,$x_j$と$x_{m+j}$はそれぞれ文節$B_1$と$B_2$の中の$j$番目の音節を\break表す.\end{enumerate}\bigskip{\bf【方式3のマッチング法】}\Vspace\begin{enumerate}\item[~]第1,第2,および第3の文節境界によって決定される音節列$B_1$および,$B_2$の組に対して,少なくとも$m-k$個の$j$(但し,$j$は$n$と$m$の中で小さい方の値に対して,$1\lej\lem$(または$n$))について$x_j=x_{m+j}$となる場合に,$B_1$を換言前音節列とする.\end{enumerate}\begin{figure}[htbp]\begin{center}\epsfile{file=fig/14.eps,height=190mm}\medskip\caption{マッチングによる言い直し対象の検出方法}\label{fig:4}\end{center}\end{figure}
\section{言い直し表現の抽出精度の推定}
前章で述べた方法は,文節境界の推定と文節間の類似性判定の2つの手順から構成される.そこで,本章では,文節境界の推定精度(適合率$P_b$と再現率$R_b$),及び,文節間の類似性の推定精度(適合率$P_m$と再現率$R_m$)が与えられた時,最終的に抽出される言い直し表現の抽出精\break度(適合率$P_t$と再現率$R_t$)を推定する方法について考える.\subsection{文節抽出精度の推定}文節境界推定の結果から,マッチングの3方式に必要な文節がどれだけ正確に抽出できるか考える.\begin{flushleft}\bf(1)任意の文節の先頭位置が正しい確率\end{flushleft}まず,実験標本に含まれている正しい文節境界の数を$n$,文節境界の候補として検出した境界の数を$n_1$,そのうち正しい文節境界の数を$n_0$とすると,推定された文節境界の適合率$P_b$,再現率$R_b$は,それぞれ,\begin{equation}P_b=n_0/n_1,R_b=n_0/n\end{equation}であるから,正しく推定された文節境界の数を$N_{1max}$と置くと,$N_{1max}$は$n_0$に等しく,\begin{equation}N_{1max}=n_0=nR_b\end{equation}\begin{flushleft}\bf(2)正しく取り出される文節の数\end{flushleft}推定された文節境界から,どれだけの数の文節が正しく取り出せるかを考える.正しい文節は,連続する2つの文節境界が正しい時に得られる.そこでまず,先頭の文節境界を考えると,(1)から,そのような境界は,$n_0$個得られる.次に,これらの$n_0$個の境界に続く文節境界がどれだけ正しく決定されているかを考える.但し,ここでは,$n$,$n_0$,$n_1$はいずれも1より十分大きい値とする.ある正しく決定された文節境界(始点)の後に初めて現れる文節境界としては,\Vspace\begin{enumerate}\item正しく文節境界として検出されたもの($n_0$)\item誤って文節境界と判定されたもの($n_1-n_0$)\item見過ごされてしまったもの($n-n_0$)\end{enumerate}\Vspaceの3種が考えられる.全体では,$n_0+(n_1-n_0)+(n-n_0)=n+n_1-n_0$通りの可能性があるが,このうち(1)の場合のみ正しい文節が得られる.どの可能性も文節開始点と独立に現れると仮定すると,(1)が現れる確率は$n_0/(n+n_1-n_0)$である.以上から,正しく抽出された文節の数は,$N_{2max}$は,\begin{equation}N_{2max}=n_0\timesn_0/(n+n_1-n_0)\end{equation}と推定される.ここで,(1)および(2)式を用いて書き替えると,\begin{equation}N_{2max}=n\timesR_b\times\gamma\end{equation}但し$\gamma=P_bR_b/(R_b+P_b-R_bP_b)$.\begin{flushleft}\bf(3)連続して正しく取り出せる文節の組の数\end{flushleft}この場合は,連続した3つの文節境界が正解であることが必要である.連続する2つの文節境界が正しい文節境界の組みの数は(3)式で与えられるから,連続した3つの文節境界が正解となる組の数$N_{3max}$は,(2)と同様の議論によって,$N_{2max}$の$\gamma$倍となるから,\begin{equation}N_{3max}=n\timesR_b\times\gamma^2\end{equation}\subsection{言い直し表現の抽出精度の推定}\begin{flushleft}\bf(1)言い直し表現の総合的な抽出精度\end{flushleft}文節間の音節類似性を判定するマッチング処理で,言い直し表現が正しく言い直しとして抽出できるのは,正しい文節境界を持つ文節候補の中からのみと考えられる.これに対して,誤った言い直し表現は,文節境界が正しい場合からも,また,文節境界が誤った場合からも抽出さ\breakれる.そこで,正しい文節境界を持つ文節に含まれる言い直し表現が,正しく言い直しと判定\breakされる割合を$\alpha$とし,言い直しでない文節を間違って言い直しと判定する割合を$\beta$とする.また,\break文節境界推定実験で得られた文節の数を$N$,その中の正しい文節境界を持つ文節に含まれる言い直し表現の数を$M$とする.この時,マッチング実験において正しく言い直しと判定されるものは,$\alphaM$件,誤って言い直しと判定されるものは,$\beta(N-M)$件であるから,総合的な(第1段階と第2段階を組み合わせたときの)言い直し表現の抽出精度(適合率$P_t$と再現率$R_t$)は,\begin{equation}P_t=\alphaM/\{\alphaM+\beta(N-M)\}\end{equation}\begin{equation}R_t=\alphaM/m\end{equation}となる.但し,$m$は標本全体に含まれる言い直し文節の数を示す.ここで,$m$は既知としてよいから,$N$,$M$,$\alpha$,$\beta$の4つのパラメータの値が分かれば,$P_t$,$R_t$は計算できる.そこで,以下では,これらの値を求める.\begin{flushleft}\bf(2)文節数とその中の換言文節数(NとM)\end{flushleft}ここで,第1段階の文節境界の推定で得られる言い直し文節候補の数$N$とその中に含まれる言い直し表現の数$M$を考える.$N$は,3つのマッチング方式いずれの場合も共通で,\begin{equation}N=n_1=nR_b/P_b\end{equation}次に,標本内の文節のうち,言い直し表現の含まれる割合を$a(=m/n)$とする.第2段階では,第1段階で正しく抽出された文節($N_{1max}$,$N_{2max}$,$N_{3max}$)の中に含まれた言い直しのみが抽出の可能性を持つ.そこで,第1段階で抽出された文節も同じ割合で言い直し文節を含むと仮定すれば,その数$M$は,\begin{equation}M=a\timesN_{imax}(但し,i=1,2,3)\end{equation}となる.\begin{flushleft}\bf(3)言い直し判定の確率($\alpha$と$\beta$)\end{flushleft}ここで,すべての文節境界$N$が正しい場合を考え,正しい文節境界を持つ$N$個の文節の中に,$m$個の言い直し表現が含まれていたとする.また,この標本に対して文節のマッチング処理によって,$m_1$個の文節が言い直しと判定され,そのうち正しく判定されたものは$m_t$個だったとすると,マッチングの精度(適合率$P_m$と再現率$R_m$)は,\begin{equation}P_m=m_t/m_1,R_m=m_t/m\end{equation}で与えられる.この時,$\alpha$は,定義により,$\alpha=R_m$である.また,$\beta$は,以下のように求められる.すなわち,言い直しでない文節数は$N-m$件存在するのに対して,このうちの$m_1-m_t$件を言い直しと判定したことになるから,$\beta=(m_1-m_t)\;$/$\;(N-m)$.ここで,全文節$N$に含まれる言い直し文節$m$の割合を$a(=m/N)$とおき,(10)式を使用すると,$\beta$は,\begin{equation}\beta={}\frac{\alphaR_m(1-P_m)}{P_m(1-\alpha)}\end{equation}以上で,第1段階と第2段階の方法の精度(それぞれ,$P_b$,$R_b$および$P_m$,$R_m$)が分かれば,それを結合した総合的な抽出精度($P_t$,$R_t$)が推定できる.
\section{実験結果と考察}
\subsection{実験の条件}本実験では,以下に示すような入力文とマルコフ連鎖確率辞書を用いた.\bigskip\begin{description}\item[(1)]実験入力文\Vspace\renewcommand{\labelenumi}{}\begin{enumerate}\item文の内容:旅行に関する会話\item文の表記:文音節列\item総文数:100文(標本外,文節境界位置に出現する単純な繰り返しタイプの言い直しが少なくとも一つ存在するもの)\item総文節境界数:346境界(うち,言い直し対象の始点106,終点106)\end{enumerate}\Vspace\newpage\item[(2)]マルコフ連鎖確率辞書の統計データ\Vspace\begin{enumerate}\itemデータの内容:旅行に関する会話\itemデータの表記:文節音節列(空白記号付き,言い直しは含まない)\begin{enumerate}\item[(a)]総文節数:27,120文節\item[(b)]総音節数:236,705音節(空白記号を除くと155,345音節)\end{enumerate}\end{enumerate}\Vspace\item[(3)]マルコフ連鎖確率辞書のタイプ\Vspace\renewcommand{\labelenumi}{}\begin{enumerate}\item種類:文節マルコフ連鎖確率\Vspace\begin{enumerate}\item次数:4次(3重)\item方向のタイプ:順方向と逆方向\end{enumerate}\end{enumerate}\end{description}\subsection{文節境界推定実験の結果}3.1節で述べた3つの文節境界推定法について,閾値を変化させた時の再現率と適合率の値を図5に示す.この図と4章の結果((2)式,(3)式,(5)式)を用いれば,それぞれのマッチン\breakグの方法に適したように,$N_{imax}$を最大とするような$P_b$,$R_b$を選択することができる.その結果を求めると,いずれの場合も,その値は$P_b$と$R_b$の調和平均を最大とする値の近傍(±1\%以内)にあるため,ここでは,$P_b$と$R_b$の調和平均が最大となる場合について,各方式の精度を表\break3に示す.また,各推定法によって推定された文節境界の例を表4に示す.これより以下のことが分かる.\Vspace\begin{enumerate}\item提案した3つの文節境界推定法のうち,第3の方法が最も優れており,言い直し表現を含まない場合と同程度の精度(適合率88.0\%,再現率89.6\%)が得られる.\vspace{0em}\item換言前音節列の始点の再現率(85.8\%)\footnote{換言前音節列の始点の再現率だけに限って言えば,第3の方法よりもFL・BL・FBL法を用いた方が,換言前音節列の始点の再現率は,約5\%高い値(90.6\%)が得られる(図6参照).}は,全体の文節境界の再現率(89.6\%)より,約4\%低い.またその終点の再現率(77.4\%)はさらに約8\%低い.\end{enumerate}\begin{figure}[tbp]\begin{center}\epsfile{file=fig/19.eps,height=106mm}\medskip\caption{言い直しを考慮した文節境界の推定結果}\label{fig:5}\end{center}\end{figure}\subsection{文節マッチング法の実験結果}文節境界精度がすべて正しい場合について,3.2で述べた3種のマッチング方法を用いて言い直し音節列抽出実験を行なった.その際,マッチングで用いたハミング距離$k$については,$k=0$から$m-1$の範囲で実験を行い,$P_m$,$R_m$が共に大きくなる値(今回の実験では,$k=1$)に設定した.実験の結果を表5の(2)の欄に示す.また,3通りのマッチング方式による言い直し音節列の抽出結果の例を表6に示す.表5の(2)の欄から以下の観察が得られる.\Vspace\begin{enumerate}\item方式2,3の適合率(共に約99\%)は,方式1(約86\%)に比べて10\%以上,適合率が高い.\item逆に,方式2,3の再現率(84〜85\%)は,方式1(約89\%)に比べて4〜5\%低い.\end{enumerate}\begin{table}[tbp]\vspace{-3mm}\begin{center}\caption{3つの方法による文節境界の推定結果の比較}\label{tab:3}\epsfile{file=fig/20_ue.eps,width=130mm}\bigskip\caption{文節境界の推定結果の例の一覧}\label{tab:4}\smallskip\epsfile{file=651_20.eps}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{文節境界抽出精度,マッチング精度及び言い直し音節検出精度の計算値と実験値}\label{tab:5}\medskip\epsfile{file=fig/21.eps,width=139mm}\end{center}\end{table}\bigskipこのうちの(1)から,第2の文節境界が正しく決定できることは,マッチングの精度を上げる上で有効であるが,第3の文節境界の情報はあまり価値を持たないことが推定される.また,(2)の差は,方式1のマッチング法では,方式2,方式3のマッチング法よりも甘い基準で言い直しを判定していることから生じたものと考えられる.\subsection{総合実験結果と推定値の比較}4章の方法を用いて,第1段階の実験結果(5.2節)と第2段階の実験結果(5.3節)から,総合的な言い直し表現の抽出精度を推定した結果を表5に示す.これと比較して,実際に第1段階の文節境界推定の方法と(第3の方法)と第2段階のマッチング処理を組み合わせて行った言い直し音節列抽出実験の結果を同じ表に示す.また,総合的な適合率と再現率の関係を\protect{図~6}に示す.これらの結果から以下のことが分かる.\begin{table}[htbp]\begin{center}\caption{3通りの方式による言い直し音節列抽出結果の例}\label{tab:6}\epsfile{file=651_22.eps}\end{center}\end{table}\smallskip\noindent{\bf<実験値の特性>}\smallskip\begin{enumerate}\item方式1は,他の方式と比べて再現率が高い($R_t$=75.5\%)のに対し,方式2や方式3\breakは逆に適合率が高い($P_t$=93.5〜94.9\%).\item方式2と3には,大差は認められない.\end{enumerate}\smallskip(1)は5.3節の実験結果から予測された通りである.また(2)も,第1文節境界に比べて第2文節境界の推定が低いこと,第3文節境界の情報はあまり影響しないことから予測された通りといえる.\begin{flushleft}\bf<推定値との比較>\end{flushleft}\begin{enumerate}\item総合実験における精度($P_t$,$R_t$)は,一部を除いて,実験値が推定値より,3〜6%低くなっている.\\[\LH]\hspace*{2ex}これは,推定値の計算では「言い直し文節とその他の正しい文節の境界が同じ精度で決定できる」と仮定していたが,実際の言い直し表現では,「言い直し文節の境界はその他の文節境界より決定しにくい」ことが原因と考えられる.上記の差が方式1に比べて方式2で顕著であるのは,特に,第2文節境界決定が困難であるためと思われる.\item方式3では,$R_t$の値は,(1)とは逆に実験値の方が推定値よりも高い.\\[\LH]\hspace*{2ex}最終的に抽出される言い直し表現は,換言前文節(第1,第2文節境界で囲まれた範囲)であり,換言後文節は抽出されないこと,従って,第1段階の文節境界の推定で,第2文節が正しく判定されなかった場合でも,言い直し表現が抽出できることがあるためと考えられる.\item適合率$P_t$は,方式3が最も高く,方式1が最も低いと考えられるが,推定値は,方式2と方式3でこの関係が逆転している.\\[\LH]\hspace*{2ex}この理由は以下の通りと考えられる.すなわち,方式3は,方式2に比べて第1段階で得られた文節候補中に含まれる言い直し文節候補が少ない.このため,言い直し文節と正しく判定できる文節は限られている.これに対して,正しい文節境界を持たない文節候補が多いため,第2段階のマッチングでは,より多くの正しくない文節が言い直しと判定される(すなわちごみが増える)ためと考えられる.\end{enumerate}\medskip以上の換言前音節列の抽出結果は,各方式とも第1段階において,5.2で述べた第3の方法を用いて文節境界を推定していた.しかし,マッチング方式1の場合には,文節境界の中で特に,換言前音節列の始点に当たる文節境界の精度が高いことが要求されることから,FL・BL・FBL法を用いた方が換言前音節列の抽出精度が高くなると考えられる(3.1および5.2の脚注参照).実際に,その実験結果を図6に示すと,換言前音節列の適合率=84.2\%,再現率=80.2\%となり,上記の場合よりも適合率で約$\!$3\%,再現率で約$\!$5\%高くなること,また,これらの値は計算\break値によく合致することがわかった.\begin{figure}[htbp]\begin{center}\epsfile{file=fig/23.eps,width=110mm}\medskip\caption{換言前音節列の抽出実験結果}\label{fig:6}\end{center}\end{figure}\vspace*{-15mm}\subsection{結論}マルコフ連鎖モデルによる文節境界推定の方法と文節間の文字列比較の方法を組み合わた方法により,会話文に現れた繰り返し型の言い直し表現は,適合率84〜95\%,再現率53〜80\%の精度で抽出することができる.具体的には,\Vspace\begin{enumerate}\item再現率を重視する場合には,第1文節境界のみを用いてマッチングにより言い直し音節列を判定する方法が適しており,再現率=80.2\%(適合率=84.2\%)の精度が得られる.\item逆に,適合率を重視する場合には,第2および第3の文節境界をも用いて文節を抽出し,文節間の音節列を比較する方法が適しており,適合率=94.9\%(再現率=52.8\%)の精度が得られる.\end{enumerate}本方式によって得られた結果にさらに文法情報などを適用して,言い直し表現の抽出精度を上げようとする場合は,再現率の高い(1)の結果を使用することが望ましいと考えられる.上記の実験結果では,かなり高い精度(80\%)で言い直し表現を抽出できることが分ったが,これは言語としての音節連鎖の持つ情報が,言い直しの言語的な特徴(誤り文字列の特性や繰り返しの構造など)をよく反映していること,これを使用すれば従来の音響的な情報以上の効果が得られることを意味している.今後,抽出精度を向上するには,音節の連鎖情報に加えて,従来の音響的な情報を有機的に組み合わせていくこと,また言語情報からみても,さらに文法的な情報を加えていくことが期待される.
\section{あとがき}
本論文では,音響処理によってべた書きの音節列に変換された会話文に対して,それに含まれる繰り返し型の言い直し表現を抽出する方法を提案した.この方法は,日本語音節列の持つ確率的情報を利用したもので,以下の2つの処理から構成される.すなわち,第1の処理は,言い直しの音節列が文節境界に挿入されることが多いことに着目し,言い直しを含む対話文を文節単位に分割するもので,従来のマルコフ連鎖モデルを用いた文節境界の推定法を言い直しを含む音節列に適すように改良した.第2の処理は,第1の方法で得られた文節境界を手がかりに,隣り合う2つの文節間で音節列の類似性を判定するマッチング処理であり,文節境界の使い方の異なる3つの方法を提案した.また,提案した方法の精度を推定するため,第1の処理と第2の処理の精度から,それを組み合わせたときの精度を計算する方法を示した.これらの方法をATRの「旅行に関する対話文」データ(その内,言い直しは106個所)に適用した実験結果から,以下のことが分かった.\smallskip\begin{enumerate}\item第1の処理では,従来のマルコフ連鎖モデルを組み合わせて使用すれば,言い直しを含む音節列でも,言い直しを含まない場合と同程度の精度(再現率約90\%,適合率88\%)で文節境界が推定できる.\itemこれにより,会話文に現れた繰り返し型の言い直し表現は,適合率84〜95\%,再現率53〜82\%の精度で抽出することができる.\smallskip\end{enumerate}本方式によって得られた結果にさらに文法情報などを適用して,言い直し表現の抽出精度を上げようとする場合は,再現率の高い方法が望まれる.その場合は,第1の処理で得られたすべての文節境界を起点に,それ以降数文節相当の音節列を調べる方法が適しており,その場合,再現率=80.2\%(適合率=84.2\%)の精度が得られる.なお,今後の課題としては,文節境界が未抽出の言い直し表現の抽出方法,付け加え型や繰り返しを伴う置き換え型の言い直し表現へ適用するための拡張方法,単語境界位置に出現する言い直し表現の抽出方法などの検討が挙げられる.\Vspace\acknowledgment本研究を進めるにあたり,ATR音声言語データベースを提供下さいましたATRの関係各位ならびに音声翻訳研究所森元逞元第四研究室長に感謝いたします.\vspace*{-3mm}\nocite{*}\bibliographystyle{jnlpbbl}\bibliography{v06n5_01}\begin{biography}\biotitle{略歴}\bioauthor{荒木哲郎}{1948年生.1976年福井大学工学部電気工学科卒業.1981年東北大学大学院博士課程修了.同年,日本電信電話公社入社,1990年NTT退社,同年福井大学工学部電子工学科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.電子情報通信学会,情報処理学会,言語処理学会,IEEE,各会員.}\bioauthor{池原悟}{1944年生.1967年大阪大学基礎工学部電気工学科卒業.1969年同大学大学院修士課程修了.同年,電信電話公社に入社.数式処理,トラヒック理論,自然言語処理の研究に従事.1996年より,スタンフォード大学客員教授.現在,鳥取大学工学部教授.工学博士.1982年情報処理学会論文賞,1993年同研究賞.1995年日本科学技術センタ賞(学術賞),同年人工知能学会論文賞.電子情報通信学会,人工知能学会,言語処理学会,各会員.}\bioauthor{橋本昌東}{1972年生.1995年福井大学工学部電子工学科卒業.1999年同大学大学院博士前期課程修了.同年4月日本電気株式会社に入社.現在,第2パーソナルC\&C事業部に勤務.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V29N04-16
|
\section{はじめに}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{27table01.tex}\caption{NTCIR-1からNTCIR-16までに運営されたタスク.}\label{tb:history}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%NTCIR(NIITestbedsandCommunityforInformationaccessResearch)は,情報検索,情報推薦,テキスト要約,情報抽出,質問応答などの情報アクセス技術の発展を目的とした,コミュニティ主導の評価型ワークショップである.ワークショップの参加者は提案されたタスクの中から興味のあるタスクを選んで参加し,システム出力結果を提出することで評価結果を得ることができる.また,参加者は開発したシステムに関して論文を執筆しNTCIRカンファレンスにて発表・議論を行う.一般的なSharedtaskと対比すれば,NTCIRは各回1.5年の期間をかけて長期的に実施される試みであり,また,NTCIRの「C」がCommunityを指すように「コミュニティ」を重視した活動となっている.これには以下のような理由が挙げられる:\begin{enumerate}\itemタスク運営者と参加者の積極的な議論(評価方法の検討,査読付きの学会では困難な失敗事例の共有など),\itemデータセットやツールなどの基盤形成(情報アクセス技術向けの大規模なデータセットの構築には,タスク運営者や評価者のみならず参加者による貢献が必要不可欠である\footnote{情報検索のデータセット構築には十分に多様なシステムの出力結果が必要になる.これは,一般的な機械学習のタスクでは見られない特徴であると思われる.情報検索では検索対象である文書(画像などでもよい)が非常に多いため,すべての文書に対してアノテーションを行うことはできない.そこで,伝統的に採用されているのは「プーリング」というアプローチである.この方法では,十分に多様な検索システムが返却する上位$k$件の文書に対してのみアノテーションを実施しこれ以外の文書は不適合と判定する.すべての適合文書がいずれかの検索システムの上位$k$に含まれていれば,すべての文書を評価することなくすべての文書の適合度を知ることができる.単一の研究グループだけでは,多様なシステムを用意することが困難であるため,参加者を募って各自にシステム開発を委託する必要がある.そのため,情報検索のデータセット構築には参加者の協力が不可欠なのである.}),\item国際協調とそれに伴う多言語化(NTCIRでは多くの多言語タスクが運営されてきた),\item参入障壁を下げ研究分野を活性化(参加者にとっては研究の支援が受けられ,運営者にとってはタスクに取り組む人口が増えることで自身の専門分野の発展につながる).\end{enumerate}本解説記事では,これまでにNTCIRにて運営されてきたタスクの傾向について説明し,その後,NTCIR-16\cite{ntcir16}(2020年12月~2022年6月実施)で運営されたタスクの概要について解説する.これまでにNTCIRが情報アクセス分野においてどのような貢献をしてきたかについては,書籍「EvaluatingInformationRetrievalandAccessTasks:NTCIR'sLegacyofResearchImpact」\cite{ntcir}にて解説されている.オープンアクセスであるため,興味のある方はぜひご覧いただきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{これまでのNTCIRタスク}
1997年にNTCIRプロジェクトが発足して以来,合計16回のNTCIRが開催されてきた(2022年9月時点).NTCIR-1からNTCIR-16までに,表\ref{tb:history}に示すようなさまざまなタスクが運営されてきた.NTCIR-1からNTCIR-4の最初期には,多言語検索やウェブ検索,情報抽出,テキスト要約,質問応答,特許検索などがタスクとして提案された.その後,トレンド情報要約,多言語質問応答,意見情報抽出,特許マイニング,地理時間情報検索,特許翻訳などが登場した.NTCIR-11では,それまでのタスクが一新され,対話的情報検索,多言語エンティティリンキング,モバイル検索,含意関係認識,発話文書検索など,タスクの多様化が進んだ.その後,数式検索,医療文書からの情報抽出,入試問題や議会議事録などを対象にした質問応答,時間情報を考慮した情報検索,レシピ検索,ライフログ検索といったように,検索・分析対象も多様になっていった.NTCIR-13では,新タスクが多く運営されるようになっていき,対話生成,質問文検索,知識グラフ構築,感情要因抽出,脳波に基づく画像分類,ウェブ検索などが提案され,NTCIR-14からNTCIR-16では,数値情報の分類,対話評価,多言語文書分類,データ検索,行動認識,視線情報に基づく情報検索,セッション検索,ランキング学習などのタスクが提案された.近年(NTCIR-16実施時点)のタスクの特徴としては以下の3点が挙げられる:\begin{enumerate}\item{\bfユーザ行動情報.}従来のタスクにおいて,ユーザから与えられる入力はキーワードクエリなどテキスト情報が一般的であったが,さまざまなウェアラブルデバイスの普及によって,ライフログや脳波,視線情報など,多様な情報が入力として想定されるようになってきている.\item{\bf数値情報.}テキスト情報の理解・検索に加えて,数値情報の理解や統計データの検索がタスクとして取り組まれてきている.他の固有表現と比べ,数値自体からその意味を読み取ることは難しく,周辺情報に基づく推定が必要になるため新たな技術が必要となっている.\item{\bf対話.}チャットベースのアプリケーションやスマートスピーカなどの普及,また,テキスト生成技術の発展などに伴って,対話関連のタスクがいくつか提案されてきている.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{NTCIR-16}
NTCIR-16では,表\ref{tb:history}の最右列に示される通り,合計10種類のタスクが運営された\cite{ntcir16}.タスク数は過去最多であり,固有表現抽出や情報抽出などの自然言語処理関係のタスクから,ウェブ検索やライフログ検索,データ検索などの情報検索関係のタスク,さらに対話評価や視線情報活用など,運営されたタスクの多様さも際立った回であったといえる.また,FinNumでは金融文書,QALab-PoliInfoでは政治関連文書,そして,Real-MedNLPでは医療文書など,特定のドメインに特化した自然言語処理タスクが多く提案されているのも特徴的な点である.以下では,Coreタスク(タスク設計や評価方法がある程度確立されたタスク)からPilotタスク(タスク設計や評価方法などについて検討の余地がある比較的新しいタスク)の順に,NTCIR-16のタスクの概要を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{DataSearch2(Core)\protect\cite{datasearch}}本タスクはデータ検索を対象としたタスクであり,e-Statやdata.govなどのサイトで公開されている,統計データを検索対象とした検索タスクを提供している.例えば,「WhatisthelargestcausesofdeathinUnitedStatein1999-2016」という情報要求があって,「causesofdeathus1999-2016」というキーワードクエリが与えられた場合に,死因の統計データを上位に順位付けるようなシステムの開発を目的としている.特に,情報量の少ないメタデータとクエリをどのようにマッチングさせるか,また,数値から構成される統計データをどのように扱うかが技術的な課題として設定されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{DialEval-2(Core)\protect\cite{dialeval}}NTCIR-12からNTCIR-14までに,ShortTextConversation(STC)という,与えられた短い会話文に対して適切な回答を生成するタスクが運営されていた.DialEvalはSTCの流れを汲んだタスクであり,ヘルプデスク対話データの評価をタスクとし,参加者が行った評価の評価を行ったタスクである.タスクは2種類設定されており,Dialoguequalityサブタスクでは対話全体の評価値の推定,Nuggetdetectionサブタスクでは各発話の種類(問題の説明,解決方法,など)の推定を行う.両タスクとも複数の評価者が正解ラベルを付与しており,タスク参加者はそれらの平均や最頻値などではなく,分布を正しく推定することが求められる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{FinNum-3(Core)\protect\cite{finnum}}本タスクは金融関連のテキスト情報における数値情報の理解に焦点を当てたタスクであり,これまでに同様のトピックで3回のタスクが運営されている.今回のタスクでは,株式アナリストが書いた文書と企業の収支報告書を対象としており,「売上成長率が40\%を超える見込みだ」といったような専門家による数値的予測を含む主張を発見することを目的としている.また,過去のFinNumタスクで提案された数値の分類もタスクに含まれており,数値が金額,値段,時間,量,型番,順位などの分類のうち,どれに該当するかを予測をすることが求められている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Lifelog-4(Core)\protect\cite{lifelog}}その名の通り,本タスクはライフログ情報を対象とした検索タスクであり,1名のライフロガーの4ヶ月に渡るライフログデータの中から特定の情報を探し出すタスクを提供している.ライフログデータは,(1)時間,場所,生体情報などのメタデータ,(2)ウェアラブルカメラで撮影された画像データ,(3)画像データに対して物体認識を行った結果,から構成されており,これらと「家で冷蔵庫中を覗いたとき」や「道に迷って人に訪ねているとき」といったテキスト入力を対応付けて検索することが求められている.一般的なシステム評価に加えて,ユーザが関与するインタラクティブなシステムの評価も行っておりユニークなタスクとなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{QALab-PoliInfo-3(Core)\protect\cite{qalab}}本タスクは地方議会議事録に対する自然言語処理タスクであり,あるトピックに対する各政党の賛否を推定するなど,政治関連文書の理解を支援するための技術について取り組んできている.NTCIR-16においては以下の4つの問題に取り組んでいる.QAalignmentサブタスクでは,与えられた質問への回答を議事録の中から発見し,Questionansweringサブタスクでは,与えられた質問への回答を議事録に基づいて生成する.Factverificationサブタスクは,与えられた議事録要約文を含意するような箇所を発見するタスクで,Budgetargumentminingサブタスクは,議事録中の数値と予算案中の数値を対応付けるタスクである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{WWW-4(Core)\protect\cite{www}}ウェブ文書検索は,NTCIR-3(2002年)から取り組まれてきた課題であり,情報検索技術の応用先として非常に重要な問題である.WWWはウェブ文書検索を扱ったタスクであり,NTCIR-13(2017年)から継続的にタスクを運営し,ウェブ情報検索の代表的なベンチマークとしての役割を果たしてきた.本タスクのユニークな点としては,再現可能性の重視と技術的進歩の測定が挙げられる.WWW-3(NTCIR-15にて開催)においてもっとも良い成績を収めた参加チームは,WWW-4(NTCIR-16にて開催)において同システムの結果を提出することが求められており,これによってWWW-4において実際に技術革新があったかどうかを検証することができるようになっている.また,WWW-3においてもっとも良い成績を収めた参加チームの結果を,他のチームが再現することも推奨されており,これによって再現可能性を検証することも行っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{RCIR(Pilot)\protect\cite{rcir}}本タスクは,より詳細なユーザ情報を活用しようとするタスクの1つであり,文書内におけるユーザの視線情報を情報アクセス技術のために利用しようとする試みである.特に本タスクでは,視線情報からの文書理解度の推定,および,凝視情報に基づいたパッセージ検索タスクを提供している.本タスクで提供されているデータセットは,9名の実験協力者から得られた,96パッセージに対する視線情報,および,その理解度に関するデータであり,視線情報を活用した他の研究にも活用されることが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Real-MedNLP(Pilot)\protect\cite{mednlp}}MedNLPタスクは医療関連文書に対する自然言語処理タスクであり,過去には固有表現抽出や国際疾病分類コードの付与タスクなどを提供してきた.NTCIR-16のReal-MedNLPは4度目のタスク提案であり,これまでには提供できなかった,実際の医療文書(症例報告)を対象として,2種類のタスクを,2言語(日英)にて提供している.1つ目は症状などの固有表現抽出であり,少数の文書にのみアノテーションが与えられている設定や固有表現の各クラスの定義文のみを学習データとして用いられる設定など,低リソース下を想定したタスクとなっている.もう1つは応用寄りのタスクであり,医療文書からどのような薬物有害事象が起こるかを予測することを目的としている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{SS(Pilot)\protect\cite{ss}}これまでの多くの情報検索タスクは1つのクエリに対して1つの検索結果リストを返却するシステムを想定していたが,多くの検索タスクでは複数のクエリを入力し,複数の検索結果リストを閲覧する必要がある.本タスクは,あるセッション(複数の検索を含む検索行動の単位)が与えられた上で,クエリに対し適合する文書を検索するタスクである.例えば,「東京観光秋」といったクエリの後に「東京観光寺」というクエリで検索した場合には,紅葉がきれいな東京の寺に関する情報がより適合すると考えられる.TianGong-STというSogou(捜狗)検索エンジンのクリックログを利用したタスク設計となっており,大規模な実ユーザの検索行動情報を利用可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ULTRE(Pilot)\protect\cite{ultre}}本タスクはランキング学習に関するタスクであるが,特に近年着目されているクリック情報のバイアスに焦点を当てたタスク設計となっている.ランキング学習は,クリック情報などを活用しランキングモデルを学習することで,利用者にあったランキングを生成する技術であるが,クリック自体にバイアス(例えば,検索結果の上位にある結果はクリックされやすいという「順位バイアス」がある)が存在するため,学習によって得られるモデルにもバイアスが生じてしまう.このタスクでは,バイアスを含まないランキングモデルの構築を目的として,シミュレーションによるクリックデータの提供,および,学習されれたランキングモデルの評価を行っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
本解説記事では,NTCIRにて運営されてきたタスクの傾向について説明し,NTCIR-16で運営されたタスクの概要について解説した.NTCIRはこれまでにさまざまな自然言語処理タスクを扱ってきており,近年,その多様性は増している.もしコミュニティ単位で取り組みたいような,情報アクセス関連の研究課題をお持ちであれば,次回のNTCIRでのタスク提案を検討していただければ幸いである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentNTCIRの運営は非常に多くの方に支えられており以下の方々に対してここに記して謝意を表したく存じます.タスクの選定にあたってはNTCIR-16プログラム委員会,タスク運営にあたってはNTCIR-16の各タスク運営者の皆様にご尽力をいただきました.また,NTCIR-16参加者の皆様にも,システム結果の提出,論文執筆,NTCIR-16カンファレンスでの発表および議論等をいただき,各タスクが設定する研究課題に対して貢献をいただきました.NTCIR-16カンファレンスの実施にあたっては,詳細なチュートリアルを提供してくださった酒井哲也先生,キーノートスピーカーの皆様,NTCIR-16カンファレンス実行委員会の皆様,それから,カンファレンス運営を支えてくださった石下円香様,大須賀智子様,篠原清子様,河田友香様にもお礼申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\begingroup\addtolength{\baselineskip}{-0.75pt}\bibliography{27refs}\endgroup%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{加藤誠}{%筑波大学図書館情報メディア系准教授.2012年京都大学大学院情報学研究科博士後期課程修了.博士(情報学).情報検索の研究に従事.NTCIR-9からタスク運営者として関わり,NTCIR-12からNTCIR-15ではプログラム共同委員長,NTCIR-16からは共同実行委員長を務める.}\bioauthor{山本岳洋}{%2011年京都大学大学院情報学研究科博士後期課程修了.博士(情報学).現在,兵庫県立大学大学院情報科学研究科准教授.主に情報検索におけるユーザインタラクションやユーザ理解に関する研究に従事.NTCIR-10からNTCIR-14にかけてタスク運営者として関わり,NTCIR-16,NTCIR-17ではプログラム共同委員長を務める.}\bioauthor{神門典子}{%1994年慶應義塾大学大学院文学研究科後期博士課程修了.博士(図書館・情報学).現在,国立情報学研究所教授.主に情報検索・情報アクセス技術の研究に従事.1997年末にNTCIRを開始し,以降,国内外の多くの研究者と協力し多様なタスク提案・運営・国際協調等を進めてきた.ACMSIGIRAcademyInauguralInductee.言語処理学会,人工知能学会,情報処理学会,ACM,ACL,ASIS\&T各会員.}\end{biography}\end{document}
| |
V04N04-01
|
\section{はじめに}
連接関係の関係的意味は,接続詞,助詞等により一意に決まるものもあるが,一般的には曖昧性を含む場合が多い.一般的には,複文の連接関係の関係的意味は,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.しかし,各々の単文の意味とそれらの間の関係を理解するためには広範囲の知識が必要になる.それらの背景知識を記述して,談話理解に利用する研究\cite[など]{ZadroznyAndJensen1991,Dalgren1988}も行われているが,現状では,非常に範囲を限定したモデルでなければ実現できない.従って,連接関係を解析するためには,少なくともどのような知識が必要になり,それを用いてどのように解析するのかが問題になる.シテ型接続に関する研究\cite{Jinta1995}では,助詞「て」による連接関係を解析し,「時間的継起」のほかに「方法」,「付帯状態」,「理由」,「目的」,「並列」などの意味があることを述べている.これらの関係的意味は,動詞の意志性,意味分類,アスペクト,慣用的な表現,同一主体,無生物主体などによって決まることを解析している.しかし,動詞の意志性自体が,動詞の語義や文脈によって決まる場合が多い.また,主体が省略されていることも多い.さらに,「て」以外の接続の表現に対して,同じ属性で識別できるかどうかも不明である.表層表現中の情報に基づいて,文章構造を理解しようとする研究\cite{KurohasiAndNagao1994}では,種々の手掛かり表現,同一/同種の語/句の出現,2文間の類似性を利用することによって連接関係を推定している.しかし,手掛かり表現に多義のある時は,ある程度の意味情報を用いる必要がある.日本語マニュアル文においてアスペクトにより省略された主語を推定する研究\cite{NakagawaAndMori1995}や,知覚思考,心理,言語活動,感情,動きなど述語の意味分類を用いて,「ので」順接複文における意味解析を行う研究\cite{KimuraAndNisizawaAndNakagawa1996}などがあり,アスペクトや動詞の意味分類が連接関係の意味解析に有効なことが分かる.しかし,連接関係全般について,動詞と主体のどのような属性を用いて,どの程度まで解析できるかが分からない.本論文では,「て」以外の曖昧性の多い接続の表現についても,その意味を識別するために必要な属性を調べ,曖昧性を解消するモデルを作成した.動詞の意志性については,予め単文で動詞の格パターンを適用して解析して,できるだけ曖昧性を無くすようにした.省略された主体については,技術論文,解説書,マニュアルなどの技術文書を前提にして,必要な属性を復元するようにした.
\section{連接関係の曖昧性}
接続詞,助詞等の接続の表現には曖昧性がある.特に,「て」,「ため」,「が」,「と」などで表現される従属節の関係的意味は様々である.これは,「から」,「ので」などと違って,これらの接続の表現自体が明確な固有の意味を有していないからである.従って,これらの接続の表現では,連接関係の関係的意味が,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.「〜して」形式で表される連接関係の関係的意味には,次の幾つかの例で示すように,「時間的継起」,「方法」,「付帯状態」,「原因」,「目的」,「並列」などがある.\begin{description}\item[〔例文1〕]それぞれのセグメントにTCPヘッダを加えて,相手のプロトコルモジュールに送っています.(時間的継起)\item[〔例文2〕]ネットワークを利用して,常に最新のデータを取り出すことができます.(方法)\item[〔例文3〕]そこで女中が鍵を持って,私を待っていた.(付帯状態)\item[〔例文4〕]この部屋は静かで,よく眠れる.(原因)\item[〔例文5〕]私がだれかにこの暗号を伝達する前に詳細を知ろうとして,私をつけ狙った.(目的)\item[〔例文6〕]交通は混乱して,人心は険悪である.(並列)\end{description}「〜と」形式で表される連接関係の関係的意味には,「時」,「条件」,「原因」などがある.\begin{description}\item[〔例文7〕]朝起きると,すぐシャワーを浴びる.(時)\item[〔例文8〕]同じユーザ名でもユーザIDやグループIDが異なっていると,うまくログインやファイルのコピーができません.(条件)\item[〔例文9〕]窓を開けると,寒い風が入った.(原因)\end{description}「〜ため」形式で表される連接関係の関係的意味には,「原因」と「目的」がある.\begin{description}\item[〔例文10〕]AとCは,異なったネットワークにあるため,データリンク層のプロトコルも違います.(原因)\item[〔例文12〕]異なる地域,都市,国の間を結ぶため,自分達で勝手に通信回線の敷設はできません.(目的)\end{description}「〜が」形式で表される連接関係の関係的意味には,「逆接」,「対比」,「前置き」などがある.\begin{description}\item[〔例文13〕]何度も説明しましたが,あの人は分からなかった.(逆接)\item[〔例文14〕]兄は勤勉だが,弟はずぼらだ.(対比)\item[〔例文15〕]ちょっと伺いますが,駅はどこですか.(前置き)\end{description}
\section{動詞と主体の属性と連接関係の関係的意味}
複文中の連接関係は,従属節や主節の述語の表している事象の意味タイプ,およびその組み合わせによって決まってくる.ここで,事象の意味タイプは,ある主体が行う動作または状態の分類,意志性などを表す~\cite{Jinta1995}.例えば,生物主体の姿勢変化,携帯,心的状態,使用,作成,助言などである.従って,事象の意味タイプは,動詞と名詞の属性を用いて表すことができると考えることができる.従って,動詞と名詞の意味的関係を表すために,動詞と名詞の意味分類を用いた格パターンがあると同様に,従属節と主節の連接関係にも,動詞と名詞の属性を用いた連接関係パターンが存在すると考えることができる.本論文では,従属節と主節の,動詞と主体の属性を用いて,連接関係の関係的意味を推定する方法をとった.動詞の属性として,意志性,意味分類,慣用的表現,ムード・アスペクト・ヴォイス,主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを採用した.次に,各々の属性によって,連接関係の関係的意味がどのように決まるかを,いくつかの例で示す.\subsection{動詞の意志性と主体の同一性,無生物性}従属節と主節の動詞の意志性および主体が同一かどうか,無生物主体かどうかの組み合わせによって,連接関係の関係的意味が次のように影響を受ける.ここで,主体は,動作主,経験者などを含む概念である\cite{Jinta1995}.動詞の意志性は,人間の意志的な行為を表し,誘い掛けや命令の意味を表す.生物/無生物は,生命の有る/無しではなく,情意,特に自由意志による行動可能なものを表す.「〜して」形式接続で,従属節と主節が共に意志動詞で形成され,両者の主体が同一の時は,「時間的継起」を表すことが多い.これは,同一主体による制御可能な動きは,通常,継起的に引き起こされるためである.本論文のモデルで用いた用例では,このパターンに属する連接関係の94\%が「時間的継起」を表した.ただし,後に述べる従属節の意味分類から「方法」,「付帯状態」と識別されるものは除いてある.用例の内容については\ref{section:evaluation}章で述べる.\begin{description}\item[〔例文16〕]ユーザは,IDとパスワードを指定して,OKボタンをクリックします.\end{description}「〜して」形式接続で,従属節と主節の主体が無生物で動詞が共に無意志動詞の時は,「時間的継起」を表すことが多い.自然界における無生物的な2現象が,時間的継起の下に生じることはよくある.この場合がそれに相当する.用例では,従属節の意味分類から「原因」と識別されるものを除くと,このパターンに属する連接関係の85\%が「時間的継起」を表した.\begin{description}\item[〔例文17〕]ログインが成立して,プロンプトが戻ってきます.\end{description}「〜して」形式接続で,従属節と主節が共に無意志動詞で従属節が無生物主体,主節が生物主体の時は,「原因」を表すことが多い.これは,主たる事象が人間に関するものでありながら,従属節で人間の意志で制御できない事象が生じたためである.一般に技術文書ではこのパターンは少なく,用例でも2例しかなかったが,2例の連接関係はいずれも「原因」を表した.\begin{description}\item[〔例文18〕]彼は,車が故障して,遅れた.\end{description}「〜ため」形式接続で,従属節と主節が共に意志動詞で生物主体の時は,「目的」を表すことが多い.これは,同一主体が,従属節の事象を達成する目的で,主たる事象を行うためである.用例ではこのパターンに適合する連接関係は,全て「目的」を表した.\begin{description}\item[〔例文19〕]ユーザは,FDDIでUNIXワークステーションを接続するために,通常FDDIの通信用ボードを購入しなければなりません.\end{description}「〜ため」形式接続で,従属節が無意志動詞で,主節も無意志動詞の時は「原因」を表すことが多い.これは,従属節で人間の意志で制御できない事象が生じ,それからある事象が起こったときは,その事象の原因と解釈されるためである.無意志動詞には,心的作用を表す動詞や,状態を表す動詞のほか,意志動詞に「される」が後接した受動態や,意志動詞に「ている」,「てある」が後接した「単純状態」や「変化状態の維持」のアスペクトなどを含む.このような場合を含めると,用例では,このパターンに適合する連接関係はすべて「原因」を表した.\begin{description}\item[〔例文20〕]FDDIはトークンパッシング方式を採用しているため,ネットワークトラフィックによる性能の低下がない.\end{description}「〜と」形式接続で,従属節と主節が共に意志動詞で同一主体の時は,「時」を表すことが多い.「〜と」形式接続は一般的には「条件」を表すことが多いが,同一主体による制御可能な動きの場合には,「その時」または「〜してすぐ」という意味になりやすい.主節のヴォイスが「可能」を表す時には「条件」を表すことが多いので,この場合を除くと,用例ではこのパターンに適合する連接関係は全て「時」を表した.\begin{description}\item[〔例文21〕]彼女は,部屋に入ると,窓を開けた.\end{description}\subsection{動詞の意味分類}動詞の意味分類によっても,連接関係の関係的意味が影響を受けることがある.次に,幾つかの例を挙げる.「〜して」形式接続で従属節の動詞が,姿勢変化,着脱,携帯,心的状態などの意味分類であるときは「付帯状態」を表すことが多い.「付帯状態」とは,従属節と主節の事象が時間的に同存し,同一主体で,従属節で主節の事象の実現のされ方を表しているものである.\begin{description}\item[〔例文22〕]わたしは汗で湿った服をそのまま着て,また寮に出かけていった.\end{description}「〜して」形式接続で,従属節の動詞が,使用,作成,助言などの意味分類であるときは,「方法」を表すことが多い.つまり,従属節の事象が,主節の事象を実現するための方法的要因になっている場合である.技術文書では,「〜を利用して」,「〜を作成して」などの表現が多いので,連接関係の関係的意味にも「方法」がかなりある.意味分類の定義は,基本的には分類語彙表に因った.分類語彙表の意味分類に用例を適用して,正の用例のみを含む場合は分類語彙表の分類で定義したが,負の用例を含む場合は正の用例の単語をそのまま定義に加えた.\begin{description}\item[〔例文23〕]そのケーブルを使って,データを送る必要があります.\end{description}「〜が」形式接続で,主節と従属節の動詞又は形容詞の意味分類が,反意語の時は「対比」を表すことが多い.用例では,2例だけであったが,2例とも「対比」を表した.\begin{description}\item[〔例文24〕]昨日まで寒かったが,今日から急に暖かくなった.\end{description}\subsection{ムード・アスペクト・ヴォイス}ムード・アスペクト・ヴォイスによっても連接関係の関係的意味が変わってくる.前述のように,「される」が後接した受動態や,「ている」,「てある」が後接した「単純状態」や「変化状態の維持」のアスペクトなどを含む節は無意志的に解釈されるが,そのほかにも次に示すような幾つかの例がある.「〜して」形式接続で,従属節が「〜(よ)うとして」といった将然相の形をとる場合は,「目的」を表すことが多い.主節の事象を引き起こす計画を,従属節で述べているためである.\begin{description}\item[〔例文25〕]体を鍛えようとして,毎日ジョギングをやっている.\end{description}「〜が」形式接続で,主節が疑問文の時は,「前置き」を表すことが多い.一般的には,「〜が」は「逆接」または「対比」を表すことが多いが,主節が疑問文の時は,質問に対する前提条件を表すことが多いためである.用例では,このパターンに属する連接関係は全て「前置き」を表した.\begin{description}\item[〔例文26〕]ここに鍵が置いてありますが,誰のですか.\end{description}「〜と」形式接続で,従属節が生物主体で「ている」,「かける」,「はじめる」の場合は,「時」を表すことが多い.「〜と」は一般的には,「条件」を表すことが多いが,従属節が生物主体で動作の「進行」または「開始」を表すアスペクトの場合は,「その時」または「〜してすぐ」の意味になることが多いためである.用例では,このパターンは少なかったが,適合する連接関係は全て「時」を表した.\begin{description}\item[〔例文27〕]食事をしていると,急にグラッと揺れた.\end{description}\subsection{従属節が慣用句的になっているもの}従属節が慣用句化して副詞的に用いられる場合がある.この場合は,接続の表現もそれぞれの慣用句に対応した関係的意味を持つ.「〜して」形式接続で,従属節が「体力をふり絞って」,「先を争って」,「まとまって」,「だまって」などの表現をとるときは,「付帯状態」を表す.\begin{description}\item[〔例文28〕]体力を振り絞って,走った.\end{description}
\section{複文の連接関係解析モデル}
前述のように複文の連接関係は,動詞の意志性,意味分類,ムード・アスペクト・ヴォイス,慣用表現,主体の同一性,無生物主体かどうかなどによって決まる場合が多い.これらの情報により,連接関係を解析することができる.しかし,動詞の意志性自体に曖昧性がある.また,主体が省略されていることも多い.従って,連接関係を解析する前に,これらの情報を解析しておく必要がある.複文の連接関係の解析モデルは図1に示すように,動詞と主体の属性を解析し,それらの属性を用いて,連接関係の解析を行う.\vspace*{2mm}\begin{figure}[htbp]\begin{center}\epsfile{file=fig1.eps,width=78mm}\bigskip\caption{連接関係の解析モデル}\label{fig:1}\end{center}\end{figure}本論文のモデルは連用修飾節の解析を対象としたので,「の」,「こと」などによる連体修飾節は,入力文から省いてある.連接関係パターン,格パターン,名詞の属性などをHPSG\cite[など]{PollardAndSag1987,PollardAndSag1993}の素性構造に似た形式で表し,辞書に登録した.これらの辞書の情報を用いて,動詞と主体の属性の解析,連接関係の解析を行い,複文の素性構造に相当する出力を生成する.解析は,簡単なHPSGパーザをprologで作成して行った.このパーザは,格パターンの解析と連接関係パターンの解析の機能だけを持ったもので,この目的のために作成した.辞書は,IPAL辞書\cite[など]{IPA1987,IPA1990}と分類語彙表\cite{Kokuritukokugokenkyujo1989}に基づき作成した.動詞の格パターン,動詞の意志性はIPAL辞書のものを採用した.動詞の意味分類は分類語彙表の分類を用いた.IPAL辞書の格パターンで用いている名詞の意味分類は,比較的粗い分類になっている.従って,動詞の意味分類の方が名詞の意味分類よりも詳しくなっている.名詞の生物/無生物の区分については,意味分類が「人間」と「組織」の場合を「生物」とし,それ以外を「無生物」とした.用例は,主としてネットワークプログラムの解説書からとったため,プログラムの機能説明が多数含まれていた.その中で,プログラムが生物と同様の行動をするので,プログラムも生物に分類した.コンピュータ用語でIPAL辞書にも分類語彙表にも無い用語が多数出てきたが,同じ分類の用語に準じて定義し辞書に追加した.\subsection{動詞と主体の属性の解析}複数の語義のある動詞は,語義を確定しないと,意志性を確定できない.そのため,動詞の格パターンを適用して,語義を確定するようにした.図2に,辞書における動詞の格パターンの記載例を示す.図2ではHPSGの形式で記載しているが,実際の辞書ではprologの形式に変換して格納している.この格パターンを用いて入力文を解析する過程で,適合したパターンの語義を選択し,意志性を確定した.しかし,意志動詞でも,特定の語義で無意志用法のあるものがある.\begin{description}\item[〔例文29〕]B29は工場に爆弾を落とした.(意志用法)\item[〔例文30〕]彼女はお皿を落として割ってしまった.(無意志用法)\end{description}\begin{figure}[htbp]\small(a)動詞の記載例\\[1mm]\hspace*{10mm}$\begin{ftr}&PHON&開ける&\\&&&\\[-3mm]&SYN|LOC|CAT&\begin{ftr}&HEAD&\begin{ftr}&MAJ&~V&\\&VFORM&~DICTIONARY-FORM&\\&\multicolumn{2}{l}{ADJUNCTS\{[LOC|HEAD|MAJ\;\;ADV]\}}&\\&LEX&~+&\\\end{ftr}&\\&&&\\[-3mm]&SUBCAT&\left\langle\begin{array}[c]{l}PP[NOM][\,1\,][+ANIMATE,HUMAN],\\PP[ACC][\,2\,][-ANIMATE,PRODUCT]\\\end{array}\right\rangle&\\\end{ftr}&\\&&&\\[-3mm]&SEM|CONT&\begin{ftr}&RELN&~AKERU&\\&OPENER&~[\,1\,]&\\&OPEND&~[\,2\,]&\\&VOLITION&~+&\\&SEM-TYPE&~開・閉&\\\end{ftr}&\\\end{ftr}$\\[1mm]\hspace*{15mm}注)$VP[DICTIONARY-FORM][+VOLITION]$と略記する\bigskip(b)名詞句$PP[ACC][-ANIMATE,PRODUCT]$の内容\\[1mm]\hspace*{10mm}$\begin{ftr}&PHON&箱を&\\&&&\\[-3mm]&SYN|LOC|CAT&\begin{ftr}&HEAD&\begin{ftr}&MAJ&~P&\\&PFORM&~WO&\\&CASE&~ACC&\\\end{ftr}&\\&&&\\[-3mm]&SUBCAT&\langleNP[-ANIMATE,PRODUCT]\rangle&\\\end{ftr}&\\\end{ftr}$\bigskip(c)名詞$NP[-ANIMATE,PRODUCT]$の内容\\[1mm]\hspace*{10mm}$\begin{ftr}&PHON&箱&\\&&&\\[-3mm]&SYN|LOC|CAT&\begin{ftr}&HEAD|MAJ&~N&\\&SUBCAT&~\langle\;\;\rangle&\\\end{ftr}&\\&&&\\[-3mm]&SEM|LOC|CONT&\begin{ftr}&ANIMATE&~-&\\&SEM-TYPE&~PRODUCT&\\\end{ftr}&\\\end{ftr}$\bigskip\caption{辞書における動詞の格パターンの記載例}\label{fig:2}\end{figure}ただし,技術文書を考えた場合,意志動詞の無意志用法は比較的少ない.実際に用例を調べた結果,意志動詞の無意志用法は,非常に少く2\%であったので無視することにした.従って,IPAL辞書の動詞の意志性で無意志用法の有るものは,意志動詞として分類した.主体が省略されている時には,マニュアル,技術論文などの技術文書であることを前提にして,比較的単純な方式により,生物主体か無生物主体か,同一主体か異主体かを推定するようにした.一般的に,著者や読者が主題になっているときは,先行文脈から推定可能であり,特に強調する必要があるときなど,特別の場合以外は,省略されるのが普通でる.例えば,マニュアル類では,装置の開発者が,利用者に説明することを前提にして書かれているので,開発者や利用者が省略されることが多い.技術文書でも,開発者や研究者又は読者が省略される.文全体の主題と従属節の主題が同じ時は,従属節の主題は省略される.ただし,従属節に主題でない主体があるにもかかわらず,主節の主体が省略されることは有り得る.この場合は,省略された主体は,先行文脈の主題であり,かつ,文全体が主題寄りの視点で記述されている可能性が高い~\cite{Kuno1978}.技術文書では著者又は読者寄りの視点から書かれているのが普通であるから,著者又は読者が省略されている場合が多い.省略された主体を埋める候補が意味的に矛盾しないかどうかの検証は,動詞の要求する主体が生物か無生物かによった.連接関係の解析に必要な情報は,同一主体か,無生物主体かだけであり,HPSGパーザは格パターン,連接関係パターンの順序で縦形探索を用いて解析しているので,次のような簡単な処理方法により省略された主体を推定した.\begin{enumerate}\item格パターンを適用するとき,生物主体のパターンを優先する.\label{item:animate}\item最終的に動詞の格パターンのSUBCATに残った項を,省略を復元する候補とする.\label{item:subcat}\item連接関係パターンを適用するとき,同一主体のパターンを優先する.\label{item:same}\item従属節が無生物主体で,主節の主体が省略されている時だけ特別扱いし,生物/無生物の異主体のパターンを優先する.\label{item:different}\item優先するパターンが無いときは,次に確率の高いパターンを適用する.\end{enumerate}\ref{item:animate}は,著者や読者が省略されている可能性が高い事を表す規則であり,\ref{item:same}は,次の\ref{item:different}の場合を除いて,文全体の主題と従属節の主題が同じ場合,および従属節の主体と主節の主体が同じ場合が多い事を表す規則である.\ref{item:different}は,従属節が無生物主体で,主節の主体が著者または読者の場合に相当する.従属節の動詞の意味分類によって,連接関係の関係的意味が決まってくることがある.従って,動詞が特定の意味分類に属しているかどうかを,解析する必要がある.このため,動詞の意味分類によって決まる接続の表現に対しては,辞書の連接関係パターンの記載に,その関係的意味が要求する動詞の意味分類を記載して,動詞の意味分類と単一化するようにした.動詞の意味分類は,前述のように連接関係の関係的意味を識別する必要上,名詞の意味分類より詳細になっている.従属節が慣用句化して副詞的に用いられる場合は,慣用句として辞書に記載しておき,入力文を解析する時に優先的に選択する.上記のようにHPSGパーザの解析過程で,格パターンを適用することにより,動詞と主体の属性を求め,引き続き連接関係パターンを適用することにより,連接関係を解析する.\subsection{連接関係の解析}接続の表現は,図3に示すような形式で辞書に記載される.図3には,「〜して」形式接続で,従属節と主節が共に意志動詞,主体が同一で,「時間的継起」を表す場合の連接関係パターンを示す.このような連接関係パターンが,接続の表現別,連接関係の関係的意味別に存在する.1つの関係的意味を複数のパターンで表すことも有り得る.\begin{figure}[htbp]\small\bigskip\begin{displaymath}\begin{ftr}&PHON&て&\\&&&\\[-3mm]&\multicolumn{2}{l}{SYN\;\begin{ftr}&\multicolumn{2}{l}{LOC|CAT\;\begin{ftr}&HEAD&\begin{ftr}&MAJ&~ADV&\\&JFORM&~TE&\\\end{ftr}&\\&&&\\[-3mm]&SUBCAT&\left\langle\begin{array}[c]{l}VP[ADVERVIAL-FORM][\,1\,][+VOLITION],\\SUBCAT\langlePP[NOM][\,3\,][+ANIMATE]\rangle\\\end{array}\right\rangle&\\\end{ftr}}&\\&&&\\[-3mm]&BIND|CAT|MAIN&\left\langle\begin{array}[c]{l}VP[\,2\,][+VOLITION],\\SUBCAT\langlePP[NOM][\,3\,][+ANIMATE]\rangle\\\end{array}\right\rangle&\\\end{ftr}}&\\&&&\\[-3mm]&SEM|LOC|CONT&\begin{ftr}&CONN&~SEQUENTIAL&\\&JUNCT&~\{[\,1\,],[\,2\,]\}&\\\end{ftr}&\\\end{ftr}\end{displaymath}\bigskip\caption{辞書における連接関係パターンの記載例}\label{fig:3}\end{figure}\newpage連接関係パターンで使用している素性は,表1の通りである.ただし,一般的なHPSGの素性は省いてある.\begin{table}[htbp]\begin{center}\caption{連接関係パターンの素性}\label{tab:1}\smallskip\begin{tabular}{|l|l|l|}\hline\multicolumn{1}{|c}{素性}&\multicolumn{1}{|c}{値}&\multicolumn{1}{|c|}{意味}\\\hlineVOLITION&+,$-$&意志性\\ANIMATE&+,$-$&生物/無生物\\SEM-TYPE&\{使用,製造,教育\},$\cdots$&意味分類\\VOICE&PASSIVE,ACTIVE,&ヴォイス(受動/能動/使役/可能)\\&CAUSATIVE,POSSIBLE&\\ASPECT&\{TEIRU,TEARU\},$\cdots$&アスペクト\\MOOD&QUESTION,VOLITION&ムード(疑問/意志)\\IDIOM-TYPE&TE-SEQ,GA-PRE&慣用句の分類\\\hline\end{tabular}\end{center}\end{table}特定の接続の表現の連接関係パターンで,従属節の要求する素性はSUBCATで表され,主節の要求する素性はMAINで表される.解析の過程で単一化に成功したパターンが選択され,適合する連接関係の関係的意味が選択されることになる.
\section{連接関係解析モデルの評価結果}
label{section:evaluation}本論文の連接関係の解析モデルを,実際の技術文書に適用して評価した.評価結果は,表2に示す通りである.\begin{table}[htbp]\begin{center}\caption{連接関係解析モデルの評価結果}\label{tab:2}\smallskip\begin{tabular}{|l|l|r|r|r|r|}\hline\makebox[18mm][c]{接続の表現}&\makebox[18mm][c]{関係的意味}&\makebox[18mm][c]{パターン数}&\makebox[18mm][c]{文数}&\makebox[18mm][l]{正しく解析で}&\makebox[18mm][l]{正しく解析で}\\[-1mm]&&&&\multicolumn{1}{|l|}{きた文}&\multicolumn{1}{|l|}{きなかった文}\\\hlineあいだ&時&0&1&&1\\うえで&目的&1&2&2&\\が&逆説&1&12&12&\\&前置き&2&4&4&\\&対比&1&3&1&2\\から&原因&1&3&3&\\&理由&1&1&1&\\さいに&時&1&4&4&\\し&並列&1&6&6&\\&理由&1&0&&\\ため(に)&目的&2&13&13&\\&原因&2&9&8&1\\たら(ば)&条件&1&1&1&\\&理由&1&0&&\\&時&1&0&&\\たり&並列&1&4&4&\\て/で&時間的継起&3&14&10&4\\&方法&3&8&8&\\&付帯状態&1&6&6&\\&原因&2&4&4&\\&目的&1&0&&\\&並列&1&1&1&\\ても&逆接条件&1&10&10&\\と&条件&2&13&13&\\&時&2&2&2&\\&原因&1&0&&\\といえば&題材&0&1&&1\\とき&時&1&9&9&\\とともに&時&0&1&&1\\ながら&同時動作&1&1&1&\\&逆接&1&0&&\\なら(ば)&条件&1&0&&\\ので&原因&1&12&12&\\&理由&1&14&14&\\のに&逆接条件&1&2&2&\\ば&条件&1&22&22&\\&並列&1&0&&\\ばあい&条件&1&14&14&\\ように&対比&2&3&3&\\&推量&1&1&1&\\より&対比&0&1&&1\\連用中止&並列&2&28&28&\\&時間的継起&2&8&7&1\\\hline\multicolumn{1}{|c|}{合計}&&52&238&226&12\\\hline\multicolumn{1}{|c|}{比率(\%)}&&&100&95&5\\\hline\end{tabular}\end{center}\end{table}まず,接続の表現として最も多く使われる20の接続の表現を選択した.表2には,この20の表現に,評価した例文に出てきた4つの表現を追加して挙げてある.複文中の単文と単文を接続する表現を中心として選択し,複文と複文を接続する表現は除いた.また,本論文では,前述のように連用修飾節を解析の対象としたので,「の」,「こと」などによる連体修飾節に対する接続の表現は省いてある.上記20の接続の表現に対する連接関係パターンを解析した.解析のための例文としては,複文に関する論文集\cite{Jinta1995}から145文,日本語教育の参考書\cite[など]{YokobayasiAndSimomura1988,Houjou1992}から323文,ネットワークの解説書\cite{KaneutiAndImayasu1993}の前半から312文を選択した.合計780文の連接関係に適合する52の連接関係パターンを抽出した.連接関係パターンは図3に示すような構成をしており,表1に示す素性の有/無がパターン毎に異なる.各々の接続の表現毎の関係的意味に対するパターン数は表2に示す通りである.この連接関係パターンを,ネットワークの解説書の後半からとった別の238文に適用した結果が,表2の連接関係モデルの評価結果である.用意した20の接続の表現に含まれないものが4例,正しく解釈できなかったものが8例あった.合計して5\%の文は正しく解釈できなかったが,残りの95\%は正しく解析することができた.正しく解析できたかどうかの判断の基準は,「〜して」形式接続については複文に関する論文集\cite{Jinta1995},その他については日本語教育の参考書\cite[など]{YokobayasiAndSimomura1988,Houjou1992}の例文に因った.似た例文を探して,その例文の連接関係の意味を採用した.連接関係の意味が正しいかどうかの判断の結果は,3名の語学の研究者に見てもらい,異議の出たものは修正した.
\section{むすび}
本論文では,従属節と主節の,動詞と主体の属性を用いて,連接関係の関係的意味を解析するシステムを作成した.動詞と名詞の意味的関係を表すために,動詞と名詞の意味分類を用いた格パターンがあると同様に,従属節と主節の連接関係にも,各々の節を構成する動詞と主体の属性を用いた連接関係パターンが存在すると考えることができる.動詞の属性として,動詞の意志性,意味分類,慣用的表現,ムード・アスペクト・ヴォイス,主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを採用した.このシステムを,実際の技術文書に適用して評価した結果,95\%の正しい解析結果を得ることができた.今回は,連接関係パターンを手作業で抽出したが,確率モデルを採用し,パターンの属性の組み合わせを学習するシステムに拡張する事が今後の研究課題である.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{向仲\smbfkou}{1953九州大学工学部電気工学科卒業.同年,日本電気(株)入社.基本ソフトウェア開発に従事.平成5年より金沢経済大学教授.平成9年より江戸川大学教授,現在に至る.自然言語理解,エキスパートシステムの研究に従事.情報処理学会,言語処理学会,人工知能学会,ACL,ACM,IEEE各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N04-10
|
\section{はじめに}
\label{sec:intro}日英対訳コーパスは,機械翻訳などの自然言語処理において必要であるばかりでなく,英語学や比較言語学,あるいは,英語教育や日本語教育などにとっても非常に有用な言語資源である.しかしながら,これまで,一般に利用可能で,かつ,大規模な日英対訳コーパスは存在していなかった.そのような背景の中で,我々は,比較的大規模な日本語新聞記事集合およびそれと内容的に一部対応している英語新聞記事集合とから,大規模な日英対訳コーパスを作ることを試みた.そのための方法は,まず,内容が対応する日本語記事と英語記事とを得て,次に,その対応付けられた日英記事中にある日本語文と英語文とを対応付けるというものである.ここで,我々が対象とする日本語記事と英語記事においては,英語記事の内容が日本語記事の内容に対応している場合には,その英語記事は,日本語記事を元にして書かれている場合が多いのであるが,その場合であっても,日本語記事を直訳しているわけではなく,意訳が含まれていることが多く,更に,日本語記事の内容の一部が英語記事においては欠落していたり,日本語記事にない内容が英語記事に書かれている場合もある.また,記事対応付けを得るための日本語記事集合と英語記事集合についても,英語記事集合の大きさは日本語記事集合の大きさの6\,\%未満であるので,日本語記事の中で,対応する英語記事があるものは極く少数である.そのため,記事対応付けおよび文対応付けにあたっては,非常にノイズが多い状況のなかから,適切な対応付けのみを抽出しなくてはならないので,対応の良さを判断するための尺度は信頼性の高いものでなくてはならない.本稿では,そのような信頼性の高い尺度を,記事対応付けと文対応付けの双方について提案し,その信頼性の程度を評価する.また,作成した対応付けデータを試験的に公開したときの状況についても述べ,そのようなデータが潜在的に有用な分野について考察する.以下では,まず,対応付けに用いた日英新聞記事について概要を述べ,次に,記事対応付けの方法と文対応付けの方法を述べたあとで,それぞれの対応付けの精度を評価する.最後に考察と結論を述べる.また,付録には,実際に得られた文対応の例を示す.
\section{対応付けに用いた日英新聞記事}
\label{sec:corpora}対応付けの元データは,日本語記事は「読売新聞」,英語記事は「TheDailyYomiuri」であり,それぞれ「読売新聞記事データ」における1989年9月から2001年12月までの記事を利用した.この期間における年間の記事数は,日本語記事は10万から35万程度であり,英語記事は4千から1万3千程度である.また,総記事数は,日本語記事は約200万であり,英語記事は約11万である.このように,英語記事の方が少ないので,対応付けにおいては,各英語記事に対応する日本語記事を求めることにした.記事のメタ情報として,TheDailyYomiuriには,1996年7月中旬から,「本紙翻訳=Y/N」という情報が各記事に付いている.これは,その英語記事を書くにあたって,読売新聞の記事を元にしたかどうかという意味であるので,1996年7月中旬からは,「本紙翻訳=Y」である英語記事についてのみ,対応する日本語記事を求めることにした.このときの英語記事の数は35318である.一方,1996年7月中旬以前には,そのような情報はないので,全ての英語記事について対応する日本語記事を求めることにした.このときの英語記事の数は59086である.なお,以下では,1996年7月中旬以前の記事集合を「1989-1996」と書き,1996年7月中旬以降の記事集合を「1996-2001」と書くことにする.1989-1996については,全英語記事を利用するため,1996-2001と違って,そもそも,各英語記事について対応する日本語記事がない場合がある.そのため,どのくらいの英語記事に,対応する日本語記事があるかを推測するために,「本紙翻訳=Y」の割合を,1997年から2001年の記事について調べたところ,67.9\,\%であった.対応を求めるにあたって,各英語記事に対応する日本語記事は,互いに近い日付であると考えられる.そのため,各英語記事について,その日付の前後2日の範囲の日本語記事の中から対応する記事を見付けることにした.このとき,1日分の英語記事について,日本語記事は5日分があるが,このときの平均記事数は,1989-1996については,英語記事が24,日本語記事が1532,1996-2001については,英語記事が18,日本語記事が2885である.このように,非常に曖昧性があり,かつ,対応記事も場合によっては存在しないという,ノイズの多い状況のなかから対応記事を見つける必要があるので,信頼性の高い記事対応(評価)尺度が必要である.また,文対応についていえば,たとえ記事同士が対応していたとしても,その対応は,直訳関係にあるものは少なく,どちらかというと,日本語記事を材料として英語記事を書いたというような状況である.たとえば,以下の例では,英語と日本語とで,e1,e3,e4とj1,j2,j3,j4とによる3対4に複雑に絡みあう対応があり,その間にe2とj5による対応がある.\begin{quote}\footnotesize\kakko{e1}TwobulletholeswerefoundatthehomeofKengoTanaka,65,presidentofBungeiShunju,inAkabane,Tokyo,byhiswifeKimiko,64,ataround9a.m.Monday.\kakko{/e1}\kakko{e2}Policesuspectright-wingactivists,whohavemountedcriticismagainstarticlesabouttheImperialfamilyappearingintheShukanBunshun,thepublisher'sweeklymagazine,wereresponsiblefortheshooting.\kakko{/e2}\kakko{e3}Policereceivedananonymousphonecallshortlyafter1a.m.MondaybyacallerwhoreportedhearinggunfirenearTanaka'sresidence.\kakko{/e3}\kakko{e4}Policefoundnothingafterinvestigatingthereport,butlaterfoundabulletintheTanakas'bedroom,wheretheyweresleepingatthetimeoftheshooting.\kakko{/e4}\end{quote}\begin{quote}\footnotesize\kakko{j1}二十九日午前八時五十五分ごろ、東京都北区赤羽西四文芸春秋社長、田中健五さん(65)方の二階東側外壁に、短銃で撃たれた跡があるのを、妻喜美子さん(64)が見つけた。\kakko{/j1}\kakko{j2}赤羽署で調べたところ、寝室の外壁に二か所の穴が確認され、銃弾一発が寝室内から発見された。\kakko{/j2}\kakko{j3}これに先立ち、午前一時すぎ、田中さん方周辺で「短銃の発射音のような音が二、三発聞こえた」という匿名の通報が同署にあり、署員が確認に向かったが、この時点で銃痕は発見できなかった。\kakko{/j3}\kakko{j4}発射音がしたころ、田中夫妻は寝室で就寝中だったという。\kakko{/j4}\kakko{j5}同社が発行している週刊誌「週刊文春」が、最近、皇室批判記事を掲載していたことから、同署では、皇室批判に反発する右翼の犯行の可能性があるとみて、捜査をしている。\kakko{/j5}\end{quote}このような文対応は,人間の観察者(たとえば,日英記事のスタイルを比較研究しているような人)にとっては価値があるが,文対応の結果を自然言語処理,たとえば,機械翻訳に利用しようとしている場合には,今のところは,有用性は限定されている.そのため,なるべく直訳同士にあるような文対応を抽出したいのであるが,このような状況から直訳に近い文対応を抽出するためには,信頼性の高い文対応(評価)尺度が必要である.
\section{対応付けの方針}
\label{sec:guideline}これまで,\ref{sec:intro}節で,日英対訳コーパスが必要とされてていることを述べ,また,\ref{sec:corpora}節において,対応付けの元となる日英新聞記事に付いて述べた.本節では,これらの節に基づいて,本稿における,記事対応付けおよび文対応付けの方針について述べる.それは以下の2点である.\begin{enumerate}\itemまず,日英記事対応付けと文対応付けとは,本稿における目的ではあるが,そのような対応付けをすること自体の目的は,その対応付けの結果を利用して,機械翻訳なり英語教育なりに役立てることである.そのため,対応付けについては,もし,既存の言語資源および手法を利用することにより,ある程度の量と精度の対応付けが得られるなら,あえて新しい言語資源や手法を開発することなく,既存の言語資源や手法を有効に利用する.\itemしかし,対象とするコーパスには,多くのノイズがあるため,既存の言語資源や手法をそのまま利用した場合に得られる対応付けには,間違った対応付けも多く含まれる.そのため,その対応付けのなかから,良さそうな対応付けのみを抽出するための信頼性の高い尺度を考える.\end{enumerate}こうした場合には,対象とするコーパスに潜在的に存在する対応付けのうちで,既存の言語資源や手法により抽出されなかったものは利用できない,そのため,対応付けの再現率は低い可能性がある.しかし,良さそうな対応付けとして抽出されたものの精度は高いことが期待できる.つまり,上記の方針は,再現率よりも精度を重視するということである.以下,この方針に基づき,\ref{sec:artalign}節と\ref{sec:sntalign}節では,既存の言語資源や手法に基づいて記事対応と文対応とを取る方法について述べ,\ref{sec:artscore}節では,得られた対応付けの中から良さそうな対応付けを得る尺度について述べる.
\section{記事対応付けの方法}
\label{sec:artalign}記事対応付けは,言語横断検索の枠組で行なう.つまり,英語記事を質問とし,それに関連する記事を日本語記事データベースから検索することにより,与えられた英語記事と対応する日本語記事を見付ける.このとき,一般に,質問である英語記事を日本語に変換するか,あるいは,データベースである日本語記事を英語に変換する必要がある.本研究では,データベースである日本語記事を英語(の単語集合)に変換した.そうした主な理由は,手元にある言語資源が日英方向の変換に便利だったからである.\subsection{日本語記事の英単語集合への変換}\label{sec:artj2e}我々は,辞書引きに基づいて日本語記事を英単語集合に変換することにした.利用した日英辞書は,EDR日英対訳辞書,EDICT(一般的な日英対訳辞書),ENAMDICT(固有名詞の日英対訳辞書)である\footnote{{\tthttp://www.csse.monash.edu.au/\~{}jwb/edict.html}}.これらの辞書の見出し語に対して,IPADIC(version2.4.4)の品詞体系を付与し,茶筌\footnote{{\tthttp://chasen.aist-nara.ac.jp/index.html.ja}}(version2.2.8)の追加辞書として利用した.追加したエントリ数は,EDR日英対訳辞書が約18万,EDICTが約6万,ENAMDICTが約22万である\footnote{ここで追加したエントリは,IPADICに含まれていないもののみである.なお,たとえば,EDR日英対訳辞書とEDICTとなどで,個別に追加した辞書間における重複があったとしても,それらの重複を除去することはせずに追加している.}.こうすることにより,茶筌の解析結果から容易に日英対訳辞書のエントリがアクセスできるようになる.たとえば,「あおぎ見た月」は,追加辞書なしの状態では\begin{quote}\footnotesize\begin{verbatim}あおぎあおぐ動詞-自立見見る動詞-自立たた助動詞月月名詞-一般\end{verbatim}\end{quote}と形態素解析される(形態素情報の一部を省略)が,追加辞書ありの状態では\begin{quote}\footnotesize\begin{verbatim}あおぎ見あおぎ見る動詞-自立たた助動詞月月名詞-一般\end{verbatim}\end{quote}のように解析され,特に工夫をせずとも,複合語である「あおぎ見る」の訳語として「lookup」「faceupwards」「lookupto」「respcet」「admire」などが得られる.また,この方法によると,「くすの木台に行く」を形態素解析した場合のように,辞書にない単語に起因する解析誤りである「くす/の/木/台/に/行く」のようなものも「くすの木台/に/行く」として解析でき,かつ,「くすの木台」の訳語として「Kusunokidai」も容易に得られる.このように,IPADICを増強することにより,解析誤りを避けながら,容易に日英辞書の辞書引きができると共に,複合語や固有名詞の翻訳という言語横断検索において重要な作業も同時にできるため,この方法は有用である.このようにして日本語の各単語(もしくは複合語)において,その品詞が内容語(主に名詞)に相当するものから英訳語を得て,そこから簡単なヒューリスティクスにより主辞を抽出し当該日本語単語の変換結果としたが,このとき,各単語についてその全ての訳語の主辞全てを変換結果として採用するとすると,訳語の主辞のなかには当該文脈の訳として適当でないものもあるため,検索結果に悪影響を与えると考えられる.そのため,なるべく,訳語として適当なものだけを変換結果として利用したい.そうするためには,訳語の曖昧性を解消すれば良いのだが,それを正確にするのは困難である.そのため,ここでは,ヒューリスティクスとして,まず,訳語の主辞の中から,より多くの訳語に含まれているようなものを優先し,次に,同順位のものについては,その訳語の主辞に対応する日本語単語を含む日本語記事の年と同年の英語記事において,その訳語の主辞を含む英語記事数(documentfrequency,df)が多いような訳語の主辞を優先する\footnote{たとえば,「今日」には「today」「nowadays」「thisday」「presentday」などが訳としてあるが,このうち,主辞だけをみると,「day」が一番多いので,まず,これを取る.次に,「nowadays」「today」の中から,dfが高いものを取る.}ことにした.そして,このヒューリスティクスにより優先付けられた上位2個のみを変換結果として利用した.なお,dfが0であるような訳語の主辞は,最初から,候補に含めない.\subsection{英語記事からの日本語記事の検索}\label{sec:clir}一旦,日本語記事が英単語集合に変換されてしまえば,あとは,通常の情報検索と同様にして,質問として与えられた英語記事に最も類似するような日本語記事(の英単語集合への変換結果)を検索することができる.そして,その日本語記事をもって対応記事とする.このときの英語記事と日本語記事の類似度としては,$\BM$\cite{robertson94:_some_simpl_effec_approx_poiss}を利用した.$\BM$は,情報検索に有用な尺度として知られており,TREC\footnote{http://trec.nist.gov/}(TextREtrievalConference)やNTCIR\footnote{http://research.nii.ac.jp/\~{}ntcadm/index-en.html}(NII-NACSISTestCollectionforIRSystems)でも,その有効性は実証されている.ここで,質問である英語記事$Q$と日本語記事の変換結果$D$との類似度$\BM(D,Q)$は以下である.\begin{displaymath}\BM(D,Q)=\sum_{T\inQ}w^{(1)}\frac{(k_1+1){\ittf\/}}{K+{\ittf\/}}\frac{(k_3+1){\itqtf\/}}{k_3+{\itqtf\/}}\end{displaymath}\begin{quote}\footnotesizeただし,$T$は$Q$に含まれる単語(ターム)である.$w^{(1)}$は$T$の重みであり,$w^{(1)}=\log\frac{(N-n+0.5)}{(n+0.5)}$.$N$は,検索対象の文書集合における全文書数である.ただし,検索対象は,質問である英語記事の日付の前後2日の範囲の日本語記事(の英単語への変換結果)である.$n$は,$T$を含む文書の数である.$K=k_1((1-b)+b\frac{{\itdl\/}}{{\itavdl\/}})$である.ただし,$k_1$,$b$,$k_3$は経験的に定める定数であり,本研究では,$k_1=1$,$b=1$,$k_3=1000$である.また,${\itdl\/}$は,$D$の長さであり,${\itavdl\/}$は,文書集合における文書の長さの平均値である.ただし,文書の長さとは,その文書に含まれる単語の延べ数のことである.$tf$は,$D$に含まれる$T$の数である.$qtf$は,$Q$に含まれる$T$の数である.\end{quote}以上をまとめると,記事対応付けにおいては,日本語記事を英単語集合に変換し,その変換結果に対して,英語記事を質問として情報検索をし,その結果の$\BM$による類似度が1位の日本語記事を,英語記事の対応記事とする.この対応付けられた日英記事中にある日本語文と英語文との対応付けは,次節で述べる方法で行なう.
\section{文対応付けの方法}
\label{sec:sntalign}日英記事における文間の対応はDPマッチングで求めた\cite{gale93:_progr_align_senten_bilin_corpor,uturo94:_bilin_text_match_bilin_diction_statis}.DPマッチングで文対応を得るアルゴリズムの簡潔な記述には\cite{uturo94:_bilin_text_match_bilin_diction_statis}を参照せよ.ここでは,日本語文(集合)から得られた内容語集合$J$と英語文(集合)から得られた内容語集合$E$との類似度,$\SIM(J,E)$についてのみ述べる.\begin{displaymath}\SIM(J,E)=\frac{\co(J\capE)+1}{|J|+|E|-2\co(J\capE)+2}\end{displaymath}である\footnote{単語集合同士の類似度については,その他にも様々なものが考えられるが,それらについて詳細な比較検討はしていないが,本節で述べる文対応付けの実験結果の精度からは,$\SIM(J,E)$が文対応付けの類似度として妥当なものであると言える.}.ただし,$\f(x)$を文$X$における$x$の頻度とすると$|X|=\sum_{x\inX}\f(x)$である.また,$\co(J\capE)$は,$J$中の単語と$E$中の単語との1対1対応を,日英および英日対訳辞書に基づき求めた場合の集合を$J\capE=\{(j,e)|j\inJ,e\inE\}$とすると,$\co(J\capE)=\sum_{(j,e)\inJ\capE}\min(\f(j),\f(e))$である.$J$と$E$と$J\capE$とは,以下のようにして求めた.まず,辞書引きにあたって,日本語文については,茶筌により形態素解析をした結果から,内容語および複合語を抽出した.これが$J$である.また,英語文については,Brill'sTagger\cite{brill92:_simpl_rule_based_part_speec_tagger}により品詞付けをし,基本形をWordNet\footnote{{\tthttp://www.cogsci.princeton.edu/\~{}wn/}}のライブラリを利用して求め,その結果から,内容語と複合語を抽出した.これが$E$である.次に,$J\capE$については,ある$(j,e)$の組$(j\inJ\wedgee\inE)$について,もし,$j$の訳語に$e$があるか,$e$の訳語に$j$がある場合には,$(j,e)$には対応の可能性があるとし,そのような全ての対応の可能性のなかから,訳語の曖昧性の低いほうから1対1に対応付けていった.すなわち,$(j,e)$の曖昧性として,$j$の訳語の数を採用し,それの小さいものから対応付けをしていくのだが,既に,$(j,e)$のどちらかでもが選ばれている対応はスキップする,という方法を採用した.なお,このときの訳語の対応付けに用いた対訳辞書は,EDR日英対訳辞書とEDR英日対訳辞書を統合して生成した日英および英日対訳辞書である.これらの辞書において,日英方向のエントリ数は約32万,英日方向のエントリ数は約37万である.以上のように定義された類似度を用いて,文対応を付けたが,このとき,文対応付けに用いたプログラムでは,DPマッチングにおける文間の対応としては,1対$n$もしくは$n$対1,ただし,$1\len\le6$しか許していない.この条件下で,文対応プログラムの精度を,人手により文対応が付けられている,白書データ\cite{hakusho}に適用することにより求めた.白書データには,18対の日英ファイルがあるが,そのうち,訳抜け(0対$n$もしくは$n$対0の文対応)の数が3以下の12ファイルを対象とした.これらのファイル対について,日本語文の平均数は413,英語文の平均数は495である.このとき,再現率の平均は0.982,適合率の平均は0.986である.これより,このプログラムの精度は十分に高いと言える.なお,\begin{displaymath}再現率=\frac{プログラムの得た文対の中で正しい対の数}{正しい対の総数}\end{displaymath}\begin{displaymath}適合率=\frac{プログラムの得た文対の中で正しい対の数}{プログラムが推定した対の総数}\end{displaymath}ただし,$1$対$n$の文対応からは,$n$個の対が得られる.たとえば,文$J_1$と文$E_1,E_2,E_3$が対応しているとすると,得られる対は$(J_1,E_1),(J_1,E_2),(J_1,E_3)$の3個である.我々は,辞書のみに基づいて文対応付けをした.それに対して,\cite{uturo94:_bilin_text_match_bilin_diction_statis}は,辞書情報に統計情報を組合せることにより,文対応の精度が向上すると述べている.しかし,我々のプログラムの精度は既に十分に高いので,統計情報は利用しなかった.
\section{記事対応尺度と文対応尺度}
\label{sec:artscore}\ref{sec:artalign}節と\ref{sec:sntalign}節とにおいて,記事対応の類似度$\BM$と文対応の類似度$\SIM$とを導入した.しかしながら,これらの類似度のみを利用して記事対応や文対応を付けた場合には,\ref{sec:arteval}節や\ref{sec:snteval}節で実験で示すように,十分に精度の高い記事対応や文対応を得ることはできない.そのため,本節では,記事対応と文対応の双方について,新たな尺度を定義する.本研究の主要な貢献は,以下で述べる二つの尺度$\AVSIM$と$\SntScore$とを提案し,その性能を実験により詳細に検討すると同時に,大規模な日英対応付けコーパスを構築し,それを一般に利用可能にした点である.まず,記事対応についてであるが,我々は,\ref{sec:artalign}節において,日本語記事$J$と英語記事$E$の類似度として$\BM(J,E)$を導入した.この類似度は,単語集合間の類似度であるので,文の順序などは考慮できない.そのため,文の順序を考慮できる記事対応尺度として,$\AVSIM(J,E)$を定義する.これは,$J$と$E$との文対応\footnote{これらは,もし対応が1対nである場合には,文と文集合との対応となるが,そのような場合も含めて文対応と呼ぶ.}を$\{(J_1,E_1),...,(J_m,E_m)\}$としたとき,以下の式である.\begin{displaymath}\AVSIM(J,E)=\frac{\sum_{k=1}^{m}\SIM(J_k,E_k)}{m}\end{displaymath}$\AVSIM$が高い値となるのは,個々の文対応の類似度$\SIM$が高い場合であるので,そのような場合には,記事としての対応も良いと考えた.次に文対応の良さの尺度について述べる.\ref{sec:sntalign}節で述べたように,我々の文対応付けプログラムの精度は,白書データのように日本語文と英語文とが原文と訳文という関係にあるようなものを対応付ける限りにおいては,高精度である.しかし,\ref{sec:corpora}節で述べたように,日本語記事と英語記事との関係は,一般には,原文と訳文という関係ではない.そのため,\ref{sec:sntalign}節の方法で文対応付けをした場合には,適切な対応と共に不適切な対応も多く得られる.そのようにノイズの多い状況から,適切な対応のみを抽出するためには,文対応の尺度として,文類似度だけでなく,記事対応の尺度も利用すれば良いと考えた.そのため,日本語記事$J$と英語記事$E$との記事対応における,文$J_k$と$E_k$との文対応尺度として,\begin{displaymath}\SntScore(J_k,E_k)=\AVSIM(J,E)\times\SIM(J_k,E_k)\end{displaymath}を定義した.この尺度は,同一記事対応内で文対応を比べる場合には文類似度$\SIM$と同じ順位を与えるが,異なる記事間での文対応の比較では,文類似度だけでなく,記事対応の尺度値も高いような文対応を優先する.
\section{記事対応付けの精度}
\label{sec:arteval}\subsection{無作為抽出による精度評価}\label{sec:randeval}記事対応付けは,各英語記事との類似度$\BM$が高い日本語記事を検索することによりなされる.このとき,類似度1位の日本語記事についての記事対応付けの精度を1996-2001と1989-1996とについて表\ref{tab:prec1}に示す\footnote{評価を記述する際には1996-2001をメインとする.その理由は,今後ともTheDailyYomiuriには「本紙翻訳=Y/N」の情報が付くと考えられるので,1996-2001の精度評価の方が相対的に重要と考えられるからである.}.\begin{table}[htbp]\small\centering\caption{類似度1位の記事対応の精度}\begin{tabular}{|c|ccc|ccc|}\hline&\multicolumn{3}{|c|}{1996-2001}&\multicolumn{3}{|c|}{1989-1996}\\\raisebox{1.5ex}[0pt]{評価値}&下限&割合&上限&下限&割合&上限\\\hlineA&0.49&0.59&0.69&0.20&0.29&0.38\\B&0.06&0.12&0.18&0.08&0.15&0.22\\C&0.03&0.08&0.13&0.03&0.08&0.13\\D&0.13&0.21&0.29&0.38&0.48&0.58\\\hline\end{tabular}\label{tab:prec1}\end{table}表\ref{tab:prec1}において,「評価値」とは,記事対応の良さの人手による判定の評価値であり,その基準は,Aは「記事全体の記述の5〜6割程度以上について意味の対応がとれる」,Bは「2〜3割程度以上5〜6割程度以下について意味の対応がとれる」,Dは「全然違う」,Cは「A,B,D以外」である\footnote{A,B,C,Dの判定は第1著者がした.判定については,1996-2001については,ダブルチェックをした.1996-2001についての初回の判定における各評価値の割合は,A=0.62,B=0.09,C=0.09,D=0.20である.したがって,同一評価者内においては判定結果は安定していると言える.なお,1996-2001については,更に,類似度1位の評価値がCかDの場合には,10位以内までを見て,A,Bがないかを探した場合の各評価値の割合は,A=0.62,B=0.15,C=0.05,D=0.18であるので,類似度1位のものとそれほど違わない.そのため,1989-1996については,類似度1位のもののみしか判定しなかった.}.「割合」とは,1996-2001と1989-1996のそれぞれから,100記事対応ずつを一様無作為抽出したときに,その評価値であった記事対応の割合である.「下限」「上限」とは,割合の95\,\%信頼区間の下限と上限である.\ref{sec:corpora}節で述べたように,1996-2001については,「本紙翻訳=Y」なる英語記事のみを対象したが,1989-1996については,全英語記事を対象とした.そのため,1989-1996の精度は,1996-2001よりも低い.また,1996-2001の精度が1989-1996の精度よりも高いといっても,それでも,評価値Aが約60\,\%,AもしくはBが約70\,\%であるので,$\BM$による記事対応付けの結果をそのまま利用した場合には,ノイズとなる記事対応が多すぎる.我々の観察によれば,評価値がAもしくはBの記事対応は,そこから日英言語表現間の対応が抽出できそうという意味において,有用な記事対応である.このような記事対応のみを抽出するには,$\BM$による記事対応付けの結果をそのまま全て利用するのではなく,対応の良さにより対応付けの結果をソートし,その上位のみを抽出すれば良い.\subsection{ソートした場合の記事対応の精度}\label{sec:sorteval}記事対応の良さの指標として,$\AVSIM$と$\BM$のどちらが適当かを比較した.表\ref{tab:prec1}と同じデータに対して,それぞれの値の降順により記事対応をソートし,評価値がAもしくはBの場合を正解とし,各順位までにおける正解の個数とその割合とを調べた.それを表\ref{tab:rankprec}に示す.表\ref{tab:rankprec}から,我々は,$\AVSIM$の方が$\BM$よりも,記事対応の良さとして適切な尺度であると判断した.\begin{table}[htbp]\footnotesize\centering\caption{順位と精度}\begin{tabular}{|c|cc|cc||cc|cc|}\hline&\multicolumn{4}{|c||}{1996-2001}&\multicolumn{4}{|c|}{1989-1996}\\\cline{2-9}&\multicolumn{2}{|c|}{$\AVSIM$}&\multicolumn{2}{|c||}{$\BM$}&\multicolumn{2}{|c|}{$\AVSIM$}&\multicolumn{2}{|c|}{$\BM$}\\\raisebox{2.5ex}[0pt]{順位}&数&割合&数&割合&数&割合&数&割合\\\hline5&5&1.00&5&1.00&5&1.00&2&0.40\\10&10&1.00&8&0.80&10&1.00&4&0.40\\20&20&1.00&16&0.80&19&0.95&9&0.45\\30&30&1.00&25&0.83&28&0.93&16&0.53\\40&40&1.00&34&0.85&34&0.85&24&0.60\\50&50&1.00&39&0.78&37&0.74&28&0.56\\60&60&1.00&47&0.78&42&0.70&30&0.50\\70&66&0.94&55&0.79&42&0.60&35&0.50\\80&70&0.88&62&0.78&43&0.54&38&0.47\\90&71&0.79&68&0.76&43&0.48&40&0.44\\100&71&0.71&71&0.71&44&0.44&44&0.44\\\hline\end{tabular}\label{tab:rankprec}\end{table}$\AVSIM$の精度の方が$\BM$の精度よりも高い理由は,\ref{sec:artscore}節で述べたように,$\AVSIM$が,$\BM$と違って,個々の文対応の良さまでも考慮した尺度であるからと考える.\subsection{評価値とAVSIM}\label{sec:judgeeval}人手により判定された評価値A,B,C,Dと$\AVSIM$との対応の程度を調べることを目的とし,表\ref{tab:prec1}と同じデータに対して,各評価値となった記事対応について,$\AVSIM$の統計量を求めた.それらを,1996-2001については表\ref{tab:avsim1}に,1989-1996については表\ref{tab:avsim2}に示す.\begin{table}[htbp]\small\centering\caption{AVSIMの統計量(1996-2001)}\begin{tabular}{|c|c|ccc|cc|}\hline評価値&数&下限&平均&上限&閾値&有意差\\\hlineA&59&0.176&0.193&0.209&0.168&**\\B&12&0.122&0.151&0.179&0.111&**\\C&8&0.077&0.094&0.110&0.085&*\\D&21&0.065&0.075&0.086&&\\\hline\end{tabular}\label{tab:avsim1}\end{table}\begin{table}[htbp]\small\centering\caption{AVSIMの統計量(1989-1996)}\begin{tabular}{|c|c|ccc|cc|}\hline評価値&数&下限&平均&上限&閾値&有意差\\\hlineA&29&0.153&0.175&0.197&0.157&*\\B&15&0.113&0.141&0.169&0.131&\\C&8&0.092&0.123&0.154&0.097&**\\D&48&0.076&0.082&0.088&&\\\hline\end{tabular}\label{tab:avsim2}\end{table}これらの表において,「数」とは,その評価値であった記事対応の数である.また,「平均」とは,そのような記事対応の$\AVSIM$の平均値であり,「下限」および「上限」は,平均値の95\,\%信頼区間の下限と上限である.「閾値」は,その評価値であるような記事対応と,次の評価値であるような記事対応とを分けるときに,どの$\AVSIM$で区切れば良いかを示す.たとえば,表\ref{tab:avsim1}では,A判定とB判定とは$\AVSIM$の値が0.168により分かれる.この閾値は,線形判別分析により求めた値である.また,「有意差」の欄にある「**」と「*」は,それぞれ,その評価値と次の評価値とで平均値に差があるかを,Welch検定により片側検定したときに,その差が,1\,\%と5\,\%水準で有意であることを示す.二つの表において,1989-1996のBとCとの区分を除いては,全ての評価値において,各評価値と次の評価値とでは,平均値に有意な差があることがわかる.このことから,$\AVSIM$は,各評価値を十分に明確に区切ることができると言える.なお,1989-1996では,BとCが分かれていないことについて,その理由を調べた.そうすると,実際,1989-1996では,Cだといっても,記述の重複が,1996-2001のCと比べて,多いものが多かった.定性的には,1996-2001のCは,「Dではない(全然違うわけではない)」という意味でCであり,1989-1996のCは,「Bかもしれない」という意味でCであった.次に,1996-2001と1989-1996とで,同じ評価値を与えられた記事対応の$\AVSIM$の平均値に統計的に有意な差があるかを調べた.つまり,たとえば,表\ref{tab:avsim1}では,評価値Aの平均値は0.193であり,表\ref{tab:avsim2}では,0.175であるが,この二つの平均値の差が統計的に有意かどうかを両側検定によるWelch検定により調べたところ,有意水準5\,\%においては,A,B,C,Dいずれの評価値においても有意差はみられなかった.そのため,1996-2001と1989-1996とで,同じ評価値の記事対応は,同じ程度の$\AVSIM$であると判断した.そのため,$\AVSIM$は,異なる記事集合を利用した場合であっても,安定して,記事対応の良さを示す指標であると考える.\begin{table}[htbp]\small\centering\caption{評価値と記事数の推定}\begin{tabular}{|c|c|c|c|}\hline&1996-2001&1989-1996&計\\\hlineA&15491&16004&31495\\B&9244&5999&15243\\C&4944&10258&15202\\D&5639&26825&32464\\\hline計&35318&59086&94404\\\hline\end{tabular}\label{tab:numart}\end{table}最後に,表\ref{tab:avsim1}と表\ref{tab:avsim2}にある閾値\footnote{表\ref{tab:avsim1}での閾値の丸めていない値は,0.1681076526,0.111106681,0.08531399165であり,表\ref{tab:avsim2}では,0.1566618237,0.130510963,0.09692189387である.これらの値を実際には利用した.}に基づいて,1989-1996と1996-2001とについて,A,B,C,Dであるような記事数を推定した結果を表\ref{tab:numart}に示す.表より,評価値がAもしくはBと推定される記事対応は,全体では,46738$(=31495+15243)$だけある.我々は,約4万7千という記事対応は,訳語抽出などの自然言語処理への応用や,英語教育などへの応用にとって,十分有効に利用できる量であると考える.以上より,$\AVSIM$は,人手による評価値A,B,C,Dに良く対応した尺度であり,かつ,異なる記事集合においても同一評価値については安定した数値をとる尺度であることがわかった.また,$\AVSIM$に基づいて記事対応を抽出することにより,約4万7千の良質な記事対応が抽出できることが期待できることがわかった.
\section{記事対応付けの精度向上の可能性}
\label{sec:enhancement}\ref{sec:arteval}節で述べたように,$\AVSIM$は,記事対応の良さを示す信頼性の高い尺度である.そのため,$\BM$の代り(もしくは重みつき和などによる組み合わせで),最初から$\AVSIM$を利用して記事対応を求めれば,\ref{sec:randeval}節で述べた全体的な精度も向上すると考えられる.しかし,我々は,現時点では,$\BM$による類似度1位の記事対応についてのみしか,$\AVSIM$を求めていない.その理由は,10位以内などの比較的少しの記事をみただけでは記事対応精度に顕著な向上がないからであり,かつ,現時点での文対応プログラムの実行速度が遅いからである.今の文対応プログラムでは,一記事あたりの対応を取るために,数秒は掛る\footnote{プログラムの動作環境は,CPUはPentium-41500MHz,OSはRedHatLinux7.1である.}.そのため,一位同士の対応について$\AVSIM$を得るだけでも,9万4千記事程度なので,数日間は掛かる.したがって,たとえば,100位以内をみるだけでも,数100日間掛かることになる.これは非現実的である.しかし,今後,もっと高速の文対応プログラムを作り,それを利用することにより,より高精度な記事対応が得られるものと考えている.また,今は,各英語記事について,その記事の日付の前後2日の範囲しか調べていないが,記事によっては,5日前のものが翻訳されているものがあった.このようなものまでカバーするためには,もっと広い範囲から対応候補記事を集める必要がある.この2点は,システム全体を効率化しスケールアップすることにより達成可能なので,将来的には実現したい.
\section{文対応付けの精度}
\label{sec:snteval}\ref{sec:corpora}節で述べたように,たとえ,日英記事間に内容上の対応があったとしても,文間対応があるとは限らないので,対応付けられた記事から得られる文対応はノイズが多いものとなる.そのため,$\BM$による類似度1位の記事対応全てから得られる文対応全てを$\SntScore$により降順にソートし,その上位のみを利用することにより対応の良いものを抽出することにした\footnote{文対応精度評価は,1989-1996と1996-2001とを分けずに行なう.その理由は以下の2点である.(1)まず,作成するコーパスでは,1989-2001全体から選んだ文対応のなかから良く対応していそうなもののみを抽出したい.そのためには,全体を評価した方が良い.(2)記事対応の精度評価の結果から,同程度の$\AVSIM$は,1989-1996と1996-2001とで同じ評価値に対応するので,$\SntScore$も1989-1996と1996-2001とで分ける必要はないと考えられる.}.このような文対応の数は,1989-1996と1996-2001を合せた全体で,約130万だけある.なお,ここでの文とは,日本語文については,簡単なプログラムにより,句点などで日本語記事を分割した結果であり,英語文については,MXTERMINATOR\cite{reynar97:_maxim_entrop_approac_ident_senten_bound}に対して前処理と後処理を適用して英語記事を分割した結果である.文対応のなかでは,1対1対応が最も重要である.また,文対応といっても,新聞記事には,中見出しなどの,必ずしも文でないものもある.そのため,1対1対応のなかで,文末が句点やピリオドなどで終っているもののみを取り出し,これを特に「1:1」と呼び,その他の対応を「1:n」と呼ぶことにする.1:1の数は,約64万ある.1:nの数は,約66万ある.1:1の精度を求めるために,$\SntScore$により降順にソートされた上位30万対応について,3万対応ごとに100ずつを一様無作為抽出した.この各対応について,x/oの2値評価をした\footnote{評価は第1著者がした.ダブルチェックによると,初回の判定と2回目の判定とで100個あたり多くて2,3個程度のo/xの違いがあった.したがって,同一評価者内においては判定結果は安定していると言える.なお,1:nについてはダブルチェックはしていない.}.ここで,xは「意味が全然違う」であり,oは「意味が全然違うことはない」である.その結果のx/oの数を表\ref{tab:snteval}に示す.\begin{table}[htbp]\small\centering\caption{順位と1:1の精度}\begin{tabular}{|r|c|c|}\hline範囲&o数&x数\\\hline1-&100&0\\30001-&99&1\\60001-&99&1\\90001-&97&3\\120001-&96&4\\150001-&92&8\\180001-&82&18\\210001-&74&26\\240001-&47&53\\270001-&30&70\\\hline\end{tabular}\label{tab:snteval}\end{table}表から分かるように,順位が下っていくにつれて,xの数が指数的に増加している.このことは,$\SntScore$が,効率良く,適切な1:1を上位に順位付けていることを示している.表\ref{tab:snteval}から,15万対までは十分に信頼できる対応であると言える.なお,15万対までのoの累積の割合は0.982である.\begin{table}[htbp]\small\centering\caption{順位と1:nの精度}\begin{tabular}{|r|c|c|c|}\hline範囲&1:nの数&o数&x数\\\hline1-&38090&98&2\\90001-&59228&87&13\\180001-&71711&61&39\\\hline\end{tabular}\label{tab:paraeval}\end{table}次に,1:nの精度を求めるために,$\SntScore$により降順にソートされた上位について,表\ref{tab:snteval}の「1-90000」「90001-180000」「180001-270000」の各範囲について,それらの1:1の$\SntScore$の範囲に収まるような1:nの精度を求めた.精度を求めるときには,1:1のときと同様に,各範囲から100対を一様無作為抽出し,x/oの2値評価をした.その結果を表\ref{tab:paraeval}に示す.表より,「1-90000」の範囲の38090個の1:nについては,精度の良い対応であると言える.以上述べたように,$\SntScore$により文対応をソートすることにより,1:1と1:nの双方について,上位には,十分に精度の高い文対応が得られる.次に,$\SIM$について,$\SntScore$との比較のため,その精度を述べる.比較にあたっては,$\SIM$の降順でソートした上位における精度を調べ,その精度により比較する.まず,1:1についてであるが,$\SIM$の降順により1:1をソートした場合の上位15万対から100対を一様無作為抽出してo/xの判定をした結果は,o数=93・x数=7であった.これを,表\ref{tab:snteval}に示される,$\SntScore$における上位15万対における無作為抽出500対でのo数=491・x数=9と比べると,比率の差の検定を片側検定ですると,有意水準1\,\%(実際には0.16\,\%)で$\SntScore$の方が有意にoの比率が高い.次に,1:nについてであるが,1:1のときと同様に,1:nを$\SIM$の降順にソートし,上位38090対から100対を一様無作為抽出してo/xの判定をした結果は,o数=89・x数=11であった.これを,表\ref{tab:paraeval}に示される$\SntScore$における上位38090対における無作為抽出100対でのo数=98・x数=2と比べると,比率の差の検定を片側検定ですると,有意水準1\,\%(実際には0.49\,\%)で$\SntScore$の方が有意にoの比率が高い.これらより,1:1と1:nの双方について,$\SntScore$の方が,有用な尺度であると言える.$\SntScore$の精度の方が$\SIM$の精度よりも高い理由は,\ref{sec:artscore}節で述べたように,$\SntScore$が,$\SIM$と違って,記事対応の良さまでも考慮した尺度であるからと考える.
\section{関連研究}
\label{sec:relwork}自動的に記事対応を得ることを目的とする研究はいくつかある.そのうち,\cite{collier98:_machin_trans}は,言語横断検索に機械翻訳を利用した場合と辞書引きを利用した場合とを比較しており,再現率が高いとき(多くの記事対応を得たいとき)には,辞書引きの方が有利だとしている.我々も,表\ref{tab:prec1}のデータの1996-2001についてのみ,シャープ株式会社の機械翻訳支援システムを利用して精度評価をしてみたが,その結果は,統計的に有意ではないが,辞書引きの結果の精度の方が高かった\footnote{ただし,このときには,英語記事を日本語に翻訳し,その翻訳結果を質問として日本語記事からなるデータベースを検索した.これは,本稿でこれまで説明してきた方法である,日本語記事を英語単語集合に変換する方法の逆であるので,厳密な比較ではない.}.これらのことから,辞書引きの方が記事対応を得るには適しているのではないかと考えられる.また,\cite{matsumoto02:_autom_align_japan_englis_newsp}は,日経産業新聞について,英語記事と日本語記事との対応付けをしていて,その精度は,97\,\%と非常に高精度である.しかし,彼らは,同じ方法を,NHKの報道記事の対応付けに対しても適用しているが,その場合の精度は69.8\,\%であり,彼らの方法が,全ての場合で高精度であるわけではないということも示している.そのため,彼らの方法を読売新聞の記事対応付けに利用した場合にも同様に高い精度が得られるかは明かではない.これらの従来の記事対応を得る研究と我々の研究との主要な違いは次の2点である.\begin{enumerate}\itemまず,記事対応の評価尺度について,我々は,DPマッチングによる文対応付けの結果を利用した信頼性の高い尺度を提案した.それに対して従来の研究はbag-of-wordsに基づいた尺度を利用している.なお,情報検索において,質問文と文書との類似度を求める際にDPマッチングを利用する方法が\cite{yamamoto00:_dynam_progr}により提案されているが,彼らの研究対象と我々の研究対象とは異なるし,かつ,DPマッチングの方法や,評価尺度の定義も異なる.\item次に,我々は,記事対応の結果から文対応までを,実際に,大規模に得た.\cite{大和99}は,記事対応の結果から文対応を得ることを構想してはいるが,実際に文対応を得ているわけではない.加えて,我々は,対応付けの結果が一般に研究および教育目的に利用できるようにしているが,これは日英対応付けコーパスとしては初めての試みである.\end{enumerate}
\section{データ公開}
\label{sec:openToThepublic}我々は,本稿で述べた日英新聞記事対応付けの結果を数値情報としてエンコーディングすることにより,読売新聞とTheDailyYomiuriの記事データを持っている場合には,対応付けの結果が復元できるデータを作った.また,\ref{sec:snteval}節で述べた文対応について,日英それぞれの文末が句点やピリオドなどで終了しているものについて,1:1の上位15万対と1:nの上位3万対とを,読売新聞社からの許可を得て,生の文として,上記数値データに追加したデータを試験的に公開した.公開した期間は2002年10月23日から2002年11月22日の1ヶ月間であり,公開の情報は,言語処理学会のメイリングリストを通じて流した.その結果,31の機関からデータ入手の申し込みを受けた\footnote{今後の配布については第1著者まで問合せのこと.}.それら機関の内訳\footnote{これら内訳は機関名などから推測したものである.}は,国内が28,国外が3であった.また,企業からの申し込みは4件あり,そのほかの27件は中学・高校・大学もしくは研究機関であった.また,自然言語処理関係の研究機関から15件,その他の機関からは16件であった.それら16件は,言語学関係が13件,中学・高校が2件,また,民間企業で翻訳業務をしている企業からの申し込みが1件あった.これらの内訳から,このような日英対応付けデータが,自然言語処理の研究機関だけでなく,言語学や中学・高校の英語教育などに関わる人にとっても関心の高いものであることがわかる.
\section{今後の課題}
\label{sec:futurework}本稿で述べた対応付けは,\ref{sec:guideline}節で述べた方針に基づいている.すなわち,既存の言語資源や手法を用いて対応付けをして,その結果から,なるべく対応の良さそうなもののみを抽出するというものである.その結果,\ref{sec:arteval}節や\ref{sec:snteval}節で述べたように,上位にソートされた記事対応や文対応については,十分に精度の高い対応が得られた.しかし,ソートの適用対象は,\ref{sec:artalign}節や\ref{sec:sntalign}節の方法で求められた記事対応や文対応であるので,どんなに精度良くソートしたとしても,最初に求められた記事対応や文対応に含まれているよりも多くの正解対応を得ることはできない.たとえば,記事対応では,$\BM$により検索された記事対応しか対象としていないため,$\BM$の検索精度により,抽出できる記事対応の精度は制限される.この記事対応付けについては,\ref{sec:enhancement}節で,$\AVSIM$を用いることにより,精度が向上すると考えられると述べた.これと同様に,文対応においても,新聞記事に適した文対応付けアルゴリズムを用いることにより,抽出できる,正解である文対応の数が増えるものと考える.そのようなアルゴリズムを考案し,より多くの正解対応を求めることが今後の課題である.
\section{おわりに}
\label{sec:conclusion}ノイズの多い日英新聞記事集合から,内容が対応した記事対応と文対応を得るための信頼性の高い尺度を提案した.それら尺度を用いることにより,1989年から2001年までの読売新聞とTheDailyYomiuriとから記事対応と文対応を得た.それらのなかで,比較的良質と推定されるものが,記事対応は約4万7千あり,文対応は,1対1対応が約15万あり,1対1対応以外が約3万8千ある.これらは,現時点で一般に利用できる日英2言語コーパスとしては最大のものである.我々は,今後,この日英対応付けコーパスを,より良質にしていくとともに,このコーパスを実際の応用に利用することを考えている.\bibliographystyle{jnlpbbl}\bibliography{align}\section*{付録}\ref{sec:snteval}節の実験より,比較的良質と推定される文対応は,1対1対応が約15万あり,1対1対応以外が約3万8千あることがわかった.更に,そこから,日英それぞれの文末が句点やピリオドなどで終了しているものについて,1対1対応の上位15万対と1対1対応以外の上位3万対とを一般に公開していることを\ref{sec:openToThepublic}節で述べた.本付録では,この公開されている部分の文対応のサンプルと,公開されてはいないが,公開されている部分と公開されていない部分との境界付近にあるサンプルとを示す.公開されている部分のサンプルを示すことにより,どのような文対応が比較的良質とされているかの目安がつき,境界付近にあるサンプルを示すことにより,公開されている部分の文対応の最低品質の目安がつく.なお,\ref{sec:corpora}節で例示している日英対応を含む記事対応から得られる文対応は,1対1対応についても1対1対応以外についても,公開されている部分には入っていない.このことは,$\SntScore$を利用して文対応をソートすることにより,\ref{sec:corpora}節で示したような直訳とはいえないような文対応は,下位に位置付けられることを例証している.\subsection*{公開されている部分の文対応のサンプル}\subsubsection*{1対1対応}1対1対応の上位15万対から無作為抽出された5対を以下に示す.\vspace{1em}\parindent0cm\footnotesize1.こうした現状を知った面川委員長らが、タイの気候、風土に合った伝統的な農業を取り戻す拠点となる農業学校の設置を計画。\\Tohelpthesepoorerfarmers,theKakudaagriculturalassociationplanstosetupanagriculturalschoolinoneofthenortheast'svillages,whereitwillserveasacenterforthepreservationofThailand'straditionalfarmingmethods,assocationofficialssaid.\\2.火薬庫と言われた住専の処理が動き出したことへの安心感も大きい。\\Thestepstakentodealwithnonperformingloansleftbyjusencompaniesbroughtaboutageneralsenseofreliefbecausetheseloanscouldhaveprovedtobeapowderkegreadytoblowupinourfaces.\\3.従って、不用意に競争を抑制すべきでないことも確かである。\\Therefore,itiscertainthattheyshouldnotcarelesslyrestraincompetition.\\4.WTOの農業協定は、食糧安全保障や環境保護などにも配慮しつつ、漸進的な自由化推進をうたっている。\\ExistingagriculturalagreementsreachedbytheWTOcallfor"gradual"promotionofliberalization,takingintoconsiderationfoodsecurityandenvironmentalprotection.\\5.管理部門の他の社員も同様のカードを支給されていたが、同容疑者のカード使用額は社内最高だったという。\\ThesectionchiefspentmorethananyotherAjinomotoemployeegivenacreditcardforentertainmentpurposes,theyadded.\\\normalsize\parindent1em\subsubsection*{1対1対応以外}1対1対応以外の上位3万対から無作為抽出された5対を以下に示す.\vspace{1em}\parindent0cm\footnotesize1.だが、体当たり攻撃で旧秩序の拠点を打破せざるを得なかった政治・経済変革の第一段階は過ぎた。\\今や創造の時代が始まった。\\この時代が政治家に要求するのは、各種政治勢力と駆け引きを行い、妥協と合意を模索する手腕であり、相手の見解も考慮に入れることのできる能力である。\\Nowthatthefirstphaseofpoliticalandeconomicchanges--thefrontalattackagainstthebastionsoftheoldorder--isover,thetimehascomeforconstructivework,formasteringtheskillsofpoliticalmaneuvering,compromiseandagreementwithvariouspoliticalforces,andtheabilitytotakeintoaccounttheviewpointofone'sopponents.\\2.一因とされるのが、二十メートルにつき一メートル下がる砂浜の傾斜だ。\\千葉市が手がけた「いなげの浜」が五十メートルにつき一メートル下がる構造なのに比べて、倍以上の急傾斜。\\Expertssayoneofthemainreasonsfortheerosionisthebeach'srelativelysteepincline--onemeterin20,morethandoublethe1:50inclineatInage-no-Hamabeach,whichtheChibamunicipalgovernmentconstructed.\\3.国際的行事などで不統一のままでいいのか。\\現状を精査した上で、音楽上の議論を深めたい◆作・編曲家内藤孝敏さんら音楽家グループの提言だ。\\Agroupofmusicians,includingcomposerandarrangerTakatoshiNaito,thoughtitwouldbebetterforonlyoneversionof"Kimigayo"tobeplayedatinternationalevents,soitproposedanin-depthstudyofthemusic.\\4.課税の減免などの特例は設けず一律適用し、ベンチャー助成は別途の政策などで手当てすべきではないか。\\Instead,itshouldbeappliedonauniformbasis.\\Measuresforfosteringventurebusinessesshouldbeworkedoutaspolicystepsseparatefromthetaxframeworkitself.\\5.国産米の供給比率は三月が五〇%、四月から六月までは三〇%だが、七、八月は六〇%程度まで上昇し、輸入米との比率が逆転しそうだ。\\Accordingtotheagency'sestimate,theratioofdomesticricetototalricesuppliesisexpectedtoriseto60percentinJulyandAugust.\\ThiscompareswithaMarchratioof50percent,and30percentforthemonthsofApriltoJune.\\\normalsize\parindent1em\subsection*{境界付近の文対応のサンプル}\subsubsection*{1対1対応}1対1対応の上位150001〜151000の間の1000対から無作為抽出された5対を以下に示す.\vspace{1em}\parindent0cm\footnotesize1.落札総額は百三十六億千万円。\\Thejointventure'sbidstotaled13.6billionyen.\\2.燃えるゴミの中に金属、ガラス、プラスチックなど、焼却に適さないものが約一割混ざっている。\\Infact,10percentofthecombustiblegarbagecollectedcontainsmetal,glass,plasticsandothernoncombustiblearticles.\\3.離れた工場の製品が神戸から輸出されていたのは、定期船の寄港が多く、納期が守りやすいほか、「できるだけ多くの荷物を積んでコンテナを有効利用する」(松下電器)などの理由があったためだ。\\OneofthereasonswhyproductsfromsuchremoteareaswereexportedviaKobeisthatavastnumberofshippinglinesfromaroundtheworldusetheport.\\4.しかし、積み替え作業などに一日約二百人の職員が必要で、時間がかかるほか、移動の際に市街地で渋滞に巻き込まれ、避難所への到着がしばしば遅れた。\\Butthedeliverysystemwasineffectivebecauseoftrafficcongestioninquake-strickenareas,andabout200wardemployeesspenttheirdaystryingtodeliverfoodsupplies.\\5.ただ、政府米の一部をエサ米に充て、その分を買い入れる可能性はある。\\"Undertherule,thegovernmentcannotbuyriceharvestedin2000,"anofficialoftheFoodAgencysaid.\\\normalsize\parindent1em\subsubsection*{1対1対応以外}1対1対応以外の上位30001〜31000の間の1000対から無作為抽出された5対を以下に示す.\vspace{1em}\parindent0cm\footnotesize1.ところが、九六米穀年度に入っての政府米売却量(輸入米も含む)は、六月までの八か月間で約三十五万トンと前年同期の半分以下に低迷している。\\Duringthefirsteightmonthsofthe1996riceyear,however,theagencysoldonly350,000tonsoftheregulatedrice.\\Thesaleswerelessthanhalfofthatattainedduringthesamemonthsinthepreviousyear.\\2.村上氏が所属する江藤・亀井派の亀井政調会長は、国会近くのホテルで与党三党の政策責任者会議に出席していた。\\LDPPolicyResearchCouncilChairmanShizukaKameiattendedameetingofchiefpolicymakersofthethreerulingpartiesinahotelneartheDietbuildingThursday.\\MurakamibelongedtoanLDPfactionjointlyledbyKameiandTakamiEto.\\3.経済状況の好転などを掲げ、選挙戦では三党体制による実績を強調した政府・与党だったが、有権者は、むしろ選挙目当てが明白な場当たり的な政策に対し、厳しい判断を下したと言ってよい。\\Onthehustings,thegovernmentandcoalitionpartiestrumpetedtheirachievements,suchasaburgeoningeconomicrecovery,inabidtoobtainpublicsupport.\\Voters,however,harshlydismissedtheircampaignpledgesascosmetic--aimedonlyatwinningtheelection.\\4.日数が短い都市はアジア地域とアメリカに集中し、最短のニューデリー(インド)が一・四日、次いで香港一・五日、台北(台湾)七・三日、ロサンゼルス(アメリカ)七・四日などとなっている。\\AtendencytowardshorterholidayswasfoundinAsiaandNorthAmerica.\\WorkersinNewDelhiplannedtheshortestholidayatanaverageof1.4days,followedbyHongKongat1.5days,Taipeiat7.3daysandLosAngelesat7.4days.\\5.イデオロギーの対立の終わりは、国家利益や民族感情の対立を表面化させるかもしれない。\\Whatwemayseeisaworldinwhichantagonismandbrush-firebattlesbetweensmallernationsintensifyandinternationalconflictisfuelednotbyideologybutbynationalinterest.\\Ournewworldwillbefilledwithpromiseanddanger.\\\normalsize\parindent1em\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).博士(工学).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).独立行政法人通信総合研究所任期付き研究員(2001).言語処理学会,情報処理学会,ACL,人工知能学会,日本音響学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).1980年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V28N02-05
|
\section{はじめに}
文法誤り訂正は,主に言語学習者の書いた文法的に誤っている文(入力文)を文法的に正しい文(訂正文)に編集するタスクである.自動評価はコストをかけずにシステムを定量評価できるため,信頼できる自動評価手法の構築は研究および開発の発展に有用である.自動評価は訂正システムの出力文を入力文や人手で訂正した文(参照文)などを用いて評価する.訂正の仕方は一つではなく複数の訂正が考えられるため,自動評価は難しいタスクである.文法誤り訂正の自動評価は,参照文を用いる手法\cite{Dahlmeier,gleu}と用いない手法\cite{Napoles,asano-ja}に大別できる.前者は,可能な参照文を網羅することが難しい\cite{bryant}ため,参照文に含まれない表現に対してはそれが適切な訂正であっても不当に低い評価を与えるという問題がある.後者にはこの問題がなく,特に\citeA{asano-ja}は文法性・流暢性・意味保存性の各自動評価モデルの評価を統合することで参照文を用いる自動評価手法よりも人手評価との高い相関を達成した.文法性は訂正文が文法的に正しいかという観点である.流暢性は訂正文が母語話者にとってどの程度自然な文かという観点であり,文法性と区別されて重要性が示されている\cite{sakaguchi}.意味保存性は入力文と訂正文がどの程度意味が同じであるかという観点であり,文法的な文でも入力文と意味が異なる訂正は不適切なため重要な観点である.このように3項目で評価を行うことは,自動評価の解釈性を高めることができるため重要である.しかし,これらの各自動評価モデルは訂正文に対する各項目の人手評価に対してそれぞれ最適化されておらず,改善の余地がある.本研究では,人手評価との相関が高く,多様な訂正を正しく評価できる自動評価手法を構築するために,\citeA{asano-ja}の拡張として,文法性・流暢性・意味保存性の各自動評価モデルを各項目の人手評価に対して直接最適化する手法を提案する.具体的には,各項目の評価モデルとして,少量のデータで目的タスクに最適化できる事前学習された文符号化器BidirectionalEncoderRepresentationsfromTransformers(BERT)\cite{bert}を用い,各項目の人手評価値付きデータセットで再学習することで各評価モデルを最適化する.また,学習者が書いた文や機械翻訳の逆翻訳による擬似誤り文に対して,文法性や流暢性の評価値が付与された既存のデータは存在するが,文法誤り訂正の自動評価のために理想的な設定である,訂正文に対する各項目の人手評価値付きデータセットは存在しない.そのため,我々はクラウドソーシングを用いて,代表的な5種類の文法誤り訂正システムの訂正文に対して文法性・流暢性・意味保存性の人手評価を付与し,データセットを作成する.実験では,人手評価との相関およびMAEGE\cite{MAEGE}によって自動評価手法をメタ評価する.実験の結果,両方のメタ評価において我々の自動評価手法が従来の自動評価手法よりも適切な評価ができることを示した.また,各項目に対応する既存のデータセットを用いて訓練した自動評価モデルとの比較から,システムの訂正文に対する人手評価を用いてBERTを再学習することの有効性が明らかになった.分析の結果,参照文を用いない手法が多くのエラータイプの訂正を正しく評価できていないのに対して,提案手法は全てのエラータイプの訂正を正しく評価できていることがわかった.本研究の主な貢献は以下の4つである.\begin{itemize}\item文法誤り訂正の自動評価において,事前学習された文符号化器を用いて人手評価に直接最適化する手法を提案した.\item文法誤り訂正における自動評価手法の学習のための,訂正システムの訂正文に対して文法性・流暢性・意味保存性の3項目の評価値を付与したデータセットを作成した\footnote{\url{https://github.com/tmu-nlp/TMU-GFM-Dataset}}.\item人手評価との相関に基づくメタ評価およびMAEGEによるメタ評価の結果,提案手法は既存手法よりも適切な評価が行えていることを示した.\item分析の結果,従来手法に比べて,提案手法は調査可能な全てのエラータイプの訂正を正しく評価できていることを示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文法誤り訂正の自動評価手法}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{参照文を用いる手法}\label{sec:reference-basedmetric}初期の研究\cite{dale}では,訂正した単語単位の編集に対して適合率・再現率・F値を評価していた.\citeA{Dahlmeier}はフレーズ単位で,適合率,再現率および適合率を重視するF値(${\rmF_{0.5}}$)の3つの値を評価するMaxMatch(${\rmM^2}$)を提案し,より正確な自動評価が可能となった.\citeA{imeasure}は悪い訂正と訂正を行わない場合の評価値がどちらも0になるなどの${\rmM^2}$の問題点に対処するI-measureを提案した.I-measureは単語レベルのアライメントに基づく重み付き精度によって計算され,入力文が悪化すると負の値,改善すると正の値となる.\citeA{gleu}は機械翻訳の自動評価で使われるBLEU\cite{bleu}を文法誤り訂正のために改善したGLEUを提案した.BLEUは訂正文と参照文を用いるが,GLEUは訂正文と参照文に加えて入力文も考慮する.\citeA{Napoles}の調査によると,参照文を用いる手法の中では,GLEUが人手評価との最高の相関を持つ.これらの評価指標は参照文を必要とするため,参照文が全ての正しい文を網羅できない問題に対処できない.しかし,可能な参照文を網羅することは現実的ではない\cite{bryant}ため,近年は参照文を用いない自動評価手法が注目されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{参照文を用いない手法}\citeA{Napoles}は参照文を用いない文法誤り訂正の自動評価手法を初めて提案した.文法誤り検出ツールに基づく手法と言語モデルなどの言語学的素性に基づく手法が提案され,前者がGLEUと同等の性能を持つことが示された.既存の文法誤り検出ツールであるe-rater\textregisteredやlanguage-toolを用いた手法と,\citeA{Heilman}のミススペリング数や言語モデルの評価値や未知語の数などの言語学的素性を用いた手法で実験を行い,e-rater\textregistered{}を用いた手法がGLEUとほぼ同等の性能であることを示した.\citeA{asano-ja}は文法性・流暢性・意味保存性の3つの自動評価モデルに基づく,参照文を用いない自動評価手法を提案し,人手評価との最高の相関を達成した.文法性はGUGデータセット\cite{Heilman}で訓練したロジスティック回帰,流暢性はRNN言語モデル,意味保存性はMETEOR\cite{meteor}を用いて評価し,各評価値の重み付き和を最終的な評価とした.各評価値の重みはJFLEGデータセット\cite{jfleg}を用いてチューニングし,システムレベル・文レベルで\citeA{Grundkiewicz}の評価データを用いてメタ評価している.\citeA{asano-ja}の流暢性と意味保存性の自動評価モデルは人手評価に対して最適化されておらず,特に意味保存性は人手評価との相関が低い.本研究では\citeA{asano-ja}の拡張として,文法性・流暢性・意味保存性の各自動評価モデルを各項目の人手評価に対して最適化する.各項目の評価モデルを人手評価に最適化した効果を検証するために,最終的な評価値の計算方法や設定は\citeA{asano-ja}と同様に実験する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{各項目の評価モデルの学習に使用できる既存のデータセット}\label{sec:existingdata}文法性に関しては,\citeA{asano-ja}が文法性に関する自動評価モデルを訓練するために使用している,GUGデータセット\footnote{\url{https://github.com/EducationalTestingService/gug-data}}\cite{Heilman}がある.GUGデータセットは,学習者の書いた文に対して文法性の人手評価が付与されている.流暢性に関しては,BritishNationalCorpusおよびWikipediaの英文をGoogle翻訳で折り返し翻訳した疑似誤り文に対して流暢性(Acceptability)の人手評価が付与されたデータセット\footnote{\url{https://clasp.gu.se/about/people/shalom-lappin/smog/experiments-and-datasets}}\cite{Lau}が公開されている.文法性,流暢性に関しては上述のデータセットが存在するが,意味保存性に関しては,誤り文を含む文対に対して人手評価が付与されたデータセットは存在しない.これらのデータセットは,学習者が書いた文や機械翻訳が生成した文に対して人手評価を付与している.本研究では,これらのテキストは文法誤り訂正システムの訂正文とは異なる性質を持つと考え,実際の訂正文に対して文法性・流暢性・意味保存性の自動評価を新たに収集し,自動評価モデルを訓練する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自動評価手法の評価}自動評価手法の評価(メタ評価)は,人手評価と高い相関を持つ自動評価ができることを検証するのが最も直観的であり\cite{banerjee},一般的には人手評価との相関係数を用いて評価される.実際,機械翻訳の自動評価手法のSharedtaskであるWMT2019MetricsSharedTask\cite{WMT2019}では,複数の翻訳システムの出力文に対する人手評価と自動評価の相関を用いて,システムレベルと文レベルでのメタ評価を行っている.文法誤り訂正における自動評価手法のメタ評価では,複数の訂正システムに対する人手のランキングとの相関を測るメタ評価が行われている\cite{Grundkiewicz,sakaguchi,Napoles,asano-ja}.\citeA{asano-ja}はシステムレベルのメタ評価だけでなく文レベルでのメタ評価も行っている.本研究でも同様に,システムレベルと文レベルの両方のメタ評価を行う.\citeA{MAEGE}は人手のランキングを用いるメタ評価とは別に,人手の訂正から構築した束に基づく文法誤り訂正のメタ評価手法(MAEGE)を提案した.人手の訂正を用いることで,人手のランキングを用いるメタ評価の評価者間および評価者内の一致が低い問題に対処している.さらに,人手のランキングに依存することによる一部の有効なエラータイプの訂正を適切に評価できない問題に対して,人手による訂正から構築した束全体を評価に用いることで対処している.本研究ではより適切なメタ評価のため,人手評価との相関だけでなく,人手の訂正に基づくMAEGEによるメタ評価も行う.人手評価との相関によるメタ評価の詳細を\ref{sec:humancorrelation}節に,MAEGEによるメタ評価の詳細を\ref{sec:MAEGE}節に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{提案手法:事前学習された文符号器を用いた自動評価モデル}
\label{sec:method}文法性・流暢性・意味保存性の人手評価値付きデータセットを用いて,各項目の評価モデルを最適化する.各項目の評価モデルに,訂正文あるいは入力文と訂正文の対から人手評価値を推定する回帰モデルとして,事前学習された文符号化器であるBERT\cite{bert}を用いることを提案する.BERTはそれまでの単方向でしか学習していなかった事前学習モデルとは異なり,入力文の一部をマスクしマスクされた単語を当てるように学習を行うことで,双方向での学習が可能となり,文全体を考慮した表現を獲得することができる.事前学習済みのBERTは,対象タスクに適した出力層に変更し,モデル全体を少量のデータセットで再学習させることで様々な自然言語処理タスクで高精度の予測を行うことができる.文法性・流暢性・意味保存性の項目ごとにBERTの再学習を行い,各項目の人手評価に最適化した自動評価モデルを構築する.再学習には各項目の人手評価値が付与されたデータセットを用いる.ただし,図\ref{fig:overview}に示すように,文法性および流暢性については訂正文のみから人手評価を推定し,意味保存性については入力文と訂正文の対から人手評価を推定する.再学習時には回帰モデルの学習と同時に文符号化器の学習も行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-2ia4f1.pdf}\end{center}\caption{評価手法の全体像($\alpha,\beta,\gamma$は各評価値の重み)}\label{fig:overview}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%訂正文の最終的な評価は,\citeA{asano-ja}と同様に各項目の評価値の線形和で求める.\begin{equation}\label{eq:1}\rm{Score}=\alpha\cdot\rm{Score_G}+\beta\cdot\rm{Score_F}+\gamma\cdot\rm{Score_M}.\end{equation}ここで,$\rm{Score_G}$,$\rm{Score_F}$,$\rm{Score_M}$はそれぞれ文法性,流暢性,意味保存性の評価値であり,各評価値は0から1になるように正規化を行う.重み$\alpha,\beta,\gamma$は$\alpha+\beta+\gamma=1$であり,いずれも負の値を取らない.各重みの決め方については\ref{sec:exp}節で説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{訂正文に対する人手評価値付きデータセットの構築}
\label{sec:createdata}文法誤り訂正の自動評価に理想的なデータで自動評価モデルの学習を行うために,訂正システムの訂正文に対して各項目の人手評価が付与されたデータセットを構築する.文法誤り訂正の検証用に一般的に利用されているCoNLL~2013\footnote{\url{https://www.comp.nus.edu.sg/~nlp/conll13st.html}}のテストデータである1,381文を複数の訂正システムで訂正した訂正文に対して,文法性・流暢性・意味保存性の人手評価を収集する\footnote{一般的に文法誤り訂正の評価に用いられているCoNLL~2014やJFLEGを自動評価モデルの学習データとして使用するのは不適切なため使用は避けた.}.CoNLL~2013のテストデータは,英語を母語としないシンガポール国立大学の学生25名によって書かれたエッセイをもとに作られている.監視技術と高齢化についての2つのトピックについて書かれており,学生の習熟度は比較的高い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訂正文生成のための文法誤り訂正システム}多様な訂正文に対して人手評価を収集するために,各入力文を代表的な以下の4種類の文法誤り訂正システムおよびシステムの学習時\footnote{2019年7月時点.}に公開されている中で最高性能のシステム\cite{copy}によって訂正し,アノテーションを実施する.\noindent\textbf{SMT}:統計的機械翻訳(StatisticalMachineTranslation)に基づくモデル.\citeA{smt}の実装\footnote{\url{https://github.com/grammatical/baselines-emnlp2016/tree/master/train-2018}}を用いた.言語モデルおよび単語クラス言語モデルの訓練には,公開されているデータ\footnote{\url{http://data.statmt.org/romang/gec-emnlp16/sim/}}のうちpart00からpart02までの30億文を用いた.KenLM\footnote{\url{https://kheafield.com/code/kenlm/}}\cite{kenlm}を用いて言語モデルの学習を行った.単語クラスの学習にはWord2Vec\cite{word2vec}を用いた.\noindent\textbf{RNN}:RecurrentNeuralNetworkに基づく系列変換モデル.実装にはfairseq\footnote{\url{https://github.com/pytorch/fairseq}}\cite{fairseq}を用いた.4層のBi-directionalLSTMを用い,単語埋め込みの次元数は512,バッチサイズは32とし,その他の設定は\citeA{luong}に従った.\noindent\textbf{CNN}:ConvolutionalNeuralNetworkに基づく系列変換モデル.実装にはfairseq$^{10}$\cite{fairseq}を用いた.符号化器および復号器の次元数は512とし,その他の設定は\citeA{cnn}に従った.\noindent\textbf{SAN}:Self-AttentionNetworkに基づく系列変換モデル.実装にはfairseq$^{10}$\cite{fairseq}を用いた.設定は\citeA{san}に従った.\noindent\textbf{SAN+Copy}:文法誤り訂正の入力文の単語が訂正されない割合が高いという性質を考慮して,訂正する必要がない部分は入力文から単語を直接コピーして出力できるようなコピー機構をSANに追加したモデル.データセットの作成時に公開されているモデルの中で最高性能のモデルであった.\citeA{copy}の実装\footnote{\url{https://github.com/zhawe01/fairseq-gec}}を用いた.各モデルの訓練のために,SAN+Copyは著者らが公開している訓練用データ$^{11}$(Lang-8,NUCLE,FCE)を,その他のモデルは\citeA{bea}の訓練用データ\footnote{\url{https://www.cl.cam.ac.uk/research/nl/bea2019st/#data}}(Lang-8,NUCLE,FCE,W\&I)を用いた.ただし,100トークン以上の文を削除した後に,BytePairEncoding\footnote{\url{https://github.com/rsennrich/subword-nmt}}\cite{bpe}を用い,結合回数を30,000として単語のサブワード化を行った.各モデルをCoNLL~2013のデータで2分割交差検証によって評価した結果および類似の設定で実験を行っている先行研究の結果の比較を表\ref{system_result}に示す.ただし,先行研究は2分割交差検証ではなく,NUCLEデータの一部を検証データとしてCoNLL~2013の評価を行っている.先行研究の報告と同等の性能を確認できたので,2分割交差検証のテストデータに対する訂正文に人手評価を付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{04table01.tex}\caption{CoNLL~2013における各システムの$\rmF_{0.5}$値}\label{system_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訂正文に対する文法性・流暢性・意味保存性のアノテーション}CoNLL2013の1,381文を前節の各システムで訂正し,重複する訂正文を除いた合計4,223文に対して文法性・流暢性・意味保存性の人手評価値を付与する.文法性および流暢性は訂正文のみで評価を行い,意味保存性は入力文と訂正文から評価を行うようにした.\noindent\textbf{文法性}:訂正文の文法的な正しさを評価する.\citeA{Heilman}の5段階評価(4.完璧,3.分かりやすい,2.理解できる,1.理解できない,0.その他)に従って評価した.\noindent\textbf{流暢性}:訂正文の自然さを評価する.\citeA{Lau}の4段階評価(4.非常に自然,3.やや自然,2.やや不自然,1.非常に不自然)に従って評価した.\noindent\textbf{意味保存性}:入力文と訂正文の間の意味内容の等価性を評価する.\citeA{Xu}の5段階評価(4.同一,3.わずかに異なる,2.異なる,1.大幅に異なる,0.その他)に従って評価した.AmazonMechanicalTurk\footnote{\url{https://www.mturk.com/}}を用いて,1文あたり5人の評価者を募集した.データセットの質を担保するために,US在住者のうち,質の高い回答を行うMaster資格を保有し,過去のタスク承認率99\%以上かつ承認数50以上の評価者を採用した.また,入力文や訂正文を読まずに回答する評価者を拒否するために,全ての項目に4を回答させるダミー設問を設置した.さらに,全ての項目に同じ回答をする評価者や,極端に回答時間が速い評価者も拒否した.最終的に,3人以上の評価者が「0.その他」\footnote{不完全な文や意味不明な文.}を回答した文を除き,合計4,221文の人手評価値付きデータセットを作成した.時給7.25ドルと見積もって作業を複数人に分割して依頼し,データ作成時点(2019年)のレート換算で合計約10万円を使用してデータセットを作成した.人手評価値のヒストグラムおよび各項目間のピアソンの積率相関係数を図\ref{histgram_and_corrmatrix}に示す.2以下の評価は全体に少なく,特に意味保存性の項目は多くが3以上の評価を得た.また,文法性と流暢性との相関は高く,意味保存性は他の2項目間との相関が低い.流暢性の観点は文法性の観点も含まれているため高い相関になったと考えられる.図\ref{annotation_examples}に実際のアノテーション例を示す.上の評価例では,文法性および流暢性の評価は高いが,副詞の``inversely''が``definitely''になっているため意味保存性は低い評価となっている.下の例では文法性および流暢性の評価は低いが,形の変化や冠詞の有無の違いであり,全体としては意味はほとんど変わらないため意味保存性は高い評価となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-2ia4f2.pdf}\end{center}\caption{各項目のヒストグラム(左図)と各項目間の相関行列(右図)}\label{histgram_and_corrmatrix}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{28-2ia4f3.pdf}\end{center}\caption{実際の評価例}\label{annotation_examples}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験設定}
提案手法の有効性を検証するために,人手評価との相関によるメタ評価およびMAEGEによるメタ評価を行い,既存手法と比較を行う.さらに,本研究で作成した,訂正システムに対して人手評価値を付与したデータセットでBERTを再学習することの有効性を検証するために,\ref{sec:existingdata}節で説明した既存のデータセットでBERTを再学習した場合との比較も行う.各項目の自動評価モデル単体のメタ評価を行った後,\ref{sec:method}章で説明した各自動評価モデルを組み合わせた手法のメタ評価を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BERTの再学習}\ref{sec:createdata}章で構築したデータセットを訓練/検証/評価に3,376/422/423で分割し,BERTの再学習に使用する.比較手法におけるBERTの再学習のために,文法性$^1$および流暢性$^2$については\ref{sec:existingdata}節で説明したデータセットを使用する.意味保存性については,2文間の意味的類似度を$[0.0,5.0]$の連続値で評価したSemanticTextualSimilarityタスク\cite{sts}のデータセット\footnote{\url{http://ixa2.si.ehu.es/stswiki/index.php/STSbenchmark}}を使用する.文法性と流暢性に用いるデータセットは誤った文に対して評価がついているのに対し,このデータセットは誤りを含まない文対に対して評価がついている.事前学習済みのBERT(bert-base-cased)\footnote{\url{https://github.com/huggingface/transformers}}を,それぞれのデータセットを用いて再学習する.ハイパーパラメータは検証データを用いて,最大文長は128,256,バッチサイズは8,16,学習率は2e-5,3e-5,5e-5,エポック数は1から10の組み合わせからグリッドサーチで決定した.その他の学習設定は使用した事前学習済みモデルの事前学習時のものと同じである.検証データでスピアマンの順位相関係数が最大となるモデルを選択した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{28-2ia4f4.pdf}\end{center}\caption{システムレベルでのメタ評価}\label{fig:sys_eval}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{メタ評価実験}\label{sec:exp}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{人手評価との相関によるメタ評価}\label{sec:humancorrelation}\paragraph{システムレベルのメタ評価}システムレベルの評価では,図\ref{fig:sys_eval}のように,システムレベルの自動評価値と人手評価値の相関を測ることでメタ評価を行う.システムレベルの自動評価値は,各訂正文の自動評価値をシステムごとに平均して用いた.\citeA{asano-ja}と同様に,\citeA{Grundkiewicz}が公開しているデータを用いる.このデータは12システムによるCoNLL2014のテストデータの訂正文に人手で1から5のランク付けを行ったものである.CoNLL2014のテストデータはCoNLL2013のテストデータと同様に,シンガポール国立大学の学生25名の書いたエッセイをもとに作られているが,トピックが異なり,遺伝子検査とソーシャルメディアの2つのトピックについて書かれている.さらに\citeA{Grundkiewicz}はそのランクからレーティングアルゴリズムであるTrueSkill\cite{trueskill}を用いてシステムレベルでの人手評価を計算した.\citeA{asano-ja}と比較を行うために,\citeA{Grundkiewicz}のTable3c\footnote{Table3cには,12システムの名前およびTrueSkillによって計算された人手評価が記載されている.}の人手評価を用いて計算した.相関係数にはピアソンの積率相関係数とスピアマンの順位相関係数を用いた.式~(\ref{eq:1})の重み$\alpha,\beta,\gamma$は\citeA{asano-ja}と同様にJFLEGデータセット\cite{jfleg}の人手評価を用いて調整した.JFLEGデータセットを用いたのは,単純には\citeA{asano-ja}の結果と比較するためであるが,評価データや学習に使ったCoNLLデータと,システムの数・学習者の習熟度・編集率などの性質が大きく異なるJFLEGデータを使って重みを決めることでデータ依存性の問題を議論できるからである.各重み$\alpha,\beta,\gamma$は0.01刻みで,$\alpha+\beta+\gamma=1$を満たす組み合わせからグリッドサーチを行い,ピアソンの積率相関係数を最大化するように決定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{文レベルのメタ評価}\label{sec:sent-metaeval}文レベルのメタ評価では,各訂正文の自動評価値を人手評価値と直接比較する.\citeA{asano-ja}と同様に,\citeA{Grundkiewicz}のデータセットにおける正解率およびケンドールの順位相関係数によって,任意の2つの訂正文の優劣判定調査を行う.同一文に対するシステム出力の評価が異なるペアの評価を行い,その正解率(Accuracy)(式~(\ref{Accuracy}))とWMT2017\cite{wmt17}で使われているケンドールの順位相関係数$\tau$(Kendall's$\tau$)(式~(\ref{tau}))を用いてメタ評価を行う.一部の文に対しては複数人が評価を行っているが,それらは別事例とみなし,14,822ペアに対して評価を行った.\begin{gather}\label{Accuracy}Accuracy=\frac{適切に評価したペア数}{人手評価の大小が異なるペア数}.\\[1ex]\text{\textit{Kendall's}}\\tau=\frac{適切に評価したペア数-逆に評価したペア数}{人手評価の大小が異なるペア数}.\label{tau}\end{gather}式~(\ref{eq:1})の重み$\alpha,\beta,\gamma$は\citeA{Grundkiewicz}のデータセットを1:9の割合で検証用と評価用に分割し,検証用データにおけるケンドールの順位相関係数を最大化するように調整した.グリッドサーチの探索範囲はシステムレベルの評価と揃えた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{MAEGEによるメタ評価}\label{sec:MAEGE}\citeA{MAEGE}らは,人手評価との相関を用いるメタ評価に存在する,評価者間および評価者内の一致が低い問題や,一部のエラータイプに対する訂正を適切に評価できない問題に対処するために,人手による訂正を用いた自動評価手法のメタ評価手法(MAEGE)を提案した.人手による訂正アノテーションが付与されたコーパスを用い,各文に対して図\ref{fig4}に示すような人手の訂正を元とする束を構築する.全ての訂正が全体的な品質に等しく作用すると仮定して,訂正の適用数で順序づけが行われる.束を適用した誤り文セットを自動評価手法で評価し,定義された順序関係を正解順位として比較を行いメタ評価を行う.MAEGEでは,コーパスレベルと文レベルのメタ評価を行うことができる.詳細な説明は\citeA{MAEGE}を参照されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-2ia4f5.pdf}\end{center}\hangcaption{各誤り文に対する人手の訂正を元とした束(左図)と実際の例(右図).各有向エッジは人手の訂正の適用を表し,訂正文$k$は誤り文に対して$k$人目の訂正者の全ての訂正を適用した文である.}\label{fig4}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究の実験では,CoNLL2014\cite{conll2014}のテストデータを使用する.実験は公開されている実装\footnote{\url{https://github.com/borgr/EoE}}を使用したが,束を構築する際に入力文または訂正を適用した結果が空文にならないように訂正を加えた.コーパスレベルのメタ評価では\citeA{MAEGE}と同様の設定で,ピアソンの積率相関係数およびスピアマンの順位相関係数を用いて評価した.文レベルのメタ評価では\citeA{MAEGE}と同様の設定で,ケンドールの順位相関係数$\tau$\footnote{通常用いられる,全順序集合に対して定義された指標ではなく,半順序集合に合わせて\citeA{MAEGE}が再定義した指標を用いている.}およびピアソンの積率相関係数で評価した.各メタ評価における各項目の重みは\ref{sec:sent-metaeval}節の文レベルのメタ評価で決めた値を用いた.\citeA{MAEGE}では,2人のアノテーションのうち1人が訂正を行っていない文は削除している.それに加えて,上述した実装に加えた条件によって,元の1,312文から808文が選択される.その808文に対する合計1,704のアノテーションから合計6,634文が生成され,評価に使用された.それぞれ3つのランダムシードで実験を行い,平均値を報告する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベースライン手法}本実験では,3つの自動評価手法と提案手法を比較する.参照文を用いる自動評価手法としては,\ref{sec:reference-basedmetric}節で説明したうち,文法誤り訂正の自動評価で一般的に使用されている${\rmM^2}$\cite{Dahlmeier}およびGLEU\cite{gleu}を用いる.参照文を用いる手法では,性能を最大にして比較を行うために,公式の2つの参照文に加えて\citeA{bryant}の追加の8つの参照文と\citeA{sakaguchi}の追加の8つの参照文を加えた18文を用いる.参照文を用いない自動評価手法としては,先行研究である\citeA{asano-ja}を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験結果}
各実験結果の表における,BERTw/existingdataは既存のデータでBERTを再学習した場合,BERTw/ourdataは作成したデータでBERTの再学習を行った場合の結果を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人手評価との相関によるメタ評価}\label{sec:result1}表\ref{result2-1}に文法性・流暢性・意味保存性の各項目の自動評価モデルの,作成した評価データを用いたメタ評価の結果を示す.\citeA{asano-ja}のシステムレベルにおける結果は再実装したものを用いた.\citeA{asano-ja}の手法と比較して,既存のデータでBERTを再学習する意味保存性の評価モデルを除いて,提案手法が高い相関を達成している.既存のデータでBERTを再学習する意味保存性の評価モデルの相関が高くないのは,再学習に用いたデータが文法的な誤りを含まない文対に対して人手評価が付与されていたからであると考えられる.再学習に用いるデータセットの違いでは,我々が作成したデータで再学習した各評価モデルが最高の人手評価との相関となっており,訂正システムの出力に対する人手評価に最適化をすることの有効性が確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{04table02.tex}\caption{作成したデータセットにおける各項目の自動評価手法のメタ評価.}\label{result2-1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{result2-2}に文法性・流暢性・意味保存性の各項目の自動評価モデルの,\citeA{Grundkiewicz}の評価データを用いたメタ評価の結果を示す.\citeA{asano-ja}のシステムレベルにおける結果は\citeA{asano-ja}からの引用,文レベルにおける結果は再実装したものを用いている.表\ref{result2-1}では,各自動評価モデルは対応する項目の人手評価との相関を計算しているが,表\ref{result2-2}では,各自動評価モデルは総合的な人手評価との相関を計算している.意味保存性はシステムレベルでは負の相関,文レベルでは無相関となったが,文法性と流暢性に関しては全ての項目で,我々の作成したデータでBERTを再学習した手法がベースラインより高い相関となっている.意味保存性のシステムレベルで負の相関になっている理由は,訂正を行わないシステムに対する意味保存性単体の評価は高くなるのに対して,総合的な評価では訂正しないシステムに対しては低い評価となるため負の相関になっていると考えられる.実際に,評価データ中の各システムの訂正を行わない文数と提案手法の意味保存評価モデルの予測値のスピアマンの順位相関係数は0.923となり,各システムの訂正を行わない文数とシステムの人手の順位とのスピアマンの順位相関係数は$-$0.549となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{04table03.tex}\caption{\protect\citeA{Grundkiewicz}のデータセットにおける各項目の自動評価手法のメタ評価.}\label{result2-2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{04table04.tex}\caption{システムレベル(左)と文レベル(右)のメタ評価}\label{result1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{result1}に,\ref{sec:method}章で説明した各評価項目のモデルを組み合わせた手法の,システムレベルおよび文レベルの人手評価との相関によるメタ評価の結果を示す.\citeA{asano-ja}の結果は,システムレベルにおいては\citeA{asano-ja}における3項目を組み合わせた手法の中で最大の相関値を引用,文レベルにおいては再実装したものを使用している.システムレベルと文レベルの両方で,BERTの再学習に基づく自動評価手法が他の自動評価手法よりも大幅に高い性能を示したことから,文法誤り訂正の自動評価において事前学習された文符号化器BERTを用いることの有効性が確認できる.BERTの再学習に使用するデータセットの違いからは,システムレベルと文レベルの両方で我々のデータセットを用いる再学習が人手評価とのより高い相関を達成することがわかる.このことから,実際のシステムの訂正文に対する各項目の人手評価に自動評価モデルをそれぞれ最適化することの有効性が確認できる.文法性・流暢性・意味保存性の3項目を組み合わせる手法では,全体的に意味保存性の重み$\gamma$が小さくなっている.これは,文法誤り訂正では入力文と訂正文の多くの単語が共通するため,訂正の良し悪しによらず多くの場合に意味が変わらないことが原因だと考える.システムレベルでは1つの重みに偏っている.これは,重みのチューニングに,4つのシステムに対する人手のランキングがついたJFLEGデータセットを用いており,4つのシステムの評価は各項目を組み合わせずとも,文法性・流暢性の単体の評価器で高い精度で予測ができてしまうからであると考えられる.実際に,作成したデータにおける文法性単体の評価器は,JFLEGデータセットに対して0.976のピアソンの積率相関係数,1.0のスピアマンの相関係数であり,流暢性単体の評価器ではそれぞれ0.978,1.0であった.JFLEGデータセットは流暢性を重要視して作られているため,BERTw/ourdataでは流暢性の重みが高くなっている.BERTw/existingdataでは,流暢性単体よりも文法性単体の評価器の方がJFLEGデータセットに対する相関が高いため文法性の重みが高くなっていると考えられる.実際に,文法性単体の評価器はJFLEGデータセットに対して0.963のピアソンの積率相関係数,流暢性単体の評価器は0.957のピアソンの積率相関係数であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{04table05.tex}\caption{MAEGEによるメタ評価}\label{tb:result3}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{MAEGEによるメタ評価}\label{sec:result2}表\ref{tb:result3}にMAEGEによるコーパスレベルと文レベルのメタ評価の結果を示す.上段の参照文を用いる手法と下段の参照文を用いない手法を比較すると,コーパスレベルおよび文レベルの両方,特に文レベルにおいて参照文を用いない手法が高い相関となっている.参照文を用いる手法の$\rmM^2$は文レベルにおいてピアソンの積率相関係数は無相関,ケンドールの順位相関ではある程度の相関となっており,GLEUは$\rmM^2$と逆の振る舞いを示している.$\rmM^2$は同じ文の異なる訂正に対する順序付けはある程度予測できるが,全体的に一貫した評価をすることはできず,GLEUはその逆の性質を持つことを意味している.参照文を用いない手法を比較すると,BERTを用いた手法が\citeA{asano-ja}の手法より高い相関となっている.特にBERTを用いる手法はベースライン手法に比べて文レベルの両方の評価尺度で高い相関を持つことがわかる.このことから,BERTを用いた手法は同じ文の訂正ペアの順序付けと,全体的に一貫した評価の両方を行うことができることがわかる.再学習に用いるデータセットの違いでは,総合的に見ると,我々のデータセットを用いる方が相関が高くなった.\ref{sec:result1}節の人手評価との相関を用いる実験および\ref{sec:result2}節のMAEGEによる実験の結果,作成したデータでBERTを再学習する手法が最もよい結果となった.各項目の評価モデルを作成したデータセットに最適化することで,各項目の評価モデルの性能が向上し(表\ref{result2-1},表\ref{result2-2}),その結果,各評価モデルを組み合わせた手法で性能が向上した(表\ref{result1},表\ref{tb:result3}).各評価モデルを組み合わせた場合の,再学習に用いるデータセットの違いによる性能の改善は大きくないが,表\ref{result2-1},表\ref{result2-2}のように各項目の評価を見ると大きく改善しているため,データ作成にかかるコスト約10万円を考慮しても,各項目をより適切に評価するためにシステム出力にラベル付けして新たにデータを作る意味は十分あると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{04table06.tex}\caption{提案手法のみが正しく評価できた例}\label{example1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{分析}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価例}${\rmM^2}$,GLEU,\citeA{asano-ja},作成したデータでBERTの再学習を行った場合の提案手法による評価例を分析する.\citeA{Grundkiewicz}の評価データに対する各評価手法を比較する.表\ref{example1}に,提案手法のみが正しく評価できた例を示す.${\rmM^2}$は訂正文1と訂正文2に対して同じ評価値を与えており正しく評価できていない.表層的な語句の一致率に基づくGLEUは,参照文に``problems''が含まれないために訂正文1を低く評価し,表層的には似ているが余計な``the''が入っている訂正文2を高く評価してしまっている.一方で提案手法は,``disadvantages''が``problems''になっていても余計な``the''が入っている訂正文2よりも訂正文1のほうを高く評価できており,表層的な語句の一致率に依存せず評価できている.\citeA{asano-ja}が正しく評価できていないのは,\citeA{asano-ja}が主に流暢性,次に意味保存性を見ている(表\ref{result1})が,流暢性の評価モデルは人手評価との相関が低い(表\ref{result2-1})ことおよび意味保存性の評価モデルはMETEORであり入力文との表層一致で評価値を計算するため入力文に表層の近い訂正文2を高く評価するからであると考えられる.表\ref{example2}に,参照文を用いる手法では正しく評価できたが,参照文を用いない手法では正しく評価できなかった例を示す.参照文を用いる手法では,参照文には``child''が含まれているため,``child''が含まれている訂正文2を高く評価している.一方で,参照文を用いない手法では,``child''の部分が``children''となっている訂正文2を高く評価している.これは,参照文を用いないため,参照文の情報を考慮した評価ができないためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{04table07.tex}\caption{参照文を用いる手法のみが正しく評価できている例}\label{example2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エラータイプ別の評価分析}MAEGEでは,特定のエラータイプの訂正に対する評価の分析を行うことができる.特定のエラータイプの訂正のみが異なる文のペア$(c,c')$の集合を用意し,各ペア$(c,c')$の各文を評価して,その差分$m(c)-m(c')$の平均を計算する.$c$は特定のエラータイプの訂正を適用した後の文,$c'$はそのエラータイプの訂正を適用する前の文,$m$は評価手法を示す.負の値の平均差は評価手法がエラータイプの訂正に対して減点し,正の値の平均差は加点することを意味している.例えば,エラータイプがVt(Verbtense)で,$c$が``Themedicaltreatmenttechnologyduringthattime\textit{\textbf{is}}notadvancedenoughtocompletelycurehim.'',$c'$が``Themedicaltreatmenttechnologyduringthattime\textit{\textbf{was}}notadvancedenoughtocompletelycurehim.''のペアに対して各文の評価を行い$m(c)-m(c')$が正ならば訂正した文の方が高く評価できているため,適切に評価できており,負ならば,訂正した文の方を低く評価しているため,適切に評価できていない.エラータイプにはCoNLL2014\cite{conll2014}で指定されている27のエラータイプを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{04table08.tex}\caption{エラータイプ分析}\label{error}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{error}に結果を示す.${\rmM^2}$では全てのエラータイプで平均差がほぼ0(0.0001など)になっており\footnote{\citeA{MAEGE}の結果でも同様に${\rmM^2}$は全てのエラータイプが0または0に近い値となっている.},特定のエラータイプに対して一貫した評価を行えていないことがわかる.GLEUでは多くのエラータイプの訂正に対して減点している.一方,参照文を用いない評価手法ではほとんど全てのエラータイプで正の値となっており,多くのエラータイプの訂正に対して加点できていることがわかる.特に,我々が作成したデータでBERTの再学習を行った手法においては全てのエラータイプの訂正に対して加点できている.また,既存のデータでBERTの再学習を行った場合に比べて,各エラータイプに対する平均差の値が大きくなっており,各エラータイプの訂正に対してより大きく加点できていることがわかる.特に,連続文やコンマ区切りの誤り(Srun)や並列性の誤り(Spar)は他の手法に比べて平均差が大きく,他の手法と比較してこれらの誤りに対する感度が高いことがわかる.逆に,明確にしないと修正ができないような誤り(Um)は他の手法と同様に平均差が小さく,他手法と同様に感度が低いことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
本研究では,文法誤り訂正の自動評価で重要である,文法性・意味保存性・流暢性の3項目の評価モデルを人手評価に最適化する手法を提案した.最適化するための理想的なデータセットが存在しないため,5つの訂正システムの出力に対して,文法性,流暢性,意味保存性の観点で人手評価を行いデータセットの作成を行った.作成した各項目のデータセットを用いて,事前学習された文符号化器の再学習を行い,各項目の評価モデルを作成してそれらを組み合わせて文法誤り訂正の自動評価を行った.実験では,まず各項目の評価モデルの個別のメタ評価を行い,各項目をどれだけ適切に予測できるか実験した.そして,人手評価との相関によるメタ評価および人手の訂正を用いたメタ評価で,各項目の評価モデルを組み合わせた手法を評価した.実験の結果,提案手法は従来手法に比べて,各項目をより適切に評価できること,各項目の評価モデルを組み合わせた評価でもより適切に評価できることを示した.そして,事前学習された文の符号化器であるBERTを回帰モデルとして用いることおよび我々が作成した訂正文に対する人手評価に最適化することが相関の改善に有効であることがわかった.分析の結果,従来手法ではいくつかのエラータイプの訂正に対して減点しているのに対して,提案手法は全てのエラータイプの訂正に対して適切に加点できていることがわかった.今後の発展としては,文法誤り訂正の精度改善に提案した自動評価手法を活用することである.例えば,提案した自動評価手法の評価値を報酬として強化学習による学習を行うことや,複数モデルのアンサンブルを行う時に使用して,最も良い訂正を選択することなどが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の実験をするにあたり,実装コードの提供をして頂いた浅野広樹氏,JFLEGの評価データで使用されているシステム出力を提供して頂いた坂口慶祐氏,AmazonMechanicalTurkで公開するタスクの確認を行って頂いたSitiOryzaKhairunnisa氏に感謝します.本研究の一部はJSPS科研費(若手研究,課題番号:JP20K19861)の助成を受けたものです.本研究の内容の一部は,The28thInternationalConferenceonComputationalLinguistics\cite{yoshimura}で発表したものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{吉村綾馬}{%2019年首都大学東京(現東京都立大学)システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,首都大学東京システムデザイン研究科情報科学域博士前期課程に進学.2021年博士前期課程修了.同年,株式会社ユーザーローカルに入社.現在に至る.}\bioauthor{金子正弘}{%2016年北見工業大学工学部情報システム工学科卒業.同年,首都大学東京システムデザイン研究科博士前期課程に進学.2018年博士前期課程修了.同年,首都大学東京システムデザイン研究科博士後期課程に進学.2019年より日本学術振興会特別研究員(DC2)を経て,2021年博士後期課程修了.博士(情報科学).同年より東京工業大学情報理工学院研究員.現在に至る.}\bioauthor{梶原智之}{%愛媛大学大学院理工学研究科助教.2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程修了.博士(工学).大阪大学データビリティフロンティア機構の特任助教を経て,2021年より現職.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{小町守}{%2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V07N04-04
|
\section{はじめに}
label{hajimeni}本論文では,表現``$N_1のN_2$''が多様な意味構造を持つことを利用して,動詞を含む連体修飾節を表現``$N_1のN_2$''に言い換える手法を提案する.自然言語では,一つの事象を表すために多様な表現を用いることが可能であり,人間は,ある表現を,同じ意味を持つ別の表現に言い換えることが,しばしばある.言い換えは,自然言語を巧みに操るために不可欠な処理であり\cite{sato99},それを機械によって実現することは有用であると考えられる.例えば,文書要約において,意味を変えずに字数を削減するためや,文章の推敲を支援するシステムにおいて,同一の表現が繰り返し出現するのを避けるために必要な技術である.また,ある事象が様々な表現で表されているとき,それらの指示対象が同一であると判定するためにも必要である.{}\ref{kanren}節で述べるように,近年,言い換え処理の重要性はかなり認識されてきたと考えられるが,適切な問題の設定を行うことが比較的困難なため,言い換え処理の研究はそれほど進んでいない.佐藤\cite{sato99}は,「構文的予測の分析」から「構文的予測を分析する」への言い換えのように,動詞を含む名詞句を述語の形式に言い換える問題を設定している。また近藤ら\cite{kondo99}は,「桜が開花する」から「桜が咲く」への言い換えのように,サ変動詞を和語動詞に言い換える問題設定をしている.この他,「〜を発表しました.」から「〜を発表.」のような文末表現の言い換えや,「総理大臣」から「首相」のような省略形への言い換えなどを,言い換えテーブルを用意することによって実現している研究もある\cite{wakao97,yamasaki98}.これに対し我々は,名詞とそれに係る修飾語,すなわち連体修飾表現を異形式の連体修飾表現に言い換えるという問題設定を提案する.\ref{taishou}節に述べるように,我々は連体修飾表現を言語処理の観点から3分類し,これらの相互の変換処理を計算機上で実現することを研究の最終目標として設定し,このうち本論文において動詞型から名詞型へ変換する手法を議論する.連体修飾表現を対象にした本論文のような問題設定は従来見られないが,表現が短縮される場合は要約などに,また逆に言い換えの結果長い表現になる場合は機械翻訳などの処理に必要な処理であると考える.本問題においても,従来研究と同様言い換えテーブルを用意することで言い換え処理を実現する.しかし本論文では,その言い換えテーブルを如何にして作成するかについて具体的に述べる.連体修飾表現の言い換え可能な表現は非常に多く存在することが容易に想像でき,これらをすべて手作業で作成することは現時点においては困難である.このため,現実的な作業コストをかけることで言い換えテーブルを作成する手法を示す.本提案処理の一部にはヒューリスティックスが含まれているが,これらについても一部を提示するにとどめず,具体例をすべて開示する.本論文で言い換えの対象とする表現``$N_1のN_2$''は,2つの語$N_1$,$N_2$が連体助詞`の'によって結ばれた表現である.表現``$N_1のN_2$''は,多様な意味構造を持ち,さまざまな表現をそれに言い換えることが可能である.また,動詞を含む連体修飾節は,各文を短縮する要約手法\cite{mikami99,yamamoto95}において削除対象とされている.しかし,連体修飾節すべてを削除することにより,その名詞句の指す対象を読み手が同定できなくなる場合がある.このとき,それを``$N_1のN_2$''という表現に言い換えることができれば,名詞句の指示対象を限定し,かつ,字数を削減することが可能となる.表現``$N_1のN_2$''は多様な意味を持ちうるため,たとえ適切な言い換えがされたとしても,曖昧性が増す場合がある.しかしながら,言い換えが適切であれば,読み手は文脈や知識などを用いて理解が可能であると考えられる.以下,\ref{taishou}~節で,連体修飾表現を分類し,本論文で対象とする言い換えについて述べる.\ref{kousei}~節から\ref{NNpair}節で本手法について述べ,\ref{hyouka}~節では主観的に本手法を評価する.\ref{kousatsu}~節では,評価実験の際に明らかになった問題点などを考察する.また\ref{kanren}~節では,本論文の関連研究について論じる.
\section{連体修飾表現の言い換え}
label{taishou}\begin{figure}[hbt]\begin{center}\begin{tabular}{rl}\hline動詞型連体修飾&$N_1$(が/を/…)$V$-する$N_2$\\名詞型連体修飾&$N_1のN_2$\\&$N_1\N_2$\\形容詞型連体修飾&$N_1$(が/を/…)$A$-い$N_2$\\&$N_1$(が/を/…)$A$-な$N_1$\\\hline\end{tabular}\\\vspace{0.5mm}$N_1,N_2$:名詞,$V$-する:動詞,$A$-い,$A$-な:形容詞\\\caption{連体修飾表現の分類}\label{bunrui}\end{center}\end{figure}\begin{figure}[hbt]\begin{center}\epsfile{file=iikae.eps}\\\caption{型を変換する言い換え}\label{katahenkan}\end{center}\end{figure}本節では,連体修飾表現の言い換えという問題設定を,我々が如何にして行うかについて述べ,このうち本論文で対象とする問題の定義を行う.まず自然言語処理の観点から,連体修飾表現の分類として,図~\ref{bunrui}~のように,動詞型,名詞型,形容詞型の3種類の型を定義する.名詞を修飾するという同じ役割に対して,さまざまな表現が可能である.例えば図~\ref{katahenkan}~のように,異なる型においても,ほぼ同一の意味を持つ表現が存在する.人間ならば,これらの表現が同一の意味を持つと理解した上で,互いに言い換えることが可能である.そこで本研究では,これを計算機で行うことを目指す.すなわち,ある型の連体修飾表現を,如何にして他の型の連体修飾表現に変換するか,という型変換処理の形で問題を設定する.機械によって,それぞれの表現の意味を理解し,言い換え可能であるか判定することは現状の技術では困難であり,何らかの表層表現を手がかりにした近似的な手法を考案する必要がある.よって我々は,それぞれの型変換における表層的な特徴を利用して言い換えを実現する.図~\ref{katahenkan}~のうち本論文で対象とするのは,動詞型連体修飾表現を名詞型連体修飾表現``$N_1のN_2$''へ言い換えるものである.他の型の表現を``$N_1のN_2$''に言い換えることで,要約において,文の冗長さを減少させることや,文章推敲を支援するシステムにおいて,文章中に同一の表現が続くことを避けることなどが可能である.\begin{center}\begin{tabular}{lcl}{\bf例1}&&\\A国で起きたクーデター事件&$\to$&A国のクーデター事件\\\end{tabular}\end{center}動詞型連体修飾表現は,各文を短縮する要約手法\cite{mikami99,yamamoto95}において削除対象となっている.しかし上の例1のように,連体修飾表現を削除すると,読み手が,その名詞句の指す対象を同定することが困難になる場合も存在する.こういった連体修飾表現を表現``$N_1のN_2$''に言い換えることによって,可能な限り字数を削減することができ,かつ,その指示対象の同定を容易にすることができる.本論文で提案する手法によって,``$N_1N_2$''への言い換えも,同様に可能であると考える.\begin{center}\begin{tabular}{lcc}{\bf例2}&&\\外国で製作された映画&$\to$&外国の映画\\&$\to$&外国映画\\\end{tabular}\end{center}しかし,この言い換えを行う場合,以下の点を判定する必要があり,本論文では,この言い換えは扱わない.\begin{itemize}\vspace{-2mm}\item$N_1$,$N_2$を連結し,複合名詞``$N_1N_2$''として扱うことが可能か.\\\begin{center}\begin{tabular}{lcc}{\bf例3}&&\\太郎が持つ考え&$\to$&太郎の考え\\&$\to$&(?)太郎考え\\\end{tabular}\end{center}\item``$N_1のN_2$''が指す対象と,``$N_1N_2$''のそれとが同一であるか.\begin{center}\begin{tabular}{lcc}{\bf例4}&&\\日本にある大学&$\to$&日本の大学\\&$\to$&(?)日本大学\\\end{tabular}\end{center}\end{itemize}\vspace{5mm}なお,本論文でいう動詞には,``サ変名詞$+$する''を含み,``する'',``なる'',``である''など\footnote{その他は,``よる'',``できる'',``関する'',``対する'',``いう'',``つく'',``伴う''.}を含まない.
\section{本手法の構成}
label{kousei}本手法は,以下に示す部分から成る.また,本手法の概念図を図~\ref{gainen}~に示す.\begin{description}\item[削除動詞判定部]\動詞型連体修飾表現に含まれる動詞が,2種類の方法で定義した削除可能な動詞であるか否かを判定する.\item[言い換え表現絞り込み部]\コーパスに出現しない表現``$N_1$の$N_2$''に言い換えることがないよう言い換えに制限を加える.\end{description}\begin{figure}\begin{center}\epsfile{file=gainen.eps,width=143mm,height=70mm}\caption{本手法の概念図}\label{gainen}\end{center}\end{figure}表現``$N_1のN_2$''の中には,語$N_1$と$N_2$を結ぶ述語が省略されている,連体修飾節の短縮形と考えられるものが存在する\cite{hirai86,kurohashi99,shimadu85}.この省略されうる述語として,本論文では図~\ref{gainen}~に示すように2種類の``削除可能な動詞''を定義する\cite{kataoka99nlprs}.表現``$N_1のN_2$''の意味解析に関する既存の研究では,語$N_1$,$N_2$の意味関係を幾つかのクラスに分類することを試みている\cite{hirai86,kokugo51}.これらの意味構造に対応する動詞は,削除可能であると考えられる.一方,表現``$N_1のN_2$''には,$N_1$,$N_2$間の意味関係を示す動詞を,語$N_1$,または,$N_2$から連想できる場合がある.この場合,連想される動詞は,その語と共起したときのみ表現``$N_1のN_2$''の意味構造に対応するため,常に既存の分類と対応するとは限らない.どの動詞が連想されるかは,日常的な語の使われ方によって決まるため,その情報は,コーパスから得ることが適切である.よって,以下の2種類の方法により,削除可能な動詞を定義する.\begin{itemize}\itemシソーラスを用いて,表現``$N_1のN_2$''の意味構造に対応する動詞を選択する.\itemコーパスから,名詞と動詞の対を抽出し,共起頻度の高い対の名詞から動詞が連想可能であると判定する.\end{itemize}これらの削除可能な動詞を用いることで,動詞を含む連体修飾節が表現``$N_1のN_2$''に言い換えられることを示す.一般に言語現象は複雑であり,問題解決のための規則を人間が記述する規則利用型(rule-based)処理において,すべての現象をとらえられる規則を記述するのは困難である.一方,用例利用型(example-based)処理では,コーパスに類似した用例が出現しない場合,問題に対処することができない.これらの理由から,本論文では,2種類の方法によって削除可能な動詞を定義する.
\section{削除可能な動詞}
label{deletable_verb}名詞型連体修飾``$N_1のN_2$''の意味解析に関する研究は,従来から多く行われている\cite{hirai86,kokugo51,kurohashi99,shimadu85,tomiura95}.平井ら\cite{hirai86}は,表現``$N_1のN_2$''に,$N_1$と$N_2$を結ぶ述語が省略されているものが存在するとしている.また,この種の``$N_1のN_2$''の意味を理解するためには,読み手が,省略された述語を推定できなければならないことから,それらの述語は非常に基本的な関係を示すものであるとしている.また,英語の複合名詞句において,2つの名詞間の意味関係を9種の深層レベルの述語RDP(RecoverablyDeletablePredicate)\footnote{具体的には,CAUSE,HAVE,MAKE,USE,BE,IN,FOR,FROM,ABOUTの9種.}によってとらえる研究もある\cite{levi78}.これらの研究でも示されているように,``$N_1のN_2$''という表現や,複合名詞では,述語が省略されているものが存在する.逆に言うと,この省略されうる述語を含む連体修飾``$N_1$(が/を/…)$V$-する$N_2$''は,表現``$N_1のN_2$''に言い換えることが可能である.以下の例5では,動詞``発表する''を削除して,``$N_1のN_2$''と言い換えることができるが,動詞``批判する''を削除して言い換えることはできない.これは,語$N_1$と$N_2$が``発表する''によって結ばれた場合,その意味関係は``$N_1のN_2$''の意味構造に対応するが,``批判する''によって結ばれた場合,それに対応しないからだと考えられる.\begin{center}\begin{tabular}{lcc}{\bf例5}&&\\首相が発表した法案&$\to$&首相の法案\\首相が批判した法案&$\to$&(?)首相の法案\end{tabular}\end{center}本論文では,この``発表する''のような省略されうる動詞を``削除可能な動詞''と呼び,2種類の方法により定義する.\subsection{``$N_1のN_2$''の意味構造から得られる動詞}\label{byruigo}国立国語研究所は,``$N_1のN_2$''の意味構造を人手により分類している\cite{kokugo51}.その中で,述語が省略されていると考えられる分類を抜き出し\footnote{なお,これらの分類は,必ずしも並列ではない.},以下に示す.\begin{itemize}\item所有主.\\(例:太郎のボール)\item執筆者,発信者,主催者,主演者など,後ろの体言の作成行為をなした者.\\(例:漱石の小説,首相の談話)\item所属の団体.\\(例:A社の役員)\item存在の場所・位置.\\(例:奈良の東大寺)\end{itemize}これらの意味関係を示す動詞を,削除可能な動詞であると考える.また,削除可能な動詞は,平井らが述べているように「非常に基本的な関係を示す述語」でなければならないため,新聞記事に出現する頻度が上位の動詞だけを含める.よって,以下の条件1を満たす動詞を削除可能な動詞であると定義する.\begin{quote}\begin{itemize}\item[{\bf条件1:}]\itemシソーラス\cite{k_ruigo}において,上記の意味関係を示すと考えられる分類に含まれる.かつ,\itemコーパスに出現した動詞のうち,出現頻度が上位である.\end{itemize}\end{quote}上記の意味関係に対応するシソーラスの分類としては,\``所有'',``生成'',``開始'',``表現'',\\``実行'',``生産''など,末端の分類で30分類を選択した.また,コーパスとして日本経済新聞1993年の全記事を使用し,それらに出現した動詞(約2万語)を観察した結果,上位10\%に当たる2000位以上の動詞を出現頻度が上位であると判断した.その結果,削除可能な動詞を,``発表(する)'',``始める'',``まとめる'',``開く'',``実施'',``決める'',``開始'',``建設'',``行う''など,245個登録した.付録Aに,選択した30分類,および,削除可能な動詞の一部を示す.なお,これらの動詞の中には,削除可能な動詞として不適切な動詞``偽造(分類:製造)'',``冷蔵(分類:保有)''なども含まれているが,客観性を保つため,それらを人手で除去することは行わなかった.\subsection{語から連想される動詞}\label{rensou}前節では,削除可能な動詞をシソーラスを用いて定義した.しかし,これら以外の動詞であっても,文脈によって削除可能となる場合がある.以下の例6では,動詞``着る''や``降る''を削除して``$N_1のN_2$''と言い換えることができる.\begin{center}\begin{tabular}{lcl}{\bf例6}&&\\着物を着た女性&$\to$&着物の女性\\雨が降った日&$\to$&雨の日\end{tabular}\end{center}これは,名詞``着物'',``雨''から,それぞれの動詞を連想できるためと考えられる.``$N_1のN_2$''の意味解析に関する研究\cite{hirai86,kurohashi99,shimadu85,tanaka98b}においても,語$N_1$,または,$N_2$から連想される動詞を補完することで,その意味関係がとらえられる場合があるとしている.これらの動詞は,前述の定義では削除可能な動詞として定義されない.これらの動詞を削除可能であると判定するためには,ある名詞から連想される動詞を判定する必要がある.そこで,新聞記事において,ある名詞と,それが係る動詞との対を抽出する.ある名詞が与えられたとき,抽出した対の中で,その名詞と共起頻度の高い動詞を連想される動詞であると判定する.\subsubsection{$NV対$の抽出}\label{nvchushutsu}以下の手順により,新聞記事から名詞と動詞との対を抽出する.この抽出される対を,``$NV対$''と定義し\footnote{田中ら\cite{tanaka98b}は,一部の``$N_1のN_2$''の意味推定の際に,本論文と同様,コーパスにおける名詞と動詞の共起関係を用いている.},``$\langlen,v\rangle$''と表記する.\begin{enumerate}\item記事に対して形態素解析,および構文解析を行う.形態素解析器はJUMAN\footnote{http://pine.kuee.kyoto-u.ac.jp/nl-resource/}を用いた.また,構文解析器は,Perl言語を用いて独自に実装し,基本的に,すべての助詞は最も近い後方の用言に係ると判定した.解析結果の人手による修正は行わない.\item解析結果から,以下を$NV対$として抽出する.\begin{itemize}\item動詞($v$)と,その格要素の主辞($n$)\item修飾表現内の動詞($v$)と,その被修飾部の主辞($n$)\end{itemize}ただし,本論文では,名詞,または,接尾辞が連続している部分のうち最も後方の形態素を,主辞と定義する.また,$n$の品詞(JUMANの解析結果)が数詞,人名,地名,組織名のいずれかであるならば,それぞれの品詞名を$n$として抽出する.\end{enumerate}例えば,``東京で開かれた国際会議に出席する.''という文からは,$\langle地名,開く\rangle$,$\langle会議,開く\rangle$,$\langle会議,出席\rangle$という$NV対$が抽出される.$NV対$を抽出する際に,$v$に対して$n$がとる格を考慮することが考えられる.ところが,連体修飾表現``$V$-する$N_2$''においては,被修飾語$N_2$がとる格を表層表現から得ることができない.また,文型によって表層格が変化しても同一の$NV対$として抽出することが望ましい.これらの理由から,表層的な情報のみを扱う本論文では,$NV対$において,格の情報は扱わない.また,前述の抽出法では,連体修飾表現が「外の関係」\footnote{被修飾語が修飾部の用言の格要素とならない\cite{teramura75}.格要素となる場合を「内の関係」と呼ぶ.}である場合,動詞の格要素ではない名詞が抽出される.しかし一般に,ある連体修飾表現が「内の関係」であるか「外の関係」であるかを機械的に判定することは困難であるため,本論文ではその判定は行わない.日本経済新聞1993年の全記事(約15万記事)に対して抽出を行った結果,約470万の$NV対$が抽出された(表~\ref{chushutsukekka}~).\begin{table}[hbt]\caption{$NV対$の抽出結果}\label{chushutsukekka}\vspace{-4mm}\begin{center}\begin{tabular}{|rl|}\hline抽出対象&約15万記事\\$NV対$の延べ数&約470万\\$NV対$の異なり数&約140万\\$N$の異なり数&約62,000\\$V$の異なり数&約15,000\\\hline\end{tabular}\end{center}\end{table}\subsubsection{$NV$対による削除動詞の判定}\label{nvhantei}抽出された$NV対$を用いて,連想される動詞の判定を行う.まず,名詞$n$と動詞$v$の共起率$CR_n(v)$を次式によって定義する.$$CR_{n}(v)=\frac{F(n,v)}{\displaystyle{\sum_{for\all\i}{F(n,v_{i})}}}$$$$F(n,v):\langlen,v\rangleの出現頻度$$ある名詞に対して最も高い共起率を持つ動詞を,連想される動詞として定義する.つまり,$\langlen,v\rangle$が以下の条件2を満たすとき\footnote{条件2は,$CR_n(v)$を用いず,$F(n,v)$によっても同等の定義が可能である.},名詞$n$から動詞$v$が連想されると判定する.\vspace{5mm}\begin{quote}\begin{itemize}\item[\bf条件2:]$\forall\i,\CR_n(v)\geqCR_n(v_{i})$\end{itemize}\end{quote}\vspace{5mm}前節で抽出された$NV対$に対して判定を行った結果,異なり数で約12万対が条件2を満たし,名詞から動詞が連想されると判定された.表~\ref{saiyo}~に,条件2を満たす$NV対$について延べ数などを示し,付録~B~にその例を示す.表~\ref{saiyo}~において,$N$の異なり数と,$NV対$の異なり数とが一致していない.これは,ある名詞に対して,条件を満たす$NV対$が複数存在する場合,それらの動詞すべてを,その名詞から連想される動詞として判定しているからである.\begin{table}[hbtp]\begin{center}\caption{条件2を満たす$NV対$}\label{saiyo}\begin{tabular}{|rl|}\hline延べ数&約67万\\&(全$NV対$の14.2\%)\\異なり数&約12万\\$N$の異なり数&約62,000\\$V$の異なり数&約7,000\\\hline\end{tabular}\end{center}\end{table}ある動詞が,\ref{byruigo}節,および,本節の2つの方法で重複して削除可能と判定される場合もある.条件2を満たす12万対のうち,シソーラスを用いた定義によっても削除可能と判定されるものは約2万対であった.重複して判定される動詞の例を表~\ref{chofuku}~に示す.表中の$NV対$の動詞は,シソーラスを用いても削除可能であると判定される.\begin{table}[hbtp]\begin{center}\caption{重複して削除可能と判定される動詞}\label{chofuku}\begin{tabular}{|crc|}\hline\multicolumn{1}{|c}{$NV対$}&頻度&$CR_{n}(v)$\\\hline\hline$\langle社債,発行\rangle$&230&\multicolumn{1}{r|}{44.8\(\%)}\\$\langle結論,出す\rangle$&496&40.6\\$\langle会議,開く\rangle$&1995&24.8\\$\langle教書,発表\rangle$&11&19.6\\$\langle伸び,示す\rangle$&468&13.9\\\hline\end{tabular}\end{center}\end{table}$NV対$の抽出,および,それによる削除動詞の判定において,\ref{nvhantei}~節に述べた理由から,名詞と動詞の格関係を考慮していない.そのため,以下の状況が生じうる.まず,$CR_n(v,c)$を,名詞$n$と動詞$v$が格関係$c$によって係る割合\footnote{分母は,$CR_n(v)$の定義と同様,$n$の出現頻度.}とする.ある$\langlen,v\rangle$が,条件2を満たすとしても,$CR_n(v,c_i)$を最大にする格関係$c$において,$CR_n(v,c)<CR_n(v',c)$である$v'$が存在する可能性がある.格関係が異なる$n$,$v$は,異なる意味関係で共起していると考えることもでき,この状況では,$n$から連想される動詞として$v$が適切であるとは限らない.しかし,$\langlen,v\rangle$が条件2を満たす際には,ある特定の格関係が$CR_n(v)$に大きく寄与していると考えられる.すなわち,$CR_n(v,c_i)$を最大にする格関係$c$において,$CR_n(v,c)\simeqCR_n(v)$となることが多く,前述の状況は生じにくい.例えば,$\langle犯人,逮捕\rangle$という例では,その格関係はヲ格(対象)のみと考えるのが自然である.本論文において,名詞から動詞が連想されると判定された$NV対$を観察したところ,名詞と動詞の格関係は一定の場合が多かったことから,前述の状況となる$NV対$は少ないと考えられる.一方,複数の格関係が$CR_n(v)$に寄与しうる例として,$\langle本,読む\rangle$が挙げられる.ところが,深層格が異なる``本を読む'',``本で読む''という表現において,同一の$NV$対が抽出され,``本''から``読む''が連想されると判定されても問題はない.格関係が異なっているとしても,係り受け関係を持って共起していることから,連想される動詞としての意味的な関係は,ある程度妥当である場合が多いと考えられる.以上の議論から,本論文において$NV対$に格の情報を含めなかったことが,精度に与える影響は小さいと予想する.\ref{nvchushutsu}~節~で述べた理由によって$NV対$のデータ量を確保するという観点から,格の情報を考慮しないことが現実的には有利な選択であろう.
\section{言い換え可能表現の絞り込み}
\label{NNpair}}連体修飾表現の動詞が慣用句の一部である場合など,たとえ動詞が削除可能な動詞であっても,``$N_1のN_2$''と言い換えると不自然となることがある.以下の例7では,慣用句``力を入れる''の動詞を削除して言い換えると意味が分からない表現となる.\begin{center}\begin{tabular}{lcc}{\bf例7}&&\\力を入れる交渉&$\to$&(?)力の交渉\\\end{tabular}\end{center}また,$V$が同じ語であっても,$N_1$,$N_2$の格が異なれば,言い換えが不自然になる例がある.\begin{center}\begin{tabular}{lcc}{\bf例8}&&\\裁判長が出した勧告&$\to$&裁判長の勧告\\勧告を出した裁判長&$\to$&(?)勧告の裁判長\\\end{tabular}\end{center}このような不自然な言い換えを避けるため,動詞型連体修飾``$N_1$(が/を/に/…)$V$-する$N_2$''の言い換えにおいて,語$N_1$,$N_2$がコーパス中に``$N_1のN_2$''の形で出現している場合にのみ,言い換えを行う.例7,8では,言い換え後の表現である``力の交渉'',``勧告の裁判長''は,コーパスに出現しないと考えられることから,不自然な言い換えを回避できる.\subsection{$NN対$の抽出}コーパス中に``$N_1のN_2$''の形で出現する名詞句に含まれる語$N_1$,$N_2$の対を$NN対$として定義し,[$n_1$,$n_2$]と表記する.新聞記事から,以下の手順により$NN対$を抽出する.\begin{enumerate}\item記事に対してJUMANによる形態素解析を行う.解析結果の人手による修正は行わない.\item接続助詞`の'による修飾表現のうち,修飾部の主辞($n_1$)と,被修飾部の主辞($n_2$)を抽出する.ただし,$n_1$,$n_2$の品詞(JUMANによる解析結果)が人名,組織名,地名,数詞のいずれかの場合は,それぞれ品詞名を$n_1$,あるいは,$n_2$として抽出する.\end{enumerate}例えば,``形態素解析の実行結果''という表現からは,[解析,結果]という$NN対$が得られる.また,``$N_1のN_2$の$N_3$''という形の表現において,語$N_1$が$N_2$に係るか,あるいは,$N_3$に係るかを,表層的な情報から判定することは困難である.$NN対$は,言い換えの際の誤りを排除するという目的から,正しいもののみが収集されていることが望ましい.よって,``$N_1のN_2$の$N_3$''という形の表現からは,$NN対$として[$N_2$,$N_3$]のみを抽出する.日本経済新聞1993年の記事から抽出を行った結果,延べ数で約105万,異なり数で約43万の$NN対$が抽出された.\subsection{$NN対$の汎化処理}日本語では,名詞のうち多くのものを接続助詞`の'によって結合することができ,その結果,多くの表現を生成することが可能である.よって,コーパスから抽出した$NN対$データのスパース性が問題となる.これには,コーパス量を増やすことで対応することも考えられるが,本論文では,$NN対$に対してシソーラスを用いた汎化を行う.$NN対$の各語を,シソーラス\cite{k_ruigo}中の末端の分類に置き換えた.その際,複数の意味カテゴリに分類されている単語は,各分類ごとに汎化した$NN対$を作成し,また,シソーラスに記載されていない単語に対しては,汎化を行わない.
\section{評価}
label{hyouka}\subsection{評価方法}日本経済新聞1994年の記事から,動詞型連体修飾``$N_1$(が/を/に/…)$V$-する$N_2$''を人手で抽出し,本手法の有効性を検討する.本実験では,動詞$V$が格要素を一つ取っている表現のみを対象とした.これは,以下の理由による.例えば,``$N_1$が$N_2$を$V$-する$N_3$''という表現を言い換える際に,``$N_1$の$N_3$'',``$N_2$の$N_3$'',``$N_1$の$N_2$の$N_3$''のいずれの表現に言い換えるか,文脈に応じて適切な表現を選択する必要がある.本論文は,言い換えを行う際に削除できる動詞を判定する手法を提案するものであり,いずれの格要素を残すべきかの選択は対象外とする.記事より,動詞型連体修飾表現を無作為に500個抽出した.これらの表現に対して,人間,および,本手法によって言い換えを行い,再現率,適合率で評価する.$$再現率:R=C/H×100(\%),\\適合率:P=C/M×100(\%)$$ここで,$H$は,筆者が主観によって,``$N_1$の$N_2$''に言い換えられるかどうかを判定し,言い換え可能と判定された表現の数を示す.また,$M$は,本手法によって言い換え可能と判定された表現の数を示し,$C$は,人間と本手法とで共に言い換え可能と判定された表現の数を示す.$NN$対による絞り込みでは,以下の3種類の制限を用いて実験を行った.\begin{itemize}\item(制限無し)制限を設けない\item(制限1)[$n_1$,$n_2$]の頻度が1以上ならば言い換える\item(制限2)汎化した[$n_1$,$n_2$]の頻度が1以上ならば言い換える\end{itemize}\subsection{評価結果}\label{kekka}表~\ref{hyokakekka}~に,評価結果を示す.表中の$M$,$C$列に示す括弧で括られた2つの数(a,b)は,それぞれ,\begin{itemize}\item[a:]シソーラスを用いて定義された動詞によって言い換えられた表現の数\item[b:]連想可能な動詞と判定された動詞によって言い換えられた表現の数\end{itemize}を表す.また,削除可能な動詞が正しく判定され,言い換えられた動詞型連体修飾の例(制限無し)を表~\ref{iikaerei}~に示す.シソーラスを用いた定義により判定されたものには動詞の意味分類を示し,連想可能と判定されたものには$NV対$と$CR_{n}(v)$を示す.\begin{table}[tbp]\begin{center}\caption{評価結果}\label{hyokakekka}\renewcommand{\arraystretch}{}\begin{tabular}{|l||c|c|c|c|c|}\hline&\$H$\&$M$&$C$&\$R\(\%)$\&\$P\(\%)$\\\\hline\hline制限無し&\152\&158&97&63.8&61.4\\&&{\small(93,86)}&{\small(61,53)}&&\\制限1&152&35&29&19.1&82.9\\&&{\small(27,16)}&{\small(23,13)}&&\\制限2&152&83&64&42.1&77.1\\&&{\small(57,40)}&{\small(44,32)}&&\\\hline\end{tabular}\\\end{center}\end{table}\begin{table}[tbp]\begin{center}\caption{正しく判定された例}\label{iikaerei}\begin{small}\begin{tabular}{|ccccc|}\hline\multicolumn{1}{|c}{{\bf言い換え前}}&{\bf言い換え後}&{\bf動詞の分類}&{\bf$NV対$}&{\bf$CR_{n}(v)$}\\\hline\hline高シェアを持つ会社&高シェアの会社&所有&---&---\\\hline組合で作る連合会&組合の連合会&生成&---&---\\\hline一日に開く会議&一日の会議&挙行,開始&$\langle会議,開く\rangle$&24.8\\\hline大賞を受賞したAさん&大賞のAさん&---&$\langle大賞,受賞\rangle$&23.5\\\hline賛成に回る議員&賛成の議員&---&$\langle賛成,回る\rangle$&22.7\\\hline低迷が続く業績&低迷の業績&---&$\langle低迷,続く\rangle$&18.3\\\hline\end{tabular}\end{small}\end{center}\end{table}
\section{考察}
label{kousatsu}本論文では,動詞の表層的な情報のみに基づく判定によって,``$N_1のN_2$''への言い換えを行ったが,$NN対$による制限を加えない場合,再現率63.8\%,適合率61.4\%とおおむね良好な結果が得られた.本手法では,2種類の方法により削除可能な動詞を定義した.シソーラスによる定義のみで,あるいは,連想される動詞のみで言い換えを行うと仮定すれば,それぞれ再現率が30--40\%程度となることから,2種類の方法を併用して定義したことが有効であったといえる.まず,$NN対$による制限無しの場合に,再現率,適合率を低下させた原因について考察する.再現率を下げた原因には,以下のことが挙げられる.\begin{itemize}\item``手掛ける'',``抱える''など,新聞記事においては``実施'',``所有''などの意味を示しうるが,\ref{byruigo}節で選択したシソーラスの分類には含まれていない動詞があった.\item$NV対$は比較的高頻度で出現するが,その名詞に対して最も共起頻度が高い動詞ではなかったため,連想される動詞として判定されなかった.\end{itemize}再現率を上昇させるために,シソーラスを用いた削除可能な動詞の定義において,選択する意味分類を,対象コーパスに適応させることが考えられる.しかし,コーパスにおける動詞の使用状況を調査する必要があるなど,その実現は容易ではない.もちろん,実験によって発見された動詞を,削除可能な動詞として新たに加えることは可能である.また,$NV対$による削除動詞の判定において,高い$CR_n(v)$を持つ$NV対$を採用することによっても再現率の上昇が期待できる.しかし,その閾値は実験により求める他になく,決定は困難である.適合率を低下させた原因には,以下のことが挙げられる.これらは,$NN対$を用いた絞り込みによっても排除することができない.\begin{itemize}\item本実験では,新聞記事から$NV対$を抽出した.そのため,$\langle前年,上回る\rangle$,$\langle経費,削減\rangle$といった$NV対$の出現頻度が高くなった.これらは,新聞記事において頻出するが,その名詞から動詞が連想可能とは言えない.$NN対$を用いた制限を行っても,例えば,``前年の成績''という表現がコーパスに出現していれば,``前年を上回る成績''をそれに言い換えてしまう.この問題に対しては,新聞記事に限定せず,多様なコーパスから$NV対$を抽出することで避けられると考えている.\item$\langle質問,答える\rangle$,$\langle費用,かかる\rangle$なども出現頻度が高く,直観的に名詞から動詞が連想可能であると言える.しかし,以下のような動詞型連体修飾として出現した場合,動詞を削除すると意味が変化する.\\\begin{center}\begin{tabular}{lcc}{\bf例9}&&\\質問に答えた結果&$\to$&(?)質問の結果\\費用がかかる調査&$\to$&(?)費用の調査\\\end{tabular}\end{center}\noindentところが,以下のような文脈を考えることで,同様の言い換えは許容されると考えられる.\\\begin{center}\begin{tabular}{lcl}{\bf例10}&&\\Aは,Bの質問に答えた結果,…&$\to$&Aは,Bの質問の結果,…\\莫大な費用がかかる調査&$\to$&莫大な費用の調査\\\end{tabular}\end{center}\noindentよって,これらの例は,本研究における評価では失敗としたが,$NV対$から得られる連想可能な動詞に対する反例であるとは考えていない.実際には,``$N_1のN_2$''は単独で出現するのではなく,必ず文章中の他の語と共起して出現するため,文脈を考慮した判定,評価が必要である.しかしながら,考慮に入れるべき文脈の範囲を決定することは容易でなく,また,現在の技術では,正確な文脈解析を期待できない.したがって本論文では,修飾表現内で観測可能な現象のみを対象とした.\end{itemize}なお,シソーラスを用いて定義された動詞が原因で,不適切な言い換えを行い,$NN対$による制限によっても排除できなかった例も存在する.上述したように,実験によって発見された,これらの動詞を除くことは可能である.次に,$NN対$による制限を加えた場合について考察する.制限を加えることで,適合率が上昇し,言い換えの誤りを除くという目的を達成することはできた.しかし,その一方で再現率が減少する.制限によって再現率が大幅に減少するのは,$NN対$データのスパース性が影響しているためとも考えられる.しかし,コーパス量を2倍(日本経済新聞2年分)として$NN$対を抽出しても再現率は数\%程度しか上昇しなかった.したがって,$NN対$を汎化する際に意味レベルをどのように設定するかの影響が強いと考えられる.最適な汎化レベルを求めることは,シソーラスの編集方針に依存するため容易ではない.また新聞記事では,\begin{itemize}\item``$N_1$の$N_2$''に言い換え可能な表現は,初めからそれで表現される,\item``$N_1$の$N_2$''によって表現すると曖昧さが残るものは,動詞型連体修飾で表現される\end{itemize}と考えられる.そのため,動詞型連体修飾表現に出現する$N_1$,$N_2$と,``$N_1$の$N_2$''との間に重複が少なく,適切な$NN対$が収集されなかった可能性がある.また,$NN対$を汎化する際,複数の意味カテゴリに分類されている名詞は,各分類ごとに汎化を行った.この汎化処理では,名詞が,その意味では使用されていないカテゴリへ誤って汎化される恐れがある.しかし,誤った汎化を行ったとしても,それに対応する表現が絞り込みの対象とならない限り影響はない.実験では,汎化処理を行った絞り込み(制限2)における適合率の減少は5\%程度と高くはないことから,誤った汎化の影響を受ける``$N_1のN_2$''が絞り込みの対象となる確率は低いと考えられる.また,汎化を行った結果,再現率が20\%程度改善されている.$NN対$データのスパース性に対処するという目的で汎化を行っており,また,適合率の減少は再現率の上昇と比較して微小であることから考えて,誤った汎化の回避は,優先して取り組むべき課題ではないと考えている.
\section{関連研究}
label{kanren}まず,言い換えに関する既存の研究について論じる.{}\ref{hajimeni}節で挙げた研究の他では,加藤ら\cite{kato99}は,原文とその要約文との対応がとれたコーパスを用いて,言い換えが行われている部分を照合により特定し,それを言い換えの知識として自動的に得る手法を提案している.また,Hovyら\cite{hovy97},近藤ら\cite{kondo96}は,シソーラスを用いて,意味が類似した複数の語句を,より抽象的な一つの語句に言い換える手法を提案している.また,近藤ら\cite{kondo00}は,「犬が彼に噛み付く」から「彼が犬に噛み付かれる」のような,単文中の非ガ格要素をガ格化する言い換えを実現するための規則を提案している.連体修飾節を対象とした言い換えに関しては,これまで,ほとんど研究されていなかったが,野上ら\cite{nogami00}によって,「1742年に創立されたコスタは,スウェデーン最古の工場だ.」から「コスタは,スウェデーン最古の工場だ.1742年に創立された.」への言い換えのように,連体修飾節を主文から切り離す言い換えが取り上げられている.次に,本論文における削除可能な動詞,および,その定義に関連する研究について論じる.田中ら\cite{tanaka98b}は,``$N_1$の$N_2$''の意味関係を推定するために,「一般的な意味関係」\footnote{「一般的な意味関係」は,さらに,7つに分類される.}と「名詞固有の意味関係」を定義している.この中で,本論文における$NV対$の定義,および,それによる連想される動詞の判定は,田中らが「名詞固有の意味関係」を得る際に行う処理とほぼ同一である.田中らの概念は,冨浦ら\cite{tomiura95}による意味推定において曖昧性が残る``$N_1のN_2$''を対象としている.一方,本論文では,言い換えを行う際の削除動詞を決定するという立場から,言い換え可能な``$N_1のN_2$''すべてを対象としている.そのため,「連想される動詞」によって言い換えられる``$N_1のN_2$''は,田中らの「名詞固有の意味関係」と,必ずしも一致しない.また田中らの概念では,意味推定という立場から,対象としている``$N_1のN_2$''は,2つの概念のいずれかに分類される.一方,本論文における2つの概念は互いに排他的ではなく,\ref{nvhantei}~節で議論したように,両者の概念によって定義される動詞も存在する.これらの相違は,田中らが意味推定,本論文においては言い換え,と異なる目的のために2つの概念を定義し,利用していることにあるといえる.また,村田ら\cite{murata98a},山本ら\cite{yamamoto98}は,名詞や動詞の省略補完において,本論文と同様に,コーパスから取得した用例を利用している.ただし,村田らの手法\cite{murata98a}では,コーパスに対して形態素解析や構文解析をせず,単なる文字列として最長に一致する部分を用例と認定している.また山本らの手法\cite{yamamoto98}では,名詞と動詞との係り受け関係に関する情報は格フレーム辞書から得ている.これらの手法も,田中らと同様,表層的には存在しない動詞を推定することを目的とする.よって,用例を利用している点では本論文と類似するが,目的は異なる.
\section{おわりに}
本論文では,動詞型連体修飾``$N_1$(が/を/に/…)$V$-する$N_2$''を,名詞型連体修飾``$N_1$の$N_2$''に言い換える手法を提案した.``$N_1のN_2$''の中には,動詞型連体修飾において動詞が省略された短縮形と考えることができるものがあり,その省略されうる動詞を削除可能な動詞として2種類の方法によって定義した.これらの削除可能な動詞を利用することで,動詞の表層的な情報のみを利用して,``$N_1のN_2$''への言い換えが実現可能であることを示した.また,コーパスに``$N_1$の$N_2$''の形で出現するもののみを言い換えることで,削除可能な動詞の判定の際の誤りを排除し,適合率を上げることが可能であることを示した.今後の課題として,文脈を考慮して削除可能な動詞を判定すること,複数の格要素を持つ動詞型連体修飾表現を言い換えること,などが挙げられる.\section*{謝辞}本研究で使用した「角川類語新辞典」を機械可読辞書の形で提供いただき,その使用許可をいただいた(株)角川書店に深謝する.また,本研究で言語データとして使用した日経新聞CD-ROM,1994年版の使用許可をいただいた(株)日本経済新聞社に深謝する.\appendix削除可能な動詞の例を示す.付録Aに,シソーラスを用いて定義された動詞の例を,付録Bに,名詞から動詞が連想可能であると判定された$NV対$の例を示す.\section*{Aシソーラスにより定義された動詞の例}\label{a}\begin{center}\begin{tabular}{|c|p{10cm}|}\hline分類&\multicolumn{1}{c|}{動詞}\\\hline\hline所有&共有,持つ,所有,占める,占領,独占,備える\\\hline\hline保有&確保,保つ,保管,保有,冷蔵\\\hline\hline生成&形成,結ぶ,結晶,構成,作り出す,作る,作成,成り立つ,成る,生じる,生まれる,生み出す,生む,組み立てる,創作,創造,造る,誕生,発生,編成\\\hline\hline挙行&開く,開催,挙げる,共催,行う,催す,執行,主催\\\hline\hline建造&改築,建つ,建てる,建設,建造,建築,構える,構築,再建,新築,組み立てる,増築,築く\\\hline\hline存在&既存,共存,潜在,存在,分布\\\hline\end{tabular}\end{center}\vspace{0.5cm}\noindent{\bfその他の分類}\begin{quote}従属,発生,開始,進捗,提示,表現,叙述,描写,書き,執筆,発言,言明,総括,実行,遂行,設置,設備,生産,製造,架設,決定,施設,発表,発行\end{quote}\section*{B連想可能な動詞の例}\label{b}\begin{center}\begin{tabular}{|crc|}\hline$NV対$&頻度&$CR_{n}(v)$\\\hline\hline$\langle平行線,たどる\rangle$&137&\multicolumn{1}{r|}{88.3\(\%)}\\$\langle注目,集める\rangle$&781&73.8\\$\langleけじめ,つける\rangle$&98&67.5\\$\langle長期間,わたる\rangle$&57&57.5\\$\langleボタン,押す\rangle$&86&50.0\\$\langle汗,流す\rangle$&144&41.0\\$\langle役割,果たす\rangle$&1155&39.5\\$\langle損害,与える\rangle$&131&38.1\\$\langleたばこ,吸う\rangle$&73&33.4\\$\langle白紙,戻る\rangle$&53&29.6\\$\langleうわさ,流れる\rangle$&131&27.9\\$\langle賞,受賞\rangle$&265&25.5\\$\langle被害,受ける\rangle$&451&24.1\\$\langle材,使う\rangle$&169&18.9\\$\langle小説,書く\rangle$&53&16.0\\$\langle赤字,転落\rangle$&494&15.1\\$\langle治療,受ける\rangle$&88&14.9\\$\langleメッセージ,送る\rangle$&62&14.9\\$\langle役,務める\rangle$&178&12.9\\$\langle抵抗,あう\rangle$&52&11.8\\$\langle画面,表示\rangle$&93&11.0\\\hline\end{tabular}\end{center}\begin{thebibliography}{}\bibitem[\protect\BCAY{平井北橋}{平井\JBA北橋}{1986}]{hirai86}平井誠\BBACOMMA\北橋忠宏\BBOP1986\BBCP.\newblock\JBOQ日本語文における「の」と連体修飾の分類と解析\JBCQ\\newblock\Jem{情報処理学会研究報告NL-58-1}.\bibitem[\protect\BCAY{Hovy\BBA\Lin}{Hovy\BBA\Lin}{1997}]{hovy97}Hovy,E.\BBACOMMA\\BBA\Lin,C.-Y.\BBOP1997\BBCP.\newblock\BBOQAutomatedtextsummarizationin{SUMMARIST}\BBCQ\\newblockIn{\BemProc.oftheACLWorkshoponIntelligentScalableTextSummarization},\BPGS\18--24.\bibitem[\protect\BCAY{Kataoka,Yamamoto,\BBA\Masuyama}{Kataokaet~al.}{1999}]{kataoka99nlprs}Kataoka,A.,Yamamoto,K.,\BBA\Masuyama,S.\BBOP1999\BBCP.\newblock\BBOQSummarizationbyShortening{J}apaneseNounModifiersintoExpression``{A}{\itno}{B}''\BBCQ\\newblockIn{\BemProceedingsofNLPRS99},\BPGS\409--414.\bibitem[\protect\BCAY{加藤浦谷}{加藤\JBA浦谷}{1999}]{kato99}加藤直人\BBACOMMA\浦谷則好\BBOP1999\BBCP.\newblock\JBOQ局所的要約知識の自動獲得手法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(7),73--92.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1951}]{kokugo51}国立国語研究所\BBOP1951\BBCP.\newblock\Jem{現代語の助詞・助動詞-用法と実例-}.\newblock秀英出版.\bibitem[\protect\BCAY{近藤奥村}{近藤\JBA奥村}{1996}]{kondo96}近藤恵子\BBACOMMA\奥村学\BBOP1996\BBCP.\newblock\JBOQ言い替えを使用した要約の手法\JBCQ\\newblock\Jem{情報処理学会研究報告NL-116-20},\BPGS\137--142.\bibitem[\protect\BCAY{近藤,佐藤,奥村}{近藤\Jetal}{1999}]{kondo99}近藤恵子,佐藤理史,奥村学\BBOP1999\BBCP.\newblock\JBOQ「サ変名詞+する」から動詞相当句への言い換え\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(11),4064--4074.\bibitem[\protect\BCAY{近藤,佐藤,奥村}{近藤\Jetal}{2000}]{kondo00}近藤恵子,佐藤理史,奥村学\BBOP2000\BBCP.\newblock\JBOQ格変換による単文の言い換え\JBCQ\\newblock\Jem{情報処理学会研究報告NL-135-16},\BPGS\119--126.\bibitem[\protect\BCAY{黒橋酒井}{黒橋\JBA酒井}{1999}]{kurohashi99}黒橋禎夫\BBACOMMA\酒井康行\BBOP1999\BBCP.\newblock\JBOQ国語辞典を用いた名詞句「{A}の{B}」の意味解析\JBCQ\\newblock\Jem{情報処理学会研究報告NL-129-16},\BPGS\109--116.\bibitem[\protect\BCAY{Levi}{Levi}{1978}]{levi78}Levi,J.~N.\BBOP1978\BBCP.\newblock{\BemTheSyntaxandSemanticsofComplexNominals}.\newblockAcademicPress.\bibitem[\protect\BCAY{三上,増山,中川}{三上\Jetal}{1999}]{mikami99}三上真,増山繁,中川聖一\BBOP1999\BBCP.\newblock\JBOQニュース番組における字幕生成のための文内短縮による要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),65--81.\bibitem[\protect\BCAY{村田長尾}{村田\JBA長尾}{1998}]{murata98a}村田真樹\BBACOMMA\長尾真\BBOP1998\BBCP.\newblock\JBOQ日本語文章における表層表現と用例を用いた動詞の省略の補完\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(1),119--133.\bibitem[\protect\BCAY{野上,藤田,乾}{野上\Jetal}{2000}]{nogami00}野上優,藤田篤,乾健太郎\BBOP2000\BBCP.\newblock\JBOQ文分割による連体修飾節の言い換え\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\215--218.\bibitem[\protect\BCAY{大野浜西}{大野\JBA浜西}{1981}]{k_ruigo}大野晋\BBACOMMA\浜西正人\BBOP1981\BBCP.\newblock\Jem{角川類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{sato99}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),2937--2945.\bibitem[\protect\BCAY{島津,内藤,野村}{島津\Jetal}{1985}]{shimadu85}島津明,内藤昭三,野村浩郷\BBOP1985\BBCP.\newblock\JBOQ日本語文意味構造の分類-名詞句構造を中心に-\JBCQ\\newblock\Jem{情報処理学会研究報告NL-47-4}.\bibitem[\protect\BCAY{田中,冨浦,日高}{田中\Jetal}{1998}]{tanaka98b}田中省作,冨浦洋一,日高達\BBOP1998\BBCP.\newblock\JBOQ統計的手法を用いた名詞句「{NP}の{NP}」の意味関係の抽出法\JBCQ\\newblock\Jem{電子情報通信学会技術研究報告NLC-98-4},\BPGS\23--29.\bibitem[\protect\BCAY{寺村}{寺村}{19751978}]{teramura75}寺村秀夫\BBOP1975--1978\BBCP.\newblock\JBOQ連体修飾のシンタクスと意味(1)--(4)\JBCQ\\newblock\Jem{日本語・日本文化vol.4--7}.大阪外国語大学研究留学生別科.\bibitem[\protect\BCAY{冨浦,中村,日高}{冨浦\Jetal}{1995}]{tomiura95}冨浦洋一,中村貞吾,日高達\BBOP1995\BBCP.\newblock\JBOQ名詞句「{NP}の{NP}」の意味構造\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(6),1441--1448.\bibitem[\protect\BCAY{若尾,江原,白井}{若尾\Jetal}{1997}]{wakao97}若尾孝博,江原暉将,白井克彦\BBOP1997\BBCP.\newblock\JBOQテレビニュース番組の字幕に見られる要約の手法\JBCQ\\newblock\Jem{情報処理学会研究報告NL-122-13},\BPGS\83--89.\bibitem[\protect\BCAY{山本,村田,長尾}{山本\Jetal}{1998}]{yamamoto98}山本専,村田真樹,長尾真\BBOP1998\BBCP.\newblock\JBOQ用例による換喩の解析\JBCQ\\newblock\Jem{言語処理学会第4回年次大会発表論文集},\BPGS\606--609.\bibitem[\protect\BCAY{山本,増山,内藤}{山本\Jetal}{1995}]{yamamoto95}山本和英,増山繁,内藤昭三\BBOP1995\BBCP.\newblock\JBOQ文章内構造を複合的に利用した論説文要約システム{GREEN}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(1),39--56.\bibitem[\protect\BCAY{山崎,三上,増山,中川}{山崎\Jetal}{1998}]{yamasaki98}山崎邦子,三上真,増山繁,中川聖一\BBOP1998\BBCP.\newblock\JBOQ聴覚障害者用字幕生成のための言い替えによるニュース文要約\JBCQ\\newblock\Jem{言語処理学会第4回年次大会発表論文集},\BPGS\646--649.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{片岡明}{2000年豊橋技術科学大学大学院工学研究科知識情報工学専攻修士課程修了.同年,西日本電信電話(株)入社.現在,日本電信電話(株)コミュニケーション科学基礎研究所勤務.在学中は,自然言語処理,特にテキスト要約の研究に従事.現在は,機械翻訳の研究に従事.{\ttE-mail:[email protected]}}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授.アルゴリズム工学,特に,並列グラフアルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.{\ttE-mail:[email protected]}}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2000年ATR音声翻訳通信研究所客員研究員,2000年〜ATR音声言語通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\ttE-mail:[email protected]}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N04-01
|
\section{はじめに}
\label{sec:introduction}複単語表現(MWE)は,統語的もしくは意味的な単位として扱う必要がある,複数の単語からなるまとまりである\cite{Sag:2002}.MWEはその文法的役割に基づいて以下の4種に分類することができる(\tabref{tab:categories_of_mwes}):(1)複合機能語\footnote{本稿では副詞,接続詞,前置詞,限定詞,代名詞,助動詞,to不定詞,感動詞のいずれかとして機能するMWEを複合機能語として定義する.}({\itanumberof},{\iteventhough}),(2)形容詞MWE({\itdeadonone'sfeet},{\itoutofbusiness}),(3)動詞MWE(VMWE)({\itpickup},{\itmakeadecision}),(4)複合名詞({\ittrafficlight}).これ以降,MWEの文法的役割をMWE全体品詞と呼ぶことにする.\begin{table}[b]\caption{複単語表現(MWE)の文法的役割に基づく分類}\label{tab:categories_of_mwes}\input{01table01.tex}\end{table}上記の中でも特に複合機能語は統語的な非構成性を持ちうる.即ち,構成単語の品詞列から複合機能語のMWE全体品詞が予測し難い,というケースがしばしば存在する.たとえば,``byandlarge''は次の文で副詞として機能しているが,構成単語の品詞列(``IN''(前置詞または従属接続詞),``CC''(並列接続詞),``JJ''(形容詞))からこれを予測することは難しい.\begin{quote}{\bf\underline{Byandlarge}},theseeffortshavebornefruit.\end{quote}このようにMWEはしばしば非構成性を持つため,テキストの意味を自動理解する上でMWE認識は重要なタスクである\cite{newman:2012,berend:2011}.また,統語的な依存構造の情報を利用する応用タスクにおいて,MWEを考慮した依存構造(\figref{fig:a_number_of}b)の方が単語ベースの依存構造(\figref{fig:a_number_of}a)よりも好ましいと考えられる.MWEを考慮した依存構造では各MWEが統語的な単位となっているのに対し,単語ベースの依存構造ではMWEの範囲は表現されていない.MWEを考慮した依存構造の利点を享受しうる応用タスクの例としてはイベント抽出が挙げられる\cite{Bjorne2017}.イベント抽出ではイベントトリガーの検出とイベント属性値の同定が必要となるが,イベントトリガーとイベント属性値のいずれもMWEになりうる.また,イベントトリガーとイベント属性値を結ぶ依存構造上の最短経路は,しばしばイベント属性値の同定において特徴量として利用されている\cite{Li:2013}.\begin{figure}[b]\begin{center}\includegraphics{26-4ia1f1.eps}\end{center}\hangcaption{単語ベースの依存構造とMWEを考慮した依存構造の比較.前者ではMWE(``anumberof'')の範囲が表現されていないのに対して,後者ではMWEが依存構造の単位となっている.}\label{fig:a_number_of}\end{figure}上述のように,MWEを考慮した依存構造解析は重要な研究課題である.そこで次にMWEを考慮した依存構造コーパスの構築方法について述べる.伝統的に,英語の依存構造コーパスはPennTreebank\cite{Marcus:1994}などのツリーバンク(句構造コーパス)からの自動変換によって構築されてきた.しかし既存のほとんどの英語ツリーバンクでは,MWEが句構造の部分木になっていることは保証されていない(\figref{fig:not_subtree}).このため,句構造からの自動変換で得られた依存構造において,MWEの構成単語群を単純にマージすることによって,MWEを考慮した依存構造を得られるとは限らない(\figref{fig:a_number_of})\cite{Kato:2016}.本稿ではこれ以降,あるMWEが句構造の部分木になっている時,{\bfMWEが句構造と整合的である},と記述する.コーパス中の全てのMWEの出現が句構造と整合的であるならば,我々はこれを{\bfMWEと整合的な句構造コーパス},と記述する.\citeA{Kato:2016}はOntonotes5.0\cite{Pradhan:2007}をMWEと整合的にすることによって,MWEを考慮した依存構造コーパスを構築した.しかし\citeA{Kato:2016}は複合機能語のみを対象としており,他のMWEは取り扱っていない.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f2.eps}\end{center}\hangcaption{MWEの範囲が句構造のいずれの部分木の範囲とも一致しない場合の例.図中の矩形はMWEの範囲を示す.}\label{fig:not_subtree}\end{figure}そこで本稿では,より多くの種類のMWEをカバーするために,新たに形容詞MWEのアノテーションを行う.その上で,Ontonotesコーパスが複合機能語および形容詞MWEと整合的になるように句構造木を修正する.その後,依存構造への自動変換を行い,MWEを考慮した大規模な依存構造コーパスを構築する(\ref{sec:corpus}章).依存構造に新たに統合するMWEとして,形容詞MWEを選択した理由を以下に述べる.第一に,複合名詞は統語的には構成的であるため,依存構造中の単位として扱うことで得られる利点は限定的である.また,複合名詞は高い生産性を持つため,辞書マッチングによる候補抽出を行うと,十分な網羅率が得られない可能性がある.したがって,複合名詞については,辞書に依存しないコーパスアノテーションが望ましいため,形容詞MWEよりもアノテーションコストが高い.第二に,動詞MWE(VMWE)は一般に非連続な出現を持ちうるため({\it{\bfpick}..{\bfup}}),句構造で部分木としてまとめる事ができないケースが存在する.このため,VMWEを考慮した依存構造コーパスを構築するためには,連続MWEとは異なるアプローチが必要となる.この点は今後の課題とする.また,文の意味理解が必要な応用タスクにおいては,句動詞など,非連続な出現を持ちうるMWE(VMWE)の認識も重要である.VMWEの認識を行う上で,連続MWEを考慮した依存構造,特に,依存構造中の動詞からparticleや直接目的語へのエッジは,有用な特徴量として利用できると期待される.そこで本研究では所与の文に対して,(i)連続MWE(複合機能語と形容詞MWE)を考慮した依存構造,(ii)VMWEの双方を予測する問題に取り組む(\ref{sec:model}章).連続MWEを考慮した依存構造解析のモデルとしては,以下の3者を検討する:(a)連続MWE認識を系列ラベリングとして定式化し,予測した連続MWEを単一ノードにマージした上で依存構造解析を行うパイプラインモデル,(b)連続MWEの範囲と全体品詞を依存関係ラベルとして符号化し(head-initialな依存構造),単語ベースの依存構造解析を行うモデル(Single-task(parser)),そして(c)上記(b)および,連続MWE認識との階層的マルチタスク学習モデル(HMTL)\cite{Sanh:2018}である.HMTLでは,上位タスクのエンコーダーは,下位タスクのエンコーダーからの出力と,単語分散表現などの入力特徴量の双方を受け取る.HMTLを用いる動機を以下に述べる.連続MWEを考慮した依存構造解析は,連続MWE認識と,連続MWEを統語構造の単位とする依存構造解析とに分解できる.したがって,head-initialな依存構造の解析器を単体で学習させるよりも,連続MWE認識を下位タスクとして位置付け,下位タスクのエンコーダーが捉えた特徴量も利用した方が,解析精度が向上すると期待される.Head-initialな依存構造の解析は,Deepbiaffineparser\cite{Dozat:2017}を用いて行い,連続MWE認識器としてはbi-LSTM-CNNs-CRFモデル\cite{Ma:2016}を用いる.本研究でOntonotes上に構築した,複合機能語と形容詞MWEを考慮した依存構造コーパスを用いた実験の結果,連続MWE認識については,パイプラインモデルとHMTLベースのモデルがほぼ同等のF値を示し,Single-task(parser)を,連続MWE認識のF値で約1.7ポイント上回っていることを確認した.依存構造解析については,テストセット全体およびMWEを含む文において,各手法はほぼ同等のラベルなし正解率(UAS)を示した.一方,正解のMWEの先頭単語に着目すると,Single-task(parser)およびHMTLベースのモデルがパイプラインモデルをUASで少なくとも約1.4ポイント上回った.また,VMWE認識については,MWEの構成単語間のギャップを扱えるように拡張したBIO方式\cite{lrec_schneider:2014}を用いて系列ラベリングとして定式化し,(d)bi-LSTM-CNNs-CRFモデル(Single-task(VMWE))および(e)連続MWE認識,連続MWEを考慮した依存構造解析,Single-task(VMWE)のHMTLを検討する.VMWEのデータセットとしては,Ontonotesに対するVMWEアノテーションを用いる\cite{Kato:2018}.実験の結果,VMWE認識において,(e)が(d)に比べて,F値で約1.3ポイント上回ることを確認した.本稿で構築した,複合機能語および形容詞MWEを考慮した依存構造コーパスはLDC2017T16\footnote{https://catalog.ldc.upenn.edu/LDC2017T16}の次版としてリリースする予定である.
\section{MWEを考慮した依存構造コーパスの構築}
\label{sec:corpus}本章では,英語の複合機能語および形容詞MWEを考慮した依存構造コーパスの構築について述べる.本コーパスは,ツリーバンクおよびその上に付与したMWEアノテーションをもとに構築する.ツリーバンクとして,我々はOntonotes5.0\cite{Pradhan:2007}のWallStreetJournal(WSJ)部分を用いる.Ontonotes上のMWEアノテーションについては,\citeA{Shigeto:2013}の複合機能語アノテーションに加えて,今回新たに形容詞MWEアノテーションを行い,両者を併合する.\subsection{複合機能語のアノテーション}\label{sec:func_mwe_annotations}複合機能語については,\citeA{Shigeto:2013}によるPennTreebank\cite{Marcus:1994}のWSJ部分に対するアノテーションを用いる\footnote{本研究で新たに実施した形容詞MWEアノテーションの対象であるOntonotes5.0のWSJ部分は,PennTreebankのWSJ部分に含まれている.また,Shigetoらのアノテーションは固定された表現を対象としているため,複合助動詞(mighthavebeenなど)は含まれていない.複合助動詞のアノテーションについては今後の課題とする.}.\citeA{Shigeto:2013}は以下の4ステップで複合機能語のアノテーションを行っている.\begin{enumerate}\item英語のWiktionary\footnote{https://en.wiktionary.org}から複合機能語を抽出することによって,MWE辞書を構築する.\item辞書マッチングによって,PennTreebank上でMWEの出現候補を収集する.\item辞書中の各MWEについて,句構造木と品詞列をもとに,出現候補を複数のパターンに分類する.\item各MWEの各パターンについて,MWEとして用いられている(MWE用法)のか,あるいは字義通りの意味で用いられている(リテラル用法)のかを分類する.\end{enumerate}\subsection{形容詞MWEのアノテーション}\label{sec:adj_mwe_annotations}形容詞MWEのアノテーションについては以下の3ステップで行った.第一に,英語の\linebreakWiktionaryを用いて形容詞MWEの辞書を構築した.この辞書には2,869種類の形容詞MWEが含まれる.次に,Ontonotes5.0のWSJ部分に対して辞書マッチングを行った.この結果,304種類の形容詞MWEが,少なくとも1回,コーパス中に出現している事が確認された.第三に各MWEが,意味的な非構成性を有する語義を少なくとも一つ持つかどうかに応じて,上述の304種類の形容詞MWEを,後述する2つのグループに分割した.本研究では,Wiktionaryの語釈文の冒頭に``idiomatic''または``figurative''(熟語もしくは比喩)と記載されているならば,当該の語義を,意味的な非構成性を有するものとして扱った.\begin{enumerate}\item意味的な非構成性を有する語義を少なくとも一つ持つMWE(69種類,380事例)については,各候補について語義曖昧性解消(WSD)を行い,意味的な非構成性を有する語義に該当するかどうかに応じて,MWE用法もしくはリテラル用法へと分類した.ここでWSDに関しては以下の方針とした.まず,意味的な非構成性を有する語義が,特徴的な構文パターンに紐付いている場合には,句構造木や,MWE候補の構成単語の品詞列の情報を利用した自動アノテーションを行った\footnote{たとえば``togo''が形容詞MWEとして用いられる場合,この2語のみで動詞句(VP)をなすケースが支配的である([例]:Ihavethreemoreyears{\ittogo}.).このため,句構造木で``togo''を最小被覆する部分木が``togo''以外のトークンを含む場合には,リテラル用法とした.}.また,それ以外の場合には,筆者らによる人手アノテーションを行った.\item意味的な非構成性を有する語義を持たないMWE(235種類,1,034事例)については,以下の2ステップでアノテーションを行った.第一に,各MWE候補が句構造の部分木になっているかどうかに応じて,2つのグループ(後述のケース(A),(B))に分割した.第二に,各MWE候補を統語的な非構成性の有無に応じて,MWE用法もしくはリテラル用法へと分類した.具体的には確率文脈自由文法(PCFG)の,各MWE候補に関する生成規則が以下の条件を満たすならば,当該の候補をMWE用法として注釈した.\begin{equation}\Pr(ADJP\rightarrowt_{1}..t_{n})<0.0008\end{equation}ここで$t_{1}..t_{n}$はMWE候補の構成単語の品詞列である.以下では上記の条件を$Cond_{PCFG}$と表記する.なお,PCFGの生成規則はOntonotes5.0のWSJ部分の学習セット(セクション02-21)から誘導した.\begin{description}\item[(A)]\mbox{}MWE候補が句構造の部分木になっている場合(457事例),以下の手順でアノテーションを実施した.以下では部分木の根の非終端記号をXと呼ぶことにする.\begin{enumerate}\renewcommand{\labelenumii}{}\setlength{\leftskip}{0.5cm}\itemXがADJPの場合(\figref{fig:adjp}),当該のMWE候補が$Cond_{PCFG}$を満たすならばMWE用法(\figref{fig:adjp}(a))とし,満たさないならばリテラル用法とした(\figref{fig:adjp}(b),(c)).\itemXがPPの場合,当該の部分木が形容詞句として機能し,かつ,$Cond_{PCFG}$を満たすならば,MWE用法として注釈した.\itemXがADJPでもPPでもない場合にはリテラル用法とした.\end{enumerate}\vspace{3mm}\item[(B)]\mbox{}MWE候補が句構造のいずれの部分木にも該当しない場合(577事例),当該のMWE候補が形容詞句として機能し,かつ,$Cond_{PCFG}$を満たすならば,MWE用法として注釈した(\figref{fig:mcc_or_crossing}).\end{description}\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{26-4ia1f3.eps}\end{center}\hangcaption{MWEの範囲が,ADJPを根とする部分木に対応する例.PCFGの生成規則の確率に基づき,(a)はMWE用法として,(b)および(c)はリテラル用法として注釈する.}\label{fig:adjp}\end{figure}上述した手順により,Ontonotes5.0のWSJ部分に対して,83種類,198事例の形容詞MWEが注釈された.コーパス中に出現している形容詞MWEを構成単語の品詞列で分類したものを\tabref{tab:adj_mwe_pos_ptn}に示す.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f4.eps}\end{center}\hangcaption{MWEの範囲が,句構造の部分木に対応しない場合の例.PCFGの生成規則の確率に基づき,(a)はMWE用法,(b)はリテラル用法として注釈する.}\label{fig:mcc_or_crossing}\vspace{0.5\Cvs}\end{figure}\begin{table}[t]\caption{形容詞MWEの構成単語の品詞列,出現数,および具体例}\label{tab:adj_mwe_pos_ptn}\input{01table02.tex}\vspace{-0.5\Cvs}\end{table}\subsection{MWEを考慮した依存構造コーパスの構築}\label{sec:construction_of_mwe_aware_dep_corpus}本研究では,複合機能語と形容詞MWEを考慮した依存構造コーパスを以下の3ステップで構築した.各手順については次節以降で詳述する.\begin{description}\item[(A)]複合機能語アノテーションと形容詞MWEアノテーションの衝突を解決する.\item[(B)]句構造とMWEアノテーションの衝突を解決する.\item[(C)]句構造から依存構造への変換を行う.\end{description}\subsubsection{異種のMWEアノテーション間の衝突の解決}我々はまず,複合機能語と形容詞MWEのアノテーションが,包含または重複関係にある事例を調査した.その結果,一部の形容詞MWEの範囲が,複合機能語の範囲を包含している事が分かった.たとえば以下の文において,形容詞MWEである``outofbusiness''の範囲は,複合機能語である``outof''の範囲を包含している.\begin{quote}..andputtingunprofitablestate-ownedcompanies{\bf\underline{outofbusiness}}.\end{quote}このような事例においては,より広い範囲のMWEアノテーションを残す形で衝突の解決を行った.この結果得られた,MWEアノテーションのコーパス統計量を\tabref{tab:fixed_mwe_aware_dep_corpus_stat}に示す.\subsubsection{句構造とMWEアノテーションの衝突の解決}我々は次に,句構造とMWEアノテーションの衝突を解決した.あるMWEアノテーションの範囲が,句構造のいずれの部分木にも該当しない場合,本研究では,句構造とMWEアノテーションが\textit{\textbf{衝突している}},と表現する.\begin{table}[b]\caption{Ontonotes5.0のWSJ部分に対して注釈された,複合機能語と形容詞MWEのコーパス統計量}\label{tab:fixed_mwe_aware_dep_corpus_stat}\input{01table03.tex}\vspace{4pt}\smallRBは副詞,JJは形容詞,INは前置詞または従属接続詞,DTは限定詞,PRPは代名詞,TOはto不定詞,WRBはWH副詞,UHは感動詞を示す.なお,to不定詞,WH副詞,感動詞としては,``aboutto'',``whynot'',``noway''の各1種を注釈している.\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-4ia1f5.eps}\end{center}\caption{``Multiplecontiguouschildren''における句構造木の修正.}\label{fig:simple}\end{figure}句構造と複合機能語アノテーションの衝突は\citeA{Kato:2016}が構築したコーパスで,既に解決されている.そこで本研究では,\citeA{Kato:2016}のコーパスにおける,句構造と形容詞MWEアノテーションの衝突を,以下の2種類に分類した上で解決した\cite{Finkel:2009,Kato:2016}.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f6.eps}\end{center}\caption{``Crossingbrackets''における句構造木の修正.}\label{fig:complex}\end{figure}\begin{description}\item[(1)Multiplecontiguouschildren(\figref{fig:simple})]\mbox{}\\MWEの範囲が,複数の連続した部分木に対応する場合\cite{Finkel:2009,Kato:2016},MWEの範囲に相当する部分木群をまとめる中間ノードを挿入し,形容詞MWEであることを表す非終端記号(``MWE\_JJ'')を付与する.\pagebreak\item[(2)Crossingbrackets(\figref{fig:complex})]\mbox{}\\MWEの範囲が,句構造の部分木の範囲と部分重複する場合は,以下の手順でMWEを部分木としてまとめる.このケースの典型的な例として,形容詞MWEの範囲を含む部分木は,PPを根として持ち,子ノードとしてIN(前置詞または従属接続詞)とNP(名詞句)を持つ.このNPノードは,ネストしたNPおよびネストしたPPからなる(\figref{fig:complex}a).この様な事例では,形容詞MWEが,ネストしたPPの直前に出現している.この場合,MWEの範囲に相当する部分木群をまとめる中間ノードを挿入し,(1)と同様,形容詞MWEであることを表す非終端記号を付与する.また,ネストしたPPを,上位のPPの直下に移動させる(\figref{fig:complex}b).\end{description}\subsubsection{句構造から依存構造への変換}最後に,句構造から依存構造への変換を行う,前処理として,MWEの範囲に対応する部分木を,MWE全体品詞を親,MWEの構成単語群をアンダースコアで連結したノード(words-with-spaces)を子とする木に置換する(\figref{fig:merge_tokens_in_MWE}).その後,句構造木をStanfordbasicdependency\cite{deMarneffe:2008}に従う依存構造木に変換する\footnote{句構造から依存構造への変換にはStanfordCoreNLPVer.3.9.1を利用し,変換オプションは-basic\mbox{-keepPunct}-conllx-originalDependenciesとした.オプション一覧については以下のサイトを参照されたい:https://nlp.stanford.edu/software/stanford-dependencies.html.}.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f7.eps}\end{center}\caption{MWEの単一ノードへのマージ.}\label{fig:merge_tokens_in_MWE}\end{figure}
\section{連続MWEを考慮した依存構造解析,およびVMWE認識を行うためのモデル}
\label{sec:model}本章では,連続MWEを考慮した依存構造解析およびVMWE認識を行うモデルアーキテクチャーについて述べる.\subsection{連続MWEを考慮した依存構造解析}\label{sec:fixed_mwe_aware_parsing_model}本研究では,連続MWEを考慮した依存構造解析を行うためのモデルとして,以下の3者を検討する.\begin{enumerate}\renewcommand{\labelenumii}{}\setlength{\leftskip}{0.5cm}\item系列ラベリングベースの認識器が予測した連続MWEを,単一ノードにマージした上で依存構造解析を行うパイプラインモデル(\figref{fig:parser_in_pipeline})\item連続MWEの範囲と全体品詞を依存関係ラベルとして符号化し(head-initialな依存構造(\figref{fig:head_initial_dependency})),単語ベースの依存構造解析を行うモデル\itemHead-initialな依存構造の解析と連続MWE認識の階層的マルチタスク学習\cite{Sanh:2018}(\figref{fig:mtl_simple})\end{enumerate}上記の各モデルにおける入力特徴量としては,単語分散表現,ELMo表現\cite{Peters:2018},文字レベルのCNN\cite{Kim:2016}を用いた単語表現の3者を連結したものを利用する.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f8.eps}\end{center}\hangcaption{パイプラインモデルにおける依存構造解析のアーキテクチャー.系列ラベリングによって予測したMWEの範囲に渡って,隠れ状態ベクトルの平均を求め,後段のMLP(多層パーセプトロン)への入力として用いる.}\label{fig:parser_in_pipeline}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f9.eps}\end{center}\caption{Head-initialな依存構造木の例.MWEの範囲と全体品詞が依存関係ラベルとして符号化されている.}\label{fig:head_initial_dependency}\end{figure}パイプラインモデルにおいて,連続MWE認識についてはbi-LSTM-CNNs-CRFモデル\cite{Ma:2016}を,依存構造解析については\cite{Dozat:2017}のDeepbiaffineparserを用いる.依存構造解析器のエンコーダーには,MWEをマージする前の入力文に相当するベクトル系列を入力する.そして,エンコーダーからの出力系列において,予測した連続MWEの範囲に渡って平均を取ったものをMWEの隠れ状態ベクトルとして利用し,後段の多層パーセプトロン(MLP)への入力に用いる(\figref{fig:parser_in_pipeline}).Deepbiaffineparserからの出力は,予測したMWEをマージした文に対する依存構造である.ただし学習時は,依存構造解析器が正解の木を予測できるように,正解のMWEの範囲を利用する.テスト時は連続MWE認識器が予測したMWEの範囲を利用する.モデル(2)で用いるHead-initialな依存構造木(\figref{fig:head_initial_dependency})では,連続MWEの範囲と全体品詞は依存関係ラベルとして符号化され,MWEの2番目以降の構成単語は,先頭単語を主辞として持つ.モデル(3),すなわち,Head-initialな依存構造の解析と連続MWE認識の階層的マルチタスク学習モデル(HMTL)(\figref{fig:mtl_simple})では,上位タスクのエンコーダーは,下位タスクのエンコーダーからの出力だけでなく,単語分散表現などの入力特徴量も合わせて受け取る(shortcutconnection\cite{Sanh:2018}).HMTLを用いる動機を以下に述べる.連続MWEを考慮した依存構造解析は,連続MWE認識と,連続MWEを統語構造上の単位とする依存構造解析とに分解できる.したがって,head-initialな依存構造の解析器を単体で学習させるよりも,連続MWE認識タスクのエンコーダーが捉えた特徴量も依存構造解析器で利用した方が,解析精度が向上すると期待される.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f10.eps}\end{center}\hangcaption{連続MWE認識と,連続MWEを考慮した依存構造解析の階層的マルチタスク学習のアーキテクチャー.}\label{fig:mtl_simple}\end{figure}\subsection{VMWE認識}VMWE認識については,MWEの構成単語間のギャップを扱えるように拡張したBIO方式\cite{lrec_schneider:2014}を用いて系列ラベリングとして定式化し(\figref{fig:extended_bio}),ベースラインとして,bi-LSTM-CNNs-CRFモデル\cite{Ma:2016}を用いる.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f11.eps}\end{center}\hangcaption{VMWEの拡張BIO方式によるアノテーション.MWEの構成単語間に別の単語が存在する場合にはoタグ(smalloutsidetag)を付与する.}\label{fig:extended_bio}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f12.eps}\end{center}\hangcaption{連続MWE認識,連続MWEを考慮した依存構造解析,およびVMWE認識の階層的マルチタスク学習のアーキテクチャー.下層から順に,連続MWE認識,連続MWEを考慮した依存構造解析,VMWE認識のエンコーダーをスタックさせたモデルとなっている.}\label{fig:mtl_tandem}\end{figure}また,VMWE認識を行う上で,連続MWEを考慮した依存構造,特に,依存構造中の動詞からparticleや直接目的語へのエッジは,有用な特徴量として利用できると期待される.そこで本稿では,連続MWE認識,連続MWEを考慮した依存構造解析,VMWE認識の階層的マルチタスク学習(HMTL)の効果を検証する.アーキテクチャーを\figref{fig:mtl_tandem}に示す.このモデルでは,下層から順に,連続MWE認識,連続MWEを考慮した依存構造解析,VMWE認識のエンコーダーをスタックさせる.これによって,VMWE認識タスクのエンコーダーは,連続MWEを考慮した依存構造解析タスクのエンコーダーが捉えた特徴量を利用できる.また,対照実験として,連続MWE認識とVMWE認識のHMTL,連続MWEを考慮した依存構造解析とVMWE認識のHMTLについても実験を行う.
\section{連続MWEを考慮した依存構造解析,およびVMWE認識を行うモデルの評価実験}
\label{sec:experiments}本章では,連続MWEを考慮した依存構造解析,およびVMWE認識を行うモデルの評価実験について述べる.データセットとしては,本研究でOntonotes5.0(WSJ部分)上に構築した,複合機能語および形容詞MWEを考慮した依存構造コーパス,および,\citeA{Kato:2018}で行われた,Ontonotes5.0(WSJ部分)に対するVMWEアノテーションを用いる.\subsection{実験設定および実装の詳細}データ分割については先行研究に従い,Ontonotes5.0(WSJ部分)のセクション2-21,22,23をそれぞれ学習,開発,テストに利用した.VMWE認識については,上述したVMWEアノテーション\cite{Kato:2018}を用いた.この中には,複数のVMWEのアノテーションが部分重複する文がまれに存在する,これらの文に対するVMWE認識は系列ラベリングとして定式化することが難しいため,該当する文をデータセットから取り除いた上で実験を行った.該当する文は学習,開発,テストのそれぞれで,30,060文中13文,1,336文中0文,1,640文中2文である.階層的マルチタスク学習に関しては\cite{Sanh:2018}に基づき,タスクごとに別々のデータセットを保持する.そして訓練事例数に応じた確率でランダムに選択したタスクのミニバッチを利用して学習を行う.本実験では各タスクの訓練事例数はほぼ同じであるが,上述したように複数のVMWEのアノテーションが部分重複する事例を取り除いている関係上,VMWE認識タスクは,連続MWE認識タスクおよび連続MWEを考慮した依存構造解析タスクに比べ,わずかに訓練事例数が少ない.学習の停止条件は,指定したエポック数に到達するか,開発セットの評価指標が指定したエポック数に渡り改善しないという事象が発生することである(Earlystopping\cite{Prechelt:1998}).Bi-LSTM-CNNs-CRFモデルおよびDeepbiaffineparserはAllenNLPライブラリ\cite{Gardner:2017}をベースとして実装した.単語分散表現の初期値としては,Glove\cite{Pennington:2014}を用いた.ELMo表現を得るためのbi-LSTMネットワークとしては,OneBillionWordBenchmarkコーパス\cite{Chelba:2013}で事前学習されたモデル\footnote{以下のURLから入手した:\url{https://s3-us-west-2.amazonaws.com/allennlp/models/elmo/2x4096_512_2048cnn_2xhighway/elmo_2x4096_512_2048cnn_2xhighway_{options.json|weights.hdf5}}}を用いた.連続MWEおよびVMWEの認識に用いたbi-LSTM-CNNs-CRFモデルにおいて,ドロップアウトはbi-LSTMへの入出力に対して適用した.連続MWEを考慮した依存構造解析に利用したDeepbiaffineparserにおいて,ドロップアウトはbi-LSTMへの入出力と,依存構造の主辞推定および依存関係ラベル推定に関するMLPからの出力に対して適用した.\subsubsection{系列ラベリングの学習における負例のダウンサンプリング}本実験で利用する,連続MWEを考慮した依存構造コーパスにおいて,多くの文は連続MWEを1つも含んでいない.実際,テストセットでは,1,640文中,1,370文において,連続MWEは出現していない.これは,``O''(outside)タグのみからなるラベル系列(負例)に相当する.VMWEについても,データセット中の多くの文でVMWEは出現していない.このようなラベルバイアス\cite{Leevy:2018}の影響を緩和するために,系列ラベリングベースの連続MWE認識およびVMWE認識の学習時に,ミニバッチ中で,負例が正例を文数で上回る場合には,損失関数に寄与する負例の事例数が正例と同一になるように,負例のダウンサンプリングを行った.\subsubsection{ハイパーパラメーターとモデル選択}利用したハイパーパラメーターの一覧を\tabref{tab:hypara}に示す.連続MWE認識のモデル選択は開発セットでのF値に基づいて行った.VMWE認識および,VMWE認識を含む階層的マルチタスク学習(HMTL)については,開発セットでVMWEのF値が最大となるモデルを選択した.連続MWEを考慮した依存構造解析および上記以外のHMTLについては,開発セットでのラベルあり正解率(LAS)が最大となるモデルを選択した.\begin{table}[t]\caption{本実験で利用したハイパーパラメーターの一覧}\label{tab:hypara}\input{01table04.tex}\end{table}\subsubsection{評価方法}連続MWE認識については,MWEの範囲に関するF値(FUM)または,MWEの範囲と全体品詞に関するF値(FTM)を用いて評価を行う.Head-initialな依存構造(\figref{fig:head_initial_dependency})の解析器を用いる場合,予測した依存構造中の依存関係ラベルとして表現されている連続MWEの範囲と全体品詞を予測結果として評価を行う.VMWE認識については,予測したタグ系列から求めた,VMWEの構成単語群に関するFUMを評価指標として用いる.依存構造についてはラベルなし正解率(UAS),ラベルあり正解率(LAS)を用いて評価を行う\footnote{UASおよびLASの計算時には,句読点は評価対象外とする.}.連続MWE認識とのパイプラインモデルの場合,依存構造解析器は,予測したMWEをマージした文に対する依存構造を推定する.そのため,依存構造中のMWE由来のノードをhead-initialに展開した依存構造を正解と比較して,UASおよびLASを算出する.\subsection{実験結果および考察}テストセットに対する実験結果を\tabref{tab:exp-result}に示す.表中のSingletask(parser)はhead-initialな依存構造の解析器を単独で学習させた場合の結果である.また,Pipeline(continuousMWE+parser)は連続MWE認識器が予測したMWEの範囲を単一ノードにマージした上で依存構造解析を行う手法を示す.Pipelineモデルの連続MWE認識の精度は,系列ラベリングに基づく連続MWE認識器に対するものである.次にHMTL(continuousMWE+parser)は連続MWE認識とhead-initialな依存構造解析の階層的マルチタスク学習(HMTL)に対する結果である.一方,Singletask(VMWE)はVMWE認識器を示す.HMTL(continuousMWE+VMWE)は連続MWE認識とVMWE認識のHMTL,HMTL(parser+VMWE)は,連続MWEを考慮した依存構造解析とVMWE認識のHMTL,HMTL(continuousMWE+parser+VMWE)は,連続MWE認識,連続MWEを考慮した依存構造解析,VMWE認識のHMTLに対する結果である.\begin{table}[t]\caption{連続MWEを考慮した依存構造解析とVMWE認識に関する,テストセットでの実験結果}\label{tab:exp-result}\input{01table05.tex}\par\vspace{4pt}\small各数値は5回の独立した実験の平均である.HMTLは階層的マルチタスク学習の略語である.\end{table}まず連続MWE認識については,Pipeline(continuousMWE+parser),HMTL(continuousMWE+parser),HMTL(continuousMWE+VMWE)がほぼ同等のFUMを示し,Singletask(parser)を約1.7ポイント上回った.このことから,連続MWE認識に関しては,依存構造解析器単体でhead-initialな依存構造を予測するよりも,系列ラベリングベースの手法や,連続MWE認識と依存構造解析またはVMWE認識との階層的マルチタスク学習を用いた方が良いことが分かる.次に依存構造解析の結果について述べる.テストセット全体に対しては,各手法はほぼ同等のラベルなし正解率(UAS)を示した.MWEを含む文(1,640文中,270文)に関しても,各手法はほぼ同等のUASを示している.MWEを構成するトークンの総数は,テストセット全体のトークン数の約1.9\%であるため,MWEの内部係り受けや,MWEの内外をつなぐ係り受けの精度が手法間で異なっている場合でも,全体精度には現れにくいという点には注意が必要である.そこで,正解のMWEの先頭トークンに着目すると,HMTL(continuousMWE+parser)はPipeline(continuousMWE+parser)をUASで約1.4ポイント,LASで約1.5ポイント上回った.階層的マルチタスク学習モデルはパイプラインモデルと異なり,連続MWE認識の結果を決定論的に用いるのではなく,連続MWE認識のエンコーダーからの出力を依存構造解析のエンコーダーの入力特徴量として利用している.このため,階層的マルチタスク学習モデルは,連続MWE認識で生じたエラーの影響が上位の依存構造解析に及びにくいという特徴を持っており,上記の実験結果は,この考察と符合している.また,HMTL(continuousMWE+parser)はSingletask(parser)とほぼ同等のUASおよびLASを示している.前者が後者よりも高い連続MWE認識精度を示している点を考慮すると,連続MWE認識と依存構造解析の階層的マルチタスク学習が効果的に機能していると言える.各手法の性能差をさらに詳細に比較するために,正解MWEの先頭単語に関する依存構造解析の精度を,連続MWEの全体品詞別に計算した結果を\tabref{tab:breakdown}に示す.この表を見ると,複合前置詞または複合従属接続詞(MWE-IN)の先頭単語を子に持つ係り受けエッジの推定については,連続MWE認識を含む階層的マルチタスク学習モデルが効果的である事がわかる.一方,複合副詞(MWE-RB)の先頭単語については,Singletask(parser)が最も高いUASを示しており,VMWE認識を含む階層的マルチタスク学習モデル群を少なくとも4.8ポイント上回っている.\begin{table}[b]\hangcaption{連続MWEの全体品詞別に見た,正解MWEの先頭単語に関する依存構造解析のテストセットでの精度}\label{tab:breakdown}\input{01table06.tex}\vspace{4pt}\small全体品詞がPRP(人称代名詞)のケース(出現数:5)については全手法のUAS,LASが100\%のため,省略している.\end{table}最後にVMWE認識については,連続MWE認識タスクおよび連続MWEを考慮した依存構造解析の双方と組み合わせたHMTLを行うことで,FUMが約1.3ポイント向上した.連続MWEの範囲はHead-initialな依存構造木の内部に表現されているため,HMTL(parser+VMWE)とHMTL(continuousMWE+parser+VMWE)とで,モデルに与えている教師情報は同一である.それにも関わらず,VMWE認識のFUMで約1.0ポイントの差が見られたという結果は,間接的に連続MWE認識を行う依存構造解析タスクの学習で得られる特徴量だけでなく,系列ラベリングとして定式化した連続MWE認識タスクの学習によって得られる特徴量も与えた方がVMWE認識にとって有利であることを示唆している.また,HMTL(continuousMWE+VMWE)よりもHMTL(continuousMWE+parser+VMWE)の方がFUMで約2.5ポイント上回っているという結果は,依存構造解析器が捉えた構文情報がVMWE認識にとって有効に働いていることを示唆している.
\section{関連研究}
\label{sec:related_work}まず,MWEを考慮した統語構造コーパスについて述べる.フランス語MWEを考慮した依存構造解析\cite{Candito:2014}では,FrenchTreebank\cite{french_treebank:2003}を依存構造コーパスに変換したデータセットがよく用いられている.一方,英語MWEを考慮した依存構造解析に利用できるデータセットは限られている.\citeA{lrec_schneider:2014}はEnglishWebTreebank\cite{Bies:2012}上にMWEアノテーションを行っているが,MWEの範囲が句構造の部分木に一致することは保証されていない.また,彼らのコーパスは全体で約3,800文と,依存構造解析の学習データとしては大規模とは言えない.これに対して本研究で構築したコーパスは,Ontonotes5.0のWSJ部分全体(約37,000文)をカバーし,かつ,MWEアノテーションが句構造の部分木に一致することを保証している(\ref{sec:construction_of_mwe_aware_dep_corpus}節).次に,MWEを考慮した統語解析についての関連研究を紹介する.まず\citeA{Green:2013}は,MWE専用の非終端記号を用いることによって,句構造解析の中で連続MWE認識を行う手法を提案している.彼らは文脈自由文法もしくは木置換文法に基づく手法を検討している.次に\citeA{Candito:2014}は,依存構造とフランス語MWEの双方を推定するタスクに取り組んでいる.彼女らは,統語的な特異性を持たない(統語的に正則な)MWEについては,head-initialな依存構造(\ref{sec:fixed_mwe_aware_parsing_model}章)ではなく,MWE内部の統語構造を捉えたデータ表現を採用しており,解析時には,統語的に正則なMWEの内部構造も予測するモデルを検討している.彼女らの手法では,MWE認識は依存構造解析の前後,もしくは同時に行われる.第三に\citeA{Constant:2016}は,依存構造と,MWEを含む語彙的な単位(lexicalunit)の集合との同時予測に取り組んでいる.これら2つの構造は語彙要素(lexicalelement),即ち,トークンまたは統語的に非構成的なMWEを共有している.Lexicalunitでは,各MWEは句構造に類似した木として表現されるため,ネストや非連続な出現を考慮することができる.彼らは通常の依存構造解析器を拡張した遷移ベースのシステムを用いており,スタックとバッファ上のノードの,表層形や品詞タグの組み合わせ,および,構築中の部分木や遷移履歴など.古典的な遷移ベースの依存構造解析で用いられている素性を採用している.\citeA{Constant:2016}が統語的に非構成的なMWEを考慮した依存構造と,lexicalunitsの同時予測を取り扱っているのに対し,本研究は,連続MWEを統語的な単位とする依存構造と,非連続な出現を持ちうるVMWEとの同時予測に取り組んでいる.本研究では意味理解が必要なタスクで利用しやすい依存構造を提供するために,統語的に非構成的なMWEに限らず,広範囲の連続MWEを依存構造に統合している.第四に\citeA{Kato:2017,Kato:2016}は,英語のOntonotes上で複合機能語と固有表現の範囲が句構造の部分木と一致することを保証したコーパスを構築し,複合機能語と固有表現を考慮した依存構造解析の実験に利用している.モデルとしては(1)連続MWE認識と依存構造解析のパイプライン,(2)head-initialな依存構造を単語ベースの依存構造解析器で推定するモデルの2つの手法を検討している.\citeA{Kato:2017}は,連続MWE認識を系列ラベリングとして定式化し,ConditionalRandomFields(CRF)\cite{Lafferty:2001}を用いている.また,依存構造解析器としては,Arc-eager型の遷移システム\cite{Nivre:2003}を用いている.本研究は\citeA{Kato:2017}を基礎としているが,より広範囲のMWEをカバーするために,新たに形容詞MWEを注釈し,\citeA{Kato:2017}とは異なり,ニューラルネットワークベースのモデル群を検討している.また連続MWEだけでなく,非連続な出現を持ちうるVMWEの認識にも取り組んでいる.最後にVMWEが注釈された言語資源について述べる.近年,VMWE認識のシェアードタスクがPARSEME\footnote{https://typo.uni-konstanz.de/parseme/}によって開催されており\cite{Ramisch:2018,Savary:2017},アノテーションガイドラインと,約20言語に対する79,326事例のVMWEアノテーションが提供されている.このシェアードタスクに取り組んでいる関連研究としては\citeA{Klyueva:2017,Berk:2018}が挙げられる.まず\citeA{Klyueva:2017}はVMWE認識を系列ラベリングとして定式化し,双方向GRU(gated-recurrentunit)\cite{Cho:2014}を用いて解析を行っている.また,\citeA{Berk:2018}は本研究と同じくbiLSTM-CRFモデルを用いている.
\section{結論}
本研究では,複合機能語と形容詞MWEの双方を考慮した依存構造コーパスをOntonotes上に構築した.また,連続MWEを考慮した依存構造とVMWEの双方を予測する問題に取り組んだ.連続MWEを考慮した依存構造解析では以下の3つのモデルを検討した:(a)連続MWE認識と連続MWEを考慮した依存構造解析のパイプライン,(b)連続MWEの範囲と全体品詞を依存関係ラベルとして符号化した,単語ベースの依存構造解析(Single-task(parser)),そして(c)連続MWE認識とSingle-task(parser)の階層的マルチタスク学習モデル(HMTL)である.実験の結果,連続MWE認識ではパイプラインモデルとHMTLベースのモデルがほぼ同等のF値を示し,Single-task(parser)をF値で約1.7ポイント上回った.依存構造解析については,テストセット全体およびMWEを含む文において,各手法はほぼ同等のラベルなし正解率(UAS)を示した.正解のMWEの先頭単語に着目すると,Single-task(parser)およびHMTLベースのモデルがパイプラインモデルをUASで少なくとも約1.4ポイント上回った.VMWE認識では,系列ラベリングベースの認識器を,連続MWE認識器および連続MWEを考慮した依存構造解析器と階層的マルチタスク学習させることにより,F値が約1.3ポイント向上した.今後の課題としては(1)VMWEや,修飾語を取りうるsemi-fixedMWE\cite{Constant:2016,Morimoto:2016}の依存構造への統合,(2)複合助動詞のOntonotesへのアノテーションおよび依存構造への統合が挙げられる.\acknowledgment本研究の一部はJSTCREST(課題番号:JPMJCR1513)の支援を受けて行いました.また,有益なコメントをくださった査読者の皆様に感謝いたします.英文校正に関し,Enago(www.enago.jp)社に感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abeill{\'{e}},Cl{\'{e}}ment,\BBA\Toussenel}{Abeill{\'{e}}et~al.}{2003}]{french_treebank:2003}Abeill{\'{e}},A.,Cl{\'{e}}ment,L.,\BBA\Toussenel,F.\BBOP2003\BBCP.\newblock{\BemBuildingaTreebankforFrench},\mbox{\BPGS\165--187}.\newblockSpringerNetherlands,Dordrecht.\bibitem[\protect\BCAY{Berend}{Berend}{2011}]{berend:2011}Berend,G.\BBOP2011\BBCP.\newblock\BBOQOpinionExpressionMiningbyExploitingKeyphraseExtraction.\BBCQ\\newblockIn{\BemIJCNLP},\mbox{\BPGS\1162--1170}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Berk,Erden,\BBA\G{\"{u}}ng{\"{o}}r}{Berket~al.}{2018}]{Berk:2018}Berk,G.,Erden,B.,\BBA\G{\"{u}}ng{\"{o}}r,T.\BBOP2018\BBCP.\newblock\BBOQDeep-BGTatPARSEMESharedTask2018:BidirectionalLSTM-CRFModelforVerbalMultiwordExpressionIdentification.\BBCQ\\newblockIn{\BemProceedingsoftheJointWorkshoponLinguisticAnnotation,MultiwordExpressionsandConstructions(LAW-MWE-CxG-2018)},\mbox{\BPGS\248--253},SantaFe,NewMexico,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bies,Mott,Warner,\BBA\Kulick}{Bieset~al.}{2012}]{Bies:2012}Bies,A.,Mott,J.,Warner,C.,\BBA\Kulick,S.\BBOP2012\BBCP.\newblock\BBOQEnglishWebTreebank.\BBCQ\\newblock{\BemTechnicalReportLDC2012T13,LinguisticDataConsortium,Philadelphia,Pennsylvania,USA.}\bibitem[\protect\BCAY{Bj{\"{o}}rne,Ginter,\BBA\Salakoski}{Bj{\"{o}}rneet~al.}{2017}]{Bjorne2017}Bj{\"{o}}rne,J.,Ginter,F.,\BBA\Salakoski,T.\BBOP2017\BBCP.\newblock\BBOQEPE2017:TheBiomedicalEventExtractionDownstreamApplication.\BBCQ\\newblockIn{\BemProceedingsofthe2017SharedTaskonExtrinsicParserEvaluation(EPE2017)attheFourthInternationalConferenceonDependencyLinguistics(Depling2017)andthe15thInternationalConferenceonParsingTechnologies(IWPT2017)},\mbox{\BPGS\17--24}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Candito\BBA\Constant}{Candito\BBA\Constant}{2014}]{Candito:2014}Candito,M.\BBACOMMA\\BBA\Constant,M.\BBOP2014\BBCP.\newblock\BBOQStrategiesforContiguousMultiwordExpressionAnalysisandDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\743--753}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chelba,Mikolov,Schuster,Ge,Brants,\BBA\Koehn}{Chelbaet~al.}{2014}]{Chelba:2013}Chelba,C.,Mikolov,T.,Schuster,M.,Ge,Q.,Brants,T.,\BBA\Koehn,P.\BBOP2014\BBCP.\newblock\BBOQOneBillionWordBenchmarkforMeasuringProgressinStatisticalLanguageModeling.\BBCQ\\newblockIn{\BemINTERSPEECH},\mbox{\BPGS\2635--2639}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Bahdanau,\BBA\Bengio}{Choet~al.}{2014}]{Cho:2014}Cho,K.,vanMerrienboer,B.,Bahdanau,D.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQOnthePropertiesofNeuralMachineTranslation:Encoder-DecoderApproaches.\BBCQ\\newblockIn{\BemSSST@EMNLP},\mbox{\BPGS\103--111}.\bibitem[\protect\BCAY{Constant\BBA\Nivre}{Constant\BBA\Nivre}{2016}]{Constant:2016}Constant,M.\BBACOMMA\\BBA\Nivre,J.\BBOP2016\BBCP.\newblock\BBOQATransition-BasedSystemforJointLexicalandSyntacticAnalysis.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\161--171}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Dozat\BBA\Manning}{Dozat\BBA\Manning}{2017}]{Dozat:2017}Dozat,T.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2017\BBCP.\newblock\BBOQDeepBiaffineAttentionforNeuralDependencyParsing.\BBCQ\\newblock{\BemArXiv},{\Bbfabs/1611.01734}.\bibitem[\protect\BCAY{Finkel\BBA\Manning}{Finkel\BBA\Manning}{2009}]{Finkel:2009}Finkel,R.~J.\BBACOMMA\\BBA\Manning,D.~C.\BBOP2009\BBCP.\newblock\BBOQJointParsingandNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\326--334}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Gardner,Grus,Neumann,Tafjord,Dasigi,Liu,Peters,Schmitz,\BBA\Zettlemoyer}{Gardneret~al.}{2017}]{Gardner:2017}Gardner,M.,Grus,J.,Neumann,M.,Tafjord,O.,Dasigi,P.,Liu,N.~F.,Peters,M.,Schmitz,M.,\BBA\Zettlemoyer,L.~S.\BBOP2017\BBCP.\newblock\BBOQAllenNLP:ADeepSemanticNaturalLanguageProcessingPlatform.\BBCQ\\newblockIn{\BemProceedingsofWorkshopforNLPOpenSourceSoftware(NLP-OSS)},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Green,de~Marneffe,\BBA\Manning}{Greenet~al.}{2013}]{Green:2013}Green,S.,de~Marneffe,M.-C.,\BBA\Manning,C.~D.\BBOP2013\BBCP.\newblock\BBOQParsingModelsforIdentifyingMultiwordExpressions.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf39}(1),\mbox{\BPGS\195--227}.\bibitem[\protect\BCAY{Kato,Shindo,\BBA\Matsumoto}{Katoet~al.}{2016}]{Kato:2016}Kato,A.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQConstructionofanEnglishDependencyCorpusIncorporatingCompoundFunctionWords.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation(LREC'16)},\mbox{\BPGS\1667--1671}.\bibitem[\protect\BCAY{Kato,Shindo,\BBA\Matsumoto}{Katoet~al.}{2017}]{Kato:2017}Kato,A.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2017\BBCP.\newblock\BBOQEnglishMultiwordExpression-awareDependencyParsingIncludingNamedEntities.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\427--432},Vancouver,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kato,Shindo,\BBA\Matsumoto}{Katoet~al.}{2018}]{Kato:2018}Kato,A.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2018\BBCP.\newblock\BBOQConstructionofLarge-scaleEnglishVerbalMultiwordExpressionAnnotatedCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\2495--2499},Miyazaki,Japan.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Kim,Jernite,Sontag,\BBA\Rush}{Kimet~al.}{2016}]{Kim:2016}Kim,Y.,Jernite,Y.,Sontag,D.~A.,\BBA\Rush,A.~M.\BBOP2016\BBCP.\newblock\BBOQCharacter-AwareNeuralLanguageModels.\BBCQ\\newblockIn{\BemAAAI},\mbox{\BPGS\2741--2749}.\bibitem[\protect\BCAY{Klyueva,Doucet,\BBA\Straka}{Klyuevaet~al.}{2017}]{Klyueva:2017}Klyueva,N.,Doucet,A.,\BBA\Straka,M.\BBOP2017\BBCP.\newblock\BBOQNeuralNetworksforMulti-WordExpressionDetection.\BBCQ\\newblockIn{\BemProceedingsofthe13thWorkshoponMultiwordExpressions(MWE2017)},\mbox{\BPGS\60--65},Valencia,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:2001}Lafferty,J.~D.,McCallum,A.,\BBA\Pereira,F.C.~N.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning},ICML'01,\mbox{\BPGS\282--289},SanFrancisco,CA,USA.MorganKaufmannPublishersInc.\bibitem[\protect\BCAY{Leevy,Khoshgoftaar,Bauder,\BBA\Seliya}{Leevyet~al.}{2018}]{Leevy:2018}Leevy,J.~L.,Khoshgoftaar,T.~M.,Bauder,R.~A.,\BBA\Seliya,N.\BBOP2018\BBCP.\newblock\BBOQASurveyonAddressingHigh-classImbalanceinBigData.\BBCQ\\newblock{\BemJournalofBigData},{\Bbf5},\mbox{\BPGS\1--30}.\bibitem[\protect\BCAY{Li,Ji,\BBA\Huang}{Liet~al.}{2013}]{Li:2013}Li,Q.,Ji,H.,\BBA\Huang,L.\BBOP2013\BBCP.\newblock\BBOQJointEventExtractionviaStructuredPredictionwithGlobalFeatures.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\73--82}.\bibitem[\protect\BCAY{Ma\BBA\Hovy}{Ma\BBA\Hovy}{2016}]{Ma:2016}Ma,X.\BBACOMMA\\BBA\Hovy,E.~H.\BBOP2016\BBCP.\newblock\BBOQEnd-to-endSequenceLabelingviaBi-directionalLSTM-CNNs-CRF.\BBCQ\\newblock{\BemArXiv},{\Bbfabs/1603.01354}.\bibitem[\protect\BCAY{Marcus,Kim,Marcinkiewicz,MacIntyre,Bies,Ferguson,Katz,\BBA\Schasberger}{Marcuset~al.}{1994}]{Marcus:1994}Marcus,M.,Kim,G.,Marcinkiewicz,M.~A.,MacIntyre,R.,Bies,A.,Ferguson,M.,Katz,K.,\BBA\Schasberger,B.\BBOP1994\BBCP.\newblock\BBOQThePennTreebank:AnnotatingPredicateArgumentStructure.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponHumanLanguageTechnology},HLT'94,\mbox{\BPGS\114--119},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Marneffe\BBA\Manning}{Marneffe\BBA\Manning}{2008}]{deMarneffe:2008}Marneffe,M.-C.\BBACOMMA\\BBA\Manning,D.~C.\BBOP2008\BBCP.\newblock\BBOQTheStanfordTypedDependenciesRepresentation.\BBCQ\\newblockIn{\BemColing:ProceedingsoftheWorkshoponCross-FrameworkandCross-DomainParserEvaluation},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Morimoto,Yoshimoto,Kato,Shindo,\BBA\Matsumoto}{Morimotoet~al.}{2016}]{Morimoto:2016}Morimoto,A.,Yoshimoto,A.,Kato,A.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQIdentificationofFlexibleMultiwordExpressionswiththeHelpofDependencyStructureAnnotation.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponGrammarandLexicon:InteractionsandInterfaces(GramLex)},\mbox{\BPGS\102--109},Osaka,Japan.TheCOLING2016OrganizingCommittee.\bibitem[\protect\BCAY{Newman,Koilada,Lau,\BBA\Baldwin}{Newmanet~al.}{2012}]{newman:2012}Newman,D.,Koilada,N.,Lau,H.~J.,\BBA\Baldwin,T.\BBOP2012\BBCP.\newblock\BBOQBayesianTextSegmentationforIndexTermIdentificationandKeyphraseExtraction.\BBCQ\\newblockIn{\BemCOLING},\mbox{\BPGS\2077--2092}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre:2003}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQAnEfficientAlgorithmforProjectiveDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonParsingTechnologies},\mbox{\BPGS\149--160},Nancy,France.\bibitem[\protect\BCAY{Pennington,Socher,\BBA\Manning}{Penningtonet~al.}{2014}]{Pennington:2014}Pennington,J.,Socher,R.,\BBA\Manning,C.\BBOP2014\BBCP.\newblock\BBOQGlove:GlobalVectorsforWordRepresentation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1532--1543},Doha,Qatar.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{Peters:2018}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.~S.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemNAACL-HLT},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Pradhan,Hovy,Marcus,Palmer,Ramshaw,\BBA\Weischedel}{Pradhanet~al.}{2007}]{Pradhan:2007}Pradhan,S.~S.,Hovy,E.,Marcus,M.,Palmer,M.,Ramshaw,L.,\BBA\Weischedel,R.\BBOP2007\BBCP.\newblock\BBOQOntoNotes:AUnifiedRelationalSemanticRepresentation.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonSemanticComputing},ICSC'07,\mbox{\BPGS\517--526},Washington,DC,USA.IEEEComputerSociety.\bibitem[\protect\BCAY{Prechelt}{Prechelt}{1998}]{Prechelt:1998}Prechelt,L.\BBOP1998\BBCP.\newblock\BBOQEarlyStopping-ButWhen?\BBCQ\\newblockIn{\BemNeuralNetworks:TricksoftheTrade,ThisBookisanOutgrowthofa1996NIPSWorkshop},\mbox{\BPGS\55--69},London,UK,UK.Springer-Verlag.\bibitem[\protect\BCAY{Ramisch\BBA\Cordeiro}{Ramisch\BBA\Cordeiro}{2018}]{Ramisch:2018}Ramisch,C.\BBACOMMA\\BBA\Cordeiro,S.~R.\BBOP2018\BBCP.\newblock\BBOQEdition1.1ofthePARSEMESharedTaskonAutomaticIdentificationofVerbalMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsoftheJointWorkshoponLinguisticAnnotation,MultiwordExpressionsandConstructions(LAW-MWE-CxG-2018)},\mbox{\BPGS\222--240},SantaFe,NewMexico,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sag,Baldwin,Bond,Copestake,\BBA\Flickinger}{Saget~al.}{2002}]{Sag:2002}Sag,I.~A.,Baldwin,T.,Bond,F.,Copestake,A.~A.,\BBA\Flickinger,D.\BBOP2002\BBCP.\newblock\BBOQMultiwordExpressions:APainintheNeckforNLP.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonComputationalLinguisticsandIntelligentTextProcessing},CICLing,\mbox{\BPGS\1--15},London,UK,UK.Springer-Verlag.\bibitem[\protect\BCAY{Sanh,Wolf,\BBA\Ruder}{Sanhet~al.}{2018}]{Sanh:2018}Sanh,V.,Wolf,T.,\BBA\Ruder,S.\BBOP2018\BBCP.\newblock\BBOQAHierarchicalMulti-taskApproachforLearningEmbeddingsfromSemanticTasks.\BBCQ\\newblock{\BemArXiv},{\Bbfabs/1811.06031}.\bibitem[\protect\BCAY{Savary\BBA\Ramisch}{Savary\BBA\Ramisch}{2017}]{Savary:2017}Savary,A.\BBACOMMA\\BBA\Ramisch,C.\BBOP2017\BBCP.\newblock\BBOQThePARSEMESharedTaskonAutomaticIdentificationofVerbalMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsofthe13thWorkshoponMultiwordExpressions(MWE2017)},\mbox{\BPGS\31--47},Valencia,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Schneider,Onuffer,Kazour,Danchik,Mordowanec,Conrad,\BBA\Smith}{Schneideret~al.}{2014}]{lrec_schneider:2014}Schneider,N.,Onuffer,S.,Kazour,N.,Danchik,E.,Mordowanec,M.~T.,Conrad,H.,\BBA\Smith,N.~A.\BBOP2014\BBCP.\newblock\BBOQComprehensiveAnnotationofMultiwordExpressionsinaSocialWebCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\455--461},Reykjavik,Iceland.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Shigeto,Azuma,Hisamoto,Kondo,Kose,Sakaguchi,Yoshimoto,Yung,\BBA\Matsumoto}{Shigetoet~al.}{2013}]{Shigeto:2013}Shigeto,Y.,Azuma,A.,Hisamoto,S.,Kondo,S.,Kose,T.,Sakaguchi,K.,Yoshimoto,A.,Yung,F.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQConstructionofEnglishMWEDictionaryanditsApplicationtoPOSTagging.\BBCQ\\newblockIn{\BemProceedingsofthe9thWorkshoponMultiwordExpressions},\mbox{\BPGS\139--144},Atlanta,Georgia,USA.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{加藤明彦}{2002年,東京大学理学部物理学科卒業.2004年,同大学院理学系研究科物理学専攻修士課程修了.同年,(株)システム計画研究所入社.2016年,奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学院先端科学技術研究科情報科学領域博士後期課程在学中.}\bioauthor{進藤裕之}{2009年,早稲田大学先進理工学研究科博士前期課程修了.同年,NTTコミュニケーション科学基礎研究所入所.2013年,奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2014年より現在まで,奈良先端科学技術大学院大学先端科学技術研究科助教.これまで,主に自然言語処理や機械学習の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年,京都大学工学部情報工学科卒.1979年,同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年,英国インペリアルカレッジ客員研究員.1985〜87年,(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.2016年9月より理研AIP知識獲得チームPI兼務.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V09N01-03
|
\section{はじめに}
\label{sec-intro}音声対話システムとは,ユーザとの音声対話を通して,あらかじめ決められたタスクをユーザと協同で実行するシステムである.タスクとは,音声対話システムごとに定められた作業のことであり,たとえば,各種の予約,個人スケジュールの管理といったタスクがある.近年の音声情報処理技術,自然言語処理技術の発展に伴って,様々なタスクにおいて音声対話システムが実現されてきている~\cite{TRIPS,DUG1,PEGASUS}.音声対話インタフェースは,人にとって親しみやすく,手や目を占有しないという利点をもつ.人とコンピュータが,円滑な音声対話を通して意思疎通できるようになれば,音声対話は理想的な人−コンピュータのインタフェースとなることが期待される.しかし,円滑な音声対話を実現するためには,音声認識誤りに対処することが必要となる.システムは,ユーザ音声の認識結果からユーザ要求の内容を理解し,ユーザ要求内容に応じて適切な情報をユーザに伝達しなければならないが,音声認識誤りの可能性があるため,ユーザ音声の認識結果のみに頼ってユーザ要求の内容を確定してしまうと,ユーザ要求通りに正しくタスクを遂行できない場合が生じる.音声対話システムでは,この問題に対処するために,ユーザとの間で確認対話と呼ぶ対話を行い,確認対話を通してユーザ要求内容を確定するという方法をとることが普通である.音声認識誤りのため確認対話は必須であるが,確認対話の最中にも音声認識誤りが起きる可能性があるので,確認対話が長ければ長いほど,対話の円滑な流れが阻害される危険性が高まる.したがって、不必要な確認対話はできる限り避けることが望ましい.不必要な確認対話の一つの典型は,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合に,システムがユーザ要求内容のすべてを逐一確認する場合に起きる.ここで,システム知識とは,システムが対話時点でデータベース内に保持しているタスク遂行のために必要なデータの集合を意味する.また,ユーザ要求内容がシステムの限られた知識の範囲を越えている状況とは,システムがユーザ発話を理解できるのだけれども,システムが保有していない情報をユーザが要求している,あるいは,システムが詳しい情報を保有していない事柄に関して,ユーザが詳細な情報を要求しているという状況である.\footnote{本稿では,システムが認識できる語彙の集合が限られているために,システムがユーザ発話を理解できない状況や,ユーザが期待するタスクとシステムが想定するタスクが相違しているために、ユーザが期待するタスクをシステムが実行できない状況は扱わない.}音声対話システムとユーザの対話は,ユーザの要求内容を確定するために確認対話を行い,その後で,確定した要求内容に応じて適切な情報をユーザに対し応答するという順序で進行する.確認対話でユーザ要求内容をすべて確認したところで,確認対話に続くシステム応答の長さを考慮しなければ,対話全体を効率的に実施することにはならない.システム応答の長さは,対話時点のシステム知識の内容に依存するので,システムの限られた知識の範囲を考慮した上で,対話全体を制御する必要がある.例として,気象情報を案内する音声対話システムを考える.システムは,各場所ごとに予報されている気象情報や,現在発表されている警報についてのデータをシステム知識として保有している.今,ユーザが神奈川県に大雨警報が発表されているかどうか尋ねているとシステムが理解した状況を想定する.また,どこにも警報が発表されていない,あるいは,警報が発表されている場所は少数であるという知識をシステムが保有しているとする.このとき,ユーザが関心のある場所が神奈川県であることや,警報の種別が大雨であるといった項目は確認する必要がない.なぜなら,システムは,ユーザ要求内容に含まれる場所や警報の種別が何であるかということを識別するに足るほど詳しい情報を保有しておらず,場所や警報の種別についての確認なしでも,システム応答の長さはほとんど同じであり,対話全体の長さが増大することもないからである.また,システムが認識している神奈川県,大雨といった項目は認識誤りかもしれず,それらの項目を確認すると,ユーザの訂正発話を招き,対話が不必要に長くなる危険性が高い.音声対話システムとユーザの間で効率的な対話を実現するための対話制御法について盛んに研究が進められている\cite{Chu:00,LPE:98,Niimi:96,LKSM:00,RPT:00}.これらの従来法は,音声認識結果の信頼度,音声認識率,システム理解状態といった情報を利用して,確認対話の長さを削減することに注目している.しかし,確認対話に続くシステム応答の長さを含めて対話全体を効率的に実施することは行っておらず,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合に,著しく無駄な対話を行ってしまうという問題点がある.従来法の中には,強化学習を利用して最適な対話戦略を学習するという方法がある~\cite{LPE:98,LKSM:00,RPT:00}.これらの従来方法では,対話戦略の効率性を評価するための報酬関数あるいはコスト関数を定義し,システムとユーザの間の多くの対話例を使って,報酬関数を最大化あるいはコスト関数を最小化するような対話戦略が学習される.しかし,これらの従来法はシステムが対話時点で保有する知識の範囲が対話の効率性に対して及ぼす影響を報酬関数やコスト関数に組み入れてはいない.したがって,強化学習に基づく従来法によって学習される対話戦略を使っても,本稿で問題としているような無駄な対話を避けることはできない.ユーザ発話内容が曖昧なときに,ユーザ発話内容の曖昧さを解消してもシステム応答が同一で変化しないなら,ユーザ発話内容の曖昧さを解消せずに応答を生成するという方法が提案されている~\cite{Ardissono:96,RasZuk:94,vBkCoh:91}.これらの従来法は,システム応答の同一性が保証されていない場合には適用できないという問題がある.また,音声認識誤りにより発生する余分な対話については考慮されていない.そこで,本稿では,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合であっても,無駄な確認を避けて効率的な対話を実施することを目的とした方法として,デュアルコスト法とよぶ対話制御法を提案する.デュアルコスト法では,確認対話の長さを表す確認コストと,確認対話後のシステム応答の長さを表す情報伝達コストという2つのコストを導入し,確認コストと情報伝達コストの和を最小化するように対話を制御する.音声認識が誤っていると,余分な確認を行わないといけないことを反映して,確認コストは音声認識率に依存する.情報伝達コストはシステムが対話時点で保有する知識の内容に依存する.確認コストと情報伝達コストという2種類のコストを導入するのは,対話全体を効率的に実施するためには,確認対話の長さだけでなく,システム応答の長さを考慮する必要があるためである.すなわち,確認対話に手間をかければかけるほど対話全体を効率的に実施できるというわけではなく,ユーザ要求内容確定のための手間は,システム応答の長さとのバランスによって決める必要があるということである.この2つのコストの和を最小化することにより,システム知識の内容に応じて,無駄な確認を避け,対話全体を効率的に実施することが可能となる.この提案方法は,システム応答の同一性が保証されない場合であっても,情報伝達コストの増大が確認コストの減少に見合う範囲内であれば,ユーザ発話理解結果の一部を確認しないという方法であり,従来方法~\cite{Ardissono:96,RasZuk:94,vBkCoh:91}を一般化したものとなっている.また,デュアルコスト法とユーザ要求内容のすべてを逐一確認する従来方法を対話の効率性の観点から比較したシミュレーション対話実験の結果を示し,デュアルコスト法が従来法よりも効率的に対話を実施できることを論じる.
\section{音声対話システムの対話制御}
\label{sec-system}\begin{figure}[t]\begin{center}\atari(130,42.7)\end{center}\caption{音声対話システムの構成}\label{fig-system}\end{figure}ここで想定している音声対話システムの構成を図~\ref{fig-system}に示す.システムは,音声理解,発話生成,対話制御を行う各モジュールとデータベースから構成される.データベースの内容は一定ではなく,日々内容が更新されるようなタスクを想定する.音声理解モジュールはユーザ音声からユーザ発話内容を理解し,理解した結果はシステム理解状態として保持される.対話制御モジュールは,以下に述べるように,システム理解状態と現在のデータベースの内容に基づいて,システム行動を決定する.発話生成モジュールは,対話制御モジュールの決定にしたがって,システム応答の言語表現を生成し,音声として出力する.音声対話システムとユーザの対話は,ユーザ要求確定フェーズとシステム情報伝達フェーズという2つの対話フェーズの間を移行しながら進行する.ユーザ要求確定フェーズにおいて,ユーザはシステムに対する要求を音声によって伝える.システムとユーザは確認対話を通してユーザ要求内容を確定する.ユーザ要求内容を確定した後,対話はシステム情報伝達フェーズに移行し,確定したユーザ要求にしたがって情報を伝達するためのシステム応答が生成される.システム理解状態は,3つ組$<$属性,値,確定フラグ$>$の集合として保持される.ユーザ要求タイプの種類と属性の全体集合はタスクごとに決まっている.各ユーザ要求タイプについて,ユーザ要求の内容として含むことができる属性と,各属性がとりうる値の範囲が決まっている.各ユーザ要求タイプについて,ユーザ要求内容として含むことができる属性を有効な属性,値としてとりうる属性値を有効な属性値とよぶ.有効でない属性,属性値を無効な属性,属性値とよぶ.確定フラグは,属性の値が確認対話により確定するまで「未」という値をとり,確認対話により確定されると「済」という値をとる.ユーザ要求確定フェーズでは,システム理解状態にしたがって,確認行動,情報要求行動のいずれかのシステム行動を行う.確認行動とは,システム理解状態において値が与えられている属性について,ユーザに対して属性値を確認する発話(確認発話)を行い,「はい」といったユーザの肯定的な発話(承認発話)によって属性値が確定されるまで,その属性の値の確認を繰り返すという行動である.ユーザは,承認発話以外に,システムの確認内容を訂正する発話(訂正発話)を行うことができる.情報要求行動とは,システム理解状態において値が与えられていない属性について,ユーザに対して属性の値を要求する発話(情報要求発話)を行い,その後,その属性についての確認行動を実施するという行動である.すなわち,情報要求行動とは一つの情報要求発話に続く確認発話の繰り返しである.ユーザ要求確定フェーズにおいて,ユーザ要求タイプが一意に決定されており,その時点で確定しているユーザ要求内容にしたがってシステム応答を生成することが適切であると判断されると,システム情報伝達フェーズに移行する.システム情報伝達フェーズにおいて,確定済みのユーザ要求内容に応じて情報をユーザに伝達するためにシステム応答を生成するという行動を情報伝達行動と呼ぶ.対話制御とは,対話の各時点において,対話を効率的に実施するという観点から最適なシステム行動を決定することである.システム行動としては,確認行動,情報要求行動,情報伝達行動がある.情報伝達行動を選択するということは,ユーザ要求確定フェーズからシステム情報伝達フェーズへの移行を決定することと同等である.\begin{table}\begin{center}\begin{tabular}{|l||c|c|c|c|}\hline&\multicolumn{4}{|c|}{\bf属性}\\\cline{2-5}\multicolumn{1}{|l||}{\bfユーザ要求タイプ}&\multicolumn{1}{c|}{場所}&\multicolumn{1}{c|}{日}&\multicolumn{1}{c|}{警報種別}&\multicolumn{1}{c|}{情報種別}\\\hline天気問い合わせ&◯&◯&×&\multicolumn{1}{l|}{◯(値は天気のみ)}\\\hline気温問い合わせ&◯&◯&×&\multicolumn{1}{l|}{◯(値は気温のみ)}\\\hline降水確率問い合わせ&◯&◯&×&\multicolumn{1}{l|}{◯(値は降水確率のみ)}\\\hline警報問い合わせ&◯&×&◯&\multicolumn{1}{l|}{◯(値は警報のみ)}\\\hline\end{tabular}\end{center}\caption{天気情報案内タスクにおけるユーザ要求タイプと属性の関係}\label{tab-task}\end{table}本稿では気象情報案内を行う音声対話システムを想定する.ユーザ要求タイプとして,警報問い合わせ,天気問い合わせ,気温問い合わせ,降水確率問い合わせの4種類のユーザ要求タイプを考える.属性の全体集合は,場所,日,警報種別,情報種別の4つの属性から成る集合である.ユーザ要求タイプと属性との間の関係を表~\ref{tab-task}に示す.各ユーザ要求タイプについて,有効な属性を◯,無効な属性を×で示している.場所属性は,どのユーザ要求タイプでも有効な属性であり,特定の場所の名前を値としてとる.日属性は,ユーザ要求タイプが天気,気温,降水確率の問い合わせであるなら,今日か明日という値をとる.警報問い合わせでは,日属性は無効な属性である.警報種別属性は,大雨,洪水といった値をとり,天気問い合わせ,気温問い合わせ,降水確率問い合わせの各ユーザ要求タイプにとっては無効な属性である.情報種別属性は,ユーザ要求タイプに応じて,警報,天気,気温,降水確率という値をとる.警報という属性値は,ユーザ要求タイプが警報問い合わせであるときにのみ有効であり,他のユーザ要求タイプでは無効である.天気,気温,降水確率という属性値についても,同様である.たとえば,ユーザ要求確定フェーズにおいて,ユーザが神奈川県という場所を指定したとシステムが理解したという状況を想定すると,システム理解状態は次のようになる.$${\bfS_{1}}=\{<場所,神奈川県,未>\}$$ここで,システムがとりうる行動として,場所属性についての確認行動と,情報種別属性についての情報要求行動を考える.まず,場所属性についての確認行動をとるとすると,システムは「神奈川県ですか?」といった確認発話を行う.システムは,ユーザが肯定的な応答で承認したとシステムが認識するまで,場所属性の値の確認を続ける.${\bfS_{1}}$におけるシステム確認発話「神奈川県ですか?」に対して,ユーザが肯定発話で応じたとき,システム理解状態は次のようになる.$${\bfS_{2}}=\{<場所,神奈川県,済>\}$$あるいは,${\bfS_{1}}$において,情報種別属性についての情報要求行動をとるとすると,システムは「お尋ねの情報種別は何ですか?」,「天気についてお尋ねですか?」といった情報要求発話を行う.ユーザは情報種別属性の値を伝達する.その後,システムは確認発話によって情報種別属性の値を確定していく.ユーザが知りたい情報種別が警報であったとすると,情報要求行動が完了したときのシステム理解状態は次のようになる.$${\bfS_{3}}=\{<場所,神奈川県,未>,<情報種別,警報,済>\}$$
\section{デュアルコスト法}
\label{sec-dualcost}\subsection{対話コスト}\label{sec-cost-intro}デュアルコスト法は,対話の効率を確認コストと情報伝達コストの和として計量し,2つのコストの和を最小化することにより,対話を制御する方法である.確認コストと情報伝達コストの和を対話コストと呼ぶ.確認コストはユーザ要求確定フェーズにおける確認対話の長さの期待値と定義し,情報伝達コストはシステム情報伝達フェーズにおけるシステム応答の長さの期待値と定義する.確認コスト,情報伝達コストという2種類のコストを導入するのは,できるだけ短い対話で,ユーザが必要とする情報を伝達するためには,確認対話の長さだけでなく,それに続くシステム応答の長さも考慮する必要があるためである.たとえば,ユーザ要求タイプが警報問い合わせであり,現在のデータベースの内容が,多くの場所に警報が発表されているという内容である場合を想定する.この場合,ユーザが関心のある場所について確認対話を行わないとすると,システム応答が極端に長くなってしまう.ユーザが関心のある場所を確定することによって,対話全体を短くすることができるので,場所についての確認は行う価値があると言える.しかし,どこにも警報が発表されていない,あるいは,ごく少数の場所にしか警報が発表されていないというデータベースの内容である場合には,場所の確認を行わなくても,システム応答が極端に長くなることはなく,むしろ場所の確認を行わないことで,対話全体を短く済ますことができる可能性がある.このように,システムのデータベースの内容に応じて,最も短い対話でユーザが要求する情報を伝達するためには,確認コストという確認対話の長さの期待値と情報伝達コストというシステム応答の長さの期待値の双方を考慮する必要がある.\subsection{処理の流れ}\label{sec-procedure}デュアルコスト法の対話制御手順を説明する.\begin{description}\item[(Step1)]ユーザ要求確定フェーズにおいて,現時点のシステム理解状態で確定済となっている属性値が無効となるようなユーザ要求タイプを排除することにより,現時点で可能なユーザ要求タイプを導き出す.可能なユーザ要求タイプごとに,可能な対話プランをすべて生成する.対話プランとは,\ref{sec-plan}節で説明するように,ユーザ要求内容を確定するために確認行動と情報要求行動を繰り返し,その後,確定されたユーザ要求内容にしたがって情報伝達行動を実行するという一連の手順を記述したものである.\item[(Step2)]ユーザ要求タイプごとに,各対話プランの確認コストと情報伝達コストを計算し,対話コスト(確認コストと情報伝達コストの和)が最小となるような対話プランを選択する.そのプランを各ユーザ要求タイプの最適プランと呼び,最適プランの対話コストを各ユーザ要求タイプの最適コストと呼ぶ.\end{description}ここで,ユーザ要求タイプが一意に決まっている場合には,その最適プランにしたがって,システム行動を選択すればよい.問題となるのは,現在のシステム理解状態からはユーザ要求タイプが曖昧で一意に決めることができない場合である.この場合に対処するために,システム行動の損失という概念を導入する.一つのユーザ要求タイプを仮定するとき,システム行動の損失とは,その行動をとったがゆえに,ユーザ要求タイプの最適コストと比較して余計に費すことになるコストであると定義する.その行動が最適プランに沿ったものであるならば,損失は$0$であるが,さもなければ,損失は正値をとる.損失という概念を用いて,次の手順に進む.\begin{description}\item[(Step3)]現時点で実行可能なシステム行動をすべて生成し,ユーザ要求タイプごとに各システム行動の損失を計算する.\item[(Step4)]ユーザ要求タイプの確率分布に基づいて,各システム行動の損失の期待値を計算する.損失の期待値を期待損失とよぶ.最小の期待損失をもつシステム行動を選択する.\item[(Step5)]選択されたシステム行動を実行し,ユーザからの応答を待って,システム理解状態を更新する.\item[(Step6)]ユーザ要求タイプが一意に決まっており,これ以上システム行動を実施しても対話コストが下がらないなら,システム情報伝達フェーズに移行する.さもなければ,{\bf(Step1)}に戻る.\end{description}以下においては,例として,ユーザが場所属性を神奈川県と指定したとシステムが認識したという状況を考える.この状況は,ユーザが「神奈川県」とだけ発話したとシステムが認識した場合に相当する.システム理解状態は,\ref{sec-system}節で示した${\bfS_{1}}$によって表される.${\bfS_{1}}$から導き出されるユーザ要求タイプは曖昧であり,警報問い合わせ,天気問い合わせ,気温問い合わせ,降水確率問い合わせの4つの要求タイプが導き出される.また,システム知識の内容は,どの場所にも警報は発表されていないという内容であるとする.\subsection{対話プランの生成}\label{sec-plan}システムの対話プランとは,確認行動と情報要求行動の任意回の繰り返しと,それに続く一つの情報伝達行動から成る.{\bf(Step1)}では,現在のシステム理解状態から可能なユーザ要求タイプを導出した後,ユーザ要求タイプの各々について,可能な対話プランを網羅的に生成する.そのために,まず,各ユーザ要求タイプについて有効な属性を選びだし,有効な属性の中で既に値が確定したものを除いた残りの属性に注目する.それらの属性すべての値を確定するための対話プランとして,次の条件を満たす確認行動,情報要求行動,情報伝達行動から成るプランを網羅的に生成する.ただし,一つのプランの中で,一つの属性が異なる確認行動や情報要求行動の対象になることはないものとする.\begin{itemize}\item[(a)]システム理解状態で値が与えられている属性の部分集合${\bfA}$について,${\bfA}$に含まれるすべての属性の値を確定するための確認行動.\item[(b)]システム理解状態で値が与えられていない1つの属性について,その属性の値を確定するための情報要求行動.\item[(c)]プランに含まれるすべての確認行動と情報要求行動によってユーザ要求内容が確定したと仮定したときに,確定した要求内容に応じてユーザに対し情報を伝達するための情報伝達行動.\end{itemize}本稿では,属性を確認する順序によって確認コストは変わらないと仮定する.したがって,プランの中の確認行動と情報伝達行動の順序を入れ換えても確認コストは変わらない.情報伝達行動の生成は,ユーザ要求内容が確定したと仮定した上で,データベースを検索し,ユーザ要求内容に対するシステム応答内容を仮想的に生成することによって行う.例として,システム理解状態${\bfS_{1}}$の下での対話プランについて考える.まず,ユーザ要求タイプが警報問い合わせの場合を想定する.可能な対話プランは多数あるが,簡単のため,情報種別を確認してから応答を行うプラン$Plan_{1}$と,場所と情報種別を確認してから応答を行うプラン$Plan_{2}$に注目する.2つのプランは次のように表記される.$A_{1}\RightarrowA_{2}$は,行動$A_{1}$に続いて行動$A_{2}$を実行することを意味する.\begin{description}\item[$Plan_{1}$]:=$(Act_{1}\RightarrowRes_{1})$\item[$Plan_{2}$]:=$(Act_{2}\RightarrowAct_{1}\RightarrowRes_{2})$\end{description}\noindentただし,\begin{description}\item[$Act_{1}$]:=情報種別属性についての情報要求行動\item[$Act_{2}$]:=場所属性についての確認行動\item[$Res_{1}$]:=どこにも警報が発表されていないことを伝達するための情報伝達行動.\item[$Res_{2}$]:=確定された場所には警報が発表されていないことを伝達するための情報伝達行動.\end{description}ユーザ要求タイプが天気問い合わせ,気温問い合わせ,降水確率問い合わせの場合に,次の対話プランを考える.\begin{description}\item[$Plan_{3}$]:=$(Act_{2}\RightarrowAct_{1}\RightarrowAct_{3}\RightarrowRes_{3})$,\end{description}\noindentただし,\begin{description}\item[$Act_{3}$]:=日属性についての情報要求行動.\item[$Res_{3}$]:=確定された場所,日における天気(あるいは,気温,降水確率)を伝達するための情報伝達行動.\end{description}\subsection{対話コストの計算}\label{sec-cost}確認コストを計算するために,まず,一つの確認行動あるいは情報要求行動が完了するまでに要するターン数の期待値について考える.一つのターンは,システムの確認発話(例:「神奈川県ですか?」)あるいは情報要求発話(例:「いつですか?」)と,ユーザの訂正発話(例:「香川県です」)あるいは承認発話(例:「はい」)から成るとする.システムが各属性の値を正しく認識する確率を属性認識率とよぶ.属性認識率は$0$よりも大きく,$1$よりも小さな値であり,前もって与えられていることを前提とする.また,属性の集合が与えられるとき,その集合に含まれるすべての属性の値を一度に正しく認識する確率を属性集合の認識率とび,各属性の属性認識率の積として計算できるものとする.また,システムはユーザの承認発話を常に正しく認識できるものと仮定する.属性の集合が与えられるとき,その集合に含まれるすべての属性の値を確定するための確認行動について考える.システムとユーザの対話は,システムがすべての属性値を一度に提示することにより確認発話を行い,システムが提示した属性の値が一つでも誤っているなら,ユーザはすべての属性値を提示することにより訂正発話を行うというターンを繰り返していき,システムの提示する属性値がすべて正しければ,ユーザは承認発話を行い,そこで確認行動が完了するという動作系列であると仮定する.属性集合の認識率を$p$とするとき,確認行動が完了するまでのターン数の期待値は,次の式で与えられる\cite{YDK:01}\footnote{式の導出過程は付録で説明する.}.\begin{equation}\label{turnc-label}TURN_{c}=\sum_{i=1}^{\infty}i(1-p)^{(i-1)}p=\frac{1}{p}\end{equation}情報要求行動は,属性の値が与えられていないときに,最初に情報要求発話を1回行い,その後は確認行動と同じ動作系列をとる.したがって,情報要求行動が完了するまでのターン数の期待値は,次の式で与えられる.\begin{equation}TURN_{d}=1+TURN_{c}=1+\frac{1}{p}\end{equation}次に,確認行動,情報要求行動の長さについて考える.各行動の長さは,行動を遂行するために要する各ターンに含まれるシステム発話とユーザ発話の長さの和である.ここでは,確認発話,情報要求発話,訂正発話においては,一つの属性が一つの名詞句として実現されると仮定し,発話の長さを発話に含まれる名詞句の延べ数と定義する.また,承認発話は,1個の肯定的な応答表現(例:「はい」)によって実現されると仮定し,その長さを1と定義する.まず,確認行動の長さについて考える.確認すべき属性の数を$m$個とすると,システム確認発話,ユーザの訂正発話においては,常にすべての属性値が言及されると仮定しているので,最後の1回を除くターンには,長さ$m$のシステム確認発話,長さ$m$のユーザ訂正発話が含まれ,最後1回のターンには,長さ$m$のシステム確認発話,長さ$1$のユーザ承認発話が含まれることになる.したがって,一つの確認行動の長さは,次の式で定義される.\begin{equation}LEN_{c}=2m(TURN_{c}-1)+m+1=\frac{2m}{p}-m+1\end{equation}次に,一つの情報要求行動の長さは,次の式で定義される.\begin{equation}LEN_{d}=2m(TURN_{d}-1)+m+1=\frac{2m}{p}+m+1\end{equation}確認行動と情報要求行動の長さの定義に基づいて,対話プランの確認コストは,対話プランに含まれるすべての確認行動と情報伝達行動の長さの和と定義する.次に,情報伝達コストの算出について説明する.情報伝達コストは,情報伝達行動を実施するために生成されるシステム応答の長さの期待値であるとする.システム応答の長さは,応答に含まれる内容語の延べ数の期待値であると定義する.たとえば,情報伝達行動が「警報はどこにも発表されていない」というシステム応答として実行されるなら,内容語として,「警報」,「どこにも」,「発表されていない」の3つの内容語を含むので,情報伝達コストは3となる.対話プランによっては,確認行動や情報要求行動によって確定される属性の値が複数通りあり,対話を実際に行ってみないことには値が決まらず,情報伝達行動として生成されるシステム応答も一意に決まらないという場合がある.こういった場合には,属性がとりうる値の生起確率は等確率であると仮定した上で,すべての値の組合せを考慮したときのシステム応答の長さの期待値が情報伝達コストであると定義する.たとえば,プラン$Plan_{3}$では,場所属性,日属性の値は,実際に対話を行ってみないと決まらない.$Plan_{3}$の情報伝達コストは,場所属性,日属性のとりえる値のすべての組合せを考慮したときのシステム応答の長さの期待値となる.\subsection{最適な対話プランの決定}{\bf(Step2)}では,\ref{sec-cost}節で説明したコスト計算方法にしたがって,各対話プランの対話コストが計算される.今取り上げている例において,ユーザ要求タイプが警報問い合わせである場合を考える.各属性の認識率は0.8であるとする.$Plan_{1}$の確認コストは,$Act_{1}$の長さと等しい.$LEN_{d}$によって,確認コストは,$2/0.8+1+1=4.5$となる.$Res_{1}$は,「どこにも警報は発表されていない」という応答文で実行されると仮定する.情報伝達コストは3となる.したがって,$Plan_{1}$の対話コストは$7.5$となる.$Plan_{2}$の確認コストは,$Act_{2}$と$Act_{1}$の長さの和である.$Act_{1}$の長さは$2/0.8+1+1=4.5$,$Act_{2}$の長さは$2/0.8-1+1=2.5$であるので,確認コストは$7$となる.確認行動によって確定する場所属性の値を$v$とするとき,$Res_{2}$は「$v$には警報は発表されていません」という応答文で実行されると仮定する.情報伝達コストは$3$となる.したがって,$Plan_{2}$の対話コストは$10$となる.結局,最適プランは$Plan_{1}$であり,最適コストは$7.5$である.次に,ユーザ要求タイプが天気問い合わせである場合を考える.ここでは,簡単のため,$Plan_{3}$が最適プランであると仮定する.これは,天気問い合わせの場合は,場所や日が未定であると,すべての場所や日についての天気情報を伝達しなければならず,情報伝達コストが極端に増大すると考えるのが自然であるからである.また,属性を確認する順序によって確認コストは変わらないと仮定しているので,$Plan_{3}$に含まれる確認行動,情報伝達行動の順序を入れ換えたプランも最適プランとなる.最適プラン$Plan_{3}$の確認コストは,$2.5+4.5+4.5=11.5$となる.応答文は「晴れです」といった文であると仮定する.情報伝達コストは$1$となる.したがって,最適コストは$12.5$となる.同様に,気温問い合わせ,降水確率問い合わせの場合も,最適プランは$Plan_{3}$と$Plan_{3}$に含まれる確認行動と情報伝達行動の順序を入れ換えた対話プランであると考える.なお,ここでは,簡単のため$Plan_{3}$が最適プランであると仮定しているが,システムのデータベースに登録されている場所の数が少ない場合には,場所属性についての確認を行わないで,すべての場所の天気情報をユーザに対し伝達するという対話プランが最適プランになることもありえる.\subsection{システム行動の選択}{\bf(Step3)}では,各ユーザ要求タイプごとにシステム行動の損失が計算される.システム行動$Act$の損失を計算するためには,まず,システム行動$Act$を含むような対話プランで,最小の対話コストをもつプランが探索される.そのプランをシステム行動$Act$のための準最適プランとよび,その対話コストを準最適コストとよぶ.システム行動$Act$の損失は最適コストと準最適コストの差であると定義する.例として,$Act_{1}$と$Act_{2}$の2つの行動に注目する.警報問い合わせに関して,$Act_{1}$の準最適プランは,最適プラン$Plan_{1}$に等しく,$Act_{1}$の損失は0である.$Act_{2}$の準最適プランが$Plan_{2}$であるとすると,$Act_{2}$の損失は$10-7.5=2.5$となる.天気問い合わせ,気温問い合わせ,降水確率問い合わせに関しては,最適プラン$Plan_{3}$の中に$Act_{1}$,$Act_{2}$が含まれているので,$Act_{1}$,$Act_{2}$の損失はいずれも0となる.次に,{\bf(Step4)}において期待損失が計算される.今取り上げている例では,ユーザ要求タイプの確率分布によらず,$Act_{1}$の期待損失は0であり,$Act_{2}$の期待損失は正値をとるので,$Act_{1}$が次のシステム行動として選択される.すなわち,ユーザが「神奈川県」といった発話を行ったとシステムが認識した場合には,対話全体を効率的に進めるという観点からは,「神奈川県ですか?」と場所の確認をするのではなく,「どういった情報をお尋ねですか?」,「天気についてお尋ねですか?」といった情報種別を要求する発話を行うことが望ましい.さらに複雑な例においては,期待損失を計算するためにユーザ要求タイプの確率分布が必要となる.ここでは,ユーザ要求タイプのシステム理解状態に対する適切度\cite{YDK:01}という概念に基づいて,ユーザ要求タイプの確率分布を近似的に求める.現在のシステム理解状態において,各属性$attr_{i}\(i=1,...,n)$が値$v_{i}$をとっており,各属性の属性認識率は$r_{i}$であるとする.このシステム理解状態から導かれる可能なユーザ要求タイプが$REQ_{j}\(j=1,...,m)$であるとする.このとき,ユーザ要求タイプ$REQ_{j}$として有効な属性の個数を$N_{REQ_{j}}$,属性値$v_{i}$が有効となるようなユーザ要求タイプの個数を$M_{v_{i}}$とするとき,ユーザ要求タイプ$REQ_{j}$の現在のシステム理解状態に対する適切度$Relevance(REQ_{j})$を次のように定義する.\begin{equation}Relevance(REQ_{j})=\frac{1}{N_{REQ_{j}}}\sum_{i=1}^{n}\frac{r_{i}}{M_{v_{i}}}\end{equation}デュアルコスト法は,各ユーザ要求タイプの適切度を正規化したものをユーザ要求タイプの確率分布として用いている.例として取り上げているシステム理解状態${\bfS_{1}}$では,各ユーザ要求タイプの確率は等確率で$0.25$となる.したがって,$Act_{1}$の期待損失は$0$,$Act_{2}$の期待損失は$2.5\times0.25=0.63$となる.
\section{評価}
\label{sec-experiment}システムと模擬ユーザとの間のシミュレーション対話実験によって,デュアルコスト法の評価を行った.模擬ユーザとは,実ユーザの振舞をシミュレートしながらシステムと対話するエージェントである.各対話の初期時点において,模擬ユーザはシステムに対する要求内容を保持している.ユーザはシステムに要求内容を伝え,ユーザとシステムは確認対話を通して要求内容を確定する.要求内容が確定すると,システムは確定したユーザ要求内容に応じたデータをユーザに伝達する.システムと模擬ユーザは,音声で対話するのではなく,発話内容を属性と値の対のリストとして表現した上で、属性と値の対のリストをやり取りすることによって対話を行う.ユーザの発話内容をシステムに送るときには,属性認識率に応じて属性値に誤りが含まれるように,システムの音声認識誤りをシミュレートした.実験で用いたタスクは,\ref{sec-system}節で述べた気象情報案内タスクである.場所は50個の都市,日は今日か明日の2通りである.警報種別としては,洪水,大雨など10個の種別がある.システムは,データベースの中に,各都市の今日,明日の天気,最高気温と最低気温,6時間ごとの降水確率のデータを保持している.また,警報については,現在どこにも警報は発表されていないということをデータとして保持している.このデータベースの内容の場合,警報の問い合わせに関しては,情報種別だけを確認することが,最適な対話プランとなる.天気,気温,降水確率の問い合わせに関しては,たいていの場合,場所,日,情報種別の属性をすべてを確認することが最適な対話プランとなる.ただし,属性認識率が低い状況においては,日属性の確認を行わずに,今日と明日の両日の気象情報を伝達することが,最適なプランとなる場合もある.これは,属性認識率によっては,日属性の確認をするための確認対話が,一日分の気象情報を伝達するための応答文よりも長くなる場合があるからである.デュアルコスト法と比較するために,システム知識の範囲にかかわらずユーザ要求の内容のすべてを逐一確認する2つの従来方法として,従来法1,従来法2と呼ぶ対話制御方法を用いた.従来法1は,できるだけ多くの属性を一度に確定しようとする方法であり,従来法2は,属性を一つずつ確定する方法である.従来法1は次のように動作する.なお,従来法1,従来法2とデュアルコスト法の違いは,以下に述べる点のみである.\begin{description}\item[(C1-1)]システム理解状態から可能なユーザ要求タイプを導き出す.\item[(C1-2)]システム理解状態において,既に値が与えられている属性があるなら,そういった属性の値をできるだけ多く一度に確定するための確認行動を選択し,{\bf(C1-4)}へ移行する.さもなければ,{\bf(C1-3)}へ移行する.\item[(C1-3)]できだけ多くのユーザ要求タイプで有効となる属性を優先するように,値が与えられていない属性を一つ選択し,その属性のための情報要求行動を選択する.\item[(C1-4)]選択されたシステム行動を実行し,ユーザからの応答を待って,システム理解状態を更新する.\item[(C1-5)]ユーザ要求タイプが一意に決まっており,その要求タイプの属性値がすべて確定しているなら,システム情報伝達フェーズに移行する.さもなければ,{\bf(C1-1)}に戻る.\end{description}従来法2は,従来法1の{\bf(C1-2)}を次の{\bf(C2-2)}に置き換えた方法である.\begin{description}\item[(C2-2)]システム理解状態において,値が既に与えられている属性があるなら,それらの属性の一つを確定するための確認行動を選択し,{\bf(C1-4)}へ移行する.さもなければ,{\bf(C1-3)}へ移行する.\end{description}模擬ユーザの振舞は以下の通りである.\begin{description}\item[(U1)]対話の開始時点で要求内容の一部をシステムに伝える.\item[(U2)]システムの確認発話に対して,訂正発話か承認発話を行う.訂正発話は,システムの確認発話に含まれるすべての属性の値を伝達することによって行う.\item[(U3)]システムの情報要求発話に対して,属性の値を伝達するための発話を行う.\item[(U4)]システムがユーザ要求タイプにとって無効な属性の値を要求してきたならば,システム発話を拒否する.\end{description}{\bf(U4)}は,ユーザ要求タイプが天気問い合わせであるにもかかわらず,システムが警報種別属性の値を要求してくるような場合に相当する.そういった場合,ユーザはシステムの情報要求に応えることができないことを伝えるための発話(拒否発話)を行う.システムは,ユーザの拒否発話を受け取ると,現在の行動をあきらめ,別のシステム行動を選択し,実行する.各方法において別のシステム行動を選択する際の基準を説明する.デュアルコスト法では,損失ができるだけ小さい行動を優先して選択する.従来法1では,{\bf(C1-2)}で選んだ確認行動が拒否されたなら,まだ確認を試みていない属性の組合せのうち,できるだけ多くの属性の値を一度に確定する確認行動を優先して選択し,{\bf(C1-3)}で選んだ情報要求行動が拒否されたなら,まだ情報要求を試みていない属性のうち,できだけ多くのユーザ要求タイプで有効となる属性を優先して選び,その属性のための情報要求行動を選択する.従来法2では,{\bf(C2-2)}で選んだ確認行動が拒否されたなら,値が与えられている別の属性を任意に選び,その属性についての確認行動を選択する.{\bf(C1-3)}で選んだ情報要求行動が拒否された場合は,従来法1と同様である.シミュレーション対話実験では,4つのユーザ要求タイプごとに,ユーザの要求内容をランダムに生成した.各属性の属性認識率を等しく0.5から1.0まで0.005刻みで変化させていった.各認識率において5000回のシミュレーション対話が実施された.3つの対話制御法の性能を対話の効率性の観点から比較した.対話の効率性は,タスクが完了するまでの対話の長さの平均によって評価した.対話の長さは,\ref{sec-cost}節で述べた基準に加えて,模擬ユーザの振舞{\bf(U4)}におけるユーザ拒否発話は簡潔な否定的表現(例:「いいえ」,「分かりません」)として実現されると仮定した上で,拒否発話の長さは1であるという基準にしたがって計算した.\begin{figure}[t]{\begin{center}\atari(76.2,53.3)\end{center}\caption{ユーザ要求タイプが警報問い合わせの場合における属性認識率に応じた対話の長さの平均}\label{p-a-1-graph}}\end{figure}\begin{figure}[t]{\begin{center}\atari(76.2,53.3)\end{center}\caption{ユーザ要求タイプが気温問い合わせの場合における属性認識率に応じた対話の長さの平均}\label{p-a-3-graph}}\end{figure}シミュレーション対話実験の結果を示す.図~\ref{p-a-1-graph}は,ユーザ要求タイプが警報問い合わせの場合における属性の認識率に応じた対話の長さの平均の推移を示しており,図~\ref{p-a-3-graph}は,ユーザ要求タイプが気温問い合わせの場合における属性の認識率に応じた対話の長さの平均の推移を示している.警報問い合わせと気温問い合わせの2例を取り上げたのは,警報問い合わせの場合は,場所属性の確認を回避できるという点で,デュアルコスト法の効果が最も発揮されやすい場合であり,気温問い合わせの場合は,デュアルコストであっても,場所属性,日属性,情報種別属性のすべてを確認しなければならない場合がほとんどであり,デュアルコスト法の効果を発揮することが困難な場合であるからである.両極端な場合を取り上げることにより,デュアルコスト法にとって有利な状況では,デュアルコスト法が実際に効果を上げることができ,そうでない状況であっても,従来法に比べて対話の効率を低下させないことを実証することを目的とする.図\ref{p-a-1-graph}から分かるように,ユーザ要求タイプが警報問い合わせの場合,デュアルコスト法は,従来法1,従来法2と比較して,より効率的に対話を実施できた.警報問い合わせの場合には,警報がどこにも発表されていないというデータベースの内容であるにもかかわらず,場所属性の確認をすると対話が著しく無駄になる場合があるが,デュアルコスト法は,従来法1,従来法2が避けることができない無駄な対話を回避することによって,対話を効率的に実施できたことが分かる.この実験においては,システムは模擬ユーザ発話を正しく認識できるとは限らず,模擬ユーザが警報の問い合わせを行ったとしても,システムは天気,気温,降水確率の問い合わせであると誤認識する場合がある.また,ユーザは対話開始時点において要求内容のすべてを伝えるとは限らない.そのような場合にはシステム理解状態からはユーザ要求タイプを警報問い合わせであると一意に決定することはできないが,デュアルコスト法は,期待損失という概念を活用することによって,対話全体の効率性を向上させるように対話を制御できたことが分かる.図\ref{p-a-3-graph}から分かるように,ユーザ要求タイプが気温問い合わせの場合には,デュアルコスト法による対話の効率性は,従来法2とほぼ同じである.これは,気温問い合わせの場合には,デュアルコスト法であろうと,場所属性,日属性,情報種別属性をすべて確認しなければならない場合がほとんどであるからである.データベースの内容によらずユーザ要求のすべてを逐一確認しなければならないような場合であっても,デュアルコスト法が対話の効率を低下させることはない.このことから,デュアルコスト法は圧倒的に効果を発揮しやすい場合から,効果を発揮することが困難な場合まで,すべての場合で有効であることが言える.なお,図\ref{p-a-1-graph},図\ref{p-a-3-graph}の双方において,属性認識率が低い状況では,従来法1の効率が極端に低い.これは,認識率が低い状況では,できるだけ多くの属性の値を一度に確定するという従来法1の戦略が,模擬ユーザからの多くの訂正発話を引き起こしてしまうため,不利に働くからある.認識率が低い状況では,属性の値を1個ずつ確定するという従来法2の戦略の方が有利に働く.また,図\ref{p-a-3-graph}において,従来法2が,属性認識率が1.0に近づくと,デュアルコスト法より効率が低下していくのは,認識率が高い状況では,複数の属性の値をまとめて確定した方が有利であるにもかかわらず,従来法2が属性の値を常に1個ずつ確定する戦略をとるからである.デュアルコスト法では,一度に値を確定する属性の可能な組合せごとに異なる対話プランを用意し,認識率に応じて自動的に適切なプランを選択することができる.このことにより,デュアルコスト法は,認識率が高い状況では,複数の属性の値を一度に確定する対話プランを選択することになり,従来法2より有利であったと考えることができる.この実験においては,4つの属性から成るタスクを用いたが,属性の数はデュアルコスト法にとっては本質的なことではない.属性の数が多くなっても,ここで用いた気象情報案内タスクのように,データベースの内容が日々更新され,対話時点のデータベースの内容に依存して対話を制御しないことには,短い対話でユーザの必要とする情報を伝達することができないようなタスクであれば,デュアルコスト法は効果を発揮する.
\section{おわりに}
\label{sec-concl}本稿では,音声対話システムが対話時点でデータベース内に保有する知識の制限下でユーザとの間で効率的な対話を実施するための対話制御法として,デュアルコスト法を提案した.デュアルコスト法によって,システムが詳しい情報を保有していない事柄に関して,ユーザが詳細な情報を要求する場合であっても,システムは,現在のデータベースの内容に応じて,短い対話でユーザが必要とする情報を伝達することができる.デュアルコスト法は,対話の各時点において,確認コストと情報伝達コストという2つのコストの和を最小化するという原理に基づいて,システム行動を選択する.このことにより,デュアルコスト法は,対話全体の長さを最小化するように対話を制御し,従来の方法では避けることができなかった無駄な確認を回避しながら、短い対話でユーザの必要とする情報を伝達することができる.また,システムと模擬ユーザの間のシミュレーション対話実験によって,デュアルコスト法が,ユーザ要求内容のすべてを逐一確認する従来法と比較して,より効率的に対話を実施できることを実証した.\acknowledgment日頃よりご指導いただくNTT先端技術総合研究所東倉洋一所長,コミュニケーション科学基礎研究所石井健一郎所長,メディア情報研究部村瀬洋部長,ATRメディア情報科学研究所萩田紀博所長,熱心に討論してくださるNTTコミュニケーション科学基礎研究所メディア情報研究部マルチモーダル対話研究グループの諸氏に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{dohsaka-bib}\section*{付録}\subsection*{ターン数の期待値$TURN_{c}$の導出}ここでは,\ref{sec-cost}節の式(\ref{turnc-label})で示した確認行動が完了するまでのターン数の期待値$TURN_{c}$の導出過程を説明する.確認対話を通して値を確定すべき属性の集合${\bfA}$が与えられている.属性集合${\bfA}$の認識率を$p$($0<p<1$)とする.\ref{sec-cost}節で定義した通り,属性集合${\bfA}$の認識率とは,${\bfA}$に含まれるすべての属性の値を一度に正しく認識できる確率である.また,ユーザの承認発話は常に正しく認識されるものと仮定する.確認対話は,システムの確認発話とそれに続くユーザの承認発話あるいは訂正発話から成るターンが繰り返されることによって進行する.各ターンにおいて,システムとユーザは次のように行動すると仮定する.\begin{description}\item[\bf(システムの確認発話)]システムは,システム理解状態にしたがって,${\bfA}$に含まれるすべての属性の値を提示する.\item[\bf(ユーザの承認発話あるいは訂正発話)]システムが提示した属性値がすべて正しいなら,ユーザは承認発話を行う.さもなければ,ユーザは${\bfA}$に含まれるすべての属性の正しい値を提示することにより,訂正発話を行う.\end{description}ユーザが承認発話を行う場合,システムは承認発話を常に正しく認識すると仮定しているので,その時点で確認対話は終了する.ユーザが訂正発話を行う場合,システム理解状態はユーザ訂正発話の認識結果にしたがって更新され,次のターンが始まる.システムがユーザによって提示された属性値をすべて正しく認識する確率は$p$であるので,確認対話が1ターンで終了する確率は$p$となる.次に,確認対話が2ターンで終了する確率を考える.確認対話が2ターンで終了するということは,1ターン目の冒頭では,システムがいずれかの属性の値を正しく認識できておらず,2ターン目の冒頭では,1ターン目のユーザ訂正発話にしたがって,システムが属性の値をすべて正しく認識していることを意味する.したがって,確認対話が2ターンで終了する確率は$(1-p)p$となる.同様に,3ターンで終了する確率は$(1-p)^{2}p$,$i$ターンで終了する確率は$(1-p)^{(i-1)}p$となる.結局,確認対話が終了までに要するターン数の期待値は,次の式で与えられる.\begin{equation}\label{e1}TURN_{c}=\sum_{i=1}^{\infty}i(1-p)^{(i-1)}p\end{equation}次に,式(\ref{e1})の値が$\frac{1}{p}$となることを導出する.式(\ref{e1})の右辺の$n$項までの和を$S(n)$とおく.\begin{equation}S(n)=\sum_{i=1}^{n}i(1-p)^{(i-1)}p\end{equation}$TURN_{c}$は,$S(n)$を使って,次のように書ける.\begin{equation}\label{e2}TURN_{c}=\lim_{n\rightarrow\infty}S(n)\end{equation}ここで$S(n)-(1-p)S(n)$を計算する.\begin{eqnarray}\lefteqn{S(n)-(1-p)S(n)=}\nonumber\\&p&+2(1-p)p+\cdots+n(1-p)^{(n-1)}p\nonumber\\&&-1(1-p)p-\cdots-(n-1)(1-p)^{(n-1)}p-n(1-p)^{n}p=\nonumber\\\label{e3}&p&+(1-p)p+\cdots+(1-p)^{(n-1)}p-n(1-p)^{n}p\end{eqnarray}式(\ref{e3})の最初のn項の和は,初項$p$,公比$1-p$の等比数列の$n$項までの和であるから,次が導かれる.\begin{equation}S(n)-(1-p)S(n)=\frac{p((1-p)^{n}-1)}{(1-p)-1}-n(1-p)^{n}p\end{equation}辺々を変形すると,\begin{equation}pS(n)=-(1-p)^{n}+1-n(1-p)^{n}p\end{equation}$p$は$0$よりも大きな値を仮定しているので,辺々を$p$で割ると,\begin{equation}\label{e4}S(n)=-\frac{(1-p)^{n}}{p}+\frac{1}{p}-n(1-p)^{n}\end{equation}$p$は$1$よりも小さな値であることを仮定しているので,式(\ref{e4})の右辺の第1項と第3項は,$n$を無限大に近づけると,$0$に収束する.したがって,式(\ref{e2}),(\ref{e4})より,次を得る.\begin{equation}TURN_{c}=\lim_{n\rightarrow\infty}S(n)=\frac{1}{p}\end{equation}\begin{biography}\biotitle{略歴}\bioauthor{堂坂浩二}{1984年大阪大学基礎工学部情報工学科卒業.1986年同大学院博士前期課程了.同年,日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所勤務.音声対話システム,言語生成,文脈理解の研究に従事.情報処理学会平成9年度論文賞受賞.言語処理学会,ACL,情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{安田宜仁}{1997年京都大学総合人間学部基礎科学科卒業.1999年同大学院人間・環境学研究科修士課程了.同年,日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所勤務.音声対話システムの研究に従事.}\bioauthor{相川清明}{1975年東京大学工学部電子工学科卒業.1980年同大学院博士課程了.工学博士.同年,日本電信電話公社武蔵野電気通信研究所入所.現在,NTTコミュニケーション科学基礎研究所勤務.連続音声認識,聴覚モデル,ニューラルネット,音声対話システムの研究に従事.1997年テレコムシステム技術賞,日本音響学会佐藤論文賞受賞.IEEE,ASA,日本音響学会,電子情報通信学会,情報処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V12N03-03
|
\section{はじめに}
近年のWroldWideWeb(WWW)の急速な普及により,世界中から発信された膨大な電子化文書へのアクセスが可能になった.しかしながら,そのような膨大な情報源から,必要な情報のみを的確に得ることは困難を極める.的確な情報を得るために,テキストを対象とした文書分類や情報の抽出などの様々な技術が注目され,研究されている.しかしながら,Web上に存在するのはテキスト情報だけではなく,表や画像など様々な表現形式が使用されている.ここで,表形式で記述された情報について着目する.従来の情報検索システムなどでは,表はテキストとして扱われることが多かった.表は属性と属性値によって構造化された情報であり,その特性を考えると,表をテキストとして扱うのではなく,テキスト部分と切り離し,表として認識し,利用することが情報検索システムなどの精度向上に繋がる.また表は情報間の関係を記述するのに適した表現形式であり,Web上に存在する文書から表を抽出することは,WebMiningや質疑応答システム,要約処理などのための重要なタスクの一つである\cite[など]{hurst,itai,pinto,shimada2,wang}.本稿では,電子化された情報の一つである,製品のスペック情報の抽出について議論する.一般に,パソコンやデジタルカメラ,プリンタなどの製品の機能や装備などのスペック情報は表形式で記述される.本稿ではこれらの表形式で記述されたスペック情報を性能表と呼ぶことにする.その例を図\ref{spec}に示す.性能表を扱う理由としては,\begin{itemize}\itemポータルサイトの存在\\現在,Web上には,数多くの製品情報に関するポータルサイトやオンラインショッピングサイトが存在する\footnote{価格.com(\verb+http://www.kakaku.com/+)やYahoo!Shopping(\verb+http://shopping.yahoo.co.jp/+)など.}.これらのサイトで,ユーザが製品を比較する際に最も重要な情報の一つが性能表である.多くの製品は頻繁に最新機種が発表され,その度に性能表を人手で収集するのはコストがかかる.膨大なWebページの中から製品のスペック情報を的確に抽出することは,そのようなポータルサイトの自動構築のために大きな意義を持つ.\item製品情報のデータベース化\\性能表は表形式で記述されているので,表領域が正しく特定されれば,属性と属性値の切り分けや対応付けなどの解析が比較的容易で,製品データベースの自動獲得が可能になる.これらのデータを利用し,ユーザの要求に合致した製品を選択するシステムなどの構築が可能になる\cite{shimada4}.\end{itemize}などが挙げられる.\begin{figure}\begin{center}\epsfile{file=base.eps,height=14.0cm}\end{center}\caption{パソコンの性能表の例}\label{spec}\end{figure}Web上での表の記述に関しては,いくつか問題点がある.その一つが,\verb+<+TABLE\verb+>+タグの一般的な使用方法である.Web上の表はHTMLの\verb+<+TABLE\verb+>+タグを用いて記述されるが,\verb+<+TABLE\verb+>+タグは表を記述する以外にも,レイアウトを整えたりする場合に頻繁に用いられる.ある特定の領域においては,\verb+<+TABLE\verb+>+の70\%がレイアウト目的で使われているとの報告もある\cite{chen}.そのため,HTML文書中の\verb+<+TABLE\verb+>+タグが表なのか,それとも他の目的で使用されているのかを判別する必要がある.また,実際のWeb文書では,\verb+<+TABLE\verb+>+の入れ子構造が頻繁に見られる.性能表抽出のタスクでは,入れ子構造になった\verb+<+TABLE\verb+>+の中で,どこまでが性能表を表しているかという表領域を特定する必要がある.提案手法では,(1)フィルタリング,(2)表領域抽出,の2つのプロセスによってWeb文書群から性能表を獲得することを試みる.処理の流れを図\ref{outline}に示す.ここで,フィルタリングとは,製品メーカのサイトからHTMLダウンローダで獲得したWeb文書群を対象とし,その中から性能表を含む文書を抽出することを指す.フィルタリング処理では,文書分類などのタスクで高い精度を収めているSupportVectorMachines(SVM)を用いる.また,少ない訓練データでもSVMと比較して高い精度を得ることができるといわれているTransductiveSVM(TSVM)とSVMを比較する.一方,表領域抽出とは,フィルタリング処理で得られた文書中から,性能表の領域のみを抽出することを意味する.表領域抽出処理では,フィルタリングの際にSVMおよびTSVMのための素性として選ばれた語をキーワードとし,それらを基に表領域を特定する.以下では,まず,2節で,本稿で扱う性能表抽出のタスクに最も関連のある表認識などの関連研究について説明する.3節では,フィルタリングに用いるSVMとTSVMについて述べ,学習に用いる素性選択の手法について説明する.続いて,4節で,各Web文書から表領域を特定する手法について述べ,5節で提案手法の有効性を検証し,6節でまとめる.\begin{figure}\begin{center}\epsfile{file=outline.eps}\end{center}\vspace{-3mm}\caption{処理の概要}\label{outline}\end{figure}
\section{関連研究}
本節では,本稿で扱う性能表抽出のタスクに最も関連のある表認識・抽出などについての先行研究について述べる.表やレイアウト構造を持つ文書からの構造解析および情報抽出に関する研究は,古くからなされている.しかしながら,従来の研究では,画像中の表領域の認識,箇条書きやプレインテキストで書かれた表の認識などが主な研究対象だった\cite[など]{hu,kawai,ng,pinto,sato}.一方で,近年,HTMLで記述された文書を対象とした表認識や表抽出に関する研究がなされている.Chenら\cite{chen}は,HTML文書中の表の認識手法について提案したが,表認識のためのルールが人手で作成されており,汎用性や拡張性に問題がある.Itaiら\cite{itai}は,表を対象としたHTML文書からの情報抽出とその統合について報告している.しかし,表領域の抽出手法については十分に議論されていない.Wangら\cite{wang}は,決定木やSVMなどを用いて表抽出を試みている.しかし,これらの手法は,学習のために十分な訓練データが必要となる.Yoshidaら\cite{yoshida}は,EMアルゴリズムを用いることで,この問題を解消しているが,精度は,Wangらの手法の方が高い.本稿では,文書分類で高い精度を収めているSVMを性能表抽出のタスクに適用し,少ない訓練データでも比較的高い精度が得られるといわれるTSVMとSVMの精度を比較する.上に述べた従来のHTMLからの表抽出に関する研究は,一般的な表を抽出することを目的としていることが多い.すなわち,\verb+<+TABLE\verb+>+タグで記述された領域が表であるか否かのみを判定することである.このような一般的な表抽出タスクでは,その\verb+<+TABLE\verb+>+タグ中にどのような内容が記述されているかを対象としないため,言語情報よりも構造情報(例えば,縦および横のセルの一貫性など)を重視する.一方で,本タスクは表という構造情報を利用しながら,「ある特定の内容が記述された表」を抽出することを目的としている.内容にまで踏みいった抽出を行うには,構造情報だけではなく,言語情報も重要な手がかりとなる.本タスクが従来の表抽出と大きく異なる点は,上記の理由から,言語情報を重視した抽出処理を行うことである.先行研究において,Yoshidaら\cite{yoshida}は表抽出ののちに表のクラスタリングを行なっている.しかし,一般に1つの文書中に膨大な数の\verb+<+TABLE\verb+>+タグが存在するため,機械学習などのための訓練データとして,全ての表にその表の内容が何であるかというラベルを付ける作業が高コストとなる.この問題点を解消するために,本研究では文書をフィルタリングしたのちに特定の表を抽出するという手法を取る.この手法により,正例および負例のラベル付けは,\verb+<+TABLE\verb+>+タグ単位ではなく,ページ単位となり,人手によるコストを最小限に抑え,実用的な精度を得ることができるという利点がある.
\section{フィルタリング}
本節では,フィルタリング処理について述べる.フィルタリングとは,製品メーカのサイトからHTMLダウンローダで獲得したWeb文書群から,性能表を含む文書を抽出することを指す.フィルタリング処理では,SVMおよびTSVMを用いる.\subsection{SupportVectorMachines}SVMはVapnikらが考案したOptimalSeparatingHyperplaneを起源とする,超平面による特徴空間の分割法であり,現在,二値分類問題を解決するための最も優秀な学習モデルの一つとして知られている\cite{vapnik}.SVMは訓練サンプル集合からマージン最大化と呼ばれる戦略を用いて,線形識別関数\begin{equation}f(\mbox{\boldmath$x$})=\mbox{\boldmath$w$}\cdot\mbox{\boldmath$x$}+b\end{equation}のパラメータを学習する.ここで,\mbox{\boldmath$x$}は入力ベクトルである.\mbox{\boldmath$w$}と$b$がマージン最大化戦略の際に学習されるパラメータであり,$f(\mbox{\boldmath$x$})\in\{+1,-1\}$となる.図\ref{svm}にSVMの学習モデルを示す.+は正のサンプル,−は負のサンプルである.図中の実線は$y=f(\mbox{\boldmath$x$})=0$となる点の集合であり,分離超平面(hyperplane)と呼ばれる.サンプルは,この超平面を境界として2つのクラスに分類される.すなわち,識別関数は分離超平面によって入力素性空間を二分する.また,超平面に対して最近傍のサンプル間の距離をマージンと呼び,$|\mbox{\boldmath$w\cdotx$}+b|/||\mbox{\boldmath$w$}||$で表す.図中の2つの破線上にある,分類を決定づける事例をサポートベクタと呼ぶ.\begin{figure}\begin{center}\epsfile{file=svm.eps}\end{center}\vspace{-3mm}\caption{SVMの学習モデル}\label{svm}\end{figure}訓練データが線形分離可能な場合,$\mbox{\boldmath$w$}$および$b$は複数存在することから,以下のような制約を与える.\begin{equation}\min_{i=1,\ldots,n}|{\mbox{\boldmath$w\cdotx$}}_{i}+b|=1\end{equation}この制約により,距離は$1/||{\mbox{\boldmath$w$}}||$となり,結論として識別関数は\begin{equation}\min~~\frac{1}{2}||{\mbox{\boldmath$w$}}||^{2}\end{equation}\[subject~~to:\forall^{n}_{i=1}:y_{i}[{\mbox{\boldmath$w\cdotx$}}_{i}+b]\geq1\]となる.本研究では,線形カーネルを利用した.\subsection{TransductiveSVM}一般に,高精度の分類器生成には多量の訓練サンプルを必要とする.しかし,十分な量の訓練データを人手によってラベリングするのは非常に高コストな作業といえる.そこで,少量の訓練データで高精度の分類器を生成する手法が期待される.Vapnik\cite{vapnik}が提案した理論を基にJoachims\cite{joachims}によって具体化されたTransductiveSVM(TSVM)は,Transductive法と呼ばれる,与えられたラベル無しデータの分布に注目し,ラベル無しデータの誤分類の最小化を目的とする学習方法をSVMに適用し,拡張したもので,学習時にラベル無しデータの分布を考慮する事で分類精度を上げる手法である.以下にTSVMのアルゴリズムを示す.\begin{description}\item[Step1]訓練データを基にSVMで分類器を生成する.\item[Step2]得られた分類器を用いてラベル無しデータを分類する.得られた分類結果をそれぞれのラベル無しデータの仮クラスとする.\item[Step3]仮クラスの付与されたラベル無しデータを訓練データに含め,SVMによって分類器を再生成する.\item[Step4]マージン内のラベル無しデータのうち,各々の仮クラスを入れ替えることでマージンを最大化できるペアを見つけ,入れ換える.入れ換えられたデータセットを用いて,SVMによる再学習を行う.この処理の際に,ラベル無しデータ中の正例および負例の分布を考慮する\footnote{一般には,ラベル無しデータ中の正例および負例の分布比率は未知なため,訓練データ中の正例と負例の比率などを参考にして求められた予測比率を利用し,パラメータが調整されることが多い.}.\item[Step5]入れ換えるペアがなくなるまで{\bfStep4}を繰り返す.\end{description}\begin{figure}\begin{center}\epsfile{file=tsvm.eps,height=4.4cm}\end{center}\vspace{-3mm}\caption{TSVMの学習モデル}\label{tsvm}\end{figure}図\ref{tsvm}は,TSVMの学習過程の例である.図中の+と−は,通常のSVMが分離超平面を生成する際に使用した正のサンプルと負のサンプルを表す(すなわち図\ref{svm}における+および−と同じ意味を持つ).ここで,$\circ$および$\bullet$はそれぞれ最初のSVMによる分離超平面によって正例および負例と判断されたラベル無しデータを表す.例では,マージン内にある\mbox{\boldmath$x^*_1$}と\mbox{\boldmath$x^*_2$}がアルゴリズム中の{\bfStep4}の部分で入れ換えられ,再学習の結果,マージンが最大化された新しい分離超平面が得られる過程を示している.TSVMにおいても,通常のSVMと同様に線形カーネルを使用した.線形分離可能な場合,TSVMの識別関数および制約条件は下式に拡張される.\begin{equation}\min~~\frac{1}{2}||{\mbox{\boldmath$w$}}||^{2}\end{equation}\[subject~~to:\forall^{n}_{i=1}:y_{i}[{\mbox{\boldmath$w\cdotx$}}_{i}+b]\geq1\]\[\hspace*{6em}\forall^{n}_{i=1}:y_{i}^{*}[{\mbox{\boldmath$w\cdotx$}}_{i}^{*}+b]\geq1\]ここで,${\mbox{\boldmath$x$}}_{j}^{*}$および$y_{j}^{*}$は,それぞれ仮クラスが与えられたラベル無データにおける入力ベクトルおよび仮クラスである.\subsection{素性選択}\label{sec3.3}続いて,SVMおよびTSVMのための素性選択について述べる.本研究では,以下の条件を全て満たすものを素性候補とした.\begin{description}\item[(1)]表の属性欄中に出現する単語\item[(2)]一定長以内の文章中に出現する単語\item[(3)]性能表が存在する文書および性能表が存在しない文書内で顕著または限定的に出現する単語\vspace{-1cm}\end{description}\mbox{}\\これらの条件に基づき,素性となる候補をWeb文書から抽出する.条件{\bf(1)}では表中の要素を属性および属性値に切り分ける必要がある.ここでは,一般に殆どの性能表は第1列目(最左列)に属性が現れ,それより右側の列に属性値が存在するという経験則から,最左列の要素を属性だと解釈する.表の属性部分を素性に使い,属性値を素性として用いない理由は,製品の属性(例えば,パソコンならCPUやメモリなど)は,新しい機種が発売されても変更されにくいのに対し,属性値(例えば,CPUでいえば,800MHz,2GHzなど)は,その値や表現に揺れが生じやすいためである.素性候補の抽出は,以下の手順で行われる.\begin{enumerate}\itemHTML文書から\verb+<+TABLE\verb+>+タグで記述された領域を抽出する.\item\verb+<+TABLE\verb+>+タグ中の各\verb+<+TR\verb+>+タグ中の初めの\verb+<+TD\verb+>+タグの内容を抽出する(図\ref{tdandtr}).\item得られた文字列が25文字以内であれば,形態素解析\footnote{形態素解析には奈良先端科学技術大学で開発された「茶筌」を用いた.\verb+http://chasen.naist.jp/hiki/ChaSen/+}を行い,素性候補を抽出する.25文字という制約は経験的に定められた.\end{enumerate}\begin{figure}\begin{center}\epsfile{file=trandtd.eps,height=5.5cm}\end{center}\caption{素性候補の例}\label{tdandtr}\end{figure}続いて,素性候補について重み付けを行い,素性を選択する.本稿では,(1)正規化$tf\cdotidf$,(2)ベイズの定理の2種類を用いて,その精度を比較,考察する.ここで,性能表を含んでいる文書中の\verb+<+TABLE\verb+>+タグ内で顕著に生起する語と,性能表を含んでいない文書中の\verb+<+TABLE\verb+>+タグ内で顕著に生起する語を素性とする.以下に各手法での素性選択の流れを示す.\begin{description}\item[正規化$tf\cdotidf$]\mbox{}\\$tf\cdotidf$は,文書群$D=\{d_1,...,d_N\}$について,文書$d$におけるキーワード候補$t$の生起数$tf(t,d)$,および候補が生起する文書数$df(t)$を基に重み付けを行う最も有名な手法の一つである.ここで,本研究では,素性候補の抽出条件を考慮する.すなわち,素性の候補となる単語$t$としては,文書$d$中の\verb+<+TABLE\verb+>+タグにおける最左列の単語のみを利用する.さらに,これを学習用に拡張し,$D=\{D_{real},~D_{no}\}$とする.ここで,$D_{real}$は性能表を含む文書群,$D_{no}$は求めている製品の性能表を含まないもしくは性能表以外のテーブルを含む文書群である.各々の文書群に生起する単語$t$について,Wangら\cite{wang}が表抽出で用いた式を基に重み付けを行う.\begin{equation}w^{real}_t=\sum_{d_i\inD_{real}}tf(t,d_i)\times\log(\frac{df^{real}_t}{N_{real}}\frac{N_{no}}{df^{no}_t}+1)\end{equation}\begin{equation}w^{no}_t=\sum_{d_i\inD_{no}}tf(t,d_i)\times\log(\frac{df^{no}_t}{N_{no}}\frac{N_{real}}{df^{real}_t}+1)\end{equation}ここで,$df^{real}_{t},df^{no}_{t}$は$D_{real}$および$D_{no}$における単語$t$の$df$値である.また,$N_{real}$および$N_{no}$は,$D_{real}$および$D_{no}$に属する文書の総数を表す.最終的な重みは以下の式で求める.\begin{equation}ws^{real}_t=\frac{w^{real}_t}{Norm_{real}},~~ws^{no}_t=\frac{w^{no}_t}{Norm_{no}}\end{equation}ただし,\begin{equation}Norm_{real}=\sqrt{\sum_{t\inD_{real}}w^{real}_t\timesw^{real}_t},~~Norm_{no}=\sqrt{\sum_{t\inD_{no}}w^{no}_t\timesw^{no}_t}\end{equation}ここで閾値以上の値を持つ$ws^{real}_t$および$ws^{no}_t$をSVMおよびTSVMのための素性として扱う.\item[ベイズの定理]\mbox{}\\素性選択のためのもう一つの手段として,パターン認識・分類の分野で広く知られているベイズの定理を用いる.事象$C={[C_{i}]}${\footnotesize$_{i=1}^M$}において,$P(C_{i})$$(\sum${\footnotesize$^{M}_{i=1}$}$P(C_{i})=1)$は事前確率と呼ばれる.ここで,正規化$tf\cdotidf$と同様に素性候補の抽出条件を考える.すなわち,単語$t$としては,文書$d$中の\verb+<+TABLE\verb+>+タグにおける最左列に生じるもののみを利用する.事前確率と条件付き確率密度分布$p(t|C_i)$が事前に得られる場合,単語$t$が$C_i$に属する事後確率$P(C_i|t)$は次の式で求められる.\begin{equation}P(C_i|t)=\frac{P(C_i)p(t|C_i)}{\sum^M_{j=1}P(C_j)p(t|C_j)}\end{equation}ここで,$C=\{D_{real},D_{no}\}$である.全単語に対して各クラスでの事後確率を求め,それらを単語の重みと考える.すなわち,$ws_t^{real}=P(D_{real}|t)$,および$ws_t^{no}=P(D_{no}|t)$である.ここで,$ws_t^{real}>0.75$を満たす語,$ws_t^{no}>0.75$でかつ5回以上生起した語を素性とする.\end{description}
\section{表領域抽出}
本節では,表領域抽出処理について述べる.表領域抽出処理とは,フィルタリング処理によって得られた性能表を含んでいる文書から性能表の領域を特定する処理を指す.一般に,1つのHTML文書中には複数の\verb+<+TABLE\verb+>+タグが存在するため,それらの中から特定の表のみを抽出する処理が必要となる\footnote{我々が実験で用いたデータでは,1つのHTML文書中に含まれる\verb+<+TABLE\verb+>+タグの数の平均は27.4個だった.}.\subsection{スコアリング}まず,文書内の全ての\verb+<+TABLE\verb+>+タグについて,それぞれにユニークなIDとその\verb+<+TABLE\verb+>+タグの深さに関する情報を付加する.深さは1から始まり\footnote{深さ1は,\verb+<HTML>+$\cdots$\verb+</HTML>+のレベル.},\verb+<+TABLE\verb+>+タグが入れ子構造になれば,その値は大きくなる.例を図\ref{numbering}に示す.\begin{figure}\begin{center}\epsfile{file=numbering.eps,height=6cm}\end{center}\vspace{-3mm}\caption{IDと深さ}\label{numbering}\end{figure}次に,各\verb+<+TABLE\verb+>+$_{id}$についてスコアリングを行う.スコアリングには,前節で素性として選ばれた語$t$とその値$ws^{real}_t$を用いる.各\verb+<+TABLE\verb+>+$_{id}$の最左列の要素について,以下の式でスコアを計算する.\begin{equation}Score_{id}=\sum_{t\inW_{list}}ws^{real}_t\times\log(s)\end{equation}ここで,$W_{list}$は各\verb+<+TABLE\verb+>+$_{id}$の最左列のセル中に存在する単語のリストを表し,$s$は,\verb+<+TABLE\verb+>+$_{id}$の最左列の要素に生起したキーワード$t$の総数を表す.この$Score_{id}$が最大になる\verb+<+TABLE\verb+>+$_{id}$を性能表であると見なし,抽出する.また,1つの文書に複数の性能表が含まれていることもある\footnote{実験データでは,1つの文書に複数の性能表が存在した割合はデジタルカメラとプリンタの場合は1\%以下だったが,パソコンの場合は6\%であった.}.そこで,$Score$が最大になる\verb+<+TABLE\verb+>+にマッチしたキーワードの$\frac{4}{5}$がマッチする\verb+<+TABLE\verb+>+も性能表だとして抽出する.\subsection{特殊な構造への処理}性能表が必ずしも1つの\verb+<+TABLE\verb+>+タグで構成されているとは限らない.実際に複数の表が入れ子構造になった性能表や複数の\verb+<+TABLE\verb+>+タグで分割されている性能表が多く存在する.前者の例は,図\ref{numbering}で$id=5$および$id=6$がまとまって1つの性能表である場合であり,後者の例は$id=1$と$id=5$が1つの性能表である場合である.入れ子構造になった\verb+<+TABLE\verb+>+タグの場合,ある\verb+<+TABLE\verb+>+$_{id}$が性能表と見なされたとすると,その\verb+<+TABLE\verb+>+より深さの深い\verb+<+TABLE\verb+>+は,性能表の一部だとして抽出する.さらに特殊な入れ子構造の例として,ブラウジングの際の視覚効果を狙い,\verb+<+TABLE\verb+>+タグ中の各\verb+<TD>...</TD>+内の要素が単一の\verb+<+TABLE\verb+>+タグで構成されている場合がある.このような場合は入れ子構造になっている\verb+<+TABLE\verb+>+タグ部分を通常の単一セルと見なして処理する.図\ref{nest}に例を示す.\begin{figure}\begin{center}\epsfile{file=nest.eps}\end{center}\vspace{-3mm}\caption{単一セルと見なされる入れ子構造}\label{nest}\end{figure}続いて,1つの性能表が複数の\verb+<+TABLE\verb+>+タグによって構成されている場合の処理について述べる.まず,次の条件を満たす\verb+<+TABLE\verb+>+$_{id}$を抽出する.\begin{itemize}\item\verb+<+TABLE\verb+>+タグの深さが等しい.\item同じ親を持つ\verb+<+TABLE\verb+>+タグである.\end{itemize}図\ref{numbering}でいえば,$id=1$と$id=5$のペア,$id=2$と$id=4$のペアがこれにあたる.次に抽出された\verb+<+TABLE\verb+>+タグ群について,次の項目をチェックする.\begin{description}\item[(1)]各行のセルの数が一致するか\item[(2)]\verb+<+TABLE\verb+>+タグに幅(width)が指定されている場合,その値が一致するか\item[(3)]\verb+<+TABLE\verb+>+タグの\verb+<TD>+タグについて,背景色(bgcolor)が指定されている場合,その使用パターンが一致するか\end{description}これらの項目のうち,2つ以上の項目に,抽出された\verb+<+TABLE\verb+>+群がマッチする場合は,それらを1つの\verb+<+TABLE\verb+>+として捉え,スコアリングの際に,それぞれのスコアの和をその\verb+<+TABLE\verb+>+のスコアとする.
\section{実験}
\begin{table}\caption{データセット}\label{dataset}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&パソコン&デジタルカメラ&プリンタ\\\hline\hline性能表を含んでいる文書数&2090&236&520\\\hline性能表を含んでいない文書数&50621&11215&22055\\\hline\end{tabular}\end{center}\end{table}本節では,提案したフィルタリングおよび表領域抽出処理に関する評価実験について述べる.実験対象となる製品は,パソコン,デジタルカメラおよびプリンタの3種類とした.28の製品メーカサイトからHTMLダウンローダを用いて獲得したHTML文書群を評価実験の対象とした.総データ数は86737文書であり,それら文書の製品ごとの内訳を表\ref{dataset}に示す.但し,性能表を含んでいない文書群中には,別の製品の性能表が含まれている.例えば,デジタルカメラの場合は,性能表を含んでいない文書にフィルムカメラやビデオカメラなどの性能表が含まれていることがある.\subsection{フィルタリングに関する実験}まず,フィルタリング処理について評価する.実装には,SVM$^{light}$を使用した\footnote{\verb+http://svmlight.joachims.org+}.評価の基準として,適合率,再現率,F値を用いる.それぞれの値は以下の式で算出される.\begin{equation}適合率(P)=\frac{抽出された文書中で性能表を含んでいる文書の数}{抽出された文書の総数}\end{equation}\begin{equation}再現率(R)=\frac{抽出された文書中で性能表を含んでいる文書の数}{性能表を含んでいる文書の総数}\end{equation}\vspace*{-0.3cm}\begin{equation}F値(F)=\frac{1}{\frac{1}{2P}+\frac{1}{2R}}\end{equation}フィルタリング処理では,訓練データ数を100文書,300文書,500文書,1000文書とした,4つの場合について評価した.それぞれの訓練データは全データからランダムに5セットずつ抽出され,適合率および再現率は5セットの実験結果の平均値とした.評価データは,ダウンローダによって獲得された全データから,サンプリングされた訓練データを除いたもので,訓練データと評価用のデータは重複しない.TSVMのためのラベル無しデータとしては,評価データからサンプリングした1000文書を用いた.ラベル無しデータと評価データは重複している.素性選択としてベイズの定理を用いた場合の実験結果を表\ref{fi-bay}に,正規化$tf\cdotidf$を用いた場合の実験結果を表\ref{fi-tf}に示す.図\ref{keys}にベイズの定理もしくは正規化$tf\cdotidf$によって素性として選択された単語の例を示す.単語とともに記述されている数値は,それぞれの手法によって算出された,性能表を含む文書群($D_{real}$)もしくは性能表を含まない文書群($D_{no}$)における,その単語の重みを表す.例えば,図中の正規化$tf\cdotidf$の例では,メモリやスロットという単語は$D_{real}$で顕著に出現し,方法やロードなどは$D_{no}$で顕著に出現したことを表している.この値を基にSVMのための素性が選択された.\begin{figure}[!tb]\begin{center}\epsfile{file=key_example.eps,height=8cm}\end{center}\vspace{-3mm}\caption{選択された素性とその値の例(パソコンの場合)}\label{keys}\end{figure}フィルタリング処理で抽出された文書の例を示す\footnote{訓練データ数が1000文書の場合の実験結果からの抜粋.}.図\ref{ok}は,デジタルカメラを対象とした場合の正解例である.表の最左列に細分化された多くの属性が存在するため,訓練データから抽出された素性とマッチする.このように最左列に多く属性が存在する場合は,正しく分類される.一方で,図\ref{bad}は同じくデジタルカメラを対象とした場合の失敗例である.この失敗例は,ある製品で撮影した写真の画像サンプルに関する文書であり,この文書には性能表が含まれていない.しかし,文書中にあるいくつかの\verb+<+TABLE\verb+>+中の最左列に訓練データで抽出した素性がマッチしてしまい,誤抽出となった.図\ref{miss}は,性能表を含んでいるにもかかわらず,フィルタリングで獲得できなかった例である.この文書に含まれる性能表は,属性部分が細かく分類されておらず,属性値の欄に箇条書きで細分化された属性が記述されている.提案手法では,分類器のための素性を表の最左列に限定しているため,このような性能表は正しく獲得できない場合がある.\begin{figure}[!tb]\begin{center}\epsfile{file=ok.eps,height=13.5cm}\end{center}\vspace{-3mm}\caption{正しく獲得できた性能表を含む文書の例}\label{ok}\end{figure}\begin{figure}[!tb]\begin{center}\epsfile{file=bad.eps,height=13.5cm}\end{center}\vspace{-3mm}\caption{誤って獲得した性能表を含まない文書の例}\label{bad}\end{figure}\begin{figure}[!tb]\begin{center}\epsfile{file=miss.eps,height=13.5cm}\end{center}\vspace{-3mm}\caption{正しく獲得できなかった性能表を含む文書の例}\label{miss}\end{figure}\begin{table}[!bt]\caption{フィルタリング実験結果-ベイズの定理-}\label{fi-bay}\begin{center}\begin{tabular}{|c|c|c|c|c||c|c|c|}\hline\lw{製品}&\lw{訓練データ数}&\multicolumn{3}{|c||}{SVM}&\multicolumn{3}{c|}{TransductiveSVM}\\\cline{3-8}&&適合率&再現率&F値&適合率&再現率&F値\\\hline\hlineパソコン&100&0.9121&0.5318&0.6719&0.7946&0.7848&\bf0.7897\\\cline{2-8}&300&0.8934&0.8885&0.8909&0.8507&0.8870&0.8685\\\cline{2-8}&500&0.9226&0.8284&0.8730&0.8924&0.8870&\bf0.8897\\\cline{2-8}&1000&0.9200&0.9028&0.9113&0.9037&0.9191&\bf0.9113\\\hline\hlineデジカメ&100&0.8845&0.4383&0.5862&0.6426&0.8580&\bf0.7348\\\cline{2-8}&300&0.8405&0.6668&0.7437&0.7389&0.8556&\bf0.7930\\\cline{2-8}&500&0.8751&0.7197&0.7898&0.8232&0.8196&\bf0.8214\\\cline{2-8}&1000&0.8830&0.8267&0.8539&0.8171&0.8785&0.8466\\\hline\hlineプリンタ&100&0.8772&0.2247&0.3577&0.6099&0.6077&\bf0.6088\\\cline{2-8}&300&0.9327&0.5132&0.6621&0.7647&0.7494&\bf0.7570\\\cline{2-8}&500&0.7263&0.5949&0.6540&0.8024&0.9098&\bf0.8527\\\cline{2-8}&1000&0.9245&0.8628&0.8926&0.8946&0.9147&\bf0.9045\\\hline\end{tabular}\end{center}\end{table}\begin{table}[!bt]\caption{フィルタリング実験結果-$tf\cdotidf$-}\label{fi-tf}\begin{center}\begin{tabular}{|c|c|c|c|c||c|c|c|}\hline\lw{製品}&\lw{訓練データ数}&\multicolumn{3}{|c||}{SVM}&\multicolumn{3}{c|}{TransductiveSVM}\\\cline{3-8}&&適合率&再現率&F値&適合率&再現率&F値\\\hline\hlineパソコン&100&0.8532&0.7510&0.7988&0.7595&0.8427&\bf0.7990\\\cline{2-8}&300&0.8792&0.9318&0.9047&0.8564&0.9144&0.8845\\\cline{2-8}&500&0.9142&0.8816&0.8976&0.9223&0.8776&\bf0.8994\\\cline{2-8}&1000&0.9293&0.9329&0.9311&0.9140&0.8946&0.9042\\\hline\hlineデジカメ&100&0.7510&0.7145&0.7323&0.6049&0.8211&0.6966\\\cline{2-8}&300&0.8141&0.7870&0.8003&0.6856&0.8212&0.7473\\\cline{2-8}&500&0.8793&0.7948&0.8349&0.7776&0.8392&0.8072\\\cline{2-8}&1000&0.8532&0.8935&0.8729&0.8041&0.9200&0.8582\\\hline\hlineプリンタ&100&0.8684&0.5664&0.6856&0.6657&0.8145&\bf0.7326\\\cline{2-8}&300&0.8755&0.7926&0.8320&0.7915&0.8859&\bf0.8360\\\cline{2-8}&500&0.8620&0.9110&0.8859&0.8141&0.8907&0.8506\\\cline{2-8}&1000&0.8973&0.9471&0.9215&0.8995&0.9040&0.9017\\\hline\end{tabular}\end{center}\end{table}\begin{table}[!tb]\caption{テストデータの分布を使用した場合の実験結果}\label{right-dis}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline製品&訓練データ数&適合率&再現率&F値\\\hline\hlineパソコン&100&0.8239&0.8763&0.8493\\\cline{2-5}&300&0.8518&0.9312&0.8897\\\cline{2-5}&500&0.8723&0.9106&0.8910\\\cline{2-5}&1000&0.9185&0.9392&0.9287\\\hline\hlineデジカメ&100&0.7173&0.7548&0.7356\\\cline{2-5}&300&0.8080&0.7904&0.7991\\\cline{2-5}&500&0.8065&0.7697&0.7877\\\cline{2-5}&1000&0.8158&0.9198&0.8647\\\hline\hlineプリンタ&100&0.7280&0.7540&0.7408\\\cline{2-5}&300&0.7983&0.8893&0.8413\\\cline{2-5}&500&0.8438&0.8788&0.8609\\\cline{2-5}&1000&0.9151&0.9046&0.9098\\\hline\end{tabular}\end{center}\end{table}\begin{table}[!tb]\caption{全てのセルを使用した場合のSVMの結果}\label{all_fea}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline製品&訓練データ数&適合率&再現率&F値\\\hline\hlineパソコン&100&0.8336&0.7679&0.7994\\\cline{2-5}&300&0.8665&0.8859&0.8761\\\cline{2-5}&500&0.9029&0.8651&0.8836\\\cline{2-5}&1000&0.9266&0.8742&0.8996\\\hline\hlineデジカメ&100&0.7030&0.5297&0.6041\\\cline{2-5}&300&0.7817&0.8461&0.8126\\\cline{2-5}&500&0.8004&0.7544&0.7767\\\cline{2-5}&1000&0.8269&0.8834&0.8542\\\hline\hlineプリンタ&100&0.7692&0.5640&0.6511\\\cline{2-5}&300&0.8463&0.7431&0.7913\\\cline{2-5}&500&0.8324&0.8557&0.8439\\\cline{2-5}&1000&0.8751&0.8545&0.8646\\\hline\end{tabular}\end{center}\end{table}ベイズの定理と正規化$tf\cdotidf$によって選ばれた素性を比較すると,多くの場合,正規化$tf\cdotidf$の方が高いF値を収めた.製品種別で比較すると,デジタルカメラの精度が低くなる傾向があり,プリンタもパソコンに比べると精度が落ちる.この理由としては,(1)パソコンの性能表は比較的大きな表であることが多く,有効なキーワードが得やすいこと,(2)デジタルカメラのメーカは,フィルムカメラやビデオカメラも扱っていることが多く,プリンタの場合にもコピー機やスキャナのような対象となる性能表によく似たノイズが同じサイト内に存在すること,などが挙げられる.しかしながら,このように非常に似た性能表が混在しているにもかかわらず,比較的高いF値を得ることができている.SVMとTSVMについて比較すると,ベイズの定理を用いて素性を選択した場合は殆どの実験でSVMに比べ,TSVMの方が高いF値を得た.正規化$tf\cdotidf$を用いた場合は,TSVMのF値の方が低くなることが多いが,両方の素性とも,訓練データが少ない場合は,TSVMのF値がSVMのF値を上回る傾向がみられた.これは,訓練データが少ない場合のTSVMの有効性を示している.TSVMがSVMのF値を上回っている殆どの場合では,再現率が大幅に向上している.これは,TSVMが正例と負例の分布に基づいて再学習を行うためである.今回の実験では,ラベル無しデータの正例と負例の分布については,訓練データ中の正例と負例の分布を用いたが,ここに全データから算出された正例と負例の比を適用すると実験結果は表\ref{right-dis}のようになる\footnote{素性には正規化$tf\cdotidf$で選ばれたものを利用した.使用した正例と負例の比は表\ref{dataset}の文書数の比である.}.TSVMで使用する正例と負例の比が正確であれば,少数の訓練データの場合,さらなる精度向上に繋がることが確認できた.実験結果より,本タスクでは,訓練データが少ない場合においてTSVMが有効に機能することが確認された.続いて,素性選択に使用した条件について考察する.\ref{sec3.3}節で示したように,素性は表の最左列のみを使用している.この条件の有効性を検証するために,素性選択に最左列という条件を除いた場合の結果を表\ref{all_fea}に示す.訓練および評価データは最左列に限定したものと同じものを使用しており,素性選択の手法には,正規化$tf\cdotidf$を用いた.表は,通常のSVMに関する実験結果である.一部で,表中の全ての要素を素性選択に用いた場合の方が良いF値を得ることがあるが,平均で3〜4\%程度,最大で約13\%,素性選択を最左列に限定した方が良いという実験結果が得られた.素性選択を最左列に限定しない場合にF値が落ちる原因は,1つの文書に含まれる\verb+<+TABLE\verb+>+タグが多いことが考えられる.我々が用いた実験データでは,1つの文書に30個程度の\verb+<+TABLE\verb+>+タグが存在する.最左列という条件を除くと,性能表を含む文書中の関係のない\verb+<+TABLE\verb+>+タグの中身まで素性候補としてしまう可能性が高くなり,それが精度に影響するものと考えられる.実験結果より,素性選択に関する条件の有効性も確認できた.\clearpage\subsection{表領域抽出に関する実験}続いて,表領域抽出処理について実験する.ここでは,SVMおよびTSVMの素性選択に使用した,性能表を含む文書群($D_{real}$)中で高い重みを持つ単語$t$をキーワードとし,その値$ws^{real}_t$を用いる.それらのキーワードによって,性能表を含む文書からどれだけの性能表の領域を正しく特定できるかを評価する.すなわち,実験データは,表\ref{dataset}の各製品の「性能表を含んでいる文書」に含まれる文書となる.実験には,フィルタリング処理で最もF値が良かった実験結果の素性をキーワードとして用いた.実験結果を表\ref{tableext}に示す.正解率は以下の式で算出される.\begin{equation}正解率=\frac{正しく抽出された性能表の数}{全文書に含まれる性能表の数}\end{equation}表中で,部分成功とは,ある製品の性能表が複数の並列した\verb+<+TABLE\verb+>+タグで構成されており(例えば,図\ref{numbering}の$id=1$と$id=5$が1つの性能表である場合),その内のどれかが欠けている場合を指す.過抽出は,正解領域だけでなく,別の\verb+<+TABLE\verb+>+タグも併せて抽出した場合を表しており,誤抽出は,性能表ではない\verb+<+TABLE\verb+>+タグを抽出した場合である.\begin{table}[t]\caption{表領域抽出実験の結果(フィルタリングの素性を利用)}\label{tableext}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline\lw{製品}&\lw{正解率}&\multicolumn{3}{c|}{不正解の内訳(文書数)}\\\cline{3-5}&&部分成功&過抽出&誤抽出\\\hline\hlineパソコン&0.991&5&5&8\\\hlineデジカメ&0.907&17&0&5\\\hlineプリンタ&0.887&24&5&30\\\hline\end{tabular}\end{center}\end{table}実験結果より,パソコンの場合は非常に高い精度で表領域を特定できることがわかる.パソコンの性能表の領域抽出の精度が高い理由としては,一般にパソコンの性能表が(1)比較的大きな表であること,(2)性能表が複数の並列した\verb+<+TABLE\verb+>+タグで記述されることが少ないこと,などが挙げられる.それと比較すると,デジタルカメラとプリンタの表領域抽出精度は若干落ちる.デジタルカメラやプリンタは,(3)性能表を含む文書中に存在する\verb+<+TABLE\verb+>+タグの数がパソコンに比べて若干多いこと\footnote{実験データにおいて,パソコンは1文書中の\verb+<+TABLE\verb+>+タグの数が平均24.8個であり,デジタルカメラとプリンタはそれぞれ29.4個,36.6個であった.},(4)複数の並列した\verb+<+TABLE\verb+>+タグで一つの性能表が記述されることが多いこと,などが精度が劣る原因である.プリンタの場合で,誤抽出が多く見られるのは,(3)が大きな原因だと考えられる.(4)に対しては,表領域抽出処理で,各\verb+<+TABLE\verb+>+の構造的な類似度を用いて結合処理を行っているが,並列する\verb+<+TABLE\verb+>+間に書式の異なる\verb+<+TABLE\verb+>+や性能表と関係のない\verb+<+TABLE\verb+>+が挿入されると,条件を満たさなくなり,\verb+<+TABLE\verb+>+が結合されない.その例を図\ref{missint}に示す.図\ref{missint}(b)の例では,3つの\verb+<+TABLE\verb+>+は同じ深さで存在するが,[スキャナ付属品]の表が[スキャナ部分]と[プリンタ部分]の表の構造(セルの数とセルの幅,対応するセルへの背景色)と異なるため,結合されず,最もスコアが高い\verb+<+TABLE\verb+>+のみが抽出されることになる.\begin{figure}\begin{center}\epsfile{file=missext.eps,height=6cm}(a)正しく抽出される場合\hspace{30mm}(b)一部しか抽出されない場合\end{center}\vspace{-3mm}\caption{複数の\verb+<+TABLE\verb+>+による性能表}\label{missint}\end{figure}誤抽出や結合に失敗する場合の対処法として,スコアがある閾値以上の\verb+<+TABLE\verb+>+のみを性能表として抽出するという手法が考えられるが,一般的な閾値を見つけることは難しい.また,現在我々が対象としているデータは,負例($D_{no}$)に比べて,正例($D_{Real}$)の数が極端に少ないため,サンプリングする訓練データの数によっては,十分な正例が得られず,必ずしも十分なキーワードが得られるとは限らない.その結果,設定した閾値によっては多くの性能表が棄却される場合もある.精度向上のためには,訓練データ中の正例の数をいかに多く獲得するかが課題となる.性能表には製品ごとやメーカごとに,その書式や使われている用語にある程度一貫性がある場合が多い.精度向上のための別の手法としては,抽出処理に利用するキーワードを全データから獲得するのではなく,メーカごとに獲得し,それらを用いて表領域抽出処理を行うことなども今後の課題として考えられる.また,この実験とは別に,各製品に対して5分割交差検定を行った.すなわち,全データを5分割し,そのうち4つを性能表抽出のためのキーワード抽出処理の訓練データとし,残りの1つを評価データとした.実験結果を表\ref{5cross}に示す.5分割にして実験を行ったことにより,フィルタリングに使用した素性の場合に比べ,訓練データの数が多くなるため\footnote{例えば,PCでは,1000文書をサンプリングした場合(フィルタリングで使用した素性をキーワードとする場合)の平均正例数は41文書だが,5分割交差検定の場合,1672文書の正例から性能表抽出のためのキーワードを獲得したことになる.},有効なキーワードが獲得できた結果,全体的に誤抽出の数が減少した.部分成功の数が増加したのは,フィルタリングに使用した素性ではキーワード不足で誤抽出となっていたものが,キーワードの増加によって抽出され,部分成功になったためである.\begin{table}\caption{表領域抽出実験の結果(5分割交差検定)}\label{5cross}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline\lw{製品}&\lw{正解率}&\multicolumn{3}{c|}{不正解の内訳(文書数)}\\\cline{3-5}&&部分成功&過抽出&誤抽出\\\hline\hlineパソコン&0.993&3&5&6\\\hlineデジカメ&0.911&19&0&2\\\hlineプリンタ&0.923&27&8&5\\\hline\end{tabular}\end{center}\end{table}続いて,特殊な構造を持った文書について考察する.\verb+<TD>...</TD>+内の要素が単一の\verb+<+TABLE\verb+>+タグで構成されている場合(以下,単一セルと呼ぶ)と複数の\verb+<+TABLE\verb+>+によって1つの性能表が構成されている場合(以下,複数テーブルと呼ぶ)の内訳と全体に占める割合を表\ref{unicellandmulti}に示す.\begin{table}\caption{単一セルと複数テーブルの数と全体に占める割合}\label{unicellandmulti}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&パソコン&デジカメ&プリンタ\\\hline\hline性能表を含んでいる文書の数&2090&236&520\\\hline単一セルの数(割合)&6(0.3\%)&32(13.6\%)&0(0\%)\\\hline複数テーブルの数(割合)&10(0.4\%)&23(9.7\%)&69(13.3\%)\\\hline\end{tabular}\end{center}\end{table}パソコンの場合は,単一セル,複数テーブルが存在する文書は正例中の1\%以下だが,プリンタの場合は13\%の文書が,例え,抽出のための十分なキーワードを獲得できていたとしても,特殊構造への処理を行わないと根本的に抽出できないことになる.デジタルカメラの場合は単一セルと複数テーブルに重複があり,それを考慮すると,17\%の文書(42文書)が同じく根本的に抽出できないことになる.特殊構造への処理を行わなかった場合と行った場合の正解率を表\ref{nothing}に示す.実験では,表\ref{tableext}の実験で使用したキーワードを利用した.パソコンについては,単一セルと複数テーブルの数が全体に対して少ないため,正解率の上昇は1\%以下であった.一方で,特殊構造に対する処理を行わなかった場合,デジタルカメラの正解率は0.800,プリンタの場合は0.833となった.すなわち,提案手法による特殊構造への処理は,プリンタの場合で5\%程度,デジタルカメラの場合は約10\%の正解率の向上に繋がっている.特殊構造への対応にはいくつかの課題が残るが,この実験結果より,提案手法の有効性は確認できた.\begin{table}\caption{特殊構造への処理の有効性}\label{nothing}\begin{center}\begin{tabular}{|c|c|c|}\hline\lw{製品}&特殊構造への処理を&特殊構造への処理を\\&行わない場合の正解率&行う場合の正解率(表\ref{tableext}の正解率)\\\hline\hlineパソコン&0.988&0.991\\\hlineデジカメ&0.800&0.907\\\hlineプリンタ&0.833&0.887\\\hline\end{tabular}\end{center}\end{table}本研究では,フィルタリングで性能表を含んでいる文書を絞り込み,続いて性能表を抽出するという流れを取った.提案手法以外にも,まず従来の表抽出の研究に基づき,一般的な表抽出を実行し,その表から特定の内容を含んだ表を抽出するという手法も考えられる.しかし,この手法を用いる場合,訓練データの獲得のために,全ての\verb+<+TABLE\verb+>+タグを人手でチェックし,正例もしくは負例のラベル付けをする必要がある.我々の使用した実験データでは,1つの文書中に30前後の\verb+<+TABLE\verb+>+タグが存在する.すなわち,膨大な数の\verb+<+TABLE\verb+>+タグへのチェックが必要になり,実用面を考えればコストが高い.一方で,提案手法は,そのページに性能表が含まれているかもしくは含まれていないかのチェックをするだけで良いという利点がある.また,表抽出処理では,フィルタリング処理で用いたSVMのような機械学習のアルゴリズムを使用しなかった.これは,上記の表抽出を行い,内容を分類するという手法における問題点と同様に,性能表の正確な領域を膨大な\verb+<+TABLE\verb+>+タグをチェックしながら,人手で正例のラベルを付けることが,高コストなためである.このように提案手法には,訓練データの作成に関して,実用的な面での大きな利点がある.
\section{おわりに}
本稿では,Webから製品のスペック情報を記述した表(性能表)の抽出方法について述べた.提案手法は,Webからの製品データベースの自動獲得や,オンラインショッピングサイトの自動構築などのために有効である.提案手法では,(1)フィルタリング,(2)表領域抽出,の2つのプロセスによってWeb文書群から性能表を獲得することを試みた.フィルタリングでは,SVMとTSVMを用い,その精度を検証した.訓練データが少ない場合,TSVMが有効に機能することを確認した.TSVMの精度を向上させるには,ラベル無しデータ中の正例と負例の正確な比を推定することが有効である.少ない訓練データで,いかにラベル無しデータの正例と負例の分布を推測するかが今後の課題の一つとなる.表領域抽出処理では,パソコンの場合で,非常に高い抽出正解率を得た.デジタルカメラとプリンタの場合においても90\%程度の精度を得ている.並列した複数の\verb+<+TABLE\verb+>+タグからなる性能表をより正確に抽出するためには,訓練データ中の正例をいかに多く獲得できるかや,構造的類似度に関する新たな尺度の導入が課題となる.2つのプロセスにおいて,現在は一括して素性選択やキーワード抽出を行っているが,メーカや製品ごとの表の記述方法の一貫性などを利用することで,より高い抽出精度が得られる可能性がある.その実装と評価は,今後の課題の一つである.両プロセスとも90\%程度の精度を得ており,実験結果から本手法の有効性と実用性を確認できた.\acknowledgment実験の説明において,図\ref{ok}はオリンパス株式会社\footnote{http://www.olympus.co.jp/jp/news/2001a/nr010321c700uzspj.cfm},図\ref{bad}は松下電器産業株式会社\footnote{http://panasonic.jp/dc/gallery/fz3.html},図\ref{miss}はコダック株式会社\footnote{http://wwwjp.kodak.com/JP/ja/digital/cameras/dc80/spec.shtml}に,論文中でのデータの利用についてご許可いただきました.但し,図\ref{bad}では肖像権上の都合により一部の画像を差し替えている.また,本稿の改善に対して,査読者の方から数多くの有益なコメントをいただきました.ここに深く感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen,Tsai,\BBA\Tsai}{Chenet~al.}{2000}]{chen}Chen,H.,Tsai,S.,\BBA\Tsai,J.\BBOP2000\BBCP.\newblock\BBOQMiningtablesfromlargescaleHTMLtexts\BBCQ\\newblockIn{\BemProceedingsofCOLING2000},\BPGS\166--172.\bibitem[\protect\BCAY{Hu,Kashi,Lopresti,\BBA\Wilfong}{Huet~al.}{2000}]{hu}Hu,J.,Kashi,R.,Lopresti,D.,\BBA\Wilfong,G.\BBOP2000\BBCP.\newblock\BBOQMedium-independenttabledetection\BBCQ\\newblockIn{\BemProceedingsofDocumentRecognitionandRetrievalVII},\BPGS\23--28.\bibitem[\protect\BCAY{Hurst}{Hurst}{2001}]{hurst}Hurst,M.\BBOP2001\BBCP.\newblock\BBOQLayoutandlanguage:Challengesfortableunderstandingontheweb\BBCQ\\newblockIn{\BemProceedingsofWorkshoponWebDocumentAnalysis,WDA01},\BPGS\27--30.\bibitem[\protect\BCAY{Itai,Takasu,\BBA\Adachi}{Itaiet~al.}{2003}]{itai}Itai,K.,Takasu,A.,\BBA\Adachi,J.\BBOP2003\BBCP.\newblock\BBOQInformationextractionfromHTMLpagesanditsintegration\BBCQ\\newblockIn{\BemProceedingsofthe2003SymposiumonApplicationandtheInternetWorkshops(SAINT03)},\BPGS\276--281.\bibitem[\protect\BCAY{Joachims}{Joachims}{1999}]{joachims}Joachims,T.\BBOP1999\BBCP.\newblock\BBOQTransductiveinferencefortextclassificationusingSupportVecorMachines\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthInternationalConferenceonMachineLearning},\BPGS\200--209.\bibitem[\protect\BCAY{河合,塚本,山本,椎野}{河合\Jetal}{1998}]{kawai}河合敦夫,塚本雄之,山本勝紀,椎野務\BBOP1998\BBCP.\newblock\JBOQ文書構造を利用した箇条書きや表形式文書からの内容抽出\JBCQ\\newblock\Jem{信学論(D-II)},{\BbfJ81-D2}(7),1609--1619.\bibitem[\protect\BCAY{Ng,Lim,\BBA\Koo}{Nget~al.}{1999}]{ng}Ng,H.,Lim,C.,\BBA\Koo,J.\BBOP1999\BBCP.\newblock\BBOQLearningtorecognizetablesinfreetext\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingofACL},\BPGS\443--450.\bibitem[\protect\BCAY{Pinto,McCallum,Wei,\BBA\Croft}{Pintoet~al.}{2003}]{pinto}Pinto,D.,McCallum,A.,Wei,X.,\BBA\Croft,W.~B.\BBOP2003\BBCP.\newblock\BBOQTableextractionusingconditionalrandomfeilds\BBCQ\\newblockIn{\BemProceedingsofthe26thannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformaionretrieval},\BPGS\235--242.\bibitem[\protect\BCAY{佐藤,佐藤,篠田}{佐藤\Jetal}{1997}]{sato}佐藤円,佐藤理史,篠田陽一\BBOP1997\BBCP.\newblock\JBOQ電子ニュースのダイジェスト自動生成\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(10),2371--2379.\bibitem[\protect\BCAY{Shimada\BBA\Endo}{Shimada\BBA\Endo}{2003}]{shimada4}Shimada,K.\BBACOMMA\\BBA\Endo,T.\BBOP2003\BBCP.\newblock\BBOQProductSpecificationsSummarizationandProductRankingSystemusingUser'sRequests\BBCQ\\newblockIn{\BemInformationModellingandKnowledgeBasesXV,IOSPress},\BPGS\315--331.\bibitem[\protect\BCAY{Shimada,Ito,\BBA\Endo}{Shimadaet~al.}{2003}]{shimada2}Shimada,K.,Ito,T.,\BBA\Endo,T.\BBOP2003\BBCP.\newblock\BBOQMultiformSummarizationfromProductSpecifications\BBCQ\\newblockIn{\BemProceedingsofPACLING2003},\BPGS\83--92.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1999}]{vapnik}Vapnik,V.~N.\BBOP1999\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockWiley.\bibitem[\protect\BCAY{Wang\BBA\Hu}{Wang\BBA\Hu}{2002}]{wang}Wang,Y.\BBACOMMA\\BBA\Hu,J.\BBOP2002\BBCP.\newblock\BBOQAmachinelearningbasedapproachfortabledetectionontheWeb\BBCQ\\newblockIn{\BemProceedingsofTheEleventhInternationalWorldWebConference}.\bibitem[\protect\BCAY{Yoshida,Torisawa,\BBA\Tsujii}{Yoshidaet~al.}{2001}]{yoshida}Yoshida,M.,Torisawa,K.,\BBA\Tsujii,J.\BBOP2001\BBCP.\newblock\BBOQExtractingontologiesfromWorldWideWebviaHTMLtables\BBCQ\\newblockIn{\BemProceedingsofPACLING2001},\BPGS\332--341.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{嶋田和孝}{1997年大分大学工学部知能情報システム工学科卒.1999年同大大学院博士前期課程了.2002年同大大学院博士後期課程単位取得退学.同年より九州工業大学情報工学部助手.博士(工学).表抽出,テキスト処理などの研究に従事.言語処理学会,電子情報通信学会,情報処理学会各会員.}\bioauthor{林晃司}{2002年九州工業大学情報工学部卒.2004年同大大学院修士課程了.現在は富士ゼロックス株式会社.在学中は表の分類・抽出に関する研究に従事.}\bioauthor{遠藤勉}{1972年九州大学工学部電子工学科卒業.1974年同大学院修士課程修了.1977年同博士課程単位取得退学.同大助手を経て,1980年大分大学工学部講師.同大助教授,教授を経て,2000年より九州工業大学情報工学部知能情報工学科教授.工学博士.自然言語処理,コンピュータビジョンの研究に従事.電子情報通信学会,情報処理学会,人工知能学会,日本ロボット学会,日本ソフトウェア科学会,IEEEComputerSociety各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N03-04
|
\section{はじめに}
\label{sec:introduction}自然言語解析では,形態素解析,構文解析,意味解析,文脈解析などの一連の処理を通して,入力テキストを目的に応じた構造に変換する.これらの処理のうち,形態素・構文解析は一定の成果を収めている.また,意味解析に関しても言語資源が整ってきており,多義性解消などの研究が活発に行なわれている\cite{kilgarriff98}.しかし,文脈解析は依然として未解決の問題が多い.文脈解析の課題の一つに,代名詞などの{\bf照応詞}に対する指示対象を特定する処理がある.自然言語では,自明の対象への言及や冗長な繰り返しを避けるために照応表現が用いられる.日本語では,聞き手や読み手が容易に推測できる対象(主語など)は,代名詞すら使用されず頻繁に省略される.このような省略のうち,格要素の省略を{\bfゼロ代名詞}と呼ぶ.そして,(ゼロ)代名詞が照応する実体や対象を特定する処理を{\bf照応解析}と呼ぶ.照応解析は,文間の結束性や談話構造を解析する上で重要であり,また自然言語処理の応用分野は照応解析によって処理の高度化が期待できる.例えば,日英機械翻訳の場合,日本語では主語が頻繁に省略されるのに対し,英語では主語の訳出が必須であるため,照応解析によってゼロ代名詞を適切に補完しなければならない\cite{naka93}.照応詞の指示対象は文脈内に存在する場合とそうでない場合があり,それぞれを{\bf文脈照応}(endophora),{\bf外界照応}(exophora)と呼ぶ.外界照応の解析には,話者の推定や周囲の状況の把握,常識による推論などが必要となる.文脈照応は,照応詞と指示対象の文章内における位置関係によって,さらに二つに分けられる.指示対象が照応詞に先行する場合を{\bf前方照応}(anaphora),照応詞が指示対象に先行する場合を{\bf後方照応}(cataphora)と呼ぶ.以上の分類を図~\ref{fig:ana_kinds}にまとめる\cite{halliday76}.ただしanaphoraはendophoraと同義的に用いられることもある.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/class-anaphora.eps,scale=1.0}\caption{照応の分類}\label{fig:ana_kinds}\end{center}\end{figure}照応解析に関する先行研究の多くは前方照応を対象にしている.これらは人手規則に基づく手法と統計的手法に大別できる.人手規則に基づく手法は,照応詞と指示対象候補の性・数の一致や文法的役割などに着目した規則を人手で作成し,照応解析に利用する\cite{bren87,hobbs78,kame86,mitk98,okum96,stru96,walk94,naka93,mura97}.これらの手法では,人間の内省に基づいて規則を作成するため,コーパスに現れないような例外的な言語事象への対処が容易である.その反面,恣意性が生じやすく,また,規則数が増えるにつれて規則間の整合性を保つことが困難になる.これに対して,1990年代には,コーパスに基づく統計的な照応解析手法が数多く提案された\cite{aone95,ge98,soon99,ehar96,yama99}.これらの手法は,照応関係(照応詞と指示対象の対応関係)が付与されたコーパスを用いて確率モデルや決定木などを学習し,照応解析に利用する.統計的手法ではパラメータ値や規則の優先度などを実データに基づいて決定するため,人手規則に基づく手法に比べて恣意性が少ない.しかし,モデルが複雑になるほど推定すべきパラメータ数が増え,データスパースネスが生じやすい.本研究は日本語のゼロ代名詞を対象に,確率モデルを用いた統計的な照応解析手法を提案する.本手法は,統語的・意味的な属性を分割して確率パラメータの推定を効率的に行なう点,照応関係が付与されていないコーパスを学習に併用してデータスパースネス問題に対処する点に特長がある.なお,本研究は日本語に多く現れる前方照応(図~\ref{fig:ana_kinds}参照)を対象とする.以下,\ref{sec:houhou}~章において本研究で提案するゼロ代名詞の照応解析法について述べ,\ref{sec:jikken}~章で評価実験の結果について考察し,\ref{sec:hikaku}~章で関連研究との比較を行なう.
\section{本研究で提案するゼロ代名詞の照応解析手法}
\label{sec:houhou}\subsection{システムの概要}\label{sec:gaiyou}本研究で提案するゼロ代名詞照応解析システムの構成を\mbox{図\ref{fig:system}}に示す.以下,この図に沿って処理の流れを説明する.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/overview-jp.eps,scale=0.99}\caption{ゼロ代名詞照応解析システムの構成}\label{fig:system}\end{center}\end{figure}まず,システムは入力テキストを形態素・構文解析し,述語を中心とした係り受け情報を抽出する.本システムでは,形態素解析にJUMAN~\cite{juman98},構文解析にKNP~\cite{knp98}を用いる.次に,入力テキスト中の全てのゼロ代名詞を特定する.ここでは,省略されている必須格要素をゼロ代名詞として検出する.具体的には,入力テキスト中の係り受け情報と動詞の格フレームを照合し,入力テキスト中で充足されていない必須格をゼロ代名詞と見なす.続いて,ゼロ代名詞の指示対象を特定する.検出された各ゼロ代名詞について,テキストにおける前方の文脈から(複合)名詞を指示対象の候補として抽出する.原理的には,ゼロ代名詞の出現箇所以前の全文脈が探索範囲となりうる.しかし,一般的にゼロ代名詞は文章の論理的な構造を無視して極端に離れた対象を照応することは少ない.そこで本手法では,段落が文章の論理構造に関連することに着目し,ゼロ代名詞の出現箇所から前段落の先頭文までを指示対象候補の探索範囲とする.最後に,各ゼロ代名詞に対する複数の指示対象候補を尤度に基づいて順位付けし,出力する.本手法では,候補$a_i$がゼロ代名詞$\phi$の指示対象である確率$P(a_i|\phi)$を計算し,その値によって順位付けを行なう.しかし,$P(a_i|\phi)$を表層的な情報だけを用いて推定することは困難なので,$a_i$や$\phi$を抽象的な属性で表現する必要がある.以下,\ref{sec:detection}節でゼロ代名詞の特定方法について述べ,\ref{sec:sosei}節でゼロ代名詞${\it\phi}$と指示対象候補$a_i$を表現するための属性について説明する.\ref{sec:kakuritu}節以降で提案する確率モデルの詳細とその推定方法について説明する.\subsection{ゼロ代名詞の特定法}\label{sec:detection}本手法では,動詞に関する係り受け情報と格フレームを比較することで,充足していない必須格をゼロ代名詞として検出する.ここでは,格フレーム辞書としてIPALの基本動詞辞書\cite{ipal87}とサ変動詞辞書を利用する.IPAL基本動詞辞書は,和語動詞861語を意味的・統語的特性から下位範疇化した3,379のサブエントリからなり,動詞あたり平均3.9個のサブエントリがある.また,サ変動詞辞書はサ変動詞50語に関する94のサブエントリからなり,動詞あたり平均1.9個のサブエントリがある.以降,両者を合わせて「IPAL動詞辞書」と呼ぶ.図\ref{fig:nozomu}に,動詞「臨む」の格フレームを例示する.ここで「HUM」や「ORG」などは,それぞれ「人間」や「組織」などの名詞意味素性を表す.\begin{figure}[htbp]\def\baselinestretch{}\begin{center}\small\begin{tabular}{|c||l|l|l|}\hline\multicolumn{1}{|c||}{フィールド名}&\multicolumn{1}{|c|}{サブエントリ1}&\multicolumn{1}{|c|}{サブエントリ2}&\multicolumn{1}{|c|}{サブエントリ3}\\\hline見出し語&のぞむ&のぞむ&のぞむ\\表記&臨む&臨む&臨む\\意味記述&集会などに出席する&ある重要な場面に出会う&ある所がどこかに面している\\格形式1&ガ&ガ&ガ\\意味素性1&HUM/ORG&HUM/ORG&LOC\\格形式2&ニ&ニ&ニ\\意味素性2&ACT&ABS&LOC\\類義語&臨席する,出る&直面する,際する&面する,向く\\‥‥&‥‥&‥‥&‥‥\\\hline\end{tabular}\caption{IPAL動詞辞書に記述された動詞「臨む」のサブエントリ(抜粋)}\label{fig:nozomu}\end{center}\end{figure}IPAL動詞辞書の検索は次のように行う.まず,システムはテキスト中に現れる全ての動詞について辞書を「表記」で検索し,適合する全ての格フレームを取得する.「表記」で適合する格フレームがない場合は,「見出し語」(読み)で動詞辞書を検索する.「見出し語」でも格フレームが得られない場合は,さらに「類義語」で検索を行なう.これは,類義の動詞は同一の格フレームを持ちやすいという知見に基づく.また,IPAL動詞辞書に記載された「類義語」は,同一の文脈でサブエントリの動詞と置き換え可能な表現かどうかなどの基準で選定されているため,多くの類義語はサブエントリの動詞と格フレームが一致する.例えば,図\ref{fig:nozomu}のサブエントリ1の場合,「臨席する」「出る」はいずれも「HUM/ORGガACTニ」という格フレームを取り得る.このように「類義語」情報を利用することにより,IPAL動詞辞書未採録の2,038語の動詞(3,150のサブエントリ)についても,事実上,格フレームの利用が可能となる.なお,「表記」「見出し語」「類義語」のいずれの検索でも格フレームが得られない場合は,ゼロ代名詞特定の再現率を上げるため,意味素性「不明」のガ格のみを必須格と仮定する.よって,本システムでは対象とする動詞に制限はない.一方,格フレームに記述された意味素性との照合のため,入力テキスト中の名詞に対しても意味素性を付与する必要がある.ここで,名詞辞書としてIPAL基本名詞辞書\cite{ipal96}などを利用することが考えられる.しかし,当該辞書は登録語数が1,081語と少ないため,本システムでは分類語彙表\cite{koku64}を用いる.分類語彙表には87,743語が登録されており,そのうち名詞が55,443語含まれる.各登録語には分類番号(意味クラス)が5桁の数値で与えられており,名詞の場合,544種類の意味クラスがある.分類語彙表の構造を図\ref{fig:bunruigoihyou}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/bunruigoihyou.eps,scale=0.99}\caption{分類語彙表の構造}\label{fig:bunruigoihyou}\end{center}\end{figure}なお,一つの名詞が複数の意味クラスに対応する場合,その名詞はいずれの意味クラスにも対応するものとして扱う.また,名詞シソーラスに登録されていない名詞には,一律に「未知語クラス」を与える.IPAL動詞辞書の意味素性と分類語彙表の意味クラスとの対応付けは,村田と長尾\citeyear{mura97}の作成した対応表(表\ref{tab:taiou})を用いた.この表において,例えば「120」は上位3桁が「120」である意味クラス全てに対応する.なお,「未知語クラス」の名詞は格フレームの選択に有効な情報を与えないため,いずれの意味素性にも対応しないものとする.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{意味素性と意味クラスの対応}\label{tab:taiou}\smallskip\footnotesize\begin{tabular}{l@{}ll}\hline\hline\multicolumn{2}{l}{IPAL基本動詞辞書の意味素性}&\multicolumn{1}{l}{分類語彙表の意味クラス(上位3桁)}\\\hlineANI&(動物)&156\\HUM&(人間)&120,121,122,123,124\\ORG&(組織・機関)&125,126,127,128\\PLA&(植物)&155\\PAR&(生物の部分)&157\\NAT&(自然物)&152\\PRO&(生産物・道具)&14\\LOC&(空間・方角)&117,125,126\\PHE&(現象名詞)&150,151\\ACT&(動作・作用)&133,134,135,136,137,138\\MEN&(精神)&130\\CHA&(性質)&112,113,114,115,158\\REL&(関係)&111\\LIN&(言語作品)&131,132\\TIM&(時間)&116\\QUA&(数量)&119\\CON&(具体物)&11,125,126,13,158\\ABS&(抽象物)&12,14,152,155,156,157\\DIV&(制限緩やか)&1\\\hline\end{tabular}\end{center}\end{table}次の例を用いて,ゼロ代名詞の特定処理を説明する.\begin{flushleft}\begin{quote}\begin{itemize}\item[(例1)]会談に\underline{臨む}ことは党内に強い異論のある並立制受け入れとなるため,激しい反発を呼ぶのは必至である.\end{itemize}\end{quote}\end{flushleft}\noindent下線部「臨む」には図\ref{fig:nozomu}に示す3通りの格フレームが対応する.そこで,最適な格フレームを選択するために,ニ格の「会談」をそれぞれの格フレームのニ格と比較する.ここで,「会談」は図\ref{fig:bunruigoihyou}より意味クラス「13133」「13531」に対応するので,表\ref{tab:taiou}より意味素性「ACT」に対応する.よって,図\ref{fig:nozomu}のサブエントリ1が選択される.その結果,例1中でガ格が省略されていることが分かるので,ガ格をゼロ代名詞として検出する.なお,一つの名詞が複数の意味クラスに対応する場合,その名詞はそれぞれの意味クラスが対応する意味素性全てに対応するものとして扱う.また,充足格を利用しても複数の格フレームが候補として残る場合は,残った候補のうちIPAL基本動詞辞書で先に記載されている格フレームを選択する.本来ならば,動詞の多義性解消などによって最適な格フレームを選択すべきである.しかし,多義性解消はそれ自身で非常に難しい研究課題であるので,本研究では扱わなかった.\subsection{ゼロ代名詞と指示対象候補を表現する属性}\label{sec:sosei}日本語ゼロ代名詞の照応解析に関する先行研究では,指示対象候補に後接する助詞や指示対象候補とゼロ代名詞間のテキスト内での距離などの属性によってゼロ代名詞や指示対象が表現されている.特に,助詞は焦点(話題の中心)の推移をモデル化するセンタリング理論\cite{gros95}に基づく照応解析手法において中心的な役割を果たす\cite{kame86,walk94}.他にも,指示対象候補とゼロ代名詞間の意味的な整合性や語の頻度などが属性として利用されている.本研究では,コーパスに基づく予備調査を通して照応解析に有効な属性について検討し,以下に示す6つの属性を用いてゼロ代名詞${\it\phi}$と指示対象候補$a_i$を表現する.\begin{itemize}\itemゼロ代名詞$\phi$に関する属性\begin{description}\item[格($c$):]本研究では,日本語に多く現れる「ガ」「ヲ」「ニ」格のゼロ代名詞を扱う.よって,格$c$として取り得る値は「ガ」「ヲ」「ニ」のいずれかであり,それぞれどの格が省略されたのかを表す.この値は,ゼロ代名詞の特定処理時に格フレーム辞書に基づいて決定される(\mbox{\ref{sec:detection}節}参照).\item[意味素性($s$):]ゼロ代名詞,すなわち省略された格要素に対応する意味素性を表す.本手法では,IPAL動詞辞書で定義される19種類の意味素性を用いる(表\ref{tab:taiou}参照).上記の「格」属性と同様に,ゼロ代名詞の特定処理において格フレーム辞書を参照することで決定される.\end{description}\item指示対象候補$a_i$に関する属性\begin{description}\item[助詞($p_i$):]候補$a_i$に後接する助詞を表し,可能な値は形態素解析で助詞と品詞付けられた語の全てである.助詞は従来の手法でも照応解析の有効な手がかりとして用いられている.\item[文間距離($d_i$):]ゼロ代名詞と候補$a_i$間の文数を表す.両者が同一文中にあれば$0$,指示対象候補がゼロ代名詞より$n$文前にあれば$n~(n>0)$とする.一般に,ゼロ代名詞からの距離が遠い候補ほど,指示対象になりにくい.なお,距離を計る単位としてゼロ代名詞と候補$a_i$間の語数や文節数なども考えられる.しかし,日本語は語順が比較的自由であり,また副詞句や形容詞句など様々な挿入句が可能であるため,文間距離を用いて大まかな距離を示し,より詳細には助詞$p_i$で区別する方法を採用する.\item[連体節に関する制約($r_i$):]候補$a_i$が連体修飾節に含まれるかどうかを表す.含まれれば真,含まれなければ偽の2値を取る.連体節に含まれる名詞句は照応されにくいという知見\cite{ehar96}を利用するために導入する.\item[意味クラス($n_i$):]候補$a_i$の意味素性を表す.本手法では,分類語彙表\cite{koku64}で定義される544種類の分類番号を利用する.\end{description}\end{itemize}\subsection{確率モデル}\label{sec:kakuritu}ゼロ代名詞$\phi$が候補$a_i$を照応する確率を$P(a_i|\phi)$と定義する.ここで,$a_i$と$\phi$を\ref{sec:sosei}節で述べた属性で表現すると式(\ref{eq:pcz1})が成り立つ.\begin{eqnarray}\label{eq:pcz1}P(a_i|\phi)=P(p_i,d_i,r_i,n_i|c,s)\end{eqnarray}\noindent式(\ref{eq:pcz1})は推定すべきパラメータ数が膨大であり,大量の学習データを必要とする.しかし,照応関係を付与したコーパスの作成は高価であり,学習に十分な大きさのコーパスを作成するのは現実的ではない.そこで,モデルの妥当性を保持しつつ確率値の推定を容易にするため,以下の近似を行なう.コーパス分析に基づく我々の予備調査によると,候補$a_i$に関する属性のうち,文間距離$d_i$,連体節に関する制約$r_i$は,それ以外の属性との関連が比較的低い.そこで,$d_i$と$r_i$の独立性を仮定すると,式(\ref{eq:pcz2})が得られる.\begin{eqnarray}\label{eq:pcz2}P(a_i|\phi)\approxP(p_i,n_i|c,s)\cdotP(d_i)\cdotP(r_i)\end{eqnarray}\noindent$P(p_i,n_i|c,s)$において,助詞$p_i$と格$c$はそれぞれ指示対象候補とゼロ代名詞の統語属性であり,意味クラス$n_i$と意味素性$s$はそれぞれ指示対象候補とゼロ代名詞の意味属性である.そこで,統語属性と意味属性間の独立性を仮定すると,式(\ref{eq:pcz})が得られる.\begin{eqnarray}\label{eq:pcz}P(a_i|\phi)\approxP(p_i|c)\cdotP(n_i|s)\cdotP(d_i)\cdotP(r_i)\end{eqnarray}\noindent式(\ref{eq:pcz})の右辺において,統語属性だけからなる要素$P(p_i|c)\cdotP(d_i)\cdotP(r_i)$を{\bf統語モデル},意味属性だけからなる要素$P(n_i|s)$を{\bf意味モデル}と呼ぶことにする.式(\ref{eq:pcz})のそれぞれのパラメータは,照応関係が付与されたコーパスから得られる頻度情報を用いて,式(\ref{eq:ppc})によって計算できる.ここで,$F(x)$はコーパスにおける事象$x$の出現頻度を示す.\begin{eqnarray}\label{eq:ppc}\begin{array}{rcl}P(p_i|c)&=&\displaystyle\frac{F(p_i,c)}{\sum_{j}F(p_j,c)}\\\label{eq:pns}P(n_i|s)&=&\displaystyle\frac{F(n_i,s)}{\sum_{j}F(n_j,s)}\\\label{eq:pd}P(d_i)&=&\displaystyle\frac{F(d_i)}{\sum_{j}F(d_j)}\\\label{eq:pm}P(r_i)&=&\displaystyle\frac{F(r_i)}{\sum_{j}F(m_j)}\end{array}\end{eqnarray}\noindentただし,意味モデル$P(n_i|s)$の推定については,\ref{sec:imimodel}節において照応関係が付与されていないコーパスの利用を検討する.\subsection{照応関係付きコーパスを必要としない意味モデルの推定法}\label{sec:imimodel}データスパースネス問題を避けるため,\ref{sec:kakuritu}節で式(\ref{eq:pcz1})の確率モデルを統語モデルと意味モデルに分解した.しかし,式(\ref{eq:ppc})において,意味クラス$n_i$と意味素性$s$の全ての組み合わせに対して意味モデル$P(n_i|s)$を正しく推定するには,なお大量の学習データが必要であり,データスパースネスを生じやすい.そこで本研究では,照応関係が付与されていないコーパスを利用して意味モデルを推定する手法を提案する.格要素(名詞)の意味素性$s$は,動詞の語義とゼロ代名詞の格によって一意に決まることが多い.これは名詞がゼロ代名詞化されている場合も同様である.しかし,動詞の語義を付与したコーパスは高価であるため,ここではさらに次の近似を行なう.すなわち,動詞に多義性がなく,重複する格が係らないと仮定する.すると,意味素性$s$は動詞$v$とゼロ代名詞の格$c$の組み合わせで表現することができ,式(\ref{eq:pns2})が成り立つ.\begin{eqnarray}\label{eq:pns2}\begin{array}{rcl}P(n_i|s)\approxP(n_i|v,c)\end{array}\end{eqnarray}\noindent$P(n_i|v,c)$は,動詞$v$の格$c$がゼロ代名詞化しているとき,その指示対象の意味クラスが$n_i$である確率を表す.しかし,ゼロ代名詞は省略された格要素であるため,動詞$v$の格$c$に本来埋まるべき名詞とゼロ代名詞の指示対象は同じ意味素性に対応すると考えてよい.そこで,$P(n_i|v,c)$は$\langlen_i$,$v$,$c\rangle$という係り受け(共起関係)を用いて推定することができる.すなわち,本手法は照応関係を付与していないコーパスを学習に利用することができる.なお,照応関係を付与していないコーパスの利用可能性は村田と長尾\citeyear{murata98}も指摘している.意味モデルの学習は次のように行う.まず,照応関係などの付加情報が与えられていない未解析のコーパスを形態素・構文解析し,その結果得られる係り受け関係に基づいて動詞と格要素の共起を自動的に抽出する.続いて,名詞シソーラス(分類語彙表)を利用して格要素を意味クラスに汎化し,意味クラス・動詞・格の共起関係$\langlen_i$,$v$,$c\rangle$を収集する.最後に,共起関係の頻度に基づいて意味モデルを生成する.なお,意味モデルのパラメータ値$P(n_i|\,v,c)$の推定にはデータスパースネス問題を避けるため,線形ディスカウンティング法(lineardiscounting)~\cite{ney94}を用いる.ただし,動詞$v$の格$c$に関して何ら共起情報が得られない場合,および候補$a_i$が名詞シソーラスに未登録で「未知語クラス」が与えられている場合は,全ての意味クラス(544種類)に関して等確率を与える.式(\ref{eq:pns3})に意味モデルの計算式を示す.ここで$\alpha$は比例定数(ディスカウント係数)である.また,$N_0$は動詞$v$,格$c$が与えられたときに,$F(v,c)>0$かつ$F(n_i,v,c)=0$であるような意味クラス$n_i$の総数を表す.\begin{eqnarray}\label{eq:pns3}\begin{array}{rcl}P(n_i|v,c)=\left\{\begin{array}{ll}\vspace*{2mm}\displaystyle\alpha\cdot\frac{F(n_i,v,c)}{F(v,c)}&if\F(n_i,v,c)>0\\\vspace*{2mm}\displaystyle\frac{(1-\alpha)}{N_0}&else\if\F(v,c)>0\かつF(n_i,v,c)=0\\\displaystyle\frac{1}{544}&else\if\F(v,c)=0\またはn_i=\mbox{未知語クラス}\end{array}\right.\end{array}\end{eqnarray}候補$a_i$に複数の意味クラスが与えられている場合は,候補$a_i$と各意味クラスが等確率に対応すると仮定する.すなわち,全ての意味クラスについて意味モデルのパラメータ値を計算し,その平均を候補$a_i$の意味モデルのパラメータ値とする.以上の操作によってモデルを構築することができたものの,動詞の多義性を無視することは言語学的には必ずしも妥当ではない.しかし,\mbox{\ref{sec:jikken}章}の評価実験において,本手法は照応関係を付与したコーパスを用いた場合よりも,ゼロ代名詞の照応解析において有効であることを示す.\subsection{照応解析に関する確信度}\label{sec:certainty}照応解析の結果を機械翻訳など他の処理に応用する場合,照応関係の特定を誤ると後続の処理にも悪影響を及ぼす.このような場合,テキスト中の全てのゼロ代名詞を処理することよりも,誤りを犯さないように確実な結果だけを出力することが重要である.言い換えれば,照応解析の被覆率(coverage)よりも精度(accuracy)が重視される場合がある.照応解析処理の精度を向上させるためには,解析結果が正解である確信が高いゼロ代名詞だけを出力すればよい.そこで,確信度を定量化し,その値が一定の閾値よりも大きい場合だけ結果を出力する(原理的に被覆率は低下する).具体的には,式(\ref{eq:pcz})で定義される確率スコア$P(a_i|\phi)$を利用し,以下の特性(a)と(b)に基づいて確信度を計算する.なお,$P_j(\phi)$は$j$番目に大きい確率スコアとする.\begin{flushleft}\begin{itemize}\item[(a)]$P_1(\phi)$~$(=\max_iP(a_i|\phi))$が大きいほど確信度が高い\item[(b)]$P_1(\phi)$と$P_2(\phi)$の差が大きいほど確信度が高い\end{itemize}\end{flushleft}\noindent式(\ref{eq:certainty})に確信度$C(\phi)$の計算式を示す.\begin{eqnarray}\label{eq:certainty}C(\phi)=t\cdotP_1(\phi)+(1-t)(P_1(\phi)-P_2(\phi))\end{eqnarray}\noindentここで,右辺の第1,2項はそれぞれ上記(a)~(b)に対応し,$t$は両者の影響を制御する定数である.
\section{評価実験}
\label{sec:jikken}\subsection{実験方法}\label{sec:data}\ref{sec:houhou}章で提案した照応解析手法の有効性を実験によって評価した.実験には,京都大学テキストコーパスver.2.0~\cite{kuro98}を利用した.当コーパスは,毎日新聞1995年版の報道記事と社説記事を各1万文ずつJUMANとKNP(本システムで用いた形態素・構文解析器)で解析し,その結果を人手で修正したものである.図\ref{fig:kd-corpus}に京都大学テキストコーパスの一部を示す.\mbox{図\ref{fig:kd-corpus}}において,第1行目は文IDであり,「{\tt*}」で始まる行が文節の先頭,行末の「{\tt3D}」は文節「{\tt3}」に係ることを示している.それ以外の行は文節に含まれる形態素情報である.\begin{figure}[htbp]\begin{center}\fbox{\epsfile{file=eps/kd-corpus.eps,scale=1}}\caption{京都大学テキストコーパスの一部}\label{fig:kd-corpus}\end{center}\end{figure}\noindent当該コーパスから社説記事30件,報道記事30件を無作為抽出し,ゼロ代名詞の照応関係を人手で付与し,正解セットを作成した.なお,社説と報道記事は文体等の違いにより照応関係にも顕著な差があると考え,両者を区別して実験に用いた.実験に用いたコーパスの特徴を表\ref{tab:statistics}に示す.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{照応の種類ごとのゼロ代名詞数}\label{tab:statistics}\medskip\small\begin{tabular}{ccr@{\\\\\}crrcr}\hline\hline&&&\multicolumn{5}{c}{ゼロ代名詞数(割合[\%])}\\\cline{4-8}記事種&記事数&\multicolumn{1}{c}{文数}&外界&\multicolumn{1}{c}{後方}&\multicolumn{2}{c}{前方照応}&\multicolumn{1}{c}{計}\\\cline{6-7}&&&照応&\multicolumn{1}{c}{照応}&\multicolumn{1}{c}{名詞}&文や節&\\\hline社説&30&867&371(33.5)&48(4.3)&627(56.6)&62(5.6)&1,108\\報道&30&423&157(25.0)&7(1.1)&449(71.6)&14(2.2)&627\\\hline計&60&1,290&528(30.4)&55(3.2)&1076(62.0)&76(4.4)&1,735\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:statistics}に示されるように,新聞記事には記事種によらず前方照応のゼロ代名詞が最も多く現われた.特に,報道記事では7割以上の照応が名詞を指す前方照応であった.一方,社説記事では照応の種類ごとのゼロ代名詞数が比較的分散しており,文章外や後方に対しても報道記事より多くの照応表現が用いられていることが分かる.照応関係を付与したコーパスに対して,\ref{sec:detection}節で述べた方法によりゼロ代名詞特定処理を行なった.結果を表\ref{tab:identResult}に示す.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{ゼロ代名詞特定処理の結果}\label{tab:identResult}\small\medskip\begin{tabular}{ccccccc}\hline\hline記事種&\begin{tabular}{c}全てのゼロ\\代名詞(a)\end{tabular}&特定数(b)&特定成功数(c)&再現率(c/a)&適合率(c/b)&評価対象数\\\hline社説&1,108&2,141&\\968&87.4\%&45.2\%&498\\報道&\\627&1,130&\\553&88.2\%&48.9\%&355\\\hline計&1,735&3,271&1,521&87.7\%&46.5\%&853\\\hline\end{tabular}\end{center}\end{table}人手で特定した全てのゼロ代名詞に関して,全体で87.7\%のゼロ代名詞がシステムによって特定された.しかし,特定に成功したゼロ代名詞数(c)に比べ,システムが特定したゼロ代名詞数(b)が倍以上あり,適合率は全体で46.5\%とやや低い.ゼロ代名詞特定処理の精密化は,今後の課題である.本実験の焦点は,ゼロ代名詞の出現箇所特定ではなく照応解析にある.そこで以下の実験では,システムが特定に成功したゼロ代名詞のうち前方の名詞を照応するゼロ代名詞853箇所だけを評価の対象とする.すなわち,照応解析処理はゼロ代名詞特定処理と区別して評価する.評価実験には次のような交差確認法を用いた.すなわち,社説記事・報道記事のそれぞれについて,29記事を確率モデルの学習,残り1記事を評価用の入力テキストとして利用し,入力テキストを変えながら同様の試行を30回繰り返し,その結果を平均した.意味モデルの推定に用いる動詞と格要素の共起情報の抽出には,1994〜1999年の毎日新聞6年分に含まれる約480万文を用いた.動詞と格要素の共起情報は,新聞記事をJUMANで形態素解析し,(複合)名詞を後方最近傍の動詞に係ると仮定して抽出した.ただし,使役・可能・受身文は格の交替が起きるので共起関係の抽出には用いなかった.ここでは,動詞の活用形が未然形であるか語尾が「〜できる」という表層パターンに一致する動詞を使役・可能・受身のいずれかであると見なし,共起関係の抽出から除外した.また,(複合)名詞に読点が続くと係り先が必ずしも最近傍でないことが多いので,これらも抽出対象から除外した.この結果,25,640の動詞について,合計約255万組の共起関係$\langlen_i,c,v\rangle$(\ref{sec:imimodel}節参照)が抽出された.照応解析の評価尺度として,式(\ref{eq:accuracy})に示す正解率と被覆率を用いた.\begin{eqnarray}\label{eq:accuracy}\begin{array}{rcl}\vspace*{2mm}正解率&=&\displaystyle\frac{正しく照応解析されたゼロ代名詞数}{結果を出力したゼロ代名詞数}\\被覆率&=&\displaystyle\frac{結果を出力したゼロ代名詞数}{評価の対象としたゼロ代名詞数}\end{array}\end{eqnarray}\noindentここで,「評価の対象としたゼロ代名詞数」は自動検出に成功した前方照応のゼロ代名詞数を指す.また,「結果を出力したゼロ代名詞数」は通常「評価の対象としたゼロ代名詞数」と同一であり,\ref{sec:certainty}節で述べた確信度を用いてシステム出力を制限した場合だけ減少する.\subsection{実験結果}\label{sec:result}本研究で提案する確率モデルの有効性を示すため,以下の異なる手法(モデル)を比較評価した.なお「組合せ2」が本研究の提案手法に相当する.\begin{itemize}\item統語モデルのみ利用(「統語」)\item式(\ref{eq:pns})による意味モデルのみ利用(「意味1」)\\ここでは学習用の29記事から意味モデルを生成し,照応解析に利用した.\item式(\ref{eq:pns2})による共起情報を用いた意味モデルのみ利用(「意味2」)\\ここでは上記29記事は利用せず,毎日新聞から抽出した共起情報$\langlen_i,c,v\rangle$のみを照応解析に利用した.\item統語モデルと意味モデル1の組合せを利用(「組合せ1」)\item意味モデルと統語モデル2の組合せを利用(「組合せ2」)\item人手規則に基づくモデルを利用(「規則」)\end{itemize}評価のベースラインとして,人手規則に基づくモデル(上記「規則」)を用意した.これは,京都大学テキストコーパスから抽出した社説記事10記事を訓練データとして,約2人月で人手作成したモデルであり,主に,a)指示対象候補に後接する助詞,b)ゼロ代名詞と指示対象候補間の距離(文数),c)ゼロ代名詞と指示対象候補間の意味的整合性に関する規則を利用し,ゼロ代名詞の照応解析を行なう.各モデルの照応解析結果を表\ref{tab:riyousosei}に示す.ここで「1位」「1-2位」「1-3位」は,確率スコア$P(a_i|\phi)$の値に基づいて該当する上位の結果だけを出力した場合の正解数(正解率)である.例えば,「1-3位」の場合,上位3位中に正解の指示対象が含まれれば「正解」と判定した.また,「正解の平均順位」は入力テキストから抽出された指示対象候補中での正解候補の平均順位を表す.ここで,抽出候補数はモデルによらず社説記事で平均25.1個,報道記事で平均27.3個であるため,無作為に選択すると正解の平均順位はそれぞれ12.5位,13.6位となる.また,太字の数字は最も正解率の高かったモデルを記事種ごとに示している.以下,表\ref{tab:riyousosei}の結果について検討する.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{照応解析の実験結果}\label{tab:riyousosei}\small\smallskip\begin{tabular}{cclcccc}\hline\hline&&&\multicolumn{3}{c}{正解数(正解率(\%))}&正解の\\\cline{4-6}記事種&&モデル&1位&1-2位&1-3位&平均順位\\\hline&&統語&173(34.7)&247(49.6)&300(60.2)&4.8\\\cline{3-7}&&意味1&124(24.9)&195(39.2)&248(49.8)&7.2\\社説&&意味2&145(29.1)&214(43.0)&250(50.2)&6.0\\\cline{3-7}&&組合せ1&186(37.3)&260(52.2)&307(61.6)&4.6\\&&組合せ2&{\bf198(39.8)}&\bf{274(55.2)}&\bf{311(62.4)}&{\bf4.5}\\\cline{3-7}&&規則&180(36.1)&259(52.0)&295(59.2)&5.1\\\hline&&統語&187(52.7)&222(62.5)&248(69.9)&4.1\\\cline{3-7}&&意味1&93(26.2)&145(40.8)&186(52.4)&6.3\\報道&&意味2&114(32.1)&186(52.4)&221(62.3)&5.0\\\cline{3-7}&&組合せ1&173(48.7)&226(63.7)&252(71.0)&4.0\\&&組合せ2&\bf{192(54.0)}&{\bf235(66.2)}&{\bf268(75.5)}&{\bf3.2}\\\cline{3-7}&&規則&131(36.9)&185(52.1)&222(62.5)&5.0\\\hline\end{tabular}\end{center}\end{table}まず,照応関係を付与したコーパスを用いて推定を行なう「意味1」と,動詞と格要素の共起情報に基づく「意味2」の結果を比較すると,記事種によらず後者が良い結果を示した.この理由として次の三点が考えられる.\begin{enumerate}\item[(a)]大規模なコーパスを学習に用いたことで,データスパースネスを解消することができた.\item[(b)]動詞と格の組合せで意味素性を表すことにより,IPAL動詞辞書における意味素性分類の粒度の粗さを補うことができた.\item[(c)]「意味1」では,IPAL動詞辞書を用いて格フレームを取得できない動詞に関してゼロ代名詞の意味素性を決定できない.これに対して,「意味2」は動詞$v$と格$c$に基づく意味素性$s$の近似によって意味モデル$P(n_i|s)$を推定できる.\end{enumerate}\noindentここで(c)は,IPAL動詞辞書から格フレームを得ることができない場合にだけ影響する.よって,IPAL動詞辞書から格フレームを得ることができた場合だけを対象に照応解析実験を行なえば,上記(a)~(b)に挙げた理由を裏付けることができる(ただし,それぞれの寄与の程度は測定できない).この実験を行なって「意味1」と「意味2」の結果を比較したところ,1位の正解率が社説記事で24.8\%から30.5\%に,報道記事で27.2\%から33.2\%にそれぞれ向上した.すなわち,ゼロ代名詞に意味素性が与えられている場合だけを対象としても「意味2」は「\mbox{意味1}」より高い精度が得られ,上記の理由(a)~(b)の正当性が示された.一方,「統語」モデルは「意味2」と比較してさらに5〜20ポイント程度高い正解率が得られた.この結果から,本手法で利用した意味的属性に比べ,助詞や距離などの統語的属性が照応関係の特定により有効であることが分かる.さらに,両属性を組み合わせた場合(組合せ1,組合せ2)は,統語的・意味的属性をそれぞれ単独で用いるよりもほとんどの場合に正解率が向上した.唯一「組合せ1」を用いて報道記事を照応解析した場合,1位の正解率が52.7\%から48.7\%に低下しているものの,正しい指示対象の「平均順位」は4.1位から4.0位に向上しており,全体としては正しい指示対象が候補群の中で上位に移動している.一方,共起情報を用いた意味モデルと統語モデルを組み合わせた場合(組合せ2),社説記事,報道記事とも唯一解の正解率がそれぞれ,39.8\%,54.0\%で最大となった.これらの結果から,統語的・意味的属性が相補的に機能し,両属性を複合的に利用することがゼロ代名詞の照応解析に有効であることが分かる.続いて「組合せ2」と人手規則によるモデル「規則」の結果を比較すると,前者の方が社説記事で約2〜3ポイント,報道記事では10ポイント以上高い正解率が得られた.報道記事に関する正解率の向上がより大きいのは,照応解析規則作成時の訓練データとして社説記事を利用したため,作成した規則やその適用順序が報道記事ではうまく機能しなかったためである.このように「組合せ2」を用いた場合は,両記事種において「規則」以上の性能を示し,本手法が処理対象テキストの分野の変化に対しても頑健であることが分かる.照応関係を付与したコーパスは一般に高価であるため,統計的手法では学習データ量と正解率の関係が重要である.本手法は統語モデルの推定に人手で作成したコーパスを利用しているため,まず統語モデルの推定に用いる学習データ量と照応解析の正解率の関係を調査した.\mbox{図\ref{fig:shasetu}}は,モデル「組合せ2」において学習データ量を0〜29記事まで変化させたときの1位の正解率の変化を示したものである.学習データ量が0記事の場合は,共起情報を用いた意味モデルのみで照応解析を行なう(「意味2」に相当).\begin{figure}[htbp]\begin{center}\epsfile{file=eps/training.eps,scale=0.8}\caption{統語モデルの学習データ量と正解率の関係(「組合せ2」の結果)}\label{fig:shasetu}\end{center}\end{figure}図\ref{fig:shasetu}を見ると,記事種によらずに学習データ量の増加とともに正解率が向上し,特に0〜10記事程度の学習データを用いた場合の立ち上がりが顕著であった.続いて,「組合せ2」において統語モデルの学習データ量を29記事に固定し,意味モデルの推定に用いる新聞記事の量を1〜6年分まで変化させた場合の正解率の変化を図\ref{fig:shasetu.k}に示す.社説記事,報道記事ともに,共起情報の獲得に利用する新聞記事の量とともに緩やかに正解率が向上した.新聞記事5〜6年を使った場合でも正解率が微増していることから,さらに新聞記事の量を増やすことで正解率の向上が期待できる.なお,意味モデルの学習に利用する新聞記事には形態素・構文情報や照応関係を人手で与える必要がないため,学習データの追加に伴うコストは低い点に注意を要する.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/kyouki.eps,scale=0.8}\caption{意味モデルの学習データ量と正解率の関係(「組合せ2」の結果)}\label{fig:shasetu.k}\end{center}\end{figure}最後に,確信度$C(\phi)$に関する評価実験を行なった(\ref{sec:certainty}節参照).すなわち,各ゼロ代名詞について確信度が閾値以上の場合だけ結果を出力し,閾値を変化させながら照応解析の被覆率と正解率の関係を調査した.その結果を図\ref{fig:sikii}に示す.なお,式(\ref{eq:certainty})中の定数$t$は,本実験では経験的に$0.5$とした.記事種によらず,被覆率の低下にともなって正解率が向上し,被覆率10\%以下で共に70\%以上の正解率が得られた.この傾向は報道記事の場合,特に顕著だった.この結果より,本研究で提案した確信度が照応解析処理の正解率向上に有効であることが確かめられた.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/coverage-accuracy.eps,scale=0.8}\caption{確信度に関する閾値を変化させた場合の被覆率と正解率の関係}\label{fig:sikii}\end{center}\end{figure}\subsection{考察}\label{sec:kousatsu}本手法で提案した確率モデルでは,動詞に多義性がないと仮定し,ゼロ代名詞の意味素性$s$を動詞$v$と格$c$で近似することで意味モデルを推定している(\ref{sec:imimodel}~節参照).また,\ref{sec:result}~節の評価実験では,動詞と格要素の共起情報を用いた意味モデル(「意味2」)は共起情報を用いないモデル(「意味1」)よりも正解率が高いものの,統語モデルと比べると一貫して正解率が低かった.そこで本節では,動詞と格による意味素性の近似が照応解析に与える影響を調査するため,意味モデルのパラメータ値に注目して照応解析の誤り例を分析した.提案手法(「組合せ2」)を用いて照応解析を行なった場合に,正しい指示対象(以下,正解候補と呼ぶ)が最上位に順位付けられたゼロ代名詞は,社説記事と報道記事を合わせて390件であった(表\ref{tab:riyousosei}参照).ここでは,それ以外の463~($=853-390$)件を誤りと見なし,そこから無作為に抽出した40件について誤りの原因を調べた.結果を表\ref{tab:causes}に示す.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{照応解析誤りの内訳}\label{tab:causes}\small\smallskip\begin{tabular}{lr@{~}r}\hline\hline\multicolumn{1}{c}{誤りの原因}&\multicolumn{2}{c}{件数}\\\hline正解候補が動詞の格要素として意味的に整合するのに共起頻度が低い&19&(47.5\%)\\動詞の格要素として意味的に整合する指示対象候補が複数ある&13&(32.5\%)\\多義動詞(語義の弁別が必要)&3&(7.5\%)\\正解候補の意味クラスがない(分類語彙表に記載されていない)&3&(7.5\%)\\正解候補が動詞の格要素として意味的に整合しない&2&(5.0\%)\\\hline\multicolumn{1}{c}{計}&40\\\hline\end{tabular}\end{center}\end{table}分析の結果,照応解析を誤る主要な原因は次の二点にあり,両者を合わせて分析した事例の80\%を占めた.一つは,正解候補が動詞の格要素として意味的に整合するにもかかわらず,学習データ中での両者の共起頻度が比較的少ないために,意味モデルのパラメータ値が期待される値よりも低くなる場合である.もう一つは,正解候補以外にも意味的整合性が同程度の候補が存在し,かつそれらの候補の統語モデルのパラメータ値が正解候補の統語モデルのパラメータ値よりも大きいために,正解候補の最終的な確率スコア$P(a_i|\phi)$が相対的に小さくなる場合である.これに対して,動詞の多義性を考慮しなかったために照応関係の特定を誤った例,すなわち語義の弁別を必要とした例は40件中3件(7.5\%)であった.このように,動詞の多義性を無視したことによる悪影響は比較的少なく,動詞と格による意味素性の近似が日本語ゼロ代名詞の照応解析に有効に働くことが実験的に示された.ゼロ代名詞の照応解析処理精度をさらに向上させるためには,前述の照応解析を誤る主要な二つの原因への対処が重要である.以下,それぞれの原因による誤り例を示す.なお,ゼロ代名詞の出現位置を「$\phi$」,ゼロ代名詞を含む動詞を下線,誤って特定された指示対象(誤)と正解候補(正)を太字で示す.\begin{flushleft}\begin{quote}\begin{itemize}\item[(例2)]$\cdots$だが、いつかやって来る地震に備えて、さまざまな手を打つことができる。例えば要注意の活断層の近くでは、新たな開発の規制や建築物の補強、耐震基準の強化などを行うことが重要な課題になる。{\bf自治体}$_{(誤)}$が詳細な活断層地図を公表し、だれもが自分の家や会社の置かれた状況を理解できるようにすべきではないか。米国カリフォルニア州では活断層周辺の開発を規制し、成果を上げている。世界一の地震国である日本も見習うべきだろう。これまで地震予知や活断層、構造物の安全性などの{\bf専門家}$_{(正)}$がそれぞれ別々に研究を進めてきた。($\phi$~ガ)お互いにデータを\underline{公開し}合うことも少なかった。$\cdots$\end{itemize}\end{quote}\end{flushleft}\noindent例2は,指示対象が意味的に整合するにもかかわらず意味モデルのパラメータ値が低くなる例である.このゼロ代名詞の正しい指示対象は「専門家」であるのに対し,確率スコア$P(a_i|\phi)$を最大化する候補は「自治体」であった.これは,いずれの語も意味的に容認できるにもかかわらず,「専門家(意味クラス$n=12340$)」の意味モデルのパラメータ値(0.0002)が「自治体($n=12700$)」のパラメータ値(0.0373)より著しく小さいことに原因がある.これは,今回の実験に用いた学習データにおいては,\mbox{~$\langle12340,ガ,公開する\rangle$~}の出現頻度が\mbox{~$\langle12700,ガ,公開する\rangle$~}の頻度と比べて極端に低かったことを示している.このように,学習に用いたコーパス中の出現頻度が必ずしも直観的な正しさを表さないという現象は,コーパスを用いた統計的な手法における典型的な問題であり,今後さらに検討しなければならない.なお,人手作成の規則に基づく手法(「規則」)を用いた場合も,例2の指示対象は正しく特定できなかった.これは,「公開し」(基本形:公開する)がIPAL動詞辞書に未記載で意味素性を取得できず,正しい指示対象「専門家」との意味的な整合性を判定できなかったためである.次に,正しい指示対象以外にも同程度の意味的整合性を持つ候補が存在し,照応解析を誤る例を示す.\begin{flushleft}\begin{quote}\begin{itemize}\item[(例3)]$\cdots${\bf英国}$_{(誤)}$はこの間、調整に遅れたため、重化学工業の発展は、ドイツ、米国に先を越され、七つの海を支配した大英帝国の没落に直結するのだ。{\bf日本}$_{(正)}$も大戦略を立てねば、二十一世紀には、($\phi$~ガ)繁栄を\underline{見ないまま}没落する。$\cdots$\end{itemize}\end{quote}\end{flushleft}\noindent例3では,正解候補「日本」に対して「英国」が指示対象として誤って特定される.それぞれの候補の意味モデルのパラメータ値は,「日本」「英国」とも0.0142である.また直観的にも,動詞「見ないまま」の格要素としての意味的整合性だけで両者を区別することはできない.このように,意味モデルによって正解を識別することができない場合は,統語モデルの貢献によって高い確率スコアを与える必要がある.しかし,統語モデルのパラメータ値は「日本」が0.0056,「英国」が0.0134であり,現在のモデルで利用している属性のみで正解候補「日本」に高い確率スコアを与えることは難しい.新たな属性として,例えば重文の接続助詞(例3では「(〜立てね)ば」)\cite{naka96},前後の動詞の意味的な関連性(例:Aが戦略を立てない$\rightarrow$Aが繁栄を見ない)\cite{naka93}なども検討する必要がある.なお「規則」に基づく手法を用いた場合も,例3の指示対象を正しく特定することはできなかった.これは,「見ない」(基本形:見る)のガ格の意味素性として,IPAL動詞辞書の格フレームに「ORG」が含まれておらず,正しい指示対象「日本」と適合しなかったことが原因である.
\section{関連研究との比較}
\label{sec:hikaku}江原と金\citeyear{ehar96}は,日英機械翻訳の前編集において,日本語の原文(長文)を短文に分割した際に発生する主格の欠落をゼロ主語(ガ格のゼロ代名詞)と見なし,確率モデルを用いて補完する手法を提案した.彼らは,ニュース原稿108文を対象に評価実験を行ない,オープンテストで80.6\%の正解率を得ている.しかし,この手法は同一文内に指示対象がある場合のみが対象であり,それ以前の文脈に指示対象が現れる状況を考慮していない.ゼロ主語の照応先は同文内とは限らず,照応先としてゼロ主語以前の文脈を考慮するほど指示対象候補が増えて照応解析が難しくなる.事実,彼らの実験においてゼロ主語ごとの指示対象候補は平均3.9個であり,本研究に比べると極端に少ない(\ref{sec:result}~節参照).AoneとBennett~\citeyear{aone95}は,ゼロ代名詞とそれ以外の照応詞(固有名詞,限定詞)を対象に,決定木を用いた照応解析手法を提案した.彼らは,合弁事業に関する新聞記事を用いて評価実験を行ない,ゼロ代名詞に関して,オープンテストで80\%前後の正解率を得ている.しかし,この実験で対象となったゼロ代名詞は,会社名等の組織を照応するものに限定されている.よって,指示対象候補として会社名等のみを考慮すればよく,この制約により大幅に候補を絞り込める.以上二つの先行研究と比較して,本研究は前方照応のゼロ代名詞全般を対象にしており,適用範囲が広い.また,以上の研究が学習データとして人手で照応関係を付与したコーパスを必要とするのに対し,本提案手法は,照応関係が付与されていないコーパスを併用することで,大規模なコーパスを容易に学習に利用できる.また本手法では,確信度を利用することで正解の確信が高いゼロ代名詞のみ選択的に結果を出力し,利用目的に応じて照応解析の正解率を向上させることができる.
\section{おわりに}
\label{sec:conclusion}本論文は,確率モデルを用いて日本語ゼロ代名詞の前方照応解析を行なう手法を提案し,評価実験を通してその有効性を示した.本手法は,ゼロ代名詞と指示対象に関する属性間の依存関係に基づいて確率モデルを意味モデルと統語モデルに分解し,パラメータ推定を効率化する.統語モデルの推定には,照応関係が付与されたコーパスを学習データとして用い,意味モデルに関しては,動詞と格要素の共起関係を利用することで,照応関係が付与されていないコーパスからの学習を可能にする.また,照応解析の精度向上のために確信度を定量化する手法を提案した.新聞記事コーパスを用いて統語モデルと意味モデルを個別に評価したところ,統語モデルは意味モデルよりも5〜20ポイント程度高い正解率を示した.この結果から,本手法で利用した属性のうち,ゼロ代名詞と指示対象間の統語的な属性が照応解析の手がかりとしてより有効であることが分かった.両モデルを組み合わせて用いる提案手法では,さらに正解率が向上し,統語属性と意味属性が相補的に機能することが分かった.また,人手規則による手法と比べると,提案手法は報道・社説記事のいずれにおいても良い結果を示した.さらに,確信度を用いて選択的に指示対象を出力したところ,正解率のさらなる向上を確認できた.今後の研究課題として以下の点が残されている.確信度を用いて照応解析を行なった場合,(確信度を用いない)通常の手法と比較して正解率は向上するものの,高い正解率を得るためには被覆率の低下も大きい.よって,ゼロ代名詞の照応解析をより実用的な処理とするには,高い正解率を保持しつつ被覆率をさらに向上させる必要がある.また,そもそもゼロ代名詞の照応解析を行なうためには,ゼロ代名詞の出現箇所を正確に検出する必要がある.ゼロ代名詞出現箇所の特定には,連体修飾節と係り先の名詞の格関係の解析,述語と格要素の係り受け・格解析などを高精度で実現し,加えて大規模な格フレーム辞書を整備する必要がある.\bibliographystyle{jnlpbbl}\bibliography{reference}\begin{biography}\biotitle{略歴}\bioauthor{関和広}{2000年3月図書館情報大学卒業.2002年3月,図書館情報大学大学院情報メディア研究科博士前期課程修了.2002年4月産業技術総合研究所情報処理研究部門非常勤研究員.2002年9月からIndianaUniversity,SchoolofLibraryandInformationScience,DoctoralProgramに進学予定.自然言語処理に興味を持つ.}\bioauthor{藤井敦}{1993年3月東京工業大学工学部情報工学科卒業.1998年3月同大学大学院博士課程修了.1998年図書館情報大学助手,現在に至る.博士(工学).自然言語処理,情報検索,音声言語処理の研究に従事.情報処理学会,人工知能学会,電子情報通信学会,AssociationforComputationalLinguistics各会員.}\bioauthor{石川徹也}{1977年3月慶應義塾大学大学院修士課程(図書館情報学)修了.富士写真フイルム(株)足柄研究所入社,図書館短期大学を経て現在,図書館情報大学教授.工学博士.情報管理システムの高度化の研究に従事.情報処理学会,人工知能学会,ACM等各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N04-02
|
\section{はじめに}
label{sec:introduction}単語を密ベクトルで表現する単語分散表現\cite{mikolov-13b,mikolov-13a,pennington-14,levy-14,bojanowski-17}が,機械翻訳\cite{sutskever-14},文書分類\cite{mikolov-14}および語彙的換言\cite{melamud-15}など多くの自然言語処理応用タスクにおける性能改善に大きく貢献してきた.単語分散表現は今やこれら応用タスクの基盤となっており,その性能改善は重要な課題である.広く利用されているCBOW(ContinuousBag-of-Words)\cite{mikolov-13a}やSGNS(Skip-gramwithNegativeSampling)\cite{mikolov-13b}などの手法では各単語に対して$1$つの分散表現を生成するが,LiandJurafsky\citeyear{li-17}によって,語義ごとに分散表現を生成することで多くの応用タスクの性能改善に貢献することが示されている.そこで,本研究では各単語に複数の語義の分散表現を割り当てる手法を提案する.文脈に応じて分散表現を使い分けるために,多義語に複数の分散表現を割り当てる手法\linebreak\cite{neelakantan-14,paetzold-16d,fadaee-17,athiwaratkun-17}が提案されている.しかし,語義曖昧性解消はそれ自体が難しいタスクであるため,これらの先行研究では近似的なアプローチを用いている.例えば,PaetzoldandSpecia\citeyear{paetzold-16d}は品詞ごとに,Fadaeeら\citeyear{fadaee-17}はトピックごとに異なる分散表現を生成するが,これらの手法には多義性を扱う粒度が粗いという課題がある.以下の例では,いずれの文もトピックは{\ttfood}であり,単語{\ttsoft}の品詞は形容詞である.\begin{enumerate}\renewcommand{\labelenumi}{}\setlength{\leftskip}{1.0cm}\item{\itIatea\textit{\textbf{soft}}candy.}\label{enum:soft1}\item{\itIdrunk\textit{\textbf{soft}}drinks.}\label{enum:soft2}\end{enumerate}先行研究ではこれらの単語{\ttsoft}を同じ分散表現で表す.しかし,例\ref{enum:soft1})の単語{\ttsoft}は{\tttender}という意味を,例\ref{enum:soft2})の{\ttsoft}は{\ttnon-alcoholic}という意味を表すため,これらに同一の分散表現を生成するのは適切ではない.このような品詞やトピックでは区別できない多義性を考慮するために,各単語により細かい粒度で複数の分散表現を割り当てることが望ましい.そこで本研究では,文脈中の単語を手がかりとして,先行研究よりも細かい粒度で各単語に複数の分散表現を割り当てる$2$つの手法を提案する.$1$つ目の手法は,文脈中の代表的な$1$単語を考慮して語義の分散表現を生成する手法である.この手法では語義を区別する手がかりとして,各単語と依存関係にある単語を用いる.$2$つ目の手法は,文脈中の全ての単語を考慮して語義の分散表現を生成する手法である.この手法では双方向LSTM(LongShort-TermMemory)を用いて文中に出現する全ての単語を同時に考慮する.どちらの手法も教師なし学習に基づいており,訓練データが不要という利点がある.提案手法の有効性を評価するため,多義性を考慮する分散表現が特に重要な,文脈中での単語間の意味的類似度推定タスク\cite{huang-12}および語彙的換言タスク\cite{mccarthy-07,kremer-14,ashihara-19a}において実験を行った.評価の結果,提案手法は先行研究\cite{neelakantan-14,paetzold-16d,fadaee-17}よりも高い性能を発揮し,より細かい粒度で分散表現を生成することが応用タスクでの性能向上に繋がることが示された.また,詳細な分析の結果,文脈中の代表的な$1$単語を考慮して語義の分散表現を生成する手法は文長に影響を受けにくいため,文が長い場合に,文脈中の全ての単語を考慮して語義の分散表現を生成する手法よりも高い性能を示すことが確認できた.
\section{関連研究}
LiandJurafsky\citeyear{li-17}は,各単語に複数の分散表現を与えることが,品詞付与や文の意味的類似度推定など多くの応用タスクの性能改善に貢献することを示した.このような各単語に複数の分散表現を与える先行研究は,予め複数の分散表現を生成する手法と文脈から動的に分散表現を生成する手法に大別できる.予め各単語に複数の分散表現を生成する手法として,以下に示す先行研究がある.AthiwaratkunandWilson\citeyear{athiwaratkun-17}は,全ての単語が定数個の語義を持つと仮定し,各単語に複数の分散表現を生成した.彼らは語義数として$2$または$3$を仮定しているが,現実的には語義数は単語ごとに大きく異なる.Neelakantanら\citeyear{neelakantan-14}は文脈の類似度に基づいて語義に相当するクラスタリングを行い,各単語に対してクラスタごとに分散表現を生成した.しかし,語義曖昧性解消はそれ自体が難しいタスクであり,クラスタリングの性能が分散表現学習の性能に影響を与えてしまう.PaetzoldandSpecia\citeyear{paetzold-16d}は,各単語に対して品詞ごとに分散表現を生成した.品詞付与は解析誤りの影響が小さいという利点を持つが,先述の例\ref{enum:soft1})と例\ref{enum:soft2})のように同じ品詞の中でも更に多義性を持つ単語が存在する.Fadaeeら\citeyear{fadaee-17}は,各単語に対してトピックごとに分散表現を生成した.トピックは品詞よりも細かい粒度で語義を区別できるが,例\ref{enum:soft1})と例\ref{enum:soft2})のように更に細かい粒度で語義を区別することが望まれる場合がある.文脈から各単語の分散表現を動的に生成するモデルとして,\citeA{melamud-16}はcontext2vecを提案した.context2vecでは,word2vecのCBOWアルゴリズム\cite{mikolov-13a}と同様に単語ベクトルと文脈ベクトルを近づける学習を行うが,窓幅を設けず双方向LSTMによって文全体を符号化する.また,単語ベクトルと文脈ベクトルが同じ空間に埋め込まれるため,単語-単語間,文脈-文脈間,単語-文脈間のそれぞれで余弦類似度による意味的類似度の計算ができる.このモデルは語彙的換言タスクで高い性能を示しているが,最適なハイパーパラメータの決定のためにラベル付きデータが必要となる.我々の提案手法はラベル付きデータセットを一切使用しない教師なし学習であるため,本稿における評価実験においてはcontext2vecを比較対象としないこととする.深層学習に基づく自然言語処理では,LSTMなどのRecurrentNeuralNetworkを用いてタスクに応じて入力文を符号化することが多い.特に,ELMo\cite{peters-18}は,大規模コーパスを用いた双方向言語モデルの訓練によって,固有表現抽出など多くの応用タスクにおいて有用な文脈化された単語分散表現を獲得することに成功している.一般的にELMoは,任意の応用タスクにおける再訓練を経て,タスクに特化した単語分散表現\footnote{ELMoによって得られる単語分散表現は応用タスクにおける埋め込み層や隠れ層と連結して使用する.}を生成する.本研究では,ELMoを意味的類似度推定タスクおよび語彙的換言タスクに適用する.教師なし学習による設定で実験を行うため,ELMoの文脈化された単語分散表現は再訓練しないものとする.多義性を考慮する分散表現の評価のために,多くの先行研究\cite{melamud-15,roller-16,fadaee-17}で文脈中での単語間の意味的類似度推定タスクおよび語彙的換言タスクが採用されている.文脈中での単語間の意味的類似度推定タスクは,与えられた$2$つの文脈中の単語対の類似度を推定するタスクである.語彙的換言タスクは,文脈,ターゲット単語,言い換え候補が与えられ,言い換え候補を文脈中のターゲット単語との置換可能性の観点からランキングするタスクである.どちらのタスクも文脈中での単語の意味を考慮することが重要である.我々も先行研究に従い,提案手法の有効性を両タスクを用いて評価する.本研究では扱わないが,多義性を考慮する分散表現が重要なタスクとして,WiC\cite{pilehvar-19}が新たに提案された.WiCでは,同一のターゲット単語を含む$2$つの文脈が与えられる.このタスクの目的は,与えられた文脈中のターゲット単語が同じ意味で使用されているか否かを$2$値分類することである.このタスクは,文脈中の単語間の意味を推定するという点で,文脈中での単語間の意味的類似度推定タスクと関連が深い.しかし,WiCは分類問題であるのに対して,文脈中での単語間の意味的類似度推定タスクは回帰問題であるという違いがある.また,WiCではターゲット単語対が同一単語であるのに対し,SCWSでは異なるターゲット対が含まれているという差異もあり,タスクの性質は大きく異なっている.
\section{提案手法}
本研究では,所与の文脈を手がかりとして,各単語に品詞\cite{paetzold-16d}やトピック\cite{fadaee-17}よりも細かい粒度で複数の分散表現を生成する$2$つの手法を提案する.まず\ref{method:ashihara}節では,文脈中の代表的な$1$単語を手がかりとして用いる.我々は依存構造に着目し,ターゲット単語と依存関係にある単語を用いて文脈化された単語分散表現を得る.次に\ref{method:elmo}節では,文脈中の全ての単語を手がかりとして用いる.我々は双方向言語モデルに着目し,双方向LSTMのターゲット単語に対応する隠れ層を用いて文脈化された単語分散表現を得る.本研究では得られた単語分散表現を意味的類似度推定タスクおよび語彙的換言タスクに適用する.\begin{figure}[b]\begin{center}\includegraphics{26-4ia2f1.eps}\end{center}\hangcaption{提案手法の概要:事前学習と事後学習の$2$段階に分かれている.図中の{\tttender}および{\ttnon-alcoholic}は説明のための例であり,実際のベクトル空間上の点とは異なる.}\label{fig:propose_imagie}\vspace{1\Cvs}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-4ia2f2.eps}\end{center}\caption{複数回に分けた学習手法の概要}\label{fig:split_training}\end{figure}\subsection{DMSE:依存構造に基づく単語分散表現の文脈化}\label{method:ashihara}語義を区別して各単語に複数の分散表現を割り当てるために,ターゲット単語と依存関係にある単語(context-word)に注目するDMSE(Dependency-basedMulti-SenseEmbedding)を提案する.ここで,context-wordは意味表現においてより有効と考えられる内容語(名詞,動詞,形容詞,副詞)に限定する.各単語$w_i$はcontext-wordの集合$C$の要素ごとに異なる意味を持つと仮定し,$w_i$に対して$|C|$だけ分散表現を生成する.ここで,context-wordの数$|C|$は語義数よりも多くなる.例えば,単語{\ttsoft}について,{\ttcheese}をcontext-wordに持つ{\ttsoft\_cheese}と{\ttcandy}をcontext-wordに持つ{\ttsoft\_candy}が同じ{\tttender}という意味を表す分散表現として生成される.しかし,DMSEでは各分散表現は互いに干渉しないと仮定し,独立して学習および使用する.図\ref{fig:propose_imagie}の例では,{\ttsoft}のcontext-wordとして{\ttcandy},{\ttdrink}および{\ttiron}がある.本手法では{\ttsoft\_candy}や{\ttsoft\_drink}のようにcontext-wordごとに分散表現を学習する.Algorithm\ref{alg:proposed_method}にDMSEの疑似コードを示す.まず,学習データ$S$\footnote{学習コーパスは一文ずつ区切られており,各文の末尾には$<EOS>$タグが含まれている.}に含まれる各文$s$について,依存構造解析によって依存関係$D$を得る次に,各単語$w_i\ins$について\Call{GetContextWord}{$w_i,D$}によってcontext-wordの集合$C$を獲得する.そして,単語$w_i$とcontext-word$c\inC$を連結し,文脈化された単語$w_{i,c}$とする.最後に,$w_i$の前後$H$単語の左文脈$l_c$および右文脈$r_c$とともに$w_{i,c}$を\Call{Cbow}{$w_{i,c},l_c,r_c$}へ入力\footnote{左文脈において$i-H<1$となる場合は不足分に対応する$1$文前の末尾部の単語を,右文脈において$i+H>|s|$となる場合は不足分に対応する$1$文後の先頭部の単語を,それぞれ$l_c$および$r_c$として用いる.}し,CBOWのアルゴリズムを用いて文脈化された単語の分散表現$v_{w_{i,c}}$を訓練する.ここで,$H$はCBOWにおける窓幅である.\begin{algorithm}[t]\caption{DMSE:依存構造に基づく単語分散表現の文脈化}\label{alg:proposed_method}\input{02algo01.tex}\end{algorithm}本手法では,ターゲット単語とそのcontext-wordの対ごとに分散表現を学習するため,学習コーパスのサイズによっては学習時に文脈化された単語の分散表現をGPUメモリにロードできない可能性\footnote{本実験で使用したコーパスの場合,ターゲット単語の語彙サイズは約$11.2$万語であった.それに対して,文脈化された単語の語彙サイズは約$1.12$億個であった.文脈化された各単語を$32$bitのfloat型による$300$次元ベクトルで表した場合,約$134$GBのGPUメモリが必要となり,全てを一度にGPUメモリにロードするのは現状のGPU性能では現実的ではない.}がある.そこで我々は,事前学習および事後学習の$2$段階の学習によって,これに対処する.まず事前学習では,context-wordを考慮せずCBOWモデルを学習し,各単語$w_i$の分散表現$v_i$を得る.次に事後学習では,事前学習した$v_i$を初期値として,同じくCBOWのアルゴリズムによって文脈化された各単語$w_{i,c}$の分散表現$v_{w_{i,c}}$を学習する.CBOWでは文脈化された単語の分散表現のみを更新するので,GPUメモリにロードするのは更新されない文脈単語$w_j\inl_c\cupr_c$の分散表現$v_j$と文脈化された単語の分散表現$v_{w_{i,c}}$のみである.そのため,この事後学習はGPUのメモリサイズに合わせて複数回に分けて実施\footnote{文脈単語の分散表現が更新されないので,各回で学習された文脈化された単語に対応する分散表現は同一のベクトル空間上に配置され,自然に統合できる.}できる.例えば,図\ref{fig:split_training}に示すように,事前学習した分散表現を元に,事後学習($1$)では{\ttsoft\_candy}および{\ttsoft\_iron}を,事後学習($2$)では{\ttsoft\_drink}を,それぞれ学習できる.事後学習で変化するのは文脈化された単語に対応する分散表現のみであるため,事後学習($1$)で得られた{\ttsoft\_candy}および{\ttsoft\_iron}と,事後学習($2$)で得られた{\ttsoft\_drink}を統合し,それぞれ学習済分散表現として利用できる.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{26-4ia2f3.eps}\end{center}\caption{ELMoのモデル図}\label{fig:elmo}\end{figure}\subsection{ECWR:双方向言語モデルを利用した単語分散表現の文脈化}\label{method:elmo}単語分散表現を文脈化するもう一つのアプローチとして,所与の文脈全体を考慮し各単語の語義の分散表現を生成する.我々はELMo\cite{peters-18}を用いて,所与の文脈全体を考慮した各単語の語義の分散表現を生成するECWR(ELMo-basedContextualizedWordRepresentations)を提案する.Petersら\citeyear{peters-18}に従い,$i$番目の単語の文脈化された分散表現として$i$番目の隠れ層の出力を用いる.図\ref{fig:elmo}に示すように,ELMoは$2$層の双方向言語モデルに基づき,FirstLayer,SecondLayer,ThirdLayerの$3$つの層から構成されている.我々は,これら$3$層から得られる分散表現を,文脈を考慮した分散表現として利用する.ECWRでは,各単語の語義の分散表現として,これらの各層から得られる$3$種類の分散表現を連結\footnote{予備実験として,$3$層の分散表現から$1$つを使用する,$3$層の分散表現のベクトル和を使用する,$3$層の分散表現を連結して使用する手法で実験を行った.意味的類似度推定タスクおよび語彙的換言タスクでの実験の結果,$3$層を連結する手法が最も高い性能を発揮した.}して用いる.ECWRからは,各単語に対して文脈ごとに異なる分散表現が生成され,先行研究に比べて細かい粒度で分散表現を割り当てることが可能となる.PilehvarandCamacho-collados\citeyear{pilehvar-19}も同様に,ELMoから得られる分散表現を文脈を考慮した分散表現として利用している.彼らはELMoから得られる$3$つの分散表現の加重合計を用いているが,本研究では3$つ$の分散表現を連結して使用する.
\section{実験設定}
提案手法の有効性を検証するために,文脈中での単語間の意味的類似度推定タスク\cite{huang-12}および語彙的換言タスク\cite{mccarthy-07,kremer-14,ashihara-19a}で実験を行う.いずれのタスクも所与の文脈における語義を考慮する必要があり,多義性を考慮した分散表現が重要となる.\subsection{比較手法}本実験では,各単語に対して$1$つあるいは複数の分散表現を生成する以下の手法を,提案手法であるDMSEおよびECWRと比較する.\begin{description}\item[CBOW\cite{mikolov-13a}]\mbox{}\\CBOWのアルゴリズムを用いて各単語に$1$つの分散表現を生成する.\item[SGNS\cite{mikolov-13b}]\mbox{}\\SGNSのアルゴリズムを用いて各単語に$1$つの分散表現を生成する.\item[MSSG\cite{neelakantan-14}]\mbox{}\\文脈の類似度に基づくクラスタリングによって各単語に複数の分散表現を生成する.\item[POS\cite{paetzold-16d}]\mbox{}\\各単語に品詞ごとの分散表現を生成する.\item[TOPIC\cite{fadaee-17}]\mbox{}\\各単語にトピックごとの分散表現を生成する.\end{description}{\emCBOW}および{\emSGNS}は各単語に唯一の分散表現を生成するベースラインである.{\emDMSE}のバリエーションとして,PaetzoldandSpecia\citeyear{paetzold-16d}から着想を得て,各単語とcontext-wordの品詞も用いる{\emDMSE+POS}も実装し,比較評価を行う.例えば,単語{\ttsoft}(adjective)のcontext-wordが{\ttcandy}(noun)の場合,{\emDMSE+POS}では{\ttsoft\_adjective\_candy\_noun}の分散表現を生成する.\subsection{分散表現の学習}\label{sec:分散表現の学習}各モデルを学習するために,EnglishWikipedia\footnote{https://dumps.wikimedia.org/enwiki/20170601/}の本文約$1$億文(累計約$22$億単語)を利用する.これらの文は,StanfordParser\cite{manning-14}によって形態素解析し,各単語を原形にする.ここで,CBOWの学習時間を考慮して本実験では出現頻度$200$以下の低頻度語を$\langleunk\rangle$タグに置換し,$112,087$語のみを利用する.{\emDMSE}モデルを訓練するために,さらにStanfordParserを用いて依存構造解析を行い,各単語のcontext-wordを特定する.{\emDMSE}の事前学習および事後学習においては,CBOW\cite{mikolov-13a}のアルゴリズムを用いてエポック数$20$,窓幅$5$で$300$次元の分散表現を得る.{\emECWR}も同様に前処理されたEnglishWikipedia上で我々が訓練する.また,実験結果の再現性のため公開されている学習済みモデル\footnote{https://allennlp.org/elmo}の性能も報告する.以降,前者を{\emECWR(Wikipedia)},後者を{\emECWR($1$BWB)}と表記する.両モデルとも,各層から得た$1,024$次元の分散表現を連結し,$3,072$次元の分散表現として利用する.ベースラインモデルのうち,{\emCBOW}および{\emPOS}はEnglishWikipedia上で我々が訓練する.これらはそれぞれ,{\emDMSE}および{\emDMSE+POS}の事前学習に対応する.{\emSGNS},{\emMSSG}および{\emTOPIC}はFadaeeら\citeyear{fadaee-17}によってEnglishWikipedia上で学習されたモデルを利用する.これらのベースラインモデルでは,いずれも$300$次元の分散表現を利用する.
\section{文脈中での単語間の意味的類似度推定タスク}
本実験では,StanfordContextualWordSimilarity(SCWS)のデータセット\footnote{http://www-nlp.stanford.edu/{\textasciitilde}ehhuang/SCWS.zip}\cite{huang-12}を利用する.このデータセットでは,$2$つのターゲット単語(ターゲット単語対)とそれらの出現する文脈(前後$50$単語)が与えられる.タスクは,所与の文脈中でのターゲット単語間の意味的類似度を推定することである.SCWSデータセットは,AmazonMechanicalTurkを用いてアノテータを採用し,$2,003$組のターゲット単語対のそれぞれに類似度を付与している.アノテータは与えられた$2$つの文脈中のターゲット単語対が意味的にどの程度似ているかについて,$0$から$10$の$11$段階でスコアを付与する.各ターゲット単語対に対して$10$人がスコアを付与し,その平均値を単語間の意味的類似度とする.表\ref{tb:example_scws}に意味的類似度推定タスクの一例を示す.この例では,文脈$1$中のターゲット単語{\ttcredit}と文脈$2$中のターゲット単語{\ttmoney}の類似度を推定する.特定の文脈において意味的に近い単語対や,逆に特定の文脈において意味的に遠い単語対が含まれるため,このタスクでは単語の多義性を考慮して類似度を推定する必要がある.\begin{table}[t]\caption{SCWSのデータセット中に含まれる例\label{tb:example_scws}}\input{02table01.tex}\vspace{4pt}\small与えられた文脈の一部を抜粋.ターゲット単語は{\bfbold}体で表示している.\end{table}人手で定義された類似度と,システムが推定した類似度は,スピアマンの順位相関係数を用いて評価する.スピアマンの順位相関係数$r$は以下の式で定義される\cite{zwillinger-00}\footnote{参考文献$14.7$節を参照.}.\begin{align}T_x&=\frac{n^3-n-\sum_{i=1}^{n_x}(s_i^3-s_i)}{12}\\T_y&=\frac{n^3-n-\sum_{i=1}^{n_y}(t_i^3-t_i)}{12}\\r&=\frac{T_x+T_y-\sum_{i=1}^{n}(x_i-y_i)^2}{2\sqrt{T_xT_y}}\end{align}ここで,$n$はデータ数,$x_i$,$y_i$はそれぞれシステムが出力した$i$番目の単語対の類似度の順位と,人手でつけられた$i$番目の単語対の類似度の順位である.また,$n_x$および$n_y$はシステムおよび人手の順位付けにおいて存在する同順位の種類数である.$s_i$,$t_i$は同順位について,その順位が持つデータ数である.\subsection{意味的類似度の推定}\subsubsection{DMSEにおける意味的類似度の推定}\label{sec:word_sim_estimation}まず,ターゲット単語$w_{t_1}$および$w_{t_2}$のcontext-word$c_{t_1}\inC_{t_1}$および$c_{t_2}\inC_{t_2}$を依存構造解析によって抽出する.次に,各ターゲット単語とそのcontext-wordから得られる文脈化された単語の分散表現の集合$V_{t_1}$および$V_{t_2}$を得る.そして,以下の$3$つの方法で,文脈中でのターゲット単語間の意味的類似度を推定する.\begin{align}S_{\rmavg}&=\frac{1}{|V_{t_1}||V_{t_2}|}\sum_{v_{t_1}\inV_{t_1},v_{t_2}\inV_{t_2}}\cos(v_{t_1},v_{t_2})\\S_{\rmmax}&=\max_{v_{t_1}\inV_{t_1},v_{t_2}\inV_{t_2}}\cos(v_{t_1},v_{t_2})\\S_{\rmmin}&=\min_{v_{t_1}\inV_{t_1},v_{t_2}\inV_{t_2}}\cos(v_{t_1},v_{t_2})\end{align}ただし,$|\cdot|$は集合の要素数を,$\cos(\cdot,\cdot)$は$2$つのベクトル間の余弦類似度を表す.ここで,各分散表現は正規化されたものを用いる.$S_{\rmavg}$では,それぞれの文脈に出現する全てのcontext-wordを等しく考慮して,所与の文脈中での単語間の意味的類似度を推定する.$S_{\rmmax}$および$S_{\rmmin}$では,それぞれの文脈に出現するcontext-wordの重要度は異なると仮定し,代表的な$1$組のみを考慮して,所与の文脈中での単語間の意味的類似度を推定する.ここで,context-wordが存在しない場合および文脈化された単語が語彙に存在しない場合,類似度を計算できない.これらの場合は,事前学習した{\emCBOW},{\emPOS}の分散表現をターゲット単語の分散表現とする.またターゲット単語そのものが語彙に存在しない場合は$\langleunk\rangle$の分散表現を用いる.\subsubsection{ECWRにおける意味的類似度の推定}ターゲット単語を含む$1$文を入力として,文脈を考慮したターゲット単語の分散表現を獲得する.得られた分散表現間の余弦類似度を,単語間の意味的類似度とする.\begin{table}[b]\caption{SCWSデータセットにおけるスピアマンの順位相関係}\label{tb:CAWS_result}\input{02table02.tex}\end{table}\subsection{実験結果}表\ref{tb:CAWS_result}に,モデルが推定した類似度と人手で定義された類似度のスピアマンの順位相関係数を示す.SGNS,MSSG,TOPICの$3$手法については,Fadaeeetal.\citeyear{fadaee-17}で報告されているスコアを引用した.表\ref{tb:CAWS_result}の結果から,{\emDMSE}は比較手法と比べて有意に差があるとは言えないが,{\emECWR}はベースラインおよび先行研究の手法と比べて高い性能を示した.これは,粒度の細かい分散表現を使用することにより,各単語の語義をより正確に捉えることができたためである.{\emDMSE}と{\emECWR}を比較すると,{\emECWR}がより高い性能を示している.これは,SCWSデータセット中には{\ttescapologist}や{\ttnutriment},{\ttexudation}などの,低頻度語がターゲット単語として出現するためである.本実験で{\emDMSE}は,学習データ中の頻度$200$回以下の単語を全て$\langleunk\rangle$タグに置換したため,全ターゲットの内,$2.8$\%の単語はすべて同じ$\langleunk\rangle$の分散表現を用いた.一方,{\emECWR}では,ターゲット単語が語彙内に含まれていない場合でも,文脈情報のみから分散表現を生成できる.そのため,{\emECWR}が高い性能を示したと考えられる.実際,$\langleunk\rangle$の分散表現を用いたデータを除いてスピアマンの順位相関係数を調べたところ,{\emDMSE}ではそれぞれの類似度推定手法で$0.01$から$0.02$のスコアの増加が見られ,低頻度語の影響が確認されている.よって,低頻度語が多く出現する場合には{\emDMSE}よりも{\emECWR}を使用する方が,より正確な分散表現を生成できることがわかる.
\section{語彙的換言タスク}
本実験では,LS-SEおよび,LS-CIC\footnote{https://github.com/stephenroller/naacl2016}\cite{roller-16}およびCEFR-LPの$3$つのデータセットを利用する.これらのデータセットでは,ターゲット単語と文脈に加えて,言い換え候補群が与えられる.タスクは,所与の文脈を考慮しつつ,ターゲット単語との置換可能性の観点から言い換え候補群をランク付けすることである.そのため,このタスクも文脈中での単語の意味を考慮する必要がある.\begin{description}\item[LS-SE\cite{mccarthy-07}]\mbox{}\\SemEval-2007のLexicalSubstitutionタスクで用いられたデータセット.$201$種類のターゲット単語について,それぞれ$10$種類の文脈が与えられている.各ターゲット単語には,$5$人のアノテータが最大$3$種類ずつの言い換えを文脈を考慮して付与している.\item[LS-CIC\cite{kremer-14}]\mbox{}\\LexicalSubstitutionのための大規模なデータセット.$15,629$語のターゲット単語について,$6$人のアノテータが最大$5$種類ずつの言い換えを文脈を考慮して付与している.\item[CEFR-LP\cite{ashihara-19a}]\mbox{}\\類義語辞書に基づく言い換え候補群を用いるLexicalSubstitutionのデータセット.$893$種類のターゲット単語を持ち,このうち$600$語は$60$種類のターゲット単語について,それぞれ$10$種類の文脈が付与されたものである.各言い換え候補について$4$人のアノテータが言い換えの可否のスコアを$3$段階で付与している.\end{description}先行研究\cite{melamud-15,roller-16,fadaee-17}に従い,各ターゲット単語に付与された全ての言い換えの和集合を言い換え候補群として用いる.そのため,これらの候補は少なくともある文脈においてはターゲット単語と意味的および構文的に十分に近い単語であり,モデルは文脈を用いてターゲット単語の語義を区別する必要がある.人手で定義された言い換えランキングと,システムが推定した言い換えランキングは,GeneralizedAveragePrecision(GAP)\cite{kishida-05,thater-09}を用いて評価する.GAPは語彙的換言タスクで広く用いられる\cite{melamud-15,roller-16,fadaee-17}評価尺度であり,式(\ref{eq:gap1}),(\ref{eq:gap2})のように正解事例の重みを考慮してランキングを評価できる.\begin{align}p_i&=\frac{\sum_{k=1}^{i}x_k}{i}\label{eq:gap1}\\GAP&=\frac{\sum_{i=1}^{n}I(x_i)p_i}{\sum_{i=1}^{n}I(y_i)\overline{y_i}}\times100\label{eq:gap2}\end{align}ここで,$x_i$は$i$番目にランクされた言い換え候補のスコアを表し,$y_i$は理想的なランキング(スコアの降順)をした時の$i$番目の言い換え候補のスコアを表す.$n$は言い換え候補数である.また,$I(x)$は$x$が$0$の場合は$0$を,$1$以上の場合は1を返す関数である.本実験では,LS-SEおよびLS-CICにおいては各言い換え候補を付与したアノテータの人数を,CEFR-LPにおいては各アノテータによる言い換え可否のスコアの合計を,重みとして用いる.\subsection{言い換え候補のランキング}語彙的換言タスクでは文脈$s$を考慮してターゲット単語$w_t$と言い換え候補$w_p$の置換可能性を推定する.本実験では,ターゲット単語と言い換え候補の分散表現間の類似度が高いほど,その言い換え候補が高い置換可能性を持つと仮定する.\subsubsection{DMSEにおける言い換え候補のランキング}まず,ターゲット単語$w_t$のcontext-word$c\inC_t$を依存構造解析によって抽出する.次に,これらを用いてターゲット単語$w_t$の分散表現の集合$V_t$を得る.続いて,ターゲット単語の各context-wordを用いて,言い換え候補$w_p$の分散表現の集合$V_p$を得る.そして,以下の2つの方法で,ターゲット単語の分散表現$v_t\inV_t$と言い換え候補の分散表現$v_p\inV_p$の間の類似度を計算し,言い換え候補群をランキングする.\begin{description}\item[Cos]\mbox{}\\ベクトル間の余弦類似度$cos(v_t,v_p)$を計算する.\item[balAddCos\cite{melamud-15}]\mbox{}\\この類似尺度では,ターゲット単語と言い換え候補の類似度だけでなく,言い換え候補と文脈の類似度も考慮し,$|s|\cos(v_t,v_p)+\sum_{w\ins}\cos(v_p,v_w)$を計算する.ここで,$s$はターゲット単語を含む一文を表す.\end{description}複数のcontext-wordが存在する場合,最終的な置換可能性を推定する単純な方法は,\ref{sec:word_sim_estimation}節で説明した$S_{\rmavg}$,$S_{\rmmax}$および$S_{\rmmin}$を用いることである.しかし,単語間の意味的類似度推定タスクとは異なり,本タスクではターゲット単語と言い換え候補群の文脈が共通のため,共通のcontext-wordのみを考慮して,より正確に文脈を考慮できる.そこで本実験では,$S_{\rmavg}$,$S_{\rmmax}$および$S_{\rmmin}$に加えて,共通のcontext-wordのみを考慮する以下の$S_{\rmavgc}$,$S_{\rmmaxc}$および$S_{\rmminc}$によって,所与の文脈を考慮しつつ言い換え候補をランキングする.\begin{align}S_{\rmavgc}&=\frac{1}{|C_t|}\sum_{c\inC_t}{\rmsim}(v_{w_{t,c}},v_{w_{p,c}})\\S_{\rmmaxc}&=\max_{c\inC_t}{\rmsim}(v_{w_{t,c}},v_{w_{p,c}})\\S_{\rmminc}&=\min_{c\inC_t}{\rmsim}(v_{w_{t,c}},v_{w_{p,c}})\end{align}ここで,${\rmsim}(\cdot,\cdot)$には{\emCos}または{\embalAddCos}を用いる.これらの手法で推定された置換可能性のスコアを用いて,スコアの高い順に言い換え候補群をランキングする.\ref{sec:word_sim_estimation}節と同様に,context-wordが存在しない場合は,事前学習した{\emCBOW},{\emPOS}の分散表現をターゲット単語の分散表現とする.またターゲット単語そのものが語彙に存在しない場合は$\langleunk\rangle$の分散表現を用いる.\subsubsection{DMSEのオラクル性能}{\emDMSE}ではcontext-wordの選択における性能が全体の性能に影響する.そこでcontext-wordを理想的に選択できたときのオラクル性能も報告する.オラクル選択$S_{\rmoracle}$では,ターゲット単語と言い換え候補が同一のcontext-wordによって意味を決定づけられると仮定し,まず全てのcontext-wordについて言い換え候補のランキングを作成する.その中から,最もGAPスコアが高くなるcontext-wordを採用し,そのランキングを用いる.\newcommand{\argmax}{}\begin{equation}S_{\rmoracle}={\rmsim}(v_{w_{t,c}},v_{w_{p,c}}),\;\;\;c=\argmax_{c\inC_t}{\rmGAP}\end{equation}ただし,$c$によって与えられる文脈化された単語が語彙に存在しない場合,事前学習した単語の分散表現を用いて単語間の余弦類似度を計算する.\subsubsection{ECWRにおける言い換え候補のランキング}ターゲット単語を含む1文を入力として,文脈を考慮したターゲット単語の分散表現を獲得する.各言い換え候補については,ターゲット単語を含む1文において,ターゲット単語と言い換え候補を置換して{\emECWR}に入力する.得られた分散表現間の余弦類似度を,ターゲット単語と言い換え候補の置換可能性スコアとし,スコアの降順に言い換え候補をランク付けする.\begin{table}[b]\caption{LS-SE,LS-CIC,CEFR-LPデータセットにおけるGAPスコア}\label{tb:result_gap}\input{02table03.tex}\end{table}\subsection{実験結果}表\ref{tb:result_gap}に,LS-SE,LS-CIC,CEFR-LPの各データセットにおけるGAPスコアを示す.だたし,$NA$は参考文献中\cite{fadaee-17}で行われていない実験設定のため,数値を記載できなかった部分である.{\emDMSE}については,類似尺度として$S_{\rmoracle}$を除いた中で最も高い精度を示した$S_{\rmmaxc}$のみを記載する.他の類似尺度については次節で議論する.LS-SEにおいて最も高い性能を示した類似度尺度$Cos$の時の{\emDMSE}$(S_{\rmmaxc})$は,{\emSGNS}より$8.3$ポイント,{\emMSSG}より$8.1$ポイント,{\emTOPIC}より$6.4$ポイント,{\emCBOW}より$7.5$ポイント,{\emPOS}より$6.3$ポイント,それぞれ高いGAPスコアを達成した.また,LS-CICにおいて最も高い性能を示した類似度尺度$Cos$の時の{\emECWR(Wikipedia)}は,{\emSGNS}より$12.0$ポイント,{\emMSSG}より$10.3$ポイント,{\emTOPIC}より$7.2$ポイント,{\emCBOW}より$3.7$ポイント,{\emPOS}より$2.7$ポイント,それぞれ高いGAPスコアを達成した.CEFR-LPにおいては,類似度尺度$balAddCos$の時の{\emECWR(Wikipedia)}が{\emCBOW}より$5.8$ポイント,{\emPOS}より$6.0$ポイント,それぞれ高いGAPスコアを示した.これらの結果から,文脈を考慮してより細かい粒度で語義の分散表現を生成する提案手法が,トピックや品詞を用いて語義を区別する既存手法に比べて,効果的に語義を捉えられることを確認できた.LS-SEでは{\emDMSE}が最も高い性能を示した一方で,LS-CICおよびCEFR-LPでは{\emECWR}が最も高い性能を示した.これは,各データセットの$1$文を構成する平均単語数が影響を与えたと考えられる.図\ref{fig:gap_word_num}に示すのは,$1$文を構成する単語数ごとのGAPスコアである.$1$文を構成する単語数が$30$単語までは{\emECWR}が高い性能を示している一方,$31$単語からは{\emDMSE}が高い性能を示している.{\emECWR}では,$1$文の全ての情報を考慮した分散表現を生成するため,$1$文が長ければ多くの情報が混在してしまう.そのため,$1$文を構成する単語数が増加すると性能が向上せず頭打ちとなる.一方,{\emDMSE}ではターゲット単語と依存関係にあるcontext-wordのみを考慮する.そのため,長文になると利用できるcontext-word候補が増える傾向となり,より信頼できるcontext-wordを選択することで性能が向上すると考えられる.そのため,$1$文あたりの単語数が多いほど{\emDMSE}が{\emECWR}よりも高い性能を示すと考えられる.実際,LS-SE,LS-CIC,CEFR-LPはそれぞれ$1$文あたり平均$27.2$単語,$23.3$単語,$21.2$で構成されており,$1$文あたりの平均単語数が多いデータセットでは{\emDMSE}が{\emECWR}の性能を上回っている.\begin{figure}[t]\begin{center}\includegraphics{26-4ia2f4.eps}\end{center}\caption{$1$文を構成する単語数ごとのGAPスコア\label{fig:gap_word_num}}\end{figure}
\section{DMSEの分析}
\subsection{語彙的換言タスクにおける意味的類似度推定手法の比較}表\ref{tb:result_gap_DMSE}に,語彙的換言タスクにおける{\emDMSE}のGAPスコアを示す.類似尺度として文脈を考慮する{\embalAddCos}を用いた場合,{\emDMSE}においては単純な{\emCos}よりも性能が悪化する傾向が見られた.{\embalAddCos}は,文脈を考慮しない分散表現のために提案された手法であり,言い換え候補と文脈に現れる単語の分散表現を用いて類似度計算を行う.{\emDMSE}では文脈化された単語の分散表現を使用しているため,{\embalAddCos}を利用すると文脈を$2$重で考慮したことになり,精度が改善しなかったと考えられる.また,複数のcontext-wordを利用できるとき,$S_{\rmmaxc}$が最も高い性能を示す傾向にある.この結果から,同一のcontext-wordによって与えられる分散表現を用いることで,全てのcontext-wordを考慮するよりも高精度に単語間の置換可能性を推定できると言える.$S_{\rmavgc}$の性能が$S_{\rmmaxc}$に及ばないのは,各分散表現の影響が平均することによって軽視されるためと考えられる.ターゲット単語の語義をピンポイントで表現できるcontext-wordが存在したとしても,平均することによってその影響が薄れてしまう.また,$S_{\rmminc}$では類似度の下限値を基準にランク付けする.$S_{\rmmaxc}$であれば,その文中での意味を表していないcontext-wordは類似度が低くても無視されるが,$S_{\rmminc}$ではその影響を受けるため,性能が低下したと考えられる.$S_{\rmoracle}$では類似尺度を$Cos$とした時の{\emDMSE}$(S_{\rmoracle})$が最も高い性能を示した,また,同じく類似度尺度$Cos$の$S_{\rmavg}$,$S_{\rmmax}$,$S_{\rmmin}$および$S_{\rmavgc}$,$S_{\rmmaxc}$,$S_{\rmminc}$が出力した最も高いスコアと比較して,LS-SEでは$6.2$ポイント,LS-CICでは$3.7$ポイント,CEFR-LPでは$4.1$ポイント高い性能を示している.さらにこれらは,表\ref{tb:result_gap}における類似尺度$Cos$を用いた際の{\emECWR(Wikipedia)}の性能よりもLS-SEで$7.8$ポイント,LS-CICで$3.1$ポイント,CEFR-LPで$0.6$ポイント高い.ここから,複数ある中から正しいcontext-wordを特定することができた場合,{\emDMSE}はさらに精度向上することが見込まれる.\begin{table}[t]\caption{各データセット中でのDMSEのGAPスコア}\label{tb:result_gap_DMSE}\input{02table04.tex}\end{table}\subsection{実際の出力例}表\ref{tb:ls_example}に語彙的換言タスクにおいて,context-wordを用いて多義語{\tthard}の語義を捉えることに成功した例を示す.最も多くのアノテータによって付与された言い換え候補を最上位にランク付けできている.\begin{table}[t]\caption{語彙的換言タスクにおける出力例}\label{tb:ls_example}\input{02table05.tex}\vspace{4pt}\smallターゲット単語は{\bfbold}体で,context-wordは{\emitalic}体で表示している.出力は言い換え候補群のランキング,括弧内の数値は各候補の重みを表す.\end{table}\begin{figure}[t]\begin{center}\includegraphics{26-4ia2f5.eps}\end{center}\caption{分散表現の可視化\label{fig:visualization}}\end{figure}図\ref{fig:visualization}は,表\ref{tb:ls_example}における単語や語義の分散表現を主成分分析を用いて,実際の分散表現の第一主成分ベクトルを横軸に,第二主成分ベクトルを縦軸に可視化したものである.第二主成分までの寄与率は$0.53$である.丸は文脈を考慮しない単語の分散表現,三角は{\emDMSE}による分散表現を表す.この図から,{\tthard\_listen}(言い換え元の単語)および{\ttcarefully\_listen}(正解の言い換え単語)が事前学習された単語分散表現から離れ,お互いに近づいていることが分かる.実際の分散表現間の余弦類似度を測ったところ,{\tthard}と{\ttcarefully}間は$0.125$,{\tthard\_listen}と{\ttcarefully\_listen}間は$0.421$であり,大きく向上している.同様に,{\tthard\_hit}および{\ttbadly\_hit}の分散表現も事後学習によって近づいていることが分かる.実際,{\tthard}と{\ttbadly}間の類似度は$0.159$,{\tthard\_hit}と{\ttbadly\_hit}間の類似度は$0.547$であった.また,{\tthard\_listen}と{\tthard\_hit}は大きく離れており,{\emDMSE}によって期待通り語義ごとに分散表現を学習できていることが分かる.同じ{\tthard}という形で文脈中に出現する単語でも,context-wordによって異なる場所に配置できている.実際,{\tthard\_listen}と{\tthard\_hit}間の類似度は$0.558$であり,元々一つの分散表現(余弦類似度$1.0$)から余弦類似度が低下するよう分離できている.
\section{まとめ}
本研究では,文脈中の単語を手がかりとして,細かい粒度で各単語に複数の分散表現を生成する$2$つの手法について述べた.{\emDMSE}は,文脈中の依存関係にある単語を手がかりとして語義を区別する分散表現を生成する.また双方向言語モデルである{\emECWR}を利用することで,文脈中の全ての単語を考慮した単語分散表現を獲得する.単語間の意味的類似度推定タスクおよび語彙的換言タスクにおける評価実験の結果,品詞やトピックを用いて語義を区別する先行研究と比較して,より細かい粒度で語義を区別できる提案手法の有効性を示した.\acknowledgment本研究は公益財団法人KDDI財団による助成を受けたものである.また,貴重なコメントや議論をいただいた九州大学大学院言語文化研究院のChristopherG.Haswell准教授に感謝の意を表す.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ashihara,Kajiwara,Arase,\BBA\Uchida}{Ashiharaet~al.}{2018}]{ashihara-18b}Ashihara,K.,Kajiwara,T.,Arase,Y.,\BBA\Uchida,S.\BBOP2018\BBCP.\newblock\BBOQContextualizedWordRepresentationsforMulti-SenseEmbedding.\BBCQ\\newblockIn{\BemProceedingsofthePacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\28--36}.\bibitem[\protect\BCAY{Ashihara,Kajiwara,Arase,\BBA\Uchida}{Ashiharaet~al.}{2019}]{ashihara-19a}Ashihara,K.,Kajiwara,T.,Arase,Y.,\BBA\Uchida,S.\BBOP2019\BBCP.\newblock\BBOQContextualizedcontext2vec.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponNoisyUser-generatedText}.\bibitem[\protect\BCAY{Athiwaratkun\BBA\Wilson}{Athiwaratkun\BBA\Wilson}{2017}]{athiwaratkun-17}Athiwaratkun,B.\BBACOMMA\\BBA\Wilson,A.~G.\BBOP2017\BBCP.\newblock\BBOQMultimodalWordDistributions.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1645--1656}.\bibitem[\protect\BCAY{Bojanowski,Grave,Joulin,\BBA\Mikolov}{Bojanowskiet~al.}{2017}]{bojanowski-17}Bojanowski,P.,Grave,E.,Joulin,A.,\BBA\Mikolov,T.\BBOP2017\BBCP.\newblock\BBOQEnrichingWordVectorswithSubwordInformation.\BBCQ\\newblockIn{\BemProceedingsoftheTransactionsoftheAssociationforComputationalLinguistics},\mbox{\BPGS\135--146}.\bibitem[\protect\BCAY{Fadaee,Bisazza,\BBA\Monz}{Fadaeeet~al.}{2017}]{fadaee-17}Fadaee,M.,Bisazza,A.,\BBA\Monz,C.\BBOP2017\BBCP.\newblock\BBOQLearningTopic-SensitiveWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\441--447}.\bibitem[\protect\BCAY{Huang,Socher,Manning,\BBA\Ng}{Huanget~al.}{2012}]{huang-12}Huang,E.~H.,Socher,R.,Manning,C.~D.,\BBA\Ng,A.~Y.\BBOP2012\BBCP.\newblock\BBOQImprovingWordRepresentationsviaGlobalContextandMultipleWordPrototypes.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\873--882}.\bibitem[\protect\BCAY{Kishida}{Kishida}{2005}]{kishida-05}Kishida,K.\BBOP2005\BBCP.\newblock\BBOQPropertyofAveragePrecisionanditsGeneralization:AnExaminationofEvaluationIndicatorforInformationRetrievalExperiments.\BBCQ\\newblock{\BemNationalInstituteofInformaticsTechnicalReports},\mbox{\BPGS\1--19}.\bibitem[\protect\BCAY{Kremer,Erk,Pad{\'{o}},\BBA\Thater}{Kremeret~al.}{2014}]{kremer-14}Kremer,G.,Erk,K.,Pad{\'{o}},S.,\BBA\Thater,S.\BBOP2014\BBCP.\newblock\BBOQWhatSubstitutesTellUs-Analysisofan``All-Words''LexicalSubstitutionCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\540--549}.\bibitem[\protect\BCAY{Levy\BBA\Goldberg}{Levy\BBA\Goldberg}{2014}]{levy-14}Levy,O.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2014\BBCP.\newblock\BBOQDependency-BasedWordEmbeddings.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\302--308}.\bibitem[\protect\BCAY{Li\BBA\Jurafsky}{Li\BBA\Jurafsky}{2015}]{li-17}Li,J.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2015\BBCP.\newblock\BBOQDoMulti-SenseEmbeddingsImproveNaturalLanguageUnderstanding?\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1722--1732}.\bibitem[\protect\BCAY{Manning,Surdeanu,Bauer,Finkel,Bethard,\BBA\McClosky}{Manninget~al.}{2014}]{manning-14}Manning,C.,Surdeanu,M.,Bauer,J.,Finkel,J.,Bethard,S.,\BBA\McClosky,D.\BBOP2014\BBCP.\newblock\BBOQTheStanfordCoreNLPNaturalLanguageProcessingToolkit.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\55--60}.\bibitem[\protect\BCAY{McCarthy\BBA\Navigli}{McCarthy\BBA\Navigli}{2007}]{mccarthy-07}McCarthy,D.\BBACOMMA\\BBA\Navigli,R.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task10:EnglishLexicalSubstitutionTask.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSemanticEvaluations},\mbox{\BPGS\48--53}.\bibitem[\protect\BCAY{Melamud,Goldberger,\BBA\Dagan}{Melamudet~al.}{2016}]{melamud-16}Melamud,O.,Goldberger,J.,\BBA\Dagan,I.\BBOP2016\BBCP.\newblock\BBOQcontext2vec:LearningGenericContextEmbeddingwithBidirectionalLSTM.\BBCQ\\newblockIn{\BemProceedingsoftheSIGNLLConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{Melamud,Levy,\BBA\Dagan}{Melamudet~al.}{2015}]{melamud-15}Melamud,O.,Levy,O.,\BBA\Dagan,I.\BBOP2015\BBCP.\newblock\BBOQASimpleWordEmbeddingModelforLexicalSubstitution.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponVectorSpaceModelingforNaturalLanguageProcessing},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{mikolov-13b}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{mikolov-13a}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemProceedingoftheInternationalConferenceonLearningRepresentations},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Mikolov\BBA\Com}{Mikolov\BBA\Com}{2014}]{mikolov-14}Mikolov,T.\BBACOMMA\\BBA\Com,T.~G.\BBOP2014\BBCP.\newblock\BBOQDistributedRepresentationsofSentencesandDocuments.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonMachineLearning},\mbox{\BPGS\1188--1196}.\bibitem[\protect\BCAY{Neelakantan,Shankar,Passos,\BBA\McCallum}{Neelakantanet~al.}{2014}]{neelakantan-14}Neelakantan,A.,Shankar,J.,Passos,A.,\BBA\McCallum,A.\BBOP2014\BBCP.\newblock\BBOQEfficientNon-parametricEstimationofMultipleEmbeddingsperWordinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1059--1069}.\bibitem[\protect\BCAY{Paetzold\BBA\Specia}{Paetzold\BBA\Specia}{2016}]{paetzold-16d}Paetzold,G.~H.\BBACOMMA\\BBA\Specia,L.\BBOP2016\BBCP.\newblock\BBOQUnsupervisedLexicalSimplificationforNon-NativeSpeakers.\BBCQ\\newblockIn{\BemProceedingsoftheAssociationfortheAdvancementofArtificialIntelligence},\mbox{\BPGS\3761--3767}.\bibitem[\protect\BCAY{Pennington,Socher,\BBA\Manning}{Penningtonet~al.}{2014}]{pennington-14}Pennington,J.,Socher,R.,\BBA\Manning,C.\BBOP2014\BBCP.\newblock\BBOQGloVe:GlobalVectorsforWordRepresentation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1532--1543}.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{peters-18}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Pilehvar\BBA\Camacho-collados}{Pilehvar\BBA\Camacho-collados}{2019}]{pilehvar-19}Pilehvar,M.~T.\BBACOMMA\\BBA\Camacho-collados,J.\BBOP2019\BBCP.\newblock\BBOQWiC:TheWord-in-ContextDatasetforEvaluatingContext-SensitiveMeaningRepresentations.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\1267--1273}.\bibitem[\protect\BCAY{Roller\BBA\Erk}{Roller\BBA\Erk}{2016}]{roller-16}Roller,S.\BBACOMMA\\BBA\Erk,K.\BBOP2016\BBCP.\newblock\BBOQPICaDifferentWord:ASimpleModelforLexicalSubstitutioninContext.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\1121--1126}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{sutskever-14}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonNeuralInformationProcessingSystems},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Thater,Saarlandes,Dinu,Saarlandes,Pinkal,\BBA\Saarlandes}{Thateret~al.}{2009}]{thater-09}Thater,S.,Saarlandes,U.,Dinu,G.,Saarlandes,U.,Pinkal,M.,\BBA\Saarlandes,U.\BBOP2009\BBCP.\newblock\BBOQRankingParaphrasesinContext.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponAppliedTextualInference},\mbox{\BPGS\44--47}.\bibitem[\protect\BCAY{Zwillinger\BBA\Kokoska}{Zwillinger\BBA\Kokoska}{2000}]{zwillinger-00}Zwillinger,D.\BBACOMMA\\BBA\Kokoska,S.\BBOP2000\BBCP.\newblock{\BemCRCStandardProbabilityandStatisticsTablesandFormulae}.\newblockChapmanandHall.\end{thebibliography}\begin{biography}\bioauthor{芦原和樹}{2018年大阪大学工学部電子情報工学科卒業.同年,同大学大学院情報科学研究科博士前期課程に進学.}\bioauthor{梶原智之}{2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程電気電子情報工学専攻修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程情報通信システム学域修了.博士(工学).同年より大阪大学データビリティフロンティア機構特任助教.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現認識と生成,機械翻訳技術,対話システムに興味を持つ.}\bioauthor{内田諭}{2005年東京外国語大学外国語学部欧米第一課程英語専攻卒業.2007年東京大学大学院総合文化研究科言語情報科学専攻修士課程修了.2013年に同大学院にて博士号(学術)を取得.東京外国語大学特任講師を経て,2014年より九州大学大学院言語文化研究院准教授.認知意味論,コーパス言語学,英語教育学などの研究に従事.日本認知言語学会,英語コーパス学会,大学英語教育学会,言語処理学会等会員.}\end{biography}\biodate\end{document}
| |
V21N01-03
|
\section{はじめに}
\label{sec:introduction}電子化されたテキストが利用可能になるとともに,階層的文書分類の自動化が試みられてきた.階層的分類の対象となる文書集合の例としては,特許\footnote{http://www.wipo.int/classifications/en/},医療オントロジー\footnote{http://www.nlm.nih.gov/mesh/},Yahoo!やOpenDirectoryProject\footnote{http://www.dmoz.org/}のようなウェブディレクトリが挙げられる.文書に付与すべきラベルは,タスクによって,各文書に1個とする場合と,複数とする場合があるが,本稿では複数ラベル分類に取り組む.階層的分類における興味の中心は,あらかじめ定義されたラベル階層をどのように自動分類に利用するかである.そもそも,大量のデータを階層的に組織化するという営みは,科学以前から人類が広く行なってきた.例えば,伝統社会における生物の分類もその一例である.そこでは分類の数に上限があることが知られており,その制限は人間の記憶容量に起因する可能性が指摘されている\cite{Berlin1992}.階層が人間の制約の産物だとすると,そのような制約を持たない計算機にとって,階層は不要ではないかと思われるかもしれない.階層的分類におけるラベル階層の利用という観点から既存手法を整理すると,まず,非階層型と階層型に分けられる.非階層型はラベル階層を利用しない手法であり,各ラベル候補について,入力文書が所属するか否かを独立に分類する.ラベル階層を利用する階層型は,さらに2種類に分類できる.一つはラベル階層を候補の枝刈りに用いる手法(枝刈り型)である.典型的には,階層を上から下にたどりながら局所的な分類を繰り返す\cite{Montejo2006,Qiu2009full,Wang2011IJCNLPfull}.枝刈りにより分類の実行速度をあげることができるため,ラベル階層が巨大な場合に有効である.しかし,局所的な分類を繰り返すことで誤り伝播が起きるため,精度が低下しがちという欠点が知られている\cite{Bennett2009}.もう一つの手法はパラメータ共有型である.この手法では,ラベル階層上で近いラベル同士は似通っているので,それらを独立に分類するのではなく,分類器のパラメータをラベル階層に応じて部分的に共有させる\cite{Qiu2009full}.これにより分類精度の向上を期待する.これらの既存手法は,いずれも複数ラベル分類というタスクの特徴を活かしていない.複数ラベル分類では,最適な候補を1個採用すればよい単一ラベル分類と異なり,ラベルをいくつ採用するかの加減が人間作業者にとっても難しい.我々は,人間作業者が出力ラベル数を加減する際,ラベル階層を参照しているのではないかと推測する.例えば,科学技術文献を分類する際,ある入力文書が林業における環境問題を扱っていたとする.この文書に対して,「林業政策」と「林業一般」という2個のラベルは,それぞれ単独でみると,いずれもふさわしそうである.しかし,両者を採用するのは内容的に冗長であり,よりふさわしい「林業政策」だけを採用するといった判断を人間作業者はしているかもしれない.一方,別のラベル「環境問題」は「林業政策」と内容的に競合せず,両方を採用するのが適切を判断できる.この2つの異なる判断は,ラベル階層に対応している.「林業政策」と「林業一般」は最下位層において兄弟関係にある一方,「林業政策」と「環境問題」はそれぞれ「農林水産」と「環境工学」という異なる大分類に属している.このように,我々は,出力すべき複数ラベルの間にはラベル階層に基づく依存関係があると仮定する.そして,計算機に人間作業者の癖を模倣させることによって,(それが真に良い分類であるかは別として)人間作業者の分類を正解としたときの精度が向上することを期待する.本稿では,このような期待に基づき,ラベル間依存を利用する具体的な手法を提案する.まずは階層型複数ラベル文書分類を構造推定問題として定式化し,複数のラベルを同時に出力する大域モデルと,動的計画法による厳密解の探索手法を提案する.次に,ラベル間依存を表現する枝分かれ特徴量を導入する.この特徴量は動的計画法による探索が維持できるように設計されている.実験では,ラベル間依存の特徴量の導入により,精度の向上とともに,モデルの大きさの削減が確認された.本稿では,\ref{sec:task}節で問題を定義したうえで,\ref{sec:proposed}節で提案手法を説明する.\ref{sec:experiments}節で実験結果を報告する.\ref{sec:related-work}節で関連研究に言及し,\ref{sec:conclusion}節でまとめと今後の課題を述べる.
\section{問題設定}
\label{sec:task}階層型複数ラベル文書分類では,与えられた文書に対して,それをもっともよく表すラベルの集合$\mathcal{M}\subset\mathcal{L}$を返す.ここで,$\mathcal{L}$はあらかじめ定義されたラベルの集合である.$\mathcal{L}$は図\ref{fig:tree}のように木構造で組織化されているとする\footnote{いくつかの既存研究では,有向非循環グラフ(directedacyclicgraph,DAG)を扱っている\cite{Labrou1999,LSHTC3}.有向非循環グラフでは,木と異なり,ノードが一般に複数の親を持ち得る.有向非循環グラフへの対応は今後の課題とし,本稿では木構造に対象をしぼる.}.また,付与対象のラベルは葉のみであり,内部ノードはラベルとならないとする.図\ref{fig:tree}の場合,$\mathrm{AA}$,$\mathrm{AB}$,$\mathrm{BA}$および$\mathrm{BB}$がラベル候補となる.\begin{figure}[b]\begin{center}\includegraphics{21-1ia3f1.eps}\end{center}\caption{ラベル階層の例(灰色の葉のみが付与対象のラベル)}\label{fig:tree}\end{figure}いくつかの記法を整理しておく.$\mathrm{leaves}(c)$は,$c$の子孫である葉の集合を返す.例えば,$\mathrm{leaves}(\mathrm{A})=\{\mathrm{AA},\mathrm{AB}\}$.ただし,$c$自身が葉の場合は,$\mathrm{leaves}(c)=\{c\}$.$p\rightarrowc$は親$p$から子$c$への辺を表す.$\mathrm{path}(c)$は$\mathrm{ROOT}$と$c$を結ぶ辺の集合を返す.例えば,$\mathrm{path}(\mathrm{AB})=\{\mathrm{ROOT}\rightarrow\mathrm{A},\mathrm{A}\rightarrow\mathrm{AB}\}$.また,$\mathrm{tree}(\mathcal{M})=\bigcup_{l\in\mathcal{M}}\mathrm{path}(l)$とする.これは$\mathcal{M}$を被覆する最小の部分木に対応する.例えば,$\mathrm{tree}(\{\mathrm{AA},\mathrm{AB}\})=\{\mathrm{ROOT}\rightarrow\mathrm{A},\mathrm{A}\rightarrow\mathrm{AA},\mathrm{A}\rightarrow\mathrm{AB}\}$.文書$x$は$\phi(x)$により特徴量ベクトルに変換される.特徴量として,例えば,文書分類タスクで一般な単語かばん(bag-of-words)手法を用いることができる.本タスクは教師あり設定であり,訓練データ$\mathcal{T}=\{(x_i,\mathcal{M}_i)\}_{i=1}^T$が与えられる.$\mathcal{T}$を用いてモデルを訓練し,これとは別のテストデータによって性能を評価する.
\section{提案手法}
\label{sec:proposed}\subsection{大域モデル}ラベル間依存を利用するための準備として,入力文書$x$に対して出力ラベル集合$\mathcal{M}$を同時に推定する大域モデルを提案する.具体的には,階層的複数ラベル文書分類を構造推定問題とみなし,$\mathcal{M}$が作る部分木に対してスコアを定義する.\[\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})=\vect{w}^{\mathrm{global}}\cdot\Phi^{\mathrm{global}}(x,\mathrm{tree}(\mathcal{M}))\]$\vect{w}^{\mathrm{global}}$は重みベクトルであり,訓練データを用いて学習すべきパラメータである.$\vect{w}^{\mathrm{global}}$は,辺に対応する局所的な重みベクトルを連結することにより構成される.例えば,図\ref{fig:tree}の場合は\[\vect{w}^{\mathrm{global}}=\vect{w}_{\mathrm{ROOT}\rightarrow\mathrm{A}}\oplus\vect{w}_{\mathrm{ROOT}\rightarrow\mathrm{B}}\oplus\vect{w}_{\mathrm{A}\rightarrow\mathrm{AA}}\oplus\vect{w}_{\mathrm{A}\rightarrow\mathrm{AB}}\oplus\vect{w}_{\mathrm{B}\rightarrow\mathrm{BA}}\oplus\vect{w}_{\mathrm{B}\rightarrow\mathrm{BB}}\]となる.特徴関数$\Phi^{\mathrm{global}}$は,文書$x$と$\mathrm{tree}(\mathcal{M})$を入力とし,$\vect{w}^{\mathrm{global}}$と同次元のベクトルを返す.具体的には,各$p\rightarrowc\in\mathrm{tree}(\mathcal{M})$に対応する部分ベクトルに$\phi(x)$を,残りの要素に$0$を入れた特徴量ベクトルを返す.したがって,$\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})$は以下のように書き換えられる.\[\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})=\sum_{p\rightarrowc\in\mathrm{tree}(\mathcal{M})}\vect{w}_{p\rightarrowc}\cdot\phi(x)\]この定式化により,$\vect{w}^{\mathrm{global}}$が与えられた時,部分木のスコアを最大化する$\mathcal{M}$を探す問題となる.\[\argmax_{\mathcal{M}}\quad\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})\]\subsection{動的計画法による解探索}\begin{algorithm}[t]\caption{$\mbox{\scmaxtree}(x,p)$}\label{alg:bu-search}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE文書$x$,木のノード$p$\ENSUREラベル集合$\mathcal{M}$,スコア$s$\STATE$\mathcal{U}\leftarrow\{\}$\FORALL{$p$の各子$c$}\IF{$c$が葉}\STATE$\mathcal{U}\leftarrow\mathcal{U}\cup\{(\{c\},\vect{w}_{p\rightarrowc}\cdot\phi(x))\}$\ELSE\STATE$(\mathcal{M}^\prime,s^\prime)\leftarrow\mbox{\scmaxtree}(x,c)$\STATE$\mathcal{U}\leftarrow\mathcal{U}\cup\{(\mathcal{M}^\prime,s^\prime+\vect{w}_{p\rightarrowc}\cdot\phi(x))\}$\ENDIF\ENDFOR\STATE$\mathcal{R}\leftarrow\{(\mathcal{M}^\prime,s^\prime)\in\mathcal{U}|s^\prime>0\}$\IF{$\mathcal{R}$が空}\STATE$\mathcal{R}\leftarrow\{(\mathcal{M}^\prime,s^\prime)\}$ただし,$(\mathcal{M}^\prime,s^\prime)$は$\mathcal{U}$のなかで$s^\prime$が最大のもの\ENDIF\STATE$\mathcal{M}\leftarrow\bigcup_{(\mathcal{M}^\prime,s^\prime)\in\mathcal{R}}\mathcal{M}^\prime$\STATE$s\leftarrow\sum_{(\mathcal{M}^\prime,s^\prime)\in\mathcal{R}}s^\prime$\RETURN$(\mathcal{M},s)$\end{algorithmic}\end{algorithm}大域モデルの,現在のパラメータ$\vect{w}^{\mathrm{global}}$のもとでの厳密解は,動的計画法により効率的に求められる.Algorithm~\ref{alg:bu-search}に動的計画法の擬似コードを示す.$\mbox{\scmaxtree}(x,p)$は,$p$を根とする部分木の集合から,スコアが最大のものを再帰的に探索する.したがって,我々が呼び出すのは$\mbox{\scmaxtree}(x,\mathrm{ROOT})$である.子$c$は,(1)$c$を根とするスコア最大の部分木を作るラベル集合,および(2)そのスコアとひも付けされている.ただし,葉のスコアは0である.$p$から見た$c$のスコアは,$c$の部分木のスコアと辺$p\rightarrowc$のスコアの和である(3--8行目).$p$の部分木のスコアを最大にするには,正のスコアを持つ$c$をすべて採用すればよい(10行目).いずれの子も正のスコアを持たない場合は,最大のスコアを持つ子を1個採用する(11--13行目).採用された子の集合により,$p$のラベル集合とスコアが決定される(14--15行目).このアルゴリズムの拡張としては,上位$N$個の候補集合を出すというものが考えられる.木に対する動的計画法としては,構文解析\cite{McDonald2005full}よりもはるかに簡単なため,上位$N$個への拡張\cite{Collins2005}もさほど難しくない.\subsection{ラベル間依存の利用}\label{sec:proposed-branch}以上の準備により,ラベル間依存を利用する条件が整った.ラベル間依存の捕捉は,大域モデルに対する特徴量の追加により実現される.具体的には,あるノードがいくつの子を採用しやすいかを制御する枝分かれ特徴量を導入する.枝分かれ特徴量は$\phi^{\mathrm{BF}}(p,k)$により表される.ここで$p$は根あるいは内部ノードであり,$k$は$p$が採用する子の数である.ただし,あらゆる$k$の値に対して特徴量を設けると疎になるため,ある$R$について,$R+1$個($1,\cdots,R$もしくは$>R$)の特徴量に限定する.さらに,ノードごとの特徴量だけでなく,すべての根あるいは内部のノードが共有する$R+1$個の特徴量も設ける.つまり,追加される特徴量は$(I+1)(R+1)$個であり,各ノードに対して2個の特徴量が発火する.ここで,$I$はラベル階層における根および内部ノードの個数とする.\begin{algorithm}[t]\caption{枝分かれ特徴量を組み込むための修正(Algorithm\ref{alg:bu-search}の10--15行目を以下で置き換える)}\label{alg:bu-branch}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\setcounter{ALC@line}{9}\STATE$r\leftarrow\mathcal{U}$を$s$により降順にソートした配列\STATE$\mathcal{R}^\prime\leftarrow\{\}$,\quad$s^\prime\leftarrow0$,\quad$\mathcal{M}^\prime\leftarrow\{\}$\FOR{$k=1..\mbox{sizeof$r$}$}\STATE$(\mathcal{M},s)\leftarrowr[k]$\STATE$s^\prime\leftarrows^\prime+s$,\quad$\mathcal{M}^\prime\leftarrow\mathcal{M}^\prime\cup\mathcal{M}$\STATE$\mathcal{R}^\prime\leftarrow\mathcal{R}^\prime\cup\{(\mathcal{M}^\prime,s^\prime+\vect{w}^{\mathrm{BF}}\cdot\phi^{\mathrm{BF}}(p,k))\}$\ENDFOR\STATE$(\mathcal{M},s)\leftarrow$$\mathcal{R}^\prime$のなかでスコア$s$が最大の要素\end{algorithmic}\end{algorithm}この枝分かれ特徴量は,動的計画法による厳密解探索が維持できるように設計されている.この特徴量を組み込むには,Algorithm~\ref{alg:bu-search}の10--15行目をAlgorithm~\ref{alg:bu-branch}で置き換えればよい.枝分かれ特徴量のスコア$\vect{w}^{\mathrm{BF}}\cdot\phi^{\mathrm{BF}}(p,k)$は$k$のみに依存する.そこで,まずは採用する子の数$k$によって候補をグループ分けし,各グループのなかでスコアが最大の候補を選ぶ(12--16行目).最後に,異なるグループ同士を比較し,スコアが最大となる候補を採用する(17行目).グループ内でスコアが最大の候補を選ぶには,子をスコア順に並べ,上位$k$個を採用すれば良い.候補のスコアは,$p$から見た各子のスコアと枝分かれ特徴量のスコアの和となる(15行目).枝分かれ特徴量の導入により,ラベルの採否の判断が,ラベル同士の相対的な比較によって行われるようになる.\ref{sec:introduction}節で触れた,「林業政策」と「環境問題」というラベルが付与された文書を再び例に挙げる.この文書に対して「林業一般」というラベルはそれほど不適切には見えないが,枝分かれ特徴量を持たないモデルは,「林業一般」を付与{\bfしない}理由を,$\phi(x)$に対応する重みですべて説明しなければならない.\ref{sec:discussion}節で示すように,枝分かれ特徴量の重みは,一般に,負の値を持ち,ペナルティとして働く.また,子の数が増えるにつれてペナルティが増えるように学習される.したがって,子を2個採用するとよりペナルティがかかるので,「林業一般」に対応する重みを無理に引き下げることなく,相対的により適切な「林業政策」のみを採用することが可能となる.\subsection{大域訓練}大域モデルの訓練手法をここでは大域訓練と呼ぶ.本稿では,パーセプトロン系のオンライン学習アルゴリズムを採用する.具体的には,構造推定問題に対するPassive-Aggressiveアルゴリズム\cite{Crammer2006}を用いる.Passive-Aggressiveを採用した理由としては,実装の簡便さ,バッチ学習と異なり,大量の訓練データに容易に対応可能なオンライン学習であること,次節で述べるように並列分散化が容易に実現できることが挙げられる.ただし,これは提案手法がパーセプトロン系アルゴリズムでしか実現できないことを意味せず,構造化SVM~\cite{Tsochantaridis:ICML2004}を含む他の構造学習アルゴリズムの導入も検討に値する.\begin{algorithm}[t]\caption{大域訓練のためのPassive-Aggressiveアルゴリズム(PA-I,予測ベース更新)}\label{alg:pa-global}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE訓練データ$\mathcal{T}=\{(x_i,\mathcal{M}_i)\}_{i=1}^T$\ENSURE重みベクトル$\vect{w}^{\mathrm{global}}$\STATE$\vect{w}^{\mathrm{global}}\leftarrow\vect{0}$\FOR{$n=1..N$}\STATE$\mathcal{T}$をシャッフル\FORALL{$(x,\mathcal{M})\in\mathcal{T}$}\STATE$\hat{\mathcal{M}}\leftarrow\argmax_{\mathcal{M}}\,\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})$\STATE$\rho\leftarrow1-2|\mathcal{M}\cap\hat{\mathcal{M}}|/(|\mathcal{M}|+|\hat{\mathcal{M}}|)$\IF{$\rho>0$}\STATE$l\leftarrow\mathrm{score}^{\mathrm{global}}(x,\hat{\mathcal{M}})-\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})+\sqrt{\rho}$\STATE$\tau\leftarrow\min\{C,\frac{l}{\norm{\Phi^{\mathrm{global}}(x,\mathrm{tree}(\mathcal{M}))-\Phi^{\mathrm{global}}(x,\mathrm{tree}(\hat{\mathcal{M}}))}^2}\}$\STATE$\vect{w}^{\mathrm{global}}\leftarrow\vect{w}^{\mathrm{global}}+\tau(\Phi^{\mathrm{global}}(x,\mathrm{tree}(\mathcal{M}))-\Phi^{\mathrm{global}}(x,\mathrm{tree}(\hat{\mathcal{M}})))$\ENDIF\ENDFOR\ENDFOR\end{algorithmic}\end{algorithm}大域モデルの場合の擬似コードをAlgorithm~\ref{alg:pa-global}に示す.ここで,$N$は訓練の反復数を表し,パラメータ$C$は$1.0$とする.現在のパラメータにおける厳密解は上述の動的計画法により求まる(5行目).予測を誤った場合,正解ラベル集合を出力する方向に重みを更新する(10行目).ここで,コスト$\rho$はモデル予測の誤り度合いを表し,重みの更新幅を変化させる.$\rho$は,正解ラベル集合とシステムの出力の一致の度合いに基づいている.\subsection{大域訓練の並列分散化}\label{sec:proposed-parallel}大域訓練には学習が非常に遅いという欠点がある.ラベル集合の分類はラベル1個の2値分類とは比較にならないほど遅い.しかも,大域訓練はモデルを一枚岩とするため,モデルを局所分類器に分割して並列化することができない.そこで,繰り返しパラメータ混ぜ合わせ法~\cite{McDonald2010full}を用いて並列分散化を行う.基本的な考えは,モデルを分割する代わりに,訓練データを分割することで並列化を行うというものである.別々の訓練データ断片から学習されたモデル群を繰り返し混ぜ合わせることで収束性を保証している.Algorithm~\ref{alg:ipm}に繰り返しパラメータ混ぜ合わせ法の擬似コードを示す.ここで$N^\prime$は繰り返しパラメータ混ぜ合わせ法の反復数,$S$は訓練データの分割数を表す.繰り返しパラメータ混ぜ合わせ法では,断片ごとに並列に訓練を行う.各反復の最後に,並列に訓練された複数のモデルを平均化する.次の反復では,この平均化されたモデルを初期値として用いる.繰り返しパラメータ混ぜ合わせ法はパーセプトロン向けに提案されたものである.しかし,\cite{McDonald2010full}が言及している通り,Passive-Aggressiveアルゴリズムに対しても収束性を証明することができる.\begin{algorithm}[t]\caption{繰り返しパラメータ混ぜ合わせ法による大域訓練}\label{alg:ipm}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE訓練データ$\mathcal{T}=\{(x_i,\mathcal{M}_i)\}_{i=1}^T$\ENSURE重みベクトル$\vect{w}^{\mathrm{global}}$\STATE$\mathcal{T}$を$\mathcal{T}_1,\cdots\mathcal{T}_S$に分割\STATE$\vect{w}^{\mathrm{global}}\leftarrow\vect{0}$\FOR{$n=1..N^\prime$}\FOR{$s=1..S$}\STATE$\vect{w}_s^{\mathrm{global}}\leftarrow$非同期的にAlgorithm\ref{alg:pa-global}を呼び出す.ただしいくつかの修正を加える.$\mathcal{T}$を$\mathcal{T}_s$で置き換える.$\vect{w}^{\mathrm{global}}$を$\vect{0}$ではなく$\vect{w}^{\mathrm{global}}$で初期化する.反復数を$N=1$とする.\ENDFOR\STATE非同期処理の終了を待つ\STATE$\vect{w}^{\mathrm{global}}\leftarrow\frac{1}{S}\sum_{s=1}^S\vect{w}_s^{\mathrm{global}}$\ENDFOR\end{algorithmic}\end{algorithm}\begin{figure}[t]\begin{center}\includegraphics{21-1ia3f2.eps}\end{center}\caption{JSTPlusの文書例}\label{fig:jstplus-example}\end{figure}
\section{実験}
\label{sec:experiments}\subsection{データ}評価データとしてJSTPlus\footnote{http://jdream3.com/service/jdream.html}を用いる.JSTPlusは科学技術振興機構が作成している科学技術文献のデータベースである.各文書は,標題,抄録,著者一覧,ジャーナル名,分類コード一覧や,その他数多くの項目からなる.文書例を図\ref{fig:jstplus-example}に示す.実験では,標題と抄録を文書分類に用いるテキストとし,分類コードを付与すべきラベルとみなす.また,2010年の文献のうち,日本語の標題と日本語の抄録の両方を含むものを実験の対象とした.その結果,455,311件の文書を得た.これを409,892件の訓練データと45,419件の評価データに分割した.ラベル(分類コード)は3,209個からなり,これは4,030個の辺に対応する.ラベル階層は,根を除いて,最大で5階層となっている.ただし,いくつかの辺は中間層を飛ばす(例えば,第2層のノードの子が第4層にある場合がある).各文書は平均で1.85個のラベルが付与されている(分散は0.85).文書ごとの最大ラベル数は9である.文書の特徴関数$\phi(x)$には以下の2種類の特徴量を用いる.\begin{enumerate}\itemジャーナル名.2値特徴量で,各文書につき1個の特徴量が発火する.\item標題と抄録中の内容語.値は頻度.ただし,標題中の内容語の頻度は2倍する.\end{enumerate}内容語抽出には,形態素解析器JUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}および構文解析器KNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}を用いた.まずJUMANによって各文を単語列に分割し,次にKNPが持つ規則を使って内容語にタグ付けした.各文書は平均で380文字を含んでいた.これは内容語としては120語に相当する.\subsection{モデル設定}\label{sec:experiments-model}大域訓練で訓練された大域モデル({\bfGM-GT})について,枝分かれ特徴量({\bfBF})を用いた場合と用いなかった場合を比較する.大域モデルの繰り返しパラメータ混ぜ合わせ法については,訓練データを10個の断片に分割し,反復数は$N^\prime=10$とする.枝分かれ特徴量について,$R=3$とする.その他の比較対象として,従来研究を参考にして以下のモデルを用いる.\subsubsection{非階層型}\label{sec:experiments-model-flat}非階層型({\bfFLAT})はラベル階層を無視し,各ラベル$l$を文書$x$に付与すべきか否かを独立に決定する.そのために各$l$に対して2値分類器を用意する.分類器の実装手法としては,ナイーブベイズ,ロジスティック回帰,サポートベクタマシンなどが用いられてきたが,本稿では,提案手法との比較のためにPassive-Aggressiveアルゴリズム~\cite{Crammer2006}を用いる.ラベル$l$に対する2値分類器は重みベクトル$\vect{w}_{l}$を持つ.スコア$\vect{w}_{l}\cdot\phi(x)$が正のとき,$l$を$x$に付与する.ただし,文書に対して最低1個のラベルを付与する.そのために,いずれのラベルも正のスコアを取らない場合は,一番高いスコアを持つラベルを1個採用する.$\vect{w}_l$を訓練するために,元の訓練データ$\mathcal{T}$を以下のようにして$\mathcal{T}_l$に変換する.\[\mathcal{T}_l=\left\{(x_i,y_i)\left|\begin{array}{l@{\hspace{0em}}l}y_i=+1&\quad\mbox{if$l\in\mathcal{M}_i$}\\y_i=-1&\quad\mbox{otherwise}\end{array}\right.\right\}_{i=1}^T\]各文書はラベル$l$を持つとき正例,そうでなければ負例となる.擬似コードをAlgorithm~\ref{alg:pa-binary}に示す.ここで,パラメータ$C$は$1.0$とする.訓練の反復数は$N=10$とする.なお,各2値分類器は独立なので,訓練は容易に並列化できる.\begin{algorithm}[t]\caption{2値分類器に対するPassive-Aggressiveアルゴリズム(PA-I)}\label{alg:pa-binary}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE訓練データ$\mathcal{T}_l=\{(x_i,y_i)\}_{i=1}^T$\ENSURE重みベクトル$\vect{w}_l$\STATE$\vect{w}_l\leftarrow\vect{0}$\FOR{$n=1..N$}\STATE$\mathcal{T}_l$をシャッフル\FORALL{$(x,y)\in\mathcal{T}_l$}\STATE$l\leftarrow\max\{0,1-y(\vect{w}_{l}\cdot\phi(x))\}$\IF{$l>0$}\STATE$\tau\leftarrow\min\{C,\frac{l}{\norm{\phi(x)}^2}\}$\STATE$\vect{w}_l\leftarrow\vect{w}_l+\tauy\phi(x)$\ENDIF\ENDFOR\ENDFOR\end{algorithmic}\end{algorithm}\subsubsection{枝刈り型}\label{sec:experiments-model-ls}枝刈り型({\bfPRUNE})はラベル階層を利用する手法であり,ラベル階層に対応する2値分類器の集合を持つ\cite{Montejo2006,Wang2011IJCNLPfull,Sasaki2012}\footnote{ラベル階層に対応する2値分類器の集合を使う他の手法としては,\cite{Punera2008}が階層上の等調回帰により,局所分類器の出力を後処理している.}.各2値分類器はラベル階層上の辺$p\rightarrowc$とひも付けされ,重み$\vect{w}_{p\rightarrowc}$を持つ.$\vect{w}_{p\rightarrowc}\cdot\phi(x)>0$は,$x$を$p$のいずれかの子孫に割り当てるべきであることを表す.これらの2値分類器も並列に訓練できる.パラメータ$C$の値,訓練の反復数は非階層型と同じとする.枝刈り型には誤り伝播\cite{Bennett2009}とよばれる問題が知られている.すなわち,階層上位の分類器による誤りから回復する手段がないため,累積的に誤りが作用する.誤り伝播を軽減するために様々な手法が提案されているが,煩雑さを避けるため,本稿では,Algorithm~\ref{alg:td-search}に示す単純な実装を採用する.各ノード$p$において,局所分類器が正のスコアを返す子すべてを採用する(4--7行目).ただし,いずれの子も正のスコアを得ない場合は,一番高いスコアを得た子を1つ採用する(8--10行目).この操作を葉に到達するまで繰り返す.2値分類器の訓練データ$\mathcal{T}_{p\rightarrowc}$の構築方法としては,以下の2種類を試す.\paragraph{ALL}\hspace{1zw}全訓練データを利用する\cite{Punera2008}.\[\mathcal{T}_{p\rightarrowc}=\left\{(x_i,y_i)\left|\begin{array}{ll}y_i=+1&\mbox{if$\existsl\in\mathcal{M}_i,l\in\mathrm{leaves}(c)$}\\y_i=-1&\mbox{otherwise}\end{array}\right.\right\}_{i=1}^T\]各文書は$c$のいずれかの子孫のラベルが割り当てられていれば正例,そうでなければ負例となる.\paragraph{SIB}\hspace{1zw}正例は{\bfALL}と同じだが,負例を$c$の兄弟の子孫が割り当てられている場合に限定する.\[\mathcal{T}_{p\rightarrowc}=\left\{(x,y)\left|\begin{array}{ll}y=+1&\mbox{if$\existsl\in\mathcal{M}$},l\in\mathrm{leaves}(c)\\y=-1&\mbox{if$\existsl\in\mathcal{M}$},l\in\mathrm{leaves}(p)\,\mbox{かつ}\,l\notin\mathrm{leaves}(c)\end{array}\right.\right\}\]こうすることで,全体として小さなモデルが学習される.なぜなら,数の多い階層下位の分類器に与えられる訓練データが小さくなるからである.従来研究では{\bfSIB}を採用する場合が多い\cite{Liu2005,Wang2011IJCNLPfull,Sasaki2012}.\begin{algorithm}[t]\caption{枝刈り型探索}\label{alg:td-search}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE文書$x$\ENSUREラベル集合$\mathcal{M}$\STATE$q\leftarrow[\mathrm{ROOT}]$,\,$\mathcal{M}\leftarrow\{\}$\WHILE{$q$が空でない}\STATE$p\leftarrow$$q$の最初の要素を取り出す,\,$\vect{t}\leftarrow\{\}$\FORALL{$p$の子である$c$}\STATE$\vect{t}\leftarrow\vect{t}\cup\{(c,\vect{w}_{p\rightarrowc}\cdot\phi(x))\}$\ENDFOR\STATE$\mathcal{U}\leftarrow\{(c,s)\in\vect{t}|s>0\}$\IF{$\mathcal{U}$が空}\STATE$\mathcal{U}\leftarrow\{(c,s)\}$,ただし$c$は$p$の子のなかで一番高いスコア$s$を持つ\ENDIF\FORALL{$(c,s)\in\mathcal{U}$}\IF{$c$が葉}\STATE$\mathcal{M}\leftarrow\mathcal{M}\cup\{c\}$\ELSE\STATE$c$を$q$に追加\ENDIF\ENDFOR\ENDWHILE\end{algorithmic}\end{algorithm}\subsection{評価尺度}\label{sec:experiments-measures}複数ラベル分類に対する評価尺度は数多く存在するが,大きく2種類に整理できる.1つは,文書を単位とした評価尺度で,しばしば用例ベースの尺度とよばれる\cite{Godbole2004,Tsoumakas2010full}.文書単位の尺度として,適合率(EBP),再現率(EBR)およびF値(EBF)が以下のように定義される.{\allowdisplaybreaks\begin{gather*}\mathrm{EBP}=\frac{1}{T}\sum_{i=1}^T\frac{|\mathcal{M}_i\cap\hat{\mathcal{M}}_i|}{|\hat{\mathcal{M}}_i|}\\\mathrm{EBR}=\frac{1}{T}\sum_{i=1}^T\frac{|\mathcal{M}_i\cap\hat{\mathcal{M}}_i|}{|\mathcal{M}_i|}\\\mathrm{EBF}=\frac{1}{T}\sum_{i=1}^T\frac{2|\mathcal{M}_i\cap\hat{\mathcal{M}}_i|}{|\hat{\mathcal{M}}_i|+|\mathcal{M}_i|}\end{gather*}}ここで$T$はテストデータ中の文書数,$\mathcal{M}_i$は$i$番目の文書の正解ラベル集合,$\hat{\mathcal{M}}_i$はそれに対応するシステムの出力とする.もう一つは,ラベルを単位とした評価尺度で,通常の適合率,再現率およびF値が用いられる.ただし,複数のラベルの集計方法としてマクロ平均とマイクロ平均がある\cite{Tsoumakas2010full}.そのため合計で,LBMaP,LBMaR,LBMaF,LBMiP,LBMiRおよびLBMiFの6種類の尺度を用いる.最後に階層的な評価も行う\cite{Kiritchenko2005}.これは,出力ラベルがラベル階層上において正解と近いときに「部分点」を与えるものである.今回のように循環がない木構造を仮定した場合,適合率(hP)および再現率(hR)は以下のように定義される.\begin{gather*}\mathrm{hP}=\frac{\sum_{i=1}^T|\mathrm{tree}(\mathcal{M}_i)\cap\mathrm{tree}(\hat{\mathcal{M}}_i)|}{\sum_{i=1}^T|\mathrm{tree}(\hat{\mathcal{M}}_i)|}\\\mathrm{hR}=\frac{\sum_{i=1}^T|\mathrm{tree}(\mathcal{M}_i)\cap\mathrm{tree}(\hat{\mathcal{M}}_i)|}{\sum_{i=1}^T|\mathrm{tree}(\mathcal{M}_i)|}\end{gather*}F値(hF)はhPとhRの調和平均として定義される.\begin{table}[b]\caption{モデルの比較結果}\label{tb:experiments-summary}\input{03table01.tex}\end{table}\subsection{結果}各種モデルの精度比較を表\ref{tb:experiments-summary}に示す.枝分かれ特徴量を組み込んだ大域モデル({\bfGM-GT-BF})が7種類の尺度で最高精度を得た.枝分かれ特徴量なしのモデル({\bfGM-GT})と比較すると,EBP,LBMaR以外の尺度で{\bfGM-GT-BF}が上回り,すべてのF値を改善した.この改善は統計的に有意($p<0.01$)であった.大域モデルを非階層型({\bfFLAT})と比較すると,適合率の改善が著しい一方,再現率に大きな差は見られない.2種類の枝刈り型({\bfPRUNE})を比較すると,兄弟のみで訓練する場合({\bfSIB})の方が全体的にやや良い精度が得られた.しかし,多くの尺度で非階層型に敗れており,従来研究の結果を再現する形となっている.誤り例を見ると,誤って採用したラベル,誤って採用しなかったラベルのいずれも,正解ラベルから離れて人間として改めて判断すると,必ずしも誤りとは言い切れない場合が少なくなかった.特に,該当文書にとって周辺的な話題を表すラベルをどこまで採用べきかを判断するのが難しかった.なお,モデル間の分類結果の差分からは,明確な誤り,改善の傾向をつかむのは困難であった.時間はテストデータの分類に要した時間であり,モデルの読み込み時間は含まない\footnote{実験では8コアIntelXeon2.70~GHzCPUの1コア,64~GBのメモリを用い,実装にはPerlを用いた.}.予想される通り,枝刈り型が圧倒的に速い.{\bfGM-GT-BF}は{\bfPRUNE-ALL}と比較して約60倍の時間を要した.しかし,{\bfFLAT}と比較すると,階層を利用するにも関わらず,約18\%の増加にとどまっている.これは,{\bfGM-GT-BF}のモデルの大きさが{\bfFLAT}よりも約16\%小さいことで説明できるかもしれない.モデルの大きさは重みベクトル中で,絶対値が$10^{-7}$より大きい要素の数とする.大きさは{\bfPRUNE-SIB}が最小で,{\bfPRUNE-ALL}が最大となった.{\bfGM-GT-BF}が{\bfGM-GT}よりも大きさを約9\%削減したことは特筆に値する.訓練に用いたPassive-Aggressiveアルゴリズムには重みを0につぶそうとする仕組みがないことから,大きさが削減された理由は,学習過程で{\bfGM-GT-BF}が{\bfGM-GT}よりも予測を誤る回数が少なかったからと考えられる.このように,より小さなモデルでより高い精度が得られたことは,出力すべき複数ラベルの間にはラベル階層に基づく依存関係があるという我々の仮定を支持するものと考える.\subsection{議論}\label{sec:discussion}大域モデルの重み$\vect{w}^{\mathrm{global}}$自体は,大域訓練({\bfGT})だけでなく,枝刈り型で用いた2値分類器群を連結することによっても構成できる({\bfLT}).大域モデルの性質をさらに調べるために,こうしたモデルとの比較も行った.表\ref{tb:experiments-dp}に大域モデルの訓練方法の比較結果を示す.訓練データとして{\bfSIB}を用いた場合,極端に多くの候補を出力するようになり,その結果,極端に低い適合率と高い再現率を得た.{\bfSIB}という限定されたデータで訓練された局所的な分類器に対して,大域モデルが未知の文書の分類を行わせたため,このような不安定な振る舞いとなった.一方,訓練データとして{\bfALL}を用いた場合,枝刈り型({\bfPRUNE-ALL})から精度を大幅に向上させ,大域訓練とくらべても遜色のない精度が得られた.モデルの大きさや分類速度において大域訓練に劣りはするものの,大域モデルの最適化を行わずにこのような高精度が得られたことは興味深い.これは,訓練手法に改善の余地があることを示唆する.本稿では10並列による繰り返しパラメータ混ぜ合わせ法を用いたが,今後の最適化技術の発展が期待される.\begin{table}[b]\vspace*{-1\Cvs}\caption{大域モデルの訓練方法の比較}\label{tb:experiments-dp}\input{03table02.tex}\end{table}\begin{table}[b]\caption{訓練データにおける精度}\label{tb:experiments-training}\input{03table03.tex}\end{table}表\ref{tb:experiments-training}に訓練データに対する精度を示す.訓練データに対しては非階層型({\bfFLAT})が一番高い精度を示し,{\bfALL}により局所訓練された大域モデル({\bfGM-LT-ALL})がそれに続いた.大域訓練を行った場合({\bfGM-GT-BF})との比較から,局所訓練が過学習をもたらしているとみられる.また,局所訓練と大域モデルの組み合わせにより,枝刈り型探索が誤りの主要因であることが確認できた.すなわち,{\bfPRUNE-ALL}を訓練データに適用したところ,33\%の文書について,{\bfPRUNE-ALL}が出力したラベル集合よりも,正解ラベル集合の方が大域モデルにおいて高いスコアを持っていた.言い換えると,正しく探索を行えば犯さない誤りであった.ただし,この高い数値には過学習の影響も含まれており,同じ操作をテストデータに適用した場合は,割合は14\%に下がった\footnote{ラベル階層が大規模で厳密解探索が難しいといった理由で,枝刈り型探索をAlgorithm\ref{alg:pa-global}の訓練に用いる場合,探索誤りから生じる「非侵害」問題に対処しなければならない.すなわち,モデル予測$\hat{\mathcal{M}}$が正解$\mathcal{M}$よりも低いスコアを持つ場合,重みベクトルの更新が無効となってしまう.この問題に対処するための手法がいくつか提案されている~\cite{Collins2004full,Huang2012full}.}.\begin{figure}[b]\begin{center}\includegraphics{21-1ia3f3.eps}\end{center}\caption{辺ごとのモデルの大きさとスコアの比較}\label{fig:size-score-comp}\end{figure}より詳細にモデルを調べるために,辺に分解した結果を示す.図\ref{fig:size-score-comp}は{\bfGT-BF},{\bfLT-ALL},{\bfLT-SIB}の比較である.図(a)から(c)は辺に対応する局所ベクトルの大きさを示す.ここで,大きさの定義は表\ref{tb:experiments-summary}と同じである.辺を子の階層によって集約し,大きさを平均した結果を示す.一般に,上位階層ほど多数の有効な重みベクトルが必要となることが確認できる.{\bfGT-BF}は{\bfLT-ALL}よりも大きさが小さいが,辺ごとの大きさの比率は似通っている.{\bfLT-SIB}と比較すると,{\bfGT-BF}は上位階層では小さいが,下位階層では大きな有効重みベクトルを持つ.{\bfLT-SIB}では兄弟からの識別のみを考慮していたが,大域学習ではすべての辺が適切なスコアを返す必要があるため,有効重みベクトルがより大きくなったとみられる.図(d)から(f)は,各辺が得たスコアの絶対値の平均を表す.ここで,スコアは,テストデータに対するモデル出力から計算されたものである.これにより,どの階層の辺が強くモデル出力に影響しているかが推測できる.この結果から,上位階層ほど大きな影響を持つことがわかる.しかし,{\bfGT-BF}は他とくらべて上位階層の影響が小さい.すなわち,{\bfGT-BF}においては下位階層の辺が相対的に重要な役割を果たしている.枝分かれ特徴量に対応する重みを図\ref{fig:br-heatmap}にヒートマップとして示す.各要素の値は,親ノードに与えられた重み(ノードごとの重みと共有された重みの和)を平均したものである.平均化された値はすべて負となり,子の数が増えるにつれてペナルティが単調増加した.異なる階層間の重みの比較は,それらが重みベクトルの他の部分の値に依存するため難しい.しかし,下位ノードほど子の数に応じた重みの落差が大きいという結果は,階層上近いラベル候補同士ほど強い競合関係にあるという我々の仮説を支持しているようにみえる.最後に,訓練データおよび評価データの正解ラベルについて,正解ラベルを被覆する最小の部分木を作り,親が採用する子の数を調べた.採用した子の数が複数である割合は,根で34.9\%,第1層で10.1\%,第2層で4.6\%,第3層で1.5\%,第4層で0.6\%であり,下位ノードほど強い競合関係にあることが確認できた.\begin{figure}[t]\begin{center}\includegraphics{21-1ia3f4.eps}\end{center}\caption{枝分かれ特徴量のヒートマップ表現}\label{fig:br-heatmap}\end{figure}
\section{関連研究}
\label{sec:related-work}階層型文書分類において,枝刈り型が非階層型にしばしば敗れることが報告されており,誤り伝播を軽減するために様々な手法が提案されてきた.\cite{Sasaki2012}は枝刈り探索時の枝刈り基準を緩め,最後に候補の枝刈りを行う.すなわち,Algorithm~\ref{alg:td-search}の7行目の閾値を$0$から$-0.2$などに引き下げて,より多くの候補を採用する.最後に,各候補について,根から葉までのパスの(シグモイド関数で変換された)局所スコアの和を取り,これに閾値を設定することによって出力ラベルを絞り込む.S-cut~\cite{Montejo2006,Wang2011IJCNLPfull}は,一律の閾値を用いるのではなく,局所分類器ごとに閾値を設定する手法である.R-cutは上位$r$個の候補を採用する手法で,選び方には大域的手法\cite{Liu2005,Montejo2006}と局所的手法\cite{Wang2011IJCNLPfull}がある.\cite{Wang2011IJCNLPfull}は採用されたラベル候補をメタ分類器にかけ,最終的な出力を決定する.メタ分類器の特徴量としては,根から葉までの局所スコアやその累積などを用いる.本稿ではこれらを総称して後付け補正とよぶ.後付け補正では,いずれもモデルあるいは探索が本質的に不完全であることを想定し,追加のパラメータによる補正を行なっている.そうしたパラメータは,人手で設定するか,あるいは訓練データとは別に開発データを用意して推定しなければならず煩雑である.一方,提案手法には後付け補正は不要であり,モデル自体の改善に専念できる.ラベル階層を下から上へ探索しながら候補を探すという点で,提案手法と似た手法が\cite{Bennett2009}により提案されている.しかし,彼らの手法では,大域モデルも大域訓練も用いられていない.代わりに,階層下位の分類器のスコアが上位の分類器のメタ特徴量として用いられている.分類器の訓練は局所的に行われ,煩雑な交差確認を必要とする.本稿ではあらかじめ定義されたラベル階層を利用した.そうした手がかりがない場合にラベル間依存を捉えるための手法も研究されている.\cite{Ghamrawi:CIKM2005full,Miyao:COLING2008full}は,出力すべきラベル集合中のラベルペアを特徴量に組み込んでいる.本稿のようにラベル階層が利用できる場合は,それをもとに限られた数のラベル同士の関係を考慮すればすむ.一方,ラベル階層がない場合は,モデルはすべてのラベルペアを考慮する必要があり,訓練および解探索に大きな計算コストを要する.こうしたモデルの検証は,ラベルの異なり数が数十程度のデータセットを用いて行われてきた.ラベルの異なり数が大きな場合について,\cite{Tai:2012full}は,ラベル集合を低次元の直交座標系に写像し,この空間上で非階層型の分類器を学習する手法を提案している.予測時には,分類器の出力を元の空間へ写像するという自明でない復号が必要となる.\cite{Bi:ICML2011}は,ラベル階層を組み込むために,木あるいは有向非循環グラフの制約を満たすような復号手法を提案している.
\section{おわりに}
\label{sec:conclusion}本稿では,階層型複数ラベル文書分類を構造推定問題として定式化し,動的計画法による厳密解探索方法,大域訓練,ラベル間依存をとらえる枝分かれ特徴量を提案した.枝分かれ特徴量はモデルの大きさを削減するとともに精度の向上をもたらした.この結果は,人間作業者が複数のラベル候補から出力を選択する際,ラベル階層に基づいて,競合する候補の相対的な重要性を考慮していることを示唆する.今後の方向性としては,枝分かれ特徴量以外によってラベル間依存をとらえる方法を探究するというものが考えられる.例えば,「〜その他」や「〜一般」といったラベルは,他のラベルとの関係において特殊な振る舞いをすると予想される.また,本稿では葉のみが付与対象ラベルという問題設定を行ったが,従来研究には内部ノードも付与対象である場合を扱ったものがある~\cite{Liu2005}.こうした内部ノードの振る舞いも特殊である.内部ノードを採用するとき,その子孫へのラベル付与を行わないことが多い.さらに,木構造から有向非循環グラフへの提案手法の一般化も課題である.\acknowledgment本研究で評価実験に用いたJSTPlusは,共同研究を通じて,独立行政法人科学技術振興機構に提供していただきました.深く感謝いたします.本研究は一部JSTCRESTの支援を受けました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bennett\BBA\Nguyen}{Bennett\BBA\Nguyen}{2009}]{Bennett2009}Bennett,P.~N.\BBACOMMA\\BBA\Nguyen,N.\BBOP2009\BBCP.\newblock\BBOQRefinedExperts:ImprovingClassificationinLargeTaxonomies.\BBCQ\\newblockIn{\BemProceedingsofthe32ndInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'09)},\mbox{\BPGS\11--18}.\bibitem[\protect\BCAY{Berlin}{Berlin}{1992}]{Berlin1992}Berlin,B.\BBOP1992\BBCP.\newblock{\BemEthnobiologicalClassification:PrinciplesofCategorizationofPlantsandAnimalsinTraditionalSocieties}.\newblockPrincetonUniversityPress.\bibitem[\protect\BCAY{Bi\BBA\Kwok}{Bi\BBA\Kwok}{2011}]{Bi:ICML2011}Bi,W.\BBACOMMA\\BBA\Kwok,J.\BBOP2011\BBCP.\newblock\BBOQMulti-LabelClassificationonTree-and{DAG}-StructuredHierarchies.\BBCQ\\newblockIn{\BemProceedingsofthe28thInternationalConferenceonMachineLearning(ICML-11)},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Collins\BBA\Koo}{Collins\BBA\Koo}{2005}]{Collins2005}Collins,M.\BBACOMMA\\BBA\Koo,T.\BBOP2005\BBCP.\newblock\BBOQDiscriminativeRerankingforNaturalLanguageParsing.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\25--70}.\bibitem[\protect\BCAY{Collins\BBA\Roark}{Collins\BBA\Roark}{2004}]{Collins2004full}Collins,M.\BBACOMMA\\BBA\Roark,B.\BBOP2004\BBCP.\newblock\BBOQIncrementalParsingwiththe{P}erceptronAlgorithm.\BBCQ\\newblockIn{\BemProceedingsofthe42ndMeetingoftheAssociationforComputationalLinguistics(ACL'04),MainVolume},\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{Crammer,Dekel,Keshet,Shalev-Shwartz,\BBA\Singer}{Crammeret~al.}{2006}]{Crammer2006}Crammer,K.,Dekel,O.,Keshet,J.,Shalev-Shwartz,S.,\BBA\Singer,Y.\BBOP2006\BBCP.\newblock\BBOQOnlinePassive-AggressiveAlgorithms.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf7},\mbox{\BPGS\551--585}.\bibitem[\protect\BCAY{Ghamrawi\BBA\McCallum}{Ghamrawi\BBA\McCallum}{2005}]{Ghamrawi:CIKM2005full}Ghamrawi,N.\BBACOMMA\\BBA\McCallum,A.\BBOP2005\BBCP.\newblock\BBOQCollectiveMulti-labelClassification.\BBCQ\\newblockIn{\BemCIKM'05:Proceedingsofthe14thACMInternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\195--200}.\bibitem[\protect\BCAY{Godbole\BBA\Sarawagi}{Godbole\BBA\Sarawagi}{2004}]{Godbole2004}Godbole,S.\BBACOMMA\\BBA\Sarawagi,S.\BBOP2004\BBCP.\newblock\BBOQDiscriminativeMethodsforMulti-labeledClassification.\BBCQ\\newblockInDai,H.,Srikant,R.,\BBA\Zhang,C.\BEDS,{\BemAdvancesinKnowledgeDiscoveryandDataMining},\lowercase{\BVOL}\3056of{\BemLectureNotesinComputerScience},\mbox{\BPGS\22--30}.SpringerBerlinHeidelberg.\bibitem[\protect\BCAY{Huang,Fayong,\BBA\Guo}{Huanget~al.}{2012}]{Huang2012full}Huang,L.,Fayong,S.,\BBA\Guo,Y.\BBOP2012\BBCP.\newblock\BBOQStructured{P}erceptronwithInexactSearch.\BBCQ\\newblockIn{\BemProceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\142--151}.\bibitem[\protect\BCAY{Kiritchenko}{Kiritchenko}{2005}]{Kiritchenko2005}Kiritchenko,S.\BBOP2005\BBCP.\newblock{\BemHierarchicalTextCategorizationandItsApplicationtoBioinformatics}.\newblockPh.D.\thesis,UniversityofOttawa.\bibitem[\protect\BCAY{Labrou\BBA\Finin}{Labrou\BBA\Finin}{1999}]{Labrou1999}Labrou,Y.\BBACOMMA\\BBA\Finin,T.\BBOP1999\BBCP.\newblock\BBOQYahoo!asanOntology:Using{Y}ahoo!CategoriestoDescribeDocuments.\BBCQ\\newblockIn{\BemProceedingsoftheEighthInternationalConferenceonInformationandKnowledgeManagement(CIKM'99)},\mbox{\BPGS\180--187}.\bibitem[\protect\BCAY{Liu,Yang,Wan,Zeng,Chen,\BBA\Ma}{Liuet~al.}{2005}]{Liu2005}Liu,T.-Y.,Yang,Y.,Wan,H.,Zeng,H.-J.,Chen,Z.,\BBA\Ma,W.-Y.\BBOP2005\BBCP.\newblock\BBOQSupportVectorMachinesClassificationwithaVeryLarge-scaleTaxonomy.\BBCQ\\newblock{\BemSIGKDDExplorationsNewsletter},{\Bbf7}(1),\mbox{\BPGS\36--43}.\bibitem[\protect\BCAY{LSHTC3}{LSHTC3}{2012}]{LSHTC3}LSHTC3\BED\\BBOP2012\BBCP.\newblock{\BemECML/PKDD-2012DiscoveryChallengeWorkshoponLarge-ScaleHierarchicalTextClassification}.\bibitem[\protect\BCAY{McDonald,Crammer,\BBA\Pereira}{McDonaldet~al.}{2005}]{McDonald2005full}McDonald,R.,Crammer,K.,\BBA\Pereira,F.\BBOP2005\BBCP.\newblock\BBOQOnlineLarge-MarginTrainingofDependencyParsers.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\91--98}.\bibitem[\protect\BCAY{McDonald,Hall,\BBA\Mann}{McDonaldet~al.}{2010}]{McDonald2010full}McDonald,R.,Hall,K.,\BBA\Mann,G.\BBOP2010\BBCP.\newblock\BBOQDistributedTrainingStrategiesfortheStructured{P}erceptron.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\456--464}.\bibitem[\protect\BCAY{Miyao\BBA\Tsujii}{Miyao\BBA\Tsujii}{2008}]{Miyao:COLING2008full}Miyao,Y.\BBACOMMA\\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQExactInferenceforMulti-labelClassificationusingSparseGraphicalModels.\BBCQ\\newblockIn{\BemColing2008:Companionvolume:Posters},\mbox{\BPGS\63--66}.\bibitem[\protect\BCAY{Montejo-R{\'a}ez\BBA\Ure{\~n}a-L{\'o}pez}{Montejo-R{\'a}ez\BBA\Ure{\~n}a-L{\'o}pez}{2006}]{Montejo2006}Montejo-R{\'a}ez,A.\BBACOMMA\\BBA\Ure{\~n}a-L{\'o}pez,L.~A.\BBOP2006\BBCP.\newblock\BBOQSelectionStrategiesforMulti-labelTextCategorization.\BBCQ\\newblockIn{\BemAdvancesinNaturalLanguageProcessing},\mbox{\BPGS\585--592}.Springer.\bibitem[\protect\BCAY{Punera\BBA\Ghosh}{Punera\BBA\Ghosh}{2008}]{Punera2008}Punera,K.\BBACOMMA\\BBA\Ghosh,J.\BBOP2008\BBCP.\newblock\BBOQEnhancedHierarchicalClassificationviaIsotonicSmoothing.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonWorldWideWeb(WWW'08)},\mbox{\BPGS\151--160}.\bibitem[\protect\BCAY{Qiu,Gao,\BBA\Huang}{Qiuet~al.}{2009}]{Qiu2009full}Qiu,X.,Gao,W.,\BBA\Huang,X.\BBOP2009\BBCP.\newblock\BBOQHierarchicalMulti-LabelTextCategorizationwithGlobalMarginMaximization.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},\mbox{\BPGS\165--168}.\bibitem[\protect\BCAY{Sasaki\BBA\Weissenbacher}{Sasaki\BBA\Weissenbacher}{2012}]{Sasaki2012}Sasaki,Y.\BBACOMMA\\BBA\Weissenbacher,D.\BBOP2012\BBCP.\newblock\BBOQ{TTI'S}Systemforthe{LSHTC}3Challenge.\BBCQ\\newblockIn{\BemECML/PKDD-2012DiscoveryChallengeWorkshoponLarge-ScaleHierarchicalTextClassification}.\bibitem[\protect\BCAY{Tai\BBA\Lin}{Tai\BBA\Lin}{2010}]{Tai:2012full}Tai,F.\BBACOMMA\\BBA\Lin,H.-T.\BBOP2010\BBCP.\newblock\BBOQMulti-labelClassificationwithPrincipalLabelSpaceTransformation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponLearningfromMulti-LabelData},\mbox{\BPGS\45--52}.\bibitem[\protect\BCAY{Tsochantaridis,Hofmann,Joachims,\BBA\Altun}{Tsochantaridiset~al.}{2004}]{Tsochantaridis:ICML2004}Tsochantaridis,I.,Hofmann,T.,Joachims,T.,\BBA\Altun,Y.\BBOP2004\BBCP.\newblock\BBOQ{S}upport{V}ector{M}achineLearningforInterdependentandStructuredOutputSpaces.\BBCQ\\newblockIn{\BemProceedingsoftheTwenty-firstInternationalConferenceonMachineLearning(ICML'04)},\mbox{\BPGS\104--113}.\bibitem[\protect\BCAY{Tsoumakas,Katakis,\BBA\Vlahavas}{Tsoumakaset~al.}{2010}]{Tsoumakas2010full}Tsoumakas,G.,Katakis,I.,\BBA\Vlahavas,I.\BBOP2010\BBCP.\newblock\BBOQMiningMulti-labelData.\BBCQ\\newblockInMaimon,O.\BBACOMMA\\BBA\Rokach,L.\BEDS,{\BemDataMiningandKnowledgeDiscoveryHandbook},\mbox{\BPGS\667--685}.Springer.\bibitem[\protect\BCAY{Wang,Zhao,\BBA\Lu}{Wanget~al.}{2011}]{Wang2011IJCNLPfull}Wang,X.-L.,Zhao,H.,\BBA\Lu,B.-L.\BBOP2011\BBCP.\newblock\BBOQEnhanceTop-downMethodwithMeta-ClassificationforVeryLarge-scaleHierarchicalClassification.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1089--1097}.\end{thebibliography}\begin{biography}\bioauthor{村脇有吾}{2006年京都大学工学部情報学科卒業.2008年京都大学大学院情報学研究科修士課程修了.2011年,同博士後期課程修了.博士(情報学).同年京都大学学術情報メディアセンター特定助教.2013年,九州大学大学院システム情報科学研究院助教,現在に至る.計算言語学,自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V09N05-07
|
\section{はじめに}
インターネットの普及により,電子化されたテキストの入手が容易になってきた.それらのテキストをより効率的かつ効果的に利用するために,多くの言語処理技術が研究,提案されてきている.それに伴い,言語処理の研究分野は注目を浴び,言語処理学会でも年々会員が増加し,事務作業が増加する傾向にある.このような増加傾向から考えると,今の言語処理学会の状況では,事務処理の負担が処理能力を越えてしまい,その結果,事務作業が滞ることが予想される.もし,事務作業が滞れば,学会の活気や人気に水をさすことになってしまう可能性があり,その結果,学会の将来に悪影響を与えると考えられる.そのため,事務処理の効率化は必須である.学会の差別化,効率化を図るため,電子化された投稿論文の査読者への割り当てを行なう際に言語処理技術を利用した報告が出てきている.例えば,投稿論文を最適な査読者に割り当てることを試みたもの\cite{Susan1992,Yarowsky1999}などである.ただし,これらの論文は適切な査読者を決定することを目的としているだけであり,事務処理の効率化については論じられていない.そのような中で,2000年言語処理学会第\6回年次大会プログラムを作成する機会を得た.大会プログラム作成において作業効率向上に寄与する言語処理技術を明確にすることを目的として,いくつかの言語処理技術を用いて第\5回大会の講演参加申込データに対して,大会プログラム自動作成実験を行い,それらの技術の有効性を比較した.そして,その実験結果を基に第\6回年次大会プログラム原案を作成した.大会プログラムを作成するには,講演参加申込を適当なセッションに分割し,セッション名を決める作業が必要である.それには,講演参加申込の内容(タイトルとアブストラクト)をすべて確認してから作成作業をするのが一般的であるが,講演数が増加している現在,講演申込内容をすべて確認し,大会プログラムを手動で作成するのは大変な作業である.この作業を省力化するために,アブストラクトは読まずに,タイトルだけを利用し,大会プログラムを作成することも可能であると考えられるが,タイトルだけを利用した場合,たとえ講演参加申込に記述されている講演分野を利用したとしても適切なセッションに割り当てられない場合が存在すると考えられる.また,タイトルだけでは,適切なセッション名を決めることも困難である.我々はそのような作業を支援し,効率化する方法を本稿で提案する.我々の手法を利用すれば,大会の発表傾向にあったセッション名を決定できるだけでなく,適切なセッションに講演申込を割り振ることも可能となる.そのため,事務作業の負担を軽減することが可能となるだけでなく,講演者の興味にあうセッションを作成できる.以下,\ref{yaya}章でその一連の実験について報告する.\ref{gogo}章で第\6回年次大会プログラム作成の詳細について説明する.そして,\ref{haha}章で大会後に行なったアンケート調査の結果を報告し,\ref{mumu}章で今後の大会プログラム作成の自動化および事務処理の効率化に向けた考察を行なう.
\section{大会プログラム作成実験}
\label{yaya}大会プログラムとは,大会参加講演の集合を,類似した内容の講演のグループ(セッション)に分類し,そのグループを時間と会場の条件に合わせて割り振った講演発表一覧である.大会プログラムを作成するには,以下のような手続きが必要である.\begin{itemize}\item[A]講演参加申込を収集しデータベース化する.\item[B]講演参加申込を類似性に基づいて分割する.\item[C]各類似講演グループにセッション名をつける.\item[D]講演グループの講演数や会場数や時間配分を調整する.\end{itemize}上記の手続きの作業順は決定していない.例えば,講演会場の情報が前もって判っていれば,会場数からセッション数(講演グループ数)あるいは,1セッションあたりの講演数が決定可能であるし,会場情報がない場合はセッション名を決定してから講演分類を行ない,後で講演数の調整を行なうことも可能である.作業順はどうであれ,大会プログラムを作成するには,講演参加申込を適当なグループに分類し,各グループに適切なセッション名を付けることが必要である.本稿では,上記作業の\B,Cに特に注目し,大会プログラムを作成する課題を講演参加申込(文書)の自動分類および自動ラベリング課題と捉え,既存の文書分類技術がどれほど利用できるかを明らかにするための実験を行なった.この課題においては,以下の\2つのアプローチのいずれかを取ることができる.\begin{itemize}\item[1]講演参加申込を分類し,分類された講演グループからセッション名を決める.\item[2]セッション名を決定し,セッション名に合うように講演参加申込を分類する.\end{itemize}どちらのアプローチにおいても,1セッションあたりの講演参加申込数がほぼ同数に分類され,分類されたグループの講演タイトルなどからセッション名を連想できることが必要である.なぜなら,適当な分類ができても,そこからセッション名を連想できなければ良いプログラムができたとは言えないし,講演タイトルからセッション名が連想できたとしても,各セッションの講演数がバラバラであれば大会運営からして良いプログラムを作成できたとは言い難いからである.我々はそれぞれのアプローチについて以下のような実験を行なった.本稿では,それらの実験の結果について述べる.\begin{itemize}\item[1]講演参加申込を分類後,セッション名を決める手続き;\begin{itemize}\itemクラスタリング手法を用いた分類\end{itemize}\item[2]セッション名決定後,講演参加申込を分類する手続き;\begin{itemize}\item学習アルゴリズムを用いた分類\itemキーワード抽出・類似検索法を用いた分類\end{itemize}\end{itemize}\subsection{クラスタリング手法を用いた分類}\label{class}まず,クラスタリング手法で,ある程度の講演参加申込のグルーピングができ,各グループに含まれる講演参加申込数がそれほど大きく違わず,なおかつ,そのグループに適当なセッション名をつけることができれば,そのグループに基づいて大会プログラム原案を簡単に作成できるのではないかと考えた.クラスタリング手法としては,トップダウンの手法\cite{Tanaka1997}とボトムアップの手法\cite{BakerAndMcCallum1998}を用いた.どちらも第\5回の講演参加申込データを利用し分類実験を行なった.この方法では,セッション名を前もって決めることをせずに分類し,それぞれ分類されたグループからセッション名を抽出してプログラムを作成する.トップダウンクラスタリングでは,論文集合を分割していくということを,論文集合の大きさが\1になるまで再帰的に繰り返す.このとき,分割の際に,出現頻度の分散が最大の単語に着目し,その単語の出現頻度がある一定以上のものと一定以下のものに集合を分割する\cite{Tanaka1997}.一方,ボトムアップクラスタリングにおいては,各クラスタ間の距離を比べて,最も近いもの同士をくっつけていくということをクラスタ数が1になるまで繰り返す.このときの距離として,ダイバージェンス(K-L情報量)を利用する\cite{BakerAndMcCallum1998}.2つのクラスタリング手法では,どちらも何らかの意味概念を持ったグループに分類されたが,各グループに含まれる申込数に大きなバラツキがあった.また,第\5回のプログラムのセッションと分類されたグループとを比較すると,図\ref{top}\footnote{この図は,トップダウン手法で得られた文書集合が\1になった結果の一部分を示している.数字は申込番号を示し,英文字は申込者が記入した講演分野である.また,[\]内は第\5回で割り当てられていたセッション名であり,この実験での正解として扱っているセッション名である.理想的な解であれば,文書集合が\1になった時の近隣のタイトルは第\5回大会の同名のセッションに分類されているはずである.ここでは結果として,別のセッションに分けられた講演タイトルが近隣に来ており,近隣をまとめてグループとした際にそのグループにセッション名としてのグループ名を与えることが困難であった.なお,この実験の際には,セッション中の順序については考慮していない.}で示すように,大きく異なっていた.さらに,グループの内容からセッション名を決定することも難しかった.そのため,これらのクラスタリング手法は採用しなかった.\begin{figure}\begin{center}\epsfile{file=topdown3b.epsf}\end{center}\caption[図]{\label{top}トップダウン手法の結果例}\end{figure}\subsection{学習アルゴリズムを用いた分類}\label{saidai}もし,第\6回大会が第\5回大会と同様な話題の講演傾向であれば,セッション名は変化していないと考えられる.そのような場合,学習アルゴリズムを用いて,第\5回大会のセッション名とそれへの講演参加申込の割りつけの傾向を学習し,その学習結果を利用することで大会プログラムを作成できる.ここでは,学習アルゴリズムとして最大エントロピー法を利用した.最大エントロピー法を用いた分類とは,各講演参加申込が各セッションに割り当てられる確率を最大エントロピー法により学習し,その確率が最大になるセッションに講演参加申込を割り振るというものである.この方法を用いた文書の自動分類の研究には文献\cite{Inui1998,Nigam1999}がある.本稿では,第\5回の大会プログラムと講演参加申込データより,セッション名と講演参加申込との関係を学習し,セッション名は第\5回で利用されたものを用いて,第\6回の講演参加申込データを確率が最大となるセッションに分類した.\begin{table*}\caption[表]{\label{meout}分類確率の高い結果}\begin{center}\scriptsize\begin{tabular}{|c|c|c|c|l|}\hlineセッション名&確率&登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline機械翻訳&0.989&90&d&語彙化されたツリーオートマトンに基づく会話文翻訳システム\\\hline機械翻訳&0.972&37&d&英日・日英機械翻訳の実力\\\hline機械翻訳&0.887&50&d&日英機械翻訳における名詞の訳語選択\\\hline検索&0.839&38&d&情報検索における絞り込み語提示による検索者支援の試み\\\hline検索&0.830&97&d&科学論文における要旨—本文間のハイパーリンク自動生成\\\hline検索&0.735&9&d&用例利用型翻訳のための類似用例検索手法\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption[表]{\label{memondai}分類確率の低い結果}\vspace*{-3mm}\begin{center}\scriptsize\begin{tabular}{|c|c|l|c|}\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}&セッション名(確率)\\\hline25&b&辞書定義文を用いた複合語分割&分類・他(0.163)タグ付け(0.152)辞書(0.126)\\\hline18&c,d&GDAタグを利用した複数文書の要約&分類・他(0.237)言語モデ(0.179)抽出(0.156)\\\hline\end{tabular}\end{center}\end{table*}最大エントロピー法では確率を学習する際にデータを表現するための素性が必要である.学習に用いる素性としては,分類すべき講演参加申込のタイトルとアブストラクトをJUMAN\cite{KurohashiAndNagao}で形態素解析して形態素列に分解し,その形態素のうち名詞のみを取り出して用いた.また,タイトルに現れたキーワードは特に重要と考え,上記の素性とは別にタイトルから得られた形態素は別個の素性として用いた.さらに,申込書に記述された講演分野も素性の一つとして学習した.講演分野とは講演申込時に申込者が関係する分野として選択するものである.講演分野として選択肢はaからeまで存在し,aは音韻論,形態論,構文論など,bは計算辞書学,ターミノロジー,テキストデータベースなど,cは言語処理アルゴリズム,解析・生成システム,対話理解など,dはワードプロセッサ,機械翻訳,情報検索,対話システムなど,eはその他となっている\footnote{これら講演分野については,第\7回大会の講演参加申込までは特別セッション以外,選択肢に変更がなかったが,第\8回大会の申込から,より詳細な区分に変更されている.}.なお,実際に利用した素性の種類の数は1,818個であった.この方法により,第\5回のデータで学習し第\6回のデータを分類して得た結果の一部を表\ref{meout}と表\ref{memondai}に示す.表\ref{meout}に示すように,例えば「機械翻訳」や「検索」のセッションに割り振られる確率の高いものは,比較的良い結果となっている.しかしながら表\ref{memondai}に示すようにセッションに割り振られる確率が低いものについては,確率最大のものとそれに続く確率のものとの間に目立った差が存在せず,どのセッションに含まれるべきか判断に困るような結果であったり,分類自体全く見当外れであったりした.これは,アブストラクトのような文字制限があるところで,講演内容を幅広く記述したため曖昧になっている場合や新たな分野への研究である場合に低い確率になると考えられる.また,講演分野の記述の無い申込や複数の分野を指定されたものがあったが,これらの場合には申込の講演分野は学習素性として信頼性のない素性となる\footnote{この実験で用いた講演分野は,第\7回大会まで数年にわたって利用され変更されていない.そのため,実際の講演内容とあう講演分野が無かった可能性も高い.}.利用できる情報が少ない状態で,信頼性のない素性を利用することは結果に悪い影響を与える.利用できる情報が少ない場合は,利用できる情報の信頼性ができる限り高い必要がある.さらに,この手法では,申込の分類先を学習データと一致させる必要があり,分類先が固定化される問題がある.この問題は,最大エントロピー法に限ったものではなく,教師あり機械学習手法で分類を行なうときには必ず生じる問題である\footnote{この問題については,次のような改善方法があり得る.まず,いずれかのセッションに割り振られる確率の高い講演とどのセッションにも割り振られる確率の低い講演に分割する.割り振られる確率の高いものは,言語処理学会の定番的な研究の内容の講演であると考え,それらを学習で利用したセッションへ分類する.割り振られる確率の低い講演については,今回\ref{hoho}節で提案するような手法により,新たなセッションを生成し,それらに分類することで分類先が固定化されることなく,大会プログラムを作成することが可能である.ただし,定番的な研究内容と新たなものを分離するための具体的な閾値を決定する方法などを検討する必要がある.}.上記の理由により,この手法を採用しなかった.\subsection{キーワード抽出・類似検索法を用いた分類}\label{hoho}本節で述べる手法では,講演参加申込全体から出現頻度が高く,重要性が高いと思われるキーワードを抽出し,そのキーワードをセッション名とする.そして,それらセッション名と講演参加申込の類似度を計算し,類似度の高いセッション名に講演参加申込を分類することにより,大会プログラムを作成する.本節の実験では,第\5回の講演参加申込データより,セッション名の候補となるキーワードを抽出し,次に,それに対して類似している講演参加申込を検索し,その結果を分類結果とした.この手法を我々はキーワード抽出・類似検索法と呼ぶ\cite{Ozaku1998}.この実験結果が,クラスタリング法,学習アルゴリズムを用いた分類結果より良かったので,第\6回の大会プログラム原案はキーワード抽出・類似検索法を利用して作成している.\subsubsection{セッション名の抽出}\label{keyda}まず,セッション名となるキーワードを選択する際に,以下の方法を比較した.\begin{itemize}\item出現頻度のみを利用した方法\itemスコアリング手法\end{itemize}出現頻度のみを利用した方法は,各講演参加申込のタイトルとアブストラクトから平仮名,句読点,記号を除いて得られる漢字やカタカナなどの文字列をキーワードとして抽出\cite{Miyamoto1993}し,すべての講演参加申込から抽出したキーワードの出現頻度をカウントし,出現頻度の高いキーワードをセッション名の候補として選択する方法である.スコアリング手法は,上記と同様の方法で各講演参加申込から抽出したキーワードに出現頻度,出現位置,そのキーワードの後に手がかり語(は,が,を,について)がある場合に応じてスコアを加算\footnote{出現位置によるスコア加算は,キーワードがタイトルにある場合は\5ポイント,手がかり語のあるものには\3ポイントを経験的に加算している.}し,そのスコアを手がかりにセッション名の候補を抽出する手法である.ここでは,「構文解析」のような複合語が出現している場合は,「構文」と「解析」の出現頻度へ複合語の出現頻度分を加算し\footnote{複合語の出現頻度を加算する場合には,複合語(例:意味的構文解析)の出現頻度を短い単語(例:意味,構文,解析)のスコアへ加算する場合と,短い単語の頻度を複合語のスコアへ加算する場合とがある.タイトルにはより長い複合語が出現する傾向がある.短い単語の出現頻度のスコアを複合語へ加算してしまうと,タイトルへ出現した時の出現位置による加算もされているため,より長い複合語のスコアが高くなりすぎてしまう.そのため,ここでは複合語の出現頻度を短い単語のスコアへ加算した.},各講演参加申込からスコアの高いキーワード(上位\5位まで)を抽出する\footnote{スコア\=\出現頻度\+\位置スコア\+\複合語出現頻度\+\手がかり語スコア}.そして,抽出されたキーワードの出現した講演参加申込数を集計し,出現数の上位から適当な数を大会プログラムのセッション名候補とする.例えば,図\ref{aaa}の講演申込からは「新聞記事」「構文」「情報抽出」「定型的」「抽出」などがキーワードとして抽出される.それぞれのスコアが,「新聞記事」の場合,タイトルに含まれるため,タイトルポイント\5と出現頻度\3回,さらに手がかり語(この場合は「が」)の前に現れるため\3ポイントを加算して,総スコアは11ポイントとなる.「構文」はタイトルスコア\5と出現頻度\1回から\6ポイント,「情報抽出」は出現頻度\3回と手がかり語スコア\6ポイントから合計\9ポイント,「定型的」は出現頻度\1回のみから\1ポイント,「抽出」は出現頻度\2回と複合語ポイント(「情報抽出」の出現頻度\3回)から\5ポイントとそれぞれの抽出されたキーワードにスコアを計算する.そして,スコアの上位\5位までのキーワード(ここでは,「新聞記事」と「情報」がスコア\11ポイント,「情報抽出」が\9ポイント,「構文」が\6ポイント,「従属節」と「抽出」が\5ポイントとなり,上位\5位までの\6つのキーワードが抽出される.)がこの講演参加申込から抽出されたセッション名候補となる.そして,各講演参加申込から抽出されたセッション名候補の出現した講演参加申込数を集計し,講演参加申込数の多いものから大会プログラムのセッション名候補を選択した.出現頻度の高いキーワードには「システム」「本稿」「我々」「利用」「提案」「手法」などのものが並び,セッション名には適当ではないものが多かった.一方,後者のスコアリング手法では「対話」「構文解析」「統語」など第\5回大会でのセッション名として利用されているキーワードが得られた.そのため,セッション名にはスコアリング手法で得られたキーワードを利用することとした.スコアリング手法によるキーワード抽出で,講演参加申込数の上位10位(13個)のセッション名候補(システム,対話,統語,情報検索,翻訳,モデル,解析,構文解析,抽出,辞書,生成,分類,手法)を自動抽出し,その候補からセッション名として妥当と思われる\9個(対話,情報検索,翻訳,モデル,解析,抽出,辞書,生成,分類)を人手で選択した.それらを第\5回大会の実験用セッション名とした.\begin{figure}\footnotesize$\langle$TITLE$\rangle$新聞記事における書き出し文の構文$\langle$/TITLE$\rangle$\\$\langle$ABSTRACT$\rangle$\\情報抽出では定型的な文章である新聞記事が対象となることが多い。しかし、一般に、いつ・誰が・どこで、何を、どうしたといった5W1H型の固定的な表現で記述される書き出し文であっても、連体修飾節や連用節などの従属節を含む複雑な構造をとることがある。現在、これらの文から情報抽出を行うのは難しいと考えられている。一方で、どのような情報を抽出すべきかについても十分検討されていない。本研究では、このような複雑な文から抽出できる情報は何か、またどのような観点に着目して情報抽出を行うべきか明らかにする。そのため、新聞記事の書き出し文を対象にして、主節と従属節の関係に着目し分析を行う。$\langle$/ABSTRACT$\rangle$\\\vspace*{-4mm}\caption[図]{\label{aaa}セッション名候補抽出の例}\end{figure}\subsubsection{講演申込のセッションへの分類}\label{bunbun}次に,各セッションへ講演参加申込を,分類する方法について述べる.この分類では,キーワードベクトルを利用している.キーワードベクトルとは,タイトルやアブストラクトの中に存在している特定のキーワードを要素とするベクトルである.キーワードベクトルには,セッション名候補のキーワードとその関係語からなるセッションベクトル,および各講演参加申込のキーワード群からなる講演ベクトルがある.まず,前節で抽出し選択したセッション名候補と各講演参加申込の中において共起関係の高いキーワードをセッション関係語として抽出する.セッション関係語は,セッション名として選ばれたキーワードと同じ講演参加申込の中に同時に現れる出現頻度の高い上位\2個のキーワードを共起関係の高いキーワードとして抽出したものである.ただし,上位\2個の同時出現頻度が低い(出現頻度\5回未満)場合は,セッション関係語はないものとした.同時出現頻度が同数で頻度の高いキーワードが複数ある場合は,セッション関係語として,それらのキーワードをすべて利用した\footnote{セッションベクトルには,最大\4個のキーワードを利用した.}.このようにして抽出されるセッション関係語とセッション名からなるセッションのキーワードベクトルをセッションベクトルと呼ぶ.また,各講演参加申込について,それぞれから抽出したすべてのキーワードのベクトルを講演ベクトルと呼ぶ.各々の講演ベクトルと最も類似したセッションベクトルを算出しセッションベクトル中のセッション名候補キーワードをその講演参加申込のセッション名として選択した.ただし,類似度は\2つのベクトルの内積である.これは,講演を質問としてセッションを検索しているようなものなので,これを類似検索法と呼ぶ.類似度の計算時にも各キーワードのスコア(キーワードベクトルの要素の値)として,出現頻度のみを利用した場合と,スコアリング法を利用した場合とを比較した.出現頻度のみをスコアとして利用し,類似度を求めた場合,同じスコアで複数のクラスに現れてしまう申込が存在した.一方,出現位置による加点をほどこしたスコアリング法のスコアを利用して類似度を求め分類したところ,表\ref{99nlp}にその一部を示すように良い結果が得られた.よってスコアリング法で計算したスコアをキーワードベクトルのスコアとして利用し,類似度を求める方法を利用することとした.\begin{table*}\begin{center}\caption[表]{\label{99nlp}自動分類した結果の例}\footnotesize\begin{tabular}{|c|c|l|}\hline\multicolumn{3}{|c|}{\bfセッション名:検索}\\\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline3&d&係り受け情報や語の意味情報を利用した日本語テキスト検索システム\\\hline42&d&要素の順序関係から見た類似文最適照合検索\\\hline55&d&分類標数の相互参照に基づく多言語書誌データ検索システム\\\hline70&d&コンプリメントタームを用いた情報検索\\\hline81&d&情報検索の類似尺度を用いた検索要求文の単語分析\\\hline88&c&ニュース音声データベースの検索システムの試作\\\hline\end{tabular}\end{center}\end{table*}
\section{第\6回大会プログラム作成}
\label{gogo}\ref{yaya}章の実験に基づき,スコアリングに基づいたキーワード抽出・類似検索法を用いて,第\6回の大会プログラムの原案を作成した.2000年\3月に開催された言語処理学会第\6回年次大会の講演参加申込をすべて図\ref{datada}に示すようなデータへ変換した\footnote{自動化,効率化のためには,入力形式が統一されている必要があると考える.ここではテスト的に\XML形式を採用した.}.\begin{figure}{\footnotesize{\bf\begin{verbatim}<APPLICATION><MAIL-ID>130</MAIL-ID><TYPE>講演発表</TYPE><TITLE>大会プログラム自動生成に向けての一考察</TITLE><AUTHORid=1><KANJI>○小作浩美</KANJI><KANA>オザクヒロミ</KANA><AFFILIATION>通信総合研究所</AFFILIATION><NUMBER>123-456-7890</NUMBER></AUTHOR><AUTHORid=2>...</AUTHOR><CATEGORY>d,e</CATEGORY><APPLIANCE>OHP</APPLIANCE><ABSTRACT>いくかの言語処理技術を利用して言語処理学会の大会プログラムを自動作成することを試みた.その結果と自動生成するにあたり明らかになった問題点,改良点について報告する.</ABSTRACT><ADDRESS>住所:〒651-2492神戸市西区岩岡町岩岡588-2所属:通信総合研究所氏名:小作浩美...</ADDRESS></APPLICATION>\end{verbatim}}}\vspace*{-5mm}\caption[図]{\label{datada}申込書から作成したデータ}\vspace*{-5mm}\end{figure}\ref{keyda}節で述べた方法により自動抽出したセッション名候補の\20キーワードを決定した.続いて,人手で\9キーワード(対話,要約,辞書,コーパス,検索,抽出,解析,生成,翻訳)をセッション名として選択した.次に,\ref{bunbun}節で述べた方法を利用しセッションベクトルと各講演参加申込の講演ベクトルの類似度に基づき自動分類した.なお,どのセッション名とも類似しない講演参加申込も存在する.その申込については「その他」として取り扱うこととした.\begin{table*}\begin{center}\caption[表]{\label{prog}自動分類した結果の例}\footnotesize\begin{tabular}{|c|c|l|}\hline\multicolumn{3}{|c|}{\bfセッション名:対話}\\\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline40&c&混合主導対話における音声認識誤りに対処するための対話管理\\\hline59&c,d&制限知識下における効率的対話制御\\\hline85&c&道案内WOZシステムとの対話における言い淀み表現の分析\\\hline102&c&係り受け関係を用いた即時発話理解−音声対話メールシステムにおける手法−\\\hline124&c&多重文脈に即応的な対話インターフェース:半可通\\\hline\multicolumn{3}{|c|}{\bfセッション名:辞書}\\\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline15&a&概念体系における反対語の検討\\\hline25&b&辞書定義文を用いた複合語分割\\\hline32&b,d&翻訳システム用の辞書ツール\\\hline110&a&既知形態素からなる未知複合語概念推定とその辞書登録\\\hline116&b&不要語リストを用いたRFC英和辞書作成過程における課題\\\hline117&b&ソフトウェア開発工程における用語構造と翻訳辞書作成過程における課題\\\hline\end{tabular}\end{center}\end{table*}ここまでの処理では,大会プログラムとして想定すべき条件(例えば会場数や時間の制約など)については考慮しなかった.そのため,表\ref{prog}のように自動作成された結果を原案とし,後から時間的な制約を考慮した上で,\1つのセッションでの発表件数を調整した.\begin{table*}\begin{center}\caption[表]{\label{idou}手動で移動したタイトル}\scriptsize\begin{tabular}{|c|c|l|}\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline11&c&語の重要度を考慮した談話構造表現の抽出\\\hline13&d&直接引用表現を利用した要約知識の自動抽出の試み\\\hline12&c&単語ラティス形式の音声認識結果を対象とした発話意図の認識\\\hline19&c&Generatingcoherenttextfromfinelyclassifiedsemanticnetwork\\\hline39&c&日本語における口語体言語モデル\\\hline65&d&意味的共起関係を用いた動詞と名詞の同音意義語の仮名漢字変換\\\hline77&a&韓日語の副詞節の階層性に関する対照言語学的研究-南(1974)の階層性モデルの観点から-\\\hline83&a&FB-LTAGからHPSGへの文法変換\\\hline91&b&文節解析のための長単位機能語辞書\\\hline97&d&科学論文における要旨-本文間のハイパーリンク自動生成\\\hline98&c&確率付き項構造による曖昧性解消\\\hline118&a&コンピュータ西暦2000年対応の標準化におけるデータ,用語,処理,試験\\\hline119&a&日本語待遇表現の評価実験による誤用とその認知について\\\hline121&d&図書館の自動リファレンス・サービス・システムの構築\\\hline128&c&SGLR-plusによる話者の対象認識構造を抽出する英語文パーザの試作\\\hline130&d,e&大会プログラム自動生成に向けての一考察\\\hline131&b&簡単なフィルターを用いた二言語シソーラスの自動構築\\\hline\end{tabular}\end{center}\end{table*}\begin{table}\begin{center}\caption[表]{\label{henko}自動分類結果と変更先}\footnotesize\begin{tabular}{|c|c|l|l|}\hline登録番号&分野&自動分類結果&変更先\\\hline11&c&抽出&解析\\\hline13&d&要約&抽出\\\hline12&c&翻訳&理論\\\hline19&c&その他&生成\\\hline39&c&コーパス&理論\\\hline65&d&意味&システム\\\hline77&a&その他&理論\\\hline83&a&生成&解析\\\hline91&b&解析&辞書\\\hline97&d&生成&システム\\\hline98&c&システム&解析\\\hline118&a&その他&理論\\\hline119&a&その他&理論\\\hline121&d&システム&検索\\\hline128&c&抽出&解析\\\hline130&d,e&抽出&理論\\\hline131&b&抽出&コーパス\\\hline\end{tabular}\end{center}\end{table}調整においては,手作業で一部の変更を行なった.この処理には数時間程度かかっている.変更のあった発表は17件(表\ref{idou})である.また,その中でどの講演とも類似度が低く,「その他」となっていた発表は英文タイトルのものを含め\4件存在した.表\ref{henko}に自動分類結果と人手で変更したセッションを示す.また,\1つのセッション名に複数のセッション分の講演参加申込が分類された場合は,その分類された申込中の文書からセッション名として利用するための新たなキーワードを抽出して再度分類することをくりかえした\footnote{この処理で「システム」と「意味」のキーワードがセッション名として加わっている.}.しかしながら,「解析」のセッションではセッション名として利用するのに良いキーワードが抽出できず,3つのセッションに跨ることとなってしまった.これは「解析」に分類された申込から,次のセッション名となるようなスコアの高いキーワードが抽出できなかったためである.抽出出来なかった理由は,概念的には近い意味を持つ別のキーワードでそれぞれ記述されていたり,あるいは「解析」には変わりがないが研究対象の違いにより,出てくるキーワードが若干異なったためである.これは頻度や位置情報だけで意味的情報を利用せずにセッション名を選択する場合の限界と考えられる.最後に,「その他」のセッションと分類された発表に概念的に合うセッション名「理論」を人手により付加し,大会プログラムの案とした.その後,講演参加申込の際に講演の日付希望や,講演順の要望もあり,それらを考慮した修正と,同じ所属の講演者の発表が別のセッションにおいて重ならないように考慮して,発表順に変更を加え,最終の大会プログラムとした\footnote{自動抽出によるキーワードから人手で選択したセッション名は,最終的に「対話,要約,辞書,コーパス,検索,抽出,解析,生成,翻訳,意味,システム」となった.}.そして,採否連絡と共に講演番号通知とした\footnote{なお,ポスター発表については,ここでの方法を用いずに,申込者からの講演分野の申請を利用した.これは,第5回大会のポスター発表の取り扱いに倣ったものである.会場数に合わせて講演分野\a,bの組と\c,d,eの組の\2つに分け,番号をつけた.なお,ポスター発表以外の講演申込は104件あり,3件がキャンセルされ,1件がプログラム作成後に登録されたもので,最終的な講演数は102件であった.}.
\section{アンケート結果}
\label{haha}第\6回大会中および大会終了後,大会プログラムに対するアンケート調査を聴講者と講演者に対して実施した.聴講者に対しては大会会場においてアンケート用紙を配布し,参加したセッションにおいて他のセッションで発表すべきであると感じた講演について意見を求めた.発表者に対しては,大会終了後,ポスター発表以外の講演者にメイルを送り,発表したセッションであっていたかどうか,また発表したセッションに興味のある発表があったかどうかの調査を行なった.発表者に対する調査においては,講演発表を行なった\102名にメイルし,79名の発表者から回答を得ることができた.発表したセッションが発表内容とあっているかの問いについて,表\ref{awanai}に示すように10名からマッチしていないとの回答があった.そのうち,\4名は自分の発表したセッションは「はみ出した講演を集めたセッションのようだ」と回答している.実際,この\4件の講演はどの講演とも類似度が低く,「その他」と分類された講演を含むセッションであった.さらにマッチしていないと回答があったもののうち,\5件はタイトルにセッション名にあたるキーワードが存在しており,タイトルに現れたキーワードへの加点の影響が悪い方に出てしまったものと考えられる.また,\3件はセッション名にあたるキーワードがタイトルには存在しておらず,アブストラクトも含めた自動分類結果で複数のセッションに低いスコアで,かつ同じスコアで分類されているものであった.セッション名にあたるキーワードを全く含まないタイトルは表\ref{nashi}に示すように全体で22件存在し,そのうち,低いスコアで,かつ同じスコアで,複数のセッションに分類されたものは\7件存在した.この場合,プログラムの出力した順の一番上位のセッションに分類してしまったが,その中の\3件が結果的にマッチしていないと回答されたものであった.これら10名以外の,69名は発表したセッションはマッチしていたと回答し,そのうち,自分の興味のある発表が同じセッションに無かったとの回答は\2名からであった.全回答者でも自分の発表したセッションに興味のある発表が無かったと回答されたのが\4名だけであった.以上のことにより,比較的良いプログラムが作成できたと言える.\begin{table}\begin{center}\caption[表]{\label{awanai}セッションと合わない回答(10回答)}\footnotesize\begin{tabular}{|c|c|c|c|}\hline回答者&タイトル影響有り&はみ出し感&低・同スコア\\\hline1&○&&\\\hline2&○&&\\\hline3&○&&\\\hline4&○&○&\\\hline5&○&○&\\\hline6&&○&\\\hline7&&○&○\\\hline8&&&○\\\hline9&&&○\\\hline10&&&\\\hline合計&5&4&3\\\hline\end{tabular}\end{center}\end{table}\begin{table*}\begin{center}\caption[表]{\label{nashi}セッション名を含まないタイトル}\scriptsize\begin{tabular}{|c|c|l|}\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline3&d&かぎ括弧で囲まれた表現の種類の自動判別\\\hline8&b&概念体系における反義概念の検討\\\hline12&c&単語ラティス形式の音声認識結果を対象とした発話意図の認識\\\hline19&c&Generatingcoherenttextfromfinelyclassifiedsemanticnetwork\\\hline28&d&文分割による連体修飾節の言い換え\\\hline35&c&HPSGの複数の文脈自由文法へのコンパイル\\\hline39&c&日本語における口語体言語モデル\\\hline41&d&ワールドワイドウェブを利用した住所探索\\\hline42&c&LR表への複数の接続制約の組み込みによる一般化LR法の拡張\\\hline47&d&n-gramモデルとIDFを利用した統計的日本語文短縮\\\hline57&c&グルーピング法によるGLRパーザの効率的な実装\\\hline58&c&キーワードの活性度の変かを用いたテキスト中の単語と話題の対応付け\\\hline65&d&意味的共起関係を用いた動詞と名詞の同音意義語の仮名漢字変換\\\hline77&a&韓日語の副詞節の階層性に関する対照言語学的研究-南(1974)の階層性モデルの観点から-\\\hline83&a&FB-LTAGからHPSGへの文法変換\\\hline98&c&確率付き項構造による曖昧性解消\\\hline101&d&ニュース速報記事の前文情報との照合に基づく見出し文の言い替え\\\hline118&a&コンピュータ西暦2000年対応の標準化におけるデータ,用語,処理,試験\\\hline119&a&日本語待遇表現の評価実験による誤用とその認知について\\\hline125&a,c&人間の文処理は左隅型である:埋め込み構造と記憶負荷\\\hline129&a&形容詞的ふるまいをする「名詞+の」について\\\hline131&b&簡単なフィルターを用いた二言語シソーラスの自動構築\\\hline\end{tabular}\end{center}\end{table*}一方,聴講者からの回答は残念ながら\3名からしか回収できなかった.アンケート項目等を検討し回答しやすいものにする必要があったと思われる.また,今回の実験が,発表者や聴講者にどのような利益をもたらすか宣伝し,協力を得る方法を考える必要性も感じた.
\section{考察}
\label{mumu}今回のプログラム作成の実験において,セッション名の傾向,プログラム作成に必要と思われる制約条件,プログラム作成の効率化について考察する.\subsection{セッション名の傾向について}我々が利用したキーワード抽出・類似検索法では,\begin{itemize}\item[1]プログラム作成に重要と思われるキーワードを選出\item[2]スコアリング手法でキーワードのスコアを算出\item[3]類似検索実行\end{itemize}という手続きをとる.スコアリング手法では出現位置を考慮しているため,キーワードがタイトルに含まれるならば高いスコアになっている.それは,一般に著者が自分の論文を的確に示すようなタイトルを,なるべく一般性を持つ形で提示しようとするときには,自分の論文が所属する分野を示すキーワードと共に,自分の論文の特徴を示すキーワードをタイトルにいれる傾向があると考えられることによる.そのため,論文タイトルには分野を示すキーワードが含まれやすく,このスコアリングによるキーワード抽出法は,その点に着目したものである.第\6回大会プログラムは,タイトルにセッション名を含んだものがほとんどである.具体的には,タイトルの中に,その講演が割り振られたセッション名にあたるキーワードを含んでいないものは全タイトル102件中\29件で,そのうち,22件はセッション名となっているキーワードをタイトルに全く含まないものであった.つまり,\8割のタイトルにはセッション名にあたるキーワードが含まれており,タイトルからキーワードを選択しそれのみから講演ベクトルを作り,それに基づいて講演を分類するだけでも,かなり良い結果が得られると考えられる.実際,第\5回大会のプログラムを眺めてみても,セッション名にあたるキーワードを含むタイトルは多い\footnote{ポスター発表,特別セッション,英文タイトルを除く,107件のタイトルのうち,セッション名にあたるキーワードを含むタイトルは79件である.}.上記のように,分野を含むキーワードをタイトルに含み易いことは明らかである.もちろん,タイトルにセッション名を含んでいても,アブストラクトの情報を考慮すると他のセッションに割り振られるべきものも存在する.本手法では,タイトルにセッション名にあたるキーワードを持ちながら,そのキーワードとは別の適切なセッションに割り振ることが出来ている.タイトル中にその講演が割り振られたセッション名にあたるキーワードを含んでいない\29件中,タイトルにセッション名となっているキーワードを全く含まない\22件を除いた残りの\7件が該当する.今回,アンケート調査において,セッション名の妥当性について確認を取っていないため,即断はできないが,比較的良いプログラムが作成できたと考える.\subsection{プログラム作成における制約条件について}我々は大会プログラム作成を文書分類課題とみなして,実験を行なった.しかし,実際のプログラム作成においては,時間的な制約,場所的な制約も考慮する必要がある.それは,会場数による制約だけではなく,例えば,所属が同じ講演者の講演が時間的に重なることを避けるような制約も考えられ,今回のプログラム作成にはこの制約も考慮している.これは,同じ所属の講演者同士は,お互いの発表を聞きたいであろう,あるいは,発表時に使う機材を共有する可能性もあると判断したことによる.しかし,同じ所属の講演については職場内ですでに聞いている,あるいは,機材を共有する必要がないため,同じ所属の講演者の発表時間が重なっていても問題がない可能性もある.このような条件や制約については,今回は我々が思いつく制約を独断で設けたが,もっと別の重要な観点がある可能性もあり,制約の妥当性も調査する必要があると思われる.今後,これらの制約条件が整理されれば,それら制約条件を蓄え,その適応結果も合わせて収集することで制約条件に関するヒューリスティックな知識が獲得でき,その知識を利用することで大会プログラム作成にかかる時間をさらに短縮できるものと考える.\subsection{プログラム作成の効率化について}今回の大会プログラム作成作業で一番時間を要した処理は,データ作成の部分である.それは,講演参加申込のフォーマットが統一されていないかったために,手作業でのデータ修正が必要であったことと,締め切り後の講演参加申込の対処を行なったためである.本手法のように自動的に何かの処理をするような場合,入力は統一されたフォーマットでシステムに渡される必要があると考える.本研究での,このデータ化の処理は大会プログラムを作成する際には避けて通れない作業であるため,正しく効率的にデータベース化するための手続きを考える必要がある.さらに,当初,プログラムの組織表記を講演参加申込の表記から自動生成したため,同じ組織でありながら記述の違いがあり,プログラム上の統一感が損なわれていた.そのため,プログラム作成後,プログラムの組織表記を手作業で統一する作業が必要であった.この問題については,申込時にWWW(WorldWideWeb)を利用して,申込のフォーマット化,簡略化が行なわれれば,処理時間を短縮できると考える.組織の表記についても,会員番号などから自動的に組織名が入力されるようにするなど,学会事務局側で対処することが可能であると考える.それにより,参加者の意識も変化し,事務処理や大会参加の手続きがよりスムーズにできると考える.なお,同様な考察が\cite{IEE}にもある.
\section{おわりに}
本研究は,実際の大会プログラムの作成作業で,現在の様々な言語処理技術がどの程度利用でき作業効率をあげられるのかを試したものである.本研究の実験の結果,大会プログラム作成において,キーワード抽出および文書分類の言語処理技術が十分に役立ち,これらの技術により作業効率を向上できることがわかった.さらに,データ作成に時間が一番かかっていることから,申込時にWWWなどを利用して講演参加申込データの統一化を行なうことで事務効率がさらに向上できる可能性があることがわかった.今回の実験では,セッション名をタイトルとアブストラクトから抽出することで,その大会の発表傾向に沿ったセッションを作成できた.そのことは,講演者の興味にあった発表がセッション中に含まれていたかどうかのアンケート調査結果が良好であったことからも示されている.さらに,データ作成以外のプログラム作成手続きにおいての人手による作業が数時間程度で済んだことから,作業の効率化を実現できたといえる.今回の実験では,1\つのセッション名に複数セッション分の講演参加申込が分類された問題と,セッション名をタイトルに含んだために誤って分類された問題が残されている.この\2つの問題を解決するためには短いアブストラクトからでも,より的確なキーワードを抽出する技術が必要であると考える.また,日本語以外の発表への対応や,大会プログラムの完全自動作成に向けての手続き処理方法の提案,考慮すべき条件の明確化,セッション名の妥当性調査などを行う必要もあると考える.そして,参加者,講演者,実行者共に快適に大会に参加でき,運営できるような点を明確にし,学会の事務処理の簡素化,学会の活性化などに貢献できるツールの実現や研究につながればと考えている.\section*{謝辞}北陸先端科学技術大学院大学の島津明教授,望月源氏に1999年第\5回大会のデータの利用に際しご協力いただいた.ここに感謝する.\bibliographystyle{jnlpbbl}\bibliography{jgijutu}\begin{biography}\biotitle{略歴}\bioauthor{小作浩美}{1985年郵政省電波研究所入所.現在,独立行政法人通信総合研究所研究員.奈良先端科学技術大学院大学博士課程在学中.自然言語処理,情報検索の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,ACM,各会員.}\bioauthor{内山将夫}{1992年筑波大学第三学群情報学類卒業.1997年同大学院博士課程修了,博士(工学).同年,信州大学工学部助手.1999年郵政省通信総合研究所非常勤職員.現在,独立行政法人通信総合研究所任期付き研究員.言語処理学会,情報処理学会,人工知能学会,日本音響学会,ACL,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年,郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).同年,通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N03-01
|
\section{はじめに}
2011年3月11日14時46分に三陸沖を震源としたマグニチュード9.0の東北地方太平洋沖地震(東日本大震災)が発生した.震源域は岩手県沖から茨城県沖までの南北約500~km,東西約200~kmという広範囲に及び,東北地方を中心に約19,000人にのぼる死者・行方不明者が発生しただけでなく,地震・津波・原発事故等の複合的大規模災害が発生し,人々の生活に大きな影響が与えた.首都圏では最大震度5強の揺れに見舞われ,様々な交通障害が発生した.都区内では自動車交通の渋滞が激しく,大規模なグリッドロック現象が発生して道路ネットワークが麻痺したことが指摘されている.また,鉄道は一定規模以上の地震動に見舞われると線路や鉄道構造物の点検のため,運行を一時中止することになっており,そのため震災発生後は首都圏全体で鉄道網が麻痺し,鉄道利用者の多数が帰宅困難者となった.(首都直下型地震帰宅困難者等対策協議会2012)によると,これらの交通網の麻痺により当日中に帰宅できなかった人は,当時の外出者の30%にあたる約515万人と推計されている.国土交通省鉄道局による(大規模地震発生時における首都圏鉄道の運転再開のあり方に関する協議会2012)によると,震災当日から翌日にかけての鉄道の運行再開状況は鉄道事業者ごとに大きく異なった.JR東日本は安全確認の必要性から翌日まで運行中止を早々と宣言し,東京メトロと私鉄は安全点検を順次実施した後に安全確認が取れた路線から運転を再開するという方針を採用した.最も早く再開したのは20時40分に再開した東京メトロ半蔵門線(九段下・押上間),銀座線(浅草・渋谷間)である.また,西武鉄道,京王電鉄,小田急電鉄,東京急行電鉄,相模鉄道,東急メトロなどは終夜運行を実施した.運転再開後の新たな問題の例として,東京メトロ銀座線が渋谷駅ホーム混雑のため21:43〜22:50,23:57〜0:44に運転見合わせを,千代田線が北千住駅ホーム混雑のため0:12〜0:35まで運転見合わせを行っている.このように震災当日は鉄道運行再開の不確実性や鉄道事業者間での運行再開タイミングのずれによって多数の帰宅困難者が発生し,鉄道再開後も鉄道利用者の特定時間帯に対する過度の集中によって,運転見合わせが起こるなど,平常時に比べて帰宅所要時間が大きくなり,更なる帰宅困難者が発生したといえる.首都圏における帰宅困難者問題は予め想定された事態ではあったが,今回の東日本大震災に伴い発生したこの帰宅困難者問題は現実に起こった初めての事態であり,この実態を把握することは今後の災害対策のために非常に重要と考えられている.今回の帰宅困難者問題に対しても事後的にアンケート調査(たとえば(サーベイリサーチセンター2011)や(遊橋2012)など)が行われているものの,震災当日の外出者の帰宅意思決定がどのようになされたのかは未だ明らかにされていない.また,大きな混乱の中での帰宅行動であったため,振り返ることで意識が変化している問題や詳細な時刻・位置情報が不明であるといった問題が存在する.災害時の人々の実行動を調査する手法として上記のようなアンケートとは別に,人々が発するログデータを用いた災害時のデータ取得・解析の研究として,Bengtssonらの研究(Bengtssonetal.2011)やLuらの研究(Luetal.2012)がある.これらは2010年のハイチ地震における携帯電話のデータをもとに,人々の行動を推計するものであり,このようなリアルタイムの把握またはログデータの解析は災害時の現象把握に役立つ非常に重要な研究・分析対象となる.本研究では東日本大震災時における人々の行動ログデータとして,マイクロブログサイトであるTwitterのツイートを利用して分析を行う.Twitterのツイートデータは上記の携帯電話の位置情報ログデータやGPSの位置情報ログデータと異なり,必ずしも直接的に実行動が観測できるわけではないという特性がある.一方で,位置座標ログデータとは異なり,各時点における人々の思考や行動要因がそのツイートの中に含まれている可能性が存在する.そのため,本研究では東日本大震災時における首都圏の帰宅困難行動を対象に,その帰宅行動の把握と帰宅意思決定行動の影響要因を明らかにすることを目的とする.本稿の構成は以下の通りである.まず,2節では大規模テキストデータであるTwitterのツイートデータから行動データを作成する.ユーザーごとのツイートの特徴量を用いて,小規模な教師データから学習させた機械学習手法サポートベクターマシン(SupportVectorMachine;SVM)により,当日の帰宅行動結果を作成する.次に,3節では各ユーザーのジオタグ(ツイートに付与された緯度経度情報)から出発地・到着地間の距離や所要時間などの交通行動データを作成する.同時に,帰宅意思決定の影響要因をツイート内から抽出し,心理要因や制約条件を明らかにする.4節では2,3節で作成した行動データをもとに意思決定を表現する離散選択モデルの構築・推定を行い,各ユーザーの意思決定に影響を与えた要素を定量的に把握する.5節では仮想的な状況設定において感度分析シミュレーションを行い,災害時の望ましいオペレーションのあり方について考察を行う.
\section{TweetData$\rightarrow$BehavioralData}
\subsection{本研究の分析方針}本節ではツイートデータとそれに付随したジオタグデータから利用者の実行動データを作成する分析フレームワークについて述べる.図\ref{fig:frame}に示すように,本研究の分析フレームは(1)ツイートから行動を予測するパート,(2)言語的・非言語的説明要因を生成するパート,(3)生成された説明要因から行動結果を説明するモデルを構築するパートの$3$つに分けることができる.(1)ではツイートデータからはその行動結果を伝える発言のBagofWords(BoW)表現を特徴量化することで,機械学習的手法を用いてユーザー別の行動結果の推測を行う.(2)ではラベル化された行動結果,ここではそれを意思決定における選択肢集合と呼ぶが,その選択肢集合ごとの説明要因をジオタグデータやツイートデータから作成する.ジオタグから作成される説明要因は距離,徒歩による所要時間や鉄道による所要時間,運賃などである.また,ツイートデータから作成される説明要因は家族に対する心配や鉄道運行再開情報,自身の不安感といった外的・内的要因である.(3)では,これらの説明要因をもとに,各ユーザーの行動結果を説明する意思決定モデルを構築する.\begin{figure}[t]\begin{center}\includegraphics{20-3ia1f1.eps}\end{center}\caption{本研究の分析フレーム}\label{fig:frame}\end{figure}ここで,(1)パートと(3)パートの違いを確認しておこう.(1)では「歩いて帰ったので疲れた」「電車が動かないので会社に泊まることにした」といったツイートをそれぞれ「徒歩帰宅」「宿泊」とラベル化する処理であるのに対し,(3)では「徒歩帰宅」したのは「自宅と外出先の距離がそれほど遠くなかったから(距離的要因)」なのか「家族の様子が心配だったから(心理的要因)」なのかを定量的に明らかにする分析である.そのため,(3)で構築するモデルの説明変数(特徴量)は解釈のしやすい説明変数を選択しており,またその結果として,簡易的な感度分析としてのシミュレーションを行うことが可能である.\subsection{データ概要とサンプリング}本研究で用いるデータはTwitterJapan株式会社によって提供された東日本大震災発生時より1週間の日本語ツイートデータ(約1億8000万ツイート)である.このうち,ユーザーによってジオタグが付与されたツイートは約28万件である.その中で2011年3月11日14:00から2011年3月12日10:00までの日時にGPS座標が首都圏に含まれ,またbotを除くために利用者が20人以上のTwitterクライアント(Twitterに投稿するためのクライアントソフトウェア)からpostされたツイートデータを24,737件抽出した.この24,737ツイートのユニークなユーザー数(アカウント数)は5,281人であり,そのうち上記期間中に2つ以上ジオタグが付与されたツイートを行ったユーザー数は3,307人である.この3,307人のユーザーは震災当日から翌日にかけて首都圏における震災当日の自身の帰宅行動に関してつぶやいており,また2つ以上のジオタグによって勤務地・自宅間の近似的距離が得られる可能性が高いと考えられる.そこで,前後の文脈も参考にするために,これらのアカウントのツイートのうち,2011年3月11日12:00から2011年3月12日12:00までの24時間のツイートを抽出した.これらの総ツイート数は132,989ツイートであり,一人あたり40.2ツイートである.この3,307名,132,989ツイートを本研究で取り扱うデータセットとする.Twitterというソーシャルメディアを利用しているユーザー層と2011年3月11日に首都圏に通勤していた人々の間には当然母集団の違いがあり,またこのような方法でサンプリングが行われたデータには一定のバイアスが存在するため,別の調査データと比較することで,本研究のサンプリングデータの偏りについても考察を行う.\subsection{帰宅行動ラベリング}高々3,307名のツイートとはいえ,それらの内容を読み,人手で行動結果をラベリングすることは容易ではない.本研究では2つ以上ジオタグが付与されたユーザーのみを対象としているが,震災当日の全ツイートを対象に,ラベリングを行うとなると非常に大きな人的資源が必要となるだろう.そこで,本研究ではサポートベクターマシンを用いてラベリングを行い,当日の行動結果を推測することとする.そのための教師データ作成プロセスとして,本データセットの中からランダムに抽出した300名の3月11日,3月12日のツイートを時間軸に沿って読むことで,人手で帰宅行動結果のラベリングを行う.ラベルとしてはこの300名の結果に表れた「徒歩のみで帰宅」「鉄道を利用して帰宅」「会社等に宿泊」「その他(自動車,自転車,バイク,バス,タクシーなど)」「不明」の5種類に分類した.今後はこれらを1)徒歩,2)鉄道,3)宿泊,4)その他,5)不明と名付ける.それぞれの割合は徒歩が120名,鉄道が56名,宿泊が54名,その他が10名,不明が60名である.\subsection{形態素解析と情報利得}次に,教師データ300名を含む3,307名の2011年3月11日12:00から2011年3月12日12:00までのツイートのうち,リツイート(RT)したツイートを除く全てのツイートの形態素解析を行った.形態素解析にはMeCabを用いた.リツイート(RT)とはTwitterにおいて自分以外の他者の発言を引用する行為であり,そのユーザー個人の行動を反映しないと考えたため,上記のような処理を行っている.また,形態素解析された形態素のうち,ストップワードとなりうる助詞,記号,Twitterアカウント名,MeCabによって記号と認識されなかった記号(たとえば@)を除いた.形態素解析を用いた結果,データセットから70,364のユニークな単語が得られた.これらの形態素のうち,頻度100以上となったものは1,368,頻度50以上は2,412,頻度25以上は4,109,頻度10以上は8,244存在した.頻度が上位100位となった形態素を一例として表\ref{tab:word_list01}に示す.これらの形態素は東日本大震災当日,翌日の状況を表しうる形態素も含まれているが,単純に頻度の多い形態素も多く含まれている.そこで,教師データによる分類クラスを用いて適切な素性選択を行うことを試みる.\begin{table}[b]\caption{頻度上位100位の形態素の例}\label{tab:word_list01}\input{01table01.txt}\end{table}形態素解析によって得られた単語$w$の出現有無の情報がクラスに関するエントロピーの減少度合いを表す指標として情報利得が存在する.単語$w$に対する確率変数$X_w$を考え,対応する単語が出現した場合$X_w=1$,そうでない場合は$X_w=0$とする.クラスを表す確率変数を$C$とすると,エントロピー$H(C)$は\begin{equation}H(C)=-\sum_cP(c)\logP(c)\end{equation}と定義される.このとき,ある単語$w$が出現した場合,出現しなかった場合の条件付きエントロピーは\begin{gather*}H(C|X_w=1)=\sum_cP(c|X_w=1)\logP(c|X_w=1)\\H(C|X_w=0)=\sum_cP(c|X_w=0)\logP(c|X_w=0)\end{gather*}となる.このとき,単語$w$の情報利得$IG(w)$はエントロピーの平均的な減少量として次のように定義される.\begin{equation}IG(w)=H(C)-(P(X_w=1)H(C|X_w=1)+P(X_w=0)H(C|X_w=0))\end{equation}5つの分類クラスを用いて,頻度2以上の全て単語の情報利得をそれぞれ算出した.情報利得上位100の単語を,各単語が出現した際の分類クラスの条件付き確率が最も高いクラスごとに整理したものが表\ref{tab:word_list}である.まず,表\ref{tab:word_list01}と比べて当日の帰宅行動に関する単語が多く含まれていることが観測される.例えば,表\ref{tab:word_list}の中で1)徒歩帰宅の条件付き確率が高い単語として,現在の位置を伝える「半分」「遠い」「km」「川崎」「環」「七」や徒歩帰宅時の問題を伝える「トイレ」「ヤバイ」「疲れ」などを挙げることができる.2)鉄道帰宅に関しては「入場」のような鉄道帰宅固有の単語のみならず「なんとか」「奇跡」といった鉄道運行再開によって,帰宅できたことを示す単語が含まれる.3)宿泊の条件付き確率が高い単語には「朝」「明け」「明るく」などの会社などで一晩を過ごしたことを伝える単語,「次第」「目処」「始発」「悩む」など帰宅タイミングを示す単語が含まれている.また,翌日鉄道で帰宅した影響や待機・宿泊場所で様々なメディアから情報を入手したためか「ホーム」「運行」「混雑」「改札」「乗車」「駅員」などの鉄道に関連する単語が多く含まれていることも特徴である.\begin{table}[t]\caption{情報利得上位100位の形態素の例}\label{tab:word_list}\input{01table02.txt}\end{table}次に,興味深い結果として,個別の鉄道路線に関しては3月11日当日に運行が再開されなかった「JR」「総武線」「京浜東北」線は3)宿泊の選択者が相対的によく発言しており,当日運行を再開した「大江戸」線や「田園都市線」「京王」線は2)鉄道利用者が相対的に発言しやすいことが示された.この傾向は震災時に人々は自身の帰宅鉄道ルートについて発言しやすいことを表しており,これらの単語の出現有無は当日の帰宅行動を表す重要な単語であるといえよう.このように,情報利得の高い単語は当日の帰宅行動のラベリングに有用であると考えられるため,これらを素性として分類器を構成する.\subsection{SVM概要}サポートベクターマシン(SVM)の概要を示す.素性ベクトル$\boldsymbol{x_t}$の次元が$n$であるとすると,1つの素性ベクトルは$n$次元空間中の点として表すことができる.正・負のラベル$y_t$に対して,正例と負例はすべてこの$n$次元空間に配置したとする.このとき,正例と負例を分ける2クラス分類問題は正例と負例を分離する超平面$\boldsymbol{w}\cdot\boldsymbol{x}+b$,$(\boldsymbol{w},\\boldsymbol{x}\in\boldsymbol{R}^n)$を決める問題に帰着できる.SVMはノイズを許容しつつ,超平面に最も近い正例と負例との間のマージンを最大化するような分離平面を求めるアルゴリズムである.マージン最大化は式(\ref{eq:svm01})を式(\ref{eq:svm02})の条件で最大化する双対問題と等価であることが知られている.\begin{gather}\sum_{i=1}^{l}\alpha_i-\frac{1}{2}\sum_{i,j}^{l}y_iy_j\alpha_i\alpha_jK(\boldsymbol{x_i},\boldsymbol{x_j})\label{eq:svm01}\\\text{subjectto}\nonumber\\\sum_{i=1}^{l}y_i\alpha_i=0\\\\\\\\\0\leq\alpha_i\label{eq:svm02}\end{gather}また,カーネル関数$K(\boldsymbol{x_1},\boldsymbol{x_2})$により,入力されたデータを高次元の素性空間(featurespace)に写像し,素性空間において超平面を求めることにより,入力空間においては非線形となる分離も可能である.本論文では線形カーネルを用いた.以上のようにして得られた超平面を用いて,分類器が構成される.新たに与えられた素性ベクトルに対して,超平面の正例側をプラス,負例側をマイナスとし,超平面からの距離を正規化した値を計算することにより,分類器は与えられたデータが正,負の2クラスのどちら側に属するかを判定する.SVMは正例・負例を分類する二値分類器であるが,本研究のように3つ以上のクラスに分類する多値分類が必要な場合が存在する.その場合は多値分類に拡張するための代表的手法として,oneclassvsallother法やpairwise法がある.本論文ではpairwise法を用いた.\subsection{当日の帰宅行動の予測}前述の人手でラベリングされた$300$件のデータを教師データとして学習する.表\ref{tab:word_list}に一部示した頻度2以上の情報利得の上位500の単語を用いて,各ユーザーのツイート内のこれらの単語の出現有無をベクトル表現(BoW表現)し,それらをSVMの素性に用いている.学習ではデータを9分割交差検定(9-foldcrossvalidation)とパラメータチューニングを行った.得られたモデルの全教師データに対する正解率は$100\%$,交差検定で得られた平均正解率は$73.3\%$であった.SVMにて帰宅行動結果をラベリングされた結果を以下に示す.$3,307$名のうち,1)徒歩での帰宅者は$1,913$名,2)鉄道での帰宅者は$359$名,3)宿泊した人は$385$名,4)その他の交通手段での帰宅者が$15$名,5)不明が$635$名と予測された.この結果は不明を除く全体の$84.9\%$(徒歩$71.5\%$,鉄道$13.4\%$,その他$0.005\%$)が帰宅行動を行ったことを示している.本研究の推測結果を考察するために,図\ref{fig:svm_result}にて別主体による震災当日の帰宅行動調査結果との比較を行う.サーベイリサーチセンター(SRC)によって行われた調査(SRC2011)は2011年4月に実施された調査,遊橋による調査「東日本大震災における通信メディアと情報行動に関する定量調査」やその報告(遊橋2012)は2011年11月に実施された調査である.(SRC2011)では$2,026$名へのアンケートから,全体の$80.1\%$が当日自宅に帰ることができたという結果を得ており,(遊橋2012)も$78.6\%$が帰宅成功しているという同様の結果を得ている.それに対し,本研究での推測では$84.9\%$と5,6\%高い帰宅成功率という結果となった.\begin{figure}[t]\begin{center}\includegraphics{20-3ia1f2.eps}\end{center}\caption{本研究による予測と別調査結果の比較}\label{fig:svm_result}\vspace{-0.5\Cvs}\end{figure}これらの調査では帰宅時の交通手段について尋ねていない点とTwitterでは各ユーザーの個人属性が明らかではない点から,帰宅者の割合が多いデータの偏り要因をはっきりと明らかにすることはできない.しかし,SRCの調査では都県$\times$性年代の均等割付を行い調査を行っている点,遊橋の調査では2005年時の国勢調査に基づき人口割合を鑑みてサンプリングを行っている点を考えると,本研究で利用したTwitterデータではユーザー層が比較的若年層に偏り,また都市部での利用割合が相対的に高いと考えられるため,Twitterユーザー層特有のサンプリングバイアスであると考えられる.
\section{帰宅行動要因の分析}
\subsection{非言語的説明要因の生成}2節で得られたユーザー別帰宅意思決定の予測をもとに,非言語的・言語的説明要因をツイートデータやジオタグデータから作成し,各個人の帰宅意思決定の要因を分析する.まず,ユーザー別ジオタグデータを用いて,交通行動に関する説明要因を作成する.本研究では簡単のために発災時以降の時刻が最も早い位置座標を勤務地(出発地)位置座標,2011年3月12日12:00以前の時刻が最も遅い位置座標を自宅(到着地)位置座標と設定した.次にこれらの位置座標を用いて,道路ネットワーク距離,徒歩所要時間,勤務地最近隣駅,自宅最近隣駅,鉄道所要時間,鉄道費用,鉄道乗り換え回数を作成する.これらはすべて平常時のネットワークを用いて作成したデータである.人々の帰宅行動の空間的広がりを表現するために,図\ref{fig:locationmap}によって勤務地最近隣駅,自宅最近隣駅のそれぞれ上位30ヶ所を図示する.勤務地最近隣駅の空間的分布を見る限り,首都圏におけるオフィスが集中したエリアであることがわかるが,自宅最近隣駅の空間分布が必ずしも住宅地になっておらず,ターミナル駅が多く含まれている.ジオタグ付きツイートの傾向として,Twitterユーザーはプライバシーの問題から自宅位置のジオタグを付与することはあまり見られず,「最寄り駅に着いた」「川崎までやってきた」「ここでやっと半分」のように自分の移動軌跡の目印となる点でつぶやくことが多い.そのため,この結果はこれらはジオタグ付きツイートが自宅付近でされたのではなく,ターミナル駅や乗換で行われたことを示唆しているといえよう.しかし,全体的な傾向として,勤務地分布と自宅分布は空間的に異なる分布をしており,帰宅方向(郊外方向)へ分散していることが示された.\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f3.eps}\end{center}\caption{勤務地最近隣駅(左)・自宅最近隣駅(右)の空間的分布}\label{fig:locationmap}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f4.eps}\end{center}\caption{勤務地・自宅間距離別帰宅意思決定}\label{fig:distance_cross}\end{figure}次に,作成した勤務地・自宅間の道路ネットワーク距離による帰宅意思決定のクロス集計結果を図\ref{fig:distance_cross}に示す.この結果は自宅との距離が長くなるにつれて相対的に徒歩の割合が減少するが,$20$km以上離れていても$50\%$以上の人々が徒歩を選択したことを示している.また,鉄道の割合は10〜20~kmの人々が最も高く,それ以上の距離になると,鉄道運行停止の影響を受け,宿泊を選択する割合が高くなっていることが示された.先ほどと同様,上記の距離は必ずしも勤務地・自宅間の距離を示す値ではないが,自宅までの経路の移動途中結果を示す近似的距離であり,このネットワーク距離は帰宅意思決定行動の重要な要因である.\subsection{言語的説明要因の生成}最後に,言語的説明要因の生成を行う.前節では職場と自宅間の物理的距離が帰宅意思決定の要因であることを示したが,その他にも家族の存在や情報の有無が帰宅意思決定に影響を与えていると推測される.そこで,各ユーザーの発言から帰宅意思決定行動に影響を与える要因を抽出する.しかし,意思決定結果によって発言内容にはセルフセレクション・バイアスが生じる可能性があるため,各意思決定結果ごとの傾向をまず示す.帰宅意思決定ごとのRTを除く平均ツイート数は1)徒歩が22.6件,2)鉄道が51.8件,3)その他が80.2件,4)宿泊が61.4件,5)不明が24.1件である.サンプル数の少ないその他や不明を除くと,宿泊・鉄道選択者は徒歩選択者に比べて2.3倍から2.7倍のツイート数がある.これは職場や駅等での待機中にTwitterで発言していたためと考えられ,直感に合う結果である.しかし,発言数が多いことによって相対的に影響要因と考えられる話題のツイートも増加するため,ある話題に対する発言頻度が他の意思決定に比べて多いからといって意思決定要因であると単純に考えることはできない.そこで,全ツイート内での各話題の発言割合を用いて基準化を行い,以降の分析を行う.\begin{table}[b]\caption{影響要因の要素定義}\label{tab:element_list}\input{01table03.txt}\end{table}まず,家族との安否確認が帰宅意思決定に与えた影響について分析を行う.本研究では家族を同居の配偶者および子供と定義した.表\ref{tab:element_list}の単語による抽出を行った上で人手でアノテーションを行った結果,3,307名のうち353名が同居の家族の存在を発言していた.これらの人々の発言の中から「嫁からメール来た。ちょっと安心。」「妻と娘にやっと電話が繋がった。」や「嫁にメールが届かない」「息子の保育園と電話が通じない」といった安否確認,安否未確認のツイートを人手で抽出した.3月12日12時までのツイート内で,安否確認ツイートと安否未確認ツイートの比率は徒歩帰宅者が$62\%,38\%,鉄道帰宅者が59\%,41\%,宿泊者が60\%,40\%$と帰宅行動間でほぼ差がない結果となった.そこで,安否確認・安否未確認ツイートの時間帯の分析を行う.図\ref{fig:FamilyTIme}は徒歩,鉄道,宿泊の意思決定者別の安否確認・安否未確認ツイートの時間帯割合を示している.安否確認ツイートに関しては18時台までに徒歩は$42\%$,鉄道は$45\%$,宿泊は$65\%$が集中している.宿泊者の安否確認の割合が相対的に高いが,徒歩と鉄道では同程度の割合である.一方で,安否未確認ツイートは18時台までに徒歩は$44\%$,鉄道は$50\%$,宿泊は$68\%$であり,安否確認と同様の傾向のように思えるが,「家族と連絡が取れた」という安否確認ツイートと異なり,安否未確認ツイートは安否確認が取れるまでのどの時間帯でも行うことが可能であるため,より各個人の心理的要因が強く反映していると考えることができる.より早い時間帯に発言することがその個人にとってより重要であるという仮定に立つならば,徒歩帰宅者は鉄道帰宅者よりも家族の安否が未確認であることを問題視し,より早い時間帯での帰宅意思決定を行ったと考察される.一方で,最も早く安否未確認ツイートを行っている宿泊選択者は距離や鉄道網が動いていないことによる物理的制約の方がより大きかったと考察される.\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f5.eps}\end{center}\caption{安否確認・未確認ツイートの時間帯分布}\label{fig:FamilyTIme}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f6.eps}\end{center}\caption{鉄道再開情報の発言割合と帰宅意思決定の関係}\label{fig:trainInformation}\end{figure}次に,運行再開情報と帰宅意思決定の関係性を分析する.冒頭にも述べたように,当日の鉄道路線は20時40分以降,五月雨式に再開された.職場で待機・宿泊するか,それとも再開した鉄道を利用して帰宅するかは鉄道再開情報の入手有無に依存する.そこで,表\ref{tab:element_list}の単語を用いて人手でアノテーションを行った鉄道再開関連ツイートの各個人の発言内での割合と帰宅意思決定結果の関係を示したのが図\ref{fig:trainInformation}である.この図は鉄道選択者が鉄道再開情報を発言しやすいことを示している.これは必ずしも鉄道再開情報を入手した人が鉄道を利用したという因果関係があることを示すわけではないが,鉄道選択者が鉄道再開情報をツイートすることでフォロワー達に鉄道再開情報を拡散したことは間違いないだろう.最後に個人の心理的要因と帰宅意思決定の関係性を分析する.震災当日は「地震怖い」「不安だ」などの自分の心理状況に関する発言が多く見られた.この心理状況は他者(主に家族)に対する心配要因とは異なるため,これを自分不安と定義する.自分不安発言は表\ref{tab:element_list}の単語が含まれている発言として定義した.深夜は余震発生などによる別要因による不安要素が多く含まれるため,地震発生後から3月11日20時までの自分不安発言の発言割合と帰宅意思決定結果の関係性を図\ref{fig:anxiety}に示す.興味深いのは自分不安発言が$5\%$未満の個人は宿泊が多いのに対し,5\%以上の発言割合になると徒歩帰宅が増加している点である.発言頻度が多ければ多いほど,各個人は強くその意識をもっていると仮定するならば,少し不安感を感じた人々は会社等に宿泊して他者と一緒に過ごすのに対し,大きな不安感を感じた人は徒歩によって帰宅しやすいと考察することができる.\begin{figure}[t]\begin{center}\includegraphics{20-3ia1f7.eps}\end{center}\caption{20時までの自分不安発言の発言割合と帰宅意思決定の関係}\label{fig:anxiety}\end{figure}これまでの結果をまとめる.まず,職場・自宅間のネットワーク距離が帰宅意思決定の大きな影響要因であることを示した.次に,家族の安否確認・未確認発言ではその発言時間帯が帰宅意思決定に影響を与えた可能性を示唆している.運行再開情報の発言や自分不安発言も,それぞれの帰宅意思決定と関連があり,特にその発言の頻度割合が帰宅行動と強く相関していることが示された.
\section{行動データから意思決定モデルの構築}
\subsection{離散選択モデル}3までに作成されたデータをもとに,意思決定モデルの構築を行う.離散選択モデルの概要を示す.離散選択モデル(DiscreteChoiceModel)は計量経済学,交通行動分析,マーケティングなどの分野で用いられる計量モデルであり,ランダム効用モデル(RandomUtilityModel)とも呼ばれる(Ben-AkivaandLerman1985;Train2003).本研究で用いる多項ロジットモデル(MultinomialLogitModel;MNL)は離散選択モデルの中で最も基本的なモデルである.このモデルは数学的には多クラスロジスティック回帰モデルや対数線形モデル,最大エントロピーモデルと等価であるが,その経済学的な解釈と導出過程が異なる意思決定モデルである.また,機械学習における分類問題とは異なり,その予測精度のみを評価するのではなく,各変数(機械学習における特徴量)の係数パラメータの吟味を行い,その大小関係や正負の検討,経済学的な解釈を行う点がモデルの利用時に異なる点である.意思決定者$n$が選択肢集合$J$に直面しているとする.意思決定者は各選択肢を選択することから効用を得ることができるとし,個人$n$が選択肢$j$から得られる効用を$U_{nj},\j=1,\ldots,J$と定義する.この効用は意思決定者には観測可能であるが,分析者には観測不可能であるとする.意思決定者は効用最大化に基づき意思決定を行うので,その行動モデルは次の条件$U_{ni}>U_{nj},\\forallj\not=i$が成り立つ場合に限って,選択肢$i$を選択する.各利用者の効用は観測不可能であるが,分析者にはその一部である効用の確定効用項$V_{nj}=V(x_{nj},s_{n})$は観測可能であるとする.ここで,$x_{nj}$は個人$n$と選択肢$j$に関連する説明変数,$s_n$は個人$n$特有の説明変数である.分析者にとって観測不可能な要素を誤差項$\varepsilon$とし,効用は$U_{nj}=V_{nj}+\varepsilon_{nj}$と分解可能であるとしよう.また,$\varepsilon_n=(\varepsilon_{n1},\ldots,\varepsilon_{nJ})$とする.分析者は$\varepsilon_{nj}$がわからないため,確率変数として取り扱う.そのため,$\varepsilon_{nj}$が従う確率密度関数を$f(\varepsilon_{nj})$とすると,意思決定者$n$が選択肢$i$を選択する確率は\begin{equation}\begin{aligned}[b]P_{ni}&=\Pr(U_{ni}>U_{nj}\\forallj\not=i)\\&=\Pr(V_{ni}+\varepsilon_{ni}>V_{nj}+\varepsilon_{nj}\\forallj\not=i)\\&=\Pr(V_{ni}-V_{nj}>\varepsilon_{nj}-\varepsilon_{ni}\\forallj\not=i)\\&=\int_{\varepsilon}I(V_{ni}-V_{nj}>\varepsilon_{nj}-\varepsilon_{ni}\\forallj\not=i)f(\varepsilon_n)d\varepsilon_n\end{aligned}\end{equation}である.ここで,$I(\cdot)$は括弧内が成り立っていれば$1$,そうでなければ$0$となるindicatorfunctionである.誤差項が次の式で表されるi.i.d.なガンベル(Gumbel)分布(typeIextremevalue分布とも)に従うと仮定する.\begin{align}f(\varepsilon_{nj})&=e^{-\varepsilon_{nj}}e^{-e^{-\varepsilon_{nj}}}\\F(\varepsilon_{nj})&=e^{-e^{-\varepsilon_{nj}}}\end{align}このとき,意思決定者$n$が選択肢$i$を選択する確率は\begin{equation}P_{ni}=\frac{e^{V_{ni}}}{\sum_je^{V_{nj}}}\label{eq:DCM}\end{equation}として導かれる.このようにして導かれる選択確率をもつモデルが最も基本的な離散選択モデルである多項ロジットモデルである.MNL提案後,選択肢間の誤差項間の相関を考慮したNestedLogitモデルや更に緩和を加えたGeneralizedNestedLogitModel(WenandKoppelman2001)やnetworkGEVModel(DalyandBierlaire2006),また誤差項に正規分布を仮定したProbitモデルやProbitModelとLogitModelの良い面を合わせたMixedLogitModel(McFaddenandTrain2000)等が提案されている.本研究では分析の見通しを良くするために,基本的なモデルであるMNLを用いる.\subsection{線形効用関数とパラメータ推定}離散選択モデルでは観測可能な確定効用項$V_{ni}$を一般的に$V_{ni}=\boldsymbol{\beta}'\boldsymbol{x_{ni}}$と定義する.$\boldsymbol{\beta}$は係数ベクトル,$\boldsymbol{x_{ni}}$は個人$n$の選択肢$i$に関する説明変数ベクトルである.これより,線形効用関数として定義したMNLが数学的に対数線形モデルと等価となることが理解される.本研究ではデータセットとして,SVMによって識別された3307名のデータのうち,不明を除く2672名,選択肢集合は徒歩,鉄道,その他,宿泊の4選択肢を用いる.1)徒歩の説明変数には徒歩所要時間,自分不安ツイート割合,徒歩選択肢固有定数を採用,2)鉄道の説明変数には鉄道所要時間,職場・自宅間の距離の対数,運行再開情報ツイート割合,17時までに家族の安否確認が行えた場合1となるダミー変数,鉄道選択肢固有定数を採用,4)宿泊の説明変数には自分不安ツイート割合,待機場所ツイート割合,17時までに家族の安否確認ダミー変数,宿泊選択肢固有定数を採用した.待機場所ツイート割合は各個人のツイートのうち「会社」「職場」「学校」を含むツイートの割合である.3)その他の効用項は0に基準化している.個人$i$における各選択肢$i$の確定効用関数は上記の説明変数の線形和$V_{ni}=\boldsymbol{\beta}'\boldsymbol{x_{ni}}$として表現される.このような効用関数を定義することで,式(\ref{eq:DCM})における各選択肢の選択確率$P_{ni}$が定式化される.次に,得られたデータから効用関数の係数パラメータの推定方法について概説する.MNLモデルはclosedformで定式化されるため,伝統的な最尤推定法が適用可能であり,また大域的に凸であるため(McFadden1974),推定パラメータは一意に決定できる.MNLの対数尤度関数は次のように書くことができる.\begin{equation}LL(\beta)=\sum_{n=1}^{N}\sum_{i}\delta_{ni}\lnP_{ni}\end{equation}ここで,$\delta_{ni}$は個人$n$が選択肢$i$を選択したならば$1$,そうでなければ$0$となるクロネッカーの$\delta$である.離散選択モデルにおいては,モデルの当てはまりの良さを示すのに尤度比指標(McFaddenの決定係数とも呼ばれる)を一般的に用いる.この尤度比指標は次のように定義される.\begin{equation}\rho=1-\frac{LL(\hat\beta)}{LL(0)}\end{equation}ここで,$LL(\hat\beta)$は対数尤度関数に推定パラメータを代入した値,$LL(0)$は対数尤度関数に$0$を代入した値であり,$0\leq\rho\leq1$が成り立つ.これは0に近づけば当てはまりが悪く,$1$に近づけば当てはまりが良いと解釈できる.
\section{推定結果とシミュレーション}
\subsection{パラメータ推定結果と考察}上記の設定の下で,パラメータを推定した結果を表\ref{tab:transition_probability}に示す.まず,修正済み尤度比指標は$0.428$であり,モデル全体の当てはまりは十分に良い.また,所要時間の係数パラメータは負である点,職場・自宅間の距離が増加するにつれて鉄道の選択確率が増加する点などこれまでの基礎分析や直感に合う結果となっている.\begin{table}[b]\caption{MNLモデルの推定結果}\label{tab:transition_probability}\input{01table04.txt}\end{table}また,自分不安ツイート割合は徒歩と宿泊で異なるパラメータとして推定を行っているが,自分不安ツイート割合が徒歩選択に対してより大きな影響を与えていることがわかる.自分不安ツイートと所要時間のパラメータの比より,例えば自分不安ツイートが$5\%$増加することは$64$分の所要時間が増加しても宿泊より徒歩を選択することを示している.待機場所ツイート割合は宿泊選択を促していることから,待機場所の有無が宿泊の重要な要因であることも示された.加えて,基礎集計からも明らかになったように,運行再開ツイート割合は鉄道選択を促すことを説明している.家族との関係性については,17時まで(地震発生から2時間14分以内)に家族との安否確認が行えたことの影響は鉄道・宿泊を大幅に選択しやすくなることから,安否確認が冷静な行動(職場などでの一時的な待機)を促すことがこの結果から示された.以上より,距離や所要時間といった物理的制約と不安や家族との安否確認,待機場所の有無といった震災時特有の制約条件によって震災当日の帰宅意思決定行動をモデル化することができた.\subsection{感度分析シミュレーション}これまでの結果をもとに,感度分析シミュレーションを行おう.一つは宿泊場所の有無が災害時の帰宅行動へ与える影響の分析,もう一つは早い時間帯での家族との安否確認の有無が帰宅行動へ与える影響の分析である.その結果を示したのが図\ref{fig:simulation_result02}である.\begin{figure}[b]\begin{center}\includegraphics{20-3ia1f8.eps}\end{center}\caption{シミュレーション結果}\label{fig:simulation_result02}\end{figure}まず,宿泊場所の確保の影響であるが,すべての外出者に対して宿泊可能な場所が提供された場合を考える.今回の感度分析では宿泊以外の選択者の待機場所ツイート割合が宿泊選択者の平均値と等しいとして全体のシェアを求めると,宿泊者は$1.18$倍に増加し,全体のシェアも$14.4\%$から$17.0\%$へ増加する.一方で,徒歩,鉄道といった帰宅行動のシェアは$3\%$減少する.$3\%$の減少は微少な影響のように一見思えるが,交通システムにおける渋滞や混雑は供給される容量の1割超えるだけで長時間の待ち行列が発生すると一般に言われている.その点から考えると,$3\%$の減少効果は少なくないだろう.また,総待ち時間の減少だけでなく,駅のホームといった容量制約のあるボトルネック箇所の安全性の面からも社会的便益がある.交通混雑や震災時の混乱を避けるために,より会社等での一時待機者・宿泊者を増加させるためには待機・宿泊場所の提供のみならず,行政や会社による待機命令が必要となる.次に,家族間での安否確認の影響を分析する.今回,2672名のうち,353名に同居の家族(配偶者または子供)がいることが発言内容から確認されている.この353名がすべて17時までに安否確認が行えた場合,図\ref{fig:simulation_result02}に示すように,鉄道・宿泊が$1.1$倍に増加し,徒歩帰宅者が$0.95$倍に減少する結果となる.言うまでもなく災害時の家族間の安否確認は緊急性と重要性が高い情報であるが,この情報が入手されないことが帰宅行動という形で首都圏全体の混乱として表出し,更なる二次災害へと繋がる危険性が今回の震災から示唆された.携帯電話や携帯メール以外の連絡手段が今回の震災では大きな貢献をしたことから,遅延が少なく需要増加に頑健な連絡手段を家族間の連絡手段に採用することで,交通ネットワークへの影響や混乱を一部防ぐことができるだろう.
\section{おわりに}
本稿ではTwitterのツイートデータとジオタグデータを用いて,東日本大震災当日の首都圏における帰宅行動の推測を行うとともに,その意思決定要因を明らかにした.帰宅行動の推測手法や意思決定モデルは既存手法であるが,2つのデータソースと手法を組み合わせることで,Twitterのつぶやきログデータのみから個人ごとの帰宅行動やその要因を示すことができた.そして仮想的なシナリオシミュレーションを実施し,災害時のオペレーションや連絡手段のあり方に対して一定の知見が得られた.本研究は現実の帰宅行動という一つのラベルに対し,Twitterでの発言内容をもとにSVMによるモデル化と離散選択モデルによるモデル化を行っている.これは帰宅行動ラベルが言語的要因のみから説明できるだけでなく,ジオタグをベースとして生成した非言語的要因からも説明ができることを示している.つまり,Twitterのツイートの中には空間的要素・行動的要素が含まれており,あるケースにおいてはジオタグのついていないツイートであったとしても,職場から自宅への距離や所要時間の情報を一部内在させているといっても過言ではないだろう.これは本研究のアプローチを半教師あり学習(たとえばSuzukiandIsozaki(2008)や小町\&鈴木(2008))を援用することによってジオタグの付いていないツイートにまで適用を広げる可能性を示唆している.震災時の行動に関する事後的な調査では,調査サンプルのオーダーが数千人程度である.また,本研究でも示したようにジオタグが付与されたツイートを行う利用者数は首都圏でも3,307名であった.しかし,ジオタグ付与ツイートを行うユーザーと通常のツイートを行うユーザーの発言類似性から通常のユーザーの勤務地・自宅間の距離が算出できれば,数万人から数十万人のオーダーで,震災当日の行動を明らかにできる可能性が存在する.このようなアプローチについては今後の課題としたい.\acknowledgment本研究は2012年9月12日から10月28日にかけて開催された東日本大震災ビッグデータワークショップにおいてTwitterJapan株式会社によって提供されたデータを用いている.TwitterJapan株式会社,ならびにWSにデータ提供を行った株式会社朝日新聞社,グーグル株式会社,JCC株式会社,日本放送協会,本田技研工業株式会社,株式会社レスキューナウ,株式会社ゼンリンデータコムに感謝の意を表する.本研究が始まったきっかけは熊谷雄介氏(NTT)とのメールでの議論であり,熊谷氏との議論がなければ本論文は生まれることがなかった.また,分析を進めるにあたって斉藤いつみ氏(NTT)から有益なコメントを頂いた.ここにお二人への感謝の意を示す.また,本論文に対して2名の匿名の査読者からは示唆に富む,非常に有益なコメントを頂いた.ここに,査読者の方々に対して感謝の意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Train}{}{2003}]{Book_02}Ben-Akiva,M.andLerman,S.\BBOP1985\BBCP.\newblock{\emDiscreteChoiceAnalysis:TheoryandApplicationtoTravelDemand}.\newblockMITPress,Cambridge,MA.\bibitem[\protect\BCAY{}{}{2011}]{Article_03}Bengtsson,L.,Lu,X.,Thorson,A.,Garfield,R.,vonSchreeb,J.\newblock\BBOP2011\BBCP.\newblock``ImprovedResponsetoDisastersandOutbreaksbyTrackingPopulationMovementswithMobilePhoneNetworkData:APost-EarthquakeGeospatialStudyinHaiti.''\newblock{\emPLoSMedicine},{\Bbf8}(8),\mbox{\BPGS\e1001083}.\bibitem[\protect\BCAY{}{}{2006}]{Article_07}Daly,A.andBierlaire,M.\newblock\BBOP2006\BBCP.\newblock``AgeneralandoperationalrepresentationofGeneralisedExtremeValuemodels.''\newblock{\emTransportationResearchPartB:Methodological},{\Bbf40}(4),\mbox{\BPGS\285--305}.\bibitem[\protect\BCAY{}{}{2012}]{Article_02}Lu,X.,Bengtsson,L.andHolme,P.\newblock\BBOP2012\BBCP.\newblock``Predictabilityofpopulationdisplacementafterthe2010Haitiearthquake.''\newblock{\emProceedingsoftheNationalAcademyofSciencesoftheUnitedStatesofAmerica},{\Bbf109}(29),\mbox{\BPGS\11576--11581}.\bibitem[\protect\BCAY{}{}{1974}]{Article_04}McFadden,D.\newblock\BBOP1974\BBCP.\newblock``Conditionallogitanalysisofqualitativechoicebehavior.''\newblock{\emFrontiersinEconometrics},AcademicPress,NewYork,\mbox{\BPGS\105--142}.\bibitem[\protect\BCAY{}{}{2000}]{Article_08}McFadden,D.andTrain,K.\newblock\BBOP2000\BBCP.\newblock``MixedMNLmodelsfordiscreteresponse.''\newblock{\emJournalofAppliedEconometrics},{\Bbf15},\mbox{\BPGS\447--470}.\bibitem[\protect\BCAY{MeCab}{}{}]{Web_05}MeCabYetAnotherPart-of-SpeechandMorphologicalAnalyzer.\\\texttt{http://mecab.sourceforge.net/}.\bibitem[\protect\BCAY{}{}{2008}]{Article_05}Suzuki,J.andIsozaki,H.\newblock\BBOP2008\BBCP.\newblock``Semi-supervisedSequentialLabelingandSegmentationUsingGiga-WordScaleUnlabeledData.''\newblock{\emInProceedingsofACL-08:HLT},\mbox{\BPGS\665--673}.\bibitem[\protect\BCAY{Train}{}{2003}]{Book_01}Train,K.\BBOP2003\BBCP.\newblock{\emDiscreteChoiceMethodswithSimulation}.\newblockCambridgeUniversityPress,Cambridge.\bibitem[\protect\BCAY{}{}{2001}]{Article_06}Wen,C.-H.andKoppelman,F.\newblock\BBOP2001\BBCP.\newblock``Thegeneralizednestedlogitmodel.''\newblock{\emTransportationResearchPartB:Methodological},{\Bbf35}(7),\mbox{\BPGS\627--641}.\bibitem[\protect\BCAY{}{}{2008}]{Article_09}小町守,鈴木久美\newblock\BBOP2008\BBCP.\newblock検索ログからの半教師あり意味知識獲得の改善.\newblock人工知能学会論文誌,{\Bbf23}(3),\mbox{\BPGS\217--225}.\bibitem[\protect\BCAY{}{}{}]{Web_03}\newblockサーベイリサーチセンター\BBOP2011\BBCP.東日本大震災に関する調査(帰宅困難).\\\texttt{http://www.surece.co.jp/src/press/backnumber/20110407.html}.\bibitem[\protect\BCAY{首都圏直下型地震帰宅困難者等対策協議会}{}{}]{Web_01}\newblock首都直下型地震帰宅困難者等対策協議会\newblock\BBOP2012\BBCP.首都直下型地震帰宅困難者等対策協議会最終報告.\texttt{http://www.bousai.metro.tokyo.jp/japanese/tmg/kitakukyougi.html}.\bibitem[\protect\BCAY{国土交通省鉄道局}{}{}]{Web_02}\newblock大規模地震発生時における首都圏鉄道の運転再開のあり方に関する協議会\BBOP2012\BBCP.大規模地震発生時における首都圏鉄道の運転再開のあり方に関する協議会報告書.\\\texttt{http://www.mlit.go.jp/tetudo/tetudo\_fr8\_000009.html}.\bibitem[\protect\BCAY{}{}{2008}]{Article_09}遊橋裕泰\newblock\BBOP2012\BBCP.\newblock東日本大震災における関東の帰宅/残留状況と情報行動.\newblock日本災害情報学会第14回研究発表大会,{\BbfA-4-2},\mbox{\BPGS\140--143}.\end{thebibliography}\begin{biography}\bioauthor{原祐輔}{2007年東京大学工学部都市工学科卒業.2012年同大学院博士課程修了.日本学術振興会特別研究員(PD)を経て,同年,東北大学未来科学技術共同研究センター助教.交通行動分析,交通計画の研究に従事.機械学習や自然言語処理にも関心がある.土木学会,都市計画学会,交通工学研究会,電子情報通信学会各会員.}\end{biography}\biodate\end{document}
| |
V06N05-02
|
\section{はじめに}
コンピュータの自然言語理解機能は柔軟性を高めて向上しているが,字義通りでない文に対する理解機能については,人間と比較してまだ十分に備わっていない.例えば,慣用的でない比喩表現に出会ったとき,人間はそこに用いられている概念から連想されるイメージによって意味をとらえることができる.そこでは,いくつかの共通の属性が組み合わされて比喩表現の意味が成り立っていると考えられる.したがって,属性が見立ての対象となる比喩の理解をコンピュータによって実現するためには,属性を表す多数の状態概念の中から,与えられた二つの名詞概念に共通の顕著な属性を自動的に発見する技術が重要な要素になると考えられる.本論文では,任意に与えられた二つの名詞概念で「TはVだ」と比喩的に表現するときの共通の顕著な属性を自動的に発見する手法について述べる.ここで比喩文「TはVだ」において,T(Topic)を被喩辞,V(Vehicle)を喩辞と呼ぶ.本論文で扱う比喩はこの形の隠喩である.具体的には,連想実験に基づいて構成される属性の束を用いてSD法(SemanticDifferentialMethod)の実験を行い,その結果を入力データとして用いるニューラルネットワークの計算モデルによって行う.以下では,2章で比喩理解に関する最近の研究について述べる.次に,3章で比喩の特徴発見の準備として認知心理実験について述べ,4章で比喩の特徴発見手法について説明する.そして5章で,4章で説明した手法による具体例な実行例を示し,その考察を行う.最後に6章でまとめと今後の課題について述べる.
\section{関連研究}
コンピュータによる比喩理解に関する研究は最近多く見られる.扱える比喩の範囲が広いものとしてあげられるのが,Fass\cite{Fass1991}やMartin\cite{Martin1992}の研究などである.Fass\cite{Fass1991}は,比喩理解において概念の階層構造の中で共通の上位概念を持つものに着目し,動詞や名詞に関する類似した対応関係を発見することによって比喩理解を行っている.Martin\cite{Martin1992}は,比喩文を字義通りの文と同様に扱う立場をとり,比喩文に関する明示的な知識をあらかじめ知識ベースに与えている.そして新しい比喩にも対応できるように既知の比喩を拡張できるようにしている.これらに対し著者らの研究では,現在は扱える比喩の範囲が「TはVだ」の形に限定されているが,概念の階層構造や比喩文の明示的な知識をシステムにあらかじめ与えておかないで比喩理解を行う方法を検討している.比喩理解のモデル化については,日本でもさまざまな手法が提案されている.例えば,土井ら\cite{Doi1989}は,階層型のニューラルネットワークを用いて属性層の中から比喩の意味を選択する方法を検討している.しかし,その方法では,顕著な属性を自動的に抽出するまでには至っていない.諏訪ら\cite{SuwaAndMotoda1994}は,隠喩理解の類推的アプローチとして,類比関係の効率的な決定を行う手法を示した.そこでは,属性ではなく構造・関係が見立ての対象となる比喩を扱っている.森ら\cite{MoriAndNakagawa1991}は,状況理論から展開された視点を導入した比喩理解のモデル化を行っているが,そこでは,比喩理解のために重要である属性に対する数値的な順序づけはなされていない.また,属性が見立ての対象となる比喩に重点を置いて,属性の顕現性を数値的に扱っている研究が進んでいる\cite{Iwayama1992,UtsumiAndSugeno1996,UchiyamaAndItabashi1996}.岩山\cite{Iwayama1992}は,ベイジアンネットワーク上の確率分布をもとに情報理論を用いて顕現性を定式化している.その計算手法をもとに,内海ら\cite{UtsumiAndSugeno1996}は,関連性に基づく言語解釈モデルを用いて文脈に応じた隠喩解釈を行う手法を提案している.また,比喩理解過程において創発される新たな特徴を考慮した計算モデルの研究も行われている\cite{Utsumi1997}.しかし,岩山と内海らの研究では,比喩を構成する概念の属性情報として,属性名とその重要度や,属性値集合(属性値とその確率の対)が人手によって与えられている.著者らは,その部分の自動化を目指している.コーパスからの共起情報を用いて比喩理解のための知識獲得を行う手法も考えられてきているが\cite{MasuiAndSugioAndTazoeAndShiino1997},ここではまず人間による生の属性情報を得るために認知心理実験を行うことにする.内山ら\cite{UchiyamaAndItabashi1996}は,SD法の実験を行ってその結果から顕現性を計算しているが,被喩辞と喩辞の別々の評定値に基づいて比喩表現の顕現性を計算しているわけではない.本論文では,被喩辞と喩辞を同時に扱い,それらに共通で顕現性の高い属性を自動的に抽出する方法について述べる.その際,SD法実験のデータとして,被喩辞と喩辞を独立に提示したときの評定値を用いて計算を行う.
\section{認知心理実験}
比喩の特徴発見の準備として二つの認知心理実験を行う.第一は概念の属性を抽出するための連想実験であり,第二は連想実験の結果を参考にして行うSD法の実験である.そして,SD法の実験結果を4章で説明する比喩特徴発見システムCOFFSへの入力データとして用いる.\subsection{属性の連想実験}文献\cite{OhkumaAndIshizaki1996}で述べられている連想実験システムを使用して,概念の属性に関する連想実験を行った.具体的には,『角川類語新辞典』\cite{OhnoAndHamanishi1981}の中の「自然」「人物」「物品」という三つのカテゴリーの中から,小学生にもわかりやすいと思われる90個の概念を用意し,大学生の被験者45人を6つのグループに分けて一人につき15個の概念を独立に提示した.表1に,連想実験に用いた90個の概念を示す.被験者には提示された概念から連想される属性を自由にできるだけ多く記述してもらった.その際,次のような属性例を示した教示を行った.\begin{footnotesize}\begin{verbatim}属性とは,その単語の持つ特徴です.例えば,「文章」の属性には,「論理的」「創造性のある」「難しい」「長い」「短い」「下手」「まとまっている」などが考えられます.\end{verbatim}\end{footnotesize}表2に,著者らが後で比喩を構成する概念として有用であると考えた10個の概念に関する結果を示す.実験が自由記述形式であるため,多様な属性があげられた.そこで,提示概念に対し,被験者の$1/3$以上によって連想された属性を示した.しかし,被験者の間で一致度の高い属性も見られた.例えば「チーター」に対しては,被験者9人中8人が「速い」をあげていた.\begin{table}[tb]\caption{連想実験で提示された概念}\label{tbl:hyo1}\begin{center}\begin{small}\begin{tabular}{|l|l|l|l|l|l|}\hlineグループ1&グループ2&グループ3&グループ4&グループ5&グループ6\\\hline\hline雨&芽&道具&鍵&冷蔵庫&北風\\\hlineねじ&鏡&機械&工具&ブレーキ&空気\\\hline乗り物&人&鬼&ロボット&熱&部屋\\\hline刃物&針金&人形&ライオン&電池&心\\\hline犬&チーター&鳥&銀河&記憶&秋\\\hline山&魚&宇宙&星&冬&夕暮れ\\\hline芸術家&飼い犬&ペット&野良犬&夜&青年\\\hline番犬&動物&太陽&雲&成人&チャイム\\\hline柱&満月&切符&磁石&ダンプカー&もぐら\\\hline粘土(ねんど)&化石&流れ星&風&くじら&気球\\\hline役者&電気&船&水&風船&コンピュータ\\\hline職人&商人&牛&砂&物置&生物\\\hline火&川&骨&光&植物&卵\\\hline海&湖&泥沼&エレベーター&細胞&肥料\\\hlineロケット&エネルギー&台風&雑音&旗&池\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{table}[tb]\caption{連想実験によって得られた主な属性例}\label{tbl:hyo2}\begin{center}\begin{small}\begin{tabular}{|l|l|}\hline提示概念&被験者の1/3以上によって連想された属性\\\hline\hline部屋&広い,狭い,汚い,きれいな,暖かい\\\hline番犬&恐い,うるさい,噛む,吠える,強い,大きい\\\hline風船&ふわふわした,軽い,色とりどり,割れる,\\&飛ぶ,赤い,子供っぽい,やわらかい\\\hlineチーター&速い,スマート,美しい,鋭い\\\hline湖&静かな,きれいな,深い,冷たい,広い,大きい\\\hline鏡&映る,丸い,反射する,割れる,神秘的,光る\\\hline冷蔵庫&冷たい,大きい,四角い,白い,保存する,重い\\\hline鬼&恐い,強い,赤い,でかい,悪い,角がある\\\hline風&強い,冷たい\\\hline流れ星&速い,ロマンチック,願い事,美しい\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{table}[tb]\caption{SD法実験に用いた両極概念対}\label{tbl:hyo3}\begin{center}\begin{small}\begin{tabular}{|rlcl|rlcl|}\hlinef1&広い&$\longleftrightarrow$&狭い&f19&大切な&$\longleftrightarrow$&大切でない\\\hlinef2&きれいな&$\longleftrightarrow$&汚い&f20&遅い&$\longleftrightarrow$&速い\\\hlinef3&暖かい&$\longleftrightarrow$&涼しい&f21&鋭い&$\longleftrightarrow$&鈍い\\\hlinef4&四角い&$\longleftrightarrow$&丸い&f22&明るい&$\longleftrightarrow$&暗い\\\hlinef5&寒い&$\longleftrightarrow$&暑い&f23&ふわふわした&$\longleftrightarrow$&平らな\\\hlinef6&軽い&$\longleftrightarrow$&重い&f24&雑然とした&$\longleftrightarrow$&整然とした\\\hlinef7&大きい&$\longleftrightarrow$&小さい&f25&従属的&$\longleftrightarrow$&独立的\\\hlinef8&必要不可欠な&$\longleftrightarrow$&無くても済む&f26&神秘的&$\longleftrightarrow$&世俗的\\\hlinef9&美しい&$\longleftrightarrow$&醜い&f27&透き通った&$\longleftrightarrow$&濁った\\\hlinef10&浅い&$\longleftrightarrow$&深い&f28&割れやすい&$\longleftrightarrow$&割れにくい\\\hlinef11&静かな&$\longleftrightarrow$&うるさい&f29&不思議な&$\longleftrightarrow$&当たり前な\\\hlinef12&弱い&$\longleftrightarrow$&強い&f30&ありふれた&$\longleftrightarrow$&夢のある\\\hlinef13&恐い&$\longleftrightarrow$&かわいい&f31&かっこいい&$\longleftrightarrow$&かっこ悪い\\\hlinef14&善良な&$\longleftrightarrow$&邪悪な&f32&なくしやすい&$\longleftrightarrow$&なくしにくい\\\hlinef15&愚かな&$\longleftrightarrow$&賢い&f33&忠実な&$\longleftrightarrow$&不忠実な\\\hlinef16&役に立つ&$\longleftrightarrow$&役に立たない&f34&邪魔な&$\longleftrightarrow$&邪魔でない\\\hlinef17&高い&$\longleftrightarrow$&低い&f35&冷たい&$\longleftrightarrow$&熱い\\\hlinef18&柔らかい&$\longleftrightarrow$&固い&f36&ありがたい&$\longleftrightarrow$&迷惑な\\\hline\end{tabular}\end{small}\end{center}\vspace{0.5cm}\end{table}\begin{figure}[t]\begin{center}\epsfile{file=fig/32_ue.eps,height=65mm}\end{center}\caption{SD法の評定尺度例}\vspace{0.2cm}\begin{center}\epsfile{file=fig/32_sita.eps,height=72mm}\end{center}\caption{評定値の分布例}\end{figure}\subsection{SD法実験}SD法の実験は,形容詞などによる尺度を用いて,ある概念がどのような意味を持つかについて調べるものである.これは,実験心理学で従来から行われている手法であり,多数の形容詞を意味空間上に配置し,概念の情緒・感覚的な意味の定量的な分析を行うときに用いられている\cite{Kusumi1995,Ishizaki1994}.対の意味になる両極型形容詞を両端に置いて,提示される概念に対する当てはまり具合を何段階かの尺度で評定する.実際には7段階か5段階の尺度で評定することが多い.本SD法実験では,連想実験の結果を参考にして,表3に示されている36個(ペア)用意し,すべての概念に共通の属性の束とした.また提示概念として,表2の連想実験結果に示されている10個の概念を用いた.今回は図1に示されている「風」のように,文脈をつけずに概念を独立にディスプレー上に提示し,評定尺度には$-3$から$+3$までの7段階を用いた.また,被験者に対して以下のような教示を行った.\begin{footnotesize}\begin{verbatim}(1)両端の形容語のどちらかが「非常によく当てはまる」場合には,-3または+3に丸をつけてください.(2)形容語のどちらかが「かなりよく当てはまる」場合には,-2または+2に丸をつけてください.(3)形容語のどちらかが「やや当てはまる」場合には,-1または+1に丸をつけてください.(4)尺度の「中間に位置する」,あるいは双方の形容語に「同じくらい当てはまる」という場合には,0に丸をつけてください.(5)どちらの形容語も「全く当てはまらない」という場合には,右側の「全く当てはまらない」に丸をつけてください.\end{verbatim}\end{footnotesize}\vspace{-4mm}図1を見てもわかるように,評定尺度の欄外に「全く当てはまらない」という項目を設けた.提示概念によっては,ある尺度が「全く当てはまらない」と考えられる場合があるが,この別項目を設けることによって,評定値0に対して「尺度の中間に位置する」という意味を明確に持たせることができる.なお,標準的な教示では,(4)と(5)の場合が併合されており,いずれも尺度の中心(評定値0)に丸をつけるようになっている\cite{Iwashita1983}.図2に,大学生22人による評定の分布例を示す.提示概念は「風」で,横軸には$-3$(遅い)$\longleftrightarrow$$+3$(速い)の評定値,縦軸には被験者全員に対する人数の相対頻度をとった.これを見ると,「風」に対して「速い」というイメージを持っている人が多いことがわかる.
\section{比喩の特徴発見手法}
SD法の実験で独立に提示した概念の中から任意の二つを用いて「TはVだ」という形の比喩文を作ることができる.本章では,その比喩的な意味を理解するために必要な属性を自動的に抽出するシステムCOFFSについて説明する.\subsection{COFFSの概要}図3に,比喩特徴発見システムCOFFS(COmmonFeaturesFinderSystem)の構造を示す.SD法の実験で用いた両極概念対の個数を$m$とするとき,ネットワークには$m+2$個のノードがある.$f_1$〜$f_m$は両極概念対に対応するノードを表し,$T$と$V$はそれぞれ被喩辞(T)と喩辞(V)に対応するノードを表す.\begin{figure}[t]\begin{center}\begin{tabular}{c}\begin{minipage}{8cm}\setlength{\unitlength}{1mm}\begin{picture}(45,60)(0,123)\put(19,175){$a_{1,m+1}$}\put(54,175){$a_{1,m+2}$}\put(19,169){$a_{2,m+1}$}\put(54,169){$a_{2,m+2}$}\put(19,146){$a_{m,m+1}$}\put(54,146){$a_{m,m+2}$}\put(10,180){\circle{8}}\put(9,179){$T$}\put(70,180){\circle{8}}\put(69,179){$V$}\put(40,129){\circle{8}}\put(38,128){$f_m$}\put(40,161){\circle{8}}\put(38,160){$f_2$}\put(40,173){\circle{8}}\put(38,172){$f_1$}\put(14,178){\line(6,-1){22}}\put(66,178){\line(-6,-1){22}}\put(13,177){\line(5,-3){23}}\put(67,177){\line(-5,-3){23}}\put(12,176){\line(1,-2){24}}\put(68,176){\line(-1,-2){24}}\put(39,140){$\cdot$}\put(39,144){$\cdot$}\put(39,148){$\cdot$}\end{picture}\end{minipage}\end{tabular}\end{center}\caption{COFFSの構造.($T$は被喩辞,\hspace{0.1cm}$V$は喩辞,$f_i$は属性.\hspace{0.1cm}$a_{i,j}$は遷移行列の要素.)}\end{figure}「TはVだ」を比喩文として読むとき,その比喩的な意味を理解するために重要な属性は,TとVの両方が共通にもっており,典型的な性質を表す顕現性も高いと考えられる.SD法の実験結果で言えば,TとVの評定値分布が類似しているほど共通性が高い属性であると考えられ,また,TとVの平均評定値の絶対値が大きいほど顕現性が高い属性であると考えられる.この共通性と顕現性を同時に扱えるように,以下の定式化を行う.この計算モデルは,コンピュータによる文章の要約においても用いられているが\cite{Hasida1987},比喩的な意味を説明するのに重要な属性が備えていると考えられる共通性や顕現性を線形の式でわかりやすく表現することが可能である.\begin{eqnarray}\mbox{\boldmath$x$}(t+1)&=&A\ast\mbox{\boldmath$x$}(t)+\mbox{\boldmath$c$}\hspace{0.3cm}(t=0,1,2,\cdot\cdot\cdot)\\\mbox{\boldmath$x$}(0)&=&\mbox{\boldmath$c$}\end{eqnarray}\noindent上式において,属性の束に関係する要素について見るとき,定常入力であるベクトル\hspace{0.1cm}\mbox{\boldmath$c$}\hspace{0.1cm}が共通性の高さを表し,遷移行列である$A$が顕現性の高さを表している.また,\hspace{0.1cm}$\mbox{\boldmath$x$}(t)$は,時刻$t$におけるベクトル$(f_1,f_2,\cdot\cdot\cdot,f_m,T,V)$の活性値を表す.$f_i$\hspace{0.1cm}$(i=1,2,\cdot\cdot\cdot,m)$の活性値が大きいほど,その属性が比喩文「TはVだ」の理解のために重要であると考えられる.\subsection{システムへの定常入力{\bf$c$}の決定}$m+2$個の要素を持つ定常入力\hspace{0.1cm}$\mbox{\boldmath$c$}$の\hspace{0.1cm}$i$番目\hspace{0.1cm}$(i=1,2,\cdot\cdot\cdot,m)$の要素$c_i$には,SD法の実験における$f_i$に関するTとVの評定値分布の類似度が反映される.$c_i$は,次のようにして決定する.\newcommand{\namelistlabel}[1]{}\newenvironment{namelist}[1]{}{}\hspace{1cm}\begin{namelist}{x}\item[\hspace{0.3cm}1.]$f_i$\hspace{0.1cm}に関するTとVの分布の差の二乗和を計算する.ここで,分布の差とは,$-3$〜$+3$の評定値についての相対頻度の差のことを言い,相対頻度は,「全く当てはまらない」と評定した被験者も含む全被験者に対するものとする.\item[\hspace{0.3cm}2.]1.の結果の値に対し,逆数をとる.これによって,TとVの分布が類似しているほど値が大きくなる.\end{namelist}\begin{table}[h]\caption{T(被喩辞)とV(喩辞)の相対頻度}\label{tbl:hyo4}\begin{center}\begin{tabular}{l|ccccccccc}\hline&\multicolumn{7}{c}{$f_i$}\\\cline{2-10}&$-3$&$-2$&$-1$&$0$&$+1$&$+2$&$+3$&全く当てはまらない&合計\\\hlineT&$y_{-3,i}$&$y_{-2,i}$&$y_{-1,i}$&$y_{0,i}$&$y_{+1,i}$&$y_{+2,i}$&$y_{+3,i}$&$y_{not,i}$&1\\V&$z_{-3,i}$&$z_{-2,i}$&$z_{-1,i}$&$z_{0,i}$&$z_{+1,i}$&$z_{+2,i}$&$z_{+3,i}$&$z_{not,i}$&1\\\hline\end{tabular}\end{center}\end{table}\noindent例えば,$f_i$に関するTとVの相対頻度が表4のようになっている場合には,\[c_i=\frac{1}{\sum_{k=-3}^{+3}(y_{k,i}-z_{k,i})^2}\hspace{0.4cm}(i=1,2,\cdot\cdot\cdot,m)\]\noindentとなる.もしTとVが全く同一の場合には,分母が0となるが,それは「TはTだ」のような同語反復の比喩文の場合に相当する.しかし本研究では,同語反復の比喩文は扱わないことにする.また,実際に,多数の属性の束を用いた実験を行うと,異なる概念に対し,少なくとも一つの属性については評定結果が異なると考えられるので,分母が0になることは実際問題として想定していない.以上,1.,2.のようにして,$c_1$〜$c_m$を求めることができる.そして,それらの二乗和で上の2.の結果の値を割ったものを,改めて$c_i$とする.これよって,$c_1$〜$c_m$の$m$個の要素\mbox{をもつベク}トルの長さが1になる.したがって,$\mbox{\boldmath$c$}$\hspace{0.1cm}の$1$〜$m$番目の要素は,すべて1以下となる.$\mbox{\boldmath$c$}$\hspace{0.1cm}の$m+1$番目と$m+2$番目の要素は,TとVが$f_i$へ大きな影響を及ぼすと考えて,ともに1よりも大きい値とする.これらの値は,$\mbox{\boldmath$c$}$\hspace{0.1cm}の$1$〜$m$番目の要素の値に比べて十分に大きければよいのであるが,ここでは,すべての属性に関する平均評定値の絶対値の総和で概念TとVの重みを表すものとし,次のように設定した.すなわち,$f_i(i=1,2,\cdot\cdot\cdot,m)$に対するTの平均評定値とVの平均評定値をそれぞれ$M_{T,i}$,$M_{V,i}$とするとき(ただし,「全く当てはまらない」に対する評定値は0として計算する),$c_{m+1}={\sum_{i=1}^m|M_{T,i}|}$,$c_{m+2}={\sum_{i=1}^m|M_{V,i}|}$とした.\vspace{-3mm}\subsection{遷移行列$A$の決定}$(m+2)\times(m+2)$の遷移行列$A$には,SD法実験のTとVに関する平均評定値の符号の一致不一致と平均評定値の絶対値の大きさ,そして「全く当てはまらない」に対する相対頻度の高さが反映される.$A$の要素は次のようにして決定する.\hspace{1cm}\begin{namelist}{x}\vspace{-3mm}\item[\hspace{0.3cm}1.]「TはVだ」が与えられたとき,まず$f_i\hspace{0.1cm}(i=1,2,\cdot\cdot\cdot,m)$に対するTの平均評定値$M_{T,i}$とVの平均評定値$M_{V,i}$を求める.ただし,「全く当てはまらない」に対する評定値は0とする.\begin{namelist}{xx}\item[\hspace{0.3cm}(a)]$M_{T,i}$と$M_{V,i}$が同符号である場合には,\hspace{0.3cm}$a_{i,m+1}=a_{m+1,i}=|M_{T,i}|$,$a_{i,m+2}=a_{m+2,i}=|M_{V,i}|$とする.\item[\hspace{0.3cm}(b)]$M_{T,i}$と$M_{V,i}$が異符号である場合には,\hspace{0.3cm}$a_{i,m+1}=a_{m+1,i}=0$,$a_{i,m+2}=a_{m+2,i}=0$とする.\end{namelist}\item[\hspace{0.3cm}2.]評定値分布で「全く当てはまらない」の相対頻度が高い場合は,概念の属性として不適当であると考えられる.そこで例えば,表4において,$y_{not,i}>0.3$,または$z_{not,i}>0.3$の場合にも,$a_{i,m+1}=a_{m+1,i}=0$,$a_{i,m+2}=a_{m+2,i}=0$とする.\item[\hspace{0.3cm}3.]図3において属性を表すノード$f_i\hspace{0.1cm}(i=1,2,\cdot\cdot\cdot,m)$は,$T$や$V$との関係があり,それらの影響を受けることになるが,属性間では互いに独立である.すなわち,$T$および$V$の影響による$f_i$の活性値の変化に重点を置くため,属性間相互の関係をここでは特に考慮しないことにする.そこで,$f_i$と$f_j\hspace{0.1cm}(ただし,i{\ne}j)$が互いに結合していないことから,\hspace{0.1cm}$a_{i,j}=0\hspace{0.1cm}(i{\ne}j;\hspace{0.1cm}i,j=1,2,\cdot\cdot\cdot,m)$とする.また,2つのノード$T$と$V$も互いに結合していないので\hspace{0.1cm}$a_{m+1,m+2}=a_{m+2,m+1}=0$とする.\item[\hspace{0.3cm}4.]自分自身との結合があると考え,対角成分をすべて1にする.\end{namelist}\noindentこのようにして要素を決めると,以下のような行列ができる.\vspace{0.2cm}\newfont{\bg}{cmr10scaled\magstep4}\newcommand{\bigzerol}{}\newcommand{\bigzerou}{}\hspace{2cm}$M_{T,i}$と$M_{V,i}$\hspace{0.1cm}$(i=1,2,\cdot\cdot\cdot,m)$が同符号の場合の$A$:\[\hspace{-0.8cm}\left(\begin{array}{cccccc|cc}1&&&&&\bigzerou&&\\&1&&&&&&\\&&\ddots&&&&\vdots&\vdots\\&&&1&&&\left|M_{T,i}\right|&\left|M_{V,i}\right|\\&&&&\ddots&&\vdots&\vdots\\\bigzerol&&&&&1&&\\\hline&&\cdots&\left|M_{T,i}\right|&\cdots&&1&0\\&&\cdots&\left|M_{V,i}\right|&\cdots&&0&1\end{array}\right)\]\vspace{0.2cm}\noindentただし,$M_{T,i}$と$M_{V,i}$が異符号の場合は,$M_{T,i}$と$M_{V,i}$の両方とも$0$とする.また,表4で,$y_{not,i}>0.3$,または$z_{not,i}>0.3$の場合にも,$M_{T,i}$と$M_{V,i}$の両方とも$0$にする.そして最後に,収束のために行列を正規化する.具体的には,行和の最大値ですべての要素を割って,行和の最大値を1に正規化する.以下,4.1節の計算式(1)(2)に従って反復計算し,\mbox{\boldmath$x$}\hspace{0.1cm}が収束したときの$f_1$〜$f_m$の\mbox{活性値を調}べる.そして,その両極概念対に関する平均評定値の符号から,比喩理解のために重要な属性となる状態概念を発見する.
\section{実行例}
SD法実験のデータがあれば,COFFSによって多数の比喩文を扱うことができる.概念の個数を$N$とすると,被喩辞と喩辞になる概念の並べ方は$N(N-1)$通りある(ただし,同語反復の場合を除く)が,その中には,比喩的にだけでなく字義通りにも解釈可能な文や,比喩的にも字義通りにも解釈が困難な文も含まれる.比喩的であるか字義通りであるかの識別は重要な問題であるが,文脈を考慮して行うのが適切であると考えられるため,本論文ではその問題に触れず,例文はすべて単文で比喩的な表現であるとみなす.3.2節で述べたように,実際には10個の概念に対してSD法の実験を行ったので,被喩辞と喩辞になる概念の並べ方は90通りあるが,そのうち著者らが比喩文として理解が容易であると考えた20通りを実行例としてあげる.\subsection{評定値分布}第一の例文として「風船は流れ星だ」という比喩文をとりあげ,その実行結果について説明する.この場合,被喩辞T(Topic)が「風船」で,喩辞V(Vehicle)が「流れ星」である.まず,SD法の実験(被験者は大学生22人)の評定値分布をもとに,表3に示されている36個の両極概念対$f_i(i=1,2,\cdot\cdot\cdot,36)$に対してTとVの分布の差を$-$3〜$+$3の各評定値についてとり,その二乗和の逆数を計算してベクトルの大きさが1になるようにする.この値が大きいほど評定値分布の形状が類似しているといえる.図4には,COFFSによる処理を行う前の「風船」と「流れ星」に対する形状が最も類似している両極概念対「愚かな−賢い」に関する評定値分布が示されている.図4を見ると,確かに形状は類似しているが,相対頻度の値が最大で0.2以下であり,かなり小さいことがわかる.どの評定値についても相対頻度が低いということは,被験者の多くが,「風船」と「流れ星」のどちらの概念に対しても「愚かな−賢い」という評定尺度は「全く当てはまらない」と評定したことを示している.また,左右どちらにも歪んでいない分布であるので,顕現性は低い.\begin{figure}[t]\begin{center}\epsfile{file=fig/37.eps,height=72mm}\end{center}\caption{比喩文「風船は流れ星だ」に関する両極概念対「愚かな−賢い」の評定値分布}\end{figure}\begin{figure}[t]\begin{center}\epsfile{file=fig/38_ue.eps,height=78mm}\end{center}\vspace*{-1mm}\caption{「風船は流れ星だ」に関する活性値の変化(4.1節の式(1)(2)を参照)}\begin{center}\epsfile{file=fig/38_sita.eps,height=72mm}\end{center}\vspace*{-1mm}\caption{「風船は流れ星だ」に関する「きれいな−汚い」の評定値分布}\vspace*{-0.5mm}\end{figure}\subsection{COFFSの実行}次に,顕現性を反映させるために,SD法の実験における平均評定値を用いて作った遷移行列$A$を用いて,4.1節の(1)(2)式による反復計算を行った.図5には,「風船は流れ星だ」について,すべてのノードの活性値が収束するまでの活性値の変化が示されている.ここで,f2,\hspace{0.1cm}f9などの番号は,表3に示されている両極概念対の番号と一致している.収束後の活性値を調べると,36個の概念対の中で「きれいな−汚い」という概念対の活性値が6.52で最も大きかった.そして平均評定値の符号から「きれいな」が最も顕現性の高い属性であるという結果を得た.図6に,「きれいな−汚い」についての「風船」と「流れ星」の評定値分布を示す.これを図4と比較すると,片側(「きれいな」の方)に分布の山があり,しかも相対頻度が高いことがわかる.これによって「きれいな」の顕現性が高いことが示されている.表5には,「風船は流れ星だ」における上位5個の属性(概念対)のノードの活性値,およびTとVの活性値が示されている.上位5個の概念対について平均評定値の符号を調べることにより,下線の付された「きれいな・美しい・高い・夢のある・丸い」が比喩理解のために重要な属性として得られる.なお,Tの初期値36.78とVの初期値40.96は,それぞれ「風船」と「流れ星」に対し,すべての属性に関する平均評定値の絶対値の総和を計算したものである.COFFSによって発見された上位5個の属性に関するSD法の評定値分析結果を,表6と表7に示す.表6を見ると,評定値の片側(分布の山がある方)の相対頻度の和が,TとVに対して共に大きな値になっていることがわかる.これによって,TとVの評定値分布の山が高く,しかも共通の側に存在する属性であり,TとV共に「全く当てはまらない」の相対頻度が非常に低い属性であることが示される.また表7を見ると,Tの平均評定値の絶対値\(\vert\bar{T}\vert\)とVの平均評定値の絶対値\(\vert\bar{V}\vert\)の平均値が大きな値になっていることがわかる.これによって,TとVを組み合わせた場合の顕現性が高い属性であることが示される.\begin{table}[tb]\caption{収束後のノードの活性値}\label{tbl:hyo5}\begin{center}\begin{footnotesize}\begin{tabular}{|l|rlll|c|c|c|}\hline比喩文&&fの上位ノード&&&fの活性値&Tの活性値&Vの活性値\\\hlineS1「風船は流れ星だ」&f2&\underline{きれいな}&$\longleftrightarrow$&汚い&6.52&41.54&46.97\\&f9&\underline{美しい}&$\longleftrightarrow$&醜い&6.32&&\\\hspace{0.8cm}T:\hspace{0.1cm}「風船」&f17&\underline{高い}&$\longleftrightarrow$&低い&5.71&(初期値:&(初期値:\\\hspace{0.8cm}V:\hspace{0.1cm}「流れ星」&f30&ありふれた&$\longleftrightarrow$&\underline{夢のある}&5.62&36.78)&40.96)\\&f4&四角い&$\longleftrightarrow$&\underline{丸い}&5.19&&\\\hline\end{tabular}\end{footnotesize}\end{center}\end{table}\begin{table}[tb]\caption{選択された属性に関する評定値の相対頻度の和}\label{tbl:hyo6}\begin{center}\begin{small}\begin{tabular}{|l|llr|c|}\hline&&&&Tに対する(Vに対する)\\比喩文&&選択された属性&&max{評定値\(+3\)〜0の相対頻度の和,\\&&&&\hspace{1cm}評定値\(-3\)〜0の相対頻度の和}\\\hlineS1「風船は流れ星だ」&1位&きれいな&(f2)&$-$側;\hspace{0.1cm}0.954\hspace{0.3cm}($-$側;\hspace{0.1cm}0.954)\\&2位&美しい&(f9)&$-$側;\hspace{0.1cm}1.000\hspace{0.3cm}($-$側;\hspace{0.1cm}0.954)\\\hspace{0.8cm}T:\hspace{0.1cm}「風船」&3位&高い&(f17)&$-$側;\hspace{0.1cm}0.818\hspace{0.3cm}($-$側;\hspace{0.1cm}0.863)\\\hspace{0.8cm}V:\hspace{0.1cm}「流れ星」&4位&夢のある&(f30)&$+$側;\hspace{0.1cm}0.863\hspace{0.3cm}($+$側;\hspace{0.1cm}1.000)\\&5位&丸い&(f4)&$+$側;\hspace{0.1cm}1.000\hspace{0.3cm}($+$側;\hspace{0.1cm}0.665)\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{table}[tb]\caption{選択された属性に関する平均評定値の絶対値}\label{tbl:hyo7}\begin{center}\begin{small}\begin{tabular}{|l|llr|c|c|c|}\hline&&&&&&\\比喩文&&選択された属性&&\(\vert\bar{T}\vert\)&\(\vert\bar{V}\vert\)&\(\vert\bar{T}\vert\)と\(\vert\bar{V}\vert\)の平均値\\\hlineS1「風船は流れ星だ」&1位&きれいな&(f2)&1.95&2.73&2.34\\&2位&美しい&(f9)&1.77&2.50&2.14\\\hspace{0.8cm}T:\hspace{0.1cm}「風船」&3位&高い&(f17)&1.14&2.55&1.85\\\hspace{0.8cm}V:\hspace{0.1cm}「流れ星」&4位&夢のある&(f30)&1.05&2.55&1.80\\&5位&丸い&(f4)&1.18&1.91&1.55\\\hline\end{tabular}\end{small}\end{center}\end{table}\begin{table}[tb]\caption{活性値の大きい上位5個より選択された属性}\label{tbl:hyo8}\begin{center}\begin{small}\hspace{-0.3cm}\begin{tabular}{|rl|lllll|}\hline&比喩文&1位&2位&3位&4位&5位\\\hline\hlineS1&「風船は流れ星だ」&きれいな&美しい&高い&夢のある&丸い\\\hlineS2&「風は流れ星だ」&神秘的&速い&美しい&きれいな&かっこいい\\\hlineS3&「風は風船だ」&軽い&ふわふわした&きれいな&美しい&柔らかい\\\hlineS4&「風は冷蔵庫だ」&冷たい&役に立つ&寒い&涼しい&ありがたい\\\hlineS5&「風は鏡だ」&役に立つ&透き通った&きれいな&大切な&冷たい\\\hlineS6&「湖は冷蔵庫だ」&冷たい&ありがたい&涼しい&寒い&大切な\\\hlineS7&「湖は部屋だ」&静かな&大切な&美しい&ありがたい&必要不可欠な\\\hlineS8&「湖は流れ星だ」&美しい&神秘的&静かな&きれいな&夢のある\\\hlineS9&「湖は風だ」&神秘的&美しい&透き通った&冷たい&涼しい\\\hlineS10&「湖は風船だ」&丸い&美しい&静かな&きれいな&透き通った\\\hlineS11&「湖は鏡だ」&きれいな&平らな&静かな&美しい&冷たい\\\hlineS12&「チーターは番犬だ」&強い&速い&鋭い&かっこいい&賢い\\\hlineS13&「チーターは湖だ」&美しい&静かな&神秘的&きれいな&かっこいい\\\hlineS14&「チーターは流れ星だ」&速い&美しい&かっこいい&神秘的&鋭い\\\hlineS15&「チーターは風だ」&速い&かっこいい&独立的&美しい&軽い\\\hlineS16&「チーターは鬼だ」&強い&速い&恐い&独立的&鋭い\\\hlineS17&「鬼は流れ星だ」&神秘的&不思議な&夢のある&速い&強い\\\hlineS18&「鬼は湖だ」&大きい&神秘的&恐い&不思議な&夢のある\\\hlineS19&「流れ星は鏡だ」&きれいな&美しい&神秘的&ありがたい&静かな\\\hlineS20&「番犬は鬼だ」&強い&大きい&恐い&うるさい&重い\\\hline\end{tabular}\end{small}\end{center}\end{table}\subsection{実行結果の比較}このようにして20個の比喩文について実行した結果を表8に示す.なお,S9「湖は風だ」とS13「チーターは湖だ」は字義通りに読むことができ,それぞれ「湖に風が吹いている」「チーターは湖にいる」という解釈が可能であるが,ここでは比喩として読む場合を考える.「風船」「流れ星」「風」の3つを組み合わせて作った3つの比喩文S1「風船は流れ星だ」,S2「風は流れ星だ」,S3「風は風船だ」の結果を比較すると,上位2個はそれぞれ,S1「きれいな・美しい」,S2「神秘的・速い」,S3「軽い・ふわふわした」となっており,被喩辞Tと喩辞Vの組み合わせ方による実行結果の相違が現れているのがわかる.また,S6〜S11やS12〜S16を見ると,同じ被喩辞Tに対し,喩辞Vが異なると結果も異なるのがわかる.1位の属性についていえば,Tを「湖」とする場合,例えばVが「冷蔵庫」のときには「冷たい」が選択され,Vが「鏡」のときには「きれいな」が選択されている.同様に,Tを「チーター」とする場合,1位の属性として,例えばVが「流れ星」や「風」のときには「速い」が選択され,Vが「番犬」や「鬼」のときには「強い」が選択されている.一方,S1,S2,S8,S14,S17を見ると,同じ喩辞Vに対し,被喩辞Tが異なると結果も異なるのがわかる.1位の属性についていえば,Vを「流れ星」とする場合,例えばTが「湖」のときには「美しい」が選択され,Tが「チーター」のときには「速い」が選択されている.以上のように,COFFSでは,さまざまな概念の組み合わせによる比喩文に対して適用することが可能である.ただし,SD法の評定値分布にばらつきが多く,単独では中立的な概念を用いる場合には,適用することが難しい.その場合,別の処理方法を考える必要がある.
\section{おわりに}
本論文では,まず概念の属性に関する連想実験を行い,比喩文を構成する概念が持つ属性の束を両極概念対として表現した.そしてSD法の実験を行って,その実験結果とニューラルネットワークを組み合わせることにより,比喩文における二つの概念に共通の顕著な属性を自動的に抽出した.また,その手法を多様な概念の組み合わせに対して適用した例を示した.今後の課題としては,あらかじめ与える属性の集合をどのように構成するかという問題がある.これは,大規模なシステムに発展させようとするとき重要になってくる.また,SD法の評定値分布にばらつきが多い概念を用いた比喩文に関しては,文脈情報を取り入れるなどの別の手法で対処する必要があると考えられる.\medskip\acknowledgment本研究で行われた連想実験では,富士ゼロックス株式会社の大熊智子氏と慶應義塾大学政策・メディア研究科博士課程の岡本潤氏に大変お世話になりました.ここに深く感謝致します.また,心理実験で多くの協力を頂いた慶應義塾大学湘南藤沢キャンパスの学生の方々に感謝の意を表します.なお,本研究は文部省科研費一般研究B「言語の状況依存性の認知モデルと文脈理解システムの研究」の援助を受けて行われた.\bibliographystyle{jnlpbbl}\nocite{ImaiAndIshizaki1996}\nocite{Ishizaki1996}\nocite{SuwaAndIwayama1993}\bibliography{v06n5_02}\begin{biography}\biotitle{略歴}\bioauthor{今井豊}{1994年慶應義塾大学環境情報学部卒業.1996年同大学院政策・メディア研究科修士課程修了.現在,同博士課程在学中.}\bioauthor{石崎俊}{1970年東京大学工学部計数工学科卒,同助手を経て1972年通産省工業技術院電子技術総合研究所勤務,1985年推論システム研究室室長,自然言語研究室長を経て1992年から慶應義塾大学環境情報学部教授,1994年から政策メディア研究科教授兼任.自然言語処理,音声情報処理,認知科学などに興味を持つ.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N03-03
|
\section{はじめに}
\label{Introduction}2011年3月11日に起こった東日本大震災では,テレビ,ラジオなどの既存メディアが伝えきれなかった局所的な情報を,Twitterなどの個人が情報発信できるソーシャルメディアが補完する可能性を改めて知ることとなった.一方で,Twitter等で発信された大量の情報を効率的に把握する手段がなかったために,被災地からの切実な要望や貴重な情報が,政府,地方自治体,NPOなどの救援団体に必ずしも届かず,救援活動や復興支援が最大限の効率で進展しなかったという可能性も高い.我々が震災時のTwitterへの書き込み(tweet)を調査したところ,少なくとも救援者が何らかの対応をしたことを示すtweetが存在しない要請tweetも非常に多く存在した.さらには大量に飛び交うデマを含む情報に振り回された人も多く出た.こうした状況に対応するため,自然言語処理を用いてTwitter上の安否情報を整理することを目指した「ANPI\_NLP」の取り組みが行われたが,開発の速度や多数のボランティアを組織化するには課題があったことが報告されている\cite{Neubig2011}.実際に災害が発生してから,新たにTwitter等のソーシャルメディアに自然言語処理を適用し,情報を整理する技術を開発するのは非常に困難であろう.我々は,将来起きる災害に備えて,事前にそうした技術を開発しておくことが極めて重要であると考えている.また,我々が被災地で行ったヒアリングでは,現地からの要望とその支援とのミスマッチも明らかになっている.例えば,テレビや新聞などのマスメディアで伝えられた「被災地で防寒着が不足している」という情報に呼応して,多くの善意の人から防寒着の上着が大量に現地に送られたが,津波被害にあい泥水の中で復旧作業をする必要のあった人々がより切実に求めていたのは,防寒のズボンであった.別の例では,全国から支援物資として届けられた多くの衣類はどれも通常サイズのものばかりで,4Lサイズなどの大きな衣類が必要な人が一月以上も被災時の衣類を着続ける必要があった.これらは,大規模災害発生時に生じる被災者の要望の広範さや事前にそうした要望を予測しておくことの困難を示す事例と言えよう.さらに,本論文で提案するシステムで実際にtweetを分析したところ,被災地で不足しているものとして,「透析用器具」「向精神薬」「手話通訳」など平時ではなかなか予想が困難な物資が実際に不足している物品としてtweetされていることも判明している.こうしたいわば想定外の要望を拾い上げることができなれば,再度要望と支援のミスマッチを招くこととなる.以上が示唆することは,次回の大規模災害に備えて,ソーシャルメディア上の大量の情報を整理し,上述した想定外の要望も含めて,必要な情報を必要な人に把握が容易なフォーマットで届ける技術の開発を災害発生以前に行っておくことの重要性である.また,我々が備えるべき次の災害が,今回の震災と類似している保証はない.以上のような点に鑑みて,我々は想定外の質問も含め,多様な質問に対して,ソーシャルメディア上に書き込まれた膨大な情報から抽出された回答のリストを提示し,状況の俯瞰的把握を助けることができる質問応答システムが,災害時に有効であると考えている.ここで言う俯瞰的把握とは,災害時に発生する様々な事象に関して,それらを地理的,時間的,意味的観点から分類した上でそれらの全体像を把握することを言う.別の言い方をすれば,その事象がどのような地理的,時間的位置において発生しているのか,あるいはそもそもその事象がどのような事象であるのか,つまりどのような意味を持つ事象であるのか,等々の観点でそれら事象を分類し,また,それらを可能な限り網羅的,全体的に眺めわたし,把握するということである.このような俯瞰的把握によって,救援者サイドは,例えば,重大な被害が生じているにもかかわらず,炊き出し,救援物資の送付等が行われていないように見える地点を割り出し,なんらかの齟齬の確認や,救援チームの優先的割当を行うことが可能になる.あるいは各地において不足している物資を,例えば医薬品,衣類,食料といった観点で整理して,救援物資のロジスティクスを最適化するなどの処置も可能になる.さらに,こうした俯瞰的把握によって,上で述べたような想定外の事象の発見も可能になり,また,それらへの対処も容易になろう.逆に言えば,誰かがこうした俯瞰的把握をしていない限り,各種の救援活動は泥縄にならざるを得ず,また,想定外の事象に対してはシステマティックな対応をすることも困難となる.また,被災者自身も現在自分がいる地点の周辺で何がおきているか,あるいは周辺にどのようなリソースが存在し,また,存在しないかを全体として把握することにより,現地点にとどまるべきか,それとも思い切って遠くまで避難するかの判断が容易になる.避難に至るほど深刻な状況でなかったとしても,周辺地域での物資,サービスの提供の様子を全体として把握することで,物資,サービスを求めて短期的な探索を行うか否かの決断も容易になろう.我々の最終的な目標は,多様な質問に回答できるような質問応答システムを開発することによって,災害時に発生するtweet等のテキストデータが人手での処理が不可能な量となっても,そこに現れる多様で大量の事象を意味的観点から分類,抽出可能にし,さらに回答の地図上への表示や,回答に時間的な制約をかけることのできるインターフェースも合わせて提供することにより,以上のような俯瞰的把握を容易にすることである.本論文では,以上のような考察に基づき,質問応答を利用して,災害時に個人から発信される大量の情報,特に救援者や被災者が欲している情報をtweetから取得し,それらの人々の状況の俯瞰的把握を助ける対災害情報分析システムを提案する.将来的には本システムを一般公開し,被災地の状況や救援状況を俯瞰的に把握し,被災地からの想定外の要望をも取得し,効率的な救援活動につなげることを目指す.本論文では提案したシステムを実際に東日本大震災時に発信されたtweetに適用した評価実験の結果を示すが,この評価においては以上のような被災状況の俯瞰的把握を助ける能力を評価するため,質問応答の再現率に重点をおいた評価を行う.逆に言えば,いたずらに回答の上位の適合率を追うことはせず,再現率の比較的高いところでの評価に集中する.また,本システムを拡張することで,被災者と救援者の間でより適切な双方向のコミュニケーションが実現可能であることも示す.こうした双方向のコミュニケーションはより適切かつ効率的な救援活動のために極めて重要であると考えている.本論文で提案するようなシステムは非常に多くのモジュールからなり,その新規性を簡潔にまとめることは難しいが,本論文においては以下の手法・技術に関して我々のタスクにおける評価,検証を行った.特にCについては,新規な技術であると考えている.\begin{description}\item[A]固有表現認識(NER)の有効性\item[B]教師有り学習を用いた回答のランキング\item[C]含意関係認識における活性・不活性極性\cite{Hashimoto2012}の有用性\end{description}ここで,A,Bに関しては本論文における実験の目標ならびに設定では有効性は認められず,最終的なシステムではこれらの技術を採用しなかった.これらに関して現時点での我々の結論は以下の通りである.NERはそれ単体では,我々のタスクでは有効ではなく,その後の処理やそこで用いられる辞書等との整合性がとれて初めて有効になる可能性がある.また,回答のランキングは,我々の目標,つまり,少数の回答だけではなく,想定外も含めた回答を可能な限り網羅的に高精度で抽出することには少なくとも現状利用可能な量の学習データ,素性等では有効ではなかった.一方で,含意関係認識において活性・不活性極性を利用した場合,再現率が50%程度のレベルにおいて,適合率が7%程度上昇し,顕著な性能向上が見られたことから,提案手法にこれを含めている.本論文の構成は以下の通りである.まず,\ref{Disaster}節において本論文で提案する対災害情報分析システムの構成とその中で使われている質問応答技術について述べる.\ref{Experiments}節では,人手で作成した質問応答の正解データを用いたシステムの評価について報告する.\ref{Prospects}節にて上述した双方向のコミュニケーションの実現も含めて今後の本研究の展望を示す.さらに\ref{Related_work}節にて関連研究をまとめ,最後に\ref{Conclusion}節にて本論文の結論を述べる.
\section{質問応答に基づく対災害情報分析システム}
\label{Disaster}\subsection{システム構成}本システムは,「宮城県で孤立しているのはどこですか」,「福島県で何が不足しているか」など,自然言語の質問を入力とし,大規模なtweetコーパスからその回答と思われる表現を抽出し,ユーザに提示する.(なお,現在,システムはTwitterを主たる情報源としているが,掲示板や一般のWeb文書などにももちろん適用可能である.)図\ref{overview_fig}に示すように,システムはtweetから構文パターンを抽出しインデックスを作成する回答インデックス作成モジュールと,回答検索時に使用する含意パターンデータベースを作成する含意パターン獲得モジュール,作成されたインデックスを用いて回答を抽出する質問応答モジュール,ユーザから入力された質問に対する大量の回答を効果的に提示する入出力モジュールから成る.\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f1.eps}\end{center}\caption{対災害情報分析システムの概要}\label{overview_fig}\end{figure}各モジュールの動作の概要は次の通りである.回答インデックス作成モジュールでは,まずtweetを文単位で形態素解析,構文解析し,地名補完モジュールにて処理された構文解析結果から,詳細については後述するパターンや周辺名詞句を抽出し,これを回答インデックスに含める.含意パターン獲得モジュールは,大規模なWebコーパスを形態素解析,構文解析したデータから,含意関係にあるパターン(例えば,「XからYまで歩く」は「XからYまで移動する」を含意する)を自動的に抽出し,含意パターンデータベースを作成する.質問応答モジュールは,ユーザから入力された質問をインデックス作成モジュールと同様に形態素解析,構文解析を行い,質問文からパターンや周辺名詞句を取得する.次に,質問文に含まれるパターンを用いて,含意パターンデータベースを参照し,最大で数千個程度の含意パターンに拡張する.拡張されたパターンや周辺名詞句を用いて回答インデックスを検索し,回答を得る.入出力モジュールは,2種類ある表示モードの選択,質問文の入力フォームなどを備え,ユーザーから入力があるとそれを質問応答モジュールに渡す.質問応答モジュールから回答を受けとると,表示モードに応じてユーザに回答を表示する.以下では,これらのモジュールの各々について説明する.\subsection{回答インデックス作成モジュール}\label{making_index}回答インデックス作成モジュールは,大規模なtweetのデータを対象に,高速に質問応答を行うためのインデックスを作成するモジュールである.回答インデックスの作成には,ApacheJakartaProjectのもとで開発が進められているLucene\footnote{http://lucene.apache.org/core/}を利用する.以下ではこのインデックスを回答インデックスと呼び,その役割と作成手順,作成に際して注意が必要な地名の補完処理について説明する.\subsubsection{回答インデックスの作成}回答インデックスは,ユーザーから入力された質問文から生成したクエリを用いて高速に回答を取得するためのインデックスである.回答インデックスには,構文情報が充分に存在する文から抽出される情報を格納する回答インデックス1と構文情報が充分にない文から抽出される情報も格納の対象とする回答インデックス2の2種類がある.回答インデックスの作成手順として,まず,対象(tweet)を文単位で形態素解析,構文解析処理を行う.形態素解析にはMeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html辞書はJUMAN体系のものを使用.},構文解析には日本語係り受け解析器J.DepP\footnote{http://www.tkl.iis.u-tokyo.ac.jp/{\textasciitilde}ynaga/jdepp}を使用する.次に,回答インデックス1に格納するデータを作成するために構文解析結果における任意の名詞句2つとそれらをつなぐ文節係り受けのパスを構成する表層上の連鎖を取得する.例えば,「[宮城県の][炊き出し]」からは,「宮城県」と「炊き出し」という名詞句に係り受けのパスがあるので「宮城県の炊き出し」が取得される.一方,「[宮城県で][炊き出しが][行われる]」という結果からは,「宮城県」と「炊き出し」という名詞句の間に「行われる」という文節で媒介されるパスが存在するので「宮城県で炊き出しが行われる」が取得される.このパスを構成する2つの名詞句それぞれを変数で置き換えたものを構文パターン,あるいはパターンと呼び,また構文パターンとそれに含まれる変数に対応する名詞句2つの三つ組みをパターントリプルと呼ぶ.上記の「宮城県で炊き出しが行われる」という文からは,構文パターンとして「XでYが行われる」,変数X,Yに対応する2つの名詞句として「宮城県」と「炊き出し」の三つ組みがこの文から抽出されるパターントリプルとなる.またパターントリプルを含むtweet内の名詞句を全てを周辺名詞句として取得する.最終的に,回答インデックス1には,パターンとして「XでYが行われる」,変数に対応する名詞句としてそれぞれ「宮城県」「炊き出し」がキーに登録され,その値には変数に対応する名詞句と当該tweetのIDが格納される.回答インデックス2は,回答インデックス1に比べて,構文情報が不十分な文も対象とするために用いる.したがってこのインデックスを用いた回答の信頼性は高くないが,より広範な回答を得るために使用する.このインデックスでは構文パターンのかわりに部分パターンと呼ばれるパターンとその周辺名詞句をキーとする.構文パターンは,構文解析結果において二つの名詞句をつなぐパスから作られたが,部分パターンは名詞句一つと動詞,名詞,形容詞のいずれかへの係り受け関係から作られる.例えば,「宮城県です.透析用器具が足りません.」といったtweetからは任意の名詞句2つの間に係り受けが存在しないため,構文パターンを抽出することはできない.したがって,「透析用器具が足りない」という情報は回答インデックス1には反映されない.そこで,構文解析結果において「透析用器具」が助詞「が」を介して「足りません」へ係っているので,係り元の名詞句を変数として部分パターンを抽出する.この場合は「X(=透析用器具)が足りません」が抽出され,それと回答インデックス1同様に周辺名詞句である「宮城県」「状況」「透析用器具」とをキーとして,変数に対応する名詞句,すなわち「透析用器具」とtweetのIDとを値として回答インデックス2に登録する.以上2種類の回答インデックスのキーと値を表\ref{answer_index}にまとめる.回答インデックス1は上述したパターントリプルを用いて作成したインデックスであり,回答インデックス2は,パターントリプルが取得できないtweetにも対応することで,更に幅広い回答を取得するためのインデックスである.以下に,回答インデックスを用いて,どのように回答を取得するかを説明する.\begin{table}[b]\caption{回答インデックス}\label{answer_index}\input{03table01.txt}\end{table}回答インデックス1では,例えば,「震災後,宮城県で透析用器具が不足しています」というtweetからは,パターンとして「XでYが不足しています」,名詞句対(名詞句1,名詞句2)としてそれぞれ「宮城県」「透析用器具」,周辺名詞句として「震災後」「宮城県」「透析用器具」「不足」がキーに登録され,その値には変数に対応する名詞句と当該tweetのIDが格納される.このようなエントリは,例えば「宮城県で何が不足していますか?」といった質問の回答を取得する際に使われる.この場合,インデックス検索時のクエリは「XでYが不足しています」というパターンと,「宮城県」という名詞句1であり,検索の結果,上述したtweetの例から生成されるインデックスのエントリに値として登録されている名詞句2の「透析用器具」が回答として,tweetのIDとともに出力される.また,「どこで透析器具が不足していますか?」という質問であった場合には,「XでYが不足しています」というパターンと「透析用器具」という名詞句2を持つクエリが生成され,値に登録されている名詞句1の「宮城県」が回答として,tweetのIDとともに出力される.なお,上では周辺名詞句がキーとして登録されると説明したが,Luceneのインデックスのメカニズムでは,キーの一部を省略することが可能であり,例えば,上の質問の例では,パターントリプルを抽出してきたtweetにあった「震災後」という名詞句はクエリ中のキーとして現れないが,適切に検索が行われる.一方,回答インデックス2のエントリは,例えば,「宮城県で何が足りませんか?」という質問に対する回答を得るためにも使うことができる.質問中では,「宮城県」は「足りません」という動詞にかかっているが,この宮城県を周辺名詞句としてとらえ直し(回答が含まれるtweetとして「宮城県です.〜が足りません」のようなものもあると想定する),「何が足りませんか」という質問中の部分から「Xが足りません」という部分パターンを作成すると回答インデックス2を検索できる.本来であれば,先のtweetの解析時に照応解析等を行い,「透析器具が足りません」という文には「宮城県で」という表現が省略されていることを認識した上で処理を進めるべきであるが,そもそも照応解析等の精度が高くない現状に鑑み,照応,省略表現を一括して周辺名詞句として扱うことで柔軟な回答の抽出を狙っていることになる.なお,いずれのインデックスの作成時においても,retweetが入力として与えられた場合には,同一内容のretweetがあるかをチェックし,もし存在すれば1つのretweetのみを登録し,これと同一内容の複数あるretweetはインデックスには登録しない.一方ですべてのretweetのIDのリストは別途保存しておく.これはretweetの処理によって質問応答の処理時間がのびるのを防ぐための処理である.\subsubsection{地名補完モジュール}\label{Augment_place}地名補完モジュールは,回答インデックスの作成の際に,tweetなどのソーシャルメディアへの書き込みで省略されがちな地名や場所名を補完するモジュールである.地名補完モジュールでは大きく分けて次の二つの処理を行う.(1)まず,構文解析結果をその入力とし,地名補完の対象となるエンティティを認識する.(2)認識されたエンティティの詳細な住所情報を取得し,元のエンティティの周辺情報に基づいて後述する場所の包含性や,場所の非明示性の問題に対処する補完処理を行い構文木に適宜補完要素を挿入する.災害に関する情報では,効率的な救援活動などのため,位置情報や地名が極めて重要である.Twitterでは,携帯端末等GPS情報を付加できる装置からの書き込みの場合,位置情報の開示設定がされていれば,そのtweetが書き込まれた場所を特定できる.しかしながら,多くのユーザは,プライバシー等の問題から該当機能を有効にはしていない.災害時の要望等については,この機能を有効とすべきであるが,かならずしもすべての情報に位置情報が記述されている訳ではない.さらに,通信が不可能なほど壊滅的な被害が発生した場所から,通信が可能な地域に移動し,当該地域についてtweetする場合など,tweetがなされる位置とそのtweetが言及している位置が,一致しない場合もある.そのため,tweet内の地名を特定し,適切に処理することが重要である.しかしながら,地名の処理には以下のような問題があり,極めて難しい課題となっている.\begin{description}\item[場所の非明示性:]Twitterなどへの書き込みには,明示的に県や市の名称が書かれていないことが多い.さらには,tweetに限らず,一般的に,イベントが起きた場所を指す名詞句がイベントを表す動詞等に明示的には係らないことも多く,動詞で表されたイベントと地名を結びつけることはそれほど容易ではない.\item[場所の包含性:]場所には包含性がある.例えば,仙台市が宮城県の中にあることを正しく認識しても,それを処理する手だてがなければ,たとえ文中に「仙台市」と記述されていても,「宮城県で」と問う質問には回答できないということが起きる.\item[場所の曖昧性:]一部の地名は非常に大きな曖昧性を持ち,上記の包含性を扱おうとする場合に,特に問題となる.例えば,「福島」という地名は日本全国に50以上もあり,そこから正しい一つを選ぶ必要がある.\end{description}地名補完モジュールにて解決したい問題とほぼ同一の問題に取り組んでいるプロジェクトとしてGeoNLP\footnote{http://agora.ex.nii.ac.jp/GeoNLP/}がある.また,地名をはじめとする固有表現の認識という点では,近年Twitter等のソーシャルメディアに対する固有表現認識の難しさや,問題点が広く知られ,報告も多くなりつつある\cite{Liu2013,Ritter2011,Cheng2010}.Liuらはtweetを対象としてK-NearestNeighborsとConditionalRandomFieldsを組み合わせた新しい固有表現認識器を提案している.RitterらはLabledLDAにdistantsupervisionを適用することで高い性能を持つ固有表現認識器を実現している.また,Chengらは,tweetのみならずWebコーパスを用いた教師なし学習による固有表現認識器を提案している.前述した問題に完全に対応することは難しいが,現在のシステムは以下の手続きによって,地名とイベントとを対応付けている.具体的には,まず,現在入手可能なデータから大規模な地名・場所名辞書を自動生成し,さらに,地名等の包含性,曖昧性の一部をヒューリスティックスによって対処しつつ,回答インデックスに地名の情報を取り込んでいる.以下ではこの各々のステップについて説明する.\subsubsection{地名・場所名辞書の作成}地名補完の対象となるエンティティを特定するため,日本郵便が公開している郵便番号データとWikipediaに基づく上位下位関係\cite{Yamada2009}を利用して,地名・場所名辞書を作成した.まず,日本郵便が公開している郵便番号データを用いて地名辞書を作成した.郵便番号データからは,「都道府県/市区町村/町域」で表される住所の情報から,用いられる可能性がある地名文字列とその詳細な住所との対応を取り出す.地名文字列は「山元」のように断片的なものである場合が多いが,こうした対応づけを用いて,断片的な文字列から「宮城県亘理郡山元町」のようなより詳細な住所が入手可能となる.さらに,「都道府県/市区町村/町域」という住所の階層性は,先に挙げた場所の包含性に対処するための情報源となる.このようにして,2,486,545のエントリを持つ辞書(地名辞書)を作成した(地名文字列—住所の対の数は5,129,162).そのうち,84,633エントリが曖昧性をもつ地名であった.また,Twitterなどへの書き込みでは,住所のような地名の他に学校や施設,ランドマーク的名称の正式名称から通称までが幅広く用いられる.そこで,Wikipediaから抽出した上位下位関係\cite{Yamada2009}から,上位語として自治体をとり,「(自治体名)の(*X)」(Xは「施設」「学校」など)というパターンにマッチする下位語を取り出して利用した.例えば,「名取市の増田小学校」などである.これは,「学校」などの,郵便番号データには載っていないような場所にもその詳細な住所を対応づけるためである.上位語中の自治体名を,地名辞書で検索して下位語に住所を付与する.最終的に,255,273エントリを持つ場所辞書を作成した.地名辞書と場所辞書をマージすることで,2,741,818エントリを持つ辞書が得られる.地名辞書も場所辞書もほぼ全自動で作成しているため,それをそのまま文字列マッチによる単純な地名検出手法とともに適用した場合には,問題となる場合がある.例えば,「枝野官房長官」の名字と同じ「枝野」が宮城県の地名として使われている場合があるなど,地名には人名と同じものが多くあり周辺の情報から適切に処理される必要がある.また,高頻出な普通名詞をいずれかの辞書のエントリとして含んでおり,誤って地名処理される場合もある.そこで,このような問題となるエントリを可能な限りマージした辞書から人手で取り除いた.その結果,2,726,944エントリを持つ地名・場所名辞書が得られた.地名・場所名辞書は,地名補完モジュールの性能を決定する極めて重要な知識である.人工物に対する固有表現ほど新規エントリや,変更があるとは考えていないが継続的にメンテナンスされる必要がある.このような知識は,ひとたび整備されれば,その多くは長期にわたって利用可能であるためコストをかけ整備する価値があると考える.\subsubsection{地名・場所名特定}回答インデックスを作成するために形態素解析,構文解析がされた解析結果の各文節に対し,形態素をその単位として最長の名詞句を抽出し,地名・場所名辞書を用いて地名・場所名を特定し,当該名詞句に詳細な住所候補を付与する.その際,名詞句全体がマッチしない場合でも,その範囲内で最左のマッチを選び,できるだけ住所を付与する.なお,1文字の地名・場所名は誤ったマッチである可能性が大きいため,無視する.現在のシステムの地名・場所名の特定方法は,形態素を単位とする表層文字列が地名・場所名辞書に存在するか否かによって行うため,一般名詞等を誤って地名・場所名として扱う場合がある.そこで,地名・場所名の特定に関して,通常の固有表現認識器を用いることが考えられる.風間らの報告(風間,De~Saeger,鳥澤,後藤,Varga2012)\nocite{Kazama2012b}では,固有表現認識器の有効性が確認されておらず,我々の実験においてもその有効性を確認できなかったため,現在のシステムでは,固有表現認識器を用いていない.実験の詳細については,\ref{Experiments}節にて述べる.上記の問題以外にも,本システムでは,情報が無ければ最も広範囲な地域を表す住所,直前に曖昧性解消された住所がある場合には,それと最も整合性のある住所を選ぶルールに基づく曖昧性の解消を行っている.候補のうち,県・郡・市(郡部の場合は町)部分がtweet中の文字列と一致すれば,より広い地域レベルで文字列と一致しているものを優先する.例えば,「福島」の場合には,「福島県:福島市」,「大阪府:大阪市:福島区」等数多くの曖昧性があるが,最も広範囲な「福島県」が選択される.\subsubsection{地名補完処理と回答インデックスへの反映}本システムでは,「イベントの場所は文中で直前に出現した地名・場所である」という仮定を置き,元の文の構文解析結果を操作し,直前の地名・場所(tweetが複数文の場合は前方の文も考慮する)に場所を表す助詞「で」を加えたものを,イベントを表す動詞等に係るように付け加えた新たな構文解析(補完構文解析)結果を生成する.例えば,「気仙沼中学校へ避難しています」という文があった場合,「避難」イベントの場所は,直前の場所である「気仙沼中学校」と認識され,さらに地名・場所辞書により「気仙沼中学校→宮城県/気仙沼市」であると分かっているとすると,「宮城県で」,「気仙沼市で」などの助詞「で」で終わる複数の文節が元の構文木に挿入される.こうしてできた補完構文解析結果を利用することで,補完された場所に関連する質問に対応したインデックスが生成される.これにより,例えば,元の文には「宮城県」という表現が含まれていないにもかかわらず「宮城県でどこへ避難していますか」という質問に対し回答(=気仙沼中学校)できる.\subsection{含意パターン獲得モジュール}\label{extract_entailment}含意パターン獲得モジュールでは,大規模なコーパスから含意パターンを獲得し,それをデータベース化する.含意パターンとは,簡単に言うと,あるパターン「XからYまで移動する」を含意する「XからYまで歩く」のようなパターンのことであるが,含意が成立するための名詞句X,Yにある制約等を考慮するといくつか種類が考えられる.ここでは,クラス依存のパターン,クラス非依存のパターンと部分パターンという三種類の構文パターンの含意パターン獲得及びそのデータベース化について説明する.\subsubsection{クラス依存のパターン}クラス依存パターンとは,パターン中の変数に対応する名詞の意味クラスに制約を掛けた構文パターンである.構文パターンにクラス制約を掛けることでパターンの多義性が解消できる.例えば,「YのためのX」という構文パターンは「Y\underline{\mbox{:病名}}のためのX\underline{\mbox{:薬品}}」のように,Yが病名,Xが薬品の意味クラスの単語の場合は,XとYの治療関係とでも呼べる関係を表し,上記のパターン「X\underline{\mbox{:薬品}}でY\underline{\mbox{:病名}}が治る」の含意パターンとみなせるであろう.一方,「X\underline{\mbox{:作業}}のためのY\underline{\mbox{:道具}}」の場合は手段または道具という意味的関係を表現する.このようにして構文パターンと共起する単語を特定の意味クラスに限定することで,構文パターンの曖昧性が大きく減らされ,高頻度で曖昧なパターンが活用可能になり,より大量の回答を獲得できる\cite{De_Saeger2009}.意味クラスは,Kazamaら\cite{Kazama2008}が提案した単語クラスタリング法によって自動獲得する.この手法では大規模Webコーパスから得られる名詞と動詞の係り受け関係の統計データを用いて,名詞の隠れクラスへの事後確率の分布を求める.ある名詞の所属確率が0.2以上の隠れクラスを,その名詞の意味クラスとする.現状では名詞100万個を500クラスに分類したクラスタリングデータを用いる.クラス依存の含意パターンの認識にはKloetzerらが提案したクラス依存パターン間の教師付きの含意獲得手法\cite{Kloetzer2012}を用いる.詳細については\cite{Kloetzer2012}を参照されたいが,含意パターンを認識するSVM分類器は主に次の3種類の手がかりを用いる.\begin{enumerate}\itemパターンの表層的素性(表層/構造を考慮した素性).これらの素性は,表層上似ているパターンは含意関係にある可能性が高いという前提で,パターンに含まれる形態素,内容語,構文木の部分木などのbagofwords表現を基に計算した様々な類似尺度から成る.\item分布類似度に基づいた素性.ある構文パターンとその含意パターンの候補に関しては,6億ページの日本語Web文書からパターンの変数に当てはまる名詞句対を検出し,それらの名詞句対の相対的なオーバーラップを計算する.例えば,「XでYを提供」と「XでYを配っている」という2つのパターンはXとYの変数に頻出する共通の単語対(例えば,「石巻市,救援物資」)が多ければ多いほど,これらの構文パターンがお互いの言い換え表現となっている可能性が高いと考えられる.似た文脈に出現する語は似た意味をもつというのは,分布仮説\cite{Harris1954}と呼ばれる言語学におけるよく知られた仮説である.これらの素性はクラス依存のパターンの意味クラスに属する単語対に基づいて計算した類似尺度から成る.\item言語資源に基づいた素性.これらの素性は高度言語融合フォーラムALAGINで公開された動詞含意関係データベース(ALAGINリソースA-2),日本語異表記対データベース(ALAGINリソースA-7),基本的意味関係の事例ベース(ALAGINリソースA-9)と日本語形態素解析器JUMANの辞書から得られた異表記と反対語データを言語資源として参照し,両パターンに含まれる内容語が同義語あるいは異表記である場合,または含意関係や対義関係にある場合など,これらの言語資源に含まれる意味的関係にある時にその情報を素性に加える.更に,Hashimotoらが提案した「活性・不活性テンプレート」\cite{Hashimoto2012}も素性として用いる.この活性・不活性テンプレートについては後述する.\end{enumerate}学習データは51,900サンプルであり,SVMでの学習には2次の多項式カーネルを用いた.図\ref{entailment_recog}は,学習データとは異なる5,338の評価セットを用いて評価した本分類器から得られるクラス依存パターン含意の認識精度である.\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f2.eps}\end{center}\caption{構文パターン間の含意認識の適合率}\label{entailment_recog}\end{figure}図\ref{entailment_recog}から分かるように,上述した条件ではこの手法の上位1億対(データサンプル数49)では約85%の適合率を示し,上位2.37億にて約70%の適合率を保持している.本論文のシステムで利用される含意パターンデータベースは,後述する方法により質問文から得られる可能性のある構文パターンの含意パターンをSVMスコアが高いものにしぼって格納しているので,回答検索に用いる含意パターンの適合率は図\ref{entailment_recog}に示される上位の適合率に相当するものと考えられる.本システムで利用する含意パターンデータベースを構築するため,まず,\cite{Kloetzer2012}と同様に,500意味クラスの任意のペアのうちで,同じ名詞句対を異なり数で3つ以上共有するパターン対すべてを考える.こうしたパターン対の総数は108億個存在するが,そのすべてに対して,分類器を適用してSVMスコアを求める.ついで,SVMスコアが計算されたパターン対の内,以下の手続きで最終的な含意パターンデータベースを構築する.まず,上述のパターン対に含まれるパターンを「含意されるパターン」Pとして一つ選択し,SVMスコアが0以上のパターンを「含意するパターン」Qとしてスコア上位から順に取得する.「含意するパターン」Qが500個を超えた場合は,スコア上位500個のみを「含意されるパターン」Pと対にしてデータベースに格納する.この操作を108億個のパターン対に含まれるパターン各々を「含意されるパターン」Pと仮定して繰り返す.なお,上位500個という数値は決定的なものではなく,システムのパラメータのひとつであるが,求める性能と応答速度のトレードオフによって決まる.現在の500という数値は,さまざまな質問をシステムに投入し,経験的に決めたものである.\subsubsection{クラス非依存パターン}クラス依存のパターンでは,特定の意味クラスの組み合わせにふさわしい含意表現を発見しやすい.一方,なるべく広い文脈で含意表現として通用するパターンも回答抽出に利用したい.そのために,入力パターンとそのクラス依存の言い換えパターンの集合をクラス非依存の含意パターン,つまり名詞句に何らの意味的制約が加えられていないパターンで補完する.多くの意味クラス対で含意パターンとして通用するものは恐らく非常にロバストで一般的な言い換え表現であるという前提を基に,クラス依存パターン間の各意味クラス対でのSVMスコアを平均したパターン対のデータベースを用意する.あるパターンのクラス非依存の含意パターンは上記のクラス依存のケースと同様のアルゴリズムで選別する.例外処理として1つの意味クラス対としか共起しないパターンを除外する.さらに,「QがPを含意する」という関係におけるパターンQとパターンPにおいて,通常の「QがPを含意する」場合のスコアと,逆向きの「PがQを含意する」場合のスコアが両方向ともに0以上のパターン対のみに限定する.これは確かに片方向の論理的含意関係が成立しているものの,あまりに意味的にかけ離れているパターン対で回答を認識するのを防ぐためである.こうして集められた「含意するパターン」Qは,スコア上位500までの「含意されるパターン」Pと共にデータベースに格納される.得られたQが500個未満の場合には,その時点までに登録されたすべてのQと同じ内容語(動詞,名詞または形容詞)を持つPをスコアの高いものから順に取得し,データベースに登録する.\subsubsection{部分パターン}ソーシャルメディアから得られるテキストはインフォーマルな書き方で知られている.特にTwitterの場合では,tweetが140文字以内という制限があるので,必要最低限の情報しか含まないtweetが多い.そのため,二つの名詞句の存在を前提とするクラス依存パターンやクラス非依存パターンがうまく適用できない場合が非常に多い.この問題に対処するために上記のクラス非依存のパターンを一つの名詞句の存在を前提とする部分パターンに分割する.例えば,「XがYで孤立する」という構文パターンはそれを構成する係り受け関係「Xが孤立する」と「Yで孤立する」に分割される.部分パターンの含意パターンデータベースを次のように用意する.既に説明したクラス非依存パターンの含意データベースを入力とし,それらのパターン対を分割し,変数毎に部分含意パターンの候補ペアを生成する.例えば,(「XがYで孤立する」,「YではXに連絡できない」)というクラス非依存パターン対から(「Xが孤立する」,「Xに連絡できない」)と(「Yで孤立する」,「Yでは連絡できない」)という2つの部分パターン対を含意候補として生成する.この部分パターン対の含意スコアはクラス非依存の含意パターンと同様に,その生成元のクラス非依存の全含意パターン対のスコアの平均とする.ただし,生成元の含意パターン対が1つしかない部分含意パターンは一般性に欠けていると考え,除外する.さらに,クラス非依存パターンと同様に,「QがPを含意する」と「PがQを含意する」の両方向のスコアが0以上のパターン対のみをデータベースに登録する.\subsubsection{部分パターン対のクリーニング}以上の方法で作成した部分パターン対は,それがもたらされたクラス非依存パターン対のスコアを平均した値をスコアとして持っているが,パターンに含まれる用言相当表現と変数との関係を全く考慮していないため,信頼性を欠く場合がある.そこで,次の2つの方法で,部分パターン対をクリーニングする.\begin{itemize}\item活性・不活性極性\cite{Hashimoto2012}を用いて部分パターン対を構成する2つのパターンの極性が異なる部分パターン対は削除する.\item部分パターン対(P-Q)においてパターンを構成する動詞がPとQにおいて同一であるが,変数とその動詞を媒介する助詞が異なる部分パターン対は削除する.例えば,「Xが不足する」と「Xに不足する」などの部分パターン対である.ただし,助詞「は」と「が」の組み合わせは許容し,削除しない.\end{itemize}ここで,活性・不活性極性とは,Hashimotoらが提案した新しい意味極性であり,助詞と動詞の組,すなわち本論文で言うところの部分パターンに対して活性,不活性,中立の3つの極性が付与されている.活性極性が付与された部分パターンはそれを埋める名詞の主たる機能,効果,目的,役割,影響が準備あるいは活性化することを意味し,その典型例としては「Xを引き起こす」「Xを使う」「Xを買う」が挙げられる.不活性の部分パターンは逆にそれを埋める名詞の主たる機能,効果,目的,役割,影響が抑制あるいは不活性化されることを意味し,典型例は「Xを防ぐ」「Xが不足する」「Xを破壊する」などが挙げられる.中立の部分パターンは活性,不活性のいずれも付与できない意味的性質を持つものである.本研究で含意関係を持つものとして生成された部分パターン対には「Xが不足する」「Xが足りる」のように意味的には真逆であり,含意が成立していないものが多数含まれた.これは含意パターン認識で使われている分布類似度がこうした意味的差をとらえられないためであると考えられる.一方で,活性・不活性極性に従えば,「Xが不足する」は不活性,「Xが足りる」は活性であり,それらの差を見ることによって,意味的差異をとらえることができる.我々は,活性部分パターンを11,276個,不活性部分パターンを2,764個,中立部分パターン7,523個を人手でアノテーションしており,このデータを用いて,部分パターン対で極性が異なるものを削除した.以上のクリーニングによって,当初9,192,475個の部分パターン対から1,819,651個のパターン対が削除され,最終的に8,033,759個の部分パターン対がデータベースに格納された.なお,このうち,活性・不活性極性によるフィルタリングの結果除かれた部分パターン対は1,158,716個であった.\subsection{質問応答モジュール}質問応答モジュールは,ユーザが入力した質問文から回答集合を出力するまでの一連のモジュールで構成される.具体的には,質問文から構文パターンを抽出する質問文解析モジュールと,インデックスから回答を検索する回答検索モジュールから構成される.以下に各々の説明を述べる.\subsubsection{質問文解析モジュール}質問文解析モジュールでは,自然言語で入力された質問文の格助詞の変更や疑問代名詞の位置の入れ替えなどをルールベースで行う.これは,複数の質問構文パターンを用いてより多くの含意パターンを獲得し,幅広い回答を取得するための処理である.次に,ルールベースで言い換えられた質問文の構文解析結果から疑問代名詞以外の名詞句一つと疑問代名詞を特定し,その間の係り受け関係パス上にある表現から構文パターンを取得する.例えば,「宮城県で何が不足していますか」という質問が入力された場合,「X(=宮城県)でY(=何)が不足している」という基本的な構文パターンに加え,「YがXで不足している」(格要素の入れ替え),「YはXで不足している」「YがXでは不足している」「XでYは不足している」「XではYが不足している」(助詞の変換),「Xで不足しているY」(ガ格疑問代名詞の被連体修飾化)などの構文パターンが得られる.このようにして得られた構文パターンを用いて,後述する回答検索モジュールで回答インデックスを検索するクエリが生成される.例えば,「X(=宮城県)でY(=何)が不足している」からは,パターンに「XでYが不足している」,Xに対応する名詞句1に「宮城県」を指定したクエリと,部分パターンとして「Yが不足している」,周辺名詞に「宮城県」を指定したクエリが得られる.疑問代名詞以外に2つ以上の名詞句が含まれる場合は,疑問代名詞と名詞句一つとそれをつなぐ文節で表される複数のパターンを抽出する.例えば,「宮城県ではどこで携帯が充電できますか」が入力された場合,「X(=宮城県)ではY(=どこ)で充電できる」,「Y(=どこ)でX(=携帯)が充電できる」の構文パターンが取得される.この結果から,パターンに「XではYで充電できる」,Xに対応する名詞句1に「宮城県」,周辺名詞句に「携帯」が指定されたクエリと,パターンに「YでXが充電できる」,名詞句1に「携帯」,周辺名詞句に「宮城県」が指定されたクエリが生成される.同時に,部分パターンとして「Yで充電できる」,周辺名詞句に「宮城県」「携帯」が指定されたクエリも生成される.なお,クエリで指定される周辺名詞句は,質問文に含まれる全名詞句から,パターンや名詞句1に含まれる名詞句を除外し作成される.質問文解析モジュールでは,質問構文パターンの獲得のほか,疑問代名詞に助詞「は」とともに直接係る名詞がある場合,その名詞を主題語として取得する.例えば,「被災地で不足している食べ物は何ですか」という質問が入力された場合,名詞「食べ物」を主題語として取得する.この主題語は,得られた回答との分布類似度\cite{Kazama2008}により,回答候補を選別するための情報として利用される.例えば,「食べ物」に対して分布類似度が高い上位の名詞には,「お菓子」,「酒」,「魚」,「肉」,「ワイン」,「チョコレート」などの食べ物が含まれている.逆に食べ物と関連性の薄い「タオル」や「電化製品」の分布類似度は非常に低い.このように,主題語と回答候補との分布類似度は,質問の回答として相応しくない回答候補を除外する特徴として利用できる.\subsubsection{回答検索モジュール}最終的な回答の取得に際しては,質問文解析モジュールによって得られた複数の質問構文パターンから,\ref{extract_entailment}節で説明した含意パターンデータベースを引くことで質問構文パターンを含意する含意パターン集合が取得される.ついで,質問構文パターンと質問文中で共起する疑問代名詞以外の名詞句と含意パターン,質問文中の周辺名詞句などをキーとして回答インデックスが引かれ,回答と回答が抽出されたtweetのIDが得られる.より具体的に述べると,一つの質問から得られる複数個の質問構文パターンの各々につき,最大で1,500個の質問構文パターンの含意パターンが生成される.その内訳はそれぞれデータベースに格納されているクラス依存パターンが最大で500個,クラス非依存パターンが最大で500個,部分パターンが最大で500個となる.これらのパターンは質問文中に出現する名詞句と組み合わせて回答インデックスの検索に使われる.また,各々の回答インデックスは本論文の実験では数千万件レベルの大量のtweetをカバーしているため,如何にこの回答インデックスを引く操作を高速化するかが重要になる.現在のシステムでは,BloomFilter\cite{Bloom1970}を利用して,回答インデックスに共起がないパターンと名詞句の組み合わせから成るパターントリプルをメモリー上の操作のみで近似的に検出し,ディスクアクセスを伴う回答インデックスの検索回数を劇的に減らしており,これにより実用的な速度を得ている.これまでにも述べたとおり,二つの名詞句をつなぐ構文パターンと周辺名詞句をキーとする回答インデックス1は,質問文からパターントリプルが取得できた際に検索される.部分パターンをキーとする回答インデックス2は,二つの名詞句をつなぐ構文パターンが質問文から抽出されたときも含め,部分パターンが得られる場合すべてにおいて使用される.さらに,回答インデックス2に対して,パターンやその内容語を周辺名詞句として検索することで,パターンに直接係り受けがない回答も取得できる.また,部分パターンに含まれる内容語のみをとりだし,それを周辺名詞句として検索することも行う.これは例えば「何が不足しているか?」という質問に対して,「不足」のみを周辺名詞句として検索することに相当する.なお,抽出された回答にはストップワードフィルター,場所名フィルター,非場所名フィルターが適用される.ストップワードフィルターは,あらかじめ用意したストップワードリストに回答が含まれる場合にそれを回答リストから削除するものである.ここで使用しているストップワードリストは含意パターンデータベース構築の際に用いた6億ページのWeb文書から形態素態素解析器を使って自動的に認識された名詞句(複合語および単語)のうちで,明らかに解析ミスであり語として認められないものや非常に漠然としており明確な概念を指しているとは言えないもの(例:「皆さん」「双子以上」「その他」),さらには主として機能語的に利用される語(例:「理由」「モノ」)を人手で集めたものである.これは現在164,064個の名詞句を含んでいる.場所名フィルターは,疑問代名詞「どこ」を含む質問に関して,前述した地名・場所名辞書にある語を含む回答,前述した単語クラスタリングの結果から場所名をさす語を多く含む48クラスに含まれる語を含む回答,あらかじめ用意した`.*ホテル',`.*センター'などの場所名のためのパターン113個に合致する回答のいずれでもないものを回答リストから削除する.一方で疑問代名詞「何」を含む質問に関しては,非場所名フィルターを適用する.これは場所名フィルターを逆に用いて地名フィルターでは削除される回答のみを最終的な回答リストに含めるフィルターである.なお,回答が一文字の場合には,そもそも誤答である可能性が高く,また,後述する再現率の計算において問題になるため,そもそも回答リストに含めないこととした.\subsection{入出力モジュール}\label{input_output}入出力モジュールは,ユーザーから入力される質問を質問文解析モジュールに送信し,回答検索モジュールから出力される質問に対する複数の回答を提示する.本モジュールはWebブラウザーを用いたインターフェースを備えており,一連の操作はWebブラウザー上で操作できる.また,回答検索モジュールから出力される大量の回答の俯瞰的な把握を可能にするために,次に述べる2種類のモードで結果を表示する.ひとつは,回答結果を単語の意味クラス毎にまとめて表示するモードであり,もう一方は,場所を尋ねる質問に適した結果の表示方法として,地図上に回答を表示するモードである.以下で,それぞれについて説明する.\subsubsection{意味クラスを利用した回答表示モード(意味マップモード)}\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f3.eps}\end{center}\caption{意味マップモードでの実行例}\label{sem_map}\end{figure}意味クラスを利用した回答表示モードでの実行例を図\ref{sem_map}に示す.この回答表示モードでは,回答が意味クラスごとにまとめられ,異なる色で表示される.色には意味はなく,異なる意味クラスクラスタであることを示すのみである.意味クラスは\cite{Kazama2008}で計算されたものを用いるが,意味クラスの計算対象外であるような長い名詞句に対しては,部分マッチを適用するなどして対応する.この表示方法によって,回答を俯瞰的に把握することが可能となる.回答の文字列をクリックすると,回答を抽出してきた情報源(tweet)へのリンク,もしくは回答を抽出してきたtweetそのもの表示するウィンドウがポップアップし,回答が抽出されたtweetの内容を確認できる.また,画面下部にあるスライダーによって,情報抽出源のテキストの発信時刻による回答の限定が可能である.回答が抽出されたテキストの発信時刻は,一般のWebページを対象とする場合は特定が困難であるが,TwitterやSNS(SocialNetworkingService)であれば,その情報を発信した時刻を容易に特定できる.スライダーによって時間帯を指定すると,その時間帯に発信されたテキストから抽出された回答のみが表示される.特定の期間に発信されたテキストからの回答が欲しい場合や,古くなった情報を非表示にしたい場合などには,この機能を用いて必要とする期間に回答をフィルタリングできる.\subsubsection{地図上へ回答を表示するモード(googleマップモード)}回答を地図上へ表示するモードでの実行例を図\ref{google_map}に示す.この表示方法では,質問の回答となる場所の位置が地図上で表示される.例えば,「宮城県のどこで炊き出しをしていますか」という質問に対して,炊き出しが行われている地点が容易に把握できるようになる.この表示モードにおいて,質問応答サーバーから受け取る情報は,意味マップモードの場合と同一である.このモードでは,地図上に回答を表示するために,次のことを行う.\begin{enumerate}\item質問が場所を尋ねる質問(〜はどこですか,どこで〜できますかなど)の場合,回答は地名・場所名であることから,回答に対応する詳細な記述を後述する地名・場所名辞書から得る.\item(1)で得られた記述を使って,geocoding\footnote{https://developers.google.com/maps/documentation/geocoding/}を用いて住所やランドマーク名から緯度経度の獲得を行いgoogleマップに表示する.\item場所を尋ねる質問以外の場合,回答の情報抽出源一つ一つに対し,\ref{Augment_place}節で述べた地名補完処理で取得した地名の詳細な記述を得る.\item(3)で得られた記述を使ってgeocodingを行い,地図上に表示する.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{20-3ia3f4.eps}\end{center}\caption{googleマップモードでの実行例}\label{google_map}\end{figure}地図上に配置されたマーカーをクリックすると,対応する回答と,その回答が抽出されたtweetへのリンクが表示される.意味マップモード同様に,googleマップモードもスライダーによって情報抽出源の発信時刻による回答の限定が可能である.
\section{システムの評価実験}
\label{Experiments}本節では,ここまでで述べた方法を実装したシステムを評価する実験について述べる.システムが実際に運用される場面を想定したシステムの性能を評価することが望ましいが,本論文で提案するシステムは非常に多くのモジュールから構成され,その複雑性や,開発途上にあることを考慮して,システムの基本機能,すなわち質問応答に関して評価を行った.したがって,本論文での実験では入出力モジュールは,直接的にもシステムに組み込まれた形でも評価されていない.システムを評価するために用いたのは,2011年3月9日から同年4月4日までのtweetデータ(約2億2千万tweet,(株)ホットリンク提供)である.ただし,実験では,災害に関連する345個のキーワードによりフィルターした約5,400万のtweetを用いた.この全tweetから,システムが回答を取得するためのインデックスとして,約1億2千万エントリを持つ回答インデックス1と,約7億6千万エントリの回答インデックス2(部分パターン用)が生成された.また,提案システムの評価に加え,次の項目について実験を行った.(1)含意関係認識における活性・不活性極性の有用性を確認する実験.(2)固有表現認識器(NER)の有効性を確認する実験.(3)教師有り学習を用いた回答のランキングの有効性を確認する実験.このそれぞれについても本節で報告する.\subsection{実験の条件}災害時における膨大な情報を整理・分析し,全体的な把握を可能とする本システムでは,入力された質問に対して対象データにおいて目立った回答だけではなく,想定外も含めたロングテール部分に存在する被災者の要望や事実を回答として網羅的に取得する必要がある.そのため,その再現率が重要な評価指標である.本システムの性能を評価するためにこれまで我々が大規模に作成してきた評価セットを用いる\cite{Kawada2013}.この評価セットは,6名で予め作成した質問300問の各々について,質問に関連するキーワードでシステムが対象とするtweetを全文検索した結果をランダムに1,000件を取得し,その結果から人手で回答を抽出することができた192問とその正しい回答(以下,正答と呼び,その数は17,524個である)のセットである.評価セットの正答には質問とは表層的に大きく異なる表現で記載された表現から抽出されたものも多数含まれる.我々が用意した質問は回答が一意に求まるものではなく,ひとつの質問に対して複数の正解が存在する.また,この評価セットは単に質問と正答,つまり名詞句のペアをデータベース化しただけではなく,正答が抽出されたtweetも含んでいる.実験では,この評価セットを用いた.再現率は,評価セットに含まれる正答のうちいくつシステムが回答できたかで評価する.当然ながら,評価セットに含まれていないが,正解と判定される回答をシステムが出力することが考えられるが,それを考慮して再現率を計算すると,新たな正解が見つかる度に再現率がかわるため,評価セットに含まれる正答のみ考慮して再現率を求めた.一方,適合率は,システムの回答をランダムサンプルし,正解かどうかを人間が判定して求めた.表\ref{Q_example}に実験に利用した質問の一部を示す.\begin{table}[t]\caption{実験に利用した質問例}\label{Q_example}\input{03table02.txt}\end{table}\subsection{システムの質問応答性能}\label{Eval_QA}評価では,再現率を計算する際に,システムの回答が正答を部分文字列として含んでいるか,システムの回答が正答に部分文字列として含まれているいずれかの場合を正解とした.その結果,再現率0.519(9,099/17,524)が得られた.この部分文字列による照合では,正答かシステムの回答が一文字である場合に,多数の回答にマッチし,評価の精度が問題になる可能性があるが,前述したように提案システムは一文字からなる単語を回答として出力しない.また,評価セットの正答で一文字のものは全部で106個あったが,システムの出力でそれらにマッチしたものは67個であった.これはシステムの回答の4\%程度に相当する.しかし,これらすべてを回答から除外した場合の再現率は,0.519($=(9,099-67)/(17,524-106)$)と変わらず,この影響は小さいと考える.また,192の質問ごとに再現率を求め,その平均をとると0.428であった.これは,もともとの正答数が小さい質問において,再現率が0となってしまう場合が多い(192問中41問,そのうち回答数が0のものは32問)ためであり,このことから,逆に質問の正解が得られた場合の再現率は,この数値よりも大きい場合が多いことを期待できる.適合率に関しては,全回答から質問と回答のペア250個をランダムサンプルし3名の評価者で正解かどうかを調べ,その多数決により正解を決めた.評価者間の一致度合はKappa値\cite{Fleiss1971}が0.507であった.回答の評価に際しては,回答が抽出された元のtweetが非常に大量の場合があるが,ランダムに選択した最大3個のtweetから正解かどうかを判断した.評価の結果,250問の適合率は,0.608(152/250)となった.例えば,構文パターンを利用した質問では,「どこで風評被害が起きていますか」という質問の回答では,「YでX(=風評被害)が出ている」「X(=風評被害)がYで発生している」「Yで起きているX(=風評被害)」「X(=風評被害)がYで起こる」「X(=風評被害)がYで起きている」などのパターンにより回答を取得している.また,部分パターンを利用した質問では,「なにが汚染していますか」という質問で「Yが汚染されてしまう」「Yが汚染される」「Yの汚染」などのほか,「Yから検出される」「Yからは検出される」などの部分パターンが含意パターンデータベースから取得され利用された.これにより「4号機,正門,ヘリ」などのtweetに「汚染」を含んでいない回答も得ることができている.再現率を下げている要因の一つとしては,回答がまったく取得できない質問が32問あることがある.これらの多くは,質問文を構成する名詞句がtweetにおいて非常に低頻度であり,手掛かりとして役に立たない場合である.例えば,「専門職ボランティア」,「被災者相談窓口」,「被ばく相談」,「被災者就労支援」などの複合名詞や,「津波肺」「クラッシュ症候群」「誤嚥性肺炎」などの固有名である.これらは,該当する複合名詞や固有名が回答インデックスに存在しないか登録されていても非常に少数であった.対応策としては,「被災者相談窓口」を「被災者の相談窓口」とするなどの複合語の分割が有効であり,さらにサ変名詞を語尾にもつ「被ばく相談」「就学支援」のように複合名詞が「行う」「できる」「実施する」などに係る場合は,「被ばくを相談する」,「就学を支援する」などのより汎用的な表現に変換することが必要である.今後,複合語の構造解析手法などを取り入れ,より幅広い質問にも対応できるようにする予定である.また,適合率を評価した回答250についてより詳細に分析した.これらの回答がどういった処理によって抽出されるかを見るとまず,クラス依存,クラス非依存をふくめて「XがYで不足している」のように二つの変数を含むパターンによって得られた回答は全体の6\%(15個)であり,その適合率は0.933であった.また,「Yが不足している」のような部分パターンで抽出された回答は72%(180個)を占め,適合率は0.656であった.さらに部分パターンの内容語を抽出して得られた回答は22%(55個)であり適合率は0.364であった.期待されるように制約の強いパターンで取得されている回答は適合率が高いものの,変数を二つ含む複雑なパターンの適用例はきわめて少なかった.これは「どこが渋滞していますか?」のようなそもそも二つの変数を含むパターンが抽出できない比較的簡単な質問が我々の評価セットに多かったことも理由である.今後「宮城県のどこで渋滞していますか?」のようなより複雑な質問を評価セットに加えると,この制約が強いパターンが適用される割合も増加するものと考える.誤った回答が抽出された要因を見ていくと,もちろん,パターン間の含意の認識誤りも含まれてはいるが,むしろ目立つのは「水は不足していますか?」「水が不足したりして」「水は不足していません」などのように単純な肯定文以外の文から「Xが(は)不足する」のようなパターンが抽出されている場合である.これらの文をムード等の分析ルーチンを導入することによって除くことで最大で10%以上の適合率改善ができると予想している.一方で,「水は不足していますか?」のような質問や要望,「水が不足していたとしたら」のような仮定も,災害時において非常に有用な情報であり,個別に認識することは重要な課題だと考えている.また,地名補完処理の誤りによって,パターンやその内容語から離れた位置に出現する場所名が誤って回答として抽出されるケースがあった.これらは今後,省略,照応解析を導入することで改善していく予定である.\subsection{部分パターン対のクリーニングの効果}\ref{extract_entailment}節で述べた部分パターン間の含意関係のクリーニングが質問応答全体に及ぼす影響について評価を行った.部分パターン間の含意関係とは,例えば「Xが崩落する」「Xが崩壊する」の間に成立する含意関係である.\ref{extract_entailment}節で述べたように,このクリーニングにおいては,活性・不活性極性を用いたクリーニング(活性・不活性クリーニング),ならびに同一の動詞を含む部分パターン間で助詞のみが異なるものを削除するクリーニング(助詞クリーニング)の二種類を行った.まず,提案システムの再現率は0.519,適合率は0.608であったが,部分パターン間の含意関係に対して助詞クリーニングのみ適用し,活性・不活性クリーニングを適用しなかった場合の回答を,提案システムと同様に回答250サンプル(評価者3名による評価)を抽出し,評価したところ,表\ref{cleaning_effect}に示すとおり,再現率0.524,適合率が0.536となった.つまり,再現率は0.005とわずかに向上したが,適合率が0.072と大きく低下したことになる.さらに,活性・不活性クリーニング,助詞クリーニングの両方を適用しなかったときの性能は,再現率が0.533,適合率が0.448となり,やはり再現率がわずかに向上したものの適合率の大幅な低下が見られた.最終的にいっさいクリーニングを行わなかった場合と提案手法を比べると,再現率が0.014程度向上するのに対して,適合率は0.160と大幅に低下している.まとめると,部分パターン対のクリーニングは最終的な回答の質において非常に重要であるということが分かった.特に,一見含意関係とは関係の薄い,活性・不活性という意味極性がそのクリーニングにおいて重要な役割を果たすことが確認できた.\begin{table}[b]\caption{部分パターン対のクリーニングの効果}\label{cleaning_effect}\input{03table03.txt}\end{table}\subsection{固有表現認識器の効果}本研究での提案システムは地名補完モジュールにNERを使用しなかったが,それは以下の実験結果により,NERの有用性が本システムにおいて認められなかったからである.まず,IREX固有表現コーパス\cite{Sekine2000}においてLOCATIONタグのみを残し,これをNER学習データ1とした.次に,TwitterAPIを使用して,実験で用いるtweetとは異なる期間のtweet22万5千件を取得し,これに対し,災害関連のキーワード345個のいずれかを含む11万tweetに対して学習データ1から作成した既存のNERを適用し,LOCATIONタグを付与した.この結果のうち4万文を人手で修正し,これをNER学習データ2とした.これらのNER学習データ1ならびに2をあわせてNER構成用学習データとし,CRF++\footnote{http://crfpp.googlecode.com/svn/trunk/doc/index.html}を用いて形態素単位のNERを構成した.素性テンプレートはCRF++パッケージのサンプルとして含まれているものをそのまま利用した.このNERを評価するために,我々が対象としている5,400万のtweetから1,000tweet(3,017文)をランダムサンプルし,構成したNERを適用した.その結果を人手で修正し,評価用テストセットを作成した.この評価用テストセットの形態素数は約33,000であり,LOCATIONとされる名詞句は,521(866形態素)存在する.これを用いて構成したNERを評価したところ適合率は0.930,再現率は0.839であった.次に我々の質問応答システムで,地名補完モジュールにおける処理対象の特定にNERを組み入れた場合と,形態素単位の文字列によって直接辞書引きすることで特定する場合との違いがシステム全体の質問応答性能に与える影響を調べた.実験に使用したのは,部分パターン対のクリーニングを行う前のシステムであるが,NERの効果を調べるには問題がないと考える.表\ref{NER_effect}に示すとおり,実験結果は,NERを用いない場合が再現率0.533,適合率0.448であり,NERを用いた場合には再現率0.516,適合率0.392と再現率,適合率ともに低下した.この結果から,あるエンティティが地名・場所名辞書に存在しているにもかかわらず,NERがそれを特定できなかった場合や,逆にNERが地名補完モジュールでの処理対象を特定できても地名・場所名辞書に登録されていない場合などがあり,地名・場所名辞書を直接辞書引きしたほうが,より高い性能を発揮できたと考える.\begin{table}[b]\caption{固有表現認識器(NER)の効果}\label{NER_effect}\input{03table04.txt}\end{table}より具体的に,NERで特定されたものがどれだけ地名・場所名辞書を用いて地名補完処理されたかを見てみると次のようになった.NERはテストセットに521あるエンティティのうち,437(再現率0.839)相当を正しく特定できているが,このうち,地名補完処理の対象となったのは,わずか157個である.この数字が小さい理由は,現在の地名補完処理はシステムの持つ地名・場所名辞書にあるエントリしか処理対象としないからであり,さらにはNERの認識結果と地名・場所名辞書との食い違いが大きいからである.一方,地名補完モジュールにて行っている処理では,214個の地名・場所名を特定し,地名補完処理がなされた.もちろん,この地名補完処理がなされた地名・場所名には誤ったものも多数含まれていよう.もともとNERを導入した動機は,NERによって一般名詞や人名等を地名として誤認識することを防げるかもしれないということであった.つまり,地名補完処理対象認識の適合率の向上をねらったということである.おそらく,地名・場所名の誤認識がNERによって防がれたケースもあったものと推測されるが,そもそも地名補完処理が起動されないことのデメリットの方が大きく,最終的な質問回答の性能が低下したものと考える.もちろん,今後NERの認識結果を地名・場所名辞書に追加していくことによって,性能向上を見ることは可能かもしれない.しかしながら,そこで障害となるのはエンティティの基準と,地名補完処理において処理対象とするエンティティ,すなわち地名・場所名辞書のエントリの認定基準とが異なっていることである.例えば,NERの認識結果には外国の地名などあきらかに本タスクでは不要と思われるものも多数存在するし,複合名詞中,例えば「富士スピードウェイ」の「富士」が地名として認識されるといった問題も存在する.また,地名・場所名辞書では地名間の包含関係が情報として含まれているが,NERの認識結果にはそうしたものは含まれない.これらの問題をどう解決していくかが,今後の課題の一つとなる.まとめると,風間ら(風間他2012)の報告と同様に提案システムにおけるNERの効果は確認出来なかった.これをうけて,我々の提案システムではNERを使用していない.この理由は,現状の地名補完処理では,固有表現特定後に地名・場所名辞書にて詳細な地名情報を取得する必要があり,この辞書の網羅性等が性能に影響するためである.さらには,地元でだけ用いられる通称など考慮しなければならない点もあり,これらの問題点をいかに低コストで解決していくかも重要な点であると考えている.今後,自治体などの協力を得て,そうした通称や未登録の避難所をリストアップしていくなどの作業も必要であろう.したがって,システムの性能を向上させるためには,NERの認定基準と本タスクで必要とされる地名・場所名の認定基準との擦り合わせ,さらには地名・場所名辞書との整合性をとる自明でない作業が必要となる.\subsection{回答のランキング}本論文におけるシステムでは,ロングテールに存在する回答についてもすべて出力するという目的から,再現率を重視し,今まで述べてきた手法で発見できたすべての回答を出力している.一方で,自明な拡張は回答にランキングメカニズムを導入し,さらなる拡張を図ることである.本来,再現率を重視しつつ,ランキングを導入し,提案手法よりも高い性能を達成するためには,提案手法よりも公汎な回答を出力し,ランキングに基づいて回答の足切りを行うべきであるが,現状はそこまでの実験は行えていない.代わりに,提案システムが出力する回答全部を教師あり学習に基づいてランキングした結果について報告する.今回行った実験で使ったランキング手法は,回答とパターンに関する素性をもとに学習したSVMのスコアによりランキングを行うものである.表\ref{feature}に,SVMの学習に利用した素性を示す.\begin{table}[b]\caption{回答のランキングに使用する素性一覧}\label{feature}\input{03table05.txt}\end{table}まず,パターンの属性に基づく素性として,質問構文パターン,クラス依存パターン,クラス非依存パターン,部分パターンからのいずれのパターンで回答が得られたか,あるいは部分パターンと部分パターンの内容語によるキーワード検索を用いたかを示す2値の素性を用いる.これに加え,クラス依存パターン,クラス非依存パターン,部分パターンの各スコアを用いる.ある回答が複数の異なるパターンから得られた場合には,その全パターン数,パターンが回答を連体修飾していないどうか,全パターン数と回答を連体修飾していないパターンとの比率を利用する.また回答を抽出した含意パターンや部分パターンが,質問構文パターンと共通の漢字を持つかどうかも利用する.回答の属性に基づく素性では,まず,様々なパターンから得られた同じ回答の個数,その文字数及び形態素数を用いる.次に,回答の意味的な情報として,回答の意味クラス,その意味クラスを特定する際に部分文字列を用いたか,回答のクラスが未特定かどうかの2値の素性を用いる.また,回答を獲得したパターントリプルの構文パターンと2つの名詞句の意味クラスのPMI(相互情報量:Point-wiseMutualInformation),質問構文パターンと質問文中の名詞に基づく回答の意味クラスの尤度\cite{De_Saeger2009}を利用する.また質問文から得られる疑問代名詞と主題語を利用した素性として,疑問代名詞タイプ,回答が疑問代名詞の対応するクラスに属するかどうか,回答と主題語との分布類似度,回答が主題語の下位概念となるかどうか,回答の末尾に主題語を含むかどうかを用いる.上記の素性を用いて,線形,多項式(二次),放射基底関数(RBF,比例定数1)の各カーネルを用いてSVMの学習を行い,いずれのカーネル関数を用いるべきか検討した.学習データは,災害に関連の深い質問60問(これまでの評価で利用した質問とは別である)と,システムが出力した回答のペア合計5,044個に対して正解/不正解のラベルを付与したデータである.なお,このデータは提案システムの古いバージョン,つまり,場所名フィルターや部分パターン含意データベースのクリーニングを行っていないシステムの出力を含んでおり,現在の提案システムでは出力できない回答も含まれている.10分割交叉検定の結果,線形カーネルでF値0.642(適合率0.681,再現率0.607),多項式カーネルでF値0.631(適合率0.626,再現率0.634),RBFカーネルでF値0.529(適合率0.719,再現率0.419)が得られた.本システムではF値が最も高かった線形カーネルにより学習された分類器の出力するスコアを利用することを検討した.\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f5.eps}\end{center}\caption{回答のランキング結果}\label{recall_prec_pic}\end{figure}\ref{Eval_QA}節の実験にて利用した250個の回答サンプル(適合率0.608)を以上の分類器のスコアでランキングした結果が図\ref{recall_prec_pic}である.グラフの再現率は提案システムの出力すべてをSVMのスコアにしきい値をもうけて足切りを行い,足切りを生き延びた回答集合を17,254件の正解データに照らし合わせて計算されたものである.これによると,再現率が0.1前後のところでは適合率が0.90前後でており,きわめて高いものとなっている一方,システムの全回答の再現率0.508に近いところ,例えば,再現率0.4前後のところでは提案手法の適合率に比して,わずかな適合率の向上(0.05前後)しか見られず,また,もうすこし離れたデータポイント(例えば,再現率0.3前後のデータポイント)までの適合率の改善具合もきわめてなだらかである.この評価はあくまで現状のシステムの出力結果のみをランキングしているため,確定的なことは言えないが,前述したように学習データは現在のシステムが出力できない回答に関するものも含まれていないことも考え合わせると,仮に現在のシステムをより大量の回答を出力するように改変し,ランキングによる足切りをおこなったとしても,例えば,再現率0.5前後の部分での適合率向上はきわめて小さなものになる可能性が高いと考えられる.これは再現率を重視するという我々の立場とは相容れないものであり,提案システムにはランキング手法は導入しなかった.一つ今後システムを改善できる可能性があるとすれば,今後さらに学習データを増やしていくことが重要であるが,現在でも約5,000件という少なくない量の学習データを利用していること,また,次回の災害はおそらく東日本大震災とは大きく異なることが予想され,東日本大震災に特化した学習データを作ることは望ましくないと考えられることから,少なくともランキング手法の導入については慎重に検討する必要があると考えている.実際に大規模な災害が発生した後,アノテーションをクラウドソーシングなどで行い,質問応答の精度を高めるといったシナリオは魅力的に見えるかもしれない.しかし,そうしたシナリオを実現するためには,NERの場合と同様にシステム全体としての最適化の枠組みなどが必要だということかもしれず,これも慎重に検討する必要があると考えている.
\section{さらに行き届いた被災情報の活用を目指して}
\label{Prospects}本システムはインターネット経由で得られる情報を収集・分析し,ユーザからの質問に備える.図\ref{practicalimage}は,本システムを災害時にどのように運用するかを示したイメージ図である.各種救援団体,例えば,炊き出しを行うボランティア団体などは,自らの炊き出し実施場所を決めるためにどこで炊き出しを行っているかをシステムに質問し,そのすべての回答を地図上に表示することで,炊き出しが行われていないエリアを確認できる.一方,被災者など個人レベルで本システムを利用する場合には,自分の周辺の状況を把握し,意思決定の助けとするような使い方や,また把握した状況に基づき,自らの周辺状況や救援要請を発信するなどの使い方を考えている.このように,本システムは災害時において,ソーシャルメディア等に溢れる情報を整理し,救援団体や,自治体,被災者らに対して被災状況の全体的把握を容易にする情報をわかりやすく提示することで,被災者の救援・支援に有効である.\begin{figure}[t]\begin{center}\includegraphics{20-3ia3f6.eps}\end{center}\caption{災害時における提案システム運用イメージ}\label{practicalimage}\end{figure}一方で,災害時においては,通信状況等様々な制約から,回答のすべてを確認することが困難な状況も考えられる.そこで,重要と考えられる回答の一部を表示するために,結果をランキングできることが望ましいが,質問に対する一般的な回答の適切さのみならず,過去5分以内に挙げられた情報を求める場合のように情報の新鮮さを重視する場合や,回答の利用目的(見落としているかもしれないものにはやく気づきたい)などによっていくつかの基準が考えられる.時刻による限定は,現在機能として有しているが,ランキングの基準とあわせて今後利用者にとってさらに使いやすくすべきである.さらに,インターネット経由でつぎつぎに情報(テキスト)が流れ込んでくる状況においては,システムが大規模コーパスから獲得して利用している知識,例えば,意味クラス辞書や,含意パターンデータベースを拡張可能かもしれない.しかしながら,これらのデータベースは,一度,大規模なコーパスから獲得してしまえば,大部分のものは長く使えるものである.特に含意パターンデータベースは,名詞句が変数となっており,その経時的変化は非常にゆるやかであると考える.災害発生後にそれまで使っていたパターンとは全く異なるパターンで情報発信することは考えにくい.したがって,事前に大規模なコーパスから獲得した知識を用いていることによって損なわれる有用性は非常に限定されると考える.もちろん,オンライン学習等によって常時知識が更新されつづけるようシステムに拡張すべきであることは言うまでもない.本論文の冒頭で示唆したように,今回の震災時には被災者からのtweetが必ずしも救援者へ届いていないという問題があったようである.本システムは,被災地からの情報を全体的俯瞰的に把握することを可能とする.しかしながら,一度質問した内容でも,対応する情報は被災地の各地から質問後も不定期に投稿される可能性が高く,その情報は常に更新される.比較的落ち着いた時期になれば,定期的に分析システムを利用すればよいが,災害時に様々な対応が必要な自治体などの支援者側は思うようには反応することができないことが予想される.また,情報発信を行っている被災者サイドでも発信した情報が適切な救援者に届いているか否かが不明な状況では,例えばさらに遠くへ避難するか,それとも救助を待つかといった切迫した判断を行えないといった問題が生じえる.\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f7.eps}\end{center}\caption{被災者と救援者の双方向のコミュニケーション}\label{two-way-communication}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f8.eps}\end{center}\caption{掲示板上での動作例}\label{BBS-example}\end{figure}そこで,我々は,図\ref{two-way-communication}に示すように,本システムの回答インデックス作成モジュールを拡張し,予め救援者がシステムに登録した質問に対しては,以後のtweetや指定したBBS,掲示板に情報が発信された場合に,システムがその内容が登録済みの質問の回答となるかをリアルタイムで判断し,救援者サイドの情報のアップデートを行うとともに,情報提供者にも,質問を登録した救援者にその情報が届いたことが通知される枠組みを開発している.この処理により,図\ref{BBS-example}のように,情報提供者,被災者は自らの発信した情報が救援者に届いたことがわかりその後の意思決定が容易になるとともに,救援者側は欲している情報をリアルタイムで定常的に取得することができ,支援のスピードアップにつながると考えられる.こうした一連の操作は,一言で言えば,現状のマイクロブログ,SNS,掲示板等のいわば一方通行の情報提供から,被災者サイドと支援団体等救援者サイドの双方向のコミュニケーションを担保することとも言え,こうした操作によってよりスピーディかつ適切な救援,避難等が実現できるのではないかと考えている.こうした処理は,これまでに説明した質問応答の処理の方向を大幅に変更することなく実現できる.通常の質問応答処理では,パターントリプルもしくは部分パターンの形式でインデックスに登録されたtweetからの情報を,質問から取得したパターントリプル等を含むクエリにより検索するが,ここでは,あらかじめ登録された質問に対して,含意パターンなどの獲得を事前にやっておき,含意パターンも含むようなパターントリプル等をキー,質問を値とする別種のいわば質問のインデックスを作成しておく.例えば,「宮城県で不足しているのは何ですか?」といった質問が登録されているとするならば,「Xで足りないY」といった含意パターンや,「宮城県」といった名詞句を含むパターントリプルをキーとし,「宮城県で不足しているのは何ですか」という質問を値とするような質問のインデックスが作成される.掲示板等の記事やtweetが新規にシステムに渡されると,将来問われる質問にそなえてこれまでに説明してきた回答インデックスが作成されるが,その際,生成されるパターントリプルをキーとして,過去に登録された質問のインデックスを検索する.もしこの質問のインデックスの検索がヒットすれば,値となっている登録済み質問の回答をアップデートするとともに,対応する新規のtweet,記事等の作者に対して,登録された質問への回答として提供された情報が認識されたことを通知する.現状は,こうした枠組みをサーバー一台の上で動作させることができており,今後,大規模な計算機クラスタ上等で想定されるような大量の情報がやってきたときでもリアルタイムの処理が可能なシステムを開発していく予定である.\begin{figure}[t]\begin{center}\includegraphics{20-3ia3f9.eps}\end{center}\caption{「放射能に効くのは何ですか」という質問に対するシステム出力}\label{radiation_example}\end{figure}本システムのもう一つの応用としては,ソーシャルメディア上で流通している様々なデマの早期発見とエキスパートによる反論を支援するものが考えられる.例えば,図\ref{radiation_example}で「放射能に効くのは何ですか」という質問に対してのシステム出力を示す,「イソジン」,「わかめ」,「活性炭」など,デマと思われるものが大量に含まれる.このような質問も予めにシステムに登録することで,信頼性が低い情報あるいは有害情報が爆発的に拡散される前に,書き込まれた時点に認識され,デマが大量に拡散する以前にエキスパートによってデマを打ち消す情報をスピーディに発信することが可能となると考えられる.また,本システムが提示する回答にはそもそも大量のデマが含まれている可能性があるが,我々は本システムを東北大学で開発されている言論マップ(水野,Nicoles,渡邉,村上,松吉,大木,乾,松本2011)\nocite{Mizuno2011}と組み合わせることで回答を閲覧したユーザが回答のデマ性についてより適切な判断を下すことができるようになると考えており,実際に言論マップとの統合を計画している.現在の言論マップでは,例えば「イソジンは放射能に効く」という情報に対して,それを肯定している情報と否定している情報をソーシャルメディア上の情報から発見して提示することが可能である.こうした肯定的情報,否定的情報は通常のソーシャルメディアの閲覧環境では簡単に見つけることは難しいが,本システムに言論マップを組み合わせることで,回答には常に肯定的情報,否定的情報をあわせて表示することが可能となり,ユーザは疑わしい情報に関しては,こうした情報を参考にしつつその真偽を判断する材料とすることができる.
\section{関連研究}
\label{Related_work}近年では,検索エンジンや質問応答システムなど,情報へのアクセス手段の進歩が目覚ましい.例えば,質問応答システムとしてはIBM社のWatson\cite{Ferrucci2010}がクイズ番組の人間のチャンピオンに圧勝し一躍有名になった.Watsonは,Wikipediaを含む辞書,辞典や台本などJeopardyというクイズ番組の分野に関連する確かな知識を予め選別し,データベース化している.少なくとも我々の知る限り,情報のリアルタイム更新については想定していないため,逐次更新される災害時の情報などには対応していない.また,災害時に必要なのは,多数の情報を俯瞰的に閲覧することであるが,すくなくともJeopadyにおいて質問はその回答が一意に定まるものに限られており,Watsonが現状すぐに災害時の情報などに適用できるかどうかは不明確である.また,日本においても,「しゃべってコンシェル」\cite{Yoshimura2012}と呼ばれる携帯電話のサービスが注目を浴びている.このシステムは,携帯電話を用いて質問応答を行うものであり,Webの更新データに対応している.このサービスでの質問応答では,「ハリーポッターの監督は誰」のようなある対象物(ハリーポッター)の属性(監督)を聞くタイプの質問は,回答が一意に定まる知識についてWatsonと同じように予め知識のデータベース化を行っている.また,天気やニュースなどについては専用のサービスの結果を返し,それ以外の質問は,キーワード検索と固有表現による質問応答手法を利用している.それでも見つからない場合はキーワードによる検索結果を出力する.我々のシステムは,上記のシステムとは異なり,これまでの含意獲得の研究をもとに,質問文からの含意パターンや部分パターンを取り出し,そのパターンを元に回答を求めている.そのため,質問文から何らかのパターンが獲得できれば,高い精度で回答が可能である.また,固有表現でない一般名詞が回答の場合や,これまでの固有表現\cite{Sekine2000,Sekine2008}では対象としていない表現についても,回答を出力できる.固有表現は,特定の質問に対しては重要な要素であることは間違いないため,今後,回答のランキングに固有表現に関する素性を取り入れて行く予定である.また,災害時の質問にも,一意に定まる質問がされる可能性はあるため,Wikipediaなどの知識を利用した手法\cite{Buscaldi2006}もシステムも取り入れて行く.
\section{おわりに}
\label{Conclusion}本論文では,想定外のものもふくめて,災害時の情報を俯瞰的に把握するために開発した,質問応答に基づく情報分析システムについて述べ,また,東日本大震災時のtweetデータを利用した性能評価について報告した.さらに,本システムを拡張することによって,比較的実現容易な形で,リアルタイムで被災者と救援者が双方向のコミュニケーションを行うことを可能とし,より効率的な救援活動やより適切な避難行動等を支援する枠組みについても提案した.また,東北大学で開発されている言論マップ技術との統合や,リアルタイムでの回答の更新によって,東日本大震災時に問題となったデマに対処する枠組みも提案した.様々な質問に対して回答を提示できるようにするために,本システムでは,質問応答処理において構文パターンの言い換えに基づく質問文の拡張を行い,さらに場所や地名の補完処理を加えることで,幅広い質問に対応した.また,得られた回答を意味クラスごとにまとめるインターフェースと回答を地図上に表示するインターフェースを用意することで被災地の状況や救援状況の俯瞰的把握を可能とした.人手で作成した質問を基にした評価実験では,複合語処理の問題や要望,疑問,仮定を含むtweetの特定の必要性が明らかになった.必要な情報を必要な人に行き渡らせるためには,たとえその回答を必要としている人が一人であっても,回答を提示することが望ましい.こうした点に鑑み,ロングテール部分に存在する被災者の要望にも応えることができる情報分析システムの構築を今後も進めていく予定である.より具体的には,現在5万件以上からなる災害に関連の深い含意パターンの学習データを人手で構築しつつあり,さらに,その他の言語資源も構築中である.今後,こうしたリソースを活用しつつ,また,新規のアルゴリズムを導入することによって性能向上を図っていく予定である.\acknowledgment本研究で利用しているデータは,株式会社ホットリンク様よりご提供頂きました.ここに記して感謝致します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bloom}{Bloom}{1970}]{Bloom1970}Bloom,B.\BBOP1970\BBCP.\newblock\BBOQSpace/timeTrade-offsinHashCodingwithAllowableErrors.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf13}(7),\mbox{\BPGS\422--426}.\bibitem[\protect\BCAY{Buscaldi\BBA\Rosso}{Buscaldi\BBA\Rosso}{2006}]{Buscaldi2006}Buscaldi,D.\BBACOMMA\\BBA\Rosso,P.\BBOP2006\BBCP.\newblock\BBOQMiningKnowledgefromWikipediafortheQuestionAnsweringTask.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\727--730}.\bibitem[\protect\BCAY{Cheng,Caverlee,\BBA\Lee}{Chenget~al.}{2010}]{Cheng2010}Cheng,Z.,Caverlee,J.,\BBA\Lee,K.\BBOP2010\BBCP.\newblock\BBOQYouAreWhereYouTweet:AContent-BasedApproachtoGeo-locatingTwitterUsers.\BBCQ\\newblockIn{\BemProceedingsofthe19thACMInternationalConferenceonInformationandKnowledgeManagement(CIKM)},\mbox{\BPGS\759--768}.\bibitem[\protect\BCAY{De~Saeger,Torisawa,Kazama,Kuroda,\BBA\Murata}{De~Saegeret~al.}{2009}]{De_Saeger2009}De~Saeger,S.,Torisawa,K.,Kazama,J.,Kuroda,K.,\BBA\Murata,M.\BBOP2009\BBCP.\newblock\BBOQLargeScaleRelationAcquisitionusingClassDependentPatterns.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEInternationalConferenceonDataMining(ICDM)},\mbox{\BPGS\764--769}.\bibitem[\protect\BCAY{Ferrucci,Brown,Chu-Carroll,Fan,Gondek,Kalyanpur,Lally,Murdock,Nyberg,Prager,Schlaefer,\BBA\Welty}{Ferrucciet~al.}{2010}]{Ferrucci2010}Ferrucci,D.,Brown,E.,Chu-Carroll,J.,Fan,J.,Gondek,D.,Kalyanpur,A.~A.,Lally,A.,Murdock,J.~W.,Nyberg,E.,Prager,J.,Schlaefer,N.,\BBA\Welty,C.\BBOP2010\BBCP.\newblock\BBOQBuildingWatson:AnOverviewofthe{DeepQA}Project.\BBCQ\\newblock{\Bem{AI}Magazine},{\Bbf31}(3),\mbox{\BPGS\59--79}.\bibitem[\protect\BCAY{Fleiss}{Fleiss}{1971}]{Fleiss1971}Fleiss,J.\BBOP1971\BBCP.\newblock\BBOQMeasuringNominalScaleAgreementamongManyRaters.\BBCQ\\newblock{\BemPsychologicalBulletin},{\Bbf76}(5),\mbox{\BPGS\378--382}.\bibitem[\protect\BCAY{Harris}{Harris}{1954}]{Harris1954}Harris,Z.\BBOP1954\BBCP.\newblock\BBOQDistributionalStructure.\BBCQ\\newblock{\BemWord},{\Bbf10}(23),\mbox{\BPGS\142--146}.\bibitem[\protect\BCAY{Hashimoto,Torisawa,De~Saeger,Oh,\BBA\Kazama}{Hashimotoet~al.}{2012}]{Hashimoto2012}Hashimoto,C.,Torisawa,K.,De~Saeger,S.,Oh,J.,\BBA\Kazama,J.\BBOP2012\BBCP.\newblock\BBOQExcitatoryorInhibitory:ANewSemanticOrientationExtractsContradictionandCausalityfromtheWeb.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\619--630}.\bibitem[\protect\BCAY{川田\JBA大竹\JBA後藤\JBA鳥澤}{川田\Jetal}{2013}]{Kawada2013}川田拓也\JBA大竹清敬\JBA後藤淳\JBA鳥澤健太郎\BBOP2013\BBCP.\newblock災害対応質問応答システム構築に向けた質問・回答コーパスの構築.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\480--483}.\bibitem[\protect\BCAY{風間\JBA{De~Saeger,~S.}\JBA鳥澤\JBA後藤\JBA{Varga,~I.}}{風間\Jetal}{2012}]{Kazama2012b}風間淳一\JBA{De~Saeger,~S.}\JBA鳥澤健太郎\JBA後藤淳\JBA{Varga,~I.}\BBOP2012\BBCP.\newblock災害時情報への質問応答システムの適用の試み.\\newblock\Jem{言語処理学会第18回年次大会講演論文集},\mbox{\BPGS\903--906}.\bibitem[\protect\BCAY{Kazama\BBA\Torisawa}{Kazama\BBA\Torisawa}{2008}]{Kazama2008}Kazama,J.\BBACOMMA\\BBA\Torisawa,K.\BBOP2008\BBCP.\newblock\BBOQInducingGazetteersforNamedEntityRecognitionbyLarge-ScaleClusteringofDependencyRelations.\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(ACL-08:HLT)},\mbox{\BPGS\407--415}.\bibitem[\protect\BCAY{Kloetzer,De~Saeger,Torisawa,Sano,Goto,Hashimoto,\BBA\Oh}{Kloetzeret~al.}{2012}]{Kloetzer2012}Kloetzer,J.,De~Saeger,S.,Torisawa,K.,Sano,M.,Goto,J.,Hashimoto,C.,\BBA\Oh,J.\BBOP2012\BBCP.\newblock\BBOQSupervisedRecognitionofEntailmentbetweenPatterns.\BBCQ\\newblock\Jem{言語処理学会第18回年次大会講演論文集},\mbox{\BPGS\431--434}.\bibitem[\protect\BCAY{Liu,Wei,Zhang,\BBA\Zhou}{Liuet~al.}{2013}]{Liu2013}Liu,X.,Wei,F.,Zhang,S.,\BBA\Zhou,M.\BBOP2013\BBCP.\newblock\BBOQNamedEntityRecognitionforTweets.\BBCQ\\newblock{\BemACMTransactionsonIntelligentSystemsandTechnology},{\Bbf4}(1),\mbox{\BPGS\1--15}.\bibitem[\protect\BCAY{水野\JBA{Nicoles,~E.}\JBA渡邉\JBA村上\JBA松吉\JBA大木\JBA乾\JBA松本}{水野\Jetal}{2011}]{Mizuno2011}水野淳太\JBA{Nicoles,~E.}\JBA渡邉陽太郎\JBA村上浩司\JBA松吉俊\JBA大木環美\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock言論マップ生成技術の現状と課題.\\newblock\Jem{言語処理学会第17回年次大会講演論文集},\mbox{\BPGS\49--52}.\bibitem[\protect\BCAY{Neubig,Matsubayashi,Hagiwara,\BBA\Murakami}{Neubiget~al.}{2011}]{Neubig2011}Neubig,G.,Matsubayashi,Y.,Hagiwara,M.,\BBA\Murakami,K.\BBOP2011\BBCP.\newblock\BBOQSafetyInformationMining---WhatCan{NLP}DoinaDisaster---.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP)},\mbox{\BPGS\965--973}.\bibitem[\protect\BCAY{Ritter,Clark,Mausam,\BBA\Etzioni}{Ritteret~al.}{2011}]{Ritter2011}Ritter,A.,Clark,S.,Mausam,\BBA\Etzioni,O.\BBOP2011\BBCP.\newblock\BBOQNamedEntityRecognitioninTweets:AnExperimentalStudy.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1524--1534}.\bibitem[\protect\BCAY{Sekine}{Sekine}{2008}]{Sekine2008}Sekine,S.\BBOP2008\BBCP.\newblock\BBOQExtendedNamedEntityOntologywithAttributeInformation.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{2000}]{Sekine2000}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQ{IREX}:{IR}and{IE}EvaluationProjectin{J}apanese.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\1475--1480}.\bibitem[\protect\BCAY{Yamada,Torisawa,Kazama,Kuroda,Murata,De~Saeger,Bond,\BBA\Sumida}{Yamadaet~al.}{2009}]{Yamada2009}Yamada,I.,Torisawa,K.,Kazama,J.,Kuroda,K.,Murata,M.,De~Saeger,S.,Bond,F.,\BBA\Sumida,A.\BBOP2009\BBCP.\newblock\BBOQHypernymDiscoveryBasedonDistributionalSimilarityandHierarchicalStructures.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1172--1181}.\bibitem[\protect\BCAY{吉村}{吉村}{2012}]{Yoshimura2012}吉村健\BBOP2012\BBCP.\newblockしゃべってコンシェルと言語処理.\\newblock{\BemIPSJSIGTechnicalReportVol.{\upshape\textbf{2012-SLP-93}(4)}},\mbox{\BPGS\1--6}.\end{thebibliography}\begin{biography}\bioauthor{後藤淳}{1993年徳島大学大学院工学研究科修士課程修了.同年日本放送協会入局.2011年より独立行政法人情報通信研究機構専門研究員.現在,総合研究大学院大学博士課程在学.}\bioauthor{大竹清敬}{2001年豊橋技術科学大学大学院博士後期課程修了.博士(工学).同年より株式会社ATR音声言語コミュニケーション研究所.2006年より独立行政法人情報通信研究機構.音声言語処理,自然言語処理の研究に従事.}\bioauthor[:]{StijnDeSaeger}{2006年北陸先端科学技術大学院大学博士課程修了.博士(知識科学).独立行政法人情報通信研究機構専攻研究員を経て,現在同機構主任研究員.知識の自動獲得の研究に従事.言語処理学会第16回年次大会優秀発表賞等受賞.}\bioauthor{橋本力}{2005年京都大学研究員,2007年山形大学助教,2009年独立行政法人情報通信研究機構専攻研究員.現在,同機構主任研究員.博士(言語科学,情報学).情報処理学会論文賞,言語処理学会論文賞,同学会優秀発表賞等受賞.}\bioauthor[:]{JulienKloetzer}{2006年パリ第6大学卒業,2010年北陸先端科学技術大学院大学博士課程修了.博士(情報科学).2011年独立行政法人情報通信研究機構入所.現在,同機構情報分析研究室研究員.}\bioauthor{川田拓也}{2003年国際基督教大学教養学部卒業.2010年京都大学大学院文学研究科博士後期課程修了.博士(文学).現在,独立行政法人情報通信研究機構情報分析研究室研究員.言語資源の設計と構築に従事.}\bioauthor{鳥澤健太郎}{1995年東京大学大学院理学系研究科中退.同年同専攻助手.北陸先端科学技術大学院大学助教授を経て,現在,独立行政法人情報通信研究機構・情報分析研究室室長及び情報配信基盤研究室室長.博士(理学).日本学術振興会賞など受賞.}\end{biography}\biodate\end{document}
| |
V20N05-03
|
\section{はじめに}
\label{sec:hajimeni}インターネットの普及により,個人がWeb上で様々な商品を購入したり,サービスの提供を受けることが可能になった.また,これに伴い,商品やサービスに対する意見や感想が,大量にWeb上に蓄積されるようになった.これらの意見や感想は,ユーザが商品やサービスを購入する際の参考にするだけでなく,企業にとっても商品やサービスの改善を検討したり,マーケティング活動に活用するなど,利用価値の高い情報源として広く認識されている.近年ではさらに,ユーザ参加型の商品開発が注目されるなど,ユーザと企業とがマイクロブログやレビューサイト等のソーシャルメディアを通して,手軽に相互にコミュニケーションを持つことも可能となっている.そして,このようなコミュニケーションの場においては,いわゆる「クレーム」と呼ばれる類のユーザの意見に対して企業側は特に敏感になる必要があり,ユーザが発言したクレームに対しては,適切に対応することが望まれている.しかしながら,このようなコミュニケーションの場では,次のような理由からユーザのクレームを見落としてしまう懸念がある.\begin{figure}[b]\input{03fig01.txt}\caption{クレームが含まれたレビューの例1}\label{fig:review}\end{figure}\begin{figure}[b]\input{03fig02.txt}\caption{クレームが含まれたレビューの例2}\label{fig:review2}\end{figure}\begin{itemize}\item見落とし例1:特に,マイクロブログ型サービスを通したコミュニケーションでは,多対一型のコミュニケーション,つまり,大勢のユーザに対して少数の企業内担当者が同時並行的にコミュニケーションを持つことが多く,そのため,一部のユーザが発言したクレームを見落としてしまう可能性がある.\item見落とし例2:特に,レビューサイトを通したコミュニケーションでは,ユーザは様々な意見をひとつのレビュー文書中に書き込むことが多く,その中に部分的にクレームが埋め込まれることがある(\fig{review}および\fig{review2}に例を示す.下線部がクレームを示す).この場合,レビューの中からクレームを見つける必要があるが,これらの一部を見落としてしまう可能性がある.\end{itemize}本論文では,上記のうち,2つ目の見落とし問題に対処すべく,レビューからクレームを自動検出する手法について述べる.より具体的には,まず,文単位の処理を考え,\tab{data_detail}のような内容を含む文を「クレーム文」と定義する.そして,レビューが入力された際に,そのレビュー中の各文のそれぞれに対して,それらがクレーム文かそうでないかを自動判定する手法について検討する.\begin{table}[b]\caption{クレーム文の定義}\label{tab:data_detail}\input{03table01.txt}\end{table}これまで,テキストからクレームを検出することを目的とした先行研究としては,永井らの研究\cite{nagai1,nagai2}がある.永井らは,単語の出現パタンを考慮した検出規則に基づいたクレーム検出手法を提案している.しかしながら,彼らの手法のように人手で網羅的に検出規則を作成するには,作成者がクレームの記述のされ方に関する幅広い言語的知識を有している必要がある.また,現実的に検出規則によって運用するには,膨大な量の規則を人手で作成・維持・管理する必要があり,人的負荷が高いという問題がある.この問題に対する解決策のひとつとして,教師あり学習によって規則を自動学習することが考えられるが,その場合でも,事前に教師データを準備する必要があり,単純には,教師データの作成に労力を要するという別な問題が発生してしまう.本論文では,上記のような背景を踏まえて,人的な負荷をなるべく抑えたクレーム検出手法を提案する.より具体的には,レビュー文書からクレーム文を自動検出する際の基本的な設定として,テキスト分類において標準的に利用されるナイーブベイズ・モデルを適用することを考え,この設定に対して,極力人手の負荷を軽減させるために,次の手続きおよび拡張手法を提案する.\begin{itemize}\item評価表現および文脈一貫性に基づく教師データ自動生成手法を提案する.従来,学習用の教師データを作成するには負荷の高い人手作業に頼らざるを得なかったが,本研究では既存の言語資源と既存の知見に基づくことで,人手作業に頼らずに教師データを自動生成する手法を提案する.\item次に,上記で生成された教師データに適したモデルとなるように拡張されたナイーブベイズ・モデルを提案する.上記の提案手法によって生成された教師データは自動化の代償として人手作成されたデータと比べて質が劣化せざるを得ず,標準的な分類モデルをそのまま適用するだけでは期待した精度は得られない.本研究では上記のデータ生成手法で生成されるデータが持つ特性を踏まえて,ナイーブベイズ・モデルを拡張する.\end{itemize}提案手法では,従来手法で問題となっていた検出規則の作成・維持・管理,あるいは,規則を自動学習するために必要となる教師データの作成にかかる人手負荷は全くかからない利点をもつ.本論文では,上記の手続きおよび拡張手法について,実データを用いた評価実験を通して,その有効性を検証する.本論文の構成は以下の通りである.まず\sec{gen}で教師データの自動生成手法について説明する.その後,\sec{model}でナイーブベイズ・モデルの拡張について説明し,\sec{exp}で評価実験について述べる.\sec{related}で関連研究を整理した後,\sec{owarini}で本論文をまとめる.
\section{教師データ自動生成}
\label{sec:gen}\subsection{教師データ}まず,生成したい教師データについて整理する.本研究では,クレーム文を検知するためにナイーブベイズ分類器\cite{nv}を構築し,文がクレームを表しているか,あるいはクレームを表していないかのどちらかに分類したい.このような分類器の構築に必要となる教師データは,言うまでもなく,クレームを表している文(以下,クレーム文と呼ぶ)の集合と,クレームを表していない文(以下,非クレーム文)の集合となる.以下では,説明の便宜上,このデータ集合を得る手続きをラベル付けと呼び,【クレーム】および【非クレーム】というラベルによって,どちらの集合の要素となるかを区別することとする.例えば,\fig{review}の各文に対してラベル付けが実施されたとすると,次のようなラベル付きの教師データが得られる.\begin{itemize}\item【非クレーム】従業員の方は親切でした.\item【非クレーム】最寄りの病院など教えて頂き,とても助かりました.\item【非クレーム】ありがとうございました.\item【クレーム】ただ残念だったのが,シャワーの使い方がよくわからなかったことです.\item【クレーム】使い方の説明をおいて頂きたいです.\end{itemize}本論文で提案する教師データ自動生成手法は,評価表現の情報に基づくラベル付けステップと,ある文の文脈に対する文脈一貫性の情報に基づくラベル付けステップの2ステップで構成される.各ステップをそれぞれ核文ラベル付けおよび近接文ラベル付けと呼ぶことにし,以下で順に説明する.\subsection{核文ラベル付け}\label{sec:data_core}核文ラベル付けは,評価表現の情報に基いて行う.評価表現とは,「おいしい」や「まずい」等,評価対象に対する評価を明示的にあらわす言語表現のことである.一般的には,これら表現に「おいしい/肯定」や「まずい/否定」のような肯定・否定の評価極性値を付随させたものを集めて評価表現辞書と呼ばれている\cite{inui}.核文ラベル付けステップでは,評価表現辞書に否定極性として登録されている評価表現に着目し,このような評価表現を含む文はクレームを表しやすいと仮定する.そして,否定極性の評価表現を含む文をクレーム文としてラベル付けする.以降,この手続きで得られる文を次ステップで得られる文と区別するため核文と呼び,特に,核文がクレーム文である場合はクレーム核文と呼ぶ.例えば,「まずい/否定」という単語が評価表現辞書に登録されている場合,次の例文はクレーム核文としてラベル付けされる.\begin{itemize}\item【クレーム(核)】朝食のカレーが\underline{まずい}.\end{itemize}もし,ある文が肯定極性をもつ評価表現を含み,かつ「ない」や「にくい」などの否定辞が評価表現の3単語以内に後続していた場合もクレーム核文としてラベル付けする.例えば,次の例文は「おいしい/肯定」の直後に否定辞「ない」が後続しているため,クレーム核文としてラベル付けされる.\begin{itemize}\item【クレーム(核)】朝食のカレーが\underline{おいしく}\unc{ない}.\end{itemize}また,評価表現の否定極性と肯定極性を読み替えて上記と同様の手続きを行った場合に得られる文を非クレーム核文と呼び,クレーム核文と同じようにラベル付けしておく.\begin{itemize}\item【非クレーム(核)】朝食のカレーが\underline{おいしい}.\item【非クレーム(核)】ハヤシライスは別に\underline{まずく}は\unc{ない}.\end{itemize}さらに,「ほしい」等の要求表現を集めた要求表現辞書が利用できる場合は,次の例のように要求表現を含む文をクレーム核文としてラベル付けする\footnote{\setulsep{0pt}この操作によって,例えば,「このサービスは是非今後も継続して\underline{ほしい}」というような肯定的な要求については誤ってクレーム文として扱ってしまう.しかし,後述する本研究で使用したデータセットでは,上記のような事例はごく稀であり,本研究ではこのような肯定的な要求に対する特別な処理は施していない.}.ただし,要求表現に注目したラベル付けの場合は,評価表現の時とは違って,否定辞の有無に関係なくクレーム核文としてラベル付けする.\begin{itemize}\item【クレーム(核)】朝食に和食メニューをもっと増やして\underline{ほしい}.\item【クレーム(核)】朝食を洋風なものばかりにして\underline{ほしく}\unc{ない}.\end{itemize}以降,クレーム核文と非クレーム核文をあわせた文の集合を$\mathcal{S}_\mathrm{core}$であらわす.\subsection{近接文ラベル付け}\label{sec:data_context}那須川ら\cite{nasukawa}は,彼らの論文の中で,評価表現の(文をまたいだ)周辺文脈には以下のような傾向があると述べており,これを評価表現の文脈一貫性と呼んだ.{\setlength{\leftskip}{3zw}\noindent文書中に評価表現が存在すると,その周囲に評価表現の連続する文脈(以降,評価文脈\footnote{元論文では「評価部脈」と書かれているが,これは「評価文脈」の書き誤りであると考えられる.})が形成されることが多く,その中では,明示されない限り,好不評の極性が一致する傾向がある.\par}本研究では,この評価表現の文脈一貫性の考え方に基いて近接文ラベル付けを行う.先の核文ラベル付けの際に考慮した評価表現(あるいは要求表現)を含む文の周辺文脈について,「評価表現(要求表現)の存在に基づいて(非)クレーム文として選ばれた文の前後文脈に位置する文は,やはり(非)クレーム文である」という仮定をおき,この仮定に従って,核文の周辺文脈に対してラベル付けを行う.この手続きで得られる文を近接文(より詳細にはクレーム近接文あるいは非クレーム近接文)と呼ぶ.\begin{algorithm}[b]\caption{近接文ラベル付け}\label{algo:alg1}\input{03algo01.txt}\end{algorithm}近接文ラベル付けの手続きを\algo{alg1}に示す.この手続きへの入力は,核文ラベル付けを終えたレビュー$d$と,核文に対する周辺文脈の長さを決定する窓枠長$N$($\ge0$)であり,レビュー$d$に含まれる核文に対して,レビューの先頭側に現れる核文から末尾側に現れる核文に向かって順に処理が進む.なお,\algo{alg1}において,$s_i$はレビュー$d$内の先頭から$i$番目の文をあらわし,$|d|$は$d$内の文数をあらわす.処理の大きな流れとしては,line.2--9でラベル付けされる文が選択され,line.10--16でラベル付けが実施される.line.17--34の各関数では,付与するラベルの種類(``クレーム''か``非クレーム'')を確定する際に必要な仮のラベル情報が決められ,その情報が格納される.\begin{figure}[b]\begin{center}\includegraphics{20-5ia3f3.eps}\end{center}\caption{近接文ラベル付けの例(窓枠長$N=2$の場合)}\label{fig:context}\end{figure}\fig{context}を使って近接文ラベル付けの具体的な実行例を示す.図の例では,対象となるレビューは8つの文から構成されており,核文ラベル付けによって文$s_1$が非クレーム核文,文$s_5$がクレーム核文とラベル付けされた状態であり,この状態から近接文ラベル付けが開始される.窓枠長は$N=2$とする.この場合,まず,核文$s_1$の周辺文脈に対する処理がなされる(\algo{alg1}のline.3).$s_1$は文書の先頭文であり前方文脈(Backwardcontext)は存在しない.そのため,後方文脈(Forwardcontext)の$s_2$と$s_3$に対してのみ処理がなされ(line.6--7),それぞれ``非クレーム''ラベルが配列に格納される(line.29).次に核文$s_5$の周辺文脈に対する処理がなされる.$s_5$はクレーム文であるため,前方文脈では$s_3$に対して2つ目のラベル``クレーム''が格納され(line.19),また新たに$s_4$に対して``クレーム''ラベルが格納される(line.19).後方文脈では,まず$s_6$に対して``クレーム''ラベルが配列に格納される(line.28).その一方で,$s_7$は逆接関係の接続詞「しかし」の影響があるため,``クレーム''ではなく``非クレーム''ラベルが格納される(line.31).最後に,各文に対して格納されたラベル情報をチェックし,格納されたラベルに不整合がない場合は,そのラベル情報に従ってラベル付けを行う(line.10--16).不整合が生じている場合はその文に対してどのラベルも付与しない.以上の操作によって,この例では2つの核文から新たに4つの近接文($s_2$,$s_4$,$s_6$および$s_7$)が得られる.以降,クレーム近接文と非クレーム近接文をあわせた文の集合を$\mathcal{S}_{sat}$\footnote{添字$sat$は\underline{sat}elliteの略である.}であらわす,また,必要に応じて,核文の前方文脈から得られた近接文$\mathcal{S}_{sat}^{B}$と,後方文脈から得られた近接文$\mathcal{S}_{sat}^{F}$を区別する($\mathcal{S}_{sat}=\mathcal{S}_{sat}^{B}\cup\mathcal{S}_{sat}^{F}$).
\section{ナイーブベイズ・モデルの拡張}
\label{sec:model}\subsection{ナイーブベイズ・モデル(Na\"{i}veBayesmodel;NB)}\label{sec:base_model}前節で述べた手法によって自動生成された教師データは,人手によって作成された教師データと比べて質が劣化せざるを得ず,標準的な分類モデルをそのまま適用するだけでは期待した精度は得られない.そこで,前節で述べた手法で得られる劣化を含むデータを使用するという前提をおき,この劣化データがもつ特性を踏まえてナイーブベイズ・モデルを拡張することを考える.以下では,まず,通常のナイーブベイズ・モデル(多項モデル)について述べ,その後,モデルの拡張について述べる.ナイーブベイズ分類器では,ある文$s$の分類クラスを判定する際に,条件付き確率$P(c|s)$を考え,この確率値が最大となるクラス$\hat{c}$を分類結果として出力する.つまり,\begin{equation}\hat{c}=\argmax_{c}P(c|s)\label{eq:eq0}\end{equation}である.通常のナイーブベイズ・モデルでは上式を次のように展開する.\begin{align}\argmax_{c}P(c|s)&=\argmax_{c}P(c)P(s|c)\nonumber\\&=\argmax_{c}\big\{\logp_{c}+\sum_{w\in{\mathcal{V}}}^{}n_{w}(s)\logq_{w,c}\big\}\label{eq:eq1}\end{align}ここで,$\mathcal{V}$は語彙集合,$n_{w}(s)$は文$s$における単語$w$の出現回数をあらわす.また,$q_{w,c}$,$p_{c}$は教師データを使ってそれぞれ以下の式で計算される.本研究ではパラメータを推定する際にラプラススムージング\cite{nv}を用いる.\begin{align}q_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D})+1}{\displaystyle\sum_{w}^{}n_{w,c}(\mathcal{D})+|\mathcal{V}|}\label{eq:eq2}\\p_{c}&=\frac{\displaystylen_{c}(\mathcal{D})+1}{\displaystyle\sum_{c}^{}n_{c}(\mathcal{D})+|\mathcal{C}|}\label{eq:eq3}\end{align}ここで,$\mathcal{D}$は教師データとなる文の集合,$n_{w,c}(\mathcal{D})$はデータ$\mathcal{D}$においてクラス$c$に属する文に現れる$w$の出現回数,$n_{c}(\mathcal{D})$はデータ$\mathcal{D}$においてクラス$c$に属する文の数,$|\mathcal{V}|$は語彙の種類数,$|\mathcal{C}|$は分類クラスの種類数である.以上からもわかるように,通常のモデルでは,分類対象となる文内の情報のみを考慮し,分類対象文の周辺文脈の様子は全く考慮されない.たとえ同一文書内であっても個々の文は独立に評価・分類する.また,教師データの利用にあたっても,当然のことながら,核文であるか近接文であるかといった区別はなく,両タイプの文が同等にモデルの構築に利用される.\subsection{モデル拡張}\label{sec:pro_model}前節で述べた教師データ生成過程から得られるデータには,核文および近接文という2種類の文が存在する.この2種類の文のうち,核文は近接文とは独立にラベル付けされる一方で,近接文は核文の情報に基いて間接的にラベル付けされる.そのため,核文ラベル付けが結果として誤りであった事例に関しては近接文もその誤りの影響を直接受けることになる.また,当然ながら,文脈一貫性の仮定が成立しない事例もあり得る.このような理由から,近接文は核文に比べて相対的に信頼性の低いデータとなる可能性が高い.そこで,このことを考慮し,核文と近接文の情報をモデル内で区別して扱い,近接文の情報がモデル内で与える影響を下げるよう,\eq{eq1}の代わりに次のような\eq{eqex}を用いる.\begin{align}\argmax_{c}P(c|s)&=\argmax_{c}P(c)P(s|c)\nonumber\\&=\argmax_{c}\big\{\logp_{c}+\sum_{w}n_{w}(s)\logq^{tgt}_{w,c}\nonumber\\&\phantom{=\argmax_{c}\big\{\logp_{c}}~+\frac{1}{|ctx(s,N)|}\sum_{w}n_{w}(ctx(s,N))\logq^{ctx}_{w,c}\big\}\label{eq:eqex}\end{align}右辺第3項に現れる$ctx(s,N)$は$s$の周辺文脈に位置する前方および後方のそれぞれ$N$文から構成される文の集合を表しており,この項が分類対象の周辺文脈をモデル化している.この項の係数$1/|ctx(s,N)|$で,周辺文脈の文数に応じてその影響を調整している.なお,$n_{w}(ctx(s,N))$は,集合$ctx(s,N)$の要素となる全ての文における単語$w$の総出現回数をあらわす.また,右辺第2項は通常のモデルと同様に分類対象となる文をモデル化したものであるが,第3項の周辺文脈との区別を明瞭にするため,$q^{tgt}_{w,c}$という記号を新たに導入した\footnote{\setulminsep{1.2ex}{0.45ex}上付きの添字$tgt$と$ctx$は,それぞれ\underline{t}ar\underline{g}e\underline{t},\underline{c}on\underline{t}e\underline{x}tをあらわしている.}.\eq{eqex}の$q^{tgt}_{w,c}$と$q^{ctx}_{w,c}$,および$p_{c}$はそれぞれ次式で求める.式中の各記号の意味は\eq{eq2},\eq{eq3}と同様である.ここで,$\mathcal{D}_{tgt}$は分類対象文をモデル化するための教師データ集合,$\mathcal{D}_{ctx}$は分類対象の周辺文脈をモデル化するための教師データ集合である.基本的には,前節で得られる教師データのうち,核文データを$\mathcal{D}_{tgt}$に割り当て,近接文データを$\mathcal{D}_{ctx}$に割り当てるが,正確な記述は後述の\sec{wariate}で与える.\begin{align}q^{tgt}_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D}_{tgt})+1}{\displaystyle\sum_{w}n_{w,c}(\mathcal{D}_{tgt})+|\mathcal{V}_{tgt}|}\label{eq:qtbt}\\q^{ctx}_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D}_{ctx})+1}{\displaystyle\sum_{w}n_{w,c}(\mathcal{D}_{ctx})+|\mathcal{V}_{ctx}|}\label{eq:qctx}\\p_{c}&=\frac{\displaystylen_{c}(\mathcal{D}_{tgt})+1}{\displaystyle\sum_{c}n_{c}(\mathcal{D}_{tgt})+|\mathcal{C}|}\end{align}以降,便宜的にこの拡張されたモデルを\textbf{NB+ctx}と呼ぶ.さらに,\eq{eqex}の第3項について,周辺文脈を分類対象文からの相対位置で詳細化した\begin{equation}\frac{1}{|ctx(s,N)|}\big\{\sum_{w}n_{w}(Bctx(s,N))\logq^{Bctx}_{w,c}+\sum_{w}n_{w}(Fctx(s,N))\logq^{Fctx}_{w,c}\big\}\label{eq:eqex2}\end{equation}を代わりに利用するモデルも考えられる.ここで,$Bctx(s,N)$は,$s$の前方文脈に位置する$N$文から構成される文の集合であり,$Fctx(s,N)$は同様に後方文脈で構成される文集合である.また,式中の$q^{Bctx}_{w,c}$および$q^{Fctx}_{w,c}$は次式で求める.ただし,$\mathcal{D}_{ctx}=\mathcal{D}^{B}_{ctx}\cup\mathcal{D}^{F}_{ctx}$である.\begin{align}q^{Bctx}_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D}^{B}_{ctx})+1}{\displaystyle\sum_{w}n_{w,c}(\mathcal{D}^{B}_{ctx})+|\mathcal{V}_{Bctx}|}\\q^{Fctx}_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D}^{F}_{ctx})+1}{\displaystyle\sum_{w}n_{w,c}(\mathcal{D}^{F}_{ctx})+|\mathcal{V}_{Fctx}|}\end{align}以降,便宜的にこのモデルを\textbf{NB+ctxBF}と呼ぶ.\subsection{データ割当規則}\label{sec:wariate}ここでは,さきほどの説明で保留していた,パラメータ推定の際に必要となる教師データの与え方について述べる.ここで,前節で述べた手法によって得られるデータ集合を確認すると,\begin{itemize}\item$\mathcal{S}_{core}$:クレーム核文と非クレーム核文をあわせた文の集合\item$\mathcal{S}_{sat~}$:クレーム近接文と非クレーム近接文をあわせた文の集合\item$\mathcal{S}^{B}_{sat~}$:$\mathcal{S}_{sat}$の要素のうち,核文の前方文脈から得られた文で構成される集合\item$\mathcal{S}^{F}_{sat~}$:$\mathcal{S}_{sat}$の要素のうち,核文の後方文脈から得られた文で構成される集合\end{itemize}であり,$\mathcal{S}_{sat}=\mathcal{S}_{sat}^{B}\cup\mathcal{S}_{sat}^{F}$であった.これらデータ集合に対して,まず,核文と近接文を区別しない単純な割当として,得られた全データをまとめて利用することが考えられる.この場合,拡張モデルNB+ctxにおいての割当は,\begin{itemize}\item$\mathcal{D}_{tgt}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\item$\mathcal{D}_{ctx}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\end{itemize}となる.これを以降\textbf{NB+ctx(all)}と呼ぶ.また同様に,拡張モデルNB+ctxBFにおいての単純な割当は,\begin{itemize}\item$\mathcal{D}_{tgt}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\item$\mathcal{D}^{B}_{ctx}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\item$\mathcal{D}^{F}_{ctx}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\end{itemize}となるが,これは先のNB+ctx(all)と事実上同等となるため以降の議論では割愛する.次に,核文と近接文の区別を考慮したデータ割当を考える.拡張モデルNB+ctxにおいての割当としては,\begin{itemize}\item$\mathcal{D}_{tgt}=\mathcal{S}_{core}$\item$\mathcal{D}_{ctx}=\mathcal{S}_{sat}$\end{itemize}が考えられる.これを以降\textbf{NB+ctx(divide)}と呼ぶ.また同様に,拡張モデルNB+ctxBFにおいてのデータ割当として,\begin{itemize}\item$\mathcal{D}_{tgt}=\mathcal{S}_{core}$\item$\mathcal{D}^{B}_{ctx}=\mathcal{S}^{B}_{sat}$\item$\mathcal{D}^{F}_{ctx}=\mathcal{S}^{F}_{sat}$\end{itemize}が考えられる.これを以降\textbf{NB+BFctx(divide)}と呼ぶ.最後に,通常のナイーブベイズについて考えると,この場合は,もともとのモデルにデータを区別する枠組みが存在しないため,\begin{itemize}\item$\mathcal{D}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\end{itemize}という割当のみを考えることになる.なお,$\mathcal{D}=\mathcal{S}_{core}$という核文のみを考慮し,近接文を利用しない割当も考えられるが,これは$\mathcal{D}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$において近接文の窓枠長を$0$とする場合に等しいため,割当規則として明示的には議論しないが,第\sec{exp}の評価実験では,近接文の窓枠長が$0$の場合も含めて議論する.以降,これを\textbf{NB}と呼ぶ.ここまでの議論を整理すると,前節の手法で自動生成された教師データを利用するという前提のもとで,通常のナイーブベイズ・モデルも含めて,4つのクレーム文検出モデルが与えられたことになる.次節では,評価実験を通じて,これらの有効性を検証していく.
\section{評価実験}
\label{sec:exp}\subsection{検証項目}評価実験を通して,提案手法の有効性を検証する.具体的には以下の3項目を検証する.\begin{enumerate}\item提案手法の比較:前節までで述べた4つのクレーム文検出モデルの中で,どのモデルが最良であるかを検証する.\item他手法との比較:提案手法と他手法との比較実験を行い,その結果から提案手法の有効性を検証する.\item学習データ量とクレーム文検出精度の関係について:提案したデータ生成手法は学習データを自動生成できるため,人手による生成に比べて遥かに多くの教師データを準備できる.この利点を実験を通して検証する.\end{enumerate}\subsection{実験の設定}\label{sec:setting}実験には,楽天データ公開\footnote{http://rit.rakuten.co.jp/rdr/index.html}において公開された楽天トラベルの施設データを利用した.このデータは約35万件(平均4.5文/件)の宿泊施設に関するレビューから構成されており,ここから,無作為に選んだ1,000レビューに含まれる文を評価用データとして用い,残りを教師データ生成用に利用した.評価用データには4,308文が含まれており,その内の24\%にあたる1,030文がクレーム文であった.つまり,4,308文からクレームを述べている1,030文を過不足なく検出することがここでの実験課題である.評価用データの作成では,まず,レビュー文書中の各文が1行1文となるようにデータを整形し,それを作業者に提示した.そして作業者は,与えられたデータの1文(1行)ごとにクレーム文か否かを判定していった.なお,ある文の判定時には,同一レビュー内の他の全ての文が参照できる状態になっている.2名の作業者によって上記の作業を独立に並行に行ったが,このうち1名の作業結果を評価用データとして採用した.2名の作業者間の一致度を$\kappa$係数の値によって評価したところ,$\kappa=0.93$であった.この結果は,作業者間の判断が十分に一致していたことを示している.作業者間で判断が一致しなかった事例としては,文が長く,ひとつの文で複数の事柄が述べられている場合や,「長身で据え置きのものでは短くて…」のように,クレームの原因が宿泊施設側にあるとは必ずしも言えない場合が多かった.教師データ生成時に必要となる評価表現辞書には,高村ら\cite{takamura}の辞書作成手法に基いて作成された辞書を使用した.ただし,高村らのオリジナルの辞書は自動構築されたもので,そのままでは誤りが含まれているため,以下の手続きによって誤り修正を施し,本実験で使用する辞書として採用した.オリジナルの辞書には各登録語に対して肯定/否定の強さを示すと解釈できる$[-1,1]$の範囲のスコアが付与されている.このスコアは,値が大きいほど肯定,また,小さいほど否定をあらわし,0付近はどちらでもないことを示していると解釈できる.そこでまず,このスコアの絶対値の大きいものから0.9付近までの単語を自動的に選択した.そして,選択された各単語に対して人手による誤り修正を施し,結果として肯定表現760件,否定表現862件からなる辞書を作成し,本実験に用いた.また,要求表現辞書として,「欲しい」,「ほしい」,「べし」からなる辞書を作成して実験に使用した\footnote{評価表現辞書と比べて要求表現辞書への登録単語数が少ない印象を受けるかもしれない.しかし,要求表現は評価表現とは違い,「〜して\underline{ほしい}」のように自立語に付随する形態を取りやすく,そのため辞書に登録できる単語もそれほど多くない.}.周辺文脈の窓枠長$N$の指定は,データ作成時,モデル学習時,評価用データの分類時のすべての過程で同期させている.また,各データの単語分割はMeCab\footnote{http://mecab.sourceforge.net/}によって行った.また,計算の都合上,$N=0$の場合は$1/|ctx(s,N)|=0$とした.今回のように,分類すべきクラスがクレーム/非クレームという2クラスの分類問題の場合,\eq{eq0}による意思決定は,以下の\eq{deci}の符号が正の場合にクレームと判定することになる.\begin{equation}P(\text{``クレーム''}|s)-P(\text{``非クレーム''}|s)\label{eq:deci}\end{equation}しかし,本研究では,\eq{deci}に意思決定の閾値$\theta$を加えた次の条件式を新たに導入し,この条件式が成立する場合にクレームと判定し,成立しない場合は非クレームと判定することとした.\begin{equation}P(\text{``クレーム''}|s)-P(\text{``非クレーム''}|s)>\theta\label{eq:deci2}\end{equation}\eq{deci2}の左辺は,クレームと判定する際の確信度を示していると考えることができ,閾値$\theta$はこの確信度に応じて出力を制御する役割りを持つ.閾値を$\theta=0$と設定すると,これは\eq{deci}を用いた通常の意思決定と同じ動作となる.閾値を$0$から大きくすると,より確信度が高い場合のみクレームと判定することになる.実験では,閾値$\theta$を増減させ,以下の式で計算される適合率および再現率,あるいはその要約である11点平均適合率\cite{iir}を求め,検出精度を評価した.11点平均適合率とは再現率が$\{0.0,\0.1,\\ldots,\1.0\}$となる11点における適合率の平均値である.\begin{align}\mbox{適合率}&=\frac{\mbox{正しくクレーム文として検出できた数}}{\mbox{クレーム文として出力された数}}\\[1ex]\mbox{再現率}&=\frac{\mbox{正しくクレーム文として検出できた数}}{\mbox{クレーム文の数}}\end{align}データにおけるクレーム文と非クレーム文の割合等に応じて,検出性能に対して最適な$\theta$を自動推定することも考えられるが,これについては今後の課題である.\subsection{提案手法の比較}\label{sec:exp_model}実験結果を\fig{model_length}に示す.このグラフは,4つの各検出モデルについて,考慮する周辺文脈の窓枠長を変化させながら性能変化をプロットしたものである.文脈長$N=0$の場合は,どのモデルも同じになるため,グラフ上では1点に集まっている.\begin{figure}[b]\begin{center}\includegraphics{20-5ia3f4.eps}\end{center}\caption{実験結果(提案手法の性能比較)}\label{fig:model_length}\end{figure}NBモデルの結果(``◇'')を基準に考えると,核文と近接文を区別しないNB+ctx(all)では文脈長を$N=0$から$N\ge1$のどの文脈の長さに変更しても性能が向上しない一方で,核文と近接文の区別を考慮するNB+ctx(divide)とNB+BFctx(divide)は文脈長を$N\ge1$にすることで,一貫して性能が向上することがわかる.このことから,文脈情報を適切にモデルに反映させるためには,単にモデルを拡張するだけでは効果がなく,データとモデルを上手く組合せて,核文と近接文を区別することが重要であることが確認できる.性能の向上が見られたNB+ctx(divide)とNB+BFctx(divide)を比較すると,どちらも$N\ge1$の場合は文脈長の変化に対しては鈍感な傾向を示しているが,近接文の相対位置を考慮するNB+BFctx(divide)の方が総じて良い結果を示しており,本論文で述べた4つのクレーム文検出モデルの中では,NB+BFctx(divide)モデルが最良であることがわかる.次に,教師データとして自動生成されたクレーム近接文に含まれる単語を確認したところ,\tab{context_word}のような単語がクレーム核文には現れず,クレーム近接文にのみ現れていた.このような単語の情報は,周辺文脈の情報を取り込むことで初めて考慮できるようになった情報であり,定性的にもクレーム検出における周辺文脈情報の利用の有効性が確認できる.\begin{table}[t]\caption{クレーム近接文にのみ現れていた単語}\label{tab:context_word}\input{03table02.txt}\end{table}また文脈情報を取り込むことで正しく分類ができるようになった事例を以下に示す.下線の引かれた文が分類対象であり,左端の数字は分類対象文からの相対位置を示す.\begin{itemize}\item【正しくクレーム文であると判定できた例】\\\begin{tabular}{rl}$-2$:&疲れていたので苦情をいうのも面倒で,さっさとチェックアウトしました.\\$-1$:&普段だったらクレームを入れるレベルです.\\$0$:&\underline{もう宿泊はないと思います.}\\$+1$:&残念です.\\\end{tabular}\item【正しく非クレーム文であると判定できた例】\\\begin{tabular}{rp{352pt}}$-1$:&昨年寒い1月に宿泊した際,犬を入室させてもらえ助かりました.\\$0$:&\underline{今回は寒くはないが飼い犬のミニチュアダックスが\mbox{老齢18歳で}泊めて頂け大変助かりました.}\\$+1$:&また泊めて頂きます.\\$+2$:&感謝.\\\end{tabular}\end{itemize}次に,誤りの傾向を分析したところ,以下のような事例について,判定誤りが多く見られた.\begin{itemize}\item【誤ってクレーム文と判定する例】\begin{itemize}\item[A.]不満の表明ではあるが,その対象・原因が宿泊者にある場合\begin{itemize}\item【例】仕事で到着が遅くなり,ゆっくりできなかったのが残念でした.\end{itemize}\item[B.]クレームの対象となりやすい事物が文中に多く記述されている場合\begin{itemize}\item【例】部屋は\underline{デスク},\underline{姿見},\underline{椅子},\underline{コンセント}があり,…従業員の対応もまずまずでした.\end{itemize}\end{itemize}\item【誤って非クレーム文と判定する例】\begin{itemize}\item[C.]記述の省略を伴う場合\begin{itemize}\item【例】バイキングにステーキがあればなぁ.\end{itemize}\item[D.]外部的な知識を要する場合\begin{itemize}\item【例】全体的な評価としてはEランクでした.\end{itemize}\end{itemize}\end{itemize}誤ってクレーム文と判定する事例のうち,A.のような事例に対応するには,意見の対象や原因を特定する等の詳細な自動解析の実現が望まれる.手元のデータによると,B.に該当する上述の例のうち,下線部がクレーム対象となりやすい事物であった.このような事例については,文中では名詞が多く現れることから,単語の品詞情報を考慮する等,単語や単語クラス毎にモデル内での扱いを変更することが考えられる.また,誤って非クレーム文と判定する事例については,「Eランク」を否定極性の単語として扱うなど,ヒューリスティック規則によるチューニングは可能であるが,総体的には現在の技術では改善が困難な事例が多い印象である.\subsection{他手法との比較}\label{sec:exp_base}次に,提案手法と他手法との比較実験を行い,その結果から提案手法の有効性を検証する.他手法としては,以下に示す3手法を検討した.始めの2つは,従来から考えられるラベル付け方法に基づく手法であり,残りの1つは,教師あり学習を適用しない,辞書の情報に基づいたルールベースの手法である.\begin{itemize}\item人手によって教師データを作成する手法(以下,人手ラベル)教師データ用のレビュー集合から2,000件のレビューを無作為に抽出し,そこに含まれる全ての文に対して人手でクレーム/非クレームのラベル付けを行ったものを教師データとしてモデル学習に用いる.この手法で得られるデータでは核文と近接文の区別がないため,学習には通常のナイーブベイズ・モデルを用いる.提案手法と比べると,この手法では量は少量だが質の高い学習データが利用できる.このデータ作成作業は,評価実験の正解データ作成と同一の作業となる.ただし,このデータ作成には正解データの作成に従事した作業者のうちの1名によって執り行なった.作業時間は約30時間であった.\item文書ラベルを教師データ作成に用いる手法(以下,文書ラベル)本実験で使用しているレビューデータには,本研究でいうクレームとほぼ同等の概念を示している「苦情」というラベルがレビュー単位に付与されている.そこで,ここでは,文よりも粗い文書に対する教師情報を利用して,文単位の教師データを自動生成することを考える\cite{nigam2004a}.具体的には,「苦情」ラベルが付与されたレビューに含まれている全ての文をクレーム文とみなし,逆に,「苦情」ラベルが付与されていないレビューに含まれている全ての文を非クレーム文とみなすことで教師データを自動生成し,モデル学習に用いる.モデルは先と同様の理由で通常のナイーブベイズ・モデルを用いる.提案手法と比べると,この手法では相対的に質は低いが,大量の学習データが利用できる.\item辞書による手法この手法は教師あり学習は行わず,辞書のエントリをルールとみなしたルールベース手法である.評価用データに対して\sec{data_core}で述べた核文ラベル付け,および\sec{data_context}で述べた近接文ラベル付けの手続きを直接適用してクレーム文を検出する.ただし,ここでの焦点はデータ生成時とは違って,クレーム文を検出できるか否かであるため,ラベル付けの結果,クレームとラベル付けされた文以外は全て非クレームであるとみなして評価した.なお,辞書は\sec{setting}で述べた辞書を用いる.\end{itemize}実験結果を\fig{baseline}に示す.また,\tab{data}に提案手法のラベル付けと人手ラベル,文書ラベルの各手法によるラベル付けの特徴をまとめる.\begin{figure}[b]\begin{center}\includegraphics{20-5ia3f5.eps}\end{center}\caption{実験結果(他手法との比較)}\label{fig:baseline}\end{figure}\begin{table}[b]\caption{各ラベル付け手法で生成される教師データの特徴}\label{tab:data}\input{03table03.txt}\end{table}\fig{baseline}において,辞書による手法は,ナイーブベイズモデルを用いた分類時に導入した閾値のパラメータが存在しないため,11点平均適合率を計算できない.そのため,ここでは再現率と適合率によって分類性能を評価している.なお,図中の``提案ラベル''が提案手法の結果であり,さきほどの評価実験で最良であった拡張モデルNB+ctxBF(divide)で文脈長$N=2$の実験結果を掲載している.また,``辞書(核)''は,辞書による手法のうち,核文ラベル付けのみを考慮した場合の結果であり,``辞書(核+近接)''が,核文ラベル付けと近接文ラベル付けの両方を考慮した場合の結果である.\fig{baseline}から,比較したどの手法よりも提案手法が良い性能を示していることがわかる.辞書による方法は,辞書に登録されている単語が含まれていない文に対しては適用できないため,再現率が低い.近接文を考慮することである程度の再現率を確保することは可能であるが,当然ながらその代償として適合率が下がる結果となっている.ここで,固有表現抽出課題がそうであるように,一般に,辞書に基づいた手法では再現率が低くなるがその一方で適合率が高くなる傾向がある.近接文の情報を用いない``辞書(核)''の結果は特にその傾向を示している.ただし,今回の実験結果では,再現率を固定させて適合率を見ると,ナイーブベイズ・モデルを用いた手法の方が適合率がより高い結果となっていた.これは,本研究課題では,辞書に登録されている一部の単語の情報だけでは文全体のクラス(クレーム/非クレーム)が正しく決定できない場合があり,このような場合には,辞書による方法よりも文内の単語情報を総合的に考慮できるナイーブベイズ・モデルが適していたためと考えられる.次に,文書ラベルを利用する方法は,文書内のすべての文を教師データとして利用できる.そのため,提案手法と同程度かそれ以上の教師データが利用できるという特徴がある.しかし,文書内には一般的にクレームと非クレームが混在することから,文書ラベルと整合していない信頼性の低いデータを多く含む結果となり,そのことが性能の低下に繋がっていると考えられる.最後に,人手作成による方法は,もっとも質の高い教師データを準備することができるが,作成負荷の高さから,量を確保することが難しい.今回は人手で2,000件(8,639文)のレビューから教師データを作成したが,提案手法を上回ることはなかった.\subsection{学習データとクレーム文検出精度の関係について}\label{sec:exp_size}先でも述べたように,一般に,人手作成された教師データは質が高い反面,多くの量を準備することが困難である.一方,提案手法のように自動生成された教師データは人手作成されたデータよりも質が落ちるが,ラベルのない生データを準備するだけで手軽に増量できる.ここでは,人手によって教師データを作成する場合と第\sec{gen}の提案手法によって教師データを自動生成する場合のそれぞれについて,教師データの量と分類性能の関係を調査する.なお,両者で教師データ以外の実験条件を合わせるために,この実験では,モデルには通常のナイーブベイズ・モデルを用いた.実験結果を\fig{datasize}に示す.横軸が学習データ量(対数スケール)であり,縦軸が11点平均適合率である.どちらの実験結果についても,まず今回の実験において最大で利用可能なデータ量(人手ラベルの場合:レビュー2,000件,提案ラベルの場合:レビュー約347,000件)から性能測定を開始し,そこから一部の学習データを無作為に削除することで使用できる学習データ量がより少ない環境を設定して,これを繰り返しながらグラフをプロットした.\begin{figure}[t]\begin{center}\includegraphics{20-5ia3f6.eps}\end{center}\caption{教師データ量の影響}\label{fig:datasize}\end{figure}\fig{datasize}から,まず,どちらの手法においてもデータ量を増やすことで性能が向上することが確認できる.データ量が同じ場合は,当然のことながら,人手による方法の方が良い性能となる.しかし,提案手法によってデータ量を増加させることで,今回の場合は10,000件までデータ量を増やした時点で両者の性能が同等となり,さらにデータ量を増やすことで提案手法が人手による手法を上回ることができた.この実験結果は,あくまでひとつのケース・スタディであり,具体的な数値自体に意味を求めることは困難であると考えられる.しかし,この結果は,人手によって十分な教師データが作成できない状況においては,自動生成手法を適用することで得られる教師データの量的利点という恩恵を受けられることを示唆していると言える.
\section{関連研究}
\label{sec:related}従来から,評判分析に関する研究を中心にして,意見を好評/不評に分類する研究が多くなされている\cite{sa2}.しかし,本論文では,応用面を重視した際,主に製品やサービスを提供する企業にとっては意見の好不評という側面だけでは十分でないことから,クレームという好不評とは異なる観点を導入し,意見を含むテキストからクレームという特定の意見を検出する手法について述べた.我々と同様に好評/不評以外の意見に着目した研究には,第\sec{hajimeni}で述べた永井らの研究\cite{nagai1,nagai2}の他にも幾つか存在する.例えば,金山ら\cite{kanayama2005a}は,テキストから好評/不評の評判に加えて要望を抽出する手法を提案している.彼らの手法は,文に含まれる評判や要望を意図フレームと呼ばれる独自の形式に自動的に変換しつつ抽出するようになっており,この変換・抽出処理において,既存の機械翻訳機構を再利用している.彼らの抽出対象である評判,要望の中に本研究におけるクレームも含まれていると考えられるが,彼らの手法は,機械翻訳機構が内部的に備える各種の言語知識のもとに成立しており,運用には人手による多大な管理負荷を要すると考えられる.一方で,本研究では極力人手の負荷を軽減することを指向しており,金山らの手法とはアプローチの方向性が異なる.また,他の関連研究として,自由記述アンケートから要求や要望を判定することに特化した大塚ら\cite{otsuka2004a}や山本ら\cite{yamamoto2006a}の研究がある.彼らの論文中に定義がないため厳密にはよくわからないが,彼らの扱っている要求や要望といった意見の分類クラスは,我々のクレームの一部分に該当すると考えられる.Goldbergら\cite{goldberg2009a}は,新年の願い事が集められたテキストコーパスからWish(願望)を機械学習を用いて自動抽出する研究を行っている.本研究では,レビュー中の各文をクレーム/非クレームに分類する課題に対して,ナイーブベイズ・モデルを採用し,データ特性に合わせて,その拡張を行った.拡張モデルでは,文間の周辺文脈をモデルに適切に反映させることができる.ここで,文書中の各文を対象とした分類問題を,文書中の文系列に対するラベリング問題とみなすことで,条件付確率場(ConditionalRandomFileds;CRF)\cite{lafferty2001a}のような,より高度なモデルを適用することについて検討する.まず,\sec{gen}で述べたデータ生成過程では,文書内のすべての文に対してラベルを付与するわけではなく,ある特定の文のみにラベルを付与することで教師データを作成する.そのため,CRFのような系列の構成要素についての全てのラベルを必要とするようなモデルは本研究の設定では直接は適用できない.坪井ら\cite{tsuboi2009a}によって,部分的なアノテーション情報からCRFの学習を行う手法が提案されており,この手法を適用することは不可能ではないが,彼らの手法を適切に適用するにあたり,アノテーションされている部分は人手による信頼性の高い情報であるという暗黙的な仮定が必要であると考えられ,データの自動生成を前提とする本研究の設定とは相性が良くないと考えられる.
\section{おわりに}
\label{sec:owarini}本論文では,レビュー文書からクレームが記述された文を自動検出する手法として,極力人手の負荷を軽減することを指向した次の2つの手法を提案した.(1)評価表現と文脈一貫性に基づく教師データ自動生成手法.(2)自動生成された教師データの特性を踏まえたナイーブベイズ・モデルの拡張手法.そして,評価実験を通して,これらの提案を組合せ,検出対象となる文の周辺文脈の情報を適切に捉えることで,クレーム文の検出精度を向上させることができることを示した.また,人手によって十分な教師データが作成できない状況においては,提案したデータ自動生成手法を適用することで得られる教師データの量的恩恵を受けられることを示した.本論文で議論ができなかった今後の課題としては,以下のような項目があげられる.\begin{itemize}\item分類クラスの事前分布について:ナイーブベイズ・モデルでは,\eq{eq1}にあるように,分類クラスの事前分布$P(c)$の情報を考慮する.しかし,本研究のように教師データを自動生成する際は事前分布$P(c)$はデータ自動生成手法に依存しており,本研究の場合では,利用する評価表現辞書の特徴に依存することになる.今後,評価表現辞書および事前分布$P(c)$と検出性能との関係について考察することが必要である.\item各種のパラメータ調整について:本研究において,幾つかのパラメータは恣意的に指定している.例えば,考慮する周辺文脈の長さについて評価実験では可変させていたが,それらは,データ生成,モデル学習,分類の各過程で同期させている.しかし,原理的にはデータ生成時のみ文脈長を延長するといった設定も可能であり,これらの最適な調整は今後の課題である.\item学習アルゴリズムについて:本研究では基本モデルとしてナイーブベイズ・モデルを採用して議論を進めたが,同様の議論をSupportVectorMachine(SVM)\cite{vapnik1995a}のような別の学習アルゴリズムを用いて行うことも興味深い.ただし,SVMにはモデルの学習速度が遅いという欠点がある.そのため,提案手法の利点である大規模な教師データを自動生成できるという点を活かすためにはSVMの高速学習を含めた総合的な検討が必要である.\itemクレームの内容分類について:本研究はクレーム検出をクレームであるか否かという2値分類問題として扱った.しかし,実利用環境で検出されたクレームを企業内で活かしていくには,クレーム内容も合わせて自動分類できることが望ましい.例えば,対象が宿泊施設の場合では,「部屋」や「食事」といったクレームの対象に関する分類クラスを別途設定し,これらも同時に考慮した検出モデルを検討することも興味深い.\item見逃し状況について:クレームを見逃す状況として,本論文では,レビュー文書内に部分的に現れるクレームの見逃しについて扱った.しかし,第\sec{hajimeni}でも述べたように,多対一型のコミュニケーションに起因する見逃しへの対処も重要である.今後,多対一型のコミュニケーションに起因する見逃しに対する提案手法の適用可能性についても検討したい.\end{itemize}\acknowledgment本研究を遂行するにあたり,楽天株式会社楽天技術研究所の新里圭司氏,平手勇宇氏,山田薫氏から示唆に富む多くの助言を頂きました.諸氏に深く感謝いたします.また,実験にあたり,楽天トラベル株式会社から施設レビューデータを提供して頂きました.ここに記して感謝の意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Goldberg,Fillmore,Andrzejewski,Xu,Gibson,\BBA\Zhu}{Goldberget~al.}{2009}]{goldberg2009a}Goldberg,A.~B.,Fillmore,N.,Andrzejewski,D.,Xu,Z.,Gibson,B.,\BBA\Zhu,X.\BBOP2009\BBCP.\newblock\BBOQMayAllYourWishesComeTrue:AStudyofWishesandHowtoRecognizeThem.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceandtheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\263--271}.\bibitem[\protect\BCAY{乾\JBA奥村}{乾\JBA奥村}{2006}]{inui}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockテキストを対象とした評価情報の分析に関する研究動向.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{金山\JBA那須川}{金山\JBA那須川}{2005}]{kanayama2005a}金山博\JBA那須川哲哉\BBOP2005\BBCP.\newblock要望表現の抽出と整理.\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\660--663}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{lafferty2001a}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalrandomfields:Probabilisticmodelsforsegmentingandlabelingsequencedata.\BBCQ\\newblockIn{\BemProceedingsofthe29thInternatinalConferenceonMachineLearning},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{Manning\BBA\Schutze}{Manning\BBA\Schutze}{1999}]{nv}Manning,C.~D.\BBACOMMA\\BBA\Schutze,H.\BBOP1999\BBCP.\newblock{\BemFoundationsofStatisticalNaturalLanguageProcessing}.\newblockTheMITPress.\bibitem[\protect\BCAY{Manning,Raghavan,\BBA\Schutze}{Manninget~al.}{2008}]{iir}Manning,C.~D.,Raghavan,P.,\BBA\Schutze,H.\BBOP2008\BBCP.\newblock{\BemIntroductiontoInformationRetrieval}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{永井\JBA高山\JBA鈴木}{永井\Jetal}{2002}]{nagai1}永井明人\JBA高山泰博\JBA鈴木克志\BBOP2002\BBCP.\newblock単語共起照合に基づくクレーム抽出方式の改良.\\newblock\Jem{情報科学技術フォーラム},\mbox{\BPGS\113--114}.\bibitem[\protect\BCAY{永井\JBA増塩\JBA高山\JBA鈴木}{永井\Jetal}{2003}]{nagai2}永井明人\JBA増塩智宏\JBA高山泰博\JBA鈴木克志\BBOP2003\BBCP.\newblockインターネット情報監視システムの試作.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2003}(23),\mbox{\BPGS\125--130}.\bibitem[\protect\BCAY{那須川\JBA金山}{那須川\JBA金山}{2004}]{nasukawa}那須川哲哉\JBA金山博\BBOP2004\BBCP.\newblock文脈一貫性を利用した極性付評価表現の語彙獲得.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2004}(73),\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{Nigam\BBA\Hurst}{Nigam\BBA\Hurst}{2004}]{nigam2004a}Nigam,K.\BBACOMMA\\BBA\Hurst,M.\BBOP2004\BBCP.\newblock\BBOQTowardsaRobustMetricofOpinion.\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications},\mbox{\BPGS\98--105}.\bibitem[\protect\BCAY{大塚\JBA内山\JBA井佐原}{大塚\Jetal}{2004}]{otsuka2004a}大塚裕子\JBA内山将夫\JBA井佐原均\BBOP2004\BBCP.\newblock自由回答アンケートにおける要求意図判定基準.\\newblock\Jem{自然言語処理},{\Bbf11}(2),\mbox{\BPGS\21--66}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2008}]{sa2}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2008\BBCP.\newblock{\BemOpinionMiningandSentimentAnalysis-FoundationsandTrendsinInformationRetrievalVol.2,Issue1-2}.\newblockNowPublishersInc.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2006}]{takamura}高村大也\JBA乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockスピンモデルによる単語の感情極性抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(2),\mbox{\BPGS\627--637}.\bibitem[\protect\BCAY{坪井\JBA森\JBA鹿島\JBA小田\JBA松本}{坪井\Jetal}{2009}]{tsuboi2009a}坪井祐太\JBA森信介\JBA鹿島久嗣\JBA小田裕樹\JBA松本裕治\BBOP2009\BBCP.\newblock日本語単語分割の分野適応のための部分的アノテーションを用いた条件付確率場の学習.\\newblock\Jem{情報処理学会論文誌},{\Bbf50}(6),\mbox{\BPGS\1622--1635}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{vapnik1995a}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer.\bibitem[\protect\BCAY{山本\JBA乾\JBA高村\JBA丸元\JBA大塚\JBA奥村}{山本\Jetal}{2006}]{yamamoto2006a}山本瑞樹\JBA乾孝司\JBA高村大也\JBA丸元聡子\JBA大塚裕子\JBA奥村学\BBOP2006\BBCP.\newblock文章構造を考慮した自由回答意見からの要望抽出.\\newblock\Jem{言語処理学会第12回年次大会併設ワークショップ「感情・評価・態度と言語」}.\end{thebibliography}\begin{biography}\bioauthor{乾孝司}{2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学大学院システム情報工学研究科助教.現在に至る.博士(工学).近年はCGMテキストに対する評判分析に興味をもつ.}\bioauthor{梅澤佑介}{2011年筑波大学情報学群情報メディア創成学類卒業.2013年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻修了.同年4月から株式会社ヤフー.在学中は自然言語処理の研究に従事.}\bioauthor{山本幹雄}{1986年豊橋技術科学大学大学院修士課程修了.同年株式会社沖テクノシステムズラボラトリ研究開発員.1988年豊橋技術科学大学情報工学系教務職員.1991年同助手.1995年筑波大学電子・情報工学系講師.1998年同助教授.2008年筑波大学大学院システム情報工学研究科教授.博士(工学).自然言語処理の研究に従事.言語処理学会,人工知能学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V25N05-05
|
\section{はじめに}
\label{sec:introduction}ニューラル機械翻訳(NMT)\cite{NIPS2014_5346,Bahdanau-EtAl:2015:ICLR}は流暢な訳を出力できるが,入力文の内容を全て含んでいることを保証できないという問題があり,翻訳結果において入力文の内容の一部が欠落(訳抜け)することがある.欠落は単語レベルの内容だけでなく,節レベルの場合もある.NMTによる訳抜けを含む日英翻訳の翻訳例を図\ref{fig:example}に示す.この翻訳例では網掛け部の訳が出力されていない.内容の欠落は,実際の利用時に大きな問題となる.この他にNMTでは,入力文中の同じ内容を繰り返し訳出してしまうことがあるという問題もある.本稿は,これらの問題のうち訳抜けを対象として扱う.\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f1.eps}\end{center}\hangcaption{訳抜けを含むNMTによる日英翻訳結果の例.入力の網掛け部の訳が機械翻訳出力に含まれていない.参照訳の網掛け部は入力の網掛け部に対応する部分を表している.}\label{fig:example}\end{figure}従来の統計的機械翻訳(SMT)\cite{koehn-EtAl:2003:NAACLHLT,chiang:2007:CL}は,デコード中にカバレッジベクトルを使って入力文のどの部分が翻訳済でどの部分が未翻訳であるかを単語レベルで明示的に区別し,未翻訳の部分がなくなるまで各部分を一度だけ翻訳するため,訳抜けの問題および訳出の繰り返しの問題はほとんど\footnote{フレーズテーブルを構築するために対訳コーパスから抽出した部分的な対訳表現が完全であれば,翻訳時に訳抜けは発生しない.しかし,対訳文内の単語対応の推定誤りや対訳文での省略などにより,抽出した部分的な対訳表現には完全でないものも含まれるため,訳抜けが発生する場合もある.}起きない.しかし,NMTでは対訳間での対応関係は,アテンションによる確率的な関係でしか得られないため,翻訳済の原言語単語と未翻訳の原言語単語を明示的に区別することができない.このため,SMTでのカバレッジベクトルによって訳抜けを防ぐ方法をそのまま適用することは出来ない.入力文中の各単語位置に応じた動的な状態ベクトルを導入して,この状態ベクトルをソフトなカバレッジベクトル(カバレッジモデル)と見なす手法がある\cite{tu-EtAl:2016:P16-1,mi-EtAl:2016:EMNLP2016}.カバレッジモデルを用いる手法は,訳抜けの問題を軽減できる可能性がある.しかし,未翻訳部分が残っているかどうかを明示的に検出して翻訳の終了を決定しているわけではない.そのため,カバレッジモデルを用いても訳抜けが発生する問題は残る.本論文\footnote{本研究の一部は,言語処理学会第23回年次大会およびTheFirstWorkshoponNeuralMachineTranslationで発表したものである\cite{goto-tanaka:2017:NLP,goto-tanaka:2017:NMT}.}では,2種類の確率に基づく値に対して,訳出されていない入力文の内容に対する検出効果を調べる.検出方法の1つはアテンション(ATN)の累積確率を用いる方法である(\ref{sec:atn}節).もう1つは,機械翻訳(MT)出力から入力文を生成する逆翻訳(BT)の確率を用いる方法である(\ref{sec:bt}節).後者は,言語間の単語の対応関係の特定を必ずしも必要とせずに,MT出力に入力文の内容が含まれているかどうかを推定できるという特徴がある.また,2種類の確率に基づく値を訳抜けの検出に使う場合に,それぞれ値をそのまま使う方法と確率の比を用いる方法の2つを比較する.さらに,これらの確率をNMTのリランキングに応用した場合(\ref{sec:reranking}節)および機械翻訳結果の人手修正(ポストエディット)のための文選択に応用した場合(\ref{sec:sentence_selection}節)の効果も調べる.これらの効果の検証のために日英特許翻訳のデータを用いた評価実験を行い(\ref{sec:experiment}節),アテンションの累積確率と逆翻訳の確率はいずれも訳抜け部分として無作為に単語を選択する場合に比べて効果があることを確認した.そして,逆翻訳の確率はアテンションの累積確率より効果が高く,これらを同時に用いるとさらに検出精度が向上した.また,アテンションの累積確率または逆翻訳の確率をNMTの$n$-best出力のリランキングに用いた場合の効果がプレプリント\cite{DBLP:journals/corr/WuSCLNMKCGMKSJL16,DBLP:journals/corr/LiJ16}で報告されているが\footnote{これらの研究との関係は詳しくは\ref{sec:reranking_results}節および\ref{sec:related_work}節で述べる.},これらと独立した本研究でも同様の有効性を確認した.さらに,訳抜けの検出をポストエディットのための文選択に応用した場合に効果があることが分かった.
\section{ニューラル機械翻訳}
\label{sec:nmt}本節では,\citeA{Bahdanau-EtAl:2015:ICLR}に基づく,本論文で用いたベースラインのNMTについて述べる.このNMTは入力文をエンコードするエンコーダーと訳文を生成するデコーダーからなる.入力文が与えられると,その各単語をone-hot表現に変換し,one-hot表現の系列$\mathbf{x}=x_1,\dotsc,x_{Tx}$を得る.$\mathbf{x}$の単語位置$j$において,エンコーダーは単語の分散表現の行列$E_x$とLSTM\cite{hochreiter:1997:NC}関数$f$を用いて,前向きのLSTMの出力ベクトル$\overrightarrow{h}_j=f(\overrightarrow{h}_{j-1},E_{x}x_j)$と後ろ向きのLSTMの出力ベクトル$\overleftarrow{h}_j=f(\overleftarrow{h}_{j+1},E_{x}x_j)$を生成し,それらをつなげたベクトル$h_j=[\overrightarrow{h}_j^{^\top};\overleftarrow{h}_j^{^\top}]^{^\top}$を作成する.デコーダーは入力$\mathbf{x}$を条件とする出力$\mathbf{y}=y_1,\dotsc,y_{Ty}$の確率を計算する.$\mathbf{y}$も単語を表すone-hot表現の系列である.デコーダーは$\hat{\mathbf{y}}=\argmax_{\mathbf{y}}p(\mathbf{y}|\mathbf{x})$となる$\hat{\mathbf{y}}$を探索して出力する.確率$p(\mathbf{y}|\mathbf{x})$を次のように各単語の確率の積に分解する.\begin{equation}p(\mathbf{y}|\mathbf{x})=\prod_ip(y_i|y_1,\dotsc,y_{i-1},\mathbf{x})\end{equation}本稿では$i$で$\mathbf{y}$の単語位置を表す.目的言語単語を表すone-hot表現の集合を$\mathcal{Y}$として,右辺の各条件付き確率を次のようにモデル化する.\begin{align}p(y_i|y_1,\dotsc,y_{i-1},\mathbf{x})&=\frac{\exp(y_i^\topW_\mathrm{t}t_i)}{\sum_{k\in\mathcal{Y}}\exp(k^\topW_\mathrm{t}t_i)}\\t_i&=m(U_\mathrm{s}s_i+U_\mathrm{y}E_\mathrm{y}y_{i-1}+U_\mathrm{c}c_i)\end{align}ここで,$s_i$はLSTMの隠れ状態,$c_i$はコンテキストベクトル,$W_.$と$U_.$は重み行列,$E_y$は目的言語の単語分散表現の行列を表しており,$m$はMaxout\cite{Goodfellow:2013:MN:3042817.3043084}関数を表している.状態$s_i$は次のように計算する.\begin{equation}s_i=f(s_{i-1},[c_{i}^{^\top};{E_\mathrm{y}y_{i-1}}^{^\top}]^{^\top})\end{equation}コンテキストベクトル$c_i$は$h_j$の重み付け和として,$c_i=\sum_j\alpha_{ij}h_j$で計算する.ここで,\begin{align}\alpha_{ij}&=\frac{\exp(e_{ij})}{\sum_j\exp(e_{ij})},\label{eq:alpha}\\e_{ij}&=v^\top\tanh(W_{\mathrm{s}}s_{i-1}+W_{\mathrm{h}}h_j+W_\mathrm{y}E_\mathrm{y}y_{i-1})\label{eq:e}\end{align}である.$v$は重みベクトルである.$\alpha_{ij}$がアテンション確率であり,$y_i$と$x_j$との確率的な対応関係をある程度表しているとみなすことができる.
\section{訳抜けした内容の検出}
\label{sec:detect}訳抜けした内容の検出への効果について,2種類の確率とそれらの利用方法について述べ\linebreakる\footnote{2種類の確率を組み合わせた利用方法は\ref{sec:detect_results}節で説明する.}.\subsection{累積アテンション確率の利用}\label{sec:atn}高いアテンション確率が割り当てられた原言語単語は訳出された可能性が高く,アテンション確率がほとんど割り当てられなかった原言語単語は訳出されていない可能性が高いと考えられる\cite{tu-EtAl:2016:P16-1}.\pagebreakそのため,入力文の各単語位置でのアテンション確率の累積は,訳抜け検出の手がかりになると考えられる.入力$x_j$の内容が$\mathbf{y}$から欠落している度合いを表すスコア「累積アテンション確率スコア」(Cumulativeattentionprobabilityscore;ATN-P)$a_j$を(\ref{eq:alpha})式の$\alpha_{ij}$を用いて次のように定義する.\begin{equation}a_j=-\log\Bigl(\sum_i\alpha_{ij}\Bigr)\label{eq:aj}\end{equation}(\ref{eq:aj})式の括弧内\footnote{小さな正の値$\epsilon$を加えれば,$\log(0)$の計算を避けることができる.今回の実験では$\log(0)$になった場合は無く,$\epsilon$は加算しなかった.}は$\mathbf{x}$の単語位置$j$での累積アテンション確率である.$i$は$\mathbf{y}$での目的言語単語位置を表す.ただし,本来,原言語単語が対応する目的言語単語を持たない場合\footnote{例えば,日本語の助詞「を」は英語では対応する語がない.}や,1つの原言語単語が複数の目的言語単語に対応する場合があり,$a_j$の値がそのまま訳抜けの度合いを表しているとは限らない.訳抜けしている場合と訳抜けしていない場合とではアテンション確率の累積値に違いがあると考えられる.そこで,訳抜けの有無を調べようとしている$\mathbf{y}$における$x_j$のアテンション確率の累積値と訳抜けしていない$\mathbf{y}$における$x_j$のアテンション確率の累積値との比に換算することで,訳抜けの度合いを表すスコアを補正する.ただし,このスコアを計算するためには,訳抜けしていない場合のアテンション確率の累積値を得る必要がある.このために次を仮定する.ここで,$n$-best出力を$\mathbf{y}^1,\dotsc,\mathbf{y}^n$と表す.\begin{description}\item[仮定:任意の入力単語の訳の存在]入力中の任意の単語$x_j,(1\lej\leT_x)$の訳は,$n$-best出力$\mathbf{y}^d,(1\led\len)$のどこかに存在する.ただし,本来,対応先を持たない原言語単語$x_j$を除く.\end{description}以下,この確率比に基づくスコア「累積アテンション確率比スコア」(Cumulativeattentionprobabilityratioscore;ATN-R)を定義する.先と同様に入力$x_j$の内容が$\mathbf{y}^d$から欠落している度合いを表すスコアATN-Pを$a_j^d$と表す.ここで,$\min_da_j^d$を与える出力$\mathbf{y}^d$には仮定に従って$x_j$の訳が出現しているとみなす\footnote{言語学的に対応先を持たない$x_j$であっても,アテンション確率の累積値が0になる訳ではなく通常は0より大きな値となる.その場合,その対数をとることで計算する$a_j$は$+\infty$にはならず,$\mathbf{y}$の単語数を$T_y$とすると$a_j$の値域は$(-\log(T_y),+\infty)$となる.}.そして,入力$x_j$の内容が出力$\mathbf{y}^d$から欠落している度合いを表す累積アテンション確率比スコアATN-R$r_j^d$を次のように定義する.\begin{equation}r_j^d=a_j^d-\min_{d'}(a_j^{d'})\end{equation}この値は確率の比の対数を表している.\subsection{逆翻訳確率の利用}\label{sec:bt}MT出力から入力文を生成することを逆翻訳と定義する.入力文の内容が訳抜けしている場合は,逆翻訳でMT出力から訳抜けした内容を表す原言語単語を生成する確率(逆翻訳確率)が低くなると考えられる.これを訳抜け検出の手がかりとして利用する.この方法は,言語間の単語の対応関係の特定を必ずしも必要としないという特徴がある.ここで,$\mathbf{y}^d$における$x_j$に対する逆翻訳確率に基づくスコア「逆翻訳確率スコア」(Backtranslationprobabilityscore;BT-P)$b_j^d$を次のように定義する.\begin{equation}b_j^d=-\log(p(x_j|x_1,\dotsc,x_{j-1},\mathbf{y}^d))\label{eq:bt}\end{equation}(\ref{eq:bt})式での確率は\ref{sec:nmt}節で述べたNMTを用いて計算する.さらに前節と同様に訳抜けしていない場合の逆翻訳確率との比に換算する.ここで前節と同様に``任意の入力単語の訳の存在''を仮定し,$\min_d(b_j^d)$を与える出力$\mathbf{y}^d$には$x_j$の訳を含むとみなす\footnote{言語学的に対応先を持たない$x_j$の逆翻訳確率は,訓練データの目的言語文にある程度出現する語であれば$x_j$を逆翻訳で生成できるように学習されるため,通常は0より大きな確率となる.その場合,その対数をとることで計算する$b_j$は$+\infty$にはならず,$b_j$の値域は$(0,+\infty)$となる.}.そして,入力$x_j$の内容が$\mathbf{y}^d$から欠落している度合いを表す確率比に基づくスコア「逆翻訳確率比スコア」(Backtranslationprobabilityratioscore;BT-R)$q_j^d$を次のように定義する.\begin{equation}q_j^d=b_j^d-\min_{d'}(b_j^{d'})\end{equation}
\section{翻訳スコアへの適用}
\label{sec:reranking}前節で述べたスコアは$n$-best出力から訳抜けが少ない出力の選択に役に立つと考えられる.そこで,これらを翻訳スコアに利用して$n$-best出力をリランキングし,その効果を調べる.リランキングのスコアには翻訳の尤度($\log(p(\mathbf{y}^d|\mathbf{x}))$)から重み付けした訳抜けのスコアを引いた値を用いる.$r_j^d$を用いた場合のスコアとして\begin{equation}\log(p(\mathbf{y}^d|\mathbf{x}))-\beta_{r}\sum_jr_j^d\end{equation}$q_j^d$を用いた場合のスコアとして\begin{equation}\log(p(\mathbf{y}^d|\mathbf{x}))-\beta_{q}\sum_jq_j^d\end{equation}を用いる.ここで,$\beta_{r}$と$\beta_{q}$は重みパラメータである.なお,リランキングでは同じ入力に対する出力間の比較となるため,ATN-RとATN-Pのリランキング結果は同じになる\footnote{一方,複数の入力文間で翻訳結果をランキングする場合は結果は異なる.例えば,複数の入力文の翻訳結果を訳抜けの度合いを表すスコアでランキングし,翻訳結果が訳抜けしている可能性が高い入力文を選択しようとする場合などである.}ので,本タスクでは両方を併記してATN-P/ATN-Rと表記する.同様にBT-RとBT-Pのリランキング結果も同じになるので,本タスクでは両方を併記してBT-P/BT-Rと表記する.$r_j^d$と$q_j^d$を同時に使う場合は,重みパラメータ$\gamma,\lambda$を用いて\begin{equation}\log(p(\mathbf{y}^d|\mathbf{x}))-\gamma\sum_jr_j^d-\lambda\sum_jq_j^d\end{equation}をスコアとして用いる.
\section{ポストエディットのための文選択}
\label{sec:sentence_selection}訳抜けした内容の検出の応用先の1つとして,機械翻訳結果を人手で後修正するポストエディットへの応用がある.機械翻訳の翻訳品質の向上により,ポストエディットによる翻訳は費用や時間のコストを下げる手段として産業的な発展が期待されている.完全な翻訳が必要な場合は全てのMT出力文を確認して修正する必要があるが,多少の誤りを含む翻訳でも役に立つ場面も多く存在する.例えば,外国語で書かれた特許などのテキストを母国語で閲覧できるサービスや,娯楽向けのテレビ番組の外国語字幕などである.このような場合に,機械翻訳の出力をそのまま利用することも選択肢の1つとなるが,訳質の低い文を自動で選択して,一部の訳質の低い訳文だけを人手で後修正すれば,限られた労力で訳質を効果的に改善することができる\footnote{例えば,数\%の文だけを後修正する場合,全体を修正する場合に比べて少ないコストで実施可能である.}.翻訳の誤りは訳抜け以外にも訳語選択の誤りや語順の誤り,訳出の繰り返しなど複数の要因があるが,それぞれの要因の誤りを推定して訳文が含む誤りの程度を推測できることが理想的である\footnote{ポストエディット対象の訳文を選択する他に,ポストエディットする際に誤り箇所を強調表示することも,作業者の役に立つと考えられる.}$^,$\footnote{翻訳結果に誤りを含む文を選択してポストエディットすることは,機械翻訳システムの能動学習としても利用できる.}.本稿では訳抜けの検出を目的にしているので,ここでは,入力文と訳文のペアの集合から訳抜けを多く含むペアの選択をタスクとして考える.このタスクの場合は,異なる入力文間の比較となるため,ATN-PとATN-Rのスコアの違いやBT-PとBT-Rのスコアの違いが結果に影響する.文のスコアには\ref{sec:reranking}節と同様に単語のスコア$u_j$の和\begin{equation}\sum_{j}u_j\end{equation}を用いる.ここで,$u_j$は\ref{sec:detect}節で説明した各単語のスコア($a_j$など)を表している.2種類のスコアを同時に使う場合は,重みパラメータ$\gamma,\lambda$を用いて文のスコアの重み付け和を用いる.例えば$r_j$と$q_j$を用いる場合\begin{equation}\gamma\sum_jr_j+\lambda\sum_jq_j\end{equation}となる.
\section{実験}
\label{sec:experiment}本節では,長い文を含む日英特許翻訳のデータを用いて,訳抜け検出での効果,翻訳への効果,および訳抜けを多く含む文選択への効果を調べた実験について述べる.\subsection{設定}\label{sec:setup}実験には,NTCIR-9とNTCIR-10の日英特許翻訳タスク\cite{goto-EtAl:2011:NTCIR9,goto-EtAl:2013:NTCIR10}のデータを用いた.この訓練データの対訳文対の数は約320万である.この中で,日英いずれも100単語以下の長さの文ペアを日英(JE)翻訳の訓練に用いた.計算量を削減するために逆翻訳用の英日翻訳の訓練には,日英いずれも50単語以下の長さの文ペアを訓練に用いた.これらの訓練で単言語データは用いていない.タスクの公式開発データ2,000文のうち最初の1,000文を開発データとして用いた.テスト文と参照訳からなるテストデータは,NTCIR-9が2,000文対,NTCIR-10が2,300文対である.英語のトークナイザにはstepptagger\footnote{http://www.nactem.ac.uk/enju/index.html},日本語の単語分割にはJuman7.01\footnote{http://nlp.ist.i.kyoto-u.ac.jp/EN/index.php?JUMAN}を用いた.NMTのシステムには,Kyoto-NMT\cite{cromieres:2016:COLINGDEMO}を用いた\footnote{(\ref{eq:e})式に合うように変更した.}.本稿で用いたベースラインNMTの設定は次のとおりである.原言語と目的言語の語彙数はそれぞれ頻度が高い30,000語を用い,それ以外の語は特別な語(UNK)に置き換えた.エンコーダーの前向きと後ろ向きのLSTMのユニット数はそれぞれ1,000,デコーダーのLSTMのユニット数は1,000,単語の分散表現のベクトルサイズは620,出力層の前のベクトルの次元は500とした.これらの設定は\citeA{Bahdanau-EtAl:2015:ICLR}と同じである.ミニバッチサイズには64を用いた.ただし,逆翻訳のモデルの訓練には128を用いた.パラメータの推定にはAdam\cite{DBLP:journals/corr/KingmaB14}を用いた.NMTモデルの訓練は6エポック実施した.開発データは,ミニバッチ200回毎にBLEUスコアを計算してスコアが高いモデルを保存するために利用した.翻訳の探索は,ビーム幅20でビームサーチした.出力長は入力長の2倍以下に制限した.このビームサーチで得られるすべての出力文\footnote{文頭からEOSまでの単語列.}を$n$-best出力として用いた\footnote{$n$は入力文によって異なる.$n$は入力文が長い時に大きくなる傾向がある.$n$の平均はNTCIR-10で161.7,NTCIR-9で142.7,$n$の最小値と最大値はNTCIR-10で20と1,140,NTCIR-9で20と889であった.}.\ref{sec:reranking}節の重みパラメータ$\beta_{r}$,$\beta_{q}$,$\gamma$,$\lambda$は開発データでBLEUスコアが高くなるものを$\{0.1,$$0.2,$$0.5,$$1.0,$$2.0\}$から選択した.\subsection{入力文の内容の訳抜け検出での効果}\label{sec:detect_results}NTCIR-10のテストデータをベースラインNMTで英語に翻訳し,訳抜けした内容を人手で特定した.そして,\ref{sec:detect}節のスコアによる訳抜けした内容の検出効果を比較した.\subsubsection*{評価用データの作成}\label{sec:eval_data_detect}次の手順で評価用データを作成した.まずNTCIR-10のテストデータからテスト文(日本語)とその参照訳(英語)の長さがいずれも100単語以下のテスト文を選択し,選択したテスト文をベースラインNMTで英語に翻訳した.MT出力にはビームサーチで1位の出力を用いた.訳抜けがありそうなMT出力を選ぶため,(MT出力の長さ/min(参照訳の長さ,入力文の長さ))の値が小さいテスト文から順番に選択し,テスト文中で翻訳されていない内容語に人手でタグを付与した.これによって100文を選択し,選択した文の全単語4,457語のうち632語の訳抜けした内容語を認定した.これらの632語を正解データとした.この100文を選択する際に,入力文と訳文で訳出された部分の単語対応が特定できない部分があることで,訳抜けした部分を特定できなかった文は除いた.また,内容語の判定には文字種を用い,漢字,数字,カタカナ,アルファベットのいずれかの文字種を含む語を内容語とした.なぜなら,今回対象とした特許文では,実質的な意味を持つ語は通常上記の文字種が用いられること,そして,平仮名は文中で主に機能的表現に用いられ,品詞が動詞などの場合でも平仮名で表記されるもの(例えば「する」など)の多くは形式的な働きが強く実質的な内容を持たないためである.なお,NMTの出力に含まれるUNKは翻訳元の語の意味を保持していないが,ここでは訳抜けとして扱わない.例えば,日本語の入力文中の表現が「陰極211b」で,対応する英語の参照訳が「thecathode211b」の時に,対応する出力の表現が「thecathodeUNK」の場合,UNKは日本語の「211b」に対応していると考えることができる.このような場合に,日本語の単語「211」と「b」は訳抜けしていないとして扱う.なぜならば,扱う語彙が制限されているために英語の「211b」を出力する代わりにUNKを出力しているので,これは訳抜けの問題ではなく扱える語彙の問題であるためである.\subsubsection*{2種類のスコアの組み合わせ方法}2種類のスコア$r_j^d$と$q_j^d$を同時に用いて訳抜けを検出する場合(BT-R\&ATN-R)は,\ref{sec:setup}節で選択した重みパラメータ$\gamma,\lambda$を用いて,\begin{equation}\gammar_j^d+\lambdaq_j^d\label{eq:combi}\end{equation}をスコアとして用いた.\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f2.eps}\end{center}\hangcaption{訳抜けした内容の検出結果.Recallが0.5の時,グラフのラインは上からBT-R\&ATN-R,BT-R,BT-P,ATN-R,ATN-Pを表している.}\label{fig:pr}\end{figure}\subsubsection*{結果と議論}正解を付与した100文のテスト文中の全ての語を\ref{sec:detect}節のそれぞれのスコアに基づいてランキングし,正解(632語)と比較した\footnote{訳抜けの有無を決定するためには,さらにスコアの閾値を決める必要があるが,今回はスコアの性質の調査であるため,閾値は用いていない.}.結果を図\ref{fig:pr}に示す.全単語(4,457語)から無作為に単語を選択した際の精度の期待値は$0.14=632/\text{4,457}$である.この結果から,次のことが確認された.\begin{itemize}\item累積アテンション確率スコア(ATN-P)と逆翻訳確率スコア(BT-P)は無作為な選択に比べて効果がある.\item累積アテンション確率比スコア(ATN-R)は累積アテンション確率スコア(ATN-P)より検出精度が高く,逆翻訳確率比スコア(BT-R)は逆翻訳確率スコア(BT-P)より検出精度が高い.\item逆翻訳確率比スコア(BT-R)は累積アテンション確率比スコア(ATN-R)より検出精度が高い.\item2種類のスコアを同時に利用する(BT-R\&ATN-R)とそれぞれのスコア(BT-R,ATN-R)のみを利用する場合より検出精度が高い.\end{itemize}ここで,BT-Rでスコアが大きくならずに検出の感度が低かった例を図\ref{fig:fail_example}に示す.図\ref{fig:fail_example}では,入力文に同一の語(ISO)が2回出現しているが,出力中にそれらの訳語(ISO)は1つしか出現していない.入力中の下線の``ISO''が訳抜けしていることを検出するためには,入力中の下線のない``ISO''の訳抜けのスコアは小さく,下線の``ISO''のスコアは大きいことが必要である.しかし,出力中に``ISO''が含まれているために,原言語単語の``ISO''が逆翻訳で生成されやすい状態となったため,下線の``ISO''のスコアが大きくならなかったと考えられる.\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f3.eps}\end{center}\hangcaption{逆翻訳で訳抜けの検出感度が低かった例.入力の網掛け部が訳抜けした部分を表している.参照訳の網掛け部は入力で訳抜けした部分に対応した部分を表している.}\label{fig:fail_example}\end{figure}BT-Pは,入力中に1回しか出現しない内容語の検出の感度は高いと考えられるが,入力中に複数回出現する内容語の検出の感度は低いと考えられる.これに対して,ATN-Pの累積確率は,目的言語単語を生成する数に依存して値が変わるため,入力に同一の内容語が複数出現した場合でも,検出の感度はBT-Pのようには低くならないと考えられる.なお,ATN-RはATN-Pに基づいているので,ATN-RはATN-Pと同じ特性があり,同様にBT-RはBT-Pに基づいているので,BT-RはBT-Pと同じ特性がある.すなわち,BT-RとATN-Rは訳抜けした内容の検出感度(表\ref{table:performance_relation})において一部で相補的な関係にあるため,これが組み合わせで効果があった理由の一つと考えられる.\begin{table}[t]\caption{訳抜けした内容の検出感度}\label{table:performance_relation}\input{05table01.tex}\end{table}\subsection{$\boldsymbol{n}$-best出力のリランキングでの効果}\label{sec:reranking_results}\ref{sec:reranking}節で説明した方法でベースラインNMTの$n$-best出力をリランキングし,各スコアの翻訳への効果を調べた.\subsubsection*{比較したシステム}比較のために,ベースラインNMTシステムに2つのカバレッジモデル\cite{mi-EtAl:2016:EMNLP2016,tu-EtAl:2016:P16-1}\footnote{競合する手法ではなく,協調して利用できる手法である.}を導入した結果も計算した.これらのモデルはデコード時に利用するものである.なお,\citeA{mi-EtAl:2016:EMNLP2016}では,カバレッジモデルにGRUを用いている\footnote{\citeA{mi-EtAl:2016:EMNLP2016}で${\bfU}_{GRU}$と表記されているモデル.}が,ここではLSTMを用いた\footnote{NMTベースラインでGRUよりLSTMを用いた方がBLEUスコアが高く,カバレッジモデルでChainer\cite{chainer_learningsys2015}のGRUの実装を使うよりChainerのLSTMの実装を使った方が学習速度が速かったためである.}.\citeA{mi-EtAl:2016:EMNLP2016}のカバレッジモデルをneuralカバレッジモデル(C\textsc{overage}-neural)と呼ぶ.\citeA{tu-EtAl:2016:P16-1}はlinguisticとneuralのカバレッジモデルを提案している.ここでは,これらのうちlinguisticバージョンを用い,このモデルをlinguisticカバレッジモデル(C\textsc{overage}-linguistic)と呼ぶ.参考として,Moses\cite{koehn-EtAl:2007:PosterDemo}で,フレーズベースSMTのdistortion-limitを20,階層フレーズベースSMTのmax-chart-spanを1,000に設定した従来のSMTによる結果も計算した.さらに,言語モデルを用いた$n$-best出力のリランキングも実施した\footnote{KenLM(https://kheafield.com/code/kenlm/)を用いて訓練データの目的言語文で5-gramの言語モデルを構築し,この言語モデルで出力文の生成確率の負の対数を計算した.\ref{sec:reranking}節と同様に重み付けして翻訳の尤度から引いた値でベースラインNMTの$n$-best出力をリランキングした.この重みは,他の重み($\beta_r$など)と同様に\ref{sec:setup}節の手順で選択した.}.このリランキング結果をRerankwithLMと呼ぶ.\subsubsection*{結果と議論}表\ref{table:trans_result}にBLEU-4\cite{papineni-EtAl:2002:ACL}の結果を示す.この結果からATN-P/ATN-RとBT-P/BT-Rを翻訳スコアに利用することに効果があることが分かる.\pagebreakまた,ベースラインNMTは従来のSMTより高いBLEU値が得られている.以下,表記を簡素化するために,ATN-P/ATN-RではATN-Pを代表して用い,BT-P/BT-RではBT-Pを代表して用いる.\begin{table}[t]\caption{翻訳結果(BLEU(\%))}\label{table:trans_result}\input{05table02.tex}\end{table}以下,要素毎の効果を議論する.まず,ATN-PとBT-Pのリランキングでの効果について述べる.ATN-PとBT-Pのどちらもリランキングに効果があった.ATN-Pとほぼ同じスコアがリランキングに効果があることはプレプリント\cite{DBLP:journals/corr/WuSCLNMKCGMKSJL16}でも確認されており,BT-Pがリランキングに効果があることはプレプリント\cite{DBLP:journals/corr/LiJ16}でも確認されている.これらの研究と互いに独立した我々の研究でもリランキングに関して同様の効果を確認した.ATN-PとBT-Pを比較すると,BT-PのほうがATN-Pより少しBLEU値が高かった.ATN-PとBT-Pの両方を用いる(RerankwithBT-P/BT-R\&ATN-P/ATN-R)とそれぞれを単独で用いるよりもBLEU値が高かった.これらの結果は\ref{sec:detect_results}節の結果と整合する.表\ref{table:trans_result}のRerankwithBT-P/BT-RとRerankwithBT-P/BT-R\&ATN-P/ATN-Rの差は,ブートストラップ・リサンプリングテスト\cite{koehn:2004:EMNLP}のツール\footnote{https://github.com/odashi/mteval}を用いた計算で$\alpha=0.01$で統計的に有意であった.また,RerankwithBT-P/BT-RとRerankwithATN-P/ATN-Rの差は,NTCIR-10では$\alpha=0.01$で,NTCIR-9では$\alpha=0.05$で統計的に有意であった.次に,カバレッジモデルの効果について議論する.表\ref{table:trans_result}のNMTBaselineとC\textsc{overage}-neuralとでは差が小さく(0.5BLEUポイント未満),このデータセットではC\textsc{overage}-neuralの効果はあまりみられなかった.C\textsc{overage}-linguisticはC\textsc{overage}-neuralより改善が大きかったが,NMTBaselineとC\textsc{overage}-linguisticとの差も0.5BLEUポイント未満であった.それに対して,アテンション確率を用いてリランキングした場合(RerankwithATN-P/ATN-R)では,1BLEUポイント以上の向上が得られている.カバレッジモデルはアテンション確率を利用する方法であるため,今回の実験では,アテンション確率の情報を十分に活用できていないことが分かる.すなわち,カバレッジモデルはアテンション確率の情報を十分に活用できるようにエンド・ツー・エンドで学習できるとは限らないと言える.学習の困難の度合いはデータに依存すると考えられる.\footnote{本稿の実験でのカバレッジモデルによるBLEUスコアの改善幅が\citeA{tu-EtAl:2016:P16-1,mi-EtAl:2016:EMNLP2016}の実験での改善幅ほど大きくなかった理由として,次のように考えている.まず,入力文と出力の長さの関係を示す,本稿の図\ref{fig:length}と\citeA{tu-EtAl:2016:P16-1}での図6を比較する.我々のベースラインNMTの結果とは違って,彼らのベースラインNMTの出力長は,特に入力文が50単語以上の時にフレーズベースSMTの出力長よりも大幅に短くなっている.そして,本稿の図\ref{fig:length}でフレーズベースSMTの出力長は参照訳長に近くなっている.これらのことから,カバレッジモデルの改善幅の違いの理由として以下が挙げられる.\begin{itemize}\item彼らのベースラインNMTに比べて本稿のベースラインNMTでは,カバレッジモデルにより改善できる余地が小さいこと.\item本稿の実験では訓練中にカバレッジモデルの効果により結果が改善される場合が彼らの実験に比べて少ないため,本稿の実験ではカバレッジモデルのパラメータを適切に推定することが彼らの実験より難しいと考えられること.\end{itemize}2番目の項目は,パラメータの数が少ないC\textsc{overage}-linguisticの方がパラメータの数が多いC\textsc{overage}-neuralより改善が大きい理由と考えられる.}\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f4.eps}\end{center}\caption{目的言語文の平均長}\label{fig:length}\vspace{-0.5\Cvs}\end{figure}訳抜けが発生するとその分だけ出力が短くなるため,出力長は訳抜けの程度をある程度表している\footnote{ただし,訳抜けの他に,訳出の繰り返しが発生する可能性もあるため,出力が参照訳と同程度の長さだとしても訳抜けしていないとは限らない.}.そこで,NTCIR-10のテストデータで100単語以下の文を用いて出力長を比較した.入力文長の各クラスでの目的言語文の平均長を図\ref{fig:length}に示す.\pagebreak図\ref{fig:length}から,NMTベースラインの出力の平均長が参照訳の平均長より短い傾向にあることが分かり,それだけ訳抜けが発生していると考えられる.それに対して,表\ref{table:trans_result}のRerankwithBT-P/BT-R\&ATN-P/ATN-Rの出力の平均長はNMTベースラインより長く,参照訳により近い長さになっている.これは,NMTベースラインの出力より訳抜けが少なくなっていることを示唆していると考えられる.表\ref{table:trans_result}のRerankwithLMはベースラインNMTと比べてBLEU値が改善していない.言語モデルを用いたリランキングでの効果は見られなかった.NMTベースラインの$n$-best出力をリランキングした場合のBLEU値の上限を調べるため,$n$-best出力から文単位のBLEU値が最大の出力文を選択した場合のBLEU値を計算した\footnote{文単位のBLEU値が最大の出力を$n$-bestから選択することは,コーパス単位で最大のBLEU値(オラクルBLEU値)となる選択と一致するとは限らないが,オラクルBLEU値に近いコーパス単位のBLEU値が得られると考えられる.}.その結果は,NTCIR-10テストデータで47.29,NTCIR-9テストデータで46.33であった.これより,$n$-best出力のリランキングでさらなる改善の余地があることが分かる.表\ref{table:trans_result}で最も結果が良かったBT-PとATN-Pによるリランキング(RerankwithBT-P/BT-R\&ATN-P/ATN-R)で訳抜けが減少しているかどうかを確認するために,テストデータから100文を無作為に選択して,ベースラインNMTの結果とRerankwithBT-P/BT-R\&ATN-P/ATN-Rの結果での訳抜けと訳出の繰り返しが発生した原言語の内容語の数を調べた.また,カバレッジモデルを用いた手法のうち表\ref{table:trans_result}で結果が良かったNMTBaselinewithC\textsc{overage}-linguisticの結果についても調べた.ここで,文を選択する際に入力長と参照訳長が100単語以内のものに限定した.内容語は\ref{sec:detect_results}節で説明した条件を満たす語とした.結果を表\ref{table:untranslated_rate}に示す.この結果から,BT-PとATN-Pによるリランキングによって訳出の繰り返しが増加せずに訳抜けが減少したことを確認した.また,カバレッジモデルを用いても訳抜けが発生したことを確認した.発生した訳抜けはベースラインNMTより少なかったが,BT-PとATN-Pを用いたリランキングより多かった.\begin{table}[b]\caption{訳抜けした内容語の割合と訳出が繰り返された内容語の割合}\label{table:untranslated_rate}\input{05table03.tex}\end{table}\subsection{ポストエディットのための文選択での効果}\label{sec:sentence_selection_results}\subsubsection*{評価データと設定}評価データには,\ref{sec:eval_data_detect}節での訳抜けした内容語にタグを付与した入力文100文とベースラインNMTの翻訳結果との文のペアと,\ref{sec:reranking_results}節での訳抜けした内容語にタグを付与した入力文100文とベースラインNMTの翻訳結果との文のペアを用いた.これらは6文が重複していたため,重複を除いた全体の文のペア数は194であった.これらの194ペアそれぞれに訳抜けした内容語の数(訳抜け数と呼ぶ)を付与したデータを作成し,これを評価データとして用いた.そして,各ペアのスコアを計算し,文のスコアと訳抜け数とのピアソンの積率相関係数を調べた.相関係数の値域は$[-1,1]$で,相関が無い場合は$0$になる.相関係数が1に近いほど,訳抜け数の予測精度が高いことを示している.2種類のスコアを同時に使う場合に利用する重みパラメータ$\gamma,\lambda$には\ref{sec:setup}節で選択した値を用いた.\subsubsection*{結果と議論}結果を表\ref{table:pearson}に示す.各スコアは訳抜け数と相関があることから訳抜けを含む文の選択で効果があることが分かる.以下,表\ref{table:pearson}の結果について考察する.\begin{table}[b]\caption{各文の訳抜けした内容語の数と文のスコアとのピアソンの積率相関係数}\label{table:pearson}\input{05table04.tex}\end{table}まず,\ref{sec:detect_results}節の結果から予想されることを示し,次に予想と結果を対比する.\ref{sec:detect_results}節で示した単語レベルでの訳抜けした内容の検出精度がそのまま反映されるならば,次のことが予想される.予想(1)ATN-PよりATN-R,BT-PよりBT-Rの方が相関係数が高い.予想(2)ATNよりBTのほうが相関係数が高い.予想(3)BT-RとATN-Rとの組み合わせは構成要素単独より相関係数が高い.これらの予想と結果を対比する.まず予想(1)に関して,BT-PとBT-Rについて比較する.BT-Pの相関係数よりBT-Rの相関係数が高く,BTについて予想(1)と結果は一致した.BT-RはBT-Pよりも訳抜け数の多い文の選択で効果が高いことが分かった.次に予想(1)に関して,ATN-PとATN-Rについて比較する.ATN-Pの相関係数に対してATN-Rの相関係数は高くないため,ATNについては予想(1)と結果は一致しなかった.その原因について分析する.訳抜けするとそれだけ出力が短くなるため,訳出の繰り返しがなければ訳抜け数と入出力長差\footnote{原言語文と目的言語文の平均文長に差がある場合は,その差を解消するように,例えば原言語文長に(目的言語文平均長/原言語文平均長)を掛けて補正した方がより正確であるが,ここでは平均長の差を無視して補正は行っていない.}とは相関する\footnote{入力文長から出力文長を引いた値と訳抜け数との相関係数は0.852であった.この値は相関があることを示している.}.そこで我々は,入出力長の違いがスコアに反映されている程度がATN-PとATN-Rとで異なることが原因である可能性があると考え,入力文長から出力文長を引いた値(文長差スコアと呼ぶ)と文のスコアとの相関係数を調べた.その結果,ATN-Pの文のスコアと文長差スコアとの相関係数は0.943,ATN-Rの文のスコアと文長差スコアとの相関係数は0.903で,ATN-Pに基づく文のスコアの方が,ATN-Rに基づく文のスコアより入出力長の違いを反映していることが分かった.すなわち,ATN-Pから比に基づくスコアATN-Rに換算することで,ATN-Pに基づく文のスコアが保持している入出力長差の情報が劣化したと考えられる.このことが,ATN-Rの個々の単語に対する訳抜け検出精度の向上効果を打ち消したたため,ATN-Rの相関係数はATN-Pの相関係数より大きくならなかったと考えられる\footnote{なお,ここで用いたNMTベースラインは訳出の繰り返しが少ない(表\ref{table:untranslated_rate})が,訳出の繰り返しが多く含まれるMT出力では,文長差スコアと訳抜け数との相関が下がるため,文長差スコアと相関が高いATN-Pに基づく文のスコアでは訳抜け数の予測精度が低下すると考えられる.}.予想(2)に関して,ATNとBTを比較する.ATN-PとATN-Rの相関係数がBT-PやBT-Rの相関係数より高く,予想(2)と結果は一致しなかった.その原因を分析する.BT-PおよびBT-Rの文のスコアと文長差スコアとの相関を調べた.その結果,BT-Pの文のスコアと文長差スコアとの相関係数は0.695,BT-Rの文のスコアと文長差スコアとの相関係数は0.774であった.これらはATN-Pの文のスコアと文長差スコアとの相関係数(0.943)およびATN-Rの文のスコアと文長差スコアとの相関係数(0.903)より低い.そのため,ATN-PおよびATN-Rの文のスコアは,BT-PおよびBT-Rの文のスコアに比べて入出力長の違いを反映していることが分かった.このことが,BTよりATNの方が相関係数が高かった原因と考えられる.予想(3)に関して,スコアの組み合わせの効果を調べる.BT-Rの文のスコアとATN-Rの文のスコアの組み合わせの相関係数は,組み合わせの構成要素である文のスコア単独での相関係数より高かった.予想(3)とこの結果は一致した.また,BT-Rの文のスコアとATN-Pの文のスコアの組み合わせの相関係数も,組み合わせの構成要素である文のスコア単独での相関係数より高かった.個々の単語の訳抜けの検出精度が高いBT-Rと入出力長差を文のスコアに反映しやすいATN-PもしくはATN-Rとの組み合わせ(BT-R\&ATN-PおよびBT-R\&ATN-R)は,それぞれの特徴を活用したことで相関係数が高くなったと考えられる.ポストエディットのための文選択では,相関係数が最も高かったBT-RとATN-Pの組み合わせの文のスコアを利用することが良いと思われる.この文のスコアと文の訳抜け数は相関があった(相関係数が0.925)ため,この文のスコアはポストエディットのために訳抜けの多い文を選ぶのに役に立つことが分かった.
\section{関連研究}
\label{sec:related_work}訳抜けを減らす既存研究として\ref{sec:introduction}節でカバレッジモデルを紹介した.これらの研究の他に,我々の研究と互いに独立した研究がある\cite{Tu-etAl:AAAI2017,DBLP:journals/corr/WuSCLNMKCGMKSJL16,DBLP:journals/corr/LiJ16}.\citeA{Tu-etAl:AAAI2017}はデコーダーのステートから入力文を生成する確率をリランキングに用いている.この確率は入力文を生成する確率という点で逆翻訳の確率に類似しているが,逆翻訳では出力文の情報のみを用いて入力文の生成確率を計算するのに対して,この確率は出力文の情報に加えて入力文の情報も含んでいるデコーダーのステートから入力文の生成確率を計算しているという違いがある.\citeA{DBLP:journals/corr/WuSCLNMKCGMKSJL16}はarXivのプレプリントで,アテンション確率の累積をリランキングに用いて効果を確認している.\citeA{DBLP:journals/corr/LiJ16}もarXivのプレプリントで,逆翻訳の確率をリランキングに用いて効果を確認している.これらの研究は,アテンション確率の累積と逆翻訳の確率の訳抜け検出への効果を直接評価していない.それに対して我々の研究は,アテンション確率の累積と逆翻訳の確率の訳抜け検出への効果を直接評価し,これらの組み合わせの効果についても調査し,これらの関係についても考察している.また,ポストエディットのための文選択への効果も評価している.
\section{おわりに}
\label{sec:conclusion}NMTでの訳抜けの検出について,アテンションの累積確率と逆翻訳の確率を用いた場合の効果を評価し,有効性を確認した.そして,これらの値を直接用いるよりも,$n$-best出力で負の対数が最小の場合との比を用いる方が検出精度が高く,アテンションの累積確率比と逆翻訳の確率比を同時に用いるとさらに検出精度が向上した.また,これらをNMTの$n$-best出力のリランキングに用いた場合の有効性も確認した.さらに,訳抜けの検出をポストエディットのための文選択に応用した場合の効果も評価し,効果があることが分かった.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2015}]{Bahdanau-EtAl:2015:ICLR}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Chiang}{Chiang}{2007}]{chiang:2007:CL}Chiang,D.\BBOP2007\BBCP.\newblock\BBOQHierarchicalPhrase-BasedTranslation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(2),\mbox{\BPGS\201--228}.\bibitem[\protect\BCAY{Cromieres}{Cromieres}{2016}]{cromieres:2016:COLINGDEMO}Cromieres,F.\BBOP2016\BBCP.\newblock\BBOQKyoto-NMT:ANeuralMachineTranslationimplementationinChainer.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonComputationalLinguistics:SystemDemonstrations},\mbox{\BPGS\307--311},Osaka,Japan.\bibitem[\protect\BCAY{Goodfellow,Warde-Farley,Mirza,Courville,\BBA\Bengio}{Goodfellowet~al.}{2013}]{Goodfellow:2013:MN:3042817.3043084}Goodfellow,I.~J.,Warde-Farley,D.,Mirza,M.,Courville,A.,\BBA\Bengio,Y.\BBOP2013\BBCP.\newblock\BBOQMaxoutNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe30thInternationalConferenceonInternationalConferenceonMachineLearning-Volume28},\mbox{\BPGS\III{\NotNdash}1319--III{\NotNdash}1327}.JMLR.org.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{goto-EtAl:2013:NTCIR10}Goto,I.,Chow,K.~P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{goto-EtAl:2011:NTCIR9}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsofthe9thNTCIRWorkshopMeeting},\mbox{\BPGS\559--578}.\bibitem[\protect\BCAY{Goto\BBA\Tanaka}{Goto\BBA\Tanaka}{2017}]{goto-tanaka:2017:NMT}Goto,I.\BBACOMMA\\BBA\Tanaka,H.\BBOP2017\BBCP.\newblock\BBOQDetectingUntranslatedContentforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNeuralMachineTranslation},\mbox{\BPGS\47--55},Vancouver.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{後藤\JBA田中}{後藤\JBA田中}{2017}]{goto-tanaka:2017:NLP}後藤功雄\JBA田中英輝\BBOP2017\BBCP.\newblockニューラル機械翻訳での訳抜けした内容の検出.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\1018--1021}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{hochreiter:1997:NC}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{DBLP:journals/corr/KingmaB14}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceforLearningRepresentations}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn:2004:EMNLP}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn-EtAl:2007:PosterDemo}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics:DemoandPosterSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn-EtAl:2003:NAACLHLT}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Li\BBA\Jurafsky}{Li\BBA\Jurafsky}{2016}]{DBLP:journals/corr/LiJ16}Li,J.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2016\BBCP.\newblock\BBOQMutualInformationandDiverseDecodingImproveNeuralMachineTranslation.\BBCQ\\textit{arXivpreprint},arXiv:1601.00372.\bibitem[\protect\BCAY{Mi,Sankaran,Wang,\BBA\Ittycheriah}{Miet~al.}{2016}]{mi-EtAl:2016:EMNLP2016}Mi,H.,Sankaran,B.,Wang,Z.,\BBA\Ittycheriah,A.\BBOP2016\BBCP.\newblock\BBOQCoverageEmbeddingModelsforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\955--960},Austin,Texas.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBleu:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{NIPS2014_5346}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofAdvancesinNeuralInformationProcessingSystems27},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Tokui,Oono,Hido,\BBA\Clayton}{Tokuiet~al.}{2015}]{chainer_learningsys2015}Tokui,S.,Oono,K.,Hido,S.,\BBA\Clayton,J.\BBOP2015\BBCP.\newblock\BBOQChainer:aNext-GenerationOpenSourceFrameworkforDeepLearning.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponMachineLearningSystemsinthe29thAnnualConferenceonNeuralInformationProcessingSystems}.\bibitem[\protect\BCAY{Tu,Liu,Shang,Liu,\BBA\Li}{Tuet~al.}{2017}]{Tu-etAl:AAAI2017}Tu,Z.,Liu,Y.,Shang,L.,Liu,X.,\BBA\Li,H.\BBOP2017\BBCP.\newblock\BBOQNeuralMachineTranslationwithReconstruction.\BBCQ\\newblockIn{\BemProceedingsofthe31stAAAIConferenceonArtificialIntelligence},\mbox{\BPGS\3097--3103}.\bibitem[\protect\BCAY{Tu,Lu,Liu,Liu,\BBA\Li}{Tuet~al.}{2016}]{tu-EtAl:2016:P16-1}Tu,Z.,Lu,Z.,Liu,Y.,Liu,X.,\BBA\Li,H.\BBOP2016\BBCP.\newblock\BBOQModelingCoverageforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\76--85},Berlin,Germany.\bibitem[\protect\BCAY{Wu,Schuster,Chen,Le,Norouzi,Macherey,Krikun,Cao,Gao,Macherey,Klingner,Shah,Johnson,Liu,Kaiser,Gouws,Kato,Kudo,Kazawa,Stevens,Kurian,Patil,Wang,Young,Smith,Riesa,Rudnick,Vinyals,Corrado,Hughes,\BBA\Dean}{Wuet~al.}{2016}]{DBLP:journals/corr/WuSCLNMKCGMKSJL16}Wu,Y.,Schuster,M.,Chen,Z.,Le,Q.~V.,Norouzi,M.,Macherey,W.,Krikun,M.,Cao,Y.,Gao,Q.,Macherey,K.,Klingner,J.,Shah,A.,Johnson,M.,Liu,X.,Kaiser,L.,Gouws,S.,Kato,Y.,Kudo,T.,Kazawa,H.,Stevens,K.,Kurian,G.,Patil,N.,Wang,W.,Young,C.,Smith,J.,Riesa,J.,Rudnick,A.,Vinyals,O.,Corrado,G.,Hughes,M.,\BBA\Dean,J.\BBOP2016\BBCP.\newblock\BBOQGoogle'sNeuralMachineTranslationSystem:BridgingtheGapbetweenHumanandMachineTranslation.\BBCQ\\textit{arXivpreprint},arXiv:1609.08144.\end{thebibliography}\begin{biography}\bioauthor{後藤功雄}{1995年早稲田大学理工学部電気工学科卒業.1997年同大学院理工学研究科修士課程修了.2014年京都大学大学院情報学研究科博士課程修了.博士(情報学).1997年NHK入局,(株)国際電気通信基礎技術研究所(ATR)および(独)情報通信研究機構出向を経て,現在,放送技術研究所スマートプロダクション研究部にて自然言語処理の研究に従事.}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士課程修了.同年NHK入局,1987年放送技術研究所研究員.(株)国際電気通信基礎技術研究所(ATR)音声言語コミュニケーション研究所第4研究室室長,NHK放送技術研究所上級研究員などを経て2018年7月より(一財)NHKエンジニアリングシステムシステム技術部上級研究員.テキストの平易化,機械翻訳などの自然言語処理の研究に従事.博士(工学).}\end{biography}\biodate\end{document}
| |
V20N04-01
|
\section{はじめに}
近年,新聞やWeb上のブログだけではなく,ツイートや音声対話ログなど様々な分野のテキスト情報を利用することが可能である.これらの多様なテキストから欲しい情報を抽出する検索技術や,有益な情報のみを自動で抽出・分析するテキストマイニング技術では,表現の違いに頑健な意味を軸にした情報抽出が求められている.たとえば,お客様の声を分析するコールセンタマイニング(e.g.,那須川2001)では,下記のa,bの表現を,「同義である」と正しく認識・集計する必要がある.\eenumsentence{\itemメモリを\underline{消費している}\itemメモリを\underline{食っている}}\eenumsentence{\itemキーボードが\underline{壊れた}\itemキーボードが\underline{故障した}}検索においても,「キーボード壊れた」で検索した際に,「キーボード故障した」が含まれているテキストも表示されれば,よりユーザの意図を理解した検索が行えると考えられる.テキストマイニングのようなユーザの声の抽出・分析において重要となるのは,「消費している」,「壊れた」などといった述部である.述部は,文情報の核を表しており,商品の評判(e.g.,満足している)や苦情(e.g.,壊れた,使いにくい),ユーザの経験(e.g.,堪能した)や要望(e.g.,直してほしい)などを表す.しかし,あらゆる分野,文体のテキストを対象とした場合,述部の多様性が顕著になる.たとえば,「正常な動作が損なわれる」という出来事を表現する場合,新聞などフォーマルな文書では「故障する」と表現されることが多いが,ブログなどインフォーマルな文書では「壊れる」と表現されることが多い\footnote{2007年の毎日新聞では,「故障する」と「壊れる」の出現頻度の比が「1:2.5」である.一方,2007年4月のブログでは「故障する」と「壊れる」の出現頻度の比が「1:42」であり,「壊れる」と「故障する」は意味が完全に1対1対応するわけではないものの,出現頻度の比がテキストによって大きく異なる.}.テキストの種類により同じ出来事でも異なる文字列で表現されるため,異なる分野のテキストを統合した情報抽出や,テキストマイニングを行う場合は,述部の同義性を計算機で正しく認識して分析しなくてはいけない.述部の同義性を計算機で識別することができれば,テキストマイニングなどにおいて,同義表現を正しくまとめ上げ,高精度に集計・分析を行うことが可能となる.また,検索技術においては,表現が異なるが同じことを表しているテキストを拾い上げることができ,再現率の向上が期待できる.本稿では,日本語の述部に焦点を置き,異なる2つの述部が同義か否かを判別する述部の同義判定手法を提案する.既存の手法では,単一のリソースにのみ依存しているために,まとめ上げられる述部の数が少ないという再現率の問題や,異なる意味のものまで誤ってまとめ上げてしまうという精度の問題がある.そこで本稿では,述部の言語的構造を分析し,同義述部の認識という観点で必要な「述部の語義(辞書定義文)」,「抽象的な意味属性(用言属性)」,「文脈(分布類似度)」,「時制・否定・モダリティ(機能表現)」といった言語情報を複数の言語リソースから抽出することで,精度と再現率の双方のバランスをとった述部のまとめ上げを行う.なお,本稿では「消費/し/て/いる」などの「内容語+機能表現」を述部と定義し,「メモリを‐消費している」と言った「項‐述部」を単位として述部の同義判定を行う.本稿の構成は次のとおりである.2節では,関連研究とその問題点について論じる.3節では,述部の言語構造について論じる.4節では,本稿の提案手法である複数の言語的特徴を用いた同義判定について述べる.5節では,同義述部コーパスについて述べる.6節,7節では述部の同義判定実験とその考察を行う.8節は結論である.
\section{関連研究}
\subsection{辞書を用いた言い換え研究}2つの異なる表現が同義か否かを判別する研究のひとつとして,述部を対象にした言い換え研究がある.藤田・降幡・乾・松本(2004)は,語彙概念構造(LexicalConceptualStructure;Jackendoff1992;竹内,乾,藤田2006)を用いて,「株価の変動が為替に\underline{影響を与えた}」のような述部が機能動詞構造で構成されている文を,「株価の変動が為替に\underline{影響した}」といった単純な述部に変換する言い換えを行っている.同様に,鍜治・黒橋(2004)は,「名詞+格助詞+動詞」の構造をもつ述部を対象に,「非難を浴びる」と言った迂言表現や,「貯金をためる」と言った重複表現の認識と言い換えを,国語辞典からの定義文を手掛かりに行っている.松吉・佐藤(2008)は,階層構造化された日本語の機能表現辞書(松吉,佐藤,宇津呂2007)をもとに,「やる\underline{しか/ない}」の機能表現にあたる「しか/ない」を,「やら\underline{ざる/を/得ない}」という別の表現に自動で言い換える方法を提案している.述部を対象とした言い換えの研究を用いて,複数の言い換え表現をあらかじめ生成することで,本稿が目的とする同義述部のまとめ上げが可能である.しかし,語彙概念辞書などの特殊な言語リソースを用いて言い換えを生成する場合,リソースの規模が十分でなければ,ブログなどの幅広い表現を扱う際にカバレッジが問題となる.\subsection{コーパスからの分布類似度計算}2つの異なる表現の意味が似ているか否かを判定する研究に,大量のコーパスを用いた分布類似度の研究がある(Curran2004;Dagan,Lee,andPereira1999;Lee1999;Lin1998).分布類似度とは,文脈が似ている単語は意味も似ているという分布仮説(Firth1957)に基づき,対象の単語の周辺に現れる単語(文脈)を素性として計算される単語の類似度である.SzpektorandDagan(2008)は,``Xtakesanap''と``Xsleeps''の関係のように,述部と1つの変数を単位として分布類似度計算を行い,述部を対象に含意ルールの獲得を行った.柴田・黒橋(2010)は,「景気が\underline{冷え込む}」の「冷え込む」と「景気が\underline{悪化する}」の「悪化する」のように組み合わさる項によって同義になる表現をも考慮し,大規模コーパスから項と述部(e.g.,景気が‐悪化)を単位にした分布類似度ベクトルを用いて同義語獲得を行った.大規模コーパスから周辺単語を用いて単語の意味類似度を測る分布類似度計算は,WordNetなどの特定の言語リソースを用いる手法に比べてバリエーションに富んだ表現を獲得することが可能である.しかし,分布類似度計算には柴田・黒橋(2010)で述べられているように,2つの問題がある.1つ目は,反義関係にある単語の類似度が高くなってしまう問題である.「泳ぎが\underline{得意だ}」と「泳ぎが\underline{苦手だ}」のように,反義関係の単語は同一の文脈で現れることができ,結果として類似度が高くなる.2つ目は,時間経過を表す述部同士の類似度が高くなる問題である.たとえば,「(小鼻の脇などの狭い場所には)ブラシを使って粉を取って,(粉を)つけます」の「粉を取る」と「粉をつける」のような時間経過の関係にある述部の場合,下記のように類似した文脈で出現しやすい.\enumsentence{「粉を取る」と「粉をつける」の文脈の例\begin{gather*}\left.\begin{array}{l}\text{\textbf{ブラシを使う}}\\\text{\textbf{パフを使う}}\\\text{水で洗う}\\\cdots\end{array}\right\}\text{粉を取る}\left\{\begin{array}{l}\text{袋に入れる}\\\text{\textbf{肌に乗せる}}\\\text{粉をつける}\\\cdots\end{array}\right.\\\left.\begin{array}{l}\text{\textbf{ブラシを使う}}\\\text{\textbf{パフを使う}}\\\text{形を整える}\\\cdots\end{array}\right\}\text{粉をつける}\left\{\begin{array}{l}\text{卵に通す}\\\text{\textbf{肌に乗せる}}\\\text{粉を落とす}\\\cdots\end{array}\right.\end{gather*}}2つの文があった場合,双方とも「ブラシを使う」や「パフを使う」という「項‐述部」を共有しているため,「粉を取る」と「粉をつける」という時間経過を表す述部同士の類似度が高くなってしまう.YihandQazvinian(2012)は,WikipediaとWebスニペットを用いて計算した分布類似度や,WordNetなどのシソーラスで計算された類似度を統合することで,語の関連度を計算している.しかし,複数の類似度の平均値をとっているだけであり,それぞれの類似度に重みづけがされていない.また,類似度のみを手掛かりとしているため,反義表現と同義表現の識別は困難である.\subsection{教師あり学習を用いた同義判定}教師あり学習として同義表現の識別や獲得を行っている研究としてHashimoto,Torisawa,DeSaeger,Kazama,andKurohashi(2011)がある.Hashimotoetal.(2011)では,Webコーパスから定義文を自動で抽出し,同じコンセプトを表している定義文ペアから大量の言い換え表現を獲得している.例えば,``Osteoporosis(骨粗鬆症)''というコンセプトを定義している文のペアから,``makesbonesfragile(骨がもろくなる)''と``increasestheriskofbonefracture(骨折リスクを高める)''といった言い換え表現を獲得している.しかし,Hashimotoetal.(2011)では,言い換え表現の獲得に定義文を用いているため,獲得される表現は必ず何らかのコンセプトを説明している表現(もしくはその一部)になる.そのため,対象の同義表現によって説明されるコンセプトが存在しない場合は,定義文からそれら同義表現を獲得することが不可能である.例えば,「食パン‐が‐出来上がった」と「食パン‐が‐焼けた」のような表現で定義されるコンセプトは想像が難しいため,定義文にも出現しづらい表現であると考えられる.本稿が目的とする意見集約などのマイニングにおけるまとめ上げを行うためには,定義文に出てこない表現(すなわち,それらの表現によって説明されるコンセプトが存在しない場合)に対するカバレッジを補う必要がある.つまり,定義文という制約を加えずにブログなどの多様な表現を含む幅広い言語リソースを用いて,高い精度で同義表現の識別をする必要がある.Hagiwara(2008)は,分布類似度の素性と文中の単語ペアの統語構造を組み合わせて,教師あり学習の識別問題として,分布類似度単体よりも高精度に同義識別を行った.しかし,Hagiwara(2008)の手法では,コーパスからの言語情報のみしか用いておらず,分布類似度が不得意とする反義単語と同義単語の識別の有効性については述べられていない.Turney(2008)は,同義語(synonym)・反義語(antonym)・関連語(association)という3つの異なる意味関係を表す単語ペアを対象に,コーパスの周辺単語情報を素性とした識別学習を行った.Turney(2008)の手法は,あらゆる意味関係もひとつのアルゴリズムで分類できるという点で有益だが,彼が述べているように,同義を認識するタスクに特化した場合,複数のアルゴリズムや言語情報を組み合わせた手法(Turney,Littman,Bigham,andShnayder,2003)に対して精度が劣ってしまう.Weisman,Berant,Szpektor,andDagan(2012)は,``snore(いびきをかく)''と``sleep(寝る)''といった含意関係(snoreはsleepを含意する)にある動詞ペアを対象に,文,文書,文書全体それぞれにおける動詞ペアの共起情報を用いて含意関係の認識を行った.含意関係を認識するうえで必要な情報を言語学的に分析し,動詞のクラスや,副詞を素性とした分布類似度など新しい言語情報を入れることで,既存の手法に比べて高精度に含意関係の認識を行った.しかし,Weismanetal.(2012)は英語の動詞を対象としており,素性も英語に特化したものがある.例えば,``coverup''のようなphrasalverbs(句動詞)に対して,``up''などのparticleと共起しやすいかを手掛かりに,動詞の意味の一般性を計測しており,英語のような句動詞をもたない日本語で同様の事を行うのは困難である.また,日本語のように動詞以外の単語が述部に現れたり,複数の文末表現と組み合わさって述部を構成する言語を対象にする場合には,それらの意味を表現する素性を工夫する必要がある.
\section{述部の言語的特徴}
2節で述べたように,既存手法を日本語の述部の同義判定にそのまま適用した場合,再現率もしくは精度に問題が出る.そこで,本節では述部の同義性を正しく計算機で判別するために必要な情報を考察するため,述部の言語構造を言語学的な視点で分析する.本稿の対象である述部は,(4)のように内容語と複数の機能語の集まりである「機能表現」(松吉他2007)で構成されている.「/」は形態素の区切りを表す.\enumsentence{捨て/【内容語】なく/て/は/いけ/ない【機能表現】}述部の主な意味は,動詞,形容詞,形容動詞,名詞などの内容語が担っており,機能表現は内容語で表現される意味に対し,時制(アスペクト),モダリティ,否定などの意味を加えている(Narrog2005;Portner2005).ここで,述部の主な意味を担っている内容語の言語構造を考える.図1はRamchand(2010,p.~4)から抜粋した動詞``run''の言語的情報を,複数の言語レベルに分類したものである\footnote{これらの情報が人間の言語理解のどのレベルに存在するかは複数の議論が存在するが,それらは本稿の趣旨とは異なるためここでは論じない.}.図1の,``$+$dynamic''と``-telic''は,``run''という動詞そのものが,動作の変化を伴う動詞であるが($+$dynamic),動作に終点がない動詞(-telic)であることを表している(Dowty(1979)の``Activities'',金田一(1976)の「継続動詞」を表している).\begin{figure}[b]\begin{center}\includegraphics{20-4ia1f1.eps}\end{center}\caption{動詞``run''の言語構造}\end{figure}図1が表すように,述部の意味を考えた場合,複数の言語レベルの要素が絡み合って意味を構成していることがわかる.我々が知らない単語に出くわした場合,その単語の意味を理解するために,辞書を引いたり(Lexical-Encyclopedicinformation),周辺単語を手掛かりに推測したり(Syntax,Context),また見覚えのある単語であればその本来の意味から派生されそうな意味(Semantic)を考え,対象単語の言語情報をできるだけ集めて意味を理解する.さらに,時制や否定,モダリティ表現なども手掛かりに,述部の意味を推測する.つまり,図1の複数の言語的情報を埋めていくことで,意味を理解すると考えることができる\footnote{Phonetics/Phonologyのような音の情報に関しては,オノマトペを除き意味と直接かかわりがないため,本提案手法の言語情報には取り入れない.}.計算機に意味を理解させるためには,これらの複数の言語的特徴を与えなくてはいけないと言える.そこで,本稿では述部の言語情報を複数のレベルに分類し,同義述部の認識という観点で必要な情報を用いて,計算機に同義の述部を認識させる.
\section{提案手法:複数の言語的特徴を用いた同義判定}
\begin{figure}[b]\begin{center}\includegraphics{20-4ia1f2.eps}\end{center}\caption{同義判定処理フロー}\end{figure}本稿では,述部の同義判定を行うために,4つの言語情報を素性とし,識別学習を用いて同義か否かを判定する.処理の流れを図2に示す.4つの言語情報は,「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」である.以下に素性の具体的な説明を行う.\subsection{辞書定義文を用いた相互補完性・定義文類似性}述部の同義性を判別するためには,まず単語そのものの定義が必要となる(Lexical-Encyclopedicinformation).我々が,単語の意味を調べるために辞書を用いるように,本稿でも国語辞書の定義文からの情報を素性として用いる.なお,国語辞書などの定義文は,言い換え研究においても有効性が確認されている.(e.g.,土屋・黒橋2000;藤田・乾2001;鍜治,河原,黒橋,佐藤2003)述部の同義性を判別するという目的で,辞書定義文を考察すると,2つの有益な特徴を見出すことができる.1つ目は,同義の述部同士は,お互いの定義文内に現れやすいという点である.これを,定義文の相互補完性とここでは呼ぶ.下記は,同義述部のペアである「出来上がる」と「完成する」の定義文の一例である.\enumsentence{[出来上がる]\\定義文:すっかりできる.\textbf{\underline{完成する}}.}\enumsentence{[完成する]\\定義文:すっかり\textbf{\underline{できあがる}}こと.全部しあげること.}「出来上がる」の意味を定義するために,同義の「完成する」という述部を用いており,同様に,「完成する」の意味を定義するために,同義の「できあがる(出来上がる)」という述部を用いている.このように,同じ意味をあらわす述部同士は,お互いの定義文内に現れやすいという特徴がある.そこで,2つの述部が与えられた際に,それぞれの述部に対して「相手述部の辞書定義文内に現れるか」という相互補完性の有無を第一の素性として用いる.また,「プリンターが‐動かない」といった「項‐述部」の単位で同義判定を行うため,項(プリンター)もしくは項と同様の名詞クラスが相手の定義文に現れたか否かも素性として用いる.名詞クラスは,日本語語彙大系(池原,宮崎,白井,横尾,中岩,小倉,大山,林1999)の一般名詞意味属性を用いる.次に,意味が似ている述部同士は,定義文同士も似ているという特徴がある.下記は,「高値だ」と「高い」という同義の述部の定義文の一例である.\enumsentence{[高い]\\定義文:買うのに多額の金銭がかかる.量や質にくらべて,\textbf{\underline{値段}}が多い.}\enumsentence{[高値]\\定義文:\textbf{\underline{値段}}が高いこと.高い\textbf{\underline{値段}}.}(7),(8)が示すように,双方の定義文に「値段」という単語が含まれている.そこで,これらの定義文同士の語彙の重なりを,定義文間の内容語の重なり数を用いて素性とする.このように,同義判別に必要なLexical-encyclopedicな情報として,辞書定義文の相互補完性と定義文中の語彙の重なりを素性として用いる.なお,「辞書定義文内に相互補完性があり,かつ片方の述部にのみに否定表現が入っているか否か」を区別する素性も作成した.これは,本稿が機能表現を含んだ述部を対象としており,機能表現に含まれる否定表現が同義関係を逆転させてしまうために特別に組み込んだ素性である.\subsection{用言属性を用いた述部の抽象的意味属性}同義の述部は,辞書的な意味だけではなく,より抽象的な意味レベル(Semantics)でも共通性があると考えられる.例えば(9)の同義述部は,日本語語彙大系(池原他1999)において以下のような用言属性を持つ.\enumsentence{用言属性の例\\a.出来上がる\textbf{\underline{【生成】}}\\b.完成する\textbf{\underline{【生成】}},【属性変化】}双方とも,「新しく何かを作り上げる」事を意味する,「生成」という属性を共通に保持している.そこで,同義判定に必要なSemanticレベルの素性として,日本語語彙大系(池原他1999)の用言属性を用いて,述部同士の抽象的な意味の重なりを抽出する.日本語語彙大系の用言属性には,「生成」,「知覚状態」,「物理的移動」など36種類の用言属性ラベルがあり,それらが階層的に構造化されている(図3).これらの用言属性を用いて,次の2種類の素性を抽出する.1つ目は,共通して保持している用言属性そのものである.(9)の場合,「出来上がる」と「完成する」が共通して保持している「生成」という用言属性を素性として用いる.2つ目は,用言属性の重なり度合いである.(9b)が表すように,1つの述部が複数の用言属性を持つ場合がある.複数の用言属性が付与されている場合,それらの重なりが大きければ大きいほど,2つの述部は似ていると考えられる.また,重なっている用言属性がより具体的であればあるほど,より類似していると考えられる.\begin{figure}[t]\begin{center}\includegraphics{20-4ia1f3.eps}\end{center}\caption{日本語語彙大系用言属性(池原他1999)}\end{figure}そこで,用言属性の重なり度というものを用いて,2つの述部の用言属性の共通性を計算する.より詳細なレベルで用言属性が重なっている方がより共通性が高いと言えるため,重なり度の算出の際に,下層の用言属性に重みをつける.重みは,ヒューリスティックに決定した.下記が,用言属性の重なり度の算出方法である.\[\text{・用言属性重なり度}=\frac{\vbox{\hbox{$(|\text{Pred1の階層1用言属性集合}\cap\text{Pred2の階層1用言属性集合}|)*1$}\hbox{${}+(|\text{Pred1の階層2の用言属性集合}\cap\text{Pred2の階層2の用言属性集合}|)*1.5$}\hbox{${}+(|\text{Pred1の階層3の用言属性集合}\cap\text{Pred2の階層3の用言属性集合}|)*2.0$}\hbox{${}+(|\text{Pred1の階層4の用言属性集合}\cap\text{Pred2の階層4の用言属性集合}|)*2.5$}}}{(|\text{Pred1の用言属性集合}\cup\text{Pred2の用言属性集合}|)}\]これらの用言属性を用いることで,辞書定義文など語義そのものの重なり以外に,抽象的な意味レベル(Semantics)での共通性を素性として用いることができる.\subsection{分布類似度}述部が同義であれば,それら述部が現れる文脈も類似していると考えられる.Firth(1957)で述べられたように,対象の述部がどのような単語とともに現れるかが,述部の意味類似度を測るための重要な言語情報となる.そこで,本稿ではこれらの周辺の項や文脈の情報を,分布類似度の値を用いて表す.分布類似度の計算は,柴田・黒橋(2010)の手法を用いて,「項‐述部」もしくは「述部」を単位として行う.柴田・黒橋(2010)は,「メモリを‐消費している」のような「項‐述部」,もしくは「消費する」という述部を単位(u)として,係り受け関係にある単語を素性に,分布類似度の計算を行っている.素性は,対象の単位(u)に前出する素性をpre,対象の単位(u)に後続する素性をpostとして抽出する.例えば,「ソフトが常駐し,メモリを消費している」というような文があった場合,「メモリを‐消費する」に対して,素性「常駐する:pre」を抽出する.(10)が具体的な素性の種類である.\enumsentence{柴田・黒橋(2010)の類似度計算の単位と素性(e.g.,メモリを‐消費する)}\vspace{0.5\Cvs}\begin{center}\begin{tabular}{p{11zw}|p{22zw}}\hline\multicolumn{1}{c|}{単位(u)}&\multicolumn{1}{c}{素性(f)}\\\hline項‐述部\par``メモリを‐消費する''&前後の係り受け関係にある述部\par-常駐する:pre,立ち上げる:pre,\par-重たくなる:post,固まる:post\\\hline述部\par``消費する''&前後の係り受け関係にある格要素,ならびに述部\par-[格要素]‐カロリーを,燃料を,メモリを\par-[述部]燃焼する:pre,代謝する:pre,\par\phantom{-[述部]}排出する:post\\\hline\end{tabular}\end{center}\vspace{1\Cvs}分布類似度の計算は,Curran(2004)をもとに,下記のようにweight関数とmeasure関数に分けて行う.weight関数は,素性ベクトルの値を適切な値に変換するためのものであり,柴田・黒橋(2010)では,下記のように定義した.・weight関数\[\text{weight}=\begin{cases}1&(\text{MI}>0)\\0&(\text{Otherwise})\end{cases}\]MIは,下記の式を用いて計算する.P(u)は,素性ベクトルを作る対象単位(u)の出現確率を表す(すなわち,「項‐述部」また「述部」の出現確率).P(f)は,対象に対する素性(f)の出現確率を表す(すなわち,対象単位と係り受け関係にある格要素もしくは述部).P(u,f)は分布類似度計算の対象単位とその素性の共起確率である.\[\text{MI}=\log\frac{\mathrm{P(u,f)}}{\mathrm{P(u)P(f)}}\]分布類似度の計算には,JACCARD係数とSIMPSON係数の平均値を用いる.JACCARD係数は,分布類似度を計算する対象(u)(項‐述部もしくは述部)が共通して持つ素性(f)を,それぞれがもつ素性の和集合で割った値である.SIMPSON係数は,2つの対象が共通して持つ素性を,2つの対象の間で素性の数が少ない方の素性の数で割った値である.・measure関数{\allowdisplaybreaks\begin{align*}&\text{measure}=\frac{1}{2}(\text{JACCARD}+\text{SIMPSON})\\&\quad\text{JACCARD}=\frac{|(\mathrm{u1},\ast)\cap(\mathrm{u2},\ast)|}{|(\mathrm{u1},\ast)\cup(\mathrm{u2},\ast)|}\\&\quad\text{SIMPSON}=\frac{|(\mathrm{u1},\ast)\cap(\mathrm{u2},\ast)|}{\min(|\mathrm{u1},\ast|,|\mathrm{u2},\ast|)}\\&\quad\text{where}\\&\quad(\mathrm{u},\ast)\equiv\{f|\text{weight}(\mathrm{u},\mathrm{f})=1\}\end{align*}}上記で算出された,述部および項‐述部を単位とした分布類似度を文脈(Context)の情報として用いる.\subsection{述部の機能表現}述部は「内容語」と「機能表現」から構成されている.この,機能表現の意味そのものも述部の同義性に影響する.\eenumsentence{\item辞書に‐入っ\underline{て/い/ない【てい(る):継続】【ない:否定】}\item辞書に‐載っ\underline{て/い/ない【てい(る):継続】【ない:否定】}\item辞書に‐載る}(11a)と(11b)は,機能表現「て/い/ない」を共有しており,同義述部になるが,機能表現を共有しない(11a)と(11c)は同義ではない.このように,述部の機能表現が重なっているか否かにより,同義か否かが変わってくる.そこで,松吉他(2007)の日本語機能表現辞書を用いて,述部の機能表現に「継続」や「否定」と言った意味ラベルを付与し,対象述部の機能表現の意味ラベルが重なっている場合に,その重なった意味ラベルを素性として抽出する.またどの程度,機能表現の意味を共有しているかを表す指標として,意味ラベルの重なり率を素性として用いる.意味ラベルの重なり率は,下記のように算出する.\[\text{機能表現意味ラベル重なり率}=\frac{(|\text{述部1の意味ラベルの集合}\cap\text{述部2の意味ラベルの集合}|)}{(|\text{述部1の意味ラベルの集合}\cup\text{述部2の意味ラベルの集合}|)}\]以上のように,提案手法では,「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」という4つの異なる言語的特徴を用いて,述部の同義判定を行う.素性の一覧を表1に示す.\begin{table}[t]\caption{素性一覧}\input{01table01.txt}\end{table}
\section{同義述部コーパスの作成}
同義判定モデルの作成と提案手法の評価のため,「メモリを‐消費している」のような「項‐述部」を単位とした同義述部コーパスを作成した.2010年4月のブログからランダム抽出した約810万文を対象に,係り受け関係にある「項‐述部」を抽出した.述部は,Izumi,Imamura,Kikui,andSato(2010)を用いて,述部の機能表現から終助詞など出来事の意味に影響を与えない表現を自動で削除し,単純な述部表現に正規化した.項は,日本語語彙大系(池原他1999)の具体名詞に属する名詞のブログ出現頻度上位700語を使用した.抽出した「項‐述部」の集合から,項をキーとして「同義」,「含意」,「推意」,「反義」,「その他」の意味関係に属する述部のペアを抽出した.これらの意味関係を明確にするため,ChierchiaandMcConnell-Ginet(2000)を参考に,異なる2つの述部の意味関係を下記のように5種類に分類し,言語テストを作成した.これに基づき作業者は「同義」,「含意」,「推意」,「反義」,「その他」を判断した.(#は「文法的には正しいが意味的におかしい文」を表す.)・同義(MutualEntailment)定義:表層が異なる2つの述部が同じ出来事(Event)を表している言語テスト1:片方の述部を否定すると,意味が通じない×「\underline{\mbox{述部A}},\textbf{でも,}\underline{\mbox{述部B}}\textbf{という訳ではない}」×「\underline{\mbox{述部B}},\textbf{でも,}\underline{\mbox{述部A}}\textbf{という訳ではない}」例:#「土産を\underline{買った}.\textbf{でも,}(その土産を)\underline{購入した}\textbf{という訳ではない.}」言語テスト2:片方の述部を推測表現(または疑問表現)にすると,意味が通じない×「\underline{\mbox{述部A}},\underline{\mbox{述部B}}\textbf{かも知れない/のか?}」×「\underline{\mbox{述部B}},\underline{\mbox{述部A}}\textbf{かも知れない/のか?}」例:#「土産を\underline{購入した}.(その土産を)\underline{買った}\textbf{かも知れない/のか?}」・含意(Entailment,「衝動買いした」は「買った」を含意する)定義:どちらか一方の述部がもう一方の述部の意味を包含していること言語テスト:含意されている述部を否定することができない×「\underline{\mbox{述部A}},\textbf{でも,}\underline{\mbox{述部B}}\textbf{という訳ではない}」○「\underline{\mbox{述部B}},\textbf{でも,}\underline{\mbox{述部A}}\textbf{という訳ではない}」例:#「土産を\underline{衝動買いした}.でも,(その土産を)\underline{買った}\textbf{という訳ではない}.」○「土産を\underline{買った}.でも,\underline{衝動買いした}\textbf{という訳ではない}.」・推意(Implicature,「(土産が)お買い得だった」は「(土産を)買った」を推測させる)定義:どちらか一方の述部によってもう一方の述部が「自然に推測される」{\addtolength{\leftskip}{4zw}\noindent言語テスト:もう一方の述部が自然に推測されるが,含意と異なり推測される述部を否定することができる\par}○「\underline{\mbox{述部A}},\textbf{でも,}\underline{\mbox{述部B}}\textbf{という訳ではない}」○「\underline{\mbox{述部B}},\textbf{でも,}\underline{\mbox{述部A}}\textbf{という訳ではない}」例:○「土産が\underline{お買い得だった}.でも,\underline{買った}\textbf{という訳ではない}.」・反義(Contradiction)定義:表層が異なる2つの述部において,両方の述部が真であることが成立しない言語テスト:両方の述部を「でも」でつなげると,意味が矛盾する×「述部A.\textbf{でも}述部B」×「述部B.\textbf{でも}述部A」例:#「土産が\underline{多い}.\textbf{でも,}(その土産が)\underline{少ない}.」・その他(Others)定義:異なる2つの述部において意味的な関係がない上記の言語テストをもとに,同義述部コーパスを作成した.コーパスは,1次作業者が述部ペアの作成・意味関係の付与を行い,1次評価者が指針にあっているか否かを評価した\footnote{1次作業者と1次評価者の一致率(kappa率)は0.85であった.}.2人が合意した意味関係を付与したデータを1次データとし,2次作業者と2次評価者(第一著者)が1次データの修正(2次作業者)とそのチェック(2次評価者)を行った.その際,「推意」に関する述部ペアに関しては1次データでの一致率が良くなかったため,本研究のデータから排除した.これは,推意の定義にある「自然に推測される」という判断に個人差があるからだと考えられる.最終的には,「同義」,「含意」,「反義」,「その他」の意味関係に対し,4名の合意が取れた述部ペアを使用した.下記が,作成されたデータの例と総数である.\enumsentence{同義ペア(2,843ペア)\\\begin{tabular}{p{14zw}l}車が‐ぶつかっていた&車が‐衝突していた\\食パンが‐出来上がった&食パンが‐焼けた\\バスが‐発車した&バスが‐発した\end{tabular}}\enumsentence{含意ペア(2,368ペア)\\\begin{tabular}{p{14zw}l}時計を‐チェックした&時計を‐見た\\庭を‐散策した&庭を‐歩いた\\\end{tabular}\begin{tabular}{p{14zw}l}バッグを‐新調した&バッグを‐買った\end{tabular}}\enumsentence{反義ペア(2,227ペア)\\\begin{tabular}{p{14zw}l}車が‐渋滞していた&車が‐流れていた\\食パンを‐購入した&食パンが‐売り切れていた\\バスを‐降りた&バスに‐乗った\end{tabular}}\enumsentence{その他ペア(4,948ペア)\\\begin{tabular}{p{14zw}l}車が‐ぶつかっていた&車を‐止める\\食パンに‐挟んだ&食パンが‐焼けた\\バスを‐降りた&バスに‐間に合った\end{tabular}}
\section{実験}
5節で作成した同義述部コーパスを用いて提案手法の評価を行った.辞書定義文素性の抽出には,金田一・池田(1988)の「学研国語大辞典第二版」を,抽象的な意味属性の抽出には,日本語語彙大系(池原他1999)の「用言属性」を用いる.分布類似度計算には,柴田・黒橋(2010)と同様の手法で作成された「項‐述部」の分布類似度モデルと,「述部」のみを単位とした分布類似度モデルを用いる.素性ベクトルの構築には,Web10億ページから抽出し,重複を除いた約69億文を用いた.機能表現の特徴抽出に関しては,松吉他(2007)の日本語機能表現辞書にある機能表現の意味カテゴリーのラベルを用いる.この意味ラベルの付与には,今村,泉,菊井,佐藤(2011)のタガーを用いる.\subsection{学習データ}5節で作成した同義述部コーパスから,本稿で使用するリソースである学研国語大辞典と語彙大系の用言属性にエントリがあり,かつ分布類似度計算の「項‐述部」の出現頻度10以上のデータのみを選出した.項が422種類からなる「同義」,「含意」,「反義」,「その他」の述部ペアのうち,91種類の項に対する述部ペアは,本提案手法の言語的特徴を分析するための考察用データ(372ペア,heldoutdata)として用い,実験には使用しなかった.残りを学習データ(3,503ペア)とし,「同義」と「含意」の述部ペアを正例,「反義」と「その他」のペアを負例として同義判定モデルの学習を行った.学習にはLIBSVM(Chang{\&}Lin2011)を使用し,実験の評価には,5分割交差検定を行い,学習データの4/5を用いてトレーニングを行い,残りの1/5で評価し,これを5回繰り返した\footnote{SVMの学習には線形カーネルを用い,パラメータはデフォルト値を用いた.}.学習データに属する「同義」,「含意」,「反義」,「その他」の述部ペアの数は下記のとおりである.\begin{itemize}\item学習データの内訳\begin{itemize}\item同義ペア(956ペア)\item含意ペア(669ペア)\item反義ペア(758ペア)\itemその他ペア(1,120ペア)\end{itemize}\end{itemize}\subsection{比較手法}Baselineとして,次にあげる手法と比較した.1つ目が,既存の大規模語彙シソーラスである日本語WordNet(Bond,Isahara,Fujita,Uchimoto,Kuribayashi,andKanzaki2009)を用いた方法である.2節で述べたように,既存の言い換え研究ではシソーラスなどの特定の言語資源を用いて言い換えを行う.そこで,本稿では大規模シソーラスであるWordNetを用いて,入力された述部が同じSynsetに属していれば,同義とみなす方法で同義判定を行った.2つ目,3つ目は分布類似度のみを用いて同義判定を行う手法である.Baseline2(DistPAVerb-$\theta)$は,提案手法の素性のひとつである項‐述部と述部単体の分布類似度を用いて,これらが特定の閾値以上の場合は,正例とみなす方法である.Baseline3(DistMultiAve-$\theta$)\footnote{YihandQazvinian(2012)で提案された複数の類似度の平均値という意味で,Dist(ributionalsimilarity)Multi(model)Ave(rage)と呼ぶ.}は,YihandQazvinian(2012)の方法をもとに,本提案手法で用いた言語資源である大規模コーパスからの分布類似度(項‐述部と述部),辞書定義文を用いた分布類似度,語彙大系の属性から生成した分布類似度をそれぞれ計算し,その平均値を用いて,特定の閾値以上のものを正例とみなした.辞書定義文に関しては,対象の単語の定義文内にある内容語とその出現頻度をベクトルの素性とした.用言属性に関しては,対象の単語が持つ用言属性を用いてベクトルを構築した.Baseline2とBaseline3の閾値調整には,提案手法同様に,5分割交差検定を行い,学習データの4/5を用いてF値が最大になる閾値を求め,その閾値を用いて残りの1/5の評価を行うという方法を5回繰り返した.Baseline4〜Baseline7は,本提案手法で提案した特徴である「辞書定義文素性(Definition-SVM)」,「用言属性素性(PredClass-SVM)」,「分布類似度素性(DistPAVerb-SVM)」,「機能表現素性(Func-SVM)」それぞれ単体を用いてSVMで同義判定を行う手法である.これらも,5分割交差検定を行う.・比較手法\begin{itemize}\itemBaseline1(WordNet)\\日本語WordNet(Bondetal.2009)のSynsetにあれば「正例」\itemBaseline2(DistPAVerb-$\theta)$\\項‐述部もしくは述部単体の分布類似度が閾値以上のものを「正例」\itemBaseline3(DistMultiAve-SVM)\\大規模コーパス,辞書定義文,用言属性から個別に計算した分布類似度の平均を用いて閾値以上のものを「正例」\itemBaseline4〜7(Definition-SVM,PredClass-SVM,DistPAVerb-SVM,Func-SVM)\\提案手法の素性単体を用いてSVMで同義判定を行う\end{itemize}評価は,Precision(精度),Recall(再現率),F値を用いて行う.なお,精度の比較には5分割交差検定の平均値を用いる.・精度評価の指標\begin{gather*}\text{Precision(精度)}=\frac{|\text{正解の同義の集合}\cap\text{システムが同義と判別した集合}|}{|\text{システムが同義と判別した集合}|}\\\text{Recall(再現率)}=\frac{|\text{正解の同義の集合}\cap\text{システムが同義と判別した集合}|}{|\text{正解の同義の集合}|}\\\mathrm{F}値=\frac{2*\text{Precision}*\text{Recal}l}{\text{Precision}+\text{Recall}}\end{gather*}\subsection{結果}\begin{table}[b]\caption{実験結果}\input{01table02.txt}\end{table}表2が示すように,提案手法が最も高いF値を示した.BL1(WordNet)の場合,Precisionが0.873と一番高いが,Recallが0.331と一番低い.一方,YihandQazvinian(2012)をもとに複数の類似度計算の平均を取るBL3(DistMultiAve-$\theta)$の場合,Recallがすべての手法の中で一番高いものの,Precisionが0.537と最も低い値を出しており,提案手法のように教師あり識別問題として同義述部の判定を行う事の有効性が確認できた.また,本提案手法の素性を単体で用いるよりも(BL4〜BL7),すべての素性を用いた方が精度が高いことから,複数の言語的特徴を組み合わせた同義判定の有効性が確認できた.なお,比較手法と提案手法とのF値には$\mathrm{p}<0.01$で統計的な有意差があった\footnote{F値の結果をもとに,t検定を行った.}.次に,どの素性が有効であるかを調べるために,提案手法から各素性を除いたAblationテストを行った.すべての素性において,それぞれの素性を抜いた場合にF値が低下し,分布類似度と用言属性の素性を抜いた場合にはF値に統計的な有意差が出た.特に,分布類似度の素性を抜いた場合,Precision,Recall,F値すべてが低下したため,大規模コーパスから計算した分布類似度が同義判定の素性として一番効果があった.
\section{考察}
同義・類義表現等を集めた大規模シソーラスである日本語WordNet(Bondetal.,2009)を用いた場合,同義まとめ上げのPrecisionは高いものの(0.873),Recallが低かった(0.331).実験で用いたデータは,提案手法の個々の素性の精度を正確に測るため,学研国語大辞典と日本語語彙大系に存在し,かつ分布類似度計算の「項‐述部」の出現頻度10以上のデータのみ使用するという制約を加えた.そのため,正確な比較は難しいものの,語彙大系や国語辞書などにエントリがある語彙のみを対象にした場合でも,WordNetのような大規模シソーラスのSynsetsだけでは,カバーできない同義表現があると考えられる.下記は,BL1(WordNet)で同義と判定することができなかった同義述部表現の一例である.\eenumsentence{\itemメモリを‐食っている\itemメモリを‐消費している}\eenumsentence{\item酒を‐満喫する\item酒を‐楽しむ}上記の例は,本提案手法では,正しく「同義である」と判別された述部ペアである.一方,大規模コーパスから構築した分布類似度計算のみを用いた場合(BL2(DistPAVerb-$\theta)$,BL3(DistMultiAve-$\theta)$),Recallは最も高い値を出したものの,下記のように,「反義述部ペア」や「時間経過を表す述部ペア」も高い類似度を出してしまい,Precisionが低下してしまった.\enumsentence{分布類似度が閾値以上の反義ペア\\a.ハンドルを‐握る\\b.ハンドルを‐離す}\enumsentence{分布類似度が閾値以上の時間経過を表す述部ペア\\a.カレーを‐食べた\\b.カレーが‐美味しかった}これらは,本提案手法では,正しく「同義ではない」と認識された.このように,提案手法では,従来の大規模シソーラスでは同義と判断できなかった幅広い同義の述部を認識しつつ,同義ではない述部を正しく判別することができた.分布類似度が高い値を出してしまう反義関係・時間経過を表す述部の識別が,本提案手法で正しく行われたのには次のような理由があると考えられる.第一に,反義関係の識別に辞書定義文からの素性が効いた点である.下記の,動詞「握る」の定義文が表すように,辞書定義文には,同義の単語を使ってその語彙の意味を定義する傾向があるが,反義の単語を使って定義することが少ない.\enumsentence{「握る」の定義文の一例\\物を\underline{つかんだり持ったり}する.}「握る」という単語を別の同義の単語である「つかむ」や類義表現である「持つ」という単語で表現しており,「離さない事」のように,反対の意味を表す単語にさらに否定表現をつけて定義することが少ない.相互補完性や語彙の重なりを特徴としたことで,同義述部を認識するだけでなく,同義ではない述部を正しく排除することができたと考えられる.次に,時間経過を表す述部ペアも,本提案手法では正しく「同義ではない」と識別できた.これは,抽象的な述部の意味を表す用言属性の重なりを素性として加えたことによるものと考えられる.\enumsentence{時間経過を表す述部ペアの用言属性\\a.食べた【身体動作】,【状態】\\b.美味しかった【属性】}上記のように,「食べた」と「美味しかった」は時間経過の関係を表す述部ではあるが,同義の述部と異なり,必ずしも同じ意味属性を持っているとは限らない.そのため,用言属性にも重なりがなく,正しく「同義ではない」と判別できたと考えられる.このように,提案手法では,WordNetのような大規模シソーラスと同等のPrecisionを保ちつつ,Recallをあげることできた.述部の言語構造に関する分析をもとに,複数の言語情報を素性として組み込むことによって,同義の述部は同義,それ以外の述部は同義ではないと正しく判別できるようになった.一方,提案手法でうまく同義と識別できなかった述部ペアは,片方の内容語が「入れる」のように多義性の高い述部ペアや,内容語と機能表現の意味の組み合わせを考慮しなくてはいけない同義述部ペアであった.\eenumsentence{\itemカラオケに‐入れてほしい(入れる+願望)\itemカラオケに‐参加したい(参加する+願望)}\eenumsentence{\item筆が‐重い\item筆が‐進まない(進む+否定)}\eenumsentence{\itemマンガが‐大好きだ(大好き)\itemマンガに‐はまっている(はまる+継続)}提案手法では,「否定」や「継続」など機能表現が共有されていると素性として考慮されるが,上記の例のように,片方にのみ特定の機能表現が入ることによって同義になる述部を識別することは不可能である.今後は,機能表現の素性の加え方を工夫し,上記のように特定の機能表現をもった述部とのみ同義になるような述部ペアの同義判定も考慮していきたい.また,本提案手法では項にあたる名詞句は同じ条件での同義判定であるため,「景気が‐冷え込む」と「経済が‐悪化する」のように名詞句が異なる場合の同義判定への適用には,名詞句のまとめ上げも検討する必要がある.今後は,項が異なる場合の同義判定も考慮し,大規模データからの情報抽出・集計を行うマイニングでの本提案手法の有効性を検討したい.
\section{結論}
本稿では,「メモリを消費している」と「メモリを食っている」の「消費している」と「食っている」といった内容語と機能表現からなる述部を対象に,異なる2つの述部が同義か否かを判定する同義判定手法を提案した.述部の言語構造に着目し,同義述部を認識するという観点で必要な特徴を複数の言語的レベルで分析した.これらの分析をもとに,述部の同義判定に「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」という4つの言語知識を用いた.実験の結果,既存の分布類似度のみを用いた手法では判別できなかった反義・時間経過関係の述部を正しく識別しつつ,大規模シソーラスではカバーできなかった多様な同義述部の識別が可能となった.さらに,文情報の核を表す述部単体の同義判定だけではなく,「メモリを消費している」と「メモリを食っている」のように項が加わることで同義となる表現も扱うことが出来るようになり,テキストに記述されている評判や苦情,ユーザの経験など重要な情報を表す表現の抽出やまとめ上げが可能になると考える.今後は,これらの同義判定を実際のテキストマイニングアプリケーションに用いることで同義述部まとめ上げの効果を明確にするとともに,本提案手法で考察した複数の言語的特徴を用いて,反義関係の識別など他の意味関係抽出への適用性を検討したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\itemBond,F.,Isahara,H.,Fujita,S.,Uchimoto,K.,Kuribayashi,T.andKanzaki,K.(2009).``EnhancingtheJapaneseWordNet.''In\textit{Proceedingsofthe7thWorkshoponAsianLanguageResources,inConjunctionwithACL-IJCNLP2009},pp.~1--8,Singapore.\itemChang,C.-C.andLin,C.-J.(2011).``LIBSVM:ALibraryforSupportVectorMachines.''\textit{ACMTransactionsonIntelligentSystemsandTechnology(TIST)},\textbf{2}(3),No.~27,pp.~1--27.\itemChierchia,G.andMcConnell-Ginet,S.(2000).\textit{MeaningandGrammar:AnIntroductiontoSemantics(2nded).}Cambridge,MA:TheMITPress.\itemCurran,J.~R.(2004).\textit{FromDistributionaltoSemanticSimilarity}.DoctoralDissertation,UniversityofEdinburgh,UnitedKingdom.\itemDagan,I.,Lee,L.andPereira,F.C.N.(1999).``Similarity-BasedModelsofWordCooccurrenceProbabilities.''MachineLearning---SpecialIssueonNaturalLanguageLearning,\textbf{34}(1-3),pp.~43--69.\itemDowty,D.(1979).\textit{WordMeaningandMontagueGrammar:TheSemanticsofVerbsandTimesinGenerativeSemanticsandinMontague'sPTQ}.Dordrecht:D.Reidel.\itemFirth,J.(1957).``ASynopsisofLinguisticTheory,1930--1955.''StudiesinLinguisticAnalysis,pp.~10--32.\item藤田篤,乾健太郎(2001).語釈文を利用した普通名詞の同概念語への言い換え.言語処理学会第7回年次大会発表論文集,pp.~331--334.\item藤田篤,乾健太郎(2004).言い換え技術に関する研究動向.自然言語処理,\textbf{11}(5),pp.~151--198.\item藤田篤,降幡建太郎,乾健太郎,松本裕治(2004).語彙概念構造に基づく言い換え生成—機能動詞構文の言い換えを例題に.情報処理学会論文誌,\textbf{47}(6),pp.~1963--1975.\itemHagiwara,M.(2008).``ASupervisedLearningApproachtoAutomaticSynonymIdentificationbasedonDistributionalFeatures.''In\textit{ProceedingsoftheACL-08:HLTStudentResearchWorkshop(CompanionVolume)},pp.~1--6.\itemHashimoto,C.,Torisawa,K.,DeSaeger,S.,Kazama,J.andKurohashi,S.(2011).``ExtractingParaphrasesfromDefinitionSentencesontheWeb.''In\textit{Proceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~1087--1097.\item池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦(1999).日本語語彙大系CD-ROM版.岩波書店.\item今村賢治,泉朋子,菊井玄一郎,佐藤理史(2011).述部機能表現の意味ラベルタガー.言語処理学会第17回年次大会発表論文集,pp.~308--311.\itemIzumi,T.,Imamura,K.,Kikui,G.andSato,S.(2010).``StandardizingComplexFunctionalExpressionsinJapanesePredicates:ApplyingTheoretically-basedParaphrasingRules.''In\textit{ProceedingsoftheWorkshoponMultiwordExpressions:fromTheorytoApplications},pp.~63--71.\itemJackendoff,R.~S.(1992).\textit{SemanticStructure}.Cambridge,MA:TheMITPress.\item鍜治伸裕,河原大輔,黒橋禎夫,佐藤理史(2003).格フレームの対応付けに基づく用言の言い換え.自然言語処理,\textbf{10}(4),pp.~65--81.\item鍜治伸裕,黒橋禎夫(2004).迂言表現と重複表現の言い換え.自然言語処理,\textbf{11}(1),pp.~83--106.\item金田一春彦(1976).日本語動詞のアスペクト.むぎ書房.\item金田一春彦,池田弥三郎(1988).学研国語大辞典第二版.学習研究社.\itemLee,L.(1999).``MeasuresofDistributionalSimilarity.''In\textit{Proceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~25--32.\itemLin,D.(1998).``AnInformation-TheoreticDefinitionofSimilarity.''In\textit{Proceedingsofthe15thInternationalConferenceonMachineLearning},pp.~296--394.\item松吉俊,佐藤理史,宇津呂武仁(2007).日本語機能表現辞書の編纂.自然言語処理,\textbf{14}(5),pp.~123--146.\item松吉俊,佐藤理史(2008).文体と難易度を制御可能な日本語機能表現の言い換え.自然言語処理,\textbf{15}(2),pp.~75--99.\itemNarrog,H.(2005).``OnDefiningModalityAgain.''\textit{LanguageSciences},\textbf{27}(2),pp.~165--192.\item那須川哲哉(2001).コールセンターにおけるテキストマイニング.人工知能学会誌,\textbf{16}(2),pp.~219--225.\itemPortner,PaulH.(2005).\textit{Whatismeaning?:Fundamentalsofformalsemantics}.Malden,MA:Blackwell.\itemRamchand,G.~C.(2010).\textit{VerbMeaningandtheLexicon:AFirst-PhaseSyntax}.NewYork:CambridgeUniversityPress.\item柴田知秀,黒橋禎夫(2010).文脈に依存した述語の同義関係獲得.情報処理学会研究報告(IPSJSIGTechnicalReport),pp.~1--6.\itemSzpektor,I.andDagan,I.(2008).LearningEntailmentRulesforUnaryTemplates.In\textit{Proceedingsofthe22ndInternationalConferenceonComputationalLinguistics(Coling2008)},pp.~849--856.\item竹内孔一,乾健太郎,藤田篤(2006).語彙概念構造に基づく日本語動詞の統語・意味特性の記述.影山太郎(編).レキシコンフォーラムNo.~2,pp.~85--120.ひつじ書房.\item土屋雅稔,黒橋禎夫(2000).MDL原理に基づく辞書定義文の圧縮と共通性の発見.情報処理学会自然言語処理研究会(NL-140-7),pp.~47--54.\itemTurney,P.(2008).``AUniformApproachtoAnalogies,Synonyms,AntonymsandAssociations.''In\textit{Proceedingsofthe22ndInternationalConferenceonComputationalLinguistics},pp.~905--912.\itemTurney,P.,Littman,M.,Bigham,J.andShnayder,V.(2003).``CombiningIndependentModulestoSolveMultiple-choiceSynonymandAnalogyProblems.''In\textit{ProceedingsoftheInternationalConferenceonRecentAdvancesinNaturalLanguageProcessing},pp.~482--489.\itemWeisman,H.,Berant,J.,Szpektor,I.andDagan,I.(2012).``LearningVerbInferenceRulesfromLinguistically-MotivatedEvidence.''In\textit{Proceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},pp.~194--204.\itemYih,W.andQazivinian,V.(2012).``MeasuringWordRelatednessUsingHeterogeneousVectorSpaceModels.''In\textit{Proceedingsof2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},pp.~616--620.\end{thebibliography}\begin{biography}\bioauthor{泉朋子}{2005年北海道教育大学国際理解教育課程卒業,2007年ボストン大学大学院人文科学部応用言語学科修了,2008年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所研究員,京都大学大学院情報学研究科博士後期課程在学.自然言語処理研究開発に従事.言語処理学会会員.}\bioauthor{柴田知秀}{2002年東京大学工学部電子情報工学科卒業,2007年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).京都大学大学院情報学研究科特任助教を経て,2009年より同助教,現在に至る.自然言語処理の研究に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{齋藤邦子}{1996年東京大学理学部化学科卒業,1998年同大学院修士課程修了,同年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所主任研究員.自然言語処理研究開発に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{松尾義博}{1988年大阪大学理学部物理学科卒業,1990年同大大学院研究科博士前期課程修了,同年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所主幹研究員.機械翻訳,自然言語処理の研究に従事.情報処理学会,言語処理学会,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞等を受賞.}\end{biography}\biodate\end{document}
| |
V23N05-05
|
\section{はじめに}
\label{sec:intro}\subsection{研究背景}\label{sec:background}言語は,人間にとって主要なコミュニケーションの道具であると同時に,話者集団にとっては社会的背景に根付いたアイデンティティーでもある.母国語の異なる相手と意思疎通を取るためには,翻訳は必要不可欠な技術であるが,専門の知識が必要となるため,ソフトウェア的に代行できる機械翻訳の技術に期待が高まっている.英語と任意の言語間での翻訳で機械翻訳の実用化を目指す例が多いが,英語を含まない言語対においては翻訳精度がまだ実用的なレベルに達していないことが多く,英語を熟知していない利用者にとって様々な言語間で機械翻訳を支障なく利用できる状況とは言えない.人手で翻訳規則を記述するルールベース機械翻訳(Rule-BasedMachineTranslation;RBMT\cite{nirenburg89})では,対象の2言語に精通した専門家の知識が必要であり,多くの言語対において,多彩な表現を広くカバーすることも困難である.そのため,近年主流の機械翻訳方式であり,機械学習技術を用いて対訳コーパスから自動的に翻訳規則を獲得する統計的機械翻訳(StatisticalMachineTranslation;SMT\cite{brown93})について本論文では議論を行う.対訳コーパスとは,2言語間で意味の対応する文や句を集めたデータのことを指すが,SMTでは学習に使用する対訳コーパスが大規模になるほど,翻訳結果の精度が向上すると報告されている\cite{dyer08}.しかし,英語を含まない言語対などを考慮すれば,多くの言語対において,大規模な対訳コーパスを直ちに取得することは困難と言える.このような,容易に対訳コーパスを取得できないような言語対においても,既存の言語資源を有効に用いて高精度な機械翻訳を実現できれば,機械翻訳の実用の幅が大きく広がることになる.特定の言語対で十分な文量の対訳コーパスが得られない場合,中間言語(\textit{Pvt})を用いたピボット翻訳が有効な手法の一つである\cite{gispert06,cohn07,zhu14}.中間言語を用いる方法も様々であるが,一方の目的言語と他方の原言語が一致するような2つの機械翻訳システムを利用できる場合,それらをパイプライン処理する逐次的ピボット翻訳(CascadeTranslation\cite{gispert06})手法が容易に実現可能である.より高度なピボット翻訳の手法としては,原言語・中間言語(\textit{Src-Pvt})と中間言語・目的言語(\textit{Pvt-Trg})の2組の言語対のためにそれぞれ学習されたSMTシステムのモデルを合成し,新しく得られた原言語・目的言語(\textit{Src-Trg})のSMTシステムを用いて翻訳を行うテーブル合成手法(Triangulation\cite{cohn07})も提案されており,この手法で特に高い翻訳精度が得られたと報告されている\cite{utiyama07}.これらの手法は特に,今日広く用いられているSMTの枠組の一つであるフレーズベース機械翻訳(Phrase-BasedMachineTranslation;PBMT\cite{koehn03})について数多く提案され,検証されてきた.しかし,PBMTにおいて有効性が検証されたピボット翻訳手法が,異なるSMTの枠組でも同様に有効であるかどうかは明らかにされていない.例えば英語と日本語,英語と中国語といった語順の大きく異なる言語間の翻訳では,同期文脈自由文法(SynchronousContext-FreeGrammar;SCFG\cite{chiang07})のような木構造ベースのSMTによって高度な単語並び替えに対応可能であり,PBMTよりも高い翻訳精度を達成できると報告されている.そのため,PBMTにおいて有効性の知られているピボット翻訳手法が,SCFGによる翻訳でも有効であるとすれば,並び替えの問題に高度に対応しつつ直接\textit{Src-Trg}の対訳コーパスを得られない状況にも対処可能となる.\begin{figure}[t]\begin{center}\includegraphics{23-5ia5f1.eps}\end{center}\caption{2組の単語対応から新しい単語対応を推定}\label{fig:align-estimation}\end{figure}また,テーブル合成手法では,\textit{Src-Pvt}フレーズ対応と\textit{Pvt-Trg}フレーズ対応から,正しい\textit{Src-Trg}フレーズ対応と確率スコアを推定する必要がある.図\ref{fig:align-estimation}に示す例では,個別に学習された(a)の日英翻訳および(b)の英伊翻訳における単語対応から,日伊翻訳における単語対応を推定したい場合,(c)のように単語対応を推定する候補は非常に多く,(d)のように正しい推定結果を得ることは困難である.その上,図\ref{fig:align-estimation}(c)のように推定された\textit{Src-Trg}の単語対応からは,原言語と目的言語の橋渡しをしていた中間言語の単語情報が分からないため,翻訳を行う上で重要な手がかりとなり得る情報を失ってしまうことになる.このように語義曖昧性や言語間の用語法の差異により,ピボット翻訳は通常の翻訳よりも本質的に多くの曖昧性の問題を抱えており,さらなる翻訳精度の向上には課題がある.\subsection{研究目的}\label{sec:purpose}本研究では,多言語機械翻訳,とりわけ対訳コーパスの取得が困難である少資源言語対における機械翻訳の高精度化を目指し,従来のピボット翻訳手法を調査,問題点を改善して翻訳精度を向上させることを目的とする.ピボット翻訳の精度向上に向けて,本論文では2段階の議論を行う.第1段階目では,従来のPBMTで有効性の知られているピボット翻訳手法が異なる枠組のSMTでも有効であるかどうかを調査する.\ref{sec:background}節で述べたように,PBMTによるピボット翻訳手法においては,テーブル合成手法で高い翻訳精度が確認されているため,木構造ベースのSMTであるSCFGによる翻訳で同等の処理を行うための応用手法を提案する.SCFGとテーブル合成手法によるピボット翻訳が,逐次的ピボット翻訳や,PBMTにおけるピボット翻訳手法よりも高い精度を得られるどうかを比較評価することで,次の段階への予備実験とする\footnote{\label{fn:papers}本稿の内容の一部は,情報処理学会自然言語処理研究会\cite{miura14nl12,miura15nl07}およびACL2015:The53rdAnnualMeetingoftheAssociationforComputationalLinguistics\cite{miura15acl}で報告されている.本稿では,各手法・実験に関する詳細な説明,中国語やアラビア語など語族の異なる言語間での比較評価実験や品詞毎の翻訳精度に関する分析を追加している.}.第2段階目では,テーブル合成手法において発生する曖昧性の問題を解消し,翻訳精度を向上させるための新たな手法を提案する.従来のテーブル合成手法では,図\ref{fig:align-estimation}(c)に示したように,フレーズ対応の推定後には中間言語フレーズの情報が失われてしまうことを\ref{sec:background}節で述べた.この問題を克服するため,本論文では原言語と目的言語を結び付けていた中間言語フレーズの情報も翻訳モデル中に保存し,原言語から目的言語と中間言語へ同時に翻訳を行うための確率スコアを推定することによって翻訳を行う新しいテーブル合成手法を提案する.通常のSMTシステムでは,入力された原言語文から,目的言語における訳出候補を選出する際,文の自然性を評価し,適切な語彙選択を促すために目的言語の言語モデル(目的言語モデル)を利用する.一方,本手法で提案する翻訳モデルとSMTシステムでは,原言語文に対して目的言語文と中間言語文の翻訳を同時に行うため,目的言語モデルのみではなく,中間言語の言語モデル(中間言語モデル)も同時に考慮して訳出候補の探索を行う.本手法の利点は,英語のように中間言語として選ばれる言語は豊富な単言語資源を得られる傾向が強いため,このような追加の言語情報を翻訳システムに組み込み,精度向上に役立てられることにある\footnoteref{fn:papers}.
\section{統計的機械翻訳}
\label{sec:smt}本節では,SMTの基本的な動作原理となる対数線形モデル(\ref{sec:log-linear}節),SMTの中でも特に代表的な翻訳方式であるフレーズベース機械翻訳(PBMT,\ref{sec:pbmt}節)と木構造に基づく翻訳方式である同期文脈自由文法(SCFG,\ref{sec:scfg}節),SCFGを3言語以上に対応できるよう一般化して拡張された複数同期文脈自由文法(Multi-SynchronousContext-FreeGrammar;MSCFG,\ref{sec:mscfg}節)について説明する.\subsection{対数線形モデル}\label{sec:log-linear}SMTの基本的なアイディアは,雑音のある通信路モデル\cite{shannon48}に基いている.ある原言語の文$\bm{f}$に対して,訳出候補となり得るすべての目的言語文の集合を$\mathcal{E}(\bm{f})$とする.$\bm{f}$が目的言語文$\bm{e}\in\mathcal{E}(\bm{f})$へと翻訳される確率$Pr(\bm{e}|\bm{f})$をすべての$\bm{e}$について計算可能とする.SMTでは,$Pr(\bm{e}|\bm{f})$を最大化する$\hat{\bm{e}}\in\mathcal{E}(\bm{f})$を求める.\begin{align}\hat{\bm{e}}&=\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}Pr(\bm{e}|\bm{f})\label{eqn:decode}\\&=\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}\frac{Pr(\bm{f}|\bm{e})Pr(\bm{e})}{Pr(\bm{f})}\\&=\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}Pr(\bm{f}|\bm{e})P(\bm{e})\label{eqn:bayes}\end{align}しかし,このままでは様々な素性を取り入れたモデルの構築が困難であるため,近年では以下のような対数線形モデルに基づく定式化を行うことが一般的である\cite{och03mert}.\begin{align}\hat{\bm{e}}&=\argmax_{\bm{e}\in\mathcal{E}(f)}Pr(\bm{e}|\bm{f})\\&\approx\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}\frac{\exp\left(\bm{w}^{\mathrm{T}}\bm{h}(\bm{f},\bm{e}\right)}{\sum_{e'}\limits\exp\left(\bm{w}^{\mathrm{T}}\bm{h}(\bm{f},\bm{e'})\right)}\\&=\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}\bm{w}^{\mathrm{T}}\bm{h}(\bm{f},\bm{e})\label{eqn:log-linear}\end{align}ここで,$\bm{h}$は素性ベクトルであり,翻訳の枠組毎に定められた次元数を持ち,推定された対数確率スコア,導出に伴う単語並び替え,各種ペナルティなどを与える.素性ベクトル中のとりわけ重要な要素として,言語モデルと翻訳モデルが挙げられる.言語モデル$Pr(\bm{e})$は,与えられた文の単語の並びが目的言語においてどの程度自然で流暢であるかを評価するために用いられる.翻訳モデル$Pr(\bm{f}|\bm{e})$は,翻訳文の尤もらしさを規定するための統計モデルであり,対訳コーパスから学習を行う.翻訳モデルはSMTの枠組によって学習・推定方法が異なっており,次節以降で詳細を述べる.$\bm{w}$は$\bm{h}$と同じ次元を持っており,素性ベクトルの各要素に対する重み付けを行う.$\bm{w}$の各要素を最適な値に調整するためには,対訳コーパスを学習用データや評価用データとは別に切り分けた,開発用データを利用し,原言語文の訳出と参照訳(目的言語側の正解訳)との類似度を評価するための自動評価尺度BLEU\cite{papineni02}などが最大となるようパラメータを求める\cite{och03mert}.\ref{sec:pbmt}節以降で説明する各種翻訳枠組も,この対数線形モデルに基いているが,用いる素性はそれぞれで異なる.\subsection{フレーズベース機械翻訳}\label{sec:pbmt}Koehnらによるフレーズベース機械翻訳(PBMT\cite{koehn03})はSMTで最も代表的な翻訳枠組である.PBMTの翻訳モデルを学習する際には,先ず対訳コーパスから単語アラインメント\cite{brown93}を学習し,アラインメント結果をもとに複数の単語からなるフレーズを抽出し,各フレーズ対応にスコア付けを行う.例えば,学習用対訳データから図\ref{fig:word-align}のような単語対応が得られたとする\footnote{日本語や中国語,タイ語のように,通常の文では単語をスペースで区切らないような言語では,先ず単語分割を行うツールを用いて分かち書きを行う必要がある.}.得られた単語対応からフレーズの対応を見つけ出して抽出を行う例を図\ref{fig:phrase-extraction}に示す.図のように,与えられた単語対応から抽出されるフレーズ対応の長さは一意に定まらず,複数の長さのフレーズ対応が抽出される.ただし,抽出されるフレーズ対応には,フレーズの内外を横断するような単語対応が存在しないという制約が課され,フレーズの最大長なども制限される.このようにして抽出されたフレーズ対の一覧を元に,フレーズ対や各フレーズの頻度を計算し,PBMTの翻訳モデルが学習される.\begin{figure}[b]\begin{minipage}[b]{0.45\hsize}\begin{center}\includegraphics{23-5ia5f2.eps}\end{center}\caption{英-日単語アラインメント}\label{fig:word-align}\end{minipage}\hfill\begin{minipage}[b]{0.45\hsize}\begin{center}\includegraphics{23-5ia5f3.eps}\end{center}\caption{英-日フレーズ抽出}\label{fig:phrase-extraction}\end{minipage}\end{figure}PBMTの翻訳モデルは抽出されたフレーズを翻訳の基本単位とし,これによって効率的に慣用句のような連続する単語列の翻訳規則を学習し,質の高い翻訳が可能である.フレーズの区切り方によって,与えられた原言語文から,ある目的言語文へ翻訳されるための導出も複数の候補があり,それぞれの導出で用いられるフレーズ対の確率スコアや並び替えも考慮して最終的な翻訳確率を推定する.式(\ref{eqn:log-linear})の対数線形モデルによって確率スコア最大の翻訳候補を探索するが,素性関数として用いられるものには,双方向のフレーズ翻訳確率,双方向の語彙翻訳確率,単語ペナルティ,フレーズペナルティ,言語モデル,並び替えモデルなどがある.PBMTは,翻訳対象である2言語間の対訳コーパスさえ用意すれば,容易に学習し,高速な翻訳を行うことが可能であるため,多くの研究や実用システムで利用されている.しかし,文の構造を考慮しない手法であるため,単語の並び替えが効果的に行えない傾向にある.高度な並び替えモデルを導入することは可能であるが\cite{goto13acl},長距離の並び替えは未だ困難であり,ピボット翻訳で用いることは容易ではない.\subsection{同期文脈自由文法}\label{sec:scfg}本節では,木構造に基づくSMTの枠組である同期文脈自由文法(SCFG\cite{chiang07})について説明する.SCFGは,階層的フレーズベース翻訳(HierarchicalPhrase-BasedTranslation;Hiero\cite{chiang07})を代表とする様々な翻訳方式で用いられている.SCFGは,以下のような同期導出規則によって構成される.\begin{equation}X\longrightarrow\left<\overline{s},~\overline{t}\right>\label{eqn:scfg}\end{equation}ここで,Xは同期導出規則の親記号であり,$\overline{s}$と$\overline{t}$はそれぞれ原言語と目的言語における終端記号と非終端記号からなる記号列である.$\overline{s}$と$\overline{t}$にはそれぞれ同じ数の非終端記号が含まれ,対応する記号に対して同じインデックスが付与される.以下に日英翻訳における導出規則の例を示す.\begin{equation}X\longrightarrow\left<X_0\text{~of~}X_1,~X_1\text{~の~}X_0\right>\end{equation}Hiero翻訳モデルのためのSCFGの学習手法では,先ずPBMTと同等のアイディアで,対訳コーパスから学習された単語アラインメントを元にフレーズを抽出する.そしてフレーズ対応中の部分フレーズ対応に対しては,非終端記号$X_i$で置き換えてよいというヒューリスティックを用いて,多くのSCFGルールが自動抽出される.例えば,図\ref{fig:word-align}の単語アラインメントを用いて,以下のような同期導出規則を得ることができる.\begin{align}X&\longrightarrow\left<X_0\text{~hit~}X_1\text{~.},~X_0\text{~は~}X_1\text{~を打った。}\right>\\X&\longrightarrow\left<\text{John},~\text{ジョン}\right>\\X&\longrightarrow\left<\text{aball},~\text{ボール}\right>\end{align}また,初期非終端記号$S$と初期導出規則$S\longrightarrow\left<X_0,~X_0\right>$,抽出された上記の導出規則を用いて,以下のような導出が可能である.\begin{align}S&\Longrightarrow\left<X_0,~X_0\right>\\&\Longrightarrow\left<X_1\text{~hit~}X_2\text{~.},~X_1\text{~は~}X_2\text{~を打った。}\right>\\&\Longrightarrow\left<\text{Johnhit~}X_2\text{~.},~\text{ジョンは~}X_2\text{~を打った。}\right>\\&\Longrightarrow\left<\text{Johnhitaball.},~\text{ジョンはボールを打った。}\right>\end{align}対訳文と単語アラインメントを元に自動的にSCFGルールが抽出される.抽出された各々のルールには,双方向のフレーズ翻訳確率$\phi(\overline{s}|\overline{t})$,$\phi(\overline{t}|\overline{s})$,双方向の語彙翻訳確率$\phi_{lex}(\overline{s}|\overline{t})$,$\phi_{lex}(\overline{t}|\overline{s})$,ワードペナルティ($\overline{t}$の終端記号数),フレーズペナルティ(定数1)の計6つのスコアが付与される.翻訳時には,導出に用いられるルールのスコアと,生成される目的言語文の言語モデルスコアの和を導出確率として最大化するよう探索を行う.言語モデルを考慮しない場合,CKY+法\cite{chappelier98}によって効率的な探索を行ってスコア最大の導出を得ることが可能である.言語モデルを考慮する場合には,キューブ枝狩り\cite{chiang07}などの近似法により探索空間を抑えつつ,目的言語モデルを考慮した探索が可能である.\subsection{複数同期文脈自由文法}\label{sec:mscfg}SCFGを複数の目的言語文の同時生成に対応できるように拡張した手法として,複数同期文脈自由文法(MSCFG\cite{neubig15naacl})が提案されている.SCFGでは導出規則中の目的言語記号列$\overline{t}$が単一であったが,MSCFGでは以下のように$N$個の目的言語記号列を有する.\begin{equation}X\longrightarrow\left<\overline{s},~\overline{t_1},\cdots,\overline{t_N}\right>\end{equation}通常のMSCFG学習手法では,SCFGルール抽出手法を一般化し,3言語以上の言語間で意味の対応する文を集めた多言語コーパスから多言語導出規則が抽出され,複数の目的言語を考慮したスコアが付与される.本手法の利点として,原言語に対して主要な目的言語が1つ存在する場合に,他の$N-1$言語のフレーズを補助的な言語情報として利用し,追加の目的言語モデルによって翻訳文の自然性評価を考慮した訳出を行うことで,結果的に主要な目的言語においても導出規則の選択が改善されて翻訳精度を向上可能なことが挙げられる.SCFGは対応するフレーズ間で同一のインデックス付き非終端記号を同期して導出させることで,翻訳と単語並び替えを同時に行えるという単純な規則から成り立つために,多言語間の翻訳モデルへの拡張も容易であった.PBMTはフレーズの翻訳と単語並び替えを個別の問題としてモデル化しているため,MSCFGと同様の方法で3言語以上のフレーズ対応を学習して複数の目的言語へ同時に翻訳を行うには,並び替え候補をどのように翻訳スコアに反映させるかなどを新たに検討する必要がある.例えば日本語と朝鮮語のように語順が似通っており,ほとんど単語並び替えが発生しない言語の組み合わせでは,並び替えをまったく行わない場合でも高い並び替え精度となるため,並び替え距離に応じたペナルティを与える単純な手法でも高精度となるが,例えば日本語・朝鮮語とは語順の大きく異なる英語を加えた3言語間で並び替えをモデル化することは容易ではなく,第二の目的言語の存在が悪影響を与える可能性もある.そのため,本稿ではPBMTの多言語拡張を行うことはせず,MSCFGに着目して議論を行う.
\section{ピボット翻訳手法}
\label{sec:pivot-methods}\ref{sec:smt}節では,SMTは対訳コーパスから自動的に翻訳規則を獲得し,統計に基づいたモデルによって翻訳確率スコアが最大となるような翻訳を行うことを述べてきた.統計モデルであるため,言語モデルの学習に用いる目的言語コーパスと翻訳モデルの学習に用いられる対訳コーパスが大規模になるほど確率推定の信頼性が向上し,精度の高い訳出が期待できる.言語モデルについては,目的言語の話者数やインターネット利用者数などの影響はあるものの,比較的取得が容易であるため問題になることは少ない.一方で対訳コーパスはSMTの要であり,学習データにカバーされていない単語や表現の翻訳は不可能なため,多くの対訳データ取得が望ましく,実用的なSMTシステムの構築には数百万文以上の対訳が必要と言われている.ところが英語を含まない言語対,例えば日本語とフランス語のような言語対を考えると,それぞれの言語では単言語コーパスが豊富に取得可能であるにも関わらず,100万文を超えるような大規模な対訳データを短時間で獲得することは困難である.このように,SMTの大前提である対訳コーパスは多くの言語対において十分な文量を直ちに取得できず,任意の言語対で翻訳を行うには課題がある.PBMTにおけるピボット翻訳手法が数多く考案されており,本節では代表的なピボット翻訳手法について紹介する.また,\ref{sec:pivot-scfg}節では,PBMTで有効性の確認されたピボット翻訳手法であるテーブル合成手法をSCFGで応用するための手法を提案し,実験による比較評価と考察を述べる.本節では原言語を\textit{Src},目的言語を\textit{Trg},中間言語を\textit{Pvt}と表記し,これらの言語対を\textit{Src-Pvt,Src-Trg,Pvt-Trg}のように表記して説明を行うこととする.\subsection{逐次的ピボット翻訳手法}\label{sec:cascade}\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f4.eps}\end{center}\caption{逐次的ピボット翻訳}\label{fig:pivot-cascade}\end{figure}\textbf{逐次的ピボット翻訳手法(Cascade)}\cite{gispert06}によって\textit{Src}から\textit{Trg}へと翻訳を行う様子を図\ref{fig:pivot-cascade}に示す.この方式では先ず,\textit{Src-Pvt,Pvt-Trg}それぞれの言語対で,対訳コーパスを用いて翻訳システムを構築する.そして\textit{Src}の入力文を\textit{Pvt}へ翻訳し,\textit{Pvt}の訳文を\textit{Trg}に翻訳することで,結果的に\textit{Src}から\textit{Trg}への翻訳が可能となる.この手法は機械翻訳の入力と出力のみを利用するため,PBMTである必然性はなく,任意の機械翻訳システムを組み合わせることができる.優れた2つの機械翻訳システムがあれば,そのまま高精度なピボット翻訳が期待できることや,既存のシステムを使い回せること,実現が非常に容易であることが利点と言える.逆に,最初の翻訳システムの翻訳誤りが次のシステムに伝播し,加法性誤差によって精度が落ちることは欠点となる.\textit{Src-Pvt}翻訳システムで確率スコアの高い上位$n$文の訳出候補を出力し,\textit{Pvt-Trg}翻訳における探索の幅を広げるマルチセンテンス方式も提案されている\cite{utiyama07}が,通常より$n$倍の探索時間が必要であり,大きな精度向上も報告されていない.\subsection{擬似対訳コーパス手法}擬似的に\textit{Src-Trg}対訳コーパスを作成することでSMTシステムを構築する\textbf{擬似対訳コーパス手法(Synthetic)}\cite{gispert06}によって,\textit{Src-Trg}翻訳を行う様子を図\ref{fig:pivot-corpus}に示す.この手法では先ず,\textit{Src-Pvt,Pvt-Trg}のうちの片側,図の例では\textit{Pvt-Trg}の対訳コーパスを用いてSMTシステムを構築する.そして\textit{Src-Pvt}対訳コーパスの\textit{Pvt}側の全文を\textit{Pvt-Trg}翻訳にかけることで,\textit{Src-Trg}擬似対訳コーパスが得られる.これによって得られた\textit{Src-Trg}擬似対訳コーパスを用いて,SMTの翻訳モデルを学習することが可能となる.対訳コーパスの翻訳時に少しの翻訳誤りが含まれていても,統計モデルの学習に大きく影響しなければ,高精度な訳出が期待できる.既存のシステムから新しい学習データやシステムを作り直すことになるため,一度擬似対訳コーパスを作ってしまえば,それ以降は通常のSMTと同じ学習手法を用いられることは利点となる.\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f5.eps}\end{center}\caption{擬似対訳コーパス手法}\label{fig:pivot-corpus}\end{figure}DeGispertらは,スペイン語を中間言語としたカタルーニャ語と英語のピボット翻訳で,逐次的ピボット翻訳手法と擬似対訳コーパス手法によるピボット翻訳手法の比較実験\cite{gispert06}を行った.その結果,これらの手法間で有意な差は示されなかった.\subsection{テーブル合成手法}\label{sec:triangulation}\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f6.eps}\end{center}\caption{テーブル合成手法}\label{fig:pivot-triangulation}\end{figure}PBMT,SCFGでは,対訳コーパスによってフレーズ対応を学習してスコア付けした翻訳モデルを,それぞれフレーズテーブル,ルールテーブルと呼ばれる形式で格納する.フレーズテーブルを合成することで\textit{Src-Trg}のピボット翻訳を行う様子を図\ref{fig:pivot-triangulation}に示す.Cohnらによる\textbf{テーブル合成手法(Triangulation)}\cite{cohn07}では,先ず\textit{Src-Pvt}および\textit{Pvt-Trg}の翻訳モデルを対訳コーパスによって学習し,それぞれをフレーズテーブル$T_{SP}$,$T_{PT}$として格納する.得られた$T_{SP}$,$T_{PT}$から,\textit{Src-Trg}の翻訳確率を推定してフレーズテーブル$T_{ST}$を合成する.$T_{ST}$を作成するには,フレーズ翻訳確率$\phi(\cdot)$と語彙翻訳確率$\phi_{lex}(\cdot)$を用い,以下の数式に従って翻訳確率の推定を行う.\begin{align}\phi\left(\overline{t}|\overline{s}\right)&=\sum_{\overline{p}\inT_{SP}\capT_{PT}}\phi\left(\overline{t}|\overline{p}\right)\phi\left(\overline{p}|\overline{s}\right)\label{eqn:triangulation-begin}\\\phi\left(\overline{s}|\overline{t}\right)&=\sum_{\overline{p}\inT_{SP}\capT_{PT}}\phi\left(\overline{s}|\overline{p}\right)\phi\left(\overline{p}|\overline{t}\right)\\\phi_{lex}\left(\overline{t}|\overline{s}\right)&=\sum_{\overline{p}\inT_{SP}\capT_{PT}}\phi_{lex}\left(\overline{t}|\overline{p}\right)\phi_{lex}\left(\overline{p}|\overline{s}\right)\\\phi_{lex}\left(\overline{s}|\overline{t}\right)&=\sum_{\overline{p}\inT_{SP}\capT_{PT}}\phi_{lex}\left(\overline{s}|\overline{p}\right)\phi_{lex}\left(\overline{p}|\overline{t}\right)\label{eqn:triangulation-end}\end{align}ここで,$\overline{s}$,$\overline{p}$,$\overline{t}$はそれぞれ\textit{Src,Pvt,Trg}のフレーズであり,$\overline{p}\inT_{SP}\capT_{PT}$はフレーズ$\overline{p}$が$T_{SP}$,$T_{PT}$の双方に含まれていることを示す.式(\ref{eqn:triangulation-begin})--(\ref{eqn:triangulation-end})は,以下のような条件を満たす無記憶通信路モデルに基づいている.\begin{align}\phi\left(\overline{t}|\overline{p},\overline{s}\right)&=\phi\left(\overline{t}|\overline{p}\right)\\\phi\left(\overline{s}|\overline{p},\overline{t}\right)&=\phi\left(\overline{s}|\overline{p}\right)\end{align}この手法では,翻訳確率の推定を行うために全フレーズ対応の組み合わせを求めて算出する必要があるため,大規模なテーブルの合成には長い時間を要するが,既存のモデルデータから精度の高い翻訳を期待できる.Utiyamaらは,英語を中間言語とした複数の言語対で,逐次的ピボット翻訳手法とテーブル合成手法によるピボット翻訳で比較実験を行った\cite{utiyama07}.その結果,テーブル合成手法では,$n=1$の単純な逐次的ピボット翻訳や,$n=15$のマルチセンテンス方式よりも高いBLEUスコアが得られたと報告している.
\section{同期文脈自由文法におけるテーブル合成手法の応用}
\label{sec:pivot-scfg}\ref{sec:pivot-methods}節で説明したピボット翻訳手法のうち,逐次的ピボット翻訳および擬似対訳コーパス手法はSMTの枠組にとらわれない手法であるため,SCFGを用いるSMTでもそのまま適用可能であるが,テーブル合成手法は本来,PBMTのフレーズテーブルを合成するために提案されたものである.SCFGを用いる翻訳方式では,式(\ref{eqn:scfg})のように表現される同期導出規則をルールテーブルという形式で格納する.次節以降では,SCFGルールテーブルを合成することで,PBMTにおけるテーブル合成手法と同等のピボット翻訳を行うための手法について説明し,その後にPBMTおよびSCFGにおける複数のピボット翻訳手法による翻訳精度の差を実験によって比較評価し,考察を行う.\subsection{同期導出規則の合成}\label{sec:rule-triangulation}SCFGルールテーブル合成手法では,先ず\textit{Src-Pvt,Pvt-Trg}それぞれの言語対について,対訳コーパスを用いて同期導出規則を抽出し(\ref{sec:scfg}節),各規則の確率スコアなどの素性を算出してルールテーブルに格納する.その後,\textit{Src-Pvt,Pvt-Trg}ルールテーブル双方に共通の\textit{Pvt}記号列を有する導出規則$X\rightarrow\left<\overline{s},~\overline{p}\right>$,$X\rightarrow\left<\overline{p},~\overline{t}\right>$をすべて見つけ出し,新しい導出規則$X\rightarrow\left<\overline{s},~\overline{t}\right>$の翻訳確率を,式(\ref{eqn:triangulation-begin})--(\ref{eqn:triangulation-end})に従って推定する.PBMTにおいては$\overline{s},\overline{p},\overline{t}$が各言語のフレーズ(単語列)を表しており,SCFGにおいては非終端記号を含む各言語の記号列を表す点で異なるが,計算式については同様である.また,$X\rightarrow\left<\overline{s},~\overline{t}\right>$のワードペナルティおよびフレーズペナルティは$X\rightarrow\left<\overline{p},~\overline{t}\right>$と同じ値に設定する.本節で提案したルールテーブル合成手法によるピボット翻訳が,他の手法や他の翻訳枠組と比較して有効であるかどうかを調査するため,後述する手順によって比較実験を行った.\subsection{実験設定}\label{sec:experiment-scfg}\ref{sec:pivot-methods}節で紹介したピボット翻訳手法のうち,実現が非常に容易で比較しやすい逐次的ピボット翻訳手法と,PBMTで高い実用性が示されたテーブル合成手法によるピボット翻訳を,PBMTおよびSCFGにおいて実施し,翻訳精度の比較評価を行った.本実験では,学習および評価に用いる対訳コーパスとして,国連文書を元にして作成された国連多言語コーパス\cite{ziemski16un}を用いて翻訳精度の比較評価を行った.本コーパスには,英語(En),アラビア語(Ar),スペイン語(Es),フランス語(Fr),ロシア語(Ru),中国語(Zh)の6言語間で意味の対応する約1,100万文の対訳文が含まれている.これら6言語は複数の語族をカバーしているため,言語構造の違いにより複雑な単語並び替えが発生しやすく,SMTの枠組とピボット翻訳手法の組み合わせの影響を調査する目的に適している.現実的なピボット翻訳タスクを想定し,英語を中間言語として固定し,残りの5言語のすべての組み合わせでピボット翻訳を行った.ピボット翻訳では,\textit{Src-Pvt},\textit{Pvt-Trg}のそれぞれの言語対の対訳を用いて\textit{Src-Trg}の翻訳を行うが,ピボット翻訳が必要となる場面では直接的な対訳はほとんど存在しないものと想定し,それぞれの対訳の\textit{Pvt}側には共通の文が存在しない方が評価を行う上で望ましい.本コーパスのアーカイブには学習用データ(train)約1,100万文,評価用データ(test)4,000文,パラメータ調整用データ(dev)4,000文が予め用意されているが,前処理として,それぞれのデータに対して重複して出現する英文を含む対訳文を取り除き,また,長い文は学習・評価時の計算効率上の妨げとなるためtrainに対して60単語,test,devに対して80単語を超える文はすべて取り除いたところ,trainは約800万文,test,devはそれぞれ約3,800文が残った.しかし,評価対象となる組み合わせ数が膨大であるため,前処理後のデータサイズに比較すると小規模であるが,前処理後のtrainから\textit{Src-Pvt}の学習用にtrain1,\textit{Pvt-Trg}の学習用にtrain2をそれぞれ10万文,英文の重複がないように取り出し,test,devはそれぞれ1,500文ずつを実際の評価とパラメータ調整に用いた.複数の言語の組み合わせでPBMT,SCFGのそれぞれについて以下のようにSMTの学習と評価を行い,ピボット翻訳手法の違いによる翻訳精度を比較した.\begin{description}\item[Direct(直接翻訳):]\mbox{}\\直接的な対訳を得られる理想的な状況下における翻訳精度を得て比較を行うため,\textit{Pvt}を用いず\textit{Src-Trg}の直接対訳コーパスtrain1,train2を個別に用いて翻訳モデルを学習し評価.train1,train2による翻訳スコアをそれぞれ「Direct1」,「Direct2」とし,まとめて「Direct1/2」と表記\item[Cascade(逐次的ピボット翻訳):]\mbox{}\\\textit{Src-Pvt,Pvt-Trg}それぞれの対訳train1,train2で学習された翻訳モデルでパイプライン処理を行い,\textit{Src-Trg}翻訳を評価\item[Triangulation(テーブル合成手法):]\mbox{}\\\textit{Src-Pvt,Pvt-Trg}それぞれの対訳train1,train2で学習された翻訳モデルから,翻訳確率の推定により\textit{Src-Trg}翻訳モデルを合成し評価\end{description}\asis{コーパス中の中国語文は単語分割が行われていない状態であったため,KyTea\cite{neubig11-kytea}の中国語モデルを用いて単語分割を行った.PBMTモデルの構築にはMoses\cite{koehn07moses},SCFG翻訳モデルの構築にはTravatar\cite{neubig13travatar}のHiero学習ツールを利用した.すべての翻訳システムではKenLM\cite{heafield11}とtrain1+train2の目的言語側20万文を用いて学習した5-gram言語モデルを訳出の自然性評価に用いている.また,翻訳結果の評価には,自動評価尺度BLEU\cite{papineni02}を用い,各SMTシステムについてMERT\cite{och03mert}により,開発用データセットに対してBLEUスコアが最大となるようにパラメータ調整を行った.}\subsection{実験結果}\label{sec:pivot-result}様々な言語と機械翻訳方式の組み合わせについてDirect1/2,Triangulation,Cascadeの各ピボット翻訳手法で翻訳を行い評価した結果を表\ref{tab:pivot-pbmt-scfg}に示す.太字は言語と翻訳枠組の各組み合わせで精度の高いピボット翻訳手法を示す.先行研究では,PBMTのピボット翻訳手法においてTriangulationでCascadeよりも高い翻訳精度が示されており,このことは実験結果の表からも,すべての言語の組み合わせで確認できた.同様に,\ref{sec:rule-triangulation}節で提案したSCFGルールテーブルのTriangulationによっても,Cascadeより高い翻訳精度が示された.このことから,SMTの枠組によらず,Triangulation手法を用いることでCascade手法よりも安定して高いピボット翻訳精度が得られるものと考えられる.また,Triangulationの翻訳精度をDirectと比較した場合,例えばスペイン語・フランス語のHiero翻訳におけるDirectの平均BLEUスコアが35.34であるのに対し,TriangulationのBLEUスコアが32.62と,2.72ポイントの大きな差が開いており,Direct翻訳で高い精度が出る言語対ではTriangulation手法でも依然として精度が大きく低下する傾向が見られた.逆に,Direct翻訳のBLEUスコアが15を下回っていて翻訳が困難な言語対では,Triangulation手法でも大きな差は見られず,フランス語・中国語のHiero翻訳のように,Triangulationのスコアが僅かながらDirectのスコアを上回る例も少数見られたが,誤差の範囲であろう.\begin{table}[p]\caption{ピボット翻訳手法毎の翻訳精度比較}\label{tab:pivot-pbmt-scfg}\input{05table01.txt}\end{table}一方,翻訳精度をPBMTとHieroで比較した場合,言語対によって優劣が異なっているものの,傾向としては中国語を含む言語対においてHieroの翻訳精度がPBMTを大きく上回っており,ロシア語を含む言語対では僅かに下回り,それ以外の言語対では僅かに上回る例が多く見られた.20組の言語対のうち14組でHieroにおけるTriangulationのスコアがPBMTの場合を上回っており,平均して0.5ポイント以上のBLEUスコアが向上しているため,Hieroをピボット翻訳に応用する手法は総じて有効であると考えられる.\subsection{異なるデータを用いた場合の翻訳精度}\label{sec:pivot-europarl}\ref{sec:pivot-result}節までは,国連文書コーパスを用いた,複数の語族にまたがる言語間でのピボット翻訳を行った内容について説明し考察している.本研究の過程で,国連文書コーパスの他,欧州議会議事録を元にしたEuroparlコーパス\cite{koehn05europarl}を用いて\ref{sec:experiment-scfg}節と同様の実験も実施している.このコーパスは,欧州の諸言語を広くカバーしており,多言語翻訳タスクに多用されるが,語族がほとんど共通しており比較的似通った言語間での翻訳となる.この実験では英語を中間言語として固定し,欧州でも話者数の多いドイツ語,スペイン語,フランス語,イタリア語の4言語の組み合わせでピボット翻訳を行った.Europarlからも10万文の対訳で学習し,1,500文ずつの評価とパラメータ調整を行ったが,\textit{Src-Pvt}と\textit{Pvt-Trg}それぞれの翻訳モデルの学習にはすべて中間言語データが一致しているものを用い,直接的な翻訳と比較してどの程度精度に影響があるかも調査した.この実験結果から,\ref{sec:pivot-result}節の実験結果と同様に,PBMTとHieroの双方において,すべての言語対においてTriangulationがCascadeよりも高精度となることが確認された.また,2つの翻訳モデルの学習で中間言語側が共通のデータを用いているにも関わらず,Triangulationの精度はDirectと比較して大きく減少しており,この精度差が中間言語側の曖昧性の影響を強く受けて発生したものであると考えられる.一方,PBMTとHieroの精度を比較した場合には,精度差が言語対に依存するのも同様であり,大きな単語並び替えが発生しないような言語の組み合わせが多いため,計算コストが低く,標準設定でより長いフレーズ対応を学習できるPBMTの方が有利と考えられる点も多かった.\subsection{考察および関連研究}\ref{sec:pivot-methods}節では,PBMTで提案されてきた代表的なピボット翻訳手法について説明し,本節ではテーブル合成手法をSCFGのルールテーブルに適用するための手法について述べ,また言語対・機械翻訳方式・ピボット翻訳手法の組み合わせによって翻訳精度の影響を比較評価した.その結果,SCFGにおいてもテーブル合成手法によって高い翻訳精度を得られることが示され,また言語対や用いるデータによってはPBMTの場合よりも高い精度が得られることも分かった.ピボット翻訳におけるその他の関連研究は,PBMTのテーブル合成手法をベースに,さらに精度を上げるための議論が中心である.テーブル合成手法はピボット翻訳手法の中でも高い翻訳精度が報告されているが\cite{utiyama07},\ref{sec:intro}節で述べたような中間言語側の表現力に起因する曖昧性の問題や,異なる言語対やデータセット上で推定された単語アラインメントから抽出されるフレーズの不一致によって,得られる翻訳規則数が減少する問題などがあり,直接的な対訳が得られる理想的な状況と比較すると翻訳精度が大きく下回ってしまう.これらの問題に対処するための関連研究として,翻訳確率推定の前にフレーズの共起頻度を推定することでサイズが不均衡なテーブルの合成を改善する手法\cite{zhu14},単語の分散表現を用いて単語レベルの翻訳確率を補正する手法\cite{levinboim15},複数の中間言語を用いる手法\cite{dabre15}などが挙げられ,曖昧性の解消には中間表現の工夫と信頼度の高い言語資源の有効利用が必要と言える.
\section{中間言語情報を記憶するピボット翻訳手法の提案}
\label{sec:triangulation-mscfg}\ref{sec:pivot-methods}節ではSMTで用いられているピボット翻訳手法について紹介し,\ref{sec:pivot-scfg}節では従来手法の中で高い翻訳精度が報告されているテーブル合成手法をSCFGで応用するための手順について説明した.また,比較評価実験により,SCFGにおいてもPBMTと同様,テーブル合成手法によって逐次的ピボット翻訳手法よりも高い精度が得られた.しかし,直接の対訳を用いて学習した場合と比較すると,翻訳精度の差は未だ大きいため,精度が損なわれてしまう原因を特定し,解消することができれば,さらなる翻訳精度の向上が期待できる.テーブル合成手法で翻訳精度が損なわれる原因の一つとして,翻訳時に重要な手がかりとなるはずの中間言語の情報はテーブル合成後には失われてしまい,不正確に推定された\textit{Src-Trg}のフレーズ対応と翻訳確率のみが残る点が挙げられる.本節では,従来では消失してしまう中間言語情報を記憶し,この追加の情報を翻訳時に用いることで精度向上に役立てる,新しいテーブル合成手法を提案する.\subsection{従来のテーブル合成手法の問題点}従来のテーブル合成手法の問題点について,1節中でも紹介したが,本節で改めて説明を行う.テーブル合成手法では,\textit{Src-Pvt,Pvt-Trg}それぞれの言語対におけるフレーズの対応と翻訳確率のスコアが与えられており,この情報を元に,\textit{Src-Trg}言語対におけるフレーズ対応と翻訳確率の推定を行う.ところが,語義曖昧性や言語間の用語法の差異により,\textit{Src-Trg}のフレーズ対応を正確に推定することは困難である.\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f7.eps}\end{center}\caption{モデル学習に用いるフレーズ対応(日-英-伊)}\label{fig:pivot-align}\end{figure}図\ref{fig:pivot-align}はテーブル合成手法によって対応を推定するフレーズの例を示しており,図中では日本語とイタリア語それぞれにおける3つの単語が,語義曖昧性を持つ英単語「approach」に結び付いている.このような場合,\textit{Src-Trg}のフレーズ対応を求め,適切な翻訳確率推定を行うのは複雑な問題となってくる.その上,図\ref{fig:pivot-traditional}に示すように,従来のテーブル合成手法では,合成時に\textit{Src}と\textit{Trg}の橋渡しをしていた\textit{Pvt}フレーズの情報が,合成後には保存されず失われてしまう.現実の人手翻訳の場合を考えても,現在着目しているフレーズに関する追加の言語情報が与えられているなら,その言語を知る者にとって重要な手がかりとなって曖昧性解消などに用いることができる.そのため,\textit{Src-Trg}を結び付ける\textit{Pvt}フレーズは重要な言語情報であると考えられ,本研究では,この情報を保存することで機械翻訳にも役立てるための手法を提案する.\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f8.eps}\end{center}\caption{従来手法によって得られるフレーズ対応}\label{fig:pivot-traditional}\vspace{0.5\Cvs}\end{figure}\subsection{中間言語情報を記憶するテーブル合成手法}前節で述べた問題を克服するため,本研究では\textit{Src}と\textit{Trg}を結び付けていた\textit{Pvt}フレーズの情報も翻訳モデル中に保存し,\textit{Src}から\textit{Trg}と\textit{Pvt}への同時翻訳確率を推定することによって翻訳を行う新しいテーブル合成手法を提案する.図\ref{fig:pivot-proposed}に,本提案手法によって得られるフレーズ対応の例を示す.本手法の利点は,英語のように中間言語として選ばれる言語は豊富な単言語資源も得られる傾向が強いため,このような追加の言語情報を翻訳システムに組み込み,翻訳文の導出時に利用できることにある.\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f9.eps}\end{center}\caption{提案手法によって得られるフレーズ対応}\label{fig:pivot-proposed}\end{figure}中間言語フレーズの情報を翻訳時に役立てるため,SCFG(\ref{sec:scfg}節)を複数の目的言語文の同時生成に対応できるよう拡張したMSCFG(\ref{sec:mscfg}節)を用いて翻訳モデルの合成を行う.MSCFGによる翻訳モデルを構築するためには,\textit{Src-Pvt,Pvt-Trg}のSCFG翻訳規則が格納されたルールテーブルを元に,SCFGルールテーブルとしてではなく,\textit{Src-Trg-Pvt}のMSCFGルールテーブルとして合成し,これによって\textit{Pvt}フレーズを記憶する.訳出候補の探索時には,生成文の自然性を評価し,適切な語彙選択を促すために言語モデルを用いるが,目的言語モデルのみでなく,中間言語モデルも同時に用いた探索を行う.次節から,SCFG翻訳モデルの同期導出規則からMSCFG翻訳モデルの複数同期導出規則を合成するための手順について説明する.\subsection{同期導出規則から複数同期導出規則への合成}\ref{sec:rule-triangulation}節では,SCFGの同期規則を合成するために,\textit{Src-Pvt,Pvt-Trg}ルールテーブル双方に共通の\textit{Pvt}記号列を有する導出規則$X\rightarrow\left<\overline{s},~\overline{p}\right>$,$X\rightarrow\left<\overline{p},~\overline{t}\right>$を見つけ出し,新しい導出規則$X\rightarrow\left<\overline{s},~\overline{t}\right>$の翻訳確率を,式(\ref{eqn:triangulation-begin})--(\ref{eqn:triangulation-end})に従って確率周辺化を行い推定することを述べた.一方,中間言語情報を記憶するテーブル合成手法では$X\rightarrow\left<\overline{s},~\overline{p}\right>$,$X\rightarrow\left<\overline{p},~\overline{t}\right>$を元に,以下のように複数同期規則を合成する.\begin{equation}X\longrightarrow\left<\overline{s},~\overline{t},~\overline{p}\right>\end{equation}このような規則を用いて翻訳を行うことによって,同時生成される中間言語文を通じて中間言語モデルなどのような追加の素性を取り入れることが可能となる.式(\ref{eqn:triangulation-begin})--(\ref{eqn:triangulation-end})に加えて,\textit{Trg}と\textit{Pvt}を同時に考慮した翻訳確率$\phi\left(\overline{t},\overline{p}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{p},\overline{t}\right)$を以下のように推定する.\begin{align}\phi\left(\overline{t},\overline{p}|\overline{s}\right)&=\phi\left(\overline{t}|\overline{p}\right)\phi\left(\overline{p}|\overline{s}\right)\\\phi\left(\overline{s}|\overline{p},\overline{t}\right)&=\phi\left(\overline{s}|\overline{p}\right)\end{align}\textit{Src-Pvt}の翻訳確率$\phi\left(\overline{p}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{p}\right)$,$\phi_{lex}\left(\overline{p}|\overline{s}\right)$,$\phi_{lex}\left(\overline{s}|\overline{p}\right)$はルールテーブル$T_{SP}$のスコアをそのまま用いることが可能である.これら10個の翻訳確率$\phi\left(\overline{t}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{t}\right)$,$\phi\left(\overline{p}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{p}\right)$,$\phi_{lex}\left(\overline{t}|\overline{s}\right)$,$\phi_{lex}\left(\overline{s}|\overline{t}\right)$,$\phi_{lex}\left(\overline{p}|\overline{s}\right)$,$\phi_{lex}\left(\overline{s}|\overline{p}\right)$,$\phi\left(\overline{t},\overline{p}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{p},\overline{t}\right)$に加えて,$\overline{t}$と$\overline{p}$に含まれる非終端記号数を2つのワードペナルティとし,定数1のフレーズペナルティの,合わせて13個のスコアがMSCFGルールにおける素性となる.\subsection{同期規則のフィルタリング}前節で説明した,中間言語情報を記憶するテーブル合成手法は,このままでは$\left<\overline{s},\overline{t}\right>$ではなく,$\left<\overline{s},\overline{t},\overline{p}\right>$の全組み合わせを記録するため,従来より大きなルールテーブルが合成されてしまう.計算資源を節約するためには,幾つかのフィルタリング手法が考えられる.Neubigらによると,主要な目的言語$T_1$と補助的な目的言語$T_2$で翻訳を行う際には,$T_1$-フィルタリング手法\cite{neubig15naacl}が効果的である.このフィルタリング手法を,提案するテーブル合成手法に当てはめると,$T_1=Trg$,$T_2=Pvt$であり,原言語フレーズ$\overline{s}$に対して,先ず$Trg$において$\phi\left(\overline{t}|\overline{s}\right)$が上位$L$個までの$\overline{t}$を残し,それぞれの$\overline{t}$に対して$\phi\left(\overline{t},\overline{p}|\overline{s}\right)$が最大となるような$\overline{p}$を残す.
\section{実験的評価}
前節で提案した中間言語情報を記憶するテーブル合成手法の有効性を検証するため,多言語コーパスを用いたピボット翻訳の比較評価実験を実施した.\subsection{実験設定}\asis{用いたデータやツールは,\ref{sec:experiment-scfg}節の実験と大部分が共通しているため,差分を明らかにしつつ説明を行う.本実験では,\ref{sec:experiment-scfg}節の実験で得られた同じ対訳データを用いて各翻訳モデルの学習に用いた.すなわち,国連多言語コーパスを用いて,英語(En)を中間言語とするアラビア語(Ar),スペイン語(Es),フランス語(Fr),ロシア語(Ru),中国語(Zh)の5言語の組み合わせでピボット翻訳の翻訳精度を比較し,それぞれの言語対について\textit{Src-Pvt}翻訳モデルの学習用(train1)に10万文,\textit{Pvt-Trg}翻訳モデルの学習用(train2)に10万文,評価(test)とパラメータ調整用(dev)にそれぞれ1,500文ずつを用いた.目的言語モデルの学習にも,\ref{sec:experiment-scfg}節と同様にtrain1+train2の目的言語文20万文を用いている.また,多くの場合,英語においては大規模な単言語資源が取得可能であるため,最大500万文までのデータを用いて段階的に学習を行った複数の中間言語モデルを用意した.SCFGおよびMSCFGを用いるデコーダとしてTravatar\cite{neubig13travatar}を用い,付属のHieroルール抽出プログラムを用いてSCFG翻訳モデルの学習を行った.翻訳結果の比較には,自動評価尺度BLEU\cite{papineni02}を用い,各翻訳モデルはMERT\cite{och03mert}により,開発用データに対してBLEUスコアが最大となるようにパラメータ調整を行った.提案手法のテーブル合成手法によって得られたMSCFGルールテーブルは,$L=20$の$T_1$-フィルタリング手法によって枝刈りを行った.本実験では先ず,以下の6つの翻訳手法を比較評価する.}\begin{description}\item[Cascade(逐次的ピボット翻訳):]\mbox{}\\\textit{Src-Pvt}および\textit{Pvt-Trg}のSCFG翻訳モデルで逐次的ピボット翻訳(\ref{sec:cascade}節).「w/PvtLM200k/5M」は\textit{Src-Pvt}翻訳時にそれぞれ20万文,500万文で学習した中間言語モデルを用いることを示す\item[Tri.SCFG(SCFGルールテーブル合成手法):]\mbox{}\\\textit{Src-Pvt}および\textit{Pvt-Trg}のSCFGモデルを合成し,\textit{Src-Trg}のSCFGモデルによって合成(\ref{sec:triangulation}節,ベースライン)\item[Tri.MSCFG(MSCFGルールテーブル合成手法):]\mbox{}\\\textit{Src-Pvt}および\textit{Pvt-Trg}のSCFGモデルを合成し,\textit{Src-Trg-Pvt}のMSCFGモデルによって翻訳(\ref{sec:triangulation-mscfg}節).「w/oPvtLM」は中間言語モデルを用いないことを示し,「w/PvtLM200k/5M」はそれぞれ20万文,500万文で学習した中間言語モデルを用いることを示す\end{description}\subsection{翻訳精度の比較}表\ref{tab:scores-euro}に,英語を介したすべての言語対におけるピボット翻訳の結果を示す.実験で得られた結果は,ブートストラップ・リサンプリング法\cite{koehn04bootstrap}により統計的有意差を検証した.それぞれの言語対において,太字は従来手法Tri.SCFGよりもBLEUスコアが高いことを示し,下線は最高スコアを示す.短剣符は各ピボット翻訳手法の翻訳精度がTri.SCFGよりも統計的有意に高いことを示す($\dagger:p<0.05,\ddagger:p<0.01$).評価値から,提案したテーブル合成手法で中間言語モデルを考慮した翻訳を行った場合,すべての言語対において従来のテーブル合成手法よりもBLEUスコアの向上が確認できる.すべての組み合わせにおいて,テーブル合成手法で中間言語情報を記憶し,500万文の言語モデルを考慮して翻訳を行った場合に最も高いスコアを達成しており,従来法に比べ最大で1.8,平均で0.75ほどのBLEU値の向上が見られる.このことから,中間言語情報を記憶し,これを翻訳に利用することが曖昧性の解消に繋がり,安定して翻訳精度を改善できたと言えよう.\begin{table}[b]\caption{ピボット翻訳手法と中間言語モデル規模の組み合わせによる翻訳精度比較}\label{tab:scores-euro}\input{05table02.txt}\end{table}また,異なる要因による影響を切り分けて調査するため,MSCFGへ合成するが,中間言語モデルを用いずに翻訳を行った場合の比較も行った(Tri.MSCFGw/oPvtLM).この場合,保存された中間言語情報が語彙選択に活用されないため,本手法の優位性は特に現れないものと予想できたが,実際には,SCFGに合成する場合よりも多くの言語対で僅かに高い翻訳精度が見られた.これは,追加の翻訳確率などのスコアが有効な素性として働き,パラメータ調整を行った上で,適切な語彙選択に繋がったことなどが原因として考えられる.大規模な中間言語モデルを用いる手法は,本稿で提案するテーブル合成後のモデルのみならず,従来の逐次的ピボット翻訳手法でも可能であるため,500万文の大規模な中間言語モデルを用いた場合の精度評価も行った(Cascadew/PvtLM5M).Cascadew/PvtLM5Mは20万文の中間言語モデルしか用いない逐次的ピボット翻訳手法(Cascadew/PvtLM200k)と比較した場合にZh-Ar,Zh-Ruを除いたすべての言語対で高精度であり,単純に大規模な言語モデルを用いることで精度向上に繋がることは確認された.しかし,従来のテーブル合成手法であるTri.SCFGと比較した場合の精度差は言語対依存であり,安定した精度向上とはならなかった.また,本稿の提案手法Tri.MSCFGw/PvtLM5Mと,Cascadew/PvtLM5Mを比較すると,同じ規模の中間言語モデルを用いていてもすべての言語対で提案手法の方が高精度であり,このことからもテーブル合成手法と大規模な中間言語モデルを用いることの有効性が高いと言えるだろう.\subsection{中間言語モデルの規模が翻訳精度に与える影響}\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f10.eps}\end{center}\caption{中間言語モデル規模がピボット翻訳精度に与える影響}\label{fig:pivot-lm}\end{figure}\asis{中間言語モデルの規模がピボット翻訳精度に与える影響の大きさは言語対によって異なってはいるが,中間言語モデルの学習データサイズが大きくなるほど精度が向上することも確認できる.図\ref{fig:pivot-lm}は,中国語・スペイン語(左)およびアラビア語・ロシア語(右)のピボット翻訳において異なるデータサイズで学習した中間言語モデルが翻訳精度に与える影響を示す.図からも中間言語モデルが曖昧性を解消して翻訳精度向上に寄与している様子が確認できる.中間言語モデルの学習データサイズを増加させることによる翻訳精度への影響は対数的であることも見てとられるが,これは目的言語モデルサイズが翻訳精度へ与える影響と同様の傾向である\cite{brants07}.中国語・スペイン語の翻訳ではグラフの傾向から,さらに大規模な中間言語モデルを用いることで精度向上の見込みがあるが,一方でアラビア語・ロシア語の場合には学習データサイズが200万文から500万文に増加しても精度にほとんど影響が見られないため,これ以上の精度向上には限界があると考えられる.}\subsection{曖昧性が解消された例と未解決の問題}本提案手法によって中間言語側で曖昧性が解消されて翻訳精度向上に繋がったと考えられる訳出の例を示す.\vspace{0.5\Cvs}\begin{description}\fontsize{8.5pt}{13.3pt}\selectfont\item[入力文(フランス語):]\mbox{}\\Lenomducandidat\textbf{propos\'{e}}estindiqu\'{e}dansl'annexa\`{a}lapr\'{e}sentenote.\item[参照訳(スペイン語):]\mbox{}\\Elnombredelcandidato\textbf{propuesto}sepresentaenelanexodelapresentenota.\item[対応する英文:]\mbox{}\\Thenameofthecandidate\textbf{thusnominated}issetoutintheannextothepresentnote.\item[Tri.SCFG:]\mbox{}\\Elnombredel\textbf{proyecto}deuncandidatoseindicaenelanexoalapresentenota.\\(BLEU+1:34.99)\item[Tri.MSCFGw/PvtLM5M:]\mbox{}\\Elnombredelcandidato\textbf{propuesto}seindicaenelanexoalapresentenota.(BLEU+1:61.13)\\Thenameofthecandidate\textbf{proposed}indicatedintheannextothepresentnote.\\(同時生成された英文)\end{description}\vspace{0.5\Cvs}上記の例では,入力文中のフランス語の分詞「propos\'{e}(指名された)」には参照役中のスペイン語の分詞「propuesto」が対応しているが,従来のテーブル合成手法では,誤った対応である名詞「proyecto(計画,立案)」が結び付き翻訳に用いられた結果,不正確な訳出となっている.一方で提案手法においては,入力文の「propos\'{e}」に対してスペイン語の「propuesto」と英語の「proposed」が同時に結び付いており,生成される英文中の単語の前後関係から適切な語彙選択を促し,訳出の改善に繋がったものと考えられる.逆に,提案手法では語彙選択がうまくいかず,直接対訳で学習した場合よりも精度が落ちた訳出の例を示す.\vspace{0.5\Cvs}\begin{description}\fontsize{8.5pt}{13.3pt}\selectfont\item[入力文(フランス語):]\mbox{}\\J.Risques\textbf{d'aspiration}:\textbf{cit\`{e}re}deviscosit\'{e}pourlaclassificationdes\textbf{m\'{e}langes};\item[参照訳(スペイン語):]\mbox{}\\J.Peligrospor\textbf{aspiraci\'{o}n}:\textbf{criterio}deviscosidadparalaclasificaci\'{o}nde\textbf{mezclas};\item[対応する英文:]\mbox{}\\J.\textbf{Aspiration}hazards:viscosity\textbf{criterion}forclassificationof\textbf{mixtures};\item[Direct1:]\mbox{}\\J.Riesgos\textbf{d'aspiration}:\textbf{criterio}deviscosit\'{e}paralaclasificaci\'{o}nde\textbf{losm\'{e}langes};(BLEU+1:34.20)\item[Direct2:]\mbox{}\\J.Riesgos\textbf{d'aspiration}:\textbf{criterio}deviscosit\'{e}paralaclasificaci\'{o}nde\textbf{mezclas};(BLEU+1:49.16)\item[Tri.MSCFGw/PvtLM2M:]\mbox{}\\J.Riesgos\textbf{d'aspiration}:viscosit\'{e}\textbf{criterios}paralaclasificaci\'{o}nde\textbf{m\'{e}langes};(BLEU+1:27.61)\\J.Riskd'aspiration:viscosit\'{e}\textbf{criteria}forthecategorizationof\textbf{m\'{e}langes};(同時生成された英文)\end{description}\vspace{0.5\Cvs}この例では,フランス語の「d'aspiration(吸引)」や「m\'{e}langes(混合物)」といった専門用語は,コーパス中の出現頻度が少なく,「d'aspiration」はtrain1やtrain2にも一度も出現しないため,Direct1/2の双方で翻訳不可能で未知語扱いとなっており,「m\'{e}langes」はtrain2でのみ出現しており,Direct1では未知語扱いである.テーブル合成手法では,2つの翻訳モデルで共通して出現する中間言語フレーズのみしか学習できないため,他方のみにしか含まれない専門用語は未知語となってしまう.この問題は,その他のピボット翻訳手法である逐次的ピボット翻訳手法や擬似コーパス手法でも当然解決不可能なため,複数の対訳データでカバーできない表現は外部辞書などを用いて補う必要があるだろう.また,この例では未知語の問題以外にもスペイン語の単数形の名詞「criterio(基準)」がテーブル合成手法では複数形の「criterios」となっていたり語順が誤ったりしている問題も見られる.こういった問題は,本提案手法である程度は改善されているものの,活用形や語順の問題により正確に対処するためには,統語的情報を明示的に扱う手法の導入が必要であると考えられる.\subsection{Europarlを用いた評価および品詞毎の翻訳精度}提案手法の有効性を調査するための比較評価実験も,国連文書コーパスのみでなく,研究の過程で\ref{sec:pivot-europarl}節と同様にEuroparlを用いた欧州の言語間でのピボット翻訳においても実施した.この実験においても10万文の対訳データを用いて学習した翻訳モデルを合成するが,中間言語モデルの学習には最大200万文までの英文を利用した.この実験からも,中間言語情報を記憶するテーブル合成手法と200万文で学習した中間言語モデルを用いた場合に,すべての言語対において従来のピボット翻訳手法であるTri.SCFGやCascadeを上回る精度が得られた.このことから,本提案手法は言語構造の類似度に関わらず有効に機能するものと考えられる.\asis{また,英語は他の欧州諸言語と比較して,性・数・格に応じた活用などが簡略化された言語として有名であり,語形から統語情報が失われることで発生する曖昧性の問題もある.本節では,英語を介したドイツ語・フランス語の両方向の翻訳において,誤りの発生しやすい品詞について調査する.先ず,独仏・仏独翻訳における評価データの参照訳および各ピボット翻訳手法の翻訳結果に対してStanfordPOSTagger\cite{toutanova00,toutanova03}を用いて品詞付与を行い,参照訳と翻訳結果を比較して,語順は考慮せずに適合率と再現率の調和平均であるF値を算出した.表\ref{tab:pos-error-de-fr}および表\ref{tab:pos-error-fr-de}は,各翻訳における高頻出品詞の正解率を表している.出現頻度は,参照訳中の各品詞の出現回数を意味し,丸括弧内に示された数値は,提案手法とベースライン手法のF値の差分である.結果は言語対依存であるが,特に目的言語に強く依存していることが明らかである.\begin{table}[b]\caption{独仏翻訳における品詞毎の翻訳精度}\label{tab:pos-error-de-fr}\input{05table03.txt}\end{table}\begin{table}[b]\caption{仏独翻訳における品詞毎の翻訳精度}\label{tab:pos-error-fr-de}\input{05table04.txt}\end{table}表\ref{tab:pos-error-de-fr}の独仏翻訳の例では,提案手法によって,ベースライン手法よりも特に前置詞,定冠詞,動詞でF値が大きく向上している.一般名詞,形容詞,動詞,副詞は重要な内容語であり,語彙選択の幅も広いため,どの手法でも全体的にF値が低くなっている.一般名詞に関しては,通常のテーブル合成手法でもDirectと大きな差は出ておらず,そのため提案手法でもほとんど改善されなかった.一方で,動詞のF値は提案手法で大きく向上しており,中間言語モデルによって語の並びを考慮して語彙選択を行うことで翻訳精度向上に繋がったと考えられる.しかし,それでもDirectには大きく及ばず,頻度が比較的低い内容語の語彙選択を適切に行うことは困難と言えるだろう.一方で,機能語においては提案手法においてDirectと近いF値となった.表\ref{tab:pos-error-fr-de}の仏独翻訳の例では,表\ref{tab:pos-error-de-fr}の場合と少し変わっており,冠詞,前置詞,再帰代名詞のような機能語で,提案手法によってF値が大きく改善されているものの,Directと比べると大きな差があり,ピボット翻訳で精度が大きく落ちる原因と考えられる.冠詞や前置詞は機能語であるものの,ドイツ語では男性系・女性系に加えて,英語にもフランス語にもない中性系の活用を持っているため,フランス語よりも活用の種類が多く,また冠詞や前置詞も格に応じた活用をすることが知られている.原言語を英語に翻訳した際には統語的情報が失われることが多いため,機能語にも活用幅があるような目的言語に対してはピボット翻訳が特に困難になることが多い.}本節では,品詞毎の単語正解率の分析を行ったが,言語対毎に特定品詞の翻訳精度が落ちる現象が見られた.英語には同じ語形で多品詞の語が多いため,単語の対応だけで統語的な役割を判断するのは不可能な場合もある.統語的な情報を汲み取るには複数の単語からなるフレーズを考慮する必要があるが,文頭と文末のような離れた位置での依存関係も存在するため,単語列としてではなく構文構造を考慮することも重要と考えられる.そこで,本研究の今後の課題として,構文構造を中間言語の表現として用いるピボット翻訳手法を検討している.
\section{まとめ}
本研究の目的は,多言語機械翻訳における翻訳精度の向上を目指し,従来のピボット翻訳手法を調査,問題点を改善して翻訳精度を図ることであった.そのために,PBMTで既に有効性が示されている,テーブル合成手法によるピボット翻訳をSCFGに適用し,どのような処理が有効であるかに着目した.さらに,従来のテーブル合成手法では中間言語情報が失われ,曖昧性により翻訳精度が減少する問題に対処するため,中間言語情報を記憶し,中間言語モデルを利用して自然な語順の語彙選択を促すことで精度を向上させるテーブル合成手法についても提案した.本論文で提案した手法を用いて,国連文書を元にした多言語コーパスの6言語のデータを用いてピボット翻訳の比較評価を行ったところ,英語を中間言語としたすべての言語の組み合わせで従来のテーブル合成手法よりも高い翻訳精度が示された.また,特に大規模な中間言語モデルを用いることで,より適切な語彙選択が促されて翻訳の質を高められることが分かった.しかし,提案手法でも,直接の対訳コーパスを用いて学習を行った理想的な状況と比較すると,精度の開きが大きく,中間言語モデルをさらに大きくするだけでは解決できないであろう点も示唆された.本提案手法で解決できなかった曖昧性の問題を調査すべく,特定の言語対で品詞毎の単語正解率を求めたところ,語順を考慮するだけでは解消されない曖昧性の問題もあり,構文情報を用いてこの点を改善することが今後の課題として考えられる.ピボット翻訳の曖昧性の問題は,主として中間言語の表現力に起因しており,中間言語の単語列だけでは原言語の情報が失われてしまい,目的言語側で確率的に正しく再現することは困難である.そのため,今後の課題として,中間言語を特定の言語の単語列としてではなく,より高い表現力を持った構文構造を中間表現とすることで,中間言語側の多品詞語の問題に対処したり,原言語側の情報を保存して,より正確に目的言語側で情報を再現するための手法を検討する.1つ目は,中間表現に統語情報を用いた翻訳規則テーブルの軽量化・高精度化である.本研究で提案した手法では,SCFGの翻訳モデルを学習するために,階層的フレーズベース翻訳という枠組の翻訳手法で翻訳規則を獲得している.これは,翻訳において重要な,単語並び替え問題を高精度に対処できる点で優れているが,統語情報を用いず,総当り的な手段で非終端記号を含んだ翻訳規則を学習するため,テーブルサイズが肥大化する傾向がある.その上,テーブル合成時には,中間表現の一致する組み合わせによってテーブルサイズはさらに増加する.これは,曖昧性により多くの誤ったフレーズ対応も保存されることを意味するため,不要な規則は除去してサイズを削減するべきである.このような,中間表現が一致する組み合わせの中には,文法上の役割は異なるが表記上同じようなものも含まれるため,意味の対応しない組み合わせに対して高い翻訳確率が推定されてしまう場合もある.こういった問題は,中間言語の表現に統語情報を組み込むことで,品詞や句構造が異なればフレーズの対応も結び付かないという制約が働き,誤った句対応を容易に除外できるため,テーブルサイズは減少し,曖昧性が解消されて翻訳精度の向上が期待できる.2つ目は,中間表現に原言語の統語情報を保存するピボット翻訳手法の提案である.ピボット翻訳においては,中間言語の表現力が悪影響を及ぼして,原言語の情報が失われてしまうことを述べてきたが,これは機械翻訳に限らず,人手による翻訳でも度々起こる問題である.例えば,英語には人称接尾辞のような活用体系がないため,英語に訳した際に性・数・格などの統語的情報が失われ,結果的に英語を元にした翻訳では原意と大きく異なってしまう現象などがある.本枠組では,前述の中間言語側の統語情報と組み合わせることで,より原意を汲んだ翻訳の実現を目指す.\acknowledgment本研究の一部はJSPS科研費16H05873,24240032およびATR-Trek社共同研究の助成を受けて実施されました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brants,Popat,Xu,Och,\BBA\Dean}{Brantset~al.}{2007}]{brants07}Brants,T.,Popat,A.~C.,Xu,P.,Och,F.~J.,\BBA\Dean,J.\BBOP2007\BBCP.\newblock\BBOQLargeLanguageModelsinMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsEMNLP},\mbox{\BPGS\858--867}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown93}Brown,P.~F.,Pietra,V.~J.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19},\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Chappelier\BBA\Rajman}{Chappelier\BBA\Rajman}{1998}]{chappelier98}Chappelier,J.-C.\BBACOMMA\\BBA\Rajman,M.\BBOP1998\BBCP.\newblock\BBOQAGeneralizedCYKAlgorithmforParsingStochasticCFG.\BBCQ\\newblockIn{\BemProceedingsTAPD,\textup{Vol.98,No.5}},\mbox{\BPGS\133--137}.\bibitem[\protect\BCAY{Chiang}{Chiang}{2007}]{chiang07}Chiang,D.\BBOP2007\BBCP.\newblock\BBOQHierarchicalPhrase-basedTranslation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(2),\mbox{\BPGS\201--228}.\bibitem[\protect\BCAY{Cohn\BBA\Lapata}{Cohn\BBA\Lapata}{2007}]{cohn07}Cohn,T.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQMachineTranslationbyTriangulation:MakingEffectiveUseofMulti-ParallelCorpora.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\728--735}.\bibitem[\protect\BCAY{Dabre,Cromieres,Kurohashi,\BBA\Bhattacharyya}{Dabreet~al.}{2015}]{dabre15}Dabre,R.,Cromieres,F.,Kurohashi,S.,\BBA\Bhattacharyya,P.\BBOP2015\BBCP.\newblock\BBOQLeveragingSmallMultilingualCorporaforSMTUsingManyPivotLanguages.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\1192--1202}.\bibitem[\protect\BCAY{de~Gispert\BBA\Mari{\~{n}}o}{de~Gispert\BBA\Mari{\~{n}}o}{2006}]{gispert06}de~Gispert,A.\BBACOMMA\\BBA\Mari{\~{n}}o,J.~B.\BBOP2006\BBCP.\newblock\BBOQCatalan-EnglishStatisticalMachineTranslationwithoutParallelCorpus:BridgingthroughSpanish.\BBCQ\\newblockIn{\BemProceedingsofLREC5thWorkshoponStrategiesforDevelopingMachineTranslationforMinorityLanguages},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{Dyer,Cordova,Mont,\BBA\Lin}{Dyeret~al.}{2008}]{dyer08}Dyer,C.,Cordova,A.,Mont,A.,\BBA\Lin,J.\BBOP2008\BBCP.\newblock\BBOQFast,Easy,andCheap:ConstructionofStatisticalMachineTranslationModelswithMapReduce.\BBCQ\\newblockIn{\BemProceedingsWMT},\mbox{\BPGS\199--207}.\bibitem[\protect\BCAY{Goto,Utiyama,Sumita,Tamura,\BBA\Kurohashi}{Gotoet~al.}{2013}]{goto13acl}Goto,I.,Utiyama,M.,Sumita,E.,Tamura,A.,\BBA\Kurohashi,S.\BBOP2013\BBCP.\newblock\BBOQDistortionModelConsideringRichContextforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\155--165}.\bibitem[\protect\BCAY{Heafield}{Heafield}{2011}]{heafield11}Heafield,K.\BBOP2011\BBCP.\newblock\BBOQKenLM:FasterandSmallerLanguageModelQueries.\BBCQ\\newblockIn{\BemProceedings,WMT},\mbox{\BPGS\187--197}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn04bootstrap}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsEMNLP},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2005}]{koehn05europarl}Koehn,P.\BBOP2005\BBCP.\newblock\BBOQEuroparl:AParallelCorpusforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemMTSummit},\lowercase{\BVOL}~5,\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn07moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn03}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Levinboim\BBA\Chiang}{Levinboim\BBA\Chiang}{2015}]{levinboim15}Levinboim,T.\BBACOMMA\\BBA\Chiang,D.\BBOP2015\BBCP.\newblock\BBOQSupervisedPhraseTableTriangulationwithNeuralWordEmbeddingsforLow-ResourceLanguages.\BBCQ\\newblockIn{\BemProceedingsEMNLP},\mbox{\BPGS\1079--1083}.\bibitem[\protect\BCAY{三浦\JBANeubig\JBASakti\JBA戸田\JBA中村}{三浦\Jetal}{2014}]{miura14nl12}三浦明波\JBANeubig{Graham}\JBASakti{Sakriani}\JBA戸田智基\JBA中村哲\BBOP2014\BBCP.\newblock階層的フレーズベース翻訳におけるピボット翻訳手法の応用.\\newblock\Jem{情報処理学会第219回自然言語処理研究会(SIG-NL),20号},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{三浦\JBANeubig\JBASakti\JBA戸田\JBA中村}{三浦\Jetal}{2015}]{miura15nl07}三浦明波\JBANeubig{Graham}\JBASakti{Sakriani}\JBA戸田智基\JBA中村哲\BBOP2015\BBCP.\newblock中間言語モデルを用いたピボット翻訳の精度向上.\\newblock\Jem{情報処理学会第222回自然言語処理研究会(SIG-NL),2号},\mbox{\BPGS\1--5}.\bibitem[\protect\BCAY{Miura,Neubig,Sakti,Toda,\BBA\Nakamura}{Miuraet~al.}{2015}]{miura15acl}Miura,A.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQImprovingPivotTranslationbyRememberingthePivot.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\573--577}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig13travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsACLDemoTrack},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Neubig,Arthur,\BBA\Duh}{Neubiget~al.}{2015}]{neubig15naacl}Neubig,G.,Arthur,P.,\BBA\Duh,K.\BBOP2015\BBCP.\newblock\BBOQMulti-TargetMachineTranslationwithMulti-SynchronousContext-freeGrammars.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\484--491}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{neubig11-kytea}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Nirenburg}{Nirenburg}{1989}]{nirenburg89}Nirenburg,S.\BBOP1989\BBCP.\newblock\BBOQKnowledge-BasedMachineTranslation.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf4}(1),\mbox{\BPGS\5--24}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och03mert}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Shannon}{Shannon}{1948}]{shannon48}Shannon,C.~E.\BBOP1948\BBCP.\newblock\BBOQAMathematicalTheoryofCommunication.\BBCQ\\newblock{\BemBellSystemTechnicalJournal},{\Bbf27}(3),\mbox{\BPGS\379--423}.\bibitem[\protect\BCAY{Toutanova,Klein,Manning,\BBA\Singer}{Toutanovaet~al.}{2003}]{toutanova03}Toutanova,K.,Klein,D.,Manning,C.~D.,\BBA\Singer,Y.\BBOP2003\BBCP.\newblock\BBOQFeature-richPart-of-speechTaggingwithaCyclicDependencyNetwork.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\173--180}.\bibitem[\protect\BCAY{Toutanova\BBA\Manning}{Toutanova\BBA\Manning}{2000}]{toutanova00}Toutanova,K.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2000\BBCP.\newblock\BBOQEnrichingtheKnowledgeSourcesUsedinaMaximumEntropyPart-of-SpeechTagger.\BBCQ\\newblockIn{\BemProceedingsEMNLP},\mbox{\BPGS\63--70}.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2007}]{utiyama07}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQAComparisonofPivotMethodsforPhrase-BasedStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\484--491}.\bibitem[\protect\BCAY{Zhu,He,Wu,Zhu,Wang,\BBA\Zhao}{Zhuet~al.}{2014}]{zhu14}Zhu,X.,He,Z.,Wu,H.,Zhu,C.,Wang,H.,\BBA\Zhao,T.\BBOP2014\BBCP.\newblock\BBOQImprovingPivot-BasedStatisticalMachineTranslationbyPivotingtheCo-occurrenceCountofPhrasePairs.\BBCQ\\newblockIn{\BemProceedingsEMNLP},\mbox{\BPGS\1665--1675}.\bibitem[\protect\BCAY{Ziemski,Junczys-Dowmunt,\BBA\Pouliquen}{Ziemskiet~al.}{2016}]{ziemski16un}Ziemski,M.,Junczys-Dowmunt,M.,\BBA\Pouliquen,B.\BBOP2016\BBCP.\newblock\BBOQTheUnitedNationsParallelCorpusv1.0.\BBCQ\\newblockIn{\BemProceedingsLREC},\mbox{\BPGS\3530--3534}.\end{thebibliography}\clearpage\begin{biography}\addtolength{\baselineskip}{-1pt}\bioauthor{三浦明波}{2013年イスラエル国テクニオン・イスラエル工科大学コンピュータ・サイエンス専攻卒業.2016年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学院博士後期課程在学.機械翻訳,自然言語処理に関する研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.2012〜2016年奈良先端科学技術大学院大学助教.現在,カーネギーメロン大学言語技術研究所助教,奈良先端科学技術大学院大学客員准教授.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{SakrianiSakti}{1999年インドネシア・バンドン工科大学情報卒業.2002年ドイツ・ウルム大学修士,2008年博士課程修了.2003〜2011年ATR音声言語コミュニケーション研究所研究員,情報通信研究機構主任研究員.現在,奈良先端科学技術大学院大学情報科学研究科助教.2015〜2016年フランスINRIA滞在研究員.統計的パターン認識,音声認識,音声翻訳,認知コミュニケーション,グラフィカルモデルの研究に従事.JNS,SFN,ASJ,ISCA,IEICE,IEEE各会員.}\bioauthor{戸田智基}{1999年名古屋大学工学部電気電子・情報工学科卒業.2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.同年日本学術振興会特別研究員-PD.2005年奈良先端科学技術大学院大学情報科学研究科助手.2007年同助教.2011年同准教授.2015年より名古屋大学情報基盤センター教授.工学博士.音声情報処理の研究に従事.IEEE,電子情報通信学会,情報処理学会,日本音響学会各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学工学博士.シャープ株式会社.奈良先端科学技術大学院大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.ISCA理事,IEEESLTC委員,IEEEフェロー.}\end{biography}\biodate\end{document}
| |
V12N05-04
|
\section{はじめに}
\label{sec:intro}機械翻訳システムなどで利用される対訳辞書に登録すべき表現を対訳コーパスから自動的に獲得する方法の処理対象は,固有表現と非固有表現に分けて考えることができる.固有表現と非固有表現を比べた場合,固有表現は,既存の辞書に登録されていないものが比較的多く,辞書未登録表現が機械翻訳システムなどの品質低下の大きな原因の一つになっていることなどを考慮すると,優先的に獲得すべき対象である.このようなことから,我々は,英日機械翻訳システムの対訳辞書に登録すべき英語固有表現とそれに対応する日本語表現との対を対訳コーパスから獲得する方法の研究を行なっている.固有表現とその対訳を獲得することを目的とした研究は,単一言語内での固有表現の認識を目的とした研究に比べるとあまり多くないが,文献\cite{Al-Onaizan02,Huang02,Huang03,Moore03}などに見られる.これらの従来研究では,抽出対象の英語固有表現は前置修飾句のみを伴う{\BPNP}に限定されており,前置詞句を伴う名詞句や等位構造を持つ名詞句についての議論は行なわれていない.しかし,実際には,``theU.N.InternationalConferenceonPopulationandDevelopment''のように前置詞句による後置修飾と等位構造の両方または一方を持つ固有表現も少なくない.そこで本稿では,前置詞句と等位構造の両方または一方を持つ英語の固有名詞句を抽出することを目指す.このような英語の固有名詞句には様々な複雑さを持つものがあるが,できるだけ長い固有名詞句を登録することにする.このような方針をとると副作用が生じる恐れもあるが,翻訳品質が向上することが多いというこれまでのシステム開発の経験に基づいて,最も長い名詞句を抽出対象とする.以下では,このような英語の固有名詞句を単に{\CPNP}と呼ぶ.{\CPNP}を処理対象にすると,前置修飾のみを伴う{\BPNP}を処理対象としていたときには生じなかった課題として,前置詞句の係り先や等位構造の範囲が誤っている英語固有表現を抽出しないようにすることが必要になる.例えば次の英文(E\ref{SENT:pp_ok0})に現れる``JapaneseEmbassyinMoscow''という表現は意味的に適格で一つの{\CPNP}であるが,英文(E\ref{SENT:pp_ng0})に現れる``theUnitedStatesintoWorldWarII''は意味的に不適格で一つの{\CPNP}ではない.\begin{SENT}\sentETheministryquicklyinstructedtheJapaneseEmbassyinMoscowto$\ldots$.\label{SENT:pp_ok0}\end{SENT}\begin{SENT}\sentETheattackonPearlHarborwasthetriggerthatdrewtheUnitedStatesintoWorldWarII.\label{SENT:pp_ng0}\end{SENT}従って,英文から抽出される表現の意味的適格性を判断し,適格な表現についてはその対訳と共に出力し,不適格な表現については何も出力しないようにする必要がある.本稿ではこのような課題に対する一つの解決策を示す.なお,本稿での意味的に不適格な表現とは,前置詞句の係り先や等位構造の範囲が誤っている表現を指す.{\CPNP}は句レベルの表現であるため,提案方法は一般の句アライメント手法\cite{Meyers96,Watanabe00,Menezes01,Imamura02,Aramaki03}の一種であると捉えることもできる.しかし,一般の句アライメント手法では構文解析により生成した構文木(二次元構造)の照合によって句レベルの表現とその対訳を獲得するのに対して,提案方法では文献\cite{Kitamura97}などの方法と同様に構文解析を行なわずに単語列(一次元構造)の照合によって{\CPNP}とその対訳を獲得する点で両者は異なる.すなわち,本稿の目的は,これまであまり扱われてこなかった,複雑な構造を持つ{\CPNP}とその対訳をコーパスから抽出するという課題において,構文解析系に代わる手段を導入することによってどの程度の性能が得られるかを検証することにある.
\section{{\CPNP}と{\JNP}の対応付け}
\label{sec:outline}一般に英語での名詞句が日本語での名詞句に対応するとは限らないが,本稿で対象とするような{\CPNP}は日本語の名詞句に対応することが多いと考えられる.このため,名詞句同士が対応するものと仮定する.本稿で提案する方法による{\CPNP}と{\JNP}の対応付け処理の概要は次の通りである.\begin{enumerate}\item\label{enum:eng}対訳コーパスの英文部分から{\CPNP}を抽出する.{\CPNP}の抽出方法の詳細については\ref{sec:eng_np}\,節で述べる.\item\label{enum:mt}抽出された{\CPNP}を機械翻訳システムで翻訳し,その結果に対して形態素解析を行なう.翻訳には,シャープ(株)の英日翻訳支援ソフトウェア「翻訳これ一本」の開発段階のバージョンを用いた.このバージョンによる翻訳品質は市販バージョンによるものとほぼ同等である.また,形態素解析には「茶筌」\footnote{http://chasen.aist-nara.ac.jp/chasen/}を利用した.\item\label{enum:jpn}対訳コーパスの和文部分を形態素解析し,解析結果に基づいて{\JNP}を抽出する.{\JNP}の抽出方法の詳細については\ref{sec:jpn_np}\,節で述べる.\item\label{enum:align}処理(\ref{enum:eng})と(\ref{enum:mt})によって得られる{\CPNP}の機械翻訳結果(以下では{\MTNP}と呼ぶ)と処理(\ref{enum:jpn})で得られる{\JNP}を照合して,{\CPNP}に対応する{\JNP}を決定する.照合では,意味的類似性と音韻的類似性の二つの観点から{\MTNP}と{\JNP}の対を評価し,さらに二種類の類似度を統合して全体としての類似度を求める.照合方法の詳細については\ref{sec:alignment:align}\,節で述べる.\end{enumerate}\ref{sec:intro}\,節で述べたように,前置詞句や等位構造を持つ名詞句を処理対象にすると意味的に不適格な表現の抽出を抑制することが必要になる.意味的不適格表現の抽出抑制は,{\CPNP}を抽出する処理(\ref{enum:eng})の段階か{\MTNP}と{\JNP}を照合する処理(\ref{enum:align})の段階で行なえると考えられるが,本稿では照合処理(\ref{enum:align})で行なう.{\CPNP}と{\JNP}の対応付け処理を実現するために,読売新聞とTheDailyYomiuriの対訳コーパス\cite{Uchiyama03}の1989年から1996年7月中旬までの記事のうち内山らの文対応スコアの上位三万文対を資料として用いた.以下では,この資料を訓練データと呼ぶ.
\section{{\CPNP}の抽出}
\label{sec:eng_np}\ref{sec:outline}\,節で述べたように,{\CPNP}が意味的に適格か否かの判定は{\MTNP}と{\JNP}の照合処理に委ねる.従って,{\CPNP}の抽出処理では構文的に不適格な{\CPNP}を抽出しないようにすることに重点を置く.このような方針に基づき,構文解析を行なわずに英文から{\CPNP}を抽出するための条件を定めた\footnote{これらの条件に基づく処理では構文的または意味的に不適格な名詞句が抽出されうるため,{\CPNP}は厳密には{\CPNP}候補と呼ぶべきであるが,便宜上{\CPNP}と呼ぶことにする.}.主な条件は次の通りである.\begin{COND}\cond\label{cond:np}{\CPNP}$ComplexNP$は前修飾句のみを伴う{\BPNP}$BaseNP$を前置詞$P$か等位接続詞$C$でつないだ単語列であり,$P$か$C$を一つ以上含む.記号`$+$'は一回以上の繰り返しを意味する.\begin{eqnarray*}ComplexNP&=&BaseNP\((P|C)\BaseNP)^+\end{eqnarray*}\cond\label{cond:bnp}{\BPNP}$BaseNP$は大文字始まり語か数字から成る単語列である.$BaseNP$の先頭は小文字始まりの定/不定冠詞であってもよい.\cond\label{cond:comma}等位接続詞$C$はandかコンマのいずれかである.{\CPNP}$ComplexNP$にコンマが含まれている場合,コンマより後方にandが存在しなければならない.\cond\label{cond:poss}{\CPNP}$ComplexNP$の末尾の語は属格名詞ではない.\cond\label{cond:adv}{\CPNP}$ComplexNP$が文頭に現れている場合,$ComplexNP$の先頭の語の品詞は前置詞,接続詞,副詞のいずれでもない.\cond\label{cond:length}{\CPNP}$ComplexNP$は条件\ref{cond:np}\,ないし\ref{cond:adv}\,を満たす単語列のうち最も長いものである.\end{COND}条件\ref{cond:bnp}\,では大文字始まり語の品詞は問わない.従って,本稿の{\CPNP}抽出処理では構文解析だけでなく形態解析も不要である.条件\ref{cond:comma}\,は,{\CPNP}が{\BPNP}を等位接続詞でつないだものであり,コンマが等位接続詞として働いている場合,{\CPNP}中の最後の等位接続詞はandであることが多いという経験則に基づく.条件\ref{cond:comma}\,により,例えば次の英文(E\ref{SENT:comma})から``MoscowinApril,TheYomiuriShimbun''が{\CPNP}として抽出されるのを防ぐことができる.\begin{SENT}\sentETheRussiangovernmenthasdecidedtosign$\ldots$inMoscowinApril,TheYomiuriShimbunlearnedonWednesday.\label{SENT:comma}\end{SENT}条件\ref{cond:poss}\,を設けた理由は,{\CPNP}の末尾の語が属格名詞である場合,属格名詞が修飾する主辞を{\CPNP}の構成要素として正しく抽出できないことが多いためである\footnote{``theHouseofRepresentatives'counterpart''のような群属格の場合は,条件\ref{cond:poss}\,を満たす必要はない.}.条件\ref{cond:poss}\,により,例えば``IBMandtheU.S.'sbigthreeautomanufacturers''における``IBMandtheU.S.'s''の部分が抽出されるのを防ぐことができる.ただし,{\CPNP}の末尾の語が属格名詞でない場合にはこのような誤りを防ぐことはできず,例えば``theSelf-DefenseForcesandU.S.forces''から``theSelf-DefenseForcesandU.S.''の部分が誤って抽出されてしまう.条件\ref{cond:adv}\,は,例えば次の英文(E\ref{SENT:adv})から``HopefullyJapanandtheEC''ではなく``JapanandtheEC''を抽出するために設定したものである.\begin{SENT}\sentEHopefullyJapanandtheECwillstrengthentheirrelationshipevenfurther.\label{SENT:adv}\end{SENT}この判定は当該語と前置詞,接続詞,副詞の一覧表との照合によって行なう.なお,副詞の一覧表に登録されている語のうちEast,West,North,Southなど15語は,例えば``WestGermany,BritainandItaly''のように,これらが名詞または形容詞として機能している{\CPNP}が訓練データにおいて比較的多く見られたので,副詞の一覧表から削除した.条件\ref{cond:length}\,は,\ref{sec:intro}\,節で述べたように,英日機械翻訳システムの対訳辞書にできるだけ長い英語固有表現を登録すると翻訳品質が向上することが多いという経験に基づいて設定したものである.しかし,抽出対象を最長の単語列に限定することは,対応付け漏れが生じる原因の一つとなる.この点に関しては\ref{sec:experiment:error}\,節で検証する.
\section{{\JNP}の抽出}
\label{sec:jpn_np}{\JNP}抽出処理では,用言による連体修飾を含まない名詞句を{\CPNP}に対応する対訳候補として抽出する.これは,訓練データにおいて{\CPNP}に対応する{\JNP}が用言による連体修飾を含んでいる割合が1.4\%と非常に少なかったためである.構文解析を行なわずに和文から{\JNP}$JNP$を抽出するための主な条件は次の通りである.\begin{COND}\cond\label{cond:jnp}{\JNP}$JNP$は{\N}$JN$であるかまたは$JN$を付属語$F$でつないだ単語列である.記号`*'は零回以上の繰り返しを意味する.\begin{eqnarray*}JNP&=&(JN\F)^*\JN\end{eqnarray*}\cond\label{cond:jn}{\N}$JN$は次の条件を満たす単語列のうち最も長いものである.\begin{enumerate}\item$JN$の構成要素は名詞-一般,名詞-副詞可能,名詞-サ変接続,名詞-形容動詞語幹,名詞-ナイ形容詞語幹,名詞-固有名詞,名詞-代名詞,名詞-数,名詞-接尾,名詞-非自立(「の」を除く),名詞-接続詞的,未知語,接頭詞-名詞接続,接頭詞-数接続,記号-アルファベットのいずれかの「茶筌」品詞を持つ語である.\item$JN$の先頭は名詞-接尾,名詞-非自立以外の構成要素である.\item$JN$の末尾は名詞-接続詞的,接頭詞-名詞接続,接頭詞-数接続以外の構成要素である.\item名詞に「する」か「できる」が後接している場合と,名詞-形容動詞語幹に助動詞-特殊・ダが後接している場合,当該名詞は$JN$の構成要素ではない.\end{enumerate}\cond\label{cond:joshi}$JN$をつなぐ付属語$F$は次のいずれかである.\begin{enumerate}\item助詞-並立助詞(「と」や「や」など).\item助詞または名詞-非自立-副詞可能の連続であり末尾が助詞-連体化「の」であるもの(「との間の」や「のための」など).\item助詞-格助詞-連語のうち末尾がウ段の平仮名か「た」であるもの(「という」,「に関する」,「に対する」,「といった」など).\item記号-読点.\item記号-一般のうち「・」と「=」.\item接続詞.記号-読点が接続詞に前接または後接していてもよい.\item条件\ref{cond:jn_exception}\,により挿入される特殊記号.\end{enumerate}\cond\label{cond:jn_exception}条件\ref{cond:jn}\,を満たす単語列にあらかじめ指定した語が含まれている場合,付属語$F$として機能する特殊記号が当該語の直前に挿入される.\cond\label{cond:jlength}$JNP$は条件\ref{cond:jnp}\,ないし\ref{cond:jn_exception}\,を満たすあらゆる長さの単語列である.\end{COND}条件\ref{cond:jlength}\,により,{\CPNP}の場合と異なり,条件を満たす最長の単語列だけではなく,その部分単語列も抽出される.例えば次の和文(J\ref{SENT:bank})からは最長の単語列「厚生年金保険法と国民年金法の改正案」の他に,「厚生年金保険法と国民年金法」,「国民年金法の改正案」,「厚生年金保険法」,「国民年金法」,「改正案」が{\JNP}として抽出される.\begin{SENT2}\sentEThebillstorevisetheWelfarePensionInsuranceLawandtheNationalPensionLawareexpectedtobesubmittedto$\ldots$.\sentJ$\ldots$厚生年金保険法と国民年金法の改正案を提出する.\label{SENT:bank}\end{SENT2}条件\ref{cond:jn}\,によれば{\N}は最長のものだけが抽出されるが,条件\ref{cond:jn_exception}\,は条件\ref{cond:jn}\,に対する例外条件であり,{\N}を分割して得られる部分単語列を{\JNP}として抽出するためのものである.分割箇所は,訓練データを観察した結果に基づいて,一部の名詞-サ変接続や名詞-接尾(「間」,「内」,「向け」など)のところとする.例えば次の和文(J\ref{SENT:create})の場合,条件\ref{cond:jn_exception}\,によりサ変名詞「創設」の直前に特殊記号が挿入される.\begin{SENT2}\sentEIsrael,Jordan,theUnitedStatesandtheEuropeanUnionarekeenoncreatingaMiddleEastandNorthAfricaDevelopmentBank,$\ldots$.\sentJ$\ldots$中東・北アフリカ開発銀行創設には,イスラエルやヨルダン,米国,欧州連合が積極的だ.\label{SENT:create}\end{SENT2}このため,「中東・北アフリカ開発銀行創設」は「中東・北アフリカ開発銀行」と「創設」の間に付属語(例えば助詞「の」)が存在するかのように処理される.従って,「中東・北アフリカ開発銀行創設」の他に「中東・北アフリカ開発銀行」と「創設」が{\JNP}として抽出される\footnote{「・」を付属語として扱うので,実際には「北アフリカ開発銀行創設」,「中東」,「北アフリカ開発銀行」も抽出される.}.このように,条件\ref{cond:jn_exception}\,により日本語{\N}全体だけではなくその部分単語列も{\CPNP}に対応する候補として抽出することができる.英文(E\ref{SENT:create})から抽出される{\CPNP}の一つは``aMiddleEastandNorthAfricaDevelopmentBank''であるが,和文(J\ref{SENT:create})から抽出された{\JNP}の中にはこの{\CPNP}に対応する「中東・北アフリカ開発銀行」が含まれている.
\section{{\MTNP}と{\JNP}の照合}
\label{sec:alignment:align}照合処理では,(1)意味的類似性と音韻的類似性の二つの観点から{\MTNP}と{\JNP}の対を評価し,二種類の類似度を統合して全体としての類似度を求め,さらに,(2){\CPNP}の意味的適格性を判断し,適格な場合にのみ{\JNP}との対応付けを行なう.\subsection{意味的類似性の評価:文字単位での比較}\label{sec:alignment:align:sem}二つの日本語文字列を照合して両者の類似度を求める方法は,照合を単語単位で行なう方法\cite{Sumita91,TanakaH99}と文字単位で行なう方法\cite{Sato92}に分けられる.このうち後者の方法には,日本語の文字は一文字でもある程度の意味を表わす表意文字であるため,シソーラスなしでも類義語の照合が近似的に行なえるという利点がある\cite{Sato92}.この利点を考慮して,{\MTNP}と{\JNP}の照合を文字単位で行なう.なお,照合の対象は{\MTNP}と{\JNP}のそれぞれの{\N}の部分とし,付属語部分は対象外とする.{\MTNP}と{\JNP}の意味的類似性を表わす尺度としてジャッカード係数\cite{Romesburg92}を用いる\footnote{ジャッカード係数を対訳獲得に利用した研究としては文献\cite{Kaji01}などがある.}.ジャッカード係数は,この場合,{\MTNP}の{\N}部分と{\JNP}の{\N}部分の両方に現れる文字の数を,少なくとも一方に現れる文字の数で割った値であると定義できる.すなわち,{\MTNP}の{\N}部分に現れる文字の集合(文字の出現順序を考慮せず,文字の重複を許す)を$X$,{\JNP}の{\N}部分に現れる文字の集合を$Y$とし,さらに,$X$と$Y$の両方に現れる文字の集合$U$としたとき,{\MTNP}と{\JNP}の対に対する意味的類似度$S_{sem}$は次の式(\ref{eq:jaccard})で求められる.\begin{equation}S_{sem}=\frac{|U|}{|X|+|Y|-|U|}\label{eq:jaccard}\end{equation}ある英文から抽出される``TheHeadquartersoftheStruggleagainstConsumptionTaxRaise''という{\CPNP}を実験に用いた機械翻訳システムで翻訳すると「消費税上昇に対する奮闘の本部」というMT訳が得られる.このMT訳において{\N}部分は「消費税上昇」,「奮闘」,「本部」であり,文字数は9文字である.他方,この英文に対応する和文から抽出される「消費税率引き上げ反対運動推進本部」という{\JNP}は{\N}のみから構成されており,文字数は16文字である.このとき,{\MTNP}の{\N}を構成する文字の集合と{\JNP}の{\N}を構成する文字の集合の両方に現れる文字は「消」,「費」,「税」,「上」,「本」,「部」の6文字である.従って,{\MTNP}「消費税上昇に対する奮闘の本部」と{\JNP}「消費税率引き上げ反対運動推進本部」の意味的類似度として,$S_{sem}=6/(9+16-6)=0.316$という値が与えられる.この値を,{\CPNP}``TheHeadquartersoftheStruggleagainstConsumptionTaxRaise''と{\JNP}「消費税率引き上げ反対運動推進本部」との間の意味的類似度と解釈する.\subsection{意味的類似性の評価:文字種を考慮した比較}\label{sec:alignment:align:sem_chartype}\ref{sec:alignment:align:sem}\,節で述べた文字単位の照合では,すべての文字種(漢字,平仮名,片仮名,英字,数字,記号など)を同等に扱っている.このような文字種の違いを考慮しない処理では,漢字以外の文字同士が不適切に適合してしまうことがある.例えば,ある英文から抽出される{\CPNP}``KasumigasekiStationoftheTeitoRapidTransitAuthority''のMT訳は「帝都高速度交通営団のKasumigasekiステーション」となり,この英文に対応する和文からは「営団地下鉄・霞ヶ関駅」や「アタッシェケース」などの{\JNP}が抽出される.この場合,「帝都高速度交通営団のKasumigasekiステーション」と「営団地下鉄・霞ヶ関駅」の間の意味的類似度のほうが「帝都高速度交通営団のKasumigasekiステーション」と「アタッシェケース」の間の意味的類似度よりも高くなることが望ましい.しかし,実際には次のように後者の意味的類似度のほうが逆に高くなってしまう.正しい対応付けである「帝都高速度交通営団のKasumigasekiステーション」と「営団地下鉄・霞ヶ関駅」の{\N}の間に共通する文字は「営」と「団」であるので,式(\ref{eq:jaccard})によってこれらの間の意味的類似度$S_{sem}$は$2/(27+9-2)=0.059$となる.他方,「帝都高速度交通営団のKasumigasekiステーション」と「アタッシェケース」の{\N}の間に共通する文字は「シ」,「ー」,「ス」であるので,意味的類似度$S_{sem}$は$3/(27+8-3)=0.094$となる\footnote{類似度が比較的低いので閾値による制限でこの対応付けを出力しないようにすることもできるが,正しくない対応付けに正しい対応付けよりも高い類似度が与えられることは望ましくない.}.このような事例を観察すると,漢字は一文字でも意味を持つことが多いが,それ以外の字種の文字はそうではないことから,漢字と非漢字を同等に扱うのは適切ではないことが分かる.このような問題への対策として,文字種により重み付けを行なう方法がこれまでに示されている\cite{Baldwin01}.これに対して本稿では,照合の際,文字種により照合単位を変化させる\footnote{テキスト全文検索の高速化を目的として,文字種により文字列の長さを変化させる方法が文献\cite{Fukushima97,Matsui97}に示されている.}.具体的には,漢字の照合は文字単位とし,非漢字の照合は同一文字種の最長文字列単位(ただし単語境界は越えない)とする.非漢字の場合は同一文字種の最長文字列単位で一致しなければならないという条件を設けるが,類似度の計算ではジャッカード係数の求め方は漢字の場合も非漢字の場合も同じとする.すなわち,{\MTNP}の{\N}部分に現れる文字の集合を$X$,{\JNP}の{\N}部分に現れる文字の集合を$Y$とし,さらに,$X$と$Y$から同一文字種の最長文字列単位で互いに一致しない非漢字を削除した文字の集合をそれぞれ$X^\prime$,$Y^\prime$とし,$X^\prime$の$Y^\prime$の両方に現れる文字の集合$U^\prime$としたとき,{\MTNP}と{\JNP}の対に対する文字種を考慮した意味的類似度$S_{sem}^\prime$を次の式(\ref{eq:jaccard_chartype})で求める.\begin{equation}S_{sem}^\prime=\frac{|U^\prime|}{|X|+|Y|-|U^\prime|}\label{eq:jaccard_chartype}\end{equation}例えば``theAsianGamesinHiroshima''という{\MTNP}「広島のアジア競技大会」と{\JNP}「広島アジア大会」において片仮名表現「アジア」は最長文字列単位で一致する.従って,$X$と$Y$から「ア」,「ジ」,「ア」を削除する必要はないので,$X^\prime$と$Y^\prime$はそれぞれ$X$と$Y$と同じ集合となり,式(\ref{eq:jaccard_chartype})による意味的類似度$S_{sem}^\prime$は$7/(9+7-7)=0.778$となる.これは,式(\ref{eq:jaccard})によって求めた場合の意味的類似度と変わらない.他方,上記の「帝都高速度交通営団のKasumigasekiステーション」と「アタッシェケース」の場合は,$X$から「Kasumigasekiステーション」を構成する文字が削除されるので,$X^\prime$の要素は「帝」,「都」,「高」,「速」,「度」,「交」,「通」,「営」,「団」となり,$Y$からは「アタッシェケース」を構成する文字が削除されるので,$Y^\prime$は空集合となる.このため,$X^\prime$と$Y^\prime$に共通する文字は存在しなくなり,式(\ref{eq:jaccard_chartype})による意味的類似度$S_{sem}^\prime$は$0$となる.このように文字種を考慮した処理を行なうことによって,漢字以外の文字が短すぎる単位で適合することを防ぐことができる.\subsection{音韻的類似性の評価}\label{sec:alignment:align:pho}意味的類似性は,{\CPNP}の構成要素が機械翻訳システムの辞書に登録されており,そのMT訳が得られる場合には有効であるが,辞書に登録されていない場合には有効に働かない.特に,本稿で対象にしている{\CPNP}の構成要素は辞書に登録されていないことも少なくないと予想される.このような場合,翻字(transliteration)が有効である\cite{Al-Onaizan02,Virga03,Yoshimi04}.読売新聞とTheDailyYomiuriのように日本に関する事柄について述べた記事とその対訳記事が多く含まれるコーパスを処理対象とする場合,日本に関する{\CPNP}には日本語をローマ字表記した語が多く含まれる可能性が高い.このことに着目して,音韻的類似性の評価としてローマ字読みの照合を行なう.{\MTNP}に現れる辞書未登録語の読みは五十音表との照合によって得る.{\MTNP}中の辞書未登録語以外の読みと{\JNP}の読みは「茶筌」によって得ることができる.{\MTNP}と{\JNP}の音韻的類似度も意味的類似度の場合と同じくジャッカード係数で測定する.ただし,音韻的類似度の場合は文字単位ではなく単語単位で照合を行なう.すなわち,{\MTNP}の{\N}部分の読みの集合を$X$,{\JNP}の{\N}部分の読みの集合を$Y$とし,さらに,$X$と$Y$の両方に現れる読みの集合を$U$として,音韻的類似度$S_{pho}$を式(\ref{eq:jaccard})と同様の式で求める.\ref{sec:alignment:align:sem_chartype}\,節で述べたように,{\CPNP}``KasumigasekiStationoftheTeitoRapidTransitAuthority''に対応付けたい{\JNP}は「営団地下鉄・霞ヶ関駅」である.しかし,実験に用いた機械翻訳システムの辞書に``Kasumigaseki''が登録されていないため,この{\JNP}と{\CPNP}のMT訳「帝都高速度交通営団のKasumigasekiステーション」との意味的類似度は$0.059$と低くなる.五十音表との照合及び「茶筌」によって{\MTNP}の読みとして,「テイト」,「コウソクド」,「コウツウ」,「エイダン」,「カスミガセキ」,「ステーション」が得られる.また,「茶筌」によって{\JNP}の読みとして,「エイダン」,「チカテツ」,「カスミガセキ」,「エキ」が得られる.従って,{\MTNP}の読みと{\JNP}の読みの両方に現れる読みは「エイダン」と「カスミガセキ」となり,「帝都高速度交通営団のKasumigasekiステーション」と「営団地下鉄・霞ヶ関駅」の間の音韻的類似度$S_{pho}$は$2/(6+4-2)=0.250$となる.\subsection{意味的類似性の評価と音韻的類似性の評価の統合}\label{sec:alignment:align:integ}提案方法では,{\MTNP}に辞書未登録語が含まれている場合,次の式(\ref{eq:weight})のような加重和計算式に基づいて,文字種を考慮した意味的類似度$S^\prime_{sem}$と音韻的類似度$S_{pho}$を組み合わせて{\MTNP}と{\JNP}の間の総合類似度$S$を求める.{\MTNP}に辞書未登録語が含まれていない場合には,文字種を考慮した意味的類似度$S^\prime_{sem}$を総合類似度$S$とする.\begin{equation}S=\left\{\begin{array}{lp{0.31\columnwidth}}(1-\alpha)\timesS^\prime_{sem}+\alpha\timesS_{pho}&{\MTNP}に辞書未登録語が含まれている場合.\\S^\prime_{sem}&含まれていない場合.\end{array}\right.\label{eq:weight}\end{equation}$\alpha$は意味的類似性に対して音韻的類似性を重視する度合いを表わすが,現在のところ両者を同等に扱うために0.5としている\footnote{予備実験で最良の結果が得られるように調整した値ではない.}.そして,総合類似度$S$が閾値$th$以上である{\CPNP}と{\JNP}の対を出力する.\subsection{意味的不適格表現の抽出抑制}\label{sec:alignment:align:pp}\ref{sec:eng_np}\,節で述べた処理によって抽出される{\CPNP}には本来{\CPNP}の構成要素を修飾しない前置詞句が含まれている可能性がある.このような前置詞句を含む{\CPNP}は,意味的に不適格であるため,どの{\JNP}とも対応付けられてはならない.\ref{sec:intro}\,節で述べたように,次の英文(E\ref{SENT:pp_ng})から抽出される``theUnitedStatesintoWorldWarII''は意味的に不適格である.\begin{SENT2}\sentETheattackonPearlHarborwasthetriggerthatdrewtheUnitedStatesintoWorldWarII.\sentJ真珠湾攻撃は,米国が第二次世界大戦に介入するきっかけを作った転換点でもあった.\label{SENT:pp_ng}\end{SENT2}しかし,\ref{sec:alignment:align:sem}\,ないし\ref{sec:alignment:align:integ}\,節の処理では,ある{\CPNP}に意味的に不適格な前置詞句が含まれているか否かを識別することは困難であり,このような例の場合に不適切な対応付けが行なわれてしまう.すなわち,``theUnitedStatesintoWorldWarII''のMT訳は「第二次世界大戦への米国」({\N}部分の文字数は9文字)となり,上記の和文(J\ref{SENT:pp_ng})から抽出される{\JNP}「第二次世界大戦」との間で「第二次世界大戦」の7文字が共有されるので,意味的類似度$S_{sem}$は$7/(9+7-7)=0.778$という比較的高い値となり,不適切な対応付けが得られてしまう.そこで,この点に対処するために新たな処理を導入する.ある{\CPNP}が意味的に不適格であり本来一つの名詞句を構成しないならば,この{\CPNP}に対応する日本語表現は,一つの{\JNP}という表現形式ではなく,他の表現形式になりやすいと考えられる\footnote{この作業仮説は,文献\cite{Utsuro92,Kinoshita93}などに示されている考えに近い.}.この作業仮説によれば,{\CPNP}が意味的に適格であるか否かは,{\MTNP}に対応する一つの{\JNP}が存在するか否かによって判定することができる.この判定は訓練データを観察した結果に基づいて設定した次の条件\ref{cond:pp}\,に基づいて行ない,{\MTNP}と{\JNP}が条件\ref{cond:pp}\,が満たされる場合に限り{\MTNP}に対応する一つの{\JNP}が存在するとみなすことにする.\begin{COND}\cond\label{cond:pp}{\MTNP}を構成するある{\N}$MTN_i(i=1,2,\ldots,n)$と{\JNP}の間の総合類似度$S_i$が閾値$th$以上である場合,$MTN_i$は{\CPNP}と{\JNP}の対応に関与すると呼ぶ.{\MTNP}を構成する$n$個の全{\N}のうち$m$個の{\N}が{\CPNP}と{\JNP}の対応に関与しているとき,関与率$m/n$が閾値$th_{part}$を超えなければならない.\end{COND}条件\ref{cond:pp}\,による判定では,{\MTNP}全体と{\JNP}との総合類似度を求める処理(\ref{sec:alignment:align:sem}\,ないし\ref{sec:alignment:align:integ}\,節の処理)を{\MTNP}の構成要素と{\JNP}との間に適用している.閾値$th_{part}$は,予備実験において閾値を1から0.1まで0.1刻みで変化させて処理を行ない最良の結果が得られたときの値0.5に設定している.意味的に不適格な{\CPNP}``theUnitedStatesintoWorldWarII''のMT訳「第二次世界大戦への米国」と{\JNP}「第二次世界大戦」に対して条件\ref{cond:pp}\,による判定を行なうと,「第二次世界大戦への米国」を構成する{\N}のうち「米国」は「第二次世界大戦への米国」と「第二次世界大戦」の対応付けに関与していないため関与率は$1/2$となり閾値$th_{part}$を超えないので,``theUnitedStatesintoWorldWarII''と「第二次世界大戦」の対応付けは棄却される.これに対して,次の英文(E\ref{SENT:pp_ok})において意味的に適格な{\CPNP}``theDiplomaticandConsularMissionsinKuwait''のMT訳「クウェートにおける外交上の,そして領事のミッション」を構成する四つの{\N}のうち「ミッション」以外の「クウェート」,「外交上」,「領事」の三つは{\MTNP}「クウェートにおける外交上の,そして領事のミッション」と{\JNP}「在クウェート外交領事使節団」の対応に関与している\footnote{{\JNP}「在クウェート外交領事使節団」と{\CPNP}``theDiplomaticandConsularMissionsinKuwait''のMT訳を構成する{\N}「クウェート」,「外交上」,「領事」との総合類似度はそれぞれ,0.385,0.143,0.154である.}ので,対応への関与率は3/4となり閾値$th_{part}$を超える.このため,``theDiplomaticandConsularMissionsinKuwait''は意味的に適格な{\CPNP}であると判定される.\begin{SENT2}\sentETheystronglyrequestIraqtoremovetheobstacleswhichpreventtheDiplomaticandConsularMissionsinKuwaitfromexecutingtheirfunctions,$\ldots$.\sentJ双方は,イラクに対し,在クウェート外交領事使節団が活動を遂行する上での障害を除去し,$\ldots$強く求める.\label{SENT:pp_ok}\end{SENT2}なお,この処理は,前置詞句の係り先が誤っている表現が抽出されるのを抑制するだけでなく,等位構造の範囲が誤っている表現の抽出の抑制や,{\CPNP}に正しく対応する{\JNP}が和文中に存在しない場合\footnote{{\CPNP}に対応する表現が和文では省略されている場合や英文と和文の対応付けが誤っている場合など.}の対応付け誤りの抑制にも有効である.
\section{評価実験}
\label{sec:experiment}\subsection{実験方法}\label{sec:experiment:method}評価実験には,読売新聞とTheDailyYomiuriの対訳コーパスのうち1996年7月中旬から2001年までの記事のうち文対応スコアの上位三万文対を用いた.この三万文対に対して対応付け処理を行ない,各{\CPNP}について,総合類似度$S$が閾値$th=0.1$以上であり,かつ条件\ref{cond:pp}\,を満たすものが存在する場合には,そのうち総合類似度が最も高い{\JNP}を出力し,存在しない場合には何も出力しないようにした.総合類似度の閾値は,予備実験において閾値を1から0.1まで0.1刻みで変化させて処理を行ない最良の結果が得られたときの値である.得られたデータから200文対を標本抽出し,この200文対から人手で正解データを作成し,提案方法による対応付け結果と比較した.正解,対応付け漏れ,対応付け誤りの件数をそれぞれ$C$,$M$,$N$とするとき,提案方法の性能を評価する指標として次の式で計算される再現率,適合率,F値を用いた.\begin{eqnarray*}再現率&=&\frac{C}{C+M}\\\\適合率&=&\frac{C}{C+N}\\\\\mbox{F}値&=&\frac{2\times再現率\times適合率}{適合率+再現率}\end{eqnarray*}\subsection{実験結果}\label{sec:experiment:result}提案方法は,文字種を考慮した文字単位の照合(\ref{sec:alignment:align:sem_chartype}\,節),ローマ字読みの照合(\ref{sec:alignment:align:pho}\,節),{\MTNP}を構成する各{\N}の関与を考慮した照合(\ref{sec:alignment:align:pp}\,節)の三つの処理によって対応付けを行なう.これに対して,文字種を考慮しない文字単位の照合だけで対応付けを行なう方法をベースラインする.提案方法とベースラインのそれぞれで対応付けを行なった場合の評価結果を表\ref{tab:result}\,に示す.表\ref{tab:result}\,によれば,提案方法のF値は0.678であり,ベースラインのF値0.583から0.095向上している.提案方法とベースラインの再現率,適合率を比べると,再現率はベースラインのほうが0.101高いが適合率は提案手法のほうが0.271高く,提案方法では再現率の低下を抑えつつ適合率の向上が実現できている.我々は,対応付け漏れを抑えることよりも対応付け誤りを抑えることを重視しているため,この結果により所期の目標が達成されていると考える.\begin{table}[htbp]\caption{提案方法とベースラインの評価結果}\label{tab:result}\begin{center}\begin{tabular}{|l||r|r|r|r|r|r|r|}\hline&\multicolumn{1}{c|}{正解}&\multicolumn{1}{c|}{誤り}&\multicolumn{1}{c|}{漏れ}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c|}{F値}\\\hline\hlineベースライン&113&116&46&0.493&0.711&0.583\\提案方法&97&30&62&0.764&0.610&0.678\\\hline\end{tabular}\end{center}\end{table}\ref{sec:alignment:align:pp}\,節で述べたように,関与率の閾値は予備実験の結果に基づいて0.5に設定した.表\ref{tab:result}\,は,この設定で評価実験を行なった場合の結果であるが,評価実験においても閾値を0.1刻みに変化させて性能の変化を観察した.その結果を表\ref{tab:threshold}\,に示す.表\ref{tab:threshold}\,によれば,予備実験の場合と異なり,閾値が0.6の場合に最もよいF値が得られており,閾値を0.5とした場合のF値は,閾値を0.7とした場合に次いで第三位である.\begin{table}[htbp]\caption{評価実験における性能と関与率の閾値との関係}\label{tab:threshold}\begin{center}\begin{tabular}{|r||r|r|r|}\hline\multicolumn{1}{|c||}{閾値}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c|}{F値}\\\hline\hline0.3&0.521&0.698&0.597\\0.4&0.752&0.610&0.674\\0.5&0.764&0.610&0.678\\0.6&0.821&0.604&0.696\\0.7&0.817&0.591&0.686\\\hline\end{tabular}\end{center}\end{table}\subsection{各処理の効果}\label{sec:experiment:each}提案した各処理が性能の向上にどの程度寄与しているかを調べた.その結果を表\ref{tab:cond-effect}\,に示す.表\ref{tab:cond-effect}\,において,処理欄の記号`$+$'はその処理を導入して対応付けを行なったことを意味し,記号`$-$'はその処理なしで行なったことを意味する.どの処理も導入していない(a)がベースラインの性能であり,すべての処理を導入した(h)が提案方法の性能である.\begin{table}[htbp]\caption{導入した処理ごとの性能の比較}\label{tab:cond-effect}\begin{center}\begin{tabular}{|c|c|c|c||r|r|r|r|r|r|}\hline&\multicolumn{3}{|c||}{処理}&&&&&&\\\cline{2-4}&文字種&読み&関与率&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{正解}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{誤り}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{漏れ}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{適合率}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{再現率}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{F値}}\\\hline\hline(a)&$-$&$-$&$-$&113&116&46&0.493&0.711&0.583\\(b)&$-$&$-$&$+$&97&35&62&0.735&0.610&0.667\\(c)&$-$&$+$&$-$&114&116&45&0.496&0.717&0.586\\(d)&$-$&$+$&$+$&98&32&61&0.754&0.616&0.678\\(e)&$+$&$-$&$-$&111&112&48&0.498&0.698&0.581\\(f)&$+$&$-$&$+$&96&32&63&0.750&0.604&0.669\\(g)&$+$&$+$&$-$&112&112&47&0.500&0.704&0.585\\(h)&$+$&$+$&$+$&97&30&62&0.764&0.610&0.678\\\hline\end{tabular}\end{center}\end{table}(a)と(b)を比べると,{\N}の関与を考慮した処理を導入することによって,対応付け漏れが16件増えているが,対応付け誤りが81件と大幅に減っていることが分かる.このことから,(1)英文から抽出された{\CPNP}が意味的に不適格である場合や,(2)英文から抽出された{\CPNP}が意味的に適格であるが正解が和文中に存在しない場合にこの{\CPNP}に何らかの{\JNP}が対応付けられる誤りを抑制することに関して{\N}の関与を考慮した処理が有効に働いているといえる.読みの類似度を考慮した処理が性能向上に寄与する度合いは,(a)と(c)を比べて分かるように,ベースラインで対応付け漏れであったものが正解になった1件だけであるので,非常に低いようにみえる.\ref{sec:alignment:align:integ}\,節で述べたように,この処理が機能するのは{\MTNP}に辞書未登録語が含まれている場合である.正解データ中の{\CPNP}のうちそのMT訳に辞書未登録語が含まれるものは20件存在した.この20件のうちベースラインで正解が得られなかったものは8件であった.このうち1件が読みの類似度を考慮した処理によって改善されたことになる.(a)と(e)を比べると,文字種を考慮した処理を導入することによって,対応付け誤りが4件減っている.この処理の目的は漢字以外の文字が短すぎる単位で適合することを防ぐことであるが,解消された4件の対応付け誤りで期待した効果が得られている.他方で,正解が2件減り対応付け漏れが2件増えているが,これは,ベースラインで正解であった2件が文字種を考慮した処理では対応付け漏れになったものであった.今回の実験では英字と数字を同一文字種とみなし英数字は最長文字列単位で一致しなければならないという設定にした.このため,``theGroupofSeven''という{\CPNP}のMT訳「7のグループ」と{\JNP}「G7」との対応付けが得られなくなっていた.複数の処理を同時に導入することによってF値がどのように変化したかを見る.読みの類似度を考慮した処理と{\N}の関与を考慮した処理を同時に導入した(d)のF値0.678は,前者の処理だけを導入した(c)のF値0.586よりも高く,かつ後者の処理だけを導入した(b)のF値0.667よりも高い.文字種を考慮した処理と{\N}の関与を考慮した処理を同時に導入した(f)のF値0.669も,これらの処理を個別に導入した(e)と(b)のF値0.581,0.667を上回る.文字種を考慮した処理と読みの類似度を考慮した処理を同時に導入した(g)のF値0.585は,読みの類似度を考慮した処理を同時に導入した場合(c)のF値0.586よりも若干低くなっているが,文字種を考慮した処理だけを導入した場合(e)のF値0.581よりも高い.三種類の処理をすべて導入した提案方法(h)のF値が最も高い.以上のことから,文字種を考慮した処理と読みの類似度を考慮した処理を同時に導入した場合に若干の副作用が見られるが,概ね,これらの処理は互いの効果を抑制していないといえる.\subsection{失敗原因の分析}\label{sec:experiment:error}提案手法で生じた62件の対応付け漏れと30件の対応付け誤りについて,{\CPNP}の抽出,{\JNP}の抽出,{\MTNP}と{\JNP}の照合のうちどの処理に原因があるのかを調査した.その結果を表\ref{tab:cause_of_failure}\,に示す.表\ref{tab:cause_of_failure}\,を見ると,対応付け漏れの場合も対応付け誤りの場合も,{\MTNP}と{\JNP}の照合の際に生じる失敗が他の処理で生じる失敗に比べて多いことが分かる.\begin{table}[htbp]\caption{失敗原因の分類}\label{tab:cause_of_failure}\begin{center}\begin{tabular}{|l||r|r|}\hline\multicolumn{1}{|c||}{失敗原因の処理}&\multicolumn{1}{c|}{漏れ}&\multicolumn{1}{c|}{誤り}\\\hline\hline{\CPNP}の抽出&14&6\\{\JNP}の抽出&14&10\\{\MTNP}と{\JNP}の照合&34&14\\\hline合計&62&30\\\hline\end{tabular}\end{center}\end{table}対応付け漏れのうち{\CPNP}の抽出に原因がある14件を細かく分類すると,条件\ref{cond:length}\,に関するものが最も多く9件であり,条件\ref{cond:comma}\,に関するものが3件であり,条件\ref{cond:poss}\,に関するものと条件\ref{cond:adv}\,に関するものがそれぞれ1件ずつであった.条件\ref{cond:length}\,により最長の単語列だけを抽出していることが原因で抽出できなかったもの9件のうち4件には抽出された最長の単語列に月名などの時間表現が含まれていた.例えば次の英文(E\ref{SENT:time})から条件\ref{cond:np}\,ないし\ref{cond:adv}\,を満たす単語列のうち最も長いものを抽出すると,``JulythroughAugust''を含む``JulythroughAugustinSendai,SapporoandKyoto''が抽出される.\begin{SENT2}\sentEMoreclassesarescheduledtobeheldfromJulythroughAugustinSendai,SapporoandKyoto.\sentJ7月から8月にかけては仙台,札幌,京都で開く予定だ.\label{SENT:time}\end{SENT2}``$P\BaseNP$''という前置詞句において,$P$がof以外の前置詞であり,かつ{\BPNP}$BaseNP$が月名などの時間表現であるとき,この前置詞句は副詞的に働きやすい.また,このような時間表現は,of以外の前置詞句による修飾を受けにくく,新たな固有名詞句を作り出す生産性は低い.これらの点から,``$BaseNP_1\P\BaseNP_2$''という表現において,$BaseNP_1$か$BaseNP_2$が時間表現であり,かつ$P$がof以外の前置詞であるとき,この表現が意味的に適格な一つの{\CPNP}を構成することは少ないと考えられる.従って,時間表現は抽出する単語列に含めないという抽出条件を設けることで,ある程度の改善が期待できる.対応付け漏れのうち{\JNP}の抽出に原因がある14件のうち11件は,条件\ref{cond:jn}\,と条件\ref{cond:jn_exception}\,に関するものであった.例えば``theHouseofRepresentatives''と「衆院選」が対応付けられ,「衆院」との対応付けが得られていなかった.正しい対応付けを得るためには,条件\ref{cond:jn_exception}\,により「衆院」と「選」を分離する必要がある.残りの3件は,例えば``theJapaneseSocietyforHistoryTextbookReform''と「新しい歴史教科書をつくる会」との対応付けが得られないような場合であり,抽出する{\JNP}の構成要素として用言を認めていないことが原因であった.対応付け漏れのうち{\MTNP}と{\JNP}の照合に原因がある34件のうち27件が条件\ref{cond:pp}\,によって{\JNP}の抽出が抑制されてしまったものであり,残りの7件が総合類似度が閾値を超えなかったものである.条件\ref{cond:pp}\,により{\JNP}の抽出が抑制された27件のうち20件は,{\CPNP}のMT訳と{\JNP}との差異が大きいために関与率が閾値を超えなかったものである.例えば``JapanandFrance''という{\CPNP}に対して「日仏」という{\JNP}を対応付ける必要があるが,実験に用いた機械翻訳システムによる``JapanandFrance''のMT訳は「日本,及び,フランス」となるため,「仏」と「フランス」の照合に失敗する.27件のうちの残りの7件は,実験に用いた機械翻訳システムの辞書に登録されていない単語が含まれていたために,関与率が閾値を超えなかったものである.対応付け誤りのうち{\CPNP}の抽出に原因がある6件を細かく分けると,条件\ref{cond:length}\,に関するものが3件であり,条件\ref{cond:comma}\,に関するもの,条件\ref{cond:poss}\,に関するもの,条件\ref{cond:adv}\,に関するものがそれぞれ1件ずつであった.{\JNP}の抽出に原因がある10件はすべて,``theHouseofRepresentatives''が「衆院選」に対応付けられるというように,条件\ref{cond:jn}\,と条件\ref{cond:jn_exception}\,に関するものであった.{\MTNP}と{\JNP}の照合に原因がある14件は主に条件\ref{cond:pp}\,に関連するものであった.例えば``theItalianEmbassyfor22''に「イタリア大使館」という{\JNP}が対応付けられるという誤りが生じていたが,関与率により抽出が抑制されなければならない.しかし,実験に用いた機械翻訳システムで``theItalianEmbassyfor22''を翻訳すると「22のイタリアの大使館」というMT訳が得られるため,このMT訳を構成する三つの名詞のうち「イタリア」と「大使館」の二つが対応に関与していることになるので,関与率が2/3となり閾値を超えていた\footnote{``theItalianEmbassyfor22''のMT訳が「22のイタリアの大使館」ではなく「22のイタリア大使館」となっていれば,関与率は1/2となるので,条件\ref{cond:pp}\,により誤った抽出を抑えることができる.}.\subsection{構文解析系を利用した場合との比較}\label{sec:experiment:parser}提案方法の性能を,{\CPNP}の抽出に構文解析系を利用した場合の性能と比較する.両者の違いは,(1){\CPNP}を単語列から抽出するか,実験に用いた機械翻訳システムの構文解析系により生成した構文解析木から抽出するかという点と,(2)意味的不適格表現の抽出抑制を,{\MTNP}を構成する各{\N}の関与を考慮した処理で行なうか,構文解析系で行なうかという点である.なお,利用した構文解析系の性能評価として,前置詞付加の曖昧性解消の精度を本稿の実験とは別に評価したところ,正解率は82\%であった.構文解析系を利用した場合の性能を表\ref{tab:parser}\,に示す.表\ref{tab:parser}\,において,(a)がベースラインの性能,(h)が提案方法の性能,(p1)ないし(p4)が構文解析系を利用した場合の性能である.(h)と(p1)ないし(p4)を比べると,対応付け誤り件数において比較的大きな差があることが分かる.対応付け誤りの多くは,{\CPNP}の抽出において意味的に不適格なものが抽出され,それに{\JNP}が対応付けられることによって生じる.表\ref{tab:parser}\,の実験結果によれば,本稿で対象としたような{\CPNP}とその対訳を獲得することを目的とした場合,この問題に対しては,構文解析(単一言語内での処理)で対処するよりも,{\MTNP}を構成する各{\N}の関与を考慮した照合(二言語間での処理)で対処するほうが望ましいことを示している.\begin{table}[htbp]\caption{構文解析系を利用した場合の性能との比較}\label{tab:parser}\begin{center}\begin{tabular}{|c|c|c|c||r|r|r|r|r|r|}\hline&\multicolumn{3}{|c||}{処理}&&&&&&\\\cline{2-4}&文字種&読み&関与率&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{正解}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{誤り}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{漏れ}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{適合率}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{再現率}}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{F値}}\\\hline\hline(a)&$-$&$-$&$-$&113&116&46&0.493&0.711&0.583\\(p1)&$-$&$-$&$-$&92&55&67&0.626&0.579&0.601\\(p2)&$-$&$+$&$-$&92&56&67&0.622&0.579&0.599\\(p3)&$+$&$-$&$-$&91&56&68&0.619&0.572&0.595\\(p4)&$+$&$+$&$-$&91&57&68&0.615&0.572&0.593\\(h)&$+$&$+$&$+$&97&30&62&0.764&0.610&0.678\\\hline\end{tabular}\end{center}\end{table}
\section{おわりに}
本稿では,従来あまり対象とされてこなかった前置詞句や等位構造を持つ英語固有表現とそれに対応する日本語表現を対訳コーパスから抽出する方法を示した.提案方法では,文字種を考慮した処理,ローマ字読みを考慮した処理,名詞句の構成要素の関与を考慮した処理によって英語固有表現と日本語表現の照合を行なった.読売新聞とTheDailyYomiuriの対訳コーパスを用いた実験では,これら三種類の処理を行なうことによって適合率0.764,再現率0.610,F値0.678という結果が得られた.この結果はこれらの処理を行なわない場合の結果や構文解析系を利用した場合の結果を上回るものである.本稿で対象とした{\CPNP}は大文字始まり語か数字の連続が前置詞または接続詞で結合された単語列であるが,今後の課題としては``GSDFtroopsfromtheChubuarea''(陸自中部方面隊)のように小文字始まり語を含む単語列も対象にしていく必要がある.\acknowledgment本稿に対して建設的で有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Al-Onaizan\BBA\Knight}{Al-Onaizan\BBA\Knight}{2002}]{Al-Onaizan02}Al-Onaizan,Y.\BBACOMMA\\BBA\Knight,K.\BBOP2002\BBCP.\newblock\BBOQ{TranslatingNamedEntitiesUsingMonolingualandBilingualResources}\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\BPGS\400--408.\bibitem[\protect\BCAY{荒牧英治\JBA黒橋禎夫\JBA佐藤理史\JBA渡辺日出雄}{荒牧英治\Jetal}{2003}]{Aramaki03}荒牧英治\JBA黒橋禎夫\JBA佐藤理史\JBA渡辺日出雄\BBOP2003\BBCP\\newblock\Jem{自然言語処理},{\Bbf10}(5),75--92.\bibitem[\protect\BCAY{Baldwin}{Baldwin}{2001}]{Baldwin01}Baldwin,T.\BBOP2001\BBCP.\newblock{\Bem{MakingLexicalSenseofJapanese-EnglishMachineTranslation:ADisambiguationExtravaganza}}.\newblock{DoctoralDissertation},DepartmentofComputerScience,TokyoInstituteofTechnology.\newblockTechnicalReportTR01-0003.\bibitem[\protect\BCAY{福島俊一\JBA赤峯亨}{福島俊一\JBA赤峯亨}{1997}]{Fukushima97}福島俊一\JBA赤峯亨\BBOP1997\BBCP\\newblock\Jem{情報処理},{\Bbf38}(4),334--335.\bibitem[\protect\BCAY{Huang\BBA\Vogel}{Huang\BBA\Vogel}{2002}]{Huang02}Huang,F.\BBACOMMA\\BBA\Vogel,S.\BBOP2002\BBCP.\newblock\BBOQ{ImprovedNamedEntityTranslationandBilingualNamedEntityExtraction}\BBCQ\\newblockIn{\BemProceedingsofthe4thIEEEInternationalConferenceonMultimodalInterfaces(ICMI)},\BPGS\253--258.\bibitem[\protect\BCAY{Huang\JBAVogel\BBA\Waibel}{Huanget~al.}{2003}]{Huang03}Huang,F.\JBAVogel,S.\JBA\BBA\Waibel,A.\BBOP2003\BBCP.\newblock\BBOQ{AutomaticExtractionofNamedEntityTranslingualEquivalenceBasedonMulti-featureCostMinimization}\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponMultilingualandMixed-languageNamedEntityRecognition},\BPGS\9--16.\bibitem[\protect\BCAY{今村賢治}{今村賢治}{2002}]{Imamura02}今村賢治\BBOP2002\BBCP\\newblock\Jem{自然言語処理},{\Bbf9}(5),23--42.\bibitem[\protect\BCAY{梶博行\JBA相薗敏子}{梶博行\JBA相薗敏子}{2001}]{Kaji01}梶博行\JBA相薗敏子\BBOP2001\BBCP\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),2248--2258.\bibitem[\protect\BCAY{Kinoshita\JBAShimazu\BBA\Hirakawa}{Kinoshitaet~al.}{1993}]{Kinoshita93}Kinoshita,S.\JBAShimazu,M.\JBA\BBA\Hirakawa,H.\BBOP1993\BBCP.\newblock\BBOQ{BetterTranslationwithKnowledgeExtractedfromSourceText}\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI)},\BPGS\240--251.\bibitem[\protect\BCAY{北村美穂子\JBA松本祐治}{北村美穂子\JBA松本祐治}{1997}]{Kitamura97}北村美穂子\JBA松本祐治\BBOP1997\BBCP\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(4),727--736.\bibitem[\protect\BCAY{松井くにお\JBA難波功\JBA井形伸之}{松井くにお\Jetal}{1997}]{Matsui97}松井くにお\JBA難波功\JBA井形伸之\BBOP1997\BBCP\\newblock研究報告{DD}7-3,情報処理学会.\bibitem[\protect\BCAY{Menezes\BBA\Richardson}{Menezes\BBA\Richardson}{2001}]{Menezes01}Menezes,A.\BBACOMMA\\BBA\Richardson,S.\BBOP2001\BBCP.\newblock\BBOQ{ABest-FirstAlignmentAlgorithmforAutomaticExtractionofTransferMappingsfromBilingualCorpora}\BBCQ\\newblockIn{\BemProceedingsoftheACL2001WorkshoponData-DrivenMethodsinMachineTranslation},\BPGS\39--46.\bibitem[\protect\BCAY{Meyers\JBAYangarber\BBA\Grishman}{Meyerset~al.}{1996}]{Meyers96}Meyers,A.\JBAYangarber,R.\JBA\BBA\Grishman,R.\BBOP1996\BBCP.\newblock\BBOQ{AlignmentofSharedForestsforBilingualCorpora}\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING)},\BPGS\460--465.\bibitem[\protect\BCAY{Moore}{Moore}{2003}]{Moore03}Moore,R.\BBOP2003\BBCP.\newblock\BBOQ{LearningTranslationsofNamed-EntityPhrasesfromParallelCorpora}\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL)},\BPGS\259--266.\bibitem[\protect\BCAY{Romesburg}{Romesburg}{1992}]{Romesburg92}Romesburg,H.~C.\BBOP1992\BBCP.\newblock\Jem{実例クラスター分析}.\newblock内田老鶴圃,東京.\newblock西田英郎,佐藤嗣二訳.\bibitem[\protect\BCAY{Sato}{Sato}{1992}]{Sato92}Sato,S.\BBOP1992\BBCP.\newblock\BBOQ{CTM:AnExample-BasedTranslationAidSystem}\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputationalLinguistics(COLING)},\BPGS\1259--1263.\bibitem[\protect\BCAY{隅田英一郎\JBA堤豊}{隅田英一郎\JBA堤豊}{1991}]{Sumita91}隅田英一郎\JBA堤豊\BBOP1991\BBCP.\newblock\JBOQ翻訳支援のための類似用例の実用的検索法\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ74-D2}(10),1437--1447.\bibitem[\protect\BCAY{Tanaka\JBAKumano\JBAUratani\BBA\Ehara}{Tanakaet~al.}{1999}]{TanakaH99}Tanaka,H.\JBAKumano,T.\JBAUratani,N.\JBA\BBA\Ehara,T.\BBOP1999\BBCP\\newblock\Jem{自然言語処理},{\Bbf6}(5),93--116.\bibitem[\protect\BCAY{内山将夫\JBA井佐原均}{内山将夫\JBA井佐原均}{2003}]{Uchiyama03}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ日英新聞の記事および文を対応付けるための高信頼性尺度\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),201--220.\bibitem[\protect\BCAY{宇津呂武仁\JBA松本裕治\JBA長尾眞}{宇津呂武仁\Jetal}{1992}]{Utsuro92}宇津呂武仁\JBA松本裕治\JBA長尾眞\BBOP1992\BBCP.\newblock\JBOQ日英対訳文間の素性構造照合による統語的曖昧性の解消\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf33}(12),1555--1564.\bibitem[\protect\BCAY{Virga\BBA\Khudanpur}{Virga\BBA\Khudanpur}{2003}]{Virga03}Virga,P.\BBACOMMA\\BBA\Khudanpur,S.\BBOP2003\BBCP.\newblock\BBOQ{TransliterationofProperNamesinCross-LingualInformationRetrieval}\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponMultilingualandMixed-languageNamedEntityRecognition},\BPGS\57--64.\bibitem[\protect\BCAY{Watanabe\JBAKurohashi\BBA\Aramaki}{Watanabeet~al.}{2000}]{Watanabe00}Watanabe,H.\JBAKurohashi,S.\JBA\BBA\Aramaki,E.\BBOP2000\BBCP.\newblock\BBOQ{FindingStructuralCorrespondencesfromBilingualParsedCorpusforCorpus-basedTranslation}\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics(COLING)},\BPGS\906--912.\bibitem[\protect\BCAY{吉見毅彦\JBA九津見毅\JBA小谷克則\JBA佐田いち子\JBA井佐原均}{吉見毅彦\Jetal}{2004}]{Yoshimi04}吉見毅彦\JBA九津見毅\JBA小谷克則\JBA佐田いち子\JBA井佐原均\BBOP2004\BBCP.\newblock\JBOQ複合語の内部情報・外部情報を統合的に利用した訳語対の抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(4),89--103.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.2004年より情報通信研究機構専攻研究員を兼任.}\bioauthor{九津見毅}{1965年生まれ.1990年,大阪大学大学院工学研究科修士課程修了(精密工学—計算機制御).同年,シャープ株式会社に入社.以来,英日機械翻訳システムの翻訳エンジンプログラムの開発に従事.}\bioauthor{小谷克則}{1974年生まれ.2002年より情報通信研究機構特別研究員.2004年,関西外国語大学より英語学博士取得.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報通信事業本部情報商品開発センター技術企画室副参事.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.2001年情報通信研究機構(旧:通信総合研究所)けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V28N01-06
|
\section{はじめに}
近年深層学習を利用した対話システムが注目を集めており,大規模データを活用する対話研究が活発に行われている\cite{adiwardana2020humanlike,smith-etal-2020-put}.現在主流の対話システムは大規模データをもとにして入力発話に対して尤もらしい応答を出力するように学習を行う.しかし,同じ入力発話であっても相手の発話意図によって応答すべき内容は異なる.つまり,対話システムは話者の意図を理解・解釈した上でその解釈した結果に応じて発話を行うべきであると考えられる.本研究では話者の意図理解に向けて,対話中の話者内部状態を取り扱い,以下の2つの課題に取り組む.\begin{enumerate}\item話者内部状態のモデル化\item話者内部状態を踏まえた応答変更\end{enumerate}一般に現実の対話ではたとえ雑談であっても「対話を通して情報を伝達する」や「相手に何らかの影響を与える」などの一定の目的がある.そしてその一貫した目的のもと,複数ターンのやり取りの中で情報が授受されることが自然である.つまり,話者内部状態のモデル化の際には複数ターンのやり取りがあり,かつ対話の目的がその中で一貫している対話データが必要になる.ただ,人間同士の対話は互いの意図が交錯するため,内部状態の分析・モデル化の題材にするのは難しい.一方,近年の深層学習による対話システムと人間の対話は一問一答レベルでは適切な応答ができるものの,複数ターンの対話になると多くの課題が表出する上,その対話には一貫した目的が存在しない場合がほとんどである.そうした背景から本研究では,映画推薦をドメインとするルールベースの対話システムを構築し,対話システムと人間との目的の一貫した複数ターンの対話データの収集を行う.本研究の全体の流れを図\ref{fig:flowchart}に示す.収集した対話データの分析に基づいて,対話中の話者内部状態を以下の3つの軸でモデル化する.\begin{itemize}\item\textbf{知識}:話題に関する知識があるかどうか\item\textbf{興味}:話題への興味があるかどうか\item\textbf{対話意欲}:対話に対して積極的に参加しているかどうか\end{itemize}話者の知識や興味を理解することで適切な情報提供や話題変更を行える.また,対話意欲を考慮することで,例えばユーザの対話意欲が高い場合は聞き役に徹するようにするなど,対話システムが適切な振る舞いができるようになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-1ia5f1.pdf}\end{center}\caption{本研究の流れ}\label{fig:flowchart}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%モデル化した話者内部状態を収集した対話データにアノテートし,これを学習データとして話者内部状態の自動推定を行った.その結果,いずれの内部状態においても7値スケールで$\pm1$のずれを許した場合,約80〜85\%と高い推定精度を達成した.また,話者内部状態の自動推定結果に応じた対話システムの応答の変更にも取り組む.具体的には,知識,興味,対話意欲のそれぞれについてその有無に応じた応答変更のルールを追加で用意する.話者内部状態を自動で推定し,その推定結果に応じて応答変更を行った場合にシステム発話の自然さが向上することを,対話単位での評価と発話単位での評価の両方で確認した.本研究の貢献は以下の2点である.\begin{itemize}\item発話ごとにユーザ内部状態(知識,興味,対話意欲)を付与した1万発話規模のテキスト対話コーパスを構築した.\itemユーザ内部状態を自動推定し,その推定結果に応じてシステム発話を変更することの有効性を実証的に示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
\label{sec:related_work}対話においては,発話自体の内容を理解するのは勿論のこと,それを発話した話者の状態を理解することが重要である.ここでは発話の背後にある話者の内面の状態を「話者内部状態」と呼び,知識・興味・対話意欲の3つに注目する.関連する概念として,対話行為\cite{stolcke-etal-2000-dialogue}がある.対話行為は,対話中の発話を「質問」「情報提供」「約束」といった心理的・社会的な何らかの効果を引き起こす行為として分類したものであり\cite{dialogsystem2015},対話における話者の意図や目的の理解に広く用いられている\cite{bunt-etal-2012-iso}.対話行為が発話のもたらす効果に注目しているのに対し,本研究で取り扱う話者内部状態は,その行為を選択するに至った話者の,より原始的な内面の状態である.感情は対話研究において積極的に活用が検討されてきた話者内部状態であり,発話からの感情の推定や,感情を踏まえた発話生成の研究が盛んに行われている.\citeA{tokuhisa2009web}はWebから獲得したコーパスを用いて発話から「嬉しい」「楽しい」などの10種類の感情の推定を行った.感情を踏まえた発話生成の研究では,Tweet中の顔文字を感情のアノテーションとみなすことで感情を反映した発話生成を行う手法\cite{zhou-wang-2018-mojitalk}や,感情の明示的表現と暗示的表現に着目し,特定の感情を発話に反映する手法が提案されている\cite{song-etal-2019-generating}.一方で,話者の発話だけからでは陽には読み取れない情報に着目したものとして,ペルソナ\cite{li-etal-2016-persona,zhang-etal-2018-personalizing}がある.ペルソナは話者の年齢や性別といった個人的な背景やそれに基づく話し方などを指す.ユーザごとにID番号を割り振ることで話者の違いを学習する手法\cite{li-etal-2016-persona}や,ユーザの属性を短文数文程度にまとめることでペルソナのモデル化を行ったものがある\cite{zhang-etal-2018-personalizing}.このような感情とペルソナの活用は主に対話システム側の応答を豊かにすることを目的としており,本研究の話者の意図理解とは目的が異なる.ユーザの知識・興味・対話意欲について着目した研究もなされている.\citeA{宮崎2016knowledge}はコールセンタの音声対話を具体例として知識量推定に有効な言語的・対話的特徴量について調査を行っている.またその調査に基づき,対話全体から話者の知識量を推定し,知識の少ない話者の対話を抽出する手法を提案している.興味については,マルチモーダル情報を利用して興味を推定する研究がある\cite{冨増2016,松本2018,西本2018}.また,Wizard-of-Oz法を用いて収集したマルチモーダル対話に,話題への興味の有無をアノテートしたデータについて分析した研究もある\cite{荒木2017,駒谷和範2018}.テキスト対話からユーザの興味を推定する研究としては,人間同士の雑談対話において,発話から決められたトピックについての興味の度合いを推定した研究がある\cite{inaba-takahashi-2018-estimating}.\citeA{inaba-takahashi-2018-estimating}は対話終了後に各被験者に24種類のトピックの興味の度合いを選択させることで1つの対話と24種類の各トピックの興味の度合いの紐付けを行っている.対話意欲では\citeA{千葉2015willingness}がマルチモーダル対話データを分析し,提示された質問や話題に対する話者の対話全体での対話意欲の有無を70〜80\%で推定できることを示した.\citeA{ishihara-2018-willingness}は同様にマルチモーダル情報を用いてインタビュー対話から話者の対話意欲の有無を推定した.これらの先行研究では知識,興味,対話意欲のいずれか1つの推定に取り組んでいるが,本研究では3つの話者内部状態を同時に取り扱う.また,これらの内部状態は対話の中で刻々と変化していくと考えられるため,対話のターンごとに推定を行う.そして,その推定結果によって応答を適切に変更することで,ユーザの内部状態を解釈して自然な応答を行える対話システムを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{映画推薦対話システムの構成}
話者内部状態の観察・分析のためには一貫した目的を持って複数ターンにわたって対話を続ける対話システムが必要となる.そこで映画推薦を目的としたルールベースの対話システムを構築した(図\ref{fig:overview}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-1ia5f2.pdf}\end{center}\caption{映画推薦対話システムの概要図}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本システムでは,いくつかのテンプレートを用意し,予め映画ごとにシステム発話の内容を作成しておく.この発話集をシナリオと呼ぶ.映画データベースはこのシナリオと,簡単な質問応答の際に必要な映画情報を保持する.対話管理はダイアログマネージャが担い,必要に応じて映画データベースに格納された映画情報を参照しながら対話を進める.本システムによる対話例を例\ref{ex:dialog_example}に示す.\ex.\label{ex:dialog_example}\a.[$S1$:]ファッションって興味ありますか?\b.[$U1$:]興味ありますよ\b.[$S2$:]ファッションに関係のある映画があるんです.「マイ・インターン」というタイトルです.\b.[$U2$:]タイトルは聞いたことあるような気がします.\b.[$S3$:]素晴らしいの一言ですよ.\b.[$U3$:]そうなんですね.\b.[$S4$:]ロバート・デニーロは優しくカッコいい紳士,憧れますよ.\b.[$U4$:]それはいいですね\b.[$S5$:]是非見てみてください%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話戦略}\label{subsec:strategy}現在の技術レベルでもある程度自然で意味のある映画推薦対話が可能となるように,\pagebreak本システムは以下の3つの対話戦略に基づき動作する.\noindent\textbf{(1)システム主導}\quadシステムはユーザ発話に対する簡単な応答をしつつ,基本的にはシナリオ通りに主導的に対話を進める.\noindent\textbf{(2)間接的話題導入}\quadシステムは対話のメインの話題である映画のタイトルをいきなり言うのではなく,以下の3つのパターンのいずれかを用いてその周辺の話題から対話を始める(下線部は映画によって異なる.)\begin{description}\setlength{\leftskip}{1.5em}\item[T1:最近のエンタメニュース]~\\(例)\underline{俳優の染谷将太と女優の菊地凛子夫妻に第2子が誕生したことが11日までに}\\\underline{わかった}と話題です\item[T2:映画のテーマ]~\\(例)\underline{飛行機}って興味ありますか?\item[T3:映画情報(俳優の名前など)]~\\(例)\underline{細田守監督}をご存知ですか?\end{description}\noindent\textbf{(3)推薦ポイント}\quad推薦する映画を褒める文(推薦ポイント)を複数回発話することで,ユーザがその映画を見たいと思えるように念押しする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{映画データベース}映画データベースには213作品の基本情報,解説・あらすじ,ニュース情報,レビュー,シナリオがそれぞれ格納されている.基本情報,解説・あらすじ,レビューは映画レビューサイト\footnote{\url{https://movies.yahoo.co.jp/}}からWebスクレイピングで取得した.基本情報は映画のタイトル,キャスト,スタッフ,ジャンルなどの情報である.レビューは,映画レビューサイトのユーザが映画の感想や評価などを書き込んだ文章であり,各映画につき高評価順に300件ずつ取得した.ニュース情報は,エンタメとスポーツのニュースをニュースサイトからWebスクレイピングで取得した.このニュース情報は\ref{subsec:strategy}節で述べたパターン\textbf{T1}のシナリオの作成に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話シナリオ}\label{subsec:scenario}シナリオは対話戦略に沿って映画ごとに複数作成した.シナリオの前半部分では,間接的に話題を導入し,推薦映画を提示する.間接的話題導入の発話は,\ref{subsec:strategy}節で述べた3つのパターン\textbf{T1}〜\textbf{T3}に基づき,映画データベース中の情報を用いて生成する.パターン\textbf{T1}では,最近のエンタメニュースの話題で対話を始め,そのニュースの登場人物の出演映画を推薦する.映画データベースのニュース記事の最初の1文を抽出し,キャストの名前が含まれていたら,「<最近のエンタメニュースの1文目>というニュースが話題になっていますね」と発話する.パターン\textbf{T2}では,映画のテーマを用いて「<テーマ>って興味ありますか?」といった文で対話を始める.映画のテーマは映画データベースの解説・あらすじからキャスト・スタッフ等の人名を取り除いた上でtf-idfのスコアが最も高い名詞を選択する.ただし,一般的な語がテーマとして使用されるのを防ぐために,tf-idfの最高値が0.35を下回った場合には,その映画についてはパターン\textbf{T2}のシナリオは作成しない.パターン\textbf{T3}では,映画データベースの基本情報に含まれている主要キャスト2名と監督の名前を用いて「<人名>さんってご存知ですか?」といった発話から対話を始め,その人物に関連する映画を推薦する.シナリオ後半部分では,各映画のレビューから抽出した2つの推薦ポイント文を発話する.まず,レビューの文章を文単位で分割する.次にレビュー文は口調が統一されていないため,Juman++辞書\footnote{\url{https://github.com/ku-nlp/jumandic-grammar}}を用いて語尾を活用させ,丁寧口調(「です」または「ます」)に変換したのち,語尾に情報提供の口調の「よ」を追加する.さらに,映画を褒めている,かつある程度の長さの文を選ぶ.具体的には,まず独自に選んだ映画に関連するポジディブな単語(「傑作」,「面白い」など)50語の単語ベクトルの和と各文の単語ベクトルの和のコサイン類似度を計算し,類似度と各文の文字数をかけ合わせたスコアを用いてスコア上位100文を抽出する.これを各映画について行い,各シナリオでは100文の中からランダムに2文を用いる.なお,単語ベクトルはWebテキスト約98億文で学習したword2vecを用いた.最後に視聴を促す発話を以下の5つからランダムに選択する.\begin{itemize}\item是非見てみてください\item是非ご覧下さい\item良かったら見てみてはいかがですか?\item面白い作品なのでぜひ見て頂きたいです\itemきっと楽しめると思いますよ\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ダイアログマネージャ}\label{subsec:dialog_manager}ダイアログマネージャは,映画データベースの情報を参照しつつ,推薦映画の決定やシナリオの選択,シナリオに基づく発話を行う.推薦映画の決定はユーザの好みを尋ねてからその返答に応じて決定する方式とランダムに決定する方式の2つを用意し,その割合を8:2とした.ユーザの好みを尋ねる際に用いる質問(=初期質問)は以下からランダムに選択する.\begin{itemize}\item好きな俳優は誰ですか?\item好きな女優は誰ですか?\item好きな監督は誰ですか?\item好きなジャンルは何ですか?\item邦画と洋画どちらが好きですか?\end{itemize}初期質問をする場合には,例えばユーザが好きな女優を挙げたら,その女優が出演する映画の中から推薦映画を選ぶ.その後,用意されているシナリオから1つ選択し,そのシナリオに基づいて発話を行う.ユーザの発話からの人物名の抽出は正規表現によるマッチングを用いる.ユーザが「いない」等と答えた場合や,初期質問をしない場合には,推薦映画をランダムに決定する.推薦映画の主演キャスト,他のキャスト,監督の名前やジャンルなどの簡単な質問をユーザがした場合には,映画情報データベースを参照してその応答を通常のシステム発話の前に挿入する.質問であるかどうかの判定にはNTTコミュニケーションズが提供するCOTOHAAPI\footnote{\url{https://api.ce-cotoha.com/contents/index.html}}を用いた.COTOHAAPIでは文タイプを平叙文,疑問文,命令の中から判定することができる.本研究ではユーザ発話の文タイプが疑問文である発話を質問とみなし,質問の種類の判定は正規表現ベースでマッチングを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話者内部状態による応答変更}\label{subsec:response_change}本節では話者内部状態推定器の推定結果に応じてシステムの応答を変更するルールについて説明する.話者内部状態推定器は以下の3つの手続きにより作成する.\begin{enumerate}\item\ref{subsec:strategy}節から~\ref{subsec:dialog_manager}節までで述べた要素によって構成された映画推薦対話システムで対話を収集(詳細は~\ref{subsec:train_dialog_collection}節)\item収集した対話に知識,興味,対話意欲のアノテーションを行い対話コーパスを構築(詳細は~\ref{subsec:annotation}節)\item構築した対話コーパスを用いて話者内部状態推定器を学習(詳細は~\ref{subsec:estimation}節)\end{enumerate}本システムは予めシステム発話の内容が決められたシナリオに基づいて対話を進める.そのため,各話者内部状態の対象(「何に対して知識があるのか」,「何に対して興味がないのか」など)を前のシステムの発話からある程度想定することができる.そこで知識・興味・対話意欲の有無とそのそれぞれの対象に応じて適切な応答を予め用意しておく.表\ref{tab:response_change}に話者内部状態タイプと各応答変更の概要を示す.話者内部状態推定器により各話者内部状態を推定し,用意した適切な応答に変更することでシステム発話がより自然な応答となることを目指す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}\caption{話者内部状態による応答変更一覧}\label{tab:response_change}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{知識の有無による応答変更}\label{subsubsec:knowledge_response_change}知識の有無による応答変更には以下の4タイプを用意する.\pagebreak応答変更の判断基準となるユーザ発話には隅付き括弧内にそのユーザ発話の知識の有無を記す.\noindent\textbf{1.人物の知識がない}\quad間接的話題導入のパターン\textbf{T3}の発話の直後のユーザ発話から知識がないことがわかる場合,ユーザはその人物を知らないと考えられる.この場合はその人物についての簡単な説明文を次の発話の前に挿入する.説明文はその人物についてのWikipedia記事の第一文目を活用する.Wikipedia記事の取得にはMediaWikiAPI\footnote{\url{https://www.mediawiki.org/wiki/API:Main_page/ja}}を使用した.具体例を例\ref{ex:rc_example1}に示す.$S_\mathit{before}$と$S_\mathit{after}$はそれぞれ応答変更をしなかった場合と応答変更をした場合のシステム発話を指す.また,主な変更点を$S_\mathit{after}$の下線部に示す.\ex.\label{ex:rc_example1}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]ジョージ・ルーカスさんをご存知ですか?\b.[$U$:]良く分かりません。【知識なし】\b.[$S_\mathit{before}$:]ジョージ・ルーカスさんが監督をされている映画があります。「スター・ウォーズ」というタイトルです。\b.[$S_\mathit{after}$:]\underline{ジョージ・ルーカスさんはアメリカの映画監督、映画プロデューサー、脚本家}\\\underline{です。}ジョージ・ルーカスさんが監督をされている映画があります。「スター・ウォーズ」というタイトルです。\noindent\textbf{2.映画の知識がない}\quad映画のタイトルを提示した直後のユーザ発話から知識がないことがわかる場合,ユーザはその映画を知らないと考えられる.この場合,例\ref{ex:rc_example2}のようにその映画についての情報を次の発話の前に補足する.本研究では補足する情報として映画の公開年度を使用した.\ex.\label{ex:rc_example2}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]好きな女優は誰ですか?\b.[$U$:]綾瀬はるかさんです\b.[$S$:]では綾瀬はるかさんが出演している映画を紹介しますね\b.[$U$:]お願いします\b.[$S$:]「本能寺ホテル」という映画です\b.[$U$:]知らないです。【知識なし】\b.[$S_\mathit{before}$:]最後の京都の現在の町と過去が交差する景色は、人の営みと思いは綿々と繋がっていること、そして過去の人々のお陰で現在の平和があることを示唆していますよ\b.[$S_\mathit{after}$:]\underline{2017年に公開された作品です。}最後の京都の現在の町と過去が交差する景色は、人の営みと思いは綿々と繋がっていること、そして過去の人々のお陰で現在の平和があることを示唆していますよ\noindent\textbf{3.映画の知識がある}\quad映画のタイトル提示および1つ目の推薦発話の直後のユーザ発話に知識がある場合,ユーザがその映画を知っていると考えられるため,その次の発話の語尾を情報提供の口調の「よ」から同意口調の「よね」に変更する(例\ref{ex:rc_example3}).映画のタイトル提示直後と1つ目の推薦発話直後の応答変更はそれぞれ独立に知識の有無を判定して行われる.\ex.\label{ex:rc_example3}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]好きな俳優は誰ですか?\b.[$U$:]藤原竜也\b.[$S$:]では藤原竜也さんが出演している映画を紹介しますね\b.[$U$:]はい、お願いします\b.[$S$:]「僕だけがいない街」という映画です\b.[$U$:]はい、DVDで鑑賞しました【知識あり】\b.[$S_\mathit{before}$:]謎解きは勘のいい方ならすぐに分かるレベルですが、本作は物語のベースに暖かいメッセージがこめられていて感動しますよ\b.[$S_\mathit{after}$:]謎解きは勘のいい方ならすぐに分かるレベルですが、本作は物語のベースに暖かいメッセージがこめられていて感動します\underline{よね}\noindent\textbf{4.映画の深い知識がある}\quad例\ref{ex:rc_example4}に示すように映画のタイトル提示および2つの推薦発話の直後の全てで知識がある場合,ユーザはその映画を既に見たことがあると想定し,最後の視聴を促す発話をユーザに視聴経験があると想定した発話に変更する.変更する発話は以下の2つからランダムに選択する.\begin{itemize}\itemまた見てみてはいかがですか\item是非もう一度見てみてください\end{itemize}\ex.\label{ex:rc_example4}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]好きな女優は誰ですか?\b.[$U$:]薬師丸ひろ子\b.[$S$:]じゃあ薬師丸ひろ子さんが出演している作品を紹介しますね\b.[$U$:]よろしくお願いします\b.[$S$:]「コーヒーが冷めないうちに」というタイトルです\b.[$U$:]よく知っていますね【知識あり】\b.[$S$:]設定のせいもあるかもしれないけど、やっぱり、本物の役者さんって言うのは、凄いのだと、改めて感じますよね\b.[$U$:]年季を感じますね【知識あり】\b.[$S$:]数ちゃんと新谷君の心が近づいていって結ばれる軸となるエピソードに、ほっと心が温まりますよね\b.[$U$:]私もです【知識あり】\b.[$S_\mathit{before}$:]面白い作品なのでぜひ見て頂きたいです\b.[$S_\mathit{after}$:]是非\underline{もう一度}見てみてください%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{興味の有無による応答変更}\label{subsubsec:interest_response_change}興味の有無による応答変更には以下の3タイプがある.応答変更の判断基準となるユーザ発話には隅付き括弧内にそのユーザ発話の興味の有無を記す.\noindent\textbf{5.ニュースに興味がない}\quad間接的話題導入のパターン\textbf{T1}の発話の直後に興味がない場合,提示したニュースに興味がないと考えられる.ただ,ニュースに興味がない場合でも映画に興味を示すことは考えられるため,そのまま映画を推薦する.その際,ユーザの発話を無視したという印象を薄くするため,例\ref{ex:rc_example5}に示すように以下のいずれかの発話からランダムに選択した発話を次の発話の前に挿入する.\begin{itemize}\item結構評判みたいですよ。\item結構話題になっているみたいなのですが,\end{itemize}\ex.\label{ex:rc_example5}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]俳優の木村拓哉と歌手の工藤静香の長女・Cocomiが26日、自身のインスタグラムを更新し、久々に外出したことをつづったと話題となっています\b.[$U$:]そうなん【興味なし】\b.[$S_\mathit{before}$:]木村拓哉さん、「無限の住人」という映画に出演されています\b.[$S_\mathit{after}$:]\underline{結構評判みたいですよ。}その木村拓哉さん、「無限の住人」という映画に出演されています\noindent\textbf{6.テーマに興味がない}\quad間接的話題導入のパターン\textbf{T2}の発話の直後に興味がない場合,その映画のテーマに興味がないと考えられる.映画のテーマに興味がない場合,映画についても興味を示さないことが想定されるため,推薦する映画を変更する.その際にユーザの好みを把握するため,例\ref{ex:rc_example6}のように初期質問を行う.この初期質問は\ref{subsec:dialog_manager}節で述べた5つからランダムに選択する.\ex.\label{ex:rc_example6}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]タイムトラベルって興味ありますか?\b.[$U$:]いえ、あまり興味ありません【興味なし】\b.[$S_\mathit{before}$:]タイムトラベルに関係のある映画があります。「アバウト・タイム愛おしい時間について」というタイトルです\b.[$S_\mathit{after}$:]そうなんですね。\underline{では好きな映画監督は誰ですか?}\noindent\textbf{7.人物に興味がない}\quad間接的話題導入のパターン\textbf{T3}の発話の直後に興味がない場合,その映画の監督または主要キャストに興味がないと考えられるため,初期質問を行って推薦する映画を変更する.このとき,例\ref{ex:rc_example7}のように女優(俳優/監督)の名前から対話を始めた場合は好きな女優(俳優/監督)を尋ねる初期質問を行う.\ex.\label{ex:rc_example7}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]サンドラ・ブロックさんをご存知ですか?\b.[$U$:]知っていますが、あまり興味はないです。【興味なし】\b.[$S_\mathit{before}$:]サンドラ・ブロックさんが声優をしている映画があります。タイトルは「ミニオンズ」です。\b.[$S_\mathit{after}$:]そうなんですね。\underline{では好きな女優は誰ですか?}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対話意欲の有無による応答変更}\label{subsubsec:willingness_response_change}対話意欲の有無による応答変更は以下の1タイプである.応答変更の判断基準となるユーザ発話には隅付き括弧内にそのユーザ発話の対話意欲の有無を記す.\\\noindent\textbf{8.対話意欲がない}\quad2回目の推薦発話の直後に対話意欲がない場合,これまでの推薦の効果が薄いと考えられるため,視聴を促す発話を控えめな言い回しである以下のいずれかの発話からランダムに選択して変更する.例\ref{ex:rc_example8}に具体例を示す.\begin{itemize}\item騙されたと思って見てみてはいかがですか\item見てみたら意外と面白いかもしれませんよ\end{itemize}\ex.\label{ex:rc_example8}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]ヘイリー・アトウェルさんをご存知ですか?\b.[$U$:]しらないな。\b.[$S$:]ヘイリー・アトウェルさんはイングランド生まれの女優です。ヘイリー・アトウェルさんが出演されている映画があります。タイトルは「プーと大人になった僕」です。\b.[$U$:]そうなんですね。\b.[$S$:]はい、プーだけじゃなくて、イーヨーやピグレット、他のキャラたちも、声に魅力があるし、ユアンマクレガーのイギリス人らしいイントネーションも、原語ならではの雰囲気ですよ\b.[$U$:]へー\b.[$S$:]クリストファーロビンに邪魔者扱いされ、悲しそうな顔から、最後は絆を取り戻せて幸せそうな表情に変わるプーさんがキュートすぎてたまりませんよ\b.[$U$:]そうですか。【対話意欲なし】\b.[$S_\mathit{before}$:]是非見てみてください\b.[$S_\mathit{after}$:]\underline{見てみたら意外と面白いかもしれませんよ}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{コーパス構築}
まず,話者内部状態による応答変更を行わないシステムで対話を収集し(\ref{subsec:train_dialog_collection}節),話者内部状態のモデル化を行う(\ref{subsec:modeling}節).そして,収集した対話にモデル化した話者内部状態のアノテーションを行う(\ref{subsec:annotation}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習・分析用対話収集}\label{subsec:train_dialog_collection}本システムを用いてクラウドソーシング\footnote{\url{http://crowdsourcing.yahoo.co.jp/}}で対話を収集した.ワーカーには事前に,213作品の中から対話的に映画を薦めるシステムとの対話であることを伝えている.対話はシステム側から開始し,ワーカーが返答するという順で進める.最後はシステム側の発話で対話を終了する.対話システムは外部サイトとして用意し,ワーカーはクラウドソーシングのタスク画面内の対話システムのURLをクリックし,外部サイトで対話を行う.また,対話終了後にクラウドソーシングのタスク画面上で以下の5段階評価のアンケートに回答する.\begin{description}\item{(1)}\textbf{説得度}:推薦された映画を見たくなりましたか?\\\{5:見たい,4:どちらかと言えば見たい,3:どちらとも言えない,2:どちらかと言えば見たくない,1:見たくない\}\item{(2)}\textbf{流れの自然さ}:対話の流れは自然でしたか?\\\{5:自然だった,4:どちらかと言えば自然だった,3:どちらとも言えない,2:どちらかと言えば不自然だった,1:不自然だった\}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{05table02.tex}\hangcaption{対話コーパス例(対話コーパスは対話を収集したのち,別途話者内部状態をアノテートすることで作成.)}\label{tab:dialog_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{05table03.tex}\hangcaption{収集対話の統計情報(参加ワーカー数はYahoo!クラウドソーシングの会員IDで区別して計算.形態素分割にはJuman++~\protect\cite{Tolmachev2020a}を使用)}\label{tab:dialog_statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}\caption{学習・分析用対話のアンケート結果}\label{tab:questionnaire_train}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%外部サイト上でワーカー固有のIDを表示し,クラウドソーシングの回答欄に入力してもらうことで対話とアンケート結果の紐付けを行う.収集した対話例を表\ref{tab:dialog_example}の「対話」列に,その統計情報を表\ref{tab:dialog_statistics}に示す.全部で1,060対話を収集した.また,アンケート結果を表\ref{tab:questionnaire_train}に示す.説得度について51.7\%,流れの自然さについて60.3\%の対話が4以上の評価を獲得した.この結果から本システムが映画推薦という対話の目的を十分に達成しながら,ある程度自然な対話を実現できていることを確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話者内部状態のモデル化}\label{subsec:modeling}前節で収集した対話を用いて,\pagebreakより自然な対話を実現するために必要な要素について分析を行った.その結果,話者の「知識」・「興味」・「対話意欲」の3つの内部状態を把握し,それぞれの内部状態の有無に応じて適切な応答を行うことが対話の自然さの向上につながると考えた.先行研究においては,知識,興味,対話意欲のそれぞれの重要性は示唆されているものの\cite{宮崎2016knowledge,inaba-takahashi-2018-estimating,千葉2015willingness},各々を独立に取り扱っている.ただ,これらの内部状態を統合的に考慮することで,話者の内部状態をより豊かに表現でき,より詳細な話者の意図理解につながると考えられる.また,本研究で提案する話者内部状態モデルは,それぞれの内部状態が旅行や音楽などの複数の話題があるインタビュー対話\cite{千葉2015willingness}や雑談対話\cite{inaba-takahashi-2018-estimating}などで取り扱われていることから,今回の映画推薦のドメインに依存せず,雑談を含む他のドメインにおいても汎用的に活用できると考えられる.本研究で用いる各話者内部状態の定義は以下の通りとする.\begin{itemize}\item\textbf{知識}:話題に関する知識があるかどうか\item\textbf{興味}:話題への興味があるかどうか\item\textbf{対話意欲}:対話に対して積極的に参加しているかどうか\end{itemize}なお本研究では,システムの発話によってユーザの内部状態は刻々と変化すると考えられるため,ユーザが発話するごとにその内部状態を考慮する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話者内部状態アノテーション}\label{subsec:annotation}クラウドソーシングを用いて,収集した対話の全てのユーザ発話に話者内部状態をアノテートする.アノテータは対話履歴を見ながら,各ユーザ発話から読み取れる知識・興味・対話意欲の有無をアノテートする.話者内部状態のアノテーションはあり/なしの2値\cite{yoshino-etal-2015-conversational,Inoue2018},もしくはあり/どちらでもない/なしの3値\cite{荒木2017}で行われることが多いが,本研究では有無を断定できない発話があることを考慮し,3値でのアノテーションを行う.アノテータは以下に示す3段階の選択肢(それぞれが1点,0点,$-1$点に対応)から設問に対して最も適切なものを選択する.\begin{description}\setlength{\leftskip}{1em}\item[設問:]発話から読み取れる内部状態を下記の選択肢から選んでください.\begin{itemize}\item\textbf{知識}:\{1:知識あり,0:特に読み取れない,$-1$:知識なし\}\item\textbf{興味}:\{1:興味あり,0:特に読み取れない,$-1$:興味なし\}\item\textbf{対話意欲}:\{1:対話への関与が積極的,0:どちらとも言えない,$-1$:対話への関与が消極的\}\end{itemize}\end{description}アノテーションは各発話に対して3人ずつで行う.アノテーションには458名のアノテータが参加した.スコアの集約では各アノテータの多数決を採るという方法もあるが,今回取り扱う話者内部状態では「知識がありそう」などのように,3段階の中にさらにそれぞれの中間的な状態があると考えられるため,3人のアノテータのスコアを合計した3から$-3$までの7段階のスコアをアノテーションとする.アノテーションした対話コーパスの例を表~\ref{tab:dialog_example}に,各内部状態のスコアの分布を表\ref{tab:statistics_internal_state}に示す.興味と対話意欲に関してはスコアが高い傾向にあったが,知識に関してはほぼ一様に分布している.本研究で扱う話者内部状態のアノテーションにはアノテータの主観が介入すると考えられる.そこで,アノテータ間の一致率を測ることでアノテーションの信頼性を検証する\footnote{458名のアノテータがアノテーションを行ったため,各アノテータの,他のアノテータとのアノテーションの一致率を評価した(付録\ref{sec:worker_reliability}).その結果,極端に信頼性が低いアノテータはごく少数であったため,付与したアノテーションはすべてそのまま使用した.}.ここではアノテータが各発話に対して3人であることと,アノテーションの尺度水準\cite{Stevens1946}が順序尺度とみなせることからKrippendorff's$\alpha$\cite{krippendorff04}を指標として用いる.Krippendorff's$\alpha$は2人以上のアノテータ間の一致度を求めるための指標で,スコア間距離(=不一致度)を尺度水準によって変更することができるため高い汎用性を持つ.本研究では順序尺度のスコア間距離を用いてKrippendorff's$\alpha$を計算する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\vspace{-0.5\Cvs}\input{05table05.tex}\caption{話者内部状態の分布(括弧内は発話数)}\label{tab:statistics_internal_state}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{05table06.tex}\caption{アノテータ間の一致率}\label{tab:annotator_agreement}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%全データ(\textit{Full}と呼ぶ)でのアノテータ間の一致率を表~\ref{tab:annotator_agreement}の\textit{Full}列に示す.いずれの内部状態についても$\alpha$は0.40程度であった.一般に社会学では$\alpha$が0.80を超える場合に信頼性を持ったデータであると結論付けることができる.しかし言語処理分野においては,マルチモーダル対話データに興味の有無をアノテーションした先行研究\cite{駒谷和範2018}で,尺度水準を間隔尺度としているため単純比較はできないものの,$\alpha$が0.50程度となっている.このアノテーションは専門家によって行われており,不特定多数の人間が参加できるクラウドソーシングによるアノテーションより品質が高いと考えられる.一方,\citeA{Mathieu-native2016}は母語話者と非母語話者のプレゼンテーション能力についてクラウドソーシングによるアノテーションを行っており,言語処理の主観評価タスクでは$\alpha$は0.40程度で妥当であると報告している.したがって,クラウドソーシングによってアノテーションを行った本研究の$\alpha$が0.40程度であるのは妥当であると考えられる.また,アノテータ間でスコアが$-1$と1とに割れている発話をコーパスから取り除いてフィルタリングしたデータを\textit{Filtered}とする.\textit{Filtered}のアノテータ間の一致率を表\ref{tab:annotator_agreement}の\textit{Filtered}列に示す.\textit{Filtered}データを用いることでアノテータ間の一致率の高い,品質の良いデータのみから学習できるという利点がある.その一方で,アノテータ間で意見が割れる難しい事例を取り除くことにもなるため,そうした事例が実際に出現した際に対応が出来ない可能性がある.そこで,\textit{Full}と\textit{Filtered}によって学習した推定器の精度を実験で比較し,フィルタリングの効果について検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験}
構築した対話コーパスを利用して,話者内部状態を推定しながらその結果に応じて応答を変更する対話システムを構築する.まず,コーパスから話者内部状態の推定を行う推定器を学習する.次にこの推定器をこれまでに構築した対話システムに組み込み,話者内部状態に応じて応答を変更できるようにする.最後に,構築した応答変更機能付きの対話システムで対話を収集し,その質の評価を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話者内部状態推定}\label{subsec:estimation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{話者内部状態推定器の作成}話者内部状態の推定にはBERT\cite{devlin-etal-2019-bert}を用いる.BERTはTransformer\cite{vaswani2017attention}をベースとし,大規模な生コーパスで事前学習した後,各タスクでfine-tuningすることで自然言語処理の様々なタスクでSOTAを達成している.本研究では,NICTBERT日本語Pre-trainedモデルBPEあり\footnote{\url{https://alaginrc.nict.go.jp/nict-bert/index.html}}を利用する.このBERTモデルは日本語Wikipedia全文に対して,半角を全角に正規化したのち,形態素分割およびsubword分割を行い,110万ステップpre-trainingしたものである.話者内部状態推定推定器を図\ref{fig:model}に示す.それぞれの話者内部状態の有無は,「あり」「なし」といったラベルで予測するより,「知識がありそう」などの中間状態を表現しやすい連続値のスコアで予測する方が良いと考え,分類モデルではなく回帰モデルで推定を行う.推定対象のユーザ発話とそれ以前の対話履歴を入力として対象のユーザ発話の話者内部状態推定スコアを出力する.具体的には,推定対象のユーザ発話の先頭と末尾にそれぞれ[CLS]トークンと[SEP]トークンを挿入し,対話履歴はより新しいものを左から順に最大512トークンまで入力する.また,各システム発話,ユーザ発話の前にはそれぞれ分離トークン[S],[U]を追加する.出力は[CLS]トークンに対応する768次元の隠れ状態ベクトルを1次元に線形変換を行った実数値が推定スコアとなる.3を上回る推定スコアは3に,$-3$を下回るスコアは$-3$に変換する.損失関数には二乗誤差関数を採用し,推定スコアと正解スコアの差が小さくなるように学習を行う.話者内部状態推定器は知識,興味,対話意欲のそれぞれ個別に学習を行い,合計で3つ作成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-1ia5f3.pdf}\end{center}\caption{話者内部状態推定器([S],[U]はそれぞれシステム発話,ユーザ発話の分離トークンを指す)}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{05table07.tex}\hangcaption{\textit{Full}および\textit{Filtered}の発話数.括弧内の数字はそれぞれ学習データ,開発データ,テストデータの発話数を表す.}\label{tab:utterances_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}対話コーパス1,060対話を学習データ:開発データ:テストデータ=8:1:1の割合で分割する.各データの発話数を表~\ref{tab:utterances_data}に示す.\textit{Filtered}は\textit{Full}と比べて約8割程度のデータ量であった.評価指標は以下の2つを用いる.\begin{itemize}\item\textbf{Acc}:推定スコアと正解スコアの差が$\pm0.5$以下である割合\item\textbf{BroadAcc}:推定スコアと正解スコアの差が$\pm1.5$以下である割合\end{itemize}Accは7値分類の正解率に,BroadAccは7値分類においてスコア$\pm1$まで誤差を許容した正解率に対応している.開発データを使用して,\citeA{devlin-etal-2019-bert}の設定に従い,下記の条件でfine-tuningのハイパーパラメータチューニングを行う.開発データでのAccが最も良い推定器を最終的な推定器として使用する.なおドロップアウト率は実験を通して0.1で固定する.その他のパラメータについては,NICTBERT日本語Pre-trainedモデルBPEありのデフォルトの値を用いる.\begin{itemize}\item\textbf{バッチサイズ}:{16,32}\item\textbf{学習率(AdamW\cite{loshchilov2018decoupled})}:{5e$-$5,3e$-$5,2e$-$5}\item\textbf{エポック数}:{2,3,4}\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{結果}各話者内部状態の推定結果を表\ref{tab:internal_state}に示す.$学\!\mathit{Full}$\,-$テ\!\mathit{Full}$は学習・テストともに\textit{Full}を用いる推定器で,いずれの内部状態においてもAccは30\%,BroadAccは70〜80\%程度であった.表~\ref{tab:statistics_internal_state}より知識,興味,対話意欲のマジョリティベースラインがそれぞれ15.6\%,22.2\%,20.4\%であることを考慮すると,各内部状態を妥当に推定できているといえる.次に\textit{Full}データで学習し,\textit{Filtered}のテストデータでテストを行った$学\!\mathit{Full}$\,-$テ\!\mathit{Filtered}$では$学\!\mathit{Full}$\,-$テ\!\mathit{Full}$と比較してAcc,BroadAccともに正解率が向上している.これは\textit{Filtered}がアノテーションの一致率が高い,つまり人間にとっても各話者内部状態の有無を認知しやすいデータとなっていて,推定がしやすくなったためであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{05table08.tex}\caption{ユーザ内部状態の推定結果.セル内の数字はパーセント表記.}\label{tab:internal_state}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,\textit{Filtered}データで学習を行った$学\!\mathit{Filtered}$\,-$テ\!\mathit{Full}$と$学\!\mathit{Filtered}$\,-$テ\!\mathit{Filtered}$はそれぞれ$学\!\mathit{Full}$\,-$テ\!\mathit{Full}$,$学\!\mathit{Full}$\,-$テ\!\mathit{Filtered}$と比べて,興味についてはAcc,BroadAccが多少下がっているものの,知識・対話意欲については向上している.フィルタリングにより学習データ量が減少しているにも関わらず,複数の内部状態で精度が向上していることから,データのフィルタリングは内部状態推定の精度向上に効果があることが分かる.興味については,元々知識や対話意欲と比べて推定精度が高いためフィルタリングによる効果が小さかったと推察される.また,表\ref{tab:annotator_agreement}より,フィルタリング後の興味のアノテータ一致率が知識や対話意欲と比べて低かったことも精度が上がらなかった原因であると思われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{分析}図~\ref{fig:diff_predict}に推定スコアと正解スコアの絶対誤差をシナリオのターン別にまとめる.例えば「タイトル提示」行の場合,システムがタイトルを提示した直後のユーザ発話を推定対象の発話としている.また,初期質問の有無により推薦映画の決定方法が異なるため,以下のように分割して考察する.\begin{description}\setlength{\labelsep}{0pt}\item[初期質問あり(成功)]:初期質問を行って,ユーザの好みに応じて推薦映画を決めた場合\item[初期質問あり(失敗)]:初期質問を行ったが,システムがランダムに推薦映画を決めた場合(ユーザの好みに合致する推薦映画が映画データベースになかった場合など)\item[初期質問なし]:初期質問を行わず,システムがランダムに推薦映画を決めた場合\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{28-1ia5f4.pdf}\end{center}\hangcaption{話者内部状態推定スコアと正解スコアの絶対誤差の平均値.角括弧内の数字はサンプル数を指す.また,各セル内の丸括弧内の数字はそれぞれサンプルの正解スコアの平均,不偏分散を示す.絶対誤差の値が大きいほど色が濃くなるようにカラースケールで色付けしている.}\label{fig:diff_predict}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図~\ref{fig:diff_predict}より「初期質問あり(成功)」の場合は知識,興味,対話意欲のいずれについても誤差が対話全体にわたって小さい.興味,対話意欲に関しては正解スコアの平均が2ポイント前後であり,「初期質問あり(成功)」は高い興味と対話意欲の獲得につながると考えられる.また知識についても「初期質問あり(失敗)」や「初期質問なし」と比較すると正解スコアの平均が1ポイント近く高くなっている.これは好きな俳優や監督などについての映画はある程度ユーザにも知識があるためと考えられる.このように平均的に各内部状態のスコアが高くなっているため,推定器も推測がしやすくなり,誤差が小さくなっていると推察できる.一方,知識の「初期質問あり(失敗)」と「初期質問なし」は対話が進むにつれて推定誤差が大きくなっている.例\ref{ex:es_error1}に実際の対話例を示す.最後のユーザ発話$U4$に対して正解スコアは$-2$,推定スコアは2.22であった.この$U4$のように陽に話者内部状態が読み取れない発話の場合は文脈の解釈が重要になる.その文脈からは,$U2$よりこのユーザは推薦された映画は見ていないことが分かり,$U4$の直前のシステム発話$S4$では映画の中のシーンの説明をしていることが分かる.つまり見ていない映画のシーンに関しては知識がないだろうと推定することができるが,この推定には知識の高度な構造化が必要である.この構造化に向けた知識の推定対象の詳細化は今後の研究課題である.\ex.\label{ex:es_error1}\a.[$S1$:]俳優の染谷将太と女優の菊地凛子夫妻に第2子が誕生したことが11日までにわかったと話題です\b.[$U1$:]おめでたいです\b.[$S2$:]染谷将太さん、「バクマン。」という映画に出演されていましたね\b.[$U2$:]バクマン。は観ていませんが確か漫画原作ですよね。\b.[$S3$:]話しも素直に友情、青春、ライバル関係、生い立ち等も分かりやすく展開され好感が持てますよ\b.[$U3$:]映画は数年前でしたか。DVDで観てみたいと思います。\b.[$S4$:]ちょっと分からないんですが、無駄なシーンが一切なく、サクサク進んでテンポがいいので、気持ちいいです\b.[$U4$:]期待できます。%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話および発話単位での評価}\label{subsec:evaluation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{話者内部状態推定の導入}話者内部状態の推定器を対話システムに導入する.知識・興味・対話意欲のそれぞれに対して有無を判定し,その結果に基づいて\ref{subsec:response_change}節で述べたようにシステムの応答を変更する.総合的な推定精度を重視して今後の実験では\textit{Filtered}データで学習した推定器を用いる.知識・興味・対話意欲の有無の判定は閾値を設け,正の閾値を上回ったらその内部状態について「あり」,負の閾値を下回ったらその内部状態について「なし」と判定する.本研究では,知識・興味については正の閾値を$1.5$,負の閾値を$-1.5$に,対話意欲については正の閾値を$1.0$,負の閾値を$-1.0$に設定した.また,適用すべき応答変更のルールが複数存在する場合は,推定スコアの絶対値が大きい内部状態での応答変更を優先して行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対話収集と対話単位での評価}話者内部状態推定による応答変更機能を組み込んだ対話システムで\ref{subsec:train_dialog_collection}節と同様にクラウドソーシングで299対話を収集した.また,比較対象として応答変更を行わないシステムでも297対話を収集した.この際,この2つのシステムに共通するモジュールを元の対話コーパス構築時から一部変更した.詳細は付録\ref{sec:function_change}に記す.対話終了後に推薦された映画の視聴経験があるかどうかについてワーカーにアンケートを行ったところ,全体の約67\%のワーカーは推薦された映画の視聴経験がなかった.また,映画推薦対話はタスク指向と非タスク指向の両方の性質を合わせ持っていると考えられる.本研究ではシステムの発話の自然さについて特に着目しているが,映画推薦としてのタスクの達成度を下げることなくシステム発話の自然さが向上することが望ましい.そこで,以下に示す3つの5段階リッカート尺度のアンケート(5が最高評価,1が最低評価)を実施した.\begin{description}\setlength{\itemsep}{-5mm}\item{(1)}\textbf{説得度}:推薦された映画を見たくなった\\\item{(2)}\textbf{自然さ}:システムの返答は自然だった\\\item{(3)}\textbf{満足度}:システムからの返答に満足した\\\end{description}アンケート結果を表\ref{tab:questionnaire}に示す.説得度については応答変更ありと応答変更なしの間で大きな差は見られなかった.一方,自然さについては応答変更ありの方が応答変更なしのスコアを0.26ポイント,満足度については0.19ポイント上回った.スコアの差が大きい自然さと満足度について有意水準を5\%とするウィルコクソンの順位和検定を行ったところ,それぞれp値は0.017と0.123となり,自然さについて有意にスコアが向上していることが分かった.この結果から,ユーザの内部状態を推定し,その結果に応じて応答を変更することで,映画推薦のタスクに関して一定の達成度を保ちつつ,システムの発話の自然さを向上させられたことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{05table09.tex}\caption{評価実験のアンケート結果.スコアは各ワーカーのスコアの平均値.}\label{tab:questionnaire}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{発話単位での評価}本システムで構築した対話システムは基本的にシナリオベースであるため,応答変更が起きている分岐点以外は応答変更ありと応答変更なしのシステムは全く同じ応答をする.そこで収集した評価用対話データからそれぞれの話者内部状態タイプの分岐点において,変更した応答と変更しなかった応答(=シナリオ通りの応答)をペアで抜き出し,ペアワイズで比較を行う.具体的には,応答変更ありの対話から抜き出す場合は使用したシナリオから応答を変更しなかった場合の発話を取り出して元の変更した応答と比較する.応答変更なしの対話から抜き出す場合は内部状態推定を行い,応答の変更が行われる分岐点を見つけ,変更した応答と変更しなかった元の応答を比較する.各話者内部状態タイプに対して応答ペアの抽出を行った結果を表\ref{tab:statistics_branch_points}に示す.応答変更あり対話と応答変更なし対話のそれぞれから最大15ペアずつ,合計最大30ペアずつサンプルし,評価に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{05table10.tex}\caption{各話者内部状態タイプの分岐点の統計情報}\label{tab:statistics_branch_points}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-1ia5f5.pdf}\end{center}\caption{クラウドソーシングによる発話評価の回答画面}\label{fig:pairwise}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%発話単位での評価についてもクラウドソーシングで実施する.クラウドソーシングの回答画面を図\ref{fig:pairwise}に示す.ワーカーは対話履歴と,変更した応答,変更しなかった応答を見てどちらが自然か選択する.ワーカーにはどちらが変更した応答かどうかは伏せてあり,「どちらの返事も同程度に自然で選べない」「どちらの返事も同程度に不自然で選べない」の2つの選択肢も追加した.1応答ペアごとに10人のワーカーで評価を行う.発話単位での評価実験の結果を表\ref{tab:naturalness_branch_points}に示す.全ての話者内部状態タイプで応答変更ありの方が自然さが上回っていることがわかる.この結果からも,提案した話者内部状態を推定し,その結果に応じて応答を変更することでより自然な返答ができる対話システムを構築できたといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{05table11.tex}\hangcaption{各話者内部状態タイプの自然さ.表内の数字はワーカーの評価の合計を,話者内部状態タイプの括弧内の数字はサンプル数を指す.}\label{tab:naturalness_branch_points}\vspace{-0.75\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{エラー分析}話者内部状態タイプ3,4については応答変更ありの方がスコアは高かったものの,その効果は他の話者内部状態タイプと比較すると低い.そこで,それぞれに対してその原因を分析する.\noindent\textbf{3.映画の知識がある}\quadこの話者内部状態タイプでは語尾を情報提供の口調の「よ」から同意口調の「よね」に変更する.「どちらも自然」のスコアがある程度高かったことを判断材料とすると,語尾の文字を1字変えただけでは大きな印象の差を与えられなかったと推察される.また,「どちらも不自然」のスコアも「応答変更あり」,「応答変更なし」と同程度に高かった.これはレビューから抽出してきた推薦ポイント文が文脈と合わなかったためと考えられる.例\ref{ex:rc_error3}にワーカー10名中6名が「どちらも不自然」と判定した例を示す.この例では応答を変更する直前にユーザが「もっと前の映画が好きです。」と言っているのにも関わらず,その発話を無視しているためシステムの発話が不自然に感じられたと考えられる.今後,文脈を用いて検索ベースで推薦ポイントを選択するなどの改善手法が考えられる.\vspace{-0.25\Cvs}\ex.\label{ex:rc_error3}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]好きな映画監督は誰ですか?\b.[$U$:]スピルバーグ\b.[$S$:]ではスティーヴン・スピルバーグさんが監督の映画を紹介しますね\b.[$U$:]お願いします。\b.[$S$:]「ブリッジ・オブ・スパイ」という映画です\b.[$U$:]知りませんが、どんな内容ですか。\b.[$S$:]2015年に公開された作品です。スティーヴンスピルバーグ監督にコーエン兄弟の脚本、主演がトムハンクスと期待せずにはいられない組み合わせに、見事に期待に応える良作だと評判ですよ\b.[$U$:]もっと前の映画が好きです。\b.[$S_\mathit{before}$:]ベルリンの壁、ベルリンにかかる橋、チェックポイント、東ベルリン街中などなど当時の感じを丁寧に表現撮影しており見ごたえがありますよ\b.[$S_\mathit{after}$:]ベルリンの壁、ベルリンにかかる橋、チェックポイント、東ベルリン街中などなど当時の感じを丁寧に表現撮影しており見ごたえがあります\underline{よね}\noindent\textbf{4.映画の深い知識がある}\quad映画の深い知識があると判断した場合,システムが推薦している映画をユーザが既に見たことがあると考え,視聴を促す発話を「是非もう一度見てみて下さい」といったように視聴経験があることを想定した発話に変更する.この場合では「どちらも不自然」のスコアはさほど高くないものの,「応答変更なし」のスコアが高くなっている.この原因としてはユーザの視聴経験の推定誤りが考えられる.例\ref{ex:rc_error4}ではユーザは「アウトレイジ」シリーズは視聴経験があるが,推薦映画である「アウトレイジ最終章」については視聴経験はない.システムは知識ありと判定してしまったが,このように視聴経験がないユーザに「是非もう一度見てみて下さい」と発話するのはかなり不自然に感じられる.\ex.\label{ex:rc_error4}\setlength{\SubExleftmargin}{3.5em}\a.[$S$:]お笑いタレントのビートたけしが30日放送のTBS「新・情報7DAYSニュースキャスター」にリモート生出演と話題となっています\b.[$U$:]そうなんですか。知らなかったです\b.[$S$:]はい、ビートたけしさん、「アウトレイジ最終章」という映画に出演されています\b.[$U$:]アウトレイジは見たことがあります。でも最終章はみてないかも\b.[$S$:]韓国フィクサーの立ち位置が今一つで、タケシも今までより控えめですが、西田敏行のズル賢い役者ぶりが目立ちますよね\b.[$U$:]韓国人がでてくるんですね\b.[$S$:]過去の出演者達がみんな歳をとって迫力不足だが、小心者のピエール瀧が今回は盛り上げてくれますよね\b.[$U$:]ピエール瀧がアウトレイジというのはなんだか真実味があります\b.[$S_\mathit{before}$:]是非見てみてください\b.[$S_\mathit{after}$:]是非\underline{もう一度}見てみてください%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{05table12.tex}\hangcaption{視聴経験の有無別の自然さ.表内の数字はアノテートの素点を,視聴経験の括弧内の数字はサンプル数を指す.}\label{tab:naturalness_branch_point3}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%発話評価に用いた30サンプルをそれぞれのユーザの視聴経験のアンケート結果を照らし合わせると,30サンプル中23サンプルが実際に「視聴経験あり」で正しく視聴経験を推定できていた一方で,残りの7サンプルが「視聴経験なし」で推定が誤っていた.表\ref{tab:naturalness_branch_point3}に,ユーザの実際の視聴経験の有無で自然さのスコアを比較した結果を示す.「視聴経験なし」は「応答変更なし」の方がスコアが高くなっており,発話の自然さに対するユーザの視聴経験の推定誤りの影響が大きいことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
本研究では相手の発話の適切な意図解釈に向けて対話中の話者内部状態のモデル化に取り組んだ.収集した対話データの分析結果から知識,興味,対話意欲の3つの軸で話者内部状態をモデル化した.また,モデル化した3つの内部状態をクラウドソーシングによって対話データにアノテートすることで対話コーパスを構築した.構築した対話コーパスで学習した話者内部状態推定器は,推定対象の話者の発話と対話履歴から提案した内部状態を高い精度で推定できることを示した.さらに,提案した話者内部状態に応じて応答を変更する対話システムの構築を行った.知識・興味・対話意欲それぞれの有無に応じて応答を適切に変更するルールを設計した.学習した話者内部状態推定器の推定結果を利用し,設計したルールに基づいて応答を適切に変更することで,より自然な応答を行えるシステムが構築できたことを対話単位での評価と発話単位での評価の両方で明らかにした.ニューラルネットワーク技術が発展してきた近年,ニューラルモデルにはモデルの振る舞いや予測根拠を明らかにする「説明可能性」が求められつつある.今後,我々も対話システムの全体をニューラル化することを検討しているが,その際にも本研究で行ったユーザ内部状態のモデル化はシステムの振る舞いの根拠として意味を持ち,「説明可能性」に向けた研究の足がかりになると考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentこの研究は国立情報学研究所(NII)CRISとLINE株式会社とが推進するNIICRIS共同研究の助成を受けて行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix
\section{アノテータ毎のアノテーションの信頼性}
\label{sec:worker_reliability}本節では話者内部状態アノテーション(\ref{subsec:annotation}節)におけるアノテータ毎のアノテーションの信頼性について述べる.アノテーションはクラウドソーシングによって行い,458名のアノテータが参加した.アノテータ毎のアノテーションの信頼性は他のアノテータとのアノテーションの一致率\textit{m}で測る.\textit{m}は以下の計算式で計算される.\[m=\frac{他のアノテータとアノテーションが一致した数}{当該アノテータによるアノテーション数}\]全データ(=\textit{Full})での平均一致率$\overline{m}$は0.51であった.一致率がチャンスレート($m=0.33$)を下回るアノテータをアノテーションの信頼性が低いアノテータとみなすとすると,今回の話者内部状態のアノテーションに参加した458名中,該当するアノテータは41名であった.割合に直すと全体の約9\%であり,アノテーションの信頼性が低いアノテータはごく少数であったと言える.実際,この41名を除外した場合のKrippendorff's$\alpha$\cite{krippendorff04}によって計算されるアノテータ間の一致率は,知識が0.45,興味が0.45,対話意欲が0.39と全データにおけるアノテータ間の一致率(知識:0.41,興味:0.40,対話意欲:0.35)(表\ref{tab:annotator_agreement}参照)と大きな差はなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{映画推薦対話システムの改良}
\label{sec:function_change}評価時の対話収集時に映画推薦対話システムの一部のモジュールを改良した.この節で述べる内容については評価時(\ref{subsec:evaluation}節)にのみ適用し,コーパス構築時には適用していない.\noindent\textbf{映画データベースの拡張}\\\quadまず,最新の映画についても推薦できるよう映画データベースに格納する映画情報を213作品から331作品へと増やした.\noindent\textbf{不適切な推薦ポイント文のフィルタリング}\\\quad次に,推薦ポイント文抽出の改善を行った.まず,これまでのword2vecでの手法によって抽出された推薦ポイント文について分析した.その結果「面白かったのでまた来週観に行きます」といったような人間の発話としては適切だが,対話システムの立場として不適切な文があることが分かった.そこで以下の条件を満たすレビュー文を推薦ポイント文の候補から除外した.\begin{description}\setlength{\leftskip}{1em}\item[条件1]:レビュー文中のいずれかの述語の主格が著者(=レビューを書いたユーザ)である\item[条件2]:条件1に該当する述語が意思性を持つ\item[条件3]:条件1に該当する述語が対話システムの立場として使用するのが不適切である\end{description}条件1ではレビュー文を既存の解析器を用いて述語の主格を特定することで判定する.解析器には\citeA{植田2020a}の\textit{Base+coref+noun+bridge}モデルを京都大学ウェブ文書リードコーパス(KWDLC)\cite{Hangyo2012a}と京都大学テキストコーパス\cite{Kawahara2002b}で学習したモデルを用いた.KWDLCのテストデータに対して,異なる初期値で実験を3回行った外界ゼロ照応解析の平均F1スコアは0.745であった.条件2については述語の品詞,意味,接尾辞(モダリティ・態),項にもとづき識別する\footnote{\url{https://github.com/ku-nlp/ishi}}.条件3は独自に選んだ全53単語からなる不適切述語リストに含まれているものとする.不適切述語リストは条件1,2に該当する述語全2,901種類の中から出現回数50回以上のもの103個を取り出し,対話システムの立場として使用するのが不適切であるかどうかという指標で著者らで選定した.\noindent\textbf{レビュー文の極性判定手法の変更}\\\quadレビュー文が映画を褒めているかどうかの極性判定の手法についても変更を行った.\citeA{saito-etal-2019-minimally}はイベント\cite{齋藤2018a}単位で極性を判定する手法を提案している.本研究ではこの極性判定器を利用し,レビュー文をイベント単位に分割し,文中の最も後ろのイベントの極性をそのレビュー文全体の極性とみなして極性判定を行う.極性のスコアは1から-1までの範囲で出力される(1が最もポジティブ,$-1$が最もネガティブ).この極性スコアと各文の文字数の積をスコアとし,推薦ポイント文の候補の中からスコア上位50文を抽出する.これを各映画について行い,各シナリオでは50文の中からランダムに2文を用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{児玉貴志}{%2019年京都大学工学部電気電子工学科卒業.2020年京都大学大学院情報学研究科博士前期課程修了.同年より同大学院情報学研究科博士後期課程に進学,現在に至る.修士(情報学).自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{田中リベカ}{%2013年お茶の水女子大学理学部情報科学科卒業.2015年同大学院博士前期課程修了.2018年同博士後期課程単位修得退学.同年より京都大学大学院情報学研究科特定研究員.}\bioauthor{黒橋禎夫}{%1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V16N03-03
|
\section{はじめに}
\subsection{背景\label{haikei}}事物の数量的側面を表現するとき,「三人」,「5個」,「八つ」のように,「人」,「個」,「つ」という付属語を数詞の後に連接する.これらの語を一般に助数詞と呼ぶ.英語などでは``3students'',``5oranges''のように名詞に直接数詞が係って名詞の数が表現されるが,日本語では「3人の学生」,「みかん五個」のように数詞だけでなく助数詞も併せて用いなければならない.形態的には助数詞はすべて自律的な名詞である数詞に付属する接尾語とされる.しかし,助数詞の性質は多様であり,一律に扱ってしまうことは統語意味的見地からも計算機による処理においても問題がある.また構文中の出現位置や統語構造によって,連接する数詞との関係は異なる.つまり,数詞と助数詞の関係を正しく解析するためには1)助数詞が本来持つ語彙としての性質,そして2)構文中に現れる際の文法的な性質について考慮する必要がある.KNP~\cite{Kurohashi}やcabocha~\cite{cabocha}などを代表とする文節単位の係り受け解析では,上記のような数詞と助数詞の関係は同じ文節内に含まれるため,両者の関係は係り受け解析の対象にならない.ところが,単なる係り受け以上の解析,例えばLexicalFunctionalGrammar(以下,LFG)やHead-drivenPhraseStructureGrammar(以下,HPSG)のような句構造文法による解析では,主辞の文法的役割を規程する必要がある.つまり文節よりも細かい単位を対象に解析を行うため,名詞と助数詞の関係や数詞と助数詞の関係をきちんと定義しなければならない.上記のような解析システムだけでなく,解析結果を用いた応用アプリケーションにおいても助数詞の処理は重要である.\cite{UmemotoNL}で紹介されている検索システムにおける含意関係の判定では数量,価格,順番などを正しく扱うことが必要とされる.\subsection{\label{mokuteki}本研究の目的}本稿では,数詞と助数詞によって表現される構文\footnote{但し,「3年」,「17時」など日付や時間に関する表現は\cite{Bender}と同様にこの対象範囲から除く.}を解析するLFGの語彙規則と文法規則を提案し,計算機上で実装することによってその規則の妥当性と解析能力について検証する.これらのLFG規則によって出力された解析結果(f-structure)の妥当性については,下記の二つの基準を設ける.\begin{enumerate}\item{他表現との整合}\\統語的に同一の構造を持つ別の表現と比較して,f-structureが同じ構造になっている.\item{他言語との整合}\\他の言語において同じ表現のf-structureが同じ構造になっている.\end{enumerate}\ref{senkou}章では助数詞に関する従来研究を概観し,特に関連のある研究と本稿の差異について述べる.\ref{rule}章では助数詞のためのLFG語彙規則と助数詞や数詞を解析するためのLFG文法規則を提案する.\ref{fstr}章では\ref{rule}章で提案したLFG規則を\cite{Masuichi2003}の日本語LFGシステム上で実装し,システムによって出力されるf-structureの妥当性を上記の二つの基準に照らして検証する.日本語と同様にベトナム語や韓国にも日本語のそれとは違う性質をもった固有の数詞と助数詞が存在する\cite{yazaki}.また,日本語の助数詞は一部の語源が中国語にあるという説もあり,その共通性と差異が\cite{watanabe}などで論じられている.そこで,ParallelGrammarProject\cite{Butt02}(以下,ParGram)においてLFG文法を研究開発している中国語LFG文法\cite{ji}で導出されたf-structureを対象にして,基準2を満たしているかを確認するために比較を行う.``3~kg''の`kg'や,``10dollars''の`dollar'など,英語にも数字の後に連接する日本語の助数詞相当の語が存在する.また,日本語においても英語のように助数詞なしに数詞が直接連接して名詞の数量を表現する場合もある.ParGramにおいて英語は最初に開発されたLFG文法であり,その性能は極めて高い\cite{Riezler}.ParGramに参加する他の言語は必ず英語のf-structureとの比較を行いながら研究を進める.以上のことから,中国語だけではなく\cite{Riezler}の英語LFGシステムで出力されたf-structureとの比較を行う.\ref{hyouka}章では精度評価実験を行って,解析性能を検証する.数詞と助数詞によって形成される統語をLFG理論の枠組みで解析し,適切なf-structureを得ることが本研究の目的である.
\section{\label{senkou}先行研究}
国語学や言語学の分野において,助数詞に関する研究は古くから行われてきた.また,文法的な性質だけでなく,助数詞や助数詞の数える対象である名詞との関係に着目して,意味的な分類を行う試みもある.さらに,自然言語処理の分野では助数詞の特徴を考慮して処理を行う解析手法が提案されている.本章では助数詞の文法に関する研究,助数詞の分類に関する研究,助数詞を対象にした自然言語処理についてそれぞれ概観する.\subsection{助数詞の文法に関する研究}日本語助数詞の代表的な研究に\cite{kenbo}が挙げられる.形態的には「最も単純な品詞」とされてきた助数詞であるが用法の点では助数詞の振る舞いが複雑多様であることを指摘した上で,その個別的な用法を用例に即して紹介している.\cite{kenbo}では世の中には生活の必要に応じていろいろな物の数え方があり,生活の新しい場面,新しい話題に即して新しい助数詞が生まれると述べられている.その一方で明治の始まる前後までは助数詞として用いられてきたが,現在はその機能が失われている語の例が指摘されている.このような「助数詞の用いられ方の変化」に着目し,\cite{ogino}は大規模なアンケートを実施して,助数詞の実際の用いられ方について調査を行った.さまざまな年代,さまざまな職種の男女半数づつ計425人に対して行われたアンケート結果から年齢層別の助数詞の使われ方の差異を明らかにしている.さらに\cite{tanihara}では\cite{ogino}の調査結果に基づき,5つの助数詞の典型的な用法について考察している.助数詞を数詞に連接する付属語ではなく数詞の語尾とする研究もある\cite{morishige}.しかし,本稿では二つの理由からこの立場は採用しない.一つは,助数詞に関する様々な現象を説明するのに,語尾という考え方は不適切であると考えるからである.\cite{kenbo}で指摘されているような多様性や可変性を説明するのに,数詞と助数詞は独立した語であると考えるのが自然である.もう一つは,LFG規則を実装する日本語LFGシステムにおいて,形態素解析に茶筌\cite{chaurl}を用いているためである.茶筌では数詞と助数詞を明確に分けている\footnote{但し,「一つ」,「二つ」のような数詞と助数詞「つ」,及び「一筆」,「四方八方」のような名詞として定着している数詞と助数詞については,まとめて一つの名詞としている.}.本稿で扱う対象ではないが,日本語数量詞の大きな研究課題の一つに数量詞遊離構文の問題がある\cite{okabe}.遊離数量詞とは(a)「3個のりんごを食べた」(b)「りんごを3個食べた」の(b)のような構文である.この構文をめぐって,(a)の連体数量詞文との置換の可否や,その決定要因,また(a),(b)の表現の意味やニュアンスの違いについて様々な先行研究が分析や解釈を行っている.これらの課題を解決するためには,文法的な関係というよりはむしろ数量表現とそれが指す名詞や動詞などの意味関係に着目しなければならない.\subsection{助数詞の分類に関する研究}\cite{Yo93}はプロタイプ理論に基づいて,認知意味論的な立場から,助数詞の分類を試みている.\cite{Iida}は,助数詞ならびに助数詞と同じ働きをする名詞600語に対し,数えられる対象や同じ対象を数える助数詞群の共通点や差異について解説を行っている.\cite{Sirai}は\cite{Iida}に記載されている助数詞cとそれが数える名詞nを書き起こしたデータから一つのcが二つ以上のnとペアになっているもの計9,352組を用いて,自動的に助数詞オントロジーを構築する手法について提案している.\subsection{助数詞を対象とした自然言語処理に関する研究}\cite{Bond}は翻訳などのアプリケーションに必要となる日本語文生成の際に,オントロジーを用いて名詞の意味的な情報を参照し助数詞を選択する手法について提案している.英語でも``tenfeetlong''の`feet'や``twoshelveshigher''の`shelves'のように日本語の助数詞に似た数量表現が存在する.\cite{Dan}はこのような表現を対象にしてHPSGシステム上で解析を行う手法を提案している.上記と同様にHPSGに関する研究ではあるが,本稿に最も関連のある先行研究は\cite{Bender}である.\cite{Bender}は日本語HPSG文法において助数詞を解析し,適切な解析結果,すなわちMinimalRecursionSemantics(以下,MRS)を出力する手法について提案している.本研究も基本的な目的は同様であるが,次の点が異なる.まず,\cite{Bender}では網羅的な助数詞の処理を提案していながら,MRSについての考察は主に対象となる名詞を数え上げるための助数詞に限定されていることである.本稿では,その他の助数詞についても考察を行う.さらに,助数詞が省略されていてもその省略の有無に関係なく同一のf-structureを導出する文法や助数詞の性質を変化させる接頭辞や接尾語を考慮した文法について提案する.また,二つの基準を設定してf-strucrtureの妥当性を検討することも本稿の特徴である.さらに\cite{Bender}には,提案されている語彙規則(typehierarchy)に助数詞をどのように割り当てるかの具体的な記述がない.本稿では,LFGの語彙規則(lexicalcategory)に語を割り当てる方法についても言及する.また,本稿では,今回提案した文法がどのくらい網羅的に実際のテキストを処理できるかを検証するための精度評価実験を行う.
\section{\label{rule}助数詞のための日本語LFG規則}
\subsection{\label{rule-intro}LFG規則の表記法について}提案規則の詳細について述べる前に,この節ではLFG規則の表記方法について説明する.LFG規則は語彙規則と文法規則によって定義される.語彙規則では,f-structureの素性に対応するSUBJ(ect)やOBJ(ect)などの引数(argument)やlexicalcategory,属性と属性値などを定義する.(\ref{lex-intro})に語彙規則の例を示す.1行目は動詞「読む」にVというlexicalcategoryが割り当てられており,PRED(icate)「読む」はargumentにSUBJとOBJという二つの引数を持つことが記述されている.2行目には名詞「太郎」のlexicalcategoryがNでありPREDが「太郎」であることが記述されている.3行目には名詞「本」のlexicalcategoryがNでありPREDが「本」であることが記述されている.4行目には格助詞「が」のlexicalcategoryがPPであり,主格を示す属性NOM(inative)とその値`+'を持つことが記述されている.5行目には格助詞「を」のlexicalcategoryがPPであり,目的格を示す属性ACC(usative)とその値`+'を持つことが記述されている.\begin{example}\label{lex-intro}\begin{tabular}[t]{lccl}読む\quad\quad&V&&PRED=`読む$\langle$($\uparrow$SUBJ)($\uparrow$OBJ)$\rangle$'\\太郎\quad\quad&N&&PRED=`太郎'\\本\quad\quad&N&&PRED=`本'\\が\quad\quad&PP&&($\uparrow$NOM)=+\\を\quad\quad&PP&&($\uparrow$ACC)=+\\\end{tabular}\end{example}\begin{example}\label{grammar-intro}\begin{tabular}[t]{lccc}S$\longrightarrow$&NP\*&&V\\&\{($\uparrow$SUBJ)=$\downarrow$\space($\uparrow$NOM)=$_c$+$|$($\uparrow$OBJ)=$\downarrow$\space($\uparrow$ACC)=$_c$+\}&&$\uparrow$=$\downarrow$\\[2ex]NP$\longrightarrow$&N\*&&PP\\&$\uparrow$=$\downarrow$&&\\[2ex]\end{tabular}\end{example}\begin{figure}[b]\begin{center}\includegraphics{16-3ia3f1.eps}\end{center}\caption{LFG規則の適用例}\label{lfg-intro}\end{figure}文法規則は,句構造規則とそれに付与される機能的注釈で表現される.注釈において用いられる`$\uparrow$'という記号は句構造の一つ上の節点に存在するf-strucutreを,`$\downarrow$'は現在の節点のf-structureを指す.(\ref{grammar-intro})に(\ref{lex-intro})の語彙規則を含む文法規則を示す.1行目の句構造規則では,0個以上のNPとVがSになることを定義している.Vに付与されている注釈はVのPREDが一つ上,すなわち文全体のPREDであることを定義している.NPに付与されている注釈はNOM属性の値が`+'であればNPの値が一つ上のSUBJに,ACC属性が`+'であればOBJになることを定義している.2行目の句構造規則では,NとPPがNPになることを定義している.Nに付与されている注釈はPREDが一つ上の節点であるNPのPREDであることを定義している.(\ref{lex-intro})の語彙規則と(\ref{grammar-intro})の文法規則を「太郎が本を読む」の解析に適用すると,\pagebreak図\ref{lfg-intro}に示すように句構造規則によってc-structureの木構造が形成されると同時に,機能的注釈によって属性と属性値で表現されるf-structureが生成される.\subsection{\label{lex}助数詞のための語彙規則}表\ref{lexical-table}に助数詞の語彙カテゴリの一覧を示す.本稿では助数詞が数詞に持たせる数の性質(基数/序数)という側面から「数量」,「順番」という二つの語彙カテゴリを設定する.また,\cite{kokugojiten}では単位名を表す「メートル」,「円」などを助数詞に含めないとする説があることを紹介しているが,文法的には同じ働きをすることが指摘されている.本稿ではこの立場から,これらの語も助数詞とする.ただし,上述の二つのカテゴリとは別に「単位」,「通貨」という項目を設け,さらに数詞との位置関係から通貨を細分類した.それぞれの語彙カテゴリについて以下に述べる.\begin{table}[b]\caption{助数詞の語彙カテゴリ一覧}\label{lexical-table}\input{03table01.txt}\end{table}単位に関する語彙カテゴリは,計測する対象の計測基準量を表す助数詞に割り当てられる.日本語LFGシステムにおいてこの語彙カテゴリにはEDR概念辞書\cite{edr}の接尾語のうち,単位に分類されている語から「ヶ月」,「週目」などの時間に関する語を除いた計659語を採用する.助数詞の中には単独で名詞として働く語も存在する.「身長を\underline{\mbox{cm}}で,体重は\underline{\mbox{Kg}}で入力して下さい」や「対\underline{ユーロ}で\underline{ドル}が下落している」など,単位や通貨も数詞を伴わずに単独で名詞として用いられる場合がある.従って,このカテゴリの語には単に助数詞としての語彙ルールだけではなく,名詞としてのカテゴリも割り当てる.さらに,助数詞として働く場合でも名詞の属性であるNTYPEを付与する.これは,後述する英語のf-structureと平行にするためでもある.通貨に関する語彙カテゴリは\cite{Bender}と同様にその語彙的な特徴から二つに分ける.まず,数詞の後に連接する後置詞,つまりいわゆる助数詞とほぼ同じふるまいをする語群である.この語彙カテゴリに属する語はEDR概念辞書の「計量の単位」(概念ID`30f93d')の下位概念である「金銭の単位」(概念ID`4446bd')の直下にある語を採用した.ただし,これらの語のうち「両」や「文」など通貨の単位ではあるものの現在ほとんど使われておらず,助数詞の他のカテゴリに分類した方が適切であると判断した語は除いた.一方,数詞の前に連接する前置詞のカテゴリにはコーパスを観察した結果得られた3語だけが割り当てられている.これらの語は助数詞というよりは純粋な名詞,もしくは記号としての性質が強い.しかし,通貨に関する数量表現の整合を考慮して,これらの語にも語彙カテゴリと文法ルールを割り当てた.通貨も単位と同様の理由から名詞のカテゴリも割り当て,NTYPE属性も付与する.数量に関する語彙カテゴリはもっとも典型的な助数詞と言える語に割り当てるカテゴリである.このカテゴリには,助数詞の表層を示すCLASSIFIER-FORM属性と助数詞の性質を示すCLASSIFIER-TYPE属性を付与する.このカテゴリに属する語はIPA辞書\cite{ipadicurl}に登録されている接尾語のうち,数えられるものを特徴づける語を人手で選別した.順番に関する語彙カテゴリは物事の順序を示す助数詞である.このカテゴリにもCLASSIFIER-FORMとCLASSIFIER-TYPE属性を与える.このカテゴリには,英語の序数を英訳したときに用いられる語である「等」,「位」,「号」,「級」,「流」及びIPA辞書において品詞が助数詞として定義されている語のうち「目」,「番」,「次」を含む語で,単位を示す「貫目」,「次元」を除いた語を採用した.\subsection{\label{grammar}助数詞のための文法規則}表\ref{grammar-table}に助数詞の語彙カテゴリの一覧を示す.本節では数詞が助数詞もしくは名詞に連接して数量を表現している構文を解析するための文法について述べる.助数詞の語彙カテゴリは\ref{lex}節のものを用いる.\begin{table}[b]\caption{助数詞を解析するための文法規則一覧}\label{grammar-table}\input{03table02.txt}\end{table}\subsubsection{単位や通貨に関する文法規則}単位や通貨に関する文法規則を(\ref{grammar-unit})に示す.単位や通貨を表す助数詞が数詞と連接する場合には,助数詞をPREDとし,数詞がそれを修飾する.これは英語の``3~kg''や``10dollars''のf-structureとの整合性を図ると同時に,\ref{lex}節でも述べたようにこれらの助数詞が接尾辞というよりもむしろ独立した名詞としての性質が強いと考えるからである.単位・通貨は修飾先の名詞の属性について述べるために用いられる.例えば「60デニールのストッキング」であれば「60デニール」はストッキングの数量ではなく,「繊維密度」を表現しているのであり,「300円のストッキング」の「300円」はストッキングの「価格」を表現している.つまり「60デニール(という繊維密度)のストッキング」,「300円(という価格)のストッキング」と解釈できる.従って,「60」や「300」などの数詞は直接「ストッキング」を修飾しているのではなく,「デニール」や「円」を修飾しているとして解析するのが妥当である.さらに,通貨を示す接頭語が数詞に連接する表現を解析する文法を(\ref{grammar-currency})に示す.これも上記と同じ理由から接頭語をPREDとし,数詞がそれを修飾する.\begin{example}\label{grammar-unit}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&(NUMBER)&&\{CL\_unit$|$CL\_currency\}\\&($\uparrow$SPECNUMBER)=$\downarrow$\hspace*{.3cm}&&($\uparrow$PRED)=$\downarrow$\\[2ex]\end{tabular}Nadj:体言\quadNUMBER:数詞\quadCL\_unit:単位に関する助数詞\quadCL\_currency:通貨に関する助数詞():省略可能$|$:ORPRED:主辞SPEC:指定部\end{example}\begin{example}\label{grammar-currency}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&CL\_Pref\_currency&&NUMBER\\&($\uparrow$PRED)=$\downarrow$&&($\uparrow$SPECNUMBER)=$\downarrow$\\[2ex]\end{tabular}CL\_Pref\_currency:通貨に関する接頭語\end{example}\subsubsection{数量に関する文法規則}数量を表す助数詞は,数詞の中でも「もの」や「こと」の数量を表現するのに用いられる典型的なものである.「3個のりんご」や「3箱のりんご」の「3個」や「3箱」はいずれもりんごの数や量を表している.単位・通貨とは異なり,数詞「3」は「りんご」を直接修飾していると考えられる.つまり,助数詞は「数え方」を表現するために補助的に用いられる接尾語として扱う.この場合,「個」と「箱」の数え方の違いはf-structureの構造そのものには反映されないが,助数詞の表層を属性値として表現することで,オントロジなどの知識源を利用した意味解析や文脈解析の処理を利用してより詳細な数え方の違いを扱うことを想定している.数量に関する文法規則は,数詞と助数詞だけではなく,それによって数えられる名詞についても記述する必要がある.例えば「りんご3個」と「3個のりんご」はそれぞれ「3個」が「りんご」の数を表しているため,これらの解析結果は同じであることが望ましい.(\ref{grammar-card1})に「3個のりんご」と「りんご3個」を解析するための文法規則を示す.この規則ではPREDはりんごであり,その数が3であると解析する.これは英語の``3apples''と同じf-structureを持たせることを意図した分析である.\begin{example}\label{grammar-card1}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&\{NPnum&&Nadj\\&($\uparrow$SPECNUMBER)=$\downarrow$&&($\uparrow$PRED)=$\downarrow$\\[2ex]&$|$Nadj&&Nnumeric\}\\&($\uparrow$PRED)=$\downarrow$&&($\uparrow$SPECNUMBER)=$\downarrow$\\[2ex]\end{tabular}\begin{tabular}[t]{lccccc}NPnum$\longrightarrow$&Nnumeric&&PPadnominal\\&($\uparrow$PRED)=$\downarrow$\hspace*{.3cm}&&\\[2ex]\end{tabular}\begin{tabular}[t]{lccccc}Nnumeric$\longrightarrow$&NUMBER&&CL\_cardinal\\&($\uparrow$PRED)=$\downarrow$\hspace*{.3cm}&&($\uparrow$NUMBER-TYPE)=cardinal&&\\[2ex]\end{tabular}CL\_cardinal:数量に関する助数詞\quadPPadnominal:連体化助詞\end{example}また「3個の値段」,「3個を食べた」など,数える対象である名詞が省略され,数詞と助数詞が単独で現れる場合もある.このような現象を解析するための文法規則を(\ref{grammar-card2})に示す.この文法規則ではPREDには代名詞を示す記号`PRO'を挿入し,その属性に表層が無いことを示す属性値nullを与える.この操作によって,名詞の省略の有無によらず同じ構造のf-structureを出力することができる.上述(\ref{grammar-card1})と下記の(\ref{grammar-card2})の二つの規則は数詞と助数詞に同時に適用される.体言には(\ref{Nadj})に示すように連体化助詞による連体修飾のための規則も定義されていることから,数量に関する表現が連体化助詞によって連体修飾を行う場合には,常に二つのf-structureが出力される.\begin{example}\label{grammar-card2}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&Nnumeric&&e\\&($\uparrow$SPECNUMBER)=$\downarrow$\hspace*{.3cm}&&($\uparrow$PRED)=`pro'\\&&&($\uparrow$PRON-TYPE)=null\\[2ex]\end{tabular}e:省略記号\end{example}\begin{example}\label{Nadj}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&NPadnominal&&Nadj\\&($\uparrow$ADJUNCT)$\ni$$\downarrow$\hspace*{.3cm}&&($\uparrow$PRED)=$\downarrow$\\[2ex]\end{tabular}\begin{tabular}[t]{lccccc}NPadnominal$\longrightarrow$&Nadj&&PPadnominal\\&($\uparrow$PRED)=$\downarrow$\hspace*{.3cm}&&\\[2ex]\end{tabular}ADJUNCT:修飾成分\end{example}また,上述とは逆に,「3自衛隊」や「7競技」のように助数詞を伴わずに直接数詞が名詞に連接してその数を表すことがある.このような現象を解析するための文法規則を(\ref{grammar-card3})に示す.この文法規則では助数詞の表層を表すCLASSIFIER-FORM属性に表層が無いことを示す属性値`null'を与えることにより,助数詞の有無によらず同じ構造のf-structureを出力することができる.\begin{example}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&NUMBER&e&N\\&($\uparrow$SPECNUMBER)=$\downarrow$\hspace*{.3cm}&($\uparrow$CLASSIFIER-FORM)=null&($\uparrow$PRED)=$\downarrow$\\\label{grammar-card3}\end{tabular}N:名詞\end{example}\subsubsection{順番に関する文法規則}数詞が順番を示す表現は主に三つが想定される.まず一つは\ref{lex}節で挙げた順番に関する助数詞が連接した場合である.このような構文に対しては(\ref{grammar-card1})の文法がほぼそのまま適用できる.もう一つは接尾辞や接頭辞の連接によって数詞や助数詞の性質が変化する場合である.これは,「3人目」,「5回目」のように数量を表す助数詞に接尾辞「目」が連接する場合と「第3章」,「第1回」など数詞の前に接頭辞「第」が連接する場合がある.さらに,「第3回目」,「第5次」など,接頭辞は助数詞が順番を示していても任意に連接する場合がある.これらの現象を解析するための文法規則を(\ref{grammar-ord1})に示す.助数詞の属性値が基数を示すcardinalであっても,数詞の示す数の性質は基数から序数に変化する.従って,語彙ルールには接尾辞によって数詞の属性NUMBER-TYPEが序数を示す値ordinalになる可能性について記述しておく必要がある.(\ref{grammar-ord2})に数量を示す助数詞「回」の語彙規則の記述例を示す.\begin{example}\label{grammar-ord1}\begin{tabular}[t]{lccc}Nnumeric$\longrightarrow$&CL\_Pre\_ord&NUMBER&CL\_cardinal\\&\{($\uparrow$NUMBER-TYPE)=ordinal&($\uparrow$PRED)=$\downarrow$&\\&$|$($\uparrow$NUMBER-TYPE)=$_c$ordinal\}&&CL\_Post\_ord\\&&&\vtop{\hbox{($\uparrow$NUMBER-TYPE)}\hbox{\quad=ordinal}}\end{tabular}CL\_Pre\_ord:第CL\_Post\_ord:目\end{example}\begin{example}\label{grammar-ord2}\begin{tabular}[t]{lccc}回\quad\quad&CL\_cardinal&&\{($\uparrow$NUMBER-TYPE)=cardinal\\&&&$|$($\uparrow$NUMBER-TYPE)=$_c$ordinal\}\\\end{tabular}$_c$:制約条件の相等\end{example}さらに接頭辞「第」は「第3の男」,「第6のコース」のように助数詞を伴わない単独の数詞に連接して数の性質を序数にする場合がある.このような現象を解析するための文法規則を(\ref{grammar-ord3})に示す.\begin{example}\label{grammar-ord3}\begin{tabular}[t]{lcccc}Nadj$\longrightarrow$&CL\_Pre\_ord&&NUMBER\\&($\uparrow$NUMBER-TYPE)=ordinal&&($\uparrow$PRED)=$\downarrow$\\\end{tabular}\end{example}\subsubsection{機能的関係と照応的関係について}\cite{Bender}は,可算名詞を修飾する助数詞の処理において,「猫を2匹飼う」のように,格助詞「を」に連接するNPの後に単独で現れる数詞と助数詞をNPの修飾要素として扱う文法規則を提案している.しかし,本稿の文法規則はこのように数詞と助数詞が単独で現れる場合には助数詞の修飾先として代名詞を示す記号`PRO'を挿入する.これは,「2匹」と「猫」の関係が統語機能的な修飾関係にあるのではなく,照応関係にあると考えるからである.\cite{Bresnan01}では,f-structureでは統語機能的関係を表現すべきであり,照応的な関係はその対象としないと述べているが,本稿もこの立場から文法規則を設計した.日本語構文では数量表現が指すNPが必ず数量表現の直前に現れるとは限らない.例えば「猫をマンションで2匹飼っていた」のように,「2匹」の係り先が構文中の任意の場所に現れる可能性がある.\cite{Bender}の文法規則では修飾先のNPが直前に現れない場合は数量詞の修飾を特定しない.つまり本稿と同様に照応的な関係として解析する.しかしその結果,「猫をマンションで2匹飼っていた」と「マンションで猫を2匹飼っていた」の解析結果が異なることになる.本稿では,こういった単なる語順の違いにf-structureが影響されないことを配慮している.
\section{\label{fstr}f-structureの妥当性の検討}
\subsection{日本語LFGシステムの構成}LFG規則の妥当性の検証と解析精度の評価実験を行う処理は\cite{Masuichi2003}に改良を加えて拡張した日本語LFG解析システムを用いる.図\ref{kousei}に,本稿で用いる日本語LFGシステムの構成を示す.まず日本語入力文が日本語taggerに渡される.日本語taggerではChaSen\linebreak\cite{chaurl}による形態素解析が行われる.その結果に表層文字列や品詞情報を利用した形態素区切りの修正ルールを適用し,修正された形態素列に品詞情報を利用したアノテーションルールによってtagを付与する.tagが付与された形態素列をXeroxLinguisticEnvironment(XLE)に入力する.XLEはLFG理論の仕様をほぼ完全に実装した処理系である\cite{Maxwell93}.日本語システムは大きく分けて3種類のデータで構成されている.一つはメモリ容量や探索深さ,LFG規則の優先順位などの設定を定義するデータ群である.二つ目はLFGの文法理論に沿って実装された文法規則群である.\ref{grammar}章で提案した文法規則群は名詞句に関する文法規則に追加されている.三つ目は語彙規則群である.\ref{lex}章で提案した助数詞に関する語彙規則はここに追加されている.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f2.eps}\end{center}\caption{日本語LFGシステムの構成}\label{kousei}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f3.eps}\end{center}\caption{「100ドルを両替した。」と「ドルを両替した。」のf-structure}\label{currency}\end{figure}\subsection{他表現のf-structureとの比較\label{fstr-j}}本節では\ref{rule}章で提案したLFG規則が導出するf-structureが\ref{mokuteki}節で設定した基準1を満たしているかを検証するために,同じ統語意味構造を持ちながらも語順の変化や省略によって表層形が異なった構文のf-structureを比較する.一般に通貨や単位は数詞を伴わないで単独の名詞として用いられる例も多い.そこで通貨の助数詞が数詞を伴う構文「100ドルを両替した。」に対して文法規則(\ref{grammar-card1})を適応して導出したf-structureと数詞を伴わない構文「ドルを両替した。」のf-structureを図\ref{currency}に示す.両者を比較すると同じ構造を持っていることが分かる.次に数量に関する表現のf-structureについて検討する.数量を表現する文法規則は\ref{grammar}節の文法規則(\ref{grammar-card1})と文法規則(\ref{grammar-card2})があり,これらは同時に適用されるので必ず2通りのf-structureが出力される.「3箱の煙草」について図\ref{3box-a}に文法規則(\ref{grammar-card1})によって導出されたf-structureを図\ref{3box-b}に文法規則(\ref{grammar-card2})によって導出されたf-structureを示す.図\ref{3box-a}のf-structureで「煙草」のSPECのNUMBER属性中のPREDが「3」になっているのは,煙草の数量が3であることを表現している.従って,正しいf-structureは文法規則(\ref{grammar-card1})によって導出された図\ref{3box-a}のf-structureである.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f4.eps}\end{center}\caption{文法規則(\ref{grammar-card1})によって導出された「3箱の煙草」のf-structure}\label{3box-a}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f5.eps}\end{center}\caption{文法規則(\ref{grammar-card2})によって導出された「3箱の煙草」のf-structure}\label{3box-b}\end{figure}さらに,助数詞を伴わず直接数詞が名詞を修飾してその数を表す場合も,文法規則(\ref{grammar-card3})によって図\ref{3box-a}と同じ構造のf-structureで表現される.図\ref{3meigara}に「3銘柄」のf-structureを示す.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f6.eps}\end{center}\caption{文法規則(\ref{grammar-card3})によって導出された「3銘柄」のf-structure}\label{3meigara}\end{figure}しかし,数詞の数える対象が係り先の名詞ではない場合がある.例えば,「3箱の値段」という表現において数詞「3」の数える対象は「値段」ではない.この名詞句の解釈は「3箱の何か(例えば煙草)の値段」とするのが妥当である.図\ref{3box-c}と図\ref{3box-d}に「3箱の値段」のf-structureを示す.文法規則(\ref{grammar-card2})によって導出された図\ref{3box-d}のf-structureでは表層が省略されていることを現すPRON-TYPEの属性値nullを持つ代名詞`pro'の数量として表現されている.つまり,図\ref{3box-d}のf-structureが「3箱の値段」の正しい統語意味構造を表している.また,数量表現が係り先の名詞を伴わずに単独で現れる場合も(\ref{grammar-card2})によって適切なf-structureを出力する.例として「彼が選んだ3箱」のf-structureを図\ref{3box-tandoku}に示す.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f7.eps}\end{center}\caption{文法規則(\ref{grammar-card1})によって導出された「3箱の値段」のf-structure}\label{3box-c}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f8.eps}\end{center}\caption{文法規則(\ref{grammar-card2})によって導出された「3箱の値段」のf-structure}\label{3box-d}\end{figure}次に,順序を示す表現について検討する.それぞれの表現の差異は,属性や属性値によって表現されるが,基本的な構造はすべて等しいことが分かる.図\ref{3banme}に文法規則(\ref{grammar-ord1})によって導出された「3番目の男」のf-structureを示す.「番目」は順番を示す助数詞の語彙カテゴリが割り当てられているため,CLASSIFIER-TYPE属性とNUMBER-TYPE属性の値は共に序数を示すord(inal)になっている.図\ref{3ninme}に文法規則(\ref{grammar-ord2})によって導出された「3人目の男」のf-structureを示す.「人」は数量を示す助数詞の語彙カテゴリが割り当てられているため,CLASSIFIER-TYPE属性の値には基数を示すcard(inal)が入る.しかし,接尾辞「目」が順番を表現しているためNUMBER-TYPE属性の値が序数を示すord(inal)になっている.図\ref{dai3}に文法規則(\ref{grammar-ord3})によって導出された「第3の男」のf-structureを示す.この名詞句には助数詞が存在せず,助数詞の省略も想定され難いためCLASSIFIER-TYPE属性を持たない.しかし,接頭辞「第」が順番を表現していることをNUMBER-TYPE属性の値がord(inal)になっていることで示している.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f9.eps}\end{center}\caption{文法規則(\ref{grammar-card2})によって導出された「彼が選んだ3箱」のf-structure}\label{3box-tandoku}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f10.eps}\end{center}\caption{文法規則(\ref{grammar-ord1})によって導出された「3番目の男」のf-structure}\label{3banme}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f11.eps}\end{center}\caption{文法規則(\ref{grammar-ord2})によって導出された「3人目の男」のf-structure}\label{3ninme}\end{figure}\subsection{他言語のf-structureとの比較\label{fstr-cande}}本節では\ref{mokuteki}節で設定した基準2について検証するために,日本語の表現に対応する他言語のf-structureと日本語のf-structureの比較を行う.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f12.eps}\end{center}\caption{文法規則(\ref{grammar-ord3})によって導出された「第3の男」のf-structure}\label{dai3}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f13.eps}\end{center}\caption{``Iexchanged100dollars''のf-structure}\label{currency-e}\end{figure}まず通貨・数量に関する表現のf-structureについて検討する.図\ref{currency-e}に「100ドルを両替した.」の英訳``Iexchanged100dollars.''を入力として\cite{Riezler}の英語LFGシステムで出力されたf-structureを示す.\ref{fstr-j}節の図\ref{currency}の日本語のf-structureと比較すると同じ構造を持っていることが分かる.次に数量に関する表現のf-structureについて中国語のf-structureとの比較を行う.数量に関する表現は助数詞を伴う場合と助数詞が省略される場合がある.助数詞を伴う表現については\cite{ji}の中国語LFGシステムで出力されたf-structureと,助数詞を伴わない表現については英語のf-structureと比較する.図\ref{3bin-1-j}に文法規則(\ref{grammar-card1})が導出した「三本の酒」のf-structureを,図\ref{3bin-1-c}に「三瓶酒」に対応する中国語のf-structureを示す.図\ref{3bin-1-c}のf-structureでは助数詞のための属性であるCLASSIFIERをPREDにしている.これは,中国語の助数詞が連体修飾を受けることができるほど名詞としての性質が強いためである.このような違いはあるものの,この表現に対するする日本語と中国語のf-structureの基本的構造はほぼ同じである.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f14.eps}\end{center}\caption{文法規則(\ref{grammar-card1})によって導出された「三本の酒」のf-structure}\label{3bin-1-j}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f15.eps}\end{center}\caption{「三瓶酒」のf-structure}\label{3bin-1-c}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f16.eps}\end{center}\caption{文法規則(\ref{grammar-card2})によって導出された「彼女は三本を飲んだ。」のf-structure}\label{3bin-2-j}\end{figure}次に,助数詞が数える対象である名詞が存在しない数量表現について「彼女が三本を飲んだ」と「\KetujiX{16-3ia3f00.eps}喝了三瓶」の解析結果を比較する.図\ref{3bin-2-j}に日本語のf-structureを,図\ref{3bin-2-c}に中国語のf-strcutureを示す.両者とも数える対象に,代名詞を示す`pro'を代入している.これは,数える対象の名詞が存在する場合のf-structureとの整合性を図るための手当てであるが,それと同時に中国語と日本語の間のf-structreの整合性を保持することも可能にしている.助数詞が省略される表現については英語のf-structureと比較を行う.図\ref{3families}に「3家族」と``3families''のf-structureを示す.日本語のf-structureでは助数詞が存在しないことを明示的に表現するためにCLASSIFIER-FORM属性がnullになっているが,英語では基本的に助数詞を用いないので,それに対応する属性は存在しない.しかし,基本的な構造は等しいことが分かる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f17.eps}\end{center}\caption{「\protect\KetujiX{16-3ia3f00.eps}渇了三瓶」のf-structure}\label{3bin-2-c}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f18.eps}\end{center}\caption{「3家族」と「3families」のf-structure}\label{3families}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f19.eps}\end{center}\caption{``thirdman''のf-structure}\label{3rd-man}\end{figure}次に順序を示す表現について検討する.図\ref{3rd-man}に\ref{fstr-j}節の図\ref{3banme}〜\ref{dai3}に対応する英語``thirdman''のf-structureを示す.特に図\ref{dai3}の「第3の男」のf-structureとは同じ構造を持っている.
\section{\label{hyouka}解析結果の精度評価}
\subsection{評価方法}解析結果の評価はf-structureを\cite{triples}に準拠した形式(triples)に変換して行う.この変換の際に文法的な情報ではなく実装の都合上付与されている属性は削除する.図\ref{triples}に「3個のりんご」のf-structureとtriplesの対応関係を示す.\begin{figure}[b]\begin{center}\includegraphics{16-3ia3f20.eps}\end{center}\caption{f-structureとtriplesの対応関係}\label{triples}\end{figure}triples形式は``{\it属性C(ノードA,ノードB)}''もしくは``{\it属性C(ノードA,属性値B)}''という書式で表現される.いずれも「{\itA}の属性{\itC}は{\itB}である」と解釈する.属性の要素はノードか値であるが,ノードは必ずノードIDを持つため,同じ語が同一文中に現れても区別が可能である.図\ref{triples}中のtriples形式のデータは「りんご」のNUMBER属性が3であること,「3」のCLASSIFIER-FORM属性の値は「個」であること,「3」のCLASSIFIER-TYPE属性の値がcardinalであること,「3」のNUMBER-TYPE属性の値がcardinalであることを表現している.解析対象はEDRコーパスから数詞を含む文を無作為に選び,単位・通貨に関する表現,数量に関する表現,そして順序に関する表現を人手で200表現ずつ抽出した.本稿で提案する規則の効果を確認するために,精度の比較を\cite{Masuichi2003}で採用されているLFG規則の解析結果と行う.今回の提案規則による効果を正確に計測するために,旧規則の解析結果に単なる仕様変更によって正解にないNUMBER-TYPEなどの属性が含まれる場合はこの属性を削除した.評価実験におけるtriplesに含まれる属性の一覧を表\ref{feature-table}に示す.今回の実験では,多義性の解消を行っていないため,複数の解析結果が出力される可能性もあるが,精度の測定はそれらの解析結果すべてに対して行った.例えば,\ref{fstr-j}節で「3箱の煙草」に対して得られた図\ref{3box-a}と図\ref{3box-b}の二つの解析結果のうち,図\ref{3box-a}が正解であるならば,この解析結果の精度は下記の表\ref{tagi-kekka}のように求められる.\begin{table}[t]\caption{triplesに含まれる属性一覧}\label{feature-table}\input{03table03.txt}\end{table}\begin{table}[t]\caption{「3箱の煙草」の解析結果}\label{tagi-kekka}\input{03table04.txt}\end{table}今回提案したLFG規則のみを評価するため,解析する範囲を数詞,助数詞及びそれらが連体連体修飾を行っている場合はその修飾先の名詞句,連体修飾を受けている場合にはその修飾成分のみに限定した.また「およそ30個」の「およそ」や「5\%以下」の「以下」など直接連接して助数詞や数詞の修飾を行う付属語的な名詞も対象とした.下記に解析対象の例を示す.\begin{itemize}\item{単位・通貨に関する表現}\begin{itemize}\item{\underline{\mbox{400万円のミンクのコート}}、\underline{\mbox{250万円の腕時計}}も頭にちらついた。}\item{IBMおよびコンパチは\underline{\mbox{パソコン全体の80%以上}}を占めた。}\end{itemize}\item{数量に関する表現}\begin{itemize}\item{\underline{\mbox{3国}}合わせての総人口が\underline{\mbox{約750万人}}だから\underline{\mbox{5人に1人}}が参加したことになる。}\end{itemize}\item{順序に関する表現}\begin{itemize}\item{\underline{\mbox{2番目のLAN}}は事務職員のためのLANだ。}\item{ASTの\underline{\mbox{第1のライバル}}である強化ボードの開発者クォードラムでは、IBMが新しいラインに残したメモリー拡張のギャップに焦点を合わせている。}\end{itemize}\end{itemize}\subsection{結果と考察}\subsubsection{単位・通貨に関する表現}\begin{table}[b]\caption{単位・通貨に関する表現の解析結果}\label{unit-kekka}\input{03table05.txt}\end{table}\begin{table}[b]\caption{単位・通貨に関する表現の属性別の解析結果(旧規則)}\label{unit-kekka-old}\input{03table06.txt}\end{table}\begin{table}[b]\caption{単位・通貨に関する表現の属性別の解析結果(提案規則)}\label{unit-kekka-new}\input{03table07.txt}\end{table}表\ref{unit-kekka}に単位・通貨に関する表現の解析結果を,表\ref{unit-kekka-old}と表\ref{unit-kekka-new}に属性別の結果を示す.旧規則では単位・通貨と他の助数詞との区別をしていなかったため,CLASSIFIER-FORM属性とCLASSIFIER-TYPE属性が解析結果に含まれる.そこで,今回の比較は,この二つの属性を予め削除して行った.今回提案したLFG規則により全体的なF値はおよそ25\%向上した.表\ref{unit-kekka-old}のfragmentは,部分解析結果の属性であり,旧規則では適用される規則が存在せず部分解析しかできなかった表現があることを示している.表\ref{unit-kekka-new}にこのfragment属性が存在しないことは提案規則ではすべて全体的な解析に成功していることを示している.また,EDR概念辞書を用いて語彙エントリを追加したことにより,修飾関係を示す属性adjunctのF値が向上している.表\ref{unit-kekka-new}でsubj,tense,atype,clause\_typeのprecisionの値が下がっているのはすべての単位・通貨に名詞のlexicalcategoryを割り当てた結果,文法規則(\ref{grammar-card3})が誤って適用されてしまう例があったためである.今後は一般的に名詞としても用いられる単位名とほとんど名詞としては現れない単位の分別が必要である.併置関係を示す属性conjのF値が両規則ともに0なのは,下記の例にあるような数詞と記号による表現を提案規則でカバーできなかったためである.特に単位に関する表現は記号を含む表現が多く見られ,今後はこれらの記号と数詞に関する規則の精緻化が課題である.\begin{itemize}\item{\underline{\mbox{640×400ドットの解像度}}でグラフィックを表示できるという。}\item{\underline{\mbox{旧システムの30%〜50%}}をリプレースする大規模な計画で、2年がかりで構築する。}\end{itemize}\subsubsection{数量に関する表現}\begin{table}[b]\caption{数量に関する表現の解析結果}\label{card-kekka}\input{03table08.txt}\end{table}\begin{table}[b]\caption{数量に関する表現の属性別の結果(旧規則)}\label{card-kekka-old}\input{03table09.txt}\end{table}表\ref{card-kekka}に数量に関する表現の解析結果を,表\ref{card-kekka-old}と表\ref{card-kekka-new}に属性別の結果を示す.\pagebreak全体的なF値はおよそ5%向上している.両者とも連体修飾を示すadjunct属性の値が低いのは,文法規則(\ref{grammar-card1})と文法規則(\ref{grammar-card2})によって生じた多義性によるものである.この種の多義性を解消するためには\cite{Sirai}や\cite{Bond}で提案されているオントロジーのような知識資源の利用が有効であると思われる.その一方で,下記の例の「2人」と「仲間」のように,助数詞と数えられる対象の関係だけでは正しいf-structureを決定することが困難である場合もあり,文脈解析のようなより深い知識処理が必要である.\begin{table}[t]\caption{数量に関する表現の属性別の結果(提案規則)}\label{card-kekka-new}\input{03table10.txt}\end{table}\begin{itemize}\item{3年前には、横浜防衛施設局に\underline{\mbox{仲間2人}}が火炎瓶を投げて逮捕された。}\item{\underline{\mbox{2人の仲間}}だったシンイチは、いつか姿を消した。}\end{itemize}さらに,連体修飾成分と数詞,助数詞の関係を表現するのが難しい場合があった.下記の文の「長男と2人」は「長男と(自分の)2人」を指しており,「長男」と「2人」の並置と考えるよりは「長男と」が「2人」を修飾すると解釈するのが適切であるが,本稿で提案したLFG規則ではこのような表現は扱えない.\begin{itemize}\item{10年前、姉妹を頼って、\underline{\mbox{長男と2人}}で引き揚げてきた。}\end{itemize}また,本稿で提案した規則では評価用コーパス中の下記の表現が解析できなかった.「100万票差」の「差」,あるいは「合計」,「積」なども含めて数量操作に関わる名詞については今後f-structureの表現方法も含めて扱い方を検討する必要がある.\begin{itemize}\item{71年の大統領選挙で朴大統領に\underline{\mbox{約100万票差}}で敗れる。}\item{\underline{\mbox{11の市民団体}}が実行委員会を結成し、それぞれの企画を原爆忌の9日まで繰り広げる。}\item{これで輸入解禁州は全部で\underline{38}になる。}\end{itemize}上記の「11の市民団体」の「11」や「全部で38になる」の「38」のように,助数詞や接頭辞,接尾辞など数詞の性質を表現する機能語が連接せずに名詞を修飾している場合,その数詞が何を表現しているのか判断するのが難しい.評価コーパスには数量を表す例しか出現しなかったが,下記の例文の「二百万のお宝」の「二百万」は「お宝」である「トルエン」の価格を表現しており,「一の富」の「一」は宝くじの一等を示している.\begin{itemize}\item{千本の物が—。\underline{二百万のお宝}が。そのとき、トルエンが爆発した。[大沢在昌「ちきこん」『らんぼう』新潮文庫(1998)]}\item{ふつうこれは百回ついたものだそうで、百回目を突きどめといって、これがつまり\underline{一の富}、千両もらえるわけである。[横溝正史「鶴の千番」『くらやみ婿』春陽文庫(1984)]}\end{itemize}\subsubsection{順序に関する表現}表\ref{ord-kekka}に順序に関する表現の解析結果を,表\ref{ord-kekka-old}と表\ref{ord-kekka-new}に属性別の結果を示す.旧文法ではCLASSIFIER-TYPE属性の序数を表現する値ordinalを定義していなかったため,解析結果を公平に比較するためにこの属性を削除した.それでも,全体的なF値は21\%以上向上した.\begin{table}[b]\caption{順序に関する表現の解析結果}\label{ord-kekka}\input{03table11.txt}\end{table}\begin{table}[b]\caption{順序に関する表現の属性別の結果(旧規則)}\label{ord-kekka-old}\input{03table12.txt}\end{table}ただし,本稿で提案した規則では扱えない表現も見られた.順序に関する表現は,通貨・単位や数量に関する表現よりも,助詞を介さずに直接他の名詞と連結して,複合名詞を形成する場合が多く,下記のように係り先がうまく決定できない例が散見された.本稿で用いた日本語LFGシステムでは,処理時間を高速化するために\cite{modpatent}の手法を用いて,名詞が二つ以上連続するときにはすべて最右の名詞を主辞とする複合名詞としてまとめる処理を実施する.その結果,下記の(a)では「第2次」が複合名詞中で最も右にある「撤兵」を修飾するため正しいf-structureを得ることができる.しかし,(b)では「2次」が複合名詞中の「下請け」を修飾しているので本稿のシステムでは誤ったf-structureを導出する.\begin{table}[t]\caption{順序に関する表現の属性別の結果(提案規則)}\label{ord-kekka-new}\input{03table13.txt}\end{table}\begin{itemize}\item[(a)]{このサマー地区はベトナム軍が\underline{\mbox{第2次}}\underline{カンボジア}\underline{撤兵}の際に通過した地だ。}\item[(b)]{\underline{\mbox{2次下請け工場}}になると、忙しさだけは1次下請けに負けない。}\end{itemize}また,下記の「版」,「条」,「面」のように助数詞が数量を現すものであっても実際には順序に関する表現である例があった.これは\cite{Sogino}で示唆されているように,助数詞には基数と序数の両方を表すものがあるためであると思われる.今後は,こういった助数詞の特定も必要である.\begin{itemize}\item{この批評は大阪本社発行の\underline{\mbox{13版}}をもとにしています。}\item{\underline{\mbox{航空法施行規則145条}}に規定された各種の航空計器および航法装置。}\item{これは先日、離婚請求権が有責者にも認められたという判決が、新聞の\underline{\mbox{1面}}に出た翌日の会話である。}\end{itemize}
\section{おわりに}
\subsection{まとめ}本稿では数詞と助数詞によって表現される構文を日本語LFGシステムで解析するための語彙規則と文法規則を提案した.さらに提案した規則によって導出されるf-structureを他の表現や他の言語のf-structureと比較して解析結果の妥当性を検討した.また,精度評価実験を実施して提案規則の解析能力について,従来のLFG規則との比較を行った.その結果,通貨・単位に関する表現では25\%,数量に関する表現では5\%,順序に関する表現では21\%のF値の向上が確認できた.\subsection{今後の課題}\ref{rule}章では,助数詞を通貨・単位,数量,順序という三つの語彙カテゴリに分類し,それぞれに対して文法規則を提案した.しかし,助数詞の中にはこの三つのカテゴリのどれか一つに明確に分類できないものも存在する.例えば,本稿で「組」は数を表す助数詞として分類されるが,「ダース」は単位を表す助数詞として分類されている.このように,単位が数や量を表す場合には今回の分類を明確に適用することが難しい.また,\ref{hyouka}章の実験結果にも見られたように,「版」や「条」など数量と順序の両方を表す助数詞も存在する.このような問題を解決するためには,特殊な性質を持つ助数詞を特定し,本稿で提案した分類の細分化や複数の語彙カテゴリの割り当てなどを検討する必要がある.\ref{fstr-cande}節では本稿で提案したLFG規則が導出するf-structureの妥当性を検証するために,英語と中国語のf-structureとの比較を行った.これは,両者とも実用的なLFGシステムが既に構築されており,日本語文の訳文に対して適切なf-structureを得ることが可能だったためである.しかし,他の言語のLFGシステムの研究開発が進めば,他の言語のf-structureとも比較したい.\ref{hyouka}章の評価実験では,解析精度の比較対象として旧LFG規則の解析結果を用いたが,より正確に解析能力を検証するためには,他のシステムの出力結果と比較する必要がある.しかし,\ref{haikei}節でも述べたとおり,現在公開されている構文解析システムでは本稿が対象にしている助数詞と数詞,名詞の関係を表現しないため,f-structureと直接比較することができない.今後,翻訳や質問応答などのシステムの出力を利用して間接的に比較を行うなど,評価の工夫が必要である.本稿の評価実験対象は助数詞に関する表現に限定した.今回の改良によって文全体のカバー率には特に変化が見られなかったが,個々の解析結果が文全体の解析精度にどのような影響を及ぼしているかはより詳細に観察する必要がある.今後は,今回解析できなかった構文を扱うためにLFG規則の改良と拡張に取り組む.また,\cite{umemoto}や\cite{Crouch}などf-structureを入力とする意味解析手段,つまりLFG解析の次の段階の処理を用いて,提案した規則によって生じたf-strcutureの曖昧性解消を実施したい.\acknowledgmentParGramのメンバー,特に助数詞の解析に関する議論を通じて有益なコメントをいただいたり,解析結果を提供していただいたMicrosoft社のTracyHollowayKing氏,MartinForst氏,PaloAltoResearchCenterInc.のJiFang氏に感謝いたします.また,日本語LFGについて有益なコメントをいただいた早稲田大学の原田康也教授,中野美知子教授に感謝いたします.XLEの開発者であり,日本語システム構築時に実装に関する貴重な助言を頂いたPaloAltoResearchCenterInc.のJohnMaxwell氏,Microsoft社のRonaldKaplan氏に感謝いたします.\bibliographystyle{jnlpbbl_1.3}\input{03refs.bbl}\begin{biography}\bioauthor{大熊智子(正会員)}{1994年東京女子大学文理学部日本文学科卒業.1996年慶應義塾大学政策・メディア研究科修了.同年,富士ゼロックス(株)総合研究所入社.2006年より慶應義塾大学政策・メディア研究科後期博士課程在籍.2009年より東京女子大学非常勤講師.現在,富士ゼロックス(株)研究技術開発本部研究副主任.}\bioauthor{梅基宏(正会員)}{1995年東京大学大学院工学系研究科機械情報工学修士課程修了.同年,富士ゼロックス(株)入社.日本語意味解析,情報検索システムの研究開発に従事.2004〜2006年Stanford大学CSLI客員研究員.言語処理学会,情報処理学会各会員.}\bioauthor{三浦康秀}{2004年電気通信大学大学院電気通信学研究科電子情報学専攻修了.同年,富士ゼロックス(株)入社.日本語の統計的構文解析,医療テキストを対象とした自然言語処理の研究開発に従事.}\bioauthor{増市博(正会員)}{1989年京都大学工学部機械工学科卒.1991年京都大学工学研究科精密工学専攻修士課程修了.同年,富士ゼロックス(株)入社.1998〜2000年米国Stanford大学CSLI客員研究員およびPaloAltoResearchCenterInc.コンサルタント研究員.現在,富士ゼロックス(株)研究技術開発本部研究主査.博士(工学).}\end{biography}\biodate\end{document}
| |
V05N01-02
|
\section{はじめに}
従来の自然言語処理研究の多くは,言語の論理的側面に注目したものであった.しかし,計算機が人間と同じように自然言語を取り扱うことができるようになるためには,言語の論理的な取り扱いだけでなく,言語が人間の感性に及ぼす働きの実装が不可欠である.このような観点から,我々は感性を取り扱うことのできる自然言語処理システムの開発に向けた基礎研究のひとつとして,待遇表現の計算モデルに関する研究を行っている.待遇表現とは,話し手が,聞き手及び話題に含まれる人物と自分との間に,尊卑,優劣,利害,疎遠等どのような関係があるかを認識し,その認識を言語形式の上に表したものである(鈴木1984).本研究ではこれらの関係を総称して{\bf待遇関係}と呼び,待遇表現に対して心理上持つ丁寧さの度合いを{\bf待遇値}と呼ぶ.さまざまな待遇表現を柔軟に取り扱うことができる自然言語処理システムを構築するためには,待遇表現の構成要素と待遇表現全体の待遇値の関係を記述するモデルが必要である.しかし,数学的な形式化に重点を置いた研究(水谷1995),心理実験による待遇表現の計量化に重点を置いた研究(荻野1984),あるいは丁寧さを考慮した文生成プログラムの開発(田中1983)などの従来の待遇表現に関する研究においては,このようなモデルの提案,及び心理実験に基づくモデルの検証は行われていなかった.本研究では,話し手及び聞き手以外の人に関する話題が含まれないような発話内容に関する待遇表現に限定した上で,待遇表現に語尾を付加した際の待遇値の変化に関する計算モデルを提案する.モデルの妥当性の検証を行うため,(1)ある事柄について{\bf知っている}という意図を伝える際に用いられる待遇表現のグループに対し,語尾:``よ''を付加した際の待遇値変化,及び(2)聞き手が会議などで{\bf発言するか否か}を聞き手に質問する際に用いられる待遇表現のグループに対し,語尾:``ます?''を付加した際の待遇値変化を求める心理実験を行った.実験の結果,いずれのグループにおける待遇値変化もモデルから予測される傾向に従い,モデルの妥当性が支持された.
\section{語尾の付加による待遇値変化の計算モデル}
\subsection{モデルが想定している発話状況}本研究では,第三者(話し手及び聞き手以外の人)に関する話題が含まれないような発話内容に関する待遇表現に限定したモデルを提案している.ただし第三者に関する話題が含まれるような待遇表現に対しても,その表現を話し手と聞き手の待遇関係,話し手と第三者の待遇関係,及び聞き手と第三者の待遇関係,のそれぞれに対応した構成要素に分けることが可能な場合は,今回提案するモデルをそれぞれの要素に対して独立に適用することにより,ある程度のモデル化が可能であると考えられる.\subsection{待遇値の確率分布}荻野はクロス集計表に基づく待遇表現の計量化の研究において,ほとんどすべての待遇表現の待遇値は一次元の値として表現できることを示した(荻野1986).本研究ではこの結果をふまえ,任意の待遇表現{\bfP}は一次元の値として計量化できると考え,待遇表現{\bfP}を計量化した値を\(V\)({\bfP})と記す.\(V\)({\bfP})は,計量化の手法に依存した尺度空間上で割り当てられた値であり,本来は待遇値(待遇表現に対して心理上持つ丁寧さの度合い)とは異なるが,ここでは\(V\)({\bfP})を単に{\bf待遇値}と呼び,待遇表現{\bfP}に対して心理上持つ丁寧さの度合いと同義に用いる.ひとつの待遇表現はいろいろな待遇関係の場面において用いることが可能であるが,これはそれぞれの待遇表現{\bfP}に対し,その表現が用いられるべき待遇関係を表す待遇値が一定の確率分布を持っており,{\bfP}の計量化によってその確率分布の平均が\(V\)({\bfP})として観測されていることを示唆する.ここでは,確率分布を正規分布({\emN}\(_{\mbox{\tiny{P}}}\)と記す)であるとし,仮定1を提案する.\medskip\begin{description}\item[仮定1:]待遇表現{\bfP}(待遇値\(V\)({\bfP}))に対し,{\bfP}が用いられるべき待遇関係が,待遇値に関する平均\(V\)({\bfP})の正規分布({\emN}\(_{\mbox{\tiny{P}}}\))として表される.\end{description}\medskip図1に待遇表現{\bfP}\(_{1}\):“知ってます”(待遇値\(V\)({\bfP}\(_{1}\))),及び{\bfP}\(_{2}\):``存じてます”(待遇値\(V\)({\bfP}\(_{2}\)))に対する確率分布の例を示す.\begin{center}\epsfile{file=shirado2_1.eps,width=100mm}{\bf図1}“知ってます”及び``存じてます”に対する確率分布の例\end{center}\subsection{整合度}我々は,待遇表現{\bfP}へ語尾{\bfE}を付加する際,文法的には間違いでなくてもその付加が{\bfしっくりとする},あるいは{\bfしっくりとしない},などの印象を持つことがある(前者の例としては,{\bfP}:``知ってる''への{\bfE}:``よ''の付加,後者の例としては,{\bfP}:``存じあげております''への{\bfE}:``よ''の付加).これは,それぞれの語尾{\bfE}に対し,{\bfE}が付加される待遇表現が用いられるべき待遇関係が,待遇値に関する確率分布\hspace{-0.5mm}({\emN}\(_{\mbox{\tiny{E}}}\)と記す)\hspace{-0.5mm}を持っており,{\bfE}を実際の待遇表現{\bfP}に付加する際には,{\bfP}に対する確率分布{\emN}\(_{\mbox{\tiny{P}}}\)と{\emN}\(_{\mbox{\tiny{E}}}\)との間の類似性の大/小に応じ,しっくりする/しっくりとしない,などの印象の違いが現れるからであると考えることができる.ここでは,{\emN}\(_{\mbox{\tiny{E}}}\)が正規分布であるとし,仮定2を提案する.\medskip\begin{description}\item[仮定2:]語尾{\bfE}に対し,{\bfE}が付加される待遇表現が用いられるべき待遇関係が,待遇値に関する正規分布({\emN}\(_{\mbox{\tiny{E}}}\))として表される.\end{description}\medskipいま,確率分布{\emN}\(_{\mbox{\tiny{P}}}\)と{\emN}\(_{\mbox{\tiny{E}}}\)との間の類似性の大きさを,これらの共通面積の広さ\(C\)として表す.以下\(C\)を,{\bfP}と{\bfE}との間の{\bf整合度}と呼ぶ.図2に,{\bfP}:``知ってます''と{\bfE}:``よ''との間の整合度\hspace{-0.5mm}\(C\)\hspace{-0.5mm}の例を示す.図中\hspace{-0.5mm}\(\mu_{\mbox{\tiny{E}}}\)\hspace{-0.5mm}は正規分布\hspace{-0.5mm}{\emN}\(_{\mbox{\tiny{E}}}\)\hspace{-0.5mm}の平均,\hspace{-0.5mm}\(X\)は{\emN}\(_{\mbox{\tiny{E}}}\)\hspace{-0.5mm}を表す確率密度関数と\hspace{-0.5mm}{\emN}\(_{\mbox{\tiny{P}}}\)\hspace{-0.5mm}を表す確率密度関数の交点の\hspace{-0.5mm}\(x\)\hspace{-0.5mm}座標を表す.\begin{center}\epsfile{file=shirado2_2.eps,width=80mm}{\bf図2}整合度\(C\)の例\end{center}ここで{\emN}\(_{\mbox{\tiny{P}}}\),{\emN}\(_{\mbox{\tiny{E}}}\)の分散をそれぞれ\(\sigma_{\mbox{\tiny{P}}}^{2}\),\(\sigma_{\mbox{\tiny{E}}}^{2}\)とすると,整合度\(C\)は次式で定義される.\begin{equation}C\stackrel{\triangle}{=}\frac{1}{\sigma_{\mbox{\tiny{P}}}\sqrt{2\pi}}\int^{X}_{−\infty}e^{−\frac{(x−V({\mbox{\tiny\bfP}}))^{2}}{2\sigma_{\mbox{\tiny{P}}}^{2}}}dx+\frac{1}{\sigma_{\mbox{\tiny{E}}}\sqrt{2\pi}}\int^{+\infty}_{X}e^{−\frac{(x−\mu_{\mbox{\tinyE}})^{2}}{2\sigma_{\mbox{\tinyE}}^{2}}}dx\end{equation}式(1)は\(\mu_{\mbox{\tiny{E}}}\)\(\le\)\(V\)({\bfP})の場合を想定しているが,\(V\)({\bfP})\(\le\)\(\mu_{\mbox{\tiny{E}}}\)の場合も同様の式で定義できる.\subsection{語尾の付加によって得られる情報量と待遇値変化}いま,{\bf待遇表現が持つ情報}={\bf意図を伝えるのに必要最小限の情報}+{\bf話し手と聞き手の待遇関係に応じた丁寧さ(あるいはぞんざいさ)を伝える情報},と考えると待遇値は後者の情報量に対応した値であると考えられる.また,待遇表現が持つ情報量のうち,意図を伝えるのに必要最小限の情報量は語尾\hspace{-0.5mm}{\bfE}\hspace{-0.5mm}の付加によってほとんど変化しない,と考えると,\hspace{-0.5mm}{\bfE}\hspace{-0.5mm}の付加による待遇表現の情報量の変化(即ち,{\bfE}の付加によって新たに得られた情報量)\hspace{-1.5mm}\(I\)\hspace{-0.5mm}は,話し手と聞き手の待遇関係に応じた丁寧さを伝える情報量の変化にほぼ一致することになる.従って,{\bfE}の付加による待遇値変化\hspace{-0.5mm}\(\Delta\)({\bfP},{\bfE})\hspace{-0.5mm}と,{\bfE}の付加によって得られた情報量\(I\)との間には一定の関係があると考えられるが,ここではこの関係を線形であるとし,仮定3を提案する.\medskip\begin{description}\item[仮定3:]待遇表現{\bfP}に語尾{\bfE}を付加した際の待遇値の変化量\(\Delta\)({\bfP},{\bfE})と,{\bfE}の付加によって得られた情報量\(I\)との間には線形の関係がある.\end{description}\medskip仮定3を式で表したものが,式(2)である.\begin{equation}\Delta({\bfP,E})\stackrel{\triangle}{=}{\rmk}_{1}\cdotI+{\rmk}_{2}\end{equation}ただし,係数k\(_{1}\),k\(_{2}\)は{\bfP},{\bfE}及び待遇値の計量化方法に依存した定数である.待遇表現{\bfP}への語尾{\bfE}の付加によって得られる情報量\(I\)は,整合度\(C\)を用い$I=\log_{e}(1/C)$で与えることができる.なぜなら,整合度\(C\)は{\bfP}によって期待されるすべての待遇関係の空間の中で{\bfE}によって期待される待遇関係が生じる確率を表している,と考えることができ,更にシャノンの情報量(例えば,Abramson1969)によると確率\(p\)の事象が生起したことを知ったときに得る情報量は$\log_{e}(1/p)$で与えられる(ここでは対数の底を\(e\)とした単位で情報量を定義する)からである.以上から,待遇表現{\bfP}に語尾{\bfE}を付加した際の待遇値の変化量\(\Delta\)({\bfP,E})の計算モデルは次式で定義される.\begin{equation}\Delta({\bfP,E})\stackrel{\triangle}{=}{\rmk}_{1}\cdot\log_{e}(1/C)+{\rmk}_{2}\end{equation}ただし,\(C\)は式(1)で定義される整合度.
\section{計算モデルから予測される,語尾の付加による待遇値変化}
前章で提案した計算モデルから予測される性質として,待遇値変化\(\Delta\)({\bfP,E})=\(V\)({\bfP}+{\bfE})−\(V\)({\bfP})の待遇値\(V\)({\bfP})に関する性質に注目する(ただし``{\bfP}+{\bfE}''は,{\bfP}へ{\bfE}を付加して作られた待遇表現を表す).ここでは,個々の待遇表現における待遇値変化については議論せず,待遇表現の集まりにおける待遇値変化の普遍的な特性を調べることを目的とするが,この目的からは数学的な取扱いの簡便さのため確率分布\hspace{-0.2mm}{\emN}\(_{\mbox{\tiny{P}}}\),{\emN}\(_{\mbox{\tiny{E}}}\)\hspace{-0.2mm}の分散\hspace{-0.2mm}\(\sigma_{\mbox{\tiny{P}}}^{2}\),\(\sigma_{\mbox{\tiny{E}}}^{2}\)\hspace{-0.2mm}に関し\hspace{-0.2mm}\(\sigma_{\mbox{\tiny{P}}}^{2}\)=\(\sigma_{\mbox{\tiny{E}}}^{2}\)(=\(\sigma^{2}\))\hspace{-0.2mm}と仮定しても差し支えないと考えられる.このとき式(1)は,\(X\)=(\(\mu_{\mbox{\tiny{E}}}\)+\(V\)({\bfP}))/2に関する式として,式(4)のように書き直すことができる.\begin{equation}C(X)=\frac{2}{\sigma\sqrt{2\pi}}\int_{−\infty}^{X}e^{−\frac{(x−V({\rmP}))^{2}}{2\sigma^{2}}}dx\end{equation}式(4)を(\(x\)-\(V\)({\bfP}))/\(\sigma\)=\(t\)として正規化し,式(5)を得る.\begin{equation}C(X^{\prime})=\frac{2}{\sqrt{2\pi}}\int^{X^{\prime}}_{−\infty}e^{−\frac{t^{2}}{2}}dt\end{equation}ただし,\(X^{\prime}\)=(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))/2\(\sigma\).\(C\)(\(X^{\prime}\))の形の関数は誤差関数と呼ばれ解析的には解けないことが知られている(例えば,森口1957).このため\(C\)(\(X^{\prime}\))を,より取り扱いやすい関数で近似することを考える.いま\(V\)({\bfP})と\(\mu_{\mbox{\tiny{E}}}\)の間で\(\mid\)\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP})\(\mid\)\(\le\)5\(\sigma\)(即ち,\(\mid\)\(X^{\prime}\)\(\mid\)\(\le\)2.5)が満たされるものとする.この制約は,確率分布{\emN}\(_{\mbox{\tiny{P}}}\)(あるいは{\emN}\(_{\mbox{\tiny{E}}}\))全体の面積の中で,{\emN}\(_{\mbox{\tiny{P}}}\)と{\emN}\(_{\mbox{\tiny{E}}}\)の共通部分の面積\(C(X^{\prime})\)が占める割合が(\(\sigma_{\mbox{\tiny{P}}}\)=\(\sigma_{\mbox{\tiny{E}}}\)の場合には)1.2%以上の場合に相当し,これは{\bfP}と{\bfE}の任意の組み合わせに関する多くの状況において満たされると思われる.このとき\(C\)(\(X^{\prime}\))を,\(X^{\prime}\)についての一次式\(p\)(\(X^{\prime}\))=k\(_{3}\)\(X^{\prime}\)+k\(_{4}\)(k\(_{3}\),k\(_{4}\)は定数)に関する関数\(e^{-p(X^{\prime})}\)で近似する.関数\(e^{-p(X^{\prime})}\)は,\(\mid\)\(X^{\prime}\)\(\mid\)\(\le\)2.5において関数\(C\)(\(X^{\prime}\))を数値的によく近似する.なぜなら,\(\mid\)\(X^{\prime}\)\(\mid\)\(\le\)2.5における関数\(C\)(\(X^{\prime}\))の値を表すデータ群に対し関数\(e^{-p(X^{\prime})}\)で回帰すると,回帰の当てはまりの良さを示す決定係数\(R^{2}\)(例えば,Snedecor1972)は約0.97となるからである.よって,\(C\)(\(X^{\prime}\))\(\simeq\)\(e^{-p(X^{\prime})}\)を式(3)に代入し,更に\(X^{\prime}\)=(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))/2\(\sigma\)を代入して整理すると式(6)が得られる.\begin{equation}\Delta({\bfP,E})\simeq{\rmK}_{1}(\mu_{\mbox{\tiny{E}}}-V({\bfP}))+{\rmK}_{2}\end{equation}ただし,K\(_{1}\)=k\(_{1}\)k\(_{3}\)/2\(\sigma\),K\(_{2}\)=k\(_{2}\)+k\(_{1}\)k\(_{4}\).以上から,待遇表現{\bfP}への語尾{\bfE}の付加による待遇値変化\(\Delta\)({\bfP,E})は,\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP})に関する一次式で表されることが予測される.
\section{モデルの妥当性の検証実験}
前章で提案されたモデルの妥当性を検証するため,語尾{\bfE}を固定(即ち\(\mu_{\mbox{\tiny{E}}}\),及び\(\sigma_{\mbox{\tiny{E}}}^{2}\)を固定)した状況において,いくつかの異なった待遇表現{\bfP}に{\bfE}を付加した際の待遇値変化\(\Delta\)({\bfP,E})が\(V\)({\bfP})の一次式で表されることを確かめるための心理実験を行った.実験は,10代〜70代の関西在住の日本人男女97名を被験者とし,一対比較法によって行った.それぞれの待遇表現(語尾を付加する前の待遇表現,及び待遇表現に語尾を付加して作られた待遇表現)に対する待遇値は,サーストンの比較判断の法則(ケースV)による計量化手続きにより求めた.実際のいろいろな待遇関係の場面において,どの待遇表現が用いられるかには個人差がある.しかし,待遇表現間の丁寧さの大小には普遍性があると考えられる.即ち,この実験で得られる待遇値\(V\)({\bfP})は,各個人がその待遇表現に対して持つ絶対的な値ではなく,待遇表現間の丁寧さの大小の程度に関する相対的かつ普遍的な値と考えられる.実験の詳細は以下の通り.\subsection{実験に用いた表現}実験では2種類の発話状況を想定し,それぞれの状況において用いられる待遇表現のグループを実験刺激とした.\bigskip{\flushleft\bf[待遇表現グループ1]}\bigskip語尾を付加する前の待遇表現としては,ある事柄について{\bf知っている}という意図を伝える際に用いる待遇表現21種類(表1)を用い,各待遇表現に付加する語尾としては,終助詞``よ''を用いた.(従って,計量化の対象となる待遇表現は21×2=42種類).この場合,語尾``よ''の付加により,概して,元の待遇表現がよりぞんざいになることが予測される(中川1996).待遇表現グループ1は,少数の被験者を用いた予備的な実験(白土1996)において刺激として用いられた待遇表現の種類を増やしたものに当たる.\begin{center}{\bf表1}待遇表現グループ1\medskip\begin{tabular}{|lll|}\hline1:分かる&8:知ってる&15:存じております\\2:分かります&9:知っている&16:存じあげてます\\3:分かってる&10:知ってます&17:存じあげております\\4:分かっている&11:知っています&18:承知してる\\5:分かってます&12:知っております&19:承知してます\\6:分かっています&13:存じてます&20:承知しています\\7:分かっております&14:存じています&21:承知しております\\\hline\end{tabular}\end{center}\bigskip{\flushleft\bf[待遇表現グループ2]}\bigskip語尾を付加する前の待遇表現としては,聞き手が会議などで{\bf発言するか否か}を聞き手に質問する際に用いる待遇表現19種類(表2)を用い,各待遇表現に付加する語尾としては,助動詞``ます''を用いた(従って,計量化の対象となる表現は19×2=38種類).この場合,語尾が付加される待遇表現の語尾が変化する(例えば,``言う?''+``ます''は,``言います?''になる).また,``ます''の付加により,元の待遇表現がより丁寧になることが予測される.\begin{center}{\bf表2}待遇表現グループ2\medskip\begin{tabular}{|lll|}\hline1:言う?&8:仰せになる?&14:述べる?\\2:言われる?&9:仰せになられる?&15:述べられる?\\3:話す?&10:しゃべる?&16:お述べになる?\\4:話される?&11:しゃべられる?&17:お述べになられる?\\5:お話になる?&12:おしゃべりになる?&18:おっしゃる?\\6:お話になられる?&13:おしゃべりになられる?&19:おっしゃられる?\\7:お話する?&&\\\hline\end{tabular}\end{center}\subsection{一対比較法による心理実験}いま,計量化の対象となる\(n\)個の待遇表現を{\bfP}\(_{1}\),{\bfP}\(_{2}\),..,{\bfP}\(_{n}\)と記す.一対比較法では,{\bfP}\(_{1}\),{\bfP}\(_{2}\),..,{\bfP}\(_{n}\)の中の異なる全ての待遇表現の対\hspace{-0.5mm}(計\(_{n}\)C\(_{2}\)対)\hspace{-0.5mm}を作り,一対ずつ被験者に呈示する.被験者は呈示された一対の待遇表現のうちいずれの表現がより丁寧な表現だと感じるかを回答するように求められる.また,両方の表現が同じ位丁寧であると感じた場合はその旨回答するよう求められる.\subsection{サーストンの比較判断の法則に基づく計量化}一対比較法による実験の結果,待遇表現{\bfP}\(_{i}\)が{\bfP}\(_{j}\)より丁寧だと判断した被験者数を全被験者数で割った値を\(p_{ij}\)とする.ただし,両者が同じ位丁寧な表現だと判断した回答に対しては,その回答をした被験者数を\(p_{ij}\)及び\(p_{ji}\)の計算にそれぞれ半分ずつ割り振る.更に,\(p_{ij}\)を\hspace{-0.2mm}\(Z\)\hspace{-0.2mm}得点(例えば,田中1977)で表した値を\(Z_{ij}\)とする.一対比較法においては,被験者にふたつの刺激{\bfP}\(_{i}\),{\bfP}\(_{j}\)の間の丁寧さの大小に関する判断を行わせることになるが,この際,各刺激{\bfP}\(_{i}\),{\bfP}\(_{j}\)に対する弁別過程がそれぞれ,平均:\(\mu_{i}\),\(\mu_{j}\),標準偏差:\(\sigma_{i}\),\(\sigma_{j}\)(ただし,\(\sigma_{i}\)=\(\sigma_{j}\)=\(\sigma\))の正規分布に従い,両弁別過程の間の相関係数:\(r_{ij}\)=0と仮定する(サーストンの比較判断の法則ケースV).このとき,次式が成立する(例えば田中1977).\begin{equation}\mu_{i}-\mu_{j}=Z_{ij}\sqrt{2}\sigma\end{equation}従って最も小さい\hspace{-0.1mm}\(\mu\)\hspace{-0.1mm}の値\hspace{-0.1mm}\(\mu_{0}\)\hspace{-0.1mm}を0と置くと,式(7)によって他の全ての\hspace{-0.1mm}\(\mu_{i}\)\hspace{-0.1mm}を\hspace{-0.1mm}\(\mu_{0}\)\hspace{-0.1mm}からの相対値として決めることができる(ただし,各\hspace{-0.2mm}\(\mu_{i}\)\hspace{-0.2mm}の値は\hspace{-0.2mm}\(\sqrt{2}\)\(\sigma\)\hspace{-0.2mm}を単位とした値).以上によって得られた\hspace{-0.2mm}\(\mu_{i}\)\hspace{-0.2mm}を待遇表現{\bfP}\(_{i}\)の待遇値とする.
\section{実験結果}
待遇表現グループ1,待遇表現グループ2それぞれに対して得られた待遇値を用い,横軸(X軸)に語尾{\bfE}が付加される前の待遇表現{\bfP}\(_{i}\)の待遇値\(V\)({\bfP}\(_{i}\)),縦軸(Y軸)に{\bfE}の付加による待遇値変化\hspace{-0.2mm}\(\Delta\)({\bfP}\(_{i}\),{\bfE})=\(V\)({\bfP}\(_{i}\)+{\bfE})−\(V\)({\bfP}\(_{i}\))\hspace{-0.2mm}をプロットした図をそれぞれ図3,図4に示す.図の各点に添えられた番号は,表1,表2それぞれにおける待遇表現を示す番号である.\begin{center}\epsfile{file=shirado2_3.eps,width=100mm}{\bf図3}語尾``よ''の付加による待遇値変化\end{center}\begin{center}\epsfile{file=shirado2_4.eps,width=100mm}{\bf図4}語尾``ます''の付加による待遇値変化\end{center}各図における点群(\(x_{i}\),\(y_{i}\))=(\(V\)({\bfP}\(_{i}\)),\(\Delta\)({\bfP}\(_{i}\),{\bfE})),\(i\)=1,2,..,\(n\)を,直線\(y\)=\(a\)\(x\)+\(b\)で回帰した.ここで,回帰パラメタ\(a\),\(b\)は次式で推定される(例えば,肥田1961).\begin{equation}a\stackrel{\triangle}{=}\frac{\sum\limits_{i=1}^{n}(y_{i}-\bar{y})(x_{i}-\bar{x})}{\sum\limits_{i=1}^{n}(x_{i}-\bar{x})^{2}}\end{equation}\begin{equation}b\stackrel{\triangle}{=}\bar{y}−a\bar{x}\end{equation}ここで,\(\bar{x}\),\(\bar{y}\)はそれぞれ\(i\)に関する\(x_{i}\),\(y_{i}\)の平均,\(n\)はサンプル点数である.回帰直線のデータへの当てはまりの良さは,次式で定義される決定係数\(R^{2}\)により評価した(例えば,肥田1961).\begin{equation}R^{2}\stackrel{\triangle}{=}\frac{\sum\limits_{i=1}^{n}(\bar{y}-(ax_{i}+b))^{2}}{\sum\limits_{i=1}^{n}(y_{i}-\bar{y})^{2}}\end{equation}更に,回帰直線の傾きの有意性を検定量\(T\)=\(a\)/\(\sigma_{a}\)\hspace{-0.25mm}を用い自由度\hspace{-0.25mm}\(f\)=\(n\)−2,危険率5%で\(t\)検定した(例えば,Snedecor1972),ただし\hspace{-0.12mm}\(\sigma_{a}\)\hspace{-0.12mm}は回帰直線の傾きの標準偏差である.以下,自由度\(f\)の\(t\)分布における5%点を\(T\)\(_{0.05}\)(\(f\))と記す.\subsection{待遇表現グループ1}図3は,語尾:``よ''が付加される前の待遇表現の待遇値が大きいほど``よ''の付加による待遇値変化(待遇値の減少量)が大きくなる傾向があることを示している.直線\(y\)=\(a\)\(x\)+\(b\)によって回帰した結果,\(a\)=−0.28,\(b\)=0.71,\(\sigma_{a}\)=0.027,\(R^{2}\)=0.84となった.また,回帰直線の傾きは有意に負(検定量\(T\)=−10.37<−1.73=−\(T\)\(_{0.05}\)(19))であった.\subsection{待遇表現グループ2}図4は,語尾:``ます''の付加による待遇値変化が待遇表現{\bfP}\(_{18}\):``おっしゃる?''(図4中の矢印のついた点)付近で最大で,この点を境にして左側の(待遇値がより小さい)領域で単調増加,右側の(待遇値がより大きい)領域で単調減少の傾向を示している.左右それぞれの領域に含まれる点群に対し,別々の直線\(y\)=\(a\)\(x\)+\(b\)によって回帰したところ,左側の領域({\bfP}\(_{18}\)\hspace{-0.25mm}の点を含め,データ点数12個)では,\(a\)=0.58,\(b\)=1.6,\(\sigma_{a}\)=0.052,\(R^{2}\)=0.925となり,回帰直線の傾きは有意に正(検定量\(T\)=11.2>1.8=T\(_{0.05}\)(10))であった.また右側の領域({\bfP}\(_{18}\)の点を含め,データ点数8個)では,\(a\)=−0.54,\(b\)=8.47,\(\sigma_{a}\)=0.194,\(R^{2}\)=0.749となり,回帰直線の傾きは有意に負(検定量\(T\)=−2.78<−1.9=−T\(_{0.05}\)(6))であった.
\section{考察}
待遇表現グループ1に対する実験結果は,語尾``よ''の付加による待遇値変化\(\Delta\)({\bfP,E})が\(V\)({\bfP})に関する傾き負の直線でよく近似されることを示唆する.この結果は,\(\Delta\)({\bfP,E})=K\(_{1}\)(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))+K\(_{2}\)の係数K\(_{1}\)が正定数である場合に当たる.待遇表現グループ2に対する実験結果は,語尾:``ます''の付加による待遇値変化\hspace{-0.25mm}\(\Delta\)({\bfP,E})が表現:``おっしゃる''より待遇値が小さい領域においては\(V\)({\bfP})に関する傾き正の直線,表現:``おっしゃる''\hspace{1.5mm}より待遇値が大きい領域においては\hspace{0.8mm}\(V\)({\bfP})\hspace{0.8mm}に関する傾き負の直線でよく近似されることを示唆する.この結果は,\hspace{-0.2mm}\(\Delta\)({\bfP,E})=K\(_{1}\)(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))+K\(_{2}\)\hspace{-0.2mm}の係数\hspace{-0.2mm}K\(_{1}\)\hspace{-0.2mm}が前者の領域では負定数,後者の領域では正定数である場合に当たる.以上の結果は,\(\Delta\)({\bfP,E})=K\(_{1}\)(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))+K\(_{2}\)の係数K\(_{1}\)が\begin{enumerate}\item\(\mu_{\mbox{\tiny{E}}}\)\(<\)\(V\)({\bfP})のとき正の定数,\item\(\mu_{\mbox{\tiny{E}}}\)\(>\)\(V\)({\bfP})のとき負の定数\end{enumerate}となっている,と考えることにより以下のように説明が可能である.{\flushleft\bf[待遇表現グループ1に対する結果の説明]}グループに含まれるすべての待遇表現{\bfP}\(_{i}\)=1,..,21に関し,語尾{\bfE}:``よ''に対する確率分布{\emN}\(_{\mbox{\tiny{E}}}\)の平均\hspace{-0.12mm}\(\mu_{\mbox{\tiny{E}}}\)\hspace{-0.12mm}との間で,\(\mu_{\mbox{\tiny{E}}}\)<\(V\)({\bfP}\(_{i}\))が満たされる(即ち,{\bfP}\(_{i}\)=1,..,21のいずれの待遇表現も,``よ''との整合性が最も大きい待遇表現より待遇値が大きい領域にある)と考える.このとき係数K\(_{1}\)は常に正定数となり,従って\(\Delta\)({\bfP,E})は\(V\)({\bfP})に関する傾き負の一次式となる.{\flushleft\bf[待遇表現グループ2に対する結果の説明]}語尾{\bfE}:``ます''に対する確率分布{\emN}\(_{\mbox{\tiny{E}}}\)の平均\(\mu_{\mbox{\tiny{E}}}\)と,{\bfP}\(_{18}\):``おっしゃる''に対する待遇値\(V\)({\bfP}\(_{18}\))がほぼ等しいと考える.このとき{\bfP}\(_{18}\)より待遇値が小さい待遇表現{\bfP}\(_{i}\),\(i\)=1,2,3,4,5,7,10,11,12,14,15に対しては係数K\(_{1}\)は負定数となり,従って\(\Delta\)({\bfP,E})は\(V\)({\bfP})に関する傾き正の一次式となる.また,\hspace{-0.12mm}{\bfP}\(_{18}\)\hspace{-0.12mm}より待遇値が大きい待遇表現{\bfP}\(_{i}\),\(i\)=6,8,9,13,16,17,19に対しては係数K\(_{1}\)は正定数となり,従って\(\Delta\)({\bfP,E})は\(V\)({\bfP})に関する傾き負の一次式となる.
\section{まとめ}
待遇表現の丁寧さの計算モデルとして,待遇表現に語尾を付加した際の待遇値の変化に関する定量的なモデルを提案し,心理実験によるモデルの妥当性の検証を行った.今回実験に用いた待遇表現,及び語尾については,実験によって得られた待遇値変化はモデルから予測される傾向に従うことが示され,モデルの妥当性が支持された.今後,実用性のある定量的なモデルの構築のためには,各待遇表現や各語尾に対する確率分布の平均,分散,係数K\(_{1}\)及びK\(_{2}\)の推定が必要となる.また今回は,第三者に関する話題を含む発話内容に関する待遇表現は対象としなかったが,今後,このような表現に対する本計算モデルの拡張を検討して行く.\acknowledgment心理実験にご協力頂いた,ATR人間情報通信研究所足立整治博士に深謝致します.\vspace*{-1mm}\begin{thebibliography}{99}\vspace*{-2mm}\bibitem{}AbramsonN.(宮川洋訳)(1969).情報理論入門.好学社.\bibitem{}肥田野直・瀬谷正敏・大川信明(1961).心理教育統計学.培風館.\bibitem{}水谷静夫(1995).待遇表現概要.計量計画研究所.\bibitem{}森口繁一他(1957).数学公式II.岩波書店.\bibitem{}中川裕志・小野晋(1996).``日本語の終助詞の機能−「よ」「ね」「な」を中心として−.''自然言語処理,{\bf3}(2),3-18.\bibitem{}荻野綱男(1984).``敬語の丁寧さを決定するもの.''数理科学,No.258,43-50.\bibitem{}荻野綱男(1986).``待遇表現の社会言語学的研究.''日本語学,{\bf5}(12),55-63.\bibitem{}白土保・井佐原均(1996).``待遇表現の計算モデル−語尾の付加による待遇値変化について−.''情処研報,{\bf96-NL-116},115-120.\bibitem{}SnedecorG.W.(畑村又好他訳)(1972).統計的方法.岩波書店.\bibitem{}鈴木一彦・林巨樹編(1984).研究資料日本文法9敬語法編.明治書院.\bibitem{}田中幸子・林四郎・荻野綱男・樺島忠夫(1983).朝倉書店日本語新講座5第3章.朝倉書店.\bibitem{}田中良久(1977).心理学的測定法.東大出版会.\end{thebibliography}\vspace*{-1mm}\begin{biography}\biotitle{略歴}\bioauthor{白土保}{1983年電気通信大学電気通信学部計算機科学科卒業.同年日本IBM(株)入社.1986年郵政省電波研究所(現通信総合研究所)入所.鹿島宇宙通信センター,平磯宇宙環境センターを経て,1992年より関西先端研究センター知的機能研究室勤務.主任研究官.感性情報処理の研究に従事.日本音響学会音楽音響研究会幹事.電子情報通信学会,情報処理学会,日本音響学会各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年京都大学大学院工学研究科電気工学専攻修士課程修了.同年通商産業省工業技術院電子技術総合研究所入所.1995年郵政省通信総合研究所入所.現在,同関西先端研究センター知的機能研究室長.自然言語処理の研究に従事.情報処理学会,言語処理学会,人工知能学会,日本認知科学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-07
|
\section{はじめに}
Web上では日々多くのテキスト情報が発信されており,これまでに膨大な量のテキストが蓄積されている.この大量のテキストから,あるトピックについての知識を抽出するためには,関連するテキストの統合・要約・比較を行う情報分析技術が必要である.異なる時期に書かれたテキストや異なる時期について言及しているテキストを対象として分析を行うためには,テキストに含意されている時間情報を正しく解釈する必要があり,これまでに事象情報と時間情報の関係性という観点から多くの研究やタスクが行われてきた.例えばTempEval1,2,3では,事象−事象表現間,事象−時間表現間の時間的順序関係の推定が行われた\cite{TempEval-1,TempEval-2,TempEval-3}.また,SemEval15では複数のテキストから事象表現を抽出し,時系列に配置するタイムライン生成タスクが扱われた\cite{SemEval15-4}.このようなタスクにおいてモデルの学習やシステムの評価を行うため,テキスト中の事象情報と時間情報を関連付けたコーパスが作られてきた\cite{pustejovsky:TimeBankCorpus:03,cassidy:TimeBankDenseCorpus:2014,reimers:EventTimeCorpus:2016}.これらのコーパスでは開始・終了時が比較的明確な事象表現を対象にアノテーションが行われたが,テキストの時間情報理解のための手がかりはこれにとどまらない.本研究では,時間性が曖昧な表現を含めた,テキスト中の様々な表現がもつ時間情報を表現力豊かにアノテーションするための基準を提案する.先行研究における時間情報アノテーションのアプローチは2つに大別される.1つは事象間の時間的順序関係を付与する{\bf相対的なアノテーション方法}である.もう1つは各事象を時間軸に対応させる{\bf絶対的なアノテーション方法}である.前者は小説など時間情報の少ないテキストであっても情報量の多いアノテーションが可能である.後者は新聞などの時間情報の多いテキストにおいて少ないアノテーション量で正確に時間情報を表現できる.本研究は後者のアプローチを発展させるものであり,構築するコーパスはタイムライン生成など時間軸を用いてテキストの比較・統合を行うタスクにおいて学習/評価データとして使用することが可能である.本アノテーション基準の特徴は次の2つである.1つは,時間性をもち得る幅広い表現をアノテーション対象とすることである.多くの先行研究は,TimeML\cite{Sauri06timemlannotation}のガイドラインに従い,何か起きたことやその状態を表す一時性の強い表現である{\sl``event''}に対してアノテーションを行っている.そのため次の例の「出現しており」のような一時性の弱い表現にはアノテーションが行われない.\vspace{0.5\Cvs}\enumsentence{インターネット上では様々な事業が急速に{\itshape\bfseries出現しており},政府でさえ把握できていない.}\vspace{0.5\Cvs}しかし,一時性の弱い表現がもつ時間情報もテキスト解釈の手がかりとなり得る.この例の場合,「出現しており」が数年前から現在にかけての事象であるという時間情報をアノテーションすることも重要である.そこで本研究では先行研究より対象を広げ,テキスト中で時間性をもち得る全ての事象表現,すなわちテキスト中の述語または事態性名詞(サ変名詞,動詞連用形の名詞化,形容動詞語幹)を含む基本句全て(以降,対象表現と呼ぶ)をアノテーション対象とする.ここで基本句とは,京都大学テキストコーパスで定義されている単位で,自立語とそれに続く付属語のことである.本アノテーション基準のもう1つの特徴は,頻度や期間などの多様な時間情報を扱えることである.\cite{reimers:EventTimeCorpus:2016}は事象の起きる期間を開始点と終了点を用いて時間軸に対応付けたが,次の例で太字で示す「飛び飛びな時間」や「大きな区間の中のある一部の期間」に起きる事象を正確に時間軸に対応付けることはできなかった.\vspace{0.5\Cvs}\enumsentence{\label{ex:baseball}毎週日曜は球場で野球を{\itshape\bfseries見る}。}\enumsentence{\label{ex:trip}来週は3日間京都に{\itshape\bfseries出張する}。}\enumsentence{昔はよく一緒に{\itshape\bfseries遊んでいた}。}\vspace{0.5\Cvs}本研究では,テキスト中に含まれる多様な時間情報をより正確に時間軸に対応付けられる時間タグを導入する.多様な表現に対して表現力豊かにタグ付けすることで,個人のテキスト解釈や常識がタグの揺れとして現れる.本研究ではこのような揺れも時間がどのように解釈されているかを知る上で重要だと考えているため,最終的に複数のアノテータの付与した時間タグを1つに統合することはしない.代わりに,解釈の違いを尊重しつつ明らかなアノテーションミスのみを修正するアノテーション方法を導入する.本アノテーション基準を用いて,京都大学テキストコーパス中の113文書4,534対象表現に対してアノテーションを行った.その結果,対象表現の76\%に時間性が認められ,そのうち35\%(全体の26\%)で本稿で新たに提案する記法が用いられた.同コーパスには,既に述語項関係や共参照関係のアノテーションがなされているため,本アノテーションと合わせてテキスト中の事象・エンティティ・時間を対象とした統合的な時間情報解析に活用することが可能となる.
\section{関連研究}
事象情報と時間情報を関連付けたコーパスは,これまでにも多く作られており,これらのアノテーション方法は大きく2つのアプローチに分けられる.1つは,事象間の時間的順序関係を付与する方法である.事象情報や時間情報を扱う多くのタスクで利用されているTimeBankCorpus\cite{pustejovsky:TimeBankCorpus:03}には,TimeMLの基準に基づいて事象・時間表現情報がアノテーションされており,さらに時間的順序関係を表すTLINK,事象間の関係を表すSLINK,相動詞と事象の関係を表すALINKの3つの関係が付与されている.当初はアノテータが重要と判断した表現間にのみアノテーションがなされていたためスパースであったが,後のTempEvalタスクはこれを発展させ,同一文中と隣接文間の関係に対してアノテーションを行った.BCCWJ-TimeBank\cite{BCCWJ-TimeBank:14}は,現代日本語書き言葉均衡コーパス(BCCWJ)の新聞記事に対してTimeBankCorpusに準拠した基準でアノテーションを行ったものである.このような時間的順序関係をより密にアノテーションしたコーパスも存在する.\cite{kolomiyets12}は子ども向けの物語コーパス中の各事象表現に対してその最も近い事象表現との時間的順序関係をアノテーションした.またTimeBankDenseCorpus\cite{cassidy:TimeBankDenseCorpus:2014}は,同一文内・隣接文間の全ての事象−時間表現間,事象−事象表現間に対してアノテーションを行っている.もう1つのアプローチは,事象を時間軸に対応させる方法である.EventStatusCorpus\cite{huang:EventStatusCorpus:16}は,社会不安に関する新聞記事中の事象表現に対して{\slPast,On-going,FuturePlanned,FutureAlert,FuturePossible}の5つのラベルをアノテーションした.\cite{asakura-hangyo-komachi:2016:WNUT}は,ソーシャルメディアに投稿された洪水に関するテキストに含まれる事象表現に対して{\slPAST,PRESENT,FUTURE}のラベルと事実性に関する3つの値({\slhighprobability,lowprobability,unmentioned})をアノテーションした.より細かい粒度で時間軸に対応付けたコーパスも存在する.\cite{reimers:EventTimeCorpus:2016}は,TimeBankCorpus中の事象表現に対して時間値を付与した.時間値は日にちの粒度で付与されており,事象が1日内で終わるものか,複数日に跨るものかでタグが異なる.前者にはその事象が起きた日付を,後者にはその事象の開始日と終了日を付与する.次の例文の「出発した」は1日内の事象であり,この方法でアノテーションする場合は{1980-05-26}を付与する.「過ごした」は複数日に跨る事象であるため,{\slbeginPoint=1980-05-26endPoint=1980-06-01}のように開始日と終了日を付与する.\vspace{0.5\Cvs}\enumsentence{\label{ex:ETC1}1980年5月26日、彼は宇宙に向けて{\itshape\bfseries出発した}。サリュート6号で6日間を{\itshape\bfseries過ごした}。}\vspace{0.5\Cvs}事象の正確な日付が分からない場合は,{\slafter}と{\slbefore}を用いて記述する.次の例文の「滞在した」には{\slbeginPoint=after1984-10-01before1984-10-31endPoint=after1984-10-01before1984-10-31},「選ばれた」には{\slafter2014-01-01before2014-12-31}が付与される.\vspace{0.5\Cvs}\enumsentence{\label{ex:ETC2}サリバンは1984年10月、チャレンジャー号のメンバーとして宇宙に{\itshape\bfseries滞在した}。2014年にはタイム100に{\itshape\bfseries選ばれた}。}\vspace{0.5\Cvs}また,時間性をもたない事象に対しては,{\sln/a}を付与した.彼らのアノテーションでは,全事象の約6割が1日内の事象,約4割が複数日に跨る事象である.前者のうち日付が明確なものは56\%,後者のうち開始日が明確なものは20\%,終了日が明確なものは16\%であり,全事象の64\%が{\slafter}または{\slbefore}を用いて表されている.時間性をもたない事象は全体の0.7\%であった.本稿ではこの事象を時間軸に対応させるアプローチを発展させ,テキスト中の多様な時間情報に対応できるタグ付け基準を提案する.
\section{アノテーション基準}
1章で述べたように,本研究ではテキスト中の述語または事態性名詞(サ変名詞,動詞連用形の名詞化,形容動詞語幹)を含む基本句全てを対象表現として,それらに時間タグを付与する.ここで基本句とは,自立語とそれに続く付属語のことである.基本句を基本単位とすることにより,「行くつもりだ」や「勝てたかもしれない」のような助詞や接尾辞を含む動詞句をひとかたまりとして時間性を考えることができる.英語を対象とした先行研究の多くが,開始と終了が比較的明瞭で一時性の強い事象である,TimeMLにおける{\sl``event''}をアノテーション対象とするのに対し,本研究では時間性をもち得るより幅広いこれらの表現をアノテーション対象とする.対象表現の例を次に示す.例(\ref{ex:go_kyoto})の「行くつもりだ」は動詞を含む基本句であるため,また例(\ref{ex:rengo})の「所属」は事態性名詞であるため対象表現である.例(\ref{ex:marry})には,事態性名詞の基本句である「結婚を」と,動詞を含む基本句である「考えたい」の2つの対象表現が存在する.\vspace{0.5\Cvs}\enumsentence{\label{ex:go_kyoto}明日京都に{\itshape\bfseries行くつもりだ}。}\enumsentence{\label{ex:rengo}連合{\itshape\bfseries所属}議員}\enumsentence{\label{ex:marry}そろそろ{\itshape\bfseries結婚を}{\itshape\bfseries考えたい}。}\vspace{0.5\Cvs}アノテータには,本章で述べるアノテーション基準に従って,対象表現に対するアノテーションを依頼した.アノテータは,まず対象表現が時間性をもつかどうかを判定する.時間性をもつ場合はテキストの作成日(DocumentCreationTime,DCT)と文脈を考慮して対応する時間タグを付与する.時間性を持たない場合は{\slt:n/a(notapplicable)}という時間タグを記す.時間性をもつ場合,時間タグは時間基本単位(TimeBaseUnit,TBU)またはその組み合わせとして表す(表\ref{table:tag_list}).時間基本単位とは,特定の時点や期間を表すもので,5種類のタグを定義する.さらに,時間基本単位中の一部の期間や繰り返しを表す3通りの方法を導入し,多様な時間情報を表現する.\cite{reimers:EventTimeCorpus:2016}が扱った時間情報は,表\ref{table:tag_list}中の1,3,b,{\slt:n/a}である.時間タグは,先行研究と同様,日にちを最小粒度とする.これは,情報分析において着目したい粒度が数日から数年であることが多いことによる.例えば次の文のように,2017年4月29日に書かれたテキストでは,「帰った」はその日の18時のことであるが,日にち以下の粒度の情報は捨てて2017年4月29日という情報をタグ付けする.\vspace{0.5\Cvs}\enumsentence{\label{ex:time}{[DCT:2017-04-29]}今日は夜6時に{\itshape\bfseries帰った}。}\begin{table}[t]\caption{時間タグの一覧}\label{table:tag_list}\input{07table01.tex}\end{table}\subsection{対象表現の時間性判定}対象表現が時間性をもつかどうかは,過去から未来の間において表現の表す動作や状態に変化があるか否かで判断する.文脈によって変化の有無や度合いの解釈は変わり得るため,次のような事例を共通認識としつつ,具体的な判断基準は各アノテータに委ねた.時間性をもつ例をいくつか挙げる.\vspace{0.5\Cvs}\enumsentence{\label{ex:kyoto}明日京都に{\itshape\bfseries行く}。}\enumsentence{\label{ex:nlp}言語処理研究が{\itshape\bfseries盛んだ}。}\enumsentence{\label{ex:tall}あの子は背が{\itshape\bfseries低かった}。}\vspace{0.5\Cvs}例(\ref{ex:kyoto})の「行く」は,明日という特定の日に起きるものであるため,時間性をもつ.例(\ref{ex:nlp})の「盛んだ」は,いつからいつまでかは分からないがある限られた時期のことであるため時間性をもつと考える.例(\ref{ex:tall})の「低かった」も,現在はそうではないことを示唆しているため,時間性をもつと考える.これらの例において,先行研究がアノテーション対象としているのは,例(\ref{ex:kyoto})のみである.次に時間性をもたない例を示す.\vspace{0.5\Cvs}\enumsentence{\label{ex:rabbit}ウサギは草を{\itshape\bfseries食べる}{\itshape\bfseries動物だ}。}\enumsentence{\label{ex:eye}彼の目は{\itshape\bfseries黒い}。}\vspace{0.5\Cvs}例(\ref{ex:rabbit})の「食べる」と「動物だ」は,昔から変わらない一般的な事柄であるため時間性をもたないと考える.例(\ref{ex:eye})の「黒い」も同様である.ただし,次の文のように現在は異なることを示唆する表現の場合は時間性をもつと解釈する.\vspace{0.5\Cvs}\enumsentence{以前は目の色が{\itshape\bfseries黒かった}。}\vspace{0.5\Cvs}\subsection{時間基本単位}\subsubsection{日付・期間を表すタグ}日付の時間情報は,{\slt}タグにその時間の表す値を記すことで表現する.{\slt:YYYY}や{\slt:YYYY-MM-DD}など,BCCWJ-TimeBankで定義されている時間表現の時間値の記法で記す.次の例の「到着した」は2017年4月28日の出来事であるため,時間値{\slt:2017-04-28}を付与する.\vspace{0.5\Cvs}\enumsentence{{[DCT:2017-04-29]}昨日大統領がニューヨークに{\itshape\bfseries到着した}。\\~~~→{\slt:2017-04-28}}\vspace{0.5\Cvs}本研究では先行研究とは異なり,日にちより大きな粒度の時間タグを許す.例えば次の例の「暑かった」には,{\slt:2016-08}を付与する.このタグは,必ずしも厳密に2016年8月1日から31日までの期間を表すわけではない.「8月」という表現は「8月1日から31日まで」という表現と比べ,その表す期間は漠然と捉えられる.本研究におけるタグの粒度はこのような漠然性を含意する.\vspace{0.5\Cvs}\enumsentence{{[DCT:2017-04-29]}昨年の8月は{\itshape\bfseries暑かった}。\\~~~→{\slt:2016-08}}\vspace{0.5\Cvs}アノテータの負担軽減のため,次のような省略表記を導入する.\begin{itemize}\item文書作成日時の日付は{\slt:DCT}と記すことができる.\itemある日から一定期間前/後の日を引き算/足し算で記すことができる.この際,期間はBCCWJ-TimeBankで定義された期間表現の時間値の記法を用いる.例えば,1年間は{\slP1Y},1ヶ月は{\slP1M},1週間は{\slP1W},1日間は{\slP1D}と表す.次の例の「行く」の時間値は{\slt:DCT+P1W},「行った」の時間値は{\slt:DCT--P1W}と表せる.\vspace{0.5\Cvs}\enumsentence{私も来週そこに{\itshape\bfseries行く}。\\~~~→{\slt:DCT+P1W}}\enumsentence{私も先週そこに{\itshape\bfseries行った}。\\~~~→{\slt:DCT--P1W}}\end{itemize}\vspace{0.5\Cvs}\subsubsection{漠然とした時間を表すタグ}テキスト中には漠然とした時間情報を表す表現も多く存在する.例えば次の文では,「住んでいた」が過去のいつ,どのくらいの期間のことであるのか具体的には分からない.\vspace{0.5\Cvs}\enumsentence{昔広島に{\itshape\bfseries住んでいた}。}\vspace{0.5\Cvs}\cite{reimers:EventTimeCorpus:2016}はこれを「今日までのある日から,今日までのある日まで」と捉え,{\slbeginPoint=beforeDCTendPoint=beforeDCT}とタグ付けした.本研究では,このような漠然とした時間情報をより正確に表現するため,新たなタグを導入する.文書作成日を基準として,漠然とした過去,現在,未来は,それぞれ{\slt:PAST,t:PRESENT,t:FUTURE}と記す.ここで,「現在」は文書作成日の少し前から少し後までを表す.例えば次の文の「持ち込める」は,文書作成日だけでなく,文書作成日から少し前や後でも成り立つことだと考えられるので,{\slt:PRESENT}を付与する.\vspace{0.5\Cvs}\enumsentence{国内線では飲み物を{\itshape\bfseries持ち込める}。\\~~~→{\slt:PRESENT}}\vspace{0.5\Cvs}過去と未来については,それぞれ時間的距離に応じて{\slt:PAST-M}と{\slt:PAST-Y},{\slt:FUTURE-M}と{\slt:FUTURE-Y}という表記を導入する.{\slt:PAST-M}は数ヶ月前を,{\slt:PAST-Y}は数年前を表す\footnote{数週間前までの過去は,\ref{chap:nyoro}節の$\sim$を用いて{\slt:$\sim$DCT}と表す.}.数年以上前,あるいはどのくらい昔なのかが不明な場合は{\slt:PAST}を用いる.未来についても同様である.漠然とした時間表現はこれ以外にもある.「1980年頃」や「約3年間」など数値の曖昧性が明示されている表現の場合,その曖昧な数値の直後に{\slap(approximately)}と記す.次の例の「建てられた」には{\slt:1980ap}を付与する.\vspace{0.5\Cvs}\enumsentence{1980年頃に{\itshape\bfseries建てられた}建物\\~~~→{\slt:1980ap}}\subsubsection{開始・終了時を用いて期間を表す方法\label{chap:nyoro}}期間の時間値は,開始時と終了時を$\sim$で結ぶことで表す.これは\cite{reimers:EventTimeCorpus:2016}の{\slbeginPoint,endPoint}に対応する.例(\ref{ex:ETC1})の「過ごした」には{\slt:1980-05-26$\sim$1980-06-01}を付与する.\vspace{0.5\Cvs}\enumsentence[(\ref{ex:ETC1})]{1980年5月26日,彼は宇宙に向けて出発した。サリュート6号で6日間を{\itshape\bfseries過ごした}。\\~~~→{\slt:1980-05-26$\sim$1980-06-01}}\vspace{0.5\Cvs}事象の開始時,終了時のいずれかが不明かつ近い過去/未来である場合はこれを書かない.次の例文の「忙しかった」の時間タグは{\slt:$\sim$2017-04-28}となる.\vspace{0.5\Cvs}\enumsentence{{[DCT:2017-04-29]}昨日まで{\itshape\bfseries忙しかった}。\\~~~→{\slt:$\sim$2017-04-28}}\vspace{0.5\Cvs}事象の開始時,終了時が遠い過去や未来である場合は,{\slPAST}や{\slFUTURE}を用いる.\subsubsection{相対的な時間を表すタグ}事象を時間軸に対応付けるアプローチの弱点の1つは,小説など時間表現が少ないテキストでは多くの事象が時間軸と対応付けられない可能性があることである.このような場合,事象表現間の相対的な時間関係をタグ付けするアプローチの方が情報量の多いアノテーションが可能である.そこで本研究では,絶対的な時間値が分からない場合は相対的な時間値を付与する.対象表現の具体的な日付が分からないが,同一文中の他の基本句との時間関係が分かる場合,これを時間値として記す(時間共参照と呼ぶ).例えば次の文の「起きた」は,具体的な日付は分からないが基本句「選挙の」の表す日の翌日であることは分かる.この場合,{\slt:選挙の+P1D}と記す.\vspace{0.5\Cvs}\enumsentence{選挙の翌日、大規模なデモが{\itshape\bfseries起きた}。\\~~~→{\slt:選挙の+P1D}}\vspace{0.5\Cvs}参照できる基本句が複数ある場合は,1.絶対的な時間値が付与されている基本句,2.距離が近い基本句の順で優先順位を付け,最も優先順位の高いもの1つを選択する.\subsubsection{発話日時を表すタグ}会話文やインタビューなどでは,その発話日時が不明なことが多い.文脈から具体的な日付が分かる場合はそれを利用してタグ付けを行うが,分からない場合は発話日を{\slt:UD(UtteranceDay)}として記述する.例えば次の文の「頑張るしかない」には{\slt:UD+P1D}を付与する.\vspace{0.5\Cvs}\enumsentence{「明日{\itshape\bfseries頑張るしかない}」と監督は言った。\\~~~→{\slt:UD+P1D}}\vspace{0.5\Cvs}ただし,上の文の「言った」のように,発話の外の表現には{\slUD}は用いず,絶対的な時間値を記す.\subsection{時間基本単位(TBU)の一部分の表現}\subsubsection{TBU内の一部の期間を表す方法}\label{chap:span}ある大きなTBUの中の一部の期間は,大きい期間を表す{\slt}タグと小さい期間を表す{\slspan}タグを組み合わせることで表現する.{\slspan}タグは,期間の長さが分かる場合はBCCWJ-TimeBankで定義された期間表現の時間値の記法を用いて記す.例えば3日間は{\slspan:P3D},3週間は{\slspan:P3W},3年間は{\slspan:P3Y}と表す.期間の長さが分からない場合は{\slspan:part}と記す.例(\ref{ex:ETC2})の場合,「滞在した」は1984年10月のある期間なので{\slt:1984-10,span:part}を,「選ばれた」は2014年のある日のことなので{\slt:2014,span:P1D}を付与する.\vspace{0.5\Cvs}\enumsentence[(\ref{ex:ETC2})]{サリバンは1984年10月、チャレンジャー号のメンバーとして宇宙に{\itshape\bfseries滞在した}。2014年にはタイム100に{\itshape\bfseries選ばれた}。\\~~~→「滞在した」{\slt:1984-10,span:part}\\~~~~~「選ばれた」{\slt:2014,span:P1D}}\vspace{0.5\Cvs}\cite{reimers:EventTimeCorpus:2016}と比較すると,{\slspan:part}は彼らの{\slbefore,after}を用いた記法に対応する.\subsubsection{TBU中の繰り返しを表す方法}対象表現は常に連続した期間として表せるわけではない.「毎週日曜日」に行う事象や「3日に1回」行う事象もある.このように飛び飛びで複数日に渡って起きる事象は,{\slt}タグや{\slspan}タグに加えて繰り返し規則を表す{\slfreq}タグを用いて表す.繰り返しに関するアノテーション方法は次の3つがある.\begin{itemize}\item「週に2回」や「3日に1度」のように,繰り返し規則が一定の期間中に起きた回数として表される場合,回数/期間を{\slfreq}タグに記す.次の例文の「通っている」には{\slt:2016-07$\sim$DCT,freq:2/P1W}とタグ付けする.\vspace{0.5\Cvs}\enumsentence{{[DCT:2017-04-29]}昨年7月から週に2回プールに{\itshape\bfseries通っている}。\\~~~→{\slt:2016-07$\sim$DCT,freq:2/P1W}}\vspace{0.5\Cvs}\item「毎月25日」や「毎週日曜日」のように,繰り返し規則が特定の日付や曜日として表される場合,その日付や曜日を{\slfreq}タグに記す.このとき,BCCWJ-TimeBankのタグ付け基準を拡張し,いかなる数字も入るという意味で{\slYYYY-MM-DD}の各部分に@を入れることを許す.例えば{\slfreq:@@@@-@@-25}は毎月25日を表す.次に例を挙げる.\vspace{0.5\Cvs}\enumsentence{\label{ex:every_25}骨董市は毎月25日に{\itshape\bfseries開催される}。\\~~~→{\slt:PRESENT,freq:@@@@-@@-25}}\enumsentence{\label{ex:every_sunday}毎週日曜はプールに{\itshape\bfseries行く}。\\~~~→{\slt:PRESENT,freq:@@@@-@@-Sun}}\vspace{0.5\Cvs}\item具体的な回数や頻度が文脈から分からない場合,頻度を抽象的に表した4つの値,{\slusually,often,sometimes,rarely}のいずれかを用いる.次の例文の「行く」には{\slt:PRESENT,freq:sometimes}を付与する.\vspace{0.5\Cvs}\enumsentence{\label{ex:often}{[DCT:2017-04-29]}スターバックスに時々{\itshape\bfseries行く}。\\~~~→{\slt:PRESENT,freq:sometimes}}\end{itemize}
\section{アノテーション結果}
\subsection{アノテーション対象}上述のアノテーション基準を用いて,京都大学テキストコーパス\cite{kawahara:KUCorpus:02}中の一部の記事に対してアノテーションを行った.同コーパスは,1995年1月1日から17日までの毎日新聞の記事に各種言語情報を人手で付与したものである.この中から当時話題になっていたトピックを11個選定し,トピックに関連する113記事856文,4,534表現にアノテーションを行った(表\ref{table:annot_topic}).4,534表現のうち,述語は3,072表現,事態性名詞は1,462表現であった.\begin{table}[b]\caption{アノテーションを行った記事数の分布}\label{table:annot_topic}\input{07table02.tex}\end{table}\subsection{アノテーション方法}3名のアノテータにアノテーションを依頼した.本研究では個人の感覚や常識によって解釈が変わるような表現も対象としているため,アノテータの付与したタグを最終的に1つに統合することはしない.代わりに,他のアノテータの解釈を尊重しつつ,明らかなアノテーションミスは修正する2段階のアノテーションを行う.まず対象となる文書群全体を3つに分割し,各アノテータは第1段階でそのうちの2つ,第2段階で残りの1つを担当する(図\ref{fig:rotation}).これにより,最終的に全員が各文書に1度ずつアノテーションを行う.第1段階では各アノテータが独立にアノテーションを行うのに対し,第2段階では他の2人が第1段階で付与したタグを見た上で同じタグもしくは独自のタグを付与する.第2段階では,もし既に付けられたタグに明らかな誤りがある場合は印をつける.印を付けられたタグは全体の2\%であり,本稿における分析では欠損値として扱う.\subsection{時間タグの分布}アノテーションされた全時間タグの分布を表\ref{table:tag_dist}に示す.約25\%の対象表現が時間性をもたないと判定された.日付タグが全体の約25\%,期間を表すタグが約15\%を占める一方で,漠然とした時間タグは約10\%,時間共参照を含むタグは数\%と少ない.新聞を対象にタグ付けを行ったため,表現の多くが時間軸に対応付けられたと考えられる.また,繰り返しを表す{\slfreq}タグは全体の1\%とほとんど表れなかった.本稿で新たに提案したタグは,全体の約25\%を占めた.\begin{figure}[t]\begin{center}\includegraphics{26-1ia7f1.eps}\end{center}\hangcaption{3名のアノテータによるアノテーション方法.データを3分割し,各アノテータは第1段階でそのうちの2つ,第2段階で残りの1つを担当する.第2段階では他の2人が第1段階で付与したタグを見ることができる.}\label{fig:rotation}\end{figure}表\ref{table:tag_dist2}は,アノテーションの第2段階における,述語と事態性名詞それぞれに付与された時間タグの分布を示したものである.述語に付与されたタグの27\%を日付タグが占めるのに対し,事態性名詞では約半分の12\%である.一方,事態性名詞では時間性なしと判定された表現が多く,述語の約2倍の割合に当たる35\%を占める.これは,「全欧安保{\itshape\bfseries協力}機構」「地方{\itshape\bfseries旅行の}自由化」など,事態性名詞が組織や一般的な事象などを表すことも多いためである.\begin{table}[p]\caption{第1,第2段階でアノテーションされた全ての時間タグの分布}\label{table:tag_dist}\input{07table03.tex}\par\vspace{4pt}\smallインデントされた項目は内訳を表す.また,*は本研究で新たに導入したタグを表す.\vspace{1\Cvs}\end{table}\begin{table}[p]\caption{第2段階でアノテーションされた,述語と事態性名詞に対する時間タグの分布}\label{table:tag_dist2}\input{07table04.tex}\end{table}\subsection{アノテータ間一致率}Krippendorff's$\alpha$\cite{krippendorff04,hayes:Krippendorffalpha:07}を用いてアノテータ間一致率を算出した.\cite{reimers:EventTimeCorpus:2016}と同様の2つの基準を用いた.1つはタグの一致度を厳格に測る基準(Strict基準)で,時間タグが完全に一致するか否かを判定する.例えば{\slt:1994-12-31}は{\slt:1994-12-31}と一致するが,{\slt:$\sim$1994-12-31}とは一致しない.もう1つは時間タグの部分一致を認める緩やかな基準(Relax基準)である.アノテータ間の時間タグが1日でも重なっていたら一致とし,全く重なっていなかったら不一致とする.例えば{\slt:1994-12-31}と{\slt:$\sim$1994-12-31}は,両者の範囲が重なっているため一致と判定する.一方,{\slt:$\sim$1994-12-31}と{\slt:1995-01-01}のように,1日も重なっていない場合は不一致と判定する.このとき,{\slt:n/a}と時間共参照については部分一致を認めず,完全に同じでない場合は不一致として扱う.各段階終了時の一致率を表\ref{table:krippendorff}に記す.表の括弧内の2つの数値はそれぞれ述語,事態性名詞のみを対象とした場合の一致率である.最終時とは,第2段階までのアノテーションを終えた,最終的なタグを表す.「{\slt:n/a}を除く」は,各段階で1人でも{\slt:n/a}を付けた表現(第1段階終了時,最終時ともに約1,300個)を除いたものである.第1段階終了時では2名の,最終時では3名のアノテータ間一致率を算出した.\begin{table}[b]\caption{Krippendorff's$\alpha$を用いて算出したアノテータ間一致率}\label{table:krippendorff}\input{07table05.tex}\end{table}第1段階終了時と最終時の一致率を比較すると,後者が大幅に上がっている.これは,前者は独立に付与されたタグであるのに対し,後者は他のアノテータのタグを見て付与された第2段階のタグが含まれていることが影響していると考えられる.また,{\slt:n/a}が付与された表現を除いて評価すると,Strict基準において大幅な一致率向上が見られた.このことから,Relax基準での一致率が低い原因の1つが,時間性判定の難しさにあることが分かる.述語と事態性名詞の一致率を比較すると,両基準ともに事態性名詞の一致率が低い.事態性名詞は述語に比べて時間性のない表現の占める割合が多いため,時間性判定の難しさの影響をより大きく受けていると考えられる.{\slt:n/a}が付与された表現を除いてもStrict基準では事態性名詞の一致率が低く,時間が明確な表現は少ないことが分かる.ただし,これらの値はRelax基準では大幅に上がり,また述語との差もほぼなくなるため,タグは完全には一致しないもののアノテータ間の認識に大きな隔たりはないと考えられる.\cite{reimers:EventTimeCorpus:2016}の一致率と比較すると,特にStrict基準において低いものとなっている.これは時間タグのバリエーションを増やしたことにより個人の解釈の揺れが多く反映されたことを表している.両基準におけるアノテータ間のタグの一致/不一致について,次章でより詳細に述べる.
\section{アノテータ間でのタグの揺れ分析}
本研究で提案した時間タグは,先行研究と比べ時間情報をより正確に表現できるようになった一方でアノテータの解釈に敏感である.本章では,アノテータ間でどのように時間タグが揺れたかを分析する.具体的な時間値にとらわれずに時間タグの特徴を扱うため,時間タグを粒度の面から抽象化する.例えば,{\slt:1994-12-31}や{\slt:DCT}などの日付を表す時間タグは{\slDAY},{\slt:$\sim$1994-12-31}は{\sl$\sim$DAY},{\slt:1994}は{\slYEAR}とする.また,{\slspan}タグや{\slfreq}タグはその値を省略して表記する.例えば{\slt:$\sim$1994-12-31,span:P1D}や{\slt:$\sim$1994-12-31,span:part}は{\sl$\sim$DAY,span}とする.本章では,アノテータが独立にアノテーションを行った,第1段階のアノテーション結果を対象として分析する.表\ref{table:strict-tag-cooccur},表\ref{table:relax-tag-cooccur}は,それぞれStrict基準とRelax基準において,アノテータ間でどのように時間タグが揺れたかをまとめたものである.ここで,アノテーションの一致の判定は元の時間値を用いて行い,集計のみ抽象化を行った値を使用した.表\ref{table:strict-tag-cooccur}を見ると,Strict基準ではアノテータ間で一致したタグの約7割が{\slDAY}と{\sln/a}であり,不一致の多くは{\sln/a}か否かの判定,あるいは{\slDAY}と{\sl$\sim$DAY}などの日付と期間の解釈の違いに起因するものであることが分かる.表\ref{table:relax-tag-cooccur}を見ると,Relax基準における不一致のほとんどは{\sln/a}か否かの判定である.Strict基準で見られた日付と期間の解釈の違いのほとんどはこの基準では一致しており,領域が重なっていたことが分かる.\begin{table}[b]\hangcaption{第1段階のアノテーション結果に対する,『Strict基準』におけるアノテータ間の時間タグの一致/不一致頻度}\label{table:strict-tag-cooccur}\input{07table06.tex}\end{table}このような,アノテータ間の時間性判定と日付・期間の解釈の揺れについて次節以降,具体例を通して分析する.\begin{table}[t]\hangcaption{第1段階のアノテーション結果に対する,『Relax基準』におけるアノテータ間の時間タグの一\mbox{致/}不一致頻度}\label{table:relax-tag-cooccur}\input{07table07.tex}\end{table}\subsection{時間性の判定}Relax基準において,アノテータ間でタグが一致しない最大の原因は,アノテータによって時間性の判断が揺れることにある.{\sln/a}タグと共起しやすいタグは,頻度順に{\sln/a}(76.6\%),{\slDAY}(5.3\%),{\slPRESENT}(5.0\%),{\sl$\sim$DAY,span}(1.7\%)となっており,8割近くの割合でアノテータ間で{\sln/a}が一致し,そうでない場合の約4割は片方のアノテータが{\slDAY}か{\slPRESENT}を付与している.このような表現には状態や役職,組織を表すものが多く,ある程度普遍的なものと見るか,期間としては長くても一時的なものと見るかで判断が分かれている.次の例では,アノテータのタグが{\slt:PRESENT}と{\slt:n/a}で揺れた.\vspace{0.5\Cvs}\enumsentence{{大統領官邸の{\itshape\bfseriesある}中心部}\\~~~→{\slt:PRESENT}vs{\slt:n/a}}\vspace{0.5\Cvs}時間性を認めたアノテータは,記事の執筆時前後では大統領官邸が中心部にあるものの,過去,あるいは未来にはそれが変わる可能性があると解釈したのに対し,時間性を認めなかったアノテータは,変わる可能性はほとんどない,半永続的なことと解釈したと考えられる.\subsection{日付と期間の解釈}\cite{reimers:EventTimeCorpus:2016}も指摘しているとおり,ある事象がある日一日内のことなのか,複数日に跨ることなのかをテキストから判断するのは難しい.また,ある事象の開始時や終了時を明確化することも容易ではない.このような曖昧性は,本アノテーションにおいては{\slDAY},{\sl$\sim$DAY},{\sl$\sim$DAY,span},{\slDAY$\sim$},{\slDAY$\sim$,span},{\slPRESENT}の揺れとして現れる.中でも多いのは{\slDAY}と{\sl$\sim$DAY,span}の間の揺れである.特にDAYがDCTの場合が多く,文書作成日に起きたのか,それまでに起きたのかの解釈が難しいことを表している.これはアノテーション対象が新聞記事であることが要因の1つであると考えられる.次の例では,アノテータのタグが{\slt:DCT}と{\slt:$\sim$DCT,span:part}で揺れた.前者はこの表現を文書作成日のことと解釈したのに対し,後者はより長い期間であると解釈したと考えられる.\vspace{0.5\Cvs}\enumsentence{しかしデュダエフ政権部隊は頑強に{\itshape\bfseries抵抗},双方の死者は数百人に達する見込みだ。\\~~~→{\slt:DCT}vs{\slt:$\sim$DCT,span:part}}\vspace{0.5\Cvs}次の例では,アノテータのタグが{\slt:DCT}と{\slt:$\sim$DCT,span:P1D}で揺れた.前者は新聞の速報性から,その日のことを記事にしたと解釈したのに対し,後者はそうとは限らないと解釈したと考えられる.\vspace{0.5\Cvs}\enumsentence{外相は,「非民営化・再国営化」の基本方針を{\itshape\bfseries打ち出した}。\\~~~→{\slt:DCT}vs{\slt:$\sim$DCT,span:P1D}}\vspace{0.5\Cvs}こうした新聞ならではの書き方やテーマ,性質が,解釈をより難しくしていると考えられる.このように,テキストに明示的に書かれていないことに対する解釈は読者によって少しずつ異なり,しかもいずれも誤りとは言えない.人がどのようにテキスト理解をしているのかをデータとして表現する方法の1つが,本研究のように,複数のアノテータの解釈を反映させたタグを全て記載することだと考える.
\section{時間情報推定}
本研究で付与したタグを推定する簡単なモデルを作成し,そのエラー分析を通して,推定に必要な知識や技術について議論する.\subsection{問題設定}本稿で提案した時間タグは多様な時間情報を扱える一方で,作成したコーパスの分量が大きくないため,機械学習を用いて直接推定するにはタグがスパースだという問題がある.そこでタグを下記の3つの要素へと簡略化し,各々を多クラス分類問題として推定する(図\ref{fig:predict_concept}).\vspace{0.5\Cvs}\begin{description}\item[~~a.]時間性:事象が時間性をもつか否か(2クラス)\item[~~b.]事象の時間的長さ:事象の発生期間(4クラス)\item[~~c.]事象の発生時期:文書作成日を基準とした事象の発生時期(5クラス)\end{description}\vspace{0.5\Cvs}以下に各タスクの詳細を述べる.\begin{figure}[t]\begin{center}\includegraphics{26-1ia7f2.eps}\end{center}\caption{推定を行う3つのタスク}\label{fig:predict_concept}\end{figure}\subsubsection{(a)時間性判定タスク}対象表現が時間性をもつか否か,すなわち対応する時間タグが{\slt:n/a}か否かを判定する.全対象表現4,534個のうち,76\%の3,438個が時間性をもつ.\subsubsection{(b)事象の時間的長さ分類タスク}時間性をもつ事象において,事象の時間的な長さを時間粒度に応じて4つのクラスに大別し,4クラス分類問題として考える.具体的には,期間を1日以内,1ヶ月未満,1年未満,1年以上,の4つに分類する.時間共参照やspan:partが付与された表現など時間の長さが分からないものはデータから取り除き、全4,534対象表現のうち2,752個を用いた.以下に例を示す.\begin{itemize}\item1日以内:~~~{\slt:1994-12-31,t:1994,span:P1D}\item1ヶ月未満:~~~{\slt:1994-12-25$\sim$1994-12-31,t:1994-12,span:P3D}\item1年未満:~~~{\slt:1994-12}\item1年以上:~~~{\slt:1994,t:PAST}\end{itemize}全体に占めるクラスの割合は,1日以内(1,545個,56\%),1ヶ月以内(640個,23\%),1年以内(135個,5\%),1年以上(432個,16\%)である.\subsubsection{(c)事象の発生時期分類タスク}時間性をもつ事象における,文書作成日から事象を代表する日にち(以降,事象代表日と呼ぶ)までの日数を時間の粒度に応じて5つのクラスに大別し,5クラス分類問題として考える.ここで,事象代表日とは事象の開始日と終了日の中間に位置する日を指す.spanタグを用いて表されるような開始日や終了日が不明な事象の場合,より広い範囲を表すtタグの中間に位置する日を用いる.例えば{\slt:1994-12,span:P3D}では,1994年12月の中間の日である1994年12月16日を事象代表日とする.具体的には,3年以上前,3年前から3日前,3日前から3日後,3日後から3年後,3年以上後の5つである(図\ref{fig:predictor3-concept}).時間共参照など事象の発生時期が明確に分からないものはデータから取り除き,全4,534対象表現のうち3,276個を用いた.\begin{figure}[t]\begin{center}\includegraphics{26-1ia7f3.eps}\end{center}\caption{事象の発生時期の5クラス分類(タスクc)}\label{fig:predictor3-concept}\end{figure}以下に文書作成日を1995年1月1日とした場合の例を示す.\begin{itemize}\item3年以上前:~~~{\slt:1990,t:PAST}\item3年前から3日前:~~~{\slt:1994-06-01,t:1994,span:P1D}\item3日前から3日後:~~~{\slt:DCT,t:1994-12-29$\sim$1994-12-31}\item3日後から3年後:~~~{\slt:1995-03,span:part,t:FUTURE-M}\item3年以上後:~~~{\slt:2000,t:FUTURE}\end{itemize}全体に占めるクラスの割合は,3年以上前(284個,9\%),3年前から3日前(879個,27\%),3日前から3日後(1,331個,41\%),3日後から3年後(571個,17\%),3年以上後(211個,6\%)である.\subsection{モデル}事象が時間性をもつかどうかは,対象表現中の語彙情報が大きな手がかりとなると考えられる.例えば「出勤する」は多くの場合時間性をもつのに対し,「装甲」などのサ変名詞は時間性をもたないことが多い.一方で,事象の時間的長さや発生時期は文脈に大きく依存すると考えられる.例えば,対象表現「滞在した」の前に「3日間」という表現があるのか「1年間」という表現があるのかで事象の時間的長さは全く異なる.同様に,対象表現「昇段した」の前の表現が「昨日」なのか「昨年」なのかで発生時期は異なる.そこで本研究では2つのモデルを用意し,時間性判定タスクでは対象表現に着目したモデルを,事象の時間的長さ分類タスクと発生時期分類タスクでは文脈にも着目したモデルを用いる.コーパス中の対象表現が多様でスパースであること,また対象表現自体が重要な手がかりでありword2vecで事前学習した単語分散表現が有効であると考え,これを活かしたニューラルネットワークモデルを構築する.モデルの全体図を図\ref{fig:predictor}に示す.\begin{figure}[t]\begin{center}\includegraphics{26-1ia7f4.eps}\end{center}\hangcaption{対象表現「空爆を」の時間情報を推定する2つのニューラルネットワークモデル.対象表現中の語彙情報のみを用いる(a)時間性判定モデル(左)と,文脈を使用する(b,c)事象の時間的長さ・発生時期推定モデル(右).}\label{fig:predictor}\end{figure}両モデルの違いは対象表現を表すベクトルである.時間性判定のモデルでは,対象表現中の各単語ベクトルを足し合わせたものを用いる.例えば,図\ref{fig:predictor}の例(左)では,対象表現「空爆を」を構成する「空爆」と「を」の2つの単語ベクトルを足し合わせる.文脈を用いるモデルでは,まず文全体に対して双方向GRU(GatedRecurrentUnit)\cite{GRU2014}を適用した後,対象表現中の自立語の単語ベクトルを用いる.図\ref{fig:predictor}の例(右)では,対象表現「空爆を」の中の自立語である「空爆」の単語ベクトルを用いる.両モデルとも,この対象表現ベクトルに,同一文/直近の時間表現情報を表すベクトルと,時間表現との共起スコアベクトルを結合し,パーセプトロンを用いてクラス分類を行う.以下に両ベクトルの詳細を述べる.\begin{itemize}\item同一文・直近の時間表現情報ベクトル:\\文に含まれる時間表現の時間的粒度を表す4次元のバイナリベクトルである.文中の時間表現をルールベースで検出し,検出された時間表現が(日,週,月,年)の各粒度に当てはまるか否かの2クラスでベクトルを構成する.例えば図\ref{fig:predictor}の例の場合,文中には「昨日」という時間表現が存在するため,「日」の粒度に該当する次元のみ1でその他は0の4次元ベクトル(1,0,0,0)となる.「同一文中の時間表現情報ベクトル」は,対象表現の文の時間情報ベクトルであり,「直近の時間表現情報ベクトル」は,対象文以前で時間表現を含む文の時間表現情報ベクトルである.全4,534対象表現のうち,35\%にあたる1,601表現で同一文中に時間表現が検出され,また87\%にあたる3,940表現ではその文以前に時間表現が検出された.\item共起スコアベクトル:\\対象表現と時間表現粒度の共起度を表す4次元の実数値ベクトルである.まず前処理として,前項と同様にテキスト中の時間表現をルールベースで検出し,これを(日,週,月,年)のいずれかの粒度に変換する.その後,対象表現と各粒度との同一文中での共起スコアを算出する.共起スコアには自己相互情報量(PointwiseMutualInformation,PMI)を,データには1984年から2005年までの朝日新聞1,300万文を用いた.\end{itemize}\subsection{実験}各タスクにおけるクラス分類には,コーパス構築時において第2段階でアノテーションされたタグを利用し,5分割交差検定を用いて学習・評価を行った.2クラス分類である時間性判定タスクの評価にはF1値,多クラス分類である事象の時間的長さ分類・事象発生時期分類タスクの評価にはMicro-F1値を用いた.パーセプトロンには,50次元の1つの隠れ層を持つ2層フィードフォワードニューラルネットワークを使用した.損失関数には交差エントロピー誤差関数を,パラメータの最適化にはAdadeltaを使用した.GRUの隠れ層は100次元である.単語の分散表現には98億文のWebテキストにより事前学習された200次元のベクトルを,品詞の分散表現にはランダムに初期化された10次元のベクトルを用いた.これらは誤差逆伝播時に値が更新される.\begin{table}[b]\hangcaption{(a)時間性判定タスク,(b)事象の時間的長さ分類タスク,(c)事象の発生時期分類タスクにおける実験結果}\label{table:result}\input{07table08.tex}\vspace{4pt}\small2クラス分類である時間性判定タスクではF1値を用い,他の2つのタスクではMicro-F1値を用いて評価した.\end{table}各タスクの実験結果を表\ref{table:result}に示す.いずれのタスクも各クラスのデータ量に大きな偏りがあることから,マジョリティのクラスのみを出力した場合のスコアをベースラインとして記載した.時間性判定タスクでは約9割のスコアが得られた一方,事象の時間的長さ分類タスクは約6割,事象発生時期分類タスクは約5割にとどまった.また,各タスクで最もスコアが良かった条件におけるConfusionMatrixを表\ref{table:confusion_matrix}に示す.時間性判定タスクでは,誤りの約7割が時間性のないものをあると判定したものであった.事象の時間的長さ分類タスクでは,「1ヶ月未満」クラスを「1日以内」クラスと誤答することが多かった.事象の発生時期分類タスクでは,「3年前から3日前」クラスと「3日前から3日後」クラスの区別で多くの誤りが存在する.\begin{table}[t]\hangcaption{(a)時間性判定タスク,(b)事象の時間的長さ分類タスク,(c)事象の発生時期分類タスクにおけるConfusionMatrix}\label{table:confusion_matrix}\input{07table09.tex}\end{table}\subsection{議論}\subsubsection{時間性判定タスク}本タスクでは,単語分散表現の情報のみでベースラインを3ポイント以上上回った.これは,対象表現自体が時間性の有無に大きく関係していること示唆している.また,品詞分散表現を利用することでスコアの向上が見られた.「対して」や「総当たり」などのサ変動詞/名詞からなる時間性をもたない対象表現検出に役立ったと考えられる.本モデルでは対象表現のみに着目したが,このアプローチでは次の例の「開発」を正しく解くことができない.\vspace{0.5\Cvs}\enumsentence{国連の支援で,総合{\itshape\bfseries開発の}立案などの成果をあげた(時間性あり)\label{ex:dev1}}\enumsentence{{\itshape\bfseries開発の}ゆがみを知る人たち((時間性なし)\label{ex:dev2}}\enumsentence{経済{\itshape\bfseries開発}区(時間性なし)\label{ex:dev3}}\vspace{0.5\Cvs}例(\ref{ex:dev1})は特定の開発事業であるため時間性をもつが,例(\ref{ex:dev2})や例(\ref{ex:dev3})は不特定あるいは一般的な事象であるため時間性をもたない.このような例に対処するためには,対象表現の前後の表現や,対応する述語や項の性質などの情報を考慮する必要がある.\subsubsection{事象の時間的長さ分類タスク}本タスクでは共起スコアベクトルの導入によりスコアが向上した.例えば次の例の「宿泊」は,単語と品詞情報のみのモデルでは誤答したが,「宿泊」と日にち粒度の時間表現の共起スコアが高いという情報を与えることで正答した.\vspace{0.5\Cvs}\enumsentence{ホテルの{\itshape\bfseries宿泊}者が目撃した}\vspace{0.5\Cvs}一方,表\ref{table:confusion_matrix}からも分かるように,多くの例で誤って「1日以内」クラスを出力した.次の例は全て「1日以内」クラスを出力し誤答したものである.\vspace{0.5\Cvs}\enumsentence{兵士が首都から南に{\itshape\bfseries脱出している}\label{ex:wid1}}\enumsentence{見逃せないのは労組の{\itshape\bfseries圧力だ}\label{ex:wid2}}\enumsentence{出稼ぎ世帯の大半は、テレビやバイクを{\itshape\bfseries買う}\label{ex:wid3}}\enumsentence{啓蒙に力を{\itshape\bfseries入れている}\label{ex:wid4}}\vspace{0.5\Cvs}例(\ref{ex:wid1}),例(\ref{ex:wid2}),例(\ref{ex:wid3})はいずれも,対象表現自体は1日以内の事象とも捉えることができるものであるが,この文脈ではそうではない.本モデルは文脈を考慮するものであるが,より大規模なデータで学習する必要があると考えられる.例(\ref{ex:wid4})では,対象表現は軽動詞であり,「啓蒙」が時間を考える上での手がかりである.このような単語の含意する時間情報知識を大規模に獲得し,モデルに取り入れる必要がある.\subsubsection{事象の発生時期分類タスク}本タスクでは,時間表現情報ベクトルがスコア向上に貢献している.これは例えば「四日発生した雪崩」のように,時間表現が重要な手がかりを与える場合が多く存在するためだと考えられる.本モデルでは「昨日」や「1995年」などの明示的な時間表現のみを対象としたが,テキスト中には「ベトナム戦争」や「前回のワールドカップ」など暗黙的に時間情報を表す表現も多く存在し,誤答の原因となっている.Wikipediaなどの外部知識を用いて,より広範な時間情報を考慮する必要がある.本モデルでは時間表現情報を4つの粒度で表したが,テキスト中には「昼過ぎ」などより細かい粒度の情報も多く存在する.これらの情報を利用することでスコア向上が期待される.また,本モデルでは時間の粒度のみに着目したが,時間表現が日付を表すのか期間を表すのかで大きく意味が変わる.例えば「3日」という時間表現を「1月3日」のことと解釈するのか「3日間」のことと解釈するのかは,事象の時間的長さ・発生時期の推定タスクにおいて非常に重要であり,さらなるスコア向上のためには高度な時間表現解析器の導入が必要である.
\section{本アノテーションの応用}
本アノテーションには様々な応用先が考えられる.例えば,ニュース記事からのタイムラインやサマリーの生成である.ニュースには事件や出来事に関する新しい情報は記載されるが,それを取り巻く出来事やこれまでの経緯は記載されないことも多いため,出来事の全体像を知るためには複数の記事を読み情報を統合する必要がある.またニュースには,その時の情報に基づいた予想や解釈も記載されるため,異なる時期に書かれた別の記事と比較することは情報の信頼性を担保する上で有益である.本稿で述べたアノテーション基準やデータ,時間情報推定モデルは,このような記載時期の異なる情報の統合や比較に利用することができる.図\ref{fig:timeline}は,1995年1月に行われたサッカー大会に関する事象を時間軸上に配置したものである.文章作成日を区別して事象を配置するため2つの時間軸を導入しており,横軸は文章作成日,縦軸は事象の起きた日を表す.例えば右上の「デンマークが優勝した」は,1月15日に記述された事象で,これに対応する時間値は1月13日({\slt:1995-01-13})である.本研究で作成したデータは,このようにアプリケーションを構築するためのモデルの学習や評価に用いることができる.本研究でアノテーションを行った京都大学テキストコーパスには,既に述語項構造や共参照関係のアノテーションがなされているため,「ラモス」など特定のエンティティに着目した学習や評価にも用いることが可能である.\begin{figure}[b]\begin{center}\includegraphics{26-1ia7f5.eps}\end{center}\hangcaption{1995年1月に行われた、サッカーのインタコンチネンタル選手権に関する事象の時間軸への配置.横軸は文章作成日,縦軸は事象の起きた日を表す.例えば右上の「デンマークが優勝した」は文章作成日が1月15日で,これに対応する時間値は1月13日である.}\label{fig:timeline}\end{figure}また,本アノテーション基準や時間情報推定モデルを利用することにより,事象に関する時間情報知識を大量のテキストから収集することが可能となる.出来事や状態の発生日や継続日数,頻度などの情報は,情報検索,要約,対話,文生成など多くのアプリケーションで利用することができる.本稿で述べたアノテーション基準は,これらの時間情報を詳細に記述する手段として用いることができ,また時間情報推定モデルは事象に関する時間情報をテキストから自動獲得する技術に応用することが可能である.
\section{おわりに}
本稿では,テキスト中の時間情報を網羅的にアノテーションするための新しいタグ付け基準について述べた.従来研究よりも広範な表現をアノテーション対象とし,また表現力豊かな時間タグを導入した.京都大学テキストコーパス中の113文書に対してアノテーションを行った結果,76\%の表現が時間性をもつと判断され,そのうちの35\%(全体の26\%)に本稿で新たに提案された時間タグが付与された.本研究で付与した時間情報を,時間性・事象の時間的長さ・事象の発生時期の3つの観点から推定するモデルを構築した.各精度はF値において90\%,61\%,49\%であった.本研究では,新聞記事を対象にアノテーションを行ったが,新聞特有の書き方や性質がアノテーションの揺れの原因の1つになっていると考えられる.今後は,Webなど新聞以外のコーパスでのアノテーションを試みたい.また,本研究では時間表現に対するアノテーションは行っていない.これは,日本語時間表現に対するアノテーションにおけるアノテータ間一致度は高いことが\cite{konishi:13}により報告されており,時間表現に対する解釈が揺れて事象に対するアノテーションに影響を及ぼすことは少ないと考えたからである.しかし,時間情報解析器を構築する上では有益な情報になると考えられるため,今後は時間表現にもアノテーションを行い,より充実した時間情報コーパスにしていきたい.\acknowledgment本研究の一部はJSTCRESTJPMJCR1301,AIPチャレンジの助成によるものです.また本論文の内容の一部は,11theditionoftheLanguageResourcesandEvaluationConferenceで発表したものです\cite{Sakaguchi2018}.アノテーションにご協力いただいた石川真奈見氏,堀内マリ香氏,二階堂奈月氏に感謝いたします.また,時間情報推定モデルに関して有益なコメントをくださった柴田知秀氏に感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara,Kato,Konishi,Imada,\BBA\Maekawa}{Asaharaet~al.}{2014}]{BCCWJ-TimeBank:14}Asahara,M.,Kato,S.,Konishi,H.,Imada,M.,\BBA\Maekawa,K.\BBOP2014\BBCP.\newblock\BBOQBCCWJ-TimeBank:TemporalandEventInformationAnnotationonJapaneseText.\BBCQ\\newblock{\BemInternationalJournalofComputationalLinguistics\&ChineseLanguageProcessing},{\Bbf19}(3),\mbox{\BPGS\1--24}.\bibitem[\protect\BCAY{Asakura,Hangyo,\BBA\Komachi}{Asakuraet~al.}{2016}]{asakura-hangyo-komachi:2016:WNUT}Asakura,Y.,Hangyo,M.,\BBA\Komachi,M.\BBOP2016\BBCP.\newblock\BBOQDisasterAnalysisusingUser-GeneratedWeatherReport.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponNoisyUser-generatedText(WNUT)},\mbox{\BPGS\24--32},Osaka,Japan.TheCOLING2016OrganizingCommittee.\bibitem[\protect\BCAY{Cassidy,McDowell,Chambers,\BBA\Bethard}{Cassidyet~al.}{2014}]{cassidy:TimeBankDenseCorpus:2014}Cassidy,T.,McDowell,B.,Chambers,N.,\BBA\Bethard,S.\BBOP2014\BBCP.\newblock\BBOQAnAnnotationFrameworkforDenseEventOrdering.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\501--506},Baltimore,Maryland.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chung,Gulcehre,Cho,\BBA\Bengio}{Chunget~al.}{2014}]{GRU2014}Chung,J.,Gulcehre,C.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock{\BemEmpiricalEvaluationofGatedRecurrentNeuralNetworksonSequenceModeling}.\bibitem[\protect\BCAY{Hayes\BBA\Krippendorff}{Hayes\BBA\Krippendorff}{2007}]{hayes:Krippendorffalpha:07}Hayes,A.~F.\BBACOMMA\\BBA\Krippendorff,K.\BBOP2007\BBCP.\newblock\BBOQAnsweringtheCallforaStandardReliabilityMeasureforCodingData.\BBCQ\\newblock{\BemCommunicationMethodsandMeasures},{\Bbf1}(1),\mbox{\BPGS\77--89}.\bibitem[\protect\BCAY{Huang,Cases,Jurafsky,Condoravdi,\BBA\Riloff}{Huanget~al.}{2016}]{huang:EventStatusCorpus:16}Huang,R.,Cases,I.,Jurafsky,D.,Condoravdi,C.,\BBA\Riloff,E.\BBOP2016\BBCP.\newblock\BBOQDistinguishingPast,On-going,andFutureEvents:TheEventStatusCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\44--54}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hasida}{Kawaharaet~al.}{2002}]{kawahara:KUCorpus:02}Kawahara,D.,Kurohashi,S.,\BBA\Hasida,K.\BBOP2002\BBCP.\newblock\BBOQConstructionofaJapaneseRelevance-taggedCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC-2002)},LasPalmas,CanaryIslands---Spain.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Kolomiyets,Bethard,\BBA\Moens}{Kolomiyetset~al.}{2012}]{kolomiyets12}Kolomiyets,O.,Bethard,S.,\BBA\Moens,M.-F.\BBOP2012\BBCP.\newblock\BBOQExtractingNarrativeTimelinesasTemporalDependencyStructures.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics,Jeju,RepublicofKorea,8-14July2012},\mbox{\BPGS\88--97}.ACL.\bibitem[\protect\BCAY{小西\JBA浅原\JBA前川}{小西\Jetal}{2013}]{konishi:13}小西光\JBA浅原正幸\JBA前川喜久雄\BBOP2013\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する時間情報アノテーション.\\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\201--221}.\bibitem[\protect\BCAY{Krippendorff}{Krippendorff}{2004}]{krippendorff04}Krippendorff,K.\BBOP2004\BBCP.\newblock{\BemContentAnalysis:AnIntroductiontoItsMethodology(secondedition)}.\newblockSagePublications.\bibitem[\protect\BCAY{Minard,Speranza,Agirre,Aldabe,vanErp,Magnini,Rigau,\BBA\Urizar}{Minardet~al.}{2015}]{SemEval15-4}Minard,A.-L.,Speranza,M.,Agirre,E.,Aldabe,I.,vanErp,M.,Magnini,B.,Rigau,G.,\BBA\Urizar,R.\BBOP2015\BBCP.\newblock\BBOQSemEval-2015Task4:TimeLine:Cross-DocumentEventOrdering.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation(SemEval2015)},\mbox{\BPGS\778--786},Denver,Colorado.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Pustejovsky,Hanks,Saur{\'i},See,Gaizauskas,Setzer,Radev,Beth~Sundheim,Ferro,\BBA\Lazo}{Pustejovskyet~al.}{2003}]{pustejovsky:TimeBankCorpus:03}Pustejovsky,J.,Hanks,P.,Saur{\'i},R.,See,A.,Gaizauskas,R.,Setzer,A.,Radev,D.,Beth~Sundheim,D.~D.,Ferro,L.,\BBA\Lazo,M.\BBOP2003\BBCP.\newblock\BBOQTheTIMEBANKCorpus.\BBCQ\\newblockIn{\BemProceedingCorpusLinguistics2003},\mbox{\BPGS\647--656}.\bibitem[\protect\BCAY{Reimers,Dehghani,\BBA\Gurevych}{Reimerset~al.}{2016}]{reimers:EventTimeCorpus:2016}Reimers,N.,Dehghani,N.,\BBA\Gurevych,I.\BBOP2016\BBCP.\newblock\BBOQTemporalAnchoringofEventsfortheTimeBankCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\2195--2204},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sakaguchi,Kawahara,\BBA\Kurohashi}{Sakaguchiet~al.}{2018}]{Sakaguchi2018}Sakaguchi,T.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2018\BBCP.\newblock\BBOQComprehensiveAnnotationofVariousTypesofTemporalInformationontheTimeAxis.\BBCQ\\newblockIn{\BemProceedingsofthe11thEditionofitsLanguageResourcesandEvaluationConference},\mbox{\BPGS\332--338},Miyazaki,Japan.\bibitem[\protect\BCAY{Sauri,Littman,Gaizauskas,Setzer,\BBA\Pustejovsky}{Sauriet~al.}{2006}]{Sauri06timemlannotation}Sauri,R.,Littman,J.,Gaizauskas,R.,Setzer,A.,\BBA\Pustejovsky,J.\BBOP2006\BBCP.\newblock\BBOQTimeMLAnnotationGuidelines,Version1.2.1.\BBCQ.\bibitem[\protect\BCAY{UzZaman,Llorens,Derczynski,Allen,Verhagen,\BBA\Pustejovsky}{UzZamanet~al.}{2013}]{TempEval-3}UzZaman,N.,Llorens,H.,Derczynski,L.,Allen,J.,Verhagen,M.,\BBA\Pustejovsky,J.\BBOP2013\BBCP.\newblock\BBOQSemEval-2013Task1:TempEval-3:EvaluatingTimeExpressions,Events,andTemporalRelations.\BBCQ\\newblockIn{\Bem2ndJointConferenceonLexicalandComputationalSemantics(*SEM),Volume2:ProceedingsoftheSeventhInternationalWorkshoponSemanticEvaluation\mbox{(SemEval2013)}},\mbox{\BPGS\1--9}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Verhagen,Gaizauskas,Schilder,Hepple,Katz,\BBA\Pustejovsky}{Verhagenet~al.}{2007}]{TempEval-1}Verhagen,M.,Gaizauskas,R.,Schilder,F.,Hepple,M.,Katz,G.,\BBA\Pustejovsky,J.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task15:TempEvalTemporalRelationIdentification.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)},\mbox{\BPGS\75--80}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Verhagen,Sauri,Caselli,\BBA\Pustejovsky}{Verhagenet~al.}{2010}]{TempEval-2}Verhagen,M.,Sauri,R.,Caselli,T.,\BBA\Pustejovsky,J.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task13:TempEval-2.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\57--62}.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{坂口智洋}{2013年東京大学理学部生物情報科学科卒業.2015年京都大学大学院情報学研究科修士課程修了.同大学院博士課程在学中.修士(情報学).自然言語処理の研究に従事.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\end{biography}\biodate\end{document}
| |
V02N02-01
|
\section{まえがき}
高度な自然言語理解システムの実現のために,凝った言い回し,すなわち修辞表現を工学的に処理する手法の確立は,避けて通れない研究課題になっている.代表的な修辞表現である「比喩」は,隠喩,直喩,活喩,物喩,提喩,換喩,諷喩,引喩,張喩,類喩,声喩,字喩,詞喩の13種類に分類するのが一般的である\cite{Haga1990}.その中でも隠喩と換喩は,従来からとりわけ注目され\cite{Haga1990},工学の分野でもこの2種の比喩の解析の研究については,既に数多く行われている\cite{Doi1989,Iwayama1991,Utsumi1993,Suwa1994,Iwayama1992}.隠喩と換喩以外の比喩については,諷喩の固定したものである「諺」を検出するモデルが提案されている\cite{Doi1992}以外は,概して工学的処理の対象としてはまだあまり注目されていないといってよい.比喩の一つである「詞喩」は,「同音語など,ことばの多面性を利用してイメージの多重性をもたらす,地口や語呂合わせなどの遊戯的表現の総称」と定義され\cite{Nakamura1991},その中心が,同音異義語あるいは類音語を利用した「掛け言葉」にあるとされている\cite{Nakamura1977}.また「駄洒落」は中村によると,「掛け言葉の使用それ自体を目的として無意味な言葉を添える表現技法」と定義される\cite{Nakamura1991}.さらに尼ケ崎は,掛け言葉と駄洒落とを,成立の仕組みの上では同じものとして扱っている\cite{Amagasaki1988}.これらによると,詞喩と駄洒落との関係については種々の見方があるものの,駄洒落を詞喩表現の卑近な典型例として扱うことに異論は無いものと考えられる.北垣は,ヒューマンフレンドリーなコンピュータの開発という観点から,駄洒落情報を抽出するシステムを試作している\cite{Kitagaki1993}.しかしこれは,自然言語理解の観点から駄洒落の工学的解析に取り組んだ研究ではない.筆者らは,駄洒落を「地口」として扱い,その工学的検出法の検討を進めてきた\cite{Takizawa1989}.現在は検出から一歩進めて,駄洒落を理解するシステムの構築を目指している.その研究の一環として本稿では,記述された(即ち発話されたものでない)駄洒落を収集し,筆者らが「併置型」と呼ぶ駄洒落の一種について,音素上の性質を分析し,工学的処理機構を構成するために必要な知見を得た結果について報告する.
\section{分析のための準備}
label{pre}\subsection{用語の定義}\label{pre-def}比喩の研究では,比喩を,例えられる語(被喩辞,tenor)と例える語(喩辞,vehicle)との2項関係に単純化して分析している.例えば楠見によると,実際の用例における\#\ref{one}のような比喩を\#\ref{two}のような直喩等に単純化して,被喩辞「心」と喩辞「沼」の2項の関係を分析する\cite{Haga1990}.\vspace*{1em}\begin{sample}\item「心は風のない池か沼の面のようにただどんよりと澱んでいた.」\label{one}\item「心は沼のようだ」\label{two}\end{sample}\vspace*{1em}被喩辞と喩辞の2項以外は,一般に比喩の成立には直接的には無関係と考えられるため,比喩の研究はこの2項の関係を分析することに帰結させることができる.そこで本研究でも,駄洒落を,比喩の一種である詞喩の典型例と捉え,2項関係に単純化して分析する.筆者らは,駄洒落(地口)を「重畳型」と「併置型」とに分類できることを指摘した\cite{Takizawa1992}.重畳型とは,\#\ref{three}のように,2項の音素列を共有させる駄洒落である.\vspace*{1em}\begin{sample}\item「\underline{通常残業}省」\label{three}\end{sample}\vspace*{1em}\#\ref{three}の場合は「通商産業省」と「通常残業」とが,下線部で音素位置を共有している.また併置型とは\#\ref{four}のように,2項の音素列を近接した位置に併存させる駄洒落である.\vspace*{1em}\begin{sample}\item「\underline{トイレ}に行っ\underline{といれ}」\label{four}\end{sample}\vspace*{1em}\#\ref{four}の場合は,類似音素列である「トイレ」(普通名詞)と「といれ」(「行って」(子音動詞カ行促音便形タ系連用テ形)の一部「て」+「おいで」(普通名詞)の音便化)とが,下線部で示すように近接して併存している.ある発話に対して聞き手が駄洒落で答える\#\ref{five}のような例は,併置型に分類される.\vspace*{1em}\begin{sample}\item「\underline{運動場}借りてもいい?」「\underline{うん,どうじょ}.」\label{five}\end{sample}\vspace*{1em}一般の比喩の場合,単純化された2項は一方が被喩辞,他方が喩辞となる.ところが駄洒落の場合,2項のうちのどちらが被喩辞でどちらが喩辞であるかを明確には決められない.例えば,\#\ref{six}の場合,「豚」(普通名詞)と「ぶた」(子音動詞タ行未然形)との2項関係に単純化できるが,先行する「豚」の音素を「ぶた」のほうに重ねたと考えれば,「ぶた」が「豚」を例えたことになる.逆に,「ぶた」が後続することを匂わせるためにまず「豚」を提示した(すなわち「豚」に「ぶた」を重ねている)と考えれば,「豚」が「ぶた」を例えたことになる.\vspace*{1em}\begin{sample}\item「豚がぶたれた」\label{six}\end{sample}\vspace*{1em}そこで本研究では,駄洒落を構成する2項を区別することなく共に喩辞とし,先に提示される喩辞を「先行喩辞」,後の喩辞を「後続喩辞」と呼ぶことにする.駄洒落は,両喩辞の発音を接近させるために,一方(または両方)の喩辞の発音を変歪させることがよく行われる.本研究では,発音変歪後の語句(例えば\#\ref{four}の後半の下線部「といれ」)を「出現喩辞」と呼ぶことにする.そして変歪前の語句,即ち出現喩辞を,付録で述べる「基準辞書」に登録されている形態素の組合せに復元した語句を「復元喩辞」と呼ぶことにする.例えば\#\ref{four}の出現喩辞「といれ」の場合,「ておいで」が復元喩辞(後続復元喩辞)となる.なお,\#\ref{four}の先行復元喩辞「トイレ」のように,出現喩辞が復元喩辞と一致する場合もありうる.重畳型と併置型とでは,機械処理によって出現喩辞(および復元喩辞)を同定するためにとるべき方法が,根本的に異なる.重畳型の場合,先行出現喩辞と後続出現喩辞とが重なっており\footnote{従って重畳型の場合は「先行」「後続」という呼称は不適当であろう.},両方の出現喩辞を同定するには,同一文字列の範囲を2重に解析する必要がある.例えば重畳型駄洒落「通常残業省」の場合,表記に従った辞書引きから「通常残業」(2形態素)を一方の出現喩辞(かつ復元喩辞)として同定した上で,更に同一文字列の範囲において,今度は音素列の最長一致による辞書引きを行い,もう一方の出現喩辞である「通常残業省」を同定して,そこから復元喩辞の「通商産業省」を復元する,という解析を行う必要がある.通常の自然言語処理では,このように同一文字列を2重に解析することは一般に無い.それに対し併置型駄洒落の場合は,先行/後続出現喩辞が独立して明示されているため,形態素・構文解析は原理的には通常の自然言語における解析方法と同じであり,あとは音素列の照合によって,同一(または類似)音素列を探索して先行/後続出現喩辞を同定すればよい.そこで本稿では,機械処理がより簡単と思われる併置型のほうにまず着目して分析した.\subsection{想定する駄洒落理解システム}機械による駄洒落理解とは,文を入力し,意味解析結果,出現喩辞,および復元喩辞を出力することとする.例えば,\#\ref{four}の文を入力した場合,概念的には以下のような出力を得ることを,機械が駄洒落を理解したこととする.\vspace*{1em}\begin{list}{}{}\item意味解析結果:トイレに行くことを勧める\footnote{実際の意味解析結果の出力は,もちろんこのような自然言語による曖昧な表現でなく,記号による意味表現にすべきであろう.}\item先行出現喩辞:「トイレ」\item後続出現喩辞:「といれ」\item先行復元喩辞:「トイレ」\item後続復元喩辞:「ておいで」\end{list}\vspace*{1em}{\unitlength=1mm\begin{figure}\begin{center}\vspace{-0.7cm}\epsfile{file=fig.eps,scale=1.0}\caption{本研究で想定する駄洒落理解システム}\label{joke-system}\end{center}\end{figure}}本研究で想定する駄洒落理解システムを図\ref{joke-system}に示す.このシステムは,未知語処理機能をもつ通常の自然言語理解システム(以下「主処理部」と呼ぶ)に,音素列比較に基づく駄洒落検出部と,駄洒落に起因する未知語の処理部(以下「喩辞復元部」と呼ぶ)とを外付けした機構を想定している\footnote{想定する駄洒落理解システムは,漢字カナ交じり文を音素記号列化する際の限界や,通常の未知語処理の困難さなど,駄洒落処理に限らない一般的な未解決の問題を切り離して想定したものである.これは,本研究が取り扱う範囲を駄洒落処理に限定したいためである.従って提案するシステムを実際に実現するためには,乗り越えなければならない壁が多くある.}.主処理部に外付けするという方針で設計したのは,通常の自然言語理解技術の進歩を,駄洒落理解システムに取り込むことができるようにするためである.この方針によれば,主処理部の性能向上に伴って,駄洒落理解システムとしての性能も向上することが期待できる.また,通常の自然言語理解システムがもつ一般的な限界を一応切り離して,外付け部分の構築に重点的に取り組むことができる.入力は,テキスト文(漢字カナ交じり文)とする\footnote{現段階では,音声入力を想定していない.その理由は,音声認識における音韻識別性能の限界という,本研究が直接的には対象としない要因による制約を排除するためである.しかし駄洒落はイントネーション等のプロソディーを駆使して生成・理解される発話表現と考えられるので,将来的には音声入力を想定したシステムを検討しなければならないと考えられる.}.まず駄洒落検出部では,入力テキストを音素記号化し,その音素列の中に,ある程度の長さに渡ってある程度の類似性で一致あるいは類似する部分音素列の組があるかどうかを調べる.あった場合(その部分音素列をps1とps2とする),その入力に駄洒落が存在したと判定し,ps1とps2を,先行/後続出現喩辞の音素列とする.一方,主処理部において未知語と判定された語句を取り出し,その未知語が出現喩辞,即ち駄洒落化に伴う音素変歪によって生じた語句であるかどうかを喩辞復元部で判定する.具体的には,その未知語の音素列がps1またはps2のどちらかと重なるかどうかをチェックする.もし重なるならば,その未知語を出現喩辞と判定し,喩辞復元部において,駄洒落の音素変歪の性質に基づく規則に従ってその未知語(出現喩辞)から元の語(復元喩辞)を復元し,復元した語を主処理部に返す.この処理部における処理の目的は,復元喩辞の同定のみならず,通常の意味解析が出現喩辞(駄洒落化による未知語)の存在によって妨げられるのを防ぐことである.本システムは最終出力として,通常の意味解析結果,出現喩辞,および復元喩辞が主処理部から得られることになる.駄洒落検出部において,入力に駄洒落が含まれていないと判定された場合は,意味解析結果だけが出力されることになる.\subsection{分析内容}本研究の目的は,図1の駄洒落理解システムを実現するために必要な音素上の知見を得ることである.そのために,特に駄洒落のための処理を行う部分である「駄洒落検出部」と「喩辞復元部」とについて,その構築のためにどのような音素上の知見が必要かを考える.まず,駄洒落検出部を構築するためは,音素列がどの程度一致あるいは類似したら駄洒落と判定するかという基準を決めることが必要である.そこで,収集した駄洒落における先行/後続出現喩辞について,音素列の長さと音素の類似性という観点から,以下の2点を調べる.\vspace*{1em}(1)先行−後続出現喩辞間の音素列は,どれ位の長さの一致(または類似)が見られるか(2)先行−後続出現喩辞間の音素の相違にはどのような特徴があるか\vspace*{1em}\\また,喩辞復元部を構築するためには,出現喩辞を復元喩辞に復元するための知見,すなわち駄洒落はどのように発音が変歪される傾向があるかについての知見が必要になる.そこで,収集した駄洒落における出現喩辞/復元喩辞について,以下の点について調べる.\vspace*{1em}(3)出現−復元喩辞間の音素の相違にはどのような特徴があるか\\\\\\vspace{-1mm}以上の3点について調べた結果を,それぞれ\ref{onso-length}〜\ref{onso-soui}節で述べる.\subsection{分析対象とする駄洒落の収集と選定}本稿で分析対象とする駄洒落は,外国語専攻の大学生54名に回答用紙を配布し,筆記による創作を依頼して収集したものである\footnote{本研究で分析対象とする駄洒落は,コーパスから用例を収集したものではない.用例を用いなかった理由は,実際のコーパスにおいて駄洒落が出現する頻度が限られており,計量的な分析に耐えるだけの用例を収集することが困難と思われたためである.}.従って収集された駄洒落は,発話されたものではなく,記述されたものである.各人の創作個数には制限を設けず,被験者ペースの回答により,制限時間も設けなかった.その結果,325個の創作文(または創作句)が収集された(但し\#\ref{five}のような対話文の場合,1対話を1文と数えた).収集した325個の文(句)から,以下の基準で分析対象を選定した.\\\begin{enumerate}{\def\labelenumi{}\item\ref{pre-def}節で述べたように,本研究ではまず併置型駄洒落を対象とするため,重畳型駄洒落は分析対象から除外した.\item被験者間で重複する駄洒落は1つだけ残し,あとは除外した.\item2項関係に単純化した場合に重複するものは1つだけ残し,あとは除外した.\item韻を踏んでいるだけのものは駄洒落でなく韻文に属すると考え,除外した.韻文とみなす基準は,先行/後続復元喩辞の音素列の一致(または類似)部分を切り出した場合に,先行/後続復元喩辞共に形態素の途中で切れてしまうものとした.つまり,音素一致(または類似)範囲を切り出すと先行/後続復元喩辞のどちらか少なくとも片方が一つあるいは2つ以上の形態素(の組合せ)になっているもののみを駄洒落とした.この基準に基づき除外した例を\#\ref{seven},\#\ref{eight}に示す.\vspace*{1em}\begin{sample}\item「ママと坊やでマーボー春雨」\label{seven}\item「大腸・小腸・気象庁」\label{eight}\end{sample}\vspace*{1em}\#\ref{seven}は駄洒落ではなく頭韻の組合せとみなすのが妥当と思われる.\#\ref{eight}は復元喩辞が「腸」と「庁」であり,どちらも形態素「大腸」「小腸」「気象庁」の一部に過ぎないので,駄洒落ではなく韻文とみなした\footnote{「大腸」が無ければ両出現喩辞は「小腸」と「象庁」となるので,一形態素を成す「小腸」を一方の復元喩辞とみなすこともできるが,\#8は七五調のリズムになっていることから,成立の上で「大腸」が不可欠と考えられる.そうすると,本分析では一形態素とみなさない「腸」と「庁」が出現喩辞となるので,分析から除外するのが妥当ということになる.}.\item「ひねり」が全く無く,単なる同音(または類似音)の反復に過ぎないと思われるものは除外した\footnote{「掛け言葉の使用それ自体を目的として無意味な言葉を添える表現技法」である駄洒落に対して,同音(または類似音)の反復に過ぎないからといって除外することは定義に矛盾する,という意見があるかも知れない.しかし同音(または類似音)の反復に過ぎないものまでも駄洒落に含めると,類似した音素の羅列だけでも駄洒落になり得てしまい,駄洒落の範囲が極端に広がってしまう危険がある.多少の「ひねり」が感じられることを,駄洒落であるための条件とすることは,直観的な定義にも合致していると思われる.}.除外した例を\#\ref{nine}と\#\ref{ten}に示す.\vspace*{1em}\begin{sample}\item「寝耳に耳」\label{nine}\item「あなた何型?」「くわがた」\label{ten}\end{sample}\vspace*{1em}}\end{enumerate}以上のような形態上の理由によって除外されたもの以外は,すべて分析対象とし,駄洒落としての面白さのような主観的な判定による除外は行わなかった.また,原文のままでは2項関係になっていないものを2項関係にするための修正を行った.修正の例を\#\ref{eleven},\#\ref{twelve}に示す.\vspace*{1em}\begin{sample}\item「鳩が何かを落としていったってね」「ふん」\\\\hspace*{3cm}→「糞」と「ふん」との2項関係として分析\label{eleven}\item「天国の話をしよう」「あのよー」\\\\hspace*{3cm}→「あの世」と「あのよー」との2項関係として分析\label{twelve}\end{sample}\vspace*{1em}以上の除外・修正の結果,最終的に分析対象とした駄洒落数(先行/後続出現喩辞の組)は203組となった.\ref{onso}章では,この203組を分析した結果について述べる.
\section{併置型駄洒落の音素上の分析}
label{onso}\subsection{音素列同士の照合方法}本節では,\#\ref{thirteen}の例を用いて,音素列同士の照合方法を説明する.\vspace*{1em}\begin{sample}\item仏などほっとけ.\label{thirteen}\end{sample}\vspace*{1em}まず,原文を音素列に変換し,一致(または類似)する部分音素列を出現喩辞として切り出す.\#\ref{thirteen}を変換した音素列/hotokenadohoQtoke/から切り出した以下の2つの部分音素列が,それぞれ先行/後続出現喩辞の音素列となる.\vspace*{1em}\begin{list}{}{}\item先行出現喩辞\hspace*{2cm}/hotoke/\item後続出現喩辞\hspace*{2cm}/hoQtoke/\end{list}\vspace*{1em}次に,先行−後続出現喩辞間,および出現−復元喩辞間で,音素列を照合し,音素の相違を調べる.音素列を照合する手順は,次の通りとする.まず子音同士を照合する.次に母音同士を照合する.但し母音の場合は,短音同士だけでなく,短音と長音(例えば/o/と/oo/)あるいは単母音と複合母音(例えば/o/と/eo/)のような音素同士の対応づけも許容する.最後に促音/Q/と撥音/N/について,既に照合し終わった音素を除いた残りの音素と照合する.なお,例えば音素列$/\alpha\beta\gamma/$\hspace*{-0.2mm}と\hspace*{-0.2mm}$/\alpha\gamma/$とを照合した場合,$/\alpha/$同士と\hspace*{-0.3mm}$/\gamma/$同士が対応づけられ,/β/と対応づけられる音素は無いことになる.この$/\hspace*{-0.3mm}\beta\hspace*{-0.3mm}/$のような音素を「相手の無い音素」と呼ぶことにする.この手順に従い,\#\ref{thirteen}の部分音素列を照合すると,以下のようになる.\vspace*{1em}\begin{itemize}\item先行出現喩辞と後続出現喩辞との照合\begin{verbatim}先行出現喩辞/hotoke/||.||||→相違:相手の無い促音が1つ存在後続出現喩辞/hoQtoke/\end{verbatim}\item出現喩辞と,その出現喩辞から復元した復元喩辞との照合\begin{example}先行出現喩辞/hotoke/||||||→相違は無い先行復元喩辞/hotoke/(普通名詞「仏」)後続出現喩辞/hoQtoke/||||△||→相違:/o/と/eo/\footnote{単母音と複合母音の対応づけも許容しているので,この場合は「単母音/o/と複合母音/eo/とが相違している」とし,「相手の無い/e/が一つ存在する」とはしない.}後続復元喩辞/hoQteoke/(子音動詞ラ行タ系連用テ形「ほって」+子音動詞カ行命令形「おけ」)\end{example}\end{itemize}\vspace*{1em}以上の結果,\#\ref{thirteen}の場合に得られる音素の相違は,以下のようになる.\vspace*{1em}\begin{list}{}{}\item先行−後続出現喩辞間…相手の無い促音が1つ存在\item出現−復元喩辞間…(後続のほうが)/o/と/eo/\end{list}\subsection{先行/後続出現喩辞の音素列の長さについての分析}\label{onso-length}音節は単独で発声できる最小単位とされている\footnote{今回収集した駄洒落の中で1対だけ,音節単位の入れ替えがあった(/zjare/-/rezja/).この場合,上記の要領で音素を単純に照合すると大きな相違となってしまう.しかし音節単位の入れ替えは,音声を聞き取った印象では大きな相違とは感じられないものである.なぜなら音節は,単独で発声できる最小単位とされており\cite{JIPDEC1992},人間は音素単位でなく音節単位で音声を知覚しているためと考えられる.従って本研究ではこの1対だけは例外として「音節単位の入れ替え」という一つの相違として扱うことにする.}ため,その数が,実際の長さを反映していると考えられる.そこで本研究では音素列の長さとして,音素数ではなく音節数を用いる.例えば\#13の場合の音節数は,先行出現喩辞/hotoke/が3,後続出現喩辞/hoQtoke/が4である.\begin{figure}\begin{center}\begin{tabular}{cc|rrrrrrrr}後&&&&&&\multicolumn{4}{r}{(総計203)}\vspace*{-0.2em}\\続&&&&&&&&&\vspace*{-0.2em}\\出&8&&&&&&&&\vspace*{-0.2em}\\現&7&&&&&&&1&1\vspace*{-0.2em}\\喩&6&&&&&2&3&&\vspace*{-0.2em}\\辞&5&&&2&4&4&2&&\vspace*{-0.2em}\\の&4&&2&16&29&6&&&\vspace*{-0.2em}\\音&3&&8&65&4&1&&&\vspace*{-0.2em}\\節&2&&51&1&&&&&\vspace*{-0.2em}\\数&1&\1&&&&&&&\vspace*{-0.2em}\\\cline{3-10}\multicolumn{3}{r}{1}&2&3&4&\5&\6&\7&\8\vspace*{-0.2em}\\\multicolumn{10}{r}{先\行\出\現\喩\辞\の\音\節\数\\\\}\vspace*{-0.1em}\\\end{tabular}\caption{先行/後続出現喩辞の音節数の分布}\label{onsetu-dist}\end{center}\end{figure}分析対象とする203個の先行/後続出現喩辞の各音節数の分布を,図\ref{onsetu-dist}に示す.先行/後続出現喩辞の各音節数が一致しているのは合計154個で,全体(203個)のうちの約4分の3を占める.また,先行のほうが長いものは15個,後続のほうが長いものは34個であった.図2から,先行/後続出現喩辞の各音素列の長さについて,定性的に以下の知見が得られる.\vspace*{2em}\\【知見】\begin{itemize}\item出現喩辞の音節数は,先行と後続とで一致する場合が多い.\item一致する場合の長さは,2〜4音節である場合が多い.\item不一致の場合の長さは,先行が3音節,後続が4音節である場合が比較的多い.\item不一致の場合でも,長さの差は2音節までで,3音節以上の差があることはほとんどない.\item不一致の場合,後続のほうが先行よりも長い場合が多い.\end{itemize}\subsection{先行−後続出現喩辞間の音素の相違についての分析}分析対象の203対のうち,先行−後続出現喩辞間に最低1個でも音素の相違があるのは71対であった(約35\%).従って全体の約3分の2は音素列が完全に一致したことになる.1対につき1個の相違があるのは57対,2個の相違があるのは12対,3個の相違があるのは2対となった.従って相違の総計は87個となった.この87個について分析した結果,以下のようになった.\vspace*{1em}\begin{list}{\Large$\bullet$}{}\item促音/Q/\\\\相手の無い促音が20個と,際だって多かった.\item母音\\\\長音−短音間の相違が38個で際だって多く,内訳は表\ref{different1}のようになった.表\ref{different1}によると,/o/-/oo/の相違と/a/-/aa/の相違が比較的多いと言える.先行が短音で後続が長音である傾向がやや強いように見受けられるが,目立った傾向とまでは言えない.\begin{table}\begin{center}\caption{長音--短音間の相違の内訳}\label{different1}\begin{tabular}{lccc}音素の相違&先行が長音で&先行が短音で&計\\&後続が短音&後続が長音&\\\hline/o/-/oo/&8&6&14\\/a/-/aa/&4&7&11\\/e/-/ee/&1&4&5\\/i/-/ii/&2&3&5\\/u/-/uu/&0&3&3\\\end{tabular}\end{center}\end{table}\\\\単母音間の相違や単母音−複合母音間の相違は,表\ref{different2}の4個と,相手の無い拗音/j/と一緒になった1個(後述)の,計5個だけであった.\begin{table}\begin{center}\caption{短母音間および短母音--複合母音間の相違(各1個)}\label{different2}\begin{tabular}{l}/i/-/e/\\/a/-/o/\\/oi/-/u/\\/a/-/au/\\\end{tabular}\end{center}\end{table}\item子音(半母音を含む)\\\\最も多かったのは破裂音の無声−有声間の相違で,6個であった.そのうち構音位置が同じ/k/-/g/および/t/-/d/の組み合わせが5個を占め,それ以外は/k/-/d/の1個だけであった.摩擦音については,有声/z/−無声/s/の相違が2個見られた.その他の子音については,表\ref{different3}に示す相違がそれぞれ1個ずつとなった.\begin{table}\begin{center}\caption{その他の子音間の相違(各1個)}\label{different3}\begin{tabular}{l}/i/-/e/\\/a/-/o/\\/oi/-/u/\\/a/-/au/\\\end{tabular}\end{center}\end{table}\item撥音/N/\\\\相手の無い撥音が2個あった.\itemほか\\\\残りは,表\ref{different4}の相違となった.\addtocounter{footnote}{-1}\begin{table}\begin{center}\caption{その他の相違}\label{different4}\begin{tabular}{l}相手の無い拗音(2個)\\相手の無い拗音と母音の相違/joo/-/oi/(1個)\\相手の無い鼻音/n/(1個)\\相手の無い流音/r/(2個)\\音節単位の入替/zjare/-/rezja/\footnotemark(1個)\\\end{tabular}\end{center}\end{table}\end{list}以上より,先行−後続出現喩辞間の音素の相違について,以下の知見が得られる.\vspace*{2em}\\【知見】\begin{itemize}\item音素の相違があることは比較的少ない.\item相違がある場合,1個である場合が最も多く,多くても3個程度までである.\item相手の無い促音/Q/が多い.\item母音については,長音−短音間の相違が多く,その中でも/o/-/oo/間と/a/-/aa/間の相違が多い.短音間の相違や単母音と複合母音との間の相違などはあまり多くない.従って駄洒落における母音の相違は,長音と短音との相違以外はあまり考慮しなくていいと言える.\item子音については,破裂音の無声−有声間の相違が比較的目立ち,その中でも同じ構音位置での相違が多い.しかし子音の相違については概して目立った傾向は無い.\end{itemize}\subsection{出現−復元喩辞間の音素の相違についての分析}\label{onso-soui}分析対象とする406対(203対$\times$2(先行と後続))の出現−復元喩辞の対のうち,相違があるの\\は59対(約15\%)で,比較的少なく,すべて後続の出現−復元喩辞間の相違であった.相違が1個なのは44対,2個が13対,3個が2対で,その結果,相違は総計76個となった.この76個について,音素グループ毎に分析する.\vspace*{1em}\begin{list}{\Large$\bullet$}{}\item撥音/N/\\\\撥音に関する相違は,先行−後続出現喩辞間では87個中2個しか見られなかったのに対し,出現−復元喩辞間では76個中11個と,比較的目立った.内訳は,撥音とその他の音素との相違が10個,相手の無い撥音が1個であった.他の音素との相違(10個)の内訳は,/N/-/no/が6個で最も多く,次が/N/-/ru/(または/iru/)の3個で,/N/-/su/が1個だけ見られた.荻野によると,いわゆる「形式的でない表現」において多用される付属語「ん」と置き換えられるものとして,形式名詞「の」など(/N/-/no/)が最も多く,その次に多いのが否定助動詞「ぬ」など(/N/-/nu/)で,その次がラ行動詞型語尾・接尾の類(/N/-/ru/など)となっている\cite{Ogino1993}.即ち,筆者らの結果における撥音に関する相違の出現頻度の1位と2位はそれぞれ,同文献における出現頻度の1位と3位に対応している\footnote{同文献において2位の出現頻度をもつ,否定助動詞「ぬ」が撥音化した「ん」は,我々の研究では,既に一般化した表現とみなし,否定助動詞として基準辞書に登録している.そのため,否定助動詞「ぬ」の意味で/N/が使われた場合は,出現喩辞も復元喩辞も/N/となり,相違が生じない.そのためこの場合は,撥音に関する相違の順位に現れていない.}.このことから,駄洒落の出現−復元喩辞間の撥音に関する相違の出現頻度に関しては,いわゆる「形式的でない」表現における出現頻度と同様の傾向があるといえる.\item子音\\\\有声の破裂音-摩擦音間(/d/-/z/)が4個,流音-有声破裂音間(/r/-/d/)が2個,無声摩擦音間(/h/-/s/)が1個,の計7個見られた.全子音に関する相違の合計が76個中の7個だけなので,比較的少ないといえる.\item促音/Q/\\\\先行−後続出現喩辞間に際だって多く見られた,相手の無い促音は,出現−復元喩辞間の場合は1個しか無かった.その代わりに,先行−後続出現喩辞間では全く見られなかった,相手のある促音が,表\ref{different5}のようにいくつか見られた.\begin{table}\begin{center}\caption{相手のある促音に関する相違}\label{different5}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/Q/&-&/de/&2\\/Q/&-&/ru/&1\\\end{tabular}\end{center}\end{table}\item母音\\\\先行−後続出現喩辞間では少なかった単母音間の相違は,出現−復元喩辞間の場合では9個あった.音素の出現頻度は表\ref{different6}のように,目立った特徴は無い.\begin{table}\begin{center}\caption{短母音間の相違}\label{different6}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/u/&-&/o/&2\\/o/&-&/u/&1\\/e/&-&/a/&2\\/a/&-&/e/&1\\/e/&-&/o/&1\\/o/&-&/e/&1\\/i/&-&/a/&1\\\end{tabular}\end{center}\end{table}\\\\先行−後続出現喩辞間では際だって多く見られた短音−長音間の相違は,出現−復元喩辞間の場合は表\ref{different7}のように比較的少なく,ほとんどの場合,出現喩辞が長音,復元喩辞が短音であった.先行−後続出現喩辞間の場合と同様に/o/と/a/が多かったが,/e/も多いのが特徴である.\begin{table}\begin{center}\caption{短音--長音間の相違}\label{different7}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/oo/&-&/o/&6\\/o/&-&/oo/&1\\/ee/&-&/e/&5\\/aa/&-&/a/&4\\/uu/&-&/u/&1\\/ii/&-&/i/&1\\\end{tabular}\end{center}\end{table}\\\\上記以外の母音に関する相違は,表\ref{different8}のようになった./ai/-/a/の相違を除き,出現喩辞が単母音または長音に限られるのは,復元喩辞が発音の「なまけ」によって出現喩辞に変化することによるものと考えられる.例外である/ai/-/a/の4個のうち,3個は終助詞「か」が出現喩辞「かい」に変化したものであり,あと1個は判定詞「じゃ」が「じゃい」に変化したものである.また,先行−後続出現喩辞間でいくつか見られた,相手の無い拗音/j/は表\ref{different9}のように,出現−復元喩辞間でもいくつか見られた.すべて出現喩辞の摩擦音に拗音が付加している場合であった.\begin{table}\begin{center}\caption{その他の母音に関する相違}\label{different8}\begin{tabular}{ccccc}出現喩辞&&復元喩辞&個数&\\\cline{1-4}\multicolumn{1}{l}{単母音}&-&\multicolumn{1}{l}{複合母音}&&\\/o/&-&/eo/&5&\\\multicolumn{1}{l}{複合母音}&-&\multicolumn{1}{l}{単母音}&&\\/ai/&-&/a/&4&\\\multicolumn{1}{l}{長音間}&&&&\\/ee/&-&/ii/&1&\\\multicolumn{1}{l}{長音}&-&\multicolumn{1}{l}{複合母音}&&\\/oo/&-&/eo/&1&\\/aa/&-&/ai/&1&\\/ee/&-&/ai/&1&\\\multicolumn{5}{l}{半母音(拗音/j/を含む)や子音を挟んだ母音}\\/ee/&-&/jai/&1&\\/a/&-&/owa/&1&\\/aa/&-&/uwa/&1&\\/i/&-&/esi/&1&\\/oo/&-&/eoru/&1&\\\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{相手の無い拗音に関する相違}\label{different9}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/zjoo/&-&/zo/&1\\/sja/&-&/sa/&2\\/zjo/&-&/zo/&1\\\end{tabular}\end{center}\end{table}\itemほか\\\\以上の他に,表\ref{different10}のような相違が見られた.「相手無し-/i/」は,「いや」が「や」に,「います」が「ます」になまけたもので,母音に見られたなまけの特徴と共通しているといえる.\begin{table}\begin{center}\caption{その他の相違}\label{different10}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/su/&-&相手なし&1\\/t/&-&相手なし&1\\相手なし&-&/i/&2\\\end{tabular}\end{center}\end{table}\end{list}以上より,出現−復元喩辞間の音素の相違について,以下の知見が得られる.\vspace*{2em}\\\vspace{-0.2mm}【知見】\begin{itemize}\item音素の相違があることは比較的少ない.特に先行の出現−復元喩辞間に相違があることはほとんどない.\item音素の相違は1個である場合が最も多く,多くても3個程度までである.\item撥音に関する相違が比較的目立つ.また撥音とその他の音素との相違は,いわゆる「形式的でない」表現と同様な出現頻度の傾向がある.\item子音の相違は比較的少ない.\item促音の相違は少ない.相違がある場合でも,相手の無い促音よりも相手のある促音のほうが多い.\item単母音間の相違は比較的少ない.単母音の音素の相違には特徴的な傾向は無い.\item母音の短音−長音間の相違は比較的少ない.ほとんどの場合,出現喩辞が長音,復元喩辞が短音である./o/,/e/,/a/が比較的多い.\item母音の相違の場合,ほとんどの場合,出現喩辞が単母音または長音に限られる.これは,母音に関しては,復元喩辞から発音をなまけたものにする場合が多いためと考えられる.出現喩辞側では,終助詞や判定詞などの文末の語に/i/や,摩擦音の後に拗音/j/が付加することがよくある.\end{itemize}\vspace{-0.3mm}
\section{考察と課題}
分析結果によると,駄洒落において極端に発音が変歪される場合は少ないことが明らかになった.むしろ変歪が全く無く,音素列が完全に一致する場合が多数を占めている.この性質は,工学的処理において両出現喩辞および両復元喩辞を同定するのに都合が良い.人間が駄洒落を理解する過程における処理では,先行−後続出現喩辞間では,明示された2つの音素列を単純に比較するだけであるのに対し,出現−復元喩辞間では,1つの音素列と,自分の知識に格納されている概念の音素列との比較を行い,音素列の類似した概念を取り出すという検索作業を必要とする.そのため,検索労力を軽減するため,出現−復元喩辞間のほうが音素の相違が少ないはずと予想される.分析結果では,先行−後続出現喩辞間に相違がある対は全体の約35%であるのに対し,出現−復元喩辞間は約15%と少なく,この予想に矛盾しない結果になっている.復元喩辞から出現喩辞への音素の変歪と,先行−後続出現喩辞間の音素の相違とが一致している場合が3例あった.この場合,復元喩辞同士は音素列が完全に一致しているのに,出現喩辞にした結果かえって音素列に不一致が生じることになる.即ち,両復元喩辞の発音を近づけるために変歪して出現喩辞にするという,変歪の目的に反している.その例を\#\ref{fourteen}に示す.\vspace*{1em}\begin{sample}\itemこのイカ酢はイカスー\label{fourteen}\end{sample}\vspace*{1em}\#\ref{fourteen}の分析結果を表\ref{result}に示す.復元喩辞間に相違がないにもかかわらず,出現喩辞間に短音/u/−長音/uu/の相違がある.他の2例も母音の短音−長音間の相違であった.これは,音素変歪(特に長音化すること)自体が,駄洒落の成立に重要な役割を果たしていることを示唆している.面白い駄洒落にするために音素変歪が果たす役割については本稿では立ち入らなかったが,重要な問題と思われる.\begin{table}\begin{center}\caption{\#\ref{fourteen}の分析結果}\label{result}\begin{tabular}{lcll}[分析結果]&&&\\\先行出現喩辞&:&イカ酢&/ikasu/\\\後続出現喩辞&:&イカスー&/ikasuu/\\\先行復元喩辞&:&イカ酢(普通名詞)&/ikasu/\\\後続復元喩辞&:&いかす(子音動詞サ行)&/ikasu/\\\end{tabular}\end{center}\end{table}本分析には,以下のような課題が残っている.\begin{itemize}\item分析対象が用例に基づくものでないこと\\\\本研究で分析対象とした駄洒落は,分析のために創作されたものである.そのため分析対象は,ステレオタイプ的な,いわば「苦し紛れ」の駄洒落が目立った.本分析結果が普遍的な駄洒落に適用できるかどうかという問題が残っている.\item基準辞書の補強の問題\\\\付録で述べるように,本研究では俗語的表現を許容するため基準辞書の補強を行ったが,どの程度まで許容すべきかについての明確な基準が無い.そのため分析結果が,駄洒落に特有な音素変歪の特徴であるかどうかを明確にできかったという問題が残っている.\item音素変歪の表記法の問題\\\\記述された駄洒落の場合には,音韻に関する表記の忠実性に限界があるために,「表記のゆれ」が分析結果に影響を与えていることが考えられる.例えば,\#\ref{four}の後続出現喩辞の表記を変えて\#\ref{four}(a)〜(c)のようにした場合,後続出現喩辞は(a)(b)(c)の順に,先行出現喩辞「トイレ」との音素列一致度が減少し,逆に後続復元喩辞「ておいで」との一致度が増加するが,実際の駄洒落においてどの表記が用いられるかは明確にできるものではない.\vspace*{1em}\hspace*{1em}\#4(a)\\\「トイレに行っといで」\\\hspace*{1em}\#4(b)\\\「トイレに行っておいれ」\\\hspace*{1em}\#4(c)\\\「トイレに行っておいで」\\\end{itemize}このように,本稿のような表記された音素上の分析で,駄洒落の真の発音上の性質をどこまで的確に捉えられるか,という問題が残っている.上記の例のように,先行−後続出現喩辞間の音素の相違と,出現−復元喩辞間の相違とは,同一駄洒落上で背反の関係にある.従って本稿のようにそれぞれの相違を別個に分析することはむしろ不自然と考えることもできる.より適切な分析方法について今後も検討していきたい.
\section{むすび}
本稿では,筆者らが「併置型」と呼ぶ駄洒落の一種について,音素上の性質を分析し,工学的処理機構を構成するために必要な知見を得た結果について報告した.今後,更に多くの駄洒落について分析を行い,本稿で得られた結果が普遍的に通用するものであるかどうかを確かめる必要がある.また,音素上の特徴だけでなく,形態素/構文上,さらに意味上の特徴の分析も必要である.両喩辞の意味が持つ「価値の落差」や,俗語的表現であることなどが,駄洒落としての「出来の良さ」に関連していると考えられるので\cite{Takizawa1992},今後も検討を進める予定である.\section*{謝辞}研究のきっかけを与えて下さった同志社大学柳田益造教授,駄洒落の収集に協力下さった神戸市外国語大学の諸氏,並びに有益なご討論を賜る京都大学山梨正明教授及び京都言語学コロキウムの諸氏に感謝致します.本研究では基準辞書として,京都大学長尾研究室の形態素解析システムJUMANの標準辞書を用いた.関係各位に感謝致します.最後に,有益なご指摘を下さった査読者の方に御礼申し上げます.\section*{付録:基準辞書について}本研究において分析の基準として用いる形態素解析辞書を「基準辞書」と呼ぶことにする.基準辞書として,日本語形態素解析システムJUMANに標準添付されている辞書(異なり形態素数約13万語)を用いた.但し実際の分析には,終助詞,擬音・擬態語,固有名詞等の形態素の追加,および連接辞書の拡張などの補強を行った辞書を用いた.以下に,補強した理由,補強範囲,および補強の具体的内容について述べる.\vspace*{1em}\begin{list}{\Large$\bullet$}{}\item補強した理由\\\\喩辞復元部では,主処理部において生じた未知語のうち,駄洒落化に伴う音素変歪によって未知語になったと判定されたものを出現喩辞の候補とし,復元喩辞に復元する.そのため主処理部において,出現喩辞以外の未知語をできるだけ減らしておくことが,より正しい解析結果を得るための前提となる\footnote{形態素解析に失敗することと,未知語を生じることとは等価ではない.誤った形態素解析を行ってしまったことによって未知語であっても未知語にならないこともありうるが,これは主処理部における問題であるので,本研究では取り扱わないことにする.}.そのために補強が必要となる.\item補強の範囲\\\\活用変化の追加や語彙の登録など,形態素単位で対応できる範囲で,しかも駄洒落の場合に限らずある程度使用が普遍化していると思われる表現について,方言的・俗語的表現も含めてできるだけ対応できるように補強する.そうすることで,駄洒落に特有な特徴のみをより明確に浮かび上がらせることができると考えられる.\item補強の具体的内容\begin{enumerate}\def\labelenumi{}\item常識的表記と思われる擬音・擬態語や,俗語的表現として定着していると思われる語彙,および固有名詞等を追加した.広辞苑\cite{Koujien1969}に掲載されている語彙を一応の追加の基準としたが,擬音・擬態語等については,広辞苑に掲載されていないものも追加した.\vspace*{1em}\begin{tabular}{l}[追加例]\\\\\\\擬音・擬態語「ガーン」,「ポトン」\\\\\\\代名詞「どいつ」\\\\\\\他動詞サ行変格活用「ざんす」\\\\\\\判定詞「や」(用例:「好きや」)\\\\\\\判定詞「じゃ」(用例:「誰じゃ」)\\\\\\\終助詞「や」(用例:「痛いや」)\\\end{tabular}\vspace*{1em}\item連接辞書の強化を行い,俗語的表現として定着していると思われる接続関係を許容するようにした.例えば「格好いい」(名詞+形容詞)は,JUMANに標準添付されている連接辞書では接続検定ではねられる(「格好がいい」(名詞+助詞+形容詞)としなければならない)が,俗語的表現として一般化していると思われるので,名詞+形容詞の接続を連接辞書に追加し,「格好いい」を許容できるようにした.他に同様な理由で,命令形+終助詞(例「捨てろよ」),接尾辞+判定詞(例「ではないです」)などを追加した.\item活用変化を拡張し,例えば「見れる」のようないわゆる「ラ抜き言葉」などを許容できるようにした.\end{enumerate}\end{list}なおJUMANシステムは,文献\cite{Masuoka1989}に基づいて作成されている.\bibliographystyle{jtheapa}\bibliography{main}\newpage\begin{biography}\biotitle{略歴}\bioauthor{滝澤修}{1985年京都大学工学部電気工学科卒業.1987年同大学院修士課程修了.同年,郵政省電波研究所(現・通信総合研究所)入所.現在,同所関西先端研究センター知的機能研究室主任研究官.自然言語処理の中でも,駄洒落,皮肉,トートロジー等の修辞表現の計算機処理に興味を持っている.1990年度電子情報通信学会篠原記念学術奨励賞,同年度電気関係学会関西支部連合大会奨励賞受賞.日本音響学会,日本心理学会,情報処理学会,言語処理学会,計量国語学会,人工知能学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N04-06
|
\section{はじめに}
\label{hajimeni}近年,テキストの自動要約の研究が盛んに行われている\cite{okumura99}.要約は,その利用目的により,原文の代わりとして用いる報知的(informative)要約と,原文を参照する前の段階で原文の適切性の判断などに用いる指示的(indicative)要約とに分類される\cite{Hand97}.報知的要約には,TVニュース番組への字幕生成(例えば,\cite{shirai99}参照)などのように,情報を落とすべきではない要約も含まれる.このような要約文の生成に,文や段落を単位とした重要文抽出の手法を利用すると,採用されなかった文に含まれる情報が欠落する可能性が高い.情報欠落の可能性が低い要約手法として,言い換えによる要約\cite{wakao97,yamasaki98}があるが,要約率に限界があることから(例えば,\cite{yamasaki98}参照),他の要約手法との併用が必要となる.情報欠落の可能性を減少させた手法として,これまでいくつかの手法が提案されている.福島ら\cite{fukushima99}は,長文を短文に分割した後に重要文抽出を行うことで,情報欠落の可能性の減少を試みている.しかし,重要文として採用されなかった文に含まれる情報には,欠落の可能性が残っていると言える.三上ら\cite{mikami99}は,文ごとに冗長な部分を削除することにより,文単位での抽出による情報の偏りを回避している.この手法では,連体修飾部や例示の部分を削除しても,文の中心内容は影響を受けないとして,これらの部分を削除対象としている.しかし,削除された部分が,読み手にとって重要と判断される場合もあることが三上らのアンケート調査の結果より明らかになっている.さらに,三上らは,連体修飾部等の意味に立ち入らず,構文構造のみから削除部分を認定しており,また,ある文を要約する際には,他の文の情報を使用していない.そのため,例1の下線部のように,意味が同じ修飾部であっても,一方が冗長であると認定されて削除されるならば,もう一方も同様に削除され,これらの情報は欠落する.逆に,冗長であると認定されなければ,両方とも残されるので,読み手にとって既知の情報を再度伝えることになる.\newpage\begin{quote}\label{rei:rei1}\hspace*{-1em}{\bf例1:}\\\hspace*{1em}\underline{薬害エイズの真相究明につながる}新たなファイルがあることが明らかになった問題で、$\cdots\cdots$\hspace*{1em}この問題は、\underline{薬害エイズの真相究明につながる}厚生省のファイルがこれまでに見つかった九冊の他にさらに七冊あることがわかったもので、$\cdots$\end{quote}\vspace{4mm}そこで本論文では,このような,意味の重複部分を削除する要約手法について議論する.テキスト内で,既出の部分と同一の意味を表している部分のみを削除することにより,情報欠落の可能性を極力回避し,冗長度を減少させることが可能であると考えられる.意味が同一であるかを判定するためには意味を理解する必要があるが,現状の技術で機械による意味理解は困難である.よって,意味の重複のうち,表現の重複で認定可能な事象\footnote{本論文では,語の集まりによって表現される対象物や現象,動作などを事象と呼ぶ.}を対象とする.例1の下線部のように,テキスト内に同じ事象を表す部分が再び現われたならば,その修飾部(第2文の下線部)を削除しても,人間は理解が可能である.本論文では,事象の重複部分の削除による要約を,事象の重複部を認定する「重複部の認定」と,重複部のうち削除可能な部分を決定する「重複部の削除」とに分けて議論する.「重複部の認定」では,2語の係り受け関係を用いて重複部の認定を行う.係り受け関係のある2つの語が,一つの事象を表していると仮定し,それを比較することで事象の重複を認定する.\ref{nintei}~節では,この2語の係り受け関係を用いた重複部の認定について述べる.一方,認定された重複部がすべて削除可能であるとは限らない.たとえ重複していたとしても,削除すると読み手の理解が困難になることや,不自然な要約文が生成されることがある.よって,「重複部の削除」では,全ての重複部を削除するのではなく,削除可能な部分を決定する必要がある.\ref{sakujo}~節では,決定の際に考慮すべき情報について述べる.以下,\ref{jitsugen}~節では,\ref{nintei}~節で述べる重複部の認定と,\ref{sakujo}~節で示す情報のうち実現可能なものとを用いた要約手法の計算機上での実現について述べる.\ref{hyouka}~節では,本手法の評価を行う.記事内に重複の多いニュース原稿を入力テキストとして要約を行い,どの程度重複部分を削除可能か,また,削除箇所が妥当であるかの評価実験を行った.ニュース原稿は,NHK放送技術研究所との共同研究のため提供された,NHK汎用原稿データベースを使用した.\ref{kousatsu}~節では,評価実験の結果より,人間(筆者)は削除したが本手法では削除されなかった重複部,および,妥当でない削除箇所について考察する.さらに,本手法の妥当性と有効性等について考察する.また,\ref{kanren}~節では関連研究について論じる.テキスト自動要約においては,一般的に単独の手法のみでは必ずしも十分な要約率が達成できるとは限らない.むしろ,複数の要約手法を併用することで望ましい要約が得られることが多い.本論文で提唱する手法は,要約を行なう応用において要素技術の一つとして用いることができるが,要約率を向上させるには文間の重複表現以外を用いた他の要約技術との併用を前提とする.
\section{重複部の認定}
\label{nintei}\subsection{2語の係り受け関係の利用}\label{nintei_2goriyou}事象の重複を認定するために,1語による表現が重複しているか否かの照合を行うことを考える.以下の例の第1文と第2文は,「太郎がボールを買った」という事象が重複している.この例文では,1語による表現「太郎」,「ボール」,「買う」の重複によって,重複している部分を認定することができる.\vspace{5mm}\begin{quote}\label{rei:rei2}\hspace*{-1em}{\bf例2:}\\\underline{太郎がボールを買った}。昨日、\underline{太郎が}スポーツ用品店で\underline{ボールを買った}。\end{quote}\vspace{5mm}以下の例では,1語による表現「走る」,「グランド」が重複しているが,それらの語が示している事象は異なっている.第1文では,走ったのは太郎であり,向かっている先がグランドである.しかし,第2文では,走っているのが次郎で,走っている場所がグランドである.\vspace{5mm}\begin{quote}\label{rei:rei3}\hspace*{-1em}{\bf例3:}\\太郎は、\underline{走って}\underline{グランド}へ向かった。そして、\underline{グランド}を\underline{走って}いる次郎を応援した。\end{quote}\vspace{5mm}このように,1語による表現の重複によって重複部を認定すると,重複していない事象を誤って認定する可能性がある.誤った認定を避けるために,係り受け関係のある2つの語が一つの事象を示していると仮定し,これを2語の係り受け関係と呼ぶ.文の骨格は2語の係り受け関係の組合せにより成っていると考えることができる.例2の第1文は,「太郎が買った」,「ボールを買った」という2語の係り受け関係の組合せで表すことができる.同様に第2文は,上記2つの2語の係り受け関係に,「昨日買った」,「スポーツ用品店で買った」を加えた,4つの2語の係り受け関係で表すことができる.第1文と第2文で重複している2語の係り受け関係が,事象の重複を表している.この2語の係り受け関係を用いて,例3の2つの文における事象の重複の認定を行う.第1文に含まれる2語の係り受け関係は,「太郎が向かった」,「走って向かった」,「グランドへ向かった」となり,第2文は「グランドを走っている」,「走っている次郎」,「次郎を応援した」となる.よって,第1文と第2文とで重複している2語の係り受け関係は存在しないので,事象の重複部はないと認定する.このように,2語の係り受け関係を用いると,事象の重複を誤って認定する可能性を減少させ,また,複数の事象により成っている文から,重複している事象のみを抽出することが可能となる.2語の係り受け関係は,その係り受け関係より,表\ref{tab:nigonokankei}~の関係1〜関係4に分類することができる.名詞Aが名詞Bを修飾する「AのB」の関係は,連体修飾語と被修飾語の名詞の関係の一つだが,後述するようにいくつかの用法があるため,本論文では区別して扱う.係り受け関係にある語$w_{1},w_{2}$から構成される,2語の係り受け関係を$R(w_{1},w_{2},r)$と表す.第1項が係り元の語,第2項が係り先の語であり,$r$は表\ref{tab:nigonokankei}~の分類における関係の番号(1〜4)である.本手法では,2語の係り受け関係において,文型の変化に柔軟に対応するために,助詞の情報は扱わない.また,これらの語は,活用による変化に対応するために,基本形を用いる.\begin{table}[t]\begin{center}\caption{2語の係り受け関係の分類}\label{tab:nigonokankei}\begin{tabular}{|l|l|}\hline\multicolumn{1}{|c|}{分類}&\multicolumn{1}{c|}{例}\\\hline\hline関係1:用言とその用言がとる格要素&太郎が買った,\\ボールを買った\\\hline関係2:連体修飾語と被修飾語の名詞&買ったボール\\\hline関係3:連用修飾語と被修飾語の用言&本格的に検討する\\\hline関係4:AのB&太郎のボール\\\hline\end{tabular}\end{center}\end{table}\subsection{重複の認定}\label{nintei_choufuku}\subsubsection{2語の係り受け関係の重複}\label{nintei_choufuku_2go}関係1の$R_{1}=(w_{1},w_{2},1)$と$R_{2}=(w_{3},w_{4},1)$において,$w_{1}$と$w_{3}$が同一の語であり,かつ,$w_{2}$と$w_{4}$も同一の語であるならば,$R_{1}$と$R_{2}$は重複していると認定する.関係2,3,4同士の重複の認定も同様に行う.同じ種類の関係同士だけではなく,異なる種類の関係同士であっても,それらの示す事象が重複している場合がある.そのため,異なる種類の関係であっても,以下のように照合\footnote{本論文において「照合」という語は,比較する処理のことを指し,比較した結果,同一であったという意味は含まない.}を行う.\vspace{2ex}\noindent{\bfa.関係2}連体修飾語には,被修飾語である名詞が連体修飾語の格要素となる「内の関係」と,格要素とならない「外の関係」とがある\cite{teramura75}.表\ref{tab:nigonokankei}~の関係2の例「買ったボール」の連体修飾語と被修飾語とは「内の関係」であり,被修飾語のボールを修飾語の格要素とすると,関係1である,「ボールを買った」となる.このように,関係2が表す事象と,関係1が表す事象は重複している可能性がある.よって,関係2の連体修飾語と被修飾語とが「内の関係」であれば,関係1と関係2を相互に照合を行い,関係1の$R_{1}=(w_{1},w_{2},1)$と,同一の語によって構成される関係2の$R_{2}(w_{2},w_{1},2)$とは,重複していると認定する.\vspace{2ex}\noindent{\bfb.関係3}関係3において,連用修飾語が形容詞,あるいは,形容動詞であり,被修飾語が動詞である場合は,関係1,および,関係2が示す事象と重複している可能性がある.例えば,関係3である「本格的に検討する」は,関係1である「検討が本格的だ」と,関係2である「本格的な検討」と重複している.よって,関係3は,関係1および関係2と相互に照合を行う.関係3である$R_{3}=(w_{1},w_{2},3)$の動詞$w_{2}$を名詞形にした$w_{2}^{\prime}$と$w_{1}$によって成る,関係1の$R_{1}=(w_{2}^{\prime},w_{1},1)$および,関係2の$R_{2}=(w_{1},w_{2}^{\prime},2)$は,重複していると認定する.\vspace{2ex}\noindent{\bfc.関係4}「AのB」には以下のような用法があり,AとBのどちらも用言となりうることが,島津ら\cite{shimazu85}によって指摘されている.\begin{itemize}\setlength{\itemsep}{-1.5mm}\item[i.]AがBの格要素:ビルの建設→関係1に対応\item[ii.]BがAの格要素:類似の経路→関係2に対応\item[iii.]AがVする(動詞を補う)B:彼女の鉛筆→関係1と関係2の組合せに対応\end{itemize}関係4を$R_{1}=(A,B,4)$とすると,i.の用法より関係1の$R_{2}=(A,B,1)$と,関係2の$R_{3}=(B,A,2)$との重複を認定する.これにより,「ビルの建設」が「ビルを建設する」,および,「建設するビル」と重複していると認定する.ii.の用法より関係1の$R_{4}=(B,A,1)$と,関係2の$R_{5}=(A,B,2)$との重複を認定する.これにより,「類似の経路」が「経路が類似する」,および,「類似する経路」と重複していると認定する.また,iii.の用法により,用言が省略されているとみなすことができるものもある.よって,$R_{1}=(A,B,4)$の名詞$A,B$と,関係1および関係2のうち,同一の用言$v$と関係のある名詞$A,B$との重複を認定する.$R_{1}$と重複している関係1,および,関係2の組合せを以下に示す.\begin{itemize}\setlength{\itemsep}{-1.5mm}\item関係1の$R_{6}=(A,V,1)$と$R_{7}=(B,V,1)$\item関係1の$R_{8}=(A,V,1)$と関係2の$R_{9}=(V,B,2)$\item関係1の$R_{10}=(B,V,1)$と関係2の$R_{11}=(V,A,2)$\end{itemize}これにより,「彼女の鉛筆」が「彼女が鉛筆を所有する」,「彼女が所有する鉛筆」,「鉛筆を所有する彼女」と重複していると認定される。\subsubsection{複合名詞と2語の係り受け関係の重複}\label{nintei_choufuku_fukugou}複合名詞内の名詞同士の関係は,「AのB」の関係で表しても,意味が変わらない場合がある.例えば,「財政問題」と「財政の問題」とは同一の内容を指している.よって,複合名詞は\setlength{\itemsep}{-1.5mm}\begin{itemize}\item一つの語として扱い,その係り先の語との関係を既出の関係と照合する\item複合名詞を構成する各名詞間の係り受け構造から,複数の部分$p_{1},p_{2},\cdots,p_{n}$に分割して,複数の関係4「$p_{i}$の$p_{j}$」($i<j$)として扱う.\end{itemize}の2通りで重複の認定を行う.\subsection{提題表現}\label{nintei_teidai}提題表現は,2語の係り受け関係とは独立に重複を認定することができる.提題表現は,その文の主題を提示するものであり,1つ前の文の提題表現と同じ名詞であれば,その名詞を省略しても,人は前の文の主題が続いていると理解する.よって,以下の例のように,提題表現の名詞と前文の提題表現の名詞とが同一であれば,2語の係り受け関係が重複していなくても,重複と認定する.\vspace{5mm}\begin{quote}\label{rei:rei4}\hspace*{-1em}{\bf例4:}\\\underline{橋本総理大臣は}$\cdots\cdots$に懸念を表しました。また\underline{橋本総理大臣は}$\cdots\cdots$という考えを示しました。\end{quote}
\section{重複部の削除}
\label{sakujo}本節では,重複部削除において必要となる情報について整理を行う.重複部と認定された2語の係り受け関係,および,提題表現を削除することにより要約を行うが,理解しやすく,かつ,自然な要約文を生成するためには,いくつかの情報を考慮しなければならない.これらの情報の中には,現段階では機械による実現が困難なものもあるが,重複部削除に必要な情報を整理することは有用である.\subsection{削除対象}\label{sakujo_taishou}重複している2語の係り受け関係であっても,その全体を削除してしまうと,理解が困難な文となる場合がある.以下に示す例文では,「韓国との連携を」が重複部と認定される.しかし,2度目に出現した「韓国との連携を」を削除すると,何を重視するのかの理解が困難な文となる.\vspace{5mm}\begin{quote}\label{rei:rei5}\hspace*{-1em}{\bf例5:}\\\hspace*{1em}「\underline{韓国との}密接な\underline{連携を}必要とする」と述べ、$\cdots$では[韓国との連携を]重視する考えを示しました。\end{quote}\vspace{5mm}これは,連携という語について,「連携を必要とする」という事象は既出であるが,「連携を重視する」という事象は述べられていないためである.すなわち,2語の係り受け関係$R_{1}=(w_{1},w_{2},r)$が重複していても,係り先となっている語$w_{2}$は,その係り先の語$w_{3}$との2語の係り受け関係$R_{2}=(w_{2},w_{3},r)$が重複していなければ,削除することはできない.よって,重複している2語の係り受け関係の2つの語のうち,係り元の語のみ削除を行う.\subsection{並列する節全体の削除}\label{sakujo_heiretsu}直接引用文を含む文では,以下の様な節の並列が見られる.\vspace{5mm}\begin{quote}\label{rei:rei6}\hspace*{-1em}{\bf例6:}\\橋本総理大臣は、中国の核実験について、「今月モスクワで原子力安全サミットが開催されるが、$\cdots$。我々の立場は、実験の早期停止を求めることだ」と述べ、\underline{原子力安全サミットを前に、核実験の停止を重ねて求めました}。\end{quote}\vspace{5mm}後半の節(下線部)の内容は,引用文を言い換えている場合が多く,また,ニュース文では,第1文等で同じ内容が既に示されている事が多い.そのため,重複している2語の係り受け関係の係り元を削除すると,係り先である文末の述部「求めました」のみが残存し,\begin{quote}橋本総理大臣は,$\cdots$「$\cdots\cdots$」と述べ、求めました。\end{quote}という不自然な文を生成してしまう.自然な文を生成するには,「求める」の格要素「停止を」を残存させる必要があるが,「停止を求めた」ことについては既に述べられているため,冗長となる.よって,冗長度を落とし,自然な文を生成するためには,後半の節全体を削除することが考えられる.この際に,前半の節の文末に,文末表現を補完する必要があるが,削除する後半の節から抽出して,補完が可能であると考えられる.\subsection{名詞の修飾要素の削除}\label{sakujo_meishi}重複部と認定された2語の係り受け関係が連体修飾語と被修飾語の名詞の関係,すなわち,関係2,または,関係4であった場合,その係り元である連体修飾語を削除すると意味の理解が困難になる可能性がある.一般に,連体修飾語は,以下の2つの要因を考慮して削除すべきである.\subsubsection{形式的表現の修飾要素の削除}\label{sakujo_meishi_keishiki}被修飾語の名詞が,形式的表現\cite{mikami99}である場合は,その修飾語を削除すると意味がとれなくなる可能性がある.形式的表現は,「考え」,「状況」のようなその語単独では,あまり意味を持たない語である.そのため,以下の例のように修飾語を削除すると,どのような考えなのか,どのような状況なのかを限定することができなくなり,読み手の理解が困難になる.\vspace{5mm}\begin{quote}\label{rei:rei7}\hspace*{-1em}{\bf例7:}[財政支出を予算案から削除する]\underline{考え}はないことを強調しました。[話し合う]\underline{状況}になっていない。\end{quote}\vspace{5mm}しかし,以下の例のように,形式的表現であっても,修飾要素を削除してもよい場合もある.\vspace{5mm}\begin{quote}\label{rei:rei8}\hspace*{-1em}{\bf例8:}\\昨日から、困った事態になっている。[困った]\underline{事態}を解消するため、$\cdots$\end{quote}\vspace{5mm}「事態が複雑になる」や「事態を解消する」のように,何かの事態が何らかの状態になる,または,何かの事態を何らかの状態にする,という用法の場合は,「事態」を限定する修飾要素を削除可能であると考えられる.しかし,「〜が…な事態になる」や,「〜が…の事態に至る」のような場合は,削除すると不自然になると考えられる.よって,形式的表現の修飾語は,その用法により,削除可能であるか否かを認定する必要がある.\subsubsection{ダ文の修飾要素の削除}\label{sakujo_meishi_hanteishi}以下の例の第2文は,ダ文(述部が名詞+判定詞からなる)である.\vspace{5mm}\begin{quote}\label{rei:rei9}\hspace*{-1em}{\bf例9:}\par食中毒の\underline{原因の食材を}特定した。カイワレ大根が\underline{[原因の]食材だ}。\end{quote}\vspace{5mm}第2文は,第1文の下線部と重複しているので,「原因の」が削除される.しかし,第2文はカイワレ大根が食材であることを述べているのではなく,カイワレ大根が原因であるということを述べているので,不自然な文となっている.第2文の修飾部が削除不可能な理由は,述部の名詞とその文の主語の関係にあると考えられる.主語の名詞「カイワレ大根」の意味は,述語の名詞「食材」の意味を包含している.さらに,その包含関係は読み手にとって明らかである.そのため,述部の名詞の修飾要素「原因の」を削除すると,不自然な文となる.このように,ダ文の場合は,述部の名詞よりも,その修飾語が重要な場合もある.\subsection{対照表現である修飾要素の削除}\label{sakujo_souhan}同一文章内に,「\underline{輸入の}血液製剤」と「\underline{国内産の}血液製剤」のように,同じ語「血液製材」が対照表現である修飾語を伴って出現する場合がある.これらの2語の係り受け関係の「血液製材」に対する修飾語を削除すると,どちらの血液製材について述べているのか分からなくなる.よって,ある語$w_1$の修飾語$w_2$を削除する際には,同一文章内で,$w_1$が,$w_2$の対照表現である修飾語$w_3$を伴って出現しているか否かを判定し,出現している場合には,修飾語$w_2$の削除を行わないよう考慮しなければならない.\subsection{用言がとる格要素の削除}\label{sakujo_yougen}用言がとる格要素を削除すると,その用言だけでは意味を理解できない場合がある.そのような例を以下に示す。\vspace{5mm}\begin{quote}\label{rei:rei11}\hspace*{-1em}{\bf例10:}\par[台湾海峡を]\underline{めぐる}今回の事態は$\cdots$[先送りすることも]\underline{ある}という考えを$\cdots$$\cdots$、引き続き[受注競争が]\underline{激しく}、$\cdots$。\end{quote}\vspace{5mm}これらの動詞や形容詞は広い意味を持つため,いずれかの格要素を残す必要性が高いと考えられる.しかし,以下のような文脈を考えると,「ある」の格要素が残されていなくても理解が可能であることがわかる.\vspace{5mm}\begin{quote}\label{rei:rei12}\hspace*{-1em}{\bf例11:}\par過半数の賛成があるかが心配だ。[過半数の賛成が]あれば、法案が可決される。\end{quote}\vspace{5mm}よって,これらの用言がとる格要素のうち,どれを削除すべきでないかは,記事中で2語の係り受け関係が出現する距離や,どの程度記事の中心になっているかなどの文脈にも依存すると考えられる.
\section{計算機上での実現}
\label{jitsugen}\subsection{定義}\label{jitsu_teigi}\ref{nintei}~節で述べた方法で重複部を認定するために,語,および,2語の係り受け関係について定義する.\subsubsection*{○語の定義}\label{jitsu_teigi_go}JUMAN\footnote{http://pine.kuee.kyoto-u.ac.jp/nl-resource/}による形態素解析,KNP\footnotemark[3]による構文解析を行ない,それぞれの文節内の\begin{itemize}\item自立語:名詞(形式名詞,副詞的名詞を除く),動詞,形容詞,副詞\item付属語:名詞接頭辞,サ変動詞「する」\end{itemize}からなる語群を,1つの語として扱う.よって,複合名詞は1つの名詞として,サ変名詞+「する」は1つの動詞として扱う.また,名詞+動詞(先/送り/する),動詞+動詞(創り/出す)なども,一つの動詞として扱う.ただし,動詞,または,形容詞の後に形式名詞または副詞的名詞がくる場合は,動詞+形式名詞で一つの名詞とし,2文節を一つの単位として扱う.\vspace{5mm}\begin{quote}{\bf例12:}問題を処理することが先決\\\hspace*{1em}取り出される関係:\\\hspace*{2.5em}$(問題,処理する,1)$\\\hspace*{2.5em}$(処理する(こと),先決,1)$\end{quote}\vspace{5mm}\subsubsection*{○2語の係り受け関係の定義}\label{jitsu_teigi_nigo}KNPによる係り受け解析結果で,係り受け関係にある2つの語を2語の係り受け関係とする.\subsection{重複部の認定}\label{jitsu_nintei}\subsubsection{2語の係り受け関係の照合}\label{jitsu_nintei_2go}\ref{jitsu_teigi}~節で定義した2語の係り受け関係を\ref{nintei_choufuku}~節で述べた方法で,既出の2語の係り受け関係と照合を行い,重複部を認定する.ただし,\ref{nintei_choufuku_2go}~節a.で述べた関係2と関係1との照合において,連体修飾語と被修飾語である名詞とが「外の関係」である関係2は,関係1に変換することはできない.そのため,たとえ2つの関係がどちらも$w_{1}$,$w_{2}$によって構成されていても,重複と認定することはできない.しかし,「外の関係」で現われた連体修飾部の用言と被修飾部の名詞が,同一テキスト内に,用言とその用言がとる格の関係で出現する可能性は低いので,実用上区別を行わなくても問題はないと考えられる.このため本手法ではこれらを区別せず照合を行う.また,\ref{nintei_choufuku_fukugou}~節2.で述べたように,複合名詞は2通りの照合を行う.\subsubsection{語の照合}\label{jitsu_nintei_go}語の照合において,複合名詞とその省略形とを重複していると認定するために,次のように照合を行う.比較する2つの複合名詞(一方が名詞1つでも可)の形態素数の和に対し,重複している形態素数の和(2語に共通なので,1つ重複していれば+2)が5割以上を占めていたら,同じものを意味する複合名詞であると認定する.\vspace{5mm}\begin{quote}{\bf例13:}「ビデオ/テープ」と「テープ」\\形態素数の和:3\\重複している形態素数:2\end{quote}\vspace{5mm}\subsubsection{複合名詞の照合}\label{jitsu_nintei_fukugou}\ref{nintei_choufuku_fukugou}~節で述べたように,複合名詞は,それを構成する各名詞間の係り受け構造から,複数の部分$p_{1},p_{2},\cdots,p_{n}$に分割して,複数の関係4「$p_{i}$の$p_{j}$」$(i<j)$として照合を行う必要がある.しかし,本手法では,複合名詞間の重複の削除は行なわない.それは,複合名詞内の名詞群をどのように2語の係り受け関係「AのB」に分割するかが問題となるからである.例えば,「農協系金融機関」という複合名詞は,JUMANの形態素解析により「農協/系/金融/機関」の4つの形態素に分割される.この複合名詞を「AのB」の関係で表すならば,「農協系の金融機関」とすべきである.また,「老人/保険/福祉/審議会」は「老人保険福祉の審議会」とすべきである.さらに,「農協系金融機関」を構成する複合名詞「金融機関」は,「金融の機関」と分割することもできる.このように,形態素群をどのように「AのB」に分割するかは,複合名詞の持つ意味によって異なる.「財政の問題」と「財政問題」の照合のように,複合名詞内の形態素群AとBが同一文章中に関係として出現している場合は,AとBへの分割が可能であると判断できる.しかし,関係として出現していない場合は,どこで分割すべきなのかの判断は困難である.\subsection{重複部の削除}\label{jitsu_sakujo}\subsubsection{実装困難な情報}\label{jitsu_sakujo_konnan}\ref{sakujo}~節で述べた情報のうち,本手法で実装を行わないものについて,その理由を述べる.\vspace{2ex}\noindent{\bf○ダ文の修飾要素の削除}\ref{sakujo_meishi_hanteishi}~節で述べたように,ダ文において,その述部の名詞の修飾要素が削除不可能であることを判定するためには,主語と述部の名詞の意味の範囲を認定し,比較する必要がある.しかし,この比較を行うには,世界知識を含めた大規模なシソーラスが必要となる.さらに,判定詞「だ」は省略されることもある.もし,\ref{sakujo_meishi_hanteishi}~節例9の第2文が「カイワレ大根が原因の食材(だ)とは$\cdots$」のように,「だ」が省略された形であった場合,構文解析結果からも,省略を認定できないため,削除可能か不可能かの認定はより困難になる.\vspace{2ex}\noindent{\bf○対照表現である修飾要素の削除}\ref{sakujo_souhan}~節で述べた,修飾語が対照表現であるかの認定を行うために,辞書を用いることが考えられる.しかし,対照表現となる修飾語を辞書に全て列挙することは困難である.また,文脈によって,修飾語が対照表現であるかの認定には,背景知識が必要になる場合もあると考えられる.これらは,背景の知識を含めて判断する必要がある.\vspace{2ex}\noindent{\bf○用言がとる格要素の削除}\ref{sakujo_yougen}~節で述べたように,用言がとる各格要素に対して,削除すべきか否かを判定するためには,記事中で2語の係り受け関係が出現する距離や,どの程度記事の中心になっているかなどの文脈を考慮する必要がある.\subsubsection{削除の方法}\label{jitsu_sakujo_houhou}\ref{sakujo}~節で述べた情報を用いて,重複部の削除を計算機上で実現する方法について述べる.なお,形式的表現の修飾要素の削除への対処については,\ref{sakujo_meishi_keishiki}~節で述べた用法の違いを,助詞の種類や動詞の種類,あるいは,それらの組合せなどにより区別することが考えられる.しかし,形式的表現ごとに条件が異なると考えられ,それらに対して全ての条件を辞書に登録することは困難である.そのため,人手で作成した辞書を用いて形式的表現を認定し,その修飾語は削除しないという,三上ら\cite{mikami99}と同様の対処が,現状では容易である.よって,本手法では,三上らの形式的表現辞書に,新たに5つの表現\begin{quote}段階,問題,立場,認識,前提\end{quote}を加えた辞書を作成し,実装した.以下に削除の手順を示す.\begin{enumerate}\item記事の先頭から順に見ていき,2語の係り受け関係$(w_{i},w_{j},r)$を抽出する.\itemその係り元の語$w_{i}$が提題表現であり(KNPの解析結果より判定),かつ,その名詞と前文の提題表現の名詞との重複があるか認定する.但し,以下のように,文内に直接引用文が含まれている場合,引用文内(括弧内)での提題表現の処理と,本文(括弧外)での処理は区別して行う.\vspace{5mm}\begin{quote}\label{rei:rei15}\hspace*{-1em}{\bf例14:}\\\underline{土井議長は}、$\cdots$について、「$\cdots$\underline{議員は}、選挙区にできるだけ長く居ようとし、$\cdots$」と述べました。その上で、[土井議長は、]「$\cdots\cdots$」と述べました。\end{quote}\vspace{5mm}\item一般の重複表現であり,かつ,係り先の語$w_{j}$が形式的表現でないか認定する.2.,あるいは,3.を満たしている$w_{i}$を削除する.ただし,$w_{i}$を削除することにより,構文構造\footnote{KNPの係り受け解析結果}が破壊される場合は,削除を行わない.\item1文の重複部を削除した後,並列する節の後半の節が述部を残して全て削除されていないかを調べ,削除されていたら後半の節の述部も削除する.(注意:前半の節の述部に,文末表現を補完する必要があるが,今回は行っていない.)\end{enumerate}\vspace{1.5ex}以下に,上記の手順によって行われる削除の例を示す.\newpage\begin{quote}\label{rei:rei15}\hspace*{-1em}{\bf例15:}\par\hspace*{1em}\underline{薬害エイズの真相究明につながる新たなファイルがある}ことが明らかになった問題で、$\cdots\cdots$\hspace*{1em}この問題は、\underline{[薬害エイズの真相究明につながる]厚生省のファイルが}これまでに見つかった九冊の他にさらに七冊\underline{ある}ことがわかったもので、$\cdots$\end{quote}第1文の下線部から抽出される関係は,\begin{center}\begin{tabular}{ll}$R_{1}=(薬害エイズ,真相究明,4)$,&\\$R_{2}=(真相究明,つながる,1)$,\\$R_{3}=(つながる,ファイル,2)$,&\\$R_{4}=(新たな,ファイル,2)$\\$R_{5}=(ファイル,ある,1)$,&\\\end{tabular}\end{center}の5つである.第2文の下線部から抽出される関係は,上記の関係と重複している$R_{1},R_{2},R_{3},R_{5}$と,重複していない$R_{6}=(厚生省,ファイル,4)$の5つである.$R_{1}〜R_{3}$が重複していることより,[]で囲まれた部分が削除される.一方,$R_{5}$も重複はしているが,その係り元の文節「ファイルが」を削除すると,$R_{6}$の「厚生省の」の係り先が失われ,構文構造が破壊されてしまう.よって,第2文の「ファイルが」の削除は行われない.
\section{評価}
\label{hyouka}ニュース原稿1996年1月〜8月分のうち20記事を抽出\footnote{削除率($=1-要約率$)が極端に低いものは除外したが,記事の内容については無作為に選んだ.また,KNPによる解析誤りは人手により修正を行なった.}し,その20記事の筆者によって重複部を削除した要約結果と,本手法による要約結果(平均要約率91.1\%)との削除された箇所を比較し,再現率,適合率によって評価を行う.今回の評価実験では,本手法の削除箇所が妥当であるか否かの評価を行う.よって,筆者による要約では,\begin{enumerate}\setlength{\itemsep}{-1.5mm}\item情報欠落を極力回避:既出の情報を含む部分のみを削除\item自然な要約文を生成:文が不自然になる削除は行わない\item文節単位の削除と,複合名詞の部分的な削除のみを行う\end{enumerate}と言う方針で,要約結果を作成した.なお,削除箇所としては,2語の係り受け関係の照合を1回行うごとに,削除可能と認定される文節群を1箇所として数える.$$再現率=\frac{人手と本手法とで一致する削除箇所数}{人手による削除箇所数}\×100\(\%)$$$$適合率=\frac{人手と本手法とで一致する削除箇所数}{本手法による削除箇所総数}\×100\(\%)$$評価の結果を以下に示す.\begin{itemize}\setlength{\itemsep}{-1.5mm}\item人手による削除箇所:205箇所\item本手法による削除箇所:195箇所\item人手と本手法とで一致する削除箇所:166箇所\item再現率:81.0\%\item適合率:85.1\%\end{itemize}本手法による要約結果,および,人手による要約結果の例を付録に添付する.\vspace{-4mm}
\section{考察}
\label{kousatsu}\subsection{再現率}\label{kousatus_saigen}まず,再現率について考察する.再現率が81.0\%であることより,人間がニュース記事を見て,\ref{hyouka}節の方針に従い削除可能と認定する箇所の多くを本手法によって削除できていると言える.人手により削除可能と認定された箇所が,本手法によっては削除されなかった原因を以下に示す.また,それぞれの箇所数を表\ref{tab:saigen_kasho}~に示す.\begin{itemize}\item以下の例文のように,前文の提題表現として「参議院本会議」が出現していなくても,人間には,それが主題であることが理解できるため,2文目の下線部が削除可能と認定された.\vspace{5mm}\begin{quote}\label{rei:rei16}\hspace*{-1em}{\bf例16:}\\総額十一兆円余りの平成八年度の暫定予算が、きょう午前開かれた\underline{参議院本会議で}可決され、成立しました。また、[きょうの]\underline{参議院本会議では、}\$\cdots$など十五本も、可決され、成立しました。\end{quote}\vspace{5mm}原因の多くは,このように,後の文の提題表現や修飾要素が削除されたものであった.よって,提題表現によって示されていない主題の認定やその影響の範囲の認定を行い,対処することで,再現率の向上が望める.\item人間は,「選挙制度」が「小選挙区比例代表並立制」の上位概念であるという知識から,これらの語を重複していると認定することができる.本手法では,語の照合において,類語を考慮していないため,これらを重複していると認定することはできない.また,類語辞典を用いて語の照合を行うとしても,人間には,文脈によっては同意である語の重複の認定も可能であるが,機械で実現することは困難である.\item本手法では「使用期限」などの複合名詞同士の重複の認定を行い,「期限」と省略する処理を\ref{jitsu_nintei_fukugou}~節の理由より行っていないが,人間はこれらの重複を認定し,削除した.\item以下の例において,動詞「きっかけにする」は,第1文では体言を修飾しており,第2文では用言を修飾している.このように,文型によって係り先が異なっている場合,2語の係り受け関係では重複を抽出できない.しかし,この原因によるものは4箇所と稀であった.\vspace{5mm}\begin{quote}\label{rei:rei17}\hspace*{-1em}{\bf例17:}\\$\cdots$の事件を\underline{きっかけにした}見直しが行われた。$\cdots$の事件を\underline{きっかけにして}、見直しが行われた。\end{quote}\vspace{5mm}\item「今日」と「きょう」のような表記のゆれによって,2語の係り受け関係が重複していると認定できなかったものがあった.\item法案は,会議で採決して,可決されて,成立するものであるという知識を利用して,例16の第2文を以下のように削除した.\vspace{5mm}\begin{quote}\hspace*{-1em}{\bf例18:}\\〜会議で[採決され],〜の賛成で[可決され],成立しました.\end{quote}\vspace{5mm}\item人間は「無差別テロ事件」と「爆弾テロ事件」が同じ事件を指している事を理解し,「事件」と省略するよりも「爆弾テロ」と省略する方が一般的だと判断した.\end{itemize}\begin{table}[t]\begin{center}\caption[原因1]{本手法では削除されなかった箇所}\label{tab:saigen_kasho}\begin{tabular}{|l|c|}\hline\multicolumn{1}{|c|}{原因}&箇所数\\\hline\hline主題の認定&14\\\hline類語の知識の利用&9\\\hline複合名詞の部分的な削除&4\\\hline文型の違い&4\\\hline表記のゆれ&2\\\hline世界知識の利用&1\\\hline複合名詞の後方部分の削除&1\\\hline\end{tabular}\end{center}\end{table}\subsection{適合率}\label{kousatus_tekigou}次に,適合率について考察する.適合率は85.1\%と高い値を示しているため,本手法による削除箇所は概ね妥当であると言える.本手法では削除したが,人間は削除しなかった箇所(以下妥当ではない削除箇所と呼ぶ)29箇所を,その原因によって分類した結果を表\ref{tab:tekigou_kasho}~に示す.\begin{table}[b]\begin{center}\caption[原因2]{妥当でない削除箇所}\label{tab:tekigou_kasho}\begin{tabular}{|l|c|}\hline\multicolumn{1}{|c|}{原因}&箇所数\\\hline\hline用言がとる格要素の削除&25\\\hlineダ文の修飾要素の削除&1\\\hline形式的表現の係り元の削除&2\\\hline文脈的に削除不可能&1\\\hline\end{tabular}\end{center}\end{table}原因の多くは,\ref{sakujo}~節で述べた,考慮すべき情報のうち,本手法で対処していないものであった.\begin{itemize}\item用言がとる格要素の削除\\妥当でない削除箇所のうちこの原因によるものが25箇所と大部分を占めている.実験結果では,この原因による妥当でない削除箇所のうち,用言が動詞であったものが21箇所,用言が形容詞であったものが4箇所であった.\ref{jitsu_sakujo_konnan}~節で述べたように,この原因への対処は困難であるが,他の原因に比べて占める割合が大きいので,現時点で最も対処が必要であるといえる.\\用言が動詞であったものには,「地震がある」,「最高となる」のように,動詞の直前の名詞と一組で動詞と考えられるものもあった.「$\cdots$になる」,「$\cdots$がある」,「$\cdots$とする」などの動詞については,助詞と動詞との組をあらかじめ辞書に登録し,直前の名詞と合わせて,動詞として扱うことで,妥当でない削除を避けることは可能である.ただし,削除可能な場合も削除を行なわない可能性があるので,登録する動詞については検討が必要である.この対処を行うことにより,今回の実験結果では4箇所の妥当でない削除を回避できる.\itemダ文の修飾要素の削除\\この原因による妥当でない削除箇所は,\ref{jitsu_sakujo_konnan}節で述べたように,判定詞「だ」が省略されたものであった.\item形式的表現\\本手法では,形式的表現の辞書を用いて,形式的表現の修飾要素の削除を防いでいる.そのため,この原因による妥当でない削除箇所は29箇所中2箇所と少なかった.2箇所は,名詞「範囲」が形式的表現の辞書に登録されていなかったため,妥当でない削除箇所となった.形式的表現辞書に登録する名詞の数を増やすと,妥当でない削除を行う可能性は低くできるが,\ref{sakujo_meishi_keishiki}~節の例8のような削除可能な場合にも削除を行なわなくなる.よって,登録する形式的表現はさらに検討が必要である.\item文脈上,削除不可能であった削除部分\\以下のように重複している文において,第2文の「外国の」を削除すると「国内の衛星の受注」もなかったともとれる曖昧な文になってしまう.\vspace{5mm}\begin{quote}\label{rei:rei18}\hspace*{-1em}{\bf例19:}\\日本が独自に開発したH2ロケットの改良型のロケットを使って西暦二千年にも日本として初めて\underline{外国の衛星}を打ち上げることになりました。$\cdots$、一回の打ち上げ費用がおよそ百九十億円と世界で最も高いため[外国の]衛星の受注はありませんでした。\end{quote}\vspace{5mm}同一記事中に「国内の衛星の受注」についての記述はなかったが,人間は背景の知識から,「外国の衛星の受注」に対照する修飾要素「国内の」を思い浮かべることができる.そのため,「外国の」を削除すると,「国内の衛星の受注はあったが」とも「国内の衛星の受注もなかった」とも解釈できてしまう.\\しかし,このような妥当でない削除箇所は29箇所中1箇所であったので,大きな影響はないと考えられる.\end{itemize}今回の評価実験では,2語の係り受け関係を用いた重複部認定において,助詞の種類の考慮を行わなくても,異なる事象を重複と認定する例は見られなかった.また,\ref{jitsu_nintei}~節で述べたように,関係2と関係1の照合において「内の関係」と「外の関係」との区別を行っていないが,これによって重複の認定を誤った例も見られなかった.\subsection{評価結果}\label{kousatus_zentai}まず,本手法の妥当性と有効性について考察する.本論文では,表層的に捉えられる重複部を対象にして,情報欠落を回避し,かつ,削除結果が不自然とならない表現の抽出ならびに削除手法を提案した.このため,手法の評価においてはこれらの削除をどの程度正しく行なうことができたかについて評価した.評価の結果は,再現率,適合率共に良好であったことから,本手法が重複部と認定する箇所は概ね妥当であり,不自然な文を生成する原因となる削除をほぼ回避できていると言える.ただし,本論文における評価結果は,本来の意味における重複部を概ね削除できているということを示さない.すなわち,重複であっても表層的には捉えられないものが存在し,報知的な要約を行なう場合このような重複に対してさらに削除できる可能性がある.本論文においては,このような意味的に高度な処理を要する重複は処理対象外としたが,今後これらに対しても検討を行なう必要がある.\vspace{1.5ex}次に,要約率について考察する.本手法は,文内の表層的な情報から捉えられる重複部を削除することによって情報欠落を極力回避した要約手法であり,比較的重複の多いニュース原稿を対象とした場合の要約率は91\%程度であった.文内の部分的削除による要約において,情報欠落を避けるためには,重複している情報のみを削除することが安全な方法であると考えられ,重複部以外の部分を削除しようとすると,情報欠落の危険があると言える.よって,評価結果の再現率と適合率が共に良好であったことから,本手法は情報を可能な限り保持した場合の文内の部分的削除による要約の限界に近いと考える.また本手法はどのようなテキストに対しても適用可能であるが,テキストの性格によって表層的な重複の多少は異なるので,期待される要約率は要約対象に依存する.前述したように,本手法の適用後であっても要約結果には表層では捉えられない重複が含まれていることが予想されるため,情報欠落なくさらに要約できる余地があると考えられる.本論文ではこのような重複は議論の対象外としたため最終的にどの程度まで報知的に要約することが可能なのかは不明であるが,これは今後の課題としたい.一方,表層で捉えられる重複部削除による要約率は限界に近いため,現状では,本手法のみでの要約率の大幅な向上は望めない.しかし,本手法の枠組には取り入れていない,表層的な情報を用いた言い換えなど,情報欠落の可能性の低い既存の要約手法と併用することにより,要約率の向上が可能であると考える.\vspace{1.5ex}次に,構文解析の誤りが本手法に与える影響について考察する.今回の評価実験は,KNPの解析誤りを人手で修正して行ったが,修正しない場合の再現率,適合率はそれぞれ67.3\%,75.8\%であった.KNPの解析誤りの影響では,削除可能な重複部が削除されなかったものが,削除不可能な重複部が削除されたものより多く見られた.本手法は,構文解析結果を用いて2語の係り受け関係の抽出を行っており,構文解析の誤りは,重複部の認定に大きな影響を与える.また,\ref{jitsu_sakujo_houhou}~節で示した削除の手順3の制約も構文解析結果によるため,重複部の認定を誤ると,削除可能な重複部が連鎖的に削除不可能となる可能性もある.これらにより,再現率が約15\%,適合率が約10\%低下したため,本手法はKNPの解析誤りにより大きな影響を受けると言える.また,削除可能な重複部が削除されなかったものが多く見られたことより,構文解析の誤りは,適合率よりも再現率に影響を与えると考えられる.\vspace{1.5ex}最後に,指示的な要約要求との関連について述べる.本論文では情報欠落を最小限にする報知的な要約手法を提案したが,本手法は指示的要約を行なう場合にも有効である.すなわち,本論文の手法は他の指示的要約手法と併用することが可能であり,例えば本手法によってテキストを(ニュース原稿であれば)90\%程度に圧縮した後,任意の指示的要約手法を用いることによって実現することができる.本手法は要約率が90\%であるため本手法単独で要約率を90\%から100\%の範囲で変化させる状況は考えにくいが,前述のように要約手法を併用することによって必要な要約率を可変とすることも実現できる.
\section{関連研究}
\label{kanren}複数の語を用いて,内容の重複を認定する研究に,岡ら\cite{oka98}がある.岡らは,概念を語の関係により表現し,語の関係を表す「リレーション記号(助詞など)」を別のリレーション記号に展開することにより表層表現の違いを吸収している.それに対し,本手法では,助詞の種類を考慮しないことと,4種類の関係間で相互に照合を行うことにより実現している.本手法の2語の係り受け関係は,同一テキスト内で,同一の概念を表す関係の抽出を目的としているため,助詞の種類を詳細に考慮しなくても,異なる事象を重複していると認定する可能性は低いと考えられる.また,今回の評価実験では,誤って認定した例は見られなかった.重複部を削除することにより要約を行う研究に,山本ら\cite{yamamoto96}がある.山本らの節照合処理では,内容が類似している節を認定し削除するために,同一,または,類似した動詞を含む2つの節内の,同じ助詞を含む文節同士が異なる内容を含んでいないかを判定している.節照合処理では,節内に重複していない情報が含まれている場合でも,その節全体を削除する.一方,本手法では,情報を落とさないことを目的としており,内容が類似している節であっても,新たに出現した情報を含む場合があるため,2語の係り受け関係を用いて,節内で削除可能な部分のみを認定して削除を行う.また,助詞の種類を考慮していないため,受け身や,連体修飾による表現の違いへの柔軟な対応が可能である.
\section{おわりに}
本論文では,表層で捉えられる重複部の認定と削除について議論を行った.文内の重複部は,情報欠落の可能性を減少させることを考えると,優先して削除するべき部分であると考えられる.重複部の認定では,係り受け関係のある2つの語が一つの事象を表していると仮定し,2語の係り受け関係同士を比較することで,表層から捉えられる内容の重複部を認定した.重複部の削除では,理解しやすく自然な要約文を生成するために,削除の際に考慮すべきいくつかの情報について述べた.さらに,議論した方法のうち,実現可能な部分を計算機上に実装し,評価実験を行った.本手法の削除箇所が妥当であるか否かの評価を行うため,ニュース原稿20記事の重複部を人手で削除した要約文と,本手法により削除した要約文との比較を行った.その結果,人間が削除可能と認定する削除箇所の81.0\%(再現率)が本手法によって削除可能であった.人間は削除したが,本手法では削除しなかった箇所の原因の多くを占めていた,提題表現によって示されていない主題の認定を行うことで,さらに再現率を向上させることができる.また,本手法による削除箇所の85.1\%(適合率)が妥当であることが分かった.妥当でない削除箇所の原因としては,用言がとる格要素の削除が大部分を占めていたため,最も優先して対処を行う必要があるといえる.自動要約において,要約率と情報欠落の回避はトレードオフの関係にあり,本手法の要約率は,情報を可能な限り保持した場合の文内の部分的削除による要約の限界に近いと考えられる.今後の課題として,本手法の精度向上のため,用言がとる格要素の削除への対処が最も優先される.\appendix本手法による要約結果を以下に示す.括弧[]で囲まれた部分は,本手法により削除された箇所を示し,下線部は,人間により削除された箇所を示す.\subsection*{原稿1}\begin{quotation}\noindent{\bf要約率:89.4\%(279/312=0.894)}\hruleスリランカのコロンボで起きた爆弾テロ事件について、外務省の橋本報道官は、「非人道的な無差別テロ\underline{事件}であり、この様な痛ましい事件が二度と起こることのないよう強く望む」とする談話を発表しました。この中で[~\underline{橋本報道官は}~]「\underline{今回の事件は、}多数の罪のない市民を犠牲にした[~\underline{非人道的な}~]無差別テロ\underline{事件}であり、犠牲者に対して深い哀悼の意を表すとともに、[~\underline{この様な痛ましい事件が}二度と~]起こることのないよう強く希望する」としています。また[~\underline{橋本報道官は}~]「日本は、スリランカが平和と安定の内に発展することを[~\underline{強く}~]希望しており、民族問題の解決に取り組むスリランカ政府と国民が今回の悲劇を克服し、永続的な和平の達成に向けて努力されることを期待する」としています。\end{quotation}\subsection*{原稿2}\begin{quotation}\noindent{\bf要約率:91.2\%(406/445=0.912)}\hrule衆議院の土井議長は今日、東京都内で講演し、衆議院に導入された小選挙区比例代表並立制について、「\underline{制度の}導入による弊害が深刻になっていると指摘する人が多くなっている」と述べました。この中で、[~\underline{土井議長は、衆議院の小選挙区比例代表並立制について、}~]「私は、宮沢内閣当時、委員会で、[~\underline{小選挙区制度が}~]導入されたら、議員は、選挙区にできるだけ長く居ようとし、国際社会の中で日本がどうあるべきかなどという問題よりも、選挙区の冠婚葬祭に関心を持つようになると発言したことがある。今、そういう状況が深刻になっていると指摘する人が多くなっている」と述べました。その上で、[~\underline{土井議長は、}~]「新しい\underline{選挙}制度を一回も実施しないうちに、再び改正するようなことをすれば、国会の権威はなくなるという人もいる一方で、実施すれば初めから悪くなるということがわかっている制度は英断をもって改正するべきだという人もいる。私としては、どっちに分があるとは言えないが、仮に改正案が提出されれば正常な形で議論が行われるようにしたい」と述べました。\end{quotation}\subsection*{原稿3}\begin{quotation}\noindent{\bf要約率:90.6\%(424/468=0.906)}\hruleバンコクを訪れている橋本総理大臣はまもなく中国の李鵬首相と会談し、台湾の総統選挙を前に中国と台湾の間の緊張が高まっていることについて中国側に自制した行動をとるよう求めたいとしています。アジア・ヨーロッパ首脳会議は二日目のきょう首脳レベルの会議を行い、核軍縮や国連改革など政治分野での協力や地域間の経済交流の拡大など幅広い分野で、アジアとヨーロッパが連携を強化していく必要性を確認しました。[~\underline{会議は、}~]あす再び首脳同士の意見交換を行った上で会議の成果をとりまとめた議長声明を発表することにしています。二日目の会議日程を終えた橋本総理大臣は、まもなく、中国の李鵬首相\footnote{「中国の李鵬首相」という表現の二度目の出現で「中国の」は削除されていない.これは,KNPの解析結果において,「中国の李鵬首相」の一度目の出現では,「中国の」が「李鵬首相」にかかると認定されているのに対し,二度目の出現では,「李鵬首相と」と「総理大臣就任後」が句の並列として認定され,「中国の」はそれら全体にかかると認定されているため,本手法では重複表現とは認定されないためである.}と総理大臣就任後初めての会談を行います。この中で、[~\underline{橋本総理大臣は、}~]今月二十三日に行われる台湾の総統選挙を前に[~\underline{中国と台湾の間の}緊張が~]高まっていることについて当事者の間で平和的な解決を図るため[~自制した行動をとるよう~]中国側に求めたいとしています。また[~\underline{橋本総理大臣は}~]中国に核実験を繰り返さないよう申し入れるとともに、包括的核実験禁止条約の早期妥結に向けて、協力を求めるものとみられます。\end{quotation}\begin{thebibliography}{}\bibitem[\protect\BCAY{福島,江原,白井}{福島\Jetal}{1999}]{fukushima99}福島孝博,江原暉将,白井克彦\BBOP1999\BBCP.\newblock\JBOQ短文分割の自動要約への効果\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),131--147.\bibitem[\protect\BCAY{Hand}{Hand}{1997}]{Hand97}Hand,T.\BBOP1997\BBCP.\newblock\BBOQAProposalforTask-basedEvaluationofTextSummarizationSystems.\BBCQ\\newblockIn{\BemProc.oftheACLWorkshoponIntelligentScalableTextSummarization},\BPGS\31--38.\bibitem[\protect\BCAY{三上,増山,中川}{三上\Jetal}{1999}]{mikami99}三上真,増山繁,中川聖一\BBOP1999\BBCP.\newblock\JBOQニュース番組における字幕生成のための文内短縮による要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),65--81.\bibitem[\protect\BCAY{岡,宮内,上田}{岡\Jetal}{1998}]{oka98}岡満美子,宮内忠信,上田良寛\BBOP1998\BBCP.\newblock\JBOQキーリレーションに基づくテキスト検索\JBCQ\\newblock\Jem{情報処理学会研究報告NL-103-12},\BPGS\89--96.\bibitem[\protect\BCAY{奥村難波}{奥村\JBA難波}{1999}]{okumura99}奥村学\BBACOMMA\難波英嗣\BBOP1999\BBCP.\newblock\JBOQテキスト自動要約に関する研究動向\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(5),1--26.\bibitem[\protect\BCAY{島津,内藤,野村}{島津\Jetal}{1985}]{shimazu85}島津明,内藤昭三,野村浩郷\BBOP1985\BBCP.\newblock\JBOQ日本語意味構造の分類-名詞句構造を中心に-\JBCQ\\newblock\Jem{情報処理学会研究報告NL-47-4},\BPGS\25--32.\bibitem[\protect\BCAY{白井,江原,沢村,福島,丸山,門馬}{白井\Jetal}{1999}]{shirai99}白井克彦,江原暉将,沢村英治,福島孝博,丸山一郎,門馬隆雄\BBOP1985\BBCP.\newblock\JBOQ視聴覚障害者向け放送ソフト製作技術研究開発プロジェクトの研究状況\JBCQ\\newblock\Jem{Proc.ofTAOWorkshoponTVClosedCaptionsforthehearingimpairedpeople},\BPGS\9--28.\bibitem[\protect\BCAY{寺村}{寺村}{19751978}]{teramura75}寺村秀夫\BBOP1975--1978\BBCP.\newblock\JBOQ連体修飾のシンタクスと意味(1)--(4)\JBCQ\\newblock\Jem{日本語・日本文化vol.4--7}.大阪外国語大学研究留学生別科.\bibitem[\protect\BCAY{若尾,江原,白井}{若尾\Jetal}{1997}]{wakao97}若尾孝博,江原暉将,白井克彦\BBOP1997\BBCP.\newblock\JBOQテレビニュース番組の字幕に見られる要約の手法\JBCQ\\newblock\Jem{情報処理学会研究報告NL-122-13},\BPGS\83--89.\bibitem[\protect\BCAY{山本,増山,内藤}{山本\Jetal}{1996}]{yamamoto96}山本和英,増山繁,内藤昭三\BBOP1996\BBCP.\newblock\JBOQ関連テキストを利用した重複表現削減による要約\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ79-D-II}(11),1968--1971.\bibitem[\protect\BCAY{山崎,三上,増山,中川}{山崎\Jetal}{1998}]{yamasaki98}山崎邦子,三上真,増山繁,中川聖一\BBOP1998\BBCP.\newblock\JBOQ聴覚障害者用字幕生成のための言い替えによるニュース文要約\JBCQ\\newblock\Jem{言語処理学会第4回年次大会論文集},\BPGS\646--649.\end{thebibliography}\renewcommand{\thepage}{}\begin{biography}\biotitle{略歴}\bioauthor{石\raisebox{1pt}{\begin{minipage}{8pt}\epsfile{file=746_141.eps}\end{minipage}}友子}{2000年豊橋技術科学大学大学院修士課程修了.現在,松下通信工業(株)勤務.在学中は,自然言語処理,特にテキスト要約の研究に従事.}\bioauthor{片岡明}{2000年豊橋技術科学大学大学院修士課程修了.同年,NTT西日本入社.現在,NTTコミュニケーション科学基礎研究所勤務.在学中は,自然言語処理,特にテキスト要約の研究に従事.{\ttE-mail:[email protected]}}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授.アルゴリズム工学,特に,並列グラフアルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.{\ttE-mail:[email protected]}}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2000年ATR音声翻訳通信研究所客員研究員,2000年〜ATR音声言語通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\ttE-mail:[email protected]}}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年京都大学情報工学科助手.1980年豊橋技術科学大学情報工学系講師.1983年助教授.1990年教授.1985〜1986年カーネギメロン大学客員研究員.工博.1977年電子通信学会論文賞.1988年度IETE最優秀論文賞.著書「確率モデルによる音声認識」電子情報通信学会(1988年),「情報理論の基礎と応用」近代科学社(1992年),「パターン情報処理」丸善(1999年)など.{\ttE-mail:[email protected]}}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V23N02-02
|
\section{はじめに}
近年,ビッグデータに象徴されるように,世の中のデータ量は飛躍的に増大しているが,教育分野ではそれらのデータをまだ十分に活用している状態には至っていない.例えば,Lang-8というSNSを利用した言語学習者のための作文添削システムがある.現在,このウェブサイトは600,000人以上の登録者を抱えており,90の言語をサポートしている.このサイトでは,ユーザーが目標言語で書いた作文を入力すると,その言語の母語話者がその作文を添削してくれる.このウェブサービスにより蓄積されたデータは,言語学習者コーパスとして膨大な数の学習者の作文を有している\footnote{http://lang-8.com}.それらは言語学習者コーパスとして調査や研究のための貴重な大規模資源となりえるが,それらを教師や学習者がフィードバックや調査分析などに利用したい場合,誤用タイプの分類などの前処理が必要となる.しかしながら,日本語教師のための学習者コーパスを対象とした誤用例検索システムを構築するというアプリケーションを考えると,誤用タイプに基づいて得られる上位の事例に所望の誤用タイプの用例が表示されればよい.つまり,人手で網羅的に誤用タイプのタグ(以後,「誤用タグ」と呼ぶ)を付与することができなくても,一定水準の適合率が確保できるのであれば,自動推定した結果を活用することができる.そこで,本稿では実用レベル(例えば,8割程度)の適合率を保証した日本語学習者コーパスへの誤用タグ付与を目指し,誤用タイプの自動分類に向けた実験を試みる.学習者の作文における誤用についてフィードバックを行ったり,調査分析したりすることは,学習者に同じ誤りを犯させないようにするために必要であり,学習者に自律的な学習を促すことができる\shortcite{holec,auto_umeda}.そのため,学習者の例文を誤用タイプ別に分類し,それぞれの誤用タイプにタグを付与した例文検索アプリケーションは教師や学習者を支援する有効なツールとなり得る.現在まで,誤用タグ付与作業は人手に頼らざるを得なかったが,\lh\hbox{}のようなウェブ上の学習者コーパスは規模が大きく,かつ日々更新されるため,人手によって網羅的に誤用タグを付与することは困難である.誤用タイプの自動分類を行うことで,誤用タグ付与作業を行う際,人手に頼らなくてもよくなり,人間が誤用タグ付与を行う際の判定の不一致や一貫性の欠如などの問題を軽減しうる.これまでは,このような誤用タグの自動付与というタスクそのものが認知されてこなかったが,自動化することで大規模学習者コーパスを利活用する道を拓くことができ,新たな応用や基礎研究が発展する可能性を秘めている.今回,誤用タグが付与されていない既存の日本語学習者コーパスに対し,階層構造をもった誤用タイプ分類表を設計し,国立国語研究所の\ty\hbox{}の事例に対してタグ付け作業を行った.次に,階層的に誤用タイプの分類を行う手法を提案し,自動分類実験を行った.誤用タイプ分類に用いるベースライン素性として,単語の周辺情報,統語的依存関係を利用した.さらに,言語学習者コーパスから抽出した拡張素性として1)正用文と誤用文の文字列間の編集距離,2)ウェブ上の大規模コーパスから算出した正用箇所と誤用箇所の置換確率を用い,それらの有効性を比較した.本研究の主要な貢献は,以下の3点である.\begin{itemize}\item誤用タグが付与されていない国語研の作文対訳DBに誤用タグを付与し,\ngc\hbox{}を作成した.異なるアノテーターによって付与されたタグの一致率が報告された日本語学習者誤用コーパスは,我々の知る限り他に存在しない.\item\ngc\hbox{}を対象に機械学習による誤用タイプ自動分類実験を行い,かつアプリケーションに充分堪えうる適合率を実現した(8割程度).英語学習者コーパスの誤用タイプの自動分類タスクは過去に提案されている\cite{swanson}が,日本語学習者コーパスの誤用タイプの自動分類タスクに取り組んだ研究はこれが初めてであり,将来的には学習者コーパスを対象とした誤用例検索システムを構築するアプリケーションの開発を目指しているため,その実現化に道筋を付けることができた.\itemタグの階層構造を利用した階層的分類モデルを提案し,階層構造を利用しない多クラス分類モデルと比較して大幅な精度向上を得られることを示した.また,英語学習者の誤用タイプ自動分類で提案されていた素性に加え,大規模言語学習者コーパスから抽出した統計量を用いた素性を使用し,その有効性を示した.\end{itemize}
\section{関連研究}
現在,研究・教育目的で利用されている日本語学習者コーパスは,大阪大学の寺村コーパス\cite{teramuraj}\footnote{データ総数4,601文中3,131文が誤用タグ付け済み},名古屋大学の学習者コーパス\cite{oso/97}\footnote{756名分の作文},東京外国語大学の「オンライン日本語「誤用コーパス」辞典」\footnote{誤用タグつき作文40名分http://cblle.tufs.ac.jp/llc/ja\_wrong/index.php?m=default},筑波大学の「日本語学習者作文コーパス」\cite{rijehoj/2012}\footnote{540名分の作文http://www34.atwiki.jp/jccorpus/},大連理工大学の中国人日本語学習者による日本語作文コーパス\cite{shimizu/2004},国立国語研究所(国語研)で収集された「日本語学習者による日本語作文と,その母語訳との対訳データベースオンライン版」\footnote{http://jpforlife.jp/taiyakudb.html}(以下,作文対訳DB)(データ総数は2009年時点で1,754件)がある.上記の作文対訳DBは,大規模な日本語学習者コーパスの1つであるが,誤用タイプの情報が付与されていなかった.上記のコーパスのうち,作文対訳DB以外のコーパスは誤用タグが付与されているが,タグが一部にしかついていなかったり,入手ができなかったり,コーパスそれぞれにおいて誤用タグの分類基準が異なっていたりする.また,既存の言語学習者コーパスは言語学や教育の目的で収集されたもので,自動分類や誤用検出・訂正などの機械処理を考慮した設計にはなっていないため,人手アノテーション以外の分類処理には必ずしも向いていない.具体的には,コーパスのタグ付けに関するアノテーションの一致率が報告されておらず,機械処理に適した誤用タグ体系になっているかどうか不明である.そこで,今回機械学習用に誤用タグを付与した\ngc\hbox{}を作成した.また,自動で誤用検出,誤用タイプ分類を行うといった言語学習者コーパス整備作業に関する研究は,英語教育においても日本語教育においても様々なタスクで進められている.例えば,英語教育において以下のような研究が行われている.誤用判定として,英語のスペルミス検出研究\cite{wilcox},英語の名詞の可算性(数えられる名詞),不可算性(数えられない名詞)の誤用検出研究\cite{brockett,nagata06j},前置詞の誤用検出に関する研究\cite{chodorow07,deFelice07,defelice08,joel,gamon},冠詞誤用検出に関する研究\cite{han,defelice08,gamon,yi,nagata05j}がある.日本語を対象とする研究では,格助詞を対象とした研究が多い\cite{ookij,oyama/08,imaedaj,nampoj,suzuki/06b,Imamura:ErrorCorrection2012j}.さらに,誤用タイプに特に着目せずに文を誤用文と正用文とに分類する研究もある\cite{sun,mizumotoj/13}.これらの誤用検出タスクにおいて,対象となる誤用タイプは限定されている.つまり,誤用タイプがあらかじめわかっていることが前提である.さらに,誤用タイプを網羅的にタグ付けするような研究は以下に示す1件を除いて存在しない.実際の言語学習者コーパスでは教師によって添削された正用例があったとしても,誤用タイプまで示すことは稀であり,誤用タイプを網羅的にタグ付けし,誤用例を検索できるようにすることは困難である.誤用タイプ分類タスクを行っているのは,\citeA{swanson}のみである.彼らは英語学習者の誤用タグ付きコーパスを用いた教師あり学習による多クラス分類によって,誤用箇所を与えた上で,誤用タグが付与された文を入力とし15クラスの誤用タイプ\footnote{15クラスの誤用タイプは,不足,余剰,置換,動詞のテンス,語順,否定,スペリング,イディオムの誤り(コロケーションの誤り),活用の誤り,文体の誤り,語の派生,可算不可算名詞の誤り,形式の誤り,主語と動詞の一致の誤り,項構成の誤りである.}に分ける実験を最大エントロピー法で行っている.しかし,日本語における誤用タイプ分類実験はまだ見られない.また,\citeA{swanson}は既存の英語学習者コーパスを用いて自動分類器を学習しているが,自動分類に適した誤用タイプのタグ集合を設計しているわけではない.言い換えると,タグの体系が自動分類の精度に与える影響は考慮されていない.さらに,彼らの自動分類器で用いられていた素性は誤用・正用の対応に基づく文字列・単語(品詞)情報,そして文脈素性としては直前の単語のみを用いる非常に単純なものであったが,本研究ではそれらに加えて大規模言語学習者コーパスから計算した置換確率と,正用文と誤用文の編集距離,文脈素性として周辺3単語および依存関係も用いた.
\section{機械学習による誤用タイプ分類実験}
\subsection{データ}誤用タイプ分類実験のために\ngc\hbox{}を作成した.\ngc\hbox{}は,\ty\hbox{}の中で添削が施された313名の作文中の誤用箇所にタグを付与し,様々な情報を補完したコーパスである\cite{oyamaj/09,oyamaj/12}.ファイル数は作文者ごとに313,総文字数は191,994字である.\ngc\hbox{}は,\ty\hbox{}に対しアノテーションを行っているため,作文対訳DBとデータは共通しているが,\ty\hbox{}には誤用タグがアノテーションされていない.\subsection{\ngc\hbox{}における誤用タグのアノテーション}\subsubsection{誤用タグのアノテーション}先に述べた作文対訳DBへのアノテーションの方法について説明する.基本的に作文対訳DBの添削に基づいて誤用タグを付与しており,添削は変更せず,誤用タイプ分類をした後にタグを付与する.作文対訳DBの誤用箇所に\verb|<goyo>|タグを設け,そのタグ内に添削された正用箇所を\verb|crr|属性にて示し,誤用タイプを示す\verb|type|属性を付与した.誤用を正用にするために複数の誤りを修正する必要がある場合,それぞれ\verb|typeN|(ただしNは自然数で,順不同)という属性を用いて明示した.また,文章中で複数の添削が相互に依存関係を持っている場合がありうるが,依存関係のアノテーションは今回のタグの精緻化という独立した別のタスクとして切り出すことが可能なため,今回のアノテーションでは依存関係は考慮しない.例えば,以下の例文を考える.\begin{quote}\begin{verbatim}<s>それで,<goyotype1="sem"type2="not/kj"crr="常に">まいにち</goyo>がいこくのえんじょがいります.</s>\end{verbatim}\end{quote}上記の例で,誤用として添削者によって添削された「まいにち」を\verb|<goyo>|タグで囲み,添削者による正用例「常に」を\verb|crr|属性で示す.この誤用を正用にするためには,「まいにち→つねに」と「つねに→常に」を訂正する必要があるため,誤用タイプは,この事例では語彙選択(\verb|"sem"|)と表記・漢字(\verb|"not/kj"|)の2種類を付与している.\subsubsection{誤用タイプ表の設計方針}誤用タイプ表の設計方針を立てる際に,英語学習者の話し言葉を集めたSSTコーパス,日本語学習者の作文を集めた名古屋大学の学習者コーパス\cite{oso/97},大連理工大学の中国人日本語学習者による日本語作文コーパス\cite{shimizu/2004},さらに\citeA{ichikawa97,ichikawaj00}による「日本語誤用例文小辞典」を基にした.SSTコーパスは,学習者の誤用が多岐にわたるため,体系的な分類が比較的容易な文法的・語彙的誤りに対して,独自の誤用タイプ表を構築し,人手でタグ付与を行っている(石田,伊佐原,齋賀,Thepchai,成田,内元,和泉2003)\nocite{ishidaj/03}.SSTコーパスの誤用タイプ表は,品詞を第1階層に有し,「名詞,動詞,助動詞,形容詞,副詞,前置詞,冠詞,代名詞,接続詞,関係詞,疑問詞」とに分かれている.さらに,品詞の第1階層の下は第2階層に「活用の誤り,格の誤り,単複の誤り,語彙選択の誤り」など文法的・語彙的ルールとに細分化される.また,ある誤用タイプは各品詞のカテゴリーにまたがっている場合もある.例えば,「活用の誤り」は「名詞」,「動詞」,「副詞」,「代名詞」のそれぞれの下位分類に属している.「語彙選択の誤り」も複数のカテゴリーに属している.このように,品詞の階層カテゴリーの下位階層にそれぞれ同様のタイプが存在すると,誤用タグ付与のアノテーターが意識しなければならないタグが増大するため,人手によるタグ付与作業が煩雑になる.そこで,我々は多クラスのタグ付けをするのではなく,多ラベルのタグ付けをするようにNAIST誤用コーパスを設計し,複雑な階層カテゴリーを把握しなくてもタグ付けが可能なようにした.ただし,SSTコーパスでの品詞の分類は,自動分類をする際に素性として取り出しやすく有効な素性となりうる.そのため,\ngc\hbox{}でも品詞による分類を第1階層に持つようにした.誤用タグを構築する際に誤用タイプ分類の方法として,\shortciteA{shimizu/2004}では,誤用タグの構築方法を2つあげている.\begin{enumerate}\item言語学的な特定の文法記述に基づき誤用を分類し誤用タグを構築している場合\item実際の誤用分析で抽出された誤用タイプに基づいてタグを構築する場合\end{enumerate}名古屋大学の学習者コーパス\shortcite{oso/97}は,上記(1)の方法に従い,言語学的な特定の文法記述に基づき誤用を分類し誤用タグを構築しているが,「脱落,付加,混同,誤形成,位置」などの分類はない.大連理工大学の中国人学習者による日本語作文コーパス\shortcite{shimizu/2004}は,上記(2)の方法に従い,中国人日本語学習者の作文を添削し,独自の誤用タグを設計,付与している.\shortciteA{shimizu/2004}では,大連工業大学の日本語学習者の作文を誤用分析した結果から抽出した誤用に基づく誤用タイプを用いているため,\shortciteA{oso/97}や\citeA{ichikawa97,ichikawaj00}とは異なる「指示詞」,「形式名詞」,「数量詞」,「漢語」などの誤用タイプが見られる.\citeA{ichikawa97,ichikawaj00}も,上記(2)の方法に従い,日本語学習者の作文によく見られる誤用をムード,テンス,アスペクトなどの8つの主要分類に分け,その次に細分化された86の項目に分ける(表\ref{tbl:goyo-type-ichikawa}).\shortciteA{ichikawaj01}では,さらに,下位項目のそれぞれについてさらに「脱落,付加,混同,誤形成,位置,その他」の6種類に分類している.\begin{table}[b]\caption{市川の誤用分類}\label{tbl:goyo-type-ichikawa}\input{02table01.txt}\end{table}それらの言語学習者コーパスの誤用タイプ分類を基礎に,\ngc\hbox{}では全76種の誤用タイプ分類を構築した.その全誤用タイプは,付録B「誤用タイプ76項目」(表\ref{tbl:goyo-type-76-koumoku})に示す.表~\ref{tbl:goyo-type-76-koumoku-more}は,「誤用タイプ76項目」のタグにおいてさらに細かく説明を加えた表である.\shortciteA{shimizu/2004}の誤用タイプ分類には,\citeA{ichikawa97,ichikawaj00}にはないが,必要だと考えられる誤用タグが見られるため,それらを含めた.しかし,\shortciteA{shimizu/2004}では,「は/が」の使用誤りの項目と「助詞」を分けていたりと項目の選出には彼ら独自の理由が見られる.また,中国人日本語学習者を対象にしているため,中国人特有の誤用タイプが見られる.\ngc\hbox{}の誤用タイプ分類については,そのような点を割愛し,「指示詞」,「形式名詞」,「数量詞」など詳細かつ重要な誤用タグを含めた.\shortciteA{ichikawa97,ichikawaj00}の分類も,日本語学習者がよく誤りやすい項目を基に構成されている.表\ref{tbl:goyo-type-ichikawa}にあるムードは表\ref{tbl:goyo-type-76-koumoku}の76の項目中の「モダリティ」に含めている.テンス,アスペクト,自動詞,他動詞,ヴォイスなどの項目は本稿では「動詞」の下位項目にまとめている.また,取り立て助詞,格助詞,連体助詞,複合助詞は「助詞」の下位項目にしている.連用修飾,連体修飾は,「名詞修飾節」の項目に入れている.従属節は,「接続」の項目に含まれている.しかし,\shortciteA{ichikawa97,ichikawaj00}では「脱落,付加,混同(本稿では,不足,余剰,置換)」などをそれぞれの下位項目のさらに下の項目に分類しているが,本稿では,「Nobu\{{\bf*$\phi$/という}\}レストランに行きました」{\kern-0.25zw}\footnote{*は誤用例を示す.}のような,タグを新たに設定しにくい,もしくは修正部分が長く,誤用分類しにくい添削を「脱落,付加」に入れた.作文対訳DBにも,\shortciteA{ichikawa97,ichikawaj00}の分類を採用すると,助詞の下位項目に「不足,余剰」などの項目を持つ事例がある.しかし,付録A,「不足」の項目で述べているように,それらは少数である.そのため,本コーパスでは,「不足,余剰」を各分類の下位項目ではなく,独立した項として新たに設立した.本研究で使用した誤用タグの構築方法について詳しくは\shortciteA{oyamaj/09,oyamaj/12}を参照されたい.\subsubsection{本稿における実験に使用した誤用タイプ}実験に使用した誤用タイプは,表\ref{tbl:error-type}に示した17種である.全誤用タイプ76種が階層的に定義され,その第1階層の23種から17種を選択して使用した.全誤用タイプを第1階層までまとめ上げた誤用タイプと研究に必要な誤用タイプとを選択した.誤用タイプのそれぞれの説明は付録A「誤用タイプ項目」に詳細に示す.\begin{table}[t]\caption{\ngc\hbox{}における誤用タイプ表(17種+非使用の6種)}\label{tbl:error-type}\input{02table02.txt}\par\vspace{4pt}\small表中の$\phi$は,要素がないことを示す.*は,誤用例を指す.\par\vspace{-0.5\Cvs}\end{table}表\ref{tbl:error-type}において,上位17種の誤用タイプを実験に利用した.下位の「名詞」や「名詞修飾」などの誤用タイプは今回事例数が少なかっため,実験対象としなかった.「モダリティ」は,意味や文の作者の主観に起因する場合が多いので,文脈情報や依存情報よりも意味を扱える素性を考えるべきであるので,今回は困難であると考え実験対象としなかった.「モダリティ」の場合は,稿を改めて「モダリティ」を中心に必要な素性を追加した実験を行いたいと考えている.「成句」は,きまったフレーズ(「〜たり〜たり」など)がうまく使えなかった誤りを含む.「全文変換」は,文がすべて書き換えられている誤用事例である.「成句」や「全文変換」も,今回誤用タイプ分類実験の対象としなかった.「成句」はフレーズの要素が「〜たり〜たり」などのように離れているものが多く,アラインメントを取ることが困難であった.また,「全文変換」も同様で,文全体を書き換えているので誤用箇所の特定が難しかったことが理由である.「その他」についても今回実験に用いた誤用タイプよりもより詳細で個別的な誤用タイプであり,個々が少数事例のものもあったので今回対象外とした.上記以外にも,研究に必要な「``だ''の誤用」,「否定」,「副詞」,「代名詞」,「コロケーション」を誤用タイプに含めて実験を行った.「``だ''の誤用」,「否定」,「副詞」,「代名詞」の誤用タイプにおいては,作文対訳DBやKYコーパス\cite{kyj}\footnote{KYコーパスは,英語,韓国語,中国語を母語とする日本語学習者各30名位,計90名のインタビューが収集された話し言葉コーパスである.}を対象とした研究の中で「``だ''の誤用」\cite{hunt,ou},「副詞」\cite{asada07,asada08,matsuda},「否定」\shortcite{mine,yoshinaga},「代名詞」\shortcite{tyou}などに関する研究が見られ,言語学習者コーパスを利用したこのような研究がこれから増えてくると思われるからである.「否定」と「コロケーション」に関しては,\shortciteA{swanson}における誤用タイプ15種にも含まれている.「コロケーション」は,コーパスデータを利用する利点があり,重要な誤用タイプだと考えられる\cite{terashima}.語彙選択の誤りとコロケーションの誤りとを明確に区別し,語彙選択の誤りでは,単語単位のみを対象とした.コロケーションの誤りでは,「形容詞+名詞」のようなコロケーションも見られるが「名詞+格助詞+動詞」の誤りのみを対象とした.\subsubsection{アノテーター間の一致率}誤用タグは2人のアノテーターによって付与された.2人ともアノテーターとして5年以上勤務している.コーパス中の一部のデータ(170文)を対象に2人に同じデータへの誤用タグの付与を依頼し,$\kappa$値\cite{kappa}によりその2人のタグ付け一致率を計った.タグ付けの対象とした170文は,誤用タイプ17種をそれぞれ10文ずつ抽出した(10文×17種).それは,全体の約1.2\%に当たる.アノテーターに1位に選ぶ誤用タイプと次に選ぶ誤用タイプまで(2位まで)を選択してもらった.表\ref{tbl:error-type}の誤用タイプにおける一致率は,1位までの場合$\kappa$=0.602であった.2位までの場合,$\kappa$=0.654であった.$\kappa$が0.81〜1.00の間にあればほぼ完全な一致,0.61〜0.80の間にあれば実質的に一致しているとみなされることから,今回は実質的に一致していると考えられる\cite{kappa}.信頼度の高いコーパスを作成するためには,付与したタグがアノテーター間で異なる「タグの不一致」の問題をできるだけ解決した方がよい.付与したタグの一致率が高ければ,そのタグは一貫性が高く,信頼性が高いタグセットであることが言える.\subsubsection{階層構造誤用タイプ分類表を使用した階層的誤用タイプ分類}先行研究の\citeA{swanson}では,誤用タイプ分類実験にフラットな構造の分類表を使用していたので,\citeA{oyama/2013}でもフラットなタイプの誤用タイプ分類表を用いたが,人間はどのように誤用タイプを分類するのか分析するために,誤用タイプ分類に向けた予備実験を行った.11人の現役の日本語教師に依頼し,テストデータから無作為に選んだ20文について誤用タイプ分類を行わせた.その後,日本語教師各個人に対して聞き取り調査を行い,ある誤用文に対してある誤用タイプに分類する理由を聞いた.この分類実験の結果,次のようなことがわかった.\begin{enumerate}\item日本語教師は,多くの誤用文を「語彙選択」に分類しやすい.\item日本語教師は,「動詞」と他の誤用タイプを混同しやすい.\item日本語教師は,誤用タイプを判断する際に1文すべて与えられていても誤用箇所と正用箇所で主に判断している.\item日本語教師は,誤用箇所と正用箇所の次に参考にする素性は,依存構造である.\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{23-2ia2f1.eps}\end{center}\caption{階層構造誤用タイプ分類表}\label{fig:tree-tagset}\end{figure}日本語教師に行った実験では,「語彙選択」が他の誤用タイプ(助詞,動詞,コロケーションなどの誤用タイプ)に最も間違われやすかった.これは,「語彙選択」が最も選択を迷う項目であるということを示している.聞き取り調査の結果,日本語教師は誤用タイプを判断する際に1文すべて与えられていても誤用箇所と正用箇所などで主に判断していることがわかった.さらに,日本語教師は,最小の素性で判断しきれない場合,前後2単語,前後3単語先をみるより,依存している単語は何かに焦点を当てていた.「助詞」の誤りかどうか判断に迷った時は,それが依存している動詞を見ている.「副詞」の誤りかどうかの分類も同様である.この結果を受け,「語彙選択」は,どの誤用タイプにも入りやすく,この点が分類を妨げている要因と考えたため,17種の誤用タイプをさらに3階層に分類し直し,図\ref{fig:tree-tagset}に示す構造に変更した.上記のような流れを受けて,本実験において3段階の階層構造に基づく分類を行った.\citeA{hosokawaj93}では,\citeA{teramuraj72}の誤用の領域を基にし誤用を分類しており,1)語彙レベルの誤用,2)文構成レベルの誤用,3)談話レベルの誤用の3レベルを立てている.談話レベルまで扱うのは今回の実験の範疇にないので,\citeA{hosokawaj93}の分類に従い,第2段階を語彙レベルか文構成レベルかに分類した.図\ref{fig:tree-tagset}で見られるように,第1段階で「不足」,「余剰」,「置換」とに分類する.第2段階では,「置換」内部において「文法的誤用」であるか「語彙的誤用」であるかの2値分類を行った.第3段階では,前段階で成功した事例において「文法的誤用」と「語彙的誤用」のそれぞれのグループ内において,多クラス分類を行った.\subsection{実験方法}誤用タイプ自動分類実験は,先行研究の\shortciteA{swanson}にならい,機械学習法を用いた分類実験を行った.3.2節で説明したように誤用タイプ分類実験のデータとして言語学習者が書いた誤用文と正用文に文単位の対応をつけ,誤用タイプを付与した\ngc\hbox{}を用意した.実験には,そのコーパスから誤用箇所,正用箇所や誤用タイプラベルを取り出し,さらに素性を抽出し使用した.また,誤用タイプ表(表\ref{tbl:error-type})を階層構造化し実験を行った(図\ref{fig:tree-tagset}).\ngc\hbox{}から,13,152事例を取り出し,10分割交差検定を行った.1つの文に別々の誤用が2つ以上ある場合は,1誤用につき1事例として取り出した.\subsubsection{実験の流れ}実験の概要を図\ref{fig:jikken-outline}に示す.まず,\ngc\hbox{}から正用文と誤用文のペアを取り出す.それらの2種類の文から,対応する誤用箇所$(x)$と,正用箇所$(y)$,誤用タイプ$(t)$の3つ組のラベル($x$,$y$,$t$)を取り出す.その後,その事例ごとに素性を付与する.ベースラインの素性として,誤用箇所,正用箇所の表層の語彙素と,誤用箇所,正用箇所の形態素解析結果,周辺単語情報(前後1から3単語),依存関係情報を付与した.テストデータにおいても同様の素性を取り出し,分類判定実験に使用した.分類実験には,最大エントロピー法\footnote{http://homepages.inf.ed.ac.uk/lzhang10/maxent\_toolkit.html}を利用し,多クラス分類を試みた\footnote{事例は,複数の誤用タイプに分類される事もあり,その場合,複数の誤用タグを付与しているが,今回それらの事例数は全体の3\%にすぎなかったため,本研究の分類においては多ラベル分類ではなく多クラス分類と見なした.}.最大エントロピー法は確率値を出力することができるため,閾値を用いて予測結果を調整しやすく,英語・日本語の誤用検出・訂正で広く用いられている\cite{suzuki/06b,swanson}.\begin{figure}[t]\begin{center}\includegraphics[scale=1.1]{23-2ia2f2.eps}\end{center}\caption{機械学習による誤用タイプ分類実験の流れ}\label{fig:jikken-outline}\end{figure}\subsubsection{素性}この節では,実験で使用した事例と素性について説明する.表\ref{tbl:features}は,今回使用した全ての素性をまとめたものである.例として,誤用を含む文「英語\underline{を(誤)}\underline{$\rightarrow$が(正)}わかる.」をあげる.誤用箇所「を」が{\itx},正用箇所「が」が{\ity},「助詞」の誤用が{\itt}という3つ組みのラベルが1事例として抽出される.\begin{itemize}\item(誤)英語\underline{{\bfを}}わかる\item(正)英語\underline{{\bfが}}わかる\item誤用タイプ:「助詞(P)」使用の誤用\end{itemize}依存関係情報は,誤用箇所の単語にかかる文節内の単語のbag-of-wordsおよび誤用箇所の単語からかかる文節内の単語のbag-of-wordsを用いた.誤用箇所内が複数の文節にまたがる場合,その全ての文節内の全ての単語のbag-of-wordsを用いた.さらに,係り元・係り先の文節内にある全形態素の語彙素を用いた.例えば,「$\ast$私はりんごを\underline{{\bf食べった}}」という文において「食べった」が誤用箇所の場合,誤用箇所に係っている文節内の係り元の「私」,「は」,「りんご」,「を」を素性として利用している.\begin{table}[t]\caption{誤用タイプ分類実験に用いた素性と具体例:「英語を(誤)$\rightarrow$が(正)わかる.」の例文における素性}\label{tbl:features}\input{02table03.txt}\end{table}形態素解析には,UniDic--2.1.2辞書\footnote{http://osdn.jp/projects/unidic/}とMeCab--0.994\footnote{http://taku910.github.io/mecab/}を利用し,依存構造解析器CaboCha--0.68\footnote{http://taku910.github.io/cabocha/}で形態素情報と依存関係を抽出した.言語学習者コーパスには,ひらがな文字が多く含まれたり,辞書に存在しないような単語が出現したりする.そのためにアライメントに失敗し,分類精度に影響する.そこで,言語学習者コーパスにおける誤用による影響を軽減するために次の2つの拡張素性を用いた実験も行った.\subsubsection*{編集距離素性}2つの文字列がどの程度異なっているかを示す距離である編集距離を用いた.正用文と誤用文において動的計画法によるマッチングを用いて置換対の抽出を行い\cite{fujinoj},誤用文には存在するが正用文には存在しない文字列を余剰箇所とみなした.同様に,正用文には存在するが誤用文には存在しない文字列を不足箇所とみなした.ある文字列がある文字列に置き換えられている場合,置換箇所とした.その際に,置換,不足,余剰の誤りの編集距離をいずれも1と定義し,編集距離は実数値素性として用いた.\subsubsection*{置換確率}拡張素性として,Lang-8から抽出した正用箇所と誤用箇所のペアの置換確率を利用した.Lang-8には,言語学習者の書いた誤用文と添削された正用文とが大量に含まれている.この置換確率は,Lang-8のような大規模な言語学習者コーパスを利用したことから得られる一つの新しい知見である.Lang-8から抽出した正用箇所と誤用箇所のペアから,誤用はどのように訂正されているか(誤用置換確率)と正用文はどのような誤用から訂正されているか(正用置換確率)を計算し,利用した.Lang-8において取り出されたペアは796,403ペアである.例えば,「を」が誤用で「が」が正用である場合の誤用置換確率の式は以下のようになる.\begin{equation}P(正用=が|誤用=を)=\frac{P(正用=が,誤用=を)}{P(誤用=を)}\label{eq:chikan_goyo}\end{equation}「が」が誤用で「は」が正用である場合の正用置換確率の式は以下のようになる.\begin{equation}P(誤用=が|正用=は)=\frac{P(誤用=が,正用=は)}{P(正用=は)}\label{eq:chikan_seiyo}\end{equation}\subsubsection{評価尺度}評価尺度としてF値を利用した.再現率は対象とする各誤用タイプの中で正しく分類された誤用タイプを指し,適合率は,システムがある誤用タイプだと分類したもののうち正解を当てた率である.F値はそれらの調和平均を表している.\begin{gather}再現率=\frac{正しく分類された事例数}{各誤用タイプの全事例数}×100\\[1.5ex]適合率=\frac{正しく分類された事例数}{システムがある誤用タイプだと分類した事例数}×100\\[1.5ex]F値=\frac{2\times適合率\times再現率}{適合率+再現率}\end{gather}
\section{実験結果}
\subsection{階層構造を使用した場合の実験結果}\ngc\hbox{}における誤用タイプ分類実験の10分割交差検定による結果について述べる.表\ref{tbl:with_wthot_hier}は,階層構造を使用した場合と使用しなかった場合とを比較した表である.簡単のため前後1単語の素性を用いた場合をW1,前後2単語までの素性を用いた場合をW2,前後3単語までの素性を用いた場合をW3とする.最後の行は,全体のマクロ平均を示す.この表で分かるように,階層構造を利用したことで分類性能(F値)が全体的に49.6から62.4へと向上した.また,F値で80以上を達成した誤用タイプは「助詞」,「不足」,「余剰」の3つのみであったが,階層構造を利用することにより,「語彙選択」,「表記」,「動詞」,「指示詞」も新たにF値が80を超え,実用的な精度で自動推定が行えることが分かった.\begin{table}[t]\caption{階層構造を使用した場合と使用しなかった場合の実験結果(10分割交差検定)(F値)}\label{tbl:with_wthot_hier}\input{02table04.txt}\end{table}「不足」と「余剰」の値は,階層構造を使用した場合において階層構造を使用しなかった場合より精度が下がっている.「不足」と「余剰」の誤用タイプは第1階層において「不足」か「余剰」か「置換」の3値分類をする.その際,「不足」は1,441事例,「余剰」は1,177事例,「置換」は10,534事例となり,「置換」の事例数は,「不足」と「余剰」の事例数よりもはるかに多くなる,これが,「不足」と「余剰」の階層構造を使用した場合での精度を下げる原因となったと考えられる.\subsection{編集距離,置換確率を加えた実験結果}編集距離,置換確率を加えた誤用タイプ分類実験の結果を表\ref{tbl:new-ngc}に示す.ベースライン(BL.)は,誤用タイプの構造が階層構造であり周辺素性および依存関係情報を付加した素性とし,表\ref{tbl:with_wthot_hier}における「階層構造あり」の結果を用いた.さらに,拡張素性として,1)ベースライン+編集距離(edit),2)ベースライン+置換確率(sub.)(F値)を示した.ALLは,それら全ての拡張素性を付加したものである.表\ref{tbl:new-ngc}の最下行はマクロ平均値を表し,表\ref{tbl:new-ngc}より編集距離を加えることで4.1ポイントの分類性能の上昇,置換確率を加えることで3.4ポイントの上昇が見られる.それら拡張素性を合わせた素性(ALL)においては6ポイントの上昇が見られる.表\ref{tbl:new-ngc-mic}は,階層ごとの分類の難しさを示している.まず1行目は「不足」か「余剰」か「置換」かの多値分類での平均値である.2行目は「文法的誤用」における多値分類,3行目は,「語彙的誤用」における多値分類での平均値である.\begin{table}[t]\caption{\ngc\hbox{}における誤用タイプごとの分類実験結果(10分割交差検定)(F値)}\label{tbl:new-ngc}\input{02table05.txt}\end{table}\begin{table}[t]\caption{各階層における分類実験結果(10分割交差検定)(F値)}\label{tbl:new-ngc-mic}\input{02table06.txt}\end{table}表\ref{tbl:new-ngc-mic}のマクロ平均値において,第1段階(余剰,不足,置換)実験において編集距離を加えることで1.8ポイントの上昇,置換確率を加えることで2.4ポイントの上昇が見られる.ALLでは,2.5ポイントの上昇が見られる.文法タイプ内実験において編集距離を加えることで0.8ポイントの下がっているが,置換確率を加えることで2.4ポイントの上昇が見られる.ALLでは,1.2ポイントの上昇が見られる語彙タイプ内実験において編集距離を加えることで4.0ポイントの上昇,置換確率を加えることで3.4ポイントの上昇が見られる.ALLでは,6.3ポイントの上昇が見られる.
\section{分類実験に関する考察}
この節では,どの素性がどのように自動分類に役立つかについて考察する.「不足」,「余剰」,「語彙選択」,「表記」,「助詞」,「動詞」は事例数が多く,全体の事例の91\%を占めている.そのため,それらについて説明する\footnote{「助詞」は事例数が最も多く,素性を付加しなくても精度も高いため,対象から除いた.}.全体的に編集距離素性と置換確率素性を入れた実験(ALL)において精度の向上が見られる.個別に見ると「語彙選択」,「表記」と「余剰」において,編集距離素性を用いた実験で精度の向上が見られる.「語彙選択」において漢字同士の誤用は数多く見られる.置換確率を入れるとさらに半数程度改善している(成功事例中44.8\%).語彙の選択誤りは多種多様であるため,Lang-8のような巨大なコーパスから置換確率を計算したとしても出現しない可能性もある.そのような場合においても編集距離素性が効果があったと考えられる.下に例を示す.\begin{quote}《語彙選択(SEM)》このたばこという物はどうして人々の\underline{必用(誤)$\rightarrow$必需品(正)}になっているのがわからない.\end{quote}「語彙選択」の場合,ひらがなやカタカナを漢字に変換する(またはその逆)事例の精度も上がっていた(成功事例中41.8\%).日本語学習者の作文ではひらがな,カタカナ,漢字の混合もよく見られる.ひらがなやカタカナと漢字では,表記が長くなるか短くなるかで編集距離が異なるため,その差が素性の効果に影響したと考えられる.\begin{quote}《語彙選択(SEM)》いろいろな飾りが大好きだからたばこを買う代わりにほしがっている\underline{飾り物(誤)$\rightarrow$アクセサリー(正)}を買った方がいい.\end{quote}「表記」の事例において編集距離素性で精度の向上が見られる事例を分析する.最も向上した事例のパターンは,以下のようなひらがなが漢字に変更された事例である.そのような事例が編集距離素性を入れたことで分類に成功しており,成功事例の半分を占めていた(55.9\%).\begin{quote}《表記(NOT)》家の外と中を\underline{そうじ(誤)$\rightarrow$掃除(正)}しました.\end{quote}次に,「余剰」の事例を見る.比較的文字列数が長い物が成功するようになっている.これは,編集距離の素性の効果だと考える.\begin{quote}《余剰(AD)》私はその中で\underline{いろいろな食べもの(誤)$\rightarrow$$\phi$(正)}一番好きなものはレマンです.\end{quote}次に,置換確率素性を用いた実験で精度の向上が見られた場合を検証する.全ての素性を組み合わせた実験(ALL)において,分類に成功した事例と失敗した事例においての置換確率が利用可能である場合を比較した.分類に成功した事例においては,置換確率が出現した場合が69.9\%であるのに対し,分類に失敗した事例中では,57.8\%となっており,置換確率値があった方が分類に成功していることが分かる.以下では置換確率素性を用いた実験で精度の向上が見られた「不足」,「動詞」の事例を見る.まず,「動詞」において置換確率を付加したことで分類に成功した事例を見る.\begin{quote}《動詞(V)》個人的には,軽い生活磁器よりも韓国のたましいが感じ\underline{る(誤)$\rightarrow$られる(正)}非生活磁器が気に入りました.\\誤用置換確率=0.046,正用置換確率=0.475\end{quote}上記の例は,「ベースライン+編集距離」の実験では,「文体」に分類されていた.「動詞」と「文体」が共に文末の誤りであることから,お互い間違われる事例が多いが,誤用箇所「る」正用箇所「られる」の誤用正用パターンがLang-8中に出現し,置換確率が得られたことで分類が成功したと考えられる.「文体」は,付録Aにあるように,通常「です・ます体」か「だ・である体」で統一されているかどうかの誤用である.この添削文は\ty\hbox{}の添削に基づいており,日本語教師が添削を施している\footnote{正用に添削する際には日本語教師が文章全体を見て添削しておりその結果を用いているので,本研究での誤用タイプ分類問題においては文章全体を見なくてもよい.}.その際,日本語教師によって誤用箇所の「る」が「ます」に修正されている.誤用タグを付与するときに,その添削にそってタグをつけている.よって,誤用箇所が「る」であり,正用箇所が「ます」である事例(またはその反対)が多く出現しており,「文体」に特徴的なパターンとして認識されている.「不足」,「余剰」の場合の性能についての考察をする.「不足」と「余剰」は一見誤用文字列・正用文字列の長さで簡単に判別できるように思われるが,もし不足しているものあるいは余剰に書かれているものが助詞とはっきりわかるものであれば,助詞へ分類されており(付録参照),誤用文字列・正用文字列の長さを見ただけでは必ずしも判断できない.そして,助詞はタグ全体の1/4を占める誤用タイプ(「不足」と「余剰」はそれぞれ全体の11\%と9\%)であるため,「不足」「余剰」の分類性能に影響を及ぼしたのではないかと思われる.また,「不足」より「余剰」の分類精度が低いことに関して,「不足」と「余剰」の事例が分類に失敗する場合を比べてみると,「余剰」の方に10ポイントほど多く,他の誤用タイプ(助詞や``だ''の誤用など)に含まれる可能性のある事例が含まれていた.前の段落で書いたように,これが「不足」と「余剰」の分類精度に影響したと考えられる.「不足」と「余剰」の分類精度において差が見られたが,全ての素性を入れた実験においては3.6\%の差であり,ベースラインと比較すると差が減っている.これは,拡張素性によって正用例と誤用例の文字列を考慮することができるようになり,より助詞の誤用等と区別しやすくなったからではないかと考えられる.さらに,全体に共通する傾向として,文脈長を長くすることが必ずしも分類性能の向上につながっていない,ということが確認できる.\citeA{swanson}も文脈に関する素性は直前の1単語しか使っていないが,これは英語学習者の誤用タイプ分類タスクにおいても文脈の情報が寄与していない可能性がある.誤用の発生している箇所の周辺は形態素解析が失敗しやすいことに加え,そもそも言語学習者の作文自身の形態素解析が困難であることが背景にあると考えられる.言語学習者のテキストに頑健な形態素解析器の作成は今後の課題である.
\section{おわりに}
本稿では,大規模コーパスを言語資源として活用するために,コーパス整備タスクの1つとして日本語学習者コーパスへの誤用タグ付与のための半自動的な処理を目指し,誤用タイプの自動分類に向けた実験を試みた.まず,日本語学習者の誤用タグつきコーパスを設計し,誤用タグ付与作業を行った.作成したコーパスのアノテーター間の$\kappa$値は0.602であり,高い一致率であった.また,作成したコーパスを用い,最大エントロピー法によって誤用タグの自動分類タスクに取り組んだ.素性にはベースラインとして単語の周辺情報と依存関係を利用した.さらに,誤用タイプ分類表を階層構造にし,分類性能の向上を計った.誤用文の性質を考慮し,拡張素性として「ベースライン+編集距離」,「ベースライン+置換確率」を付加した結果,分類性能を向上させることができた.その結果,F値のマクロ平均は49.6から68.4に向上した.事例数が少なく十分な精度が得られていない誤用タイプも存在するが,初の誤用タイプ自動分類器において実用的な精度と考えられる.F値80を達成していた誤りタイプはベースライン法では「助詞」,「脱落」,「余剰」の3種類のみであったのに対し,階層構造を利用することによって新たに「語彙選択」,「表記」,「動詞」,「指示詞」が,置換確率を用いることで新たに「形容詞」が,それぞれF値80を達成することができ,自動化に向けて大きく前進することができた.事例数の少ない誤用タイプは精度も低いので,その問題を解決するためにセルフトレーニングを用いて,事例を増やし,精度向上を図ることも現在検討中である.今回,Lang-8のように正用文と誤用文の両方が大量に存在するが誤用タイプが不明な場合を想定し,誤用文を考慮に入れた素性を試したが,誤用箇所および正用例が示されていない言語学習者コーパスも多数存在する.そのような場合,誤用タイプ分類の前に誤用検出・訂正をする必要がある.本研究により,正用例が誤用タイプ分類に貢献することが示されたが,誤用タイプが誤用検出・訂正に影響を与えている可能性も考えられる.そこで,誤用タグに関しては,誤用タイプ分類と誤用検出・訂正を同時に行う手法を今後検討していきたい.さらに,言語教育現場でどのように使用されるかを考慮に入れたタグの使いやすさの評価のためには,他の誤用タグと比較してどのように自動分類性能が異なるかなども考慮に入れるべきであるが,自動分類に対応できる誤用タイプの構築を目指しているため本稿では対象とせず,今後の課題とした.現在,様々な言語学習者コーパスが存在するが,学習者コーパスをそのまま用いるには情報が足りないため,誤用検出をしたり,誤用タイプに分類し誤用タグを付与したりと前処理をしなければならない.機械学習による誤用タイプ分類の精度が高くなれば,研究のために利用できる学習者コーパスの量が増え,大規模なコーパスでさらに普遍的な現象なども見ることが可能になると考えられる.\acknowledgment\lh\hbox{}という貴重な資料を提供して頂いた株式会社\lh\hbox{}社長喜洋洋氏に感謝申し上げます.論文に対して貴重なご意見を頂いた査読者の方と編集委員の方にも感謝申し上げます.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅田}{浅田}{2007}]{asada07}浅田和泉\BBOP2007\BBCP.\newblock日本語学習者作文コーパスにみる多義的副詞の習得について.\\newblock\Jem{熊本大学社会文化科学研究科2007年度プロジェクト研究報告},{\Bbf7},\mbox{\BPGS\79--96}.\bibitem[\protect\BCAY{浅田}{浅田}{2008}]{asada08}浅田和泉\BBOP2008\BBCP.\newblock中国人日本語学習者の副詞の語順.\\newblock\Jem{熊本大学社会文化科学研究科2008年度プロジェクト研究報告},{\Bbf8},\mbox{\BPGS\37--58}.\bibitem[\protect\BCAY{Brockett,Dolan,\BBA\Gamon}{Brockettet~al.}{2006}]{brockett}Brockett,C.,Dolan,W.,\BBA\Gamon,M.\BBOP2006\BBCP.\newblock\BBOQCorrectingESLErrorsUsingPhrasalSMTTechniques.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\249--256},Sydney,Australia.\bibitem[\protect\BCAY{Carletta}{Carletta}{1996}]{kappa}Carletta,J.\BBOP1996\BBCP.\newblock\BBOQAssessingAgreementonClassificationTasks:TheKappaStatistic.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(2),\mbox{\BPGS\249--254}.\bibitem[\protect\BCAY{張}{張}{2010}]{tyou}張希朱\BBOP2010\BBCP.\newblock話者を表す「私は」の用法について:日本語母語話者と日本語学習者の意見文を比較して.\\newblock\Jem{学校教育学研究論集},{\Bbf22},\mbox{\BPGS\23--35}.\bibitem[\protect\BCAY{Chodorow,Tetreault,\BBA\Han}{Chodorowet~al.}{2007}]{chodorow07}Chodorow,M.,Tetreault,J.,\BBA\Han,N.-R.\BBOP2007\BBCP.\newblock\BBOQDetectionofGrammaticalErrorsInvolvingPrepositions.\BBCQ\\newblockIn{\BemProceedingsofthe4thACL--SIGSEMWorkshoponPrepositions},\mbox{\BPGS\45--50},Prague,CzechPublic.\bibitem[\protect\BCAY{De~Felice\BBA\Pulman}{De~Felice\BBA\Pulman}{2007}]{deFelice07}De~Felice,R.\BBACOMMA\\BBA\Pulman,S.\BBOP2007\BBCP.\newblock\BBOQAutomaticallyAcquiringModelsofPrepositionalUse.\BBCQ\\newblockIn{\BemProceedingsofthe4thACL--SIGSEMWorkshoponPrepositions},\mbox{\BPGS\45--50},Prague,CzechPublic.\bibitem[\protect\BCAY{De~Felice\BBA\Pulman}{De~Felice\BBA\Pulman}{2008}]{defelice08}De~Felice,R.\BBACOMMA\\BBA\Pulman,S.\BBOP2008\BBCP.\newblock\BBOQAClassifier-basedApproachtoPrepositionandDeterminerErrorCorrectioninL2.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(COLING2008)},\mbox{\BPGS\169--176},Manchester,U.K.\bibitem[\protect\BCAY{藤野\JBA水本\JBA小町\JBA永田\JBA松本}{藤野\Jetal}{2012}]{fujinoj}藤野拓也\JBA水本智也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2012\BBCP.\newblock日本語学習者の作文の誤り訂正に向けた単語分割.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\26--29}.\bibitem[\protect\BCAY{Gamon,Gao,Brockett,Klementiev,Dolan,Belenko,\BBA\Vanderwende}{Gamonet~al.}{2008}]{gamon}Gamon,M.,Gao,J.,Brockett,C.,Klementiev,A.,Dolan,W.,Belenko,D.,\BBA\Vanderwende,L.\BBOP2008\BBCP.\newblock\BBOQUsingContextualSpellerTechniquesandLanguageModellingforESLErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonComputationalLinguistics(IJCNLP2008)},\mbox{\BPGS\449--456},Hyderabad,India.\bibitem[\protect\BCAY{Han,Chodorow,\BBA\Leacock}{Hanet~al.}{2006}]{han}Han,N.~R.,Chodorow,M.,\BBA\Leacock,C.\BBOP2006\BBCP.\newblock\BBOQDetectingErrorsinEnglishArticleUsagebyNon-NativeSpeakers.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf12}(2),\mbox{\BPGS\115--129}.\bibitem[\protect\BCAY{Holec}{Holec}{1981}]{holec}Holec,H.\BBOP1981\BBCP.\newblock{\BemAutonomyandforeignlanguagelearning}.\newblockPergamonPress,Oxford.\bibitem[\protect\BCAY{細川}{細川}{1993}]{hosokawaj93}細川英雄\BBOP1993\BBCP.\newblock留学生日本語作文における格関係表示の誤用について.\\newblock\Jem{早稲田大学日本語研究教育センター紀要},{\Bbf5},\mbox{\BPGS\70--89}.\bibitem[\protect\BCAY{市川}{市川}{1997}]{ichikawa97}市川保子\BBOP1997\BBCP.\newblock\Jem{日本語誤用例文小辞典}.\newblock凡人社.\bibitem[\protect\BCAY{市川}{市川}{2000}]{ichikawaj00}市川保子\BBOP2000\BBCP.\newblock\Jem{続・日本語誤用例文小辞典接続詞・副詞}.\newblock凡人社.\bibitem[\protect\BCAY{市川}{市川}{2001}]{ichikawaj01}市川保子\BBOP2001\BBCP.\newblock日本語の誤用研究.\\newblock国際交流基金日本語グループ\JED,\Jem{日本語教育通信}(40\JEd).,\mbox{\BPGS\14--15}.国際交流基金.\bibitem[\protect\BCAY{今枝\JBA河合\JBA石川\JBA永田\JBA桝井}{今枝\Jetal}{2003}]{imaedaj}今枝恒治\JBA河合敦夫\JBA石川裕司\JBA永田亮\JBA桝井文人\BBOP2003\BBCP.\newblock日本語学習者の作文における格助詞の誤り検出と訂正.\\newblock\Jem{情報処理学会研究報告コンピュータと教育研究会報告},\mbox{\BPGS\39--46}.情報処理学会.\bibitem[\protect\BCAY{今村\JBA齋藤\JBA貞光\JBA西川}{今村\Jetal}{2012}]{Imamura:ErrorCorrection2012j}今村賢治\JBA齋藤邦子\JBA貞光九月\JBA西川仁\BBOP2012\BBCP.\newblock識別的系列変換を用いた日本語助詞誤りの訂正.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\18--21}.\bibitem[\protect\BCAY{石田\JBA伊佐原\JBA齋賀\JBA{S.Thepchai}\JBA成田\JBA内元\JBA和泉}{石田\Jetal}{2003}]{ishidaj/03}石田亨\JBA伊佐原均\JBA齋賀豊美\JBA{S.Thepchai}\JBA成田真澄\JBA内元清貴\JBA和泉恵美\BBOP2003\BBCP.\newblock適合型コミュニケーションの研究開発.\\newblock\Jem{平成15年度通信・放送機構研究発表会},\mbox{\BPGS\572--581}.\bibitem[\protect\BCAY{蔭山ハント}{蔭山ハント}{2004}]{hunt}蔭山ハント悠子\BBOP2004\BBCP.\newblock\Jem{新・はじめての日本語教育1日本語教育の基礎知識}.\newblockアスク,東京.\bibitem[\protect\BCAY{鎌田\JBA山内}{鎌田\JBA山内}{1999}]{kyj}鎌田修\JBA山内博之\BBOP1999\BBCP.\newblockKYコーパスVer1.1.\\newblock\JTR,第二言語としての日本語の習得に関する総合研究グループ.\newblock\texttt{http://www.opi.jp/shiryo/ky\_corp.html}.\bibitem[\protect\BCAY{李\JBA林\JBA宮岡\JBA柴崎}{李\Jetal}{2012}]{rijehoj/2012}李在鎬\JBA林\UTF{70AB}情\JBA宮岡弥生\JBA柴崎秀子\BBOP2012\BBCP.\newblock言語処理の技術を利用したタグ付き日本語学習者コーパスの構築.\\newblock\Jem{2012年度日本語教育学会春季大会予稿集}.\bibitem[\protect\BCAY{松田\JBA森\JBA金村\JBA後藤}{松田\Jetal}{2006}]{matsuda}松田真希子\JBA森篤嗣\JBA金村久美\JBA後藤寛樹\BBOP2006\BBCP.\newblock日本語学習者の名詞句の誤用と言語転移.\\newblock\Jem{留学生教育},{\Bbf11},\mbox{\BPGS\45--53}.\bibitem[\protect\BCAY{峰}{峰}{2011}]{mine}峰布由紀\BBOP2011\BBCP.\newblock言語処理の発達の観点からみたナイデとナクテの習得過程.\\newblockIn{\Bem7thInternationalConferenceonPracticalLinguisticsofJapanese(ICPLJ7)},\mbox{\BPGS\92--93},SanFrancisco,U.S.A.\bibitem[\protect\BCAY{水本\JBA小町\JBA永田\JBA松本}{水本\Jetal}{2013}]{mizumotoj/13}水本智也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2013\BBCP.\newblock日本語学習者の作文自動誤り訂正のための語学学習SNSの添削ログからの知識獲得.\\newblock\Jem{人工知能学会論文誌},{\Bbf28}(4),\mbox{\BPGS\420--432}.\bibitem[\protect\BCAY{永田\JBA井口\JBA脇寺\JBA河合\JBA桝井\JBA井須}{永田\Jetal}{2005}]{nagata05j}永田亮\JBA井口達也\JBA脇寺健太\JBA河合敦夫\JBA桝井文人\JBA井須尚紀\BBOP2005\BBCP.\newblock前置詞情報を利用した冠詞誤り検出.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ88-D-I}(4),\mbox{\BPGS\873--881}.\bibitem[\protect\BCAY{永田\JBA若菜\JBA河合\JBA森広\JBA桝井\JBA井須}{永田\Jetal}{2006}]{nagata06j}永田亮\JBA若菜崇宏\JBA河合敦夫\JBA森広浩一郎\JBA桝井文人\JBA井須尚紀\BBOP2006\BBCP.\newblock可算/不可算名詞の判定に基づいた英文の誤り検出.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ89-D-8},\mbox{\BPGS\1777--1790}.\bibitem[\protect\BCAY{南保\JBA乙武\JBA荒木}{南保\Jetal}{2007}]{nampoj}南保亮太\JBA乙武北斗\JBA荒木健治\BBOP2007\BBCP.\newblock文節内の特徴を用いた日本語助詞誤りの自動検出・校正.\\newblock\Jem{情報処理学会研究報告自然言語処理研究報告},\mbox{\BPGS\107--112}.情報処理学会.\bibitem[\protect\BCAY{大木\JBA大山\JBA北内\JBA末永\JBA松本}{大木\Jetal}{2011}]{ookij}大木環美\JBA大山浩美\JBA北内啓\JBA末永高志\JBA松本裕治\BBOP2011\BBCP.\newblock非日本語母国話者の作成するシステム開発文書を対象とした助詞の誤用判定.\\newblock\Jem{言語処理学会第17回年次大会},\mbox{\BPGS\1047--1050}.\bibitem[\protect\BCAY{大曽\JBA杉浦\JBA市川\JBA奥村\JBA小森\JBA白井\JBA滝沢\JBA外池}{大曽\Jetal}{1997}]{oso/97}大曽美恵子\JBA杉浦正利\JBA市川保子\JBA奥村学\JBA小森早江子\JBA白井英俊\JBA滝沢直宏\JBA外池俊幸\BBOP1997\BBCP.\newblock日本語学習者の作文コーパス:電子化による共有資源化.\\newblock\Jem{言語処理学会第3回年次大会論文集},\mbox{\BPGS\131--145}.\bibitem[\protect\BCAY{大山}{大山}{2009}]{oyamaj/09}大山浩美\BBOP2009\BBCP.\newblock日本語学習者コーパスのための誤用タグの構築について.\\newblock\Jem{国文研究},{\Bbf54},\mbox{\BPGS\102--114}.\bibitem[\protect\BCAY{大山\JBA小町\JBA松本}{大山\Jetal}{2012}]{oyamaj/12}大山浩美\JBA小町守\JBA松本裕治\BBOP2012\BBCP.\newblock日本語学習者の作文における誤用タグつきコーパスの構築について—NAIST誤用コーパスの開発—.\\newblock\Jem{第一回テキストアノテーションワークショップ}.\bibitem[\protect\BCAY{Oyama,Komachi,\BBA\Matsumoto}{Oyamaet~al.}{2013}]{oyama/2013}Oyama,H.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQTowardsAutomaticErrorTypeClassificationofJapaneseLanguageLearners'Writings.\BBCQ\\newblockIn{\BemProceedingsofthe27thPacificAsiaConferenceonLanguage,Information,andComputation(PACLIC27)},\mbox{\BPGS\163--172},Taipei,Taiwan.\bibitem[\protect\BCAY{Oyama,Matsumoto,Asahara,\BBA\Sakata}{Oyamaet~al.}{2008}]{oyama/08}Oyama,H.,Matsumoto,Y.,Asahara,M.,\BBA\Sakata,K.\BBOP2008\BBCP.\newblock\BBOQConstructionofanErrorInformationTaggedCorpusofJapaneseLanguageLearnersandAutomaticErrorDetection.\BBCQ\\newblockIn{\BemProceedingsoftheComputerAssistedLanguageInstructionConsortium},SanFrancisco,U.S.A.CALICO.\bibitem[\protect\BCAY{清水\JBA宋\JBA孟\JBA杜\JBA壇辻}{清水\Jetal}{2004}]{shimizu/2004}清水政明\JBA宋哲\JBA孟慶栄\JBA杜鳳剛\JBA壇辻正剛\BBOP2004\BBCP.\newblock中国人日本語学習者対訳作文コーパスの構築における誤りタグの構築について.\\newblock\Jem{日本語言文化教学与研究国際学術研討会}.\bibitem[\protect\BCAY{Sun,Liu,Cong,Zhou,Xiong,Lee,\BBA\Lin}{Sunet~al.}{2007}]{sun}Sun,G.,Liu,X.,Cong,G.,Zhou,M.,Xiong,Z.,Lee,J.,\BBA\Lin,C.\BBOP2007\BBCP.\newblock\BBOQDetectingErroneousSentencesusingAutomaticallyMinedSequentialPatterns.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\81--88},Prague,CzechPublic.\bibitem[\protect\BCAY{Suzuki\BBA\Toutanova}{Suzuki\BBA\Toutanova}{2006}]{suzuki/06b}Suzuki,H.\BBACOMMA\\BBA\Toutanova,K.\BBOP2006\BBCP.\newblock\BBOQLearningtoPredictCaseMakersinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\1049--1056},Sydney,Australia.\bibitem[\protect\BCAY{Swanson\BBA\Yamangil}{Swanson\BBA\Yamangil}{2012}]{swanson}Swanson,B.\BBACOMMA\\BBA\Yamangil,E.\BBOP2012\BBCP.\newblock\BBOQCorrectionDetectionandErrorTypeSelectionasanESLEducationalAid.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL)},\mbox{\BPGS\357--361},Montreal,Canada.\bibitem[\protect\BCAY{寺嶋}{寺嶋}{2013}]{terashima}寺嶋弘道\BBOP2013\BBCP.\newblock日本語教育におけるコーパスの応用—データ駆動型学習とその実践方法の考察—.\\newblock\Jem{ポリグロシア},\mbox{\BPGS\91--103}.\bibitem[\protect\BCAY{寺村}{寺村}{1972}]{teramuraj72}寺村秀夫\BBOP1972\BBCP.\newblock\Jem{日本語の文法上・下}.\newblock国立国語研究所.\bibitem[\protect\BCAY{寺村}{寺村}{1990}]{teramuraj}寺村秀夫\BBOP1990\BBCP.\newblock外国人学習者の日本語誤用例集接続詞・副詞.\\newblock\JTR,大阪大学・国立国語研究所.\bibitem[\protect\BCAY{Tetreault\BBA\Chodorow}{Tetreault\BBA\Chodorow}{2008}]{joel}Tetreault,J.\BBACOMMA\\BBA\Chodorow,M.\BBOP2008\BBCP.\newblock\BBOQTheUpsandDownsofPrepositionErrorDetectioninESLWriting.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(COLING2008)},\mbox{\BPGS\865--872},Manchester,U.K.\bibitem[\protect\BCAY{梅田}{梅田}{2005}]{auto_umeda}梅田康子\BBOP2005\BBCP.\newblock学習者の自律性を重視した日本語教育コースにおける教師の役割.\\newblock\Jem{愛知大学言語と文化},{\Bbf12},\mbox{\BPGS\59--77}.\bibitem[\protect\BCAY{王}{王}{2003}]{ou}王国華\BBOP2003\BBCP.\newblock中国人日本語学習者が間違えやすい表現について.\\newblock\Jem{北陸大学紀要},{\Bbf27},\mbox{\BPGS\115--122}.\bibitem[\protect\BCAY{Wilcox-O'Hearn,Hirst,\BBA\Budanitsky}{Wilcox-O'Hearnet~al.}{2008}]{wilcox}Wilcox-O'Hearn,A.,Hirst,G.,\BBA\Budanitsky,A.\BBOP2008\BBCP.\newblock\BBOQReal-wordSpellingCorrectionwithTrigrams:AReconsiderationoftheMays,Damerau,andMercerModel.\BBCQ\\newblockInGelbukh,A.\BED,{\BemProceedingsof9thInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics(CICLing-2008)(LectureNotesinComputerScienceVol.~4919)},\mbox{\BPGS\605--616},Berlin.Springer.\bibitem[\protect\BCAY{Yi,Gao,\BBA\Dolan}{Yiet~al.}{2008}]{yi}Yi,X.,Gao,J.,\BBA\Dolan,W.\BBOP2008\BBCP.\newblock\BBOQAWebBasedEnglishProofingSystemforESLUsers.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonComputationalLinguistics(IJCNLP2008)},\mbox{\BPGS\619--624},Hyderabad,India.\bibitem[\protect\BCAY{吉永}{吉永}{2013}]{yoshinaga}吉永尚\BBOP2013\BBCP.\newblock「ナイデ」と「ナクテ」の相違について.\\newblock\Jem{園田学園女子大学論文集},{\Bbf47},\mbox{\BPGS\133--140}.\end{thebibliography}\appendix
\section{誤用タイプ項目}
\label{tbl:goyo-type-koumoku}{\bf助詞(P)}は,助詞の不足,余剰,誤った助詞の選択であり,複合助詞の誤用も含まれる.「に関する」や「について」などの複合助詞はしばしば誤用を引き起こす原因となる.表\ref{tbl:error-type}以外の例として「宇宙{\bfに関した}仕事をする」ではなく「*宇宙{\bfに関して}仕事をする」といった誤用も見られる.これは,「仕事」を修飾しているので,「に関して」ではなく「に関した」とならなければならない.{\bf語彙選択(SEM)}は,一単語内での誤った選択で,ふさわしい語彙を選べなかった(例えば,「国民」を「人民」と書いた)誤りである.表\ref{tbl:error-type}にある例では,誤用は「*{\bf部分}の人」で,正用は「{\bf一部}の人」であり,英語では``somepeople''となる.{\bf表記(NOT)}には,ひらがな,かたかな,漢字に関する誤りなどが入る.{\bf不足(OM)}は,不足している単語,句があれば,このタイプに分類される.日本語において未知の固有名詞について説明するときには「という」をつけるが(例:「Nobu{\bfという}レストランに行きました」),日本語学習者はそれを落としやすい(「*Nobu{\bfφ}レストランに行きました」).ただし,それが「助詞」や「形容詞」などにも入る事例は,そちらを優先する.さらに,「不足の助詞」や「不足の形容詞」の場合,「助詞」や「形容詞」に分類している.判断がつきにくい事例の場合,(例えば,「の」については,複数の用法がある).その場合は「不足」や「余剰」に入れる{\bf動詞(V)}カテゴリーの誤用には,下位分類として動詞の活用,自動詞か他動詞か,受け身の誤り,テンスアスペクトの誤り,「〜ている」の不適切な使用が含まれる.「〜ている」はアスペクトと深く関わる問題であるため,誤用として多く見られる.そのため,上級の日本語学習者でさえ「日本に住んでいる」がなかなか使えず,「*日本に住む」という場合がある.{\bf余剰(AD)}は,余分な単語や表現などの付加を指す.「不足」と同様に,「助詞」や「形容詞」などにも入る事例は,そちらを優先する.判断のつきにくい事例においては,「不足」の場合と同様の扱いをする.日本語学習者は,「*天気が寒くて」という文を作りたがるが,日本語では,「天気が」にわざわざ言及せず,「(今日は)寒くて」とする.{\bf文体(STL)}は,「です・ます体」に関する誤りを指す.日本語の作文では,文末の「です・ます体」か「だ・である体\footnote{論文などの堅い書き言葉ではこちらが好まれる.}」の一致を重要視するため,このような誤りが日本語学習者の作文でしばしば見られる.{\bf名詞化(NOM)}の誤りとは,動詞を名詞化するときの「の」と「こと」に関する誤用である.日本語において,英語の``towatch/watching''などのように名詞化するときに,「の」を使う場合と「こと」を使う場合とがある.例えば,「*趣味は英語をみる{\bfの}です」の文では,「の」は不適切であり,また,「*鳥が飛ぶ{\bfこと}をみました」では,「こと」は不自然となる.「の」と「こと」の使い分けは,文脈によって決まっている.{\bf接続(CONJ)}は,文同士,または単語同士を接続させるときに見られる誤用のことである.日本語では,``because''に相当する表現として,「ので」や「から」があるが,文脈,話し言葉,書き言葉の違いによって使用が異なる.{\bf形容詞(ADJ)}は,形容詞に関係する誤用を指す.形容詞の活用の誤用,選択の誤用などが含まれる.日本語の形容詞は活用するため,活用がない言語を母語に持つ学習者にはこの間違いが多い.表\ref{tbl:error-type}にあるように,「*僕は太{\bfくて}人ですから」は名詞を修飾しているので,「くて」と変換するのは誤りである.実際は,「僕は太{\bfい}人です」としなければならないが,活用の区別がついておらず,「太くて」と書いてしまう学習者が多々いる.{\bf指示詞(DEM)}は,「こ・そ・あ」に関する誤用を指す.他の言語では,この区別が2つしかない場合もあり,日本語学習者にとって使い分けが難しい項目の一つである.{\bf語順(ORD)}は,誤った語順を指す.日本語では助詞があるため文節の出現順が自由である.しかし,名詞と助詞の語順は固定している.例えば,英語のような語順「*より7月」ではなく「7月より」が正しい.{\bfコロケーション(COL)}は,1単語内の誤りである「語彙選択(SEM)」とは異なり,「名詞+助詞+動詞」といった組み合わせについての誤りは,こちらへ分類される.例えば,学習者は「*影響(名詞)+を(助詞)+くれる(動詞)」と書くが,日本人教師は「影響(名詞)+を(助詞)+及ぼす(動詞)」に訂正している.それは3つの要素間の共起関係が影響していると見られる.{\bf``だ''の使用(AUX)}は,日本語の複文における従属節に付与するコピュラ``だ''の不適切な使用を指す.例えば,「$\ast$あの人は,きれいと思います」のような文における「だ」の不使用誤りなどが含まれる.さらに,「*あの人はきれいですと思います」という文もこのタイプに含まれる.{\bf否定(NEG)}は,「打ち消し」の意味を表す表現形式での誤りを指す.これには,否定辞「〜ない」の使用誤りや「なくて」と「ないで」の使い分けの誤りなどが含まれる.表\ref{tbl:error-type}にあるように,否定理由を表す時には「なくて」を使用し(「家にいられ{\bfなくて},外へ行きました」),否定付帯状況を示すときには「ないで」を使用する(「傘をもた{\bfないで},外へ行きました」).{\bf副詞(ADV)}の誤用は,副詞句の使用誤りや副詞語彙の選択誤りなどを指す.形容詞に「に」や「と」を添えて,副詞を作り出すことがある.どちらを使うかはその副詞ごとに決まっている.例えば,「のんびり{\bfと}過ごした」とは言えても,「$\ast$のんびり{\bfに}過ごした」とは言えない.日本語学習者はこの「に」か「と」かで迷う場合が多い.{\bf代名詞(PRON)}に関する誤用は代名詞に関する誤りで,例えば,「$\ast$彼{\bfたち}」は不適切で,「彼{\bfら}」としなくてはならない.
\section{誤用タイプ76項目}
\begin{table}[h]\vspace{-2\Cvs}\caption{誤用タイプ76項目}\label{tbl:goyo-type-76-koumoku}\input{02table07-1.txt}\end{table}\clearpage\begin{table}[h]\input{02table07-2.txt}\end{table}\clearpage\begin{table}[h]\input{02table07-3.txt}\end{table}\clearpage\begin{table}[h]\input{02table07-4.txt}\par\vspace{4pt}\small*これは\verb|"v"|(動詞)というカテゴリーの中で\verb|"othr"|(others:他の単語)から\verb|"vol"|(volitionalform:意向形)へと添削されたことを示している.\end{table}\clearpage\begin{table}[h]\caption{誤用タイプ76項目におけるタグの説明}\label{tbl:goyo-type-76-koumoku-more}\input{02table08.txt}\end{table}\newpage\begin{biography}\bioauthor{大山浩美}{1998年熊本県立大学大学院日本語日本文学課程修了.2001年イギリスランカスター大学言語学部修士課程修了.2010年奈良先端科学技術大学院大学情報科学研究科博士後期課程指導認定退学.現在,同大学研究員.研究テーマは自然言語処理技術を用いた教育支援,第二言語習得,教育工学,日本語教育などである.日本語教育学会員,日本語文法学会員,教育システム情報学会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2).2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,電子情報通信学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,言語処理学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V27N02-12
|
\section{はじめに}
プログラムによる小説自動制作の実現を目指す過程\cite{Sato2016}で,私が直面した問題の一つは,次のような問題である.\begin{quote}\bf日本語の文を合成するために,どのようなソフトウェアシステムを用意すればよいか.\end{quote}小説はテキストであり,テキストは文の並びである.ゆえに,文を作れなければ,小説は作れない.小説には,ありとあらゆる文が出現しうる.任意の日本語文を作ることができるようなソフトウェアシステムを実現できるだろうか.もし,それが可能ならば,どのようなシステムとして具現化されうるだろうか.本論文では,そのような問題意識の下で開発してきた羽織シリーズ($\rightarrow$付録\ref{sec:変遷})の最新版であるHaoriBricks3(HB3)の概要を示す.私は,HB3を「日本語の文を合成するためのドメイン特化言語(domain-specificlangauge)」と位置づける.HB3では,\textbf{ブリックコード}(brickcode,BC)と呼ぶ記述形式で,どのような日本語文を合成するかを記述する.そして,記述したブリックコードを実行(評価)すると,表層文字列が得られる.ブリックコードは,あくまでも文を合成するためのコードであり,\underline{文の意味表現ではない}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[p]\begin{center}\includegraphics{27-2ia11f1.eps}\end{center}\caption{ブリックコードからの表層文字列生成}\label{fig:process}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:process}に,ブリックコードから表層文字列を生成する過程の概略を示す.ブリックコードはRubyコードそのものであり,これをRubyコードとして評価すると,\textbf{ブリック構造}(brickstructure,BS)と呼ぶ内部構造(Rubyオブジェクト)が生成される.このブリック構造に,表層文字列を生成するためのメソッド\texttt{to\_ss}を適用すると,\textbf{羽織構造}(Haoristructure,HS),および,\textbf{境界・ユニット列}(boundary-unitsequence,BUS)という2つのデータ構造を経由して,最終的に表層文字列が生成される.本論文では,HB3の設計思想,および,実現・実装のための工夫について説明し,HB3で何ができるのかを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{設計思想}
\label{s:設計思想}HB3で実現したかったことを一言で言うならば,次のようになる.\begin{quote}\bf日本語文を合成するコードを,できるだけ簡潔に書けるようにしたい\end{quote}研究の最終ゴールは,プログラムによる小説の自動制作である.小説は,短編小説といえども,長い.そのため,短編小説を合成するプログラムでは,文を合成するコードをたくさん書かなければならない.それゆえ,コードが簡潔に書け,かつ,共通部分をサブルーチン化できることが非常に重要になる.HB3をドメイン特化言語にせざるを得なかったのは,次のような現状認識による.\begin{quote}\bfあらゆる文の意味を表現しうるような人工的な内部表現(意味表現)は,現時点では設計できない.\end{quote}羽織シリーズの最初の版\cite{Sato-NLP2015,Ogata-JSAI2015}を作る際には,英語のsurfacerealizer,特にRealPro\cite{RealPro}を参考にした.伝統的なテキスト生成システムは,伝えるべき内容を表す意味表現を入力として,いくつかのモジュールをパイプラインにつなげ,表層文字列を出力するという構成をとる\cite{Reiter}.このパイプラインの最後に配置されるsurfacerealizerは,文の意味表現を表層文字列に変換するモジュールとして位置づけられる.しかし,あらゆる文が想定されうる小説の自動制作を最終ゴールとする以上,実現すべきソフトウェアの機能を「意味表現を表層文字列に変換する」と規定するのでは,ゴールには到達しえないと考えた.その代わりに採用したのは,「部品(語)から文を合成する」アプローチである.このアプローチ下で日本語文の表層文字列を合成するために必要なことは,次の2点に集約される.\begin{enumerate}\bf\item語をどのような順番に並べるかを決定する.\item語が活用する場合は,その活用形を適切に決定する.\end{enumerate}よく,日本語は語の順序が比較的自由であると言われる.しかし,この説明は正確ではない.順序の交換が可能なのは,語ではなく文節である.そして,文節の順序を交換するとニュアンスが変わる.たとえば,「そのワインを私は飲まなかった」と綴りたいとき,ソフトウェアが勝手に「私はそのワインを飲まなかった」のように文節を入れ替えてしまうのでは困る.あえて「そのワインを」を文頭に置くことによって得られる効果が台無しになる.そのため,語(文節)の並べ方はコードで指定することとする.文中で活用形がどのような情報を担っているかを考えると,次の2種類があることに気づく.\begin{enumerate}\item\textbf{次の語に接続するために要請されている}.\\たとえば,子音動詞型活用(五段活用)の動詞の直後に「ない」が接続する場合は,その動詞は「未然形」を取らなければならない.この「未然形」は,「ない」に接続するために要請されているだけで,\underline{それ以上の意味はない}.\item\textbf{特定の文法的機能を担う}.\\たとえば,命令形は「命令」という意図(モダリティ)を表す.\end{enumerate}これらのうち,後者は,書き手の意志の表明であるため,コードで指定するのが妥当である.一方,前者は,後続語の文法的制約によって必然的に要請されるので,自動的に決定できるはずである.そのため,前者のみ自動化することとする.このような考え方に基づき,日本語文を合成するソフトウェアシステムを,次のような機能を持つドメイン特化言語として設計・実装する.\begin{itemize}\itemコードで記述できるようにするもの\begin{enumerate}\item文を合成する部品\item部品の順序\item文法的機能を担う活用形\end{enumerate}\item自動的に決定するもの\begin{enumerate}\item直後の語で定まる活用形\end{enumerate}\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{羽織文法と羽織構造}
図\ref{fig:process}に示したブリックコードから表層文字列を生成する過程を,次のように,2段階に大きく分ける.\begin{enumerate}\itemブリックコードから羽織構造まで\item羽織構造から表層文字列まで\end{enumerate}順番は前後するが,本章では,後者にかかわる6つの新機軸を説明する.前者にかかわる5つの新機軸は,次章で説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{羽織文法}文生成に必要な文法事項を整理・再構成し,\textbf{羽織文法}(HaoriGrammar)を定義した.羽織文法は,HB3の内部にプログラムとして(つまり,実行可能な形で)定義されている.日本語の文法体系は,おおよそ,次の要素から構成されるのが標準的であろう.\begin{enumerate}\item語の分類体系(いわゆる品詞体系)\item活用語の活用体系\item構文構造の定義(文の背後にどんな構造を仮定するか)\item文法的機能(テンス・アスペクト・モダリティなど)とその表現形式\end{enumerate}羽織文法は,次のような特徴を持った文法である.\begin{enumerate}\item語の分類では,機能語と内容語の区別,活用する語と活用しない語の区別を重要視する.\item詳細な活用体系(活用型と活用形)を提供する.活用型は,文法の中核的要素のひとつである.これに加えて,\textbf{接続型}($\rightarrow$\S\ref{s:接続型})を定義する.\item表層文の背後に,\textbf{羽織構造}($\rightarrow$\S\ref{s:羽織構造})を仮定する.\item文法的機能のほとんどを,機能語の働きによるものと考える\textbf{機能語中心主義}を採用する.\item句読点や括弧などの記号を語とは明確に区別し,\textbf{境界記号}($\rightarrow$\S\ref{s:境界})とみなす.\end{enumerate}4番目の特徴は,少し補足が必要であろう.たとえば,日本語には,「継続」を表す「テいる」や「つつある」という形式がある.通常の文法では,アスペクト「継続」という抽象的な文法機能を考え,その機能を担う表現形式を整理する.これに対して,羽織文法では,そのような抽象的な文法機能を前提せずに,機能語「テいる」,「つつある」の振る舞いだけを規定する.羽織文法では,機能語が文法の中核的要素を占める.そのため,羽織文法は,取り扱うすべての機能語を列挙し,その振る舞いを規定する.さらに,取り扱う従属節の節末形式もすべて列挙する($\rightarrow$\S\ref{s:節}).このような特徴を持った羽織文法の基本思想は,次のように集約される.\begin{quote}\bf日本語の文は,機能語によって組み立てられており,文法(文の成り立ちとその規則性)を明らかにすることは,機能語を列挙し,その振る舞いを記述することである.\end{quote}なお,羽織文法に関する補足を付録\ref{s:羽織文法補足}に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{羽織構造}\label{s:羽織構造}羽織文法では,表層文の背後に羽織構造を仮定する.羽織構造は木構造の形式をとり,それぞれのノードは属性値の集合を持つ.終端ノードは語を表し,非終端ノードは構造を表す.羽織構造の終端ノードを左から右へと並べれば,表層化した際の語の並びとなる.すなわち,羽織構造は語順の情報を完全に有している.非終端ノードのタイプは,次の4種類のいずれかである.\begin{enumerate}\itembinary\_r(2分岐右タイプ)---2つの子ノードを持つ.右の子がその構造を成立させる要素.\itembinary\_l(2分岐左タイプ)---2つの子ノードを持つ.左の子がその構造を成立させる要素.\itempredicate(述語タイプ)---1つ以上の子ノードを持つ.最後の要素が述語要素.\itemsequence(列タイプ)---2つ以上の子ノードを持つ.それぞれの子は同等の扱い.\end{enumerate}文中に現れる主要な構文構造は,次の4種類である.括弧内は構造のタイプを表す.\begin{enumerate}\item述語構造(predicate)\item修飾構造(binary\_l)\item(並)列構造(sequence)\item提題構造(binary\_l)\end{enumerate}この他に,機能語を付加する次のような構造がある.これらはすべて,binary\_rである.\begin{enumerate}\item助詞構造(binary\_r)\item判定詞構造(binary\_r)\item助動詞構造(binary\_r)\item述語接尾辞構造(binary\_r)---複雑な述語を作る接尾辞を付加する構造\end{enumerate}羽織構造は\underline{依存構造ではない}.どちらかというと句構造に近いが,\underline{句構造でもない}.図\ref{fig:process}に示した羽織構造のトップレベルは「述語接尾辞構造」である.これは,構造の最上位(つまり,文の末尾)に「丁寧接尾辞ます」が付加されていることを表現しているだけで,文全体が「述語接尾辞構造」であることを意味しているわけではない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{境界記号の導入}\label{s:境界}句読点や括弧などの記号は,実際の言語処理ではやっかいな存在である\footnote{これらの記号がないとうまくいかない処理と,あるとうまくいかない処理が混在する.さらに,同じ記号が,複数の用途で使われるので,統一的に扱うことが難しい.}.形態素解析では,句読点や括弧などは形態素と同等に扱われるのが普通であるが,それらは明らかに「形態素」ではない.句点は文の区切り記号であるし,読点は文中の比較的大きな切れを表す区切り記号である.そしてそれらは,文字列として書く場合にのみ,目に見える形で実体化される.英語では,語と語の間にホワイトスペースを置く.これと同じように,日本語の語と語の間にも境界という実体が存在すると考える.ただし,多くの境界は空文字列(長さ0の文字列)として実体化されるため,\underline{見えない}.これに対して,句読点や括弧は\underline{目に見える境界},つまり,文字列として実体化される\textbf{境界記号}と考える.境界記号は文字列化する際に実体化されるので,羽織構造の構造部分には反映せず,ノードの属性として保持する.羽織構造のすべてのノードは,左境界と右境界という2つの属性を持ち,それらの属性に境界記号を格納する.たとえば,図\ref{fig:process}の羽織構造では,最上位の「述語接尾辞構造」ノードの右境界に句点が格納されている.そのため,表層化の過程で「述語接尾辞構造」の右,すなわち「丁寧接尾辞ます」の直後の境界において実体化される.後に述べるように,境界記号には,\textbf{透過性}が定義される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{接続型の導入}\label{s:接続型}\textbf{接続型}とは,機能語が,直前の語の活用型・活用形をどのように制約するかを記述するために導入した制約類型である.この接続型を用いて,直前の語の活用形の自動決定を実現する.たとえば,「丁寧接尾辞ます」の接続型は「接尾辞ます接続」である.この接続型は,直前の語の活用型・活用形を次のように制約する.\begin{enumerate}\item活用型が「子音動詞型ラ行イ」であれば,「基本連用形2」と「基本連用形」を取りうる.デフォールトは「基本連用形2」である.(具体例は以下で説明する.)\item活用型がそれ以外の「動詞型」であれば,「基本連用形」を取る.\itemそれ以外の活用型,および,活用しない語には接続しない.\end{enumerate}この定義に従い,「ます」の直前の語の活用形は,次のように設定される.\eenumsentence{\itemいらっしゃる{\scriptsize子音動詞型ラ行イ}+ます$\rightarrow$いらっしゃい{\scriptsize基本連用形2}ます\item書く{\scriptsize子音動詞型カ行}+ます$\rightarrow$書き{\scriptsize基本連用形}ます\item長い{\scriptsizeイ形容詞型アウオ段}+ます$\rightarrow$(接続できない)}なお,複数の活用形を取りうる場合で,デフォールト以外の活用形を選択したい場合は,活用形を明示的に記述する.「いらっしゃる」の活用形を明示的に「基本連用形」と指定すれば,「いらっしゃり{\scriptsize基本連用形}ます」という形式も生成できる.接続型を定義する必要がある語は,述語に付加される機能語,すなわち,助動詞,述語接尾辞,接続助詞,終助詞などであるが,名詞の一部(節末形式に含まれる機能名詞)に対しても定義する必要がある.たとえば,「以来」は,直前の動詞にテ形を要求する.接続型は,直前の語に適切な活用型・活用形を要求するが,直前の語との間に境界記号が存在する場合,その要求を透過するか否かは,境界記号に定義される\textbf{透過性}の定義に従う.ここで,「透過する」とはその要求を順送りして伝えることを意味し,「透過しない」とはその要求をそこで棄却することを意味する.Basicパッケージ($\rightarrow$\S\ref{s:BasicPacakge})では,句読点は,接続要求を透過しないと定義している.括弧の類は,透過するものとしないものの両方を定義している.\eenumsentence{\item開括弧+書く+閉括弧{\scriptsize透過しない}+ます$\rightarrow$(書く)ます\item透過開括弧+書く+透過閉括弧{\scriptsize透過する}+ます$\rightarrow$(書き)ます}この透過性を,いわゆる取立助詞に対しても定義することによって,次のような取立表現における活用形の自動決定を実現する.\eenumsentence{\item書く+テいる$\rightarrow$書いて{\scriptsizeテ形}いる\item書く+も{\scriptsize透過する}+テいる$\rightarrow$書いて{\scriptsizeテ形}もいる}ここで「テいる」は,前方にテ形を要求する助動詞である.取立助詞は,この要求を透過するように定義しているので,取立助詞がある場合は,直前の語ではなく,その前の語を制約することになる.接続型による活用形の自動決定は,羽織構造の終端ノードと境界記号を線形化した\textbf{境界・ユニット列}において実行される($\rightarrow$\S\ref{s:BUS}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{テンス位置の自動決定}羽織文法は,機能語中心主義を標榜しているが,テンスだけは特別扱いする.羽織文法の活用体系は,益岡・田窪文法\cite{MTG1992},および,それに準拠するJuman\footnote{\texttt{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}}の活用体系を基本としているため,最終的にテンスは活用形の「タ形」によって表層化される.しかしながら,羽織構造では,テンスをノードの\textbf{テンス属性}として保持する.図\ref{fig:process}の羽織構造では,テンス属性はノード「述語構造」に付与されている.この羽織構造を境界・ユニット列に変換すると,テンス属性はその構造下の最後の語「食べる」に継承される($\rightarrow$\S\ref{s:BUS}).しかし,後続語の「丁寧接尾辞ます」が「食べる」に基本連用形を要求するため,テンスを実体化することができない.このような場合,テンス属性は後続語に順送りされる.この例では,「丁寧接尾辞ます」がテンスを取りうる(タ形が可能な)ため,ここで実体化され「ました{\scriptsizeタ形}」が生成される.この機構を\textbf{テンス順送り機構}と呼ぶ.テンスは,以下に示すように,複数の語に渡って順送りされる場合もある.\enumsentence{食べる{\scriptsizeテンス=タ}+テいる+ない$\rightarrow$食べて{\scriptsizeテ形}い{\scriptsize基本連用形}なかった{\scriptsizeタ形}}この機構のおかげで,テンスを付加した述語に対しても,後付けでの機能語の付与が可能となる.このテンス順送りにも,\textbf{透過性}が定義できる.接続型,テンス順送り機構,透過性の組み合わせにより,次のような複雑な場合にも,正しい位置にテンスが設定される.\enumsentence{食べる{\scriptsizeテンス=タ}+テいる+も{\scriptsize透過する}+取立助動詞する+ない\\$\rightarrow$食べて{\scriptsizeテ形}い{\scriptsize基本連用形}もし{\scriptsize基本連用形}なかった{\scriptsizeタ形}}なお,「取立助動詞する」は,述語を取り立てるための専用の助動詞であり,前方の述語に「基本連用形」を要求する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{活用型の自動推定}\label{s:活用型の自動推定}羽織文法では,語を機能語と内容語,活用する語と活用しない語に区分すると説明した.羽織文法では,品詞は重要ではない($\rightarrow$\S\ref{s:スマホ})が,わかりやすさのため品詞別で示すと,表\ref{table:語の分類}のようになる.ここでは,一般の接辞(接頭辞・接尾辞)は除外した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{語の分類}\label{table:語の分類}\input{11table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%HB3(羽織文法)は,機能語をすべて列挙し,その振る舞いを記述するという立場に立つので,機能語の辞書は文法に含まれる.一方,内容語の辞書は,原則として不要という立場に立つ.内容語を表層文字列化するために必要な情報は,次の3つである.\begin{enumerate}\item表記\item活用型(活用する語のみ)\item活用形((活用する語のみ)\end{enumerate}HB3は,初代のHaori\cite{Sato-NLP2015,Ogata-JSAI2015}と異なり,表記を制御しない.つまり,どのように表記するかはコード内で記述する.このため,活用しない内容語に関しては,表層文字列化に必要な情報はコード内に存在する.活用する内容語では,表記に加えて活用型と活用形が必要となる.活用形の扱いについてはすでに述べたので,残された問題は活用型であるが,HB3では,活用する内容語の活用型を自動推定する.活用型推定規則を表\ref{tab:活用型推定規則}に示す.これらの規則は,活用型を正しく推定できない場合もあるが,規則を明示的に定めているので,どのような語に対して誤るかは明確である.そこで,そのような語(表記)に対してのみ,あらかじめ活用型を定義しておく.たとえば,「さえぎる」は末尾が「イ段+る」であるが,活用型は子音動詞型ラ行(五段活用)であるため,あらかじめ活用型を定義しておく必要がある(あるいは,コード中で明示的に指定する).なお,「遮る」と漢字表記した場合は,正しく子音動詞型ラ行と推定されるので,この表記に対しては活用型を定義しておく必要はない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{活用型推定規則の一覧}\label{tab:活用型推定規則}\input{11table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:表記数}に,形態素解析システムJuman(juman-7.01)の基本語辞書に登録されている活用する内容語の表記数と,これらのうち,活用型を定義しておかなければならない表記数(HB3で活用型を定義した表記数)を示す.この表に示すように,動詞の場合は3\%の表記に対して,活用型を明示的に定義すればよい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{活用型の定義が必要な表記数}\label{tab:表記数}\input{11table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%動詞と比べて,イ形容詞で定義が必要な表記の割合が多い(8\%)のは,末尾が「ない」のイ形容詞の活用型を細分化する必要があるからである.羽織文法では,次の4種類の活用型が存在する.\begin{enumerate}\itemイ形容詞型アウオ段---丁寧体の形式は「〜です」.例:「あじけない」\itemイ形容詞型アウオ段ない---丁寧体の形式は「ありません」.例:「ない」\itemイ形容詞型アウオ段ない複合---丁寧体の形式は「〜ありません」.例:「思わしくない」\itemイ形容詞型接尾辞ない---丁寧体の形式は「〜ません」.例:「いたたまれない」\end{enumerate}後者の2つの活用型に属するイ形容詞は,内部構造(語構成)を持つ語である.前者は末尾に「イ形容詞ない」を持ち,後者は「接尾辞ない」を持つ.形態素解析辞書では,諸般の事情から,これらを一語のイ形容詞として登録するのが一般的であるが,生成の立場に立てば,「思わしく{\scriptsizeイ形容詞連用形}+イ形容詞ない」,「いたたまれ{\scriptsize動詞未然形}+接尾辞ない」と分解して扱えば,問題は生じない.ただし,「違いない{\scriptsizeイ形容詞型アウオ段ない複合}」のように,一語化していると思われる語も存在するため,いずれにせよ,上記のように活用型の細分化は必要である.活用型の定義が必要な割合がナ形容詞で非常に多い(41\%)のは,連体修飾で「ナ形」の使用が優勢な「判定詞型ナ形容詞」(Jumanではナ形容詞)と,「ノ形」の使用が優勢な「判定詞型ナ形容詞ノ」(Jumanではナノ形容詞)の数が均衡しているためである.ただし,「ナ形」と「ノ形」の使い分けには微妙な場合(「当選が確実\underline{な}情勢」「当選が確実\underline{の}情勢」)があり,活用型のみで連体修飾の形式を一意に決定できるわけではない.つまり,どちらの形式を使うか明示的に指定しなければならない場合も多く,たとえ活用型が正しく設定できなくてもそれほど大きな問題は生じない\footnote{連体修飾で「ノ形」をとるナ形容詞語幹は,名詞と同じように振る舞うので,格要素を取らない場合は,名詞扱いしてしまえばよい.}.なお,羽織文法では,Jumanとは異なり,すべてのナ形容詞に「ノ形」の存在を認めている.2つの活用型の唯一の違いは,連体修飾の場合のデフォールトの活用形が「ナ形」か「ノ形」かの違いである.最後に,活用型と品詞の関係について補足しておく.活用する内容語は動詞と形容詞(イ形容詞,ナ形容詞)であるが,羽織文法では,活用型が品詞の細分類となっている.動詞の活用型の名称はすべて「〜動詞型〜」,イ形容詞は「イ形容詞型〜」,ナ形容詞は「判定詞型ナ形容詞〜」である.つまり,動詞・形容詞の区別は冗長である(重要ではない).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{羽織構造の表層文字列化}\label{s:BUS}ここで,羽織構造を表層文字列化する過程について補足しておく.この過程は,次のように3ステップからなる.\begin{enumerate}\item羽織構造を境界・ユニット構造に変換する.\\この変換は,終端ノードと境界記号を左から順に集めればよい.ただし,非終端ノードに付与された属性情報を,適切な終端ノードに継承する必要がある.原則として,非終端ノードの属性情報は,一番右の子に継承する.これを再帰的に行えば,終端ノードに到達する.属性情報のうち「左境界」と「右境界」は,境界記号として実体化する.\item境界・ユニット構造において,活用する語の活用形を定める.\\まず,右から左へ接続型を伝達し,活用する語の活用形を定める.次に,左から右へ順に,表層文字列を生成する.このとき,テンスが実体化できなかった場合は,テンスを順送りする.\item最後に,終端ノードと境界記号のそれぞれに対して生成された表層文字列を,一つの文字列に結合する.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{この章のまとめ}羽織構造は,表層文字列化に必要なすべての情報を保持している.すなわち,\begin{itemize}\item語の順序情報は,羽織構造の木構造が保持している.\item語の表記,活用型,接続型は,語を表す終端ノードが保持している.\itemテンス情報は,ノードが保持している.\item境界記号の情報は,ノードが保持している.\end{itemize}それゆえ,羽織構造が与えられれば,\underline{表層文字列は一意に定まる}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{ブリックコードとBasicパッケージ}
前章で示したように,語から文を合成するためには,それなりの道具立てが必要である.言い換えるならば,羽織構造をそのまま記述するのでは記述量が多い.ブリックコードは,それを回避するために導入した記述形式(ラッパー)である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{基本的アイディア}ブリックコードの基本的アイディアは,ブロック玩具のアナロジーから来ている.レゴを代表とするブロック玩具では,基本となるブロック(レゴでは,brick(ブリック)と呼ぶ)を多数組み合わせて,建物,乗物,動物などの多様なモデルを作ることができる.これと同じように,文の部品をブリックとして提供し,これらを組み合わせるだけで多様な文を作りだせるようにしようという発想である.ブリックコードのもうひとつの思想的源泉は,プログラミング言語Lispにある.初期のLisp(Lisp1.5)の中核は,限られた数の基本関数と,それらを組み合わせて新たな関数を作り出す方法である.基本関数を組み合わせて複雑な関数を新たに定義することにより,多種多様な関数を提供することが可能となる.ブリックコードでは,このような拡張性を踏襲している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{基本ブリック}HaoriBrick3(HB3)の基本ブリックは,6種類しかない.前者が正式名,後者が別名である.なお,以下の本文中では,ブリックの名称を\brick{ブリック名}のような記法で記述する.\begin{enumerate}\item\brick{lexal},\brick{lex}---羽織構造の終端ノードを作る.内部に語の情報を保持する.\item\brick{structure},\brick{構造}---羽織構造の非終端ノードを作る.\item\brick{role}\item\brick{parameter},\brick{属性}---羽織構造のノードに,属性値を付与する.\item\brick{boundary},\brick{境界}---境界に記号を挿入する(羽織構造のノードに,境界情報を付与する).\item\brick{producer}---作り手(書き手・話し手)を指定する($\rightarrow$\S\ref{s:作り手}).\end{enumerate}これらのうち\brick{role}は,述語構造の要素を,補足語要素(格要素)と連用修飾要素を区別するために導入したが,本質的にはおそらく不要なので,次の大改訂時に削除する可能性が高い.基本ブリックの数が限定されていることは,非常に重要である.ブリックコードを実行すると\textbf{ブリック構造}が作成されるが,このブリック構造は,\underline{基本ブリックのみで構成される}.それぞれの基本ブリックの機能ははっきりしているため,羽織構造($\rightarrow$\S\ref{s:羽織構造})への変換は容易である.唯一の変換らしき処理は,\brick{structure}ではその構造を成立させる要素を第2引数\footnote{第1引数は構造名.}として指定するので,構造タイプがbinary\_rとpredicateの場合に,\brick{structure}の引数の順番と羽織構造の子の順番が異なる点を調整する処理である.先に示した,図\ref{fig:process}に含まれる3つのブリックコードの一番下のコードは,基本ブリックだけで記述されている.その記述は長くなるため,文を合成するコードをこのような形で記述するのはまれで,主に,後に述べるマクロブリックを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ブリックコードはRubyコード}次の点を強調しよう.\begin{quote}\textbf{ブリックコードは,Rubyコードである}.\end{quote}初代のHaori\cite{Sato-NLP2015,Ogata-JSAI2015,Ogata-NLP2016}からHaoriBricks\cite{Sato-NLP2017,Sato-NLP2018}に進む時点で,ブリックコードというラッパーを導入し,これをプログラム(Rubyコード)として記述することにしたのだが,結果的に,この選択が非常に大きな恩恵をもたらした.ブリックコードは,単なるRubyコードであるから,プログラミング言語Rubyの機能---データ構造,変数,制御構造(if-then-else)---がコード内で自由に利用できる.このことは,コードを書く際の自由度の向上に,大きく寄与する.より技術的には,それぞれのブリックは,あるRubyモジュールに定義されたインスタンスメソッド(ブリックメソッドと呼ぶ)である.ブリックコードの実行(評価)は,次のような形式で行い,ブリックコードを中括弧の中に記述する.この中括弧は,プログラミング言語Rubyでブロックと呼ばれるものである.\begin{lstlisting}HB3.basic{述語(:食べる,を(:りんご))}\end{lstlisting}このブリックコードは,「りんごを食べる」という表層文を生成するためのコードで,内容語の「食べる」,「りんご」に対応する2つのブリック\brick{:食べる}と\brick{:りんご}\footnote{Rubyのシンボル(\texttt{:}で始まる)は,lexalブリックの略記法である},および,これらを使って文を組み立てる2つのブリック\brick{を}と\brick{述語}の,計4つのブリックで記述されている.Rubyのブロックの実体は,Procオブジェクトであり,名前のない関数のようなものである.\texttt{HB3.basic}(RubyのクラスHB3のクラスメソッドbasic)は,このProcオブジェクトを,いわゆるクリーンルーム\cite{metaprogramming}で実行する.具体的には,まず,最低限のメソッドしか定義されていないObjectクラスのオブジェクト(クリーンルーム)を作成し,そのオブジェクトに,ブリックを定義しているモジュールをextendする(モジュールに定義されているインスタンスメソッドを特異メソッドとして使えるようにする).この操作により,クリーンルームでブリックメソッドが実行できるようになるので,先のProcオブジェクトをこのクリーンルームで評価(instance\_eval)すると,ブリックコードが実行される.この実行により生成されるのは,ブリック構造(Rubyオブジェクト)である.表層文字列を生成するためには,このブリック構造に\texttt{to\_ss}というメソッドを適用すればよい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{マクロブリック}ブリックは,(単なる)Rubyのインスタンスメソッドであるから,新たなブリックを定義するためには,Rubyメソッドを定義すればよい.先に述べたように,基本ブリックのみで記述したブリックコードは,記述量が多い.この記述量を削減するために,多くのマクロブリックと短い別名を定義している.文を合成する際に実際に記述するブリックのほとんどは,マクロブリックの別名である.たとえば,ブリック\brick{を}は,\brick{格助詞を}の別名である.このブリックは,次のように定義されている.なお,本論文で示すブリックの定義は,わかりやすさを重視するため,実際の定義を簡略化したものを示している.\begin{lstlisting}def格助詞を(*args)ifargs.length==0thenlex(:格助詞を)else助詞(lex(:格助詞を),*args)endend\end{lstlisting}このコードは,引数がない場合は単に「格助詞を」を作り,引数がある場合は,「格助詞を」をブリック\brick{助詞}の第1引数として組み合わせることを意味している.ここで出てくる\brick{助詞}も,マクロブリック\brick{助詞構造}の別名である.\begin{lstlisting}def助詞構造(lex,arg)if!argthennilelse構造(:助詞構造,lex,arg)endend\end{lstlisting}このコードは,第2引数がnilの場合はnilを返し,非nilの場合は\brick{構造}ブリックを作ることを意味している.値nilは,値がないことを意味する.つまり,第2引数がnilの場合は,構造を作らない.このような定義により,次のコードは「食べる」のみを出力し,「を」を実体化しない.\begin{lstlisting}x=nilHB3.basic{述語(:食べる,を(x))}.to_ss=>"食べる"\end{lstlisting}値nilをどうハンドリングするかは,ブリックコードの使い勝手を大きく左右する.変数を用いて,ガ格の内容,ヲ各の内容,述語を外から与えるコードは,次のようになる.ここで,\texttt{ga},\texttt{wo},\texttt{pred}は,Rubyの変数である.\begin{lstlisting}ga=...wo=...pred=...HB3.basic{述語(pred,が(ga),を(wo))}.to_ss\end{lstlisting}このコードで,変数\texttt{ga}や\texttt{wo}にnilを代入すれば,それぞれの格要素が\underline{格助詞込みで}省略される.つまり,そのための専用のコードを書く必要がない.なお,変数\texttt{pred}にnilを代入した場合は,述語構造全体が作成されない.さらに,述語を省略した述語構造「〜が〜を」を作りたい場合は,\texttt{pred}に空文字列を生成する特別なブリック\brick{empty}を与えればよい.これらは,\mbox{4行目}のコードひとつで,すべて実現できる.日本語の文では,格要素はしばしば省略される.同様に,修飾要素も,存在したりしなかったりする.HB3のブリックコードでは,それらの要素が存在しないことをnilで表現できるため,それぞれの場合に対して個別のコードを書く必要はない.このことは,コードの汎用性向上と記述量削減に大きく寄与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ジェネリックブリック}マクロブリックの動作は,引数の数,および,値がnilかどうかに依存するが,引数の内容(ブリック構造)の詳細までは立ち入らない.これに対して,引数のブリック構造に応じて,動作を変えるブリックを定義したい場合が存在する.その一例は,使役を表す述語接尾辞「せる」と「させる」の選択である.接続対象が母音動詞型活用の場合は「させる(食べさせる)」を,子音動詞型活用の場合は「せる(書かせる)」を選択する必要がある.次のコードでは,\texttt{pred}は変数であるから,どんな活用型の動詞が来るかは実行時にならないと定まらない.それゆえ,どちらの接尾辞を接続させるかは,実行時に決定しなければならい.\begin{lstlisting}ga=...wo=...pred=...HB3.basic{述語(使役(pred),が(ga),を(wo))}.to_ss\end{lstlisting}HB3では,引数のブリック構造にアクセスする手段を提供しており,これを用いて\brick{使役}ブリックを作ることが可能である.具体的には,引数のブリック構造の最も後ろにある語を捕まえて(\texttt{.rightmost\_lexal}),その活用型(\texttt{.ctype})の値で分岐すればよい.その概略は,次のようになる.\begin{lstlisting}def使役(arg)casearg.rightmost_lexal.ctypewhen/母音動詞型/,/カ変動詞型/thenさせる(arg)when/子音動詞型/,/ザ変動詞型/,/サ変動詞型/thenせる(arg)endend\end{lstlisting}このような,引数のブリック構造を参照して動作を変えるブリックを\textbf{ジェネリックブリック}と呼ぶ.上記の\brick{使役}は,使役の接尾辞を付与するという機能を担うという意味で汎用的である\footnote{このブリックは,動詞型活用の語に「させる・せる」のいずれかを接続するだけで,述語構造の格助詞を書き換えること(ボイス変換)はしない.}.先に示した,図\ref{fig:process}のブリックコードでは,\brick{丁寧}と\brick{ます}がジェネリックブリックである.ここでは詳細は述べないが,引数のブリック構造を参照するだけでなく,書き換えるブリックを作ることも可能である.たとえば,ブリック\brick{ます}はそのような一例である.具体的には,「イ形容詞ない」に「ます」を接続する場合は,「ない」を「ある」に書き換え,「ません」を接続させる.この操作により,「ありません」を生成することが可能となる.\enumsentence{お金+が+ない+ます$\rightarrow$お金+が+ある+ません\(お金がありません)}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Basicパッケージ}\label{s:BasicPacakge}HB3では,提供するブリックの集合を\textbf{パッケージ}と呼ぶ.HB3の標準パッケージである\textbf{Basicパッケージ}には,本論文の執筆時点で,1,715種類(別名を含めると2,917種類)のブリックが定義されている.それらの内訳を表\ref{tab:basicPackage}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{Basicパッケージに含まれるブリック数}\label{tab:basicPackage}\input{11table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この表において,左欄が羽織文法の骨格をサポートするためのブリック,中欄が具体的な語や表現に対応するブリック(機能語,複合辞,慣用句のサポート),右欄がそれ以外のマクロブリックとジェネリックブリックである.この表に示すように,従属節をサポートするためのブリック($\rightarrow$\S\ref{s:節})が非常に多い.なお,Basicパッケージの編纂では,『基礎日本語文法―改訂版―』\cite{MTG1992}に掲載されている番号付きの全例文(1,177例文)\footnote{(ア)のように,カタカナ付き例文は対象としていない.}を利用し,これらの例文を生成するコードを比較的容易に記述できるようにブリックを定義した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{この章のまとめ}ブリックコードは,所望の羽織構造を作成するためのラッパーである.その実体はRubyコードであり,コードを構成するブリックは,Rubyのインスタンスメソッドである.基本ブリックは6種類しかなく,それ以外のブリックは,基本ブリックの組み合わせとして定義されたマクロブリック,または,ジェネリックブリックである.Basicパッケージには,多数のマクロブリックとジェネリックブリックが定義されており,このパッケージを利用することで,日本語文を合成するコードを比較的簡潔に記述することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{HaoriBricks3の使用例}
この章では,HB3の使用例をいくつか示し,HB3で何ができるのかを明らかにする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{複文を作る}\label{s:節}日本語の長い文の大半は,複数の節から構成される複文である.以下に例を示す.\eenumsentence{\item音楽を聴きながら論文を書く.\item論文を書く.\\\(主節)\item音楽を聴きながら\\\\\(連用節ながら)}HB3のBasicパッケージに含まれている従属節を作るブリックを使えば,単文から複数を合成するのは容易である.\begin{lstlisting}m=HB3.basic{述語(:書く,を(:論文))}c=HB3.basic{述語(:聴く,を(:音楽))}HB3.basic{連用節ながら(c,m)}.to_ss=>"音楽を聴きながら論文を書く"c2=HB3.basic{連用節ながら読点(c)}HB3.basic{修飾(c2,m)}.to_ss=>"音楽を聴きながら,論文を書く"\end{lstlisting}このコードの1行目と2行目は,単文を合成するためのコードである.これらを評価したものをそれぞれ変数\texttt{m}と\texttt{c}に代入し,ブリック\brick{連用節ながら}を用いて結合すれば,所望の複文が得られる.従属節の述語を基本連用形にすべきことは,このブリックが知っているので,明示的指定する必要はない.なお,このブリックは,第1引数がnilの場合は従属節を作らないため,変数\texttt{c}がnilの場合,3行目のコードは「論文を書く」という単文を生成する.3行目のコードで,従属節の形式を固定したくないのであれば,4行目のように外で従属節の形式を定め,5行目のように\brick{修飾}ブリックを使って主節と結合すればよい.従属節を作るブリックは,1引数の場合は従属節を作り,2引数の場合は,第1引数で作成した従属節を第2引数に結合する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{従属節を作るブリックの一覧}\label{tab:従属節一覧}\input{11table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Basicパッケージには,従属節を作るマクロブリックが190種類,定義されている.その一覧を表\ref{tab:従属節一覧}に示す.この表で,ブロック体以外のものは,中分類をプレフィックス(prefix)として付与したものがブリックの名称となる(たとえば,\brick{並列節が}など).なお,従属節の作成と読点の付与を同時に行うブロック(たとえば,\brick{並列節が読点})も170種類,定義されている.一般に,節末形式が名詞を持つ場合,連体修飾を受けることができることが多い.これを従属節と同じように記述できるように,\brick{〜句〜}というブリックも定義されている.\eenumsentence{\item小説を書く\underline{とき}\\\―\\\\texttt{時間節とき(述語(:書く,を(:小説)))}\item小説執筆の\underline{とき}\\\―\\\\texttt{時間句のとき(:小説執筆)}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-2ia11f2.eps}\end{center}\caption{緒方健人『スマホが震えた』}\label{fig:sumaho}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\setlength{\unitlength}{1pt}\begin{picture}(420,494)\put(-23,0){\includegraphics{27-2ia11f3.eps}}\end{picture}\caption{『スマホが震えた』を生成するHB3ソースコード}\label{fig:sumaho_code}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{『スマホが震えた』を生成する}\label{s:スマホ}HB3のコード記述例として,小説の自動制作を目指すプロジェクトの初期の段階で,プロジェクトメンバーの一人が書いたサンプル小説『スマホが震えた』の全文(図\ref{fig:sumaho})を生成するコードを図\ref{fig:sumaho_code}に示す.以下では,このコードを解説する.\begin{itemize}\itemHB3には,単に要素を並べるだけの\brick{列構造}が存在するので,これを利用すれば,文だけでなく,文章を組み立てることができる.ブリック\brick{テキスト},\brick{段落},\brick{発話段落}は,\brick{列構造}を利用している.\itemブリック\brick{判定詞省略}は,いわゆる体言止めを生成するためのブリックである.そのままでは判定詞は表層化されないが,たとえば\brick{テ節}に接続すると,「深夜一時頃\underline{で}」のように,背後に隠れている判定詞が出現する.\item地の文は,複文になることが多い.\brick{並列節が読点},\brick{連用節ながら読点},\brick{条件節と読点}などは,従属節を作り,主節に結合するブリックである($\rightarrow$\S\ref{s:節}).実際のコード作成では,従属節を簡単に作れることが非常に重要である.\itemいわゆる提題表現は,\brick{提題}ブリックを使って述語構造の外に書いてもいいし,\brick{述語}の中に書いてもよい.前者の場合は修飾構造が作られ,後者はいわゆる格要素と同じ扱いとなる.\item複合名詞は,\brick{複合語}ブリックを使って合成してもよいし,一語として記述してもよい.前者の場合は,複合語の構成要素が部品となる(つまり,置換可能となる)が,後者の場合は,全体が部品となる.\itemイ形容詞「大きい」は,連体修飾用法では「大きな{\scriptsizeナ形}」が優勢である.ブリック\brick{形容詞}は第1引数が形容詞であることを,\brick{連体修飾}は第1引数が第2引数を連体修飾することを意味している.なお,「大きな」は,「目が大きな少女」のように格要素を取りうるので,連体詞とみなすのではなく,イ形容詞のナ形とみなすのがよいと考える.\itemブリック\brick{発話}は,発話形式のためのブリックで,発話文を鉤括弧で囲む.\itemブリック\brick{お〜ください}は,動詞「待つ」から丁寧な表現「お待ちください」を作るブリックである.この「ください」は「お〜・ご〜」の形式のみに接続する述語接尾辞(「敬語接尾辞ください」)である.\item「レポートが進みやしない」は,「(レポートが)進まない」という述語表現を,「副助詞や」で取り立てた表現とみなす.この取立表現を組み立てる方法は,このコード例にもいくつか方法がある.なお,述語の取立表現には不明な点が多い.たとえば,イ形容詞「造作ない」の取立表現は「造作もない」だと思われるが,「いたたまれない」は取り立てることができないように思われる.このような現象には,まだ対応できていない.\item「スマホ越し\underline{に}呟く」の「に」は,何助詞とすべきかよくわからない.暫定的に「連用助詞に」に分類している($\rightarrow$\S\ref{s:助詞}).\item「それ以来」も謎である.現在は,暫定的に\brick{複合語}ブリックを使っているが,この解釈でよいかどうか自信がない.すでに述べたように,名詞を持つ節末形式は,連体修飾を受けることができる場合が多い.\eenumsentence{\item小説を書く\underline{とき}\item小説執筆の\underline{とき}\itemその\underline{とき}}しかしながら,「以来」は連体修飾を受けることはできず,代名詞は連体形ではなく名詞形が接続する.\eenumsentence{\item小説を書いて\underline{以来}\item*小説執筆の\underline{以来}\item*その\underline{以来}\itemそれ\underline{以来}\item小説執筆\underline{以来}}\end{itemize}このように,文章をブリックコードで記述しようとすると,よくわからない言語現象が顕在化する.HB3の実装は,このような現象をひとつひとつ潰していくという側面を併せ持つ.さらに,次の3点を付け加える.\begin{itemize}\itemこのコードでは,内容語はRubyのシンボル(つまり,\brick{lexal})で記述され,それ以外は,他のブリックで記述されていることに気づく.つまり,\brick{lexal}以外のブリックで構成される部分が,文を成り立たせる骨格であり,羽織文法が規定しているのは,主に,この部分である.\itemこのコードでは,品詞ブリックがほとんど出現しない.\brick{形容詞}と\brick{接続詞}が若干出現するだけである.その理由は,次のとおり.\begin{itemize}\item活用する内容語は,裸の連体修飾の場合を除き,述語構造をもつ.ブリック\brick{述語}は,第1引数を述語と解釈して活用型推定を行うので,動詞・形容詞を明示的に指定する必要がない.\item活用しない内容語は,構造だけが問題となるが,それはほとんどの場合,「修飾構造(binary\_l)」である.ブリック\brick{連体詞},\brick{副詞},\brick{接続詞},\brick{感動詞}は,いずれも2引数の場合はブリック\brick{修飾}と等価である\footnote{1引数の場合は,その語を生成する.}.つまり,これらの品詞の区別は,羽織文法では本質的でない.\end{itemize}\itemこのコードを構成するすべての部品(ブリック)は,\underline{変数化できる}(コードの外から指定可能である).このコードでは,登場人物の名前だけを変数化して外から与えているが,すべての内容語も同じように変数化することができる.それ以外のブリックも,単なるRubyメソッドコールであるから,sendを使えば変数化できる.これが,「ブリックコード=Rubyコード」の威力である.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{発話を作る}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{発話文体を切り替える}前述の『スマホが震えた』の例にもあるように,小説には登場人物の会話が含まれるのが普通である.日本語の小説では,発話者の情報は明示的に示されない場合が多い.それぞれの登場人物に対して,発話の文体を変えることなどの表現上の工夫によって,発話者が誰なのかわかるようにすることが,一般的に行われている.たとえば,「フランス語を教えてほしい」という依頼を表明する場合,どのような文体を用いるかによって,読者が感じる発話者のイメージが異なる\cite{Kinsui2003}.\eenumsentence{\itemフランス語を教えろよ(命令形+終助詞よ)---粗野な男性\itemフランス語を教えてくださらない?(テくださる+ない+疑問符)---上品な女性\itemフランス語を教えてちょうだい(テちょうだい)---幼い(あるいは,甘えた)感じ}これらは,主に,文末表現の違いによってもたらされる.すなわち,これらの文末表現をブリックとして定義し,それらのうちのひとつを選択して,命題的表現(「フランス語を教える」)に結合すれば\cite{Kimura-JSAI2018},読者が感じる発話者のイメージを操作できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{発話者を切り替える}\label{s:作り手}さらに,HB3の基本ブリックのひとつに,文や発話の作り手を明示的に指定する\brick{producer}ブリックがあり,その指定に従って表現を切り替える仕組みが組み込まれている.具体的には,ブリック構造から羽織構造を生成する際に,個別の作り手に対して定義されたフィルタを通すことにより,表現を切り替える.以下に,一例を示す.この例では,作り手「コナン」に対して定義したフィルタを使って,「〜しかない」という表現を「〜っきゃねぇ」という表現に置き換えている.\begin{lstlisting}x=HB3.basic{しかない(述語(:食べる))}y=HB3.basic{producer(:コナン,x)}x.to_ss=>"食べるしかない"y.to_ss=>"食べるっきゃねぇ"\end{lstlisting}ただし,上記のような切り替えを実現するためには,それぞれの作り手に対して,どのような変換を行うかを,詳細に定義する必要がある.そのため,この機能は,現時点では,実験的な位置付けとなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文末を書き換える}\label{sec:rewrite}表層文をブリックコードに変換できれば,ブリックコードを操作して,文を書き換えることができる.以下に示す2つの例は,企業との共同研究を進める過程で実際に必要となった具体例で,いずれもHB3を使って実現された.なお,これらの例は,文末を操作するだけなので,文全体をブリックコードに変換するのではなく,文末の述語部分をブリックコードに変換する方法で実現している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ウィキペディア文を,話し言葉に適した形式に変換する}\label{s:話し言葉への変換}三宅宏実選手のウィキペディアの記事には,「趣味は足のネイルアート」という文が存在する.この文を,ソフトウェアエージェントに発話させることを想定し,話し言葉に適した文[\ref{e:話し言葉変換}]に変換する.\eenumsentence{\item趣味は足の\underline{ネイルアート}.\item\brick{:ネイルアート}+\brick{だ}+\brick{伝聞そうだ}+\brick{丁寧}\item\label{e:話し言葉変換}三宅選手の趣味は足の\underline{ネイルアートだそうです}.}この例の場合,元の文の文末として「ネイルアート(体言止め)」を同定し,それに\brick{だ},\brick{伝聞そうだ}\footnote{「そうだ」には,「(書き)そうだ」と「(書いた)そうだ」がある.羽織文法の機能語IDは,前者は「様相接尾辞そうだ」,後者は「終タ助動詞そうだ」である.ブリックコードでは,それぞれ,\brick{接尾辞そうだ},\brick{伝聞そうだ}と記述することが多い.どちらも動詞型活用に接続可能なので,ジェネリックブロックを定義して自動判定することはできない.},\brick{丁寧}という3つのブリックを付加することで,所望の文を作り出す.ただし,文頭の「三宅選手の」は,別の方法で補完する\cite{Yanagi2020}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{広告文の生成で,症状を問いかけ形式に変換する}\label{s:問いかけ変形}広告文では,読者に働きかける表現が多用されるが,そのひとつに問いかけ形式がある.たとえば,「腰が痛い」という症状を問いかけ形式に変換することは,以下に示すように,述語「痛い」に,\brick{は},\brick{取立助動詞ある},\brick{か},\brick{丁寧}という4つのブリックを付加すれば実現できる\cite{Taira2019}.\eenumsentence{\item腰が\underline{痛い}\item\brick{述語(:痛い)}+\brick{は}+\brick{取立助動詞ある}+\brick{か}+\brick{丁寧}\item腰が\underline{痛くはありませんか}}なお,取立助動詞とは,すでに述べたように,述語の取立形式を作るための専用の助動詞である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{議論}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{卵が先か,にわとりが先か}これまで,日本語において,文生成用の専用ソフトウェアはほとんど存在しなかったと認識している.そのようなソフトウェアが作られなかった理由は,おそらく,\textbf{ニーズがなかったから}であろう.というのも,\begin{itemize}\item生成すべき文が完全に確定しているのであれば,文字列として記述すればよい.それがもっとも合理的かつ簡便な方法である.\item確定していない部分があったとしても,それが活用しない表現ならば,その部分を変数化した文字列テンプレートを用いればよい.\end{itemize}上記に該当しない場合,つまり,確定していない部分に活用する表現が含まれていたり,一旦生成した文を加工したりする必要が生じる場合に,HB3のようなソフトウェアが必要となる.エラーメッセージ生成のようなアプリケーションでは,HB3のようなソフトウェアは不要であり,小説の自動制作のような自由度の高いテキストの生成を志すことで,はじめて必要性が顕在化したともいえる.しかし,この見方は本当だろうか.我々は,プログラムによって自動制作した小説を『日経星新一賞』に応募することによって,テキストの自動生成の可能性を広く知らしめたわけだが,その後に寄せられた問い合わせにより,テキスト自動生成のニーズは,それなりに存在するという認識に至っている.前章の文末の書き換えは,その具体例の二例である.この他にも,パラフレーズ,文体変換,発話に対するキャラクタ性付与など,文変換のニーズが存在する.「文生成は意味表現(内部表現)を表層表現に変換すること」という思い込みが,文生成へ足を踏み入れることを躊躇させていたのではないだろうか.その思い込みを破棄し,文生成を部品からの合成とみなせば,文生成実現のハードルは大きく下がる.さらに,それを実現するソフトウェアがあれば,個別アプリケーション用の文生成プログラムは,比較的容易に実現できる.潜在的なニーズが,顕在化する可能性もある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ジェネリックブリックによる文法の隠蔽と高機能化}現在のHB3が満足のいくものに仕上がっているかといえば,そのレベルには達していない.その理由のひとつは,文法の隠蔽が不十分であることにある.HB3は,羽織文法に従っている.この文法を熟知していれば,ブリックコードを書くことはたやすい.しかしながら,HB3のユーザーに,羽織文法の熟知を求めるのは酷であろう.たとえば,羽織文法では,4種類の「ない」が存在する.\begin{enumerate}\itemイ形容詞の「ない」.例:暇もお金も\underline{ない}\item否定接尾辞の「ない」.動詞型活用に接続する.例:食べ\underline{ない},食べさせ\underline{ない}\itemテ助動詞の「ない」.「〜テいない」の「い」が脱落した形式.例:論文を書いて\underline{ない}\item取立助動詞の「ない」.形容詞の否定取立表現を作る.例:美しくも\underline{ない},確実では\underline{ない}\end{enumerate}生成という立場に立てば,上記の4種類の「ない」の振る舞いはそれぞれ異なるので,これらを区別することは必然である.しかし,ユーザーに,これらを適切に使い分けることを求めることはできないであろう.ジェネリックブリックは,このような使い分けの困難さを軽減する役割を果たしている.たとえば,ジェネリックブリック\brick{ない}には,次のような使い分けの自動判定が組み込まれている\footnote{簡略化して記述した.実際の処理は,かなり複雑である.}.\begin{enumerate}\item引数がない場合は,「イ形容詞ない」と判定する.\itemイ形容詞型,判定詞型の活用に接続する場合は,「取立助動詞ない」と判定する.\item動詞型の活用に接続する場合は,「否定接尾辞ない」と判定する.\end{enumerate}それゆえ,この\brick{ない}と,そこではハンドリングできない\brick{テ助動詞ない}の2つのブリックを使い分ければよい\footnote{動詞型の活用には,「否定接尾辞ない」と「テ助動詞ない」の両方が接続可能である.}.このように,ジェネリックブロックを巧みに定義することによって,文法の隠蔽はある程度可能であるが,まだまだ不完全である.さらに多くの,そして強力なジェネリックブロックを定義する必要があると考えている.ジェネリックブロックは,ある意味において,文法的機能の抽象化とみなすこともできる.たとえば,「です・ます」の使い分けを自動的に行う\brick{丁寧}ブロックは,その典型例である.羽織構造には抽象的な文法的機能が入る余地はないが,ジェネリックブロックを定義することよって,ブリックコードでは文法的機能による記述が可能となる.今のところ,Basicパッケージでは文法的機能の抽象化を強く推進する予定はないが,それを推進したパッケージを作成するのも,一つの可能性としてはありえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文合成の言語依存性}\label{sec:language_dependency}それぞれの言語の文は,その言語に固有の特徴が強く現れるため,文合成のためのソフトウェアは,必然的に,対象言語に強く依存せざるを得ない.Realizationengine(文を表層化するツール)として提案・実装されたSimpleNLG\cite{gatt-reiter-2009-simplenlg}は英語を対象としているが,このツールを基盤として,これまでにドイツ語,フランス語,イタリア語,スペイン語など7言語を対象とした版(adaption)が作られている(たとえば,\cite{braun-etal-2019-simplenlg}を参照のこと).しかしながら,これらの版は,その実現にあたって,対象言語用の辞書,および,形態生成,句生成,語順決定等のルールが新たに実装されており,SimpleNLGの枠組みを借りた別システムと捉える方が適切であろう.SimpleNLGとHB3のアーキテクチャは,大きく異なる.SimpleNLG(とその各言語版)では,ある範囲の言語現象を属性(feature)として抽象化し,その範囲内(coverage)に限定した表層化をサポートする.つまり,表層化できる文の形式には制限がある.同時に,ある種の抽象表現を文(表層文字列)に変換するという伝統的なsurfacerealizer\cite{Reiter}の考え方からは,大きくは逸脱していない.これに対して,HB3は,この考え方から完全に逸脱し,「文を合成するコード(プログラム)を書く」ことによって文合成を自動化するという立場をとる.HB3が提供する基本ブリックは,日本語の文を組み立てるために必要な最低限の道具立てであり,原理的には,あらゆる文を合成できる.このレベルで万能性を担保しつつ,マクロブリックおよびジェネリックブリックという拡張性により,所望の文を合成するコードを簡潔に記述することを可能にしている.HB3がこのような形となったのは,対象言語が日本語であるということと,あらゆる文が想定されうる小説の自動制作が最終ゴールであるということによる.HB3のアーキテクチャは,日本語以外の言語の文合成にも適用できるとは思われるが,それぞれの言語の文法に即したアーキテクチャを考える方が建設的であろう\footnote{文合成システムを突き詰めれば,文をどのようにモデル化するか,すなわち,文法体系に行き着く.文合成システムの実装とは,機械的に実行可能な文法体系の提案とほぼ同義である.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{何が達成できれば完成なのか}HB3はどこに向かうのか.何が達成できれば「できた」とみなすのか.\ref{s:設計思想}章で掲げた目標は,「\textbf{日本語文を合成するコードを,できるだけ簡潔に書けるようにしたい}」であったが,「できるだけ」という表現は相対的であり,絶対的なゴールを規定するものではない.羽織シリーズの最初の版に比べて,文を合成するために記述しなければならない記述量は,格段に減少した.さらに,マクロブリックとジェネリックブリックを多数定義することによって,実際に記述するブリックコードも短くなり,かつ,羽織文法をそれほど意識しなくても書けるようになってきている.それでも,コードを書かなければならないことには変わりはない.試験的に実装した\textbf{羽織テンプレート}は,ブリックコードを書く代わりに,文字列に若干のアノテーションを付加することで,自動的にブリックコードを生成する仕組みである.たとえば,以下の1行目の文字列は,2行目のコードに自動変換されるので,3行目のような生成が可能である.\begin{lstlisting}template="{りんご}を{食べる}"lambda{|args|HB3.basic{述語((args[:食べる]||:食べる),を(args[:りんご]||:りんご))}}g(:タ,template,{食べる::買う}).to_ss=>"りんごを買った"\end{lstlisting}ここで,\texttt{args[:食べる]}は,\texttt{args}(Hashオブジェクト)にアクセスするRubyコードなので,その値が定義されていれば,その値が使われる.つまり,このテンプレートで,「〜を〜」というあらゆる表現が生成できる.羽織テンプレートでは,中括弧で括られた部分がテンプレートのスロットで,その中身がデフォールトのフィラーとして解釈される.このテンプレートはブリックコードに変換されるので,\brick{タ}のようなブリック\footnote{メソッド\texttt{g}の第1引数の「\texttt{:タ}」は,\brick{lexal}ではなく,1引数のブリックと解釈される.}が結合可能である.現時点で羽織テンプレートがサポートしているのは単文のみであるが,アノテーションの記法を拡張して,より複雑な文をブリックコード化することも,原理的には可能である.記述量を究極まで減らす方法は,文字列として記述した文を,ブリックコードに変換する方法である.しかし,その実現には,背後で形態素解析や構文解析を動かさなければならなず,解析誤りが混入する可能性を排除できない.ただし,文末のみが正しく解析できればよいと割り切れば,この方法も現実的な選択肢に入ってくる\cite{Sano2020}.\ref{sec:rewrite}節の具体例は,この方法で実装している.いずれにせよ,何が達成できれば「できた」とみなすのかは,\underline{できてみなければわからない}.この研究のゴールを見つけること自身が,この研究のゴールである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
\label{sec:conclusion}本稿では,日本語文を合成するためのドメイン特化言語HaoriBrick3(HB3)の設計思想と実現・実装のための工夫,および,HB3の利用例について述べた.最後に,HB3に至る羽織シリーズの開発を通して明らかになったと私が考えているのことを,以下に示す.\begin{itemize}\itemこれまでの文法は,文の解析,すなわち,「実際に存在する文の構造(や意味)をどう解釈するか」に焦点があった.日本語文の機械的合成のための文法は,解析のための文法とは異なる様相を呈する.たとえば,品詞は重要ではなく,活用型の方がより重要である.文節係り受け構造よりも,羽織構造のような構造の方が適している.\item日本語の文合成のための文法の中核は,機能語(表現)を列挙し,それぞれの機能語の働きを明らかにすることに帰着できる.明らかにしなければならない機能語の数(オーダー)は,数千である.日常的に使われる書き言葉の範囲であれば,2,000程度に収まるだろう.\item日本語文を構成する要素の中で,特に複雑な部分は,(1)述語の形式(述語接尾辞・助動詞の付与),(2)従属節の節末形式,(3)とりたて,(4)敬語表現,である.\item実際に文を合成する際には内容語が必要となるが,HB3では,それが内容語であるとわかれば十分である.つまり,内容語の辞書を用意する必要はない.このことは,個別アプリケーション用の文合成コードを書く際に,非常に大きな長所(省力化)となる.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本稿の\ref{sec:language_dependency}節と第\ref{sec:conclusion}章,付録\ref{sec:変遷}は,査読者の提案により追加した.有益な提案に感謝する.本研究は以下の助成を受けて実施した.JSPS科学研究費補助金基盤研究(B)「文章の読解と産出のための言語処理」(課題番号15H02748),同挑戦的萌芽研究「発話に対するキャラクタ重畳機構の実現」(課題番号15K12179),同挑戦的萌芽研究「ブロック玩具をモデルとする日本語文章合成ツールキットの設計と実装」(課題番号17K20028),同基盤研究(B)「日本語文章の構造モデルとその段階的詳細化による文章自動生成機構」(課題番号18H03285).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Braun,Klimt,Schneider,\BBA\Matthes}{Braunet~al.}{2019}]{braun-etal-2019-simplenlg}Braun,D.,Klimt,K.,Schneider,D.,\BBA\Matthes,F.\BBOP2019\BBCP.\newblock\BBOQSimpleNLG-DE:AdaptingSimpleNLG4toGerman.\BBCQ\\newblockIn{\BemProceedingsofthe12thInternationalConferenceonNaturalLanguageGeneration},\mbox{\BPGS\415--420}.\bibitem[\protect\BCAY{CoGenTexInc.}{CoGenTexInc.}{2000}]{RealPro}CoGenTexInc.\BBOP2000\BBCP.\newblock{\Bem{\scRealPro}GeneralEnglishGrammarUserManual}.\bibitem[\protect\BCAY{Gatt\BBA\Reiter}{Gatt\BBA\Reiter}{2009}]{gatt-reiter-2009-simplenlg}Gatt,A.\BBACOMMA\\BBA\Reiter,E.\BBOP2009\BBCP.\newblock\BBOQSimpleNLG:ARealisationEngineforPracticalApplications.\BBCQ\\newblockIn{\BemProceedingsofthe12thEuropeanWorkshoponNaturalLanguageGeneration(ENLG2009)},\mbox{\BPGS\90--93}.\bibitem[\protect\BCAY{木村\JBA夏目\JBA佐藤\JBA松崎}{木村\Jetal}{2018}]{Kimura-JSAI2018}木村遼\JBA夏目和子\JBA佐藤理史\JBA松崎拓也\BBOP2018\BBCP.\newblock発話表現文型辞書を利用した多様な発話文生成機構.\\newblock\Jem{2018年度人工知能学会全国大会(第32回)},\mbox{2E2--02}.\bibitem[\protect\BCAY{金水}{金水}{2003}]{Kinsui2003}金水敏\BBOP2003\BBCP.\newblock\Jem{ヴァーチャル日本語役割語の謎}.\newblock岩波書店.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{MTG1992}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法―改訂版―}.\newblockくろしお出版.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2003--2010}]{GendaiNihongoBunpou}日本語記述文法研究会\JED\\BBOP2003--2010\BBCP.\newblock\Jem{現代日本語文法(全7巻)}.\newblockくろしお出版.\bibitem[\protect\BCAY{緒方\JBA佐藤\JBA松崎}{緒方\Jetal}{2015}]{Ogata-JSAI2015}緒方健人\JBA佐藤理史\JBA松崎拓也\BBOP2015\BBCP.\newblock文節木の段階的実体化による日本語文生成器の作成.\\newblock\Jem{2015年度人工知能学会全国大会論文集},\mbox{3M3--1}.\bibitem[\protect\BCAY{緒方\JBA佐藤\JBA松崎}{緒方\Jetal}{2016}]{Ogata-NLP2016}緒方健人\JBA佐藤理史\JBA松崎拓也\BBOP2016\BBCP.\newblock日本語文生成器Haoriにおける複文合成.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\334--337}.\bibitem[\protect\BCAY{Perrotta}{Perrotta}{2015}]{metaprogramming}Perrotta,P.(角征典訳)\BBOP2015\BBCP.\newblock\Jem{メタプログラミングRuby第2版}.\newblockオライリー・ジャパン.\bibitem[\protect\BCAY{Reiter\BBA\Dale}{Reiter\BBA\Dale}{2000}]{Reiter}Reiter,E.\BBACOMMA\\BBA\Dale,R.\BBOP2000\BBCP.\newblock{\BemBuildingNaturalLanguageGenerationSystems}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{佐野\JBA佐藤\JBA宮田}{佐野\Jetal}{2020}]{Sano2020}佐野正裕\JBA佐藤理史\JBA宮田玲\BBOP2020\BBCP.\newblock文末述語における機能表現検出と文間接続関係推定への応用.\\newblock\Jem{言語処理学会第26回年次大会発表論文集},\mbox{\BPGS\1483--1486}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2015}]{Sato-NLP2015}佐藤理史\BBOP2015\BBCP.\newblock「文生成器を作る」とはどういうことか.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\1080--1083}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2016}]{Sato2016}佐藤理史\BBOP2016\BBCP.\newblock\Jem{コンピュータが小説を書く日}.\newblock日本経済新聞出版社.\bibitem[\protect\BCAY{佐藤}{佐藤}{2017}]{Sato-NLP2017}佐藤理史\BBOP2017\BBCP.\newblockHaoriBricks:ブロック玩具に学ぶ日本語文章生成ライブラリ.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\20--23}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2018}]{Sato-NLP2018}佐藤理史\BBOP2018\BBCP.\newblock述語取り立て形式の整理と文生成器への実装.\\newblock\Jem{言語処理学会第24回年次大会発表論文集},\mbox{\BPGS\53--56}.\bibitem[\protect\BCAY{平良\JBA佐藤\JBA宮田\JBA今頭}{平良\Jetal}{2019}]{Taira2019}平良裕汰朗\JBA佐藤理史\JBA宮田玲\JBA今頭伸嘉\BBOP2019\BBCP.\newblockダイレクト広告コピー文の分析と自動生成.\\newblock\Jem{言語処理学会第25回年次大会発表論文集},\mbox{\BPGS\406--409}.\bibitem[\protect\BCAY{柳\JBA佐藤}{柳\JBA佐藤}{2020}]{Yanagi2020}柳将吾\JBA佐藤理史\BBOP2020\BBCP.\newblockウィキペディアから抽出した人物エピソードの話し言葉への変換.\\newblock\Jem{言語処理学会第26回年次大会発表論文集},\mbox{\BPGS\437--440}.\end{thebibliography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{羽織文法に関する補足}
\label{s:羽織文法補足}羽織文法の定義にあたっては多くの資料を参照したが,特に参考にしたのは,益岡・田窪文法\cite{MTG1992}と『現代日本語文法1--7』\cite{GendaiNihongoBunpou}である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{活用体系}羽織文法の活用体系は,益岡・田窪文法,および,Jumanの活用体系に準拠している.それらからの大きな変更点は,次の2点である.\begin{enumerate}\item列活用を考えない(廃止する)\item末尾が「ない」のイ形容詞の活用型を細分化する($\rightarrow$\S\ref{s:活用型の自動推定})\end{enumerate}羽織文法では,判定詞は「だ」のみを認め,「である」と「です」は,それぞれ,次のようにみなす.\begin{description}\item[である]「判定詞だ」のテ形「で」に,「取立助動詞ある」が接続したもの\item[です]「判定詞だ」のダ消失形に,「丁寧接尾辞です」が接続したもの\end{description}「である」の形式は,「で\underline{は}ある」,「で\underline{も}ある」のように,いわゆる取立助詞の挿入が可能である.この形式と,取立助詞の挿入がない形式との一貫性を重視し,「デアル列」とはみなさない.「です」の形式は,それほど強い理由がないが,列活用の存在は活用体系を複雑化するので,これも「デス列」とみなさい.なお,ナ形容詞に関しても,同様の扱いとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{機能語}羽織文法の中核を担うのは,機能語のリストである.羽織文法では,\underline{機能語はすべて列挙する}.機能語の一覧を表\ref{tab:機能語1}と表\ref{tab:機能語2}に示す.機能語は,大きく,活用しない助詞と,活用する判定詞,助動詞,述語接尾辞に分けられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\caption{羽織文法の機能語一覧(1)活用しない機能語}\label{tab:機能語1}\input{11table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\caption{羽織文法の機能語一覧(2)活用する機能語}\label{tab:機能語2}\input{11table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの機能語(表記)には,すべて固有の名称(ID)を付与してある.原則として,機能語の中分類をプレフィックスとし,それに表記を組み合わせたものをIDとする.この方法で区別できない場合は,なんからの文字を付与して区別する.たとえば,羽織文法では,接続助詞「が」として,「本を書いた\underline{が}」のような一般的な「が」以外に,王族のような高貴なキャラクタが臣下に許可を与える際に使う「書く\underline{が}いい」の「が」も認める.後者は「接続助詞が終止」として,前者の「接続助詞が」と区別する\footnote{前者が終止形とタ形に接続可能なのに対し,後者は終止形だけに接続可能なので,接続型が異なる.}.機能語のリストは,Jumanの基本辞書を出発点に,各種の資料を参照しながら,最終的には私の言語直感に基づいて定めた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{助詞}\label{s:助詞}助詞は,格助詞,副助詞,接続助詞,終助詞の通常の細分類以外に,以下に示す引用助詞,並列助詞,連体助詞,疑問助詞,連用助詞という細分類を設ける.取立助詞という分類は設けず,副助詞に含める(Jumanの扱いを踏襲する).\begin{enumerate}\item引用助詞引用を表す助詞で,その代表格は「と」である.\item並列助詞---並列構造を作る助詞で,その代表格は「と」や「や」である.\item連体助詞---連体修飾を構成する助詞で,その代表格は「の」である.\item疑問助詞---「か」と「かどうか」を終助詞から分離したものである.\item連用助詞---よくわからない(判定詞由来と考えられる)「に」と「で」を便宜的に収容するために設けたもの($\rightarrow$\S\ref{s:スマホ})で,この2語のみである.\end{enumerate}なお,現時点では,終助詞の網羅性が低い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{判定詞}前述の通り,判定詞は「判定詞だ」しかない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{助動詞}助動詞は,次のように細分類する.\begin{enumerate}\item終止助動詞---終止形に接続する助動詞\item終タ助動詞---終止形・タ形に接続する助動詞.\item連体助動詞---連体修飾の形式に接続する助動詞.\item丁寧助動詞---丁寧体を作る助動詞.\itemテ助動詞---直前の述語にテ形を要求する.直前に取立助詞の挿入を許す.\itemタリ助動詞---直前の述語にタリ形を要求する.\item取立助動詞---述語の取立形式を作る助動詞.直前に取立助詞の挿入を許す.\item連用助動詞---「連用助動詞ござる」のみ.「〜にござる・ございます」の形式を作る.\end{enumerate}終止・終タ・連体・丁寧助動詞の4種類は,益岡・田窪文法の助動詞に対応する.テ・タリ・取立・連用助動詞は独自の分類で,益岡・田窪文法とは異なる扱いである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{述語接尾辞}述語接尾辞とは,(複雑な)述語を構成する接尾辞で,それ以外の接尾辞と区別して扱う.羽織文法の述語接尾辞は,Jumanの述語性接尾辞に,おおよそ対応する.述語接尾辞は,次のように細分類する.\begin{enumerate}\itemボイス接尾辞---ボイスに関わる接尾辞.「れる」,「られる」など.\item否定接尾辞---否定に関わる接尾辞.「ない」,「ぬ」など.\item可能接尾辞---可能に関わる接尾辞.「できる」,「うる」など.\itemテ縮約接尾辞---テ形が縮退した形式をとる接尾辞.「ちまう」など.\item意志接尾辞---「(書か)ん」のみ.\item相接尾辞---アスペクトに関わる接尾辞.「(殴り)かかる」,「(書き)かける」.\item様相接尾辞---動詞に接続し,ある種の様相を表す接尾辞.「たい」,「すぎる」など.\item丁寧接尾辞---丁寧形に関わる接尾辞.「です」,「ます」など.\item敬語接尾辞---敬語表現に関わる接尾辞.「くださる」,「なさる」など.\item特殊接尾辞---「や」のみ.(判定詞・ナ形容詞のいわゆるヤ列)\item述語性接尾辞---述語を作る接尾辞.「する」,「的だ」など.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{接続型}接続型の枠組みは確立されているが,具体的な接続型の定義は,いまだに発展途上にある.現時点では,89種類の接続型が定義されているが,安定状態にはほど遠く,問題が生じるたびに修正を繰り返している.その理由は,次の2つである.\begin{itemize}\item接続型という概念自身が新規なため,まとまった資料が存在しない.\item機能語の振る舞いは,それぞれ微妙に異なることが多い.\end{itemize}接続型の安定化は,羽織文法の大きな課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{羽織シリーズの変遷}
\label{sec:変遷}羽織シリーズの出発点は,2015年に実装したHaori\cite{Sato-NLP2015,Ogata-JSAI2015,Ogata-NLP2016}である.Haoriは,文構造として文節係り受け構造(木構造)を採用し,木構造のそれぞれの文節に対して,主要部(内容語)と機能部を記述する方式を採用した.2016年秋に,ブロック玩具のアナロジーを基本アイディアとする新方式を採用し,記述形式としてブリックコードを採用した.同時に,文の構造として羽織構造を採用し,文節係り受け構造と決別した.これが,HaoriBricks\cite{Sato-NLP2017,Sato-NLP2018}である.本論文で述べた新機軸の大半は,HaoriBricksの開発過程で具現化された.HaoriBricks3(HB3)は,2018年春から開発しているHaoriBricksの再実装・機能強化版である.HB3では,羽織文法の体系化を推し進め,プログラムを全面的に書き直した.HB3は,準備が整い次第,公開する予定である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{佐藤理史}{%1988年京都大学大学院工学研究科博士後期課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.博士(工学).本学会,人工知能学会,情報処理学会,日本認知科学会,ACM各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
| |
V07N02-01
|
\section{はじめに}
コンピュータで利用する電子化文書データの増大に伴って,文書の自動分類に関する研究開発が非常に活発であり,文書全体の情報を利用して,類似度を計算するベクトルモデル\cite{長尾他1996,野村1999,徳永他1994}や確率モデル\cite{Fuhr1989}の技術が確立されてきた.しかしながら,実際の文書は,複数の話題や分野を混合して含み,検索したい内容は文書の一部分(断片)に存在する場合がほとんどであるので,文書全体を検索対象とするのではなく,検索要求に合致した文書断片のみを抽出するパッセージ検索技術が着目されている\cite{Callan1994,Kaszkiel1997,Melucci1998,望月他1999,Salton1993}.特に,人間は文書全体を読むことなしに,代表的な単語を見るだけで,<政治>や<スポーツ>などの分野を認知できることから,文書断片内の数少ない単語情報から分野を的確に決定するための分野連想語セットの構築は重要な研究課題である.文書全体の情報を利用するモデルでは,誤った重要語の多少の過剰抽出は補正されるが,本論文では,文書断片を対象とするので,誤った連想語を過剰抽出する割合を限りなく零にできる抽出法の実現を目標とする.連想語の水準に関連する研究として,統計情報を利用して単語の重要度(重み)を決定する方法\cite{Salton1988,Salton1983,Salton1973,徳永他1994},単語の重み付けを学習する方法\cite{福本他1999}があり,また単語の概念や意味情報を利用する方法\cite{亀田他1987,Walker1987},意味的に関係のある名詞をリンク付けする手法\cite{福本他1996}などが提案されている.しかしながら,これら手法では,本論文の目標である高い適合率(過剰抽出が少ないことを意味する)には十分な関心が払われていない.また,シソーラスなどの分類体系を利用する手法は,単語の統計情報のみに依存する手法に比べて精度向上が期待できるが,分類体系と単語間の対応関係を事前に構築しておいて,文書の特徴を学習する方法\cite{河合1992,山本他1995}では,データスパースネス\cite{福本他1996}の問題があり,十分な精度向上は得られていない.また,分類体系の特徴を規則として学習する手法\cite{Blosseville1992}では,高い精度を実現しているが,実験のデータ規模が小さく,解析も複雑であるので,現段階では実用性に難がある.更に,分類体系から分野決定するためのルールを機械学習する方法\cite{Apte1994}では,文書分類精度がBreakevenpoint(再現率と適合率が一致する値)で最高約0.80まで向上しているが,本研究が目標とする精度には達していない.また,複合語の連想語の決定に関連する研究として,複合語のキーワード抽出手法\cite{伊藤他1993,小川他1993,林他1997,原他1997}があるが,人手で修正した短単位語キーワードを利用して複合語キーワードを決定する手法は議論されていない.本論文では,固定された分野体系と学習データを利用し,誤った連想語の割合が数パーセント以下となる抽出法を提案する.本手法では,単語数が有限である短単位語の連想語を人手で修正し,この短単位語の連想情報を利用して,無限に造語される複合語の連想語を自動決定する.以下,2~章では分野連想語の水準と安定性ランクを説明し,3~章では学習データから連想語候補を自動決定する方法と短単位語の人手による修正法を述べる.4~章では複合語の連想語の決定法を提案し,5~章では180分野に分類された約15,000ファイルの実験結果により,提案手法の有効性を実証する.6~章では本論文をまとめ,今後の課題を述べる.\vspace{-2mm}
\section{分野連想語の水準}
\vspace{-2mm}\subsection{準備}形態素解析の辞書に登録されている語を短単位語\footnote{未登録語は連想語の対象としない.}と呼び,2語以上から構成される語を複合語と呼ぶ.これら短単位語や複合語を単語と呼び,``''内に記述する.また,短単位語の分野連想語を{\bf短単位連想語},複合語の分野連想語を{\bf複合連想語}と略記する.但し,それぞれ一つの接辞と名詞で構成される一般的な複合語(``消費税'',``核燃料'',``温暖化''など)は,細分化することで分野情報が失われるので,短単位語として取り扱う.また,高校名``鹿児島商工''や会社名``NTT東京''などの固有名詞(人名以外)も短単位語とする.更に,固有名詞(人名)については,``長島茂雄''のように姓名で文書中に存在する場合はそのまま短単位語とし,``長島監督''のように普通名詞との複合語であれば,``長島''と``監督''を独立の短単位語とする.なお,用語集imidas\cite{戸澤1998}において三つ以上の短単位語で構成される複合語(1,000個)の分析調査では,新しい連想語が検出できなかったので,以後,二つの短単位語で構成される複合連想語を議論の対象とする.以後,分野体系を分野木,分野木の葉に相当する分野を{\bf終端分野},終端分野以外は{\bf中間分野}と呼ぶ.本論文では,付録の分野木を利用する.この分野木の全分野数は180個であり,中間分野数は22個,終端分野158個(深さ2と3の終端分野はそれぞれ122個,36個)である.また,直接の上位分野,下位分野をそれぞれ親分野,子分野と呼ぶ.分野の指定は分野名のパス$<S>$で記述するが,根に相当する<全体分野>は省略する.例えば,\mbox{分野パス$<S>=$<ス}ポーツ¥相撲>は<スポーツ>の下位の終端分野<相撲>を表す.また,特に矛盾が生じない場合はパス指定を省略して終端分野のみで説明する.また,<>内の分野名と区別するために,意味や概念名などは[]内に記述する.\subsection{分野連想語における水準と安定性ランク}単語は唯一の終端分野や中間分野を特定する場合,あるいは複数の終端分野や中間分野を特定する場合があるので,連想語の水準を次に定義する.\\{\bf【定義1】連想語wの分類と水準}\begin{description}\item[(水準1)]完全連想語$w$:$w$は唯一の終端分野のみを連想する.\item[(水準2)]準完全連想語$w$:同じ親分野をもつ終端分野の中で限られた複数の終端分野のみを連想する.\item[(水準3)]中間連想語$w$:$w$は完全連想語,準完全連想語でなく,唯一の中間分野を連想する.\item[(水準4)]多分野連想語$w$:$w$は完全連想語,準完全連想語,中間分野連想語でなく,\mbox{複数の}中間分野や終端分野を連想する.\item[(水準5)]非連想語$w$:$w$は水準1〜4以外であり,特定分野を連想しない.\end{description}水準1の完全連想語は,``横綱''のように終端分野<相撲>を一意に特定する.水準2の準完全連想語は``シングルス'',``ダブルス''のように同じ親分野<スポーツ>内の複数の終端分野<テニス>,<卓球>,<バトミントン>を特定する.水準3の中間連想語は,``試合''のように,終端分野は特定できないが,一つの中間分野<スポーツ>を特定する.また,水準4の多分野連想語``勝敗''は,複数の終端分野<趣味・娯楽¥将棋>,<政治¥選挙>や中間分野<スポーツ>を特定する.水準5の非連想語は,``場合'',``使用''のように分野を特定しない単語である.次に,重要なことは,分野連想語が時間経過により変化することである.例えば,<野球>であれば``投手'',``捕手''などは変化しない安定した連想語であるが,高校野球の優勝校や選手名は短期間で変化する不安定な連想語である.また,プロ野球のチーム名や有名選手も高校野球ほど変化期間は短くないが,不変なものではない.このように,安定性の低い連想語は固有名詞に多いと考えられ,特に人名の安定性は非常に低いと思われる.従って,短単位連想語には,{\bf安定性(stability)ランク}を高い順に普通名詞をa,固有名詞(人名以外)をb,固有名詞(人名)をcに割り当てる.
\section{分野連想語候補の決定手法}
\subsection{分野連想語と水準の決定アルゴリズム}学習データを各終端分野に均一に収集するのは難しいので,終端分野$<S>$に出現する全ての単語の合計頻度を$T(<S>)$とし,単語$w$の分野$<S>$の頻度を$F(w,<S>)$で表すとき,以後,終端分野$<S>$における単語$w$の頻度は次のように正規化\mbox{した頻度$R(w,<S>)$を使用}する.\[R(w,<S>)=(F(w,<S>)/T(<S>))\cdot\gamma\]ここで,$F(w,<\hspace{-0.05mm}S\hspace{-0.05mm}>)/T(<\hspace{-0.05mm}S\hspace{-0.05mm}>)$は非常に小さな値となるので,\mbox{適切な定数$\gamma$により,$R(w,<\hspace{-0.05mm}S\hspace{-0.05mm}>$}\break$)$を整数に調整する.以下に示す付録の分野木の例では,$\gamma=105$とした.中間分野$<S'>$\breakにおける単語$w$の頻度$R(w,<S'>)$は,$<S'>$の下位に存在するすべての終端分野$<S>$の\break$R(w,<S>)$を合計した頻度とする.分野$<\hspace{-0.05mm}S'>$を分野$<\hspace{-0.05mm}S\hspace{-0.05mm}>$の親分野とするとき,分野$<\hspace{-0.05mm}S\hspace{-0.05mm}>$における単語$w$の集中率$P(w,<\hspace{-0.05mm}S\hspace{-0.05mm}>$\break$)$を次で定義する.\[P(w,<S>)=R(w,<S>)/R(w,<S'>)\]次に,分野連想語の決定アルゴリズムAを示す.\\{\bf【アルゴリズムA:分野連想語候補の決定】}\\{\bf入力:}各分野$<S>$を連想する単語$w$の頻度$R(w,<S>)$,分野木.\\{\bf出力:}$w$が連想語になるならば,連想する分野と水準.\\{\bf(手順A1){完全連想語(水準1)の決定}}分野木の根\hspace{-0.1mm}$<S>$\hspace{-0.1mm}の子分野\hspace{-0.1mm}$<S¥C>$\hspace{-0.1mm}において,単語\hspace{-0.1mm}$w$\hspace{-0.1mm}が集中するか否かを条件式$P(w,<S¥$\mbox{$C>)\ge\alpha$}で判定し\footnote{$\alpha$は0.5より大きい値を想定しているので,この条件を満足する単語$w$は高々1個である.},条件式を満足すれば,$<S¥C>$を$<S>$に改めて,\mbox{更に下位の子分野へ}と同様な判定を繰り返す.この繰り返し処理で\hspace{-0.1mm}$<S¥C>$\hspace{-0.1mm}が終端分野になれば,$w$を分野$<S¥$$C>$の完全連想語に決定する.この処理で,条件式を満足する\hspace{-0.1mm}$<\hspace{-0.02mm}S>\hspace{-0.02mm}$\hspace{-0.1mm}の子分野\hspace{-0.1mm}$<\hspace{-0.02mm}S¥C\hspace{-0.02mm}>$\hspace{-0.1mm}が存在しない場合は,次へ進む.\\{\bf(手順A2){準完全(水準2)と中間連想語(水準3)の決定}}分野$<S>$の$m(\ge2)$個の全ての子分野$<S¥C>$から,\begin{equation}P(w,<S¥C>)\geR(w,<S>)/m\end{equation}なる$<S¥C>$を抽出し,$P(w,<S¥C>)$を大きい順に累積加算し,$k(1<k<m)$個の加\break算で初めて合計値が$\alpha$を越える場合,$k$個の子分野$<S¥C>$が全て終端分野ならば,$w$を分野\break$<S¥C>$の準完全連想語に決定する.全てが終端分野でなければ,次へ進む.但し,累積加算の値が$\alpha$を越えなければ,$w$を分野$<S>$の中間連想語に決定する.\\{\bf(手順A3){多分野連想語の決定}}$k$個の子分野$<\hspace{-0.03mm}S¥C\hspace{-0.03mm}>$から,終端分野$<\hspace{-0.03mm}S¥C\hspace{-0.03mm}>$を抽出し,$w$を分野$<\hspace{-0.03mm}S¥C\hspace{-0.03mm}>$の多分野連想\break語とする.終端分野以外の小分野$<S¥C>$を部分分野木の根$<S>$に改めて,手順A1とA2\breakで決定された完全,準,中間連想語の分野に対して,$w$を多分野連想語とする.\begin{flushright}{\bf(アルゴリズム終)}\end{flushright}なお,手順A2の式(1)は,子分野の候補を平均頻度以上に制限しているが,これは低い頻\break度の子分野を候補に入れると$<S>$の多くの子分野$<S¥C>$が準完全連想語となり,$<S>$の\break中間連想語との区別が弱くなるからである.この点は実験評価でも議論される.連想語の水準決定の例として,付録の分野木の一部を図~1~に示し,``横綱'',``シングルス'',\mbox{``勝敗''の各分野での頻度を}()内に示す.なお,<分野全体>の子分野数は12,<スポーツ>,<趣味・娯楽>,<政治>の子分野数はそれぞれ19,13,14であり,基準値$\alpha=0.92$として,連想語と水準の決定を説明する.\begin{figure}[t]\begin{center}\epsfile{file=fig1.eps,scale=.8}\end{center}\caption{分野連想語の水準決定の例}\end{figure}$w=\mbox{``横綱''}$,$<S>=<分野全体>$,$<C>=<スポーツ>$に対して,\[P(w,<S¥C>)=R(w,<S¥C>)/R(w,<S>)=236/243=0.97\ge\alpha=0.92\]より,$w$は$<S¥C>$に集中するので,$<S>=<分野全体¥スポーツ>$と改めて,下位の終端分野$<C>=<相撲>$に対して判定すると,$P(w,<S¥C>)=231/236=0.98\ge\alpha=0.92$となり,``横綱''は<相撲>への完全連想語と決定される.次に,$w=\mbox{``シングルス''}$では,$<S>=<分野全体¥スポーツ>$の下位分野で$w$が$\alpha$以上で集中す\mbox{る分野は存在しない.ここ}で,<スポーツ>の子分野$<C>=<テニス>$,<卓球>,<バトミントン>は式(1)\[P(w,<S¥C>)>R(w,<S¥C>)/m=351/19=18.74\]を満足し,大きい順に$P(w,<S¥C>)$をそれぞれ累積加算すると,\[142/351+105/351+93/351=0.97\ge\alpha=0.92\]となり,しかも$<S¥C>$は全て終端分野であるので,``シングルス''は<テニス>,\mbox{<卓球>,}<バトミントン>の準完全連想語に決定される.ここで,中間連想語を説明するために,<スポーツ>の子分野を$<C>=<テニス>$,<卓球>,<バトミントン>の$3(=m)$\mbox{種類と仮定}すると,\[P(w,<S¥C>)>R(w,<S>)/m=(142+105+93)/3=113.3\]なる$<C>$は<テニス>のみとなるので,``シングルス''は<スポーツ>への中間連想\mbox{語に決定}される.また,$w=\mbox{``勝敗''}$は,$<S>=<分野全体>$の唯一の下位分野には集中しないが,$<C>=<スポーツ>$,<趣味・娯楽>,<政治>が次を満足する.\[P(w,<S¥C>)>R(w,<S>)/m=478/13=36.77\]そして,これらの累積加算値0.98は$\alpha=0.92$を越えるが,$<S¥C>$は全て終端分野で\mbox{ないの}で,$<C>=<スポーツ>$,<趣味・娯楽>,<政治>を部分分野木として,手順A1,A2を実行すると,``勝敗''は分野<スポーツ>,<趣味・娯楽¥将棋>,<政治¥選挙>への多分野連想語となる.\vspace{-3mm}\subsection{短単位連想語の決定}\vspace{-1mm}アルゴリズムAによる短単位連想語候補には,水準,安定性ランク,候補語,分野,集中率,頻度情報を提示し,分野とランクを人手で修正する.<野球>の短単位連想語(水準1)の候補\mbox{を示す表~1~において},→は変更を表し,●印は削除を表す.例えば,候補``中前'',\mbox{``青学大''の}分野は削除され,``新監督''の分野は<スポーツ>へ変更されている.また,\mbox{``巨人(球団名)''の}安定性ランクbは,aに変更されている\footnote{この他,``長島茂雄'',``王貞治'',``イチロー''なども,固有名詞(人名)であるが,安定性の高い連想語として一般性があるので,人手の判断でランクaに変更される.この安定性ランクaは,次に述べる冗長連想語除去の重要な情報となる.}.修正された分野情報から,水準の定義1に従い水準欄の変更は自動的に行われる.表~2~には短単位連想語(水準2〜4)の候補を示すが,表~1~とは異なり複数の分野が提示される\footnote{水準3は<スポーツ>への連想語であるが,人手の確認のため下位分野が示される.また,集中率と頻度情報も分野毎に提示されるが,例では省略し,同時に分野数も~3~種類に限定する.また,分野情報のない場合は,空白のままで示してある.}.この修正により,水準2の``初出場''は3に変更され,水準2の``球団側''や水準4の``野茂''は水準1に変更される.なお,このように<野球>の分野以外に``野茂''が出現するのは,``会長+陣野茂(人名)''のような複合語を``会長+陣+野茂''とする形態素解析の誤り(文法的には正しいので,未登録語に判定できない)に起因する場合,<野球>以外の<教育¥外国語教育>の文書に局所的に存在する次のような文に起因する場合がある.\begin{center}``英語ができないのにがんばる野茂投手は、本当にえらい。''\end{center}但し,この水準変更では,解析誤りによる不当な連想語を高く評価することになるので,形態素解析の誤りに起因する連想語は安全のため水準を低いままにすることも考えられる.しかしながら,上記の二つの原因を全て確認することは大変な労力を必要とするし,このような形態素解析の誤りはいずれは修正できると仮定して,上記の水準変更を実施した.なお,この水準変更については,5~章で有効性を評価している.短単位連想語の人手の修正は,このような連想語候補の不適切な分野を除去するために有効である.\begin{table}[t]\caption{<野球>に対する短単位連想語候補(水準1)の例}\begin{center}\begin{tabular}{cccccc}\hline\hline水準&安定性ランク&連想語候補&分野&集中率&頻度\\\hline1&b→a&巨人&<スポーツ¥野球>&0.99&944\\1&a&投手&<スポーツ¥野球>&0.99&703\\1&b&西武&<スポーツ¥野球>&1.00&697\\1&a&野球&<スポーツ¥野球>&0.96&692\\1&a&本塁打&<スポーツ¥野球>&1.00&442\\1&c&長嶋&<スポーツ¥野球>&0.99&231\\1→5&a&中前&●<スポーツ¥野球>&1.00&74\\1→5&b&青学大&●<スポーツ¥野球>&0.93&64\\1→3&a&新監督&<スポーツ¥野球>&0.92&22\\&&&→<スポーツ>\\1&a&選球眼&<スポーツ¥野球>&1.00&3\\1&a&baseball&<スポーツ¥野球>&1.00&2\\\hline\end{tabular}\end{center}\end{table}\begin{sidewaystable}[p]\caption{<スポーツ>に対する短単位連想語候補(水準2,3,4)の例}\begin{center}\small\begin{tabular}{cccccc}\hline\hline水準2&安定性ランク&連想語候補&分野1&分野2&分野3\\\hline2&a&先発&<スポーツ¥野球>&<スポーツ¥サッカー>\\2&a&先制&<スポーツ¥野球>&<スポーツ¥サッカー>&<スポーツ¥ラグビー>\\2&a&勝ち点&<スポーツ¥野球>&<スポーツ¥サッカー>&<スポーツ¥ヨット>\\2→3&a&初出場&<スポーツ¥野球>&●<スポーツ¥サッカー>&●<スポーツ¥ゴルフ>\\&&&→<スポーツ>\\2→5&a&歯車&●<スポーツ¥野球>&●<スポーツ¥サッカー>&●<スポーツ¥バレーボール>\\2→1&a&球団側&<スポーツ¥野球>&●<スポーツ¥サッカー>\\2&c&金本&<スポーツ¥野球>&<スポーツ¥サッカー>\\\hline\hline水準3&安定性ランク&連想語候補&分野1&分野2&分野3\\\hline3&a&試合&<スポーツ¥野球>&<スポーツ¥サッカー>&<スポーツ¥バレーボール>\\3&a&首位&<スポーツ¥ゴルフ>&<スポーツ¥サッカー>&<スポーツ¥ヨット>\\3&b&バルセロナ&<スポーツ¥野球>&<スポーツ¥柔道>&<スポーツ¥陸上>\\3→5&a&立ち上がり&●<スポーツ¥野球>&●<スポーツ¥バスケットボール>&●<スポーツ¥ラグビー>\\3→5&a&中盤&●<スポーツ¥野球>&●<スポーツ¥ボクシング>&●<スポーツ¥陸上>\\3&a&選手&<スポーツ¥サッカー>&<スポーツ¥野球>&<スポーツ¥バレーボール>\\3→5&a&右足&●<スポーツ¥サッカー>&●<スポーツ¥相撲>&●<スポーツ¥野球>\\\hline\hline水準4&安定性ランク&連想語候補&分野1&分野2&分野3\\\hline4&a&監督&<スポーツ¥サッカー>&<スポーツ¥野球>&<娯楽・趣味¥映画>\\4&a&勝負&<スポーツ>&<趣味・娯楽¥将棋>&<趣味・娯楽¥競馬>\\4→5&c&村田&●<スポーツ¥野球>&●<スポーツ¥ラグビー>&●<政治¥日本政治>\\4→1&c&野茂&<スポーツ¥野球>&●<娯楽・趣味¥将棋>&●<娯楽・趣味¥TV>\\4→2&b&東洋大&●<スポーツ¥野球>&<教育¥学校行事>&<教育¥外国語教育>\\4&a&トレード&<スポーツ¥野球>&<経済¥株式・債権>&<経済¥世界経済>\\4&a&バッテリー&<スポーツ¥野球>&<環境問題¥環境・エネルギー>&<科学・技術¥宇宙開発>\\\hline\end{tabular}\end{center}\end{sidewaystable}
\section{複合語の分野連想語の決定}
\subsection{短単位語の分野継承に基づく複合連想語の分析}複合名詞の統語的構成については,通常,右側の語基の品詞が複合語の文法的主要語となり,全体の品詞を決定する.同様に,右側にある統語的主要部が,語彙的主要部と一致しているとき,それは類別名辞(taxonomicclassterm)と言うことができる\cite{油井1997,Williams1981}.この場合,左側の語基は右側の修飾辞であるので,右側の語基の意味は複合語(下位語)へ継承され,分野情報の継承にも関係する.例えば,``鍋''には二つの意味[料理の道具],[食べ物]があり,分野は<趣味・娯楽¥料理・食べ物>である.そして,複合語``圧力+鍋''と``ジンギスカン+鍋''の左の語基``圧力''と``ジンギスカン''は,右の語基``鍋''の意味を限定する修飾辞であり,``鍋''の意味を継承する.分野情報も同様に継承して,``鍋''と同じ分野<料理・食べ物>を連想する.しかし,右側の語基のメタファー的転意により,左側の語基が類別名辞となり,分野連想が変化する場合がある.``戦争''の本来の意味は分野<社会¥戦争・紛争>を連想するので,``湾岸+戦争''にはその意味を継承できるが,``受験+戦争''の``戦争''は比喩的に用いられており,本来の戦争を意味するものではない.右側の``戦争''は統語的主要語であるが,語彙的主要語ではない.この場合,左側の``受験''が語彙的主要部,また類別名辞となり,連想する分野は<教育¥受験・入試>となる.特に,このようなメタファー的転意は限りなく生じるので,連想語を単語の意味情報\cite{河合1992}だけで捉えることは困難である.更に,右側の語基にメタファー的な転意がなくても,左側の語基が語彙的主要部,類別名辞となる場合もある.例えば,``チャンコ+鍋''は,``鍋''の意味継承により<料理・食べ物>も連想するけれども,<相撲>も連想する.この場合は,語彙的主要部となる左側の``チャンコ''の分野<料理・食べ物>と<相撲>を継承していることになる.但し,同じ分野を同じ水準で継承する``チャンコ+鍋''は,複合連想語としては冗長であるので,本手法では除去される.以上より,複合連想語はその構成語(左右の語基に区別なく)の分野を継承し,類似した分野を連想しやすい性質をもつ.また,継承情報のない水準5の構成語``九州'',``場所''から,<相撲>への水準1の新しい複合連想語``九州+場所''が生まれる場合もある.更に,<野球>への連想語候補``ぬるま湯+体質''や``法政大+進学''のように,明らかに異なる分野情報を継承する構成語を含む場合もあるが,この場合は,当然ながら複合連想語にはなりにくい性質がある.以上の考察に基づいて,{\bf継承(Inheritance)ランク}を次に定義する.<全体分野>でない二つの分野$<S>$と$<S'>$に対して,$<S>$と$<S'>$が一致する場合,\break$<\hspace{-0.02mm}S'\hspace{-0.02mm}>$が$<\hspace{-0.02mm}S\hspace{-0.02mm}>$の上位である場合,$<\hspace{-0.02mm}S\hspace{-0.02mm}>$と$<\hspace{-0.02mm}S'\hspace{-0.02mm}>$が終端分野で同じ親分野をもつ場合,$<\hspace{-0.02mm}S\hspace{-0.02mm}>$\breakと$<S'>$は類似分野であるという.逆に,類似分野でない$<S>$と$<S'>$は異分野であるとい\breakう.このとき,複合連想語候補$w$とその構成語$x$の特定する分野が類似分野をもつ場合,継承ランクは高いランクAに定義し,類似分野をもたないで異分野情報のみをもつ場合,継承ランクは低いランクCとする.但し,$x$が水準5の非連想語の場合,継承ランクは中間ランクのBとする.例えば,<野球>への連想語候補``東洋大+監督''では,``監督''は表~2~に示すように<野球>と類似分野をもつので,継承ランク値はAとなるが,``東洋大''は表~2~に示すように,<教育>の下位分野への連想語となるので,継承ランク値はCとなる.\subsection{短単位語情報を利用した優先順位の決定}継承と安定性ランクを利用して,複合連想語候補を絞り込むための優先順位を決定する.\renewcommand{\labelenumi}{}\begin{enumerate}\item複合連想語候補の構成語の継承ランク列と安定性ランク列を連接したランク列を決定する.\\例えば,<野球>への連想語候補``長島+監督''の構成語``長島''の継承と安定性ランクはAとc,``監督''の継承と安定性ランクはAとaより,ランク列はAAcaとなる.\itemランク列から連想語候補の{\bf判定基準表}を決定する.表~3~に示すように判定基準表では,まず継承ランクの組み合わせにより,AAからCCまでの~5~段階の優先順位を定義する.但し,ACはAの優性とCの劣性が打ち消し合うので,優劣なしのBBと同じ段階とする.この各~5~段階を安定性ランクのaaからccまでの~5~段階で更に細分化して,合計~25~段階の判定基準を決定する.\item水準$J$に対して,分野$<S>$を連想する候補$w$の集合$W\_SET(J,<S>)$\mbox{を決定し,}その集合の中で,候補語の最大,平均,最小の頻度を決定する.そして,最低頻度から平均頻度までと平均頻度から最大頻度までをそれぞれ~12~等分し,平均頻度を加えた~25~段階の基準頻度を対応させた判定基準表$DECISION(J,<S>)$を定義する.\end{enumerate}\begin{table}[t]\caption{判定基準表}\begin{center}\begin{tabular}{rccr}\hline\hline段階&継承ランク列&安定性ランク列&基準頻度\\\hline1&AA&aa&3\\2&AA&ab&6\\3&AA&ac-bb&8\\4&AA&bc&11\\5&AA&cc&13\\6&AB&aa&15\\7&AB&ab&18\\8&AB&ac-bb&20\\9&AB&bc&23\\10&AB&cc&25\\11&AC-BB&aa&27\\12&AC-BB&ab&30\\13&AC-BB&ac-bb&32\\14&AC-BB&bc&40\\15&AC-BB&cc&48\\16&BC&aa&56\\17&BC&ab&64\\18&BC&ac-bb&72\\19&BC&bc&80\\20&BC&cc&88\\21&CC&aa&95\\22&CC&ab&103\\23&CC&ac-bb&111\\24&CC&bc&119\\25&CC&cc&127\\\hline\end{tabular}\end{center}\end{table}この判定基準表は,優先順位の高い候補ほど除去する頻度を低くして,抽出漏れを防ぎ,逆に優先順位の低い候補は除去する頻度を高くして,過剰抽出を防ぐために利用される.\subsection{複合連想語の決定アルゴリズム}複合語はアルゴリズムAにより複合連想語候補に絞り込まれ,以下に示すアルゴリズムBで最終的な連想語に絞り込まれる.継承性ランクが高い候補を優先的に選択することは,逆に冗長性の高い連想語を選択する矛盾を生じる.アルゴリズムBではこの矛盾を次のように解決している.(a)複合連想語候補$w$の連想分野$<S>$と構成語$x$の連想分野$<S'>$とが異分野\mbox{である場}合,(b)$w$の全ての連想分野$<S>$と構成語$x$の全ての連想分野$<S'>$\mbox{とが類似分野であり,}しかも$w$の水準が$x$の水準より高い場合,$w$は新しい連想語候補にすべきであるが,それ以外は構成語による連想分野で$w$の連想分野を補えるので,冗長である.この観点より,手順B1では継承ランクで生じる冗長な複合連想語候補を事前に排除する.次の手順B2で継承ランクを利用した判定基準表により優先的な選択を行う.手順B3では変更された連想分野情報に対して,最終的な連想語の水準を自動的に決定する.以下,組$(J,<S>)$の情報をもつ連想語$w$の集合$W\_SET(J,<S>)$の逆表現として,\mbox{連想}語$w$の組$(J,<S>)$を要素とする集合を$F\_SET(w)$で表す.\\{\bf【アルゴリズムB:複合連想語候補の決定アルゴリズム】}\\{\bf入力:}複合連想語候補$w$と$W\_SET(J,<S>)$.\\{\bf出力:}複合連想語$w$の分野と水準.\\{\bf(手順B1){冗長連想語の除去}}全ての連想語候補$w=xy$に対して,次を実行する.\\(1)$w$の水準$J$が1の場合$F\_SET(w)$と$F\_SET(x)$が同じ要素$(1,<S>)$をもち,$x$の安定性ランクがaの場\break合\footnote{水準1の連想語は,唯一の終端分野を特定する重要な連想語であるので,安定ランクがaである条件をつけてあるが,次の(2)で対象となる水準2〜4では安定性ランクの条件をつけない.},$F\_SET(y)$が$<S>$の異分野$<S'>$となる要素$(1,<S'>)$をもたなければ,$w$を$W\_SET(J,<S>)$から除去する\footnote{$F\_SET(w)$からも要素$(J,<S>)$が除去されることを意味する.}($x$が$y$の場合も同様).\\(2)$w$の水準Jが2〜4の場合$F\_SET(w)$の全ての分野$<S>$が$F\_SET(x)$と$F\_SET(y)$の全ての分野$<S'>$と\mbox{類似分野}であり,且つ$w$の水準が$x$と$y$の水準を越えないならば,$w$を$W\_SET(J,<S>)$から\mbox{除去する}.\\{\bf(手順B2){判定基準表による絞り込み}}以上で絞り込まれた$W\_SET(J,<S>)$に対して,判定基準表$DECISION(J,<S>)$\mbox{を決}定し,$w$の継承と安定性ランク列に対応する基準頻度より$w$の頻度$R(w,<S>)$が\mbox{少なければ},$w$を$W\_SET(J,<S>)$から除去する.\\{\bf(手順B3){水準の最終決定}}以上により,連想分野のなくなった候補語$w$は水準5へ変更し,連想する分野数が減少した候補語$w$は,水準の定義1に従って水準を変更する.\begin{flushright}{\bf(アルゴリズム終)}\end{flushright}表~4~に水準1の複合連想語候補の例,表~5~に水準2〜4の候補例を示す.但し,表~5~の分\break野数は表~2~と同様に三つ以内とし,また水準3では下位の終端分野を列挙する.手順B1で\break削除される冗長な候補語は,表~4~と~5~の判定欄に×印で示す.手順B1の(1)の例として,表~4~の候補$w=\mbox{``伊藤+投手''}$を考える.$F\_SET$(``投手'')は要素(1,<野球>)を含み,安定性ランクはaであり,``伊藤''は水準1の異分野の連想語でないので,候補語$w$\mbox{は除去され}る.ここで,候補$w=\mbox{``野球+入学''}$は,$F\_SET(w)=F\_SET$(``野球''$)=\{$(1,<野球>\}であって,$F\_SET$(``入学'')が異分野<教育¥受験と入試>への水準1の連想語であるならば\footnote{短単位語と複合語とも同じ学習データを使用しているので,短単位語候補の段階で``入学''は<野球>と<教育¥受験と入試>を連想する水準4となるが,人手の修正で<野球>が削除され,このような場合が生じる.但し,このような異分野を含む候補が,手順B2において採用されることは極めて少ない.},除去しないで最終決定は後の手順にゆだねる.手順B1の(2)の例として,表~5~の水準2の$w=\mbox{``先発+金本''}$を考えると,表~2~より$F\_SET(w)=F\_SET$(``先発''$)=F\_SET$(``金本'')であるので,$w$は除去される.同様に,水準3の``選手権+初出場''も除去される.また,$w=\mbox{``日本+選手''}$は,$F\_SET(w)=F\_SET$(``選手'')であり,``日本''が水準5なので,$w$は除去される.表~5~には存在しないが,$F\_SET(w)=\{$(2,<野球>),(2,<サッカー>)\}なる連想語候補$w=\mbox{``金本+投手''}$を仮定するとき,``金本''と``投手''の全ての連想分野と$w$の全ての分野は類似分野である.しかし,$w$の水準2は構成語の水準1と2を超えないので,除去される.\begin{table}[t]\caption{<野球>に対する複合連想語候補(水準1)の例}\begin{center}\begin{tabular}{lrcrlc}\hline\hline複合語候補&頻度&ランク列&判定基準&判定&決定水準\\\hline高校+野球&149&&&×&\\長嶋+監督&127&AAca&8&○&1\\日本+シリーズ&117&BAba&18&○&1\\野村+監督&85&AAca&8&○&1\\社会人+野球&66&&&×&\\森+監督&65&BAca&20&○&1\\野球+連盟&55&&&×&\\法政大+進学&53&CCba&103&●&5\\上田+監督&43&BAca&20&○&1\\西武+ファン&39&AAba&6&○&1\\ヤクルト+古田&23&AAbc&11&○&1\\戦力+診断&21&ACaa&27&●&5\\交流+試合&20&BAaa&15&○過剰&1\\巨人+打線&19&&&×&\\教育+リーグ&16&CAaa&27&●&5\\中村順司+監督&15&BAca&20&●&5\\観音寺中央+高校&14&BCba&64&●&5\\改革+本部&14&BBaa&27&●&5\\鈴木+オーナー&13&BAca&20&●&5\\NTT+選手&11&BAba&18&●&5\\近鉄+選手&10&AAba&6&○&1\\同点+本塁打&10&&&×&\\二軍+コーチ&9&AAaa&3&○&1\\球団+キャンプ&9&&&×&\\本塁打+記録&8&&&×&\\完全+試合&4&BAaa&15&●漏れ&5\\公式戦+開幕&4&AAaa&3&○&1\\現役+引退&4&AAaa&3&○過剰&1\\投手+リレー&4&&&×&\\星野+監督&3&AAca&8&●漏れ&5\\三輪+捕手&3&&&×&\\巨人+ベンチ&3&&&×&\\伊藤+投手&3&&&×&\\\hline\end{tabular}\end{center}\end{table}\setlength{\tabcolsep}{1pt}\begin{sidewaystable}[p]\caption{<スポーツ>に対する複合連想語候補(水準2〜4)の例}\begin{center}\footnotesize\begin{tabular}{clcclcclccc}\hline\hline水準2の候補&分野1&ランク列1&判定1&分野2&ランク列2&判定2&分野3&ランク列3&判定3&決定水準\\\hlineリーグ+記録&<スポーツ¥野球>&AAaa&○&<スポーツ¥バスケットボール>&AAaa&○&<スポーツ¥サッカー>&AAaa&○&2\\先発+金本&<スポーツ¥野球>&AAac&×&<スポーツ¥サッカー>&AAac&×&&&&\\テレビ+放映権&<スポーツ¥野球>&CCaa&●&<スポーツ¥ラグビー>&CCaa&●&&&&5\\大阪+桐蔭&<スポーツ¥野球>&BBbb&●&<スポーツ¥ラグビー>&BBbb&●&&&&5\\連係+プレー&<スポーツ¥野球>&BAaa&○&<スポーツ¥バスケットボール>&BAaa&○&<スポーツ¥サッカー>&BAaa&●&2\\\hline\hline水準3の候補&分野1&ランク列1&判定1&分野2&ランク列2&判定2&分野3&ランク列3&判定3&決定水準\\\hline日本+代表&<スポーツ¥サッカー>&BAba&○&<スポーツ¥バスケットボール>&BAba&○&<スポーツ¥ラグビー>&BAba&●&2\\優勝+戦線&<スポーツ¥野球>&ACab&○&<スポーツ¥サッカー>&ACab&○&<スポーツ¥相撲>&ACab&○&3\\日本+選手&<スポーツ¥陸上>&BAba&×&<スポーツ¥テニス>&BAba&×&<スポーツ¥ゴルフ>&BAba&×&\\逆転+優勝&<スポーツ¥野球>&AAaa&○&<スポーツ¥相撲>&AAaa&○&<スポーツ¥ゴルフ>&AAaa&○&3\\選手権+初出場&<スポーツ¥ラグビー>&AAaa&×&<スポーツ¥バスケットボール>&AAaa&×&<スポーツ¥サッカー>&AAaa&×&\\\hline\hline水準4の候補&分野1&ランク列1&判定1&分野2&ランク列2&判定2&分野3&ランク列3&判定3&決定水準\\\hline有効+投票数&<スポーツ¥野球>&BBaa&●&<政治¥選挙>&BAaa&○&<政治¥政党>&BAaa&○&2\\先制+攻撃&<スポーツ¥野球>&AAaa&○&<スポーツ¥テニス>&AAaa&○&<国際地域¥中東>&BAaa&○&4\\敗戦+処理&<スポーツ¥野球>&ABaa&○&<国際地域¥中東>&ABaa&○&<政治¥防衛>&CBaa&●&4\\タイトル+防衛&<スポーツ¥野球>&ACaa&●&<スポーツ¥ボクシング>&AAaa&○&<娯楽・趣味¥将棋>&AAaa&○&4\\藤田+監督&<スポーツ¥野球>&AAca&●&<スポーツ¥バレーボール>&BAca&●&<娯楽・趣味¥劇>&CBca&●&5\\\hline\end{tabular}\end{center}\end{sidewaystable}表~4~で×印が付いていない候補語22個(最低頻度3,平均頻度32,最大頻度127)が手順B2の$W\_SET(1,<野球>)$の要素となり,表~3~の判定基準表$DECISION(1,<野球>)$の基準頻度が得られる.例えば,``法政大+進学''の頻度は53で比較的高いが,構成語は<教育>への連想語であり,得られたランク列CCbaの基準頻度は103となるので,除去される.同様に,表~5~でも$W\_SET(J,<S>)$に対応する判定基準表を構成して,除去分野を決定する.手順B2で除去された表~4~の候補語と表~5~の分野の判定欄に●印を示す.手順B3では,上記の削除で連想分野がなくなった候補語の水準を水準5に変更する.また,水準2〜4の候補語で一部の分野が除去される場合は,水準変更を行う.人手で修正した短単位連想語の情報を利用する手順B2の分野更新は,人間により近い分野情報を複合連想語にもたせることを意味するので,手順B3の水準上昇は,人間の判断に基づいた分野連想語や分野決定と比較する~5~章の評価で効果がある.表~4~と~5~の決定水準欄に手順B3で最終決定された水準を示す.表~4~では最終的に12個の連想語に絞り込まれたが,``完全+試合'',``星野+監督''は抽出漏れである.また,``交流+試合''と``現役+引退''は<スポーツ>への連想語であり,過剰抽出であるが,この連想語は<野球>と類似分野であるので,異分野を連想する間違った連想語ではない.また,表~5~では,``日本+代表''(<スポーツ>の下位である複数の終端分野を連想すると仮定する)の水準が3から2へ変更され,同様に,水準4の``有効+投票数''も<政治>の複数の下位分野を連想する水準2に変更される.
\section{分野連想語の構築実験結果と評価}
\subsection{実験データ}付録の分野体系は,用語辞書\cite{戸澤1998,現代用語1997,知恵蔵1996}を参考にして構築され,文書データは主としてCD−毎日新聞’95データ集と学術情報センターの「NACSIS(NationalCenterforScienceInformationSystems)テストコレクション1」より収集した.新聞データでは掲載面種別コードを,また学術情報センターのデータは学会名を利用して,本論文の分野体系への大まかな分類を行い,残りは人手で分類を行った.なお,相対的な頻度を用いることで,収集データが極端に少ない分野では誤った分野連想語が過剰抽出されるので,終端分野の最低データ量を50キロバイト以上とした.アルゴリズムAの手順A2における式(1)は簡単のために$R(w,<S>)/m$\mbox{なる平均値を用い}たが,実験では$R(w,<S>)/(\betam)$なる基準値$\beta$を導入した.$\beta>1$ならば\mbox{累積加算される子分}野数は多くなり,水準2の候補が増加し,水準3の候補が減少する.アルゴリズムAで使用す\breakる有効な基準値$\alpha$と$\beta$を決定するために,$\alpha$を~14~種類(0.86から0.99までの0.01\mbox{きざみ),$\beta$}を~6~種類(0.80から1.30までの0.1きざみ)に変化させて得られる~84~種類の連想語候補セットに対して,人手で選択した代表的な短単位連想語500語の抽出精度結果を考慮し,基準値$\alpha=0.92$と$\beta=0.91$を決定した.また,正規化されていない頻度$F(w,<S>)$が1の単語$w$は,連想語抽出の実験対象に含めない.分野全体で抽出された短単位語83,894個に対するアルゴリズムAの連想語候補数は49,798個(水準1,2,3,4の順にそれぞれ28,367個,4,400個,320個,16,711個)であり,人手による修正後の短単位連想語は15,328個(水準1,2,3,4の順にそれぞれ7,354個,1,846個,191個,5,937個)となった.この作業は,表~1~と~2~の提示方法により効率的に行われ,一人が3週間で完了した.\subsection{複合語の分野連想語の評価}まず,アルゴリズムAにより複合連想語候補を決定し,次にアルゴリズムBで複合連想語候補を絞り込む.学習データより得られた約18万個の複合語はアルゴリズムAにより連想語候補は88,782個(水準1,2,3,4の順にそれぞれ74,257個,5,815個,181個,8,529個)に,更にアルゴリズムBにより複合連想語は8,405個(水準1,2,3,4の順にそれぞれ6,188個,915個,98個,1,204個)に絞り込まれた.提案手法の評価のために,六つの中間分野<スポーツ>,<趣味・娯楽>,<健康・医療>,<政治>,<国際地域>,<科学技術・学問>に,水準1,2,3,4の正解連想語を314個,216個,34個,186個人手で決定した.但し,水準4の正解連想語は複数の分野にまたがるので,<スポーツ>内の連想語候補から決定された.正解連想語の数を$E$,抽出結果に含まれる正解連想語の数を$F$,抽出された連想語の数を$G$とするとき,再現率(recall)を$R=F/E$,適合率(precision)を$P=F/G$で表す.これら正解連想語の再現率と適合率を図~2~に示す.但し,水準1と3の~6~種類の結果はそれぞれ□,●印で示し,水準2と4は複数分野の平均値としてそれぞれ○,■印で示す.また,比較実験のために次の手法を組み合わせた結果を示す.\begin{description}\item[A:]アルゴリズムA(集中率の高い順)のみで連想語を決定した場合.\item[B1:]アルゴリズムBの手順B1による冗長連想語を除去した場合.\item[Stability-5:]安定性ランクのみによる5段階の判定基準を使用した場合.5段階の決定は,最大頻度と平均頻度間を2段階に,最低頻度を平均頻度間を2段階に均等に分割設定した.\item[Inheritance-5:]継承ランクのみによる5段階の判定基準を使用した場合.5段階の分割設定は上記と同様.\item[Reverse-25:]25~段階の判定基準において,継承ランクと安定性ランクの優先を逆にした場合.分割設定は上記と同様.\item[Uniform-25:]25~段階の判定基準において,最大頻度と最低頻度間を~25~段階の均等分割で設定した場合.\item[25:]提案手法による~25~段階を設定した場合.\end{description}\begin{figure}[t]\begin{center}\epsfile{file=fig2.eps,scale=1}\end{center}\caption{再現率と適合率による実験結果の比較}\end{figure}図~2~に示すように,(A)と(A,B1)は抽出単語数を変更した結果を示すが,他の方法は判定基準を使用するので,固定された値の分布を示す.図~2~より,(A)のみでは適合率は向上しないが,(A,B1)では適合率が向上し,アルゴリズムBの冗長語除去法(手順B1)の有効性が分かる.安定性と継承ランクを単独で用いた(A,Stability-5)と(A,Inheritance-5)では,適合率の改善は小さいが,(A,B1,Stability-5)と(A,B1,Inheritance-5)では改善が顕著になる.この理由は,B1による冗長語の除去数がStability-5とInheritance-5による除去数に比べて多いからである.二つのランクを組み合わせた提案手法(A,B1,25)は,更に適合率が大きく向上しており,有効性が分かる.また,継承と安定性ランクの優先順位を変更した(A,B1,Reverse-25)は,提案手法より適合率が低下した.この原因は,安定性ランクを優先することで継承ランクの高い連想語が抽出漏れになるからである.更に,判定基準表の分割設定を均等に行った(A,B1,Uniform-25)も提案手法より,適合率が低下した.この理由は,均等分割では優先度が高い連想語の基準頻度が提案した~25~段階より大きくなり,低い頻度に存在する正しい連想語が過剰に除去されるからである.以上より,提案手法は再現率0.77以上(平均0.85)を維持して,適合率0.90以上(平均0.94)を実現しており,複合連想語の有効な抽出法であると評価できる.しかも,過剰抽出された連想語で,対象分野の類似分野情報をもつ連想語を含めると適合率は0.98以上となり,非常にノイズの少ない連想語が抽出できたといえる.なお,アルゴリズムBの手順B3では,分野数の減少による連想語の水準上昇を考慮したが,この水準変更を行わない場合は提案手法(A,B1,25)の再現率と適合率がそれぞれ約3\%,約5\%低下したので,手順B3の水準変更は有効であるといえる.\subsection{文書断片の分野決定タスクによる評価}学習データ以外の300文書\footnote{文書の抽出元は学習データと同じであり,見出し文や先頭単語が水準1の連想語である文は除去した.}に,文書の断片を20文字単位で段階的に伸長できるウィンドウを準備して,人間が唯一の終端分野を認識した段階で,断片文書,確定分野,及び分野決定の要因となった連想語集合$X$を記録したデータセットを構築した.但し,200文字を越えても分野が決定できない36の断片文書\footnote{この~36~文書は話題が変化して,人間でも一意に終端分野が決定できなかった.}を除き,264の文書を採用した.この断片文書内の単語に対して,短単位語と複合語の連想語(23,733個)に一致する連想語集合$Y$を決定し,次の手法で分野を決定した.各連想語についてそれが水準1の連想語となる分野には10点,以下同様に水準2,3,4の連想語となる分野にはそれぞれ5点,3点,2点の得点を与えた.但し,中間分野への連想語には,その下位の全ての終端分野に得点を与えた.そして,人間が終端分野を認識した段階の断片文書内の集計で最高得点の終端分野を決定分野とした.図~3~には,断片文書の文字数に対する次の結果を示す.\begin{description}\item[正解率$T$:]人手による正解分野と比較した場合の決定分野の正解率.比較実験として,短単位連想語のみを利用した正解率$S$を示す.\item[共有連想語数の割合$T$:]人手による連想語集合$X$と集合$Y$に共通する連想語の割合.上記と\break同様に短単位語のみの割合$S$も示す.\item[文書数の割合:]文字数(文書長)ごとの断片文書数の比率.\end{description}\begin{figure}[t]\begin{center}\epsfile{file=fig3.eps,scale=1}\end{center}\caption{断片文書に対する分野決定実験の結果}\end{figure}図~3~より,本手法は人間の分野判定に対して,90\%以上の高い正解率になることが分かった.特に,決定分野が正解分野の類似分野となる場合を含めると,正解率は約97\%となる.また,文書数の割合からも分かるように,断片文書は約80文字以内が約90\%を占めており,非常に\break早い段階で分野が決定されており,断片文書の分野決定の有効性が分かる.連想語の総数に対応する短単位連想語数の比率は約65\%であるので,割合$T$に対する割合$S$の低下率も65\%に近\breakい値となっている.しかし,正解率$T$に対する正解率$S$の低下率は,文字数の少ない文書では65\%より更に低い50\%以下となっている.これは,分野決定力の強い水準1の連想語の総数に対応する水準1の短単位連想語数が約54\%しかなく,逆に決定力の弱い水準4の連想語の総数に対する水準4の短単位連想語数が約83\%であることが理由である.このことより,連想語の中で分野決定力の強い水準1が占める割合が短単位連想語の水準1の割合より多い複合連想語は非常に有用であるといえる.また,共有連想語の割合は文書が長くなると低くなる.この理由は,提案手法が出現する全ての連想語を利用しているのに対して,人間は文書長に関係なく分野判定に利用する連想語がほとんど変化せず,非常に少ない数(今回の実験では平均2.3個)となるからである.このように,分野決定中に有用な連想語を動的に絞り込むメカニズムについては,今後検討すべき課題である.文書全体の単語情報を使用する方法では,特定分野の文書断片を検索することは,難しい問題である.例えば,冒頭に``阪神大震災の復興''の話題があって,その後,``高校野球''の話題が長く続く文書では,冒頭の話題は隠蔽されてしまう.従って,連想語を利用した分野決定手法は,パッセージ検索やより精度の高いピンポイント検索\cite{藤田1999}を実現する一つの方法として有用であると考えられる.特に,語彙的連鎖によるパッセージ検索法\cite{望月他1999}に対しては,有用な連想語連鎖を利用することで,検索効率の改善が期待できる.本論文の目\break的は分野連想語セットの構築であるので,本節では得点加算による簡単な分野決定法を用いたが,パッセージ検索のための分野決定法は,今後研究を進める必要がある.また,表~4~で抽出漏れとなった``完全+試合''は,<野球>で頻繁に生じることでないので,必然的に頻度は少なくなり,提案手法でも抽出は難しい.この点についても,今後検討を加える必要がある.\vspace{-3mm}
\section{むすび}
\vspace{-1mm}以上,本論文では分野連想語を定義し,短単位語の連想語情報を利用して,非常に多く造語される複合連想語を効率的に決定する手法を提案し,180分野の学習データの実験結果に基づき提案手法の有効性を評価した.また,構築された連想語が文書断片の分野決定に有効であることも示した.本論文では,一般的な分野体系を対象として議論を進めたが,短単位語の連想語が人手で判断できるならば,独自の分野体系\cite{伊藤他1993,福田他1998}に対しても利用可能と考えられるので,この実験評価は今後の課題である.また,本論文では名詞連続の複合語を対象としたが,用言,助詞を含む名詞句,名詞と用言の組み合わせなどの共起情報\cite{湯浅他1995,山田他1998}と分野連想の関係も検討する必要がある.\appendix
\section{分野体系と学習データの情報}
分野体系の子分野は<>付きで記述し,括弧内には文書数と容量(キロバイト)を示す.その下位の分野については,<>を省略し,分野が細分化される場合は,入れ子形式で列挙する.\\<分野全体(15,435;42,092)>\\<スポーツ(1,856;5,527)>:ゴルフ,サッカー,テニス,卓球,バトミントン,バスケットボール,バレーボール,レスリング,ボクシング,ヨット,ラグビー,マラソン,柔道,水泳,相撲,野球,冬季スポーツ(スキー,スケート,ジャンプ,ボブスレー),陸上(砲丸投げ,ハンマー投げ,円盤投げ,100m,マラソン,棒高跳び,3段飛び),モータスポーツ(F1,モトクロス,ボート).\\<娯楽・趣味(1,680;4,891)>:アニメ,コンピュータゲーム,劇,将棋,料理・食べ物,旅行,映画,競馬,芸術,読書,釣り,音楽,TV.\\<科学技術・学問(735;7,074)>:宇宙開発,海洋開発,軍事技術,生物学・バイオ,原子力,電気電子,建築,素材,化学,数学,物理学,考古学,言語学,コンピューター(ソフトウェア,ハードウェア).\\<自然(102;517)>:地球科学,地震・火山,天文宇宙,気象.\\<健康・医療(514;3,708)>:診断,病名(O−157,アトピー性皮膚炎,エイズ,癌,糖尿病,脳卒中),健康(ダイエット,ストレス,コレステロール,血圧).\\<環境問題(1,618;2,782)>:環境・エネルギー,オゾン破壊,ゴミ問題,人口増加,公害,国連政策,温暖化環境,自然破壊,道路・交通.\\<教育(1,622;4,102)>:教育機器,学力と偏差値,先生・教師,受験と入試,外国語教育,教育場所,学校行事,資格,教育教材,教育問題(いじめ,不登校).\\<社会(1,104;1,824)>:ジャーナリズム,広告,風俗流行,文化活動,戦争・紛争,事件(オウム,毒物混入,誘拐,汚職),災害(地震,台風,火災,水害).\\<生活(988;1,742)>住生活,食生活,女性生活,保険,年金,家族・家庭,福祉,介護,税金対策.\\<国際地域(2,179;3,991)>:アジア,オセアニア,アフリカ,南米,中国,中東,旧ソ連,朝鮮,欧州,米国,カナダ,北極・南極.\\<政治(2,026;4,910)>:司法,国会,圧力団体,地方自治体,外交,憲法,政党,政治理論,日本政治,国際政治,税制,行政・内閣,選挙,防衛.\\<経済(1,011;4,024)>:マーケティング,世界経済,労働,国際通貨,国際金融,日本経済,景気・物価,株式・債権,経営,経済理論,財務会計,財政,貿易,農林,漁業,金融一般,雇用問題.\bibliographystyle{jnlpbbl}\bibliography{v07n2_01}\begin{biography}\vspace{-2mm}\biotitle{略歴}\bioauthor{辻孝子}{平成2年上智大学文学部心理学科卒業.野村證券株式会社入社.退社後,徳島大学工学部受託研究員.現在徳島大学大学院博士後期課程在学中.自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{泓田正雄}{平成5年徳島大学工学部知能情報工学科卒業.平成7年同大学院博士前期課程修了.平成10年同大学院博士後期課程修了.現在同大学工学部知能情報工学科助手.工学博士.情報検索,自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{森田和宏}{平成7年徳島大学工学部知能情報工学科卒業.平成9年同大学院博士前期課程修了.現在同大学院博士後期課程在学中.情報検索,自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{青江順一}{昭和49年徳島大学工学部電子工学科卒業.昭和51年同大学院修士課程修了.同年同大学工学部情報工学科助手.現在同大学工学部知能情報工学科教授.この間コンパイラ生成系,パターンマッチングアルゴリズムの効率化の研究に従事.最近,自然言語処理,特に情報検索システムの開発に興味を持つ.著書「ComputerAlgorithms---KeySearchStrategies---」,「ComputerAlgorithms---StringMatchingStrategies---」IEEECSpress.平成4年度情報処理学会「BestAuthor賞」受賞.工学博士.電子情報通信学会,人工知能学会,日本認知科学会,日本機械翻訳協会,IEEE,ACM,AAAI,ACL各会員.}\vspace{-3mm}\bioreceived{受付}\hspace*{11.8mm}{\small(1999年9月20日,1999年11月1日,1999年11月24日再受付)}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N03-08
|
\section{はじめに}
災害は,住居や道路などに対する物的損害だけでなく,被災地内外の住民に対する健康への影響も及ぼしうる.そこで,従来の防災における危機管理の考えを援用し,健康における危機管理という概念が発達しつつある.この「健康危機管理」は,わが国の行政において,災害,感染症,食品安全,医療安全,介護等安全,生活環境安全,原因不明の健康危機といった12分野に整理されており,厚生労働省を中心として,それぞれの分野において生じうる健康問題とその対応策に関する知見の蓄積が進められている\cite{tanihata2012}.こうした健康危機においては,適切な意思決定のためにできる限り効率的に事態の全体像を把握する必要性がある.しかし,2009年に生じた新型インフルエンザによるパンデミックでは,国内の発症者や疑い症例の急激な増加に対し,状況把握に困難が生じていた\cite{okumura2009}.2011年に生じた東日本大震災においては,被災地の行政機能が失われ,通信インフラへの被害も合わさって,被災地の基本的な状況把握すら困難な状態が生じた\cite{shinsai2012}.とりわけ,災害初期の混乱期においては,事態の全体像を迅速に把握する必要があり,情報の厳密性よりも行動に結びつく実用性や迅速性が優先されうる\cite{kunii2012}.この「膨大なテキスト情報が発生」し,また,「情報の厳密性よりも迅速性が優先される」という特徴は,自然言語処理が健康危機管理に大きく貢献しうる可能性を示している.そこで本稿では,健康危機における情報と自然言語処理との関係について整理し,自然言語処理が健康危機管理に果たしうる役割について検討する.まず,次章では,健康危機における情報とその特徴について整理する.3章では,筆者らが関わった東日本大震災に対する保健医療分野の情報と自然言語処理との関わりをまとめ,4章において提言を記す.
\section{健康危機管理における情報とその特徴}
震災やパンデミックにより引き起こされる健康危機時においては,被災者に関する医学的情報や医療機関の損害情報,支援物資に関する情報など,様々な情報が生じることになる.実際,東日本大震災の後には,災害支援における情報の処理に様々な課題が生じ,その効率化に向けて多くの情報システムが開発された\cite{utani2011}.以下では,保健医療活動の観点から,情報を対象毎に分類し,その特徴を整理する.\subsection{被災者に関する情報}まず,個々の被災者に関する健康情報が挙げられる.災害による怪我などの急性疾患に関する情報の他,持病や内服薬に関する情報,栄養状態に関する情報は,適切な医学的管理に欠かせない.一方で,緊急時においては,利用できる検査や医薬品にも限りがあり,また,患者の診療記録についても,通常時とは異なった簡潔さが求められることになる.患者の状態を緊急度により分類する「トリアージタグ」は,患者情報を極限まで簡素化したもので,言語表現が関与する余地はタグに含まれる特記事項欄の記載に限られている.これは極端な例ではあるが,災害時においては,災害用カルテの利用など多かれ少なかれ診療記録にも大幅な省力化が図られる傾向がある.こうした患者情報は,電子化されているケースもあれば,混乱する被災地の医療現場で必要最小限の記録を残すために紙に記載されているケース,さらには,紙への記載すら困難な状況下で患部に巻いた包帯の上に最小限の処置内容と指示のみを記載する例などもあり,すべてが自然言語処理の対象として適した形態とは言えない.しかしながら,こうした個々の被災者に関する医学情報は,適切に処理することにより様々な活用が可能である.まず,i)多数の患者情報の中から,特別な治療が必要なケースなど,条件に見合った患者を抽出する活用が考えられる.ただし,緊急性の高い患者については,直接診察にあたる医師により対応が行われるはずであり,また,直接診察以上の情報をカルテ解析より見出すことには本質的な困難さがある.次に,ii)多数の患者情報の中から,症状や疾患に関する一定の傾向を読み取り,支援や対策に生かすという目的が考えられる.たとえば,感染症の集団発生や呼吸器疾患の上昇などが把握できれば,必要な予防を講じることが出来る.カルテ解析は,医師による労働集約的な作業が求められるために非常時に行うには困難が伴うが,自然言語処理により改善がもたらされる可能性がある.最後に,iii)歯科カルテ等を用いることで,ご遺体等の個人同定が行われるケースがある.ただし,遺体側の特徴として,歯科治療跡が保存性,視認性共に優れることから,このケースにおいて自然言語処理が関与しうる余地は未知数である.\subsection{被災者集団に関する情報}被災者の状況の詳細な把握に際しては,上述のように個人毎の情報管理が求められる.しかしながら,発災初期など,数百人が収容された避難所から個々人の医学情報を正確に収集,管理することは容易ではない.そこで,とりわけ発災直後の混乱期において,避難所毎の大まかな人数や電気,ガス,水道,食料等,集団に関する情報の収集と共有が優先されることになる.保健医療の観点からは,これらに加えて,特別な配慮が求められる妊婦の数や,乳児や高齢者などの災害弱者数,衛生状態,食事の加熱の有無等が求められる.さらに,支援に際しては,定量的な情報だけでなく,被災地域のニーズや避難所で行われている工夫等が文字情報として収集されうる.こうした現地報告からは,様々な情報の抽出と分析が可能である.その中でも,保健医療系のdomainexpertが抽出したいとした情報は,後述する被災地支援活動を行った栄養士の現地報告会\cite{sudo2012}での意見を分析すると,主に4種類に分類された.まず,i)要所を押さえた記録の「要約」が挙げられた.とりわけ,保健医療分野では多くの支援が交代制により行わるため,後発チームが支援先においてなされている活動の概要や目下の課題を効率良く知りたいというニーズが少なくない.したがって,先発チームの報告を効率的に要約する技術により,報告する先発チーム,報告を受ける後発チームの双方の負担を軽減できる可能性がある.また,ii)報告文書には,ベストプラクティスや避けるべき行動などの現場で見出された様々な知見が含まれる.報告文書の解析に際しては,こうした情報を適切にまとめることで,今後の活動ガイドラインの反映に繋げたいという要望も挙げられた.災害時のさまざまな記録から作成されたガイドラインとしては,たとえば,阪神淡路大震災後に編纂された資料が参考となるだろう\cite{naikakufu1999}.さらに,iii)災害やその支援において生じた事態と対応を整理し記録する「適切な整理と保存」へのニーズも認められた.この震災対応のアーカイブ化については,国立国会図書館\cite{ndl2012}や東北大学\cite{tohoku2012}を初めとした多くの試みがあるが,保健医療系では体系的な取り組みがなされておらず,情報系研究者による支援が望まれている.最後に,iv)過去の報告内容を分析することで,状況把握の適切化・迅速化・省力化に向けた「報告書式の改善」に繋げたいという要望が存在した.現地状況をより詳細に把握するために報告が詳細化すると,報告者の負担が増してしまう.しかし,苦労をして報告した情報も,被災地の状況や今後の災害対応に生かされなければ,報告者の士気を保つことが困難である.そこで,報告書式や手法そのものを過去の経験に基づき改善して欲しいという要望が生じることになる.これら四種の希望は,栄養士に限らず,広く保健医療系の支援活動に当てはまる一般性を有すると考えられる.\subsection{支援者に関する情報}次に,支援者側の情報が挙げられる.災害時の保健医療情報としては,被災者や避難所の情報に注目が集まるが,医療支援は,医師や歯科医師,看護師,保健師,薬剤師等,他職種の連携により初めて機能する.したがって,適切な医療支援を行うためには,支援者側の情報を効率的に収集すると共に,被災地ニーズと支援者とのマッチングを最適化していかなければならない.また,行政における支援には厳密な労務管理が求められるために,活動報告を適切に収集,管理することは行政上の要請でもある.こうした情報は,派遣前に収集される属性情報と,派遣してから継続的に収集される活動情報に分類される.前者は,派遣チームの編成,派遣先,スケジュール等のマッチングに役立てるもので,言語表現が関与する余地が少ない.一方,後者は,支援者の専門性に基づく現地の課題や対応等が収集しうる可能性がある他,支援にまつわる各種の意思決定を評価,改善していくための基礎資料となりうる.実際,東日本大震災においては,日々届けられる派遣行政官の日報を人事部門が目視確認し,支援の改善に繋げていた自治体があったという.また,支援者は,多くの遺体や苦境に喘ぐ避難民に接することでストレスが生じがちであり,報告書を通じて支援者側のメンタルヘルスを適切に管理する仕組みも検討の余地がある.\subsection{まとめ}このように,健康危機管理においては被災者や支援者に関する情報が欠かせない.上述の例では,被災者情報のフィルタリング,情報抽出,個人同定,被災者集団情報からの文書要約,情報抽出,文書分類ないし情報検索技術,支援者情報からの情報抽出等が求められていることを示した.また,支援活動の最適化にとっては,上記以外にも,被害を受けていない都道府県における透析施設や老人保健施設の情報など被災地以外の情報も欠かせない.被災地以外からの情報は,定量的情報が多いが,たとえば,パンデミック対応においては,海外から刻々ともたらされる感染情報や治療効果に関する最新情報の整理など,自然言語処理が貢献しうる余地は少なくない.これらは,高い精度よりも効率性が重視される処理であり,多少の不完全性を許容しうる点でも,自然言語処理の有望な応用分野であると言える.一方,健康危機時に発生する情報には,下記の点で,自然言語処理を応用していく上での障害がある.まず,医療や医学に関する情報は専門性が高いことが一般的であり,些細な情報の解釈においても医学や栄養学などのdomainknowledgeが求められる.たとえば,降圧薬と抗精神薬が足らないという情報に触れた際,どちらがより重要か,あるいは緊急性が高いか,という解釈は,医学知識の有無により大きく異なるだろう.また,医療や公衆衛生に関わる情報には,公的機関が関与することが多く,収集した情報に個人情報保護の制約が課され自由な解析や活用が困難となるケースが少なくない.さらに,公的機関には,様々な情報が集まり易い一方で,情報系人材が少なく,また,予算上,外部に技術支援や情報解析を依頼することが困難となりがちであることから,収集された情報が有効活用されないケースが往々にして生じる.これらの条件は,健康危機管理における自然言語処理研究を進めるうえで大きな障害となりうるが,東日本大震災を経て,保健医療分野における情報処理の効率化に向けた問題意識は関係者間で共有されつつあり,次に述べるような試験的な試みが進められている.
\section{東日本大震災における健康危機と自然言語処理}
本章では,以上の観点から,東日本大震災において筆者らが関わった保健医療分野の言語処理について概要を整理する.\subsection{日本栄養士会支援活動報告}東日本大震災においては,東北地方沿岸部を中心に広範囲に渡って甚大な被害が生じた.そのために,避難所に1次避難した被災者のための仮設住宅が行き渡るまでにも時間が掛かり,また,2次避難後にも,物流等の問題から被災者が口にしうる食事のほとんどが配給によるものとなりえた.そこで,栄養の偏りによる健康被害を避けるため,栄養士の職能団体である公益社団法人日本栄養士会が被災地における栄養管理に取り組んだ.栄養士による災害支援は新潟県中越地震(2004),能登半島地震(2007)より開始され,これらの震災においては被災者の個人単位での栄養指導と記録も試みられていた.一方,東日本大震災においては,支援者単位での活動報告が行われた.図1に,今回用いられた活動報告書式を示す.震災後,MSWord,PDF,手書きと,複数の形式で,合計4103件の活動支援報告書が収集され,その後,数値や自由記載文が混在したMSExcel形式へと統合した(1,524~KB).下記に,報告書式に含まれる一日の活動内容についての文例を記す.\vspace{1\Cvs}\begin{screen}○○○○病院医師宿舎到着\\海外支援物資の缶詰の試食と記録試作\\全体的にスパイシーな味付けが多いが,いわしの油浸けはアレンジの仕方によっては和風になるので,避難所で実践してもらえれば,と思う.\end{screen}\vspace{1\Cvs}\begin{screen}○○○小学校到着\\居住者数104名体育館が避難所トイレ使用可自衛隊の風呂装備あり\\配食自衛隊(ごはん・汁物)ニッコー(おかず)夜に明朝のパンと飲み物を配る\\体育館内をラウンド式に巡回させてもらう\\・下痢の方の水分補給について相談を受ける\\本部の方に食事についてのアンケートをみせてもらう.\\漁港らしく,魚や刺身が食べたいと書いてあるものが多い.\\冷やし中華の要望:季節が変わり長期化していることを意味している.\\昼前,配食の仕分け作業が始まったので見学させてもらう.\\(エンボス,アルコール,マスク使用.バンダナ着用.)\end{screen}\vspace{1\Cvs}今回は,活動報告書式の構造化が不十分であったため,以上のように,支援対象の避難所の状況報告と,具体的な活動内容,その評価が混在した文となっている.今後,報告書式を改良することにより,現地の避難者数や衛生状態などに関するより効率的な情報集積が可能となることが伺われる.一方で,「冷やし中華への要望」というエピソードからは,支援活動においては,単なるカロリー量や栄養素などの数量的な問題を解決するだけなく,調理法やメニューなど様々なレベルでの問題解決が求められている点,ならびに,数値情報からは読み取りえない質的情報を扱う必要が理解されよう.次に,報告書式中の「今日の思い」と題された一日の感想欄に記載された文例を記す.\vspace{1\Cvs}\begin{screen}「元の生活に戻していく」ことを目標に医療支援が縮小・撤退していく中で,過剰診療にならないように支援することの難しさを痛感した.栄養剤の配布についてもいつまでも支援できるわけではないので,今後は購入してもらうかもしくは市販食品での代替を念頭に入れて栄養ケアプランを考える必要性がある.また,患者を見ている家族も被災者であることから,患者の栄養状態だけを見るのではなく,周りの状況をよく理解した上で食事相談をしなくてはならないと思った.\end{screen}\begin{figure}[t]\begin{center}\includegraphics{20-3ia14f1.eps}\end{center}\caption{支援活動報告書式}\label{fig:report}\end{figure}\vspace{1\Cvs}災害支援においては,まず被災地全体のアセスメントを行い,必要物資の量的なマッチングを行う.しかしながら,人間的な生活を回復していく過程においては,事前に想定された調査項目に基づく量的情報の集積だけではなく,現地の様々な状況に関する質的情報が欠かせない.上述の例では,栄養剤を配布することにより数値の上では現地ニーズを満たしても,適切な撤退戦略を立案するためには地域毎の特性や復興計画,進捗状況を考慮することが不可欠であることが読み取れる.そのためには,オペレーションズリサーチのような最適化技術だけではなく,現地に関する膨大な自由記載文から状況や課題,解決提案等を効率的に抽出する技術が不可欠であり,自然言語処理が災害支援に大きく貢献しうる可能性が示唆される.そこで,筆者らのグループでは,今回の支援活動報告を活用した自然言語処理研究を支援して来た\cite{okazaki2012,aramaki2012,kazama2012}.また,上述のように,避難所の状況,活動内容,その評価等が混在した文章からの情報抽出は効率が悪いために,より効率的な解析に向けて,支援活動報告における数値等の構造化された情報と自由記載文のベストミックスについての考察を試みた\cite{okumura2012}.さらに,報告の自由記載欄に支援者自身の急性ストレスの兆候が認められたことから,支援者の活動報告の解析によるストレス症状と早期発見によるPTSD(Posttraumaticstressdisorder)対策について,検討を行っている.\subsection{石巻圏合同救護チーム災害時用カルテ}災害時の医療支援においては,メンバーが入れ替わる医療チームにより医療が供給されることになるため,かかりつけ医などが継続して治療に当たる平常時以上に診療記録の重要性が高まる.また,通院中の医療機関におけるカルテを継続利用することが困難なために,医療支援にあたる団体等が災害時用カルテ(災害時救護記録)を用いるケースもある.今回の東日本大震災において,石巻圏では広範な範囲に渡り医療機関が深刻な被害を受けた.そこで,全国より日本赤十字や医師会など様々な組織が医療支援に訪れたが,それぞれの医療チームは短期滞在であったため,どのチームがどの地域で何をするのかの調整が求められた.また,数多くの避難所から統一的な情報収集体制を構築する必要に迫られた.そこで,石巻圏合同救護チームは,広範な医療圏を15のエリアに分割し,エリア内の情報集約や短期滞在する医療チーム間での引き継ぎをエリアの責任者に託す分割統治戦略を取った.その際,石巻圏合同救護チームの本部がある石巻赤十字病院が主導し,災害時用カルテの運用を行った\cite{tanaka2012}.図2に,今回用いられたカルテの書式を示す.震災後,合計25,387枚のカルテが収集され,現在,全カルテがPDF化されている(3.19~GB).このうち,とりわけ患者の多いエリア6,7の9,209人分のカルテについて,氏名,年齢,性別,既往歴,診断,処方等の情報を目視で抽出し,本災害カルテに即して設計したデータベースに入力し,1診療を1レコードとしてデータ化を行った結果,合計23,645件のデータ化が完了している.図2に示されるように,カルテにおいては略称や特殊な表現が多く,医学知識がなければ記載されている情報を読み取ることができない.そのために,データ入力が高コストとなりがちであり,収集した全カルテをデータ化することができていない.また,データ化においては,カルテに記載された現病歴(疾患の発症から受診に至る経緯が文章で記載されたもの)等のテキストが割愛されている.そのために,今回収集されたカルテの本格的な解析においては,データベースをインデックスとして使用し,条件に当てはまる患者を抽出した上で,必要な情報抽出を再びPDFから行う必要がある.たとえば,本データベースを利用してとある薬剤が処方された患者を抽出することは可能であるが,その処方が震災前より内服していた薬を在庫のある薬に切り替えた結果であるのか,震災により新たに生じた症状に対して処方した結果であるのかを知るためには,専門家がPDFを目視確認する必要がある.\begin{figure}[t]\begin{center}\includegraphics{20-3ia14f2.eps}\end{center}\caption{災害カルテの例}\label{fig:record}\end{figure}災害時に集積されるカルテは,災害による健康への影響に関する貴重な一次情報である.そのために,迅速な分析により,地域に生じた新たな感染症や慢性疾患の増悪等の情報が得られ,効果的な被災地支援に繋がりうる.また,事後解析により将来の災害にも役立ちうることになる.一方で,カルテの解析には専門知識が不可欠であり,プライバシーの問題も生じることから,効果的な解析手段が無ければ,折角の情報が死蔵されてしまう懸念がある.とりわけ,「災害により引き起こされたと考えられる病態に関する情報の抽出」は,既存のカルテ解析とは異なる課題であるため,今後,災害カルテのデジタル化と効率的な解析に向けた自然言語処理技術の発展が望まれる.\subsection{医療・公衆衛生系メーリングリスト情報}被災地では,震災後から,行政が主導するDMAT(災害派遣医療チーム:DisasterMedicalAssistanceTeam),日本医師会によるJMAT(JapanMedicalAssosiationTeam)や日本赤十字社,日本プライマリケア医学会によるPCAT等の医療支援チームが数多く活動した.また,保健所等において公衆衛生に携わる公衆衛生医師や保健師等の派遣や,東日本大震災リハビリテーション支援関連10団体など,職能団体による支援も数多くなされた.これらの活動により被災地入りした医療従事者は,震災直後より,学会や各種団体,同窓会等の組織が維持するメーリングリストに多くの現地報告を投稿した.一例として,筆者の所属するメーリングリストに2011年3月14日に投稿された現地報告の抜粋を以下に示す.\vspace{1\Cvs}\begin{screen}同日朝より○○地区の災害現場の担当となり,要救護者の対応や死亡確認などを行いました.津波による影響で民家はすべて崩壊していましたが,歩行困難患者と低体温患者を数名処置し病院に搬送しました.ただし,その午後および翌日は死亡者の確認がほとんどという残念な状況でした.消防および救急隊,自衛隊と一緒になって活動しましたが足場も悪いため死亡者も見た目で分かるところ以外の検索は困難であり,時折来る津波警報で撤退し,落ち着いたら再び現場に戻るを繰り返していました.死亡者も多くその場から回収できない状態です.DMATとして現場ではあまり役に立てず,本当に心が痛みました.\end{screen}\vspace{1\Cvs}例文に示されているように,本報告には,i)現地の客観的な情報(津波の影響で民家はすべて崩壊),ii)具体的な活動内容(軽症例の処置と死亡確認),iii)活動の医学的な評価(DMATは現場で役に立たなかった),iv)報告者の主観的な感想(心が痛んだ)が混在している.しかしながら,高度に訓練を積んだ医療従事者による現地報告には,要所を押さえた現地情報や活動の評価等の貴重な情報が,発災後の早い段階から含まれていたことが分かる.災害時における被災情報をソーシャルネットワークから抽出する試みにおいては,発信者の匿名性や伝聞情報による撹乱が課題となる.一方で,医療従事者によるメーリングリストは,報告者の特定が容易であり,情報源としての確度が高い.また,情報の専門性も高く,投稿数も豊富であった.そのために,災害の支援活動初期に生じる膨大なテキストからこれらの情報を効率的に抽出する技術は,その後の災害支援活動にとって極めて有益となる可能性がある.一方で,メーリングリストへの投稿文は構造を持たないことに加えて,人命に関わる意思決定に関係することから情報抽出の精度が求められ,自然言語処理には適さない課題かも知れない.しかしながら,自然言語処理を活用した各種ツールが大量の情報整理を効率化する可能性は依然として高く,首都圏における大規模災害時等,多量の情報が発生することが想定される災害への備えとして,求められる自然言語処理技術のあり方を検討しておくことが望ましい.
\section{おわりに}
わが国は,地震や風水害が多いだけでなく,狭い国土に多くの国民が住むことから,高度成長期に多発した環境汚染問題など,大規模な健康問題が生じるリスクを常に抱えている.とりわけ,首都圏直下型地震のような大災害やパンデミックは常に発生する可能性があり,これらの際には保健医療に関わる膨大なテキストが発生しうる.そこで,厚生労働省も,健康危機への備えとして,既知の経験を収集し\cite{tanihata2012},避難者情報の効率的な把握と共有に向けた研究投資を行ってきた\cite{mizushima2012}.しかしながら,情報の柔軟性を担保するうえで必要となる自由記載文に対しては,依然,効率的な処理手段を欠いている.具体的には,被災者情報のフィルタリング,情報抽出,個人同定,被災者集団情報からの文書要約,情報抽出,文書分類ないし情報検索技術,支援報告からの情報抽出等は,ほとんど手付かずの状況にある.一方,これらはまさに自然言語処理が取り組んできた課題であり,東日本大震災の教訓を生かすうえでも,今回の災害が遺した教訓とデータを元に保健医療情報における大量の自由記載文を効率的に処理する備えを行っておくことが望ましい.筆者らも,可能な限りでの情報の保存と研究利用に向けた環境整備に努めており,今後,自然言語処理研究者による集積したデータの活用と研究分野としての発展を願っている.\acknowledgment本稿の背景となった,東日本大震災における保健医療分野の対応を自然言語処理を用いてご支援頂く試みにおいては,グーグル株式会社賀沢秀人氏に多大なご尽力を賜った.また,奈良先端大松本裕治先生,東北大学乾健太郎先生,情報通信研究機構鳥澤健太郎先生,東北大学岡崎直観先生,東京工業大学橋本泰一先生,東京大学荒牧英治先生,富士通研究所落谷亮氏の各先生方からは,多くの御助言を頂き,また,実際の解析の労をお取り頂いた.お茶の水女子大学須藤紀子先生,国立健康・栄養研究所笠岡(坪山)宜代先生,日本栄養士会下浦佳之理事,清水詳子様には,災害時の栄養管理に関する自然言語処理に関して御指導を賜った.また,査読者の方々には,有益なご助言を多数頂いた.この場をお借りし深謝申し上げます.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{荒牧}{荒牧}{2012}]{aramaki2012}荒牧英治\BBOP2012\BBCP.\newblock言語処理による分析—支援物資の分析.\\newblock\Jem{日本栄養士会雑誌},\mbox{\BPG~8}.\bibitem[\protect\BCAY{風間}{風間}{2012}]{kazama2012}風間淳一\BBOP2012\BBCP.\newblock言語処理による分析—活動報告の評価情報分析.\\newblock\Jem{日本栄養士会雑誌},\mbox{\BPG~9}.\bibitem[\protect\BCAY{国立国会図書館}{国立国会図書館}{2012}]{ndl2012}国立国会図書館(2012).\newblock東日本大震災アーカイブ.\\newblock\Turl{http://kn.ndl.go.jp/}.\bibitem[\protect\BCAY{國井}{國井}{2012}]{kunii2012}國井修\JED\\BBOP2012\BBCP.\newblock\Jem{災害時の公衆衛生—私たちにできること}.\newblock南山堂.\bibitem[\protect\BCAY{水島\JBA金谷\JBA藤井}{水島\Jetal}{2012}]{mizushima2012}水島洋\JBA金谷泰宏\JBA藤井仁\BBOP2012\BBCP.\newblockモバイル端末とクラウド,CRMを活用した災害時健康支援システムの構築.\\newblock\Jem{モバイルヘルスシンポジウム2012}.\bibitem[\protect\BCAY{内閣府}{内閣府}{1999}]{naikakufu1999}内閣府(1999).\newblock阪神・淡路大震災教訓情報資料集.\\newblock\Turl{\\http://www.bousai.go.jp/kyoiku/kyokun/hanshin\_awaji/data/}.\bibitem[\protect\BCAY{岡崎\JBA鍋島\JBA乾}{岡崎\Jetal}{2012}]{okazaki2012}岡崎直観\JBA鍋島啓太\JBA乾健太郎\BBOP2012\BBCP.\newblock言語処理による分析—日本栄養士会活動報告の分析.\\newblock\Jem{日本栄養士会雑誌},\mbox{\BPGS\6--8}.\bibitem[\protect\BCAY{奥村}{奥村}{2009}]{okumura2009}奥村貴史\BBOP2009\BBCP.\newblock新型インフルエンザ対策を契機とした国立保健医療科学院における反復型開発による感染症サーベイランスシステムの構築.\\newblock\Jem{保健医療科学},{\Bbf58}(3),\mbox{\BPGS\260--264}.\bibitem[\protect\BCAY{奥村\JBA金谷}{奥村\JBA金谷}{2012}]{okumura2012}奥村貴史\JBA金谷泰宏\BBOP2012\BBCP.\newblock災害時における支援活動報告.\\newblock\Jem{日本栄養士会雑誌},\mbox{\BPGS\12--13}.\bibitem[\protect\BCAY{震災対応セミナー実行委員会}{震災対応セミナー実行委員会}{2012}]{shinsai2012}震災対応セミナー実行委員会\BBOP2012\BBCP.\newblock\Jem{3.11大震災の記録—中央省庁・被災自治体・各士業等の対応}.\newblock民事法研究会.\bibitem[\protect\BCAY{須藤}{須藤}{2012}]{sudo2012}須藤紀子\BBOP2012\BBCP.\newblock東日本大震災における被災地以外の行政栄養士による食生活支援の報告会.\\newblock\Jem{厚生労働科学研究費補助金健康安全・危機管理対策総合研究事業『地域健康安全を推進するための人材養成・確保のあり方に関する研究』平成23年度総括・分担研究報告書},\mbox{\BPGS\126--152}.\bibitem[\protect\BCAY{田中}{田中}{2012}]{tanaka2012}田中博\BBOP2012\BBCP.\newblock災害時と震災後の医療IT体制:そのグランドデザイン.\\newblock\Jem{情報管理},{\Bbf54}(12),\mbox{\BPGS\825--835}.\bibitem[\protect\BCAY{谷畑\JBA奥村\JBA水島\JBA金谷}{谷畑\Jetal}{2012}]{tanihata2012}谷畑健生\JBA奥村貴史\JBA水島洋\JBA金谷泰宏\BBOP2012\BBCP.\newblock健康危機発生時に向けた保健医療情報基盤の構築と活用.\\newblock\Jem{保健医療科学},{\Bbf61}(4),\mbox{\BPGS\344--347}.\bibitem[\protect\BCAY{東北大学災害科学国際研究所}{東北大学災害科学国際研究所}{2012}]{tohoku2012}東北大学災害科学国際研究所(2012).\newblockみちのく震録伝.\\newblock\Turl{http://shinrokuden.irides.\linebreak[2]tohoku.\linebreak[2]ac.jp/}.\bibitem[\protect\BCAY{Utani,Mizumoto,\BBA\Okumura}{Utaniet~al.}{2011}]{utani2011}Utani,A.,Mizumoto,T.,\BBA\Okumura,T.\BBOP2011\BBCP.\newblock\BBOQHowGeeksRespondedtoaCatastrophicDisasterofaHigh-techCountry:RapidDevelopmentofCounter-disasterSystemsfortheGreatEastJapanEarthquakeofMarch2011.\BBCQ\\newblockIn{\BemProceedingsofSpecialWorkshoponInternetandDisasters(SWID11)}.\end{thebibliography}\begin{biography}\bioauthor{奥村貴史}{1998年慶應義塾大学大学院修了.2007年国立旭川医科大学医学部医学科卒業,同年ピッツバーグ大学大学院計算機科学科にてPh.D.(ComputerScience).2009年国立保健医療科学院研究情報センター情報評価室長,2011年より研究情報支援研究センター特命上席主任研究官.}\bioauthor{金谷泰宏}{1988年防衛医科大学校卒業,医学博士,1999年厚生省保健医療局エイズ疾病対策課課長補佐,2003年防衛医科大学校防衛医学研究センター准教授,2009年国立保健医療科学院政策科学部長,2011年より同院健康危機管理研究部長.}\end{biography}\biodate\clearpage\end{document}
| |
V17N04-08
|
\section{はじめに}
現在,機械翻訳システムの分野において,対訳データから自動的に翻訳モデルと言語モデルを獲得し統計的に翻訳を行う,統計翻訳が注目されている.翻訳モデルは,原言語の単語列から目的言語の単語列への翻訳を確率的に表現するモデルである.言語モデルは,目的言語の単語列に対して,それらが起こる確率を与えるモデルである.翻訳モデルには,大きくわけて語に基づく翻訳モデルと句に基づく翻訳モデルがある.初期の統計翻訳は,語に基づく翻訳モデルであった.語に基づく翻訳モデルでは,原言語の単語から目的言語の単語の対応表を作成する.対応する単語が無い場合はNULLMODELに対応させる~\cite{IBM}.しかし,翻訳文を生成する時,NULLMODELに対して,全ての単語の出現を仮定する必要がある.これが翻訳精度が低下する原因の一つになっていた.そのため現在では句に基づく翻訳モデルが主流になっている~\cite{PSMT}.句に基づく翻訳モデルは,原言語の単語列から目的言語の単語列の翻訳に対して確率を付与する.また,NULLMODELは使用しない.そして,原言語の単語列から目的言語の単語列への翻訳を,フレーズテーブルで管理する.しかし,フレーズテーブルのフレーズ対はヒューリスティクを用いて自動作成されるため,一般にカバー率は高いが信頼性は低いと考えられる.また,フレーズテーブルのフレーズ対は,確率値の信頼性を高めるため,短いフレーズ対に分割される.そのため,長いフレーズ対は少ない.ところで,日英翻訳では,過去に手作業で作成した日本語の単語列から英語の単語列への翻訳対が大量に作成されている.この翻訳対の信頼性は高いと考えられる.しかし自動作成されたフレーズ対と比較すると,カバー率は低い.そこで,本研究では,それぞれの長所を生かすために,プログラムで自動作成したフレーズ対に手作業で作成された翻訳対を追加することで翻訳精度の向上を目指した.本研究では,手作業で作成した原言語の単語列から目的言語の単語列への翻訳対を,自動的に作成したフレーズテーブルに追加する.この追加されたフレーズテーブルを利用して日英翻訳の精度向上を試みる.実験では,日英重複文文型パターン辞書~\cite{tori}の対訳文対から得られた翻訳対を利用する.手作業で作成された約13万の翻訳対に翻訳確率を与え,プログラムで自動作成したフレーズテーブルに追加する.この結果,BLEUスコアが,単文では12.5\%から13.4\%に0.9\%向上した.また重複文では7.7\%から8.5\%に0.8\%向上した.また得られた英文100文に対し,人間による対比較実験を行ったところ,単文では,従来法が5文であるのに対し提案法では23文,また重複文では,従来法が15文であるのに対し提案法では35文,翻訳精度が良いと判断された.これらの結果から,自動作成されたフレーズテーブルに手作業で作成された翻訳対を追加する,提案手法の有効性が示された.
\section{統計翻訳システム}
\subsection{基本概念}日英の統計翻訳は,日本語文$j$が与えられたとき,全ての組合せの中から確率が最大になる英語文$\hat{e}$を探索することで翻訳を行う~\cite{IBM}.以下にその基本式を示す.\[\hat{e}=argmax_{e}P(j|e)P(e)\]$P(j|e)$は翻訳モデル,$P(e)$は言語モデルと呼ぶ.翻訳モデルは日本語と英語が対になった対訳コーパスから学習して作成する.また,言語モデルは,出力文側の言語である英語コーパスから学習して作成する.デコーダは言語モデルと翻訳モデルを用いて,尤度の最も高い英文を生成する.\subsection{翻訳モデル}\begin{table}[b]\caption{フレーズテーブルの例}\label{tbl:フレーズテーブルの例}\input{09table01.txt}\end{table}翻訳モデルは,日本語の単語列から英語の単語列または英語の単語列から日本語の単語列へ,確率的に翻訳を行うモデルである.翻訳モデルには,大きくわけて語に基づく翻訳モデルと句に基づく翻訳モデルがある.初期の統計翻訳では,語に基づく翻訳モデルを用いていたが,現在は句に基づく翻訳モデルが翻訳精度が高いため主流になっている.句に基づく翻訳モデルでは,日本語や英語の単語列と確率は,フレーズテーブルで管理される~\cite{moses}.表\ref{tbl:フレーズテーブルの例}にフレーズテーブルの例を示す.このテーブルは,左から,``日本語フレーズ'',``英語フレーズ'',``フレーズの英日翻訳確率$P(j|e)$'',``英日方向の単語の翻訳確率の積'',``フレーズの日英翻訳確率$P(e|j)$'',``日英方向の単語の翻訳確率の積''である.\subsection{フレーズテーブルの作成法}句に基づく翻訳モデルは,原言語の単語列から目的言語の単語列の翻訳に対して確率を付与する.これをフレーズテーブルで管理する.以下に作成手順について説明する.\begin{description}\item[手順1]単語alignmentの計算(日英,英日)まず,IBMモデル~\cite{IBM}を利用することで,単語alignmentを得る.これを英日,日英の両方向に対して行う.つまり,学習データに対して,英日方向の単語alignmentと日英方向の単語alignmentを計算する.このtoolとしてGIZA++~\cite{giza}が用いられる.\item[手順2]単語列alignmentの計算(unionとintersection)次に,英日・日英両方向の単語alignmentから,英日・日英両方向に1対多の対応を認めた単語列alignmentを求める.この単語列alignmentは英日・日英両方向の単語対応の積集合(intersection)と和集合(union)を利用してヒューリスティックスで求める~\cite{Och}.尚,積集合(intersection)は,両方向ともに単語alignmentが存在する場合のみ単語列alignmentを残し,和集合(union)は,少なくとも片方向に単語alignmentが存在する場合に単語列alignmentを残す.対称な単語列対応を求めるヒューリスティックス(grow-diag-final)は,まず積集合から始まり,和集合にしかない単語対応が妥当であるかを判断しながら,単語対応を徐々に加える~\cite{tsukuba}.なお通常の統計翻訳では,grow-diag-finalが利用されている.\begin{table}[b]\caption{対訳文の例}\label{対訳文の例}\input{09table02.txt}\end{table}\item[手順3]フレーズテーブルの抽出単語列alignmentから,ヒューリステックを用いて日本語単語列と英語単語列のフレーズ対を得る.そのフレーズ対に対して翻訳確率を計算してフレーズテーブルを作成する.表\ref{対訳文の例}を学習データとしたとき,grow-diag-finalで作成されたフレーズテーブルを表\ref{tbl:作成されたフレーズテーブルの例(grow-diag-final)}に示す.また,intersectionで作成されたフレーズテーブルを表\ref{tbl:作成されたフレーズテーブルの例(intersection)}に示す.パラメータintersectionで作成したフレーズテーブルは,多くのフレーズ対を持ち,かつ長いフレーズ対を含むことが分かる.\end{description}\begin{table}[t]\caption{grow-diag-finalで作成されたフレーズテーブル(全12フレーズ)}\label{tbl:作成されたフレーズテーブルの例(grow-diag-final)}\input{09table03.txt}\end{table}\begin{table}[t]\caption{intersectionで作成したフレーズテーブルの例(全185フレーズから一部抜粋)}\label{tbl:作成されたフレーズテーブルの例(intersection)}\input{09table04.txt}\end{table}\subsection{言語モデル}言語モデルは,目的言語の単語列に対して,それらが起こる確率を与えるモデルである.日英翻訳では,より英語らしい文に対して高い確率を与えることで,翻訳モデルで翻訳された訳文候補の中から英語として自然な文を選出する.言語モデルとしては$N$-gramモデルが代表的である.尚,学習データに表れない単語連鎖確率値を0.0とすると,テストデータにおいて,目的言語の全ての単語列の確率が0.0になって,単語列が出力されないことがある.そのため,学習データに存在しない単語連鎖確率は,スムージングによって0.0以外の確率を割り当てる.代表的なスムージング法として,BackoffやKneser-Neyがある.これらは高次の$N$-gramに,低次の$N$-gramと閾値を掛けて利用する.\subsection{デコーダ}デコーダは翻訳モデルと言語モデルの確率が最大となる文を探索し,出力する.デコーダとしてmoses~\cite{moses}が代表的である.mosesはいくつかのパラメータを設定することが出来る.mosesで設定できるパラメータの例を以下に示す.\begin{itemize}\itemweight-l…言語モデルの重み\itemweight-t…翻訳モデルの重み\itemweight-d…単語の移動の距離の重み\itemweight-w…目的言語の長さに関するペナルティ\itemdistortion-limit…フレーズの並び変えの範囲の制限値\end{itemize}これらのパラメータは,パラメータチューニング(\ref{sec:papametertuning}節)を行うことで最適値を求めることが出来る.\subsection{パラメータチューニング}\label{sec:papametertuning}正解があるdevelopmentデータに対して評価値を最大にするように,デコーダのパラメータを最適化することができる.これをパラメータチューニングと呼ぶ.この方法として,MinimumErrorRateTraining(MERT)~\cite{mert}が一般的によく利用される.MERTは,developmentデータの,各文について上位$N$個(通常100個)の翻訳候補を出力し,目的の評価値(通常BLEU)を最大にするようにデコーダのパラメータの値を調節する.通常,パラメータチューニングを行うと,テストデータのBLEUスコアは上昇する.しかし,実験条件を変更するたびに,パラメータチューニングを行うと,多くの時間がかかる.また,本研究では,全ての実験において,実験条件を同一にする必要がある.そのため,パラメータの最適化は行わない.
\section{自動的に作成したフレーズテーブルへの翻訳対の追加(提案方法)}
\subsection{翻訳対への翻訳確率の付与}手作業で作成された翻訳対を,自動的に作成したフレーズテーブルに追加するために,翻訳対に翻訳確率を付与する必要がある.この翻訳確率として,自動作成したフレーズテーブルの翻訳確率を利用する.ただし,フレーズテーブルを作成するときにパラメータgrow-diag-finalを用いると,確率が付与される翻訳対は少ない.そこで,翻訳確率を与えるためのフレーズテーブルには,多くのフレーズ対を作成するパラメータintersectionを用いて作成する.\subsection{翻訳対の追加手順}手作業で作成した翻訳対をフレーズテーブルに追加する手順を図\ref{fig:手作業で作成したフレーズ対への確率値の付与方法}に示す.\begin{figure}[t]\begin{center}\includegraphics{17-4ia9f1.eps}\end{center}\caption{手作業で作成したフレーズ対への確率値の付与方法}\label{fig:手作業で作成したフレーズ対への確率値の付与方法}\end{figure}手作業で作成した翻訳対をフレーズテーブルに追加する手順を以下に示す.\begin{table}[t]\caption{パラメータintersectionで作成したフレーズテーブルの例}\label{tbl:パラメータintersectionで作成したフレーズテーブルの例}\input{09table05.txt}\end{table}\begin{description}\item[手順1]前処理日英重複文文型パターン辞書~\cite{tori}から対訳文を抽出し``chasen~\cite{chasen}''で形態素解析を行う.英語文に対しては大文字の小文字化を行う.また,句読点の前にスペースを入れる.前処理を行った後の対訳文の具体例を表\ref{tbl:対訳文の例}に示す.\item[手順2]intersectionを用いたフレーズテーブルの作成手順1で抽出した対訳文を用いてフレーズテーブルを作成する.作成時のパラメータにはintersectionを用いる.作成したフレーズテーブルの例を表\ref{tbl:パラメータintersectionで作成したフレーズテーブルの例}に示す.\item[手順3]手作業で作成した翻訳対への翻訳確率値を付与手順2で作成したフレーズテーブルを参照して,手作業で作成した翻訳対に翻訳確率値を付与する.翻訳対が``オーバーコートを脱ぎ捨て$|||$flunghiscoatoff''の場合は1行目のフレーズ対の翻訳確率値``0.53.88199e-080.56.46865e-06''を付与する.\item[手順4]grow-diag-finalをもちいたフレーズテーブルの作成手順1で抽出した対訳文を用いてフレーズテーブルを作成する.作成時のパラメータにはgrow-diag-finalを用いる.作成したフレーズテーブルの例を表\ref{tbl:パラメータgrow-diag-finalで作成したフレーズテーブルの例}に示す.\item[手順5]フレーズテーブルの追加\pagebreak手順4で作成したフレーズテーブルに,手順3で作成した翻訳確率を付与した翻訳対を追加する.\end{description}\begin{table}[t]\caption{パラメータgrow-diag-finalで作成したフレーズテーブルの例}\label{tbl:パラメータgrow-diag-finalで作成したフレーズテーブルの例}\input{09table06.txt}\end{table}\begin{table}[t]\caption{確率値を付与した翻訳対を追加したフレーズテーブルの例}\label{tbl:確率値を付与した翻訳対を追加したフレーズテーブルの例}\input{09table07.txt}\end{table}尚,本稿では,手順4で作成したフレーズテーブルを用いた翻訳をベースラインと呼び,手順5のフレーズテーブルを用いた翻訳を提案手法と呼ぶ.
\section{翻訳実験}
\label{翻訳実験の結果}翻訳実験は,単文と重複文の2種類で行う.\subsection{学習データ}\label{sec:trainingdata}単文の翻訳実験には,電子辞書などから抽出した単文10万文対~\cite{murakami}を学習データとして用いる.重複文の翻訳実験には日英重複文文型パターン辞書~\cite{tori}から抽出した対訳文対,121,913文対を用いる.尚,単文10万文は,日本語が単文であるが,対訳英文は単文とは限らず複文の場合もある.重複文121,913文は,日本文が重文もしくは複文であるが,英文は複文とは限らず単文である場合もある.前処理[手順1]を行った対訳文の例を表\ref{tbl:対訳文の例}に示す.\subsection{手作業で作成された翻訳対}\label{sec:translationpair}手作業で作成された翻訳対は,日英重複文文型パターン辞書~\cite{tori}から抽出した対訳コーパスから作成された翻訳対261,453個を用いる.この翻訳対は,プロの翻訳者が手動で作成した対訳対で,単語,句,節の単位で対応づけられている.また,この翻訳対は日本語文が重複文で英語が単文もしくは重複文である対訳コーパスから抽出されている.文献~\cite{ikehara}に,この翻訳対の詳しい説明がある.基本的には,日本語文と英語文の対訳文から日本語パターンと英語パターンを作成する.このとき,作成できる日英翻訳対を利用する.翻訳対の抽出において,長さの制限は行っていない.また,重複する句は抽出していない.例を表\ref{tbl:翻訳対の作成例}に示す.\begin{table}[t]\caption{対訳文の例}\label{tbl:対訳文の例}\input{09table08.txt}\end{table}\begin{table}[t]\caption{翻訳対の作成例}\label{tbl:翻訳対の作成例}\input{09table09.txt}\end{table}手作業で作成された翻訳対の例を表{\ref{tbl:手作業で作成された翻訳対の例}}に示す.翻訳対の分布図を図{\ref{fig:手作業で作成した翻訳対の単語数の分布図}}に示す.この図では,縦軸が全体に占める割合で,横軸が1つの翻訳対における単語数である.日本語における単語数を■,英語における単語数を□で示している.これからわかるように,2単語のフレーズが最も多く,単語数と,その単語数がしめる割合は,zipfの法則に沿っていることがわかる.なお,本稿では,手作業で作成された単語列の対訳対を翻訳対と呼ぶ.\subsection{テストデータ}\label{sec:testdata}テストデータには,電子辞書などから抽出した単文1,000文対~\cite{murakami}を用いる.重複文の翻訳実験には日英重複文文型パターン辞書~\cite{tori}から抽出した対訳文対1,000文対を用いる.ただし,テストデータは学習データ(\ref{sec:trainingdata}節)や手作業で作成された翻訳対(\ref{sec:translationpair}節)と,別の辞書を利用する.従って,テストデータは,学習データや翻訳対に対してopendataとなる.\begin{table}[t]\caption{手作業で作成された翻訳対の例}\label{tbl:手作業で作成された翻訳対の例}\input{09table10.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{17-4ia9f2.eps}\end{center}\caption{手作業で作成した翻訳対の単語数の分布図}\label{fig:手作業で作成した翻訳対の単語数の分布図}\vspace{-1\baselineskip}\end{figure}\subsection{翻訳モデルと言語モデルとデコーダ}\begin{enumerate}\item{フレーズテーブルの作成}翻訳モデルはフレーズテーブルで管理される.フレーズテーブルの作成には,train-phrase-model.perl~\cite{pharaoh}を用いて自動的に作成する.尚,本稿では,プログラムで自動作成した単語列の対訳対をフレーズ対と呼ぶ.また,フレーズ対の最大の単語数を決めるmaxphraselengthは20とする.\item{$N$-gramモデルの学習}言語モデルには,$N$-gramモデルを用いる.$N$-gramモデルの学習には,``SRILM~\cite{srilm}''を用いる.本研究では5-gramモデルを用いる.また,スムージングのパラメータには,Kneser-Neyである``-ukndiscount''を用いる.\item{デコーダ}デコーダは``moses~\cite{moses}''を用いる.また,翻訳モデルには,日英翻訳確率と英日翻訳確率の相互情報を用いる~\cite{closs}.したがって,翻訳モデルの重み``weight-t''は``0.500.500''とする.また,翻訳時にフレーズの位置の変化に柔軟に対応するため,単語の移動重み``weight-d''は0.2とする.また単語の移動距離の制限``distortion-limit''は,$-1$(無制限を意味)とする.その他は,default値とする.\end{enumerate}\subsection{評価方法}評価は,コンピュータによる自動評価と人間による評価の,2種類で行う.\begin{enumerate}\item{自動評価}機械翻訳システムの翻訳精度を自動評価する手法として,あらかじめ実験者が用意した正解文と,翻訳システムが出力した文とを比較する手法が利用されている.この自動評価法には多くの方法が提案されている.本研究では,$N$-gramを用いたBLEU~\cite{BLEU}と類似単語辞書を用いたMETEOR~\cite{METEOR}を用いる.\item{人間による評価}人間による評価として,対比較実験を行う.得られた英文から100文をランダムに抽出し,ベースラインの翻訳結果と提案手法の翻訳結果のどちらの翻訳結果が優れているかを人間で判断する.その際,本研究において固有名詞の未知語はローマ字変換して評価し,それ以外の未知語は存在しないとして評価を行う.\end{enumerate}\begin{table}[b]\vspace{-1\baselineskip}\caption{総フレーズ数}\label{tbl:総フレーズ数}\input{09table11.txt}\end{table}\subsection{実験結果フレーズテーブルの増加数}ベースラインのフレーズ数,確率値が付与できた翻訳対の数,最終的に作成されたフレーズ数を表\ref{tbl:総フレーズ数}に示す.手作業で作成された翻訳対は,261,453対であった.しかし約半数以上に対して確率値を付与できなくて,削除されていることがわかる.また,提案法におけるフレーズテーブルのフレーズ数は,ベースラインと比較すると約2割増加している.確率が付与された翻訳対の例を表\ref{tbl:確率値が付与された翻訳対の例}に示す.\subsection{実験結果翻訳精度の評価}\label{subsec:翻訳精度の評価}\begin{enumerate}\item{自動評価}日英翻訳のテストデータには,単文1,000文と重複文1,000文を用いる.ベースラインと提案手法の翻訳精度の自動評価の結果を表\ref{tbl:日英翻訳の実験結果(テストデータ1,000文)}に示す.結果から,単文,重複文のいずれの翻訳においても提案手法の翻訳精度が向上していることが分かる.\begin{table}[b]\caption{確率値が付与された翻訳対の例}\label{tbl:確率値が付与された翻訳対の例}\input{09table12.txt}\end{table}\begin{table}[b]\caption{実験結果(テストデータ1,000文)}\label{tbl:日英翻訳の実験結果(テストデータ1,000文)}\input{09table13.txt}\end{table}\begin{table}[b]\caption{対比較実験の結果}\label{tbl:対比較実験の結果}\input{09table14.txt}\end{table}\item{人間による対比較実験}\label{sec:対比較実験}表\ref{tbl:日英翻訳の実験結果(テストデータ1,000文)}の日英翻訳結果からランダムに抽出した100文に対して,人間による対比較実験を行う.対比較実験において,ベースラインの翻訳結果の方が,優れていると評価した文を,``提案手法×''とする.提案手法の翻訳結果が,ベースラインの翻訳結果より優れていると評価した文を,``提案手法○''とする.また,ベースラインと提案手法で翻訳結果が変化しなかった文を``変化無し''とする.対比較実験の結果を表\ref{tbl:対比較実験の結果}に示す.結果から,全ての翻訳において,提案手法が優れている割合が高くなっていることが分かる.\end{enumerate}
\section{翻訳対の翻訳確率の重みの最適化}
\label{sec:翻訳対の翻訳確率の重みの最適化}\ref{翻訳実験の結果}章の実験では,手作業によって作成した翻訳対に,パラメータintersectionで作成した翻訳確率を付与した.しかし,手作業で作成された翻訳対は信頼性が高いと考えられる.そこで,翻訳対に付与する翻訳確率の重みを大きくした方が翻訳精度が向上すると考えられる.そこで,翻訳対に付与する翻訳確率の重みを大きくした実験を行う.\subsection{翻訳確率の重みを変えた翻訳実験}単文および重複文の翻訳実験において,手作業で作成した翻訳対の翻訳確率の重みを2倍,4倍,8倍に変化させたときの,BLEUスコアとMETEORの変化を調査する.結果を表\ref{tbl:翻訳確率の重みを変化させた時の翻訳実験結果}に示す.\begin{table}[b]\caption{翻訳確率の重みを変化させた時の翻訳実験結果}\label{tbl:翻訳確率の重みを変化させた時の翻訳実験結果}\input{09table15.txt}\end{table}\begin{table}[b]\caption{対比較実験の結果}\label{tbl1:対比較実験の結果}\input{09table16.txt}\end{table}日英の翻訳において,単文の翻訳時には翻訳確率の重みを2倍,重複文の翻訳時には8倍にした時に翻訳精度がもっとも良かった.最適な翻訳確率の重みを用いたときの提案手法の翻訳精度と,ベースラインの翻訳精度の差を比較した場合,BLEUでは,単文で0.9\%,重複文で0.8\%向上していることがわかる.\subsection{対比較実験}\label{sec1:対比較実験}表\ref{tbl:翻訳確率の重みを変化させた時の翻訳実験結果}の翻訳結果100文に対して,表\ref{tbl:対比較実験の結果}と同じ条件で対比較実験を行った結果を表\ref{tbl1:対比較実験の結果}に示す.表\ref{tbl:対比較実験の結果}と比較すると,特に重複文において改善が見られる.\subsection{対比較実験の解析}表\ref{tbl1:対比較実験の結果}における対比較実験の例文を以下に示す.\begin{enumerate}\item{提案手法が優れている例}提案手法が優れていると評価した例を表\ref{tbl1:対比較実験の結果提案手法が優れていると評価した例(日英翻訳の単文)}に示す.\begin{table}[b]\caption{提案手法が優れていると評価した例}\label{tbl1:対比較実験の結果提案手法が優れていると評価した例(日英翻訳の単文)}\input{09table17.txt}\end{table}\item{提案手法が劣っていると評価した例}提案手法が劣っていると評価した例を表\ref{tb11:対比較実験の結果提案手法が劣ると評価した例(日英翻訳の単文)}に示す.\end{enumerate}\begin{table}[t]\caption{提案手法が劣ると評価した例}\label{tb11:対比較実験の結果提案手法が劣ると評価した例(日英翻訳の単文)}\input{09table18.txt}\end{table}\subsection{パラメータを最適化した翻訳実験}\begin{enumerate}\item{パラメータの最適化}通常,統計翻訳においては,翻訳精度の向上を目的として,パラメータの最適化を行う.この節では,パラメータの最適化を行ったときの,提案方法の有効性を調査する.パラメータの最適化には,MinimumErrorRateTraining(MERT)~\cite{mert}を用いる.尚,フレーズテーブルの作成にはmosesに付属しているtrain-factored-phrase-model.perlを用いる.また,reorderingモデルも組み込む.\item{developmentデータ}developmentデータは,単文の実験も重複文の実験も,テストデータ(\ref{sec:testdata}節)と同一の辞書から抽出したデータを利用する.単文の翻訳実験には,developmentデータに単文100文を使用してパラメータの最適化を行う.重複文の翻訳実験にはdevelopmentデータに重複文1,000文を使用してパラメータの最適化を行う.\item{翻訳実験の結果}翻訳実験の結果を表\ref{tbl:最適化したパラメータを用いた実験結果}に示す.表{\ref{tbl:最適化したパラメータを用いた実験結果}}の結果から,パラメータの最適化を行った翻訳実験においても,BLEUが単文において0.9\%,重複文において0.2\%上昇し,提案手法の有効性が示された.\end{enumerate}\begin{table}[t]\caption{パラメータチューニングを行った実験結果}\label{tbl:最適化したパラメータを用いた実験結果}\input{09table19.txt}\end{table}
\section{考察}
\subsection{提案手法の効果の分析}表\ref{sec1:対比較実験}の対比較実験の結果において,翻訳結果が変化した78文中,58文が提案手法が優れていると評価した.この評価の理由として,妥当な語順による向上と未知語の減少に分けることが出来る.以下にその分析結果を述べる.\begin{enumerate}\item{妥当な語順による向上}提案手法の翻訳結果がベースラインと比較して,妥当な語順となって文質が向上したと判断した例を表\ref{tbl:妥当な語順の例日英翻訳}に示す.\item{未知語の減少}未知語が減少したことにより翻訳精度が向上した例を表\ref{tbl:未知語が減少した例日英翻訳}に示す.\item{妥当な語順になった文と未知語が減少した文の比較}提案手法が優れていると評価した58文において,未知語が減少した文数と,妥当な語順になった文数を表\ref{tbl:文質が向上した文数と未知語が減少した文数の比較}に示す.表\ref{tbl:文質が向上した文数と未知語が減少した文数の比較}から,約8割の文が,未知語の減少よりも妥当な語順になって翻訳精度が向上していると判断された.つまり,提案手法の有効性は,主に妥当な語順になった文の増加にあると言える.\end{enumerate}\begin{table}[t]\caption{妥当な語順による向上例}\label{tbl:妥当な語順の例日英翻訳}\input{09table20.txt}\end{table}\subsection{今後の課題}今後の課題として,以下の項目がある.\begin{enumerate}\item{手作業で作成された翻訳対の翻訳確率の最適化}手作業で作成された翻訳対は信頼性が高いため,翻訳確率値が大きい方が,高い翻訳精度が得られると考え,第\ref{sec:翻訳対の翻訳確率の重みの最適化}章において翻訳対に付与した翻訳確率の重みを変化させて翻訳実験を行った.この結果,翻訳精度が向上した(表\ref{tbl:翻訳確率の重みを変化させた時の翻訳実験結果}).しかし,重みを大きすぎると翻訳精度が低下した.この結果から,重みの最適化が必要であると考えている.そして,この重みの最適化にMERTが使用できると考えている.\item{翻訳確率値を付与できなかった翻訳対の追加}本研究では約26万個の手作業で作成された翻訳対のうち,約13万個の翻訳対に翻訳確率値を付与できた.そして,翻訳確率値を付与できなかった翻訳対約13万個は,削除した.そこで,翻訳確率値を付与できなかった翻訳対約13万個に対して,翻訳確率として閾値を与えて,翻訳実験を行った.しかし,どのような閾値を与えても,BLEU,METEORともに低下した.今後,確率を付与できなかった翻訳対の,確率の付け方を考えてみたい.\item{述語節に関する翻訳対の追加}翻訳において,述語節が正しく翻訳されているか否かは,人間の評価において重要な判断要素となりやすい.つまり,述語節が正しく翻訳されると,文の意味が分かりやすくなり,人間による翻訳精度の評価が向上する,そこで,今後は特に,述語節に関する翻訳対を追加し,翻訳精度の調査を行いたいと考えている.また,英辞郎~\cite{eijiro}には,手作業によって作成された200万以上の日英の翻訳対がある.これを利用することでさらに翻訳精度が向上すると考えている.\end{enumerate}\begin{table}[t]\caption{未知語が減少した例}\label{tbl:未知語が減少した例日英翻訳}\input{09table21.txt}\end{table}\begin{table}[t]\caption{妥当な語順になった文数と未知語が減少した文数の比較}\label{tbl:文質が向上した文数と未知語が減少した文数の比較}\input{09table22.txt}\end{table}
\section{おわりに}
本研究では,手作業で作成した信頼性の高い翻訳対を,プログラムで自動作成したフレーズテーブルに追加して,単文と重複文における日英翻訳の精度評価を行った.約13万の翻訳対を追加し,追加した翻訳対の翻訳確率の重みを変えた結果,BLEUスコアが日英翻訳において,単文では12.5\%から13.4\%に0.9\%向上した.また重複文では7.7\%から8.5\%に0.8\%向上した.また出力英文100文に対し人間による対比較実験を行ったところ,単文では,従来法が良いと判断された文が5文であるのに対し,提案法では23文,また重複文では,従来法が良いと判断された文が15文であるのに対し,提案法では35文となった.以上の結果から,提案手法の有効性が示された.今回の実験では日英重複文文型パターン辞書~\cite{tori}の対訳文対から,手作業で作成した翻訳対を追加した.今後は他の辞書の翻訳対も追加して,翻訳精度の調査をすることを考えている.また,追加する翻訳対の翻訳確率値に対する重みの最適化の方法についても考えていく.\acknowledgment日英重複文文型パターン辞書の対訳文対や,この対訳対から得られる翻訳対の作成には,多くの方の協力を得ました.基本的には鳥バンクの作成において関連した方々です.特に,以下の人に厚くお礼を申し上げます(順不同).白井諭,藤波進,小見佳恵,阿部さつき,木村淳子,竹内奈央,小船園望(以上NTT-AT),池田尚志(岐阜大学),佐良木昌(長崎純心大),新田義彦(日本大学),柴田勝征(福岡大学),山本理恵(鳥取大学工学部:事務局),大山芳史(NTT-CS研),衛藤純司(ランゲージウエア)\begin{thebibliography}{99}\bibitem{IBM}Brown,PeterF.,JohnCocke,StephenDellaPietra,VincentJ.DellaPietra,FrederickJelinek,JohnD.Lafferty,RobertL.Mercer,andPaulS.Roossin(1990).``AStatisticalApproachtoMachineTranslation.''\textit{ComputationalLinguistics},\textbf{16}(2),pp.~7985.\bibitem{PSMT}PhilippKoehn,FranzJ.Och,andDanielMarcu(2003).``Statisticalphrase-basedtranslation'',\textit{HLT-NAACL2003},pp.~127--133.\bibitem{tori}鳥バンク,``http://unicorn.ike.tottori-u.ac.jp/toribank/'',2007.\bibitem{moses}PhilippKoehn,MarcelloFederico,BrookeCowan,RichardZens,ChrisDyer,OndejBojar,AlexandraConstantin,andEvanHerbst(2007).``Moses:OpenSourceToolkitforStatisticalMachineTranslation'',In\textit{ProceedingsoftheACL2007DemoandPosterSessions},pp.~177--180.\bibitem{giza}FranzJosefOch,andHermannNey(2003).``ASystematicComparisonofVariousStatisticalAlignmentModels.''\textit{ComputationalLinguistics},\textbf{29}(1),pp.~19--51,2003.\bibitem{Och}FranzJosefOchandHermannNey(2003).``Asystematiccomparisonofvariousstatisticalalignmentmodels.''\textit{ComputationalLinguistics},\textbf{29}(1),pp.~19--51.\bibitem{tsukuba}山本幹雄,藤井敦,内山将夫,宇津呂武仁(2007).統計的機械翻訳における特許文翻訳に関する講習会,pp.~11.\bibitem{mert}FranzJosefOch(2003).``MinimumErrorRateTraininginStatisticalMachineTranslation.''In\textit{Proceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~160--167.\bibitem{chasen}松本裕治(2000).形態素解析システム「茶筌」,情報処理\textbf{41}(11),pp.~1208--1214.\bibitem{ikehara}池原悟(2009).非線形言語モデルによる自然言語処理,岩波書店,ISBN978-4-00-005882-7,pp.~220--242.\bibitem{murakami}村上仁一,池原悟,徳久雅人(2002).日本語英語の文対応の対訳データベースの作成,第7回「言語,認識,表現」年次研究会.\bibitem{pharaoh}NAACL(2006).``WorkshoponStatisticalMachineTranslationSharedTask,ExploitingParallelTextsforStatisticalMachineTranslationSharedTaskBaselineSystem,training-release-1.3.tgz''.http://www.statmt.org/wmt06/shared-task/baseline.html\bibitem{srilm}AndreasStolcke(2002).``SRILM---AnExtensibleLanguageModelingToolkit'',In\textit{ProceedignsIntl.Conf.SpokenLanguageProcessing},Denver,Colorado.\bibitem{closs}Jin'ichiMurakami,MasatoTokuhisa,andSatoruIkehara(2007).``StatisticalMachineTranslationusingLargeJ/EParallelCorpusandLongPhraseTables'',In\textit{InternationalWorkshoponSpokenLanguageTranslation2007},pp.~151--155.\bibitem{BLEU}Papineni,K.,Roukos,S.,Ward,T.,andZhu,W.~J.(2002).``BLEU:amethodforautomaticevaluationofmachinetranslation'',In\textit{40thAnnualmeetingoftheAssociationforComputationalLinguistics}pp.~311--318.\bibitem{METEOR}Banerjee,S.andLavie,A.(2005).``METEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments'',In\textit{ProceedingsofWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMTand/orSummarizationatthe43thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL-2005)}.\bibitem{eijiro}EDP編集(2008).英辞郎第4版,株式会社アルク,ISBN4757414560.\bibitem{nlp}鏡味良太,村上仁一,徳久雅人,池原悟(2009).統計翻訳における人手で作成された大規模フレーズテーブルの効果,言語処理学会第15回年次大会,pp.~224--227.\end{thebibliography}\begin{biography}\bioauthor{村上仁一}{1984年筑波大学第3学群基礎工学類卒業.1986年筑波大学大学院修士課程理工学研究科理工学専攻修了.同年NTTに入社.NTT情報通信処理研究所に勤務.1991年国際通信基礎研究所(ATR)自動翻訳電話研究所に出向.1995年NTT情報通信網研究所に復帰.1997年豊橋技術科学大学にて博士(工学).1998年鳥取大学工学部知能情報工学科に転職.現在に至る.主に音声認識のための言語処理の研究を行う.最近は統計翻訳の研究に従事.電子情報通信学会,日本音響学会,言語処理学会各会員.}\bioauthor{鏡味良太}{2009年鳥取大学工学部知能情報工学科卒業.同年エヌデック株式会社に入社.現在に至る.}\bioauthor{徳久雅人}{1995年九州工業大学大学院情報工学研究科博士前期課程修了.博士(工学).同年同大学情報工学部知能情報工学科助手,2002年鳥取大学工学部知能情報工学科助手,現在,同大学大学院工学研究科情報エレクトロニクス専攻講師.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会各会員.}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学院修士課程終了.工学博士.同年日本電信電話公社に入社.1982年情報処理学会論文賞.1993年情報処理学会研究賞.1995年日本科学技術情報センター賞.1995年人工知能学会論文賞.1996年スタンフォード大学客員教授.1996年鳥取大学工学部教授.2002年電気通信普及財団賞受賞.2006年文部科学大臣表彰科学技術賞.2009年12月逝去.数式処理,トラフィック理論,自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V17N05-03
|
\section{まえがき}
本研究では,子供の書き言葉コーパスの収集の取組みとその活用方法の可能性について述べる.自然言語データに関する情報が詳しくまとめられている奈良先端科学技術大学院大学松本裕治研究室\cite[\texttt{http://cl.aist-nara.ac.jp/index.php}]{Web_NAIST}で情報提供されている公開ツール・データによると,現在共有されている国内の言語資源には,国立国語研究所により作成された分類語彙表,小学校・中学校・高校教科書の語彙調査データ,現代雑誌九十種の用語用字全語彙,日本経済新聞や毎日新聞・朝日新聞などの新聞記事データ,国立国語研究所で作成された現代雑誌九十種の用語用字全語彙,IPALなど各種辞書の文例集,源氏物語・徒然草や青空文庫など著作権の消滅した古い文学作品データなどが挙げられる.全て列挙することはできないものの,いずれも調査対象が教科書や新聞,雑誌,辞書,文学作品などに偏っているコーパスが多い.子供の発話資料を共有する取組みであるCHILDESには日本も参加しているものの,日本語を使う子供のコーパスは非常に少ない.子供の言葉コーパスの現状として,海外には主に\begin{enumerate}\itemChildLanguageDataExchangeSystem(CHILDES)(英語をはじめ29ヶ国語の発話データが収められている大規模コーパス)\itemVocabularyofFirst-GradeChildren(MOE)(延べ286,108語,異語数6,412語の小学1年生(5歳から8歳)329名の話し言葉のデータ)\itemThePolytechnicofWalesCorpus(PoW)(6歳から12歳の児童120名より収集された約65,000語の話し言葉コーパス)\itemTheBergenCorpusofLondonTeenagerLanguage(COLT)(ロンドンの13歳から17歳の少年少女の自然な会話を録音した約50万語のコーパス)\end{enumerate}\noindentがある.(1)〜(4)のコーパスはどれも話し言葉コーパスであり,子供の書き言葉コーパスはほとんど存在しない.また子供の発話資料を共有する取組みであるCHILDESには日本も参加しているものの,日本においては,子供の話し言葉コーパス,書き言葉コーパスどちらもほとんど存在しない.電子コーパスの作成においては,コンピュータに機械的にテキストを収集させる方法が一般的である.特定の年齢で使用される書き言葉の電子コーパスを作成するためには,どの年齢の人が書いたテキストなのか判断する必要があるが,コンピュータではその判断が困難である.そのため手作業によって集めざるをえず,多大な手間と労力を必要とする.これが子供の書き言葉電子コーパスがほとんど存在しない理由のひとつであると考えられる.また,研究者が収集した子供の書き言葉資料に基づく研究結果を事例研究の域を越えて普遍的なものにするためには,その資料を共有できるようにすること,特に電子化された言語資源として公開することが必要と考えられるが,その際に立ちはだかる問題の一つとして著作権の保護がある.本研究では,Web上に公開されている作文を収集することによって子供の書き言葉コーパスの作成を行った.しかし,Web上で用例を探して見るだけでなく,その元になった文章を自分のPCにダウンロードし,ダウンロードした本人が使用するだけでなく,その資料を研究グループで複製して共有する場合は問題になる.そのため,著作権処理が必要になる.このように子供の書き言葉コーパスの収集と利用には多大な労力と注意すべき問題があるが,日本の子供の書き言葉コーパスが言語資源として共有されれば,日本語の使用実態の年齢別推移の分析や,子供の言葉に特徴的に現れる言語形式の分析など,国語教育や日本語研究での利用はもちろんのこと,認知発達,社会学など関連分野への貢献など,さまざまな応用の可能性がある.そこで本研究では,子供の書き言葉コーパスとしてWeb上に公開されている小学生の作文データを収集し,書き言葉コーパスとしてまとめたプロセスと結果の報告を行い,そのコーパスの実用例について述べる.
\section{小学生の作文データの収集}
\vspace{-0.5\baselineskip}\subsection{収集手順}収集は2004年〜2005年にかけて行った.調査対象となる全国4,950校の小学校のWebサイトをひとつひとつ訪れ,それぞれのテキストが子供の書いたテキストかどうかを目で判断した.Web上でのキーワード(作文,テキストなど)検索や文部科学省のサイトの利用なども検討したが,多くの小学校が登録している点とサイトの内容により,「Yahoo!きっず」(\texttt{http://kids.yahoo.co.jp/})の小学校カテゴリを調査対象とすることにした.「Yahoo!きっず」とは,株式会社Yahoo!Japanが運営している子供向けポータルサイトである.トップページから小学校カテゴリを選択すると,登録している全国の小学校のWebサイトに進むことができる.これらをひとつひとつ訪れ,小学校が公開している児童の作文を総当りで収集した.各作文が実際に児童の書いたテキストかどうか,何年生が書いたテキストかについては,目で判断した.(1)は収集したテキストの例である(下線は著者によるものである):\vspace{0.5\baselineskip}\begin{quote}(1)3月6日に、\underline{ぼくたちのために\mbox{「6年生を送る会」}を下級生が開いてくれました。}体育館へ入場する時、「地上の星」の音楽がかかる中、\underline{一〜五年生が拍手をして迎えてくれました。}ぼくたちが主役なので、かなりドキドキしました。ぼくは、「去年の6年生もこんなにドキドキしよったんやなー。」と思いながら、みんなの前に6年生が並びました。最初にゲームをしました。ゲームは校内ウォークラリーです。1〜6年生の縦割り班で、校内に隠れている5年生を見つけてゲームをクリアし、シールと言葉の書いたカードをもらいます。カードをならべて文章にするゲームです。ぼくは1回も1位になったことがないので今日こそ1位になるぞと思いました。ゲームがスタートしました。みんないっきにスタートしました。ぼくは自分の班に「卓球室に行こう。」と言いました。さっそく5年生はカーテンにかくれていました。ここではボーリングをしました。みんな上手に転がして残り一個になりました。最後はぼくの投げる番できんちょうしました。ゆっくり転がすと全部当たって「よっしゃー!」とみんな大喜びしました。シールを一つゲットしてカードをもらいました。他にも次々とクリアしていきました。ゲームの内容は、校内のすな時計と鏡の数を当てるとか、つみ木を十個積み上げるとかです。全部クリアして体育館にいくと、ぼくらが一位でした。僕たちの班みんな大喜びでした。班で記念写真をとってもらいました。会の最後に在校生から贈る言葉をもらいました。卒業生のそれぞれの良いところを1〜5年生に言ってもらいました。とてもうれしくて、心に残る会になりました。(URL:\texttt{http://www.kochinet.ed.jp/osaki-e/02/6/0306okurukai/newpage9.htm})\\\end{quote}このテキストでは,下線部の文脈のつながりから,6年生が書いた文章であることがわかる.このような文脈,もしくは「この作文は3年生によって書かれたものです」といったような明確な提示によって判断し,テキストをひとつずつ収集した.様々な観点からの解析の可能性を考え,Webに掲載されているデータにはあえて特別な処理は施さずにコーパスとして登録した.作成したコーパスの情報は以下の通りである.テキストのファイル形式はプレーンテキスト(\texttt{.txt}),使用文字コードはShiftJIS,使用改行コードはCR-LFである.本文格納情報は表\ref{tbl:corpus_form}の形式によりWebページで確認された項目のみ掲載した:量的情報は表\ref{tbl:corpus_stats_1}および表\ref{tbl:corpus_stats_2}の通りである:\begin{table}[p]\caption{コーパスの本文格納情報}\label{tbl:corpus_form}\input{04table01.txt}\end{table}\begin{table}[p]\caption{コーパスの量的情報(1)}\label{tbl:corpus_stats_1}\input{04table02.txt}\end{table}\begin{table}[p]\caption{コーパスの量的情報(2)}\label{tbl:corpus_stats_2}\input{04table03.txt}\end{table}なお,形態素数の算出においては全テキストに対して形態素解析を行い,全形態素数を集計した.形態素解析には日本語形態素解析システムである茶筌(ChaSen)version2.1forWindowsであるWinChaを使用した.収録語数123万語を超える本コーパスは,子供の言葉コーパスとして代表的なCOLTの約50万語と比較しても,教育研究利用価値の高いコーパスと言える.さらに,収集されたテキストは学年別にフォルダに分類するとともに,県別にもフォルダに分類している.県別のテキスト数は表\ref{tbl:corpus_prf_num}の通りである.以上より,国語教育・日本語研究との関係で語や文法の学年別使用実態の推移の分析のみなならず,県別データによる方言研究や性別による比較分析を行うことができる.さらに,タイトルごとに作文を分類すれば,子供が家族や未来,環境問題など社会のことについてどのように考えているかといったことについて調査するなど,さまざまな応用的研究にも役立つ可能性がある.\begin{table}[t]\caption{コーパスの県別テキスト数}\label{tbl:corpus_prf_num}\input{04table04.txt}\end{table}\subsection{著作権処理}収集したデータを上述のような教育研究のために広く役立てることができるようにするために,著作権法上の問題を処理するよう取り組んだ.著者が所属している大学の知的財産部と「文化庁発行の著作権標準テキスト」によれば,収集した作文データの利用法については次の可能性がある.まず,何も著作権処理を行わない場合,収集した作文を分析することは著作権法上問題なく,作文の引用も一定の要件(文化庁発行の著作権標準テキスト「8.著作物などの例外的な無断利用ができる場合」記載)を満たせば侵害しないとされる.しかし,作文の複製については,授業の教材としての複製などを除いては著作権(複製権)を侵害する,とされる.本研究で収集したデータはWeb上に公開されている作文であるため,出典を明記すれば本研究論文中に引用することは問題ないと考えられる.しかし,収集した作文データを上述のような教育研究のために広く役立てるには,複製権の問題を解消する必要がある.作文の著作権者は原則作文を書いた児童本人であり,未成年者の場合その保護者に帰属する.しかし,作文をWebサイトに公開する段階で,小学校側が保護者に許可を得て,小学校長に権利が移行している可能性があると考えられた.作文を書いた児童の保護者全員と直接連絡を取ることは困難であるため,小学校長に連絡をとることを試みた.著者が所属している大学の知的財産部門と相談の上作成した文書を,作文をWeb上に公開している小学校の校長宛に郵送し,作文文章をデータベースに採録し公開及び解析に用いることを許可するかどうか,その際学校名の公開をするかどうかについての可否を尋ね,学校長名のサインを頂戴し,一部を学校に保管し一部を返送してもらった.本来作文の著作権は作文を書いた児童ないしは保護者に帰属するため,児童によって書かれた文章をホームページに公開する段階で小学校の方で保護者の同意を得ていない場合には,保護者の許可を得ていただけるよう便宜を図ってもらえるように依頼した.コーパスに収録した10,006テキストの公開元となっている全265校の小学校長宛に上述の内容の文書を郵送した.その結果,129校から返信があり,74校からデータベースへの掲載と公開の許諾を得ることができた.掲載・公開が許可された作文を格納しているファイル数は3,706であるが,今後協力的な小学校のホームページの作文が掲載されているページを随時閲覧し,更新された作文があれば追加収集し,再度許可を得るなどのプロセスを経てより大きい言語資源としてゆく可能性があると思われる.以下では,本コーパスを実際に使用して分析を行った実用例について述べる.
\section{言語学的利用:子供のオノマトペ学年別使用実態の推移}
\subsection{日本語のオノマトペ}オノマトペとは,仏語の``onomatop\'{e}e'',もしくは英語の``onomatopoeia''に相当する.田守ら(田守,スコウラップ1999)\nocite{Bk_TamAl}によると,オノマトペはさまざまに定義されており,その定義は実に多様であるが,それらに共通している考え方は,オノマトペと考えられている語彙の形態と意味の関係が恣意的ではなく,何らかの形で音象徴的に結びついているということである.例えば「がたん」という語は,一般に現実の音を真似たものであると考えられている.「げらげら」「びりっ」「ひらひら」などの語は,それぞれ擬声語・擬音語・擬態語と呼ばれる.田守らが指摘するように,これらの概念が日本語においてオノマトペという言語範疇と実際に対応するかどうかは本来検討が必要であるが,本研究では,擬声語・擬音語・擬態語をまとめて便宜的にオノマトペと呼ぶ.飛田ら\cite{Bk_HidAl}は,外界の物音や人間・動物の声を表現する方法はいろいろあるが,\break具象的な現実から抽象的な言葉に至るまでには,(1)類似の音・声で対象の音・声を模倣する,(2)音・声による対象の音・声の表現,(3)「映像」による対象の音・声の表現,(4)文字による対象の音・声の表現,(5)擬音語というような5つの段階を踏んでいるとしている.本研究では,これらの5つのうち,(5)にあたるものを擬音語とする.また,本研究では物音と人間・動物の声を分けずに,実際に音が出ているものの表現という観点でひとまとめにし,音の出ていない表現である擬態語と対をなすものとして,擬声語を区別せずに擬音語として扱うことにした.飛田らは,擬態語に関しても,音や声の表現とまったく同様に,外界の様子や心情の表現に,(1)類似の様子で対象の様子を模倣する,(2)音・声による対象の様子の表現,(3)「映像」による対象の様子の表現,(4)文字による対象の様子の表現,(5)擬態語という5つの段階があるとしている.本研究では,これらの5つのうち(5)にあたるものを擬態語とした.擬音語は外界の物音や人間・動物の声を表し,擬態語は外界の様子や心情を表すと述べてきたが,その区別はそう簡単ではない.「雨がザーザー降っているよ」という発話において,話者が軒下にいれば,確かにザーザーで表現される現実音は聞こえてくるため,擬音語ということができる.一方,建物の中からガラス窓越しに見るときなどは,ザーザーという音は聞こえなくとも,話者は激しく降る雨の様子が見えれば,「ザーザー降っている」と表現するだろう.この場合,この「ザーザー」は雨が激しく降る様子を表す擬態語ということになる.このように,元は外界の音を表す表現だったものが,その様子をも表す表現になったとき,擬音語と擬態語を区別することは容易でないばかりか,あまり意味のないことにもなる.以上のことを踏まえ,本研究では『現代擬音語擬態語用法辞典』\cite{Bk_HidAl}を参考にし,擬音語,擬態語,また擬音語とも擬態語ともとることができる語,の3つのパターンに分類し,調査・分析を行った.\subsection{オノマトペ使用の学年別推移調査手順}作成した小学生の作文コーパスには,各学年のテキスト数に大きな差が見られるため,オノマトペ使用の学年別推移を観察するにあたり,オノマトペの出現絶対数ではなく,出現率による比較を行った.その出現率算出の際の母数には,10,006テキストの形態素の数を用いることにした.そこで,各学年の全テキストに対して形態素解析を行い,形態素に分け,その数を集計した.形態素解析には日本語形態素解析システムである茶筌(ChaSen)の,version2.1forWindowsであるWinChaを使用した.解析例を以下に示す:\\\begin{quote}(2)\textbf{原文}時間がたつにつれてひじきは、ぐんぐんへっていきます。ひじきの太さも細くなっていきます。(URL:\texttt{http://www4.i-younet.ne.jp/\~{}smihama/hijiki/hijiki10.html})\textbf{形態素に分けた文}時間/が/たつ/につれて/ひじき/は/、/ぐんぐん/へっ/て/いき/ます/。/ひじき/の/太/さ/も/細く/なっ/て/いき/ます/。\textbf{形態素数}:24語\\\end{quote}オノマトペを集計するにあたり,集計の対象となるオノマトペの電子データ化を行った.オノマトペには,『現代擬音語擬態語用法辞典』\cite{Bk_HidAl}の見出し語1,064語を用い,それらを手作業で打ち込んだ.またその際,擬音語をオノマトペ1,擬態語をオノマトペ2,擬音語とも擬態語ともとれる語をオノマトペ3という3つの分類情報も付加し,オノマトペ辞書を作成した.飛田らは,元は外界の音を表す表現だったものがその様子をも表わす表現になったとき,擬音語と擬態語を区別することは容易でないし意味がないとし,このような語は「〜の音や様子を表す」という記述の仕方で統一するとしている.また,音や声のみを表現する擬音語は「〜の音(声)を表す」とし,様子や心情のみを表現する擬態語は「〜の様子を表す」としている.本研究でもこれらの記述を参照し,下例のように各表現を分類した:\begin{quote}\textbf{オノマトペ1}:擬音語(きーん,ぱん,ぶーん)\textbf{オノマトペ2}:擬態語(するする,ころころ,どきどき)\textbf{オノマトペ3}:擬音語+擬態語(がーん,どんどん,ばしばし)\end{quote}作成したオノマトペ辞書を用いて,コーパスからオノマトペを抽出し,出現数と種類数の集計を学年別に行った.オノマトペは,ひらがなとカタカナで表現されるが,その二つの表現方法に違いが見られなかったため,同じオノマトペであれば,ひらがなとカタカナを区別せずに集計を行った.また,集計の方法としてはPerlを使用した.集計の際,1文字から4文字のものに関しては,(3)や(4)のように,オノマトペでないものが抽出される可能性があった.そのため,コーパスから抽出されたオノマトペのうち,4文字以下のものについては一つ一つ目視で確認を行い,誤って抽出されたものを除去していった.\\\begin{quote}(3)\textbf{誤抽出例}抽出すべき語:ぱく私は谷口君の所へ行った時に、梅干作り用の塩がすっごくしょっ\underline{ぱく}て大粒だった。(URL:\texttt{http://www.agri.gr.jp/kids/sakubun/2000/sakubun17.html})\end{quote}\vspace{1\baselineskip}\begin{quote}(4)\textbf{誤抽出例}抽出すべき語:ガー例えば、ぼくが大好きなハンバー\underline{ガー}は、パンの材料の小麦の八九%、牛肉は六四%を輸入している。(URL:\texttt{http://kids.yahoo.co.jp/docs/event/sakubun2004/contest/sakubun}\\\texttt{03.html})\end{quote}\subsection{結果}\begin{table}[b]\caption{オノマトペの集計結果}\label{tbl:ono_count}\input{04table05.txt}\end{table}子供の作文コーパスから抽出されたオノマトペの出現数と種類を表\ref{tbl:ono_count}に示す.ここでオノマトペの出現数,種類数とは,Aというオノマトペが4つ,Bというオノマトペが3つ抽出された場合,出現数は7,種類の数は2となる:以上の結果から,出現数と種類の数を全形態素数で割り,それぞれ表\ref{tbl:ono_freq}に示されるように出現率を求め,図\ref{fig:ono_freq_change}から図\ref{fig:ono_freq_class}のようにグラフ化した.グラフの横軸は学年を,縦軸は出現率を表している.ただし,種類の数は,学年が上がるに従い上昇する全形態素数と比例しないため,種類の数を用いた出現率については参考程度として記載する.図\ref{fig:ono_freq_change}より,出現数は3年生まで増え,それ以降は減少していることがわかる.また4年生以降は変化が少ない.\begin{table}[b]\caption{オノマトペの出現率[\%]}\label{tbl:ono_freq}\input{04table06.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{17-5ia4f1.eps}\caption{オノマトペ全体の学年推移}\label{fig:ono_freq_change}\end{center}\end{figure}オノマトペの分類別での出現率をグラフ化した図\ref{fig:ono_freq_change}から顕著であるのは,擬音語としての用法(オノマトペ1)は学年を通して少なく,擬態語としての用法(オノマトペ2)が多いということである.\begin{figure}[t]\begin{center}\includegraphics{17-5ia4f2.eps}\caption{オノマトペの分類別学年推移(出現数のみ)}\label{fig:ono_freq_class}\end{center}\end{figure}\subsection{考察}オノマトペ使用の学年別推移を観察していくにあたり,オノマトペの出現率の変化要因として,オノマトペで表されていたことが,意味の類似するオノマトペ以外の表現で表わされるようになることがあるのではないかと考えた.そのため,以下の手順により,相互に意味が類似するオノマトペと形容詞の出現率を学年別に比較することを試みた.五感を表す形容詞34語(楠見,1995)のうち,意味が類似するオノマトペが存在する「明るい」「うるさい」「臭い」「柔らかい」など20語を抽出対象とする形容詞とした.それぞれの形容詞と意味が類似するオノマトペは,例えば「明るい」を『日本語大シソーラス』の索引で検索し,そのカテゴリ内にあるオノマトペ(「きらきら」「ぎらっ」「ぎらぎら」)とした.各形容詞に対応するオノマトペが数多く見られたため,各形容詞とのAND検索によりGoogle検索エンジンにかけ,検索件数が多い順にオノマトペを3個選定した.検索は2009年10月12〜20日にかけて行った.その結果,形容詞20個につき3個のオノマトペ,合計60個のオノマトペが抽出対象となった.選定された形容詞とオノマトペについては,それぞれの学年別の出現数とともに付録1に記載する.これらの形容詞とオノマトペを学年別に分類されたコーパスから抽出し,各々の出現数を集計した.抽出にはgrepコマンドを使用した.また,表記ゆれ・品詞活用などに対応するために正規表現を用いて抽出した(例えば,/$(明る|あかる)(かろ|かっ|く|い|けれ|かれ)$/).得られた出力結果について目視で確認し,誤抽出・誤検索を除去しつつ集計した.その後,形容詞とオノマトペのそれぞれについて学年別に集計された総出現数を形態素数で割り,学年ごとの出現率を得た.結果は表\ref{tbl:adj_ono_freq}と図\ref{fig:adj_ono_change}に示す.\begin{table}[b]\caption{形容詞とオノマトペの出現率[\%]}\label{tbl:adj_ono_freq}\input{04table07.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{17-5ia4f3.eps}\caption{形容詞とオノマトペの出現率推移}\label{fig:adj_ono_change}\end{center}\end{figure}オノマトペの出現率が3年生を境に減少する原因として,オノマトペで表されていたことが,意味の類似するオノマトペ以外の表現で表わされるようになることがあるのではないかと考え,意味が類似する形容詞の出現率との比較を行った.しかし,形容詞の出現率もオノマトペと同様の推移を示し,予想通りの結果とはならなかった.そこで次に,オノマトペの出現率の変化要因を探るため,千葉大学大学院安部朋世準教授による小学校の教科書にみられるオノマトペに関する調査報告\cite[\texttt{http://www.u-gakugei.ac.jp/}\break\texttt{\~{}taiken/houkoku013.pdf}]{Web_Abe}をもとに考察する.安部は,オノマトペが小学校(及び中学校)の国語教科書にどのように現れるかを調査している.平成16年度の小・中学校国語教科書全て(各5種類)を対象として調査した結果,各学年のオノマトペ総数において,最も多いのが中学1年の1,041で,小学2年は582であることから,小学2年の出現数の多さが特徴的であるとしている.安部によれば,小学2年で各教科書が「音をあらわすことば」や「かたかなで書くことば」を学習することによるものである.平成10年告示の小学校学習指導要領における国語では,第1学年・第2学年の〔言語事項〕「イ文字に関する事項」(ア)に「平仮名及び片仮名を読み、書くこと。また、片仮名で書く語を文や文章の中で使うこと。」とあるとのことである.また,『小学校学習指導要領解説国語編』には,その項目の解説として「指導に当たっては、擬声語や擬態語、外国の地名や人名、外来語などについて、文や文章の中での実際の用例に数多く触れながら、片仮名で書く語が一定の種類の語に限られることに気付くようにする。」とあるということから,各教科書でオノマトペを扱う学習が展開されていると考えられるとしている.本研究による小学生の作文にみられるオノマトペの出現率が2年生で顕著に高いという結果は,この小学生の教科書についての調査結果と整合性がある.さらに,安部は,教科書においては,物事を描写する際に小学校低学年から中学年頃までは「オノマトペを使用して描写するもの」あるいは「オノマトペを使って描写することが望ましい」と認識されており,高学年以降になると,次第に「オノマトペ以外の方法で描写するもの」あるいは「オノマトペ以外の方法で描写するのが望ましいもの」として認識されているとしている.この調査結果についても,小学生の作文においてオノマトペの出現率が高学年で減少しているという本研究の解析結果は整合性がある.本研究による作文にみられるオノマトペの出現率の解析結果は,教科書による学習指導の成果あるいは子供の書き言葉への影響を定量的に示しているといえる.以上より,本コーパスを用いることにより小学生が使用する言語表現の学年別使用実態の推移を分析することができ,国語の学習指導の効果指標として,言語習得や国語教育へ貢献できることが示された.また,本コーパスを用いてオノマトペと共感覚比喩の一方向性仮説の関係性について言語学的観点からより詳細な分析を行った研究として,坂本\cite{Art_Sak}があり,本コーパスの有効性はすでに示されつつある.
\section{社会学的利用の可能性}
\subsection{調査対象と手順}作文には小学生が考えていることが反映されていることから,本コーパスは何らかの社会学的テーマについて小学生が考えていることを調査するためにも利用できるのではないかと考え,現代の小学生が家族についてどのような捉え方をしているのかをコーパスから探ってみることにした.本コーパスの幅広い応用の可能性を示唆したい.2.1節に記載したが,男子が書いた全作文数は2,642,女子が書いた全作文数は3,023,男女の別の記載がない作文数が4,341の合計10,006作文である.性別(男・女・記載なし)に分類されたコーパスに対して家族に関する単語(家族語)を抽出し各々の出現数を集計した.単語の抽出にはgrepコマンドを使用した.表記ゆれの対応のため検索パターンにそれぞれ表\ref{tbl:search_pat}中の検索パターンとして記載している正規表現を用いた.得られる出力結果には,「母」から「酵母」「外反母趾」,「パパ」から「パパイヤ」,「はは」から「見るのははじめて」や「わははは」など,抽出対象とする家族語と関連のない語が抽出される場合がある.このような例は,目視で確認し出力結果からは除外して集計した.\begin{table}[t]\caption{検索パターン}\label{tbl:search_pat}\input{04table08.txt}\end{table}ただし,このようなテキストの抽出方法では,記述された文章が作文を書いた本人の家族について述べている文なのかどうかが判別できない.実際(5)や(6)の例のように,自分の家族以外の人を指しているものも多く見られたため,目視によりこのような文章を削除した.該当部分に下線を引いた.\\\begin{quote}(5)私は、ミニトマトを植えました。土がぐにゃぐにゃで足がつかなかったけどついたとこもあったよ。\underline{創麻君のお母さん}とか、\underline{勇人君のお母さん}が優しく教えてくれてとっても嬉しかったです。(URL:\texttt{http://www.agri.gr.jp/kids/sakubun/2000/sakubun13.html})\end{quote}\vspace{1\baselineskip}\begin{quote}(6)帰るとき、ある家族にあって、ふくろをもっていたので「何につかうんだ?」とわたしのお父さんがききました。答えたのは、\underline{むこうのお母さん}でした。「これにホタルをつかまえてかうんだよ」と言ったので、お父さんは、どなってしまいました。(URL:\texttt{http://www.nagano-ngn.ed.jp/higashjs/activities.html})\\\end{quote}以上の手続きの結果,作文を書いた本人の家族に関して書かれたと明確に判別できた作文を格納したファイル数(以下,作文ファイル数)および男女別の内訳は,表\ref{tbl:corpus_file_num}の通りとなった.家族について書かれている全作文中で,父母について言及されている作文とそれ以外の家族について言及されている作文との比率の差の検定を行ったところ1\%水準で有意差がみられた($\chi^2=(1,N=5,665)=46.650,p<.001$).このことから子供にとって両親の影響が大きいことわかる.\begin{table}[t]\caption{家族に関する作文ファイル数内訳}\label{tbl:corpus_file_num}\input{04table09.txt}\end{table}男女ともに母親について言及している作文が最も多く,次に父親について言及している作文が多いことがわかる.男子が書いた作文に占める母親について記述した作文と父親について記述した作文の比率の差の検定を行ったところ,1\%水準で有意差がみられた($\chi^2=(1,N=1,374)=7.166,p<.001$).同様に,女子が書いた作文に占める母親について記述した作文と父親について記述した作文の比率の差の検定を行ったところ,1\%水準で有意差がみられた($\chi^2=(1,N=1,374)=18.576,p<.001$).また,父について記述した作文における男女の比率も,母について記述した作文における男女の比率も比較したが,5\%水準で有意差はなかった.このことから,男子と女子のどちらの方がより母親について記述しやすいかといった傾向はみられなかった.\subsection{分析}亀口\cite{Bk_Kam}は,小学生の標準的な家族のイメージを研究するにあたり,兄弟姉妹や祖父母などが同居しているかどうかに関わらず,親子の関係に限定して研究を行っている.前節で述べたように,作文コーパス中でも,父親と母親に関する記述を含む作文ファイル数が顕著に多い.本研究では,家族のイメージを探る上で,子供が父親や母親とのかかわりをどのように捉えているかという点に着目した.コーパスから抽出された自分の父母について記述している作文を格納しているファイルについて,男女どちらが記述しているものか,父母と何らかのやりとりをしているかどうか,そのやりとりの相手ややりとり自体に対する自分の何らかの感情・評価や行動を記述しているかどうかという観点から分類を行った.\begin{figure}[b]\begin{center}\includegraphics{17-5ia4f4.eps}\caption{父親との関係性}\label{fig:rel_father}\end{center}\end{figure}分類したファイルについて,父親と母親それぞれとのやりとりと,子供の感情・評価や行動の共起関係を比較してみた.そして,父親と母親とのやりとりとそれに対する子供の感情・評価や行動についての関係性の視覚化を試みた.手順としては,まず,抽出された母親と父親についての記述からやりとりと子供の感情・評価や行動に関する部分を抜き出し,やりとりと子供の感情・評価や行動の要素の頻度とそれぞれの要素間の共起頻度を集計した.結果は付録2に示す.ここで,やりとりもしくは子供の感情・評価や行動の要素が記述されていなかった場合は0とした.抽出されたやりとりと子供の感情・評価や行動の関係で,一度しか出てこない事例は削除し,頻度2以上のものを視覚化する対象要素とした.ただし,例えば図\ref{fig:rel_father}において,父親が子供を「怒る」というやりとりにおいては,子供の「怖い」という感情・評価との共起頻度と「好き」という感情・評価との共起頻度はそれぞれ1であるが,「怒る」との関係から出ている矢印は2本となるため,このような場合は視覚化している.視覚化においては,まず,父親と母親それぞれとのやりとりを矢印の線でつないだ.また,やりとりは実線の円で表現した.次に,やりとりと共起関係にある子供の感情・評価や行動を同じように矢印でつないだ.子供の感情・評価や行動は点線の円で示した.やりとりに関する記述がなかった子供の感情・評価や行動については,父親や母親と直接矢印でつないだ.矢印と共起頻度の値の関係性は,図中に凡例として示した.父親との関係性の視覚化結果を図\ref{fig:rel_father},母親との関係性の視覚化結果を図\ref{fig:rel_mother}に示す.父親と母親両者との関係で共通して重要なやりとりは,「言う」であることがわかる.ただし,後でも考察するが,母親の場合の方がより強い結びつきが示されている.\begin{figure}[t]\begin{center}\includegraphics{17-5ia4f5.eps}\caption{母親との関係性}\label{fig:rel_mother}\end{center}\end{figure}まず,父親との関係性の視覚化結果を中心に考察する.父親との関係において興味深いこととしては,母親とのやりとりでは挙げられていない「遊ぶ」というやりとりの要素について,「楽しい」,「嬉しい」,「おもしろい」という子供の感情が結びついていることがわかる.父親と遊ぶことは子供にとって重要なコミュニケーションであることがうかがえる.亀口\cite{Bk_Kam}も,父母ともに子供との絆の形成にはスキンシップが重要であることを述べており,中でも父親においては,やや乱暴に子供を宙に投げて受け止め,肩車をするなど,子供を興奮させて喜ばせる類の筋肉を使う身体接触が大切であるとしている.母親の場合には,「しゃべる」,「聞く」といった言語的なやりとりに対して「楽しい」という感情が結びついているのに対し,父親の場合には,「言う」,「教える」といった言語的なやりとりに対しては「楽しい」という感情が結びついていない.また,「遊ぶ」というやりとりは,「ビデオに撮ってもらう」といった「楽しい」という感情と結びついているその他のやりとりよりも強く「楽しい」という感情と結びついている.このような本研究の分析結果は,亀口の考察を裏付けるものといえる.次に,図\ref{fig:rel_mother}に示す母親との関係性の視覚化結果をもとに考察する.全体として,母親とのやりとりは多様であり,その多様なやりとりから子供が何らかの反応を示していることがわかる.特に,母親の「言う」という行為は子供の作文に非常に多くみられ,数値的にも,「言う」は子供と母親とのやりとり全体の約25\%を占めている.このことは,子供にとって母親の発言が大きな影響力をもっていることを示唆している.さらに,この「言う」という母親とのやりとりに対して,「うれしい」という子供の感情が非常に強く結びついている.「言う」は他の様々な子供の感情,評価,行動とも関係性があることも確認され,子供にとって母親との会話が重要であることが示された.また,「嬉しい」という子供の感情は,母親とのやりとりの様々な行為と結びついていることもわかる.父親との関係性と母親との関係性を比較してみると,やりとりの多様性は母親の場合の方が多く,父親が16種類であるのに対し,母親では25種類ある.また,各やりとりから子供の感情,評価,行動が喚起されている場合も,父親より母親の場合の方が多く,父親では11種類なのに対し,母親では21種類に上り,ほぼ全ての母親とのやりとりに対して何らかの反応が示されている.特に,母親とのやりとりから「うれしい」という感情に結びついている場合が非常に多く,母親が何かを「言う」と「うれしい」という感情が喚起されている.このように視覚化し,全体像を比較しやすくすることにより,各要素の数や広がりが母親の方が大きく,子供との関係性の強さと多様性が大きいことを確認できた.以上の分析結果から,小学生の作文コーパスを分析することによって,なかなか把握しにくい子供と子供をとりまく様々なもの,社会との関係,子供の心の中を垣間見ることもできることを示した.
\section{むすび}
日本の子供の書き言葉コーパスは非常に少ないという現状に着目し,本研究では,全国4,950校の小学校のWebサイトを訪問し,公開されている作文について,各テキストが子供の書いたテキストであることや学年などの情報を確認の上,作文データの収集を行った.また,2.2節で述べた著作権処理によって,収集したコーパスが教育研究のために広く利用されるようにするための取り組みを行った.収集したコーパスの利用の可能性は多岐にわたると期待されるが,本研究では大人よりも子供の言語使用において豊富で多様な使用が観察されると予想されるオノマトペに着目し,その学年別の使用実態の推移について調査した.その結果,オノマトペの出現率は2年生が最も高く,その後は学年が上がるにつれ減少していくことが確認できた.本研究による作文にみられるオノマトペの出現率の解析結果は,教科書で用いられるオノマトペに関する先行研究による調査結果と整合性があり,小学校での国語学習指導の成果を定量的に示しているといえる.さらに,コーパスの社会学的応用の可能性を示唆するため,子供と父母との関係性について調査し,父母とのやりとりとそれに対する子供の反応との関係性が,母親の場合の方が強いことなどを示した.日本の子供の書き言葉を収集し分析した本研究が,言語学,教育学的研究はもちろんのこと,社会学など関連分野へ幅広く貢献できることを願う.\acknowledgment本稿に対して有益なご意見,ご指摘をいただきました査読者の方に感謝いたします.また,本研究の開始時に助言くださった古牧久典氏と,著者の研究室に所属し,本コーパスの収集編纂に協力してくれた児玉公人君(2004年度所属),佐々木大君(2005年度所属),水越寛太君(2007年度所属),小野正理君と清水祐一郎君(2010年度現在所属)に感謝いたします.なお,本コーパスについてのお問い合わせは,\texttt{http://www.sakamoto-lab.hc.uec.ac.jp/}をご参照下さい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{安部}{安部}{\protect\unskip}]{Web_Abe}安部朋世.\newblock安部朋世「体験活動と言語教育」第2章小・中学校国語教科書にみられるオノマトペ.\\newblock\Turl{http://www.u-gakugei.ac.jp/{\textasciitilde}taiken/houkoku013.pdf}.\bibitem[\protect\BCAY{亀口}{亀口}{2003}]{Bk_Kam}亀口憲治\BBOP2003\BBCP.\newblock\Jem{家族のイメージ}.\newblock河出書房新社.\bibitem[\protect\BCAY{松本}{松本}{}]{Web_NAIST}松本裕治.\newblock自然言語処理学講座奈良先端科学技術大学院大学松本裕治研究室.\\newblock\Turl{http://cl.aist-nara.ac.jp/index.php}.\bibitem[\protect\BCAY{坂本}{坂本}{2009}]{Art_Sak}坂本真樹\BBOP2009\BBCP.\newblock小学生の作文にみられるオノマトペ分析による共感覚比喩一方向性仮説再考.\\newblock\Jem{日本認知言語学会第10回大会発表論文集},\mbox{\BPGS\155--158}.\bibitem[\protect\BCAY{田守\JBAローレンス・スコウラップ}{田守\JBAローレンス・スコウラップ}{1999}]{Bk_TamAl}田守育啓\JBAローレンス・スコウラップ\BBOP1999\BBCP.\newblock\Jem{オノマトペ—形態と意味—}.\newblockくろしお出版.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{2001}]{Bk_HidAl}飛田良文\JBA浅田秀子\BBOP2001\BBCP.\newblock\Jem{現代擬音語擬態語用法辞典}.\newblock東京堂出版.\end{thebibliography}\clearpage\makeatletter\setcounter{section}{0}\setcounter{subsection}{0}\renewcommand{\thesection}{}\makeatother
\section{付録}
\subsection{オノマトペの集計結果}3.4節の考察で用いた,五感形容詞とオノマトペの集計結果を表\ref{tbl:adj_ono_num}に示す.\subsection{視覚化のためのやりとりと子供の感情,評価,行動の分類結果}4.2節の分析で図\ref{fig:rel_father}および図\ref{fig:rel_mother}を視覚化するための,父親ないし母親とのやりとりと子供の感情・評価や行動に関する集計結果を表\ref{tbl:rel_father}および表\ref{tbl:rel_mother}に示す.\vspace{1\baselineskip}\input{04table10.txt}\clearpage\begin{table}[t]\begin{flushright}\hfill\begin{minipage}{95pt}\caption{父親の分類結果}\label{tbl:rel_father}\end{minipage}\par\scalebox{0.78}{\input{04table11-1.txt}}\end{flushright}\vspace*{20pt}\hfill\begin{minipage}{95pt}\caption{母親の分類結果}\label{tbl:rel_mother}\end{minipage}\scalebox{0.78}{\input{04table12-1.txt}}\end{table}\clearpage\begin{table}[t]\vspace{18pt}\scalebox{0.78}{\input{04table11-2.txt}}\vspace*{20pt}\vspace{18pt}\scalebox{0.78}{\input{04table12-2.txt}}\end{table}\clearpage\begin{biography}\bioauthor{坂本真樹(正会員)}{1998年東京大学大学院総合文化研究科言語情報科学専攻博士課程修了.博士(学術).同年,同専攻助手に着任.2000年電気通信大学電気通信学部講師,2004年同学科助教授を経て,2010年より同大学大学院情報理工学研究科総合情報学専攻准教授.日本認知言語学会,日本認知科学会,電子情報通信学会,CognitiveScienceSociety等各会員.}\end{biography}\biodate\end{document}
| |
V04N01-07
|
\section{はじめに}
\label{sec:introduction}適格なテキストでは,通常,テキストを構成する要素の間に適切な頻度で照応が認められる.この照応を捉えることによって,テキスト構成要素の解釈の良さへの裏付けや,解釈の曖昧性を解消するための手がかりが得られることが多い.例えば,次のテキスト\ref{TEXT:shiji}の読み手は,「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」で触れた事象に,「知事選での奥田氏支持」が再び言及していると解釈するだろう.\begin{TEXT}\text\underline{新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する}方針をようやく固めた.\underline{知事選での奥田氏支持}に強く反対する有力議員も多く,決定が今日までずれ込んでいた.\label{TEXT:shiji}\end{TEXT}この照応解釈は,「奈良県知事選で」が「支持する」と「固めた」のどちらに従属するかが決定されていない場合には,この曖昧性を解消するための手がかりとなり,何らかの選好に基づいて「支持する」に従属する解釈の方が既に優先されている場合には,この解釈の良さを裏付ける.このようなことから,これまでに,前方照応を捉えるための制約(拘束的条件)と選好(優先的条件)がText-WideGrammar~\cite{Jelinek95}などで提案されている.Text-WideGrammarによれば,テキスト\ref{TEXT:shiji}でこの照応解釈が成立するのは,「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」を$X$,「知事選での奥田氏支持」を$Y$としたとき,これらが次の三つの制約を満たすからである.\smallskip\begin{LIST}\item[\bf構文制約]$Y$は,ある構文構造上で$X$の後方に位置する\footnote{$X$と$Y$が言語心理学的なある一定の距離以上離れていると,$Y$は$X$を指せないことがあると考えられるが,距離に関する制約は構文制約に含まれていない.}.\item[\bf縮約制約]$Y$は,$X$を縮約した言語形式である.\item[\bf意味制約]$Y$の意味は,$X$の意味に包含される.\end{LIST}\smallskipあるテキスト構成要素$X$で触れた事象に他の要素$Y$が再言及しているかどうかを決定するためには,$X$と$Y$がこれらの制約を満たすかどうかを判定するための知識と機構を計算機上に実装すればよい.実際,構文制約と縮約制約については,実装できるように既に定式化されている.これに対して,意味制約が満たされるかどうかを具体的にどのようにして判定するかは,今後の課題として残されている.意味制約が満たされるかどうかを厳密に判定することは,容易ではない.厳密な判定を下すためには,$X$と$Y$の両方またはいずれか一方が文や句である場合,その構文構造とそれを構成する辞書見出し語の意味に基づいて全体の意味を合成する必要がある.テキストの対象分野を限定しない機械翻訳などにおいて,このような意味合成を実現するためには,膨大な量の知識や複雑な機構を構築することが必要となるが,近い将来の実現は期待しがたい.本稿では,近い将来の実用を目指して,構築が困難な知識や機構を必要とする意味合成による意味制約充足性の判定を,表層的な情報を用いた簡単な構造照合による判定で近似する方法を提案する.基本的な考え方は,構文制約と縮約制約を満たす$X$と$Y$について,それぞれの構\\文構造を支配従属構造で表し,それらの構造照合を行ない,照合がとれた場合,$X$の意味が$Y$の意味を包含するとみなすというものである.もちろん,単純な構造照合で意味合成が完全に代用できるわけではないが,本研究では,日英機械翻訳への応用を前提として,簡単な処理によって前方照応がどの程度正しく捉えられるかを検証することを目的とする.以降,本稿の対象を,サ変動詞が主要部である文(以降,サ変動詞文と呼ぶ)を$X$とし,そのサ変動詞の語幹が主要部であり$X$の後方に位置する名詞句(サ変名詞句)を$Y$とした場合\footnote{このようなサ変動詞文とサ変名詞句の組は,我々の調査によれば,新聞一カ月分の約8000記事のうち,その23\%において見られた.}に限定する.これまでに,性質の異なる曖昧性がある二つの構文構造を照合することによって互いの曖昧性を打ち消す方法に関する研究が行なわれ,その有効性が報告されている\cite{Inagaki88,Utsuro92,Kinoshita93,Nasukawa95b}.本稿の対象であるサ変動詞文とサ変名詞句にも互いに性質の異なる曖昧性があるので,構造照合を行ない,類似性が高い支配従属構造を優先することによって,サ変動詞文とサ変名詞句の両方または一方の曖昧性が解消される.例えば,サ変名詞句「奥田氏支持」から得られる情報だけでは「奥田氏」と「支持」の支配従属関係を一意に決定することは難しいが,テキスト\ref{TEXT:shiji}では,サ変動詞文「奥田氏を支持する」との構造照合によって,サ変名詞句を構成する要素間の支配従属関係が定まる.このように,サ変名詞句の曖昧性解消に,サ変名詞句の外部から得られる情報を参照することは有用である.一方,複合名詞の内部から得られる情報に基づく複合名詞の解析法も提案されている\cite{Kobayashi96}.複合名詞の主要部がサ変名詞である場合,これら二つの方法を併用することによって,より高い解析精度の達成が期待できる.\ref{sec:depredrules}節では,サ変動詞文とサ変名詞句の支配従属構造を照合するための規則を記述する.\ref{sec:matching}節では,構造照合規則に従って照応が成立するかどうかを判定する手順について述べ,処理例を挙げる.\ref{sec:experiment}節では,新聞記事から抽出したサ変動詞文とサ変名詞句の組を対象として行なった実験結果を示し,照応が正しく捉えられなかった例についてその原因を分析する.
\section{サ変動詞文とサ変名詞句の構造照合規則}
\label{sec:depredrules}サ変動詞文がサ変名詞句に縮約されるときに観察される現象のうち次の現象に着目して,サ変動詞文とその後方に位置するサ変名詞句の間で照応が成立するときに従うべき規則を定める.\begin{enumerate}\itemサ変動詞とその従属語を関係付ける助詞(以降,用連助詞と呼ぶ)は,その支配従属関係を保ったまま,サ変名詞とその従属語を関係付ける助詞(体連助詞)に変化する.\itemサ変動詞文でのサ変動詞の態の区別は,サ変名詞句では制限されるか,あるいは行なわれなくなる.\itemサ変名詞句では,サ変動詞の従属語のうち,情報伝達に必須である語のみが,サ変動詞文での出現順序に因われない順序で表現される.\end{enumerate}\subsection{用連助詞から体連助詞への変化}サ変動詞文がサ変名詞句に縮約されるとき,サ変動詞文におけるサ変動詞とその従属語の支配従属関係は,サ変名詞句におけるサ変名詞とその従属語の支配従属関係として保存される.ただし,サ変動詞と従属語を関係付ける用連助詞は,規範に従って,サ変名詞と従属語を関係付ける体連助詞に置き換えられるか,あるいは表現されなくなる.例えば,サ変動詞文「奥田氏を支持する」における用連助詞「を」が体連助詞「の」またはゼロ形態素に変化することによって,それぞれ,サ変名詞句「奥田氏の支持」または「奥田氏支持」に縮約される.用連助詞から体連助詞への変化は,一般に,表\ref{tab:youren2tairen}に示す対応に従う.動詞あるいは動詞型に固有の変化,例えば,「イラク説得の成功を期待する」から「成功への期待」への縮約に見られる用連助詞「を」から体連助詞「への」への変化は,表\ref{tab:youren2tairen}の対応とは別に,動詞あるいは動詞型毎に記述する.\begin{RULE}\rule用連助詞は,それが表す支配従属関係と深層的に同じ支配従属関係\footnotemarkを表す体連助詞に変化する.その変化は,動詞固有の対応が記述されていれば,それに従い,さもなければ表\ref{tab:youren2tairen}に従う.\label{RULE:youren2tairen}\end{RULE}\footnotetext{本稿で行なっている支配従属関係の区別は,比較的浅い深層度での区別である.例えば,助詞「が」と「に」が表す支配従属関係の一つは,より深い層では共に``動作主''になりえるが,ここではSubject,Agentという別の関係としている.その理由は,本稿での区別は日英機械翻訳での利用を前提としたものであり,この限りにおいて,表層表現をより深い層へ写像する必要はないからである.}\begin{table}[htbp]\caption{用連助詞と体連助詞の対応(抜粋)}\label{tab:youren2tairen}\begin{center}\begin{tabular}{|c|l|l|}\hline用連助詞&\multicolumn{1}{|c}{支配従属関係}&\multicolumn{1}{|c|}{体連助詞}\\\hline\hlineが&Subject&による,の,$\phi^\dagger$\\\hline&Instrument&での,による,の,$\phi$\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{で}}&PlaceActive&での,における,の,$\phi$\\\hline&Company&との,の,$\phi$\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{と}}&Quotation&との,の,$\phi$\\\hline&Agent&による,の,$\phi$\\に&PlaceStatic&での,における,の,$\phi$\\&Target&への,までの,に対する,の,$\phi$\\\hlineへ&Target&への,までの,に対する,の,$\phi$\\\hline&Object&に対する,の,$\phi$\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{を}}&PlaceOfTransit&上の,の,$\phi$\\\hline\multicolumn{3}{r}{\raisebox{0.5ex}[0pt]{\scriptsize$\dagger$}{\footnotesize記号$\phi$はゼロ形態素を意味する.}}\\\end{tabular}\end{center}\end{table}\subsection{態の区別の制限}サ変動詞文では,サ変動詞に接続する助動詞によって,能動態,受動態,使役態,間接受動態,可能態と,これらの組合せ(受動使役態など)が区別される.これに対して,サ変名詞句では,態の区別が制限されるか,あるいは行なわれなくなる.例えば,次のテキスト\ref{TEXT:sabetsu}では,サ変動詞文「日本ではアジア人が差別される」が受動態であったことは,サ変名詞句「足元にいるアジア人に対する差別」では表現されていない.\begin{TEXT}\text\underline{日本ではアジア人が差別される}のは当然だという考え方が強い.日本にとって国際化とは,\underline{足元にいるアジア人に対する差別}を撤廃して,一緒に手を組んで生きてゆくことだと思う.\label{TEXT:sabetsu}\end{TEXT}表\ref{tab:youren2tairen}の対応は,サ変動詞の態が能動である場合の対応である.従って,サ変動詞が能動態でない場合,用連助詞から体連助詞への変化が規則\ref{RULE:youren2tairen}に従うかどうかを調べる前に,サ変動詞の態を能動態に戻しておく必要がある.\begin{RULE}\ruleサ変動詞の態が能動でなければ,サ変動詞とその従属語との支配従属関係は表\ref{tab:voice}に示す対応に従って変化する.\label{RULE:voice}\end{RULE}\begin{table}[htbp]\caption{能動態への還元に伴う支配従属関係の変化}\label{tab:voice}\begin{center}\begin{tabular}{|l|lcl|}\hline\multicolumn{1}{|c}{態}&\multicolumn{3}{|c|}{支配従属関係の変化}\\\hline\hline&Subject&$\Longrightarrow$&Object\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{受動}}&Agent&$\Longrightarrow$&Subject\\\hline使役&Agent&$\Longrightarrow$&Subject\\\hline&Subject&$\Longrightarrow$&$\{\mbox{IndirectObject},\mbox{Target}\}^\ddagger$\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{間接受動}}&Agent&$\Longrightarrow$&Subject\\\hline可能&PotentialObject&$\Longrightarrow$&Object\\\hline\multicolumn{4}{r}{\raisebox{0.5ex}[0pt]{\scriptsize$\ddagger$}{\footnotesizeIndirectObjectかTargetかは動詞型による.}}\\\end{tabular}\end{center}\end{table}\subsection{情報伝達に必須でない従属語の削除}サ変動詞の従属語のうち,情報伝達に必須でない語は,サ変名詞句では表現されなくなる.また,削除されずに残ったサ変名詞の従属語の出現順序は,サ変動詞文におけるサ変動詞の従属語の出現順序に一致するとは限らない.例えば,サ変動詞文「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」は,1)すべての語を元の出現順序のままで表現した「新自由クラブによる奈良県知事選での自民党推薦の奥田氏の支持」から,2)「新自由クラブ」と「自民党推薦」が削除され,「奈良県知事選」と「奥田氏」の出現順序が交替した「奥田氏に対する奈良県知事選での支持」などを経て,3)サ変名詞以外の語をすべて削除した「支持」に至るまで,様々なサ変名詞句に縮約されうる.「奈良県知事選で支持する」から「知事選での支持」への縮約における「奈良県知事選」から「知事選」への変化に見られるように,情報伝達に必要でない従属語は,語全体ではなくその部分が削除されることがある.従属語(名詞)は,$\langle\langle接頭語\rangle^*\\langle語基\rangle^+\\langle接尾語\rangle^*\rangle^+$という構成\footnote{記号${}^*$は0回以上の繰り返し,${}^+$は1回以上の繰り返しを意味する.}をしており,語の主要部は最後尾の語基である.従属語の一部が削除されるとき,まず削除されるのは主要部以外の部分であり,語の主要部である最後尾の語基は最後まで削除されずに残る場合が多いので,次のような規則をおく.\begin{RULE}\ruleサ変名詞の従属語は,サ変動詞のいずれかの従属語から接尾語を除いた部分に後方文字列一致する.\label{RULE:stringmatch}\end{RULE}\vspace*{-1mm}
\section{構造照合による意味合成の近似}
\label{sec:matching}\ref{sec:depredrules}節で述べた構造照合規則を用いたサ変動詞文とサ変名詞句の照応判定は,図\ref{fig:algorithm}に示す手順に従って行なう.この手順に従う処理によって照応が成立すると判定される例,成立しないと判定される例を示す.\begin{figure}[htbp]\samepage\begin{center}\fbox{\small{\begin{minipage}{0.8\textwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGO}\stepサ変動詞文を含む文の支配従属構造から,サ変動詞とその直接従属語で構成される支配従属構造を抽出する.サ変名詞句を含む文の支配従属構造から,サ変名詞とその直接従属語で構成される支配従属構造を抽出する.\label{ALGO:extract}\vspace*{1mm}\stepサ変名詞句の支配従属構造のすべてがサ変名詞のみで構成されていれば,照応が成立するものとして処理を終える.さもなければ,サ変名詞句の各支配従属構造を$Y_1,Y_2,\ldots,Y_n$とする.\vspace*{1mm}\stepサ変動詞文の支配従属構造におけるサ変動詞と従属語との支配従属関係を規則\ref{RULE:voice}に従って書き換えた支配従属構造を$X_1,X_2,\ldots,X_m$とする.\vspace*{1mm}\step$X_i(1\lei\lem)$と$Y_j(1\lej\len)$のすべての対[$X_i,Y_j$]について,それぞれ,ステップ\ref{ALGO:matching:binarygraph}と\ref{ALGO:matching:match}に従ってマッチング問題を解き,各最大マッチング$M_{i,j}$とその評価点$S_{i,j}$を求める.\label{ALGO:matching}\vspace*{1mm}\substep$X_i$における従属語$Xdep_{i,k}$と支配従属関係を表す助詞$Xrel_{i,k}$の対$\langleXdep_{i,k},Xrel_{i,k}\rangle$を一方の頂点,$Y_j$における従属語と助詞の対$\langleYdep_{j,l},Yrel_{j,l}\rangle$を他方の頂点とし,用連助詞$Xrel_{i,k}$と体連助詞$Yrel_{j,l}$が規則\ref{RULE:youren2tairen}に従うとき,二つの頂点を辺で結び,二部グラフを構成する.\label{ALGO:matching:binarygraph}\vspace*{1mm}\substep辺で結ばれている二つの頂点の従属語$Xdep_{i,k}$と$Ydep_{j,l}$が規則\ref{RULE:stringmatch}に従うとき,どの頂点も高々一つの組にしか属さないように,これら二つの頂点を一つの組にする.可能なマッチングのうち,組の数が最も多いものを[$X_i,Y_j$]についての構造照合結果$M_{i,j}$とする.$M_{i,j}$の評価点$S_{i,j}$は,より多くの頂点が対応付けられるほど良いという単純な基準に基づき,$M_{i,j}$に含まれる組の数とする.\label{ALGO:matching:match}\vspace*{1mm}\stepステップ\ref{ALGO:matching}で得られた各評価点$S_{i,j}$の最大値$S$を求める.$S$が正ならば,照応が成立すると判定し,$S$を与えるマッチング$M$を返す.さもなければ,照応が成立しないと判定する.\label{ALGO:max}\end{ALGO}\vspace*{0.5em}\end{minipage}}}\end{center}\caption{サ変動詞文とサ変名詞句の構造照合の手順}\label{fig:algorithm}\end{figure}照応が成立すると判定される例として,\ref{sec:introduction}節のテキスト\ref{TEXT:shiji}を処理する過程を追う.サ変動詞文を含む文とサ変名詞句を含む文に対して形態素,構文,意味的共起解析を行ない,可能な支配従属構造のうち,形態素,構文,意味的共起に関する選好による総合評価点が最も高い構造を入力とすると,テキスト\ref{TEXT:shiji}の場合,図\ref{fig:depstruct}に示すように,サ変動詞文の支配従属構造が3通り,サ変名詞句の支配従属構造が2通り抽出される\footnote{語の従属先の曖昧性は個別の支配従属構造で表現するが,支配従属関係の曖昧性は,重複が許されていない支配従属関係の重複が生じない限り,一つの支配従属構造上にまとめて表現する.テキスト\ref{TEXT:shiji}のサ変名詞句の支配従属構造を展開すれば,$6(=3+3)$通りになる.}.抽出されたサ変名詞句の支配従属構造を$Y_1,Y_2$とする.\hspace*{0.2mm}また,\hspace*{0.2mm}抽出されたサ変動詞は能動態であり,\hspace*{0.2mm}規則\ref{RULE:voice}に従って支\hspace*{0.2mm}配\hspace*{0.2mm}従\hspace*{0.2mm}属\hspace*{0.2mm}関\hspace*{0.2mm}係を書\\き換える必要はないので,抽出されたサ変動詞文の支配従属構造をそのまま$X_1,X_2,X_3$とする.$X_1$は,「支持する」が「新自由クラブは」と「奈良県知事選で」と「奥田氏を」を支配する解釈,\\$X_2$は,「支持する」が「奈良県知事選で」と「奥田氏を」を支配し,第一文の主動詞「固めた」が「新自由クラブは」を支配する解釈,$X_3$は,「支持する」が「奥田氏を」を支配し,「固めた」が「新自由クラブは」と「奈良県知事選で」を支配する解釈である.また,$Y_1$は,「支持」が「知\\事選での」と「奥田氏を」を支配する解釈,$Y_2$は,「支持」が「奥田氏」を支配し,「奥田氏」が「知事選での」を支配する解釈である.\begin{figure}[htbp]\begin{center}\vspace*{-4mm}\epsfile{file=y022.eps,scale=1.0}\vspace*{-2mm}\end{center}\vspace*{-2mm}\caption{テキスト\protect\ref{TEXT:shiji}から抽出される支配従属構造}\label{fig:depstruct}\end{figure}ステップ\ref{ALGO:matching}で,$X_1,X_2,X_3$と$Y_1,Y_2$の組合せから成る6通りの対について,それぞれマッチング問題を解く.頂点の支配従属関係が集合として表されている場合,支配従属関係の集合の交わりが空でないときに限り二つの頂点が辺で結べることにすると,対[$X_1,Y_1$]についての処理では,図\ref{fig:matching1}に示すように,$X_1$の二つの頂点$\langle新自由クラブ,は/\mbox{Subject}\rangle$,$\langle奥田氏,を/\mbox{Object}\rangle$を$Y_1$の頂点$\langle奥田氏,\phi/\{\mbox{Subject,\,Object,\,Company}\}\rangle$と結び,$X_1$の頂点$\langle奈良県知事選,で/\mbox{PlaceActive}\rangle$を$Y_1$の頂点$\langle知事選,での/\mbox{PlaceActive}\rangle$と結んだ二部グラフが構成できる.この二部グラフでは,実線の辺で結ばれている頂点を組にすることによって,評価点2点の最大マッチングが得られる.なお,辺で結ばれている頂点を組にしたとき,頂点の支配従属関係は元の集合から集合の交わりに変化する.他の対についても同様に処理すると,対[$X_1,Y_1$]と[$X_2,Y_1$]から得られる最大マッチングが全体で最も評価点が高いマッチングとなる.\begin{figure}[htbp]\begin{center}\vspace{-4mm}\epsfile{file=y03.eps,scale=1.0}\vspace{-2mm}\end{center}\caption{支配従属構造$X_1$と$Y_1$における最大マッチング}\vspace{-2mm}\label{fig:matching1}\end{figure}全体で最も評価点が高いマッチングが得られる支配従属構造の対を優先させることによって,サ変動詞文とサ変名詞句の両方または一方の曖昧性を絞り込むことができる.$X_1$と$Y_1$の構造照合の結果,\hspace*{0.2mm}図\ref{fig:matching1}の最\hspace*{0.2mm}大\hspace*{0.2mm}マ\hspace*{0.2mm}ッ\hspace*{0.2mm}チ\hspace*{0.2mm}ン\hspace*{0.2mm}グ\hspace*{0.2mm}が得\hspace*{0.2mm}ら\hspace*{0.2mm}れ\hspace*{0.2mm}ることから,\hspace*{0.2mm}$Y_1$における「奥\hspace*{0.2mm}田\hspace*{0.2mm}氏」と「支\\持」の支配従属関係がObjectに定まる.もう一つの対[$X_2,Y_1$]についての処理でも,$Y_1$における「奥田氏」と「支持」の支配従属関係が一意に定まる.従って,テキスト\ref{TEXT:shiji}の場合,全体で\\$18(=3\times6)$通りの可能性を2通りに絞り込めたことになる.次のテキスト\ref{TEXT:teishi}を対象とした処理では,サ変動詞文「大統領がリトアニアに対する強硬手段を停止する」とサ変名詞句「ECによる援助の停止」の間に照応は成立しないと判定される.\begin{TEXT}\textソ連軍による弾圧は,\underline{大統領がリトアニアに対する強硬手段を停止する}との方針を明らかにした直後に起きた.これに対しベルギー外務省筋は\underline{ECによる援助の停止}もあり得ると語っている.\label{TEXT:teishi}\end{TEXT}サ変動詞文の支配従属構造としては,「停止する」が「大統領が」を支配する場合とそうでない場合の2通りが可能であり,サ変名詞句の支配従属構造としては,「停止」が「ECによる」を支配する場合とそうでない場合の2通りが可能であるので,支配従属構造の各対について規則\ref{RULE:youren2tairen}に従う頂点を辺で結ぶと,図\ref{fig:matching2}に示すような4通りの二部グラフが構成できる.しかし,いずれの二部グラフにおいても規則\ref{RULE:stringmatch}に従う頂点が存在しないので,組が構成できない.従って,サ変動詞文とサ変名詞句の間に照応は成立しないと判定される.\begin{figure}[htbp]\begin{center}\epsfile{file=y04.eps,scale=1.0}\end{center}\caption{テキスト\protect\ref{TEXT:teishi}のサ変動詞文とサ変名詞句に関する二部グラフ}\label{fig:matching2}\end{figure}
\section{実験と考察}
\label{sec:experiment}支配従属構造照合による意味制約充足性の判定法の有効性を検証するために,新聞記事データ\cite{Asahi91}からサ変動詞文とサ変名詞句を含む100記事を無作為に抽出し,各記事に含まれるサ変動詞文とサ変名詞句の組のうち,両者の物理的な距離が最も近いもの178組を対象として実験を行なった.サ変動詞文を含む文とサ変名詞句を含む文に対して形態素,構文,意味的共起解析を行ない,可能な支配従属構造のうち,形態素,構文,意味的共起に関する選好による総合評価点が最も高い構造を入力とした.なお,処理対象のサ変動詞文とサ変名詞句は,サ変動詞の語幹がサ変名詞句の主要部であるため照応が成立する可能性が高いと考えられるが,人間に照応が認められるのは178組中95組(53.4\%)であった.\subsection{照応判定成功率}本手法による照応判定と人間による判定を比較した結果を表\ref{tab:result}に示す.本手法と人間による判定が,照応成立という解釈で一致したサ変動詞文とサ変名詞句は77組(43.2\%),不成立という解釈で一致したのは56組(31.5\%)であった.この結果,本手法による判定成功率は74.7\%となる.また,判定を誤った組のうち,人間には照応が認められるものを照応不成立と判定した組は18組(10.1\%),その逆は27組(15.2\%)であった.\begin{table}[htbp]\caption{新聞記事を対象とした本手法の判定精度}\label{tab:result}\begin{center}\begin{tabular}{|c|c|c|r|}\hline\multicolumn{1}{|l}{人間による}&\multicolumn{2}{|c|}{本手法による判定}&\\\cline{2-3}\multicolumn{1}{|l|}{判定との比較}&照応成立&照応不成立&\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{成功/失敗率}}\\\hline\hline一致&43.2\%(77/178)&31.5\%(56/178)&74.7\%\\\hline不一致&15.2\%(27/178)&10.1\%(18/178)&25.3\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{照応不成立と誤判定された原因の分析}\label{tab:fail}\begin{center}\begin{tabular}{|l|r|}\hline\multicolumn{1}{|c}{原因}&\multicolumn{1}{|c|}{誤り数}\\\hline\hline類義語等による従属語の言い換え&10\\\hlineサ変名詞句での従属語の追加&3\\\hline従属語の主要部の削除&3\\\hlineその他&2\\\hline\end{tabular}\end{center}\end{table}照応不成立と誤判定した18組について,その原因を分析した結果を表\ref{tab:fail}に示す.最も多かった原因は,サ変名詞の従属語としてサ変動詞の従属語あるいはその一部が用いられず,その類義語などの別の語が用いられていることであった.\begin{FAIL}\failただ,\underline{歴訪を中止し}て湾岸危機の平和的解決に努める,といっても,具体的な手立ては乏しい.(中略)\首相は11日朝,\underline{ASEAN訪問中止}の理由を記者団から聞かれ,「米国とイラクの9日の外相会談が不調に終わって総合的に判断して決めた」.\label{FAIL:chuushi}\end{FAIL}失敗例\ref{FAIL:chuushi}では,「歴訪」と「訪問」の文字列照合に失敗するので,照応は成立しないと誤判定された.サ変動詞文では明示されていない語がサ変名詞句で初めて表現されているため,判定を誤った例を示す.\begin{FAIL}\failしかし,期限切れ前に締結される今回の新特別協定によって,これまでの諸手当に加え,日本人従業員の基本給と光熱水費を91年度から段階的に肩代わりし,\\\underline{新中期防衛力整備計画の最終年度の95年度には,その全額を負担できる}仕組みにな\hspace*{0.2mm}って\hspace*{0.2mm}い\hspace*{0.2mm}る.\hspace*{0.2mm}(中略)\必\hspace*{0.4mm}要\hspace*{0.4mm}経\hspace*{0.4mm}費\hspace*{0.4mm}は\hspace*{0.2mm}約\hspace*{0.6mm}2\hspace*{0.2mm}2\hspace*{0.2mm}0\hspace*{0.2mm}0\hspace*{0.2mm}億\hspace*{0.4mm}円\hspace*{0.2mm}で,\hspace*{0.2mm}\underline{\hspace*{0.2mm}日\hspace*{0.4mm}本\hspace*{0.4mm}側\hspace*{0.4mm}負\hspace*{0.4mm}担}\hspace*{0.4mm}分\hspace*{0.4mm}は,\hspace*{0.4mm}9\hspace*{0.2mm}5\hspace*{0.2mm}年\hspace*{0.4mm}度\hspace*{0.2mm}に\hspace*{0.2mm}在\\日駐留経費全体の約半分に達する見通しだ.\label{FAIL:futan}\end{FAIL}失敗例\ref{FAIL:futan}の場合,明示されていないサ変動詞文の主語が「日本側」であることがすでに推論されているならば,本手法をそのまま適用することによって照応が正しく捉えられ,推論の正しさが裏付けられる.しかし,明示されていない主語が「日本側」であるとの推論をサ変動詞文を含む文から得られる情報だけに基づいて行なうことは容易ではない.むしろ,本手法による判定から得られる情報を曖昧性絞り込みの手がかりとして,より積極的に利用する方が容易である.サ変動詞文で明示されていない従属語に関する情報が完全には得られておらず,例えば,主語が明示されていないことだけが分かっており,それが具体的に何であるかは分かっていないならば,任意の文字列と照合がとれる節点を主語としてサ変動詞文の従属構造構造に加えておけば,本手法の判定によって曖昧性絞り込みの手がかりが提供されるようになる.人間には照応が認められないものを照応成立と誤判定した27組についての原因は,すべて,サ変動詞文とサ変名詞句の間に照応が成立しないことを示す手がかりが,サ変動詞文とサ変名詞句以外の部分にあることによるものであった.失敗例\ref{FAIL:koukan}では,サ変動詞文「フセイン・イラク大統領と意見を交換する」とサ変名詞句「意見交換」の間に照応が成立しないと判定するためには,「フセイン国王との間で」の部分を参照しなければならない.\begin{FAIL}\fail同事務総長は空港で報道陣に対し,「わたしはいかなる和平案も携行していない.\underline{フセイン・イラク大統領と意見を交換し}に行く」と手短に答え,ジュネーブで言及したイラク軍撤退後の国連平和維持軍派遣の構想などには触れなかった.この後,王宮に向かい,欧州4カ国歴訪から9日に帰国したばかりのフセイン国王との間で,\underline{意見交換}を行った.\label{FAIL:koukan}\end{FAIL}特に,27組中21組については,サ変名詞句がサ変名詞だけで構成されているために,照応が成立しないことを示す情報がサ変名詞句からは得られなかった.今回の実験では,サ変動詞の語幹がサ変名詞句の主要部である場合に対象を限定しているため,サ変名詞句がサ変名詞だけで構成されている場合,照応が成立する可能性が高いと考え,そのように判定している.実際,そのように判定することで,サ変名詞だけで構成されているサ変名詞句を含む73組のうち,52組(71.2\%)について正しい判定が下されている.本手法では,各記事に含まれるサ変動詞文とサ変名詞句の組のうち,両者の距離が最も近いものを対象としてはいるが,サ変動詞文とサ変名詞句の距離に関する制約を課していないので,サ変名詞句がサ変名詞だけで構成されている場合,両者がどんなに離れていても照合成立と判定される.距離に関するパラメータと算式を定めることは今後の課題である.\subsection{曖昧性解消率}本手法の判定によって照応が成立すると正しく判定された77組のサ変動詞文とサ変名詞句について,類似性が最も高いと判断された(全体で最も高い評価点が与えられた)支配従属構造の組を優先することによって,どの程度曖昧性が絞り込めるかを調べた.本手法への入力である支配従属構造から抽出されたサ変動詞文とサ変名詞句に関係する部分の解釈の可能性は一組当たり平均3.4通り存在したが,これを構造照合によって1.8通りへ絞り込めた.可能な解釈の数が減少した組は18組であり,このうち17組は絞り込まれた解釈の中に,人間によって正しいと判定される解釈が含まれていた.また,18組中10組については解釈を一意に決定でき,そのうち9組が人間によって正しいと判定される解釈であった.
\section{おわりに}
本稿では,テキストの対象分野を限定しない日英機械翻訳への応用を前提として,構築が困難な知識や機構を必要とする意味合成による意味制約充足性の判定を支配従属構造照合による判定で近似する方法を示し,実験を行なった.本手法による照応判定を第一次近似とみなせば,比較的精度が高い結果が得られた背景には,英語では,先行文脈中に現れた語をそのまま反復することは文体上の理由から希であり,別の語に言い換える場合が多いのに対し,日本語では既出の語をそのまま繰り返す場合が多いことがあるものと考えられる.今回の実験では,処理対象をサ変動詞文とサ変名詞句に限定し,文字列情報のみを用いて処理を行なったが,類義関係を記述した意味体系が利用可能ならば,対象を拡げることも可能である.\acknowledgment新聞記事データの利用を承諾下さった朝日新聞社の関係者の方々に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{anaph}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)情報商品開発研究所にて機械翻訳システムの研究開発に従事.在職のまま,1996年より神戸大学大学院自然科学研究科博士課程在学中.}\bioauthor{JiriJelinek}{チェコのプラハのUniversitaKarlova卒業(言語学・英語学・日本語学).1959年以来,日英機械翻訳実験中.英国Sheffield大学日本研究所専任講師を1995年退職.1992年より1996年までシャープ専任研究員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N04-07
|
\section{はじめに}
\label{sec:introduction}これまでに開発されている機械翻訳システムの多くはトランスファ方式に基づいており,原言語の性質だけに依存する解析辞書・規則と,原言語と目的言語の両方の性質に依存する対照辞書・規則が個別に記述されている.他方,翻訳対象言語対と翻訳方向を固定した上で,解析知識の記述を,原言語の性質だけでなく目的言語の性質も考慮に入れて行なうという設計方針もある.このような方針を採ると,ある原言語(例えば日本語)の解析知識を,異なる目的言語へのシステム(例えば日英システムと日中システム)で共用できるというトランスファ方式の利点が失われ,別の目的言語へのシステムを開発する場合には新たな解析知識の記述が必要になる.しかし,当面,ある特定の原言語から特定の目的言語への翻訳に焦点を絞れば,以下のような利点が得られる.\begin{enumerate}\item原言語の表現と目的言語の表現を比較的表層のレベルで対応付けることができる.例えば動詞と補足語との結合関係は,翻訳対象と翻訳方向を日本語テキストから英語テキストへの翻訳に固定した場合,日本語の助詞と英語の前置詞との対応として記述できる.従って,結合関係を深層格として抽象化する必要がなくなり,深層格の認定基準の設定などの困難が避けられる.\item翻訳対象言語対と翻訳方向を固定しない場合,ある目的言語の生成には必要ないが別の目的言語の生成には必要な情報も解析過程で抽出しておく必要がある.これに対して,翻訳対象と翻訳方向を固定すると,原言語を解析する知識を記述する際に目的言語の性質を考慮することが可能になるため,目的言語の生成に必要な情報のみを抽出すればよくなり,無駄な処理が避けられる.\end{enumerate}このようなことから,我々のシステムTWINTRANでは,目的を日英翻訳に限定した上で,英語の適切なテキストを生成するためには日本語テキストがどのように解析されていなければならないかという観点から辞書と全規則群を記述している.辞書では,英語に翻訳する際にこれ以上分解するとその意味が変化してしまう表現はそれ以上分解せずに一見出しとして登録する(\ref{sec:analysis:dict}\,節).構文解析規則では,動詞と補足語との結合関係を日本語の助詞とその英訳との対応に基づいて区別し,動詞型を日本語の結合価パターンと英語の結合価パターンとの対に基づいて設定する(\ref{sec:analysis:syn}\,節).また,日本語の連体従属節を英語の関係節に翻訳するための関係詞決定規則を設ける(\ref{sec:analysis:rel}\,節).日本語で明示することは希であるが英語では明示しなければならない言語形式上の必須情報(名詞句の定/不定性の区別や,動詞の主語や目的語になる代名詞など)を得るために,照応解析規則を陳述縮約パラダイム\cite{Jelinek95}に基づいて記述する(\ref{sec:analysis:integ:cor}\,節).TWINTRANと同じように日本語の解析知識を日英対照の観点から記述しているシステムとして,ALT-J/E\cite{Ikehara96,Nakaiwa97}や,US式翻訳システム\cite{Shibata96a,Shibata98}などがこれまでに報告されている.これらのシステムでも照応解析が行なわれているが,構造を持たない言語表現の間で成立する照応すなわち語と語の間の照応の解析に留まっている.これに対してTWINTRANでは,文や句など構造を持つ言語表現間の照応も扱う\footnote{より精度の高い解析を実現するためには,構造を持つ表現の意味をその部分から導き出す必要があるが,その実現は今後の課題である.}.機械翻訳システムにおける重要な課題の一つは,テキスト解釈の曖昧性を解消し妥当な解釈を一意に決定することである.曖昧性解消へのアプローチには,言語知識を絶対的な基準(制約)とみなす立場と,相対的な比較基準(選好)とみなす立場がある\cite{Nagao92}.前者では,ある解釈を受理するか棄却するかの判断は,その解釈と他の解釈を比較せずに行なわれる.これに対して後者では,ある解釈の選択は他の解釈との比較に基づいて行なわれる\cite{Wilks78,Tsujii88b,Shimazu89,Hobbs90,Den96}.TWINTRANでは後者の立場から,各規則に優先度を付与し,それに基づいて解釈の候補に優劣を付け,候補の中から最も優先度の高い解釈を選択することによって曖昧性の解消を行なう.テキスト解析では,形態素解析規則から照応解析規則に至るまでいくつかの種類の規則が利用され,それぞれ異なる観点から一つの解釈の良さが評価される.このとき,ある種類の規則による解釈の良さと他の種類の規則による解釈の良さが競合する可能性があるため,各観点からの評価をどのように調整するかが重要となる.TWINTRANでは,構文,共起的意味,照応に関する各規則による優先度の重み付き総和が最も高い解釈をテキストの最良解釈とする(\ref{sec:analysis:integ:balance}\,節).以下,\ref{sec:analysis:dict}\,節ないし\ref{sec:generation}\,節で各処理過程について説明し,\ref{sec:experiment}\,節で翻訳品質評価実験の結果を示す.
\section{辞書}
\label{sec:analysis:dict}TWINTRANには,解析に必要な情報だけでなく変換や生成に必要な情報の大半も記述した辞書と,屈折形や派生形の生成に必要な情報を記述した辞書が存在する.以降,前者を単に辞書と呼ぶ.辞書には現在約13万見出しが登録されており,各見出し表現に与えられている情報は形態素前接番号,形態素後接番号,同形異義に関する優先度(自然数),語種(品詞),人称,性,数,意味標識,共起制約,陳述縮約度,対訳情報である.各情報についての説明は,それらを利用した処理について述べる節で行なう.辞書は,英語でのひとまとまりの表現に対応する日本語でのひとまとまりの表現を認識することを目的としている.このため,日本語文法単独ではひとまとまりの表現ではないが日英翻訳の観点からはひとまとまりとみなすべき表現は一つの見出しとして登録している\footnote{従って,形態素解析でひとまとまりと認識される単位は,通常の単語あるいは文節とは必ずしも一致しない.}.例として,「雨」という語で始まる見出しの一部について語種と対訳情報を表\ref{tab:dict}\,に示す.語種``sgnpli''と``ntmo''と``nuc''は名詞類,``a2v''は副詞類,``ve1''は動詞類,``subj''は主語格標識をそれぞれ意味する.「雨が降(る)」と「雨模様(だ)」には,一つの語種ではなく``nucsubjve1''という語種列を与えているが,これによって一つの見出しを構文木上の複数の終端節点に対応付けている.この語種列からどのような構文木が構成されるかは\ref{sec:analysis:syn}\,節で述べる.実際の辞書の対訳情報には,英単語だけでなく,変換と生成のための特殊記号が含まれているが,表\ref{tab:dict}\,では簡単のために英単語のみを示した.実際の処理では,この特殊記号に基づいて動詞の屈折形などを決定する.\begin{table}[tbhp]\caption{辞書見出しの一部}\label{tab:dict}\begin{center}\begin{tabular}{|l||l|l|}\hline\multicolumn{1}{|c||}{見出し表現}&\multicolumn{1}{c|}{語種}&\multicolumn{1}{c|}{対訳情報}\\\hline\hline雨&sgnpli&rain\\雨の日&ntmo&rainyday\\雨が降ろうと槍が降ろうと&a2v&comehellorhighwater\\雨後の筍のように乱立&ve1&mushroom\\雨が降&nucsubjve1&itrain\\雨模様&nucsubjve1&itlooklikerain\\\hline\end{tabular}\end{center}\end{table}
\section{形態素解析}
\label{sec:analysis:morph}形態素解析では,辞書情報のうち見出し表現,形態素前接番号,形態素後接番号,同形異義に関する優先度を参照する.さらに,後接番号と前接番号の接続可能性を記述した接続表を利用する.接続表には,接続可能な後接番号と前接番号の組と,その接続に関する優先度($0.1,0.2,\cdots,1.0$の十段階)が記述されている.形態素解析は,チャート構文解析法\cite{Kay80}の原理に従って行なう\footnote{もちろん構文解析と異なり,階層的な木構造は生成しない.}.入力文を構成する各文字の間に番号付きの節点が存在すると考えると,チャート法による形態素解析は,前述の前接,後接番号と接続表に基づいて,節点の間を結ぶ弧を順次生成することによって進む.$\beta_1\cdots\beta_i$から成る弧$\alpha$と,$\alpha$の右側に隣接する弧$\beta_{i+1}$を結合して新たな弧$\alpha\prime$を生成するとき,弧$\alpha\prime$に与える優先度は1)弧$\alpha$が持つ接続優先度と,$\beta_i$と$\beta_{i+1}$の接続優先度との積と,2)弧$\alpha$が持つ同形異義優先度と,$\beta_{i+1}$の同形異義優先度との和の二種類とする.形態素解析での最良解釈の選択は,これら二種類の優先度に基づいて二段階で行なう.まず,ある同一節点区間を結ぶ弧の中から,最も高い接続優先度を持つ弧を選び出し,それ以外の弧は棄却する.この選択で解釈が唯一に決まれば,それを最良解釈とする.さもなければ,接続優先度が最も高い弧の中から同形異義優先度が最も高い弧を選び,それ以外は棄却する.同形異義優先度が最も高い弧が複数存在する場合,それらすべてを最良解釈とする.形態素解析の後処理として,構文的な構造を作る必要がない語種,すなわち構文木の一節点とみなす必要がない語種を一つにまとめる.例えば動詞の語幹を表す語種と屈折を表す語種をまとめる処理を行なう.
\section{構文解析}
\label{sec:analysis:syn}拡張文脈自由文法形式に基づいて,構文解析規則の記述形式を次のように定める.\begin{equation}A::=B_1\cdotsB_i/\head\cdotsB_m,\\\{Aug\},\\Prio,\\DL\label{eq:syn_rule}\end{equation}ここで,$B_i/\head$は$B_i$の主辞が$A$の主辞になることを意味し,$\{Aug\}$は補強項であり,$Prio$はこの規則の適用優先度(自然数),$DL$は構文範疇$A$の陳述縮約度\cite{Jelinek95}である.陳述縮約度については\ref{sec:analysis:integ:cor}\,節で説明する.TWINTRANに実装されている構文解析規則の総数は1734であり,規則記述に用いられている終端構文範疇の数(異なり数)と非終端構文範疇の数(異なり数)はそれぞれ307と208である.規則の一部を図\ref{fig:syn_rule_ex}\,に示す.\begin{figure}[tbhp]\begin{center}\fbox{\vspace*{0.5em}\begin{tabular}{lllllll}(a)&TEXT&::=&SENTENCE/head,&\{\},&0,&0\\(b)&TEXT&::=&SENTENCETEXT&\{\},&0,&0\\(c)&SENTENCE&::=&THMSENT/headend,&\{\},&1,&1\\(d)&SENTENCE&::=&SENT/headend,&\{\},&1,&1\\(e)&THM&::=&NP/headthm,&\{\},&4,&6\\(f)&SENT&::=&VPATve1/head,&\{check\_vpat(ve1)\},&0,&2\\(g)&SENT&::=&ve1/head,&\{\},&0,&2\\(h)&VPAT&::=&SUBJ/head,&\{\},&0,&$-$\\(i)&VPAT&::=&SUBJVPAT,&\{\},&0,&$-$\\(j)&VPAT&::=&OBJ/head,&\{\},&0,&$-$\\(k)&VPAT&::=&OBJVPAT,&\{\},&0,&$-$\\(l)&SUBJ&::=&NP/headsubj,&\{\},&0,&5\\(m)&NP&::=&nuc/head,&\{\},&0,&7\\\end{tabular}\vspace*{0.5em}}\end{center}\caption{構文解析規則}\label{fig:syn_rule_ex}\end{figure}図\ref{fig:syn_rule_ex}\,の規則(a)と(b)は,複数の文から成るテキスト全体を一つの構文木で表現するための規則である.規則(h)ないし(k)は,動詞の補足語をまとめる規則である.動詞と補足語の結合関係は,深層格として抽象化せず,日本語の助詞とその英訳との対応に基づいて表層で区別し,表\ref{tab:case}\,の16種類を設定している.表\ref{tab:dict}\,の「雨が降(る)」に与えられている語種列``nucsubjve1''からは,規則(m),(l),(h),(f)によって次のような構文木が構成される.\[\mbox{SENT(VPAT(SUBJ(NP(nuc)subj))ve1)}\]\begin{table}[tbhp]\caption{動詞と補足語の結合関係の一覧}\label{tab:case}\begin{center}\begin{tabular}{|l||p{0.8\textwidth}|}\hline\multicolumn{1}{|c||}{結合関係}&\multicolumn{1}{c|}{説明}\\\hline\hlineAG&日本語では助詞「に」や「によって」などで表され,英語では前置詞``by''で表される.可能態の動詞とこの関係で結合している補足語は英語では主語になることがある.例えば「\underline{私には}その理由が理解できる.」は``{\itI}canunderstandthereason.''と英訳される.\\\hlineAI&日本語では助詞「で」や「によって」などで表され,英語では前置詞`by''や``with''で表される.\\\hlineCP&日本語では助詞「と」などで表され,英語では前置詞``with''で表される.ここで``with''は道具や付加ではなく同伴を意味する.\\\hlineIO&間接目的語.日本語では助詞「に」などで表され,英語では前置詞``for''や``from''や``to''で表される.\\\hlineLT&日本語では助詞「まで」などで表され,英語では前置詞``asfaras''や``upto''で表される.\\\hlineML&日本語では助詞「までに」などで表され,英語では前置詞``by''で表される.\\\hlineOBJ&日本語では助詞「を」や「は」などで表され,英語では直接目的語となる.\\\hlinePAC&日本語では助詞「で」や「において」などを場所名詞に付加した形で表され,英語では前置詞``at''や``in''や``on''を場所名詞に付加した形で表される.\\\hlinePST&日本語では助詞「に」や「において」などを場所名詞に付加した形で表され,英語では前置詞``at''や``in''や``on''を場所名詞に付加した形で表される.\\\hlinePTR&日本語では助詞「を」などを場所名詞に付加した形で表され,英語では前置詞``across''や``over''や``through''を場所名詞に付加した形で表される.\\\hlineQA&変化を表す動詞によってもたらされる物事や特性を表す.例えば「彼は\underline{校長に}昇進した.」は``Hehasbeenpromoted{\ittoaschoolmaster}.''と英訳される.\\\hlineQO&引用.日本語では助詞「と」などで表される.\\\hlineSOBJ&日本語では助詞「が」などで表され,英語では直接目的語になる.例えば「彼は\underline{林檎が}好きだ.」は``Helikes{\itapples}.''と英訳される.\\\hlineSUBJ&日本語では助詞「が」や「は」などで表され,英語では主語となる.\\\hlineTG&目標.日本語では助詞「に」や「へ」などで表され,英語では前置詞``for''や``to''で表される.\\\hlineAUTO&時間表現や状況表現などと任意の動詞との間の関係を表す.任意の動詞と結合し得る.\\\hline\end{tabular}\end{center}\end{table}規則(f)の手続きcheck\_vpat(ve1)は,VPATとしてまとめられた補足語のすべてが動詞型ve1の動詞と結合できるかどうかを表\ref{tab:verb_type}\,に基づいて調べる.表\ref{tab:verb_type}\,は,動詞がどのような補足語と結合できるかという観点から能動態の動詞を19種類に分類したものの一部である.この他に,受動態,使役態,間接受動態,可能態と,これらの組合せ(受動使役態など)について結合可能な補足語の種類を記述している.\begin{table}[tbhp]\caption{結合可能な補足語に基づく動詞の分類}\label{tab:verb_type}\begin{center}\begin{tabular}{|c||l|l|}\hline\multicolumn{1}{|c||}{動詞型}&\multicolumn{1}{c|}{結合可能な補足語}&\multicolumn{1}{c|}{例}\\\hline\hlineva2&AI,CP,LT,MT,OBJ,PAC,QO,SUBJ,TG&入力する,理解する,打ち明ける\\vb1&AI,CP,IO,LT,MT,OBJ,PAC,SUBJ&望む,受け継ぐ,借りる\\vd1&AI,CP,LT,ML,PAC,QA,SUBJ&現れる,減退する,重なる\\ve1&AI,CP,LT,ML,PAC,TG,SUBJ&引く,揚がる,近づく\\vg1b&AI,CP,IO,LT,ML,PST,SUBJ&存在する,迷う,酔う\\vh&AI,CP,LT,MT,PAC,PTR,SUBJ,TG&急ぐ,飛び越える,泳ぐ\\\hline\end{tabular}\end{center}\end{table}構文解析規則の記述では,\ref{sec:analysis:morph}\,節で述べた形態素解析での優先度や,\ref{sec:analysis:integ}\,節で述べる共起的意味や照応に関する優先度と異なり,優先的に適用したい規則ほど小さい数値を与える.各規則に付与されている優先度の分布を表\ref{tab:syn_pref_distr}\,に示す.$A$を頂点とする構文木の優先度は,$B_i\(1\lei\lem)$を頂点とする構文木の優先度の和に,規則の優先度$Prio$を加えた値とする.終端構文範疇を頂点とする構文木の優先度は0とする.\begin{table}[tbhp]\caption{構文優先度の分布}\label{tab:syn_pref_distr}\begin{center}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|r|r|r|}\hline優先度&\multicolumn{1}{|c}{0}&\multicolumn{1}{|c}{1}&\multicolumn{1}{|c}{2}&\multicolumn{1}{|c}{3}&\multicolumn{1}{|c}{4}&\multicolumn{1}{|c}{5}&\multicolumn{1}{|c}{6}&\multicolumn{1}{|c}{7}&\multicolumn{1}{|c}{8}&\multicolumn{1}{|c}{12}&\multicolumn{1}{|c}{20}&\multicolumn{1}{|c|}{30}\\\hline規則数&1545&122&36&1&14&8&2&1&1&2&1&1\\\hline\end{tabular}\end{center}\end{table}構文解析では最良解釈の選択は行なわず,規則で許されるすべての解釈を出力する.これらは圧縮したチャート表現\cite{Tanaka89}で表される.
\section{英語必須補足語の補完と関係節の処理}
\label{sec:analysis:rel}よく知られているように,日本語動詞の主語や目的語などはそれらが何を指しているかが文脈から推測できる場合には明示する必要がないのに対して,英語動詞の主語や目的語は言語形式上の必須要素であるため代名詞などとして明示する必要がある.従って,適切な代名詞を補うことが,品質の高い英語テキストを生成するためには必要不可欠である.TWINTRANでは,適切な代名詞を決定する処理を1)まず,どの補足語を補う必要があるか(例えば主語を補うべきか目的語を補うべきか)を決定し,2)次に,補われた補足語を具体的にどのような代名詞(I,you,sheなど)として英訳するかを決定するという二段階で行なう.後者の処理は\ref{sec:analysis:integ}\,節で述べる共起的意味解析と照応解析で行なう.前者の処理は図\ref{fig:def_rule_ex}\,に示すような規則に従って実行する.図\ref{fig:def_rule_ex}\,の規則は,現在着目している節の主動詞がvg3型の能動態である場合の規則であり,1)SUBJもAGもその動詞と結合していないならばSUBJを補い,2)SUBJは結合していないがAGが結合しているならばAGをSUBJとみなすことを意味する.\begin{figure}[tbhp]\begin{RULE}{0.5\textwidth}\begin{verbatim}if(head_verb(vg3)){if(~exist(SUBJ)){if(~exist(AG)){create(SUBJ);}else{relabel(AG,SUBJ);}}}\end{verbatim}\end{RULE}\caption{必須補足語補完規則}\label{fig:def_rule_ex}\end{figure}関係節として英訳しなければならない従属節に補足語を補う場合,どの補足語を補うかの決定は,関係詞の先行詞になる名詞が従属節の主動詞とどのような関係で結合するかを判定した後,すなわち関係詞を決定した後に行なう.関係詞を決定する規則は1)関係詞の先行詞になる主名詞の意味標識,2)従属節の主動詞の型,3)従属節の主動詞と結合している補足語の種類に基づいて記述されている.関係詞決定規則には適用の優先度を五段階で付与しており,優先度の高い規則から順に適用を試み,ある段階の優先度の規則の適用が成功すれば,それより低い優先度の規則の適用は行なわない.この優先度は構文に関する優先度に加算される.この優先度も\ref{sec:analysis:syn}\,節で述べた構文に関する優先度と同じく,数値が小さいほど良い.図\ref{fig:rel_rule_ex}\,に示す第一の規則は,最も優先度が高い規則群に属する.この規則は,従属節の主動詞がOBJと結合できる場合の規則であり,関係詞の先行詞になる主名詞の意味標識がHUM(人間)の下位概念を表し,かつ従属節の主動詞にOBJが結合していなければ,関係詞``whom''を構文木に補うことを意味する.第二の規則は,他のどの規則も適用できなかった場合に無条件で適用される規則であり,関係詞``whereby''を生成する.\begin{figure}[tbhp]\begin{RULE}{0.9\textwidth}\begin{verbatim}if(head_verb(va1)|head_verb(va2)|head_verb(vb1)|head_verb(vb2)|head_verb(vc)|head_verb(vd2)|head_verb(vg1a)|head_verb(vg3)){if(isa(head_noun,sem_cat:HUM)){if(~exist(OBJ)){select(whom);priority(1);}}}if(true){select(whereby);priority(5);}\end{verbatim}\end{RULE}\caption{関係詞決定規則}\label{fig:rel_rule_ex}\end{figure}
\section{共起的意味・照応解析}
\label{sec:analysis:integ}共起的意味解析と照応解析は一つの枠組で統合的に実行する.共起的意味・照応解析では,AND/ORグラフ上での遅延評価による優先度計算機構\cite{Tamura91c,Yoshimi97a}によって,テキスト解釈候補の中から(準)最良解釈を効率的に選び出す.\subsection{共起的意味解析}\label{sec:analysis:integ:sem}動詞とその補足語の間の共起的意味解析は,上位下位関係を記述した意味体系を参照しながら,動詞の結合価パターンの各スロットに記述されている共起制約と補足語の人称,性,数,意味標識を照合し,その結果に応じて共起的意味に関する優先度を与える.もし必要ならば,共起制約に違反する解釈も生成する\footnote{遅延評価による処理を行なっているため,優先度が低い解釈は必要がない場合には生成されない.}.なぜならば,構文,共起的意味,照応の観点からの優先度がそれぞれ最も高い解釈から,システムが持つ知識全体での最良解釈が構成されるとは限らず,共起制約に違反する解釈からシステム全体での最良解釈が生成される可能性もあるからである.共起制約に違反する解釈を必要に応じて生成するもう一つの理由は,意味的に不適格な文に対して頑健な処理を実現するためである.このような処理が必要になる表現の典型的な例は比喩である.共起制約に違反する解釈を棄却する立場では比喩に対する解釈を生成することができない.これに対して,共起制約に違反する解釈であっても相対的に見て最良解釈であるならば,これを受理する本稿のような立場では,比喩に対しても解釈を生成することができる.ただし,共起制約に違反する解釈をすべて比喩として受理するのではなく,比喩とみなせる解釈とそうでない解釈を弁別する処理が必要である\cite{Wilks78,Ferrari96}が,TWINTRANでは実現されていない.共起的意味に関する優先度は,共起制約が満たされる場合10とし,満たされない場合には$-6$としている.\subsection{照応解析}\label{sec:analysis:integ:cor}適格なテキストでは文と文のつながりによって結束が維持されている.テキストの結束を維持する言語的手段には,照応,代用,省略,接続表現の使用,語彙的つながりがある\cite{Halliday76}.照応は,複数の言語表現が一つの事象に言及することによってテキストの結束を生む手段であり,文や句や語などの様々な言語表現の間で成立する.例えば次のテキスト\ref{text:gorb}\,では,文「ソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任した」と,名詞句「大統領の解任」と,照応詞「この」と,空主語「$\phi_{\SUBJ}$」との間で照応が成立している.\begin{TEXT}\textソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任したと発表した.大統領の解任が西側の対ソ政策に重大な影響を及ぼすことは必至である.政府は,臨時の閣議を開き,この事態への対応を協議している.また,$\phi_{\SUBJ}$為替相場へ及ぼす影響も懸念されている.\label{text:gorb}\end{TEXT}テキスト\ref{text:gorb}でこのような照応解釈が成立するのは,陳述縮約パラダイム\cite{Jelinek95}によれば,例えば文「ソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任した」を$X$とし,名詞句「大統領の解任」を$Y$としたとき,これらが次の三つの制約を満たすからである.ここで,解釈$X$と$Y$は構文木上の節点$X$と$Y$にそれぞれ対応するものとする.\begin{DEPLED}\item[\bf構文制約]$Y$はある構文木上で$X$の後方に位置する.\item[\bf陳述縮約制約]$Y$は$X$を縮約した言語形式である.すなわち,$X$と$Y$の陳述縮約度の間で表\ref{tab:depredlevel}\,に示す関係が成立する.\item[\bf意味制約]$Y$の意味は$X$の意味と矛盾しない.すなわち,$X$の人称,性,数が$Y$の人称,性,数にそれぞれ一致し,かつ,$X$の意味標識と$Y$の意味標識が上位下位関係にある.\end{DEPLED}構文制約は比較的緩い制約であり,文間での前方照応と文内での前方照応を区別せずに扱える.このような統一的な扱いを可能にするために,入力が複数の文から成るテキストの場合でも入力全体を覆う構文木を生成する構文解析規則を図\ref{fig:syn_rule_ex}\,の(a)と(b)のように記述している.陳述縮約度は,ある言語表現が他の言語表現をどの程度指しやすいかと,他の言語表現からどの程度指されやすいかを表す.完全文の陳述縮約度を1,名詞句の陳述縮約度を7,日本語で表現する必要はないが英語では表現する必要のある照応詞の陳述縮約度を9のように定める.表\ref{tab:depredlevel}\,は,例えば節点$X$の陳述縮約度が9であるとき,節点$Y$の陳述縮約度は8か9でなければならないことを表す.構文木上の終端節点の陳述縮約度は辞書で与え,非終端節点の陳述縮約度は構文解析規則で与えている.\begin{table}[tbhp]\caption{陳述縮約度に関する制約}\label{tab:depredlevel}\begin{center}\begin{tabular}{|c||r|}\hline節点$X$の陳述縮約度&\multicolumn{1}{c|}{節点$Y$の陳述縮約度}\\\hline\hline0&1,2,3,4,5,6,7,8,9\\1&2,3,4,5,6,7,8,9\\2&3,4,5,6,7,8,9\\3&4,5,6,7,8,9\\4&5,6,7,8,9\\5&6,7,8,9\\6&7,8,9\\7&7,8,9\\8&8,9\\9&8,9\\\hline\end{tabular}\end{center}\end{table}意味制約が満たされるかどうかの判定では,節点$X$と$Y$の両方が終端節点である場合には,辞書に記述されているそれぞれの意味標識を照合すればよい.他方,節点$X$と$Y$の両方あるいは一方が非終端節点である場合には,その木構造とそれを構成する終端節点の意味標識などに基づいて全体の意味を求めなければならないが,この処理は実現できていない.現在のところ,非終端節点の意味標識は,その主辞である終端節点の意味標識を特化した意味標識であるとしている.例えば動詞「解任した」の意味標識がAC(action)であるとき,「解任した」を主辞とする文「ソ連の国家非常事態委員会が19日,ゴルバチョフ大統領を解任した」全体が持つ意味標識をAC+$\alpha$と表す.複合意味標識AC+$\alpha$は,原子意味標識ACに何らかの意味$\alpha$が加わったACの下位範疇を意味する.ここで,原子意味標識$A$が原子意味標識$B$の下位範疇であるとき,複合意味標識$A+\alpha$は$B$の下位範疇であると定める.また,$A$が複合意味標識$B+\beta$の下位範疇であるかどうかと,$A+\alpha$が$B+\beta$の下位標識であるかどうかは不明であると定める.二つの節点$X$と$Y$の意味標識間の上位下位関係が不明である場合も,$X$と$Y$は意味制約を満たすものとする.節点$X$と$Y$が構文,意味,陳述縮約に関する制約をすべて満たしているとき,二つの節点を$Y$から$X$へ向かうリンクで結ぶ.リンクには次の基準に従って照応に関する優先度を与える.\begin{enumerate}\item$X$と$Y$の意味標識の間に上位下位関係にあるかどうかが不明である場合,優先度を0とする.\item$X$と$Y$の意味標識の間に上位下位関係にあることがわかっており,かつ$Y$の陳述縮約度が7以下である場合,優先度は1とする.\item$X$と$Y$の意味標識の間に上位下位関係にあることがわかっており,かつ$Y$の陳述縮約度が8以上である場合,優先度を2とする.\end{enumerate}テキストの照応解釈の優先度は,その解釈を構成するリンクの優先度の和であり,その値が最も高い解釈が最良の照応解釈である.テキスト\ref{text:gorb}\,の場合,照応関係にある各言語表現は,図\ref{fig:gorb}\,に示すリンクで結ばれる.図\ref{fig:gorb}\,では,名詞句「大統領の解任」から文「ソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任した」へのリンクの優先度が0であり,それ以外のリンクの優先度はすべて2であるので,この照応解釈の優先度は10となる.\begin{figure}[tbhp]\begin{center}\begin{epsf}\fbox{\vspace*{0.5em}\epsfile{file=gorb.eps,width=0.7\textwidth}\vspace*{0.5em}}\end{epsf}\begin{draft}\fbox{\vspace*{0.5em}\atari(284.81084,218.54068,1pt)\vspace*{0.5em}}\end{draft}\end{center}\caption{テキスト\protect\ref{text:gorb}\,における照応}\label{fig:gorb}\end{figure}照応関係にある各言語表現の間で人称,性,数,意味標識を伝播することによって,これらの曖昧性が解消される.図\ref{fig:gorb}\,の空主語「$\phi_{\SUBJ}$」は,人称,性,数,意味標識が三人称(3rd),中性(n),単数(sg),$AC+\alpha$となるので,代名詞``it''と訳される.\subsection{構文,共起的意味,照応に関する優先度に基づく総合評価}\label{sec:analysis:integ:balance}共起的意味・照応解析系では,さらに,次のような総合評価式に基づいて構文,共起的意味,照応に関する各優先度を組み合わせた評価を行ない,解析系全体での(準)最良解釈を選び出す\footnote{形態素解析の精度は十分高いため,形態素に関する優先度と他の優先度との相互作用は考慮しない.}.\begin{equation}S=W_{\SYN}\timesS_{\SYN}+W_{\SEM}\timesS_{\SEM}+W_{\COR}\timesS_{\COR}\label{eq:balance}\end{equation}$S_{\SYN}$,$S_{\SEM}$,$S_{\COR}$はそれぞれ構文,共起的意味,照応に関する優先度であり,$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$は各優先度についての相対的重要度である.理想的なテキストでは,構文,共起的意味,照応の各最良解釈から全体での最良解釈が構成される可能性が高いと考えられる.これに対して現実のテキストでは,各優先度に基づく最良解釈の間で競合が生じ,各最良解釈が相容れないことがある.このような場合,どの解釈を優先させるかは,主に相対的重要度$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$を調整することによって経験的に決定する.今回の実験では,$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$を,訓練用テキストの分析結果に基づいて,それぞれ21,3,1とした.
\section{動詞型に基づく変換}
\label{sec:transfer:sentpat}動詞型に基づく変換の目的は,補足語に前置詞を付加することと,英文での補足語の位置を決定することである.この処理は図\ref{fig:spt_rule_ex}\,に示すような規則に従って行なう.図\ref{fig:spt_rule_ex}\,の手続きprefix()は,第一引数の補足語に,第二引数で指定された前置詞を付加する.手続きmove()は,補足語を動詞の後方に移し,引数で指定された順序に並べ換える.引数に記述されていない補足語は元の位置に残しておく.例えば「少年が(SUBJ)犬と(CP)川を(PTR)泳いでいる(vh).」という文から生成される構文木は,図\ref{fig:spt_rule_ex}\,の規則により``boyswim\{over$|$across$|$through\}riverwithdog''に対応する木に変換される.\begin{figure}[tbhp]\begin{RULE}{0.5\textwidth}\begin{verbatim}if(head_verb(vh)){prefix(AI,{from|by|with});prefix(CP,with);prefix(LT,{asfaras|upto});prefix(ML,by);prefix(PTR,{over|across|through});prefix(TG,{for|to});move([PTR,CP,TG,PAC,AI,LT,ML]);}\end{verbatim}\end{RULE}\caption{動詞型に基づく変換規則}\label{fig:spt_rule_ex}\end{figure}
\section{個別の変換情報に基づく変換}
\label{sec:transfer:entry_specific}個別の変換情報による変換は,辞書の対訳情報に基づいて木構造を書き換える.対訳情報は英単語,中間記号,セパレータから成る.中間記号は,さらに,ここで扱う変換記号と生成系で扱う生成記号に分けられる.対訳情報の例を表\ref{tab:translation}\,に挙げる.表\ref{tab:translation}\,において,英大文字と数字は中間記号を,英小文字は英単語をそれぞれ意味し,それ以外はセパレータである.\begin{table}[tbhp]\caption{対訳情報}\label{tab:translation}\begin{center}\begin{tabular}{|l||l|}\hline\multicolumn{1}{|c||}{見出し表現}&\multicolumn{1}{c|}{対訳情報}\\\hline\hlineからの&B\_from\_A\\たことがな&have\_never\_DONE\\中に&AV2(while\_SENT)\\預け&entrust\_P(\#TG:0)\_P(\#OBJ:with)\\容疑がかか&be\_\symbol{94}\_under\_suspicion\\動作&\{function$|$operate$|$run\}\\\hline\end{tabular}\end{center}\end{table}変換記号は全部で53種類定義されているが,その一部を表\ref{tab:subst}\,に示す.簡単な変換の例として「この理論は発話行為の観点からの意図が扱える.」という文に対する処理を図\ref{fig:subst}\,に示す\footnote{図\ref{fig:subst}\,は実際の木構造を簡単化したものである.}.変換の前処理として,対訳情報を構造化し,変換記号なども木構造上の一節点とみなす.図\ref{fig:subst}\,に現れている変換記号は名詞句の移動に関するAとBと,動詞の移動に関するDOであり,それぞれの移動を矢印で示すように行なう.なお記号\symbol{94},AT,T,ZRは生成記号である.\begin{table}[tbhp]\caption{変換記号}\label{tab:subst}\begin{center}\begin{tabular}{|l||p{0.55\textwidth}|}\hline\multicolumn{1}{|c||}{変換記号}&\multicolumn{1}{c|}{説明}\\\hline\hlineA&構文木上でこの記号に最も近い前方の名詞句をこの記号の位置に移動する.\\\hlineB&最も近い後方名詞句をこの位置に移動する.\\\hlineDO,DID,DOING,DONE&最も近い前方の動詞をこの位置に移動する.さらにDID,DOING,DONEの場合はそれぞれ過去形,現在分詞形,過去分詞形を生成系で生成する.\\\hline\#AG,\#OBJ,\#TGなど.&それぞれの記号と同一節内に存在するAG,OBJ,TGなどをこの記号の位置に移動する.これによって,動詞型に基づく変換で決定された補足語の順序を変更する.\\\hlineSENT,UOSENT,USSENTなど.&最も近い前方の埋め込み節をこの位置に移動する.ただし,UOSENT,USSENTの場合はそれぞれ,SUBJが存在しない節,OBJが存在しない節でなければならない.\\\hlineP&補足語に付加すべき前置詞を指定する.これによって,動詞型に基づく変換で決定された前置詞を変更する.\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[tbhp]\begin{center}\begin{epsf}\fbox{\vspace*{0.5em}\epsfile{file=subst3.eps,width=0.96\textwidth}\vspace*{0.5em}}\end{epsf}\begin{draft}\fbox{\vspace*{0.5em}\atari(390.60216,126.89085,1pt)\vspace*{0.5em}}\end{draft}\end{center}\caption{個別の変換情報に基づく変換の例}\label{fig:subst}\end{figure}
\section{生成}
\label{sec:generation}生成規則には,名詞句へ付加する冠詞を決定する規則,屈折形や派生形を決定する規則,副詞の最終的な位置を決定する規則,時制の調整を行なう規則などがある.これらのうち冠詞の生成に関しては,辞書で冠詞が一意に指定されている場合と文脈に依存して決まる場合があるが,後者の場合には照応解析の結果に基づいて冠詞を決定する.すなわち,ある名詞句が他の事象を指していれば定冠詞を選択し,そうでなければ不定冠詞あるいはゼロ冠詞を選択する.また,名詞の屈折形の決定に関しても,照応解析結果に基づいて単数形,複数形の生成を行なう.
\section{翻訳実験}
\label{sec:experiment}\subsection{実験方法}実験には,池原らによって編集された機械翻訳機能試験文集\cite{Ikehara94}の2868文を用いた.まず,試験文集に合わせた準備を全く行なわない完全ブラインドテストを行ない,その評価結果に基づいて辞書と規則を修正した後,ウィンドウテストを行なった.試験文集だけに合わせた修正は極力避け,一般性のある修正を行なうように努めた.翻訳品質の評価,辞書と規則の修正,試験のサイクルは四回繰り返した.評価および修正はすべて一名で行なった.完全ブラインドテストの結果の評価から第四回目のウィンドウテストの結果の評価までに要した期間は,およそ六ヶ月であった.翻訳品質評価の基準は,訳文が1)文法的か,2)わかりやすいか,3)原文の意味と一致するか,4)利用者の役に立つかという観点から表\ref{tab:eval_criterion}\,のように設定した.この評価基準において,4点以上を合格とし,それ未満を不合格とする.\begin{table}[tbhp]\caption{翻訳品質評価の基準}\label{tab:eval_criterion}\begin{center}\begin{tabular}{|r||p{0.2\textwidth}|p{0.2\textwidth}|p{0.15\textwidth}|p{0.2\textwidth}|}\hline\multicolumn{1}{|c||}{評価点}&\multicolumn{1}{c|}{文法性}&\multicolumn{1}{c|}{理解容易性}&\multicolumn{1}{c|}{意味等価性}&\multicolumn{1}{c|}{有用性}\\\hline\hline6&文法的である.&容易に分かる.&一致する.&役立つ.\\\hline5&文法的である.&注意深く読めば分かる.&ある文脈では一致する.&対象分野や話題に関する知識を持つ利用者には役立つ.\\\hline4&文法的だが不自然である.&注意深く読めば分かる.&ある文脈では一致する.&同上.\\\hline3&非文法的だが原語がすべて訳された.&注意深く読めば分かる.&ある文脈では一致する.&同上.\\\hline2&非文法的で原語が残っている.&注意深く読めばほぼ分かる.&ある文脈ではほぼ一致する.&日本語辞書で単語を探す能力を持つ利用者には役立つ.\\\hline1&非文法的で原文を参照する必要がある.&注意深く読めば部分的に分かる.&ある文脈では原文と矛盾しない.&両言語の知識が無いと役に立たない\\\hline0&何も出力されない.&分からない.&どんな文脈でも原文と一致しない.&役に立たない.\\\hline$-1$&必須情報が欠落している.&分からない.&どんな文脈でも原文と一致しない.&役に立たない.理解してみる努力が無駄になるので原文を読んで理解してみるほうがよい.\\\hline$-2$&文法的である.&分かる.&どんな文脈でも原文と一致しない.&危険.訳文の質が高いほどより危険である.プロの翻訳者でさえ訳文を信じてしまい原文と照らし合わせない恐れがある.\\\hline\end{tabular}\end{center}\end{table}\subsection{実験結果}完全ブラインドテストと四回目のウィンドウテストでの評価点の分布を表\ref{tab:experiment_result1}\,に示す.合格した文の数は,完全ブラインドテストでは全体の46.4\%にあたる1332文,ウィンドウテストでは2096文(73.1\%)であった.評価点の平均は,完全ブラインドテストでは2.7点で合格点に達しなかったが,ウィンドウテストでは4.2点と合格点を上回った.各評価点を与えられた文の数が完全ブラインドテストとウィンドウテストでどのように変化したかを見ると,合格領域の6点ないし4点となる文数はいずれも増加し,不合格領域の3点ないし$-2$点となる文数はいずれも減少している.特に,何も出力されないために0点となる文数の減少が著しい.これは主に,完全ブラインドテストでは入力文全体を覆う構文木が生成できず何も出力されなかった文に対して,ウィンドウテストでは全体の構文木が生成できるようになったことによる.各文の評価値が完全ブラインドテストとウィンドウテストでどのように変化したかの分布を表\ref{tab:experiment_result2}\,に示す.表\ref{tab:experiment_result2}\,によれば,評価点が向上した文数(表の左下隅の領域)は1186文(41.4\%)であり,そのうち不合格から合格へ改善された文数は835文である.逆に,評価値が低下した文数(表の右上隅の領域)は204文(7.1\%)であり,そのうち合格から不合格へ悪化した文数は71文である.また,両テストで評価点に変化がなかった文数(表の対角線上)は1478文(51.5\%)である.この結果から,辞書と規則の修正による悪影響を比較的小さく抑えつつ,翻訳品質の改善が実現できているといえる.完全ブラインドテストとウィンドウテストでの翻訳例を付録の表\ref{tab:trans_example}\,に示す.\begin{table}[tbhp]\caption{ブラインドテストとウィンドウテストでの評価点の分布}\label{tab:experiment_result1}\begin{center}\begin{tabular}{|r||r@{}r|r@{}r|r|}\hline\multicolumn{1}{|c||}{評価点}&\multicolumn{2}{c|}{ブラインド}&\multicolumn{2}{c|}{ウィンドウ}&\multicolumn{1}{c|}{増減文数}\\\hline\hline6点&645文&(22.5\%)&1054文&(36.7\%)&409\\5点&399文&(13.9\%)&616文&(21.5\%)&217\\4点&288文&(10.0\%)&426文&(14.9\%)&138\\3点&389文&(13.6\%)&304文&(10.6\%)&$-85$\\2点&108文&(3.8\%)&106文&(3.7\%)&$-2$\\1点&41文&(1.4\%)&2文&(0.1\%)&$-39$\\0点&434文&(15.1\%)&95文&(3.3\%)&$-339$\\$-1$点&439文&(15.3\%)&221文&(7.7\%)&$-218$\\$-2$点&125文&(4.4\%)&44文&(1.5\%)&$-81$\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbhp]\caption{ブラインドテストとウィンドウテストでの評価点の変化}\label{tab:experiment_result2}\begin{center}\begin{tabular}{|r||r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|c||}{ブ$\backslash$ウ}&\multicolumn{1}{c|}{6点}&\multicolumn{1}{c|}{5点}&\multicolumn{1}{c|}{4点}&\multicolumn{1}{c|}{3点}&\multicolumn{1}{c|}{2点}&\multicolumn{1}{c|}{1点}&\multicolumn{1}{c|}{0点}&\multicolumn{1}{c|}{$-1$点}&\multicolumn{1}{c|}{$-2$点}\\\hline\hline6点&595&26&9&4&3&0&4&3&1\\5点&59&304&15&8&2&0&8&3&0\\4点&46&36&171&20&4&0&2&9&0\\3点&85&65&65&146&12&0&5&11&0\\2点&19&13&23&17&27&0&2&6&1\\1点&12&12&10&3&0&1&1&2&0\\0点&98&94&81&50&17&0&59&33&2\\$-1$点&98&56&42&49&33&1&9&143&8\\$-2$点&42&10&10&7&8&0&5&11&32\\\hline\end{tabular}\end{center}\end{table}
\section{おわりに}
本稿では,日英機械翻訳システムTWINTRANの辞書と規則について述べ,NTT機械翻訳機能試験文集を対象として行なった翻訳品質評価実験の結果を示した.ウィンドウテストでは,我々の評価基準で,試験文集の73.1\%の文が合格となり,試験文集全体の平均点も合格点を上回る結果が得られた.今回は,複数の文から成るテキストを対象とした評価実験は行なわなかったため,文間照応の認識によって得られる効果が確認できなかった.今後,テキストを対象とした実験を行なう必要がある.\acknowledgment形態素解析系の設計と開発を行なって頂いたGrahamWilcock氏(現在UMIST.当時シャープ(株))に感謝します.ALT-J/Eに関する文献を提供いただいたFrancisBond氏(NTT)と,試験文集を作成された関係者の方々に感謝します.さらに,有益なコメントを頂いた査読者の方に感謝します.\bibliographystyle{jnlpbbl}\bibliography{twintran}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1987年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioauthor{JiriJelinek}{チェコのプラハのUniversitaKarlova卒業(言語学・英語学・日本語学).1959年以来,日英機械翻訳実験中.英国Sheffield大学日本研究所専任講師を1995年退職.1992年より1996年までシャープ専任研究員.}\bioauthor{西田収}{1984年大阪教育大学教育学部中学校課程数学科卒業,同年より神戸大学工学部応用数学科の教務補佐員として勤務.1987年シャープ(株)に入社.現在,同社情報家電開発本部NB第一プロジェクトチームに所属.情報処理学会会員.}\bioauthor{田村直之}{1985年神戸大学大学院自然科学研究科システム科学専攻博士課程修了.学術博士.同年,日本アイ・ビー・エム(株)に入社し東京基礎研究所に勤務.1988年神戸大学工学部システム工学科助手.講師を経て,現在同大学工学部情報知能工学科助教授.論理型プログラミング言語,線形論理などに興味を持つ.}\bioauthor{村上温夫}{1952年大阪大学理学部数学科卒業.神戸大学理学部助手,講師,教養部助教授を経て,1968年より工学部教授.この間,UniversityofKansas客員助教授,UniversityofNewSouthWales客員教授,NanyangUniversity客員教授を併任.1992年より1998年まで甲南大学理学部教授.神戸大学名誉教授.理学博士(東京大学).関数解析,偏微分方程式,人工知能,数学教育などに興味を持つ.著書に``MathematicalEducationforEngineeringStudents''(CambridgeUniversityPress)など.日本数学会,日本数学教育学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\newpage\appendix\begin{table}[hb]\caption{翻訳例}\label{tab:trans_example}\begin{center}\begin{tabular}{|l|p{0.48\columnwidth}|r|}\hline\multicolumn{1}{|c|}{原文}&\multicolumn{1}{c|}{訳文}&\multicolumn{1}{c|}{評価点}\\\hline\hline&(ブ)Itmultipliedthenumberofconnectabledevicesbyincorporatingthesoftwarewhichituniquelydeveloped.&6\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}独自に開発したソフトを組み込むことで、接続可能台数を増やした。\end{minipage}}&(ウ)Itmultipliedthenumberofconnectabledevicesbyincorporatingthesoftwarewhichweuniquelydeveloped.&6\\\hline&(ブ)Althoughitsurveysthatproblem,itdemandstime.&$-2$\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}その問題は調査するのに、時間を要する。\end{minipage}}&(ウ)Werequiretimetosurveythatproblem.&6\\\hline&(ブ)Iwanttoeatudonfromtheside.&$-2$\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}私はそばよりうどんが食べたい。\end{minipage}}&(ウ)Iwanttoeatudonfromtheside.&$-2$\\\hline&(ブ)Theroombelowhasnotanyone.&6\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}下の部屋は誰もいない。\end{minipage}}&(ウ)Thereisnoroombelow.&$-2$\\\hline&(ブ)Beforeitwentwastherain.&$-2$\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}行った先は雨だった。\end{minipage}}&(ウ)Beforewewentwastherain.&$-2$\\\hline&(ブ)Thenumberislimittedandonly,Iparticipatewhenafeeischeap.&3\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}人数が制限され、料金が安いときのみ、私は参加する。\end{minipage}}&(ウ)ThenumberislimitedandIparticipateonlywhenafeeischeap.&5\\\hline&(ブ)Heendedupincreasinglydifferingastherival.&3\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}彼はライバルと差が開いてしまった。\end{minipage}}&(ウ)Heendedupestablishingaleadoverarival.&6\\\hline&(ブ)\#\#\#構文解析失敗のため出力なし\#\#\#&0\\\cline{2-3}\raisebox{-2.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}計算機の製造には半導体工場などが必要だが、中国ではこうしたハイテク設備の建設技術をもつ技術者の絶対数が不足している。\end{minipage}}&(ウ)Expert'sintechnologythesemiconductorplantetcisrequiredinproductionandwhohavebuildingthiskindofHi-TechequipmenttechnologyinChinaofcomputersabsolutenumberisfallingshort.&$-1$\\\hline&(ブ)\#\#\#構文解析失敗のため出力なし\#\#\#&0\\\cline{2-3}\raisebox{-4.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}相手の会社が契約の期間までに必要なすべてのデータを揃える事ができなかった場合、当方に対して納得いく理由を示さない限り、当社はそのデータの受領を拒否し、損害の保証を求めることができる。\end{minipage}}&(ウ)Ifpartner'scompanycouldnotassemblealldatanecessaryevenfortermsofcontractsagainstthisside,asfarasitdoesnotindicatethesufficientreason,ourcompanydeniestheacceptanceofthosedataandyoucandemandguaranteeingdamage.&4\\\hline\end{tabular}\end{center}\end{table}\end{document}
| |
V28N04-07
|
\section{はじめに}
物質名や有機物名などの分野特有の用語(固有表現)を科学技術文献などのテキストから機械的に抽出する技術は,物質・有機物などが取り持つ関係性の抽出や検索などにおいて重要な基盤とされている.固有表現認識の手法は,人手による素性設計を必要としないニューラルネットワークの導入によって顕著に発展している\cite{lample-etal-2016-neural,ma-hovy-2016-end}が,従来の固有表現認識技術では抽出が困難な固有表現が存在し,専門分野における固有表現認識の精度改善と,情報検索・関係抽出などの応用のために解決が期待される.既存の固有表現認識手法で抽出が困難な固有表現の一つとして,複数の固有表現が並列関係にある表現が挙げられる.並列関係にある要素(並列句)は``and''や``or''などの等位接続詞によって連接されて並列構造を構成するが,並列句に共通して出現する接頭・接尾の要素はしばしば並列構造の外側に括り出される.例えば,``humanTandBlymphocytes''には``humanTlymphocyte''と``humanBlymphocyte''の二つの固有表現が並列関係にあり,それぞれの固有表現で共通して出現する``human''と``lymphocyte''が省略されている.このような固有表現は,生命科学分野の固有表現認識コーパスであるGENIAtermannotationで全体の3\%に含まれており,既存研究の評価実験では一つの固有表現(``humanTandBlymphocytes'')として扱うか,評価対象から除外されている.本研究では,並列構造及びその並列句に共有される隣接要素から構成される固有表現を,複合固有表現と呼ぶ\footnote{並列句に共有される隣接要素がない並列構造(例``[peripheralbloodmonocytes]and[Tcells]'')や並列構造それ自体が固有表現の一部になっている表現(例``signaltransducerandactivatoroftranscription'')を除く.}.例えば,上述の固有表現は名詞の並列構造(``TandB'')と並列句に共有される隣接要素(``human'',``lymphocyte'')から成り,これらの構成要素を連結することで``humanTandBlyphocytes''が表現されていると解釈できる.複合固有表現に内包される並列構造の範囲を同定し,並列句に共有される要素を特定することで,並列句とその共有要素によって表される個々の固有表現を復元することが可能であると考えられる.並列構造の範囲同定に関する多くの研究では,並列句が意味的・統語的に類似しているという特徴に着目しており,近年ニューラルネットワークの導入によって顕著に発展している.しかしながら,既存手法は分野に特化したコーパスを使用する教師あり学習による手法に基づいており,固有表現認識タスクへの応用を考慮すると固有表現と並列構造の両方のアノテーションにかかるコストが問題になる.本研究では,既存の固有表現認識器とのパイプライン処理が可能な,並列構造のアノテーションを用いない並列構造の範囲同定手法を提案する.また,複合固有表現に対して提案手法が同定した範囲から省略された要素を識別し,正規化する方法についても示す.提案手法では,近年自然言語処理タスクで広く利用されている事前学習された単語分散表現を用いて,等位接続詞前後の要素の対応関係を示すスコアを計算する.評価実験では,GENIATreebankにおける並列句の範囲同定のタスクにおいて,並列構造のアノテーションを用いない手法が教師ありの既存手法に近い再現率を得た.さらに,GENIAtermannotationを用いた固有表現認識のタスクにおいても,既存の固有表現認識手法の精度が改善されたことを示す.本研究の貢献は以下の三点である.\begin{itemize}\itemこれまで例外的に扱われてきた,複合固有表現に対応する抽出手法を提案した.\item事前学習された単語分散表現を用いて,並列構造の範囲のアノテーションデータを用いずに並列構造の範囲を同定する手法を開発した.\item提案手法が既存の並列構造解析の教師あり手法に近い性能を達成し,並列構造の範囲同定が固有表現認識に有用に働くことを示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-4ia6f1.pdf}\end{center}\caption{提案手法の概要図}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{提案手法}
本研究で用いる手法の概要を図\ref{fig:overview}に示す.提案手法は,複合固有表現を一つの固有表現として抽出する固有表現認識器と,文中に含まれる名詞と形容詞の並列構造の範囲を同定する並列構造解析器の二つのモジュールで構成されている.二つのモジュールの解析結果に基づいて,複合固有表現に含まれる省略された要素を検出し,個々の固有表現へ正規化する.例として,図\ref{fig:overview}では固有表現認識器で``tissue-specificH2A-2andH2B-2genes'',並列構造解析器で``H2A-2''および``H2B-2''が入力文から抽出されており,二つのモジュールの出力から``tissue-specificH2A-2andH2B-2genes''が複合固有表現であること,``tissue-specific''と``genes''が複数の固有表現の中で共通した要素であることが分かる.本研究では,並列構造解析器で同定された並列構造が固有表現認識器で予測された範囲に含まれる場合は,その範囲が複合固有表現であると仮定し,並列構造の個々の並列句を展開して個別の固有表現(``tissue-specificH2A-2genes''と``tissue-specificH2B-2genes'')へと正規化する\footnote{正規化された固有表現が単数となるか複数となるかは判別できないため,複数形から単数形への変換は行わない.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo.1\begin{algorithm}[b]\caption{並列構造解析器}\label{fig:algorithm}\input{06algo01.tex}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造解析器}\label{section:coord}並列構造解析器では,訓練データを用いたモデルの教師あり学習を行わずに等位接続詞の前後にある並列句範囲を同定する.``-2,-4,-5and-13''のような三つ以上の並列句から成る並列構造は,等位接続詞前後の並列句のみ(``-5and-13'')を同定する.複合固有表現に含まれる並列構造は,``TandB''や``myeloidandlymphoid''のように名詞や形容詞の並列から成るため,提案手法は名詞と形容詞の並列構造を範囲同定の対象とする.本研究で構築する並列構造解析器の実行過程をAlgorithm~\ref{fig:algorithm}に示す.語数$N$で構成される文$w_{1:N}=\{w_1,w_2,...,w_N\}$と等位接続詞$w_k$($1\leqk\leqN$)に対して,全ての可能な並列構造範囲の組み合わせの中でスコアを計算し,最もスコアの高い組み合わせを並列句の範囲として抽出する.本手法では,以下の三つの手順にしたがって並列句ペアを決定する.\begin{itemize}\item並列句の最長範囲の抽出(前処理):入力文に対して,名詞または形容詞の並列構造と成り得る系列の最長範囲を抽出する(Algorithm~\ref{fig:algorithm}:6行目).\item系列アライメント:並列構造の可能な全ての組み合わせに対して編集グラフを用いてスコアを計算し,最大スコアとなる並列句ペアを同定する(Algorithm~\ref{fig:algorithm}:7--15行目).\itemフィルタリング:スコアが閾値未満となった並列句ペアの結果に対して,並列構造を不在のものと見なす(Algorithm~\ref{fig:algorithm}:16--18行目).\end{itemize}以降の小節では,これらの手順の詳細について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{並列句の最長範囲の抽出}まず,名詞と形容詞以外の文や節などの並列構造を対象外とするための前処理として,品詞タグを用いたルールに従って並列句の可能性がある単語系列($w_{i:k-1}$,$w_{k+1:j}$)を抽出する.具体的には,等位接続詞の前後で動詞,前置詞,カンマ(,),コロン(:),セミコロン(;),三点リーダ(…)を含まない最長の範囲を抽出する\footnote{動詞や前置詞の出現は節・動詞句や前置詞句などの並列であることを示し,カンマやコロンなどの記号は``A,BandC''のような並列構造では並列句の区切りを示す.}.例えば,\vspace{0.5\Cvs}\noindent``AntigencomplexedwithmajorhistocompatibilitycomplexclassI\underline{or}IImoleculesonthesurfaceofantigenpresentingcells...''\vspace{0.5\Cvs}\noindentという文が入力された場合は,``majorhistocompatibilitycomplexclassI\underline{or}IImolecules''が並列構造の候補の最長範囲として抽出される.``-M1,and-M2''のように等位接続詞と先行する並列句の間にカンマが出現する場合があるため,等位接続詞に先行するカンマは事前に除去してから前処理を行う.また,副詞句から成る並列構造を解析結果から除くためのルールとして,等位接続詞前後の単語がともに副詞である場合は,名詞・形容詞の並列構造は検出されず\textsc{None}を返す\footnote{その他のルールとして,括弧で囲まれた並列構造の検出精度を上げるために,$w_{i-1}=\text{``(''}$かつ$w_{j+1}=\text{``)''}$かつ$w_{i:j}$に丸括弧が出現しない場合は,範囲$[i,j]$を並列構造の可能な範囲として定める.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{系列アライメント}系列アライメントでは,前処理で抽出された範囲$[i,j]$における並列句の候補ペア$w_{b:k-1}\(i\leqb\leqk-1)$,$w_{k+1:e}\(k+1\leqe\leqj)$に対してスコア計算を行い,最大スコアを持つ候補ペアを並列構造$w_{b:e}$として同定する.系列アライメントは,遺伝子配列などの系列間で相同性(類似性)を検出する手法\cite{Levenshtein1966BinaryCC}の一つであり,一方の系列を挿入・削除・置換の三つの編集操作を通して他方の系列へと変換する一連の操作を考えることで,系列間の対応関係が求められる.系列アライメントの例を図\ref{fig:seq_lab}に示す.図\ref{fig:seq_lab}では縦方向の辺が挿入,横方向の辺が削除,斜め方向の辺が置換の操作に対応しており,赤線が最適な編集経路を表す.この編集経路は,``the''と``the'',``retinoid-induced''と``RARE-medicated'',``program''と``signal''がそれぞれ対応関係にあることを意味している.三つの編集操作にはスコアが割り当てられており,編集グラフと呼ばれる格子状の空間でスコアの総和が最も高い操作系列が最適なアライメントとして決定される.\begin{equation}\label{eq:score}Score(w_{b:k-1},w_{k+1:e})=\max_{R\in\mathcal{R}_{G}(w_{b:k-1},w_{k+1:e})}\sum_{\textrm{op}_{l,m}\inR}s(\textrm{op}_{l,m})\end{equation}ここで$\mathcal{R}_{G}(w_{b:k-1},w_{k+1:e})$は系列$w_{b:k-1}$と$w_{k+1:e}$の編集グラフ$G$上の可能な操作系列の集合であり,$\textrm{op}_{l,m}$は要素$w_l\(b\leql\leqk-1)$および$w_m\(k+1\leqm\leqe)$に対する任意の編集操作を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{28-4ia6f2.pdf}\end{center}\caption{並列構造解析に用いる系列アライメント}\label{fig:seq_lab}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%系列アライメントに基づいて並列構造の範囲を同定する\citeA{shimbo-hara-2007-discriminative}の手法では,語数$N$の入力文に対して$N\timesN$個の格子点で構成される編集グラフを用いて,編集グラフ上の辺に割り当てられた特徴について学習されたパラメータの線形和として操作系列のスコアを計算し,範囲を同定している.本手法は\citeA{shimbo-hara-2007-discriminative}と同様に系列アライメントに基づいて並列構造の範囲を同定するが,並列構造のアノテーションに基づいて学習されたパラメータを用いるのではなく,学習済み言語モデルを用いてスコアの総和が最大となる編集操作系列を求めることで,最適な並列構造の範囲の組み合わせを決定する.具体的には,挿入・削除をスキップ,置換をマッチの操作として定義し,二つの編集操作に対して学習済み言語モデルから得られる単語分散表現に基づいたスコア$s(\textrm{op}_{l,m})$を付与する.スキップの操作に対しては,開発データを用いて調整した定数値$\beta$を割り当て,マッチの操作に対するスコアは,対応する単語同士のベクトル$\mathbf{v}^{pre}_{l}\(b\leql\leqk-1)$と$\mathbf{v}^{post}_{m}\(k+1\leqm\leqe)$のコサイン類似度に基づいて計算する\footnote{異なるスコア計算の方法は\ref{sec:result}節で示す.}.\begin{gather}s(\textrm{op}_{l,m})=\begin{cases}\:\beta&(\textrm{op}_{l,m}=\textrm{SKIP})\\f_{match}(l,m)&(\textrm{op}_{l,m}=\textrm{MATCH})\end{cases}\\\label{eq:score2}f_{match}(l,m)=\left\{\begin{array}{rl}\cos(\mathbf{v}^{pre}_{l},\mathbf{v}^{post}_{m})^2&\text{if}\\cos(\mathbf{v}^{pre}_{l},\mathbf{v}^{post}_{m})\geq0\\-\cos(\mathbf{v}^{pre}_{l},\mathbf{v}^{post}_{m})^2&\text{otherwise}\end{array}\right.\end{gather}全ての候補ペア$w_{b:k-1}\(i\leqb\leqk-1)$,$w_{k+1:e}\(k+1\leqe\leqj)$についてスコアを比較する際,編集グラフのサイズが大きくなるほど編集操作の回数が多くなり,式(\ref{eq:score})によって計算されたスコアの総和が大きくなる.そこで各編集グラフ$G(w_{b:k-1},w_{k+1:e})$で算出された最大スコアを編集グラフ上の最適経路$\hat{R}$の長さ$T$によって正規化し,正規化されたスコアを用いて候補ペアを決定する..したがって,Alignment関数は以下のように定義される.\begin{equation}\label{eq:score3}Alignment({\rmw}_{b:k-1},{\rmw}_{k+1:e})=Score({\rmw}_{b:k-1},{\rmw}_{k+1:e})/{\rmT}^{\alpha}\end{equation}ここで$\alpha$はハイパーパラメータであり,0.00~1.00の範囲で調整される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{並列句ペアのフィルタリング}前処理や系列アライメントによって同定された並列句ペアの中には,本手法で解析対象としていない文や節などの並列構造の断片から成る並列構造が誤検出される場合がある.例えば,\vspace{0.5\Cvs}\noindent``[thatisresponsiblefortrans-activationbytheHTLV-Itrans-activatorp40tax]\underline{and}[thathastheabilitytobindtocyclic-AMPresponsiveelementbindingfactor(CREB)-likefactor(s)]''\vspace{0.5\Cvs}\noindentのような従属節による並列構造に対し,前処理によって``theHTLV-Itrans-activatorp40taxandthat''が並列構造の最長範囲として抽出され,系列アライメントによって``that''を並列句に持つ並列構造が決定される.このように誤検出される並列構造は,並列句ペアに対する系列アライメントのスコア(式(\ref{eq:score}))が低くなると考えられるため,閾値$\eta$を設定し,スコアが閾値$\eta$未満となった並列句ペアは名詞・形容詞の並列構造と見なさず\textsc{None}を返す.閾値によるフィルタリングを適用するため,式(\ref{eq:score3})の$Alignment$関数にシグモイド関数を適用し,$Alignment$関数の返り値の値域を0.00~1.00に変換する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{複合固有表現の正規化}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{BERTを用いた固有表現認識}\label{section:ner}本研究では,\pagebreakBERT\cite{devlin2018bert}を固有表現認識タスク向けにfine-tuningしたモデルを固有表現認識器として使用する.固有表現認識タスクへのfine-tuningを行う際には,\citeA{biobert}と同様に学習済みのBERTとSoftmax層を結合して,各サブワードの固有表現ラベルを予測する\footnote{\citeA{biobert}が公開しているソフトウェアを使用した(https://github.com/dmis-lab/biobert).}.複合固有表現に対しては,一つの固有表現として抽出されるように学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{個別固有表現の抽出}\ref{section:coord}節と\ref{section:ner}節で述べた並列構造解析器と固有表現認識器の出力を利用して,複合固有表現を個別の固有表現に分解する.具体的には,並列構造を含んでいる固有表現の中で省略されている要素を識別し,それぞれの固有表現に結合させる.省略されている要素は,固有表現認識器で抽出された範囲から並列構造の範囲を取り除くことで得ることができる.例えば,固有表現認識器で``humanTandBlymphocytes''が抽出され,並列構造解析器で``TandB''が同定された場合は,並列構造の範囲を取り除いて``human''と``lymphocytes''を省略された要素と見なす.これらの省略された要素をそれぞれの並列句と連結することで,二つの固有表現``humanTlymphocyte''と``humanBlymphocyte''が最終的に抽出される.固有表現によって抽出された並列構造を含まない表現は,並列構造解析器を用いた正規化は適用されずに一つの固有表現として抽出する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験}
本研究ではGENIATreebank(beta)\cite{tateisi-etal-2005-syntax}とGENIAtermannotation\cite{genia_term}を用いて評価実験を行う.GENIATreebankは統語範疇のラベルとともに並列構造の範囲がアノテーションされており,GENIAtermannotationは複合固有表現を構成している個々の固有表現がアノテーションされている.そこで並列構造解析の評価にはGENIATreebankbeta,固有表現認識の評価にはGENIAtermannotationを用いて,それぞれのデータセットにて教師なし手法である提案手法と先行研究の教師あり手法の性能を比較する.また,提案した並列構造解析手法のハイパーパラメータは,GENIATreebankの並列構造のアノテーションが利用できない状況を想定して,PennTreebank\cite{ficler-goldberg-2016-penn}上で調整したため,予備実験としてPennTreebankにおける提案手法の性能について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{PennTreebankでの予備実験}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}PennTreebankでの実験には,コーパスのWallStreetJournalのパートのうち,セクション22を開発データ,セクション23を評価データとして用いて,対象の等位接続詞は寺西ら\citeyear{teranishi-etal-2020-journal}と同様に``and'',``or'',``but'',``nor'',``and/or''とする.スキップと正規化のハイパーパラメータの調整にはハイパーパラメータの最適化ツールであるOptuna\cite{optuna}を使用し,開発データで最も高いF値を示した設定を採用した\footnote{スキップのスコア$\beta$は$-0.100$~0.000,長さ正規化の強度$\alpha$は0.00~1.00の範囲内で0.01刻みのグリッドサーチを行い,$100\times100=10000$通りの組み合わせの中で最大のF値を示した設定を採用した.}.また,本稿では異なる単語分散表現による解析性能の差異を調べるため,FastText\cite{bojanowski-etal-2017-enriching},ELMo\cite{Peters:2018},BERT\cite{devlin2018bert}による単語分散表現を使用した\footnote{FastTextはWikipediaを訓練コーパスに用いたモデル(\url{https://dl.fbaipublicfiles.com/fasttext/vectors-wiki/wiki.en.zip}),BERTはBERT-Large,uncasedのモデル(\url{https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-24_H-1024_A-16.zip})を使用した.各単語分散表現のベクトルの次元数はFastTextが300次元,ELMoとBERTはどちらも1024次元である.}.BERTを使用する際は,BERTに付随するトークナイザによってサブワードに分割される場合を考慮して,分解されたサブワードのベクトルから要素ごとの平均をとることで単語分散表現を取得した.各単語分散表現を用いたモデルで採用するハイパーパラメータの設定は表\ref{tab:vec_data}の通りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{06table01.tex}\caption{各単語分散表現に対するハイパーパラメータの設定}\label{tab:vec_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価指標}全ての名詞の並列構造における等位接続詞の前後の並列句範囲の一致について,適合率・再現率及びそれらの調和平均(F値)で評価する\footnote{寺西ら\citeyear{teranishi-etal-2020-journal}と同様にNP・NXの並列構造を名詞の並列構造と見なす.}.PennTreebankによる実験では名詞の並列構造のみを範囲同定の対象にしているため,前処理の手順で形容詞の並列構造を解析対象から除外するルールを加えた\footnote{副詞句と同様に,等位接続詞の前後にある単語の品詞が形容詞の場合は\textsc{None}を出力する.}.また,PennTreebankにおける先行研究として,PennTreebankの評価実験で最も高い性能を示している教師あり学習手法である寺西ら\citeyear{teranishi-etal-2020-journal}の結果についても示す\footnote{寺西ら\citeyear{teranishi-etal-2020-journal}の手法では,WallStreetJournalのパートでセクション2から21を訓練データとして使用している.}.寺西ら\citeyear{teranishi-etal-2020-journal}の手法は,文脈を考慮した単語分散表現を使用していないため,BERT-Large(cased)から取得される単語分散表現を素性として追加したモデルを使用した結果についても示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}表\ref{tab:penn_coord}に実験結果を示す.\pagebreakテストデータにおいて,ELMoとBERTがFastTextよりも高い適合率,再現率,F値を示しており,文脈を考慮した単語分散表現が類似度計算に有効に働いている.しかし先行研究の実験結果と比較すると,提案手法は先行研究より40ポイント程度低い値となった.これは,並列関係にある名詞句同士の意味があまり類似しない事例に対して,類似する単語同士の対応が有効に働かなかった点が原因として考えられる.複合固有表現は並列句で共通する接頭・接尾の要素によって並列構造を成すため,並列句同士が類似しない事例は含まれにくい.例えば,%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{06table02.tex}\caption{PennTreebankでの実験結果}\label{tab:penn_coord}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\vspace{0.5\Cvs}\noindent``GMofficialswanttogettheirstrategytoreducecapacity\underline{and}theworkforceinplacebeforethosetalksbegin.''\vspace{0.5\Cvs}\noindentという文に含まれる名詞の並列構造(``capacityandtheworkforce'')では,前後の並列句に属する単語ペアで類似するものがなく,並列構造が不在なものとして誤って予測される.対して寺西らの手法では,並列句の内側と外側の境界において単語の連接関係を考慮したスコアを導入することで,双方の並列句で意味が異なる事例に対しても並列構造の外側の文脈から範囲が同定できる.また,以下のような事例も偽陽性・偽陰性の原因として挙げられ,本研究の今後の課題である.\begin{itemize}\item名詞の並列構造が形容詞から成るため,前処理の段階で形容詞の並列構造として誤って除外される事例(``Youcan'tsaythesamewithblackandwhite'').\item語順が逆転しているため,類似となるペアが適切に選ばれない事例(``Elcotel,atelecommunicationscompany,hadnetincomeof\$272,000,\underline{or}fivecentsashare'').\item節の先頭と末尾の名詞句が,名詞の並列構造として誤って予測される事例(``Also,thecompany'shair-growingdrug,Rogaine,issellingwell--atabout\$125millionfortheyear,butthecompany'sprofitfromthedrughasbeenreducedby...'').\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{GENIATreebankでの実験}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}\label{seq:genia_setting}教師あり手法である寺西ら\citeyear{teranishi-etal-2020-journal}の手法と教師なし手法である提案手法の性能を比較するため,GENIATreebank(beta)での実験を行った.先行研究との比較のため,対象の等位接続詞を``and'',``or'',``but''とし,前処理で使用する品詞タグはコーパスに付与されている品詞を使用した.また,PennTreebankを用いた予備実験と同様に事前学習されたFastText,ELMo,BERTに基づいた単語分散表現を使用して,それぞれの解析性能について比較した.これらの単語分散表現には,GENIATreebankと同様に生命科学分野に関する論文アブストラクトを訓練コーパスにしたモデルを使用する.FastTextには,PubMedで入手できる論文のアブストラクト,MIMIC-I\hspace{-.1em}I\hspace{-.1em}Iに収録されている医療カルテを用いて学習したBioWordVec\footnote{\url{https://ftp.ncbi.nlm.nih.gov/pub/lu/Suppl/BioSentVec/BioWordVec_PubMed_MIMICIII_d200.bin}}\cite{yijia-etal_2019-biowordvec},ELMoはPubMedで入手可能な論文を用いて訓練したモデル\footnote{\url{https://s3-us-west-2.amazonaws.com/allennlp/models/elmo/contributed/pubmed/elmo_2x4096_512_2048cnn_2xhighway_weights_PubMed_only.hdf5}}を使用した.BERTでは,FastTextやELMoと同様に生命科学分野の論文を用いて学習したSciBERT\cite{Beltagy2019SciBERT}とBioBERT\cite{biobert}を使用した\footnote{SciBERTはSciBERT-SciVocab,uncasedのモデル(\url{https://s3-us-west-2.amazonaws.com/ai2-s2-research/scibert/huggingface_pytorch/scibert_scivocab_uncased.tar}),BioBERTはBERT-Large,casedのモデル(\url{https://huggingface.co/dmis-lab/biobert-large-cased-v1.1})を使用した.SciBERTの次元数は768次元,BioBERTの次元数は1024次元である.}.ハイパーパラメータの設定は,GENIATreebankの並列構造のアノテーションを用いないことを想定して,PennTreebankの予備実験で調整した設定(表\ref{tab:vec_data})をそれぞれ採用した.さらに,特定のドメインにおいて並列構造のアノテーションが利用できないことを想定して,PennTreebankの訓練データで学習した寺西ら(2020)の手法を用いた結果についても評価する.PennTreebankの39,832文の訓練データには15,670文に並列構造のアノテーションが含まれているのに対し,GENIATreebankには2,508文に並列構造のアノテーションが含まれている.少量の訓練事例で学習して他ドメインへ識別する性能を比較するため,PennTreebankの訓練データに存在する並列構造を含む文から1/10の文をサンプリングして学習した寺西ら(2020)の手法による結果についても示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価指標}GENIATreebankでの実験では,先行研究との比較のため,等位接続詞に隣接する並列句の範囲の一致について5分割交差検定による再現率で評価を行った.並列構造は前置詞句や節を含んだ並列句から成る場合があるが,複合固有表現に内包される並列構造は前置詞句や節が含まれにくい.したがって,本実験では全並列構造による設定に加えて,前置詞句・節・前処理で適用した記号を含まない並列構造のみを単純な並列構造として評価する.\pagebreak本手法はGENIATreebankのデータセットによるモデルの訓練を行わないため,5分割交差検定のHeld-outデータのみを使用し,5分割したデータセットでの再現率の平均によって性能を示した.寺西ら\citeyear{teranishi-etal-2020-journal}の手法は,GENIATreebankの実験では文脈を考慮した単語分散表現を使用していないため,BioBERT-Large(cased)から取得される単語分散表現を素性として追加したモデルをベースラインとして使用する.PennTreebankの一部の訓練データを使用する設定では,PennTreebankからサンプリングした訓練事例を全訓練データで学習する設定の10倍のエポック数で学習し,Held-outデータでの再現率の平均を1試行のスコアとする.この手続きを5回試行した上で,全試行におけるスコアの平均と標準偏差を示す.また,前処理や閾値を用いずに予測した際の識別性能について,適合率・再現率・F値によって評価する.複合固有表現に内包する並列構造のみを識別するため,前処理や閾値などを用いない設定による評価では,名詞・形容詞の並列構造を併せて評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{06table03.tex}\caption{GENIATreebankbetaの実験結果}\label{tab:res_coord}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}\label{sec:result}実験結果を表\ref{tab:res_coord}に示す.寺西ら\citeyear{teranishi-etal-2020-journal}の教師あり学習の手法(Teranishi+20(original))と比べて,提案手法(Ours(ELMo))は全ての並列構造を対象とした名詞と形容詞の並列構造範囲の一致ではそれぞれ14ポイント・17ポイント程度の差,単純な並列構造(Teranishi+20(BioBERT))においては,それぞれ6ポイント・5ポイント程度の差が見られた.PennTreebankの学習データの全事例を用いて学習したモデル(Teranishi+20(PTB(full)))は,GENIAで学習したモデル(Teranishi+20(BioBERT))と同程度の性能を示しているが,PennTreebankの学習データから少量の訓練事例をサンプリングした場合(Teranishi+20(PTB(1/10))),再現率が著しく低下し,各試行で性能にばらつきが見られた.また,PennTreebankの少量の訓練事例で学習したモデルとGENIATreebankで学習したモデル(Teranishi+20(BioBERT))を比較すると,形容詞の並列構造ではGENIAで学習したモデルと同程度の性能を示しているものの,名詞の並列構造では再現率は10ポイント以上下回っている.これらの手法と比較して,提案手法はPennTreebankの全学習データを使用して学習したモデルと比べて差はあるものの,1/10の教師データで学習したモデルとは名詞の並列構造で同等以上の精度を示しており,単純な形容詞の並列構造においては各試行で取りうる性能に近い精度を示している.したがって,提案手法は同じドメインで学習された教師あり手法と比べて改善の余地はあるものの,少数の並列構造の訓練事例を用いるだけで他のドメインから学習された手法と近い性能が得られていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{28-4ia6f3.pdf}\end{center}%%%%\label{fig:rec_skip}\caption{各パラメータの設定に対する再現率の推移(ELMo)}\label{fig:recall_graph}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%単語分散表現の比較においては,ELMoが名詞と形容詞の並列構造において最も高い再現率を示した.これは,文字列が類似するような専門用語に対して類似度計算をする際に,ELMoで導入されている文字レベルの畳み込み層が有効に働いたためだと考えられ,\citeA{Schulz2020CanEA}による医学用語の類似性を評価した実験でも同様の傾向が報告されている.また,BioWordVecを使用したモデルは名詞の並列構造においてSciBERTとBioBERTをそれぞれ使用したモデルの再現率を下回ったものの,形容詞の並列構造においてはSciBERTとBioBERTのモデルを上回る再現率を示した.形容詞の並列構造は,``normalandanergic''のような一単語の並列句で構成されている傾向があり,図\ref{fig:recall_graph}でも長さ正規化のパラメータの増加に伴って再現率が増加している.この結果から,名詞句のような複数の単語系列から成る並列句のアライメントには文脈を考慮した分散表現,形容詞の並列構造のような範囲の短い事例に対しては文字レベルの類似性を考慮した分散表現が有用に働き,ELMoを使用したモデルがサブワードの平均をとるBERTを使用したモデルと比べて高い再現率が得られたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{06table04.tex}\caption{異なる設定によるモデルの性能の違い}\label{tab:res_coord_alpha}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{28-4ia6f4.pdf}\end{center}\caption{閾値$\eta$に対するF値の推移}\label{fig:f1_thresh}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%名詞と形容詞の単純な並列構造について,前処理の有無,ハイパーパラメータの設定,編集操作のスコアの計算方法\footnote{編集操作のスコアの計算方法を変えた設定では,3.1.1節と同様にPennTreebankの開発データにてハイパーパラメータを調整した.}を変えて実験した結果を表\ref{tab:res_coord_alpha}に示す.まず,\ref{seq:genia_setting}節と同様のハイパーパラメータの設定を使用したモデル(default)では適合率と比較して再現率が高くなり,名詞句・形容詞句などの異なる統語範疇を持つ句の並列\footnote{名詞句から成る並列構造や形容詞句から成る並列構造とは区別される.}に対して,名詞と形容詞の並列構造として誤って予測していると考えられる.閾値を用いない設定では,defaultの設定による結果と比べて再現率が1ポイント増加したのに対して,適合率は7ポイント低下した.閾値$\eta$に対するF値の推移を図\ref{fig:f1_thresh}に示す.図\ref{fig:f1_thresh}では閾値0.54の設定でF値が最大値を示しており,閾値を設定しない場合では高いスコアを示さない非類似の要素ペアが,並列構造として誤検出されていることを示している.閾値を高くした設定では,類似する要素ペアも並列構造として検出されなくなるため,偽陰性の誤りが生じる.前処理のルールを用いず等位接続詞前後の全ての単語系列からアライメントをとる設定では,性能が著しく低下した.前処理における制約を無くしたことで等位接続詞の前後の単語系列で部分的にマッチしてしまい,正解となる並列句ペアのスコアを上回ってしまったことが,精度低下の原因として考えられる.スキップのスコアと長さ正規化の強さを示すパラメータを0にした設定では,defaultと性能が変わらない結果となった.実際に各単語分散表現を用いて,等位接続詞前後の単語系列でマッチの操作に対するスコア(式\ref{eq:score2})を算出した例を図\ref{fig:heatmap}に示す\footnote{ELMoとBERTから得られた単語分散表現は,同一文内の異なる単語間でコサイン類似度がほとんど非負となっていた.}.図\ref{fig:heatmap}では,どの単語分散表現も対応する単語に対して最も高いスコアが付与されている.%%%%しかし,ELMoを用いた結果(図\ref{fig:heat_elmo})では対応する単語同士と対応しない単語同士で0.2以上の差が見られるのに対して,しかし,ELMoを用いた結果(図\ref{fig:heatmap}a)では対応する単語同士と対応しない単語同士で0.2以上の差が見られるのに対して,%%%%BERTを用いた計算(図\ref{fig:heat_biobert},\ref{fig:heat_scibert})では0.1以下の近いスコアが付与されている箇所が存在する.BERTを用いた計算(図\ref{fig:heatmap}b,\ref{fig:heatmap}c)では0.1以下の近いスコアが付与されている箇所が存在する.このように,対応しない単語同士に対してELMoが低いスコアを算出でき,対応する位置から距離が遠くなる程スコアが低くなるように計算されていることから,スキップや正規化の制約を設けなくても最適なアライメントが取ることができたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{28-4ia6f5.pdf}\end{center}%%%%\label{fig:heat_elmo}%%%%\label{fig:heat_biobert}%%%%\label{fig:heat_scibert}\caption{各単語分散表現を用いたマッチ操作に対するスコアの例}\label{fig:heatmap}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,編集操作に付与する計算方法では,ユークリッド距離,内積を用いた場合はコサイン類似度と比べて性能が著しく低下した.コサイン類似度による計算も二乗せず単純に計算した方法は再現率が10ポイント程度下回っており,二乗したことで対応関係にある単語同士と対応しない単語同士のスコアの差が僅かに大きくなったことが要因として考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{06table05.tex}\caption{提案手法の並列構造解析器による出力例}\label{tab:exam_parser}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{解析結果の定性的分析}表\ref{tab:exam_parser}に提案手法による並列構造解析の出力例を示す.まず,各単語分散表現を用いた提案手法の解析結果(表\ref{tab:elmo_bert_output})では,BERTが専門的な単語と無関係な単語が類似するような分散表現を生成したことで,誤ったアライメントを引き起こす事例が存在した.実際に表\ref{tab:elmo_bert_output}の例について,各単語分散表現で類似度を計算した結果を図\ref{fig:heatmap2}に示す.%%%%この例では,ELMo(図\ref{fig:heat2_elmo})は``mRNA''に対応する``protein''に最も高いスコアが付与されているのに対して,この例では,ELMo(図\ref{fig:heatmap2}a)は``mRNA''に対応する``protein''に最も高いスコアが付与されているのに対して,%%%%BioBERT(図\ref{fig:heat2_biobert})とSciBERT(図\ref{fig:heat2_scibert})は``protein''よりも``expression''の方が高い類似度を示している.BioBERT(図\ref{fig:heatmap2}b)とSciBERT(図\ref{fig:heatmap2}c)は``protein''よりも``expression''の方が高い類似度を示している.これはBERTの単語分散表現はサブワードベクトルから生成されたことが原因として考えられ,サブワードから単語分散表現を生成する場合は専門用語の文字列の特徴を利用しにくい可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{28-4ia6f6.pdf}\end{center}%%%%\label{fig:heat2_elmo}%%%%\label{fig:heat2_biobert}%%%%\label{fig:heat2_scibert}\caption{各単語分散表現を用いたマッチ操作に対するスコアの例}\label{fig:heatmap2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:error}では,どの単語分散表現を使用したモデルでも誤って解析された例を示す.提案手法では,前後の並列句で系列長が異なる事例に対して誤りが生じやすい.本研究で用いた系列アライメントは一対一のアライメントに基づいているため,表\ref{tab:error}の例では``B''と``lymphocytes''でアライメントをとる必要がある.しかしながら,``macrophages''は``B''よりも``lymphocytes''の方が意味的に近く,単語分散表現による類似度計算のみから予測することは難しいと考えられる.並列句の境界にある単語の連接関係を考慮し,一つの単語が複数の単語に対してアライメントを可能にすることが提案手法の今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{GENIAtermannotationでの実験}複合固有表現を含む固有表現全体の抽出性能を評価するため,GENIAtermannotationで実験を行なった.GENIAtermannotationにおける固有表現の出現数と文数を表\ref{tab:term_data}にまとめる.GENIAtermannotationでは,11タイプの等位接続詞のタグで複合固有表現が分類されており\footnote{AND,OR,BUT\_NOT,AS\_WELL\_AS,AND/OR,AND\_NOT,TO,NEITHER\_NOR,NOT\_ONLY\_BUT\_ALSO,THAN,VERSUS},ANDとORのラベルは全体の97\%を占めるため,本実験ではANDとORの等位接続詞を範囲同定の対象とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{06table06.tex}\caption{GENIAtermannotationにおける固有表現の出現数}\label{tab:term_data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}GENIAtermannotationでの実験では,入れ子を対象にした固有表現認識の関連研究で使用されている\citeA{muis-lu-2016-learning}の評価方法\footnote{\citeA{muis-lu-2016-learning}の実験では複合固有表現を一つの固有表現として扱っているため,これらの固有表現を個別の固有表現に分解したデータセット(\url{https://gitlab.com/sutd_nlp/overlapping_mentions/-/tree/master/data/GENIA/scripts})を使用した.}に基づいて,コーパスの最初の80\%と10\%の文を固有表現認識器の訓練及び開発用,残りの10\%を評価用のデータセットとして使用した.さらに固有表現のタイプがDNA,RNA,Protein,cell\_line,cell\_typeの固有表現のみを評価対象とし,DNAとRNA,Proteinのサブカテゴリは全て親カテゴリに統合した.GENIAtermannotationには,``EBV-transformedhumanBcellline''の``humanBcellline''のような入れ子になった固有表現もアノテーションされているため,固有表現認識器のモデルの学習には,訓練データと開発データで入れ子状の固有表現を除去し,最長範囲の固有表現のみを対象として使用した.固有表現認識器には,生命科学のドメインに合わせるためBERTの代わりにBioBERT\cite{biobert}を使用した.BioBERTは,生命科学分野の固有表現認識タスクの評価用コーパスであるJNLPBAを用いた先行研究の中で最も高い抽出性能を示している\footnote{JNLPBAでは,GENIAtermannotationと同じくPubMedの論文アブストラクトを使用しているが,最長範囲にある固有表現のみを評価対象としており,複合固有表現は一つの固有表現として扱っている.}.並列構造解析器で用いる学習済みの言語モデルには,PennTreebankとGENIATreebankの実験で最も高い性能を示したELMoを採用し,系列アライメントで使用するスキップ及び長さ正規化のハイパーパラメータも表\ref{tab:vec_data}の設定を採用した.並列構造解析器の前処理で使用する品詞タグは,コーパスに付与されている品詞を使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価指標}GENIAtermannotationの実験では,全ての固有表現を対象とした設定と複合固有表現に限定した設定で,固有表現の抽出における適合率・再現率・F値を評価指標として性能を比較した.全ての固有表現を対象にした設定では,BioBERTを使用したモデルをベースラインとし,BioBERTと提案手法の並列構造解析器を組み合わせたモデルと抽出精度を比較した.複合固有表現のみを対象にした設定では,提案手法の並列構造解析器による固有表現認識の性能の上限を示すため,コーパスに付与されている複合固有表現の全体範囲のアノテーションを固有表現認識器の代わりに用いた設定(Oracle)と,BERTによる固有表現認識器と組み合わせた提案手法の抽出精度を比較した.また,複合固有表現の一部を不連続な固有表現として抽出する\citeA{dai-etal-2020-effective}の教師あり学習手法を用いた実験結果についても示し,提案手法における並列構造解析器の有用性を検証した\footnote{入れ子構造を考慮した固有表現認識タスクにおいてGENIAtermannotationを用いて評価を行った研究が存在するが,これらの研究はデータの分割や前処理などの実験設定がそれぞれ異なっており,再現が困難なため採用しなかった.}.\citeA{dai-etal-2020-effective}は実験用のコーパスにGENIAtermannotationを採用していないため,Daiらが公開しているソフトウェア\footnote{\url{https://github.com/daixiangau/acl2020-transition-discontinuous-ner}}を使用し,素性として用いる単語分散表現にはELMoをPubMedで事前学習したモデルを採用した.\citeA{dai-etal-2020-effective}の手法は,複合化によって省略が生じた固有表現を含めた不連続な固有表現のみを対象にした設定で性能を評価しており,複合固有表現以外の固有表現が抽出され得るため,複合固有表現のみを対象にした設定では再現率のみを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{06table07.tex}\caption{GENIAtermannotationでの固有表現認識の実験結果}\label{tab:term_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}実験結果を表\ref{tab:term_result}に示す.全ての固有表現を対象にした評価について,提案手法はベースラインの性能を改善させたが,複合固有表現のみを対象にした設定ではOracleと固有表現認識器の間に28ポイントの差があり,パイプラインに使用している固有表現認識器の誤りに起因した性能低下が見られる.\citeA{dai-etal-2020-effective}の手法と比較すると,全ての固有表現を対象にした設定では提案手法の再現率は\citeA{dai-etal-2020-effective}の手法と比べて10ポイント程度の差があるものの,複合固有表現のみを対象にした設定では,Oracleと提案手法を組み合わせたモデルが\citeA{dai-etal-2020-effective}とほぼ同等の再現率を示した.この結果は,提案手法で用いた固有表現認識器が入れ子状に埋め込まれている他の固有表現を抽出対象にしていないのに対して,\citeA{dai-etal-2020-effective}の手法ではこれらの固有表現も対象にしていることが原因として考えられる\footnote{GENIAtermannotationでは,他の固有表現に埋め込まれている固有表現が全体の10\%程度に含まれている.}.固有表現認識器の性能差の影響をなくすため,Daiらの手法をパイプラインで用いる固有表現認識器として使用する.ただし,Daiらの手法では,複合固有表現が既に不連続な固有表現として抽出されているため,等位接続詞の前後に固有表現が抽出された場合は一つの複合固有表現とみなし(nodisc),提案手法の並列構造解析器を用いて個々の固有表現として再度抽出する.結果を表\ref{tab:bert_conti}に示す.Daiらの手法による出力から得た複合固有表現を個々の固有表現として再度抽出した場合,提案手法は教師あり手法であるDaiらの手法とほぼ同等の性能で抽出できていることが分かる.これらの結果を踏まえて,複合固有表現の正規化において提案手法の並列構造解析器が有効に働いており,複合固有表現に対する固有表現認識器の抽出性能に従って,今後解析性能も向上すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{06table08.tex}\caption{Daiらの出力から得た複合固有表現を使用した実験結果}\label{tab:bert_conti}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{固有表現認識}これまでの固有表現認識の多くの研究は,系列ラベリングによる手法に基づいている.系列ラベリングでは,入力された単語系列に対し,固有表現のラベルと境界を表すラベル系列を予測する.初期の系列ラベリングによる手法では,人手による素性設計と機械学習手法の一つである条件付き確率場\cite{crf}が主に使用されており,単語の表層形や品詞などの情報が素性として使用された.近年では,双方向型のLong-ShortTermMemory\cite{lample-etal-2016-neural,ma-hovy-2016-end}やELMo\cite{Peters:2018},BERT\cite{devlin2018bert}などの文脈を考慮した単語の深層情報を利用することで,最小限の素性で学習が可能な手法が考案されている.系列ラベリングに基づく手法では,固有表現の始点(B)や内部(I)などを示すラベル方式によって定義されており,連続した単語列から成る固有表現しか表現できず,入れ子構造となる固有表現や不連続な固有表現を表せない問題がある.したがって,先行研究では複合固有表現に対しては複合固有表現全体または連続した一部分を固有表現として抽出して評価するか,あるいは例外の事例として評価対象から取り除いている.複合固有表現におけるラベリングの問題に対して,\citeA{muis-lu-2016-learning}と\citeA{dai-etal-2020-effective}は不連続な範囲を持つ固有表現に対応する手法を提案した.複合固有表現では,``VitaminsAandB''の``(Vitamins)B''のように,省略を伴う一部の固有表現の範囲が不連続的になり,これらの固有表現を不連続な範囲をもつ固有表現と見なすことができる.Muisらは,医療ドメインの固有表現認識において系列ラベリングのラベル方式を拡張し,単語を示すノードと固有表現のクラスを意味するエッジで繋いだ一本のハイパーグラフが構成されるようなラベル系列を予測することで,不連続な範囲に対応する手法を提案した.Daiらは,医療・創薬ドメインの固有表現認識において,\citeA{lample-etal-2016-neural}が開発したShift-Reduceアルゴリズムに基づく固有表現認識手法を拡張し,不連続な範囲の固有表現をボトムアップに抽出する手法を提案した.また,複合固有表現を含む省略を伴った並列的表現に対して,\citeA{Buyko2007ResolutionOC}と\citeA{Chae2014IdentifyingNE}は省略を正規化する手法を提案した.複合固有表現の一部には``[IL-5]/[GM-CSF]receptor''のような,等位接続詞によらない並列関係によって省略を伴う表現が存在する.\citeA{Buyko2007ResolutionOC}は入力文の単語系列を先行詞,接辞,等位接続詞,複合表現以外を示す四種類のラベルに分類し,ラベルの出現パターンに基づいて省略を伴う複合表現を予測する手法を提案した.\citeA{Chae2014IdentifyingNE}は,生命科学分野の専門用語を集積した辞書で複合表現を網羅的に探索し,先頭にある単語の省略(forward),末尾にある単語の省略(backward),先頭や末尾などの複雑な省略(complex)の三つのカテゴリに基づくルールを用いて,複合表現を正規化する手法を提案した.\citeA{Buyko2007ResolutionOC}は複合表現のそれぞれの要素に対してアノテーションされたデータセット,\citeA{Chae2014IdentifyingNE}の手法はデータセット上の全ての専門用語が網羅された辞書を使用している点で本研究と異なる.本研究は,複合固有表現に対して,並列構造解析と固有表現認識の手法を組み合わせる試みとして位置付けられる.固有表現の範囲と並列句の範囲を独立して予測することで,複合固有表現に含まれる個々の固有表現について評価する設定で,固有表現の認識精度が向上した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造解析}並列構造は,等位接続詞などの句を連接させる働きを持つ語,等位接続詞などによって結びつけられた句(並列句)によって構成される.並列構造解析では,並列構造に属する並列句の始点と終点を予測する.これまでの並列構造解析の多くの研究では,並列構造の範囲同定に有用な特徴として,並列句の類似性に基づいた手法が発展している.並列構造の類似性とは,同一の並列構造に属する並列句同士が句の構造や意味において類似する性質である.例えば,図\ref{fig:coord_similar}のような隣接する二つの並列句,``strongtyrosinephosphorylationofSTAT4''と``variableweakphosphorylationofSTAT3''は,ほぼ同一の品詞系列を持ちながら,STATファミリー分子のリン酸化に関する意味を持っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{28-4ia6f7.pdf}\end{center}\caption{並列構造の類似性の例}\label{fig:coord_similar}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず並列構造の類似性に基づく手法として,\citeA{kurohashi-nagao-1994-syntactic}は結びつけらた並列句同士の類似度を示すスコアを文字列や品詞の一致などのルールによって計算することで,日本語における並列構造の範囲を同定する手法を提案した.\citeA{shimbo-hara-2007-discriminative}は英語の並列構造において,単語や品詞,形態情報に基づいた素性を用いて並列句の内部にある単語同士のアライメントによって類似度を計算する.単語のアライメントには,それぞれの素性の重み付き線形和がスコアとして表され,重みのパラメータは機械学習手法での一つであるパーセプトロンを用いて調整される.\citeA{hara-etal-2009-coordinate}は\citeA{shimbo-hara-2007-discriminative}の手法を拡張し,全ての並列構造のスコアの総和が最大になるような木を導出することで,入れ子状になった複数の並列構造・三つ以上の並列句によって構成される並列構造に対応した.近年は,ニューラルネットワークに基づいた並列構造の範囲同定手法が提案されている.\citeA{ficler-goldberg-2016-neural}は句構造解析器であるBerkeleyParser\cite{petrov-etal-2006-learning}を用いて抽出された並列句ペアの候補に対して,ベクトル同士のユークリッド距離などを素性として用いてスコアを計算する.これらのスコア付けされた並列句ペアの中で,最もスコアの高いペアを並列句の範囲として予測する.寺西ら\citeyear{Teranishi-etal-2018-journal}は並列構造全体の範囲に対して,外部の構文解析器を利用しないエンドツーエンドな範囲同定手法を提案した.寺西ら\citeyear{teranishi-etal-2020-journal}は,それぞれの並列句の内部と外部の境界などに基づいたスコアを用いて,\citeA{hara-etal-2009-coordinate}と同様に並列構造を表す木をCKYアルゴリズムによって構築し,入れ子状の並列構造,三つ以上の並列句に対応する手法を提案した.寺西ら\citeyear{teranishi-etal-2020-journal}の手法は,並列構造解析の既存手法において最も高い解析精度を達成している.しかしながら,これらの手法の学習には個々の並列構造に対して各並列句の範囲がアノテーションされた大量のデータが必要になることから,他分野への応用という面を考慮すると,データセットの作成にかかるコストの点で課題が残る.本研究は,並列句の全ての候補ペアに対してスコア計算を行い,並列関係にある単語系列のペアに対して高いスコアを割り当てる点で,従来研究の手法と類似する.しかしながら,複合固有表現に含まれる並列構造は,名詞や形容詞による並列に限定されており,文や動詞句などの全ての並列構造に対して網羅的に解析することは実用上効率的ではない.また,名詞や形容詞による並列構造は,文や節による並列と比べて並列句同士の類似性が高い傾向にある.本研究は,名詞と形容詞の並列構造に焦点をあて,事前学習された単語分散表現と品詞のみを使用し,並列構造のアノテーションを用いない点で従来研究と異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
本研究は,並列構造解析器と固有表現認識器のパイプライン処理によって,複合固有表現から個々の固有表現を抽出する手法を提案した.事前学習された単語分散表現から文脈・単語の表層を考慮した情報を用いることで,生命科学分野の並列句の範囲同定タスクにおいて教師あり学習に基づく手法に近い再現率を達成し,固有表現認識のタスクにおいても,提案手法の並列構造解析器を既存の固有表現認識器と組み合わせることで固有表現認識の精度向上に有用に働くことが示された.提案手法は,複合固有表現に含まれる個別の固有表現を抽出できる点,並列構造のアノテーションを用いた学習を行う必要がない点が貢献として挙げられる.提案手法の課題として,提案手法は等位接続詞の前後にある二つの並列句のみの範囲を予測するため,三つ以上の並列句で構成される並列構造に対しても個々の並列句を取り扱えるようにすることが挙げられる.また,等位接続詞に含む固有表現は複数の固有表現が結合されて範囲が広くなることから,固有表現の抽出が困難になる.さらに,並列構造を含む固有表現の中には正規化の必要がない単一の固有表現も含まれるため,今後は広範囲な固有表現にも頑健に対応するとともに,並列構造と固有表現の範囲を同時に解析できるように改善する予定である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部はJSTCREST(課題番号:JPMJCR1513)の支援を受けて行い,The28thInternationalConferenceonComputationalLinguisticsで発表したものです\cite{sawada-etal-2020-coordination}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{06refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{澤田悠冶}{%2019年関西学院大学総合政策学部卒.2021年奈良先端科学技術大学院大学先端科学技術研究科博士前期課程修了.同年,同大学院先端科学技術研究科博士後期課程入学.自然言語処理の研究に従事.}\bioauthor{寺西裕紀}{%2014年慶應義塾大学商学部卒.2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2020年同大学院先端科学技術研究科博士後期課程修了.博士(工学).同年より理化学研究所革新知能統合研究センター(AIP)特別研究員.自然言語処理の研究に従事.}\bioauthor{松本裕治}{%1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984~85年英国インペリアルカレッジ客員研究員.1985~87年(財)新世代コンピュータ技術開発機構に出向.1988年京都大学助教授,1993年奈良先端科学技術大学院大学教授.2020年理研AIP知識獲得リーダ,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,言語処理学会,AAAI,ACL,ACM各会員,情報処理学会フェロー.ACLFellow,}\bioauthor{渡辺太郎}{%1994年京都大学工学部情報工学科卒業.2000年LanguageandInformationTechnologies,SchoolofComputerScience,CarnegieMellonUniversity,MasterofScience取得.2004年京都大学博士(情報学).ATRおよびNTT,NICTにて研究員,またグーグルでソフトウェアエンジニアとして勤めたあと,2020年より奈良先端科学技術大学院大学教授.自然言語処理や機械学習,機械翻訳の研究に従事.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V20N05-04
|
\section{はじめに}
自然言語処理のタスクにおいて帰納学習手法を用いる際,訓練データとテストデータは同じ領域のコーパスから得ていることが通常である.ただし実際には異なる領域である場合も存在する.そこである領域(ソース領域)の訓練データから学習された分類器を,別の領域(ターゲット領域)のテストデータに合うようにチューニングすることを領域適応という\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.}.本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)のタスクでの領域適応に対する手法を提案する.まず本論文における「領域」の定義について述べる.「領域」の正確な定義は困難であるが,本論文では現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{bccwj}におけるコーパスの「ジャンル」を「領域」としている.コーパスの「ジャンル」とは,概略,そのコーパスの基になった文書が属していた形態の分類であり,書籍,雑誌,新聞,白書,ブログ,ネット掲示板,教科書などがある.つまり本論文における「領域」とは,書籍,新聞,ブログ等のコーパスの種類を意味する.領域適応の手法はターゲット領域のラベル付きデータを利用するかしないかという観点で分類できる.利用する場合を教師付き手法,利用しない場合を教師なし手法と呼ぶ.教師付き手法については多くの研究がある\footnote{例えばDaum{\'e}の研究(Daum\'{e}2007)\nocite{daume0}はその簡易性と有効性から広く知られている.}.また能動学習\cite{settles2010active}や半教師あり学習\cite{chapelle2006semi}は,領域適応の問題に直接利用できるために,それらのアプローチをとる研究も多い.これらに対して教師なし手法の従来研究は少ない.教師なし手法は教師付き手法に比べパフォーマンスが悪いが,ラベル付けが必要ないという大きな長所がある.また領域適応は転移学習と呼ばれることからも明らかなように,ソース領域の知識(例えば,ラベル付きデータからの知識)をどのように利用するか(ターゲット領域に転移させるか)が解決の鍵であり,領域適応の手法はターゲット領域のラベル付きデータを利用しないことで,その効果が明確になる.このため教師なし手法を研究することで,領域適応の問題が明確になると考えている.この点から本論文では教師なし手法を試みる.\newpage本論文の特徴はWSDの領域適応の問題を以下の2点に分割したことである.\begin{enumerate}\item[(1)]領域間で語義の分布が異なる\item[(2)]領域の変化によりデータスパースネスが生じる\end{enumerate}領域適応の手法は上記2つの問題を同時に解決しているものが多いために,このような捉え方をしていないが,WSDの領域適応の場合,上記2つの問題を分けて考えた方が,何を解決しようとしているのかが明確になる.本論文では上記2点の問題に対して,ターゲット領域のラベル付きデータを必要としない各々の対策案を提示する.具体的に,(1)に対してはk~近傍法を補助的に利用し,(2)に対しては領域毎のトピックモデル\cite{blei}を利用する.実際の処理は,ターゲット領域から構築できるトピックモデルによって,ソース領域の訓練データとターゲット領域のテストデータにトピック素性を追加する.拡張された素性ベクトルからSVMを用いて語義識別を行うが,識別の信頼性が低いものにはk~近傍法の識別結果を用いる.上記の処理を本論文の提案手法とする.提案手法の大きな特徴は,トピックモデルをWSDに利用していることである.トピックモデルの構築には語義のラベル情報を必要としないために,領域適応の教師なし手法が実現される.トピックモデルをWSDに利用した従来の研究\cite{li,boyd1,boyd2}はいくつかあるため,それらとの差異を述べておく.まずトピックモデルをWSDに利用するにしても,その利用法は様々であり確立された有効な手法が存在するわけではなく,ここで利用した手法も1つの提案と見なせる.また従来のトピックモデルを利用したWSDの研究では,語義識別の精度改善が目的であり,領域適応の教師なし手法に利用することを意図していない.そのためトピックモデルを構築する際に,もとになるコーパスに何を使えば有効かは深くは議論されていない.しかし領域適応ではソース領域のコーパスを単純に利用すると,精度低下を起こす可能性もあるため,本論文ではソース領域のコーパスを利用せず,ターゲット領域のコーパスのみを用いてトピックモデルを構築するアプローチをとることを明確にしている.この点が大きな差異である.実験ではBCCWJコーパス\cite{bccwj}の2つ領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行った.単純にSVMを利用した手法と提案手法とをマクロ平均により比較した場合,OCをソースデータにして,PBをターゲットデータにした場合には有意水準0.05で,ソースデータとターゲットデータを逆にした場合には有意水準0.10で提案手法の有効性があることが分かった.
\section{WSDの領域適応の問題}
WSDの対象単語\(w\)の語義の集合を\(C=\{c_1,c_2,\cdots,c_k\}\),\(w\)を含む文(入力データ)を\(x\)とする.WSDの問題は最大事後確率推定を利用すると,以下の式の値を求める問題として表現できる.\[\arg\max_{c\inC}P(c)P(x|c)\]つまり訓練データを利用して語義の分布\(P(c)\)と各語義上での入力データの分布\(P(x|c)\)を推定することでWSDの問題は解決できる.今,ソース領域を\(S\),ターゲット領域を\(T\)とした場合,WSDの領域適応の問題は\(P_S(c)\neP_T(c)\)と\(P_S(x|c)\neP_T(x|c)\)から生じている.\(P_S(c)\neP_T(c)\)が成立していることは明らかだが,\(P_S(x|c)\neP_T(x|c)\)に対しては一考を要する.一般の領域適応の問題では\(P_S(x|c)\neP_T(x|c)\)であるが,WSDに限れば\(P_S(x|c)=P_T(x|c)\)と考えることもできる.実際Chanらは\(P_S(x|c)\)と\(P_T(x|c)\)の違いの影響は非常に小さいと考え,\(P_S(x|c)=P_T(x|c)\)を仮定し,\(P_T(c)\)をEMアルゴリズムで推定することでWSDの領域適応を行っている\cite{chan2005word,chan2006estimating}.古宮らは2つのソース領域の訓練データを用意し,そこからランダムに訓練データを取り出してWSDの分類器を学習している\cite{komiya-nenji2013}.論文中では指摘していないが,これも\(P_S(c)\)を\(P_T(c)\)に近づける工夫である.ソース領域が1つだとランダムに訓練データを取り出しても\(P_S(c)\)は変化しないが,ソース領域を複数用意することで\(P_S(c)\)が変化する.ただし\(P_S(x|c)=P_T(x|c)\)が成立していたとしても,WSDの領域適応の問題が\(P_T(c)\)の推定に帰着できるわけでない.仮に\(P_S(x|c)=P_T(x|c)\)であったとしても,領域\(S\)の訓練データだけから\(P_T(x|c)\)を推定することは困難だからである.これは共変量シフトの問題\cite{shimodaira2000improving,sugiyama-2006-09-05}と関連が深い.共変量シフトの問題とは入力\(x\)と出力\(y\)に対して,推定する分布\(P(y|x)\)が領域\(S\)と\(T\)で共通しているが,\(S\)における入力の分布\(P_S(x)\)と\(T\)における入力の分布\(P_T(x)\)が異なる問題である.\(P_S(x|c)=P_T(x|c)\)の仮定の下では,入力\(x\)と出力\(c\)が逆になっているので,共変量シフトの問題とは異なる.ただしWSDの場合,全く同じ文\(x\)が別領域に出現したとしても,\(x\)内の多義語\(w\)の語義が異なるケースは非常に稀であるため\(P_S(c|x)=P_T(c|x)\)が仮定できる.\(P_T(c|x)\)は語義識別そのものなので,WSDの領域適応の問題は共変量シフトの問題として扱えることができる.共変量シフト下では訓練事例\(x_i\)に対して密度比\(P_T(x_i)/P_S(x_i)\)を推定し,密度比を重みとして尤度を最大にするようにモデルのパラメータを学習する.Jiangらは密度比を手動で調整し,モデルにはロジステック回帰を用いている\cite{jiang2007instance}.齋木らは\(P(x)\)をunigramでモデル化することで密度比を推定し,モデルには最大エントロピーモデルを用いている\cite{saiki-2008-03-27}.ただしどちらの研究もタスクはWSDではない.WSDでは\(P(x)\)が単純な言語モデルではなく,「\(x\)は対象単語\(w\)を含む」という条件が付いているので,密度比\(P_T(x)/P_S(x)\)の推定が困難となっている.また教師なしの枠組みで共変量シフトの問題が扱えるのかは不明である.本論文では\(P_S(c|x)=P_T(c|x)\)を仮定したアプローチは取らず,\(P_S(x|c)=P_T(x|c)\)を仮定する.この仮定があったとしても,領域\(S\)の訓練データだけから\(P_T(x|c)\)を推定するのは困難である.ここではこれをスパース性の問題と考える.つまり領域\(S\)の訓練データ\(D\)は領域\(T\)においてスパースになっていると考える.スパース性の問題だと考えれば,半教師あり学習や能動学習を領域適応に応用するのは自然である\footnote{ただし\(D\)は領域\(T\)内のサンプルではなく不均衡な訓練データという点には注意すべきであり,この点を考慮した半教師あり学習や能動学習が必要である.}(Rai,Saha,Daum{\'e},andVenkatasubramanian2010)\nocite{rai2010domain}.また半教師あり学習や能動学習のアプローチを取った場合,\(T\)の訓練データが増えるので語義の分布の違い自体も同時に解消されていく\cite{chan2007domain}.ここで指摘したいのは\(P_S(x|c)=P_T(x|c)\)が成立しており\(P_T(x|c)\)の推定を困難にしているのがスパース性の問題だとすれば,領域\(S\)の訓練データ\(D\)は多いほどよい推定が行えるはずで,\(D\)が大きくなったとしても推定が悪化するはずがない点である.しかし現実には\(D\)を大きくするとWSD自体の精度が悪くなる場合もあることが報告されている(例えば\cite{komiya-nenji2013}).これは一般に負の転移現象\cite{rosenstein2005transfer}と呼ばれている.WSDの場合\(P_T(x|c)\)を推定しようとして,逆に語義の分布\(P_T(c)\)の推定が悪化することから生じる.つまり領域\(T\)におけるWSDの解決には\(T\)におけるデータスパースネスの問題に対処しながら,同時に\(P_T(c)\)の推定が悪化することを避けることが必要となる.また領域適応ではアンサンブル学習も有効な手法である.アンサンブル学習自体はかなり広い概念であり,実際,バギング,ブースティングまた混合分布もアンサンブル学習の一種である.Daum{\'e}らは領域適応のための混合モデルを提案している(Daum{\'e}andMarcu2006)\nocite{daume2006domain}.そこでは,ソース領域のモデル,ターゲット領域のモデル,そしてソース領域とターゲット領域を共有したモデルの3つを混合モデルの構成要素としている.Daiらは代表的なブースティングアルゴリズムのAdaBoostを領域適応の問題に拡張したTrAdaBoostを提案している\cite{Dai2007}.またKamishimaらはバギングを領域適応の学習用に拡張したTrBaggを提案している\cite{kamishima2009trbagg}.WSDの領域適応については古宮の一連の研究\cite{komiya2,komiya3,komiya-nlp2012}があるが,そこではターゲット領域のラベルデータの使い方に応じて学習させた複数の分類器を用意しておき,単語や事例毎に最適な分類器を使い分けることで,WSDの領域適応を行っている.これらの研究もアンサンブル学習の一種と見なせる.
\section{提案手法}
\subsection{k~近傍法の利用}領域\(T\)におけるデータスパースネスの問題に対処する際に,\(P_T(c)\)の推定が悪化することを避けるために,本論文では識別の際に\(P_T(c)\)の情報をできるだけ利用しないという方針をとる.そのためにk~近傍法を利用する.どのような学習手法を取ったとしても,何らかの汎化を行う以上,\(P_T(c)\)の影響を受けるが,k~近傍法はその影響が少ない.k~近傍法はデータ\(x\)のクラスを識別するのに,訓練データの中から\(x\)と近いデータ\(k\)個を取ってきて,それら\(k\)個のデータのクラスの多数決により\(x\)のクラスを識別する.\mbox{k~近傍法}が\(P_T(c)\)の影響が少ないのは\(k=1\)の場合(最近傍法)を考えればわかりやすい.例えば,クラスが\(\{c_1,c_2\}\)であり,\(P(c_1)=0.99\),\(P(c_2)=0.01\)であった場合,通常の学習手法であれば,ほぼ全てのデータを\(c_1\)と識別するが,最近傍法では,入力データ\(x\)と最も近いデータ1つだけがクラス\(c_2\)であれば,\(x\)のクラスを\(c_2\)と判断する(\mbox{図\ref{zu1}}参照).つまりk~近傍法ではデータ全体の分布を考慮せずに\(k\)個の局所的な近傍データのみでクラスを識別するために,その識別には\(P_T(c)\)の影響が少ない.\begin{figure}[t]\begin{center}\includegraphics{20-5ia4f1.eps}\end{center}\caption{分布の影響が少ないk-NN}\label{zu1}\vspace{-1\Cvs}\end{figure}ただしk~近傍法は近年の学習器と比べるとその精度が低い.そのためここではk~近傍法を補助的に利用する.具体的には通常の識別はSVMで行い,SVMでの識別の信頼度が閾値\(\theta\)以下の場合のみ,k~近傍法の識別結果を利用することにする.ここで\(\theta\)の値が問題だが,語義の数が\(K\)個である場合,識別の信頼度(その語義である確率)は少なくとも\(1/K\)以上の値となる.そのためここではこの値の1割をプラスし\(\theta=1.1/K\)とした.なおこの値は予備実験等から得た最適な値ではないことを注記しておく.\subsection{トピックモデルの利用}領域\(T\)におけるデータスパースネスの問題に対処するために,ここではトピックモデルを利用する.WSDの素性としてシソーラスの情報を利用するのもデータスパースネスへの1つの対策である.シソーラスとしては,分類語彙表などの手作業で構築されたものとコーパスから自動構築されたものがある.前者は質が高いが分野依存の問題がある.後者は質はそれほど高くないが,分野毎に構築できるという利点がある.ここでは領域適応の問題を扱うので,後者を利用する.つまり領域\(T\)からシソーラスを自動構築し,そのシソーラス情報を領域\(S\)の訓練事例と領域\(T\)のテスト事例に含めることで,WSDの識別精度の向上を目指す.注意として,WSDでは単語間の類似度を求めるためにシソーラスを利用する.そのため実際にはシソーラスを構築するのではなく,単語間の類似度が測れる仕組みを作っておけば良い.この仕組みが単語のクラスタリング結果に対応する.つまりWSDでの利用という観点では,シソーラスと単語クラスタリングの結果は同等である.そのため本論文においてシソーラスと述べている部分は,単語のクラスタリング結果を指している.この単語のクラスタリング結果を得るためにトピックモデルを利用する.トピックモデルとは文書\(d\)の生起に\(K\)個の潜在的なトピック\(z_i\)を導入した確率モデルである.\[p(d)=\sum_{i=1}^{K}p(z_i)p(d|z_i)\]トピックモデルの1つであるLatentDirichletAllocation(LDA)\cite{blei}を用いた場合,単語\(w\)に対して\(p(w|z_i)\)が得られる.つまりトピック\(z_i\)をひとつのクラスタと見なすことで,LDAを利用して単語のソフトクラスタリングが可能となる.領域\(T\)のコーパスとLDAを利用して,\(T\)に適した\(p(w|z_i)\)が得られる.\(p(w|z_i)\)の情報をWSDに利用するいくつかの研究\cite{li,boyd1,boyd2}があるが,ここではハードタグ\cite{cai}を利用する.ハードタグとは\(w\)に対して最も関連度の高いトピック\(z_{\hat{i}}\)を付与する方法である.\[\hat{i}=\arg\max_{i}p(w|z_i)\]まずトピック数を\(K\)としたとき,\(K\)次元のベクトル\(t\)を用意し,入力事例\(x\)中に\(n\)種類の単語\(w_1,w_2,\cdots,w_n\)が存在したとき,各\(w_j\)(\(j=1\simn\))に対して最も関連度の高いトピック\(z_{\hat{i}}\)を求め,\(t\)の\(\hat{i}\)次元の値を1にする.これを\(w_1\)から\(w_n\)まで行い\(t\)を完成させる.作成できた\(t\)をここでは{\bfトピック素性}と呼ぶ.トピック素性を通常の素性ベクトル(ここでは{\bf基本素性}と呼ぶ)に結合することで,新たな素性ベクトルを作成し,その素性ベクトルを対象に学習と識別を行う.なお,本論文で利用した基本素性は,対象単語の前後の単語と品詞及び対象単語の前後3単語までの自立語である.
\section{実験}
\subsection{実験設定と実験結果}現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{bccwj}のPB(書籍)とOC(Yahoo!知恵袋)を異なった領域として実験を行う.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではPBとOCを含む4ジャンルの語義タグ付きコーパスが公開されているので,語義のラベルはこのデータを利用する.PBとOCから共に頻度が50以上の多義語17単語をWSDの対象単語とする.これらの単語と辞書上での語義数及び各コーパスでの頻度と語彙数を\mbox{表\ref{tab:target-word}}に示す\footnote{語義は岩波国語辞書がもとになっている.そこでの中分類までを対象にした.また「入る」は辞書上の語義が3つだが,PBやOCでは4つの語義がある.これはSemEval-2の日本語WSDタスクは新語義のタグも許しているからである.}.領域適応としてはPBをソース領域,OCをターゲット領域としたものと,OCをソース領域,PBをターゲット領域としたものの2種類を行う.注意としてSemEval-2の日本語WSDタスクのデータを用いれば,更に異なった領域間の実験は可能であるが,領域間に共通してある程度の頻度で出現する多義語が少ないことなどから本論文ではPBとOC間の領域適応に限定している.\begin{table}[b]\caption{対象単語}\label{tab:target-word}\input{04table01.txt}\end{table}\begin{table}[t]\caption{各手法による正解率(PB→OC)}\label{tab:result1}\input{04table02.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{20-5ia4f2.eps}\end{center}\caption{各手法による正解率のマクロ平均(PB→OC)}\label{kekka1}\end{figure}PBからOCへの領域適応の実験結果を\mbox{表\ref{tab:result1}}と図~\ref{kekka1}に示す.またOCからPBへの領域適応の実験結果を\mbox{表\ref{tab:result2}}と図~\ref{kekka2}に示す.\mbox{表\ref{tab:result1}}と\mbox{表\ref{tab:result2}}の数値は正解率を示している.「k-NN」の列はk~近傍法の識別結果を示す.ここでは\(k=1\)としている.「SVM」の列は基本素性だけを用いて学習したSVMの識別結果を示し,「SVM+TM」の列は基本素性にターゲット領域から得たトピック素性を加えた素性を用いて学習したSVMの識別結果を示し,「提案手法」の列は「SVM+TM」の識別で信頼度の低い結果をk~近傍法の結果に置き換えた場合の識別結果を示す.また「self」はターゲット領域の訓練データに対して5分割交差検定を行った場合の平均正解率であり,理想値と考えて良い.ただし一部の単語で「self」の値が「提案手法」などよりも低い.これはそれらの単語のソース領域のラベル付きデータの情報が,ターゲット領域で有効であったことを意味している.つまり「負の転移」が生じていないため,これらの単語については領域適応の問題が生じていないとも考えられる.\begin{table}[t]\caption{各手法による正解率(OC→PB)}\label{tab:result2}\input{04table03.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{20-5ia4f3.eps}\end{center}\caption{各手法による正解率のマクロ平均(OC→PB)}\label{kekka2}\end{figure}本実験のSVMの実行には,SVMライブラリのlibsvm\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm/}を利用した.そこで用いたカーネルは線形カーネルである.また識別の信頼度の算出にはlibsvmで提供されている\verb|-b|オプションを利用した.このオプションは,基本的には,onevs.rest法を利用して各カテゴリ(本実験の場合,語義)までの距離(識別関数値)の比較から,信頼度を算出している.識別結果は最も信頼度の高いカテゴリ(語義)となる.またBCCWJコーパスは形態素解析済みの形で提供されているため,基本素性の単語や品詞は,形態素解析システムを利用せずに直接得ることができる.またトピックモデルの作成にはLDAツール\footnote{http://chasen.org/{\textasciitilde}daiti-m/dist/lda/}を用い,トピック数は全て100として実験を行った.17単語の正解率のマクロ平均をみると,PBからOCへの領域適応とOCからPBへの領域適応のどちらにおいても,以下の関係が成立しており,提案手法が有効であることがわかる.\vspace{0.5\Cvs}\begin{verbatim}k-NN<SVM<SVM+TM<提案手法\end{verbatim}\vspace{0.5\Cvs}なお本実験の評価はマクロ平均で行った.マイクロ平均による評価も可能ではあるが,本実験の場合,テストデータの用例数に幅がありすぎ,結果的にテストデータの用例数の多い単語の識別結果がマイクロ平均の値に大きく影響する.このためここではマクロ平均のみによる評価を行っている.マイクロ平均で評価した場合は,わずかではあるがSVMが最も高い評価値を出していた.\subsection{有意差の検定}t検定を用いて各手法間の正解率のマクロ平均値の有意差を検定する.対象単語\(w\)のソース領域でのラベル付きデータからランダムにその9割を取り出し,その9割のデータから前述したWSDの実験(「SVM」,「SVM+TM」,「提案手法」)を行う.この際,「提案手法」ではk-NNの結果を用いるが,そこでも9割のデータしかないことに注意する.これを1セットの実験とし,50セットの実験を行い,その正解率のマクロ平均を求めた.PBからOCへの領域適応の結果を\mbox{表\ref{tab:yuui1}}に示す.またOCからPBへの領域適応の結果を\mbox{表\ref{tab:yuui2}}に示す.t検定を行う場合,まず分散比の検定から2つのデータが等分散と見なせることを示す必要がある.自由度(49,49)のF値を調べることで,有意水準0.10で等分散を棄却するためには,分散比が0.6222以下か1.6073以上の値でなければならない.\mbox{表\ref{tab:yuui1}}と\mbox{表\ref{tab:yuui2}}から,各領域適応でどの手法間の組み合わせを行っても,正解率の分散が等しいことを棄却できないことは明らかであり,ここではt検定を行えると判断できる.t検定の片側検定を用いた場合,ここでの自由度は48なので有意水準0.05で有意差を出すt値は1.6772以上,有意水準0.10で有意差を出すt値は1.2994以上の値となる.このため有意差の検定結果は\mbox{表\ref{yuui-kekka3}}と\mbox{表\ref{yuui-kekka4}}のようにまとめられる.\begin{table}[t]\begin{minipage}[t]{.49\textwidth}\caption{9割データでの実験結果(PB→OC)}\label{tab:yuui1}\input{04table04.txt}\end{minipage}\hfill\begin{minipage}[t]{.49\textwidth}\caption{9割データでの実験結果(OC→PB)}\label{tab:yuui2}\input{04table05.txt}\end{minipage}\end{table}\begin{table}[t]\caption{手法間の有意差(PB→OC)}\label{yuui-kekka3}\input{04table06.txt}\end{table}\begin{table}[t]\caption{手法間の有意差(OC→PB)}\label{yuui-kekka4}\input{04table07.txt}\end{table}結論的には提案手法とSVMとの正解率のマクロ平均の差はOCからPBの領域適応では有意だが,PBからOCの領域適応では有意ではない.ただし有意水準を0.10に緩和した場合には,PBからOCの領域適応でも有意であると言える.細かく手法を分けて調べた場合,トピックモデルを利用すること(SVM+TMとSVMの差)とk-NNを併用すること(提案手法とSVM+TMの差)についての有意性はまちまちであった.ただし有意水準を0.10に緩和した場合,トピックモデルを利用する手法についてPBからOCの領域適応以外の組み合わせについては全て有意性が認められた.
\section{考察}
\subsection{語義分布の違い}本論文では,WSDの領域適応は語義分布の違いの問題を解決するだけは不十分であることを述べた.NaiveBayesを利用して,この点を調べた.NaiveBayesの場合,以下の式で語義を識別する.\[\arg\maxP_S(c)P_S(x|c)\]ここで事前分布\(P_S(c)\)の代わりに領域\(T\)の訓練データから推定した\(P_T(c)\)を用いる.これは語義分布を正確に推定できたという仮定での仮想的な実験である.結果を\mbox{表\ref{gogibunpu}}に示す.\begin{table}[b]\caption{理想的語義分布の推定による識別}\label{gogibunpu}\input{04table08.txt}\end{table}全体として理想的な語義分布を利用すれば,正解率は改善されるが,効果はわずかしかない.またPBからOCの「前」やOCからPBの「見る」「持つ」は逆に精度が悪化している.更に理想的な語義分布を利用できたとしても,通常のSVMよりも正解率が劣っている.これらのことから,語義分布の正確な推定のみではWSDの領域適応の解決は困難であることがわかる.\subsection{トピックモデルの領域依存性の度合い}WSDにおいてデータスパースネスの問題の対処として,シソーラスを利用することは一般に行われてきている.LDAから得られるトピック\(z_i\)のもとで単語\(w\)が生起する確率\(p(w|z_i)\)は,単語のソフトクラスタリング結果に対応しており,これはLDAの処理対象となったコーパスに合ったシソーラスと見なせる.このためトピックモデルがWSDに利用できることは明らかである.ただしその具体的な利用方法は確立されていない.問題は2つある.1つはトピック素性の表現方法である.ここではハードタグを利用したが,ソフトタグの方が優れているという報告もある\cite{cai}.國井はハードタグとソフトタグの中間にあたるミドルソフトタグを提案している\cite{kunii}.いずれにしても,トピック素性の有効な表現方法はトピック数やコーパスの規模にも依存した問題であり,どういった表現方法で利用すれば良いかは未解決である.もう1つの問題はトピックモデルから得られるシソーラスの領域依存性の度合いである.本論文でもLDAから領域依存のトピックモデルが作成できることに着目してトピックモデルを領域適応の問題に利用した.ただし領域\(A\)のコーパスと領域\(B\)のコーパスがあった場合,各々のコーパスから各々の知識を獲得するよりも,両者のコーパスを合わせて両領域の知識を獲得した方が,一方のコーパスから得られる知識よりも優れていることがある.例えば森は単語分割のタスクにおいて,各々の領域のタグ付きデータを使うことで精度を上げることができたが,全ての領域のタグ付きデータを使えば更に精度を上げることができたことを報告している\cite{mori}.領域の知識を合わせることは,その知識をより一般的にしていることであり,領域依存の知識はあまり領域に依存しすぎるよりも,ある程度,一般性があった方がよいという問題と捉えられる.本実験で言えばPBのコーパスとOCのコーパスと両者を合わせて学習したトピックモデルは,各々のコーパスから学習したトピックモデルよりも優れている可能性がある.以下その実験の結果を\mbox{表\ref{bunruigoi}}に示す.\begin{table}[t]\caption{両領域コーパスを利用した識別}\label{bunruigoi}\input{04table09.txt}\end{table}ターゲット領域がPBの場合,ソース領域のOCのコーパスを追加することで正解率は低下するが,ターゲット領域がOCの場合,ソース領域のPBのコーパスを追加することで正解率が向上する.これはOC(Yahoo!知恵袋)のコーパスの領域依存が強いが,その一方で,PB(書籍)のコーパスの領域依存が弱く,より一般的であることから生じていると考える.一般性の高い領域に領域依存の強い知識を入れると性能が下がるが,より特殊な領域には,その領域固有の知識に一般的知識を組み入れることで性能が更に向上すると考えられる.これらの詳細な分析と対策は今後の課題である.\subsection{k~近傍法の効果とアンサンブル手法}本論文ではSVMでの識別の信頼度の低い部分をk~近傍法の識別結果に置き換えるという処理を行った.置き換えが起こったものだけを対象にして,k~近傍法とSVMでの正解数を比較した.結果を\mbox{表\ref{tab:change1}}と\mbox{表\ref{tab:change2}}に示す.PBからOCへの領域適応では「子供」,OCからPBへの領域適応では「入れる」についてはSVMの方がk~近傍法の方よりもよい正解率だが,それ以外はk~近傍法の正解率はSVMの正解率と等しいかそれ以上であった.つまりSVMで識別精度が低い部分に関しては,k~近傍法で識別する効果が確認できる.またk~近傍法の\(k\)をここでは\(k=1\)とした.この\(k\)の値を3や5に変更した実験結果を\mbox{図\ref{kekka3}}と\mbox{図\ref{kekka4}}に示す.\begin{table}[p]\begin{minipage}[t]{.45\textwidth}\caption{識別結果の変更(PB→OC)}\label{tab:change1}\input{04table10.txt}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{識別結果の変更(OC→PB)}\label{tab:change2}\input{04table11.txt}\end{minipage}\end{table}\begin{figure}[p]\begin{center}\includegraphics{20-5ia4f4.eps}\end{center}\caption{kによる変化(PB→OC)}\label{kekka3}\end{figure}複数の分類器を組み合わせて利用する学習手法をアンサンブル学習というが,本論文の手法もアンサンブル学習の一種と見なせる.k~近傍法自体は\(k=1\)よりも\(k=3\)や\(k=5\)の方が正解率が高いが,本手法のようにSVMの識別の信頼度の低い部分のみに限定すれば,\(k=1\)の\mbox{k~近傍法}を利用した方がよい.これはアンサンブル学習では高い識別能力の学習器を組み合わせるのではなく,互いの弱い部分を補強し合うような形式が望ましいことを示している.\begin{figure}[t]\begin{center}\includegraphics{20-5ia4f5.eps}\end{center}\caption{kによる変化(OC→PB)}\label{kekka4}\end{figure}
\section{おわりに}
本論文ではWSDの領域適応に対する手法を提案した.まずWSDの領域適応の問題を,以下の2つの問題に要約できることを示し,関連研究との位置づけを示した.\begin{itemize}\item領域間で語義の分布が異なる\item領域の変化によりデータスパースネスが生じる\end{itemize}次に上記の2つの問題それぞれに対処する手法を提案した.1点目の問題に対してはk~近傍法を補助的に用いること,2点目の問題に対してはトピックモデルを利用することである.BCCWJコーパスの2つ領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行い,提案手法の有効性を示した.ただし領域はOCとPBに限定しており,提案手法が他の領域間で有効であるかは確認できていない.この点は今後の課題である.また領域の一般性を考慮したトピックモデルをWSDに利用する方法,およびWSDの領域適応に有効なアンサンブル手法を考案することも今後の課題である.\vspace{1\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{blei}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQ{Latentdirichletallocation}.\BBCQ\\newblock{\BemMachineLearningReseach},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Boyd-Graber\BBA\Blei}{Boyd-Graber\BBA\Blei}{2007}]{boyd2}Boyd-Graber,J.\BBACOMMA\\BBA\Blei,D.\BBOP2007\BBCP.\newblock\BBOQ{Putop:TurningPredominantSensesintoaTopicModelforWordSenseDisambiguation}.\BBCQ\\newblockIn{\BemProceedingsofSemEval-2007},\mbox{\BPGS\277--281}.\bibitem[\protect\BCAY{Boyd-Graber,Blei,\BBA\Zhu}{Boyd-Graberet~al.}{2007}]{boyd1}Boyd-Graber,J.,Blei,D.,\BBA\Zhu,X.\BBOP2007\BBCP.\newblock\BBOQ{ATopicModelforWordSenseDisambiguation}.\BBCQ\\newblockIn{\BemProceedingsofEMNLP-CoNLL-2007},\mbox{\BPGS\1024--1033}.\bibitem[\protect\BCAY{Cai,Lee,\BBA\Teh}{Caiet~al.}{2007}]{cai}Cai,J.~F.,Lee,W.~S.,\BBA\Teh,Y.~W.\BBOP2007\BBCP.\newblock\BBOQ{ImprovingWordSenseDisambiguationusingTopicFeatures}.\BBCQ\\newblockIn{\BemProceedingsofEMNLP-CoNLL-2007},\mbox{\BPGS\1015--1023}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2005}]{chan2005word}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationwithDistributionEstimation.\BBCQ\\newblockIn{\BemProceedingsofIJCAI-2005},\mbox{\BPGS\1010--1015}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{chan2006estimating}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingclasspriorsindomainadaptationforwordsensedisambiguation.\BBCQ\\newblockIn{\BemProceedingsofCOLING-ACL-2006},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2007}]{chan2007domain}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2007\BBCP.\newblock\BBOQDomainadaptationwithactivelearningforwordsensedisambiguation.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{Chapelle,Sch{\"o}lkopf,\BBA\Zien}{Chapelleet~al.}{2006}]{chapelle2006semi}Chapelle,O.,Sch{\"o}lkopf,B.,\BBA\Zien,A.\BBOP2006\BBCP.\newblock{\BemSemi-supervisedlearning},\lowercase{\BVOL}~2.\newblockMITpressCambridge.\bibitem[\protect\BCAY{Dai,Yang,Xue,\BBA\Yu}{Daiet~al.}{2007}]{Dai2007}Dai,W.,Yang,Q.,Xue,G.-R.,\BBA\Yu,Y.\BBOP2007\BBCP.\newblock\BBOQBoostingfortransferlearning.\BBCQ\\newblockIn{\BemProceedingsofICML-2007},\mbox{\BPGS\193--200}.\bibitem[\protect\BCAY{{Daum\'{e},H.~III}}{{Daum\'{e},H.~III}}{2007}]{daume0}{Daum\'{e},H.~III}\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\256--263}.\bibitem[\protect\BCAY{{Daum{\'e},H.~III}\BBA\Marcu}{{Daum{\'e},H.~III}\BBA\Marcu}{2006}]{daume2006domain}{Daum{\'e},H.~III}\BBACOMMA\\BBA\Marcu,D.\BBOP2006\BBCP.\newblock\BBOQDomainadaptationforstatisticalclassifiers.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf26}(1),\mbox{\BPGS\101--126}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{jiang2007instance}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceweightingfordomainadaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{Kamishima,Hamasaki,\BBA\Akaho}{Kamishimaet~al.}{2009}]{kamishima2009trbagg}Kamishima,T.,Hamasaki,M.,\BBA\Akaho,S.\BBOP2009\BBCP.\newblock\BBOQTrbagg:Asimpletransferlearningmethodanditsapplicationtopersonalizationincollaborativetagging.\BBCQ\\newblockIn{\BemProceedingsofthe9thIEEEInternationalConferenceonDataMining},\mbox{\BPGS\219--228}.\bibitem[\protect\BCAY{神嶌}{神嶌}{2010}]{kamishima}神嶌敏弘\BBOP2010\BBCP.\newblock転移学習.\\newblock\Jem{人工知能学会誌},{\Bbf25}(4),\mbox{\BPGS\572--580}.\bibitem[\protect\BCAY{古宮\JBA奥村}{古宮\JBA奥村}{2012}]{komiya-nlp2012}古宮嘉那子\JBA奥村学\BBOP2012\BBCP.\newblock語義曖昧性解消のための領域適応手法の決定木学習による自動選択.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\143--166}.\bibitem[\protect\BCAY{古宮\JBA小谷\JBA奥村}{古宮\Jetal}{2013}]{komiya-nenji2013}古宮嘉那子\JBA小谷善行\JBA奥村学\BBOP2013\BBCP.\newblock語義曖昧性解消の領域適応のための訓練事例集合の選択.\\newblock\Jem{{言語処理学会第19回年次大会発表論文集}},\mbox{\BPGS\C6--2}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2011}]{komiya3}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQ{AutomaticDeterminationofaDomainAdaptationMethodforWordSenseDisambiguationusingDecisionTreeLearning}.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP-2011},\mbox{\BPGS\1107--1115}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2012}]{komiya2}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2012\BBCP.\newblock\BBOQ{AutomaticDomainAdaptationforWordSenseDisambiguationBasedonComparisonofMultipleClassifiers}.\BBCQ\\newblockIn{\Bem{ProceedingsofPACLIC-2012}},\mbox{\BPGS\75--85}.\bibitem[\protect\BCAY{國井\JBA新納\JBA佐々木}{國井\Jetal}{2013}]{kunii}國井慎也\JBA新納浩幸\JBA佐々木稔\BBOP2013\BBCP.\newblockミドルソフトタグのトピック素性を利用した語義曖昧性解消.\\newblock\Jem{{言語処理学会第19回年次大会発表論文集}},\mbox{\BPGS\P3--9}.\bibitem[\protect\BCAY{Li,Roth,\BBA\Sporleder}{Liet~al.}{2010}]{li}Li,L.,Roth,B.,\BBA\Sporleder,C.\BBOP2010\BBCP.\newblock\BBOQ{TopicModelsforWordSenseDisambiguationandToken-basedIdiomDetection}.\BBCQ\\newblockIn{\BemProceedingsofACL-2010},\mbox{\BPGS\1138--1147}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2007}]{bccwj}Maekawa,K.\BBOP2007\BBCP.\newblock\BBOQ{DesignofaBalancedCorpusofContemporaryWrittenJapanese}.\BBCQ\\newblockIn{\Bem{ProceedingsoftheSymposiumonLarge-ScaleKnowledgeResources(LKR2007)}},\mbox{\BPGS\55--58}.\bibitem[\protect\BCAY{森}{森}{2012}]{mori}森信介\BBOP2012\BBCP.\newblock自然言語処理における分野適応.\\newblock\Jem{人工知能学会誌},{\Bbf27}(4),\mbox{\BPGS\365--372}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQ{SemEval-2010Task:JapaneseWSD}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponSemanticEvaluation}},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Rai,Saha,{Daum{\'e},H.~III},\BBA\Venkatasubramanian}{Raiet~al.}{2010}]{rai2010domain}Rai,P.,Saha,A.,{Daum{\'e},H.~III},\BBA\Venkatasubramanian,S.\BBOP2010\BBCP.\newblock\BBOQDomainadaptationmeetsactivelearning.\BBCQ\\newblockIn{\BemProceedingsoftheNAACLHLT2010WorkshoponActiveLearningforNaturalLanguageProcessing},\mbox{\BPGS\27--32}.\bibitem[\protect\BCAY{Rosenstein,Marx,Kaelbling,\BBA\Dietterich}{Rosensteinet~al.}{2005}]{rosenstein2005transfer}Rosenstein,M.~T.,Marx,Z.,Kaelbling,L.~P.,\BBA\Dietterich,T.~G.\BBOP2005\BBCP.\newblock\BBOQTotransferornottotransfer.\BBCQ\\newblockIn{\BemProceedingsoftheNIPS2005WorkshoponInductiveTransfer:10YearsLater},\lowercase{\BVOL}~2,\mbox{\BPG~7}.\bibitem[\protect\BCAY{Settles}{Settles}{2010}]{settles2010active}Settles,B.\BBOP2010\BBCP.\newblock\BBOQActiveLearningLiteratureSurvey.\BBCQ\\newblock\BTR,UniversityofWisconsin,Madison.\bibitem[\protect\BCAY{Shimodaira}{Shimodaira}{2000}]{shimodaira2000improving}Shimodaira,H.\BBOP2000\BBCP.\newblock\BBOQImprovingpredictiveinferenceundercovariateshiftbyweightingthelog-likelihoodfunction.\BBCQ\\newblock{\BemJournalofstatisticalplanningandinference},{\Bbf90}(2),\mbox{\BPGS\227--244}.\bibitem[\protect\BCAY{杉山}{杉山}{2006}]{sugiyama-2006-09-05}杉山将\BBOP2006\BBCP.\newblock共変量シフト下での教師付き学習.\\newblock\Jem{日本神経回路学会誌},{\Bbf13}(3),\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{齋木\JBA高村\JBA奥村}{齋木\Jetal}{2008}]{saiki-2008-03-27}齋木陽介\JBA高村大也\JBA奥村学\BBOP2008\BBCP.\newblock文の感情極性判定における事例重み付けによるドメイン適応.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2008}(33),\mbox{\BPGS\61--67}.\end{thebibliography}\vspace{1\Cvs}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年4月茨城大学工学部システム工学科助手.1997年10月同学科講師,2001年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.\pagebreak2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V14N03-13
|
\section{はじめに}
近年,人間の感情を理解可能な機械(感性コンピュータ)に応用するための感情認識技術の研究が言語処理・音声処理・画像処理などの分野において進められている.感情のような人間の持つあいまいな情報をコンピュータで処理することは現段階では難しく,人間の感情モデルをどのように情報処理のモデルとして扱うかが感情認識研究の課題である.我々の研究グループでは,人間とロボットが感情表現豊かなコミュニケーションをとるために必要な感情インタフェース(AffectiveInterface)の実現を目指し,人間の発話内容・発話音声・顔表情からの感情認識の研究を行っている\cite{Ren},\cite{ees},\cite{ecorpus},\cite{Ren2}.感情は,人間の行動や発話を決定付ける役割を持つ.また,表\ref{tb:hatsuwa}に示すように,発話には,感情を相手に伝えようとするもの(感情表出発話)と,そうでないもの(通常発話)とに分類することができる.表の例のように,感情表出発話の場合,聞き手は話者が感情を生起しているように感じ取ることができ,話者も感情を伝えようという気持ちがある.一方,通常発話でも,感情を生起するような出来事(感情生起事象)を述べる場合には話者に感情が生起していることもある.\begin{table}[b]\begin{center}\caption{感情表出発話と通常発話の例}\begin{tabular}{|p{10.5cm}|c|}\hline「あの人が私を殴る.」,「私は面白くて笑う.」,「あの子供は空腹だ.」&通常発話\\\hline「あいつが私を殴りやがった.」,「面白いなぁ.」,「可哀想に,お腹を空かせているようだ.」&感情表出発話\\\hline\end{tabular}\label{tb:hatsuwa}\end{center}\end{table}感情推定手法の従来研究として,目良らが提案する情緒計算手法がある\cite{mera},\cite{mera2}.この手法において,ユーザが単語に対して好感度(単語の示す対象が好きか嫌いかを示す値)を与えておき,情緒計算式に代入することにより快か不快かを決定する.さらに,得られた結果と文末様相などを感情生起ルールに当てはめることで,20種類の感情を判定する.この手法では,直接的な感情表現(感情表出発話)よりも,文が示す事象の望ましさに着目しており,感情表現を含まないような感情生起事象文に対応できるという利点がある.我々の提案する手法は,感情表出発話文と感情生起事象文の両方からの感情推定を目標とする.具体的には,感情表出発話文の文型パターンとの照合を行い,感情を表現する語・イディオムの辞書を用いて,文中の単語に含まれている感情の種類を与える.感情の強度は,修飾語や文末表現(モダリティ)などで変化させる.結果として,発話テキストから複数の感情とその強度が得られる.これにより,単語が表す感情と文単位で表現する感情の2つの面から感情推定が行える.本稿では,感情生起事象文型パターンと感情語に基づく感情推定手法を提案し,その評価用プロトタイプシステムを構築する.そして,システムを用いて会話文の感情推定実験を行い,人間による感情判断との比較に基づく評価と,その評価結果について考察を行う.
\section{従来研究}
現状の対話システムを感情豊かな自然な会話の流れに対応させるためには,感情状態による発話の制御が必要となる.人間の感情状態は,対話における相手との発話のやり取りで変化すると考えられる.感情表出についての研究は,これまでに,コミュニケーションロボット「ifbot」\cite{ifbot}や擬人化エージェント\cite{Mori}の研究でも行われてきた.しかし,これらの研究においては,ロボットや擬人化エージェントが感情を表出することで,ユーザの感情を誘発することを目的としており,ユーザの感情状態を言語から認識することはほとんど考慮されていなかった.ロボットや擬人化エージェントに応用するための,感情インターフェースにおける感情表出では,相手(ユーザ)の感情状態の認識により自己感情の状態を適切に変化させることが必要となる.なぜなら,例えば,ユーザが怒っているのに楽しそうに話すロボットは人間らしい振る舞いをしているとはいえないからである.相手感情を認識できてはじめて,人間らしく自然に自己感情を表出できるであろう.したがって,感情インターフェースの実現のためには,発話内容,声の抑揚,顔表情などからの話者の感情状態の認識技術が必要不可欠となる.感情を話者の言葉(発話内容)から認識するためには自然言語文から感情推定を行う必要がある.自然言語文テキストからの感情の自動抽出や自動判定の研究として以下のようなものがある.\begin{itemize}\item{A【感情語彙や感情表現の自動抽出】}\\文に含まれる感情を抽出する研究として,大量のテキストデータからの感情表現や評価表現の自動抽出を目的とする\cite{Nakayama}や,\cite{Kobayashi},\cite{Kobayashi2},\cite{Nasukawa},\cite{Turney},\cite{Kamps},\cite{Kudo},\cite{Fujimura},\cite{Yano}などがある.\cite{Nakayama}では,感情表現の基本となる語をシードとして準備しておき,それらの語との係り受け関係から頻出の感情表現パターンを抽出する.\item{B【語の好感度を用いた会話文からの感情推定】}\\会話文から話者の感情を推定する試みとして,語に好感度(プラスかマイナスの評価)を与え,文毎の事象の望ましさを推定し,話者の感情の推定を行う手法\cite{mera},\cite{mera2}が提案されている.\item{C【ニュース記事の感情判定】}\\単語と喜怒哀楽との対応関係を示す感情辞書の構築を行い,Webニュース記事から喜怒哀楽を自動判定する研究として\cite{Kumamoto}がある.この手法では,読み手側の立場での感情推定を行う.\item{D【人手により作成された学習データに基づく感情推定モデルの構築】}\\テキスト中に含まれる要素と生起感情との因果関係を付与することで,大量の学習データを作成する試みとして,\cite{tokuhisa}らの研究がある.この研究では,対話文コーパスに対し,人物の生起感情(感情クラス)以外に,感情生起要因や感情強度などのタグを付与した大規模コーパスを構築し,感情推定への応用を目標としている.\item{E【結合価パターンへの感情生起の付与】}\\\cite{TanakaTsutom}らは,文を構成する用言と格要素(名詞+助詞)の意味的用法を体系化した結合価パターン(文型パターン)に対し,生起する感情の種類と,生起要因,生起主体などを記述した辞書の構築を行っている.\end{itemize}手法A,Cでは,いずれも文中に出現する単語が示す感情的な意味に着目し,文の感情判定や単語の感情極性判定に利用している.\cite{Kobayashi},\cite{Fujimura},\cite{Nasukawa}などは,単語にpositive,negativeの二極指標を与えることによって評価表現の判定を行っているが,我々人間は,会話において発話内容から快か不快かの単純な感情のみならず,「喜怒哀楽」に代表されるような複雑な感情を理解することができる.したがって,より複雑な感情を推定するためには,語の感情的意味の範囲を快/不快からさらに広げて考慮すべきであると考える.手法Bでは,文末の様相などの情報から,最終的には複数の感情を推定することが可能である.また,手法Dや手法Eでは,文型や文脈を考慮することにより,多くの複雑な感情を推定することを目標としている.これらの研究から,会話文には語の感情的意味のみからでは判定できないような文が多く,そのような文に対しては,文全体,複数の文からなるテキストが示す感情的意味からの感情推定手法が必要であることが分かる.本研究では,感情を表す語や表現を収集・分類し,感情辞書を構築した.さらに,感情表現の文型パターンを収集し,パターンごとに感情生起のルールを作成することで,話者が生起している感情を推定する手法を提案する.
\section{提案手法}
文中の格要素や述語をfeatureとして機械学習によるポジティブまたはネガティブの推定を行う研究\cite{Takamura},\cite{Nasukawa},\cite{Kobayashi},\cite{Okanohara}は多数あるが,文型ごとに感情を対応付けし,ポジティブ・ネガティブ以外の感情(例えば「喜び」や「悲しみ」)を推定する研究は少ない.文型パターンへの感情生起に関する情報の付与は,\cite{TanakaTsutom}でも行われているが,情緒生起情報として感情の種類のほかに生起要因などの情報を付与している点や,格要素に当てはまる語に関わらず1つのパターンに対し1種類の感情生起を記述している点で,本研究とは異なる.また,本手法においては,文型が登録されていない文でも,感情を表す語や表現を登録しておくことによって,「感情表出発話」としての感情推定を行うことができる.本手法では,単体で感情を表現することが可能な単語を「感情語」と定義する.また,感情を表現するような慣用句(イディオム)を「感情イディオム」と定義する.感情語と感情イディオムの例を以下に示す.\begin{itemize}\item感情語(名詞)「楽しさ」,「恐ろしさ」,「憤慨」,「涙雨」\item感情語(形容詞)「あくどい」,「痛々しい」,「嬉しい」,「おぞましい」\item感情語(副詞)「嫌でも」,「思いの外」,「折悪しく」,「心置きなく」\item感情語(動詞)「喜ぶ」,「楽しむ」,「怒る」\item感情イディオム「へそを曲げる」,「耳にたこができる」,「心がはずむ」\end{itemize}\begin{figure}[b]\begin{center}\includegraphics[scale=0.26]{flowchart.eps}\caption{提案手法の流れ}\label{fig:flow}\end{center}\end{figure}本研究で提案する感情推定の大まかな流れを図\ref{fig:flow}に示す.まず,感情推定対象の発話テキスト(1発話ターン)が入力されると,前処理として文末などに含まれる不要な記号を削除し,文毎に分割を行う(Step1).この処理は,係り受け解析時に記号類が文末要素として判定されてしまうことを避けるために行う.また,このとき,記号「?」や「!」は疑問文判定や感嘆文判定に用いるため,モダリティの要素として抽出しておく.次に,前処理された文を係り受け解析する(Step2).係り受け解析には係り受け解析器の「南瓜」(CaboCha),\cite{cabocha2}を用いる.その後,文節ごとに格助詞の検出を行い,文の表層格の決定を行う(Step3).このとき,表層格要素はすべて述語(文末要素)に係るものとする.そして,抽出された格要素,修飾語,述語に感情語辞書を参照して感情属性を付与する(Step4).感情語辞書とは,感情語やイディオムを分類し,収録した辞書のことである.また,感情属性とは主に感情の種類を示す言葉であり,本手法では22種類の基本的な感情属性を定義している(表\ref{tb:ema}参照).辞書中には,感情語ごとに感情属性が1つ以上付与されている.次に,格要素や述語に係っている修飾語により,被修飾要素の感情属性の値の更新を行う(Step5).修飾語が感情属性を持たない場合は感情属性の値の更新は行わない.その後,感情生起事象文型パターンとの照合を行い(Step6),一致すれば,感情生起事象文とみなされ,感情生起ルールに基づいて感情属性値が与えられる.モダリティ要素が存在すれば,モダリティによる感情属性更新ルールに基づき,文全体の感情属性値を更新する(Step7).最後に,感情パラメータの計算を行い(Step8),感情推定結果として,複数の感情属性を候補として出力する.出力された各感情属性は強度を持ち(感情属性の値),大きいほどその感情が強く表れているとする.1つの発話に感情の種類が1つも付与されなかった場合は,感情推定結果として「無感情」が付与されたとする.以下,3.1節で「感情語・感情イディオム」について記述する.また,3.2節で「意味属性イメージ値」,3.3節で「感情生起事象文型パターン」について記述し,3.4節で「感情パラメータ」,3.5節で「修飾語とモダリティによる感情属性値の更新ルール」について記述する.また,3.6節では,全体の処理の流れを具体例を用いて説明する.\subsection{感情語・感情イディオム}本研究では,単体で感情を表すような単語(感情語)とイディオム(感情イディオム)をまとめた辞書を感情辞書として構築した.この辞書を参照し,文中に含まれる感情語と感情イディオムに対して感情属性値(各感情属性の有無)を付与する.感情語とその感情属性値の例を表\ref{tb:eword_ex}に示す.\begin{table}[b]\begin{center}\caption{感情語の感情属性値}\begin{tabular}{|c|c|}\hline感情語&感情属性値\\\hline\hline楽しさ&楽しみ(1.0)\\\hline恐ろしい&恐れ(1.0)\\\hline憤慨&怒り(1.0)\\\hline悲観する&悲しみ(1.0),不安(1.0)\\\hline\end{tabular}\label{tb:eword_ex}\end{center}\end{table}\begin{table}[p]\begin{center}\caption{22種類の感情属性の定義}\begin{tabular}{|c|p{12cm}|}\hline感情属性名&\multicolumn{1}{|c|}{定義}\\\hline\hline喜び&いいことがあって嬉しく思い,心がはずむような思いをすること.\\\hline期待&こうなりたい,こうなってほしい等,今よりも好ましくなるだろうその実現を願うこと.\\\hline怒り&腹がたつこと.我慢できない不快な気持ちを覚えたり,言動に表したりすること.\\\hline嫌悪&ある人や物事に対して不快な気持ちをもつこと.また,その気持ちを行動や態度に表す.\\\hline悲しみ&心が痛むこと.つらい気持ち.心がしめつけられる気持ち.\\\hline驚き&突然予測もしなかったようなことにであったりして,一瞬心臓が止まるような気持ちになる.また,今まで知らなかった(気づかなかった)ことが事実だと知らされ,普段の落ち着きを失ったり自分がうかつであることを思い知らされたりする.\\\hline恐れ&それに近づくと無事に済みそうもないと思われて避けたいと思う気持ち.また,何か嫌いなことが起こるのではないかという心配する.\\\hline受容&社会や個人が受け入れて自分のものとして取り込むこと.心が広く,人をよく受け入れ,過ちなども許すようなことに近い意味.\\\hline恥&自分の欠点や失敗などを恥ずかしく思うこと.\\\hline誇り&自分のこと,または自分の立場に自信をもち,名誉に感じること.\\\hline感謝&誰か(何か)に対してありがたいと思うこと.\\\hline平静&何も感情が起こっていない状態.\\\hline賞賛&相手のことを褒め称える気持ち.\\\hline軽蔑&相手のことをを劣っているものとして見下す気持ち.\\\hline愛&対象をいつくしみ,大切にしたいと思う気持ち.\\\hline楽しみ&現在の状況を楽しいと思い,心が浮かれている状態.\\\hline興奮&ある物事に対して心を動かされ,気が昂ぶっている状態.\\\hline後悔&過去に起こった出来事に対し,悔しがる気持ち.\\\hline安心&不安や心配が無く,心が安らいでいる状態.\\\hline不安&悪い結果になるのではないかと思って心が落ち着かない状態.\\\hline尊敬&相手を自分より優れていると思い,尊び,敬う気持ち.\\\hline好き&誰か(何か)を好きだと思う気持ち.\\\hline\end{tabular}\label{tb:ema}\end{center}\vspace{\baselineskip}\begin{center}\caption{基本13感情}\begin{tabular}{|p{1.3cm}|p{1.3cm}|p{1.3cm}|p{1.3cm}|p{1.3cm}|}\hline怒り&期待&不安&嫌悪&楽しみ\\\hline恐れ&喜び&平静&受容&−\\\hline後悔&尊敬&悲しみ&驚き&−\\\hline\end{tabular}\label{tb:13kind}\end{center}\end{table}感情語と感情イディオムに対して付与する感情属性として定義した22種類の感情属性とその定義を,表\ref{tb:ema}に示す.ここで,この22種類を初期感情属性として定義した過程について述べる.まず,感情の種類を定義するにあたって,Plutchik\cite{Plutchik}の定義した基本8感情に,「尊敬」「楽しみ」「不安」「後悔」の4感情と「平静」を加えた13感情を基本13感情として定義した(表\ref{tb:13kind}参照).次に,日本語語彙大系の一般名詞属性体系中の感情に関する語彙を調べ,13感情に当てはまらず,新たな感情として定義可能であるものを分類し,抽出していったところ,全部で表\ref{tb:ema}に示す22種類となった.また,感情語や感情イディオムの中には,この22種類の感情のどれにも当てはまらなかったり,他に適切な感情の種類が考えられる語(例.語:「やけくそ」→感情:「自暴自棄」)もあり,これらを強制的に22種類中のどれかに分類することは好ましくないと考えたため,付与する際はこの22種類以外の感情属性も許容し,新たな感情属性定義の作成を行うこととした.新たに追加された感情属性の一部を表\ref{tb:newema}に示す.\begin{table}[b]\begin{center}\caption{新たに追加された感情属性の例}\begin{tabular}{|p{1.4cm}|p{1.4cm}|p{1.4cm}|p{1.4cm}|p{1.4cm}|p{1.4cm}|}\hline憤り&非難&当惑&可笑しさ&失望&畏怖\\\hline憎しみ&悔しさ&呆れ&嫉妬&罪悪感&自暴自棄\\\hline羨望&恨み&興味&淋しさ&倦怠感&ためらい\\\hline不平不満&焦燥感&憂鬱&自信&無力感&不審\\\hline憧れ&—&—&—&—&—\\\hline\end{tabular}\label{tb:newema}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{感情属性の分類}\begin{tabular}{|c|p{11.5cm}|}\hline正感情属性&期待,感謝,賞賛,喜び,好き,愛,楽しみ,誇り,受容,安心,尊敬,可笑しさ,自信,憧れ\\\hline負感情属性&怒り,不安,軽蔑,嫌悪,恐れ,後悔,悲しみ,恥,憤り,非難,当惑,失望,憎しみ,悔しさ,呆れ,嫉妬,罪悪感,恨み,淋しさ,倦怠感,ためらい,不平不満,焦燥感,憂鬱,無力感,不審,自暴自棄\\\hline\end{tabular}\label{tb:emotion_pn}\end{center}\end{table}これらの感情属性は,ポジティブまたはネガティブに分類できるので,表\ref{tb:emotion_pn}に示すような定義を行った.感情辞書の構築作業は,抽出対象である日本語語彙大系\cite{jlexicon},感情表現辞典\cite{Nakamura},分類語彙表\cite{bunrui}に含まれる単語(副詞,形容詞,名詞,感動詞,動詞など)と,イディオムから,「単独で感情を表現できる語,イディオムならば抽出」を抽出基準として,作業者1人により抽出した.さらに,抽出された語とイディオムに対して感情属性(感情の種類)を付与する作業を作業者1人が人手により行った.例えば,「怒り」を単独で表現可能な語として「憤慨」や「憤激」,イディオムでは「腹を立てる」のような表現を抽出する.各単語,イディオムに付与する感情属性については作業者自身の判断に任せた.具体的には,感情語(名詞,動詞)と感情イディオムは,主に日本語語彙大系,感情表現辞典,分類語彙表などの辞書からの抽出を行った.日本語語彙大系から抽出した名詞は,一般名詞体系の「精神」以下に含まれる単独で感情を表現できる語である.また,感情表現辞典からは,辞典中で定義されている10種類+複合感情に分類されている全ての単語,イディオム(感情表現)を抽出した.分類語彙表からは,【2.3000心】〜【2.3042欲望・期待・失望】に含まれる語から抽出した.さらに,形容詞と副詞における感情語は,「現代形容詞用法辞典」\cite{adjective}と「現代副詞用法辞典」\cite{adverb}からの抽出を行った.抽出基準としては,辞典中に感情的な暗示が記されている単語を抽出した.具体的には,辞典中の解説文と用例を参照しながら,単語1つ1つに対し暗示されている感情などを初期定義の22種類の感情に当てはまるかどうかを判断しながら抽出を行った.また,22種類の感情には当てはまらないが,その単語が感情を表す言葉であると判定できるものは抽出し,後に新たに感情属性の定義を行うこととした.品詞ごとの感情語と感情イディオムの総数を表\ref{tb:eword}に示す.\begin{table}[t]\begin{center}\caption{感情語・感情イディオムの総数}\begin{tabular}{|p{2cm}|p{2cm}|p{2cm}|p{2cm}|p{2cm}|p{2cm}|}\hline副詞&形容詞&名詞&動詞&感動詞&イディオム\\\hline4890&1834&1438&937&81&582\\\hline\end{tabular}\label{tb:eword}\end{center}\end{table}また,1つの語,またはイディオムに複数の感情属性を付与しても良いこととした.さらに,追加した感情属性については,全ての単語への感情属性付与作業が終了してから見直しを行い,単語への感情属性の追加・修正を行った.\subsection{意味属性イメージ値}\begin{table}[b]\begin{center}\caption{意味属性イメージ値}\begin{tabular}{|r||l|r|}\hline意味属性番号&意味属性名&イメージ値\\\hline\hline120&のけ者・じゃま者&-1\\\hline196&弱虫&-1\\\hline199&働き者&1\\\hline200&怠け者&-1\\\hline669&反吐〔へど〕&-1\\\hline1141&善&1\\\hline1142&悪&-1\\\hline\end{tabular}\label{tb:image_sem}\end{center}\end{table}日本語語彙大系における一般名詞に関して,意味属性に対するイメージ値として,正か負の値を付与した.正,負のどちらのイメージも持たないような意味属性にはイメージ値として0を付与した.意味属性のイメージ値の例を表\ref{tb:image_sem}に示す.名詞は属している意味属性のイメージ値を持つことになる.なお,1つの名詞が複数の意味属性に属する場合,イメージ値は0と判定する.一般名詞の意味属性の総数は2715あり,そのうち162種類に正のイメージ値,273種類に負のイメージ値を付与した.この方法によって感情辞書に含まれていない一般名詞に対してのイメージ値の付与を行う.なお,感情辞書に含まれる一般名詞は,付与されている感情属性の種類(正感情属性または負感情属性)によってイメージ値が決まる.イメージ値は,感情語や感情イディオムが含まれない場合(含まれている語から感情属性値が得られない場合)に,モダリティとの組み合わせにより感情の種類を判定するために用いる.具体的には,負のイメージ値を持つ語と不確定(未確認)の様相を持つモダリティが共起している場合,「不安」という感情を生起させ,逆に正のイメージ値を持つ語に不確定の様相を持つモダリティが共起する場合には「期待」という感情を生起させるという処理を行う.表\ref{tb:imvrule}に,意味属性イメージ値とモダリティの共起ルールを示す.例えば,文末に「悪者でしょう」という表現が含まれる場合,意味属性「悪者」と不確定様相と判定される「〜でしょう」とが共起していると判定し,(負の意味属性に属する語)+(不確定様相)となり,「不安」を生起する.\begin{table}[t]\begin{center}\caption{意味属性イメージ値とモダリティの共起ルール}\begin{tabular}{|c|c|c|}\hline意味属性イメージ値&モダリティ&生起感情\\\hline\hline正&不確定(未確認)様相&期待=0.5\\\hline負&不確定(未確認)様相&不安=0.5\\\hline\end{tabular}\label{tb:imvrule}\end{center}\end{table}\subsection{感情生起事象文型パターン}本研究では,感情を生起すると考えられる感情動作や感情状態を記述した文を,感情生起事象文と定義する.感情生起事象文に当てはまる文のパターンに,感情生起主体がどういった感情を生起しているかを付与したものを感情生起事象文型パターン辞書として構築する.\begin{table}[t]\begin{center}\caption{感情生起事象文型パターンの例}\footnotesize\renewcommand{\baselinestretch}{}\selectfont\begin{tabular}{|l|l|p{3cm}|c|}\hline\multicolumn{2}{|c|}{文型パターン}&\multicolumn{1}{|c|}{生起感情($E_s$)}&感情生起主体($N_s$)\\\hline\hlineN1[3]-に|N2[1000]-を|遣る気-が&ある&期待&N1\\\hlineN1[4]-が&慌てる&驚き&N1\\\hlineN1[1253]-が|N2[41,238]-に&込み上げる&N1の感情属性&N2\\\hlineN1[4]-が&いじける&悲しみ\&嫌悪&N1\\\hlineN1[4]-は|N2[2415,*]-に/で|頭-が&痛い&不安\&嫌悪&N1\\\hlineN1[4]-が|N2[*]-で/に&泣く&if(N2が負感情属性)$E_s=悲しみ$&N1\\&&if(N2が正感情属性)$E_s=喜び$&\\\hlineN1[3]-が|N2[1000]-を|胸-に&抱く&期待&N1\\\hlineN1[4]-が|N2[1000]-に/で|胸-を&痛める&悲しみ&N1\\\hlineN1[3]-が|N2[3]-に|迷惑-を&掛ける&嫌悪&N2\\\hlineN1[4]-が|N2[1000]-で|落ち着き-を&失う&驚き&N1\\\hlineN1[*]-が|N2[4]-に&嬉しい&喜び&N1\\\hlineN1[410,11,235]-が|N2[4]-の|不意-を&襲う&驚き&N2\\\hlineN1[4]-は|気-が&重い&不安&N1\\\hlineN1[*]-が|N2[4]-に&思いがけない&驚き&N1\\\hlineN1[3]-が|N2[*]-に/より|頭-を&抱える&不安&N1\\\hlineN1[4]-が|N2[*]-を|鼻-に&掛ける&誇り&N1\\\hlineN1[4]-は|N2[1000]-が&悲しい&悲しみ&N1\\\hlineN1[4]-が|N2[4]-の|鼻-を&折る&恥&N2\\\hlineN1[3]-は|N2[1000]-が&悔しい&後悔&N1\\\hlineN1[*]-が|N2[3,535]-に&怖い&恐れ&N1\\\hlineN1[43,885,341]-が&寂しい&悲しみ&N1\\\hlineN1[4]-が|N2[*]-に&痺れる&興奮&N1\\\hlineN1[3]-が|N2[*]-を&自慢|する&誇り&N1\\\hline\end{tabular}\label{tb:patterns}\end{center}\end{table}具体的には,感情生起事象文型として,日本語語彙大系\cite{jlexicon}に収録されている用言意味属性から「感情動作」と「感情状態」に属する用言パターン1615種類(感情状態275,感情動作1340)を基本感情生起事象文型パターンとして抽出し,感情の種類と感情生起条件を付与した.(各文型パターンには文中の格スロットに入る名詞の意味属性制約が設定されている.)感情生起条件には,感情生起の主体を定義している.例えば,「N1-がN2-に怯える」という感情生起事象ならば,事象の主体であるN1が「恐れ」という感情を生起していることを定義する.また,格スロットに入る単語によって異なる感情が生起するような場合には,単語の意味制約(好感度やイメージ値,感情属性値など)による条件も付加した.表\ref{tb:patterns}に,感情生起事象文型パターンと,生起感情,その生起主体の例を示す.文中において感情生起主体が省略されている場合などは,話者を感情生起主体とみなして感情推定を行う.しかし,話者以外の人物が感情生起主体の場合には,他者の感情生起に対する話者の感情生起を推定する必要がある.この場合,話者と他者との関係(社会的地位や親密度)などの違いによって生起する感情が異なってくる.そこで,本手法では,各感情生起事象文型パターン毎に感情生起主体の感情生起条件のみを記述し,入力文中の感情生起主体が話者であると判定したときのみ,感情生起事象として感情生起条件を適用し,話者の感情推定を行う.入力文が感情生起事象文型パターンに当てはまるかどうかの判定条件として,述語の一致を用いる.述語が入力文のものと一致する文型パターンを,その文の感情生起事象として採用する.さらに,述語が一致する文型パターンが複数存在するとき,文中に含まれる単語の意味属性類似度を選択の基準とする.具体的には,文における単語意味属性類似度の和の平均値が最大値をとる文型パターンを採用することにする.単語意味属性類似度は各単語の,日本語語彙大系で定義されたシソーラスにおける意味属性により求めることができる.単語意味属性の類似度を求める式を式\ref{eq:sim}に示す.\begin{equation}\label{eq:sim}単語意味属性類似度\\sim(W_i,N_i)=\frac{(共通の親のシソーラスの根からの深さ)*2}{W_iとN_iのシソーラスの根からの深さの和}\end{equation}$W_i$は文中の格要素の単語の意味属性を表しており,$N_i$は,文型パターン中の格スロットに付与されている意味属性を示す.式\ref{eq:conc}に,文における単語意味属性類似度の平均値($AVG_s$)を求める式を示す.式\ref{eq:conc}中の$n$は,文型パターン中の格スロット数を表す.式\ref{eq:conc}中のそれぞれの格要素ごとの類似度$sim(W_i,N_i)$は,\cite{Kawahara}らの格フレーム類似度の算出で用いられている方法と同様に,ある単語が複数の意味属性に属する場合には,単語意味属性類似度が最大の意味属性を採用することにする.\begin{equation}\label{eq:conc}AVG_s=\frac{\sum^{n}_{i=0}sim(W_i,N_i)}{n}\end{equation}また,格スロットに具体的な単語が設定されている場合(「N1-が大志-を抱く」の「大志」など),その単語に一致すれば類似度を1,一致しない場合には類似度を0とする.以下,述語が一致する場合の文型パターンの照合処理から感情生起条件適用までの流れについて述べる.\begin{enumerate}\item入力文中の,モダリティ要素などを取り除いた述語が一致する文型パターンを検索し,該当するものが複数ある場合は,式\ref{eq:conc}により値$AVG_s$を求め,最大値をとる文型パターンを採用する.\item採用した文型パターンに付与されている感情生起条件を適用する.各格要素の人物判定には話者ごとに自身または他者の呼び名を記述した人物辞書が必要であるが,文中で代名詞を用いている場合には,意味属性が「対称」なら対話相手,「自称」なら話者自身,その他ならば他の人物(あるいは物)であると判定する.\item感情生起条件に一致すれば,その感情が感情生起主体に生起していると推定される.以下,感情生起主体が話者の場合は(4),それ以外の場合は(5)のように処理される.\item感情生起主体が話者であれば,採用された文型パターンに付与されている感情生起条件に基づき,話者の感情を推定する.このとき,推定された話者の感情は,3.4節で述べる感情パラメータ計算において述語の感情属性値ベクトルとして計算される.\item感情生起主体が話者以外であれば話者以外の感情生起とみなし,これを保持し,3.5節で述べるモダリティの感情属性値更新ルール(動作主体が話者以外)に当てはまる場合に,話者の感情が推定される.また,(4)と同様,推定された感情は述語の感情属性値ベクトルとして計算される.\end{enumerate}述語が一致せず,感情生起事象として判定されない場合には感情表出発話文とみなし,次節で述べる感情パラメータを計算することによって話者の感情推定が行われる.\\\subsection{感情パラメータ}感情表出発話文には感情を表す単語やイディオムが含まれていることが多い.そこで,本手法では,文に含まれる感情語や感情イディオムからその文における話者の感情表出の程度を計算する.まず,文に含まれる各感情の強度を示す値として感情属性値を定義する.また,文から計算される感情の値として感情パラメータを定義する.感情パラメータとは,文中の格要素に付与された感情属性値を感情の種類ごとに合成したものを指す.また,感情パラメータは,$(感情属性の種類数)*(文中の格要素数+1)$の感情属性値ベクトルで表現する.感情辞書で照合した語やイディオムに,複数の感情属性が付与されている場合には,その全ての種類が感情パラメータ計算式に代入されることになる.各感情パラメータは,0か正の値をとる.\begin{equation}\label{eq:ea}EA=\sum^{n-1}_{i=0}ea_{i}*w_i+ea_p*w_p\end{equation}式\ref{eq:ea}は,文の感情パラメータ計算式であり,式\ref{eq:ea}における$ea_{i}$は,感情属性値ベクトルを表し,$w_i$は,各格要素ごとの重みを表す.また,$ea_p$は述語の感情属性値ベクトルで,$w_p$は述語への重みを表す.1発話中の感情パラメータは1文ごとに計算されるが,感情は記憶の一種であり,発話中において記憶と同じように忘却されていくであろうという考えに基づき,エビングハウスの提案した忘却曲線\cite{eb}の近似式を用いることにより,同一発話テキスト中の前の文から計算されたパラメータとの合成を行う.感情パラメータ合成の計算式を式\ref{eq:ep}に示す.式中の$EA_n$は,観測中の文から得られた最新の感情属性値ベクトルを表し,$EA_t$は,それまでに計算された感情属性値ベクトルを表す.\begin{equation}\label{eq:ep}EP=EA_n+\sum^{n-1}_{t=0}\frac{1}{(n-t+\frac{1}{n})^{(n-1)}}*EA_t\end{equation}また,それぞれの感情パラメータを計算する際,感情属性値の値に掛ける重みは,格要素の種類ごとに異なる.主体・客体に好感度またはイメージ値がある場合にはそれを考慮して重みが決定される.心理学の分野では,人間はプラスイメージの対象を優先して評価する場合が多いことがS-V-Oポジティビティ\cite{Inomata}として知られている.そこで,正のイメージ値,または感情属性を持つ要素ほど重みを大きくする,格要素ごとの重みを決定するルールを定義する.表\ref{tb:svoBias}に示すように,主体への重みを$w_s$,客体への重みを$w_o$とし,その値を定義した.また,述語への重み$w_p$は1.5とする.本手法では,表層格決定処理時に深層格決定は行わないが,主体,客体は,表層格の種類(ガ/ハ格,ヲ格)と当てはまる語の意味属性(人物,事物)から判定を行う.\begin{table}[t]\begin{center}\caption{格要素重み決定ルールの一部}\begin{tabular}{|r|c|c|}\hline\multicolumn{1}{|c|}{格要素の種類}&格要素の好感度(イメージ値)&重み\\\hline\hlineガ/ハ格(人物)[主体(Subject)]&正&$w_s=1.4$\\\hlineガ/ハ格(人物)[主体(Subject)]&0&$w_s=1.0$\\\hlineガ/ハ格(人物)[主体(Subject)]&負&$w_s=0.5$\\\hlineヲ格(人物/事物)[客体(Object)]&正&$w_o=1.2$\\\hlineヲ格(人物/事物)[客体(Object)]&0&$w_o=0.7$\\\hlineヲ格(人物/事物)[客体(Object)]&負&$w_o=0.3$\\\hline\multicolumn{1}{|c|}{その他の格}&正&$w_{other}=0.7$\\\hline\multicolumn{1}{|c|}{その他の格}&0&$w_{other}=0.5$\\\hline\multicolumn{1}{|c|}{その他の格}&負&$w_{other}=0.4$\\\hline\end{tabular}\label{tb:svoBias}\end{center}\end{table}感情パラメータ計算により,述語が感情生起事象文型パターンに当てはまらない場合にも,感情語と感情イディオムを含んでいる文(感情表出発話文)からの感情推定を行うことが可能となる.また,述語が感情生起事象文型パターンに当てはまり,話者の感情が推定されている場合には,その推定感情の種類と値を述語の感情属性値ベクトルとした上で,感情パラメータを計算する.(この場合,感情属性付与処理において述語単体に付与された感情属性は考慮しない.)\subsection{修飾語とモダリティによる感情属性値の更新ルール}文中の格要素や述語を修飾する語が存在する場合,それらが被修飾要素の感情属性値の増減や変化に関わることをルールとして定義した(表\ref{tb:shushoku}).修飾語,または修飾句のタイプによって,被修飾要素の感情属性への変化の与え方が異なる.本手法では,「直接修飾型」と「程度変化型」の修飾語を定義する.修飾語が直接修飾型である場合,被修飾要素の感情属性の有無に関わらず,修飾語の感情属性に書き換えられることとする.これは,直接修飾型に分類されるような形容詞や副詞などは,感情に大きく影響を与えるものと考えたためである.例えば,「美しい」などの直接修飾型の形容詞によって「花子」という語が修飾されるとすると,被修飾要素「花子」に付与されている感情属性は打ち消され,修飾要素「美しい」の持つ感情属性「賞賛」に書き換えられることになる.一方,被修飾要素の感情属性値の大きさに変化を与えるのが程度変化型の修飾語である.表\ref{tb:shushoku}に示すように,程度の違いによって「強め」,「弱め」に分類した.このタイプに分類される修飾語は主に副詞である.\begin{table}[b]\begin{center}\caption{修飾語による感情属性値更新ルール}\begin{tabular}{|l|l|l|}\hline\multicolumn{2}{|c|}{修飾語の種類}&\multicolumn{1}{|c|}{更新処理}\\\hline\hline直接修飾型修飾語&\multicolumn{1}{|c|}{修飾語の例}&\multicolumn{1}{|c|}{被修飾語の感情属性値を書き換え}\\\cline{2-3}&悲しい(感情属性値=“悲しみ”)&感情属性値を“悲しみ”に書き換え\\\cline{2-3}&楽しい(感情属性値=“喜び”)&感情属性値を“喜び”に書き換え\\\cline{2-3}&美しい(感情属性値=“賞賛”)&感情属性値を“賞賛”に書き換え\\\hline\hline程度変化型修飾語&\multicolumn{1}{|c|}{修飾語の例}&\multicolumn{1}{|c|}{被修飾語の感情属性値の強度を増減}\\\cline{2-3}&とても,かなり,すごく,...(強め)&被修飾語の感情属性値に1.2を掛ける\\\cline{2-3}&少し,ちょっと,あまり,...(弱め)&被修飾語の感情属性値に0.9を掛ける\\\hline\end{tabular}\label{tb:shushoku}\end{center}\end{table}これらの修飾語のタイプの判定のために,感情辞書とは別に,形容詞と副詞を上記の2タイプに分類した修飾語辞書を準備した.この辞書には程度の値なども記述している.また,修飾語には,上で述べた2つのタイプのものと,文のモダリティの変化に影響するものがある.例として,「おそらく,雨が降るだろう」のように,「おそらく」という副詞には「未来」や「予測」という暗示があり,文末の「だろう」という予測の意味を持つ表現を伴うことが多い.よって,副詞には文末の様相と同様のはたらきを持つものも存在するので,修飾語辞書にモダリティとしての属性(モダリティの種類)の登録も行っておく.また,モダリティを文全体の感情属性値に影響させるルールを定義した.基本ルールとして,不確定様相や過去様相なら,感情属性値を減少させる.モダリティの種類ごとに不確定の度合い(やや弱い不確定=0.2,不確定=0.4,やや強い不確定=0.6)を不確定の程度値として定義する.具体的には,文の感情属性値ベクトルに$(1.0-不確定の程度値)$を掛ける処理を行う.この1.0という値は基準値であり,確定している事象であれば不確定の程度値が0.0ということであるから,文の感情属性値ベクトルは減少しないことになる.一方,不確定の程度が高くなるほど文の感情属性値ベクトルが減少する.\begin{table}[b]\begin{center}\caption{モダリティによる感情属性値更新ルール}\begin{tabular}{|c|p{4cm}|p{7cm}|l|}\hline種類&文末例&\multicolumn{2}{|c|}{条件と更新処理}\\\hline\hline許可&V-てよい,V-てかまわない&$Em(V)\geq0\and\Sbj=“話者”$&期待(+0.5)\\\cline{3-4}&&$Em(V)\geq0\and\Sbj=“他者”$&受容(+0.5)\\\hline禁止&V-てはいけない,V-な&$Em(V)\geq0\and\Sbj=“話者”$&不安(+0.5)\\\cline{3-4}&&$Em(V)<0\and\Sbj=“他者”\and\Asp=“乱暴”$&嫌悪(+0.5)\\\hline依頼&V-てくれ&$Em(V)\geq0\and\Sbj=“他者”$&期待(+0.5)\\\hline希望&V-たい,V-てほしい,V-てもらいたい&$Em(V)\geq0$&期待(+0.5)\\\hline恩恵&V-てもらう,V-てくれる&$Em(V)\geq0\and\Sbj=“他者”$&感謝(+0.5)\\\hline恩恵&V-てあげる&$Em(V)\geq0\and\Sbj=“話者”$&受容(+0.5)\\\hline\end{tabular}\label{tb:modality}\end{center}\end{table}不確定様相とは,述べられている事象がまだ未実施である場合や,未確認であるような場合に用いる表現を指す.一方,過去様相(確認様相)は既に過去に確認済みの事象の場合に用いる表現を指す.他に,モダリティの種類(「許可」,「禁止」,「依頼」など)ごとに,表\ref{tb:modality}に示すような感情属性値更新ルールを定義した.表\ref{tb:modality}中の$Sbj$は,動作主体を表す.本研究では,モダリティの持つ属性として「確認/未確認(Asc)」,「時制(Time)」,「態度(Asp)」を定義する.表\ref{tb:modality}中の$Em$は,述語の感情属性が正感情属性か負感情属性かを判定する関数である.式\ref{eq:emfunc}に関数の定義を示す.$sign$は符号関数を表す.また,$ea_i$は,述語動詞(V)の感情属性値を表し,\pagebreak関数$em$は感情属性ごとの正負を判定するものである.\begin{equation}\label{eq:emfunc}Em(V)=sign\left(\frac{\sum^{n}_{i=0}em(ea_i)}{n}\right)\end{equation}\subsection{感情推定の例}ここで,(a)「私が優しい花子の言葉に感謝するだろう.」という文(発話テキスト)から感情推定する例を各ステップごとに示しながら処理の流れを説明する.\begin{figure}[b]\begin{center}\includegraphics[scale=0.23]{Step5-fig.eps}\caption{Step5修飾語による感情属性更新処理}\label{fig:step5}\end{center}\end{figure}\newcommand{\StepLabel}[1]{}\StepLabel{〈Step1〉}まず,入力された発話テキスト(a)を「.」や「!」などの句点に基づき,文毎に分割を行う.(a)は1文のみで構成される発話テキストなので,分割処理は行われない.また,(a)には「?」(疑問符)や「!」(感嘆符)のような記号や,その他の記号は含まれないと判定される.\StepLabel{〈Step2〉}次に,南瓜による係り受け解析を行う.具体的には,〈Step1〉で分割された一文ごとに解析を行う.\StepLabel{〈Step3〉}係り受け解析された結果に基づいて,表層格決定処理が行われる.(a)では,ガ格は「私」,ニ格は「言葉」,述語は「感謝する」と決定される.また,ニ格に係る修飾句として「優しい花子の」が抽出される.ここで,述語に付属している文末表現は,モダリティ要素として抽出しておく.\StepLabel{〈Step4〉}次は,文中の語と感情辞書との照合を行う.具体的には,格要素ごとに感情属性が含まれるかどうかを判定する.ここで,図\ref{fig:step5}に示すように,感情語として登録されている「優しい」に感情属性「賞賛」が付与される.係り受け関係から,ニ格への修飾句「優しい花子」となり,これが感情属性「賞賛」を持つことになる.また,修飾型は「優しい」のものをそのまま継承して「直接修飾型」となる.\StepLabel{〈Step5〉}ここで,修飾語による感情属性値の更新ルールが適用される.(a)の場合,修飾句「優しい花子」が「言葉」に係り,ニ格の感情属性値は上書きされ,「賞賛=1.0」となる.\StepLabel{〈Step6〉}次に,文型パターンの照合処理が行われるが,(a)の場合,文型パターン「N1-がN2-に感謝する」に一致し,生起主体=「私」であり,(a)から推定される感情は話者の生起感情となる.そして,文型パターンに付与されているルールに基づき,述語感情属性として「感謝=1.0」が付与される.\StepLabel{〈Step7〉}文中にモダリティがあるかどうかの判定が行われる.(a)に含まれる推定のモダリティ「だろう」により,文感情属性値の更新が行われる.この「だろう」の不確定の度合いが「やや弱い不確定」であれば,不確定値は0.2となり,文感情属性値ベクトルに$(1-0.2)$を掛け合わせることで,結果として,{$賞賛=0.8,感謝=0.8$}という感情属性値が得られる.\StepLabel{〈Step8〉}最後に感情パラメータの計算が行われるが,発話テキスト中の文が1文のみなので,式\ref{eq:ea}により,\\$EP=EA=\{感謝=0.8*1.5,賞賛=0.8*0.7\}$\\という計算が行われ,話者の生起感情として,{感謝=1.2,賞賛=0.56}という結果が出力される.
\section{評価実験1}
\begin{figure}[b]\begin{center}\includegraphics[scale=0.57]{14-3ia13f3.eps}\caption{実験システムの構成}\label{fig:structure}\end{center}\end{figure}本手法の有効性を評価するために,実験用の感情推定システムを構築し,連続する会話文の感情推定実験を行った.プロトタイプシステムの構成を図\ref{fig:structure}に示す.システムは,大きく分けて文解析モジュール,感情推定モジュール,感情文蓄積モジュール,推定結果比較モジュールの4つの部分からなる.入力された発話テキストデータは文解析モジュールでCaboCha(CaboCha)により係り受け解析され,表層格の決定が行われる.次に,感情推定モジュールで感情推定処理が行われ,感情文蓄積モジュールにおいて入力発話テキストは感情推定結果と共にデータベースに蓄積される.その後,推定結果比較モジュールにおいて人手により付与された正解感情(人手による正解感情)との比較が行われ,各発話テキストごとの評価結果が出力される.\subsection{評価方法}評価は,人が判断した話者の感情と,システムが推定した結果との比較により行った.正解として,シナリオ会話文に正解とする感情を人手により付与したものを用いた.今回,人手による解を作成するにあたり,システム構築と感情辞書構築に関与していない5人の学生に対して,1シナリオずつを分担して行った.人手による解の作成者は,文脈を理解しながら割り当てられたシナリオを読み,シナリオ中の全発話に対して1発話ごとに選択候補(感情語,感情イディオムに付与された割合の高かった感情属性の上位45種類)の中から話者の生起している感情として考えられる数種類を選択する.付与の際,選択候補中に適するものが無いと判断した場合に,新たに感情の種類を自由入力できるようにした.また,感情が生起していないと判断したものについては「平静」を付与するように指示した.作成者が自由入力し,追加された感情で,感情辞書中に含まれていなかったものとして,以下に示すようなものがあった.\begin{itemize}\item嫌味,不思議,苛立ち,納得,同意,同情,否定,からかい,心配,満足,あわれみ,切望,緊張\end{itemize}\subsection{対象データ}対象とする文は,Webサイトから収集した連続する会話文から構成される5種類の演劇用台本から抽出したシナリオ文章(合計1774発話)である.各シナリオについてのデータを表\ref{tb:scenario-info}に示す.シナリオ会話文は,あらかじめ各話者の発話(ターン単位)ごとに分割しておいた.これらの発話の単位を1発話テキストと定義した.\begin{table}[b]\begin{center}\caption{シナリオに関するデータ}\begin{tabular}{|c|c|c|}\hlineシナリオ番号&発話テキスト数&登場人物数\\\hline\hline1&589&2\\\hline2&523&5\\\hline3&361&4\\\hline4&165&2\\\hline5&136&4\\\hline\end{tabular}\label{tb:scenario-info}\end{center}\end{table}\subsection{実験結果}システムは,1発話テキストごとの推定結果として複数の感情属性を出力する.出力結果の例を,表\ref{tb:sample}に示す.今回,感情推定結果と,人手による正解感情とを比較することで提案手法の有効性の評価を行ったが,評価にあたり,解の作成者ごとの感情の種類の認識の差を考慮するため,感情属性の種類の大まかな分類(感情属性の大分類)を表\ref{tb:lclass}に示すように定義した.正しいもの(人手による正解感情と完全一致)は○,完全に正しいとはいえないが,間違いではないと判断できるもの(完全には一致しないが,人手により付与された感情と同じ大分類に属するもの)は△,明らかな間違い(完全一致せず,人手による正解感情と同じ大分類にも属さないもの)であるものは×として定義した.また,感情推定結果として1発話に何も感情属性が付与されない「無感情」については,「平静」と同じ大分類に属するものとして評価を行うことにした.\begin{table}[t]\begin{center}\caption{出力結果の例}\begin{tabular}{|c|p{4.5cm}|l|}\hline\multicolumn{1}{|c|}{発話者}&\multicolumn{1}{|c|}{発話}&\multicolumn{1}{|c|}{推定結果}\\\hline\hlineM&来てくれたんだ.&安心=0.70\\\hlineF&ビックリしたよ.かぜだって聞いてたのに,入院なんて…&驚き=1.00,嫌悪=1.00\\\hlineM&あー,大したことないんだけど,こじらせちゃって.&興奮=1.00,否定=1.00,受容=1.00\\\hlineF&大したことないんだ?じゃあ心配して損したな.&期待=0.50,不安=1.00,嫌悪=1.00\\\hlineM&心配してくれたんだ.ゴメンね.&不安=0.33,嫌悪=1.03,恐れ=0.33\\\hline\end{tabular}\label{tb:sample}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{感情属性の大分類}\begin{tabular}{|c||p{9cm}|}\hline分類1&喜び,幸福,感謝,好き,愛,楽しみ,可笑しさ\\\hline分類2&憧れ,尊敬,賞賛,羨望,懐かしさ\\\hline分類3&怒り,非難,憤り\\\hline分類4&嫌悪,軽蔑,からかい,不快,倦怠感,焦燥感,憎しみ,恨み,不平不満,呆れ,焦燥,苛立ち,皮肉,厭味\\\hline分類5&悲しみ,失望,恥,無力感,憂鬱,淋しさ,哀れみ\\\hline分類6&恐れ,不安,ためらい,畏怖,不審\\\hline分類7&驚き,当惑,興奮,緊張\\\hline分類8&後悔,悔しさ,罪悪感,嫉妬\\\hline分類9&受容,納得,同意,同情\\\hline分類10&期待,興味\\\hline分類11&安心,満足\\\hline分類12&平静,無感情\\\hline\end{tabular}\label{tb:lclass}\end{center}\end{table}表\ref{tb:result1}に,実験の結果得られた感情属性ごとの評価結果を示す.表\ref{tb:result1}中の合計は,すべての発話において付与された感情属性の数を示す.\begin{table}[p]\begin{center}\caption{評価実験の結果}\renewcommand{\baselinestretch}{}\selectfont\begin{tabular}{|c||r|r|r|r|r|r||r|}\hline&\multicolumn{6}{c}{評価結果}&\\\hline感情の種類&\multicolumn{2}{|c|}{○}&\multicolumn{2}{|c|}{△}&\multicolumn{2}{|c||}{×}&合計\\\hline\hline喜び&24&3.5\%&654&96.5\%&0&0.0\%&678\\\hline誇り&0&0.0\%&0&0.0\%&2&100.0\%&2\\\hline平静&9&90.0\%&0&0.0\%&1&10.0\%&10\\\hline無感情&0&0.0\%&45&90.0\%&5&10.0\%&50\\\hline不安&28&6.8\%&384&93.2\%&0&0.0\%&412\\\hline恥&23&10.4\%&198&89.6\%&0&0.0\%&221\\\hline楽しみ&2&1.3\%&151&98.7\%&0&0.0\%&153\\\hline尊敬&0&0.0\%&66&100.0\%&0&0.0\%&66\\\hline好き&11&1.2\%&918&98.8\%&0&0.0\%&929\\\hline賞賛&0&0.0\%&117&100.0\%&0&0.0\%&117\\\hline受容&63&4.6\%&1296&95.4\%&0&0.0\%&1359\\\hline興奮&3&1.3\%&222&98.7\%&0&0.0\%&225\\\hline後悔&18&6.9\%&242&93.1\%&0&0.0\%&260\\\hline嫌悪&26&1.3\%&1973&98.7\%&0&0.0\%&1999\\\hline軽蔑&19&2.9\%&644&97.1\%&0&0.0\%&663\\\hline期待&52&5.8\%&840&94.2\%&0&0.0\%&892\\\hline感謝&24&9.4\%&231&90.6\%&0&0.0\%&255\\\hline悲しみ&0&0.0\%&218&98.6\%&3&1.4\%&221\\\hline驚き&33&11.1\%&263&88.9\%&0&0.0\%&296\\\hline恐れ&23&10.3\%&200&89.7\%&0&0.0\%&223\\\hline怒り&46&15.4\%&252&84.6\%&0&0.0\%&298\\\hline安心&3&0.6\%&465&99.4\%&0&0.0\%&468\\\hline愛&0&0.0\%&133&100.0\%&0&0.0\%&133\\\hline否定&0&0.0\%&0&0.0\%&322&100.0\%&322\\\hlineためらい&0&0.0\%&0&0.0\%&69&100.0\%&69\\\hline当惑&11&8.3\%&122&91.7\%&0&0.0\%&133\\\hline自暴自棄&0&0.0\%&0&0.0\%&22&100.0\%&22\\\hline呆れ&3&5.7\%&0&0.0\%&50&94.3\%&53\\\hline不審&10&13.7\%&63&86.3\%&0&0.0\%&73\\\hline無力感&3&2.4\%&124&97.6\%&0&0.0\%&127\\\hline幸福&0&0.0\%&62&100.0\%&0&0.0\%&62\\\hline罪悪感&0&0.0\%&30&93.8\%&2&6.3\%&32\\\hline可笑しさ&14&37.8\%&23&62.2\%&0&0.0\%&37\\\hline不平不満&4&7.4\%&50&92.6\%&0&0.0\%&54\\\hline倦怠感&11&10.6\%&93&89.4\%&0&0.0\%&104\\\hline憎しみ&0&0.0\%&0&0.0\%&72&100.0\%&72\\\hline憧れ&0&0.0\%&5&100.0\%&0&0.0\%&5\\\hline非難&42&19.4\%&174&80.6\%&0&0.0\%&216\\\hline\end{tabular}\label{tb:result1}\end{center}\end{table}また,それぞれの評価ラベルに対し,○(1.0),△(0.5),×(0.0)と重み付けを行い,各文の平均値を評価スコアとして算出した.評価スコアの算出方法を,式\ref{eq:score}に示す.$w_n$は,各評価ラベルに対する重みを表す.また,$C$はその発話文の推定結果として出力された(値が0より大きい)感情属性の数を表す.\begin{equation}\label{eq:score}各発話文ごとの評価スコア=\frac{\sum^{c-1}_{n=0}w_n}{C}\end{equation}評価スコアが0.5以上と判定されたものを正しく感情属性が付与された発話テキストとみなし,正解文として集計した結果,該当する文は1006文であり,全体の約57\%であった.評価スコアの詳細を表\ref{tb:result2}に示す.また,シナリオの種類ごとの成功率を表\ref{tb:result3}に示す.\begin{table}[b]\begin{minipage}{0.45\textwidth}\begin{center}\caption{評価スコア集計結果}\begin{tabular}{|l|r|}\hline評価スコア(score)&発話テキスト数\\\hline\hline0.9$\leq$score&0\\\hline0.8$\leq$score<0.9&0\\\hline0.7$\leq$score<0.8&76\\\hline0.6$\leq$score<0.7&99\\\hline0.5$\leq$score<0.6&831\\\hline0.4$\leq$score<0.5&66\\\hline0.3$\leq$score<0.4&178\\\hline0.2$\leq$score<0.3&200\\\hline0.1$\leq$score<0.2&117\\\hline0.0$\leq$score<0.1&207\\\hline\end{tabular}\label{tb:result2}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\caption{シナリオごとの成功率}\begin{tabular}{|c|r|}\hlineシナリオ番号&成功率\\\hline\hline1&53.5\%\\\hline2&58.7\%\\\hline3&57.9\%\\\hline4&54.4\%\\\hline5&62.4\%\\\hline\multicolumn{2}{c}{}\\\multicolumn{2}{c}{}\\\multicolumn{2}{c}{}\\\multicolumn{2}{c}{}\\\multicolumn{2}{c}{}\end{tabular}\label{tb:result3}\end{center}\end{minipage}\end{table}\subsection{誤り例}ここでは,評価実験の結果,感情生起事象文型パターンに当てはまらず,推定誤りとなった発話テキストについてその原因を考察し,対処方法について述べる.推定誤りの原因の内訳を表\ref{tb:error_rate}に示す.複数の原因が考えられる場合には,考えられる全ての原因を付与する.また,誤り原因の解析は,失敗とみなした発話テキスト(評価スコアが0.5より小さかったもの)に対して行った.\begin{table}[t]\begin{center}\caption{推定誤り原因}\begin{tabular}{|l|r|}\hline誤り原因&発話テキスト数\\\hline\hline文脈を判断できないことによる誤り&305\\\hline文型の未登録&61\\\hlineモダリティの未登録&60\\\hlineモダリティの照合失敗&76\\\hline感情語,感情イディオムの未登録,照合失敗&53\\\hlineその他(主体判定誤りなど)&26\\\hline\end{tabular}\label{tb:error_rate}\end{center}\end{table}以下,それぞれの原因による推定誤りの例を示し,感情推定結果との比較を行う.\begin{itemize}\item[(1)]文脈による誤り例\\\begin{itemize}\item[i]「それは,ちょっと.」\\\hspace{0.3cm}(推定感情):“無感情”\\\hspace{0.3cm}(人手による正解感情):“ためらい”\\\hspace{0.3cm}(誤り原因):文脈によるものに加え,文末要素が副詞になっており,述語が省略された形になっているため.述語には,否定的な言葉が当てはまると思われる.\begin{itembox}{文脈}話者(Y)「じゃあ,電話で言う.」\\話者(S)「いやぁ.電話はどうだろう.」\\話者(Y)「そう.じゃあメールで.」\\話者(S)「\underline{それは,ちょっと.}」\end{itembox}\item[ii]「全く.」\\\hspace{0.3cm}(推定感情):“無感情”\\\hspace{0.3cm}(人手による正解感情):“あきれ”\\\hspace{0.3cm}(誤り原因):文脈によって,「全く」の後に続く語が限定される.この場合,「全く」の後には相手を非難する言葉が続くと思われる.(相手に呆れてしまい,その先の言葉に詰まる状況)\begin{itembox}{文脈}話者(M)\\「嫌なら他の人に頼みなさいよ.」\\話者(F)\\「そりゃちょっと気が引ける…」\\話者(M)\\「私ならいいわけ?」\\話者(F)\\「もう習慣みたいなもんだから.」\\話者(M)\\「\underline{全く.}」\end{itembox}\item[iii]\\「そのたんびに母親に怒鳴られていたよ.」\\\hspace{0.3cm}(推定感情):“怒り”\\\hspace{0.3cm}(人手による正解感情):“愛”かつ“受容”\\\hspace{0.3cm}(誤り原因):文脈からは,同年代の子供達に,愛する自分の息子について楽しそうに話す話者の心情がうかがえる.「母親に怒鳴られる」という事象のみからでは推定が不可能.\begin{itembox}{文脈}話者(M)「…ほら,これがうちの子.浩っていうんだ.汚い格好だろう?いつもこうなんだ.隣の家へ行っては,自分より小さな子を泣かして帰ってきたり,どこへ遊びに行ってたのやら,体中泥だらけにして帰ってきたりな.\underline{そのたんびに母親に怒鳴られていたよ.}」\end{itembox}\item[iv]\\「顔くらい,いーだろ.」\\\hspace{0.3cm}(推定感情):“受容”\\\hspace{0.3cm}(人手による正解感情):“不平不満”かつ“嫌悪”\\\hspace{0.3cm}(誤り原因):文脈からは,相手の怒りを受けての発言であることが分かる.\begin{itembox}{文脈}話者(M)「何すんのよ!ヘンタイ!」\\話者(F)「そりゃねーだろ.お化けの次はヘンタイかよ.」\\話者(M)「女の子に触っていいと思ってんの!」\\話者(F)「\underline{顔くらい,いーだろ.}」\end{itembox}\item[v]\\「おかしいなあ.」\\\hspace{0.3cm}(推定感情):“楽しみ”かつ“喜び”\\\hspace{0.3cm}(人手による正解感情):“不安”かつ“不審”\\\hspace{0.3cm}(誤り原因):「おかしい」の意味を,「違和感がある」という意味でなく,「可笑しい」ととってしまったため.「おかしい」の意味を判定するには,文脈の考慮が必要.\begin{itembox}{文脈}話者(A)「おい!!あれ!!」\\話者(B)「ちょうどいいところに来たな.」\\話者(C)「\underline{おかしいなあ.}俺,武器も一緒においてっちまったんだっけかな…?」\end{itembox}\end{itemize}\item[(2)]モダリティの未登録,照合失敗,感情生起主体の判定失敗など\\\begin{itemize}\item[i]\\「怒られたくも,叩かれたくもないでしょ?」\\\hspace{0.3cm}(推定感情):“怒り”\\\hspace{0.3cm}(人手による正解感情):“受容”\\\hspace{0.3cm}(誤り原因):「〜でしょ」の未登録,主体の判定失敗(話者として判定)\\\hspace{0.3cm}(対処方法):「〜でしょ」の登録(「受容」を生起するルール),受身形「〜られる」の判定による感情生起主体の判定.\\\begin{itembox}{モダリティ,感情生起主体の判定が正しく行われる場合}(a)問いかけのモダリティ「〜でしょ」が抽出される.(このモダリティが受容を生起するとする)\\(b)モダリティによる感情属性値ルールにより「受容」を生起.\\(c)“生起主体が「怒られる」”という事象であるが,主体判定の結果「他者」と判定されればこの事象からの感情は推定されない.\\(d)結果として(b)で生起した「受容」が話者感情として推定される.\end{itembox}\item[ii]\\「お前何そんなに怒ってんの?」\\\hspace{0.3cm}(推定感情):“怒り”\\\hspace{0.3cm}(人手による正解感情):“受容”\\\hspace{0.3cm}(誤り原因):疑問の様相「〜てんの」の未登録,生起主体の判定失敗(話者として判定)\\\hspace{0.3cm}(対処方法):生起主体判定方法の改善と「〜てんの」の登録.\\\item[iii]「そお,そこそこ.どんなにしっかりしていても,君もまだ子供なんだ.笑ったり,怒ったり,泣いたり,していいんだよ.その子と同じようにね.」\\\hspace{0.3cm}(推定感情):“喜び”かつ“怒り”かつ“悲しみ”\\\hspace{0.3cm}(人手による正解感情):“受容”\\\hspace{0.3cm}(誤り原因):「許可」を表すモダリティ「V-ていい」の抽出失敗.「笑ったり」,「怒ったり」,「泣いたり」からそれぞれの感情属性が結果に表れたため,推定結果のような感情属性が得られてしまった.\\\hspace{0.3cm}(対処方法):モダリティの照合方法の改善\\\end{itemize}\item[(3)]感情語・感情イディオムの未登録\begin{itemize}\item[i]「みんな\underline{大袈裟に}騒ぎ立てちゃって.」\\\hspace{0.3cm}(推定感情):“嫌悪”\\\hspace{0.3cm}(人手による正解感情):“呆れ”\\\hspace{0.3cm}(誤り原因):感情語としての「大袈裟」が未登録.\\\hspace{0.3cm}(対処方法):「大袈裟」を感情語として登録.\\\begin{itembox}{「大袈裟」が登録されている場合}表層格判定:“みんな”(ガ格),“大袈裟”(ニ格),“騒ぎ立てる”(述語)\\(1)感情語として「大袈裟」に,感情属性として「呆れ」が付与される.\\(2)述語「騒ぎ立てる」に,感情属性「嫌悪」が付与される.\\→述語とニ格の感情属性から,「嫌悪」+「呆れ」が推定される.\end{itembox}\end{itemize}\end{itemize}\subsection{考察}実験結果より,感情語が含まれていて,主語や述語が明確な比較的単純な構造の文でも,推定が上手くいかない場合が多かった.この原因として,文脈を受けて感情語の表す感情の程度が変化してしまうということがある.例えば,笑い話をしている最中に,不快を表すような感情語が出現することも多く,そのような場合,単純に感情語から「感情表出発話」として話者の感情を推定してしまうことには問題がある.会話全体のムード(雰囲気)も考慮しなければならない.また,感情の種類によって推定数,推定成功率共にばらつきが出た.この原因として,対象のシナリオの内容によって,感情の種類ごとに含まれる文の数に差があったということと,感情辞書に含まれる感情語やイディオムに付与されている感情属性の種類ごとの数の偏りがあることが挙げられる(図\ref{fig:emotion_dictionary}参照).\begin{figure}[b]\begin{center}\includegraphics[scale=0.40]{emdic.eps}\caption{感情語,感情イディオムに付与された感情属性の付与数}\label{fig:emotion_dictionary}\end{center}\end{figure}また,感情語の表記のゆれや,感情語・感情イディオムのパターン不足による照合失敗も多かった.このような照合失敗については,照合処理の改善と単語拡充による対応で解決できると考えている.また,感情推定への影響が大きいモダリティの照合処理の改善とモダリティのパターン拡充も必要である.また,今回実験に用いたシナリオには,登録されている文型パターンに一致する文がほとんど含まれていなかった.さらに係り受け解析の出力による表層格決定の失敗も多数あった.これらのことから,提案手法における文型パターン照合手法が話し言葉特有の表現に対応できていないことが問題であるといえる.また,文脈による誤りが推定失敗の原因の50\%を超えていたことから,これらの文から正しく感情推定を行うために,文脈を考慮した感情推定を行えるようにしなければならない.
\section{評価実験2}
評価実験1の結果から,単純な文からの感情推定に失敗する原因として「文脈誤り」が多かった.したがって,対話の流れ(会話全体のムード)に応じて感情推定を行う必要がある.そこで,各シナリオの登場人物ごとに感情状態を保持し,感情の持続性を考慮した感情パラメータ蓄積ルールを適用することにより対話全体の雰囲気を考慮することにした.\subsection{感情の持続性}感情は,一時的なものと継続的なものの2種類に分けることができる.一時的な感情の場合,生起した時点から発話が進むにしたがって減少し,収束していくと考えられる.一方,継続的な感情は,対話中にほとんど減少しないと考えられる.感情の種類について述べている\cite{emotion_psychology}によると,感情を継続性と対人性の観点から分類すると,表\ref{tb:emotion_category}のようになる.\begin{table}[b]\begin{center}\caption{感情の分類}\begin{tabular}{|c|c|c|p{8cm}|}\hline分類名&継続性&対人/自我&属する感情\\\hline\hline衝動&なし&自我&悲しみ・可笑しさ・怒り(侮辱)・憤り・照れ(謙遜)・喜び(懐かしさ)\\\hline反応&なし&対人&驚き・恥・悔しさ・安心・当惑・恐怖・畏怖・失望\\\hline態度&あり&対人&愛(尊敬・崇拝・愛着・責任感・勇気)・憎しみ・嫉妬・哀れみ・罪悪感・興味(美しさ・ユーモア・憧れ)・恋・軽蔑・恨み・嫌悪(醜さ)・感謝・羨望\\\hline気分&あり&自我&幸福・誇り・淋しさ・楽しさ・倦怠感・不平不満(執着,頑固,意地っ張り)・焦燥感・憂鬱・不安・希望(勇気・野心・意志)・自信(優越感)・無力感(劣等感・せつなさ・後悔)\\\hline\end{tabular}\label{tb:emotion_category}\end{center}\end{table}したがって,継続的感情は,発話の進行に影響されず感情状態が維持させる.また,一時的感情は発話の進行に伴い,1発話テキストにおける感情パラメータの合成時と同様に,同じ対話中の過去に生起した感情を忘却曲線の近似式によって減衰させ,最新の感情パラメータに足し合わせる.また,対話が終了するまで継続的感情を蓄積し続けることにより,後に生起した感情よりも強度が大きくなってしまうことを避けるため,継続的感情と一時的感情とで減少の割合を変更することで対処する.具体的には継続的感情は一時的感情よりも減少率を低くする.この感情の持続性を考慮したルールを感情パラメータ蓄積ルールとする.ここで,ある発話者による2発話における感情パラメータを合成する例を示す.対話例として,表\ref{tb:para_ex}に示すように各話者ごとの発話において感情パラメータが計算されたとする.表中の感情パラメータは,1発話テキスト内のみで計算されたものとする.発話は,$U_{A1},U_{B1},U_{A2},U_{B3}$の順に行われたとする.この対話中の$U_{A2}$において,直前の発話$U_{A1}$で計算された感情パラメータとの合成を行う.一時的感情と継続的感情の減少の割合の比を1.5と定義し,計算を行う.計算の過程を図\ref{fig:katei}に示す.\begin{table}[b]\begin{center}\caption{各発話ごとの感情パラメータの例}\begin{tabular}{|c|c|l|}\hline\multicolumn{1}{|c|}{発話者}&発話番号&\multicolumn{1}{|c|}{感情パラメータ}\\\hline\hlineA&$U_{A1}$&喜び=0.70,誇り=0.60\\\hlineB&$U_{B1}$&驚き=1.00,嫌悪=1.00\\\hlineA&$U_{A2}$&怒り=0.50,悲しみ=1.00,受容=0.60\\\hlineB&$U_{B2}$&期待=0.50,不安=1.00,嫌悪=1.00\\\hline\end{tabular}\label{tb:para_ex}\end{center}\end{table}\begin{figure}[b]\vspace{\baselineskip}\begin{center}\includegraphics[scale=0.34]{katei.eps}\caption{感情パラメータの合成}\label{fig:katei}\end{center}\end{figure}評価実験2として,1発話のみからでは推定が困難な場合に,直前の発話から推定された感情パラメータを利用する感情パラメータ蓄積ルールによる効果が得られるかどうかを確かめるための実験を行った.\subsection{対象データ}評価実験1に用いた同じシナリオ文(5種類,合計1774文)と人手による解のデータを実験対象とした.\subsection{実験結果}\begin{figure}[b]\begin{center}\includegraphics[scale=0.25]{14-3ia13f6.eps}\caption{感情状態の時間的推移}\label{fig:etra}\end{center}\end{figure}図\ref{fig:etra}は,実験システムにおいて,ある話者の感情状態(嫌悪)の時間的変化を表示させたところである.感情パラメータ蓄積ルール適用前と,適用後の発話ごとの評価スコアの平均を比較すると(表\ref{tb:score_comp}参照),適用前が0.42で,適用後が0.47と,適用後の方が高くなっている.また,表\ref{tb:paraHyoka}に示す通り,成功率も上がっている.実験1で推定に失敗したような文脈を考慮する必要のある短い文からの推定に効果があったと考えられる.一方,この評価実験において,シナリオの場面転換による時間経過を考慮しなかったため,本来ならば0になっているべき感情が推定されてしまうような誤りも見られた.表\ref{tb:error_param}にその例を示す.\subsection{考察}感情パラメータ蓄積ルールを適用することにより,前の発話からの感情の持続性を考慮することができ,成功率が57\%から76\%へと大幅に改善された.しかし,依然として人手による正解感情と推定結果との完全一致率は低かった.また,感情推定の成功率を上げるために,話者自身の発話による感情状態の維持に加え,直前の対話者の発言の影響を考慮する必要があると考える.\begin{table}[t]\begin{minipage}{0.4\textwidth}\begin{center}\caption{評価スコアの比較}\begin{tabular}{|c|r|r|}\hlineシナリオ番号&適用前&適用後\\\hline\hline1&0.42&0.47\\\hline2&0.41&0.48\\\hline3&0.42&0.46\\\hline4&0.42&0.48\\\hline5&0.46&0.48\\\hline\hline全体&0.42&0.47\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\end{tabular}\label{tb:score_comp}\end{center}\end{minipage}\hfill\begin{minipage}{0.5\textwidth}\begin{center}\caption{感情パラメータ蓄積ルール適用後の評価結果}\begin{tabular}{|l|r|}\hline評価スコア&発話テキスト数\\\hline\hline0.9$\leq$score&3\\\hline0.8$\leq$score<0.9&0\\\hline0.7$\leq$score<0.8&10\\\hline0.6$\leq$score<0.7&111\\\hline0.5$\leq$score<0.6&1235\\\hline0.4$\leq$score<0.5&97\\\hline0.3$\leq$score<0.4&138\\\hline0.2$\leq$score<0.3&105\\\hline0.1$\leq$score<0.2&24\\\hline0.0$\leq$score<0.1&51\\\hline\end{tabular}\label{tb:paraHyoka}\end{center}\end{minipage}\end{table}\begin{table}[t]\begin{center}\caption{誤り例}\begin{tabular}{|c|c|p{6.5cm}|c|c|}\hline発話番号&話者&発話文&推定結果&人手による正解感情\\\hline\hline97&S&ひどいなあ,その言い方.&非難&非難\\\hline98&A&事実でしょ?それより,早く仕事に戻りなさいよ!!お昼休みはとっくに過ぎてるの!みんなカンカンよ?&怒り,軽蔑&怒り\\\hline99&S&はいはい.わかりました.じゃあな.また明日.&受容&受容\\\hline\multicolumn{5}{|c|}{—場面転換—}\\\hline100&A&…いつでも来たい時にって言ったくせに….&軽蔑&悲しみ\\\hline\end{tabular}\label{tb:error_param}\end{center}\end{table}
\section{まとめ}
本研究では感情推定を行うアルゴリズムについて提案し,評価実験用システムを構築した.そして,シナリオデータを対象とした会話文の感情推定実験(評価実験1)を行い,約57\%の成功率が得られた.さらに,感情状態の維持を考慮した感情パラメータ蓄積ルールを適用し,同じデータで評価実験(評価実験2)を行ったところ,約76\%の成功率が得られた.しかし,評価実験1と同様に,推定結果と人手による解との完全一致率が低いという問題があった.また,評価スコアから誤りと判定された文についてその原因を分析した結果,表記の揺れなどによる感情語と感情イディオムの照合失敗と,モダリティのパターン不足による照合失敗が推定誤りの原因の約30\%を超えていたことから,感情語と感情イディオムの照合処理の改善と,モダリティのパターンの拡充,照合処理の改善が必要である.また,評価実験において,感情生起事象文型パターンに一致する文が全体の5\%にも満たなかったことから,感情生起事象について見直し,感情状態と感情動作以外の用言パターンに対しても感情生起ルールを付与するとともに,実会話文で使用される表現の文型パターンを拡充していく必要があると思われる.文脈を判断できないことによる誤りが,推定誤りの原因のうち50\%以上みられ,推定誤りを減らすためには文脈を判断するためのアルゴリズムが必要であることが分かった.今後は,会話文に特化した感情推定手法に発展させるため,\begin{itemize}\item[(1)]係り受け解析誤りに依存しない文型照合方法の提案\item[(2)]感情生起事象文型の拡充と感情表現文型辞書の構築のため,感情文コーパスからの文型パターン自動登録手法の提案\item[(3)]対話相手の発話による感情状態の変化規則の構築\end{itemize}を行いたいと考えている.\\\acknowledgment本研究の一部は文部科学省科学研究費,基盤研究(B)17300065,および萌芽研究17656128の補助を受けた.\nocite{cabocha}\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{国立国語研究所編}{国立国語研究所編}{2004}]{bunrui}国立国語研究所編\BBOP2004\BBCP.\newblock\Jem{分類語彙表増補改訂版}.\newblock大日本図書.\bibitem[\protect\BCAY{CaboCha}{Cab}{}]{cabocha}CaboCha.\newblock\JBOQ日本語係り受け解析器「CaboCha」\\texttt{http://chasen.org/{\textasciitilde}taku/software/cabocha/}\JBCQ.\bibitem[\protect\BCAY{藤村\JBA豊田\JBA喜連川}{藤村\Jetal}{2004}]{Fujimura}藤村滋\JBA豊田正史\JBA喜連川優\BBOP2004\BBCP.\newblock\JBOQWebからの評判および評価表現抽出に関する一考察\JBCQ\\newblock\Jem{情報処理学会研究報告2004-DBS-134},\mbox{\BPGS\461--468}.\bibitem[\protect\BCAY{Gray}{Gray}{1991}]{eb}Gray,P.~O.\BBOP1991\BBCP.\newblock{\BemPsychologyNY}.\newblockWorthpublishers.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{1991}]{adjective}飛田良文\JBA浅田秀子\BBOP1991\BBCP.\newblock\Jem{現代形容詞用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{1994}]{adverb}飛田良文\JBA浅田秀子\BBOP1994\BBCP.\newblock\Jem{現代副詞用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{ひろた}{ひろた}{2001}]{emotion_psychology}ひろたかなん\BBOP2001\BBCP.\newblock\Jem{ココロを動かす技術,ココロを読み解く科学}.\newblock新風舎.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBAほか}{池原\Jetal}{1999}]{jlexicon}池原悟\JBA宮崎正弘\JBA白井諭\JBAほか\BBOP1999\BBCP.\newblock\Jem{日本語語彙大系CD-ROM版}.\newblock岩波書店.\bibitem[\protect\BCAY{猪股}{猪股}{1982}]{Inomata}猪股佐登留\BBOP1982\BBCP.\newblock\Jem{態度の心理学}.\newblock培風館.\bibitem[\protect\BCAY{Kamps,Marx,Mokken,\BBA\de~Rijke}{Kampset~al.}{2004}]{Kamps}Kamps,J.,Marx,M.,Mokken,R.~J.,\BBA\de~Rijke,M.\BBOP2004\BBCP.\newblock\BBOQUsingWordNettoMeasureSemanticOrientationsofAdjectives\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC-2004)},pp.~1115--1118.\bibitem[\protect\BCAY{加納\JBA吉田\JBA加藤\JBA伊藤}{加納\Jetal}{2004}]{ifbot}加納政芳\JBA吉田宏徳\JBA加藤祥平\JBA伊藤英則\BBOP2004\BBCP.\newblock\JBOQ感性会話型ロボット『Ifbot』の表情制御の感情空間へのマッピング\JBCQ\\newblock\Jem{第66回情報処理学会全国大会論文集},{\Bbf4},\mbox{\BPGS\77--78}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock\JBOQ格フレーム辞書の漸次的自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Mera,Ichimura,\BBA\Yamashita}{Meraet~al.}{2003}]{mera}Mera,K.,Ichimura,T.,\BBA\Yamashita,T.\BBOP2003\BBCP.\newblock\BBOQComplicatedEmotionAllocatingMethodbasedonEmotionalElicitingConditionTheory\BBCQ\\newblock{\BemJournaloftheBiomedicalFuzzySystemsandHumanSciences},{\Bbf9}(1),\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{目良\JBA黒澤\JBA市村}{目良\Jetal}{2004}]{mera2}目良和也\JBA黒澤義明\JBA市村匠\BBOP2004\BBCP.\newblock\JBOQ話し言葉における感情を考慮した知的インタラクションシステムの構築\JBCQ\\newblock\Jem{第20回ファジィシステムシンポジウム講演論文集},\mbox{\BPG~26}.\bibitem[\protect\BCAY{小林\JBA乾\JBA乾}{小林\Jetal}{2001}]{Kobayashi}小林のぞみ\JBA乾孝司\JBA乾健太郎\BBOP2001\BBCP.\newblock\JBOQ語釈文を利用した「p/n」辞書の作成\JBCQ\\newblock\Jem{人工知能学会言語・音声理解と対話処理研究会SIG-SLUD-33},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{Kobayashi2}小林のぞみ\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock\JBOQ意見情報の抽出/構造化のタスク仕様に関する考察\JBCQ\\newblock\Jem{情報処理学会研究報告2006-NL-171},\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2005}]{Kudo}工藤拓\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ部分木を素性とするDecisionStumpsとBoostingAlgorithmの適用\JBCQ\\newblock\Jem{自然言語処理研究会NL-158-9},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{cabocha2}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{熊本\JBA田中}{熊本\JBA田中}{2005}]{Kumamoto}熊本忠彦\JBA田中克己\BBOP2005\BBCP.\newblock\JBOQWebニュース記事からの喜怒哀楽抽出\JBCQ\\newblock\Jem{情報処理学会研究報告2005-NL-165},\mbox{\BPGS\15--20}.\bibitem[\protect\BCAY{Matsumoto,Minato,Ren,\BBA\Kuroiwa}{Matsumotoet~al.}{2005}]{ees}Matsumoto,K.,Minato,J.,Ren,F.,\BBA\Kuroiwa,S.\BBOP2005\BBCP.\newblock\BBOQEstimatingHumanEmotionsUsingWordingandSentencePatterns\BBCQ\\newblockIn{\BemProceedingsofIEEEICIA2005InternationalConference},\mbox{\BPGS\421--426}.\bibitem[\protect\BCAY{松本\JBABracewell,任\JBA黒岩}{松本\Jetal}{2005}]{ecorpus}松本和幸\JBABracewell,David~B.,任福継\JBA黒岩眞吾\BBOP2005\BBCP.\newblock\JBOQ感情コーパス作成支援システムの開発\JBCQ\\newblock\Jem{情報処理学会研究報告2005-NL-170},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{森\JBAHelmut\JBA土肥\JBA石塚}{森\Jetal}{2003}]{Mori}森純一郎\JBAHelmutPrendinger\JBA土肥浩\JBA石塚満\BBOP2003\BBCP.\newblock\JBOQユーザ感情を考慮したインタフェースエージェントの行動決定\JBCQ\\newblock{人工知能学会全国大会予稿集No.~1C5-02}.\bibitem[\protect\BCAY{中村}{中村}{1993}]{Nakamura}中村明\BBOP1993\BBCP.\newblock\Jem{感情表現辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{中山\JBA江口\JBA神門}{中山\Jetal}{2004}]{Nakayama}中山記男\JBA江口浩ニ\JBA神門典子\BBOP2004\BBCP.\newblock\JBOQ感情表現の抽出手法に関する提案\JBCQ\\newblock\Jem{情報処理学会研究報告2004-NL-164},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{那須川\JBA金山}{那須川\JBA金山}{2004}]{Nasukawa}那須川哲哉\JBA金山博\BBOP2004\BBCP.\newblock\JBOQ文脈一貫性を利用した極性付評価表現の語彙獲得\JBCQ\\newblock\Jem{情報処理学会研究報告2004-NL-162},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{岡野原\JBA辻井}{岡野原\JBA辻井}{2005}]{Okanohara}岡野原大輔\JBA辻井潤一\BBOP2005\BBCP.\newblock\JBOQ評価文に対する二極指標の自動付与\JBCQ\\newblock\Jem{言語処理学会第11年次大会発表論文集},\mbox{\BPGS\664--667}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1960}]{Plutchik}Plutchik,R.\BBOP1960\BBCP.\newblock\BBOQTheMultifactor-AnalyticTheoryofEmotion\BBCQ\\newblock{\BemtheJournalofPsychology},{\Bbf50},\mbox{\BPGS\153--171}.\bibitem[\protect\BCAY{Ren\BBA\Mitsuyoshi}{Ren\BBA\Mitsuyoshi}{2003}]{Ren}Ren,F.\BBACOMMA\\BBA\Mitsuyoshi,S.\BBOP2003\BBCP.\newblock\BBOQToUnderstandandCreatetheEmotionandSensitivity\BBCQ\\newblock{\BemInternationalJournalofInformation},{\Bbf6}(5),\mbox{\BPGS\547--556}.\bibitem[\protect\BCAY{任}{任}{2005}]{Ren2}任福継\BBOP2005\BBCP.\newblock\JBOQ人間感情の認知と機械感情の創生ができる感情インターフェース\JBCQ\\newblock\Jem{国際学術誌「情報誌」,招待論文},{\Bbf8}(1),pp.~7--20.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2006}]{Takamura}高村大也\JBA乾孝司\JBA奥村学\BBOP2006\BBCP.\newblock\JBOQスピンモデルによる単語の感情極性抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(2),\mbox{\BPGS\627--637}.\bibitem[\protect\BCAY{田中\JBA徳久\JBA村上\JBA池原}{田中\Jetal}{2004}]{TanakaTsutom}田中努\JBA徳久雅人\JBA村上仁一\JBA池原悟\BBOP2004\BBCP.\newblock\JBOQ結合価パターンへの情緒生起情報の付与\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\345--348}.\bibitem[\protect\BCAY{徳久\JBA乾\JBA徳久\JBA岡田}{徳久\Jetal}{2001}]{tokuhisa}徳久良子\JBA乾健太郎\JBA徳久雅人\JBA岡田直之\BBOP2001\BBCP.\newblock\JBOQ言語コーパスにおける感情生起要因と感情クラスの注釈づけ\JBCQ\\newblock\Jem{人工知能学会研究資料,SIG-SLUD-A003-2},pp.~9--16.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{Turney}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsup?thumbsdown?SemanticOrientationAppliedtoUnsupervizedClassificationofReviews\BBCQ\\newblock{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{矢野\JBA目良\JBA相沢}{矢野\Jetal}{2004}]{Yano}矢野宏美\JBA目良和也\JBA相沢輝昭\BBOP2004\BBCP.\newblock\JBOQ嗜好を考慮した評判情報検索手法\JBCQ\\newblock\Jem{情報処理学会研究報告2004-NL-164},\mbox{\BPGS\165--170}.\end{thebibliography}\begin{biography}\bioauthor{松本和幸}{2003年徳島大学工学部知能情報工学科卒業.同大学院工学研究科情報システム工学専攻博士後期課程在学.感性情報処理の研究に従事.情報処理学会会員.}\bioauthor{三品賢一}{2006年徳島大学工学部知能情報工学科卒業.同大学院先端技術科学教育部システム創生工学専攻博士前期課程在学.感性情報処理の研究に従事.電子情報通信学会会員.}\bioauthor{任福継}{1982年北京郵電大学電信工程卒,1985年同大学修士課程了.1991年北海道大学大学院工学研究科博士後期課程了.博士(工学).CSK研究員,広島市立大学情報科学部助教授を経て,2001年から徳島大学工学部教授.2005年から徳島大学大学院ソシオテクノサイエンス研究部教授.北京郵電大学教授兼務.自然言語処理,感性情報処理,学習システム,人工知能,多言語多機能メディア知的システムに関する研究に従事.IEEE,ACL,電子情報通信学会,人工知能学会,情報処理学会,言語処理学会,教育システム情報学会各会員.}\bioauthor{黒岩眞吾}{1986年,電通大・電気通信・通信卒.1988年,同大大学院修士課程了.博士(工学).同年国際電信電話株式会社入社.1988年〜2001年,同社研究所において電話音声認識システムの研究・開発に従事.2001年,徳島大学工学部助教授.2005年から徳島大学大学院ソシオテクノサイエンス研究部助教授.音声認識,話者照合,情報検索,感性情報処理の研究に従事.電子情報通信学会平成8年度学術奨励賞,日本音響学界第3回及び第5回技術開発賞受賞.電子情報通信学会,情報処理学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V04N03-05
|
\section{まえがき}
最近の文書作成はほとんどの場合,日本語ワードプロセッサ(ワープロ)を用いて行われている.これに伴い,ワープロ文書中に含まれる誤りを自動的に検出するシステムの研究が行われている~\cite{FukushimaAndOtakeAndOyamaAndShuto1986,Kuga1986,IkeharaAndYasudaAndShimazakiAndTakagi1987,SuzukiAndTakeda1989,OharaAndTakagiAndHayashiAndTakeishi1991,IkeharaAndOharaAndTakagi1993}.ワープロの入力方法としては一般にかな漢字変換が用いられている.このため,ワープロによって作成された文書中には変換ミスに起因する同音異義語誤りが生じやすい.同音異義語誤りは,所望の単語と同じ読みを持つ別表記の単語へと誤って変換してしまう誤りである.従って,同音異義語誤りを自動的に検出する手法を確立することは,文書の誤り検出/訂正作業を支援するシステムにおいて重要な課題の1つとなっている.同音異義語誤りを避けたり,同音異義語誤りを検出するために種々の方法が提案されている~\cite{FukushimaAndOtakeAndOyamaAndShuto1986,MakinoAndKizawa1981,Nakano1982,OshimaAndAbeAndYuuraAndTakeichi1986,SuzukiAndTakeda1989,TanakaAndMizutaniAndYoshida1984a,TanakaAndYoshida1987}.われわれは,日本文推敲支援システムREVISE~\cite{OharaAndTakagiAndHayashiAndTakeishi1991}において,意味的制約に基づく複合語同音異義語誤りの検出/訂正支援手法を採用している~\cite{Oku1994,Oku1996}.この手法の基本的な考え方は,「複合語を構成する単語はその隣に来うる単語(隣接単語)を意味的に制約する」というものである(3章参照).しかしながら,この手法においても以下のような問題点があった;\begin{description}\item{(1)}同音異義語ごとに前方/後方隣接単語に対する意味的制約を,誤り検出知識及び訂正支援のための知識として収集しなければならない.しかし,このような意味的制約を人手を介さずに自動的に収集することは困難である.\item{(2)}検出すべき同音異義語誤りを変更すると,意味的制約を記述した辞書を新たに構築する必要が生じる.\end{description}これらの問題点を解決するためには,誤り検出知識として収集が容易な情報を使用する必要がある.この条件に合致する情報の1つとして文書中の文字連鎖がある.文字連鎖の情報は既存の文書から容易に収集することができる.3文字連鎖を用いてかな漢字変換の誤りを減らす手法については~\cite{TochinaiAndItoAndSuzuki1986}が報告されているが,この手法は漢字をすべて1つのキャラクタとして扱っているため,複合語に含まれる同音異義語誤りを検出することができない.また,文字の2重マルコフ連鎖確率を用いて日本文の誤りを検出し,その訂正を支援する手法が提案されている~\cite{ArakiAndIkeharaAndTsukahara1993}.この手法は,「漢字仮名混じり文節中に誤字または誤挿入の文字列が存在するときは,m重マルコフ連鎖確率が一定区間だけ連続してあるしきい値以下の値を取る」という仮説に基づいて誤字,脱字及び誤挿入文字列の誤り種別及び位置を検出するものである.同音異義語誤りは単語単位の誤字と捉えることができるが,この手法が同音異義語誤りに対して有効であるか否かについては報告されていない.一方,日本文推敲支援システムREVISEは,ルールに基づく形態素解析を基本にしたシステムであり,その中に誤り検出知識として収集が容易な統計的な情報を導入した誤り検出手法を確立することも重要な課題である.そこで,本論文では,収集が容易な統計的な誤り検出知識として文字連鎖に焦点をあて,文字連鎖を用いた複合語同音異義語誤りの検出手法について述べる.さらに,その有効性を検証するために行った評価実験の結果についても述べる.以下,2章において本論文で用いる用語の定義を行い,3章において日本文推敲支援システムREVISEにおける誤り検出の流れと,意味的制約に基づく複合語同音異義語誤りの検出手法の概要及びその問題点について述べる.4章では,3章で述べる問題点を解決するために,文字連鎖を用いて複合語に含まれる同音異義語誤りを検出する手法を提案する.5章では,本手法の有効性を評価するために行った同音異義語誤り検定の評価実験について述べ,意味的制約を用いた同音異義語誤り検出/訂正支援手法との比較を含めた考察を加える.
\section{用語の定義}
\begin{description}\item[○複合語:]2つ以上の語が助詞を介さずに複合して成立した語.\item[○同音語:]読みが同じで意味の異なる2つ以上の語の集合と定義する.表1に同音語の種類を示す~\cite{OshimaAndAbeAndYuuraAndTakeichi1986}.\item[○同音異義語集合:]同じ読みを持つ単語を要素とする集合であって,各要素が同品詞であり,かつ表記ゆらぎでないもの(表1参照)を同音異義語集合と定義する.例えば“科学”と“化学”は同じ同音異義語集合に属する.\item[○同音異義語:]一般には同音語と同じ意味で用いられるが,本論文では,同音異義語集合の各要素のことを同音異義語と定義する.単語Aが単語Bと同じ読みを持つとき,「単語Aは同音異義語Bを持つ」,「単語Aの同音異義語はBである」などと表現する.\item[○同音異義語誤り:]ある単語から,それと同じ同音異義語集合に属する単語への置換誤りを同音異義語誤りと定義する.表2に同音異義語誤りの例を示す.\begin{figure}[htbp]\begin{center}\epsfile{file=table1-2.eps,scale=0.7}\end{center}\end{figure}\item[○前方隣接単語,後方隣接単語,隣接単語:]複合語において,ある単語の直前に位置する単語をその単語の前方隣接単語,直後に位置する単語をその単語の後方隣接単語とよぶ.また,隣接単語とは,前方隣接単語,後方隣接単語のいずれかを指す.\item[○確定単語:]ある単語が属する同音異義語集合の要素数が1であるとき,すなわち,ある単語に同音異義語が存在しないとき,この単語を確定単語とよぶ.\item[○不確定単語:]ある単語が属する同音異義語集合の要素数が2以上であるとき,すなわち,ある単語に同音異義語が存在するとき,この単語を不確定単語とよぶ.\item[○意味属性:]単語をその意味により有限個の概念に写像したもの.例えば,単語“自然”,“天然”はともに意味属性[自然]に属する.以降,意味属性を表すのに[]を用いる.\item[○n文字連鎖:]n文字連鎖とは,実文書に現れるn文字の並びである.誤りのない大量の文書からn文字の並び(n文字連鎖)を集めることによって,正しいn文字連鎖,すなわち,誤りを検出するための知識を収集することができる.\end{description}
\section{意味的制約に基づく複合語同音異義語誤り検出の概要}
\subsection{日本文推敲支援システムREVISEにおける位置づけ}日本文推敲支援システムREVISEの概略フロー図を図1に示す.REVISEは,入力された日本語文書に対して形態素解析処理を行う.次に綴り誤りや助詞抜けなどの誤りを誤り検出知識を参照して検定し,発見した誤りに対して訂正候補を提示する.REVISEにおける誤り検出の基本的な考え方は,「正しい文に対して高い解析精度を持つ形態素解析を適用したとき,解析に失敗した箇所には誤りが含まれている可能性が高い」というものである.しかし,誤りの種類によっては形態素解析に成功するものが存在する.同音異義語誤り,特に複合語に含まれる同音異義語誤りはこの種の誤りの1つである.REVISEでは,あらかじめ用意しておいた特定の同音異義語が複合語に含まれるときに3.2節で述べる同音異義語誤り検定処理が起動される.\begin{figure}[ht]\begin{center}\epsfile{file=fig1.eps,scale=0.7}\end{center}\end{figure}\subsection{処理の概要と問題点}従来より,ある単語に関係する語は限られており,特に複合語において隣接する単語の組合せは限られていることが指摘されている~\cite{TanakaAndMizutaniAndYoshida1984b,TanakaAndYoshida1987}.また,人間は前後一語の環境があれば,ある単語を認定することができ,特に複合語においてその傾向が顕著であると言われている~\cite{Nakano1982}.これらのことは複合語において隣接する単語間には意味的制約が存在することを示唆している.そこで我々は,複合語において隣接する単語間に成立する意味的制約に着目して複合語に含まれる同音異義語誤りを検出する手法を提案した~\cite{Oku1994,Oku1996}.この手法は,同音異義語とこれに隣接する単語との間に成立する意味的制約のみを利用して複合語に含まれる同音異義語誤りを検出する.以下に例を用いてこの手法の概要を述べる.図2に不確定単語“化学”を含む複合語“自然化学”における同音異義語誤りの検出/訂正候補推定の例を示す.ここで,“化学”は同音異義語“科学”を持つ不確定単語,“自然”は確定単語とする.なお,“化学”は“科学”のほかに同音異義語を持たないものとする.不確定単語“化学”の前方に対する意味的制約を表す意味属性集合を$PS_1$,不確定単語“科学”の前方に対する意味的制約を表す意味属性集合を$PS_2$とする.複合語“自然化学”において不確定単語“化学”の前方隣接単語“自然”の持つ意味属性は[自然]であるが,図2に示すように不確定単語“化学”の前方に対する意味的制約を表す意味属性集合$PS_1$は,\[[自然]\notinPS_1\]を満足する.すなわち,不確定単語“化学”の前方に位置する“自然”は,不確定単語“化学”の持つ前方に対する意味的制約を満足しない.従って,不確定単語“化学”を複合語“自然化学”において同音異義語誤りとして検出することができる.次に同音異義語誤り“化学”に対する訂正候補を推定する過程に入る.同音異義語誤り“化学”に対する訂正候補は,その前方に対する意味的制約を表す意味属性集合に意味属性[自然]を含んでいなければならない.図2より,読み“かがく”を持つ“化学”と同音異義の関係にある“科学”の意味的制約を表す意味属性集合$PS_2$は,\[[自然]\inPS_2\]を満足する.すなわち,“自然”は不確定単語“化学”の同音異義語である“科学”の前方に対する意味的制約を満足する.従って,“化学”の同音異義語“科学”を訂正候補として推定し,ユーザに提示することができる.\begin{figure}[ht]\begin{center}\epsfile{file=fig2.eps,scale=0.7}\end{center}\end{figure}しかしながら,この手法には以下のような問題点が存在する;\begin{description}\item{(1)}同音異義語ごとに前方/後方隣接単語に対する意味的制約を,誤り検出/訂正支援知識としてあらかじめ収集しておかなければならない.しかし,このような意味的制約を人手を介さずに自動的に収集することは困難である.すなわち,誤り検出/訂正支援知識の収集に大きな工数を要する.\item{(2)}検出すべき同音異義語誤りを変更すると,意味的制約を記述した辞書を新たに構築する必要が生じる.\end{description}
\section{文字連鎖を用いた複合語同音異義語誤り検出手法の提案}
3.2節で述べた問題点を解決するために,本論文では誤り検出知識として収集が容易な情報である文字連鎖を用いた手法について提案する.\subsection{基本的な考え方}日本文推敲支援システムREVISEは,ルールベースの形態素解析によって複合語を単語単位に分割するので,その単語間の結びつきを見るには文字や単語の連鎖確率ではなく,連鎖そのものを調べればよい\footnote{連鎖確率を用いる場合には,形態素解析とともに誤り検出も行うという戦略がとられる.REVISEのようにルールベースの形態素解析が完了している状態で誤り検出を行うには,文字連鎖確率ではなく文字連鎖そのものを誤り検出知識として利用すれば十分であると考えられる.また,確率値は誤り検出の確からしさを計算するのには有効であろう.}.また,単語連鎖を収集するには,誤り検出知識の収集の段階で,形態素解析を大量の文書に対して正確に行わなければならず,誤り検出知識を容易に収集するという目的に反する.一方,文字連鎖は,大量の文書から機械的にかつ容易に収集することができる.以上のことから,本論文で述べる文字連鎖を用いた複合語同音異義語誤りの検出手法の基本的な考え方は,「既存の文書に現れているn文字連鎖をあらかじめ大量に集めておき,検定対象の不確定単語を含むn文字連鎖がその中に含まれているかを検証することにより,検定対象の不確定単語が誤りか否かを判定する」というものである.図3に不確定単語を含む複合語に対して,どの部分のn文字連鎖を誤り検出に用いるかを模式的に示す.複合語中で不確定単語に前方隣接単語が存在する場合には,不確定単語の先頭から(n-i)文字と前方隣接単語の末尾i文字とから構成されるn文字連鎖を用いて検定を行う.複合語中で不確定単語に後方隣接単語が存在する場合には,不確定単語の末尾から(n-i)文字と後方隣接単語の先頭i文字とから構成されるn文字連鎖を用いて検定を行う.\begin{figure}[ht]\begin{center}\epsfile{file=fig3.eps,scale=0.7}\end{center}\end{figure}\subsection{処理の流れ}図4にn文字連鎖を用いた同音異義語誤り検出の概略フローを示す.ここで,複合語の範囲および単語への分割は,図1に示した形態素解析処理の段階で既に行われているものとする.最初に,入力された複合語が検定対象の不確定単語を含むか否かを調べる.次に,検定対象の不確定単語を含む場合には,不確定単語の先頭(n-i)文字とその前方隣接単語の末尾i文字あるいは不確定単語の末尾(n-i)文字とその後方隣接単語の先頭i文字とからn文字連鎖を作成し,このn文字連鎖があらかじめ収集してあるn文字連鎖辞書に存在するか否かを調べる.存在すれば着目している不確定単語は正しく使用されていると判定し,存在しない場合にはその不確定単語を同音異義語誤りであると判定する.\begin{figure}[ht]\begin{center}\epsfile{file=fig4.eps,scale=0.7}\end{center}\end{figure}
\section{評価実験}
本手法の有効性を確認するために同音異義語誤り検出の評価実験を行った.なお,入力となる複合語はすでに形態素解析処理により構成単語は既知となっているものとする.\subsection{文字連鎖辞書の作成}n文字連鎖辞書としては,2文字連鎖辞書(n=2,i=1)と3文字連鎖辞書(n=3,i=1)を用意して,誤り検出の精度という観点から両者の比較を行う.さらに,辞書の大きさ,すなわち文字連鎖の収集度合いによる誤り検出の変化を調べるために,それぞれ3種類の2文字連鎖辞書,3文字連鎖辞書を用意した.表3に評価実験に用いた6種類の文字連鎖辞書の概要を示す.なお,これらの辞書はすべて新聞記事から作成した.誤り検出の知識として長い文字連鎖を用いる方が誤りの検出精度が高くなることが予想されるが,反面,正しいものまで誤りとして検出してしまう可能性も同時に高くなると考えられる.2文字連鎖辞書と3文字連鎖辞書とを用いた実験を行うことにより,このような傾向についても考察することができる.\begin{figure}[h]\begin{center}\epsfile{file=table3.eps,scale=0.7}\end{center}\end{figure}\vspace*{-5mm}\subsection{評価実験1}評価実験1では正しく使用されている不確定単語をn文字連鎖によってどの程度正しいと判定できるかを調べた.\vspace{-0.2mm}\subsubsection{評価実験1に用いた評価用データ}\begin{description}\item{○評価実験に用いた不確定単語}表4に評価実験に用いた23個の同音異義語集合とこれらに含まれる同音異義語77語を示す.\begin{figure}[htbp]\begin{center}\epsfile{file=table4.eps,scale=0.7}\end{center}\end{figure}\item{○評価実験1に用いた複合語正解データ}表5に評価実験に用いた複合語データの概要を示す.高校の教科書および新聞記事において,表4に示した同音異義語のいずれかを含む複合語を抽出し,それぞれデータ1,データ2とした.なお,データ2を抽出した新聞記事は5.1節で述べた文字連鎖辞書を作成した新聞記事とは異なる\footnote{データ1を用いた評価実験は,文字連鎖辞書を作成した文書(新聞記事)と異なる分野の文書(教科書)に対して行うものであり,データも分野もオープンという性格を持つ.また,データ2を用いた評価実験は,文字連鎖辞書と同じ分\\野(新聞記事)であるが,異なる文書に対して行うものであり,分野はクローズであるがデータはオープンという性格を持つ.}.\begin{figure}[htbp]\begin{center}\epsfile{file=table5.eps,scale=0.7}\end{center}\end{figure}\end{description}\subsection{評価実験2}評価実験2では,誤った不確定単語を含む複合語を用意し,n文字連鎖によってどの程度誤りを検出できるのかを調べた.本論文では,同音異義語集合を前記の表4に示すものに限定し,評価用の複合語誤りデータを作成した\footnote{本来,表4に示す23個の同音異義語集合に属する同音異義語77語だけでなく,同じ読みを持つ同音異義語すべてを対象に評価実験を行うべきであろう.しかし,表4に示すもの以外の表記を持つ同音異義語の出現頻度は低いため,今回の評価実験ではこのような限定を設けた.}.\subsubsection{評価実験2に用いた評価用データ}\begin{description}\item{○評価実験2に用いた複合語誤りデータ}表5に示すように,複合語正解データに含まれる不確定単語をその同音異義語で置き換えることによって複合語誤りデータ(データ3)を作成した.元とした複合語正解データは評価実験1で用いた教科書から抽出した複合語正解データ(データ1)である.\end{description}\subsection{実験方法}\subsubsection{正解/誤りの判定}2文字連鎖辞書を用いる場合,不確定単語が複合語の先頭にあるときには,その不確定単語の末尾1文字とその後方隣接単語の先頭1文字とから2文字連鎖を作成する.不確定単語が複合語の末尾にあるときにはその不確定単語の先頭1文字とその前方隣接単語の末尾1文字とから2文字連鎖を作成する.そして,これらの2文字連鎖をキーとして2文字連鎖辞書を検索する.また,3文字連鎖辞書を用いる場合,不確定単語が複合語の先頭にあるときには,その不確定単語の末尾2文字とその後方隣接単語の先頭1文字とから3文字連鎖を作成する.不確定単語が複合語の末尾にあるときにはその不確定単語の先頭2文字とその前方隣接単語の末尾1文字とから3文字連鎖を作成する.そして,これらの3文字連鎖をキーとして3文字連鎖辞書を検索する.検索の結果,前記の2(または3)文字連鎖が存在すれば不確定単語は正しく使用されている(正解)と判定し,存在しない場合には同音異義語誤りであると判定する.なお,不確定単語が複合語の中間に位置するときには,両方の2(または3)文字連鎖を調べ,どちらか一方でも2(または3)文字連鎖辞書に存在すれば正解と判定する.\subsubsection{実験結果を評価するための指標}本論文では,実験結果を以下の2つの指標を用いて表現する.\begin{description}\item{(1)正解指摘率:}正解語を正しいと指摘できる能力を示す指標;評価実験1の結果を表すのに用いる.\[○正解指摘率=\frac{正解と判定できた件数}{正解データの全件数}\]\item{(2)誤り検出率:}誤り語を誤りとして検出できる能力を示す指標;評価実験2の結果を表すのに用いる.\[○誤り検出率=\frac{誤りとして検出した件数}{誤りデータの全件数}\]\end{description}\subsubsection{実験結果}評価実験1,評価実験2の結果を表6および図5,図6に示す.\noindent{\bf○評価実験1の結果}\indent表6および図5,図6より以下のことが分かる;\begin{description}\item{(1)}2文字連鎖辞書を用いた場合には,3文字連鎖辞書を用いた場合に比較して正解指摘率は6〜15\%程度高い.また,この差は辞書サイズが大きくなるにつれて小さくなる.\item{(2)}正解指摘率は辞書の大きさに依存して,2文字連鎖辞書を用いた場合には40〜83\%の間で,3文字連鎖辞書を用いた場合には27〜77\%の間で大幅に変動しているが,辞書サイズを大きくするにつれて正解指摘率は向上する.\item{(3)}文字連鎖辞書と同一の分野である新聞記事を対象とした場合(データ2)の方が,教科書を対象とした場合(データ1)に比較して15〜30\%程度高い値を示しており,誤り検出における分野依存性が見られる.\item{(4)}誤り検出知識である文字連鎖を収集する分野と同一分野の文書を対象とすると,3文字連鎖辞書3の場合で正解指摘率=77\%となり,意味的制約を用いた手法~\cite{Oku1996}と同等の能力を有している.\item{(5)}文字連鎖辞書1を用いた場合と文字連鎖辞書2を用いた場合とを比較すると,2文字連鎖,3文字連鎖ともに文字連鎖辞書2を用いた場合の方が高い正解指摘率を示している.このことは,既存の文書に1回でもその文字連鎖が現れれば正解とすべきであることを示している\footnote{文字連鎖辞書1と文字連鎖辞書2とは同じ量の新聞記事から作成した(表3参照).異なるのは文字連鎖辞書1が2回以上現れた文字連鎖のみをカウントしているのに対して,文字連鎖辞書2は1度でも現れた文字連鎖をカウントしている点のみである.}.\end{description}\noindent{\bf○評価実験2の結果}\smallskip\indent評価実験2の結果を示した表6および図5,図6より以下のことが分かる;\begin{description}\item{(1)}3文字連鎖辞書を用いた場合には,2文字連鎖辞書を用いた場合に比較して誤り検出率は21〜34\%程度高い.また,この差は辞書サイズが大きくなるほど,大きくなっている.すなわち,2文字連鎖辞書を用いた場合には,辞書サイズが大きくなるほど誤り検出率が急激に悪くなることを示している.\item{(2)}誤り検出率は辞書の大きさに依存して,2文字連鎖辞書を用いた場合には60〜78\%の間で,3文字連鎖辞書を用いた場合には94〜99\%の間で変動しているが,辞書サイズを大きくするにつれて誤り検出率は徐々に減少する.また,この減少割合は正解指摘率の増加割合に比較して緩やかである.\item{(3)}データ3は教科書から作成したものであり,文字連鎖辞書を作成した分野(新聞記事)とは異なる.しかし,分野が異なるにも関わらず,どの3文字連鎖辞書でも90\%以上の誤り検出率が得られている.\end{description}\begin{figure}[htbp]\begin{center}\epsfile{file=table6.eps,scale=0.7}\end{center}\vspace{-4mm}\end{figure}\subsubsection{考察}\noindent{\bf○文字連鎖を用いた複合語同音異義語誤り検出手法のポテンシャル}\smallskip\indent上記の結果から,2文字連鎖辞書を用いた場合には,3文字連鎖辞書を用いた場合に比較して,正解指摘率が高く,誤り検出率が低いことが分かる.推敲支援という目的を考えれば,2文字連鎖辞書を用いた場合の誤り検出率が60〜78\%というのは低すぎると考えられる.これに対して3文字連鎖辞書を用いた場合には辞書サイズにかかわらず,90\%以上の誤り検出率が得られている.また,正解指摘率で見た場合,確かに2文字連鎖辞書を用いた方が3文字連鎖辞書を用いた場合に比べて高い値を示しているが,辞書サイズを大きくするとその差は6\%程度と非常に小さくなる.すなわち,推敲支援という目的に使用するには,2文字連鎖よりも3文字連鎖を誤り検出知識として用いる方がよいと言える.\begin{figure}\begin{center}\epsfile{file=fig5.eps,scale=0.7}\end{center}\vspace*{-2mm}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig6.eps,scale=0.7}\end{center}\end{figure}3文字連鎖辞書による検定の方が2文字連鎖辞書による検定よりも優れている理由の1つとして次のことが考えられる.多くの単語は2文字(特に2漢字)から構成されているため,3文字連鎖はこれらの単語とその前後1文字との連鎖を表すことになる.すなわち,単語そのものとその前後の文字との連鎖として3文字連鎖を近似的にとらえることができるためである.従って,さらに文字連鎖の長さを長くしても,必要な連鎖を集める文書量が大幅に増えるだけで,誤り検出率や正解指摘率の向上はあまり望めないと考えられる.次に3文字連鎖辞書を用いた場合,意味的制約を用いた複合語同音異義語誤りの検出手法と同程度の精度となる,誤り検出率90\%,正解指摘率70\%のときの辞書サイズの概算を行う.図6の誤り検出率と正解指摘率を簡単に直線近似すると,求める辞書サイズは約250万件となる.概算すると1年分の新聞記事から3文字連鎖辞書を作成すればこの辞書サイズを得ることができる.3文字連鎖の収集の容易さから考えて,1年分の新聞記事から辞書を作成することは,実現性の上からも問題はない.すなわち,3文字連鎖辞書を用いた複合語同音異義語誤り検出手法によって,意味的制約を用いたそれと同程度の精度を実現することが可能であろうと推定できる.以上のことから,3文字連鎖辞書を誤り検出の知識として用いれば,誤り検出率90\%以上が得られ,しかも,3文字連鎖辞書と検定対象データとが同一の分野であれば,正解指摘率も70\%以上と高い値を示す.また,意味的制約を用いた複合語同音異義語誤りの検出手法と同程度の精度を得ることも可能であると予測される.すなわち,本論文で提案した文字連鎖を用いた複合語同音異義語誤りの検出手法は,検定対象の文書の分野を限定し,その分野において3文字連鎖辞書を収集することによって,日本文推敲支援システムにおける複合語同音異義語誤りの検出手法として十分に利用することが可能であると言える.\clearpage\noindent{\bf○日本文推敲支援システムへの適用形態}\smallskip\indent表7に本手法と意味的制約を用いた手法との長所と短所を示す.意味的制約を用いた手法は高精度の同音異義語誤りの検出と訂正候補の提示が可能であり,分野依存性が小さい反面,意味的制約辞書すなわち誤りを検出するための知識の収集が容易ではない.これに対して,本論文で提案した手法において誤り検出知識として利用する3文字連鎖は,既存の文書から容易に収集することができる.従って,日本文推敲支援システムにおいては,高頻度の同音異義語誤りに対しては意味的制約を用いた手法により検出/訂正支援を行い,それ以外の幅広い範囲の同音異義語誤りに対しては本論文で述べた3文字連鎖を用いた手法によって誤りを検出するといった,両手法を統合した利用形態が望ましいと考えられる.\begin{figure}\begin{center}\epsfile{file=table7.eps,scale=0.7}\end{center}\end{figure}
\section{むすび}
本論文では誤り検出知識として文字連鎖を用いた複合語同音異義語誤りの検出手法について述べた.評価実験の結果,3文字連鎖辞書を誤り検出知識として用いれば,分野依存性はあるものの,3文字連鎖を収集した分野と同一の分野に属する文書に対しては,誤り検出率90\%以上,正解指摘率70\%以上の値が得られた.このことは,本論文で提案した文字連鎖を用いた複合語同音異義語誤りの検出手法は,検定対象の文書の分野を限定し,その分野において3文字連鎖辞書を収集することによって,日本文推敲支援システムにおける複合語同音異義語誤りの検出手法として十分に利用することが可能であることを示している.本論文では3文字連鎖によって複合語同音異義語誤りの検出が高精度で可能であることを述べたが,3文字連鎖を用いれば,他の種類の誤り,例えば文字脱落を検出することも可能である~\cite{MatsuokaAndTakagi1989}.\acknowledgment本研究の遂行にあたり,有益な討論,助言を頂いた高木伸一郎氏,島崎勝美氏の両氏に深謝致します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{奥雅博}{1982年大阪府立大学工学部電子工学科卒業.1984年同大学院博士前期課程修了.同年,日本電信電話公社(現NTT)入社.現在,NTT情報通信研究所主任研究員.自然言語処理の研究実用化に従事.慣用表現,比喩などの非標準的な言語現象に興味を持つ.情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{松岡浩司}{1979年九州大学電子工学科卒業.同年,日本電信電話公社(現NTT)入社.現在,NTT情報通信研究所主任研究員.自然言語処理の研究実用化に従事.推敲支援、音声合成などの形態素解析を応用したシステムに興味を持つ.情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V24N02-04
|
\section{はじめに}
近年Twitter等を代表とするマイクロブログが普及し,個人によって書かれたテキストを対象とした評判分析や要望抽出,興味推定に基づく情報提供など個人単位のマーケティングのニーズが高まっている.一方このようなマイクロブログ上のテキストでは口語調や小文字化,長音化,ひらがな化,カタカナ化など新聞等で用いられる標準的な表記から逸脱した崩れた表記(以下崩れ表記と呼ぶ)が多く出現し,新聞等の標準的な日本語に比べ形態素解析誤りが増加する.これらの崩れ表記に対し,辞書に存在する語にマッピングできるように入力表記を正規化して解析を行うという表記正規化の概念に基づく解析が複数提案され,有効性が確認されている\cite{Han2011,Han2012,liu2012}.日本語における表記正規化と形態素解析手法としては,大きく(1)ルールにもとづいて入力文字列の正規化候補を列挙しながら辞書引きを行う方法\cite{sasano-kurohashi-okumura2013IJCNLP,oka:2013,katsuki:2011},(2)あらかじめ定めた崩れ表記に対し,適切な重みを推定するモデルを定義し,そのモデルを用いて解析を行う方法(KajiandKitsuregawa2014;工藤,市川,Talbot,賀沢2012)が存在する.\nocite{kaji-kitsuregawa:2014:EMNLP2014,kudo:2012}(1)では事前に定めた文字列レベルの正規化パタンに基づいて崩れた文字列に対し正規文字列を展開しながら解析するシンプルな方法が提案されている.(2)においては鍜治ら\cite{kaji-kitsuregawa:2014:EMNLP2014}は形態素正解データから識別モデルを学習し,崩れ表記を精度よく解析する方法を提案した.工藤ら\cite{kudo:2012}は崩れ表記の中でもひらがな化された語に着目し,教師なしでひらがな語の生成確率を求める手法を提案した.(1),(2)いずれの手法においても,崩れ表記からの正規表記列挙に関しては人手によるルールやひらがな化などの自明な変換を用いているが,実際にWeb上で発生する崩れ表記は多様でありこれらの多様な候補も考慮するためには実際の崩れ表記を収集したデータを用いて正規化形態素解析に導入することが有効と考えられる.本研究では,基本的には従来法\cite{katsuki:2011,oka:2013}と同様の文字列正規化パタン(「ぅ→う」)等を用いて辞書引きを拡張するという考え方を用いるが,文字列正規化パタンを人手で作成するのではなく,正規表記と崩れ表記のアノテーションデータから自動的に推定される文字列アライメントから統計的に求める.また,文字列正規化パタンと,ひらがな化・カタカナ化などの異文字種展開を組み合わせることによって正規化の再現率を向上させる.さらに,今回の手法では可能性のある多数の正規化文字列を列挙するため,不要な候補も多く生成される.これらの不要な候補が解析結果に悪影響を及ぼさないようにするため,識別学習を用いて文字列正規化素性や文字種正規化素性,正規語言語モデルなどの多様な素性を考慮することにより,崩れ表記の正規化解析における再現率と精度の双方の向上を試みる.本研究の対象範囲は,音的な類似という点で特定のパタンが存在すると考えられる口語調の崩れ表記や,異表記(小文字化,同音異表記,ひらがな化,カタカナ化)とした.これらを対象とした理由は,\cite{saito-EtAl:2014:Coling,kaji-kitsuregawa:2014:EMNLP2014}などでも示されているように,音的な類似性のある崩れ表記が全体の中で占める割合が大きいとともに今回の提案手法で統一的に表現できる現象であったためである.
\section{関連研究}
日本語の正規化と形態素解析に関する研究は先に述べたように大きく2つ存在する.文字列正規パタンに基づいて入力文を動的に展開しながら解析する笹野らの手法\cite{sasano-kurohashi-okumura2013IJCNLP}では,小文字→大文字,長音→母音,促音→削除などのシンプルな正規化パタンを用いている.例えば,「すっごーい」という入力文に対し,促音と長音を削除した「すごい」も辞書引きの候補とする方法である.この手法はシンプルでありながら結果の有効性が示されているが,パタンは人手で作成され変換コストも一定値が用いられている.Web上には多様な表記揺れバリエーションが存在し,人手でカバーできる範囲には限界がある.また崩れ表記には生起しやすいパタンと生起しにくいパタンが存在するため,変換ルールを増やして精度を向上させる場合にはそれらの生起しやすさを適切に考慮する必要がある.コストを適切に推定する,という観点では,鍜治ら\cite{kaji-kitsuregawa:2014:EMNLP2014},工藤ら\cite{kudo:2012}がそれぞれ教師あり学習の手法,教師なし学習の手法を示しており有効性が確認されているが,いずれも正規化パタンについては人手で設定しており,正規化パタンのバリエーションを拡張する検討はなされていない.これらの手法においても,どのように正規化パタンそのものを増やすかという問題はより高精度な正規化解析において検討すべき重要な課題である.また,崩れ表記のカバー率を増やすと同時に,正規化によるデグレードをできるだけ抑制することも形態素解析においては重要な観点となる.本研究では,正規化パタンのカバー率を向上させるため,Web上から崩れ表記を収集し各崩れ表記に対し正規表記をアノテーションしたペアデータを用いて文字列レベルの正規化パタンとその生起確率を計算する.そして,これらのパタンを用いて崩れ表記に対応する正規化候補を形態素ラティス内に拡張し正規語も含めた正解系列を推定することにより,崩れ表記の正規化解析における再現率と精度の双方の向上を試みる.
\section{提案手法}
\subsection{提案手法の全体像}本研究の全体構成を図\ref{fig:systemall}に示す.我々の提案手法は,まずWeb上から収集した崩れ表記に対し,正規表記のアノテーションを施したペアデータから自動的に文字列正規化パタンを抽出する.そして,その文字列正規化パタンに基づき辞書語の拡張を行い解析を行う.辞書語の拡張においては,計算量削減のため事前に展開可能なものは事前に正規化辞書として展開を行い,動的照合が必要なものに関しては入力文に対して動的に文字列を拡張させながら辞書引きを行うことで実現する.デコーディングに際しては,複数の素性を用いた識別モデルを用いて最適な表記,正規表記,品詞系列を選択する.以下,それぞれに関して詳細を記述する.\begin{figure}[t]\begin{center}\includegraphics{24-2ia4f1.eps}\end{center}\caption{提案手法の全体構成}\label{fig:systemall}\end{figure}\subsection{崩れ表記と正規表記の文字列アライメント}本研究では,文字列正規化パタンとその生起しやすさを推定するため,正規‐崩れ表記の正解ペアデータを用いる.英語における表記正規化の研究\cite{yang-eisenstein:2013:EMNLP}においては人手アノテーションをせずに単語区切りを利用して自動的に正規‐崩れ表記のペアを抽出する研究も存在するが,日本語の場合は単語区切りが不明であり,英語に対して提案されている手法を適用するのは困難なため正解データのアノテーションを行うこととした.正解ペアデータの作成に際しては,まず崩れ表記を含むテキスト(ブログやTwitter)から崩れ表記(例:おぃしーぃ)を人手で抽出する.そして,抽出した崩れ表記に対して人手で正規表記を付与する(おぃしーぃ→おいしい).正解ペアの例を表1に示す.\begin{table}[t]\caption{崩れ表記抽出と正規表記付与の例}\input{04table01.txt}\end{table}これらのペアデータ(おぃしーぃ,おいしい)から文字列アライメントの推定に基づき文字列レベルの正規化パタンを統計的に抽出する(例:ー→null,ぃ→い).本研究では,複数文字列のアライメントが扱えるJiampojamarnらの研究\cite{jiampojamarn-kondrak-sherif:2007:main}を参考に,ペア文字列間の最適系列を下記のように定式化する.\begin{equation}\mathbf{\hat{q}}=\argmax_{\mathbf{q}\inK(d)}\prod_{q\in\mathbf{q}}p(q)\end{equation}ここで,$d$は崩れ表記と正規表記のペアを表す変数である(例:かなぁーり,かなり).$q$は$d$中の部分文字列アライメントを表し(``なぁー,な''など),{\bfq}は$d$中のアライメント$q$の系列を表す(例えば図\ref{fig:dpmatch}中の経路1の部分文字列アライメント系列\{(``かな,かな''),(``ぁー,null''),(``り,り'')\}.$K(d)$は,$d$における部分文字列アライメント系列{\bfq}の可能な集合を表す.本研究では,$p(q)$を\cite{Bisani:2008}や\cite{kubo2011unconstrained}によって提案されたEMアルゴリズムを用いて求める.$p(q)$は下記の式(2)によって定められる.\begin{align}p(q)&=\frac{\gamma(q)}{{\displaystyle\sum_{q'\inQ}}\gamma(q')}\label{eq:Estep}\\\gamma(q)&=\sum_{d\inD}\sum_{\mathbf{q}\inK(d)}p(\mathbf{q}){\displaystyle\sum_{\barq\in\mathbf{q}}}\delta(\barq=q)=\sum_{d\inD}\sum_{\mathbf{q}\inK(d)}\frac{{\displaystyle\prod_{q'\in\mathbf{q}}}{\barp(q')}}{{\displaystyle\sum_{\mathbf{q'}\inK(d)}}{\displaystyle\prod_{q'\in\mathbf{q'}}{\barp(q')}}}{\displaystyle\sum_{\barq\in\mathbf{q}}}\delta(\barq=q),\nonumber\end{align}ここで,$D$は$d$の集合,$Q$は$q$の集合を表す.また,$\delta(\barq=q)$は$\barq=q$のときに1となる変数であり,${\displaystyle\sum_{\barq\in\mathbf{q}}}\delta(\barq=q)$は$\mathbf{q}$における$q$の出現数を表す.${\barp(q)}$は下記で示す繰り返し計算ステップにおける,前回の$p(q)$の計算結果を表す.部分文字列に関しては,崩れ表記の正規化においてできるだけ単語間で共通して起こる短い文字列のパタンを抽出したいという目的から,6文字以下のみのパタンを考慮することとした.また,本研究では,$K(d)$としてn-best解を用いた.\begin{enumerate}\itemstep1:初期値設定\\EMアルゴリズムを用いた推定は初期値に大きく影響されるため,初期値としてまずあらかじめ定めたコストに基づいてアライメントを行い,その後式(2)に従ってアライメントを求めた.初期値として,同じ文字同士と同じ文字同士のひらがな・カタカナ変換(あ-ア,オ-お,など)の1文字変換のコストを0とし,複数文字アライメントに関しては文字列$a$,$b$の文字長$l_a$,$l_b$を用いて$l_a$+$l_b$をアライメントのコストとした.ただし,同じ文字同士の複数文字のアライメントに関するコストは0とした(例:い-いいい).これらの設定は,同じ文字同士のアライメント確率が高くなるような事前知識として導入した.\itemstep2:期待値の計算\\現在の確率値${\barp(q)}$を用いて,各アライメント$q$の期待出現回数$\gamma(q)$を計算する.\itemstep3:経路確率とアライメントの計算\\step2で求めた$\gamma(q)$を用いて,各アライメントの確率値$p(q)$を更新する.\itemstep4:繰り返し\\アライメントが収束するまでstep2,3を繰り返す.\end{enumerate}アライメントの具体例を図\ref{fig:dpmatch}に示す.\begin{figure}[t]\begin{center}\includegraphics{24-2ia4f2.eps}\end{center}\caption{正規表記と崩れ表記の文字列アライメント計算例}\label{fig:dpmatch}\end{figure}また,アライメントモデルからは非常に出現頻度が低い文字列正規化パタンも抽出されるため,抽出されたアライメントから正規化形態素解析に用いる文字列正規化パタンをフィルタリングした.フィルタに際しては,$\gamma(q)$と$r(q)$を閾値として用いた.ここで,$q=(c_w,c_v)$とし,$c_w$を抽出された文字列正規化パタンにおける崩れ表記の部分文字列,$c_v$を正規表記の部分文字列と表すと,$r(c_w,c_v)$は$r(c_w,c_v)=\gamma(q)/n_{c_w}.$として計算した.ここで,$n_{c_w}$は$c_w$が学習コーパス中に出現する総出現数である.今回は,$\gamma_{\rmthres}=0.5$,$r_{\rmthres}=0.0001$として閾値を設定し,$\gamma(q)<\gamma_{\rmthres}$または$r(c_w,c_v)<r_{\rmthres}$の場合は削除した.また,$r(c_w,c_v)$は3.5.2で述べる識別モデルの素性の一つとしても使用した.\subsection{文字列正規化パタンと文字種変換を用いた基本辞書の拡張}前項で示した文字列正規化パタンを形態素解析に組み込むにあたり,計算の効率化のため事前展開可能な候補についてはあらかじめ基本辞書に存在する辞書語に対し文字列変換を行って正規化辞書として事前展開する.ここで,基本辞書とは一般に配布されている形態素解析用の辞書のことを指す.具体的には,得られた文字列正規化パタンのうち,正規文字列の削除・置換パタンに関してはあらかじめ基本辞書の文字列を変換して崩れ表記化を行い,正規化辞書を作成した.崩れ文字列の挿入に関しては,正規単語のあらゆる箇所に挿入されることが考えられ,すべてのパタンを事前展開することは非効率的であるため,動的展開の文字列パタンとして用いた.さらに,Twitterなどのテキストでは,標準的な表記が漢字やカタカナの単語に関してひらがな表記される,あるいは標準的な表記が漢字やひらがなの単語がカタカナで表記される場合が多く存在する.これらの現象に関しては文字列正規化パタンから文字列単位で候補生成を行うことは非効率であるため,基本辞書の読みを利用して辞書を拡張する.これらを文字種正規化候補と呼ぶ.学習データが大量に存在すれば,このような文字種変換についても文字列正規化パタンとして獲得することが可能であるが,人手で作成する正解データの量は限られるため,あらゆる文字種変換を文字列レベルで効率よくカバーすることは難しい.文字列正規化候補展開と文字種正規化候補展開を組み合わせることで,「カワィィ」→「かわいい」,「かぅんたー」→「カウンター」といった文字列アライメントだけではカバーできないより複雑な崩れ表記に対する正規化候補の展開も行うことが可能になる.\begin{table}[b]\caption{文字列アライメントを用いた崩れ表記事前生成の例}\label{tab:seisei}\input{04table02.txt}\end{table}事前生成の具体的な手順としては,まず基本辞書から読み情報を利用して,読みのひらがな表記,カタカナ表記の生成を行った.この際,カタカナ表記の生成に関しては一文字目から順に部分的にカタカナ化した表記も生成した.例えば,``うれしい''という表記に対しては,``ウれしい'',``ウレしい'',``ウレシい'',``ウレシイ'',というパタンを生成した.その後,獲得した文字列正規化パタンを用いて,崩れ表記の生成を行った.表2に事前生成の例を示す.表2からもわかるように,文字種と文字列正規化の双方を用いて多様な候補を生成することができる.この崩れ表記を基本辞書に追加して正規化辞書として用いる.ここで,今回は辞書サイズが不要に大きくなることを避けるため,文字列変換を行う際のシードとする形態素について,Twitterテキストで計算した正規表記の出現頻度が閾値以上となる形態素に限定し,さらに1形態素内での文字列正規化パタンの適用による文字変換を2回までとした.これらの制約によって,動的にすべての候補を考慮する場合に比べカバー率が下がる可能性があるが,あらゆる候補を考慮すると形態素ラティスが非常に大きくなり計算時間が増大するため,現実的に出現しやすい崩れ表記を効率良く列挙するための制約として用いた.これらの事前生成の結果,756,463エントリの基本辞書が9,754,196エントリに拡張された.また動的照合のためのルール(崩れ文字削除候補)は105パタンであった.\subsection{形態素ラティス生成}形態素ラティスの生成は,文字列正規化の動的照合と前項で述べた正規化辞書,基本辞書を用いて行う.この際,「っ」と「ー」の連続に関しては1文字まで縮約させた文字列,母音の連続に関しては3文字まで縮約させた文字列も照合の対象とした.これらの文字列については,任意個の文字挿入がありえるため,意味が変わらない範囲で正規化可能な処理として定めた.次に,3.3で述べたように正規‐崩れ文字列アライメントモデルで抽出された文字列正規化パタンのうち,正規表記が空文字となるパタンについては動的に展開を行い,展開された文字列に対して基本辞書と正規化辞書による辞書引きを行って形態素ラティスを生成した.これにより,事前展開しきれなかった候補についても動的展開と組み合わせることでより多様な崩れ表記に対して正規の辞書表記を列挙することが可能になる.\subsection{識別モデルによる表記正規化と形態素解析の定式化}3.4節で示したように文字列や文字種を拡張して形態素ラティスを生成する場合,不要な候補も多く生成されるため既存の形態素コストや品詞連接コストをそのまま用いると解析誤りが増加するなどの悪影響が考えられる.精度を向上させるためには生成した形態素ラティスに対し適切な重み付けを行うことが必要となる.本研究では文字列や文字種といった多様な崩れ表記を対象としているため,多様な素性を柔軟に考慮することができる構造化パーセプトロン\cite{Collins:2002}を用いて表現することにする.\subsubsection{目的関数}本研究では,入力文$s$に対し正しい表出表記系列$\vector{w}=(w_1,w_2,\ldotsw_n)$,正規表記系列$\vector{v}=(v_1,v_2,\ldotsv_n)$,品詞系列$\vector{t}=(t_1,t_2,\ldotst_n)$を求める問題を考える.この問題は次のように定式化できる.\begin{equation}(\hat{\vector{w}},\hat{\vector{v}},\hat{\vector{t}})=\argmax_{(\vector{w},\vector{v},\vector{t})\inL(s)}\mathbf{w}\cdot\mathbf{f}(\vector{w},\vector{v},\vector{t})\end{equation}ここで$(\hat{\vector{w}},\hat{\vector{v}},\hat{\vector{t}})$は最適な系列,$L(s)$は入力文$s$に対し構築される形態素ラティス(各ノードは表出表記,正規表記,品詞の3つ組情報を持つ),$\mathbf{w}\cdot\mathbf{f}(\vector{w},\vector{v},\vector{t})$は重みベクトル$\mathbf{w}$と素性ベクトル$\mathbf{f}(\vector{w},\vector{v},\vector{t})$の内積を表す.最適系列は$\mathbf{w}\cdot\mathbf{f}(\vector{w},\vector{v},\vector{t})$の値にしたがって選択される.\subsubsection{素性}表3に本研究で使用した素性の一覧を示した.このうち,品詞連接素性$h(t_{i-1},t_i)$,正規語素性$h(w_i,t_i)$はMeCabで提供されている品詞連接コスト,形態素コストの推定値を用いた.ここで,$t_i$は$i$番目の品詞,$w_i$は$i$番目の単語を表す.正規語bi-gram素性$-\logp(w_i,t_i|w_{i-1},t_{i-1})$は新聞,ブログの形態素正解が付与されていないラベルなしコーパスの自動解析結果を用いて計算した.文字列正規化素性については,3.2節の文字列アライメントモデルで述べた値を用いている.文字列言語モデル素性は文字列正規化の妥当性を表す素性であり,文字列正規化前と後の文字n-gramを用いて計算する.ここで,$s_{trans}$,$s_{org}$はそれぞれ文字列正規化した後の文字列,正規化する前の元の文字列を表し,$p(s_{trans})$,$p(s_{org})$はTwitterテキストから計算した文字5-gramモデルを用いて計算する.$c_j$は対象となる文字列の$j$文字目を表す.本研究では,不要な候補の増大を防ぐためラティス生成時に本素性を閾値として用い,形態素ラティスに追加する正規化候補をフィルタリングした.閾値は$\logp(s_{trans})-\logp(s_{org})$$\geq-1.5$と定めた.ここで,$\phi_{trans_i}$,$\phi_{h_i}$,$\phi_{k_i}$はそれぞれ,注目ノード$i$が文字列正規化を用いて生成されたノード,ひらがな変換を用いて生成されたノード,カタカナ変換を用いて生成されたノードである場合に1,それ以外の場合は0となる変数である.変換処理を施したノードにのみに追加的にコストを付加することによってデグレードを抑える目的でこのような素性設計を行った.ひらがな正規化素性$\phi_{h_i}$とカタカナ正規化素性$\phi_{k_i}$については,それぞれ辞書からひらがな化,カタカナ化により生成したエントリに対して適用される素性である.\begin{table}[b]\caption{素性リスト}\input{04table03.txt}\end{table}崩れ形態素素性は,着目ノードが文字列変換を行って生成されたノードである場合に適用されるノードごとの素性である.この素性は,現在の着目ノードにおける表出表記,正規表記,品詞の組み合わせが$(w_i,v_i,t_i)=(w,v,t)$のときに1,それ以外に0となるバイナリ変数である.ただし,$w\inW$,$v\inV$,$t\inT$であり,$W$は全表出表記の集合,$V$は全正規表記の集合,$T$は全品詞の集合を表す.本素性では表出表記$w$,正規表記$v$,品詞$t$の組み合わせ数分のバイナリ素性を扱うため,組み合わせごとに異なるコストを付加することが可能となる.\subsubsection{学習}パラメータ推定は,平均化パーセプトロン学習に基づいて行う.平均化パーセプトロンでは,正解系列$(\vector{w}^\ast,\vector{v}^\ast,\vector{t}^\ast)$が付与されたN個の文が与えられたとき,現在のパラメータ$\mathbf{w}^i$に基づいて一文ずつ最適解$(\hat{\vector{w}},\hat{\vector{v}},\hat{\vector{t}})$を求め,もしこの系列が正解と異なる場合は次式で重みパラメータ$\mathbf{w}^{i+1}$を更新する.\begin{equation}\mathbf{w}^{i+1}=\mathbf{w}^{i}+\mathbf{f}(\vector{w}^\ast,\vector{v}^\ast,\vector{t}^\ast)-\mathbf{f}(\hat{\vector{w}},\hat{\vector{v}},\hat{\vector{t}})\end{equation}もし現在のパラメータに基づいて出力された最適解が正解と一致する場合にはパラメータの更新を行わない.最後に,文数と繰り返し回数の積で平均化した重みパラメータを計算する.\cite{Collins:2002}
\section{実験}
\subsection{実験データと文字アライメント結果}\label{sec:result}文字列正規化パタン推定に使用したデータは2008年のブログ8,023文から抽出した正規‐崩れ表記9,603ペアと,2011〜2012年のTwitter4,805文から抽出した正規‐崩れ表記ペア3,610ペアである.本ペアデータを用いたアライメント計算の結果,得られた文字列正規化パタン数は3,127種類であった.表4に獲得された文字列正規化パタンの例を示す.「ない」や「たい」といった正規文字列に対しては特に多くのパタンが獲得できた.また,「ヴァ→バ」といった音の類似や「ぅ→う」(小文字化),「ー→う」(長音化)といった従来のルールベースで用いられている代表的なルールのほかにも,「もぉ→もう」,「っ→い」,「にゃ→な」,「ゎ→は」といった多様な崩れパタンが獲得できた.\begin{table}[t]\caption{獲得された文字列正規化パタン例}\label{tab:alignment}\input{04table04.txt}\end{table}形態素解析用識別モデルの素性として用いる正規語bi-gramモデルの構築には,ブログと新聞の形態素正解ラベルなしデータをMeCabを用いて自動解析した結果を使用した.また,形態素,正規語正解データはランダム抽出した2013〜2014年のTwitter4,280文に対してアノテーションを行い,そのうち1,000文をテストデータ,3,280文を学習データに使用した.テストデータ中の崩れ表記は308形態素存在した.また,基本辞書としてMeCab-IPA辞書を使用した.\subsection{評価方法と比較手法}本研究では,テストデータに対し下記の条件で評価を行った.\begin{enumerate}\itemMeCab-IPA辞書として提供されている辞書と品詞連接コスト,形態素コストを用いて解析した場合(辞書や文字列の拡張なし,以下通常解析と呼ぶ)\item正規化候補展開に関して文字列正規化の従来手法\cite{sasano2014}の小文字,長音に関するルール)を実装し,素性として品詞連接素性,正規語素性,文字列正規化素性(全候補で一定)を用いた場合.(以下,ルールベースと呼ぶ).文字列正規化素性の重みは学習データから決定した.\item提案手法(全てを実装した場合(all),文字列正規化候補展開を除いた場合,各素性を1つずつ取り除いた場合を比較)\end{enumerate}(1)に関しては,文字列や文字種の正規化を一切行わない,通常の形態素解析手法との比較を行うための,ベースラインとして比較した.(2)は人手で確認されているシンプルなルールで崩れ表記をどこまでカバーできるかを確認するために比較した.(3)に関しては,今回提案した正規化文字列による候補展開や識別モデルの素性がそれぞれ精度にどの程度影響を与えるかを比較するために行った.評価は,形態素解析の再現率と精度,F値を用いて行った.\subsection{実験結果}\subsubsection{形態素解析の結果}表\ref{tab:result_mrph}には形態素解析の精度評価を示した.この集計結果より,提案手法(all)が単語分割+品詞の精度で最も良い結果となっている.(1)の通常解析に比べ,単語区切り,単語区切り+品詞ともに約2ポイントの精度向上が確認できた.(2)の単純なルールを用いた場合と比較しても,約1.0ポイントの精度向上を確認した.また,ブートストラップ再サンプリング法でF値の検定を行ったところ,通常解析,ルールベースに比べ有意な差が確認できた($\mathrm{p}<0.01$).\begin{table}[t]\caption{テストデータにおける各手法の性能比較}\label{tab:result_mrph}\input{04table05.txt}\end{table}次に,今回提案した各素性の効果について考察する.文字列正規化を除いた場合,各素性を抜いた場合の比較より,単語+品詞の精度では提案手法(all)が最も良い結果となった.また,各素性値を抜いた実験の結果においても,崩れ形態素素性なしを除いては単語分割+品詞付与に関して提案手法(all)とそれ以外で有意な差が確認できた($\mathrm{p}<0.01$).特に,提案素性の中では文字列正規化素性を用いない場合最も精度が低下することが分かった.これより,文字列正規化素性の導入は過剰な正規化による解析悪化を抑制することができたと考えられる.他の条件に関しても提案手法が上回る結果となったが,文字列正規化素性に比べ影響は小さかった.特に文字列言語モデル素性については精度向上にほとんど影響がなかったが,これは今回の実験では計算量を減らすために,形態素ラティス生成時に文字列言語モデル素性で枝狩りを行ったため,その時点で当該素性の効果が反映されていると考えられる.また,単語分割のみ見ればひらがな・カタカナ正規化素性なしの精度がよいが,品詞も含めた精度ではすべて考慮した場合よりも精度が低い.これも,誤った正規化を行った結果単語分割は改善したが,品詞で悪影響が生じているといえる.これらの結果から,文字列,文字種などの多様な正規化候補を列挙し,かつ解析悪化を抑制しながら解析を行う場合,各正規化候補に対して適切なコストを付加することが重要であるということが明らかになった.\subsubsection{正規化に関する結果}\begin{table}[t]\caption{正規化候補列挙方法の違いによる正規化再現率の比較}\label{tab:rec_norm}\input{04table06.txt}\end{table}\begin{table}[t]\caption{正規化適合率の比較}\label{tab:prec_norm}\input{04table07.txt}\end{table}表\ref{tab:rec_norm}には,各正規化候補列挙手法のカバー率を確認するため,崩れ表記に限定した再現率比較を示した.提案手法は,ルールベースに比べ約2.2倍,文字列正規化なしに比べ約4倍の再現率を達成した.このことから,今回獲得した文字列正規化パタンが正規化の再現率向上への寄与が大きいことがわかる.一方で文字種正規化の影響も提案法で解析できた箇所全体の約25\%を占めているため,文字列正規化と文字種正規化を組み合わせることが再現率向上に有効であることがわかる.次に,表\ref{tab:prec_norm}に正規化の適合率を示す.表\ref{tab:prec_norm}の適合率(全体)とはシステムが正規化を行って出力した形態素のうち,表記,品詞,正規表記の全てが一致した形態素の数を表す.ここで,一致しなかった箇所が必ずしも解析悪化を起こしているとは限らないため,一致しなかった形態素のうち50箇所について,通常解析との比較を行い人手調査によって「悪化」と「その他」の内訳を分析した.ここで,悪化,その他の分類は笹野ら\cite{sasano2014}を参考とし,分割や品詞の優劣によって判断した.この結果,ルールベースの場合には不一致箇所における悪化の割合が8\%と副作用の割合が低いことがわかる.提案法においても,不一致箇所における悪化の割合が18\%とルールベースに比べて高くなっているものの,全体では改善が大きく上回っており副作用を抑制しながら解析を行えていることがわかる.提案法で悪化した例としては,たとえば「カープ/ねぇー(カープ/ない)」や,「うーん(うん)」などの誤った正規化が存在した.主に長音の削除や助詞・助動詞で副作用が数件見受けられ,このような例に関しては素性関数をより精緻にする,学習データを増やすなどして対応する必要があると考えられる.また,その他に分類されたものとしては下記(例1)〜(例3)のような例が存在した.\begin{itemize}\item(例1)通常解析:ふみ/づき,提案法:ふみづき(文月)\item(例2)通常解析:だい/き,提案法:だいき(大樹)\item(例3)通常解析:たら/ぁ/ー/いま/ぁ,提案法:たらぁーい(たらい)/まぁ\end{itemize}(例1),(例2)のように,主にもともと解析誤りを起こしていた部分に対し正規化を行った結果区切りや品詞が改善したものの正規表記が誤った例,(例3)のように,もともと間違っていた箇所に対し正規化を行った結果異なる誤り方をした例などが存在した.これらに関しては,固有名詞と崩れ表記を区別する仕組みや,崩れ表記の再現率をさらに上げる方法の検討が必要になると考えられる.\subsubsection{形態素解析結果の実例と考察}\begin{table}[b]\caption{システムの出力結果例}\label{tab:example}\input{04table08.txt}\end{table}表\ref{tab:example}には,提案システムの出力結果例を示す.``/''は単語区切りを表し,括弧内が正規表記を表す.太字で表している部分が解析が正解したもので,(1)〜(6)は提案手法によって解析が改善された例である.(7)は区切りが改善したが品詞・正規語が誤った例,(8),(9)は通常解析でも提案手法でも改善されなかった例,(10)は提案手法によって悪化した例を示している.(1)〜(6)の例から,提案手法によって文字種,文字列の多様な崩れ表記が解析できていることがわかる.(7)に示した例は,固有名詞などでいくつかみられた例であるが,固有名詞の文字列を正規化した表記が辞書に存在し,正規化によって区切りが改善したが,正規語が誤った例である.この例の他にも,ふみづき→文月,ヤスダ→安田など,入力表記の漢字表記が辞書に存在し区切りや品詞が改善したが,正解データにおいては固有名詞の正規表記は入力表記のままにしたため正規語の不一致が生じた例も多く見られた(表\ref{tab:prec_norm}における「その他」の分類).このような固有名詞については,正規表記を表記のままにするなどの処理を行うことで対応できると考えられる.(8)に示した例は,正解の候補展開ができなかった例(文字列正規化パタンが不足していた例)である.今回の手法では学習データ中に出現した文字列パタン以外の新しいパタンについては適応できないため,獲得したパタンからの類似パタン生成やアノテーションなしコーパスからの文字列正規化パタンの自動獲得などの手法を検討することで,このような誤りには対応できると考えられる.(9)の例に関しては,正解の系列は列挙できていたにも関わらず正しい系列を選択できなかった例である.このような例に関しては素性を工夫したり正解データを増強することで精度向上を図る必要がある.(10)に関してはデグレードしてしまった例である.この連接の場合,システムが推定した正規語系列の方が単語数が少なく正規語bigramからみても推定値は起こりやすい系列であるため,今回の目的関数や素性設計では推定値の方がもっともらしいと判断されてしまったと考えられる.この点に関しては,Twitterの単語連接の分布や単語ごとの崩れやすさの指標などを取り込む必要があると考えられる.\subsection{UniDic辞書との比較}IPA辞書以外で表記揺れに強い辞書としてUniDic(unidic-mecab)辞書\cite{Unidic}があげられる.本研究では,広く用いられている辞書のひとつとしてMeCab-IPA辞書を用いて実験を行ったが,UniDic辞書による崩れ表記のカバー率を調べるため,1)テストデータ中の崩れ表記100個についてUniDic辞書で正しく解析可能な割合,2)システムが正解した崩れ表記100個についてUniDicで正しく解析できる割合,の2つについて人手で調査を行った.1)では,崩れ表記全体のどの程度をカバーできるか,2)では,提案法で解析できる表記のうちどの程度をカバーできるかを確認した.結果を表\ref{tab:UniDic}に示す.\begin{table}[t]\caption{UniDic辞書を用いた場合の崩れ表記正解割合}\label{tab:UniDic}\input{04table09.txt}\end{table}表\ref{tab:UniDic}に示すように,UniDic辞書はすでに崩れた表記が辞書に含まれている場合も多く,半数以上は辞書でカバーできている.表\ref{tab:rec_norm}で示した提案法のカバー率と比較しても高い値を示していることから,崩れた文に対してベースラインとしてMeCab-IPA辞書よりも頑健に動作することがわかる.ただし,UniDicでも解析できない崩れ表記が44\%存在した.また,提案法で解析が改善した例におけるUniDicのカバー率は53\%であった.たとえば,「センパイ(先輩)」「予定/でーす(予定/です)」といった崩れ表記に関してはUniDic辞書,提案法の双方で正しく解析できた.一方,「さてーーーっ(さて)」「走っ/て/まふ(走っ/て/ます)」といった崩れ表記に関しては提案法では正しく解析できたがUniDicでは正しく解析できなかった.UniDicのみで解析できた例としては,「ファンデ(ファンデーション)」「スカし(すかし)/て」などが存在した.このことから,IPA辞書を用いた場合に比べ提案法による効果は限定的と考えられるものの,UniDicのような崩れた表記に頑健な辞書を用いた場合であってもあらゆる崩れ表記をカバーできているわけではなく,提案手法と組み合わせることで崩れ表記のカバー率をさらに向上させられる可能性があると考えられる.
\section{まとめと今後の課題}
本研究では,Web上から収集した崩れ‐正規表記のペアから文字列レベルの正規化パタンを学習し,抽出したパタンを形態素解析に導入することにより崩れた日本語の解析精度が向上することを確認した.実験結果から個々の文字列正規化パタンごとに異なる生起しやすさの指標を素性として用いることで解析精度が向上することがわかり,現実の分布を反映することで解析精度の向上と再現率の向上に有効であることが確認できた.また,文字種正規化を組み合わせることによる再現率向上の効果も大きく,全体の約25\%を占めていることも明らかになった.課題としては,未知語に対して過剰に正規化を行ってしまうこと,未知の文字列正規化パタンに対応するためには正規‐崩れのアノテーションコストが必要となること,文字列正規化パタンや文字種正規化パタンよりも細かいレベルの素性関数を取り入れることなどがあげられる.これらについては今後の課題として取り組む予定である.\acknowledgment本研究の一部は,The25thInternationalConferenceonComputationalLinguistics(COLING2014)で発表したものである(Saito,Sadamitsu,Asano,andMatsuo2014)\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bisani\BBA\Ney}{Bisani\BBA\Ney}{2008}]{Bisani:2008}Bisani,M.\BBACOMMA\\BBA\Ney,H.\BBOP2008\BBCP.\newblock\BBOQJoint-sequenceModelsforGrapheme-to-phonemeConversion.\BBCQ\\newblock{\BemSpeechCommunication},\mbox{\BPGS\434--451}.\bibitem[\protect\BCAY{Collins}{Collins}{2002}]{Collins:2002}Collins,M.\BBOP2002\BBCP.\newblock\BBOQDiscriminativeTrainingMethodsforHiddenMarkovModels:TheoryandExperimentswithPerceptronAlgorithms.\BBCQ\\newblockIn{\BemProceedingsofthe2002JointConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋}{伝\Jetal}{2007}]{Unidic}伝康晴\JBA小木曽智信\JBA小椋秀樹\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源—形態素解析用電子化辞書の開発とその応用(特集コーパス日本語学の射程).\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Han\BBA\Baldwin}{Han\BBA\Baldwin}{2011}]{Han2011}Han,B.\BBACOMMA\\BBA\Baldwin,T.\BBOP2011\BBCP.\newblock\BBOQLexicalNormalisationofShortTextMessages:MaknSensa\#Twitter.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\368--378}.\bibitem[\protect\BCAY{Han,Cook,\BBA\Baldwin}{Hanet~al.}{2012}]{Han2012}Han,B.,Cook,P.,\BBA\Baldwin,T.\BBOP2012\BBCP.\newblock\BBOQAutomaticallyConstructingaNormalisationDictionaryforMicroblogs.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\421--432}.\bibitem[\protect\BCAY{Jiampojamarn,Kondrak,\BBA\Sherif}{Jiampojamarnet~al.}{2007}]{jiampojamarn-kondrak-sherif:2007:main}Jiampojamarn,S.,Kondrak,G.,\BBA\Sherif,T.\BBOP2007\BBCP.\newblock\BBOQApplyingMany-to-ManyAlignmentsandHiddenMarkovModelstoLetter-to-PhonemeConversion.\BBCQ\\newblockIn{\BemProceedingsofthe2007ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\372--379}.\bibitem[\protect\BCAY{Kaji\BBA\Kitsuregawa}{Kaji\BBA\Kitsuregawa}{2014}]{kaji-kitsuregawa:2014:EMNLP2014}Kaji,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2014\BBCP.\newblock\BBOQAccurateWordSegmentationandPOSTaggingforJapaneseMicroblogs:CorpusAnnotationandJointModelingwithLexicalNormalization.\BBCQ\\newblockIn{\BemProceedingsofthe2014JointConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\99--109}.\bibitem[\protect\BCAY{勝木\JBA笹野\JBA河原\JBA黒橋}{勝木\Jetal}{2011}]{katsuki:2011}勝木健太\JBA笹野遼平\JBA河原大輔\JBA黒橋禎夫\BBOP2011\BBCP.\newblockWeb上の多彩な言語表現バリエーションに対応した頑健な形態素解析.\\newblock\Jem{言語処理学会年次大会講演集},\mbox{\BPGS\1003--1006}.\bibitem[\protect\BCAY{Kubo,Kawanami,Saruwatari,\BBA\Shikano}{Kuboet~al.}{2011}]{kubo2011unconstrained}Kubo,K.,Kawanami,H.,Saruwatari,H.,\BBA\Shikano,K.\BBOP2011\BBCP.\newblock\BBOQUnconstrainedMany-to-ManyAlignmentforAutomaticPronunciationAnnotation.\BBCQ\\newblockIn{\BemProceedingsofAPSIPAASC}.\bibitem[\protect\BCAY{工藤\JBA市川\JBA{DavidTalbot}\JBA賀沢}{工藤\Jetal}{2012}]{kudo:2012}工藤拓\JBA市川宙\JBA{DavidTalbot}\JBA賀沢秀人\BBOP2012\BBCP.\newblockWeb上のひらがな交じり文に頑健な形態素解析.\\newblock\Jem{言語処理学会年次大会講演集},\mbox{\BPGS\1272--1275}.\bibitem[\protect\BCAY{Li\BBA\Liu}{Li\BBA\Liu}{2012}]{liu2012}Li,C.\BBACOMMA\\BBA\Liu,Y.\BBOP2012\BBCP.\newblock\BBOQImprovingTextNormalizationusingCharacter-BlocksBasedModelsandSystemCombination.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1587--1602}.\bibitem[\protect\BCAY{岡\JBA小町\JBA小木曽\JBA松本}{岡\Jetal}{2013}]{oka:2013}岡照晃\JBA小町守\JBA小木曽智信\JBA松本裕治\BBOP2013\BBCP.\newblock表記のバリエーションを考慮した近代日本語の形態素解析.\\newblock\Jem{人工知能学会全国大会講演集},{\Bbf27},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{Saito,Sadamitsu,Asano,\BBA\Matsuo}{Saitoet~al.}{2014}]{saito-EtAl:2014:Coling}Saito,I.,Sadamitsu,K.,Asano,H.,\BBA\Matsuo,Y.\BBOP2014\BBCP.\newblock\BBOQMorphologicalAnalysisforJapaneseNoisyTextbasedonCharacter-levelandWord-levelNormalization.\BBCQ\\newblockIn{\BemProceedingsofthe25thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1773--1782}.\bibitem[\protect\BCAY{Sasano,Kurohashi,\BBA\Okumura}{Sasanoet~al.}{2013}]{sasano-kurohashi-okumura2013IJCNLP}Sasano,R.,Kurohashi,S.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQASimpleApproachtoUnknownWordProcessinginJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\162--170}.\bibitem[\protect\BCAY{笹野\JBA黒橋\JBA奥村}{笹野\Jetal}{2014}]{sasano2014}笹野遼平\JBA黒橋禎夫\JBA奥村学\BBOP2014\BBCP.\newblock日本語形態素解析における未知語処理の一手法—既知語から派生した表記と未知オノマトペの処理—.\\newblock\Jem{自然言語処理},{\Bbf21}(6),\mbox{\BPGS\1183--1205}.\bibitem[\protect\BCAY{Yang\BBA\Eisenstein}{Yang\BBA\Eisenstein}{2013}]{yang-eisenstein:2013:EMNLP}Yang,Y.\BBACOMMA\\BBA\Eisenstein,J.\BBOP2013\BBCP.\newblock\BBOQALog-LinearModelforUnsupervisedTextNormalization.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\61--72}.\end{thebibliography}\begin{biography}\bioauthor{斉藤いつみ}{2010年早稲田大学理工学部社会環境工学科卒業,2012年東京大学大学院工学系研究科博士前期課程修了.同年,日本電信電話株式会社入社.自然言語処理に関する研究開発に従事.現在,NTTメディアインテリジェンス研究所研究員,情報処理学会,言語処理学会各会員.}\bioauthor{貞光九月}{2004年筑波大・第三学群・情報学類卒.2009年同大大学院システム情報工学研究科コンピュータサイエンス専攻了.同年,日本電信電話株式会社入社.自然言語処理の研究開発に従事.現在,NTTメディアインテリジェンス研究所研究主任.言語処理学会会員.}\bioauthor{浅野久子}{1991年横浜国立大学工学部卒業.同年,日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所主幹研究員.自然言語処理に関する研究開発に従事.情報処理学会,言語処理学会各会員.}\bioauthor{松尾義博}{1988年大阪大学理学部卒業,1990年同大学大学院理学研究科博士前期課程修了.同年,日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所,音声言語メディアプロジェクト,音声・言語基盤技術グループリーダ.自然言語処理に関する研究開発に従事.情報処理学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
| |
V21N02-08
|
\section{はじめに}
述語項構造は,文章内に存在する述語と,その述語が表現する概念の構成要素となる複数の項との間の構造である.例えば次の文,\enumsentence{[太郎]は[手紙]を\underline{書い}た.}では,述語「書く」に対して,「太郎」と「手紙」がこの述語の項であるとされる.また,述語が表現する「書く」という概念の上でそれぞれの項の役割は区別される.役割を表すためのラベルは用途に応じて様々であるが,例えば,ここでの「太郎」には「ガ格」「動作主」「書き手」などのラベル,「手紙」には「ヲ格」「主題」「書かれる物」などのラベルが与えられる.このように,述語に関わる構成要素を構造的に整理する事によって,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解にとって重要な情報を抽出することができる.このため,述語項構造の解析は,機械翻訳,情報抽出,言い換え,含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている\cite{shen2007using,liu2010semantic}.述語項構造解析においても,近年,形態素解析や構文解析などで行われている方法と同様に,人手で作成した正解解析例をもとに統計的学習手法によって解析モデルを作成する方法が主流となっている\cite{marquez2008srl}.述語項構造を付与したコーパスとしては,日本語を対象にしたものでは,京都大学テキストコーパス(KTC)\cite{KUROHASHISadao:1997-06-24}の一部に付けられた格情報\cite{kawahara2002construction,河原大輔2002関係}やNAISTテキストコーパス(NTC)\cite{iida2007annotating,飯田龍2010述語項構造},GDAコーパス\cite{hashida05},解析済みブログコーパス(KyotoUniversityandNTTBlogCorpus:KNBC)\cite{橋本力2009},NTCの基準に従ってBCCWJコーパス(国立国語研究所)\nocite{bccwj}に述語項構造情報を付与したデータ(BCCWJ-PAS)\cite{komachi2011}などがあり,英語を対象にしたものでは,PropBank~\cite{palmer2005pba},FrameNet~\cite{Johnson2003},NomBank~\cite{meyers2004nombank},OntoNotes~\cite{hovy2006ontonotes}などが主要なコーパスとして挙げられる.過去十年間の述語項構造解析技術の開発は,まさにこれらのデータによって支えられてきたといって過言ではない.しかしながら,日本語の述語項構造コーパスは,その設計において未だ改善の余地を残す状況にあると言える.第一に,比較的高品質な述語項構造がアノテートされた英語のコーパスに比べて,日本語を対象とした述語項構造のアノテーションは,省略や格交替,二重主語構文などの現象の取り扱いのほか,対象述語に対してアノテートすべき項を列挙した格フレームと呼ばれる情報の不足などにより,作業者間のアノテーション作業の一致率に関して満足のいく結果が得られていない.例えば,現在ほとんどの研究で開発・評価に利用されているNTCに関して,飯田らは,作業者間一致率や作業結果の定性的な分析を踏まえれば,アノテーションガイドラインに少なからず改善の余地があるとしている\cite{飯田龍2010述語項構造}.また,我々は,述語項構造アノテーションの経験のない日本語母語話者一名を新たに作業者とし,KTC,NTCのアノテーションガイドラインを熟読の上で新たな日本語記事に対して述語項構造アノテーションを行ったが,KTC,NTCのどちらのガイドラインにおいても付与する位置やラベルを一意に決めることの出来ないケースが散見された.述語項構造のようにその他応用解析の基盤となる構造情報については,これに求められる一貫性の要求も高い.したがって,今後,述語項構造の分析や解析器の開発が高水準になるにつれて,既存のコーパスを対象とした学習・分析では十分な結果が得られなくなる可能性がある.そのような問題を防ぐためには,現状のアノテーションガイドラインにおいて判断の揺れとなる原因を洗い出し,ガイドラインを改善しつつ,アノテーションの一貫性を高めることで,学習・分析データとしての妥当性を高い水準で確保していく必要がある.第二に,より質の高いアノテーションを目指してガイドラインを改善することを考えた場合,それぞれの基準をどういった観点で採用したかが明確に見てとれるような,論理的で一貫したガイドラインが必要となるが,KTC,NTCなどの既存のアノテーションガイドライン\cite{ntcguideline,ktcguideline}や関連論文\cite{kawahara2002construction,河原大輔2002関係,iida2007annotating,飯田龍2010述語項構造}を参照しても,個々の判断基準の根拠が必ずしも明確には書かれていない.典型的に,アノテーションガイドラインの策定時に議論される内容はコーパス作成者の中で閉じた情報となることが多く,その方法論や根拠が明示的に示された論文は少ない.このため,付与すべき内容の詳細をどのように考えるかという,アノテーションそのものの研究が発展する機会が失われているという現状がある.また,KNBCやBCCWJ-PASのように既存のガイドラインに追従して作られるコーパスの場合,新規ドメインに合わせるなど一部仕様が再考されるものの,アノテーションの研究は一度おおまかにその方向性が決まってしまうと,再考するための情報の不足もあり,本質的に考えなければならない点が据え置かれ,さらに詳細が議論されることは稀である\footnote{公開されているガイドラインを確認する限りでは,KNBC作成時には格関係に関するガイドラインは再考されていない.BCCWJ-PASの仕様は,機能語相当表現の判別に辞書を用いる点と,ラベル付与の際に既存の格フレームを参照する点をのぞいて,NTCの仕様とおよそ同等である.}.そこで,本研究では,この二つの問題を解消するために,既存のコーパスのガイドラインにおける相違点や曖昧性の残る部分を洗い出し,どのような部分に,どのような理由で基準を設けなければならないかを議論し,その着眼点を明示的に示すことを試みた.具体的には,(i)既存のガイドラインに従って新たな文章群へあらためてアノテーションを行った結果に基づいて議論を行い,論点を整理したほか,(ii)新規アノテーションの作業者,既存の述語項構造コーパスの開発者,また既存の仕様に問題意識を持つ研究者を集め,それぞれの研究者・作業者が経験的に理解している知見を集約した.(iii)これらをふまえ,述語項構造に関するアノテーションをどう改善するべきか,どの点を吟味すべきかという各論とともに,アノテーション仕様を決める際の着眼点としてどのようなことを考えるべきかという議論も行った.本論文ではこれらの内容について,それぞれ報告する.次節以降では,まず,\ref{sec:related_work}~節で述語項構造アノテーションに関する先行研究を概観し,\ref{sec:ntc}節で今回特に比較対象としたNAISTテキストコーパスの述語項構造に関するアノテーションガイドラインを紹介する.\ref{sec:how-to-discuss}節で研究者・作業者が集まった際の人手分析の方法を説明し,\ref{sec:individual}~節で分析した事例を種類ごとに紹介する.さらに,\ref{sec:framework}~節で,述語項構造アノテーションを通じて考察した,アノテーションガイドライン策定時に考慮される設計の基本方針について報告し,\ref{sec:individual}~節で議論する内容との対応関係を示す.最後に\ref{sec:conclusion}~節でまとめと今後の課題を述べる.以降,本論文で用いる用語の意味を以下のように定義する.\begin{itemize}\itemアノテーション仕様:どのような対象に,どのような場合に,どのような情報を付与するかについての詳細な取り決め.\itemアノテーションスキーマ:アノテーションに利用するラベルセット,ラベルの属性値,及びラベル間の構造を規定した体系.アノテーション仕様の一部.\itemアノテーションフレームワーク:アノテーションにおいて管理される文章やデータベースの全体像,及びアノテーション全体をどのように管理するか,どのような手順で作業を行うかなどの運用上の取り決め.\itemアノテーションガイドライン:作業の手順や具体的なアノテーション例などを含み,実際のアノテーションの際に仕様の意図に従ったアノテーションをどのようにして実現するかを細かく指示する指南書.\itemアノテーション方式:特定のコーパスで採用される仕様,スキーマ,フレームワークのいずれか,もしくはその全体.\itemアノテーション基準:あるラベルやその属性値を付与,あるいは選択する際の判断基準.\itemアノテーション規則:アノテーション基準を守るべき規則として仕様やガイドラインの中に定めたもの.\end{itemize}
\section{関連研究}
\label{sec:related_work}述語項構造を解析したコーパスとしては,日本語文章に対するものに,京都大学テキストコーパス(KTC),NAISTテキストコーパス(NTC),GDAタグ付与コーパス(GDA),KTC準拠のアノテーションをブログ記事に対して行った解析済みブログコーパス(KyotoUniversityandNTTBlogCorpus:KNBC),日本語書き言葉均衡コーパス(BCCWJ)に対してNTC準拠のアノテーションを行ったコーパス(BCCWJ-PAS)などがある.英語を対象としたコーパスとしては,FrameNet,PropBank,NomBank,OntoNotesなどが主要なものとして挙げられる.特に,NTC,FrameNet,PropBank,NomBankなどは,比較的多くの文章事例を含むことから,これまでに,様々な解析器の学習データとして用いられてきた\cite{marquez2008srl,Yoshikawa2011,Iida2011,taira2008japanese}.\begin{table}[b]\caption{述語項構造コーパスの比較}\label{tbl:corpora}\input{ca12table01.txt}\end{table}表~\ref{tbl:corpora}に,各コーパスの特徴を示した.コーパス間の主な仕様の差としては,文書ドメイン,述語-項関係を表すラベル,格フレーム辞書の有無,文外の項に関する取り扱いの有無などが挙げられる.コーパスの文書ドメインは,従来,新聞記事を中心に整備されてきたが,係り受け解析等のその他の技術同様,教師あり学習によって開発された述語項構造解析器の精度が学習データの文書ドメインに依存するという結果\cite{Carreras:2005:ICS:1706543.1706571}から,近年は複数文書ドメインへのアノテーションが進みつつある(BCCWJ-PAS,KNBC,OntoNotesなど).述語-項関係ラベルとしては,文中の統語的なマーカーを関係ラベルに利用した表層格,項のより意味的な側面を取り扱った意味役割ラベル等のバリエーションがある\footnote{表~\ref{tbl:corpora}の表記では,述語-項の意味的な関係を規定するラベル全般を「意味役割」ラベルと表記したが,中でも格文法理論から派生し,少数のラベルを用いて述語横断的な項の統語/意味的な性質を表現する主題役割(thematicroles)については,特に区別して「主題役割」と表記した.}.既存のコーパスでは,英語のコーパスが意味役割を中心としたアノテーションを行ったのに対して,日本語では表層格を中心としたアノテーションが一般的である.この違いが現れた理由としては,言語による性質の違いと,それまでに作成された他のコーパスとの情報の差分の違い,という2点が挙げられる.日本語においては,項の省略が頻繁に起こるという性質のほか,副助詞「は」「も」等が使用されている場合や,連体修飾の関係にある場合など,KTCの文節単位の係り受け情報だけからでは表層的な格関係自体が自明でない場合があるため,述語とその項となる句の位置関係や表層的な格関係を明らかにすることが第一の目標とされた.一方で,英語の場合,項の省略のほとんどはto不定詞や関係節,疑問詞などの統語的な性質に基づいた移動によって説明でき,また,この移動には,句構造にもとづいて統語的アノテーションを行ったPennTreebankコーパス~\cite{marcus1993building,marcus1994penn}においてtraceというラベルを用いて述語項構造相当のアノテーションがなされており,実際の項の位置や,移動前における統語関係が既に明らかにされていたことから,述語が表現する概念におけるそれぞれの項の意味的な役割を表現するラベルをアノテートすることが次の段階の目標となったと考えられる.日本語の述語項構造アノテーションの主要なコーパスであるKTCとNTCでは,日本語の統語上の格関係マーカーである格助詞を関係ラベルとして利用している.KTCでは,述語が現れた時,その述語が伴っている助動詞・補助動詞等を含めた形(述部出現形)に対して用いる格助詞を利用して,項にラベルを付与する.\eenumsentence{\item$[太郎_{ガ}$]が[本$_{ヲ}$]を\underline{買う}。\item$[この本_{ヲ}$]は[太郎$_{ニ}$]に\underline{買ってほしい}。}上の例では,下線部が述語表現,[]括弧で囲まれた部分が項,その内部の下付き文字が格関係ラベルを表す.以降,特に断りのない限りは,例文での項構造はこのように表す.一方で,NTCでは,述語の原形に対して用いる格助詞を使ってラベルを付与する.\eenumsentence{\item$[太郎_{ガ}$]が[本$_{ヲ}$]を\underline{買う}。\item$[この本_{ヲ}$]は[太郎$_{ガ}$]に\underline{買っ}てほしい。}この方法は,使役・受身・願望など,格の交替が起こる表現の間で格のラベルを正規化することで,表層格に主題役割のようなより意味機能的な側面を持たせることを試みたものと捉えることができる.ただし,\ref{sec:ntc-case-ktc-case}節でも述べる通り,この二つについては他方には含まれない情報をそれぞれ持っており,どちらの方式がより適切かはアプリケーションによっても異なるため,一概に優劣を決めることは出来ない.述部出現形アノテーションにおける格交替の情報を補う研究として,自動的に収集された出現形の格フレームの間で格ラベルの交替がどのように起こるかを自動的に対応付ける研究\cite{sasano2013}も試みられている.英語に対する主要なコーパスでは,述語と項の間のより詳細な意味関係をとらえる「意味役割ラベル」が用いられる.これは,例えば,同じ意味機能を持った項が異なる統語関係として表れる統語的交替と呼ばれる現象に対して,それぞれの項に一貫した意味的役割を割り当てたり,Agent,Theme,Goalなどの主題役割(thematicroles)のように,項の述語横断的な意味機能を扱いたい場合に有用である.また,日本語でのアノテーションではあまり取り扱いのない,必須格と周辺格の区別についても扱っている.ただし,意味役割によるアノテーションスキーマでは項の役割を表すラベルの数が数十から数千という規模になり,意味の類似するラベルも多種存在するのが一般的であることから,ガイドラインにおいて類似ラベルの取り扱いを明確に区別したり,あるいは述語の語義ごとに格フレーム情報をあらかじめ作成し,各語義で項として取り得るラベルの選択肢を厳密に定めることによって曖昧な選択肢が生じないように工夫を行う必要がある.既に構築が完了している日本語のコーパスでは,唯一GDAが主題役割を取り扱っているが,アノテーション対象が文外のゼロ照応関係にある項に絞られており,述語項構造に見られる現象を網羅しているとは言い難い.NTCの表層格アノテーションでは,述語-項関係を述語が原形の場合の格関係に正規化するため,格助詞と述語とその語義の三つ組を考えれば,この三つ組は各述語の各語義に固有の意味役割を考えるPropBankやFrameNetとおよそ同等の意味表現となる.ただし,主題役割のような述語横断的な意味機能については考慮できない.一方で,近年では,日本語に対する新たな意味役割アノテーションの試みも進みつつある.現状では一致率や規模の問題から言語処理研究への実用レベルには至っていないものの,小規模な日本語文章への主題役割の試験的な付与例として,林部ら~\cite{hayashibe2012}やMatsubayashietal.~\cite{MATSUBAYASHI12.941}の研究が挙げられる.林部らの研究では,作業者間一致率がF値で67\%前後と低く,実用に至っていない.Matsubayashietal.の研究では,あらかじめ述語ごと,語義ごとの格フレームを用意するため必須格に対する一致率は$91\%$と高いが\footnote{Matsubayashietal.の研究では,文外の項に対するアノテーションを行っていない点に注意されたい.},アノテーションに必要となるフレーム辞書のサイズが未だ小さく,規模を拡充する必要がある.開発過程にある意味役割付与コーパスとして,BCCWJに対し,動詞項構造シソーラスを用いた意味役割アノテーションを行う研究~\cite{takeuchi2013}や,同じくBCCWJに対し,FrameNetと同様の理論的枠組を利用して意味フレームのアノテーションを行う研究\cite{ohara2013}などが進んでいる.英語のコーパスでは,それぞれの述語が取り得る格を列挙した格フレーム辞書と呼ばれる資源を構築するのが一般的な手法である.格フレーム辞書は,大規模な生コーパスの観察によりアノテーション作業に先立って構築される.アノテータは格フレーム辞書を参照しながら項構造の付与を行うことによりアノテーションの揺れを抑えることができるため,高い作業者間一致率を得ることができる.日本語の場合,英語に比べて項の省略が多く,また,英語のコーパスでは行っていない文をまたいだ項のアノテーションを行っているなど,アノテータが確認しなければならない領域が相対的に広いため,英語の場合との一致率の単純な比較は出来ないが,PropBankの項アノテーションに関する一致率は周辺格を含める場合でkappa値で0.91,含めない場合で0.93と極めて高い\cite{palmer2005pba}.また,含意関係認識タスクのためにFrameNet準拠のコーパスアノテーションを行った研究では,意味役割の付与に関する一致率が$91\%$であったとしている\cite{burchardt2008fate}.これに対して,明示的な格フレーム辞書を持たないNTCでは,一致率が$83\%$前後と相対的に低い.KTCでは,ガイドラインを安定化させた段階での格関係アノテーションの作業者間一致率を$85\%$と報告している\cite{河原大輔2002関係}.NTCの仕様に準拠する形でBCCWJに対するアノテーションを行った研究では,アノテータが既存の格フレーム辞書を参照しながら作業を行うことによって作業者間一致率に一定の改善を得ることが出来たとしている\cite{komachi2011}.日本語コーパスの初期のアノテーションにおいて,英語コーパスであらかじめ整備された格フレームが用いられなかった理由としては次の2点が挙げられる.第一に,英語のコーパスで行われた意味役割を用いたアノテーションでは,項のラベルとして統語機能的なラベルを用いず,純粋に項の持つ意味そのものを表現するラベルを用いたため,それぞれの述語が取る項の数やその意味役割を明示的に記述する必要があったのに対し,日本語の場合は格助詞を関係ラベルとして採用することで,ラベルセットが少数のラベルで規定されるので,明示的に述語ごとのラベルセットを列挙する必然性がなかったことが挙げられる.このため,初期のアノテーション作業として,格フレームを記述するためのコストとのバランスを考慮して,格フレームを用意せずに作業が進められたことはきわめて自然なことであった.第二に,日本語では項の省略が頻繁に起こるため,統語的な文構造の制約が強い英語の場合に比べて格フレームの分析が難解となっていることが挙げられる.日本語の述語に対して表層格の格フレーム情報を与える既存の言語資源としてはNTT語彙大系・構文体系の辞書\cite{nttlexicon}や計算機用日本語基本動詞辞書IPAL\cite{ipal},竹内らの動詞語彙概念辞書\cite{takeuchi2005},京都大学格フレーム\cite{kawahara2006case}などがあるが,いずれも異なった格フレームを与えており,またNTC開発における実際のアノテーション作業時には既存の格フレーム辞書では被覆されない格が出現するなどの問題があった.このため,日本語においては精緻な格フレーム辞書を構築する手段についても研究課題の一つとなっている.英語を対象としたコーパスにおいては,一般に,文をまたいだ項についての取り扱いがない.これは,日本語が項の省略を頻繁に伴うのに対して,英語における項の省略が比較的少ないことに由来する.しかし,英語の文章においても,イベント間の照応関係や推論的解釈により,同一文中には現れないが暗黙的に定まっている項があると解釈される場合もあるため,近年は,この問題を解消するための試みも研究されている\cite{laparra2013impar,frankpredicate,Silberer:2012:CIR:2387636.2387638}.また,多くのコーパスでは,名詞についてもその項構造が考慮されている.NTCでは,名詞のうち一般の述語で表されているような状態やイベントを表現するもの~\cite{noun2008}(本論文中では,これをイベント性名詞と呼ぶ)について,他の述語と同様に項構造を割り当てている.KTCやNomBankでは,イベント性名詞に加えて,ある名詞の意味解釈をするにあたってその名詞の意味の中に取り込まれていない別の何らかの概念との関係が必須であるもの,いわゆる非飽和名詞~\cite{nishiyama2003}についての項(\ref{enum:ktc-no-a})や,所有の関係,修飾の関係など,二つの名詞間に何らかの関係が成り立つ場合もラベル付与を行っている(\ref{enum:ktc-no-b})(\ref{enum:ktc-no-c}).\eenumsentence{\item$[米国_{ノ}$]の\underline{大統領}(KTC.「大統領」は非飽和名詞.「ノ格」のラベル付与)\label{enum:ktc-no-a}\item$[花子_{ノ?}$]の\underline{眼鏡}(KTC.非飽和名詞以外の関係.「ノ?格」のラベル付与)\label{enum:ktc-no-b}\itemthe[vice$_{ARG3}$][\underline{president}$_{ARG0}$]of[NorthAmericaoperations$_{ARG2}$](NomBank)\label{enum:ktc-no-c}}
\section{NAISTテキストコーパス}
\label{sec:ntc}我々は,可能な限り多くの現象を網羅した分析を行うという観点から,これまでに最も多くの文数にアノテーションが行われてきたNTCの仕様をベースとし,適時KTCとの対比を行いながら議論を進める方針とした.本節では,NTCのアノテーションガイドラインについて,本論文の理解に必要な範囲の内容を簡単に説明する.また,\ref{sec:ntc-iaa}~節では,NTCの作業者間一致率について,我々があらためて詳細に分析した結果を述べる.一般に日本語述語項構造アノテーションを行うにあたって同時に含まれる照応・共参照情報については,それ自体が難解な問題を多く含んでおり,加えて,種々の問題を包括的に考慮して議論を進めなければ解決は難しいと判断した.このため,照応・共参照アノテーションに対する考察・理論化は一つの大きな研究テーマに相当するものであると考え今後の課題とし,議論の対象外とした.\subsection{アノテーションガイドライン}\label{sec:ntc-guideline}ここでは,NTCのガイドラインについて,公開されているWebサイト\cite{ntcguideline}の情報を抜粋・再編集する形で概要を説明する.照応・共参照や名詞間関係に関わる部分については本論文での議論の対象外とするため説明を省略するが\footnote{NTCにおいて名詞間関係を表す「ノ」や「外の関係」はNTC1.5版に含まれておらず,付与事例が検証できなかったため,議論の対象外としている.},ガイドラインの全容についてはWebサイトを参照されたい.また,より詳細な内容については,必要に応じて\ref{sec:individual}~節での個別の議論の際に付け加える.ただし,同Webサイトの内容は,ガイドライン開発過程の情報が入り混じっており,必ずしも公開版データ\footnote{NTC1.5版をさす.}の作業時の規定を反映していなかったため,文書化されたガイドラインと公開版のデータに相違が見られる点については,NTCの開発者に確認し,実際の作業がどのようなものであったかを説明に追加した.また,表~\ref{tbl:difference}にNTC1.5版とWeb上のガイドラインにおける差異を対応表としてまとめた.\begin{table}[b]\caption{NTC1.5版とWeb上のガイドラインにおける仕様の差異(共参照・照応・名詞間関係を除く)}\label{tbl:difference}\input{ca12table02.txt}\end{table}\ref{sec:problem-collection}~節の論点収集のプロセスでは,Web上のガイドライン及びここで示す実際のNTC1.5版との差異において,明文化された規定のない項目については曖昧な取り決めであるという立場をとり,このうち簡潔な規則を定めることで問題を解決できなかった部分についてを\ref{sec:individual}~節で議論する.NTCでは,(i)動詞,形容詞,名詞句+助動詞「だ」,ならびに(ii)サ変動詞や『名詞句+助動詞「だ」』の体言止め,(iii)ナ形容詞の語幹で文や節が終わる場合を述語とみなし,対象表現に述語ラベルを付与する.さらに各述語について,その項構造を述語原形に対する表層格ラベルを用いて付与する.また,イベント性の名詞についても述語同様の項構造を考えアノテーションを行う.\eenumsentence{\item$[太郎_{ガ}$]が[花子$_{ニ}$]に[リンゴ$_{ヲ}$]を\underline{あげ}た。\item本日未明に$[竜巻_{ガ}$]が\underline{発生}、(サ変動詞の体言止め)\item$[県_{ガ}$]の現在の一般事務[職$_{ヲ}$]の\underline{採用}は日本国籍が要件。(イベント性名詞)}項は,必須格\footnote{ただし,NTCガイドラインWeb版では必須格と周辺格の区別の方法を示してはいない.}であるもののうちガ・ヲ・ニ格に相当するもののみを扱う.項や述語の領域は,IPADIC~\cite{ipadic}で定められる形態素分割における一形態素とする.項のスコープが句や節の場合は,最も後ろの形態素を項の範囲とする\footnote{NTCでは,項のスコープとして句や節を考慮に入れるが,句や節の範囲は文構造から特定出来るものとして,最も後ろの形態素のみをラベルの範囲とした.}.述語が「名詞+する」のサ変動詞の場合や名詞句+「だ」の場合は複数形態素から構成される述語と解釈するが,ラベルを付与する箇所は一形態素とし,サ変動詞の場合は「名詞+する」の「する」に,名詞句+「だ」の場合は名詞句の最も後ろの形態素に述語ラベルを割り当てる.\eenumsentence{\item彼が来たかどう[か$_{ヲ}$]\underline{知り}たい。\item$[A社_{ガ}$]は[新型交換器$_{ヲ}$]を導入\underline{する}。\item彼とお茶\underline{する}。\item$[太郎_{ガ}$]は九州\underline{男児}だ。}機能語相当表現については述語とはみなさない.同様に,形容詞の副詞的用法,固有表現内の述語も述語とみなさない\footnote{NTCガイドラインWeb版には転成名詞(ガイドライン上では「動名詞」との記述)についても述語とみなさないとあるが,実際にはNTC1.5版ではイベント性名詞としてアノテーションがなされている.また,機能動詞についてもアノテーション対象とみなさないとあるが,実際には機能動詞の認定が難しいとの判断から,通常の述語と同様のラベル付与が行われた.}(下線部は述語ラベルを付与しない箇所).\eenumsentence{\item彼の話に\underline{よる}と、(機能語相当表現)\item本を買って\underline{しまう}。(機能語相当表現)\item彼にリンゴを食べて\underline{ほしい}。(機能語相当表現\footnote{ただし,格が新たに追加される補助動詞に該当.})\item点の取り方を\underline{よく}知っている。(形容詞の副詞用法)\item野鳥を\underline{守る}会。(固有表現)}受身,使役などの場合は述語原形の格を付与する.ただし,これらの格交替によって原形の場合は取らなかった格が新たにガ・ニ格として増えている場合は,述語に付随する助動詞や補助動詞を仮想的な述語とみなし,そこに追加ガ/ニ格などの格を割り当てる\footnote{ただし,追加ガ/ニ格はNTC1.5版には含まれていない.}.\eenumsentence{\item$[私_{追加ガ@B}$]は[父$_{ガ@A}$]に\underline{死な$_{A}$}\underline{れ$_{B}$}た。\item$[私_{追加ガ@B}$]は[彼$_{ガ@A}$]に[リンゴ$_{ヲ@A}$]を\underline{食べ$_{A}$}\underline{させる$_{B}$}。}項が省略されている場合は,文章中から対象の項を探しラベルを付与する.文章中に候補となる句や節が存在しないが何らかの項が埋まっていると認識できる場合は,外界(一人称),外界(二人称),外界(一般)という三つの特別な記号を用意し,そこに項のラベルを割り当てる.照応先が一人称単数の場合は「外界(一人称)」,二人称単数の場合は「外界(二人称)」,それ以外の場合は全て「外界(一般)」の記号にラベルを割り当てる.\eenumsentence{\item$[牡蠣_{ヲ}$]を\underline{食べる}ため、[太郎$_{ガ}$]は広島へ行った。(項の省略)\item$[\phi_{外界(一人称)ガ}$]そろそろ\underline{帰ろ}うと思う。(外界照応)}二重に主語を取る構文においては,「N1はN2がV」を「N1のN2がV」として置き換えることが可能な場合は「ノ格」で付与,それ以外の場合は「ハ」と「ガ格」を用いて付与する\footnote{ただし,ハ,ノ格はNTC1.5版には含まれていない.}.\eenumsentence{\item$[広島_{ノ}$]は[牡蠣$_{ガ}$]が\underline{うまい}。\item$[太郎_{ハ}$]が[花子$_{ガ}$]が\underline{好き}だ。\item$[彼_{ハ}$]が[英語$_{ガ}$]が\underline{読める}。(可能動詞)}項が並列構造を取る場合には,以下の例文のとおり1形態素に限ってラベルを付与する\footnote{Web版のガイドラインでは,並列構造内に現れるそれぞれのエンティティを個別に扱い,複数の項としてアノテートするとしているが,NTC1.5版ではアノテーション対象を述語に最寄りの項のみに限っている.}.(\ref{enum:coordination-a})の場合は,「太郎と次郎」という名詞句が項であるとみなし,前述の「項のスコープが句や節の場合は,最も後ろの形態素をラベルの範囲とする」という規則に従い,「次郎」をラベルの範囲とする.(\ref{enum:coordination-b})の場合は,「中学校」と「高校」がそれぞれガ格とみなせるが,述語に最も近い項のみラベルを付与する((\ref{enum:coordination-c})も同様).(\ref{enum:coordination-d})のように「と」が「が」よりも後に出現する場合,及び他の項をはさみ離れて出現する場合は並列構造とは区別し,ガ格とはみなさない.\eenumsentence{\item太郎と[次郎$_{ガ}$]が\underline{遊ん}でいた。\label{enum:coordination-a}\item中学校は四割、[高校$_{ガ}$]も三割\underline{あっ}た。\label{enum:coordination-b}\item太郎はリンゴを、[次郎$_{ガ}$]は[オレンジ$_{ヲ}$]を\underline{食べ}たい。\label{enum:coordination-c}\item$[太郎_{ガ}$]が花子と結婚\underline{し}た。\label{enum:coordination-d}}述語が連体修飾をする場合において,被連体修飾句と述語との関係を格助詞を用いて表現できない場合は「外の関係」のラベルを付与する\footnote{ただし,「外の関係」はNTC1.5版には含まれない.}.\enumsentence{$[サンマ_{ヲ}$]を\underline{焼く}[けむり$_{外の関係}$]}\subsection{作業者間一致率}\label{sec:ntc-iaa}ガイドラインの分析に先立ち,我々は,飯田ら\cite{飯田龍2010述語項構造}が用いたものと同一のデータを用いて,NTCの作業者間一致率を更に詳しく分析した.その結果を表\ref{tbl:ntc_iaa}に示す.一致率は,二名の作業者が30記事にアノテートした結果について,一名の結果を正解,もう一名の結果をシステムの推定と仮定した場合の適合率,再現率,F値として算出した.このとき,推定されたトークンが正解データにおいて項となる共参照クラスタの中のいずれかのトークンと一致すれば正解とした\footnote{各作業者がアノテートした共参照クラスタが異なるため,表\ref{tbl:ntc_iaa}は作業者二名のうちどちらを正解と見なすかによって僅かに結果が異なるが,どちら側からもおよそ同じような結果となったため,片側だけを記載した.}.ただし,我々の評価方法では,飯田らの方法と異なり,述語やイベント性名詞の位置が不一致の場合は,それらに付与された全ての項を不正解とした.分析は,格ごとに,係り受け関係の有無,述語・イベント性名詞の別に分けて行った.係り受け関係がない場合とは,すなわち,本来統語的な関係として規定されるはずの項が省略されるゼロ照応と呼ばれる現象が現れていることを指す.結果として,格ごと,または係り受け関係の有無によって一致率にかなりのばらつきがあることが分かった.特に,ゼロ照応を伴う事例では,格の種類横断的に一致率が低い.顕著に低い値を示すのはゼロ照応のヲ格・ニ格,及びイベント性名詞に関するニ格であるが,これらは事例数自体が少ないため,この結果がガイドラインの不備によるものかどうかを確かめるにはあらためて事例を収集し検証する必要がある.\begin{table}[t]\caption{NAISTテキストコーパスの作業者間一致率}\label{tbl:ntc_iaa}\input{ca12table03.txt}\end{table}
\section{論点の収集方法}
\label{sec:how-to-discuss}\label{sec:problem-collection}本節では,既存コーパスのガイドラインにおける問題点を洗い出すために我々が取った方法を説明する.ガイドラインの問題点を収集するための具体的な方法論は確立されていないため,今回は(i)既存のガイドラインを利用して新規アノテーションを行い,曖昧な箇所を探るという方法と,(ii)NTC・KTCの仕様策定,NTC,KTCを用いた応用処理に関わった研究者,述語項構造アノテーションの仕様に対して問題意識を持つ研究者が経験的に持つ知見を集約するという方法の二つの方法を取った.前述のとおり,本論文で取りまとめる考察はNTCのアノテーションガイドラインを基準に行う.ただし,議論上関連のある項目についてはKTCのガイドラインとの対比を取り,より広範囲に考察を加えられるよう努めた.また,NTCやKTCのガイドラインにおいては,アノテートする文書ドメインが限定されていることにより認知されなかった問題がある可能性も否定出来ないため,今回の論点収集の過程では新聞ドメイン外の文に新たにアノテーションを行うことを試みた.議論の対象となる題材は,述語項構造アノテーションの経験がない一般人の日本語母語話者1名,及びNTC・KTCの仕様策定関係者3名と述語項構造アノテーションの仕様に対して問題意識を持つ言語処理研究者5名(著者ら8名)の計9名によって具体的に以下の手順で収集した.\begin{enumerate}\item述語項構造アノテーションの経験がない日本語母語話者1名を新規アノテーションの作業者とする.作業者にはNTCのアノテーションガイドラインを熟読してもらい,その後,基本的なアノテーション方法について指導を行う.\itemWikipedia,BCCWJよりサンプリングした文書に対して,NTCのガイドラインに従い,作業者が述語項構造を付与する.判断に迷いが出た事例は取りまとめて著者らに報告する.\item報告された事例について,著者らがNTC・KTCのガイドライン及びNTCデータ内の実際のアノテーション例と照らし,簡潔に解決可能かどうか確かめる.解決可能な場合,ガイドラインを更新し,解決案の説明と具体例を加える.解決不可能なものは議論対象の分類表に加える.このとき,NTCとKTCの間での取り決めの対比も行う.\item作業者は新しいガイドラインと未解決問題の分類表を持ち,作業済みのデータを修正する.$1,000$文程度になるまで新しい文章セットを受け取り(2)に戻る.\itemNTC・KTCの仕様策定に関わった研究者,既存の仕様に問題意識を持つ研究者ら計8名(著者ら)の意見を集約し,研究者が経験的に理解している仕様上の改善点を,(1)〜(4)の工程で出来た議論対象の分類表に追加する.また,新たに用意したBCCWJ上の記事20記事程度\footnote{コアデータ内の,書籍,雑誌,白書,Yahoo!知恵袋,Yahoo!ブログをドメインとする記事の冒頭10文程度を利用した.OC01\_00006,OC01\_00472,OC01\_00485,OC01\_01765,OC01\_02071,OW6X\_00007,OW6X\_00009,OW6X\_00016,OY03\_04233,OY03\_04343,OY04\_01354,OY14\_02901,PB13\_00021,PB14\_00016,PB14\_00057,PB19\_00011,PM11\_00031,PM11\_00207,PM11\_00223,PM11\_00226}に対して,上記(1)〜(4)の工程で改善したガイドラインを見ながら実際にアノテーションを行い,問題となった点を議論対象の分類表に加える.\end{enumerate}以上の方法で収集・整理した4種15項目の論点(\ref{sec:individual}~節,表~\ref{tbl:topics}を参照)について,著者らが議論を交わし,結果として得られた知見をまとめ上げた.
\section{個別の論点}
\label{sec:individual}本節には,\ref{sec:problem-collection}~節の方法によって収集されたガイドライン策定上の論点に関して,研究者間で議論した結果をまとめる.まず,我々は収集された問題をおおまかな種類ごとに分別し,結果,4種15項目の論点を得た.表~\ref{tbl:topics}にその一覧を示す.内容としては,述語の認定基準,格の取り扱い,格や格フレームの曖昧性の問題といった既存のコーパスに本質的に潜んでいた問題のほか,新聞ドメイン以外で新たに見られた現象もある.以下では,それぞれの論点について議論の詳細を記す.\begin{table}[b]\caption{述語項構造アノテーションのガイドライン設計に関わる論点}\label{tbl:topics}\input{ca12table04.txt}\end{table}各論点に対する議論は,著者らが種々のアノテーションタスクの設計を通して知る経験的な知見にもとづいて行われる.我々の目的の一つは,これら設計時の基本的な理念とガイドライン上の取り決めの対応関係を集約することであるので,議論の過程で現れたガイドライン策定上の基本原則については\ref{sec:framework}~節にあらためて取りまとめる.\subsection{アノテートすべき述語の認定基準}\label{sec:pred-dicision}\subsubsection{述語項構造を重要視すべき述語とそうでない述語}\label{sec:important-pred}文章中の述語は,その全ての述語項構造が等しく重要性を持つわけではなく,一部の述語に関しては,その述語項構造を解析する重要性が低いものもある.例えば,以下の文,\enumsentence{\underline{驚い}ては\underline{い}られない.}において,「驚く」は文の内容上その項構造の解析が重要になるが,一方の「いる」のほうは,より機能的な述語であり,項構造を捉えるというよりはむしろ「てはいられない」という1フレーズを機能的な表現とみなす方が自然と考えられる.述語項構造そのものを解析する重要度の低い述語に関しては,アノテーションコストの観点からも,解析器の評価をより重要度の高い項構造だけで適切に行えるようにするという点からも,区別して取り扱いたい.述語項構造の重要度に関する問題として,本論文では,\begin{enumerate}\item[(a)]複合語\item[(b)]機能語相当表現\item[(c)]機能動詞構文・格交替を伴う機能表現\end{enumerate}を取り上げる.これらは文章中にありふれた事象のため,アノテーションコストに対する影響も大きい.以下では,それぞれの項目について,どのように取り扱うべきかについての議論結果をまとめる.\noindent{\bf(a)複合語}以下のように,述語となりうる語の後ろに項が追従する形からなる複合語を考える.この場合,項自体がその複合語の主辞であるため,これら語の内部に現れる述語と項の意味関係はそのまま項の意味を修飾する構造となっている.この形では一般に項の部分が単体で持つ語の意味はそれほど重要ではなく,複合語全体のかたまりの意味となって初めて実用的な意味を持つ場合が多いため,内部構造を分解して解析することの重要度はその他の項構造と比べて低いと考えられる.\eenumsentence{\item\underline{作業}[者$_ガ$]\item\underline{書き}[手$_ガ$]\item\underline{輸入}[品$_ヲ$]\item\underline{提案}[手法$_ヲ$]}NTCやKTCでは,これらの複合語に関しては,全て内部の項構造をアノテートしているが,このような表現は出現頻度も高く,アノテーションコストに対して占める割合も高い.従って,もし応用処理の観点から見て重要度の低い関係とするならば,実際にこのような情報が必要なアプリケーションからのニーズを待って,後発的にアノテーションを始めるのでも良い.一方で,次の例文のように,述語部分が主辞となる場合や二つ以上の項を伴う複合語,複合語の外側にも項を取る場合などは,一般に項が内容語となるため,分解して項構造を考えることに通常と同様の価値があると取れる.\eenumsentence{\item$[計算機_{ヲ}]$\underline{使用}\label{enum:multiwd-outarg-a}\item$[計算機_{ヲ}]$\underline{使用}[者$_ガ$]\label{enum:multiwd-outarg-b}\item$[計算機_{ヲ}]$の\underline{使用}[者$_ガ$]\label{enum:multiwd-outarg-c}}ただし,接尾辞などのひときわ判断が容易なものを除いては,どの複合語の内部の項構造については価値が薄いかを判断することは容易ではないため,個別に判断することは現状では難しい.例えば,その代わりに,作業コストを下げ一貫性を保つための工夫として,複合語内部の項構造がほとんどの場合に一意に定まる事に着目し,複合語内部の格関係を辞書的に管理しておくことなどが考えられる.こうすることで,文章中の事例ごとにアノテーションを行う必要がなく作業コストが低下する上に,アノテーション結果の一貫性も保たれる.この方法をとった場合,アノテータは複合語の外側に項が出現する場合のみに対処すればよいことになる.\noindent{\bf(b)機能語相当表現(モダリティ等)}次の例文の下線部の述語は,助詞相当表現やモダリティ表現の一部と考えるのが自然である.\eenumsentence{\item彼の話に\underline{よる}と、その店はとても有名らしい。(格助詞相当表現)\label{enum:fe-yoru}\item夏休みの課題で蝉に\underline{つい}て調べた。(格助詞相当表現)\item気温が上がるに\underline{したがっ}て、だんだんと汗がでてきた。(接続助詞相当表現)\item見つけたと\underline{いっ}ても、これはかなり小さいものです。(接続助詞相当表現)\item驚いては\underline{い}られない。(モダリティ表現)\itemすぐに食べなければ\underline{なら}ない。(モダリティ表現)\itemジムに通うように\underline{なっ}た。(モダリティ表現)}これについて,NTCでは,例えば「通うようになる」の「なる」に対して「機能語相当」のラベルを付けることで区別し,述語項構造をアノテートしないとしている.ただし,網羅性を保証できないとの観点から配布版(1.5版時点)には「機能語相当」ラベルの情報は含まれていない.KTCでも,複合辞,モダリティ表現は述語認定の対象外としている.助詞相当表現やモダリティ表現は,内容語の慣用表現(\ref{sec:idioms}節)と同様に,句として強く結びつくことで非構成的な意味を形成している.たとえば,(\ref{enum:fe-yoru})に見られる「によると」は,このひとかたまりで情報の出所や判断の拠り所を表現する機能を持つ\cite{Morita1989}.「によると」は文において一つの格助詞のように振る舞うので,この中の「よる」のガ格が何であるのかを考えるのは不自然である.上の例文からは,それぞれ,下線部の述語を含む次のような機能表現を抽出することができる.\begin{quote}に\underline{よる}と、に\underline{つい}て、に\underline{したがっ}て、と\underline{いっ}ても、ては\underline{い}られない、なければ\underline{なら}ない、ように\underline{なる}\end{quote}機能表現を例外扱いするにあたり問題となるのは,どのような基準で機能表現とそうでないものを弁別するかということであるが,これらの機能表現は言語学や言語教育の分野で研究されており,\cite{Morita1989}や\cite{Jamasi1998}などの辞書が出版されている.自然言語処理の分野で電子的に利用可能な辞書として,松吉らが編纂した機能表現辞書\cite{Matsuyoshi2007}などが存在する.アノテーション作業前に,これらの辞書を用いてあらかじめ機能表現に印を付け,ほぼ自動的\footnote{一部の機能表現に対しては,機能表現かどうかの曖昧性を解消する必要がある.例えば,「コンビニに\underline{よる}と、ついお菓子をたくさん買ってしまう。」の「よる」は,述語項構造解析の対象とすべき述語である.}に「アノテートすべきでない述語」と認定することにより作業コストを下げることができる.辞書には載っていないが機能表現と考えるべき表現を見つけた場合,作業時にその表現を辞書に追加するなど,既存の機能表現リストから漏れている表現を拡充することも必要であると考える.\noindent{\bf(c)機能動詞構文・格交替を伴う機能表現}次の例文に見られるような機能動詞構文(\ref{enum:functional-a})や授受表現(\ref{enum:functional-b})における下線部bの述語は,直前の述語aに対して,アスペクトや態,ムード等の意味を付加する機能的な働きをするものと考えられている\cite{matsumoto1996syntactic,村木新次郎1991日本語動詞の諸相}.\eenumsentence{\label{enum:functional}\item事件が社会に\underline{混乱$_{A}$}を\underline{与える$_{B}$}\label{enum:functional-a}\item私が彼にサインを\underline{書い$_{A}$}て\underline{もらう$_{B}$}\label{enum:functional-b}}このような述語に対して,下線部AとBの双方の述語項構造を付与することは,構造の重複となり,作業の価値が低い.また,述語Bに関しては,機能的な振る舞いをするものであるから,述語項構造として取り扱う必要性も低い.したがって,より内容的意味を持つ述語Aの方を基準の構造とし,Bで追加される意味情報を態・アスペクト・ムードのマーカーと解釈する方法も考えられる.これに関し,既存コーパスのガイドラインでは,NTCでは,機能動詞については通常の述語と同様にラベルを付与し,一方,「てもらう」などの表現には述語ラベルをアノテートしない,としている.KTCでは,機能動詞についてはNTCと同様に扱われ,「てもらう」「てほしい」などの表現は述語の一部としてアノテートされる(「サインを\underline{書いてもらう}」など).機能動詞や授受表現を特別に扱う際の問題点は,機能語相当表現の場合と同様,その表現と取り扱いの方法が網羅的に列挙できるかという点にある.機能動詞に関するリストとしては,\cite{izumi2009}などがあるが,現象を網羅するわけではない.従って,具体的な作業方法の一案としては,上記のようなリストを出発点として,予め,あるいは作業時に段階的に機能動詞・授受動詞等に関する述語のリストを作っていき,コーパス中の事例を自動チェックするような仕組みを用いることで,作業を簡素化・半自動化する方法が考えられる.(\ref{enum:functional})の例でも見られる通り,これらの表現が使役・受身相当の機能表現の場合は述語Aが本来持つ格に加えて使役格などの新たな格が追加される場合もある.この場合の取り扱いについては,\ref{sec:additional-cases}~節と同様の議論となる.\subsubsection{名詞のイベント性認定}\label{sec:event-noun-dicision}サ変名詞,転成名詞に対して,対応する動詞と同等の項構造をアノテートすることを考える場合には,その名詞が実際に何かしらの状態やイベントを表しているかどうかが問題となる.例えば,次のフレーズにおける,「施設」という語について考えてみる.\enumsentence{研究\underline{施設}}この,「施設」という語はサ変名詞であり,「施設する」という動詞が作れるが,ここで「研究施設」は施設した結果物であり,イベントではない.このような語にも便宜的に述語項構造を割り当てることはできるが,文脈上イベントとして解釈できない語に関して,イベントとしての項構造を付与することは本質的ではない.むしろ,イベントとして解釈される「施設」と,そうでない「施設」を区別することのほうが重要といえる.NTCでは,イベント性名詞ともなりうるタイプの名詞に関して,イベント性を持たないことを表示するためのラベル(結果物/内容,もの,役割,ズレ)を用意しているが,明瞭な判断基準が存在せず,イベント性の判定は内省に頼っているのが実情である.ここでの論点は,どのような基準を設ければ名詞のイベント性をより明確な方法で判別できるかということである.あるいは,明確な基準を設けることが不可能であっても,閉じたデータ内においては一貫性を保つような方法を模索する必要がある.この問題については,既存研究で詳細な分析がなされており,アノテーションスキーマの改善も実施されているものの\cite{飯田龍2010述語項構造},ガイドラインとしての整備が行われていないため,再度事例を収集し,問題を整理する必要がある.我々の議論の中では,複合語と同じように,このような語が出現する度にそれぞれの語が結果物/内容,もの,役割,ズレのいずれのラベルと共に出現したかを記すチェックリストに追加しておき,アノテーション時に自動的に注意をうながす仕組みを用意することで一貫性を高めるという方法が挙がった.また,このチェックリストを利用し,コーパス中の事例を収集してガイドライン策定の検討材料とすることも考えられる.\subsubsection{述語が複合語である場合の分解}\label{sec:complex-word-decomposition}\begin{table}[b]\caption{IPA辞書,JUMAN辞書,UniDicによる形態素分割の違い}\label{tbl:morpheme}\input{ca12table05.txt}\end{table}NTCでは,述語は基本的に一形態素の範囲に対してラベルを付与するとしているが,形態素の分割基準は既存の形態素辞書を拠り所にするため,どのような辞書を使うかによって述語単位の取り扱いが大きく異なってくる.表\ref{tbl:morpheme}には,いくつかの複合語についてIPA,JUMAN,UniDic辞書に基づく形態素分割の差を示したが,辞書によって,あるいは単語によって分割の位置は異なる.このような語の扱いに関しては,次の二点が問題となる.(1)どのような形態素分割基準を基準とするのが述語項構造を考える上で最も適切か,(2)ある形態素分割基準に基づいて複合語が二形態素以上に分割されたとき,複合語内部の述語はその全てがアノテーション対象として適切かである.しかし,どちらの問題も現状で合理的結論を出すことは簡単ではない上,\ref{sec:criteria}~節に述べるように,言語処理アプリケーションによっては,どの単位を述語として扱うのがよいか,また,どの程度複合語内部の項構造が必要となるかに異なりがある.例えば,含意関係認識タスクにおいては,表\ref{tbl:morpheme}の「立ち読み」や「消し忘れ」がどのような理論に基づいて分割されているかにかかわらず,「私が、立って、本を、読む」ことや「私が、ライトを、消そうとして、消すのを、忘れる」ことを理解する必要がある.したがって,現状で完全な解決策を提示することは難しいが,部分的な対処案として,複合語の辞書的なアノテーション管理を考えることができる.例えば,まずはある特定の形態素分割辞書に依存して述語範囲の認定を行い,その上で\ref{sec:important-pred}~節の複合語の項目で述べたような複合語内部の項構造を辞書的に管理するのと同様の方法を必要に応じて一形態素と認識されている語に対しても適用することで,どのような形態素分割基準を用いた場合でも想定するアプリケーションの要求に対応できる柔軟な構造を取るという方法が考えられる.なお,複合動詞に関する述語項構造の具体的な分析例として,複合動詞用例データベース\cite{yamaguchi2013}が分析の出発点として参考にできる.\subsection{格の取り扱い}\label{sec:case}\subsubsection{ニ格の「必須格」性}\label{sec:ni-imperativeness}述語のそれぞれの項を,主題役割のような意味役割のレベルで考えると,「が」「を」に比べて,助詞「に」を伴って出現する述語-項の関係には様々なものがある\cite{contemporaryJapanese2,muraki:84}.このうち,初期段階の述語項構造アノテーションとして特別重要度が高いのは,アノテーション対象の述語そのものの概念を説明するために必須となる項目(必須格)である.一般に,助詞「に」を伴って出現する述語の項のうち必須のニ格とみなされるのは,動作による移動の着点や結果状態を表すものなどである.一方,状態やイベントが起こる時間,動作や変化の様態などを表す「に」は述語横断的に利用可能な付加的修飾要素であるため,周辺格などと呼ばれる.しかし,「が」「を」に比べて,ニ格では必須格性の判断が容易ではないケースも多い.本論文では,特に,\begin{enumerate}\item[(a)]必須格と周辺格の境界\item[(b)]ニ格の任意性\end{enumerate}の二つについて取り上げる.\noindent{\bf(a)必須格と周辺格の境界}例えば,次の例,\eenumsentence{\item二つに割る\label{enum:ni-a}\itemこなごなに割る\label{enum:ni-b}\itemめちゃくちゃに割る\label{enum:ni-c}}を見ると,(\ref{enum:ni-a})では,ニ格は動作の結果状態を表しているように見えるが,(\ref{enum:ni-b})や(\ref{enum:ni-c})のような表現になると,それが結果状態を指すのか,動作(あるいは変化)の様態を指すのかは極めて曖昧になり,判断が難しくなる.必須格と周辺格の区別については,明確な基準を持って分けられる事例もあれば,上記のようにどちらに属するとも言えない曖昧な事例も存在する.アノテーションを行う際に本質的に問題にしなければならないことは(i)理論上どのようにアノテートするのが合理的かということと,(ii)揺れなく,明確にアノテーションや評価が行える基準を設けなければならないということである.(i)の観点から言えば,もし上記のように必須格と周辺格の間の境界が本質的に曖昧なのであれば,曖昧な状態を取り扱うことのできる表現にしておけば良い.一方で,アノテーションや評価を行う場合は不確かなものは問題となる.少なくとも,どの事例に関しては明確に区別可能であり,どの事例が本質的な曖昧さを含むのかを明らかにしておかなければ,作業者間一致率や解析システムの評価時に,アノテーションやシステムの誤りであるのか,本質的な曖昧性のために揺れているのかを区別できない.この問題を解消するための方法として,ラベルの定義の問題でアノテータがいずれか一つのラベルを明確に選べない事例に対しては,ラベルの解釈に迷ったことを示すマーカーを用意し,対立候補と共にチェックをしてもらうことで明確な事例と曖昧な事例を区別しておく方法が考えられる.そうすることで,評価用データとして用いる際も,該当する事例を除外するなどしてより厳密な評価を行うことができるようになる.また,学習に用いる際には付与されたラベルの一貫性を担保したい場合があると考えられるが,曖昧な事例があらかじめチェックされていれば,その部分はアノテータの判断にかかわらず機械的に一方のラベルに修正したうえで学習するなどの処理を行うことができる.\noindent{\bf(b)ニ格の任意性}第二に,文章中に存在しないニ格を補う場合の問題がある.ある格が必須格だと判断した場合,それはすなわち,仮にその格を埋める項が文章中に存在しない場合でも,概念上は項が存在しているとみなすということである.しかし,必須格と周辺格を一般によく知られている意味機能的な役割で分類しようとすると,動作の結果状態のように,一般的には周辺格ではないと認識されている役割であっても,述語によっては項が埋められている必要がある(暗に省略されている)と感じにくいケースもある.\eenumsentence{\item信号が($\phi$ニ)変わったので、停車した。\label{enum:optional-ni-a}\item花瓶を($\phi$ニ?)割った。\label{enum:optional-ni-b}\itemボールが($\phi$ニ?)落下する。\label{enum:optional-ni-c}}例えば,(\ref{enum:optional-ni-a})では,信号が変わった結果の状態について,文脈から何かしら明確な項を仮定する(赤に変わった,と仮定する)のが普通であるが,(\ref{enum:optional-ni-b})については,特定の具体的な結果が指定されていなくとも,「割る」の一般的な結果状態は「割る」という語の語義の中に初めから含まれているため意味は解釈できる.(\ref{enum:optional-ni-c})の「落下する」という動詞では,ニ格で移動の着点を指定することはできるが,必ずしも落下の結果どこかに到達している必要はないので,ニ格が必須の項であるとは言い難い.このようなニ格の任意性は,述語,あるいは文脈ごとにそれぞれ判断が必要である.どのような基準でニ格の任意性を認めるかについては現状では明確な基準は用意されていない.また,仮に,ある述語についてニ格の任意性が判定できたとしても,実際の文中の事例で,任意であるニ格が明示的に格助詞「に」を伴って出現していなかった場合,それが未定義なのか,概念上存在しているのか,あるいは同一記事中の別の箇所に出現しているかどうかの判断も困難を極める.例えば,次の文\enumsentence{衛星は\underline{落下し}始めた。2時間後、太平洋で発見された。}の「落下する」のニ格は,未定義なのか,文章中に存在しない「地球」なのか,それとも「太平洋」なのかは,文脈をどのように解釈するかに依存する.したがって,このような文脈や事前知識に深く依存する問題については述語項構造アノテーションの範疇外としておき,それ以降の,例えば推論モデル等で取り扱う問題と規定する考え方もありうる.仮にそうした場合は,明示的に格助詞と共に表れる場合や,文脈上自明な場合を除いては未定義とするのが妥当である.\subsubsection{可能形・願望・二重ガ格構文・持主受身}\label{sec:potential}可能動詞や可能形,願望,及び,いわゆる二重ガ格構文においては,異なる意味機能を持った二つの格助詞「が」を伴うことがある.\eenumsentence{\item太郎は(が)英語が/を読める。(可能動詞)\label{enum:possible-a}\item太郎は(が)ブロッコリーが/を食べられない。(可能形)\item太郎は(が)ビールが/を飲みたい。(願望)\item太郎は(が)足が長い。(二重ガ格構文)}この問題について,NTCでは,可能形の場合は原形に戻してラベルを付与し,「AはBがV」を「AのBがV」として置き換えることが可能な場合は「ノ格」で付与,それ以外の場合は「ハ」と「ガ格」を用いてラベルを付与するとしている.\eenumsentence{\label{enum:double-ga}\item$[太郎_{ハ}]$は[英語$_{ガ}$]が/を\underline{読める}。\label{enum:double-ga-a}\item$[太郎_{ガ}]$は[ブロッコリー$_{ヲ}$]が/を\underline{食べ}られない。\label{enum:double-ga-b}\item$[太郎_{ハ}]$は[ビール$_{ガ}$]が/を\underline{飲み}たい。\label{enum:double-ga-c}\item$[太郎_{ノ}]$は[足$_{ガ}$]が\underline{長い}。\label{enum:double-ga-d}}しかし,この方法を取る場合,次のようなガ格あるいはヲ格の選択肢の範囲を限定する「は」の用法が現れたときに,ラベルを付与すべき対象が複数現れてしまい,場合によっては二重の「ハ」となってしまう.\eenumsentence{\item$[ワイン_{ハ?}]$は[ロゼ$_{ガ}$]が\underline{美味しい}。\label{enum:double-ga-e}\item$[私_{ハ}]$は[ワイン$_{ハ?}$]は[ロゼ$_{ガ}$]が\underline{好き}だ。\item$[本_{ハ?}]$は英語の[もの$_{ヲ}$]を\underline{読む}。\label{enum:double-ga-f}\item$[私_{ガ}]$は$[本_{ハ?}]$は英語の[もの$_{ヲ}$]を\underline{読む}。}上記のような例を考えると,項の選択範囲を限定する「は」は述語横断的に利用できる周辺的な格と類推できる.したがって,必須格と周辺格を付け分ける現行の仕様上では(\ref{enum:double-ga})における「ハ」と,(\ref{enum:double-ga-e})における「ハ」の用法は明確に区別したい.経験的に,格のラベルと文中の実際の助詞が見た目上一致すると,アノテータはこうした混同を起こしやすい.したがって,これを避けるために「ハ」の名称を二つに分けるという方法が有効な可能性がある.ここでは,例えば便宜的に(\ref{enum:double-ga})のハの場合を「属性所有のガ」,(\ref{enum:double-ga-e})(\ref{enum:double-ga-f})の場合を「限定ハ」と決めるような方法である.ラベルの名称を機能によって細分化するという方法は,格助詞を直接格関係のラベルに用いる日本語の述語項構造アノテーションにおいては,同じ助詞によって表される必須格と周辺格を区別する際に有効な手段であると考えられる.一方,KTCの場合,動作主体や経験者といった意味役割的な観念を用いて,『二重のガとなるもののうち,「は」「が」が動作主体や経験者である場合は,用言からみて遠い方のガ格をガ2格とする』とすることで,必須格と周辺格の混同を避けている.また,NTCでノ格に対応する「太郎は足が長い」などの表現は,「は」を「が」に言い換えると不自然だとして,ガ・ヲ・ニなどの格助詞では言い表せない「外の関係」として定義している.\eenumsentence{\item$[太郎_{ガ2}]$は[英語$_{ガ}$]が\underline{読める}。\item$[太郎_{ガ2}]$は[ブロッコリー$_{ガ}$]が\underline{食べられない}。\item$[太郎_{ガ2}]$は[ビール$_{ガ}$]が\underline{飲みたい}。\item$[太郎_{外の関係}]$は[足$_{ガ}$]が\underline{長い}。}これとは別に,(\ref{enum:possible-a})に見られる可能動詞では,NTC方式のアノテーションを行う際に格ラベルの組み合わせに曖昧性が出るという問題がある.具体例として,(\ref{enum:possible-a})の例文では,ラベル付与の方法に(\ref{enum:kanou-ambiguity-a})(\ref{enum:kanou-ambiguity-b})(\ref{enum:kanou-ambiguity-c})の三通りの曖昧性が発生する.\eenumsentence{\label{enum:kanou-ambiguity}\item$[太郎_{ハ}]$は(が)[英語$_{ガ}$]が/を\underline{読める}。(NTC方式)\label{enum:kanou-ambiguity-a}\item$[太郎_{ハ}]$は(が)[英語$_{ヲ}$]が/を\underline{読める}。(NTC方式)\label{enum:kanou-ambiguity-b}\item$[太郎_{ガ}]$は(が)[英語$_{ヲ}$]が/を\underline{読める}。(NTC方式)\label{enum:kanou-ambiguity-c}}この問題は,格フレームの曖昧性の問題として\ref{sec:frame-ambiguity}~節で詳しく議論する.KTCのガイドラインでは,同様の場面で「基準として,可能形の動詞の対象(目的語)の格はヲ格,動作主体の格はガ格とするが,もっとも自然な格を選択する.目的語の表層格がガ格になっている場合などには,その格を別の格に変えることはしない.ガ格がすでに使われている場合の動作主体の格はガ2格とする」と,厳密な優先規則を規定することで曖昧性を回避している.\subsubsection{使役・受身・ムード・授受表現・機能動詞で追加される格}\label{sec:additional-cases}NTCは,述語と項の間の格関係を,述語原形に対する表層格によって記述する.このような方法を取る場合,述語が使役・受身などの形を取った場合に,原形では対応のない格が出現する問題があるため,これに対処する必要がある.\eenumsentence{\item$[私_{追加ガ@B}$]が[太郎$_{ガ@A}$]に勉強\underline{さ$_{A}$}\underline{せる$_{B}$}。(使役)\item$[彼_{追加ガ@B}$]が[父$_{ガ@A}$]に\underline{死な$_{A}$}\underline{れ$_{B}$}た。(迷惑受身)\item$[私_{追加ガ@B}$]が[彼$_{ガ@A}$]に[ゲーム$_{ヲ@A}$]を\underline{壊さ$_{A}$}\underline{れ$_{B}$}た。(持主受身)\item$[両親_{追加ガ@B}$]が[太郎$_{ガ@A}$]に勉強\underline{し$_{A}$}て\underline{ほし$_{B}$}がっている。(願望)\item$[私_{追加ガ@B}$]が[彼$_{ガ@A}$]に[本$_{ヲ@A}$]を\underline{書い$_{A}$}て\underline{もらう$_{B}$}。(授受表現)}この問題に関して,NTCでは,上記のように助動詞や補助動詞を新たにマークし,追加ガ/ニ格を割り当てるとしている\footnote{NTC1.5版時点で,公開版にはこのラベル情報は含まれていない.}.NTCのガイドラインでは,少数の助動詞・補助動詞に関して,具体的な事例を用いてアノテーション方法を指示しているが,これに加えて,機能動詞構文について\ref{sec:pred-dicision}~節で取り上げたような取り扱いをする場合は,機能動詞構文によって追加される格についても取り扱う必要がある.また,述語によっては,機能表現によって格が追加されたと見なすべきか,受益格のような周辺格と見なすべきか明確でないケースも存在する.\eenumsentence{\item$[事件_{追加ガ@B}$]が[社会$_{ガ@A}$]に\underline{混乱$_{A}$}を\underline{与える$_{B:使役}$}(機能動詞構文)\item$[彼_{追加ニ@B?/受益格(周辺格)@A?}$]に[ジャム$_{ヲ@A}$]を\underline{取っ$_{A}$}て\underline{やる/あげる$_{B}$}}特に,機能動詞や補助動詞については,表現の種類が多岐にわたるため,追加されている項が省略されている場合の見落としなどを抑制して作業の一貫性を高めるためには,これらの現象に関わる表現について,網羅的にかつ統一的な扱いをする必要がある.これには,追加の格が存在する表現を一覧化し,自動的に確認を促す仕組みを設けるなどの方法が考えられる.\subsubsection{慣用表現}\label{sec:idioms}次の例のように,見た目上は述語とその項が個別に現れているようにも取れるが,実際にはこれらが句として強く結びつくことで,一つの新たな意味を形成している慣用表現がある.\eenumsentence{\item私が/の気が滅入る\label{enum:idiom-a}\item私のチームに手に入れたい\label{enum:idiom-b}\item確認作業に骨を折る\label{enum:idiom-c}\item彼の耳に入る\label{enum:idiom-d}}NTCでは,どのような表現までが慣用表現と言えるのかの境界が厳密には規定できないだろうという前提から,慣用表現かどうかを区別せずに見た目上の述語に対してアノテーションを行っている.KTCも同様に,慣用表現かどうかは区別せずにアノテーションを行っている.これらの表現に対して,述語項構造アノテーションのガイドラインが取り得る戦略としては,(i)NTCやKTCと同様に,慣用表現内部の述語項構造も全て分解してアノテートする,もしくは(ii)慣用表現は複数形態素にまたがる述語表現として特別扱いする,ということが考えられる.ただ,どちらの場合に関しても議論の余地がある.(i)の場合は,まず,\ref{sec:complex-word-decomposition}~節の複合語の議論の時と同様,慣用表現内部の項構造は,出現事例ごとに異なるということはほとんどないため,同じ構造を何度もアノテートする無駄が生じる可能性がある.また,慣用表現の表す意味は,比喩的な派生の結果,元の語句から構成的に組み上げられる意味と一致しないため,分解して項構造をアノテートする意味自体が薄い\footnote{ただし,一部の慣用表現では,「手に入れる」と「手に入る」,「骨を折る」「骨が折れる」などのように,慣用表現内部の述語項構造に依存した自他交替などがありうる.}.さらには,(\ref{enum:idiom-a})(\ref{enum:idiom-b})にも見られる通り,慣用表現によっては格の重複が起こり,どちらが内容的に見て重要な格で,どちらが慣用表現内の「意味的重要度の低い」格かの区別が難しくなる.(\ref{enum:idiom-c})に見られるように,元々の述語(この場合,「折る」)に存在しなかった格(ニ格)が増える場合もあり,アノテーションに際して格フレーム辞書を用意した場合などには,分解された語のみの格フレームでラベルを付与しようとすると扱いが難解になる.(ii)の場合は,ある句をどのような基準で慣用表現とみなすかが問題となる.慣用表現を整理した既存の研究としては,佐藤の基本慣用句五種対照表\cite{佐藤理史:2007-03-28}や橋本らのOpenMWE:日本語慣用句コーパス\cite{hashimoto2008construction}などが挙げられるが,佐藤の研究では「慣用句の定義はいまだに決定的なものがない」としている.また,慣用表現全体を述語と見なすこととした場合には,(\ref{enum:idiom-d})のように慣用表現内の項の一部を修飾する情報をどのように扱うかも問題となる.この例の「彼の」は,もし慣用表現を分解して考えた場合にはニ格相当の句の一部となっているため,この関係にも何らかのラベルを用意するのが望ましいと考えられる.この問題に対しては,まずはコーパス内の慣用表現と思われる事例を集め,慣用表現を述語項構造という観点で見た場合にどのような現象が起こりうるのかを網羅的に収集する必要がある.そのため,初期のアノテーションでは慣用表現内を分解した状態でアノテーションを行い,その上で慣用表現の取り扱いを決めるといった段階的なアノテーションを行うこともコーパス構築上の戦略として考えられる.また,実際に慣用表現をひとまとめにしたアノテーションを行う際は,機能表現や機能動詞での議論と同様,対象表現を辞書的に管理するのが望ましいと考えられる.\subsubsection{格交替と表層格ラベルの種類(KTC方式とNTC方式)}\label{sec:ntc-case-ktc-case}\ref{sec:related_work}~節で紹介したとおり,KTCは述部の出現形に対する格関係を付与し,NTCは述語原形に対する格関係を付与する.このため,格交替をともなって述語が出現する場合には,これら二つの基準では異なったアノテーションが行われる.出現形アノテーションと原形アノテーションは,互いに他方には含まれない情報を持っており,どちらの方式がより適切かはアプリケーションによって異なる.例えば,含意関係認識のような命題間の同一性を扱いたいタスクでは,(\ref{enum:entail})の文aと文bが同じ内容を表していることを捉えたい.そのため,このような場合は,格交替を吸収するNTC方式が有用である.\eenumsentence{\label{enum:entail}\item$[次郎_{追加ガ@B}$]は[太郎$_{ガ@A}$]に[ご飯$_{ヲ@A}$]を\underline{食べ$_{A}$}\underline{られ$_{B}$}た。(NTC方式)\item$[太郎_{ガ}$]が[ご飯$_{ヲ}$]を\underline{食べ}た。(NTC方式)}一方で,機械翻訳や文書要約などの表層的な形式をそのまま扱うことが可能なアプリケーションでは,受身や使役などはそのまま翻訳・要約すれば良いため,必ずしも述語原形の格に戻す必要性はない.項の省略がある場合も述部出現形の格助詞を用いて補完すればよい.このような場合にも述語を原形に戻そうとした結果,原形に対する格パタンを選択する際に処理を誤る可能性もあるため,無理に原形に戻す処理を行うことはリスクをともなう.したがって,このような場合には出現形でアノテーションを行うKTC方式を採用するほうが望ましい.\eenumsentence{\item$[太郎_{ニ}$]が来た。[りんご$_{ヲ}$]を\underline{食べられた}。(KTC方式)\item$[太郎_{ガ}$]が来た。[りんご$_{ヲ}$]を\underline{食べ}られた。(NTC方式:受身のまま「太郎」を補う場合に,ニ格で補われるべきという情報を得られない)}これらに関連して,格交替前と格交替後の格の対応関係を獲得したい場合には,KTC方式でアノテートしたコーパスからはこの対応関係を直接学習出来ないため,対応関係を獲得するための新たな資源が必要となる.NTC方式の場合,コーパス上にこの対応関係をアノテートしていることになるので見た目上はそのような対応関係表は必要ないが,実際にはコーパス中に格交替をともなって出現する事例は全事例の1割程度であるため,異なる格交替の振る舞いをするそれぞれの述語に対して対応関係の学習に十分な量の交替事例が得られるとは限らない.出現形表層格における格交替関係については,$10$億文規模の大規模なコーパスから自動獲得する方法も研究されているため\cite{sasano2013},格交替の扱いについては,今後どちらの方針でアノテートすることが効果的かを検証する必要がある.この検証を行うためのデータ作成の方法として,KTC方式,NTC方式の双方で同一文章にアノテーションを行う方法が考えられる.この場合のコストは,格交替が起こらない場合などの重複する作業は省略できるため,単純に倍というわけではない.ただし,効果的に対応関係を取るためのアノテーションの方法については今後検討する必要がある.もう一つの方法は,仮にいくつかのデータがアプリケーションによる要請などによって異なるラベルセットを用いてアノテートされたとしても,それぞれのスキーマによるアノテーションの結果を自然に統合し,互いにラベルセットを交換可能とする仕組みを考えることである.KTCとNTCの場合は,各述語に対する語義別の格フレーム辞書と,各語義に関する格交替の性質を網羅的に記述した辞書を用いてこの仕組みが設計可能である.この方法を取れば,将来,主題役割などのラベルを導入する場合にも,既存のアノテーションの結果をマッピングすることで,最小限のアノテーション作業によって新たな結果を得ることができると期待できる.ただし,このようなスキーマ間のラベルの対応を得るのは容易ではない.アノテーション作業の重複を避けるためには,異なるスキーマ間のラベルが事例ベースで一対一対応する必要があるが,各事例で適切な対応関係を得るためには,それぞれのスキーマが,お互いのラベルがエンコードしている情報の差を明確に意識し,その差が追加情報によって将来的に埋められるよう綿密に設計されたスキーマでなければならない.また,格フレームや語義等も,共通の基盤データに基づいておく必要がある.さもなければ,それぞれのスキーマの理論上のずれや格フレームのカバレッジ,語義の粒度のずれによる影響で,ラベル間の対応が一対多,多対多の曖昧な関係となり,結局,コーパス全体にわたってほとんど網羅的な確認作業を行わざるを得ないことになる.実際に,英語圏では,異なる述語項構造コーパス間にアノテートされた異なる情報を有効に活用しようと,資源間でのラベルのマッピングを試みた研究があるが,それぞれ異なる理念で設計されたコーパスであったため,格フレームやラベルの対応関係は多対多となり再アノテーションを必要とした\cite{loper2007combining,semlink}.したがって,仮に,アプリケーションからの要請や,段階的に情報を付加していく設計などによって,異なるアノテーションスキーマを使い分ける場合にも,将来の統合性をはっきりと意識した設計をしておくことが重要となる.例えば,\ref{sec:ni-imperativeness}~節で述べたような必須格と周辺格の区別などは現状のガイドラインでは明確に取り扱われていないが,意味役割との親和性を考えれば重要な事項である.\subsubsection{項としての形容詞(ニ格相当)}\label{sec:adjective-ni}次の二つの例文は,非常に似通った意味を表している.\eenumsentence{\item$[服_{ガ}$]が[赤$_{ニ}$]に\underline{染まる}。\item$[服_{ガ}$]が赤く\underline{染まる}。}どちらの文からも,我々は「服が赤くなった」という同一の結果状態を想像することができる.しかし,現状の表層格を用いたアノテーションでは,「赤く」という形容詞を用いた表現は項として認識されず,これら二文の間の項構造は異なるものになる.この違和感は,特に項の省略を伴う次のような例文に対して,どのような表現まで項として補うかという判断を行うときに大きくなる.\eenumsentence{\item$[真っ赤_{ニ?}$]なペンキで、[服$_{ガ}$]が\underline{染まっ}てしまった。\item$[赤い_?$]ペンキで、[服$_{ガ}$]が\underline{染まっ}てしまった。}この問題は,我々が,表層格というラベルを用いて,述語とそれを取り巻く要素の間のどのような関係を取り扱おうとしているかを考える際の良い題材である.現状のスキーマでは,格助詞の表層的な違いとして認識できる粒度の意味関係しか取り扱っておらず,果たしてどのような意味機能をもったものならばガ格・ヲ格・ニ格との意味的対応関係が取れるものなのかについて,網羅的な結論を即座に出すことは難しい.しかし,もし,述語項構造を,述語と項の間の意味的関係の同一性を示すための表現として用いようとするならば,「名詞+格助詞」や「形容詞」といった統語上の区分にかかわらず,同一の意味機能を持つものには同一の関係ラベルを与えるのがよいかもしれない.これは将来発展的に,主題役割のような,より意味機能的なラベルを用いてアノテーションスキーマを設計しようとする際には十分検討されるべき課題である.\subsection{格及び格フレームの曖昧性解消・必須項の見落とし}\label{sec:frame-ambiguity-argument-loss}\subsubsection{AのB,連体節,ゼロ照応等における格フレームの曖昧性}\label{sec:frame-ambiguity}ある述語が複数の格フレーム候補を持つとき,その述語が,AのB・連体節・項のゼロ照応などの形を取った場合,アノテーション時にどの格フレームを選択すべきかについて曖昧性が生じる.\eenumsentence{\item自他交替:パソコンの起動$\rightarrow$パソコンが起動する/パソコンを起動する\item道具格交替:ドアを開けた鍵$\rightarrow$(誰かが)鍵で開ける/鍵が開ける\item他動詞/自動詞+使役:政府による経済再生$\rightarrow$[政府$_{ガ}$]が[経済$_{ヲ}$]を再生する/[政府$_{追加ガ}$]が[経済$_{ガ}$]を再生させる\itemその他:私が教える生徒$\rightarrow$生徒を教える/(何かを)生徒に教える}また,述語によっては,同一の意味機能を持つ項に対して複数の格助詞が代替可能である場合がある.\eenumsentence{\item私が/から話す\item太郎に/からもらう\item風に/で揺れる花びら\item土台に/とくっつける}この例では,ガ・ヲ・ニの間で代替可能なものはないが,仮に今後付与対象の格助詞を拡充することを考える際には,このような曖昧性を生み出す要素に対してどのように一貫したアノテーションを行うかを考慮する必要がある.ラベルの選択に本質的な曖昧性が出る場合には,ある基準にもとづいて(例えば,出現頻度順や,アノテーションコストが低くなるように,などで)決めた規則に従って,付与するラベルが一意に定まるようにするのが一般的である.しかし,前者の格フレームの曖昧性については,文脈によってはどちらか一方の格フレームの方が他方での解釈よりも自然な場合があり,そのような場合は適切な解釈となる格フレームを選ぶのが好ましいと考えられる.一方で,文脈の曖昧さによってはアノテータ間の意見が一致しない場合もありうるし,当然,本質的にどちらに解釈しても自然な場合もある.そのような事例に対しては,自動解析器の学習や評価時に適切な取り扱いができるように配慮しなければならない(どちらの解釈でも正解として学習・評価するなど).このような場合に総合的に配慮した対策を検討してみる.例えば前者の格フレーム間の曖昧性については,(i)事前に述語ごとの格フレーム辞書を用意しておくか,代表的な格フレーム交替についての名称を列挙しておき,(ii)アノテーション時に,複数の格フレームで判断に迷うものや本質的に曖昧なものについては,その交替の候補を列挙し,(iii)自己の判断,もしくは規則に従った判断で選んだ格フレームで格関係をアノテートする,という方法で,本質的に曖昧な事例と,規則や主観にもとづいた上での不一致を弁別することができる.次に,後者の代替可能な格に関するアノテーションを検討するため,今,仮に,ラベルの数を拡張し,ガ・ヲ・ニ・カラ・デ・トの6つの表層格を使ってアノテーションを行っている場合を考える.この6つのラベルに対して,$ガ・ヲ・ニ>カラ>ト>デ$などの半順序を与えることで規則的にこれを解消することもできるが,文中で,\enumsentence{彼には私から話しておく。}と格助詞「から」を伴って出てきている事例に対して,これを「ガ格」として正規化するためには,アノテータは事例毎に対象の述語に関する格フレーム辞書を想起し,格の交替関係を確認せねばならず,アノテーションのコストが大きい.したがって,作業コストの観点からすれば,少なくとも,述語が原形で使用されているもので,項が格助詞を伴って現れる場合には出現形の格でアノテートし,受身・使役などで格交替しているものや,ゼロ照応などで元の格助詞が不明なものに関しては,上記の半順序規則を適用するなどといった方法が好ましいと考えられる.一方で,解析器の学習や評価を行うときの観点からすれば,ラベル付与時に格を正規化しない場合に,格に意味的な一貫性を持たせて取り扱う,もしくは曖昧な格のうちいずれの格でも本質的に正しいという取り扱いをするためには,別途格フレーム辞書等に述語毎の格の交替情報を記述しておくなどする必要がある.\subsubsection{格フレーム辞書とアノテーションの一貫性}\label{sec:frame-dictionary}NTCやKTCのアノテーションでは,被連体修飾詞やゼロ代名詞として出現する項など,明示的に格助詞を伴わなかったり,対象の述語と何らかの統語的関係を伴わない項に関しても格関係の付与を行う.\pagebreakただし,開発作業時点では,ある述語の取り得る格(格フレーム)について参照できる辞書等が存在しなかったため\footnote{NTCでは,NTT語彙大系・構文体系の辞書\cite{nttlexicon}や竹内らの動詞語彙概念辞書\cite{takeuchi2005}などを参照して作業したものの,辞書に記述されている格パタンと新聞に出現する格パタンが必ずしも一致せず,逆に作業者が混乱したために,使用が中止された.},アノテータは内省に頼りながら,文章中からその述語に足りない項を補う作業を必要とした.しかし,一つ一つの述語の格フレームの定義をアノテータの内省に頼る方法には限界があり,その影響は\ref{sec:ntc-iaa}~節表~\ref{tbl:ntc_iaa}のNTCの作業者間一致率においても,ゼロ照応項の不一致という形で顕著に見られる.述語項構造アノテーションの一貫性を今以上に向上させるためには,予め各述語に対して正確な格フレーム辞書を定義しておくなどして,全てのアノテータが共有する共通の語彙知識ベースを整備する必要がある.実際に,NTCガイドライン準拠のアノテーションをBCCWJに対して行った研究\cite{komachi2011}では,既存の格フレーム辞書を一部参照することによって,作業者間一致率に一定の向上が得られたとしている.作業の上で参照する格フレーム情報はできるだけ精緻なものが求められるが,一方で,大規模な文章に対する述語項構造アノテーションを行うにあたって,ある述語の様々な言語現象を網羅した実用に耐えうる頑健な格フレーム辞書を人手で用意するには膨大なコストを必要とする.整備コストを抑えた方法として,大規模な文書データから自動的に格フレームを獲得する研究が存在するが\cite{kawahara2006case},獲得したフレームにはノイズも存在するため,アノテーション作業での運用には工夫が必要である.アノテーションを行う全てのデータができるだけ正確となるよう運用するのが最も望ましいが,現実的な面で言えば,例えば,初期の段階では,全体からサンプルした一部のデータに出現する述語のみ,あるいは主要語のみに絞るなどして,一部の述語に対してのみ精緻な格フレーム辞書を作ってアノテーションを行う方法が考えられる.この場合,精密なアノテーションデータは評価用のデータとして整備し,残りの部分は自動獲得した格フレーム等を参考にしながら大規模にアノテートするなど,質と量の双方を兼ね備えるコーパスを設計する方法が好ましいと考えられる.このような方法論はBCCWJのコアデータとデータ全体の間の関係などにも見られる.\subsubsection{非文へのアノテーション}\label{sec:ungramatical-sentence}アノテーション対象のデータには,場合によっては一部非文(らしき文)も含まれる.このような文に対してどのようなアノテーションの方針を取るのかについても考慮の余地がある.\eenumsentence{\item服を乾燥する(受容の余地あり)\label{nonsentence-a}\itemガラスを壊れる(マークされている意味機能的に受容出来ない)\label{nonsentence-b}}例えば,一般には「乾燥する」は自動詞だとされているが,(\ref{nonsentence-a})のような用例はWeb上には多数見られる.一方で,(\ref{nonsentence-b})の「壊れる」のように,形態論上は自動詞の形を取っているにもかかわらず格助詞「を」を取るような構造の文は相対的に受容しがたい.このような文に対して,(i)アノテートするかということと,(ii)どのような文を非文とみなすかということが問題となる.(i)に関しては,現実にデータ上に存在する事例であり,応用事例によっては特によく使われている過ちは頑健に解析したいという場合もあるため,書かれたままの表層格を基にアノテートする方法が望ましいと思われる.(ii)に関しては,我々の知る限り,現在までに非文というものの明確な定義は存在せず,個人の内省にもとづいて判断されるもののため,例えば,非文かどうかの判断はアノテータに任せ,代わりに非文と判断された事例を記録しておくことで,必要に応じてデータを区分できるようにしておくような方法が有用と考えられる.\subsection{新聞ドメイン以外で見られた現象}\label{sec:other-domains}本節では,新聞記事以外のドメインに対する試験的なアノテーション作業において現れた,既存のガイドラインで対象としていない項目についてまとめる.このことについて我々が分析の対象としたデータはWikipedia及びBCCWJコアデータ\footnote{書籍,雑誌,白書,Yahoo!知恵袋,Yahoo!ブログの5つのドメインを含む.}より収集した1,000〜1,200文程度であるため,各項目の事例を網羅的に収集するに至ったとは言い難い.従って,ここではそれぞれの項目についての現象の説明をするにとどめ,具体的な考察については今後の課題とすることにした.また,今回の分析に用いた新ドメインの文章量は,新聞ドメイン以外で新たに必要となる基準を多岐にわたって示すには十分ではないが,一般にはドメインごとに少なからず特定の言語現象の分布に偏りがあるなど,各ドメインは特有の性質を持つ場合が多い.このため,アノテーションガイドラインを新ドメインに対応させるためには,それぞれのドメインにおける十分な量の個別事例を収集し分析するとともに,同ドメインにおけるアプリケーションからの要請等も検討しながら適切な仕様を策定していく必要がある.\subsubsection{述語の省略}\label{sec:pred-omission}口語的な文においては,文末の述語が省略され,項のみが残されるというケースがよく見られる.\enumsentence{タモリさんから、「これは誰から?」と聞かれた。(「貰ったの」の省略?)}このような例で省略されている述語が文脈上容易に想像できる場合,何かしらの述語を補うか,あるいは「述語-非出現」などのラベルを用意して対応する格をアノテートするか,そもそも項構造を解析しないか,ということが議論の対象となる.述語省略の究極的なケースとしては\eenumsentence{\itemこれは…。\itemそれはちょっと…。}などがあり,このような場合は,述語が何であるかのみならず,残された格が何格であるかすら推定が難しい場合があるため,どこまでがアノテーションを行って有用な情報となるかの判断は難しい.\subsubsection{疑問文の照応}\label{sec:question}対話文においては,疑問文とその回答の間での照応も存在する.\eenumsentence{\item「あれは誰?」「彼は山田太郎だよ」\item「誰からもらったの?」「太郎からだよ」}NTC・KTCにおいては,現在のところ疑問文に対する照応関係の取り扱いはない.共参照・照応については本論文での議論の範疇外としたが,対話文の多いドメインに対して照応・述語項構造を付与する場合は,疑問文とその回答に対するアノテーション仕様も考慮する必要が出てくる.\subsubsection{音象徴語}\label{sec:sound-symbol}次の例のように,音象徴語がサ変名詞のように振る舞い,述語として現れる場合がある.そのような場合,音象徴語にも述語項構造をアノテートすることが考えられるが,事例によっては,副詞的振る舞いとサ変名詞的振る舞いのどちらと取るか判断に迷う場合があった.\eenumsentence{\item$[胸_{ガ}$]がドキドキ\underline{する}\item$[胸_{ガ}$]が\underline{ドキドキ}\item$[胸_{ガ}$]の\underline{ドキドキ}(イベント性名詞)\item$[胸_{ガ}$]がドキドキと\underline{高鳴る}音(副詞用法)}サ変名詞的振る舞いをする場合,副詞的振る舞いをする場合の他,その他の音象徴語の統語的振る舞いについて,述語として認定するための明確なガイドラインを整備する必要がある.
\section{見通しの良いフレームワークの設計}
\label{sec:framework}より質の高いアノテーションを目指してガイドラインを改善していくことを考えた場合,対象のガイドラインは,その中で示されるそれぞれの基準がどのような視点で採用されたのかが明確に分かるものでなければならない.また,仕様策定時の理念をコーパス作成者の中で閉じた情報とせず,広く研究者間で共有できる形に整理することにより,継続的な議論が可能になると考える.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA12f1.eps}\end{center}\caption{設計の基本方針と各論点との対応関係}\label{fig:principles}\end{figure}このような背景から,本節では,述語項構造アノテーションを題材とすることで集約した,アノテーション仕様及びガイドラインの策定時に配慮されるべき基本方針を述べる.これらは,議論に関わった研究者らが種々のアノテーションタスクの設計を通して経験的に理解している事柄を集約したものであり,複雑でアノテーションコストが高く,また,現象の網羅のために大規模なアノテーションを行う必要がある同様のタスクに対しても有用なものである.\ref{sec:criteria}~節では,\ref{sec:individual}~節の議論から集約したガイドライン策定上の着眼点を,各論点との対応関係を示しながら述べる.図~\ref{fig:principles}には,\ref{sec:criteria}~節で説明する設計の基本方針と\ref{sec:individual}~節で示した各議論との対応関係をあらかじめまとめた.\ref{sec:example-framework}~節では,議論全体を俯瞰する目的で,\ref{sec:individual}~節で議論した内容にもとづいた述語項構造アノテーションのフレームワークの具体的な一例を示す.\subsection{大規模アノテーションタスクに関するガイドラインの設計時に考慮すべきこと}\label{sec:criteria}\noindent\textbf{A.データ内の現象に関する取り扱いの網羅性}(\ref{sec:important-pred}節,\ref{sec:event-noun-dicision}節,\ref{sec:complex-word-decomposition}節,\ref{sec:additional-cases}節,\ref{sec:idioms}節):大規模なデータに対してアノテーションを施す場合,そのデータ内で起こりうる,判断に特別のガイダンスを必要とする現象に対して,現状のガイドラインがその現象のそれぞれの事例を十分に被覆できるかどうかについて十分な配慮が必要である.特に,アノテーションの判断の決め手が,単語の意味や,慣用表現など,言語の生産的な部分に関与している場合には,予め判断基準が列挙しつくせない場合もある.その場合,アノテーション作業中に逐次的にガイドラインの一部を更新・反映する仕組みについても考慮する必要がある.綿密に判断基準を決めるべき特定の現象があるとき,そのバリエーションが,事前に少量の努力もしくは既知の知識で列挙可能かどうか,非生産的で有限個なのか,あるいは生産的なのかについて考察し,もし,事前列挙不可能な場合は,作業中に新たなバリエーションを発見した際に他の基準に極力影響しない形でガイドラインを更新する方法についてもフレームワークの設計時点で考慮する必要がある.\noindent\textbf{B.利用目的とアノテーション仕様の関係}(\ref{sec:important-pred}節,\ref{sec:complex-word-decomposition}節,\ref{sec:ntc-case-ktc-case}節):テキストに対するアノテーションを考えたとき,一般には,利用目的が異なれば,それに応じて必要になるラベル情報も異なる.必要な情報のみを表現するラベルセットを作成し,不必要な情報の付与は避けるのが自然なスキーマ設計の方法である.述語項構造のような基本的構造のアノテーションにおいても,同様の考え方は必要である.例えば,次に挙げる応用処理においては,述語項構造のどの部分の情報を用いたいか,どのような目的で用いるかによって,ラベル付与の基本単位や前提となる意味論の精密度が異なる.\begin{itemize}\item機械翻訳:フレーズベースで翻訳する場合には,複合語内部の項構造情報は比較的必要性が低い.また,項のラベルについては,基本的には表層格のレベルで十分な場合が多い.日英の場合,省略(ゼロ照応)解析は重要課題とされる.\item含意関係・言い換え認識:複合語内部も分解して解析する必要がある.場合によっては,項構造が意味役割のレベルで表現されるのが望ましい.\end{itemize}述語項構造のような基本的な構造をアノテートする際は,様々な応用の可能性を想定しなければならない.また,このようなそれぞれの応用処理からの異なる要求に対し,柔軟にアノテーションの方法を提供でき,かつ,仮にアノテーションがタスク志向で行われた場合にも,最終的にタスク個別のアノテーションデータを統合できるようなフレームワークであることが好ましい.\noindent\textbf{C.段階的に質と情報密度を向上できるフレームワーク}(\ref{sec:idioms}~節,\ref{sec:ntc-case-ktc-case}~節,\ref{sec:adjective-ni}~節):述語項構造や語義のアノテーションのように,アノテーションコストの非常に高いタスクでは,人的資源の制約から,一部の現象のみに対象を絞って初期のアノテーションが行われる場合もある\cite{pradhan2007semeval}.また,解析のための理論自体が未解決なタスクの場合,全ての問題点が解決するのを待たずに,判断の境界が明確な部分についてのみアノテーションを進めるという方法が取られる場合もある.こうしたアノテーションタスクにおいては,アノテーションスキーマを順次拡充・変更し,段階的に新しいタイプの情報を付加していける設計のほうが好ましい.しかし,そのような設計の実現のためには,実際には仕様設計の初期段階においても,将来追加される情報をある程度想定し,表現の親和性や,データの自然な統合方法について配慮しておく必要がある.仮に問題を全て解決せずとも,タスク内で起こりうる現象について把握し,可能な限りスキーマ拡張のためのインターフェースを用意しておくのがよい.\noindent\textbf{D.本質的に曖昧な選択肢に対する作業の一貫性・評価}(\ref{sec:ni-imperativeness}節,\ref{sec:frame-ambiguity}節,\ref{sec:ungramatical-sentence}~節):ある現象に対してアノテーションを行うとき,複数の選択肢に関して,理論的な要請も特になく,応用処理の観点からもどちらの選択肢を取っても問題ない場合がある.このような場合にどちらの選択肢を選ぶかの基準を設けなければ,曖昧性のために見かけ上の作業者間一致率が低下する.また,明確に判断可能な事例と本質的に曖昧性のある事例が混在することで,解析システムの評価時にも,各事例において,解析誤りのために精度が低いのか,タスク自体が持つ曖昧性のために精度が低いのかの判断が難しくなる.したがって,このような事例に対して,作業の一貫性を与える,もしくは適切な評価手法を与える配慮が必要である.一般に,ラベルの選択に曖昧性がある場合には,選択に優先順位を定義するなど,ラベルが一意に定まるような規則を決める方法が取られる.結果,一致率が向上し,応用処理に用いる際も一貫した利用方法を考えることができる.もう一つの解決策は,本質的に曖昧な事例が出現した際に,その事例が曖昧であることを示しておくことである.そうすることで,曖昧な事例に関しては評価に含めない,あるいはどちらでも正解とみなすなどして,一致率,精度の評価がより適切に行えるようになる.\noindent\textbf{E.作業上のコストや作業者が直面する選択肢数をできるだけ減らすフレームワーク}(\ref{sec:important-pred}節,\ref{sec:complex-word-decomposition}~節,\ref{sec:frame-ambiguity}~節):複雑で作業コストが高く,また,表現のバリエーションや頻度分布を観測するために大規模な事例数が必要なタスクにおいては,限られた資源を用いてより多くのデータを作成できるよう,いかにその作業上のコストを下げるかを検討することも重要な課題の一つである.加えて,作業者に複数の選択肢から一つを選ぶような判断を迫る場面においては,できるだけ選択肢を事前に絞り込み,不要な迷いを避ける工夫が,作業効率の面だけでなく作業結果の一貫性を向上させる意味でも必要不可欠である\cite{Bayerl:2011:DIA:2077692.2077696}.\noindent\textbf{F.データ量と質のコントロール}(\ref{sec:frame-dictionary}~節):前述のとおり,大規模なアノテーションを行うためには,一つ一つの事例に対して大きな作業コストのかかる方法を気軽に採用することは難しい.一方で,述語項構造のような基礎的な構造の分析に関しては,解析システムの正確な評価のために,できるだけ高品質なデータが必要とされることも確かである.このような,データ量と品質のトレードオフをどのような方針で管理するかについても考慮が必要である.\subsection{述語項構造アノテーションフレームワークの一案}\label{sec:example-framework}本節では,考察結果全体を俯瞰する目的で,\ref{sec:individual}~節での個別の論点への考察を通して導かれた述語項構造アノテーションフレームワーク全体の具体的な設計の一案について述べる.ただし,このフレームワークは議論の中で出された複数の選択肢のうちの一つを組み合わせたものであり,議論の唯一解を示すものではないことに注意されたい.図~\ref{fig:framework}には,その全体像を示した.これは,これまでの議論をふまえて精査し・修正したガイドラインと共に,複数の述語-項関係ラベルセット,異なるラベルセット間のラベルの対応関係,複数の質の異なる格フレーム辞書,機能表現・慣用表現等に関する辞書などを保持し,アプリケーションで必要な情報に応じて柔軟に運用できるよう配慮された設計となっている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA12f2.eps}\end{center}\caption{述語項構造アノテーションフレームワークの一案}\label{fig:framework}\end{figure}図~\ref{fig:framework}(a)の部分では,機能表現,複合語内項構造,慣用表現など,個々の事例に判断を要し,かつ事例のバリエーションが豊富なものに対して,既存の言語資源をベースとするなどして予め取り扱いの指示を定めた辞書を用意しておく.そうすることで,テキスト内で該当する可能性がある箇所を自動チェックし,作業漏れの抑制,アノテーションの半自動化を行うことができる.この辞書は,アノテータ間に共通の判断を強制する効果があり,その結果,各事例について一貫した作業結果を得ることができる.複合語内部の述語項構造など,ほとんど全ての事例に同一の関係しか認められないものについては,その項構造を辞書的に保持することで,アノテータが事例毎に自明なアノテーション作業を行うことを避けることもできる.アノテータは辞書の規則に反する一部の例外のみを作業するだけでよい.また,辞書に未収録の事例が出現した時点で辞書エントリを追加し,コーパスを再チェックする仕組みを作成しておく.図~\ref{fig:framework}(b)の部分では,格の情報に関して二つのことを管理する.一つ目は,格フレーム辞書の管理である.必須格の見落としなどの作業の揺れを防ぎ,作業者間一致率を向上させるため,各述語の語義ごとに取り得る格をあらかじめ列挙した辞書を作っておく.この辞書は,図~\ref{fig:framework}(d)の部分で述べる格の曖昧性の管理にも有効である.二つ目は,アプリケーションの用途に応じて異なるラベルセットで行ったアノテーションについて,データをマージしたり,新たに追加で別のラベルセットを用いてアノテートする際,最小限の追加作業でアノテーションを行えるよう,異なるラベルを持った格フレーム辞書間での格の対応関係を管理する.格の対応関係表には,各述語のフレームに対する異なるラベルセット間での格ラベルの対応関係が記述される.例えば,述部出現形の表層格(KTC形式)と述語原形の表層格(NTC形式)の対応関係であれば,表~\ref{tbl:kuwaeru}のような情報である.\begin{table}[b]\caption{述語「加える」に関する述部出現形表層格と述語原形表層格の対応関係}\label{tbl:kuwaeru}\input{ca12table06.txt}\end{table}この情報は,人手,または自動的な方法のいずれかで構築する.格ラベルの対応表と,変換に必要な付加情報(語義・態・アスペクト・ムードなど)が用意できれば,いずれのラベルセットを使ってアノテートしておいても用途に応じた適切な粒度のラベルに変換して取り出すことができるようになる.ただし,それぞれの辞書が精緻に作成されていない場合,\ref{sec:ntc-case-ktc-case}節で述べるような変換上の問題も存在する.このような対応関係表の作成が現実的に難しい場合でも,代替的な方法として,例えば,述部出現形の表層格と述語原形の表層格の場合には,格の交替が起こりえない状況を列挙しておくなどすることで,同一の文章に異なるラベルセットでアノテーションを追加する際に一意にラベルの対応が取れる箇所のアノテーションを省略することができる.図~\ref{fig:framework}(c)の部分では,コーパスの量と質のバランスを管理する.全データ中の$n\%$,あるいは主要な$m$語への述語項構造といった方法でコーパスを区分し,一定量のデータに対しては大規模コーパスの調査などから人手で構築した精緻な格フレーム辞書を用意する.これを参照して作業することで作業者間一致率を上げ,また,アノテーション結果の多重チェックを行うなどして精密な分析・評価用データとして確保する.その他のデータは,従来通り格フレームと関連付けない,もしくは人手や自動獲得によって作られた既存の格フレーム辞書を参考情報としてアノテートするなどして,質と量の双方をバランスよく確保する.図~\ref{fig:framework}(d)の部分では,ラベル付与の本質的な曖昧性を管理する.曖昧な事例といっても,事例によっては本質的に完全に曖昧な場合もあれば,文脈上いずれかの選択肢が優勢と判断できる場合や,その中間のようなあやふやな場合もある.したがって,これらを区別するために次の三つの付与方法を用意する.\begin{enumerate}\itemアノテータが文脈に応じて疑いなく一つの選択肢を選ぶ場合,曖昧性を示唆するマーカーを付けない.\itemアノテータがいずれかの選択肢が優勢と感じたものの,はっきりと判断出来ない場合は,優位なラベルを1stとし,その他の候補をothers欄に列挙する.\itemアノテータが文脈上完全に曖昧だと判断した場合は,予め決めておいた順列に従って付与するラベルを選ぶ.その際は,曖昧であることを示すマーカーを付け,他の候補も列挙しておく.\end{enumerate}こうしておくことで,どの事例が曖昧で,どれがそうでないのか明確に区別できる上,本質的に曖昧な事例については統一的にラベルを振ることで,解析器の学習を行う際や解析器の出力を応用処理に用いる際も一貫した利用方法を考えることができる.ラベルの順列を決める場合は,極力簡潔な方を選ぶ(例えば,項の数がより少ない格フレームを選ぶ,使役・受身より原形,他動詞より自動詞,自動詞+使役より他動詞を選ぶ)ように規則を決めておくことにより,アノテータの判断時の負荷を下げる工夫をする.格フレーム辞書として精緻なフレームを用意している場合は,格の曖昧性を格フレーム側で管理する.例えば,図~\ref{fig:framework}(d)の2文目では「起動」に自動詞と他動詞の解釈があるが,アノテータが文脈上曖昧と判断した場合はこれに「自動詞・曖昧」とマークし,「パソコン」には,自動詞時の解釈であるガ格を割り当てる.格フレームには,自他交替など曖昧な格についての交替関係を記述しておくことで,仮に他動詞と判断した場合には「パソコン」がヲ格となることを知ることができるため,解析システムの評価時にも公平な評価が行える.以上の設計の他に,\ref{sec:individual}~節の議論の結果から,段階的な質・情報密度の向上を行う際の問題の切り分け方と作業の優先順位を設定する.\begin{enumerate}\item動詞・形容詞・コピュラ・サ変の体言止めの項構造アノテーション(慣用句と思う事例はチェックしておく)(複合語は分解せず,語の外側に出現する項のみアノテーション)\item複合語の分解(辞書的処理)\itemイベント性名詞の項構造アノテーション(転成名詞・サ変名詞)\item慣用句の収集・整理・述語化\item照応・共参照情報に関わる整備(本論文の範疇外)\itemニ格相当の形容詞\item必須格と周辺格の区別\item意味役割によるアノテーション\end{enumerate}このように,ラベル付与の判断がより明確な部分から段階を踏んでアノテーションを行うことによって,より複雑な現象についてコーパス内の事例を収集し,問題を分析しつつ設計を進めることができる.\ref{sec:criteria}~節で示したとおり,これらの個々の取り決めの一例は,ガイドライン設計時の指針や個別に行った議論と明確に結びついている.このような形で設計の理念・問題の議論・対応する規定の間の関係を明文化して示すことで,継続的・建設的に仕様やガイドラインを改善するための議論を重ねることが可能となる.
\section{まとめ}
\label{sec:conclusion}本論文では,より洗練された述語項構造アノテーションのガイドラインを作成する目的で,NTC・KTCの仕様策定,仕様準拠のアノテーション,応用処理に関わった研究者,アノテータらの考察を基に,議論の対象となる点を整理した.具体的には,既存のガイドラインを用いた新規アノテーションによる考察と,研究者・アノテータが経験的に持つ知見を集約するという方法の二つの方法で,既存のガイドラインからは簡潔に解決出来ない問題として$4$種$15$項目の論点を洗い出し,それぞれの論点について現状の問題点やそれに対する改善策を議論し報告した.議論結果を整理するにあたっては,ガイドライン策定の基準となる着眼点を示し,議論内容や,結論との対応関係を示すことで,将来のガイドライン改善に向けて建設的な知見となることを目指した.本論文で示すアノテーションガイドライン改善のための論点の洗い出し方法は,現行のアノテーションガイドラインにもとづいてラベル付与を行った際の一致率を問題視して行った手法であったため,既存のガイドライン,もしくはその簡単な修正版によって明確にアノテーション規則が定まるものに関しては議論の対象としてあまり取り上げていないが,\ref{sec:criteria}~節で示した「利用目的とアノテーション仕様の関係」を仕様改善の指針として想定すれば,仕様の改善点は必ずしも作業の一致率という観点のみで推し量られるべきものではなく,コーパスの利用目的調査などに基づく仕様の改善や新たな付加情報の列挙も試みられるべきである.したがって,ここに記した問題が残る問題の全てとは言えないが,こうした建設的な考察の積み重ねによって,実用に耐えうる一貫性を持ったアノテーション方針が作られるとともに,統一的かつ頑健な言語解析理論の基礎が積み上がるものと信じるものである.我々の考察の手順や結果を例に取ると,問題点の洗い出しの方法論や,ガイドライン作成時の理念など,アノテーションに関わる科学は,未だ経験的知見によるところが大きい.しかし,近年では,アノテーションタスクの複雑度や,一致率に影響する因子などに客観的指標を与えようと試みる研究も見られる\cite{Bayerl:2011:DIA:2077692.2077696,fort2012modeling}.\ref{sec:criteria}~節において,我々が経験的知見によりガイドライン設計の指針としている事柄についても,広く一般的に成り立つ指針として,客観的指標で評価できるような仕組みを生み出していくことも今後の課題である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2003}]{ipadic}浅原正幸\JBA松本裕治.\newblockipadicversion2.6.3ユーザーズマニュアル.\\newblock\Turl{http://\linebreak[2]chasen.\linebreak[2]naist.\linebreak[2]jp/\linebreak[2]stable/\linebreak[2]doc/\linebreak[2]ipadic-2.6.3-j.pdf}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{Bayerl\BBA\Paul}{Bayerl\BBA\Paul}{2011}]{Bayerl:2011:DIA:2077692.2077696}Bayerl,P.~S.\BBACOMMA\\BBA\Paul,K.~I.\BBOP2011\BBCP.\newblock\BBOQWhatDeterminesInter-CoderAgreementinManualAnnotations?AMeta-AnalyticInvestigation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf37}(4),\mbox{\BPGS\699--725}.\bibitem[\protect\BCAY{Burchardt\BBA\Pennacchiotti}{Burchardt\BBA\Pennacchiotti}{2008}]{burchardt2008fate}Burchardt,A.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2008\BBCP.\newblock\BBOQFATE:aFrameNet-AnnotatedCorpusforTextualEntailment.\BBCQ\\newblockIn{\BemProceedingsofthe6thEditionoftheLanguageResourcesandEvaluationConference(LREC2008)},\mbox{\BPGS\539--546}.\bibitem[\protect\BCAY{Carreras\BBA\M\`{a}rquez}{Carreras\BBA\M\`{a}rquez}{2005}]{Carreras:2005:ICS:1706543.1706571}Carreras,X.\BBACOMMA\\BBA\M\`{a}rquez,L.\BBOP2005\BBCP.\newblock\BBOQIntroductiontotheCoNLL-2005SharedTask:SemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonComputationalNaturalLanguageLearning(CoNLL2005)},\mbox{\BPGS\152--164}.\bibitem[\protect\BCAY{Fort,Nazarenko,\BBA\Rosset}{Fortet~al.}{2012}]{fort2012modeling}Fort,K.,Nazarenko,A.,\BBA\Rosset,S.\BBOP2012\BBCP.\newblock\BBOQModelingtheComplexityofManualAnnotationTasks:AGridofAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalConferenceonComputationalLinguistics(COLING2012):TechnicalPapers},\mbox{\BPGS\895--910}.\bibitem[\protect\BCAY{グループ・ジャマシイ}{グループ・ジャマシイ}{1998}]{Jamasi1998}グループ・ジャマシイ\JED\\BBOP1998\BBCP.\newblock\Jem{教師と学習者のための日本語文型辞典}.\newblockくろしお出版.\bibitem[\protect\BCAY{橋田}{橋田}{2005}]{hashida05}橋田浩一.\newblockGDA日本語アノテーションマニュアル草稿第0.74版.\\newblock\Turl{http://\linebreak[2]i-content.\linebreak[2]org/\linebreak[2]gda/\linebreak[2]tagman.html}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2009}]{橋本力2009}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2009\BBCP.\newblock構文・照応・評判情報つきブログコーパスの構築.\\newblock\Jem{言語処理学会第15回年次大会論文集},\mbox{\BPGS\614--617}.\bibitem[\protect\BCAY{Hashimoto\BBA\Kawahara}{Hashimoto\BBA\Kawahara}{2008}]{hashimoto2008construction}Hashimoto,C.\BBACOMMA\\BBA\Kawahara,D.\BBOP2008\BBCP.\newblock\BBOQConstructionofanIdiomCorpusanditsApplicationtoIdiomIdentificationbasedonWSDIncorporatingIdiom-SpecificFeatures.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2008)},\mbox{\BPGS\992--1001}.\bibitem[\protect\BCAY{林部\JBA小町\JBA松本\JBA隅田}{林部\Jetal}{2012}]{hayashibe2012}林部祐太\JBA小町守\JBA松本裕治\JBA隅田飛鳥\BBOP2012\BBCP.\newblock日本語テキストに対する述語語義と意味役割のアノテーション.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\397--400}.\bibitem[\protect\BCAY{Hovy,Marcus,Palmer,Ramshaw,\BBA\Weischedel}{Hovyet~al.}{2006}]{hovy2006ontonotes}Hovy,E.,Marcus,M.,Palmer,M.,Ramshaw,L.,\BBA\Weischedel,R.\BBOP2006\BBCP.\newblock\BBOQOntoNotes:the90\%Solution.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheACL(HLT-NAACL2006)},\mbox{\BPGS\57--60}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2005}]{ntcguideline}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治.\newblock照応関係タグ付けマニュアル第0.02.1版.\\newblock\Turl{https://\linebreak[2]www.\linebreak[2]cl.\linebreak[2]cs.\linebreak[2]titech.\linebreak[2]ac.jp/\linebreak[2]\~{}ryu-i/\linebreak[2]coreference\_tag.html}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2008}]{noun2008}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2008\BBCP.\newblock名詞化された事態表現への意味的注釈付け.\\newblock\Jem{言語処理学会第14回年次大会論文集},\mbox{\BPGS\277--280}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{飯田龍2010述語項構造}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida2007annotating}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop(LAW'07)},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{Iida2011}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQ{ACross-LingualILPSolutiontoZeroAnaphoraResolution}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2011)},\mbox{\BPGS\804--813}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{nttlexicon}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{泉\JBA今村\JBA菊井\JBA藤田\JBA佐藤}{泉\Jetal}{2009}]{izumi2009}泉朋子\JBA今村賢治\JBA菊井玄一郎\JBA藤田篤\JBA佐藤理史\BBOP2009\BBCP.\newblock正規化を指向した機能動詞表現の述部言い換え.\\newblock\Jem{言語処理学会第15回年次大会論文集},\mbox{\BPGS\264--267}.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1987}]{ipal}情報処理振興事業協会技術センター\BBOP1987\BBCP.\newblock\Jem{計算機用日本語基本動詞辞書IPAL(basicverbs):辞書編}.\newblock情報処理振興事業協会技術センター.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{河原大輔2002関係}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock「関係」タグ付きコーパスの作成.\\newblock\Jem{言語処理学会第8回年次大会論文集},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{河原\JBA笹野\JBA黒橋\JBA橋田}{河原\Jetal}{2005}]{ktcguideline}河原大輔\JBA笹野遼平\JBA黒橋禎夫\JBA橋田浩一.\newblock格・省略・共参照タグ付けの基準.\\newblock\Turl{http://nlp.\linebreak[2]ist.\linebreak[2]i.\linebreak[2]kyoto-u.\linebreak[2]ac.\linebreak[2]jp/\linebreak[2]nl-resource/\linebreak[2]corpus/KyotoCorpus4.0/\linebreak[2]doc/\linebreak[2]rel\_guideline.pdf}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara2006case}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation(LREC2006)},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hasida}{Kawaharaet~al.}{2002}]{kawahara2002construction}Kawahara,D.,Kurohashi,S.,\BBA\Hasida,K.\BBOP2002\BBCP.\newblock\BBOQConstructionofaJapaneseRelevance-taggedCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC2002)},\mbox{\BPGS\2008--2013}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{}]{bccwj}国立国語研究所.\newblock現代日本語書き言葉均衡コーパス(BCCWJ).\\newblock\Turl{http://\linebreak[2]www.\linebreak[2]ninjal.\linebreak[2]ac.\linebreak[2]jp/\linebreak[2]corpus\_\linebreak[2]center/\linebreak[2]bccwj/}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{小町\JBA飯田}{小町\JBA飯田}{2011}]{komachi2011}小町守\JBA飯田龍\BBOP2011\BBCP.\newblockBCCWJに対する述語項構造と照応関係のアノテーション.\\newblock\Jem{日本語コーパス平成22年度公開ワークショップ},\mbox{\BPGS\325--330}.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1997}]{KUROHASHISadao:1997-06-24}黒橋禎夫\JBA長尾眞\BBOP1997\BBCP.\newblock京都大学テキストコーパス・プロジェクト.\\newblock\Jem{言語処理学会第3回年次大会論文集},\mbox{\BPGS\115--118}.\bibitem[\protect\BCAY{Laparra\BBA\Rigau}{Laparra\BBA\Rigau}{2013}]{laparra2013impar}Laparra,E.\BBACOMMA\\BBA\Rigau,G.\BBOP2013\BBCP.\newblock\BBOQImpAr:ADeterministicAlgorithmforImplicitSemanticRoleLabelling.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\1180--1189}.\bibitem[\protect\BCAY{Liu\BBA\Gildea}{Liu\BBA\Gildea}{2010}]{liu2010semantic}Liu,D.\BBACOMMA\\BBA\Gildea,D.\BBOP2010\BBCP.\newblock\BBOQSemanticRoleFeaturesforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(Coling2010)},\mbox{\BPGS\716--724}.\bibitem[\protect\BCAY{Loper,Yi,\BBA\Palmer}{Loperet~al.}{2007a}]{loper2007combining}Loper,E.,Yi,S.-T.,\BBA\Palmer,M.\BBOP2007a\BBCP.\newblock\BBOQCombiningLexicalResources:MappingbetweenPropBankandVerbNet.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalWorkshoponComputationalSemantics(IWCS-7)},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Loper,Yi,\BBA\Palmer}{Loperet~al.}{2007b}]{semlink}Loper,E.,Yi,S.-T.,\BBA\Palmer,M.\newblock\BBOQSemLink1.1.\BBCQ\\newblock\Turl{http://\linebreak[2]verbs.\linebreak[2]colorado.\linebreak[2]edu/\linebreak[2]semlink/}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{Marcus,Kim,Marcinkiewicz,MacIntyre,Bies,Ferguson,Katz,\BBA\Schasberger}{Marcuset~al.}{1994}]{marcus1994penn}Marcus,M.,Kim,G.,Marcinkiewicz,M.~A.,MacIntyre,R.,Bies,A.,Ferguson,M.,Katz,K.,\BBA\Schasberger,B.\BBOP1994\BBCP.\newblock\BBOQThePennTreebank:AnnotatingPredicateArgumentStructure.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponHumanLanguageTechnology},\mbox{\BPGS\114--119}.\bibitem[\protect\BCAY{Marcus,Marcinkiewicz,\BBA\Santorini}{Marcuset~al.}{1993}]{marcus1993building}Marcus,M.~P.,Marcinkiewicz,M.~A.,\BBA\Santorini,B.\BBOP1993\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusofEnglish:ThePennTreebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{M\`{a}rquez,Carreras,Litkowski,\BBA\Stevenson}{M\`{a}rquezet~al.}{2008}]{marquez2008srl}M\`{a}rquez,L.,Carreras,X.,Litkowski,K.~C.,\BBA\Stevenson,S.\BBOP2008\BBCP.\newblock\BBOQ{SemanticRoleLabeling:anIntroductiontotheSpecialIssue}.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(2),\mbox{\BPGS\145--159}.\bibitem[\protect\BCAY{Matsubayashi,Miyao,\BBA\Aizawa}{Matsubayashiet~al.}{2012}]{MATSUBAYASHI12.941}Matsubayashi,Y.,Miyao,Y.,\BBA\Aizawa,A.\BBOP2012\BBCP.\newblock\BBOQBuildingJapanesePredicate-argumentStructureCorpususingLexicalConceptualStructure.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonLanguageResourcesandEvaluation(LREC2012)},\mbox{\BPGS\1554--1558}.\bibitem[\protect\BCAY{Matsumoto}{Matsumoto}{1996}]{matsumoto1996syntactic}Matsumoto,Y.\BBOP1996\BBCP.\newblock\BBOQASyntacticAccountofLightVerbPhenomenainJapanese.\BBCQ\\newblock{\BemJournalofEastAsianLinguistics},{\Bbf5}(2),\mbox{\BPGS\107--149}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{Matsuyoshi2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004}]{meyers2004nombank}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004\BBCP.\newblock\BBOQTheNomBankProject:AnInterimReport.\BBCQ\\newblockIn{\BemHLT-NAACL2004Workshop:FrontiersinCorpusAnnotation},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{Moor,Roth,\BBA\Frank}{Mooret~al.}{2013}]{frankpredicate}Moor,T.,Roth,M.,\BBA\Frank,A.\BBOP2013\BBCP.\newblock\BBOQPredicate-specificAnnotationsforImplicitRoleBinding:CorpusAnnotation,DataAnalysisandEvaluationExperiments.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonComputationalSemantics(IWCS2013):ShortPapers},\mbox{\BPGS\60--65}.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{Morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型—用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{村木}{村木}{1991}]{村木新次郎1991日本語動詞の諸相}村木新次郎\BBOP1991\BBCP.\newblock\Jem{日本語動詞の諸相}.\newblockひつじ書房.\bibitem[\protect\BCAY{村木\JBA青山\JBA六条\JBA村田}{村木\Jetal}{1984}]{muraki:84}村木新次郎\JBA青山文啓\JBA六条範俊\JBA村田賢一\BBOP1984\BBCP.\newblock辞書における格情報の記述.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf1984}(46),\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2009}]{contemporaryJapanese2}日本語記述文法研究会\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語文法},2\JVOL.\newblockくろしお出版.\bibitem[\protect\BCAY{西山}{西山}{2003}]{nishiyama2003}西山佑司\BBOP2003\BBCP.\newblock\Jem{日本語名詞句の意味論と語用論:指示的名詞句の非指示的名詞句}.\newblockひつじ書房.\bibitem[\protect\BCAY{小原}{小原}{2013}]{ohara2013}小原京子\BBOP2013\BBCP.\newblock日本語フレームネット:文意理解のためのコーパスアノテーション.\\newblock\Jem{言語処理学会第19回年次大会論文集},\mbox{\BPGS\166--169}.\bibitem[\protect\BCAY{Palmer,Kingsbury,\BBA\Gildea}{Palmeret~al.}{2005}]{palmer2005pba}Palmer,M.,Kingsbury,P.,\BBA\Gildea,D.\BBOP2005\BBCP.\newblock\BBOQ{ThePropositionBank:AnAnnotatedCorpusofSemanticRoles}.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Pradhan,Loper,Dligach,\BBA\Palmer}{Pradhanet~al.}{2007}]{pradhan2007semeval}Pradhan,S.~S.,Loper,E.,Dligach,D.,\BBA\Palmer,M.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task17:EnglishLexicalSample,SRLandAllWords.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval2007)},\mbox{\BPGS\87--92}.\bibitem[\protect\BCAY{Ruppenhofer,Ellsworth,Petruck,Johnson,\BBA\Scheffczyk}{Ruppenhoferet~al.}{2010}]{Johnson2003}Ruppenhofer,J.,Ellsworth,M.,Petruck,M.~R.~L.,Johnson,C.~R.,\BBA\Scheffczyk,J.\BBOP2010\BBCP.\newblock{\Bem{FrameNetII:ExtendedTheoryandPractice}}.\newblockBerkeleyFrameNetRelease.\bibitem[\protect\BCAY{Sasano,Kawahara,Kurohashi,\BBA\Okumura}{Sasanoet~al.}{2013}]{sasano2013}Sasano,R.,Kawahara,D.,Kurohashi,S.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQAutomaticKnowledgeAcquisitionforCaseAlternationbetweenthePassiveandActiveVoicesinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1213--1223}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2007}]{佐藤理史:2007-03-28}佐藤理史\BBOP2007\BBCP.\newblock基本慣用句五種対照表の作成.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2007}(35),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Shen\BBA\Lapata}{Shen\BBA\Lapata}{2007}]{shen2007using}Shen,D.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQUsingSemanticRolestoImproveQuestionAnswering.\BBCQ\\newblockIn{\Bemthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\12--21}.\bibitem[\protect\BCAY{Silberer\BBA\Frank}{Silberer\BBA\Frank}{2012}]{Silberer:2012:CIR:2387636.2387638}Silberer,C.\BBACOMMA\\BBA\Frank,A.\BBOP2012\BBCP.\newblock\BBOQCastingImplicitRoleLinkingasanAnaphoraResolutionTask.\BBCQ\\newblockIn{\BemProceedingsofthe1stJointConferenceonLexicalandComputationalSemantics(*SEM)},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira2008japanese}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesePredicateArgumentStructureAnalysisusingDecisionLists.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2008)},\mbox{\BPGS\523--532}.\bibitem[\protect\BCAY{竹内\JBA乾\JBA藤田\JBA竹内\JBA阿部}{竹内\Jetal}{2005}]{takeuchi2005}竹内孔一\JBA乾健太郎\JBA藤田篤\JBA竹内奈央\JBA阿部修也\BBOP2005\BBCP.\newblock分類の根拠を明示した動詞語彙概念構造辞書の構築.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2005}(94),\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{竹内\JBA上野}{竹内\JBA上野}{2013}]{takeuchi2013}竹内孔一\JBA上野真幸\BBOP2013\BBCP.\newblock日本語コーパスに対する動詞項構造シソーラスの概念と意味役割のアノテーション.\\newblock\Jem{言語処理学会第19回年次大会論文集},\mbox{\BPGS\162--165}.\bibitem[\protect\BCAY{山口}{山口}{2013}]{yamaguchi2013}山口昌也\BBOP2013\BBCP.\newblock複合動詞用例データベースの構築と活用.\\newblock\Jem{国語研プロジェクトレビュー},{\Bbf4}(1),\mbox{\BPGS\61--69}.\bibitem[\protect\BCAY{Yoshikawa,Asahara,\BBA\Matsumoto}{Yoshikawaet~al.}{2011}]{Yoshikawa2011}Yoshikawa,K.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQ{JointlyExtractingJapanesePredicate-ArgumentRelationwithMarkovLogic}.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2011)},\mbox{\BPGS\1125--1133}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{松林優一郎}{1981年生.2010年東京大学大学院情報理工学系研究科・コンピュータ科学専攻博士課程修了.情報理工学博士.同年より国立情報学研究所・特任研究員.2012年より東北大学大学院情報科学研究科・研究特任助教.意味解析の研究に従事.人工知能学会,ACL各会員.}\bioauthor{飯田龍}{1980年生.2007年奈良先端科学技術大学院大学情報科学研究科博士期課程修了.同年より奈良先端科学技術大学院大学情報科学研究科特任助教.2008年12月より東京工業大学大学院情報理工学研究科助教.現在にいたる.博士(工学).自然言語処理の研究に従事.情報処理学会,日本教育工学会各会員.}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).2010年より東京工業大学精密工学研究所助教.照応解析,述語項構造解析の研究に従事.情報処理学会,人工知能学会,ACL会員.}\bioauthor{横野光}{2003年岡山大学工学部情報工学科卒業.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.同年東京工業大学精密工学研究所研究員,2011年国立情報学研究所特任研究員,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{松吉俊}{1980年生.2008年京都大学大学院情報学研究科博士後期課程修了.同年より奈良先端科学技術大学院大学情報科学研究科特任助教.2011年より山梨大学大学院医学工学総合研究部助教.現在にいたる.博士(情報学).自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{藤田篤}{1977年生.2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).京都大学大学院情報学研究科産学官連携研究員,名古屋大学大学院工学研究科助手,同助教を経て,2009年より公立はこだて未来大学システム情報科学部准教授.現在にいたる.自然言語処理,主に言い換え表現の生成と認識,機械翻訳の研究に従事.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{宮尾祐介}{1998年東京大学理学部情報科学科卒業.2006年同大学大学院にて博士号(情報理工学)取得.2001年より同大学にて助手,のち助教.2010年より国立情報学研究所准教授.構文解析とその応用の研究に従事.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
| |
V27N03-04
|
\section{はじめに}
近年,自然言語処理の多くのタスクにおいて,ニューラルネットワークが活用されている.機械翻訳の分野においてもその有効性が示されており,その中でも,Transformer\cite{transformer}というモデルがリカレントニューラルネットワーク(RNN)を用いたモデルや畳み込みニューラルネットワーク(CNN)を用いたモデルの翻訳性能を上回り,注目を浴びている.これまでに,統計的機械翻訳やニューラル機械翻訳では原言語や目的言語の文構造を考慮することで翻訳性能が改善されており\cite{pathbased_smt,sdrnmt,rnng_nmt},TransformerNMTにおいても文構造の有用性が示されている\cite{dep2dep}.そこで本研究では,Transformerモデルで係り受け構造を考慮することで翻訳性能の改善を試みる.Transformerの特徴の一つであるself-attentionは文内における単語間の関連の強さを考慮することができ,機械翻訳のみならず,言語モデルの獲得や意味役割付与など,様々なタスクにおいて精度の向上に寄与してきた.Strubellらは意味役割付与の性能を向上させるため,Transformerエンコーダのself-attentionで文の係り受け構造を捉える,linguistically-informedself-attention(LISA)と呼ばれるモデルを提案している\cite{lisa}.LISAでは,multi-headself-attentionのうちの1つのヘッドを,各単語が係り先の単語を指すように,係り受け関係に基づいた制約を与えて学習させている.本研究は,Transformerエンコーダとデコーダのself-attentionで,それぞれ,原言語の文と目的言語の文の係り受け構造を捉えるTransformerNMTモデルを提案する.以降,この係り受け関係を捉えるself-attentionをdependency-basedself-attentionと呼ぶ.具体的には,NMTモデルの訓練時に,エンコーダとデコーダのself-attentionの一部を,各単語が係り先の単語を指すように,原言語の文や目的言語の文の係り受け関係に基づいた制約を与えて学習させる.そして,推論時には制約を与えて学習したself-attentionが文の係り受け関係を捉えながら翻訳する.ただし,推論時には目的言語文が明らかでないため,LISAの手法を直接TransformerNMTモデルのデコーダに適用することはできない.そこで,提案のdependency-basedself-attentionでは,まだ予測していない単語に対してアテンションを向けないように,デコーダ側のself-attentionを学習する際は,自身の単語より後方に係る係り受け関係にマスクをかけた制約を用いる.また,近年のニューラル機械翻訳モデルの多くは,文を単語列ではなくサブワード列として扱うことで低頻度語の翻訳に対応している\cite{subword}.そこで,本研究では,dependency-basedself-attentionをbytepairencoding(BPE)などによるサブワード列に対しても適用できるように拡張する.AsianScientificPaperExcerptCorpus\(ASPEC)\データ\\cite{aspec}を用いた日英・英日翻訳の評価実験において,提案のTransformerモデルと従来の係り受け構造を考慮しないTransformerモデルを比較し,dependency-basedself-attentionを組み込むことでBLEUがそれぞれ1.04ポイント・0.30ポイント向上することを確認した.また,実験では,原言語側のdependency-basedself-attentionと目的言語側のdependency-basedself-attentionのそれぞれの有効性とBPEに拡張したときの有効性も確認した.本稿の構成は以下の通りである.まず2章で提案手法が前提とするTransformerモデルについて説明したのち,3章で提案手法であるdependency-basedself-attentionを示す.4章で提案手法を組み込んだモデルの翻訳性能を評価することで手法の有効性を示す.5章で提案手法の拡張であるsubworddependency-basedself-attentionの有効性,提案手法のdependency-basedself-attentionが捉える係り受け構造,従来モデルと提案モデルの翻訳文の違い,提案モデルの設定に関する比較実験をそれぞれ示す.6章で関連研究の文構造を考慮したニューラル機械翻訳モデルについて議論し,7章で本稿のまとめとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Transformerモデル}
本節では,提案モデルの基礎となるTransformerNMTモデル\cite{transformer}を説明する.TransformerNMTモデルの概要を図\ref{fig:transformer}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-3ia3f1.eps}\end{center}\caption{Transformerモデルの概要}\label{fig:transformer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%TransformerNMTモデルは,入力された原言語の単語列$X(=x_{1},x_{2},\ldots,x_{n_\mathit{enc}})^\top$をエンコードするTransformerエンコーダ(以下,エンコーダ)と目的言語の単語列$Y(=y_{1},y_{2},\ldots,y_{n_\mathit{dec}})^\top$を生成するTransformerデコーダ(以下,デコーダ)を組み合わせたエンコーダ・デコーダモデルである.エンコーダとデコーダはそれぞれ,図\ref{fig:transformer}のようにエンコーダレイヤを$J_\mathit{enc}$レイヤ,デコーダレイヤを$J_{dec}$レイヤずつ積み重ねたものである.TransformerはRNNのような回帰構造を持たないため,入力文の各単語に対して並列に処\linebreak理することができる.入力単語の位置情報は位置エンコーディング(positionalencoding)により考慮する.具体的には,単語埋め込みの次元数を$d$とすると,位置エンコーディングの行列$PE$は\begin{align}PE_{(\mathit{pos},2i)}&=sin(\mathit{pos}/10000^{2i/d})\label{eq:pos1},\\PE_{(\mathit{pos},2i+1)}&=cos(\mathit{pos}/10000^{2i/d}),\label{eq:pos2}\end{align}と表される.なお,$\mathit{pos}$は単語の位置,$i$は埋め込み成分の次元である.そして,式(\ref{eq:pos1}),(\ref{eq:pos2})によって計算された位置エンコーディングの行列$\mathit{PE}$を単語の埋め込み行列に加算したものを,エンコーダ及びデコーダの入力とする.エンコーダの第$j$層目の出力$S_\mathit{enc}^{(j)}$はself-attention($\mathit{SelfAttn}()$)と位置毎の全結合フィードフォワードネットワーク($\mathit{FFN}()$)により以下の通り計算される.\begin{align}H_\mathit{enc}^{(j)}&=\mathit{LN}(S_\mathit{enc}^{(j-1)}+\mathit{SelfAttn}(S_\mathit{enc}^{(j-1)})),\\S_\mathit{enc}^{(j)}&=\mathit{LN}(H_\mathit{enc}^{(j)}+\mathit{FFN}(H_\mathit{enc}^{(j)})).\end{align}ここで,$S_\mathit{enc}^{(0)}$はエンコーダへの入力,$H_\mathit{enc}^{(j)}$は第$j$層目のエンコーダのself-attentionの出力,$\mathit{LN}()$はLayerNormalization\cite{layernorm}であり,$\mathit{FFN}()$は間にReLU関数を挟んだ2層の全結合層から成るネットワークである.デコーダの第$j$層目の出力$S_\mathit{dec}^{(j)}$はself-attentionとencoder-decoderattention($\mathit{EncDecAttn}()$),位置毎のフィードフォワードネットワークによって以下の通り計算される.\begin{align}H_\mathit{dec}^{(j)}&=\mathit{LN}(S_\mathit{dec}^{(j-1)}+\mathit{SelfAttn}(S_\mathit{dec}^{(j-1)})),\\G_\mathit{dec}^{(j)}&=\mathit{LN}(H_\mathit{dec}^{(j)}+\mathit{EncDecAttn}(H_\mathit{dec}^{(j)},S_\mathit{enc}^{(J_\mathit{enc})})),\\S_\mathit{dec}^{(j)}&=\mathit{LN}(G_\mathit{dec}^{(j)}+\mathit{FFN}(G_\mathit{dec}^{(j)})),\end{align}ここで,$S_\mathit{dec}^{(0)}$はデコーダへの入力,$H_\mathit{dec}^{(j)}$は第$j$層目のデコーダのself-attentionの出力,$S_\mathit{enc}^{(J_\mathit{enc})}$はエンコーダの最終層の出力,$G_\mathit{dec}^{(j)}$は第$j$層目のデコーダのencoder-decoderattentionの出力である.デコーダの最終層の出力$S^{(J_\mathit{dec})}_\mathit{dec}$は$|\mathcal{V}|$次元の行列に線形変換される.ここで,$\mathcal{V}$は出力の語彙集合であり,$|\mathcal{V}|$は出力の語彙数である.最後に,$|\mathcal{V}|$次元行列にsoftmax関数を適用することで$P(Y|X)$が計算され,これに基づいて出力列$Y$が生成される.モデルの学習はラベル平滑化交差エントロピー\cite{label_smoothing}による$\mathcal{L}_\mathit{token}$を最小化することで実現される.\begin{align}\mathcal{L}_\mathit{token}=-\sum_{i=1}^{n_\mathit{dec}}\left((1-\epsilon)\logP(y_i|X,y_{<i})+\epsilon\sum_{v\in\mathcal{V}}\logP(v|X,y_{<i})\right)\end{align}ただし,$\epsilon\ge0$は正解ラベルに対する信頼度をコントロールするラベル平滑化のハイパーパラメータである.self-attentionは同一文中の単語間(原言語文中の単語間あるいは目的言語文中の単語間)の関連の強さを計算し,encoder-decoderattentionは原言語文中の単語と目的言語文中の単語間の関連の強さを計算する.self-attentionやencoder-decoderattentionはmulti-headattentionによって実現される.multi-headattentionでは,単語の埋め込み空間を$n_\mathit{head}$個の$d_\mathit{head}=d/n_\mathit{head}$次元部分空間に射影し,それぞれの部分空間でattentionを計算する.具体的には,self-attention({$\mathit{SelfAttn}()$})の第$j$層目は,直前の層の出力$S^{(j-1)}\in\mathbb{R}^{n\timesd}$(ただし,$n$はエンコーダあるいはデコーダの入力系列長)を,$W_{h}^{Q^{(j)}}\in\mathbb{R}^{d\timesd_\mathit{head}}$,$W_{h}^{K^{(j)}}\in\mathbb{R}^{d\timesd_\mathit{head}}$,$W_{h}^{V^{(j)}}\in\mathbb{R}^{d\timesd_\mathit{head}}$を用いて$d_\mathit{head}$次元の部分空間$Q_{h}^{(j)}$,$K_{h}^{(j)}$,$V_{h}^{(j)}$に射影する(なお,$1\leqh\leqn_{head}$).デコーダで用いられるencoder-decoderattention({$\mathit{EncDecAttn}()$})では,直前のデコーダレイヤの出力を部分空間$Q_{h}^{(j)}$に,エンコーダの最終層の出力を部分空間$K_{h}^{(j)}$,$V_{h}^{(j)}$に射影する.射影後,次の式によって各部分空間で単語間の関連の強さを表す行列を算出する.\begin{equation}\label{eq:attn_weights}A_{h}^{(j)}=\mathit{softmax}(d_\mathit{head}^{-0.5}Q_{h}^{(j)}K_{h}^{(j)^\top})\end{equation}この$A_{h}^{(j)}$に対して$V_{h}^{(j)}$を掛け合わせることで,単語間の関連の強さを重みとする荷重和による表現$M_{h}^{(j)}$を得ることができる.\begin{equation}M_{h}^{(j)}=A_{h}^{(j)}V_{h}^{(j)}\end{equation}最後に,各部分空間の$M_{1,2,\ldots,n_\mathit{head}}^{(j)}$を結合させて,単語の埋め込み次元に線形変換する.\begin{equation}M^{(j)}=W^{M^{(j)}}[M_{1}^{(j)};M_{2}^{(j)};\ldots;M_{n_\mathit{head}}^{(j)}]\label{eq:attn}\end{equation}ただし,$W^{M^{(j)}}\in\mathbb{R}^{d\timesd}$はパラメータ行列である.self-attentionの$M_{h}^{(j)}$は原言語文あるいは目的言語文内の全ての単語間の関連の強さを含んでおり,encoder-decoderattentionの$M_{h}^{(j)}$は原言語文の単語と目的言語文の単語の間の全ての関連の強さを含んでいる.また,デコーダのself-attentionは,推論時に予測していない単語に関する関連を求めないように未来の単語情報をマスクして訓練する.具体的には,後方の単語に対してattentionが向けられないよう,$Q_{h}^{(j)}$の各単語から見た後方の単語を表す$K_{h}^{(j)}$の各成分を$-\infty$に置換してから{$\mathit{softmax}$}を計算し,$A_{h}^{(j)}$を求める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-3ia3f2.eps}\end{center}\caption{提案モデルの概要}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{提案手法}
提案モデルの概要を図\ref{fig:model}に示す.本稿で提案するモデルは,係り受け関係を捉えるself-attention(dependency-basedself-attention)をTransformerNMTモデルのエンコーダとデコーダに組み込む.具体的には,$p_\mathit{enc}$層目のエンコーダのmulti-headself-attentionと$p_\mathit{dec}$層目のデコーダのmulti-headself-attentionのそれぞれにおいて,1つのヘッドで原言語文または目的言語文の係り受け関係を捉えることで,原言語側および目的言語側の係り受け構造を考慮した翻訳を行う.係り受け解析は,LISA同様,Dozatらのdeepbi-affineparser\cite{biaffine_parser}を用いる.dependency-basedself-attentionとLISAとの違いは次の2点にまとめられる;(1)dependency-basedself-attentionはデコーダでは未来の単語に関する係り受け関係をマスクして学習する,(2)dependency-basedself-attentionは単語単位だけではなくbytepairencodingなどによって作られるサブワード単位にも適用可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Dependency-BasedSelf-Attention}\label{ss:sisa}dependency-basedself-attentionは,エンコーダまたはデコーダの$p$層目\footnote{$p$は,エンコーダの場合は$p_\mathit{enc}$,デコーダの場合は$p_\mathit{dec}$である.}のmulti-headself-attentionを拡張することにより,係り受け関係を解析する.以下では,$p$層目のmulti-headself-attentionについて説明する.まず,直前の層の出力である行列{$S^{(p-1)}\in\mathbb{R}^{n\timesd}$}から以下の式により{$Q_\mathit{parse}$},{$K_\mathit{parse}$},{$V_\mathit{parse}$}を得る.\begin{align}Q_\mathit{parse}&=S^{(p-1)}W^{Q_\mathit{parse}},\\K_\mathit{parse}&=S^{(p-1)}W^{K_\mathit{parse}},\\V_\mathit{parse}&=S^{(p-1)}W^{V_\mathit{parse}}.\end{align}ここで,$W^{Q_\mathit{parse}}$,$W^{K_\mathit{parse}}$,$W^{V_\mathit{parse}}$は,それぞれ,$d\timesd_\mathit{head}$次元のパラメータ行列である.次に,2単語間の係り受け関係を示す行列$A_\mathit{parse}$を,次のようにbi-affine変換によって求める.\begin{equation}\label{eq:a_parse}A_\mathit{parse}=\mathit{softmax}(Q_\mathit{parse}U^{(1)}K_\mathit{parse}^\top+Q_\mathit{parse}U^{(2)}),\end{equation}ここで,$U^{(1)}\in\mathbb{R}^{d_\mathit{head}\timesd_\mathit{head}}$と$U^{(2)}=\overbrace{({\bfu}\ldots{\bfu})}^{n}$,${\bfu}\in\mathbb{R}^{d_\mathit{head}}$はパラメータ行列である.また,$A_\mathit{parse}$の要素$A_\mathit{parse}[t,q]$は,以下の通り,単語$q$が単語$t$の係り先である確率を示している.\begin{equation}P(q=\mathit{head}(t)\midX)=A_\mathit{parse}[t,q].\end{equation}ここで,$X$は原言語文もしくは目的言語文である.また,係り先のないトークン$t_\mathit{ROOT}$は自分自身を指すように以下のように定義する.\begin{equation}t_\mathit{ROOT}=head(t_\mathit{ROOT}).\end{equation}次に,以下のように$A_\mathit{parse}$と$V_\mathit{parse}$を掛け合わせることで単語間の係り受け関係の強さを重みとする荷重和による表現を得る.\pagebreak\begin{equation}M_\mathit{parse}=A_\mathit{parse}V_\mathit{parse}.\end{equation}あとは,multi-headself-attentionの1つのヘッドを$M_\mathit{parse}$とする以外は2節で説明した通常のmulti-headattentionと同様である.つまり,$M_\mathit{parse}$と$n_\mathit{head}-1$個の通常のヘッド($M_{2,\ldots,n_\mathit{head}}^{(p)}$)を結合し,行列{$M^{(p)}$}に線形変換する.\begin{equation}M^{(p)}=W^{M^{(p)}}[M_\mathit{parse};M_{2}^{(p)};\ldots;M_{n_\mathit{head}}^{(p)}],\label{eq:sattn}\end{equation}ここで,$W^{M^{(p)}}\in\mathbb{R}^{d\timesd}$はパラメータ行列である.このように,dependency-basedself-attentionは係り受け関係を第$p$層のmulti-headattentionの1つのヘッド$M_\mathit{parse}$で捉える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{目的関数}提案モデルは次の目的関数$\mathcal{L}$を最小化することにより,翻訳と係り受け解析を同時に学習する.\begin{equation}\mathcal{L}=\mathcal{L}_\mathit{token}+\lambda_\mathit{enc}\mathcal{L}_\mathit{encparse}+\lambda_\mathit{dec}\mathcal{L}_\mathit{decparse},\end{equation}ここで,$\mathcal{L}_\mathit{token}$は翻訳に関する損失であり,{$\mathcal{L}_\mathit{encparse}$}と{$\mathcal{L}_\mathit{decparse}$}はそれぞれエンコーダ側とデコーダ側の係り受け解析に関する損失を表している.また,$\lambda_\mathit{enc}>0$と$\lambda_\mathit{dec}>0$はハイパーパラメータである.{$\mathcal{L}_\mathit{token}$}は通常のTransformerモデル同様,ラベル平滑化交差エントロピーによって計算し,{$\mathcal{L}_\mathit{encparse}$}と{$\mathcal{L}_\mathit{decparse}$}は交差エントロピーによって次式のように計算する.\begin{equation}\mathcal{L}_\mathit{parse}=-\sum_{t,q}\hat{A}_\mathit{parse}[t,q]\times\log(A_\mathit{parse}[t,q])\end{equation}ただし,{$\mathcal{L}_\mathit{parse}$}は{$\mathcal{L}_\mathit{encparse}$}または{$\mathcal{L}_\mathit{decparse}$}である.また,$\hat{A}_\mathit{parse}$は$A_\mathit{parse}$の教師データであり,各トークン$t$に対して係り先$head(t)$を指す要素のみが1($\hat{A}_\mathit{parse}[t,\mathit{head}(t)]=1$),それ以外の要素は0の行列である.デコーダ側の係り受け解析に関する損失を算出する際は,自身より後方の単語への係り受け関係はマスクする.推論時には,デコーダ側のself-attentionは予測済みの単語(自身より前方の単語)に対するアテンションしか捉えないため,未来の単語へのアテンションを訓練しないようにするためである.デコーダ側のdependency-basedself-attentionの教師データの例を図\ref{fig:decdep}に示す.%%%%図\ref{fig:decdep-rel}は対訳データ中の目的言語文の係り受け構造の例であり\footnote{本稿では,係り受け関係を係り元から係り先に向けた矢印で表現する.例え%%%%ば図\ref{fig:decdep-rel}では,``He''の係り先は``knows''($\text{``knows''}=head(\text{``He''})$)である.},%%%%図\ref{fig:decdep-mat}は図\ref{fig:decdep-rel}に対するデコーダ内のdependency-basedself-attentionの教師データである.%%%%図\ref{fig:decdep-rel}では,教師データでマスクされる対象となる後方の単語に対する係り受け関係を点線で示している.%%%%図\ref{fig:decdep-mat}では,黒色のセルが係り受け関係にある要素を表しており,%%%%点線によって囲まれたセルはマスクされた要素であることを表しており,灰色のセルは係り受け関係にあった要素がマスクされたことを表している.%%%%図\ref{fig:decdep-mat}の通り,``knows''が``He''の係り先であることを示す要素など,後方の単語に対する係り受け関係がマスクされている.図\ref{fig:decdep}(a)は対訳データ中の目的言語文の係り受け構造の例であり\footnote{本稿では,係り受け関係を係り元から係り先に向けた矢印で表現する.例えば図\ref{fig:decdep}(a)では,``He''の係り先は``knows''($\text{``knows''}=head(\text{``He''})$)である.},図\ref{fig:decdep}(b)は図\ref{fig:decdep}(a)に対するデコーダ内のdependency-basedself-attentionの教師データである.図\ref{fig:decdep}(a)では,教師データでマスクされる対象となる後方の単語に対する係り受け関係を点線で示している.図\ref{fig:decdep}(b)では,黒色のセルが係り受け関係にある要素を表しており,点線によって囲まれたセルはマスクされた要素であることを表しており,灰色のセルは係り受け関係にあった要素がマスクされたことを表している.図\ref{fig:decdep}(b)の通り,``knows''が``He''の係り先であることを示す要素など,後方の単語に対する係り受け関係がマスクされている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-3ia3f3.eps}\end{center}%%%%\subfigure[目的言語文の係り受け関係]{\label{fig:decdep-rel}}%%%%\subfigure[目的言語側の係り受け関係の教師データ]{\label{fig:decdep-mat}}\caption{デコーダ側のマスク付きdependency-basedself-attention}\label{fig:decdep}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{SubwordDependency-BasedSelf-Attention}近年,ニューラル機械翻訳は文を単語列ではなく,BPE\cite{subword}などによって分割されたサブワード列として扱うことにより,翻訳の性能を向上させている.そのため,本研究では,dependency-basedself-attentionをサブワード列に対しても適用できるように拡張する.まず,単語単位の係り受け構造をサブワード単位の係り受け構造に変換し,続いて変換したサブワード単位の係り受け構造に対してdependency-basedself-attentionを適用する.サブワード単位の係り受け構造の変換については左から右へと係るよう,次の通りに行う.1つの単語が複数のサブワードに分割される場合,右端のサブワードの係り先(head)は分割元の単語の係り先とし,右端以外の各サブワードの係り先は隣接する右側のサブワードとする.また,係り先の単語がサブワードに分割される場合は,分割されたサブワードの中で左端のサブワードを係り先とする.以降,サブワード列に拡張したdependency-basedself-attentionをsubworddependency-basedself-attentionと呼ぶ.サブワード単位の係り受け関係の例を図\ref{fig:dep}に示す.なお,``@@''はサブワードの分割を表したシンボルである.この例では,``listen''という単語が3つのサブワード,``li@@'',``s@@'',``ten''に分割されている.このとき,``listen''が係り先となっている場合は左端のサブワード``li@@''が係り先になる.また,``listen''を構成するサブワードの係り先は,右端のサブワード``ten''は分割元の単語``listen''の係り先,それ以外のサブワードは隣接する右側のサブワードとなる.具体的には,``li@@''の係り先は``s@@'',``s@@''の係り先は``ten''となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{27-3ia3f4.eps}\end{center}\caption{サブワード単位の係り受け関係}\label{fig:dep}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}本実験では,提案モデルの有効性を確認するため,提案モデルと係り受け構造が組み込まれていない従来のTransformerNMTモデルの翻訳性能を比較する.TransformerNMTモデルにはTransformerbaseモデル\cite{transformer}を使用し,エンコーダとデコーダはそれぞれ6層積み重ねた.翻訳性能の評価にはAsianScientificPaperExcerptCorpus(ASPEC)\cite{aspec}の日英・英日翻訳タスクを用いた.訓練データにはASPEC日英対訳コーパスの\texttt{train-1.txt}と\texttt{train-2.txt}から上位150万文対を抽出して用いた.データの前処理は,日本語文の単語分割に$\mathit{KyTea}$\cite{kytea}を用いた以外はWATのbaselinesystemの構築方法\footnote{\url{http://lotus.kuee.kyoto-u.ac.jp/WAT/WAT2018/baseline/dataPreparationJE.html}}に従った.サブワード分割にはBPEを用い,語彙数は100,000トークンとした.また,サブワード分割した文のトークン数が原言語側と目的言語側ともに250以下であり,なおかつ対訳文対のトークン数の比が1.5以内である1,198,149文対を用いて訓練した.実験データの対訳文対数を表\ref{tab:stats}に示す.訓練時に用いるエンコーダとデコーダそれぞれのdependency-basedself-attentionの係り受け構造の教師データには,予め訓練データの各文を係り受け解析器によって解析したものを使用した.日本語側の係り受け解析にはEDA\footnote{\url{http://www.ar.media.kyoto-u.ac.jp/tool/EDA}}を用い,英語側の係り受け解析にはStanfordCoreNLP\footnote{\url{https://nlp.stanford.edu/software/stanford-dependencies.html}}を用いた.従来モデルと提案モデルの学習にはAdam\cite{adam}を用い,学習率などのハイパーパラメータの設定はVaswaniら\cite{transformer}に従った.dependency-basedself-attentionを組み込むエンコーダレイヤ{$p_\mathit{enc}$},デコーダレイヤ{$p_\mathit{dec}$}は,それぞれ{$p_\mathit{enc}=4$},{$p_\mathit{dec}=4$}とした.目的関数の{$\mathcal{L}_\mathit{token}$}の算出に用いるラベル平滑化交差エントロピーの$\epsilon$\cite{label_smoothing}は0.1とし,$\lambda_\mathit{enc}$と$\lambda_\mathit{dec}$はどちらも1.0とした.ミニバッチの大きさは224文とし,エポック数は20とした.毎エポックの終わりに開発データを用いて翻訳文を生成し,BLEUスコアの最も高いモデルによって評価した.評価時はビームサーチを用いて翻訳し,ビーム幅は4,lengthpenaltyは$\alpha=0.6$\cite{googlenmt}とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{実験データの対訳文対数}\label{tab:stats}\input{03table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{ASPEC日英・英日翻訳の実験結果(単位:BLEU(\%))}\label{tab:jaen}\input{03table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{tab:jaen}に実験結果を示す.翻訳性能はBLEU\cite{bleu}によって評価した.表\ref{tab:jaen}において,``DBSA''は提案手法のsubworddependency-basedself-attentionを表している.実験結果より,提案モデルである``Transformer+DBSA(Enc)+DBSA(Dec)''がベースラインモデルである``Transformer''より高い翻訳性能であることが分かり,提案手法の有効性が確認できる.また,表{\ref{tab:jaen}}より,日英翻訳においてはエンコーダ側,デコーダ側それぞれのdependency-basedself-attentionが翻訳性能の改善に寄与しており,それらを組み合わせることでさらに性能が改善できることが分かる.英日翻訳においては,目的言語側の日本語が後ろの単語に係る文構造を持っているため,デコーダ側のみに制約を付与した場合は翻訳性能にほぼ変化が無かったが,エンコーダ側に制約を付与したモデルは,エンコーダ側単体・デコーダ側の制約との組み合わせを問わず,どちらも性能が改善していることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\caption{サブワードの有効性(単位:BLEU(\%))}\label{tab:jaen2}\input{03table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{考察}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Dependency-BasedSelf-Attentionのサブワード単位への拡張の有効性}dependency-basedself-attentionのサブワード単位への拡張の有効性を調べるため,BPEを用いずに各文を単語列として扱った場合の性能比較を行う.BPEを用いないモデルでは,訓練データに出現する頻度が5未満の単語を``$<$unk$>$''というトークンに置換した.実験結果を表\ref{tab:jaen2}に示す.実験結果より,BPEを用いることで従来モデルと提案モデル両方とも翻訳性能が向上することが分かる.この結果から,dependency-basedself-attentionのサブワードへの拡張は有用であることが確認できる.また,表\ref{tab:jaen2}より,BPEを用いない場合においても,提案モデルの方が従来モデルよりも翻訳性能が良いことが分かる.これより,提案モデルはサブワード系列だけではなく単語系列に対しても有効であることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Dependency-BasedSelf-Attentionが捉える係り受け構造の評価}dependency-basedself-attentionが係り受け関係を学習しているか確認するため,評価データに対する各単語の係り先を予測し,評価する.具体的には,評価データを入力としたときの{$A_\mathit{parse}$}に対して,各単語{$t$}の係り先の予測結果{$head_\mathit{pred}(t)$}をargmaxにより以下のように得る.\begin{equation}head_\mathit{pred}(t)=\mathrm{argmax}(A_\mathit{parse}[t])\end{equation}正解データは,評価データに対して係り受け解析器を用いた出力結果を用い,訓練時に与える教師データと同じ方法により作成する.モデルの係り先予測結果と正解データの一致率を以下の式により求め,評価する.\begin{equation}\frac{1}{T}\sum_{t}^{T}\delta_{\mathit{head}(t),\mathit{head}_\mathit{pred}(t)}\end{equation}ただし,{$T$}は系列長,{$\delta_{i,j}$}は{$i=j$}のとき1,{$i\not=j$}のとき0となるクロネッカーのデルタ,{$\mathit{head}(t)$}は単語{$t$}に対する係り先の正解データである.評価データには評価時と同じASPECの評価データを用いた.なお,目的言語側についてはモデルの出力文と参照訳が異なり,係り先の予測結果を評価できないため,原言語側の{$A_\mathit{parse}$}についてのみ評価を行った.係り先予測に用いるモデルは原言語・目的言語両側に対してsubworddependency-basedself-attentionを組み込んだモデルを用い,係り先の正解データはサブワード単位で作成した.実験結果であるモデルの係り先予測結果と正解データとの一致率は,日英翻訳実験において日本語の係り受け一致率が{\bf98.57\%},英日翻訳実験において英語の係り受け一致率が{\bf93.05\%}となった.これらの結果より,モデルが係り受け関係を正しく捉えていることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{従来モデルと提案モデルの翻訳文の違い}dependency-basedself-attentionを組み込むことで具体的にどのような翻訳が良くなったのかを調べる.比較には,従来モデルがサブワード単位のTransformerモデル,提案モデルが原言語・目的言語両側に対してsubworddependency-basedself-attentionを組み込んだTransformer+DBSA(Enc)+DBSA(Dec)モデルを用いた.従来モデルと提案モデルの翻訳結果の違いを表{\ref{tab:diff_translation}}に示す.ただし,表{\ref{tab:diff_translation}}に示した例文は翻訳結果の差異が特徴的な部分を抽出しており,文中の太字は従来モデルによる翻訳文と提案モデルによる翻訳文の係り受け関係が異なる箇所を示した.また,原言語文の太字部分を係り受け解析した結果を図{\ref{fig:diff_dep}}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\caption{従来モデルと提案モデルの翻訳結果の違い(英日翻訳)}\label{tab:diff_translation}\input{03table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{27-3ia3f5.eps}\end{center}\caption{表\ref{tab:diff_translation}の原言語文の太字部分の係り受け解析結果}\label{fig:diff_dep}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表{\ref{tab:diff_translation}}の原言語文の太字中の「withoutneurologicalabcormality」という項は,図{\ref{fig:diff_dep}}の通り,「without」の直前の項「21infantcases」に係っていることが分かる.従来モデルの翻訳文は「神経学的異常のない」という項が「無症候性脳梗塞患者20名」に対して係っており,原言語文の係り受け関係とは異なる誤った係り受け関係になっているが,提案モデルはこの係り受け関係を正しく捉えて翻訳しており,「小児21例」に対して係った文となっていることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案モデルの設定に関する比較実験}\label{sec:comp}本節では,提案モデルにおける,(1)サブワードの係り先,(2)制約を与えるヘッド数,(3)bi-affine変換の有効性について,それぞれ比較実験を行う.なお,全ての比較実験には原言語側と目的言語側の両側に対してsubworddependency-basedself-attentionを組み込んだ提案モデルを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{サブワードの係り先方向の比較実験}subworddependency-basedself-attentionにおけるサブワードの係り先の設定について比較実験を行った.提案モデルでは,単語がサブワード単位に分割されたとき,単語内の各サブワードの係り先はそれぞれ隣接する右のサブワードへ係るように設定した.本実験では,単語内の各サブワードの係り先を隣接する左のサブワードへ係るように設定したモデルを用いて比較した.実験結果を表\ref{tab:r2l}に示す.なお,表中のDBSA-L2Rは本稿で提案した左から右へと係る構造を用いたモデル,DBSA-R2Lは比較対象の右から左へと係る構造を用いたモデルを示す.表\ref{tab:r2l}より,単語がサブワード単位に分割されたときの係り先は,各サブワードが隣接する右に向かって,左から右へと係る構造を用いたほうが性能改善に寄与できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\caption{サブワードの係り先の方向の比較実験(BLEU(\%))}\label{tab:r2l}\input{03table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\caption{制約を与えるヘッド数の比較実験(BLEU(\%))}\label{tab:num_head}\input{03table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{制約を与えるヘッド数の比較実験}提案モデルは,multi-headself-attentionのヘッドから選択した単一のヘッドにのみ制約を与えて学習する.本節では,制約を与えるヘッドを単一ヘッドとマルチヘッド全体で比較し,翻訳性能の比較を行った.実験結果を表\ref{tab:num_head}に示す.表\ref{tab:num_head}より,制約を与えるヘッドはマルチヘッド全体よりも単一ヘッドに設定したほうが性能改善に寄与できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{bi-affine変換の有無に関する比較実験}提案モデルでは係り受け関係を捉えるself-attentionでbi-affine変換を用いているが,bi-affine変換を用いず式(\ref{eq:attn_weights})で得られる確率分布行列に制約を与えたモデルとの比較実験を行った.実験結果を表\ref{tab:biaffine}に示す.表\ref{tab:biaffine}より,bi-affine変換を用いたほうが性能改善に寄与できることを確認した.また,BLEU値による評価だけでなく,bi-affine変換の有無による翻訳結果の違いを調べた.bi-affine変換の有無による翻訳結果の違いを表\ref{tab:biaffine_ex}に示す.翻訳結果は文中における差異が特徴的な部分のみを抽出した.表中の太字は単語間の関係性を誤って捉えていると考えられる箇所である.表\ref{tab:biaffine_ex}より,bi-affine変換を用いることで複雑な係り受け関係を捉えることが可能となり,単語間の関係を正しく捉えられるようになることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\caption{提案モデルにおけるbi-affine変換の有無と翻訳性能の差(BLEU(\%))}\label{tab:biaffine}\input{03table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{提案モデルにおけるbi-affine変換の有無と翻訳結果の違い(日英翻訳)}\label{tab:biaffine_ex}\input{03table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
これまで,ニューラル機械翻訳は係り受け構造や句構造を考慮することにより,翻訳性能が改善されてきた.Chenら\cite{sdrnmt}は,RNNベースのニューラル機械翻訳モデルのエンコーダの中で,原言語文の係り受けの親子関係の情報をCNNで畳み込んだベクトルを用いる``SDRNMT''を提案している.Eriguchiら\cite{rnng_nmt}は,RNNベースのニューラル機械翻訳モデルのデコーダにRNNベースの係り受け解析モデルであるRNNG\cite{rnng}を組み込んだ``NMT+RNNG''を提案している.Wuら\cite{dep2dep}は,RNNベースのニューラル機械翻訳モデルやTransformerNMTモデルにおいて,エンコーダで原言語文の係り受け木を線形化した系列情報を符号化し,デコーダで目的言語文と共にその係り受け木を予測する機構を組み合わせた手法を提案している.Wuらの手法ではTransformerのエンコーダとデコーダに係り受け関係を考慮できるが,TransformerNMTのモデル自体は改良されていない.一方で,本研究では,TransformerNMTモデルのself-attentionを改良し,self-attentionの中で係り受け関係を考慮する点が異なる.また,Wuらの手法では,推論時に係り受け構造を考慮するためには,原言語の文を既存の係り受け解析器で解析する必要がある.一方で,本研究の提案手法は,推論時には,訓練時に原言語文の係り受け関係を捉えるように学習したself-attentionを用いて推論を行うため,推論時は係り受け解析器が必要ない点も異なる.Curreyら\cite{currey-acl2019}は,Transformerのエンコーダに原言語文の句構造を組み込んだモデルを提案している.Curreyらの手法では句構造を用いているが,我々の手法では係り受け構造を用いている点が異なる.また,Curreyらは原言語側の文構造のみを考慮しているが,本研究の提案手法では原言語と目的言語の両側の文構造を考慮している点も異なる.Omoteら\cite{omote-ranlp-2019}は,Transformerのエンコーダのself-attentionで原言語文の2単語の係り受け木における相対的な位置関係を捉えるモデルを提案している.Omoteらの手法では,原言語側の係り受け構造のみを考慮しているが,本研究の提案手法では目的言語側の係り受け構造も考慮している.また,Omoteらの手法は,Wuら\cite{dep2dep}の手法同様,推論時に係り受け解析器が必要な点も本研究とは異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{まとめ}
本稿では,原言語側と目的言語側両方の係り受け関係を捉えるself-attention(dependency-basedself-attention)を組み込んだ新たなTransformerNMTモデルを提案した.デコーダ側のdependency-basedself-attentionを訓練する際は,訓練時と推論時で不整合が生じないようにするため,自身より後方の係り受け関係をマスクした教師データを用いた.さらに,dependency-basedself-attentionをサブワード系列にも適用できるように拡張した.実験結果より,提案モデルを用いることで,ASPEC日英・英日翻訳タスクにおいて,ベースラインのTrasnformerモデルと比較してBLEUスコアがそれぞれ1.04ポイント・0.30ポイント上昇したことが確認できた.また,評価実験を通じて,エンコーダとデコーダそれぞれのdependency-basedself-attentionの有効性とdependency-basedself-attentionのサブワード系列への拡張の有効性も確認した.今後は,他の言語対でも提案モデルの有効性も確認したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文は国際会議InternationalConferenceRecentAdvancesinNaturalLanguageProcessing2019(RANLP2019)で発表した論文\cite{ranlp-2019-deguchi}に基づいて日本語で書き直し,説明を追加したものである.本研究成果は,国立研究開発法人情報通信研究機構の委託研究により得られたものである.また,本研究の一部はJSPS科研費18K18110の助成を受けたものである.ここに謝意を表する.また,本稿の英文校正を担当していただいたエナゴ(www.enago.jp)に謝意を表する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{出口祥之}{%2019年愛媛大学工学部情報工学科卒業.2019年より同大学院理工学研究科博士前期課程に在学.}\bioauthor{田村晃裕}{%2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教,2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{二宮崇}{%1996年東京大学理学部情報科学科卒業.1998年同大学大学院理学系研究科修士課程修了.2001年同大学大学院理学系研究科博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.博士(理学).言語処理学会,アジア太平洋機械翻訳協会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V09N05-05
|
\section{はじめに}
本研究の目的は自然言語の意味理解に必要な連想システムの開発である.例えば,“冷蔵庫に辞書がある”と人間が聞けば,冷蔵庫に辞書があることを奇妙に思い“本当ですか”と聞き返したり,誤りの可能性を考えることができるだろう.しかし,計算機ではこのような処理は困難である.これは,人間なら冷蔵庫と辞書には関係がないことを判断できたり,最初の冷蔵庫という語から辞書を連想することができないためである.このような語間の関係の強さを求める機能や,ある語に関係のある語を出力する機能を持った連想システムの開発が本研究の目的である.従来,連想ではシソーラスや共起情報などがよく用いられるが,シソーラスでは語の上位下位関係を基本とした体系しか扱えず,共起情報では人間の感覚とは異なる場合も多く十分ではない.本研究において,連想システムは語の意味と概念を定義する概念ベースおよび概念ベースを用いて語間の関連の強さを評価する関連度計算アルゴリズムで構成されている.最初の概念ベース(基本概念ベース)は複数の国語辞書から機械構築され,語は属性とその重みのペア集合により定義される.語は国語辞書の見出し語から,属性は説明文の自立語から,その重みは自立語の出現頻度をベースに決定されている\cite{Kasahara1997}.概念ベースは大規模であるため,一度に完成させることは困難であり,継続的に構築する必要がある.機械構築した概念ベースは,不適切な属性(雑音)が多く含まれ,自立語の出現頻度による重みでは,属性の意味的な重要性を正確に表現しているとは言えない.そこで,概念ベースの属性や重みの質を向上する精錬が必要となる.本稿では精錬方式として属性の確からしさ(属性信頼度)\cite{Kojima2001}を用いた重み決定方式を提案している.以下,2章では概念の定義と概念ベースについて述べる.3章では概念ベースの構築や評価に用いる関連度の定義について述べる.4章では属性信頼度を用いた概念ベースの精錬方式について述べる.5章では概念ベースの評価法について述べ,精錬後の概念ベースの評価結果について考察する.
\section{概念の定義と概念ベース}
概念ベースにおいて語Aの意味は語$a_i$とその重み$u_i$($0<u_i\le1$)の集合としてモデル化されている(式\ref{eq:conceptA}).語Aの意味の定義に使われる語$a_i$を属性と呼ぶ.概念ベースにおいて,全ての属性は必ず語として意味が定義されている.なお,属性はその重みが0になった時点で概念ベースから論理的に存在しなくなる.\begin{equation}{\rmA}=\{(a_1,u_1),\cdots,(a_i,u_i),\cdots,(a_L,u_L)\}\label{eq:conceptA}\end{equation}本研究において,概念は概念ベースによって定義される無限に続く属性の連鎖としてモデル化されている(図\ref{fig:con_img}).概念Aとは,語Aの属性$a_i$,さらに属性$a_i$を語として見たときの属性と言うように続く属性の連鎖である.属性の連鎖は無限に続くが,実際に概念を用いる処理では2回程度の有限の連鎖を用いる.概念Aにおいて,1連鎖目の属性,すなわち語Aの属性$a_i$を1次属性,2連鎖目の属性,すなわち属性$a_i$の属性を2次属性と呼ぶ.単に属性と呼ぶ場合は1次属性を指す.本稿において,概念は人間の頭に浮かぶ事物のイメージに対応するものであり語は概念の表現であるととらえている.なお,本稿では語の多義性については考慮していない.将来的に,多義性に対しては辞書により分類された意味ごとに概念を分割して対応するつもりである\cite{Yamanishi2001}.このように,語とその概念は一対一に対応し密接に結びついて定義されているため,語と概念という用語の使い分けはあまり意味がない.以降では,特別の理由がない限り語と概念の使い分けを厳密には行っていない.\begin{figure}[ht]\begin{center}\epsfile{file=fig/con_img.eps,scale=1.0}\caption{概念ベースと概念の構造}\label{fig:con_img}\end{center}\end{figure}本研究における精錬の対象である基本概念ベース(基本CB)は,次のように構築されている\cite{Kasahara1997}.まず,複数の国語辞書から説明文中の自立語を見出し語の属性として取得し,属性の重みをその出現頻度をベースに決定した概念ベースを構築する.次に,ある語Aの持つ属性に,語Aの属性の属性や,語Aを属性として持っている語を加え,実験や情報量によって重みを決定する.最後に,重みが小さい属性を削除する.このときの閾値は,サンプリングした属性を人手で調べることにより決定している.このように作成した基本CBの語は約3万4千種類,属性は重複を許して数えると約150万ある.基本CBには雑音も取得され,さらに不適切な重みが付与されている.この基本CBの雑音を削除し,適切な重みを付与する方式の開発が本研究のねらいである.
\section{関連度の定義}
関連度とは語と語の関連の深さを定量化した0から1の値で,関係が深いほど大きな値となる.関連度の計算には様々な方式があるが\cite{Utsumi2002},本研究では関連度計算方式として2連鎖までの属性を比較する方式\cite{Watabe2001}を採用している.この方式は,概念ベースのようなデータを用いる関連度計算方式の一つであるベクトルの余弦を用いる方式より良好な結果が得られることがわかっている\cite{Watabe2001}.以下では,まず関連度計算に用いる一致度の定義について述べ,その後で関連度の定義について述べる.一致度は語の1次属性がどの程度一致しているかを示す0から1の値で,以下のような定義となっている.一致度を求める2語をA,Bとする.語Aは式1の通りで,語Bは次のようになっている.\begin{equation}{\rmB}=\{(b_1,v_1),\cdots,(b_i,v_i),\cdots,(b_M,v_M)\}\label{eq:conceptB}\end{equation}このときの語A,Bの一致度$\match({\rmA},{\rmB})$は次のようになる.\begin{equation}\match({\rmA},{\rmB})=\frac{1}{2}\left(\frac{U_m}{U}+\frac{V_m}{V}\right)\label{eq:mach}\end{equation}ただし,$U_m$は$a_i=b_j$が成り立つ$u_i$の合計,$V_m$も同様で$a_i=b_j$が成り立つ$v_j$の合計である.$U$,$V$は次のようになる.\begin{equation}U=\sum_{i=1}^{L}u_i\label{eq:U}\end{equation}\begin{equation}V=\sum_{i=1}^{M}v_i\label{eq:V}\end{equation}関連度を求める2語をA,Bとする.語A,Bはそれぞれ式\ref{eq:conceptA},\ref{eq:conceptB}のように定義され,属性数の多い方をAとする.したがって,$L\geM$である.まず,A,Bの属性を一対一で対応付ける.このとき,対応付けられた属性間の一致度の合計が最大になるようにする.ただし,これは組み合わせ最適化問題であり最適解を求めるのは厄介である.そこで,属性の全ての組の中で最も一致度の大きな組から順に対応を決めている.Aの属性を並べ替えて${\rmA}'$を作る.${\rmA}'$の第$i$属性はBの第$i$属性と対応する.Bの属性に対応しなかったAの属性は無視する.したがって,${\rmA}'$の属性数は$M$となる.\begin{equation}{\rmA}'=\{(a'_1,u'_1),\cdots,(a'_i,u'_i),\cdots,(a'_M,u'_M)\}\label{eq:conceptA'}\end{equation}関連度$\Rel({\rmA},{\rmB})$は次のようになる.\begin{equation}\Rel({\rmA},{\rmB})=\frac{1}{2}\left(\frac{U'_m}{U}+\frac{V'_m}{V}\right)\label{eq:Rel}\end{equation}ただし,$U$,$V$はそれぞれ式\ref{eq:U},\ref{eq:V}の通りで,$U'_m$,$V'_m$は次のようになっている.\begin{equation}U'_m=\sum_{i=1}^{M}\match(a'_i,b_i)u'_i\label{eq:U'_m}\end{equation}\begin{equation}V'_m=\sum_{i=1}^{M}\match(a'_i,b_i)v_i\label{eq:V'_m}\end{equation}このような関連度の定義から,語間の関連度の妥当性は結局,概念ベースがいかに適切に構築されているかに依存することになる.以下の節では,概念ベースの精錬方式について述べる.
\section{概念ベースの精錬}
\subsection{精錬の流れ}提案する概念ベース精錬方式は,属性信頼度の計算,属性の分類,重みの決定からなる.ここでは,概念“雪”の例(図\ref{fig:refine_cb})を用いてその流れを述べる.\begin{figure}[ht]\begin{center}\epsfile{file=fig/refine_cb.eps,scale=1.0}\caption{概念ベースの精錬の例}\label{fig:refine_cb}\end{center}\end{figure}属性信頼度の計算(図\ref{fig:refine_cb}-1)では,様々な手がかり毎に属性信頼度を取得し,複数ある属性信頼度を一つの属性信頼度に合成する.属性信頼度とは語と属性の間にある関係の確からしさを定量化した0\,\%から100\,\%の値である.このとき用いる各手がかり,属性信頼度の合成については後の節で述べる.図\ref{fig:refine_cb}-1では,各手がかり毎の属性信頼度を合成した結果を示している.属性の分類(図\ref{fig:refine_cb}-2)では,属性信頼度により表\ref{tb:reli_class}のように属性を分類する.図\ref{fig:refine_cb}-2では,表\ref{tb:reli_class}の分類方法に従い,属性信頼度が100\,\%,65\,\%,100\,\%,84\,\%の属性を,それぞれ,信頼度1,信頼度3,信頼度1,信頼度2クラスに分類している.基本的に属性は属性信頼度によって分類されるが,さらに詳細に重み付けを行うために属性信頼度100\,\%の信頼度1クラスについてはより細かく分けている.なぜなら,信頼度1クラスに分類された属性は,それが定義する語と同義,類義,上位下位の3種類の論理的関係(表\ref{tb:log_data})にある属性で構成しており,これらの重みは当然異なることが想定できるからである.このような理由から,信頼度1クラスの属性は,重み付けのクラス分けとして更に同義クラス,類義クラス,上下クラスに分類している.属性の分類は,同じクラスに分類された属性に同じ重みを付けることを目的としている.属性信頼度によって属性を分類するのは,属性の重みは語と属性との関係に大きく依存しているという考えに基づいている.\begin{table}[ht]\begin{minipage}{.48\linewidth}\begin{center}\caption{属性信頼度による分類}\label{tb:reli_class}\begin{tabular}{cl}\hlineクラス&属性信頼度(\%)\\\hline信頼度1&100\\信頼度2&80以上100未満\\信頼度3&60以上80未満\\信頼度4&40以上60未満\\信頼度5&20以上40未満\\信頼度6&0以上20未満\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\caption{論理的関係のデータの例}\label{tb:log_data}\begin{tabular}{ccc}\hline語&語&関係\\\hline書籍&本&同義\\書籍&辞書&上位下位\\字引&辞書&同義\\雪&吹雪&類義\\\hline\end{tabular}\end{center}\end{minipage}\end{table}重みの決定(図\ref{fig:refine_cb}-3)では各クラスの重みを学習用データを使って実験的に決定する.これは,どのような関係がどのような重みになるかは人間にもわからないためである.今回は重みを決定するために,次のような試行実験を行った.信頼度2クラスを常に基準値1とし,信頼度3,4,5,6のクラスの重みには,1,0.5,0.25,0を試行した.ただし,試行数を抑えるため信頼度クラスの試行では属性信頼度が高いクラスの重みより低いクラスの重みが大きくならないような試行を行った.また,信頼度1クラスを細分して作ったクラスである同義,類義,上下クラスには,16,8,4,2,1,0.5,0.25,0を試行した.実験では以上の全ての組み合わせである17,920通りの実験を行った.重みの決定では,属性信頼度をそのまま重みにする方法も考えられるが,信頼度と重みが一致しているという保証がないため重みは実験的に決めている.図\ref{fig:refine_cb}-3は,各クラスの重みに様々な値を試行している過程を示している.このように決定された重みは,最大が1.0となるように正規化され,最終的な概念ベースの重みとなる.\subsection{属性信頼度を導く手がかり}属性信頼度は様々な手がかりを用いて求めるが,その手がかりから導かれる各属性の属性信頼度は,人間による属性の評価を用いて次のように決定する.まず,基本CBから100語をサンプル語として選び出し,サンプル語の属性であるサンプル属性が適切かどうかの判定を人間が次のように行う.判定するのは3人の学生で,各属性に対して適切,どちらでもない,不適切の3段階の評価を行う.誰にも不適切と判定されなかった属性を適切な属性,誰か一人でも不適切と判定した属性を不適切な属性として処理している.評価者の人数が3人と言うのは一見少ないように思えるが,極めて常識的に判断できる属性の評価ができればよいとしているので,3人で十分と考えている.こうして得られた判定結果を用いて,各手がかりとサンプル属性の適切な率との関係を調べる.例えば,手がかりの一つである関連度の場合,サンプル属性を関連度により何グループかに分ける.その後,各グループにおいて人間に適切と判断された属性の率を参考に,そのグループの関連度から導かれる属性の属性信頼度(関連度)を決める.なお,手がかり$n$から直接的に導かれた属性信頼度は属性信頼度(手がかり$n$)と表記する.以下では,個々の手がかりとそこから導かれる属性信頼度について述べる.なお,ここでは語$a_i$は語Aの属性としている.\subsubsection{語と属性の一致による属性信頼度(属性一致)}語Aと属性$a_i$が等しければ語Aと属性$a_i$は関係があることは間違いないため,属性$a_i$の属性信頼度(属性一致)は100\,\%である.同時に,語Aと属性$a_i$が同義であることがわかる.このような属性は概念ベース全体に約10,000語存在している.語Aの属性に語Aを用いるのは矛盾しているようにも見えるが,概念ベースの重要な利用法である関連度計算から見ると,次のような理由で有効であると考えている.語Bの属性として語Aが使われ,それが適切であるとする.このとき,語Aの属性として語Aが使われていれば,語Aと語Bの関連度は上昇する.この上昇は関連のある語同士にしか起こらないため適切な上昇である.したがって,関連度計算において語と同じ語が属性として使われることに問題はない.さらに,実験により,語Aの属性に語Aがあった方が評価結果が良いことも確認している.\subsubsection{関係データから得られる属性信頼度(関係データ)}語Aと属性$a_i$の間に関係データ(表\ref{tb:log_data})において論理的関係が定義されている場合,属性$a_i$の属性信頼度(関係データ)は100\,\%になると同時に,語Aと属性$a_i$の間にある論理的関係も明らかになる.関係データとは,電子化国語辞書の解析\cite{Kojima2000}により機械的に作成した語間の論理的関係のデータである.本研究で扱う論理的関係とは国語辞書の記述から得られる語間の同義,類義,上下の関係である.また,同義,類義の境界は明確には定義しにくいが,本研究では国語辞書の記述に従っている.見出し語の類義語であると記述されている場合が類義であり,同義であると記述されている場合が同義であるとしている.\subsubsection{基本CBにおける属性の重みから得られる属性信頼度(頻度重み)}基本CB構築時の出現頻度に基づく重みが大きければ属性$a_i$が語Aの属性として適切である可能性が高い.重みと適切な属性の率の関係は図\ref{fig:wei-reli}のようになっている.図\ref{fig:wei-reli}の横軸は重みの範囲を示している.例えば,横軸の0.01の部分は重みが0.01以上0.02未満の属性を示す.重みは0から1.0の値であるが,分布には偏りがあり0.1以上1.0以下の値は非常に少ないのでグラフでは0.1以上1.0以下を一つにまとめている.基本CBの属性の重みから属性信頼度を求める場合,適切な属性の率を属性信頼度(頻度重み)とし,図\ref{fig:wei-reli}から求める.重みが属性の適不適を判別する能力を見るために,図\ref{fig:wei-num}に重みと属性数の関係を示す.横軸は図\ref{fig:wei-reli}と同じである.図\ref{fig:wei-num}に示すように,適切な属性の率が80\,\%以上となる重み0.09以上の属性は約280個と少なく,図\ref{fig:wei-reli}には適切な属性の率が20\,\%より低い部分はない.また,図\ref{fig:wei-num}から重みが0.01から0.04の属性が多いことがわかるが,この部分の適切な属性の率は図\ref{fig:wei-reli}から50\,\%前後であり,属性として適切かどうかを判断しにくい.この2点から,基本CBの重みだけでは,多くの属性において採用か削除かの判断がしにくいことがわかる.\begin{figure}[ht]\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/wei_reli.eps,scale=1.0}\caption{重みと適切な属性の率の関係}\label{fig:wei-reli}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/wei_num.eps,scale=1.0}\caption{重みと属性数の関係}\label{fig:wei-num}\end{center}\end{minipage}\end{figure}\subsubsection{関連度から得られる属性信頼度(関連度)}語Aと属性$a_i$の関連度が高ければ,属性$a_i$が語Aの属性として適切である可能性が高い.関連度と適切な属性の率の関係は図\ref{fig:da-reli}のようになっている.図\ref{fig:da-reli}の横軸は関連度の範囲を示している.例えば,横軸の0.1の部分は関連度が0.1以上,0.2未満の属性を示す.関連度から属性信頼度(関連度)を求める場合,適切な属性の率を属性信頼度(関連度)とし,図\ref{fig:da-reli}から求める.関連度が属性の適不適を判別する能力を見るために,図\ref{fig:da-num}に関連度と属性数の関係を示す.横軸は図\ref{fig:da-reli}と同じである.図\ref{fig:da-num}から関連度が0.1前後の属性が多いことがわかるが,関連度が0.1の適切な属性の率は図\ref{fig:da-reli}から約50\,\%である.2番目に属性の多い関連度が0の部分では,適切な属性の率が25\,\%と比較的低く,3番目に属性の多い関連度が0.2の部分では,適切な属性の率が75\,\%と比較的高くなっている.以上から,基本CBの重みと比べると,関連度の属性の判別能力が高いことがわかる.関連度は重みを用いて計算するため,重みと同価値の手がかりに見えるが,次のような点で異なる.属性$a_i$の重みは基本的に語Aの説明文における出現頻度から得た値である.一方,関連度は語Aとその属性$a_i$を語と見たときのそれぞれの属性全体の一致数から導かれ,図\ref{fig:wei-num}と図\ref{fig:da-num}の比較からわかるように重みとは異なる傾向を持つ.\begin{figure}[ht]\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/da_reli.eps,scale=1.0}\caption{関連度と適切な属性の率の関係}\label{fig:da-reli}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/da_num.eps,scale=1.0}\caption{関連度と属性数の関係}\label{fig:da-num}\end{center}\end{minipage}\end{figure}\subsubsection{漢字一致から得られる属性信頼度(漢字一致)}語Aの綴りにある漢字と属性$a_i$の綴りにある漢字が一致しているかどうかという手がかりである.語Aと属性$a_i$の漢字が一致していれば,漢字は表意文字であるため両者が関係している可能性,すなわち属性$a_i$が語Aの属性として適切である可能性が高い.語Aと漢字が一致している属性$a_i$が属性として適切な率は実験により73\,\%であることを確認している.\subsubsection{相互属性から導く属性信頼度(相互属性)}属性$a_i$は語Aの属性であるが,さらに語Aが語$a_i$の属性として使われている場合,属性$a_i$を語Aの相互属性と呼ぶ.これは,語Aと$a_i$に対応する国語辞書の説明文における語の出現頻度を調べた結果,どちらの説明文からも語Aと語$a_i$の間に関係がある可能性があると判断されたことを意味する.したがって,語Aの属性$a_i$が相互属性である場合,相互属性から導かれる属性信頼度(相互属性)として,語$a_i$の属性Aの基本CBにおける重みから導かれる属性信頼度(頻度重み)を用いることができる.\subsection{属性信頼度の合成}属性信頼度は確率のような値であるため,一つの属性に対して複数の属性信頼度がある場合,計算により一つに合成できる.ある属性$a_i$に対して統計的に独立した2つの手がかり1,2から属性信頼度$p_1$,$p_2$が得られたとき,このときの属性$a_i$の属性信頼度$P$は次のようになる.\begin{equation}P=\frac{p_1p_2}{p_1p_2+(1-p_1)(1-p_2)}\label{eq:integ_reli}\end{equation}ただし,実際に属性信頼度を導く全ての手がかりが完全に独立である可能性は低いため,本研究では各手がかりの間にある程度の独立性が期待できれば良いとしている.この式は次のように導かれる.属性$a_i$の属性信頼度が手がかり1,2から$p_1$,$p_2$と導かれているが,これは手がかり1では確率$p_1$で適切と判定され,手がかり2では確率$p_2$で適切と判定されたことを意味する.この事象の空間は図\ref{fig:two_reli}のように表現できる.図\ref{fig:two_reli}には4つの領域があるが,起こり得るのは両方が適切または不適切となる領域のみである.なぜなら,属性が適切であれば,手がかり1,2ともに属性が適切である事象が,属性が不適切であれば,手がかり1,2ともに属性が不適切である事象が発生するからである.この図\ref{fig:two_reli}の起こり得る領域の中で,属性が適切な部分の率を示す式が式\ref{eq:integ_reli}である.\begin{figure}[ht]\begin{center}\epsfile{file=fig/two_reli.eps,scale=1.0}\caption{2つの手がかりの事象空間}\label{fig:two_reli}\end{center}\end{figure}この計算には合成の順序によらず結果が等しいという特徴がある.例えば,属性$a_i$の属性の3つの属性信頼度$p_1$,$p_2$,$p_3$を合成するとき,$p_1$と$p_2$を先に合成しても,$p_2$と$p_3$を先に合成しても結果は変わらない.したがって,属性信頼度が多数あっても,将来属性信頼度に関する情報が増えても,一つの属性信頼度への合成が可能である.このために,属性信頼度は継続的に行う必要がある概念ベース構築に適している.様々な手がかりを属性信頼度に変換すると,それらを一元的に扱えるようになる.これが手がかりをそのまま用いずに,手がかりから属性信頼度を求める理由である.手がかりをそのまま用いようとすると,どの手がかりも属性の確からしさを示しているにもかかわらず一元的に扱うことができない.\subsection{属性信頼度の計算手順}語Aの属性$a_i$の属性信頼度は以下の属性信頼度を合成して求める.\begin{itemize}\item語Aと属性$a_i$が一致するなら,語と属性の一致から導かれる信頼度(属性一致)\item語Aと属性$a_i$の関係が関係データにあるなら,関係データから導かれる信頼度(関係データ)\item基本CBにおける$a_i$の重みから導かれる属性信頼度(頻度重み)\item語Aと属性$a_i$の関連度から導かれる属性信頼度(関連度)\item属性$a_i$が漢字一致の条件を満たすなら,漢字一致から導かれる属性信頼度(漢字一致)\item$a_i$が相互属性なら,基本CBにおける語$a_i$の属性Aの重みから導かれる属性信頼度(相互属性)\end{itemize}サンプル属性において,以上のように求めた属性信頼度と実際の適切な属性の率の関係を図\ref{fig:reli-the-real}に示す.図\ref{fig:reli-the-real}の横軸は属性信頼度の範囲を示している.例えば,横軸の10\,\%の部分は属性信頼度が10\,\%以上,20\,\%未満の属性を示す.理想的なグラフは属性信頼度と適切な属性の率が一致するグラフ(図\ref{fig:reli-the-real}の破線)であるが,実際に求まった属性信頼度はほぼ理想値通りの結果となっているのがわかる.最終的な属性信頼度の属性の適不適を判別する能力を見るために,図\ref{fig:reli-num}に属性信頼度と属性数の関係を示す.図\ref{fig:reli-num}の横軸は図\ref{fig:reli-the-real}と同じである.図\ref{fig:reli-num}では属性信頼度が90\,\%の部分の属性数が約1,800個と最も多いが,この部分の適切な属性の率は87\,\%である.各手がかり単独では,適切な属性の率が80\,\%以上で属性を集めるのは困難で,単独で最も能力の高い関連度でも80\,\%以上の部分に約1,000個の属性しかない.さらに,属性信頼度が0\,\%から80\,\%の部分には属性が一様に分布し,各手がかりを単独で用いた場合のように適切な属性の率が50\,\%の部分にデータが集中していない.以上から,最終的に得られた属性信頼度が属性の適不適を判別する能力は,各手がかり単独より極めて高いことがわかる.\begin{figure}[ht]\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/reli_right.eps,scale=0.99}\caption{属性信頼度と適切な属性の率の関係}\label{fig:reli-the-real}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/reli_num.eps,scale=0.99}\caption{属性信頼度と属性数の関係}\label{fig:reli-num}\end{center}\end{minipage}\end{figure}
\section{評価実験と考察}
ここでは,概念ベースの評価法と評価結果について述べる.評価対象は精錬の対象である基本CBと提案手法で精錬した精錬CBであるが,比較のために,重みに関連度をそのまま用いた関連度概念ベース(関連度CB)と,重みに信頼度をそのまま用いた信頼度概念ベース(信頼度CB)についても評価した.なお,精錬CBは実験において最高の順序正解率(後述)のものを採用した.\subsection{適正属性率}概念ベースから無作為に100語を取り出し,人手により属性が適切かどうかを判定した.属性の人手による評価に用いる100語をサンプル語と呼び,その属性をサンプル属性と呼ぶ.また,概念ベースのサンプル語における適切な属性の率を適正属性率と呼ぶ.なお,この評価では属性の適切性のみを評価しており重みの妥当性を無視している.これは,人間の感覚では,数量的な重みの妥当性を評価することが困難であるためである.各概念ベースの適正属性率を図\ref{fig:rar}に示す.図\ref{fig:rar}から,適正属性率は精錬CBが67\,\%と基本CBの54\,\%から13\,\%向上していることがわかる.重みが0となった属性は削除されるが,属性が削除されたのは精錬CBのみであり,関連度CB,信頼度CBともに,重みが0になる属性はなかった.このため,関連度CB,信頼度CBの適正属性率は基本CBと変わらない.次に,精錬CB構築におけるサンプル属性の変化について考察する.図\ref{fig:cb_attnum}にサンプル属性の数を示す.精錬CBは精錬により,基本CBから31\,\%にあたる1,613個の属性が削除されている.このとき,サンプル属性における適切な属性の15\,\%,雑音の49\,\%が削除され,雑音が重点的に削除されていることがわかる.なお,このとき削除された1,613個の属性の内訳は,適切な属性が26\,\%,雑音が74\,\%であった.\begin{figure}[ht]\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/rar.eps,scale=1.0}\caption{各概念ベースの適正属性率}\label{fig:rar}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/cb_attnum.eps,scale=1.0}\caption{各概念ベースにおけるサンプル属性数}\label{fig:cb_attnum}\end{center}\end{minipage}\end{figure}精錬CBの属性と削除された属性の例を表\ref{tb:del_att}に示す.削除された属性に適切な属性は少なく,重点的に雑音が削除されているのがわかる.しかし,削除された属性に適切な属性が含まれ,精錬CBには雑音が残っている.以下では,精錬の誤りの原因について考察する.まず,雑音である“我が物”が削除されなかった理由について考察する.属性“我が物”の属性信頼度を導くことができる手がかりは,国語辞書における語の出現頻度に基づいた基本CBの重み,関連度,相互属性となっている.属性“我が物”においては,重みが0.045で属性信頼度(頻度重み)55\,\%が導かれ,関連度が0.171で属性信頼度(関連度)45\,\%が導かれる,相互属性から得られる重み0.136で属性信頼度(相互属性)85\,\%が導かれる.3つの属性信頼度を合成すると85\,\%となり,雑音“我が物”は削除されずに残る.属性信頼度を向上させる大きな原因は相互属性から得た重みであることがわかる.次に,適切な属性である“美しい”が削除された理由について考察する.属性“美しい”の信頼度を導くことができる手がかりは,基本CBの重みと,関連度である.属性“美しい”においては,重みが0.045で属性信頼度(頻度重み)55\,\%が導かれ,関連度が0.044で属性信頼度(関連度)25\,\%が導かれる.2つの属性信頼度を合成すると29\,\%が導かれ,属性“美しい”は削除対象となる.属性信頼度を低下させる大きな原因となったのは,関連度であることがわかる.以上より,精錬における誤りは基本CBの重みと関連度の不正確さが原因となっていることがわかる.しかしながら,複数の手がかりを複合して使っているため,例えば,属性“美しい”の属性信頼度において,属性信頼度(関連度)による25\,\%という低い値が,属性信頼度(頻度重み)の55\,\%により29\,\%へと少しではあるが増加している.ここからも,様々な手がかりを複合的に用いることの有効性がわかる.また,概念ベースをさらに改善するなら,属性判別のための新たな手がかりが必要となるが,提案方式では属性信頼度という考え方により新たな手かがりにも容易に対応できる.\begin{table}[ht]\begin{center}\caption{精錬CBの属性と削除された属性の例}\label{tb:del_att}\begin{tabular}{c|p{0.5\linewidth}|p{0.3\linewidth}}\hline\hline\multicolumn{1}{c|}{語}&\multicolumn{1}{c|}{精錬CBの属性}&\multicolumn{1}{c}{削除された属性}\\\hline\hline雪&雪,白雪,吹雪,雪模様,語,色,大雪,積雪,風雪,深雪,小雪,牡丹雪,降雪,万年雪,霙,白い,雪肌,雪景色,雪原,雪消,雪女,下る,雪渓,雪明かり,雪達磨,降水量,除雪,橇,白髪,氷,雲,真っ白,結晶,白,雪国,雪解け,我が物,枝垂れる,水蒸気,大根,綿帽子,多様,鱈,庵,氷水,冬,角柱,凝結,昇華,白紙,東国,豊年,見分け,小片,精,方言,地,上代,流石,見紛う,曲がり,旁,貢ぎ物,正反対,作詞,五穀,零度&上層,作曲,外形,針,色合い,欺く,髪,峰,隅,回,象徴,訓読み,気温,前兆,歌舞,大気,舞う,劣る,外観,相違,空気,肌,作,地上,紋所,温度,取り,喜ぶ,主な,頭,代表,古来,月,空中,美しい,名,集まる,異称,風,子供,芝居\\\hline衛星&衛星,天体,月,惑星,木星,星,太陽系,地球,火星,公転,交点,太陽,恒星,水星,彗星,運行,巡る,巡り,周囲,最大,三つ,作用,有力&称,類い,略,対す\\\hline\hline\end{tabular}\end{center}\end{table}\subsection{順序正解率}概念ベースの全属性は非常に多く全てを人間が評価するのは不可能である.そこで,次のようにテストデータを用いて導かれる順序正解率により評価を行った.テストデータは多数の語を集めたデータで,4語で1組をなす.1組の語は,基準語X,語Xと同義または類義の語A,ある程度関係のある語B,関係のない語Cからなっている(表\ref{tb:ex_measure}).テストデータは590組のデータで,人手によって作られている.各データは4人の人間が確認を行い,その全員により正しいと判断されている.順序正解率はテストデータの語間で関連度計算を行い,求まった関連度の値を比較して求める.基準語XとA,B,Cの関連度をそれぞれ$R_a$,$R_b$,$R_c$とする.これらの値は$R_a>R_b>R_c$という大小関係が期待される.テストデータの全ての語の組の中で,このような順序になり,かつ各関連度の差が全$R_c$の平均より大きい率を順序正解率として概念ベースの評価に用いる.各関連度の差を全$R_c$の平均より大きいときに正解とするのは,基準語Xに無関係な語Cの関連度$R_c$の平均が関連度の誤差の基準となるためである.\begin{table}[ht]\begin{center}\caption{テストデータの実例}\label{tb:ex_measure}\begin{tabular}{cccc|cccc}\hlineX&A&B&C&X&A&B&C\\\hline樹木&木&木の葉&頭&人&人間&動物&箱\\天気&天候&雨&写真&子供&童&大人&雲\\町&都市&住民&石&辞書&辞典&本&家\\海&海洋&波&耳&絵&絵画&紙&経済\\瞳&目&顔&靴&景色&風景&観光&爪\\\hline\end{tabular}\end{center}\end{table}各概念ベースの順序正解率を図\ref{fig:ror}に,関連度の平均と分散を表\ref{tb:cb_da}に示す.精錬CBが63.7\,\%,基本CBが49.0\,\%と精錬により14\,\%向上した.精錬CBの構築ではサンプル語における適切な属性の15\,\%が削除されているが,精錬により順序正解率は改善している.基本CBから精錬CBへの各関連度の平均の変化は,$R_a$の平均で0.405から0.482への増加,$R_b$の平均で0.188から精錬CBの0.196へと$R_a$の増加分より小さな増加,$R_c$の平均で0.065から0.042への小さな減少となった.したがって,$R_a$,$R_b$,$R_c$間の差はどれも精錬により拡大したことになる.以上から,順序正解率においては適切な属性の削除による悪影響より,雑音の削除と重み付けによる改善の方が大きいことがわかる.精錬により$R_a$,$R_b$の分散が増加しているが,これは$R_a$,$R_b$の平均が大きくなった影響と考える.関連度をそのまま用いた関連度CBの順序正解率は49.5\,\%,信頼度をそのまま用いた信頼度CBの順序正解率は51.9\,\%と,基本CBの49.0\,\%からあまり変化が見られない.関連度の平均に関しては,関連度CB,信頼度CBともに基本CBから少し減少し,関連度の分散に関しても関連度CB,信頼度CBともに基本CBから少し減少しており,傾向に大きな変化はない.以上より,関連度,属性信頼度をそのまま重みとしても,関連度,分散が少し減少する以外にあまり変化がないことがわかる.\begin{figure}[ht]\begin{center}\epsfile{file=fig/ror.eps,scale=1.0}\caption{各概念ベースの順序正解率}\label{fig:ror}\end{center}\end{figure}\begin{table}[ht]\begin{center}\caption{各概念ベースの関連度の平均と分散}\label{tb:cb_da}\begin{tabular}{l|cc|cc|cc}\hline\multicolumn{1}{c|}{}&\multicolumn{2}{c|}{$R_a$}&\multicolumn{2}{c|}{$R_b$}&\multicolumn{2}{c}{$R_c$}\\概念ベース&平均&分散&平均&分散&平均&分散\\\hline基本CB&0.405&0.0316&0.188&0.0136&0.065&0.0009\\関連度CB&0.321&0.0223&0.154&0.0105&0.048&0.0006\\信頼度CB&0.368&0.0280&0.167&0.0118&0.053&0.0007\\精錬CB&0.482&0.0376&0.196&0.0214&0.042&0.0009\\\hline\end{tabular}\end{center}\end{table}属性の適切な重みを知るために,順序正解率と重みの関係を調べた.順序正解率で上位10位の精錬CBにおける各クラスの重みの付き方を表\ref{tb:wei_list}に示す.表\ref{tb:wei_list}においては,どのクラスにおいても特定の一つの値が半数以上を占め,高い評価を導く重みに傾向が存在することがわかる.表\ref{tb:clwei}に,表\ref{tb:wei_list}における各クラスの最高評価の重み,平均の重みと最多の重みを示す.表\ref{tb:clwei}に示すように各クラスとも,最高評価,重みの平均,最多の重みにそれほど大きな違いはない.各クラスの重みはどれも似たような値で,ほぼ同義,類義,上下,信頼度3,信頼度4,信頼度5,信頼度6の順に大きいという大小関係も変わらない.これより,最高評価の重みは,偶然に決まったのではなく,適切な重みの持つ傾向に従って決まったことがわかる.以上から,精錬CBの各クラスの適切な重みは,試行した値が離散的であるため完全ではないが,ほぼ最高評価の重みでよいと考える.また,精錬CBでは属性が削除されているが,表\ref{tb:clwei}から精錬CBで削除されたのは,信頼度5,6のクラスの属性であることがわかる.さらに,表\ref{tb:clwei}において,信頼度5,6の重みの平均は他と比べて小さく,最高評価の重み,最多の重みともに0であることから,信頼度5,6のクラスは概念ベースに不要なクラスであることがわかる.\begin{table}[ht]\begin{center}\caption{上位10位までの精錬CBにおける各クラスの重み}\label{tb:wei_list}\begin{tabular}{c|rrrrrrr}\hline\multicolumn{1}{c|}{}&\multicolumn{7}{c}{クラスの重み}\\順位&同義&類義&上下&信頼度3&信頼度4&信頼度5&信頼度6\\\hline1&8&4&1&0.5&0.25&0&0\\2&4&4&4&0.5&0.25&0&0\\3&4&4&4&0.25&0.25&0&0\\4&2&8&4&0.5&0.5&0.25&0\\5&4&4&0.5&0.25&0.25&0&0\\6&8&2&1&0.5&0.25&0&0\\7&8&2&1&0.25&0.25&0&0\\8&4&4&2&0.5&0.5&0.25&0\\9&8&4&1&1&0.25&0.25&0\\10&4&4&1&0.5&0.25&0&0\\\hline\end{tabular}\end{center}\end{table}\begin{table}[ht]\begin{center}\caption{精錬CBの上位10位における各クラスの重みの傾向}\label{tb:clwei}\begin{tabular}{crrr}\hlineクラス&最高評価&重みの平均&最多の重み\\\hline同義&8&5.4&4\\類義&4&4&4\\上下&1&1.95&1\\信頼度3&0.5&0.475&0.5\\信頼度4&0.25&0.3&0.25\\信頼度5&0&0.075&0\\信頼度6&0&0&0\\\hline\end{tabular}\end{center}\end{table}\subsection{情報検索における効果}本研究の総合的な効果を考察するため,連想機能を有効に利用できる処理の一つであるWebの情報検索を考える.連想機能をWebなどの情報検索に適用する場合,指定されたキーワードだけでなく連想により意味的に拡張した複数のキーワードを用いることにより,より適切な検索が可能となる.この場合,連想される語の良し悪しが検索結果の適切性に大きく影響するため,連想の基盤となる概念ベースの精度向上が極めて重要となる.例えば,"雪"について見てみると,基本CBによる連想では"上層","作曲","外形"のような不適切なキーワードが多く拡張され,検索結果の誤りを確実に増加させる.精錬CBでは不適切な属性が重点的に削除されているため,不適切なキーワードの拡張を抑制することができる.このように,提案方式による概念ベースの精錬は情報検索の結果を大きく改善する.\newpage
\section{おわりに}
概念ベースと関連度計算アルゴリズムは連想システムの重要な要素である.概念ベースは大規模であるため,電子化辞書などから自動的に構築し,さらに継続的に構築および精錬を続けていく必要がある.自動構築された概念ベースは多くの雑音を含み,出現頻度による属性の重みは信頼性が低いため,適切な連想にはこれらの雑音の除去と適切な重み付けが重要である.さらに,継続的な構築および精錬が必要であるため,精錬方式も継続的に実行できることが重要となる.本稿では,雑音の除去と属性の重み付けに属性の確からしさを属性信頼度として用いる方法を提案した.提案手法では,属性の確からしさにより,単語の出現頻度に重点を置く方式より信頼性の高い重みを付けを実現している.さらに,提案方式は継続的な構築にも対応しやすい.これは,属性の確からしさは属性信頼度という値で表現すると新しくデータが増加しても合成計算により対応できるためである.人間の感覚による評価とテストデータの関連度を用いた評価実験により,提案方式で精錬した概念ベースを評価した.その評価結果により雑音が大幅に削除され,重みの信頼性が向上したことを示した.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl}\bibliography{376.bbl}\begin{biography}\biotitle{略歴}\bioauthor{小島一秀}{1998年同志社大学工学部知識工学科卒業.2000年同大学院工学研究科知識工学専攻修士課程修了.同大学院工学研究科知識工学専攻博士後期課程在学.知識情報処理の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,電子情報通信学会,情報処理学会,IEEE(CS)各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V15N04-03
|
\section{はじめに}
\label{hajimeni}近年,統計的言語処理技術の発展によりテキスト中の人名や地名,組織名といった固有表現(NamedEntity)を高精度で抽出できるようになってきた.これを更に進めて,「福田康夫(人名)」は「日本(地名)」の「首相(関係ラベル)」であるといった固有表現間の関係を抽出する研究が注目されている\cite{brin1998epa,agichtein2000ser,hasegawa2004dra,zelenko2003kmr}.固有表現間の関係が抽出できれば,テキストからRDF(ResourceDescriptionFramework)で表現される様な構造化データを構築することが可能となる.この構造化データを用いれば,例えば「大阪に本社がある会社の社長」といった「地名⇔組織名」と「組織名⇔人名」の関係を辿るような「推論」を行なうことができ,より複雑な情報検索,質問応答や要約に有益である.我々は,入力されたテキストから関係3つ組である[固有表現$_{1}$,固有表現$_{2}$,関係ラベル]を抽出する研究を進めている.例えば,「福田康夫氏は日本の首相です。」というテキストから[福田康夫,日本,首相]の関係3つ組を抽出する.この関係3つ組をテキストから抽出するには,(a)テキストにおける固有表現の組の意味的関係の有無を判定({\bf関係性判定})する技術と,(b)固有表現の組の関係ラベルを同定する技術が必要である.本論文では,(a)のテキスト内で共起する固有表現の組が,そのテキストの文脈において意味的な関係を有するか否かを判定する手法を提案する.ここでは,英語での関係抽出の研究であるACE\footnote{http://projects.ldc.upenn.edu/ace}のRelationDetectionandCharacterizationの指針に準じて,固有表現間の意味的関係について以下のように定義する.\vspace{1\baselineskip}\begin{itemize}\item次の2種類の単位文,(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』もしくは(2)『固有表現$_{1}$の〜は固有表現$_{2}$だ』で表現しうる関係が,テキストにおいて言及,または含意されている場合,単位文の要素となる二つの固有表現は意味的関係を有する.\end{itemize}\vspace{1\baselineskip}ここで,単位文(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』においては,格助詞を「が」「を」に固定しているわけでなく,任意の格助詞,『固有表現$_{1}$が固有表現$_{2}$で〜する』や『固有表現$_{1}$を固有表現$_{2}$に〜する』,でも良い.意味的関係を有する固有表現の組について例を示す.例えば「温家宝首相は人民大会堂で日本の福田康夫首相と会談した。」というテキストでは,『温家宝が福田康夫と会談した』,『温家宝が人民大会堂で会談した』,『福田康夫が人民大会堂で会談した』,『日本の首相は福田康夫だ』が言及されているため,「温家宝⇔福田康夫」,「温家宝⇔人民大会堂」,「福田康夫⇔人民大会堂」,「日本⇔福田康夫」の組が意味的関係を有する.また,「山田さんが横浜を歩いていると,鈴木さんと遭遇した。」というテキストでは,『山田が横浜を歩いていた』,『山田が鈴木と遭遇した』が言及されており,また『鈴木が横浜にいた』が含意されているため,「山田⇔横浜」,「山田⇔鈴木」,「鈴木⇔横浜」の組が意味的関係を有する.固有表現間の関係性判定の従来研究は,単語や品詞,係り受けなどの素性を用いた機械学習の研究が多い\cite{culotta2004dtk,kambhatla2004cls,zelenko2003kmr}.例えば,\citeA{kambhatla2004cls}らの研究では,与えられた二つの固有表現の関係の有無を判断するのに,係り受け木における二つの固有表現の最短パスと,二つの固有表現の間の単語とその品詞を素性として利用した手法を提案している.特に,係り受け木における二つの固有表現の最短パスを素性として利用することが,固有表現間の関係性判定に有効であることを報告している.しかし,{\ref{method}}で後述するように,実データ中に存在する意味的関係を有する固有表現の組のうち,異なる文に出現する固有表現の組は全体の約43.6\%を占めるにも関わらず,従来手法では,係り受けなどの文に閉じた素性だけを用いている.この文に閉じた素性は,異なる文に出現する固有表現間の組には利用できず,従来手法では,二つの固有表現の間の単語とその品詞だけを素性として利用するため,適切に意味的関係の有無を判別することができない.本論文では,係り受けなどの文に閉じた素性だけでなく,文脈的情報などの複数の文をまたぐ素性を導入した機械学習に基づく関係性判定手法を提案し,その有効性について議論する.
\section{関係性判定における文脈的素性の利用}
\label{teian}提案手法では,SalientReferentList\cite{nariyama2002ger}に基づく文脈的素性を導入し,単語や品詞,係り受けなどの伝統的に利用されている素性と組合わせる.これらの素性はひとつの木構造として表現され,ブースティングに基づく分類アルゴリズムに渡される.本手法における処理の流れは次の通りである.テキストに出現する固有表現の組が入力され,(1)形態素解析や固有表現抽出,係り受け解析を行なう基盤解析部,(2)提案する文脈的素性や係り受けなどに基づく素性を抽出する素性抽出部,(3)抽出された素性に基づいて正例と負例に分ける分類部を通り,入力された固有表現の組が意味的関係を有するか否かを判定した結果を出力する.ここでは,文脈的素性の基本的な考え方と関係性判定に利用する具体的な素性について説明する.\subsection{文脈的素性の基本的な考え方}\label{anaphora}異なる文に出現する固有表現の組が意味的関係を有するということは,与えられた固有表現の組のうち,先に出現する固有表現が,後に出現する固有表現を含む文において「文脈的に参照され易い」ことを意味する.例えば,例1のテキストにおいて,「ケン⇔アメリカ」の組は先に出現する「ケン」が後に出現する「アメリカ」を含む文において文脈的に参照され易い(実際にガ格ゼロ代名詞の先行詞である)ため『ケンがアメリカに渡る』という意味的関係を持つが,「ナオミ⇔アメリカ」の組の場合は文脈的に参照されにくいため意味的関係を持たない.\vspace{1\baselineskip}(例1)明日、$ケン_{i}$は大阪を訪れ、ナオミと会う。\\\phantom{(例1)}その後($\phi_{i}$ガ)アメリカに渡りトムと旅行する。\vspace{1\baselineskip}以上のことから,与えられた固有表現の組のうち,先に出現する固有表現が,後側の固有表現が出現する文脈において参照されるか否かという情報を素性として用いることが意味的関係の有無を判定するのに有用であると考えられる.本研究では,上記の情報を取得するために,ある名詞句が後続する文脈において「どの程度参照され易いか」を評価するアルゴリズムの\citeA{nariyama2002ger}手法を用いる.\begin{figure}[t]\begin{center}\includegraphics{15-4ia3f1.eps}\end{center}\caption{SalientReferentListに保持された情報}\label{center}\end{figure}\subsection{SalientReferentListと優先規則}\label{centering}Nariyamaは,談話の構造と焦点の移り変わりを説明する理論であるセンタリング理論{\cite{grosz1983pua}}を日本語ゼロ代名詞の照応解析に適用するアルゴリズムとしてSalientReferentListとその優先規則を提案した.このアルゴリズムは,言い換えると,ゼロ代名詞よりテキスト前方に出現した名詞句を先行詞になりやすい順に並び替えるものである.Nariyamaのゼロ代名詞照応解析手法は,1文前の先行詞候補のみを対象としてきたセンタリング理論の考え方に対し,先行詞候補を蓄える記憶領域であるSalientReferentListに2文以上前の候補も保持することができる.また,この手法では,次に示す先行詞らしさの選好を用いる.\vspace{1\baselineskip}\begin{itemize}\item主題(``は''){$>$}主語(``ガ格''){$>$}間接目的(``二格''){$>$}直接目的(``ヲ格''){$>$}その他\end{itemize}\vspace{1\baselineskip}この選好は,日本語は主題であるほど省略されやすく,また主題は助詞``は''を用いて記される傾向があるという知見に基づいたものである.SalientReferentListは上記の要素(主題,主語,間接目的,直接目的,その他)のそれぞれにスタック(後入れ先出し構造)を持ち,先行詞候補を保持する際には,ゼロ代名詞の直前まで,次の処理を繰り返す.\vspace{1\baselineskip}\begin{itemize}\itemテキストの先頭から文の流れに沿って1つずつ先行詞候補(名詞句)を抽出し,格情報に対応するスタックにPushする.\end{itemize}\vspace{1\baselineskip}ゼロ代名詞を補完する際は,SalientReferentListに保持されている情報と,上に示した選好,スタックに基づき,優先度の高い候補から順にガ格,二格,ヲ格に同定する.例1のテキストを用いて,ゼロ代名詞({$\phi_{i}$}ガ)の照応解析時の処理の流れを示す.まず,テキスト先頭から文の流れに沿って,ゼロ代名詞の直前までにある「明日」,「ケン」,「大阪」,「ナオミ」を,順に格助詞に対応するスタックにPushする.結果,図{\ref{center}}のような情報がSalientReferentListに保持される.次に,ゼロ代名詞を補完するために,先に示した選好とスタックに基づき,1.「ケン」,2.「大阪」,3.「ナオミ」,4.「明日」と優先度の高い順に並び替える.この並び替えによって最上位になった「ケン」をゼロ代名詞({$\phi_{i}$}ガ)の先行詞に同定する.\subsection{固有表現間の関係性判定への適用方法}固有表現間の関係性判定では,与えられた固有表現の組のうち,先に出現する固有表現が,後に出現する固有表現を含む文脈において参照され易いか否かを取得するために,上記のSalientReferentListを利用する.ここで,本研究においては,ゼロ代名詞を見つけ,その先行詞を同定するといった明示的な省略補完は行わないことに注意されたい.\subsubsection{SalientReferentListの最上位を利用}\label{tekiyou}固有表現間の関係性判定にSalientReferentListを適用するにあたって,NariyamaアルゴリズムにおけるSalientReferentListへの名詞句の格納処理を,「ゼロ代名詞の直前まで」ではなく,「{\bf後に出現する固有表現の直前まで}」と変更する.つまり,与えられた固有表現の組のうち,後に出現する固有表現の直前まで,次の処理を繰り返し,SalientReferentListに名詞句を保持する.\vspace{1\baselineskip}\begin{itemize}\itemテキストの先頭から文の流れに沿って1つずつ名詞句を抽出し,格情報に対応するスタックにPushする.\end{itemize}\vspace{1\baselineskip}そして,SalientReferentListに保持されている情報と,{\ref{centering}}で示した選好,スタックに基づき,優先度の高い順に並び替える.提案手法では,先に出現する固有表現が,並び替えられた情報の中で最上位の名詞句か否かを文脈的素性として利用する.つまり,先に出現する固有表現と並び替えによって最上位になった名詞句が一致すれば,先に出現する固有表現は,後に出現する固有表現を含む文脈において参照され易いと判断する.この参照され易いか否かを文脈的素性として利用する.本論文では,本素性を``SRL-T''(SalientReferentListTop)と呼び,素性の値は,参照され易いと判断されれば1となる.例1のテキストにおいて,「ケン⇔アメリカ」の組が与えられた時の処理の流れを示す.テキストの先頭から文の流れに沿って,後に出現する固有表現「アメリカ」の直前までにある名詞句の「明日」,「ケン」,「大阪」,「ナオミ」を順に,格情報に対応したスタックにPushする.結果,図{\ref{center}}のような情報がSalientReferentListに保持される.次に,{\ref{centering}}で示した選好とスタックに基づき,1.「ケン」,2.「大阪」,3.「ナオミ」,4.「明日」と優先度の高い順に並び替える.ここで,先に出現する固有表現「ケン」と最上位になった名詞句「ケン」が一致するので,「ケン」は「アメリカ」を含む文脈において参照され易いと判断し,文脈的素性``SRL-T''を1とする.一方,同テキストにおいて,「ナオミ⇔アメリカ」の組が与えられた時は,後に出現する固有表現「アメリカ」が上の例と同じため,同じ並び替え結果(1.「ケン」,2.「大阪」,3.「ナオミ」,4.「明日」)が得られる.ここでは,先に出現する固有表現「ナオミ」と最上位になった名詞句「ケン」が一致しないので,「ナオミ」は「アメリカ」を含む文脈において参照されにくいと判断し,文脈的素性``SRL-T''を0とする.\begin{figure}[t]\begin{center}\includegraphics{15-4ia3f2.eps}\end{center}\caption{SalientReferentListに保持された情報(テキスト例2の「大阪⇔ケン」)}\label{center2}\end{figure}このようにSalientReferentListを利用した文脈的素性によって,{\ref{anaphora}}で述べた例1のテキストにおける「ケン⇔アメリカ」と「ナオミ⇔アメリカ」の意味的関係の有無を適切に判定できると期待できる.\subsubsection{SalientReferentListの構造を利用}\label{riyou}{\ref{centering}}で述べたNariyamaのゼロ代名詞照応解析手法で用いられている選好は,日本語は主題であるほど省略されやすいという知見に基づいており,この選好によって並び替えられる名詞句は,当然主題になりやすいものが上位にくる傾向にある.つまり,上記のようにSalientReferentListを選好で並び替え,その最上位を用いる方法では,与えられた固有表現の組のうち,先に出現する固有表現が地名や時間などの主題になりにくい固有表現の場合,後に出現する固有表現を含む文脈において,参照されにくいと判断されることが多い.\vspace{1\baselineskip}(例2)昨日、大阪でパーティーが開かれた。\\\phantom{(例2)}ケンやトムが出席した。\vspace{1\baselineskip}例えば,例2のテキストにおいて「大阪⇔ケン」の組が与えられた時,テキストの先頭から文の流れに沿って,後に出現する固有表現「ケン」の直前までにある名詞句の「昨日」,「大阪」,「パーティー」を順に,格情報に対応したスタックにPushし,図{\ref{center2}}の情報がSalientReferentListに保持される.そして{\ref{centering}}で示した選好とスタックに基づき,1.「パーティー」,2.「大阪」,3.「昨日」と優先度の高い順に並び替えられる.ここで,先に出現する固有表現「大阪」と最上位になった名詞句「パーティー」が一致しないので,「大阪」は「ケン」を含む文脈において参照されにくいと判断され,文脈的素性``SRL-T''は0となる.このように,SalientReferentListをゼロ代名詞照応解析のための選好で並び替える方法では,地名や時間などの主題になりにくい固有表現が,後続する文脈において参照され易いか否かを判定することができない.これはゼロ代名詞照応解析は述語の場所格や時間格などの任意格要素の補完を対象としていないからである.\begin{figure}[t]\setlength{\captionwidth}{0.48\textwidth}\begin{minipage}[b]{0.48\hsize}\begin{center}\includegraphics{15-4ia3f3.eps}\end{center}\hangcaption{図\ref{center2}のSalientReferentListから生成された構造情報}\label{center_str2}\end{minipage}\hfill\begin{minipage}[b]{0.48\hsize}\begin{center}\includegraphics{15-4ia3f4.eps}\end{center}\hangcaption{構造情報における最短パスの構造(テキスト例2の「大阪⇔ケン」)}\label{feature2}\end{minipage}\end{figure}そこで,地名や時間などの固有表現が,後続する文脈において参照され易いか否かを判定するために,SalientReferentListをゼロ代名詞照応解析のための選好で並び替えず,地名や時間としてどの程度参照され易いかを素性として利用する.本論文では,SalientReferentListに保持された情報を,構造を持つ情報と捉え,その構造情報を固有表現間の関係性判定に用いる.SalientReferentListに保持された情報から構造情報を生成する方法は,まず,SalientReferentListに保持された情報は,与えられた固有表現の組のうち,後に出現する固有表現の直前の情報であるため,生成する構造情報の根ノードを後に出現する固有表現とする.次に,各要素(主題,主語,間接目的,直接目的,その他)ごとにスタックから最上位の名詞句をPopして,根ノードの子ノードに配置し,そして,スタックが空になるまで,名詞句を順次Popし,1つ前にPopされた名詞句の子ノードに配置する.ここで各ノードに,どの要素の情報かを区別するため,``は''などのラベルも付与する.提案手法では,地名や時間としてどの程度参照され易いかを得るために,生成した構造情報における二つの固有表現の最短パスの構造を文脈的素性として利用する.本論文では,本素性を``SRL-S''(SalientReferentListStructure)と呼ぶ.例2のテキストの「大阪⇔ケン」の組が与えられたときの処理の流れを示す.後に出現する固有表現「ケン」の直前までの名詞句の「昨日」,「大阪」,「パーティー」を順に,格情報に対応するスタックにPushし,図{\ref{center2}}の情報がSalientReferentListに保持される.このSalientReferentListに保持された情報は,後に出現する固有表現「ケン」の直前の情報であるため,構造情報の根ノードを「ケン」とする.次に,``主題''は情報が空のためスキップし,``主語''の最上位の名詞句「パーティー」をPopして根ノードの子ノードに要素ラベルを付与した「ガ格:パーティー」配置する.そして,``間接目的''と``直接目的''の情報も空のためスキップし,``その他''の最上位の名詞句「大阪」をPopして根ノードの子ノードに「他:大阪」を配置する.最後に,``その他''の名詞句「昨日」をPopして,1つ前にPopした名詞句「他:大阪」の子ノードに「他:昨日」を配置する.生成された構造情報を図{\ref{center_str2}}を示す.この構造において二つの固有表現「大阪⇔ケン」の最短パスの構造(図{\ref{feature2}})を文脈的素性``SRL-S''とする.このように,SalientReferentListに保持された情報を構造として捉えることで,先に出現する固有表現が地名や時間の場合も,後続する文脈において参照され易いか否かが取得でき,例2のテキストにおける「大阪⇔ケン」の意味的関係の有無を適切に判定できると期待できる.\subsubsection{2つの文脈的素性の組み合わせ}\label{kumiawase}提案した2つの文脈的素性は,共に,先に出現する固有表現が,後続する文脈で参照され易いか否かを表現しているが,前者のSalientReferentListの最上位を用いた素性``SRL-T''は,主題になりやすい人名や組織名の,後者のSalientReferentListの構造を用いた素性``SRL-S''は,主題になりにくい地名や時間の参照され易さを示している.SalientReferentListの構造を用いた素性``SRL-S''でも,主題になり易い人名や組織名の参照され易さを表現することができるが,``SRL-S''は,先に出現する固有表現が保持されているスタックしか考慮しないため,例えば,先に出現する固有表現が``主語''の1番目に保持されている時,``SRL-S''は,``主題''に他の名詞句が保持されている・いないに関わらず同じ構造が素性となるが,``SRL-T''は,``主題''に他の名詞句が保持されていれば0に,``主題''に他の名詞句が保持されていなければ1になる.このように提案した2つの素性は,常に同じ情報になるわけではない.そこで,本論文では,{\ref{bunrui}}で後述すように,2つの文脈的素性を組み合わせる.\subsection{分類器}\label{bunrui}分類器には,構造情報を用いた研究で高精度な分類結果が報告されている構造情報を明示的に利用した分類手法を用いる.構造情報を明示的に利用した分類手法には,TreeKernel\cite{collins2002ckn}やHDAGKernel\cite{suzuki2005kai}などのカーネル法を利用した手法と,部分木を素性とするブースティングに基づく手法\cite{kudo2004han}などがある.今回の実験では,比較的学習時間が短く実験が容易に行える工藤らのアルゴリズムが実装された分類器BACT\footnote{http://chasen.org/\~{}taku/software/bact/}を使用した.固有表現間の関係性判定では,{\ref{tekiyou}}で提案した2つの文脈的素性と従来から用いられている固有表現間の単語や係り受けに基づく素性を,まとめてひとつの大きな木構造で表現する.ここで,SalientReferentListの最上位を利用した素性と固有表現間の間の単語とその品詞に基づく素性は木構造で表現されていないため,各素性を1つのノードからなる木構造とする.そして,全ての木構造をまとめる際は,根ノードに``Root''と書かれたノードを用意して,その子ノードに各木構造を配置する.また,どの素性に属するノードかを区別するため,各ノードに``SRL-T''などのラベルを付与した.例えば,例2のテキストにおける「ケン⇔大阪」の組の素性をひとつの大きな木構造で表現すると図{\ref{tree}}のようになる.\begin{figure}[t]\begin{center}\includegraphics{15-4ia3f5.eps}\end{center}\caption{素性の木構造(例2のテキストにおける「ケン⇔大阪」の組の例)}\label{tree}\end{figure}この木構造を用いて,学習時には,分類に有効な規則集合(部分木)を学習し,解析時には,学習した規則集合を適用することで固有表現の組が意味的関係を有するか否かを判定する.
\section{評価実験}
\label{eva}\subsection{評価データ}\label{evadata}テキスト中の固有表現の組に人手で意味的関係の有無を判定した日本語の新聞記事1,400記事とブログ4,800記事の計6,200記事を用いる.なお固有表現の組として[人名⇔地名],[人名⇔組織名],[組織名⇔地名],[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の組合わせを対象に評価データを作成した.作業者には{\ref{hajimeni}}で述べた意味的関係の定義に加え,注意すべき点として,否定・願望・仮定で記述された内容に関しては意味的関係はないとすること,実世界で関係があると分かっていても,テキストの文脈から読み取ることができなければ意味的関係はないとすることをインストラクションとして与えた.また作業者間の一致率を調べるために,2人の作業者(作業者Aと作業者B)がタグ付け作業を行なった.データの詳細を表\ref{data_icchi}に示す.6つの組合わせの総数537,411組に対して,作業者Aは24,329組が,作業者Bは22,263組が意味的関係を有すると判断し,作業者間の$\kappa$値は0.827となった.また,作業者Aを正解,作業者Bをシステムと見なして\ref{result}で示す精度と再現率を計算すると,精度0.873,再現率0.799となった.\begin{table}[t]\caption{2人の作業者によるタグ付け作業の一致率}\label{data_icchi}\input{03table01.txt}\end{table}\begin{table}[t]\caption{評価データにおける(A)文内と(B)文間の内訳}\label{uchiwake}\input{03table02.txt}\end{table}このようなデータにおいて,作業者Aが作成したデータ,537,411組のうち24,329組が意味的関係を有すると判断されたデータ,を用いて5分割交差検定を行なった.\subsection{学習方法}\label{method}今回の実験では,[人名⇔地名],[人名⇔組織名],[組織名⇔地名],[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の各組合わせごとに,対象となる二つの固有表現が(A)同じ文に出現する場合と(B)異なる文に出現する場合に分けて学習しモデルを作成した.このように対象を2つに分ける理由として,(A)には係り受けに基づく素性などの文に閉じた素性が,(B)には提案した文脈的素性などの複数の文をまたぐ素性が特に有効であると考えられ,分けずに学習すると各々の特徴が平滑化され適切な学習ができないと考えられるからである.また評価データにおける(A)文内と(B)文間の内訳は表\ref{uchiwake}のようになっており,(A)と(B)で組合わせ総数に対する意味的関係のある組の割合が極端に異なることからも(A)と(B)を分けて学習することが考えられる.\subsection{実験結果と考察}\label{result}テキストにおける固有表現間の関係性判定実験において,提案した文脈的素性を用いることによりどの程度解析性能が向上するかを調査するために,次の5つの手法を比較評価した.なお,固有表現の間の単語とその品詞,係り受けに基づく素性や文脈的素性の抽出は,既存の形態素解析器・固有表現抽出器・係り受け解析器で得られた結果を利用した.\vspace{1\baselineskip}\begin{description}\item[WD]固有表現の組が$n$単語内に出現するなら意味的関係にあると判定する手法\item[DEP]固有表現の組の間の単語と品詞,係り受けに基づいた素性を用いた機械学習手法\item[DEP+SRL-T]``DEP''に加え,SalientReferentListの最上位を用いた手法\item[DEP+SRL-S]``DEP''に加え,SalientReferentListの構造を用いた手法\item[DEP+SRL-T+SRL-S]``DEP''に加え,SalientReferentListの最上位と構造を用いた手法\end{description}\vspace{1\baselineskip}\begin{figure}[t]\begin{center}\includegraphics{15-4ia3f6.eps}\end{center}\caption{全組合わせの再現率—精度曲線}\label{rpc_all}\end{figure}実験結果として,全組合わせの再現率—精度曲線を図\ref{rpc_all}に示す.この曲線は,分類器の出力した識別関数の値を動かして描いた.ただし,WDでは,単語距離{$n$}を変化させて再現率—精度曲線を描いた.なお精度と再現率は次式の通りである.\vspace{0.5\baselineskip}\begin{gather*}精度=\frac{システムが出力した正解関係あり数}{システムが出力した関係あり数}\\[0.5zw]再現率=\frac{システムが出力した正解関係あり数}{正解関係あり数}\end{gather*}\vspace{0.5\baselineskip}図\ref{rpc_all}において``DEP''と``DEP+SRL-T'',``DEP+SRL-S'',``DEP+SRL-T+SRL-S''を比較すると,文脈的素性を用いた提案手法が関係性判定に有効であることがわかる.分類器の出力した識別関数の値が0における各手法の精度と再現率は,``DEP''が精度0.691,再現率0.508,``DEP+SRL-T''が精度0.762,再現率0.603,``DEP+SRL-S''が精度0.749,再現率0.590,``DEP+SRL-T+SRL-S''が精度0.804,再現率0.650と提案手法によって,精度が約0.113,再現率が約0.142向上することが確認できた.ここで,``DEP+SRL-T''と``DEP+SRL-S''を比較すると,精度,再現率の数値に大きな差は見られないが,これらを導入することにより正しく判定できるようになった事例をみると,``DEP+SRL-T''は主題になり易い人名と組織名が先に出現する組に,``DEP+SRL-S''は主題になりにくい地名が先に出現する組に有効であることが確認できた.また,これらを組み合わせた``DEP+SRL-T+SRL-S''では,この両組が正しく判定できるようになっており,2つの文脈的素性が補いあうことで更に精度・再現率が向上したことが確認できた.\begin{table}[t]\caption{全組合わせの(A)文内と(B)文間の精度と再現率}\label{res_type}\input{03table03.txt}\end{table}\begin{table}[t]\caption{[人名⇔地名],[人名⇔組織名],[組織名⇔地名]の精度と再現率}\label{res_pare1}\input{03table04.txt}\end{table}次に,提案手法が,文間の精度と再現率の向上にどの程度寄与したかを調査した.実験結果として,表\ref{res_type}に全組合わせの(A)文内と(B)文間に対する各手法の精度と再現率を示す.表\ref{res_type}からわかるように,提案手法``DEP+SRL-T+SRL-S''は,``DEP''に比べ,文間の場合,精度が約0.220,再現率が約0.223向上したことが確認できた.最後に,今回対象にした[人名⇔地名],[人名⇔組織名],[組織名⇔地名],[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の各組合わせに対して提案手法が有効かを調査した.実験結果として,表\ref{res_pare1}と表\ref{res_pare2}に各組合わせに対する各手法の精度と再現率を示す.これらの結果から,提案手法は全ての組合わせで精度,再現率が向上していることが確認できる.またもっとも効果があったのは,[組織名⇔組織名]に対してで精度が約0.166,再現率が約0.190向上することがわかった.\begin{table}[t]\caption{[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の精度と再現率}\label{res_pare2}\input{03table05.txt}\end{table}\subsection{誤り分析}\label{ayamari}テキストにおける固有表現間の関係性判定の評価実験おいて,提案手法が,誤って意味的関係を有すると判定した3,853事例と意味的関係を有すると判定できなかった8,504事例の計12,357事例のうち分類器の出力する識別関数の絶対値が大きいものから1,000事例(但し,前処理の係り受け解析が誤っている事例は除く)を分析した結果,次の2つ誤りが約80%の誤りをカバーすることがわかった.\vspace{1\baselineskip}\begin{enumerate}\item文間に出現する固有表現の組の誤りとして,首相や社長といった役職を示す一般名詞が出現することによって,異なる文に出現する固有表現の組が意味的関係を有すると人なら判断できるものが多い.例えば,次の例3のようなテキストにおいて,首相という一般名詞が2文目にあることで,1文目の福田首相と2文目のアメリカが意味的関係を有するとなる.これは,首相や社長といった役職を示す一般名詞が,代名詞と同様に先行詞を持つことが原因と考えられる.同様に,同社や同県などのように「同…」といった名詞による照応も存在する.これに対処するには,どの一般名詞が先行詞を持つか,またその先行詞は何かを見つける必要があると考えられる.\vspace{1\baselineskip}(例3)明日、福田首相は中国を訪れ、胡錦濤国家と会談する。\\\phantom{(例3)}その後、首相はアメリカに渡りブッシュ大統領と会談を予定している。\vspace{1\baselineskip}\item文間に出現する固有表現の組の誤りとして,ブログ記事で頻繁に見られる,ひとつの記事に複数の話題について記述されている場合の誤りが多かった.例えば,ある記事の前半には「サッカー」について記述されており,その後「選挙」について記述されているものなどがある.これらの記事において,異なる話題に出現する固有表現の組は,ほとんどの場合は意味的関係はない.これに対処するには,入力テキストの話題の区切りを適切に見つける必要があると考えられる.\end{enumerate}
\section{おわりに}
\label{sec:owarini}本論文では,テキストにおける固有表現間の関係性判定に取り組み,従来の係り受けなどの文に閉じた素性だけでなく,複数の文をまたぐSalientReferentListに基づいた文脈的素性を導入した機械学習に基づく手法を提案した.[人名⇔地名],[人名⇔組織名],[組織名⇔地名],[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の固有表現の組に対する評価実験では,提案手法は精度80.4%,再現率65.0%と,従来研究より精度が約11.3%,再現率が約14.2%向上したことがわかり,提案手法の有効性が確認できた.また提案手法は,実験した全ての固有表現の組に対して効果があることも確認できた.今後は,固有表現間の関係性判定の更なる精度向上を目指し,上記の考察で述べた問題に取り組むとともに,次のステップである(b)固有表現の組の関係ラベルを同定する技術にも取り組む予定である.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agichtein\BBA\Gravano}{Agichtein\BBA\Gravano}{2000}]{agichtein2000ser}Agichtein,E.\BBACOMMA\\BBA\Gravano,L.\BBOP2000\BBCP.\newblock\BBOQSnowball:ExtractingRelationsfromLargePlain-TextCollections\BBCQ\\newblockIn{\BemProceedingsofthe5thACMconferenceonDigitallibraries},\mbox{\BPGS\85--94}.\bibitem[\protect\BCAY{Brin}{Brin}{1998}]{brin1998epa}Brin,S.\BBOP1998\BBCP.\newblock\BBOQExtractingPatternsandRelationsfromtheWorldWideWeb\BBCQ\\newblockIn{\BemWebDBWorkshopat6thInternationalConferenceonExtendingDatabaseTechnology},\mbox{\BPGS\172--183}.\bibitem[\protect\BCAY{Collins\BBA\Duffy}{Collins\BBA\Duffy}{2002}]{collins2002ckn}Collins,M.\BBACOMMA\\BBA\Duffy,N.\BBOP2002\BBCP.\newblock\BBOQConvolutionKernelsforNaturalLanguage\BBCQ\\newblock{\BemAdvancesinNeuralInformationProcessingSystems},{\Bbf14},\mbox{\BPGS\625--632}.\bibitem[\protect\BCAY{Culotta\BBA\Sorensen}{Culotta\BBA\Sorensen}{2004}]{culotta2004dtk}Culotta,A.\BBACOMMA\\BBA\Sorensen,J.\BBOP2004\BBCP.\newblock\BBOQDependencyTreeKernelsforRelationExtraction\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\423--429}.\bibitem[\protect\BCAY{Grosz,Joshi,\BBA\Weinstein}{Groszet~al.}{1983}]{grosz1983pua}Grosz,B.~J.,Joshi,A.~K.,\BBA\Weinstein,S.\BBOP1983\BBCP.\newblock\BBOQProvidingaUnifiedAccountofDefiniteNounPhrasesinDiscourse\BBCQ\\newblockIn{\BemProceedingsofthe21stannualmeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\44--50}.\bibitem[\protect\BCAY{Hasegawa,Sekine,\BBA\Grishman}{Hasegawaet~al.}{2004}]{hasegawa2004dra}Hasegawa,T.,Sekine,S.,\BBA\Grishman,R.\BBOP2004\BBCP.\newblock\BBOQDiscoveringRelationsamongNamedEntitiesfromLargeCorpora\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\415--422}.\bibitem[\protect\BCAY{Kambhatla}{Kambhatla}{2004}]{kambhatla2004cls}Kambhatla,N.\BBOP2004\BBCP.\newblock\BBOQCombiningLexical,Syntactic,andSemanticFeatureswithMaximumEntropyModelsforExtractingRelations\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\178--181}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2004}]{kudo2004han}工藤拓\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQ半構造化テキストの分類のためのブースティングアルゴリズム\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(9),\mbox{\BPGS\2146--2156}.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2002}]{nariyama2002ger}Nariyama,S.\BBOP2002\BBCP.\newblock\BBOQGrammarforEllipsisResolutioninJapanese\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation},\mbox{\BPGS\135--145}.\bibitem[\protect\BCAY{鈴木\JBA佐々木\JBA前田}{鈴木\Jetal}{2005}]{suzuki2005kai}鈴木潤\JBA佐々木裕\JBA前田英作\BBOP2005\BBCP.\newblock\JBOQ階層非循環有向グラフカーネル\JBCQ\\newblock\Jem{電子情報通信学会論文誌D},{\Bbf88}(2),\mbox{\BPGS\230--240}.\bibitem[\protect\BCAY{Zelenko,Aone,\BBA\Richardella}{Zelenkoet~al.}{2003}]{zelenko2003kmr}Zelenko,D.,Aone,C.,\BBA\Richardella,A.\BBOP2003\BBCP.\newblock\BBOQKernelMethodsforRelationExtraction\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\1083--1106}.\end{thebibliography}\begin{biography}\bioauthor{平野徹(正会員)}{2003年和歌山大学システム工学部情報通信システム学科卒.2005年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年日本電信電話(株)入社.自然言語処理の研究に従事.}\bioauthor{松尾義博(正会員)}{1988年大阪大学理学部物理学科卒.1990年同大大学院研究科博士前期課程修了.同年日本電信電話(株)入社.機械翻訳,自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{菊井玄一郎(正会員)}{1984年京都大学工学部電気工学科卒.1986年同大学大学院工学研究科修士課程電気工学第二専攻修了.同年日本電信電話(株)入社.1990〜94および2001〜06(株)国際電気通信基礎技術研究所(ATR)に出向.現在,日本電信電話(株)サイバースペース研究所,音声言語メディア処理研究プロジェクト,音声・言語基盤技術グループリーダ.言語処理に関する研究開発に従事.博士(情報学).情報処理学会,電子情報通信学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V23N05-02
|
\section{はじめに}
日英間や日中間のような,文法構造の大きく異なる言語間における特許文書を対象とした統計的機械翻訳の精度は,利用可能な特許対訳コーパスのデータ量の増加に加え,構文解析にもとづく単語並べ替え技術(Isozaki,Sudoh,Tsukada,andDuh2010b;deGispert,Iglesias,andByrne2015)の進展によって大きく向上した(Goto,Utiyama,Sumita,andKurohashi2015).しかし特許明細書中の請求項文は,特に重要性が高いにもかかわらず,明細書中の他の文と比較しても依然として翻訳が困難である.特許請求項文は,以下の2つの特徴を持つサブ言語(Buchmann,Warwick,andShann1984;Luckhardt1991)と考えることができる.1つ目の特徴は,非常に長い単一文で構成されることであり,2つ目の特徴は,対象言語に依存しない部品のセットから構成されるということである.特許請求項翻訳の困難さは,まさにこれらの2つの特徴に根差している.1つ目の特徴である特許請求項文の長さによって,事前並べ替え等で用いられる構文解析器が解析誤りを生じる可能性が高くなり,ひいては事前並べ替えの精度が下がる.2つ目の特徴であるサブ言語に特有の文構造は,特許明細書の他の部分で学習された統計的機械翻訳を用いるだけでは正確にとらえることができない.本稿では,特許請求項文に対する統計的機械翻訳の精度を向上させるための手法について述べる.なお以降の説明では,特許請求項を構成する要素を「構造部品」と呼ぶ.我々は,前述の特許請求項文の特徴に起因する問題を解決するためのモジュールを追加した統計的機械翻訳の枠組みを構築した.サブ言語に特有の文構造に基づく我々の手法は2つの狙いがある.(1)事前並べ替えおよび統計的機械翻訳処理を,入力文全体にではなく,文の構造部品を単位として実行する.この構成により事前並べ替えおよび機械翻訳への入力を実質的に短縮し,結果として翻訳精度を向上させる.(2)特許請求項文の文構造を明示的に捉えた上で翻訳を行うことにより構造的に自然な訳文を生成できるようにする.具体的には,言語非依存の構造部品を得るための同期文脈自由文法規則および正規表現を人手で構築し,これら構造部品を非終端記号とした同期文脈自由文法を用いることによって,原文の文構造を訳文の文構造に反映させる.我々は,英日・日英・中日・日中の4言語対の翻訳について上記提案手法を適用し,その効果を定量的に評価した.提案手法を事前並べ替えと併用した場合に,英日・日英・中日・日中の4言語方向すべての翻訳実験において翻訳品質がRIBES値(Isozaki,Hirao,Duh,Sudoh,andTsukada2010a)で25ポイント以上向上した.これに加えて,英日・日英翻訳ではBLEU値が5ポイント程度,中日・日中翻訳では1.5ポイント程度向上した.英中日3言語の請求項文構造を記述するための共通の構造部品は5種類のみであり,これら構造部品を単位として記述した英日・日英・中日・日中の4言語方向の同期文脈自由文法の規則はそれぞれ10個以内である.非常に少ない数で,この翻訳精度改善を実現することができた.
\section{関連研究}
語順の大きく異なる言語間の機械翻訳の品質は,構文情報を取り込む近年の研究によって大幅に向上した(Collins,Koehn,andKucerova2005;Quirk,Menezes,andCherry2005;Katz-BrownandCollins2008;Sudoh,Suzuki,Tsukada,Nagata,Hoshino,andMiyao2013;Hoshino,Miyao,Sudoh,andNagata2013;Cai,Utiyama,Sumita,andZhang2014;Goto,Utiyama,Sumita,andKurohashi2015).この構文情報を取り込む手法を産業文書等のサブ言語を構成する文書に適用するためには,サブ言語に特有の情報を取り込む必要があると考えられている(Buchmannetal.1984;Luckhardt1991).産業文書等に見られるサブ言語の特徴としては,一文が非常に長いことと,特殊な文構造を持っていることがあげられる.このため,長文を含む入力においてサブ言語に特有の文構造を適切に扱うことが課題となる.ヨーロッパ言語間のように語順が近い言語間では,長文を構成する複数の節を連結する談話連結詞(discourseconnective)の曖昧性を解決することによって訳文の文構造が改善することがわかっている(Miltsakaki,Dinesh,Prasad,Joshi,andWebber2005;PitlerandNenkova2009;Meyer,Popescu-Belis,Zufferey,andCartoni2011;HajlaouiandPopescu-Belis2012;Meyer,Popescu-Belis,Hajlaoui,andGesmundo2012).これに対して語順の大きく異なる言語間では,談話連結詞を扱うだけでは不十分であり,例えば長い並列句を含むような原文の文構造を把握して訳文の文構造に変換するような,文構造変換を行う必要がある.文構造変換の1つの手法として,入力文に対する何らかの解析を行ってから訳文構造に変換する様々な研究が行われてきた.初期の研究では,日英翻訳における文構造変換を目的として,修辞構造理論(RST:rhetoricalstructuretheory)に基づくパーザを用いて得られた入力文の修辞構造を目標言語の構造に変換する手法が提案されている(Marcu,Carlson,andWatanabe2000).これを発展させた研究としては,RSTパーザで得られた結果から目標言語構造への変換規則を自動獲得する研究も行われている(KurohashiandNagao1994;WuandFung2009;Joty,Carenini,Ng,andMehdad2013;Tu,Zhou,andZong2013).骨格構造(skeleton)を用いる手法(Mellebeek,Owczarzak,Grobes,VanGanabith,andWay2006;Xiao,Zhu,andZhang2014)では,入力文の構文解析結果から文の骨格を形成するキー要素やキー構造を抽出し,原言語文と目的言語文それぞれから抽出した骨格構造同士を一般文同士の場合と同様の手段で学習させる.翻訳実行時には,入力文から骨格構造を抽出して骨格構造翻訳を行い,最後に骨格以下の構造を翻訳して訳文を生成する.分割翻訳(divide-and-translate)(金,江原1994;JinandLiu2010;Shinmori,Okumura,Marukawa,andIwayama2003;Xiong,Xu,Mi,Liu,andLiu2009;Sudoh,Duh,Tsukada,Hirao,andNagata2010;Bui,Nguyen,andShimazu2012)では,入力文を句や節の単位に分割してそれぞれを目標言語に翻訳し,最後にこれら翻訳された分割部品を結合して訳文を生成する手法である.ルールベース翻訳による分割翻訳では,接続構造を用いて分割を行う手法(金,江原1994)や,概念素性を用いて分割する手法(JinandLiu2010)等が提案されている.並列構造解析に基づく翻訳(Roh,Lee,Choi,Kwon,andKim2008)では,入力文の解析結果から並列構造を見つけ出し,これをもとに訳文構造への変換を行う.以上述べてきた文構造変換の手法は,パーザを用いて入力文を解析するため,特許請求項のような長文を多く含むサブ言語ではパーザの解析精度が低く,結果として訳文の品質も低くなるという問題がある.文構造変換のもう1つの手法としてはパターン翻訳の研究がある(XiaandMcCord2004;池原,阿部,徳久,村上2004;中澤,黒橋2008;Murakami,TokuhisaandIkehara2009;西村,村上,徳久,池原2010;Murakami,FujiwaraandTokuhisa2013;坂田,徳久,村上2014).パターン翻訳では,原文側と訳文側それぞれについて固定部と変数部を持つパターンを用意しておき,入力文が原文側パターンにマッチしたら変数部を自動翻訳して訳文側固定部に埋め込んで出力する.この手法は,パターンにマッチさえすれば原文全体を構文解析することなく翻訳できるため,長文におけるパーザの解析精度の問題を回避することができる反面,表層的な手がかりをもとに入力文とのマッチを行うので長文に頻出する並列構造や階層を適切に扱うことができないという問題がある.
\section{サブ言語に特有の文構造の変換}
特許請求項は,特許明細書文書の他の部分と比べて,使われている語彙や表現は共通である一方,請求項固有の記述スタイルで記述されるという特徴がある.このことから,請求項自体が1つのサブ言語を構成しているとみなす.この請求項特有の記述方法は,特許出願の歴史の中で徐々に形成され,最近では公的な特許文書の執筆基準書等でも取り上げられるようになってきた.国際特許機関WIPOの特許執筆基準(WIPO2014)によると,英語の請求項は,次の3つの部品から構成される1文として記述されなければならない.\[\mathrm{S}\rightarrow\text{PREA\TRAN\BODY}\]ここで,Sは請求項文,PREAは前提部,TRANは移行部,BODYは本体部をそれぞれ表す.図~1に英語・日本語・中国語それぞれの,前提部,移行部,本体部の例を示す.前提部は特許発明の範疇を表す導入的な要素であり,本体部は特許発明の中心部であって発明の構成要素や目的を表し,移行部は前提部と本体部を接続する役割を担っている.なお,実際の特許請求項における本体部は,発明を構成する要素である「構成要素」,もしくは発明の目的を説明する「目的部」のいずれかとして記述される.以降の図や例では,構成要素をELEMで,目的部をPURPで表す.\begin{figure}[t]\begin{center}\includegraphics[scale=0.9]{23-5ia2f1.eps}\end{center}\caption{英語・日本語・中国語の請求項の例}\label{fig01}\end{figure}図~1(a)は,典型的な英語請求項の構造の例である.この例では,本体部は構成要素から構成されている.図~1(b)は,(a)の英語請求項構造に対応した日本語請求項構造であり,図~1(c)は,(a)の英語請求項構造に対応した中国語請求項構造である.ここで,3言語の構造において用いられている構造部品のセットは共通である一方,言語によって構造部品の出現する順番は異なることがわかる.以降では,英語請求項と日本語請求項の対を例に,提案手法の概要を説明する.図~1(a)および(b)から,両言語において用いられる構造部品のセットは限定されていることがわかったが,さらに我々の調査から,両言語にはそれぞれ厳密な生成規則が存在することがわかった.図~1(a)の英語請求項文は,図~2(a)の英語生成規則によって表される.ここで,ELEMは図~1(a)における構成要素を表し,記号``$+$''は左に隣接する要素が1回以上繰り返されることを表す.図~2(b)はこれに対応する日本語規則であり,同一の構造部品セットで構成される.\begin{figure}[b]\begin{center}\includegraphics[scale=0.9]{23-5ia2f2.eps}\end{center}\caption{英語・日本語の生成規則とそこから得られたSCFG規則}\label{fig02}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-5ia2f3.eps}\end{center}\caption{英日対訳の請求項文の例}\label{fig03}\end{figure}このようにして,特許請求項は言語に関わりなく文構造の規則性が高いことから,我々は言語間の構造変換のために,同期文脈自由文法(synchronouscontext-freegrammar:SCFG)を用いることとした.例えば,図~2(a)と(b)の対応する規則を接続することによって,図~2(c)のSCFGを獲得できる.ここで,添字の数字は,両木構造における対応する非終端記号間の関係を表す.我々は特許請求項の翻訳のために,このようなSCFG規則を人手で構築した.詳細については4.1節において述べる.図~3は英日対訳の請求項文の例である.ここで,PREA,TRAN,BODYはこれら請求項文の構造部品名を表すが,構造部品の出現順は英日で逆順となっていることがわかる.例えば,分割翻訳等の従来の翻訳手法では,分割して得られた入力文の分割要素をどのような順番で出力するかを制御することが困難である.請求項の翻訳では,入力文の文構造を認識し,それに対応する目的言語の文構造で出力する必要がある.
\section{請求項翻訳のための処理パイプライン}
特許請求項文は,文構造が特殊である一方,文中で使われる語彙や表現は他の特許明細書文と共通である.このため本研究の実験では,特許請求項文のための文構造変換機能を前処理モジュールとして用意し,その後段として特許明細書用にチューニングした従来の機械翻訳エンジンをつなげたパイプラインを構築した.具体的には以下に示す3ステップから構成されるパイプラインを構築し,特許請求項文が入力されると,特許請求項に対応した文構造変換が行われ,事前並べ替えを経て,統計的機械翻訳による翻訳が行われる(図~4).\begin{itemize}\item\textbf{ステップ1文構造変換}:入力文に対して,人手で構築したSCFG規則を搭載したパーザを用いて解析を行う.ここでの目的は,入力文に対する精緻な構文木を得ることではなく,図~1に示すようなサブ言語に特有の文構造を入力文の中で見つけ出し,この文構造に沿って出力の文構造を生成することにある.同時文脈自由文法を用いることにより,入力文の構造部品を認識すると同時に出力側での文構造を生成する.(図~4(a)$\to$(b),(c))\item\textbf{ステップ2事前並べ替え}:上述の各構造部品について単語の事前並べ替えを行い,原言語文の単語を,目的言語の語順に即して並べ替える.ここで使う事前並べ替えは,句構造解析をベースにしたものである.なお,上記ステップ1の出力が当事前並べ替えへの入力となるため,結果として高い解析結果が得られる.(図~4(c)$\to$(d))\item\textbf{ステップ3統計的機械翻訳による翻訳:}各構造部品について統計的機械翻訳による翻訳を行う.上述のように特許請求項文は,文構造は特殊でも語彙や表現は他の特許明細書文と共通であるため,特許明細書用にチューニングした統計的機械翻訳をそのまま用いている.ここでも,ステップ1において得られた短い文が入力となるため翻訳品質が向上する.(図~4(d)$\to$(e))\end{itemize}以降では,上記ステップ1およびステップ2の詳細について述べる.\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f4.eps}\end{center}\caption{翻訳パイプラインの概要}\label{fig04}\end{figure}\subsection{文構造変換}1章で述べたように,特許請求項翻訳における大きな課題は,特許明細書の他の項目を用いて学習させた統計的機械翻訳では,請求項サブ言語に特有の文構造を正確に捉えてこの文構造を目的言語に正確に伝えることができないということである.本ステップは,入力請求項文の文構造を認識し,これに対応する出力側の文構造を同時に生成することを目的とする.本ステップは,人手で作成したSCFG規則を用いて実行される.我々は,これら規則を以下の手順で作成した.最初に,開発セット中の英中日それぞれの特許請求項を人手で分析することにより,文構造を構成する構造部品は一定であること,ならびに,これら構造部品のセットは英中日の3言語で共通であることがわかった.このようにして我々が抽出した構造部品セットUは次のとおりである.\[\mathrm{U}\in\{\text{PREA,\TRAN,\BODY,\ELEM,\PURP}\}\]ここで,これら5項目(PREAは前提部,TRANは移行部,BODYは本体部,ELEMは構成要素,PURPは目的部をそれぞれ表す)はすべて前章で説明したとおりである.次に,構造部品セットUを非終端記号とする英語生成規則および日本語生成規則を作成し,対応する英語生成規則と日本語生成規則を組み合わせることによって,英日翻訳用および日英翻訳用のSCFG規則を作成した.図5は,このようにして作成した英日翻訳用のすべてのSCFG規則のセットである.同様にして,構造部品セットUから中国語生成規則を作成し,対応する中国語生成規則と日本語生成規則を組み合わせることによって,中日翻訳用および日中翻訳用のSCFG規則を作成した.日英翻訳・中日翻訳・日中翻訳のためのSCFG規則は付録を参照されたい.付録には日英翻訳のためのSCFG規則に対応する日英対訳例文も掲載している.規則の数は,英日翻訳用8個,日英翻訳用10個,中日翻訳用6個,日中翻訳用10個である.\begin{figure}[b]\begin{center}\includegraphics{23-5ia2f5.eps}\end{center}\hangcaption{英日翻訳のためのSCFG規則一覧(日英・中日・日中翻訳のためのSCFG規則は付録に掲載している)}\label{fig05}\end{figure}図5は,英日翻訳用SCFG規則であるR$_{\mathrm{ej}2}$の処理対象となるような対訳の例である.入力英文においてPREA・TRAN・BODY・TRAN・BODYの順番で出現する構造部品が,日本語ではBODY・TRAN・BODY・TRAN・PREAの順番に並べ替えられることによって,日本語として適切な文構造となることがわかる.今回作成したSCFG規則では,規則適用で曖昧性が生じるのは終端記号に対応する規則であり,これ以外は決定的に動作する解析アルゴリズムとなっている.実際のSCFG規則の実装では,終端記号とのマッチングに正規表現を用いることによって,各規則について高々1回のマッチのみを認め,終端記号においても決定的に動作するような設計とした.決定的な動作を行うためには対象言語の主辞方向性を用いており,例えば主辞先導型言語の英語と中国語では最も文頭に近いTRAN一つを採用し,主辞後置型言語の日本語では最も文末に近いTRANを採用している.例えば,英語の入力特許請求項文中に文字列``comprising''が複数回出現する場合には,入力文中の最初の``comprising''のみとマッチするような正規表現を用意した.実際の特許請求項では,執筆者が最初の表現がTRANとなるように意識して書くことが多いため,最初のTRANを採用することでほぼ誤りなくマッチする.以下に,Perl言語風の英語と日本語の正規表現の例を示す.``$+$''は最長マッチ,``$+$?''は最短マッチを表す.\begin{gather*}\text{({\$}prea,\{\$}tran,\{\$}body)}=/\text{\textasciicircum}(.+?)(\text{comprising})(.+){\$}/;\\\text{({\$}body,\{\$}tran,\{\$}prea)}=/\text{\textasciicircum}(.+)(\text{備えることを特徴とする})(.+?){\$}/;\end{gather*}このようにして作成したヒューリスティック規則はほぼ誤りなくマッチするが,マッチしない場合には入力文をそのまま返す仕様としている.\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f6.eps}\end{center}\caption{SCFG規則R$_{\mathrm{ej2}}$に対応する英日対訳文の例}\label{fig06}\end{figure}\subsection{事前並べ替え}既存の事前並べ替え技術は,句構造解析技術に基づくもの(Isozakietal.2010b;Gotoetal.2015;Hoshino,Miyao,Sudoh,Hayashi,andNagata2015)と依存構造に基づくもの(Yang,Li,Zhang,andYu2012;LernerandPetrov2013;Jehl,deGispert,Hopkins,andByrne2014;deGispertetal.2015)が多い.以下では,句構造解析技術に基づく例で説明する.英日機械翻訳では,例えば,入力文``Helikesapples.''に対してまず,図~7に示すような二分木構造を得る.次に,分類器によって,特定の内部ノードの2つのノードを入れ替えることによって単語の並べ替えを行う.図~7の例では,分類器の判定によって,VPノードの2つの子ノードであるVBZとNPの入れ替えが行われる.子ノードを2つのみ持つすべてのノードについて,入れ替えをすべきかどうかの判定が分類器によって行われ,入れ替えが行われると,結果として``Heappleslikes.''のような日本語の語順に近い英語文が得られる.2つの子ノードを入れ替えるか否かは,ルールに基づく手法(Isozakietal.2010b)や,語順の順位相関係数$\tau$を指標として原言語文と目的言語文の語順が近くなるよう並べ替えを実現する統計的なモデル化(Gotoetal.2015;Hoshinoetal.2015)などが考えられる.評価実験では後者の統計的なモデル化を採用した.詳しくは5.3節を参照されたい.ただし,提案手法自体は特定の事前並べ替え手法に依存しない.\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f7.eps}\end{center}\caption{``Helikesapples.''の二分木構造と入れ替え結果}\label{fig07}\end{figure}1章で説明したように,請求項翻訳におけるもう1つの課題は,極端な文の長さへの対処である.上述のような事前並べ替え技術は,ある程度正しい構文解析結果が得られることを前提としているが,極めて長い文が入力された場合に構文解析が失敗し,結果として並べ替え精度が低くなる.この問題に対して,本ステップでは,長い入力文全体ではなく,前ステップで認識された各構造部品に対して既存の事前並べ替え手法を適用することによって,構文解析の精度の向上,ならびに事前並べ替えの精度の向上を図る.
\section{評価実験}
文構造変換と事前並べ替えによる翻訳品質の向上度合いを定量的に評価するための評価実験を行った.第4章でも述べているように,本実験は既存統計的機械翻訳への付加モジュールとして実現しているため,既存のフレーズベース統計的機械翻訳(Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,andHerbst2007)をベースラインとして設定した.\subsection{データ}統計的機械翻訳の学習には特許文のコーパスを使っている.中日・日中翻訳では,特許請求項文だけで大量の対訳コーパスを作ることができたが,英日・日英翻訳では,特許請求項文のみでは分量が不十分のため特許全体から作成したコーパスと特許請求項文から作成したコーパスを併用した.最終的に,英日・日英・中日・日中翻訳の4つの設定で訓練コーパスの規模(文数)が同じになるようにして実験を行った.英日・日英の統計的機械翻訳の学習には2種類のコーパスを利用した.1種類目は,NTCIR-9ワークショップの特許翻訳タスク(PatentMT)(Gotoetal.2011)において提供された約320万文対の日英特許翻訳データから無作為に抽出した300万文対である.以降,この対訳コーパスをコーパスAと呼ぶ.コーパスAを用いて統計的機械翻訳を学習させることによって,請求項翻訳においても語彙選択の面では良好な性能が得られるが,これは語彙や表現は特許文書全体で共通であり,コーパスAによって大部分がカバーされるからである.しかしながら,コーパスAは請求項文を含まないため,請求項特有の文構造を適切に扱うことができない.このため,請求項文特有の文構造を取り込むために,100万文の請求項対訳文から構成されるコーパスBを用意し,これをコーパスAと併用した.コーパスBの請求項対訳文は,文アラインメント手法(UtiyamaandIsahara2007)を用いて英日対訳特許文書から抽出したものである.英日対訳特許文書とは,日本国特許庁が提供する日本語特許明細書データと米国特許庁が提供する英語特許明細書データとを出願番号を用いて対応付けたものであり,2013年提供分までのデータを対応付けの対象としている.コーパスAとコーパスBを結合して学習コーパスを作成し,この学習データを用いて,ベースラインシステムおよび提案手法を組み込んだシステムのための統計的機械翻訳を学習させた.中日・日中の統計的機械翻訳の学習にはALAGIN言語資源・音声資源として提供されるJPO中日対訳コーパス\footnote{ALAGIN言語資源・音声資源サイトのJPO中日対訳コーパスhttps://alaginrc.nict.go.jp/resources/jpo-info/\linebreak[2]jpo-outline.html{\#}jpo-zh-ja}の特許請求項文から作成したコーパスのみを用いた.前述の英日・日英用のコーパスBと同様の方法によって中日対訳の特許請求項文から400万文対を抽出した.開発データおよびテストデータについては,英日・日英・中日・日中の4言語対について,上述の学習データとは独立に次の手順で構築した.まず,学習データより後の特定の年(2014年)の米国特許明細書データから,明細書毎に最大5個の請求項文を抽出した.具体的には,明細書中の請求項が5個以内の場合はすべての請求項を抽出し,6個以上の場合は5個目までを抽出している.次に,ここから無作為に2,000文を抽出し,機械翻訳の学習やチューニングで用いるという用途を伏せて,特許翻訳専門の翻訳者に依頼して日本語訳文および中国語訳文を作成した.このようにして作成した2,000文の英中日多言語コーパスを1,000文ずつ2つに分けて開発用とテスト用とした.なお上記翻訳作業では,各英語原文について1文の訳文を作成した.\subsection{システム}本評価実験では,統計的機械翻訳のツールキットであるMosesのフレーズベース翻訳(Koehn,Och,andMarcu2003)および階層的フレーズベース翻訳(Chiang2005)をベースラインとして用いた.文構造変換,事前並べ替えおよび両者の組み合わせについて,ベースラインとの比較を行った.すべての実験において,言語モデルの学習にKenLM(Heafield,Pouzyrevsky,Clark,andKoehn2013)を,単語アラインメントにSyMGIZA$++$(Junczys-DowmuntandSza{\l}2010)を用いた.モデルの重みづけでは,BLEU値(Papineni,Roukos,Ward,andZhu2002)を指標としてn-bestbatchMIRA(CherryandFoster2012)によるチューニングを行った.各評価実験において,重み付けチューニングを3回繰り返し,開発セットにおいて最大のBLEU値を獲得した重み設定を採用した.ベースラインとしてのフレーズベース翻訳では,歪み範囲(d)が6の場合と20の場合の測定を行った.Mosesのデフォルトの歪み範囲である6と,それに対する長めの歪み範囲として20を選んだ.なお,テストデータに対して文構造変換を行う実験構成でも,学習データに対しては文構造変換を行わずにモデルの学習を行った.文構造変換を行うためには学習データとして請求項文を用いる必要があるが,今回扱わなかった他の言語も含め,請求項文の入手可否は対象言語によって変わってくるため,比較のために一律の構成とした.この実験構成にしたことによって,Mosesの学習段階における長文除去処理で除外される文は発生する.\subsection{事前並べ替え}本評価実験では,構文解析パーザとしてBerkeleyParser(Petrov,Barret,Thibaux,andKlein2006)を用いて,提案手法によって分割された各構造部品に対して事前並べ替えを行った.この基本的な構成は,4言語方向いずれも同じである.なお,学習データは二分化されたものを用いている.BerkeleyParserのドメイン適応では自己学習の手法を用いた.具体的には,最初に,初期モデルを用いて200,000文の特許文の解析を行い,次に,得られた200,000件の構文解析結果から構文解析モデルを学習することにより,特許文に適応した解析モデルを構築した.英語の初期モデルについては,PennTreebankの文,および我々が人手で木構造を記述した3,000文の特許文を用いて学習した.日本語の初期モデルについては,EDRコーパス\footnote{EDRコーパスhttps://www2.nict.go.jp/out-promotion/techtransfer/EDR/JPN/Struct/Struct-CPS.html}の200,000文を用いて学習させた.中国語の初期モデルについては,CTB-6(ZhangandXue2012)の文を用いて学習させた.日本語および中国語のモデル学習では特許文は用いていない.並べ替えモデルの学習では,内製の大規模な特許文対訳コーパスを用いて次の手順によって事前並べ替えモデルを学習させた(deGispertetal.2015).\begin{itemize}\item[1.]対訳コーパスの原言語文を構文解析する\item[2.]対訳コーパスに対して単語アラインメントを行う\item[3.]原言語文と目的言語文の間でケンドールの順位相関係数$\tau$が最大化されるような原言語文に対する並べ替えを行う.このようにして各2分ノードは,子ノードの入れ替えを行うことを表すSWAPと,入れ替えを行わないことを表すSTRAIGHTに分類される.\item[4.]上記のデータを用いて,各ノードのSWAP,STRAIGHTを判定するためのニューラルネットワーク分類器を学習する.\end{itemize}上述のように,各ノードのSWAP,STRAIGHTの判定を二値分類問題としてニューラルネットワーク学習器に学習させるが,本実験では,ニューラルネットワーク学習器としてオープンソースのNeuralProbabilisticLanguageModelToolkit(NPLM)\footnote{NeuralProbabilisticLanguageModelToolkithttp://nlg.isi.edu/software/nplm/}を用いた.基本的な構成はデフォルト構成をそのまま使ったが,出力層ではSWAPとSTRAIGHTに対応した2個の出力を用いた.入力層では,以下を入力としている:親の親,親,自分,直前の兄弟,直後の兄弟,左の子供,右の子供,左の子供のスパンの左端の前終端記号と単語,左の子供のスパンの右端の前終端記号と単語,右の子供のスパンの左端の前終端記号と単語,右の子供のスパンの右端の前終端記号と単語.\subsection{評価指標}各システムは,BLEU(Papinenietal.2002)とRIBES(Isozakietal.2010a)の2種類の評価指標を用いて評価した.これは,n-gramベースの評価手法であるBLEUのみでは長距離の関係を十分に評価することができず,本研究が目標としている構造レベルの改善を十分に測定できないと考えたからである.RIBESは順位相関係数に基づく自動評価手法であり,評価対象の機械翻訳出力文中の語順と,参照訳中の語順の比較を行う.RIBESのこのような特性によって,語順の大きく異なる言語間で頻繁に発生する,構造部品の入れ替えを評価することができると考えられる.なお,RIBESは,NTCIR-9ワークショップの特許翻訳タスク(PatentMT)(Gotoetal.2011)等においても,英日・日英の翻訳方向において,人間評価との高い相関性が報告されている.実験で得られた各BLEU値とRIBES値は,MTEval\footnote{MTEvalToolkithttps://github.com/odashi/mteval}を用いた反復数1,000回の100分割ブートストラップ検定を行ってベースラインとの有意差を調べた.\subsection{自動評価結果}\begin{table}[p]\caption{英日翻訳の評価結果(N/Aは評価対象外を表す)}\label{tab01}\input{02table01.txt}\vspace{-0.3\Cvs}\end{table}\begin{table}[p]\caption{日英翻訳の評価結果(N/Aは評価対象外を表す)}\label{tab02}\input{02table02.txt}\vspace{-0.3\Cvs}\end{table}\begin{table}[p]\caption{中日翻訳の評価結果(N/Aは評価対象外を表す)}\label{tab03}\input{02table03.txt}\vspace{-0.3\Cvs}\end{table}\begin{table}[p]\caption{日中翻訳の評価結果(N/Aは評価対象外を表す)}\label{tab04}\input{02table04.txt}\end{table}本評価実験の結果を表~1,表~2,表~3,表~4に示す.表中,PBおよびHPBは各々,Mosesのフレーズベース翻訳および階層的フレーズベース翻訳を表し,PBにおけるdは歪み範囲の値を表す.カッコ内の数値はベースラインであるフレーズベース翻訳(P1)との差分を表す.また,P1'からP4のそれぞれについて,ベースラインに対して5{\%}水準で有意差があるものに\textdaggerを,1{\%}水準で有意差があるものに\textdaggerdblを付してある.テスト文としては5.1節で述べた1,000文を使っているが,参考情報として,この1,000文からトークン数が200以下の文を抜き出して使った場合の結果も併記している.これは,P3の事前並べ替えで用いている句構造パーザ(BerkeleyParser)に入力長制限があり,1,000文全文に対する事前並べ替えを行うことができないためである.このため,テスト文全文を使った評価ではP3は評価対象外としており,表ではこれをN/Aで表している.表から,文構造変換と事前並べ替えの組み合わせであるP4において,英日・日英・中日・日中翻訳すべての翻訳方向において,RIBES値およびBLEU値に大幅な上昇がみられる.有意差検定からも,P4のみが,すべての翻訳方向のRIBES値およびBLEU値の双方において,P1と比較して1{\%}水準で有意に上昇している.文構造解析のみを用いたP2,および事前並べ替えのみを用いたP3でもRIBES値は大幅に上昇しているが,BLEU値の上昇は限定的である.文構造解析と事前並べ替えを併用したときに大きなBLEU値の上昇がみられるが,これは文構造解析と事前並べ替えの相乗効果によるものと考えられる.参考情報として掲載した,200トークン以内の文に対する翻訳でも,全文を用いた場合と同様の傾向がみられるが,200トークンを超える長文を含まないため,ほぼすべてのシステムに対して高い評価値となっている.言語によって事前並べ替えの精度に差があり,特に日英,中日翻訳ではP3の方がP4よりも高い評価値を達成している場合がある.ただし,P4における文構造変換と事前並べ替えの組み合わせでは,P3の精度に差に関わらず安定した精度向上がみられる.\subsection{考察}前述の評価結果から,翻訳方向に関わらず,文構造解析と事前並べ替えによって翻訳品質が大幅に改善することがわかった.以下ではまず,当初の課題としてあげていた特許請求項文の長さと特有の文構造の問題が,文構造変換と事前並べ替えの導入によっていかに改善されたか分析する.また,文構造解析の副次的な効果である文短縮についても分析する.さらに,翻訳方向に固有の翻訳特性について述べる.\subsubsection{文構造変換と事前並べ替えの相補的効果}\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f8.eps}\end{center}\hangcaption{典型的な日英翻訳の例(P2とP4の部品ラベルはシステムが自動的に付与したものだが,それ以外の部品ラベルは,意味的に対応する部分に人手で付与している)}\label{fig08}\end{figure}図~8は,日英翻訳における4つの実験設定(P1,P2,P3,P4)の典型的な出力例である.図では一貫してラベル付き括弧表示を用いて請求項の構造部品を表している.文構造変換および事前並べ替えによる効果について以下に述べる.\begin{itemize}\item[1.]\textbf{文構造解析の効果}:P1では入力文と比較して構造部品の順番に変化がみられないが,P2では文構造解析を導入することによって構造部品が英語の順番に並べなおされていることがわかる.これによって,移行部である``comprising''が生成されるようになり,文全体の可読性が上がっている.一方,P1とP2を比較したときに,各構造部品の翻訳品質は顕著には向上していない.これに対して,P4ではP3と比較して2番目の要素の翻訳品質が向上している.このことから,文構造変換は事前並べ替えと併用したときに効果的に動作することがわかる.\item[2.]\textbf{事前並べ替えの効果}:従来研究でも示されているとおり,事前並べ替え手法を用いることによって,目的言語の語順に即した訳文を生成することができる.図中の例でも,P3は,P1と比較して単語がより適切に並んでおり,英語としてより自然な訳文が得られている.しかしながら,前提部が2回出現するなど,構造部品が適切に配置されておらず,文構造の観点からは不適切である.これに対して,P4のように文構造変換を用いて文構造を明示的に指定することによって,このような不適切な現象を抑制することができる.さらに,入力文をより短い構造部品に分解することにより,各構造部品中の単語が適切に並べ替えられるようになる.\end{itemize}\vspace{1\Cvs}以上の分析から,構造的かつ語順的に適切な訳文を生成する過程において,文構造変換と事前並べ替えが相補的に動作することが確認できた.\subsubsection{文短縮の効果}これまで述べたように,事前並べ替えは,入力文全体に対してよりも文構造解析で得られた構造部品に対して,より適切に機能する.文構造変換による文短縮の効果を見積もるために,まずは実験に用いた構文解析パーザの解析精度を文長毎に評価した.表~5は,英日翻訳のテストセット全文から無作為に抽出した100文を対象に,事前並べ替えで用いる英語構文解析器の解析成功率を集計した結果である.構文解析結果を目視でチェックし,文中で1か所でも誤った構成素があれば誤りとしてカウントし,すべて正しい場合に正解としてカウントした.表から,短い入力文に対する解析精度は高いものと比較して,長い入力文に対する解析精度が著しく低いことがわかる.特に,80トークンを超える長さの入力文では,正しい構文解析結果を得られた文が16文中1文のみと,きわめて正解率が低い.\begin{table}[b]\caption{英日翻訳における英語パーザの解析精度}\label{tab05}\input{02table05.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{23-5ia2f9.eps}\end{center}\caption{入力文の累積比率と文構造解析結果の累積比率}\label{fig09}\end{figure}次に,分割前であるP1と分割後であるP2の双方の実験設定において,後段処理への入力となる文字列のトークン数の分布を比較した.図~9は,(a)英語入力文,(b)日本語入力文,(c)中国語入力文のそれぞれについて,入力文の累積比率と文構造解析結果の累積比率をそれぞれ表した図である.なお,日英翻訳と日中翻訳では入力日本語文に対して同じ分割結果が得られる.例えば(a)英語入力文では,80トークンを超える長さの入力文が,分割前では全体の31{\%}を占めていたのに対して,分割後では全体の3{\%}と大幅に減少している.上述の文長毎の解析精度と併せて考えると,分割によって入力文が高精度に解析される可能性が大幅に高くなったことがわかる.\begin{table}[b]\caption{入力文および構造解析後の構造部品数}\label{tab06}\input{02table06.txt}\end{table}\begin{table}[b]\caption{文構造解析の成功数・失敗数(100文あたり)}\label{tab07}\input{02table07.txt}\end{table}なお参考情報として,表~6に,入力文数と文構造解析によって得られた構造部品の数を載せている.言語によって出現する構造部品の分布は異なるものの,いずれの言語でも入力文1,000文に対して4,000個前後の構造部品が得られており,1入力文が平均して4構造部品に分割されていることがわかる.また,表~7には,入力文100文に対する文構造解析の成功および失敗数を言語毎に載せている.英語と中国語の成功率が高いのは,これらの言語における請求項の記述の定型性の高さが要因にあると思われる.機械翻訳の精度評価では,日本語を原言語とした言語対においても,英語や中国語を原言語としたときと同等の翻訳精度が得られていることから,文構造解析の失敗は影響の少ないものが多いと考えられる.\subsubsection{言語方向による傾向}実験では,提案手法によって英日・日英・中日・日中すべての翻訳方向においてRIBES値が25ポイント以上と大幅に向上している.これは,英日・日英・中日・日中のすべての翻訳方向において構造部品の並べ替えが必要であるが,提案手法によって構造部品が適切に並べ替えられた結果,長距離の並びの適切さを反映するRIBES値に表れたものと考えられる.一方,BLEU値の向上は,中日・日中で1.5ポイント程度と十分に大きな値が得られたが,英日・日英では5ポイント程度と極めて大きな向上となった.各構造部品の内部では事前並べ替えが行われるが,中日と日中翻訳では動詞の移動が中心であるのに対して,英日と日英翻訳では動詞の移動に加えて修飾方向の移動も関わるため,事前並べ替えの難易度はより高い.このため,英日と日英翻訳において,文短縮による事前並べ替えの効果が大きく表れたものと考えられる.
\section{おわりに}
本論文では,英日・日英・中日・日中の特許請求項翻訳において,サブ言語に特有の文構造を,原言語側から目標言語側に変換するための手法について述べた.我々の手法では,これらの品質向上を,非常に少数の同期文脈自由文法規則を用いて実現した.評価実験を行ったところ,文構造変換と事前並べ替えの組み合わせを用いた場合に,英日・日英・中日・日中の4方向の翻訳においてRIBES値で25ポイントという大幅な訳質向上が見られた.これに加えてBLEU値では,英日・日中の翻訳で5ポイント程度,中日・日中の翻訳で1.5ポイントの大幅な向上が見られた.本手法により,特許請求項翻訳の翻訳品質を,特許明細書中の他の部分の翻訳品質と同水準に引き上げることができた.今後の研究では,特許請求項の中でも特に長文で複雑な,独立請求項文の翻訳に注力したい.\acknowledgment本論文は,国際会議TheMachineTranslationSummitXVで発表した論文に基づいて日本語で書き直し,説明や評価を追加したものである(Fuji,Fujita,Utiyama,Sumita,andMatsumoto2015).\begin{thebibliography}{}\itemBuchmann,B.,Warwick,S.,andShann,P.(1984).``DesignofaMachineTranslationSystemforaSublanguage.''In\textit{Proceedingsofthe9thInternationalConferenceonComputationalLinguistics},pp.334--337.\itemBui,T.H.,Nguyen,M.,L.,andShimazu,A.(2012).``DivideandTranslateLegalTextSentencebyUsingitsLogicalStructure.''In\textit{Proceedingsof7thInternationalConferenceonKnowledge,InformationandCreativitySupportSystems},pp.18--23.\itemCai,J.,Utiyama,M.,Sumita,E.,andZhang,Y.(2014).``Dependency-basedPre-orderingforChinese-EnglishMachineTranslation.''In\textit{Proceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics},pp.155--160.\itemCherry,C.andFoster,G.(2012).``BatchTuningStrategiesforStatisticalMachineTranslation.''In\textit{Proceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},pp.427--436.\itemChiang,D.(2005).``AHierarchicalPhrase-BasedModelforStatisticalMachineTranslation.''In\textit{Proceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics},pp.263--270.\itemCollins,M.,Koehn,P.,andKucerova,I.(2005).``ClauseRestructuringforStatisticalMachineTranslation.''In\textit{Proceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics},pp.531--540.\itemdeGispert,A.,Iglesias,G.,andByrne,B.(2015).``FastandAccuratePreorderingforSMTusingNeuralNetworks.''In\textit{ProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics-HumanLanguageTechnologies},pp.1012--1017.\itemFuji,M.,Fujita,A.,Utiyama,M.,Sumita,E.,andMatsumoto,Y.(2015).``PatentClaimTranslationbasedonSublanguage-specificSentenceStructure.''In\textit{ProceedingsoftheMachineTranslationSummitXV},pp.1--16.\itemGoto,I.,Lu,B.,Chow,K.P.,Sumita,E.,andTsou,B.K.(2011).``OverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.''In\textit{Proceedingsofthe9thNIITestCollectionforInformationResources(NTCIR)Conference},pp.559--578.\itemGoto,I.,Utiyama,M.,Sumita,E.,Kurohashi,S.(2015).``PreorderingusingaTarget-LanguageParserviaCross-LanguageSyntacticProjectionforStatisticalMachineTranslation.''In\textit{ACMTransactionsonAsianandLow-ResourceLanguageInformationProcessing},Vol.14,No.3,Article13,pp.1--23.\itemHajlaoui,N.andPopescu-Belis,A.(2012).``TranslatingEnglishDiscourseConnectivesintoArabic:ACorpus-basedAnalysisandanEvaluationMetric.''In\textit{ProceedingsoftheWorkshoponComputationalApagesroachestoArabicScript-basedLanguages},pp.1--8.\itemHeafield,K.,Pouzyrevsky,I.,Clark,J.H.,Koehn,P.(2013).``ScalableModifiedKneser-NeyLanguageModelEstimation.''In\textit{Proceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},pp.13--21.\itemHoshino,S.,Miyao,Y.,Sudoh,K.,Hayashi,K.,andNagata,M.(2015).``DiscriminativePreorderingMeetsKendall's$\tau$Maximization.''In\textit{Proceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},pp.139--144.\itemHoshino,S.,Miyao,Y.,Sudoh,K.,andNagata,M.(2013).``Two-StagePre-orderingforJapanese-to-EnglishStatisticalMachineTranslation.''In\textit{ProceedingsoftheInternationalJointConferenceonNaturalLanguageProcessing},pp.1062--1066.\item池原悟,阿部さつき,徳久雅人,村上仁一(2004).非線形な表現構造に着目した日英文型パターン化.情報処理学会研究報告2004-NL-160(8),pp.49--56.\itemIsozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,Tsukada,H.(2010a).``AutomaticEvaluationofTranslationQualityforDistantLanguagePairs.''In\textit{Proceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},pp.944--952.\itemIsozaki,H.,Sudoh,K.,Tsukada,H.,andDuh,K.(2010b).``HeadFinalization:ASimpleReorderingRuleforSOVLanguages.''In\textit{ProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationandMetricsMATR},pp.244--251.\itemJehl,L.,deGispert,A.,Hopkins,M.,andByrne,W.(2014).``Source-sidePreorderingforTranslationusingLogisticRegressionandDepth-firstBranch-and-BoundSearch.''In\textit{Proceedingsofthe14thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},pp.239--248.\itemJin,Y.andLiu,Z.(2010).``ImprovingChinese-EnglishPatentMachineTranslationUsingSentenceSegmentation.''In\textit{Proceedings2010InternationalConferenceonNaturalLanguageProcessingandKnowledgeEngineering},pp.1--6.\itemJoty,S.,Carenini,G.,Ng,R.,andMehdad,Y.(2013).``CombiningIntra-andMulti-sententialRhetoricalParsingforDocument-levelDiscourseAnalysis.''In\textit{Proceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},pp.486--496.\itemJunczys-Dowmunt,M.andSza\l,A.(2010).``SyMGiza$++$:AToolforParallelComputationofSymmetrizedWordAlignmentModels.''In\textit{ProceedingsoftheInternationalMulticonferenceonComputerScienceandInformationTechnology},pp.397--401.\itemKatz-Brown,J.andCollins,M.(2008).``SyntacticReorderinginPreprocessingforJapanese-EnglishTranslation:MITSystemDescriptionforNTCIR-7PatentTranslationTask.''In\textit{ProceedingsoftheNTCIR-7WorkshopMeeting},pp.409--414.\item金淵培,江原暉将(1994).日英機械翻訳のための日本語長文自動短文分割と主語の補完.情報処理学会論文誌,\textbf{35}(6),pp.1018--1028.\itemKoehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,Herbst,E.(2007).``Moses:OpenSourceToolkitforStatisticalMachineTranslation.''In\textit{ProceedingsoftheAssociationforComputationalLinguisticsDemoandPosterSessions},pp.177--180.\itemKoehn,P.,Och,F.J.,andMarcu,D.(2003).``StatisticalPhrase-BasedTranslation.''In\textit{Proceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology},pp.48--54.\itemKurohashi,S.andNagao,M.(1994).``AutomaticDetectionofDiscourseStructurebyCheckingSurfaceInformationinSentences.''In\textit{Proceedingsofthe15thInternationalConferenceonComputationalLinguistics},pp.1123--1127.\itemLerner,U.andPetrov,S.(2013).``Source-SideClassifierPreorderingforMachineTranslation.''In\textit{Proceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing}.\itemLuckhardt,H.D.(1991).``SublanguagesinMachineTranslation.''In\textit{Proceedingsofthe5thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},pp.306--308.\itemMarcu,D.,Carlson,L.,andWatanabe,M.(2000).``TheAutomaticTranslationofDiscourseStructures.''In\textit{Proceedingsofthe1stNorthAmericanChapteroftheAssociationforComputationalLinguisticsConference},pp.9--17.\itemMellebeek,B.,Owczarzak,K.,Groves,D.,VanGenabith,J.,andWay,A.(2006).``ASyntacticSkeletonforStatisticalMachineTranslation.''In\textit{Proceedingsofthe11thConferenceoftheEuropeanAssociationforMachineTranslation},pp.195--202.\itemMeyer,T.,Popescu-Belis,A.,Hajlaoui,N.,andGesmundo,A.(2012).``MachineTranslationofLabeledDiscourseConnectives.''In\textit{Proceedingsofthe10thBiennialConferenceoftheAssociationforMachineTranslationintheAmericas},10pages.\itemMeyer,T.,Popescu-Belis,A.,Zufferey,S.,andCartoni,B.(2011).``MultilingualAnnotationandDisambiguationofDiscourseConnectivesforMachineTranslation.''In\textit{Proceedingsof12thSIGdialMeetingonDiscourseandDialogue},pp.194--203.\itemMiltsakaki,E.,Dinesh,N.,Prasad,R.,Joshi,A.,andWebber,B.(2005).``ExperimentsonSenseAnnotationsandSenseDisambiguationofDiscourseConnectives.''In\textit{Proceedingsofthe4thWorkshoponTreebanksandLinguisticTheories}.\itemMurakami,J.,Fujiwara,I.,andTokuhisa,M.(2013).``Pattern-BasedStatisticalMachineTranslationforNTCIR-10PatentMT.''In\textit{Proceedingsofthe10thNTCIRConference},pp.350--355.\itemMurakami,J.,Tokuhisa,M.,Ikehara,S.(2009).``StatisticalMachineTranslationaddingPattern-basedMachineTranslationinChinese-EnglishTranslation.''In\textit{Proceedingsof6thInternationalWorkshoponSpokenLanguageTranslation},pp.107--112.\item中澤敏明,黒橋禎夫(2008).自動学習された機能語の翻訳パターンを用いた用例ベース機械翻訳.言語処理学会第14回年次大会発表論文集,pp.37--40.\item西村拓哉,村上仁一,徳久雅人,池原悟(2010).文単位のパターンを用いた統計翻訳.言語処理学会第16回年次大会発表論文集,pp.676--679.\itemPapineni,K.,Roukos,S.,Ward,T.,andZhu,W.J.(2002).``BLEU:AMethodforAutomaticEvaluationofMachineTranslation.''In\textit{Proceedingsofthe40thAnnualMeetingofthe\mbox{Association}forComputationalLinguistics},pp.311--318.\itemPetrov,S.,Barrett,L.,Thibaux,R.,andKlein,D.(2006).``LearningAccurate,Compact,andInterpretableTreeAnnotation.''In\textit{Proceedingsofthe21stInternationalConferenceon\mbox{Computational}Linguisticsand44thAnnualMeetingoftheAssociationforComputational\mbox{Linguistics}},pp.433--440.\itemPitler,E.andNenkova,A.(2009).``UsingSyntaxtoDisambiguateExplicitDiscourseConnectivesinText.''In\textit{ProceedingsoftheJointconferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing},ShortPapers,pp.13--16.\itemQuirk,C.,Menezes,A.,andCherry,C.(2005).``DependencyTreeletTranslation:SyntacticallyInformedPhrasalSMT.''In\textit{Proceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},pp.271--279.\itemRoh,Y.H.,Lee,K.Y.,Choi,S.K.,Kwon,O.W.,andKim,Y.G.(2008).``RecognizingCoordi\-nateStructuresforMachineTranslationofEnglishPatentDocuments.''In\textit{Proceedingsofthe22ndPacificAsiaConferenceonLanguage,InformationandComputation},pp.460--466.\item坂田純,徳久雅人,村上仁一(2014),意味的等価変換方式による句レベルパターン翻訳方式の調査.言語処理学会第18回年次大会発表論文集,pp.1--20.\itemShinmori,A.,Okumura,M.,Marukawa,Y.,Iwayama,M.(2003).``PatentClaimProcessingforReadability---StructureAnalysisandTermExplanation---.''In\textit{ProceedingsoftheWorkshoponPatentCorpusProcessing,AssociationforComputationalLinguistics},pp.56--65.\itemSudoh,K.,Duh,K.,Tsukada,H.,Hirao,T.,andNagata,M.(2010).``DivideandTranslate:ImprovingLongDistanceReorderinginStatisticalMachineTranslation.''In\textit{ProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationandMetricsMATR},pp.418--427.\itemSudoh,K.,Suzuki,J.,Tsukada,H.,Nagata,M.,Hoshino,S.,andMiyao,Y.(2013).``NTT-NIIStatisticalMachineTranslationforNTCIR-10PatentMT.''In\textit{Proceedingsof9thNTCIRConference2013},pp.294--300.\itemTu,M.,Zhou,Y.,andZong,C.(2013).``ANovelTranslationFrameworkBasedonRhetoricalStructureTheory.''In\textit{Proceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},pp.370--374.\itemUtiyama,M.andIsahara,H.(2007).``AJapanese-EnglishPatentParallelCorpus.''In\textit{Proceedingsofthe11thMachineTranslationSummit},pp.475--482.\itemTheWorldIntellectualPropertyOrganization(WIPO)(2014).``WIPOPatentDraftingManual.''In\textit{IPAssetsManagementSeries}.\itemWu,D.andFung,P.(2009).``SemanticRolesforSMT:AHybridTwo-PassModel.''In\textit{ProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},CompanionVolume:ShortPapers,pp.13--16.\itemXia,F.andMcCord,M.(2004).``ImprovingAStatisticalMTSystemwithAutomaticallyLearnedRewritePatterns.''In\textit{Proceedingsofthe20thInternationalConferenceonComputationalLinguistics},pp.508--514.\itemXiao,T.,Zhu,J.,andZhang,C.(2014).``AHybridApproachtoSkeleton-basedTranslation.''In\textit{Proceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics},pp.563--568.\itemXiong,H.,Xu,W.,Mi,H.,Liu,Y.,andLiu,Q.(2009).``Sub-SentenceDivisionforTreebasedMachineTranslation.''In\textit{ProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsand4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessingConferenceShortPapers},pp.137--140.\itemYang,N.,Li,M.,Zhang,D.andYu,N.(2012).``ARanking-basedApproachtoWordReorderingforStatisticalMachineTranslation.''In\textit{Proceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.912--920.\itemZhang,X.andXue,N.(2012).``ExtendingandScalinguptheChineseTreebankAnnotation.''In\textit{Proceedingsofthe2ndCIPS-SIGHANJointConferenceonChineseLanguageProcessing},pp.27--34.\end{thebibliography}\appendix
\section{実験に用いたSCFG規則}
\begin{figure}[b]\begin{center}\includegraphics{23-5ia2f10.eps}\end{center}\caption{日英翻訳のためのSCFG規則一覧}\label{fig10}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-5ia2f11.eps}\end{center}\caption{中日翻訳のためのSCFG規則一覧}\label{fig11}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f12.eps}\end{center}\caption{日中翻訳のためのSCFG規則一覧}\label{fig12}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-5ia2f13.eps}\end{center}\caption{日英翻訳用SCFG規則R$_{\mathrm{je2}}$に対応する日英対訳例}\label{fig13}\end{figure}本研究の実験で用いた,日英翻訳用,中日翻訳用,日中翻訳用のSCFG規則一覧を図~10,図~11,図~12に示す.なお,英日翻訳用のSCFG規則一覧は図5に掲載している.図~13には,日英翻訳用SCFG規則R$_{\mathrm{je}2}$に対応する日英対訳例を掲載している.この例では,入力日本語文で文頭と文末に重複して現れるPREAの構造部品が,対応する英語文では一つのPREAとなっているような,典型的な特許請求項の対訳文を示している.\vspace{2\Cvs}\begin{biography}\bioauthor{富士秀}{1987年英国王立ロンドン大学キングス校工学部卒業.1988年より株式会社富士通研究所研究員,シニアリサーチャー.2014年より国立研究開発法人情報通信研究機構に出向中.2015年より奈良先端科学技術大学院大学博士後期課程在学中.機械翻訳,多言語処理の研究に従事.情報処理学会,言語処理学会,AAMT,日本言語類型論学会等各会員.}\bioauthor{藤田篤}{2000年九州工業大学情報工学部卒業.2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).現在,国立研究開発法人情報通信研究機構主任研究員.自然言語処理,主に言い換え表現の生成と認識,機械翻訳の研究に従事.情報処理学会,言語処理学会等各会員.}\bioauthor{内山将夫}{1992年筑波大学卒業.1997年同大学院工学研究科修了.博士(工学).現在,国立研究開発法人情報通信研究機構主任研究員.主な研究分野は機械翻訳.情報処理学会,言語処理学会等各会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学)取得.1982年〜1991年((株)日本アイ・ビー・エム東京基礎研究所研究員.1992年〜2009年国際電気通信基礎技術研究所研究員,主幹研究員,室長.2007年〜国立研究開発法人情報通信研究機構(NICT),現在,先進的音声翻訳研究開発推進センター(ASTREC)副センター長.2016年NICTフェロー.機械翻訳の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V16N01-05
|
\section{まえがき}
\label{sec:intro}単語オントロジーは自然言語処理の基礎データとして様々な知識処理技術に利用されており,その重要性は年々高まっている.現在広く知られている日本語オントロジーとしては,例えば日本語語彙大系\cite{goitaikeij}等が挙げられる.日本語語彙大系は人手により編集された大規模オントロジーであり,約3,000の意味カテゴリーを木構造状に分類し,約40万語を各意味カテゴリーに割当てている.しかしながら,これらは翻訳への適用を主な目的として作成されており,利用目的によっては必ずしも適切な分類とはならない.言い換えれば,オントロジーは利用目的に応じて異なるものが求められるのである.ところが,オントロジーの作成には膨大な労力が必要であり,また,言葉が日々進化するものであることを考えると,特定目的に応じたオントロジー作成を人手で行うことは現実的に不可能である.従って,オントロジーの生成は自動化されることが望まれる.そこで本論文ではオントロジー自動生成手法の検討を行う.技術的検討を行う上では特定目的のオントロジー生成よりも,むしろ一般のオントロジーを取り扱う方が検証を行いやすい.従って,本論文ではオントロジー自動生成の第一歩として,日本語語彙大系のような一般的なオントロジーの自動生成を目的とし,検討を進めることとする.オントロジーは単語の意味的関連性を表すものであり,この点からみると,基礎となるデータは共起情報を与えるコーパスよりも単語の意味を直接定義している辞書(国語辞典)の方が適していると考えられる.辞書を用いた関連性抽出の例を挙げると,例えば,鶴丸らは辞書の定義文のパターン抽出により上位語の同定が可能であることを示している\cite{tsurumaru1991}.また,オントロジーの自動獲得の試みも行われており,例えばNicholsらは定義文中に上位語が含まれているという仮定の下での単語階層化手法を提案している\cite{Nichols:Bond:2005}.上記の手法は,定義文を構文解析し,その主辞を上位語とするものであるが,必ずしも定義文の主辞が上位語であるとは限らないため,決定論的に上位語を決めてしまうとオントロジー生成時に矛盾を引き起こすことになる.従って,決定論的に上位語を決めるのではなく,順位づけられた上位語候補を取り出すことが望まれる.しかしながら,辞書の短い定義文からこれを行うことは難しい.一方で,上位語を抽出する方法として,コーパスから''is-a''構造等を取り出すという方法がある.この方法は統計量が大きければ信頼性の高い情報が得られる一方,基本的な単語が網羅される保証はなく,単語の偏りが起こる可能性が高い.また,Snowらは''is-a''構造を持つデータを利用してオントロジーを構築する手法を提案しているが\cite{Snow06},この手法は既存のオントロジーに単語を追加する手法としては有効であるが,オントロジーの骨格をゼロから作り上げることには向いていない.このように,上位語抽出とオントロジー構築にはそれぞれの課題があり,オントロジーを生成するためには,上位語の抽出方法と上位語候補を用いたオントロジー生成手法とを分けて考えるべきであり,まず適切な上位語情報を抽出することが重要である.以上の点から,本論文では,順位付け可能な上位語情報を取り出し,その情報を利用した最適化学習によりオントロジーを生成することを目指す.ところで,鈴木は辞書の定義文を再帰的に展開することでカバー率の非常に大きい単語類似度計算手法を提案している\cite{Suzuki2,Suzuki3j}.この方法によると,辞書の定義文を仮想的に巨大な単語集合と見なすことができ,各単語の出現頻度は確率として与えられるため,上位語候補の不足を解決できる可能性がある.そこで本論文では上位語情報の抽出を主な目的とし,辞書の定義文を巨大な単語集合として再定義することにより上位語侯補を増やすという手法を試みる.提案手法では,定義文中に上位語が含まれるという前堤を保ちつつ,大きな単語集合の中から上位語候補を確率的指標を伴った形でリストアップする.即ち,辞書の定義文を基に,上位語の尤もらしさを数値として表す手法を提案する.更に,この上位語候補情報を利用したオントロジー自動生成も試みる.本論文に示す自動生成手法は簡易的なものであるが,前述の上位語候補情報の効果を確認するには非常に有効である.以下,確率モデルによる定義文の拡張方法を簡単に説明し,この手法により一般的な国語辞典から上位語候補が確率的指標と共に取り出せることを示す.また同時に,従来手法との比較も行い,その有効性を検証する.次に,この指標の利用例としてオントロジー自動生成手法を提案し,この手法に上記指標を適用した結果を示す.
\section{辞書からの上位語情報抽出}
\label{sec:hyperinfo}まずはじめに,辞書から単語の上位語情報を取り出すことを考える.ここで言う上位語情報とは,上位語と相関のある数値情報のことであり,上位語を一意に決定するものではない.一般に定義文中に同じ単語が複数回現れることは稀なので,そのままでは単語間で差を付けることはできない.そこで,定義文を再帰的に展開し,拡張した定義文の中での出現頻度の差を利用することにする.この再帰的展開は適当な回数の展開を設定しても良いが,本稿は上位語抽出方法として鈴木による再帰的語義展開手法\cite{Suzuki2,Suzuki3j}を利用することにする.この手法によれば,定義文を無限に再帰的に展開することにより巨大な仮想定義文を生成し,そこから頻度情報を取り出すことができる.辞書の定義文が見出語に意味を与えるためのものであるとすれば,上位語は単語に意味付けするために非常に重要な要素である.従って,この仮想定義文中には上位語が高い頻度で出現することを期待できる.\subsection{再帰的語義展開}\label{sec:method}再帰的語義展開の基本的な考えは,定義文中の単語頻度を再帰的に展開し,より多くの単語からなる定義文を作成するということである.辞書(国語辞典)は見出語と定義文の組合せから成り立っている.定義文は単語の集合であり,これを見出語の集合とみなせば,一つの定義文を複数の定義文の集合として再定義することができる.ところが,このような展開は無限に続いてしまう.従って,展開された定義文中の単語数も無限になり,頻度計算は一般に不可能になる.しかしながら,定義文の展開を行なう毎に一定の割合でその影響が小さくなるとすれば,無限に展開された定義文の影響は元の定義文に比べて微小になる.このとき,定義文の影響力は語義展開の回数に従う等比数列として表すことができる.同時に,様々な深さまで展開した定義文の集合体を考え,その総和を無限級数として計算すると必ず有限な値となる.これにより,定義文の集合体中の単語頻度も有限になり,計算可能となる.これらを確率モデルに置き換えることで,無限の展開を含めた定義文の集合体から単語の出現確率を取り出すことが可能になり,拡張された定義文として再定義することができる.計算の概要を以下にまとめる.以下,$n$回展開された定義文を$n$次の定義文と呼ぶ.また,辞書中の定義文を0次定義文とする.まず,見出語$w_i$と0次定義文中の単語$w_j$の関係は$P(w_j^{(0)}|w_i)$と表すものとする.ここで,$w^{(n)}$は$n$次の定義文中の単語$w$を表す.従って,確率$P(w_j^{(0)}|w_i)$は,見出語$w_i$の0次定義文中に現れる$w_j$の出現確率である.この表記を用いると,各見出語に関する0次定義文中の単語の出現確率は\begin{equation}A=\begin{bmatrix}{P\left({w_1^{(0)}|w_1}\right)}&\cdots&\cdots&{P\left({w_1^{(0)}|w_m}\right)}\\{P\left({w_2^{(0)}|w_1}\right)}&\ddots&{}&{}\\\vdots&{}&\ddots&{}\\{P\left({w_m^{(0)}|w_1}\right)}&{}&{}&{P\left({w_m^{(0)}|w_m}\right)}\end{bmatrix}\label{eq:matrix}\end{equation}の列ベクトルとして表される.ここで,$m$は辞書中の見出語の数である.行列$A$の各要素$P(w_j^{(0)}|w_i)$は見出語$w_i$の定義文中の単語頻度$N_i(w)$を用いて\begin{equation}P(w_j^{(0)}|w_i)=\frac{N_i(w_j^{(0)})}{\sum_{all\;k}N_i(w_k^{(0)})}\label{eq:frequency}\end{equation}と書ける.このとき,全ての列ベクトルは,要素の合計が$1$であり,確率表現となっている.さらに,この表記に従うと,$n$次定義文は$A^{n+1}$により表される.目的とする定義文の集合体$C$は,語義展開の度に定義文の影響が一定の割合$a$で減少すると仮定すると,\pagebreak\begin{equation}C=(1-a)(A+aA^2+\cdots+a^{n-1}A^n+\cdots)\label{eq:Ca}\end{equation}と書ける.ここで,係数$1-a$は正規化のための定数である.式(\ref{eq:Ca})は無限級数の計算から\begin{equation}(I-aA)C=(1-a)A\label{eq:target}\end{equation}と書け,線型計算により解を求めることができる.計算により得られる行列$C$は,列ベクトルの各要素の合計が必ず1となり,確率として扱うことが出来る.$C$の$(j,i)$要素を$P(w_j^*|w_i)$と書くと,$w^*$は定義文の集合体の中の単語を意味することになる.以下,この定義文の集合体を拡張定義文と呼ぶことにする.すなわち,$P(w_j^*|w_i)$は拡張定義文中の単語の確率頻度である.\subsection{拡張定義文}\label{subsec:expand}上記の手法を実際に国語辞典\cite{gakkenj}に適用した結果を以下に示す.前処理として,扱う単語を一般名詞とサ変名詞に限定(形態素解析は茶筌\cite{chasenj}を利用)し,語義の区別はせず,語義文と例文をまとめて見出語の定義文とした.その結果,43,915語の見出語と,平均約7語の0次定義文を得た.以下,$a=0.9$で行った実験結果を例に詳細を記す.まず,式(\ref{eq:matrix})(\ref{eq:frequency})から確率行列$A$を計算した.これはスパースな43,915次元の正方行列である.次に式(\ref{eq:target})から線形ライブラリ$CLAPACK$\cite{clapack}を利用して$C$を求めた.このときの計算精度は32~bit長の浮動小数点演算で,有効桁は$10^{-7}$までとした.この結果得られた列ベクトルの非ゼロの値を持つ次元数は平均約33,000であった.すなわち,平均約33,000語の仮想定義文ができたことになる.表\ref{tab:expand}に0次定義文と拡張定義文との比較を示す.まず,見出語「通信」に関しては,0次定義文では「通信」が頻度4,他の13語が等しく頻度1で,「通信」のみが突出して頻度が高い.一方,拡張定義文では全ての単語の確率頻度が異なっており,順位づけすることができる.また,頻度1位の「通信」と2位の「人」との差は相対的に小さくなっている.さらに,0次定義文に現れていなかった「物事」「一つ」が拡張定義文では上位の頻度で現れている.定義文中の語数は,0次定義文では14語だったものが,拡張定義文では32,182語に大幅に増えている.\begin{table}[t]\caption{0次定義文と拡張定義文の比較}\label{tab:expand}\begin{center}\input{05table01.txt}\end{center}\end{table}同様に,見出語「傍受」に関しては,0次定義文では5単語が等しく頻度1で現れているのに対し,拡張定義文では順位が付けられ,中でも「通信」が相対的に大きな頻度を示している.また,見出語「通信」の場合と同様に「人」「物事」「自分」「行動」といった一般的な単語が現れているほか,「電線」「有線」「発信」といった見出語と関連の深い特徴的な単語が現れている.本手法を用いると,辞書全体でよく使われる単語,即ち一般的な単語が上位に現れやすくなる.この性質により,等しい頻度の単語でも,より一般的な語が拡張定義文中の上位に現れる傾向があり,場合によっては0次定義文に現れない単語が確率頻度最大となることもある.\subsection{上位語情報としての評価}\label{subsec:eval-hyper}見出語$w_i$の拡張定義文中に上位語$w_j$があるとすれば,上位語$w_j$は見出語$w_i$を説明するために非常に重要な単語であるため,その確率頻度$P(w_j^*|w_i)$は高いことが予想される.従って,見出語$w_i$の上位語は,その拡張定義文の中から確率頻度$P(w_j^*|w_i)$が高い順に尤もらしいと考えることができる.この仮説を検証するために,日本語語彙大系\cite{goitaikeij}を正解データとした検証実験を行った.対象としたのは,前節で用いた43,915語のうち,日本語語彙大系と表記が一致する39,982語である.\ref{sec:intro}節で記したように,日本語語彙大系は意味的上下関係を表した約3,000のカテゴリーからなるオントロジーと各カテゴリーに割当てられた合計約40万語からなる大規模語彙データである.ただし,単語の割当てに関しては翻訳への適用を主な目的として作成されているため,オントロジーとしては必ずしも正しいとは限らない.そこで,本論文では,まずはじめに日本語語彙大系をオントロジー検証のための正解データとして適切に利用する方法を検討し,その後,提案手法に対する評価を行うことにする.まず,日本語語彙大系のオントロジーとしての性質を調べるため,既存手法による上位語抽出結果と,その結果を人手により修正した正解データ\footnote{この正解データはLexeedに上位語を付与することを目的として作成されたものであり,上位語はLexeedの見出語の中から選ばれている.{但し,この修正は,正解データとして一般性があるものを目指したものではなく,あくまでも既存手法の評価のための修正であることに注意を要する.実際,修正に際しては,既存手法による結果をできるだけ残す方針で編集されており,かなりのバイアスがかかっている.また,このため,上位語の数は定義文中の文(主辞)の数に等しい.}}を利用した.この既存手法は,Nicholsらにより提案された,辞書定義文の構文解析により得られた主辞を上位語とみなす手法である\cite{Nichols:Bond:2005}.ただし,ここで用いた辞書(Lexeed\cite{lexeed})は前節の実験で用いた辞書(学研国語辞典\cite{gakkenj})とは異なる.これらのデータを利用して,日本語語彙大系の意味カテゴリー間の関係を上位語の評価指標としての妥当性という観点から評価した.評価方法は,次に示す3種類をそれぞれ上位語の正解データとして精度を計算するものである.\begin{enumerate}\item見出語の含まれる意味カテゴリーの直接上位カテゴリー中の全単語\item直接上位カテゴリーを除く全ての上位カテゴリー(間接上位カテゴリー)中の全単語\item見出語と同一カテゴリーに属する全単語\end{enumerate}評価結果を表\ref{tab:head}に示す.\begin{table}[b]\begin{center}\caption{日本語語彙大系カテゴリーの上位語集合としての妥当性評価}\label{tab:head}\input{05table02.txt}\end{center}\end{table}人手修正データの評価結果を見ると,直接上位カテゴリーよりもむしろ同一カテゴリーの単語に上位語が多く含まれていることがわかる.人手修正による精度の向上も同一カテゴリーの方が大きく,上位語の多くはここに集まっていると考えられる.逆に,間接上位カテゴリーでは,人手修正による精度向上率は$-24.5\%$であり,精度を大きく下げている.この結果は,間接上位カテゴリーは上位語以外の単語を多く含んでおり,間違った結果を正解と判断している率が非常に高いことを示している.{言い替えると,間接上位カテゴリーは再現率が非常に低く,一方,直接上位カテゴリーと同一カテゴリーには従来手法のような構文解析手法では取り出しにくい上位語が集まる傾向があるといえる.ここで,人手修正データに強いバイアスが掛っている(脚注参照)点を考慮すると,実際に修正を加えられた人手修正データの方がより信頼性の高いデータであることに気附く.従って,精度の絶対値ではなく,向上率を重視したほうが信頼性が高いと考えられる.よって,本論文においては,日本語語彙大系を上位語の評価として使う場合には,同一カテゴリーあるいは直接上位カテゴリーを正解とみなして評価を行うことにする.特に同一カテゴリーによる評価を重視する方向で検討をすすめることとする.}この結果を考慮して,提案手法による上位語情報の抽出結果を日本語語彙大系の直接上位カテゴリーおよび同一カテゴリーを正解データとして評価した.その結果を図\ref{fig:hyper-above},\ref{fig:hyper-same}に示す.図\ref{fig:hyper-above}は直接上位カテゴリーを正解とした場合,図\ref{fig:hyper-same}は同一カテゴリーを正解とした場合である.それぞれの図には,横軸に拡張定義文中の確率頻度を降順に並べた順位を,縦軸に正解データに対する精度をとり,全ての見出語に関する統計量でプロットしている.黒丸は前述の人手修正による正解データを,白丸は同じく前述の既存手法による結果である.太い実線は再帰的展開を行わない場合,即ち$a=0$の結果である.ここでは同一頻度のものは任意に順位を割当てた.破線,細い実線,鎖線はそれぞれ$a=0.1,0.5,0.9$の場合の結果を示している.\begin{figure}[b]\vspace{-1\baselineskip}\begin{center}\includegraphics{16-1ia5f1.eps}\end{center}\caption{出現頻度順位と精度(日本語語彙大系直接上位カテゴリーによる評価)}\label{fig:hyper-above}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-1ia5f2.eps}\end{center}\caption{出現頻度順位と精度(日本語語彙大系同一カテゴリーによる評価)}\label{fig:hyper-same}\end{figure}図\ref{fig:hyper-above}の順位1位を比較すると,既存手法の精度$0.0399$に対して$a=0.1$では$0.0402$であり,提案手法の精度が上回っている.また,$a=0.5,0.9$でもそれぞれ$0.0389,0.0378$であり,ほぼ同等の結果を得ている.ただし,人手修正による正解データの精度$0.0510$には及んでいない.一方,図\ref{fig:hyper-same}の順位1位での比較では,既存手法の精度$0.2170$に対して$a=0.1,0.5,0.9$のそれぞれで$0.2628,0.2915,0.2932$と大きく上回る結果を出している.さらに,$a=0.5,0.9$は人手修正による正解データの精度$0.2793$をも僅かに上回っている.\footnote{既存手法との比較は異なる辞書を基にして計算された結果の比較であるため微小な差異は意味を持たないが,どちらの辞書も国語辞典であり,同じ性質の文章であるためその影響は非常に小さいと考えられる.特に,図\ref{fig:hyper-same}の結果は人手修正データとの相対比較という観点からみても大きな差があり,十分意味を持つものである.}また,再帰的展開前の結果($a=0$)と展開後の結果($a=0.1,0.5.0.9$)とを比較してみると,展開後の結果は,展開前に比べて順位1位の精度が上り,順位2,3位以下では精度が下っている.これは,再帰的展開により,低い順位にあった上位語が高い順位に移動したことを示しており,再帰的展開の効果を明確に表す結果である.以上の結果から,提案手法は既存手法と同等以上の精度を持ち,評価方法によっては手作業にも劣らない精度を出せることが示された.さらに,上位語候補として1語あるいは数語しか提示できない既存手法に比べて,提案手法では順位2位以下の情報を多量に持っているため,アプリケーションへの応用の際にこれらの情報が有効に働くことを期待できる.
\section{オントロジーの生成}
\subsection{学習モデル}\ref{sec:hyperinfo}節で得られた上位語情報を利用して,単語オントロジーの自動生成を試みた.以下は,今回検証したモデルである.まず,目的とするオントロジーは上位語が下位語を意味的に包含するものである.従って,下位語は上位語の意味を要素として含まなければならない.逆に,下位語は上位語以外の単語の意味を要素として含んではいけないことになる.いま,あるオントロジーが存在し,その中の単語$C$の上位語が$A,B$である場合を考える(図\ref{fig:ont-model}(a)参照).このとき,$C$の持つ意味は$A,B$及び$C$自身により特徴づけられると考える.ところが,$C$は拡張定義文において様々な単語から成り立っている.そこで,単語の意味空間の集合としての見出語の意味空間を考える(図\ref{fig:ont-model}(b)参照).\begin{figure}[b]\vspace{-0.5\baselineskip}\begin{center}\includegraphics{16-1ia5f3.eps}\end{center}\caption{オントロジー学習モデル}\label{fig:ont-model}\end{figure}拡張定義文中の各単語は見出語を構成する要素(部分空間)であると考え,見出語自身とその上位語のみが,その見出語を特徴づける意味要素として有効であると仮定する.即ち,\begin{quote}オントロジー上に単語$C$の上位語として単語$A,B$のみが存在する場合,このオントロジーにおける$C$の意味は拡張定義文中の$A,B,C$で構成される部分空間に限定され,拡張定義文中の他の単語は無視される.そして,これらの単語の確率頻度の合計が大きいほど,見出語の本来の意味が再現される\end{quote}と考える.この再現率がオントロジー全体で高いほど,良いオントロジーとなる.これにオントロジー上の距離の要素を加味し,単語の確率頻度(\ref{sec:method}節参照)を用いて,上位語を$A,B,C,D,\cdots$としたときの再現率を\begin{equation}P'(w)=b_AP(w_A^*|w)+b_BP(w_B^*|w)+b_CP(w_C^*|w)+b_DP(w_D^*|w)+\cdots\end{equation}と書くことにする.ただし,$b_x$は単語$w_x^*$の木構造の頂点からのトポロジカルな距離に従う定数($\sum_xb_x=1$)である.以下,この$P'(w)$を意味再現率と呼ぶ.この仮定の下で,あるオントロジー$T$が存在している場合,$T$が存在する確からしさは全単語の意味再現率の積,即ち,\begin{equation}\label{eq:prob_t}P(T)=\prod_{w_x}^{all\;words}P'(w_x)\end{equation}で表すことができる.\pagebreakつまり,全ての単語がより良く元の意味を再現できている状態がオントロジーの存在が最も安定している状態であると考える.計算を簡単にするため,式(\ref{eq:prob_t})の対数をとれば,\begin{equation}\begin{aligned}[b]L(T)&=\logP(T)\\&=\sum_{w_x}^{all\;words}\logP'(w_x)\\&=\sum_{w_x}^{all\;words}\log\sum_{w_y^*}^{all\;hypernyms}b_yP(w_y^*|w_x)\end{aligned}\end{equation}となる.この$L(T)$を最大化することにより,前述の仮定の下での最適な単語オントロジーが取り出せる.\subsection{計算機実験}本論文では,計算コストを抑えるため,最適化アルゴリズムを各単語の意味再現率最大化と,その組合せとしての全体の最適化の2段階に分離して行った.即ち,\begin{enumerate}\item$\forallw_x,\P'(w_x)=\sum_{w_y^*}^{all\;hypernyms}b_yP(w_y^*|w_x)$の最大化\item$L(T)=\sum_{w_x}^{all\;words}\logP'(w_x)$の最大化\end{enumerate}を交互に行うことで,近似的に最適化を行った.オントロジー上の距離に関するパラメータ$b_y$は,上位語の木構造の最上位からの階層の深さを$n$としたとき,$b_y\proptoz^n,z=0.1,0.5,0.9,0.99$の4種類とした.学習の前提として,オントロジー上での各単語の直接上位語は1語に限定し,自身を上位語とすることを許可している.自身が上位語となる場合は,当該単語は木構造の最上位に位置するものと考える.これらの前提の下,学習の初期状態は全ての単語が自身を上位語とする状態にあるものとし,学習を行った.具体的な学習手順は,次の通りである.\begin{enumerate}\item見出語を1つ選ぶ.\item上位語候補を$N$個選ぶ.\item各上位語候補に対して$P'(w_x)$を計算し,最大となる上位語を決定する.\item上記に対し$L(T)$を計算し,値が増加すれば上位語を置換,それ以外なら元に戻す.\end{enumerate}を全見出語に関し変化がなくなるまで繰り返す.ただし,$N$は事前に与えられる定数であり,今回の実験では$N=100$とした.\subsection{結果}\begin{figure}[p]\begin{center}\includegraphics{16-1ia5f4.eps}\end{center}\caption{獲得されたオントロジーの例(「通信」の上位語/下位語)}\label{fig:tree-word}\end{figure}以下,$a=0.1$の場合を例に,結果の詳細を記す.学習の結果得られたオントロジーの一部を図\ref{fig:tree-word}に示す.「通信」の全上位語および全下位語の構造を表示している\footnote{上位語の他の下位語,即ち,「兄弟」「従兄弟」等の関係にあたる単語は全て省略している.}.(a)はオントロジー上の距離に関するパラメータ$b(z=0.1)$を用いて学習した結果である.同様に(b),(c),(d)はそれぞれ$b(z=0.5,0.9,0.99)$のときの結果である.この値が大きくなる程,上位語の影響は階層の離れた下位語まで届くため,深い木構造が期待できる.逆にこの値が小さいと,浅い木構造ができることが期待される.今回の実験では,独立した木構造の数は,(a)1687,(b)1472,(c)788,(d)142であった.(a),(b),(c)では「通信」は木構造の最上位に位置しているが,(d)では「人」を頂点とする巨大な木構造の一部であり,多くの上位語の下に位置している.これらの結果から,パラメータ$z$の値が増加するに従い木構造の階層がより深く大きくなるのが確認できる.また,図\ref{fig:tree-word}を詳細にみると,上下関係が特定の意味関係で統一されているとは言い難いものの,関連のある言葉が集まり木構造を構築していることは確認できる.次に,生成されたオントロジーの精度を,\ref{subsec:eval-hyper}節同様,日本語語彙大系のカテゴリー間の上下関係との一致度を測ることにより調べた.評価方法は\ref{subsec:eval-hyper}節の結果を考慮して,2種類の正解データを設定した.一つは,見出語の含まれる意味カテゴリーの直接上位カテゴリーを正解とするもの,もう一つは,見出語の含まれる意味カテゴリーと同一カテゴリーを正解とするものである.これら正解カテゴリー内の単語のいずれかに,生成したオントロジーから得られる上位語が一致すれば正解とみなした.この手法による評価を,オントロジー上での上位語の距離に対する精度としてプロットしたのが図\ref{fig:eval-direct}および図\ref{fig:eval-all}である.横軸は上位語のトポロジカルな距離で,直接上位語であれば``1'',さらにその上位語であれば``2''というように,オントロジー上の距離を表している.縦軸は精度である.図の各線は,学習時のパラメータ$b(z=0.1,0.5,0.9,0.99)$のそれぞれの結果をプロットしたものである.また,白丸はオントロジー生成学習前(拡張定義文中の出現頻度最大の単語を正解とみなした場合)の精度を,黒丸は人手で修正したデータの精度(表\ref{tab:head}参照)を表している.\begin{figure}[t]\begin{center}\includegraphics{16-1ia5f5.eps}\end{center}\caption{オントロジー上の上位語の精度(直接上位カテゴリーによる評価)}\label{fig:eval-direct}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-1ia5f6.eps}\end{center}\caption{オントロジー上の上位語の精度(同一カテゴリーによる評価)}\label{fig:eval-all}\vspace{-1.5\baselineskip}\end{figure}全体的に,学習時のパラメータ$z$が小さいほど距離1での精度が高く,また,距離が大きくなるに従い急激に精度を落している.$z$が小さいと,生成された木構造の階層が浅いため大きな距離の上位語は非常に少くなり,逆に,$z$が大きいと,木構造の階層が深くなり,多くの上位語を同時に学習するため直接上位語の精度が犠牲になると考えられる.ただし,この差は僅かであり,距離2以上では逆転するものもあるので,$z$を如何に設定すべきかは更なる検討が必要である.さらに,これらの結果を学習の前後で比較してみる.図\ref{fig:eval-direct}の距離が1(直接上位語)の場合を見ると,オントロジー生成学習前(図では白丸)よりも後の方が大きく精度を下げている.人手修正データの場合(図では黒丸)と比べると,半分程度の精度である.ここで人手修正データの性質を考える.このデータはオントロジーを意識して作成されたものではないので,上位語にさらにその上位語を積上げる手法をとっても木構造にはならず,ループ状につながってしまう.従って,木構造にするには,いくつかの上位語を変える必要があり,多少の精度低下が起る.この点を考慮すると,学習前後で精度が低下することは妥当であると思われる.一方,図\ref{fig:eval-all}では距離が1の各値はオントロジー生成学習前(図の白丸)および人手修正データ(図の黒丸)と比べて大きく精度を上げている.\ref{subsec:eval-hyper}節の結果を考慮すれば同一カテゴリーによる評価がより重要であるとも考えられるが,同義語など他の要素が影響している可能性も考えられる.この点に関しても更なる検討が必要である.以上の結果は,$a=0.5,0.9$の場合でも同様の傾向がみられる.上述のように,オントロジーとしての十分な評価を下すためには更に検証を加える必要があるが,上記の実験結果は計算により得られた上位語情報を学習によって木構造に組み上げる方法論の妥当性を示唆している.また,再帰的展開の影響が小さい$a=0.1$での結果が学習前から大きく改善したことは,辞書から得たカバー率の高い上位語情報が有効に活用されていることを表すものである.
\section{むすび}
本論文では辞書の定義文から上位語情報を取り出し,検証を行った.取り出した上位語情報はカバー率が非常に高いという特徴をもっており,精度の検証では既存の手法を上回る結果を示した.また,上位語情報を利用したオントロジー生成手法を提案し,上位語情報のカバー率の高さが有効に働いていることを示した.提案したオントロジー生成手法はまだ簡易的なものであるが,パラメータに従い様々な深さの階層をもつオントロジーを生成できる.ただし,その精度の評価方法に関しては更なる検討が必要であることも明らかになった.今後の課題としては,第一に評価手法の確立が挙げられる.今回は正解データとして日本語語彙大系のみを利用したが,様々な辞書等を組合せて,より精度の高い評価手法を確立したいと考えている.更に,学習の最適化手法の改良に関しても今後の課題である.今回用いた最適化手法は簡易的なもので,極めて局所的な最適解しか得られない.この点を改善すれば,今後の更なる精度の向上も期待できる.また,今回の実験では語義の曖昧性については考慮せず,1表記につき1語義として実験を行ったが,定義文中の語義曖昧性を排除した辞書(例えばLexeed\cite{lexeed})を利用することにより,語義レベルの上位語抽出,オントロジー生成が可能である.今回は特殊な辞書であるLexeedの利用は避けたが,これの再帰的展開への適用については現在検討を進めているところである.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Anderson,Bai,Bischof,Blackford,Demmel,Dongarra,Du~Croz,Greenbaum,Hammarling,McKenney,\BBA\Sorensen}{Andersonet~al.}{1999}]{clapack}Anderson,E.,Bai,Z.,Bischof,C.,Blackford,S.,Demmel,J.,Dongarra,J.,Du~Croz,J.,Greenbaum,A.,Hammarling,S.,McKenney,A.,\BBA\Sorensen,D.\BBOP1999\BBCP.\newblock{\Bem{LAPACK}Users'Guide\/}(Third\BEd).\newblockSocietyforIndustrialandAppliedMathematics,Philadelphia,PA.\bibitem[\protect\BCAY{Nichols\BBA\Bond}{Nichols\BBA\Bond}{2005}]{Nichols:Bond:2005}Nichols,E.\BBACOMMA\\BBA\Bond,F.\BBOP2005\BBCP.\newblock\BBOQAcquiringOntologiesUsingDeepandShallowProcessing\BBCQ\\newblockIn{\Bem11thAnnualMeetingoftheAssociationforNaturalLanguageProcessing},\mbox{\BPGS\494--498}\Takamatsu.\bibitem[\protect\BCAY{Snow,Jurafsky,\BBA\Ng}{Snowet~al.}{2006}]{Snow06}Snow,R.,Jurafsky,D.,\BBA\Ng,A.~Y.\BBOP2006\BBCP.\newblock\BBOQSemanticTaxonomyInductionfromHeterogenousEvidence\BBCQ\\newblockIn{\BemProceedingsof44thAnnualMeetingoftheACL},\mbox{\BPGS\801--808}.AssociationforComputationalLinguistics,ACL.\bibitem[\protect\BCAY{Suzuki}{Suzuki}{2003}]{Suzuki2}Suzuki,S.\BBOP2003\BBCP.\newblock\BBOQProbabilisticWordVectorandSimilaritybasedonDictionaries\BBCQ\\newblock{\BemComputationalLinguisticsandIntelligentTextProcessingLectureNotesinComputerScience(InproceedingsofCICLing2003)},{\Bbf\textmd{N2588}},\mbox{\BPGS\564--574}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{goitaikeij}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{鶴丸\JBA竹下\JBA伊丹\JBA柳川\JBA吉田}{鶴丸\Jetal}{1991}]{tsurumaru1991}鶴丸弘昭\JBA竹下克典\JBA伊丹克企\JBA柳川俊英\JBA吉田将\BBOP1991\BBCP.\newblock\JBOQ国語辞典情報を用いたシソーラスの作成について\JBCQ\\newblock\Jem{情報処理学会自然言語研究会},{\Bbf\textmd{1991-NL-}83}.\bibitem[\protect\BCAY{金田一\JBA池田}{金田一\JBA池田}{1988}]{gakkenj}金田一春彦\JBA池田弥三朗\BBOP1988\BBCP.\newblock\Jem{学研国語大辞典第二版}.\newblock学習研究社.\bibitem[\protect\BCAY{鈴木}{鈴木}{2005}]{Suzuki3j}鈴木敏\BBOP2005\BBCP.\newblock\JBOQ辞書に基づく単語の再帰的語義展開\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(2),\mbox{\BPGS\624--630}.\bibitem[\protect\BCAY{松本\JBA北内\JBA山下\JBA平野\JBA松田\JBA高岡\JBA浅原}{松本\Jetal}{2000}]{chasenj}松本裕治\JBA北内啓\JBA山下達雄\JBA平野善隆\JBA松田寛\JBA高岡一馬\JBA浅原正幸\BBOP2000\BBCP.\newblock\JBOQ日本語形態素解析システム『茶筌』version2.2.1使用説明書\JBCQ.\newblockhttp://chasen.aist-nara.ac.jp/.\bibitem[\protect\BCAY{笠原\JBA佐藤\JBA田中\JBA藤田\JBA金杉\JBA天野}{笠原\Jetal}{2004}]{lexeed}笠原要\JBA佐藤浩史\JBA田中貴秋\JBA藤田早苗\JBA金杉友子\JBA天野成昭\BBOP2004\BBCP.\newblock\JBOQ「基本語意味データベース:Lexeed」の構築(辞書,コーパス)\JBCQ\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2004}(1),\mbox{\BPGS\75--82}.\end{thebibliography}\begin{biography}\bioauthor{鈴木敏(正会員)}{昭和42年生.平成2年東京大学教養学部基礎科学科卒.同年NTT入社.統計的学習理論,物体認識に関わる計算モデル,自然言語処理のための学習モデルの研究に従事.平成4〜9年ATR人間情報通信研究所研究員.平成6年日本神経回路学会研究賞受賞.}\end{biography}\biodate\end{document}
| |
V16N03-02
|
\section{はじめに}
一般家庭にもPC,ブロードバンドが普及し,ユーザは手軽に情報を収集できるようになってきている.しかし一方では,情報が過度に溢れ過ぎ,利用者の要求に合った情報を探し出す必要性が高まっている.その中で要求に適合した情報のみを選出するのではなく,情報をランキング付けして提示することも重要となっている.ランキング付けは,検索要求と検索対象との間の類似性や関連性をもとに行われ,これらを定量化することが求められる.その際,従来の情報検索でよく用いられているベクトル空間モデル\cite{Salton:75}などでは文書における単語の出現頻度や統計情報などを利用して検索要求と文書間の類似性を判断し,文書を選別している.このような手法は検索要求と文書内の各単語の表記が一致しない場合は関連性がないとの仮定にもとづいている.しかし,実際の文書において,語の表記が同じでも異なる意味を有したり(多義性),同じ意味でも語の表記が異なる場合(表記揺れ,同類義語)がある.さらに単語間には,互いに意味的な関連性を持って存在しており,表記だけを頼りに検索を行う手法ではユーザが入力する語によって検索結果が異なってしまう.そのためユーザが適切なキーワードを考えなければならない.その問題を解消するために,ユーザが入力したキーワードの意味を捉えた検索手法が必要である.このような背景から,本研究では文書における意味を捉えた検索を実現すべく,単語の意味特徴を定義した概念ベース\cite{okumura:07}を用いた検索手法を提案する.概念ベースを用いることによって,単語の表記のみでの検索方式とは異なり,意味を捉えた検索が可能になる.つまり,ユーザの入力語の表記的揺らぎに影響されず,意味的近さを定量化できる手法である.具体的には,概念ベースによって単語間の意味的な関連性を0から1までの数値として算出する.そして,その値をもとに検索要求と検索対象との類似度を画像検索等の分野で注目されている距離尺度であるEarthMover'sDistance(EMD)\cite{Rubner:00}により求める方法を提案する.また,概念ベースに存在しない固有名詞や新語に対して,Webをもとに新概念として定義し概念ベースを自動的に拡張する手法を提案する.
\section{先行研究と本研究の位置付け}
体系的に整理された辞書であるWordNet\cite{Miller:95}を用いて単語間の距離を定義し,EMDにより文書間の類似度を定義する手法\cite{Wan:06}が提案されている.これにより単語の意味的な関連性に着目した情報検索が実現されている.また,単語の共起情報をもとに単語間の関連性を定義し,EMDにより文書間の類似度を定義する手法が提案されている\cite{yanagimoto:07}.この手法では,単語の共起情報を用いることにより,全ての単語間の関連性を定義し,文書間の類似度を定義することを実現している.しかしながらこれらの手法の問題点として,WordNetなどの整理された辞書を用いる場合は,索引語の全てが辞書に含まれる保証がなく,全ての索引語間の関連性を求めることができない可能性がある.共起情報を手がかりにした場合は,用いる文書集合の特性や容量の影響を大きく受け,正確に関連性を定義しているとは言い難い.提案手法では,概念ベースを用いて索引語間の関連性を求め,さらに概念ベースに存在しない語においてはWebをもとに自動的に概念として定義する.これにより,単語間の関連性をより正確に定義し,さらにあらゆる新語に対応できる索引語の網羅性を実現する.
\section{基本事項}
\subsection{NTCIR3-WEB}\begin{figure}[b]\begin{center}\includegraphics{16-3ia2f1.eps}\caption{NTCIR3-WEBの検索課題の例}\label{fig:example_of_problem}\end{center}\end{figure}本研究では提案手法の効果を検証するため,日本での代表的な情報検索システム評価用のテストコレクションであるNTCIR\footnote{国立情報学研究所.http://research.nii.ac.jp/ntcir/ntcir-ws3/ws-ja.html}を用いた.NTCIRは文献データ集合,検索課題集合,各検索課題に対する文献の適合不適合判定からなるもので,同一のテストコレクションを利用することにより共通の基準で情報検索システムを評価することができるようにしたものである.その中でも,本研究では一般の利用者が実際に検索する環境に近いWeb検索用のテストコレクションであるNTCIR3-WEBを用いた.図\ref{fig:example_of_problem}にNTCIR3-WEBの検索課題の一例を示す.検索課題にはNUM,TITLE,DESC,NARR,CONC,RDOC,USERの7つのフィールドが含まれているが,このうち標準的なフィールドはTITLE(title),DESC(description),NARR(narrative),CONC(concept)の4つである.TITLEとは検索課題の内容を簡単に表したタイトル,DESCは検索する内容を文で記述したもの,NARRは検索する内容の詳細な説明,CONCは検索する内容を表すキーワードである.本研究では検索要求を文章で入力するシステムの開発を想定し,DESCのみを使用する.図\ref{fig:example_of_object}に検索対象(HTMLもしくはプレーンテキストファイル.言語は主に日本語と英語,ごく一部にその他の言語.100~GB)の一例を示す.実験には検索対象のタグを省いた全文を用いる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f2.eps}\caption{NTCIR3-WEBの検索対象の例}\label{fig:example_of_object}\end{center}\end{figure}\subsection{索引語の取得と重み付け}本研究は日本語での検索を想定している.日本語は英語などとは異なり,単語間に明確な区切りがない.そこで,文章から単語を切り出す必要がある.本研究では形態素解析器を用いて行う.\subsubsection{形態素解析器}日本語構造の制約を利用し,単語の切り出しや品詞を同定することを形態素解析という.例えば,形容詞は名詞の前に付くことができるという法則である.実際は,日本語の複雑さのため完全に単語を切り出すことは難しいが,代表的な形態素解析器である茶筌\footnote{奈良先端科学技術大学院大学.http://chasen-legacy.sourceforge.jp/}は様々な工夫により高い精度で単語を正しく切り出すことができる.本研究では単語の切り出しに茶筌を用い,「名詞」,「形容詞」,「動詞」を索引語として用いる.\subsubsection{tf・idf}\label{tf_idf}索引語に対する重み付けは,情報検索の分野で広く用いられているtf・idf重み付け\cite{Salton:88}を使用する.tf・idfによる重み付けとは,対象としている単語の頻度と網羅性に基づいた重み付け手法である.文書$d$における索引語$t$の重み$wd(t,d)$は以下の式\ref{eq:tfidf}によって得られる.\begin{equation}wd(t,d)=tf(t,d){\times}idf(t)\label{eq:tfidf}\end{equation}$tf(t,d)$は文書$d$における索引語$t$の出現頻度である.ただし,$tf(t,d)$は文書長の影響を受けやすいため,本論文では以下の式\ref{eq:tf}に示す正規化手法を用いた.単語$t$の出現頻度を$tfreq(t,d)$,文書$d$に含まれる単語数を$tnum(d)$とする.\begin{equation}tf(t,d)=\frac{\log(tfreq(t,d)+1)}{\log(tnum(d))}\label{eq:tf}\end{equation}また,$idf(t)$は文書数$N$と索引語$t$が出現する文書の数$df(t)$によって決まり,式\ref{eq:idf}によって定義される.\begin{equation}idf(t)=\log\frac{N}{df(t)}+1\label{eq:idf}\end{equation}\subsubsection{不要語の削除}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f3.eps}\caption{検索課題idfによる不要語の削除}\label{fig:example_of_word}\end{center}\end{figure}本研究では不要語を削除するために評価データの実験に使用する検索対象の空間でのidf値をもとに検索対象内の不要語を削除した.不要語とは「する」や「こと」のような,どの文書にも出現し,文書を特定するために有効でない語を指す.検索対象の不要語削除の閾値は提案手法が適合判定レベルのLEVEL1においての評価(MAP)がidf値0から9の間で一番高くなるidf値5に設定した.適合判定LEVELと評価(MAP)などの評価方法については\ref{evaluationmethod}節で述べる.さらに検索課題空間でのidf値を利用し検索課題の索引語中の不要語を削除した.削除の例を図\ref{fig:example_of_word}に示す.これにより検索課題によく出現する「文書」や「様々」などの語を削除でき,検索課題として比較的意味があると考えられる「将来」,「歴史」,「地域」などを残すことができる.この閾値は目視により設定した.
\section{概念ベース}
\label{conceptbase}概念ベースとは複数の国語辞書や新聞などから機械的に構築した単語(概念)とその意味特徴を表す単語(属性)の集合からなる知識ベースである.概念には属性とその重要性を表す重みが付与されている.概念ベースには約12万語の概念表記が収録されており,1つの概念に平均約30個の属性が存在する.ある概念$A$は属性$a_i$とその重み$wc_i$の対の集合として,式\ref{eq:concept_base}で表される.\begin{equation}A=\{(a_1,wc_1),(a_2,wc_2),\cdots,(a_i,wc_i),\cdots,(a_n,wc_n)\}\label{eq:concept_base}\end{equation}任意の一次属性$a_i$は,その概念ベース中の概念表記の集合に含まれている単語で構成されている.したがって,一次属性は必ずある概念表記に一致するため,さらにその一次属性を抽出することができる.これを二次属性と呼ぶ.概念ベースにおいて,「概念」は$n$次までの属性の連鎖集合により定義されている(図\ref{fig:concept_base}).以下に,本研究で使用した大規模概念ベースの構築方法について述べる.\begin{figure}[b]\begin{center}\includegraphics{16-3ia2f4.eps}\caption{概念ベース}\label{fig:concept_base}\end{center}\end{figure}\subsection{概念ベースの構築方法}まず,基本となる概念ベースを複数の国語辞書から構築する.概念は国語辞書の見出し語から,属性は見出し語の語義説明文の自立語から,その重みは自立語の出現頻度に基づいて決定される\cite{kasahara:97}.そして,属性信頼度(語に関する種々の知識から属性としての確からしさを定量化した値)により不適切な属性の削除を行い,信頼性の高い属性を抽出する\cite{kojima:02}.これらにより概念数約3万4千語で平均属性数が16個の基本となる概念ベースが構築される.複数の国語辞書には約12万語の見出し語(辞書に収録されている約20万語語彙のうち見出し語として不適切な表記を除去した語)があり,辞書中の語義説明文だけでは属性が付与できない語が約9万語もあった.そこで,概念総数と属性数を拡張するために電子化新聞(毎日新聞,日本経済新聞)を用いて,各概念に対する共起語を属性候補として追加する.この際,もともと概念ベースに定義されている概念についても,同様に属性を取得する.その後,\ref{degree_of_association}節で説明する関連度計算により概念と属性の関連の強さを求め,その値と概念ベースの頻度情報をもとに属性の重み付けを行う.以上の処理により本研究で使用した概念数が約12万語,平均属性数約30個の大規模概念ベース\cite{okumura:07}が構築できる.
\section{概念ベースを用いた単語間の関連性の定量化}
概念ベースを用いた単語間の関連性の定量化は,基本的に語意の展開結果を利用し数値として表す.何次属性まで展開するか,どの属性を用いるかによって値が変わってくるため,状況に応じてどのように計算するかが問題になってくる.そこで本研究では二種類の方法を使い分ける.文書間の類似度を求めるための単語間の関連性の定量化には,概念ベースの一次属性までを使用する一致度を用い,概念ベースの自動拡張手法における単語間の関連性の定量化には,概念ベースの二次属性までを使用する関連度計算\cite{watabe:06}を使用する.二次属性までを使用する方法が,概念ベースを用いた単語間の関連性の定量化には一番有効であると報告されている\cite{watabe:06}.一次属性までしか展開しないと,関連が薄い概念同士の関連性を定量化できず,三次属性まで用いると概念とはかけ離れた語が属性となり,雑音として働くため精度が低下してしまう.本研究では,文書を概念と文書間の類似度を求めるための単語間の関連性の定量化には一次属性までしか展開しない一致度を用いる.これは文書を概念と見立てた場合,索引語が一次属性となり,索引語の属性が二次属性となる.つまり,索引語の二次属性まで展開すると文書を概念とした場合の三次属性まで展開したこととなり雑音が増加し,概念(文書)とはかけ離れた語が計算に使用されてしまうためである.\subsection{一致度計算}\label{degree_of_match}任意の概念$A$,$B$について,それぞれ一次属性を$a_i$,$b_j$とし,対応する重みを$u_i$,$v_j$とする.また,概念$A$,$B$の属性数を$L$個,\pagebreak$M$個$(L\leM)$とする.\begin{gather*}A=\{(a_i,u_i)\midi=1〜L\}\\B=\{(b_j,v_j)\midj=1〜M\}\end{gather*}このとき,概念$A$,$B$の一致度$MatchWR(A,B)$を以下の式\ref{eq:MatchWR1},\ref{eq:MatchWR2}で定義する.\begin{gather}MatchWR(A,B)=\sum_{a_i=b_j}\min(u_i,v_j)\label{eq:MatchWR1}\\\min(\alpha,\beta)=\begin{cases}\alpha&(\beta>\alpha)\\\beta&(\alpha\geq\beta)\end{cases}\label{eq:MatchWR2}.\end{gather}ただし,各概念の重みの総和をそれぞれ1に正規化する.概念$A$,$B$の属性$a_i$,$b_j$に対し,$a_i$=$b_j$(概念$A$,$B$に共通する属性がある)となる属性があった場合,共通する属性の重みの共通部分,つまり,重みの小さい分だけ有効に一致すると考え,その合計を一致度とする.定義から明らかなように両概念の属性と重みの両方が完全に一致する場合には一致度は1.0となる.\subsection{関連度計算}\label{degree_of_association}関連度計算は概念の二次属性間の一致度計算により求めた値をもとに概念間の関連性を数値として算出する.具体的には,計算する二つの概念の内,一次属性の数の少ない方の概念を$A$とし$(L\leM)$,概念$A$の一次属性を基準とする.\[A=\{(a_1,u_1),(a_2,u_2),\cdots,(a_i,u_i),\cdots,(a_L,u_L)\}\]そして概念$B$の一次属性を,概念$A$の各一次属性との一致度$MatchWR(a_i,b_{xi})$の和が最大になるように並び替える.\[B_x=\{(b_{x1},v_{x1}),(b_{x2},v_{x2}),\dots,(b_{xi},v_{xi}),\cdots,(b_{xL},v_{xL})\}\]これによって,概念$A$の一次属性と概念$B$の一次属性の対応する組を決める.対応にあふれた概念$B$の一次属性は無視する(この時点では組み合わせは$L$個).ただし,一次属性同士が一致する(概念表記が同じ)ものがある場合($a_i=b_j$)は,別扱いにする.これは概念ベースには約12万の概念表記が存在し,属性が一致することは稀であるという考えに基づく.従って,属性の一致の扱いを別にすることにより,属性が一致した場合を大きく評価する.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとることにする.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応が決定するのは$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決めて,対応の取れた属性の組み合わせ数を$T$個とする.\pagebreakこのとき,概念$A$,$B$の一致度$DoA(A,B)$を以下の式\ref{eq:DoA}により定義する.\begin{equation}DoA(A,B)=\sum_{i=1}^T\{MatchWR(a_i,b_{xi})\times(u_i+v_{xi})\times(\min(u_i,v_{xi})/\max(u_i,v_{xi}))/2\}\label{eq:DoA}\end{equation}関連度の値は概念間の関連の強さを0〜1の間の連続値で表す.1に近づくほど関連が強い.概念$A$と$B$に対して関連度計算を行った例を表\ref{table:degree_of_association}に挙げる.最後に,概念「机」と「椅子」を例に用いて,関連度の計算例を説明する.概念「机」と「椅子」の一次属性および二次属性を表\ref{tab:example_primary_attribute},表\ref{table:example_secondary_attribute}に示す.\begin{table}[b]\begin{minipage}{0.45\textwidth}\caption{関連度計算の例}\label{table:degree_of_association}\input{02table01.txt}\end{minipage}\begin{minipage}{0.45\textwidth}\caption{概念「机」と「椅子」の一次属性}\label{tab:example_primary_attribute}\input{02table02.txt}\end{minipage}\end{table}\begin{table}[b]\caption{概念「机」と「椅子」の二次属性}\label{table:example_secondary_attribute}\input{02table03.txt}\end{table}まず,概念「机」と「椅子」の一致度の計算を行う.例えば,概念「机」の一次属性「学校」と概念「椅子」の一次属性「木」は,「木造」という共通する属性を持っているため,一致度は以下のように計算される.\[MatchWR(学校,木)=\min(0.2,0.4)=0.2\]同様に全ての一次属性の組み合わせについて一致度を計算した結果を表\ref{table:example_dom_matrix}に示す.\begin{table}[b]\caption{概念「机」と「椅子」の一致度行列}\label{table:example_dom_matrix}\input{02table04.txt}\end{table}次に,関連度の計算を行う.関連度の計算は,まず属性が完全に一致している部分から行われる.続いて,一致度の大きい部分から順に対応を決める.この場合,表\ref{table:example_dom_matrix}から一次属性「勉強」と「勉強」,「学校」と「教室」,「本棚」と「勉強」の順に対応が決まることになる.結果,関連度は次式のように計算される.\begin{align*}DoA(机,椅子)&=1.0\times(0.3+0.3)\times(0.3/0.3)/0.2+0.4\times(0.6+0.3)\times(0.3/0.6)/2\\&\quad+0.1\times(0.1+0.2)\times(0.1/0.2)/2\\&=0.3975\end{align*}本研究では\ref{addict}節で述べる概念ベースに属性として追加する概念と追加される側の概念との間の関連性の定量化に関連度計算を用いる.
\section{概念ベースの自動拡張手法}
\label{conceptbaseautoexpand}概念ベースに存在しない語(未定義語)にも属性を与えなければ,未定義語と他の単語との関連性を求めることができない.そこで,現在考えうる最大の言語データであるWeb情報をもとに未定義語の概念化を行い,概念ベースに追加する方法を提案する.本章ではこの手法について説明する.\subsection{未定義語の概念化}\label{acquiring_attribute_of_unknown_word}以下の手順により,未定義語の概念化を行うために,未定義語の属性とその重みをWebから獲得する.\begin{enumerate}\item入力された未定義語をキーワードとして検索エンジン\footnote{検索エンジンはgoogleを用いた.http://www.google.co.jp}を用いて検索を行い,検索上位100件の検索結果ページの内容を取得する.\itemHTMLタグなど不要な情報を取り除いた文書群に対して,形態素解析を行い,自立語を抽出する.\item得られた自立語の中から概念ベースに存在する単語のみを未定義語の属性として抜き出す.\item得られた属性の頻度にWeb上の単語のidfを統計的に調べたもの(SWeb-idf)\cite{tuji:04}の値を掛け合わせたものを属性の重みとし,得られた重み順に並び替える.SWeb-idfについては次節で説明する.なお,SWeb-idfのデータベースに存在しない属性については,Web上にあまり存在しない単語と考え,SWeb-idf値の最大値を掛け合わせている.\end{enumerate}表\ref{table:attribute_unknown_word}に未定義語を概念化した例を示す.\begin{table}[t]\caption{未定義語「Gショック」,「クイニーアマン」の属性とその重み(一部)}\label{table:attribute_unknown_word}\input{02table05.txt}\vspace{-1\baselineskip}\end{table}\subsection{SWeb-idf}\label{SWeb-idf}SWeb-idf(StaticsWeb-InverseDocumentFrequency)とは,Web上の単語のidfを統計的に調べたidf値である.まず,無作為に選んだ固有名詞1,000語を作成する.表\ref{table:proper_noun}に無作為に選択した固有名詞の一部を示す.この作成した1,000語に対して個々に検索エンジンで検索を行い,1語につき検索上位10件の検索結果ページの内容を取得する.よって,得られた検索結果ページ数は10,000ページとなる.この10,000ページから,複数の国語辞書や新聞などから概念(単語)を抽出した知識ベースである概念ベースの収録語数である約12万語とほぼ同等の単語数が得られたことから,獲得した10,000ページをWebの全情報情報空間とみなしている.そして,その中での単語のidf値を表すSWeb-idfは,式\ref{eq:SWeb-idf}で求められる.\begin{equation}SWeb\verb|-|idf(t)=\log\frac{N}{df(t)}\hspace{2em}(N=10000)\label{eq:SWeb-idf}\end{equation}\begin{table}[b]\begin{minipage}[t]{0.6\textwidth}\caption{SWeb-idfの作成に用いた固有名詞(一部)}\label{table:proper_noun}\input{02table06.txt}\end{minipage}\begin{minipage}[t]{0.3\textwidth}\caption{SWeb-idfの例}\label{table:SWeb-idf}\input{02table07.txt}\end{minipage}\end{table}これらにより得られた単語とそのidf値をデータベースに登録した.なお$df(t)$項は,全文書空間(10,000ページ)に出現する概念$t$のページ数である.獲得したSWeb-idfの値の例を表\ref{table:SWeb-idf}に挙げる.なお,固有名詞の選び方を変えてもSWeb-idfの値に大きな変化は見られないという報告がなされている\cite{tuji:04}.\subsection{属性内出現頻度を用いた重み付け手法}未定義語の属性の重みはSWeb-idfによっても求まるが,Web情報と概念ベースでは語の頻度情報が異なり重みの値も変わるため,Web情報の重みをそのまま用い概念ベースに追加すると概念ベースの頻度情報に歪みが生じる.よってSWeb-idfは未定義語の属性候補を獲得する時にのみ用い,未定義語の属性の重み付けには使用せず,概念ベースに未定義語を追加する場合には概念ベースの頻度情報を用いて重み付けを行う必要がある.そこで,未定義語の属性に対して重みを付与する方法として,概念ベースの属性空間を考慮した重み付け手法を提案する.概念に付与された属性は,特徴を表す語であるため,概念の説明文書であると捉えることが出来る.この文書空間内での属性の出現頻度を,概念に対する属性の確からしさだと考える.例として「個人情報」の属性を表\ref{table:1st_and_2nd_attribute_of_new_concept}に示す.網掛けのセルに一次属性,各網掛けの下方のセルにはその二次属性を示している.\begin{table}[b]\caption{新概念「個人情報」の一次,二次属性}\label{table:1st_and_2nd_attribute_of_new_concept}\input{02table08.txt}\end{table}個人情報という概念を特徴付ける一次属性には,「個人,情報,識別,…」という属性が存在する.これは,「個人を識別することができる情報を指す」という文書であると捉えることができる.このように,概念に対する$n$次属性空間はその概念についての説明文書の集合だとみなすことができる.この$n$次属性空間から算出した出現頻度を$n$次属性内出現頻度と呼ぶ.本稿では2次属性空間を用いる.3次属性空間までを用いると,概念「個人情報」に対して2次属性「力」の属性「動物,筋肉,物体,…」が含まれる.このため,概念に関係のない語が多くなってしまうためである.\ref{tf_idf}節で説明したtf・idf重みの考え方をもとに,未定義語の属性$A$の2次属性内出現頻度を$freq(A)$,未定義語の一次属性の総数を$R$とし,未定義語の属性$A$の概念ベース空間のidf値を$cidf(A)$とすると,重み$wc(A)$は以下の式で表される.\begin{equation}wc(A)=\frac{\log(freq(A))}{\log(R)}{\cdot}cidf(A)\end{equation}\subsection{相互追加}\label{addict}新規概念に属性を追加した場合,その概念自身は属性として他の概念を持つが,その概念を属性として持つ概念は存在しない.したがって,他の概念に新しく追加をした概念を属性として追加する手法が必要となる.新概念と属性の例を表\ref{table:attribute_and_weight_of_new_concept}に示す.新概念とその獲得した属性にはWeb上のホームページにともに出現しており,共起という関係があり,属性から見ても新概念とのなんらかの関連性があると考えられる.このため,新概念を属性の追加候補とする.例であると,概念「放送」,「テレビ」,「車両」に「ワンセグ」という語を属性追加候補とする.しかし,全ての属性追加候補を属性として追加すると雑音が非常に多くなってしまう.概念「車両」に対して「ワンセグ」という属性は不必要であるため,選別して追加を行う.このように,新概念から取得した語に対して新概念を属性として選別して追加することを相互追加と呼ぶこととする.選別方法としては,2次属性内出現頻度を属性数で割った値(以下2次属性内出現頻度割合と記述)が0.149以上かつ関連度0.068以上の場合に追加を行う.選別のための閾値の設定は実験により定めた.実験方法としては,概念とその概念と関係がある概念の組を1,780組集め,その全ての組における2次属性内出現頻度割合と関連度を求め,その平均値を閾値に設定した.実験に使用した2対の関係がある概念の組を表\ref{table:example_of_association_word}に示す.\begin{table}[t]\caption{新概念の属性と重み}\label{table:attribute_and_weight_of_new_concept}\input{02table09.txt}\end{table}\begin{table}[t]\caption{2対の関係がある概念の組の例}\label{table:example_of_association_word}\input{02table10.txt}\end{table}追加する概念$A$と追加される概念$B$との間の関連度$DoA(A,B)$と追加する属性の概念ベース空間のidf値を$cidf(A)$とすると追加した属性の重み$wc(A)$は以下の式で表される.\begin{equation}wc(A)=DoA(A,B){\cdot}cidf(A)\end{equation}
\section{EMDを用いた文書検索}
\label{retrieval_documents_using_EMD}検索要求と検索対象の間の類似度を求める際,いくら単語間の関連性を正確に定義できたとしても,その値をもとにうまく計算できないと文書間の正確な類似度を求めることはできない.計算の仕方としては,様々な方法が考えられ,例えば単語間の関連性が高い順に単語の対応をとり計算する方法などが挙げられる.1対1で対応を取る方法では,検索要求と検索対象の語の少ない方の語の数しか対応がとれない.例えば,検索要求の語が3語,検索対象の語が100語であった場合,検索対象の97語は計算の対象外となる.さらに,実際の検索において,ユーザは検索要求にあまり多くの語を入力しないと考えられ,検索要求と検索対象との語数の差は非常に大きいと想定され,文書内の単語の重要性と単語間の関連性を考慮しM対Nで柔軟に対応を取る必要がある.そこで本研究では類似画像検索の分野で注目されているEMD~\cite{Rubner:00}を用いて文書間の類似度を算出する方法を用いる.EMDは輸送問題における輸送コストの最適解を求めるアルゴリズムであり,需要地(供給地)の重みと需要地と供給地間の距離を定義できればどのような問題にも適用できる.このEMDを用いることで単語の重みと単語間の関連性を考慮して柔軟に対応を取り,文書間の類似度を求めることができる.\subsection{EMDとは}EMDは線形計画問題の一つであるヒッチコック型輸送問題において計算される距離尺度であり,2つの離散分布において,一方の分布を他方の分布に変換するための最小コストとして定義される.輸送問題とは,需要地の需要を満たすように供給地から需要地へ輸送を行う場合の最小輸送コストを解く問題である.EMDを求める際,二つの分布は要素の重み付き集合として表現される.一方の分布$P$を集合として表現すると,$P=\{(p_1,w_{p_1}),\ldots,(p_m,w_{p_m})\}$となる.今,分布$P$は$m$個の特徴量で表現されており,$p_i$は特徴量,$w_{pi}$はその特徴量に対する重みである.同様に,一方の分布$Q$も集合として表すと,$Q=\{(q_1,w_{q_1}),\ldots,(q_n,w_{q_n})\}$となる.EMDの計算は,2つの分布において特徴量の数が異なっている場合でも計算が可能であるという性質を持っている.今,$p_i$と$q_j$の距離を$d_{ij}$とし,全特徴間の距離を$D=[d_{ij}]$とする.ここで,$p_i$から$q_j$への輸送量を$f_{ij}$とすると,全輸送量は$F=[f_{ij}]$となる.ここで,式\ref{eq:work}に示すコスト関数を最小とする輸送量$F$を求め,EMDを計算する.\begin{equation}WORK(P,Q,F)=\sum_{i=1}^m\sum_{j=1}^nd_{ij}f_{ij}\label{eq:work}\end{equation}ただし,上記のコスト関数を最小化する際,以下の制約条件を満たす必要がある.{\allowdisplaybreaks\begin{gather}f_{ij}\geq0,\quad1\leqi\leqm,\quad1\leqj\leqn\label{eq:st1}\\\sum_{j=1}^nf_{ij}\leqw_{p_i},\quad1\leqi\leqm\label{eq:st2}\\\sum_{i=1}^mf_{ij}\leqw_{q_j},\quad1\leqj\leqn\label{eq:st3}\\\sum_{i=1}^m\sum_{j=1}^nf_{ij}=\min\left(\sum_{i=1}^mw_{p_i},\sum_{j=1}^nw_{q_j}\right)\label{eq:st4}\end{gather}}ここで,式\ref{eq:st1}は輸送量が正であることを表し,$p_i$から$q_j$に送られる一方通行であることを表している.式\ref{eq:st2}は輸送元である$p_i$の重み以上に輸送できないことを表す.式\ref{eq:st3}は輸送先である$q_j$の重み以上に受け入れることができないことを表す.最後に式\ref{eq:st4}は総輸送量の上限を表し,それは輸送先または輸送元の総和の小さい方に制限されることを表す.以上の制約条件の下で求められた最適な全輸送量$F$を用いて分布$P$,$Q$間のEMDを以下のように求める.\begin{equation}EMD(P,Q)=\frac{\sum_{i=1}^m\sum_{j=1}^nd_{ij}f_{ij}}{\sum_{i=1}^m\sum_{j=1}^nf_{ij}}\end{equation}ここで,最適なコスト関数$WORK(P,Q,F)$をEMDとしてそのまま用いないのは,コスト関数は輸送元もしくは輸送先の重みの総和に依存するので,正規化することによってその影響を取り除くためである.\subsection{EMDの文書検索への適用}\begin{figure}[b]\begin{center}\includegraphics{16-3ia2f5.eps}\caption{EMDを文書検索に適用した例}\label{fig:EMD_to_document}\end{center}\end{figure}図\ref{fig:EMD_to_document}にEMDを文書検索に適用した例を示す.EMDを文書検索に適用するには需要地と供給地,需要量と供給量,各需要地と供給地間の距離を定義する必要がある.需要地としては,検索課題の索引語を,供給地としては検索対象の索引語を割り当てる.需要量と供給量はそれぞれ索引語の\ref{tf_idf}節で説明したtf・idf重みを用いる.そして,需要地と供給地間の距離は索引語間の関連性と見立てることができ,提案手法においては概念ベースを用いた一致度計算により求めることができる.一致度は関連性が高いと値も大きくなるため,1から一致度の値を引いた値に変換する.EMDの計算は図\ref{fig:EMD_to_document}の下方で求まる.「梅」と「祭り」間の輸送量が1となっているのは,「梅」から「うめ」に重み2を輸送し,「梅」の余った重み1を「祭り」に輸送したためである.このように,関連性が高い語に優先して重みを輸送し,供給量がなくなるか需要量が満たされるまで輸送を行う.このように索引語間の関連性と重みを考慮したM対Nでの柔軟な対応が可能である.EMDの特徴として.索引語間の距離の値が0から1であるなら,EMDも0から1の値になる.そして,EMDは文書間が似ていると値が低くなり,似ていないと値が高くなる.よって値が低い文書から順にユーザに提示することで文書検索が実現できる.
\section{実験と評価}
単語の関連性に着目した提案手法の有効性を検証するため情報検索システムテストコレクションNTCIR3-WEBを用いて,表記を用いる他の手法との比較実験を行った.比較手法としては,ベクトル空間モデル,OkapiBM25と,同じ索引語間の距離を0,それ以外を1とした素朴なEMDを用いた.\subsection{評価方法}\label{evaluationmethod}今回の評価では,検索課題41件と正解文書とランダムに選択した文書を合わせた10,000件の文書を使用し,評価実験を行った.また,正解文書リストが存在し,各検索課題に対して,各文書がH(高適合),A(適合),B(部分的適合),C(不適合)の4段階の適合度が設定されており,以下の基準で評価する.LEVEL1:H判定とA判定を適合LEVEL2:H判定とA判定とB判定を適合各検索課題に対して,10,000件の検索対象全てのスコアを求め,スコア順に並べ変える.そして,正解文書リストを参照し正解文書の順位を調べ評価する.\subsection{評価指標}評価指標には,各検索課題毎の平均精度(AvelagePrecision,AP),平均精度の平均(MeanAveragePrecision,MAP)と再現率—精度グラフを使用した.検索課題に対する平均精度APは式\ref{eq:average_precision}のように定義される.まず順位$i$位の文書が適合しているならば1,そうでなければ0となる変数を$z_i$とする.$S$を適合文書の総数,$n$は出力文書数である.\begin{equation}\label{eq:average_precision}AP=\frac{1}{S}\sum_{i=1}^{n}\frac{z_i}{i}\left(1+\sum_{k=1}^{i-1}z_k\right)\end{equation}平均精度の平均(MAP)は,全ての検索課題に対して平均精度を平均したものであり,式\ref{eq:mean_average_precision}によって求められる.具体的には,検索課題が$K$件ありそれぞれの課題に対するあるシステムの平均精度を$AP_h$と表記すれば$(h=1,...,K)$,\pagebreakその平均がMAPに相当し,以下の式に示す.\begin{equation}\label{eq:mean_average_precision}MAP=\frac{1}{K}\sum_{h=1}^{K}AP_h\end{equation}再現率—精度グラフとは再現率の11個の点ごとに,41個の検索課題の精度を平均してグラフを描いたものである.\subsection{比較手法}本節では,提案手法との比較に用いているベクトル空間モデル\cite{Salton:75}とOkapiBM25\cite{Robertson:95}について述べる.\subsubsection{ベクトル空間モデル}ベクトル空間モデルは,情報検索の分野で幅広く利用されている検索モデルである.各語の重みから構成されるベクトルとして検索課題と文書をそれぞれ表現し,二つのベクトルの成す角度の余弦によって類似度を計算する点に特徴がある.重みの種類にはいくつかの種類があるが,本実験では\ref{tf_idf}節で説明したtf・idf重みを用いる.検索課題$q$と文書$d_i$の索引語の語の総数(異なり)を$M$とすれば,文書と検索課題はそれぞれ以下のような$M$次元ベクトルで表現できる.\begin{gather}d_i=(w_{i1},w_{i2},…,w_{iM})\\q=(w_{q1},w_{q2},…,w_{qM})\end{gather}検索課題$q$に対する文書$d_i$の得点$s_q(d_i)$は2つのベクトルの角度の余弦により求まる.式を以下に示す.\begin{equation}s_q(d_i)=\frac{\sum_{j=1}^Mw_{ij}w_{qj}}{\sqrt{\sum_{j=1}^Mw_{ij}^{2}}\sqrt{\sum_{j=1}^Mw_{qj}^{2}}}\end{equation}\subsubsection{OkapiBM25}S.Robertsonを中心に開発されたOkapiと呼ばれる次世代検索システムにおいて使用されている確率型の検索モデルBM25は,ベクトル空間モデルと同等,あるいはそれ以上の性能を示すことでよく知られている.原理的には,検索課題$q$と文書ベクトル$d_i$が与えられた時に,その文書が検索課題に適合している確率を推計するものである.検索課題$q$と文書$d_i$の索引語の語の総数(異なり)を$M$とすれば,検索課題$q$に対する文書$d_i$の得点$s_q(d_i)$は以下の式で表される.\begin{equation}s_q(d_i)=\sum_{j=1}^M(w_{ij}\timesx_{qj}\times\tau_j)\end{equation}ただし,$x_{qj}$は検索課題$q$での語$t_j$の出現回数である.ここで\begin{gather}w_{ij}=\frac{3.0x_{ij}}{(0.5+1.5l_i/\bar{l})+x_{ij}}\\\tau_j=\log\frac{N-n_j+0.5}{n_j+0.5}\end{gather}である.$x_{ij}$は文書$d_i$での$t_j$の出現回数であり,$N$は文書総数で,$n_j$は語$t_j$が出現する文書数である.なお,\begin{equation}l_i=\sum_{j=1}^M{x_{ij}}\end{equation}は文書$d_i$の長さであり,\begin{equation}\bar{l}=\frac{1}{N}\sum_{i=1}^N{l_i}\end{equation}はデータベース全体での文書長の平均を意味する.\subsection{評価結果}平均精度の平均(MAP)を表\ref{table:MAP_with_other_method}に示す.再現率—精度グラフを図\ref{fig:RPC_with_other_method(level1)},\ref{fig:RPC_with_other_method(level2)}に示す.\begin{table}[b]\caption{MAP(表記のみ活用する他の手法との比較)}\label{table:MAP_with_other_method}\input{02table11.txt}\end{table}表\ref{table:MAP_with_other_method}より,LEVEL1では提案手法の精度はベクトル空間モデルより20.30\%,OkapiBM25より17.91\%,EMDより9.22\%の精度向上を達成し,LEVEL2では提案手法の精度はベクトル空間モデルより10.71\%,OkapiBM25より9.45\%,EMDより4.03\%の精度向上を達成した.図\ref{fig:RPC_with_other_method(level1)},\ref{fig:RPC_with_other_method(level2)}より全ての再現率レベルで精度が改善している.この結果より単語間の関連性にもとづき文書間の類似性を求める本手法が有効であることがわかる.また,ベクトル空間モデルより素朴なEMDがよりよい結果となっている.これは,EMDが輸送問題として距離を計算していることに起因する.例えば,検索課題を$(\sqrt{3}/2,1/2)$としたとき,ベクトル空間モデルでは$(1,0)$と$(1/2,\sqrt{3}/2)$では同じ類似度の0.866となるが,EMDでは0.134と0.268と異なり,(1,0)の方が検索要求に近くなる.これは$(1,0)$では一番目の方が大きいが,$(1/2,\sqrt{3}/2)$では反転していることが理由である.本実験ではこの効果が良い方に働いていると考えられる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f6.eps}\caption{LEVEL1での再現率—精度グラフ(他手法との比較)}\label{fig:RPC_with_other_method(level1)}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f7.eps}\caption{LEVEL2での再現率—精度グラフ(他手法との比較)}\label{fig:RPC_with_other_method(level2)}\end{center}\end{figure}次に,比較手法と提案手法が統計的に有意な差があるか検定を行った.検定方法は参考文献\cite{kishida:01}を参考にした.以下にその検定方法を述べる.比較する2つの手法を$a$と$b$,検索課題数を$K$,検索課題$h$の平均精度を$v_h$とし,MAPを$\bar{v}=K^{-1}\sum_{h=1}^Kv_h$とする.同一の検索課題に対する2つの平均精度を比較することになるので,対標本と捉えることができ,検索課題ごとの手法間の差自体を標本と考える.すると,帰無仮説「2つの手法の平均精度の母平均の差は0である」の下に正規母集団を仮定すれば,\begin{equation}t=\frac{\bar{v_a}-\bar{v_b}}{\sqrt{\frac{s_a^2+s_b^2-2Cov_{ab}}{K}}}\end{equation}が自由度$K-1$の$t$分布に従うことになる.この時,$s_a^2$と$s_b^2$は平均精度の標本分散であり,$Cov_{ab}$は$v_{ha}$と$v_{hb}$との共分散で,$Cov_{ab}=(K-1)^{-1}\sum_{h=1}^{K}(v_{ha}-\bar{v_a})(v_{hb}-\bar{v_b})$となる.この検定方法を利用し,今回の実験でのLEVEL1における提案手法と比較手法の中で一番評価が高かった素朴なEMDとの評価に有意な差があるかどうか片側検定を行う.$a$を提案手法,$b$を素朴なEMDとすると,$s_a^2=0.071701$,$s_b^2=0.067863$,$\bar{v_a}-\bar{v_b}=0.044005$,$Cov_{ab}=0.056419$となるので,$t=1.723548$となる.自由度40の$t$分布に従うので,$1.723548>1.684$より,帰無仮説は棄却され,5\%水準で提案手法と素朴なEMDとの差は有意であることがわかる.また,同様の検定をベクトル空間モデルと行うと$t=3.01916$,OkapiBM25では$t=3.563336$となり1\%水準で有意な差があることを確認できた.提案手法が表記に頼る比較手法に比べ統計的に有意な差があることがわかった.
\section{概念ベースの自動拡張手法の評価}
概念ベースの自動拡張手法の効果を検証するために,自動拡張手法を用いない手法(概念ベースに存在しない索引語で同じ索引語間の距離を0それ以外の距離を1)と提案手法との比較評価を行った.評価方法は\ref{evaluationmethod}節と同様の方法で行った.以下,自動拡張手法を用いないEMDと概念ベースを組み合わせた手法をEMD+CBと記す.平均精度の平均(MAP)を表\ref{table:MAP(level1)}に示す.再現率—精度グラフを図\ref{figure:RPC(level1)},\ref{figure:RPC(level2)}に示す.表\ref{table:MAP(level1)}から分かるように,LEVEL1において1.58\%の精度向上を達成し,LEVEL2において3.04\%向上している.LEVEL1においては全ての再現率レベルで提案手法がEMD+CBを上回っているが,LEVEL2においては再現率レベル0.3の点で0.0001だけEMD+CBを下回っている.より詳細に検証するために,検索課題ごとの平均精度の差をプロットしたものを図\ref{figure:difference_from_average_precision}に示す.横軸は本実験における検索課題の番号(1〜41)で,縦軸は検索課題毎のグラフが上に伸びているほど自動拡張手法によって精度が向上したことを示し,逆に下にのびているほど精度は低下していることを示している.この結果から検索課題14と検索課題29の時に精度の低下が著しいことがわかる.\begin{table}[b]\caption{MAP(自動拡張手法使用と未使用での比較)}\label{table:MAP(level1)}\input{02table12.txt}\end{table}課題14は「宮部みゆきの執筆した小説に対する書評・レビューが読みたい」という課題で,課題29は「シフォンケーキの作り方が書かれている文書を探したい.」といった課題である.これらに形態素解析を施し,検索課題idfによる不要語の削除を行うと,検索課題14は「宮部/みゆき/執筆/小説/書評/レビュー」となり,検索課題29は「シフォンケーキ/作り方」となる.このうち未定義語は「宮部/シフォンケーキ」であった.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f8.eps}\caption{LEVEL1での再現率—精度グラフ(自動拡張手法使用と未使用での比較)}\label{figure:RPC(level1)}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f9.eps}\caption{LEVEL2での再現率—精度グラフ(自動拡張手法使用と未使用での比較)}\label{figure:RPC(level2)}\end{center}\end{figure}検索課題14と検索課題29における上位25件の順位の変動を図\ref{figure:change_of_order}に示す.図\ref{figure:change_of_order}において色が付いてる文書がLEVEL1における正解文書である.一番精度低下が著しかった課題29で,EMD+CBにおいて47位であった不適合文書が提案手法では3位に,5位であった不適合文書が4位になり,適合文書が3位から5位に下がった.提案手法において5位であった高適合文書と3位であった不適合文書を図\ref{figure:high_conformity_document},\ref{figure:non_conformity_document}に示す.3位の文書はケーキ屋の紹介が書かれている文書で,4位の文書もケーキに関する文書であった.5位の高適合文書はシフォンケーキの作り方の手順が書いてあった.提案手法では,シフォンケーキがケーキに関する様々な語と高関連であると判定し,ケーキに関する文書が検索の上位にきてしまった.ユーザは「ケーキの作り方」と入力せず「シフォンケーキの作り方」と入力したのはケーキ全般の情報よりシフォンケーキに絞った情報が欲しいといったことを暗に示していると考えられ,シフォンケーキを定義してしまったことが悪影響を及ぼしてしまった.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f10.eps}\caption{課題別の平均精度の差}\label{figure:difference_from_average_precision}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f11.eps}\caption{課題14と課題29における上位25件のランク付け}\label{figure:change_of_order}\end{center}\end{figure}シフォンケーキのようなケーキといった一般的な語に比べ,具体的な語はユーザが検索結果を絞るために用いる語であり,具体的な語に対しては,表記に頼る方が有効に働くと考えられる.具体的な語を判別し,なんらかの対応を行うことでこの問題は解決できると考えられる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f12.eps}\caption{高適合文書}\label{figure:high_conformity_document}\end{center}\vspace{-0.5\baselineskip}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f13.eps}\caption{不適合文書}\label{figure:non_conformity_document}\end{center}\vspace{-1\baselineskip}\end{figure}
\section{おわりに}
本論文では,索引語の関連性を概念ベースにより定義し,それをもとにEMDによって文書間の類似性を求める手法を提案した.\pagebreakさらに概念ベースに存在しない語においてはWebをもとに語の意味を定義し概念ベースを自動的に拡張することで対応し,全ての索引語間の距離を概念ベースにより求めることを可能とする手法を提案した.そして,その有効性をWeb検索評価用テストコレクションNTCIR3-WEBを用いて検証した.結果として,表記に頼る他の手法に比べ良好な結果を得て,単語の関連性に着目した本手法の有効性を確認できた.さらに,統計的検定を用いることで,提案手法と比較手法の性能の差に有意性があることを確認した.またWebにより概念ベースを自動的に拡張する手法を使用と未使用で比較評価を行い,Webにより未定義語を定義することの有効性を示し,あらゆる新語に対応できる索引語の網羅性を実現した.今後の研究課題としては,検索要求内に具体的な語が含まれている場合の対応である.ユーザは検索結果を絞るために具体的な語を用いていると考えられ,これらの語をシソーラスなどをもとに判別し対応を行えば更なる精度向上が期待できる.また,今後は情報検索に限らず文書分類など様々な分野へ応用していきたい.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{笠原\JBA松澤\JBA石川}{笠原\Jetal}{1997}]{kasahara:97}笠原要\JBA松澤和光\JBA石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類似性判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(7),\mbox{\BPGS\1272--1283}.\bibitem[\protect\BCAY{岸田}{岸田}{2001}]{kishida:01}岸田和明\BBOP2001\BBCP.\newblock\JBOQ検索実験における評価指標としてのMeanAveragePrecisionの性質\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2001}(74),\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima:02}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法—属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{Miller}{Miller}{1995}]{Miller:95}Miller,G.\BBOP1995\BBCP.\newblock\BBOQWordNet:AlexicaldatabaseforEnglish\BBCQ\\newblock{\BemCommun.ACM},{\Bbf38}(11),\mbox{\BPGS\39--41}.\bibitem[\protect\BCAY{奥村\JBA土屋\JBA渡部\JBA河岡}{奥村\Jetal}{2007}]{okumura:07}奥村紀之\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2007\BBCP.\newblock\JBOQ概念間の関連度計算のための大規模概念ベースの構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\41--64}.\bibitem[\protect\BCAY{Robertson,Walker,Jones,Beaulieu,\BBA\Gatford}{Robertsonet~al.}{1995}]{Robertson:95}Robertson,S.,Walker,S.,Jones,S.,Beaulieu,M.,\BBA\Gatford,M.\BBOP1995\BBCP.\newblock\BBOQOkapiatTREC-3\BBCQ\\newblockIn{\BemInproceedingofthe3rdTextRetrievalConference},\mbox{\BPGS\109--126}.\bibitem[\protect\BCAY{Rubner,Tomasi,\BBA\Guibas}{Rubneret~al.}{2000}]{Rubner:00}Rubner,Y.,Tomasi,C.,\BBA\Guibas,L.\BBOP2000\BBCP.\newblock\BBOQTheearthmover'sdistanceasametricforimageretrieval\BBCQ\\newblock{\BemInt.J.Comput.Vision},{\Bbf40},\mbox{\BPGS\99--121}.\bibitem[\protect\BCAY{Salton\BBA\Buckley}{Salton\BBA\Buckley}{1988}]{Salton:88}Salton,G.\BBACOMMA\\BBA\Buckley,C.\BBOP1988\BBCP.\newblock\BBOQTerm-weightingapproachesinautomatictextretrieval\BBCQ\\newblock{\BemInformationProcessingandManagement},{\Bbf41}(4),\mbox{\BPGS\513--523}.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{Salton:75}Salton,G.,Wong,A.,\BBA\Yang,C.\BBOP1975\BBCP.\newblock\BBOQAVectorspacemodelforautomaticindexing\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(3),\mbox{\BPGS\613--6201}.\bibitem[\protect\BCAY{辻\JBA渡部\JBA河岡}{辻\Jetal}{2004}]{tuji:04}辻泰希\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQwwwを用いた概念ベースにない新概念およびその属性獲得手法\JBCQ\\newblock\Jem{第18回人工知能学会全国大会論文集,2D1-02}.\bibitem[\protect\BCAY{Wan\BBA\Peng}{Wan\BBA\Peng}{2006}]{Wan:06}Wan,X.\BBACOMMA\\BBA\Peng,Y.\BBOP2006\BBCP.\newblock\BBOQTheEarthMover'sDistaceasaSemanticMeasureforDocumentSimilality\BBCQ\\newblockIn{\BemProceedingofthe14thACMinternationalconferenceonInformationandknowledgemanagement},\mbox{\BPGS\301--302}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{watabe:06}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ概念の意味属性と共起情報を用いた関連度計算方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{柳本\JBA大松}{柳本\JBA大松}{2007}]{yanagimoto:07}柳本豪一\JBA大松繁\BBOP2007\BBCP.\newblock\JBOQEarthMover'sDistanceを類似度として用いた情報検索\JBCQ\\newblock\Jem{平成19年度電気学会全国大会,3-065}.\end{thebibliography}\begin{biography}\bioauthor{藤江悠五}{2007年同志社大学工学部知識工学科卒業.2009年同大学院工学研究科知識工学専攻博士前期課程修了.同年,パナソニック株式会社入社.知識情報処理の研究に従事.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.現在同教授.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,同志社大学工学部教授.2009年定年退職.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\biodate\end{document}
| |
V03N02-01
|
\section{はじめに}
\label{haji}終助詞は,日本語の会話文において頻繁に用いられるが,新聞のような書き言葉の文には殆んど用いられない要素である.日本語文を構造的に見ると,終助詞は文の終りに位置し,その前にある全ての部分を従要素として支配し,その有り方を規定している.そして,例えば「学生だ」「学生だよ」「学生だね」という三つの文が伝える情報が直観的に全く異なることから分かるように,文の持つ情報に与える終助詞の影響は大きい.そのため,会話文を扱う自然言語処理システムの構築には,終助詞の機能の研究は不可欠である.そこで,本稿では,終助詞の機能について考える.\subsection{終助詞の「よ」「ね」「な」の用法}まずは,終助詞「よ」「ね」「な」の用法を把握しておく必要がある.終助詞「よ」「ね」については,\cite{kinsui93-3}で述べられている.それによると,まず,終助詞「よ」には以下の二つの用法がある.\begin{description}\item[教示用法]聞き手が知らないと思われる情報を聞き手に告げ知らせる用法\item[注意用法]聞き手は知っているとしても目下の状況に関与的であると気付いていないと思われる情報について,聞き手の注意を喚起する用法\end{description}\res{teach}の終助詞「よ」は教示用法,\rep{remind}のそれは注意用法である.\enumsentence{あ,ハンカチが落ちました{\dgよ}.}\label{teach}\enumsentence{お前は受験生だ{\dgよ}.テレビを消して,勉強しなさい.}\label{remind}以上が\cite{kinsui93-3}に述べられている終助詞「よ」の用法であるが,漫画の中で用いられている終助詞を含む文を集めて検討した結果,さらに,以下のような,聞き手を想定しない用法があった.\enumsentence{「あーあまた放浪だ{\dgよ}」\cite{themegami}一巻P.50}\label{hitori1}\enumsentence{「先輩もいい趣味してる{\dgよ}」\cite{themegami}一巻P.114}\label{hitori2}本稿ではこの用法を「{\dg独り言用法}」と呼び,終助詞「よ」には,「教示」「注意」「独り言」の三用法がある,とする.次に,終助詞「ね」について,\cite{kinsui93-3}には以下の三種類の用法が述べられている.\begin{description}\item[確認用法]話し手にとって不確かな情報を聞き手に確かめる用法\item[同意要求用法]話し手・聞き手ともに共有されていると目される情報について,聞き手に同意を求める用法\item[自己確認用法]話し手の発話が正しいかどうか自分で確かめていることを表す用法\end{description}\rep{confirm}の終助詞「ね」は確認用法,\rep{agree}Aのそれは同意要求用法,\rep{selfconfirm}Bのそれは自己確認用法である.\enumsentence{\label{confirm}\begin{tabular}[t]{ll}\multicolumn{2}{l}{(面接会場で)}\\面接官:&鈴木太郎君です{\dgね}.\\応募者:&はい,そうです.\end{tabular}}\enumsentence{\label{agree}\begin{tabular}[t]{ll}A:&今日はいい天気です{\dgね}.\\B:&ええ.\end{tabular}}\enumsentence{\label{selfconfirm}\begin{tabular}[t]{ll}A:&今何時ですか.\\B:&(腕時計を見ながら)ええと,3時です{\dgね}.\end{tabular}}以上が,\cite{kinsui93-3}で述べられている終助詞「ね」の用法であるが,本稿でもこれに従う.\rep{confirm},\rep{agree}A,\rep{selfconfirm}Bの終助詞の「ね」を「な」に代えてもほぼ同じような文意がとれるので,終助詞「な」は,終助詞「ね」と同じ三つの用法を持っている,と考える.ところで,発話には,聞き手を想定する発話と,聞き手を想定しない発話があるが,自己確認用法としての終助詞「ね」は主に聞き手を想定する発話で,自己確認用法としての終助詞「な」は主に聞き手を想定しない発話である.さらに,\res{megane}のような,終助詞「よ」と「ね/な」を組み合わせた「よね/よな」という形式があるが,これらにも,終助詞「ね」「な」と同様に,確認,同意要求,自己確認用法がある.\enumsentence{(眼鏡を探しながら)私,眼鏡ここに置いた{\dgよね}/{\dgよな}.}\label{megane}\subsection{従来の終助詞の機能の研究}さて,以上のような用法の一部を説明する,計算言語学的な終助詞の機能の研究は,過去に,人称的分析によるもの\cite{kawamori91,kamio90},談話管理理論によるもの\cite{kinsui93,kinsui93-3},Dialoguecoordinationの観点から捉えるもの\cite{katagiri93},の三種類が提案されている.以下に,これらを説明する.ところで,\cite{kawamori91}では終助詞の表す情報を「意味」と呼び,これに関する主張を「意味論」と呼んでいる.\cite{kinsui93,kinsui93-3}では,それぞれ,「(手続き)意味」「(手続き)意味論」と呼んでいる.\cite{katagiri93}では,終助詞はなにがしかの情報を表す「機能(function)」があるという言い方をしている.本論文では,\cite{katagiri93}と同様に,「意味」という言葉は用いずに,終助詞の「機能」を主張するという形を取る.ただし,\cite{kawamori91},\cite{kinsui93,kinsui93-3}の主張を引用する時は,原典に従い,「意味」「意味論」という言葉を用いることもある.\begin{flushleft}{\dg人称的分析による意味論}\cite{kawamori91,kamio90}\end{flushleft}この意味論では,終助詞「よ」「ね」の意味は,「従要素の内容について,終助詞『よ』は話し手は知っているが聞き手は知らなそうなことを表し,終助詞『ね』は話し手は知らないが聞き手は知っていそうなことを表す」となる.この意味論では,終助詞「よ」の三用法(教示,注意,独り言)のうち教示用法のみ,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち確認用法のみ説明できる.終助詞「よ」と「ね」の意味が同時に当てはまる「従要素の内容」はあり得ないので,「よね」という形式があることを説明出来ない.また,聞き手が終助詞の意味の中に存在するため,聞き手を想定しない終助詞「よ」「ね」の用法を説明できない.この二つの問題点(とその原因となる特徴)は,後で述べる\cite{katagiri93}の主張する終助詞の機能でも同様に存在する.\begin{flushleft}{\dg談話管理理論による意味論}\cite{kinsui93,kinsui93-3}\end{flushleft}この意味論では,「日本語会話文は,『命題+モダリティ』という形で分析され,この構造は『データ部+データ管理部』と読み替えることが出来る」,という前提の元に,以下のように主張している.終助詞は,データ管理部の要素で,当該データに対する話し手の心的データベース内における処理をモニターする機能を持っている.この意味論は,一応,前述した全用法を説明しているが,終助詞「よ」に関して,後に\ref{semyo}節で述べるような問題点がある.終助詞「ね」「な」に関しても,「終助詞『ね』と『な』の意味は同じ」と主張していて,これらの終助詞の性質の差を説明していない点が問題点である.\begin{flushleft}{\bfDialoguecoordination}{\dgの観点から捉えた終助詞の機能}\cite{katagiri93}\end{flushleft}\cite{katagiri93}では,以下のように主張している.終助詞「よ」「ね」は,話し手の聞き手に対する共有信念の形成の提案を表し,さらに,終助詞「よ」は話し手が従要素の内容を既に信念としてアクセプトしていることを,終助詞「ね」は話し手が従要素の内容をまだ信念としてアクセプトしていないことを,表す.これらの終助詞の機能は,終助詞「よ」の三用法(教示,注意,独り言)のうち独り言用法以外,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち,自己確認用法以外を説明できる.この終助詞の機能の問題点は,\cite{kawamori91,kamio90}の意味論の説明の終りで述べた通りである.\subsection{本論文で提案する終助詞の機能の概要}本論文では,日本語会話文の命題がデータ部に対応しモダリティがデータ管理部に対応するという\cite{kinsui93-3}の意味論と同様の枠組を用いて,以下のように終助詞の機能を提案する.ただし,文のデータ部の表すデータを,簡単に,「文のデータ」と呼ぶことにする.終助詞「よ」は,データ管理部の構成要素で,「文のデータは,発話直前に判断したことではなく,発話時より前から記憶にあった」という,文のデータの由来を表す.終助詞「ね」「な」も,データ管理部の構成要素で,発話時における話し手による,文のデータを長期的に保存するかどうか,するとしたらどう保存するかを検討する処理をモニターする.さて,本稿では,終助詞を含む文の,発話全体の表す情報と終助詞の表す情報を明確に区別する.つまり,終助詞を含む文によって伝えられる情報に,文のデータと話し手との関係があるが,それは,終助詞で表されるものと語用論的制約で表されるものに分けることができる.そこで,どこまでが終助詞で表されるものかを明確にする.ただし,本稿では,活用形が基本形(終止形)または過去形の語で終る平叙文を従要素とする用法の終助詞を対象とし,名詞や動詞のテ形に直接付加する終助詞については,扱わない(活用形の呼び方については\cite{katsuyou}に従っている).また,上向きイントネーションのような,特殊なイントネーションの文も扱わない.さらに,終助詞「な」は,辞書的には,命令の「な」,禁止の「な」,感動の「な」があるが,本稿では,これらはそれぞれ別な語と考え,感動の「な」だけ扱う.以下,本論文では,\ref{bconcept}節で,我々の提案する終助詞の機能を表現するための認知主体の記憶モデルを示し,これを用いて\ref{sem}節で終助詞の機能を提案し,終助詞の各用法を説明する.\ref{conclusion}節は結論である.
\section{認知主体の記憶のモデル}
\label{bconcept}\subsection{階層的記憶モデル}\label{class}終助詞「よ」の表す文のデータの由来や,終助詞「ね」「な」の表す文のデータの保存のための処理を,表現するためには,認知主体の記憶をモデル化する必要がある.本稿では,階層的記憶モデルを用いてこれを行なう.これは,認知心理学の分野で作られたモデルである\cite{koyazu85}\nocite{tanaka92}.本稿では,\cite{kinsui92}の三階層の階層的記憶モデルの二階層のそれぞれを確信・信念の二領域に分割したモデルを仮定する.階層的記憶モデルは,談話記憶領域,出来事記憶領域,長期記憶領域からなる.以下,談話記憶領域をDMA(DiscourseMemoryArea),出来事記憶領域をEMA(EpisodicMemoryArea),長期記憶領域をLMA(LongtermMemoryArea)と呼ぶことにする.また,EMAとLMAを合わせて「EMA以下」と言うことにする.DMAでは,音声情報や文字情報,言語情報,概念情報などの処理がなされる.EMAには,会話の過程で参照する情報及び生成した概念情報が蓄えられる.会話している場面の情報もここに蓄えられる.ここにある情報は,DMAにある情報ほどではないが,認知主体自身から注意を払われている.LMAには,語彙情報,文法情報,常識などが蓄えられている.ここにある情報は,注意を払われていない.これらの記憶階層において,DMAは,最も浅い階層にあり,ここにある情報は認知主体が直接参照できる.EMAは,LMAとDMAの中間の階層にあり,ここにある情報は,直接参照されることはなく,DMAを介して参照される.LMAは,最も深い階層にあり,ここにある情報も,直接参照されることはなく,EMAとDMAを介して参照される.言語器官から入力された情報はDMAに置かれ,EMAとLMAの情報を参照することによってDMA上で処理され,それにより結果的に導かれた情報はEMAに伝達される.EMAに伝達された情報の一部は,無意識的にLMAに伝達される.さて,情報はただ来た順番に記憶領域に積み重ねているのではない.むしろ,この記憶システムは高度なデータベースシステムとなっている.特に,DMAにある命題をキーとして,EMA以下(主に,LMA)にあるその命題の真偽に関係する情報を短時間のうちに検索してまとめてEMAに持ってくることが出来る.ここで,「確認する」という言葉を,以下のように定義する.\enumsentence{{\dg「確認する」の定義}\\\label{dif-confirm}「ある認知主体Aが,ある命題PをA自身のDMAに置いて,Pの真偽に関係する情報を,A自身のEMA以下(主にLMA)から検索してまとめてA自身のEMAに持ってきて,それらの情報とPの間に矛盾が生じないことを確かめる」ことを「認知主体Aが命題Pを確認する」と言う.}この定義は,後で,終助詞「ね」の機能の説明に用いる.\subsection{「確信」「信念」}\label{kandb}ある認知主体が信じている情報には,信じる強さに違いがある.例えば,ある認知主体が「月が地球の衛星であること」を信じているとする.この命題を,このことを知っていそうもない五,六歳の子供に発話する時は,殆んどこのことを「確信」として発話するだろう.一方,天文学者を前にした時は「確信でない信念」として発話する場合もありえよう.このように,ある命題を伝える側の認知主体にとって,その命題を確信とするか否かは,その命題を伝えられる側の認知主体との相対的関係に依存する.このことは,以下の\rep{kb}(※)に反映している.本稿ではこのような観点から「確信」「信念」の定義を行なう.本稿では,「信じる強さ」の一次近似として,強く信じている場合を「確信している」,信じてはいるが確信していない場合を「信じている」とする.また,確信していることを「確信」,信じていることを「信念」,と呼ぶことにする.そして,「\(a\)にとって\(p\)が確信である」「\(a\)にとって\(p\)が信念である」を以下のように定義する.\enumsentence{\label{kb}\(a\)を認知主体とする.\\「\(a\)にとって\(p\)が確信である」とは,以下の二つのどちらかが成立することである.\begin{enumerate}\item\(p\)は,aにとって直接経験により得た情報である\item\(p\)は,aが直接経験によって得た情報\(q\)と,\(q\rightarrowp\)という\(a\)にとっての確信を使って導いたものである\(^{\mbox{{\tiny※}}}\)\end{enumerate}一方,「\(a\)にとって\(p\)が信念である」とは,以下のようなことである.\begin{enumerate}\item\(p\)は,aが直接経験によって得た情報\(q\)と,\(q\rightarrowp\)という\(a\)にとって確信ではない信念を使って導いたものである\(^{\mbox{{\tiny※}}}\)\end{enumerate}(※)\(a\)にとって\(q\rightarrowp\)が確信か否かは,\(a\)を取り巻く状況に依存している.}良く知られていることだが,日本語では,ある認知主体は他の認知主体の主観的経験を,確信として発話出来ないことに注意されたい.\ref{sem}節では,このことを利用して終助詞の機能を考える.なお,ある情報に対する確信・信念の区別は,その情報を記憶するときになされる,とする.つまり,DMAにある情報をEMA以下に伝達する時にDMA上でなされる.だから,EMAとLMAは確信と信念の領域に分割されるが,DMAはそうはならない,と考える.図1は,以上の説明を踏まえた認知主体の記憶のモデルである.\begin{center}\begin{tabular}{|c||l|l|}\hline\begin{tabular}[t]{c}談話記憶領域\\(DMA)\end{tabular}&\multicolumn{2}{c|}{a}\\\hline\begin{tabular}[t]{c}出来事記憶領域\\(EMA)\end{tabular}&\begin{tabular}[t]{l}b\\\multicolumn{1}{c}{確信}\end{tabular}&\begin{tabular}[t]{l}c\\\multicolumn{1}{c}{信念}\end{tabular}\\\hline\begin{tabular}[t]{c}長期記憶領域\\(LMA)\end{tabular}&\begin{tabular}[t]{l}d\\\multicolumn{1}{c}{確信}\end{tabular}&\begin{tabular}[t]{l}e\\\multicolumn{1}{c}{信念}\end{tabular}\\\hline\end{tabular}\\[3mm]図1認知主体の記憶のモデル\\Fig.1Modelofacognitiveagent'smemory\end{center}aは談話記憶領域,bとcは出来事記憶領域,dとeは長期記憶領域である.また,bとdは確信のある領域,cとeは信念の領域である以後,記憶モデルは,特に断らない限り,発話時の話し手のものとする.当然,DMA,EMA,LMAも,発話時の話し手のもので,このモデル上での操作も発話時の話し手によるものである.そして,確信,信念も,発話時の話し手にとってのものとする.また,確信/信念について,EMA以下にある情報だけではなく,DMA上にある情報についても,発話後にEMAの確信/信念の部分への伝達が決まっているものは,確信/信念と呼ぶことにする.
\section{終助詞「よ/ね/な」の機能}
\label{sem}\subsection{発話に伴う認知的処理}\label{managedata}認知主体が発話を行なう場合,その前後に,自身の記憶に対して必ず行なう処理がある.例えば,文のデータとなる情報を最も強く意識する,つまり,DMA上に存在させる必要がある.また,文のデータとなったDMA上にある情報を中長期的に保存する必要もある.そのような,発話に伴う処理を\rep{ninchi}に示す.\enumsentence{{\dg発話に伴う処理}\label{ninchi}\begin{enumerate}\itemDMA上の概念が,文のデータとなる(日本語の)文を作り,さらに,音声の形式に変換する\label{ctos}\item文のデータ部を発話する\itemEMA以下にデータを保存する必要があるかどうか,また必要ならその保存方法を検討する\label{store}(文に「データ管理部」の要素がある場合,この発話と並行して行なう)\item必要ならEMA以下に保存する\label{last}\end{enumerate}}\rep{ninchi}\ref{store},\red{last}において,EMA以下にデータを保存する必要がある場合とは,例えば,EMA以下には存在しないデータだった場合である.また,EMA以下から持ってきた情報でも,データがDMA上で変化した場合,例えば,このデータを発話したことがあるというマークをデータ自身に付加する場合は,再保存することになる.DMAの情報と全く同じ信頼性と内容のデータがEMA以下にある場合は,保存する必要はなく,例えば,DMAに持って来られたが,文解析に使われただけで内容の変化しなかった語彙情報は,再保存されずに消去される.\rep{ninchi}\red{store}のように,発話と並行して行なう処理もある.文のデータは,発話の最中はDMAにあり続けることに注意されたい.ところで,\rep{ninchi}\red{ctos}のDMA上の概念には,その由来により,以下の二種類に分けられる.\enumsentence{{\dg文のデータの由来}\label{ddata}\begin{enumerate}\itemDMA上で他のデータからの変換,推論などで導かれたばかりのもの\label{immid}\item以前DMAにおいて導かれた後EMA以下に保存されていて,再びDMAに持ってこられたもの\label{fromE}\end{enumerate}}文のデータの由来が\rep{ddata}\red{immid}の場合,そのデータが導かれた時刻を「発話直前」と言うことにする.また,文のデータの由来が\rep{ddata}\red{fromE}の場合,そのデータが導かれた時刻を「発話時より前」と言うことにする.\subsection{発話に伴う語用論的制約}\subsubsection{文のデータの制約}「太郎は学生だ」という文のデータは,普通,話し手の確信である.しかし,{\dg文の中に,文のデータが確信であるかどうかを示す要素は無い}.このことから,逆に,文のデータが確信でないことを示す表現がなければ文のデータを確信とみなすべきである,という制約があることになる.文のデータが確信でないことを示すものとしては,例えば,上向きイントネーションで発話すれば,いわゆる疑問文になることがある.本稿では,\ref{haji}節で述べたように,特殊なイントネーションの文は扱っていない.また,\cite{kamio90}などが示すように終助詞「ね」「な」も,文のデータが確信でない可能性を示す表現である.まとめると,以下の制約となる.\enumsentence{{\dg文のデータの制約}\\\label{datakn}文のデータは,後の部分(データ評価部とデータ管理部)で話し手にとって確信でない可能性が示されなければ,確信である.文のデータが確信でない可能性を示す形式には,データ評価部に現れる要素の「だろう」,データ管理部に現れる要素の「ね」「な」がある.}一般に終止形,過去形で終る文が話し手の確信を表すのは,この制約のためである.\cite{kawamori91}の意味論では,文のデータが話し手の確信であることを,終助詞「よ」の表す情報に含めてしまっていたため,「よね/よな」を説明できなくなっていた.本稿で提案する終助詞「よ」の表す情報には,文のデータが話し手の確信であることを含めていないので,「よね/よな」を説明でき,しかも,発話「\(\Phi\)--よ」で\(\phi\)の内容が確信であることをも説明できる.\subsubsection{会話の目的の制約}\ref{haji}節の終りで述べた本稿で扱う範囲の文が会話で用いられる場合,それには,\rep{cobj}のような通常の会話参加者が同調している語用論的制約がある.\enumsentence{\label{cobj}{\dg会話の目的}\\会話の目的は,話し手および聞き手の内的世界が,話題に関して同一の状態になることである.\cite{kamio90}}これは,\cite{katagiri93}が提案する終助詞「よ」「ね」の機能に含まれていた,「共有信念の提案」に相当する.本稿で提案する終助詞「よ」「ね」の機能には,共有信念の提案は含めない.聞き手を含む終助詞の用法は,制約\rep{cobj}を用いて説明することになる.\subsection{終助詞「よ」の機能と発話「\(\Phi\)--よ」が伝える情報}\label{semyo}終助詞「よ」の機能を考える上で,以下の二つの観察に注目する\begin{obserb}\label{yohyp1}火のついているストーブにうっかり手を触れてしまった場面で,その瞬間に,思わず「熱い」と言うことがあっても,「熱い{\dgよ}」と言うことはあり得ない.「熱い」と言った後に「\verb+(+このストーブ\verb+)+熱い{\dgよ}」と言うことは可能である.\end{obserb}\begin{obserb}\label{yohyp2}「私は眠い{\dgよ}」という文のデータは話し手の確信だが,「君,今,眠い{\dgよね/よな}」という文のデータは,聞き手の主観的経験なので,話し手の確信ではない.\end{obserb}\reobs{yohyp1},\ref{yohyp2}から,終助詞「よ」の機能を以下のように提案する.\enumsentence{{\dg終助詞「よ」の機能}\\\label{yo}DMA中の文のデータが発話直前にEMA以下より持ってきたものであることを,表す.}さらに,\rep{yo}とGriceの会話の公理の中の量の公理により,終助詞「よ」がないことに関して以下のことが導かれる.\enumsentence{\label{noyokinou}{\dg終助詞「よ」が無いことが表す情報}\\DMA中の文のデータは,発話直前に他の情報から(変換,推論などして)DMA上に導いた情報である.}以下,\(\phi\)\hspace{-0.1mm}は文のデータとし,\(\Phi\)\hspace{-0.2mm}を\hspace{-0.2mm}\(\phi\)に対応する文の表層上の表現とする.すると,\(\Phi\)\hspace{-0.1mm}は終助詞を含\\まないので,終助詞「よ」や「ね」が無いことが何かを表すとするなら,発話「\(\Phi\)--よ」についても,「ね」「な」が無いことが何を表すのかを考慮する必要がある.実際,後で述べるように,終助詞「ね」も「な」も無いことが表す情報として\rep{nonenakinou}があるので,発話「\(\Phi\)--よ」が表す情報の一部として\rep{syo}\red{syo3}が得られる.これと,終助詞「よ」の表す情報\rep{yo}と,文のデータの制約\rep{datakn}により,発話「\(\Phi\)--よ」の表す情報は以下のようになる.\enumsentence{\label{syo}{\dg発話「\(\Phi\)--よ」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前にEMA以下から持ってきたものであり,かつ,\label{syo1}\item\(\phi\)は,確信であり,かつ,\label{syo2}\item\(\phi\)は,発話後直ちにEMA以下に確信として保存される\label{syo3}\end{enumerate}}終助詞「よ」の三用法(教示,注意,独り言)の差は,意味論ではなく語用論のレベルのものである.話し手が,「聞き手は\(\phi\)を確信していない」と予想し,\rep{syo}\ref{syo1},\red{syo2}で話し手が\(\phi\)を既に確信\\していることを聞き手に示すことで,会話の目的の制約\rep{cobj}により聞き手にも\(\phi\)を確信させようとする場合は,教示用法である.教示用法の例として\res{teach}を再掲する.\enumsentence{あ,ハンカチが落ちました{\dgよ}.}\label{reteach}\res{reteach}では,話し手が,「ハンカチが落ちました」という事実を確信してなさそうな聞き手に対して発話時以前からこれが話し手の確信になっていることを\rep{syo}\ref{syo1},\red{syo2}で示すことで,会話の目的の制約\rep{cobj}により,この事実が確信であることに関して話し手と聞き手が同一の状態になることを意図しているので,この「よ」は教示用法になる.話し手が,「聞き手は\(\phi\)を確信している\\が注意を払っていない」と予想し,\(\phi\)をEMA以下に確信として保存することを\rep{syo}\red{syo3}で示すとき,この「EMA以下」がLMAではない部分,即ちEMAで,\rep{cobj}により\(\phi\)がEMAにあること(つまり,\(\phi\)に注意を払っていること)に関して話し手と聞き手が同一の状態になることを意図すれば,注意用法になる.注意用法の例として\res{remind}を再掲する.\enumsentence{お前は受験生だ{\dgよ}.テレビを消して,勉強しなさい.}\label{reremind}この場面で,「聞き手が受験生である」ことを,話し手も聞き手も確信している.話し手は聞き手がこれに注意を払っていないと予想し,話し手がこれに注意を払っていることを\rep{syo}\red{syo3}で示し,\rep{cobj}によりこれに注意を払っていることに関して話し手と聞き手が同一の状態になることを意図しているので,聞き手の注意を喚起する用法になる.\rep{syo}にあてはまる\(\phi\)がDMAに現れたときに,思わず,聞き手を想定せずに発話すれば,独り言用法になる.\cite{kinsui93,kinsui93-3}の主張する終助詞「よ」の機能と,本稿で提案した終助詞「よ」の機能は,大きく異なっている.前者の終助詞「よ」の機能は,本稿の記憶モデルで表すと,以下のようになる.まず,EMA以下は幾つかの領域に分割されている.各領域は,何らかの共通点を持った幾つかの情報が保存されている.この領域の一つ一つが\cite{kinsui93,kinsui93-3}の意味論における「文脈」である.領域のうちの一つはDMAと,直接,情報を授受できるようになっている.この領域を仮に「焦点領域」と呼ぶ.EMA以下にあるどの領域も焦点領域になり得る.会話が始まると,EMA以下の領域のうち最もふさわしいものが,話し手である認知主体によって,選ばれ,会話の間ずっと存在し続ける.焦点領域は,終助詞の無い文の発話では,変更されない.そして,終助詞「よ」の機能は\rep{yodmt}の処理を表すことである.\enumsentence{{\dg\cite{kinsui93,kinsui93-3}の意味論で主張されている終助詞「よ」の表す処理}\\\label{yodmt}EMA以下の適当な領域を焦点領域に選択してDMA中の文のデータを転送する}終助詞が無い文では,\rep{yodmt}の処理ではなく,\rep{noyodmt}の処理を行なう.\enumsentence{{\dg終助詞「よ」が無い場合に行なわれる処理}\\\label{noyodmt}現在の焦点領域にDMA中の文のデータを伝える}\rep{yodmt}と\rep{noyodmt}は,焦点領域を選択するか,現在の焦点領域を用いるかで,異なる.現状の焦点領域を維持するなら\rep{yodmt}の「焦点領域に選択する」必要は無いので,\rep{yodmt}を行なう場合,普通,現在のとは異なる焦点領域を選択する.つまり,焦点領域を変更する.以上が,\cite{kinsui93,kinsui93-3}における終助詞「よ」の機能を本稿の記憶モデルで再解釈したものである.これに対し,本稿で提案した終助詞「よ」の機能は,データ部の由来を表すことである.以下に改めて終助詞「よ」の機能\rep{yo}を再掲する.\enumsentence{{\dg終助詞「よ」の機能}\\DMA中の文のデータが発話直前にEMA以下より持ってきたものであることを,表す.}\cite{kinsui93,kinsui93-3}の終助詞「よ」は,文のデータを発話時にDMAからEMA以下の焦点領域の適合する部分に移す処理を表すのに対し,本稿で提案した終助詞「よ」は,EMA以下のどの部分かは問わずに,単に,文のデータが発話直前にEMA以下からDMAに来たことを表す.さて,以上のように全く異なる,終助詞「よ」に関する,\cite{kinsui93,kinsui93-3}で述べる機能と本稿で提案した機能を比較するために,終助詞「よ」に関する\reobs{atui}に注目する.\begin{obserb}\label{atui}話し手が,一生懸命,政治に関する話をしているときに,火のついているストーブにうっかり手を触れてしまった場面で,その瞬間に,思わず「熱い」と言うことがあっても,「熱い{\dgよ}」と言うことはあり得ない.「熱い」と言った後に「\verb+(+このストーブ\verb+)+熱い{\dgよ}」と言うことは可能である.\end{obserb}\cite{kinsui93,kinsui93-3}の意味論では,まず,発話直前の焦点領域は政治に関するものである.そして,「熱い」ことは,政治の話とは無関係であるから,焦点領域を変更すべきである.だから,ストーブに触った瞬間「熱い{\dgよ}」と言うことになってしまい,観察と矛盾する.仮に,「このような緊急の場面では,人間の情報処理能力では焦点領域を選ぶ時間的余裕がない」と説明するとしても,これは,人間の情報処理能力という性質がよく分からない外的な要因を用いた説明で,この能力の異常に速い認知主体には,このような場面でも「熱い{\dgよ}」と言えることになってしまう.これに対し,本稿で提案した終助詞の機能では,「『(触る前の)ストーブが熱い』という情報は,発話時より前,つまり,ストーブに触る以前のEMA以下にはあり得ないから,ストーブに触った瞬間に『熱い{\dgよ}』とは言えない」と終助詞「よ」の本質的な機能に基づいて説明できる.次に,\cite{kinsui93,kinsui93-3}に述べられている,以下の現象に注目する.\begin{obserb}\label{1a1}「\(1+1\)は\verb+?+」という問いに「\(2\)です」と答えずに「\(2\)です{\dgよ}」と答えることで,「何でそんなことを聞くのか」という回答者の``いぶかしみ''が表現される\end{obserb}\cite{kinsui93,kinsui93-3}では,これを以下のように説明している.焦点領域を変更しない場合,「\(2\)です{\dgよ}」と答えることで,焦点領域を,「何でそんなことを聞くのか」というAの発話の意図の推測までを含んだ発話状況に関するものに変更することが,表されるので,その結果として\reobs{1a1}の``いぶかしみ''が表現される.本稿で提案した終助詞の機能では,次のように説明する.\(1+1\)が\(2\)であることは,その場で計算するまでもなく誰でも知っている.つまり,誰にとってもDMAで計算して導くまでもなく,質問される以前から記憶(この場合,EMA以下の確信の部分)にあることである.そのため,「\(2\)です{\dgよ}」という発話は,終助詞「よ」により,\(1+1\)が\(2\)であることが,発話時より前から記憶にあることが示され,「そんなこと,私が知らない筈ないではないか.なのに何で聞くんだ」という具合に,\reobs{1a1}の``いぶかしみ''が表現される.つまり,我々の理論は「何で聞くのか」という発話意図をより明確に導くことが出来る.\subsection{「ね」の機能}\label{semnena}\cite{katagiri93}で,終助詞「ね」の機能の一部について,「終助詞『ね』は話し手が文の従要素の内容をまだ信念としてアクセプトしていないことを表す」と主張していた.これは,本稿の記憶モデルで再解釈すると,以下のようになる.\enumsentence{\label{nenahyp1}終助詞「ね」「な」は,文のデータを,EMAに伝達せずに,DMA上に保っていることを表す.}次に,「ね」「な」について以下の観察がある.\begin{obserb}\label{nenahyp2}「私は眠い{\dgね}/{\dgな}」という文のデータは話し手の確信だが,「君,今,眠い{\dgね}/{\dgな}.」という文のデータは,聞き手の主観的経験なので,話し手の確信ではない.\end{obserb}さらに,終助詞「ね」と「な」の機能が同じではないことを示す以下のような現象がある.\begin{obserb}\label{nenahyp3}「眠い{\dgな}」は眠い人を話し手{\dgのみ}と解釈しやすいが,「眠い{\dgね}」では必ずしもそうではない\verb+(+少なくとも筆者の第一の読みは,話し手と聞き手の両方である\verb+)+.\end{obserb}このことは,終助詞「ね」が確認作業を表すが「な」は表さない,と考えれば説明できる.つまり,「話し手{\dgのみ}が眠い」かどうかは話し手にとって確認するまでもないことなので,「眠い{\dgね}」の眠い人は話し手{\dgのみ}にはならない.「確認」の定義は\rep{dif-confirm}で既に述べた.我々の利用している記憶の階層モデルによれば,\rep{nenahyp1}および\reobs{nenahyp2},\ref{nenahyp3}から,終助詞「ね」の機能は以下のようになる.\enumsentence{\label{ne}{\dg終助詞「ね」の機能}\\文のデータを確認中であることを,表す.}\rep{ne}の確認の間は,文のデータはDMA上にあり続けることに注意されたい.次に,終助詞「な」の機能は以下のようになる.\enumsentence{\label{na}{\dg終助詞「な」の機能}\\文のデータになんらかの処理をしている最中であることを,表す}こちらも,終助詞「ね」の場合と同様,文のデータは,(EMAに伝達せずに)DMA上にあり続けることになる.終助詞「ね」を含む文では,終助詞「ね」の機能\rep{ne}により,文のデータが確かめる必要のないものだと,不自然になる.例えば,山田太郎という名前の男の「?私は山田太郎だ{\dgね}」という発話は不自然である.同様に,終助詞「な」を含む文は,文のデータが何らかの処理をする必然性の無いものの場合,終助詞「な」の機能\rep{na}により,不自然になる.例えば,次郎という名の男による「?私は次郎だ{\dgな}」という発話は不自然である.\rep{ne},\rep{na}とGriceの会話の公理の中の量の公理により,終助詞「ね」も「な」も無いことは,\rep{ninchi}\red{store}の処理において終助詞「ね」の機能\rep{ne},「な」の機能\rep{na}で表すような処理がなされていないことを表す.\enumsentence{\label{nonenakinou}{\dg終助詞「ね」も「な」も無いことが表す情報}\\必要ならば,文のデータを直ちにEMAの適当な部分(確信の部分か信念の部分)に伝達することを表す.}ただし,伝達の必要性については\rep{ninchi}\ref{store},\red{last}に関連して述べた.発話「\(\Phi\)--ね」「\(\Phi\)--な」が表す情報は,終助詞「よ」が無いことが表す情報\rep{noyokinou}と,終助詞「ね」の機能\rep{ne}あるいは「な」の機能\rep{na}と,終助詞「ね」「な」が\rep{datakn}の「確信でない可能性を示す」要素であることから,以下のようになる.\enumsentence{\label{sne}{\dg発話「\(\Phi\)--ね」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前に他の情報から(変換,推論などして)DMA上に導いた情報である\item\(\phi\)を,確認中である\end{enumerate}}\enumsentence{\label{sna}{\dg発話「\(\Phi\)--な」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前に他の情報から(変換,推論などして)DMA上に導いた情報である\item\(\phi\)を,処理中である\end{enumerate}}終助詞「ね」「な」の,三用法(確認,同意要求,自己確認)の差も,意味論ではなく語用論のレベルのものである.話し手が\rep{sne}2.または\rep{sna}2.で\(\phi\)をまだEMA以下に保存していないことを伝えて,聞き手にその手伝い,つまり,確信とすべきか否かを判断するための協力,を求める場合は,確認用法となる.確認用法の例として\rep{confirm}を再掲する.\enumsentence{\label{reconfirm}\begin{tabular}[t]{ll}\multicolumn{2}{l}{(面接会場で)}\\面接官:&鈴木太郎君です{\dgね}.\\応募者:&はい,そうです.\end{tabular}}\rep{reconfirm}の面接官は,面接時の状況(手元の履歴書写真と聞き手の顔が似ている,など)から聞き手が鈴木太郎であることを確認中であることを\rep{sne}2.で示し,同時に聞き手に確認のための協力を求めることで,確認用法となっている.\rep{sne}2.または\rep{sna}2.で,話し手が文のデータを確認中(処理中)であることを聞き手に示すと同時に,文のデータを確認(処理)していることに関して,会話の目的\rep{cobj}により話し手が聞き手と同一の状態になることを意図すると,同意要求用法となる.同意要求用法の例として\rep{agree}を再掲する.\enumsentence{\label{reagree}\begin{tabular}[t]{ll}A:&今日はいい天気です{\dgね}.\\B:&ええ.\end{tabular}}\rep{reagree}では,話し手は,今日がいい天気であることを確認中であることを\rep{sne}2.で示すと同時に,\rep{cobj}により聞き手にもこれを確認することを求めている.\(\phi\)の導出に手間どったり\(\phi\)に自信が持\\てないために,聞き手を意識せずに,\rep{sne}2.または\rep{sna}2.の処理を行なう場合は自己確認用法となる.自己確認用法の例として,\rep{selfconfirm}を再掲する.\enumsentence{\label{reselfconfirm}\begin{tabular}[t]{ll}A:&今何時ですか.\\B:&(腕時計を見ながら)ええと,3時です{\dgね}.\end{tabular}}\rep{reselfconfirm}Bの発話は,\rep{sne}2.で,(時間が)3時であることを確認していることを表すが,聞き手への確認や同意を求めているわけではなく,自己確認用法になっている.確認,同意要求,自己確認のどの用法についても\(\phi\)の由来を表す\rep{sne}1,\rep{sna}2.と無関係であることに注意されたい.本稿の終助詞「ね」の機能は,\cite{kinsui93,kinsui93-3}の主張する終助詞「ね」の機能と,同じである.終助詞「な」については,\cite{kawamori91,kamio90},\cite{katagiri93}では述べられておらず,\cite{kinsui93,kinsui93-3}では,「終助詞『ね』と同じ意味」とされている.しかし,本論文では,終助詞「ね」と「な」の性質に差にもとづいて,異なる機能を提案している.発話「\(\Phi\)--よね」「\(\Phi\)--よな」が表す情報は,終助詞「よ」の機能\rep{yo}と「ね」の機能\rep{ne}と「な」の機能\rep{na}により,以下のようになる.\enumsentence{\label{syone}{\dg発話「\(\Phi\)--よね」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前にEMA以下から持ってきたものであり,かつ,\label{syone1}\item\(\phi\)を,確認中である\label{syone2}\end{enumerate}}\enumsentence{\label{syona}{\dg発話「\(\Phi\)--よな」が表す情報}\begin{enumerate}\item\(\phi\)は,発話直前にEMA以下から持ってきたものであり,かつ,\label{syona1}\item\(\phi\)を,処理中である\label{syona2}\end{enumerate}}これらをそれぞれ,発話「\(\Phi\)--ね」が表す情報\rep{sne},発話「\(\Phi\)--な」が表す情報\rep{sna}と比較すると,\(\phi\)の由来を表す部分(それぞれ,\rep{syone}1.と\rep{sne}1,\rep{syona}1.と\rep{sna}1.)は異なるが,\rep{syone}2.と\rep{sne}2.が同じで,\rep{syona}2.と\rep{sna}2.が同じである.終助詞「ね」「な」の用法は,\rep{sne}2,\rep{sna}2.によるもので,\(\phi\)の由来を表す部分とは無関係であった.だから,終助詞の複合形「よね」「よな」にも終助詞「ね」「な」と同様の用法があることを説明できる.「よね」の例として,\res{megane}を再掲する.\enumsentence{(眼鏡を探しながら)私,眼鏡ここに置いた{\dgよね}/{\dgよな}.}これは,話し手が,「話し手が眼鏡をここに置いた」ことを確認中であることを\rep{syone}\red{syone2}で表すだけでなく,\rep{syone}\red{syone1}で,このことが過去に判断し,記憶しておいたことであることを表す.\ref{haji}節で述べた,過去に提案された終助詞の意味(機能)のうち,「よね」を説明できたのは\cite{kinsui93,kinsui93-3}だけであるが,本稿でも,以上のように説明することが出来た.
\section{おわりに}
\label{conclusion}本稿では,終助詞「よ」「ね」「な」と複合形「よね」「よな」について,終助詞が無いことが何を表すのかを考慮に入れて,階層的記憶モデルにより,機能を提案した.そして,従来提案されてきた終助詞の全用法と,従来の終助詞の研究で説明できなかった現象を説明できた.他の終助詞については特に扱わなかったが,本稿で取り上げた終助詞と同様に,機能を考えることが出来る.例えば,終助詞「ぞ」「ぜ」については,機会を改めて報告したい.\nocite{kamio90}\acknowledgment本論文をまとめるに当たって議論に参加して頂き,有益なコメントを頂いた本学科森辰則講師に感謝いたします.また,初期の原稿に有益なコメントを頂いた査読者の方にも感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\renewcommand{\refname}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{藤島}{藤島}{1989〜1993}]{themegami}藤島康介\BBOP1989〜1993\BBCP.\newblock\Jem{ああっ女神様1〜8}.\newblock講談社,東京.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院博士課程修了.工学博士.現在,横浜国立大学工学部電子情報工学科教授,現在の主たる研究テーマは自然言語処理.日本認知科学会,人工知能学会などの会員.}\bioauthor{小野晋}{1967年生.1991年横浜国立大学工学部卒業.1993年横浜国立大学大学院工学研究科博士過程前期修了.現在,横浜国立大学大学院工学研究科博士過程後期に在学中.現在の主たる研究テーマは自然言語処理および日本語の語用論.情報処理学会の正会員,日本認知科学会の学生会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再受付}\biore3vised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V02N01-02
|
\section{はじめに}
我々が目標とするのは,日本語の複文の理解システムである.このようなシステムにおいては,{\bfゼロ代名詞}の照応の解析が重要な問題となり,例えば「ので」「から」などで接続された複文におけるゼロ代名詞照応の解析は,構文論,意味論,語用論の総合的な利用が要求される.文献\cite{中川:複文の意味論,COLING94}では,複文中に設定される意味および談話役割を用いた制約条件という形でこの問題を取り扱うことが提案されている.これは,ゼロ代名詞と対応する役割(動作主,経験者など)だけではなく,語用論的な役割(観察者など)の照応にも言及する制約であり,これによって,意味論および語用論を統合した形での複文の意味解析が可能である.ところで,意味役割や語用論的役割の照応解析の結果は,役割間での照応関係という形で得られるが(例えば,``観察者=動作主''など),実際にそれらの役割がどのような対象を指示するかは文脈情報を利用しないと決定できない場合が多い.つまり,各役割を変数とみなした場合,変数の値が決定されているわけではないが,別の変数との関係づけがなされている,という情報を解析の途中および結果として扱う必要がある.このような場合に用いられる方法論の一つとして,制約論理プログラミング\cite{橋田:情報の部分性}が考えられる.この場合,変数の間の関係(同値関係など)をその変数の持つ制約とみなすことにより,適用が可能である.そこで,著者らは,まず形態素解析システムJUMAN\cite{松本:NewJUMANmanual}および構文解析システムSAX\cite{松本:NewSAXmanual}を用い,その結果得られる素性構造に制約論理プログラミングの手法を用いて,ゼロ代名詞照応などを分析する理解システムを構築した.この理解システムでは,プログラム変換の手法を用いた制約変換システム\cite{森:否定情報の扱える制約システム}を利用している.このシステムで扱える文は,例えば「花子が暑がったので窓を開けた.」など,文献\cite{中川:複文の意味論,COLING94}で扱った複文の一部であり,日本語文全体からみてもその対象は非常に限定されるが,文献\cite{中川:複文の意味論,COLING94}で扱われている他の文,例えば「叱られたので,反省文を書かせた.」,「病気で苦しかったのに,会社を休めなかった.」などについても,本論文で述べる手法により,処理が可能である.また,他の種類の複文,例えば「傷が痛いのなら,病院に行く.」など従属節が条件節になるような複文に関しても,節間の制約を適切に記述できれば,本論文での手法の応用は可能である.なお,本システムに類する研究であるが,まず,本システムで参考としているような日本語文の構造をもとにし,LFG(語彙機能文法)の枠組を用いて記述したシステムが,文献\cite{水野:日本語の文の構造}に述べられている.これは,日本語文の発話構造を叙述部分と陳述部分に分けて階層化し,それをLFGによって記述するものである.この構造は本論文で参考としている日本語の階層構造(後で述べる)に類似したものであり,さらに,その枠組上で複文の構造的な特徴についても議論がなされている.しかし,その検討の対象が構文解析のレベルに限定されており,本論文によるシステムで扱っているような,意味役割や語用論的役割の照応解析といったレベルまでは扱っていない点が異なる.また,名詞や代名詞の照応解析を対象とした研究としては,例えば,文献\cite{清水:日本語談話の照応解決}で,視点や焦点といった語用論的概念を用いた議論が,解析システムの構築を前提としてなされている.しかし,第一文の解析結果を用いて,第二文以降に現れる名詞や代名詞の照応解析を行なう,という議論がなされており,本論文で扱うような,従属節と主節という構造が一文中に現れるような場合の,その一文中での照応関係の解析を行なう,というものではない.
\section{日本語複文に関する制約および素性構造による表現}
\label{節:複文の制約}本論文で述べるシステムにより意味解析が可能となる日本語の複文は,\tableref{システムの対象}に示すような種類のものである.例えば,次のような例文である.\begin{table}[htbp]\caption{システムの解析対象となる複文}\tablelabel{システムの対象}\begin{center}\begin{tabular}{|c||c|}\hline{\bf接続助詞}&ので(順接),のに(逆接)\\\hline{\bf従属節の形式}&主観形容詞,主観形容詞+「がる」,受動態\\\hline{\bf主節の形式}&意志的動作の記述(能動態),使役態\\\hline\end{tabular}\end{center}\end{table}\enumsentence{\exslabel{複文a}寒かったので,窓を閉めた.}\enumsentence{\exslabel{複文aa}寒がったので,窓を閉めた.}\enumsentence{\exslabel{複文c}奈緒美は寒がったのに窓を閉めなかった.}\enumsentence{\exslabel{複文d}オモチャを壊されたのに,作り直さなかった.}これらの例文は,\exsref{複文a},\exsref{複文aa}が順接の複文,\exsref{複文c},\exsref{複文d}が逆接の複文といわれるものであり,それぞれ次のような意味を表していると考えることができる.\begin{itemize}\item「ので」(「から」)による順接文…従属節での記述内容を原因として起こった動作・状態が主節での記述内容である.\item「のに」による逆接文…従属節での記述内容から予想される結果とは異なる動作・状態が主節での記述内容である.\end{itemize}つまり,これらの複文は全て「原因・理由--結果」を表しているといえる.そのため,複文の意味を考える際にも,この「因果性」という要素を扱わなければならない\footnote{「とき」などを接続助詞とする,時・場所を表す従属節の場合は,この「因果性」が希薄なため,因果性に基礎をおく制約が有効でない.そのため,別の方法を検討することが必要である.}.そこで,次のように{\bf動機保持者}という意味および語用論的性質を持つ役割を定義し,従属節と主節との間で意味役割もしくは語用論的役割を橋渡しする役割を担わせる.\begin{definit}{動機保持者}\deflabel{動機保持者}動機保持者とは,従属節で記述される状況によって,主節中で記述される何らかの動作もしくは状態を引き起こすに十分の動機を持つ人物を指す.\end{definit}動機保持者を用いることにより,\tableref{システムの対象}に示した種類の複文では,意味的な因果性を\tableref{従属節の制約}および\tableref{主節の制約}のような意味もしくは語用論的役割の間の制約の形で記述することができる\cite{中川:複文の意味論,COLING94}.ここで,本論文で扱う制約に必要な意味および語用論的役割の定義を以下に示す.\begin{itemize}\item動作主,経験者,受動者,対象…いわゆる$\theta$役割\footnote{GB理論における$\theta$役割は,述語の要求する項に対して意味的情報を与えるものである\cite{Sells:ContemporarySyntacticTheories}.例えば,{\ithit}(叩く)という述語は,Agent(動作主)とPatient(受動者)という$\theta$役割を与える.}に対応する.\item観察者…命題部で記述される状況を直接もしくは間接的に観察する人物のうち,経験者以外の人物を指す\footnote{文献\cite{斎藤:心情述語の語用論的分析,大江:日英語の比較研究}などの議論をもとにした役割であり,「悲しい」「痛い」などの主観形容詞に「がる」がついて「悲しがる」「痛がる」となった時,主観形容詞で表される状態を外部から観察している人物を表す.}.\item被影響者…受動態で記述される動作・作用の影響を受ける人物を指し,\begin{itemize}\item直接受動文の場合,接尾辞「られ」が支配する動詞句での受動者と同一人物を指す.\item間接受動文の場合,接尾辞「られ」の主格すなわち被害者を指す.\end{itemize}\item使役者…使役態の文の主格に対応する意味役割であり,使役態で記述されている事態を直接もしくは間接的にひきおこす人物を指す\cite{寺村:日本語のシンタクスと意味1}.例えば,「母親が赤ん坊にミルクを飲ませる」という文の場合,主格である「母親」が使役者である.\end{itemize}なお,以降で,意味もしくは語用論的役割の照応関係を記述する場合,``\prole{役割名}{\small設定された節}''という表記を用いる\footnote{例えば,``\prole{動作主}{主節}''とは,主節中に設定された動作主を表す.}.\begin{table}[htbp]\caption{従属節中の制約}\tablelabel{従属節の制約}\begin{center}\begin{tabular}{|c|c|c|}\hline{\lw{\bf従属節の形式}}&\multicolumn{2}{c|}{\bf動機保持者になりうる意味および語用論的役割}\\\cline{2-3}&\multicolumn{1}{c|}{\bf順接}&\multicolumn{1}{c|}{\bf逆接}\\\hline\hline主観形容詞&\prole{経験者}{\small従属節}&\prole{経験者}{\small従属節}\\\hline主観形容詞&{\lw{\prole{観察者}{\small従属節}}}&\prole{観察者}{\small従属節}または\\~~+「がる」&&\prole{経験者}{\small従属節}\\\hline受動態&\prole{被影響者}{\small従属節}&\prole{被影響者}{\small従属節}\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{主節での制約}\tablelabel{主節の制約}\begin{center}\begin{tabular}{|c|c|}\hline{\bf主節の形式}&{\bf動機保持者に関する制約}\\\hline\hline意志的動作&動機保持者=\prole{動作主}{\small主節}\\\hline使役態&動機保持者=\prole{使役者}{\small主節}\\\hline\end{tabular}\end{center}\end{table}先ほどの例文を用いて,これらの制約がどのように適用されるかを見てみる.ただし,本論文では,「は」は主格を主題として取り立てる場合のみについて考えることとする.\begin{itemize}\item[\protect\exsref{複文a}]寒かったので,窓を閉めた.\end{itemize}この文では,主節の「窓を閉めた」という動作を行なった人物は,従属節で「寒い」と感じた人であり,この二つの意味役割が動機保持者を介して一致する.\begin{itemize}\item[\protect\exsref{複文aa}]寒がったので,窓を閉めた.\end{itemize}一方この文では,誰かが寒がった状況を観察した人物(観察者)が動機保持者となり,これが主節の動作主と一致する.\begin{itemize}\item[\protect\exsref{複文c}]奈緒美は寒がったのに窓を閉めなかった.\end{itemize}従属節では,誰かが寒がった状況を観察した人物が動機保持者となり,これが主節の動作主と一致する.また,「奈緒美は」は,主節の主格を主題として取り立てられているとするため,結局「奈緒美」が誰かが寒がっている状況を観察し,その結果として主節の動作主となる解釈が得られる.また,\tableref{従属節の制約}により,逆接文の持つもう一つの解釈として,「寒がった」人物,つまり「寒い」という状況の経験者が動機保持者となり,これが主節の動作主と一致する場合もある.この時も,「奈緒美は」は主節の主格となるため,「奈緒美」自身が寒がり,かつ主節の動作主となることになる.\begin{itemize}\item[\protect\exsref{複文d}]オモチャを壊されたのに,作り直さなかった.\end{itemize}この文の従属節は間接受身の解釈となる.例えば,「私」がオモチャの所有者であり,そのオモチャを「壊される」という動作の被影響者となる.そして,その人物(ここでは「私」)が\tableref{従属節の制約}の制約によって動機保持者となり,主節の動作「作り直す」の動作主となる.以上で述べた制約について重要な点は,文献\cite{中川:複文の意味論,COLING94}で提案された動機保持者に関する制約が,従属節における動機保持者の決まり方,主節における動機保持者の結び付き先を,各々,従属節内,主節内において局所的に与えている点である.この局所性により,動機保持者が関与するゼロ代名詞照応の計算で考慮すべき領域が主節あるいは従属節の内部に限定されるため,計算の効率向上に大きく寄与し,また,句構造文法など,既成の文法体系の上でこの制約を利用したシステムを構築する際には都合がよい.さて,ここで,以上のような複文の解釈結果を素性構造で記述することについて述べる.そのために,まず,本論文で扱う「ので(から)」「のに」による複文の階層構造を,\figref{複文の階層構造}のように考える.すると,例えば\exsref{複文aa}は,複合事象のレベルまでの構造が\figref{複文の階層構造の例}となる.この階層構造は,文献\cite{郡司:制約に基づく文法}での議論をもとにしており,本論文では接続助詞「ので(から)」「のに」によって形成される従属節中に様相辞が存在しない場合を扱う\footnote{「北海道は寒いらしいので,上着を持って行こう.」など,従属節中に「らしい」「そうだ」が存在するような文も考えられるが,これは様相辞の意味論に関する問題を含んでおり,本論文の対象外とする.}ことなどから,「ので(から)」「のに」が事象レベルに接続して従属節を形成すると考えることにより得られる.\begin{figure}[hbtp]\begin{center}\unitlength=.04ex\tree{\node{発話}{\Ln4{判断}{\Ln4{主題}}{\Rn4{意見}{\Ln4{複合事象}{\Ln7{従属事象}{\Ln4{事象}}{\Rn4{接続}}}{\Rn7{事象}{\Ln4{過程}{\Ln4{行動/状態}{\Ln6{主体/対象}}{\Rn6{動作/様子}{\Ln4{受け手}}{\Rn4{動作/様子}{\Ln4{動作}}{\Rn4{様態}}}}}{\Rn4{相}}}{\Rn4{時制}}}}{\Rn4{様相}}}}{\Rn4{陳述}}}\end{center}\caption{複文の基本的な階層構造}\figlabel{複文の階層構造}\end{figure}\begin{figure}[htbp]\begin{center}\unitlength=.04ex\tree{\node{複合事象}{\Ln7{従属事象}{\Ln4{事象}{\lf{寒がった}}}{\Rn4{接続}{\lf{ので}}}}{\Rn7{事象}{\lf{窓を閉めた}}}}\end{center}\caption{複文の階層構造の例:「寒がったので窓を閉めた」}\figlabel{複文の階層構造の例}\end{figure}次に,複文の意味素性構造について考える.日本語の複文の素性構造表現,特にその意味素性に関する素性構造表現の定式化は今だ明確になされていないのが現状である.例えば,文献\cite{Tonoike:HierarchicalClauseStructure}では,「ために」という接続詞の構造を\figref{「ために」の構造}のように表している\footnote{図中で{\bfadjacent}が従属節,{\bfdep}が主節を表している.}.このように,{\bfsem}に関しては抽象的な説明となっており,``{\itacauseof\/}''という意味が実際にどのような構造をとるかについては述べられていない.しかし,本論文では節間の意味的なつながりに触れており,\figref{「ために」の構造}における{\bfsem}にあたる情報をどのような構造で表すかという問題を扱わなければならない.そこで,ここでは,複文の意味素性として\figref{複文の意味素性}のような構造を考える.\begin{figure}[htbp]\footnotesize\begin{center}\vspace{-0.2mm}\outerfs{\bfadjacent:&\outerfs{\bfhead:&\outerfs{\bfpos:&v\\\bftense:&+tensed}\\\bfsem:&{\itacauseof\/}\fbox{1}}\\\bfdep:&\outerfs{\bfhead:&\outerfs{\bfpos:&v\\\bftense:&+tensed}\\\bfsem:&\fbox{1}}}\end{center}\caption{文献\protect\cite{Tonoike:HierarchicalClauseStructure}による「ために」の素性構造}\figlabel{「ために」の構造}\end{figure}\begin{figure}[htbp]\begin{center}\outerfs{\bf意味主辞:&主節の意味主辞\\\bf意味修飾辞:&\{\protect\figref{修飾辞素性}に示す素性構造\}}\end{center}\caption{複文の意味素性構造}\figlabel{複文の意味素性}\end{figure}\begin{figure}[htbp]\begin{center}\vspace{-0.2mm}\outerfs{\bf意味主辞:&\outerfs{\bf修飾関係:&従属節\\\bf接続:&接続助詞名\\\bf接続関係:&順接もしくは逆接\\\bf動機保持者:&\fbox{1}\\\bf事象:&従属節の\\&事象レベルでの\\&意味主辞}\\\bf意味修飾辞:&\{~\}}\end{center}\caption{修飾辞素性}\figlabel{修飾辞素性}\vspace{-0.1mm}\end{figure}まず,複文の意味主辞として主節の意味主辞をとる.\vspace{-0.1mm}意味修飾辞としては,従属節を示す\figref{修飾辞素性}のような素性構造をとる.\vspace{-0.1mm}\figref{修飾辞素性}では,意味主辞として,修飾関係,接続,接続関係という素性を用意している.\vspace{-0.1mm}修飾関\\係素性の値は,従属節を表すために``従属節''とし,接続素性は,その値として``ので'',``のに''のような接続助詞名をとる.\vspace{-0.1mm}また,接続関係素性の値は,接続助詞が「ので」の場合は``順接'',「のに」の場合は``逆接''とする.\vspace{-0.1mm}さらに,動機保持者の参照する人物を値としてとる動機保持者素性と,従属節の事象レベルでの意味主辞を値としてとる事象素性も意味主辞中に設定する.\vspace{-0.1mm}なお,事象という素性を用いるのは,前記の\figref{複文の階層構造}の構造による.\vspace{-0.1mm}\newsavebox{\myboxaaa}\sbox{\myboxaaa}{\footnotesize\outerfs{Soa:\outerfs{relation:閉める\\動作主:\fbox{1}\\対象:\fbox{窓}}\\時制:基準時以前\\認め方:肯定}}\begin{figure}[htbp]\footnotesize\begin{quote}\fbox{Main}=\outerfs{判断:\outerfs{意見:\outerfs{事象:\usebox{\myboxaaa}}}}\end{quote}\caption{主節の意味主辞素性の値}\figlabel{主節のSEM}\end{figure}ここで,文\exsref{複文aa}の意味素性について考えてみる.主節の意味素性は,\figref{主節のSEM}に示すようになり,従属節の意味素性は,\figref{従属節のSEM}に示すようになる\footnote{素性構造中で,\fbox{exp}は,実際に経験者の対象となる人物の意味情報を表す素性構造を参照する.}.ただし,\figref{従属節のSEM}の``OBSERVE''というrelationは,\hspace{0.05mm}接尾辞「がる」により導入される関係であり,「がる」\hspace{0.05mm}に\hspace{0.05mm}よ\hspace{0.05mm}っ\hspace{0.05mm}て\hspace{0.05mm}導\hspace{0.05mm}入\hspace{0.05mm}さ\hspace{0.05mm}れ\hspace{0.05mm}る\hspace{0.05mm}役\hspace{0.05mm}割\hspace{0.05mm}が``観察者:\fbox{2}'',観察された状況が``Soa:[・\hspace{-.5em}・\hspace{-.5em}・]''である.\newsavebox{\myboxa}\sbox{\myboxa}{\footnotesize\outerfs{relation:OBSERVE\\Soa:\outerfs{relation:寒い\\経験者:\fbox{exp}}\\観察者:\fbox{2}}}\begin{figure}[htbp]\footnotesize\begin{quote}\fbox{Sub}=\outerfs{意味主辞:\outerfs{修飾関係:従属節\\接続:ので\\接続関係:順接\\動機保持者:\fbox{2}\\事象:\outerfs{Soa:\usebox{\myboxa}\\時制:基準時以前\\認め方:肯定}}\\意味修飾辞:\{~\}}\end{quote}\caption{従属節の意味素性の値}\figlabel{従属節のSEM}\end{figure}\newsavebox{\myboxc}\sbox{\myboxc}{\footnotesize\outerfs{relation:OBSERVE\\Soa:\outerfs{relation:寒い\\経験者:\fbox{exp}}\\観察者:\fbox{1}}}\newsavebox{\myboxb}\sbox{\myboxb}{\footnotesize\outerfs{意味主辞:\outerfs{修飾関係:従属節\\接続:ので\\接続関係:順接\\動機保持者:\fbox{1}\\事象:\outerfs{Soa:\usebox{\myboxc}\\時制:基準時以前\\認め方:肯定}}\\意味修飾辞:\{~\}}}\newsavebox{\myboxbbb}\sbox{\myboxbbb}{\footnotesize\outerfs{Soa:\outerfs{relation:閉める\\動作主:\fbox{1}\\対象:\fbox{窓}}\\時制:基準時以前\\認め方:肯定}}\begin{figure}[htbp]\begin{center}\footnotesize\fbox{SEM}=\outerfs{意味主辞:\outerfs{判断:\outerfs{意見:&\outerfs{事象:\usebox{\myboxbbb}}}}\\意味修飾辞:$\left\{\usebox{\myboxb}\right\}$}\end{center}\caption{単一化による複文の素性構造}\figlabel{単一化による複文の素性構造}\end{figure}\fbox{Sub}中では,タグ\fbox{2}の参照関係によって,``動機保持者=\prole{観察者}{\small従属節}''という制約が記述されている.ただし,これらから単一化により\figref{複文の意味素性}の素性構造を組み立てる際に,``動機保持者=\prole{動作主}{\small主節}''という\tableref{主節の制約}の制約に対応する``\fbox{1}=\fbox{2}''という制約も素性構造に反映させる.ここで,\fbox{1}は,主節の動作主を参照するタグであり,\fbox{2}は,従属節の観察者を参照するタグである.このようにして組み立てた複文\exsref{複文aa}の意味素性を\figref{単一化による複文の素性構造}に示す.ここでは,\fbox{2}は全て\fbox{1}に置き換わっている.
\section{制約変換による日本語複文の意味解析システム}
以上のように,意味および語用論的役割の照応関係に関する意味解析を行なうためには,各役割(変数)の同値関係などの情報を解析中に扱わなければならず,その結果も各変数間の関係で得られることが多い.このような問題を扱うための方法論の一つに制約論理プログラミングがある\cite{橋田:情報の部分性}.一方,JPSG\cite{Gunji:JPSG}における下位範疇化原理などの文法的な原理も,一種の制約条件とみなせることから\cite{郡司:制約に基づく文法},制約論理プログラミングの手法を取り入れた,複文の意味解析システムの構築が考えられる.\begin{figure}[htbp]\begin{center}\input{system.tex}\end{center}\caption{日本語文の意味解析システム}\figlabel{システム構成}\end{figure}\iffalseどの部分に語用論的制約を記述し,どの様にしてそれを利用するか,についてここで説明する.\fiそこで今回,著者らは,形態素解析システムJUMAN\cite{松本:NewJUMANmanual},構文解析システムSAX\cite{松本:NewSAXmanual}を利用し,さらに制約変換システム\cite{森:否定情報の扱える制約システム}を併用するシステムを構築した.システムの構成の概略は\figref{システム構成}のようになる.図中において,JUMANおよびSAXは既存のシステムである.我々は,ここに,SAXで用いる文法規則として\figref{複文の階層構造}の階層構造を基にしたDCGを,さらに意味解析のための制約を記述した意味辞書を新しく設けた.さらに,これらを利用して解析を行なうためにSAXと制約変換システムをDCGの補強項に記述したPrologのプログラムを通じて接続したものが,本システムである.このシステムに日本語文(単文,「ので」「のに」による複文)が入力されると,JUMANにより形態素解析され,SAXにその結果が渡される.そして,構文解析されるわけだが,ここで,\ref{節:複文の制約}~節の\tableref{従属節の制約},\tableref{主節の制約}で挙げた制約を用いて,意味役割などの照応解析を行なう.本システムでは,\tableref{従属節の制約},\tableref{主節の制約}の語用論的制約を,各語彙の意味辞書として素性構造の形式で記述する.構文解析を行ないつつ,これらの情報を制約変換システムにより変換し,意味および語用論的役割の照応解析を行なうことが,本システムの目的である.\subsection{意味辞書}\label{節:意味辞書}以上のように,本システムでは,意味辞書に記述した制約を変換しながら解析が進む.このため,各語彙についての意味辞書の記述,特に「ので」「のに」という接続助詞の意味辞書の記述が本システムにとってのもっとも重要な点となる.\begin{figure}[htbp]\begin{quote}\setlength{\baselineskip}{4.2mm}\begin{verbatim}閉める(動詞,F,Kform,[F=[主辞:[品詞:動詞,活用形:Kform,使役形態:ニ使役,文法格:[主格:'+',対格:'+',与格:'-'],接尾可能様態辞:[passive:'+',causative:'+',observe:'-',desire:'+']],文法格内容:[主格:[意味:X],対格:[意味:Y]],見出し:閉める,slash:[],近接:[],下位範疇化:[[主辞:[品詞:格助詞,格標識:が,文法役割:subject],依存語彙:[品詞:動詞,見出し:閉める],意味:X],[主辞:[品詞:格助詞,格標識:を,文法役割:object],依存語彙:[品詞:動詞,見出し:閉める],意味:Y]],意味:[意味主辞:[soa:[relation:閉める,動作主:X,対象:Y#[意味主辞:[animate:'-']]],時制:T],意味修飾辞:[]]],constraint_Tense(Kform,T)]).\end{verbatim}\end{quote}\caption{動詞「閉める」の意味辞書}\figlabel{動詞の意味辞書例}\end{figure}本システムにおける意味辞書は,意味役割などがどのように設定されるかといったいわゆる意味情報に加えて,用言における下位範疇化情報など,文法情報に属するものも併せて素性構造の形式を用いて記述する.例えば,動詞「閉める」の意味辞書は\figref{動詞の意味辞書例}のように記述する.なお,``{\ttX\#[*]}''という表記は,素性構造``{\tt[*]}''を{\ttX}という名前のタグを用いて参照できることを示す.この辞書には,「閉める」が格助詞「が」を伴う後置詞句をsubjectとして下位範疇化し,その意味役割は動作主となること,格助詞「を」を伴う後置詞句をobjectとして下位範疇化し,その意味役割は対象となること,が記述してある.時制については{\ttconstraint\_Tense/2}という制約を用いて,用言の活用語尾によって「基準時」(現在形の場合)もしくは「基準時以前」(過去形の場合)という値をとるように記述してある.\begin{figure}[htbp]\begin{quote}\setlength{\baselineskip}{4.2mm}\begin{verbatim}のだ(助動詞,F,ダ列タ系連用テ形,[F=[主辞:[品詞:助動詞,接続関係:順接,修飾関係:従属節,依存:Depend],見出し:ので,近接:Adjacent,意味:Sem],constraint_NoDe(Depend,Adjacent,Sem)]).\end{verbatim}\end{quote}\caption{接続助詞「ので」の意味辞書}\figlabel{接続助詞の意味辞書例}\end{figure}\begin{figure}[htbp]\begin{quote}\setlength{\baselineskip}{4.2mm}\begin{verbatim}constraint_NoDe([主辞:[品詞:動詞,態:能動],意味:[意味主辞:[事象:[soa:[動作主:Motiv]]]]],[[主辞:[品詞:動詞性接尾辞,態:observe],意味:[意味主辞:Sem#[事象:[soa:[観察者:Motiv]]]]]],[意味主辞:Sem#[接続:ので,修飾関係:従属節,接続関係:順接,動機保持者:Motiv],意味修飾辞:[]]).\end{verbatim}\end{quote}\caption{「ので」による動機保持者に関する制約の記述}\figlabel{従属節制約例}\end{figure}また,「ので」「のに」による複文を解析するために,これら接続助詞の意味辞書を記述する必要がある.ここでは,「ので」の意味辞書を\figref{接続助詞の意味辞書例}に示す\footnote{品詞が助動詞となっているのは,JUMAN\cite{松本:NewJUMANmanual}による品詞分類をそのまま用いているためである.}.辞書項目中において,近接素性の値が,「ので」がつく従属節の内容を示す素性構造となる.また,依存素性の値が,「〜なので」という従属節をとる主節の内容を示す素性構造となる.ところで,依存素性や近接素性の値は,主節や従属節の記述形式によって変化するものであるため,辞書中では制約を用いてその値を記述する.これらの値を与えるのが制約{\ttconstraint\_NoDe/3}であり,第一引数が依存素性の値,第二引数が近接素性の値,第三引数が「ので」の意味素性の値となる.ここでは,従属節が主観形容詞+「がる」による記述,主節が意志的動作記述(能動態)の場合の制約について,\figref{従属節制約例}に示す.この記述により,``\prole{観察者}{\small従属節}=動機保持者''および``\prole{動作主}{\small主節}=動機保持者''という制約が変数{\ttMotiv}を用いて表されている.\begin{figure}[htbp]\newsavebox{\conjboxc}\sbox{\conjboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H3}\outerfs{\bf依存:&\outerfs{\bf主辞:&\fbox{H2}\\\bf意味:&\fbox{S2}}}\\\bf意味:&\fbox{S3}\\\bf近接:&$\left\{\begin{array}{l}\mbox{\outerfs{\bf主辞:&\fbox{H1}\\\bf意味:&\fbox{S1}}}\end{array}\right\}$}}\newsavebox{\subboxc}\sbox{\subboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H1}\\\bf意味:&\fbox{S1}}}\newsavebox{\mainboxc}\sbox{\mainboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H2}\\\bf意味:&\fbox{S2}}}\newsavebox{\subordboxc}\sbox{\subordboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H3}\outerfs{\bf依存:&\outerfs{\bf主辞:&\fbox{H2}\\\bf意味:&\fbox{S2}}}\\\bf意味:&\fbox{S1}+\fbox{S3}\\\bf近接:&\{~\}}}\newsavebox{\compboxc}\sbox{\compboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H2}\\\bf意味:&\fbox{S1}+\fbox{S2}+\fbox{S3}}}\begin{center}\unitlength=.08ex\tree{\node{\usebox{\compboxc}}{\Ln8{\usebox{\subordboxc}}{\Ln7{\usebox{\subboxc}}\lf{\scriptsize従属節の内容}}{\Rn7{\usebox{\conjboxc}}\lf{\scriptsizeので}}}{\Rn8{\usebox{\mainboxc}}\lf{\scriptsize主節の内容}}}\end{center}\caption{接続助詞「ので」による素性値の共有関係}\figlabel{共有関係}\end{figure}このように,依存素性および近接素性を用いることによって,接続助詞「ので」による複文は複合事象レベルにおいて\figref{共有関係}のような構造および素性値の共有関係を持つこととなる\cite{Tonoike:HierarchicalClauseStructure,JPSGOverView}.なお,接続助詞「のに」の場合も同様にして扱う.\subsection{接続助詞「ので」による日本語複文の解析}\label{節:日本語複文の解析}本システムは,SAXにおいてDCGを用いることにより構文解析を行ない,同時に制約変換システムと情報のやりとりをすることによって意味解析を行なうものである.このため,文の解析は\figref{複文の階層構造}のような構造を持つ構文解析木がボトムアップに生成されるように進む.複文を解析した場合には,従属節が従属事象として解析され,主節が事象として解析され,これらを複合事象としてまとめることによって複文となる,というように解析が進む.\begin{figure}[htbp]\begin{center}\epsfile{file=fig14.eps,width=85mm}\end{center}\caption{構文解析木の出力例}\figlabel{例文の構文木}\end{figure}この節では,「寒がったので,窓を閉めた」という簡単な複文を例にとり,本システムにおける解析がどのように行なわれるのかについて述べる.なお,本システムにおけるこの文の構文解析木は,\figref{例文の構文木}のように得られる.まず,従属節「寒がったので」の部分の解析について述べる.これは,``{\tt従属事象-->事象,接続}''というDCGにより,「寒がった」という事象と「ので」という接続とからなると解析される.このとき,「寒がった」という部分の解析結果として\figref{従属節部分1}の素性構造がえられる.また「ので」の意味辞書より,従属節が主観形容詞+「がる」であり主節が動作動詞の能動態の場合として\figref{従属節部分2}の素性構造がそれぞれ得られる\footnote{以下で示す各素性構造はそれぞれ独立したものであり,素性構造中のタグ({\ttF1,F2,…})も素性構造毎に独立している.}.\figref{従属節部分1}の素性構造では,意味素性の中に経験者と対象と観察者という役割が設定されている.また,経験者については,タグ{\ttF9}によって主格の後置詞句の持つ意味素性の値を参照し,対象はタグ{\ttF12}によって対格の後置詞句の持つ意味素性の値を参照する.\figref{従属節部分2}では,意味素性の値として,\figref{修飾辞素性}に対応する素性構造をとる.また,近接素性の値は従属節の形式(この場合は主観形容詞+「がる」)に対応する値であり,主辞素性中の依存素性の値は主節の形式(ここでは動作動詞による能動態)に対応している.\begin{figure}[htbp]\begin{center}\epsfile{file=fig15.eps,width=116mm}\end{center}\caption{事象「寒がった」の素性構造}\figlabel{従属節部分1}\end{figure}\begin{figure}[htbp]\begin{center}\epsfile{file=fig16.eps,width=109mm}\end{center}\caption{接続助詞「ので」の素性構造}\figlabel{従属節部分2}\end{figure}そして,\figref{従属節部分1}の素性構造と,\figref{従属節部分2}中の近接素性の値となっている素性構造との単一化が行なわれ,従属節「寒がったので」の解析結果として\figref{従属節部分3}の素性構造が得られる.この素性構造中の意味素性の値は,\figref{従属節のSEM}に示した\fbox{Sub}に相当し,タグ{\ttF21}によって,観察者と動機保持者が同じ値を参照することを表している.\begin{figure}[htbp]\begin{center}\epsfile{file=fig17.eps,width=109mm}\end{center}\caption{従属節「寒がったので」の素性構造}\figlabel{従属節部分3}\end{figure}次に,主節の「窓を閉めた」という部分が,事象として同様に解析される.その結果として,\figref{主節部分1}の素性構造が得られる.ここでは,意味素性の中に動作主と対象という役割が設定されており,タグ{\ttF16}によって対象が対格である「窓」の意味素性を参照すること,およびタグ{\ttF8}によって動作主が主格の後置詞句の意味素性の値を参照することが示されている.\begin{figure}[htbp]\begin{center}\epsfile{file=fig18.eps,width=85mm}\end{center}\caption{主節「窓を閉めた」の素性構造}\figlabel{主節部分1}\end{figure}そして,\figref{従属節部分3},\figref{主節部分1}の素性構造が,``{\tt複合事象-->従属事象,事象}''というDCGによって組み合わされる.この時,\figref{従属節部分3}の依存素性の値と\figref{主節部分1}の素性構造を単一化することで,複文全体の意味素性が形成される.その結果として,\figref{全文}に,全文の解析結果として得られる素性構造を示す.\begin{figure}[htbp]\begin{center}\epsfile{file=fig19.eps,width=140mm}\end{center}\caption{「寒がったので窓を閉めた」の解析結果}\figlabel{全文}\vspace*{7cm}\end{figure}\begin{figure}[htbp]\begin{center}\epsfile{file=fig20.eps,width=134mm}\end{center}\caption{「寒がったのに窓を閉めなかった」の解析結果}\figlabel{逆接全文}\end{figure}
\section{おわりに}
本論文では順接の「ので」による複文の解析を例にとり,日本語の複文の意味解析システムの構成および動作について説明した.前節で述べたように,「ので」による順接の複文に関しては,\tableref{従属節の制約}や\tableref{主節の制約}に示した制約を意味辞書および補強項に記述する事により,意味解析が可能になる.同じように,逆接を表わす接続助詞「のに」についても,意味辞書を前節の\figref{接続助詞の意味辞書例}のように記述することによって解析を行なうことが可能である.例として,「寒がったのに窓を閉めなかった」という文の解析結果を\figref{逆接全文}に示す.この文の場合,\tableref{従属節の制約}および\tableref{主節の制約}の制約から,1)\prole{観察者}{\small従属節}=動機保持者=\prole{動作主}{\small主節},2)\prole{経験者}{\small従属節}=動機保持者=\prole{動作主}{\small主節}の二通りの解析結果が存在する.\figref{逆接全文}では,最初の素性構造において1)の結果をタグ{\ttF8}で,二つめの素性構造において2)の結果をタグ{\ttF8}を用いて表している.このように,意味および語用論的役割に関する制約を\tableref{従属節の制約}や\tableref{主節の制約}に示したように節ごとの局所的な制約として記述することにより,句構造文法をベースとしたシステムに制約変換システムを組み合わせる(\figref{システム構成}参照)という手法で,接続助詞「ので」「のに」による順接および逆接の複文の意味解析システムを計算機上に構築した.さらに,「れば」「たら」「なら」により従属節が条件節となる複文などについても,同様の手法で扱えると考えられ,現在検討中である.\section*{謝辞}本研究において,日本語の複文の理解システムの試作を進めるにあたり,Prologによる制約変換システムを提供して頂き,また,その利用や,理解システム試作に関する全般的なアドバイスを頂いた横浜国立大学工学部の森辰則講師に感謝します.また,本研究には,文部省科学研究費重点領域研究「音声言語」により経済的サポートを受けていることを記し,関係各位に感謝いたします.\bibliographystyle{jtheapa}\bibliography{jpaper}\newpage\begin{biography}\biotitle{略歴}\bioauthor{西沢信一郎}{1969年生.1992年横浜国立大学工学部卒業.1994年横浜国立大学大学院工学研究科博士課程前期修了.現在,横浜国立大学大学院工学研究科博士課程後期に在学中.現在の主な研究テーマは自然言語処理.情報処理学会の学生会員.}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院修了.工学博士.現在,横浜国立大学工学部電子情報工学科助教授.現在の主たる研究テーマは自然言語処理および日本語の語用論.日本認知科学会,人工知能学会などの会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V19N05-02
|
\section{はじめに}
日本語学習者の作文の誤り訂正は,教育の一環としてだけでなく,近年はビジネス上の必要性も生じてきている.たとえば,オフショア開発(システム開発の外国への外部発注)では,中国,インドなどへの発注が増加している.外国に発注する場合,日本との意思疎通は英語または日本語で行われるが,日本語学習者の多い中国北部では,日本語が使われることも多い.しかし,中国語を母語とするものにとって日本語は外国語であり,メールなどの作文には誤りを含み,意思疎通に問題となるため,それらを自動検出・訂正する技術が望まれている\shortcite{Ohki:ParticleError2011j,Suenaga:ErrorCorrection2012j}.そこで本稿では,日本語学習者作文の誤り自動訂正法を提案する.外国人にとって,助詞はもっとも誤りやすい語であるため,本稿では助詞の用法を訂正対象とする.日本語の助詞誤り訂正タスクは,英語では前置詞誤りの訂正に相当する.英語の前置詞・冠詞誤りの訂正では,分類器を用いて適切な前置詞を選択するアプローチが多い\shortcite{gamon:2010:NAACLHLT,HAN10.821,rozovskaya-roth:2011:ACL-HLT2011}.これらは,誤りの種別を限定することにより,分類器による訂正を可能としている.一方,\shortciteA{mizumoto-EtAl:2011:IJCNLP-2011}は,日本語学習者の誤りの種別を限定せず,翻訳器を利用した誤り訂正を行った.この方法は,誤りを含む学習者作文を正しい文に変換することにより,あらゆる種類の誤りを訂正することを狙ったものである.本稿の訂正対象は助詞誤りであるが,今後の拡張性を考慮して,翻訳器と同様な機能を持つ識別的系列変換\shortcite{Imamura:MorphTrans2011}をベースとした誤り訂正を行う.翻訳の考え方を使った場合,モデル学習のために,誤りを含む学習者作文とそれを訂正した修正文のペア(以下,単にペア文とも呼ぶ)が大量に必要である.しかし,実際の学習者作文を大規模に収集し,さらに母語話者が修正するのはコストが高く難しい場合が多い.この問題に対し,本稿では以下の2つの提案を行う.\begin{enumerate}\item日本語平文コーパスの利用(言語モデル確率と二値素性の混在)学習者作文・修正文ペアのうち,修正文側は正しい日本語であるため,既存の日本語平文コーパスなどから容易に入手可能である.そこで,比較的大規模な日本語平文コーパスを日本語修正文とみなして,変換器のモデルとして組み込む.組み込む際には,日本語平文コーパスは言語モデル確率の算出に利用し,学習者作文・日本語修正文ペアから獲得した二値素性と共に,識別モデルの枠組みで全体最適化を行う.学習者作文・修正文ペアに出現しないものであっても,言語モデル確率によって日本語の正しさが測られるため,誤り訂正の網羅性の向上が期待できる.\item疑似誤り文によるペア文の拡張(とドメイン適応の利用)学習者作文は容易に入手できないため,正しい文から誤りパターンに従って誤らせることにより,自動的に学習者作文を模した疑似誤り文を作成する.この疑似誤り文と元にした日本語文をペアにして,訓練コーパスに追加する.ただし,自動作成した疑似誤り文は,実際の学習者作文の誤り分布を正確には反映していない.そのため,疑似誤りをソースドメイン,実誤りをターゲットドメインとみなして,ターゲットドメインへの適応を行う.疑似誤りの分布が実際の誤りと少々異なっていても,安定して精度向上ができると期待される.\end{enumerate}以下,第\ref{sec-particle-errors}章では,我々が収集した日本語学習者作文の誤り傾向について述べる.第\ref{sec-conversion}章では,本稿のベースとなる誤り訂正法と,日本語平文コーパスの利用法について説明する.第\ref{sec-pseudo-sentences}章では,疑似誤り文によるペア文の拡張法について説明し,第\ref{sec-experiments}章では実験で精度変換を確認する.第\ref{sec-related-work}章では関連研究を紹介し,第\ref{sec-conclusion}章でまとめる.
\section{日本語学習者の誤り傾向}
\label{sec-particle-errors}まず,実際に外国人がどのような日本語書き誤りをしてしまうのか,日本語を学んでいる中国語母語話者を対象に誤り例を収集した.被験者は日本語の学習歴があり,日本の技術系大学に在籍する,もしくは卒業した背景をもつ37名である.日本滞在歴は半年から6年程度である.各被験者に技術系文書(Linuxマニュアル等80文)の英文と24個の図(のべ104課題)を提示し,キーボード入力による日本語作文を実施した(これを学習者作文と呼ぶ).最終的には2,770文の学習者作文データを収集し,各作文を日本語母語話者が推敲した(以下,単に修正文と呼ぶ).誤りを訂正する際には,文意を変更せず,文法的に正しい日本語とするための最小限の訂正を行うよう留意した\footnote{ただし,用語の選択誤りは訂正した.}.言い換えると,この推敲で訂正された誤りは,訂正しないと正しい日本語にはならないものである.\subsection{誤りの分類と出現分布}誤り傾向の分析にあたり,まずは大分類として,文法誤り,語彙誤り,表記誤りの3種類を設定し,さらに小分類を設定した(表\ref{tbl-error-class}).収集した2,770文の分析を実施したところ,訂正が可能であったものは2,171文であった.訂正が出来なかったものは,全く誤りがない日本語文559文,および文として不完全な断片40文である.これ以降の分析は,訂正が可能であった2,171文に対して行った.まず,誤り訂正の発生箇所は4,916箇所であり,1文あたり平均2.26箇所であった.また各誤りの種別について,誤り大分類での出現分布をみると,文法誤りが54\%と最も多く,続いて語彙誤り28\%,表記誤りが16\%であった.これ以外は複数の誤りが混在する複合型誤りである.さらに小分類での出現分布をみると,最も多く発生していたのは助詞・助動詞誤り33\%,続いてカタカナ語誤り11\%,単語選択(類義語)の誤り10\%であった.\begin{table}[t]\caption{誤りの分類と誤り例}\label{tbl-error-class}\input{02table01.txt}\end{table}\subsection{誤り傾向}今回の誤り傾向であるが,助詞誤りおよびカタカナ誤りは中国語母語話者に限らず広く外国人に共通して出現するものであると推測される.助詞は日本語特有の文法であり,多くの非日本語母語話者にとっては習得が難しいものである.そのため,中国語母語話者に限らず外国人の学習者作文の誤りに対する訂正対象を助詞とすることは,発生率から考えても効果的である.助詞の種類によって誤り発生のしやすさは異なっているはずであり,全ての助詞が一律に誤りとはならない.今回の作文データにおける助詞誤りについて,さらに詳細に内訳を分析をしたところ,まず,誤りタイプとしては置換誤りが74\%,助詞の抜けが17\%,余分な助詞の出現が9\%であった.特に置換誤りの発生が高い.また余分な助詞の出現が9\%と非常に低く,訂正のために助詞の削除操作が必要となるケースは少ないことがわかる.個別の助詞誤り発生回数上位10件は表\ref{tbl-particle-errors}のとおりである.このうち,「は→が」への置換訂正については,1文中に2回,「は/係助詞」が出現し,片方を「が/格助詞」に置換しなければならなかったものである(たとえば,「問題\underline{は}あるときは...」).「の」の助詞抜けとしては,「2つファイル」のように,数量表現に後続する名詞の直前の「の」が欠けている誤りがよく見られた.また,余分な助詞「の」としては,「やったの人」「小さいの絵」など,連体修飾で使用された動詞や形容詞に後続して「の」が余分に存在している誤りが多い.以上の分析から,本稿では,誤りの出現頻度の高い助詞誤りを訂正対象とした.また,助詞の置換,挿入,削除が現れていることから,原文(入力文)を置換,挿入,削除操作することにより,誤り訂正を行う.\begin{table}[t]\caption{頻出した助詞誤り}\label{tbl-particle-errors}\input{02table02.txt}\end{table}
\section{識別的系列変換}
\label{sec-conversion}本章では,ベースとなる識別的系列変換を用いた誤り訂正方式について述べる.本稿の誤り訂正は,学習者作文および修正文をあらかじめ形態素解析し,単語列から単語列へ変換することで行う.本方式は,基本的には識別モデルを用いた句に基づく統計翻訳器と同等であるが,挿入,削除操作への拡張と,言語モデル確率を扱う拡張を行っている.分類器を用いる誤り訂正方法と異なり,1文中の複数の誤りを一度に訂正し,助詞以外の誤りにも拡張が可能な方式である.\subsection{基本方式}本稿では,音声認識結果を言語処理用単語列に変換する形態素変換器\shortcite{Imamura:MorphTrans2011}をベースにし,以下の手順で入力文の誤りを訂正する.\begin{itemize}\itemまず,入力単語列でフレーズテーブルを検索し,入力側にマッチするフレーズを得る.フレーズテーブルは,助詞誤りとその訂正候補を対にして格納したものである.これは誤り訂正タスクにおけるConfusionSet\shortcite{rozovskaya-roth:2010:EMNLP}と同じもので,表\ref{tbl-particle-errors}をテーブル化したものである\footnote{表\ref{tbl-particle-errors}はフレーズテーブルの一部である.\ref{sec-experimental-settings}節で述べるように,実際にはipadic-2.7.0の最上位品詞が「助詞」であるすべての単語間の誤りを対象とした.}.フレーズテーブルと照合することにより,すべての訂正候補が得られる.また,無修正の場合を考慮し,入力単語を出力単語にコピーしたフレーズを作成し,両者をまとめてラティス構造にパックする(図\ref{fig-lattice}).これをフレーズラティスと呼ぶ.\itemフレーズラティスから,条件付き確率場(ConditionalRandomFields;CRF)\shortcite{Lafferty:CRF2001}に基づき,最尤フレーズ列を探索する.本稿の誤り訂正では語順の変更を行わないため,探索にはViterbiアルゴリズムを用いる.フレーズラティスには,非文法的系列(たとえば,図\ref{fig-lattice}では,格助詞「を」が連続する系列も候補として存在)も含まれるが,枝刈りなどは行わず,モデルに従い最尤探索を行う.\item学習時には,学習者作文と修正文に対して,DPマッチによる単語アライメントを行い,正解のフレーズ列を作成する.この正解から,助詞誤りだけを取得してフレーズテーブルを作成するほか,正解を教師データとしてCRFを学習する\footnote{本稿では,CRF学習のための最適化プログラムとして岡崎のlibLBFGSを用い,実装した.\\http://www.chokkan.org/software/liblbfgs/}.\end{itemize}\begin{figure}[t]\begin{center}\includegraphics{19-5ia2f1.eps}\end{center}\caption{フレーズラティスの例(太線は正解系列を表す)}\label{fig-lattice}\end{figure}\subsection{挿入・削除操作}一般的に句に基づく翻訳器は置換操作のみで翻訳を行うが,本稿で実施する誤り訂正は,助詞の置換操作のほかに,挿入,削除操作も対象となる.挿入操作は,空単語からある単語への置換,削除操作は,ある単語から空単語への置換とみなせるため,両者も基本的には置換操作と同等に扱い,モデルの学習・適用を行う.しかし,挿入操作は,全単語間に挿入される可能性があるため,ラティス構築時にサイズが爆発するなど,非常に計算コストの高い操作である.挿入箇所をある程度絞ることが望ましいため,本稿では,名詞直後に後続する助詞のみ,挿入を許可するという制約をかける.挿入は1箇所1単語のみとする.この制約により,一部訂正不可能な誤りも生じる(たとえば,格助詞「に」の直後に係助詞「は」を挿入し,「に」を「には」に訂正するのは不可能となる).なお,置換操作は,挿入操作と削除操作の連続でも表現できる.本稿では,挿入と削除操作が連続していた場合は,置換操作になるように正解データを作成し,モデルを学習する.誤り訂正時には,フレーズラティス内に置換操作の候補と,挿入と削除操作が連続する候補が混在するが,誤り訂正モデルに従い最尤探索すると,ほとんどすべての場合,置換操作が選ばれる.\subsection{素性}\begin{figure}[b]\begin{center}\includegraphics{19-5ia2f2.eps}\end{center}\caption{マッピング素性とリンク素性}\label{fig-features}\end{figure}\begin{table}[b]\caption{素性テンプレート}\label{tbl-templates}\input{02table03.txt}\end{table}本手法では2種類の素性を用いる.一つは翻訳モデルに相当する入力と出力のフレーズ対応度を測るためのマッピング素性,もう一つは言語モデルに相当する出力単語列の日本語としてのもっともらしさを測るためのリンク素性である.マッピング素性とリンク素性の概要を図\ref{fig-features}に,素性テンプレートの一覧を表\ref{tbl-templates}に示す.固有表現抽出など,識別モデルを用いるタスクでは,タグを付与すべき単語のほかに,その周辺単語を素性として用いる場合が多く,今回も同様な考え方をする.具体的には,当該フレーズの入力側前後2単語をウィンドウとして,1〜3-gramと当該フレーズの出力単語の対を,二値のマッピング素性として使用する.リンク素性に関しては,次節で詳細に述べる.\subsection{日本語平文コーパスの利用とリンク素性への組み込み}誤り訂正タスクにおいては,「正しい日本語」を出力する必要があるため,リンク素性は重要であると考えられる.この「正しい日本語」は,既存の日本語平文コーパスから容易に入手可能である.そこで以下の2種類のリンク素性を併用し,識別学習を通じて全体最適化を行う.識別モデルを用いる本稿の方式は,相互に依存する素性を混在できるという特徴を利用している.\begin{itemize}\itemn-gram二値素性:出力単語の1〜3-gramを二値素性として使用する.最適化用の訓練コーパス(学習者作文・修正文などのペア文)からしか獲得できない.個々のn-gramの素性重みは,マッピング素性を含む他の素性との兼ね合いを考慮しながら最適化されるため,きめ細かい最適化ができ,訓練コーパスにおける精度は高い.言い換えると,未知テキスト中に訓練コーパスと同じパターンの誤りが出現した場合,非常に高い精度で訂正ができる.\item言語モデル確率:出力単語列のn-gram確率(実際にはトライグラム確率)の対数値を実数素性として使用する.素性重みは1つしか付与されないが,言語モデルは日本語平文コーパスから学習できるため,訓練コーパスに限らず,大量の文から構築できる.訓練コーパスに出現した/しないにかかわらず,日本語としての適切さをスコアとして与えることができる.\end{itemize}識別学習における二値素性と実数素性の混在は,半教師あり学習における補助モデル\shortcite{suzuki-EtAl:2009:EMNLP,Suzuki:SemiSupervised2010j}と同じ考え方であり,訓練コーパス上での精度を保ちながら,未知テキストに対して頑健な訂正が行えるという利点がある.
\section{疑似誤り文を用いたペア文の拡張}
\label{sec-pseudo-sentences}第\ref{sec-conversion}章で述べた誤り訂正器には,学習のため,翻訳における対訳文に相当する学習者作文・修正文ペアが必要である.しかし,実際の誤り事例を大量に収集するのは困難であるため,自動生成した疑似誤り文を用いてペア文を拡張する.本章では,まず疑似誤り文生成方法について説明し,ドメイン適応を利用した疑似誤り文の適用方式について説明する.\subsection{疑似誤り生成}前述のとおり,学習者作文・日本語修正文ペアのうちの日本語修正文に関しては,日本語平文コーパスなどから文を適当に選択することにより,容易に入手できる.よって,収集した文を,学習者作文のように誤らせることができれば,ペア文として扱うことができる.本稿では,\shortciteA{rozovskaya-roth:2010:NAACLHLT}と同様の生成方法を取る.具体的には,フレーズテーブルには,すでに誤った助詞とその訂正候補が記録されているので,これを逆に適用し,訂正候補助詞が出現したら,正しい助詞を誤らせる.誤りはある確率で発生させるが,発生確率には,実誤りコーパス(学習者作文と日本語修正文ペア)上での正解助詞$e$とその誤り助詞$f$の相対頻度を使用する.すなわち,\begin{equation}P_{error}(f|e)=\frac{C(f,e)}{C(e)},\end{equation}ただし,$P_{error}(f|e)$は誤り発生確率,$C(f,e)$は,実誤りコーパス上での正解助詞$e$とその誤り助詞$f$の共起頻度,$C(e)$は同コーパス上での正解助詞$e$の出現頻度である.このように生成した疑似誤り文を訓練コーパスに加えることにより,誤り訂正モデルを学習する.\subsection{素性空間拡張法によるドメイン適応}\label{sec-domain-adaptation}自動で作成した疑似誤り文の問題点は,実際の誤りの確率分布を反映している保証がない点である.より正確に実誤りに近づけるため,本稿ではドメイン適応の技術を用いる.すなわち疑似誤り文コーパスをソースドメイン,実際の学習者作文コーパスをターゲットドメインとみなし,ターゲットドメインに適応させた誤り訂正モデルを学習する.本稿では,ドメイン適応法に\shortciteA{daumeiii:2007:ACLMain}の素性空間拡張法(FeatureAugmentation)を用いる.これは,素性空間を拡張することによりドメイン適応を行うもので,ソースドメインに関するモデルを事前分布と考えることに相当する.また,学習方法(学習器)を変更する必要がないという特徴がある.素性空間拡張法を簡単に説明する.素性選択によって構築された素性は,共通,ソース,ターゲットの素性空間に拡張して配備される.この際,ソースドメインから作成された素性($D_s$)は共通およびソースに,ターゲットドメインから作成された素性($D_t$)は共通およびターゲットの素性空間に配備する.つまり,素性空間が3倍に拡張される(図\ref{fig-augment}).パラメータ推定は,上記素性空間上で通常どおり推定される.その結果,ソースドメイン,ターゲットドメインで共通に用いられる素性(つまり,ソース,ターゲットで矛盾しない素性)に関しては,共通空間の重みが大きくなり,両者で矛盾する素性に関しては,ソースまたはターゲット空間の素性が重くなる.どちらか片方にしか出現しない素性については,共通空間とドメイン依存空間の素性が重くなる.図\ref{fig-augment}には,素性空間拡張法の適用例も示した.ここでは,格助詞「が」を「を」に置換するか,無修正にするかという問題に単純化する.いま,ソースドメインデータ,ターゲットドメインデータから,以下の3種類の素性が得られたとする(表{\ref{tbl-templates}}の素性No.~11を想定).\begin{itemize}\item「機能:が:利用」は,ソースドメイン,ターゲットドメイン双方に現れ,どちらも「を」に訂正している.\item「データ:が:変更」は,ソース,ターゲット双方に現れているが,ソースドメインでは無修正,ターゲットドメインでは「を」に置換されている.\item「関数:が:実行」は,ソースドメインのみに現れている.\end{itemize}この素性空間上でパラメータ推定を行うと,「機能:が:利用」は,ドメイン間で矛盾しないので,共通空間の重みが特に大きくなる.一方,「データ:が:変更」は,ソース・ターゲットで矛盾しているので,共通空間の重みが0になり,ソースまたはターゲット空間で,訂正先に依存した重みが重くなる.また,「関数:が:実行」は,共通空間とソース空間の重みが大きくなっている.\begin{figure}[t]\begin{center}\includegraphics{19-5ia2f3.eps}\end{center}\caption{素性空間の拡張}\label{fig-augment}\end{figure}誤り訂正時には,共通とターゲット空間の素性のみを利用してデコードが行われる.ターゲットドメインに最適化されているため,実際の誤り出現分布に近くなる.また,ターゲットドメインの訓練データに現れない素性に関しても,ソースドメインデータから学習された共通空間の素性が利用できるため,ターゲットドメインのみを利用するときより,未知の入力に頑健になる.図\ref{fig-augment}の例では,ソースドメインのみに出現した「関数:が:実行」も利用して訂正ができる.
\section{誤り訂正実験}
\label{sec-experiments}\subsection{実験設定}\label{sec-experimental-settings}\paragraph{訂正対象助詞:}本稿で誤り訂正の対象とする助詞は,ipadic-2.7.0の最上位品詞が助詞であるものすべてである.これには,格助詞,係助詞のほか,副助詞,接続助詞,終助詞,並立助詞なども含まれ,のべ236種類あるが,後述する学習者作文コーパスに出現しない,もしくは誤りがない助詞は訂正対象にならないため,実際の訂正対象助詞は38種類である\footnote{\shortciteA{suzuki-toutanova:2006:COLACL}が対象とした格助詞10種+係助詞「は」と比べると,本稿では「ヘ」が対象外,「より」は単独では出現せず,連語「により」が訂正対象となっている.また,上記論文では,「に/は」のように,格助詞と「は」の連続も1語扱いで訂正対象としているが,本稿では連続した置換,挿入,削除操作を用いて訂正している.}.\paragraph{学習者作文コーパス(実誤りコーパス):}実験に使用したコーパスは,\ref{sec-particle-errors}章で述べた2,770文(104課題)である.ここから助詞誤りのみを残し,それ以外の部分は日本語修正文の単語を埋め込んだ文を作成,コーパスとした.つまり,実験に使用したペア文は,助詞誤りのみを含んだものである.ただし,助詞の表記が学習者作文,日本語修正文で一致している場合は誤りとはみなさず,日本語修正文の品詞を学習者作文にコピーして利用した.誤り総数は,助詞13,534個中1,087箇所(8.0\%)である.また,誤り助詞と訂正助詞を対にした異なり数は,132種類(置換修正95種類,挿入14種類,削除23種類)である.なお,実験に使用したすべての文は,MeCab\footnote{http://mecab.sourceforge.net/}(辞書はipadic-2.7.0を使用)によって形態素解析し,その表記と品詞を単語情報とした.\paragraph{言語モデル:}言語モデルは,Wikipediaのコンピュータ関連記事と,CentOS5の日本語マニュアルから,のべ527,151文を取得し,SRILM\shortcite{Stolcke:SRILM2011}でトライグラムを学習して使用した.バックオフ推定には,ModifiedKneser-Neyディスカウントと補間推定を併用し,未知ユニグラムを疑似単語\texttt{<unk>}として残す設定で学習した.\paragraph{疑似誤りコーパス:}疑似誤り文は,言語モデル作成用コーパスから,ランダムに10,000文を取得して生成した.誤り発生確率は,実誤りコーパス上での相対頻度を倍率1.0として,倍率0.0(つまり誤りなし)〜2.0まで変化させて実験を行った.\paragraph{評価法:}評価は,コーパスを課題単位に分割し,5分割交差検定で行った.評価基準は2種類使用した.\begin{enumerate}\item正解の単語列とシステム出力の単語列の表記を比較し,誤り訂正の再現率,適合率,F値を算出した.\item本タスクは,訂正すべき助詞数に比べ,訂正不要な助詞が圧倒的に多く,システムによって訂正不要な助詞を過剰に訂正してしまう懸念がある.そのため,訂正によって文の品質が向上した助詞数(訂正が必要な助詞をシステムが正しく訂正した数)と悪化した助詞数(訂正不要な助詞を過剰に訂正した数)の差を相対向上数として評価基準とした.この基準では,まったく修正を行わなかった場合に$\pm0$となる.\end{enumerate}\subsection{実験結果1:日本語平文コーパスの利用}まず,日本語平文コーパスを言語モデル確率として利用することの効果を測るため,以下の3手法について精度測定を行った.\begin{itemize}\item\textbf{提案手法:}リンク素性にn-gram二値素性,言語モデル確率を併用した場合.\item\textbf{n-gram二値素性のみ:}リンク素性にn-gram二値素性のみを用い,言語モデル確率を使用しない場合.\item\textbf{言語モデル確率のみ:}リンク素性に言語モデル確率のみを用い,n-gram二値素性を使用しない場合.\end{itemize}実験結果を表\ref{tbl-exp-results}に示す.表中の\mbox{\dag}は提案手法とn-gram二値素性のみの間で有意差があったもの,\mbox{\S}は提案手法と言語モデル確率のみの間で有意差があったものを表す({$p<0.05$})\footnote{適合率・再現率には比率の$\chi^2$検定を使用し,相対向上数には文単位の$t$検定を使用した.}.\begin{table}[b]\caption{リンク素性を変えたときの誤り訂正結果}\label{tbl-exp-results}\input{02table04.txt}\end{table}まず適合率について,使用したリンク素性を比較すると,提案手法とn-gram二値素性のみが同じ精度で,言語モデル確率のみの適合率が低めとなった.再現率は,提案方式が他の2つの方法に比べて大幅に向上(9.9\%,11.2\%→18.9\%)し,その結果,F値も高い値を示した.n-gram二値素性のみと言語モデル確率のみを比較すると,言語モデル確率のみの方が若干再現率が高い.その結果,F値は提案手法(両者併用),言語モデル確率のみ,n-gram二値素性のみの順で精度が高くなった.しかし,相対向上数をみると,言語モデル確率のみは若干悪化しており(つまり過剰訂正が多い),再現率の向上が,誤り訂正の精度に直結していないことがわかる.これは,約92\%の助詞を無訂正にすべきという本タスクの特徴に由来するもので,安易な再現率向上は過剰訂正を引き起こすことを示している.提案手法は,相対向上数でも他の2方式に勝っている.ただし,提案手法とn-gram二値素性のみの間では有意差はなかった.これは,n-gram二値素性は確実な誤りに集中して訂正する効果があるためで,相対向上数からみると有利に働いたためと考えられる.提案方式は,n-gram二値素性,言語モデル確率の併用によって,適合率を保持したまま再現率を向上させており,誤り訂正精度の向上に有効である.\subsection{実験結果2:疑似誤り文によるペア文の拡張}次に,疑似誤り文の導入効果を測定する.リンク素性を提案方法に限定し,疑似誤り文の使用方法のみを変えて実験を行う.図\ref{fig-graph1}は,訓練に用いるコーパスと訓練法を以下の4通りに変えて,再現率/適合率カーブを測定した結果である.なお,図\ref{fig-graph1}は,誤り訂正器が出力するスコアが高い方から,ある再現率を達成するための訂正助詞を取得,適合率を算出したものである.\begin{figure}[b]\begin{center}\includegraphics{19-5ia2f4.eps}\end{center}\caption{再現率/適合率カーブ(誤り発生確率は倍率1.0のとき)}\label{fig-graph1}\end{figure}\begin{itemize}\item\textbf{TRG:}実誤りコーパスだけを用いて誤り訂正モデルを作成した場合(ベースライン).\item\textbf{SRC:}疑似誤りコーパスだけを用いて誤り訂正モデルを作成した場合.\item\textbf{ALL:}実誤りコーパスに疑似誤りコーパスを単純追加してモデルを作成した場合.\item\textbf{AUG:}提案方法.疑似誤りコーパスをソースドメイン,実誤りコーパスをターゲットドメインとして素性空間拡張法によるドメイン適応を行った場合.\end{itemize}TRGをベースラインと考えると,疑似誤り文のみ(SRC)ではTRGの精度に達していない.そのため,疑似誤り文を追加したALLでも適合率は再現率が高いところでようやくTRGと同等の適合率である.提案法であるAUGは,再現率が高くなるに従い,TRGより高い適合率で誤りが訂正できている.再現率18\%では,TRGの適合率が50.5\%に対して,AUGの適合率は55.4\%となった(ただし,$p=0.16$で有意差はない).なお,再現率18\%でのSRCの適合率は35.6\%で,ランダムに訂正するのに比べると適合率は高い.図\ref{fig-graph2}は,誤り発生確率毎の各方式の相対向上数をプロットしたものである.この実験では,誤り発生確率が低い方が全体的に精度がよく,誤り発生なし(倍率0.0)から0.6まではALL方式もTRGを上回っている.しかし,SRCは倍率を高くするに従って相対向上数が低下しており,誤り発生確率を適切に制御しないと,疑似誤り文が効果的に作用しない.一方AUGは,誤り発生確率を変えても,安定した精度向上を果たした.誤り発生倍率が1.0のときの相対向上数は,TRGが+28に対してAUGは+59と,有意に向上しており,疑似誤り文を使用するときは,ドメイン適応を併用することが望ましい.\begin{figure}[t]\begin{center}\includegraphics{19-5ia2f5.eps}\end{center}\caption{誤り発生確率(倍率)毎の相対向上数}\label{fig-graph2}\end{figure}\subsection{誤り訂正例}実験2において,誤り発生倍率1.0のとき,提案方式(AUG)の適合率は54.8\%(210/383),再現率は19.3\%(210/1087)であった.約55\%の適合率は,45\%程度の修正箇所を再修正しないと正しい文にならないという意味で,実用上は決して高いとは言えない.助詞の用法には,意味的・文法的に明らかな誤用と,許容可能なものがあるため,人手評価を行った.何らかの修正操作を出力したが,正解と異なった部分173箇所に関して,1名の評価者によって主観評価した.なお,そのうち151箇所は,正解では無修正だった部分を過剰に修正したものである.評価観点は,システム修正を許容可能か(正解と比較して,意味的・文法的に異なっていないか)である.結果,173箇所のうち103箇所は許容可能であった.つまり,許容可能という観点での適合率は,$(210+103)/383=81.7\%$となった.表\ref{tbl-correct-examples}は,システムによる誤り訂正例である.置換,挿入,削除操作により誤り訂正が成功したもののほか,人手評価によって許容可能と判断されたものには,係助詞「は」と格助詞「が」の置換(No.~4)や,複合名詞が正しい格助詞を補完して分割されたもの(No.~5)があった.許容不可として残ったものの中には,No.~7のように慣用句を過剰訂正したもの,受動態をとらえられず,能動態の格助詞に置換したもの(No.~8),Linuxのfreeコマンドの内容を知らないと訂正ができないもの(No.~10)があった.No.~9は「は」と「が」の置換であるが,「私たち」と「あなた」が呼応する表現であるため,許容不可と判断された.本稿で用いた素性は訂正対象助詞の局所文脈のみであるため,大域的素性を導入しないと正しい訂正は困難なものもある.\begin{table}[t]\caption{システムによる誤り訂正例(訂正部分周辺のみ)}\label{tbl-correct-examples}\input{02table05.txt}\end{table}
\section{関連研究}
\label{sec-related-work}日本語学習者の助詞誤り検出・訂正は従来より研究されてきた.{\kern-0.5zw}近年では,\shortciteA{suzuki-toutanova:2006:COLACL}が,最大エントロピー法(ME)による分類器を用いて,助詞(主に格助詞)が欠落した文からの復元を行っている.この入力文は形態素・構文解析済みであり,基本的に誤り箇所が既に分かっているとき,挿入操作だけで修正を行う.\shortciteA{Ohki:ParticleError2011j}は,形態素・構文解析済みの入力文(誤りを含む)に対して,周辺の形態素や係り先を素性として,SVMで助詞の誤用検出する方法を提案している.ここでは,助詞の欠落も対象としている.検出を行うのみで修正までは行わない.英語の前置詞・冠詞誤り訂正では,\shortciteA{HAN10.821}が,前置詞周辺単語や構文解析の主辞などを素性としたME分類器を用いて,前置詞の誤り訂正を行った.\shortciteA{gamon:2010:NAACLHLT}は前置詞と冠詞誤りを対象に,ME分類器による誤り検出,決定木による誤り訂正を行った.また,\shortciteA{rozovskaya-roth:2010:EMNLP}は平均化パーセプトロンに基づく分類器で前置詞の誤り訂正を行っている.これらの研究は,いずれも誤りの種類を助詞や前置詞・冠詞に限定することで,分類器による誤り訂正を可能としている.一方,\shortciteA{mizumoto-EtAl:2011:IJCNLP-2011}は,誤りを助詞に限定せず,すべての誤りを対象とした自動訂正法を提案した.ここでは,対訳文に相当する学習者作文と日本人による修正文のペアを大量にSNSから収集し,句に基づく統計翻訳の仕組みを利用して訂正を行う.誤りを含む入力の形態素解析は行わず,文字単位で翻訳を行う.本稿で使用した系列変換は,基本的には統計翻訳と同等な手法である.そのため,誤りの種類を助詞に限定する必要がなく,他の誤りにも拡張できる.しかし,本稿の方式はあらかじめ学習者作文が単語に分割されていることを前提としている.誤りを含む文を形態素解析,構文解析した場合の精度は,一般的には日本語母語話者が記述した文の解析精度より落ちると考えられるため,単語分割法も併せて検討する必要がある\shortcite{Fujino:ErrorMorphAnalysis2012j}.母語話者の記述したテキスト(日本語修正文相当)のモデル化という観点で上記研究を俯瞰すると,\shortciteA{suzuki-toutanova:2006:COLACL,Ohki:ParticleError2011j,HAN10.821,rozovskaya-roth:2010:EMNLP}はn-gram二値素性として利用している.\shortciteA{gamon:2010:NAACLHLT,mizumoto-EtAl:2011:IJCNLP-2011}は,n-gram確率という形でモデル化している.本稿では,識別モデルの枠組みで両者を併用し,マッピング素性を含んで全体最適化を行うことにより,再現率を向上することができた.学習者作文の利用という観点で俯瞰すると,いずれの研究も,学習者の誤り傾向をモデルとして組み込むことにより,母語話者の記述したテキストのみを用いて誤り訂正を行う場合に比べ,訂正精度が向上したと報告している\shortcite{HAN10.821,gamon:2010:NAACLHLT,rozovskaya-roth:2010:EMNLP,Kasahara:CaseParticleCorrection2012j}.本稿の方式は,マッピング素性という形で学習者の誤り傾向をモデル化しており,従来研究の成果を取り込んでいる.学習者作文を模した擬似誤り文に関しては,\shortciteA{rozovskaya-roth:2010:NAACLHLT}が提案を行っている.そこでは,学習者の実誤りと同じ分布を持つ擬似誤り文を追加することにより,精度が向上したと報告している.ただ,データ(論文では学習者の母語別)によって最適な擬似誤り生成方法が異なっており,擬似誤り生成を制御する必要がある.本稿では,擬似誤りと実誤りのずれをドメイン適応技術を用いて修正することで安定した精度向上ができた.さまざまな種類の誤りの同時訂正は,\shortciteA{dahlmeier-ng:2012:EMNLP-CoNLL}も行い,前置詞・冠詞誤りだけでなく,スペルミス,句読点,名詞の数の誤りも含めて訂正を行っている.誤りの種別ごとに分類器やルールを用いて訂正仮説を生成し,山登り的に書き換えを繰り返すことで1文中の複数の誤りを訂正する.彼らは,複数の仮説を保持することで,山登り時に局所解に陥る可能性を軽減しているが,本稿の方式はすべての仮説をフレーズラティスに持ち,Viterbiアルゴリズムで最適な組み合わせを探索しているので,モデル上は最適な訂正結果であることが保証されている.本タスクは,訂正すべき助詞に比べ訂正不要な助詞が圧倒的に多く,安易な再現率の向上は誤り訂正精度(相対向上数)の改善に直結しないと述べた.これはデータ不平衡問題(ImbalancedDataProblem)と呼ばれ,機械学習を実タスクに適用するときの主要な問題の一つと認識されている(たとえば,サーベイ論文\shortcite{He:Imbalanced2009}を参照).この問題の解決方法には,少数派と多数派のデータを増減させることで平衡させる方法(サンプリング法)や,少数派の分類誤り(本タスクの場合,訂正誤り)と多数派の分類誤りに異なるコストを与えて学習する方法(ベイズリスク最小法)など,さまざまなものが提案されており,本タスクに適用できるか検討する必要がある.なお,本稿で提案した疑似誤り文は,実誤りの分布を変えないようにデータを増やすのが目的であるので,少数派データを増やすover-sampling法とは異なる位置づけである.
\section{おわりに}
\label{sec-conclusion}本稿では,中国語母語話者の日本語作文における,助詞誤り訂正法を提案した.誤り訂正タスクで難しいのは,誤りを含む実際の学習者作文とその修正文を入手することである.この問題に対して,本稿では,まず日本語平文コーパスを利用して,言語モデル確率とペア文から獲得した二値素性を識別モデルの枠組みで併用し,誤り訂正の再現率を向上させた.また,学習者作文を模した疑似誤り文を自動生成し,学習コーパスに追加した.ドメイン適応を併用することにより,誤り発生確率によらず,安定した精度向上ができることを示した.本稿で用いた識別的系列変換は,助詞誤りに限定せず,すべての誤りを対象とすることができる.今後は,他の種類の誤り訂正にも拡張するのが課題である.\acknowledgment本研究の一部は,\textit{the50thAnnualMeetingoftheAssociationforComputationalLinguistics}で発表したものである\shortcite{imamura-EtAl:2012:ACL2012short}.本論文に関して,非常に有益なコメントをいただいた査読者の方々に感謝する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Dahlmeier\BBA\Ng}{Dahlmeier\BBA\Ng}{2012}]{dahlmeier-ng:2012:EMNLP-CoNLL}Dahlmeier,D.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2012\BBCP.\newblock\BBOQABeam-SearchDecoderforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2012)},\mbox{\BPGS\568--578},JejuIsland,Korea.\bibitem[\protect\BCAY{Daume~III}{Daume~III}{2007}]{daumeiii:2007:ACLMain}Daume~III,H.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL-2007)},\mbox{\BPGS\256--263},Prague,CzechRepublic.\bibitem[\protect\BCAY{藤野\JBA水本\JBA小町\JBA永田\JBA松本}{藤野\Jetal}{2012}]{Fujino:ErrorMorphAnalysis2012j}藤野拓也\JBA水本智也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2012\BBCP.\newblock日本語学習者の作文の誤り訂正に向けた単語分割.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\26--29}.\bibitem[\protect\BCAY{Gamon}{Gamon}{2010}]{gamon:2010:NAACLHLT}Gamon,M.\BBOP2010\BBCP.\newblock\BBOQUsingMostlyNativeDatatoCorrectErrorsinLearners'Writing.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-ACL2010)},\mbox{\BPGS\163--171},LosAngeles,California.\bibitem[\protect\BCAY{Han,Tetreault,Lee,\BBA\Ha}{Hanet~al.}{2010}]{HAN10.821}Han,N.-R.,Tetreault,J.,Lee,S.-H.,\BBA\Ha,J.-Y.\BBOP2010\BBCP.\newblock\BBOQUsinganError-AnnotatedLearnerCorpustoDevelopan{ESL/EFL}ErrorCorrectionSystem.\BBCQ\\newblockIn{\BemProceedingsoftheSeventhInternationalConferenceonLanguageResourcesandEvaluation(LREC'10)},Valletta,Malta.\bibitem[\protect\BCAY{He\BBA\Garcia}{He\BBA\Garcia}{2009}]{He:Imbalanced2009}He,H.\BBACOMMA\\BBA\Garcia,E.~A.\BBOP2009\BBCP.\newblock\BBOQLearningfromImbalancedData.\BBCQ\\newblock{\BemIEEETransactionsonKnowledgeandDataEngineering},{\Bbf21}(9),\mbox{\BPGS\1263--1284}.\bibitem[\protect\BCAY{Imamura,Izumi,Sadamitsu,Saito,Kobashikawa,\BBA\Masataki}{Imamuraet~al.}{2011}]{Imamura:MorphTrans2011}Imamura,K.,Izumi,T.,Sadamitsu,K.,Saito,K.,Kobashikawa,S.,\BBA\Masataki,H.\BBOP2011\BBCP.\newblock\BBOQMorphemeConversionforConnectingSpeechRecognizerandLanguageAnalyzersinUnsegmentedLanguages.\BBCQ\\newblockIn{\BemProceedingsofInterspeech2011},\mbox{\BPGS\1405--1408},Florence,Italy.\bibitem[\protect\BCAY{Imamura,Saito,Sadamitsu,\BBA\Nishikawa}{Imamuraet~al.}{2012}]{imamura-EtAl:2012:ACL2012short}Imamura,K.,Saito,K.,Sadamitsu,K.,\BBA\Nishikawa,H.\BBOP2012\BBCP.\newblock\BBOQGrammarErrorCorrectionUsingPseudo-ErrorSentencesandDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2012)Volume2:ShortPapers},\mbox{\BPGS\388--392},JejuIsland,Korea.\bibitem[\protect\BCAY{笠原\JBA藤野\JBA小町\JBA永田\JBA松本}{笠原\Jetal}{2012}]{Kasahara:CaseParticleCorrection2012j}笠原誠司\JBA藤野拓也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2012\BBCP.\newblock日本語学習者の誤り傾向を反映した格助詞訂正.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\14--17}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:CRF2001}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning(ICML-2001)},\mbox{\BPGS\282--289},Williamstown,Massachusetts.\bibitem[\protect\BCAY{Mizumoto,Komachi,Nagata,\BBA\Matsumoto}{Mizumotoet~al.}{2011}]{mizumoto-EtAl:2011:IJCNLP-2011}Mizumoto,T.,Komachi,M.,Nagata,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQMiningRevisionLogofLanguageLearning{SNS}forAutomated{Japanese}ErrorCorrectionofSecondLanguageLearners.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-2011)},\mbox{\BPGS\147--155},ChiangMai,Thailand.\bibitem[\protect\BCAY{大木\JBA大山\JBA北内\JBA末永\JBA松本}{大木\Jetal}{2011}]{Ohki:ParticleError2011j}大木環美\JBA大山浩美\JBA北内啓\JBA末永高志\JBA松本裕治\BBOP2011\BBCP.\newblock非日本語母国語話者の作成するシステム開発文書を対象とした助詞の誤用判定.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\1047--1050}.\bibitem[\protect\BCAY{Rozovskaya\BBA\Roth}{Rozovskaya\BBA\Roth}{2010a}]{rozovskaya-roth:2010:EMNLP}Rozovskaya,A.\BBACOMMA\\BBA\Roth,D.\BBOP2010a\BBCP.\newblock\BBOQGeneratingConfusionSetsforContext-SensitiveErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2010)},\mbox{\BPGS\961--970},Cambridge,Massachusetts.\bibitem[\protect\BCAY{Rozovskaya\BBA\Roth}{Rozovskaya\BBA\Roth}{2010b}]{rozovskaya-roth:2010:NAACLHLT}Rozovskaya,A.\BBACOMMA\\BBA\Roth,D.\BBOP2010b\BBCP.\newblock\BBOQTrainingParadigmsforCorrectingErrorsinGrammarandUsage.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-ACL2010)},\mbox{\BPGS\154--162},LosAngeles,California.\bibitem[\protect\BCAY{Rozovskaya\BBA\Roth}{Rozovskaya\BBA\Roth}{2011}]{rozovskaya-roth:2011:ACL-HLT2011}Rozovskaya,A.\BBACOMMA\\BBA\Roth,D.\BBOP2011\BBCP.\newblock\BBOQAlgorithmSelectionandModelAdaptationfor{ESL}CorrectionTasks.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechologies(ACL-HLT2011)},\mbox{\BPGS\924--933},Portland,Oregon.\bibitem[\protect\BCAY{Stolcke,Zheng,Wang,\BBA\Abrash}{Stolckeet~al.}{2011}]{Stolcke:SRILM2011}Stolcke,A.,Zheng,J.,Wang,W.,\BBA\Abrash,V.\BBOP2011\BBCP.\newblock\BBOQ{SRILM}atSixteen:UpdateandOutlook.\BBCQ\\newblockIn{\BemProceedingsofIEEEAutomaticSpeechRecognitionandUnderstandingWorkshop(ASRU2011)},Waikoloa,Hawaii.\bibitem[\protect\BCAY{末永\JBA松嶋}{末永\JBA松嶋}{2012}]{Suenaga:ErrorCorrection2012j}末永高志\JBA松嶋敏泰\BBOP2012\BBCP.\newblockベイズ決定理論にもとづく階層Nグラムを用いた最適予測法と日本語入力支援技術への応用.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\6--9}.\bibitem[\protect\BCAY{Suzuki\BBA\Toutanova}{Suzuki\BBA\Toutanova}{2006}]{suzuki-toutanova:2006:COLACL}Suzuki,H.\BBACOMMA\\BBA\Toutanova,K.\BBOP2006\BBCP.\newblock\BBOQLearningtoPredictCaseMarkersinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL2006)},\mbox{\BPGS\1049--1056},Sydney,Australia.\bibitem[\protect\BCAY{鈴木\JBA磯崎}{鈴木\JBA磯崎}{2010}]{Suzuki:SemiSupervised2010j}鈴木潤\JBA磯崎秀樹\BBOP2010\BBCP.\newblock大規模ラベルなしデータを利用した係り受け解析の性能検証.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\19--22}.\bibitem[\protect\BCAY{Suzuki,Isozaki,Carreras,\BBA\Collins}{Suzukiet~al.}{2009}]{suzuki-EtAl:2009:EMNLP}Suzuki,J.,Isozaki,H.,Carreras,X.,\BBA\Collins,M.\BBOP2009\BBCP.\newblock\BBOQAnEmpiricalStudyofSemi-supervisedStructuredConditionalModelsforDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2009)},\mbox{\BPGS\551--560},Singapore.\end{thebibliography}\begin{biography}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年日本電信電話株式会社入社.1995年〜1998年NTTソフトウェア株式会社.2000年〜2006年ATR音声言語コミュニケーション研究所.2006年よりNTTサイバースペース研究所(現NTTメディアインテリジェンス研究所)主任研究員.現在に至る.主として自然言語処理の研究・開発に従事.博士(工学).電子情報通信学会,情報処理学会,言語処理学会,ACL各会員.}\bioauthor{齋藤邦子}{1996年東京大学理学部化学科卒業.1998年同大学院修士課程修了.同年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所主任研究員.自然言語処理の研究・開発に従事.言語処理学会,情報処理学会各会員.}\bioauthor{貞光九月}{2004年筑波大学第三学群情報学類卒業.2009年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻修了.同年,日本電信電話株式会社入社.以来,自然言語処理の研究開発に従事.現在,NTTメディアインテリジェンス研究所音声言語メディアプロジェクト研究員.情報処理学会,言語処理学会各会員.}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年日本電信電話株式会社入社.現在NTTメディアインテリジェンス研究所にて自然言語処理技術の研究開発に従事.奈良先端科学技術大学院大学博士後期課程在学中.言語処理学会,人工知能学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V07N02-07
|
\section{はじめに}
近年のWWW(WorldWideWeb)などのインターネットの発展や電子化文書の増加により情報検索\cite{ir_tokunaga,ir_doukou,Fujita99}の研究は盛んになっている.これを背景に日本で情報検索コンテストIREXが行なわれた.われわれはこのコンテストに二つのシステムを提出していたが,記事の主題が検索課題に関連している記事のみを正解とするA判定の精度はそれぞれ0.4926と0.4827で,参加した15団体,22システムの中では最もよい精度であった.本論文は,この二つのシステムの詳細な説明と,これを用いた詳細な実験結果を記述するものである.われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデル\cite{2poisson}を用いている.しかし,この方法では検索のための手がかりとして当然用いるべき位置情報や分野情報などを用いていない.それに対しわれわれは2-ポアソンモデルにおいて位置情報や分野情報,さらに種々の詳細な情報などをも統一的に用いる枠組を考案し,これらの情報の追加により精度向上を実現できることを実験により確かめている.また,2-ポアソンモデルを用いる際にはまず,どのようなものをキーワードとするかを定める必要がある.本研究では,キーワードの抽出方法について4つのものを示し,それらの比較実験を行なっている.
\section{情報検索の方法}
\subsection{問題設定}本研究での情報検索の問題設定は,日本で開催された情報検索コンテストIREX\cite{irex1_Sekine_eng}のものと全く同じである.本研究で検索の対象とするデータは,IREXで用いられた毎日新聞94年95年の二年分の新聞記事データである.このデータに対して日本語文で記述された検索要求を満足する文書を検索する.日本語文で記述された検索要求の例を以下に示す(IREXの予備試験の課題より).\vspace{0.1cm}\begin{quote}\begin{verbatim}<TOPIC><TOPIC-ID>1001</TOPIC-ID><DESCRIPTION>企業合併</DESCRIPTION><NARRATIVE>記事には企業合併成立の発表が述べられており、その合併に参加する企業の名前が認定できる事。また、合併企業の分野、目的など具体的内容のいずれかが認定できる事。企業合併は企業併合、企業統合、企業買収も含む。</NARRATIVE></TOPIC>\end{verbatim}\end{quote}\vspace{0.1cm}ここでTOPIC-IDで囲まれた数字は設問番号を意味し,DESCRIPTIONが検索課題を端的に示すフレーズ,NARRATIVEが検索要求を厳密に規定する説明文となっている.これをシステムがうけとり,例えば以下のような記事を検索対象としてかえせばよい.\vspace{0.1cm}\begin{quote}\begin{verbatim}<DOCNO>950217091</DOCNO><SECTION>経済</SECTION><AE>無</AE><WORDS>288</WORDS><HEADLINE>キグナス石油精製を東燃が100%子会社化</HEADLINE><TEXT>東燃は十六日、系列のキグナス石油精製(資本金十億円、本社・川崎市、森利英社長)を一〇〇%子会社化すると発表した。同社は東燃が七割、ニチモウが三割出資しており、東燃はニチモウが所有する全株式六十万株を百二十五億円で買収する。東燃は石油精製専業大手で、設備シェアは一九九三年度末で八%。キグナス石油精製を加えると九・四%にシェアがアップする。ニチモウは山口県の工場閉鎖などに伴う経費ねん出のため株式譲渡を決断した。石油業界は来年春の特定石油製品輸入暫定措置法(特石法)廃止をにらみ、コスト削減と効率化を進めており、グループ企業統合を含む再編の動きがいよいよ本格化してきた。</TEXT></DOC>\end{verbatim}\end{quote}\vspace{0.1cm}この記事のようにSECTIONには経済面などの新聞の誌面情報が,HEADLINEには記事のタイトルが,TEXTには記事の本文がある.IREXでは,各設問に対し300個の記事を順位つきで提出することになっており,各設問おおよそ50個程度ある正解を上位にたくさん含むような結果を提出すれば,よりよい精度が得られるようになっている.情報検索の精度の評価には,TRECのtrec\_evalというツール\cite{trec_eval}を利用し,コンテストの評価ではtrec\_evalで得られる評価値のうちR-Precisionという評価値(正解記事数分だけ検索した時に正解の記事が含まれている割合)が用いられている.\subsection{検索方法の概略}\label{sec:robertson}先に述べたとおり,われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデル\cite{2poisson}を用いる\footnote{IREXのコンテストでは上位三団体のシステムはすべてRobertsonらの方法に基づくものであったので,この手法を検索の基本部分に使用することは現状では最善と思われる.また,この手法の有効性について文献\cite{irex1_IR}においてより詳しく論じている.}.Robertsonらの方法とは,各記事毎に以下の式で与えられるScoreを算出し,Scoreの上位のものを検索結果として出力する方法である.(以下のScore(d)は記事dのScore.)\vspace{-4mm}\begin{eqnarray}\footnotesize\label{eqn:robertson}&Score(d)=\displaystyle\sum_{\begin{minipage}[h]{2cm}\footnotesizeキーワードt\\[-0.1cm]で和をとる\end{minipage}}&\left(\displaystyle\frac{TF(d,t)}{\displaystyle\frac{length(d)}{Δ}+TF(d,t)}\×\log\frac{N}{DF(t)}\right)\end{eqnarray}\vspace{-4mm}ただし,ここでのキーワードとは検索要求に出現していたキーワードである.$TF(d,t)$はキーワードtの記事dでの出現回数である.$DF(t)$は全データベースでのキーワードtが出現している記事の数である.$N$は全データベースに存在する記事の数.$length(d)$は記事dの長さ(文字列単位)である.$Δ$は全データベースでの記事の長さの平均である.また,この式の{\small$\frac{TF(d,t)}{\displaystyle\frac{length(d)}{Δ}+TF(d,t)}$}をTFに関する項としてTF項,$log\frac{N}{DF(t)}$をIDF(DFの逆数)に関する項としてIDF項と呼ぶことにする.この式のTFの項が一般のベクトル空間法で重みの一部として用いられるTFと異なり,$\frac{TF}{\frac{length}{Δ}+TF}$のようになっている.Scoreをキーワードによる加点として扱うとき,TFの影響が大きい場合だと一つでもTFの値が大きいキーワードがあれば,他のキーワードがほとんど存在していないという関連性が低いときでも十分大きな得点を取ってしまう.この式はこのことを防ぐのに役に立っている.この式ではTFが無限になってもたかだか1の値を持つにすぎない.このため全キーワードがまんべんなく評価されることになる.さらに,$\frac{length}{Δ}$という複雑な部分があるが,これは長い記事ほどTFの値が大きくなるのでそれを補正するための項である.われわれの方法は,この式(\ref{eqn:robertson})にいくつかの補強項をつけたものであり,以下の式で表現される.\begin{eqnarray}\footnotesize&Score(d)=\displaystyleK_{\rm分野}(d)&\hspace{-0.3cm}\left\{\displaystyle\sum_{\begin{minipage}[h]{2cm}\footnotesizeキーワードt\end{minipage}}\hspace{-0.3cm}(TF項(d,t)\×\IDF項(t)\×\K_{\rm詳細}(d,t)\right.\nonumber\\[0.2cm]&&\left.\×\K_{\rm位置}(d,t))+\displaystyle\frac{length(d)}{length(d)+Δ}\right\}\label{eqn:score}\end{eqnarray}この式のTF項IDF項は,式(\ref{eqn:robertson})と同じである.この式の$\frac{length(d)}{length(d)+Δ}$$(=K_{\rm記事長}(t))$は記事長が長いほど値が大きくなる項で,他の情報がまったく同じならば記事長が長ければ長いほど検索要求を含みやすいと考えて作ったものである.$K_{\rm分野}$,$K_{\rm詳細}$,$K_{\rm位置}$は精度向上のために追加した補強項である.$K_{\rm分野}$は新聞の紙面情報(分野情報)を利用する項で,$K_{\rm位置}$は記事中でのキーワードの位置で重みを変更するものである.タイトルにあれば大きい値とし,記事中での位置が最初のものを加点し,後ろのものを減点するということをしている.$K_{\rm詳細}$は,さらに詳細な項でキーワードが固有名詞ならば加点したり,キーワードが「事」「認定」「記事」「言及」などの不要な単語の場合減点したりする項である.次節ではこれらの補強項の詳細な説明を行なう.\subsection{補強項の説明}式(\ref{eqn:score})のようにわれわれは補強項として$K_{\rm位置}$,$K_{\rm分野}$,$K_{\rm詳細}$の三つを用いている.ここではこれらを詳細に説明する.\begin{enumerate}\item\underline{位置情報の利用($K_{\rm位置}$)}特に新聞記事でいわれることだが,タイトルや記事の最初の文はその記事のおおまかな内容を示すことが多い.このため,そのような位置に現れるキーワードを重視することで情報検索の精度を向上させることができる\cite{araya}.この$K_{\rm位置}$はそのためのもので,記事中でそのキーワードが初めて出現している位置で重みを変更するものである.タイトルにあれば大きい値とし,記事中での位置も最初のものを加点し,後ろのものを減点するということをする.この項は以下の式で表される.\begin{eqnarray}\footnotesize\label{eqn:ichi}&K_{\rm位置}(d,t)=\left\{\begin{array}[h]{l}k_{\rm位置,1}\,(キーワードtが記事dでタイトルに出現)\\1+k_{\rm位置,2}\displaystyle\frac{(length(d)-2*P(d,t))}{length(d)}\,\,(それ以外)\end{array}\right.&\end{eqnarray}この式でlength(d)は記事dの長さでP(d,t)はキーワードtの記事dでの位置を意味する.$k_{\rm位置,1}$,$k_{\rm位置,2}$は実験で定める定数である.一記事中に同じキーワードが複数出現する場合は最も初めに出現したもののみを用いる.\item\underline{分野情報(紙面情報)の利用($K_{\rm分野}$)}$K_{\rm分野}$は新聞の紙面情報(分野情報)を利用する項である.これは,関連性フィードバッ\breakク\cite{r-feedback}のようなことをするもので,一度この項を1として検索を行ない,その検索結果における上位100個において紙面情報の統計をとり,その統計結果に基づき上位に出現しやすい面を特定し,それと同じ面に書いてある記事の得点を増加させることでScoreを再計算するものである.例えば,一回目の検索で上位100個には経済面が集中していたとすると,経済面の記事には加点し,そうでない記事は減点するといったことを行なう.この項($K_{\rm分野}$)は以下の式で表される.\vspace{-4mm}\begin{eqnarray}\footnotesize\label{eqn:men}&K_{\rm分野}(d)=1+k_{\rm分野}(割合A(d)-割合B(d))/(割合A(d)+割合B(d))&\end{eqnarray}\vspace{-4mm}だだし,$割合A(d)$は一回目の検索結果の上位100個における記事dが該当する面の割合\footnote{このときの割合の算出は,上位のものに重みを傾斜的に付加している.順位$x$の記事に対して$(150-x+0.5)/100$の重みを頻度にかけてから割合の算出を行なっている.}で,$割合B(d)$は全記事での記事dが該当する面の割合を意味する.この式の値は,$割合A$が大きく(該当記事の面が一回目の検索結果でよく出現していて),$割合B$が小さい(該当記事の面が全記事ではそれほど出現していない)場合に大きくなるようになっている.$k_{\rm分野}$は実験で定める値である.\item\underline{その他の情報の利用($K_{\rm詳細}$)}$K_{\rm詳細}$は,さらに詳細な項でキーワードが固有名詞ならば加点したり,キーワードが「事」「認定」「記事」「言及」などの不要な単語の場合減点したりするもので,以下の式によって表される.(本節では表記の簡単化のため,記事,キーワード用の変数d,tを省略して記述している.)\begin{eqnarray}\footnotesize\label{eqn:detail}{\slK}_{\rm詳細}&=&K_{\rmタイトル}×K_{\rm固有}×K_{\rmなど}×K_{\rm数字}\nonumber\\&&×K_{\rmひらがな}×K_{\rmneg}×K_{\rm不要語}\end{eqnarray}この式の各項の説明を以下に記述する.\begin{itemize}\item$K_{\rmタイトル}$該当するキーワードが検索要求のタイトルDESCRIPTIONから得られたものの場合は$k_{\rmタイトル}$の値とし,そうでない場合1とする.この項は検索要求のタイトルDESCRIPTIONから得られたキーワードを重要と考えて加点するためのものである.\item$K_{\rm固有}$該当するキーワードが固有名詞の場合,$k_{\rm固有}$の値とし,そうでない場合1とする.検索要求から得られたキーワードが固有名詞ならば,そのキーワードを重要と考えて加点する.\item$K_{\rmなど}$該当するキーワードが検索要求において「など」の直前にあった場合,$k_{\rmなど}$の値とし,そうでない場合1とする.検索要求から得られたキーワードが検索要求において「など」の直前にあった場合,特殊化されたキーワードであると考えて固有名詞と同様に加点する.\item$K_{\rm数字}$該当するキーワードが数字だけで構成されている場合,$k_{\rm数字}$の値とし,そうでない場合1とする.検索要求から得られたキーワードが数字だけで構成されている場合は情報量が少なくあてにならないキーワードであると考えて減点する.\item$K_{\rmひらがな}$該当するキーワードがひらがなだけで構成されている場合,$k_{\rmひらがな}$の値とし,そうでない場合1とする.検索要求から得られたキーワードがひらがなだけで構成されている場合は情報量が少なくあてにならないキーワードであると考えて減点する.\item$K_{\rmneg}$該当するキーワードがNEGのタグで囲まれた部分からのみ抽出されている場合,$k_{\rmneg}$の値とし,そうでない場合1とする.検索要求の中には下記のように「〜は除く」という表現にはNEGのタグがふられている.\vspace{0.1cm}\begin{quote}\begin{verbatim}<TOPIC><TOPIC-ID>1003</TOPIC-ID><DESCRIPTION>国連軍の派遣</DESCRIPTION><NARRATIVE>平和維持活動など国連の活動における国連軍の派遣について述べられている記事。派遣の目的または対象地域が記事から明示的に分る事。<NEG>日本の自衛隊を国連に派遣するかどうかという問題のみに関する記事は除く。</NEG></NARRATIVE></TOPIC>\end{verbatim}\end{quote}\vspace{0.1cm}$K_{\rmneg}$は,NEGのタグで囲われている部分のみから抽出されたキーワードは逆に不要な記事を取ってくる可能性が高いと考えて減点する.本論文での実験では$k_{\rmneg}$の値として0を用いている.これは,NEGのタグで囲われた部分のキーワードの得点は加算も減点もしないという,その部分の情報は全く利用しないという状態を意味する\footnote{$k_{\rmneg}=-1$つまり,NEGのタグで囲われた部分のキーワードがあるとScoreをその分下げるという条件や,$k_{\rmneg}=0.5$つまり,NEGのタグで囲われた部分のキーワードは重みを半分にするというものでも,予備試験,本試験のデータで実験を行なったが,R-Precisionの精度は微妙に下がった(0.01未満).}.\item$K_{\rm不要語}$該当するキーワードが検索要求において「事,認定,記事,言及,対象,場合,具体的内容」の場合を$k_{\rm不要語,1}$とし,そうでなく「分野,目的,具体的,具体,的,内容,いずれ,結果,問題,場合,影響,可能性,可能,性,指摘,対策」の場合を$k_{\rm不要語,2}$とし,それらでない場合1とする.「事,認定,記事,言及」といった今回の検索要求固有の表現で検索内容に関わらない表現は不要なキーワードとし,減点するためのものである.この不要語のリストはIREXの予備試験のときに作成した.\end{itemize}ここで,$k_{\rmタイトル}$などの各定数は,実験で定めるものとする.\end{enumerate}\subsection{キーワードの抽出方法}\label{sec:extract_keyword}本節では検索要求文からのキーワードの抽出方法について述べる.キーワードの抽出方法については,いくつかの異なる方法を考えている.これらについて以下で説明する.\begin{enumerate}\item\underline{最も短いキーワードのみを利用する方法}これは最も単純な方法である.検索要求文を単語列に分割し,その単語列のそれぞれの単語をキーワードとする方法である.われわれのシステムではJUMAN\cite{JUMAN3.6}でまず形態素列に分割し,さらに得られた形態素を辞書を用いて細分割するということを行なっている.これは,JUMANでは形態素解析の精度向上のために,複合語のような長い形態素が登録されておりそれが単一の形態素として出力されるためである.例えば,「国連軍」という語をJUMANに入力しても「国連軍(名詞)」と出力されるだけで細分割を行なわない.これでは「国連」や「軍」がキーワードとならず情報検索では検索洩れの大きな原因となる.そこでわれわれのシステムではJUMANの結果をさらに辞書を参照して細分割するようにしている.いまのところ,簡単のため,二分割を繰り返すアルゴリズムを利用しており,「国連軍」だと「国連」「軍」が辞書にあれば分割するということを行なっている.辞書としてはEDRの単語辞書\cite{edr}を利用している.例として以下の検索要求からキーワードを取り出すこととする.\vspace{0.1cm}\begin{quote}\begin{verbatim}<TOPIC><TOPIC-ID>1001</TOPIC-ID><DESCRIPTION>企業合併</DESCRIPTION><NARRATIVE>記事には企業合併成立の発表が述べられており、その合併に参加する企業の名前が認定できる事。また、合併企業の分野、目的など具体的内容のいずれかが認定できる事。企業合併は企業併合、企業統合、企業買収も含む。</NARRATIVE></TOPIC>\end{verbatim}\end{quote}\vspace{0.1cm}まず,DESCRIPTIONから「企業」「合併」というキーワードが得られる.また,NARRATIVEからは「記事,企業,合併,成立,発表,合併,参加,企業,名前,認定,事,合併,企業,分野,目的,具体的,内容,いずれ,認定,事,企業,合併,企業,併合,企業,統合,企業,買収」というキーワードが得られる.このとき,助詞の「に」「は」など名詞・未定義語以外の単語はキーワードとしては不適切としてすべて省き,接尾辞の形態素は直前の形態素に接合させるなどの処理をしている\footnote{この他に「文献,研究,論文,提案,処理,こと,とき,もの,の」などの不要語を省いている.これはNTCIRのコンテスト\cite{nacsis1}の予備試験のデータにおいてシステムを構築する際に不要と思われた単語である.$K_{\rm不要語}$と混同しないようにしてほしい.$K_{\rm不要語}$とはまったく別処理である.}.「最も短いキーワードのみを利用する方法」とは以上の単語をキーワードとして利用するものである.\item\underline{あらゆるパターンのキーワードを利用する方法}「最も短いキーワードのみを利用する方法」では,細分割されすぎていて例えば,「企業合併」というキーワードは用いず,「企業」「合併」と分離したキーワードしか用いないようになっている.それよりは,「企業合併」というものもキーワードとして用いた方がよいと考え,短いものも長いものもすべてキーワードとすることを考える.これを「あらゆるパターンのキーワードを利用する方法」と呼ぶことにする.例えば,「企業合併成立」が入力されると,「企業」「合併」「成立」という短いものから「企業合併」「合併成立」という中くらいのものと「企業合併成立」という一番長いものまですべてキーワードとして扱う方法である.この方法ならば,あらゆる長さのキーワードを利用しておりよいのではないかと考えた.しかし,「企業の合併が成立」からは「企業」「合併」「成立」の三つしか得られないのに対し,「企業合併成立」という表現からは六つのキーワードが得られ,若干不公平ではないかと考えた.これを正規化するために種々の方法を考えたが,予備試験でのデータでの実験では$\sqrt{\frac{n(n+1)}{2}}$で各キーワードの重みを割ると精度が良かったのでそのように正規化することにした.ただし,nは連続している単語の数を示す.例えば「企業合併成立」の例だとn=3となる.\item\underline{ラティスを利用する方法}「あらゆるパターンのキーワードを利用する方法」は,あらゆるパターンのキーワードを利用するという発想はよいが理由をつけづらい$\sqrt{\frac{n(n+1)}{2}}$というアドホックな式で正規化する必要がある.そこで,なるべくあらゆるパターンのキーワードを利用しつつなおかつ整合性が保てるように,キーワードへの分割の曖昧性をラティス構造に保存し,先に示した検索で用いる式(\ref{eqn:score})のScoreの値が最も大きくなるようなパスでキーワードを分割してキーワードを抽出する方法を考えた.(この方法は,小澤らの論文\cite{ozawa_nlp99}の3.1節の「類似度を最大とする単語分割」とほぼ同じ考え方である.違いは検索方法の基本式が異なることや,分割に形態素解析システムを用いていないことで,評価関数の値が最も大きくなるように分割するという意味では全く同じである.)\begin{figure}[t]\begin{center}\begin{minipage}{7cm}\begin{center}\epsfile{file=kigyo.eps,height=4cm,width=6.3cm}\end{center}\caption{ラティス構造の例}\label{fig:lattice}\end{minipage}\end{center}\end{figure}例えば,「企業合併成立」の場合だと図\ref{fig:lattice}のラティス構造を得る.図のように4種類の経路があるので分割の曖昧性として4種類ある.この4種類の分割を行ないそれぞれ式(\ref{eqn:score})のScoreを求め,最も値の大きい経路に分割する.ある記事では「企業」「合併」「成立」と分割されたものしかなく,分割して計算した方がScoreが大きかったり,またある記事では「企業合併」というものが出現しておりTF項×IDF項の値が「企業合併」の方が極端に大きく「企業合併」「成立」と分割した方がScoreが大きくなりそのように分割するといったことになる.また,「企業合併」というものが出現していても「企業合併」のTF項×IDF項の値がそれほど大きくなく「企業」と「合併」のTF項×IDF項の和の方が大きい場合は,「企業」と「合併」と分割したものをキーワードとするといったことにもなり,そのときそのときの状況に応じたキーワード分割が可能となる.この方法ならば,「あらゆるパターンのキーワードを利用する方法」のようなアドホックな正規化を行なう必要がない.\item\underline{down-weighting\cite{Fujita99_IREX_jap}を利用する方法}この方法はIREXのコンテストで他のチームが提案していた方法で,コンテストの終了後,利用を検討したものである.この方法は,「あらゆるパターンのキーワードを利用する方法」において,最も短いキーワードはそのままの重みで用い,それよりも長いキーワードは重みが小さくなるように重みづけして用いる方法である.本研究では,あるキーワードが短いキーワードx個から構成されるとき,そのキーワードに$k_{down}$$^{x-1}$の重みをかけることにした.ただし,$k_{down}$は実験で定める定数である.この方法は基本的には最も短いキーワードを用いるが,それよりも長いキーワードについての影響も少々考慮するといったものとなっている.\end{enumerate}キーワードの抽出方法として以上の四つを示したが,さらにこれらを式(\ref{eqn:score})で使う際にいくつかの選択肢が残されている.例えば,先ほどの「企業合併」の例のNARRATIVEからは「記事,企業,合併,成立,発表,合併,参加,企業,名前,認定,事,合併,企業,分野,目的,具体的,内容,いずれ,認定,事,企業,合併,企業,併合,企業,統合,企業,買収」というキーワードが得られるが,ここでは「企業」という表現が数多く出現する.式(\ref{eqn:robertson})の説明でTFの影響が強い場合の弊害を説明したが,この場合検索要求文側でのTFの影響が強いという弊害が出る恐れがある.このために,このキーワード列をそれぞれ同じ種類のものはまとめ,それぞれの種類ごとに一回ずつしか出現していなかったというようにすることも可能である.Robertsonらはこの場合のことも考え,以下のような評価式も利用している.(ここでは検索要求文qにおけるScore(d)をScore(d,q)と表記している.)\begin{eqnarray}\footnotesize\label{eqn:robertson2}&Score(d,q)=\displaystyle\sum_{\begin{minipage}[h]{2cm}\footnotesizeキーワードt\\[-0.1cm]で和をとる\end{minipage}}&\left(\displaystyle\frac{TF(d,t)}{\displaystyle\frac{length(d)}{Δ}+TF(d,t)}\×\log\frac{N}{DF(t)}\right.\nonumber\\&&\left.×\displaystyle\frac{TFq(q,t)}{TFq(q,t)+kq}\right)\end{eqnarray}ただし,TFq(q,t)は検索要求文qでのキーワードtの出現頻度である.kqは実験で定める定数である.kqが0のとき,キーワードをすべてそれぞれの種類ごとに一回ずつしか出現していないかのように扱うことと等価で,kqが∞のとき,キーワードをそのまま出現した個数で扱うことと等価となる\footnote{kqを∞にする際,kqは定数のため式(\ref{eqn:robertson2})に掛けてもScoreの順序関係は変わらないので,式(\ref{eqn:robertson2})にkqをかけてからkqを∞にする.そうすると,式(\ref{eqn:robertson2})の最終項は以下のように計算される.\begin{eqnarray}\footnotesize&&\displaystyle\lim_{kq\rightarrow∞}\frac{TFq(q,t)×kq}{TFq(q,t)+kq}\\&=&\displaystyle\lim_{kq\rightarrow∞}\frac{TFq(q,t)}{TFq(q,t)/kq+1}\\&=&\displaystyleTFq(q,t)\end{eqnarray}つまり,TFq(q,t)となり,キーワードをそのまま出現した個数で扱うことと等価となる.}.さらに,検索要求文においてもIDF項を考慮することが可能で,以下のような式も考えられる.\begin{eqnarray}\footnotesize\label{eqn:idfq}&Score(d,q)=\displaystyle\sum_{\begin{minipage}[h]{2cm}\footnotesizeキーワードt\\[-0.1cm]で和をとる\end{minipage}}&\left(\displaystyle\frac{TF(d,t)}{\displaystyle\frac{length(d)}{Δ}+TF(d,t)}\×\log\frac{N}{DF(t)}\right.\nonumber\\&&\left.×\\displaystyle\frac{TFq(q,t)}{TFq(q,t)+kq}\×\\displaystylelog\frac{Nq}{DFq(t)}\right)\end{eqnarray}ただし,Nqは検索要求の個数でDFq(t)はキーワードtがいくつの検索要求に出現しているかの個数を意味する.多くの検索要求に出現するキーワードほど,「記事」「認識」などの不要語である可能性があり,この項を利用することによりこれらの不要語を減点する効果がある.
\section{IREXコンテストの本試験に提出した二つのシステムの説明とその実験結果}
われわれはIREXのコンテストとして,二つのシステムを提出する\footnote{IREXでは二つまでのシステムを提出してよいことになっていた.}際にキーワードの抽出方法として「あらゆるパターンのキーワードを利用する方法」と「ラティスを利用する方法」の二つの方法を提出することにして\footnote{「あらゆるパターンのキーワードを利用する方法」と「ラティスを利用する方法」の二つの方法を利用して,「最も短いキーワードのみを利用する方法」を用いなかったのは,「最も短いキーワードのみを利用する方法」は単純な方法であまりよくないだろうと考えていたためである.また,「down-weightingを利用する方法」はIREXのコンテストで他のチームが提案していた方法で,コンテストの終了後に利用を検討したもので,このときは利用できなかった.},それぞれの方法において予備試験のデータでの精度が最も高くなるように種々の補強項を設定した.その結果,結局以下の二つのシステムを提出することにした.\begin{enumerate}\itemシステムAキーワードの抽出方法としては「ラティスを利用する方法」を採用.位置情報は,$k_{\rm位置,1}=1.35$,$k_{\rm位置,2}=0.125$として利用.分野情報は予備試験データでは大きな精度向上につながらなかったため利用せず.詳細情報は,$k_{\rmタイトル}=1.5$,$k_{\rm固有}=2$,$k_{\rmなど}=1$,$k_{\rm数字}=0.5$,$k_{\rmひらがな}=0.5$,$k_{\rmneq}=0$,$k_{\rm不要語,1}=0$,$k_{\rm不要語,2}=0.5$として用いた.また,検索要求側のTF項,つまり,式(\ref{eqn:robertson2})のTFq項としては,DESCRIPTIONとNARRATIVEでのキーワードを全く異なるキーワードとして扱って$k_{q}=0.1$として利用した.IDFq項は利用していない.\itemシステムBキーワードの抽出方法としては「あらゆるパターンのキーワードを利用する方法」を採用.位置情報は,$k_{\rm位置,1}=1.3$,$k_{\rm位置,2}=0.15$として利用.分野情報は,$k_{\rm分野}=0.1$として利用.詳細情報は,$k_{\rmタイトル}=1.75$,$k_{\rm固有}=2$,$k_{\rmなど}=1.7$,$k_{\rm数字}=0.5$,$k_{\rmひらがな}=0.5$,$k_{\rmneq}=0$,$k_{\rm不要語,1}=0$,$k_{\rm不要語,2}=0.5$として用いた.また,検索要求側のTF項,つまり,式(\ref{eqn:robertson2})のTFq項としては,DESCRIPTIONとNARRATIVEでのキーワードを全く異なるキーワードとして扱って$k_{q}=0$として利用した.IDFq項は利用していない.\end{enumerate}われわれはこの条件のものを提出した.\begin{table}[t]\footnotesize\caption{各システムの精度(R-Precisionsofallthesystems)}\label{tab:all_sys_result}\begin{center}\begin{tabular}[c]{|l|c|c|}\hlineシステム名&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline1103a&0.4505&0.4888\\1103b&0.4657&0.5201\\1106&0.2360&0.2120\\1110&0.3329&0.4276\\1112&0.2790&0.3343\\1120&0.2713&0.3339\\1122a&0.3808&0.4689\\1122b&0.4034&0.4747\\1126&0.0966&0.0891\\1128a&0.3384&0.3897\\1128b&0.3924&0.4175\\1132&0.0602&0.0791\\1133a&0.2383&0.2277\\1133b&0.2457&0.2248\\{\bf1135a}&0.4926&0.5119\\{\bf1135b}&0.4827&0.4878\\1142&0.4455&0.4929\\1144a&0.4658&0.5510\\1144b&0.4592&0.5442\\1145a&0.3352&0.3424\\1145b&0.2553&0.2935\\1146&0.2220&0.2742\\\hline\end{tabular}\end{center}\end{table}コンテストでは15団体から22システムの結果が提出された.そのすべてのシステムの精度(R-Precision)を表\ref{tab:all_sys_result}にあげる.表の一番左の列は各システムの名前で,この表においてわれわれのシステムAおよびシステムBは,1135aと1135bに相当する.また,表のA判定,B判定とは,IREX実行委員会が定めた判定基準で,A判定とは「記事の主題が検索課題に関連している」記事のみを正解とするものであり,B判定とは「主題ではないが記事の一部が関連する,または,なんらかの関連がある」記事をも正解とするものである.われわれのシステムはB判定では他のシステムに及ばないところがあったが,A判定ではシステムA,Bともに他のものよりもよい精度であった.この結果により,われわれの手法は相対評価としてそれなりによい方法なのではないかと思われる.
\section{各種の情報・手法の評価実験}
本節ではわれわれのシステムで用いていた様々な手法の有効性を調べるために行なった,いくつかの実験について記述する\footnote{本論文の主張と直接関係のない,ここにあげなかったいくつかの実験(細分割の有効性の確認など)が存在する.これらの実験については,文献\cite{irex1_IR}において詳細に記述している.}.本節の実験結果ではR-Precisionの他に,trec\_evalツールのAveragePrecision(正解記事を上位から取ったたびに求めた適合率の平均)も示す.また,本比較実験の実験結果ではt検定\footnote{比較する二つの手法の各課題での精度差の分布がt分布に従うことを仮定して,その分布で0よりも小さい部分が何パーセントであるかを調べることにより検定を行なった.このような検定の場合,精度差の平均が大きくても(二つの手法に大きい精度差がある場合でも)精度差の分散が大きければ検定結果として有意差が出ない場合がある.}を行なっている.実験結果の各表(表\ref{tab:result_keyward}〜表\ref{tab:result_detail})の``$\#$''の記号のついている手法は比較の基準となる手法で,``$*$''のついている手法は基準の手法に対してt検定による片側検定で有意水準5\%で有意に優れていることを意味し,``$**$''のついている手法は有意水準1\%で有意に優れていることを意味する.また,このt検定は標本数の少ない予備試験のデータでは行なっていない.(課題数は予備試験で6題,本試験で30題)\subsection{キーワード抽出方法の比較}キーワード抽出方法として,\ref{sec:extract_keyword}節において以下の四つを示した.\begin{enumerate}\item{最も短いキーワードのみを利用する方法}\item{あらゆるパターンのキーワードを利用する方法}\item{ラティスを利用する方法}\item{down-weightingを利用する方法}\end{enumerate}\begin{table*}[t]\footnotesize\caption{キーワード抽出方法の比較(Comparisonofhowtoextractkeywords)}\label{tab:result_keyward}\begin{center}\mbox{(a)補強項をすべて用いた場合}\begin{tabular}[c]{|@{}l@{}||l|l@{}|l@{}|l@{}||l|l|l|l|}\hline&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{2-9}\multicolumn{1}{|c||}{キーワード}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\cline{2-9}\multicolumn{1}{|c||}{抽出方法}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline最も短いものだけ&0.5012&0.5205$^{**}$&0.4935$^{**}$&0.4764$^{*}$&0.4412&0.5442&0.4546&0.5151\\あらゆるパターン$^{\#}$&0.4827&0.4878&0.4553&0.4453&0.4373&0.5573&0.4576&0.5317\\ラティスの利用&0.4926&0.5119&0.4808&0.4698&0.4599&0.5499&0.4638&0.5170\\downweight($k_{down}=0.01$)&0.5006&0.5217&0.4935&0.4778&0.4412&0.5445&0.4546&0.5157\\downweight($k_{down}=0.1$)&0.4997&0.5233&0.4939&0.4809&0.4478&0.5504&0.4563&0.5185\\\hline\end{tabular}\mbox{(b)補強項をすべて削除した場合}\begin{tabular}[c]{|@{}l@{}||l|l|l|l||l|l|l|l|}\hline&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{2-9}\multicolumn{1}{|c||}{キーワード}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\cline{2-9}\multicolumn{1}{|c||}{抽出方法}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline最も短いものだけ&0.4744&0.4897&0.4488$^{*}$&0.4487$^{*}$&0.3900&0.5082&0.3850&0.4468\\あらゆるパターン$^{\#}$&0.4445&0.4665&0.4172&0.4180&0.3965&0.4981&0.3960&0.4444\\ラティスの利用&0.4711&0.4884&0.4436&0.4448&0.4009&0.5069&0.3884&0.4469\\downweight($k_{down}=0.01$)&0.4760&0.4896&0.4492&0.4494&0.3940&0.5082&0.3850&0.4470\\downweight($k_{down}=0.1$)&0.4816&0.4986&0.4545&0.4568&0.4003&0.5076&0.3860&0.4498\\\hline\end{tabular}\begin{minipage}[h]{14cm}$\#$のついている手法を基準として,``$*$''はt検定の片側検定で有意水準5\%で有意に優れていることを意味し,``$**$''は有意水準1\%で有意に優れていることを意味する.\end{minipage}\end{center}\end{table*}このうち本試験に提出したものは,「あらゆるパターンのキーワードを利用する方法」と「ラティスを利用する方法」であった.本試験での精度では,若干ではあるが「ラティスを利用する方法」の方が「あらゆるパターンのキーワードを利用する方法」よりも良かった.次に「最も短いキーワードのみを利用する方法」がどのくらいの精度となるかを調べるために,この方法でも本試験のデータで試してみた.そのときの各補強項の設定は「あらゆるパターンのキーワードを利用する方法」と全く同じものを用いた.これで本試験のデータで実験してみるとA判定のR-Precisionは0.5012で他の方法に比べてよい値であった.「最も短いキーワードのみを利用する方法」はあまりよくないだろうと考えあまり試していなかったが,この方法でも高い精度が出せることがわかる.また,本研究では「down-weightingを用いる方法」でも実験を試みた.ここでは$k_{down}$としては0.1,0.01の二つのもので実験してみた.各補強項の設定は「あらゆるパターンのキーワードを利用する方法」と全く同じものを用いた.これで本試験のデータで実験してみるとA判定のR-Precisionは0.5006,0.4997でなかなかよい値であった.上記五つの場合(四手法で,「down-weightingを用いる方法」だけ$k_{down}=0.1$と$k_{down}=0.01$の二つの場合)の精度を表にまとめておくと表\ref{tab:result_keyward}(a)のようになる.さらに,同様の実験を補強項をすべて削除した設定でも行なった.これを表\ref{tab:result_keyward}(b)に示す.「あらゆるパターンのキーワードを利用する方法」はアドホックな式による正規化を行なう必要性があるうえに本試験での結果では他手法に劣っているため,この方法は他の方法よりもよくない方法だと考えられる.なお,「あらゆるパターンのキーワードを利用する方法」は「最も短いキーワードのみを利用する方法」と比べ,t検定でもいくつか有意に劣っていることが示されている.他の手法間ではt検定で有意な差は見受けられなかった.「down-weightingを用いる方法」は補強項をすべて削除した場合,他の手法よりも高い精度を得るが,補強項を用いる場合はそれほどの効果はない.t検定でも他の手法と有意差が見られなかったので,確実に精度向上に寄与する情報ということではない.しかし,補強項を用いない場合のように解析に用いる情報が少ない場合は精度向上が大きい.「最も短いキーワードのみを利用する方法」だけが「あらゆるパターンのキーワードを利用する方法」と有意差が見られ,他の手法では有意差が見られなかったので,「最も短いキーワードのみを利用する方法」は安定して良好な結果を与える堅実な方法であると思われる.「ラティスを用いる方法」と「down-weightingを用いる方法」は,検定で「あらゆるパターンのキーワードを利用する方法」と有意差が出なかったためになんらかの欠点を持っていると思われる.「ラティスを用いる方法」では用いられるキーワードが状況に応じて容易に変わってしまう問題,また,「down-weightingを用いる方法」は重みを下げているとはいえ余分にキーワードを用いる問題がある.とはいえ最も短いキーワードのみを利用するよりは,もう少し長いキーワードも利用した方が望ましいのは間違いないとも思われ,このあたりはさらに研究を進める必要がある\footnote{本研究では,「最も短いキーワードのみを利用する方法」だけでなく,「最も長いキーワードのみを利用する方法」でも実験を行なった(つまり,連続するキーワードをすべてつなげたもののみをキーワードとする方法).この方法では,キーワードが長くなることによりキーワードのヒット率が下がり,再現率の大幅な低下により元より精度がかなり悪くなると予想される方法である.全補強項を用いた状況で実験を行ない,本試験データでA判定のRecall-Precisionは0.4128の精度を得た.「最も短いキーワードのみを利用する方法」の場合が0.5012であったことから,大きい精度低下があることがわかる.}.\begin{table*}[t]\footnotesize\caption{補強項の比較(Comparisonofextendednumericalterms)}\label{tab:result_hokyoukou}\begin{center}\begin{tabular}[c]{|c@{}c@{}c||l|l|l|l||l|l|l|l|}\multicolumn{11}{c}{(a)「ラティスを利用する方法」での精度比較}\\\hline&&&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{4-11}\multicolumn{3}{|c||}{補強項の有無}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\hline$K_{\rm位置}$&$K_{\rm分野}$&$K_{\rm詳細}$&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline有&有&有&0.5031&0.5161&0.4888$^{*}$&0.4745&0.4495&0.5471&0.4625&0.5202\\有&有&無&0.4764&0.4935&0.4619&0.4375&0.4092&0.5086&0.4207&0.4624\\有&無&有&0.4926&0.5119&0.4808$^{*}$&0.4698&0.4599&0.5499&0.4638&0.5170\\無&有&有&0.4998$^{*}$&0.5301$^{**}$&0.4731$^{*}$&0.4856$^{**}$&0.4421&0.5618&0.4383&0.5171\\有&無&無&0.4932&0.4984&0.4735$^{*}$&0.4519&0.4208&0.5083&0.4326&0.4638\\無&有&無&0.4931&0.5084$^{*}$&0.4654$^{*}$&0.4634$^{*}$&0.4085&0.5134&0.3945&0.4554\\無&無&有&0.4979$^{*}$&0.5277$^{**}$&0.4673$^{*}$&0.4829$^{**}$&0.4407&0.5603&0.4391&0.5127\\無&無&無$^{\#}$&0.4711&0.4884&0.4436&0.4448&0.4009&0.5069&0.3884&0.4469\\\hline\multicolumn{11}{c}{}\\\multicolumn{11}{c}{(b)「最も短いキーワードのみを利用する方法」での精度比較}\\\hline&&&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{4-11}\multicolumn{3}{|c||}{補強項の有無}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\hline$K_{\rm位置}$&$K_{\rm分野}$&$K_{\rm詳細}$&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline有&有&有&0.5012&0.5205$^{*}$&0.4935$^{**}$&0.4764&0.4412&0.5442&0.4546&0.5151\\有&有&無&0.4867&0.4976&0.4704$^{*}$&0.4464&0.4126&0.5136&0.4220&0.4649\\有&無&有&0.5017&0.5094&0.4850$^{*}$&0.4740&0.4410&0.5517&0.4556&0.5094\\無&有&有&0.4991&0.5264$^{**}$&0.4759$^{*}$&0.4841$^{**}$&0.4213&0.5616&0.4340&0.5095\\有&無&無&0.4883&0.4952&0.4647$^{*}$&0.4444&0.4247&0.5076&0.4200&0.4614\\無&有&無&0.4824$^{*}$&0.4990$^{*}$&0.4537&0.4509&0.3927&0.5119&0.3901&0.4517\\無&無&有&0.4970&0.5242$^{**}$&0.4693$^{*}$&0.4804$^{*}$&0.4198&0.5595&0.4332&0.5070\\無&無&無$^{\#}$&0.4744&0.4897&0.4488&0.4487&0.3900&0.5082&0.3850&0.4468\\\hline\end{tabular}\end{center}\end{table*}\subsection{補強項の有効性}本研究で用いた補強項は主に以下の三つに分類できる.\begin{enumerate}\item$K_{\rm位置}$(位置情報の利用)\item$K_{\rm分野}$(分野情報の利用)\item$K_{\rm詳細}$(種々の詳細な情報の利用)(ここでの$K_{\rm詳細}$には,式(\ref{eqn:score})の記事長の項$K_{\rm記事長}=\frac{length}{length+Δ}$を含めて扱っている.)\end{enumerate}上記の三つ補強項の有効性を確かめるために,これら三つをそれぞれ用いる場合用いない場合の合計8種類の実験を行なった.この実験は,「ラティスを利用する方法」と「最も短いキーワードのみを利用する方法」の二つの方法で行なった.その結果を表\ref{tab:result_hokyoukou}に示す.表の一番下の行が補強項を全く用いないもので,表の一番上の行が補強項を全て用いるものだが,それらを見比べると0.027〜0.045という精度向上が実現できていることがわかる.(例えば,「最も短いキーワードのみを利用する方法」でのA判定のAverageprecisionは,0.4488から0.4935に0.0447の精度向上がある.)このことから,本研究で用いた補強項の情報が総合的に有効であり,確率型情報検索手法に位置情報や分野情報などを追加することで精度向上を実現できている.また,補強項単独でも,補強項それぞれを一つ用いたものは補強項を一つも用いないものよりも精度がよく,それぞれの補強項が有効なことがわかる.検定結果も各補強項ともそれぞれいずれかの評価値では有意差が見受けられる.これらのことにより,位置情報や分野情報などが単独でも有効な情報であることがわかる.本研究の最も大きい主張点は,確率型情報検索手法に,情報検索において当然用いるべき位置情報や分野情報などを追加して用いることで精度向上を実現することであったが,以上の結果によりこのことが実現できることが確かめられた.本試験に提出したときの「ラティスを利用する方法」のシステムでは,分野情報を利用した場合の予備試験での精度向上がそれほどでもなかったため分野情報を用いていなかったが,本試験のデータでは分野情報を用いて0.01の精度向上がある.予備的な試験ではそれほど有効そうでない情報であっても,少しでも精度向上が期待できそうな情報ならば結果的には用いた方がよいと考えられる情報もある.また,位置情報を用いるとB判定の精度が下がる傾向がある.これはB判定が「主題ではないが記事の一部が関連する,または,なんらかの関連がある」記事をも正解とするものであるためで,位置情報を用いると記事のタイトルや前の方の位置にあるキーワードの重みを大きくするために,記事の主題部分以外に検索要求を満足することが書かれている記事を拾いにくくなっているためと思われる.検定結果でも位置情報を用いる方法ではB判定で有意差がでなくなっている.\begin{table*}[t]\footnotesize\caption{詳細項の比較(Comparisonofdetailednumericalterms)}\label{tab:result_detail}\begin{center}\begin{tabular}[c]{|l||l|l|l|l||l|l|l|l|}\hline&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{2-9}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\cline{2-9}\multicolumn{1}{|c||}{詳細項の有無}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hlineすべて無$^{\#}$&0.4744&0.4897&0.4488&0.4487&0.3900&0.5082&0.3850&0.4468\\$K_{\rmタイトル}$有&0.4878&0.5125$^{**}$&0.4614$^{*}$&0.4674$^{**}$&0.4136&0.5336&0.3930&0.4635\\$K_{\rm固有}$有&0.4746&0.4940&0.4481&0.4523&0.4031&0.5330&0.4172&0.4765\\$K_{\rmなど}$有&0.4630&0.4765&0.4384&0.4303&0.3973&0.5097&0.3859&0.4487\\$K_{\rm数字}$有&0.4744&0.4897&0.4488&0.4487&0.3900&0.5082&0.3847&0.4465\\$K_{\rmひらがな}$有&0.4744&0.4897&0.4488&0.4487&0.3942&0.5074&0.3854&0.4470\\$K_{\rmneg}$有&0.4874&0.5037$^{*}$&0.4603&0.4628$^{*}$&0.4019&0.5134&0.3967&0.4554\\$K_{\rm不要語}$有&0.4713&0.4941&0.4507&0.4548$^{**}$&0.3968&0.5295&0.3985&0.4629\\$K_{\rm記事長}$有&0.4775&0.4880&0.4472&0.4492&0.3945&0.5038&0.3809&0.4448\\\hline\end{tabular}\end{center}\end{table*}\subsection{詳細項の有効性}ここでは詳細項$K_{\rm詳細}$の各項と記事長の項$K_{\rm記事長}$の有効性を調べる.この実験では簡単のため「最も短いキーワードのみを利用する方法」のみで行なった.各詳細項のパラメータ設定は先のとおりである.実験としては,三つの補強項($K_{\rm位置}$,$K_{\rm分野}$,$K_{\rm詳細}$)すべてを削除したものと,その状況で八つの各詳細項($K_{\rmタイトル}$,$K_{\rm固有}$,$K_{\rmなど}$,$K_{\rm数字}$,$K_{\rmひらがな}$,$K_{\rmneg}$,$K_{\rm不要語}$,$K_{\rm記事長}$)をそれぞれ一つだけ追加する実験の合計9個の実験を行なった.これを表\ref{tab:result_detail}に示す.$K_{\rmなど}$,$K_{\rm数字}$,$K_{\rmひらがな}$,$K_{\rm不要語}$については精度が低下か変わらないかであまりよい効果がなかった.効果の大きい項としては,$K_{\rmタイトル}$と$K_{\rmneg}$があげられる.このことは元より予想されることだが,検索要求のタイトル部分(DESCRIPTION)が重要ということとNEGのタグで囲まれた部分を削除するべきということは,実験においても確認されたことになる.\subsection{まとめ}以上の実験をまとめると以下のようになる.\begin{itemize}\item四つのキーワード抽出法の比較キーワード抽出法として四手法を実験で試した.現状では,「位置情報・分野情報」を併用する場合「最も短いキーワードを利用する方法」が最も精度が良かった.しかし,はっきりした精度差ではなく,各手法とも調査を続ける必要がある.\item位置情報・分野情報の利用の有効性の確認キーワードの位置情報と,記事の分野情報を利用して精度向上を実現できることがわかった.\item詳細情報の利用実験で特に効果のあった詳細情報は,DESCRIPTION(情報要求を端的に示すフレーズ)中のキーワードの重みを他のキーワードよりも大きくすることと,NEGのタグ(検索要求の中の「〜は除く」という表現を囲んだもの)中のキーワードを利用しないことにすることの二つであった.\end{itemize}
\section{おわりに}
われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデルを用いている.しかし,このRobertsonの方法では検索のための手がかりとして当然用いるべき位置情報や分野情報などを用いていない.それに対しわれわれは位置情報や分野情報,さらに種々の詳細な情報をも統一的に用いることができる枠組を考案した.IREXのコンテストでは,この枠組に基づくシステムを二つ提出していたが,A判定の精度は0.4926と0.4827で,参加した15団体,22システムの中では最もよい精度であった\footnote{本論文では記述しなかったが,IREXのコンテストで用いられたデータで,コンテスト後各種パラメータを調節することでさらに精度向上を実現している.詳細は文献\cite{irex1_IR}を参照のこと.}.この結果により,われわれの手法は相対評価としてそれなりによい方法と思われる.また,本システムで用いた各手法の有効性を確かめる比較実験を行ない,種々の手法の有効性や傾向を調べた.その結果,Robertsonの方法では用いられていなかった位置情報や分野情報などを用いることで精度向上が実現できること,「最も短いキーワードのみを利用する方法」でもよい精度が得られること,NEGのタグで囲まれた部分に存在するキーワードは利用しないことがよいことなどがわかった.本研究でも様々な情報を用いたが,情報検索の手法として,関連性フィードバック\cite{Sakai99}や共起情報の利用\cite{Takaki99}などとまだまだ有用そうな手法がいろいろと存在する.関連性フィードバック一つをとっても,パッセージレベルの情報を利用した方が精度がよい\cite{Matsushita_IREX}ということが言われていたりして様々な要因が絡んでいる難しそうな研究のようであるが,今後はこのあたりの情報について深く研究していく予定である.\paragraph*{謝辞}通商産業省電子技術総合研究所の高橋直人氏には新聞の紙面情報の利用についてコメントをいただいた.ここに深く感謝いたします.また,本研究ではIREXのデータを利用しており,検索結果の集計をされた方々を含め,IREXの運営に携わった方々に対してもここに深く感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v07n2_07}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{小作浩美}{1985年郵政省電波研究所(現通信総合研究所)入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,各会員.}\bioauthor{内山将夫}{1992年筑波大学第三学群情報学類卒業.1997年筑波大学大学院工学研究科博士課程修了.博士(工学).1997年信州大学工学部電気電子工学科助手.1999年郵政省通信総合研究所非常勤職員.自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本音響学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N05-01
|
\section{はじめに}
\label{sec:introduction}係り受け解析は日本語解析の重要な基本技術の一つとして認識されている.係り受け解析には,日本語が語順の自由度が高く省略の多い言語であることを考慮して依存文法(dependencygrammar)を仮定するのが有効である.依存文法に基づく日本語係り受け解析では,文を文節に分割した後,それぞれの文節がどの文節に係りやすいかを表す係り受け行列を作成し,一文全体が最適な係り受け関係になるようにそれぞれの係り受けを決定する.依存文法による解析には,主にルールベースによる方法と統計的手法の二つのアプローチがある.ルールベースによる方法では,二文節間の係りやすさを決める規則を人間が作成する\cite{kurohashi:ipsj92,SShirai:95}.一方,統計的手法では,コーパスから統計的に学習したモデルをもとに二文節間の係りやすさを数値化して表す\cite{collins:acl96,fujio:nl97,Haruno:ipsj98,ehara:nlp98,shirai:jnlp98:1}.我々は,ルールベースによる方法ではメンテナンスのコストが大きいこと,また統計的手法で利用可能なコーパスが増加してきたことなどを考慮し,係り受け解析に統計的手法を採用することにした.統計的手法では二文節間の係りやすさを確率値として計算する.その確率のことを係り受け確率と呼ぶ.これまでよく用いられていたモデル(旧モデル)では,係り受け確率を計算する際に,着目している二つの文節が係るか係らないかということのみを考慮していた.本論文では,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮するモデルを提案する.このモデルは以下の二つの特徴を持つ.\begin{itemize}\item[(1)]二つの文節(前文節と後文節)間の関係を,「間」(前文節が二文節の間の文節に係る)か「係る」(前文節が後文節に係る)か「越える」(前文節が後文節を越えてより文末側の文節に係る)かの三カテゴリとして学習する.(旧モデルでは二文節が「係る」か「係らないか」の二カテゴリとして学習していた.)\item[(2)]着目している二つの文節の係り受け確率を求める際に,その二文節に対しては「係る」確率,二文節の間の文節に対しては前文節がその文節を越えて後文節に係る確率(「越える」の確率),後文節より文末側の文節に対しては前文節がその文節との間にある後文節に係る確率(「間」の確率)をそれぞれ計算し,それらをすべて掛け合わせた確率値を用いて係り受け確率を求める.(旧モデルでは,着目している二文節が係る確率を計算し,係り受け確率としていた.)\end{itemize}このモデルをME(最大エントロピー)に基づくモデルとして実装した場合,旧モデルを同じくMEに基づくモデルとして実装した場合に比べて,京大コーパスに対する実験で,全く同じ素性を用いているにもかかわらず係り受け単位で1\%程度高い精度(88\%)が得られた.
\section{係り受け確率モデル}
\label{sec:dependency_model}統計的日本語係り受け解析では,二文節間の係りやすさは確率値で表される.この確率値は係り受け確率モデルから計算される.\subsection{係り受け確率モデル(旧モデル)}\label{sec:old_model}この節ではこれまでに依存文法に基づく係り受け解析によく用いられているモデル\cite{collins:acl96,fujio:nl97,Haruno:ipsj98,Uchimoto:ipsj99}について説明する.入力文$S$が与えられると,$S$は$n$個の文節$b_{1},\ldots,b_{n}$に一意に分割されると仮定し,$S$をそれらの順序付き集合$B=\{b_{1},\ldots,b_{n}\}$で表す.そして,文全体の係り受け関係$D$はそれぞれの文節$b_{i}(i=1,\ldots,n-1)$を係り元の文節とする係り受け関係$D_{i}$の順序付き集合$D=\{D_{1},\ldots,D_{n-1}\}$で表されると仮定する.さらに文節の集合$B$が決まると,それぞれ文節$b_{i}(1\leqi\leqn-1)$と文節$b_{m}(m>i,2\leqm\leqn)$に関して観測される素性$F_{i,m}$が一意に決まると仮定し,文節の集合$B$を素性の集合$F$\begin{eqnarray}\label{eq:b}F&=&\{F_{1,2},F_{1,3},\ldots,F_{i,m},\ldots,F_{n-1,n}\}\end{eqnarray}で表す.統計的係り受け解析とは,$S$が与えられたときに文全体の係り受けが$D$となる確率$P(D|S)$が最も高くなるものを全体の係り受け関係とする処理のことである.つまり,\begin{eqnarray}\label{eq:d_best}D_{best}&=&argmax_{D}P(D|S)\nonumber\\&=&argmax_{D}P(D|B)\nonumber\\&=&argmax_{D}P(D|F)\end{eqnarray}となるような$D_{best}$を求めることに相当する.日本語の係り受けには,主に以下の特徴があるとされている.\begin{enumerate}\item[(i)]\mbox{係り受けは前方から後方に向いている.(後方修飾)}\item[(ii)]係り受け関係は交差しない.(非交差条件)\item[(iii)]係り要素は受け要素を一つだけ持つ.\end{enumerate}以降では,これらの特徴を満たすような$D_{best}$を求めることを考える.まず,式(\ref{eq:d_best})の$P(D|F)$は以下のように変形できる.\begin{eqnarray}\label{eq:p_db}P(D|F)&=&P(D_{1},\ldots,D_{n-1}|F)\nonumber\\&=&P(D_{n-1}|F)\timesP(D_{n-2}|D_{n-1},F)\timesP(D_{n-3}|D_{n-2},D_{n-1},F)\nonumber\\&&\times\ldots\timesP(D_{1}|D_{2},\ldots,D_{n-1},F)\end{eqnarray}この式で各々の係り受けつまり$D_{1},\ldots,D_{n-1}$が独立であると仮定すると,$P(D|F)$は以下のようにそれぞれの文節に対する係り受けの確率の積で表せる.\begin{eqnarray}\label{eq:p_db2}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i}|F)\end{eqnarray}ここで,$D_{i,i+j}$を後で定義するように文節$b_{i}$と文節$b_{i+j}$の間の関係を表すフラグとし,$D_{i}$を文節$b_{i}$と文節$b_{i+j}(1\leqj\leqn-i)$との間の関係の集合として,以下のように表す.ここでは,上述の(i)の特徴を仮定している.\begin{eqnarray}\label{eq:d_i}D_{i}&=&\{D_{i,i+1},D_{i,i+2},\ldots,D_{i,n}\}\end{eqnarray}すると,式(\ref{eq:p_db2})から以下の式が導ける.\begin{eqnarray}\label{eq:p_db3}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i,i+1},\ldots,D_{i,n}|F)\end{eqnarray}旧モデルでは,$D_{i,i+j}$として文節$b_{i}$が文節$b_{i+j}$に係るか否かの1,0の二値をとると仮定していた.文節$b_{i}$と係り受けの関係にある文節が文節$b_{i}$の次から数えて$dep(i)\(1\leqdep(i)\leqn-i)$番目の係り先の候補であるとき,上述の(iii)の特徴,つまり係り要素は受け要素を一つだけ持つということを仮定すると,\begin{eqnarray*}D_{i,i+l}&=&\left\{\begin{array}[c]{l}0\(l\not=dep(i),1\leql\leqn-i)\\1\(l=dep(i))\end{array}\right.\end{eqnarray*}となる.よって,式(\ref{eq:p_db3})は以下のように変形できる.\begin{eqnarray}\label{eq:p_db4}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i,i+dep(i)}=1|F)\timesP(D_{i,i+1}=0|D_{i,i+dep(i)}=1,F)\nonumber\\&&\q\timesP(D_{i,i+2}=0|D_{i,i+1}=0,D_{i,i+dep(i)}=1,F)\nonumber\\&&\q\times\ldots\timesP(D_{i,n}=0|D_{i,n-1}=0,\ldots,D_{i,i+1}=0,D_{i,i+dep(i)}=1,F)\nonumber\\\end{eqnarray}$D_{i,i+dep(i)}=1$のとき必ず$D_{i,i+j}=0\(j\not=dep(i))$となるので,\clearpage\begin{eqnarray*}P(D_{i,i+1}=0|D_{i,i+dep(i)}=1,F)&=&1\\P(D_{i,i+2}=0|D_{i,i+1}=0,D_{i,i+dep(i)}=1,F)&=&1\\\vdots\q\q\q\q\\P(D_{i,n}=0|D_{i,n-1}=0,\ldots,D_{i,i+1}=0,D_{i,i+dep(i)}=1,F)&=&1\end{eqnarray*}となり,式(\ref{eq:p_db4})は次のように表せる.\begin{eqnarray}\label{eq:p_db5}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i,i+dep(i)}=1|F)\end{eqnarray}さらに,$F_{i,m}$はそれぞれ独立で,文節$b_{i}$と文節$b_{i+dep(i)}$との関係$D_{i,i+dep(i)}$は$F_{i,i+dep(i)}$のみによって決まり,他の$F_{i,i+j}(j\not=dep(i))$とは独立であると仮定する.すると,式(\ref{eq:p_db5})は,以下のように変形できる.\begin{eqnarray}\label{eq:p_db6}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i,i+dep(i)}=1|F_{i,i+dep(i)})\end{eqnarray}式(\ref{eq:p_db6})と式(\ref{eq:d_best})とから$D_{best}$が導かれる.\subsection{後方文脈を考慮した係り受け確率モデル}\label{sec:new_model}この節では,我々が提案するモデルについて説明する.旧モデルでは,二つの文節の関係を「係る」か「係らない」かの二カテゴリとして学習し,それらの二文節が係る確率を計算して係り受け確率としていた.我々のモデルでは,(A)二つの文節(前文節と後文節)間の関係を,「間」か「係る」か「越える」かの三カテゴリとして学習し,(B)着目している二つの文節の係り受け確率を求める際に,その二文節に対しては「係る」確率,二文節の間の文節に対しては前文節がその文節を越えて後文節に係る確率(「越える」の確率),後文節より文末側の文節に対しては前文節がその文節との間にある後文節に係る確率(「間」の確率)をそれぞれ計算し,それらをすべて掛け合わせた確率値を用いて係り受け確率を求める.このモデルでは,$D_{i,i+j}$の仮定が旧モデルにおけるものと異なる.$D_{i,i+j}$としては,「越える」,「係る」,「間」を表す0,1,2の三値をとると仮定する.この点がこのモデルの特徴の一つである.文節$b_{i}$と係り受けの関係にある文節が$dep(i)\(1\leqdep(i)\leqn-i)$番目の係り先の候補であるとき,\ref{sec:old_model}節の(iii)の特徴,つまり係り要素は受け要素を一つだけ持つということを仮定すると,\begin{eqnarray*}D_{i,i+l}&=&\left\{\begin{array}[c]{l}0\(1\leql<dep(i))\\1\(l=dep(i))\\2\(dep(i)<l\leqn-i)\end{array}\right.\end{eqnarray*}となる.よって,式(\ref{eq:p_db3})は以下のように変形できる.\begin{eqnarray}\label{eq:p_db7}P(D|F)&=&\prod_{i=1}^{n-1}\left(\prod_{j=1}^{dep(i)-1}P(D_{i,i+j}=0|\{D_{i,i+k}=0|1\leqk<j\},F)\right.\nonumber\\&&\q\p\times\prod_{j=dep(i)+1}^{n-i}P(D_{i,i+j}=2|\{D_{i,i+k}=0|1\leqk<dep(i)\},\nonumber\\&&\q\q\q\q\q\q\q\p\{D_{i,i+k}=2|j<k\leqn-i\},F)\nonumber\\&&\q\p\times\left.P(D_{i,i+dep(i)}=1|\{D_{i,i+k}|1\leqk<dep(i),dep(i)<k\leqn-i\},F)\right)\nonumber\\\end{eqnarray}$D_{i,i+l}$の値が決まるのは,$l<m$を満たすような$m$に対し$D_{i,i+m}=0$になる場合か,$l>m$を満たすような$m$に対し,$D_{i,i+m}=2$になる場合か,$D_{i,i+dep(i)}=1$となる$dep(i)$が決まる場合かのいずれかである.これらの条件を満たさないように両端から順に係り受け関係$D_{i,i+l}$を確率式の前件部に移していけば,式(\ref{eq:p_db7})の最後の項を除くそれぞれの項の確率値は一意には決まらない.式(\ref{eq:p_db7})の最後の項は$D_{i,i+l}$の値がすべて決まると$dep(i)$が決まるので確率値は1になる.式(\ref{eq:p_db7})のその他の項については,$\{D_{i,i+k}=0|1\leqk<j\}$の間の独立性,および$\{D_{i,i+k}=0|1\leqk<dep(i)\},\{D_{i,i+k}=2|j<k\leqn-i\}$の間の独立性を仮定すると,式(\ref{eq:p_db7})は次のように表せる.\begin{eqnarray}\label{eq:p_db8}P(D|F)&=&\prod_{i=1}^{n-1}\left(\prod_{j=1}^{dep(i)-1}P(D_{i,i+j}=0|F)\times\prod_{j=dep(i)+1}^{n-i}P(D_{i,i+j}=2|F)\right)\end{eqnarray}\ref{sec:old_model}節の旧モデルにおける仮定と同様に$F_{i,m}(m=1,\ldots,n)$はそれぞれ独立で,$D_{i,i+j}$つまり文節$b_{i}$と文節$b_{i+j}$との関係は,$F_{i,i+j}$のみによって決まると仮定する.すると,式(\ref{eq:p_db8})は,以下のように変形できる.\begin{eqnarray}\label{eq:p_db9}P(D|F)&=&\prod_{i=1}^{n-1}\left(\prod_{j=1}^{dep(i)-1}P(D_{i,i+j}=0|F_{i,i+j})\times\prod_{j=dep(i)+1}^{n-i}P(D_{i,i+j}=2|F_{i,i+j})\right)\end{eqnarray}この式の$P(D|F)$を$P_{new\_model}(D|F)$とし,旧モデルの式(\ref{eq:p_db6})における$P(D|F)$を$P_{old\_model}($$D|F)$とする.$P_{old\_model}(D|F)$では素性$F_{i,i+dep(i)}$が用いられているが,$P_{new\_model}(D|F)$では用いられておらず,$P_{new\_model}(D|F)$では素性$F_{i,i+dep(i)}$以外の素性が用いられているが,$P_{old\_model}(D|F)$では用いられていない.したがって,$P_{old\_model}(D|F)$と$P_{new\_model}(D|F)$は相補的な関係にあるため,この二つを組み合わせる.すると以下の式が得られる.\begin{eqnarray}\label{eq:p_db10}P(D|F)^{2}&=&P_{old\_model}(D|F)\timesP_{new\_model}(D|F)\nonumber\\&=&\prod_{i=1}^{n-1}\left(\prod_{j=1}^{dep(i)-1}P(D_{i,i+j}=0|F_{i,i+j})\right.\nonumber\\&&\q\p\times\P(D_{i,i+dep(i)}=1|F_{i,i+dep(i)})\nonumber\\&&\q\p\times\left.\prod_{j=dep(i)+1}^{n-i}P(D_{i,i+j}=2|F_{i,i+j})\right)\\end{eqnarray}本節のモデルはこの式の平方根をとることによって係り受け確率$P(D|F)$を求めるものである.この$P(D|F)$と式(\ref{eq:d_best})とから$D_{best}$が導かれる.\begin{figure}[htbp]\begin{center}\leavevmode\atari(85,123)\caption{係り受け確率の求め方の例}\label{fig:dependency}\end{center}\end{figure}実際にこのモデルから係り受け確率がどのように求まるかを図\ref{fig:dependency}を用いて説明する.図\ref{fig:dependency}はある文節$b_{i}$の係り先の候補が5個あったときにそれぞれの候補に係るとしたときの係り受け確率を計算している様子を表している.このとき,文節$b_{i}$とそれぞれの候補との関係がそれぞれ「越える」,「係る」,「間」となる確率として表\ref{table:example}のような値が得られたと仮定している.{\small\begin{table*}[htbp]\begin{center}\caption{「越える」,「係る」,「間」となる確率の例}\label{table:example}\renewcommand{\arraystretch}{}\begin{tabular}[c]{llll}\hline候補&\multicolumn{1}{c}{越える}&\multicolumn{1}{c}{係る}&\multicolumn{1}{c}{間}\\\hline候補1&$P(D_{i,i+1}=0|F_{i,i+1})=0.6$&$P(D_{i,i+1}=1|F_{i,i+1})=0.4$&$P(D_{i,i+1}=2|F_{i,i+1})=0$\\候補2&$P(D_{i,i+2}=0|F_{i,i+2})=0.6$&$P(D_{i,i+2}=1|F_{i,i+2})=0.3$&$P(D_{i,i+2}=2|F_{i,i+2})=0.1$\\候補3&$P(D_{i,i+3}=0|F_{i,i+3})=0.3$&$P(D_{i,i+3}=1|F_{i,i+3})=0.5$&$P(D_{i,i+3}=2|F_{i,i+3})=0.2$\\候補4&$P(D_{i,i+4}=0|F_{i,i+4})=0.1$&$P(D_{i,i+4}=1|F_{i,i+4})=0.5$&$P(D_{i,i+4}=2|F_{i,i+4})=0.4$\\候補5&$P(D_{i,i+5}=0|F_{i,i+5})=0$&$P(D_{i,i+5}=1|F_{i,i+5})=0.4$&$P(D_{i,i+5}=2|F_{i,i+5})=0.6$\\\hline\end{tabular}\end{center}\end{table*}}例えば,候補3を係り先だと仮定したとき,候補1,候補2は越えて,文節$b_{i}$と候補4,候補5の間に係る確率は,式(\ref{eq:p_db6})の文節$b_{i}$に関する項を用いて\begin{eqnarray*}P(D_{i}|F)^{2}&=&\prod_{j=1}^{2}P(D_{i,i+j}=0|F_{i,i+j})\timesP(D_{i,i+3}=1|F_{i,i+3})\times\prod_{j=4}^{5}P(D_{i,i+j}=2|F_{i,i+j})\\&=&P(D_{i,i+1}=0|F_{i,i+1})\timesP(D_{i,i+2}=0|F_{i,i+2})\timesP(D_{i,i+3}=1|F_{i,i+3})\\&&\p\timesP(D_{i,i+4}=2|F_{i,i+4})\timesP(D_{i,i+5}=2|F_{i,i+5})\\&=&0.6\times0.6\times0.5\times0.4\times0.6=0.0432\end{eqnarray*}つまり,\begin{eqnarray*}P(D_{i}|F)&=&\sqrt{0.0432}=0.208\end{eqnarray*}のように計算され,これが最も高い.各々の係る確率だけを考えた場合にはそれぞれの$P(D_{i,i+j}=1|F_{i,i+j})$を比較することになり,候補3と候補4の確率がどちらも0.5のため決まらないが,この方法によると,候補3を優先的に係り先とすることになる.一文全体の確率はそれぞれの文節について求めた係り受け確率の積で表され,その積の値が最も高くなるようにそれぞれの係り受けを決めることになる.我々は,式(\ref{eq:d_best})において$P(D|F)$を最大にする係り受け関係の集合$D_{best}$を求めるために,文末から文頭に向けて解析することにより,効率良く組み合わせの数を減らしながら一文全体の係り受けを決定する方法を提案している\cite{Sekine:99}.この方法では解の探索をビームサーチにより行う.この方法によると決定的に解析を行ってもビーム幅を広くしたときとほとんど同じ精度が得られることが実験により分かっている.そこで,$D_{best}$を求めるためにこの方法を採用する.このとき,上述のモデルに\ref{sec:old_model}節で述べた(ii)の特徴,つまり非交差条件を仮定すると,文節$b_{i}$の係り先の候補はすでに解析の終わった文節$b_{i+1}$から文節$b_{n}$までの係り受け関係$D_{i+1},\ldots,D_{n}$に依存して制限されることになる.つまり,非交差条件のために文節$b_{i}$の係り先の候補とはなり得ない文節$b_{j}$に対しては,係る確率は0になり,「越える」か「間」かについては$b_{j}$の前後の文節のうち非交差条件を満たす文節と文節$b_{i}$との関係が決まれば一意に決まり確率は1になる.文節$b_{i}$の係り受け確率$P(D_{i}|F)$は文節$b_{i}$のすべての係り先の候補につい確率値を足すと1になるように正規化する.実際にこのモデルから係り受け確率がどのように求まるかを図\ref{fig:dependency2}を用いて説明する.図\ref{fig:dependency2}は図\ref{fig:dependency}において非交差条件を考慮した場合の係り受け確率の計算の仕方を表している.ここで,ある文節$b_{i}$より後方の文節について,破線の矢印で表されるような係り受け関係が決まったものと仮定している.このとき,候補3と候補4は非交差条件を満たさないために文節$b_{i}$の係り先の候補とはなり得ない.また,文節$b_{i}$とそれぞれの候補との関係としては,図\ref{fig:dependency}と同様に表\ref{table:example}の値が得られたと仮定している.例えば,候補5を係り先だと仮定したとき,図\ref{fig:dependency2}の一番下の例のように,候補1,候補2に対しては越える確率,候補5に対しては係る確率を用いてそれぞれ掛け合わせ,その平方根をとることにより係り受け確率が得られる.一文全体の確率はそれぞれの文節について求めた係り受け確率の積で表され,その積の値が最も高くなるように各々の係り受けを決めることになる.\begin{figure}[htbp]\begin{center}\leavevmode\atari(100,123)\caption{係り受け確率の求め方の例}\label{fig:dependency2}\end{center}\end{figure}
\section{実験結果}
\label{sec:results}この節では,新モデル(後方文脈を考慮したモデル)と旧モデルとの比較実験を行う.実験に用いたコーパスは,京大コーパス(Version2)\cite{kurohashi:nlp97}の一般文の部分で,基本的に学習には1月1日と1月3日から8日までの7日分(7,958文),試験には1月9日の1日分(1,246文)を用いた.\ref{sec:old_model}節に述べた旧モデルと\ref{sec:new_model}節に述べた新モデル(後方文脈を考慮したモデル)のそれぞれを文献\cite{Uchimoto:ipsj99}と同様にMEモデルとして実装し,テストコーパスに対する係り受け解析の精度を調べた.係り受け解析の実験に用いた素性は,文献\cite{Uchimoto:ipsj99}のものと同じものとした.これは表\ref{table:feature1}の基本素性と呼ばれるものとそれらの組み合わせである.このうち,学習コーパス中に4回以上現れた素性約38,000個を用いている.\begin{table}[htbp]\begin{center}\caption{解析結果}\label{Result}\begin{tabular}{|l@{}|c@{}|r@{}c@{}|}\hlineモデル&係り受け正解率&\multicolumn{2}{c|}{文正解率}\\\hline新モデル&87.93\%(9904/11263)&43.58\%&(540/1239)\\旧モデル&87.02\%(9801/11263)&40.68\%&(504/1239)\\ベースライン&64.09\%(7219/11263)&6.38\%&(79/1239)\\\hline\end{tabular}\end{center}\end{table}解析結果を表\ref{Result}に示す.ここで,係り受けの正解率というのは文末の一文節を除く残りすべての文節に対して,係り先を正しく推定していた文節の割合を求めたものである.また,文正解率というのは文全体の解析が正しいものの割合を意味する.表\ref{Result}の第1行および第2行はそれぞれ新モデル,旧モデルを用いて京大コーパス1月9日の\mbox{1,246}文を解析した結果である.いずれも,コーパスの形態素情報,文節区切情報を入力として,文節間係り受けの解析を決定的に(ビーム幅$k=1$)行なった.ビーム幅を大きくしても精度にほとんど違いはなかったため,決定的に解析した結果のみを示した.ベースラインとしては各文節がすべて隣に係るとしたときの精度をあげた.新モデルとしては\ref{sec:new_model}節に述べた後方文脈を考慮したモデルの精度をあげた.\begin{table}[phtb]\begin{center}\caption{学習に利用した素性(基本素性)}\label{table:feature1}\renewcommand{\arraystretch}{}\leavevmode\begin{tabular}[c]{|l|l|}\hline\multicolumn{2}{|c|}{\bf基本素性(43種類)}\\\hline素性名&素性値\\\hline\hline前(後)文節主辞見出し&(2204個)\\\hline前(後)文節主辞品詞(Major)&動詞名詞$\ldots$(11個)\\前(後)文節主辞品詞(Minor)&普通名詞数詞$\ldots$(24個)\\\hline前(後)文節主辞活用(Major)&母音動詞$\ldots$(30個)\\前(後)文節主辞活用(Minor)&語幹基本形命令形$\ldots$(60個)\\\hline前(後)文節語形(String)&とにも$\ldots$(73個)\\前(後)文節語形(Major)&助詞子音動詞カ行$\ldots$(43個)\\前(後)文節語形(Minor)&格助詞基本連用形$\ldots$(102個)\\\hline前(後)文節助詞1(String)&からまでへ$\ldots$(63個)\\前(後)文節助詞1(Minor)&(無)格助詞副助詞(5個)\\\hline前(後)文節助詞2(String)&けどままやよか$\ldots$(63個)\\前(後)文節助詞2(Minor)&格助詞副助詞(4個)\\\hline前(後)文節句読点の有無&(無)読点句点(3個)\\\hline前(後)文節括弧開の有無&(無)「‘(“[$\ldots$(14個)\\\hline前(後)文節括弧閉の有無&(無)」’)”]$\ldots$(14個)\\\hline文節間距離&A(1)B(2〜5)C(6以上)(3個)\\\hline文節間読点の有無&無有(2個)\\\hline文節間"は"の有無&無有(2個)\\\hline文節間括弧開閉の有無&無開閉開閉(4個)\\\hline文節間前文節同一語形の&\\\q\q有無&無有(2個)\\\q\q主辞品詞(Major)&動詞名詞$\ldots$(11個)\\\q\q主辞品詞(Minor)&普通名詞数詞$\ldots$(24個)\\\q\q主辞活用(Major)&母音動詞$\ldots$(30個)\\\q\q主辞活用(Minor)&語幹基本形命令形$\ldots$(60個)\\\hline文節間後文節同一主辞の&\\\q\q有無&無有(2個)\\\q\q語形(String)&とにも$\ldots$(73個)\\\q\q語形(Major)&助詞子音動詞カ行$\ldots$(43個)\\\q\q語形(Minor)&格助詞基本連用形$\ldots$(102個)\\\hline\end{tabular}\end{center}\end{table}\subsection{旧モデルとの比較}\label{sec:comparison_with_old_model}本節では,\ref{sec:old_model}節に述べた旧モデルと\ref{sec:new_model}節に述べた新モデル(後方文脈を考慮したモデル)をそれぞれ理論と実験の観点,学習の観点から比較する.\vspace{1em}\noindent[{\bf理論と実験の観点から}]式(\ref{eq:p_db10})は式(\ref{eq:p_db6})を包含するものであり,式(\ref{eq:p_db6})に比べるとより多くの文節との関係(素性$F_{i,i+j}$で表される)が考慮されている.ただし,式(\ref{eq:p_db7})から式(\ref{eq:p_db8})を導くときに用いている独立性の仮定は,実際の現象そのままではなく近似になっているので,旧モデルに比べると近似の部分が多い.しかしながら,同じ素性を用いた実験(表\ref{Result})で,新モデルは旧モデルに比べて1\%程度良い結果を得ている.これは多少近似があっても実際に係り受け確率の計算に多くの情報を考慮している新モデルの方が良いということを示している.\begin{figure}[htbp]\hspace*{3em}\beginpicture\setcoordinatesystemunits<6pt,6pt>\setplotareaxfrom0to30,yfrom70to100\axisbottomlabel{文節数}ticksshortquantity7numberedat0102030//\axisleftlabel{係り受け正解率}ticksshortquantity4numberedat708090100//\put{*}at2098\put{+}at2095\put{:新モデル}at2598.5\put{:旧モデル}at2595\multiput{*}at393.75493.52592.06691.65790.48890.48989.251090.531188.071286.671386.221489.141586.401686.321783.931886.901983.862086.322184.232283.732385.452486.962581.252686.402783.332885.93/\setlinear\plot393.75493.52592.06691.65790.48890.48989.251090.531188.071286.671386.221489.141586.401686.321783.931886.901983.862086.322184.232283.732385.452486.962581.252686.402783.332885.93/\multiput{+}at393.75493.98591.12689.01790.99890.30988.381088.341186.391287.881385.881487.931586.951684.041784.381885.291983.072083.682182.692281.752386.822483.852581.252683.202779.492890.37/\setlinear\plot393.75493.98591.12689.01790.99890.30988.381088.341186.391287.881385.881487.931586.951684.041784.381885.291983.072083.682182.692281.752386.822483.852581.252683.202779.492890.37/\endpicture\caption{文節長と解析精度の関係}\label{fig:length}\end{figure}次に,図~\ref{fig:length}に文節長と解析精度の関係をあげる.この図から,どの文節数に対しても新モデルの精度は旧モデルの精度とほぼ同等以上であることが分かる.\vspace{1em}\noindent[{\bf学習の観点から}]学習には学習コーパス中で非交差条件を満たす任意の二文節を用いる.旧モデルでは各二文節に対し「係る」と「係らない」の二つのカテゴリを学習しているのに対し,新モデルでは「越える」と「係る」と「間」の三つのカテゴリを学習している.一般に学習するカテゴリを多くするとデータスパースネスになりやすいが,新モデルでは三つのカテゴリに分けてもデータスパースネスの問題は生じない.これは新モデルで「越える」と「間」の二つのカテゴリに分けた,旧モデルの「係らない」というカテゴリにはもともと十分な学習データがあったためである.例えば,ある文節の係り先の候補が10個あるときには,そのうち1個だけが「係る」に対するデータであり,残りの9個は「係らない」に対するデータである.ここで「係らない」を「越える」と「間」の二つに分けても,「係る」に比べるとそれぞれ十分な量の学習データがある.\begin{figure}[htbp]\begin{center}\leavevmode\atari(113,77)\caption{学習コーパスの量と解析精度の関係}\label{fig:learning_curve}\end{center}\end{figure}次に,新モデルが旧モデルに比べて優れていることを定量的に示すデータを図~\ref{fig:learning_curve}にあげる.これはそれぞれのモデルに対し,学習コーパスの量と解析精度の関係をプロットしたものである.学習コーパスの量にかかわらず,新モデルの方が旧モデルに比べて常に1\%程度精度がよいことが分かる.\subsection{その他のモデルとの比較}\label{sec:comparison_with_related_works}統計的な手法では,ルールベースに比べて並列構造や従属節間の係り受け関係に対する解析誤りが多い.西岡山らは,この後者の問題を取り上げ,二つの文節の関係が係るか係らずに越えるかを学習するモデルを提案した\cite{Nishiokayama:98}.このモデルを用いることにより,二つの文節だけでなくその二文節とそれらの間にある文節との関係も扱えるようになる.本論文で我々が提案したモデル(後方文脈を考慮したモデル)はさらにその二文節とそれらよりも文末に近い側の文節との関係も扱うため,彼らのモデルよりも多くの情報を考慮していることになる.\begin{table}[htbp]\begin{center}\caption{解析結果}\label{Result2}\begin{tabular}{|l@{}|c@{}|r@{}c@{}|}\hlineモデル&係り受け正解率&\multicolumn{2}{c|}{文正解率}\\\hline「係る」と「越える」&85.40\%(9618/11263)&41.40\%&(513/1239)\\「係る」と「係らない」&86.95\%(9793/11263)&40.27\%&(499/1239)\\「間」「係る」「越える」&87.93\%(9904/11263)&43.58\%&(540/1239)\\\hline\end{tabular}\end{center}\end{table}表~\ref{Result2}の一行目に西岡山らのモデルを用いたときの実験結果を示す.実験に用いた素性,コーパスは\ref{sec:results}章の最初に説明したものと同じである.後方文脈を考慮したモデルを用いた実験のときと異なるのは,「係る」と「越える」の二つのカテゴリを学習するモデルを用いている部分のみである.表~\ref{Result2}より定量的にも,後方文脈を考慮したモデルのように「間」というカテゴリも考慮した方がよいことが分かる.次に,後方文脈を考慮したモデルにおいて三カテゴリを学習する必要があることを示す.後方文脈を考慮したモデルでは特徴(1)としてあげたように二文節間の関係を「間」か「係る」か「越える」かの三カテゴリとして学習する.この三カテゴリのうち二つのカテゴリ「間」と「越える」を,旧モデルの二カテゴリのうち「係らない」によって代用させたモデルを考える.このモデルは,係り受け確率を求める際に,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮している点が旧モデルとは異なる.表~\ref{Result2}の二行目にこのモデルを用いたときの実験結果を示す.この表より,「間」と「越える」の違いは区別して学習するべきであることが分かる.
\section{おわりに}
\label{sec:conclusion}係り受け解析は日本語解析の重要な基本技術の一つとして認識されている.依存文法に基づく解析には,主にルールベースによる方法と統計的手法の二つのアプローチがあるが,我々は利用可能なコーパスが増加してきたこと,規則の変更に伴うコストなどを考慮して,統計的手法をとっている.統計モデルとしてこれまでよく用いられていたもの(旧モデル)では,係り受け確率を計算する際に,着目している二つの文節が係るか係らないかということのみを考慮していた.本論文では,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮するモデルを提案した.このモデルをME(最大エントロピー)に基づくモデルとして実装した場合,旧モデルを同じくMEに基づくモデルとして実装した場合に比べて,京大コーパスに対する実験で,全く同じ素性を用いているにもかかわらず係り受け単位で1\%程度高い精度(88\%)が得られた.また,後方文脈を考慮したモデルの精度は旧モデルに比べて,どの文長に対してもほぼ常に良く,学習コーパスの量によらず常に1\%程度良かった.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\newpage\thispagestyle{plain}\verb++\end{document}
| |
V26N01-02
|
\section{はじめに}
学会での質疑応答や電子メールによる問い合わせなどの場面において,質問は広く用いられている.このような質問には,核となる質問文以外にも補足的な情報も含まれる.補足的な情報は質問の詳細な理解を助けるためには有益であるが,要旨を素早く把握したい状況においては必ずしも必要でない.そこで,本研究では要旨の把握が難しい複数文質問を入力とし,その内容を端的に表現する単一質問文を出力する“質問要約”課題を新たに提案する.コミュニティ質問応答サイトであるYahoo!Answers\footnote{https://answers.yahoo.com/}から抜粋した質問の例を表\ref{example_long_question}に示す.{この質問のフォーカスは}“頭髪の染料は塩素によって落ちるか否か”である.しかし,質問者が水泳をする頻度や現在の頭髪の色などが補足的な情報として付与される.このような補足的な情報は正確な回答を得るためには必要であるが,質問内容をおおまかに素早く把握したいといった状況においては,必ずしも必要でない.{このような質問を表\ref{example_long_question}に例示するような単一質問文に要約することにより,質問の受け手の理解を助けることが出来る.本研究では,質問要約課題の一事例としてコミュニティQAサイトに投稿される質問を対象テキストとし,質問への回答候補者を要約の対象読者と想定する.}\begin{table}[b]\caption{複数文質問とその要約}\label{example_long_question}\input{02table01.tex}\end{table}テキスト要約課題自体は自然言語処理分野で長く研究されている課題の一つである.既存研究は要約手法の観点からは,大きく抽出型手法と生成型手法に分けることができる.抽出型手法は入力文書に含まれる文や単語のうち,要約に含める部分を同定することで要約を出力する.生成型手法は入力文書には含まれない表現も用いて要約を生成する.一方で,要約対象とするテキストも多様化している.既存研究の対象とするテキストは,従来の新聞記事や科学論文から,最近では電子メールスレッドや会話ログなどに広がり,それらの特徴を考慮した要約モデルが提案されている.\cite{pablo2012inlg,oya2014sigdial,oya2014inlg}質問を対象とする要約研究としては\citeA{tamura2005}の質問応答システムの性能向上を指向した研究が存在する.この研究では質問応答システムの構成要素である質問タイプ同定器へ入力する質問文を入力文書から抽出する.本研究では,彼らの研究とは異なり,ユーザに直接提示するために必要な情報を含んだ要約の出力を目指す.ユーザに直接提示するための質問要約課題については,既存研究では取り組まれておらず,既存要約モデルを質問{テキスト}に適用した場合の性能や,質問が抽出型手法で要約可能であるか,生成型の手法が必要であるか明らかでない.そこで,本研究ではコミュニティ質問応答サイトに投稿される質問{テキスト}とそのタイトルの対(以後,質問{テキスト}−タイトル対と呼ぶ)を,規則を用いてフィルタリングし,質問{テキスト}とその要約の対(以後,質問{テキスト}−要約対と呼ぶ)を獲得する.獲得した質問{テキスト}−要約対を分析し,抽出型および生成型の観点から質問がどのような手法を用いて要約可能であるか明らかにする.また,質問要約課題のために,ルールに基づく手法,抽出型要約手法,生成型要約手法をいくつか構築し性能を比較する.ROUGE~\cite{rouge2004aclworkshop}を用いた自動評価実験および人手評価において,生成型手法であるコピー機構付きエンコーダ・デコーダモデルがより良い性能を示した.
\section{{質問要約課題}}
{本稿で提案する``質問要約''についてその特徴や既存要約課題との相違について議論する.}{本研究で扱う質問要約はテキスト要約課題の一つである.既存のテキスト要約研究では,DocumentUnderstandingConference(DUC)\footnote{https://duc.nist.gov}などの新聞記事や科学論文をもとにした共通のデータセットがしばしば性能評価実験に用られてきた.本研究で扱う質問要約は質問テキストを要約対象とし,出力を単一質問文に限定する.}{はじめに入力の質問テキストの特徴について述べる.質問要約は従来の新聞記事や科学論文を基に作られたテキストを想定する要約課題とは以下の点において異なる特徴を持つ.\begin{enumerate}\item質問文と叙述文が混在する(\textbf{個別の文の性質の違い})\item質問文を叙述文が補足する文間関係を持つ(\textbf{談話構造の違い})\end{enumerate}前者については,新聞記事や科学論文には質問文がほとんど含まれないのに対し,質問テキストでは多くの場合1文以上の質問文を含む.そのため,文書中に含まれる文そのものの性質が従来の要約対象とは性質を持つ.後者は文間の関係に着目した相違点である.新聞記事ではリード文を他の文から補足する談話構造がしばしばみられるのに対し,質問テキストでは核となる質問文が存在し,質問文以外の文が核となる質問文を補足する.よって,文そのものの性質の違いに加え,質問テキストは文間の意味的な関係(談話構造)も異なる.このように,個別の文の性質や談話構造に関し従来の要約課題とは異なる特徴を持つことから,例えば従来の要約課題において強いベースライン手法として知られるリード法やその他の既存手法が,質問テキストに対しどの程度の性能を示すかはそもそも明らかではない.}{次に出力の単一質問文が満たすべき性質について議論する.本研究では質問テキストの一事例としてインターネット上でのコミュニティ質問応答サイトに投稿される複数文質問の要約を想定する.生成した要約を回答者候補に提示することで,回答者候補は質問内容が回答可能であるか素早く判断できるようになる.このような目的を鑑み,本研究では入力として複数文質問,出力は質問内容を端的に表現した単一質問文を考える.例えば,表\ref{example_long_question}に示す複数文質問に対する正解要約としては,``Willthechlorinestripemyhair?(塩素によって髪の染料が落ちますか?)''といった疑問文だけでなく,``Affectofthechlorineonmyhairdyeing.(プール中の塩素の染髪への影響)''といった表現も正しい要約と考える.前者は「末尾が?であるか」「先頭の語が助動詞であるか」などの単純な規則を用いて同定できる.後者は質問内容を推測できるが,パターンが無数にあり単純な規則ではこれらを同定できない.本研究ではどちらの表現も要約とみなす.後者まで含んだ広い表現を質問文と呼び,単純な規則で同定可能な前者を疑問文と呼び区別する.}
\section{関連研究}
テキスト要約の既存研究は多く存在する.DUCに代表される多くのタスクなど,既存研究の多くは新聞記事や科学論文を対象としている.近年では,会話テキストや電子メールスレッドを対象とした新たな要約課題も提案されている\cite{pablo2012inlg,oya2014sigdial,oya2014inlg}.本研究に関連する取り組みとして,質問応答システムのための質問要約研究が存在する.\citeA{tamura2005}は,複数文で構成される質問を入力として受け付ける,質問応答システムの構築を目指した.この研究では,複数文質問からもっとも核となる1文を抽出する要約器を質問応答システムの前処理として組み込むことで,複数文質問を受け付けるシステムを実現している.彼らは複数文質問を単一質問文に要約することで,質問応答システムの質問タイプ同定器の性能が向上することを報告している.一方,抽出した核となる質問文は常にユーザの理解できる情報を含むとは限らない.例えば,表\ref{example_long_question}における核文は``Willitorwillitnot?''であるが,この文にはchrolineやhairなどといった質問内容を把握するために必要となる単語が含まれず,要約として提示するには情報が不足する.本研究は,ユーザに提示するための要約を出力を指向するため目的が異なる.抽出型要約モデルの既存研究としては,単語出現頻度を用いて文にスコアを与える手法\cite{luhn1958ibm}や,文同士の類似度を用いて重要文を同定するヒューリスティックを用いる手法\cite{rada2004emnlp}などが提案されている.さらに,文に対し抽出した場合のROUGE値を回帰モデルを用いて予測するモデル\cite{peyrard2016acl,li2013acl}や,要約に含めるべき文を二値分類する分類問題として定式化する教師あり学習を用いる手法\cite{hirao2002coling,shen2007ijcai}も存在する.生成型要約としては,入力の談話構造木を枝刈りする手法\cite{dorr2003naacl,zajic2004naacl}や,機械翻訳モデルを用いる手法\cite{banko2000acl,wubben2012acl,cohn2013acm},テンプレートを用いる手法\cite{oya2014inlg}などが存在する.近年では,機械翻訳課題向けに提案されたエンコーダ・デコーダモデル\cite{luong2015emnlp,bahdanau2015iclr}を要約課題に適用する手法\cite{rush2015acl,kikuchi2016emnlp,gu2016acl}が積極的に研究されている.
\section{質問応答サイトからの質問{テキスト}−要約対獲得と分析}
本研究ではまず,Yahoo!AnswersComprehensiveQuestionandAnswersversion1.0\footnote{https://webscope.sandbox.yahoo.com/}を対象に事例分析を行う.Yahoo!Answersにおいて,ユーザは自由に質問テキストとそのタイトルを記述し投稿する.このデータセットには4,484,032の{質問投稿}が含まれる.質問投稿の中には質問テキスト−タイトル対を質問{テキスト}−要約対とみなせる事例もあれば,みなせない事例も存在する.そのため,データセット内の質問{テキスト}−タイトル対を,規則を用いてフィルタリングし,質問{テキスト}−要約対を獲得する必要がある.その上で,獲得した質問{テキスト}−要約対を必要な要約手法の検討のための分析および要約モデルの比較実験における学習データに用いる.よって,本研究では以下の二段階でデータセットの分析を行う.\begin{enumerate}\item質問{テキスト}−要約対とみなすことのできる質問{テキスト}−タイトル対の特徴はなにかを明らかにし,質問{テキスト}−要約対を獲得する.\item質問{テキスト}−要約対を分析し,抽出型の手法で要約可能か,生成型の手法が必要であるか明らかにする.\end{enumerate}\subsection{分析1:質問の長さ}質問{テキスト}−要約対とみなすことのできない事例をフィルタリングする規則を設計するために,まず質問に含まれる文数に着目した分析を行った.質問{テキスト}が1文から5文で構成される事例をデータセットからランダムに20事例ずつ抽出し,それらの質問{テキスト}−タイトル対を質問{テキスト}−要約対とみなすことができるか否かを人手で判定した.表\ref{n_body}に結果を示す.\begin{table}[b]\caption{質問{テキスト}中の文数と質問{テキスト}−要約対とみなせる事例の割合}\label{n_body}\input{02table02.tex}\end{table}質問{テキスト}の長さが{1文もしくは2文}の場合には,質問{テキスト}−要約対とみなすことのできない事例が増える.このような事例においては,タイトルに核となる質問文が記述され,質問{テキスト}中では補足的な内容だけが記述され,質問文を含まない例が見られる.質問{テキスト}では質問文が記述されないため,質問{テキスト}−タイトル対を質問{テキスト}−要約対とみなすことができない.一方,3文以上から構成される質問{テキスト}においては質問{テキスト}−要約対とみなすことのできる事例が一定になる.\subsection{分析2:質問{テキスト}とタイトルでの名詞の重複}次に質問{テキスト}とタイトルでの名詞の重複に着目した分析を行った.以下に質問{テキスト}−要約対とはみなすことのできない事例を示す.\begin{quote}\underline{タイトル:}Whyisthereoftenamirrorinanelevator?\underline{{質問テキスト}:}IjustrealizedthiswhenIwasinanelevator.Doesanybodyknowthereason?Whatisthehistorybehindit?\end{quote}この事例では,質問{テキスト}中の``it''は``エレベータ内に鏡が存在する''という事実を指し示す.``it''が何を指し示すかを理解するには``elevator''や``mirror''といった重要な単語が{質問テキスト}中に含まれている必要がある.しかし,``mirror''という単語はタイトルには出現するが質問{テキスト}には出現しない.そのため,質問{テキスト}を要約器の入力として,タイトルの``Whyisthereoftenamirror...''という要約を生成することはできない.データセット中では,この例のように質問{テキスト}からタイトル中の単語を照応したり,タイトル中の単語が質問{テキスト}を理解するために不可欠である事例を多く観測した.このような事例をフィルタリングするために,我々はタイトルと{質問テキスト}での単語の重複がフィルタリングのための重要な手がかりとなると考えた.\subsection{分析3:抽出型vs.生成型}次に必要な要約手法に着目した分析を行った.具体的には質問{テキスト}−要約対とみなすことのできる事例について,抽出型手法を用いて要約可能であるか,生成型手法が必要であるか人手で分類した.質問{テキスト}の文数が3--5文である20事例を無作為に抽出し,質問{テキスト}−要約対とみなせるか否かについて分析を行った.\begin{table}[b]\caption{手法検討のための事例分析}\label{extractive_abstractive}\input{02table03.tex}\end{table}分析の結果を表\ref{extractive_abstractive}に示す.また,代表的な質問{テキスト}−タイトル対の例を表\ref{abstractive_examples}に示す.20事例中5事例は質問{テキスト}−要約対とはみなせない事例であった.20事例中8事例は抽出型手法でタイトルと同等の要約を生成できることがわかった.表\ref{abstractive_examples}の{例2-1および例2-2}に抽出型手法により要約可能な事例を例示する.{例2-1}において,2文目の疑問文を抽出することでタイトルと同等の要約を出力できる.{例2-2は先頭文を抽出することでタイトルと同等の要約を生成できる.しかし,実際のタイトルでは``Cansomeonetellme''といった表現が除去されたり,本文中での``cellularphonepromotion''という具体的な表現が``cellularphoneplan''というより抽象的な表現に言い換えられている.}このように,抽出型手法が適用できる{質問テキスト}であっても実際のタイトルは生成的に作られている場合がある.\begin{table}[t]\hangcaption{Yahoo!AnswersComprehensiveQuestionandAnswersversion1.0に含まれる代表的な質問{テキスト}−タイトル対}\label{abstractive_examples}\input{02table04.tex}\end{table}残りの7事例については,抽出型手法では適切な要約を出力できず,生成型手法を必要とする.生成型手法が必要な理由としては,例3のように照応解析が必要であったり,例4のように複数文にまたがる情報を適切に埋め込む必要のある事例が存在する.このような事例に対しては,抽出的な手法をただ適用するだけでは,要旨の把握に必要な情報を適切に要約に含めることが出来ない.
\section{データと比較手法}
本節では以上の分析をもとに,データセットに含まれる質問{テキスト}−タイトル対をフィルタリングし,抽出型および生成型の要約モデルを実際に構築し質問要約課題に適用した場合の性能を比較する.\subsection{データセット}\subsubsection{規則によるフィルタリング}分析に基づき設計した以下の条件を満たす事例をフィルタリングし,質問{テキスト}−要約対とみなすことのできない事例を除外する.表\ref{n_sent_in_question}に示すように,Yahoo!Answersデータセットにはタイトルのみが記述され質問{テキスト}が記述されない事例が多く存在する.データセット全体の4,483,031投稿のうち,質問{テキスト}およびタイトルの双方が記述された2,191,477投稿について以下の規則を逐次適用し,フィルタリングを行い,質問{テキスト}−要約対を獲得する.\begin{description}\item[タイトルが複数文で構成される]タイトルが2文以上で構成される事例\item[短い質問テキスト]質問が2文以下である事例\item[単語の重複]タイトル中の名詞が本文中に出現しない事例\item[短いタイトル,長いタイトル]タイトルが3単語以下,16単語以上の事例\end{description}\begin{table}[t]\caption{Yahoo!Answersdataset全体に含まれる質問テキストの長さ}\label{n_sent_in_question}\input{02table05.tex}\par\vspace{4pt}\small0文はタイトルのみが記述され,質問テキストが存在しない投稿を示す.\end{table}{これらの規則を設定した根拠について補足する.複数文から構成されるタイトルを含む投稿をフィルタリングするのは,本課題が単一質問文への要約課題であることがその理由である.短い質問{テキスト}によるフィルタリングは,質問テキスト−要約対となりやすいのは3文以上の質問テキストであることであるという4節での分析に基づく.単語の重複についてのフィルタリングも同様に,4節での分析に基づいている.これらの分析に基づくフィルタリングに加え,「短いタイトル」および「長いタイトル」によるフィルタリングも用いる.もっとも単純な疑問文の構文である``Whatisxx?''や``Isthisxx?''は最低でも4単語必要とする.そのため,3単語以下のタイトルには必要な情報が含まれていないと考えた.タイトルが3語以下で構成される質問テキスト−タイトル対をランダムに20事例抽出し調査すると,抽出したすべてのタイトルで``difficultquestion?'',``QuestiononPokemon''といったように,回答者が回答可能であるか判断するための情報が欠如していた.よって,短いタイトルを含む事例はフィルタリングすることにした.Yahoo!Answersにおいて記述される15単語以下で記述されるタイトルは全体の81\%を占める.残りの19\%の部分に関してはタイトルが長く圧縮率が低いと考えフィルタリングすることにした.}{なお,タイトルが疑問文であるかといった手がかり語などの規則を用いたフィルタリングは行わない.タイトルの表現には``HowtheBordauxClassificationwasborn?''などのように疑問詞や末尾の?などで容易に疑問文であると同定できる事例もあれば,``Thebestwaytokillants.''や``HotelRecommendationsinSanDiego''のように?や疑問詞を含まないものが存在し,本研究ではこのような事例も要約とみなす.このような表現には多くのパターンが存在するため,質問文であるか否か判定する網羅的な規則を記述するのが難しい.そこで,本研究では質問文を同定する網羅的な規則を設計するのではなく,タイトルの長さや質問テキストとタイトルの重複などの手がかりを用いてフィルタリングを行う方針を採用した.}すべての規則を適用後,251,420対を獲得した.{タイトルを要約とみなした場合の圧縮率は0.18である.}これらの事例を抽出型および生成型手法の学習および評価に用いる.\subsubsection{{データセットの妥当性検証}}{フィルタリング後のデータセットを先頭から50事例抽出し,分析すると50事例中41事例(88\%)が本研究で想定する質問テキスト−要約対とみなせる事例であった.質問テキスト−要約対とみなすことのできない12\%程度(9事例)は以下に示す要因によりノイズとしてデータセットに含まれている.\begin{itemize}\item質問タイトルから本文の語を照応する,またはその逆である(3事例)\itemタイトルもしくは本文のいずれかが質問ではない(3事例)\itemその他(3事例)\end{itemize}その他の要因には,タイトルと本文がフォーカスの異なる質問(2事例),抽象的で質問内容が類推できないタイトル(1事例)が存在する.}{次に,人間が質問{テキスト}を提示され作成する要約と,本研究で要約とみなすコミュニティQAサイトに付与されたタイトルがどの程度近いものになっているか分析を行う.フィルタリング後のデータから10事例を抽出し,質問テキストを10人の作業者に提示し要約作成を依頼した.具体的には,クラウドソーシングサービスであるAmazonMechanicalTurk\footnote{https://www.mturk.com/}で,米国の高校および大学を卒業した作業者に依頼した.なお,作業者には要約とみなすタイトルの例をいくつか提示した上で,15単語以内で要約を記述するよう指示した.}{表\ref{crowd_source}にクラウドソーシングによって作成した要約の実例と,本研究で要約とみなすタイトルを示す.例1は抽出型手法により要約可能な事例,例2は生成型手法が必要な事例である.例1,例2ともにタイトルと作業者によって記述された要約のフォーカスは同等である.具体的には例1では,``薬物を用いずにアリを退治する方法'',例2では``中国で体調不良を避けるアドバイス''であるが,タイトルおよび人間による要約は同等のフォーカスを持つ質問文である.例1は1文目を抽出することで16単語以内の要約が作成可能な事例であるが,すべての作業者が言い換えを用いてより短い要約を作成した.正解タイトルも作業者の要約と同様に,質問テキスト中の``Whataresomegoodways''を``Goodways''と単語除去により短い記述になっている.例2は体調不良の原因を食べ物だけにフォーカスする(質問テキストの前半部分の食べ物に関する記述を重視)か,旅行中を通して体調不良を起こさない方法にフォーカスする(後半の疑問文が食べ物以外の体調不良の要因も考慮すると考える)かによって,作成される要約が異なる.作業者1,作業者3,作業者5による要約およびタイトルはフォーカスを食べ物には限定しない要約となっている.}{これらの例のように,人間が質問テキストから作成する要約およびタイトルはどちらも本文中の表現を言い換えることが多い.そのため,作業者間および作業者とタイトルを比較すると,完全に要約が一致するわけではない.しかし,そのような場合であっても多くの場合要約の質問文のフォーカスは同等となっている.}\begin{table}[t]\caption{クラウドソーシングにより作成した人間による要約とタイトルの比較}\label{crowd_source}\input{02table06.tex}\end{table}\subsection{抽出型手法}抽出的な手法として,規則に基づく手法,機械学習に基づく手法を比較する.\subsubsection{規則に基づく手法}規則に基づく手法として,“リード文”,“リード{疑問文}”,“{末尾疑問文}”の3手法を比較する.リード文を抽出する手法は従来の抽出型要約研究においては強いベースラインとして知られている.{リード文を抽出する手法は表\ref{abstractive_examples}の例4において,``Iwantmychocolote...''から始まる文を抽出する.質問要約課題においては出力も質問文になると考えられるため,規則を用いて同定した疑問文のうちもっとも先頭を抽出するリード疑問文,もっとも末尾に出現する疑問文を抽出する末尾疑問文とも比較を行う.リード疑問文は表\ref{abstractive_examples}の例4において,``Why?'',末尾疑問文は``WhatamIdongwrong?''となる.なお,疑問文の判定には以下の規則を用いる.}\begin{itemize}\item{末尾の連続する記号に?を含む.}\item{先頭単語が疑問詞,be動詞,助動詞のいずれかである.}\end{itemize}{なお,規則を用いる手法であるリード疑問文,末尾疑問文は疑問文が入力中に出現しない場合,先頭文を出力する.フィルタリング後のデータセットにおいて,疑問文が存在しない文書の割合は37\%であり,これらについてはすべての規則に基づく手法が先頭文を出力する.また,疑問文が1文以下である文書の割合は63\%であり,このような場合にはリード疑問文と末尾疑問文の出力が等しくなる.}\subsubsection{機械学習に基づく手法}機械学習に基づく手法としては,分類モデルに基づく手法,回帰モデルに基づく手法の2つを比較する.{機械学習に基づく手法についても,質問文を優先的に出力するように設計する.}回帰モデルに基づく手法では,まず入力の各文に対しROUGE-2F値の予測値を出力するSupportVectorRegression(SVR)\cite{basak2007support}を学習する.学習済みの回帰モデルを用いて,入力の各文に対しROUGE-2F値を予測し,予測値のもっとも高い質問文を出力する.分類に基づくモデルは,まず抽出した場合にROUGE-2F値が最大になる{疑問文}を正例(要約に含めるべき文),それ以外の文を負例(要約に含めるべきではない文)としてSupportVectorMachine(SVM)\cite{suykens1999least}を学習する.学習したSVMを用い,入力の各文を分類し正例と判定された文のうち先頭を出力する.{SVMの出力は二値のラベルであり,回帰モデルのようにスコア最大となる疑問文に限定する後処理と組み合わせることができない.そこで,本研究では正例を疑問文に限定し,質問文を優先的に出力するような分類器が学習されるよう工夫する.}なお,分類モデルはすべての文が負例と判定された場合には,先頭文を出力する.SVR,SVMの学習には以下の素性を用いた.\begin{itemize}\item単語uni-gram\item文長\item分類対象文が1文目であるか\item分類対象文が先頭の疑問文であるか\item分類対象文の他に疑問文が存在するか\end{itemize}すべての素性は二値素性として表現した.また,単語uni-gram素性については訓練データ中に5回以上出現する単語を用いた.文長素性については,文長が2単語以下,5単語以下,11単語以上,15単語以上の4つの素性に分けて二値で表現した.\subsection{生成型手法}本研究では生成的な手法としてエンコーダ・デコーダモデル,注意機構付きエンコーダ・デコーダモデル,コピー機構付きエンコーダ・デコーダを学習し,比較を行う.入力質問{テキスト}は機械翻訳などの問題設定に比べ入力系列が長い.そのため,エンコーダ・デコーダモデルに加え,注意機構付きエンコーダ・デコーダモデルを用い,入力系列のうちデコード時に手がかりになる箇所に重みを付けながら要約を生成する.エンコーダ・デコーダモデルの学習においては低頻度語をUNKという特別なトークンに置き換え,効率的に学習を行うという工夫がよく用いられる.そのため,出力にUNKというトークンが含まれる状況がしばしば発生し,このような系列は要約としてそのまま提示することができない.質問要約においては,入力質問{テキスト}に出現する単語が出力にも含まれることが多い.そこで,出力に入力質問{テキスト}の単語を用いるコピー機構付きエンコーダ・デコーダモデルとの比較も行う.エンコーダ・デコーダおよび注意機構付きエンコーダ・デコーダモデルには,\citeA{luong2015emnlp}の手法を用いる.コピー機構付きエンコーダ・デコーダには\citeA{gu2016acl}の手法を用いる.以下にこれらのモデルを簡単に説明する.\subsubsection*{エンコーダ・デコーダモデル}エンコーダ・デコーダモデルは,エンコーダおよびデコーダという2つの要素から構成される.エンコーダは,入力質問{テキスト}$\bm{x}=(x_1,\ldots,x_n)$から1単語ずつ受け取り,連続値ベクトルによる内部状態$\bm{h}_{\tau}$に,RecurrentNeuralNetwork(RNN)を用いて逐次変換する:\begin{equation}\bm{h}_\tau=f(x_{\tau},\bm{h}_{\tau-1}).\end{equation}$f$にはLongShort-TermMemory(LSTM)\cite{lstm}やGatedRecurrentUnit(GRU)\cite{gru}などの関数を用いることができる.本研究では,元論文の設定に従い,エンコーダ・デコーダモデルおよび注意機構付きエンコーダ・デコーダモデルではLSTMを用い,コピー機構付きエンコーダ・デコーダモデルではGRUを用いる.デコーダは1つ前のタイムステップで生成された単語および内部状態を受け取り,現在のタイムステップでの内部状態$\bm{s}_{t}$を計算する.計算した内部状態を用いてsoftmax関数により単語$y_{t}$の生起確率を計算できる.なお,デコーダの初期状態には入力質問{テキスト}中の単語をすべてエンコードし終えたときの最終状態$\bm{h}_n$を用いることにする:\pagebreak\begin{gather}\bm{s}_t=f(y_{t-1},s_{t-1}),\\p(y_{t}|y_{<t},\bm{x})=softmax(g(\bm{s}_t)).\end{gather}$\bm{x}$が与えられた上での,出力要約$\bm{y}$が生起する条件付き確率は,以下のように出力単語の生起確率の積に分解される:\begin{equation}p(\bm{y}|\bm{x})=\prod_{t=1}^{m}{p(y_{t}|y_{<t},\bm{x})}.\end{equation}ただし,この確率の最大値を求めることは困難であるので,貪欲法により前から確率最大の単語を出力することで,要約を生成する.学習時には訓練データにおける対数尤度を最大化するよう重みを更新する:\begin{equation}\logp(\bm{y}|\bm{x})=\sum_{t=1}^{m}{\logp(y_{t}|y_{<t},\bm{x})}.\end{equation}\subsubsection*{注意機構付きエンコーダ・デコーダ}エンコーダ・デコーダでは,入力の文書を逐次エンコードし,最終状態$\bm{h}_{n}$を文脈ベクトル$\bm{c}$としてデコーダに渡す.そこで,注意機構付きエンコーダ・デコーダモデルでは,デコード時にエンコーダ側のどの単語に注意するかを考慮した重み付き文脈ベクトル$\bm{c_{t}}$を考える:\begin{equation}\bm{c_t}=\sum_{\tau=1}^{n}{\alpha_{t\tau}\bm{h}_\tau}.\end{equation}$\alpha_{t\tau}$は入力質問{テキスト}の$t$番目の単語に与えられる重みで,以下のようにsoftmax関数を用いて計算される:\begin{equation}\alpha_{t\tau}=\frac{exp(\bm{s}_t\cdot\bm{h}_\tau)}{\sum_{h^{'}}{exp(\bm{s_t}\cdot\bm{h^{'}}})}.\end{equation}入力側の重み付き文脈ベクトル$\bm{c_t}$と$\bm{h}_{t}$を用いて,入力単語への注意を考慮した内部状態$\bm{\tilde{h}}$を以下のように計算し,softmax関数で確率値を出力する:\begin{gather}\bm{\tilde{h}}=tanh(\bm{W_{c}[c_{t};h_{t}]}),\\p(y_{t}|y_{<t},\bm{x})=softmax(\bm{W_{s}\tilde{h}_{t}}).\end{gather}\subsubsection*{コピー機構付きエンコーダ・デコーダ}要約課題においては,入力に含まれる単語が出力にも出現することが多い.そこで,入力中の単語を出力により含めやすくするコピー機構を備えたデコーダを用い要約生成を試みる.Guら\citeyear{gu2016acl}の提案したコピー機構付きのデコーダでは,単語$y_{t}$の生起確率を以下のように$score_{gen}$と$score_{copy}$の和として計算する:\begin{eqnarray}p(y_{t}|y_{<t},\bm{x})=score_{gen}(y_{t}|\bm{s}_{t},y_{t-1},\bm{c}_{t},\bm{x})+score_{copy}(y_{t}|\bm{s}_{t},y_{t-1},\bm{c}_{t},\bm{x}).\end{eqnarray}$score_{copy}$は入力中の単語を出力に``コピー''するか否かをスコアリングする.具体的には,$y_{t}$が入力文書中に含まれる$(y_{t}\in\bm{x})$ならば,$score_{copy}$は単語$y_{t}$を要約に含める確信度をスコアリング関数$\phi_{c}$を用いて出力し,それ以外$(y_{t}\not\in\bm{x})$の場合には0を出力する:\begin{equation}score_{copy}(y_{t}|.)=\begin{cases}\frac{1}{Z}\sum_{j:x_{j}=y_{t}}\exp(\phi_c(x_j))&(y_{t}\in\bm{x})\\0&(y_{t}\not\in\bm{x}).\end{cases}\end{equation}$score_{gen}$は単語$y_{t}$が語彙$V$に含まれる場合に,その単語を要約に含めるか否かの確信度をスコアアリング関数$\phi_{g}$を用いて出力する.単語$y_{t}$が語彙$V$に含まれない場合には,特別なトークンUNKを出力する確信度を出力する.ただし,単語$y_{t}$が入力文書$\bm{x}$に含まれる場合には0を出力する:\begin{equation}score_{gen}(y_{t}|.)=\begin{cases}\frac{1}{Z}\exp(\phi_g(y_t))&(y_{t}\in\bm{V})\\\frac{1}{Z}\exp(\phi_g(UNK))&(y_{t}\not\in\bm{x}\quad\land\quady_{t}\not\in\bm{V})\\0&(y_{t}\in\bm{x}\quad\land\quady_{t}\not\in\bm{V}).\end{cases}\end{equation}$score_{copy}$は$y_{t}\in\bm{x}$のときにスコアを出力し$y_{t}\not\in\bm{x}$のときに0になる.この機構により,入力文書中に含まれる単語により高いスコアを付与し,要約に含めやすくするようモデル化している.コピー機構付きのエンコーダ・デコーダでは$score_{gen}$と$score_{copy}$の和は$Z=\sum_{v\inV\cup\{UNK\}}\linebreak\exp(\phi_{g}(v))+\sum_{x\in\bm{x}}\exp(\phi_{c}(x))$により総和が1になるように正規化されるため,確率として扱うことができる.スコアリング関数$\phi_{c}$および$\phi_{g}$の構築についての詳細は元論文\cite{gu2016acl}を参照されたい.
\section{実験}
ROUGE-2\cite{rouge2004aclworkshop}を用いた自動評価に加え,人間の評価者による5段階評価を用いて,各システムの性能を評価する.\subsection{実験設定}Yahoo!AnswersComprehensiveQuestionandAnswersversion1.0をフィルタリングし獲得した251,420対を評価実験にも用いる.このデータのうち90\%を訓練データ,残りの5\%ずつをパラメータ調整用の開発データ,評価データにそれぞれ分割した.分類モデルおよび回帰モデルで用いるSVM,SVRの実装にはLiblinear\cite{liblinear}を用いた.カーネルには線形カーネルを用い,モデルパラメータ$C$は開発データでのROUGE-2F値が最大となる値に設定した.{なお,分類モデルの訓練データについては,訓練データ全体を使うと正例および負例の割合が不均衡になり学習が難しい.そこで,訓練データ全体から正例および負例をランダムに10,000事例ずつサンプリングし正例,負例の割合が1:1になるよう調整し分類器を学習した.}エンコーダ・デコーダの学習においては,単語埋め込みベクトルおよび隠れ層の次元を256,バッチサイズは64に設定した.単語埋め込みベクトルは事前学習せず,他のモデルパラメータと同様に学習した.学習データに1回しか出現しない単語はUNKという特別なトークンで置換し,モデルパラメータ数を削減した.また,文末はEOSという特別なトークンで表現している.テスト時には開発データでの損失関数の値が最小となるモデルを用い,評価データでの性能評価を行った.エンコーダ・デコーダが20単語以内にEOSトークンを出力しない場合はデコードを中止し入力中の先頭の{疑問文}を出力する.入力中に{疑問文}が存在しない場合は,先頭文を出力する.{EOSトークンが20語以内に出力されない現象はコピー機構付きエンコーダデコーダにおいて発生し,その割合は評価事例全体の約20\%である.}\subsection{ROUGEによる自動評価}本研究の課題設定においては,出力文数は1文という制約を課しているが文字数の制約はない.しかし,より短い文に適切な情報を埋め込んだ要約はより良い要約であると考えられる.そこで,本研究ではROUGE-2の適合率による評価に加えROUGE-2F値による評価を行う.表\ref{table-rouge}に各比較手法のROUGE値を示す.具体的には規則に基づく手法として{リード文,リード疑問文,末尾疑問文},機械学習に基づく手法として分類モデル,回帰モデル,エンコーダ・デコーダに基づく手法として注意機構付きエンコーダ・デコーダ,コピー機構付きエンコーダ・デコーダをそれぞれ示す.{回帰モデルについては,文集合全体からスコアが最大になる文を選ぶモデルと,疑問文集合からスコア最大になる文を選ぶモデルの性能を示す.}\begin{table}[t]\caption{ROUGE-2による性能評価}\label{table-rouge}\input{02table07.tex}\end{table}規則に基づく手法において,リード疑問文を抽出する手法のROUGE値の適合率は45.3であり,末尾疑問文を抽出する手法の42.6やリード文を抽出する手法の39.4よりも良い性能を示した.F値でも同様の順で良い性能を示した.先頭文を出力する規則は既存の要約課題においては強いベースラインとして知られる.しかし,質問要約課題においては先頭文を選択する手法より,{リード疑問文や末尾疑問文など疑問文}を優先的に出力するモデルのほうが良い性能を示す.また,{リード疑問文の方が末尾疑問文}よりも適合率において良い性能を示した.分類モデルと{リード疑問文}を比較すると,ROUGE値の適合率がそれぞれ44.3と44.7であり,ほぼ同等の性能を示した.ほとんどの入力にはたかだか1--2文の{規則で同定可能な疑問文}しか含まれず,分類器を用いても{リード疑問文}よりも大きく性能を向上させることが難しいものと考えられる.回帰モデルおよび分類モデルの性能は,{適合率による評価においてリード疑問文}ベースラインよりもわずかに低くなった.このことから,{リード疑問文}ベースラインは質問要約課題において強いベースラインであることが分かる.{また,機械学習に基づく手法についても規則に基づく手法と同様に,質問文を優先的に選択するモデルが良い性能を示した.}注意機構を持たないエンコーダ・デコーダモデルについては適合率で3.5と極端に低い性能を示した.\citeA{luong2015emnlp}が述べるように,注意機構を持たないエンコーダ・デコーダモデルは入力系列が長くなると性能が劣化する.本研究の入力は通常の機械翻訳の設定よりも長く,注意機構なしのエンコーダ・デコーダモデルでは正しくパラメータが学習されず,正しい要約を出力できなかった.注意機構付きエンコーダ・デコーダでは,この問題が解決され適合率およびF値が38.5と規則に基づく手法や機械学習に基づく手法よりも良い性能を示した.コピー機構付きエンコーダ・デコーダでは,適合率が47.4,F値が42.2とさらに性能が向上した.抽出的な手法はエンコーダ・デコーダを用いた生成的な手法よりも長い単語列を出力する傾向にある.そのため,適合率では良い性能を示すが,F値においては生成型よりも劣る.コピー機構付きエンコーダ・デコーダでは適合率でもF値でも抽出型よりも良い性能を示した.\subsection{人手評価}本研究ではROUGEによる自動評価に加え,クラウドソーシングサービスである\linebreakCrowdflower\footnote{http://crowdflower.com}を用いた人手評価でも各モデルの性能を比較する.本研究では,英語として正しく,入力の質問{テキスト}と同じ事柄について尋ねる要約がより望ましいと考える.そのため,人手評価においては,作業者に入力質問{テキスト}と各モデルで生成した出力要約を提示し,``文法性''および``フォーカス''の2つの観点からより良い順に並べ替えるよう指示した.手法間の文法性やフォーカスに差異が見られない場合には,同順としても良いこととした.{評価者には「例えばQAコミュニティサイトでのタイトルでの利用を想定する」という応用先を伝えた.}\mbox{``文}法性''は英語として正しい文法で記述されているか,``フォーカス''は入力質問{テキスト}と出力要約の尋ねている事柄が等しいかを表す評価基準である.比較手法としては,自動評価で良い性能を示した4つの手法を採用した.具体的には,人間による正解,規則を用いて抽出した{リード疑問文},分類器が正例と判定した文のうち先頭,コピー機構付きエンコーダ・デコーダを用いた.評価には自動評価で用いた評価データから無作為に抽出した100事例を用い,各事例に対して3人の作業者が評価した.``文法性'',``フォーカス''の観点に基づく結果を表\ref{human-grammaticality},\ref{human-focus}にそれぞれ示す.この表では,行に示す各手法が列に示す手法よりもより良いと判定された回数を示している.例えば,人間によるタイトルはフォーカスの観点において{リード疑問文}を抽出する手法よりも135回より良いと判定され,{リード疑問文}は人間によるタイトルよりも69回より良いと判定された.\begin{table}[b]\caption{人手評価結果—文法性—}\label{human-grammaticality}\input{02table08.tex}\end{table}\begin{table}[b]\caption{人手評価結果—フォーカス—}\label{human-focus}\input{02table09.tex}\end{table}人手評価では文法性,フォーカスどちらの観点においても自動評価と似た傾向を示した.具体的には,人間によるタイトル,コピー機構付きエンコーダ・デコーダモデル,{リード疑問文}および分類モデルの順でより良いと判定された.入力質問{テキスト}に含まれる規則で同定可能な{疑問文}はたかだか1--2文であることが多く,{リード疑問文}と分類モデルはほぼ同様の出力をした.そのため,人手評価においても差が見られなかった.コピー機構と人間によるタイトルを比較すると,フォーカス,文法性の観点においてそれぞれ89回,69回,コピー機構が人間のタイトルよりも良いと判定されている.このような事例の出力を分析すると,人間の付与するタイトルには重要な単語まで除去しているものや,完全な文ではない事例が含まれることがわかった.例えば,コピー機構が“Howdoyoustoptheitchingaftershaving?''と出力する事例に対し,人間のタイトルでは“aftershaving''が除去され,さらに短い要約となっている事例などでは,コピー機構の方がより正しいフォーカスを持つと判定された.また,人間のタイトルでは“Thebestwaytogetmoney?''など疑問詞を省略する事例がいくつか観測された.このような事例の文法性に基づく評価では,``Whatisthebestwaytogetmoney?''など疑問詞を省略せずに出力する傾向のあるコピー機構よりも低く評価されている.\subsection{定性的分析}本節では,実際の出力例を基に定性的な分析を行う.表\ref{output-example1}に入力質問{テキスト}と各モデルの出力例を示す.抽出型手法である{リード疑問文}や分類モデルでは,照応詞の``it''が含まれ,フォーカスが不明確となることがある.このような照応の問題が,フォーカスでのスコアを下げる要因の一つであると考えられる.この例から単一質問文に要約する課題設定においては,複数の文にまたがる情報をうまく組み合わせる必要があり,抽出的手法では適切な要約を出力するのが難しいことが分かる.生成型の手法である注意機構付きエンコーダ・デコーダモデルでは,``TheSompsons''のような低頻度語は特別なトークンUNKとして出力され,ROUGE値を下げる要因となっている.同様の問題が機械翻訳課題でも報告されており\cite{bahdanau2015iclr},この問題を解決するコピー機構付きエンコーダ・デコーダモデルでは,``TheSimpsons''という重要語を正しく出力に含められている.\begin{table}[t]\caption{各手法の出力要約}\label{output-example1}\input{02table10.tex}\end{table}
\section{おわりに}
本研究では新たな要約課題として,複数文から構成される質問{テキスト}を入力とし,その内容を端的に表現する単一質問文に要約する“質問要約”課題を提案した.コミュニティ質問応答サイトの投稿を用いた事例分析において,抽出型の手法では要約できない事例の存在を確認した.また,このデータをフィルタリングしたデータを用い,いくつかの抽出型および生成型要約モデルを構築し,比較した.先頭文を抽出する手法は既存の要約課題において強いベースラインとして知られるが,質問要約においては規則を用いて同定した疑問文のうち先頭を出力する手法より良い性能を示した.実験より,生成型の要約モデルがROUGE-2F値においてより良い性能を示すことがわかった.構築した手法は人間によるタイトルよりもROUGE値および人手評価において,低い性能を示していることから,質問要約課題にはさらなる性能向上の余地が残されていると考える.\acknowledgment本稿はIJCNLP2017に採録済みの論文を基にしたものです\cite{ishigaki2017ijcnlp}.本研究はJSTさきがけJPMJPR1655の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau2015iclr}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemCoRR}.\newblock{\bfseriesabs/1409.0473}.\bibitem[\protect\BCAY{Bank,Mittal,\BBA\Witbrock}{Banket~al.}{2010}]{banko2000acl}Bank,M.,Mittal,V.~O.,\BBA\Witbrock,M.~J.\BBOP2010\BBCP.\newblock\BBOQHeadlineGenerationBasedonStatisticalTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL2010},\mbox{\BPGS\318--325}.\bibitem[\protect\BCAY{Basak,Pal,\BBA\Patranabis}{Basaket~al.}{2007}]{basak2007support}Basak,D.,Pal,S.,\BBA\Patranabis,D.~C.\BBOP2007\BBCP.\newblock\BBOQSupportVectorRegression.\BBCQ\\newblock{\BemNeuralInformationProcessing-LettersandReviews},{\Bbf11}(10),\mbox{\BPGS\203--224}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Gulcehre,Bahdanau,Bougares,Schwenk,\BBA\\mbox{Bengio}}{Choet~al.}{2014}]{gru}Cho,K.,vanMerrienboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,\BBA\\mbox{Bengio},Y.\BBOP2014\BBCP.\newblock\BBOQLearningPhraseRepresentationsusingRnnEncoder-decoderforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2014},\mbox{\BPGS\1724--1734}.\bibitem[\protect\BCAY{Cohn\BBA\Lapata}{Cohn\BBA\Lapata}{2013}]{cohn2013acm}Cohn,T.\BBACOMMA\\BBA\Lapata,M.\BBOP2013\BBCP.\newblock\BBOQAnAbstractiveApproachtoSentenceCompression.\BBCQ\\newblock{\BemACMTransactionsonIntelligentSystemsandTechnology(TIST)},{\Bbf4}(3),\mbox{\BPG~41}.\bibitem[\protect\BCAY{Dorr,Zajic,\BBA\Schwartz}{Dorret~al.}{2003}]{dorr2003naacl}Dorr,B.,Zajic,D.,\BBA\Schwartz,R.\BBOP2003\BBCP.\newblock\BBOQHedgetrimmer:AParse-and-trimApproachtoHeadlineGeneration.\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2003TextSummarizationWorkshop},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Duboue}{Duboue}{2012}]{pablo2012inlg}Duboue,P.~A.\BBOP2012\BBCP.\newblock\BBOQExtractiveEmailThreadSummarization:CanWeDoBetterThanHeSaidSheSaid?\BBCQ\\newblockIn{\BemProceedingsofINLG2012},\mbox{\BPGS\85--89}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{liblinear}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Gu,Lu,Li,\BBA\Li}{Guet~al.}{2016}]{gu2016acl}Gu,J.,Lu,Z.,Li,H.,\BBA\Li,V.~O.\BBOP2016\BBCP.\newblock\BBOQIncorporatingCopyingMechanisminSequence-to-SequenceLearning.\BBCQ\\newblockIn{\BemProceedingsofACL2016},\mbox{\BPGS\1631--1640}.\bibitem[\protect\BCAY{Hirao,Isozaki,Maeda,\BBA\Matsumoto}{Hiraoet~al.}{2002}]{hirao2002coling}Hirao,T.,Isozaki,H.,Maeda,E.,\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQExtractingImportantSentenceswithSupportVectorMachines.\BBCQ\\newblockIn{\BemProceedingsofCOLING2002},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{lstm}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Ishigaki,Takamura,\BBA\Okumura}{Ishigakiet~al.}{2017}]{ishigaki2017ijcnlp}Ishigaki,T.,Takamura,H.,\BBA\Okumura,M.\BBOP2017\BBCP.\newblock\BBOQSummarizingLengthyQuestions.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP2017},\lowercase{\BVOL}~1,\mbox{\BPGS\792--800}.\bibitem[\protect\BCAY{Kikuchi,Neubig,Sasano,Takamura,\BBA\Okumura}{Kikuchiet~al.}{2016}]{kikuchi2016emnlp}Kikuchi,Y.,Neubig,G.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2016\BBCP.\newblock\BBOQControllingOutputLengthinNeuralEncoder-Decoders.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2016},\mbox{\BPGS\1328--1338}.\bibitem[\protect\BCAY{Li,Qian,\BBA\Liu}{Liet~al.}{2013}]{li2013acl}Li,C.,Qian,X.,\BBA\Liu,Y.\BBOP2013\BBCP.\newblock\BBOQUsingSupervisedBigram-basedILPforExtractiveSummarization.\BBCQ\\newblockIn{\BemProceedingsofACL2013},\mbox{\BPGS\1004--1013}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{rouge2004aclworkshop}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofACL2004Workshop},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Luhn}{Luhn}{1958}]{luhn1958ibm}Luhn,H.~P.\BBOP1958\BBCP.\newblock\BBOQTheAutomaticCreationofLiteratureAbstracts.\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf2}(2),\mbox{\BPGS\159--165}.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{luong2015emnlp}Luong,M.-T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2015},\mbox{\BPGS\1412--1421}.\bibitem[\protect\BCAY{Mihalcea\BBA\Tarau}{Mihalcea\BBA\Tarau}{2004}]{rada2004emnlp}Mihalcea,R.\BBACOMMA\\BBA\Tarau,P.\BBOP2004\BBCP.\newblock\BBOQTextRank:BridgingOrderintoTexts.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2004},\mbox{\BPGS\404--411}.\bibitem[\protect\BCAY{Oya\BBA\Carenini}{Oya\BBA\Carenini}{2014}]{oya2014sigdial}Oya,T.\BBACOMMA\\BBA\Carenini,G.\BBOP2014\BBCP.\newblock\BBOQExtractiveSummarizationandDialogueActModelingonEmailThreads:AnIntegratedProbalisticApproach.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL2014},\mbox{\BPGS\133--140}.\bibitem[\protect\BCAY{Oya,Mehdad,Carenini,\BBA\Ng}{Oyaet~al.}{2014}]{oya2014inlg}Oya,T.,Mehdad,Y.,Carenini,G.,\BBA\Ng,R.\BBOP2014\BBCP.\newblock\BBOQATemplate-basedAbstractiveMeetingSummarization:LeveragingSummaryandSourceTextRelationships.\BBCQ\\newblockIn{\BemProceedingsofINLG2014},\mbox{\BPGS\45--53}.\bibitem[\protect\BCAY{Peyrard\BBA\Eckale-Kohler}{Peyrard\BBA\Eckale-Kohler}{2016}]{peyrard2016acl}Peyrard,M.\BBACOMMA\\BBA\Eckale-Kohler,J.\BBOP2016\BBCP.\newblock\BBOQOptimizinganApproximationofROUGE---aProblem-ReductionApproachtoExtractiveMulti-DocumentSummarization.\BBCQ\\newblockIn{\BemProceedingsofACL2016},\mbox{\BPGS\1825--1836}.\bibitem[\protect\BCAY{Rush,Chopra,\BBA\Weston}{Rushet~al.}{2015}]{rush2015acl}Rush,A.~M.,Chopra,S.,\BBA\Weston,J.\BBOP2015\BBCP.\newblock\BBOQANeuralAttentionModelforSentenceSummarization.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2015},\mbox{\BPGS\379--389}.\bibitem[\protect\BCAY{Shen,Sun,Li,Yang,\BBA\Chen}{Shenet~al.}{2007}]{shen2007ijcai}Shen,D.,Sun,J.-T.,Li,H.,Yang,Q.,\BBA\Chen,Z.\BBOP2007\BBCP.\newblock\BBOQDocumentSummarizationusingConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofIJCAI2007},\mbox{\BPGS\2862--2867}.\bibitem[\protect\BCAY{Suykens\BBA\Vandewalle}{Suykens\BBA\Vandewalle}{1999}]{suykens1999least}Suykens,J.~A.\BBACOMMA\\BBA\Vandewalle,J.\BBOP1999\BBCP.\newblock\BBOQLeastSquaresSupportVectorMachineClassifiers.\BBCQ\\newblock{\BemNeuralProcessingLetters},{\Bbf9}(3),\mbox{\BPGS\293--300}.\bibitem[\protect\BCAY{Tamura,Takamura,\BBA\Okumura}{Tamuraet~al.}{2005}]{tamura2005}Tamura,A.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQClassificationofMultiple-SentenceQuestions.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP2005},\mbox{\BPGS\426--437}.\bibitem[\protect\BCAY{Woodsend,Feng,\BBA\Lapata}{Woodsendet~al.}{2010}]{wubben2012acl}Woodsend,K.,Feng,Y.,\BBA\Lapata,M.\BBOP2010\BBCP.\newblock\BBOQGenerationwithQuasi-synchronousGrammar.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2010},\mbox{\BPGS\513--523}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zajic,Dorr,\BBA\Schwartz}{Zajicet~al.}{2004}]{zajic2004naacl}Zajic,D.,Dorr,B.~J.,\BBA\Schwartz,R.\BBOP2004\BBCP.\newblock\BBOQBbn/umdatduc-2004.\BBCQ\\newblockIn{\BemProceedingsofNAACL-HLT2004DocumentUnderstandingWorkshop},\mbox{\BPGS\112--119}.\end{thebibliography}\begin{biography}\bioauthor{石垣達也}{2012年茨城工業高等専門学校専攻科情報工学コース修了.2014年年東京工業大学総合理工学研究科博士前期課程修了.同年,同大学博士後期課程に進学.}\bioauthor{高村大也}{1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年より同教授および産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V09N02-02
|
\section{はしがき}
日本語の複文の従属節には,体言に係る連体修飾節と,用言に係る連用修飾節がある.連体修飾節は通常次の句の体言に係る場合が多く曖昧性は比較的少ない.ところが,連用修飾節は係り先に曖昧性があり,必ずしもすぐ次の節の用言に係るとは限らない.このような曖昧性を解消するために,接続助詞,接続詞など接続の表現を階層的に分類し,その順序関係により,連接関係を解析する方法\cite{shirai1995}が用いられてきた.また,連接関係を,接続の表現を基に統計的に分析し,頻度の高い連接関係を優先する方法\cite{utsuro1999}も用いられてきた.しかし,接続の表現には曖昧性があり,同じ接続の表現でも異なる意味で用いられるときは異なる係り方をする.従って,接続の表現の階層的な分類を手がかりとする方法では,達成できる精度に限界がある.本論文では,従属節の動詞と主体の属性を用いて連接関係の関係的意味を解析し,連接構造を解析する方法を用いる.本方法によりモデルを作成し,解析した結果と従来から行われてきた接続の表現の表層的な分類を用いた方法とを同じ例文を用いて比較する.ここで,主体は「複文の研究」\cite{jinta1995}で使っているのと同じ意味で使っており,後述の解析モデルでは「が格」として処理している.
\section{動詞と主体の属性と連接関係の関係的意味}
接続助詞,接続詞などの接続の表現には曖昧性がある.特に,「て」,「が」,「と」などであらわされる従属節の関係的意味はさまざまである.これは「から」,「ので」などと違って,これらの接続の表現自体が明確な固定的意味を有していないからである.従って,これらの接続の表現では,連接関係の関係的意味が,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.事象の意味は,ある主体が行う行動または状態の分類,意志性などをあらわす.たとえば,生物主体の姿勢変化,心的状態などである.従って,事象の意味は,動詞と名詞の属性を用いて表すことができると考えることができる.たとえば,助詞「て」による連接関係で,従属節と主節が共に意志動詞で形成され,両者が同一主体のときは,「時間的継起」を表すことが多い.\begin{description}\item[〔例文1〕]ユーザは,IDとパスワードを指定して,OKボタンをクリックします.\end{description}同じ助詞「て」による連接関係でも,従属節の動詞が,姿勢変化,携帯・保持,心的状態などの意味分類であるときは「付帯状態」を表すことが多い.「付帯状態」とは,従属節と主節の事象が同じ時間の中に存し,同一主体で,従属節で主節の事象の主たる動きや状態の実現され方を限定・修飾するものである.\begin{description}\item[〔例文2〕]そこで女中が鍵を持って,私を待っていた.\end{description}「て」による連接関係で,従属節と主節が共に無意志動詞で,従属節が無生物主体,主節が生物主体のときは,「原因」を表すことが多い.これは,主たる事象が人間を表すものでありながら,従属節で人間の意志で制御できない事象が生じたためである.\begin{description}\item[〔例文3〕]彼は,車が故障して,遅れた.\end{description}このような,連接関係に影響を与える動詞の属性としては,意志性,意味分類の外に,ヴォイス,アスペクト,ムード,慣用句の分類,主節と従属節動詞の類似性などがある.主体の属性としては,生物/無生物性,主節と従属節の主体の類似性を用いる.
\section{接続の表現の意味による距離}
\label{ch:meanings}従属節の係り先は,一般的には次の従属節であることが多いが,さらに先の従属節に係ることもある.例えば,次の例文を考えてみよう.\begin{description}\item[〔例文4〕]クエリーボタンを押して,メニューから実行を選択して,検索情報を表示する.\item[〔例文5〕]彼は,連絡がないかと思って,携帯電話を持って,待っていた.\end{description}\begin{figure}\hspace*{25mm}\vspace*{-3mm}\atari(79,71)\vspace{-3mm}\caption{連接関係の意味による係り方の違い}\label{fig:excohere}\end{figure}〔例文4〕では図\ref{fig:excohere}(a)に示すように,隣接する従属節に係っているが,〔例文5〕では隣接する従属節を飛び越えて主節に係っている.このように,同じ助詞「て」による連接関係でも,連接関係の意味の違いによって係り方が異なってくる.一般的に,連接関係の意味の違いによって,連接関係の距離に違いがあり,係る文の述語に「密着している」ものと「離れている」ものがある.「密着している」連接関係は,隣接する従属節に係りやすく,「離れている」連接関係はより遠くへ係りやすい.\subsection{接続の表現をA,B,Cの3分類にして解析した場合}南\cite{minami1993}は接続助詞や連用中止などの接続の表現による連用修飾節をA,B,C,の3クラスに分類して,図\ref{fig:imply}の例に示すように,AはAのみを含むことができ,BはA,Bを含むことができ,CはA,B,Cを含むことができることを示した.主節はA,B,C共に含むことができる.\begin{figure*}\hspace*{22mm}\vspace*{-3mm}\atari(100,23)\vspace*{-3mm}\caption{連用修飾節の包含関係}\label{fig:imply}\end{figure*}\begin{figure*}\hspace*{22mm}\vspace*{-3mm}\atari(100,21)\vspace*{-3mm}\caption{連用修飾節の係り受け}\label{fig:modify}\end{figure*}これに,他の連用修飾節を飛び越えることができるかどうかという関係を考慮に入れて,係り受けの関係で表すと図\ref{fig:modify}のようになる.AはA,B,Cに係ることができ,BはAを飛び越えてB,Cに係ることができ,CはA,Bを飛び越えてCに係ることができると表現することができる.すなわち,Aは「密着している」連接関係であり,隣接する従属節に係りやすく,Cは「離れている」連接関係であって,より遠くへ係りやすい.Bはその中間である.これを表\ref{table:distance}に示すように,連接関係の距離で表す.\begin{table*}\caption{連接関係の距離}\label{table:distance}\hspace*{47mm}\begin{tabular}{|c|c|}\hline\multicolumn{1}{|c|}{接続の表現のクラス}&\multicolumn{1}{c|}{距離}\\\hlineA&1\\B&2\\C&3\\\hline\end{tabular}\end{table*}連用修飾節の距離をm,係り先の節の距離をd,飛び越える節の距離をjで表したとき,連接関係のルールは次の2つの条件で表すことができる.\begin{description}\item[〔ルール1〕]連用修飾節は自身の距離以上の距離を持つ節に係る.(d≧m)\item[〔ルール2〕]連用修飾節は自身の距離より大きな距離の節を飛び越えて係ることはできない.(j<m)\end{description}このルールが実際の用例について,どの程度よく適合するかを調べた.複文に関する論文集\cite{jinta1995},日本語教育の参考書\cite{houjou1992},ネットワークの解説書\cite{kaneuti1993}の2,010文から,主節の外に連用修飾節を2つ以上含む344文を取り出して用例とした.表\ref{table:f3cm}は係り側と受け側の連接関係の頻度を調べて集計したものである.\begin{table*}\caption{用例における係り受け連接関係の頻度\\(A,B,Cの3分類で接続の表現の頻度による)}\label{table:f3cm}\hspace*{33mm}\begin{tabular}{|c|r|r|r|r|}\hline\multicolumn{1}{|p{4zw}|}{}&\multicolumn{4}{|c|}{受け側}\\\cline{2-5}\multicolumn{1}{|p{4zw}|}{係り側}&\multicolumn{1}{|p{3zw}|}{A}&\multicolumn{1}{|p{3zw}|}{B}&\multicolumn{1}{|p{3zw}|}{C}&\multicolumn{1}{|p{3zw}|}{主節}\\\hlineA&0&21&5&28\\\cline{2-2}B&3&197&46&414\\\cline{3-3}C&0&5&20&132\\\hline\end{tabular}\end{table*}この表に前記のルール1を適用すると,右上から対角線のセルまでがこのルールで正しく処理される連接関係であり,それより左下のセルは,このルールでは間違って処理される連接関係である.飛び越えて係る場合の連用修飾節と飛び越える節の距離が最大の節(最も離れているもの)との関係について頻度を調べて集計した結果を表\ref{table:f3cj}に示す.\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度\\(A,B,Cの3分類で接続の表現の頻度による)}\label{table:f3cj}\hspace*{33mm}\begin{tabular}{|c|r|r|r|r|}\hline\multicolumn{1}{|p{4zw}|}{}&\multicolumn{4}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-5}\multicolumn{1}{|p{4zw}|}{係り側}&\multicolumn{1}{|p{3zw}|}{隣接}&\multicolumn{1}{|p{3zw}|}{A}&\multicolumn{1}{|p{3zw}|}{B}&\multicolumn{1}{|p{3zw}|}{C}\\\hlineA&52&0&2&0\\\cline{3-3}B&508&22&122&8\\\cline{4-4}C&58&5&91&3\\\hline\end{tabular}\end{table*}この表に,ルール2を適用すると左下から対角線までが,このルールで正しく処理される連接関係であり,それより右上のセルはこのルールでは間違って処理される連接関係である.南のA,B,Cの分類で,いくつかの接続の表現は,複数の分類に含まれる.例えば,接続助詞「て」による連接関係は,連接関係の意味の違いによってAにもBにも含まれる.表\ref{table:f3cm},表\ref{table:f3cj}の集計は,接続の表現だけを見て分類集計したものであって,同じ接続の表現が複数に分類されるときは,最も頻度の高い分類を採用した.前節で述べた連接関係の関係的意味を調べて,関係的意味によって分類し,係り受けを解析したほうが,より正確な解析結果が出るはずである.このような観点から,接続の表現を連接関係の関係的意味によって,表\ref{table:semcl3}に示すようにA,B,Cに3分類した.\begin{table*}\caption{連接関係の意味分類(A,B,Cの3分類)}\label{table:semcl3}\begin{tabular}{|c|p{12zw}|p{20zw}|}\hline\multicolumn{1}{|p{5zw}|}{意味分類}&\multicolumn{1}{|p{12zw}|}{連接関係の関係的意味}&\multicolumn{1}{|p{20zw}|}{接続の表現の例}\\\hlineA&同時動作,方法,手段,携帯,心的状態&て(付帯状態),て(方法),ながら(同時動作)\\B&継起,条件,時間,程度,原因,理由,目的&て(継起),し(継起),連用中止(継起),せず(継起),ないで(継起),と(条件),と(時),ば(条件),たら(条件),たら(時),ても(逆接条件),ばあい(時),さいに(時),さい(時),ころ(時),のに(逆接条件),ほど(程度),て(原因),て(理由),し(理由),から(原因),から(理由),ので(原因),ので(理由),ため(目的),ため(理由),たら(理由),よう(目的),ように(目的),ことで(理由)\\C&前提,前置き,逆接&が(逆接),が(前提),ように(前提),ながら(逆接)\\\hline\end{tabular}\end{table*}\newpage表\ref{table:semcl3}に基づいて前記と同じ344文の用例を分析して集計した結果が表\ref{table:freq3sm},表\ref{table:freq3sj}である.\begin{table*}\caption{用例における係り受け連接関係の頻度(A,B,Cの3分類で連接関係の関係的意味による)}\label{table:freq3sm}\hspace*{25mm}\begin{tabular}{|c|r|r|r|r|}\hline\multicolumn{1}{|p{4zw}|}{}&\multicolumn{4}{|c|}{受け側}\\\cline{2-5}\multicolumn{1}{|p{4zw}|}{係り側}&\multicolumn{1}{|p{3zw}|}{A}&\multicolumn{1}{|p{3zw}|}{B}&\multicolumn{1}{|p{3zw}|}{C}&\multicolumn{1}{|p{3zw}|}{主節}\\\hlineA&4&39&13&62\\\cline{2-2}B&1&160&57&372\\\cline{3-3}C&0&3&20&140\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度\\(A,B,Cの3分類で連接関係の関係的意味による)}\label{table:freq3sj}\hspace*{25mm}\begin{tabular}{|c|r|r|r|r|}\hline\multicolumn{1}{|p{4zw}|}{}&\multicolumn{4}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-5}\multicolumn{1}{|p{4zw}|}{係り側}&\multicolumn{1}{|p{3zw}|}{隣接}&\multicolumn{1}{|p{3zw}|}{A}&\multicolumn{1}{|p{3zw}|}{B}&\multicolumn{1}{|p{3zw}|}{C}\\\hlineA&117&0&0&1\\\cline{3-3}B&461&34&90&5\\\cline{4-4}C&57&12&92&2\\\hline\end{tabular}\end{table*}これらの表から接続の表現の頻度による場合と,連接関係の関係的意味を分析した場合について,精度を計算すると表\ref{table:acc3}に示すようになる.\begin{table*}\caption{A,B,Cの3分類を用いた場合の連接構造の解析精度(単位:%)}\label{table:acc3}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|p{20zw}|}{連接関係の精度か文単位での精度かの区別}&\multicolumn{1}{|p{5zw}|}{接続の表現の頻度による解析結果}&\multicolumn{1}{|p{5zw}|}{連接関係の関係的意味による解析結果}\\\hline連接関係の精度(344文中の871の連接関係)&83.5&88.2\\主節のほかに連用従属節を2つ以上含む文での精度(344文)&62.2&72.1\\全体の文での精度(2010文)&93.5&95.7\\\hline\end{tabular}\end{table*}この表から分るとおり,主節以外に連用修飾節を2つ以上含む344文中の個々の連接関係を集計した結果では,正しく解析できなかった連接関係が16.5\%から11.8\%に改善した.これを,344文中で正しく解析できなかった文の比率で見ると,37.8\%から27.9\%に,全体の2,010文で正しく解析できなかった文の比率では,6.5\%から4.3\%に改善した.\subsection{接続の表現を5分類した場合}前期のA,B,Cの3分類で,A,Cに比べてBに含まれる接続の表現が非常に多い.これが,解析の精度が上がらない原因になっている.このため,連接関係の関係的意味により,Bを継起,条件,原因に3分類する.もともと,Aの連接関係の関係的意味は付帯状態を表し,Bは前提を表しているので,連接関係の意味分類を整理すると表\ref{table:semcl5}に示すようになる.\begin{table*}\caption{連接関係の意味分類}\label{table:semcl5}\begin{tabular}{|p{5zw}|p{12zw}|p{20zw}|}\hline\multicolumn{1}{|p{5zw}|}{意味分類}&\multicolumn{1}{|p{12zw}|}{連接関係の関係的意味}&\multicolumn{1}{|p{20zw}|}{接続の表現の例}\\\hline付帯状態&同時動作,方法,手段,携帯,心的状態&て(付帯状態),て(方法),ながら(同時動作)\\継起&継起&て(継起),し(継起),連用中止(継起),せず(継起),ないで(継起)\\条件&条件,時間,程度&と(条件),と(時),ば(条件),たら(条件),たら(時),ても(逆接条件),ばあい(時),さいに(時),さい(時),ころ(時),のに(逆接条件),ほど(程度)\\原因&原因,理由,目的&て(原因),て(理由),し(理由),から(原因),から(理由),ので(原因),ので(理由),ため(目的),ため(理由),たら(理由),よう(目的),ように(目的),ことで(理由)\\前提&前提,前置き,逆接&が(逆接),が(前提),ように(前提),ながら(逆接)\\\hline並列&並列,対比&て(並列),し(並列),が(対比),連用中止(並列),ば(並列),たり(並列),せず(並列),ように(対比),より(対比)\\\hline\end{tabular}\end{table*}表で,並列節だけは別分類にして表示してあるが,これは,並列節だけ異なったルールが適用されるためである.並列のスコープ内で,条件節などが並列節に係って並列の要素を構成するときは,並列節は前提と同じ距離で処理する.並列節が並列を構成する次の節に係るときは,並列のスコープ内で,並列節は付帯状態と同じ距離で処理する.表\ref{table:semcl5}の連接関係の意味分類に基づき接続の表現を5分類し,係り側と受け側の連接関係の頻度および係り側と飛び越える節の頻度を調べて集計した.同じ接続の表現で連接関係の関係的意味の違いにより,複数の分類に含まれる接続の表現は,最も頻度の高い分類を適用した.並列節のスコープの決定は,並列を表す接続の表現を有する節で最も狭いスコープを採用した.解析の結果を表\ref{table:freq5cm},表\ref{table:freq5cj}に示す.\begin{table*}\caption{用例における連接関係で係り側と受け側の頻度(5分類で接続の表現の頻度による)}\label{table:freq5cm}\begin{tabular}{|l|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{6zw}|}{}&\multicolumn{6}{|c|}{受け側}\\\cline{2-7}\multicolumn{1}{|p{6zw}|}{係り側}&\multicolumn{1}{|p{5zw}|}{1付帯状態}&\multicolumn{1}{|p{4zw}|}{2継起}&\multicolumn{1}{|p{4zw}|}{3条件}&\multicolumn{1}{|p{4zw}|}{4原因}&\multicolumn{1}{|p{4zw}|}{5前提}&\multicolumn{1}{|p{4zw}|}{主節}\\\hline1.付帯状態&0&9&8&4&5&28\\\cline{2-2}2.継起&3&51&26&32&22&162\\\cline{3-3}3.条件&0&21&26&30&13&138\\\cline{4-4}4.原因&0&5&0&6&11&114\\\cline{5-5}5.前提&0&1&2&2&20&132\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度(5分類で接続の表現の頻度による)}\label{table:freq5cj}\begin{tabular}{|l|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{6zw}|}{}&\multicolumn{6}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-7}\multicolumn{1}{|p{6zw}|}{係り側}&\multicolumn{1}{|p{4zw}|}{隣接}&\multicolumn{1}{|p{5zw}|}{1付帯状態}&\multicolumn{1}{|p{4zw}|}{2継起}&\multicolumn{1}{|p{4zw}|}{3条件}&\multicolumn{1}{|p{4zw}|}{4原因}&\multicolumn{1}{|p{4zw}|}{5前提}\\\hline1.付帯状態&52&0&2&0&0&0\\\cline{3-3}2.継起&246&9&16&15&8&2\\\cline{4-4}3.条件&165&7&45&7&0&4\\\cline{5-5}4.原因&97&6&13&16&2&2\\\cline{6-6}5.前提&58&5&26&36&29&3\\\hline\end{tabular}\end{table*}連接関係の関係的意味を調べて,関係的意味により連接関係を意味分類し,係り側と受け側の頻度および飛び越える節の頻度を調べて集計した.並列節のスコープの決定は,並列を意味する接続の表現および並列節を構成する各々の節の述語,目的語などの類似度によった.すなわち,接続の表現が並列を意味し,並列を構成する各々の節の述語,目的語,主語などが上位の意味分類で同じであれば,並列を構成するものとした.解析の結果を表\ref{table:freq5sm},表\ref{table:freq5sj}に示す.\begin{table*}\caption{用例における連接関係で係り側と受け側の頻度(5分類で連接関係の関係的意味による)}\label{table:freq5sm}\begin{tabular}{|l|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{6zw}|}{}&\multicolumn{6}{|c|}{受け側}\\\cline{2-7}\multicolumn{1}{|p{6zw}|}{係り側}&\multicolumn{1}{|p{5zw}|}{1付帯状態}&\multicolumn{1}{|p{4zw}|}{2継起}&\multicolumn{1}{|p{4zw}|}{3条件}&\multicolumn{1}{|p{4zw}|}{4原因}&\multicolumn{1}{|p{4zw}|}{5前提}&\multicolumn{1}{|p{4zw}|}{主節}\\\hline1.付帯状態&4&11&11&17&13&62\\\cline{2-2}2.継起&1&39&23&20&18&117\\\cline{3-3}3.条件&0&7&27&32&23&132\\\cline{4-4}4.原因&0&2&0&10&16&123\\\cline{5-5}5.前提&0&1&1&1&20&140\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度(5分類で連接関係の関係的意味による)}\label{table:freq5sj}\begin{tabular}{|l|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{6zw}|}{}&\multicolumn{6}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-7}\multicolumn{1}{|p{6zw}|}{係り側}&\multicolumn{1}{|p{4zw}|}{隣接}&\multicolumn{1}{|p{5zw}|}{1付帯状態}&\multicolumn{1}{|p{4zw}|}{2継起}&\multicolumn{1}{|p{4zw}|}{3条件}&\multicolumn{1}{|p{4zw}|}{4原因}&\multicolumn{1}{|p{4zw}|}{5前提}\\\hline1.付帯状態&117&0&0&0&0&1\\\cline{3-3}2.継起&193&10&3&7&4&1\\\cline{4-4}3.条件&162&12&39&5&0&3\\\cline{5-5}4.原因&106&12&16&15&1&1\\\cline{6-6}5.前提&57&12&20&40&32&2\\\hline\end{tabular}\end{table*}これらの表から,接続の表現の頻度による場合と,連接関係の関係的意味を分析した場合について,精度を計算すると表\ref{table:acc5}に示すようになる.\begin{table*}\caption{5分類を用いた場合の連接構造の解析精度(単位:%)}\label{table:acc5}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|p{20zw}|}{連接関係の精度か文単位の精度かの区別}&\multicolumn{1}{|p{5zw}|}{接続の表現の頻度による解析結果}&\multicolumn{1}{|p{5zw}|}{連接関係の関係的意味による解析結果}\\\hline連接関係の精度(344文中の871の連接関係)&89.0&95.2\\主節のほかに連用従属節を2つ以上含む文での精度(344文)&78.8&98.5\\全体の文での精度(2010文)&96.4&98.2\\\hline\end{tabular}\end{table*}この表から,5分類を採用した場合は,正しく解析できなかった連接関係の比率が,接続の表現の頻度による場合は,16.5\%から11.0\%に,連接関係の関係的意味による場合は,11.8\%から4.8\%に改善されたことが分る.連接関係の関係的意味による場合は2倍以上改善される.\subsection{接続の表現を8分類した場合}一般的に連接関係で,連用修飾節にカンマ(または読点)のある場合とない場合で,従属節間の距離に違いが出る.カンマのない節の方がより「密着している」連接関係であり,カンマのある節の方がより「離れている」連接関係であるといえる.前節の5分類の解析結果を見ると,継起,条件,原因の意味分類で誤りが多く出ていることが分る.さらに個々のケースを分析すると,個々の意味分類の差より,カンマが付くか付かないかの差の方が大きいことが分る.このため,表\ref{table:distance8}に示すように意味分類と距離を定義する.\begin{table*}\caption{8分類の連接関係の意味分類}\label{table:distance8}\hspace*{40mm}\begin{tabular}{|l|c|}\hline\multicolumn{1}{|p{8zw}|}{意味分類}&\multicolumn{1}{|p{5zw}|}{距離}\\\hline付帯状態&1\\継起&2\\条件&3\\原因&4\\継起+カンマ&5\\条件+カンマ&6\\原因+カンマ&7\\前提&8\\\hline\end{tabular}\end{table*}表\ref{table:distance8}を用いて,接続の表現の頻度による場合と,連接関係の関係的意味による場合について,解析した結果を表\ref{table:freq8cm},表\ref{table:freq8cj},表\ref{table:freq8sm},表\ref{table:freq8sj}に示す.\begin{table*}\caption{用例における連接関係で係り側と受け側の頻度(8分類で接続の表現の頻度による)}\label{table:freq8cm}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{10zw}|}{}&\multicolumn{9}{|c|}{受け側}\\\cline{2-10}\multicolumn{1}{|c|}{係り側}&\multicolumn{1}{|p{2zw}|}{1付帯状態}&\multicolumn{1}{|p{2zw}|}{2継起}&\multicolumn{1}{|p{2zw}|}{3条件}&\multicolumn{1}{|p{2zw}|}{4原因}&\multicolumn{1}{|p{2zw}|}{5継起,}&\multicolumn{1}{|p{2zw}|}{6条件,}&\multicolumn{1}{|p{2zw}|}{7原因,}&\multicolumn{1}{|p{2zw}|}{8前提}&\multicolumn{1}{|p{2zw}|}{主節}\\\hline1.付帯状態&0&0&0&1&9&8&3&5&28\\\cline{2-2}2.継起&0&2&1&0&4&7&3&1&13\\\cline{3-3}3.条件&0&0&1&1&4&1&2&2&18\\\cline{4-4}4.原因&0&0&0&0&2&0&0&2&10\\\cline{5-5}5.継起+カンマ&3&0&0&2&45&18&27&21&149\\\cline{6-6}6.条件+カンマ&0&0&0&1&17&24&26&11&120\\\cline{7-7}7.原因+カンマ&0&0&0&0&3&0&6&9&104\\\cline{8-8}8.前提&0&0&1&0&1&1&2&20&132\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度(8分類で接続の表現の頻度による)}\label{table:freq8cj}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{10zw}|}{}&\multicolumn{9}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-10}\multicolumn{1}{|c|}{係り側}&\multicolumn{1}{|p{2zw}|}{隣接}&\multicolumn{1}{|p{2zw}|}{1付帯状態}&\multicolumn{1}{|p{2zw}|}{2継起}&\multicolumn{1}{|p{2zw}|}{3条件}&\multicolumn{1}{|p{2zw}|}{4原因}&\multicolumn{1}{|p{2zw}|}{5継起,}&\multicolumn{1}{|p{2zw}|}{6条件,}&\multicolumn{1}{|p{2zw}|}{7原因,}&\multicolumn{1}{|p{2zw}|}{8前提}\\\hline1.付帯状態&52&0&0&0&0&2&0&0&0\\\cline{3-3}2.継起&31&0&0&0&0&0&0&0&0\\\cline{4-4}3.条件&26&0&2&0&0&1&0&0&0\\\cline{5-5}4.原因&14&0&0&0&0&0&0&0&0\\\cline{6-6}5.継起+カンマ&215&9&5&5&5&11&10&3&2\\\cline{7-7}6.条件+カンマ&139&7&2&1&0&40&6&0&4\\\cline{8-8}7.原因+カンマ&83&6&1&3&1&12&13&1&2\\\cline{9-9}8.前提&58&5&3&4&2&23&32&27&3\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と受け側の頻度(8分類で連接関係の関係的意味による)}\label{table:freq8sm}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{10zw}|}{}&\multicolumn{9}{|c|}{受け側}\\\cline{2-10}\multicolumn{1}{|c|}{係り側}&\multicolumn{1}{|p{2zw}|}{1付帯状態}&\multicolumn{1}{|p{2zw}|}{2継起}&\multicolumn{1}{|p{2zw}|}{3条件}&\multicolumn{1}{|p{2zw}|}{4原因}&\multicolumn{1}{|p{2zw}|}{5継起,}&\multicolumn{1}{|p{2zw}|}{6条件,}&\multicolumn{1}{|p{2zw}|}{7原因,}&\multicolumn{1}{|p{2zw}|}{8前提}&\multicolumn{1}{|p{2zw}|}{主節}\\\hline1.付帯状態&4&1&2&2&10&9&15&13&62\\\cline{2-2}2.継起&0&1&0&0&3&6&2&1&12\\\cline{3-3}3.条件&0&0&1&1&2&2&2&4&18\\\cline{4-4}4.原因&0&0&0&0&1&0&0&3&10\\\cline{5-5}5.継起+カンマ&1&0&0&1&35&17&17&17&105\\\cline{6-6}6.条件+カンマ&0&0&0&1&5&24&28&19&114\\\cline{7-7}7.原因+カンマ&0&0&0&0&1&0&10&13&113\\\cline{8-8}8.前提&0&0&0&0&1&1&1&20&140\\\hline\end{tabular}\end{table*}\begin{table*}\caption{用例における連接関係で係り側と飛び越える節の頻度(8分類で連接関係の関係的意味による)}\label{table:freq8sj}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|p{10zw}|}{}&\multicolumn{9}{|c|}{飛び越える節の距離が最大の節}\\\cline{2-10}\multicolumn{1}{|c|}{係り側}&\multicolumn{1}{|p{2zw}|}{隣接}&\multicolumn{1}{|p{2zw}|}{1付帯状態}&\multicolumn{1}{|p{2zw}|}{2継起}&\multicolumn{1}{|p{2zw}|}{3条件}&\multicolumn{1}{|p{2zw}|}{4原因}&\multicolumn{1}{|p{2zw}|}{5継起,}&\multicolumn{1}{|p{2zw}|}{6条件,}&\multicolumn{1}{|p{2zw}|}{7原因,}&\multicolumn{1}{|p{2zw}|}{8前提}\\\hline1.付帯状態&117&0&0&0&0&0&0&0&1\\\cline{3-3}2.継起&25&0&0&0&0&0&0&0&0\\\cline{4-4}3.条件&27&1&2&0&0&0&0&0&0\\\cline{5-5}4.原因&14&0&0&0&0&0&0&0&0\\\cline{6-6}5.継起+カンマ&168&10&2&4&3&1&3&1&1\\\cline{7-7}6.条件+カンマ&135&11&2&3&0&35&2&0&3\\\cline{8-8}7.原因+カンマ&92&12&2&3&1&14&12&0&1\\\cline{9-9}8.前提&57&12&3&4&3&17&36&29&2\\\hline\end{tabular}\end{table*}これらの表から,接続の表現の頻度による場合と,連接関係の関係的意味を解析した場合について,精度を計算すると表\ref{table:acc8}に示すようになる.\begin{table*}\caption{8分類を用いた場合の連接構造の解析精度(単位:%)}\label{table:acc8}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|p{20zw}|}{連接関係の精度か文単位での精度かの区別}&\multicolumn{1}{|p{5zw}|}{接続の表現の頻度による解析結果}&\multicolumn{1}{|p{5zw}|}{連接関係の関係的意味による解析結果}\\\hline連接関係の精度(344文中の871の連接関係)&91.2&96.8\\主節のほかに連用従属節を2つ以上含む文での精度(344文)&82.3&93.3\\全体の文での精度(2010文)&97.0&98.9\\\hline\end{tabular}\end{table*}表\ref{table:acc8}から,意味解析を伴わない場合は5分類の11.0\%から8.8\%に,意味解析を行った場合は5分類の4.8\%から3.2\%に改善されることが分る.意味解析を伴った場合の改善効果が大きい.
\section{連接関係の意味による連接構造の解析モデル}
連接構造の解析モデルは図\ref{fig:mocohere}に示すように,まず,動詞と主体の属性を用いて連接関係の意味解析を行い,その結果に基づいて並列節の解析,連接構造の解析を行う.\begin{figure}\hspace*{30mm}\vspace*{-3mm}\atari(64,75)\vspace{-3mm}\caption{連接構造の解析モデル}\label{fig:mocohere}\end{figure}\subsection{動詞と主体の属性を用いた連接関係の意味解析}連接関係の意味解析を行うときに動詞と主体の属性を用いるが,これらは表\ref{table:feature}に示す素性として表される.これらの素性のうちで,動詞の意志性はIPAL辞書\cite{ipa1987}のものを用いた.意味分類は分類語彙表\cite{nlri1989}の分類を用いた.\begin{table*}\caption{動詞と主体の素性}\label{table:feature}\begin{tabular}{|p{7zw}|p{12zw}|p{18zw}|}\hline\multicolumn{1}{|c|}{素性}&\multicolumn{1}{|c|}{値}&\multicolumn{1}{|c|}{意味}\\\hlineVOLITION&+,-&意志性\\ANIMATE&+,-&生物/無生物\\SEM-CAT&{使用,製造,教育},...&意味分類\\VOICE&受動,能動,使役,可能&ヴォイス(受動/能動/使役/可能)\\ASPECT&{ている,てある},...&アスペクト\\MODE&平叙,疑問,命令,仮定,指示&モード(平叙/疑問/命令/仮定/指示)\\IDIOM-CAT&TE-SEQ,GA-PRE,...&慣用句の分類\\\hline\end{tabular}\end{table*}これらの属性を用いて動詞の格パターン,接続助詞の連接関係パターンをHPSGの素性構造に似た形式で表し,辞書に登録した.「疲れが出る」に対応する動詞「出る」の格パターンと後置詞句「疲れが」,名詞句「疲れ」の記載例を図\ref{fig:casepatt}に示す.接続助詞「て」が「原因」を表す場合と,「付帯状態」を表す場合の連接関係パターンの記載例を図\ref{fig:cohepatt}に示す.\begin{figure*}(a)動詞の記載例{\footnotesize\[\left\langle出る,\left[\begin{array}{ll}\verb|SYN|&\left[\begin{array}{ll}\verb|HEAD|&\left[\begin{array}{ll}\verb|POS|&\verb|動詞|\\\verb|VFORM|&\verb|終止形|\end{array}\right]\\\verb|ARG-ST|&\left\langle\verb|PP[が,ANIMATE-,疲労・睡眠など]|_i\right\rangle\end{array}\right]\\\verb/SEM/&\left[\verb|RESTR|\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|出る|\\\verb|SIT|&\verb|s|\\\verb|出るもの|&\verb|i|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CLASS|&\verb|出現|\\\end{array}\right]\right\rangle\right]\end{array}\right]\right\rangle\]}注)\verb|VP[終止形,VOLITION-,ANIMATE-,出現]|$_s$と略記する.(b)後置詞句:\verb|PP[が,ANIMATE-,疲労・睡眠など]|の内容{\footnotesize\[\left\langle疲れが,\left[\begin{array}{ll}\verb/SYN/&\left[\begin{array}{ll}\verb|HEAD|&\left[\begin{array}{ll}\verb|POS|&\verb|後置詞句|\\\verb|CASE|&\verb|が|\\\verb|MOD|&\verb|VP|\left[\begin{array}{ll}\verb|SIT|&\verb|s|\end{array}\right]\end{array}\right]\\\verb|ARG-ST|&\verb|<>|\end{array}\right]\\\verb|SEM|&\left[\begin{array}{ll}\verb|INDEX|&\verb|i|\\\verb|RESTR|&\verb|NP[ANIMATE-,疲労・睡眠など]|\end{array}\right]\end{array}\right]\right\rangle\]}(c)名詞:NP[ANIMATE-,疲労・睡眠など]の内容{\footnotesize\[\left\langle疲れ,\left[\begin{array}{ll}\verb/SYN/&\left[\begin{array}{ll}\verb/HEAD/&\verb|POS名詞|\\\verb|ARG-ST|&\verb|<>|\end{array}\right]\\\verb/SEM/&\left[\begin{array}{ll}\verb|MODE|&\verb|指示|\\\verb|INDEX|&\verb|i|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|疲れ|\\\verb|SIT|&\verb|s|\\\verb|INST|&\verb|i|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CLASS|&\verb|疲労・睡眠など|\end{array}\right]\right\rangle\end{array}\right]\end{array}\right]\right\rangle\]}\caption{辞書における動詞の格パターンの記載例}\label{fig:casepatt}\end{figure*}\begin{figure*}(a)接続助詞「て」による連接関係で「原因」を表す場合{\footnotesize\[\left\langleて,\left[\begin{array}{ll}\verb|SYN|&\left[\begin{array}{ll}\verb|HEAD|&\left[\begin{array}{ll}\verb|POS|&\verb|接続助詞|\\\verb|DISTANCE|&\verb|7|\\\verb|MOD|&\verb|VP[VOLITION-,ANIMATE+]|_t\\\end{array}\right]\\\verb|ARG-ST|&\left\langle\verb|VP[連用形,VOLITION-,ANIMATE-]|_s\right\rangle\end{array}\right]\\\verb/SEM/&\left[\begin{array}{ll}\verb|MODE|&\verb|none|\\\verb|INDEX|&\verb|s|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|原因|\\\verb|SIT|&\verb|s|\\\verb|ARG|&\verb|t|\end{array}\right]\right\rangle\end{array}\right]\end{array}\right]\right\rangle\]}\verb|注)CONJ[原因,DISTANCE7,MOD[VOLITION-,ANIMATE+],ARG-ST[VOLITION-,ANIMATE-]]と略記する.|(b)接続助詞「て」による連接関係で「付帯状態」を表す場合{\footnotesize\[\left\langleて,\left[\begin{array}{ll}\verb|SYN|&\left[\begin{array}{ll}\verb|HEAD|&\left[\begin{array}{ll}\verb|POS|&\verb|接続助詞|\\\verb|DISTANCE|&\verb|1|\\\verb|MOD|&\verb|VP[ANIMATE+]|_t\end{array}\right]\\\verb|ARG-ST|&\left\langle\verb|VP[連用形,ANIMATE-,包摂・姿勢変化など]|_s\right\rangle\end{array}\right]\\\verb/SEM/&\left[\begin{array}{ll}\verb|MODE|&\verb|none|\\\verb|INDEX|&\verb|s|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|付帯状態|\\\verb|SIT|&\verb|s|\\\verb|ARG|&\verb|t|\end{array}\right]\right\rangle\end{array}\right]\end{array}\right]\right\rangle\]}\verb|注)CONJ[付帯状態,DISTANCE1,MOD[ANIMATE+],ARG-ST[包摂・姿勢変化など,ANIMATE-]]と略記する.|\caption{辞書における連接関係パターンの記載例}\label{fig:cohepatt}\end{figure*}「原因」を表す連接関係は,従属節と主節が共に無意志動詞で,従属節が無生物主体,主節が生物主体を表す場合に対応する.「付帯状態」を表す連接関係は,従属節の動詞が「包摂,姿勢変化,着脱,携帯,心的変化など」の意味分類である場合に対応する.連接関係パターンは,表\ref{table:feature}の素性を用いて意味解析するもので,76の連接関係パターン\cite{mukainaka1997}を用意した.図\ref{fig:casepatt},図\ref{fig:cohepatt}ではHPSGの形式で記載しているが,実際の辞書ではprologの形式に変換して格納している.これら辞書の情報を用いて,連接関係の意味解析を行い,連接構造の解析を行って,複文の連接構造を生成する.解析は,簡単なHPSGパーザをprologで作成して行った.このパーザは,主として格パターンの解析と連接関係パターンの解析の機能だけを持ったもので,この目的のために作成した.本論文のモデルは連用修飾節の解析を対象としたもので,一部の連体修飾節は入力文から省いてある.連用修飾節「疲れが出て」に格パターンと連接関係パターンを適用して解析した例を図\ref{fig:adv-cls}に示す.\begin{figure}\hspace*{7mm}\vspace*{-3mm}\atari(100,110)\vspace{-3mm}\caption{格パターンと連接関係パターンを用いた連用修飾節の解析}\label{fig:adv-cls}\end{figure}「疲れが出る」の主体が無生物,動詞が無意志動詞であるところから,「原因」を表す接続助詞「て」の連接関係パターンが適用されて,「原因」を表す連用修飾節として解析される.この連用修飾節は,係り先に,生物主体,無意志動詞を要求する.\subsection{連接構造の解析}連用修飾節の係り受け解析は,\ref{ch:meanings}章で述べたように,係り側の連用修飾節が要求する受け側の節の属性と,連接関係の関係的意味によって決まってくる連用修飾節の距離によって行う.係り側の連用修飾節の距離が,受け側の連用修飾節の距離に等しいか小さいとき,すなわち,より密着しているときは,隣接する連用修飾節に係る.係り側の連用修飾節の距離が,大きいとき,すなわち,より離れているときは,飛び越えて先に係る.この関係を,HPSGパーザに図\ref{fig:modable}に示すようなHead-Modifierルールの制約として実装した.\begin{figure*}\[\left[\verb|phrase|\right]\to{\footnotesize\left[\begin{array}{l}\verb|phrase|\\\verb|MOD|\fbox{1}\\\verb|DISTANCE|\fbox{2}\end{array}\right]}\verb|H|\fbox{1}{\footnotesize\left[\begin{array}{l}\verb|phrase|\\\verb|DISTANCE|\fbox{3}\end{array}\right]}\verb|{modifiable[|\fbox{2},\fbox{3}\verb|]}|\]\verb|制約の定義|\verb|modifiable(1,1)|\verb|modifiable(1,2)|\verb|・|\verb|・|\verb|・|\verb|modifiable(8,9)|\caption{Head-Modifierルールに対する連接関係の距離による連接可能性の制約}\label{fig:modable}\end{figure*}〔例文6〕にこのルールを適用して,連接構造の解析を行った結果を図\ref{fig:coh-str}に示す.\begin{description}\item[〔例文6〕]昼間の疲れが出て,杏子が母親の背中に負ぶさって,眠っていた.\end{description}\begin{figure}\hspace*{20mm}\vspace*{-3mm}\atari(100,97)\vspace{-3mm}\caption{連接構造の解析}\label{fig:coh-str}\end{figure}連用修飾節「杏子が母親の背中に負ぶさって」は,動詞「負ぶさる」の意味分類が「包摂」を表すので,連接関係の関係的意味が「付帯状態」を表し,距離は1である.連用修飾節「昼間の疲れが出て」は,前述のように「原因」を表し,距離は7である.従って,「昼間の疲れが出て」は,「杏子が母親の背中に負ぶさって」を飛び越えて,主節の「眠っていた」に係る.連用修飾節の要求する主節の属性も,無意志動詞,生物主体であり一致する.主節の距離はもっとも大きく設定されているので,「杏子が母親の背中に負ぶさって」は,問題なく主節に係る.生成された意味構造を図\ref{fig:sem-str}に示す.意味構造は「SyntacticTheory」\cite{sag1999}によった.図はフラットな素性構造のリストで表されているが,INST(ANCE),SIT(UATION),ARG(UMENT)の変数により相互の関連を記述し,意味構造を表している.「原因」の連用修飾節(SITs)も,「付帯状態」の連用修飾節(SITu)も,「ARGt」と指定されており,共に主節(SITt)に係っていることが分る.\begin{figure*}{\footnotesize\[\left[\begin{array}{ll}\verb|MODE|&\verb|平叙文|\\\verb|INDEX|&\verb|s|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|眠る|\\\verb|SIT|&\verb|t|\\\verb|眠る人|&\verb|k|\\\verb|ASPECT|&\verb|ている|\\\verb|TENSE|&\verb|過去|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|包摂・姿勢変化など|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|付帯状態|\\\verb|SIT|&\verb|u|\\\verb|ARG|&\verb|t|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|負ぶさる|\\\verb|SIT|&\verb|u|\\\verb|負ぶさる人|&\verb|k|\\\verb|負ぶさる物|&\verb|m|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|包摂・姿勢変化など|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|背中|\\\verb|INST|&\verb|m|\\\verb|ANIMATE|&\verb|+|\\\verb|SEM-CAT|&\verb|胸・腹・背|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|所有|\\\verb|所有者|&\verb|l|\\\verb|所有物|&\verb|m|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|母親|\\\verb|INST|&\verb|l|\\\verb|ANIMATE|&\verb|+|\\\verb|SEM-CAT|&\verb|親・先祖|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|名前|\\\verb|NAME|&\verb|杏子|\\\verb|NAMED|&\verb|k|\\\verb|ANIMATE|&\verb|+|\\\verb|SEM-CAT|&\verb|人間|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|原因|\\\verb|SIT|&\verb|s|\\\verb|ARG|&\verb|t|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|出る|\\\verb|SIT|&\verb|s|\\\verb|出る物|&\verb|j|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|出現|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|疲れ|\\\verb|INST|&\verb|j|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CAT|&\verb|疲労・睡眠など|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|所有|\\\verb|所有者|&\verb|i|\\\verb|所有物|&\verb|j|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|昼間|\\\verb|INST|&\verb|i|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CAT|&\verb|朝晩|\\\end{array}\right]\right\rangle\\\end{array}\right]\]}\caption{「昼間の疲れが出て,杏子が母親の背中に負ぶさって,眠っていた.」から生成された意味構造}\label{fig:sem-str}\end{figure*}\subsection{並列節の解析}並列節に対しては,一般の連用修飾節の係り受けとは別のルールが適用される.すなわち,並列の連接関係パターンに対しては,図\ref{fig:coord}のCoordinationルールが適用される.係り側と受け側の節の動詞の意味分類,または各後置詞句を構成する名詞の意味分類のいずれかが一致するかどうかチェックされ,一致するときに並列節と解析される.Coordinationルールには,距離の制約条件がないので,並列の連接関係パターンは全ての節に適用可能である.並列節にさらに並列節が係ることも可能である.\begin{figure*}\[\left[\verb|phrase|\right]\to{\footnotesize\left[\begin{array}{ll}\verb|phrase|&\\\verb|ARG-ST|&\fbox{1}\\\verb|MOD|&\fbox{2}\\\verb|RESTR|&\left[\begin{array}{ll}\verb|RELN|&\verb|並列|\\\verb|ARG|&\verb|<|\fbox{1},\fbox{2}\verb|>|\\\end{array}\right]\end{array}\right]}\verb|H|\fbox{2}\left[\begin{array}{ll}\verb|phrase|&\\\end{array}\right]\verb|{coordinate[|\fbox{1},\fbox{2}\verb|]}|\]\verb|coordinate[|\fbox{1},\fbox{2}\verb|]:|\fbox{1},\fbox{2}を構成する各節の対応する\verb|SEM-CAT|に同じものがあるとき成立.\caption{Coordinationルール}\label{fig:coord}\end{figure*}〔例文7〕のように,条件節が係った並列節を解析する場合の例を図\ref{fig:co-ana}に示す.\begin{description}\item[〔例文7〕]必要になったときにマウントして,不要になったときにアンマウントするので,・・・・・\end{description}\begin{figure}\hspace*{5mm}\vspace*{-3mm}\atari(130,69)\vspace{-3mm}\caption{並列節の解析}\label{fig:co-ana}\end{figure}条件節と並列節の係り受けに対しては,通常のHead-Modifierルールを適用する.この場合,並列節の距離は8に設定されているので,全ての節が係り得る.係り側が並列節のときは,Coordinationルールが適用され,条件節同士の意味分類が一致しているか,並列節と受け側の原因節の意味分類が一致しているかがチェックされる.条件節の動詞の意味分類が一致しており,並列節と原因節の動詞の意味分類が一致しているので,ルールが成立し,係り受けが成立する.この場合,原因節の距離が7,並列節の距離が8であり,HeadModifierルールでは係り受けが成立しないが,Coordinationルールでは,制約条件をチェックしないので,係り受けが成立する.\newpage生成された意味構造を図\ref{fig:co-sem}に示す.並列を構成する各々の節(SITtおよびSITu)が,\verb|ARG<t,u>|により並列を構成していることが分る.\begin{figure*}{\footnotesize\[\left[\begin{array}{ll}\verb|MODE|&\verb|平叙文|\\\verb|INDEX|&\verb|u|\\\verb|RESTR|&\left\langle\left[\begin{array}{ll}\verb|RELN|&\verb|原因|\\\verb|SIT|&\verb|u|\\\verb|ARG|&\verb|w|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|アンマウントする|\\\verb|SIT|&\verb|u|\\\verb|VOLITION|&\verb|+|\\\verb|SEM-CAT|&\verb|マウント・アンマウントなど|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|時|\\\verb|SIT|&\verb|v|\\\verb|ARG|&\verb|u|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|なる|\\\verb|SIT|&\verb|v|\\\verb|目標物|&\verb|j|\\\verb|TENSE|&\verb|過去|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|成立・発生|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|不要|\\\verb|INST|&\verb|j|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CAT|&\verb|必然性|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|並列|\\\verb|ARG|&\verb|<t,u>|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|マウントする|\\\verb|SIT|&\verb|t|\\\verb|VOLITION|&\verb|+|\\\verb|SEM-CAT|&\verb|マウント・アンマウントなど|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|時|\\\verb|SIT|&\verb|s|\\\verb|ARG|&\verb|t|\\\end{array}\right],\left[\begin{array}{ll}\verb|RELN|&\verb|なる|\\\verb|SIT|&\verb|s|\\\verb|目標物|&\verb|i|\\\verb|TENSE|&\verb|過去|\\\verb|VOLITION|&\verb|-|\\\verb|SEM-CAT|&\verb|成立・発生|\\\end{array}\right],\right.\\&\left.\left[\begin{array}{ll}\verb|RELN|&\verb|必要|\\\verb|INST|&\verb|i|\\\verb|ANIMATE|&\verb|-|\\\verb|SEM-CAT|&\verb|必然性|\\\end{array}\right],\right\rangle\\\end{array}\right]\]}\caption{「必要になったときにマウントして,不要になったときにアンマウントするので,・・・・・」から\\生成された意味構造}\label{fig:co-sem}\end{figure*}
\section{連接構造解析モデルの評価結果}
\ref{ch:meanings}章では,人手で解析を行ったが,同一の例文を,作成した連接構造解析モデルを用いて解析した.例文は,主節の外に連用従属節を2つ以上含む344文を用いた.モデルから生成された解析結果の意味構造を分析した結果,\ref{ch:meanings}章で解析した結果より多少悪い90.7\%の精度を得ることができた.これを,全体の2,010文に換算すると,98.4\%に相当する.間違った文を分析すると,並列の解析誤りが11\%,連接関係の関係的意味の解析誤りが17\%,その他72\%がルール1,2では正しく解析できない文であった.接続の表現の頻度によるモデルも作成して解析した.解析結果は,\ref{ch:meanings}章で解析した結果とほぼ同等の82.3\%の精度を得ることができた.これを,全体の2,010文に換算すると97.0\%に相当する.
\section{むすび}
本論文では連用修飾節の係り受けを解析し,連接構造を求めるために,連接関係の関係的意味を用いるモデルを作成し,実験した結果を述べた,接続の表現の曖昧性を解消して,連接関係の関係的意味を確立するために,動詞と主体の属性を用いて,連接関係をパターン化した.動詞の属性として,動詞の意志性,意味分類,慣用表現,ムード・アスペクト・ヴォイス,主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを採用した.本モデルを,実際の技術文書に適用して評価した結果,98.4\%の正しい解析結果を得ることができた.関係的意味を用いないで,接続の表現の分類だけによった場合は97.0\%の精度であったから本モデルの方法により誤り率が約半分に改善された.\bibliographystyle{jnlpbbl}\bibliography{coherence}\begin{biography}\biotitle{略歴}\bioauthor{向仲景\,\,\\llap{頁}}{1953九州大学工学部電気工学科卒業.同年,日本電気(株)入社.基本ソフトウェア開発に従事.平成5年より金沢経済大学教授.平成9年より江戸川大学教授,現在に至る.自然言語理解,エキスパートシステムの研究に従事.情報処理学会,言語処理学会,人工知能学会,ACL,ACM,IEEE各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V03N03-02
|
\section{はじめに}
\label{sec:introduction}比喩は自然言語に遍在する.たとえば,李\cite{Yi82}によると,小説と新聞の社説とにおいて比喩表現の出現率に大差はない.また,比喩を表現する者(話し手)は,比喩により言いたいことを端的に表現する.したがって,自然言語処理の対象を科学技術文から評論や小説に拡大するためには,比喩の処理が必要である.比喩表現は,喩える言葉(喩詞)と喩えられる言葉(被喩詞)とからなる.話し手は,それを伝達か強意かに用いる\cite{Nakamura77a}.伝達のために比喩を用いるときは,伝達したい事柄が相手(聞き手)にとって未知であると話し手が判断したときである.たとえば,「湖」は知っているが「海」は知らない聞き手にたいして,「海というのは大きい湖のようなものだ」と言う場合である.強意のために比喩を用いるときは,伝達したい事柄の一つの側面を強調したいときである.たとえば,「雪のような肌」により「肌」の白さを強調する場合である.山梨\cite{Yamanashi88}は,(1)認定(2)再構成(3)再解釈の3段階により比喩が理解されると述べている.認定とは,ある言語表現が文字通りの意味ではない(比喩的意味である)ことに聞き手が気づくことをいう.再構成とは,喩詞と被喩詞と文脈とから比喩表現の意味を構成することである.再解釈とは,比喩表現の意味を被喩詞に対する新たな視点として認識し,被喩詞に対する考え方を聞き手が改めることである.本稿では,強意の比喩に対しての,聞き手の再解釈を考察の対象とする.ただし,再解釈を\begin{quote}\begin{description}\item[(3a)]被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を聞き手が認識する,\item[(3b)]その$\dot{\mbox{ず}}\dot{\mbox{れ}}$が聞き手の考え方に反映する\end{description}\end{quote}という2段階に分け,(3a)を対象にする.なお,対象とする比喩が強意の比喩であるので,聞き手にとって,喩詞の意味と被喩詞の意味とは既知である.本稿では,「AのようなB」という形の比喩表現を考察の対象とする.また,比喩表現が使われる文脈については考慮しない.第\ref{sec:formulation}章において,名詞の意味を確率により表現する.そして,比喩表現を捉える指標として明瞭性と新奇性とを定義する.これらは情報量に基づく指標である.明瞭性は比喩表現における属性の不確定さを示す指標であり,新奇性は比喩表現の示す事象の希少さに関する指標である.第\ref{sec:sd}章では,これら評価関数の妥当性を実験により示す.3種類の値,\begin{quote}\begin{description}\item[(1)]喩詞・被喩詞・比喩表現の属性集合(SD法による\cite{Osgood57})\item[(2)]喩詞・被喩詞・比喩表現における,属性の顕著性\item[(3)]比喩表現の理解容易性\end{description}\end{quote}を測定する.(1)から明瞭性と新奇性とを計算し,それらが属性の顕著性と比喩表現の理解容易性とを捉える指標として適当であることを示す.第\ref{sec:summary}章は結びである.
\section{情報量を用いた比喩の定式化}
\label{sec:formulation}名\hspace{0.2mm}詞の意\hspace{0.2mm}味\hspace{0.1mm}を\hspace{0.1mm}確\hspace{0.2mm}率を利\hspace{0.2mm}用して表\hspace{0.2mm}現する.比\hspace{0.1mm}喩\hspace{0.1mm}表\hspace{0.1mm}現\hspace{0.1mm}の意\hspace{0.2mm}味は,喩\hspace{0.2mm}詞の意\hspace{0.2mm}味に影\hspace{0.2mm}響された被\hspace{0.2mm}喩\\詞の意味である.被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$は,情報量を用いた評価関数である,明瞭性と新奇性とにより表現する\cite{Utiyama95a,Utiyama95b}.まず,名詞の意味を定義する.次に,喩詞と被喩詞とから比喩表現を構成する方法を述べ,最後に,明瞭性と新奇性とを定義する.\subsection{名詞の意味}\label{sec:meaning}名詞の意味を図\ref{fig:meaning}のようなベイジアンネットワーク\cite{Pearl88}で定義する.ベイジアンネットワークは有向非循環グラフであり,それぞれのノードは確率変数に対応する.ある確率変数が特定の値を取る確率は,アークで連結しているノードとの局所的な関係により決まる.親ノードのないノードをルートノードと言い,これらは互いに確率的に独立である.ルートノードには事前確率が与えられる.また,子ノードのないノードをリーフノードという.以下ではノードと確率変数とを区別しない.図\ref{fig:meaning}におけるリーフノードを属性と呼び,属性の親ノードを因子と呼ぶ.因子は,名詞においてはルートノードであるが,\ref{sec:re-composition}節で述べる比喩表現においてはルートノードではない.属性の値を属性値と呼び,因子の値を極と呼ぶ.属性は,「身体の大きさ」とか「力の強さ」とかである.属性値は,名詞の指示物が明らかなときには,その指示物を観測することで決定する(ある属性値の確率を1にして,他の属性値の確率を0にする)ことができると仮定する.属性は確率的に独立とは限らない.因子は,理論上の仮定である.異なる因子は互いに確率的に独立である.本稿では,名詞の指示物が与えられていない場合を考察するため,属性が特定の属性値を取る確率は,その親ノードである因子の極により決まる.ある名詞の意味を$N$\hspace{-0.1mm}とし,\hspace{-0.2mm}その属性$F_{i}$が属性値$A_{ij}$からなるとする.また,$F_i$の親ノードである因子の集合を${\bfC}^i$とし,${\bfC}^i$の任意の値割当を${{\bfc}^i}=(c_1^i,c_2^i,...,c_k^i,...,c_n^i)$とする.$c_k^i$は,因子${\calC}_k^i(\in{\bfC}^i)$の任意の極である.このとき,ベイジアンネットワークの条件付き独立性\footnote{ノード\hspace{-0.1mm}$X$\hspace{-0.1mm}の値を\hspace{-0.1mm}$x$\hspace{-0.1mm},\hspace{-0.1mm}$X$\hspace{-0.1mm}の親ノードの集合\hspace{-0.1mm}$\bfY$\hspace{-0.1mm}の値割当を\hspace{-0.1mm}$\bfy$,\hspace{-0.1mm}それ以外のノード$Z$の値を\hspace{-0.1mm}$z$\hspace{-0.1mm}とすると,$p(X\hspace{-0.1mm}=x|{\bfY\hspace{-0.1mm}=y},Z\hspace{-0.1mm}=z)=p(X=x|{\bfY=y})$となる.また,ノード$X$と親ノードの集合を同じくするノード$W$の値$w$について,$p(X=x,W=w|{\bfY=y})=p(X=x|{\bfY=y})p(W=w|{\bfY=y})$である.}から,\begin{equation}\label{eq:NFA}p(N.F_i.A_{ij})=\sum_{N.{\bfc}^i}p(N.F_i.A_{ij}|{N.{\bfc}^i})p(N.{\bfc}^i)=\sum_{N.{\bfc}^i}p(N.F_i.A_{ij}|N.{\bfc}^i)\prod_kp(N.c_k^i).\end{equation}第\ref{sec:sd}章では,SD法の結果から,属性値の確率$p(N.F_i.A_{ij})$を計算する.本稿では,極の確率$p\hspace{0.3mm}(\hspace{0.1mm}N.c_k^i\hspace{0.1mm})$\hspace{0.1mm}の設定法と極を条件とする属性値の条件付き確率\hspace{0.2mm}$p\hspace{0.3mm}(\hspace{0.1mm}N.F_i.A_{ij}\hspace{0.2mm}|\hspace{0.2mm}N.{\bfc}^i\hspace{0.2mm})$の設定法,\hspace{0.2mm}及び,\hspace{0.2mm}名詞の意味を表わすベイジアンネットワークの構築法については考察の範囲外である.なお,\begin{displaymath}p(N.F_i.A_{ij})\geq0,\mbox{\hspace{1em}}\sum_{j}p(N.F_i.A_{ij})=1.\end{displaymath}また,属性$F_i$のエントロピー$S(N.F_i)$は次式である.\begin{equation}\label{eq:entropy}S(N.F_i)=-\sum_{j}p(N.F_i.A_{ij})\lgp(N.F_i.A_{ij}).\end{equation}ただし,$\lg$は2を底とする対数.$S(N.F_i)$は,$F_i$の取りうる値に対する不確定性を示す.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=meaning.ps,hscale=0.714,vscale=0.714}\end{center}\caption{名詞の意味}\label{fig:meaning}\end{figure}\subsection{比喩の再構成}\label{sec:re-composition}比喩表現の意味は,喩詞の意味に影響された被喩詞の意味であると我々は考える.前節では,名詞の意味をベイジアンネットワークで表現した.したがって,喩詞の意味と被喩詞の意味とから比喩表現の意味を再構成する問題は,被喩詞のベイジアンネットワークを喩詞のベイジアンネットワークの影響のもとで変化させることと同じである.簡単のため,喩詞と被喩詞とで互いのベイジアンネットワークの構造(ネットワークの形と親ノードと子ノードの間の条件付き確率)が同じであるとする.このとき,比喩表現のベイジアンネットワークは(1)喩詞の因子から対応する被喩詞の因子にアークを張る(図\ref{fig:metaphor}),(2)アークを張る前の喩詞と被喩詞の因子状態\footnote{ある時点でのノードの状態とは,そのノードに対応する確率変数が取り得る値全てに対して,その値と確率の組とを記述することにより表される.}から,アークを張った後の被喩詞の因子状態を決める(これが比喩表現の因子状態となる),(3)アークを張った結果として構成されたベイジアンネットワークの一部分である被喩詞のベイジアンネットワークを,比喩表現のベイジアンネットワークと看做す,という3段階の手順で作られる.ベイジアンネットワークの構造と因子の状態が決まれば,属性値の確率は(\ref{eq:NFA})式から求まる.以下では,被喩詞の意味とは,喩詞との因子間にアークが張られる前の意味を指し,比喩表現の意味とは,その後の被喩詞の意味であるとする.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=metaphor.ps,scale=0.714}\end{center}\caption{比喩表現の構成}\label{fig:metaphor}\end{figure}喩詞・被喩詞・比喩表現の意味を$V$・$T$・$M$とし,それらの属性$F_i$が属性値$A_{ij}$からなるとする.また,$F_i$の親ノードである因子の集合を${\bfC}^i$とし,${\bfC}^i$の任意の値割当を${{\bfc}^i}=(c_1^i,c_2^i,...,c_k^i,...,c_n^i)$とする.$c_k^i$は,因子${\calC}_k^i(\in{\bfC}^i)$の任意の極である.このとき,比喩表現の属性値は,(\ref{eq:NFA})式と同様に,\begin{equation}\label{eq:MFA}p(M.F_i.A_{ij})=\sum_{M.{\bfc}^i}p(M.F_i.A_{ij}|{M.{\bfc}^i})p(M.{\bfc}^i)=\sum_{M.{\bfc}^i}p(M.F_i.A_{ij}|M.{\bfc}^i)\prod_kp(M.c_k^i)\end{equation}である.このとき,被喩詞と比喩表現とでベイジアンネットワークの構造は変らないので,$p(M.F_i.A_{ij}|M.{\bfc}^i)=p(T.F_i.A_{ij}|T.{\bfc}^i)$となる.一方,比喩表現の因子状態は,喩詞への従属関係ができたため,被喩詞の因子状態とは異なる.因子${\calC}_k^i$の極を${\calP}^i_{kl}$と表わすと,\begin{equation}\label{eq:M}p(M.{\calC}^i_k.{\calP}^i_{kl})=\sum_{m}p(M.{\calC}^i_k.{\calP}^i_{kl}|V.{\calC}^i_k.{\calP}^i_{km})p(V.{\calC}^i_k.{\calP}^i_{km}).\end{equation}喩詞の因子と比喩表現の因子との間には(\ref{eq:M})式のような従属関係があるが,一旦,比喩表現の因子状態が決まったあとでは,そのような従属関係を考えずに,(\ref{eq:MFA})式により比喩表現の属性値の確率を決めてよい.このことは,ベイジアンネットワークの条件付き独立性から言える.したがって,比喩表現の因子状態$p(M.{\calC}^i_k.{\calP}^i_{kl})$が決まれば,喩詞の因子を条件とする比喩表現の因子の条件付き確率$p(M.{\calC}^i_k.{\calP}^i_{kl}|V.{\calC}^i_k.{\calP}^i_{km})$を求める必要はない.喩詞と被喩詞と比喩表現とで構造が同じベイジアンネットワークが作れることと,喩詞と被喩詞の対応する因子状態から比喩表現の因子状態を決定できることとは第\ref{sec:sd}章で確かめる.\subsection{比喩の再解釈}\label{sec:re-interpretation}比喩の再解釈において,被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を聞き手が認識するために\\は,それらの意味を比較する必要がある.以下に述べる明瞭性と新奇性とは,そのための指標である.これらの指標は,比喩表現の属性と比喩表現自体とについて定義される.比喩表現の明瞭性と新奇性とは,それぞれ,属性の明瞭性の和と新奇性の和とで近似できる.\subsubsection{比喩表現の属性の明瞭性と新奇性}\paragraph{属性の明瞭性}被喩詞・比喩表現の意味$T$・$M$について,属性$F_i$の明瞭性$C(M.F_i)$は次式である.\begin{equation}\label{eq:clarity}C(M.F_i)=S(T.F_i)-S(M.F_i).\end{equation}被喩詞の属性\hspace{-0.1mm}$F_i$\hspace{-0.1mm}の確率分布は,\hspace{-0.2mm}被喩詞の因子が喩詞の因子に従属することにより変動し,比喩表現の確率分布となる.その結果として,比喩表現の不確定性が大きくなれば,$S(M.F_i)$の値は大きくなり,不確定性が小さくなれば,$S(M.F_i)$の値は小さくなる.$C(M.F_i)$は,被喩詞の意味と比喩表現の意味とを比べたときの,属性$F_i$に関する不確定性の減少量であり,その減少は喩詞の意味に起因する.ところで,喩詞と被喩詞の属性間の関係の指標として相互情報量を使うことが考えられる.相互情報量は属性間で対称的な量である.しかし,比喩表現は非対称的である.つまり,喩詞と被喩詞とを交換すると比喩表現の意味は変化する.したがって,相互情報量は比喩表現の意味の指標として適さない.明瞭性は喩詞と被喩詞とに関して非対称的な量であることから,比喩表現の意味の指標として,より適している\cite{Utiyama95a}.\paragraph{属性の新奇性}被喩詞の意味$T$\hspace{-0.1mm}について,\hspace{-0.2mm}属性$F_i$\hspace{-0.1mm}の属性値$A_{ij}$\hspace{-0.1mm}の確率が$p(T.F_i.A_{ij})$のとき,比喩表現の意味$M$の属性$F_i$の新奇性$N(M.F_i)$は次式である.\begin{equation}\label{eq:novelty}N(M.F_i)=-\sum_{j}p(M.F_i.A_{ij})\lgp(T.F_i.A_{ij})-S(T.F_i).\end{equation}$T$において,$F_i$の値として$A_{ij}$が選ばれたときの情報量は$-\lgp(T.F_i.A_{ij})$である.したがって,$S(T.F_i)$は,獲得が期待される情報量の平均値である((\ref{eq:entropy})式参照).一方,$p(M.F_i.A_{ij})$は,被\hspace{0.1mm}喩\hspace{0.1mm}詞\hspace{0.1mm}の因\hspace{0.1mm}子が喩\hspace{0.1mm}詞の因\hspace{0.1mm}子に従\hspace{0.1mm}属することにより変\hspace{0.1mm}動した,被\hspace{0.1mm}喩\hspace{0.1mm}詞の属\hspace{0.1mm}性\hspace{0.1mm}値の確\hspace{0.1mm}率である.また,それぞれの属性値の情報量は$-\lgp(T.F_i.A_{ij})$であるから,$-\sum_{j}p(M.F_i.A_{ij})\lgp(T.F_i.A_{ij})$は,喩えることにより獲得された被喩詞の属性値の情報量の平均値と考えられる.したがって,獲得された平均情報量と獲得を期待された平均情報量(エントロピー)との差が新奇性である.新奇性が大きい値となるときは,被喩詞の意味において割り当てられた確率が小さい属性値が,比喩表現の意味においては大きい確率となるときである.つまり,稀な事柄を表わす比喩表現の属性ほど新奇性が大きい.\subsubsection{比喩表現の明瞭性と新奇性}全ての属性が確率的に独立な(因子を仮定する必要がない)ときには,比喩表現の明瞭性と新奇性とは,それぞれ,属性の明瞭性の和と新奇性の和として表わされる.たとえば,被喩詞$T$\hspace{-0.1mm}が属性$F_1$\hspace{-0.1mm}と\hspace{-0.1mm}$F_2$\hspace{-0.1mm}とからなり,\hspace{-0.1mm}$F_1\hspace{-0.1mm}=\hspace{-0.1mm}\{A_{11},A_{12},...,A_{1i},...,A_{1n}\}$,$F_2=\{A_{21},A_{22},...,A_{2j},...,A_{2m}\}$であるとする.このとき,$T$が一つの属性$F$からなり,$F=\{A_{1},A_{2},...,A_{k},...,A_{nm}\}$であると考えることができる.\hspace{-0.1mm}ただし,$A_{k}$は$A_{1i}$と\hspace{-0.1mm}$A_{2j}$とが同時に成立しているような属性値である.また,比喩表現$M$についても対応する属性がある.このとき,新奇性を示す(\ref{eq:novelty})式の第1項は,属性同士の確率的独立性より,\begin{eqnarray}\lefteqn{-\sum_{k}^{nm}p(M.F.A_{k})\lgp(T.F.A_{k})}\nonumber\\&=&-\sum_{i}^{n}p(M.F_1.A_{1i})\lgp(T.F_1.A_{1i})-\sum_{j}^{m}p(M.F_2.A_{2j})\lgp(T.F_2.A_{2j})\nonumber\end{eqnarray}のようになる.属性数が三つ以上になっても加法性は成立する.また,エントロピーも加法的である.したがって,全ての属性が互いに確率的に独立なときには,比喩表現の明瞭性と新奇性とは,それぞれ,属性の明瞭性の和と新奇性の和とで表現できる.実際には,属性同士は互いに確率的に独立ではないので,属性の明瞭性の和と新奇性の和とは,それぞれ,比喩表現の明瞭性と新奇性の近似値となる.
\section{SD法による比喩表現の意味の測定}
\label{sec:sd}一般に,名詞の意味は,客観的な意味と主観的な意味とに分かれる.客観的な意味というのは,その名詞のカテゴリカルな意味であり,主観的な意味というのは,その名詞にたいする聞き手の印象である.たとえば,「狼」という語は,「動物,哺乳類」というカテゴリカルな意味と,「獰猛,陰険」などという「狼」にたいする聞き手の印象とに分かれる\cite{Yamanashi88}.本稿では,客観的な属性とは,任意の喩詞に対して,比喩表現と被喩詞とで対応する属性値の確率が同じ属性であると定義する.客観的な属性では,明瞭性と新奇性は0となるが,その逆は必ずしも成立しない.なお,主観的な属性とは,客観的でない属性であると定義する.本稿では,被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$が考察の対象であるので,客観的な属\\性は考慮しない.本稿で測定する意味は,主観的な属性の集合(名詞の印象)である.SD法(SemanticDifferential)は,そのような属性集合を測定するのに適した手法である\cite{Osgood57}.本章では,3種類の値を測定する.\begin{quote}\begin{description}\item[(1)]喩詞・被喩詞・比喩表現の属性集合(SD法による)\item[(2)]喩詞・被喩詞・比喩表現における,属性の顕著性\item[(3)]比喩表現の理解容易性\end{description}\end{quote}(1)から計算される明瞭性・新奇性の値と(2)および(3)とが対応関係にあることを示す.\subsection{実験の方法}\label{sec:method}三つの実験を行った.実験1では八つの具体名詞に対してSD法による評定を行い,実験2・3において,実験1で評定された名詞からなる比喩表現(それぞれの実験で六つずつ)についての実験をした.全ての実験で,SD法により属性集合を測定すると同時に,各名詞・比喩表現において顕著な属性と属性値も求めた.実験2・3では,各比喩の``理解容易性''についても測定した.これらの実験に用いた比喩表現は,中村\cite{Nakamura77b}から選択したものを修正した比喩表現である.SD法に用いた属性は,芳賀\cite{Haga90}と同じ25の形容詞対である(付録:表\ref{tab:scale-mean}・\ref{tab:scale-mean-1}).各形容詞が属性値に相当する.それぞれの刺激語句について,その印象を7段階で記入させた.このとき,同時に,それぞれの刺激語句において顕著であると被験者が感じた属性の属性値に対して,丸をつけさせた.丸をつける属性の数は制限しなかった.たとえば,「向日葵」にたいして,「くらい-あかるい」のうち「あかるい」が顕著であると被験者が感じたら「あかるい」に丸を付けさせた.各語句につき1枚の評定表(具体名詞には図\ref{fig:sd-card}(a),比喩表現には図\ref{fig:sd-card}(b),ただし属性は同じ)を用いた.評定表は小冊子の形式で被験者に配った.名詞句・属性の順番は無作為である.実験は集団で実施し,被験者への指示は黒板を用いて口頭で行った.また,実験2・3の被験者は実験1の被験者の部分集合である.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=sd-card.ps,hscale=0.9,vscale=0.9}\end{center}\caption{実験に用いた評定表の例}\label{fig:sd-card}\end{figure}\subsubsection{実験1}図\ref{fig:sd-card}(a)と同様の評定表を用いて,SD法により,八つの具体名詞の印象を25の属性について評定させた.また,顕著な属性の属性値に丸を付けさせた.\begin{quote}\begin{description}\item[測定日\hspace{1em}]95/01/12\item[被験者\hspace{1em}]筆者と同じ研究室の日本人の大学(院)生16人(男13・女3)\item[刺激語句]岩,猛獣,熊,向日葵,豚,蝶々,男,娘.\end{description}\end{quote}\subsubsection{実験2}実験2では,各々の評定表の冒頭で,各比喩の``理解容易性''を5段階(容易/どちらかといえば容易/どちらともいえない/どちらかといえば困難/困難)で評定させた(図\ref{fig:sd-card}(b)).また,実験1と同じ属性を用いて,SD法により,六つの比喩表現の評定を求め,かつ,顕著な属性の属性値に丸を付けさせた.この実験に用いた比喩表現は,実験1で評定した具体名詞からなる.\begin{quote}\begin{description}\item[被験者\hspace{1em}]筆者と同じ研究室の日本人の大学(院)生12人(男9・女3)\item[測定日\hspace{1em}]95/01/19\item[刺激語句]\\\\begin{tabular}{lll}岩のような男&熊のような男&猛獣のような男\\豚のような男&蝶々のような男&向日葵のような男\end{tabular}\end{description}\end{quote}\subsubsection{実験3}実験2と同様に,図\ref{fig:sd-card}(b)のような評定表を用い,比喩表現の``理解容易性''と各属性の評定値と顕著な属性の属性値とを求めた.ただし,被喩詞が実験2と異なる.\begin{quote}\begin{description}\item[被験者\hspace{1em}]筆者と同じ研究室の日本人の大学(院)生13人(男10・女3)\item[測定日\hspace{1em}]95/01/26\item[刺激語句]\\\\begin{tabular}{lll}岩のような娘&熊のような娘&猛獣のような娘\\豚のような娘&蝶々のような娘&向日葵のような娘\end{tabular}\end{description}\end{quote}\subsection{実験の結果}\label{sec:sd-hiyu-results}SD法により測定したそれぞれの刺激語句の属性について平均評定値を付録:表\ref{tab:scale-mean}・\ref{tab:scale-mean-1}に示す.各語句の各属性の顕著性を付録:表\ref{tab:cnum}・\ref{tab:cnum-1}に示す.顕著性とは,その属性に付けられた丸の数を被験者数で割った値である(空欄は0).顕著性は0以上1以下であるが,これらの表では,左側の属性値(形容詞)が顕著であったときには``$-$'',右側の属性値のときには``$+$''の符号を付け,顕著な属性値を示した.同一の属性に対して,被験者間で,丸を付けた属性値が食い違うことはなかった.測定した比喩表現がステレオタイプなものであったためであろう.実験2・3で求めた比喩表現の理解容易性について表\ref{tab:easiness}に示す.表\ref{tab:easiness}は,それぞれの比喩表現に対して,各段階に評定した被験者の数(空欄は0)を示すクロス表である.このクロス表に荻野の数量化\cite{Ogino83}を適用し,比喩表現を1次元に配置した.それを「指標」欄に示す.この値が大きい比喩表現ほど理解容易性が高いと我々は判断した.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|l|ccccc|l|}\hline&困難&困難$-$&中立&容易$-$&容易&指標\\\hline岩のような娘&2&5&1&4&1&0.00\\猛獣のような娘&2&4&1&5&1&0.05\\蝶々のような男&1&4&2&4&1&0.08\\熊のような娘&2&3&2&4&2&0.14\\向日葵のような男&&&3&7&2&0.41\\蝶々のような娘&&2&2&4&5&0.47\\岩のような男&&&1&7&4&0.54\\豚のような娘&&&1&6&6&0.63\\向日葵のような娘&&&2&3&8&0.72\\豚のような男&&&&3&9&0.83\\熊のような男&&&&2&10&0.89\\猛獣のような男&&&&&12&1.00\\\hline\end{tabular}\vspace{\baselineskip}\begin{minipage}{11cm}「困難$-$」・「中立」・「容易$-$」は,それぞれ,「どちらかといえば困難」・「どちらともいえない」・「どちらかといえば容易」に対応する.\end{minipage}\end{center}\caption{比喩の理解容易性}\label{tab:easiness}\end{table}\subsection{実験結果の解釈}\label{sec:interpretation}第\ref{sec:introduction}章で,比喩が,(1)認定,(2)再構成,(3)再解釈,の3段階から理解されると述べた.本節では,(1)の認定段階は考察外である.(2)の再構成については,表\ref{tab:scale-mean}・\ref{tab:scale-mean-1}に示された評定値から,(a)喩詞と被喩詞と比喩表現とで構造が同じベイジアンネットワークを構成でき,(b)喩詞と被喩詞の対応する因子の状態から比喩表現の対応する因子の状態を設定できることを示す.そして,比喩表現の意味を喩詞と被喩詞の意味から構成することが基本的に可能であると仮定する.(3)の再解釈において,``被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を認識した''と判定するた\\めの必要十分条件は,一般に,明らかではない.しかし,以下の2点は必要条件に含まれるであろう.\begin{itemize}\item比喩表現の属性について,その属性が,被喩詞のときに比べて,強調されたのか,それとも抑制されたのか,が判断できること,\item``喩詞において顕著な属性は比喩表現においても顕著である''などという属性の顕著性のパターンを表現できること.\end{itemize}さらに,意味の$\dot{\mbox{ず}}\dot{\mbox{れ}}$は,比喩表現の理解容易性にも影響すると考えられる.再解釈についての考察では,これら三つの観点と明瞭性・新奇性との関係について述べる.再構成が可能であると仮定したので,明瞭性・新奇性は被喩詞の属性と比喩表現の属性とから直接計算する.\subsubsection{比喩の再構成}比喩の再構成が基本的に可能なことを示すために,(1)喩詞と被喩詞と比喩表現とで構造が同じベイジアンネットワークを作ることができ,(2)喩詞と被喩詞の対応する因子の状態から比喩表現の対応する因子の状態を設定できることを示す.表\ref{tab:scale-mean}・\ref{tab:scale-mean-1}のデータから属性間相関行列を作り,それに対して因子分析を行なった.相関行列が特異行列となるのを避けるために,他の属性との相関係数の2乗和が小さい方の属性から6個を削除した.削除した属性は,「かっぱつな-かっぱつでない」,「しずかな-さわがしい」,「おいしい-まずい」,「まがった-まっすぐな」,「おそい-はやい」,「ばかな-かしこい」である.主因子法により因子解を求め,バリマックス回転を施した.設定した因子数は4である.これらの因子により,全体の分散の約87%が説明できる.表\ref{tab:Floading}はバリマックス回転後の各属性の因子負荷量である.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|l|cccc|}\hline&第1因子&第2因子&第3因子&第4因子\\\hlineわるい-よい&\0.94&-0.22&\0.11&-0.10\\ただしい-まちがった&-0.92&\0.16&\0.02&\0.08\\ふつうの-ふつうでない&-0.88&0.00&-0.10&\0.09\\きらいな-すきな&\0.87&-0.38&\0.14&-0.03\\しんせつな-ざんこくな&-0.83&-0.09&-0.33&\0.24\\たいせつな-たいせつでない&-0.78&\0.21&-0.23&\0.10\\みにくい-うつくしい&\0.66&-0.63&\0.18&\0.08\\くらい-あかるい&\0.64&-0.61&\0.03&-0.28\\とおい-ちかい&\0.64&-0.02&\0.31&-0.20\\\hlineはでな-じみな&-0.26&\0.89&-0.10&\0.18\\おもい-かるい&\0.18&-0.83&\0.49&\0.04\\あたらしい-ふるい&-0.21&\0.75&-0.16&\0.38\\かわりにくい-かわりやすい&-0.32&-0.72&\0.33&-0.38\\\hlineつよい-よわい&\0.22&-0.11&\0.88&-0.26\\おおきい-ちいさい&\0.23&-0.52&\0.82&\0.00\\おとこらしい-おんならしい&\0.30&-0.30&\0.76&-0.24\\\hlineまるい-かどばった&-0.12&\0.11&-0.36&\0.89\\つめたい-あつい&\0.42&-0.23&-0.14&-0.83\\かたい-やわらかい&\0.07&-0.29&\0.49&-0.74\\\hline因子寄与&\6.47&\4.12&\3.14&\2.71\\\hline\end{tabular}\end{center}\caption{属性の因子負荷量}\label{tab:Floading}\end{table}\begin{figure}[htbp]\vspace{-1mm}\begin{center}\leavevmode\epsfile{file=Floading.ps,hscale=0.714,vscale=0.714}\vspace{-1.5mm}\end{center}\caption{属性の因子負荷量から生成されるネットワークの一部}\vspace{-1mm}\label{fig:Floading}\end{figure}\paragraph{ベイジアンネットワークの構成}表\ref{tab:Floading}から図\ref{fig:Floading}のようなネットワークが生成できる.そのアークには,因子負荷量が重みとして設定されている.このネットワークの各因子に因子得点を与えれば,各語句の属性の評定値(平均0,標準偏差1に正規化されている)を計算できる.ある属性の評定値は,その全ての親ノードである因子の因子得点にアークの重みを掛けた値の和として与えられる.このネットワークは,喩詞・被喩詞・比喩表現に共通である.また,各因子は互いに無相関なので,これを確率的にも独立であると仮定する.すると,アークの重みから,因子を条件とする属性の条件付き確率を設定できれば,喩詞・被喩詞・比喩表現で構造が同じベイジアンネットワークが構成できる.更に,各語句の因子の因子得点を,その因子の極に与える事前確率に変換できれば,因子の状態を各語句に固有に設定できる.本稿では,これらの変換は可能であると仮定する.\vspace{-0.4mm}\paragraph{喩詞と被喩詞の因子状態からの比喩表現の因子状態の推定}喩詞と被喩詞の因子得点を説明変数,比喩表現の因子得点を目的変数として,48因子($\mbox{4因子}\times\mbox{12の比喩表現}$)について重回帰分析をしたところ,重相関係数が0.89であった.また,楠見\cite{Kusumi93}による同様な実験においても,重相関係数は0.88以上である.これより,喩詞と被喩詞の対応する因子の因子得点から比喩表現の対応する因子の因子得点を推定できると言える.したがって,因子得点と因子状態との相互変換ができれば,喩詞と被喩詞の因子状態から比喩表現の因子状態を推定できる.以上から,我々は,喩詞の意味と被喩詞の意味とから比喩表現の意味を構成可能であると仮定する.\vspace{-0.4mm}\subsubsection{比喩の再解釈}\paragraph{明瞭性・新奇性と顕著性との関係}比喩の再構成が可能であると仮定したので,明瞭性・新奇性は被喩詞の属性と比喩表現の属性とから計算した.各属性の評定値は,刺激語句における,それぞれの属性値の出現頻度の比を反映する\cite{Charles57}ので,属性値の確率は,平均評定値を線形変換して求めた\footnote{$\mbox{左側の属性値の確率}=(7-\mbox{平均評定値})/6$.}.たとえば,「向日葵のような娘」に対しては,「くらい-あかるい」の平均評定値が$6.7$であるので,「くらい」の確率を$0.05$,「あかるい」の確率を$0.95$とした.図\ref{fig:charnum}に,明瞭性(Clarity)・新奇性(Novelty)と比喩表現の顕著性との関係を示す.図\ref{fig:charnum}において``Minimum''で示される点線は,任意の明瞭性に対して,取りうる新奇性の最小値のプロットである\footnote{最小値はシミュレーションにより求めた.3,0000属性について,被喩詞と比喩表現とで属性値の確率を独立に設定して,明瞭性と新奇性とを求め,明瞭性が共通の新奇性のうちで最小値となるものをプロットした.}.三種類の記号(菱形,十字,四角)で表示されているプロットは,それぞれ,顕著性が$[0..1/3)$,$[1/3..2/3)$,$[2/3..1]$の属性である.図の右側には,被喩詞において顕著でなかった属性で,比喩表現において顕著になった属性が位置している.左側には,被喩詞において顕著であった属性で,比喩表現において顕著でなくなった属性が位置している.図には,いくつかの属性について,``喩詞-被喩詞:その属性において確率の高い方の属性値''という形式で表示してある.図から判断すると,属性を顕著性で分類しているのは,主に,明瞭性である.\begin{figure}[htbp]\begin{center}\epsfile{file=fig-charnum.ps,scale=1.0}\end{center}\caption{明瞭性・新奇性と比喩表現の顕著性}\label{fig:charnum}\end{figure}次に,明瞭性と顕著性の変化との関係を述べる.$H=\mbox{比喩表現の顕著性}-\mbox{被喩詞の顕著性}$とすると,当該の属性が強調されたかどうかは,$H$により,以下のように示される.\begin{quote}\begin{tabular}{llllll}$H<0$&抑圧,&$H=0$&無変化,&$H>0$&強調.\end{tabular}\end{quote}$H$\hspace{-0.1mm}が正の方向に大きいほど,その属性は強く強調されたことになり,\hspace{-0.1mm}負の方向に大きいほど,\hspace{-0.1mm}強く抑圧されたことになると言える.なぜなら,顕著性とは,その属性を顕著であると認めた被験者の割合であるので,その変化量はその属性を顕著だと認めた被験者の割合の増減を示すからである.この$H$と明瞭性との相関を全ての比喩表現の属性(12の比喩表現$\times$25属性$=$300属性)について求めたところ,その相関係数は0.89であった.これらのことは,``属性が強調されたのか抑圧されたのか''を示す指標として明瞭性が適当なことを示している.\paragraph{喩詞・被喩詞・比喩表現における,属性の顕著性のパターン}本小節では,ある属性の顕著性が1/4を超えているとき,その属性を顕著な属性であるとする.顕著な属性については,その属性の顕著性に付けられたプラスとマイナスとに応じて,$\pm1$により表現する.左側の形容詞が顕著なとき$-1$であり,右側のときには$+1$である.顕著でない属性は$0$で表わす.すると,全ての属性について,喩詞・被喩詞・比喩表現における顕著性のパターンが$+1$と$-1$と$0$とで表せる.本実験においては,喩詞と被喩詞と比喩表現とで,顕著な属性において符号が食い違うことはなかった.そのため,単に,$1$により顕著な属性を表す.喰い違いが生じなかったのは,評定した比喩表現が典型的なものであったためであろう.表\ref{tab:salience-patterns}には,喩詞・被喩詞・比喩表現の顕著性のパターンと明瞭性との関係を示す.本実験では,パターン``110''とパターン``111''とを除いた6パターンが生じた.生じなかった2パターンのうち,パターン``110''は,喩詞と被喩詞とで顕著な属性が比喩表現において顕著でなくなるパターンである.このようなパターンは考えがたい.パターン``111''に該当するものは,被喩詞で顕著であった属性が喩詞の作用により更に顕著になる場合である.たとえば,「山のような大男」の大きさがそのような属性である.このパターンに該当する属性では,比喩表現の顕著性が被喩詞の顕著性よりも大きくなるので,明瞭性は正の値となる.ただし,典型的な比喩表現においては,被喩詞の顕著でない属性が,喩詞の作用により,顕著になる.したがって,属性の顕著性のパターンが``111''になることは少ないと考えられる.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|c|ccc|rcc|}\hlineパターン&喩詞&被喩詞&比喩表現&頻度&明瞭性の平均値&明瞭性の標準偏差\\\hlineA&1&0&1&11&$+0.43$&$0.14$\\B&0&0&1&8&$+0.22$&$0.20$\\\hlineC&1&0&0&5&$+0.11$&$0.09$\\D&0&0&0&264&$+0.01$&$0.08$\\\hlineE&0&1&1&2&$-0.23$&$0.08$\\F&0&1&0&10&$-0.48$&$0.10$\\\hline\end{tabular}\vspace{\baselineskip}明瞭性の平均値と標準偏差は,各パターンに属する属性の明瞭性から計算した.\end{center}\caption{顕著性のパターンと明瞭性}\label{tab:salience-patterns}\end{table}表\ref{tab:salience-patterns}において,パターンが異なればそれに属する比喩表現から計算される明瞭性の分布も異なるかどうかを,順位和検定により,検定した.その結果,全ての隣接パターン間において,有意水準5%で分布のズレが確認された.このことは,``喩詞において顕著な属性は比喩表現においても顕著である''などという定性的な表現を明瞭性が定量的に表現できることを示している.\paragraph{比喩表現の理解容易性と明瞭性・新奇性}比喩表現の明瞭性・新奇性を,比喩表現を構成する属性の明瞭性の和と新奇性の和とで近似する(\ref{sec:re-interpretation}節).比喩表現の理解容易性(表\ref{tab:easiness})と比喩表現の明瞭性/新奇性との相関係数は,それぞれ,$0.65$/$-0.75$である.また,明瞭性と新奇性とを説明変数,理解容易性を目的変数として重回帰分析をした結果,明瞭性と新奇性とから計算される理解容易性の予測値と測定された理解容易性との相関係数は0.80であった.SD法により評定された語句間の関係の指標としては,一般に,Dスコアが用いられる.\begin{displaymath}\mbox{Dスコア}=\sqrt{\sum_id_i^2}.\end{displaymath}ただし,\hspace{-0.2mm}$d_i$は,\hspace{-0.2mm}属性$_i$における\hspace{-0.2mm}被喩詞と比喩表現の平均評定値の差である.\hspace{-0.2mm}従来の研究では,\hspace{-0.2mm}D\\スコアを比喩理解に関わる要因の一つとしている\cite[など]{Tourangeau82,Kusumi87}.Dスコアと理解容易性との相関係数は$-0.61$である.また,明瞭性・新奇性から計算される理解容易性の予測値とDスコアとの相関係数は$-0.79$である.したがって,予測値とDスコアが正規分布をしていると仮定すれば,有意水準1%で,明瞭性・新奇性からの予測値の方がDスコアよりも理解容易性との相関が高い.
\section{おわりに}
\label{sec:summary}比喩の再解釈のモデルとして,情報量にもとづく評価関数である明瞭性と新奇性とを提案した.第\ref{sec:sd}章の実験では,五つの標本(被験者・属性・喩詞・被喩詞・比喩表現)を用いた.これらの標本は,網羅的でもないし,無作為抽出されたものでもない.したがって,これらの標本における明瞭性・新奇性の性質から,母集団におけるそれらの性質を統計的に推測することはできない.しかし,本稿の実験に用いられた標本に関しては,\begin{itemize}\item属性の顕著性の変化を示す指標として明瞭性が適当であること,\item属性の顕著性のパターンに応じて明瞭性が分布していること,\item比喩の理解容易性の指標として,明瞭性と新奇性とが適当なこと\end{itemize}を示した.本稿では,比喩の再解釈を考察の対象にした.比喩の認定と再構成とは今後の課題である.比喩表現には,その表現が比喩であることが陽には示されていないもの(隠喩)も多い.そのような比喩を認定するためには,文脈からの意味の逸脱などを検出する必要がある.比喩の再構成のためには,喩詞と被喩詞と比喩表現とに共通なベイジアンネットワークを作成し,喩詞と被喩詞の因子状態から比喩表現の因子状態を推定する必要がある.いずれの場合にも,名詞の属性集合が重要である.本稿では名詞の属性集合をSD法により測定した.今後は,これをコーパスから抽出することを考えている.\acknowledgment本稿に対して適切な助言を下さった,本学山本幹雄講師に感謝する.\bibliographystyle{jnlpbbl}\bibliography{metaphor}\section*{付録}\label{sec:appendix}SD法により得られた平均評定値を表\ref{tab:scale-mean}と表\ref{tab:scale-mean-1}とに示す.また,各概念の各属性の顕著性を表\ref{tab:cnum}と表\ref{tab:cnum-1}とに示す.これらの表では,``のような''という文字列を省略した.例えば,``猛獣のような男''なら``猛獣男''として記載されている.\input{appendix.tex}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{1992年筑波大学第三学群情報学類卒業.現在,筑波大学大学院工学研究科博士課程に在学中.知識獲得に興味がある.言語処理学会,情報処理学会の学生会員.}\bioauthor{板橋秀一}{東北大学工学部通信工学科卒業(1964).東北大学大学院工学研究科電気及び通信工学専攻博士課程単位取得退学(1970).東北大学電気通信研究所助手(1970).通産省工業技術院電子技術総合研究所技官(1972).同主任研究官(1974).ストックホルム王立工科大学客員研究員(1977-78).筑波大学電子・情報工学系助教授(1982).筑波大学電子・情報工学系教授(1987).専門は音声・自然言語・画像の処理・理解.1982年より,(社)日本電子工業振興協会の音声入力方式分科会主査,音声入出力方式専門委員会委員長として音声データベースの検討・構築に従事している.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-09
|
\section{はじめに}
近年,ニューラルネットワーク及び分散表現の使用により,係り受け解析は大きく発展している.\cite{dchen2014,weiss2015,hzhou2015,alberti2015,andor2016,dyer2015}.こうした構文解析器が,単語ごとの分かち書きを行う英語や多くのヨーロッパ諸語に適用された場合は非常に正確に動作する.しかし,日本語や中国語のように,特に単語毎の分かち書きを行わない言語に対し適用する場合は,事前に形態素解析器や単語分割器を利用して単語分割を行う必要がある.また,単語分割が比較的に容易な言語の場合でも,構文解析器は品詞タグ付け結果を利用することが多い.したがって,前段の単語分割器や品詞タグ付け器と後段の構文解析器をパイプラインにより結合されて用いられる.しかし,どのような単語分割器や品詞タグ付け器にも出力の誤りが存在し,結果的にそれが後方の係り受け解析器にも伝播することで,全体の解析結果が悪くなってしまう問題が存在した.これを誤差伝播問題と呼ぶ.日本語においても中国語においても,単語の定義には曖昧性が存在するが,特に中国語では,このような単語の定義の曖昧性から,単語分割が悪名高く難しいことが知られている\cite{Shen2016a}.それゆえ,従来法である単語分割,品詞タグ付け,構文解析のパイプラインモデルは,単語分割の誤りに常に悩まされることになった.単語分割器が単語の境界を誤って分割してしまうと,伝統的なone-hotな単語素性や通常の単語の分散表現(\textbf{wordembedding})では,もとの単語の意味を正しく捉えなおすことは難しい.結果的に,中国語の文を生文から解析する際は,パイプラインモデルの精度は70\%前半程度となっていた\cite{hatori2012}.このような誤差伝播問題に対しては,統合モデルを使用することが有効な解決方法として提案されている\cite{zhang-clark2008:EMNLP,zhang-clark2010,hatori2011,hatori2012,mzhang2014}.中国語の単語は,単一の表層系で複数の構文的な役割を演じる.ゆえに,そうした単語の境界を定めることと,後続の品詞タグ付け,構文解析は非常に関連のあるタスクとなり,それらを別個に行うよりも,同時に処理することで性能の向上が見込まれる.中国語の統合構文解析器については,すでに\citeA{hatori2012}や\citeA{mzhang2014}などの統合モデルが存在する.しかし,これらのモデルは,近年のwordembeddingのような表現学習や,深層学習手法を利用しておらず,専ら,複雑な素性選択や,それら素性同士の組み合わせに依存している.本研究では,ニューラルネットワークを用いた手法による中国語の統合構文解析モデルを提案し,パイプラインを用いたモデルとも比較する.ニューラルネットワークに基づく係り受け解析では,単語の分散表現と同様に文字の分散表現が有効であることが英語などの言語における実験で示されている\cite{ballesteros2015}.しかし,中国語や日本語のように個々の文字が固有の意味を持つ言語において,単語以下の構造である部分単語の分散表現がどのように有効であるかについては,いまだ十分な研究が行われていない.中国語では単語そのものの定義がやや曖昧である他に,単語内にも意味を持つ部分単語が存在する場合がある.加えて,中国語の統合構文解析を行う場合には,単語分割の誤りに対処したり,文中で単語分割をまだ行っていない箇所の先読みを行う必要があり,必然的に,単語だけではなく部分単語や単語とはならない文字列の意味を捉えることが必要になる.このような部分単語や単語とはならない文字列は,大抵の場合はモデルの学習に用いる訓練コーパスや事前学習された単語の分散表現中には存在せず,文字や文字列の分散表現を扱わない先行研究では未知語として処理される.しかし,こうした文字列を未知語として置換し処理するよりも,その構成文字から可能な限りその意味を汲み取った方が,より高精度な構文解析が行えると考えられる.このため,本研究では文字列の分散表現を利用した統合構文解析モデルを提案する.提案手法では,既知の文字または単語についてはそれらの分散表現を使用し,未知の文字列については文字列の分散表現を使用する.本研究では中国語の統合構文解析モデルとして,単語分割・品詞タグ付けおよび係り受け解析の統合モデルと,単語分割と品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルの2つを提案する.これらのモデルを使用することで,実験では新規に世界最高性能の中国語単語分割および品詞タグ付け精度を達成した.また,係り受け解析とのパイプラインモデルが,従前の統合解析モデルと比較して,より優れた性能を達成した.以上の全てのモデルにおいて,単語と文字の分散表現に加えて文字列の分散表現を利用した.著者の知る限りにおいて,これは分散表現とニューラルネットワークを利用し,中国語の単語分割・品詞タグ付け・係り受け解析の統合解析を行った,はじめてのモデルである.この論文における貢献は以下のようにまとめられる.(1)分散表現に基づく,初めての統合構文解析モデルを提案した.(2)文字列の分散表現を未知語や不完全な文字列に対してその意味を可能な限り汲み取るために使用した.(3)加えて,既存手法で見られた複雑な素性選択を避けるために,双方向LSTMを使用するモデルを提案した.(4)中国語のコーパスにおける実験で単語分割・品詞タグ付けおよび係り受け解析にて新規に世界最高性能を達成した.この他に,本論文では中国語係り受け解析のラベル付けモデルを提案し,原文からラベル付き係り受け解析までを行った際のスコアを評価する.このモデルに関しても,同様に文字列の分散表現を利用する.
\section{関連研究}
遷移型係り受け解析アルゴリズムは,係り受け解析を行う際にその精度の高さと処理速度の速さから広く使われているモデルである.特に中国語の統合遷移型係り受け解析に対するアルゴリズムは\citeA{hatori2012}および\citeA{mzhang2014}において提案された.\citeA{hatori2012}は,係り受け解析に関する情報が,単語分割と品詞タグ付けを行う際にも有効であることを示し,遷移型係り受け解析アルゴリズムに基づく最初の単語分割,品詞タグ付けおよび係り受け解析のモデルを提案した.\citeA{mzhang2014}はこれを拡張し,通常の単語間の係り受けに加えて,単語内部の係り受けに対して独自にアノテーションを施し,これを考慮することによって,精度の向上を達成できることを示した.こうした\citeA{hatori2012}および\citeA{mzhang2014}による提案手法により,パイプラインモデルより優れた性能を出すなど,大きな成果が得られた.一方で,このような従来法におけるモデルでは,文字および単語のone-hotな表現を専ら利用しており,使用する文字や単語の類似性は考慮されていなかった.加えて,中国語の統合構文解析により処理を行う最中には,素性として,既知の単語や文字だけではなく単語をなさない不完全な文字列や部分単語も出現する.そのような不完全な文字列もしくは未知の単語は,モデルになんらかの形で認識させることで構文解析を行う際の重要な情報となりうる.しかし,そのような不完全な文字列は,従来法における外部知識源である辞書情報や,学習済みの通常の単語の分散表現では捉えることが難しかった.\citeA{hatori2012}および\citeA{mzhang2014}の提案手法における他の問題点として,これらの先行研究が詳細な素性選択を用いていることがあげられる.一方で,近年,双方向LSTMを利用し詳細な素性選択を回避したニューラルネットワークモデルが提案されている\cite{kiperwasser2016,cross2016}.これらのモデルでは,双方向LSTMは語句の分散表現をその内容も含めてモデル化するために用いられている.実際に,\citeA{kiperwasser2016}による構文解析モデルにおいては,双方向LSTMにより文全体の情報を利用することができるのに対し,素性に基づくモデルでは文全体を素性として用いることはできない.また,このように双方向LSTMを利用して文全体を符号化する手法は,機械翻訳でも多く用いられている\cite{bahdanau2014}.結果として,\citeA{kiperwasser2016}によるモデルでは世界最高の性能と比較可能な性能を達成している.本研究では,$n$グラムの文字分散表現に対応した双方向LSTMを利用した構文解析モデルも提案する.なお,\citeA{hatori2012}による手法ではあくまでも単一の分類器を使用して単語分割・品詞タグ付けおよび係り受け解析を同時に行うのに対し,\citeA{mzhang2014}の提案手法では,単語分割・品詞タグ付けに対応する分類器と係り受け解析に対応する分類器を同時に用意し,単語分割・品詞タグ付けに対応する分類器を数単語分だけ先に処理させる.このような2つの手法は,本研究における単語分割・品詞タグ付けおよび係り受け解析の統合モデルと,単語分割・品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルの関係に近い.\ref{sec:segtag+dep}節にて,この関係を詳細に議論する.
\section{モデル}
この論文で提案する統合構文解析モデルは,\ref{sec:transition}節で解説する遷移型アルゴリズムを使用する.また,不完全な文字列に対する分散表現を得るための文字列の分散表現手法については\ref{sec:modelembedding}節で解説する.素性選択を利用するニューラルネットワークモデルを\ref{sec:modelfnn}節で解説し,双方向LSTMを利用するニューラルネットワークモデルを\ref{sec:bilstm}節で解説する.\subsection{単語分割・品詞タグ付け,係り受け解析のための遷移型アルゴリズム}\label{sec:transition}単語分割・品詞タグ付け,係り受け解析のための統合アルゴリズムには\citeA{hatori2012}に基づく,遷移型の統合アルゴリズムを使用する.統合解析モデルは入力文字列からなるbufferとstackからなり,bufferは文字が格納され,stackには単語と品詞タグ,およびそれらの単語の構文木上の子孫に当たる単語が格納される(図\ref{fig:trans}).初期状態ではbufferに全ての入力文字列が格納される.stackは空である.また,アルゴリズムの便宜上,bufferの末尾には文末を意味するシンボル``EOS''を置く.下記の遷移操作に従って,bufferからstackに文字が移され,単語や構文木か形成される.終状態においては,bufferが空になり,stackにはEOSシンボルを係り受け解析におけるROOTノードとして,品詞タグが付与された単語群による構文木が生成されている.\begin{figure}[b]\begin{center}\includegraphics{26-1ia9f1.eps}\end{center}\caption{単語分割・品詞タグ付け,素性選択のための遷移に基づく統合アルゴリズム}\label{fig:trans}\end{figure}本研究で用いる遷移操作は以下の通りである.\begin{itemize}\item{\usefont{T1}{pcr}{m}{n}SH(t)}(\textit{shift}):bufferの最初の文字をstackの先頭へ移動させ,新しい単語とする\item{\usefont{T1}{pcr}{m}{n}AP}(\textit{append}):bufferの最初の文字をstackの先頭の単語の末尾に加える\item{\usefont{T1}{pcr}{m}{n}RR}(\textit{reduce-right}):stackの先頭2単語のうち,右側の単語をstackから消去し,左側の単語の右側の子供の単語とする\item{\usefont{T1}{pcr}{m}{n}RL}(\textit{reduce-left}):stackの先頭2単語のうち,左側の単語をstackから消去し,右側の単語の左側の子供の単語とする\end{itemize}{\usefont{T1}{pcr}{m}{n}SH}操作および{\usefont{T1}{pcr}{m}{n}AP}操作によって単語の境界と品詞タグが決定され,{\usefont{T1}{pcr}{m}{n}RR}操作および{\usefont{T1}{pcr}{m}{n}RL}操作により構文木が作成される.これらの遷移操作のうち,{\usefont{T1}{pcr}{m}{n}RR}操作および{\usefont{T1}{pcr}{m}{n}RL}操作はArc-standardアルゴリズムのものと同一である\cite{nivre2004arcstand}.{\usefont{T1}{pcr}{m}{n}SH}操作および{\usefont{T1}{pcr}{m}{n}AP}操作はいずれもbufferの最初の文字をstackへと移動させるが,{\usefont{T1}{pcr}{m}{n}SH}操作は移動した文字を新しい単語の先頭とするのに対し,{\usefont{T1}{pcr}{m}{n}AP}操作はすでにstack先頭にある部分単語の末尾に文字を加える.ゆえに,{\usefont{T1}{pcr}{m}{n}SH}操作はモデルが予測する単語数を1単語だけ増加させるのに対し,{\usefont{T1}{pcr}{m}{n}AP}操作は,stackの先頭に存在する部分単語を1文字分だけ延長させる.品詞タグは{\usefont{T1}{pcr}{m}{n}SH(t)}操作と同時に付与される.ゆえに,{\usefont{T1}{pcr}{m}{n}SH(t)}操作は品詞タグの数と同じだけ存在する.なお,buffer上に文字が存在しない時は,{\usefont{T1}{pcr}{m}{n}SH}操作および{\usefont{T1}{pcr}{m}{n}AP}操作を行うことはできない.同様にstack上に2個以上の単語または生成途中の単語が存在しない時は{\usefont{T1}{pcr}{m}{n}RR}操作および{\usefont{T1}{pcr}{m}{n}RL}操作を行うことはできない.また,{\usefont{T1}{pcr}{m}{n}AP}操作が適用可能となるのは,直前の操作が{\usefont{T1}{pcr}{m}{n}SH}操作,もしくは{\usefont{T1}{pcr}{m}{n}AP}操作である時のみである.この論文においては,貪欲法による訓練及び探索とビーム法による訓練および探索の両方を実験する.この解析アルゴリズムはその両方に対して動作する.また,本研究においては,単語分割と品詞タグ付けの統合モデルと係り受け解析の単独モデルも同様に作成した.単語分割と品詞タグ付けの統合モデルにおいては,{\usefont{T1}{pcr}{m}{n}RR}操作および{\usefont{T1}{pcr}{m}{n}RL}操作は用いない.同様に,単独の係り受け解析モデルにおいては,通常のArc-standard構文解析モデルを使用する.\subsection{単語および文字,文字列の分散表現}\label{sec:modelembedding}本節ではニューラルネットワークモデルにおいて用いられる分散表現について解説する.統合構文解析を行う際は,必然的に,意味のある単語と不完全な文字列が解析中に多く出現する.このような不完全な文字列の表現は,\citeA{hatori2012}などの既存手法においては用いられなかったが,もし,分散表現を用いて他の単語や文字列との類似性を表現できれば,統合構文解析を行う際に非常によい情報となりうるはずである.例えば,固有表現である``南京\UTFC{4E1C}路''(上海にある有名な商店街)はPennChineseTreebank(CTB)コーパスではひとつの単語として扱われている.このような固有表現は,``北京西路''や``湘西路''などとしてCTBコーパス中に多く出現する.これらは,``南京''や``北京''などの都市を表す部分単語と``\UTFC{4E1C}路''や``西路''などといった場所を表す部分単語の組み合わせとして理解される.こうした表現を学習することで,テストデータ中に未知の``(固有地名)\UTFC{4E1C}路''や``(固有地名)西路''といった表現が出現しても,これを地名として処理することが期待できる.また,部分単語や,逆に複数の単語にまたがる文字列を利用することが,単語分割の誤りを補うために役立つ場合もある.例えば,``南京\UTFC{4E1C}路''に対し,単語分割器が過剰に単語分割を行い,``南京''と``\UTFC{4E1C}路''の2単語に区切ってしまった場合を仮定しよう\footnote{アノテーション基準によっては,そもそもこのような分割の仕方が正しい場合もある.}.この時,事前学習された単語の分散表現やCTBの訓練コーパス中に``\UTFC{4E1C}路''という単語が存在しなければ,これは未知語として処理されうる.このような場合でも,その文字の構成から``\UTFC{4E1C}路''は場所を表す単語であると推測できる.このように,部分単語や文字の表現を使用することで,単語分割の誤りに対して頑健さを持たせることができる.しかしながら,こうした部分単語や文字列等は,多くの従来研究では未知語もしくは``UNK''シンボル等として置換され,処理されていた.本研究では,こうした文字列についても,それを構成する文字から可能な限り意味を捉える分散表現を提案する.$n$個の文字$c_i$からなる文字列$c_1c_2\cdotsc_n$を考える.提案手法ではこの文字列に対する分散表現$\mathbf{v}(\cdot)$を以下のように計算する.\begin{equation}\mathbf{v}(c_1c_2\cdotsc_n)=\sum_{i=1}^n\mathbf{v}_c(c_i)\end{equation}ここで$\mathbf{v}_c(\cdot)$は文字の分散表現ベクトルを表す.このように文字列の分散表現を,その構成文字の文字表現から構成する手法は,どのような文字列に対しても計算できるほかRNNやCNN等の複雑なニューラルネットワークを用いないことによる速度上の利点が存在する.なお,このような文字,単語および文字列の分散表現はすべて同じベクトルの次元を持ち,ニューラルネットワークの計算グラフ中で,入力に対しどのような分散表現を利用するかが決定される.したがって,いずれの分散表現を利用する場合でも,その基となる文字または単語の分散表現が,ニューラルネットワークの誤差逆伝播法により学習される.本研究では,任意の中国語の単語列に対し,以下の規則にて,その分散表現を割り当てる.\begin{description}\item[(1)]文字列が既存の単語分散表現中に存在するか調べ,存在する場合には,その分散表現を使用する.\item[(2)]分散表現が存在しない場合には,上記の式のように,文字に対する分散表現を用いて,文字列の分散表現として使用する.\item[(3)]分散表現中に存在しない文字についてはUNKシンボルを使用する.\end{description}本研究では,UNKシンボルのような未知語の表現ベクトルを利用することは可能な限り回避した.なぜならば,そのようなベクトルを使用することはニューラルネットワークに与える入力を縮退させることになるからである.しかしながら,事前学習された分散表現中に存在しない文字については,入力をUNKシンボルに置換して使用する.品詞タグについても同様に対応する分散表現を用意し,学習に使用する.UNKシンボルに対応する分散表現や品詞タグに対応する分散表現は,正規分布を用いて初期化される.この他,本研究では,部分単語の長さに対応する,数字の分散表現を一部に用いた.これは,一定の長さを持つ文字列は,同じ分散表現を共有するものである.もっぱら,bufferからstackへと一文字毎に移されている最中の部分単語の長さを表現するために用いられる.数字の分散表現も正規分布を用いて初期化される.提案手法では,単語と文字の分散表現を事前学習にて準備する.文字と単語の分散表現は,同一のベクトル空間に埋め込まれる.まず,事前学習に用いるコーパスについて,単語分割されたファイルと一文ごとに文字分割されたファイルを用意する.各ファイルには一行に一文ずつ事前学習に用いる文を配置する.次に,それらのファイルを結合し,行単位でランダムに並び替え,単語及び文字の分散表現を学習するための事前学習コーパスとする.これにより,類似した意味を持つ単語と中国語の文字は,ベクトル空間内の近い位置に埋め込まれることが期待される.中国語の文中には,一文字で一単語となる単語も存在し,そのような単語を介して,周辺の文字や単語が類似した位置に配置されうるからである.具体的な分散表現学習に用いたツールおよびコーパスについては,\ref{sec:exp_setting}節に記載した.\subsection{素性選択を利用するニューラルネットワークモデル}\label{sec:modelfnn}\subsubsection{ニューラルネットワークモデル}素性選択に基づくニューラルネットワークモデルを図\ref{fig:modelfnnnet}に示す.素性とその分散表現を入力に取るニューラルネットワークを使用した構文解析は,近年,活発な研究が行われており,その中には貪欲法に基づいてニューラルネットワークを学習させるもの\cite{dchen2014,weiss2015},ビーム探索を用いるもの\cite{andor2016,weiss2015}がある.本研究では,このように素性を入力として用いることに加えて,不完全な文字列が素性として入力されても処理が可能であるように,\ref{sec:modelembedding}節にて導入した文字列の分散表現の動的生成を加えた.\begin{figure}[t]\begin{center}\includegraphics{26-1ia9f2.eps}\end{center}\hangcaption{素性に基づくニューラルネットワーク.貪欲法による出力は2番目の隠れ層から入力を受けるのに対し,ビーム探索には全ての隠れ層および貪欲法による出力層から入力を受けるパーセプトロン層を使用する.入力の文字列は,分散表現に含まれている場合はその分散表現が使用され,含まれていない場合は,文字列の分散表現がその文字構成から計算されて使用される.}\label{fig:modelfnnnet}\end{figure}遷移操作を決定する分類器には,8,000次元の2つの隠れ層を持つ,3層フィードフォワードニューラルネットワークを使用した.これは200次元の隠れ層を利用した\cite{dchen2014}や1,024次元もしくは2,048次元の隠れ層を利用した\citeA{weiss2015}よりも更に大きい.隠れ層の活性化関数にはReLUを使用した\cite{nair2010relu}.なお,\cite{dchen2014}にて用いられている$x^3$の活性化関数は,2層のフィードフォワードニューラルネットワークでは比較可能な性能を達成したが,3層以上のフィードフォワードニューラルネットワークでは,うまく動作しなかった.フィードフォワードニューラルネットワークの最終層が出力層となる.貪欲法による出力層はsoftmax関数を使用した.ニューラルネットワークの隠れ層は乱数を用いて初期化した.貪欲法における損失関数$L(\theta)$は\begin{gather*}L(\theta)=-\sum_{s,t}\logp_{s,t}^{\mathrm{greedy}}+\frac{\lambda}{2}||\theta||^2,\\p_{s,t}^{\mathrm{greedy}}(\boldsymbol{\beta})\propto\exp\left(\sum_jw_{tj}\beta_j+b_t\right),\end{gather*}となる.ここで,$t$は可能な遷移操作の集合$\mathcal{T}$($t\in\mathcal{T}$)の中のある1つの遷移操作を表す.$s$はニューラルネットワークの学習におけるミニバッチ中の1つの要素を示す.$\boldsymbol{\beta}$はフィードフォワードニューラルネットワーク最終層における出力を表す.$w_{tj}$及び$b_t$はニューラルネットワークの重み行列とバイアス項を示す.$\theta$はモデルの全ての変数を示す.本研究ではニューラルネットワークの変数に対し,$L2$罰則項とDropoutを使用した.ニューラルネットワークの誤差逆伝播法は,これらのニューラルネットワークの変数を含めて,単語及び文字の分散表現まで行われる.誤差逆伝播法の学習率の調整にはAdagradを使用する\cite{duchi2010adagrad}.Adam\cite{kingma2015adam}とSGDを使用することも考慮したが,このモデルについてはAdagradがよりよく振る舞った.他のモデル変数については表\ref{table:params}にまとめる.\begin{table}[t]\caption{ニューラルネットワークの構造と学習に関する諸変数}\label{table:params}\input{09table01.tex}\vspace{4pt}\small単語と文字は同じ次元の分散表現を持つ.「文字列長さの埋め込み」とは,bufferからstackへと一文字毎に移されている最中の部分単語の長さに対応する数字の分散表現である.\end{table}表\ref{table:params}のモデル変数のうち,$\mathbf{h_1}$と$\mathbf{h_2}$のサイズは予備実験により決められた.学習率の初期値については,ニューラルネットワークの学習において広く使われているものを用いたが,ビームを使用する場合は,モデルの安定性のため,小さな初期値から学習を始めた.単語・文字の埋め込みにおけるボキャブラリー数については,分散表現に含まれる語彙数を多くするため,サイズの大きいものを用いた.埋め込みの次元は\citeA{dchen2014}などの先行研究で広く使われている値の一つである200次元を用いた.ニューラルネットワークの隠れ層が8,000次元となり,これは先行研究よりも大きい.この理由として,1つ目に,\ref{sec:features}節にて紹介する,素性を表現するベクトル表現が大きいことが挙げられる.例えば,単語分割,品詞タグ付けおよび係り受け解析の統合モデルについては,合計で9,820次元にもなる.この中には文字列に関する素性も含まれる.これを表現するために大きな隠れ層が必要となる.2つ目に,ニューラルネットワークが,単語分割,品詞タグ付けおよび係り受け解析という多岐にわたる判断をしなければならないことが挙げられる.出力側が複雑になるために,必要となる隠れ層のサイズも大きくなると考えられる.貪欲法によるモデルの学習では,学習前に,訓練データセット中の全ての文に対して,遷移型構文解析アルゴリズムを正解ラベルに従って順次適用させたときに出現する,入力素性および遷移操作の教師ラベルの組み合わせを予め計算し抽出した.このようにして抽出された文内での遷移操作と入力素性の組み合わせを,文をまたいでシャッフルしてからニューラルネットワークの学習に用いるミニバッチを作成した.これにより,あるミニバッチに特定の文が偏ることがないようにした.モデルのテスト時や実際の入力文の解析時には,処理を行う文を複数個並べてミニバッチを作成し,同時に解析が行えるようにした.これにより,ある一連のニューラルネットワークの呼び出しに対し,複数文を同時に処理することが可能となり,速度の大幅な向上が可能となった.この際に,同時に処理が可能な文数は専らGPUのメモリサイズのみに制約される.また,この方法はビームを用いた解析にも適用できる.\subsubsection{素性}\label{sec:features}このニューラルネットワークの素性を表\ref{table:features}に列挙する.本研究では,以下の3種類の素性を使用した.\begin{description}\item{(1)}\citeA{hatori2012}にて用いられた素性から,素性同士の共起を取り除いたもの\item{(2)}\citeA{dchen2014}にて用いられた素性\item{(3)}文字列に関する独自の素性\end{description}\begin{table}[t]\caption{統合モデルに対する素性}\label{table:features}\input{09table02.tex}\vspace{4pt}\smallこの表において,``b''はbufferの文字,``s''はstackの単語を示し,``b''と``s''の次の数字は,先頭からの文字および単語の番号である.``l''と``r''は,その単語の左側と右側の子どもの単語のことを指し,``l''と``r''の次の数字は,子どもの単語の番号である.サフィックスのw,p,c,eは,それぞれ,文字列または単語,品詞タグ,文字,そして文字列の最後の一文字を表す.``q0''は直前にbufferからstackへ移動された単語を,``q1''は``q0''より先に移動された単語を示す.``partofq0word''では,q0f1,q0f2,q0f3は,それぞれf1,f2,f3の位置の文字から始まるq0の部分単語を表す.ここでf1はq0の最後の文字の位置を表すため,q0f1はq0の最後の一文字を表す.f2は最後から2番目の文字の位置を表すため,q0f2はf2の位置から始まる2文字の文字列を示す.``stringsacrossq0andbuf.''では,q0f1bXは,単語q0のf1の位置から始まる$X$個の文字からなる文字列を表す.この素性による文字列はbufferとstackにまたがりうるが,連続的な文字列に限定する.``stringsofbuffercharacters''では,bX-Yが,buffer内部の$X$番目から$Y$番目までの文字列を表す.lenq0はq0の長さを示し,この分散表現のみ小さな埋め込みのサイズを用いる.\end{table}このなかで独自の素性として,部分単語に関するものとbufferとstackにまたがる文字列の素性,bufferの中の文字列の素性が存在する.bufferとstackにまたがる文字列の素性は,現在,単語分割が行われている単語に対する貴重な情報を提供する.また,長すぎる文字列に対する素性を用いることがないように,本研究では文字列素性の長さを4文字以下に制限した.CTBデータセットにおいては,5文字以上の長さの単語は稀であるからである.ただし,これは素性に関するものであり,出力単語としてはそれ以上の長さのものもありうる.ただし,本研究では,文中に連続に出現する文字列のみを素性に用い,共起に関する素性は使用しなかった.ここでいう共起に関する素性とは,例えばstackの先頭以外の位置にある文字列と,bufferにある文字列の組み合わせに関する素性等である.\citeA{hatori2012}では多数の手作業で調整されたone-hotな素性の共起を利用していた.本研究では,そのような素性同士の共起はニューラルネットワークの隠れ層上で自然に考慮されると考えた\cite{hinton1986}.本研究では,単語分割済みの単語については,単語や文字列のほかに,すでにモデルによって付与された品詞も素性として利用させた.また,bufferからstackへと一文字ずつ文字を移動させている最中の単語の長さを表現するために,小さな次元の埋め込みを用いた.また,単語分割,品詞タグ付けおよび係り受け解析の統合解析モデルとは別に,単語分割と品詞タグ付けのみの統合モデルも実験に用いた.このモデルについては,構文解析に関する素性,すなわちstackに存在する単語や文字列の子供や孫にあたる単語に関する素性を省略している.\subsubsection{ビーム探索}ビーム探索は中国語の統合解析において重要な役割を果たす.本研究では,近年提案された,ビームを用いたニューラルネットワークの最適化手法を採用した\cite{weiss2015,andor2016}.図\ref{fig:modelfnnnet}では,最上部に位置するパーセプトロン層がビームを利用した解析に使用する.具体的には,ビーム探索のために独立したパーセプトロン層を用意し,フィードフォワードニューラルネットワークの2層の隠れ層および貪欲法による出力層を,その入力とする:[$\mathbf{h}_1,\mathbf{h}_2,\mathbf{p^{\mathrm{greedy}}(y)}$].次に,このパーセプトロン層を以下のコスト関数にしたがって学習させる\cite{andor2016}:\begin{align*}L(d^*_{1:j};\theta)&=-\sum_{i=1}^j\rho(d^*_{1:i-1},d^*_i;\theta)\\&+\ln\sum_{d'_{1:j}\in\mathcal{B}_{1:j}}\exp\sum_{i=1}^j\rho(d'_{1:i-1},d'_i;\theta),\label{eq:andor}\end{align*}ここにおいて,$d_{1:j}$は統合構文解析の遷移経路を示し,$d^*_{1:j}$は正解の遷移経路を示す.$\mathcal{B}_{1:j}$はビーム内部での1番目から$j$番目までの遷移経路を示す.$\rho$は図\ref{fig:modelfnnnet}におけるパーセプトロン層の出力を表す.本研究では,\citeA{andor2016}と同様にして,貪欲法を用いてフォードフォワードニューラルネットワーク部分を学習し,次にビームを用いて,パーセプトロン層のみを学習させる.最後に,フィードフォワードニューラルネットワークを含めて誤差逆伝播法による学習を行う.この学習はネットワーク全体に対して行うことも可能であるが,予備実験の結果,この段階で文字および単語の埋め込み層を最適化すると,学習結果が悪くなることが判明した.そこで,本研究では,文字及び単語埋め込み層をこの段階の学習からは除外した.このニューラルネットワーク全体を通した誤差逆伝播法は,かなりのGPUメモリを消費する.それゆえ,訓練コーパスのうちとりわけ長い文は,GPUメモリに載せられないために訓練から取り除いた.また,ビームを用いた訓練においては,最初のエポックでは小さなビームサイズで学習を行い,徐々に学習に用いるビームサイズを増やしていった.学習には順に4,8,16のサイズのビームを使用した.最終的な単語分割・品詞タグ付けおよび係り受け解析の統合モデルの学習及びテストにはサイズ16のビームを用いた.本研究では,単語分割・品詞タグ付けおよび係り受け解析の統合モデルでのビーム探索について,\citeA{hatori2012}と同様に特別な配置ステップを使用した.単語分割・品詞タグ付けおよび係り受け解析の統合モデルでのビーム探索では,{\usefont{T1}{pcr}{m}{n}AP}遷移のみに2ステップの配置をもたせている.この配置を使用することで,$N$文字の文に対する総遷移回数は,どのような遷移経路を経由しても,文終端記号に対応する遷移を除いて$2N-1$となる.これは,{\usefont{T1}{pcr}{m}{n}AP}遷移操作が,文字の追加と単語内の係り受け解決の2つのことを行っているとして解釈できる.つまり,中国語の単語は,単語内にも文字同士の係り受け関係が存在すると解釈し,{\usefont{T1}{pcr}{m}{n}AP}遷移操作はこの単語内の係り受けを解決するものとして捉える.本研究では,\citeA{hatori2012}にて用いられた,HuangとSagaeによる動的計画法を用いたビーム探索の手法は使用していない\cite{huangsagae2010,hatori2012}.それは,\citeA{andor2016}によるニューラルネットワークのビームサーチを利用した広域最適化手法式が,遷移型解析の途中状態でのニューラルネットワーク関数の出力結果を入力とすることによる.遷移型解析にて経由するすべての途中状態でのニューラルネットワークの出力結果は,先の式を通じて,全体の計算グラフの中に取り込まれる.このように,ニューラルネットワークの計算グラフの中で,遷移の途中状態も含めた最適化が行われるために,少なくとも学習時は,この手法における動的計画法の採用は難しいと考えられる.また,ニューラルネットワーク固有の問題としてDropoutを使用している場合は,そもそも,同一の入力に対して確率的に異なる振る舞いをする.この性質は,動的計画法には向かない.\subsection{双方向LSTMを使用したモデル}\label{sec:bilstm}\ref{sec:modelfnn}節では,素性選択を利用したニューラルネットワークを提案した.このモデルは非常に高い性能を誇るが,以下の2つの問題が存在した.\begin{description}\item[(1)]ニューラルネットワークが限られた素性に基づいて動作するため,文全体の情報を入力にとることはできない\item[(2)]素性選択に頼っている\end{description}この問題を解決するため,\citeA{kiperwasser2016}は双方向LSTMによる構文解析モデルを提案した.彼らのモデルでは非常に少数の素性のみを使用しながら,双方向LSTMを使用することで文全体の情報をニューラルネットワークに与えることに成功した.結果的に,彼らのモデルは,PennTreebankデータセットにて素性に基づく\citeA{weiss2015}によるモデルと比較可能な性能を達成した.彼らのモデルは,3つの部分から成り立っている.入力文を処理する双方向LSTMと,双方向LSTMの隠れ層から素性を抽出する関数と,多層パーセプトロンである.語句を直接に素性として用いるのではなく,文全体を双方向LSTMを利用して処理した各語句の分散表現を素性として用いることに特徴がある.本論文では,\citeA{kiperwasser2016}の手法を発展させ,双方向LSTMによる文全体の情報抽出を利用して,単純かつ大域的な素性を利用した統合構文解析モデルを提案する.\citeA{kiperwasser2016}の手法は,入力が単語分割されていることを前提としている.したがって,中国語の統合構文解析に応用するに際し,単語分割が施されていない入力に,どのように双方向LSTMを利用するかが問題となる.文字に対する単純な双方向LSTMのみを使用した場合,文字列としての意味を捉えられるとは限らない.そこで本研究では,単純な文字入力の他に,文中に存在するできる限り多くの文字列に対して,分散表現を付与し,その利用を可能にする方法を提案する.図\ref{fig:modellstmnet}のように,入力文中に出現する複数の長さの文字列を捉えるために,$n$文字入力に対応する複数の双方向LSTMを組み合わせる.$n$文字入力に対応する双方向LSTMは文字列$c_i\cdotsc_{i+n-1}$の配列である\[\{c_1\cdotsc_{n},\cdots,c_i\cdotsc_{i+n-1},\cdots,c_{N-n+1}\cdotsc_{N}\}\]を入力とする.ここで,$c_i$は$N$文字からなる文中の$i$番目の文字を表す.また,文終端記号やニューラルネットワークのパディングのための表現は別に与える.具体的には,$n=1$のときは,文字入力の双方向LSTMに対応し,$n=2$のときは連続的な2文字$c_ic_{i+1}$を双方向LSTMの入力とする.こうした$n$文字入力に対応する双方向LSTMは,入力となる文字列の表現を,単語または文字の分散表現もしくは動的に生成される文字列の分散表現として利用する.このように文中に存在する文字列をできる限り利用する手法では,当然ながら,多くの不完全な単語が入力中に生成されてしまう.しかしながら,不完全な単語や文字列であっても,文字列の分散表現を利用することで,双方向LSTMにその構成文字の情報を伝えることが可能となる.\begin{figure}[t]\begin{center}\includegraphics{26-1ia9f3.eps}\end{center}\hangcaption{双方向LSTMによるモデル.$n$-gramに対応する4個の独立した双方向LSTMによって,文全体が$n$文字ずつ処理され,文字の開始位置に応じた4個の隠れ状態が作られる.次にstackやbufferの状態に合わせて,隠れ状態から素性抽出が行われる.なお,素性抽出の際は,単語の開始位置に対応する4個の隠れ状態を結合して用いる.なお,本図においては,4素性モデルに対応する4個の素性を図示した.8素性モデルにおいて使用される,stackの子供の単語に関する4個の素性については,図示していない.}\label{fig:modellstmnet}\end{figure}このようにして生成された文中の文字列の双方向LSTMによる表現を,buffer及びstack内部の単語や文字列の表現として利用する.ただし,ここでは,文字$c_i$から開始する複数の文字列$c_i,c_ic_{i+1},\cdots,c_{i+n-1}$について,その双方向LSTMによる表現を連結したベクトル\[\left[v(c_i),v(c_ic_{i+1}),\cdots,v(c_{i+n-1})\right]\]を,文字$c_i$から開始される文字列の素性の表現ベクトルとして利用する.双方向LSTMを利用するモデルの素性は表\ref{table:featureslstm}にまとめられる.最後に多層パーセプトロンおよびsoftmax関数により,統合構文解析に用いられる遷移確率が予測される.\begin{table}[t]\caption{双方向LSTMを用いたモデルに使用される素性}\label{table:featureslstm}\input{09table03.tex}\vspace{4pt}\small構文解析を行う際のstackとbufferのみの非常に基本的な素性が4素性モデルであり,stackの子供の単語に関する4個の素性を加えたのが8素性モデルである.素性に使用されている記号については,表\ref{table:features}と同一である.\end{table}双方向LSTMを使用するモデルについては,多層パーセプトロンには3層の重み行列を持つものを用いた.このニューラルネットワークについては,貪欲法による学習を適用した.\subsection{係り受けラベルの推定モデル}\label{sec:modellabeler}本論文では係り受け解析のラベルの推定モデルを提案する.このモデルは,先程までのモデルとは独立に,入力文の単語列,品詞タグおよびラベルなしの係り受け解析結果を入力にとる.モデル本体は,入力単語列と品詞タグを処理する一層の双方向LSTMと,係り受けのある各単語ペアごとにラベルを推定するフィードフォワードニューラルネットワークからなる(図\ref{fig:modellabeler}).前節までのモデルと同様にUNKに起因する問題を回避するため,このモデルは,入力単語を,単語,文字および文字列の分散表現を利用して,入力単語列の分散表現を得る.また,品詞タグも分散表現に変換し,入力単語列の分散表現と連結した上で,双方向LSTMへの入力とする.双方向LSTMの出力から係り受け元と係り受け先の単語の分散表現を抽出し,2層フィードフォワードニューラルネットワークの入力とする.2層フィードフォワードニューラルネットワークの最終層にあるsoftmax関数が係り受けのラベルの予測分布を出力する.\begin{figure}[t]\begin{center}\includegraphics{26-1ia9f4.eps}\end{center}\hangcaption{双方向LSTMによる係り受け解析結果へのラベル付けモデル.係り受けのある単語対について,係り受けラベルを推測する.}\label{fig:modellabeler}\end{figure}
\section{実験}
\subsection{実験設定}\label{sec:exp_setting}実験には,中国語の構文解析データセットである,PennChineseTreebank5.1(CTB-5)およびPennChineseTreebank7(CTB-7)を利用した.データセットの分割には,標準的に用いられているCTB-5の分割\cite{jiang2008ctb5}およびCTB-7の分割\cite{wang2011ctb7}を使用した.オリジナルのCTBデータセットには,係り受け解析の結果は含まれていない.そこで,Penn2Malt\footnote{https://stp.lingfil.uu.se/~nivre/research/Penn2Malt.html}を使用して係り受け解析の形式に変換した.データセットの統計を表\ref{table:ctb5stat}に示す.\begin{table}[t]\caption{PennChineseTreebankデータセットの統計}\label{table:ctb5stat}\input{09table04.tex}\end{table}分散表現の事前学習にはChineseGigawordCorpusを使用した.分散表現の事前学習の具体的な手法は,\ref{sec:modelembedding}節の後半に記載した.本研究では,単語および文字の分散表現事前学習にはword2vecを使用した\cite{mikolov2013word2vec}.事前学習に用いたコーパスの単語分割には,\cite{Shen2016c}のKKNにより行われた.これら単語と文字の同時埋め込み事前学習は,\ref{sec:modelembedding}節にて紹介した方法により行われた.学習済み分散表現のうち,その頻度順の上位100万語を使用した.さらに,CTBデータセットのうち訓練データセットに含まれる未知語については,正規乱数を用いて初期化されたベクトルを使用する.開発データセットおよびテストデータセットについては,このような事前に初期化された分散表現を持たない未知語を持つ.本研究ではラベルなしの係り受け解析をまず実験し,評価した.次に,\ref{sec:labelexp}節にてラベル付きの解析を行った.単語分割や品詞タグ付け,係り受けの評価には,\citeA{hatori2012}および\citeA{mzhang2014}にしたがって,F1測定による標準的な単語単位での評価を行った.この設定では,正しく分割されていない単語に対しては,品詞タグと係り受け解析の結果も正しいとはみなされない.\citeA{hatori2012}と同様に,句読点への係り受けは評価の対象とはしない.本研究ではSegTag,SegTagDepおよびDepの3種類のモデルを用いて実験を行った.SegTagは単語分割と品詞タグ付けの統合モデルである.SegTagモデルにて使用される遷移操作は\ref{sec:transition}節にて,使用される素性は,\ref{sec:features}節の末尾にて解説している.SegTagDepは単語分割・品詞タグ付けおよび係り受け解析の統合モデルであり,Depは係り受け解析のモデルである.Depモデルは\citeA{weiss2015}および\citeA{andor2016}に類似し,また使用される素性の種類は\citeA{dchen2014}と同様であるが,素性の入力方法には,\ref{sec:modelembedding}節にて解説した文字列の分散表現を利用している.これにより,単語分割の誤りや未知語などがDepモデルの入力に含まれていても,Depモデルは,文字表現からある程度はその入力を捉えることが期待される.この効果は後ほど検証する.この論文における実験の多くはGPUを用いて行われたが,ビームを用いた学習の一部は,大きなミニバッチを使用していたために,GPUメモリに乗せることができず,CPU上で行われた.ニューラルネットワークの実装にはTheanoを用いた.\subsection{結果}\subsubsection{単語分割と品詞タグ付けの統合モデル}最初に,単語分割と品詞タグ付けの統合モデル(SegTag)について実験し,評価した.このモデルにて使用される遷移操作は\ref{sec:transition}節にて,使用される素性は,\ref{sec:features}節の末尾にて解説している.表\ref{table:segpos}では,CTB-5データセットを用いて,単語分割と品詞タグ付けの性能を比較した.本研究では提案手法を\citeA{hatori2012}および\citeA{mzhang2014},\citeA{zhangdarwish2015}の3つの異なる関連研究と比較した.ZhangY.らのモデルはZhangM.らのモデルのk-best出力を,再並び替えするモデルである\cite{zhangdarwish2015}.なお,この表における\citeA{hatori2012}の手法のスコアは\citeA{hatori2012}の論文から取得した.本研究での単語分割と品詞タグ付けの統合モデルは,これらの既存手法に対し,その両方で優れた性能を示した.この中には優れた辞書情報を利用する\citeA{hatori2012}のモデルも含まれる.ただし,本研究では,ChineseGigawordCorpusを用いて,単語および文字の分散表現を事前学習しており,CTBデータセットのみを使用している既存手法との比較においては注意を要する.\begin{table}[b]\caption{単語分割と品詞タグ付けの統合モデル}\label{table:segpos}\input{09table05.tex}\vspace{4pt}\smallCTB-5における実験結果.SegTagモデルを,\citeA{hatori2012}および\citeA{mzhang2014},\citeA{zhangdarwish2015}のモデルと比較した.\citeA{hatori2012}のモデルにおける(d)は,辞書を使用したモデルであることを示す.\citeA{mzhang2014}のモデルにおけるEAGはArc-Eagerモデルであることを示す.SegTag(g)は貪欲法を用いて学習されたモデルを,SegTagはビームサーチを用いて学習されたモデルを示す.\end{table}\subsubsection{単語分割・品詞タグ付けおよび係り受け解析の統合モデル}表\ref{table:segposdepresult}は単語分割・品詞タグ付けおよび係り受け解析までをすべて統合して行った場合の結果を示している.特に貪欲法を用いて学習を行った統合モデルであるSegTagDep(g)モデルとビームを用いて学習を行ったSegTagDepモデルの結果を示す.提案手法は単語分割と品詞タグ付けにおいて既存手法を超える性能を発揮した.\citeA{andor2016}によるビームサーチを用いることで係り受け解析のスコアは更に改善されたが,ZhangM.らの手法およびそれを用いるZhangY.らの手法にはわずかに劣る性能を示した.なお,この表における\citeA{hatori2012}の手法のスコアは\citeA{mzhang2014}から取得した.\begin{table}[t]\hangcaption{単語分割・品詞タグ付けおよび係り受け解析の統合モデル(SegTagDep)と単語分割と品詞タグ付けの統合モデルと係り受け解析のパイプラインモデル(SegTag+Dep).}\label{table:segposdepresult}\input{09table06.tex}\vspace{4pt}\smallCTB-5における実験結果.(g)は貪欲法を用いて学習されたことを示す.SegTag+Depモデルにおいては,SegTagとDepの双方でビームを用いて訓練とテストを行っている.なお,\citeA{zhangdarwish2015}は他の構文解析器の結果を再配置し,精度の向上を目指すモデルである.$\ddagger$はSegTagDep(g)モデルに対して対応のあるt検定を行い,$p<0.01$で統計的に有意な改善が見られたことを示す.\end{table}なお,貪欲法によるモデルであるSegTagDep(g)はビームサーチを用いるモデルよりわずかに劣る結果となったが,ビームを用いないことによる解析の速さは一考に値する.\subsubsection{単語分割と品詞タグ付けの統合モデルと係り受け解析のパイプラインモデル}\label{sec:segtag+dep}次にSegTagモデルと依存構造解析のみのモデル(Dep)とのパイプラインモデル(SegTag+Dep)を実験した.簡単のため,SegTagモデルは貪欲法で学習されたのに対し,Depモデルはサイズ4のビームを用いて学習及びテストが行われた.結果を表\ref{table:segposdepresult}のSegTag+Depに示す.同じくビームサーチを使用するモデルであるSegTagDepとSegTag+Depを比較した場合,SegTag+Depは係り受け解析を含めた統合モデルであるSegTagDepよりも係り受け解析および単語分割において優れていた.SegTagDepモデルやSegTag+Depモデルにおける単語分割の誤りは,主に固有表現にて生じている.本論文では,これを詳細に考察する.SegTagDepモデルにて用いられるビームを用いた学習では,\citeA{hatori2012}の{\usefont{T1}{pcr}{m}{n}AP}操作に2倍の配置長を持たせる手法が使われている.これは,単語内部の文字同士の係り受けを考慮していると解釈できる.例えば``\UTFC{8BB0}者''(記者),``\UTFC{5B9E}\UTFC{9A8C}室''(実験室)のような単語においては,前の文字が,順番に後ろの文字に係り受け構造を持つとして,直感的にも理解できる.この解釈では,{\usefont{T1}{pcr}{m}{n}AP}操作は,文字を連結し,かつ単語内の係り受けを解決しているために,2倍の配置長を持つ操作となる.しかし,固有表現においては,先程のような単語内係り受けが存在するとは考えにくい場合がある.例えば,人名である``\UTFC{5362}仁法''は文字同士の係り受けを持たない単語と見なしたほうが自然である.そのような単語に対しては,SegTagDepモデルでは{\usefont{T1}{pcr}{m}{n}SH}遷移を行うことが多くなる.これは\citeA{hatori2012}の{\usefont{T1}{pcr}{m}{n}AP}遷移が文字の結合と単語内係り受けの解決という2つのことをしているとみなした場合に,固有表現には必ずしもそのような内部の係り受けが存在するとは限らないため,やや過剰な配置をもたせていると考えられるためである.そのため,結果的に,SegTag+Depの方がSegTagDepより優れてた単語分割結果となったと考えられる.固有表現について,SegTagDepモデルとSegTag+Depモデルを比較した場合,以下のような差が見られた.``\UTFC{603B}\UTFC{7EDF}~\UTFC{9F9A}保雷~餐叙,''(ゴンバオリ大統領が会食をして,)という句中の``\UTFC{9F9A}保雷~餐叙''に対し,SegTagDepモデルは``\UTFC{9F9A}保雷餐叙''という一単語として固有表現としたのに対し,SegTag+Depモデルは固有表現の``\UTFC{9F9A}保雷''(ゴンバオリ・人名)と動詞の``餐叙''(会食をして)として,正しく単語分割を行った.地名についても,一語の固有表現である``新喀里多尼\UTFC{4E9A}''(ニューカレドニア)や``所\UTFC{7F57}\UTFC{95E8}群\UTFC{5C9B}''(ソロモン諸島)に対して,SegTagDepモデルは過分割を行ったが,SegTag+Depモデルは一語の固有表現として,正しく分割を行った.やや特殊な例としては,``以多明尼加\UTFC{4E3A}例,就在\UTFC{9648}水扁\UTFC{603B}\UTFC{7EDF}造\UTFC{8BBF}前夕,多国新\UTFC{603B}\UTFC{7EDF}\UTFC{9635}\UTFC{8425}主\UTFC{52A8}向媒体透露,中国大\UTFC{9646}将\UTFC{4E3A}多国\UTFC{5174}建大型火力\UTFC{53D1}\UTFC{7535}厂的\UTFC{8BAF}息.''(ドミニカ共和国では,陳水扁総統が訪れる直前に,新大統領陣営は自ら中国大陸により大型の火力発電所が建設されることをメディアに告げた.)という文では,``多国''がドミニカを指し示す固有表現となる.一方で,``多国''は``多''および``国''と二単語にも分割され,この場合は「多くの国」という意味にもなる.このような場合に,SegTagDepでは``多国''を``多''と``国''に分割して出力されたが,SegTag+Depでは「多国」として一語の固有表現として出力された.また,関連研究にて,\citeA{mzhang2014}の提案したSTD(Arc-standard)モデルは,\citeA{hatori2012}の単語分割・品詞タグ付けおよび係り受け解析の統合モデルよりも高性能に動作した.\citeA{mzhang2014}の提案したSTD(Arc-standard)モデルは,まず単語分割を先に行い,その結果を``deque''に格納してから係り受け解析を行うモデルであり,本論文におけるSegTag+Depモデルと類似する.本研究における提案手法においては,加えて,単語と文字の分散表現を利用することで従来法より高性能に単語分割と品詞タグ付けが動作するために,単語分割と品詞タグ付けの結果を先読みすることでDepモデルが最終的に良い結果を出しているものと推測される.\subsubsection{CTB-7における実験}SegTagDepおよびSegTag+Depモデルをより大きなCTB-7データセットにおいても評価した.CTB-7データセットにおける実験においては,4層の隠れ層を持つ多層パーセプトロンが3層のものよりも優れた結果を残した.ただし,CTB-5における実験においては,明確な差異を見出すことができなかった.この違いについては,訓練データセットのサイズの違いによるものと推測される.4層の隠れ層を持つ多層パーセプトロンモデルによる実験結果を表\ref{table:ctb7}に示す.\subsubsection{文字列の分散表現の影響}本研究にて提案する文字列の分散表現がどの程度有効なのかを調べるため,SegTag+Depモデルについて,文字列の分散表現を使用した場合とUNKに対応する分散表現を使用した場合の,性能の変化を調べた.実際の使用条件に近い状況で試験を行うために,SegTagモデルによる単語分割及び品詞タグ付けの解析結果に対し,係り受け解析を行う.係り受け解析には,貪欲法により学習された以下の2つのモデルを試験した.最初のモデルDep(g)は,文字列の分散表現を使用した係り受けモデルである.次のモデルDep(g)-csは,文字列の分散表現を使用せず,文字と単語の分散表現に出現しない未知語に対しては,UNKの分散表現を使用したモデルである.入力素性に対応する分散表現が存在しなかった場合には,従来法であるDep(g)-csモデルはUNKの分散表現を使用するが,Dep(g)は文字列の分散表現を使用する.結果を表\ref{table:sumemb}に示す.なお,簡単のために,ビームを使用しない条件での比較を示す.\begin{table}[b]\caption{SegTagDepとSegTag+Depの実験結果}\label{table:ctb7}\input{09table07.tex}\vspace{4pt}\smallCTB-7における実験結果.なお,貪欲法を用いて訓練されたモデルSegTagDep(g)による結果も同様に示す.SegTag+Depモデルにおいては,SegTagとDepの双方でビームを用いて訓練とテストを行っている.\end{table}\begin{table}[b]\hangcaption{SegTagの解析結果に対し,文字列の分散表現を利用した場合とUNKの分散表現を利用した場合のDep(g)モデルの性能}\label{table:sumemb}\input{09table08.tex}\vspace{4pt}\smallCTB-5における実験結果.``Dep(g)-cs''は,文字列の分散表現を使用せず,文字と単語の分散表現に出現しない未知語に対しては,UNKの分散表現を使用したモデルである.$^{*}$は対応のあるt検定を行ったところ,$p<0.05$で統計的に有意な改善が見られたことを示す.\end{table}この結果から,モデルが未知語に遭遇した場合,単純なUNKの分散表現を利用するよりも,文字列の分散表現を利用したほうが性能が良くなることがわかる.\subsubsection{双方向LSTMを使用したモデル}双方向LSTMを使用したモデルについても,同様に実験を行った.なお,本実験では貪欲法に基づく学習のみを行った\footnote{ビームを用いた学習により性能の向上が見込まれるが,双方向LSTMを使用していることにより,現実的な時間内での訓練及び評価は難しいと判断した.}.双方向LSTMを利用したモデルは,表\ref{table:featureslstm}のように基本的な素性にしか依存しないという利点がある.結果を表\ref{table:globalext}に示す.双方向LSTMを用いたモデルは,従来法と比較してやや悪い性能となったが,非常に基本的な素性のみを使用してこの性能を達成したことは注目に値する.\begin{table}[b]\caption{双方向LSTMを使用するモデル}\label{table:globalext}\input{09table09.tex}\vspace{4pt}\smallCTB-5における実験結果.4素性モデルと8素性モデルは,表\ref{table:featureslstm}における使用素性数と対応する.\end{table}\begin{table}[b]\caption{ラベルなし係り受け解析スコア(UAS)とラベル付き係り受け解析スコア(LAS)}\label{table:labeldep}\input{09table10.tex}\vspace{4pt}\smallCTB-5とCTB-7における実験結果.LASは,UASと同様に単語分割が正しい単語同士の係り受けの場合のみ正解となる.また,引用符や句読点は評価から取り除かれている.\end{table}\subsubsection{係り受けのラベル推定}\label{sec:labelexp}最後に,係り受けのラベル解析モデルを利用することで,ラベルも含めた係り受け解析を行う.CTB-5およびCTB-7に対して,係り受けのラベルの推定を行った.この実験では,ラベルなしの評価では最も優れていたSegTag+Depの解析結果に対し,更にラベル推定を行うことで,各コーパスにおける原文からラベル付係り受け解析を行った際のスコアを測定することを目的とする.係り受け解析のラベルの推定結果を表\ref{table:labeldep}に示す.この係り受けラベルの推定モデルについては,パイプラインもしくは統合モデルによる評価が,\citeA{hatori2012}や\citeA{mzhang2014}などの先行研究では行われておらず,比較の対象とはしなかった.また,上のCTB-5とCTB-7の解析結果について,ラベル付き係り受けのうち,もととなるラベルなしの係り受けが正しい係り受けについてのラベル毎の正解率を集計した.その結果を表\ref{table:labeldep2}に示す.総じて,修飾語(modifier)はスコアが高めとなるが,文内のより大域的な構造である主格(SUB)や目的格(OBJ)については低めとなる傾向が見られた.\begin{table}[t]\caption{ラベルごとの正解率}\label{table:labeldep2}\input{09table11.tex}\vspace{4pt}\smallCTB-5とCTB-7における実験結果.なお,句読点の係り受けである``P''ラベルとROOTへの係り受けである``ROOT''ラベルは除いた.\end{table}
\section{将来研究}
本研究中では,結果として,単語分割,品詞タグ付けおよび係り受け解析の統合モデルよりも,単語分割と品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルの方が,優れた性能を発揮した.これは,係り受け解析の情報を単語分割に活用する際に,どこまで内部的に単語分割を行ってから,係り受けを解析を行うか,という問題と関連する.例えば,\citeA{hatori2012}のモデルでは,単語分割と係り受け解析は同時であると言えるが,\citeA{mzhang2014}のSTDモデルでは,単語分割を3単語分だけ先に行うことにより,係り受け解析の際に,単語の先読みを可能にしている.このような問題に対し,解析文やモデルの状態に応じて,単語の先読みを行うか,係り受け解析を優先して行うかを判断するモデルを作成することができれば,非常に有用な統合構文解析器となるだろう.この他,本論文では,最後に係り受けのラベル推定を行ったが,この係り受けラベル推定モデルも含めて係り受け解析を行うモデルも考えられる.このようにすることで,係り受けのラベルの種類に関する情報が係り受け解析や,品詞タグ付けなどの精度に良い影響を及ぼしうるため,これは有望な研究となりえるだろう.最後に,双方向LSTMによる文中の単語表現は,例えば,近年提案されたELMoのように,非常に柔軟かつ強力な手法である\cite{elmo2018}.しかしながら,今回の研究で速度およびGPUメモリの制約により,双方向LSTMを用いるモデルとビーム探索を併用することが出来なかったように,中国語の統合解析への双方向LSTMの使用は,あまり容易なことではない.これは,主に,中国語の統合構文解析では,解析が進むに連れて,文字ばかりでなく解析済みの単語の情報を利用することが重要となるからである.解析のステップごとに,解析済みの単語を用いて双方向LSTMを再計算する手法は,計算コストがかなり大きいと言える.この問題点が解決されれば,この手法を用いて世界最高性能を達成するモデルを作成しうると考えられる.
\section{結論}
本論文では,中国語の統合構文解析を行う2つのモデルを提案した.1つ目は素性とフィードフォワードニューラルネットワークに基づくモデルであり,2つ目は双方向LSTMを使用したニューラルネットワークに基づくモデルである.そのいずれにおいても,文字列の分散表現を使用することで,UNKに相当する分散表現を用いることを避け,不完全な語句であっても,その構成する文字の分散表現から文字列同士の分散表現を得ることが可能となる.結果として,単語分割,品詞タグ付けおよび係り受け解析の統合モデルは,中国の単語分割と品詞タグ付けにおいて既存の統合解析手法よりも優れた性能を発揮した.しかし,係り受け解析については,既存手法と比較可能,もしくはやや劣る性能にとどまった.そこで,さらに,単語分割と品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルを実証することで,係り受け解析にても世界最高の性能を達成した.双方向LSTMモデルを使用することで,基本的な素性のみを使用しながら文全体の構造も考慮するモデルも提案した.\acknowledgmentこの論文はACL2017にて発表を行った``NeuralJointModelforTransition-basedChineseSyntacticAnalysis''を和訳し,拡張したものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alberti,Weiss,Coppola,\BBA\Petrov}{Albertiet~al.}{2015}]{alberti2015}Alberti,C.,Weiss,D.,Coppola,G.,\BBA\Petrov,S.\BBOP2015\BBCP.\newblock\BBOQImprovedTransition-BasedParsingandTaggingwithNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1354--1359}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Andor,Alberti,Weiss,Severyn,Presta,Ganchev,Petrov,\BBA\Collins}{Andoret~al.}{2016}]{andor2016}Andor,D.,Alberti,C.,Weiss,D.,Severyn,A.,Presta,A.,Ganchev,K.,Petrov,S.,\BBA\Collins,M.\BBOP2016\BBCP.\newblock\BBOQGloballyNormalizedTransition-BasedNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\2442--2452}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau2014}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1409.0473}.\bibitem[\protect\BCAY{Ballesteros,Dyer,\BBA\Smith}{Ballesteroset~al.}{2015}]{ballesteros2015}Ballesteros,M.,Dyer,C.,\BBA\Smith,N.~A.\BBOP2015\BBCP.\newblock\BBOQImprovedTransition-basedParsingbyModelingCharactersinsteadofWordswithLSTMs.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\349--359}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chen\BBA\Manning}{Chen\BBA\Manning}{2014}]{dchen2014}Chen,D.\BBACOMMA\\BBA\Manning,C.\BBOP2014\BBCP.\newblock\BBOQAFastandAccurateDependencyParserusingNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\740--750}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cross\BBA\Huang}{Cross\BBA\Huang}{2016}]{cross2016}Cross,J.\BBACOMMA\\BBA\Huang,L.\BBOP2016\BBCP.\newblock\BBOQIncrementalParsingwithMinimalFeaturesUsingBi-DirectionalLSTM.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\32--37},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Duchi,Hazan,\BBA\Singer}{Duchiet~al.}{2010}]{duchi2010adagrad}Duchi,J.,Hazan,E.,\BBA\Singer,Y.\BBOP2010\BBCP.\newblock\BBOQAdaptiveSubgradientMethodsforOnlineLearningandStochasticOptimization.\BBCQ.\newblock\BNUM\UCB/EECS-2010-24.\bibitem[\protect\BCAY{Dyer,Ballesteros,Ling,Matthews,\BBA\Smith}{Dyeret~al.}{2015}]{dyer2015}Dyer,C.,Ballesteros,M.,Ling,W.,Matthews,A.,\BBA\Smith,N.~A.\BBOP2015\BBCP.\newblock\BBOQTransition-BasedDependencyParsingwithStackLongShort-TermMemory.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\334--343}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hatori,Matsuzaki,Miyao,\BBA\Tsujii}{Hatoriet~al.}{2011}]{hatori2011}Hatori,J.,Matsuzaki,T.,Miyao,Y.,\BBA\Tsujii,J.\BBOP2011\BBCP.\newblock\BBOQIncrementalJointPOSTaggingandDependencyParsinginChinese.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1216--1224}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Hatori,Matsuzaki,Miyao,\BBA\Tsujii}{Hatoriet~al.}{2012}]{hatori2012}Hatori,J.,Matsuzaki,T.,Miyao,Y.,\BBA\Tsujii,J.\BBOP2012\BBCP.\newblock\BBOQIncrementalJointApproachtoWordSegmentation,POSTagging,andDependencyParsinginChinese.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1045--1053}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hinton,McClelland,\BBA\Rumelhart}{Hintonet~al.}{1986}]{hinton1986}Hinton,G.~E.,McClelland,J.~L.,\BBA\Rumelhart,D.~E.\BBOP1986\BBCP.\newblock\BBOQLearningDistributedRepresentationsofConcepts.\BBCQ\\newblockIn{\BemProceedingsofthe8thAnnualConferenceoftheCognitiveScienceSociety}.\newblockVol.~1,p.~12.\bibitem[\protect\BCAY{Huang\BBA\Sagae}{Huang\BBA\Sagae}{2010}]{huangsagae2010}Huang,L.\BBACOMMA\\BBA\Sagae,K.\BBOP2010\BBCP.\newblock\BBOQDynamicProgrammingforLinear-TimeIncrementalParsing.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1077--1086},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Jiang,Huang,Liu,\BBA\L{\"{u}}}{Jianget~al.}{2008}]{jiang2008ctb5}Jiang,W.,Huang,L.,Liu,Q.,\BBA\L{\"{u}},Y.\BBOP2008\BBCP.\newblock\BBOQACascadedLinearModelforJointChineseWordSegmentationandPart-of-SpeechTagging.\BBCQ\\newblockIn{\BemProceedingsofACL-08:HLT},\mbox{\BPGS\897--904}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{kingma2015adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)}.\bibitem[\protect\BCAY{Kiperwasser\BBA\Goldberg}{Kiperwasser\BBA\Goldberg}{2016}]{kiperwasser2016}Kiperwasser,E.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2016\BBCP.\newblock\BBOQSimpleandAccurateDependencyParsingUsingBidirectionalLSTMFeatureRepresentations.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\313--327}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{mikolov2013word2vec}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ.\bibitem[\protect\BCAY{Nair\BBA\Hinton}{Nair\BBA\Hinton}{2010}]{nair2010relu}Nair,V.\BBACOMMA\\BBA\Hinton,G.~E.\BBOP2010\BBCP.\newblock\BBOQRectifiedLinearUnitsImproveRestrictedBoltzmannMachines.\BBCQ\\newblockIn{\BemProceedingsofthe27thInternationalConferenceonMachineLearning(ICML-10),June21-24,2010,Haifa,Israel},\mbox{\BPGS\807--814}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2004}]{nivre2004arcstand}Nivre,J.\BBOP2004\BBCP.\newblock\BBOQIncrementalityinDeterministicDependencyParsing.\BBCQ\\newblockInKeller,F.,Clark,S.,Crocker,M.,\BBA\Steedman,M.\BEDS,{\BemProceedingsoftheACLWorkshopIncrementalParsing:BringingEngineeringandCognitionTogether},\mbox{\BPGS\50--57}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{elmo2018}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofNAACL}.\bibitem[\protect\BCAY{Shen,Kawahara,\BBA\Kurohashi}{Shenet~al.}{2016a}]{Shen2016a}Shen,M.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2016a\BBCP.\newblock\BBOQChineseWordSegmentationandUnknownWordExtractionbyMiningMaximizedSubstring.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf23}(3),\mbox{\BPGS\235--266}.\bibitem[\protect\BCAY{Shen,Li,Choe,Chu,Kawahara,\BBA\Kurohashi}{Shenet~al.}{2016b}]{Shen2016c}Shen,M.,Li,W.,Choe,H.,Chu,C.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2016b\BBCP.\newblock\BBOQConsistentWordSegmentation,Part-of-SpeechTaggingandDependencyLabellingAnnotationforChineseLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonComputationalLinguistics(COLING2016)},\mbox{\BPGS\298--308},Osaka,Japan.\bibitem[\protect\BCAY{Wang,Kazama,Tsuruoka,Chen,Zhang,\BBA\Torisawa}{Wanget~al.}{2011}]{wang2011ctb7}Wang,Y.,Kazama,J.,Tsuruoka,Y.,Chen,W.,Zhang,Y.,\BBA\Torisawa,K.\BBOP2011\BBCP.\newblock\BBOQImprovingChineseWordSegmentationandPOSTaggingwithSemi-supervisedMethodsUsingLargeAuto-AnalyzedData.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\309--317},ChiangMai,Thailand.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Weiss,Alberti,Collins,\BBA\Petrov}{Weisset~al.}{2015}]{weiss2015}Weiss,D.,Alberti,C.,Collins,M.,\BBA\Petrov,S.\BBOP2015\BBCP.\newblock\BBOQStructuredTrainingforNeuralNetworkTransition-BasedParsing.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\323--333}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhang,Zhang,Che,\BBA\Liu}{Zhanget~al.}{2014}]{mzhang2014}Zhang,M.,Zhang,Y.,Che,W.,\BBA\Liu,T.\BBOP2014\BBCP.\newblock\BBOQCharacter-LevelChineseDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1326--1336}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhang,Li,Barzilay,\BBA\Darwish}{Zhanget~al.}{2015}]{zhangdarwish2015}Zhang,Y.,Li,C.,Barzilay,R.,\BBA\Darwish,K.\BBOP2015\BBCP.\newblock\BBOQRandomizedGreedyInferenceforJointSegmentation,POSTaggingandDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsoftheTwenty-FourthInternationalJointConferenceonArtificialIntelligence},\mbox{\BPGS\42--52}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhang\BBA\Clark}{Zhang\BBA\Clark}{2008}]{zhang-clark2008:EMNLP}Zhang,Y.\BBACOMMA\\BBA\Clark,S.\BBOP2008\BBCP.\newblock\BBOQATaleofTwoParsers:InvestigatingandCombiningGraph-basedandTransition-basedDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\562--571}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhang\BBA\Clark}{Zhang\BBA\Clark}{2010}]{zhang-clark2010}Zhang,Y.\BBACOMMA\\BBA\Clark,S.\BBOP2010\BBCP.\newblock\BBOQAFastDecoderforJointWordSegmentationandPOS-TaggingUsingaSingleDiscriminativeModel.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\843--852}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhou,Zhang,Huang,\BBA\Chen}{Zhouet~al.}{2015}]{hzhou2015}Zhou,H.,Zhang,Y.,Huang,S.,\BBA\Chen,J.\BBOP2015\BBCP.\newblock\BBOQANeuralProbabilisticStructured-PredictionModelforTransition-BasedDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1213--1222}.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{栗田修平}{2013年京都大学理学部物理系卒業.2015年同大学院物理学教室修士課程修了.2015年より京都大学大学院情報学研究科知能情報学専攻博士課程在籍中.2019年同大学院博士取得見込み.深層学習,深層学習を用いた自然言語処理の研究に従事.修士(理学).言語処理学会,ACL,各会員.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\end{biography}\biodate\end{document}
| |
V23N05-03
|
\section{はじめに}
質問応答とは,入力された質問文に対する解答を出力するタスクであり,一般的に文書,Webページ,知識ベースなどの情報源から解答を検索することによって実現される.質問応答はその応答の種類によって,事実型(ファクトイド型)質問応答と非事実型(ノンファクトイド型)質問応答に分類され,本研究では事実型質問応答を取り扱う.近年の事実型質問応答では,様々な話題の質問に解答するために,構造化された大規模な知識ベースを情報源として用いる手法が盛んに研究されている\cite{kiyota2002,tunstall2010,fader2014}.知識ベースは言語によって規模が異なり,言語によっては小規模な知識ベースしか持たない.例えば,Web上に公開されている知識ベースにはFreebase\footnote{https://www.freebase.com/}やDBpedia\footnote{http://wiki.dbpedia.org/}などがあるが,2016年2月現在,英語のみに対応しているFreebaseに収録されているエンティティが約5,870万件,多言語に対応したDBpediaの中で英語で記述されたエンティティが約377万件であるのに対し,DBpediaに含まれる英語以外の言語で記述されたエンティティは1言語あたり最大125万件であり,収録数に大きな差がある.知識ベースの規模は解答可能な質問の数に直結するため,特に言語資源の少ない言語での質問応答では,質問文の言語と異なる言語の情報源を使用する必要がある.このように,質問文と情報源の言語が異なる質問応答を,言語横断質問応答と呼ぶ.こうした言語横断質問応答を実現する手段として,機械翻訳システムを用いて質問文を知識ベースの言語へ翻訳する手法が挙げられる~\cite{shimizu2005,mori2005}.一般的な機械翻訳システムは,人間が高く評価する翻訳を出力することを目的としているが,人間にとって良い翻訳が必ずしも質問応答に適しているとは限らない.Hyodoら~\cite{hyodo2009}は,内容語のみからなる翻訳モデルが通常の翻訳モデルよりも良い性能を示したとしている.また,Riezlerらの提案したResponse-based~online~learningでは,翻訳結果評価関数の重みを学習する際に質問応答の結果を利用することで,言語横断質問応答に成功しやすい翻訳結果を出力する翻訳器を得られることが示されている\cite{riezler2014,haas2015}.{Reponse-based~learningでは学習時に質問応答を実行して正解できたかを確認する必要があるため,質問と正解の大規模な並列コーパスが必要となり,学習にかかる計算コストも大きい.これに対して,質問応答に成功しやすい文の特徴を明らかにすることができれば,質問応答成功率の高い翻訳結果を出力するよう翻訳器を最適化することが可能となり,効率的に言語横断質問応答の精度を向上させることが可能であると考えられる.さらに,質問と正解の並列コーパスではなく,比較的容易に整備できる対訳コーパスを用いて翻訳器を最適化することができるため,より容易に大規模なデータで学習を行うことができると考えられる.}本研究では,どのような翻訳結果が知識ベースを用いた言語横断質問応答に適しているかを明らかにするため,知識ベースを利用する質問応答システムを用いて2つの調査を行う.1つ目の調査では,言語横断質問応答精度に寄与する翻訳結果の特徴を調べ,2つ目の調査では,自動評価尺度を用いて翻訳結果のリランキングを行うことによる質問応答精度の変化を調べる.調査を行うため,異なる特徴を持つ様々な翻訳システムを用いて,言語横断質問応答データセットを作成する(\ref{sec:dataset}節).作成したデータセットに対し,\ref{sec:QAsystem}節に述べる質問応答システムを用いて質問応答を行い,翻訳精度(\ref{sec:MTevalexp}節)と質問応答精度(\ref{sec:QAexp}節)との関係を分析する(\ref{sec:discussion1}節).また,個別の質問応答事例について人手による分析を行い,翻訳結果がどのように質問応答結果に影響するかを考察する(\ref{sec:discussion2}節).さらに,\ref{sec:discussion1}節および\ref{sec:discussion2}節における分析結果から明らかとなった,質問応答精度と高い相関を持つ自動評価尺度を利用して,翻訳$N$ベストの中から翻訳結果を選択することによって,質問応答精度がどのように変化するかを調べる(\ref{sec:nbestselect}節).{このようにして得られる知見は日英という言語対に限られたものとなるため,さらに一般化するために様々な言語対で言語横断質問応答を行い,言語対による影響を調査する({\ref{sec:exp4}}節).}最後に,言語横断質問応答に適した機械翻訳システムを実際に構築する際に有用な知見をまとめ,今後の展望を述べて本論文の結言とする(\ref{sec:conclusion}節).
\section{本調査の概観}
\label{sec:how2research}本論文では2種類の調査を行う.{1つ目は言語横断質問応答に対する翻訳結果の影響に関する調査である.翻訳結果の訳質評価結果と言語横断質問応答精度の関係を求め,その結果からどのような特徴を持つ翻訳結果が言語横断質問応答に適しているかを明らかにする.}2つ目は1つ目の調査結果から,言語横断質問応答に適応した翻訳をできるかについての調査である.{具体的には1つ目の調査で質問応答精度との相関が高かったスコアを用いて翻訳結果のリランキングを行い,質問応答精度がどのように変化するかについて調べる.これにより,質問応答精度との相関が高いスコアを用いた翻訳結果によって質問応答精度を改善できることを確認する.}\subsection{言語横断質問応答精度に影響する翻訳結果の調査}\label{sec:how2exp1}1つ目の調査では,翻訳結果がどのように言語横断質問応答精度に影響を与えるかを調べる.実験の概要を図\ref{fig:how2exp1}に示す.本調査は,以下の手順で行う.\begin{figure}[b]\begin{center}\includegraphics{23-5ia3f1.eps}\end{center}\caption{質問応答精度に影響する翻訳結果の調査実験概要}\label{fig:how2exp1}\end{figure}\begin{description}\item[翻訳を用いたデータセット作成]質問応答に使用されることを前提として作成された英語質問応答データセットを用意し,その質問文を理想的な翻訳結果と仮定する.まず,理想的な英語質問セットを人手で和訳し(図中の「人手翻訳」),日本語質問セットを作成する.続いて,これらの日本語質問セットを,様々な翻訳手法を用いて英訳し(図中の「翻訳手法1〜$n$」),英語質問セットを作成する.\item[翻訳精度測定]作成した英語質問セットについて,複数の評価尺度を用いて翻訳精度の評価を行う(翻訳精度評価システム).この時,参照訳は理想的な英語質問セットに含まれる質問文とする.\item[質問応答精度測定]理想的な英語質問セットと,作成した英語質問セットそれぞれについて,同一の質問応答器による質問応答実験を行い,質問応答精度を測定する.\item[分析]複数の翻訳精度評価尺度それぞれについて,どのような特徴を持つ評価尺度が質問応答精度と高い相関を持つかを調べる.また,質問セット単位ではなく,文単位でも翻訳精度と質問応答精度との相関を分析する.この際,正確な翻訳であっても正解するのが難しいと思われる質問が存在することを考慮するため,理想的な質問文で正解したかどうかで2グループに分けて分析する.さらに,個別の質問応答事例について人手で確認し,どのような翻訳結果が質問応答の結果を変化させるかを考察する.\end{description}\subsection{自動評価尺度を用いた翻訳結果選択による質問応答精度改善}\label{sec:how2exp2}前節に述べた実験により得た知見を元に,できる限り既存の資源・システムを用いて言語横断質問応答精度を向上させる可能性を探る.図\ref{fig:how2exp2}に調査方法の概要を示す.まず,翻訳結果をもっともらしいものから$N$通り出力する$N$ベスト出力を行う.質問応答精度と高い相関を持つ評価尺度を用いて,$N$ベストから翻訳結果を選択することによって質問応答精度の向上が見られれば,そのような評価尺度が高くなるように翻訳結果を選択することで質問応答システムの精度が向上することが期待できる.\begin{figure}[t]\begin{center}\includegraphics{23-5ia3f2.eps}\end{center}\caption{自動評価尺度を用いた翻訳結果選択}\label{fig:how2exp2}\end{figure}
\section{データセット作成}
\label{sec:dataset}本調査では,日英言語横断質問応答を想定した実験を行うため,基本となる英語質問応答セットとそれを和訳した日本語質問応答セット,日本語質問応答セットから翻訳された英語質問応答セットという3種類の質問応答セットを用いた.本節では,これらのデータセットの作成方法について述べる.\subsection{作成手順}基本となる英語質問セットとして,Free917~\cite{cai2013}を用いた.Free917はFreebaseと呼ばれる大規模知識ベースを用いた質問応答のために作成されており,知識ベースを用いた質問応答の研究に広く利用されている~\cite{cai2013,berant2013}.このデータセットは917対の英語質問文と正解で構成され,各正解はFreebaseのクエリの形で与えられている.先行研究~\cite{cai2013}に従い,このデータセットをtrainセット(512対),devセット(129対),testセット(276対)に分割した.以降,この翻訳前のtestセットをORセットと呼ぶ.まず,ORセットに含まれる質問文を和訳し,日本語質問セット(JAセット)とした.和訳は,1名による人手翻訳で行った.なお,今回は日本語の人手翻訳を各セットに対して1通りのみ用意するが,この人手翻訳における微妙なニュアンスが以降の機械翻訳に影響を与える可能性がある.次に,JAセットに含まれる質問文を後述する5種類の翻訳手法によって翻訳し,各英語質問セット(HT,GT,YT,Mo,Tra)を作成した.質問応答セットの一部を表1に示す.\begin{table}[t]\caption{各質問セットに含まれる質問文と正解クエリの例}\label{tb:testSetExample}\input{03table01.txt}\end{table}\subsection{比較した翻訳手法}\label{sec:MTsystems}本節では,質問セット作成で比較のため用いた5種類の翻訳手法について述べる.\begin{description}\item[{人手翻訳}]翻訳業者に日英翻訳を依頼し,質問文の日英翻訳を行った.これによって作成したデータセットをHTセットと呼ぶ.人手による翻訳結果は人間にとってほぼ最良の翻訳であると考えられ,人間が高く評価する翻訳結果が言語横断質問応答にも適しているかを調べるためにHTセットを作成した.\item[商用翻訳システム]Webページを通して利用できる商用翻訳システムであるGoogle翻訳\footnote{https://translate.google.co.jp/,2015年1月アクセス}とYahoo!翻訳\footnote{http://honyaku.yahoo.co.jp/,2015年2月アクセス}を利用して日英翻訳を行った.これらの枠組みや学習に用いられているデータの詳細は公開されていない.Google翻訳の翻訳結果を用いて作成した英語質問応答セットをGTセット,Yahoo!翻訳の翻訳結果を用いて作成したものをYTセットと呼ぶ.これらの機械翻訳システムは商用目的に作成されており,実用的な品質を持つと考えられるため,機械翻訳の精度についての目安となることを期待して使用した.\item[フレーズベース翻訳]統計的機械翻訳で最も代表的なシステムであるMoses(Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,\linebreakConstantin,andHerbst2007)\nocite{moses}を用いて作成されたフレーズベース機械翻訳を用いて質問文を翻訳した.学習には,英辞郎例文\footnote{http://www.eijiro.jp/},京都フリー翻訳タスクのWikipediaデータ\footnote{http://alaginrc.nict.go.jp/WikiCorpus/index.html},田中コーパス\footnote{http://www.edrdg.org/wiki/index.php/Tanaka\_Corpus},日英法令コーパス\footnote{http://www.phontron.com/jaen-law/index-ja.html},青空文庫\footnote{http://www2.nict.go.jp/univ-com/multi\_trans/member/mutiyama/align/index.html},TED講演\footnote{https://wit3.fbk.eu/},BTEC,オープンソース対訳\footnote{http://www2.nict.go.jp/univ-com/multi\_trans/member/mutiyama/manual/index-ja.html}を利用した.また,辞書として英辞郎,WWWJDIC\footnote{http://www.csse.monash.edu.au/~jwb/wwwjdicinf.html\#dicfil\_tag},Wikipediaの言語間リンク\footnote{https://en.wikipedia.org/wiki/Wikipedia:Database\_download}を利用した.合計で,対訳コーパス約255万文,辞書約277万エントリーである.Mosesによる翻訳結果を用いて作成したデータセットをMoセットと呼ぶ.\item[Tree-to-string翻訳]Tree-to-string機械翻訳システムであるTravatar~\cite{travatar}を用いて質問文を英訳した.学習に用いたデータはMosesと同様である.Travatarによる翻訳結果を用いて作成したデータセットをTraセットと呼ぶ.Moセット,Traセットの作成に用いた翻訳器は,翻訳過程に用いられる手法が明らかであり,翻訳過程という観点からの分析に必要であると考え,これらのセットを作成した.\end{description}
\section{質問応答システム}
\label{sec:QAsystem}本研究では,質問応答を行うためにSEMPRE\footnote{http://nlp.stanford.edu/software/sempre/}という質問応答フレームワークを利用した.SEMPREは,大規模知識ベースを利用し,高水準な質問応答精度が示されている~\cite{berant2013}.本節ではSEMPREの動作を述べ,言語横断質問応答に利用する場合に,どのような翻訳が各動作に影響を与えるかを考察する.図\ref{fig:sempre_framework}にSEMPREフレームワークの動作例を示し,その動作についてアライメント,ブリッジング,スコアリングの三段階に分けて説明する.\begin{figure}[b]\begin{center}\includegraphics{23-5ia3f3.eps}\end{center}\caption{SEMPREフレームワークによる質問応答の動作例}\label{fig:sempre_framework}\end{figure}\begin{description}\item[アライメント(Alignment)]アライメントでは,質問文中のフレーズからクエリの一部となるエンティティやプロパティを生成する.このためには,レキシコン(Lexicon)と呼ばれる,自然言語フレーズからエンティティ/プロパティへのマッピングを事前に作成する必要がある.レキシコンは大規模なテキストコーパスと知識ベースを用いて共起情報などを元に作成される.本研究では先行研究\cite{berant2013}に従い,ClueWeb09\footnote{http://www.lemurproject.org/clueweb09.php/}~\cite{clueweb09}と呼ばれるデータセットに含まれる新聞記事のコーパスとFreebaseを用いて作成されたレキシコンを用いた.図\ref{fig:sempre_framework}の例では,{\it``college''}からType.Universityのエンティティが生成され,{\it``Obama''}からBarackObamaのエンティティが生成されている.アライメントに最も影響を及ぼすと考えられる翻訳の要因は,単語の変化である.質問文の中の部分文字列はアライメントにおける論理式の選択に用いられるため,誤って翻訳された単語はアライメントでの失敗を引き起こすと考えられる.\item[ブリッジング(Bridging)]アライメントによって作成されたエンティティ/プロパティの系列について,隣接するエンティティやプロパティを統合し,知識ベースに入力するクエリを生成する.ブリッジングは隣接する論理式から新たな論理式を生成し,統合する動作である.図\ref{fig:sempre_framework}の例では,Type.UniversityとBarackObamaが隣接しており,両者を繋ぐ論理式としてEducationが生成されている.ブリッジングに影響を及ぼすと考えられる翻訳の要因は,語順の変化である.語順が異なるとアライメントで生成される論理式の順序が変化するため,隣接する論理式の組み合わせが変化する.したがって,翻訳結果の語順が誤っていた場合,ブリッジングでの失敗を引き起こすと予想される.\item[スコアリング(Scoring)]アライメントとブリッジングでは,網羅的に組合せを試し,多数のクエリ候補を出力する.スコアリングでは,評価関数に基づいて候補の導出過程を評価し,最も適切な候補を選択する.図\ref{fig:sempre_framework}の例では,Type.University$\sqcap$Education.BarackObamaというクエリ候補のスコアを,「{\it``college''}からType.Universityを生成」し,「{\it``Obama''}からBarackObamaを生成」し,「Educationでブリッジする」という導出過程に対して決定する.質問応答システムの学習では,正解を返すクエリを導出することができた導出過程に高いスコアが付くよう評価関数を最適化する.言語横断質問応答に最適な評価関数は単言語質問応答と異なる可能性があり,翻訳はこの処理にも影響する可能性がある.しかしながら,言語横断質問応答に最適化するよう学習するためには翻訳された学習データセットが必要であり,その作成には大きなコストがかかる.そのため,本論文ではこれに関する調査は行っていない.\end{description}
\section{実験}
\label{sec:experiments}本実験では,言語横断質問応答においてどのような翻訳の要因が質問応答精度に影響を及ぼすかを調査した.そのために,\ref{sec:dataset}節で述べたデータセットと\ref{sec:QAsystem}節で述べた質問応答システムを用い,日本語の質問文を翻訳システムで英語の質問文に変換し,英語の単言語質問応答器によって解答を得るという状況を想定した実験を行った.\subsection{実験1:翻訳された質問セットの訳質評価}\label{sec:MTevalexp}翻訳精度と質問応答精度の関係を調査するため,まず翻訳結果の訳質を評価した.\subsubsection{実験設定}\label{sec:mt_criterion}本実験では,JAセットの質問文から翻訳された5つの英語質問応答セットに含まれる質問文の訳質をいくつかの自動評価尺度および人手評価によって評価した.自動評価尺度の参照訳としては,ORセットの質問文を用いた.これは,JAセットの質問文の理想的な英訳がORセットの質問文であると仮定することに相当する.評価尺度には,4つの訳質自動評価尺度(BLEU+1~\cite{bleu+1},NIST~\cite{nist},RIBES~\cite{ribes},WER~\cite{wer})と,人手による許容性評価(Acceptability)~\cite{goto2013}を用いた.\begin{description}\item[BLEU+1]BLEU+1は,最初に提案された自動評価尺度であるBLEU~\cite{bleu}の拡張(平滑化版)である.BLEUは,参照訳と翻訳仮説との間のn-gram適合率を基準とした評価を行うため,局所的な語順を評価する評価尺度であると言える.短い訳出には参照訳の長さに応じたペナルティを与えることで極端な翻訳に高いスコアを与えないよう設計されている.BLEUはコーパス単位の評価を想定した評価尺度であるが,BLEU+1は平滑化を導入することで文単位での評価でもBLEUと比べて極端な値が出づらくなっている.評価値は0〜1の実数で,参照訳と完全に一致した文の評価は1となる.\item[RIBES]RIBESは単語の順位相関係数に基づいた評価尺度であり,大域的な語順を捉えることができる.その特性から,日英・英日のように大きく異なる文構造の言語対の翻訳評価で人間評価と高い相関が認められている.評価値は0〜1の実数で,参照訳と完全に一致した文の評価は1である.\item[NIST]NISTスコアは,BLEUやBLEU+1と同じくn-gram適合率に基づいた評価尺度であるが,各n-gramに出現頻度に基づいて重み付けをする点でそれらと異なる.低頻度の語ほど大きな重みが与えられ,結果として頻出する機能語よりも低頻度な内容語に重点を置いた評価尺度となる.評価値は正の実数で与えられ,上限が設定されない.本研究では,参照訳と完全に一致した文の評価値で除算することで,0〜1の範囲に正規化した値を用いる.\item[WER]WER(WordErrorRate:単語誤り率)は参照訳と翻訳仮説の編集距離を語数で割ることで得られる尺度で,BLEUやRIBESより厳密に参照訳との語順・単語の一致を評価する.WERは誤り率を表し,低いほどよい翻訳仮説となるため,他の評価尺度と軸向きを揃えるために$1-{WER}$の値を用いた.\item[許容性(Acceptability)]許容性は人間による5段階の評価である.この評価尺度では,意味的に正しくなければ1と評価され,意味理解の容易さ,文法的な正しさ,流暢性によって2から5の評価が行われる.評価値は$1〜5$の整数であるが,他の評価尺度と比率を合わせるため,$0〜1$に正規化した値を用いる.\end{description}\subsubsection{実験結果}JAセットの質問文を入力とし,ORセットの質問文を参照訳とした時の各翻訳結果の評価値を図\ref{fig:mteval}に示す.図\ref{fig:mteval}より,人手翻訳の訳質は全ての評価尺度において機械翻訳のものよりも高いことが読み取れる.次に,GTとYTに着目すると,BLEUとNISTではGTが高く,RIBESと許容性ではYTが高い.これは先行研究~\cite{ribes}と同様の結果となっており,日英翻訳でのRIBESと人手評価による許容性との相関が高いという特性が確認された.また,MoとTraを比べると,Traの翻訳精度が劣っている.通常,日英間の翻訳では,文構造を捉えるTree-to-string翻訳の精度が比較的良くなるとされているが,今回は翻訳対象が質問文であるため,通常と異なる文型に偏っていることと,各入力文がそれほど長くなく構造が単純である傾向があるため,文構造を捉える長所が生かされなかったことなどが原因と考えられる.次節で,このような特性が人間相手ではなく質問応答システムの入力として用いた場合でも同様に現れるかどうかを検証する.\begin{figure}[t]\begin{center}\includegraphics{23-5ia3f4.eps}\end{center}\caption{訳質評価値(平均)}\label{fig:mteval}\vspace{1\Cvs}\end{figure}\subsection{実験2:翻訳された質問セットを用いた質問応答}\label{sec:QAexp}次に,翻訳精度との関係を調査するため,作成したデータセットを用いて質問応答を行い,質問応答精度を測定した.\subsubsection{実験設定}本実験では\ref{sec:QAsystem}節で述べた質問応答フレームワークSEMPREを用いて,\ref{sec:dataset}節で述べた手順で作成した4つの質問セット及びORセットの質問応答実験を行い,各セットの質問応答精度を測定した.レキシコンには,ClueWeb09の新聞記事コーパスとFreebaseから構築されたものを使用した.また,評価関数の学習には,Free917のTrainセットとDevセットを用いた.テストセットとして使用した質問276問のうち12問で,正解論理式をFreebaseに入力した際に出力が得られなかったため,これらを除いた264問の結果を用いて質問応答精度を測定した.\subsubsection{実験結果}\label{sec:QAexpresult}各データセットの質問応答の結果を図\ref{fig:QAaccuracy}に示す.図\ref{fig:QAaccuracy}より,元のセット(ORセット)であっても約53\%の精度に留まっていることがわかる.また,HTセットの精度は機械翻訳で作成した他のデータセットと比較して高いことが読み取れる.しかしながら図\ref{fig:mteval}に示したように高い訳質を持つHTセットであっても,ORセットと比べると質問応答精度は{有意水準5\%で}有意に低いという結果となった(対応有りt検定).{機械翻訳で作成したセットの中では,GTが最も質問応答精度が高く,HTセットの結果との差は有意と言えない結果となった.}また,YTはAcceptabilityにおいてGTを上回るが,質問応答精度はGTより{有意水準5\%で}有意に低かった.これらの結果は,{人間にとって分かりやすい翻訳結果は必ずしも質問応答に適する翻訳結果であるとは限らないことを示唆している}.\ref{sec:discussion1}節,\ref{sec:discussion2}節で,これらの現象について詳細な分析を行う.\subsection{質問応答精度と機械翻訳自動評価尺度の関係}\label{sec:discussion1}質問応答精度に影響を及ぼす翻訳結果の要因をより詳細に分析するため,訳質評価値と質問応答精度の相関を文単位で分析した.まず,図{\ref{fig:QAaccuracy}}に示すように,質問応答用に作成されたデータセット(ORセット)であっても約半数の質問は正解できていない.参照訳で正解できていない質問は翻訳の結果に関わらず正解することが難しいと考え,質問を2つのグループに分けた.「正解グループ」は,ORセットにおいて正解することができた141問の翻訳結果$141\times5=705$問からなるグループであり,「不正解グループ」は残りの123問の翻訳結果$123\times5=615$問からなるグループである.\begin{figure}[t]\begin{center}\includegraphics{23-5ia3f5.eps}\end{center}\caption{各データセットにおける質問応答精度}\label{fig:QAaccuracy}\end{figure}正解グループにおける質問応答精度と訳質評価値の関係を図\ref{fig:result_correct}に示す.このグラフにおいて,棒グラフは評価値に対する質問数の分布を表し,折れ線グラフは評価値に対する正答率の変化を表す.例えば,BLEU+1の値が0.2--0.3の質問は正解グループの内30\%ほどを占め,それらの質問の正答率は35\%程度である.図中の$R^2$は決定係数である.決定係数は,線形回帰における全変動に対する回帰変動の割合を示し,値が1に近いほどよく当てはまる回帰直線であることを示す.この図より,本実験に使用した全ての評価尺度は質問応答精度と相関を持ち,言語横断質問応答において訳質は重要であることを示している.また,質問応答精度はNISTスコアと最も高い決定係数を示した.前述したように,NISTスコアは単語の出現頻度を考慮した尺度であり,機能語よりも内容語を重要視する特徴を持つ.この結果から,内容語が言語横断質問応答において重要な役割を持つことが確認でき,これを考慮した翻訳を行うことで質問応答精度が改善できると考えられる.これは,内容語が\ref{sec:QAsystem}節に述べたアライメントにおける論理式選択において重要であることを考えると自然な結果と言える.また,NISTスコアによってこの影響を自動的に適切に評価できる可能性もこの結果から読み取れる.一方で,人手評価との相関が高かったRIBESは,質問応答精度においては\hl{決定係数}が低いという結果となった.つまり,大域的な語順が言語横断質問応答のための翻訳にはそれほど重要ではない可能性があると言える.これらの結果を合わせると,語順に影響を受けやすいブリッジングよりも,単語の変化に影響を受けやすいアライメントの方が誤りに敏感であると考えられる.Acceptabilityの図に着目すると,1→2と3→4で精度の上昇の幅が大きく,2→3や4→5ではほとんど変化していない.Acceptabilityにおける評価値1は,「重要な情報が欠落しているか,内容が理解できない文」であることを示し,評価値2は「重要な情報が含まれており内容も理解できるが,文法的に誤っており理解が困難な文」であることを表す.このことからも,重要な情報や内容が欠落することは質問応答の精度に大きな影響を与えることがわかる.評価値2と3の差異は「容易に理解できるかどうか」である.この2つの評価値間で質問応答精度が大きく変わらないことは,人間にとっての理解の容易さは,質問応答精度の向上にはそれほど寄与しない可能性を示唆している.評価値3と4の差異は「文法的に正しいかどうか」である.この2つの間でも精度が大きく上昇しており文法が重要な可能性があるが,評価値4と評価された文が少ないため誤差が含まれている可能性もある.この点については後の分析で述べる.評価値4と5の差異は「ネイティブレベルの英語かどうか」である.この間では質問応答精度がほとんど変わらず,評価値5の方が少し下がる傾向が見られた.前述したように評価値4の文が少ないことによる誤差の可能性もあるが,ネイティブに用いられる言い回しが質問応答器にとっては逆効果となっている可能性も考えられる.\begin{figure}[p]\setlength{\captionwidth}{0.44\linewidth}\begin{minipage}[b]{0.44\linewidth}\begin{center}\includegraphics{23-5ia3f6.eps}\end{center}\hangcaption{評価尺度値と質問応答精度の相関(正解グループ)\protect\newline横軸:評価値の範囲\protect\newline棒グラフ(左縦軸):質問数の割合(\%)\protect\newline折れ線(右縦軸):質問応答精度(範囲内平均)}\label{fig:result_correct}\end{minipage}\hfill\begin{minipage}[b]{0.44\linewidth}\begin{center}\includegraphics{23-5ia3f7.eps}\end{center}\hangcaption{評価尺度値と質問応答精度の相関(不正解グループ)\protect\newline横軸:評価値の範囲\protect\newline棒グラフ(左縦軸):質問数の割合(\%)\protect\newline折れ線(右縦軸):質問応答精度(範囲内平均)}\label{fig:result_wrong}\end{minipage}\end{figure}次に,不正解グループにおける訳質評価値と質問応答精度の関係を図\ref{fig:result_wrong}に示す.不正解グループにおいては,\hl{全ての自動評価尺度において正解グループと比較して決定係数が低いという結果となった.}この結果より,参照訳で質問応答器が解答できない問題では,翻訳を改善することで正解率を向上させるのが難しいということが言える.これは,言語横断質問応答のための翻訳器を評価する際の参照訳は質問応答器で正解可能であることが望ましいと言うこともできる.また,質問応答成功率を予測できれば,質問応答成功率が高い文を参照訳として機械翻訳を最適化することでこの問題を軽減できると考えられる.しかし,正解グループ・不正解グループのどちらにおいても,訳質評価尺度の値に対する質問数の分布は似通っており,訳質評価尺度でこの問題を解決することは困難であると考えられる.\subsection{質問応答事例分析}\label{sec:discussion2}本節では,翻訳によって質問応答の結果が変化した例を挙げながら,どのような翻訳結果の要因が影響しているかを考察する.\begin{table}[b]\caption{{内容語の変化による質問応答結果の変化の例}}\label{tb:example.cw}\input{03table02.txt}\end{table}内容語の変化による質問応答結果の変化の例を表{\ref{tb:example.cw}}に示す.{第1列は,各質問文での質問応答が成功したかどうかを表す記号であり,{$\circ$}が成功,{$\times$}が失敗を表す.}表{\ref{tb:example.cw}}の1つ目の例では,{\it``interstate579''}という内容語が翻訳によって様々に変化している({\it``interstatehighway579''},{\it``expressway579''}など).ORとTraの文のみが{\it``interstate579''}というフレーズを含んでおり,これらを入力とした場合のみ正しく答えることができている.出力された論理式を見比べると,不正解であった質問文ではinterstate\_579のエンティティが含まれておらず,別のエンティティに変換されていた.例えば,HTに含まれる{\it``interstatehighway579''}というフレーズはinterstate\_highwayという音楽アルバムのエンティティに変換されていた.2つ目の例も同様に,{\it``librettist''}という内容語が翻訳によって様々に変化し,不正解となっている.ここで,{\it``librettistmagicflute''}という質問文を作成し質問応答を行ったところ正解することができた{が,{\it``whomademagicflute''}では不正解であったことから,{\it``librettist''}が重要な語であることがわかる}.この例でも1つ目の例と同様に,librettistというFreebase内のプロパティと一致する表現を含むことが質問応答の精度に寄与することが示唆される例である.このような例から,内容語が変化することでアライメントが失敗し,{正しいエンティティが生成されないことや誤ったエンティティが生成されること}が重要な問題であること{が確認できる}.{この問題は,正しいエンティティと結びつきやすい内容語の表現を翻訳の過程で考慮することで改善できる可能性がある.}また,これらの結果は本実験で使用した質問応答器の問題であるとも考えられ,言い換えを考慮できる質問応答器を用いることでも改善できる可能性がある.\begin{table}[b]\caption{{質問タイプ語の誤訳による質問応答結果の変化の例}}\label{tb:example.qt}\input{03table03.txt}\end{table}次に,質問タイプを表す語の誤訳が質問応答結果の変化の原因となる例を表{\ref{tb:example.qt}}に示す.1つ目の例では,内容語と考えられる{\it``tv(television)programs''},{\it``dannydevito''}(YTは綴りミスあり),{\it``produce(d)''}の3つは全ての翻訳結果に含まれているが,HT以外は正解できていなかった.正解できた質問文とそれ以外の質問文を比較すると,{\it``howmany''}という質問タイプを表す語を含んでいることが必要である{と考えられる}.{GTやMoの質問文に対する解答を確認したところ,番組名をリストアップして答えており,正解とされる数と同じ数だけ答えていた.この例より,解答の形式を変化させるような質問タイプを示す語を,正確に翻訳する必要があることがわかる.一方で,2つ目の例では,{\it``what''}や{\it``which''}といった語が含まれていないMoの質問文でも正解することができている.この例より,質問タイプを表す語であっても重要度が低いものがあると考えられる.したがって,言語横断質問応答のための翻訳器は,解答の形式を変えるような質問タイプ語の一致を重視することが求められる.}質問タイプを表す語は内容語と異なり頻出するため,NISTスコアのように頻度に基づいて重要度を決めることは難しく,質問応答固有の指標が必要であると考えられる.文法{や語順}に関連する例を表{\ref{tb:example.ms}}に示す.1つ目の例では,YT以外の機械翻訳の結果は文法が整っていないにも関わらず全て正解している.一方,2つ目の例では,ORとHTでは文法が正しいにも関わらず不正解となっている.ORとHTの質問応答の結果を調べると,ベーブルースの打撃成績を出力していた.これは,{\it``baberuth''}と{\it``play''}が隣接しており,ブリッジングの際に結びついたためと考えられる.{これらの例は,少なくともFree917に含まれるような単純な事実型質問においては,語順を正しく捉えることは質問応答精度の向上の観点からは必ずしも重要でないことを示している.ただし,より複雑な事実型質問や,非事実型質問に対して解答する際には,誤った語順の影響が強くなる可能性は否定できない.}\begin{table}[b]\caption{{文法誤りを含む訳による質問応答結果の例}}\label{tb:example.ms}\input{03table04.txt}\end{table}これらの例は,使用した質問応答システムが語順の影響を受けづらいものであったことによる可能性も考えられる.これを明らかにするためには様々な質問応答システムを用いて実験を行うことが必要であるが,それは今後の課題とする.{{\ref{sec:QAexpresult}}節で述べたように,人間にとってわかりやすい翻訳が質問応答にも成功しやすい翻訳とは限らない可能性がある.実際に質問応答の結果を見ると,質問応答の正誤とAcceptabilityの評価が反する例が確認された.その一例を表{\ref{tb:example.QAvsAccept}}に示す.1つ目の例では,{\it``doyou''}というフレーズを含むことによって文章の意味が変わっているためAcceptabilityは1と評価されているが,質問応答では正解できている.この例では内容語は正しく翻訳できており,{\it``doyou''}というフレーズを無視することができたため正解することができたと考えられる.2つ目の例では,主に前置詞の意味の違いによって,GTは2という低い評価が付けられている.一方でYTはGTと比較して意味的に正しく翻訳されており3と評価されているが,質問応答の結果は不正解であった.質問応答の過程を見ると,ORとGTの文からはareasというテーマパークのエリアを示すプロパティが得られたのに対し,YTの文からはareaという面積を示すプロパティが得られていた.このことから,意味的に正しい文であることよりも内容語の表層的な一致がより重要であることがわかる.3つ目の例では,YTは固有名詞である{\it``mannypacquiao''}を{\it``manniepacquiao''}としており,質問応答結果が不正解となっている.人間が固有名詞を判断するときには少々の誤字が含まれていたとしても読み取れることから,YTの文に3という評価値が付けられたと考えられるが,機械による質問応答においては,特に固有名詞中の誤字は重大な問題であることがこの例により示唆される.}\begin{table}[t]\caption{{許容性と質問応答結果が反する例}}\label{tb:example.QAvsAccept}\input{03table05.txt}\end{table}\subsection{実験3:自動評価尺度を用いてリスコアリングされた翻訳結果を用いた質問応答}\label{sec:nbestselect}\ref{sec:discussion1}節,\ref{sec:discussion2}節の分析の結果,質問応答精度と最も高い相関を持つ自動評価尺度はNISTスコアであった.したがって,NISTスコアが高評価となるよう翻訳システムを学習させることで,質問応答に適した翻訳システムとなる可能性がある.そこでまず,多数の翻訳結果からNISTスコアが最も高い翻訳結果を選択することで,質問応答精度が向上するかどうかを調べる.\subsubsection{実験設定}翻訳$N$ベストの内,最もNISTの高い翻訳を使用した時の質問応答精度を調査する.本実験では,翻訳器にMosesとTravatarを用い,$N=100$とした.また,比較のためBLEU+1についても同様の実験を行った.\subsubsection{実験結果}表\ref{table:reordering_result}に実験結果を示す.また,比較のため翻訳システム第一位の結果を用いた場合の精度も表中に示す.表より,翻訳$N$ベストの中から適切な選択を行うことで,質問応答の精度が向上することがわかる.{特にTravatarを用いた言語横断質問応答において,BLEU+1およびNISTスコアを用いて翻訳結果を選択することで,有意水準5\%で統計的有意に質問応答精度が向上している.}また,選択基準にNISTスコアを選んだ場合の正答率は,選択基準にBLEU+1を選んだ時の正答率よりも向上する傾向にある.これらの結果は,{機械翻訳器の最適化によって言語横断質問応答の精度を改善できる可能性を示している.}\begin{table}[t]\caption{翻訳$100$ベスト選択実験結果}\label{table:reordering_result}\input{03table06.txt}\end{table}{本実験で使用した選択手法は,質問応答精度の高い参照訳が必要であり,未知の入力の翻訳結果選択に直接用いることはできない.しかし,質問応答精度と高い相関を持つ評価尺度に基づいて翻訳器を最適化することで,質問応答精度の高い翻訳結果を得ることが可能であると考えられる.}\subsection{{実験4:様々な言語対での翻訳精度と質問応答精度の関係調査}}\label{sec:exp4}{実験1から3では,日英言語横断を行い,訳質と翻訳精度の関係について調査した.次に,日英以外の言語対における言語横断質問応答においても,同様の結果が得られるかどうかを調査する.}\subsubsection{{データセット作成}}{Haasらによって作成されたドイツ語版の{free917}セット~{\cite{haas2015}}を入手し,そのテストセットに含まれる質問文を{Google}翻訳{\footnote{https://translate.google.co.jp/,2016年6月アクセス}}および{Bing}翻訳{\footnote{https://www.bing.com/translator,2016年6月アクセス}}を用いて英訳し,{DE-GT}セットおよび{DE-Bing}セット(独英)を作成した.また,{\ref{sec:dataset}}章に示す手順に従い,ORセットに含まれる質問文を中国語,インドネシア(尼)語,ベトナム(越)語の母語話者に依頼して人手翻訳してもらい,それぞれの言語の質問セットを新たに作成した.次に,これらの3つの質問セットをそれぞれGoogle翻訳およびBing翻訳を用いて英訳し,ZH-GTセット(中英),ID-GTセット(尼英),VI-GTセット(越英),ZH-Bingセット,VI-Bingセット,ID-Bingセットの6つの英語質問セットを作成した.また比較のため,JAセットをBing翻訳を用いて英訳し,JA-Bingセット(日英)を作成した.}\subsubsection{{訳質評価と質問応答精度の関係}}{作成した9つの質問セットを用いて,{\ref{sec:QAsystem}}章に示す質問応答システムによる質問応答を行い,質問応答精度を評価した.その結果を図{\ref{fig:MltLngQAacc}}に示す.比較のため,同翻訳手法を用いた日英の質問セット(JA-GT)での結果を合わせて示す.図より,どの言語対においても,翻訳による質問応答精度の低下は起こっており,その影響を緩和するような翻訳結果を得ることは重要であると言える.また,中英セットと越英セットの質問応答精度が他と比較して低いことから,同じ翻訳手法を用いても言語対によって影響に差があることがわかる.}\begin{figure}[b]\begin{center}\includegraphics{23-5ia3f8.eps}\end{center}\caption{{様々な言語対における質問応答精度}}\label{fig:MltLngQAacc}\end{figure}{次に,{\ref{sec:mt_criterion}}節に示す評価尺度の内,許容性評価を除く4つの評価尺度を用いて,前節で作成した9つの質問セットの訳質を評価した.また各質問セットについて,{\ref{sec:discussion1}}節と同様に参照訳での質問応答が正解できているかどうかで2つのグループに分け,各グループ内での各評価尺度と質問応答精度との相関を測定した.ただし本実験では,評価値の範囲で平均するのではなく,各文の評価値と質問応答結果(完全正解で1,完全不正解で0)を直接使用した.表{\ref{tb:exp4result}},表{\ref{tb:exp4resultBing}}に示す結果より,どの言語対においても不正解グループの決定係数は正解グループに比べて小さく,無相関に近いことがわかる.正解グループの決定係数も最大0.200となっており図{\ref{fig:result_correct}}の値と比べると小さいが,これはほぼ2値で表現される質問応答結果と連続値で表される評価尺度の間で相関を計算したことが原因であると考えられる.まず,全言語対の結果をまとめて計算した時(表中の右端の列),最も相関が高い評価尺度はNISTスコアであり,本実験で使用したどの言語対においても内容語の表層の一致が重要であることがうかがえる.各言語対の正解グループの決定係数に着目すると,日英と中英では似た傾向がある一方で,尼英では1-WERが最大の決定係数を持っており,言語対によっては異なった特徴が現れている.また独英では,他言語対と比べてNISTスコアとBLEU+1の差が大きく,両評価尺度の差である内容語の一致が特に重要であることが予想できる.このことから,全体としてNISTスコアが質問応答精度と強く相関するが,言語対の特徴を考慮することでより強い相関を持った尺度を得ることができると考えられる.しかしながら,言語対によって異なる特徴については,現段階では詳細に至るまで分析できておらず,今後さらなる分析が必要とされる.}\begin{table}[t]\caption{評価尺度と質問応答精度との決定係数(GT)(太字は正解グループ内の最大値)}\label{tb:exp4result}\input{03table07.txt}\end{table}\begin{table}[t]\caption{評価尺度と質問応答精度との決定係数(Bing)(太字は正解グループ内の最大値)}\label{tb:exp4resultBing}\input{03table08.txt}\end{table}
\section{まとめ}
\label{sec:conclusion}本研究では,言語横断質問応答システムの精度を向上させるため,翻訳結果が質問応答の結果に与える影響を調査した.具体的には,翻訳精度評価({\ref{sec:MTevalexp}}節)と言語横断質問応答精度の評価({\ref{sec:QAexp}}節)を行い,両者の関係を分析した({\ref{sec:discussion1}}節).その結果,内容語の一致を重視するNISTスコアが質問応答精度と高い相関を持つことがわかった.これは質問応答において内容語が重要であるという直感にも合致する結果である.一方で,人手評価がNISTスコアやBLEU+1といった自動評価よりも相関が低いこともわかった.この結果より,人間が正しいと評価する翻訳が必ずしも質問応答に適しているとは限らないという知見が得られた.この結果に対して,質問応答結果の事例分析({\ref{sec:discussion2}}節)を行ったところ,以下の2つのことがわかった.1つ目は,人間が正しいと評価した内容語でも質問応答システムが正しく解答できない場合もあり,翻訳結果に含まれる内容語の正しさの評価基準は人間と質問応答システムで必ずしも一致しないということがわかった.2つ目は,質問タイプを表す語の中には,正しい解答を出すために重要な語と重要でない語があることがわかった.具体的には,{\it``howmany''}など解答の形式を変化させる語は正しい翻訳が必須であり,{\it``what''}や{\it``which''}などの語は翻訳結果に含まれていなくても正しく解答することができている例が確認できた.また,NISTスコアに基づいて選択された翻訳結果の質問応答実験({\ref{sec:nbestselect}}節)により,内容語に重点を置いた翻訳結果を使用することで言語横断質問応答精度が改善されることがわかった.この結果から,機械翻訳器の最適化を行うことで,言語横断質問応答の精度を改善できる可能性を示した.最後に,日英以外の言語対における言語横断質問応答実験({\ref{sec:exp4}}節)では,日英以外の3言語対においても日英と同様に内容語を重視する訳質評価尺度が質問応答精度と相関が高い傾向が見られた.このことから,内容語を重視した訳質評価尺度と質問応答精度が高い相関を持つという知見は多くの言語対で見られ,一般性のある知見であることが示された.今後の課題としては,様々な言語対および質問応答システムを用いた言語横断質問応答を行うことでより一般性のある知見を得ることや,質問応答精度と高い相関を持つ評価尺度の作成,そのような尺度を用いて機械翻訳器を最適化することによる質問応答精度の変化を確認することなどが挙げられる.\acknowledgment\vspace{-0.5\Cvs}本研究の一部は,NAISTビッグデータプロジェクトおよびマイクロソフトリサーチCORE連携研究プログラムの活動として行ったものである.また,本研究開発の一部は総務省SCOPE(受付番号152307004)の委託を受けたものである.\vspace{-0.4\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Berant,Chou,Frostig,\BBA\Liang}{Berantet~al.}{2013}]{berant2013}Berant,J.,Chou,A.,Frostig,R.,\BBA\Liang,P.\BBOP2013\BBCP.\newblock\BBOQSemanticParsingonFreebasefromQuestion-AnswerPairs.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\1533--1544}.\bibitem[\protect\BCAY{Cai\BBA\Yates}{Cai\BBA\Yates}{2013}]{cai2013}Cai,Q.\BBACOMMA\\BBA\Yates,A.\BBOP2013\BBCP.\newblock\BBOQLarge-scaleSemanticParsingviaSchemaMatchingandLexiconExtension.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\423--433}.\bibitem[\protect\BCAY{Callan,Hoy,Yoo,\BBA\Zhao}{Callanet~al.}{2009}]{clueweb09}Callan,J.,Hoy,M.,Yoo,C.,\BBA\Zhao,L.\BBOP2009\BBCP.\newblock\BBOQClueweb09Dataset.\BBCQ.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{nist}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationQualityUsingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofHLT},\mbox{\BPGS\138--145}.\bibitem[\protect\BCAY{Fader,Zettlemoyer,\BBA\Etzioni}{Faderet~al.}{2014}]{fader2014}Fader,A.,Zettlemoyer,L.,\BBA\Etzioni,O.\BBOP2014\BBCP.\newblock\BBOQOpenQuestionAnsweringoverCuratedandExtractedKnowledgeBases.\BBCQ\\newblockIn{\BemProceedingsofACMSIGKDD},\mbox{\BPGS\1156--1165}.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{goto2013}Goto,I.,Chow,K.~P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskatTheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-10},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Haas\BBA\Riezler}{Haas\BBA\Riezler}{2015}]{haas2015}Haas,C.\BBACOMMA\\BBA\Riezler,S.\BBOP2015\BBCP.\newblock\BBOQResponse-basedLearningforMachineTranslationofOpen-domainDatabaseQueries.\BBCQ\\newblockIn{\BemProceedingsofNAACLHLT},\mbox{\BPGS\1339--1344}.\bibitem[\protect\BCAY{Hyodo\BBA\Akiba}{Hyodo\BBA\Akiba}{2009}]{hyodo2009}Hyodo,T.\BBACOMMA\\BBA\Akiba,T.\BBOP2009\BBCP.\newblock\BBOQImprovingTranslationModelforSMT-basedCrossLanguageQuestionAnswering.\BBCQ\\newblockIn{\BemProceedingsofFIT},\lowercase{\BVOL}~8,\mbox{\BPGS\289--292}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{ribes}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\944--952}.\bibitem[\protect\BCAY{Kiyota,Kurohashi,\BBA\Kido}{Kiyotaet~al.}{2002}]{kiyota2002}Kiyota,Y.,Kurohashi,S.,\BBA\Kido,F.\BBOP2002\BBCP.\newblock\BBOQDialogNavigator:AQuestionAnsweringSystembasedonLargeTextKnowledgeBase.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Leusch,Ueffing,\BBA\Ney}{Leuschet~al.}{2003}]{wer}Leusch,G.,Ueffing,N.,\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQANovelString-to-stringDistanceMeasurewithApplicationstoMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofMTSummitIX},\mbox{\BPGS\240--247}.\bibitem[\protect\BCAY{Lin\BBA\Och}{Lin\BBA\Och}{2004}]{bleu+1}Lin,C.-Y.\BBACOMMA\\BBA\Och,F.~J.\BBOP2004\BBCP.\newblock\BBOQORANGE:AMethodforEvaluatingAutomaticEvaluationMetricsforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\501--507}.\bibitem[\protect\BCAY{Mori\BBA\Kawagishi}{Mori\BBA\Kawagishi}{2005}]{mori2005}Mori,T.\BBACOMMA\\BBA\Kawagishi,M.\BBOP2005\BBCP.\newblock\BBOQAMethodofCrossLanguageQuestion-answeringbasedonMachineTranslationandTransliteration.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-5},\mbox{\BPGS\182--189}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Riezler,Simianer,\BBA\Haas}{Riezleret~al.}{2014}]{riezler2014}Riezler,S.,Simianer,P.,\BBA\Haas,C.\BBOP2014\BBCP.\newblock\BBOQResponse-basedLearningforGroundedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\881--891}.\bibitem[\protect\BCAY{Shimizu,Fujii,\BBA\Itou}{Shimizuet~al.}{2005}]{shimizu2005}Shimizu,K.,Fujii,A.,\BBA\Itou,K.\BBOP2005\BBCP.\newblock\BBOQBi-directionalCrossLanguageQuestionAnsweringusingaSingleMonolingualQASystem.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-5},\mbox{\BPGS\455--462}.\bibitem[\protect\BCAY{Tunstall-Pedoe}{Tunstall-Pedoe}{2010}]{tunstall2010}Tunstall-Pedoe,W.\BBOP2010\BBCP.\newblock\BBOQTrueKnowledge:Open-domainQuestionAnsweringUsingStructuredKnowledgeandInference.\BBCQ\\newblock{\BemAIMagazine},{\Bbf31}(3),\mbox{\BPGS\80--92}.\end{thebibliography}\begin{biography}\bioauthor{杉山享志朗}{2014年呉工業高等専門学校機械電気専攻卒業.2016年奈良先端科学技術大学院大学情報科学研究科修士課程修了.同年より,同大学院博士後期課程在学.自然言語処理に関する研究に従事.}\bioauthor{水上雅博}{2012年同志社大学理工学部卒業.2014年奈良先端科学技術大学院大学情報科学研究科修士課程修了.同年より同大学院博士後期課程在学.自然言語処理および音声対話システムに関する研究に従事.人工知能学会,音響学会,言語処理学会各会員.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.同年奈良先端科学技術大学院大学助教.2016年より米国カーネギーメロン大学助教.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{吉野幸一郎}{2009年慶應義塾大学環境情報学部卒業.2011年京都大学大学院情報学研究科修士課程修了.2014年同博士後期課程修了.同年日本学術振興会特別研究員(PD).2015年より奈良先端科学技術大学院大学情報科学研究科特任助教.2016年より同助教.京都大学博士(情報学).音声言語処理および自然言語処理,特に音声対話システムに関する研究に従事.2013年度人工知能学会研究会優秀賞受賞.IEEE,ACL,情報処理学会,言語処理学会各会員.}\bioauthor{鈴木優}{2004年奈良先端科学技術大学博士後期課程修了.博士(工学).現在,奈良先端科学技術大学院大学情報科学研究科特任准教授.情報検索やクラウドソーシングに関する研究開発に従事.情報処理学会,電子情報通信学会,ACM,IEEEComputer各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学博士(工学).シャープ株式会社.奈良先端科学技術大学院大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.IEEESLTC委員,ISCA理事,IEEEフェロー.}\end{biography}\biodate\end{document}
| |
V17N01-05
|
\section{はじめに}
\label{Introduction}日本語と英語のように言語構造が著しく異なり,語順変化が大きな言語対において,対訳文をアライメントする際に重要なことは二つある.一つは構文解析や依存構造解析などの言語情報をアライメントに組み込み,語順変化を克服することであり,もう一つはアライメントの手法が1対1の単語対応だけでなく,1対多や多対多などの句対応を生成できることである.これは一方の言語では1語で表現されているものが,他方では2語以上で表現されることが少なくないからである.しかしながら,既存のアライメント手法の多くは文を単純に単語列としてしか扱っておらず\cite{Brown93},句対応は単語対応を行った後にヒューリスティックなルールにより生成するといった方法を取っている\cite{koehn-och-marcu:2003:HLTNAACL}.Quirkら\cite{quirk-menezes-cherry:2005:ACL}やCowanら\cite{cowan-kuucerova-collins:2006:EMNLP}はアライメントに構造情報を統合しようとしたが,前述の単語列アライメントを行った後に用いるに留まっている.単語列アライメント手法そのものの精度が高くないため,このような方法では十分な精度でアライメントが行えるとは言い難い.一方で,アライメントの最初から構造情報を利用する手法もいくつか提案されている.Wata\-nabeら\cite{Watanabe00}やMenezesとRichardson\cite{Menezes01}は構文解析結果を利用したアライメント手法を提案しているが,対応の曖昧性解消の際にヒューリスティックなルールを用いている.YamadaとKnight\cite{yamada_ACL_2001}やGildea\cite{Gildea03}は木構造を利用した確率的なアライメント手法を提案している.これらの手法は一方の文の木構造に対して葉の並べ替え,部分木の挿入・削除といった操作を行って,他方の文構造を再現するものであるが,構文情報の利用が逆に強い制約となってしまい,文構造の再現が難しいことが問題となっている.YamadaとKnightはいったん木構造を崩すことによって,Gildeaは部分木を複製することによってこの問題に対処している.我々はこのような木構造に対する操作は不要であり,依存構造木中の部分木をそのままアライメントすればよいと考えた.またCherryとLin\cite{Cherry03}は原言語側の依存構造木を利用した識別モデルを提案している.しかしながらこの手法はアライメント単位が単語のみであり,一対一対応しか扱えないという欠点がある.phrase-basedSMTでいうところの“句”はただの単語列に過ぎないが,NakazawaとKurohashi\cite{nakazawa:2008:AMTA}は言語的な句をアライメントの最小単位とし,句の依存関係に着目したモデルを提案しているが,そこでは内容語は内容語のみ,機能語は機能語のみにしか対応しないという制約があり,また複数の機能語をひとまとまりに扱っているという問題もあり,これらがしばしば誤ったアライメントを生成している.本論文ではNakazawaとKurohashiの手法の問題点を改善し,単語や句の依存関係に注目した句アライメントモデルを提案する.提案手法のポイントは以下の3つである.\begin{enumerate}\item両言語とも依存構造解析し,アライメントの最初から言語の構造情報を利用する\label{point1}\itemアライメントの最小単位は単語だが,モデル学習時に句となるべき部分を自動的に推定し,句アライメントを行う\label{point2}\item各方向(原言語$\rightarrow$目的言語と目的言語$\rightarrow$原言語)の生成モデルを二つ同時に利用することにより,より高精度なアライメントを行う\label{point3}\end{enumerate}本モデルは二つの依存構造木において,一方の依存構造木で直接の親子関係にある一組の対応について,他方のそれぞれの対応先の依存関係をモデル化しており,単語列アライメントで扱うのが困難な距離の大きな語順変化にも対応することができる.言い替えれば,本モデルは木構造上でのreorderingモデルということができる.また本モデルはヒューリスティックなルールを用いずに,句となるべき部分を自動的に推定することができる.ここでいう句とは必ずしも言語的な句である必要はなく,任意の単語のまとまりである.ただし,Phrase-basedSMTにおける句の定義との重要な違いは,我々は木構造を扱っており,単語列としては連続でなくても,木構造上で連続ならば句として扱っているという点である.また我々のモデルはIBMモデルのような各方向の生成モデルを両方向分同時に用いてアライメントを行う.これはアライメントの良さを両方向から判断する方が自然であり,Liangら\cite{liang-taskar-klein:2006:HLT-NAACL06-Main}による報告にもあるように,そうした方が精度よいアライメントが行えるからである.ただし,Liangらの手法がIBMモデルと同様に単語列を扱うものであるのに対し,提案手法は木構造を扱っているという重要な違いがある.またLiangらの手法では部分的に双方向のモデルを結合するに留まっており,アライメントの結果としては各方向それぞれ独立に生成されるが,我々の方法ではただ一つのアライメントを生成するという違いもある.最近の報告では生成モデルよりも識別モデルを用いた方がより高精度なアライメントが行えるという報告がなされているが,学習用にアライメントの正解セットを用意するコストがかかってしまう.そこで我々は教師なしでモデル学習が行える生成モデルを用いた.モデルは2つのステップを経て学習される.Step1では単語翻訳確率を学習し,Step2では句翻訳確率と依存関係確率が推定される.さらにStep2では単語対応が句対応に拡張される.各StepはEMアルゴリズムにより反復的に実行される.次章では我々の提案するアライメントモデルを,IBMモデルと比較しながら定義する.\ref{training}章ではモデルのトレーニングについて説明し,\ref{result}章では提案手法の有効性を示すために行った実験の結果と結果の考察を述べ,最後に結論と今後の課題を述べる.
\section{提案モデル}
以降の説明においては言語対として日本語と英語を用いるが,提案モデルはこの言語対に特別に設計されたものではなく,言語対によらないロバストなものである.提案モデルは依存構造木上で定義されるものであるので,まず対訳文を両言語とも依存構造解析し,単語の依存構造木に変換する.図\ref{fig:word-based-alignment}の一番右に依存構造木の例を示す.単語は上から下に順に並んでおり,文のヘッドとなる単語は最も左側に位置している.アライメントの最小単位はこれら各単語であるが,モデル推定時に複数単語のかたまりを句として自動的に獲得する.これについては\ref{expand_step}章で詳しく述べる.\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f1.eps}\end{center}\caption{単語列アライメントモデルと提案手法との比較}\label{fig:word-based-alignment}\end{figure}\subsection{提案モデル概観}本章では,広く知られており,かつ一般的に用いられている統計的なアライメント手法であるIBMモデルと比較しながら,我々が提案するモデルについて説明する.IBMモデル\cite{Brown93}では,与えられた日本語文$\mathbf{f}$と英語文$\mathbf{e}$からなる対訳文間の最も良いアライメント$\mathbf{\hat{a}}$は以下の式により獲得される:\begin{equation}\label{eq:best}\begin{aligned}[b]\hat{\mathbf{a}}&=\argmax_{\mathbf{a}}p(\mathbf{a}|\mathbf{f},\mathbf{e})\\&=\argmax_{\mathbf{a}}\frac{p(\mathbf{a},\mathbf{f}|\mathbf{e})}{p(\mathbf{f}|\mathbf{e})}\\&=\argmax_{\mathbf{a}}\frac{p(\mathbf{a},\mathbf{f}|\mathbf{e})}{\sum_\mathbf{a}p(\mathbf{a},\mathbf{f}|\mathbf{e})}\\&=\argmax_{\mathbf{a}}p(\mathbf{a},\mathbf{f}|\mathbf{e})\\&=\argmax_{\mathbf{a}}p(\mathbf{f}|\mathbf{a},\mathbf{e})\cdotp(\mathbf{a}|\mathbf{e})\end{aligned}\end{equation}ここで,$p(\mathbf{f}|\mathbf{a},\mathbf{e})$は{\bf語彙確率}(\textit{lexiconprobability})と呼ばれ,$p(\mathbf{a}|\mathbf{e})$は{\bfアライメント確率}(\textit{alignmentprobability})と呼ばれている.$\mathbf{f}$が$n$語($f_1,f_2,...,f_n$)からなり,$\mathbf{e}$が$m$語($e_1,e_2,...,e_m$)とNULL($e_0$)からなるとする.またアライメント$\mathbf{a}$は$\mathbf{f}$の各単語から$\mathbf{e}$の単語への対応を表し,$a_j=i$は$f_j$が$e_i$に対応していることを示すとする.このような条件の下,上記二つの確率は以下のように展開される:{\allowdisplaybreaks\begin{gather}p(\mathbf{f}|\mathbf{a},\mathbf{e})=\prod_{j=1}^{J}p(f_j|e_{a_j})\label{eq:lex}\\p(\mathbf{a}|\mathbf{e})=\prod_{i=1}^{I}p(\Deltaj|e_i)\label{eq:align}\end{gather}}ここで$\Deltaj$は$e_i$に対応する$\mathbf{f}$の単語の相対位置である.式\ref{eq:lex}は単語翻訳確率の積であり,式\ref{eq:align}は相対位置確率の積となっている.ただし,ここで示した式は正確にIBMモデルを記述しているわけではなく,その意図を簡単に示したものである.また図\ref{fig:word-based-alignment}の左側にIBMモデルによるアライメントの例を示す.IBMモデルは方向性があるため,アライメントに制限がある.これを解消するため,両方向による結果を最後に統合して最終的なアライメントとすることが多い\cite{koehn-och-marcu:2003:HLTNAACL}.しかし日英のような言語構造の違いの大きい言語対においては,このような方法では十分な精度でのアライメントは行えない.提案モデルはIBMモデルを3つの点で改善する.一つ目は式\ref{eq:lex}において,単語ではなく句を考慮する.二つ目は式\ref{eq:align}において,文中での単語の位置ではなく,依存関係を考慮する.最後に,提案モデルでは最も良いアライメント$\hat{\mathbf{a}}$を求める際に,片方向のモデルだけでなく,両方向のモデルを同時に利用する.つまり,式\ref{eq:best}を以下のように変更する:\begin{equation}\label{eq:best_proposed}\begin{aligned}[b]\hat{\mathbf{a}}&=\argmax_{\mathbf{a}}p(\mathbf{a}|\mathbf{e},\mathbf{f})^2\\&=\argmax_{\mathbf{a}}p(\mathbf{a},\mathbf{f}|\mathbf{e})\cdotp(\mathbf{a},\mathbf{e}|\mathbf{f})\\&=\argmax_{\mathbf{a}}p(\mathbf{f}|\mathbf{a},\mathbf{e})\cdotp(\mathbf{a}|\mathbf{e})\cdotp(\mathbf{e}|\mathbf{a},\mathbf{f})\cdotp(\mathbf{a}|\mathbf{f})\end{aligned}\end{equation}我々のモデルでは句を扱っているため,上式を素直に計算できる.また式の上ではIBMモデルと同じ解が得られるはずであるが,それぞれの確率を近似するため,両方向を考慮した方がよりよい解が得られる.図\ref{fig:word-based-alignment}の一番右に提案モデルによるアライメント例を示す.従来手法のアライメントと比べると,多対多対応が自然と獲得されていることがわかる.提案モデルはEMアルゴリズムにより学習される\cite{liang-taskar-klein:2006:HLT-NAACL06-Main}.目的関数として,与えられたデータに対する尤度を考える:\begin{equation}\begin{aligned}[b]\sum_{(\mathbf{e},\mathbf{f})}\logp(\mathbf{e},\mathbf{f})&=\sum_{(\mathbf{e},\mathbf{f})}\left(\log\sum_{\mathbf{a}}p(\mathbf{a},\mathbf{e},\mathbf{f})\right)\\&=\sum_{(\mathbf{e},\mathbf{f})}\left(\log\sum_{\mathbf{a}}\sqrt{p(\mathbf{a},\mathbf{e},\mathbf{f})^2}\right)\\&=\sum_{(\mathbf{e},\mathbf{f})}\left(\log\sum_{\mathbf{a}}\sqrt{p(\mathbf{a},\mathbf{e}|\mathbf{f})\cdotp(\mathbf{f})\cdotp(\mathbf{a},\mathbf{f}|\mathbf{e})\cdotp(\mathbf{e})}\right)\end{aligned}\end{equation}この尤度を最大化するようなパラメータ$\theta$を求める.$\theta$は各方向のモデルにおけるパラメータをまとめたものとする.E-stepでは現在のパラメータ$\theta$の下でのアライメントの事後確率を以下のように計算する:\begin{equation}\begin{aligned}[b]q(\mathbf{a};\mathbf{e},\mathbf{f})&:=p(\mathbf{a}|\mathbf{e},\mathbf{f};\theta)\\&=\frac{p(\mathbf{a},\mathbf{e},\mathbf{f};\theta)}{\sum_{\mathbf{a}}p(\mathbf{a},\mathbf{e},\mathbf{f};\theta)}\\[0.5em]&=\frac{\sqrt{p(\mathbf{a},\mathbf{e}|\mathbf{f};\theta)\cdotp(\mathbf{f})\cdotp(\mathbf{a},\mathbf{f}|\mathbf{e};\theta)\cdotp(\mathbf{e})}}{\sum_{\mathbf{a}}\sqrt{p(\mathbf{a},\mathbf{e}|\mathbf{f};\theta)\cdotp(\mathbf{f})\cdotp(\mathbf{a},\mathbf{f}|\mathbf{e};\theta)\cdotp(\mathbf{e})}}\end{aligned}\end{equation}M-stepではパラメータの更新を行う:\begin{equation}\theta':=\argmax_{\theta}\sum_{\mathbf{a},\mathbf{e},\mathbf{f}}q(\mathbf{a};\mathbf{e},\mathbf{f})\logp(\mathbf{a},\mathbf{e},\mathbf{f};\theta)\end{equation}次節以降では,lexiconprobabilitiyとalignmentprobabilitiyを定義する.\subsection{句翻訳確率}$\mathbf{f}$が$N$個の句($F_1,F_2,...,F_N$)からなり,$\mathbf{e}$が$M$個の句($E_1,E_2,...,E_M$)とNULL($E_0$)からなるとする.またアライメント$\mathbf{A^{fe}}$は$f$の各句から$e$の単句への対応を表し,$A_j^{fe}=i$は句$F_j$が句$E_i$に対応していることを示すとする.提案モデルでは,IBMモデルにおける単語翻訳確率$p(f_j|e_i)$の代わりに,{\bf句翻訳確率}$p(F_j|E_i)$を考える.ただし,2語以上からなる句はNULL対応にはならないという制限を加える(その句に含まれる各単語がNULL対応になるものとする).句翻訳確率を用いて,式\ref{eq:lex}を以下のように変更する:\begin{equation}\label{eq:lex_mod}p(\mathbf{f}|\mathbf{a},\mathbf{e})=\prod_{j=1}^{N}p(F_j|E_{A_j^{fe}})\end{equation}ここで,句$F_j$と句$E_i$が対応付いたと仮定すると,この句の対応に寄与する句翻訳確率は,双方向分の句翻訳確率を掛け合わせるため以下のようになる:\begin{equation}\label{eq:phrase_alignment_prob}p(F_j|E_i)\cdotp(E_i|F_j)\end{equation}この確率の積を{\bf句対応確率}と呼ぶことにする.表\ref{tab:sample_prob}の上部に図\ref{fig:word-based-alignment}の例における句対応確率を示す.\subsection{依存関係確率}IBMモデルにおいて,単語の移動,すなわちreorderingモデルは,\pagebreak式\ref{eq:align}に示したように,一つ前の単語のアライメントとの相対位置によって定義されている.これに対し提案モデルでは,単語の文内での位置ではなく,依存関係を考慮する.\begin{table}[t]\caption{各確率の計算例}\label{tab:sample_prob}\input{06table01.txt}\end{table}まず$\mathbf{e}$のある単語$e_p$と,$e_p$に係る単語$e_c$について考え,それらの可能なアライメントのうち,$e_p$が句$E_P$に属し,$e_c$が句$E_C$に属しており,$E_C$が$E_P$に係っているものを考える.このような状況において,$E_P$と$E_C$の$\mathbf{f}$での対応句$F_{A_P^{ef}}$と$F_{A_C^{ef}}$の関係をモデル化したものが依存関係確率である.図\ref{fig:dpnd_prob}に例を示す.日英などのように語順の大きく異なる言語対であっても,文内の単語や句の依存関係は多くの場合保存され,$F_{A_C^{ef}}$が直接$F_{A_P^{ef}}$に係ることが多い.提案モデルはこのような傾向を考慮したものである.直接の親子関係にある2単語が属する2句の対応先の句の関係は$rel(e_p,e_c)$のように記述することにし,これは$e_p$が属する句の対応先の句$F_{A_P^{ef}}$から,$e_c$が属する句の対応先の句$F_{A_C^{ef}}$への経路として定義される.経路は以下のような表記に従って示される:\begin{itemize}\item子ノードへ行く場合は`c'({\itc}hildnode)\item親ノードへ行く場合は`p'({\itp}arentnode)\item2ノード以上離れている場合は,上記二つを並べて表記する\end{itemize}例えば図\ref{fig:word-based-alignment}において,``for''から``photodetector''への経路は`c'となり,``the''から``for''への経路は,2ノード離れているため`p;p'となる.句同士の依存関係を記述する際には,経路上にある全ての句は,2つ以上の単語からなる句も含めて,すべて1つのノードとして扱う.このため,図\ref{fig:word-based-alignment}において``photogate''から``the''への経路は`p;c;c;c'となる.この$rel$を用いて,式\ref{eq:align}を以下のように改善する:\begin{equation}\label{relation_probability}p(\mathbf{a}|\mathbf{e})=\prod_{(e_p,e_c)\inD_{\mathbf{e}\mathchar`-pc}}p_{\mathbf{ef}}(rel(e_p,e_c))\end{equation}ここで$D_{\mathbf{e}\mathchar`-pc}$は$\mathbf{e}$の木構造において直接の親子関係にある全ての単語の組み合わせである.また$p_{\mathbf{ef}}(rel(e_p,e_c))$を$\mathbf{e}\rightarrow\mathbf{f}$方向の{\bf依存関係確率}と呼ぶ.$p_{\mathbf{ef}}$は木構造上でのreorderingモデルと考えることができる.\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f2.eps}\end{center}\hangcaption{依存関係の例(親子関係にある$e_p$と$e_c$が属する句$E_P$と$E_C$の対応先の句$F_{A_P^{ef}}$と$F_{A_C^{ef}}$の関係をモデル化する)}\label{fig:dpnd_prob}\end{figure}$rel$にはいくつか特別な値がある.まず$E_C$と$E_P$が同じ場合,つまり,$e_c$と$e_p$が同じ句に属する場合,$rel=\mbox{`SAME'}$となる.次にNULLアライメントに関してだが,これには$e_p$がNULL対応の場合,$e_c$がNULL対応の場合,両方ともNULL対応の場合の3通りがあり,それぞれ$rel$の値は`NULL\_p',`NULL\_c',`NULL\_b'となる.例として表\ref{tab:sample_prob}の下部に図\ref{fig:word-based-alignment}の例における依存関係確率を各方向それぞれ示す.一般的に,構文解析などにおいても,親ノードとの関係だけでなく,さらにその親のノードとの関係を考慮することは自然であり,精度の向上につながる.提案モデルにおいても,直接の親子関係だけでなく,さらにその親ノードとの関係も考慮し,以下のように定式化する:\begin{equation}p(\mathbf{a}|\mathbf{e})=\prod_{(e_p,e_c)\inD_{\mathbf{e}\mathchar`-pc}}p_{\mathbf{ef}\mathchar`-pc}(rel(e_p,e_c))\cdot\prod_{(e_g,e_c)\inD_{\mathbf{e}\mathchar`-gc}}p_{\mathbf{ef}\mathchar`-gc}(rel(e_g,e_c))\end{equation}ここで$D_{\mathbf{e}\mathchar`-gc}$は$\mathbf{e}$の木構造において祖父と子の関係にある全ての単語の組み合わせである.$p_{\mathbf{ef}\mathchar`-pc}$は直接の親子関係にある2単語を見たときの依存関係確率であり,$p_{\mathbf{ef}\mathchar`-gc}$は親の親と子の関係にある2単語の場合の依存関係確率である.なお,逆方向($\mathbf{f}$から$\mathbf{e}$)のモデル$p(\mathbf{a}|\mathbf{f})$も全く同様に定義される.\pagebreak\begin{equation}p(\mathbf{a}|\mathbf{f})=\prod_{(f_p,f_c)\inD_{\mathbf{f}\mathchar`-pc}}p_{\mathbf{fe}\mathchar`-pc}(rel(f_p,f_c))\cdot\prod_{(f_g,f_c)\inD_{\mathbf{f}\mathchar`-gc}}p_{\mathbf{fe}\mathchar`-gc}(rel(f_g,f_c))\end{equation}
\section{トレーニング}
\label{training}提案モデルは2つのステップに分けて学習される.これはIBMモデルにおいて,完全に最適解が求まる簡単なモデルからスタートし,徐々により複雑なモデルに移行することに対応する.Step1では単語翻訳確率の推定が行われ,Step2では句翻訳確率と依存関係確率の推定が行われる.どちらのステップにおいてもモデルはEMアルゴリズムにより学習される.またステップ1においては句は扱わず,全て単語単位での学習となる.複数単語の塊=句はStep2において自動的に獲得される.\subsection{Step1}Step1では各方向独立に,単語翻訳確率を推定する.これはIBMModel1と全く同様の方法により行われる.Step1の推定の際には対応の単位は各ノード単体,つまり単語のみであり,句は考慮しない.句はStep2の推定から考慮し,句となるべき候補を動的に作り出すことにより実現する.これはStep1の段階で可能な句の候補全てを考慮すると,アライメント候補数が爆発し,扱えなくなるためである.$\mathbf{f}$から$\mathbf{e}$へのアライメントを考えると,$\mathbf{f}$の各単語は,他の単語に関係なく,$\mathbf{e}$の任意の単語,またはNULLに対応することができる.このことから,あるひとつの可能なアライメント$\mathbf{a}$の確率は以下のように計算できる:\begin{align}\label{eq:trans_prob}p(\mathbf{a},\mathbf{f}|\mathbf{e})&=p(\mathbf{f}|\mathbf{a},\mathbf{e})\cdotp(\mathbf{a}|\mathbf{e})\\&=\prod_{j=1}^{J}p(f_j|e_{a_j})\cdotC(n,m)\end{align}ここで$p(\mathbf{a}|\mathbf{e})$は全てのアライメントにおいて一定(uniform)であるとし,各文の単語数による関数$C(n,m)$と置く.さらに,全ての可能なアライメントを考慮すると,確率$p(\mathbf{f}|\mathbf{e})$は以下のように計算できる.\begin{equation}\label{eq:all_align_prob}p(\mathbf{f}|\mathbf{e})=\sum_{\mathbf{a}}p(\mathbf{a},\mathbf{f}|\mathbf{e})\end{equation}単語翻訳確率の初期値として一様な確率を与えておき,式\ref{eq:trans_prob}と\ref{eq:all_align_prob}を計算して,正規化したアライメント回数$\frac{p(\mathbf{a},\mathbf{f}|\mathbf{e})}{p(\mathbf{f}|\mathbf{e})}$をアライメント$\mathbf{a}$内の全ての単語対応に与える.次に単語翻訳確率を最尤推定により求める.これを繰り返すことにより,単語翻訳確率を推定する.なおこの計算は効率的に行うことができ,近似することなく最適なパラメータが求められる.反対方向($\mathbf{e}$から$\mathbf{f}$へのモデル)も同様に求めることができる.\subsection{Step2}Step2では句翻訳確率と依存関係確率の両方を推定する.また$\mathbf{f}$から$\mathbf{e}$,$\mathbf{e}$から$\mathbf{f}$の二つのモデルを同時に用いて,一つの方向性のないアライメントを得る.Step1では計算を効率化することにより,近似を用いずにモデルの推定が完全に行えるが,Step2では可能なアライメントを全て考慮することは不可能である.そこで我々は最も良いアライメントを探索するために,まず句翻訳確率のみから初期アライメントを生成し,その後依存関係確率も考慮しつつ,山登り法によってアライメントを徐々に修正するという方法をとる.さらにStep2において新たな句候補の生成を行う.新たな句候補は山登り法によって求められた最も良いアライメントの状態から生成され,次のイタレーションから考慮される.つまり,Step2のイタレーションが進むに連れ,より大きな句の対応を発見することができる.全体として,Step2の1回のイタレーションは,E-stepでの“初期アライメント”の生成と“山登り法”により最適なアライメントの探索,E-stepとM-stepの間での新たな句候補の生成,M-stepでのパラメータの更新の4つの要素からなる.Step2での一回目のイタレーションでは,パラメータの初期値を以下のようにする.一回目のイタレーションにおいては全ての句は1単語からなるため(2単語以上からなる句候補が獲得されていないため)句翻訳確率については,Step1で求めた単語翻訳確率をそのまま用いる.依存関係確率は,Step1の最後のイタレーションで得られた最も良いアライメント結果において依存関係の生起回数を計数し,そこから求めた確率を用いる.\subsection*{初期アライメント(E-step)}\label{initial_align}依存関係確率は用いず,句翻訳確率のみから初期アライメントを生成する.全ての句候補同士の対応(もしくはNULL対応)に対して,句対応確率を式\ref{eq:phrase_alignment_prob}により計算する.これらの中から,句対応確率の相乗平均が高いものから順に,対応として採用する.この際,各単語は1度しか対応付かないようにする.つまりすでに採用されている対応と重なるような対応は採用しない.なお句候補の生成については後で述べる.初期アライメントが生成されたら,その状態でのアライメント確率を計算する.このときから依存関係確率も用い,式\ref{eq:best_proposed}のように計算する.\subsection*{山登り法(E-step)}初期アライメントの状態から,依存関係確率を考慮しながらアライメントを修正し,徐々に確率の高いアライメントを探索していく.修正手段としては以下の4種類を考える.\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f3.eps}\end{center}\caption{山登り法によるアライメントの修正例}\label{fig:hillclimb}\end{figure}\begin{description}\item[Swap:]任意の2つの対応に注目し,それらの対応を入れ替える.例えば図\ref{fig:hillclimb}の最初の操作では,``光$\leftrightarrow$photogate''と``フォトゲート$\leftrightarrow$photodetector''の対応がそれぞれ``光$\leftrightarrow$photodetector''と``フォトゲート$\leftrightarrow$photogate''というように対応が入れ替えられている.\item[Extend:]任意の1つの対応に注目し,そのいずれかの言語における句を,親または子方向に1ノード分だけ拡大する.\item[Add:]NULL対応となっている原言語側及び目的言語側のノード間に,新たに対応を追加する.\item[Reject:]すでにある対応を削除し,それぞれNULL対応とする.\end{description}図\ref{fig:hillclimb}に山登り法によるアライメント修正過程の例を示す.なお図\ref{fig:hillclimb}は1回以上イタレーションを行ったあとの状態である.修正後のアライメント確率が修正前よりも高くなる場合にのみ修正を実行し,修正された状態から再度修正を行っていく.確率が高くなる修正箇所がなくなるまで修正を繰り返し行い,最終的に得られたアライメントが,最も確率の高いアライメントとなる.なお修正の途中で得られたアライメントの状態を,確率の高いものから$n$個保存しておき,仮想的な$n$-bestアライメントとし,パラメータ推定の際に利用する.\subsection*{新たな句候補の生成}\label{expand_step}山登り法により得られた最も良いアライメント結果のうち,NULL対応となった単語に注目する.NULL対応となった語の親,または子の単語がNULL対応でなければ,その単語とNULL対応の単語とをまとめたものを新たに句として獲得し,Step2の次のイタレーションから探索範囲に入れる.例えば図\ref{fig:hillclimb}の最終状態においてNULL対応となっている“素子”は,その子の対応である“受光$\leftrightarrow$photodetector”に含まれ,新たに“受光素子”という句を作りだし,“受光素子$\leftrightarrow$photodetector”という対応があるものと考えるさらに親の対応である“に$\leftrightarrow$for”に含まれ,“素子に”という句もつくり出し,“素子に$\leftrightarrow$for”という対応があるものと考える.これらの新たに考慮される対応には,元の対応の出現期待値(正規化されたアライメントの確率)を分配する.例えば図\ref{fig:hillclimb}のアライメントの正規化された確率を0.7とすると,“受光$\leftrightarrow$photodetector”と“受光素子$\leftrightarrow$photodetector”にそれぞれ0.35ずつ,“に$\leftrightarrow$for”と“素子に$\leftrightarrow$for”にも0.35ずつ出現期待値を与える.このように,NULL対応に注目することにより動的に句となるべきかたまりを獲得していき,モデルの構築を行う.\subsection*{モデル推定(M-step)}一般的なEMアルゴリズムにおいては,得られたn-bestアライメントのそれぞれのアライメント確率を正規化し,各アライメントにおけるパラメータの出現回数をこの正規化された確率値(出現期待値)を用いて計数する.我々もこの方法に従い,全ての対訳文での全てのアライメント結果を集めてパラメータの推定を行う.ただし,正確に全てのアライメントを数え上げることはできないため,山登り法の途中で得られたアライメントのうち,アライメントの確率の高いもの上位$n$個(山登りの回数が$n$に満たない場合はその全て)を用いる.パラメータ推定は各パラメータの出現期待値の総和を全体の回数で正規化することにより行われる.例えば句翻訳確率は以下のような式により推定する:\begin{equation}\label{eq:normal}p(F_j|E_i)=\frac{C(F_j,E_i)}{\sum_{k}C(F_k,E_i)},~~~p(E_i|F_j)=\frac{C(F_j,E_i)}{\sum_{k}C(E_k,F_j)}\end{equation}ここで$C(F_j,E_i)$は$F_j$と$E_i$がアライメントされた回数である.ここまでの処理により,EMアルゴリズムのE-step,M-stepが終了し,再びE-stepに戻る.これを複数回繰り返すことにより,モデルのトレーニングを行う.
\section{アライメント実験}
\label{result}提案手法の有効性を示すためにアライメント実験を行った.トレーニングコーパスとしてJST\footnote{http://www.jst.go.jp/}日英抄録コーパスを用いた.このコーパスは,科学技術振興機構所有の約200万件の日英抄録から,内山・井佐原の方法\cite{utiyama07:_japan_englis_paten_paral_corpus}により,情報通信研究機構\footnote{http://www.nict.go.jp/}が作成したものであり,100万対訳文からなる.このうち475文に人手で正解のアライメントを付与し,正解データとした.ただし,正解データにはSure($S$)アライメントのみが付与されており,Possible($P$)アライメントはない\cite{Och03}.また評価の単位は日本語,英語とも単語とし,適合率・再現率・F値により精度を求めた.日本語文に対しては形態素解析器JUMAN\cite{JUMAN}および依存構造解析器KNP\cite{kawahara-kurohashi:2006:HLT-NAACL06-Main}を用い,英語文に対してはTsuruokaとTsujiiのPOSタガー\cite{Tsuruoka2005}でPOSタグを付与し,MSTパーサ\cite{mstparser}を用いて単語の依存構造木に変換する.またStep2のパラメータ推定の際に用いるアライメントの数は$n=10$とした.実験は2種類行った.一つ目は既存の単語列アライメント手法と比較することによって提案手法の有効性を示すための実験であり,二つ目は依存構造を利用することと,単語より大きな単位である句を扱うことの効果を示すための実験である.全ての実験において,各単語は原形に戻した状態でトレーニングを行った.\subsection{単語列アライメント手法との比較}\label{exp1}\begin{table}[b]\caption{アライメント実験結果(提案手法と単語列アライメント手法との比較)}\label{tab:result}\input{06table02.txt}\end{table}比較実験として,単語列アライメント手法として広く利用されているIBMモデルを実装したアライメントツールであるGIZA++\cite{Och03}を用いてアライメントを行った.各モデルのイタレーション回数などのオプションはデフォルトの設定をそのまま利用した.さらに各方向のアライメント結果を三つの対称化手法により統合した\cite{koehn-och-marcu:2003:HLTNAACL}.結果を表\ref{tab:result}の下部3行に示す.利用した対称化手法は`intersection',`grow-final-and',`grow-diag-final-and'の3つである\cite{Koehn_IWSLT05}.一方,提案手法によるアライメント精度を表\ref{tab:result}の上部に示す.まず`Step1'に示されているのは,Step1のイタレーションを5回行った後に学習されたパラメータ(単語翻訳確率)を用いたアライメントの精度である.なおここでのアライメントは,両方向のパラメータを用いて,\ref{initial_align}章の初期アライメント生成手法と同様にアライメントを生成した結果である.`Step2-X'はStep2の各イタレーション終了時点でのアライメント精度である.`Step2-1'は句翻訳確率は`Step1'のものと同じだが,それに加えて`Step1'のアライメント結果から推定した依存関係確率を用いてアライメントを行っている.つまり,`Step1'と`Step2-1'とを比較することにより,依存関係確率を用いることによるアライメント精度の向上が見て取れる.以後Step2のイタレーションを行い,その都度アライメント精度を計測した.結果として,提案手法では単語列アライメント手法よりもF値で4.9ポイントのアライメント精度向上を達成した(Step2-7とgrow-diag-final-andとの比較による).適合率だけを見ると`intersection'が最もよい値を示しているが再現率が極端に低くなっている.また再現率が最も高いのは`grow-diag-final-and'であるが,同程度の再現率を示している提案手法の結果を見ると,適合率では大きく上回っており,総合的に見て提案手法は単語列アライメント手法よりも優れているということができる.なおF値はStep2-7が最も高い値を示したが,Step2-5から2-7までは大差ないことと,RecallよりもPrecisionが高い方が翻訳での利用を考えた際には有利であり,イタレーションが進むに連れPrecisionが低下していくことを考慮して,Step2-5の結果に注目することにする.次に,機能語に関する簡単なルールを人手により作成し,最終的なアライメント結果の修正を行った.用いたルールは以下の3つである:\begin{itemize}\item英語の冠詞はその係り先のノード(普通は名詞)に併合する\item日本語の助詞と英語の`be'や`have'との間に対応がある場合,それらは棄却する\item日本語の‘する’,‘れる’,英語の`be',`have'がNULLに対応している場合,その係り先の動詞や形容詞のノードに併合する\end{itemize}これらのルールをStep2-5の結果に適用することにより,F値は70.76に向上し,単語列アライメントよりも8.5ポイント高いF値を達成した(表\ref{tab:result}のStep2-5+rule).なお,以後の考察ではルールなしのStep2-5の結果を検討する.\subsection{依存構造と句を扱うことの有効性}\label{exp2}依存構造木を用いることと,単語より大きな句という単位を用いることの有効性を示すための実験を行った.実験の条件として以下の4通りを採用した:\begin{itemize}\item依存構造木と句のどちらも用いる(結果の‘提案手法’)\item依存構造木のみを利用し,句は用いない\item依存構造木は利用せず,句のみを用いる\item依存構造木と句のどちらも利用しない(結果の‘ベースライン’)\end{itemize}なお依存構造木を用いない実験においては,単語の依存関係ではなく相対位置の情報を用いた.例えば原言語側で連続している一組の対応のそれぞれの対応先が前,又は後ろに何単語(もしくは句)離れているかをモデル化した.実験結果を表\ref{tab:effectiveness_result}に示す.全ての実験条件において,示した結果はStep2で5回イタレーションを行った後のアライメント結果での評価である.\begin{table}[t]\hangcaption{依存構造木および句を利用することの効果(Step2での5回のイタレーション後のアライメント精度)}\label{tab:effectiveness_result}\input{06table03.txt}\end{table}この結果から,句を扱うことは再現率の向上につながり,依存構造木を利用することは適合率の向上につながることがわかり,両方を用いることにより,適合率・再現率ともにバランスよく高い精度を達成することができると言える.
\section{考察}
\ref{exp1}章(表\ref{tab:result})から,単純な単語列アライメントモデルと比較して,提案モデルが十分に高精度なアライメントを行えていることがわかる.図\ref{fig:word_align}および図\ref{fig:proposed_align}で二つの手法のアライメント結果の比較を示す.灰色に塗られたマスはアライメントの正解であり,黒い四角(■)がある部分が出力である.図\ref{fig:word_align}は単語列アライメントの結果の例である.文内に“非去勢マウス”と“去勢マウス”,``non-castratedmice''と``castratedmice''というように,同じ語が複数回出現しており,アライメントに曖昧性があるが,単語列アライメントモデルはこの曖昧性解消に失敗している.これは文を単純な単語列として見た場合,曖昧性を持つ語同士が互いに近くに位置しており,さらに曖昧性解消の手がかりとなる“同様に$\leftrightarrow$as”といった対応ともほぼ等距離にあるためである.一方で図\ref{fig:proposed_align}に示すように,提案モデルではこれらの語を正しく対応付けることができており,文を木構造で見た場合の利点が生かされている.例えば英語側の木構造において,``as''に係っているのは``castratedmice''ではなく``non-castratedmice''であり,同様に日本語側の木構造においても,“同様に”に係っているのは“去勢マウス”ではなく“非去勢マウス”である.このような関係から,“非去勢マウス$\leftrightarrow$non-castratedmice”,“去勢マウス$\leftrightarrow$castratedmice”という正しい対応関係が獲得されている.\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f4.eps}\end{center}\caption{単語列アライメントにおける曖昧性解消の失敗例(grow-diag-final-and)}\label{fig:word_align}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f5.eps}\end{center}\caption{提案手法によるアライメント例(曖昧性が正しく解消されている)}\label{fig:proposed_align}\end{figure}\ref{Introduction}章で述べたように,IBMモデルに代表されるような文を単純な単語列として扱う既存の統計的単語列アライメントモデルは,英語とフランス語などのように語順がほぼ同じであり,語順変化がある場合でも局所的である言語対においては十分頑健に働くが,語順が大きく変化する言語対においてはその精度に問題がある.例えば日本語と英語について考えてみると,日本語の文はSOVの語順であるのに対し,英語ではSVOの語順であり,このため語順の変化が大きくなりやすい.このような言語対においては言語の構造情報を利用することが自然であり,また有効であることが本実験により示されている.句を扱うことによる改善例としては,図\ref{fig:result_fail}において単語列アライメントモデルでは“受光素子$\leftrightarrow$photodetector”という句対応の獲得に失敗しているのに対し,図\ref{fig:result_good2}に示すように提案手法では正しく獲得されている.単語レベルでの対応を後から重ね合わせる手法では,どこまでが句となるべきかの境界判定ができないなどの欠点があり,このような句対応を精度良く発見することは難しい.これに対し提案手法ではパラメータの学習と同時に句を獲得することができる上に,木構造を利用しているため,単語列としては連続であっても意味上不連続であり,句となるべきではないといった境界判定が自然に行える.\begin{figure}[b]\begin{center}\includegraphics{17-1ia6f6.eps}\end{center}\caption{単語列アライメントにおける句対応獲得の失敗例(grow-diag-final-and)}\label{fig:result_fail}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{17-1ia6f7.eps}\end{center}\caption{提案手法によるアライメント例(句が正しく獲得されている)}\label{fig:result_good2}\end{figure}表\ref{tab:phrase_dist}に,得られた対応を大きさごとに計数した結果を示す(単語列アライメント手法はgrow-diag-final-and,提案手法はStep2の5回目のイタレーションの結果).なお提案手法ではイタレーションが進むにつれて,1ずつ句の大きさが大きくなる.このため,5回目のイタレーションにおいては日英の句の合計が6の対応が最大となる.結果を見ると,単語列アライメント手法に比べて提案手法では得られた対応の個数がサイズがより大きなものへとシフトしていることが見て取れ,より大きなサイズの対応が獲得されていることがわかる.これが再現率の向上に大きく貢献しているといえる.\begin{table}[b]\caption{得られた対応の大きさの分布}\label{tab:phrase_dist}\input{06table04.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{17-1ia6f8.eps}\end{center}\caption{NULL対応ノード数と平均フレーズサイズの推移}\label{fig:phrase-size}\end{figure}さらにイタレーションごとの各言語のNULL対応ノード数と,平均フレーズサイズの推移を図\ref{fig:phrase-size}に示す.平均フレーズサイズは,例えばある一つの対応に含まれる日本語の単語が$j$語,英語の単語が$i$語ならば$(i+j)/2$とした.ある程度までは平均フレーズサイズは上昇するが,6回目程度からはそれほど大きくは変化しておらず,アライメントが安定していることがわかる.翻訳での利用を考えた場合,適合率は高ければ高いほどもちろん翻訳の精度が向上すると考えられる.しかしながら再現率が低いと,例えばPhrase-basedSMT\cite{koehn-och-marcu:2003:HLTNAACL}やHiero\cite{chiang:2005:ACL}などにおいてはフレーズテーブルのサイズが大きくなりすぎるという問題が起こり,用例ベース翻訳システム\cite{Nakazawa:2008:NTCIR7}においては利用可能な用例の数が減ってしまうなど,再現率もおざなりにはできない.一方で再現率のみが高く,適合率が低くてもやはり質の良い翻訳は行えない.つまり両者のバランスを取り,どちらも向上させることが,翻訳の質の向上につながるはずであり,\ref{exp2}章で示したように,提案手法はこの観点からも有効であると言える.実際に提案手法によるアライメントによって翻訳精度が向上するかの調査は今後の課題である.提案手法におけるアライメント誤りの要因で最も大きいものは,構文解析の誤りによるものである.提案手法は構文解析結果に強く依存しており,構文解析が誤っていると容易にアライメントの誤りにつながってしまう.長期的には各言語の構文解析の精度が向上していくことも十分期待できるが,構文解析結果を修正しつつアライメントすることも考えられる\cite{fraser-wang-schutze:2009:EACL}.また山登り法によるアライメントの探索の際に局所解に陥ってしまうという問題もしばしば見受けられた.これはほとんどの場合,一方の言語で1文内に同じ語や句が複数回出現しているが,他方では省略されて1度しか出現していないなど,出現回数に差がある場合に起こる.初期アライメント生成時には周りのノードとの関係は一切見ていないため,このような省略がある場合にはどちらが正しい対応かを判断することができないため,ランダムにどちらかが選ばれる.このとき運悪く誤った方を選択してしまい,さらにその周囲に誤った対応がいくつかあると,お互いに足を引っ張り合い,局所解に陥ってしまう.このように,提案手法では必ずしも最もよいアライメントが得られるとは限らない.この問題を解決するためには,山登り法の初期値を複数用意しておき,探索を複数回行うといった方法を取ったり,アライメントの探索アルゴリズムをよりよいものに改良する必要があり,例えばBeliefPropagationを利用する\cite{cromieres-kurohashi:2009:EACL}ことなどが考えられる.さらに,機能語をどのように扱うかといった難しい問題も残されている.機能語は明確に対応する語を持たないことがしばしばある.例えば日本語における格助詞などや英語における冠詞などはその典型的な例である.このような語に対しては,アライメントの正解の基準と出力とが整合的でない場合が多く,これがアライメント精度の向上の障害になってしまう.\ref{exp1}章の最後に示したように,提案手法では簡単なルールを用いるだけで大幅な精度の向上を達成できる.これは木構造を利用していることの利点であるといえる.
\section{結論}
本稿では依存関係確率モデルを用いた統計的句アライメント手法を提案した.提案モデルは木構造上でのreorderingモデルということができ,シンプルなモデルながらも言語構造の違いを柔軟に吸収し,精度の高いアライメントを実現できた.実験結果から,語順の大きく異なる言語対に対しては既存の単語列アライメント手法では十分な精度を達成することは困難であり,構文解析などの言語情報を利用することが自然であり,高い効果を示すことが証明された.今回は日本語と英語間のアライメント実験のみしか行わなかったが,同様に語順に大きな違いのある日本語と中国語間での実験などを行い,提案手法が言語対によらずロバストな手法であることを示す必要がある.考察にも述べたとおり,提案手法は依存構造解析に大きく依存しており,依存構造解析誤りが容易にアライメントの誤りにつながってしまう.両言語の解析結果を照らしあわせて,文構造を修正しつつアライメントすることも可能なはずであり,現在検討中である.これが実現できれば,依存構造解析とアライメント双方の精度向上が可能となると考える.アライメントの精度のみを評価したが,この結果が翻訳の精度にどのように影響するかを調査することは今後の課題である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{Brown93}Brown,P.~F.,Pietra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemAssociationforComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Cherry\BBA\Lin}{Cherry\BBA\Lin}{2003}]{Cherry03}Cherry,C.\BBACOMMA\\BBA\Lin,D.\BBOP2003\BBCP.\newblock\BBOQAProbabilityModeltoImproveWordAlignment.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\88--95}.\bibitem[\protect\BCAY{Chiang}{Chiang}{2005}]{chiang:2005:ACL}Chiang,D.\BBOP2005\BBCP.\newblock\BBOQAHierarchicalPhrase-BasedModelforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\263--270}.\bibitem[\protect\BCAY{Cowan,Ku\u{c}erov\'{a},\BBA\Collins}{Cowanet~al.}{2006}]{cowan-kuucerova-collins:2006:EMNLP}Cowan,B.,Ku\u{c}erov\'{a},I.,\BBA\Collins,M.\BBOP2006\BBCP.\newblock\BBOQADiscriminativeModelforTree-to-TreeTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2006Conferenceon{EMNLP}},\mbox{\BPGS\232--241}\Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cromier\`{e}s\BBA\Kurohashi}{Cromier\`{e}s\BBA\Kurohashi}{2009}]{cromieres-kurohashi:2009:EACL}Cromier\`{e}s,F.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2009\BBCP.\newblock\BBOQAnAlignmentAlgorithmUsingBeliefPropagationandaStructure-BasedDistortionModel.\BBCQ\\newblockIn{\BemProceedingsofthe12thConferenceoftheEuropeanChapteroftheACL(EACL2009)},\mbox{\BPGS\166--174}\Athens,Greece.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Fraser,Wang,\BBA\Sch\"{u}tze}{Fraseret~al.}{2009}]{fraser-wang-schutze:2009:EACL}Fraser,A.,Wang,R.,\BBA\Sch\"{u}tze,H.\BBOP2009\BBCP.\newblock\BBOQRichBitextProjectionFeaturesforParseReranking.\BBCQ\\newblockIn{\BemProceedingsofthe12thConferenceoftheEuropeanChapteroftheACL(EACL2009)},\mbox{\BPGS\282--290}\Athens,Greece.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Gildea}{Gildea}{2003}]{Gildea03}Gildea,D.\BBOP2003\BBCP.\newblock\BBOQLooselyTree-basedAlignmentforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingon{ACL}},\mbox{\BPGS\80--87}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara-kurohashi:2006:HLT-NAACL06-Main}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\176--183}.NewYorkCity,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Koehn,Axelrod,Mayne,Callison-Burch,Osborne,\BBA\Talbot}{Koehnet~al.}{2005}]{Koehn_IWSLT05}Koehn,P.,Axelrod,A.,Mayne,A.~B.,Callison-Burch,C.,Osborne,M.,\BBA\Talbot,D.\BBOP2005\BBCP.\newblock\BBOQEdinburghSystemDescriptionforthe2005IWSLTSpeechTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofInternationalWorkshoponSpokenLanguageTranslation2005(IWSLT'05)}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn-och-marcu:2003:HLTNAACL}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemHLT-NAACL2003:MainProceedings},\mbox{\BPGS\127--133}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{JUMAN}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedingsofTheInternationalWorkshoponSharableNaturalLanguage},\mbox{\BPGS\22--28}.\bibitem[\protect\BCAY{Liang,Taskar,\BBA\Klein}{Lianget~al.}{2006}]{liang-taskar-klein:2006:HLT-NAACL06-Main}Liang,P.,Taskar,B.,\BBA\Klein,D.\BBOP2006\BBCP.\newblock\BBOQAlignmentbyAgreement.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\104--111}.NewYorkCity,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{McDonald,Pereira,Ribarov,\BBA\Hajic}{McDonaldet~al.}{2005}]{mstparser}McDonald,R.,Pereira,F.,Ribarov,K.,\BBA\Hajic,J.\BBOP2005\BBCP.\newblock\BBOQNon-ProjectiveDependencyParsingusingSpanningTreeAlgorithms.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologyConferenceandConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\523--530}.Vancouver,BritishColumbia,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Menezes\BBA\Richardson}{Menezes\BBA\Richardson}{2001}]{Menezes01}Menezes,A.\BBACOMMA\\BBA\Richardson,S.~D.\BBOP2001\BBCP.\newblock\BBOQABest-firstAlignmentAlgorithmforAutomaticExtractionofTransferMappingsfromBilingualCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)WorkshoponData-DrivenMachineTranslation},\mbox{\BPGS\39--46}.\bibitem[\protect\BCAY{Nakazawa\BBA\Kurohashi}{Nakazawa\BBA\Kurohashi}{2008a}]{Nakazawa:2008:NTCIR7}Nakazawa,T.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2008a\BBCP.\newblock\BBOQKyoto-U:SyntacticalEBMTSystemforNTCIR-7PatentTranslationTask.\BBCQ\\newblockIn{\BemProceedingsofHLT/EMNLP2005},\mbox{\BPGS\467--474}.\bibitem[\protect\BCAY{Nakazawa\BBA\Kurohashi}{Nakazawa\BBA\Kurohashi}{2008b}]{nakazawa:2008:AMTA}Nakazawa,T.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2008b\BBCP.\newblock\BBOQLinguistically-motivatedTree-basedProbabilisticPhraseAlignment.\BBCQ\\newblockIn{\BemProceedingsoftheEighthConferenceoftheAssociationforMachineTranslationintheAmericas(AMTA2008)}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{Och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemAssociationforComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Quirk,Menezes,\BBA\Cherry}{Quirket~al.}{2005}]{quirk-menezes-cherry:2005:ACL}Quirk,C.,Menezes,A.,\BBA\Cherry,C.\BBOP2005\BBCP.\newblock\BBOQDependencyTreeletTranslation:SyntacticallyInformedPhrasal{SMT}.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\271--279}.\bibitem[\protect\BCAY{Tsuruoka\BBA\Tsujii}{Tsuruoka\BBA\Tsujii}{2005}]{Tsuruoka2005}Tsuruoka,Y.\BBACOMMA\\BBA\Tsujii,J.\BBOP2005\BBCP.\newblock\BBOQBidirectionalInferencewiththeEasiest-FirstStrategyforTaggingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofHLT/EMNLP2005},\mbox{\BPGS\467--474}.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2007}]{utiyama07:_japan_englis_paten_paral_corpus}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQAJapanese-EnglishPatentParallelCorpus.\BBCQ\\newblockIn{\BemMTsummitXI},\mbox{\BPGS\475--482}.\bibitem[\protect\BCAY{Watanabe,Kurohashi,\BBA\Aramaki}{Watanabeet~al.}{2000}]{Watanabe00}Watanabe,H.,Kurohashi,S.,\BBA\Aramaki,E.\BBOP2000\BBCP.\newblock\BBOQFindingStructuralCorrespondencesfromBilingualParsedCorpusforCorpus-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\906--912}.\bibitem[\protect\BCAY{Yamada\BBA\Knight}{Yamada\BBA\Knight}{2001}]{yamada_ACL_2001}Yamada,K.\BBACOMMA\\BBA\Knight,K.\BBOP2001\BBCP.\newblock\BBOQASyntax-basedStatisticalTranslationModel.\BBCQ\\newblockIn{\BemProceedingsof39thAnnualMeetingofthe{ACL}},\mbox{\BPGS\523--530}.\end{thebibliography}\begin{biography}\bioauthor{中澤敏明}{2005年東京大学工学部電子情報工学科卒業.2007年同大学院修士課程修了.2007年京都大学大学院博士後期課程入学.機械翻訳の研究に従事.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年,京都大学大学院情報学研究科教授,現在に至る.}\end{biography}\biodate\end{document}
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.