id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V17N04-01
近年,様々な言語処理タスクにおいて,大量の正解データから学習した統計的言語モデルを解析に用いる教師あり機械学習のアプローチが広く普及している.このアプローチでは,言語の文法的な知識を統計的な特徴量として捉えることができ,形態素解析や固有表現抽出,機械翻訳などの自然言語処理で広く活用されている.本稿では固有表現抽出タスクに焦点をあてる.固有表現抽出は,形態素解析済みの各単語に対して,「どの種類の固有表現か」というタグを付与することにより実現されている.近年では,条件付確率場(ConditionalRandomFields;CRF)\cite{Lafferty:CRF2001,suzuki-mcdermott-isozaki:2006:COLACL}に基づく系列ラベリングが好成績を収めている.しかし,これらの教師あり機械学習に基づく言語処理では,モデルを学習するための正解データを構築するコストが極めて高いことが常に課題となっている.一方,情報検索や情報抽出の分野では,近年ブログなどのConsumerGeneratedMedia(CGM)を対象とした研究も多くなってきている.CGMは,テキストそのものが日々変化してゆくため,新しい語や話題が常に出現するという特徴がある.このような日々変化するテキストにモデルを適応させる確実な方法は,正解の追加データを作成することである.しかし,人手コスト問題のため,迅速に対応させるのは困難であった.これらの人手コストを削減するための従来研究として,能動学習\cite{shen-EtAl:2004:ACL,laws-schutze:2008:PAPERS},半教師あり機械学習\cite{suzuki-isozaki:2008:ACLMain},ブートストラップ型学習\cite{Etzioni2005}などが提案されてきた.能動学習は,膨大なプレーンテキスト集から学習効果の高いデータを取捨選択し,正解は選択されたデータのみに対して人手で付与する手法であり,人手コストを効果的に集中させることに着眼している.そのため,能動学習では学習効果の高いデータ(文)を選択するという,データセレクションが最も重要なポイントとなる\footnote{本来の能動学習では,少ないデータ量で統計モデルの精度を向上させるため,データの取捨選択を行っているが,目的の一つは,大規模正解データで学習したモデルと同等の精度を,少ない作業量で達成するためである.そのため,本稿では,人手作業コストを削減するデータセレクション→人手修正→モデル再学習の一連の手順を能動学習と呼ぶ.}.ここでのデータセレクションの単位は常に文である.一方,もしシステムの解析結果をそのまま正解データとして利用できれば,人手コストは大幅に削減可能である.しかし,現実には解析結果には解析誤りが存在するため,その解析誤りを一つ一つ人手で確認修正する作業が必要である.データセレクションの単位が文である限り,どこに解析誤りが存在するか明白ではないため,全てのタグをチェックする必要がある.しかし,実際には大部分のタグが正解であることが多いため,文全体の全てのタグを確認するコストは無駄が多い.本稿では,タグ単位の事後確率に基づいて算出したタグ信頼度を導入する.この手法では,文単位の信頼度ではなく,各単語に付与されうる全てのタグについてのタグ信頼度を計算する.そしてタグ信頼度に基づいて解析誤りタグを自動的に検出する.自動的に検出された解析誤り箇所だけを人手チェック・修正の対象とすれば,能動学習の学習効率は更に高まる.更に,もし検出された解析誤りを自動的に正解に修正できれば,更に学習コストを削減できる.本稿では,シードとなる正解固有表現リストを利用してブートストラップ的に正解データを収集する半自動自己更新型固有表現抽出を提案する.この手法では,予め人手でシードを準備するだけで,膨大なテキストからシードに存在する固有表現を含む正解データ\footnote{本稿では「正解データ」と呼ぶが,自動で固有表現を認識しているため,実際には少量の誤りも含んだ擬似正解データである.}を自動的に収集し,モデル更新をすることが可能となる.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f1.eps}\end{center}\caption{本稿で提案する学習手法の模式図}\label{fig-overall}\end{figure}本稿で提案する2つの学習手法の模式図を図\ref{fig-overall}に示す.タグ信頼度に基づいて大規模平文データからシステム解析誤りを自動検出し,誤りタグの有無でデータセレクションを実施する.誤りタグを人手で修正する能動学習(\ref{sec-active-learning}章)と,半自動で修正する自己更新型固有表現抽出UpdateNER(\ref{sec-bootstrapping}章)を本稿では提案する.以下,第\ref{sec-ner}章では固有表現抽出タスクについて述べ,第\ref{sec-confidence-measure}章では,今回提案するタグ信頼度について説明する.第\ref{sec-active-learning}章では,タグ信頼度を能動学習に適応したときの効果を示し,第\ref{sec-bootstrapping}章では半自動自己更新型固有表現抽出について説明する.第\ref{sec-related-works}章で関連研究について述べ,第\ref{sec-conclusion}章でまとめる.
V19N04-02
近年,作文技術の習熟度を評定する目的で文章を自動的に評価する技術に対して,需要が高まっている.大学入試や就職試験等の大規模な学力試験において課される小論文試験の採点や,e-learning等の電子的な学習システムにおいて学習者の作文技術についての能力を測るために出題される記述式テストの採点が,例として挙げられる.このような,多数の文章を同一の基準で迅速に評価する必要があるタスクにおいて,対象となる全ての文章を人手で評価することは,多くの場合困難を伴う.第一に,評価に要する時間と労力が問題となる.記述式回答の評価は,選択式回答の評価に比べて,評価者が捉えるべき情報と考慮すべき基準が多く,それらの情報や基準自体も複雑である.第二に,評価基準の安定性が問題となる.文章の良悪を決定する基準は,評価者個々において完全に固定的なものではない.評価する順序による系列的効果や,ある要素についての評価が他要素の特徴に歪められるハロー効果\cite{NisbettWilson1977}の影響も考えられる.また,このような状況において他者による評価基準に自基準を合わせる場合,少なくとも他者との基準の差異についての定量的な情報がない限り,基準の統合は困難といえる.これらの問題の存在は,「個々の評価者が着目する言語的要素」や「評点決定に寄与する各要素の配分(重み)」に相違が生じる要因となり得る.結果的に,それらの相違が評価者間での評点の差異として表れることも考えられる.これらに対し,文章評価の自動化は,評価の公平性を損なう要因となる問題の解消に役立つと考えられる.また,評価者が着目する言語的要素やその配分の定量的な提示を行うことで,正確かつ円滑な評価者間の基準統合が可能になると考えられる.本稿では,単独の評価者により対象文章に与えられる総合的な評点と,国語教育上扱われる言語的要素についての多種の特徴量から,任意の試験設定における個人の評価者の文章評価モデルを推定する手法について述べる.また,個人の評価者の評価モデルにおいて評点決定に寄与する要素毎の配分(重み)について,他の評価者の評価モデルとの間で定量的に比較可能な形で提示する手法について述べる.ただし,複数の評価者の評価モデルによる評価から最終的な評価判断を導き出すことについては扱わない.提案手法は,文章を採点する行為を順序付き多クラス分類として捉え,SupportVectorRegression(SVR)\cite{SmolaSch1998}を用いた回帰手法により,評価者が付けうる評点を予測する.SVRの教師データには,表層や使用語彙,構文,文章構造などの特徴に関する様々な素性を用意する.これらの素性には,日本の国語科教育において扱われる作文の良悪基準に関わる素性が多く含まれる.なおかつ,全ての素性は,評価対象文章で議論されるトピック固有のものは含まない汎用的なものである.本手法は,国語教育\footnote{本稿では便宜上,小学校,中学校,高等学校における作文教育を国語教育と呼ぶこととする.}上扱われる言語的要素をSVRの素性に用いて文章評価をモデル化し,SVRの回帰係数の差として評価者間での評価基準の個人差を明示できるという点に,新規性を持つ.国語教育上扱われる要素に基づいて文章評価モデルを説明することができるため,教育指導を行う立場にある評価者が,普段の指導で参照する要素を介して容易に文章評価モデルを認識,比較することができる.作文技術についてのあらゆる能力評価に対応可能であるよう,素性を網羅的に設定するが,「文章を意味面で適切に記述する能力」の評価に関しては扱わない.ここでいう意味面での適切さとは,文章中の文が示す個々の内容の正しさを指す.例えば,「月は西から昇る」のような文が示す内容が正しいか正しくないかについての判断は,本研究では扱わない.
V11N02-04
対訳コーパスの充実に伴い,コーパスから自動学習した知識を用いる機械翻訳システムが提案されてきている\cite{Brown:SMT1993,Menezes:PAandTranslation2001,Imamura:PatternGeneration2002}.しかし,対訳コーパスを無制限に用いて翻訳知識を自動構築すると,コーパスに内在する翻訳の多様性に起因して冗長な知識が獲得され,誤訳や曖昧性増大の原因となる.翻訳の多様性はコーパスサイズの拡大と共に増加する.たとえば,対訳コーパスは大規模になるに従い,通常,同一の原文であるにも関わらず異なった翻訳文が含まれる.また,文脈や状況に依存した特異な翻訳も大規模コーパスでは増加する.我々の対象は,このような10万文以上を含んだ大規模対訳コーパスである.本稿では,このような翻訳の多様性に対し,機械翻訳に適した対訳(制限対訳と呼ぶ)に制限することを試みる.制限対訳には様々な指標が考えられるが,本稿では特に直訳性に着目する.そして直訳性を利用した2つの知識構築法を提案する.第一は,翻訳知識構築の前処理としての,直訳性を用いた対訳文フィルタリング,第二は一つの対訳文を直訳部/意訳部に分割し,部分に応じた汎化手法を適用する.このような制限を行いながら機械翻訳知識を自動構築することにより,機械翻訳の訳質が向上することを示す.以下,第\ref{sec-translation-variety}章では翻訳の多様性が引き起こす問題点について述べ,第\ref{sec-controlled-translation}章では機械翻訳に適した対訳とは,どのような対訳であるのか,議論する.続いて第\ref{sec-translation-literalness}章では,制限対訳の指標のうち,直訳性に着目し,その測定手法について提案する.第\ref{sec-construction-methods}章では直訳性を利用した機械翻訳知識構築方法について述べ,第\ref{sec-translation-experiments}章でその評価を行う.
V03N02-03
国文学研究は,わが国の文学全体に渡る文学論,作品論,作家論,文学史などを対象とする研究分野である.また,広く書誌学,文献学,国語学などを含み,歴史学,民俗学,宗教学などに隣接する.研究対象は上代の神話から現代の作品まで,全ての時代に渡り,地域的にも歴史上のわが国全土を網羅する.文学は,人の感性の言語による表出であるから,国文学は日本人の心の表現であり,日本語を育んだ土壌であると言える.すなわち,国文学研究は現代日本人の考え方と感じ方を育てた土壌を探る学問であると言える.文学研究の目標は,文学作品を通じて,すなわち文字によるテキストを主体として,思潮,感性,心理を探求することである.テキストは単なる文字の羅列ではなく,作者の思考や感情などが文字の形で具象化されたものであるから,研究者は書かれた文字を「ヨム」ことによって,作者の思考や感情を再構築しようとする.換言すれば,文学作品を鑑賞し,評論し,その作品を通しての作者の考え方を知ることである.なお,「ヨム」こととは,読む,詠む,訓むなどの意味である.最近,国文学とコンピュータの関わりに対する関心が高まり,議論が深まってきた\cite{Jinbun1989-1990}.元来,国文学にとってコンピュータは最も縁遠い存在と見られてきた.国文学者からみれば,コンピュータに文学が分かるかとか,日本語のコンピュータが無いなどの理由である.一方では,コンピュータへ寄せる大きな期待と,現状との落差から来る批判もある\cite{Kokubun1982,Kokubun1992,Kokubun1989-1994}.現在,文学研究にコンピュータが役立つかを確かめることが必要となった.日本語処理可能なパソコンなどの普及により,国文学者の中でも\cite{DB-West1995},自身でテキストの入力を行い,また処理を始めている.しかし,未だほんの一部であって,普及にはほど遠く,またワープロ的な利用が多い.コンピュータは,単に「ハサミとノリ」の役割\cite{Murakami1989}であるとしても,その使い方によっては,かなり高度な知的生産のツールに成り得る.また,研究過程で使われる膨大な資料や情報と,それから生成される多様なデータや情報の取り扱いには,コンピュータは欠かせないに違いない.具体的にコンピュータの活用を考えるためには,文学の研究過程の構造認識が必要である.文学研究は個人的と言われるが,この研究過程が普遍化できれば,モデルが導出できる.すなわち,コンピュータの用途が分かってくる.本稿では,国文学研究資料館における事例に基づき,国文学とコンピュータの課題について考える.国文学研究資料館は,国の内外に散在する国文学資料を発掘,調査,研究し,収集,整理,保存し,広く研究者の利用に供するために,設立された大学共同利用機関である.また,国文学研究上の様々な支援活動を行っている\cite{Kokubun1982}.本稿は,以下のような考察を行っている.2章では,国文学の研究態様を分析し,情報の種類と性質を整理し,研究過程を解明し,モデル化を行っている.3章では,モデルを詳細に検討し,定義する.また,モデルの役割をまとめ,コンピュータ活用の意味を考える.4章は,モデルの実装である.研究過程で利用され,生成される様々な情報資源の組織化と実現を行う.そのために,「漱石と倫敦」考という具体的な文学テーマに基づき,システムの実装を行い,モデルの検証を行った.その結果,モデルは実際の文学研究に有効であること,とくに教育用ツールとして効果的であるとの評価が得られた.
V13N03-02
自然言語処理において高い性能を得ようとするとき,コーパスを使った教師あり学習(supervisedlearning)は,今や標準的な手法である.しかしながら,教師あり学習の弱点は一定量以上のタグ付きコーパスが必要なことである.仮によい教師あり学習の手法があったとしても,タグ付きコーパス無しでは高い性能は得られない.ここでの問題は,コーパスのタグ付けは労力がかかるものであり,非常に高くつくことである.この点を克服するためいくつかの手法が提案されている.最小限教師あり学習\footnote{``minimally-supervisedlearning''をさす.全ての事例に対してラベルを与えるのではなく,極めて少量の事例に対してのみラベルを与える手法.例えば\cite{Yarowsky1995,Yarowsky2000}などがある.}や能動学習(activelearning)(例えば\cite{Thompson1999,Sassano2002})である.これらに共通する考え方は,貴重なラベル付き事例を最大限に活かそうということである.同じ考え方に沿う別の手法として,ラベル付き事例から生成された{\em仮想事例}(virtualexamples)を使う手法がある.この手法は,自然言語処理においてはあまり議論されていない.能動学習の観点から,LewisとGale\shortcite{Lewis1994}が文書分類での仮想事例について少し触れたことがある.しかしながら,彼らはそれ以上仮想事例の利用については踏み込まなかった.このとき考えられた利用方法は,分類器(classifier)が自然言語で書かれた仮想的な文書例を作り,人間にラベル付けさせるものだったが,それは現実的ではないと考えられたからである.パターン認識の分野では,仮想事例はいくつかの種類について研究されている.SVMsとともに仮想事例を使う手法を最初に報告したのは,Sch\"{o}lkopfら\shortcite{Schoelkopf1996}である.彼らは,手書き文字認識タスクにおいて精度が向上したことを示した(第~\ref{sec:vsv}節でも述べる).このタスクでの次のような事前知識(priorknowledge)に基づいて,ラベル付き事例から仮想事例を作り出した.その事前知識とは,ある画像を少しだけ修正した画像(例えば,1ピクセル右にシフトさせた画像)であっても元の画像と同じラベルを持つということである.また,Niyogiらも事前知識を使って仮想事例を作り,それにより訓練事例の数を拡大する手法について議論している\cite{Niyogi1998}.我々の研究の大きな目的は,コーパスに基づく自然言語処理において,Sch\"{o}lkopfら\shortcite{Schoelkopf1996}がパターン認識で良好な結果を報告している仮想事例の手法の効果を調べることである.コーパスに基づく自然言語処理での仮想事例の利用については,バイオ文献中の固有表現認識を対象にした研究\cite{Yi2004}があるが,対象タスクも限られており,研究が十分に進んでいるとは言えない状況である.しかしながら,仮想事例を用いるアプローチを探求することは非常に重要である.なぜなら,ラベル付けのコストを削減することが期待できるからである.特に,我々はSVMs\cite{Vapnik1995}における仮想事例の利用に焦点をあてる.SVMは自然言語処理で最も成功している機械学習の手法の一つだからである.文書分類\cite{Joachims1998,Dumais1998},チャンキング\cite{Kudo2001},係り受け解析\cite{Kudo2002}などに適用されている.本研究では,文書分類タスクを自然言語処理における仮想事例の研究の最初の題材として選んだ.理由は大きく二つある.一つには,機械学習を用いた文書分類を実際に適用しようとすると,ラベル付けのコストの削減は重要な課題になるからである.もう一つには,ラベル付き事例から仮想事例を作り出す方法として,単純だが効果的なものが考えられるからである(第~\ref{sec:vx}節で詳細に述べる).本論文では,仮想事例がSVMを使う文書分類の精度をどのように向上させるか,特に少量の学習事例を使った場合にどうなるかを示す.
V17N04-07
\label{sect_intro}計算機の急速な普及に伴い,様々な自然言語処理システムが一般に用いられるようになっている.中でも,日本語の仮名漢字変換は最も多く利用されるシステムの1つである.仮名漢字変換の使いやすさは変換精度に大きく依存するため,常に高精度で変換を行うことが求められる.近年では,変換精度の向上とシステム保守の効率化を両立させるために,確率的言語モデルに基づく変換方式である統計的仮名漢字変換\cite{確率的モデルによる仮名漢字変換}が広まりつつある.変換精度を向上させる上で問題となるのは,多くの言語処理システムと同様,未知語の取り扱いである.統計的仮名漢字変換では,文脈情報を反映するための単語$n$-gramモデル,入力である読みと出力である単語表記の対応を取るための仮名漢字モデルの2つのモデルによって出力文候補の生成確率を計算し,候補を確率の降順に提示するが,未知語(単語$n$-gramモデルの語彙に含まれない単語)を含む候補の生成はできない.この問題に対処して変換精度を向上させる一般的な方法は,仮名漢字変換の利用対象分野における未知語の読み・文脈情報を用いたモデルの改善である.仮名漢字変換の利用対象となる分野は多岐に渡っており,未知語の読み・文脈情報を含む対象分野の学習コーパスがあらかじめ利用可能であるという状況は少ない.このため,情報の付与されていない対象分野のテキストに必要な情報を付与して学習コーパスを新たに作成するということが行われる.しかしながら,未知語の中には,読みや単語境界をテキストの表層情報から推定することが困難な単語が少なからず存在する.このような場合には,対象分野の学習コーパスを作成するためにその分野についての知識を有する作業者が必要となるなど,コストの面で問題が多い.上記の問題を解決するために,本論文では,テキストと内容の類似した音声を認識することで未知語の読み・文脈情報を単語とその読みの組として自動獲得し,統計的仮名漢字変換の精度を向上させる手法を提案する.以下に手法の概略を述べる.まず,情報の付与されていない対象分野のテキストから,未知語の出現を考慮した単語分割コーパスである疑似確率的単語分割コーパスを作成し,未知語候補の抽出を行う.次に,疑似確率的単語分割コーパスから音声認識のための言語モデルを構築するとともに,未知語候補の読みを複数推定・列挙し,発音辞書を作成する.その後,言語モデルと発音辞書を用いて対象分野の音声を認識し,音声認識結果から単語と読みの組の列を獲得する.最後に,獲得した単語と読みの組の列を統計的仮名漢字変換の学習コーパスに追加して言語モデルと仮名漢字モデルを更新する.実験では,統計的仮名漢字変換のモデル構築に用いる一般分野のコーパスに,獲得した未知語の読み・文脈情報を追加し,モデルを再構築することで変換精度が向上することを確認した.本論文で提案する枠組みは,対象分野のテキストと音声の自動収集が可能であるという前提のもとで,未知語に対して頑健なモデルを構築することができるため,統計的仮名漢字変換の効率的かつ継続的な精度向上に有効である.
V06N06-06
本論文では,文,文章上の特徴,および文章の解析により得られた構造上の特徴をパラメタとして用いた判定式による文章の自動抄録手法を示す.さらに,抽出された文の整形や照応を考慮した文章要約手法について述べる.近年のインターネットなどの発展により,大量の電子化された文書が我々の周りに溢れている.これら大量の文書から必要とする情報を効率良く高速に処理するために,キーワード抽出や文章要約,抄録といった研究が行なわれている.それらのためには,計算機を用い,必ずしも深い意味解析を行なわずに文章の表層的特徴から解析を行なう方法が有効である.文章抄録とは文章から何らかの方法で重要である文を選び出し,抽出することである.山本ら\cite{Masuyama:95}は照応,省略,語彙による結束性など多くの談話要素から重要文を選択していく論説文要約システム(GREEN)を発表している.このシステムは談話要素を利用したものではあるが,文章の局所的な特徴を基に文を抽出するもので,本研究の立場からすれば文章全体の構造に基づく抽出と,電子化された大量のコーパス利用を考慮した抽出手法や手法の評価が必要と考える.また,亀田\cite{Kameda:97}は重要文の抽出の際に文章の中で小さなまとまりを示す段落や,一種の要約情報である文の見出しに着目する手法を提案,実現しているが,重要度計算の調整は人手により,系統的でないところが感じられる.さて,重要文の抽出に用いられるテキスト中の表層的特徴については,\cite{Okumura:98}にサーベイがある.これによると,Paice\cite{Paice:90}の分類として,(1)キーワードの出現頻度によるもの,(2)テキスト,段落中の位置情報によるもの,(3)タイトル等の情報によるもの,(4)文章の構造によるもの,(5)手がかり語によるもの,(6)文や単語間のつながりによるもの,(7)文間の類似性によるものがあげられている.本研究での手法は,上記のかなりの要素を組み合わせてパラメタとして利用している.いくつかの観点からのパラメタを組み合わせるという同様な手法として,\cite{Watanabe:96},\cite{Nomoto:97}がある.それぞれ,重回帰分析,決定木学習により訓練データから自動学習するものである.われわれの手法は,構造木に関する情報を特に重視している.人間は,目的の意見,主張を読み手に伝えるために,意識下/無意識下に文章構成の約束に基づいて文章生成を行なっているが,それらの文章に論証性を持たせるためのものが文章構造である.また逆に,文章を理解し論旨を捉える際に文章構造を活用していると考えられる.したがって,文章の抄録にあたり,論旨を捉え,文章構造を理解した上で重要文を抽出していく手法は人間の文章抄録の流れに沿っており,ごく自然であると考えられる.実際,\cite{Marcu:97}では,人間の手による生成ではあるが文間の関係を解析した修辞構造生成後の文抽出の再現率,適合率は良好と報告されている.われわれの手法でも,修辞構造を含めた文章構造解析による情報を利用する.文章構造解析には田村ら\cite{Tamura:98}の分割と統合による構造解析手法を利用する.文章抄録には,構造解析で用いたパラメタに加えて,得られた文章構造上の情報についてのパラメタにより文抽出のための判定式を作り,それを基にして抄録を作成する.判定式とパラメタの重みの決定は重回帰分析に基づき,その訓練のため,およびシステムの評価のための基準データは,被験者に対するのべ350編の抄録調査による.なお,実験の対象とした文章は,均一な文章が容易に入手可能であるとの理由から,新聞の社説を用いる.一方,原文から単に文を選ぶだけの文章抄録では,選択された文間の隣接関係が不自然になる場合がある.また,たとえ選択された一文でも文内には冗長な表現が残っている場合がある.そこで,自動要約に向けては,抄録後になんらかの文章整形過程が必要である.本研究では,抄録の整形過程としての照応処理と,一文の圧縮処理を行なう.以下,第2章では文章抄録,要約のための文章構造解析について述べ,第3章では文章の自動抄録の手法について説明する.第4章では,提案の手法について再現率,適合率により評価検討を行う.最後に付録として,抄録の整形過程について述べ,実際に要約した文章例を示す.
V08N01-06
\label{sec:introduction}形態素解析は日本語解析の重要な基本技術の一つとして認識されている.形態素解析の形態素とは,単語や接辞など,文法上,最小の単位となる要素のことであり,形態素解析とは,与えられた文を形態素の並びに分解し,それぞれの形態素に対し文法的属性(品詞や活用など)を決定する処理のことである.近年,形態素解析において重要な課題となっているのは,辞書に登録されていない,あるいは学習コーパスに現れないが形態素となり得る単語(未知語)をどのように扱うかということである.この未知語の問題に対処するため,これまで大きく二つの方法がとられてきた.一つは未知語を自動獲得し辞書に登録する方法(例えば\cite{Mori:96}など)であり,もう一つは未知語でも解析できるようなモデルを作成する方法(例えば\cite{Kashioka:97,Nagata:99}など)である.ここで,前者の方法で獲得した単語を辞書に登録し,後者のモデルにその辞書を利用できるような仕組みを取り入れることができれば,両者の利点を生かすことができると考えられる.森らはn-gramモデルに外部辞書を追加する方法を提案している\cite{Mori:98}.ある文字列が辞書に登録されている場合にその文字列が形態素となる確率を割り増しするような方法である.しかし,わずかな精度向上に留まっていることから,n-gramモデルでは辞書の情報を利用する仕組みを容易に組み込むのは難しいのではないかと考えられる.本論文では,最大エントロピー(ME)モデルに基づく形態素解析の手法を提案する.この手法では,辞書の情報を学習する機構を容易に組み込めるだけでなく,字種や字種変化などの情報を用いてコーパスから未知語の性質を学習することもできる.ここで辞書の情報とは,辞書に登録されている語が複数の品詞をとり得る場合にどの品詞を選択するべきかといった情報を意味する.京大コーパスを用いた実験では,再現率95.80\%,適合率95.09\%の精度が得られた.本論文では,辞書の情報を用いない場合,未知語の性質を学習しない場合についても実験し,それぞれの精度に及ぼす影響についても考察する.
V30N04-02
人の日常生活に自然言語処理システムを取り入れるとき,そのシステムに人の語に関する背景知識を与えることで,より適切な動作が行えるようになるだろう.たとえば,人やロボットに「洗濯機を運んで欲しい」と依頼する場面を考える.人に依頼する場合,人は「運ぶ」という動作に対して「誰が」「何を」「どこから」「どこへ」という情報が必要であることを理解しているため,「どこへ」置いたら良いかが不明である場合には「どこへ置けば良い?」と聞き返して,運ぶ場所を特定し,その動作を達成することができる.一方で,ロボットに依頼する場合,ロボットが「運ぶ」の知識を持っていなければ,「どこへ」置けば良いかわからないまま運び,依頼者の意図通りにならない可能性がある.意味フレームとは,このような「運ぶ」に対して「誰が」「何を」「どこから」「どこへ」という情報が必要であるといった人が持つ語の背景知識をまとめたものであり,それを自然言語処理システムに明示的に与えることでこのような問題は解消される可能性がある.意味フレームの代表的なリソースとしてFrameNet\cite{baker-1998-berkeley-framenet,ruppenhofer-2016-framenet}が存在する.FrameNetの意味フレームは,特定の動作や状況などの概念に対応し,そのフレームを喚起する語(LexicalUnits;LUs)とそのフレーム固有の意味役割であるフレーム要素(FrameElements;FEs)に関する知識で構成されている.FrameNetは高品質なリソースであるが,人手で整備されたものであることから語彙やフレームのカバレッジに限界がある.このため,大規模なテキストコーパスから動詞の意味フレームを自動構築する取り組みが行われている\cite{kawahara-2014-inducing,ustalov-2018-unsupervised}.しかし,これらは動詞や項の表層的な情報に基づき構築されているため,それらの出現する文脈が十分に考慮されておらず,その品質は十分とはいえない.そこで,本研究では,文脈を考慮した単語埋め込みを活用して動詞や項の出現文脈を考慮することで,より高品質な意味フレームの自動構築を目指す.これを実現するためには,動詞の意味フレーム推定とフレーム要素推定が必要であるが,本論文では,前者の動詞の意味フレーム推定に焦点を当てる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{01table01.tex}%\caption{FrameNet内のフレームを喚起する動詞の事例}\label{tab:examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{30-4ia1f1.pdf}\end{center}\hangcaption{(a)VanillaBERTと(b)AdaCosを用いてfine-tuningしたBERTによる動詞の文脈化単語埋め込みの2次元マッピング.各色(形)は{\color[HTML]{1f77b4}\textsc{Filling}}({\large$\bullet$}),{\color[HTML]{ff7f0e}\textsc{Placing}}({\small${\boldsymbol\times}$}),{\color[HTML]{2ca02c}\textsc{Removing}}({\scriptsize$\blacksquare$}),{\color[HTML]{d62728}\textsc{Topic}}({\scriptsize${\boldsymbol+}$})フレームを示し,数字は表\ref{tab:examples}と対応する.}\label{fig:examples}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%動詞の意味フレーム推定は,テキスト中の動詞を,その動詞が喚起するフレームごとにまとめるタスクである.たとえば,表\ref{tab:examples}に示すFrameNetの8つの事例の場合,各動詞が喚起するフレームごとで事例をグループ化し,\{(1),(2)\},\{(3),(4)\},\{(5),(6)\},\{(7),(8)\}の4つのクラスタを形成することが目標となる.本タスクでは,事例(1)の「cover」と事例(2)の「fill」のように異なる動詞であっても同じ\textsc{Filling}フレームを喚起する事例もあれば,事例(1)と(7)の動詞「cover」のように同じ動詞であっても異なるフレームを喚起する事例も存在するという特徴がある.動詞の意味フレーム推定において,ELMo\cite{peters-2018-deep}やBERT\cite{devlin-2019-bert}などの文脈化単語埋め込みの有用性が報告されている\cite{arefyev-2019-neural,anwar-2019-hhmm,ribeiro-2019-l2f,yamada-2021-verb,yamada-2021-semantic}.図\ref{fig:examples}(a)はFrameNetに含まれる事例中の動詞の事前学習のみに基づくBERT(VanillaBERT)による埋め込みをt-SNE\cite{maaten-2008-visualizing}で2次元に射影し,可視化した結果である.動詞「cover」の事例(1)と(7)は埋め込み空間上で離れている一方,同じ\textsc{Topic}フレームを喚起する動詞の事例(7)と(8)は近くに位置しており,ある程度,意味フレームの違いを反映した埋め込み空間であるといえる.しかし,同じフレームを喚起する動詞の事例が離れた位置に存在するケースも散見される.たとえば,同じ\textsc{Removing}フレームを喚起する動詞の事例(5)と(6)は互いに離れた位置に存在している.これはVanillaBERTの埋め込み空間が,意味的に類似した事例が近い位置に,異なる事例が離れた位置に存在するという人の直観と常に一致しているわけではないことを意味している.本研究では,フレームに関する人の直観をより強く反映した意味フレーム推定を実現するため,コーパス内の一部の述語に対して意味フレームラベルが付与された教師データの存在を仮定し,深層距離学習に基づき文脈化単語埋め込みをfine-tuningすることで,高精度な意味フレーム推定を実現する手法を提案する.深層距離学習とは,同じラベルの事例を埋め込み空間上で近づけ,異なるラベルの事例を遠ざける学習を行う手法であり,教師データに基づく埋め込み空間の調整が期待できる.図\ref{fig:examples}(b)は代表的な深層距離学習手法の1つであるAdaCos\cite{zhang-2019-adacos}を用いてfine-tuningしたBERTによる埋め込みを2次元に射影し,可視化した結果である.VanillaBERTにおいて同じ意味フレームを喚起する動詞の事例であるにも関わらず,距離が離れていた事例(3)と(4),事例(5)と(6)が,AdaCosを用いてfine-tuningしたBERTでは,互いに近い位置に存在していることが確認できる.これは,深層距離学習によって,意味フレームに関する人の直観をより反映させた埋め込み空間が得られたことを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V32N02-10
地図上で位置情報や経路情報を正確に伝えるためには,さまざまな参照情報が用いられる.例えば,固有の位置情報やランドマークに基づいて東西南北で位置を示す絶対参照情報,また,話者の向きを基に前後左右で位置を指示する相対参照情報が挙げられる.しかし,実際の場面では東西南北の方角がわからない状況も多く,その場合には話者が伝える固有位置情報や相対参照情報が,位置を特定するための重要な手がかりとなる.本研究では,地図を刺激に用いて位置情報参照表現のデータ収集を行った.20種類の地図を使用し,クラウドソーシングを通じて,1地図あたり40件の位置情報参照表現を収集した.これらの表現は,固有位置情報と相対参照情報のみで記述されており,収集後にそれぞれが固有位置情報と相対参照表現のみであるかを確認した上で,次の4つの視点に基づいて分類した:一人称視点(目標点から見えるものの描写),空間内視点(他の地点から目標点を参照),空間内移動(他の地点から目標点への移動を表現),鳥瞰視点(地図全体を俯瞰した視点).さらに,各表現のわかりやすさに関するアンケート調査を実施し,その結果をデータとして収集した.同様に,経路情報の参照表現に関してもデータ収集を行った.20種類の地図に対してそれぞれ2パターンの経路(始点と終点)を設定し,合計40の図面を用いてクラウドソーシングを実施した.1図面あたり40件の経路情報参照表現を収集し,それぞれが固有位置情報と相対参照情報のみで記述されているかを確認した後,始点,通過地点,終点の情報が含まれているかどうかをラベル付けした.これに加え,収集した経路表現についてもわかりやすさを評価するアンケート調査を行い,データとして収集した.本研究は,マイクロモビリティの自動運転技術の開発を目標として,このようなデータ収集をしている.自動運転技術においては,周囲の環境を正確に把握し,適切な位置情報や経路情報を基に走行することが求められる.そのためには,人間が自然に使用する位置情報参照表現や経路情報参照表現を理解し,機械に適応させることが必要である.特に,固有位置情報や相対参照情報は,目標地点への正確な到達に直結する重要な要素となる.自動運転車両が人間の指示に従い,柔軟かつ効率的に動作するためには,これらの位置情報・経路情報がどのように表現され,理解されるかを定量的に把握することが鍵となる.本研究では,このような参照表現のデータを収集することで,自動運転技術における位置認識能力の向上を目指し,今後の技術開発に貢献することを目指している.上記目的を踏まえ,マイクロモビリティの移動を想定した縮尺の地図を提示し,位置情報および経路情報に基づく言語表現に関する豊富なデータセットを構築し,様々な視点や表現のわかりやすさに関する洞察を得た.このデータセットは,自動運転における口頭での行き先説明の基礎データとして活用できるだけでなく,地図情報と自然言語表現を結びつけたマルチモーダルなデータであり,実世界の状況に接続されたデータとしても重要である.地図を参照した言語表現の理解や生成に役立つだけでなく,リアルタイムのナビゲーションや自動運転システムにおける実用的なコミュニケーションの向上に寄与することが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V21N03-07
ゼロ照応解析は近年,述語項構造解析の一部として盛んに研究されている.ゼロ照応とは用言の項が省略される現象であり,省略された項(ゼロ代名詞)が他の表現を照応していると解釈できることからゼロ照応と呼ばれている.\ex.パスタが好きで、毎日($\phi$ガ)($\phi$ヲ)\underline{食べています}。\label{例:ゼロ照応}例えば,例\ref{例:ゼロ照応}の「食べています」では,ガ格とヲ格の項が省略されている.ここで,省略されたヲ格の項は前方で言及されている「パスタ」を照応しており,省略されたガ格の項は文章中では明確に言及されていないこの文章の著者を照応している\footnote{以降の例では,ゼロ代名詞の照応先を埋めた形で「パスタが好きで、毎日([著者]ガ)(パスタヲ)食べています。」のように記述する場合がある.ここで「[著者]」は文章内で言及されていない文章の著者を示す.}.日本語では曖昧性がない場合には積極的に省略が行われる傾向にあるため,ゼロ照応が文章中で頻繁に発生する.例\ref{例:ゼロ照応}の「パスタ」の省略のようにゼロ代名詞の照応先\footnote{先行詞と呼ばれることもあるが,本論文では照応先と呼ぶ.}が文章中で言及されているゼロ照応は{\bf文章内ゼロ照応}と呼ばれ,従来はこの文章内ゼロ照応が主な研究対象とされてきた.一方,例\ref{例:ゼロ照応}の著者の省略のようにゼロ代名詞の照応先が文章中で言及されていないゼロ照応は{\bf外界ゼロ照応}と呼ばれる.外界ゼロ照応で照応されるのは例\ref{例:ゼロ照応}のような文章の著者や読者,例\ref{外界:不特定人}のような不特定の人や物などがある\footnote{一般に外界照応と呼ばれる現象には,現場文脈指示と呼ばれる発話現場の物体を指示するものも含まれる.本研究では,このようなテキストの情報のみから照応先を推測できない外界照応は扱わない.また,実験対象としたコーパスにも,画像や表を照応している文書などはテキストのみから内容が推測できないとして含まれていない.}.\ex.内湯も窓一面がガラス張りで眺望がよく、快適な湯浴みを([不特定:人]ガ)\underline{楽しめる}。\label{外界:不特定人}従来,日本語ゼロ照応解析の研究は,ゼロ照応関係を付与した新聞記事コーパス\cite{KTC,iida-EtAl:2007:LAW}を主な対象として行われてきた.新聞記事は著者から読者に事件の内容などを伝えることが目的であり,社説や投書の除いては著者や読者が談話構造中に登場することはほとんどない.一方,近年ではWebを通じた情報伝達が盛んに行われており,Webテキストの言語処理が重要となってきている.Webテキストでは,著者自身のことを述べたり,読者に対して何らかの働きかけをすることも多く,著者・読者が談話構造中に登場することが多い.例えば,Blogや企業の宣伝ページでは著者自身の出来事や企業自身の活動内容を述べることが多く,通販ページなどでは読者に対して商品を買ってくれるような働きかけをする.このため,著者・読者に関するゼロ照応も必然的に多くなり,その中には外界ゼロ照応も多く含まれる.\cite{hangyo-kawahara-kurohashi:2012:PACLIC}のWebコーパスではゼロ照応関係の54\%が外界ゼロ照応である.このため,Webテキストに対するゼロ照応解析では,特に外界ゼロ照応を扱うことが重要となる.本研究では,ゼロ照応を扱うためにゼロ代名詞の照応先候補として[著者]や[読者]などの文章中に出現しない談話要素を設定することで,外界ゼロ照応を明示的に扱う.用言のある格が直接係り受け関係にある項を持たない場合,その格の項は表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}の3種類に分類される.1つ目は「(a)文章内ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先は文章中の表現である.2つ目は「(b)外界ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先に対応する表現が文章中にないものである.3つ目は「(c)ゼロ照応なし」であり,項はゼロ代名詞をとらない,すなわちその用言が本質的にその項を必要としない場合である.外界ゼロ照応を扱うことにより,照応先が文章内にない場合でも,用言のある格がゼロ代名詞を項に持つという現象を扱うことができる.これにより,格フレームなどの用言が項を取る格の知識とゼロ代名詞の出現が一致するようになり,機械学習によるゼロ代名詞検出の精度向上を期待することができる.\begin{table}[b]\caption{文章内ゼロ照応,外界ゼロ照応,ゼロ照応なしの分類とその例}\label{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}\input{1011table01.txt}\end{table}用言が項としてゼロ代名詞を持つ場合,そのゼロ代名詞の照応先の同定を行う.従来研究ではその手掛かりとして,用言の選択選好\cite{sasano-kawahara-kurohashi:2008:PAPERS,sasano-kurohashi:2011:IJCNLP-2011,imamura-saito-izumi:2009:Short,hayashibe-komachi-matsumoto:2011:IJCNLP-2011}や文脈的な情報\cite{iida-inui-matsumoto:2006:COLACL,iida-inui-matsumoto:2009:ACLIJCNLP}が広く用いられてきた.本研究では,それらに加えて文章の著者・読者の情報を照応先同定の手掛かりとして用いる.先に述べたように,従来研究で対象とされてきた新聞記事コーパスでは,著者や読者は談話中にほとんど出現しない.そのため著者や読者の情報が文脈的な手掛かりとして用いられることはなかった.しかし,著者や読者は省略されやすいためゼロ代名詞の照応先になりやすい,敬語やモダリティなど著者や読者の省略を推定するための手掛かりが豊富に存在する,などの特徴を持つため,談話中の著者や読者を明示的に扱うことは照応先同定で重要である.また,著者や読者は前述のような外界ゼロ照応の照応先だけでなく,文章内に言及されることも多い.\ex.\underline{私}$_{著者}$はもともとアウトドア派ではなかったので,東京にいた頃もキャンプに行ったことはありませんでした。\label{著者表現1}\ex.\underline{あなた}$_{読者}$は今ある情報か資料を送って,アドバイザーからの質問に答えるだけ。\label{読者表現1}例\ref{著者表現1}では,文章中に言及されている「私」がこの文章の著者であり,例\ref{読者表現1}では「あなた」が読者である.本研究ではこのような文章中で言及される著者や読者を{\bf著者表現},{\bf読者表現}と呼び,これらを明示的に扱うことでゼロ照応解析精度を向上させる.著者や読者は人称代名詞だけでなく固有表現や役職など様々な表現で言及される.例えば,下記の例\ref{梅辻}では著者自身の名前である「梅辻」によって著者が言及されており,例\ref{管理人}では著者の立場を表す「管理人」によって言及されている.また,例\ref{お客様}では著者から見た読者の立場である「お客様」という表現によって読者が言及されている.本研究では人称代名詞に限らず,著者・読者を指す表現を著者・読者表現として扱うこととする.\ex.こんにちは、企画チームの\underline{梅辻}$_{著者}$です。\label{梅辻}\ex.このブログは、\underline{管理人}$_{著者}$の気分によって書く内容は変わります。\label{管理人}\ex.いくつかの質問をお答えいただくだけで、\underline{お客様}$_{読者}$のご要望に近いノートパソコンをお選びいただけます。\label{お客様}著者・読者表現は様々な表現で言及されるため,表層的な表記のみから,どの表現が著者・読者表現であるかを判断することは困難である.そこで,本研究では談話要素とその周辺文脈の語彙統語パターンを素性としたランキング学習\cite{herbrich1998learning,joachims2002optimizing}により,文章中の著者・読者表現の同定を行う.文章中に出現する著者・読者表現が照応先となることを推定する際には通常の文章中の表現に利用する手掛かりと著者・読者特有の手掛かりの両方が利用できる.\ex.僕は京都に(僕ガ)\underline{行こう}と思っています。\\皆さんはどこに行きたいか(皆さんガ)(僕ニ)\underline{教えてください}。\label{著者表現2}\ref{著者表現2}の1文目では「僕」が文頭で助詞「は」を伴ない,「行こう」を越えて「思っています」に係っていることから「行こう」のガ格の項であると推測される.これは文章中の表現のみが持つゼロ照応解析での手掛かりと言える.一方,2文目の「教えてください」では,依頼表現であることからガ格の項が読者表現である「皆さん」であり,ニ格の項が著者表現である「僕」であると推測できる.このような依頼や敬語,モダリティに関する手掛かりは著者・読者特有の手掛かりと言える.また,著者・読者特有の手掛かりは外界ゼロ照応における著者・読者においても同様に利用できる.そこで,本研究では,ゼロ照応解析において著者・読者表現は文章内ゼロ照応および外界ゼロ照応両方の特徴を持つものとして扱う.本論文では,文章中の著者・読者表現および外界ゼロ照応を統合的に扱うゼロ照応解析モデルを提案し,自動推定した著者・読者表現を利用することでゼロ照応解析の精度が向上することを示す.\ref{114736_18Jun13}節で関連研究について説明し,\ref{114801_18Jun13}節で本研究で利用する機械学習手法であるランキング学習について説明する.\ref{114838_18Jun13}節ではベースラインとなるモデルについて説明し,\ref{130555_9May13}節で実験で利用するコーパスについて述べる.その後,\ref{135602_6May13}節で著者・読者表現の自動推定について説明し,\ref{115042_18Jun13}節で著者・読者表現と外界照応を考慮したゼロ照応解析モデルを提案する.\ref{115121_18Jun13}節で実験結果を示し,\ref{115208_18Jun13}節でまとめと今後の課題とする.
V15N01-02
手話はろう者の間で生まれ広がった自然言語であり,ろう者にとっての第一言語である\cite{Yonekawa2002}.そのため手話による情報アクセスやサービスの提供はろう者の社会参加にとって重要であるが,手話通訳者は不足しており,病院や職場,学校などで手話通訳を必要とする人々に十分な通訳サービスが提供されているとはいえない.これらを支援するシステムの実現が期待されている.音声言語では機械翻訳をはじめとして,言語活動を支援するさまざまの自然言語処理技術が研究開発されている.ところが,手話はこれまで自然言語処理の領域では研究対象としてほとんど取り上げられていない.手話には広く一般に受け入れられた文字による表現(テキスト表現)が存在しないため,これまでのテキストを対象とした自然言語処理技術が手話に対して適用できないことがその要因としてあげられる.そこで我々は,手話言語をテキストとして書き留める方法について検討し,「日本語援用手話表記法」を提案した\cite{Matsumoto2006,Matsumoto2005c,Ikeda2006,Matsumoto2004a,Matsumoto2004b,Matsumoto2005a,Matsumoto2005b}.本論文では,この表記法で表現された手話を目的言語とする日本語—手話機械翻訳システムについて述べる.手話テキストから手話動画像等への変換(音声言語におけるテキスト音声合成に相当する)もまた大きな課題であるが,本論文ではこの課題は扱わない.手話のテキスト表現を導入したことにより,手話テキストから手話動画像等への変換を,テキスト音声合成の問題と同じように,本研究とは別の一つの大きな問題領域としてとらえることができる.このように音声言語の翻訳の場合と同じように翻訳過程を二つの領域にモジュール化することによって,手話の翻訳の問題が過度に複雑になることを避けることができる.\nocite{Matsumoto2005a,Matsumoto2005b,Matsumoto2004a,Matsumoto2004b}\ref{sec:JSL}節で述べるように日本の手話には日本手話と日本語対応手話および中間型手話がある.これらの間には必ずしも明確な境界があるわけではないが,本論文で対象として念頭に置いているのは日本手話である.日本手話は日本語の影響を強く受けているものの,日本語とは別の言語である.語彙は日本語と1対1に対応しておらず,文法的にも独自の体系を持っている.例えば,日本語において内容語に後置される機能語や前置される修飾語が,手話では独立した単語としてではなく,内容語を表す手の動きや位置の変化(内容語の語形変化),顔の表情などによって表現される場合がある.また,動詞の主語・目的語・道具などの内容語も,動詞を表す手の形や動きの変化として動詞の中に組み込まれる場合がある.したがって,日本手話への翻訳は単に日本語の単語を手話単語に置き換えるだけでは不十分であり,外国語への翻訳と同等の仕組みが必要となる.本研究では,日本語から種々の言語への翻訳を目的として開発が進められているパターン変換型機械翻訳エンジンjaw\cite{Shie2004}を核とし,手話に対する計算機内部での表現構造,日本語から手話表現構造への翻訳規則,表現構造から手話テキストへの線状化関数を与えることにより,日本語から手話への機械翻訳システムjaw/SLの作成を試みた.以下,2節では目的言語である手話と,我々が定義した手話表記法の概略を述べる.3節で機械翻訳エンジンjawの翻訳方式について,4節で手話を目的言語とした翻訳システムjaw/SLについて述べ,5節で翻訳実験と現状の問題点について述べる.
V10N03-05
本論文では,SENSEVAL2の日本語翻訳タスクに対して帰納論理プログラミング(InductiveLogicPrograming,以下ILPと略す)を適用する.背景知識として分類語彙表を利用することで,正解率54.0\,\%を達成した.この値は,訓練データを新たに作成しない翻訳タスク参加の他システムと比較して優れている.SENSEVAL2の日本語翻訳タスクは,TranslationMemory(以下TMと略す)と呼ばれる日英対訳対が与えられ,テスト文中の該当単語を英訳する際に利用できるTMの例文番号を返すタスクである\footnote{厳密には,英訳自体を解答としてもよいが,ここではこの解答形式は考慮しない.}\cite{sen2}.これは英訳を語義と考えた場合の多義語の曖昧性解消問題となっており,分類問題の一種である.このため従来から活発に研究されている帰納学習手法を用いて解決可能である.おそらく大規模かつ高品質な訓練データを用いたシステムが,コンテストで優秀な成績を納めるはずである.しかし翻訳タスクでは大規模かつ高品質な訓練データを用意するコストが高い.TMは1つの単語に対して平均して21.6例文がある.今仮にある単語Aの例文として\(id_1\)から\(id_{20}\)までの20例文がTMに記載されているとする.新たに訓練データを作成する場合,単語Aを含む新たな文を持ってきて,\(id_1\)から\(id_{20}\)のどれか1つのラベルをその事例に与える必要がある.〇か×かの二者択一は比較的容易であるが,20個のラベルの中から最も適切な1つを選ぶのは非常に負荷のかかる作業である.この理由のために,実際のコンテストにおいて,大規模かつ高品質な訓練データを用意する方法をとったシステムは1つ(Ibaraki)だけであった.ここでは訓練データを新たに作成せずに,日本語翻訳タスクを解決することを目標とする.訓練データを新たに作成しないとしても,TMの例文は訓練データとして扱える.ただしTMの例文を訓練データと見た場合,その量は少量と言わざるをえない.つまり問題は,少量の訓練データからどのようにして精度の高い分類規則を獲得するかである.そのための戦略としてILPを用いる.少量の訓練データからどのようして分類規則を学習したらよいかは,機械学習における1つの重要な課題である.その解決方法として背景知識の利用が提案されている\cite{ipsj-kaisetu}.背景知識とは,訓練データには明示されない問題固有の知識であり,広く捉えれば,人間の持つ常識的知識と考えて良い.一種の知識データベースである.問題はその背景知識を,どのように学習手法に取り入れてゆくかである.その解決のために提案されているのがILPである.ILPは訓練データを述語論理の形式で表し,そこから分類規則に相当する規則(述語論理の形式では節に対応)を導出する.知識データベースは述語論理の形式によって自然に表現できるので,背景知識の利用の観点からはILPを用いた学習戦略が優れている\cite{furukawa}.更にILPの背景知識では,複雑なグラフ構造を持ったものも表現できるので,近年,CMUの機械学習チームはWebページの文書分類にILPを利用している\cite{webkb}.更にいくつかの自然言語処理への応用も知られている\cite{cohen}\cite{califf}\cite{shimazu}.本論文では,ILPの処理系としてMuggletonによるProgolを利用する\cite{muggen2}.Progolによって多義語の曖昧性解消を行う.そして背景知識としては分類語彙表\cite{bunrui-tab}を利用する.以下2章で多義語の曖昧性解消をILPで行う方法を示す.3章では分類語彙表をどのように背景知識として組み込むかを説明し,4章で実験,5章で考察を述べ,最後にまとめる.
V16N05-02
\label{sec:Intro}検索エンジン\textit{ALLTheWeb}\footnote{http://www.alltheweb.com/}において,英語の検索語の約1割が人名を含むという報告\footnote{http://tap.stanford.edu/PeopleSearch.pdf}があるように,人名は検索語として検索エンジンにしばしば入力される.しかし,その検索結果としては,その人名を有する同姓同名人物についてのWebページを含む長いリストが返されるのみである.例えば,ユーザが検索エンジンGoogle\footnote{http://www.google.com/}に``WilliamCohen''という人名を入力すると,その検索結果には,この名前を有する情報科学の教授,アメリカ合衆国の政治家,外科医,歴史家などのWebページが,各人物の実体ごとに分類されておらず,混在している.こうしたWeb検索結果における人名の曖昧性を解消する従来研究の多くは,凝集型クラスタリングを利用している\cite{Mann03},\cite{Pedersen05},\cite{Bekkerman-ICML05},\cite{Bollegala06}.しかし,一般に人名の検索結果では,その上位に,少数の同姓同名だが異なる人物のページが集中する傾向にある.したがって,上位に順位付けされたページを種文書として,クラスタリングを行えば,各人物ごとに検索結果が集まりやすくなり,より正確にクラスタリングができると期待される.以下,本論文では,このような種文書となるWebページを「seedページ」と呼ぶことにする.本研究では,このseedページを用いた半教師有りクラスタリングを,Web検索結果における人名の曖昧性解消のために適用する.これまでの半教師有りクラスタリングの手法は,(1)制約に基づいた手法,(2)距離に基づいた手法,の二つに分類することができる.制約に基づいた手法は,ユーザが付与したラベルや制約を利用し,より正確なクラスタリングを可能にする.例えば,Wagstaffら\cite{Wagstaff00},\cite{Wagstaff01}の半教師有り$K$-meansアルゴリズムでは,``must-link''(2つの事例が同じクラスタに属さなければならない)と,``cannot-link''(2つの事例が異なるクラスタに属さなければならない)という2種類の制約を導入して,データのクラスタリングを行なう.Basuら\cite{Basu02}もまた,ラベルの付与されたデータから初期の種クラスタを生成し,これらの間に制約を導入する半教師有り$K$-meansアルゴリズムを提案している.また,距離に基づいた手法では,教師付きデータとして付与されたラベルや制約を満たすための学習を必要とする.例えば,Kleinら\cite{Klein02}の研究では,類似した2点$(x_{i},x_{j})$間には``0'',類似していない2点間には$(\max_{i,j}D_{ij})+1$と設定した隣接行列を作成して,クラスタリングを行なう.また,Xingら\cite{Xing03}の研究では,特徴空間を変換することで,マハラノビス距離の最適化を行う.さらに,Bar-Hillelら\cite{Bar-Hillel03}の研究では,適切な特徴には大きな重みを,そうでない特徴には小さな重みを与えるRCA(RelevantComponentAnalysis)\cite{Shental02}により,特徴空間を変換する.一方,我々の提案する半教師有りクラスタリングでは,seedページを含むクラスタの重心の変動を抑える点において,新規性がある.本論文の構成は次のとおりである.\ref{sec:ProposedMethod}章では,我々の提案する新たな半教師有りクラスタリングの手法について説明する.\ref{sec:Experiments}章では,提案手法を評価するための実験結果を示し,その結果について考察する.最後に\ref{sec:Conclusion}章では,本論文のまとめと今後の課題について述べる.
V21N02-05
label{sec:intro}自然言語処理の分野において,文章を解析するための技術は古くから研究されており,これまでに様々な解析ツールが開発されてきた.例えば,形態素解析器や構文解析器は,その最も基礎的なものであり,現在,誰もが自由に利用することができるこれらの解析器が存在する.形態素解析器としては,MeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}やJUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}などが,構文解析器としては,CaboCha\footnote{http://code.google.com/p/cabocha/}やKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}などが利用可能である.近年,テキストに存在する動詞や形容詞などの述語に対してその項構造を特定する技術,すなわち,「誰がいつどこで何をするのか」という\textbf{事象}\footnote{この論文では,動作,出来事,状態などを包括して事象と呼ぶ.}を認識する技術が盛んに研究されている.日本語においては,KNPやSynCha\footnote{https://www.cl.cs.titech.ac.jp/{\textasciitilde}ryu-i/syncha/}などの解析ツールが公開され,その利用を前提とした研究を進めることが可能になってきた.自然言語処理の応用分野において,述語項構造解析の次のステップとして,文の意味を適切に解析するシステムの開発,および,その性能向上が望まれている.意味解析に関する強固な基盤を作るために,次のステップとして対象とすべき言語現象を見定め,言語学的観点および統計学的観点から具にその言語データを分析する過程が必要である.主に述語項構造で表現される事象の末尾に,「ない」や「ん」,「ず」などの語が付くと,いわゆる否定文となる.否定文では,一般に,その事象が成立しないことが表現される.否定文において,否定の働きが及ぶ範囲を\textbf{スコープ},その中で特に否定される部分を\textbf{焦点}(フォーカス)と呼ぶ\cite{neg2007}.否定のスコープと焦点の例を以下に示す.ここでは,注目している否定を表す表現を太字にしており,そのスコープを角括弧で囲み,焦点の語句に下線を付している.\begin{enumerate}\item雪が降っていたので、[ここに\underline{車では}来ませ]\textbf{ん}でした。\item別に[\underline{入りたくて}入った]\textbf{のではない}。\end{enumerate}文(1)において,否定の助動詞「ん」のスコープは,「ここに車では来ませ」で表現される事象である.文(1)からは,この場所に来たが,車を使っては来なかったことが読み取れるので,否定の焦点は,「車では」である.文(2)において,否定の複合辞「のではない」のスコープは,「入りたくて入った」であり,否定の焦点は,「入りたくて」であると解釈できる.文(1)も文(2)もいずれも否定文であるが,成立しない事象のみが述べられているわけではない.文(1)からは,書き手がここに来たことが成立することが読み取れ,文(2)からは,書き手がある団体や部活などに入ったことが事実であることが読み取れる.一般に,否定文に対して,スコープの事象が成立しないことが理解できるだけでなく,焦点の部分を除いた事象は成立することを推測することができる\cite{neg2007,EduardoMoldo2011b}.ゆえに,自然言語処理において,否定の焦点を的確に特定することができれば,否定文を含むテキストの意味を計算機がより正確に把握することができる.このような技術は,事実性解析や含意認識,情報検索・情報抽出などの応用処理の高度化に必須の技術である.しかしながら,現在のところ,日本語において,実際に否定の焦点をラベル付けしたコーパスや,否定の焦点を自動的に特定する解析システムは,利用可能ではない.そこで,本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点に関する情報をテキストにアノテーションする枠組みを提案する.提案するアノテーション体系に基づいて,既存の2種類のコーパスに対して否定の焦点の情報をアノテーションした結果についても報告する.日本語において焦点の存在を明確に表現する時に,しばしば,「のではない」や「わけではない」といった複合辞が用いられる.また,「は」や「も」,「しか」などに代表されるとりたて詞\cite{toritate2009}は,否定の焦点となりやすい.我々のアノテーション体系では,前後の文脈に存在する判断の手がかりとなった語句とともに,これらの情報を明確にアノテーションする.本論文は,以下のように構成される.まず,2章において,否定のスコープおよび否定の焦点を扱った関連研究について紹介する.次に,3章で,否定の焦点アノテーションの基本指針について述べる.続く4章で,与えられた日本語文章に否定の焦点をアノテーションする枠組みを説明する.5章で,既存の2種類のコーパスにアノテーションした結果について報告する.6章はまとめである.
V08N03-01
電子化テキストの爆発的増加に伴って文書要約技術の必要性が高まり,この分野の研究が盛んになっている\cite{okumura}.自動要約技術を使うことにより,読み手の負担を軽減し,短時間で必要な情報を獲得できる可能性があるからである.従来の要約技術は,文書全体もしくは段落のような複数の文の中から,重要度の高い文を抽出することにより文書全体の要約を行うものが多い.このような方法で出力される個々の文は,原文書中の文そのものであるため,文間の結束性に関してはともかく,各文の正しさが問題になることはない.しかし,選択された文の中には冗長語や不要語が含まれることもあり,またそうでなくとも目的によっては個々の文を簡約することが必要になる.そのため,特にニュース字幕作成を目的として,表層文字列の変換\cite{tao,kato}を行ない,1文の文字数を減らすなどの研究が行われている.また,重要度の低い文節や単語を削除することによって文を簡約する手法も研究されており,単語重要度と言語的な尤度の総和が最大となる部分単語列を動的計画法によって求める方法\cite{hori}が提案されている.しかし,この方法ではtrigramに基づいた局所的な言語制約しか用いていないので,得られた簡約文が構造的に不自然となる可能性がある.削除文節の選択に係り受け関係を考慮することで,原文の部分的な係り受け構造の保存を図る方法\cite{mikami}も研究されているが,この方法ではまず一文全体の係り受け解析を行い,次に得られた構文木の中の冗長と考えられる枝を刈り取るという,二段階の処理が必要である.そのため,一つの文の係り受け解析が終了しなければ枝刈りが開始できず,枝刈りの際に多くの情報を用いて複雑な処理を行うと,文の入力が終了してから簡約された文が出力されるまでの遅延時間が長くなる可能性がある.本論文では,文の簡約を「原文から,文節重要度と文節間係り受け整合度の総和が最大になる部分文節列を選択する」問題として定式化し,それを解くための効率の良いアルゴリズムを提案する.この問題は,原理的には枚挙法で解くことが可能であるが,計算量の点で実現が困難である.本論文ではこの問題を動的計画法によって効率よく解くことができることを示す\cite{oguro,oguro2}.文の簡約は,与えられた文から何らかの意味で``良い''部分単語列あるいは部分文節列を選択することに尽きる.そのとき,削除/選択の単位として何を選ぶか,選ばれる部分単語列あるいは部分文節列の``良さ''をどのように定義するか,そして実際の計算をどのように行うか,などの違いにより,種々の方式が考えられる.本論文では,削除/選択の単位として文節を採用している.この点は,三上らの方法と同じであるが,一文を文末まで構文解析した後で枝刈りを行うという考え方ではなく,部分文節列の``良さ''を定量的に計るための評価関数を予め定義しておき,その基準の下で最適な部分文節列を選択するという考え方を採る.その点では堀らの方法に近いが,削除/選択の単位がそれとは異なる.また評価関数の中に二文節間の係り受け整合度が含まれているので,実際の計算は係り受け解析に近いものになり,その点で堀らの方法とは非常に異なったものとなる.さらに,このアルゴリズムでは文頭から係り受け解析と部分文節列の選択が同時に進行するので,一つの文の入力が終了してから,その文の簡約文が出力されるまでの遅延時間を非常に短くできる可能性がある.オンラインの字幕生成のような応用では,この遅延時間はできるだけ短い方が良い.以下では,あらためて文簡約問題の定式化を行い,それを解くための再帰式とアルゴリズム,および計算量について述べる.そして,最後に文の簡約例を掲げ,このアルゴリズムによって自然な簡約文が得られることを示す.
V21N02-07
\label{sec:introduction}国立国語研究所を中心に開発された『現代日本語書き言葉均衡コーパス(BCCWJ)』\cite{前川2008}\footnote{現代日本語書き言葉均衡コーパスhttp://www.ninjal.ac.jp/corpus\_center/bccwj/}は17万ファイル以上のXML文書に短単位・長単位の二つのレベルの形態論情報アノテーションを施した,1億語を超える大規模なコーパスである.コーパスの構築期間は5年以上に及んだ.BCCWJの形態論情報付与には,新たに開発された電子化辞書UniDic\footnote{UniDichttp://sourceforge.jp/projects/unidic/}が用いられたが,UniDicの見出し語はBCCWJ構築と並行して整備されたため,コーパスの形態論情報の修正とUniDicの見出し語登録は整合性を保ちつつ同時並行で進める必要があった.また,BCCWJの形態論情報アノテーションでは全体で98\%以上の高い精度が求められ,これを実現するためには自動解析結果に対して人手による修正を施して精度を高める必要があった.1億語規模のコーパスにこうしたアノテーションを施すためには,作業体制も大きな規模になり,コーパスのアノテーターは最大で20人ほどが同時にフルタイムで作業に当たった.作業は国語研究所の内部だけでなく,外注業者等の研究所外部からも行われる必要があった.こうした作業環境を構築するためにはアノテーションを支援するコーパス管理システムが必要とされる.このような大規模なコーパスへのアノテーションを支えるため,筆者らは,形態論情報がタグ付けされた大規模なコーパスと辞書の見出し語のデータベースとを関連付け,整合性を保ちつつ,国語研究所の内部だけでなく,研究所外部からも多くの作業者が同時に編集していくことを可能にするシステムを新たに開発した.本論文は,この「形態論情報データベース」の設計・実装・運用について論ずる.本研究の貢献は,1億語規模の日本語コーパスに形態論情報アノテーションを施し,修正することを可能にした点にある.従来のコーパス管理ツールではこれが実現できなかったが,本システムによりBCCWJの形態論情報アノテーションが可能になり,BCCWJを構成する全てのデータは本システムのデータベースから出力された.また,本システムによってUniDicの見出し語のデータ整備を支援し,UniDicの見出し語と対応付けられた人手修正済みの学習用コーパスを提供した.これにより,形態素解析辞書UniDicの開発に貢献した.このシステムは,現在では「日本語歴史コーパス」{\kern-0.5zw}\footnote{日本語歴史コーパスhttp://www.ninjal.ac.jp/corpus\_center/chj/}の構築にも活用されている.以下,2章で本論文の前提となる情報について確認した後,3章で関連する先行事例との比較を行う.そのうえで,4章で本システムの概要を説明し,5章で辞書データベース部,6章でコーパスデータベース部の設計・実装・運用について述べる.また,7章で辞書とコーパスを修正するためのクライアントツールについて説明する.
V27N04-03
\label{sec:intro}議論は人間にとって主要な言語活動のひとつである.議論の参加者は,前提・根拠に基づきながら,筋道を立てて自身の意見を伝える.例えば,国の方針を決定したり,親を説得したり,価格を交渉したり,問題解決や合意形成において議論は欠かせないものである.近年,自然言語処理の分野では,特に作文や意見文といった独話的な論述文を対象とし,議論の解析を行う議論マイニング(ArgumentMining)が進展を遂げてきた\cite{cabrio2018five,Lawrence2019tutorial}.議論マイニングにおける知見やシステムは,人々の意見の集約\cite{stab-etal-2018-cross,reimers-etal-2019-classification}や,議論の質の自動評価・フィードバック\cite{Stab2016a,Wachsmuth2017b,reisert2019}などへ応用が期待されている.議論マイニングにおける中心的なゴールとして,論述文における談話構造の解析(以降,{\bf論述構造解析})が挙げられる.本研究では,論述構造解析のためのベンチマークデータセット\cite{Peldszus2016,stab2017}上で,高性能な論述構造解析モデルの開発を行う.論述構造解析モデルは,与えられた論述文について,談話単位間の論述関係とその種類(\textsc{Support}や\textsc{Attack}),談話単位の機能(\textsc{Premise}や\textsc{Claim},\textsc{MajorClaim})などの構造を予測する.図~\ref{fig:intro}に論述文とその論述構造の例を示す.この例では,{\itInaddition,Ibelievethatcityprovidesmoreworkopportunitiesthanthecountryside.}という主張(談話単位1)について,主張を支持する言及(談話単位2)や,主張と対立する意見(談話単位3)などが述べられている.論述構造はグラフで表現され\cite{Peldszus2015,stab2017},グラフの頂点は談話単位を,グラフの辺は談話単位間の論述関係を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-4ia2f1.eps}\end{center}\hangcaption{論述文とその構造の例.グラフ中の各頂点は談話単位に,各辺は論述関係に対応する.談話単位の下に記しているラベルは談話単位の種類を,辺の上に記しているラベルは論述関係の種類を示す.また,談話単位中の下線付き部分は接続表現に,それ以外の部分は命題に対応する.}\label{fig:intro}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%談話単位のように一単語以上からなる意味的関連のあるまとまりを{\bfスパン}と呼ぶ.論述構造解析は論述文中の談話単位スパンの役割を解析するタスクであるため,スパンに対する特徴ベクトル(スパン分散表現)をどのように計算するかはモデル設計において重要な点である.論述構造解析における既存研究\cite{Potash2016}では,ニューラルネットワークベースのスパン分散表現を用いることで,高い解析性能が実現されてきた.同様に,統語解析や意味解析などの自然言語処理における他タスクにおいても,ニューラルネットワークベースのスパン分散表現は注目を集めており,より効果的なスパン分散表現抽出方法について知見が得られてきた\cite{wang:16,stern:17,P18-2058,D18-1191}.これらの知見と論述文特有の言語的性質を踏まえ,本研究では論述構造解析において効果的なスパン分散表現抽出方法の提案を行う.談話単位の機能や役割は文脈に大きく依存するため,各談話単位のスパン分散表現に論述の文脈情報をうまく取り入れることが解析精度向上の鍵である\cite{Nguyen2016,Lawrence2019tutorial}.論述構造を予測する上で,重要となる文脈情報は大きく二つあると考える.一つは,ある談話単位の周辺にどのような論述関係が存在するかという高次の情報であり,文章中の接続表現の配置からある程度推測することができる.例えば,``ofcourse''$\xrightarrow{}$``but''といった接続表現の系列からは,一旦譲歩した上で反論し返すという\textsc{Attack}関係の連鎖など,典型的な部分構造が捉えられる(図~\ref{fig:intro}中,談話単位3と4).もう一つは,談話単位間の語彙的な結束の強さや話題の変化である.近い話題について議論している談話単位同士は,論述関係を共有している可能性が高いと考える.例えば,図~\ref{fig:intro}中,談話単位1と2では``morework''$\xrightarrow{}$``morejobs''という非常に意味の近い内容語が含まれており,これらの談話単位間の関係は支持の関係で結ばれている.そこで本研究では,各談話単位を機能的な表現(接続表現)と内容(命題)に分解し(図~\ref{fig:intro}中,下線付き部分と下線なし部分),談話単位,接続表現,命題という様々な観点における文脈情報を考慮しながら,談話単位のスパン分散表現を獲得する(\ref{sec:model}節).接続表現の系列は論述のテーマ非依存な文章の型に関する手がかりであるのに対し,命題は論述のテーマに大きく依存した内容であるなど,両者が異なる性質を持つことも,接続表現と命題を区別して扱う動機の一つである.実験から,本研究で提案したスパン分散表現獲得方法を用いることで解析性能が向上することを示す.また,BERTなどの強力な言語モデルから得られる単語分散表現を用いた際にも,既存のスパン分散表現獲得方法をただ適用しただけでは十分な性能が得られないが,本研究で提案したスパン表現獲得法を用いることで,大幅な性能向上が得られることを示す.分析から,特に複雑な構造をもつ論述文において,スパン表現の工夫による性能向上が得られることが分かった.本研究の貢献は以下の通りである.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item論述構造解析において,言語処理における他タスクで有効とされていたスパン分散表現と,本タスクのために拡張したスパン分散表現の有効性を調査した.\item実験結果から,既存のスパン分散表現,およびスパン分散表現の拡張が本タスクにおいて有効であることを示し,複数のベンチマークデータで最高性能を達成した.\item分析から,複雑な論述構造(深いグラフ)を持つ文章において,特に我々のスパン分散表現の獲得方法が有効であることが分かった.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V14N02-02
\label{sec:intro}本論文では,ウェブを利用した専門用語の訳語推定法について述べる.専門用語の訳語情報は,技術翻訳や同時通訳,機械翻訳の辞書の強化などの場面において,実に様々な分野で求めれらている.しかしながら,汎用の対訳辞書には専門用語がカバーされていないことが多く,対訳集などの専門用語の訳語情報が整備されている分野も限られている.その上,専門用語の訳語情報が整備されていたとしても,最新の用語を追加していく作業が必要になる.このため,あらゆる分野で,専門用語の訳語情報を人手で整備しようとすると,大変なコストとなる.そこで,本論文では,対象言語を英語,日本語双方向とし,自動的に専門用語の訳語推定を行う方法を提案する.これまでに行われてきた訳語推定の方法の1つに,パラレルコーパスを用いた訳語推定法がある~\cite{Matsumoto00a}.しかしながら,パラレルコーパスが利用できる分野は極めて限られている.これに対して,対訳関係のない同一分野の2つの言語の文書を組にしたコンパラブルコーパスを利用する方法\cite{Fung98as,Rapp99as}が研究されている.これらの手法では,コーパスにそれぞれ存在する2言語の用語の組に対して,各用語の周囲の文脈の類似性を言語を横断して測定することにより,訳語対応の推定が行われる.パラレルコーパスに比べれればコンパラブルコーパスは収集が容易であるが,訳語候補が膨大となるため,精度の面で問題がある.また,この方法では,訳語推定対象の用語を構成する単語・形態素の情報を利用していない.これに対して,\cite{Fujii00,Baldwin04multi}では,訳を知りたい用語を構成する単語・形態素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成し,単言語コーパスを用いて訳語候補を検証するという手法を提案している.(以下,本論文では,用語の構成要素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成する方法を「要素合成法」と呼ぶ.)要素合成法による訳語推定法の有効性を調査するために,既存の専門用語対訳辞書の10分野から,日本語と英語の専門用語で構成される訳語対を617個抽出した\footnote{\ref{sec:evaluation_set}節で述べる未知訳語対集合$Y_{ST}$に対応する.}.そして,それぞれの訳語対の日本側の用語と英語側の用語の構成要素が対応しているかを調べたところ,88.5\%の訳語対で日英の構成要素が対応しているという結果が得られた.このことから,専門用語に対して要素合成法による訳語推定法を適用することは有効である可能性が高いことがわかった.(以下,本論文では,訳語対において各言語の用語の構成要素が対応していることを「構成的」と呼ぶものとする.)しかしながら,単言語コーパスであっても,研究利用可能なコーパスが整備されている分野は限られている.このため,本論文では,大規模かつあらゆる分野の文書を含むウェブをコーパスとして用いるものとする.ウェブを訳語候補の検証に利用する場合,\cite{Cao02as}の様に,サーチエンジンを通してウェブ全体を利用して訳語候補の検証を行うという方法がまず考えられる.その対極にある方法として,訳語推定の前にあらかじめ,ウェブから専門分野コーパスを収集しておくことも考えられる.サーチエンジンを通してウェブ全体を利用するアプローチは,カバレージに優れるが,様々な分野の文書が含まれるため誤った訳語候補を生成してしまう恐れもある.また,それぞれの訳語候補に対してサーチエンジンで検索を行わなければいけないため,サーチエンジン検索の待ち時間が無視できない.これに対して,ウェブから専門分野コーパスを収集するアプローチは,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補を削除する効果が期待できる.また,ひとたび専門分野コーパスを収集すれば,訳語推定対象の用語が大量にある場合でも,サーチエンジンを介してウェブにアクセスすることなく訳語推定を行うことができる.しかしながら,これまで,この2つのアプローチの比較は行われてこなかったため,本論文では,評価実験を通して,この2つのアプローチを比較し,その得失を論じる.さらに,上記の2つのアプローチの比較も含めて,本論文では,訳語候補のスコア関数として,多様な関数を以下のように定式化する.要素合成法では,構成要素に対して,対訳辞書中の訳語を結合することにより訳語候補が生成されるので,構成要素の訳語にもとづいて訳語候補の適切さを評価する.これを対訳辞書スコアと呼ぶ.また,それとは別に,生成された訳語候補がコーパスに生起する頻度に基づいて,訳語候補の適切さを評価する.これをコーパススコアと呼ぶ.本論文では,この2つスコアの積で訳語候補のスコアを定義する.本論文では,対訳辞書スコアに頻度と構成要素長を考慮したスコアを用い,また,コーパススコアには頻度に基づくスコアを用いたスコア関数を提案し,確率に基づくスコア関数\cite{Fujii00}と比較する.さらに,対訳辞書スコア,コーパススコアとしてどのような尺度を用いるか,に加え,訳語候補の枝刈りにスコアを使うかどうか,コーパスとしてウェブ全体を用いるか専門分野コーパスを用いるか,といったスコア関数の設定を変化させて合計12種類のスコア関数を定義し,訳語推定の性能との間の相関を評価する.実験の結果,コーパスとしてウェブ全体を用いた場合,ウェブには様々な分野の文書が含まれるため誤った訳語候補を生成してしまうことが多い反面,カバレージに優れることがわかった.逆に,ウェブから収集した専門分野コーパスを用いた場合,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補の生成を抑える効果が確認された.また,ウェブから収集した専門分野コーパスを用いる方法の性能を向上させるためには,専門分野コーパスに含まれる正解訳語の割合を改善することが課題であることがわかった.以下,本論文では,第\ref{sec:web_yakugosuitei}章でウェブを用いた専門用語訳語推定の枠組みを導入し,専門分野コーパスの収集方法について述べる.第\ref{sec:compo-method}章では要素合成法による訳語推定の定式化を行い,訳語候補のスコア関数を導入する.第\ref{sec:experiments}章では実験と評価について述べる.第\ref{sec:related_work}章では関連研究について述べ,本論文との相違点を論じる.
V20N02-02
\label{First}ロボットと人間との関係は,今後大きく変化していくと考える.今までのような単純な機械作業だけがロボットに求められるのではなく,例えば施設案内や介護現場のサポート,愛玩目的,ひいては人間と同じようにコミュニケーションを行うパートナーとしての存在も要求されると考える.このとき,人間との円滑なコミュニケーションのために必要不可欠となるのが会話能力である.あいさつや質問応答,提案,雑談といった様々な会話を人間のように行えてこそ,自然なコミュニケーションが実現すると考える.ロボットがこういった会話,とくに提案や雑談といった能動的なものを行うためにはそのためのリソースが必要である.例えば日々の時事情報が詰まった新聞などは,情報量の多さや入手の手軽さ,話題の更新速度などから言っても適当なリソースといえる.この新聞記事によって与えられる時事情報を会話の話題として利用することは,ロボットに人間らしい会話を行わせるためには有効なのではないかと考えた.新聞記事を利用した会話をロボットに行わせる最も簡単な方法は,新聞記事表現を会話テンプレートに埋め込むといったものと考える.このとき問題になるのが新聞記事表現の難解さである.新聞のように公に対して公開される文章は短い文で端的に内容を表すため,馴染みの薄い難解な言葉,俗にいう「堅い」言葉を多く使う.これらの言葉は文章として読むには違和感はないが,会話に用いるには自然ではないことが多い.例えば「貸与する」という言葉は会話では「貸す」という言い方をするほうが自然である.また,一般的にはそう難解ではない言葉,例えば「落下した」という言葉も会話ということを考えると「落ちた」のような更に易しい表現の方が馴染みやすいと感じる.つまり会話に用いられる言葉と新聞といった公的な文中に用いられる言葉の間には,同じ意味を表すにしても難易度や馴染みの深さに違いがある.ロボットの発話リソースとして新聞を用いることを考えると,このような語の馴染みの違いに考慮しなければならない.そこで本稿ではロボットと人間との自然な会話生成を担う技術の一端として,新聞記事中の難解な語を会話表現に見あった平易な表現へと変換する手法を提案する.本稿では変換後の記事をより人間にとって違和感の無いものとするために,人間が自然に行う語の変換に則った処理を提案する.つまり,語をそれと同じもしくは近い意味の別の平易な1語に変換する1:1の変換処理(1語変換)および語を平易な文章表現に変換する1:$N$の変換処理($N$語変換)の双方を併用することで人間が自然だと感じる語の変換を目指す.語の難解さ,平易さの判断には\cite{Book_01}で報告されている単語親密度を用いる.これは語の「馴染み深さ」を定量化した数値であり,新聞記事に用いられる語と一般的な会話に用いられる語の間にある単語親密度の差を調査することで新聞記事中の難解語を自動的に判断,平易な表現への変換を可能とする.また,変換処理を行う上で重要な意味の保持に関しては,人間の連想能力を模倣した語概念連想を用いることでそれを実現する.語と語,文と文の間の意味関係を柔軟に表現することを目指した語概念連想の機構を利用することで,変換前の記事が持つ意味を考慮した変換を行う.
V30N02-14
自然言語推論(NLI)\cite{series/synthesis/2013Dagan}とは,2つのテキスト(一方を\emph{前提},他方を\emph{仮説}と呼ぶ)の間に成り立つ推論的関係を同定するタスクである.前提から仮説が,論理的知識や常識的知識を用いて導出可能である場合は\emph{含意},前提と仮説が両立しえない場合は\emph{矛盾},そのいずれでもない場合は\emph{中立}と判定する.質問応答,情報検索,テキスト要約などの幅広い分野での応用が期待されている.近年,ニューラルモデルに基づくアプローチ\cite{parikh-etal-2016-decomposable,chen-etal-2017-enhanced,devlin-etal-2019-bert,DBLP:journals/corr/abs-1909-11942,tai-etal-2020-exbert,Wang2021EntailmentAF}が提案され,SNLIコーパス\cite{bowman-etal-2015-large},MultiNLI(MNLI)コーパス\cite{williams-etal-2018-broad},AdversarialNLI(ANLI)データセット\cite{nie-etal-2020-adversarial},QNLIデータセット\cite{wang-etal-2018-glue}などのNLIデータセットを用いた実験で高い正答率を達成している.しかし,このアプローチに基づくNLIは,判定結果に至る過程や理由を説明する能力を有していないという問題がある.ニューラルモデルの内部はブラックボックスであり,どのような推論を経て判定に至ったのかを人間が推察することは容易ではない\footnote{Kumarら\cite{kumar-talukdar-2020-nile}は説明文を生成するNLIシステムを提案している.しかし,説明文はニューラルモデルにより生成されるため,説明文の生成過程はブラックボックス化しており,内部の処理を知ることは困難であるといえる.}.このような問題に対して,近年,機械学習モデルの判定の過程を明らかにするための技術,いわゆる説明可能なAI(XAI)\cite{BARREDOARRIETA202082}の研究が進められており,自然言語処理の分野においても同様の問題意識を共有している\cite{danilevsky-etal-2020-survey}.また,ニューラルモデルによる推論の正当性についても問題が指摘されている.例えば,Yanakaら\shortcite{yanaka-etal-2020-neural}は,ニューラルモデルが自然言語における推論の体系性を学習するかについてmonotonicityの観点から評価する手法を提案し,現状のニューラルモデルの汎化性能には限界があることを示している.\pagebreakまた,Gururanganら\shortcite{gururangan-etal-2018-annotation}やTsuchiya\shortcite{tsuchiya-2018-performance}は,SNLIコーパスやMNLIコーパスなどのNLIデータセットには,本来2つのテキストに対して定まるはずの推論的関係が,一方のテキストのみから推測できてしまうバイアスがあることを示し,ニューラルモデルが単にバイアスに基づいて推論的関係を同定しているという危険性を指摘している.一方,NLIでは従来より,記号操作に基づくアプローチが提案されてきた\cite{bar2007semantic,maccartney-manning-2007-natural,maccartney-manning-2008-modeling,maccartney-manning-2009-extended,mineshima-etal-2015-higher,abzianidze-2015-tableau,abzianidze-2017-langpro,hu-etal-2020-monalog}.このアプローチには,ニューラルモデルによるものと異なり,推論の論理的な過程を明示できるという利点がある.また,推論における記号操作は,論理学や言語学による裏付けが与えられているため,推論の根拠を示すことができる.しかし,このアプローチでは,推論規則を人手で作成する必要があり,語の同義・対義関係や上位・下位関係を網羅的に扱うことが難しいという問題がある.加えて,「雨が降ると地面が濡れる」といった常識的知識を推論規則として表現しなければならず,それを人手で網羅することは困難である.実際,記号操作に基づくアプローチは,FraCaStestsuite\cite{Consortium96usingthe}やSICKデータセット\cite{marelli-etal-2014-sick}など,論理的知識に基づき推論的関係が導出できるように統制をかけて作成されたNLIデータセット(以下,統制NLIデータと呼ぶ)に対して優位性が示されている.一方,上述したSNLIコーパスやMNLIコーパスなどは,統制NLIデータで課されたような統制をかけず比較的自由に作成されている(以下,非統制NLIデータと呼ぶ).語の意味的知識や常識的な知識を十分に備えていない記号操作に基づくアプローチでは,非統制NLIデータに対して高い正答率を達成することは難しい.そこで本論文では,ニューラルモデルに基づくアプローチが備える,非統制NLIデータへの適用可能性を維持しつつ,論理的な推論過程を明示可能な自然言語推論システムを実現するための一手法を提案する.本手法では,形式論理の証明手法の一つであるタブロー法のアルゴリズムとニューラルNLIモデルを組み合わせる.タブロー法は,推論規則の適用に基づく論理式の分解,並びに論理式への真偽値割り当てが存在するか否かの検査から構成される.提案手法ではこのうち,真偽値割り当ての検査にニューラルNLIモデルを用いる.タブロー法は通常,論理式を操作対象とするのに対し,本手法では,依存構造を操作対象とする.依存構造を用いることにより,ニューラルNLIモデルをタブロー法アルゴリズムに組み込むことが可能となる.本手法で導入するニューラルNLIモデルには,入力として前提文と仮説文を受け取ること,及び,それらの推論的関係を出力することのみを課し,その内部処理に関する制約はない\footnote{すなわち,本手法は任意のニューラルNLIモデルに適用可能である.}.本論文の構成は以下の通りである.まず2章で,提案手法のベースとなるタブロー法について概説する.3章では,タブロー法とニューラルNLIモデルを組み合わせた推論手法を提案する.続く4章では,提案手法の意味論をモデル理論的に定式化し,手法の理論的性質を明らかにする.5章では,SLNIコーパスを用いて,提案手法の推論能力を定量的及び定性的に評価する.6章では,関連研究を整理し,提案手法との違いを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V10N05-01
LR構文解析法は,構文解析アルゴリズムとして最も効率の良い手法の一つである.LR構文解析法の中でも,横型探索で非決定的解析を行うことにより文脈自由言語の扱いを可能にした方法は一般化LR法(GLR法)と呼ばれ,自然言語処理および,音声認識で利用されている.また,LR法の構文解析過程に確率を割り当てることで,確率言語モデルを得ることができる.確率一般化LR(PGLR)モデル\cite{inui1998},およびその一般化であるAPGLRモデル\cite{akiba2001}は,構文解析結果の構文木の曖昧性解消や,音声認識の確率言語モデル\cite{nagai1994,imai1999,akiba2001}として利用されている.LR構文解析法では,文法が与えられた時点であらかじめ計算できる解析過程を先に求め,LR解析表(以下,LR表)で表しておき,文解析時に利用する.LR法は,言わば,空間効率を犠牲にする(LR表を作成する)ことによって,解析時間の効率化を実現する手法である.LR法を実際の問題に適用する場合の問題点の一つは,文法の規則数増加に伴うLR表のサイズの増大である.計算機言語の解析\cite{aho1986},自然言語の解析\cite{luk2000},音声認識\cite{nagai1994},それぞれの立場からこの問題点が指摘されている.LR表のサイズを押えるひとつの方法は,解析効率を犠牲にして空間効率をある程度に押える方法である.本来LR法が利用されていた計算機言語用の構文解析においては,LR法は決定的解析器として利用されてきた.決定的解析としてのLR法が扱える文法は,文脈自由文法のサブセットである.LR表は,その作り方から幾つかの種類に分類されるが,それらは決定的解析で扱える言語に違いがある.単純LR(SimpleLR;SLR)表は,作り方が単純で表サイズを小さく押えられるが扱える文法の範囲が狭い.正準LR(CannonicalLR;CLR)表は,サイズは非常に大きくなるが扱える文法の範囲は最も広い.両者のバランスを取るLR表として,サイズを小さく押えつつ扱える文法の範囲をそこそこ広くとれる,LALR(LookAheadLR)表が提案されている.一方,文脈自由文法を扱う自然言語処理でLR表を利用する場合は,非決定的解析として利用するのが普通である.決定的解析で扱える言語の大きさは,非決定的解析での解析効率に相当する.すなわち,SLR,LALR,CLRの順に効率は良くなるが,それに伴い表のサイズは増大する.また,計算機言語に用いるLR表のサイズ圧縮手法には,2次元配列としてのスパースな表をいかに効率よく圧縮するかという視点のものも多い.これらは,作成後の表を表現するデータ構造に工夫を行ったもので,表自体が運ぶ情報には違いがない.自然言語処理の分野でも,解析表縮小の手法が提案されている.田中らは,文脈自由文法と単語連接の制約を切り放して記述しておき,LRテーブル作成時に2つの制約を導入する手法(MSLR法)\cite{tanaka1995}を用いることで,単独の文脈自由文法を記述するより解析表のサイズを小さくすることができたと報告している\cite{tanaka1997}.Lukらは,文法を小さな部分に分割して,それぞれを扱うパーザを組み合わせることで,解析表のサイズを押える方法を提案している\cite{luk2000}.以上の従来手法をまとめると,次の3つの手法に分類できる.\begin{enumerate}\item処理効率を犠牲にして空間効率を稼ぐ方法.\item表のデータ構造を工夫して記憶量を引き下げる方法.\item文法の記述方法を工夫してより小さな表を導出する方法.\end{enumerate}本稿では,LR表のサイズを圧縮する,上記の3分類には当てはまらない新規の手法を提案する.提案法は従来の手法と異なり,LR表作成アルゴリズムの再検討を行い,解析に不要な情報を捨象することによって,表の圧縮を実現する.本手法は,次のような特徴を持つ.(1)上記の従来の縮小手法とは手法の軸が異なるため,どの手法とも同時に適用可能である\footnote{ただし,MSLR法\cite{tanaka1995}との同時適用には,表作成に若干の修正が必要である.MSLR法では,提案法で解析に不要とする情報の一部を利用しているためである.MSLR法への対応方法ついては,付録.Bで述べる.}.(2)入力文の構文木を得るという自然言語処理用途において,提案法は解析時の効率に影響をあたえることはない\footnote{計算機言語の構文解析では,解析時に規則に付随するアクション(プログラム)を実行することが要求される.提案法による圧縮LR表では適用されるCFG規則は解析時に動的に求まるので,規則から付随するアクションを検索する処理の分オーバーヘッドが生じる.入力文から構文木を得ることを目的とする自然言語処理用途では,このオーバーヘッドは生じない.}.(3)従来の表作成および解析アルゴリズムへの変更個所は小さく,プログラムの軽微な修正で適用可能である.特に,提案法によって作成された圧縮LR表は,既存のLR構文解析プログラムでほぼそのまま利用可能である.本稿の構成は以下の通りである.まず\ref{ss:base}節で,提案法の基本原理を説明する.また,提案法の性質を考察する.続く\ref{ss:experiment}節では,提案法の実装方法と,実際の文法に提案手法を適用した実験結果を示す.\ref{ss:extension}節では,提案手法の限界を克服するための拡張方法について述べ,実際の文法に適用した結果を報告する.\ref{ss:related}節では,関連研究について述べる.
V02N03-03
著者らは放送分野を対象とした英日機械翻訳システムを開発している\cite{Aiz90,Tan93,TanAndHat94}.この中で最もコストがかかり手間を要するのが辞書の作成である.著者らの経験によれば,この中で最も困難なのが動詞の表層格フレーム(以下,格フレームと省略する)の記述である.これは英語の動詞の日本語訳語を選択するために利用される情報で,動詞の取りうる文型とその時の訳語を記述したものである.従来,これらは冊子辞書や用例を参照しながら人手で収集・記述していた.しかし,\begin{enumerate}\item記述する表層格要素(以下,格要素と省略する)や,その制約を一貫して用いることが難しいこと\item格フレームの一部を変更した場合に,訳語選択に与える影響が把握しにくいこと等の問題があり,この収集・記述作業の効率は非常に悪かった.\end{enumerate}このため本論文ではこれらの問題の解決を目指し,格フレームの新たな表現手法,および獲得手法を提案する.これは著者らの英日機械翻訳システムのみならず,動詞訳語選択に格フレームを利用するその他の機械翻訳システムの構築にも応用できるものである.本論文では上記の2問題を解決するために次の2点を提案する.\begin{enumerate}\item動詞の翻訳のための格フレームを決定木の形で表現する.以下,本論文ではこの決定木を格フレーム木と呼ぶ.\item英日の対訳コーパスから,統計的な帰納学習アルゴリズムを用いて格フレーム木を自動的に学習する\cite{TanAndEha93,Tan94a,Tan94b}.\end{enumerate}また,この提案に基づいて実際に対訳コーパスから格フレーム木を獲得する実験を2種類行う.本論文で学習の対象としたのは訳語の数の多い英語の7つの動詞(``come'',``get'',``give'',``go'',``make'',``run'',``take'')である.最初の獲得実験では格要素の制約として語形を利用した.この結果,人間の直観に近く,かつ人手で獲得する場合より精密な訳し分けの情報が獲得されたことを示す.また2番目の実験では,格フレーム木の一般性を確保することを目的とし,意味コードを格要素の制約として用いた.この結果,未学習のデータを入力して動詞の訳語を決定する実験で2.4\%から32.2\%の誤訳率が達成された.これらの結果と,単純に最高頻度の訳語を出力した場合の誤訳率との差は13.6\%から55.3\%となりかなりの改善が得られた.実験に先だって著者らは英日の対訳コーパスを作成した.著者らの目的とする格フレーム木は,放送ニュース文を対象とすることを想定している.このため,学習には放送分野のコーパスを利用するのが望ましい.しかし,現在このような英日対訳コーパスは入手可能でないため,AP(AssociatedPress)のニュース英文を利用して作成した.本論文ではこの対訳コーパスの設計,作成過程および特徴についても触れる.著者らの研究は,コーパスから自然言語処理システムのルールを獲得する研究である.大規模コーパスが入手可能になるにつれ,この種の研究は盛んになりつつある.また,その獲得の目的とするルールもさまざまである.これらの中で本論文に近い研究としては,\cite{UtuAndMat93}および,\cite{Alm94}の研究が挙げられる.\cite{UtuAndMat93}では,自然言語処理一般に利用することを目的とした日本語動詞の格フレームの獲得を試みている.ここで提案されている手法は,タグ付けされていない対訳テキストから格フレームが獲得できる点で著者らの手法より優れている.しかし,ここで利用されている学習アルゴリズムは,格フレームの利用の仕方を考慮したものではない.このため,著者らの目的である動詞の訳語選択にどの程度有効であるかは不明である.これに対して,著者らのアルゴリズムはエントロピーを基準にして,動詞の訳語選択の性能を最大にするように格フレーム木の獲得を行う.この結果,訳語選択に適した情報が獲得され,しかもその性能が統計的に把握できる利点を持っている.\cite{Alm94}では著者らと逆に日英機械翻訳システムで利用するための日本語動詞の翻訳ルールを学習する手法を提案している.用いられている学習手法は基本的には本論文と同じものである.ただし,この論文では動詞の翻訳のための規則を決定木で表現することの利点について触れていないが,これには大きな利点があることを著者らは主張する.また,この論文では学習に利用した対訳事例をどのような所に求めたかは明らかにされていない.しかし,これは獲得される格フレーム木に大きな影響を与えるため著者らはこれを詳細に論ずる.さらに,この論文では人手で作成したルールとの一致で評価を行っているが,訳語選択の性能については触れられていない.これに対して著者らは動詞の誤訳率で評価を行う.本論文の構成は以下の通りである.2章では,人手で行っていた従来の格フレームの獲得,記述の問題点を整理する.3章ではこの解決のため,先に述べた提案を行うとともに,格フレーム木を英日対訳コーパスから学習する手法を説明する.4章では,本論文で利用する英日対訳コーパスの作成について述べる.5章では,このコーパスの語形を直接的に利用した格フレーム木の獲得実験を行う.6章では,対訳コーパスを意味コードで一般化したデータを作成して格フレーム木の獲得実験を行う.7章では本論文のまとめを行い,今後の課題について述べる.\begin{figure}\begin{center}\begin{tabular}{|ll|}\hlineSN[man]takeON[boy]&選ぶ\\SN[I]takeON[him]PN[to]PNc[BUILD]&連れていく\\SN[HUMAN]takeON[CON]PN[to]PNc[BUILD]&持っていく\\\hline\multicolumn{2}{r}{記号:格要素{[制約]}}\\\end{tabular}\caption{``take''の格フレームの例}\end{center}\end{figure}
V23N01-02
場所や時間を気にすることなく買い物可能なオンラインショッピングサイトは重要なライフラインになりつつある.オンラインショッピングサイトでは商品に関する説明はテキスト形式で提供されるため,この商品説明文から商品の属性-属性値を抽出し構造化された商品データを作成する属性値抽出技術は実世界でのニーズが高い.ここで「商品説明文から商品の属性値を抽出する」とは,例えばワインに関係した以下の文が入力された時,(生産地,フランス),(ぶどう品種,シャルドネ),(タイプ,辛口)といった属性と属性値の組を抽出することを指す.\begin{itemize}\itemフランス産のシャルドネを配した辛口ワイン.\end{itemize}\noindentこのような商品の属性値抽出が実現できれば,他の商品のレコメンドやファセット検索での利用,詳細なマーケティング分析\footnote{商品を購入したユーザの属性情報と組み合わせることで「30代女性にフランス産の辛口ワインが売れている」といった分析ができる.}等が可能になる.商品の属性値抽出タスクは従来より多くの研究がなされており,少数のパターンにより属性値の獲得を試みる手法\cite{mauge2012},事前に人手または自動で構築した属性値辞書に基づいて属性値抽出モデルを学習する手法\cite{ghani2006,probst2007,putthividhya2011,bing2012,shinzato2013},トピックモデルにより属性値を獲得する手法\cite{wong2008}など様々な手法が提案されている.本研究の目的は商品属性値抽出タスクに内在している研究課題を洗い出し,抽出システムを構築する上でどのような点を考慮すべきか,またどの部分に注力するべきかという点を明らかにすることである.タスクに内在する研究課題を洗い出すため,属性-属性値辞書に基づく単純なシステムを実装し,このシステムが抽出した結果のFalse-positve,False-negative事例の分析を行った.エラー分析という観点では,Shinzatoらがワインとシャンプーカテゴリに対して得られた結果から無作為に50件ずつFalse-positive事例を抽出し,エラーの原因を調査している\cite{shinzato2013}.これに対し本研究では5つの商品カテゴリから20件ずつ商品ページを選びだして作成した100件のデータ(2,381文)を対象に分析を行い,分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた.システムのエラー分析を行い,システム固有の問題点を明らかにすることはこれまでも行われてきたが,この規模のデータに対して商品属性値抽出タスクに内在するエラーのタイプを調査し,カテゴリ化を行った研究は筆者らの知る限りない.後述するように,今回分析対象としたデータは属性-属性値辞書に基づく単純な抽出システムの出力結果であるが,これはDistantsupervision\cite{mintz2009}に基づく情報抽出手法で行われるタグ付きコーパス作成処理と見なすことができる.したがって,本研究で得られた知見は商品属性値抽出タスクだけでなく,一般のドメインにおける情報抽出タスクにおいても有用であると考えられる.
V06N02-04
日本語テキスト音声合成は,漢字かな交じりの日本語テキストに対して,読み,アクセント(韻律上の基本単位であるアクセント句の設定とそのアクセント型付与),ポーズ等の読み韻律情報\footnote{本論文では,読みと,アクセントやポーズなどの韻律情報をまとめて読み韻律情報とよぶ.}を設定し,これらを元に音声波形を生成して合成音声を出力する.自然で聞きやすい合成音声を出力するためには,この読み韻律情報を正しく設定する必要がある.読みは,形態素解析により認定された単語の読みにより得られるため,形態素解析の精度が読みの精度に直結する.ただし,数量表現の読み(例:11本→ジューイ\underline{ッポ}ン:\mbox{下線部分=読み}が変化)と連濁化(例:子供+部屋→コドモ\underline{ベ}ヤ:\mbox{下線部分=連濁)については,すべてを単語}として辞書登録するのは困難であるため,規則により読みを付与する.数量表現の読みについては\cite{Miyazaki4},連濁化については\cite{Sato}等により,その手法がほぼ確立されている.アクセント句のアクセント型設定については,\cite{Sagisaka}の付属語アクセント結合規則,複合単語(自立語)のアクセント結合規則,文節間アクセント結合規則により,その手法がほぼ確立されている.アクセント句境界とポーズの設定については,従来から多くの手法が提案されている.ヒューリスティックスベースの手法としては,係り受けの構造を利用する\cite{Hakoda1},右枝分かれ境界等の統語情報を用いる\cite{Kawai}等がある.また,統計的手法によるポーズの設定としては,係り受け情報を利用した手法\cite{Kaiki}が提案されている.しかしこれらは,係り受けなどの言語的情報が既知であることを前提としており,これらの言語的情報の取得が課題となる.一方,\cite{Suzuki}ではN文節の品詞情報を用いて局所的な係り受け構造を推定し,また\cite{Fujio}では,品詞列を入力として確率文脈自由文法を用いて係り受けを学習し,アクセント句境界や韻律句境界,ポーズの設定を行う.しかし\cite{Suzuki}は,文節内の処理については言及しておらず,また,\cite{Fujio}では文節内での設定において,文節内構造の予測誤りによる精度の低下が問題点として挙げられている.我々は,\cite{Miyazaki1}の方式をベースとし,多段解析法による形態素解析を用いて得られた単語情報を利用して規則により読み韻律情報を設定し,\cite{Hakoda2}の音声合成部を用いて合成音声を出力する日本語テキスト音声合成システムAUDIOTEXを開発した.このAUDIOTEXには,現在,数多く開発されている音声合成システムと比較して以下の2つの特徴がある.\begin{itemize}\item単語辞書の登録単語数が多いため,形態素解析における未知語認定が少ない.\\(AUDIOTEX:約37万語,市販の主な音声合成システム:10〜14万語)\item単語辞書において,特に名詞と接辞は,他のシステムにはない意味カテゴリ等の意味情報をもち,これらの意味情報を用いた複合語の意味的係り受け解析により,複合語の構造を高精度に解析できるため,複合語の多用されるニュース文などに対しても,正しく読み韻律情報が設定できる.\end{itemize}本論文では,AUDIOTEXにおける読み韻律情報の設定,特に\cite{Miyazaki1}からの主な改良点として,形態素解析における読み韻律情報付与に対応した長単位認定,アクセント句境界設定における複数文節アクセント句の設定,ポーズ設定における多段階設定法の導入について述べ,さらに,これらの処理で用いる単語辞書の構成について説明する.この読み韻律情報の設定においては,文節間の係り受け解析は行わず,多段解析法の形態素解析により得られる複合語内意味的係り受け情報,品詞等の単語情報のみを用いる.文節間の係り受け解析を行わないのは,現状,係り受け解析の精度が十分でなく,コストがかかり,また,文節間係り受けの影響を大きく受けるポーズ設定においては,アクセント句境界前後の品詞情報等から得られるアクセント句結合力を導入することにより,実用上十分な精度が得られるためである.さらに,文節内の構造に対しては,複合語意味的係り受け情報を用いることにより,その局所構造を元に適切にポーズを設定できる.以下,\ref{sec:TTS-flow}節ではテキスト音声合成処理の流れ,\mbox{\ref{sec:morph}節では形態素解析における読み韻律情報設定}のための特徴,\ref{sec:dic}節では読み韻律情報設定のための単語辞書の情報,\ref{sec:assign}節では読み韻律情報の設定方法,\ref{sec:evaluation}節では読み韻律情報設定に対する評価と考察,\ref{sec:conclusion}節ではまとめを述べる.
V21N06-02
従来の紙版の国語辞典\footnote{国語辞典は,対象や規模により多種類のものが存在する.著者らが研究対象としているものは,小型国語辞典(6〜9万語収録)と呼ばれ,「現代生活に必要な語,使用頻度の高い語」の収録と記述とに重きがおかれているものである(柏野2009).}は紙幅の制約などから,用例の記述は必要最小限に厳選されていた.しかし,電子化編集が容易になり,国語辞典データ\footnote{『岩波国語辞典』(岩波書店)はCD-ROM版が市販され,さらに,電子化データ(岩波国語辞典第5版タグ付きコーパス2004)が研究用に公開されている(http://www.gsk.or.jp/catalog.html).}や種々のコーパスが活用できるようになった今,新たな「コーパスベース国語辞典」の構築が可能になった.ここで,「コーパスベース国語辞典」とは,従来の紙版の国語辞典の記述に加え,コーパス分析から得られる豊富な用例,そのほか言語のさまざまな辞書的情報を詳細に記述する,電子テキスト版の国語辞典のことである.紙幅によって制約されていた記述量の制限をなくし,辞書記述の充実をはかることがねらいである.そうした「コーパスベース国語辞典」は,人にも計算機にも有用性の高いものと期待される.しかし,単に情報を増やせばよいというものではなく,有用な情報を的確に整理して記述することが不可欠である.著者らはそのような観点から,その用例記述の際に見出し語のもつ文体的特徴を明記することにより,より利用価値の高い「コーパスベース国語辞典」を構築することを目指している.文体的特徴の記述は,語の理解を助け,文章作成時にはその語を用いる判断の指標になり得るため,作文指導や日本語教育,日本語生成処理といった観点からの期待も高い.従来の国語辞典では,文体的特徴として,「古語,古語的,古風,雅語,雅語的,文語,文語的,文章語,口語,俗語」などのように,位相と呼ばれる注記情報が付与されてきた\footnote{そのほか,使用域についてその語が用いられる専門分野を示すことが試みられている.}.本論文では,そのような注記が付与されるような語のうち,「古さ」を帯びながら現代語として用いられている語に着目する.本論文ではそのような語を「古風な語」と呼び,次の二点を満たすものと定義する.\begin{itemize}\item[(a)]「時代・歴史小説」を含めて現代で使用が見られる.\item[(b)]明治期以前,あるいは,戦前までの使用が見られる.\end{itemize}(a)は,現代ではほとんど使われなくなっている古語と区別するものである.(b)は「古風な語」の「古さ」の範囲を定めるものである.本論文では,現代語と古語との境と一般にされている明治期以前までを一つの区切りにする.また,戦前と戦後とで文体変化が大きいと考えられるため,明治期から戦前までという区切りも設ける.しかしながら,一般には,戦前までさかのぼらずとも,事物の入れ替わりや,流行の入れ替わりにより,減っていったもの,なくなっていったものに「古さ」を感じることは多い.例えば,「ポケベル」「黒電話」「ワープロ」「こたつ」などである.こういった,近年急速に古さを感じるようになっている一連の語の分析も辞書記述の一つの課題と考えるが,本論文で取り上げる「古風な語」は,戦前までさかのぼって「古さ」を捉えることとし,それ以外とは区別する.「古風な語」に注目する理由は,三点ある.一点目は,現代語の中で用いられる「古風な語」は少なくないにも関わらず,「古語」にまぎれ辞書記述に取り上げ損なってしまう危険性のあるものであること.二点目は,その「古風な語」には,文語の活用形をもつなど,その文法的な扱いに注意の必要なものがあること.三点目は,「古風」という文体的特徴を的確かつ,効果的に用いることができるよう,十分な用法説明が必要な語であるということ,である.「古風な語」には,例えば,「さ【然】」がある.これは,「状態・様子がそうだという意を表す語。」(『岩波国語辞典』第7版,岩波書店)であり,現代では,「さほど」「さまで」「さばかり」「さしも」「さも」…のように結合して用いられる.その一つ,「さもありなん」(そうなるのがもっともだ)は,「さも」+「あり」+文語助動詞「ぬ」の未然形「な」+文語助動詞「む」である「ん」,から成る連語である.枕草子(128段)に,「大口また、長さよりは口ひろければさもありなむ」と使われている.一方,国立国語研究所『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下,BCCWJと記す\footnote{BCCWJの詳細は,山崎(2009,2011),前川(2008,2013)を参照.})には,全体で34件の用例があり,いずれも,現代文脈での使用である.「まさか和久さんが指導員として復帰してるなんて思わなかったから。でも、\textbf{さもありなん}、という気もする。」(君塚良一(1950年代生まれ)/丹後達臣,『踊る大捜査線スペシャル』扶桑社,1998年)などである.同じように,「なきにしもあらず」「いわずもがな」「推して知るべし」…など,現代文脈で用いられる文語調の表現は他にもあり,BCCWJの現代文脈でそれぞれの用例を得ることができる.「古風な語」は,これまでにも現代日本語における特徴的な語として着目されてきた.実際,多くの国語辞典では,現代文脈で使われる古さを帯びている語については,「古語」とはせず,「古語的」「古風」「雅語」「文語」「文語的」といった注記が付されている.しかし,これらの注記を横断的に俯瞰することや,「古風な語」の使用実態とその辞書記述との関連を検討する試みは,これまで行われていなかった.以上の問題を解決するために,本論文では,まずは「古風な語」の調査語として,電子化版が市販されている『CD-ROM岩波日本語表現辞典—国語・漢字・類語—』(2002年)収録の『岩国』(第6版)に「古語的」「古風」と注記されている語を用い,現在刊行されている国語辞典で「古風な語」がどのように取り上げられているかを横断的に俯瞰する.次に,現代語のコーパスであるBCCWJに収録されている約3,000万語分の書籍テキストを用いて,その使用実態を分析し(柏野,奥村2010,2011),それに基づき,文脈の特徴や用例を『コーパスベース国語辞典』に記述する方法を提案し,その有用性を論じる.
V04N03-04
近年,大量の機械可読なテキスト(コーパス)が利用可能になったことや,計算機の性能が大幅に向上したことから,コーパス・データを利用した確率的言語モデルの研究が活発に行われてきている.確率的言語モデルは,従来,自然言語処理や音声処理などの工学分野で用いられ,その有効性を実証してきたが,比較言語学,方言研究,言語類型論,社会言語学など,言語学の諸分野においても有用な手法を提供するものと思われる.本稿では,言語学の分野での確率的言語モデルの有用性を示す一例として,言語のクラスタリングを取り上げる.ここでは,言語を文字列を生成する情報源であるとみなし,この情報源の確率・統計的な性質を確率モデルによりモデル化する.次に,確率モデル間に距離尺度を導入し,この距離尺度に基づき言語のクラスタリングを行なう方法を提案する.以下では,まず2節で先行研究について概説し,3節で確率的言語モデルに基づく言語のクラスタリング手法を提案する.4節では,提案した手法の有効性を示すために行った実験について述べる.ここでは,ECI多言語コーパス(EuropeanCorpusInitiativeMultilingualCorpus)中の19ヶ国語のテキスト・データから,言語の系統樹を再構築する.また,実験により得られた結果を,言語学的な観点から考察する.最後に,他分野への応用および今後の課題などについて述べる.
V10N04-04
自然言語には一つの意味内容を指し示すのに様々な表現を用いることができるという特徴がある.これは同義異表記の問題と呼ばれ,多くのアプリケーションの高精度化を妨げる原因の一つである.例えば情報検索や質疑応答といったアプリケーションでは,検索質問と文書が異なる表現を用いて記述されている場合,それらが同じ意味内容を表しているかどうかを判定する必要がある.また,計算機上で正しく推論を行うためには,推論ルールと実際の文の間の表現の違いを吸収しなくてはならない.そこで,言い換えという「同じ意味内容を表す複数の表現を結びつける変換」を自然言語処理の基礎技術として使い,この問題を解決しようとする考え方が現われてきた\cite{Sato99,Sato01,Kurohashi01}.このような背景から,近年では言い換え処理の重要性が認識されはじめ,さかんに研究が行われている.テキストを平易に言い換えてユーザの読解補助を行うアプリケーションが注目を集めていることも,言い換え研究が盛んに行われている一つの理由である\cite{Takahashi01}.近年の計算機やネットワークの発達によって,我々は膨大な電子テキストにアクセスすることが可能となったが,一方で年少者やノンネイティブなど,その恩恵を十分に受けることができないユーザが存在している.そのため,このようなアプリケーションへのニーズは今後増加し,言い換え処理の重要性も高まると考えられる.
V17N02-03
label{sec:intro}自然言語処理や言語学においてコーパスは重要な役割を果たすが,従来のコーパスは大人の文章を集めたものが中心で子供の文章を集めたコーパスは少ない.特に,著者らが知る限り,書き言葉を収録した大規模な子供のコーパスは存在しない.\ref{sec:problems}節で詳細に議論するように,子供のコーパスの構築には,子供のコーパス特有の様々な難しさがある.そのため,大規模な子供のコーパスの構築は容易でない.例えば,ChildLanguageDataExchangeSystem(CHILDES)~\cite{macwhinney1,macwhinney2}の日本語サブコーパスであるHamasakiコーパス~\cite{hamasaki},Ishiiコーパス~\cite{macwhinney1,macwhinney2},Akiコーパス~\cite{aki},Ryoコーパス~\cite{ryo},Taiコーパス~\cite{tai},Nojiコーパス~\cite{macwhinney1,macwhinney2}は,全て話し言葉コーパスである.また,対象となる子供の数は1人である(表~\ref{tab:previous_corpus}に,従来のコーパスの概要を示す.英語コーパスについては,文献~\cite{chujo}に詳しい).言語獲得に関する研究や自然言語処理での利用を考えた場合,コーパスは,子供の人数,文章数,収集期間の全ての面で大規模であることが望ましい.\begin{table}[b]\caption{従来の子供のコーパス}\label{tab:previous_corpus}\input{04table01.txt}\end{table}一方で,様々な分野の研究で子供の作文が収集,分析されており,子供のコーパスに対する需要の高さがうかがえる.例えば,国立国語研究所~\cite{kokken}により,小学生の作文が収集され,使用語彙に関する調査が行われている.同様に,子供の作文を対象とした,文章表現の発達的変化に関する分析~\cite{ishida},自己認識の発達に関する分析~\cite{moriya}なども行われている.更に,最近では,子供のコーパスの新しい利用も試みられている.石川~\cite{ishikawa}は,英語コーパスと子供のコーパス(日本語)を組み合わせて,小学校英語向けの基本語彙表を作成する手法を提案している.掛川ら~\cite{kakegawa}は,子供のコーパスから,特徴的な表現を自動抽出する手法を提案している.坂本~\cite{sakamoto}は,小学生の作文の分析に基づき,共感覚比喩一方向性仮説に関する興味深い考察を行っている.これらの研究は,いずれも子供のコーパスを利用しているものの,言語データの収集とコーパスの構築は独自に行っている.そのため,コーパスは一般には公開されておらず,研究や教育に自由に利用できる状態にはない.したがって,大規模な子供のコーパスの一般公開は関連分野の研究の促進に大きく貢献すると期待できる.また,研究者間で共通のコーパスが利用できるため,研究成果の比較も容易となる.そこで本論文では,子供のコーパス構築の難しさ解消し,効率良く子供のコーパスを構築する方法を提案する.そのため,まず,子供のコーパスを構築する際に生じる難しさを整理,分類する.その整理,分類に基づき子供のコーパスの構築方法を提案する.また,提案方法を用いて実際に構築した「こどもコーパス」についても述べる(表~\ref{tab:pupil_corpus}に「こどもコーパス」の概要と特徴を示す).「こどもコーパス」は,小学5年生81人を対象にして,8ヵ月間言語データを収集したコーパスである.その規模は39,269形態素であり,形態素数と人数において公開されている書き言葉の子供コーパスとして最大である\footnote{教育研究目的での利用に限り「こどもコーパス」を公開している.利用希望者は,第一著者に連絡されたい.今後は,Webページなどで同コーパスを公開する予定である.}.規模以外に,「こどもコーパス」には,作文履歴がトレース可能という特徴がある.作文履歴がトレース可能とは,いつ誰が何を書いたか,および,どのように書き直したかの履歴が参照可能であることを意味する.なお,本論文では,特に断らない限り,子供とは小学生のことを指すこととする.したがって,以下では,小学生のコーパス構築を念頭に置いて議論を進める.以下,\ref{sec:problems}節では,子供のコーパスを構築する際に生じる難しさを整理,分類する.\ref{sec:proposed_method}節では,\ref{sec:problems}節の議論に基づき,効率良く子供のコーパスを構築する方法を提案する.\ref{sec:pupil_corpus}節では,「こどもコーパス」の詳細を述べる.\begin{table}[h]\caption{「こどもコーパス」の概要と特徴}\label{tab:pupil_corpus}\input{04table02.txt}\end{table}\vspace{-1\baselineskip}
V06N03-04
係り受け解析は日本語文解析の基本的な方法として認識されている.日本語係り受けには,主に以下の特徴があるとされている\footnote{もちろん,例外は存在するが\cite{sshirai:jnlp98},その頻度は現在の解析精度を下回り,現状では無視して構わないと考える.つまり,これらの仮定の基に解析精度を向上させた後に,そのような例外に対し対処する手法を考えればよいのではないかと思う.また,(4)の特徴はあまり議論されてはいないが,我々が行なった人間に対する実験で90\%以上の割合で成立する事が確認された.}.我々はこれらの特徴を仮定として採用し,解析手法を作成した.\begin{itemize}\item[(1)]係り受けは前方から後方に向いている.(後方修飾)\item[(2)]係り受け関係は交差しない.(非交差条件)\item[(3)]係り要素は受け要素を一つだけ持つ.\item[(4)]ほとんどの場合,係り先決定には前方の文脈を必要としない.\end{itemize}このような特徴を仮定した場合,解析は文末から文頭に向けて行なえば効率良く解析ができると考えられる.以下に述べる二つの利点が考えられるためである.今,文節長Nの文の解析においてM+1番目の文節まで解析が終了していると仮定し,現在M番目の文節の係り先を決定しようとしているとする(M$<$N).まず,一つ目の利点は,M番目の文節の係り先は,すでに解析を終了しているM+1番目からN番目の文節のいずれかであるという事である.したがって,未解決な解析状態を積み上げておく必要はないため,チャートパーザーのように活性弧を不必要に多く作る必要はないし,一般的なLRパーザー等で利用されているようなスタックにそれまでの解析結果を積んで後の解析に依存させるという事をしなくて済む.別の利点は,M番目の文節の解析を開始する時点には,M+1番目からN番目の係り受け解析はなんらかの形式において終了しており,可能な係り先は,非交差条件を満足する文節だけに絞られるという事である.実験では,この絞り込みは50\%以下になり,非常に有効である.また,この論文で述べる統計的手法と文末からの解析手法を組み合せると,ビームサーチが非常に簡単に実現できる.ビームサーチは解析候補の数を絞りながら解析を進めていく手法である.ビーム幅は自由に設定でき,サーチのための格納領域はビーム幅と文長の積に比例したサイズしか必要としない.これまでにも,文末からの解析手法はルールベースの係り受け解析において利用されてきた.例えば\cite{fujita:ai88}.しかし,ルールベースの解析では,規則を人間が作成するため,網羅性,一貫性,ドメイン移植性という点で難がある.また,ルールベースでは優先度を組み入れる事が難しく,ヒューリスティックによる決定的な手法として利用せざるを得なかった.しかし,本論文で述べるように,文末から解析を行なうという手法と統計的解析を組み合せる事により解析速度を落す事なく,高い精度の係り受け解析を実現する事ができた.統計的な構文解析手法については,英語,日本語等言語によらず,色々な提案が80年代から数多くあり\cite{fujisaki:coling84}\cite{magerman:acl95}\cite{sekine:iwpt95}\cite{collins:acl97}\cite{ratnaparkhi:emnlp97}\cite{shirai:emnlp98}\cite{fujio:emnlp98}\cite{sekine:nlprs97}\cite{haruno:nlpsympo97}\cite{ehara:nlp98},現在,英語についてはRatnaparkhiのME(最大エントロピー法)を利用した解析が,精度,速度の両方の点で最も進んでいる手法の一つと考えられている.我々も統計的手法のツールとしてMEを利用する.次の節でMEの簡単な説明を行ない,その後,解析アルゴリズム,実験結果の説明を行なう.
V30N04-05
\label{section:introduction}計算機による自然言語理解の実現は,自然言語処理における大きな目標のひとつである.この目標に向けて,計算機の言語理解力を訓練・評価する問題設定を考え,そのデータを構築する研究が盛んに行われている\cite{Wang_et_al_2019_GLUE,Wang_et_al_2019_SuperGLUE,Srivastava_et_al_2022}.このような取り組みの中で,計算機による自然言語理解を実現するためには,言語に関する知識(語句の意味,構文など)と言語を超えた実世界に関する知識の両方が必要であると議論されてきた.前者の言語に関する知識は,汎用言語モデルBERT\cite{Devlin_et_al_2019}の登場以降,相当学習できるようになった.大規模テキストから文脈に応じた語のベクトル表現を事前に学習し,下流タスクに合わせてfine-tuningすることで,言い換え認識や構文解析といった基礎的な解析タスクで人間に匹敵する精度が達成されている.一方で,後者の実世界に関する知識の獲得については,まだ課題が残る.実世界に関する知識は無数に存在するため,その基本的な部分,すなわち常識に焦点を当てたデータが盛んに構築されている.そこでは,広範な知識の中から常識を獲得するために,どのように常識に焦点を当てるかが課題となる.これまでに行われた工夫を見ると,例えば,SWAG\cite{Zellers_et_al_2018}は動画キャプションをベースとすることで対象を視覚で捉えられる日常的な出来事に限定している.しかし,これでは扱える常識の範囲が制限される.その他の試みとして,ConceptNet\cite{Speer_et_al_2017}をベースとするCommonsenseQA\cite{Talmor_et_al_2019}がある.ConceptNetがカバーする基本的な語句の間の関係をベースとしているが,ConceptNet全体を用いても1.2万問しか作問できないという拡張性の問題がある.また,作問時に含まれるバイアスをできるだけ排除しなければならないという課題もある.前述の試みについて,例えば,SWAGでは誤り選択肢文を言語モデルで自動生成し,CommonsenseQAでは問題文をクラウドソーシングで作成している.このため,これらのデータセットには言語モデルの生成バイアスやAnnotationArtifacts\footnote{クラウドワーカーの作文に含まれる語彙や文体などのパターンのことを指す.}\cite{Gururangan_et_al_2018}が含まれうる.本研究では,これらの問題を解決するために,人手で構築された言語資源をベースとした作問や人手による作問ではなく生のテキストデータからの作問を試みる.蓋然的関係\footnote{ある程度続けて起こりうる/真である事態間に成立する関係.PennDiscourseTreebank\cite{Prasad_et_al_2008,Prasad_et_al_2019}における談話関係``Contingency''に相当する日本語の用語として定義する.}を持つ基本的なイベント表現の組をテキストから自動抽出し,クラウドソーシングで確認を行い,それをベースに常識推論問題を自動生成するという手法を提案する.基本的なイベント表現(\textbf{基本イベント}と呼ぶ)は「テキストから抽出した述語項構造をクラスタリングし,その中の高頻度なものを核とする表現」と定義する.これをもとに,談話標識を手かがりとして「蓋然的関係を持ち,前件・後件が共に基本イベントである節の組」を自動抽出する.これを\textbf{蓋然的基本イベントペア}と呼ぶ.例えば,蓋然的基本イベントペアは次のようなものである.\ex.\a.お腹が空いたので,ご飯を食べる\b.ご飯を食べたら,すごく眠い\c.眠いので,コーヒーを飲む\d.激しい運動をすると,汗をかくある蓋然的基本イベントペアの前件を文脈,後件を正解選択肢とし,その他のイベントペアの後件を誤り選択肢とすることで,図\ref{figure:example}のような常識推論問題を自動生成することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-4ia4f1.pdf}\end{center}\caption{常識推論問題の作問例.$\checkmark$印は正解選択肢である.}\label{figure:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法はテキストからの自動抽出をベースとするため,拡張性があり,ドメインを限定しない.クラウドソーシングについても,確認(フィルタリング)を行うだけなので,低コストかつAnnotationArtifactsの問題もない.また,人手で構築された言語資源やクラウドソーシングに強く依存せず,談話標識は様々な言語に普遍的に存在するため,他言語にも比較的適用しやすいと考えられる.本研究では,まず,日本語7億文を含むウェブコーパスに提案手法を適用し,常識推論問題10万問から成るデータセットを構築する.計算機による解答実験を行い,様々なタスクで高い性能を達成している汎用言語モデルでも人間との間に性能の開きがあることを示す.次に,この性能の開きを改善するため,提案手法の拡張性の高さを利用したデータ拡張による常識推論能力の改善に取り組む.具体的には,クラウドソーシングによる確認を省略することで常識推論問題を模した疑似問題を大規模に自動生成し,これを訓練時に組み込むという手法を検証する.最後に,蓋然的関係に関する知識の転移可能性を検証するため,常識推論問題および擬似問題からの転移学習による関連タスクへの効果を定量的に評価する.これらの実験の結果,常識推論問題および擬似問題を通して蓋然的関係を広範に学習することで常識推論タスクおよび関連タスクにおいて一定の効果があることを示す\footnote{構築した常識推論データセットおよび疑似問題は\url{https://nlp.ist.i.kyoto-u.ac.jp/?KUCI}にて公開している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V26N03-04
本研究では眼球運動に基づき文の読み時間を推定し,ヒトの文処理機構の解明を目指すとともに,工学的な応用として文の読みやすさのモデル構築を行う.対象言語は日本語とする.データとして\ref{subsec:bccwj-eyetrack}節に示す『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014-LRE}の読み時間データBCCWJ-EyeTrack\cite{Asahara-2019d}を用いる.\ref{subsec:prev}節に示す通り,過去の研究は統語・意味・談話レベルのアノテーションを重ね合わせることにより,コーパス中に出現する言語現象と読み時間の相関について検討してきた.一方,Haleは,\modified{言語構造の頻度(Structuralfrequency)}が文処理過程に影響を与えると言及し,漸進的な文処理の困難さについて情報量基準に基づいたモデルをサプライザル\modified{理論}(SurprisalTheory)として定式化している\cite{Hale-2001}.このサプライザル\modified{理論}に基づく日本語の読み時間の分析が求められている.しかしながら,日本語においては,心理言語学で行われる読み時間を評価する単位と,コーパス言語学で行われる頻度を計数する単位に齟齬があり,この分析を難しくしていた.具体的には,前者においては一般的に統語的な基本単位である文節が用いられるが,後者においては斉一な単位である短い語(国語研短単位など)が用いられる.この齟齬を吸収するために,単語埋め込み\cite{Mikolov-2013a}の利用を提案する.単語埋め込みは前後文脈に基づき構成することにより,単語の置き換え可能性を低次元の実数値ベクトル表現によりモデル化する.このうちskip-gramモデルは加法構成性を持つと言われ\footnote{\modified{原論文\cite{Mikolov-2013b}5節AdditiveCompositionalityを参照.}},句を構成する単語のベクトルの線形和が,句の置き換え可能性をモデル化できる\cite{Mikolov-2013b}.日本語の単語埋め込みとして,『国語研日本語ウェブコーパス』(NWJC)\cite{Asahara-2014}からfastText\cite{fastText}により構成したNWJC2vec\cite{nwjc2vec}を用いた.ベイジアン線形混合モデル\cite{Sorensen-2016}に基づく統計分析\footnote{\modified{本研究では,複雑な要因分析の際にモデルの収束が容易なベイズ主義的な統計分析を行う.頻度主義的な統計分析を用いない理由については,『言語研究』論文\cite{Asahara-2019d}の付録を参照されたい.}}の結果,skip-gramモデルに基づく単語埋め込みのノルムと隣接文節間のコサイン類似度が,読み時間を予測する因子となりうることが分かった.前者のノルムが\modified{読み時間を長くする文節の何らかの特性}を,後者の隣接文節間のコサイン類似度が隣接\modified{尤度}をモデル化すると考える.\modified{「隣接尤度」は文節のbigram隣接尤度のようなものを想定する.}以下,\ref{sec:related}節に前提となる関連情報について示す.\ref{sec:method}節に分析手法について示す.4節に結果と考察について示し,5節でまとめと今後の展開を示す.
V18N02-01
確率的言語モデルは,統計的手法による仮名漢字変換\cite{確率的モデルによる仮名漢字変換}\cite{Google.IME}\cite{漢字かなのTRIGRAMをもちいたかな漢字変換方法}や音声認識\cite{音声認識システム}\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}などに広く用いられている.確率的言語モデルは,ある単語列がある言語でどの程度自然であるかを出現確率としてモデル化する\footnote{単語の定義に関しては様々な立場がある.本論文では,英語などの音声認識の言語モデル\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}と同様に,ある言語においてなんらかの方法で認定される文字列と定義する.}.仮名漢字変換においては,確率的言語モデルに加えて,仮名漢字モデルが用いられる.仮名漢字モデルは,入力記号列と単語の対応を記述する.音声認識では,仮名漢字モデルの代わりに,発音と単語の対応を記述する発音辞書と音響モデルが用いられる.確率的言語モデルの推定のためには,システムを適応する分野の大量のテキストが必要で,その文は単語に分割されている必要がある.このため,日本語を対象とする場合には,自動単語分割や形態素解析が必要であるが,ある程度汎用性のあるツールが公開されており,辞書の追加などで一般的な分野の言語モデルが構築可能となっている.仮名漢字モデルや発音辞書における確率の推定には,実際の使用における単語の読みの頻度を計数する必要がある.しかしながら,読み推定をある程度の汎用性と精度で行うツールは存在しない\footnote{音声認識では発音が必要で,仮名漢字変換では入力記号列が必要である.これらは微妙に異なる.本論文では,この違いを明確にせず両方を意味する場合に「読み」という用語を用いる.}.したがって,仮名漢字モデルを比較的小さい読み付与済みコーパスから推定したり\cite{確率的モデルによる仮名漢字変換},後処理によって,一部の高頻度語にのみ文脈に応じた発音を付与し,他の単語に関しては,各発音の確率を推定せずに一定値としている\cite{音声認識システム}のが現状である.一方で,単語(表記)を言語モデルの単位とすることには弊害がある.例えば,「…するや,…した」という発声が,「…する夜,…した」と書き起こされることがある.この書き起こし結果の「夜」は,この文脈では必ず「よる」と発音されるので,「夜」と書き起こすのは不適切である.この問題は,単語を言語モデルの単位とする仮名漢字変換においても同様に起こる.これは,単語の読みの確率を文脈と独立であると仮定して推定(あるいは一定値に固定)していることに起因する.このような問題を解決するために,本論文では,まず,すべての単語を読みで細分化し,単語と読みの組を単位とする言語モデルを利用することを提案する.仮名漢字変換や音声認識において,単語と品詞の組を言語モデルの単位とすることや,一部の高頻度語を読みで細分化することが行われている\cite{確率的モデルによる仮名漢字変換}\cite{音声認識システム}.提案手法は,品詞ではなく読みですべての単語を細分化することとみなすこともできるので,提案手法は既存手法から容易に類推可能であろう.しかしながら,提案手法を実現するためには,文脈に応じた正確な読みを様々な分野のテキストに対してある程度の精度で推定できる必要がある.このため,提案手法を実現したという報告はない.単語を単位とする言語モデルのパラメータは,自動単語分割の結果から推定される.自動単語分割の精度は十分高いとはいえ,一定の割合の誤りは避けられない.この問題による悪影響を避けるために,確率的単語分割\cite{確率的単語分割コーパスからの単語N-gram確率の計算}という考えが提案されている.この方法では,各文字の間に単語境界が存在する確率を付与し,その確率を参照して計算される単語$n$-gramの期待頻度を用いて言語モデルを構築する.計算コストの削減のために,実際には,各文字間に対してその都度発生させた乱数と単語境界確率の比較結果から単語境界か否かを決定することで得られる擬似確率的単語分割コーパスから従来法と同様に言語モデルが構築される\cite{擬似確率的単語分割コーパスによる言語モデルの改良}.単語と読みの組を単位とする言語モデルのパラメータは,自動単語分割および自動読み推定の結果から推定される.自動単語分割と同様に,自動読み推定の精度は十分高いとしても,一定の割合の誤りは避けられず,言語モデルのパラメータ推定に悪影響がある.これを回避するために,確率的タグ付与とその近似である擬似確率的タグ付与を提案する.実験では,タグとして入力記号列を採用し,単語と入力記号列の組を単位とする言語モデルを用いる仮名漢字変換器を構築し,単語を単位とする言語モデルを用いる場合や,決定的な単語分割や入力記号付与などの既存手法に対する提案手法の優位性を示す.
V31N01-09
label{sec:introduction}語ることは人間の基本的な欲求である.語る行為は,聴き手がいて初めて成立する.国内では,独居高齢者の増加など社会の個人化が進み\cite{EN_kozinka-2019},聴き手不在の生活シーンが増加しており,人が語れる機会を増やすことが重要な社会課題となっている.これに対し,コミュニケーションロボットやスマートスピーカーなどの会話エージェントが語りを聴く役割を担うことが考えられる.これらが聴き手として認められるには,語りを傾聴していることを語り手に伝達する機能を備える必要がある.このための明示的な手段は語りに応答することであり,傾聴を示す目的で語りに応答する発話,すなわち{\emph{傾聴応答}}の表出が有力である.これまでに,相槌をはじめとする傾聴応答の生成法が検討されている\cite{EN_Noguchi-1998,EN_Ward-2000,EN_Cathcart-2003,EN_Fujie-2004,EN_Kitaoka-2005,EN_Poppe-2010,EN_Morency-2010,EN_Yamaguchi-2016,JP_EN_Ohno-2017,EN_Ruede-2017,EN_Jang-2021}.\par語りの傾聴では,語り手に理解を示し,共感を伝えることが重要とされており,反対に,傾聴において相手の話を否定することは,語り手の心を遠ざける原因になりかねない\cite{JP_EN_Ohtani-2019}.そのため,語り手の発話を受容することが,語りを傾聴する聴き手の基本的な応答方略となる.例えば,傾聴応答の代表例である相槌は,「語りを続けて」というシグナルや内容理解を示す機能を持っており\nocite{JP_EN_Maynard-1993}(メイナード1993),これも,語りを受容していることを伝えるものといえる.一方で,語りでは,時として自虐や謙遜などの発話が行われることがある.この場合,その発話内容を否定することなくそのまま受容することは必ずしも適切ではなく,語り手の発話に同意しないことを示す応答,すなわち,{\emph{不同意応答}}を積極的に表出することが求められる.このように,語りの傾聴を担う会話エージェントが不同意を示すべき発話を検出し応答できることは不可欠な機能であるものの,傾聴応答生成に関する従来研究において,不同意応答の生成に関する試みは行われていない.\parそこで本論文では,語りを傾聴する会話エージェントによる不同意応答生成の実現性を示す.語り手による自虐や謙遜などの発話をそのまま受容することは致命的であり,このような場面で適切に不同意応答を生成できれば,語りの傾聴を語り手に伝達する上で高い効果が見込まれる.\par傾聴応答における不同意応答生成の適切なタイミングや表現は規則的に定まるものではなく,データに基づき決定することが現実的である.そのような不同意応答生成の実現性を示すために,%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\item不同意応答の生成に利用できる応答コーパスを作成できること,ならびに,\label{enu:approach1}\item応答コーパスを用いて不同意応答を適切に生成できること\label{enu:approach2}\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%を示す必要がある.そのために本研究では,まず,語りデータに対して,不同意応答をタグ付けする基準を定め,不同意応答の生成に適したコーパスの作成可能性を実証する.続いて,事前学習済みのTransformer\cite{EN_Vaswani-2017}ベースのモデルに基づく手法を実装し,不同意応答の表出に適したタイミング(以下,不同意応答タイミング)の検出実験,及び,表出する表現(以下,不同意応答表現)への分類実験を通して,不同意応答生成の実現性を実証する.\par本論文の構成を以下に示す.\ref{sec:attentive_listening}章では,傾聴応答と不同意応答について関連研究を交えて概説する.\ref{sec:disagreement_response_corpus}章では,不同意応答の生成に利用できるコーパスの設計について論じ,コーパスの具体的な作成法とその結果について述べる.\ref{sec:main_experiment}章で不同意応答タイミングの検出実験について,\ref{sec:following_response}章で不同意応答表現への分類実験について,それぞれ報告する.最後に,\ref{sec:conclusion}章で本論文のまとめを行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V27N04-07
比喩表現は,意味解釈の構成性の要請を満たさない事例の代表である.\citeA{Lakoff-1980}(日本語訳\cite{Lakoff-1986})は「思考過程の大部分が比喩によって成り立つ」と言及している.言語学においても,そもそも形態や語彙,辞書構造,文法をはじめ,言語の大部分が比喩的な性質に\fixed{基づくとされ},比喩研究は「言語の伝達のメカニズムを理解していくための基礎的な研究」と位置づけられる\cite{山梨-1988}.また,言語処理においても基本義からの転換という現象が意味処理の技術的障壁になっている.比喩表現データベースは,言語学・言語処理の双方で求められている重要な言語資源である.そこで我々は,『現代日本語書き言葉コーパス』\cite{Maekawa-2014-LRE}(以下BCCWJと呼ぶ)コアデータ1,290,060語57,256文に基づく大規模比喩表現データベースを構築した.比喩性の判断は,受容主体の主観によ\fixed{るものであ}り,形式意味論的な妥当性・健全性を保持しうるものではない.我々は,\fixed{研究対象となる比喩表現が適切に含まれるような}作業手順としてMIP(MetaphorIdentificationProcedure)\cite{Pragglejaz-2007}を拡張したMIPVU(MetaphorIdentificationProcedureVUUniversityAmsterdam)\cite{steen-2010}を取り入れる.さらに,\fixed{安定的に一貫して抽出する}ため,先行研究の中でもより形式的に比喩を捉える\citeA{中村-1977}の研究に倣い,\fixed{\underline{喩辞(喩える表現)の}}\underline{\bf基本義からの語義の転換・}\underline{逸脱と\fixed{喩辞に関連する}要素の結合}に着目する.\fixed{喩辞の}語義の転換・逸脱の判断には,『分類語彙表』\cite{WLSP}に基づいた語義を用い,\fixed{被喩辞(喩えられる表現)との語義の差異を検討する\footnote{本稿では,喩える表現・語を「喩辞」,喩えられる表現・語を「被喩辞」と呼ぶ.それぞれ,「喩詞」と「被喩詞」,「ソース(source)」と「ターゲット(target)」,「サキ」と「モト」,「媒体(vehicle)」と「主題(topic)」と呼ばれるものに相当する.}.}\fixed{さらに,被喩辞相当の語義があるべき箇所に喩辞の語義が現れる}表現中の要素の結合における比喩的な転換・逸脱の有無を確認する.\fixed{比喩表現と考えられる部分について,喩辞相当の出現箇所を同定するともに,比喩関連情報をアノテーションする.}但し,非専門家が比喩表現と認識しない表現を多く含む結果となるため,非専門家の判断としてクラウドソーシングによる比喩性の判断を収集する.我々が構築した指標比喩データベースは,以下のもので構成される:\begin{itemize}\item比喩表現該当部(\ref{subsec:db:extract}節)\item比喩指標要素とその類型\cite{中村-1977}(\ref{subsec:db:nakamura}節),その分類語彙表番号(\ref{subsec:db:nakamura}節,\ref{subsec:db:wlsp}節)\item比喩的転換に関わる要素の結合とその類型(\ref{subsec:db:nakamura}節),その分類語彙表番号(\ref{subsec:db:wlsp}節)\item概念マッピングにおける喩辞・被喩辞(\ref{subsec:db:anno}節),その分類語彙表番号(\ref{subsec:db:wlsp}節)\item概念マッピングに基づく比喩種別(擬人・擬生など)(\ref{subsec:db:anno}節)\item非専門家の評定値(比喩性・新奇性・わかりやすさ・擬人化・具体化)(\ref{subsec:db:crowd}節).\end{itemize}本稿では,そのデータ整備作業の概要を示すとともに構築したデータベースの基礎統計や用例を示す.\fixed{本研究の貢献は次の通りである.まず,BCCWJコアデータ6レジスタ(Yahoo!知恵袋・白書・Yahoo!ブログ・書籍・雑誌・新聞)1,290,060語57,256文に基づく,日本語の大規模指標比喩データベースを構築した.この指標比喩データベース構築において,まず英語で実施された比喩用例収集手法であるMIP,MIPVUに対して『分類語彙表』の語義に基づく手法を提案し,日本語の比喩用例収集作業手順を整理した.本作業に必要な比喩用例収集の手掛かりとなる\citeA{中村-1977}の比喩指標要素(359種類)を電子化し,新たに分類語彙表番号を付与し,再利用可能な比喩指標要素データベースを整備した.また,収集した比喩表現に対し,喩辞・被喩辞・分類語彙表番号・比喩種別などをアノテーションした.さらに,収集した指標比喩を刺激としてクラウドソーシングによる質問紙調査を実施し,非専門家の比喩性判断を収集した.構築した大規模指標比喩データベースに基づく調査が可能となったため,比喩表現の遍在性を確認し,非専門家の比喩性判断の実態を明らかにした.}本稿の構成は次のとおりである.\ref{sec:related}節に関連研究を示す.\ref{sec:db}節ではデータ整備の概要について解説する.\ref{sec:eval}節ではデータの集計を行い,指標比喩の分布を概観する.\ref{sec:final}節にまとめと今後の方向性について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V01N01-01
テキストや談話を理解するためには,{\bf文章構造}の理解,すなわち各文が他のどの文とどのような関係({\bf結束関係})でつながっているかを知る必要がある.文章構造に関する従来の多くの研究\cite[など]{GroszAndSidner1986,Hobbs1979,Hobbs1985,ZadroznyAndJensen1991}では,文章構造の認識に必要となる知識,またそれらの知識に基づく推論の問題に重点がおかれていた.しかしそのような知識からのアプローチには次のような問題があると考えられる.\begin{itemize}\item辞書やコーパスからの知識の自動獲得,あるいは人手による知識ベース構築の現状をみれば,量的/質的に十分な計算機用の知識が作成されることはしばらくの間期待できない.\item一方,オンラインテキストの急増にともない,文章処理の技術は非常に重要になってきている\cite{MUC-41992}.そのため,現在利用可能な知識の範囲でどのような処理が可能であるかをまず明らかにする必要がある.\item現在の自然言語処理のターゲットの中心である科学技術文では,文章構造理解の手がかりとなる情報が表層表現中に明示的に示されていることが多い.科学技術の専門的内容を伝えるためにはそのように明示的表現を用いることが必然的に必要であるといえる.\end{itemize}このような観点から,本論文では,表層表現中の種々の情報を用いることにより科学技術文の文章構造を自動的に推定する方法を示す.文章構造抽出のための重要な情報の一つは,多くの研究者が指摘しているように「なぜなら」,「たとえば」などの{\bf手がかり語}である\cite[など]{Cohen1984,GroszAndSidner1986,Reichman1985,Ono1989,Yamamoto1991}.しかし,それらだけで文章全体の構造を推定することは不可能であることから,我々はさらに2つの情報を取り出すことを考えた.そのひとつは同一/同義の語/句の出現であり,これによって{\bf主題連鎖}/{\bf焦点-主題連鎖}の関係\cite{PolanyiAndScha1984}を推定することができる.もうひとつは2文間の類似性で,類似性の高い2文を見つけることによってそれらの間の{\bf並列/対比}の関係を推定することができる.これらの3つの情報を組み合わせて利用することにより科学技術文の文章構造のかなりの部分が自動推定可能であることを示す.\begin{table}\caption{結束関係}\vspace{0.5cm}\begin{center}\begin{tabular}{lp{11cm}}\hline\hline{\bf並列}&{\ttSi}と{\ttSj}が同一または同様の事象,状態などについて述べられている(例:付録\ref{sec:text}のS4-3とS4-6).\\{\bf対比}&{\ttSi}と{\ttSj}が対比関係にある事象,状態などについて述べられている(例:付録\ref{sec:text}のS3-3とS3-4).\\{\bf主題連鎖}&{\ttSi}と{\ttSj}が同一の主題について述べられている(例:付録\ref{sec:text}のS1-13とS1-19).\\{\bf焦点-主題連鎖}&{\ttSi}中の主題以外の要素(焦点要素)がSjにおいて主題となっている(例:付録\ref{sec:text}のS1-12とS1-13).\\{\bf詳細化}&{\ttSi}で述べられた事象,状態,またはその要素についての詳しい内容が{\ttSj}で述べられている(例:付録\ref{sec:text}のS1-16とS1-17).\\{\bf理由}&{\ttSi}の理由が{\ttSj}で述べられている(例:付録\ref{sec:text}のS1-13とS1-14).\\{\bf原因-結果}&{\ttSi}の結果{\ttSj}となる(例:付録\ref{sec:text}のS1-17とS1-18).\\{\bf変化}&{\ttSi}の状態が{\ttSj}のものに(通常時間経過に伴い)変化する(例:付録\ref{sec:text}のS1-11とS1-12).\\{\bf例提示}&{\ttSi}で述べられた事象,状態の具体例の項目が{\ttSj}で提示される(例:付録\ref{sec:text}のS1-13とS1-16).\\{\bf例説明}&{\ttSi}で述べられた事象,状態の具体例の説明が{\ttSj}で行なわれる,\\{\bf質問-応答}&{\ttSi}の質問に対して{\ttSj}で答が示される(例:付録\ref{sec:text}のS4-1とS4-2).\\\hline\end{tabular}\\({\ttSi}はある結束関係で接続される2文のうちの前の文,{\ttSj}は後ろの文を指す)\end{center}\label{tab:CRelations}\end{table}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(140,120)\put(5,5){\framebox(130,110){ps/ds.ps}}\end{picture}\end{center}\caption{文章構造の一例}\label{fig:DSExam}\end{figure}}
V04N01-04
英語前置詞句(PrepositionalPhrase,PP)の係り先の曖昧性は文の構造的曖昧性の典型例をなすものである.その解消は自然言語処理における難題の一つとしてよく知られている.この問題の解決法には,大略,構文構造に基づく手法,知識に基づく手法,コーパスに基づく手法,シソーラスに基づく手法がある.構文構造に基づく手法は,文の構成素の結び付き関係を構文情報によって決めようとするものである.この手法の代表例に,RightAssociation(Kimball1973)とMinimalAttachment(Frazier1978)がある.RightAssociationでは,文の構成素は右側に隣接する句と結び付く傾向があると考え,MinimalAttachmentでは,構成素はより大きな構造に係る傾向があると見る.こうして,前置詞句はRightAssociationでは名詞句(NP)に,MinimalAttachmentでは動詞句(VP)に係る傾向を示す.構文構造に基づく手法には係り先を決めるのが簡単で,意味分析や特定の知識に依存しないという利点がある.しかし,係り先決定の正解率は低く実用性も低い(Whittemore,FerraraandBrunner1990).知識に基づく手法は,世界知識や対話モデルを用いて曖昧性の解消を試みるものである(DahlgrenandMcDowell1986;JensenandBinot1987など).この手法では,ドメインを限定し,その範囲での知識の利用が有効にできれば高い正解率が得られる.しかし,現在の知識表現技術では知識の獲得が難しく,コスト面の問題もある.コーパスに基づく手法は,コーバスから諸種の情報を抽出した上で係り先の確率を計算し曖昧性を解消するものである.近年,大規模のタグつきコーバスの開発が進み,コーパスに基づく言語研究が活発になっている.Hindleら(1993)の提案した語彙選好(lexicalpreference)モデルは,コーパスから自動的に抽出した動詞,目的語となる名詞,それと前置詞の出現頻度によりLA(lexicalassociation)scoreを計算し,その値によって前置詞句が動詞か名詞のどちらに係るかを判断している.コーパスに基づく手法は曖昧性の解消の有望な方法であることが認められている.しかし,この手法は希薄なデータ(sparsedata)の問題を抱えている.また,現状ではコーパスの資源や計算量の膨大さの問題もある.シソーラスに基づく手法は,シソーラスや機械可読辞書の情報を利用し,あるいはシソーラスと例文を利用することによって,前置詞句の曖昧性の解消を行うものである(JensonandBinot1987;Nagao1992;隅田ら1994など).この手法では特定のドメインで高い正解率を達成している.しかし,ドメインを限定しない場合,単語の多義性によって係り先の決定率が著しく低下する傾向がある.また,シソーラスや辞書にはカバーする情報が分野によって不均一であることや意味の粒度の問題もある.本稿では概念情報に基づく曖昧性の解消手法(ConceptualInformationBasedDisambiguation,CIBD)を提案する.ここでは,まず言語知識と曖昧性解消に使っている世界知識から,いくつかの一般的な係り先決定ルール(選好ルールとよぶ)を抽出する.選好ルールは係り先決定に際し,概念情報をはじめ,語彙情報,構文情報と共起情報を利用している.もし,選好ルールによって一意的に係り先が決まらない場合は,コーパスから得られるデータにより係り先の確率計算をし,その結果により係り先を選択する.以下,最初に機械可読辞書から抽出する概念情報を使っての曖昧性解消について述べる.その後で,選好的曖昧性解消モデル(PreferentialDisambiguationModel)を提案し,選好ルールを述べる.最後に,この手法によって行った曖昧性解消の実験結果を示し,本手法の有効性を論ずる.
V19N02-02
自然言語処理技術を用いた多様なアプリケーションにおいて,対象ドメインに特化した辞書が必要となる場面は多く存在する.例えば情報検索タスクにおいて,検索クエリとドメイン辞書とを併用することで検索結果をドメイン毎に分類して提示することを可能としたり,特定のドメインに特化した音声認識システムにおいてはそのドメインに応じた認識辞書を用いた方が音声認識精度が高いことが知られている\cite{廣嶋2004}.一方で,特定のドメインに対する要求でなく,ドメイン非依存の場面においても,詳細なクラスに分類した上で体系的な辞書を用いる必要が生じる場合がある.例えば関根らの定義した拡張固有表現\cite{sekine2008extended}は,従来のIREX固有表現クラスが8クラスであったのに対し,200もの細分化されたクラスを持つ.橋本らによって作成された関根の拡張固有表現に基づくラベル付きコーパスにより,機械学習による拡張固有表現抽出器の研究がなされている\cite{橋本08,橋本10}が,コーパスにおいて付与された各クラスの出現数にはばらつきがあり,極端に学習データの少ないクラスも存在する.コーパスから単純な学習により固有表現抽出器を構築した場合,これら低頻度のクラスについて正しく学習できないことが予想されるため,各クラス毎の直接的な辞書の拡充が必要とされる.このようにドメインやクラスに依存した辞書の重要性は高いが,一方で辞書の作成には大きな人的コストがかかってしまうため,可能な限りコストをかけずにドメイン依存の語彙を獲得したいという要求がある.本論文で対象とする語彙獲得タスクは,ドメインやクラスに応じた少量の語彙集合,特に固有表現集合で表される教師データを用いて,新たな固有表現集合を獲得することを目的とする.なお,本論文では固有表現をエンティティ,初期に付与される教師データをシードエンティティと呼ぶこととする.語彙獲得タスクにおいては,教師データを繰り返し処理により増加させることのできる,ブートストラップ法を用いた手法が多く提案されており\cite{pantel2006espresso,bellare2007lightly},本論文でも同様にブートストラップ法に基づいた手法を提案する.ブートストラップ法の適用により,初期に少量のシードエンティティしか存在しない場合であっても,手掛かりとなる情報,すなわち学習データを逐次的に増加させることが可能であるため,大規模なエンティティ獲得に繋がる.しかしブートストラップ法を用いたエンティティ獲得における課題として,獲得されるエンティティの持つ意味が,シードエンティティ集合の元来の意味から次第に外れていくセマンティックドリフトと呼ばれる現象があり,エンティティ獲得精度を悪化させる大きな要因となっている.本論文では,従来用いられてきた局所的文脈情報だけではなく,文書全体から推定されるトピック情報を併用することで,セマンティックドリフトの緩和とエンティティ獲得の精度向上を図る.本論文におけるトピックとは,ある文書において述べられている「政治」や「スポーツ」等のジャンルを指し,統計的トピックモデル(以下トピックモデル)を用いて自動的に推定する.本論文ではエンティティ獲得精度向上のために,トピック情報を3通りに用いた手法を提案する.第一に,識別器を用いたブートストラップ法における素性として利用する.第二に,識別器において必要となる学習用の負例を自動的に生成する尺度として利用する.第三に,教師データ中のエンティティの多義性を解消することで,適した教師データのみを利用する.以下2節で先行研究とその課題,3節でトピック情報を用いた詳細な提案手法,4節で実験結果について報告し,提案手法が少量のシードからのエンティティ獲得において効果があることを示す.
V14N03-02
現代日本語の「です・ます」は,話手の感情・評価・態度に関わるさまざまな意味用法を持つことが指摘されている.従来の研究では,敬語および待遇表現,話し言葉/書き言葉の観点や,文体論あるいは位相論といった立場・領域から個別に記述されてきたが,「です・ます」の諸用法を有機的に結びつけようとする視点での説明はなされていない\footnote{「敬語」の一種であるという位置づけがなされている程度である.一例として,次のような記述がある.「「です・ます」は,一連の文章や話し言葉の中では,使うとすれば一貫して使うのが普通で,その意味で文体としての面をもちます.「です・ます」を一貫して使う文体を敬体,一貫して使わない文体を常体と呼びます.(中略)しかし,文体である以前に,「です・ます」はやはりまず敬語です」(菊地1996:90--91)}.本稿では「伝達場面の構造」を設定し,言語形式「です・ます」の諸用法を,その本質的意味と伝達場面との関係によって導かれるものと説明する.こうした分析は,「です・ます」個別の問題に留まらず,言語形式一般の記述を単純化しダイナミックに説明しうる汎用性の高いものと考える.本稿の構成は以下の通りである.まず,\ref{youhou}.で従来指摘されている「です・ます」の諸用法を確認し,\ref{model}.において「話手/聞手の「共在性」」に注目しつつ伝達場面の構造をモデル化する.さらに「共在性」を表示する形式を「共在マーカー」と名付け,なかでも「です・ます」のような聞手を前提とする言語形式の操作性に注目する.これを受けて\ref{meca}.では,「です・ます」の「感情・評価・態度」の現れが,伝達場面の構造モデルと「です・ます」の本質的機能および共在マーカーとしての性質から説明できることを述べ,\ref{matome}.のまとめにおいて今後の課題と本稿のモデルの発展性を示す.
V31N02-07
近年,ニューラル機械翻訳(NeuralMachineTranslation:NMT)は発展・普及し,利用者の層が幅広くなっている.従来の一般的なNMTは,利用者や状況に依らない機械翻訳の実現を想定していたが,近年では,出力される目的言語文の表現を制御するための研究が盛んになっている\cite{sennrich-etal-2016-controlling,Kuczmarski-James-2018-Gender,schioppa-etal-2021-controlling}.そのひとつに,ユーザの読解レベルにあわせた翻訳を行うため,原言語文と共に目的とする難易度を入力として受け付け,指定された難易度の目的言語文を生成する難易度制御機械翻訳がある.初期の難易度制御機械翻訳\cite{marchisio-etal-2019-controlling}では,難易度は2段階であったが,近年では,より柔軟に出力文の難易度を制御するため,3段階以上の難易度(例えば,小学生,高校生,一般,専門家向けなど)を制御可能な多段階難易度制御機械翻訳(Multi-LevelComplexity-ControllableMachineTranslation:MCMT)\cite{agrawal-carpuat-2019-controlling}の研究が行われている.しかし,先行研究では英語とスペイン語間のMCMTしか取り組まれていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-2ia6f1.pdf}\end{center}\caption{日英MCMTの概要図}\label{img:example-MCMT}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで本研究では,日本語(日)から英語(英)への日英MCMTの構築を目指す.図\ref{img:example-MCMT}に日英MCMTの概要図を示す.従来のMCMTの研究\cite{agrawal-carpuat-2019-controlling}は英語とスペイン語(西)の言語対を対象にしているため,日英MCMT用の評価データセットが存在しない.また,従来研究では,多段階の難易度で記述された英語とスペイン語のニュース記事が記事単位で対応づいているコーパス(具体的にはNewselaコーパス\footnote{\url{https://newsela.com/data/}})から評価データセットを自動構築している.しかし,日英の言語対ではそのようなコーパスが存在しない.そこで本研究では,多段階の難易度で記述されている同一内容の英語文集合をNewselaコーパスから抽出し,人手の翻訳によって日本語文を付与することで日英MCMT用の評価データセットを構築する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{06table01.tex}%\caption{提案手法で用いる訓練データの例}\label{tab:example-train-data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,本研究では日英MCMTの性能を向上させるため,MCMTのための学習方法として,異なる難易度の複数参照文を用いる学習手法を提案する.従来の学習\cite{agrawal-carpuat-2019-controlling}では,原言語文と難易度付き目的言語文の文対を単位として学習を行う.しかし,MCMTの学習では,一つの原言語文に対し,難易度の異なる複数の参照文が対応した訓練データを使用でき,学習対象の参照文と内容が同じで難易度が異なる参照文を学習時の手がかりにすることができる.例えば,MCMTの訓練データとして表\ref{tab:example-train-data}のようなデータを利用できるが,表\ref{tab:example-train-data}の訓練データは従来手法では3つの訓練データ(日本語文‐難易度12の英語文,日本語文‐難易度7の英語文,日本語文-難易度4の英語文)に展開される.そして,それぞれ独立した訓練データとして学習が行われるため,例えば,難易度12の英語文への翻訳を学習する際,難易度4や難易度7の英語文と対比させた学習を行うことはできない.そのため,難易度12の英語文への翻訳を学習する時に,難易度4や難易度7の英語文は出力として適切ではないということや,難易度4の英語文は難易度7の英語文よりも目的の難易度から離れるためより不適切であるということが利用できない.そこで本研究では,同一の原言語文と難易度の異なる複数の参照文からなる組を単位としてMCMTモデルを学習する手法を提案する.提案手法では,学習対象の参照文と共に異なる難易度の参照文も使い,学習対象以外の難易度の参照文に対する損失が学習対象の難易度の参照文に対する損失よりも小さくなることに対して,難易度が離れるほど大きなペナルティを与える損失に基づきMCMTモデルを学習する.これにより,例えば,難易度12の英語文への翻訳を学習する際,出力を難易度12の英語文に最も近づけ,かつ,難易度4の英語文より難易度7の英語文に近づけるように学習を行う.提案手法の有効性を本研究で構築した評価データセットを用いた日英MCMTの実験で検証した.その結果,提案損失を利用することで,BLEUが従来手法より0.93ポイント改善することを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V27N02-10
日本語は語順が自由な言語であり\footnote{本稿で言う「語順が自由」とは,名詞句の(述語に対する)配列に関して,命題的意味を変更させることなく,容認され得る複数の選択肢が存在することを意味している.同じ項や述語を用いて語順のみが異なっているような文を複数想定したとき,それらのニュアンスや語用論的意味解釈の同一性について保証するものではない点に注意されたい.以降についても同様である.},その基本語順については様々な研究がある.特に,ヲ格要素とニ格要素が共に文に現れる二重目的語構文については,計算言語学の領域においても理論言語学の領域においても多くの研究がある\cite{yamashita-2011,orita:2017:CMCL,笹野-2017,Hoji1985,Miyagawa1997,Matsuoka-2003}.その中でも,日本語の二重目的語構文について,格要素ではなく情報構造により語順が決まる傾向にあることを指摘した研究として,\citeA{asahara-nambu-sano:2018:CogACLL}が挙げられる.\citeA{asahara-nambu-sano:2018:CogACLL}は,『現代日本語書き言葉均衡コーパス』\cite{Maekawa2014}(以下,BCCWJ)のコアデータに対する述語項構造・共参照情報アノテーション\cite{Ueda2015}を用いて,ガ・ヲ・ニすべての格要素を含む二重目的語構文を抽出し,その共参照情報をもとに格名詞句に情報の新旧を付与した.その結果,名詞句が直接目的語(ヲ格要素)であるか間接目的語(ニ格要素)であるかという点よりも,情報の新旧が語順に与える影響が大きいという傾向が明らかになった.しかしながら,名詞句を特徴付ける情報構造に関わる要素は,共参照に基づく情報の新旧だけではない.例えば,\citeA{givon76}や\citeA{keenan76}は有生性(animacy),動作主性(agentivity)がトピックやフォーカス\footnote{トピックとは聞き手・読み手の前提となっている部分で,主張(assertion)を導入する働きをする.フォーカスとは聞き手・読み手の前提にないような新しい情報を伝える部分であり,主張に直接関わってくる.詳細は\citeA{Erteschik1997,Erteschik2007}などを見られたい.}といった情報構造と関係があることを示している.そのため,情報の新旧以外の情報構造にかかわる要素についても検討する必要がある.また,\citeA{asahara-nambu-sano:2018:CogACLL}では二重目的語構文の場合のみが対象となっているため,それ以外の場合についてどのような語順になるのかを調査する必要がある.そこで,本稿では,BCCWJ内の名詞句に対して情報構造に関わる文法情報をアノテーションしたBCCWJ-InfoStr\cite{Miyauchi2018,宮内2018}を利用して,情報の新旧以外のものも含めた情報構造に関わる文法情報がどのように語順に影響を及ぼすのかについて,二重目的語構文以外も対象に調査した結果を報告する.つまり,本研究は\citeA{asahara-nambu-sano:2018:CogACLL}で示された傾向を踏まえ,より広い観点,および対象から検討するものであると位置づけられる.具体的には,BCCWJ-InfoStrに含まれる名詞句とその係り先との距離を,情報状態・共有性・定性・有生性という4つの情報構造に関わる文法情報を特徴量として,ベイジアン線形混合モデル(BayesianLinearMixedModel;\cite{Sorensen2016})により回帰分析する.その結果,名詞句は文中で,(I)情報状態が旧情報であるものが新情報であるものに先行する,(II)共有性が共有であるものが非共有であるものに先行する,(III)定名詞句が不定名詞句に先行する,(IV)有生名詞句が無生名詞句に先行するという傾向が確認された.これらの傾向は,主に機能主義言語学の分野で言及されている「伝達のダイナミズム」\cite{Firbas1971}・「旧から新への情報の流れ」\cite{Kuno1978}・「名詞句階層」\cite{Tsunoda1991}を支持する結果となった.以下,2節では分析方法として,使用したデータの概要と統計手法について示す.3節では統計分析の結果を提示する.4節では言語学的な考察を行う.5節でまとめと今後の研究の方向性を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V25N01-03
オンラインショッピングでは出店者(以下,店舗と呼ぶ)と顔を合わせずに商品を購入することになるため,店舗とのやりとりは顧客満足度を左右する重要な要因となる.商品の購入を検討しているユーザにとって,商品を扱っている店舗が「どのような店舗か」という情報は,商品に関する情報と同じように重要である.例えば,以下に示す店舗A,Bであれば,多くのユーザが店舗Aから商品を購入したいと思うのではないだろうか.\begin{figure}[b]\begin{center}\includegraphics{25-1ia3f1.eps}\end{center}\hangcaption{楽天市場における店舗レビューの例.自由記述以外に6つの観点(品揃え,情報量,決済方法,スタッフの対応,梱包,配送)に対する購入者からの5段階評価(5が最高,1が最低)がメタデータとして付いている.自由記述部分を読むと,発送が遅れているにも関わらず,店舗から何の連絡も来ていないことがわかる.店舗からの連絡に関する評価は,評価対象となっている6つの観点では明確に捉えられていない.}\label{review}\end{figure}\begin{description}\item[店舗A:]こまめに連絡をとってくれ,迅速に商品を発送してくれる\item[店舗B:]何の連絡もなく,発注から1週間後に突然商品が届く\end{description}ユーザに対して店舗に関する情報を提供するため,楽天市場では商品レビューに加え,店舗に対するレビューの投稿・閲覧ができるようになっている.店舗レビューの例を図\ref{review}に示す.自由記述以外に6つの観点(品揃え,情報量,決済方法,スタッフの対応,梱包,配送)に対する購入者からの5段階評価(5が最高,1が最低)が閲覧可能である.この5段階評価の結果から店舗について知ることができるが,評価値からでは具体的にどう良かったのか,どう悪かったのかという情報は得られないのに加え,ここに挙がっている観点以外の情報も自由記述に含まれているため,店舗をより詳細に調べるには自由記述に目を通す必要がある.そのため,レビュー内の各文をその内容および肯定,否定といった評価極性に応じて分類することができれば,店舗の良い点,悪い点などユーザが知りたい情報へ効率良くアクセスできるようになり,今まであった負担を軽減することが期待できる.このような分類は,オンラインショッピングサイトの運営側にとっても重要である.例えば楽天では,より安心して商品を購入してもらえるように,ユーザに対する店舗の対応をモニタリングしており,その判断材料の1つとして店舗レビューの自由記述部分を用いている.そのため,レビューに含まれる各文を自動的に分類することで,問題となる対応について述べられた店舗レビューを効率良く発見できるようになる.こうした背景から,我々は店舗レビュー中の各文を記述されている内容(以下,アスペクトと呼ぶ)およびその評価極性(肯定,否定)に応じて分類するシステムの開発を行った.店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでないため,まず無作為に選び出した店舗レビュー100件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した.その結果,14種類のアスペクトについて書かれていることがわかった.次いでこの調査結果に基づき,新しく選び出した1,510件の店舗レビュー(5,277文)に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文をアスペクトおよびその評価極性に分類するシステムを開発した.アスペクト分類の際は,2つの異なる機械学習手法により得られた結果を考慮することで,再現率を犠牲にはするものの,1つの手法で分類する場合より高い精度を実現している.このように精度を重視した理由は,システムの結果をサービスや社内ツールとして実用することを考えた場合,低精度で網羅的な結果が得られるよりも,網羅的ではないが高精度で確実な結果が得られた方が望ましい場合が多いためである.例えば1つの機能として実サービスに導入することを考えた際,誤った分類結果が目立つと機能に対するユーザの信頼を失う要因となる.このような事態を回避するため,本手法では精度を重視した.以降,本稿では店舗レビュー中に記述されているアスペクト,機械学習を使ったアスペクト・評価極性の分類手法について述べた後,構築した店舗レビュー分析システムについて述べる.
V06N05-01
従来,日本語記述文の解析技術は大きく進展し,高い解析精度~\cite{miyazaki:84:a,miyazaki:86:a}が得られるようになったが,音声会話文では,助詞の省略や倒置などの表現が用いられること,冗長語や言い直しの表現が含まれることなどにより,これを正しく解析することは難しい.省略や語順の変更に強い方法としては,従来,キーワードスポッテイングによって文の意味を抽出する方法\cite{kawahara:95:a,den:96:a,yamamoto:92:a}が考えられ,日常会話に近い「自由発話」への適用も試みられている.冗長語に対しては,冗長語の出現位置の前後にポーズが現れることが多いこと,また冗長語の種類がある程度限定できることから,頻出する冗長語を狙い撃ちして抽出する方法や上記のキーワードスポッテイングの方法によってスキップする方法などの研究が行なわれている\cite{nakagawa:95:a,murakami:91:a,murakami:95:a}.言い直し表現の抽出では,冗長語の場合のように予め言い直しのタイプを限定することが難しいが,音響的な特徴に基づく解析や言語的な特徴に基づく解析が試みられている.このうち,音響的特徴による方法としては,DPマッチングによるワードスポッテイングを用いた方法が提案されているが,繰り返し型の言い直しを対象にした実験では,40\%程度の抽出精度しか得られておらず~\cite{nakagawa:95:a},また音素モデルにガーベージモデルを使用した方法では,180文中に言い直し表現が21件存在する場合の実験結果は,67\%の抽出精度に留まっている\cite{inoue:94:a}.これらの研究結果に見られるように,音響的な情報に基づいて抽出するだけでは限界があるために,言語の文法や意味的な情報を用いることが期待される.従来,言語的な特徴による方法としては,英語では,発話を記録したテキストを対象に,音響的な特性を利用して言い直し表現を抽出する方法が提案され,90\%の抽出精度が得られており~\cite{shriberg:92:a,nakatani:94:a},日本語では,漢字かな混じり表記の文を対象に,文法的な解析によって言い直し表現を抽出する方法が提案され,108個所の言い直し抽出実験では70\%の精度が得られている~\cite{sagawa:94:a}.さらに,対話文中に含まれる言い直し表現の言語的な構造を詳細に調べる方法\cite{nakano:97:a,den:97:a}が考えられている.しかし,このような漢字かな混じり文を対象とした方法は,言い直しの検出に単語品詞情報や構文解析情報などを利用しているために,音声認識されたかな文字列(言い直し表現を含めた対話文)に対してそのまま適用することが困難である.これに対して,音素モデルの単語trigramなどを利用して言い直し部分をスキップさせる方法や未知語抽出の単語モデルを用いて未知語を言い直しとして抽出する方法がある~\cite{wilpon:90:a,asadi:91:a,murakami:95:a}.この方法は単語数が制限されることが問題である.本論文では,音響処理によって得られたべた書き音節文を対象に,言語的な情報の一部である音節の連鎖情報に着目して,言い直し音節列を抽出する方法を提案する.この方法は,単語数が限定されない利点をもつ.具体的には,次の2段階の処理によって言い直しの抽出を行なう.まず,最初の第1段階では,言い直しの音節列が文節境界に挿入されることが多いことに着目して,言い直しを含んだべた書き音節文の文節境界を推定する.音節文字列の文節境界の推定では,すでにマルコフ連鎖を用いた方法が提案されているが,言い直しを含む音節列では,言い直し音節列の近傍で音節連鎖の結合力が弱くなる傾向があるため,この方法では,正しく文節境界位置を求めることが難しくなると予想される.そこで,この問題を解決するために,すでに提案された方法~\cite{araki:97:a}を,前方向・後方向の双方向から音節連鎖の結合力が評価できるように改良する.次に第2段階では,第1段階で得られた文節境界を用いて文節を抽出し,抽出した文節を相互に比較して言い直し音節列を抽出する.マッチングの方法としては,(i)1つの文節境界を起点に,繰り返し部分を含む文字列を抽出する方法,(ii)連続した2つの文節境界のそれぞれを起点とする文字列を比較する方法,(iii)連続した3つのすべての文節境界を用いて,抽出された2文節を比較する方法の3種類を提案する.また,これらの方法を「旅行に関する対話文(ATR)」~\cite{ehara:90:a}のコーパスに適用し,個別実験結果から得られる言い直し表現の抽出精度を計算によって推定すると共に,その結果を総合的な実験結果と比較して,提案した方法の効果を確認する.
V29N04-16
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{27table01.tex}\caption{NTCIR-1からNTCIR-16までに運営されたタスク.}\label{tb:history}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%NTCIR(NIITestbedsandCommunityforInformationaccessResearch)は,情報検索,情報推薦,テキスト要約,情報抽出,質問応答などの情報アクセス技術の発展を目的とした,コミュニティ主導の評価型ワークショップである.ワークショップの参加者は提案されたタスクの中から興味のあるタスクを選んで参加し,システム出力結果を提出することで評価結果を得ることができる.また,参加者は開発したシステムに関して論文を執筆しNTCIRカンファレンスにて発表・議論を行う.一般的なSharedtaskと対比すれば,NTCIRは各回1.5年の期間をかけて長期的に実施される試みであり,また,NTCIRの「C」がCommunityを指すように「コミュニティ」を重視した活動となっている.これには以下のような理由が挙げられる:\begin{enumerate}\itemタスク運営者と参加者の積極的な議論(評価方法の検討,査読付きの学会では困難な失敗事例の共有など),\itemデータセットやツールなどの基盤形成(情報アクセス技術向けの大規模なデータセットの構築には,タスク運営者や評価者のみならず参加者による貢献が必要不可欠である\footnote{情報検索のデータセット構築には十分に多様なシステムの出力結果が必要になる.これは,一般的な機械学習のタスクでは見られない特徴であると思われる.情報検索では検索対象である文書(画像などでもよい)が非常に多いため,すべての文書に対してアノテーションを行うことはできない.そこで,伝統的に採用されているのは「プーリング」というアプローチである.この方法では,十分に多様な検索システムが返却する上位$k$件の文書に対してのみアノテーションを実施しこれ以外の文書は不適合と判定する.すべての適合文書がいずれかの検索システムの上位$k$に含まれていれば,すべての文書を評価することなくすべての文書の適合度を知ることができる.単一の研究グループだけでは,多様なシステムを用意することが困難であるため,参加者を募って各自にシステム開発を委託する必要がある.そのため,情報検索のデータセット構築には参加者の協力が不可欠なのである.}),\item国際協調とそれに伴う多言語化(NTCIRでは多くの多言語タスクが運営されてきた),\item参入障壁を下げ研究分野を活性化(参加者にとっては研究の支援が受けられ,運営者にとってはタスクに取り組む人口が増えることで自身の専門分野の発展につながる).\end{enumerate}本解説記事では,これまでにNTCIRにて運営されてきたタスクの傾向について説明し,その後,NTCIR-16\cite{ntcir16}(2020年12月~2022年6月実施)で運営されたタスクの概要について解説する.これまでにNTCIRが情報アクセス分野においてどのような貢献をしてきたかについては,書籍「EvaluatingInformationRetrievalandAccessTasks:NTCIR'sLegacyofResearchImpact」\cite{ntcir}にて解説されている.オープンアクセスであるため,興味のある方はぜひご覧いただきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V04N04-01
連接関係の関係的意味は,接続詞,助詞等により一意に決まるものもあるが,一般的には曖昧性を含む場合が多い.一般的には,複文の連接関係の関係的意味は,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.しかし,各々の単文の意味とそれらの間の関係を理解するためには広範囲の知識が必要になる.それらの背景知識を記述して,談話理解に利用する研究\cite[など]{ZadroznyAndJensen1991,Dalgren1988}も行われているが,現状では,非常に範囲を限定したモデルでなければ実現できない.従って,連接関係を解析するためには,少なくともどのような知識が必要になり,それを用いてどのように解析するのかが問題になる.シテ型接続に関する研究\cite{Jinta1995}では,助詞「て」による連接関係を解析し,「時間的継起」のほかに「方法」,「付帯状態」,「理由」,「目的」,「並列」などの意味があることを述べている.これらの関係的意味は,動詞の意志性,意味分類,アスペクト,慣用的な表現,同一主体,無生物主体などによって決まることを解析している.しかし,動詞の意志性自体が,動詞の語義や文脈によって決まる場合が多い.また,主体が省略されていることも多い.さらに,「て」以外の接続の表現に対して,同じ属性で識別できるかどうかも不明である.表層表現中の情報に基づいて,文章構造を理解しようとする研究\cite{KurohasiAndNagao1994}では,種々の手掛かり表現,同一/同種の語/句の出現,2文間の類似性を利用することによって連接関係を推定している.しかし,手掛かり表現に多義のある時は,ある程度の意味情報を用いる必要がある.日本語マニュアル文においてアスペクトにより省略された主語を推定する研究\cite{NakagawaAndMori1995}や,知覚思考,心理,言語活動,感情,動きなど述語の意味分類を用いて,「ので」順接複文における意味解析を行う研究\cite{KimuraAndNisizawaAndNakagawa1996}などがあり,アスペクトや動詞の意味分類が連接関係の意味解析に有効なことが分かる.しかし,連接関係全般について,動詞と主体のどのような属性を用いて,どの程度まで解析できるかが分からない.本論文では,「て」以外の曖昧性の多い接続の表現についても,その意味を識別するために必要な属性を調べ,曖昧性を解消するモデルを作成した.動詞の意志性については,予め単文で動詞の格パターンを適用して解析して,できるだけ曖昧性を無くすようにした.省略された主体については,技術論文,解説書,マニュアルなどの技術文書を前提にして,必要な属性を復元するようにした.
V10N04-10
\label{sec:intro}日英対訳コーパスは,機械翻訳などの自然言語処理において必要であるばかりでなく,英語学や比較言語学,あるいは,英語教育や日本語教育などにとっても非常に有用な言語資源である.しかしながら,これまで,一般に利用可能で,かつ,大規模な日英対訳コーパスは存在していなかった.そのような背景の中で,我々は,比較的大規模な日本語新聞記事集合およびそれと内容的に一部対応している英語新聞記事集合とから,大規模な日英対訳コーパスを作ることを試みた.そのための方法は,まず,内容が対応する日本語記事と英語記事とを得て,次に,その対応付けられた日英記事中にある日本語文と英語文とを対応付けるというものである.ここで,我々が対象とする日本語記事と英語記事においては,英語記事の内容が日本語記事の内容に対応している場合には,その英語記事は,日本語記事を元にして書かれている場合が多いのであるが,その場合であっても,日本語記事を直訳しているわけではなく,意訳が含まれていることが多く,更に,日本語記事の内容の一部が英語記事においては欠落していたり,日本語記事にない内容が英語記事に書かれている場合もある.また,記事対応付けを得るための日本語記事集合と英語記事集合についても,英語記事集合の大きさは日本語記事集合の大きさの6\,\%未満であるので,日本語記事の中で,対応する英語記事があるものは極く少数である.そのため,記事対応付けおよび文対応付けにあたっては,非常にノイズが多い状況のなかから,適切な対応付けのみを抽出しなくてはならないので,対応の良さを判断するための尺度は信頼性の高いものでなくてはならない.本稿では,そのような信頼性の高い尺度を,記事対応付けと文対応付けの双方について提案し,その信頼性の程度を評価する.また,作成した対応付けデータを試験的に公開したときの状況についても述べ,そのようなデータが潜在的に有用な分野について考察する.以下では,まず,対応付けに用いた日英新聞記事について概要を述べ,次に,記事対応付けの方法と文対応付けの方法を述べたあとで,それぞれの対応付けの精度を評価する.最後に考察と結論を述べる.また,付録には,実際に得られた文対応の例を示す.
V28N02-05
文法誤り訂正は,主に言語学習者の書いた文法的に誤っている文(入力文)を文法的に正しい文(訂正文)に編集するタスクである.自動評価はコストをかけずにシステムを定量評価できるため,信頼できる自動評価手法の構築は研究および開発の発展に有用である.自動評価は訂正システムの出力文を入力文や人手で訂正した文(参照文)などを用いて評価する.訂正の仕方は一つではなく複数の訂正が考えられるため,自動評価は難しいタスクである.文法誤り訂正の自動評価は,参照文を用いる手法\cite{Dahlmeier,gleu}と用いない手法\cite{Napoles,asano-ja}に大別できる.前者は,可能な参照文を網羅することが難しい\cite{bryant}ため,参照文に含まれない表現に対してはそれが適切な訂正であっても不当に低い評価を与えるという問題がある.後者にはこの問題がなく,特に\citeA{asano-ja}は文法性・流暢性・意味保存性の各自動評価モデルの評価を統合することで参照文を用いる自動評価手法よりも人手評価との高い相関を達成した.文法性は訂正文が文法的に正しいかという観点である.流暢性は訂正文が母語話者にとってどの程度自然な文かという観点であり,文法性と区別されて重要性が示されている\cite{sakaguchi}.意味保存性は入力文と訂正文がどの程度意味が同じであるかという観点であり,文法的な文でも入力文と意味が異なる訂正は不適切なため重要な観点である.このように3項目で評価を行うことは,自動評価の解釈性を高めることができるため重要である.しかし,これらの各自動評価モデルは訂正文に対する各項目の人手評価に対してそれぞれ最適化されておらず,改善の余地がある.本研究では,人手評価との相関が高く,多様な訂正を正しく評価できる自動評価手法を構築するために,\citeA{asano-ja}の拡張として,文法性・流暢性・意味保存性の各自動評価モデルを各項目の人手評価に対して直接最適化する手法を提案する.具体的には,各項目の評価モデルとして,少量のデータで目的タスクに最適化できる事前学習された文符号化器BidirectionalEncoderRepresentationsfromTransformers(BERT)\cite{bert}を用い,各項目の人手評価値付きデータセットで再学習することで各評価モデルを最適化する.また,学習者が書いた文や機械翻訳の逆翻訳による擬似誤り文に対して,文法性や流暢性の評価値が付与された既存のデータは存在するが,文法誤り訂正の自動評価のために理想的な設定である,訂正文に対する各項目の人手評価値付きデータセットは存在しない.そのため,我々はクラウドソーシングを用いて,代表的な5種類の文法誤り訂正システムの訂正文に対して文法性・流暢性・意味保存性の人手評価を付与し,データセットを作成する.実験では,人手評価との相関およびMAEGE\cite{MAEGE}によって自動評価手法をメタ評価する.実験の結果,両方のメタ評価において我々の自動評価手法が従来の自動評価手法よりも適切な評価ができることを示した.また,各項目に対応する既存のデータセットを用いて訓練した自動評価モデルとの比較から,システムの訂正文に対する人手評価を用いてBERTを再学習することの有効性が明らかになった.分析の結果,参照文を用いない手法が多くのエラータイプの訂正を正しく評価できていないのに対して,提案手法は全てのエラータイプの訂正を正しく評価できていることがわかった.本研究の主な貢献は以下の4つである.\begin{itemize}\item文法誤り訂正の自動評価において,事前学習された文符号化器を用いて人手評価に直接最適化する手法を提案した.\item文法誤り訂正における自動評価手法の学習のための,訂正システムの訂正文に対して文法性・流暢性・意味保存性の3項目の評価値を付与したデータセットを作成した\footnote{\url{https://github.com/tmu-nlp/TMU-GFM-Dataset}}.\item人手評価との相関に基づくメタ評価およびMAEGEによるメタ評価の結果,提案手法は既存手法よりも適切な評価が行えていることを示した.\item分析の結果,従来手法に比べて,提案手法は調査可能な全てのエラータイプの訂正を正しく評価できていることを示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V07N04-04
label{hajimeni}本論文では,表現``$N_1のN_2$''が多様な意味構造を持つことを利用して,動詞を含む連体修飾節を表現``$N_1のN_2$''に言い換える手法を提案する.自然言語では,一つの事象を表すために多様な表現を用いることが可能であり,人間は,ある表現を,同じ意味を持つ別の表現に言い換えることが,しばしばある.言い換えは,自然言語を巧みに操るために不可欠な処理であり\cite{sato99},それを機械によって実現することは有用であると考えられる.例えば,文書要約において,意味を変えずに字数を削減するためや,文章の推敲を支援するシステムにおいて,同一の表現が繰り返し出現するのを避けるために必要な技術である.また,ある事象が様々な表現で表されているとき,それらの指示対象が同一であると判定するためにも必要である.{}\ref{kanren}節で述べるように,近年,言い換え処理の重要性はかなり認識されてきたと考えられるが,適切な問題の設定を行うことが比較的困難なため,言い換え処理の研究はそれほど進んでいない.佐藤\cite{sato99}は,「構文的予測の分析」から「構文的予測を分析する」への言い換えのように,動詞を含む名詞句を述語の形式に言い換える問題を設定している。また近藤ら\cite{kondo99}は,「桜が開花する」から「桜が咲く」への言い換えのように,サ変動詞を和語動詞に言い換える問題設定をしている.この他,「〜を発表しました.」から「〜を発表.」のような文末表現の言い換えや,「総理大臣」から「首相」のような省略形への言い換えなどを,言い換えテーブルを用意することによって実現している研究もある\cite{wakao97,yamasaki98}.これに対し我々は,名詞とそれに係る修飾語,すなわち連体修飾表現を異形式の連体修飾表現に言い換えるという問題設定を提案する.\ref{taishou}節に述べるように,我々は連体修飾表現を言語処理の観点から3分類し,これらの相互の変換処理を計算機上で実現することを研究の最終目標として設定し,このうち本論文において動詞型から名詞型へ変換する手法を議論する.連体修飾表現を対象にした本論文のような問題設定は従来見られないが,表現が短縮される場合は要約などに,また逆に言い換えの結果長い表現になる場合は機械翻訳などの処理に必要な処理であると考える.本問題においても,従来研究と同様言い換えテーブルを用意することで言い換え処理を実現する.しかし本論文では,その言い換えテーブルを如何にして作成するかについて具体的に述べる.連体修飾表現の言い換え可能な表現は非常に多く存在することが容易に想像でき,これらをすべて手作業で作成することは現時点においては困難である.このため,現実的な作業コストをかけることで言い換えテーブルを作成する手法を示す.本提案処理の一部にはヒューリスティックスが含まれているが,これらについても一部を提示するにとどめず,具体例をすべて開示する.本論文で言い換えの対象とする表現``$N_1のN_2$''は,2つの語$N_1$,$N_2$が連体助詞`の'によって結ばれた表現である.表現``$N_1のN_2$''は,多様な意味構造を持ち,さまざまな表現をそれに言い換えることが可能である.また,動詞を含む連体修飾節は,各文を短縮する要約手法\cite{mikami99,yamamoto95}において削除対象とされている.しかし,連体修飾節すべてを削除することにより,その名詞句の指す対象を読み手が同定できなくなる場合がある.このとき,それを``$N_1のN_2$''という表現に言い換えることができれば,名詞句の指示対象を限定し,かつ,字数を削減することが可能となる.表現``$N_1のN_2$''は多様な意味を持ちうるため,たとえ適切な言い換えがされたとしても,曖昧性が増す場合がある.しかしながら,言い換えが適切であれば,読み手は文脈や知識などを用いて理解が可能であると考えられる.以下,\ref{taishou}~節で,連体修飾表現を分類し,本論文で対象とする言い換えについて述べる.\ref{kousei}~節から\ref{NNpair}節で本手法について述べ,\ref{hyouka}~節では主観的に本手法を評価する.\ref{kousatsu}~節では,評価実験の際に明らかになった問題点などを考察する.また\ref{kanren}~節では,本論文の関連研究について論じる.
V26N04-01
\label{sec:introduction}複単語表現(MWE)は,統語的もしくは意味的な単位として扱う必要がある,複数の単語からなるまとまりである\cite{Sag:2002}.MWEはその文法的役割に基づいて以下の4種に分類することができる(\tabref{tab:categories_of_mwes}):(1)複合機能語\footnote{本稿では副詞,接続詞,前置詞,限定詞,代名詞,助動詞,to不定詞,感動詞のいずれかとして機能するMWEを複合機能語として定義する.}({\itanumberof},{\iteventhough}),(2)形容詞MWE({\itdeadonone'sfeet},{\itoutofbusiness}),(3)動詞MWE(VMWE)({\itpickup},{\itmakeadecision}),(4)複合名詞({\ittrafficlight}).これ以降,MWEの文法的役割をMWE全体品詞と呼ぶことにする.\begin{table}[b]\caption{複単語表現(MWE)の文法的役割に基づく分類}\label{tab:categories_of_mwes}\input{01table01.tex}\end{table}上記の中でも特に複合機能語は統語的な非構成性を持ちうる.即ち,構成単語の品詞列から複合機能語のMWE全体品詞が予測し難い,というケースがしばしば存在する.たとえば,``byandlarge''は次の文で副詞として機能しているが,構成単語の品詞列(``IN''(前置詞または従属接続詞),``CC''(並列接続詞),``JJ''(形容詞))からこれを予測することは難しい.\begin{quote}{\bf\underline{Byandlarge}},theseeffortshavebornefruit.\end{quote}このようにMWEはしばしば非構成性を持つため,テキストの意味を自動理解する上でMWE認識は重要なタスクである\cite{newman:2012,berend:2011}.また,統語的な依存構造の情報を利用する応用タスクにおいて,MWEを考慮した依存構造(\figref{fig:a_number_of}b)の方が単語ベースの依存構造(\figref{fig:a_number_of}a)よりも好ましいと考えられる.MWEを考慮した依存構造では各MWEが統語的な単位となっているのに対し,単語ベースの依存構造ではMWEの範囲は表現されていない.MWEを考慮した依存構造の利点を享受しうる応用タスクの例としてはイベント抽出が挙げられる\cite{Bjorne2017}.イベント抽出ではイベントトリガーの検出とイベント属性値の同定が必要となるが,イベントトリガーとイベント属性値のいずれもMWEになりうる.また,イベントトリガーとイベント属性値を結ぶ依存構造上の最短経路は,しばしばイベント属性値の同定において特徴量として利用されている\cite{Li:2013}.\begin{figure}[b]\begin{center}\includegraphics{26-4ia1f1.eps}\end{center}\hangcaption{単語ベースの依存構造とMWEを考慮した依存構造の比較.前者ではMWE(``anumberof'')の範囲が表現されていないのに対して,後者ではMWEが依存構造の単位となっている.}\label{fig:a_number_of}\end{figure}上述のように,MWEを考慮した依存構造解析は重要な研究課題である.そこで次にMWEを考慮した依存構造コーパスの構築方法について述べる.伝統的に,英語の依存構造コーパスはPennTreebank\cite{Marcus:1994}などのツリーバンク(句構造コーパス)からの自動変換によって構築されてきた.しかし既存のほとんどの英語ツリーバンクでは,MWEが句構造の部分木になっていることは保証されていない(\figref{fig:not_subtree}).このため,句構造からの自動変換で得られた依存構造において,MWEの構成単語群を単純にマージすることによって,MWEを考慮した依存構造を得られるとは限らない(\figref{fig:a_number_of})\cite{Kato:2016}.本稿ではこれ以降,あるMWEが句構造の部分木になっている時,{\bfMWEが句構造と整合的である},と記述する.コーパス中の全てのMWEの出現が句構造と整合的であるならば,我々はこれを{\bfMWEと整合的な句構造コーパス},と記述する.\citeA{Kato:2016}はOntonotes5.0\cite{Pradhan:2007}をMWEと整合的にすることによって,MWEを考慮した依存構造コーパスを構築した.しかし\citeA{Kato:2016}は複合機能語のみを対象としており,他のMWEは取り扱っていない.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f2.eps}\end{center}\hangcaption{MWEの範囲が句構造のいずれの部分木の範囲とも一致しない場合の例.図中の矩形はMWEの範囲を示す.}\label{fig:not_subtree}\end{figure}そこで本稿では,より多くの種類のMWEをカバーするために,新たに形容詞MWEのアノテーションを行う.その上で,Ontonotesコーパスが複合機能語および形容詞MWEと整合的になるように句構造木を修正する.その後,依存構造への自動変換を行い,MWEを考慮した大規模な依存構造コーパスを構築する(\ref{sec:corpus}章).依存構造に新たに統合するMWEとして,形容詞MWEを選択した理由を以下に述べる.第一に,複合名詞は統語的には構成的であるため,依存構造中の単位として扱うことで得られる利点は限定的である.また,複合名詞は高い生産性を持つため,辞書マッチングによる候補抽出を行うと,十分な網羅率が得られない可能性がある.したがって,複合名詞については,辞書に依存しないコーパスアノテーションが望ましいため,形容詞MWEよりもアノテーションコストが高い.第二に,動詞MWE(VMWE)は一般に非連続な出現を持ちうるため({\it{\bfpick}..{\bfup}}),句構造で部分木としてまとめる事ができないケースが存在する.このため,VMWEを考慮した依存構造コーパスを構築するためには,連続MWEとは異なるアプローチが必要となる.この点は今後の課題とする.また,文の意味理解が必要な応用タスクにおいては,句動詞など,非連続な出現を持ちうるMWE(VMWE)の認識も重要である.VMWEの認識を行う上で,連続MWEを考慮した依存構造,特に,依存構造中の動詞からparticleや直接目的語へのエッジは,有用な特徴量として利用できると期待される.そこで本研究では所与の文に対して,(i)連続MWE(複合機能語と形容詞MWE)を考慮した依存構造,(ii)VMWEの双方を予測する問題に取り組む(\ref{sec:model}章).連続MWEを考慮した依存構造解析のモデルとしては,以下の3者を検討する:(a)連続MWE認識を系列ラベリングとして定式化し,予測した連続MWEを単一ノードにマージした上で依存構造解析を行うパイプラインモデル,(b)連続MWEの範囲と全体品詞を依存関係ラベルとして符号化し(head-initialな依存構造),単語ベースの依存構造解析を行うモデル(Single-task(parser)),そして(c)上記(b)および,連続MWE認識との階層的マルチタスク学習モデル(HMTL)\cite{Sanh:2018}である.HMTLでは,上位タスクのエンコーダーは,下位タスクのエンコーダーからの出力と,単語分散表現などの入力特徴量の双方を受け取る.HMTLを用いる動機を以下に述べる.連続MWEを考慮した依存構造解析は,連続MWE認識と,連続MWEを統語構造の単位とする依存構造解析とに分解できる.したがって,head-initialな依存構造の解析器を単体で学習させるよりも,連続MWE認識を下位タスクとして位置付け,下位タスクのエンコーダーが捉えた特徴量も利用した方が,解析精度が向上すると期待される.Head-initialな依存構造の解析は,Deepbiaffineparser\cite{Dozat:2017}を用いて行い,連続MWE認識器としてはbi-LSTM-CNNs-CRFモデル\cite{Ma:2016}を用いる.本研究でOntonotes上に構築した,複合機能語と形容詞MWEを考慮した依存構造コーパスを用いた実験の結果,連続MWE認識については,パイプラインモデルとHMTLベースのモデルがほぼ同等のF値を示し,Single-task(parser)を,連続MWE認識のF値で約1.7ポイント上回っていることを確認した.依存構造解析については,テストセット全体およびMWEを含む文において,各手法はほぼ同等のラベルなし正解率(UAS)を示した.一方,正解のMWEの先頭単語に着目すると,Single-task(parser)およびHMTLベースのモデルがパイプラインモデルをUASで少なくとも約1.4ポイント上回った.また,VMWE認識については,MWEの構成単語間のギャップを扱えるように拡張したBIO方式\cite{lrec_schneider:2014}を用いて系列ラベリングとして定式化し,(d)bi-LSTM-CNNs-CRFモデル(Single-task(VMWE))および(e)連続MWE認識,連続MWEを考慮した依存構造解析,Single-task(VMWE)のHMTLを検討する.VMWEのデータセットとしては,Ontonotesに対するVMWEアノテーションを用いる\cite{Kato:2018}.実験の結果,VMWE認識において,(e)が(d)に比べて,F値で約1.3ポイント上回ることを確認した.本稿で構築した,複合機能語および形容詞MWEを考慮した依存構造コーパスはLDC2017T16\footnote{https://catalog.ldc.upenn.edu/LDC2017T16}の次版としてリリースする予定である.
V09N01-03
\label{sec-intro}音声対話システムとは,ユーザとの音声対話を通して,あらかじめ決められたタスクをユーザと協同で実行するシステムである.タスクとは,音声対話システムごとに定められた作業のことであり,たとえば,各種の予約,個人スケジュールの管理といったタスクがある.近年の音声情報処理技術,自然言語処理技術の発展に伴って,様々なタスクにおいて音声対話システムが実現されてきている~\cite{TRIPS,DUG1,PEGASUS}.音声対話インタフェースは,人にとって親しみやすく,手や目を占有しないという利点をもつ.人とコンピュータが,円滑な音声対話を通して意思疎通できるようになれば,音声対話は理想的な人−コンピュータのインタフェースとなることが期待される.しかし,円滑な音声対話を実現するためには,音声認識誤りに対処することが必要となる.システムは,ユーザ音声の認識結果からユーザ要求の内容を理解し,ユーザ要求内容に応じて適切な情報をユーザに伝達しなければならないが,音声認識誤りの可能性があるため,ユーザ音声の認識結果のみに頼ってユーザ要求の内容を確定してしまうと,ユーザ要求通りに正しくタスクを遂行できない場合が生じる.音声対話システムでは,この問題に対処するために,ユーザとの間で確認対話と呼ぶ対話を行い,確認対話を通してユーザ要求内容を確定するという方法をとることが普通である.音声認識誤りのため確認対話は必須であるが,確認対話の最中にも音声認識誤りが起きる可能性があるので,確認対話が長ければ長いほど,対話の円滑な流れが阻害される危険性が高まる.したがって、不必要な確認対話はできる限り避けることが望ましい.不必要な確認対話の一つの典型は,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合に,システムがユーザ要求内容のすべてを逐一確認する場合に起きる.ここで,システム知識とは,システムが対話時点でデータベース内に保持しているタスク遂行のために必要なデータの集合を意味する.また,ユーザ要求内容がシステムの限られた知識の範囲を越えている状況とは,システムがユーザ発話を理解できるのだけれども,システムが保有していない情報をユーザが要求している,あるいは,システムが詳しい情報を保有していない事柄に関して,ユーザが詳細な情報を要求しているという状況である.\footnote{本稿では,システムが認識できる語彙の集合が限られているために,システムがユーザ発話を理解できない状況や,ユーザが期待するタスクとシステムが想定するタスクが相違しているために、ユーザが期待するタスクをシステムが実行できない状況は扱わない.}音声対話システムとユーザの対話は,ユーザの要求内容を確定するために確認対話を行い,その後で,確定した要求内容に応じて適切な情報をユーザに対し応答するという順序で進行する.確認対話でユーザ要求内容をすべて確認したところで,確認対話に続くシステム応答の長さを考慮しなければ,対話全体を効率的に実施することにはならない.システム応答の長さは,対話時点のシステム知識の内容に依存するので,システムの限られた知識の範囲を考慮した上で,対話全体を制御する必要がある.例として,気象情報を案内する音声対話システムを考える.システムは,各場所ごとに予報されている気象情報や,現在発表されている警報についてのデータをシステム知識として保有している.今,ユーザが神奈川県に大雨警報が発表されているかどうか尋ねているとシステムが理解した状況を想定する.また,どこにも警報が発表されていない,あるいは,警報が発表されている場所は少数であるという知識をシステムが保有しているとする.このとき,ユーザが関心のある場所が神奈川県であることや,警報の種別が大雨であるといった項目は確認する必要がない.なぜなら,システムは,ユーザ要求内容に含まれる場所や警報の種別が何であるかということを識別するに足るほど詳しい情報を保有しておらず,場所や警報の種別についての確認なしでも,システム応答の長さはほとんど同じであり,対話全体の長さが増大することもないからである.また,システムが認識している神奈川県,大雨といった項目は認識誤りかもしれず,それらの項目を確認すると,ユーザの訂正発話を招き,対話が不必要に長くなる危険性が高い.音声対話システムとユーザの間で効率的な対話を実現するための対話制御法について盛んに研究が進められている\cite{Chu:00,LPE:98,Niimi:96,LKSM:00,RPT:00}.これらの従来法は,音声認識結果の信頼度,音声認識率,システム理解状態といった情報を利用して,確認対話の長さを削減することに注目している.しかし,確認対話に続くシステム応答の長さを含めて対話全体を効率的に実施することは行っておらず,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合に,著しく無駄な対話を行ってしまうという問題点がある.従来法の中には,強化学習を利用して最適な対話戦略を学習するという方法がある~\cite{LPE:98,LKSM:00,RPT:00}.これらの従来方法では,対話戦略の効率性を評価するための報酬関数あるいはコスト関数を定義し,システムとユーザの間の多くの対話例を使って,報酬関数を最大化あるいはコスト関数を最小化するような対話戦略が学習される.しかし,これらの従来法はシステムが対話時点で保有する知識の範囲が対話の効率性に対して及ぼす影響を報酬関数やコスト関数に組み入れてはいない.したがって,強化学習に基づく従来法によって学習される対話戦略を使っても,本稿で問題としているような無駄な対話を避けることはできない.ユーザ発話内容が曖昧なときに,ユーザ発話内容の曖昧さを解消してもシステム応答が同一で変化しないなら,ユーザ発話内容の曖昧さを解消せずに応答を生成するという方法が提案されている~\cite{Ardissono:96,RasZuk:94,vBkCoh:91}.これらの従来法は,システム応答の同一性が保証されていない場合には適用できないという問題がある.また,音声認識誤りにより発生する余分な対話については考慮されていない.そこで,本稿では,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合であっても,無駄な確認を避けて効率的な対話を実施することを目的とした方法として,デュアルコスト法とよぶ対話制御法を提案する.デュアルコスト法では,確認対話の長さを表す確認コストと,確認対話後のシステム応答の長さを表す情報伝達コストという2つのコストを導入し,確認コストと情報伝達コストの和を最小化するように対話を制御する.音声認識が誤っていると,余分な確認を行わないといけないことを反映して,確認コストは音声認識率に依存する.情報伝達コストはシステムが対話時点で保有する知識の内容に依存する.確認コストと情報伝達コストという2種類のコストを導入するのは,対話全体を効率的に実施するためには,確認対話の長さだけでなく,システム応答の長さを考慮する必要があるためである.すなわち,確認対話に手間をかければかけるほど対話全体を効率的に実施できるというわけではなく,ユーザ要求内容確定のための手間は,システム応答の長さとのバランスによって決める必要があるということである.この2つのコストの和を最小化することにより,システム知識の内容に応じて,無駄な確認を避け,対話全体を効率的に実施することが可能となる.この提案方法は,システム応答の同一性が保証されない場合であっても,情報伝達コストの増大が確認コストの減少に見合う範囲内であれば,ユーザ発話理解結果の一部を確認しないという方法であり,従来方法~\cite{Ardissono:96,RasZuk:94,vBkCoh:91}を一般化したものとなっている.また,デュアルコスト法とユーザ要求内容のすべてを逐一確認する従来方法を対話の効率性の観点から比較したシミュレーション対話実験の結果を示し,デュアルコスト法が従来法よりも効率的に対話を実施できることを論じる.
V12N03-03
近年のWroldWideWeb(WWW)の急速な普及により,世界中から発信された膨大な電子化文書へのアクセスが可能になった.しかしながら,そのような膨大な情報源から,必要な情報のみを的確に得ることは困難を極める.的確な情報を得るために,テキストを対象とした文書分類や情報の抽出などの様々な技術が注目され,研究されている.しかしながら,Web上に存在するのはテキスト情報だけではなく,表や画像など様々な表現形式が使用されている.ここで,表形式で記述された情報について着目する.従来の情報検索システムなどでは,表はテキストとして扱われることが多かった.表は属性と属性値によって構造化された情報であり,その特性を考えると,表をテキストとして扱うのではなく,テキスト部分と切り離し,表として認識し,利用することが情報検索システムなどの精度向上に繋がる.また表は情報間の関係を記述するのに適した表現形式であり,Web上に存在する文書から表を抽出することは,WebMiningや質疑応答システム,要約処理などのための重要なタスクの一つである\cite[など]{hurst,itai,pinto,shimada2,wang}.本稿では,電子化された情報の一つである,製品のスペック情報の抽出について議論する.一般に,パソコンやデジタルカメラ,プリンタなどの製品の機能や装備などのスペック情報は表形式で記述される.本稿ではこれらの表形式で記述されたスペック情報を性能表と呼ぶことにする.その例を図\ref{spec}に示す.性能表を扱う理由としては,\begin{itemize}\itemポータルサイトの存在\\現在,Web上には,数多くの製品情報に関するポータルサイトやオンラインショッピングサイトが存在する\footnote{価格.com(\verb+http://www.kakaku.com/+)やYahoo!Shopping(\verb+http://shopping.yahoo.co.jp/+)など.}.これらのサイトで,ユーザが製品を比較する際に最も重要な情報の一つが性能表である.多くの製品は頻繁に最新機種が発表され,その度に性能表を人手で収集するのはコストがかかる.膨大なWebページの中から製品のスペック情報を的確に抽出することは,そのようなポータルサイトの自動構築のために大きな意義を持つ.\item製品情報のデータベース化\\性能表は表形式で記述されているので,表領域が正しく特定されれば,属性と属性値の切り分けや対応付けなどの解析が比較的容易で,製品データベースの自動獲得が可能になる.これらのデータを利用し,ユーザの要求に合致した製品を選択するシステムなどの構築が可能になる\cite{shimada4}.\end{itemize}などが挙げられる.\begin{figure}\begin{center}\epsfile{file=base.eps,height=14.0cm}\end{center}\caption{パソコンの性能表の例}\label{spec}\end{figure}Web上での表の記述に関しては,いくつか問題点がある.その一つが,\verb+<+TABLE\verb+>+タグの一般的な使用方法である.Web上の表はHTMLの\verb+<+TABLE\verb+>+タグを用いて記述されるが,\verb+<+TABLE\verb+>+タグは表を記述する以外にも,レイアウトを整えたりする場合に頻繁に用いられる.ある特定の領域においては,\verb+<+TABLE\verb+>+の70\%がレイアウト目的で使われているとの報告もある\cite{chen}.そのため,HTML文書中の\verb+<+TABLE\verb+>+タグが表なのか,それとも他の目的で使用されているのかを判別する必要がある.また,実際のWeb文書では,\verb+<+TABLE\verb+>+の入れ子構造が頻繁に見られる.性能表抽出のタスクでは,入れ子構造になった\verb+<+TABLE\verb+>+の中で,どこまでが性能表を表しているかという表領域を特定する必要がある.提案手法では,(1)フィルタリング,(2)表領域抽出,の2つのプロセスによってWeb文書群から性能表を獲得することを試みる.処理の流れを図\ref{outline}に示す.ここで,フィルタリングとは,製品メーカのサイトからHTMLダウンローダで獲得したWeb文書群を対象とし,その中から性能表を含む文書を抽出することを指す.フィルタリング処理では,文書分類などのタスクで高い精度を収めているSupportVectorMachines(SVM)を用いる.また,少ない訓練データでもSVMと比較して高い精度を得ることができるといわれているTransductiveSVM(TSVM)とSVMを比較する.一方,表領域抽出とは,フィルタリング処理で得られた文書中から,性能表の領域のみを抽出することを意味する.表領域抽出処理では,フィルタリングの際にSVMおよびTSVMのための素性として選ばれた語をキーワードとし,それらを基に表領域を特定する.以下では,まず,2節で,本稿で扱う性能表抽出のタスクに最も関連のある表認識などの関連研究について説明する.3節では,フィルタリングに用いるSVMとTSVMについて述べ,学習に用いる素性選択の手法について説明する.続いて,4節で,各Web文書から表領域を特定する手法について述べ,5節で提案手法の有効性を検証し,6節でまとめる.\begin{figure}\begin{center}\epsfile{file=outline.eps}\end{center}\vspace{-3mm}\caption{処理の概要}\label{outline}\end{figure}
V09N03-04
\label{sec:introduction}自然言語解析では,形態素解析,構文解析,意味解析,文脈解析などの一連の処理を通して,入力テキストを目的に応じた構造に変換する.これらの処理のうち,形態素・構文解析は一定の成果を収めている.また,意味解析に関しても言語資源が整ってきており,多義性解消などの研究が活発に行なわれている\cite{kilgarriff98}.しかし,文脈解析は依然として未解決の問題が多い.文脈解析の課題の一つに,代名詞などの{\bf照応詞}に対する指示対象を特定する処理がある.自然言語では,自明の対象への言及や冗長な繰り返しを避けるために照応表現が用いられる.日本語では,聞き手や読み手が容易に推測できる対象(主語など)は,代名詞すら使用されず頻繁に省略される.このような省略のうち,格要素の省略を{\bfゼロ代名詞}と呼ぶ.そして,(ゼロ)代名詞が照応する実体や対象を特定する処理を{\bf照応解析}と呼ぶ.照応解析は,文間の結束性や談話構造を解析する上で重要であり,また自然言語処理の応用分野は照応解析によって処理の高度化が期待できる.例えば,日英機械翻訳の場合,日本語では主語が頻繁に省略されるのに対し,英語では主語の訳出が必須であるため,照応解析によってゼロ代名詞を適切に補完しなければならない\cite{naka93}.照応詞の指示対象は文脈内に存在する場合とそうでない場合があり,それぞれを{\bf文脈照応}(endophora),{\bf外界照応}(exophora)と呼ぶ.外界照応の解析には,話者の推定や周囲の状況の把握,常識による推論などが必要となる.文脈照応は,照応詞と指示対象の文章内における位置関係によって,さらに二つに分けられる.指示対象が照応詞に先行する場合を{\bf前方照応}(anaphora),照応詞が指示対象に先行する場合を{\bf後方照応}(cataphora)と呼ぶ.以上の分類を図~\ref{fig:ana_kinds}にまとめる\cite{halliday76}.ただしanaphoraはendophoraと同義的に用いられることもある.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/class-anaphora.eps,scale=1.0}\caption{照応の分類}\label{fig:ana_kinds}\end{center}\end{figure}照応解析に関する先行研究の多くは前方照応を対象にしている.これらは人手規則に基づく手法と統計的手法に大別できる.人手規則に基づく手法は,照応詞と指示対象候補の性・数の一致や文法的役割などに着目した規則を人手で作成し,照応解析に利用する\cite{bren87,hobbs78,kame86,mitk98,okum96,stru96,walk94,naka93,mura97}.これらの手法では,人間の内省に基づいて規則を作成するため,コーパスに現れないような例外的な言語事象への対処が容易である.その反面,恣意性が生じやすく,また,規則数が増えるにつれて規則間の整合性を保つことが困難になる.これに対して,1990年代には,コーパスに基づく統計的な照応解析手法が数多く提案された\cite{aone95,ge98,soon99,ehar96,yama99}.これらの手法は,照応関係(照応詞と指示対象の対応関係)が付与されたコーパスを用いて確率モデルや決定木などを学習し,照応解析に利用する.統計的手法ではパラメータ値や規則の優先度などを実データに基づいて決定するため,人手規則に基づく手法に比べて恣意性が少ない.しかし,モデルが複雑になるほど推定すべきパラメータ数が増え,データスパースネスが生じやすい.本研究は日本語のゼロ代名詞を対象に,確率モデルを用いた統計的な照応解析手法を提案する.本手法は,統語的・意味的な属性を分割して確率パラメータの推定を効率的に行なう点,照応関係が付与されていないコーパスを学習に併用してデータスパースネス問題に対処する点に特長がある.なお,本研究は日本語に多く現れる前方照応(図~\ref{fig:ana_kinds}参照)を対象とする.以下,\ref{sec:houhou}~章において本研究で提案するゼロ代名詞の照応解析法について述べ,\ref{sec:jikken}~章で評価実験の結果について考察し,\ref{sec:hikaku}~章で関連研究との比較を行なう.
V26N04-02
label{sec:introduction}単語を密ベクトルで表現する単語分散表現\cite{mikolov-13b,mikolov-13a,pennington-14,levy-14,bojanowski-17}が,機械翻訳\cite{sutskever-14},文書分類\cite{mikolov-14}および語彙的換言\cite{melamud-15}など多くの自然言語処理応用タスクにおける性能改善に大きく貢献してきた.単語分散表現は今やこれら応用タスクの基盤となっており,その性能改善は重要な課題である.広く利用されているCBOW(ContinuousBag-of-Words)\cite{mikolov-13a}やSGNS(Skip-gramwithNegativeSampling)\cite{mikolov-13b}などの手法では各単語に対して$1$つの分散表現を生成するが,LiandJurafsky\citeyear{li-17}によって,語義ごとに分散表現を生成することで多くの応用タスクの性能改善に貢献することが示されている.そこで,本研究では各単語に複数の語義の分散表現を割り当てる手法を提案する.文脈に応じて分散表現を使い分けるために,多義語に複数の分散表現を割り当てる手法\linebreak\cite{neelakantan-14,paetzold-16d,fadaee-17,athiwaratkun-17}が提案されている.しかし,語義曖昧性解消はそれ自体が難しいタスクであるため,これらの先行研究では近似的なアプローチを用いている.例えば,PaetzoldandSpecia\citeyear{paetzold-16d}は品詞ごとに,Fadaeeら\citeyear{fadaee-17}はトピックごとに異なる分散表現を生成するが,これらの手法には多義性を扱う粒度が粗いという課題がある.以下の例では,いずれの文もトピックは{\ttfood}であり,単語{\ttsoft}の品詞は形容詞である.\begin{enumerate}\renewcommand{\labelenumi}{}\setlength{\leftskip}{1.0cm}\item{\itIatea\textit{\textbf{soft}}candy.}\label{enum:soft1}\item{\itIdrunk\textit{\textbf{soft}}drinks.}\label{enum:soft2}\end{enumerate}先行研究ではこれらの単語{\ttsoft}を同じ分散表現で表す.しかし,例\ref{enum:soft1})の単語{\ttsoft}は{\tttender}という意味を,例\ref{enum:soft2})の{\ttsoft}は{\ttnon-alcoholic}という意味を表すため,これらに同一の分散表現を生成するのは適切ではない.このような品詞やトピックでは区別できない多義性を考慮するために,各単語により細かい粒度で複数の分散表現を割り当てることが望ましい.そこで本研究では,文脈中の単語を手がかりとして,先行研究よりも細かい粒度で各単語に複数の分散表現を割り当てる$2$つの手法を提案する.$1$つ目の手法は,文脈中の代表的な$1$単語を考慮して語義の分散表現を生成する手法である.この手法では語義を区別する手がかりとして,各単語と依存関係にある単語を用いる.$2$つ目の手法は,文脈中の全ての単語を考慮して語義の分散表現を生成する手法である.この手法では双方向LSTM(LongShort-TermMemory)を用いて文中に出現する全ての単語を同時に考慮する.どちらの手法も教師なし学習に基づいており,訓練データが不要という利点がある.提案手法の有効性を評価するため,多義性を考慮する分散表現が特に重要な,文脈中での単語間の意味的類似度推定タスク\cite{huang-12}および語彙的換言タスク\cite{mccarthy-07,kremer-14,ashihara-19a}において実験を行った.評価の結果,提案手法は先行研究\cite{neelakantan-14,paetzold-16d,fadaee-17}よりも高い性能を発揮し,より細かい粒度で分散表現を生成することが応用タスクでの性能向上に繋がることが示された.また,詳細な分析の結果,文脈中の代表的な$1$単語を考慮して語義の分散表現を生成する手法は文長に影響を受けにくいため,文が長い場合に,文脈中の全ての単語を考慮して語義の分散表現を生成する手法よりも高い性能を示すことが確認できた.
V21N01-03
\label{sec:introduction}電子化されたテキストが利用可能になるとともに,階層的文書分類の自動化が試みられてきた.階層的分類の対象となる文書集合の例としては,特許\footnote{http://www.wipo.int/classifications/en/},医療オントロジー\footnote{http://www.nlm.nih.gov/mesh/},Yahoo!やOpenDirectoryProject\footnote{http://www.dmoz.org/}のようなウェブディレクトリが挙げられる.文書に付与すべきラベルは,タスクによって,各文書に1個とする場合と,複数とする場合があるが,本稿では複数ラベル分類に取り組む.階層的分類における興味の中心は,あらかじめ定義されたラベル階層をどのように自動分類に利用するかである.そもそも,大量のデータを階層的に組織化するという営みは,科学以前から人類が広く行なってきた.例えば,伝統社会における生物の分類もその一例である.そこでは分類の数に上限があることが知られており,その制限は人間の記憶容量に起因する可能性が指摘されている\cite{Berlin1992}.階層が人間の制約の産物だとすると,そのような制約を持たない計算機にとって,階層は不要ではないかと思われるかもしれない.階層的分類におけるラベル階層の利用という観点から既存手法を整理すると,まず,非階層型と階層型に分けられる.非階層型はラベル階層を利用しない手法であり,各ラベル候補について,入力文書が所属するか否かを独立に分類する.ラベル階層を利用する階層型は,さらに2種類に分類できる.一つはラベル階層を候補の枝刈りに用いる手法(枝刈り型)である.典型的には,階層を上から下にたどりながら局所的な分類を繰り返す\cite{Montejo2006,Qiu2009full,Wang2011IJCNLPfull}.枝刈りにより分類の実行速度をあげることができるため,ラベル階層が巨大な場合に有効である.しかし,局所的な分類を繰り返すことで誤り伝播が起きるため,精度が低下しがちという欠点が知られている\cite{Bennett2009}.もう一つの手法はパラメータ共有型である.この手法では,ラベル階層上で近いラベル同士は似通っているので,それらを独立に分類するのではなく,分類器のパラメータをラベル階層に応じて部分的に共有させる\cite{Qiu2009full}.これにより分類精度の向上を期待する.これらの既存手法は,いずれも複数ラベル分類というタスクの特徴を活かしていない.複数ラベル分類では,最適な候補を1個採用すればよい単一ラベル分類と異なり,ラベルをいくつ採用するかの加減が人間作業者にとっても難しい.我々は,人間作業者が出力ラベル数を加減する際,ラベル階層を参照しているのではないかと推測する.例えば,科学技術文献を分類する際,ある入力文書が林業における環境問題を扱っていたとする.この文書に対して,「林業政策」と「林業一般」という2個のラベルは,それぞれ単独でみると,いずれもふさわしそうである.しかし,両者を採用するのは内容的に冗長であり,よりふさわしい「林業政策」だけを採用するといった判断を人間作業者はしているかもしれない.一方,別のラベル「環境問題」は「林業政策」と内容的に競合せず,両方を採用するのが適切を判断できる.この2つの異なる判断は,ラベル階層に対応している.「林業政策」と「林業一般」は最下位層において兄弟関係にある一方,「林業政策」と「環境問題」はそれぞれ「農林水産」と「環境工学」という異なる大分類に属している.このように,我々は,出力すべき複数ラベルの間にはラベル階層に基づく依存関係があると仮定する.そして,計算機に人間作業者の癖を模倣させることによって,(それが真に良い分類であるかは別として)人間作業者の分類を正解としたときの精度が向上することを期待する.本稿では,このような期待に基づき,ラベル間依存を利用する具体的な手法を提案する.まずは階層型複数ラベル文書分類を構造推定問題として定式化し,複数のラベルを同時に出力する大域モデルと,動的計画法による厳密解の探索手法を提案する.次に,ラベル間依存を表現する枝分かれ特徴量を導入する.この特徴量は動的計画法による探索が維持できるように設計されている.実験では,ラベル間依存の特徴量の導入により,精度の向上とともに,モデルの大きさの削減が確認された.本稿では,\ref{sec:task}節で問題を定義したうえで,\ref{sec:proposed}節で提案手法を説明する.\ref{sec:experiments}節で実験結果を報告する.\ref{sec:related-work}節で関連研究に言及し,\ref{sec:conclusion}節でまとめと今後の課題を述べる.
V09N05-07
インターネットの普及により,電子化されたテキストの入手が容易になってきた.それらのテキストをより効率的かつ効果的に利用するために,多くの言語処理技術が研究,提案されてきている.それに伴い,言語処理の研究分野は注目を浴び,言語処理学会でも年々会員が増加し,事務作業が増加する傾向にある.このような増加傾向から考えると,今の言語処理学会の状況では,事務処理の負担が処理能力を越えてしまい,その結果,事務作業が滞ることが予想される.もし,事務作業が滞れば,学会の活気や人気に水をさすことになってしまう可能性があり,その結果,学会の将来に悪影響を与えると考えられる.そのため,事務処理の効率化は必須である.学会の差別化,効率化を図るため,電子化された投稿論文の査読者への割り当てを行なう際に言語処理技術を利用した報告が出てきている.例えば,投稿論文を最適な査読者に割り当てることを試みたもの\cite{Susan1992,Yarowsky1999}などである.ただし,これらの論文は適切な査読者を決定することを目的としているだけであり,事務処理の効率化については論じられていない.そのような中で,2000年言語処理学会第\6回年次大会プログラムを作成する機会を得た.大会プログラム作成において作業効率向上に寄与する言語処理技術を明確にすることを目的として,いくつかの言語処理技術を用いて第\5回大会の講演参加申込データに対して,大会プログラム自動作成実験を行い,それらの技術の有効性を比較した.そして,その実験結果を基に第\6回年次大会プログラム原案を作成した.大会プログラムを作成するには,講演参加申込を適当なセッションに分割し,セッション名を決める作業が必要である.それには,講演参加申込の内容(タイトルとアブストラクト)をすべて確認してから作成作業をするのが一般的であるが,講演数が増加している現在,講演申込内容をすべて確認し,大会プログラムを手動で作成するのは大変な作業である.この作業を省力化するために,アブストラクトは読まずに,タイトルだけを利用し,大会プログラムを作成することも可能であると考えられるが,タイトルだけを利用した場合,たとえ講演参加申込に記述されている講演分野を利用したとしても適切なセッションに割り当てられない場合が存在すると考えられる.また,タイトルだけでは,適切なセッション名を決めることも困難である.我々はそのような作業を支援し,効率化する方法を本稿で提案する.我々の手法を利用すれば,大会の発表傾向にあったセッション名を決定できるだけでなく,適切なセッションに講演申込を割り振ることも可能となる.そのため,事務作業の負担を軽減することが可能となるだけでなく,講演者の興味にあうセッションを作成できる.以下,\ref{yaya}章でその一連の実験について報告する.\ref{gogo}章で第\6回年次大会プログラム作成の詳細について説明する.そして,\ref{haha}章で大会後に行なったアンケート調査の結果を報告し,\ref{mumu}章で今後の大会プログラム作成の自動化および事務処理の効率化に向けた考察を行なう.
V20N03-01
2011年3月11日14時46分に三陸沖を震源としたマグニチュード9.0の東北地方太平洋沖地震(東日本大震災)が発生した.震源域は岩手県沖から茨城県沖までの南北約500~km,東西約200~kmという広範囲に及び,東北地方を中心に約19,000人にのぼる死者・行方不明者が発生しただけでなく,地震・津波・原発事故等の複合的大規模災害が発生し,人々の生活に大きな影響が与えた.首都圏では最大震度5強の揺れに見舞われ,様々な交通障害が発生した.都区内では自動車交通の渋滞が激しく,大規模なグリッドロック現象が発生して道路ネットワークが麻痺したことが指摘されている.また,鉄道は一定規模以上の地震動に見舞われると線路や鉄道構造物の点検のため,運行を一時中止することになっており,そのため震災発生後は首都圏全体で鉄道網が麻痺し,鉄道利用者の多数が帰宅困難者となった.(首都直下型地震帰宅困難者等対策協議会2012)によると,これらの交通網の麻痺により当日中に帰宅できなかった人は,当時の外出者の30%にあたる約515万人と推計されている.国土交通省鉄道局による(大規模地震発生時における首都圏鉄道の運転再開のあり方に関する協議会2012)によると,震災当日から翌日にかけての鉄道の運行再開状況は鉄道事業者ごとに大きく異なった.JR東日本は安全確認の必要性から翌日まで運行中止を早々と宣言し,東京メトロと私鉄は安全点検を順次実施した後に安全確認が取れた路線から運転を再開するという方針を採用した.最も早く再開したのは20時40分に再開した東京メトロ半蔵門線(九段下・押上間),銀座線(浅草・渋谷間)である.また,西武鉄道,京王電鉄,小田急電鉄,東京急行電鉄,相模鉄道,東急メトロなどは終夜運行を実施した.運転再開後の新たな問題の例として,東京メトロ銀座線が渋谷駅ホーム混雑のため21:43〜22:50,23:57〜0:44に運転見合わせを,千代田線が北千住駅ホーム混雑のため0:12〜0:35まで運転見合わせを行っている.このように震災当日は鉄道運行再開の不確実性や鉄道事業者間での運行再開タイミングのずれによって多数の帰宅困難者が発生し,鉄道再開後も鉄道利用者の特定時間帯に対する過度の集中によって,運転見合わせが起こるなど,平常時に比べて帰宅所要時間が大きくなり,更なる帰宅困難者が発生したといえる.首都圏における帰宅困難者問題は予め想定された事態ではあったが,今回の東日本大震災に伴い発生したこの帰宅困難者問題は現実に起こった初めての事態であり,この実態を把握することは今後の災害対策のために非常に重要と考えられている.今回の帰宅困難者問題に対しても事後的にアンケート調査(たとえば(サーベイリサーチセンター2011)や(遊橋2012)など)が行われているものの,震災当日の外出者の帰宅意思決定がどのようになされたのかは未だ明らかにされていない.また,大きな混乱の中での帰宅行動であったため,振り返ることで意識が変化している問題や詳細な時刻・位置情報が不明であるといった問題が存在する.災害時の人々の実行動を調査する手法として上記のようなアンケートとは別に,人々が発するログデータを用いた災害時のデータ取得・解析の研究として,Bengtssonらの研究(Bengtssonetal.2011)やLuらの研究(Luetal.2012)がある.これらは2010年のハイチ地震における携帯電話のデータをもとに,人々の行動を推計するものであり,このようなリアルタイムの把握またはログデータの解析は災害時の現象把握に役立つ非常に重要な研究・分析対象となる.本研究では東日本大震災時における人々の行動ログデータとして,マイクロブログサイトであるTwitterのツイートを利用して分析を行う.Twitterのツイートデータは上記の携帯電話の位置情報ログデータやGPSの位置情報ログデータと異なり,必ずしも直接的に実行動が観測できるわけではないという特性がある.一方で,位置座標ログデータとは異なり,各時点における人々の思考や行動要因がそのツイートの中に含まれている可能性が存在する.そのため,本研究では東日本大震災時における首都圏の帰宅困難行動を対象に,その帰宅行動の把握と帰宅意思決定行動の影響要因を明らかにすることを目的とする.本稿の構成は以下の通りである.まず,2節では大規模テキストデータであるTwitterのツイートデータから行動データを作成する.ユーザーごとのツイートの特徴量を用いて,小規模な教師データから学習させた機械学習手法サポートベクターマシン(SupportVectorMachine;SVM)により,当日の帰宅行動結果を作成する.次に,3節では各ユーザーのジオタグ(ツイートに付与された緯度経度情報)から出発地・到着地間の距離や所要時間などの交通行動データを作成する.同時に,帰宅意思決定の影響要因をツイート内から抽出し,心理要因や制約条件を明らかにする.4節では2,3節で作成した行動データをもとに意思決定を表現する離散選択モデルの構築・推定を行い,各ユーザーの意思決定に影響を与えた要素を定量的に把握する.5節では仮想的な状況設定において感度分析シミュレーションを行い,災害時の望ましいオペレーションのあり方について考察を行う.
V06N05-02
コンピュータの自然言語理解機能は柔軟性を高めて向上しているが,字義通りでない文に対する理解機能については,人間と比較してまだ十分に備わっていない.例えば,慣用的でない比喩表現に出会ったとき,人間はそこに用いられている概念から連想されるイメージによって意味をとらえることができる.そこでは,いくつかの共通の属性が組み合わされて比喩表現の意味が成り立っていると考えられる.したがって,属性が見立ての対象となる比喩の理解をコンピュータによって実現するためには,属性を表す多数の状態概念の中から,与えられた二つの名詞概念に共通の顕著な属性を自動的に発見する技術が重要な要素になると考えられる.本論文では,任意に与えられた二つの名詞概念で「TはVだ」と比喩的に表現するときの共通の顕著な属性を自動的に発見する手法について述べる.ここで比喩文「TはVだ」において,T(Topic)を被喩辞,V(Vehicle)を喩辞と呼ぶ.本論文で扱う比喩はこの形の隠喩である.具体的には,連想実験に基づいて構成される属性の束を用いてSD法(SemanticDifferentialMethod)の実験を行い,その結果を入力データとして用いるニューラルネットワークの計算モデルによって行う.以下では,2章で比喩理解に関する最近の研究について述べる.次に,3章で比喩の特徴発見の準備として認知心理実験について述べ,4章で比喩の特徴発見手法について説明する.そして5章で,4章で説明した手法による具体例な実行例を示し,その考察を行う.最後に6章でまとめと今後の課題について述べる.
V20N03-03
\label{Introduction}2011年3月11日に起こった東日本大震災では,テレビ,ラジオなどの既存メディアが伝えきれなかった局所的な情報を,Twitterなどの個人が情報発信できるソーシャルメディアが補完する可能性を改めて知ることとなった.一方で,Twitter等で発信された大量の情報を効率的に把握する手段がなかったために,被災地からの切実な要望や貴重な情報が,政府,地方自治体,NPOなどの救援団体に必ずしも届かず,救援活動や復興支援が最大限の効率で進展しなかったという可能性も高い.我々が震災時のTwitterへの書き込み(tweet)を調査したところ,少なくとも救援者が何らかの対応をしたことを示すtweetが存在しない要請tweetも非常に多く存在した.さらには大量に飛び交うデマを含む情報に振り回された人も多く出た.こうした状況に対応するため,自然言語処理を用いてTwitter上の安否情報を整理することを目指した「ANPI\_NLP」の取り組みが行われたが,開発の速度や多数のボランティアを組織化するには課題があったことが報告されている\cite{Neubig2011}.実際に災害が発生してから,新たにTwitter等のソーシャルメディアに自然言語処理を適用し,情報を整理する技術を開発するのは非常に困難であろう.我々は,将来起きる災害に備えて,事前にそうした技術を開発しておくことが極めて重要であると考えている.また,我々が被災地で行ったヒアリングでは,現地からの要望とその支援とのミスマッチも明らかになっている.例えば,テレビや新聞などのマスメディアで伝えられた「被災地で防寒着が不足している」という情報に呼応して,多くの善意の人から防寒着の上着が大量に現地に送られたが,津波被害にあい泥水の中で復旧作業をする必要のあった人々がより切実に求めていたのは,防寒のズボンであった.別の例では,全国から支援物資として届けられた多くの衣類はどれも通常サイズのものばかりで,4Lサイズなどの大きな衣類が必要な人が一月以上も被災時の衣類を着続ける必要があった.これらは,大規模災害発生時に生じる被災者の要望の広範さや事前にそうした要望を予測しておくことの困難を示す事例と言えよう.さらに,本論文で提案するシステムで実際にtweetを分析したところ,被災地で不足しているものとして,「透析用器具」「向精神薬」「手話通訳」など平時ではなかなか予想が困難な物資が実際に不足している物品としてtweetされていることも判明している.こうしたいわば想定外の要望を拾い上げることができなれば,再度要望と支援のミスマッチを招くこととなる.以上が示唆することは,次回の大規模災害に備えて,ソーシャルメディア上の大量の情報を整理し,上述した想定外の要望も含めて,必要な情報を必要な人に把握が容易なフォーマットで届ける技術の開発を災害発生以前に行っておくことの重要性である.また,我々が備えるべき次の災害が,今回の震災と類似している保証はない.以上のような点に鑑みて,我々は想定外の質問も含め,多様な質問に対して,ソーシャルメディア上に書き込まれた膨大な情報から抽出された回答のリストを提示し,状況の俯瞰的把握を助けることができる質問応答システムが,災害時に有効であると考えている.ここで言う俯瞰的把握とは,災害時に発生する様々な事象に関して,それらを地理的,時間的,意味的観点から分類した上でそれらの全体像を把握することを言う.別の言い方をすれば,その事象がどのような地理的,時間的位置において発生しているのか,あるいはそもそもその事象がどのような事象であるのか,つまりどのような意味を持つ事象であるのか,等々の観点でそれら事象を分類し,また,それらを可能な限り網羅的,全体的に眺めわたし,把握するということである.このような俯瞰的把握によって,救援者サイドは,例えば,重大な被害が生じているにもかかわらず,炊き出し,救援物資の送付等が行われていないように見える地点を割り出し,なんらかの齟齬の確認や,救援チームの優先的割当を行うことが可能になる.あるいは各地において不足している物資を,例えば医薬品,衣類,食料といった観点で整理して,救援物資のロジスティクスを最適化するなどの処置も可能になる.さらに,こうした俯瞰的把握によって,上で述べたような想定外の事象の発見も可能になり,また,それらへの対処も容易になろう.逆に言えば,誰かがこうした俯瞰的把握をしていない限り,各種の救援活動は泥縄にならざるを得ず,また,想定外の事象に対してはシステマティックな対応をすることも困難となる.また,被災者自身も現在自分がいる地点の周辺で何がおきているか,あるいは周辺にどのようなリソースが存在し,また,存在しないかを全体として把握することにより,現地点にとどまるべきか,それとも思い切って遠くまで避難するかの判断が容易になる.避難に至るほど深刻な状況でなかったとしても,周辺地域での物資,サービスの提供の様子を全体として把握することで,物資,サービスを求めて短期的な探索を行うか否かの決断も容易になろう.我々の最終的な目標は,多様な質問に回答できるような質問応答システムを開発することによって,災害時に発生するtweet等のテキストデータが人手での処理が不可能な量となっても,そこに現れる多様で大量の事象を意味的観点から分類,抽出可能にし,さらに回答の地図上への表示や,回答に時間的な制約をかけることのできるインターフェースも合わせて提供することにより,以上のような俯瞰的把握を容易にすることである.本論文では,以上のような考察に基づき,質問応答を利用して,災害時に個人から発信される大量の情報,特に救援者や被災者が欲している情報をtweetから取得し,それらの人々の状況の俯瞰的把握を助ける対災害情報分析システムを提案する.将来的には本システムを一般公開し,被災地の状況や救援状況を俯瞰的に把握し,被災地からの想定外の要望をも取得し,効率的な救援活動につなげることを目指す.本論文では提案したシステムを実際に東日本大震災時に発信されたtweetに適用した評価実験の結果を示すが,この評価においては以上のような被災状況の俯瞰的把握を助ける能力を評価するため,質問応答の再現率に重点をおいた評価を行う.逆に言えば,いたずらに回答の上位の適合率を追うことはせず,再現率の比較的高いところでの評価に集中する.また,本システムを拡張することで,被災者と救援者の間でより適切な双方向のコミュニケーションが実現可能であることも示す.こうした双方向のコミュニケーションはより適切かつ効率的な救援活動のために極めて重要であると考えている.本論文で提案するようなシステムは非常に多くのモジュールからなり,その新規性を簡潔にまとめることは難しいが,本論文においては以下の手法・技術に関して我々のタスクにおける評価,検証を行った.特にCについては,新規な技術であると考えている.\begin{description}\item[A]固有表現認識(NER)の有効性\item[B]教師有り学習を用いた回答のランキング\item[C]含意関係認識における活性・不活性極性\cite{Hashimoto2012}の有用性\end{description}ここで,A,Bに関しては本論文における実験の目標ならびに設定では有効性は認められず,最終的なシステムではこれらの技術を採用しなかった.これらに関して現時点での我々の結論は以下の通りである.NERはそれ単体では,我々のタスクでは有効ではなく,その後の処理やそこで用いられる辞書等との整合性がとれて初めて有効になる可能性がある.また,回答のランキングは,我々の目標,つまり,少数の回答だけではなく,想定外も含めた回答を可能な限り網羅的に高精度で抽出することには少なくとも現状利用可能な量の学習データ,素性等では有効ではなかった.一方で,含意関係認識において活性・不活性極性を利用した場合,再現率が50%程度のレベルにおいて,適合率が7%程度上昇し,顕著な性能向上が見られたことから,提案手法にこれを含めている.本論文の構成は以下の通りである.まず,\ref{Disaster}節において本論文で提案する対災害情報分析システムの構成とその中で使われている質問応答技術について述べる.\ref{Experiments}節では,人手で作成した質問応答の正解データを用いたシステムの評価について報告する.\ref{Prospects}節にて上述した双方向のコミュニケーションの実現も含めて今後の本研究の展望を示す.さらに\ref{Related_work}節にて関連研究をまとめ,最後に\ref{Conclusion}節にて本論文の結論を述べる.
V20N05-03
\label{sec:hajimeni}インターネットの普及により,個人がWeb上で様々な商品を購入したり,サービスの提供を受けることが可能になった.また,これに伴い,商品やサービスに対する意見や感想が,大量にWeb上に蓄積されるようになった.これらの意見や感想は,ユーザが商品やサービスを購入する際の参考にするだけでなく,企業にとっても商品やサービスの改善を検討したり,マーケティング活動に活用するなど,利用価値の高い情報源として広く認識されている.近年ではさらに,ユーザ参加型の商品開発が注目されるなど,ユーザと企業とがマイクロブログやレビューサイト等のソーシャルメディアを通して,手軽に相互にコミュニケーションを持つことも可能となっている.そして,このようなコミュニケーションの場においては,いわゆる「クレーム」と呼ばれる類のユーザの意見に対して企業側は特に敏感になる必要があり,ユーザが発言したクレームに対しては,適切に対応することが望まれている.しかしながら,このようなコミュニケーションの場では,次のような理由からユーザのクレームを見落としてしまう懸念がある.\begin{figure}[b]\input{03fig01.txt}\caption{クレームが含まれたレビューの例1}\label{fig:review}\end{figure}\begin{figure}[b]\input{03fig02.txt}\caption{クレームが含まれたレビューの例2}\label{fig:review2}\end{figure}\begin{itemize}\item見落とし例1:特に,マイクロブログ型サービスを通したコミュニケーションでは,多対一型のコミュニケーション,つまり,大勢のユーザに対して少数の企業内担当者が同時並行的にコミュニケーションを持つことが多く,そのため,一部のユーザが発言したクレームを見落としてしまう可能性がある.\item見落とし例2:特に,レビューサイトを通したコミュニケーションでは,ユーザは様々な意見をひとつのレビュー文書中に書き込むことが多く,その中に部分的にクレームが埋め込まれることがある(\fig{review}および\fig{review2}に例を示す.下線部がクレームを示す).この場合,レビューの中からクレームを見つける必要があるが,これらの一部を見落としてしまう可能性がある.\end{itemize}本論文では,上記のうち,2つ目の見落とし問題に対処すべく,レビューからクレームを自動検出する手法について述べる.より具体的には,まず,文単位の処理を考え,\tab{data_detail}のような内容を含む文を「クレーム文」と定義する.そして,レビューが入力された際に,そのレビュー中の各文のそれぞれに対して,それらがクレーム文かそうでないかを自動判定する手法について検討する.\begin{table}[b]\caption{クレーム文の定義}\label{tab:data_detail}\input{03table01.txt}\end{table}これまで,テキストからクレームを検出することを目的とした先行研究としては,永井らの研究\cite{nagai1,nagai2}がある.永井らは,単語の出現パタンを考慮した検出規則に基づいたクレーム検出手法を提案している.しかしながら,彼らの手法のように人手で網羅的に検出規則を作成するには,作成者がクレームの記述のされ方に関する幅広い言語的知識を有している必要がある.また,現実的に検出規則によって運用するには,膨大な量の規則を人手で作成・維持・管理する必要があり,人的負荷が高いという問題がある.この問題に対する解決策のひとつとして,教師あり学習によって規則を自動学習することが考えられるが,その場合でも,事前に教師データを準備する必要があり,単純には,教師データの作成に労力を要するという別な問題が発生してしまう.本論文では,上記のような背景を踏まえて,人的な負荷をなるべく抑えたクレーム検出手法を提案する.より具体的には,レビュー文書からクレーム文を自動検出する際の基本的な設定として,テキスト分類において標準的に利用されるナイーブベイズ・モデルを適用することを考え,この設定に対して,極力人手の負荷を軽減させるために,次の手続きおよび拡張手法を提案する.\begin{itemize}\item評価表現および文脈一貫性に基づく教師データ自動生成手法を提案する.従来,学習用の教師データを作成するには負荷の高い人手作業に頼らざるを得なかったが,本研究では既存の言語資源と既存の知見に基づくことで,人手作業に頼らずに教師データを自動生成する手法を提案する.\item次に,上記で生成された教師データに適したモデルとなるように拡張されたナイーブベイズ・モデルを提案する.上記の提案手法によって生成された教師データは自動化の代償として人手作成されたデータと比べて質が劣化せざるを得ず,標準的な分類モデルをそのまま適用するだけでは期待した精度は得られない.本研究では上記のデータ生成手法で生成されるデータが持つ特性を踏まえて,ナイーブベイズ・モデルを拡張する.\end{itemize}提案手法では,従来手法で問題となっていた検出規則の作成・維持・管理,あるいは,規則を自動学習するために必要となる教師データの作成にかかる人手負荷は全くかからない利点をもつ.本論文では,上記の手続きおよび拡張手法について,実データを用いた評価実験を通して,その有効性を検証する.本論文の構成は以下の通りである.まず\sec{gen}で教師データの自動生成手法について説明する.その後,\sec{model}でナイーブベイズ・モデルの拡張について説明し,\sec{exp}で評価実験について述べる.\sec{related}で関連研究を整理した後,\sec{owarini}で本論文をまとめる.
V25N05-05
\label{sec:introduction}ニューラル機械翻訳(NMT)\cite{NIPS2014_5346,Bahdanau-EtAl:2015:ICLR}は流暢な訳を出力できるが,入力文の内容を全て含んでいることを保証できないという問題があり,翻訳結果において入力文の内容の一部が欠落(訳抜け)することがある.欠落は単語レベルの内容だけでなく,節レベルの場合もある.NMTによる訳抜けを含む日英翻訳の翻訳例を図\ref{fig:example}に示す.この翻訳例では網掛け部の訳が出力されていない.内容の欠落は,実際の利用時に大きな問題となる.この他にNMTでは,入力文中の同じ内容を繰り返し訳出してしまうことがあるという問題もある.本稿は,これらの問題のうち訳抜けを対象として扱う.\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f1.eps}\end{center}\hangcaption{訳抜けを含むNMTによる日英翻訳結果の例.入力の網掛け部の訳が機械翻訳出力に含まれていない.参照訳の網掛け部は入力の網掛け部に対応する部分を表している.}\label{fig:example}\end{figure}従来の統計的機械翻訳(SMT)\cite{koehn-EtAl:2003:NAACLHLT,chiang:2007:CL}は,デコード中にカバレッジベクトルを使って入力文のどの部分が翻訳済でどの部分が未翻訳であるかを単語レベルで明示的に区別し,未翻訳の部分がなくなるまで各部分を一度だけ翻訳するため,訳抜けの問題および訳出の繰り返しの問題はほとんど\footnote{フレーズテーブルを構築するために対訳コーパスから抽出した部分的な対訳表現が完全であれば,翻訳時に訳抜けは発生しない.しかし,対訳文内の単語対応の推定誤りや対訳文での省略などにより,抽出した部分的な対訳表現には完全でないものも含まれるため,訳抜けが発生する場合もある.}起きない.しかし,NMTでは対訳間での対応関係は,アテンションによる確率的な関係でしか得られないため,翻訳済の原言語単語と未翻訳の原言語単語を明示的に区別することができない.このため,SMTでのカバレッジベクトルによって訳抜けを防ぐ方法をそのまま適用することは出来ない.入力文中の各単語位置に応じた動的な状態ベクトルを導入して,この状態ベクトルをソフトなカバレッジベクトル(カバレッジモデル)と見なす手法がある\cite{tu-EtAl:2016:P16-1,mi-EtAl:2016:EMNLP2016}.カバレッジモデルを用いる手法は,訳抜けの問題を軽減できる可能性がある.しかし,未翻訳部分が残っているかどうかを明示的に検出して翻訳の終了を決定しているわけではない.そのため,カバレッジモデルを用いても訳抜けが発生する問題は残る.本論文\footnote{本研究の一部は,言語処理学会第23回年次大会およびTheFirstWorkshoponNeuralMachineTranslationで発表したものである\cite{goto-tanaka:2017:NLP,goto-tanaka:2017:NMT}.}では,2種類の確率に基づく値に対して,訳出されていない入力文の内容に対する検出効果を調べる.検出方法の1つはアテンション(ATN)の累積確率を用いる方法である(\ref{sec:atn}節).もう1つは,機械翻訳(MT)出力から入力文を生成する逆翻訳(BT)の確率を用いる方法である(\ref{sec:bt}節).後者は,言語間の単語の対応関係の特定を必ずしも必要とせずに,MT出力に入力文の内容が含まれているかどうかを推定できるという特徴がある.また,2種類の確率に基づく値を訳抜けの検出に使う場合に,それぞれ値をそのまま使う方法と確率の比を用いる方法の2つを比較する.さらに,これらの確率をNMTのリランキングに応用した場合(\ref{sec:reranking}節)および機械翻訳結果の人手修正(ポストエディット)のための文選択に応用した場合(\ref{sec:sentence_selection}節)の効果も調べる.これらの効果の検証のために日英特許翻訳のデータを用いた評価実験を行い(\ref{sec:experiment}節),アテンションの累積確率と逆翻訳の確率はいずれも訳抜け部分として無作為に単語を選択する場合に比べて効果があることを確認した.そして,逆翻訳の確率はアテンションの累積確率より効果が高く,これらを同時に用いるとさらに検出精度が向上した.また,アテンションの累積確率または逆翻訳の確率をNMTの$n$-best出力のリランキングに用いた場合の効果がプレプリント\cite{DBLP:journals/corr/WuSCLNMKCGMKSJL16,DBLP:journals/corr/LiJ16}で報告されているが\footnote{これらの研究との関係は詳しくは\ref{sec:reranking_results}節および\ref{sec:related_work}節で述べる.},これらと独立した本研究でも同様の有効性を確認した.さらに,訳抜けの検出をポストエディットのための文選択に応用した場合に効果があることが分かった.
V20N04-01
近年,新聞やWeb上のブログだけではなく,ツイートや音声対話ログなど様々な分野のテキスト情報を利用することが可能である.これらの多様なテキストから欲しい情報を抽出する検索技術や,有益な情報のみを自動で抽出・分析するテキストマイニング技術では,表現の違いに頑健な意味を軸にした情報抽出が求められている.たとえば,お客様の声を分析するコールセンタマイニング(e.g.,那須川2001)では,下記のa,bの表現を,「同義である」と正しく認識・集計する必要がある.\eenumsentence{\itemメモリを\underline{消費している}\itemメモリを\underline{食っている}}\eenumsentence{\itemキーボードが\underline{壊れた}\itemキーボードが\underline{故障した}}検索においても,「キーボード壊れた」で検索した際に,「キーボード故障した」が含まれているテキストも表示されれば,よりユーザの意図を理解した検索が行えると考えられる.テキストマイニングのようなユーザの声の抽出・分析において重要となるのは,「消費している」,「壊れた」などといった述部である.述部は,文情報の核を表しており,商品の評判(e.g.,満足している)や苦情(e.g.,壊れた,使いにくい),ユーザの経験(e.g.,堪能した)や要望(e.g.,直してほしい)などを表す.しかし,あらゆる分野,文体のテキストを対象とした場合,述部の多様性が顕著になる.たとえば,「正常な動作が損なわれる」という出来事を表現する場合,新聞などフォーマルな文書では「故障する」と表現されることが多いが,ブログなどインフォーマルな文書では「壊れる」と表現されることが多い\footnote{2007年の毎日新聞では,「故障する」と「壊れる」の出現頻度の比が「1:2.5」である.一方,2007年4月のブログでは「故障する」と「壊れる」の出現頻度の比が「1:42」であり,「壊れる」と「故障する」は意味が完全に1対1対応するわけではないものの,出現頻度の比がテキストによって大きく異なる.}.テキストの種類により同じ出来事でも異なる文字列で表現されるため,異なる分野のテキストを統合した情報抽出や,テキストマイニングを行う場合は,述部の同義性を計算機で正しく認識して分析しなくてはいけない.述部の同義性を計算機で識別することができれば,テキストマイニングなどにおいて,同義表現を正しくまとめ上げ,高精度に集計・分析を行うことが可能となる.また,検索技術においては,表現が異なるが同じことを表しているテキストを拾い上げることができ,再現率の向上が期待できる.本稿では,日本語の述部に焦点を置き,異なる2つの述部が同義か否かを判別する述部の同義判定手法を提案する.既存の手法では,単一のリソースにのみ依存しているために,まとめ上げられる述部の数が少ないという再現率の問題や,異なる意味のものまで誤ってまとめ上げてしまうという精度の問題がある.そこで本稿では,述部の言語的構造を分析し,同義述部の認識という観点で必要な「述部の語義(辞書定義文)」,「抽象的な意味属性(用言属性)」,「文脈(分布類似度)」,「時制・否定・モダリティ(機能表現)」といった言語情報を複数の言語リソースから抽出することで,精度と再現率の双方のバランスをとった述部のまとめ上げを行う.なお,本稿では「消費/し/て/いる」などの「内容語+機能表現」を述部と定義し,「メモリを‐消費している」と言った「項‐述部」を単位として述部の同義判定を行う.本稿の構成は次のとおりである.2節では,関連研究とその問題点について論じる.3節では,述部の言語構造について論じる.4節では,本稿の提案手法である複数の言語的特徴を用いた同義判定について述べる.5節では,同義述部コーパスについて述べる.6節,7節では述部の同義判定実験とその考察を行う.8節は結論である.
V23N05-05
\label{sec:intro}\subsection{研究背景}\label{sec:background}言語は,人間にとって主要なコミュニケーションの道具であると同時に,話者集団にとっては社会的背景に根付いたアイデンティティーでもある.母国語の異なる相手と意思疎通を取るためには,翻訳は必要不可欠な技術であるが,専門の知識が必要となるため,ソフトウェア的に代行できる機械翻訳の技術に期待が高まっている.英語と任意の言語間での翻訳で機械翻訳の実用化を目指す例が多いが,英語を含まない言語対においては翻訳精度がまだ実用的なレベルに達していないことが多く,英語を熟知していない利用者にとって様々な言語間で機械翻訳を支障なく利用できる状況とは言えない.人手で翻訳規則を記述するルールベース機械翻訳(Rule-BasedMachineTranslation;RBMT\cite{nirenburg89})では,対象の2言語に精通した専門家の知識が必要であり,多くの言語対において,多彩な表現を広くカバーすることも困難である.そのため,近年主流の機械翻訳方式であり,機械学習技術を用いて対訳コーパスから自動的に翻訳規則を獲得する統計的機械翻訳(StatisticalMachineTranslation;SMT\cite{brown93})について本論文では議論を行う.対訳コーパスとは,2言語間で意味の対応する文や句を集めたデータのことを指すが,SMTでは学習に使用する対訳コーパスが大規模になるほど,翻訳結果の精度が向上すると報告されている\cite{dyer08}.しかし,英語を含まない言語対などを考慮すれば,多くの言語対において,大規模な対訳コーパスを直ちに取得することは困難と言える.このような,容易に対訳コーパスを取得できないような言語対においても,既存の言語資源を有効に用いて高精度な機械翻訳を実現できれば,機械翻訳の実用の幅が大きく広がることになる.特定の言語対で十分な文量の対訳コーパスが得られない場合,中間言語(\textit{Pvt})を用いたピボット翻訳が有効な手法の一つである\cite{gispert06,cohn07,zhu14}.中間言語を用いる方法も様々であるが,一方の目的言語と他方の原言語が一致するような2つの機械翻訳システムを利用できる場合,それらをパイプライン処理する逐次的ピボット翻訳(CascadeTranslation\cite{gispert06})手法が容易に実現可能である.より高度なピボット翻訳の手法としては,原言語・中間言語(\textit{Src-Pvt})と中間言語・目的言語(\textit{Pvt-Trg})の2組の言語対のためにそれぞれ学習されたSMTシステムのモデルを合成し,新しく得られた原言語・目的言語(\textit{Src-Trg})のSMTシステムを用いて翻訳を行うテーブル合成手法(Triangulation\cite{cohn07})も提案されており,この手法で特に高い翻訳精度が得られたと報告されている\cite{utiyama07}.これらの手法は特に,今日広く用いられているSMTの枠組の一つであるフレーズベース機械翻訳(Phrase-BasedMachineTranslation;PBMT\cite{koehn03})について数多く提案され,検証されてきた.しかし,PBMTにおいて有効性が検証されたピボット翻訳手法が,異なるSMTの枠組でも同様に有効であるかどうかは明らかにされていない.例えば英語と日本語,英語と中国語といった語順の大きく異なる言語間の翻訳では,同期文脈自由文法(SynchronousContext-FreeGrammar;SCFG\cite{chiang07})のような木構造ベースのSMTによって高度な単語並び替えに対応可能であり,PBMTよりも高い翻訳精度を達成できると報告されている.そのため,PBMTにおいて有効性の知られているピボット翻訳手法が,SCFGによる翻訳でも有効であるとすれば,並び替えの問題に高度に対応しつつ直接\textit{Src-Trg}の対訳コーパスを得られない状況にも対処可能となる.\begin{figure}[t]\begin{center}\includegraphics{23-5ia5f1.eps}\end{center}\caption{2組の単語対応から新しい単語対応を推定}\label{fig:align-estimation}\end{figure}また,テーブル合成手法では,\textit{Src-Pvt}フレーズ対応と\textit{Pvt-Trg}フレーズ対応から,正しい\textit{Src-Trg}フレーズ対応と確率スコアを推定する必要がある.図\ref{fig:align-estimation}に示す例では,個別に学習された(a)の日英翻訳および(b)の英伊翻訳における単語対応から,日伊翻訳における単語対応を推定したい場合,(c)のように単語対応を推定する候補は非常に多く,(d)のように正しい推定結果を得ることは困難である.その上,図\ref{fig:align-estimation}(c)のように推定された\textit{Src-Trg}の単語対応からは,原言語と目的言語の橋渡しをしていた中間言語の単語情報が分からないため,翻訳を行う上で重要な手がかりとなり得る情報を失ってしまうことになる.このように語義曖昧性や言語間の用語法の差異により,ピボット翻訳は通常の翻訳よりも本質的に多くの曖昧性の問題を抱えており,さらなる翻訳精度の向上には課題がある.\subsection{研究目的}\label{sec:purpose}本研究では,多言語機械翻訳,とりわけ対訳コーパスの取得が困難である少資源言語対における機械翻訳の高精度化を目指し,従来のピボット翻訳手法を調査,問題点を改善して翻訳精度を向上させることを目的とする.ピボット翻訳の精度向上に向けて,本論文では2段階の議論を行う.第1段階目では,従来のPBMTで有効性の知られているピボット翻訳手法が異なる枠組のSMTでも有効であるかどうかを調査する.\ref{sec:background}節で述べたように,PBMTによるピボット翻訳手法においては,テーブル合成手法で高い翻訳精度が確認されているため,木構造ベースのSMTであるSCFGによる翻訳で同等の処理を行うための応用手法を提案する.SCFGとテーブル合成手法によるピボット翻訳が,逐次的ピボット翻訳や,PBMTにおけるピボット翻訳手法よりも高い精度を得られるどうかを比較評価することで,次の段階への予備実験とする\footnote{\label{fn:papers}本稿の内容の一部は,情報処理学会自然言語処理研究会\cite{miura14nl12,miura15nl07}およびACL2015:The53rdAnnualMeetingoftheAssociationforComputationalLinguistics\cite{miura15acl}で報告されている.本稿では,各手法・実験に関する詳細な説明,中国語やアラビア語など語族の異なる言語間での比較評価実験や品詞毎の翻訳精度に関する分析を追加している.}.第2段階目では,テーブル合成手法において発生する曖昧性の問題を解消し,翻訳精度を向上させるための新たな手法を提案する.従来のテーブル合成手法では,図\ref{fig:align-estimation}(c)に示したように,フレーズ対応の推定後には中間言語フレーズの情報が失われてしまうことを\ref{sec:background}節で述べた.この問題を克服するため,本論文では原言語と目的言語を結び付けていた中間言語フレーズの情報も翻訳モデル中に保存し,原言語から目的言語と中間言語へ同時に翻訳を行うための確率スコアを推定することによって翻訳を行う新しいテーブル合成手法を提案する.通常のSMTシステムでは,入力された原言語文から,目的言語における訳出候補を選出する際,文の自然性を評価し,適切な語彙選択を促すために目的言語の言語モデル(目的言語モデル)を利用する.一方,本手法で提案する翻訳モデルとSMTシステムでは,原言語文に対して目的言語文と中間言語文の翻訳を同時に行うため,目的言語モデルのみではなく,中間言語の言語モデル(中間言語モデル)も同時に考慮して訳出候補の探索を行う.本手法の利点は,英語のように中間言語として選ばれる言語は豊富な単言語資源を得られる傾向が強いため,このような追加の言語情報を翻訳システムに組み込み,精度向上に役立てられることにある\footnoteref{fn:papers}.
V12N05-04
\label{sec:intro}機械翻訳システムなどで利用される対訳辞書に登録すべき表現を対訳コーパスから自動的に獲得する方法の処理対象は,固有表現と非固有表現に分けて考えることができる.固有表現と非固有表現を比べた場合,固有表現は,既存の辞書に登録されていないものが比較的多く,辞書未登録表現が機械翻訳システムなどの品質低下の大きな原因の一つになっていることなどを考慮すると,優先的に獲得すべき対象である.このようなことから,我々は,英日機械翻訳システムの対訳辞書に登録すべき英語固有表現とそれに対応する日本語表現との対を対訳コーパスから獲得する方法の研究を行なっている.固有表現とその対訳を獲得することを目的とした研究は,単一言語内での固有表現の認識を目的とした研究に比べるとあまり多くないが,文献\cite{Al-Onaizan02,Huang02,Huang03,Moore03}などに見られる.これらの従来研究では,抽出対象の英語固有表現は前置修飾句のみを伴う{\BPNP}に限定されており,前置詞句を伴う名詞句や等位構造を持つ名詞句についての議論は行なわれていない.しかし,実際には,``theU.N.InternationalConferenceonPopulationandDevelopment''のように前置詞句による後置修飾と等位構造の両方または一方を持つ固有表現も少なくない.そこで本稿では,前置詞句と等位構造の両方または一方を持つ英語の固有名詞句を抽出することを目指す.このような英語の固有名詞句には様々な複雑さを持つものがあるが,できるだけ長い固有名詞句を登録することにする.このような方針をとると副作用が生じる恐れもあるが,翻訳品質が向上することが多いというこれまでのシステム開発の経験に基づいて,最も長い名詞句を抽出対象とする.以下では,このような英語の固有名詞句を単に{\CPNP}と呼ぶ.{\CPNP}を処理対象にすると,前置修飾のみを伴う{\BPNP}を処理対象としていたときには生じなかった課題として,前置詞句の係り先や等位構造の範囲が誤っている英語固有表現を抽出しないようにすることが必要になる.例えば次の英文(E\ref{SENT:pp_ok0})に現れる``JapaneseEmbassyinMoscow''という表現は意味的に適格で一つの{\CPNP}であるが,英文(E\ref{SENT:pp_ng0})に現れる``theUnitedStatesintoWorldWarII''は意味的に不適格で一つの{\CPNP}ではない.\begin{SENT}\sentETheministryquicklyinstructedtheJapaneseEmbassyinMoscowto$\ldots$.\label{SENT:pp_ok0}\end{SENT}\begin{SENT}\sentETheattackonPearlHarborwasthetriggerthatdrewtheUnitedStatesintoWorldWarII.\label{SENT:pp_ng0}\end{SENT}従って,英文から抽出される表現の意味的適格性を判断し,適格な表現についてはその対訳と共に出力し,不適格な表現については何も出力しないようにする必要がある.本稿ではこのような課題に対する一つの解決策を示す.なお,本稿での意味的に不適格な表現とは,前置詞句の係り先や等位構造の範囲が誤っている表現を指す.{\CPNP}は句レベルの表現であるため,提案方法は一般の句アライメント手法\cite{Meyers96,Watanabe00,Menezes01,Imamura02,Aramaki03}の一種であると捉えることもできる.しかし,一般の句アライメント手法では構文解析により生成した構文木(二次元構造)の照合によって句レベルの表現とその対訳を獲得するのに対して,提案方法では文献\cite{Kitamura97}などの方法と同様に構文解析を行なわずに単語列(一次元構造)の照合によって{\CPNP}とその対訳を獲得する点で両者は異なる.すなわち,本稿の目的は,これまであまり扱われてこなかった,複雑な構造を持つ{\CPNP}とその対訳をコーパスから抽出するという課題において,構文解析系に代わる手段を導入することによってどの程度の性能が得られるかを検証することにある.
V28N01-06
近年深層学習を利用した対話システムが注目を集めており,大規模データを活用する対話研究が活発に行われている\cite{adiwardana2020humanlike,smith-etal-2020-put}.現在主流の対話システムは大規模データをもとにして入力発話に対して尤もらしい応答を出力するように学習を行う.しかし,同じ入力発話であっても相手の発話意図によって応答すべき内容は異なる.つまり,対話システムは話者の意図を理解・解釈した上でその解釈した結果に応じて発話を行うべきであると考えられる.本研究では話者の意図理解に向けて,対話中の話者内部状態を取り扱い,以下の2つの課題に取り組む.\begin{enumerate}\item話者内部状態のモデル化\item話者内部状態を踏まえた応答変更\end{enumerate}一般に現実の対話ではたとえ雑談であっても「対話を通して情報を伝達する」や「相手に何らかの影響を与える」などの一定の目的がある.そしてその一貫した目的のもと,複数ターンのやり取りの中で情報が授受されることが自然である.つまり,話者内部状態のモデル化の際には複数ターンのやり取りがあり,かつ対話の目的がその中で一貫している対話データが必要になる.ただ,人間同士の対話は互いの意図が交錯するため,内部状態の分析・モデル化の題材にするのは難しい.一方,近年の深層学習による対話システムと人間の対話は一問一答レベルでは適切な応答ができるものの,複数ターンの対話になると多くの課題が表出する上,その対話には一貫した目的が存在しない場合がほとんどである.そうした背景から本研究では,映画推薦をドメインとするルールベースの対話システムを構築し,対話システムと人間との目的の一貫した複数ターンの対話データの収集を行う.本研究の全体の流れを図\ref{fig:flowchart}に示す.収集した対話データの分析に基づいて,対話中の話者内部状態を以下の3つの軸でモデル化する.\begin{itemize}\item\textbf{知識}:話題に関する知識があるかどうか\item\textbf{興味}:話題への興味があるかどうか\item\textbf{対話意欲}:対話に対して積極的に参加しているかどうか\end{itemize}話者の知識や興味を理解することで適切な情報提供や話題変更を行える.また,対話意欲を考慮することで,例えばユーザの対話意欲が高い場合は聞き役に徹するようにするなど,対話システムが適切な振る舞いができるようになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-1ia5f1.pdf}\end{center}\caption{本研究の流れ}\label{fig:flowchart}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%モデル化した話者内部状態を収集した対話データにアノテートし,これを学習データとして話者内部状態の自動推定を行った.その結果,いずれの内部状態においても7値スケールで$\pm1$のずれを許した場合,約80〜85\%と高い推定精度を達成した.また,話者内部状態の自動推定結果に応じた対話システムの応答の変更にも取り組む.具体的には,知識,興味,対話意欲のそれぞれについてその有無に応じた応答変更のルールを追加で用意する.話者内部状態を自動で推定し,その推定結果に応じて応答変更を行った場合にシステム発話の自然さが向上することを,対話単位での評価と発話単位での評価の両方で確認した.本研究の貢献は以下の2点である.\begin{itemize}\item発話ごとにユーザ内部状態(知識,興味,対話意欲)を付与した1万発話規模のテキスト対話コーパスを構築した.\itemユーザ内部状態を自動推定し,その推定結果に応じてシステム発話を変更することの有効性を実証的に示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V16N03-03
\subsection{背景\label{haikei}}事物の数量的側面を表現するとき,「三人」,「5個」,「八つ」のように,「人」,「個」,「つ」という付属語を数詞の後に連接する.これらの語を一般に助数詞と呼ぶ.英語などでは``3students'',``5oranges''のように名詞に直接数詞が係って名詞の数が表現されるが,日本語では「3人の学生」,「みかん五個」のように数詞だけでなく助数詞も併せて用いなければならない.形態的には助数詞はすべて自律的な名詞である数詞に付属する接尾語とされる.しかし,助数詞の性質は多様であり,一律に扱ってしまうことは統語意味的見地からも計算機による処理においても問題がある.また構文中の出現位置や統語構造によって,連接する数詞との関係は異なる.つまり,数詞と助数詞の関係を正しく解析するためには1)助数詞が本来持つ語彙としての性質,そして2)構文中に現れる際の文法的な性質について考慮する必要がある.KNP~\cite{Kurohashi}やcabocha~\cite{cabocha}などを代表とする文節単位の係り受け解析では,上記のような数詞と助数詞の関係は同じ文節内に含まれるため,両者の関係は係り受け解析の対象にならない.ところが,単なる係り受け以上の解析,例えばLexicalFunctionalGrammar(以下,LFG)やHead-drivenPhraseStructureGrammar(以下,HPSG)のような句構造文法による解析では,主辞の文法的役割を規程する必要がある.つまり文節よりも細かい単位を対象に解析を行うため,名詞と助数詞の関係や数詞と助数詞の関係をきちんと定義しなければならない.上記のような解析システムだけでなく,解析結果を用いた応用アプリケーションにおいても助数詞の処理は重要である.\cite{UmemotoNL}で紹介されている検索システムにおける含意関係の判定では数量,価格,順番などを正しく扱うことが必要とされる.\subsection{\label{mokuteki}本研究の目的}本稿では,数詞と助数詞によって表現される構文\footnote{但し,「3年」,「17時」など日付や時間に関する表現は\cite{Bender}と同様にこの対象範囲から除く.}を解析するLFGの語彙規則と文法規則を提案し,計算機上で実装することによってその規則の妥当性と解析能力について検証する.これらのLFG規則によって出力された解析結果(f-structure)の妥当性については,下記の二つの基準を設ける.\begin{enumerate}\item{他表現との整合}\\統語的に同一の構造を持つ別の表現と比較して,f-structureが同じ構造になっている.\item{他言語との整合}\\他の言語において同じ表現のf-structureが同じ構造になっている.\end{enumerate}\ref{senkou}章では助数詞に関する従来研究を概観し,特に関連のある研究と本稿の差異について述べる.\ref{rule}章では助数詞のためのLFG語彙規則と助数詞や数詞を解析するためのLFG文法規則を提案する.\ref{fstr}章では\ref{rule}章で提案したLFG規則を\cite{Masuichi2003}の日本語LFGシステム上で実装し,システムによって出力されるf-structureの妥当性を上記の二つの基準に照らして検証する.日本語と同様にベトナム語や韓国にも日本語のそれとは違う性質をもった固有の数詞と助数詞が存在する\cite{yazaki}.また,日本語の助数詞は一部の語源が中国語にあるという説もあり,その共通性と差異が\cite{watanabe}などで論じられている.そこで,ParallelGrammarProject\cite{Butt02}(以下,ParGram)においてLFG文法を研究開発している中国語LFG文法\cite{ji}で導出されたf-structureを対象にして,基準2を満たしているかを確認するために比較を行う.``3~kg''の`kg'や,``10dollars''の`dollar'など,英語にも数字の後に連接する日本語の助数詞相当の語が存在する.また,日本語においても英語のように助数詞なしに数詞が直接連接して名詞の数量を表現する場合もある.ParGramにおいて英語は最初に開発されたLFG文法であり,その性能は極めて高い\cite{Riezler}.ParGramに参加する他の言語は必ず英語のf-structureとの比較を行いながら研究を進める.以上のことから,中国語だけではなく\cite{Riezler}の英語LFGシステムで出力されたf-structureとの比較を行う.\ref{hyouka}章では精度評価実験を行って,解析性能を検証する.数詞と助数詞によって形成される統語をLFG理論の枠組みで解析し,適切なf-structureを得ることが本研究の目的である.
V05N01-02
従来の自然言語処理研究の多くは,言語の論理的側面に注目したものであった.しかし,計算機が人間と同じように自然言語を取り扱うことができるようになるためには,言語の論理的な取り扱いだけでなく,言語が人間の感性に及ぼす働きの実装が不可欠である.このような観点から,我々は感性を取り扱うことのできる自然言語処理システムの開発に向けた基礎研究のひとつとして,待遇表現の計算モデルに関する研究を行っている.待遇表現とは,話し手が,聞き手及び話題に含まれる人物と自分との間に,尊卑,優劣,利害,疎遠等どのような関係があるかを認識し,その認識を言語形式の上に表したものである(鈴木1984).本研究ではこれらの関係を総称して{\bf待遇関係}と呼び,待遇表現に対して心理上持つ丁寧さの度合いを{\bf待遇値}と呼ぶ.さまざまな待遇表現を柔軟に取り扱うことができる自然言語処理システムを構築するためには,待遇表現の構成要素と待遇表現全体の待遇値の関係を記述するモデルが必要である.しかし,数学的な形式化に重点を置いた研究(水谷1995),心理実験による待遇表現の計量化に重点を置いた研究(荻野1984),あるいは丁寧さを考慮した文生成プログラムの開発(田中1983)などの従来の待遇表現に関する研究においては,このようなモデルの提案,及び心理実験に基づくモデルの検証は行われていなかった.本研究では,話し手及び聞き手以外の人に関する話題が含まれないような発話内容に関する待遇表現に限定した上で,待遇表現に語尾を付加した際の待遇値の変化に関する計算モデルを提案する.モデルの妥当性の検証を行うため,(1)ある事柄について{\bf知っている}という意図を伝える際に用いられる待遇表現のグループに対し,語尾:``よ''を付加した際の待遇値変化,及び(2)聞き手が会議などで{\bf発言するか否か}を聞き手に質問する際に用いられる待遇表現のグループに対し,語尾:``ます?''を付加した際の待遇値変化を求める心理実験を行った.実験の結果,いずれのグループにおける待遇値変化もモデルから予測される傾向に従い,モデルの妥当性が支持された.
V26N01-07
Web上では日々多くのテキスト情報が発信されており,これまでに膨大な量のテキストが蓄積されている.この大量のテキストから,あるトピックについての知識を抽出するためには,関連するテキストの統合・要約・比較を行う情報分析技術が必要である.異なる時期に書かれたテキストや異なる時期について言及しているテキストを対象として分析を行うためには,テキストに含意されている時間情報を正しく解釈する必要があり,これまでに事象情報と時間情報の関係性という観点から多くの研究やタスクが行われてきた.例えばTempEval1,2,3では,事象−事象表現間,事象−時間表現間の時間的順序関係の推定が行われた\cite{TempEval-1,TempEval-2,TempEval-3}.また,SemEval15では複数のテキストから事象表現を抽出し,時系列に配置するタイムライン生成タスクが扱われた\cite{SemEval15-4}.このようなタスクにおいてモデルの学習やシステムの評価を行うため,テキスト中の事象情報と時間情報を関連付けたコーパスが作られてきた\cite{pustejovsky:TimeBankCorpus:03,cassidy:TimeBankDenseCorpus:2014,reimers:EventTimeCorpus:2016}.これらのコーパスでは開始・終了時が比較的明確な事象表現を対象にアノテーションが行われたが,テキストの時間情報理解のための手がかりはこれにとどまらない.本研究では,時間性が曖昧な表現を含めた,テキスト中の様々な表現がもつ時間情報を表現力豊かにアノテーションするための基準を提案する.先行研究における時間情報アノテーションのアプローチは2つに大別される.1つは事象間の時間的順序関係を付与する{\bf相対的なアノテーション方法}である.もう1つは各事象を時間軸に対応させる{\bf絶対的なアノテーション方法}である.前者は小説など時間情報の少ないテキストであっても情報量の多いアノテーションが可能である.後者は新聞などの時間情報の多いテキストにおいて少ないアノテーション量で正確に時間情報を表現できる.本研究は後者のアプローチを発展させるものであり,構築するコーパスはタイムライン生成など時間軸を用いてテキストの比較・統合を行うタスクにおいて学習/評価データとして使用することが可能である.本アノテーション基準の特徴は次の2つである.1つは,時間性をもち得る幅広い表現をアノテーション対象とすることである.多くの先行研究は,TimeML\cite{Sauri06timemlannotation}のガイドラインに従い,何か起きたことやその状態を表す一時性の強い表現である{\sl``event''}に対してアノテーションを行っている.そのため次の例の「出現しており」のような一時性の弱い表現にはアノテーションが行われない.\vspace{0.5\Cvs}\enumsentence{インターネット上では様々な事業が急速に{\itshape\bfseries出現しており},政府でさえ把握できていない.}\vspace{0.5\Cvs}しかし,一時性の弱い表現がもつ時間情報もテキスト解釈の手がかりとなり得る.この例の場合,「出現しており」が数年前から現在にかけての事象であるという時間情報をアノテーションすることも重要である.そこで本研究では先行研究より対象を広げ,テキスト中で時間性をもち得る全ての事象表現,すなわちテキスト中の述語または事態性名詞(サ変名詞,動詞連用形の名詞化,形容動詞語幹)を含む基本句全て(以降,対象表現と呼ぶ)をアノテーション対象とする.ここで基本句とは,京都大学テキストコーパスで定義されている単位で,自立語とそれに続く付属語のことである.本アノテーション基準のもう1つの特徴は,頻度や期間などの多様な時間情報を扱えることである.\cite{reimers:EventTimeCorpus:2016}は事象の起きる期間を開始点と終了点を用いて時間軸に対応付けたが,次の例で太字で示す「飛び飛びな時間」や「大きな区間の中のある一部の期間」に起きる事象を正確に時間軸に対応付けることはできなかった.\vspace{0.5\Cvs}\enumsentence{\label{ex:baseball}毎週日曜は球場で野球を{\itshape\bfseries見る}。}\enumsentence{\label{ex:trip}来週は3日間京都に{\itshape\bfseries出張する}。}\enumsentence{昔はよく一緒に{\itshape\bfseries遊んでいた}。}\vspace{0.5\Cvs}本研究では,テキスト中に含まれる多様な時間情報をより正確に時間軸に対応付けられる時間タグを導入する.多様な表現に対して表現力豊かにタグ付けすることで,個人のテキスト解釈や常識がタグの揺れとして現れる.本研究ではこのような揺れも時間がどのように解釈されているかを知る上で重要だと考えているため,最終的に複数のアノテータの付与した時間タグを1つに統合することはしない.代わりに,解釈の違いを尊重しつつ明らかなアノテーションミスのみを修正するアノテーション方法を導入する.本アノテーション基準を用いて,京都大学テキストコーパス中の113文書4,534対象表現に対してアノテーションを行った.その結果,対象表現の76\%に時間性が認められ,そのうち35\%(全体の26\%)で本稿で新たに提案する記法が用いられた.同コーパスには,既に述語項関係や共参照関係のアノテーションがなされているため,本アノテーションと合わせてテキスト中の事象・エンティティ・時間を対象とした統合的な時間情報解析に活用することが可能となる.
V02N02-01
高度な自然言語理解システムの実現のために,凝った言い回し,すなわち修辞表現を工学的に処理する手法の確立は,避けて通れない研究課題になっている.代表的な修辞表現である「比喩」は,隠喩,直喩,活喩,物喩,提喩,換喩,諷喩,引喩,張喩,類喩,声喩,字喩,詞喩の13種類に分類するのが一般的である\cite{Haga1990}.その中でも隠喩と換喩は,従来からとりわけ注目され\cite{Haga1990},工学の分野でもこの2種の比喩の解析の研究については,既に数多く行われている\cite{Doi1989,Iwayama1991,Utsumi1993,Suwa1994,Iwayama1992}.隠喩と換喩以外の比喩については,諷喩の固定したものである「諺」を検出するモデルが提案されている\cite{Doi1992}以外は,概して工学的処理の対象としてはまだあまり注目されていないといってよい.比喩の一つである「詞喩」は,「同音語など,ことばの多面性を利用してイメージの多重性をもたらす,地口や語呂合わせなどの遊戯的表現の総称」と定義され\cite{Nakamura1991},その中心が,同音異義語あるいは類音語を利用した「掛け言葉」にあるとされている\cite{Nakamura1977}.また「駄洒落」は中村によると,「掛け言葉の使用それ自体を目的として無意味な言葉を添える表現技法」と定義される\cite{Nakamura1991}.さらに尼ケ崎は,掛け言葉と駄洒落とを,成立の仕組みの上では同じものとして扱っている\cite{Amagasaki1988}.これらによると,詞喩と駄洒落との関係については種々の見方があるものの,駄洒落を詞喩表現の卑近な典型例として扱うことに異論は無いものと考えられる.北垣は,ヒューマンフレンドリーなコンピュータの開発という観点から,駄洒落情報を抽出するシステムを試作している\cite{Kitagaki1993}.しかしこれは,自然言語理解の観点から駄洒落の工学的解析に取り組んだ研究ではない.筆者らは,駄洒落を「地口」として扱い,その工学的検出法の検討を進めてきた\cite{Takizawa1989}.現在は検出から一歩進めて,駄洒落を理解するシステムの構築を目指している.その研究の一環として本稿では,記述された(即ち発話されたものでない)駄洒落を収集し,筆者らが「併置型」と呼ぶ駄洒落の一種について,音素上の性質を分析し,工学的処理機構を構成するために必要な知見を得た結果について報告する.
V07N04-06
\label{hajimeni}近年,テキストの自動要約の研究が盛んに行われている\cite{okumura99}.要約は,その利用目的により,原文の代わりとして用いる報知的(informative)要約と,原文を参照する前の段階で原文の適切性の判断などに用いる指示的(indicative)要約とに分類される\cite{Hand97}.報知的要約には,TVニュース番組への字幕生成(例えば,\cite{shirai99}参照)などのように,情報を落とすべきではない要約も含まれる.このような要約文の生成に,文や段落を単位とした重要文抽出の手法を利用すると,採用されなかった文に含まれる情報が欠落する可能性が高い.情報欠落の可能性が低い要約手法として,言い換えによる要約\cite{wakao97,yamasaki98}があるが,要約率に限界があることから(例えば,\cite{yamasaki98}参照),他の要約手法との併用が必要となる.情報欠落の可能性を減少させた手法として,これまでいくつかの手法が提案されている.福島ら\cite{fukushima99}は,長文を短文に分割した後に重要文抽出を行うことで,情報欠落の可能性の減少を試みている.しかし,重要文として採用されなかった文に含まれる情報には,欠落の可能性が残っていると言える.三上ら\cite{mikami99}は,文ごとに冗長な部分を削除することにより,文単位での抽出による情報の偏りを回避している.この手法では,連体修飾部や例示の部分を削除しても,文の中心内容は影響を受けないとして,これらの部分を削除対象としている.しかし,削除された部分が,読み手にとって重要と判断される場合もあることが三上らのアンケート調査の結果より明らかになっている.さらに,三上らは,連体修飾部等の意味に立ち入らず,構文構造のみから削除部分を認定しており,また,ある文を要約する際には,他の文の情報を使用していない.そのため,例1の下線部のように,意味が同じ修飾部であっても,一方が冗長であると認定されて削除されるならば,もう一方も同様に削除され,これらの情報は欠落する.逆に,冗長であると認定されなければ,両方とも残されるので,読み手にとって既知の情報を再度伝えることになる.\newpage\begin{quote}\label{rei:rei1}\hspace*{-1em}{\bf例1:}\\\hspace*{1em}\underline{薬害エイズの真相究明につながる}新たなファイルがあることが明らかになった問題で、$\cdots\cdots$\hspace*{1em}この問題は、\underline{薬害エイズの真相究明につながる}厚生省のファイルがこれまでに見つかった九冊の他にさらに七冊あることがわかったもので、$\cdots$\end{quote}\vspace{4mm}そこで本論文では,このような,意味の重複部分を削除する要約手法について議論する.テキスト内で,既出の部分と同一の意味を表している部分のみを削除することにより,情報欠落の可能性を極力回避し,冗長度を減少させることが可能であると考えられる.意味が同一であるかを判定するためには意味を理解する必要があるが,現状の技術で機械による意味理解は困難である.よって,意味の重複のうち,表現の重複で認定可能な事象\footnote{本論文では,語の集まりによって表現される対象物や現象,動作などを事象と呼ぶ.}を対象とする.例1の下線部のように,テキスト内に同じ事象を表す部分が再び現われたならば,その修飾部(第2文の下線部)を削除しても,人間は理解が可能である.本論文では,事象の重複部分の削除による要約を,事象の重複部を認定する「重複部の認定」と,重複部のうち削除可能な部分を決定する「重複部の削除」とに分けて議論する.「重複部の認定」では,2語の係り受け関係を用いて重複部の認定を行う.係り受け関係のある2つの語が,一つの事象を表していると仮定し,それを比較することで事象の重複を認定する.\ref{nintei}~節では,この2語の係り受け関係を用いた重複部の認定について述べる.一方,認定された重複部がすべて削除可能であるとは限らない.たとえ重複していたとしても,削除すると読み手の理解が困難になることや,不自然な要約文が生成されることがある.よって,「重複部の削除」では,全ての重複部を削除するのではなく,削除可能な部分を決定する必要がある.\ref{sakujo}~節では,決定の際に考慮すべき情報について述べる.以下,\ref{jitsugen}~節では,\ref{nintei}~節で述べる重複部の認定と,\ref{sakujo}~節で示す情報のうち実現可能なものとを用いた要約手法の計算機上での実現について述べる.\ref{hyouka}~節では,本手法の評価を行う.記事内に重複の多いニュース原稿を入力テキストとして要約を行い,どの程度重複部分を削除可能か,また,削除箇所が妥当であるかの評価実験を行った.ニュース原稿は,NHK放送技術研究所との共同研究のため提供された,NHK汎用原稿データベースを使用した.\ref{kousatsu}~節では,評価実験の結果より,人間(筆者)は削除したが本手法では削除されなかった重複部,および,妥当でない削除箇所について考察する.さらに,本手法の妥当性と有効性等について考察する.また,\ref{kanren}~節では関連研究について論じる.テキスト自動要約においては,一般的に単独の手法のみでは必ずしも十分な要約率が達成できるとは限らない.むしろ,複数の要約手法を併用することで望ましい要約が得られることが多い.本論文で提唱する手法は,要約を行なう応用において要素技術の一つとして用いることができるが,要約率を向上させるには文間の重複表現以外を用いた他の要約技術との併用を前提とする.
V23N02-02
近年,ビッグデータに象徴されるように,世の中のデータ量は飛躍的に増大しているが,教育分野ではそれらのデータをまだ十分に活用している状態には至っていない.例えば,Lang-8というSNSを利用した言語学習者のための作文添削システムがある.現在,このウェブサイトは600,000人以上の登録者を抱えており,90の言語をサポートしている.このサイトでは,ユーザーが目標言語で書いた作文を入力すると,その言語の母語話者がその作文を添削してくれる.このウェブサービスにより蓄積されたデータは,言語学習者コーパスとして膨大な数の学習者の作文を有している\footnote{http://lang-8.com}.それらは言語学習者コーパスとして調査や研究のための貴重な大規模資源となりえるが,それらを教師や学習者がフィードバックや調査分析などに利用したい場合,誤用タイプの分類などの前処理が必要となる.しかしながら,日本語教師のための学習者コーパスを対象とした誤用例検索システムを構築するというアプリケーションを考えると,誤用タイプに基づいて得られる上位の事例に所望の誤用タイプの用例が表示されればよい.つまり,人手で網羅的に誤用タイプのタグ(以後,「誤用タグ」と呼ぶ)を付与することができなくても,一定水準の適合率が確保できるのであれば,自動推定した結果を活用することができる.そこで,本稿では実用レベル(例えば,8割程度)の適合率を保証した日本語学習者コーパスへの誤用タグ付与を目指し,誤用タイプの自動分類に向けた実験を試みる.学習者の作文における誤用についてフィードバックを行ったり,調査分析したりすることは,学習者に同じ誤りを犯させないようにするために必要であり,学習者に自律的な学習を促すことができる\shortcite{holec,auto_umeda}.そのため,学習者の例文を誤用タイプ別に分類し,それぞれの誤用タイプにタグを付与した例文検索アプリケーションは教師や学習者を支援する有効なツールとなり得る.現在まで,誤用タグ付与作業は人手に頼らざるを得なかったが,\lh\hbox{}のようなウェブ上の学習者コーパスは規模が大きく,かつ日々更新されるため,人手によって網羅的に誤用タグを付与することは困難である.誤用タイプの自動分類を行うことで,誤用タグ付与作業を行う際,人手に頼らなくてもよくなり,人間が誤用タグ付与を行う際の判定の不一致や一貫性の欠如などの問題を軽減しうる.これまでは,このような誤用タグの自動付与というタスクそのものが認知されてこなかったが,自動化することで大規模学習者コーパスを利活用する道を拓くことができ,新たな応用や基礎研究が発展する可能性を秘めている.今回,誤用タグが付与されていない既存の日本語学習者コーパスに対し,階層構造をもった誤用タイプ分類表を設計し,国立国語研究所の\ty\hbox{}の事例に対してタグ付け作業を行った.次に,階層的に誤用タイプの分類を行う手法を提案し,自動分類実験を行った.誤用タイプ分類に用いるベースライン素性として,単語の周辺情報,統語的依存関係を利用した.さらに,言語学習者コーパスから抽出した拡張素性として1)正用文と誤用文の文字列間の編集距離,2)ウェブ上の大規模コーパスから算出した正用箇所と誤用箇所の置換確率を用い,それらの有効性を比較した.本研究の主要な貢献は,以下の3点である.\begin{itemize}\item誤用タグが付与されていない国語研の作文対訳DBに誤用タグを付与し,\ngc\hbox{}を作成した.異なるアノテーターによって付与されたタグの一致率が報告された日本語学習者誤用コーパスは,我々の知る限り他に存在しない.\item\ngc\hbox{}を対象に機械学習による誤用タイプ自動分類実験を行い,かつアプリケーションに充分堪えうる適合率を実現した(8割程度).英語学習者コーパスの誤用タイプの自動分類タスクは過去に提案されている\cite{swanson}が,日本語学習者コーパスの誤用タイプの自動分類タスクに取り組んだ研究はこれが初めてであり,将来的には学習者コーパスを対象とした誤用例検索システムを構築するアプリケーションの開発を目指しているため,その実現化に道筋を付けることができた.\itemタグの階層構造を利用した階層的分類モデルを提案し,階層構造を利用しない多クラス分類モデルと比較して大幅な精度向上を得られることを示した.また,英語学習者の誤用タイプ自動分類で提案されていた素性に加え,大規模言語学習者コーパスから抽出した統計量を用いた素性を使用し,その有効性を示した.\end{itemize}
V27N02-12
プログラムによる小説自動制作の実現を目指す過程\cite{Sato2016}で,私が直面した問題の一つは,次のような問題である.\begin{quote}\bf日本語の文を合成するために,どのようなソフトウェアシステムを用意すればよいか.\end{quote}小説はテキストであり,テキストは文の並びである.ゆえに,文を作れなければ,小説は作れない.小説には,ありとあらゆる文が出現しうる.任意の日本語文を作ることができるようなソフトウェアシステムを実現できるだろうか.もし,それが可能ならば,どのようなシステムとして具現化されうるだろうか.本論文では,そのような問題意識の下で開発してきた羽織シリーズ($\rightarrow$付録\ref{sec:変遷})の最新版であるHaoriBricks3(HB3)の概要を示す.私は,HB3を「日本語の文を合成するためのドメイン特化言語(domain-specificlangauge)」と位置づける.HB3では,\textbf{ブリックコード}(brickcode,BC)と呼ぶ記述形式で,どのような日本語文を合成するかを記述する.そして,記述したブリックコードを実行(評価)すると,表層文字列が得られる.ブリックコードは,あくまでも文を合成するためのコードであり,\underline{文の意味表現ではない}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[p]\begin{center}\includegraphics{27-2ia11f1.eps}\end{center}\caption{ブリックコードからの表層文字列生成}\label{fig:process}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:process}に,ブリックコードから表層文字列を生成する過程の概略を示す.ブリックコードはRubyコードそのものであり,これをRubyコードとして評価すると,\textbf{ブリック構造}(brickstructure,BS)と呼ぶ内部構造(Rubyオブジェクト)が生成される.このブリック構造に,表層文字列を生成するためのメソッド\texttt{to\_ss}を適用すると,\textbf{羽織構造}(Haoristructure,HS),および,\textbf{境界・ユニット列}(boundary-unitsequence,BUS)という2つのデータ構造を経由して,最終的に表層文字列が生成される.本論文では,HB3の設計思想,および,実現・実装のための工夫について説明し,HB3で何ができるのかを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V07N02-01
コンピュータで利用する電子化文書データの増大に伴って,文書の自動分類に関する研究開発が非常に活発であり,文書全体の情報を利用して,類似度を計算するベクトルモデル\cite{長尾他1996,野村1999,徳永他1994}や確率モデル\cite{Fuhr1989}の技術が確立されてきた.しかしながら,実際の文書は,複数の話題や分野を混合して含み,検索したい内容は文書の一部分(断片)に存在する場合がほとんどであるので,文書全体を検索対象とするのではなく,検索要求に合致した文書断片のみを抽出するパッセージ検索技術が着目されている\cite{Callan1994,Kaszkiel1997,Melucci1998,望月他1999,Salton1993}.特に,人間は文書全体を読むことなしに,代表的な単語を見るだけで,<政治>や<スポーツ>などの分野を認知できることから,文書断片内の数少ない単語情報から分野を的確に決定するための分野連想語セットの構築は重要な研究課題である.文書全体の情報を利用するモデルでは,誤った重要語の多少の過剰抽出は補正されるが,本論文では,文書断片を対象とするので,誤った連想語を過剰抽出する割合を限りなく零にできる抽出法の実現を目標とする.連想語の水準に関連する研究として,統計情報を利用して単語の重要度(重み)を決定する方法\cite{Salton1988,Salton1983,Salton1973,徳永他1994},単語の重み付けを学習する方法\cite{福本他1999}があり,また単語の概念や意味情報を利用する方法\cite{亀田他1987,Walker1987},意味的に関係のある名詞をリンク付けする手法\cite{福本他1996}などが提案されている.しかしながら,これら手法では,本論文の目標である高い適合率(過剰抽出が少ないことを意味する)には十分な関心が払われていない.また,シソーラスなどの分類体系を利用する手法は,単語の統計情報のみに依存する手法に比べて精度向上が期待できるが,分類体系と単語間の対応関係を事前に構築しておいて,文書の特徴を学習する方法\cite{河合1992,山本他1995}では,データスパースネス\cite{福本他1996}の問題があり,十分な精度向上は得られていない.また,分類体系の特徴を規則として学習する手法\cite{Blosseville1992}では,高い精度を実現しているが,実験のデータ規模が小さく,解析も複雑であるので,現段階では実用性に難がある.更に,分類体系から分野決定するためのルールを機械学習する方法\cite{Apte1994}では,文書分類精度がBreakevenpoint(再現率と適合率が一致する値)で最高約0.80まで向上しているが,本研究が目標とする精度には達していない.また,複合語の連想語の決定に関連する研究として,複合語のキーワード抽出手法\cite{伊藤他1993,小川他1993,林他1997,原他1997}があるが,人手で修正した短単位語キーワードを利用して複合語キーワードを決定する手法は議論されていない.本論文では,固定された分野体系と学習データを利用し,誤った連想語の割合が数パーセント以下となる抽出法を提案する.本手法では,単語数が有限である短単位語の連想語を人手で修正し,この短単位語の連想情報を利用して,無限に造語される複合語の連想語を自動決定する.以下,2~章では分野連想語の水準と安定性ランクを説明し,3~章では学習データから連想語候補を自動決定する方法と短単位語の人手による修正法を述べる.4~章では複合語の連想語の決定法を提案し,5~章では180分野に分類された約15,000ファイルの実験結果により,提案手法の有効性を実証する.6~章では本論文をまとめ,今後の課題を述べる.\vspace{-2mm}
V20N03-08
災害は,住居や道路などに対する物的損害だけでなく,被災地内外の住民に対する健康への影響も及ぼしうる.そこで,従来の防災における危機管理の考えを援用し,健康における危機管理という概念が発達しつつある.この「健康危機管理」は,わが国の行政において,災害,感染症,食品安全,医療安全,介護等安全,生活環境安全,原因不明の健康危機といった12分野に整理されており,厚生労働省を中心として,それぞれの分野において生じうる健康問題とその対応策に関する知見の蓄積が進められている\cite{tanihata2012}.こうした健康危機においては,適切な意思決定のためにできる限り効率的に事態の全体像を把握する必要性がある.しかし,2009年に生じた新型インフルエンザによるパンデミックでは,国内の発症者や疑い症例の急激な増加に対し,状況把握に困難が生じていた\cite{okumura2009}.2011年に生じた東日本大震災においては,被災地の行政機能が失われ,通信インフラへの被害も合わさって,被災地の基本的な状況把握すら困難な状態が生じた\cite{shinsai2012}.とりわけ,災害初期の混乱期においては,事態の全体像を迅速に把握する必要があり,情報の厳密性よりも行動に結びつく実用性や迅速性が優先されうる\cite{kunii2012}.この「膨大なテキスト情報が発生」し,また,「情報の厳密性よりも迅速性が優先される」という特徴は,自然言語処理が健康危機管理に大きく貢献しうる可能性を示している.そこで本稿では,健康危機における情報と自然言語処理との関係について整理し,自然言語処理が健康危機管理に果たしうる役割について検討する.まず,次章では,健康危機における情報とその特徴について整理する.3章では,筆者らが関わった東日本大震災に対する保健医療分野の情報と自然言語処理との関わりをまとめ,4章において提言を記す.
V17N04-08
現在,機械翻訳システムの分野において,対訳データから自動的に翻訳モデルと言語モデルを獲得し統計的に翻訳を行う,統計翻訳が注目されている.翻訳モデルは,原言語の単語列から目的言語の単語列への翻訳を確率的に表現するモデルである.言語モデルは,目的言語の単語列に対して,それらが起こる確率を与えるモデルである.翻訳モデルには,大きくわけて語に基づく翻訳モデルと句に基づく翻訳モデルがある.初期の統計翻訳は,語に基づく翻訳モデルであった.語に基づく翻訳モデルでは,原言語の単語から目的言語の単語の対応表を作成する.対応する単語が無い場合はNULLMODELに対応させる~\cite{IBM}.しかし,翻訳文を生成する時,NULLMODELに対して,全ての単語の出現を仮定する必要がある.これが翻訳精度が低下する原因の一つになっていた.そのため現在では句に基づく翻訳モデルが主流になっている~\cite{PSMT}.句に基づく翻訳モデルは,原言語の単語列から目的言語の単語列の翻訳に対して確率を付与する.また,NULLMODELは使用しない.そして,原言語の単語列から目的言語の単語列への翻訳を,フレーズテーブルで管理する.しかし,フレーズテーブルのフレーズ対はヒューリスティクを用いて自動作成されるため,一般にカバー率は高いが信頼性は低いと考えられる.また,フレーズテーブルのフレーズ対は,確率値の信頼性を高めるため,短いフレーズ対に分割される.そのため,長いフレーズ対は少ない.ところで,日英翻訳では,過去に手作業で作成した日本語の単語列から英語の単語列への翻訳対が大量に作成されている.この翻訳対の信頼性は高いと考えられる.しかし自動作成されたフレーズ対と比較すると,カバー率は低い.そこで,本研究では,それぞれの長所を生かすために,プログラムで自動作成したフレーズ対に手作業で作成された翻訳対を追加することで翻訳精度の向上を目指した.本研究では,手作業で作成した原言語の単語列から目的言語の単語列への翻訳対を,自動的に作成したフレーズテーブルに追加する.この追加されたフレーズテーブルを利用して日英翻訳の精度向上を試みる.実験では,日英重複文文型パターン辞書~\cite{tori}の対訳文対から得られた翻訳対を利用する.手作業で作成された約13万の翻訳対に翻訳確率を与え,プログラムで自動作成したフレーズテーブルに追加する.この結果,BLEUスコアが,単文では12.5\%から13.4\%に0.9\%向上した.また重複文では7.7\%から8.5\%に0.8\%向上した.また得られた英文100文に対し,人間による対比較実験を行ったところ,単文では,従来法が5文であるのに対し提案法では23文,また重複文では,従来法が15文であるのに対し提案法では35文,翻訳精度が良いと判断された.これらの結果から,自動作成されたフレーズテーブルに手作業で作成された翻訳対を追加する,提案手法の有効性が示された.
V17N05-03
本研究では,子供の書き言葉コーパスの収集の取組みとその活用方法の可能性について述べる.自然言語データに関する情報が詳しくまとめられている奈良先端科学技術大学院大学松本裕治研究室\cite[\texttt{http://cl.aist-nara.ac.jp/index.php}]{Web_NAIST}で情報提供されている公開ツール・データによると,現在共有されている国内の言語資源には,国立国語研究所により作成された分類語彙表,小学校・中学校・高校教科書の語彙調査データ,現代雑誌九十種の用語用字全語彙,日本経済新聞や毎日新聞・朝日新聞などの新聞記事データ,国立国語研究所で作成された現代雑誌九十種の用語用字全語彙,IPALなど各種辞書の文例集,源氏物語・徒然草や青空文庫など著作権の消滅した古い文学作品データなどが挙げられる.全て列挙することはできないものの,いずれも調査対象が教科書や新聞,雑誌,辞書,文学作品などに偏っているコーパスが多い.子供の発話資料を共有する取組みであるCHILDESには日本も参加しているものの,日本語を使う子供のコーパスは非常に少ない.子供の言葉コーパスの現状として,海外には主に\begin{enumerate}\itemChildLanguageDataExchangeSystem(CHILDES)(英語をはじめ29ヶ国語の発話データが収められている大規模コーパス)\itemVocabularyofFirst-GradeChildren(MOE)(延べ286,108語,異語数6,412語の小学1年生(5歳から8歳)329名の話し言葉のデータ)\itemThePolytechnicofWalesCorpus(PoW)(6歳から12歳の児童120名より収集された約65,000語の話し言葉コーパス)\itemTheBergenCorpusofLondonTeenagerLanguage(COLT)(ロンドンの13歳から17歳の少年少女の自然な会話を録音した約50万語のコーパス)\end{enumerate}\noindentがある.(1)〜(4)のコーパスはどれも話し言葉コーパスであり,子供の書き言葉コーパスはほとんど存在しない.また子供の発話資料を共有する取組みであるCHILDESには日本も参加しているものの,日本においては,子供の話し言葉コーパス,書き言葉コーパスどちらもほとんど存在しない.電子コーパスの作成においては,コンピュータに機械的にテキストを収集させる方法が一般的である.特定の年齢で使用される書き言葉の電子コーパスを作成するためには,どの年齢の人が書いたテキストなのか判断する必要があるが,コンピュータではその判断が困難である.そのため手作業によって集めざるをえず,多大な手間と労力を必要とする.これが子供の書き言葉電子コーパスがほとんど存在しない理由のひとつであると考えられる.また,研究者が収集した子供の書き言葉資料に基づく研究結果を事例研究の域を越えて普遍的なものにするためには,その資料を共有できるようにすること,特に電子化された言語資源として公開することが必要と考えられるが,その際に立ちはだかる問題の一つとして著作権の保護がある.本研究では,Web上に公開されている作文を収集することによって子供の書き言葉コーパスの作成を行った.しかし,Web上で用例を探して見るだけでなく,その元になった文章を自分のPCにダウンロードし,ダウンロードした本人が使用するだけでなく,その資料を研究グループで複製して共有する場合は問題になる.そのため,著作権処理が必要になる.このように子供の書き言葉コーパスの収集と利用には多大な労力と注意すべき問題があるが,日本の子供の書き言葉コーパスが言語資源として共有されれば,日本語の使用実態の年齢別推移の分析や,子供の言葉に特徴的に現れる言語形式の分析など,国語教育や日本語研究での利用はもちろんのこと,認知発達,社会学など関連分野への貢献など,さまざまな応用の可能性がある.そこで本研究では,子供の書き言葉コーパスとしてWeb上に公開されている小学生の作文データを収集し,書き言葉コーパスとしてまとめたプロセスと結果の報告を行い,そのコーパスの実用例について述べる.
V04N01-07
\label{sec:introduction}適格なテキストでは,通常,テキストを構成する要素の間に適切な頻度で照応が認められる.この照応を捉えることによって,テキスト構成要素の解釈の良さへの裏付けや,解釈の曖昧性を解消するための手がかりが得られることが多い.例えば,次のテキスト\ref{TEXT:shiji}の読み手は,「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」で触れた事象に,「知事選での奥田氏支持」が再び言及していると解釈するだろう.\begin{TEXT}\text\underline{新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する}方針をようやく固めた.\underline{知事選での奥田氏支持}に強く反対する有力議員も多く,決定が今日までずれ込んでいた.\label{TEXT:shiji}\end{TEXT}この照応解釈は,「奈良県知事選で」が「支持する」と「固めた」のどちらに従属するかが決定されていない場合には,この曖昧性を解消するための手がかりとなり,何らかの選好に基づいて「支持する」に従属する解釈の方が既に優先されている場合には,この解釈の良さを裏付ける.このようなことから,これまでに,前方照応を捉えるための制約(拘束的条件)と選好(優先的条件)がText-WideGrammar~\cite{Jelinek95}などで提案されている.Text-WideGrammarによれば,テキスト\ref{TEXT:shiji}でこの照応解釈が成立するのは,「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」を$X$,「知事選での奥田氏支持」を$Y$としたとき,これらが次の三つの制約を満たすからである.\smallskip\begin{LIST}\item[\bf構文制約]$Y$は,ある構文構造上で$X$の後方に位置する\footnote{$X$と$Y$が言語心理学的なある一定の距離以上離れていると,$Y$は$X$を指せないことがあると考えられるが,距離に関する制約は構文制約に含まれていない.}.\item[\bf縮約制約]$Y$は,$X$を縮約した言語形式である.\item[\bf意味制約]$Y$の意味は,$X$の意味に包含される.\end{LIST}\smallskipあるテキスト構成要素$X$で触れた事象に他の要素$Y$が再言及しているかどうかを決定するためには,$X$と$Y$がこれらの制約を満たすかどうかを判定するための知識と機構を計算機上に実装すればよい.実際,構文制約と縮約制約については,実装できるように既に定式化されている.これに対して,意味制約が満たされるかどうかを具体的にどのようにして判定するかは,今後の課題として残されている.意味制約が満たされるかどうかを厳密に判定することは,容易ではない.厳密な判定を下すためには,$X$と$Y$の両方またはいずれか一方が文や句である場合,その構文構造とそれを構成する辞書見出し語の意味に基づいて全体の意味を合成する必要がある.テキストの対象分野を限定しない機械翻訳などにおいて,このような意味合成を実現するためには,膨大な量の知識や複雑な機構を構築することが必要となるが,近い将来の実現は期待しがたい.本稿では,近い将来の実用を目指して,構築が困難な知識や機構を必要とする意味合成による意味制約充足性の判定を,表層的な情報を用いた簡単な構造照合による判定で近似する方法を提案する.基本的な考え方は,構文制約と縮約制約を満たす$X$と$Y$について,それぞれの構\\文構造を支配従属構造で表し,それらの構造照合を行ない,照合がとれた場合,$X$の意味が$Y$の意味を包含するとみなすというものである.もちろん,単純な構造照合で意味合成が完全に代用できるわけではないが,本研究では,日英機械翻訳への応用を前提として,簡単な処理によって前方照応がどの程度正しく捉えられるかを検証することを目的とする.以降,本稿の対象を,サ変動詞が主要部である文(以降,サ変動詞文と呼ぶ)を$X$とし,そのサ変動詞の語幹が主要部であり$X$の後方に位置する名詞句(サ変名詞句)を$Y$とした場合\footnote{このようなサ変動詞文とサ変名詞句の組は,我々の調査によれば,新聞一カ月分の約8000記事のうち,その23\%において見られた.}に限定する.これまでに,性質の異なる曖昧性がある二つの構文構造を照合することによって互いの曖昧性を打ち消す方法に関する研究が行なわれ,その有効性が報告されている\cite{Inagaki88,Utsuro92,Kinoshita93,Nasukawa95b}.本稿の対象であるサ変動詞文とサ変名詞句にも互いに性質の異なる曖昧性があるので,構造照合を行ない,類似性が高い支配従属構造を優先することによって,サ変動詞文とサ変名詞句の両方または一方の曖昧性が解消される.例えば,サ変名詞句「奥田氏支持」から得られる情報だけでは「奥田氏」と「支持」の支配従属関係を一意に決定することは難しいが,テキスト\ref{TEXT:shiji}では,サ変動詞文「奥田氏を支持する」との構造照合によって,サ変名詞句を構成する要素間の支配従属関係が定まる.このように,サ変名詞句の曖昧性解消に,サ変名詞句の外部から得られる情報を参照することは有用である.一方,複合名詞の内部から得られる情報に基づく複合名詞の解析法も提案されている\cite{Kobayashi96}.複合名詞の主要部がサ変名詞である場合,これら二つの方法を併用することによって,より高い解析精度の達成が期待できる.\ref{sec:depredrules}節では,サ変動詞文とサ変名詞句の支配従属構造を照合するための規則を記述する.\ref{sec:matching}節では,構造照合規則に従って照応が成立するかどうかを判定する手順について述べ,処理例を挙げる.\ref{sec:experiment}節では,新聞記事から抽出したサ変動詞文とサ変名詞句の組を対象として行なった実験結果を示し,照応が正しく捉えられなかった例についてその原因を分析する.
V07N04-07
\label{sec:introduction}これまでに開発されている機械翻訳システムの多くはトランスファ方式に基づいており,原言語の性質だけに依存する解析辞書・規則と,原言語と目的言語の両方の性質に依存する対照辞書・規則が個別に記述されている.他方,翻訳対象言語対と翻訳方向を固定した上で,解析知識の記述を,原言語の性質だけでなく目的言語の性質も考慮に入れて行なうという設計方針もある.このような方針を採ると,ある原言語(例えば日本語)の解析知識を,異なる目的言語へのシステム(例えば日英システムと日中システム)で共用できるというトランスファ方式の利点が失われ,別の目的言語へのシステムを開発する場合には新たな解析知識の記述が必要になる.しかし,当面,ある特定の原言語から特定の目的言語への翻訳に焦点を絞れば,以下のような利点が得られる.\begin{enumerate}\item原言語の表現と目的言語の表現を比較的表層のレベルで対応付けることができる.例えば動詞と補足語との結合関係は,翻訳対象と翻訳方向を日本語テキストから英語テキストへの翻訳に固定した場合,日本語の助詞と英語の前置詞との対応として記述できる.従って,結合関係を深層格として抽象化する必要がなくなり,深層格の認定基準の設定などの困難が避けられる.\item翻訳対象言語対と翻訳方向を固定しない場合,ある目的言語の生成には必要ないが別の目的言語の生成には必要な情報も解析過程で抽出しておく必要がある.これに対して,翻訳対象と翻訳方向を固定すると,原言語を解析する知識を記述する際に目的言語の性質を考慮することが可能になるため,目的言語の生成に必要な情報のみを抽出すればよくなり,無駄な処理が避けられる.\end{enumerate}このようなことから,我々のシステムTWINTRANでは,目的を日英翻訳に限定した上で,英語の適切なテキストを生成するためには日本語テキストがどのように解析されていなければならないかという観点から辞書と全規則群を記述している.辞書では,英語に翻訳する際にこれ以上分解するとその意味が変化してしまう表現はそれ以上分解せずに一見出しとして登録する(\ref{sec:analysis:dict}\,節).構文解析規則では,動詞と補足語との結合関係を日本語の助詞とその英訳との対応に基づいて区別し,動詞型を日本語の結合価パターンと英語の結合価パターンとの対に基づいて設定する(\ref{sec:analysis:syn}\,節).また,日本語の連体従属節を英語の関係節に翻訳するための関係詞決定規則を設ける(\ref{sec:analysis:rel}\,節).日本語で明示することは希であるが英語では明示しなければならない言語形式上の必須情報(名詞句の定/不定性の区別や,動詞の主語や目的語になる代名詞など)を得るために,照応解析規則を陳述縮約パラダイム\cite{Jelinek95}に基づいて記述する(\ref{sec:analysis:integ:cor}\,節).TWINTRANと同じように日本語の解析知識を日英対照の観点から記述しているシステムとして,ALT-J/E\cite{Ikehara96,Nakaiwa97}や,US式翻訳システム\cite{Shibata96a,Shibata98}などがこれまでに報告されている.これらのシステムでも照応解析が行なわれているが,構造を持たない言語表現の間で成立する照応すなわち語と語の間の照応の解析に留まっている.これに対してTWINTRANでは,文や句など構造を持つ言語表現間の照応も扱う\footnote{より精度の高い解析を実現するためには,構造を持つ表現の意味をその部分から導き出す必要があるが,その実現は今後の課題である.}.機械翻訳システムにおける重要な課題の一つは,テキスト解釈の曖昧性を解消し妥当な解釈を一意に決定することである.曖昧性解消へのアプローチには,言語知識を絶対的な基準(制約)とみなす立場と,相対的な比較基準(選好)とみなす立場がある\cite{Nagao92}.前者では,ある解釈を受理するか棄却するかの判断は,その解釈と他の解釈を比較せずに行なわれる.これに対して後者では,ある解釈の選択は他の解釈との比較に基づいて行なわれる\cite{Wilks78,Tsujii88b,Shimazu89,Hobbs90,Den96}.TWINTRANでは後者の立場から,各規則に優先度を付与し,それに基づいて解釈の候補に優劣を付け,候補の中から最も優先度の高い解釈を選択することによって曖昧性の解消を行なう.テキスト解析では,形態素解析規則から照応解析規則に至るまでいくつかの種類の規則が利用され,それぞれ異なる観点から一つの解釈の良さが評価される.このとき,ある種類の規則による解釈の良さと他の種類の規則による解釈の良さが競合する可能性があるため,各観点からの評価をどのように調整するかが重要となる.TWINTRANでは,構文,共起的意味,照応に関する各規則による優先度の重み付き総和が最も高い解釈をテキストの最良解釈とする(\ref{sec:analysis:integ:balance}\,節).以下,\ref{sec:analysis:dict}\,節ないし\ref{sec:generation}\,節で各処理過程について説明し,\ref{sec:experiment}\,節で翻訳品質評価実験の結果を示す.
V28N04-07
物質名や有機物名などの分野特有の用語(固有表現)を科学技術文献などのテキストから機械的に抽出する技術は,物質・有機物などが取り持つ関係性の抽出や検索などにおいて重要な基盤とされている.固有表現認識の手法は,人手による素性設計を必要としないニューラルネットワークの導入によって顕著に発展している\cite{lample-etal-2016-neural,ma-hovy-2016-end}が,従来の固有表現認識技術では抽出が困難な固有表現が存在し,専門分野における固有表現認識の精度改善と,情報検索・関係抽出などの応用のために解決が期待される.既存の固有表現認識手法で抽出が困難な固有表現の一つとして,複数の固有表現が並列関係にある表現が挙げられる.並列関係にある要素(並列句)は``and''や``or''などの等位接続詞によって連接されて並列構造を構成するが,並列句に共通して出現する接頭・接尾の要素はしばしば並列構造の外側に括り出される.例えば,``humanTandBlymphocytes''には``humanTlymphocyte''と``humanBlymphocyte''の二つの固有表現が並列関係にあり,それぞれの固有表現で共通して出現する``human''と``lymphocyte''が省略されている.このような固有表現は,生命科学分野の固有表現認識コーパスであるGENIAtermannotationで全体の3\%に含まれており,既存研究の評価実験では一つの固有表現(``humanTandBlymphocytes'')として扱うか,評価対象から除外されている.本研究では,並列構造及びその並列句に共有される隣接要素から構成される固有表現を,複合固有表現と呼ぶ\footnote{並列句に共有される隣接要素がない並列構造(例``[peripheralbloodmonocytes]and[Tcells]'')や並列構造それ自体が固有表現の一部になっている表現(例``signaltransducerandactivatoroftranscription'')を除く.}.例えば,上述の固有表現は名詞の並列構造(``TandB'')と並列句に共有される隣接要素(``human'',``lymphocyte'')から成り,これらの構成要素を連結することで``humanTandBlyphocytes''が表現されていると解釈できる.複合固有表現に内包される並列構造の範囲を同定し,並列句に共有される要素を特定することで,並列句とその共有要素によって表される個々の固有表現を復元することが可能であると考えられる.並列構造の範囲同定に関する多くの研究では,並列句が意味的・統語的に類似しているという特徴に着目しており,近年ニューラルネットワークの導入によって顕著に発展している.しかしながら,既存手法は分野に特化したコーパスを使用する教師あり学習による手法に基づいており,固有表現認識タスクへの応用を考慮すると固有表現と並列構造の両方のアノテーションにかかるコストが問題になる.本研究では,既存の固有表現認識器とのパイプライン処理が可能な,並列構造のアノテーションを用いない並列構造の範囲同定手法を提案する.また,複合固有表現に対して提案手法が同定した範囲から省略された要素を識別し,正規化する方法についても示す.提案手法では,近年自然言語処理タスクで広く利用されている事前学習された単語分散表現を用いて,等位接続詞前後の要素の対応関係を示すスコアを計算する.評価実験では,GENIATreebankにおける並列句の範囲同定のタスクにおいて,並列構造のアノテーションを用いない手法が教師ありの既存手法に近い再現率を得た.さらに,GENIAtermannotationを用いた固有表現認識のタスクにおいても,既存の固有表現認識手法の精度が改善されたことを示す.本研究の貢献は以下の三点である.\begin{itemize}\itemこれまで例外的に扱われてきた,複合固有表現に対応する抽出手法を提案した.\item事前学習された単語分散表現を用いて,並列構造の範囲のアノテーションデータを用いずに並列構造の範囲を同定する手法を開発した.\item提案手法が既存の並列構造解析の教師あり手法に近い性能を達成し,並列構造の範囲同定が固有表現認識に有用に働くことを示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-4ia6f1.pdf}\end{center}\caption{提案手法の概要図}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V20N05-04
自然言語処理のタスクにおいて帰納学習手法を用いる際,訓練データとテストデータは同じ領域のコーパスから得ていることが通常である.ただし実際には異なる領域である場合も存在する.そこである領域(ソース領域)の訓練データから学習された分類器を,別の領域(ターゲット領域)のテストデータに合うようにチューニングすることを領域適応という\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.}.本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)のタスクでの領域適応に対する手法を提案する.まず本論文における「領域」の定義について述べる.「領域」の正確な定義は困難であるが,本論文では現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{bccwj}におけるコーパスの「ジャンル」を「領域」としている.コーパスの「ジャンル」とは,概略,そのコーパスの基になった文書が属していた形態の分類であり,書籍,雑誌,新聞,白書,ブログ,ネット掲示板,教科書などがある.つまり本論文における「領域」とは,書籍,新聞,ブログ等のコーパスの種類を意味する.領域適応の手法はターゲット領域のラベル付きデータを利用するかしないかという観点で分類できる.利用する場合を教師付き手法,利用しない場合を教師なし手法と呼ぶ.教師付き手法については多くの研究がある\footnote{例えばDaum{\'e}の研究(Daum\'{e}2007)\nocite{daume0}はその簡易性と有効性から広く知られている.}.また能動学習\cite{settles2010active}や半教師あり学習\cite{chapelle2006semi}は,領域適応の問題に直接利用できるために,それらのアプローチをとる研究も多い.これらに対して教師なし手法の従来研究は少ない.教師なし手法は教師付き手法に比べパフォーマンスが悪いが,ラベル付けが必要ないという大きな長所がある.また領域適応は転移学習と呼ばれることからも明らかなように,ソース領域の知識(例えば,ラベル付きデータからの知識)をどのように利用するか(ターゲット領域に転移させるか)が解決の鍵であり,領域適応の手法はターゲット領域のラベル付きデータを利用しないことで,その効果が明確になる.このため教師なし手法を研究することで,領域適応の問題が明確になると考えている.この点から本論文では教師なし手法を試みる.\newpage本論文の特徴はWSDの領域適応の問題を以下の2点に分割したことである.\begin{enumerate}\item[(1)]領域間で語義の分布が異なる\item[(2)]領域の変化によりデータスパースネスが生じる\end{enumerate}領域適応の手法は上記2つの問題を同時に解決しているものが多いために,このような捉え方をしていないが,WSDの領域適応の場合,上記2つの問題を分けて考えた方が,何を解決しようとしているのかが明確になる.本論文では上記2点の問題に対して,ターゲット領域のラベル付きデータを必要としない各々の対策案を提示する.具体的に,(1)に対してはk~近傍法を補助的に利用し,(2)に対しては領域毎のトピックモデル\cite{blei}を利用する.実際の処理は,ターゲット領域から構築できるトピックモデルによって,ソース領域の訓練データとターゲット領域のテストデータにトピック素性を追加する.拡張された素性ベクトルからSVMを用いて語義識別を行うが,識別の信頼性が低いものにはk~近傍法の識別結果を用いる.上記の処理を本論文の提案手法とする.提案手法の大きな特徴は,トピックモデルをWSDに利用していることである.トピックモデルの構築には語義のラベル情報を必要としないために,領域適応の教師なし手法が実現される.トピックモデルをWSDに利用した従来の研究\cite{li,boyd1,boyd2}はいくつかあるため,それらとの差異を述べておく.まずトピックモデルをWSDに利用するにしても,その利用法は様々であり確立された有効な手法が存在するわけではなく,ここで利用した手法も1つの提案と見なせる.また従来のトピックモデルを利用したWSDの研究では,語義識別の精度改善が目的であり,領域適応の教師なし手法に利用することを意図していない.そのためトピックモデルを構築する際に,もとになるコーパスに何を使えば有効かは深くは議論されていない.しかし領域適応ではソース領域のコーパスを単純に利用すると,精度低下を起こす可能性もあるため,本論文ではソース領域のコーパスを利用せず,ターゲット領域のコーパスのみを用いてトピックモデルを構築するアプローチをとることを明確にしている.この点が大きな差異である.実験ではBCCWJコーパス\cite{bccwj}の2つ領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行った.単純にSVMを利用した手法と提案手法とをマクロ平均により比較した場合,OCをソースデータにして,PBをターゲットデータにした場合には有意水準0.05で,ソースデータとターゲットデータを逆にした場合には有意水準0.10で提案手法の有効性があることが分かった.
V14N03-13
近年,人間の感情を理解可能な機械(感性コンピュータ)に応用するための感情認識技術の研究が言語処理・音声処理・画像処理などの分野において進められている.感情のような人間の持つあいまいな情報をコンピュータで処理することは現段階では難しく,人間の感情モデルをどのように情報処理のモデルとして扱うかが感情認識研究の課題である.我々の研究グループでは,人間とロボットが感情表現豊かなコミュニケーションをとるために必要な感情インタフェース(AffectiveInterface)の実現を目指し,人間の発話内容・発話音声・顔表情からの感情認識の研究を行っている\cite{Ren},\cite{ees},\cite{ecorpus},\cite{Ren2}.感情は,人間の行動や発話を決定付ける役割を持つ.また,表\ref{tb:hatsuwa}に示すように,発話には,感情を相手に伝えようとするもの(感情表出発話)と,そうでないもの(通常発話)とに分類することができる.表の例のように,感情表出発話の場合,聞き手は話者が感情を生起しているように感じ取ることができ,話者も感情を伝えようという気持ちがある.一方,通常発話でも,感情を生起するような出来事(感情生起事象)を述べる場合には話者に感情が生起していることもある.\begin{table}[b]\begin{center}\caption{感情表出発話と通常発話の例}\begin{tabular}{|p{10.5cm}|c|}\hline「あの人が私を殴る.」,「私は面白くて笑う.」,「あの子供は空腹だ.」&通常発話\\\hline「あいつが私を殴りやがった.」,「面白いなぁ.」,「可哀想に,お腹を空かせているようだ.」&感情表出発話\\\hline\end{tabular}\label{tb:hatsuwa}\end{center}\end{table}感情推定手法の従来研究として,目良らが提案する情緒計算手法がある\cite{mera},\cite{mera2}.この手法において,ユーザが単語に対して好感度(単語の示す対象が好きか嫌いかを示す値)を与えておき,情緒計算式に代入することにより快か不快かを決定する.さらに,得られた結果と文末様相などを感情生起ルールに当てはめることで,20種類の感情を判定する.この手法では,直接的な感情表現(感情表出発話)よりも,文が示す事象の望ましさに着目しており,感情表現を含まないような感情生起事象文に対応できるという利点がある.我々の提案する手法は,感情表出発話文と感情生起事象文の両方からの感情推定を目標とする.具体的には,感情表出発話文の文型パターンとの照合を行い,感情を表現する語・イディオムの辞書を用いて,文中の単語に含まれている感情の種類を与える.感情の強度は,修飾語や文末表現(モダリティ)などで変化させる.結果として,発話テキストから複数の感情とその強度が得られる.これにより,単語が表す感情と文単位で表現する感情の2つの面から感情推定が行える.本稿では,感情生起事象文型パターンと感情語に基づく感情推定手法を提案し,その評価用プロトタイプシステムを構築する.そして,システムを用いて会話文の感情推定実験を行い,人間による感情判断との比較に基づく評価と,その評価結果について考察を行う.
V04N03-05
最近の文書作成はほとんどの場合,日本語ワードプロセッサ(ワープロ)を用いて行われている.これに伴い,ワープロ文書中に含まれる誤りを自動的に検出するシステムの研究が行われている~\cite{FukushimaAndOtakeAndOyamaAndShuto1986,Kuga1986,IkeharaAndYasudaAndShimazakiAndTakagi1987,SuzukiAndTakeda1989,OharaAndTakagiAndHayashiAndTakeishi1991,IkeharaAndOharaAndTakagi1993}.ワープロの入力方法としては一般にかな漢字変換が用いられている.このため,ワープロによって作成された文書中には変換ミスに起因する同音異義語誤りが生じやすい.同音異義語誤りは,所望の単語と同じ読みを持つ別表記の単語へと誤って変換してしまう誤りである.従って,同音異義語誤りを自動的に検出する手法を確立することは,文書の誤り検出/訂正作業を支援するシステムにおいて重要な課題の1つとなっている.同音異義語誤りを避けたり,同音異義語誤りを検出するために種々の方法が提案されている~\cite{FukushimaAndOtakeAndOyamaAndShuto1986,MakinoAndKizawa1981,Nakano1982,OshimaAndAbeAndYuuraAndTakeichi1986,SuzukiAndTakeda1989,TanakaAndMizutaniAndYoshida1984a,TanakaAndYoshida1987}.われわれは,日本文推敲支援システムREVISE~\cite{OharaAndTakagiAndHayashiAndTakeishi1991}において,意味的制約に基づく複合語同音異義語誤りの検出/訂正支援手法を採用している~\cite{Oku1994,Oku1996}.この手法の基本的な考え方は,「複合語を構成する単語はその隣に来うる単語(隣接単語)を意味的に制約する」というものである(3章参照).しかしながら,この手法においても以下のような問題点があった;\begin{description}\item{(1)}同音異義語ごとに前方/後方隣接単語に対する意味的制約を,誤り検出知識及び訂正支援のための知識として収集しなければならない.しかし,このような意味的制約を人手を介さずに自動的に収集することは困難である.\item{(2)}検出すべき同音異義語誤りを変更すると,意味的制約を記述した辞書を新たに構築する必要が生じる.\end{description}これらの問題点を解決するためには,誤り検出知識として収集が容易な情報を使用する必要がある.この条件に合致する情報の1つとして文書中の文字連鎖がある.文字連鎖の情報は既存の文書から容易に収集することができる.3文字連鎖を用いてかな漢字変換の誤りを減らす手法については~\cite{TochinaiAndItoAndSuzuki1986}が報告されているが,この手法は漢字をすべて1つのキャラクタとして扱っているため,複合語に含まれる同音異義語誤りを検出することができない.また,文字の2重マルコフ連鎖確率を用いて日本文の誤りを検出し,その訂正を支援する手法が提案されている~\cite{ArakiAndIkeharaAndTsukahara1993}.この手法は,「漢字仮名混じり文節中に誤字または誤挿入の文字列が存在するときは,m重マルコフ連鎖確率が一定区間だけ連続してあるしきい値以下の値を取る」という仮説に基づいて誤字,脱字及び誤挿入文字列の誤り種別及び位置を検出するものである.同音異義語誤りは単語単位の誤字と捉えることができるが,この手法が同音異義語誤りに対して有効であるか否かについては報告されていない.一方,日本文推敲支援システムREVISEは,ルールに基づく形態素解析を基本にしたシステムであり,その中に誤り検出知識として収集が容易な統計的な情報を導入した誤り検出手法を確立することも重要な課題である.そこで,本論文では,収集が容易な統計的な誤り検出知識として文字連鎖に焦点をあて,文字連鎖を用いた複合語同音異義語誤りの検出手法について述べる.さらに,その有効性を検証するために行った評価実験の結果についても述べる.以下,2章において本論文で用いる用語の定義を行い,3章において日本文推敲支援システムREVISEにおける誤り検出の流れと,意味的制約に基づく複合語同音異義語誤りの検出手法の概要及びその問題点について述べる.4章では,3章で述べる問題点を解決するために,文字連鎖を用いて複合語に含まれる同音異義語誤りを検出する手法を提案する.5章では,本手法の有効性を評価するために行った同音異義語誤り検定の評価実験について述べ,意味的制約を用いた同音異義語誤り検出/訂正支援手法との比較を含めた考察を加える.
V24N02-04
近年Twitter等を代表とするマイクロブログが普及し,個人によって書かれたテキストを対象とした評判分析や要望抽出,興味推定に基づく情報提供など個人単位のマーケティングのニーズが高まっている.一方このようなマイクロブログ上のテキストでは口語調や小文字化,長音化,ひらがな化,カタカナ化など新聞等で用いられる標準的な表記から逸脱した崩れた表記(以下崩れ表記と呼ぶ)が多く出現し,新聞等の標準的な日本語に比べ形態素解析誤りが増加する.これらの崩れ表記に対し,辞書に存在する語にマッピングできるように入力表記を正規化して解析を行うという表記正規化の概念に基づく解析が複数提案され,有効性が確認されている\cite{Han2011,Han2012,liu2012}.日本語における表記正規化と形態素解析手法としては,大きく(1)ルールにもとづいて入力文字列の正規化候補を列挙しながら辞書引きを行う方法\cite{sasano-kurohashi-okumura2013IJCNLP,oka:2013,katsuki:2011},(2)あらかじめ定めた崩れ表記に対し,適切な重みを推定するモデルを定義し,そのモデルを用いて解析を行う方法(KajiandKitsuregawa2014;工藤,市川,Talbot,賀沢2012)が存在する.\nocite{kaji-kitsuregawa:2014:EMNLP2014,kudo:2012}(1)では事前に定めた文字列レベルの正規化パタンに基づいて崩れた文字列に対し正規文字列を展開しながら解析するシンプルな方法が提案されている.(2)においては鍜治ら\cite{kaji-kitsuregawa:2014:EMNLP2014}は形態素正解データから識別モデルを学習し,崩れ表記を精度よく解析する方法を提案した.工藤ら\cite{kudo:2012}は崩れ表記の中でもひらがな化された語に着目し,教師なしでひらがな語の生成確率を求める手法を提案した.(1),(2)いずれの手法においても,崩れ表記からの正規表記列挙に関しては人手によるルールやひらがな化などの自明な変換を用いているが,実際にWeb上で発生する崩れ表記は多様でありこれらの多様な候補も考慮するためには実際の崩れ表記を収集したデータを用いて正規化形態素解析に導入することが有効と考えられる.本研究では,基本的には従来法\cite{katsuki:2011,oka:2013}と同様の文字列正規化パタン(「ぅ→う」)等を用いて辞書引きを拡張するという考え方を用いるが,文字列正規化パタンを人手で作成するのではなく,正規表記と崩れ表記のアノテーションデータから自動的に推定される文字列アライメントから統計的に求める.また,文字列正規化パタンと,ひらがな化・カタカナ化などの異文字種展開を組み合わせることによって正規化の再現率を向上させる.さらに,今回の手法では可能性のある多数の正規化文字列を列挙するため,不要な候補も多く生成される.これらの不要な候補が解析結果に悪影響を及ぼさないようにするため,識別学習を用いて文字列正規化素性や文字種正規化素性,正規語言語モデルなどの多様な素性を考慮することにより,崩れ表記の正規化解析における再現率と精度の双方の向上を試みる.本研究の対象範囲は,音的な類似という点で特定のパタンが存在すると考えられる口語調の崩れ表記や,異表記(小文字化,同音異表記,ひらがな化,カタカナ化)とした.これらを対象とした理由は,\cite{saito-EtAl:2014:Coling,kaji-kitsuregawa:2014:EMNLP2014}などでも示されているように,音的な類似性のある崩れ表記が全体の中で占める割合が大きいとともに今回の提案手法で統一的に表現できる現象であったためである.
V21N02-08
述語項構造は,文章内に存在する述語と,その述語が表現する概念の構成要素となる複数の項との間の構造である.例えば次の文,\enumsentence{[太郎]は[手紙]を\underline{書い}た.}では,述語「書く」に対して,「太郎」と「手紙」がこの述語の項であるとされる.また,述語が表現する「書く」という概念の上でそれぞれの項の役割は区別される.役割を表すためのラベルは用途に応じて様々であるが,例えば,ここでの「太郎」には「ガ格」「動作主」「書き手」などのラベル,「手紙」には「ヲ格」「主題」「書かれる物」などのラベルが与えられる.このように,述語に関わる構成要素を構造的に整理する事によって,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解にとって重要な情報を抽出することができる.このため,述語項構造の解析は,機械翻訳,情報抽出,言い換え,含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている\cite{shen2007using,liu2010semantic}.述語項構造解析においても,近年,形態素解析や構文解析などで行われている方法と同様に,人手で作成した正解解析例をもとに統計的学習手法によって解析モデルを作成する方法が主流となっている\cite{marquez2008srl}.述語項構造を付与したコーパスとしては,日本語を対象にしたものでは,京都大学テキストコーパス(KTC)\cite{KUROHASHISadao:1997-06-24}の一部に付けられた格情報\cite{kawahara2002construction,河原大輔2002関係}やNAISTテキストコーパス(NTC)\cite{iida2007annotating,飯田龍2010述語項構造},GDAコーパス\cite{hashida05},解析済みブログコーパス(KyotoUniversityandNTTBlogCorpus:KNBC)\cite{橋本力2009},NTCの基準に従ってBCCWJコーパス(国立国語研究所)\nocite{bccwj}に述語項構造情報を付与したデータ(BCCWJ-PAS)\cite{komachi2011}などがあり,英語を対象にしたものでは,PropBank~\cite{palmer2005pba},FrameNet~\cite{Johnson2003},NomBank~\cite{meyers2004nombank},OntoNotes~\cite{hovy2006ontonotes}などが主要なコーパスとして挙げられる.過去十年間の述語項構造解析技術の開発は,まさにこれらのデータによって支えられてきたといって過言ではない.しかしながら,日本語の述語項構造コーパスは,その設計において未だ改善の余地を残す状況にあると言える.第一に,比較的高品質な述語項構造がアノテートされた英語のコーパスに比べて,日本語を対象とした述語項構造のアノテーションは,省略や格交替,二重主語構文などの現象の取り扱いのほか,対象述語に対してアノテートすべき項を列挙した格フレームと呼ばれる情報の不足などにより,作業者間のアノテーション作業の一致率に関して満足のいく結果が得られていない.例えば,現在ほとんどの研究で開発・評価に利用されているNTCに関して,飯田らは,作業者間一致率や作業結果の定性的な分析を踏まえれば,アノテーションガイドラインに少なからず改善の余地があるとしている\cite{飯田龍2010述語項構造}.また,我々は,述語項構造アノテーションの経験のない日本語母語話者一名を新たに作業者とし,KTC,NTCのアノテーションガイドラインを熟読の上で新たな日本語記事に対して述語項構造アノテーションを行ったが,KTC,NTCのどちらのガイドラインにおいても付与する位置やラベルを一意に決めることの出来ないケースが散見された.述語項構造のようにその他応用解析の基盤となる構造情報については,これに求められる一貫性の要求も高い.したがって,今後,述語項構造の分析や解析器の開発が高水準になるにつれて,既存のコーパスを対象とした学習・分析では十分な結果が得られなくなる可能性がある.そのような問題を防ぐためには,現状のアノテーションガイドラインにおいて判断の揺れとなる原因を洗い出し,ガイドラインを改善しつつ,アノテーションの一貫性を高めることで,学習・分析データとしての妥当性を高い水準で確保していく必要がある.第二に,より質の高いアノテーションを目指してガイドラインを改善することを考えた場合,それぞれの基準をどういった観点で採用したかが明確に見てとれるような,論理的で一貫したガイドラインが必要となるが,KTC,NTCなどの既存のアノテーションガイドライン\cite{ntcguideline,ktcguideline}や関連論文\cite{kawahara2002construction,河原大輔2002関係,iida2007annotating,飯田龍2010述語項構造}を参照しても,個々の判断基準の根拠が必ずしも明確には書かれていない.典型的に,アノテーションガイドラインの策定時に議論される内容はコーパス作成者の中で閉じた情報となることが多く,その方法論や根拠が明示的に示された論文は少ない.このため,付与すべき内容の詳細をどのように考えるかという,アノテーションそのものの研究が発展する機会が失われているという現状がある.また,KNBCやBCCWJ-PASのように既存のガイドラインに追従して作られるコーパスの場合,新規ドメインに合わせるなど一部仕様が再考されるものの,アノテーションの研究は一度おおまかにその方向性が決まってしまうと,再考するための情報の不足もあり,本質的に考えなければならない点が据え置かれ,さらに詳細が議論されることは稀である\footnote{公開されているガイドラインを確認する限りでは,KNBC作成時には格関係に関するガイドラインは再考されていない.BCCWJ-PASの仕様は,機能語相当表現の判別に辞書を用いる点と,ラベル付与の際に既存の格フレームを参照する点をのぞいて,NTCの仕様とおよそ同等である.}.そこで,本研究では,この二つの問題を解消するために,既存のコーパスのガイドラインにおける相違点や曖昧性の残る部分を洗い出し,どのような部分に,どのような理由で基準を設けなければならないかを議論し,その着眼点を明示的に示すことを試みた.具体的には,(i)既存のガイドラインに従って新たな文章群へあらためてアノテーションを行った結果に基づいて議論を行い,論点を整理したほか,(ii)新規アノテーションの作業者,既存の述語項構造コーパスの開発者,また既存の仕様に問題意識を持つ研究者を集め,それぞれの研究者・作業者が経験的に理解している知見を集約した.(iii)これらをふまえ,述語項構造に関するアノテーションをどう改善するべきか,どの点を吟味すべきかという各論とともに,アノテーション仕様を決める際の着眼点としてどのようなことを考えるべきかという議論も行った.本論文ではこれらの内容について,それぞれ報告する.次節以降では,まず,\ref{sec:related_work}~節で述語項構造アノテーションに関する先行研究を概観し,\ref{sec:ntc}節で今回特に比較対象としたNAISTテキストコーパスの述語項構造に関するアノテーションガイドラインを紹介する.\ref{sec:how-to-discuss}節で研究者・作業者が集まった際の人手分析の方法を説明し,\ref{sec:individual}~節で分析した事例を種類ごとに紹介する.さらに,\ref{sec:framework}~節で,述語項構造アノテーションを通じて考察した,アノテーションガイドライン策定時に考慮される設計の基本方針について報告し,\ref{sec:individual}~節で議論する内容との対応関係を示す.最後に\ref{sec:conclusion}~節でまとめと今後の課題を述べる.以降,本論文で用いる用語の意味を以下のように定義する.\begin{itemize}\itemアノテーション仕様:どのような対象に,どのような場合に,どのような情報を付与するかについての詳細な取り決め.\itemアノテーションスキーマ:アノテーションに利用するラベルセット,ラベルの属性値,及びラベル間の構造を規定した体系.アノテーション仕様の一部.\itemアノテーションフレームワーク:アノテーションにおいて管理される文章やデータベースの全体像,及びアノテーション全体をどのように管理するか,どのような手順で作業を行うかなどの運用上の取り決め.\itemアノテーションガイドライン:作業の手順や具体的なアノテーション例などを含み,実際のアノテーションの際に仕様の意図に従ったアノテーションをどのようにして実現するかを細かく指示する指南書.\itemアノテーション方式:特定のコーパスで採用される仕様,スキーマ,フレームワークのいずれか,もしくはその全体.\itemアノテーション基準:あるラベルやその属性値を付与,あるいは選択する際の判断基準.\itemアノテーション規則:アノテーション基準を守るべき規則として仕様やガイドラインの中に定めたもの.\end{itemize}
V27N03-04
近年,自然言語処理の多くのタスクにおいて,ニューラルネットワークが活用されている.機械翻訳の分野においてもその有効性が示されており,その中でも,Transformer\cite{transformer}というモデルがリカレントニューラルネットワーク(RNN)を用いたモデルや畳み込みニューラルネットワーク(CNN)を用いたモデルの翻訳性能を上回り,注目を浴びている.これまでに,統計的機械翻訳やニューラル機械翻訳では原言語や目的言語の文構造を考慮することで翻訳性能が改善されており\cite{pathbased_smt,sdrnmt,rnng_nmt},TransformerNMTにおいても文構造の有用性が示されている\cite{dep2dep}.そこで本研究では,Transformerモデルで係り受け構造を考慮することで翻訳性能の改善を試みる.Transformerの特徴の一つであるself-attentionは文内における単語間の関連の強さを考慮することができ,機械翻訳のみならず,言語モデルの獲得や意味役割付与など,様々なタスクにおいて精度の向上に寄与してきた.Strubellらは意味役割付与の性能を向上させるため,Transformerエンコーダのself-attentionで文の係り受け構造を捉える,linguistically-informedself-attention(LISA)と呼ばれるモデルを提案している\cite{lisa}.LISAでは,multi-headself-attentionのうちの1つのヘッドを,各単語が係り先の単語を指すように,係り受け関係に基づいた制約を与えて学習させている.本研究は,Transformerエンコーダとデコーダのself-attentionで,それぞれ,原言語の文と目的言語の文の係り受け構造を捉えるTransformerNMTモデルを提案する.以降,この係り受け関係を捉えるself-attentionをdependency-basedself-attentionと呼ぶ.具体的には,NMTモデルの訓練時に,エンコーダとデコーダのself-attentionの一部を,各単語が係り先の単語を指すように,原言語の文や目的言語の文の係り受け関係に基づいた制約を与えて学習させる.そして,推論時には制約を与えて学習したself-attentionが文の係り受け関係を捉えながら翻訳する.ただし,推論時には目的言語文が明らかでないため,LISAの手法を直接TransformerNMTモデルのデコーダに適用することはできない.そこで,提案のdependency-basedself-attentionでは,まだ予測していない単語に対してアテンションを向けないように,デコーダ側のself-attentionを学習する際は,自身の単語より後方に係る係り受け関係にマスクをかけた制約を用いる.また,近年のニューラル機械翻訳モデルの多くは,文を単語列ではなくサブワード列として扱うことで低頻度語の翻訳に対応している\cite{subword}.そこで,本研究では,dependency-basedself-attentionをbytepairencoding(BPE)などによるサブワード列に対しても適用できるように拡張する.AsianScientificPaperExcerptCorpus\(ASPEC)\データ\\cite{aspec}を用いた日英・英日翻訳の評価実験において,提案のTransformerモデルと従来の係り受け構造を考慮しないTransformerモデルを比較し,dependency-basedself-attentionを組み込むことでBLEUがそれぞれ1.04ポイント・0.30ポイント向上することを確認した.また,実験では,原言語側のdependency-basedself-attentionと目的言語側のdependency-basedself-attentionのそれぞれの有効性とBPEに拡張したときの有効性も確認した.本稿の構成は以下の通りである.まず2章で提案手法が前提とするTransformerモデルについて説明したのち,3章で提案手法であるdependency-basedself-attentionを示す.4章で提案手法を組み込んだモデルの翻訳性能を評価することで手法の有効性を示す.5章で提案手法の拡張であるsubworddependency-basedself-attentionの有効性,提案手法のdependency-basedself-attentionが捉える係り受け構造,従来モデルと提案モデルの翻訳文の違い,提案モデルの設定に関する比較実験をそれぞれ示す.6章で関連研究の文構造を考慮したニューラル機械翻訳モデルについて議論し,7章で本稿のまとめとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V09N05-05
本研究の目的は自然言語の意味理解に必要な連想システムの開発である.例えば,“冷蔵庫に辞書がある”と人間が聞けば,冷蔵庫に辞書があることを奇妙に思い“本当ですか”と聞き返したり,誤りの可能性を考えることができるだろう.しかし,計算機ではこのような処理は困難である.これは,人間なら冷蔵庫と辞書には関係がないことを判断できたり,最初の冷蔵庫という語から辞書を連想することができないためである.このような語間の関係の強さを求める機能や,ある語に関係のある語を出力する機能を持った連想システムの開発が本研究の目的である.従来,連想ではシソーラスや共起情報などがよく用いられるが,シソーラスでは語の上位下位関係を基本とした体系しか扱えず,共起情報では人間の感覚とは異なる場合も多く十分ではない.本研究において,連想システムは語の意味と概念を定義する概念ベースおよび概念ベースを用いて語間の関連の強さを評価する関連度計算アルゴリズムで構成されている.最初の概念ベース(基本概念ベース)は複数の国語辞書から機械構築され,語は属性とその重みのペア集合により定義される.語は国語辞書の見出し語から,属性は説明文の自立語から,その重みは自立語の出現頻度をベースに決定されている\cite{Kasahara1997}.概念ベースは大規模であるため,一度に完成させることは困難であり,継続的に構築する必要がある.機械構築した概念ベースは,不適切な属性(雑音)が多く含まれ,自立語の出現頻度による重みでは,属性の意味的な重要性を正確に表現しているとは言えない.そこで,概念ベースの属性や重みの質を向上する精錬が必要となる.本稿では精錬方式として属性の確からしさ(属性信頼度)\cite{Kojima2001}を用いた重み決定方式を提案している.以下,2章では概念の定義と概念ベースについて述べる.3章では概念ベースの構築や評価に用いる関連度の定義について述べる.4章では属性信頼度を用いた概念ベースの精錬方式について述べる.5章では概念ベースの評価法について述べ,精錬後の概念ベースの評価結果について考察する.
V15N04-03
\label{hajimeni}近年,統計的言語処理技術の発展によりテキスト中の人名や地名,組織名といった固有表現(NamedEntity)を高精度で抽出できるようになってきた.これを更に進めて,「福田康夫(人名)」は「日本(地名)」の「首相(関係ラベル)」であるといった固有表現間の関係を抽出する研究が注目されている\cite{brin1998epa,agichtein2000ser,hasegawa2004dra,zelenko2003kmr}.固有表現間の関係が抽出できれば,テキストからRDF(ResourceDescriptionFramework)で表現される様な構造化データを構築することが可能となる.この構造化データを用いれば,例えば「大阪に本社がある会社の社長」といった「地名⇔組織名」と「組織名⇔人名」の関係を辿るような「推論」を行なうことができ,より複雑な情報検索,質問応答や要約に有益である.我々は,入力されたテキストから関係3つ組である[固有表現$_{1}$,固有表現$_{2}$,関係ラベル]を抽出する研究を進めている.例えば,「福田康夫氏は日本の首相です。」というテキストから[福田康夫,日本,首相]の関係3つ組を抽出する.この関係3つ組をテキストから抽出するには,(a)テキストにおける固有表現の組の意味的関係の有無を判定({\bf関係性判定})する技術と,(b)固有表現の組の関係ラベルを同定する技術が必要である.本論文では,(a)のテキスト内で共起する固有表現の組が,そのテキストの文脈において意味的な関係を有するか否かを判定する手法を提案する.ここでは,英語での関係抽出の研究であるACE\footnote{http://projects.ldc.upenn.edu/ace}のRelationDetectionandCharacterizationの指針に準じて,固有表現間の意味的関係について以下のように定義する.\vspace{1\baselineskip}\begin{itemize}\item次の2種類の単位文,(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』もしくは(2)『固有表現$_{1}$の〜は固有表現$_{2}$だ』で表現しうる関係が,テキストにおいて言及,または含意されている場合,単位文の要素となる二つの固有表現は意味的関係を有する.\end{itemize}\vspace{1\baselineskip}ここで,単位文(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』においては,格助詞を「が」「を」に固定しているわけでなく,任意の格助詞,『固有表現$_{1}$が固有表現$_{2}$で〜する』や『固有表現$_{1}$を固有表現$_{2}$に〜する』,でも良い.意味的関係を有する固有表現の組について例を示す.例えば「温家宝首相は人民大会堂で日本の福田康夫首相と会談した。」というテキストでは,『温家宝が福田康夫と会談した』,『温家宝が人民大会堂で会談した』,『福田康夫が人民大会堂で会談した』,『日本の首相は福田康夫だ』が言及されているため,「温家宝⇔福田康夫」,「温家宝⇔人民大会堂」,「福田康夫⇔人民大会堂」,「日本⇔福田康夫」の組が意味的関係を有する.また,「山田さんが横浜を歩いていると,鈴木さんと遭遇した。」というテキストでは,『山田が横浜を歩いていた』,『山田が鈴木と遭遇した』が言及されており,また『鈴木が横浜にいた』が含意されているため,「山田⇔横浜」,「山田⇔鈴木」,「鈴木⇔横浜」の組が意味的関係を有する.固有表現間の関係性判定の従来研究は,単語や品詞,係り受けなどの素性を用いた機械学習の研究が多い\cite{culotta2004dtk,kambhatla2004cls,zelenko2003kmr}.例えば,\citeA{kambhatla2004cls}らの研究では,与えられた二つの固有表現の関係の有無を判断するのに,係り受け木における二つの固有表現の最短パスと,二つの固有表現の間の単語とその品詞を素性として利用した手法を提案している.特に,係り受け木における二つの固有表現の最短パスを素性として利用することが,固有表現間の関係性判定に有効であることを報告している.しかし,{\ref{method}}で後述するように,実データ中に存在する意味的関係を有する固有表現の組のうち,異なる文に出現する固有表現の組は全体の約43.6\%を占めるにも関わらず,従来手法では,係り受けなどの文に閉じた素性だけを用いている.この文に閉じた素性は,異なる文に出現する固有表現間の組には利用できず,従来手法では,二つの固有表現の間の単語とその品詞だけを素性として利用するため,適切に意味的関係の有無を判別することができない.本論文では,係り受けなどの文に閉じた素性だけでなく,文脈的情報などの複数の文をまたぐ素性を導入した機械学習に基づく関係性判定手法を提案し,その有効性について議論する.
V23N05-02
日英間や日中間のような,文法構造の大きく異なる言語間における特許文書を対象とした統計的機械翻訳の精度は,利用可能な特許対訳コーパスのデータ量の増加に加え,構文解析にもとづく単語並べ替え技術(Isozaki,Sudoh,Tsukada,andDuh2010b;deGispert,Iglesias,andByrne2015)の進展によって大きく向上した(Goto,Utiyama,Sumita,andKurohashi2015).しかし特許明細書中の請求項文は,特に重要性が高いにもかかわらず,明細書中の他の文と比較しても依然として翻訳が困難である.特許請求項文は,以下の2つの特徴を持つサブ言語(Buchmann,Warwick,andShann1984;Luckhardt1991)と考えることができる.1つ目の特徴は,非常に長い単一文で構成されることであり,2つ目の特徴は,対象言語に依存しない部品のセットから構成されるということである.特許請求項翻訳の困難さは,まさにこれらの2つの特徴に根差している.1つ目の特徴である特許請求項文の長さによって,事前並べ替え等で用いられる構文解析器が解析誤りを生じる可能性が高くなり,ひいては事前並べ替えの精度が下がる.2つ目の特徴であるサブ言語に特有の文構造は,特許明細書の他の部分で学習された統計的機械翻訳を用いるだけでは正確にとらえることができない.本稿では,特許請求項文に対する統計的機械翻訳の精度を向上させるための手法について述べる.なお以降の説明では,特許請求項を構成する要素を「構造部品」と呼ぶ.我々は,前述の特許請求項文の特徴に起因する問題を解決するためのモジュールを追加した統計的機械翻訳の枠組みを構築した.サブ言語に特有の文構造に基づく我々の手法は2つの狙いがある.(1)事前並べ替えおよび統計的機械翻訳処理を,入力文全体にではなく,文の構造部品を単位として実行する.この構成により事前並べ替えおよび機械翻訳への入力を実質的に短縮し,結果として翻訳精度を向上させる.(2)特許請求項文の文構造を明示的に捉えた上で翻訳を行うことにより構造的に自然な訳文を生成できるようにする.具体的には,言語非依存の構造部品を得るための同期文脈自由文法規則および正規表現を人手で構築し,これら構造部品を非終端記号とした同期文脈自由文法を用いることによって,原文の文構造を訳文の文構造に反映させる.我々は,英日・日英・中日・日中の4言語対の翻訳について上記提案手法を適用し,その効果を定量的に評価した.提案手法を事前並べ替えと併用した場合に,英日・日英・中日・日中の4言語方向すべての翻訳実験において翻訳品質がRIBES値(Isozaki,Hirao,Duh,Sudoh,andTsukada2010a)で25ポイント以上向上した.これに加えて,英日・日英翻訳ではBLEU値が5ポイント程度,中日・日中翻訳では1.5ポイント程度向上した.英中日3言語の請求項文構造を記述するための共通の構造部品は5種類のみであり,これら構造部品を単位として記述した英日・日英・中日・日中の4言語方向の同期文脈自由文法の規則はそれぞれ10個以内である.非常に少ない数で,この翻訳精度改善を実現することができた.
V16N01-05
\label{sec:intro}単語オントロジーは自然言語処理の基礎データとして様々な知識処理技術に利用されており,その重要性は年々高まっている.現在広く知られている日本語オントロジーとしては,例えば日本語語彙大系\cite{goitaikeij}等が挙げられる.日本語語彙大系は人手により編集された大規模オントロジーであり,約3,000の意味カテゴリーを木構造状に分類し,約40万語を各意味カテゴリーに割当てている.しかしながら,これらは翻訳への適用を主な目的として作成されており,利用目的によっては必ずしも適切な分類とはならない.言い換えれば,オントロジーは利用目的に応じて異なるものが求められるのである.ところが,オントロジーの作成には膨大な労力が必要であり,また,言葉が日々進化するものであることを考えると,特定目的に応じたオントロジー作成を人手で行うことは現実的に不可能である.従って,オントロジーの生成は自動化されることが望まれる.そこで本論文ではオントロジー自動生成手法の検討を行う.技術的検討を行う上では特定目的のオントロジー生成よりも,むしろ一般のオントロジーを取り扱う方が検証を行いやすい.従って,本論文ではオントロジー自動生成の第一歩として,日本語語彙大系のような一般的なオントロジーの自動生成を目的とし,検討を進めることとする.オントロジーは単語の意味的関連性を表すものであり,この点からみると,基礎となるデータは共起情報を与えるコーパスよりも単語の意味を直接定義している辞書(国語辞典)の方が適していると考えられる.辞書を用いた関連性抽出の例を挙げると,例えば,鶴丸らは辞書の定義文のパターン抽出により上位語の同定が可能であることを示している\cite{tsurumaru1991}.また,オントロジーの自動獲得の試みも行われており,例えばNicholsらは定義文中に上位語が含まれているという仮定の下での単語階層化手法を提案している\cite{Nichols:Bond:2005}.上記の手法は,定義文を構文解析し,その主辞を上位語とするものであるが,必ずしも定義文の主辞が上位語であるとは限らないため,決定論的に上位語を決めてしまうとオントロジー生成時に矛盾を引き起こすことになる.従って,決定論的に上位語を決めるのではなく,順位づけられた上位語候補を取り出すことが望まれる.しかしながら,辞書の短い定義文からこれを行うことは難しい.一方で,上位語を抽出する方法として,コーパスから''is-a''構造等を取り出すという方法がある.この方法は統計量が大きければ信頼性の高い情報が得られる一方,基本的な単語が網羅される保証はなく,単語の偏りが起こる可能性が高い.また,Snowらは''is-a''構造を持つデータを利用してオントロジーを構築する手法を提案しているが\cite{Snow06},この手法は既存のオントロジーに単語を追加する手法としては有効であるが,オントロジーの骨格をゼロから作り上げることには向いていない.このように,上位語抽出とオントロジー構築にはそれぞれの課題があり,オントロジーを生成するためには,上位語の抽出方法と上位語候補を用いたオントロジー生成手法とを分けて考えるべきであり,まず適切な上位語情報を抽出することが重要である.以上の点から,本論文では,順位付け可能な上位語情報を取り出し,その情報を利用した最適化学習によりオントロジーを生成することを目指す.ところで,鈴木は辞書の定義文を再帰的に展開することでカバー率の非常に大きい単語類似度計算手法を提案している\cite{Suzuki2,Suzuki3j}.この方法によると,辞書の定義文を仮想的に巨大な単語集合と見なすことができ,各単語の出現頻度は確率として与えられるため,上位語候補の不足を解決できる可能性がある.そこで本論文では上位語情報の抽出を主な目的とし,辞書の定義文を巨大な単語集合として再定義することにより上位語侯補を増やすという手法を試みる.提案手法では,定義文中に上位語が含まれるという前堤を保ちつつ,大きな単語集合の中から上位語候補を確率的指標を伴った形でリストアップする.即ち,辞書の定義文を基に,上位語の尤もらしさを数値として表す手法を提案する.更に,この上位語候補情報を利用したオントロジー自動生成も試みる.本論文に示す自動生成手法は簡易的なものであるが,前述の上位語候補情報の効果を確認するには非常に有効である.以下,確率モデルによる定義文の拡張方法を簡単に説明し,この手法により一般的な国語辞典から上位語候補が確率的指標と共に取り出せることを示す.また同時に,従来手法との比較も行い,その有効性を検証する.次に,この指標の利用例としてオントロジー自動生成手法を提案し,この手法に上記指標を適用した結果を示す.
V16N03-02
一般家庭にもPC,ブロードバンドが普及し,ユーザは手軽に情報を収集できるようになってきている.しかし一方では,情報が過度に溢れ過ぎ,利用者の要求に合った情報を探し出す必要性が高まっている.その中で要求に適合した情報のみを選出するのではなく,情報をランキング付けして提示することも重要となっている.ランキング付けは,検索要求と検索対象との間の類似性や関連性をもとに行われ,これらを定量化することが求められる.その際,従来の情報検索でよく用いられているベクトル空間モデル\cite{Salton:75}などでは文書における単語の出現頻度や統計情報などを利用して検索要求と文書間の類似性を判断し,文書を選別している.このような手法は検索要求と文書内の各単語の表記が一致しない場合は関連性がないとの仮定にもとづいている.しかし,実際の文書において,語の表記が同じでも異なる意味を有したり(多義性),同じ意味でも語の表記が異なる場合(表記揺れ,同類義語)がある.さらに単語間には,互いに意味的な関連性を持って存在しており,表記だけを頼りに検索を行う手法ではユーザが入力する語によって検索結果が異なってしまう.そのためユーザが適切なキーワードを考えなければならない.その問題を解消するために,ユーザが入力したキーワードの意味を捉えた検索手法が必要である.このような背景から,本研究では文書における意味を捉えた検索を実現すべく,単語の意味特徴を定義した概念ベース\cite{okumura:07}を用いた検索手法を提案する.概念ベースを用いることによって,単語の表記のみでの検索方式とは異なり,意味を捉えた検索が可能になる.つまり,ユーザの入力語の表記的揺らぎに影響されず,意味的近さを定量化できる手法である.具体的には,概念ベースによって単語間の意味的な関連性を0から1までの数値として算出する.そして,その値をもとに検索要求と検索対象との類似度を画像検索等の分野で注目されている距離尺度であるEarthMover'sDistance(EMD)\cite{Rubner:00}により求める方法を提案する.また,概念ベースに存在しない固有名詞や新語に対して,Webをもとに新概念として定義し概念ベースを自動的に拡張する手法を提案する.
V03N02-01
\label{haji}終助詞は,日本語の会話文において頻繁に用いられるが,新聞のような書き言葉の文には殆んど用いられない要素である.日本語文を構造的に見ると,終助詞は文の終りに位置し,その前にある全ての部分を従要素として支配し,その有り方を規定している.そして,例えば「学生だ」「学生だよ」「学生だね」という三つの文が伝える情報が直観的に全く異なることから分かるように,文の持つ情報に与える終助詞の影響は大きい.そのため,会話文を扱う自然言語処理システムの構築には,終助詞の機能の研究は不可欠である.そこで,本稿では,終助詞の機能について考える.\subsection{終助詞の「よ」「ね」「な」の用法}まずは,終助詞「よ」「ね」「な」の用法を把握しておく必要がある.終助詞「よ」「ね」については,\cite{kinsui93-3}で述べられている.それによると,まず,終助詞「よ」には以下の二つの用法がある.\begin{description}\item[教示用法]聞き手が知らないと思われる情報を聞き手に告げ知らせる用法\item[注意用法]聞き手は知っているとしても目下の状況に関与的であると気付いていないと思われる情報について,聞き手の注意を喚起する用法\end{description}\res{teach}の終助詞「よ」は教示用法,\rep{remind}のそれは注意用法である.\enumsentence{あ,ハンカチが落ちました{\dgよ}.}\label{teach}\enumsentence{お前は受験生だ{\dgよ}.テレビを消して,勉強しなさい.}\label{remind}以上が\cite{kinsui93-3}に述べられている終助詞「よ」の用法であるが,漫画の中で用いられている終助詞を含む文を集めて検討した結果,さらに,以下のような,聞き手を想定しない用法があった.\enumsentence{「あーあまた放浪だ{\dgよ}」\cite{themegami}一巻P.50}\label{hitori1}\enumsentence{「先輩もいい趣味してる{\dgよ}」\cite{themegami}一巻P.114}\label{hitori2}本稿ではこの用法を「{\dg独り言用法}」と呼び,終助詞「よ」には,「教示」「注意」「独り言」の三用法がある,とする.次に,終助詞「ね」について,\cite{kinsui93-3}には以下の三種類の用法が述べられている.\begin{description}\item[確認用法]話し手にとって不確かな情報を聞き手に確かめる用法\item[同意要求用法]話し手・聞き手ともに共有されていると目される情報について,聞き手に同意を求める用法\item[自己確認用法]話し手の発話が正しいかどうか自分で確かめていることを表す用法\end{description}\rep{confirm}の終助詞「ね」は確認用法,\rep{agree}Aのそれは同意要求用法,\rep{selfconfirm}Bのそれは自己確認用法である.\enumsentence{\label{confirm}\begin{tabular}[t]{ll}\multicolumn{2}{l}{(面接会場で)}\\面接官:&鈴木太郎君です{\dgね}.\\応募者:&はい,そうです.\end{tabular}}\enumsentence{\label{agree}\begin{tabular}[t]{ll}A:&今日はいい天気です{\dgね}.\\B:&ええ.\end{tabular}}\enumsentence{\label{selfconfirm}\begin{tabular}[t]{ll}A:&今何時ですか.\\B:&(腕時計を見ながら)ええと,3時です{\dgね}.\end{tabular}}以上が,\cite{kinsui93-3}で述べられている終助詞「ね」の用法であるが,本稿でもこれに従う.\rep{confirm},\rep{agree}A,\rep{selfconfirm}Bの終助詞の「ね」を「な」に代えてもほぼ同じような文意がとれるので,終助詞「な」は,終助詞「ね」と同じ三つの用法を持っている,と考える.ところで,発話には,聞き手を想定する発話と,聞き手を想定しない発話があるが,自己確認用法としての終助詞「ね」は主に聞き手を想定する発話で,自己確認用法としての終助詞「な」は主に聞き手を想定しない発話である.さらに,\res{megane}のような,終助詞「よ」と「ね/な」を組み合わせた「よね/よな」という形式があるが,これらにも,終助詞「ね」「な」と同様に,確認,同意要求,自己確認用法がある.\enumsentence{(眼鏡を探しながら)私,眼鏡ここに置いた{\dgよね}/{\dgよな}.}\label{megane}\subsection{従来の終助詞の機能の研究}さて,以上のような用法の一部を説明する,計算言語学的な終助詞の機能の研究は,過去に,人称的分析によるもの\cite{kawamori91,kamio90},談話管理理論によるもの\cite{kinsui93,kinsui93-3},Dialoguecoordinationの観点から捉えるもの\cite{katagiri93},の三種類が提案されている.以下に,これらを説明する.ところで,\cite{kawamori91}では終助詞の表す情報を「意味」と呼び,これに関する主張を「意味論」と呼んでいる.\cite{kinsui93,kinsui93-3}では,それぞれ,「(手続き)意味」「(手続き)意味論」と呼んでいる.\cite{katagiri93}では,終助詞はなにがしかの情報を表す「機能(function)」があるという言い方をしている.本論文では,\cite{katagiri93}と同様に,「意味」という言葉は用いずに,終助詞の「機能」を主張するという形を取る.ただし,\cite{kawamori91},\cite{kinsui93,kinsui93-3}の主張を引用する時は,原典に従い,「意味」「意味論」という言葉を用いることもある.\begin{flushleft}{\dg人称的分析による意味論}\cite{kawamori91,kamio90}\end{flushleft}この意味論では,終助詞「よ」「ね」の意味は,「従要素の内容について,終助詞『よ』は話し手は知っているが聞き手は知らなそうなことを表し,終助詞『ね』は話し手は知らないが聞き手は知っていそうなことを表す」となる.この意味論では,終助詞「よ」の三用法(教示,注意,独り言)のうち教示用法のみ,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち確認用法のみ説明できる.終助詞「よ」と「ね」の意味が同時に当てはまる「従要素の内容」はあり得ないので,「よね」という形式があることを説明出来ない.また,聞き手が終助詞の意味の中に存在するため,聞き手を想定しない終助詞「よ」「ね」の用法を説明できない.この二つの問題点(とその原因となる特徴)は,後で述べる\cite{katagiri93}の主張する終助詞の機能でも同様に存在する.\begin{flushleft}{\dg談話管理理論による意味論}\cite{kinsui93,kinsui93-3}\end{flushleft}この意味論では,「日本語会話文は,『命題+モダリティ』という形で分析され,この構造は『データ部+データ管理部』と読み替えることが出来る」,という前提の元に,以下のように主張している.終助詞は,データ管理部の要素で,当該データに対する話し手の心的データベース内における処理をモニターする機能を持っている.この意味論は,一応,前述した全用法を説明しているが,終助詞「よ」に関して,後に\ref{semyo}節で述べるような問題点がある.終助詞「ね」「な」に関しても,「終助詞『ね』と『な』の意味は同じ」と主張していて,これらの終助詞の性質の差を説明していない点が問題点である.\begin{flushleft}{\bfDialoguecoordination}{\dgの観点から捉えた終助詞の機能}\cite{katagiri93}\end{flushleft}\cite{katagiri93}では,以下のように主張している.終助詞「よ」「ね」は,話し手の聞き手に対する共有信念の形成の提案を表し,さらに,終助詞「よ」は話し手が従要素の内容を既に信念としてアクセプトしていることを,終助詞「ね」は話し手が従要素の内容をまだ信念としてアクセプトしていないことを,表す.これらの終助詞の機能は,終助詞「よ」の三用法(教示,注意,独り言)のうち独り言用法以外,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち,自己確認用法以外を説明できる.この終助詞の機能の問題点は,\cite{kawamori91,kamio90}の意味論の説明の終りで述べた通りである.\subsection{本論文で提案する終助詞の機能の概要}本論文では,日本語会話文の命題がデータ部に対応しモダリティがデータ管理部に対応するという\cite{kinsui93-3}の意味論と同様の枠組を用いて,以下のように終助詞の機能を提案する.ただし,文のデータ部の表すデータを,簡単に,「文のデータ」と呼ぶことにする.終助詞「よ」は,データ管理部の構成要素で,「文のデータは,発話直前に判断したことではなく,発話時より前から記憶にあった」という,文のデータの由来を表す.終助詞「ね」「な」も,データ管理部の構成要素で,発話時における話し手による,文のデータを長期的に保存するかどうか,するとしたらどう保存するかを検討する処理をモニターする.さて,本稿では,終助詞を含む文の,発話全体の表す情報と終助詞の表す情報を明確に区別する.つまり,終助詞を含む文によって伝えられる情報に,文のデータと話し手との関係があるが,それは,終助詞で表されるものと語用論的制約で表されるものに分けることができる.そこで,どこまでが終助詞で表されるものかを明確にする.ただし,本稿では,活用形が基本形(終止形)または過去形の語で終る平叙文を従要素とする用法の終助詞を対象とし,名詞や動詞のテ形に直接付加する終助詞については,扱わない(活用形の呼び方については\cite{katsuyou}に従っている).また,上向きイントネーションのような,特殊なイントネーションの文も扱わない.さらに,終助詞「な」は,辞書的には,命令の「な」,禁止の「な」,感動の「な」があるが,本稿では,これらはそれぞれ別な語と考え,感動の「な」だけ扱う.以下,本論文では,\ref{bconcept}節で,我々の提案する終助詞の機能を表現するための認知主体の記憶モデルを示し,これを用いて\ref{sem}節で終助詞の機能を提案し,終助詞の各用法を説明する.\ref{conclusion}節は結論である.
V02N01-02
我々が目標とするのは,日本語の複文の理解システムである.このようなシステムにおいては,{\bfゼロ代名詞}の照応の解析が重要な問題となり,例えば「ので」「から」などで接続された複文におけるゼロ代名詞照応の解析は,構文論,意味論,語用論の総合的な利用が要求される.文献\cite{中川:複文の意味論,COLING94}では,複文中に設定される意味および談話役割を用いた制約条件という形でこの問題を取り扱うことが提案されている.これは,ゼロ代名詞と対応する役割(動作主,経験者など)だけではなく,語用論的な役割(観察者など)の照応にも言及する制約であり,これによって,意味論および語用論を統合した形での複文の意味解析が可能である.ところで,意味役割や語用論的役割の照応解析の結果は,役割間での照応関係という形で得られるが(例えば,``観察者=動作主''など),実際にそれらの役割がどのような対象を指示するかは文脈情報を利用しないと決定できない場合が多い.つまり,各役割を変数とみなした場合,変数の値が決定されているわけではないが,別の変数との関係づけがなされている,という情報を解析の途中および結果として扱う必要がある.このような場合に用いられる方法論の一つとして,制約論理プログラミング\cite{橋田:情報の部分性}が考えられる.この場合,変数の間の関係(同値関係など)をその変数の持つ制約とみなすことにより,適用が可能である.そこで,著者らは,まず形態素解析システムJUMAN\cite{松本:NewJUMANmanual}および構文解析システムSAX\cite{松本:NewSAXmanual}を用い,その結果得られる素性構造に制約論理プログラミングの手法を用いて,ゼロ代名詞照応などを分析する理解システムを構築した.この理解システムでは,プログラム変換の手法を用いた制約変換システム\cite{森:否定情報の扱える制約システム}を利用している.このシステムで扱える文は,例えば「花子が暑がったので窓を開けた.」など,文献\cite{中川:複文の意味論,COLING94}で扱った複文の一部であり,日本語文全体からみてもその対象は非常に限定されるが,文献\cite{中川:複文の意味論,COLING94}で扱われている他の文,例えば「叱られたので,反省文を書かせた.」,「病気で苦しかったのに,会社を休めなかった.」などについても,本論文で述べる手法により,処理が可能である.また,他の種類の複文,例えば「傷が痛いのなら,病院に行く.」など従属節が条件節になるような複文に関しても,節間の制約を適切に記述できれば,本論文での手法の応用は可能である.なお,本システムに類する研究であるが,まず,本システムで参考としているような日本語文の構造をもとにし,LFG(語彙機能文法)の枠組を用いて記述したシステムが,文献\cite{水野:日本語の文の構造}に述べられている.これは,日本語文の発話構造を叙述部分と陳述部分に分けて階層化し,それをLFGによって記述するものである.この構造は本論文で参考としている日本語の階層構造(後で述べる)に類似したものであり,さらに,その枠組上で複文の構造的な特徴についても議論がなされている.しかし,その検討の対象が構文解析のレベルに限定されており,本論文によるシステムで扱っているような,意味役割や語用論的役割の照応解析といったレベルまでは扱っていない点が異なる.また,名詞や代名詞の照応解析を対象とした研究としては,例えば,文献\cite{清水:日本語談話の照応解決}で,視点や焦点といった語用論的概念を用いた議論が,解析システムの構築を前提としてなされている.しかし,第一文の解析結果を用いて,第二文以降に現れる名詞や代名詞の照応解析を行なう,という議論がなされており,本論文で扱うような,従属節と主節という構造が一文中に現れるような場合の,その一文中での照応関係の解析を行なう,というものではない.
V19N05-02
日本語学習者の作文の誤り訂正は,教育の一環としてだけでなく,近年はビジネス上の必要性も生じてきている.たとえば,オフショア開発(システム開発の外国への外部発注)では,中国,インドなどへの発注が増加している.外国に発注する場合,日本との意思疎通は英語または日本語で行われるが,日本語学習者の多い中国北部では,日本語が使われることも多い.しかし,中国語を母語とするものにとって日本語は外国語であり,メールなどの作文には誤りを含み,意思疎通に問題となるため,それらを自動検出・訂正する技術が望まれている\shortcite{Ohki:ParticleError2011j,Suenaga:ErrorCorrection2012j}.そこで本稿では,日本語学習者作文の誤り自動訂正法を提案する.外国人にとって,助詞はもっとも誤りやすい語であるため,本稿では助詞の用法を訂正対象とする.日本語の助詞誤り訂正タスクは,英語では前置詞誤りの訂正に相当する.英語の前置詞・冠詞誤りの訂正では,分類器を用いて適切な前置詞を選択するアプローチが多い\shortcite{gamon:2010:NAACLHLT,HAN10.821,rozovskaya-roth:2011:ACL-HLT2011}.これらは,誤りの種別を限定することにより,分類器による訂正を可能としている.一方,\shortciteA{mizumoto-EtAl:2011:IJCNLP-2011}は,日本語学習者の誤りの種別を限定せず,翻訳器を利用した誤り訂正を行った.この方法は,誤りを含む学習者作文を正しい文に変換することにより,あらゆる種類の誤りを訂正することを狙ったものである.本稿の訂正対象は助詞誤りであるが,今後の拡張性を考慮して,翻訳器と同様な機能を持つ識別的系列変換\shortcite{Imamura:MorphTrans2011}をベースとした誤り訂正を行う.翻訳の考え方を使った場合,モデル学習のために,誤りを含む学習者作文とそれを訂正した修正文のペア(以下,単にペア文とも呼ぶ)が大量に必要である.しかし,実際の学習者作文を大規模に収集し,さらに母語話者が修正するのはコストが高く難しい場合が多い.この問題に対し,本稿では以下の2つの提案を行う.\begin{enumerate}\item日本語平文コーパスの利用(言語モデル確率と二値素性の混在)学習者作文・修正文ペアのうち,修正文側は正しい日本語であるため,既存の日本語平文コーパスなどから容易に入手可能である.そこで,比較的大規模な日本語平文コーパスを日本語修正文とみなして,変換器のモデルとして組み込む.組み込む際には,日本語平文コーパスは言語モデル確率の算出に利用し,学習者作文・日本語修正文ペアから獲得した二値素性と共に,識別モデルの枠組みで全体最適化を行う.学習者作文・修正文ペアに出現しないものであっても,言語モデル確率によって日本語の正しさが測られるため,誤り訂正の網羅性の向上が期待できる.\item疑似誤り文によるペア文の拡張(とドメイン適応の利用)学習者作文は容易に入手できないため,正しい文から誤りパターンに従って誤らせることにより,自動的に学習者作文を模した疑似誤り文を作成する.この疑似誤り文と元にした日本語文をペアにして,訓練コーパスに追加する.ただし,自動作成した疑似誤り文は,実際の学習者作文の誤り分布を正確には反映していない.そのため,疑似誤りをソースドメイン,実誤りをターゲットドメインとみなして,ターゲットドメインへの適応を行う.疑似誤りの分布が実際の誤りと少々異なっていても,安定して精度向上ができると期待される.\end{enumerate}以下,第\ref{sec-particle-errors}章では,我々が収集した日本語学習者作文の誤り傾向について述べる.第\ref{sec-conversion}章では,本稿のベースとなる誤り訂正法と,日本語平文コーパスの利用法について説明する.第\ref{sec-pseudo-sentences}章では,疑似誤り文によるペア文の拡張法について説明し,第\ref{sec-experiments}章では実験で精度変換を確認する.第\ref{sec-related-work}章では関連研究を紹介し,第\ref{sec-conclusion}章でまとめる.
V07N02-07
近年のWWW(WorldWideWeb)などのインターネットの発展や電子化文書の増加により情報検索\cite{ir_tokunaga,ir_doukou,Fujita99}の研究は盛んになっている.これを背景に日本で情報検索コンテストIREXが行なわれた.われわれはこのコンテストに二つのシステムを提出していたが,記事の主題が検索課題に関連している記事のみを正解とするA判定の精度はそれぞれ0.4926と0.4827で,参加した15団体,22システムの中では最もよい精度であった.本論文は,この二つのシステムの詳細な説明と,これを用いた詳細な実験結果を記述するものである.われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデル\cite{2poisson}を用いている.しかし,この方法では検索のための手がかりとして当然用いるべき位置情報や分野情報などを用いていない.それに対しわれわれは2-ポアソンモデルにおいて位置情報や分野情報,さらに種々の詳細な情報などをも統一的に用いる枠組を考案し,これらの情報の追加により精度向上を実現できることを実験により確かめている.また,2-ポアソンモデルを用いる際にはまず,どのようなものをキーワードとするかを定める必要がある.本研究では,キーワードの抽出方法について4つのものを示し,それらの比較実験を行なっている.
V07N05-01
\label{sec:introduction}係り受け解析は日本語解析の重要な基本技術の一つとして認識されている.係り受け解析には,日本語が語順の自由度が高く省略の多い言語であることを考慮して依存文法(dependencygrammar)を仮定するのが有効である.依存文法に基づく日本語係り受け解析では,文を文節に分割した後,それぞれの文節がどの文節に係りやすいかを表す係り受け行列を作成し,一文全体が最適な係り受け関係になるようにそれぞれの係り受けを決定する.依存文法による解析には,主にルールベースによる方法と統計的手法の二つのアプローチがある.ルールベースによる方法では,二文節間の係りやすさを決める規則を人間が作成する\cite{kurohashi:ipsj92,SShirai:95}.一方,統計的手法では,コーパスから統計的に学習したモデルをもとに二文節間の係りやすさを数値化して表す\cite{collins:acl96,fujio:nl97,Haruno:ipsj98,ehara:nlp98,shirai:jnlp98:1}.我々は,ルールベースによる方法ではメンテナンスのコストが大きいこと,また統計的手法で利用可能なコーパスが増加してきたことなどを考慮し,係り受け解析に統計的手法を採用することにした.統計的手法では二文節間の係りやすさを確率値として計算する.その確率のことを係り受け確率と呼ぶ.これまでよく用いられていたモデル(旧モデル)では,係り受け確率を計算する際に,着目している二つの文節が係るか係らないかということのみを考慮していた.本論文では,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮するモデルを提案する.このモデルは以下の二つの特徴を持つ.\begin{itemize}\item[(1)]二つの文節(前文節と後文節)間の関係を,「間」(前文節が二文節の間の文節に係る)か「係る」(前文節が後文節に係る)か「越える」(前文節が後文節を越えてより文末側の文節に係る)かの三カテゴリとして学習する.(旧モデルでは二文節が「係る」か「係らないか」の二カテゴリとして学習していた.)\item[(2)]着目している二つの文節の係り受け確率を求める際に,その二文節に対しては「係る」確率,二文節の間の文節に対しては前文節がその文節を越えて後文節に係る確率(「越える」の確率),後文節より文末側の文節に対しては前文節がその文節との間にある後文節に係る確率(「間」の確率)をそれぞれ計算し,それらをすべて掛け合わせた確率値を用いて係り受け確率を求める.(旧モデルでは,着目している二文節が係る確率を計算し,係り受け確率としていた.)\end{itemize}このモデルをME(最大エントロピー)に基づくモデルとして実装した場合,旧モデルを同じくMEに基づくモデルとして実装した場合に比べて,京大コーパスに対する実験で,全く同じ素性を用いているにもかかわらず係り受け単位で1\%程度高い精度(88\%)が得られた.
V26N01-02
学会での質疑応答や電子メールによる問い合わせなどの場面において,質問は広く用いられている.このような質問には,核となる質問文以外にも補足的な情報も含まれる.補足的な情報は質問の詳細な理解を助けるためには有益であるが,要旨を素早く把握したい状況においては必ずしも必要でない.そこで,本研究では要旨の把握が難しい複数文質問を入力とし,その内容を端的に表現する単一質問文を出力する“質問要約”課題を新たに提案する.コミュニティ質問応答サイトであるYahoo!Answers\footnote{https://answers.yahoo.com/}から抜粋した質問の例を表\ref{example_long_question}に示す.{この質問のフォーカスは}“頭髪の染料は塩素によって落ちるか否か”である.しかし,質問者が水泳をする頻度や現在の頭髪の色などが補足的な情報として付与される.このような補足的な情報は正確な回答を得るためには必要であるが,質問内容をおおまかに素早く把握したいといった状況においては,必ずしも必要でない.{このような質問を表\ref{example_long_question}に例示するような単一質問文に要約することにより,質問の受け手の理解を助けることが出来る.本研究では,質問要約課題の一事例としてコミュニティQAサイトに投稿される質問を対象テキストとし,質問への回答候補者を要約の対象読者と想定する.}\begin{table}[b]\caption{複数文質問とその要約}\label{example_long_question}\input{02table01.tex}\end{table}テキスト要約課題自体は自然言語処理分野で長く研究されている課題の一つである.既存研究は要約手法の観点からは,大きく抽出型手法と生成型手法に分けることができる.抽出型手法は入力文書に含まれる文や単語のうち,要約に含める部分を同定することで要約を出力する.生成型手法は入力文書には含まれない表現も用いて要約を生成する.一方で,要約対象とするテキストも多様化している.既存研究の対象とするテキストは,従来の新聞記事や科学論文から,最近では電子メールスレッドや会話ログなどに広がり,それらの特徴を考慮した要約モデルが提案されている.\cite{pablo2012inlg,oya2014sigdial,oya2014inlg}質問を対象とする要約研究としては\citeA{tamura2005}の質問応答システムの性能向上を指向した研究が存在する.この研究では質問応答システムの構成要素である質問タイプ同定器へ入力する質問文を入力文書から抽出する.本研究では,彼らの研究とは異なり,ユーザに直接提示するために必要な情報を含んだ要約の出力を目指す.ユーザに直接提示するための質問要約課題については,既存研究では取り組まれておらず,既存要約モデルを質問{テキスト}に適用した場合の性能や,質問が抽出型手法で要約可能であるか,生成型の手法が必要であるか明らかでない.そこで,本研究ではコミュニティ質問応答サイトに投稿される質問{テキスト}とそのタイトルの対(以後,質問{テキスト}−タイトル対と呼ぶ)を,規則を用いてフィルタリングし,質問{テキスト}とその要約の対(以後,質問{テキスト}−要約対と呼ぶ)を獲得する.獲得した質問{テキスト}−要約対を分析し,抽出型および生成型の観点から質問がどのような手法を用いて要約可能であるか明らかにする.また,質問要約課題のために,ルールに基づく手法,抽出型要約手法,生成型要約手法をいくつか構築し性能を比較する.ROUGE~\cite{rouge2004aclworkshop}を用いた自動評価実験および人手評価において,生成型手法であるコピー機構付きエンコーダ・デコーダモデルがより良い性能を示した.
V09N02-02
日本語の複文の従属節には,体言に係る連体修飾節と,用言に係る連用修飾節がある.連体修飾節は通常次の句の体言に係る場合が多く曖昧性は比較的少ない.ところが,連用修飾節は係り先に曖昧性があり,必ずしもすぐ次の節の用言に係るとは限らない.このような曖昧性を解消するために,接続助詞,接続詞など接続の表現を階層的に分類し,その順序関係により,連接関係を解析する方法\cite{shirai1995}が用いられてきた.また,連接関係を,接続の表現を基に統計的に分析し,頻度の高い連接関係を優先する方法\cite{utsuro1999}も用いられてきた.しかし,接続の表現には曖昧性があり,同じ接続の表現でも異なる意味で用いられるときは異なる係り方をする.従って,接続の表現の階層的な分類を手がかりとする方法では,達成できる精度に限界がある.本論文では,従属節の動詞と主体の属性を用いて連接関係の関係的意味を解析し,連接構造を解析する方法を用いる.本方法によりモデルを作成し,解析した結果と従来から行われてきた接続の表現の表層的な分類を用いた方法とを同じ例文を用いて比較する.ここで,主体は「複文の研究」\cite{jinta1995}で使っているのと同じ意味で使っており,後述の解析モデルでは「が格」として処理している.
V03N03-02
\label{sec:introduction}比喩は自然言語に遍在する.たとえば,李\cite{Yi82}によると,小説と新聞の社説とにおいて比喩表現の出現率に大差はない.また,比喩を表現する者(話し手)は,比喩により言いたいことを端的に表現する.したがって,自然言語処理の対象を科学技術文から評論や小説に拡大するためには,比喩の処理が必要である.比喩表現は,喩える言葉(喩詞)と喩えられる言葉(被喩詞)とからなる.話し手は,それを伝達か強意かに用いる\cite{Nakamura77a}.伝達のために比喩を用いるときは,伝達したい事柄が相手(聞き手)にとって未知であると話し手が判断したときである.たとえば,「湖」は知っているが「海」は知らない聞き手にたいして,「海というのは大きい湖のようなものだ」と言う場合である.強意のために比喩を用いるときは,伝達したい事柄の一つの側面を強調したいときである.たとえば,「雪のような肌」により「肌」の白さを強調する場合である.山梨\cite{Yamanashi88}は,(1)認定(2)再構成(3)再解釈の3段階により比喩が理解されると述べている.認定とは,ある言語表現が文字通りの意味ではない(比喩的意味である)ことに聞き手が気づくことをいう.再構成とは,喩詞と被喩詞と文脈とから比喩表現の意味を構成することである.再解釈とは,比喩表現の意味を被喩詞に対する新たな視点として認識し,被喩詞に対する考え方を聞き手が改めることである.本稿では,強意の比喩に対しての,聞き手の再解釈を考察の対象とする.ただし,再解釈を\begin{quote}\begin{description}\item[(3a)]被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を聞き手が認識する,\item[(3b)]その$\dot{\mbox{ず}}\dot{\mbox{れ}}$が聞き手の考え方に反映する\end{description}\end{quote}という2段階に分け,(3a)を対象にする.なお,対象とする比喩が強意の比喩であるので,聞き手にとって,喩詞の意味と被喩詞の意味とは既知である.本稿では,「AのようなB」という形の比喩表現を考察の対象とする.また,比喩表現が使われる文脈については考慮しない.第\ref{sec:formulation}章において,名詞の意味を確率により表現する.そして,比喩表現を捉える指標として明瞭性と新奇性とを定義する.これらは情報量に基づく指標である.明瞭性は比喩表現における属性の不確定さを示す指標であり,新奇性は比喩表現の示す事象の希少さに関する指標である.第\ref{sec:sd}章では,これら評価関数の妥当性を実験により示す.3種類の値,\begin{quote}\begin{description}\item[(1)]喩詞・被喩詞・比喩表現の属性集合(SD法による\cite{Osgood57})\item[(2)]喩詞・被喩詞・比喩表現における,属性の顕著性\item[(3)]比喩表現の理解容易性\end{description}\end{quote}を測定する.(1)から明瞭性と新奇性とを計算し,それらが属性の顕著性と比喩表現の理解容易性とを捉える指標として適当であることを示す.第\ref{sec:summary}章は結びである.
V26N01-09
近年,ニューラルネットワーク及び分散表現の使用により,係り受け解析は大きく発展している.\cite{dchen2014,weiss2015,hzhou2015,alberti2015,andor2016,dyer2015}.こうした構文解析器が,単語ごとの分かち書きを行う英語や多くのヨーロッパ諸語に適用された場合は非常に正確に動作する.しかし,日本語や中国語のように,特に単語毎の分かち書きを行わない言語に対し適用する場合は,事前に形態素解析器や単語分割器を利用して単語分割を行う必要がある.また,単語分割が比較的に容易な言語の場合でも,構文解析器は品詞タグ付け結果を利用することが多い.したがって,前段の単語分割器や品詞タグ付け器と後段の構文解析器をパイプラインにより結合されて用いられる.しかし,どのような単語分割器や品詞タグ付け器にも出力の誤りが存在し,結果的にそれが後方の係り受け解析器にも伝播することで,全体の解析結果が悪くなってしまう問題が存在した.これを誤差伝播問題と呼ぶ.日本語においても中国語においても,単語の定義には曖昧性が存在するが,特に中国語では,このような単語の定義の曖昧性から,単語分割が悪名高く難しいことが知られている\cite{Shen2016a}.それゆえ,従来法である単語分割,品詞タグ付け,構文解析のパイプラインモデルは,単語分割の誤りに常に悩まされることになった.単語分割器が単語の境界を誤って分割してしまうと,伝統的なone-hotな単語素性や通常の単語の分散表現(\textbf{wordembedding})では,もとの単語の意味を正しく捉えなおすことは難しい.結果的に,中国語の文を生文から解析する際は,パイプラインモデルの精度は70\%前半程度となっていた\cite{hatori2012}.このような誤差伝播問題に対しては,統合モデルを使用することが有効な解決方法として提案されている\cite{zhang-clark2008:EMNLP,zhang-clark2010,hatori2011,hatori2012,mzhang2014}.中国語の単語は,単一の表層系で複数の構文的な役割を演じる.ゆえに,そうした単語の境界を定めることと,後続の品詞タグ付け,構文解析は非常に関連のあるタスクとなり,それらを別個に行うよりも,同時に処理することで性能の向上が見込まれる.中国語の統合構文解析器については,すでに\citeA{hatori2012}や\citeA{mzhang2014}などの統合モデルが存在する.しかし,これらのモデルは,近年のwordembeddingのような表現学習や,深層学習手法を利用しておらず,専ら,複雑な素性選択や,それら素性同士の組み合わせに依存している.本研究では,ニューラルネットワークを用いた手法による中国語の統合構文解析モデルを提案し,パイプラインを用いたモデルとも比較する.ニューラルネットワークに基づく係り受け解析では,単語の分散表現と同様に文字の分散表現が有効であることが英語などの言語における実験で示されている\cite{ballesteros2015}.しかし,中国語や日本語のように個々の文字が固有の意味を持つ言語において,単語以下の構造である部分単語の分散表現がどのように有効であるかについては,いまだ十分な研究が行われていない.中国語では単語そのものの定義がやや曖昧である他に,単語内にも意味を持つ部分単語が存在する場合がある.加えて,中国語の統合構文解析を行う場合には,単語分割の誤りに対処したり,文中で単語分割をまだ行っていない箇所の先読みを行う必要があり,必然的に,単語だけではなく部分単語や単語とはならない文字列の意味を捉えることが必要になる.このような部分単語や単語とはならない文字列は,大抵の場合はモデルの学習に用いる訓練コーパスや事前学習された単語の分散表現中には存在せず,文字や文字列の分散表現を扱わない先行研究では未知語として処理される.しかし,こうした文字列を未知語として置換し処理するよりも,その構成文字から可能な限りその意味を汲み取った方が,より高精度な構文解析が行えると考えられる.このため,本研究では文字列の分散表現を利用した統合構文解析モデルを提案する.提案手法では,既知の文字または単語についてはそれらの分散表現を使用し,未知の文字列については文字列の分散表現を使用する.本研究では中国語の統合構文解析モデルとして,単語分割・品詞タグ付けおよび係り受け解析の統合モデルと,単語分割と品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルの2つを提案する.これらのモデルを使用することで,実験では新規に世界最高性能の中国語単語分割および品詞タグ付け精度を達成した.また,係り受け解析とのパイプラインモデルが,従前の統合解析モデルと比較して,より優れた性能を達成した.以上の全てのモデルにおいて,単語と文字の分散表現に加えて文字列の分散表現を利用した.著者の知る限りにおいて,これは分散表現とニューラルネットワークを利用し,中国語の単語分割・品詞タグ付け・係り受け解析の統合解析を行った,はじめてのモデルである.この論文における貢献は以下のようにまとめられる.(1)分散表現に基づく,初めての統合構文解析モデルを提案した.(2)文字列の分散表現を未知語や不完全な文字列に対してその意味を可能な限り汲み取るために使用した.(3)加えて,既存手法で見られた複雑な素性選択を避けるために,双方向LSTMを使用するモデルを提案した.(4)中国語のコーパスにおける実験で単語分割・品詞タグ付けおよび係り受け解析にて新規に世界最高性能を達成した.この他に,本論文では中国語係り受け解析のラベル付けモデルを提案し,原文からラベル付き係り受け解析までを行った際のスコアを評価する.このモデルに関しても,同様に文字列の分散表現を利用する.
V23N05-03
質問応答とは,入力された質問文に対する解答を出力するタスクであり,一般的に文書,Webページ,知識ベースなどの情報源から解答を検索することによって実現される.質問応答はその応答の種類によって,事実型(ファクトイド型)質問応答と非事実型(ノンファクトイド型)質問応答に分類され,本研究では事実型質問応答を取り扱う.近年の事実型質問応答では,様々な話題の質問に解答するために,構造化された大規模な知識ベースを情報源として用いる手法が盛んに研究されている\cite{kiyota2002,tunstall2010,fader2014}.知識ベースは言語によって規模が異なり,言語によっては小規模な知識ベースしか持たない.例えば,Web上に公開されている知識ベースにはFreebase\footnote{https://www.freebase.com/}やDBpedia\footnote{http://wiki.dbpedia.org/}などがあるが,2016年2月現在,英語のみに対応しているFreebaseに収録されているエンティティが約5,870万件,多言語に対応したDBpediaの中で英語で記述されたエンティティが約377万件であるのに対し,DBpediaに含まれる英語以外の言語で記述されたエンティティは1言語あたり最大125万件であり,収録数に大きな差がある.知識ベースの規模は解答可能な質問の数に直結するため,特に言語資源の少ない言語での質問応答では,質問文の言語と異なる言語の情報源を使用する必要がある.このように,質問文と情報源の言語が異なる質問応答を,言語横断質問応答と呼ぶ.こうした言語横断質問応答を実現する手段として,機械翻訳システムを用いて質問文を知識ベースの言語へ翻訳する手法が挙げられる~\cite{shimizu2005,mori2005}.一般的な機械翻訳システムは,人間が高く評価する翻訳を出力することを目的としているが,人間にとって良い翻訳が必ずしも質問応答に適しているとは限らない.Hyodoら~\cite{hyodo2009}は,内容語のみからなる翻訳モデルが通常の翻訳モデルよりも良い性能を示したとしている.また,Riezlerらの提案したResponse-based~online~learningでは,翻訳結果評価関数の重みを学習する際に質問応答の結果を利用することで,言語横断質問応答に成功しやすい翻訳結果を出力する翻訳器を得られることが示されている\cite{riezler2014,haas2015}.{Reponse-based~learningでは学習時に質問応答を実行して正解できたかを確認する必要があるため,質問と正解の大規模な並列コーパスが必要となり,学習にかかる計算コストも大きい.これに対して,質問応答に成功しやすい文の特徴を明らかにすることができれば,質問応答成功率の高い翻訳結果を出力するよう翻訳器を最適化することが可能となり,効率的に言語横断質問応答の精度を向上させることが可能であると考えられる.さらに,質問と正解の並列コーパスではなく,比較的容易に整備できる対訳コーパスを用いて翻訳器を最適化することができるため,より容易に大規模なデータで学習を行うことができると考えられる.}本研究では,どのような翻訳結果が知識ベースを用いた言語横断質問応答に適しているかを明らかにするため,知識ベースを利用する質問応答システムを用いて2つの調査を行う.1つ目の調査では,言語横断質問応答精度に寄与する翻訳結果の特徴を調べ,2つ目の調査では,自動評価尺度を用いて翻訳結果のリランキングを行うことによる質問応答精度の変化を調べる.調査を行うため,異なる特徴を持つ様々な翻訳システムを用いて,言語横断質問応答データセットを作成する(\ref{sec:dataset}節).作成したデータセットに対し,\ref{sec:QAsystem}節に述べる質問応答システムを用いて質問応答を行い,翻訳精度(\ref{sec:MTevalexp}節)と質問応答精度(\ref{sec:QAexp}節)との関係を分析する(\ref{sec:discussion1}節).また,個別の質問応答事例について人手による分析を行い,翻訳結果がどのように質問応答結果に影響するかを考察する(\ref{sec:discussion2}節).さらに,\ref{sec:discussion1}節および\ref{sec:discussion2}節における分析結果から明らかとなった,質問応答精度と高い相関を持つ自動評価尺度を利用して,翻訳$N$ベストの中から翻訳結果を選択することによって,質問応答精度がどのように変化するかを調べる(\ref{sec:nbestselect}節).{このようにして得られる知見は日英という言語対に限られたものとなるため,さらに一般化するために様々な言語対で言語横断質問応答を行い,言語対による影響を調査する({\ref{sec:exp4}}節).}最後に,言語横断質問応答に適した機械翻訳システムを実際に構築する際に有用な知見をまとめ,今後の展望を述べて本論文の結言とする(\ref{sec:conclusion}節).
V17N01-05
\label{Introduction}日本語と英語のように言語構造が著しく異なり,語順変化が大きな言語対において,対訳文をアライメントする際に重要なことは二つある.一つは構文解析や依存構造解析などの言語情報をアライメントに組み込み,語順変化を克服することであり,もう一つはアライメントの手法が1対1の単語対応だけでなく,1対多や多対多などの句対応を生成できることである.これは一方の言語では1語で表現されているものが,他方では2語以上で表現されることが少なくないからである.しかしながら,既存のアライメント手法の多くは文を単純に単語列としてしか扱っておらず\cite{Brown93},句対応は単語対応を行った後にヒューリスティックなルールにより生成するといった方法を取っている\cite{koehn-och-marcu:2003:HLTNAACL}.Quirkら\cite{quirk-menezes-cherry:2005:ACL}やCowanら\cite{cowan-kuucerova-collins:2006:EMNLP}はアライメントに構造情報を統合しようとしたが,前述の単語列アライメントを行った後に用いるに留まっている.単語列アライメント手法そのものの精度が高くないため,このような方法では十分な精度でアライメントが行えるとは言い難い.一方で,アライメントの最初から構造情報を利用する手法もいくつか提案されている.Wata\-nabeら\cite{Watanabe00}やMenezesとRichardson\cite{Menezes01}は構文解析結果を利用したアライメント手法を提案しているが,対応の曖昧性解消の際にヒューリスティックなルールを用いている.YamadaとKnight\cite{yamada_ACL_2001}やGildea\cite{Gildea03}は木構造を利用した確率的なアライメント手法を提案している.これらの手法は一方の文の木構造に対して葉の並べ替え,部分木の挿入・削除といった操作を行って,他方の文構造を再現するものであるが,構文情報の利用が逆に強い制約となってしまい,文構造の再現が難しいことが問題となっている.YamadaとKnightはいったん木構造を崩すことによって,Gildeaは部分木を複製することによってこの問題に対処している.我々はこのような木構造に対する操作は不要であり,依存構造木中の部分木をそのままアライメントすればよいと考えた.またCherryとLin\cite{Cherry03}は原言語側の依存構造木を利用した識別モデルを提案している.しかしながらこの手法はアライメント単位が単語のみであり,一対一対応しか扱えないという欠点がある.phrase-basedSMTでいうところの“句”はただの単語列に過ぎないが,NakazawaとKurohashi\cite{nakazawa:2008:AMTA}は言語的な句をアライメントの最小単位とし,句の依存関係に着目したモデルを提案しているが,そこでは内容語は内容語のみ,機能語は機能語のみにしか対応しないという制約があり,また複数の機能語をひとまとまりに扱っているという問題もあり,これらがしばしば誤ったアライメントを生成している.本論文ではNakazawaとKurohashiの手法の問題点を改善し,単語や句の依存関係に注目した句アライメントモデルを提案する.提案手法のポイントは以下の3つである.\begin{enumerate}\item両言語とも依存構造解析し,アライメントの最初から言語の構造情報を利用する\label{point1}\itemアライメントの最小単位は単語だが,モデル学習時に句となるべき部分を自動的に推定し,句アライメントを行う\label{point2}\item各方向(原言語$\rightarrow$目的言語と目的言語$\rightarrow$原言語)の生成モデルを二つ同時に利用することにより,より高精度なアライメントを行う\label{point3}\end{enumerate}本モデルは二つの依存構造木において,一方の依存構造木で直接の親子関係にある一組の対応について,他方のそれぞれの対応先の依存関係をモデル化しており,単語列アライメントで扱うのが困難な距離の大きな語順変化にも対応することができる.言い替えれば,本モデルは木構造上でのreorderingモデルということができる.また本モデルはヒューリスティックなルールを用いずに,句となるべき部分を自動的に推定することができる.ここでいう句とは必ずしも言語的な句である必要はなく,任意の単語のまとまりである.ただし,Phrase-basedSMTにおける句の定義との重要な違いは,我々は木構造を扱っており,単語列としては連続でなくても,木構造上で連続ならば句として扱っているという点である.また我々のモデルはIBMモデルのような各方向の生成モデルを両方向分同時に用いてアライメントを行う.これはアライメントの良さを両方向から判断する方が自然であり,Liangら\cite{liang-taskar-klein:2006:HLT-NAACL06-Main}による報告にもあるように,そうした方が精度よいアライメントが行えるからである.ただし,Liangらの手法がIBMモデルと同様に単語列を扱うものであるのに対し,提案手法は木構造を扱っているという重要な違いがある.またLiangらの手法では部分的に双方向のモデルを結合するに留まっており,アライメントの結果としては各方向それぞれ独立に生成されるが,我々の方法ではただ一つのアライメントを生成するという違いもある.最近の報告では生成モデルよりも識別モデルを用いた方がより高精度なアライメントが行えるという報告がなされているが,学習用にアライメントの正解セットを用意するコストがかかってしまう.そこで我々は教師なしでモデル学習が行える生成モデルを用いた.モデルは2つのステップを経て学習される.Step1では単語翻訳確率を学習し,Step2では句翻訳確率と依存関係確率が推定される.さらにStep2では単語対応が句対応に拡張される.各StepはEMアルゴリズムにより反復的に実行される.次章では我々の提案するアライメントモデルを,IBMモデルと比較しながら定義する.\ref{training}章ではモデルのトレーニングについて説明し,\ref{result}章では提案手法の有効性を示すために行った実験の結果と結果の考察を述べ,最後に結論と今後の課題を述べる.