id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V22N01-02
今日までに,人間による言語使用の仕組みを解明する試みが単語・文・発話・文書など様々な単位に注目して行われて来た.特に,これらの種類や相互関係(例えば単語であれば品詞や係り受け関係,文であれば文役割や修辞構造など)にどのようなものがあるか,どのように利用されているかを明らかにする研究が精力的になされて来た.計算機が普及した現代では,これらを数理モデル化して考えることで自動推定を実現する研究も広く行われており,言語学的な有用性にとどまらず様々な工学的応用を可能にしている.例えば,ある一文書内に登場する節という単位に注目すると,主な研究としてMann\&Thompsonによる修辞構造理論(RhetoricalStructureTheory;RST)がある\cite{Mann1987,Mann1992}.修辞構造理論では文書中の各節が核(nucleus)と衛星(satelite)の2種類に分類できるとし,さらに核と衛星の間にみられる関係を21種類に,核と核の間にみられる関係(多核関係)を3種類に分類している.このような分類を用いて,節同士の関係を自動推定する研究も古くから行われている\cite{Marcu1997a,田村直良:1998-01-10}.さらに,推定した関係を別タスクに利用する研究も盛んに行われている\cite{Marcu99discoursetrees,比留間正樹:1999-07-10,Marcu2000,平尾:2013,tu-zhou-zong:2013:Short}.例えば,Marcu\citeyear{Marcu99discoursetrees}・比留間ら\citeyear{比留間正樹:1999-07-10}・平尾ら\citeyear{平尾:2013}は,節の種類や節同士の関係を手がかりに重要と考えられる文のみを選択することで自動要約への応用を示している.また,Marcuら\citeyear{Marcu2000}・Tuら\citeyear{tu-zhou-zong:2013:Short}は,機械翻訳においてこれらの情報を考慮することで性能向上を実現している.一方,我々は従来研究の主な対象であった一文書や対話ではなく,ある文書(往信文書)とそれに呼応して書かれた文書(返信文書)の対を対象とし,往信文書中のある文と返信文書中のある文との間における文レベルでの呼応関係(以下,\textbf{文対応}と呼ぶ)に注目する.このような文書対の例として「電子メールと返信」,「電子掲示板の投稿と返信」,「ブログコメントの投稿と返信」,「質問応答ウェブサイトの質問投稿と応答投稿」,「サービスや商品に対するレビュー投稿とサービス提供者の返答投稿」などがあり,様々な文書対が存在する(なお,本論文において文書対は異なる書き手によって書かれたものとする).具体的に文書対として最も典型的な例であるメール文書と返信文書における実際の文対応の例を図\ref{fig:ex-dependency}に示す.図中の文同士を結ぶ直線が文対応を示しており,例えば返信文「講義を楽しんで頂けて何よりです。」は往信文「本日の講義も楽しく拝聴させて頂きました。」を受けて書かれた文である.同様に,返信文「まず、課題提出日ですが…」と「失礼しました。」はいずれも往信文「また、課題提出日が…」を受けて書かれた文である.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f1.eps}\end{center}\caption{メール文書における文対応の例.文同士を結ぶ直線が文対応を示している.}\label{fig:ex-dependency}\vspace{-0.5\Cvs}\end{figure}本論文では,文書レベルで往信・返信の対応が予め分かっている文書対を入力とし,以上に述べたような文対応を自動で推定する課題を新たに提案し,解決方法について検討する.これら文書対における文対応の自動推定が実現すれば,様々な応用が期待できる点で有用である.応用例について,本研究の実験では「サービスに対するレビュー投稿とサービス提供者の返答投稿」を文書対として用いているため,レビュー文書・返答文書対における文対応推定の応用例を中心に説明する.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{文書対群の情報整理}:複数の文書対から,文対応が存在する文対のみを抽出することでこれら文書対の情報整理が可能になる.例えば,「このサービス提供者は(または要望,苦情など)に対してこのように対応しています」といった一覧を提示できる.これを更に応用すれば,将来的にはFAQの(半)自動生成や,要望・苦情への対応率・対応傾向の提示などへ繋げられると考えている.\item\textbf{未対応文の検出による返信文書作成の支援}:往信文書と返信文書を入力して自動で文対応を特定できるということは,逆に考えると往信文書の中で対応が存在しない文が発見できることでもある.この推定結果を利用し,ユーザが返信文書を作成している際に「往信文書中の対応がない文」を提示することで,返信すべき事項に漏れがないかを確認できる文書作成支援システムが実現できる.このシステムは,レビュー文書・返答文書対に適用した場合は顧客への質問・クレームへの対応支援に活用できる他,例えば質問応答サイトのデータに適用した場合は応答作成支援などにも利用できる.\item\textbf{定型的返信文の自動生成}:(2)の考えを更に推し進めると,文対応を大量に収集したデータを用いることで,将来的には定型的な返信文の自動生成が可能になると期待できる.大規模な文対応データを利用した自動生成手法は,例えばRitterら・長谷川らが提案している\cite{Ritter2011,長谷川貴之:2013}が,いずれも文対応が既知のデータ(これらの研究の場合はマイクロブログの投稿と返信)の存在が前提である.しかし,実際には文対応が既知のデータは限られており,未知のデータに対して自動生成が可能となるだけの分量を人手でタグ付けするのは非常に高いコストを要する.これに対し,本研究が完成すればレビュー文書・返答文書対をはじめとした文対応が未知のデータに対しても自動で文対応を付与できるため,先に挙げた様々な文書において往信文からの定型的な返信文の自動生成システムが実現できる.定型的な返信文には,挨拶などに加え,同一の書き手が過去に類似した質問や要望に対して繰り返し同様の返信をしている場合などが含まれる.\item\textbf{非定形的返信文の返答例提示}:(3)の手法の場合,自動生成できるのは定型的な文に限られる.一方,例えば要望や苦情などの個別案件に対する返答文作成の支援は,完全な自動生成の代わりに複数の返答例を提示することで実現できると考えている.これを実現する方法として,現在返答しようとしている往信文に類似した往信文を文書対のデータベースから検索し,類似往信文と対応している返信文を複数提示する手法がある.返信文の書き手は,返答文例の中から書き手の方針と合致したものを利用ないし参考にすることで返信文作成の労力を削減できる.\end{enumerate}一方で,文書対における文対応の自動推定課題は以下のような特徴を持つ.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{対応する文同士は必ずしも類似しない}:例えば図\ref{fig:ex-dependency}の例で,往信文「本日の講義も楽しく拝聴させて頂きました。」と返信文「講義を楽しんで頂けて何よりです。」は「講義」という単語を共有しているが,往信文「また、課題提出日が…」と返信文「失礼しました。」は共有する単語を一つも持たないにも関わらず文対応が存在する.このように,文対応がある文同士は必ずしも類似の表現を用いているとは限らない.そのため,単純な文の類似度によらない推定手法が必要となる.\item\textbf{文の出現順序と文対応の出現位置は必ずしも一致しない}:例えば図\ref{fig:ex-dependency}の例で対応が逆転している(文対応を示す直線が交差している)ように,返信文書の書き手は往信文書の並びと対応させて返信文書を書くとは限らない.そのため,文書中の出現位置に依存しない推定手法が必要となる.\end{enumerate}我々は,以上の特徴を踏まえて文対応の自動推定を実現するために,本課題を文対応の有無を判定する二値分類問題と考える.すなわち,存在しうる全ての文対応(例えば図\ref{fig:ex-dependency}であれば$6\times6=36$通り)のそれぞれについて文対応が存在するかを判定する分類器を作成する.本論文では,最初にQu\&Liuの対話における発話の対応関係を推定する手法\cite{Zhonghua2012}を本課題に適用する.彼らは文種類(対象が質問応答なので「挨拶」「質問」「回答」など)を推定した後に,この文種類推定結果を発話文対応推定の素性として用いることで高い性能で文対応推定が実現したことを報告している.本論文ではこれに倣って文種類の推定結果を利用した文対応の推定を行うが,我々の対象とする文書対とは次のような点で異なっているため文種類・文対応の推定手法に多少の変更を加える.すなわち,彼らが対象とする対話では対応関係が有向性を持つが,我々が対象とする文書対では返信文から往信文へ向かう一方向のみである.また,対話は発話の連鎖で構成されているが,文書対は一組の往信文書・返信文書の対で構成されている点でも異なる.更に,我々は文対応の推定性能をより向上させるために,彼らの手法を発展させた新たな推定モデルを提案する.彼らの手法では,文対応の素性に推定された文種類を利用しているが,文種類推定に誤りが含まれていた場合に文対応推定結果がその誤りに影響されてしまう問題がある.そこで,我々は文種類と文対応を同時に推定するモデルを提案し,より高い性能で文対応の推定が実現できることを示す.本論文の構成は次の通りである.まず,2章で関連研究について概観する.次に,3章で文対応の自動推定を行う提案手法について述べる.4章では評価実験について述べる.5章で本論文のまとめを行う.
V05N01-04
本研究では,論説文の文章構造についてモデル化し,それに基づいた文章解析について論じる.近年のインターネットや,電子媒体の発達などにより大量の電子化された文書が個人の周囲にあふれてきており,文書理解,自動要約等,これらを自動的に処理する手法の必要性が増している.文章の構造化はそれらの処理の前提となる過程であるが,人間がその作業を行なう場合を思えば容易に分かるように,元来非常に知的な処理である.しかし,大量の文書を高速に処理するためには,記述されている領域に依存した知識を前提とせず,なるべく深い意味解析に立ち入らない「表層的」な処理により行なうことが求められる.文末表現から文章構造を組み立てる手法,表層的な表現から構造化する手法,また,テキスト・セグメンテーションの手法もいくつか提案されているが,画一的な観点からの文章の構造化では,大域的構造,局所的構造,両者をともに良好に解析する手法は少ない.我々の手法では,トップダウン的解析とボトムアップ的解析の双方の利点を活かし,文章の木構造を根から葉の方向へ,葉から根の方向へと同時に生成していく.これらのアルゴリズムは,相互に再帰的な二つのモジュールにより構成されている.我々の目的は,Shankらに代表されるような「深い意味解析」が必要な談話理解過程を論じるものではない.むしろ,文章における結束関係\cite{Halliday:76}や連接関係の理解過程のモデル化を目標としている.この分野の研究については,たとえば\cite{Abe:94}にサーベイされている.なかでも,目的と手法が似ているものは,\cite{Dahlgren:88,Dahlgren:89}のCRA(coherencerelationassignment)アルゴリズムであろう.しかし,彼女らの手法は局所的構造と大域的構造を別々に作るようである.日本語の文章の連接関係の解析では,\cite{Fukumoto:91,Fukumoto:92}や,\cite{Kurohashi:94}などがあり,文末の表現や表層的な情報により文章の構造化を試みているが,局所的な解析には適した手法だが,大域的には十分な解析精度は得にくいと思われる.以下,第2章では前提となる文章構造のモデルを提案し,第3章ではトップダウン的解析アプローチについて,第4章ではボトムアップ的解析アプローチについて述べ,第5章で両者を融合した解析手法について説明する.最後に第6章で実験結果と本手法についての評価を述べる.
V29N02-16
label{sec:intro}%==================================================BLEU\cite{papineni-2002}やMETEOR\cite{banerjee-2005}などの参照文に基づく自動評価指標は,ベンチマーク上での機械翻訳(MT)システムの開発に貢献してきた.しかし,ユーザが実際にMTシステムを使用する際には,事前に参照文を用意できない場合が多いため,これらの自動評価指標を用いてユーザがMTの品質を確認することは難しい.本研究では,参照文を用いない自動評価である品質推定(QualityEstimation,QE)\cite{specia-2018}に取り組む.QEでは,原文とそれに対応するMT出力文を比較することで,MT品質を推定する.人手評価との相関が高いQE手法を開発することにより,MT出力文をそのまま使用するか,手動または自動で後編集するか,他のMTシステムを利用するかというユーザの判断を支援できる.国際会議WMTにおけるQEタスク\cite{specia-2020}を中心に,これまで多くの教師ありQE手法\cite{specia-2013,kim-2017,ranasinghe-2020}が提案されてきた.しかし,これらの教師ありQEモデルの訓練には,「原文・対応するMT出力文・人手評価値」の3つ組が必要である.このようなQE訓練データの構築は,翻訳者などの原言語と目的言語の両方に精通したアノテータによる作業が必要となるため,非常にコストが高い.そのため,WMTのQEタスクに含まれるような,わずかな言語対でしか教師ありQEモデルを得られないのが現状である.この問題を解決するために,教師なしQEが研究されている.教師なしQEの先行研究は多言語MTシステムに基づいており,MTシステムの符号化器のみを用いる手法\cite{artetxe-2019a}およびMTシステムの符号化器と復号器の全体を用いる手法\cite{thompson-2020,fomicheva-2020b}に大別できる.これらの既存手法は,人手評価のアノテーションこそ不要なものの,評価対象の言語対における大規模な対訳コーパスを用いた訓練が必要である.本研究では,大規模な対訳コーパスを用意できない言語対においても翻訳品質を推定できる教師なしQE手法を提案する.\citeA{thompson-2020}と同様に,提案手法は多言語MTシステムに基づき,原文を入力として評価対象のMT出力文をforced-decodingする際の翻訳確率を品質推定に用いる.提案手法では,事前訓練された多言語雑音除去自己符号化器\cite{lewis-2020,liu-2020}を活用することで,少資源,ひいては対訳コーパスが存在しない言語対においてもQEを可能とする.大規模な単言語コーパスによって訓練された多言語雑音除去自己符号化器を再訓練して得られるMTシステムはゼロショット設定の言語対においても機械翻訳が可能となることが示されている\cite{liu-2020}.同様の効果がQEにおいても期待され,一部の言語対における対訳コーパスを用いた再訓練によって他の言語対のQE性能も向上すること,さらには対訳コーパスを用意できない言語対におけるゼロショットQEも実現できると考えられる.WMT20QEタスク\cite{specia-2020}における実験の結果,提案手法は既存の教師なしQE手法よりも高い人手評価との相関を達成した.また,詳細な分析の結果,対象言語対の対訳コーパスを使用しないゼロショットの設定においても提案手法は良好な結果が得られ,教師なしQEにおける単言語コーパスを用いた雑音除去自己符号化器の事前訓練の有効性を確認できた.%==================================================
V07N03-05
情報検索における検索語リストや文書に付与されたキーワードリストなど,複数の内容語(熟語も含む)から成るリストのことを本論文では「タームリスト」と呼ぶ.タームリストを別の言語に翻訳する「タームリストの自動翻訳処理」は,単言語用の文書検索と組み合わせてクロスリンガル検索\cite{Oard96}を実現したり,他国語文書のキーワードを利用者の望む言語で翻訳表示する処理\cite{Suzuki97j}に応用できるなど,様々なクロスリンガル処理において重要な要素技術である.本論文ではタームリストの自動翻訳処理のうち,各タームに対して辞書等から与えられた訳語候補の中から最も妥当なものを選択する「翻訳多義解消」に焦点を当てる.内容語に関する翻訳多義解消の研究は従来から文(テキスト)翻訳の分野で行われて来た.80年代には統語的依存構造に着目した意味多義解消規則を用いる方式が研究され,実用システムにも組み込まれた(\cite{Nagao85}など).この方式は翻訳対象語に対して特定の統語関係(例えば,目的語と動詞の関係)にある別の語を手がかりにした訳語選択規則を人手で作成し,これを入力に適用することによって多義解消を行う方式である.従って,この方法は複数語間に統語的関係が存在しないタームリストには適用できない.一方,90年代に入って言語コーパスから統計的に学習した結果に基づいて多義解消を行う研究が活発化している.これらのうち,統語的解析を(明示的には)行わず,翻訳対象語と同一文内,あるいは,近傍で共起する他の単語を手がかりに多義解消を行う手法はタームリストの翻訳にも適用可能であり,すでにいくつかの研究も行われている.これらは利用するコーパスによって大きく2つに分類できる.1つめはパラレルコーパスと呼ばれる対訳関係にあるコーパスを用いるもので,T.Brownらによる文翻訳のための訳語選択手法\cite{Brown91},R.Brownらのタームリスト翻訳手法\cite{Brown97}がある.これらの方法は訳語候補自体もコーパスから抽出するので対訳辞書を別に用意する必要がないという利点があるが,対象分野に関する相当量のパラレルコーパスを学習データとして準備しなければならないという問題がある.2つめは目的言語の単言語コーパスのみを用いるもので,Daganら\cite{Dagan94}\footnote{\cite{Dagan94}の基本的な手法は構文解析された学習コーパス,入力データを前提とするものであるが,考察の章で学習データの不足に対処するために統語的依存関係を無視して単なる共起によって処理する方法が指摘されている.},田中ら\cite{Tanaka96}による文翻訳の多義解消手法,同様の手法をタームリスト翻訳に適用したJangら\cite{Jang99}による研究がある.これらは入力の各単語(内容語)に対する訳語候補の組み合わせのうち目的言語のコーパス中における共起頻度あるいは相互情報量が最大のものを選択するという方法である.たとえば,入力が``suits''と``wear''を含み,前者の訳語候補が``裁判''と``スーツ'',後者の候補が``着用''であったとき,日本語コーパスにおいて``スーツ''と``着用''の共起頻度が``裁判''と``着用''のそれよりも高い場合,``suits''の訳語を``スーツ''に決定するというものである.この方法はパラレルコーパスに比べて大量に入手可能な単言語コーパスを学習データとして用いるという,統計的処理にとって重要な利点を持っている.本論文で提案する手法は,目的言語の単言語コーパスのみを利用する点では上記2つめの手法に分類されるが,訳語候補の組み合わせの妥当性を計算する方法が異なる.本手法では,訳語候補同士の直接的な共起頻度を用いるのではなく,各訳語候補に対して,まず,目的言語コーパスにおける共起パターンをベクトル化した一種の意味表現を求め,この意味表現同士の「近さ」によって計算する.この「意味表現同士の近さ」を以下では\kanrenと呼ぶ.2単語の\kanrenはこれらの単語と共起する単語の頻度分布を元に計算されるため,2単語のみの共起頻度を用いるより精度の高い結果を得ることが期待できる.以下,まず2章で問題設定を行う.次に3章で多義解消モデルとその中心となる複数単語の意味的\kanrenについて定義し,4章では枝刈りによる処理の高速化について説明する.5章では評価実験とその結果について述べ,6章で誤りの原因と先行研究との関連について考察する.
V31N04-07
\label{sec:intro}word2vec\cite{Mikolov2013}をはじめとする\emph{単語分散表現}やBERT\cite{Devlin2019-ri}に代表される\emph{事前学習済み言語モデル}\footnote{本研究では,BERTのようなマスク型言語モデルも含めて,広義の言語モデルとみなす.}など,大量の学習コーパスを用いて事前学習したニューラルネットワークのモデルの利活用が一般的になっている.研究者や実務者はこのような\emph{事前学習済みモデル}を,各々のタスクに合わせて利用し,必要に応じてファインチューニングする.公開されている事前学習済みモデルやAPIを起点とするのが一般的ではあるが,個別の用途に合わせた独自の事前学習済みモデルを構築することにも大きな利点がある\cite{Zhao2023-hy}.事前学習済み言語モデルに関しては,例えばドメイン特化のSciBERT\cite{Beltagy2019-wt},BioBERT\cite{10.1093/bioinformatics/btz682},FinBERT\cite{araci2019finbert}が提案され,下流のドメイン固有タスクで一般的なBERTに比べ優れた性能を発揮している.単語分散表現でも,独自コーパスでモデルを構築する研究や応用が数多くある\cite{lassner-etal-2023-domain}.独自の事前学習済みモデルを構築・運用する際には,事前学習時に存在しなかった新しいテキストに対する性能劣化に注意しなければならない\cite{ishihara-etal-2022-semantic}.言語は社会的事象の発生などを理由に常に変化し続けている\cite{Traugott2017-ui}.特に単語の通時的な意味変化は\textbf{セマンティックシフト(SemanticShift)}と呼ばれ,事前学習済みモデルの\emph{時系列性能劣化}\footnote{本研究では,事前学習済みモデルの性能が,事前学習時に存在しなかった新しいテキストに対して劣化する現象を時系列性能劣化と呼ぶ.}を引き起こすと指摘されている\cite{Loureiro2022-mj,Mohawesh2021-pc}.時系列性能劣化を計測する最も素朴な方法は,実際に新しいテキストを学習コーパスを加えて事前学習済みモデルを構築し,ファインチューニングをして新しいテキストに対する推論を行い,性能を評価し比較することである(図\ref{fig:project_overview}上).しかし,大規模な事前学習済みモデルの構築・ファインチューニング・推論には膨大な計算量が必要なため,費用や時間の側面が実用上の課題となる.特に事前学習済み言語モデルは,性能に関する経験的なスケーリング則\cite{Kaplan2020-vr}の存在に後押しされて大規模化が加速しており,時系列性能劣化の計測にかかる費用・時間も増大している\footnote{たとえば175億のパラメータサイズを持つGPT-3\cite{NEURIPS2020_1457c0d6}は事前学習に数千petaflop/s-dayの計算資源を消費した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{31-4ia6f1.pdf}\end{center}\hangcaption{本研究の問題設定の概要図.学習コーパス内の単語の通時的な意味変化に着目し,事前学習済みモデルの時系列性能劣化を,実際に計測する以前に監査するための手法を開発する.}\label{fig:project_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究の目的は,事前学習済みモデルの時系列性能劣化を,事前学習・ファインチューニング・推論を実施することなく監査する枠組みの開発である(図\ref{fig:project_overview}下).我々は事前学習済みモデルの時系列性能劣化は学習コーパス内の単語の通時的な意味変化に起因するという仮説を定め,セマンティックシフトの研究領域の知見を応用した監査指標\emph{SemanticShiftStability}を設計する(\ref{sec:proposed-method}節).この指標は,異なる時間幅の学習コーパスを用いて作成された2つのword2vecモデルを比較することで計算される.word2vecモデルは比較的低コストで作成できる.事前学習済み言語モデルを追加で事前学習・ファインチューニング・推論することなく,時系列性能劣化を推測できれば,優れた監査の仕組みとなる.提案する監査の枠組みの有用性を検証するため,まず予備実験として事前学習済みモデルの時系列性能劣化を観察した(\ref{sec:degradation}節).具体的には,日本語のRoBERTaモデル\cite{Liu2019-vu}と,日本語・英語のword2vecモデルを,学習コーパスの期間を変えてそれぞれ11ずつ作成した.その後,これらのモデルの時系列性能劣化を監査するという設定で,提案する指標を活用する実験を行った(\ref{sec:experiments}節).この実験を通じて,学習用コーパス間の単語の通時的な意味変化も大きい際に,モデルの時系列性能劣化が発生していると分かった.提案する指標の利点を活かし,意味が大きく変化した単語から原因を推察した結果,2016年の米大統領選や2020年の新型コロナウイルス感染症の影響が示唆された.本研究の主要な貢献は,以下の通りである.\begin{enumerate}\setlength{\parskip}{0cm}%\setlength{\itemsep}{0cm}\itemセマンティックシフトの研究領域の新たな応用として,事前学習済みモデルの時系列性能劣化を監査する枠組みを提案した.さらにセマンティックシフトに関する既存研究を拡張し,効率的に計算可能な監査指標SemanticShiftStabilityを設計した.\item学習コーパスの期間が異なる英語と日本語の事前学習済みモデルを作成して,時系列性能劣化の存在を明らかにした上で,設計した監査の枠組みの有用性を検証・議論した.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V03N03-03
\vspace*{-1mm}機械翻訳システムは,巨大なルールベースシステムであり,NTTにおいて開発を進めている機械翻訳システムALT-J/E~\cite{Ikehara89,Ikehara90}でも,1万ルール以上のパタン対ルール(翻訳ルール)を利用している.他のルールベースシステムと同様,機械翻訳システムにおいても,ルールベースの作成・改良工数は大きな問題であり,特にそのルール数が巨大なだけに,その工数削減が強く望まれている.ルールベースの構築・保守を支援する手法として,近年,事例からの学習を利用する研究が活発となっている.機械翻訳システムにおいても,ルールベース構築への学習技術適用が試みられており,田中は,英日翻訳事例(コーパス)から語彙選択ルールを学習する手法を提案している\cite{Tanaka94}.また,Almuallimも,日英翻訳事例から,英語動詞選択ルール\footnote{パタン対ルールの主要部分である.}を学習している\cite{Almuallim94c}.更に,宇津呂は,日英翻訳事例から格フレームを獲得している\cite{Utsuro93}.これら既存のアプローチでは,ルールが全く存在しない状態からスタートして,事例のみに基づいてルールを作り出している.従って,未知事例に対して高い正解率を持つルールを学習するには,多くの翻訳事例(これを以下,{\bf実事例}と呼ぶ.)を必要とする.しかし,現実には,既存文書における動詞分布の偏り等の理由により,学習に必要な個数の実事例を,全動詞に対して収集する事は,極めて困難である.事例からの学習がルールベース構築に利用されるようになったのは,矛盾の無い完全なルールを生成する事が,人間には困難だからである.しかし,人間は,完全なルールを構成できなくとも,概略的あるいは部分的なルールは生成できる.そこで,人手作成の粗いルールと実事例とを融合してルールを学習できれば,人手作成ルール及び実事例のいずれよりも高い正解率を持つルールが作成でき,実事例のスパース性の問題を回避できる可能性がある.そこで,本論文では,人手作成のルールと実事例を統合して,より精度の高いルールを生成する,修正型の学習方法を提案する.具体的には,まず,人手作成のルールから逆に事例を生成(以下,この生成された事例を{\bf仮事例}と呼ぶ.)する.次に,仮事例と実事例を既存の学習アルゴリズム(これを,以下,{\bf内部学習アルゴリズム}と呼ぶ.)に入力する.内部学習アルゴリズムの出力が,最終的に獲得されたルールである.内部学習アルゴリズムは,属性ベクトル型の事例表現を持つ学習アルゴリズムなら任意の学習アルゴリズムを選択できる.尚,人手作成ルールの表現形式は,その表現能力の高さからHausslerによるIDE形式\cite{Haussler88}とした.提案手法では,仮事例と実事例の重要度を表現するために,重みを各事例に対して与える必要がある.即ち,人手作成のルールが非常に正確であれば,ルールから生成された仮事例に大きな重みを置くべきである.逆に,人手作成のルールが不正確であれば,小さい重みを置くべきである.提案手法では,この最適な重みの決定に,クロスバリデーションによるパラメータチューニングを利用する.本手法の有効性を評価するため,既存のドキュメントから抽出した実事例を用いて,ALT-J/Eの英語動詞選択ルールの獲得実験を行なった.内部学習アルゴリズムとしては,意味カテゴリーシソーラスのエンコーディング手法に特徴を持つAlmuallimによる学習手法\cite{Almuallim94c}を利用した.その結果,本手法により獲得された英語動詞選択ルールは,実事例のみから獲得されたルールや初期投入した人手作成のルールに比べて,高い正解率を示した.以下,第2章では,英語動詞選択ルールを説明する.第3章では,従来のアルゴリズムとその問題を概観する.新しい学習手法を第4章で提案する.第5章では,評価結果を示す.第6章では,他の修正型学習手法との差異について論ずる.第7章は本論文のまとめである.
V29N02-12
\label{sec:intro}文法誤り訂正は,文書中の様々な種類の誤りを自動的に訂正する自然言語処理の研究課題であり,言語学習者の作文支援への応用が期待されている.機械翻訳のモデルを用いて,誤りを含む文から正しい文への翻訳を行う手法が効果的であり,特に,近年ではニューラル機械翻訳で用いられる手法を応用する研究が活発になされている.機械翻訳の手法を用いるためには,\citeA{mizumoto-etal-2011-mining}のLang-8コーパスなどの大規模な学習データが必要となる.しかし,\citeA{junczys-dowmunt-etal-2018-approaching}で指摘されているように,高品質なニューラル機械翻訳モデルを学習するためには,依然,学習データの量は不十分である.この問題に対処するため,データ拡張によって大規模な学習データを人工的に生成し,そのデータを用いて事前学習を行ったモデルに対し,文法誤り訂正のデータセットで再学習(ファインチューニング)を行う手法に注目が集まっている\cite{lichtarge-etal-2019-corpora,zhao-etal-2019-improving,grundkiewicz-etal-2019-neural,kiyono-etal-2019-empirical}.文法誤り訂正のデータ拡張では,単言語コーパスの誤りのない文に誤りを生成し,人工データを作成する.最も平易なデータ拡張手法は,ランダムな置き換え・挿入・削除の編集操作によって,誤りを生成するものである\cite{zhao-etal-2019-improving}.このランダムな編集操作は,効果的な事前学習が行えるものの,実際の文書中に出現する誤りを再現するものとはなっていない.そのため,これを改善するための様々な手法が考案されている.例えば,編集操作を行う際に,前置詞や冠詞などの特定の文法カテゴリや,綴り・約物などの表記に対して,誤りを生成するルールを活用することで,人工データの質を改善する手法が提案されている\cite{choe-etal-2019-neural,takahashi-etal-2020-grammatical,flachs-etal-2019-noisy,grundkiewicz-etal-2019-neural}.また,機械翻訳モデルを活用して折り返し翻訳を行う手法や\cite{lichtarge-etal-2019-corpora},逆翻訳を応用した誤り生成\cite{kiyono-etal-2019-empirical,wan-etal-2020-improving}などが提案されている.さらに,データ拡張を行う際に,何が性能向上に寄与するかという点に関して,活発に研究が行われている.本研究では,その中の,特に以下に示す3つの要素に着目し,その妥当性を検証する.本論文では,これらをデータ拡張に重要とされる3つの仮定と呼ぶ.\begin{itemize}\setlength{\itemindent}{3em}\item[仮定(1)]生成される誤りの種類の多様さが,訂正性能に寄与する.\item[仮定(2)]特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する.\item[仮定(3)]データ拡張に用いるデータの規模が,訂正性能に寄与する.\end{itemize}以下に,文法誤り訂正のデータ拡張の研究において,これらの仮定の妥当性を検証する背景と,その意義・貢献について説明する.仮定(1)「生成される誤りの種類の多様さが,訂正性能に寄与する」について説明する.生成される誤りの多様さが重要であるということがデータ拡張を行う際に重要であることは,以前から着目されており,誤り生成モデルに対して,ノイズを加える手法や,複数の候補を用いることで性能の向上が確認されている\cite{ge-etal-2018-fluency,xie-etal-2018-noising}.さらに,誤り種類を分類した誤りタグを用いて,誤り種類ごとに誤り生成を行うことで,高い性能向上が確認されている\cite{wan-etal-2020-improving,stahlberg-kumar-2021-synthetic}.一方で,これらの手法では,誤り種類の多様さを変化させた検証を行っていない.そのため,人工データ中の誤り種類が多様であることが,訂正性能に及ぼす影響を評価できていない.仮定(1)を検証することで,既存の研究で仮定されている,誤り種類に着目し,人工データの誤りの多様さの重要性を再検証し,データ拡張手法を考案する上で考慮すべき性質が何かを明らかにする.仮定(2)「特定の種類の誤りが生成されることが,その種類の誤り訂正性能に寄与する」について説明する.誤り種類ごとに性能を評価している既存研究は存在しているが\cite{takahashi-etal-2020-grammatical},生成される誤り種類を変えた評価は行われていない.仮定(2)を検証することで,特定の誤り種類が確実に生成されていることの重要性を再検証する.さらに,様々な種類の誤りに対してデータ拡張を行った場合に,誤り種類ごとに適切に誤りが生成されていることが,重要であることを明らかにする.仮定(3)「データ拡張に用いるデータの規模が,訂正性能に寄与する」について説明する.データ拡張は,数千万文程度の,大規模なコーパスに対して行われる.データの規模を大きくすると,訂正性能が向上することは既存の報告で確認されている\cite{kiyono-etal-2019-empirical,wan-etal-2020-improving}.しかし,単にデータ拡張に用いるデータを大きくするだけでは,事前学習を行ったステップ数や,同じ単言語文から複数の異なる誤り文を生成した場合の影響の有無など,データの規模以外の要因の影響が評価できない.仮定(3)を検証することで,既存の研究で仮定されている,大規模データを用いたデータ拡張の有効性を再検証し,大規模データを用いる際に,実験設定を決定するための根拠を提供できる.本研究では,これらの仮定の妥当性を検証するため,様々な文法カテゴリにおける誤りを生成するルールを作成し,それらを組み合わせることで誤り生成を行う.ルールを活用することで,折り返し翻訳や逆翻訳などのモデルベースの誤り生成手法と比較して,生成される誤りの種類を確実に制御することができる.この手法を用いることで,仮定(1)と仮定(2)に対して,それぞれ次のように検証を行うことができる.\begin{itemize}\item誤り生成に用いるルールの種類を変えることで,データ中の誤り種類を制御することができる.そのため,誤り種類の多様さが訂正性能に与える影響を評価することができる.\item誤り生成に用いるルールの種類を変えることで,どの種類の誤りが事前学習・再学習を行った後の訂正性能に影響を与えるか評価することができる.\end{itemize}さらに,仮定(3)に対しては,事前学習におけるパラメータの更新回数を固定しながら,データ拡張に用いる単言語コーパスの規模を評価し,検証を行うことができる.加えて,以下の3つの実験を行い,提案手法単体の評価を行う.\begin{itemize}\item人手で作成されたデータを用いず,ルールを用いて生成されたデータのみを用いて学習を行い,その性能を評価し,学習者データを用いない教師なし設定の手法としての有効性を確認する.\item折り返し翻訳と逆翻訳によるデータ拡張と,既存のベンチマーク上で比較を行い,ルールによる誤り生成の利点と欠点について分析を行い,その利点と限界について明らかにする.\itemルールによる誤り生成を大規模に行い,学習に用いることで,既存のベンチマーク上で大規模学習データを用いた他の最先端手法と比較を行い,本手法の利点や限界について明らかにする.\end{itemize}本研究の主な貢献は以下の6つである.\begin{itemize}\item編集操作による単純な誤り生成規則を文法カテゴリごとに多数作成し,組み合わせる手法を考案した.\item人工データ中の誤り種類の多様さが性能向上に寄与することを,誤りカテゴリごとでの比較で検証した.\item特定の種類の誤りが生成されていることが,その種類の誤り訂正性能の向上に寄与することを示した.\itemデータ拡張によって性能向上を得るためには,単言語コーパスの規模ではなく,十分なパラメータ更新回数と誤り生成回数が必要であることを示した.\item提案手法が教師なし設定で,既存の手法と比較して高い性能を示すことを確認した.\item折り返し翻訳や逆翻訳でのデータ拡張と,提案手法との比較により,ルールによる誤り生成の性質について分析を行った.\end{itemize}本稿ではまず,\ref{sec:rw}節で文法誤り訂正のデータ拡張に関する関連研究を紹介する.\ref{sec:eg}節では,本研究で用いるデータ拡張手法について説明する.\ref{sec:settings}節では,実験に用いるデータやモデルについて説明する.\ref{sec:expt}節にて,3つの仮定について検証する実験を行い,議論する.\ref{sec:comp}節にて,提案手法と既存の手法との比較を行う.\ref{sec:owari}節にて,本稿のまとめを記す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V05N04-06
バリアフリーというキーワードの下に各種福祉機器の開発やパソコンソフトの開発が企業や大学で進められている.なかでも視覚障害者向けには点字ピンディスプレイや音声合成装置などを用いて,コンピュータによる積極的な情報処理教育,職業訓練が行われている.このためにはコンピュータのマニュアルや教科書等を点字に翻訳する必要があるが,点字翻訳ボランティアの数は少なく,年間,一人のボランティアが翻訳できる専門書は3,4冊程度である.日本語を点字に翻訳するシステムは過去にいくつか提案されており,市販されているものもある.日本アイ・ビー・エムの嘉手川らは約77000語の基本単語辞書を用いて分かち書きと漢字かな変換を行うシステムを開発した\cite{kadekawa}.筑波技術短期大学の河原は市販の点字翻訳プログラムの誤りを解析し,ICOTの形態素解析辞書を用いて点字翻訳結果の改良を行うシステムについて報告している\cite{kawahara}.このような状況のなかで,点字翻訳ボランティアにとって最も時間がかかり,難しいとされている分かち書きを自動的に行い,かつ,誤っている可能性のある箇所を指摘して初級点字翻訳ボランティアの分かち書きを支援する方法について考察し,試作システムを構築したのでそれについて報告する\cite{Suzukietal1997a},\cite{Suzukietal1997b},\cite{Suzukietal1997c}.一方,対話システムとしては,最近,情報機器との自然なコミュニケーションを目指して様々な対話システムやユーザインタフェースの研究が行われている\cite{hatada}.ここでは筆者らの提案する対話型システムに最も類似した機能をもつと考えられる,畑田らのOCRの誤り修正支援システムとの比較検討を行う.
V31N04-10
\label{chap:inin}X(旧Twitter\footnote{研究期間中にサービス名称が変更された.以降,本論文ではTwitterの名称で統一表記する.})やFacebookなどのSNSサービスの普及により,日々,多くの人々によって様々な情報がSNS上に投稿,発信されている.その大量の投稿からは,しばしば利用者にとって有益な情報が取得でき,例えば,利用者は検索機能などを通して大量にある投稿の中から特定地域の天候情報や災害状況など所望の情報を得ることができる\cite{kruspe-etal-2021-changes}.以前から,このようなユーザにとって有益な地域情報をあらかじめ地域ごとに自動的にまとめ上げておき,ユーザ要求に応じて提示するサービスが望まれてきたが,その実現のためには,情報源となる各投稿が投稿された場所を特定する必要がある.SNSサービスの中には投稿場所の情報をメタ情報として保持している場合もあるが,例えば,Twitterにおける位置情報付き投稿は全投稿の1\%に満たないことが報告されている\cite{sloan2013knowing}.また,SNS投稿への位置メタ情報の付与は縮小傾向にあるとの報告もあり\cite{kruspe-etal-2021-changes},メタ情報から得られる投稿場所情報には限りがあると言える.そこで近年,SNS投稿文書からそれが投稿された場所(地理的位置)を推定する文書ジオロケーション課題に関する研究が進められている\cite{okajimajapanese,lau2017end,hasni2021word}.文書ジオロケーション課題では,文書内に現れる地名やランドマークへの言及(例えば,「東京」や「東京タワー」)が,投稿がなされた地理的位置を推定する有力な手がかりになることが多い.しかしながら,それらの中には地理的な曖昧性を含んでいる場合もある.例えば,図\ref{fig:document_geolocation}の例では,投稿文書内の「中華街」や「ランタンフェスティバル」という言及が,この投稿文書が投稿された地理的位置の絞り込みには寄与しそうであるが,この情報だけでは特定の一箇所に絞り込むまでには至らない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[b]\begin{center}\includegraphics{31-4ia9f1.pdf}\end{center}\hangcaption{47都道府県レベルでの文書ジオロケーション課題の様子(下線部は手がかりとなりそうであるが,この情報だけでは特定の一箇所に絞り込むには至らない).}\label{fig:document_geolocation}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上の背景を受けて,本研究では,文書内に出現する地理的位置属性をもつ事物への言及,すなわち,実世界上の地理的位置をあらわす地名や,一定の期間,実世界上のある地理的位置に留まって存在している施設や組織などへの言及に対し,その地理的位置の特定のしやすさを表す指標として,地理的特定性指標を提案する.先程の例で言えば,文書内における「東京」や「東京タワー」という言及は地理的特定性が高く,「中華街」や「ランタンフェスティバル」はそれらに比べると地理的特定性が低くなると考えられるが,本研究では,このような値をデータから客観的に推定する.そして,既存の文書ジオロケーション手法に地理的特定性指標の推定値の情報を取り込んだ文書ジオロケーション実験を実施し,文書ジオロケーション課題における地理的特定性指標の有効性を検証する.なお,本論文では以降で「エンティティ」および「言及」という用語を用いるが,本研究では研究遂行の便宜性から,エンティティリンキング課題の一つの設定であるWikification課題\cite{mihalcea2007wikify}を参考にし,Wikipediaの各エントリページを「エンティティ」と捉え,文書内でそれらエンティティを参照するために使用されている個々の言語表現をエンティティに対応する「言及」と呼ぶ.また,詳細は後述に譲るが,本研究では地理的特定性の値を算出するためにWikipediaページ内にある一部のアンカ文字列に注目する.これらも便宜的に「言及」と呼ぶ.両者の「言及」を図示すると,図\ref{fig:mentions}のようになる.前者(図\ref{fig:mentions}左)の文書内の「言及」はエンティティリンキング課題と同様に文書内の各トークンを指す用語として使われる.一方,後者(図\ref{fig:mentions}右)のアンカ文字列である「言及」は,それぞれのアンカ文字列の文字列の違いを区別する意図で使われており,トークンではなくアンカ文字列のタイプを指している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[b]\begin{center}\includegraphics{31-4ia9f2.pdf}\end{center}\hangcaption{本論文での用語「エンティティ」と「言及」の整理.図左は文書内の言及,図右はWikipedia内アンカ文字列としての言及を示している.}\label{fig:mentions}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V12N05-03
\label{sc:1}待遇表現は日本語の特徴の一つである.敬語的な表現は他の言語にも見られるが,日本語のように,待遇表現を作るための特別な語彙や形式が体系的に発達している言語はまれである\cite{水谷1995}.日本語の待遇表現は,動詞,形容詞,形容動詞,副詞,名詞,代名詞など,ほぼ全ての品詞に見られる.特に,動詞に関する待遇表現は他の品詞に比べて多様性がある.具体的には,動詞に関する待遇表現は,以下の4つのタイプに大別できる.1)「\underline{お}話しになる」や「\underline{ご}説明する」などのように,接頭辞オもしくは接頭辞ゴと動詞と補助動詞を組み合わせる,2)「おっしゃる」と「申す」(いずれも通常表現\footnote{いわゆる``敬語"は用いず,通常の言葉を用いた表現.}は「言う」)などのように動詞自体を交替させる,3)「話し\underline{て}頂く」「話し\underline{て}下さる」「話し\underline{て}あげる」などのように助詞テを介して補助動詞が繋がる,4)「ます」「れる」「られる」などの助詞・助動詞を動詞と組み合わせる,などがある.これらの中でも1つ目のタイプ(以下,「オ+本動詞+補助動詞」を``オ〜型表現",「ゴ+本動詞+補助動詞」を``ゴ〜型表現"と呼ぶ)は,同じ本動詞を用いた場合でも,補助動詞との組み合わせによって尊敬語になる場合と謙譲語になる場合がある,という複雑な特徴を持つ.ここで,オ〜型表現とゴ〜型表現の違いについては,形式に関しては,原則的に,接頭辞ゴに続く本動詞が漢語動詞であり,接頭辞オに続く本動詞が和語動詞であるということが従来の言語学的研究で指摘されてきた.しかし,その機能に関しては,接頭辞の違いは考慮せずに同じ補助動詞を持つ表現をまとめて扱うことが多く,両者の違いについて言及されることは,これまで殆どなかった.ところが,待遇表現としての自然さの印象に関してオ〜型表現とゴ〜型表現を比較した先行研究において,それが誤用である場合にも,オ〜型表現に比べてゴ〜型表現は,概して,不自然さの印象がより弱いという傾向が見られた.そしてその理由として,待遇表現としての認識に関するオ〜型表現とゴ〜型表現の違いが議論された\cite{白土他2003}.ここでもし,待遇表現としての認識に関して,オ〜型表現とゴ〜型表現の間で本質的な違いがあるとするならば,自然さの印象だけでなく,待遇表現に関する他のさまざまな印象の違いとしても観測できるはずである.そこで,本研究では,待遇表現の最も典型的な属性である丁寧さに注目する.すなわち,本研究は,待遇表現の丁寧さの印象に関するオ〜型表現とゴ〜型表現の違いについて定量的に調べることを目的とする.
V08N02-01
本論文では日本語単語分割を分類問題とみなし,決定リストを利用してその問題を解く.このアプローチは文字ベースの手法の一種となり,未知語の問題を受けないという長所がある.また分類問題ととらえることで,ブースティングの手法が適用できる.その結果,単独の決定リストを利用するよりも,さらに精度を向上させることができる.日本語形態素解析は,日本語情報処理において必須の要素技術であり,その重要性は明らかである.日本語形態素解析は単語分割と分割された単語への品詞付与という2つのタスクをもつ.正しい単語分割からは英語の品詞タガーなどの技術を利用して,高精度に品詞付与ができるために,日本語形態素解析の本質的に困難な部分は単語分割である.特に未知語の問題が深刻である.未知語の問題とは,辞書に登録されていない単語の出現によりその単語とその単語の前後での単語分割が誤るという問題である.未知語の問題に対処する一つの方法として,文字ベースの単語分割手法がある.文字ベースの手法とは,辞書を使わずに,各文字間に単語境界が存在するかどうかを判定することで単語分割を行う手法である.従来,文字ベースの手法としては,文字ベースのHMM(HiddenMarkovModel)が提案されている.文字ベースのHMMは,状態として文字間に単語境界が存在する(状態1)としない(状態0)の2つを設定し,状態間を遷移するときに各文字が出力されるモデルである.単語分割は遷移した状態列を推定することで行える.文字ベースのHMMでは状態aから状態bに移るときに文字cを出力する確率を訓練データから得る.本質的にこの確率の精度が単語分割の精度を左右する.通常その確率を計算するためにtri-gramモデルを利用するが,常識的に考えても,前2文字から次の文字を予測することは難しく,文字ベースのHMM単独ではそれほどの精度は期待できない.このため,様々な工夫を付加する必要がある\cite{yamamoto97,tsuji97,oda98}.本論文では単語分割をHMMによりモデル化して解くのではなく,分類問題として定式化して解く.先ほども述べたように,日本語単語分割は,各文字間に単語境界が存在する(クラス\(+1\))か存在しない(クラス\(-1\))かを判定する問題であり,これは分類問題に他ならない.分類問題を解くために設定する属性として,辞書情報を使わないことで,文字ベースの単語分割手法と同様未知語の問題を受けない.また分類問題として見なすことで,n-gramモデルでは利用の困難であった様々な属性を判定の材料として利用可能になる.さらに,分類問題は機械学習や統計学で活発に研究されている問題であり,それらの研究成果を直接利用することができる.本論文では単語分割を分類問題と見なし,分類問題に対する帰納学習手法の一つである決定リスト\cite{Yarowsky1}を用いて,その問題を解く.さらに,近年,機械学習の研究分野では弱学習器を組み合わせて強学習器をつくるブースティングの研究が盛んである.ここではその代表的な手法であるアダブースト\cite{adaboost}を本問題に対して適用する.実験では,タグつきのコーパスである京大コーパス(約4万文)を訓練データとして,決定リストを作成した.その決定リストを利用した単語分割は,同じデータから学習させた文字tri-gramモデルに基づく単語分割法(文字ベースのHMMの一種)よりも高い精度を示した.さらに,アダブーストを利用することで,単独の決定リストよりも高い精度を得ることができた.また本手法の未知語の検出率が高いことも確認した.
V03N01-02
複合名詞は名詞を結合することによって数限りなく生成できるので,全てを辞書に登録することは不可能である.したがって,辞書に登録されている名詞の組み合わせとして複合名詞を解析する手法が必要である.そのためには,複合名詞をそれを構成している名詞に分割し(複合名詞の形態素解析),名詞間の係り受け構造を同定しなくてはならない.例として,「歩行者通路」という複合名詞をとりあげる.「歩行者通路」の分割可能性として少なくとも「歩行/者/通路」,「歩/行者/通路」の2通りが考えられる.さらに,前者の分割の結果に対して[[歩行,者],通路]と[歩行,[者,通路]]の2通りの係り受け構造が,後者については[[歩,行者],通路]と[歩,[行者,通路]]の2通りの係り受け構造が考えられる.このなかから正しい係り受け構造[[歩行,者],通路]を選択しなくてはならない.日本語のように語と語の間に区切り記号のない言語では,まず,複合名詞の分割が困難である.また,複合名詞は名詞の並びによって構成されているので,品詞などの統語的な手係りが少なく,係り受け構造の解析も困難である.したがって何らかの意味的な情報を用いることが必要である.そのために方法として,名詞をいくつかの意味的なクラスに分け,それらのクラスの間の係り受け関係に関する情報を用いて複合名詞の構造を解析することが考えられる.たとえば,宮崎らは,語が表す概念に関する知識,概念間の係り受けに関する規則を人手で記述し,これらを用いて複合名詞の係り受け構造を解析する方法を提案している~\cite{miyazaki:84:a,miyazaki:93:a}.AI関係の新聞記事のリード文に現れる複合名詞で未定義語を含まない語167語の解析に適用し精度94.6\%で解析できている\footnote{この結果はNTT通信研究所が独自に作成した辞書や知識ベースを用いて得た結果であるので,一般に手に入る辞書や知識ベースを用いて得た結果と簡単に比較できない.}\cite{miyazaki:93:a}.この方法では,係り受けが成立する名詞意味属性の組を表に記述し,その表を用いて係り受けを解析している.この表からは,係り受けが可能か不可能かを知ることはできるが,複数の係り受けの可能性がある場合にどちらが尤もらしいかといったことを知ることはできない.対象領域を拡大したり語彙を増やした場合,このような成立/不成立のような2値の情報で正しく係り受け解析が行なえるか検討の余地がある\footnote{現在のバージョンでは構造的曖昧性のある複合名詞に対して候補それぞれに評価値をつける方向で拡張がなされている.}.また,高い精度を得るためには,係り受け規則や名詞意味属性の体系を領域にあわせて調整することが不可欠である.このように人手で知識を記述する場合には以下の問題がある.\begin{itemize}\item新しい言語現象に対応するための規則や知識の拡張や保守が容易でない.\item領域ごとに知識を用意するのはコストが高い.\end{itemize}これらの問題を解決するためには,複数の候補に何らかの優先度をつける方法と自動的に知識を獲得する方法の2つが必要である.そのような方法を研究しているものに,藤崎らの研究がある~\cite{nishino:88:a,takeda:87:a}.藤崎らは,複合名詞の分割にHMMモデルを用い,係り受け構造を解析するために統計的クラスタリングによって得た語のクラスと確率付き文脈自由文法を用いている.平均語長4.2文字の漢字複合語を精度73\%で解析している.以下の問題点がある.\begin{itemize}\item複合名詞の分割を統計的な方法(HMM)のみで行なっているため,存在しない語を含む分割結果が得られることがある.\item統計的に得た語のクラスが,語の直観的な意味的クラスを反映しないことがあるので構造解析の結果を用いて意味解析を行なう場合に障害になる.\item複合語は1文字語と2文字語から構成されると仮定している.\end{itemize}藤崎らの方法は複合名詞の統計的な性質のみを用いている点が問題である.語の意味クラスについては,すでに言語学者が作成した意味分類辞書(たとえば,分類語彙表~\cite{hayashi:66:a})がある.このような知識も積極的に利用すべきである.本論文では,既存の意味分類辞書とコーパスから自動的に抽出した名詞間の意味的共起情報を用いて複合名詞の係り受け構造を解析する方法を提案する.Churchらは,大量の語と語の共起データから相互情報量を計算することで意味的なつながりの程度を評価できることを示している~\cite{church:91:a}.この場合の問題は,正しい共起データを大量に獲得することが困難なことである.統語的,意味的曖昧性が解消されていない共起データでは正しい統計情報は獲得できない.自動的に大量の正しい共起データを獲得する方法を考えなくてはならない.本論文では,大量の共起情報をコーパスから高い精度で自動的に獲得するために4文字漢字語を利用する.まず,4文字漢字語16万語から意味クラスの共起データを抽出した.抽出した共起データから統計的に名詞間の意味的関係の強さを計算する.そのための尺度として相互情報量を基にした評価尺度を提案する.この尺度と複合名詞の構造に関するヒューリスティクス,機械可読辞書から得られる言語知識を用いて複合名詞を解析する.評価のために新聞や用語集から抽出した漢字複合名詞を解析し,平均語長5.5文字の漢字複合名詞を約78\%の精度で解析できた.実際の文章では,漢字複合名詞の平均語長は約4.2文字であることを考慮すると,我々の方法による係り受け構造の解析精度は約93\%と推定される.本論文の構成は以下の通りである.\ref{sec:acq}章で共起データの獲得方法について,\ref{sec:anl}章で複合名詞の解析方法について述べる.\ref{sec:rsl}章で提案した方法を用いて複合名詞を解析した実験と結果について述べる.\ref{sec:imp}章では\ref{sec:rsl}章での結果に基づきヒューリスティクス導入による解析方法の改良について述べ,\ref{sec:rsl2}章で改良した方法による解析結果について述べる.
V26N04-03
ニューラル機械翻訳は従来手法の句に基づく統計的機械翻訳に比べて,文法的に流暢な翻訳を出力できる.しかし訳抜けや過剰翻訳などの問題が指摘されており,翻訳精度に改善の余地がある\cite{koehn-knowles:2017:NMT}.このような問題に対して句に基づく統計的機械翻訳では,対訳辞書を用いてデコーダ制約\cite{koehn-EtAl:2007:PosterDemo}を実装することにより翻訳精度を改善していたが,ニューラル機械翻訳では対訳辞書を有効活用するアプローチが明らかではない.ニューラル機械翻訳において対訳辞書を使用して翻訳精度を向上させる先行研究として,モデル訓練時に対訳辞書を用いて単語翻訳確率にバイアスをかける手法\cite{arthur-neubig-nakamura:2016:EMNLP2016}があげられる.この手法ではモデルの訓練が対訳辞書に依存しているため,辞書の更新や変更は容易ではない.本稿ではニューラル機械翻訳システムの翻訳精度の向上を目的として,単語報酬モデルにより対訳辞書をニューラル機械翻訳に適用する手法を提案する\footnote{本稿はIWSLT$2018$で発表した論文\cite{takebayashi}に比較実験と分析を追加したものである.}.単語報酬モデルは正しい翻訳文に出現すると期待される単語集合を辞書引きにより入力文から予測する``目的単語予測''と,得られた単語集合を用いてそれらの出力確率を調整する``単語報酬付加''から構成される.提案手法は訓練済みの翻訳モデルのデコーダにおいて,予測された単語の翻訳確率に一定の増分を加えるのみであるため,既存の翻訳モデルを再訓練する必要がない.このため,本手法は既存の訓練済みニューラル機械翻訳システムのデコーダに実装することで機能し,また辞書の更新や変更も容易に行える利点がある.日英と英日方向の翻訳実験を行った結果,対訳辞書を用いた単語報酬モデルは翻訳精度を有意に改善できることを示した.また,テスト時のデコーディングの際に既存手法\cite{arthur-neubig-nakamura:2016:EMNLP2016}と組み合わせると,それぞれを単一で用いたときよりも翻訳精度が向上することを実験的に示した.本稿の構成は以下の通りである.まず$2$章で提案手法が前提とする注意機構付きのエンコーダ・デコーダモデルについて説明したのち,$3$章で提案手法である単語報酬モデルについて述べる.$4$章では実験設定を述べ,$5$章では対訳辞書の性質が提案手法に与える影響を検証するため,シミュレーションによる辞書を用いた実験を行う.$6$章では実際に利用可能な対訳辞書を用いて提案手法の性能を示し,$7$章では既存手法との比較を行う.$8$章では関連研究について議論し,$9$章で本稿のまとめとする.
V07N04-02
韓国語言語処理について述べる.朝鮮半島は日本にとって歴史的,経済的,社会的に関係の深い周辺地域であり,その意味において韓国語は非常に重要な外国語の一つである.また言語的に,韓国語は日本語に類似する特徴を最も多く持つ言語,つまり日本語に最も近い言語と考えられている.すなわち,日本語言語処理にとって最も参考にすべき外国語が韓国語である.このような背景にも関わらず,日本における韓国語処理,特に日韓翻訳や韓日翻訳に関する研究は,十分に議論されているとは言えない.韓国語は日本語に最も類似した言語であるが故に機械翻訳も容易であり,研究の必要性は低く見られがちである.しかし日韓翻訳に関して文献\cite{日韓評価}が指摘するように,市販システムの翻訳品質は依然低い.また我々の見る限り,韓日翻訳に関しても状況は同じである.これは同論文の結論でも述べているように,正確な分析に基づく翻訳になっていないからであると考える.そこで,本研究では韓国語を対象に,機械翻訳をはじめほとんどの言語処理の基本単位である形態素に対して検討を行なった.日韓翻訳あるいは韓日翻訳の際に,形態素をどのように捉えて,どのように処理すればいいのだろうか.特に,韓国語形態素をどう機械処理すべきか,一般に言われている韓国語の品詞体系が本当に計算機処理に適当なのかという議論,あるいは後述する音韻縮約現象をどう捉えるかという問題を,ここでは研究の対象にする.このような問題意識に基づく研究は,従来ほとんど見ることができない{}\footnote{これは韓国語に限定したことではない.計算機用言語体系の議論は日本語\cite{渕文法}\cite{宮崎文法}やスペイン語\cite{スペイン語品詞体系}に対する文献など若干が見受けられるのみである.}.以上のような動機のもと,日本における韓国語処理への理解と議論の活性化を願い,本論文では韓国語の言語処理をどう行なうべきかの一つの実例を示すことによって提案を行なう.本論文で行なう提案は大きく,以下の4項目に分類される.\begin{itemize}\item形態素体系(\ref{節:形態素体系}節)\item品詞体系(\ref{節:品詞体系}節)\item形態素解析(\ref{節:形態素解析}節)\item生成処理(\ref{節:生成処理}節)\end{itemize}日本語について考えた場合,これら形態素に関連する4項目は別個に検討され,議論されている場合が多い.しかし,本論文では韓国語に関して一括して議論を進める.これは,形態素や品詞体系と形態素解析,生成処理は相互に深く関係している体系と処理であり,相互を関連づけながら議論を進めた方が得策と考えたからである.どのような品詞体系を取るか,形態素にどのような情報をどのように持たせるかによって,最適な形態素解析手法は異なることが予想され,例えば同一の統計的手法であっても品詞数によって最適な統計の取り方は異なってくるはずである.また逆に,形態素解析結果を分析することによって言語体系は再検討すべきであり,例えば正しく解析できることが全く期待できない言語体系は機械処理上意味がないので体系を見直さなければならない.本論文で提示する韓国語体系の特徴は機械処理のしやすさを考慮して設計した体系である,という点にある.すなわち,形態素解析における誤りを分析することで仕様を再検討し,できるだけ誤りの少ない体系となるよう努めた.また,機械翻訳での必要性を考慮して,機械翻訳で必要性の低い品詞分類は統合し,重要な分類は必要に応じて細分化を行なった.また韓国語の一つの特徴である分かち書きや音韻縮約に対して,どのように機械的な処理を行なうかについても提案を行なった.形態素解析では,統計的手法を基本としながら韓国語固有の問題に対しては独自の対応を施すことで良好な解析精度が得られた.韓国語生成処理では,特に分かち書き処理について,提案した品詞体系を利用した規則を作成した.我々は,多言語話し言葉翻訳の一環として日韓翻訳,並びに韓日翻訳の研究を行なっている.翻訳手法としては変換主導翻訳(Transfer-DrivenMachineTranslation,TDMT)\cite{古瀬99}を用い,日韓/韓日のみならず日英/英日/日独/日中を全く同一の翻訳部で処理を行なっている.各言語固有の形態素解析,生成処理については言語ごとに作成する.本論文で述べる形態素体系,品詞体系,形態素解析,生成処理はいずれもTDMTの日韓翻訳部,韓日翻訳部に実装されている.本論文では韓国語固有の問題について議論するため,共通のエンジンである翻訳部については述べない.従ってTDMTによる翻訳処理機構に関しては{}\cite{古瀬99}を,特にTDMTの日韓翻訳部については{}\cite{IPSJ:TDMT日韓}を,それぞれ参照されたい.本論文では,論文の読者が日本語話者であることを意識して議論を進める.すなわち,日本語と韓国語の両言語を比較,対比して述べたり,韓国語の現象を日本語に写像して説明したりすることを試みる.日本語と対照させることで韓国語の特徴を浮彫りにすることができると考えた.またこれによって韓国語処理の研究もしくは韓国語そのものに理解を深めることができればと願っている.前述したように,日本語は韓国語と類似する特徴を多く持つ言語であるから,本論文で述べる体系や処理は,韓国語処理のみならず日本語処理に関しても部分的に有用であると期待している.なお,本論文の処理対象言語であり,主に朝鮮半島において使用されるこの言語の名称は,ハングル,朝鮮語,コリア語などと表現される場合もあるが,本論文ではこれを「韓国語」で統一する.
V21N03-02
計算機技術の進歩に伴い,大規模言語データの蓄積と処理が容易になり,音声言語コーパスの構築と活用が盛んになされている.海外では,アメリカのLinguisticDataConsortium(LDC)とヨーロッパのEuropeanLanguageResourcesAssociation(ELRA)が言語データの集積と配布を行う機関として挙げられる.これらの機関では,様々な研究分野からの利用者に所望のコーパスを探しやすくさせるために検索サービスが提供されている.日本国内においても,国立情報学研究所音声資源コンソーシアム(NII-SRC)や言語資源協会(GSK)などの音声言語コーパスの整備・配布を行う機関が組織され,コーパスの属性情報に基づいた可視化検索サービスが開発・提供されている(Yamakawa,Kikuchi,Matsui,andItahashi2009,菊池,沈,山川,板橋,松井2009).コーパスの属性検索と可視化検索を同時に提供することで,コーパスに関する知識の多少に関わらず所望のコーパスを検索可能にできることも示されている(ShenandKikuchi2011).検索に用いられるコーパスの属性情報として,収録目的や話者数などがあるが,speakingstyleも有効な情報と考えられる.郡はspeakingstyleと類似の概念である「発話スタイル」が個別言語の記述とともに言語研究として重要な課題であると指摘している(郡2006).Jordenらによれば,どの言語にもスタイルの多様性があるが,日本語にはスタイルの変化がとりわけ多い(JordenandNoda1987).しかしながら,現状では,前述の機関では対話や独話などの種別情報が一部で提供されているに過ぎない.また,同一のコーパスにおいても話者や収録条件によって異なるspeakingstyleが現れている可能性もある.そこで,本研究ではspeakingstyleに関心を持つ利用者に所望の音声言語コーパスを探しやすくさせるため,音声言語コーパスにおける部分的単位ごとのspeakingstyleの自動推定を可能にし,コーパスの属性情報としてより詳細なspeakingstyleの集積を提供することを目指す.Speakingstyleの自動推定を実現するためには,まずspeakingstyleの定義を明確にする必要がある.Joosは発話のカジュアルさでspeakingstyleを分類し(Joos1968),Labovはspeakingstyleが話者の発話に払う注意の度合いとともに変わると示唆した(Labov1972).Biberは言語的特徴量を用いて因子分析を行い,6因子にまとめた上で,その6因子を用いて異なるレジスタのテキストの特徴を評価した(Biber1988).Delgadoらはアナウンサーの新聞報道や,教師の教室内での発話など,特定の職業による発話を``professionalspeech''として提案し(DelgadoandFreitas1991),Cidらは発話内容が書かれたスクリプトの有無をspeakingstyleのひとつの指標にした(CidandCorugedo1991).Abeらは様々な韻律パラメータとフォルマント周波数を制御することにより小説,広告文と百科事典の段落の3種類のspeakingstyleを合成した(AbeandMizuno1994).Eskenaziは様々なspeakingstyle研究の考察からメタ的にspeakingstyleの全体像を網羅した3尺度を提案した(Eskenazi1993).Eskenaziは,人間のコミュニケーションは,あるチャンネルを通じて,メッセージが話し手から聞き手へ伝達されることであり,speakingstyleを定義する際,このメッセージの伝達過程を考慮することが必要であると主張した.その上で,「明瞭さ」(Intelligibility-oriented,以降Iとする),「親しさ」(Familiarity,以降Fとする),「社会階層」(soCialstrata,以降Cとする)の3尺度でspeakingstyleを定義した.「明瞭さ」は話し手の発話内容の明瞭さの度合いであり,メッセージの読み取りやすさ・伝達内容の理解しやすさや,読み取りの困難さ・伝達内容の理解の困難さを示す.又これは,発話者が意図的に発話の明瞭さをコントロールしている場合も含んでいる.「親しさ」は話し手と聞き手との親しさにより変化する表現様式の度合いであり,家族同士の親しい会話や,お互いの言語や文化を全く知らない外国人同士の親しくない会話などに現れるspeakingstyleを示す.「社会階層」は発話者の発話内容の教養の度合いであり,口語的な,砕けた,下流的な表現(社会階層が低い)や,洗練された,上流的な表現(社会階層が高い)を示している.話し手と聞き手の背景や会話の文脈によって変化する場合もある.ここで,本研究が目指すコーパス検索サービスにとって有用なspeakingstyle尺度の条件を整理し,Eskenaziの尺度を採用する理由を述べる.まず,一つ目の条件として,幅広い範囲のデータを扱える必要がある.音声言語コーパスは,朗読,雑談,講演などの様々な形態の談話を含み,それらは話者ごと,話題ごとなどの様々な単位の部分的単位により構成される.限られた種類の形態のデータからボトムアップに構築された尺度では,一部のspeakingstyleがカバーできていない恐れがある.Eskenaziの尺度は,様々なspeakingstyle研究の考察からメタ的に構築されたものであり,幅広い範囲のデータを扱える点で本研究の目的に適している.データに基づいてボトムアップに構築された他の尺度(例えば(Biber1988)など)の方が信頼性の点では高いと言えるが,現段階では網羅性を重視する.次に,二つ目の条件として,上述した目的から,コーパスの部分的単位ごとに付与できる必要がある.新聞記事,議事録,講演などのジャンルごとにspeakingstyleのカテゴリを設定する方法では,一つの談話内でのspeakingstyleの異なり・変動を積極的に表現することが困難である.一方,Eskenaziの尺度は必ずしも大きな単位に対象を限定しておらず,様々な単位を対象にした多くの先行研究をカバーするように構築されているため,この条件を満たす.最後に三つ目の条件として,日本語にも有効であることが求められる.(郡2006)や(JordenandNoda1987)から,speakingstyleの種類は言語ごとに異なると言え,特定の言語の資料に基づいてボトムアップに構築された尺度では,他の言語にそのまま適用できない恐れがある.Eskenaziの尺度はコミュニケーションモデルに基づいて特定の言語に依存することなく構築されたものであるため,本研究で対象とする日本語にも他の言語と同様に適用して良いものと考える.したがって本研究では,Eskenaziの3尺度を用いて音声言語コーパスの部分的単位ごとのspeakingstyle自動推定を行い,推定結果の集積をコーパスの属性情報として提供することを目指す.これによって,推定された3尺度の値を用いて,例えばコーパス内の部分的単位のspeakingstyle推定結果を散布図で可視化したり,所定の明瞭さ,親しさ,社会階層のデータを多く含むコーパスを検索するなどの応用を可能にする.以降,2章では,speakingstyle自動推定の提案手法について述べる.Speakingstyleの推定に用いる学習データを収集するための評定実験については3章で説明する.4章では評定実験結果の分析,speakingstyleの自動推定をするための回帰モデルの構築および考察を述べる.最後の5章ではまとめおよび今後の方向性と可能性の検討を行う.
V05N02-04
日本語には単語間に明示的な区切りがないので,入力文を単語に分割し,品詞を付加する形態素解析は日本語処理における基本的な処理である.このような視点から,今日までに多くの形態素解析器が人間の言語直観に基づき作成されている.一方,英語の品詞タグ付けではいくつかのコーパスに基づく方法が提案され,非常に高い精度を報告している\cite{Grammatical.Category.Disambiguation.by.Statistical.Optimization,A.Stochastic.Parts.Program.and.Noun.Phrase.Parser.for.Unrestricted.Text,A.Simple.Rule-Based.Part.of.Speech.Tagger,A.Practical.Part-of-Speech.Tagger,Automatic.Stochastic.Tagging.of.Natural.Language.Texts,Equations.for.Part-of-Speech.Tagging,Parsing.the.LOB.corpus,Coping.with.Ambiguity.and.Unknown.Words.through.Probabilistic.Models,Tagging.English.Text.with.a.Probabilistic.Model,Some.Advances.in.Transformation-Based.Part.of.Speech.Tagging,Automatic.Stochastic.Tagging.of.Natural.Language.Texts,Transformation-Based.Error-Driven.Learning.and.Natural.Language.Processing:.A.Case.Study.in.Part-of-Speech.Tagging,Automatic.Ambiguity.Resolution.in.Natural.Language.Processing}.今日,多くの研究者が,英語の品詞タグ付けに関してはコーパスに基づく手法が従来のヒューリスティックルールに基づく手法より優れていると考えるに至っている.日本語の形態素解析に対しては,コーパスに基づく手法が従来のルールに基づく手法より優れていると考えるには至っていないようである.これは,コーパスに基づく形態素解析の研究には,ある程度の規模の形態素解析済みのコーパスが必要であり,日本語においてはこのようなコーパスが最近になってようやく簡単に入手可能になったことを考えると極めて自然である.実際,コーパスに基づく形態素解析に関しては現在までのところ少数の報告がなされているのみである\cite{確率的形態素解析,A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm,EDRコーパスを用いた確率的日本語形態素解析,HMMによる日本語形態素解析システムのパラメータ学習}.これらの研究で用いられているモデルはすべてマルコフモデル($n$-gramモデル)であり,状態に対応する単位という観点から以下のように分けられる.\begin{itemize}\item単語(列)が状態に対応する\cite{確率的形態素解析}.\item品詞(列)が状態に対応する\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm,EDRコーパスを用いた確率的日本語形態素解析,HMMによる日本語形態素解析システムのパラメータ学習}\end{itemize}確率的言語モデルという観点からは,単語を単位とすることは過度の特殊化であり,品詞を単位とすることは過度の一般化である.これらは,未知コーパスの予測力を低下させ,形態素解析の精度を下げる原因になっていると考えられる.我々は,この問題に対処するために,予測力を最大にするという観点よって算出したクラスと呼ばれる単語のグループを一つの状態に対応させ,基礎となる確率言語モデルを改良し,結果として形態素解析の精度を向上する方法を提案する.確率言語モデルとしてのクラス$n$-gramモデルは,最適なクラス分類を求める方法(以下,クラスタリングと呼ぶ)とともにすでに提案されている\cite{Class-Based.n-gram.Models.of.Natural.Language,On.Structuring.Probabilistic.Dependences.in.Stochastic.Language.Modeling,Improved.Clustering.Techniques.for.Class-Based.Statistical.Language.Modelling}.しかし,これらの文献で報告されている実験では,クラスタリング結果を用いたクラス$n$-gramモデルの予測力は必ずしも向上していない.これらに対して,文献(提出中)では削除補間\cite{Interpolated.estimation.of.Markov.source.parameters.from.sparse.data}を応用したクラスタリング規準とそれを用いたクラスタリングアルゴリズムを提案し,クラス$n$-gramモデルの予測力が有意に向上したことを報告している.本論文では,この方法を応用することで得られるクラス$n$-gramモデルを基礎にした確率的形態素解析器による解析精度の向上について報告する.また,未知語モデルに確率モデルの条件を逸脱することなく外部辞書を追加する方法を提案し,この結果として得られる未知語モデルを備えた確率的形態素解析器による解析精度の向上ついても報告する.さらに,上述の改良の両方を施した確率的形態素解析器と品詞体系と品詞間の接続表を文法の専門家が作成した形態素解析器との解析精度の比較を行なった結果について述べる.
V09N05-02
機械翻訳では,統計ベースの翻訳システムのようにコーパスを直接使用するものを除き,変換規則などの翻訳知識は依然として人手による作成を必要としている.これを自動化することは,翻訳知識作成コストの削減や,多様な分野への適応時の作業効率化などに有効である.本稿では,機械翻訳,特に対話翻訳用の知識自動獲得を目的とした,対訳文間の階層的句アライメントを提案する.ここで言う句アライメントとは,2言語の対訳文が存在するとき,その1言語の連続領域がもう1言語のどの連続領域に対応するか,自動的に求めることである.連続領域は単語にとどまらず,名詞句,動詞句などの句,関係節などの範囲に及ぶため,まとめて句アライメントと呼んでいる.ここでは対象言語として,英語と日本語について考える.たとえば,\begin{itemize}\parskip=0mm\itemindent=20pt\item[E:]{\emIhavejustarrivedinNewYork.}\item[J:]{ニューヨークに着いたばかりです.}\end{itemize}\noindentという対訳文があった場合,ここから\begin{itemize}\itemindent=20pt\parskip=0mm\item{\eminNewYork}$\leftrightarrow${ニューヨークに}\item{\emarrivedinNewYork}$\leftrightarrow${ニューヨークに着い}\item{\emhavejustarrivedinNewYork}$\leftrightarrow${ニューヨークに着いたばかりです}\end{itemize}\noindentなどの対応部分を階層的に抽出することを目的とする.これを本稿では同等句と呼ぶ.同等句は2言語間の対応する表現を表しているため,用例ベースの翻訳システムの用例とすることができる.また,同等句同士は階層的関係を持つため,これをパターン化することにより,文をそのまま保持する場合に比べ,用例を圧縮することもできる.従来,このような句アライメント方法として,\shortciteA{Kaji:PhraseAlignment1992,Matsumoto:PhraseAlignment1993,Kitamura:PhraseAlignment1997j,Watanabe:PhraseAlignment2000,Meyers:PhraseAlignment1996}などが提案されてきた.これらに共通することは,\begin{enumerate}\labelwidth=25pt\itemsep=0mm\item構文解析(句構造解析または依存構造解析)と,単語アライメントを使用する\item構文解析器が最終的に出力した結果を元に句の対応を取る\item単語同士の対応は,内容語を対象とする\end{enumerate}\noindent点である.しかし,構文解析器が出力した結果のみを使用すると,句アライメントの結果が構文解析器の精度に直接影響を受ける.特に,従来提案されてきた方式は,構文解析が失敗するような文に関して,対策が取られていない.すなわち,本稿で念頭においている話し言葉のような,崩れた文が多く現れるものを対象とするには不適切であると考えられる.本稿では,構文解析と融合した階層的句アライメント方法を提案する.具体的には,構文解析失敗時においても部分解析結果を組み合わせることにより,部分的な句の対応を出力するよう,拡張する.また,内容語のみでなく,機能語の対応を取ることにより,句アライメント精度そのものの向上を目指す.以下,第\ref{sec-phrase-alignment}章では,句アライメントの基本手法について述べ,第\ref{sec-parsing-for-pa}章では,構文解析との融合を行う.第\ref{sec-word-alignment-for-pa}章では,本提案方式に適合した単語アライメントの機能について述べ,第\ref{sec-eval-alignment}章で提案方式と他の方式との比較などの評価を行う.なお,本稿は,\shortcite{Imamura:PhraseAlignment2001-2}を基に,加筆修正したものである.
V04N02-01
日本語文の表層的な解析には,\係り受け解析がしばしば用いられる.\係り受け解析とは,\一つの文の中で,\どの文節がどの文節に係る(広義に修飾する)かを定めることであるが,\実際に我々が用いる文について調べて見ると,\2文節間の距離とそれらが係り受け関係にあるか否かということの間に統計的な関係のあることが知られている.\すなわち,\文中の文節はその直後の文節に係ることがもっとも多く,\文末の文節に係る場合を除いては距離が離れるにしたがって係る頻度が減少する\cite{maruyama}.係り受け距離に関するこのような統計的性質は「どの文節も係り得る最も近い文節に係る」というヒューリスティクス\cite{kurohashi}の根拠になっていると思われる.しかし実際には「最も近い文節に係ることが多い」とは言え,\「最も近い文節にしか係らない」というわけではない.\したがって,\係り受け距離の統計的性質をもっと有効に利用することにより,\係り受け解析の性能を改善できる可能性がある\cite{maruyama}.本論文では,総ペナルティ最小化法\cite{matsu,ozeki}を用いて,係り受け距離に関する統計的知識の,係り受け解析における有効性を調べた結果について報告する.総ペナルティ最小化法においては,2文節間の係り受けペナルティの総和を最小化する係り受け構造が解析結果として得られる.ここでは,係り受け距離に関する統計的知識を用いない場合と,そのような知識を用いて係り受けペナルティ関数を設定するいくつかの方法について,解析結果を比較した.また,「係り得る最も近い文節に係る」というヒューリスティクスを用いた決定論的解析法\cite{kurohashi}についても解析結果を求め,上の結果との比較を行った.学習データとテストデータを分離したオープン実験の結果や統計的知識を抽出するための学習データの量が解析結果に与える効果についても検討した\cite{tyou}.
V15N03-02
自然言語処理研究は1文を処理対象として数多くの研究が行われてきたが,2文以上を処理対象とする談話処理の研究は依然として多いとは言えない.これは問題が大幅に難しくなることが一因であろう.例えば,構文解析の係り先同定などに見られるように解が文の中にある場合の選択肢は比較的少数であるが,照応・省略解析などのような問題となると解候補や考慮すべき情報が多大となるため正解を得るのは容易ではない.この結果,多くの報告が示すように概ねどのような談話処理の問題であっても十分な精度が得られることは比較的少ない.しかし,これによって談話処理の重要性は何ら変化することはなく,我々は継続的に取り組んでいかなければならない.本論文では,談話処理のうち文間の接続関係を同定する問題に取り組んだ.文間の接続関係同定は,文生成に関係する様々な応用処理,例えば対話処理,複数文書要約,質問応答などにおいて重要となる.例えば,人間の質問に対話的に答えるシステムを考えた場合,対話をスムーズに行うために,システムは伝えるべき情報を自然な発話になるように繋げなければならない.その際に,文間に適切な接続詞を補う必要が出てくる.また,文書要約では文章中から重要な文を選んで列挙する重要文抽出手法が依然として多く行われているが,飛び飛びになっている文が選ばれた際に接続詞を適切に修正(削除,追加,変更)する必要が出てくる.本研究では以下のように問題設定した.まず,入力は接続詞を持つ文とその前文の連続2文として,この接続詞を与えない場合にどの程度同定できるかというタスクとして問題設定した.タスクの入力を連続2文とすることの妥当性については3節で議論する.次に,同定するのは実在した接続詞そのものではなく,接続関係とした.最終的な文生成を考えると接続詞を選ぶことが最終的な目的となるが,例えば「しかし」と「けれども」のどちらかにするかを使い分けることが本研究の目的ではない.また,多くの場合は接続関係が同じであればその接続関係にある接続詞のどれを選んでも構わないと推察されることからこのようなタスク設定とした.我々の設定した接続関係については2節で議論する.ここで関連研究を概観する.日本語接続詞を利用した要約や文書分類の研究,あるいは接続詞そのものの分析の研究は多数あるが本論文の対象ではないので省略する.接続詞決定に関して,例えば高橋らが考察を行っているが(高橋他1987),この入力は「文章の意味構造」であり,すなわち接続関係が与えられて接続詞を決める問題であるため本研究とは比較できない.一方,飯田らは気象情報文を生成する過程で「接続詞」\footnote{(飯田,相川2005)では「接続詞」を自動決定するとあるが,「…し,」と「…が,」しか出現しないことから「接続詞」とは接続助詞を指すものと推察される.}を自動同定する処理を行っている(飯田・相川2005)が,順接と逆接のどちらになるかを選択するタスクであり,これ以外の関係を全く想定していない.また,入力は時間,天気,気温,風力などの気象データであり,全く異なるタスクと考えてよい.以上のように,日本語で言語表現を入力として接続詞,もしくは接続関係を同定する研究は我々の知る限り存在しない.Marcuは大規模なテキストデータによる学習からNa\"{\i}veBayes分類器を用いてセグメント間の接続関係を同定する手法を提案している(Marcuetal.2002).Marcuは接続関係をCONTRAST(逆接),CAUSE-EXPLANATION-EVIDENCE(因果,並列),CONDITION(条件),ELABORATION(累加)の4種類に限定し,さらに同じテキストから取り出した関係を持たない2つのセグメントと異なるテキストから取り出した関係を持たないセグメントを加えた6種類の接続関係を用いてそのうちの2つの関係間での2値分類を行っている.そこでは2つのセグメントからそれぞれ取り出した単語対を素性とし,大量のコーパスから取り出した単語対の情報がシステムに良い影響を与えていることを示している.さらに,コーパスの量が同じなら単語対に用いる品詞を限定した方が精度が良くなることも述べている.一方,Hutchinsonは機械学習により極性(polarity),真実性(veridicality),接続関係の種類(type)の3つの側面から接続関係を分類し,接続関係の分類構造の分析を行っている(Hutchinson2004b).SporlederはMarcuの研究を受けて,単語の表層形だけでなく,対象とする文のドキュメント内での出現位置や文の長さ,単語のbigram,品詞,テンス・アスペクトなどを素性として用いて,機械学習器BoosTexterによる同定を行っている(Sporlederetal.2005).ここで,SporlederはMarcuとは異なる5種類の接続関係を対象としている.本論文では大量のWeb文書を用いて,与えられた2文に最も近い用例を探すことで2文間の接続関係を推定する手法を提案する.すなわち,大量のWebテキストを用例として利用することで,接続関係を推定するための規則を作ることなく接続関係を同定する.これは,用例利用型(example-based)の手法と呼ばれ,主に機械翻訳の分野で手法の有効性が確認されている.本研究では,これを談話処理の問題に適用し,手法の有効性を検証する.
V02N04-02
\label{intro}日本語マニュアル文では,次のような文をしばしば見かける.\enumsentence{\label{10}長期間留守をするときは,必ず電源を切っておきます.}この文では,主節の主語が省略されているが,その指示対象はこの機械の利用者であると読める.この読みにはアスペクト辞テオク(実際は「ておきます」)が関与している.なぜなら,主節のアスペクト辞をテオクからテイルに変えてみると,\enumsentence{\label{20}長期間留守をするときは,必ず電源を切っています.}マニュアルの文としては既に少し違和感があるが,少なくとも主節の省略された主語は利用者とは解釈しにくくなっているからである.もう少し別の例として,\enumsentence{\label{30}それでもうまく動かないときは,別のドライブから立ち上げてみます.}では,主節の省略されている主語は,その機械の利用者であると読める.このように解釈できるのは,主節のアスペクト辞テミルが影響している.仮に,「みます」を「います」や「あります」にすると,マニュアルの文としてはおかしな文になってしまう.これらの例文で示したように,まず第一にマニュアル文においても,主語は頻繁に省略されていること,第二に省略された主語の指示対象が利用者なのかメーカーなのか,対象の機械やシステムなのかは,テイル,テアルなどのアスペクト辞の意味のうち,時間的アスペクトではないモダリティの意味に依存する度合が高いことが分かる.後の節で述べることを少し先取りしていうと,a.利用者,メーカー,機械などの動作が通常,意志的になされるかどうかと,b.文に記述されている動作が意志性を持つかどうか,のマッチングによって,省略されている主語が誰であるかが制約されている,というのが本論文の主な主張である.このようなモダリティの意味として,意志性の他に準備性,試行性などが考えられる.そして,意志性などとアスペクト辞の間に密接な関係があることが,主語とアスペクト辞の間の依存性として立ち現れてくる,という筋立てになる.なお,受身文まで考えると,このような考え方はむしろ動作などの主体に対して適用されるものである.そこで,以下では考察の対象を主語ではなく\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」とする.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが簡単に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.マニュアル文の機械翻訳などの処理においては,省略された{\dg主}の指示対象の同定は重要な作業である.したがって,そのためには本論文で展開するような分析が重要になる.具体的には,本論文では,マニュアル文において,省略された{\dg主}の指示対象とアスペクト辞の関係を分析することによって,両者の間にある語用論的な制約を明らかにする.さて,このような制約は,省略された{\dg主}などの推定に役立ち,マニュアル文からの知識抽出や機械翻訳の基礎になる知見を与えるものである.さらに,実際にマニュアル文から例文を集め,提案する制約を検証する.なお,本論文で対象としているマニュアル文は,機械やシステムの操作手順を記述する文で,特にif-then型のルールや利用者がすべき,ないしは,してはいけない動作や利用者にできる動作などを表現するような文である.したがって,「ひとことで言ってしまえば」のような記述法についての記述はここでは扱わない.
V17N04-04
\label{section:introduction}近年,FrameNet~\shortcite{Baker:98}やPropBank~\shortcite{Palmer:05}などの意味役割付与コーパスの登場と共に,意味役割付与に関する統計的なアプローチが数多く研究されてきた~\shortcite{marquez2008srl}.意味役割付与問題は,述語—項構造解析の一種であり,文中の述語と,それらの項となる句を特定し,それぞれの項のための適切な意味タグ(意味役割)を付与する問題である.述語と項の間の意味的関係を解析する技術は,質問応答,機械翻訳,情報抽出などの様々な自然言語処理の応用分野で重要な課題となっており,近年の意味役割付与システムの発展は多くの研究者から注目を受けている~\shortcite{narayanan-harabagiu:2004:COLING,shen-lapata:2007:EMNLP-CoNLL2007,moschitti2007esa,Surdeanu2003}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f1.eps}\end{center}\caption{PropBankとFrameNetにおける動詞{\itsell},{\itbuy}に対するフレーム定義の比較}\label{framenet-propbank}\end{figure}これらのコーパスは,文中の単語(主に動詞)が{\bfフレーム}と呼ばれる特定の項構造を持つという考えに基づく.図~\ref{framenet-propbank}に,例として,FrameNetとPropBankにおける{\itsell}と{\itbuy}の二つの動詞に関するフレーム定義を示す.各フレームはそれぞれのコーパスで特定の名前を持ち,その項としていくつかの意味役割を持つ.また,意味役割は,それぞれのフレームに固有の役割として定義される.例えば,PropBankのsell.01フレームの役割{\itsell.01::0}と,buy.01フレームの役割{\itbuy.01::0}は別の意味役割であり,また一見同じ記述(Seller)のついた{\itsell.01::0}と{\itbuy.01::2}もまた,別の役割ということになる.これはFrameNetについても同様である.意味役割がフレームごとに独立に定義されている理由は,各フレームの意味役割が厳密には異なる意味を帯びているからである.しかし,この定義は自動意味役割付与の方法論にとってやや問題である.一般的に,意味役割付与システムは教師付き学習の枠組みで設計されるが,意味役割をフレームごとに細分化して用意することは,コーパス中に事例の少ない役割が大量に存在する状況を招き,学習時の疎データ問題を引き起こす.実際に,PropBankには4,659個のフレーム,11,500個以上の意味役割が存在し,フレームあたりの事例数は平均12個となっている.FrameNetでは,795個のフレーム,7,124個の異なった意味役割が存在し,役割の約半数が10個以下の事例しか持たない.この問題を解決するには,類似する意味役割を何らかの指標で汎化し,共通点のある役割の事例を共有する手法が必要となる.従来研究においても,フレーム間で意味役割を汎化するためのいくつかの指標が試されてきた.例えば,PropBank上の意味役割付与に関する多くの研究では,意味役割に付加されている数字タグ({\itARG0-5})が汎化ラベルとして利用されてきた.しかし,{\itARG2}--{\itARG5}でまとめられる意味役割は統語的,意味的に一貫性がなく,これらのタグは汎化指標として適さない,という指摘もある\shortcite{yi-loper-palmer:2007:main}.そこで近年では,主題役割,統語構造の類似性などの異なる指標を利用した意味役割の汎化が研究されている~\shortcite{gordon-swanson:2007:ACLMain,zapirain-agirre-marquez:2008:ACLMain}.FrameNetでは,意味役割はフレーム固有のものであるが,同時にこれらの意味役割の間には型付きの階層関係が定義されている.図\ref{fig:frame-hierarchy}にその抜粋を示す.ここでは例えば,{\itGiving}フレームと{\itCommerce\_sell}フレームは継承関係にあり,またこれらのフレームに含まれる役割には,どの役割がどの役割の継承を受けているかを示す対応関係が定義されている.この階層関係は意味役割の汎化に利用できると期待できるが,これまでの研究では肯定的な結果が得られていない~\shortcite{Baldewein2004}.したがって,FrameNetにおける役割の汎化も重要な課題として持ち上がっている~\shortcite{Gildea2002,Shi2005ppt,Giuglea2006}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f2.eps}\caption{FrameNetのフレーム階層の抜粋}\label{fig:frame-hierarchy}\end{center}\end{figure}意味役割の汎化を考える際の重要な点は,我々が意味役割と呼んでいるものが,種類の異なるいくつかの性質を持ち合わせているということである.例えば,図~\ref{framenet-propbank}におけるFrameNetの役割{\itCommerce\_sell::Seller}と,{\itCommerce\_buy::Seller}を考えてみたとき,これらは「販売者」という同一語彙で説明出来るという点では同じ意味的性質を持ち合わせているが,一方で,動作主性という観点でみると,{\itCommerce\_sell::Seller}は動作主であるが,{\itCommerce\_buy::Seller}は動作主性を持っていない.このように,意味役割はその特徴を単に一つの観点から纏めあげられるものではなく,いくつかの指標によって異なる説明がされるものである.しかし,これまでに提案されてきた汎化手法では,一つの識別モデルの中で異なる指標を同時に用いてこなかった.また,もう一つの重要なことは,これまでに利用されてきたそれぞれの汎化指標が,意味役割のどのような性質を捉え,その結果として,どの程度正確な役割付与に結びついているかを明らかにすべきだということである.そこで本研究では,FrameNet,PropBankの二つの意味役割付与コーパスについて,異なる言語学的観点に基づく新たな汎化指標を提案し,それらの汎化指標を一つのモデルの中に統合出来る分類モデルを提案する.また,既存の汎化指標及び新たな汎化指標に対して実験に基づいた細かな分析を与え,各汎化指標の特徴的効果を明らかにする.FrameNetにおける実験では,FrameNetが持つフレームの階層関係,役割の記述子,句の意味型,さらにVerbNetの主題役割を利用した汎化手法を提案し,これらの指標が意味役割分類の精度向上に貢献することを示す.PropBankにおける実験では,従来より汎化手法として議論の中心にあったARGタグと主題役割の効果の違いを,エラー分析に基づいて正確に分析する.また,より頑健な意味役割の汎化のために,VerbNetの動詞クラス,選択制限,意味述語を利用した三つの新しい汎化手法を提案し,その効果について検証する.実験では,我々の提案する全ての汎化指標について,それぞれが低頻度或いは未知フレームに対する頑健性を向上させることを確認した.また,複数の汎化指標の混合モデルが意味役割分類の精度向上に貢献することを確認した.全指標の混合モデルは,FrameNetにおいて全体の精度で$19.16\%$のエラー削減,F1Macro平均で$7.42\%$の向上を達成し,PropBankにおいて全体の精度で$24.07\%$のエラー削減,未知動詞に対するテストで$26.39\%$のエラー削減を達成した.
V07N02-05
\label{sec:intro}本稿では,比喩の一種である換喩を統計的に解釈する方法を述べる.比喩は大別すると,直喩・隠喩的なものと換喩的なものとに分けられる\cite{Ye90}.まず,直喩・隠喩的な比喩とは,喩えるもの(喩詞)と喩えられるもの(被喩詞)との類似性に基づいた比喩である.たとえば,「あの男は狼のようだ」という直喩,あるいは,「あの男は狼だ」という隠喩は,喩詞である「狼」と被喩詞である「あの男」との間の何らかの類似性(獰猛さなど)に基づいている.ここで,直喩と隠喩との違いは,直喩が比喩であることを言語的に明示するのに対して,隠喩はそのようなことを明示しない点にある.一方,換喩的な比喩とは,喩詞と被喩詞との連想関係に基づいた比喩である.たとえば,「漱石を読む」という換喩は,「漱石の小説を読む」というように解釈できる.この場合,喩詞である「漱石」と被喩詞である「(漱石の)小説」との間には,「作者-作品」という連想関係が成立する\cite{yamanashi88}.比喩の処理は,検出と解釈の2段階に分けて考えることができる.まず,比喩の検出とは,与えられた言語表現が比喩であるかどうかを判定する処理である.次に,比喩の解釈とは,与えられた言語表現が比喩であるとして,その比喩の非字義的な表現から字義的な表現を求める処理である.たとえば,比喩の検出の段階では,「漱石を読む」が比喩であり,「小説を読む」が比喩でないことを区別する.また,比喩の解釈の段階では,既に比喩であることが分かっている「漱石を読む」という非字義的な表現から,「漱石の小説を読む」という字義的な表現を導出する.本稿では,直喩・隠喩的なものと換喩的なものとに大別できる比喩のうちで,換喩を対象とする.また,換喩の検出と解釈のうちでは,換喩の解釈を対象とする.なお,本稿の対象をこのようにした理由は,まず,第1に,直喩や隠喩や換喩などは,上述のように,一応区別できるものであるので,それらを別々のものとして,そのうちの一つを研究対象とすることは可能であるからである.次に,換喩の解釈を対象とする理由は,換喩の解釈は換喩のみを考慮すれば実現可能なのに対して,換喩の検出は直喩や隠喩なども考慮しなければ実現不可能なためである.すなわち,換喩を検出するには,まず,比喩を検出し,その後でその比喩が換喩かどうかを検出しなければならないので,換喩検出を直喩や隠喩と別々に研究することは困難であるのに対して,換喩の解釈の場合には,既に換喩が与えられたものとすれば,他の比喩のことは考慮せずに独立に研究できるためである.本稿では,換喩のなかでも,「$名詞A$,$格助詞R$,$述語V$」というタイプの換喩を対象とする.そして,以下の方針に基づいて,換喩を解釈する.\begin{enumerate}\item「$A$,$R$,$V$」というタイプの換喩が与えられたとき,与えられた喩詞$A$から連想される名詞群を求めるためにコーパスを利用する(\ref{sec:corpus}章).\item連想された名詞群のなかから,与えられた視点($R$,$V$)に適合するような名詞を被喩詞として統計的に選択する(\ref{sec:measure}章).\end{enumerate}たとえば,「一升瓶を飲む」という換喩が与えられたとすると,喩詞である「一升瓶」から連想される名詞として「酒,栓,...」をコーパスから求め,その中から「を飲む」という視点に適合する「酒」を被喩詞として選択する.一方,「一升瓶を開ける」という換喩に対しては,「一升瓶」から連想される名詞群は同じであるが,被喩詞としては「栓」を選択する.上述の(1)と(2)は本稿の手法を特徴付けるものである.そして,これらは\cite{yamamoto98}の方法を発展させたものと考えることができる.まず,(1)については,これまでの換喩の研究としては,連想される(名詞とは限らない)単語群を求めるために,意味ネットワークや規則などを利用したものがある\cite{iverson92:_metal,bouaud96:_proces_meton,fass88:_meton_metap}が,そのような知識は人手で構築するのが困難であるという欠点がある.それに対して,コーパスを利用すれば,意味ネットワークのような知識を人手で構築する必要はない.そのため,コーパスを利用すれば,相当多くの換喩を解析できる可能性がある.すなわち,コーパスに基づく手法の方が,意味ネットワークなどに基づく手法よりも,広い範囲の換喩を解析できる可能性が高い.なお,\cite{yamamoto98}は,名詞$A$から連想される名詞の候補として,「名詞$A$の名詞$B$」における$B$と,「名詞$A$名詞$B$」における$B$を用いていたが,本稿では,(i)「名詞$A$の名詞$B$」における$B$と,(ii)名詞$A$と同一文中に出現した名詞$B$とを連想される名詞の候補に用いる\footnote{(i)における名詞の候補は(ii)における候補に包含されるが,\ref{sec:measure}章で述べる統計的尺度の計算において別扱いを受ける.}.(ii)を用いることにより,\cite{yamamoto98}の方法ではカバーできない名詞を連想の候補として利用できることが期待できる.次に,(2)については,換喩の解釈を絞り込むための情報源として換喩の視点($R$,$V$)を利用していると考えられる.このような絞り込みは,従来の研究では,意味ネットワークや規則により実現されてきたが,本稿では,コーパスにおける統計情報を利用して実現する.なお,\cite{yamamoto98}は,換喩の解釈を絞り込むために,与えられた述語の格フレーム($R$,$V$)に適合する名詞のうちで喩詞$A$との共起頻度が最大のものを被喩詞として選ぶという方法を用いている.しかし,全ての述語について格フレームが利用できるとは限らないので,本稿では格フレームを利用せず,統計的手法に基づいて被喩詞を選択する手法を提案する.なお,格フレームが利用できる場合には,その格フレームに適合する名詞のみを候補として,本稿で提案する手法を適応すれば良いので,本稿で提案する手法と共に格フレームを利用することは容易である\footnote{\cite{yamamoto98}では,本稿と同様に,換喩の解釈のみを対象にしているが,入力される換喩としては,「名詞$A_1$,格助詞$R_1$,名詞$A_2$,格助詞$R_2$,$\ldots$,名詞$A_n$,格助詞$R_n$,述語$V$」を想定している.そして,その入力に含まれる名詞のなかで述語$V$の格の選択制限に合致しないものを喩詞と特定し,その喩詞の被喩詞を求めている.たとえば,「私が漱石を読む」という換喩の場合には,「漱石」が「読む」の選択制限を満たさないことを特定し,「漱石」の被喩詞として「小説」を求めている.一方,本稿では,喩詞が特定済みの入力を想定している.つまり,入力としては,「漱石を読む」のようなものを想定している.この点では,\cite{yamamoto98}の方法の方が優れている.このような喩詞の特定は今後の課題である.ただし,本稿の方法に加えて,格フレームを利用できれば,\cite{yamamoto98}と同様の方法を使うことにより,喩詞を特定できる.}.以下,\ref{sec:sort}章では,換喩の種類と本稿の対象とする換喩について述べ,\ref{sec:corpus}章では,喩詞に関連する名詞群をコーパスから求めるときに使う共起関係について述べ,\ref{sec:measure}章では,被喩詞らしさの統計的尺度について述べる.そして,\ref{sec:experiments}章において,提案尺度の有効性を実験により調べ,\ref{sec:discussion}章で,その結果を考察する.\ref{sec:conclusion}章は結論である.なお,付録の表\ref{tab:1}から表\ref{tab:5}には,提案尺度に基づいて換喩を解釈した結果がある.
V07N04-01
label{sec:moti}アスペクト(aspect;相)とはある一つの事象(eventuality;イベント)についてのある時間的側面を述べたものである.しかしながら同時にアスペクトとは言語に依存してそのような統語的形態,すなわち進行形や完了形などと言った構文上の屈折・語形変化を指す.本稿で形式化を行うのは,このような固有の言語に依存したアスペクトの形態ではなく,言語に共通したアスペクトの意味である.アスペクトの概念はどうしても固有の言語の構文と結び付いて定義されているため,用語が極めて豊富かつ不定である.同じ完了と言っても英語のhave+過去分詞形と日本語のいわゆる「た」という助詞とはその機能・意味に大きな差異がある.したがって形式的にアスペクトの意味を述べるためにはまずこうした用語・概念の整理・統合を行った上で,改めて各概念の定義を論理的に述べる必要がある.このような研究では,近年では数多くのアスペクトの理論がイベント構造の概念によって構築されてきた.すなわち,すべての事象に共通な,アスペクトをともなう前の原始的・抽象的な仮想のイベント構造を考え,アスペクトとはこのイベント構造の異なる部位に視点(レファランス)を与えることによって生じるものとする説明\footnote{\cite{Moens88,Gunji92,Kamp93,Blackburn96,Terenziani93}他多数.個々の理論については第\ref{sec:akt}節で詳述する.}である.本稿のアスペクトの形式化も基本的にはこのイベント構造とレファランスの理論から出発する.しかしながらこのイベント構造とレファランスを古典的な論理手法によって形式化しようするとき,以下のような問題が伴う.まず,(1)時間の実体を導入する際に点と区間を独立に導入すると,アスペクトの定義においては,点と区間,点と点,区間と点の順序関係や重なり方に関して関係式が量産されることになる.次に,(2)アスペクトとは本来それだけで存在しうるものではなく,もともとある事象から派生して導き出されたものである.したがってアスペクトを定義する際にその条件を静的に列挙するだけでは不十分であり,もとにある事象の原始形態からの動的な変化として提示する必要がある.本稿では言語に共通なアスペクトのセマンティクスを形式化するために,アロー論理\cite{Benthem94}を導入する.第\ref{sec:arw}章で詳述するが,アロー論理とは命題の真偽を云々する際に通常のモデルに加えてアローと呼ばれる領域を与える論理である.アロー論理では,アロー自身に向きが内在しているために,(1)の問題でいうところの順序関係に関して記法を節約することができる.さらに動的論理(dynamiclogic)にアローを持ち込むことにより,動的論理の中の位置(サイト)と状態移動の概念を時間の点と区間の概念に対応づけることができる.このことは,アスペクトの仕様記述をする際に点と区間の関係が仕様記述言語(アローを含む動的論理)の側で既に定義されていることを意味し,さらに記述を簡潔にすることができる.本稿では,アスペクトの導出をこのような点と区間の間の制約条件に依存した視点移動として捉え,アスペクトの付加を制約論理プログラミングの規則の形式で記述する.したがって(2)の問題でいうところの動的な過程は,論理プログラミングの規則の実行過程として表現される.本稿は以下の構成をとる.まず第\ref{sec:akt}章では,言語学におけるアスペクトの分類と形式化を行い,先に述べた用語と概念の混乱を整理する.次にイベント構造とレファランスに関わる理論について成果をサーベイする.次に第\ref{sec:arw}章では,アロー論理を導入する.この章では,引き続いて,われわれの時間形式化に関する動機がアロー論理のことばでどのように述べられるかも検討する.すなわち,アローを向きをともなった区間とみなし,アスペクトの導出規則の仕様を定める.続く第\ref{sec:acc}章では,この仕様を完了や進行などさまざまなアスペクトに適用し,それらに関する導出規則を定義する.第\ref{sec:discus}章では,導出規則におけるアスペクトの付加についてその有用性と応用可能性を検討し,本研究の意義をまとめる.
V22N01-01
述語項構造解析(predicate-argumentstructureanalysis)は,文から述語とその格要素(述語項構造)を抽出する解析タスクである.述語項構造は,「誰が何をどうした」を表現しているため,この解析は,文の意味解析に位置付けられる重要技術の一つとなっている.従来の述語項構造解析技術は,コーパスが新聞記事であるなどの理由で,書き言葉で多く研究されてきた\cite{carreras-marquez:2004:CONLL,carreras-marquez:2005:CoNLL,Matsubayashi:PredArgsData2014j}.一方,近年のスマートフォンの普及に伴い,Apple社のSiri,NTTドコモ社のしゃべってコンシェルなど,音声による人とコンピュータの対話システムが,身近に使われ始めている.人・コンピュータの対話システムを構築するためには,人間の発話を理解し,システム発話とともに管理する必要があるが,述語項構造は,対話理解・管理に対しても有効なデータ形式であると考えられる.しかし,新聞記事と対話では,発話人数,口語の利用,文脈など,さまざまな違いがあるため,既存の新聞記事をベースとした述語項構造解析を対話の解析に利用した際の問題は不明である.たとえば,以下の対話例を考える.\vspace{1\Cvs}\begin{center}\begin{tabular}{|lp{60mm}|}\hlineA:&$\left[\mathit{iPad}\right]_{\text{ガ}}$が\textbf{ほしい}な.\\B:&いつ$\phi_{\text{ガ}}\phi_{\text{ヲ}}$\textbf{買う}の?\\\hline\end{tabular}\end{center}\vspace{1\Cvs}\noindentこの例では,最初の発話から,述語が「ほしい」,そのガ格が「iPad」である述語項構造が抽出される.2番目の発話では,述語が「買う」であることはわかるが,ガ格,ヲ格が省略されているため,述語項構造を得るためには,ガ格が発話者A,ヲ格が「iPad」であることも併せて解析する必要がある.このように,対話では省略がごく自然に出現する(これをゼロ代名詞と呼ぶ)ため,日本語の対話の述語項構造解析には,ゼロ代名詞照応解析処理も必要となる.本稿では,人とコンピュータの対話システム実現のため,従来に比べ対話を高精度に解析する述語項構造解析を提案する.本稿で対象とするタスクは,以下の2点をともに解決するものである.\begin{enumerate}\item日本語で必須格と言われているガ格,ヲ格,ニ格に対して,述語能動形の項を決定する.\itemゼロ代名詞照応解析を行い,文や発話内では項が省略されている場合でも,先行した文脈から項を決定する.\end{enumerate}本稿の提案骨子は,対話のための述語項構造解析器の構築を,新聞から対話へのドメイン適応とみなすことである.具体的には,新聞記事用に提案されたゼロ代名詞照応機能付き述語項構造解析を,話題を限定しない雑談対話に適応させる.そして,対話と新聞のさまざまな違いを,個々の違いを意識することなく,ドメイン適応の枠組みで包括的に吸収することを目指す.\citeA{Marquez:SRLSurvay2008,Pradhan:SRLAdaptation2008}は,意味役割付与のドメイン適応に必要な要素として,未知語対策とパラメータ分布の違いの吸収を挙げている.本稿でも,未知語およびパラメータ分布の観点から対話に適応させる.そして,新聞記事用より対話に対して高精度な述語項構造解析を提案する.我々の知る限り,ゼロ代名詞を多く含む対話を,高精度に解析する述語項構造解析器は初である.以下,第\ref{sec-related-work}章では,英語意味役割付与,日本語述語項構造解析の関連研究について述べる.\ref{sec-char-dialogs}章では,我々が作成した対話の述語項構造データと新聞の述語項構造データを比較し,対話の特徴について述べる.第\ref{sec-basic-strategy}章では,今回ベースとした述語項構造解析方式の概要を述べ,第\ref{sec-adaptation}章では,これを対話用に適応させる.実験を通じた評価は\ref{sec-experiments}章で述べ,第\ref{sec-conclusion}章でまとめる.
V15N04-01
本研究の目的は,歴史資料(史料)から歴史情報を自動抽出する方式を確立すること,および歴史知識を構造化するためにその抽出結果を歴史オントロジーとして構築し,提供することにある.歴史研究は史料内容の解読から始まる.そのために史料の収集・翻刻(楷書化)・解読の作業が伴う.ただし,史料の形態・記述は多様であり,翻刻・解読には相当の知識と経験を必要とする.国内には未解読の史料が未だ多数存在する.一方,これまでに解読された結果についても電子化されていない,あるいは機関・個人など個別に存在するために各史料を共用できないという問題があり,歴史事象の関連性の解明,すなわち歴史研究の推進そのものに支障をきたしている.この種の問題解決のために,すなわち歴史知識の構造化のために歴史オントロジーの提供が求められている.われわれは,歴史研究のより一層の推進を目的として「歴史オントロジー構築プロジェクト」を実施している.本プロジェクトは,史料を電子化する,史料に記載されている情報を抽出,構造化して歴史オントロジーを構築する,歴史オントロジーを利用した検索・参照システムを構築するという3つの手順によって構成されている.本プロジェクトを具現化するための史料として『明治前日本科学史』(日本学士院編・刊行,全28巻)を対象に歴史オントロジーを構築する.当刊行史料は,明治前日本科学史の編纂を目的に昭和15年に帝国学士院において企図され,昭和35年に最初の巻が出版され,昭和57年に28巻目の刊行によって現在,完結している.本史料をより有効に活用するため,全巻の電子化および研究目的の利用・提供に関して日本学士院の許諾を得て,電子化に着手した.本史料は公的性が高く,歴史研究の推進という本研究の目的に適合するものである.本史料から日本の科学技術を創成してきた明治前の人物に関する情報を抽出,構造化することにより歴史オントロジーを構築する.本研究では,プロジェクトの第一歩として,『明治前日本科学史』のうちの1巻『明治前日本科学史総説・年表』の本文を電子化したテキストから,人物の属性として人名とそれに対する役職名と地名,人物の業績として人名とそれに対する書名を抽出する.機械学習に基づく情報抽出によって十分な精度を得るには大量の正解データを作成する必要があり,多大な時間がかかることから,本研究ではルールベースの手法によって人物に関する情報を抽出する.本稿では,2章で歴史オントロジー構築プロジェクトの全体像を示す.3章で人物に関する情報を抽出する手法について説明し,4章で実際に評価実験を行い,その結果を考察する.最後に5章で本研究の結論を示す.
V15N02-05
近年,Webの普及や様々なコンテンツの増加に代表される不特定多数の情報の取得や不特定多数への情報の発信が容易になったことで,個人が取得できる情報の量が急激に増大してきている.個人が取得できる情報量は今後さらに増え続けるだろう.このような状況は,必要な情報を簡単に得られるようにする一方で不必要な情報も集めてしまう原因になっている.この問題を解決する方法として大量の情報の中から必要な情報だけを選択する技術が必要で,これを実現する手段として検索,フィルタリング,テキストマイニングが挙げられる.このような技術はスパムメールの排除やWebのショッピングサイトの推薦システム等で実際に使われている.本論文では大量の情報の中から必要な情報を取得する手段として人間の興味に着目し,文書に含まれる語句及び文書自体に興味の強弱を値として付与することを提案する.本論文では,不特定多数の人がどの程度興味を持つかに注目した.すなわち不特定多数を全体とした大衆に対する興味の程度である.興味の強弱を語句及び文書自体に付与することにより人間の興味(文書の面白さ,文書の注目度)の観点で情報を選別することが可能となるだけではなく,興味の強弱を値として与えることで興味がある・ないの関係ではなく興味の強さの程度を知ることができる.また,文書に含まれる語句に与えた興味の強弱の値から文書のどの部分が最も興味が強いか明らかになるため,文書のどの部分が興味の要因となるのか分析を行うことが可能である.このように語句の興味の強弱自体を明らかにすることは,例えばタイトル作成や広告等において同一の意味を示す複数の語句の中から興味が強い語句を選択する際の基準として利用できるため,興味を持ってもらえるように文書を作成する支援となることが期待できる.さらに,Web上でのアクセスランキングなどはアクセス数の集計後に知ることのできる事後の情報である.本論文の文書自体に付与する興味の強弱の値を利用することでこの順位を事前に予測することが可能となり,提示する文書の選択や表示順の変更などをアクセス集計前に利用することが期待できる.大衆の興味が反映されているデータに注目することでこのような大衆の興味を捉えることが出来ると考える.また興味を持つことになった原因と持たれない原因を分析する手がかりになると期待できる.本論文では,多くの人が興味を持つ文書を判断するため,まず興味の判断に必要な素性を文書から抽出する.次に抽出した素性に興味の強弱を値で推定して付与する.さらに興味の強弱の値が付与された素性から文書自体の興味の強弱を推定する.\ref{sec_興味}章にて本論文で対象とする興味,\ref{sec_関連}章にて関連研究,\ref{sec_rank}章で順位情報の詳細,\ref{sec_method}章で提案手法について述べ,\ref{sec_expeval}章で評価実験及び考察を行う.さらに\ref{sec_method2}章で提案手法の拡張について述べ,その評価を\ref{sec_evalexp2}章にて行う.
V21N05-03
句に基づく統計的機械翻訳\cite{Koehn:03}が登場し,仏英などの言語対における機械翻訳性能は大きく向上した.その一方で,文の構文構造が大きく異なる言語対(日英など)において,長距離の単語並べ替えを上手く扱うことができないという問題がある.近年,この問題を解決するため,同期文脈自由文法\cite{Wu:97,Chiang:05}や木トランスデューサ\cite{Graehl:04,Galley:06}により,構文情報を使って単語並べ替えと訳語選択を同時にモデル化する研究が活発化している.しかし,単語アライメントや構文解析のエラーを同時にモデルへ組み込んでしまうため,句に基づく手法と比較して,いつでもより良い性能を達成できているわけではない.これらの研究と並行して,事前並べ替え法\cite{Collins:05,Isozaki:12}や事後並べ替え法\cite{Sudoh:11,Goto:12}に関する研究も盛んに行われている.これらの手法は単語並べ替えと訳語選択の処理を分けてモデル化し,語順が大きく異なる言語対で,句に基づく手法の翻訳性能を大きく向上させられることが報告されている.特に,文献\cite{Isozaki:12}で提案された主辞後置変換規則による事前並べ替え法は,特許文を対象とした英日翻訳で高い性能を達成している\cite{Goto:09,Goto:10}.この規則はある言語(本稿では英語を仮定する)を日本語(主辞後置言語)の語順へと変換するものであるが,文献\cite{Sudoh:11}では,主辞後置変換規則によってできた日本語語順の英語文を元の英語文へと復元するためのモデルを構築し,主辞後置変換規則の利点を日英翻訳へと適用可能にしている(事後並べ替え法).文献\cite{Goto:12}では事後並べ替えを構文解析によってモデル化している.この手法は,1言語の上で定義されたInversionTransduction文法(ITG)\cite{Wu:97}\footnote{ITGは2言語の構文解析(biparsing)を扱う枠組みであるが,単語並べ替え問題では原言語の単語と目的言語の訳語を同じと考えることができるため,1言語の上で定義された通常の構文解析として扱える.}にBerkeley構文解析器を適用することで,単語並べ替えを行う.また,主辞後置変換規則では日英単語アライメント性能を向上させるため,データから英冠詞を除去する.そのため,翻訳結果に冠詞生成を行う必要があり,文献\cite{Goto:12}では,構文解析による単語並べ替えとは独立して,$N$-gramモデルによる冠詞生成法を提案している.文献\cite{Goto:12}の手法は,Berkeley構文解析器の解析速度の問題や冠詞生成を独立して行うことから,解析効率や精度の点で大きな問題が残る.本稿では,この構文解析に基づく事後並べ替えの新たな手法を提案し,解析効率,及び,翻訳性能の改善をはかる.提案手法はシフトリデュース構文解析法に基づいており,文献\cite{Goto:12}で利用された段階的枝刈り手法によるBerkeley構文解析\cite{Petrov:07}と比べて,次の利点を持つ.\begin{itemize}\item[1]線形時間で動作し,高速で精度の高い単語並べ替えが可能.\item[2]並べ替え文字列の$N$-gram素性(非局所素性に該当)を用いても計算量が変わらない.\item[3]アクションを追加するだけで,並べ替えと同時に語の生成操作などが行える.\end{itemize}1と2の利点は,解析効率における利点,また,2と3は翻訳性能を向上させる上での利点となる.特に,3つ目の利点を活かして,単語並べ替えと冠詞生成問題を同時にモデル化することが,提案法の最も大きな新規性と言える.本稿では,日英特許対訳データを使って,提案手法が従来手法を翻訳速度,性能の両面で上回ることを実験的に示す.以下,第2章では構文解析による事後並べ替えの枠組み,第3章では提案手法,第4章では実験結果について述べる.第5,6章では研究の位置付けとまとめを行う.
V03N03-05
\footnotetext{井佐原均,HitoshiIsahara,郵政省通信総合研究所関西先端研究センター,KansaiAdvancedResearchCenter,CommunicationsResearchLaboratory,MPT}\footnotetext{内野一,HajimeUchino,日本電信電話株式会社NTTコミュニケーション科学研究所,NTTCommunicationScienceLaboratories,NipponTelegraphandTelephone}\footnotetext{荻野紫穂,ShihoOgino,日本アイ・ビー・エム株式会社東京基礎研究所,IBMResearch,TokyoResearchLaboratory,NihonIBM}\footnotetext{奥西稔幸,ToshiyukiOkunishi,シャープ株式会社情報システム事業本部情報商品開発研究所,InformationSystemsProductDevelopmentLaboratories,InformationSystemsGroup,SharpCorp.}\footnotetext{木下聡,SatoshiKinoshita,株式会社東芝研究開発センター情報・通信システム研究所,ResearchandDevelopmentCenter,CommunicationandInformationSystemsResearchLaboratories,Toshiba}\footnotetext{柴田昇吾,ShogoShibata,キヤノン株式会社情報メディア研究所,MediaTechnologyLaboratory,CANONINC.}\footnotetext{杉尾俊之,ToshiyukiSugio,沖電気工業株式会社研究開発本部関西総合研究所,ResearchandDevelopmentGroup,KansaiLaboratory,OkiElectricIndustryCo.,Ltd.,}\footnotetext{高山泰博,YasuhiroTakayama,三菱電機株式会社情報技術総合研究所,InformationTechnologyR\&DCenter,MitsubishiElectricCorp.}\footnotetext{土井伸一,Shin'ichiDoi,日本電気株式会社情報メディア研究所,InformationTechnologyResearchLaboratories,NECCorp.}\footnotetext{永野正,TadashiNagano,松下電器産業株式会社AV&CC開発センター東京情報システム研究所,ICSC,MatsushitaElectricIndustrialCo.,Ltd.}\footnotetext{成田真澄,MasumiNarita,株式会社リコー情報通信研究所,InformationandCommunicationR\&DCenter,RicohCo.,Ltd.}\footnotetext{野村浩郷,HirosatoNomura,九州工業大学情報工学部知能情報工学科,DepartmentofArtificialIntelligence,KyushuInstituteofTechnology}機械翻訳システムの長い歴史の中で、システム評価は常に大きな課題の一つであった。システムの研究開発が健全に進むためには、客観的かつ正確な評価法が必要となる。このため、ユーザの立場から評価を行うもの、開発者の立場から評価を行うもの、また、技術的側面から評価を行うもの、経済的側面から評価を行うものと、多くの研究者によって様々な視点からの評価法が検討されてきた。これらの検討に基づいて、(社)日本電子工業振興協会によって一連の機械翻訳システム評価基準が開発されてきた(野村・井佐原1992,NomuraandIsahara1992a,NomuraandIsahara1992b,日本電子工業振興協会1993)。本稿で提案する機械翻訳システムの評価法は、システムの改良を続ける開発者の立場から、機械翻訳システムの技術面を翻訳品質に注目して評価するものである。機械翻訳システムの訳文の品質面での評価に関しては、従来からのいわゆるALPACレポート型の評価法に加えて、近年、いくつかの提案がなされている。ある程度まとまった文章を翻訳し、そこから得られる理解の度合を評価しようとするものとして、ARPAによる機械翻訳システム評価(Whiteetal1994)や、TOEFLのテストを用いる方法(Tomita1992)が提案されているが、これらはシステム間の現時点での性能の比較評価には用いることが出来ても、評価結果を直接システム改良に結び付けることは困難である。これに対し、個別の例文を収集することにより評価用の例文集を作成し、その各例文の翻訳結果を評価し、対応する言語現象の処理能力を判定しようとする提案がいくつかなされている。これらのうちには、単に文を集めるのみで、その後の例文の利用法(評価過程)は個別の評価者に任せようというものから、本稿で提案するように、客観的評価のためにさまざまな情報を付加しようというものまで、いくつかの段階がある。わが国においては、(社)日本電子工業振興協会が既に昭和60年に機械翻訳例文資料として、翻訳における曖昧性に関する問題点に着目して、英文および和文を収集分類し公開している(日本電子工業振興協会1985)。また同協会は昭和62年度に、機械翻訳システムの技術レベルを評価するために、文の複雑さの定量化、文の複雑さや文体の定性的特徴の抽出、標準的例文の収集を行なった(日本電子工業振興協会1988,石崎・井佐原1988)。この他、英語を話す人間と日本語を話す人間との間にある言語理解法の違い(言い替えると、日本語と英語の発想法の違い)に注目して日本語の言語表現を分類し、それらの表現の翻訳能力を評価する試験文集を作成するもの(池原・小倉1990,池原他1994)や、言語学的観点から日本語および英語の言語表現の構造に注目し、その表現上の構造的特性を的確に表すような試験文集を作成すること(成田1988)が提案されてきた。後者は、個々の言語現象に対する翻訳の可否を示すことの必要性から、一定の内容の文の言い換えなどによって日本語および英語の言語表現と翻訳能力の関係を言語学者の立場から評価することを提案している。本稿で論じる機械翻訳システム評価用テストセットは、以上のような、ALPACレポート以来の品質評価に関する研究を踏まえて、誰でも客観的かつ実用的な評価を行なえる評価法の確立を目指し作成したものである。次節以下では、テストセットを用いた評価法の全体を流れる基本的な考え方、英日機械翻訳用テストセット、日英機械翻訳用テストセットについて、順次説明していく。
V22N02-01
近年,電子カルテに代表されるように,医療文書が電子的に保存されることが増加し,構造化されていないテキスト形式の医療情報が増大している.大規模な医療データには有用な情報が含まれ,新たな医学的知識の発見や,類似症例の検索など,医療従事者の意思決定や診療行為を支援するアプリケーションの実現が期待されている.これらの実現のためには,大量のテキストを自動的に解析する自然言語処理技術の活用が欠かせない.特に,テキスト中の重要な語句や表現を自動的に認識する技術は,固有表現抽出や用語抽出と呼ばれ,情報検索や質問応答,自動要約など,自然言語処理の様々なタスクに応用する上で必要不可欠な基盤技術である.用語抽出を実現する方法として,人手で作成した抽出ルールを用いる方法と,機械学習を用いる方法がある.前者の方法では,新しく出現した用語に対応するために随時ルールの修正や追加を行わなければならず,多大な人的コストがかかる.そのため,近年では,データの性質を自動的に学習することが可能な機械学習が用いられることが多くなっている.機械学習に基づく用語抽出では,抽出すべき語句の情報がアノテーションされた訓練データを用いてモデルの学習を行い,学習したモデルを未知のデータに適用することで,新しいデータから用語の抽出を行う.高精度な抽出を可能とするモデルを学習するには,十分な量の訓練データがあることが望ましい.しかし,診療記録などの医療文書は,医師や患者の個人情報を含むため,医療機関の外部の人間が入手することは困難である.幸い,近年は,研究コミュニティでのデータ共有などを目的とした評価型ワークショップが開催されており\cite{uzuner20112010,morita2013overview},匿名化などの処理が施された医療文書データが提供され,小規模なデータは入手可能になっている.とはいえ,依然として,学習に利用できる訓練データの量は限られることが多い.他方,一般に公開されている医療用語辞書などの語彙資源は豊富にあり,英語の語彙資源では,生物医学や衛生分野の用語集,シソーラスなどを含むUMLS(UnifiedMedicalLanguageSystem)\footnote{http://www.nlm.nih.gov/research/umls/},日本語の語彙資源では,広範な生命科学分野の領域の専門用語などからなるライフサイエンス辞書\footnote{http://lsd.pharm.kyoto-u.ac.jp/ja/index.html},病名,臨床検査,看護用語などカテゴリごとの専門用語集を含むMEDIS標準マスター\footnote{http://www.medis.or.jp/4\_hyojyun/medis-master/index.html}などが提供されている.辞書などの語彙資源を利用した素性(辞書素性)は,訓練データに少数回しか出現しない用語や,まったく出現しない未知の用語を認識する際の手がかりとして有用であるため,訓練データの量が少ない場合でも,こうした語彙資源を有効活用することで高精度な抽出を実現できる可能性がある.しかし,既存の医療用語抽出研究に見られる辞書素性は,テキスト中の語句に対して辞書中の用語と単純にマッチングを行うものに留まっている\cite{imaichi2013comparison,laquerre2013necla,miura2013incorporating}.診療記録では多様な構成語彙の組合せからなる複合語が使用されるため,単純な検索ではマッチしない用語が存在し,辞書利用の効果は限定的であるといえる.本研究では,類似症例検索などを実現する上で重要となる症状名や診断名(症状・診断名)を対象とした用語抽出を行う.その際,語彙資源から症状・診断名の構成要素となる語彙を獲得し,元のコーパスに併せて獲得した語彙を用いることで,より多くの用語にマッチした辞書素性を生成する.そして,生成した辞書素性を機械学習に組み込むことで,語彙資源を有効活用した抽出手法を実現する.また,提案手法の有効性を検証するために,病歴要約からなるNTCIR-10MedNLPタスク\cite{morita2013overview}のテストコレクションを用いて評価実験を行う.本稿の構成は以下の通りである.まず,\ref{chp:related_work}章で医療用語を対象とした用語抽出の関連研究について述べ,\ref{chp:baseline_system}章で本研究のベースとなる機械学習アルゴリズムlinear-chainCRFに基づくシステムを説明する.\ref{chp:util_resources}章では,語彙資源から症状・診断名の構成語彙を獲得する方法と,獲得した語彙を活用した症状・診断名抽出手法を説明する.\ref{chp:experiments}章でMedNLPテストコレクションを用いた評価実験について述べ,最後に,\ref{chp:conclusions}章で本稿のまとめを述べる.
V28N01-03
\label{sec:intro}対話システムの応答生成においては,ユーザとの対話を継続させる働きである対話継続性が重要な要素であり,特に対話中でのシステム発話の一貫性を考慮することが重要とされている\cite{bohus2003ravenclaw}.近年盛んに研究されている,ニューラルネットワークで対話のクエリ-応答ペアを学習するNeuralConversationModel(NCM)\cite{ncm}においても同様に,対話の文脈や論理を考慮することが対話継続性に寄与すると考えられている\cite{mei2017coherent}.そこで本研究では,まず応答候補と対話履歴に存在する事態の一貫性に着目した応答のリランキング手法を提案し,これによって対話継続性が向上するかについて調査する.リランキングは,質問応答システムや対話システムなどの言語生成タスクにおいて様々な要素を考慮した候補の選択に用いられる\cite{intra,jansen,bogdanova,ohmura}.応答候補と対話履歴に存在する一貫性を考慮しようとする場合,何をもって一貫性を定義するかが重要となる.そこで本研究では,「ストレスが溜まる」と「発散する」など,関連すると認められる事態ペアが対話履歴と応答候補の間に存在する場合に着目する.事態は動詞や事態性名詞により構成される,文の中心的な意味表現であり,文中での事態の一貫性の高さは当該文同士の一貫性の高さと関係があると考えられる.すなわち,対話履歴と応答候補の事態の一貫性が高いとき,応答候補が対話履歴に対して関連,一貫していると考えられる.一貫性があると解釈できる事態間関係の一つとして,因果関係がある.因果関係とは2つの事態間に原因と結果の関係が成立すること\cite{ecdic,ecdic2}と定義され,この定義に従い,「ストレスが溜まる」が原因,「発散する」が結果,のように認定する.因果関係はこれまで質問応答システムなどで利用されており,質問と応答の間に成立する因果関係を考慮することで,質問に対する適切な応答を生成できることが示されている\cite{intra,semisuper,mcnn-ca}.雑談対話システムにおいても因果関係を考慮することで,ユーザに好まれる応答を生成できることが示されている\cite{fujita,satoh2018}.しかしながら,実際に発話中に存在する事態の一貫性を考慮することで発話同士の一貫性を考慮することができるかどうかや,これにより対話継続性が向上するかについては議論が行われていない.そこで本研究では,こうした事態の一貫性を考慮したリランキング手法を提案し,生成応答の履歴に対する一貫性や対話継続性が実際に向上するかを検証する.また,異なる観点からの一貫性についての研究として,CoherenceModel\cite{coherence}がある.CoherenceModelは文書中に出現する単語の品詞情報や文の分散表現をもとに,対象となる文の先行文書に対する一貫性を推定する.対話応答生成においてもこのモデルが出力する一貫性スコアを利用する先行研究が存在する\cite{coh_dial}.そこで本研究では,このCoherenceModelに事態の一貫性を導入することで,対話履歴に対する一貫性と対話継続性が向上するかについて調査する.本論文で提案する手法は,対話継続性の高い応答を選択するために,事態の一貫性を考慮したスコア,あるいはCoherenceModelにおいて事態の一貫性を考慮したスコアの計算を行い,これらに基づいて応答候補から応答を選択する.この計算に,大規模コーパスから統計的に獲得された因果関係ペア\cite{ecdic,ecdic2}を用いる.また,因果関係ペアを用いる際に生じるカバレージの問題を解決するため,RoleFactoredTensorModel(RFTM)\cite{evnttnsr}を用いる.実験においては,参照文を用いた自動評価に加えてPMIを用いて一貫性の評価を行った.また,人手評価によって提案手法が対話履歴に対する一貫性を向上したか,また対話継続性を向上したかについての評価を行った.その結果,これらの手法はPMIなどの自動評価による一貫性スコアを向上したにも関わらず,人手評価における一貫性評価はかえって低下し,しかし対話継続性が向上するという一見すると矛盾する結果となった.この結果から,以下の3つの仮説を立て分析を行った.一つ目は,出現する単語に基づく一貫性の向上は必ずしも人手評価における一貫性の評価に寄与しない,という仮説である.二つ目は,人手評価における一貫性の評価と対話継続性の評価は相関が低い,という仮説である.三つ目は,人手評価における一貫性ではなく,単語選択や事態に基づく一貫性の向上が人手評価における対話継続性の向上に寄与する,という仮説である.この分析のため,人手評価のスコアの相関分析と,個々の事例分析を行った.この結果,前述の3つの仮説がある程度成立することが示され,対話履歴に関連する事態を含む応答を選択できている場合には対話継続性が向上することが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V14N03-10
インターネット上での商取引やブログの増加により,特定の商品や出来事についての感情や評価,意見などの個人の主観を表明したテキストが増加している.この主観の対象が特定の商品に対するものである時は,商品へのフィードバックとして企業に注目される.主観が特定のニュースや施策に対するものであれば,国民の反応を知る手がかりとして利用する用途なども考えられる.国内外で多数の主観に注目した会議が開催されていることからも,関心の高さをうかがい知ることができる(EAAT2004,Shanahanetal.2005,言語処理学会2005,言語処理学会2006,AAAI2006,EACL2006,ACL2006).本研究では,このようなテキストに現れた個人の主観の表明の中でも,特に,「うれしい」「かなしい」などの個人の感情を表す感情表現に着目し,その特性を理解するためのモデルを提案し,書籍や映画などの作品検索に応用するための方策を考察する.なお感情とは,ある対象に対する主体の気分や心の動きであり,感情表現とは,感情とその主体,対象などの構成要素をまとめて呼ぶ呼称である.態度とはテキストの中で感情や評価,意見など主観を表明した部分である.感情表現には感情表現事典(中村1993)に収録されているような感情という態度を表明している部分だけではなく,それを表明した主体や向けられた対象,その理由や根拠が関連する構成要素が存在する.我々は書評や映画評などの作品レビューが利用者にとって鑑賞する作品の選択に参考となるかどうかを判断するためには,感情表現の中の態度だけでなく他の構成要素も抽出する必要性があると考える.これは,作品レビューには参考になるもの,ならないものがあり,それを判断する手がかりとして構成要素が利用されていると仮定したことによる.さらに構成要素の中でも態度を表明した理由や根拠がその判断に大きく影響していると考えた.そこでまず感情表現抽出の準備段階として,感情表現の構成要素をあきらかにするため,Web上の作品レビューを用いて分析を行い,感情表現のモデルを定義し,構成要素の特徴をあきらかにした.次に感情表現の理由や根拠の重要性や働きを調べるため,追加分析と被験者実験を行い,作品検索に感情表現を用いるとき,検索結果が利用者にとって参考となる情報となるためには理由という構成要素が重要な働きをしていることを示した.\subsection{作品レビューにおける主観的な情報}本研究で扱うレビューとは,ある対象について評論したテキストのことである.レビューには,下記のような多様なドメインが考えられる.・作品:映画評,ブックレビューやCD,楽曲,演劇などの作品に関するレビュー・製品:携帯電話や車などの製品についてのレビュー・サービス:レストランや飛行機,ホテルなどのサービスに関してのレビュー・組織:会社や団体など,組織についてのレビューこれらドメインによって,レビュー中に表明された主観的な情報の用途,関連する構成要素と各要素の重要性,働き,評価の観点などが異なる.製品においては,使い勝手や好みなどの主観的な情報も重要であるが,その仕様や機能,価格など製品に関する事実がより重要な観点となる.同様にサービスではその特徴や利点が,組織では活動の内容などが重要な観点となる.これら製品やサービス,組織は利用するためのものであるため,それぞれが持つ機能や特徴,性質など主に具体的な事実や数値とそれが好意的なのか否定的なのかという評価がレビューとして重要視される.しかし映画や書籍のような作品は個人が味わうためのものであり,価格やあらすじ,登場人物などの事実以上に,それを利用者が読んだり鑑賞したりしてどう感じるかといった,利用者の抱く感情が重要である.\subsection{作品検索の問題点}現在の作品を対象とした検索では,作品のタイトルや登場人物,ジャンルなどを手がかりにして,利用者が自分の希望する作品を検索している.しかし利用者の要求には,「今日は泣ける本が読みたい」「派手な映画を見て元気を出したい」「背筋も凍るような恐怖のホラー映画が見たい」など,それらを見聞きした結果どのような感情を感じるかといったものもある.実際Web上の質問サービスである「教えてgoo\footnote{教えてgoo,http://oshiete.goo.ne.jp/}」や「Yahoo!知恵袋\footnote{Yahoo!知恵袋,http://chiebukuro.yahoo.co.jp/}」などの質問回答サービスには,「切なくなる本を教えてほしい」「怖い映画を教えてください」などの質問が存在する.感情表現を手がかりとして作品を検索できれば,これら要求を満たすことができる.我々は,単に作品へ向けられた感情表現中の感情という態度を表明した語句のみから作品を探すのではなく,感情の主体,対象,理由などの感情表現の他の構成要素も利用することが重要と考える.さらに構成要素の中でも理由,根拠,原因が明記された感情表現が特に利用者にとって参考となり得る重要な情報であると考えた.理由,根拠,原因の記述された感情表現を検索に利用することで,同じ「幸せな気分になれる本」を探したときでも,「笑える内容だったから幸せだった」のか「ハッピーエンドで終わったから幸せだった」のかなどを区別することができる.また,我々は,趣味嗜好が強く反映される作品レビューのようなテキストではそれを読んだ利用者がテキストに記述された内容を理解し,鑑賞する作品を選択するときに参考にすることが可能であることが重要であると考えた.具体的には,感情表現を用いた作品検索において,「理由」が記述されたものに重み付けをし,さらに結果をその作品レビューが含む理由と共に表示することなどが考えられる.そこで,本研究では作品レビューのテキストを対象とし,そこに出現する感情表現を分析した.なかでも感情表現の理由や根拠に注目して研究を行った.\subsection{本論文の構成}本論文の構成は次のとおりである.2節では,関連研究を概観し,本研究の位置づけを明確にする.3節では,書籍と映画に関するレビューを人手分析し,感情表現の構成要素を定義した.4節では,3節で定義した構成要素の特徴と働きについて考察をした.5節では,構成要素の中から理由に着目し,その重要性を分析,検討した.6節では5節での検討内容を被験者実験によって実証し,7節ではその結果を考察した.8節は本論文の結論である.
V13N03-08
近年,手話は自然言語であり,ろう者の第一言語である\cite{Yonekawa2002}ということが認知されるようになってきた.しかし,これまで手話に関する工学的研究は,手話動画像の合成や手話動作の認識といった画像面からの研究が中心的であり,自然言語処理の立場からの研究はまだあまり多くは行われていない.言語処理的な研究が行われていない要因として,自然言語処理における処理対象はテキストであるのに,手話には広く一般に受け入れられた文字による表現(テキスト表現)がないことがあげられる.言語処理に利用できる機械的に可読な大規模コーパスも手話にはまだ存在していないが,これもテキスト表現が定まっていないためである.本論文では,手話言語を音声言語と同様,テキストの形で扱えるようにするための表記法を提案する.また,ろう者が表現した手話の映像を,提案した表記法を使って書き取る実験により行った表記法の評価と問題点の分析について述べる.現在我々は,日中機械翻訳など音声言語間の機械翻訳と同じように,日本語テキストからこの表記法で書かれた手話テキストを出力する機械翻訳システムの試作を行なっている.一般に翻訳は,ある言語のテキストを別の言語の等価なテキストに置き換えることと定義されるが,手話にはテキスト表現がないため,原言語のテキストから目的言語のテキストへの言語的な変換(翻訳)と,同一言語内での表現の変換(音声言語ではテキスト音声合成,手話では動作合成/画像合成)とを切り離して考えることができなかった.我々は,テキスト表現の段階を置かずに直接手話画像を出力することは,広い範囲の日本語テキストを対象として処理していくことを考えると,機械翻訳の問題を複雑にし困難にすると考え,音声言語の機械翻訳の場合と同じように,日本語テキストから手話テキストへ,手話テキストから手話画像へと独立した二つのフェーズでの機械翻訳を構想することとした(図\ref{fig:sltext}).\begin{figure}[tb]\centering\epsfxsize=11cm\epsfbox{sltext.eps}\caption{日本語-手話機械翻訳における手話テキストの位置付け}\label{fig:sltext}\end{figure}現在,日本語から他の諸言語への翻訳を行うためのパターン変換型機械翻訳エンジンjawとそれに基づく翻訳システムの開発が進められているが(謝他2004;ト他2004;Nguyenetal.2005;Thelijjagodaetal.2004;マニンコウシン他2004),本表記法を用いた日本語-手話翻訳システムも,それらと全く同じく枠組みで試作が行なわれている(松本他2005;Matsumotoetal.2005).jawによる翻訳は次のように行われる.jawは入力日本語文を形態素/文節/構文解析して得られた日本語内部表現(文節係り受け構造,文節情報)の各部を,DBMS上に登録された日本語構文パターンと照合する.パターンの要素には階層的な意味カテゴリが指定できる.各パターンは,それを目的言語の表現に変換する翻訳規則と対応しており,その規則の適用により目的言語の内部表現が生成される.目的言語の内部表現は,各形態素の情報を属性として持つC++オブジェクトと,それらの間のリンク構造として実現される.目的言語の内部表現から目的言語テキストへの変換(語順の決定,用言後接機能語の翻訳など)は,各形態素オブジェクトが持つ線状化メンバ関数,および,目的言語ごとに用意された別モジュールによって行われる.\nocite{Bu2004,Shie2004,Nguyen2005,Thelijjagoda2004,Ngin2004}\nocite{Matsumoto2005a,Matsumoto2005b}本論文はこのような枠組みにおいて,翻訳システムが出力する手話のテキスト表現方法について述べるものである.機械翻訳システム,すなわち翻訳の手法については稿を改めて詳しく論じたい.手話の表記法は従来からいくつか提案されている\cite{Prillwitz2004,Sutton2002,Ichikawa2001,Honna1990}.しかしその多くは,音声言語における発音記号のように,手話の動作そのものを書き取り,再現するための動作記述を目的としている.このため,言語的な変換処理を,動作の詳細から分離するという目的には適していない.\renewcommand{\thefootnote}{}日本語から手話への機械翻訳の研究としては黒川らの研究があり\cite{Fujishige1997,Ikeda2003,Kawano2004},日本語とほぼ同じ語順で(日本語を話しながら)手指動作を行なう中間型手話\footnote{日本手話,日本語対応手話,中間型手話については次節で述べる.}を目的言語としたシステムについて研究が行なわれている.そこでも手話の表記法についての提案があるが,機械翻訳の結果出力のためのシステムの内部表現としての面が強く,手話をテキストとして書き取るための表記法というものではない.徳田・奥村(1998)も日本語-手話機械翻訳の研究の中で,手話表記法を定義している.しかし,主に日本語対応手話\footnotemark[1]を目的言語としているため,日本手話\footnotemark[1]において重要な言語情報を表す単語の語形変化や非手指要素に対する表記は定義されていない.テキスト表現を導入することによって,従来の音声言語間の機械翻訳と同じ枠組みで手話への機械翻訳が行えるようになるが,その記述能力が不十分であれば,逆に表記法が翻訳精度向上の隘路になる.機械翻訳を前提として提案された上述の既存表記法は,いずれも言語的に日本語に近い手話を対象としているため,日本手話を表記対象とした場合,記述能力不足が問題となる.本論文で提案する表記法では,手話単語に対してそれを一意的に識別する名前を付け,その手話単語名を基本として手話文を記述する.単語名としては日本語の語句を援用する.手話辞典や手話学習書等でも,例えば[あなた母話す]のように手話単語名を並べることによって手話文を書き表すことが多いが,手話単語はその基本形(辞書形)から,手の位置や動きの方向・大小・強弱・速さなどを変化させることによって,格関係や程度,様態,モダリティなどの付加的な情報を表すことができる.また,顔の表情,頭の動きなどの非手指要素にも文法的,語彙的な役割がある.したがって,これらの情報を排除した手話単語名の並びだけでは,主語や目的語が不明確になったり,疑問文か平叙文かが区別できなかったり,文の意味が曖昧になったりする.手話学習書等では,写真やイラスト,説明文によってこのような情報が補われるが,本表記法ではこれらの情報も,記号列としてテキストに含め手話文を記述する.基本的に動作そのものではなく,その動作によって何が表されるかを記述する.たとえば,「目を大きく開け,眉を上げ,頭を少し傾ける」といった情報ではなく,それによって表される疑問のムードという情報を記述する.ただし,手話テキストから手話動作記述への変換過程を考慮して,表記された内容が手話単語自体がもつものなのか,あるいは,その単語の語形変化によって生じるものか,非手指要素によるものかといった大まかな動作情報は表記に含める.以下,2節で手話言語について述べ,3節で提案する表記法の定義を述べる.4節で表記法の評価のための手話映像の書き取り実験と問題点の分析について述べる.5節で既存の代表的な手話表記法について概観し,本論文の表記法との比較を行う.
V07N04-13
\label{sec:intro}テキスト自動要約は,自然言語処理の重要な研究分野である.自動要約の方法には様々なものがあるが,現在の主流は,テキスト中から重要文を抽出して,それらを連結することにより要約を生成する方法である\cite{oku99}.重要文を選ぶための文の重要度は,一般に,\begin{itemize}\item位置情報(例:先頭部分の文は重要)\item単語の重要度(例:重要単語を含む文は重要)\item文間の類似関係(例:タイトルと類似している文は重要)\item文間の修辞関係(例:結論を述べている文は重要)\item手がかり表現(例:「要するに〜」などで始まる文は重要)\end{itemize}などのテキスト中の各種特徴に基づいて決める\cite{oku99}.これらの特徴の組合せは,人手で決める\cite{edmundson69:_new_method_autom_extrac}ことも,機械学習により決める\cite{kupiec95:_train_docum_summar}こともできるが,いずれの方法で決めるとしても,それぞれの特徴を精度良く自動的に求めることが重要である.そのため,我々は,これらの特徴を個別に調査し,それぞれの自動要約への寄与を調べることを試みた.特に,本稿では,文間の類似度の各種尺度を,新聞記事要約を対象として比較した.類似度の良さは,要約の良さにより比較した.すなわち,精度の高い要約ができるような類似度ほど,高精度の類似度であると解釈した.ここで,文間の類似度を求める方法としては,単語間の共起関係を利用する方法と利用しない方法とを試みた.その結果は,共起関係を利用する方法の方が高精度であった.なお,各種の類似度を比較するための要約方法としては,タイトルとの類似度が高い文から重要文として抽出するという方法を利用した.この要約方法を利用して類似度を比較した理由は,タイトルは本文中で最も重要であるので,それとの類似度が文の重要度として利用できると考えたからである.なお,タイトルが重要であるという考えに基づく要約には,\cite[など]{yoshimi98:_evaluat_impor_senten_connec_title,okunishi98}がある.また,要約の手法としては,他に,本文の先頭数文を抽出する方法\cite{brandow95:_autom_conden_elect_public}と,単語の重要度の総和を文の重要度とする方法\cite{zechner96:_fast_gener_abstr_gener_domain}も試みたが,これらの方法よりも,タイトルとの類似度に基づく方法の方が高精度であった.これらのことから,共起関係を利用した方法によりタイトルとの類似度を求め,その類似度が高い方から重要文として抽出する方法が,自動要約に有効であることが分かった.以下では,まず,\ref{sec:measures}章で,各種の文の重要度の定義を述べ,次に,\ref{sec:expriments}章で,各種重要度を比較した実験について述べる.\ref{sec:conclusion}章は結論である.
V06N07-04
\label{sec:sec1}インターネットの普及も手伝って,最近は電子化されたテキスト情報を簡単にかつ大量に手にいれることが可能となってきている.このような状況の中で,必要な情報だけを得るための技術として文章要約は重要であり,計算機によって要約を自動的に行なうこと,すなわち自動要約が望まれる.自動要約を実現するためには本来,人間が文章を要約するのと同様に,原文を理解する過程が当然必要となる.しかし,計算機が言語理解を行うことは現在のところ非常に困難である.実際,広範囲の対象に対して言語理解を扱っている自然言語処理システムはなく,ドメインを絞ったトイシステムにとどまっている.一方では言語理解に踏み込まずともある程度実現されている自然言語処理技術もある.例えば,かな漢字変換や機械翻訳は,人間が適切に介在することにより広く利用されている.自動要約の技術でも言語理解を導入せずに,表層情報に基づいたさまざまな手法が提案されている.これらの手法による要約は用いる情報の範囲により大きく2つに分けることができる.本論文では文章全体にわたる広範な情報を主に用いて行なう要約を{\gt大域的要約},注目個所の近傍の情報を用いて行なう要約を{\gt局所的要約}と呼ぶ.我々は字幕作成への適用も視野に入れ,現在,局所的要約に重点を置き研究している.局所的要約を実現するには,後述する要約知識が必須であり,これをどのようにして獲得するかがシステムを構築する際のポイントとなる.本論文ではこのような要約知識(置換規則と置換条件)を,コーパス(原文−要約文コーパス)から自動的に獲得する手法について述べる.本手法では,はじめに原文中の単語と要約文中の単語のすべての組み合わせに対して単語間の距離を計算し,DPマッチングによって最適な単語対応を求める.その結果から置換規則は単語対応上で不一致となる単語列として得られる.一方,置換条件は置換規則の前後nグラムの単語列として得られる.NHKニュースを使って局所的要約知識の自動獲得実験を行い,その有効性を検証する実験を行ったのでその結果についても述べる.以下,~\ref{sec:sec2}~章では自動要約に関して{\gt大域的要約}と{\gt局所的要約}について説明をする.~\ref{sec:sec3}~章では要約知識を自動獲得する際にベースとなる,原文−要約文コーパスの特徴について述べる.~\ref{sec:sec4}~章では要約知識を構成する置換規則と置換条件について説明し,これらを自動獲得する手法について述べる.~\ref{sec:sec5}~章では原文−要約文コーパスから実際に要約知識を自動獲得した実験結果について述べ,獲得された要約知識の評価結果についても述べる.~\ref{sec:sec6}~章ではまとめと今後の課題について述べる.\newpage
V08N01-08
最近様々な音声翻訳が提案されている\cite{Bub:1997,Kurematsu:1996,Rayner:1997b,Rose:1998,Sumita:1999,Yang:1997,Vidal:1997}.これらの音声翻訳を使って対話を自然に進めるためには,原言語を解析して得られる言語情報の他に言語外情報も使う必要がある.例えば,対話者\footnote{本論文では,2者間で会話をすることを対話と呼び,その対話に参加する者を対話者と呼ぶ.すなわち,対話者は話し手と聞き手の両者のことを指す.}に関する情報(社会的役割や性別等)は,原言語を解析するだけでは取得困難な情報であるが,これらの情報を使うことによって,より自然な対話が可能となる.言語外情報を利用する翻訳手法は幾つか提案されている.例えば,文献\cite{Horiguchi:1997}では,「spokenlanguagepragmaticinformation」を使った翻訳手法を,また,文献\cite{Mima:1997a}では,「situationalinformation」を使った手法を提案している.両文献とも言語外情報を利用した手法であり,文献\cite{Mima:1997a}では机上評価もしているが,実際の翻訳システムには適用していない.言語外情報である「pragmaticadaptation」を実際に人と機械とのインターフェースへの利用に試みている文献\cite{LuperFoy:1998}もあるが,これも音声翻訳には適用していない.これら提案の全ての言語外情報を実際の音声翻訳上で利用するには課題が多くあり,解決するのは時間がかかると考えられる.そこで,本論文では,以下の理由により,上記言語外情報の中でも特に話し手の役割(以降,本論文では社会的役割のことを役割と記述する)に着目し,実際の音声翻訳に容易に適用可能な手法について述べる.\begin{itemize}\item音声翻訳において,話し手の役割にふさわしい表現で喋ったほうが対話は違和感なく進む.例えば,受付業務で音声翻訳を利用した場合,「受付」\footnote{本論文では,対話者の役割である「受付」をサービス提供者,すなわち,銀行の窓口,旅行会社の受付,ホテルのフロント等のことを意味し,「客」はサービス享受者を意味している.}が『丁寧』に喋ったほうが「客」には自然に聞こえる.\item音声翻訳では,そのインターフェース(例えば,マイク)によって,対話者が「受付」か否かの情報が容易に誤りなく入手できる.\end{itemize}本論文では,変換ルールと対訳辞書に,話し手の役割に応じたルールや辞書エントリーを追加することによって,翻訳結果を制御する手法を提案する.英日翻訳において,旅行会話の未訓練(ルール作成時に参照していない)23会話(344発声\footnote{一度に喋った単位を発声と呼び,一文で完結することもあり,複数の文となることもある.})を対象に実験し,『丁寧』表現にすべきかどうかという観点で評価した.その結果,丁寧表現にすべき発声に対して,再現率が65\%,適合率が86\%となった.さらに,再現率と適合率を下げた原因のうち簡単な問題を解決すれば,再現率が86\%,適合率が96\%になることを机上で確認した.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性が高いと言える.以下,2章で『話し手の役割』と『丁寧さ』についての調査,3章で本手法の詳細について説明し,4章で『話し手の役割』が「受付」の場合に関する実験とその結果について述べ,本手法が音声翻訳において有効であることを示す.5章で,音声翻訳における言語外情報の利用について,また,他の言語対への適用について考察し,最後に6章でまとめる.なお,本論文は,文献\cite{Yamada:2000}をもとにさらに調査検討し,まとめたものである.
V15N03-01
今日,大学は社会に貢献することが求められているようになっている.特に,産業界と関係の深い学部においては産学連携が強く求められるようになってきている.そのような産学連携を活性化するためには大学側のシーズを専門用語によって簡単に検索できるシステムが望まれる.そこで,著者らは産学連携マッチングを支援する研究情報検索システムの研究を開始した.本研究では研究情報検索システムの主要要素である専門用語の抽出に取り組んでいる.対象分野としては専門用語による研究情報検索システムのニーズが高く,これまで研究がなされていない分野の1つである看護学分野を選択した.専門用語抽出の研究は情報処理分野を対象にした研究は盛んに行われている.しかしながら,一部の医学・基礎医学分野以外には他分野の専門用語抽出の研究は見当たらない.予備研究によって,病気の症状や治療法を表す専門用語が情報検索分野における代表的な専門用語の抽出方法では抽出が難しいことが判明した.そこで,専門用語になりうる品詞の組合せの拡張と一般的な語を除去することで専門用語抽出の性能改善を図った.以下,2章で従来研究とアプローチについて述べ,3章で提案手法,4章で実験及び評価,5章で考察と今後の課題について述べる.
V14N05-05
\label{sec:intro}日本語の解析システムは,1990年代にそれまでの研究が解析ツールとして結晶し,現在では,各種の応用システムにおいて,それらの解析ツールが入力文を解析する解析モジュールとして利用されるようになってきている.解析ツールを利用した応用システムの理想的な構成は,与えられた文を解析する解析ツールと,その後の処理を直列につなげた,図\ref{fig:cascade}に示すような構成である.例えば,情報抽出システムでは,応用モジュールは,解析ツールの出力データを受け取り,そのデータに抽出すべき情報が含まれているかどうかを調べ,含まれている場合にその情報を抽出する,という処理を行なうことになる.\begin{figure}[b]\input{05f1.txt}\end{figure}ここで,応用モジュールを,おおきく,次の2つのタイプに分類する.\begin{enumerate}\item{\bf言語表現そのもの(言語構造)を対象とする}応用モジュール例えば,目的格と述語の組を認識して,それらの数を数えるモジュール.\item{\bf言語表現が伝える情報(情報構造)を対象とする}応用モジュール例えば,「どのメーカーが,なんという製品を,いつ発売するか」という情報を抽出する情報抽出モジュール.\end{enumerate}後者のモジュールでは,どのような言語表現が用いられているのかが問題となるのではなく,どのような言語表現が用いられていようと,それが「どのメーカーが,なんという製品を,いつ発売するか」という情報を伝達しているのであれば,それを抽出することが要求される.われわれが想定する応用モジュールは,この後者のタイプである.応用システムにおいて,解析ツールは,「応用に特化しない言語解析処理をすべて担う」ことを期待される.しかしながら,現実は,そのような理想的な状況とは程遠く,応用モジュールを構築する際に,現在の解析ツールが放置しているいくつかの言語現象と向き合うことを余儀なくされる.そのような言語現象の具体例は,おおきく,以下の4種類に分類できる.\begin{description}\item[表記の問題]~~いわゆる「表記のゆれ」が放置されているので,これらを同語とみなす処理が必要となる.例えば,「あいまい」と「曖昧」,あるいは,「コンピューター」と「コンピュータ」.\item[単位の問題]~~複合語表現(multi-wordexpressions)の設定が不十分であるので,追加認定を行なう処理が必要となる.\item[外部情報源とのインタフェースの問題]~~語の認定が行なわれないので,他の外部情報源を利用する場合,文字列でインタフェースをとるしか方法がない.それぞれの情報源(例えば,一般の国語辞典)で,品詞体系や見出し表記が異なるので,かなりの辞書参照誤りが発生する.\item[異形式同意味の問題]~~言語表現は異なるが伝達する情報(意味)が同じものが存在するので,これらを同一化する処理が必要となる.\end{description}これらの問題に共通するキーワードは,「情報(意味)の基本単位」である.日本語の表現は,内容的・機能的という観点から,おおきく2つに分類できる.さらに,「表現を構成する語の数」という観点を加えると,表\ref{tab:classWord}のように分類できる.ここで,{\bf複合辞}とは,「にたいして」や「なければならない」のように,複数の語から構成されているが,全体として1つの機能語のように働く表現のことである.われわれは,機能的というカテゴリーに属する機能語と複合辞を合わせて{\bf機能表現}と呼ぶ.\begin{table}[b]\input{05t01.txt}\end{table}内容的表現に関しては,近年,上の4つの問題を解決するための研究が行なわれている.例えば,内容語に関しての研究\shortcite{Sato2004jc,JUMAN,asahara2005}や慣用表現に関しての研究\shortcite{Ojima2006,Hashimoto2006a,Hashimoto2006b}がある.その一方で,機能表現に関しては,大規模な数のエントリーに対して上記の問題を解決しようとする研究はほとんど存在しない.大規模な数の機能表現を扱ったものに,Shudoら\shortcite{Shudo2004}や兵藤ら\shortcite{Hyodo2000}による研究があるが,それらは,上記の問題を考慮していない.このような背景により,本研究では,自然言語処理において日本語機能表現を処理する基礎となるような{\bf日本語機能表現辞書}を提案する.この辞書は,大規模な数の機能表現に関して,上記の問題に対する1つの解決法を示す.本論文は,以下のように構成される.まず,第2章で,機能表現とその異形について述べる.次に,第3章において,日本語機能表現辞書の設計について述べる.第4章で,辞書の見出し体系として採用した,機能表現の階層構造について説明する.そして,第5章で,辞書の編纂手順について説明し,現状を報告する.第6章で,関連研究について述べ,最後に,第7章でまとめを述べる.