id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V14N01-02
人間の言語能力をコンピュータ上に実現することを狙った自然言語処理については,近年盛んに研究されている.しかし,かな漢字変換方式の日本語ワープロのように実用システムとして成功した例はまれで,多くは実験システムの域にとどまっている.実際,自然言語の壁は厚く,多くの研究者が従来の言語理論と実際の自然言語との間にギャップがあると感じている.事実,従来の計算言語学は強化されてきたとはいえ,自然言語の持つ論理的な一側面しか説明できず,現実の言語に十分に対応できていない.英語に比べて語順が自由で省略の多い日本語は,句構造解析には不向きとされ,係り受け解析が一般的となっている.また,係り受けが交差する入れ子破りが起こる表現は,係り受け解析では扱えるが,句構造解析による木構造では扱えない.さらに,文内で独自の統語・意味構造をもつ複合名詞や名詞句は,これらに適した個別的な構造解析法を模索する必要がある.現在,主流となっている文節構文論(学校文法)に基づく構文解析では以下の例に示すように構文解析結果が意味と整合性が良くなく,時枝文法風の構文解析の方が解析結果に則って意味がうまく説明できることが指摘されている\cite{水谷1993}.\begin{itemize}\item「梅の花が咲く.」\\この文は「梅の/花が/咲く.」と文節に分割でき,係り受け解析では,「梅の」が「花が」に係り,「花が」が「咲く」に係るが,図\ref{fig:umenohana}に示すように「梅の」は「花」のみに係ることが望ましい.\begin{figure}[b]\centering\includegraphics[width=5.5cm]{umenohana.eps}\caption{「梅の花が咲く.」の入れ子構造}\label{fig:umenohana}\end{figure}\item「山を下り,村に着いた.」\\この文は「山を/下り/村に/着いた.」と文節に分割でき,係り受け解析では,「山を」が「下り」に,「下り」が「着いた」に,「村に」が「着いた」に係るが,図\ref{fig:yamakudari}に示すように「下り」と「着い」をともに「た」が受けることが望ましい.\begin{figure}[t]\centering\includegraphics[width=9cm]{yamakudari.eps}\caption{「山を下り,村に着いた.」の入れ子構造}\label{fig:yamakudari}\par\vspace{20pt}\includegraphics[width=6cm]{sakanaturi.eps}\caption{「魚を釣りに行く.」の入れ子構造}\label{fig:sakanaturi}\end{figure}\item「魚を釣りに行く.」\\この文は「魚を/釣りに/行く.」と分割でき,係り受け解析では,「魚を」が「釣りに」に係り,「釣りに」が「行く」に係るが,図\ref{fig:sakanaturi}に示すように「魚を」は「釣り」のみに係ることが望ましい.この際,「釣り」が連用形名詞であり,名詞と動詞の品詞の二重性をもつことに注意が必要である.\end{itemize}元来,構文解析は文の意味を正しく解析するために行うのであるから,日本語文パーザには意味と親和性のある統語構造を出力することが要求される.日本語文解析全体としては,形態素解析に始まり,構文解析,意味解析と続く流れを想定している.ここで,構文解析と意味解析は分離しているが,構文解析は意味解析を助ける構造を出力することが求められる.すなわち,助詞・助動詞などの機能語,形式名詞から作り出される文の骨格,いわば構造が持つ意味を的確に捕らえておくことが必要である.構文解析そのものは,意味情報を導入することにより多義が発生することを避け,表層的情報・統語的情報のみを用いて解析するものとする.この方針は,長尾\cite{長尾1996}の「文は何らかの新しい情報(知識)を伝えるものであるから,文の構造を理解するために前もって意味的な情報が必要であると仮定することには本質的に問題がある.たとえば未知の分野の専門書などを読む場合,その内容(意味)は文の構造から理解できるという状況が考えられる.」との見解とも一致する.従来から日本語構文解析の主流となっている,係り受け解析に基づくKNP\cite{黒橋他1994}が既に作成されており,句構造の流れをくむHPSGを用いた日本語文解析についての研究\cite{大谷他2000}なども行われている.係り受け解析との対比は以降の章で詳細を述べる.上記のHPSG関連の研究は,主に日本語単文をHPSGで取り扱う上での問題点とその解決策について示したものであり,単文だけでなく,複文,重文などを対象とし,語の単位と機能を整理し直した構文解析の体系を作り出そうとしている本研究の目標と異なるものである.さらに,本論文で提案するパーザでは構文解析と意味解析を分離しており,HPSGのように構文解析と意味解析と融合するのではないため,本論文では特に比較を行わない.本論文では,上記のような日本語構文解析上の問題を解決するものとして,従来の研究では見逃されていた言語の過程的構造\cite{池原他1987,池原他1992,宮崎他1992}に目を向け,三浦の言語モデル(関係意味論に基づく三浦の入れ子構造)とそれらの基づく日本語文法体系(三浦文法)をベースにした意味と親和性のある統語構造を出力する日本語文パーザの枠組みを提案し,その有効性について論じる.最後に,本論文中で意味との整合性が良くないとして取り上げたパターンの出現頻度が低くないことおよびパーザが最低限の解析能力を持つことを実験により検証する.
V07N05-02
label{sec:intr}構文解析は自然言語処理の基礎技術として研究されてきたものであり,それを支える枠組の一つに言語学上の理論があると考えるのが自然であろう.過去においては言語に関する理論的理解の進展が解析技術の開発に貢献していたことは改めて述べるまでもない.しかし,現状はそうではない.現在開発されている様々な解析ツールには文法理論との直接的な関係はない.形態素解析や係り受け解析には独自のノウハウがあり,またそうしたノウハウは言語学上の知見とは無関係に開発されている.そのような事情の背景には,自然言語処理に文法理論を導入することは実用向きではない,という見解があった.また,そもそも自然言語処理という工学的な技術が文法理論の応用として位置付けられるものであるかどうかすら明確ではない.工学的なシステムは,1970年代,学校文法を発展させたものか,60年代の生成文法などにもとづいて開発されていた.そのようなアプローチの問題は個別的な規則を多用したことにあり,様々な言語現象にわたる一般性が捉えられないばかりか,肥大した文法は処理効率の面でも望ましいものではなかった.素性構造(featurestructure)の概念の形式化が進んだ80年代は,それを応用した構文解析などの研究が行われていた.研究の関心は専ら単一化(unification)という考え方が言語に特徴的な現象の説明に有効かどうかを明らかにすることであった.そのため構文解析器の開発は文法の構築と並行して行われたものの,実用面より理論的な興味が優先された.90年代になると,コーパスから統計的推定によって学習した確率モデルを用いる手法が,人手で明示的に記述された文法に匹敵する精度を達成しつつあった.しかしながら,コーパスだけに依存した方法も一つの到達点に達し,そろそろ限界が感じられてきている.これらの文法システムに共通する特徴は,自然言語に関する様々な知見を何らかの計算理論にもとづいて実装しようと試みていることである.そのような知見は言語に関する人間の認知過程の一端を分析して得られたものに他ならないが,そもそも人間の情報処理というものが他の認知活動と同様に部分的な情報を統合して活動の自由度をできるだけ小さく抑えているようなものであるならば,言語も人間が処理している情報である以上,そのような性質を持つものと考えることができる.その意味で,構文解析が果たすべき役割とは,文の構造といった言語に関する部分的な情報を提供することで可能な解析の数を抑制することにあり,またより人間らしい,あるいは高度な自然言語処理に向けての一つの課題は,そのような言語解析における部分的な情報の統合にあると考えることができる.本論文ではこういう前置きをおいた上で,現在NAISTで開発中の文法システムを概観し,自然言語処理に文法理論を積極的に導入した構文解析について論じてみたいと思う.言語データを重視する帰納的な言語処理とモデルの構築を優先する演繹的な文法理論を両立させた本論のアプローチは,どちらか一方を指針とするものよりも,構文解析,あるいは言語情報解析においてシステムの見通しが良いことを主張する.また,このような試みが自然言語処理における実践的な研究に対してどのようなパースペクティブを与えるか,ということも述べてみたい.本論文の構成は以下のとおりである.文法理論は言語の普遍的な(universal)性質を説明する原理の体系であるが,\ref{sec:jpsg}節では,言語固有の(language-specific)データを重視して構築していながらも普遍的体系に包含されるような日本語文法の骨子を明示的に述べる.\ref{sec:jl}節以下は,日本語特有の現象についての具体的分析を示す.形式化が進んでいる格助詞,取り立て助詞,サ変動詞構文を例に.言語現象の観察・基本事項の抽出を踏まえた上で,断片的な現象の間に潜む関連性が我々の提案する文法に組み込まれた一般的な制約によって捉えられることを示す.\ref{sec:adn}節では,本論の構文解析の問題点の一つ,連体修飾の曖昧性について検討する.一般に,コーパス上の雑多な現象を説明するための機構を文法に対して単純に組み込んでしまうと曖昧性は増大する.しかし,格助詞に関わる連体修飾については,文法全体を修整することなく不必要な曖昧性を抑えることができる.ここでは各事例の検討を交えながら,その方法について述べる.\ref{sec:cncl}節は総括である.本論文が示したことを簡単にまとめ,締めくくりとする.\setcounter{section}{1}
V28N03-08
アイヌとは北海道・樺太・千島列島に住む民族であり,独自の文化と言語を持っているが,これらは19世紀後半から行われた同化政策の影響で急速に失われていった.これに対して,20世紀後半からアイヌ文化保護活動が活発に行われており,その過程で多くの口頭伝承の音声が収録されてきた.このような録音資料はアイヌ文化を理解するうえで重要な役割を果たすものであるが,アイヌ語に関する専門知識を持った人材の不足からその大半は未だ書き起こされておらず,十分に活用されていないというのが現状である.そこで,アイヌ語に対する音声認識システムを構築することが強く求められているが,これまで本格的な研究は行われていない.近年,音声認識技術は大規模コーパスと深層学習の導入によって劇的な進歩を遂げ,実用的な水準に達している\cite{conformer,sota_dnn_hmm}.その代表的なもので,現在最も用いられているDNN-HMMハイブリッドモデル\cite{dnn_hmm}は,音響モデル,言語モデル,発音辞書からなる階層構造を持っている.一方で,音響特徴量列から直接ラベル列へと変換するEnd-to-Endモデル\cite{attn}がその単純な構造と応用の容易さから活発に研究されており,ハイブリッドモデルと同等以上の性能を達成しつつある.しかしながら,これらの深層学習を適用するためにはかなり大規模な学習データが必要となるため,低資源言語において実現することは難しい.本研究で構成するアイヌ語音声コーパスは40時間の音声データからなるが,これは『日本語話し言葉コーパス(CSJ)』\cite{csj}や英語のLibriSpeechコーパス\cite{libri}などと比較して10分の1以下であり,アイヌ語もまた低資源言語に分類される.低資源言語の音声認識のために,表現学習\cite{feature_learning1,cross_language_feature_learning2}やマルチリンガル学習\cite{multi_3_1,multi_3_2,multi_3_3}が検討されている.表現学習では,主要言語の大規模コーパスで学習された多層パーセプトロンを特徴抽出器として使用する.マルチリンガル学習では,認識対象でない言語のデータで学習データの量を補完して音声認識モデルを学習させる.これらの手法はアイヌ語音声認識においても有用であることが予想されるが,アイヌ語音声コーパスは話者数の少なさと話者毎のデータ量の偏りという特徴を持っており,上記の手法を単純に適用できない.また,アイヌに関する一次資料は日本語とアイヌ語が混合した音声であるが,高い音声認識性能を得るためにはアイヌ語の発話区間をあらかじめ抽出しておく必要がある.音声データにおける言語識別の従来手法として,フォルマントに基づくもの\cite{lid_proto1},音素認識モデルと言語モデルを組み合わせたもの\cite{lid_hmm1},音響特徴量列から直接言語ラベルを出力するもの\cite{cai2019}などが存在するが,日本語アイヌ語混合音声には一人の話者が複数の言語を流暢に話すという点で上記の研究対象より難度が高い.本稿の構成を以下に記す.まず,我々は白老町アイヌ民族博物館と平取町アイヌ文化博物館から提供されたアイヌ語アーカイブのデータを元にアイヌ語音声コーパスを構成する.次に,本コーパスを用いたアイヌ語音声認識において,音素・音節・ワードピース・単語の4つの認識単位を比較する.実験は,学習セットと評価セットで話者が同一である話者クローズド条件と,話者が異なる話者オープン条件で行う.話者オープン条件での認識性能の低下を緩和するために,CycleGANを用いた声質変換技術による教師なし話者適応を提案する.最後に,日本語とアイヌ語が混合した音声における言語識別について検討を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V20N05-05
『現代日本語書き言葉均衡コーパス(BCCWJ)』(国立国語研究所2011)\nocite{NINJAL2011}の完成を受けて,国立国語研究所では日本語の歴史をたどることのできる「通時コーパス」の構築が進められている\footnote{NINJAL通時コーパスプロジェクトhttp://www.historicalcorpus.jp/}\cite{近藤2012}.コーパスの高度な活用のために,通時コーパスに収録されるテキストにもBCCWJと同等の形態論情報を付与することが期待される.しかし,従来は十分な精度で古文\footnote{本稿では,様々な時代・文体・ジャンルの歴史的な日本語資料を総称して「古文」と呼ぶ.}の形態素解析を行うことができなかった.残された歴史的資料は有限であるとはいえ,その量は多く,主要な文学作品に限っても手作業で整備できる量を大きく超えている.また,均質なタグ付けのためには機械処理が必須である.本研究の目的は,通時コーパス構築の基盤として活用することのできるような,歴史的資料の形態素解析を実現することである.通時コーパスに収録されるテキストは時代・ジャンルが幅広いため,必要性の高い分野から解析に着手する必要がある.明治時代の文語論説文と平安時代の仮名文学作品は,残されたテキスト量が多いうえ,日本語史研究の上でも価値が高いことから,これらを対象に,96\%以上の精度での形態素解析を実現することを目指す.そして,他の時代・分野の資料の解析に活かすために,各種条件下での解析精度の比較を行い,歴史的資料を日本語研究用に十分な精度で解析するために必要な学習用コーパスの量を確認し,エラーの傾向を調査する.本研究の主要な貢献は以下の通りである.\begin{itemize}\item現代語用のUniDicをベースに見出し語の追加を行って古文用の辞書データを作成した.\item新たに古文のコーパスを作成し,既公開のコーパスとともに学習用コーパスとして,MeCabを用いたパラメータ学習を行い形態素解析用のモデルを作成した.\item同辞書を単語境界・品詞認定・語彙素認定の各レベルで評価し,語彙素認定のF値で0.96以上の実用的な精度を得た.また,同辞書について未知語が存在する場合の解析精度を実験により推測し,その場合でも実用的な精度が得られることを確認した.\item同辞書の学習曲線を描き,古文を対象とした形態素解析に必要なコーパス量が5〜10万語であること,5,000語程度の少量であっても専用の学習用コーパスを作成することが有効であることを確認した.\item高頻度エラーの分析を行い,特に係り結びに起因するものは現状の解析器で用いている局所的な素性では対処できないものであることを確認した.\end{itemize}
V14N03-08
音声言語処理の研究・開発は,コンピュータの高性能化を背景にし,ここ数年の間に飛躍的な発展を遂げ,特に大量のデータに基づく,確率・統計的なモデル化のアプローチは,音響処理面および言語処理面の双方において大きな成功を収めた.これらの技術的進展により,音声合成・音声認識技術は一気に実用レベルに達し,人間とコンピュータとのインタフェースとして広範囲に応用されるに至った.一方,応用範囲が広範になるにつれ,その精度・品質に対して,より高いレベルのものが要求されるようになっている.例えば,音声合成においては,テキストを単に読み上げるだけのものから,パラ言語情報や感情などを表現する柔軟な合成音声が望まれる.このような合成音声には,音声機能障害者を対象とした対話支援システム\cite{Ii2}や,癒し系ロボットへの応用など様々なものが提案されている.言語情報だけでは伝わらないこのような表現豊かな音声での感情や意図の表現には,韻律的特徴が大きく寄与することは明らかである\cite{Rai},\cite{Fuji},\cite{Nikku}.そのため,従来から,感情音声の韻律的特徴に関する研究が行われており,基本周波数パターン(以下,$F_0$パターンと呼ぶ)の統計的な傾向を音声心理学的な観点からとらえた研究\cite{Naga},\cite{As},\cite{Sige}や,音声言語コーパスに基づく工学的な観点からの研究\cite{Koba},\cite{Sagi}がある.日本語音声における感情表現に関する研究は,感情の種類に着目して,特徴付けや識別を試みている例が多い\cite{ITI},\cite{Ii},\cite{Kita}.一方,表現豊かな音声合成のために,特定の感情について,その程度を数段階に分けた研究も行われるようになってきている.\cite{Hasi},\cite{kw2},\cite{Nsima}.また,韻律的特徴が,文の統語構造と関連を持つことも明らかとなっており\cite{Hir},\cite{Ume},韻律的特徴であるイントネーションやアクセントの生起タイミングにおいては,言語的情報を的確に利用することで,よりよい決定が行われると考えられる.筆者らは,表現豊かな音声合成の実現を目的として,特に感情に着目し,複数の程度の感情情報を含む典型的な発話に対する韻律制御指令の生成について検討を行っている.本論文は,感情の種類として「喜び」「悲しみ」の2つの感情を取り上げ,それぞれの感情を3段階の程度で表現した音声に対し,発話の言語的情報と$F_0$パターン制御指令のパラメータとの関係について検討することによって,感情を表現する音声合成への応用を目指すものである.すなわち,本論文の主な目的は,感情の種類の判別・差異に着目することではなく,同一感情の程度に対する影響について明らかにするものである.そのための足がかりとして,R.Plutchikが提案した心理学上の感情の立体モデル\cite{PLU}の基本8感情のうち「喜び」「悲しみ」のみを対象として取り上げるにとどめた.「喜び」「悲しみ」の2感情をその程度まで考慮し分析した先行研究\cite{MD}では,4〜6モーラの単語を発声した際の感情音声を対象として,韻律的特徴が分析されている.この先行研究では,韻律的特徴のうち,時間構造に関するパラメータと$F_0$パターンに関するパラメータを取り扱っている.しかし,孤立に発声された特定の単語発話に対する詳細な検討であり,任意の文章を対象とした音声合成に直接応用することは困難であると考えられる.一方,模擬対話を行って数段階の程度で感情音声を収集した先行研究\cite{Kawana}では,非常に限られた種類の文を対象として文発話を収録している.収録音声の$F_0$パターンとモーラ持続時間短縮率について分析を行い,感情の程度と韻律的特徴との間に一定の傾向を見い出しているが,それは話者や感情の種類によって大きく異なるものと結論づけるにとどまり,一般化には及んでいない.本論文では,任意の文章への感情音声合成への応用を目指して,感情ごとに異なる10文を用意して分析対象とした.ここで,言語的要因の1つである係り受け関係を網羅するため,対象を4文節からなる文に限定した.また,韻律的特徴には,$F_0$パターン・発話速度・発話強度・声質など様々あるが,日本語音声の場合,高さに関する特徴である$F_0$パターンが韻律情報を支配する直接的要因であると考えられているため,本論文では特に$F_0$パターンに着目することとする.$F_0$パターンについては,その生成過程モデル\cite{Fuji3}に基づいた分析を行い,韻律的特徴の定量化を行う.これは$F_0$パターン生成過程モデルが,音声を生成する人間の生理的・物理的な特性を捉えたものであり,また,言語的内容とも整合した制御指令が得られることが確認されているためである.このモデルの$F_0$パターン制御指令の変化傾向をとらえることで,テキスト音声合成時の$F_0$パターン生成に直接に結びつけることが可能であると期待できる.以下,\ref{mt}.では,発話内容の言語的情報と音声資料の収録方法について述べる.\ref{ln}.において,$F_0$パターンの分析手法について述べ,\ref{ex}.で言語的情報に基づき$F_0$パターン制御指令のパラメータとの関係について検討した結果について述べる.\ref{sa}.で本論文をまとめる.
V06N03-06
label{sec:intro}計算機上の文書データが増大するにつれ,膨大なデータの中からユーザの求める文書を効率よく索き出す文書検索の重要性が高まっている.文書検索では,ユーザが情報要求を検索要求として表現する.検索システムは,検索要求の内容と各文書の内容との類似度を計算し,値の高い順に文書を並べて表示する.この類似度は,一般に検索要求内のタームとマッチするタームの文書中の重要度を基に計算される.各タームの重要度は,「ある文書に多く出現し,文書集合全体ではあまり出現しないタームほど,その文書中で重要なタームである」という仮定に基づき,文書中の各タームの出現頻度($tf$)および,そのタームの文書集合全体での出現文書頻度の逆数($idf$)に基づいて計算する場合が多い\cite{salton:88b}.伝統的な検索手法では,文書全体を1つのまとまりとして考え,文書中の各タームの重要度を文書全体における重要度として計算する.しかし,実際の文書,特に長い文書は様々な話題を含むため,文書中の各部分によって話題が異なる場合も多く見られる.話題の違いは,その話題が述べられている部分に出現するタームの違いとして現われる.例えば,あるタームが文書中の一部分では頻出し,他の部分ではほとんど出現しないという状況もある.このような文書に対しては,文書全体を分割できない1つの単位とするのでは,各タームの重要度を計算するには充分ではなく,各話題を表わす部分を別々に扱って各タームの重要度を計算することが必要になる.こうした点から,最近の研究では,パッセージを用いた検索が注目されている\cite{Salton:93,Callan:94,Hearst:93,Knaus:94,Moffat:94,Kaszkiel:97,Melucci:98}.パッセージ検索は,文書全体を1つの単位とした検索とは異なり,パッセージという単位を使用して,検索要求と文書の類似度計算を行なう.各タームの重要度は,パッセージにおける重要度として計算する.そのため,パッセージ検索と文書全体での検索では,同じ検索要求と文書に対し,異なる単位によって類似度を計算することになり,統合的に用いることが可能である.パッセージ検索では,どのようにパッセージを決定するかという新たな問題が発生する.良いパッセージが決定できれば検索の精度も向上すると考えられるので,これは重要な問題である.パッセージとは一般的には文書中で連続した一部分のことを言うが,パッセージ検索においては,単に連続した一部分というだけでは充分ではなく,文書中で検索要求の内容と強く関連する内容を持つ意味的なまとまりを形成する必要がある.また,ユーザによって求める情報が異なり,その要求は検索要求によって反映されるという文書検索の性質から,文書検索におけるパッセージは,検索要求が入力された時点で検索要求に応じて動的に計算される方が望ましい.さらに,検索要求に関連する部分が全ての文書で一定のサイズであるということは考え難いことから,パッセージのサイズが検索要求や文書に応じて柔軟に設定されることも良いパッセージの決定につながると考えられる.本研究では検索要求が入力された時点で検索要求と各文書に応じて意味的なまとまりを持つパッセージを動的に決定する手法を示す.意味的なまとまりは,語彙的連鎖\cite{Morris:91}の情報を使用して獲得する.語彙的連鎖(lexicalchain)とは,語彙的結束性(lexicalcohesion)\cite{Halliday:76}と呼ばれる意味的な関連を持つ単語の連続のことをいう.語彙的連鎖は文書中に複数存在し,1つの連鎖の範囲内では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.そのため,文書内で検索要求と関連する話題が述べられている部分を語彙的連鎖の情報を使用して計算できるので,意味的にまとまったパッセージを得ることができる.本研究では,語彙的連鎖を使用することで検索要求に応じた良いパッセージが抽出でき,そのパッセージを使用することで検索精度が向上することを示す.また,上記の主張の有効性を調べるため,いくつかの実験を行う.以下,\ref{sec:passage}節ではパッセージ検索研究の概要について述べ,\ref{sec:lexchain}節では語彙的連鎖の計算方法について述べる.\ref{sec:ourpassage}節では本研究で提案する語彙的連鎖に基づくパッセージ検索手法について述べる.\ref{sec:experiment}節では実験に関して述べ,結果の考察をする.
V08N01-03
\label{sec:intro}現在,統計的言語モデルの一クラスとして確率文脈自由文法(probabilisticcontext-freegrammar;以下PCFG)が広く知られている.PCFGは文脈自由文法(context-freegrammar;以下CFG)の生成規則に確率パラメタが付与されたものと見ることができ,それらのパラメタによって生成される文の確率が規定される.しかし,すべてのパラメタを人手で付けるのはコストと客観性の点で問題がある.そこで,計算機によるコーパスからのPCFGのパラメタ推定,すなわちPCFGの訓練(training)が広く行なわれている.現在,構造つきコーパス中の規則出現の相対頻度に基づきPCFGを訓練する方法(以下,相対頻度法と呼ぶ)が広く行なわれているが,我々はより安価な訓練データとして,分かち書きされている(形態素解析済みの)括弧なしコーパスを用いる.括弧なしコーパスからのPCFGの訓練法としては,Inside-Outsideアルゴリズム\cite{Baker79,Lari90}が広く知られている(以下,I-Oアルゴリズムと略す).I-OアルゴリズムはCYK(Cocke-Younger-Kasami)パーザで用いられる三角行列の上に構築された,PCFG用のEM(expectation-maximization)アルゴリズム\cite{Dempster77}と特徴づけることができる.I-Oアルゴリズムは多項式オーダのEMアルゴリズムであり,効率的とされているが,訓練コーパスの文の長さに対し3乗の計算時間を要するため,大規模な文法・コーパスからの訓練は困難であった.また,基になるCFGがChomsky標準形でなければならないという制約をもっている.一方,本論文では,PCFGの文法構造(基になるCFG)が所与であるときの効率的なEM学習法を提案する.提案手法はwell-formedsubstringtable(以下WFST)と呼ばれるデータ構造を利用しており,全体の訓練過程を次の2段階に分離してPCFGを訓練する.\begin{description}\item\underline{\bf構文解析}:\\はじめにパーザによって与えられたテキストコーパスもしくはタグ付きコーパス中の各文に構文解析を施し,その文の構文木すべてを得る.ただし,構文木は実際に構築せずに途中で構築されるWFSTのままでとどめておく.\item\underline{\bfEM学習}:\\上で得られたWFSTから支持グラフと呼ばれるデータ構造を抽出し,新たに導出されたグラフィカルEM(graphicalEM;以下gEMと略記)アルゴリズムを支持グラフ上で走らせる.\end{description}WFSTは構文解析途中の部分的な解析結果(部分構文木)を格納するデータ構造の総称であり~\cite{Tanaka88,Nagata99},パーザはWFSTを参照することにより再計算を防いでいる.また,最終的にWFSTに格納されている部分構文木を組み合わせて構文木を出力する.表~\ref{tab:WFST}に各構文解析手法におけるWFSTを掲げる.なお,Fujisakiらも文法が所与であるとして,上の2段階でPCFGを訓練する方法を提案しているが\cite{Fujisaki89},その方法ではWFSTは活用されていない.\begin{table}[b]\caption{各パーザにおけるWFST.}\label{tab:WFST}\begin{center}\begin{tabular}{|l||l|l|}\hlineパーザ&\multicolumn{1}{c|}{WFST}\\\hlineCYK法&三角行列\\Earley法&アイテム集合(Earleyチャート)の集まり\\GLR法&圧縮共有構文森(packedsharedparseforest)\\\hline\end{tabular}\end{center}\end{table}提案手法の特長は従来法であるI-Oアルゴリズムの一般化と高速化が同時に実現された点,すなわち\begin{description}\item{\bf特長1:}従来のPCFGのEM学習法の一般化となっている,\item{\bf特長2:}現実的な文法に対してはI-Oアルゴリズムに比べてEM学習が大幅に高速化される,\item{\bf特長3:}提案手法が,PCFGに文脈依存性を導入した確率言語モデル(PCFGの拡張文法\footnote{Magermanらが\cite{Magerman92}で述べている``Context-freegrammarwithcontext-sensitiveprobability(CFGwithCSP)''を指す.具体的にはCharniakらの疑似確率文脈依存文法\cite{Charniak94b}や北らの規則バイグラムモデル\cite{Kita94}が挙げられる.}と呼ぶ)に対する多項式オーダのEMアルゴリズムを包含する\end{description}点にある.先述したように,I-OアルゴリズムはCYK法のWFSTである三角行列を利用して効率的に訓練を行なう手法と捉えることができ,提案手法のCYK法とgEMアルゴリズムを組み合わせた場合がI-Oアルゴリズムに対応する.一方,提案手法でEarleyパーザや一般化LR(以下GLR)パーザと組み合わせる場合,文法構造にChomsky標準形を前提としないため,本手法はI-Oアルゴリズムの一般化となっている({\bf特長1}).加えて,本論文ではStolckeの確率的Earleyパーザ\cite{Stolcke95}や,PereiraとSchabesによって提案された括弧なしコーパスからの学習法\cite{Pereira92}も提案手法の枠組で扱うことができる\footnote{より正確には,文法構造が与えられている場合のPereiraとSchabesの学習法を扱う.}ことを示す.また,{\bf特長2}が得られるのは,提案手法ではがWFSTというコンパクトなデータ構造のみを走査するためである.そして,LR表へのコンパイル・ボトムアップ解析といった特長により実用的には最も効率的とされる一般化LR法~\cite{Tomita91}(以下GLR法)を利用できる点も訓練時間の軽減に効果があると考えられる.そして{\bf特長3}は提案手法の汎用性を示すものであり,本論文では北らの規則バイグラムモデル\cite{Kita94}の多項式オーダのEMアルゴリズムを提示する.本論文の構成は次の通りである.まず節~\ref{sec:PCFG}でPCFG,CYKパーザ,I-Oアルゴリズム,およびそれらの関連事項の導入を行なう.I-Oアルゴリズムと対比させるため,提案手法をCYKパーザと\gEMアルゴリズムの組合せを対象にした場合を節~\ref{sec:GEM}で記述した.{\bf特長2}を検証するため,GLRパーザとgEMアルゴリズムを組み合わせた場合の訓練時間をATR対話コーパス(SLDB)を用いて計測した.その結果を節~\ref{sec:experiment}に示す.また,{\bf特長3}を具体的に示すため,節~\ref{sec:extensions}ではPCFGの拡張文法に対する多項式オーダのEMアルゴリズムを提示する.最後に節~\ref{sec:related-work}で関連研究について述べ,{\bf特長1}について考察する.本論文で用いる例文法,例文,およびそれらに基づく構文解析結果の多くは\cite{Nagata99}のもの,もしくはそれに手を加えたものである.以降では$A,B,\ldots$を非終端記号を表すメタ記号,$a,b,\ldots$を終端記号を表すメタ記号,$\rho$を一つの終端または非終端記号を表すメタ記号,$\zeta$,$\xi$,$\nu$を空列もしくは終端記号または非終端記号から成る記号列を表すメタ記号とする.空列は$\varepsilon$と書く.一方,一部の図を除き,具体的な文法記号を$\sym{S},\sym{NP},\ldots$などタイプライタ書体で表す.また,$y_n$を第$n$要素とするリストを\$\tuple{y_1,y_2,\ldots}$で表現する.またリスト$Y=\tuple{\ldots,y,\ldots}$であるとき,$y\inY$と書く.集合$X$の要素数,記号列$\zeta$に含まれる記号数,リスト$Y$の要素数をそれぞれ$|X|$,$|\zeta|$,$|Y|$で表す.これらはどれも見た目は同じだが文脈で違いを判断できる.
V08N01-01
近年,インターネットの普及とともに,個人でWWW(WorldWideWeb)を代表とするネットワーク上の大量の電子データやデータベースが取り扱えるようになり,膨大なテキストデータの中から必要な情報を取り出す機会が増加している.しかし,このようなデータの増加は必要な情報の抽出を困難とする原因となる.この状況を反映し,情報検索,情報フィルタリングや文書クラスタリング等の技術に関する研究開発が盛んに進められている.情報検索システムの中でよく使われている検索モデルに,ベクトル空間モデル\cite{salton}がある.ベクトル空間モデルは,文書と検索要求を多次元空間ベクトルとして表現する方法である.基本的には,文書集合から索引語とするタームを取り出し,タームの頻度などの統計的な情報により,文書ベクトルを表現する.この際,タームに重みを加えることにより,文書全体に対するタームの特徴を目立たせることが可能である.この重みを計算するために,IDF(InverseDocumentFreqency)\cite{chisholm}などの重みづけ方法が数多く提案されている.また,文書と検索要求を比較する類似度の尺度として,内積や余弦(cosine)がよく用いられている.この類似度計算により,類似度の高いものからランクづけを行い,ユーザに表示することができることもベクトル空間モデルの特徴のひとつである.ベクトル空間モデルを用いた検索システムを新聞記事などの大量の文書データに対して適用した場合,文書データ全体に存在するタームの数が非常に多くなるため,文書ベクトルは高い次元を持つようになる.しかし,ひとつの文書データに存在するタームの数は文書データ全体のターム数に比べると非常に少なく,文書ベクトルは要素に0の多い,スパースなベクトルになる.このような文書ベクトルを用いて類似度を計算する際には,検索時間の増加や文書ベクトルを保存するために必要なメモリの量が大きな問題となる.このため,単語の意味や共起関係などの情報を用いたり,ベクトル空間の構造を利用してベクトルの次元を圧縮する研究が盛んに行われている.このようなベクトルの次元圧縮技術には,統計的なパターン認識技術や線形代数を用いた手法などが用いられている\cite{Kolda}\cite{Faloutsos}.この中で,最も代表的な手法として,LSI(LatentSemanticIndexing)がある\cite{Deerwester}\cite{Dumais}.この手法は,文書・単語行列を特異値分解を用いて,低いランクの近似的な行列を求めるものであり,これを用いた検索システムは,次元圧縮を行わない検索モデルと比較して一般的に良い性能を示す.しかし,特異値分解に必要な計算量が大きいために,検索モデルを構築する時間が非常に長いことが問題となっている.上記の問題を解決するベクトル空間モデルの次元圧縮手法に,ランダム・プロジェクション\cite{Arriaga}が存在する.ランダム・プロジェクションは,あらかじめ指定した数のベクトルとの内積を計算することで次元圧縮を行う手法である.これまでに報告されているランダム・プロジェクションを用いた研究には,VLSI(VeryLarge-ScaleIntegratedcircuit)の設計問題への利用\cite{Vempala}や次元圧縮後の行列の特性を理論的に述べたものがある\cite{Papadimitriou}\cite{Arriaga}.しかし,これらの文献では,ランダム・プロジェクションの理論的な特性は示されているものの,情報検索における具体的な実験結果は報告されていない.そのため,情報検索に対するランダム・プロジェクションの有効性に疑問が残る.我々は,ランダム・プロジェクションを用いた情報検索モデルを構築し,評価用テストコレクションであるMEDLINEを利用した検索実験を行った.この検索実験より,情報検索における次元圧縮手法として,ランダム・プロジェクションが有効であることを示す.また,ランダム・プロジェクションを行う際にあらかじめ指定するベクトルとして,文書の内容を表す概念ベクトル\cite{Dhillon}の利用を提案する.概念ベクトルは文書の内容が似ているベクトル集合の重心で,この概念ベクトルを得る際,高次元でスパースな文書データ集合を高速にクラスタリングすることができる球面$k$平均アルゴリズム\cite{Dhillon}を用いる.これにより,文書集合を自動的にクラスタリングできるだけでなく,ランダム・プロジェクションに必要な概念ベクトルも同時に得ることができる.この概念ベクトルをランダム・プロジェクションで用いることにより,任意のベクトルを用いた検索性能と比較して,検索性能が改善されていることを示し,概念ベクトルを利用した次元圧縮の有効性を示す.
V28N02-03
近年,全世界のインターネット上の情報量は指数関数的に増加しており\cite{Worldwide},2010年から2024年まで年平均29\%で成長し,2024年には143ZBに達すると予想されている.また,テキストデータに関しても,2018年の全世界のWebサイト数は16億程度であったのに対して2021年現在においては18億程度\cite{Websites}と,3年で2億程度増えていることからこれからもどんどん増えていくことが予想される.このような状況のなかで,インターネットの情報を取捨選択する必要性は高まっており,自動要約の技術が必須となってくる.しかし,実用段階に至っている自動要約システムの多くが,元の文章から要約文を抽出するだけに終わっている.これは抽出型要約といわれており,問題点として,指示語の指す情報の不明確さ,不必要な接続詞の存在,文同士の不自然なつながりなどがあげられる.しかし,抽出型要約システムによっては,要約をする元の文章だけで学習できる場合があり,必ずしも要約の文章が必要とならないことがある.その場合,抽出型要約は,データ整備のコストはあまりかからない.一方で,抽出型要約に対して生成型要約というものがある.生成型要約の多くは,Encoder-Decoderモデルを基本として作られている.この方法でシステムを作る際,学習には,要約をする元の文章と要約の文章のペアが多く必要となる.さらに,例えば,日本語の論文の要約システムを作るとすれば,日本語の論文とその要約文のデータセットが必要となる.このシステムの学習に,ニュース記事の要約データセットを用いることはできない.なぜなら,文章の体裁が全く違うからである.このように,特定のドメイン・言語で大規模データセットを作るのは困難である.本研究では,様々な長さの文章に対して複数の要約文を生成する要約システムに焦点を当て,学習のためのデータセットに対してデータ拡張の効果を検証した.まず,Encoderで,入力文章を固定長のベクトルに変換し,Decoderでその固定長のベクトルから,一単語ずつ生成していく.生成する際には,一単語ずつ,学習に使った語彙の中から選んで要約を作る.初期のころは,Decoder側で使われる語彙集合から,単語を選んでいたが,のちに,CopyMechanism\cite{Gu_2016}が提案され,Encoder側の単語をコピーして生成する機構が提案された.これによって,特定の文章にしかでてこない単語(固有名詞など)を生成することを可能にした.また,生成された要約文に同じフレーズが繰り返される問題を解決するためにCoverageMechanism\cite{Tu_2016}が提案された.本研究では,データ拡張の検証としてこのCopyMechanismとCoverageMechanismを組み合わせたPointer-Generatorモデル\cite{See_2017}を使用した.学習のためのデータセットとして,日本語では,LivedoorNewsを用いた三行要約がある\cite{Kodaira_2018}が,本研究では,様々な長さの文章に対して複数の要約文を生成する要約システムでのデータ拡張の検証を目指しており,採用しなかった.また,出力長制御を考慮した見出し生成モデルのための大規模コーパス(JNC,JAMUL)\cite{Hitomi_2019}では,見出し生成を目的としており,これも採用しなかった.英語では,CNN/DailyMailDataset\cite{Hermann_2015}や,CornellNewsroom\cite{Grusky_2018},Gigaword\cite{Napoles_2012}などのデータセットが整備されている.このデータセットは,人手の要約が付いており,様々な長さの要約をする文章があり,複数文要約にもなっている.そこで,本研究では,データセットとしてCNN/DailyMailDatasetを用い,少ないデータでもデータ拡張することで効果的に自動要約システムを作ることができないかということに着目した.既存の自然言語処理におけるデータ拡張手法を以下に示す.1.同義語・類義語で置き換える2.類似度を計算して置き換える3.反意語で置き換える4.文章内の語と語を入れ替える5.ランダムに削除する6.BackTranslationを用いて文章を水増しする本研究においてデータ拡張の比較対象として用いたEDA(EasyDataAugmentationTechniques)\cite{Wei_2019}は,1と4と5に該当する.2の類似度を計算するには,教師なしクラスタリングや単語埋め込み行列などを使う.単語埋め込み行列には,word2vec\cite{Mikolov_2013},GloVe\cite{Pennington_2014},fastText\cite{Bojanowski_2017}などがある.6のBackTranslation\cite{Edunov_2018}は,機械翻訳におけるデータ拡張手法である.しかし,いずれの手法も文書分類システムや機械翻訳システムで効果が確かめられているだけであり,自動要約システムでは効果を検証されていない.一方,画像処理分野では,少ないデータでも効果的に画像処理ができるデータ拡張の方法がある.具体的には,以下の9つがある.1.水平・垂直方向に画像をシフトする2.水平方向・垂直方向に画像を反転させる3.回転させる(回転角度はランダムの場合あり)4.明度を変える5.ズームインする・ズームアウトする6.画像の一部をくり抜く,削除する7.背景色を変える8.背景を置き換える9.Mixup・CutMixここで説明するMixupとCutMixでは,カテゴリを表すラベルを1(あり)か0(なし)ではなく,連続量で表す.例えば,犬であるかないか(1か0)ではなく,犬である可能性が高い(例えば,0.8)という風に表す.Mixupは,二枚の画像とラベルを組み合わせて一つのデータに合成する\cite{Zhang_2018}.例えば,犬0.4猫0.6といったラベルの画像は各画素値を犬0.4猫0.6の比率で合成した画像になる.CutMixは,複数の画像の一部を切り取ってつなぎ合わせて1枚の入力画像にするデータ拡張である\cite{Yun_2019}.ラベルの表し方は,合成した画像中のそれぞれのラベルの付いた画像の面積比となる.例えば,犬と猫の面積比が1:3であるならば,犬0.25猫0.75というラベルとなる.MixupやCutMix以外の手法では,元画像だけでデータ拡張が行える.我々は,これらの手法の内,背景を置き換えるという拡張手法に着目し,データ拡張手法を提案する.具体的には,要約する文章において,不要文を取り除き,文章の大意を損なわない拡張文章を作ることでデータ拡張を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V28N04-12
\label{sec:intro}近年の天気予報は,ある時点の気象観測データと大気の状態に基づいて,風や気温などの時間変化を数理モデルによりコンピュータで計算し,将来の大気の状態を予測する数値気象予報(NumericalWeatherPrediction;NWP)が主流となっている.ウェザーニュース\footnote{\url{https://weathernews.jp/}}やYahoo!天気\footnote{\url{https://weather.yahoo.co.jp/weather/}}の天気予報サイトでは,数値気象予報に基づき作成された天気図や表データと共に,気象情報をユーザーに分かりやすく伝えるための天気予報コメントが配信されている.これらの天気予報コメントは,数値気象予報や過去の気象観測データ,専門知識に基づいて気象の専門家により記述されている.また,天気予報サイトでは,特定のエリアや施設周辺に限定して天気予報を伝えるピンポイント天気予報が一般的になっている.一方で,全国の天気予報コメントを作成するのは手間がかかる上に,専門的な知識を要するため作業コストが高い.そのため,自然言語生成の分野では,天気予報コメントの自動生成タスクについて長年取り組まれている\cite{goldberg1994using,belz2007probabilistic}.本論文では,数値気象予報のシミュレーション結果から天気予報コメントを生成するタスクに取り組む.これまで取り組まれてきた天気予報コメント生成の研究では,数値気象予報のシミュレーション結果から気象の専門家の知識と経験に基づき作成した構造化データを用いた研究が中心であったが\cite{reiter2005choosing,sripada2004sumtime-mousam,liang-jordan-klein:2009:ACLIJCNLP},本研究では,数値気象予報の生のシミュレーション結果を用いる.これは,気象の専門家が数値気象予報から天気予報コメントを記述する実際のシナリオに近い設定であり,天気予報コメントの作成作業の自動化においても有用であると考える.ここで,図\ref{fig:example_comment_tokyo}を用いて,天気予報コメントの生成における特徴的な3つの問題について説明する.まず,第一の問題は,コメントを記述する際に降水量や海面更正気圧等の複数の物理量とそれぞれの時間変化を考慮しなければならないことである.例えば,図\ref{fig:example_comment_tokyo}では,降水量や雲量といった複数の物理量の時間変化に応じて,日差しが出た後に雲が広がり雨が降ることについて言及されている.次に,第二の問題は,天気予報コメントは,対象となる地域やコメントの配信時刻,日付といったメタ情報に基づいて記述されることである.例えば,午前中に配信される天気予報コメントでは,図\ref{fig:example_comment_tokyo}のように,配信日当日の日中から夕方にかけた天気に言及することが多く,夕方以降に配信される天気予報コメントでは,配信日当日の夜から翌日の日中の天気に言及する傾向がある.最後に,第三の問題は,天気予報サイトのユーザーは天気予報コメントの情報の有用性(以降では,{\bf情報性}と呼称する)を重要視している点である.特に,「晴れ」「雨」「曇り」「雪」といった気象情報は,ユーザーの服装や予定に大きな影響を与えることから明示的に記載する必要がある.例えば,図\ref{fig:example_comment_tokyo}では,降水量,雲量,気圧など,記述すべき内容はいくつか考えられるが,雨や傘の情報はユーザーの行動に大きな影響を与えるため,主に雨や傘の情報に焦点を当てている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-4ia11f1.pdf}\end{center}\caption{数値気象予報のシミュレーション結果と天気予報コメントの例}\label{fig:example_comment_tokyo}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの問題に対して,本研究では数値気象予報のシミュレーション結果から天気予報コメントを生成するためのData-to-Textモデルを提案する.第一の問題に対しては,多層パーセプトロン(Multi-LayerPerceptron;MLP)や畳み込みニューラルネットワーク(ConvolutionalNeuralNetwork;CNN)を用いて様々な物理量を捉え,それらの時間変化を双方向リカレントニューラルネットワーク(BidirectionalRecurrentNeuralNetwork;Bi-RNN)を用いて考慮する.第二の問題については,エリア情報やコメントの配信時刻,日付などのメタ情報を生成モデルへ取り入れることでこれらの情報を考慮する.第三の問題について,本研究では「晴れ」「雨」「曇り」「雪」に関する気象情報をユーザーにとって重要な情報と定義し,これらを適切に言及するための機構を提案する.具体的には,言及すべき重要な情報を明示的に記述するために,数値気象予報のシミュレーション結果から「晴れ」「雨」「曇り」「雪」の気象情報を表す「天気ラベル」を予測する内容選択モデルを導入し,予測結果をテキスト生成時に考慮することで,生成テキストの情報性の向上に取り組む.実験では,数値気象予報のシミュレーション結果,気象観測データ,および,人手で書かれた天気予報コメントを用いて提案手法の評価を行った.自動評価では,人手で書かれた天気予報コメントと生成テキストの単語の一致度合いを評価するためのBLEUおよびROUGE,また,生成テキストにおいて天気ラベルが正確に反映されているかを評価するためのF値を使用し,提案手法がベースライン手法に比べて性能が改善することを確認した.さらに,人手評価では,提案手法はベースライン手法と比較して,天気予報コメントの情報性が向上していることが示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V26N01-06
フレーズベースの統計的機械翻訳\cite{Koehn:2003:SPT:1073445.1073462}は,フレーズを翻訳単位として機械翻訳を行う手法である.この手法では局所的な文脈を考慮して翻訳を行うため,英語とフランス語のように,語順が似ている言語対や短い文においては高品質な翻訳を行えることが知られている.しかし,英語と日本語のように,語順が大きく異なる言語対では,局所的な文脈を考慮するだけでは原言語のフレーズを目的言語のどのフレーズに翻訳するかを正しく選択することは難しいため,翻訳精度が低い.このような語順の問題に対し,翻訳器のデコーダで並び替えを考慮しつつ翻訳する手法\linebreak\cite{Tillmann:2004:UOM:1613984.1614010},翻訳器に入力する前に原言語文の語順を目的言語文の語順に近づくよう並び替える事前並び替え\cite{nakagawa2015},原言語文をそのまま翻訳した目的言語文を並び替える事後並び替えが提案されている\cite{hayashi-EtAl:2013:EMNLP}.特に事前並び替え手法は,長距離の並び替えを効果的かつ効率的に行える\cite{E14-1026,nakagawa2015}.先行研究として,Nakagawa\cite{nakagawa2015}はBracketingTransductionGrammar(BTG)\cite{Wu:1997:SIT:972705.972707}にしたがって構文解析を行いつつ事前並び替えを行う手法を提案している.この手法は事前並び替えにおいて最高性能を達成しているが,並び替えの学習のために人手による素性テンプレートの設計が必要である.そこで,本稿では統計的機械翻訳のためのRecursiveNeuralNetwork(RvNN)\cite{GollerandKuchler,Socher:2011:PNS:3104482.3104499}を用いた事前並び替え手法を提案する.ニューラルネットワークによる学習の特徴として,人手による素性テンプレートの設計が不要であり,訓練データから直接素性ベクトルを学習できるという利点がある.また,RvNNは木構造の再帰的ニューラルネットワークであり,長距離の並び替えが容易に行える.提案手法では与えられた構文木にしたがってRvNNを構築し,葉ノードからボトムアップに計算を行っていくことで,各節ノードにおいて,並び替えに対して重要であると考えられる部分木の単語や品詞・構文タグを考慮した並び替えを行う.統計的機械翻訳をベースにすることで,事前並び替えのような中間プロセスに注目した手法の性能が翻訳全体に与える影響について明らかにできる利点がある.また統計的機械翻訳のようにホワイトボックス的なアプローチは,商用翻訳においてシステムの修正やアップデートが容易であるという利点もある.さらに現在主流のニューラル機械翻訳\cite{D15-1166}でも,統計的機械翻訳とニューラル機械翻訳を組み合わせることで性能を向上するモデルが先行研究\cite{D17-1149}により提案されており,統計的機械翻訳の性能を向上させることは有益である.英日・英仏・英中の言語対を用いた評価実験の結果,英日翻訳において,提案手法はNakagawaの手法と遜色ない精度を達成した.また詳細な分析を実施し,英仏,英中における事前並び替えの性能,また事前並び替えに影響を与える要因を調査した.さらに近年,機械翻訳の主流となっているニューラル機械翻訳\cite{D15-1166}において事前並び替えが与える影響についても実験を行い検証した.
V14N03-15
近年,Webが爆発的に普及し,掲示板等のコミュニティにおいて誰もが容易に情報交換をすることが可能になった.このようなコミュニティには様々な人の多様な評判情報(意見)が多く存在している.これらの情報は企業のマーケティングや個人が商品を購入する際の意思決定などに利用されている.このため,このような製品などに対する評判情報を,Web上に存在するレビューあるいはブログなどから,自動的に収集・解析する技術への期待が高まっている.このため,従来このような評判情報の抽出に関して研究されてきた\cite{morinaga,iida,dave,kaji,yano,suzuki}.これらの研究では,製品などに関する評価文書から自然言語処理技術を用いて評判情報を抽出する.また,評判情報を含む評価文書を,ポジティヴ(おすすめ)とネガティヴ(おすすめしない)という2つの極性値に分類し,その結果をユーザに提示する.提示された情報を基にユーザは様々な意思決定を行う.評価文書を2つの極性値に分類する手法に関して,これまで多くの研究が行われてきた.\cite{turney}では,フレーズの極性値に基づく教師なし学習によって評価文書を分類している.\cite{chaovalit}では,映画のレビューを対象に教師なし学習\cite{turney}と教師あり学習を比較している.ここでは,教師あり学習としてN-gramを用いている.実験の結果,分類精度は教師あり学習の方が高かったと報告している.教師あり学習を用いたものとして\cite{dave}では,ナイーブベイズを用いて評判情報の分類学習を行っている.これらの研究では,文書中に含まれている単語や評判情報をすべて同等に扱っている.しかし,評価文書には,全体評判情報と部分評判情報という2つのレベルの評判情報が含まれていると考えられる.全体評判情報とは,評価文書の対象全般に関わる評価表現のことを指す.例えば,映画のレビューにおいて「この映画はおもしろい」という評価表現は対象全般に関わる評価表現であり,この表現がある場合はその極性値が評価文書の極値にほぼ一致する.一方,部分評判情報とは,対象の一属性に関わる評価表現のことを指す.例えば,映画のレビューにおいて「映像がきれい」という評価表現は映画の一属性である映像に関する評価表現であり,この表現があったとしてもその極性値が評価文書の極性値と一致するわけではない.したがって,これら2つのレベルを考慮することで評価文書の分類精度の向上が期待できる.そこで本論文では,評判情報を全体評判情報と部分評判情報という2つのレベルに分け,その極性値を基に評価文書を分類する手法を提案する.本手法では,まず評価文書から全体評判情報を抽出し,その極性値を判定する.この極性値は評価文書の極性値とほぼ一致するため,この極性値を評価文書の極性値とする.評価文書に全体評判情報が含まれない場合は,部分評判情報の極性値の割合から評価文書の極性値を決定する.さらに,この2つのレベルの評判情報を用いて,評判情報の信頼性を評価するための一手法を提案する.評判情報は主観的な情報のため,信頼性が低いという問題点がある.このため,その信頼性を評価できれば有益な情報となる.信頼性を評価する手法は多くのことが考えられるが,ここではその1つとして,評価文書の極値と異なる極性値を持つ部分評判情報は信頼性の高い情報と捉えることを提案する.例えば,「すごく面白い映画だった.映像も素晴らしかった」と「はっきりいって最低の映画でした.でも映像だけは良かったです」という評価文書があるとする.前者のように,映画全体をポジティブに評価している人が映像に関してもポジティブに評価することはあまり情報としての価値はない.悪意のある見方をすると宣伝ともとれる.一方,後者は映画全体としてはネガティブな評価であるが,映像に関してはポジティブに評価している.このような評価は客観的でフェアである可能性が高いため,信頼性が高い評価情報であるとする.このような信頼性は,評判情報の2つのレベルを用いることで評価できる.
V32N01-02
実世界の事物を考慮してユーザ(話者)と共同作業が可能な対話ロボット・システムの実現は,Vision-and-Language研究が目標とする到達点の1つである.こうした共同作業においては,システムは自身が見ている視覚情報と話者が発する言語情報を統合・理解して,適切な応答を返す能力を備える必要がある.この実現に向けて,画像を交えた質問応答(VQA:VisualQuestionAnswering)\cite{C18-1163,original_VQA,balanced_vqa_v2}や,画像と対話履歴を考慮した質問応答(VisualDialogue)\cite{visdial,agarwal-etal-2020-history}といったタスクがこれまで提案されてきた.これまでのVQAは,基本的に質問の意図は明確であり,システムがどう応答すればよいかも一意に定まるという状況を想定していた.しかし,実際の話者とシステムの会話においては,指示語の発生に起因した曖昧性が含まれており\cite{4399120,survey_language_and_robotics},これらの曖昧性をVQAでは陽に扱っていない.例えば,「それ取ってきてもらえる?」という質問は,「それ」という指示語が原因で複数の解釈を持つ可能性がある.さらに,日本語のような言語における会話では,指示語に加え,主語・目的語といった話題となる項の省略も発生する\cite{seki-etal-2002-probabilistic,sasano-etal-2008-fully}.こうした指示語や省略に起因する曖昧性は,その質問が行われた対話の場における実世界の情報を正しく参照し,利用することで解消可能な場合が多い.例えば,話者の視線情報\cite{EMERY2000581}や指差し\cite{nakamura2023ICCV},あるいは共同注視\cite{rocca2018CogSci}は,指示語や省略の参照先を明らかにするための重要な手がかりである.本研究では,こうしたユーザ(話者)とシステムの会話に生じる曖昧性を,視線や指差しを介したインタラクションにもとづいて解消する課題を考える.本課題をVQAとして定式化し,視線や指差しを適切に利用できるシステムを研究開発することを目的とする.この目的の達成に向けて,本研究では,日本語で記述された質問を対象とした視線情報付きVQAデータセット(LookVQA),および話者の視線情報を考慮する質問応答モデルを提案する.LookVQAのタスクは話者の注視対象に関するVQAタスクであり,モデルは視線情報を入力とした注視対象推定タスクを前提とする.ただし,これらのタスクは分離しているため,視線情報より明示的なインタラクションである指差し情報を入力とする場合においても,本データセットが転用できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{LookVQA:視線情報付きVQAデータセット}図~\ref{fig:1_1}に示すように,LookVQAは画像内の人物を話者とみなし,話者が発する指示語・省略が含まれる曖昧な質問に対し,話者の視線情報を考慮してシステムが回答する状況を想定する.視線元と注視先のアノテーションが施されたGazeFollow\cite{nips15_recasens}に含まれる一般物体認識用の画像データサブセット(COCO)\cite{10.1007/978-3-319-10602-1_48}を対象に,注視対象に関する質問と回答をクラウドソーシングにて収集した.実際に視線情報がないと回答が困難な質問を収集するため,ワーカは質問作成時に注視対象について言及していない.10,760件の画像に対し,17,276件の質問・回答ペアを収集し,このうち1,680件の質問・回答ペアをテストセットとした.テストセットの各質問には,曖昧な質問に対応して,回答が一意に決定できるよう書き換えが行われた明確な質問,および10件の人手回答が用意されている.このため,本データセットは日本語のVQAとしても利用可能であり,回答の多様性・同義性を考慮したモデルの評価を実施することができる.構築したデータセットは商用利用な形式で公開している\footnote{\url{https://github.com/riken-grp/LookVQA}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{32-1ia1f1.eps}\end{center}\hangcaption{本研究で提案する視線情報付きVQAデータセットの質問と回答の例.角括弧は省略された物体名.視線元の点に対応する注視先の点が複数個付与されている.}\label{fig:1_1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{視線情報を考慮する質問応答モデル}LookVQAの質問に正確な回答を与えるため,画像・質問に加え視線情報を利用する質問応答モデルを提案する.これまでのVision-and-Languageの研究では,画像・質問を入力とし,回答を生成するモデルが提案されてきた\cite{mokady2021clipcap,pmlr-v139-cho21a}.本研究では,テキスト・画像をクエリとした物体セグメンテーションの研究\cite{lueddecke22_cvpr}に着想を得て,VQAを扱えるベースライン\cite{mokady2021clipcap}に線形層のアダプタ\cite{Dumoulin2018_FiLM}を追加する.アダプタは注視対象を表す注視領域と全体画像を統合する役割を持ち,アダプタの追加によりモデルは注視対象部分に焦点を置くことが可能となる.画像から得られる情報を限定して,曖昧な質問に対し適切な回答を得ることを期待する.実験では,ベースラインと提案モデルを日本語キャプション\cite{yoshikawa-etal-2017-stair}および日本語VQA\cite{C18-1163}で学習し,LookVQAで評価を行った.注視領域の推定には既存の注視対象推定モデル\cite{Chong_2020_CVPR}を用いた.実験条件として,視線情報をアダプタで用いる場合(正例,推定値)と用いない場合を比較した.視線情報を用いた提案モデルは,注視対象の属性を問う質問タイプに精度良く回答ができ,ベースラインと比較してテストセット全体の性能が向上した.一方で,画像全体の理解を要する質問タイプに対しては,ベースラインが正確な回答を与える傾向にあった.また,物体の位置関係を問う質問や物体の個数を問う質問といった質問タイプは,いずれのモデルも正確に回答を与えることが困難であることが判明し,LookVQAのタスクを扱うモデルにおける改善の方向が明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V29N04-06
\label{sec:introduction}臨床現場の文書記録が電子カルテシステムによって電子化されて以降,自然言語処理(NaturalLanguageProcessing;NLP)技術を電子カルテの自由記述テキストに適用する重要性も増す一方である\shortcite{AramakiBook}.例えば診療録は医師が診療に際して記載する記録文書であるが,その診療においては数値入力やカテゴリ選択だけでは表現し得ない微妙なニュアンスや複雑な状況もあることから,依然として診療に関する情報の大部分が自由記述部分に蓄えられており\footnote{NLPに頼らず電子カルテから情報抽出できるように,予め電子カルテに入力できる項目を規格化・標準化し,機械可読で構造的なデータにする動きもないわけではない.例えば新医療リアルワールドデータ研究機構株式会社(京都)は標準化された診療録入力を支援するためのオンコロジーデータベースを開発・販売している.},そのままでは診療履歴の検索や二次的な症例分析に使うのが困難である.この自由記述テキストに,もし固有表現認識(NamedEntityRecognition;NER)を適用して病名や薬品名を識別できれば,ある患者が入院前も含めてどのような病歴を辿ったかや,なぜ特定の薬品が治療に使われてきたかといった情報を抽出できる可能性が開ける.さらに近年,大規模な症状データベース(フェノタイピングデータベース)\shortcite{Kohler2021-ha}と遺伝子レベル・分子レベルの研究\shortcite{Bayes-Genis2020-fj,Sun2016-iw}とを組み合わせることで,劇的な医学の進歩も期待されている.このような研究枠組みに使用できるデータソースとして,これまで分析困難とされてきた電子カルテの自由記述テキストから情報が得られれば,有益であることは明白である.このように医療へのNLP応用(医療言語処理)が注目される中で,適用されるのは教師付き機械学習に基づく手法が多く,質・量ともに優れた学習データの整備が重要である.ところが医療言語処理のためにアノテーションされたデータは,NER一つを取ってみても,他のドメインに比べると少ない.これは医療データが個人情報を含むものであって一般公開しづらく,アノテーション作業に特別な配慮が必要であることが大きな理由の一つとして知られている\shortcite{Gonzalez-Hernandez2017-cx}.専門的な用語・表現が高密度に作成されていることから,医学概念を表す言語表現を定義するのが難しいことも挙げられる.例えば,「間質性肺炎」という病変の名称を固有表現としたいとき,「肺」という臓器名もこの中には含まれている.病名も臓器名も臨床医学的には基本的な概念であり,医療ドメインの固有表現認識タスクでは抽出の対象となる固有表現タイプに設定されやすいが,「間質性肺炎」という表現全体を病名と扱うことも,内包された「肺」を臓器名としてさらに区別してネストされた固有表現とみなすこともできる.さらには「間質性」を核たる病変たる「肺炎」についての属性と捉え,属性+病変からなる複合的な固有表現とみなす仕様も設計可能である.また「異常がみられる」といった,何らかの臨床医学的事実に言及しつつも標準的な病変名を含まない一般的な表現も散見され,この表現に出現する「異常」をも病名と捉える考え方もできる.いずれの方針も一定の応用目的に照らせば妥当たりうるが,アノテーションの難易度が変わる.臨床医学的に厳密なアノテーションを要求すれば,作業者に専門知識が必要となり,ただでさえ入手・公開が困難な臨床医学テキストコーパスへのアノテーションが困難になってしまう.もちろん臨床医学コーパスは専門家によるアノテーションが施されることが理想だが,現実的に難しいことが知られている.日本では医療従事者は慢性的に不足しているうえ\footnote{厚生労働省の『労働経済動向調査』における人手の過不足感を表す指標「労働人員判断D.I.」では,医療・ヘルスケア領域の人手不足は5年以上も慢性的にほぼ平均以上となっている.},``本来の職務はアノテーションの作業と大きく乖離しており,熱意を持ってアノテーションに従事可能な人材の確保は容易でない''\shortcite[p.~124]{Aramaki2018}.さらに2019年末にはコロナウィルス感染症の世界的蔓延(パンデミック)が発生し,国際的に医療提供体制が逼迫する事態が断続的に起きた\shortcite{Hibi2021-im}.このような深刻な状況下で,本務である医療行為に専念すべき医療従事者に対し,NLPのためのアノテーションを依頼することは困難である.本研究では,多くの臨床的応用を見据えた言語処理向けアノテーション仕様を設計し,作業者に専門知識がなくても作業可能になるようなガイドライン\shortcite{guideline-en,guideline-ja}を策定した.特に,臨床医学テキストからのNERと関係抽出(RelationExtraction;RE)の両タスクで,これまで多くの研究が抽出すべき情報として定義してきた医学概念を広くカバーし,後続の研究者が車輪の再発明をせずに済むような,汎用的なアノテーション仕様を目指した.例えば,小規模な応用については固有表現のみ,あるいは一部の固有表現タイプだけを採用してもらう,また大規模な応用では本仕様をベースに新たな固有表現や関係を追加・拡張してもらうといった利用を想定している.本研究ではさらに,大規模な臨床医学テキスト3,769件に本アノテーションを実施した.コーパスとしての記述統計,および本コーパスにNERとREを適用した実験結果を報告する.なお本コーパスは研究用途で活用できるよう一般公開に向けて関係機関と調整中である.次節以降の構成は以下の通りである.\cref{sec:relwork}では医療言語処理向けのアノテーション仕様やコーパスを構築する過去の主な研究をまとめる.続いて,本仕様の策定手続きを\cref{sec:workflow}で,定義したエンティティや関係の概要を\cref{sec:scheme}で説明する.また\cref{sec:guidelines}において,本仕様に基づく作業の方針を作業者に説明するためのガイドラインについて述べる.\cref{sec:outcome}で本仕様に基づいて作成されたコーパスに関する統計を報告した上で,コーパスの人手による評価結果とコーパスを用いたNERとREの実験結果とを\cref{sec:experiments}で記述する.最後に\cref{sec:conclusion}で本研究をまとめ,展望に触れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{05table01.tex}\caption{主な医療言語処理アノテーション仕様・コーパス}\label{tab:existing_schemes}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V28N02-10
\label{sec:intro}インターネット上の会話が活発化するにつれ,会話文の自動要約技術の必要性は益々増している.ニューラルネットワークを使用したモデルは教師あり要約において,高い性能を発揮しているが,教師なし要約への応用は未だ限定的である.教師あり要約モデルの学習には,数万の要約-本文対が必要になる.あらゆるドメインにおいてこれらの対データを用意することは現実的ではないため,教師なし要約の手法が求められている.我々は返信を伴う会話形式のテキストを対象とした教師なし要約手法を提案する.過去,多くの教師なし要約手法が提案されてきた.文の類似度グラフのCentralityを使用した手法は強力な教師なし要約手法であり\cite{mihalcea-tarau-2004-textrank,Erkan:2004:LGL:1622487.1622501,zheng-lapata-2019-sentence},会話文の要約にも応用されている\cite{mehdad-etal-2014-abstractive,shang-etal-2018-unsupervised}.Centralityの他にも,文の特徴量ベクトルのCentroid\cite{gholipour-ghalandari-2017-revisiting},Kullback-Leiblerdivergence\cite{haghighi-vanderwende-2009-exploring},ReconstructionLoss\cite{He:2012:DSB:2900728.2900817,Liu:2015:MSB:2887007.2887035,ma-etal-2016-unsupervised-multi},単語をノードとした有向グラフの経路スコア計算\cite{mehdad-etal-2014-abstractive,shang-etal-2018-unsupervised}などが,要約に使われている.上記全ての手法の前提にあるのは,重要なトピックは文書中に高頻度に言及されるという点である.しかし,重要なトピックは必ずしも高頻度に言及されるわけではない.そのため,もし重要なトピックの言及回数が少ない場合,上記手法は重要文の抽出に失敗する.より高精度の要約を実現するためには,“頻度”とは異なる文書の側面に着目する必要がある.頻度とは異なる文書の重要度の指標として,我々は“引用のされやすさ”に着目する.我々は,メールや投稿文に返信する際,投稿の一部分を引用することがある.具体例を図\ref{fig:quote}に示す.右側の返信の例にあるように.引用文は,引用符“>”から始まり,返信先の投稿文中の文・フレーズと一致する箇所を指す.高頻度に引用される箇所は重要であると考えられるため,引用される箇所を予測できれば,本文中で言及される頻度に関わらず,重要な情報を含む文を抽出できると考えられる.過去の研究に,引用を要約モデルに補助的に利用したものがある.Careniniは,引用文に現れる単語に重み付けをし,Centroidベースの要約手法の精度を向上させた\cite{Carenini:2007:SEC:1242572.1242586,oya-carenini-2014-extractive}.ただし,ほとんどの返信は明示的な引用を含まない.そのため,引用を直接教師データとして扱うことは難しい.我々は,引用文を教師として使用せずに引用箇所を抽出できるモデル,ImplicitQuoteExtractor(IQE:暗黙的引用抽出器)を提案する.図\ref{fig:quote}に示す例のように,引用文は返信が言及している投稿の箇所であるため,明示的な引用が無い場合にも,返信内容から本来引用されるべき箇所を間接的に特定できる.これを暗黙的引用と呼称する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-2ia9f1.pdf}\end{center}\hangcaption{投稿と引用付きの返信と引用無しの返信の例.暗黙的引用は,返信が言及している投稿の一部であるが,返信には明示的に示されていないものを指す.}\label{fig:quote}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%IQEは,返信によって言及される箇所を特定することにより,明示的な引用なしに,引用箇所を抽出することを目指す.IQEは投稿と返信候補のみを学習に使用し,明示的な引用を使用しない.返信候補は,投稿に対する実際の返信,あるいはランダムにサンプリングされた返信である.学習タスクは,返信候補が実際の返信であるかどうかを判定することである.IQEは,投稿から少数の文を抽出し,これを真偽判定の特徴量に使う.IQEは返信候補の真偽判定の性能を向上させるように文抽出のパラメータを学習するので,返信が言及しやすい文を要約として抽出するようになる.要約は本文のみから作成する必要があり,返信に依存してはならない.そのため,IQEは抽出文の選択に,返信の特徴量を使わない.すなわち,IQEは学習時にのみ返信を必要とし,評価時には必要としない.IQEが抽出するのは返信に依存した引用箇所では無く,返信によって最も引用されやすい箇所となる.IQEを2つのメールデータセット,Enron要約データセット\cite{loza-etal-2014-building}の業務メールと私用メールで評価し,また,ソーシャルメディアのデータセットとして,RedditTIFUデータセット\cite{kim-etal-2019-abstractive}でも評価を行い,多くのベースラインの性能を上回ることを確認した.提案したモデルは2つの仮説に基づいている.1つは提案モデルが引用を抽出できるという点である.IQEは引用抽出を目的としているが,引用を教師として使用していないため,実際に引用される文を抽出できるかは明らかでない.そのため,我々は,提案モデルがどの程度引用を抽出できるか評価する.もう1つの仮説は,引用は要約として有用であるという点である.先行研究\cite{Carenini:2007:SEC:1242572.1242586,oya-carenini-2014-extractive}は引用文を利用して,Centroid要約モデルの性能を向上させ,引用が要約に有効であることを示した.しかしながら,これらの先行研究は引用を補助的な特徴量として使用しているため,引用それ自体が要約になりうるかは明らかでない.これを検証するため,我々は引用を要約とみなし,そのROUGE値を評価することで,引用が要約として有用であるかを評価する.引用が多数存在するRedditデータセットで,上記2点の仮説を検証し,仮説を裏付ける結果を得た.また,定量的,定性的2つの観点で,頻度ベースの既存手法が抽出できない重要文を提案モデルが抽出できることを示した.本研究の貢献は以下の3つである.\begin{itemize}\item言及頻度に依存した従来の教師なし抽出型要約手法の問題点を指摘し,新たな文書の重要度の指標として“返信による引用のされやすさ”を提案,実験により有効性を示した.\itemEnd-to-endで学習可能な教師なし抽出型要約モデル,ImplicitQuoteExtractor(IQE)を提案し,ベースラインと同等の性能を示すことを2つのメールデータセットと1つのソーシャルメディアデータセットを対象にした評価実験によって示した.\item引用を実際に含むソーシャルメディアデータセットを使い,提案モデルが引用を抽出しやすいこと,また,引用が要約に有用であることを示した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V14N05-08
\label{sec:intro}\subsection{背景と動機}参照結束性(referentialcoherence)とは,主題の連続性や代名詞化によってもたらされる,談話の局所的な繋がりの滑らかさである.本研究の目的は,参照結束性を引き起こすメカニズムの定量的モデル化である.この問題を扱う動機を以下に示す.\begin{itemize}\item[1.]{\bf認知言語学的動機:}談話参与者(発話者,受話者;筆者,読者)が高い参照結束性で繋がる表現/解釈を選択するのは,どのような行動選択メカニズムによるものだろうか?~参照結束性の標準的理論であるセンタリング理論\shortcite{grosz1983,grosz1995}は,この行動選択メカニズムをモデル化していないという課題を残している.上記の問いに対する仮説として,Hasidaetal.\citeyear{hasida1995}はゲーム理論\shortcite{osbone1994,neumann1944}に基づく定式化を提案した.この仮説を{\bf意味ゲーム(MeaningGame)}と呼ぶ.意味ゲーム仮説は日本語コーパスで検証された\shortcite{siramatu2005nlp}が,日本語以外の言語では未検証である.近年,語用論や談話現象などの言語現象をゲーム理論で説明しようとする研究が増えている\shortcite{parikh2001,rooij2004,benz2006}ことからも,意味ゲーム仮説が言語をまたぐ一般性を有するか否かを実データ上で検証することは重要な課題である.\item[2.]{\bf工学的動機:}対話システムや自動要約処理では,参照結束性が高い順序で発話や文を並べ,理解しやすい談話構造を出力することが重要である.そのためには,発話$U_i$までの先行文脈$[U_1,\cdots,U_i]$と後続発話$U_{i+1}$との間の参照結束性のモデル化が不可欠である.工学的に,$U_{i+1}$の候補群から1つの候補を選択する基準として用いるためには,参照結束性の高い候補を選択するためのメカニズムを定量的にモデル化し,そのモデルによって参照結束性の高さを定量的な値として推定できることが望ましい.つまり,本研究が目指す処理の出力は,{\bf先行文脈$[U_1,\cdots,U_i]$と後続発話$U_{i+1}$との間の参照結束性を表す定量的な値}である.これを,様々な言語の談話処理システムから利用可能にすることを目指す.\end{itemize}本研究が扱う参照結束性という談話現象は,談話参与者の認知的な負荷削減と密接に関連する.もし,談話参与者の負荷を削減しようとする発話行動が,様々な言語で参照結束性を引き起こす基本原理となっているのならば,その原理を定式化することで,言語をまたぐ一般性を備えた参照結束性のモデルを構築できるはずである.われわれは,意味ゲーム仮説に基づいてセンタリング理論を一般化するというアプローチを踏襲することで,そのような言語一般性を備えたモデルを構築できると考える.これにより,ゲーム理論に基づく定量的・体系的な参照結束性の分析が,様々な言語で可能になると期待される.\subsection{目的と課題}本研究の目的は,(1)「参照結束性はゲーム理論の期待効用原理で説明できる」という仮説\shortcite{hasida1996,siramatu2005nlp}を,性質の異なる様々な言語の実データを用いて検証し,(2)それによって言語一般性を備えた参照結束性の定量的モデルを構築することである\footnote{本研究の目的は照応解析の精度向上ではない.また,機械学習を用いた照応解析研究\shortcite{ng2004,strube2003,iida2004}は,参照結束性を引き起こす行動選択メカニズムの解明を目指してはいないので,本研究とは目的が異なる.}.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f1.eps}\caption{2つの課題}\label{fig:issues}\vspace{-\normalbaselineskip}\end{center}\end{figure}本研究の目的のために重要な2つの課題を,図\ref{fig:issues}および以下に示す.\begin{itemize}\item[1.]{\bf言語独立な行動選択原理のモデル化:}談話参与者は,コミュニケーションを阻害しない程度に知覚的負荷の軽減が見込まれる表現と解釈を選択する.この行動選択原理から,様々な言語の上での参照結束性のメカニズムを説明できるとわれわれは予想する.この原理を意味ゲームのフレームワークに基づいて定式化することで,参照結束性の選好を談話参与者の知覚的な因子(談話中で参照される実体に向ける注意や,参照表現を用いる際の知覚的なコスト)からボトムアップにモデル化する.そのモデルが参照結束性を説明できるか否かを,様々な言語の実データで確かめる.\item[2.]{\bf言語依存な特性を統計的に獲得可能なモデル化:}原理的には言語に独立な行動選択機構があるにしても,表層表現の知覚においては各言語の特性に依存する言語的因子があると考えられる.具体的には,談話参与者が実体に向ける注意の度合(顕現性;salience)や,参照表現を用いる際の知覚的なコストは,各言語に特有な言語表現に影響されるはずである.言語毎の手作業の設計を避け,より精緻に当該言語に適応させるためには,当該言語のコーパスからその特性を自動獲得可能なモデルが望ましい.そのためには,顕現性や知覚コストを統計的に定式化する必要がある.\end{itemize}\subsection{アプローチ}本稿では,上で述べた2つの課題に対して以下のアプローチをとる.\begin{itemize}\item[1.]{\bf参照結束性を引き起こす行動選択原理の言語をまたぐ一般性を検証:}Hasida\citeyear{hasida1995},白松他\citeyear{siramatu2005nlp}の仮説(ゲーム理論に基づく参照結束性の定式化)が,言語をまたぐ一般性を有するか否かを検証する.具体的には,性質が異なる2つの言語である日本語と英語のコーパスを用いて検証実験を行う.\item[2.]{\bf言語依存な知覚的要因を表すパラメタを統計的に設計:}参照結束性に影響する知覚的な要因(実体の顕現性,参照表現を使う際の知覚コスト)は,言語毎に特有な表現に影響されると考えられるので,これらをコーパスに基づく統計的なパラメタとして設計する.具体的には,言語特有の表現に依存するパラメタ分布を,日本語と英語のコーパスから獲得する実験を行う.これにより,統計的定義の妥当性を検証する.\end{itemize}以下,\ref{sec:issues}章で従来研究の概要と問題点を説明し,\ref{sec:ut}章では白松他\citeyear{siramatu2005nlp}のモデルを多言語に適用する際の問題点を解決する.\ref{sec:verification}章では,性質が異なる大きく異なる2つの言語である日本語と英語のコーパスを用い,モデルの言語一般性を検証する.\ref{sec:discussion}章では,参照結束性の尺度としての期待効用の性質,および,代名詞化の傾向に関する日本語と英語の違いを考察する.最後に,\ref{sec:conc}章で結論を述べる.
V06N02-06
近年の著しい計算機速度の向上,及び,音声処理技術/自然言語処理技術の向上により,音声ディクテーションシステムやパソコンで動作する連続音声認識のフリーソフトウェアの公開など,音声認識技術が実用的なアプリケーションとして社会に受け入れられる可能性がでてきた\cite{test1,test2}.我が国では,大量のテキストデータベースや音声データベースの未整備のため欧米と比べてディクテーションシステムの研究は遅れていたが,最近になって新聞テキストデータやその読み上げ文のデータが整備され\cite{test3},ようやく研究基盤が整った状況である.このような背景を踏まえ,本研究では大規模コーパスが利用可能な新聞の読み上げ音声の精度の良い言語モデルの構築を実験的に検討した.音声認識のためのN-gram言語モデルでは,N=3$\sim$4で十分であると考えられる\hspace{-0.05mm}\cite{test4,test5,test25}.しかし,N=3ではパラメータの数が多くなり,音声認識時の負荷が大きい.そこで,大語彙連続音声認識では,第1パス目はN=2のbigramモデルで複数候補の認識結果を出力し,N=3のtrigramで後処理を行なう方法が一般的である.\mbox{本研究では,第2パスのtrigramの改善}ばかりでなく,第1パス目の\hspace{-0.05mm}bigram\hspace{-0.05mm}言語モデルの改善を目指し,以下の3つの点に注目した.まずタスクについて注目する.言語モデルをN-gram\mbox{ベースで構築する場合(ルールベースで}記述するのとは異なり),大量の学習データが必要となる.最近では各種データベースが幅広く構築され,言語モデルの作成に新聞記事などの大規模なデータベースを利用した研究が行なわれている\cite{test6}.しかしN-gramはタスクに依存するのでタスクに関する大量のデータベースを用いて構築される必要がある.例えば,観光案内対話タスクを想定し,既存の大量の言語データに特定タスクの言語データを少量混合することによって,N-gram言語モデルの性能の改善が行なわれている\cite{test7}.また,複数のトピックに関する言語モデルの線形補間で適応化する方法が試みられている\cite{test8}.本研究ではタスクへの適応化のために,同一ジャンルの過去の記事を用いる方法とその有効性を示す.次に言語モデルの経時変化について注目する.例えば新聞記事などでは話題が経時的に変化し,新しい固有名詞が短期的に集中的に出現する場合が多い.以前の研究では、\mbox{直前の数百単}\mbox{語による言語モデルの適応化(キャッシュ法)が試}みられ\cite{test20},\mbox{小さいタスクでは}その有効性が示されてはいるが,本論文では直前の数万〜数十万語に拡大する.つまり,直前の数日間〜数週間の記事内容で言語モデルを適応化する方法を検討し,その有効性を示す.最後に認識単位に注目する.音声認識において,\mbox{認識単位が短い場合認識誤りを生じやすく,}付属語においてその影響は大きいと考えられ,小林らは,付属語列を新たな認識単位とした場\mbox{合の効果の検証をしている\cite{test9}}.\mbox{また高木らは,高頻度の付属語連鎖,}関連率の高い複合名詞などを新しい認識単位とし,\mbox{これらを語彙に加えることによる言語モデ}ルの性能に与える影響を検討している\cite{test10}.なお,連続する単語クラスを連結して一つの単語クラスとする方法や句を一つの単位とする方法は以前から試みられているが,いずれも適用されたデータベースの規模が小さい\cite{test11,test12}.同じような効果を狙った方法として,N-gramのNを可変にする方法も試みられている\cite{test8}.なお,定型表現の抽出に関する研究は,テキスト処理分野では多くが試みられている(例えば,新納,井佐原1995;北,小倉,森本,矢野1995).新聞テキストには,使用頻度の高い(特殊)表現や,固定的な言い回しなどの表現(以下,定型表現と呼ぶ)が非常に多いと思われる.定型表現は,音声認識用の言語モデルや音声認識結果の誤り訂正のための後処理に適用できる.そこでまず,定型表現を抽出した.次に,これらの(複数形態素から成る)定型表現を1形態素として捉えた上で,N-gram言語モデルを構築する方法を検討する.評価実験の結果,長さ2および3以下である定型表現を1形態素化してbigram,trigram言語モデルを作成することで,bigramに関しては,エントロピーが小さくなり,言語モデルとして有効であることを示す.なお,これらの手法に関しては様々な方法が提案されているが,大規模のテキストデータを用いて,タスクの適応化と定型表現の導入の有効性を統一的に評価した研究は報告されていない.\vspace*{-3mm}
V10N02-03
近年,情報分野の認知度・重要度は急速に増し,それに伴って自然言語処理分野の研究もさらに活発なものとなっている.形態素論から構文論へと研究は進み,現在は意味論に関する研究がその中心となっている.比喩表現はその代表的なテーマの1つであり,我々の日常的なコミュニケーションも比喩表現の雛型としての言語知識に基づいた部分が多いとされている\cite{Lakoff-1}.比喩表現に関する研究は,近年細かく分類され,様々なアプローチによる研究が精力的に進められている.人工知能(自然言語処理)分野における比喩処理の研究として,Barndenは,ATT-Metaと呼ばれる比喩推論システムを試作している\cite{Barnden-1}.このシステムは,cnduitmetaphorと称する意味伝達に際しての理解のずれの枠組み\cite{Reddy-1}など,比喩表現についての言語学的な研究成果をもとに構築され,喩詞と被喩詞との意味的な共通領域を定量的に示すことができる.コンピュータに比喩を理解させるためには概念の類似性や顕現性に関する知識が必要となるが,TverskyやOrtonyは概念の属性集合の照合によって類似性を説明する線形結合モデルを提案し,顕現性を計算する際に重要な要素として情報の強度(intensity)と診断度(diagnosticity)を提案している\cite{Tversky-1,Ortony-3}.今井らは連想実験に基づいて構成される属性の束を用いてSD法の実験を行い,その結果を円形図上に配置し,さらに凸包という幾何学的な概念を用いて相対的に顕現性の高い属性の抽出を行っている\cite{Imai-1}.比喩表現を大きく直喩・隠喩的な比喩と換喩的な比喩とに分類すると,換喩的な比喩の研究として,村田らは「名詞Aの名詞B」「名詞A名詞B」の形をした名詞句を利用し,それを用いて換喩を解析することを試みている\cite{Murata-1}.内山らは換喩的な比喩を研究対象に,統計的に解釈する方法について述べている\cite{Uchiyama-1}.また内海らは直喩・隠喩的な比喩の研究について,関連性理論を基盤とした言語解釈の計算モデルを適用し,属性隠喩を対象として文脈に依存した隠喩解釈の計算モデルを提案している\cite{Utsumi-1}.しかしこれらの研究はいずれも比喩とわかっている表現の解釈を中心に行われており,実際の文章に現れる表現が比喩であるかどうかといった比喩認識については,あまり深い議論はなされていない.本研究は日本語文章の比喩表現,その中でも直喩・隠喩的な比喩について,その認識・抽出を目的としている.我々はこれまで確率的なプロトタイプモデル\cite{Iwayama-1}を利用して,コーパスから知識を取り出すことによって比喩認識に用いる大規模な知識ベースを自動構築する手法を提案し\cite{Masui-1},動作に基づく属性に注目した観点からの比喩認識を提案してきた\cite{Masui-3}.これにより喩詞と被喩詞とからなる表現の定量的な比喩性判断が可能となった.しかし,この手法を実際の文章に現れる表現に対して適用するためには,比喩表現候補の喩詞と被喩詞とを正確に抽出できなければならない.これに対しては直喩の代表的な表現形式である``名詞Aのような名詞B''を対象に,構文パターンやシソーラスを用いる手法で研究を進めてきた\cite{Tazoe-1,Tazoe-2}が,喩詞・被喩詞を抽出する手法は,同時に``名詞Aのような名詞B''表現が比喩であるかどうかを判定することにも密接に関連するという結論に至った.本論文では``名詞Aのような名詞B''表現について,意味情報を用いたパターン分類によって比喩性を判定し,喩詞と被喩詞とを正確に抽出できるモデルについて提案する.本論文の構成を示す.\ref{sec:bunrui}章では``名詞Aのような名詞B''表現について意味情報を用いたパターン分類とそれぞれのパターンの特徴・比喩性を述べる.\ref{sec:teian}章では我々が提案する比喩性判定モデルの処理の流れを詳細に説明する.\ref{sec:ko-pasu}章ではコーパスを用いた判定実験結果について考察を加える.\ref{sec:hiyugo}章では明らかに比喩性を決定づける語の存在について検証する.
V31N03-17
日本経済新聞社は,経済分野を中心とした新聞記事に加え,自社が調査した企業情報を収録したデータベース(日経企業DB\footnote{\url{https://telecom.nikkei.co.jp/public/guide/manual/b/b09.html}})を保有している.新聞記事には,新規事業や組織再編などの,各企業に関する新しい情報が提供される.記事に登場する企業名を日経企業DBの企業IDと紐づけることで,企業レベルの記事検索などの,特定企業に関する高度な情報抽出への応用に期待ができる.企業名と企業IDの紐づけには,記事に出現する企業名の抽出と,抽出した企業名に企業IDを割り当てるエンティティリンキング(EntityLinking;EL)が必要になる.しかし,GiNZA\footnote{\url{https://megagonlabs.github.io/ginza/}}などの日本語汎用NLPツールは,企業名が組織名(Organization)の一部として定義されており,既存の日本語ELシステム\cite{Davaajav-etal-2016-anlp,sekine-etal-2023-anlp}も主にWikificationタスクのために設計されている.そのため,これらの既存ツールから日経企業DBへの適応は困難であり,Wikipediaと日経企業DBのリンキングの違いについても議論の余地がある.そこで本研究は,企業名と企業IDのリンキングを目的とした,日経企業IDリンキングシステムを実装する.具体的には,日経企業IDを知識ベースとするELデータセット(日経企業IDリンキングデータセット)を作成し,事前学習済み日本語言語モデル\cite{yamada-etal-2020-luke}による企業名抽出モデル・類似度ベースELモデルを構築する.本研究は,日経企業IDリンキングデータセットから企業名の抽出性能とリンキング性能を評価し,日経企業IDリンキングと一般的なELタスクの技術的困難性の違いについても考察する.実験の結果,提案システムは抽出した企業名に対して約83\%のリンキング性能を示したものの,同名他社などの日経企業DB特有の事例に対しては依然としてリンキングが困難であることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V15N05-04
言葉の意味処理にとってシソーラスは不可欠の資源である.シソーラスは,単語間の上位下位関係という,いわば縦の関連を表現するものである.我々は意味処理技術の深化を目指し,縦の関連に加えて,単語が使用されるドメインという,いわば横の関連を提案する.例えば,単語が「教科書」「先生」ならドメインは\dom{教育・学習}であり,「庖丁」なら\dom{料理・食事},「メス」なら\dom{健康・医学}である.本研究では,このようなドメイン情報を基本語約30,000語に付与し,基本語ドメイン辞書として完成させた.ドメインを考慮することでより自然な単語分類が可能となる.例えば分類語彙表は,「教科書」は『文献・図書』,「先生」は『専門的・技術的職業』として区別するが,ドメイン上は両者とも\dom{教育・学習}に属する.また,分類語彙表は「庖丁」も「メス」も『刃物』として同一視するが,両者はドメインにおいて区別される.ドメイン情報は様々な自然言語処理タスクで利用されてきた.本研究では\S\ref{bunrui-method}で述べるように文書分類に応用するが,それ以外にも,文書フィルタリング\cite{Liddy:Paik:1993},語義曖昧性解消\cite{Rigau:Atserias:Agirre:1997,Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007},機械翻訳\cite{Yoshimoto:Kinoshita:Shimazu:1997,Lange:Yang:1999}等で用いられてきた.本研究で開発した基本語ドメイン辞書構築手法は半自動のプロセスである.まず,人手で付与されたドメイン手掛かり語と各基本語の関連度をもとに,基本語にドメインを自動付与する.次に,自動ドメイン付与結果を人手で修正して完成させる.関連度計算には検索ヒット数を利用した.本研究で半自動の構築プロセスを採用したのは次の理由による.基本語の語彙情報は,多くの自然言語処理技術の根幹を形成するものであり,非常に高い正確さが要求される.しかし今日の技術では,全自動でそのような正確さを備えた語彙情報を獲得するのは困難である.一方で,全て人手で作業するのは,コスト的にも,一貫性と保守性の観点からも望ましくない.以上の理由により,高い精度の自動ドメイン付与結果を人手で修正する,という半自動プロセスを採用した\footnote{京都テキストコーパスも同様の理由から,高精度な構文解析器KNP\cite{黒橋:長尾:1992}.による解析結果を人手で修正する,という手法を採用した.}このドメイン辞書は世界初のフリーの日本語ドメイン資源である.また,本手法に必要なのは検索エンジンへのアクセスのみで,文書集合や高度に構造化された語彙資源等は必要ない.さらに,基本語ドメイン辞書の応用としてブログ自動分類を行った.各ブログ記事は,記事中の語にドメインとIDF値が付与され,最もIDF値の高いドメインに分類される.基本語ドメイン辞書に無い未知語のドメインは,基本語ドメイン辞書,Wikipedia,検索エンジンを利用して,リアルタイムで推定される.結果として,ブログ分類正解率94\%(564/600)と,未知語ドメイン推定正解率76.6\%(383/500)が得られた.なお,基本語ドメイン辞書に収録するのは基本語のみ\footnote{より正確には,JUMAN\cite{JumanManual:2005}に収録された内容語約30,000語である.}であり,専門用語等は含めない.以下,\S\ref{2issues}で基本語ドメイン辞書構築時の問題点を,\S\ref{domain-construction-method}では基本語ドメイン辞書構築手法を述べる.完成した基本語ドメイン辞書の詳細は\S\ref{dic-spec}で報告する.\S\ref{bunrui-method}では基本語ドメイン辞書のブログ分類への応用について述べ,\S\ref{unknown_domest}ではブログ分類時に用いられる未知語ドメイン推定について述べる.その後,ブログ分類と未知語ドメイン推定の評価結果を\S\ref{eval}で報告する.\S\ref{related-work}で関連研究と比較した後,\S\ref{conclusion}で結論を述べる.
V15N02-03
\label{Introduction}初期の機械翻訳の研究では,翻訳のルールを人手により書き下して翻訳するルールベース翻訳(RBMT)が用いられていた.計算機性能の問題もあり,しばらくはRBMTによる研究が進められてきたが,多様な言語現象を全て人手で書き下すことは事実上不可能であるし,他の言語対への汎用性が乏しいなどの欠点がある.そこで次に考案されたのが,あらかじめ与えられた対訳コーパスから翻訳知識を自動で学習し,その知識を用いて翻訳を行うコーパスベースの手法である.コーパスベースの手法で最も重要なのが,翻訳で使う知識を対訳コーパスから学習するアラインメントと呼ばれるステップである.アラインメント精度は翻訳精度を大きく左右するため,現在までにアラインメントに関する研究が数多くなされてきた.アラインメント研究の多くは,対訳文を1次元の単語列として扱うものであり,その最も基本的なモデルとして,単語レベルでのアラインメントを統計的に行うIBMモデル\cite{Brown93}が広く利用されている.IBMモデルでは原言語と目的言語の単語同士の対応確率モデル(lexicon)や,語順に関するモデル(distortion),語数を合わせるためのモデル(fertility,nullgeneration)などを統計的に学習する.この単語列アラインメント手法を基礎として,アラインメント結果からより高度な翻訳知識を学習する手法がいくつか提案されている.IBMモデルは1単語ごとでのアラインメントを行うが,Koehnら\cite{koehn-och-marcu:2003:HLTNAACL}はIBMモデルによるアラインメント結果をベースとして,そこから句に相当する部分を抽出する手法を考案し,翻訳の精度をより高めた.ここでいう句とは,単語列を便宜上,句と呼んでいるだけであり,意味のまとまりを表しているわけではなく,また句の階層的関係を扱うものでもない.またChiang\cite{chiang:2005:ACL}は単語列ではなく,同期文脈自由文法に基づいた広い範囲の翻訳パターンを学習する手法を提案した.Chiangの手法はKoehnらの手法による句対応結果からの学習を行うため,そのベースにはやはりIBMモデルがある.このような発展的な翻訳知識学習の手法は,翻訳においてある程度の文の構造を用いることにつながるが,そのベースとなるアラインメント手法であるIBMモデルは,文の構造情報は一切用いていない.このように単語列として文を扱う手法は,英語とヨーロッパ言語など言語構造に大きな違いがない言語対では精度よいアラインメント結果が得られるが,日英などのように言語構造が大きく異なる言語対に対しては不十分である.つまり言語構造が大きく異なる言語対において高精度なアラインメントを実現するためには,アラインメントにおいても各言語での文の構造を利用する必要がある.アラインメントにおいて言語構造を扱う研究は,古くは佐藤と長尾\cite{sato:1990:COLING}やSadlerとVendelmans\cite{sadler:1990:COLING},松本ら\cite{matsumoto:1993:ACL}によって提案されたが,当時は枠組を提案し,短い文での実証を行ったのみで,長い文,複雑な文への適用実験などは行われなかった.しかしその枠組自体は現在でも十分有効なものである.また渡辺ら\cite{watanabe:2000:COLING}やMenezesとRichardson\cite{Menezes01}も構造を用いたアラインメント手法を提案している.これらの研究では,比較的長く,複雑な文のアラインメントを行っている.文が長くなると,対応関係の曖昧性が必然的に増加し,これが問題となる.渡辺らは,曖昧性のない語からの木構造上での距離を尺度として曖昧性の解消を行い,MenezesとRichardsonは確率的な辞書の情報を利用し,最も確率の高い単語から順に対応付けることにより,曖昧性解消を行ったが,いずれもヒューリスティックなルールに基づいた手法であり,木構造全体を整合的に対応付けることはしていない.両言語の木構造を確率的に対応づける研究もある.このような手法は,原言語文の木構造を組み換えることにより,目的言語文の木構造を再現しようとするものであるが,構造を用いることの制約が強すぎるため,この制約をいかに緩めるかが議論の対象となる.Gildea\cite{Gildea03}は原言語の任意の部分木を複製し,目的言語の木構造を再現する手法を提案し,韓国語と英語を対象とした実験でアラインメントエラーレート(AER)\cite{och00comparison}で0.32という高い精度を達成しており,言語構造を用いたアラインメントの有効性を示している.しかし我々は,木構造に対してこのような操作を行う必要はなく,木構造をそのままアラインメントすれば良いと考えた.我々の手法は,佐藤と長尾などによって提案された手法を踏まえつつ,ヒューリスティックなルールではなく,木構造全体を整合的に対応付けることを目的とする.本論文では,係り受け距離と距離—スコア関数を利用した,構造的木構造アラインメント手法を提案する.本手法は依存構造木を利用しているため言語構造の違いを克服することができ,さらに木構造上の距離に基づいたアラインメント全体の整合性を,言語対に独立に測ることができる.さらに構造情報を崩すことなく利用するため,豊富な翻訳知識の獲得も望める.次章では我々の機械翻訳システムのアラインメントモジュールの基本的な部分について簡単に紹介する.\ref{proposed}章では我々が提案する手法を説明する.\ref{result}章では提案手法の有効性を示すために行った実験の結果と結果の考察を述べ,最後に結論と今後の課題を述べる.
V02N04-01
今日,家庭向けの電化製品から,ビジネス向けの専門的な機器まであらゆる製品にマニュアルが付属している.これらの機器は,複雑な操作手順を必要とするものが多い.これを曖昧性なく記述することが,マニュアルには求められている.また,海外向けの製品などのマニュアルで,このような複雑な操作手順を適切に翻訳することも困難である.そこで,本稿は,上記のような問題の解決の基礎となるマニュアル文を計算機で理解する手法について検討するが,その前に日本語マニュアル文の理解システムが実現した際に期待される効果について述べておく.\begin{itemize}\item日本語マニュアル文の機械翻訳において言語-知識間の関係の基礎を与える.\item自然言語で書かれたマニュアル文の表す知識の論理構造を明らかにし,これをマニュアル文作成者にフィードバックすることによってより質の良いマニュアル文作成の援助を行なえる.\itemマニュアル文理解を通して抽出されたマニュアルが記述している機械操作に関する知識を知識ベース化できる.この知識ベースは,知的操作システムや自動運転システムにおいて役立つ.\end{itemize}さて,一般的な文理解は,おおむね次の手順で行なわれると考えられる.\begin{enumerate}\item文の表層表現を意味表現に変換する.\label{変換}\itemこの意味表現の未決定部分を決定する.\label{決定}\end{enumerate}\ref{変換}は,一般的に「文法の最小関与アプローチ」\cite{kame}といわれる考え方に則って行なわれる.この考え方は,文を形態素解析や構文解析などを用いて論理式などの意味表現へ翻訳する際,統語的知識や一部の意味的知識だけを利用し,以後の処理において覆されない意味表現を得るというものである.よって,得られた意味表現は一般に曖昧であり,文脈などにより決定されると考えられる未決定部分が含まれる.従来の\ref{決定}に関する研究は,記述対象や事象に関する領域知識を利用して,意味表現の表す物事に関する推論をして,意味表現の未決定部分を決定するという方向であった(\cite{abe}など).これは,知識表現レベルでの曖昧性解消と考えることができる.領域知識を用いる方法は,広範な知識を用いるため,曖昧性解消においては有用である.しかし,この方法を用いるには,大規模な領域知識ないし常識知識をあらかじめ備えておく必要があるが,現在そのような常識・知識ベースは存在していない点が問題である.したがって,この問題に対処するためは,個別の領域知識にほとんど依存しない情報を用いることが必要となる.さて,本稿では,対象を日本語マニュアル文に限定して考えている.そして,\cite{mori}に基づき,上記の個別の領域知識にほとんど依存しない情報として,言語表現自体が持っている意味によって,その言語表現がマニュアル文に使用される際に顕在化する制約について考察する.ここで重要な点は,以下での考察が個別のマニュアルが記述している個別領域(例えば、ワープロのマニュアルならワープロ操作固有の知識)を問題にしているのではなく,マニュアル文でありさえすれば,分野や製品を問わずいかなるマニュアル文にも通用する制約について考察しようとしている点である.しかし,領域知識にほとんど依存しないとはいえ,言語的な制約を適用する話し手,聞き手などの対象が,解析しようとしているマニュアル文では何に対応しているかなどの,言語的対象とマニュアルで述べられている世界における対象物の間の関係に関する知識は必要である.以下では,この知識を言語・マニュアル対応関係知識と呼ぶ.ここでは,対象としているのが日本語マニュアル文であるから,言語学的な対象と記述対象の間の関係に関する情報などこの種の情報は「解析中の文章が日本語で書かれたマニュアルに現れる文である」ということ自身から導く.よって以上の手順をまとめると,本稿で想定している日本語マニュアル文の理解システムでは,「文法の最小関与アプローチ」による構文解析と,言語表現自身が持つ語用論的制約と,言語・マニュアル対応関係知識に基づいて,マニュアル文を理解することとなろう.さて,意味表現の未決定部分を決定する問題に関しては,ゼロ代名詞の照応,限量子の作用範囲の決定や,もともと曖昧な語の曖昧性解消など,さまざまな問題がある.日本語では主語が頻繁に省略されるため,意味表現の未決定部分にはゼロ代名詞が多く存在する.そのため,ゼロ代名詞の適切な指示対象を同定することは日本語マニュアル文の理解における重要な要素技術である.そこで,本稿では,ゼロ代名詞の指示対象同定問題に対して,マニュアル文の操作手順においてしばしば現れる条件表現の性質を利用することを提案する.というのは,システムの操作に関しては,今のところ基本的に利用者とのインタラクションなしで完全に動くものはない.そこで,ある条件の時はこういう動作が起きるなどという人間とシステムのインタラクションをマニュアルで正確に記述しなければならない.そして,その記述方法として,条件表現がしばしば用いられているからである.一般に,マニュアル文の読者,つまり利用者の関心は,自分が行なう動作,システムが行なう動作が何であるか,自分の動作の結果システムはどうなるかなどを知ることなので,条件表現における動作主の決定が不可欠である.従って,本稿では,マニュアルの操作手順に現れる条件表現についてその語用論的制約を定式化し,主に主語に対応するゼロ代名詞の指示対象同定に応用することについて述べる.もちろん,本稿で提案する制約だけでゼロ代名詞の指示対象同定問題が全て解決するわけではないが,条件表現が使われている文においては有力な制約となることが多くのマニュアル文を分析した結果分かった.さて,本稿で問題にするのは,操作手順を記述する文であり,多くの場合主語は動作の主体すなわち動作主である.ただし,無意志の動作や,状態を記述している文あるいは節もあるので,ここでは,動作主の代わりに\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」という概念を用いる.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが非常に大雑把に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.以下,第2節では,マニュアル文に現れる対象物と,依頼勧誘表現,可能義務表現が使用される場合に言語学的に導かれる制約について記す.第3節では,マニュアル文において条件表現が使用される場合に,言語学的に導かれる制約を説明し,さらに実際のマニュアル文において,その制約がどの程度成立しているかを示す.第4節は,まとめである.
V05N04-03
label{はじめに}\subsection{複合名詞解析とは}\label{複合名詞解析とは}複合名詞とは,名詞の列であって,全体で文法的に一つの名詞として振る舞うものを指す.そして,複合名詞解析とは,複合名詞を構成する名詞の間の依存関係を尤度の高い順に導出することである.複合名詞は情報をコンパクトに伝達できるため重要な役割を果たしており,簡潔な表現が要求される新聞記事等ではとりわけ多用される.そして,記事中の重要語から構成される複合名詞は,記事内容を凝縮することさえ可能である.例えば,「改正大店法施行」という見出しは,「改正された大店法(=大規模小売店舗法)が施行される」ことを述べた記事の内容を一つの名詞に縮約したものである.そして,このことを理解するためには,{大店法,改正,施行}が掛かり受けの構成要素となる単位であることと,これら3単語間に[[大店法改正]施行]という依存関係があることを理解する必要がある.複合名詞解析の確立は,機械翻訳のみでなく,インデキシングやフィルタリングを通して,情報抽出・情報検索等の高度化に貢献することが期待される.\subsection{従来の手法}\label{従来の手法}日本語の複合名詞解析の枠組みは,基本的に,\begin{itemize}\item[(1)]入力された文字列を形態素解析により構成単語列に分解する.\item[(2)]構成単語列間の可能な依存構造の中から尤度の高いものを選択する.\end{itemize}の二つの過程からなり,この限りでは通常の掛かり受け解析と同一である.異なる点は,品詞情報だけでは解析の手がかりとならないため,品詞以外の情報を利用せざるを得ない点である.品詞以外の手がかりを導入する方法としては,まず人手により記述したルールを主体とする手法が用いられ,大規模なコーパスが利用可能になるにつれ,コーパスから自動的に抽出した知識を利用する手法が主流となってきた.第一の段階である語分割の過程は,通常の形態素解析の一環でもあるが,特に複合名詞の分割を意識して行われたものとして,長尾らの研究\cite{長尾1978}がある.そこでは,各漢字の接頭辞・接尾辞らしさを利用したルールに基づく複合名詞の分割法が提案され\breakており,例えば長さ8の複合名詞の分割精度は84.9\%と報告されている.複合名詞の構造決定に\breakついては述べられていないが,長さ3,4,5,6の複合名詞について深さ2までの構造が人手で調べられている.それによれば,調べられた240個の長さ5の複合名詞については接辞を含んだ構\break造が完全に示されており,その59\%は左分岐構造をとっている.その後宮崎により、数詞の処理,固有名詞処理,動詞の格パターンと名詞の意味を用いた掛かり受け判定等に関する14種類のルールを導入する等、ルールを精緻化し,更に,「分割数が少なく掛かり受け数が多い分割ほど優先する」等のヒューリスティクスを導入することにより,未登録語が無いという条件の下で,99.8\%の精度で複合語の分割を行う手法が提案された\cite{宮崎1984}.コーパスに基づく統計的な手法では,分かち書きの一般的な手法として確率文節文法に基づく形態素解析が提案され\cite{松延1986},ついで漢字複合語の分割に特化して,短単\break位造語モデル(漢字複合語の基本単位を,長さ2の語基の前後に長さ1の接頭辞・接尾辞がそれ\breakぞれ0個以上連接したものとする)と呼ばれるマルコフモデルに基づく漢字複合語分割手法が提案された\cite{武田1987}.確率パラメータは,技術論文の抄録から抽出した長さ2,3,4の連続漢字列を用いて繰り返し法により推定し,頻出語について正解パターンを与える等の改良により,97\%の分割精度を達成している(全体の平均文字長は不明).次の段階である分割された単語の間の掛かり受けの解析についても,ルールに基づく枠組みと,コーパスに基づく枠組み双方で研究されてきた.前者の枠組みとして,宮崎は語分割に関する研究を発展させ,掛かり受けルールの拡充とこれらの適用順序の考慮により,限定された領域については,未知語を含まない平均語基数3.4の複合名詞167個について94.6\%の精度を達成している\cite{宮崎1993}.なお,英語圏でのルールに基づく研究としてはFinin\cite{Finin1980},McDonald\cite{McDonald1982},Isabelle\cite{Isabelle1984}等の研究があるが,シソーラス等の知識に基づくルールを用いる点は同様である.ルールに基づく手法の利点は,対象領域を特化した場合,人手による精密なルールの記述が可能となるため,高精度な解析が可能になることである.しかし,ルール作成・維持にコストがかかることと,一般に移植性に劣る点で,大規模で開いたテキストの取り扱いには向かないといえる.コーパスに基づく手法では,人手によるルール作成・メンテナンスのコストは削減できるが,名詞間の共起のしやすさを評価するために,単語間の共起情報を獲得する必要がある.しかし,共起情報の信頼性と獲得量が両立するデータ獲得手法の実現は容易ではなく,さまざまな研究が行われている.一般には,共起情報を抽出する対象として,何らかの固定したトレーニングコーパスを用意し,適当な共起条件に基づいて自動的に名詞対を取り出す.そのままでは一般に名詞対のデータが不足するので,観測されない名詞対の掛かり受け尤度を仮想的に得るため,名詞をシソーラス上の概念や,共起解析により自動的に生成したクラスタに写像し,観測された名詞間の共起を,そのようなクラス間共起として評価する.例えば,西野は共起単語ベクトルを用いて名詞をクラスタリングし,名詞間の掛かり受けの尤度をクラス間の掛かり受け尤度として捉えた\cite{西野1988}.小林は分類語彙表\cite{林1966}中の概念を利用して,名詞間の掛かり受けの尤度を概念間の掛かり受け尤度により評価した\cite{小林1996}.これらを掛かり受け解析に適用するためには,一般に,複合名詞の掛かり受け構造を二分木で記述し,統計的に求めた名詞間の掛かり受けのしやすさを,掛かり受け構造の各分岐における主辞間の掛かり受けのしやすさとみなし,それらの積算によって掛かり受け構造全体の確からしさを評価する手法が取られる.西野の手法では,平均4.2文字の複合名詞について73.6\%の精度で正しい掛かり受け構造が特定できたと報告されている.小林は,名詞間の距離に関するヒューリスティクスと併用することにより,シソーラス未登録語を含まない,例えば長さ6文字の複合名詞について,73\%の解析精度を得ている.なお英語圏では,Lauerが小林とほとんど同じ枠組みで3語からなる複合名詞解析の研究を行っており\cite{Lauer1995},Rogetのシソーラス(1911年版)を用いて,Gloria'sencyclopediaに出現する,シソーラス未登録語を含まない3語よりなる複合名詞について,81\%の解析精度を得ている.(ただし,小林,Lauerとも,概念間の共起尤度に加え,主辞間の距離や左分岐構造を優先するヒューリスティクスを併用している).以上を総括すると,従来のコーパスに基づく複合名詞解析の枠組みは,固定したトレーニングコーパスを用い,クラス間共起という形で間接的に名詞の共起情報を抽出することにより,掛かり受け構造の推定を行っていたといえる.この場合に生じる問題は,クラスへの所属が不明な単語を扱うことができないことである.例えば新聞記事のような開いたデータを扱う場合には,形態素解析辞書への未登録単語が頻出するばかりでなく(この場合,形態素解析の段階で誤りが発生するため,正解は得られない),形態素解析辞書へ登録されていてもシソーラスに登録されていない単語が出現する可能性があり,解析の際には問題となる.実際,我々が実験に用いた400個の複合名詞中,形態素解析用の辞書または分類語彙表に登録されていない単語を含むものは120個に上った(うち形態素解析辞書未登録語は48個).未登録語の問題は,未登録語の語境界,品詞,所属クラスを正しく推定することができれば解決可能であるが,現時点では,これらについて確立した手法は無い.特に,語の所属クラス推定のためには,与えられたコーパス中でのその語の出現環境を得ることが必要となるため,なんらかの形でコンテクストの参照が必要となる.すなわち,あらかじめ固定したデータのみを用いて解析を行う枠組みでは,開いたコーパスを扱うには限界がある.\subsection{本論文の目的}\label{本論文の目的}本論文では,「あらかじめ固定されたデータのみを用いて解析する」という従来の枠組に対して,「必要な情報をオン・デマンドで対象コーパスから取得しながら解析する」という枠組を提唱し,その枠組における複合名詞解析の能力を検証する.文字インデキシングされた大規模なコーパスを主記憶内に置くことが仮想的ではない現在,本論文で提示する枠組には検討の価値があると考える.十分な大きさのコーパスの任意の場所を参照できれば,複合名詞に含まれる辞書未登録語の発見や,それらを含めた複合名詞を構成する諸単語に関する,様々な共起情報が取得できると思われるが,実際に我々は,テンプレートを用いたパターン照合によりこれらが実現できることを示す.このような手法においては,未登録語の発見はパターン照合の問題へ統合されるうえ,発見された未登録語の共起情報を文字列のレベルで直接参照するため,クラス推定の問題も生じない.データスパースネスの問題については,テンプレートの拡充による共起情報抽出能力の強化と,複合名詞を構成する単語対のうち,一部の共起情報しか観測されない場合に,それらをできるだけ尊重して掛かり受け構造を選択するためのヒューリスティクスを整備する.これらにより,シソーラス等の知識源に依存せず,純粋に表層情報のみを利用した場合の解析精度の一つの限界を目指す.本論文では,長さ5,6,7,8の複合名詞各100個,計400個について,新聞2ヵ月分,1年分\breakを用いて実験を行い,提案する枠組みで,高い精度の複合名詞解析が可能なことを示す.複合名詞解析の精度評価に関しては,パターン照合による未登録語の発見やヒューリスティクスの寄与も明らかにする.\subsection{本論文の構成}\label{本論文の構成}以下{\bf\ref{複合名詞解析の構成}節}では,複合名詞解析の構成の概略を述べ,{\bf\ref{従来手法と問題点の分析}節}では,クラス間共起を用いる手法のうち,クラスとしてシソーラス上の概念を用いる「概念依存法」の概括と,その問題点を整理する.{\bf\ref{文書走査による複合名詞解析}節}では提案手法の詳細を示し,共起データ抽出と構造解析について例を用いて述べる.{\bf\ref{実験結果}節}では,{\bf\ref{文書走査による複合名詞解析}節}で述べた複合名詞の解析実験の結果について示す.{\bf\ref{本論文の目的}}で述べた分析の他,ベースラインとの比較等を行う.最後に,今後の課題について述べる.
V28N04-09
SNS上のユーザ動向調査\cite{lee2016predicting}やフェイクニュース検知\cite{guo2019dean}への応用を目的として,対話文における各発話の感情認識(EmotionRecognitioninConversations:ERC)が注目を集めている\cite{picard2010affective}.またチャットボットなどの会話エージェントが自然な発話文を生成するために,話者の感情が対話中にどのように変化するかが分析されている\cite{huang2018automatic}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{08table01.tex}\caption{対話文の各発話に現れる感情ラベルの例}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%先行研究の多くは,RecurrentNeuralNetworks(RNN)を用いて,各発話の特徴を抽出する\cite{liu2016recurrent,hochreiter1997long}.しかし,RNNを用いる場合,長い系列データの特徴の抽出は容易ではない\cite{bradbury2016quasi}.そこでMajumderらは,Attention機構により全発話の中から関連のある発話に焦点を当て,長い系列データの特徴を抽出することで高い認識精度を実現した\cite{majumder2019dialoguernn}.しかしながら,これらの従来手法は発話間の関係,特に自身の発話からの影響(自己依存)と他者の発話からの影響(相互依存)を考慮していない.表\ref{tab:dataset}を用いて,2つの依存関係の重要性を示す.表\ref{tab:dataset}は,2人の話者が就職活動について意見を交わす例である.話者Aは長い間就職先が見つからないため,一連の発話で常に負の感情を抱いている.これは自己依存の例を示し,自分自身の感情の推移を表す.一方で,話者Bの$4$番目の感情は,直前の話者Aの状況に同情し,負の感情を抱いている.これは相互依存の例を示し,他者の発話が自身の感情に影響を与える性質を持つ.Ghosalらは自己依存と相互依存の関係を利用するために,RelationalGraphAttentionNetworks(RGAT)\footnote{RGCN:RelationalGraphConvolutionalNetworks\cite{schlichtkrull2018modeling}とGAT:GraphAttentionNetworks\cite{velivckovic2017graph}を組み合わせたモデル.}を用いて,当時の世界最高峰の認識精度を達成した\cite{ghosal2019dialoguegcn}.この手法は,ノードに各発話の特徴量を,エッジに発話間の関係を,エッジの種類に依存関係の種類を設定し,有向グラフを構築する.しかしながら,RGATを含むGraphNeuralNetworks(GNN)は対話文中の発話の順序情報を利用できない課題がある.表\ref{tab:dataset}を用いて,順序情報の重要性を示す.話者Bは$4$番目の発話で,感情が変化する.これは,$1$番目や$2$番目の発話ではなく,直前の$3$番目の発話に同情したことが原因と考えられる.従って,ERCの認識精度の向上には,発話から発話への距離の影響を考慮する必要がある.一般的な解決策として,発話の絶対位置\cite{vaswani2017attention}や相対位置\cite{shaw2018self}を基にしたPositionEncodingsを,GNNモデルに加える方法がある.絶対位置を基にしたPositionEncodingsはGNNのノード(発話)に,相対位置を基にしたPositionEncodingsはエッジ(発話間の関係)に加えられる.一方で提案手法は,Ghosalらの手法\cite{ghosal2019dialoguegcn}を参考に,自己依存と相互依存の利用を目的として,依存関係の種類に応じたRGATを用いる.従って,絶対位置や相対位置ではなく依存関係の種類に応じた位置表現を用いることで,認識性能の向上が期待できる.本論文は,依存関係の種類に応じた位置表現を新たに作成し,RGATに加える手法\textit{RelationalPositionEncodings}を提案する.提案手法を用いることで,自己依存と相互依存を含む発話間の関係と,発話の順序情報の両方を利用できる.評価実験において,ERCにおける3つのベンチマークデータセットのうち,2つのデータセットで従来手法を上回り,世界最高峰の認識精度を達成した.さらに,絶対位置や相対位置ではなく,依存関係の種類に応じた位置表現が,ERCの精度向上に貢献することも確認した.本論文の貢献を以下に示す.(1)対話文における発話の順序情報を利用するため,初めてRGATモデルに\textit{RelationalPositionEncodings}を適応した.(2)提案手法を用いることで,自己依存と相互依存を含む発話間の関係と,発話の順序情報の両方の利用を可能にした.(3)従来手法との比較実験を通して,提案手法の有用性を確認した.(4)絶対位置や相対位置ではなく,依存関係の種類に応じた位置表現の有用性を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V11N05-08
\label{sec:introduction}\numexs{hodonai}{\item\emph{旧友}と飲む酒\emph{ほど}楽しいものは\emph{ない}.\item\emph{昔の友達}と飲む酒が\emph{一番}楽しい.}\numexs{kousan}{\item内戦状態に\emph{再突入する公算が大きい}.\item\emph{再び}内戦状態に\emph{なる}\emph{可能性が高い}.}この例のように,言語には同じ情報を伝える表現がいくつも用意されている.意味が近似的に等価な言語表現の異形を言い換え(paraphrase)と言う.言い換えを指す用語には他に,言い替え,換言,書き換え,パラフレーズといった語も使われるが,統一のため本論文では一貫して「言い換え」という用語を使う.これまでの言語処理研究の中心的課題は,曖昧性の問題,すなわち同じ言語表現が文脈によって異なる意味を持つ問題をどう解決するかにあった.これに対し,言い換えの問題,すなわち同じ意味内容を伝達する言語表現がいくつも存在するという問題も同様に重要である.与えられた言語表現からさまざまな言い換えを自動生成することができれば,たとえば,所与の文章を読み手の読解能力に合わせて平易な表現に変換したり,音声合成の前編集として聴き取りやすい表現に変換したりすることができる.あるいは,機械翻訳の前編集として翻訳しやすい表現に変換するといったことも可能になるだろう.また,与えられた2つの言語表現が言い換えであるかどうかを自動判定することができれば,情報検索や質問応答,複数文書要約といったタスクにおける重要な問題の一つが解決する.近年,こうした問題に関心を持つ研究者が増え,言い換えというキーワードが目立つようになってきた.本学会年次大会でも,2001年に言い換えのセッションが設置されて以来,4件(2001年),9件(2002年),10件(2003年),7件(2004年)と投稿を集めた.また2001年,2003年には言い換えに関する国際ワークショップが開かれ,それぞれ8件,14件の発表,活発な議論が行なわれた\cite{NLPRSWS:01,IWP:03}.本論文では,言い換えに関する工学的研究を中心に,近年の動向を紹介する.以下,まず,\sec{definition}で,言語学的研究および意味論研究における言い換えに関連の深い話題を取り上げ,言い換えの定義について考察する.次に,\sec{applications}で言い換え技術の応用可能性について論じた後,\sec{models}で構造変換による言い換え生成,質問応答・複数文書要約のための言い換え認識に関する研究を概観する.最後に\sec{knowledge}で言い換え知識の自動獲得に関する最新の研究動向を紹介する.
V15N05-08
多言語依存構造解析器に関して,CoNLL-2006\shortcite{CoNLL-2006}やCoNLL-2007\shortcite{CoNLL-2007}といった評価型SharedTaskが提案されており,言語非依存な解析アルゴリズムが多く提案されている.これらのアルゴリズムは対象言語の様々な制約---交差を許すか否か,主辞が句の先頭にあるか末尾にあるか---に適応する必要がある.この問題に対し様々な手法が提案されている.Eisner\shortcite{Eisner:1996}は文脈自由文法に基づくアルゴリズムを提案した.山田ら\shortcite{Yamada:2003},およびNivreら\shortcite{Nivre:2003,Nivre:2004}はshift-reduce法に基づくアルゴリズムを提案した.Nivreらはのちに,交差を許す言語に対応する手法を提案した\shortcite{Nivre:2005}.McDonaldら\shortcite{McDonald:2005b}はChu-Liu-Edmondsアルゴリズム(以下「CLEアルゴリズム」)\shortcite{Chu:1965,Edmonds:1967}を用いた,最大全域木の探索に基づく手法を提案した.多くの日本語係り受け解析器は入力として文節列を想定している.日本語の書き言葉の係り受け構造に関する制約は他の言語よりも強く,文節単位には左から右にしか係らず,係り受け関係は非交差であるという制約を仮定することが多い.図\ref{fig_jpsen}は日本語の係り受け構造の例である.ここで係り受け関係は,係り元から係り先に向かう矢印で表される.文(a)は文(b)と似ているが,両者の構文構造は異なる.特に「彼は」と「食べない」に関して,(a)は直接係り受け関係にあるのに対して,(b)ではそうなっていない.この構文構造の違いは意味的にも,肉を食べない人物が誰であるかという違いとして現れている.\begin{figure}[b]\begin{center}\includegraphics{15-5ia8f1.eps}\end{center}\caption{日本語文の係り受け構造の例}\label{fig_jpsen}\end{figure}日本語係り受け解析では,機械学習器を用いた決定的解析アルゴリズムによる手法が,確率モデルを用いた,CKY法等の文脈自由文法の解析アルゴリズムによる手法よりも高精度の解析を実現している.工藤ら\shortcite{Kudo:2002}はチャンキングの段階適用(cascadedchunking,以下「CCアルゴリズム」)を日本語係り受け解析に適用した.颯々野\shortcite{Sassano:2004}はShift-Reduce法に基づいた時間計算量$O(n)$のアルゴリズム(以下「SRアルゴリズム」)を提案している.これらの決定的解析アルゴリズムは入力文を先頭から末尾に向かって走査し,係り先と思われる文節が見つかるとその時点でそこに掛けてしまい,それより遠くの文節は見ないので,近くの文節に係りやすいという傾向がある.\ref{sec:exp_acc}節で述べるように,我々はCLEアルゴリズムを日本語係り受け解析に適用した実験を行ったが,その精度は決定的解析手法に比べて同等あるいは劣っていた.実際CLEアルゴリズムは,左から右にしか係らないかつ非交差という日本語の制約に合っていない.まず全ての係り関係の矢印は左から右に向かうので,各ステップにおいて係り受け木にサイクルができることはない.加えて,CLEアルゴリズムは交差を許す係り受け解析を意図しているので,日本語の解析の際には非交差のチェックをするステップを追加しなければならない.工藤ら\shortcite{Kudo:2005j}は候補間の相対的な係りやすさ(選択選好性)に基づいたモデルを提案した.このモデルでは係り先候補集合から最尤候補を選択する問題を,係り元との選択選好性が最大の候補を選択する問題として定式化しており,京大コーパスVersion3.0に対して最も高い精度を達成している\footnote{ただし京大コーパスVersion2.0に対しては,颯々野の手法が最高精度を達成している.相対モデルと颯々野手法を同じデータで比べた報告はない.}.決定的手法においては候補間の相対的な係りやすさを考慮することはせず,単に注目している係り元文節と係り先候補文節が係り受け関係にあるか否かということのみを考える.また,この手法は,先に述べたCLEアルゴリズムに,左から右にのみ掛ける制約と非交差制約を導入した方法を拡張したものになっている.上にあげた手法はいずれも,係り元とある候補の係りやすさを評価する際に他の候補を参照していない\footnote{手法によっては係り元や候補に係っている文節や,周辺の文節の情報を素性として使用しているものもあるが,アクションの選択に重要な役割を果たす文節がこれらの素性によって参照される場所にあるとは限らない.}.これに対し内元ら\shortcite{Uchimoto:2000}は,(係り元,係り先候補)の二文節が係るか否かではなく,二文節の間に正解係り先がある・その候補に係る・その候補を越えた先に正解係り先がある,の3クラスとして学習し,解析時には各候補を正解と仮定した場合の確率が最大の候補を係り先として選択する確率モデルを提案している.また,金山ら\shortcite{Kanayama:2000}はHPSGによって係り先候補を絞り込み,さらに,三つ以下の候補のみを考慮して係り受け確率を推定する手法を提案している.本稿では,飯田ら\shortcite{Iida:2003}が照応解析に用いたトーナメントモデルを日本語係り受け解析に適用したモデルを提案する.同時に係り元と二つの係り先候補文節を提示して対決させるという一対一の対戦をステップラダートーナメント状に組み上げ,最尤係り先候補を決定するモデルである.2節ではどのようにしてトーナメントモデルを日本語係り受け解析に適用するかについて説明する.3節ではトーナメントモデルの性質について関連研究と比較しながら説明する.4節では評価実験の結果を示す.5節では我々の現在の仕事および今後の課題を示し,6章で本研究をまとめる.
V10N05-07
カスタマサービスとして,ユーザから製品の使用方法等についての質問を受けるコールセンターの需要が増している.しかし,新製品の開発のサイクルが早くなり,ユーザからの質問の応対に次々に新しい知識が必要となり,応対するオペレータにとっては,複雑な質問へすばやく的確に応答することが困難な状況にある.オペレータは,過酷な業務のため定着率が低く,企業にとっても,レベルの高いオペレータを継続して維持することは,人件費や教育などのコストがかかり,問題となっている.本稿では,ユーザが自ら問題解決できるような,対話的ナビゲーションシステムを実現する基礎技術を開発することにより,コールセンターのオペレータ業務の負荷を軽減することを目的とする.通常のコールセンターでは,オペレータがユーザとのやり取りによって質問応答の要約文をあらかじめ作成しておく(図\ref{fig:call}\,(a)).Web上の質問応答システムでは,これをデータベース化したものをユーザの質問文のマッチング対象に用いる(図\ref{fig:call}\,(b)).ユーザはオペレータの介入なしに質問を入力し,応答を得ることができる.\begin{figure}[ht]\begin{center}\epsfile{file=figure/fig1.eps,scale=0.5}\caption{コールセンター(a)とWeb上の質問応答システム(b)}\label{fig:call}\end{center}\end{figure}このようなWeb上の質問応答システムを用いて,所望の応答結果を速やかに得るために必要なナビゲーション技術の新しい提案を行なう.パソコン関連の疑問に答える,既存のWeb上の質問応答システムから収集したデータによると,ユーザが入力する質問文(端末からの入力文)は,平均20.8文字と短いため,この質問文を用いて,一度で適切な質問と応答の要約文にマッチングすることは稀である.そこで,必要に応じてシステムがユーザに適切なキータームの追加を促すことで,必要な条件を補いながら質問の要約文とのマッチングを行ない,適切な応答の要約文を引き出す必要がある.しかしながら,このようなナビゲーションにおいては,ユーザに追加を促したキータームがどれだけ有効に機能したかどうかがわからない,といった評価上の問題がある.これらのキータームの補いの問題と,評価上の問題を解決するために,本稿では以下の手法を用いた.\begin{itemize}\itemまず,34,736件の質問の要約文から300件を無作為に抽出し,ユーザが初期に入力するような質問文(以下,初期質問文と呼ぶ)を人手で作成した.この初期質問文を初期入力として要約文とのマッチングを行なった.\item次に,システム側がユーザに対して適切なキータームの追加を促し,新たに作成した質問文(以下,二次質問文と呼ぶ)を入力として,再度,要約文とのマッチングを行なった.\itemマッチングの結果,初期質問文を作成する際の元になった質問の要約文が出力結果として得られた場合に,ユーザが問題を解決したとする仮説を立てた.この仮説に基づき,ユーザが問題解決できたか否かという評価を行なった.\end{itemize}ユーザにどのようなキータームの追加を促すべきかをシステム側が判定する方式として,サクセスファクタ分析方式を用いた.これは,ユーザの質問文と蓄積している質問の要約文とのマッチングが成功したものから一定の基準によってキータームを変更して結果を評価し,マッチングの精度に大きな影響を及ぼすものをルール化し,質問文にキータームを追加する方式である.本論文の第\ref{sec:2}\,章では,Web上の質問応答システムとコールセンターの現状のデータを具体的に例示し,初期質問文作成の意義やその作成方法について述べる.第\ref{sec:3}\,章では,従来行なわれてきた質問応答の関連研究を概観し,本研究の位置付けを明確にする.第\ref{sec:4}\,章では,実験と評価の方法について述べる.第\ref{sec:5}\,章では,サクセスファクタ分析方式の詳細と,それを用いた実験結果を述べ,本方式が対話的ナビゲーションに極めて有効であることを示す.
V17N01-11
筆者らは,1990年,自然言語処理のための解析辞書の日本語表記の揺れを管理することから始め,1995年に同義語辞書の初版を発行した.その後,用語の意味関係を含むシソーラスのパッケージを発売し,現在6版を重ねている.1年間に20,000語程度を追加していて,420,000語に達している.これまでのシソーラスは,主として,情報検索のキーワードを選択するための支援ツールとして開発されてきた.登録されている用語は該当する分野の専門用語が主体で,さらに品詞は名詞だけであった.そのため,情報検索を越えて,文書整理や統計処理などのために必要な構文解析や用語の標準化など,自然言語処理に利用することは難しかった.筆者らのシソーラスは,自然言語処理を目的とした一般語を主とするシソーラスである.いわゆる名詞だけでなく,動詞,形容詞,形容動詞,副詞,代名詞,擬態語さらに慣用句までを登録している.これまでのシソーラスでは,作成者の考え方で分類してあった.使用者は,その分類基準に従ってたどって探さなければならなかった.また紙面の物理的な制約もあって意味空間を1次元的に整理してあった.本来意味分類は多次元空間のはずで,筆者らのシソーラスでは,複数の観点で多次元的に分類してある.また,メール整理に代表されるような文書整理のために,時事的な用語や省略語も積極的に登録している.送り仮名や訳語などの差異による異表記語も網羅的に収集した.自然言語処理で使うことを目的としているため,テレビなどから収集した新語や,構文解析で発見した新語を登録している.用語間の意味関係として,広義—狭義(上位—下位)関係,関連関係および同義—反義関係を持っている.流動的に変化する用語の意味および用語間関係への対応とコスト・パフォーマンスの観点から,トップダウン方式ではなく,ボトムアップ方式で開発した.一般語を主体としているが,他の専門シソーラスと併合もできる.以下,(第2章)用語の収集とシソーラスの構造,(第3章)用語同士の意味関係,(第4章)パッケージソフトの機能について順次述べる.
V21N05-02
本論文では,語義曖昧性解消(WordSenseDisambiguation,WSD)の領域適応に対して,共変量シフト下の学習を試みる.共変量シフト下の学習では確率密度比を重みとした重み付き学習を行うが,WSDのタスクでは算出される確率密度比が小さくなる傾向がある.ここではソース領域のコーパスとターゲット領域のコーパスとを合わせたコーパスをソース領域のコーパスと見なすことで,この問題に対処する.なお本手法はターゲット領域のデータにラベル付けしないため,教師なし領域適応手法に分類される.WSDは文中の多義語の語義を識別するタスクである.通常,あるコーパス$S$から対象単語の用例を取り出し,その用例中の対象単語の語義を付与した訓練データを作成し,そこからSVM等の分類器を学習することでWSDを解決する.ここで学習した分類器を適用する用例がコーパス$S$とは異なるコーパス$T$内のものである場合,学習した分類器の精度が悪い場合がある.これが領域適応の問題であり,自然言語処理ではWSD以外にも様々なタスクで問題となるため,近年,活発に研究されている\cite{da-book,mori,kamishima}.今,対象単語$w$の用例を${\bmx}$,$w$の語義の集合を$C$とする.${\bmx}$内の$w$の語義が$c\inC$である確率を$P(c|{\bmx})$とおくと,WSDは$\arg\max_{c\inC}P(c|{\bmx})$を求めることで解決できる.領域適応では,コーパス$S$(ソース領域)から得られた訓練データを用いて,$P(c|{\bmx})$を推定するので,得られるのは$S$上の条件付き分布$P_S(c|{\bmx})$であるが,識別の対象はコーパス$T$(ターゲット領域)内のデータであるため必要とされるのは$T$上の条件付き分布$P_T(c|{\bmx})$である.このため領域適応の問題は$P_S(c|{\bmx})\neP_T(c|{\bmx})$から生じているように見えるが,用例${\bmx}$がどのような領域で現れたとしても,その用例${\bmx}$内の対象単語$w$の語義が変化するとは考えづらい.このため$P_S(c|{\bmx})=P_T(c|{\bmx})$と考えられる.$P_S(c|{\bmx})=P_T(c|{\bmx})$が成立しているなら,$P_T(c|{\bmx})$の代わりに$P_S(c|{\bmx})$を用いて識別すればよいと思われるが,この場合,識別の精度が悪いことが多い.これは$P_S({\bmx})\neP_T({\bmx})$から生じている.$P_S(c|{\bmx})=P_T(c|{\bmx})$かつ$P_S({\bmx})\neP_T({\bmx})$という仮定は共変量シフトと呼ばれる\cite{sugiyama-book}.自然言語処理の多くの領域適応のタスクは共変量シフトが成立していると考えられる\cite{da-book}.ソース領域のコーパス$S$から得られる訓練データを$D=\{({\bmx_i},c_i)\}_{i=1}^N$とおく.一般に共変量シフト下の学習では確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$を重みとした以下の重み付き対数尤度を最大にするパラメータ${\bm\theta}$を求めることで,$P_T(c|{\bmx})$を構築する.\[\sum_{i=1}^{N}w({\bmx_i})\logP_T(c_i|{\bmx_i};{\bm\theta})\]共変量シフト下の学習の要は確率密度比$w({\bmx})$の算出であるが,その方法は大きく2つに分類できる.1つは$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求め,その比を求めることで$w({\bmx})$を求める方法である.もう1つは$w({\bmx})$を直接モデル化する方法である\cite{sugiyama-2010}.ただしどちらの方法をとっても,WSDの領域適応に対しては,求められる値が低くなる傾向がある.この問題に対しては,確率密度比を$p$乗($0<p<1$)したり\cite{sugiyama-2006-09-05},相対確率密度比\cite{yamada2011relative}を使うなど,求めた確率密度比を上方に修正する手法が存在する\footnote{これらの手法は正確には確率密度比を1に近づける手法であるが,多くの場合,確率密度比は1以下の値であるため,ここではこれらの手法も確率密度比を上方に修正する手法と呼ぶことにする.}.本論文では$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求める手法を用いる際に,ターゲット領域のコーパスとソース領域のコーパスを合わせたコーパスを,新たにソース領域のコーパス$S$と見なして確率密度比を求めることを提案する.提案手法は必ずしも確率密度比を上方に修正する訳ではないが,多くの場合,この処理により$P_S({\bmx})$の値が減少し,結果的に$w({\bmx})$の値が増加する.なお,本論文で利用する手法は,ターゲット領域のラベル付きデータを利用しないために,教師なし領域適応手法に属する.当然,ターゲット領域のラベル付きデータを利用する教師付き領域適応手法を用いる方が,WSDの識別精度は高くなる.しかし本論文では教師なし領域適応手法を扱う.理由は3つある.1つ目は,教師なし領域適応手法はラベル付けするコストがないという大きな長所があるからである.2つ目は,共変量シフト下の学習はターゲット領域のラベル付きデータを利用しない設定になっているからである.3つ目は,WSDの領域適応の場合,対象単語毎に領域間距離が異なり,コーパスの領域が異なっていても,領域適応の問題が生じていないケースも多いからである.領域適応の問題が生じている,いないの問題を考察していくには,ターゲット領域のラベル付きデータを利用しない教師なし領域適応手法の方が適している.実験では現代日本語書き言葉均衡コーパス(BalancedCorpusofContemporaryWrittenJapanese,BCCWJ\cite{bccwj})における3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を利用する.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれらのコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.すべての領域である程度の頻度が存在する多義語16単語を対象にして,WSDの領域適応の実験を行う.領域適応としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りが存在する.結果$16\times6=96$通りのWSDの領域適応の問題に対して実験を行った.その結果,提案手法による重み付けの効果を確認できた.また,従来手法はベースラインよりも低い値となったが,これは多くのWSDの教師なし領域適応では負の転移が生じていない,言い換えれば実際には領域適応の問題になっていないことから生じていると考えられる.考察では負の転移と重み付けとの関連,また負の転移と関連の深いMisleadingデータの存在と重み付けとの関連を中心に議論した.
V17N01-06
質問応答,情報抽出,複数文章要約などの応用では,テキスト間の含意関係や因果関係を理解することが有益である.例えば,動詞「洗う」と動詞句「きれいになる」の間には,「何かを洗うという行為の結果としてその何かがきれいになる」という因果関係を考えることができる.本論文では,このような述語または述語句で表現される事態と事態の間にある関係を大規模にかつ機械的に獲得する問題について述べる.事態表現間の因果関係,時間関係,含意関係等を機械的に獲得する研究がいくつか存在する~\cite[etc.]{lin:01,inui:DS03,chklovski,torisawa:NAACL,pekar:06,zanzotto:06,abe:08}.事態間関係の獲得を目的とする研究では,事態を表現する述語(または述語句)の間でどの項が共有されているのかを捉えるということが重要である.例えば,述語「洗う」と述語句「きれいになる」の因果関係は次にように表現できる.\begin{quotation}($X$を)\emph{洗う}$\rightarrow_{因果関係}$($X$が)\emph{きれいになる}\end{quotation}この$X$は述語「洗う」のヲ格と述語句「きれいになる」のガ格が共有されていることを表している.関係$R$を満たす述語対は次のように一般化して表現することができる.\begin{quotation}($X項_{1}$)$\emph{述語}_1$$\rightarrow_{R}$($X項_{2}$)$\emph{述語}_2$\end{quotation}$\emph{述語}_i$は自然言語における述語(または述語句)であり,典型的には動詞または形容詞である.$X$はある述語の項ともう一つの述語の項が共有されていることを表している.我々の目的は,(a)特定の関係を満たす述語対を見付けだし(\emph{述語対獲得}),(b)述語対の間で共有されている項を特定する(\emph{共有項同定})ことである.事態間関係の獲得を目的とする研究は既にいくつかあるが,どの研究も関係述語対獲得または共有項同定の片方の問題のみを対象としており,両方の問題を対象とした研究はない.我々が提案する手法は,目的が異なる2種類の手法を段階的に適用して述語間関係を獲得する手法である.
V08N04-05
音声認識技術の進歩により,最近は文章入力を音声で行うことも可能になって来ている.文章を音声で入力する場合には,音声を文字化すると失われてしまう韻律のような情報も言語処理に利用できる可能性がある.韻律には,多様な情報が含まれているが,その中で構文情報に着目した研究がこれまでにいくつか行われている.\cite{UYE}は読み上げ文のポーズやイントネーションを観察し,それらが文の構文構造と関連を持つことを明らかにした.この結果は,もし韻律情報が得られるならば,それを構文解析のための知識源の一つとして利用できる可能性を示唆している.\cite{KOM}は韻律情報を用いて隣接句間の結合度を定義し,結合度の弱い句境界から順に分割して行くことにより,構文木に似た構造が得られることを示した.また,\cite{SEK}は隣接句間の修飾関係の有無の判定に韻律情報が有効であることを報告している.これらの研究は,韻律と構文構造の関係を取り扱ってはいるが,実際に韻律情報を通常の意味の構文解析に利用したものではない.これに対して,\cite{EGU}は5種類の韻律的特徴量を取り上げ,それらと係り受け距離の統計的な関係を,総ペナルティ最小化法\cite{OZE-1}を用いて係り受け解析を行う際のペナルティ関数に組み込むことにより,韻律情報を用いない場合に比べて解析精度が向上することを見い出した.そして,そこで取り上げられた韻律的特徴量の中では文節間のポーズ長が最も有効であることを報告している.その後,同じ枠組みの中で韻律的特徴量の種類を増やし,また対象話者数を拡大して,特徴量の有効な組合せを求める研究や,特徴量の話者独立性に関する検討が行われている\cite{KOU-1,OZE-2,OZE-3,OZE-4}.総ペナルティ最小化法を用いたこれら一連の研究においては,韻律的特徴量が正規分布することが仮定されている.しかし,実際の分布は正規分布とはかなり異なっている.したがって,特徴量の分布を近似するための分布関数を改良することにより,韻律情報をより有効に利用できる可能性がある.また,これまでに取り上げられていない韻律的特徴量の中に有効性の高いものがある可能性もある.そこで本研究では,まず韻律的特徴量,特に最も有効とされるポーズ長に対する分布関数の改良を試みた.また,韻律的特徴量を従来の12種類\cite{OZE-4}から24種類に増やし,日本語読み上げ文の係り受け解析におけるそれらの有効性を実験的に検討した\cite{HIR}.
V30N02-02
label{sec:introduction}単語は異なる時期間や分野間で異なる意味や用法を持つことがある.例えば,\textit{meat}は古英語で「食べ物全般」を意味していたが,近代英語では「動物の肉」という狭い意味で使われるようになった.また,\textit{interface}は一般的に「物体の表面」という意味で使われるが,情報科学の分野では「利用者とコンピュータを結びつけるシステム」という意味で使われている.上記のような時期間や分野間で意味や用法の変わる単語を自動で検出する手法は,言語学・社会学や辞書学だけでなく,情報検索においても有用である\cite{kutuzov-etal-2018-diachronic}.本稿ではこれ以降,時期の違いによる意味の変化に焦点を絞って言及する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia1f1.pdf}\end{center}\hangcaption{1900年代から1990年代にかけて,学習した単語\textit{coach}のベクトルとその周辺単語のベクトルが変化する様子.}\label{fig:difference}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%近年,このような変化を検出する方法として,単語を周辺単語との共起情報を基にベクトルで表現する単語分散表現が広く用いられている.例として,1900年代と1990年代における単語\textit{coach}の単語ベクトルとその周辺単語ベクトルを図\ref{fig:difference}に示す.図より,\textit{coach}の周辺単語が乗り物関連からスポーツ関連に変化していることがわかる.最終的な意味変化の度合いについては,学習した単語ベクトル$\overrightarrow{coach}_{1900s}$と$\overrightarrow{coach}_{1990s}$のユークリッド距離や余弦類似度などの尺度を用いられることが多い.上記のように異なる時期の文書情報を考慮した単語分散表現は,各時期で独立に訓練した単語分散表現に対応づけを行うなどをして獲得する\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic}.対応づけによる手法は主にWord2Vec\cite{mikolov-etal-2013-efficient}などの文脈を考慮しない単語分散表現を対象としているため,実装が容易で計算コストも低いことから,大規模な計算資源を持たない研究者でも導入することができる\cite{sommerauer-fokkens-2019-conceptual,zimmermann-2019-studying}.しかし,対応づけによる手法は「各文書で学習したベクトル空間を線形変換で対応づけできる」という強い仮定をおいている.そこで近年,対応づけを回避する2つの手法が提案された\cite{yao-etal-2018-dynamic,dubossarsky-etal-2019-time}.%が,現在も以下の問題が残されている.まず,\citeA{yao-etal-2018-dynamic}は各時期の単語分散表現を同時に学習するDynamicWordEmbeddingsを提案した.この手法は回転行列などによる対応づけが不要だが,%後\ref{subsubsec:non-contextual-word-embed}節式\eqref{eqn:dynamic-embed}に示すように,設定に敏感な3つのハイパーパラメータが存在するため,膨大な組み合わせ数の設定から最適なハイパーパラメータを探索する必要がある.次に,\citeA{dubossarsky-etal-2019-time}は全ての時期の文書をただ1つの文書とみなし,事前に用意したリストに載っている単語だけ時期を区別してベクトルを学習するTemporalReferencingを提案した.この手法は1つに結合した文書で単語分散表現を学習すれば良いことから非常に導入しやすいが,リストに載っていない単語は文書間で変化しないと仮定しているため,事前によく選定された対象単語のリストを用意する必要がある.また,時期を考慮した単語分散表現を獲得する手法だけでなく,それらを用いた分析においてもいくつかの問題がある.1つ目は,時期を考慮した単語分散表現を獲得する手法が数多く提案されているにも関わらず,それらの性能の定量的な比較があまり行われていないことである\cite{schlechtweg-etal-2019-wind,shoemark-etal-2019-room,tsakalidis-liakata-2020-sequential,schlechtweg-etal-2020-semeval}.これは主に評価で対象の文書間で意味の変化した単語を用意する必要があるためである.比較が行われていても,多くが英語やドイツ語などのヨーロッパ圏の言語を対象としており,複数の言語での比較は少ない\cite{schlechtweg-etal-2020-semeval}.2つ目は,意味変化が自明な単語に絞った定性的な分析が多いことである.特に英語においては,「陽気な」という意味から「同性愛者」という意味を持つようになった\textit{gay}という単語についての分析が多く\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic,hu-etal-2019-diachronic},意味の変化が自明でない単語に注目されることは少ない\cite{gonen-etal-2020-simple}.そこで本研究では,これらの問題に対して以下のように取り組む.まず,手法の問題を解消するために,\citeA{dubossarsky-etal-2019-time}のTemporalReferencingに対して2つの拡張を行う.1つ目は,単語ベクトルの学習の際に選定した語彙に含まれるすべての単語を対象単語とすることである.このように拡張することで,対象単語のリストを事前に用意する必要が無くなり,リストに載っていない単語の意味が変化することによる分析漏れなども避けることができる.また,単語ベクトルの変化量から,自明でない単語の意味変化を検出することが可能になる.2つ目は,周辺単語ベクトルも文書間での変化を考慮することである.一般的に動的な単語分散表現\cite{yao-etal-2018-dynamic}でない限り,学習した単語分散表現の対象単語ベクトルは文書間で獲得されるが,一緒に学習される周辺単語ベクトルは文書間で固定されているか,対応が取れていないことが多い\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic,dubossarsky-etal-2019-time}.そこで,DynamicWordEmbeddingsのように周辺単語ベクトルも文書間での変化を考慮するような拡張を行う.次に,実験において,複数の言語での性能比較および網羅的な分析を行った.定量的な分析においては,各手法で意味変化した単語の検出性能を評価した.SemEval-2020Task1\cite{schlechtweg-etal-2020-semeval}で4つの言語において提案した拡張方法による効果を検証した後に,英語と日本語の2つの言語において先行研究と提案した拡張手法の性能を比較した.先行研究との比較の際には,意味変化を検出する性能だけでなく,単語分散表現の学習に要する計算時間も比較した.定性的な分析においては,先行研究によって意味の変化が報告されている単語だけでなく,意味の変化が自明でない単語についても,網羅的な分析を行った.本稿の構成を示す.第\ref{sec:relatedwork}節では時期を考慮した単語分散表現を獲得するための先行研究および既存手法の問題点について述べる.第\ref{sec:proposal}節では既存手法の問題点を解消するための拡張方法を提案する.第\ref{sec:preexperiment}節と第\ref{sec:experiment}節では提案手法と既存手法について,意味変化した単語の検出性能を比較する.第\ref{sec:qualitative}節では各手法が検出した単語や,意味変化の種類・傾向について分析を行う.最後に,第\ref{sec:conclusion}節で本研究の結論を述べる\footnote{実験に使用したコードは以下で公開している.\url{https://github.com/a1da4/pmi-semantic-difference}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V12N05-08
モンゴル語においては,自立語の語幹に対して格を表す語尾や動詞の活用を表す語尾・接続助詞等が結合したものが句を構成し,ヨーロッパ言語と同様に,空白で区切られた句の列により文を構成する.ここで,モンゴル語の形態素解析の問題について考えると,この問題は,モンゴル語文中の名詞句や動詞句が与えられて,それらの句を名詞あるいは動詞の語幹と語尾とに分解することであると言える.この処理を実現するためには,名詞あるいは動詞の語幹に語尾が接続する際の接続可能性や語変形の規則性を明らかにする必要がある.また,例えば,他の言語からモンゴル語への機械翻訳などにおいては,名詞あるいは動詞の語幹および語尾が与えられると,その語幹・語尾の組に対する語変形や活用の過程を規則化し,名詞句あるいは動詞句を生成する機構を確立する必要がある.ところが,現時点で利用可能なモンゴル語の言語資源としては,数千語程度の規模の単語について語幹情報が登録された電子辞書,および,ウェブ上で収集可能な新聞記事等の電子テキストが存在するにすぎない.また,モンゴル語に関して,名詞あるいは動詞の語幹と語尾の組から名詞句あるいは動詞句を生成するための言語知識や規則なども全く整備されていない.また,そのような句生成のための言語知識・規則を運用すれば,モンゴル語の句の形態素解析を行なうこともできるが,現時点では,モンゴル語文の形態素解析を実用的規模で行なうことも実現されていない.本論文では,現時点で利用可能なモンゴル語の言語資源,特に,名詞・動詞の語幹のリスト,および,名詞・動詞に接続する語尾のリストから,モンゴル語の名詞句・動詞句を生成する手法を提案する.具体的には,名詞・動詞の語幹に語尾が接続する際の音韻論的・形態論的制約を整備し,語幹・語尾の語形変化の規則を作成する.評価実験の結果において,名詞句の場合は98\%程度,動詞句の場合は100\%という性能で,生成された句の中に正しい句候補が含まれるという結果が得られた.さらに,本論文では,この句生成に基づいて,モンゴル語の名詞句・動詞句の形態素解析を行なう手法を提案する.具体的には,まず,既存のモンゴル語辞書から名詞語幹および動詞語幹を人手で抽出する.次に,これらの語幹に対して,モンゴル語名詞句・動詞句生成規則を適用することにより,語幹・語尾の組から句を生成するための語形変化テーブルを作成する.そして,この語形変化テーブルを参照することにより,与えられた名詞句・動詞句を形態素解析して語幹・語尾に分離する.評価実験の結果においては,語形変化テーブルに登録されている句については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれることが確認できた.以下,まず,\ref{sec:mon-gra}~節においては,モンゴル語の文法の概要について述べる.\ref{scn:vowelagreement}~節においては,名詞・動詞の語幹に語尾が接続する際に,名詞・動詞に含まれる母音字と,語尾に含まれる母音字の間で満たされるべき接続制約について述べ,\ref{scn:suffixagreement}~節においては,名詞・動詞の語幹に語尾が接続する際の語形変化規則について述べる.\ref{sec:phrase-gene}~節においては,モンゴル語句生成の評価実験について,\ref{sec:morph-analysis}~節においては,モンゴル語形態素解析の評価実験について,それぞれ述べる.また,\ref{sec:related}~節においては,関連研究について述べる.
V31N03-07
\NERは,ユーザーが関心のあるクラスに対応する文中のスパンを検出するタスクである.\NERの代表的なSharedTaskとして知られるCoNLL2003SharedTask\cite{\CoNLLPaper}では,\dq{PER}(人物名),\dq{LOC}(場所名),\dq{ORG}(組織名),\dq{MISC}(その他)のカテゴリに対応する文中のスパンの検出を目的としている.例えば,``EUrejectsGermancalltoboycottBritishlamb.''という文章を入力とし,``EU'',``German'',``British''という文中のスパンをそれが所属する``LOC'',``MISC'',``MISC''というクラスとともに検出する.\NERは質問応答\cite{khalid_impact_2008},関係抽出\cite{liu_neural_2018},エンティティ・リンキング\cite{sun_modeling_2015},対話システム\cite{bowden_slugnerds_2018}など様々なタスクで応用されており,自然言語処理において基本的で重要なタスクである.関心のあるクラスは\Userによって異なる.例えば政治を取材するジャーナリストであれば,人物名の中でも政治家名に関心があり,組織名の中でも政党に関心があるだろう.映画の好きな\Userであれば,人物名の中でも映画監督に関心があり,組織名の中でも映画スタジオに関心があるだろう.しかし,従来の\NER手法では,\Userの関心に応じて異なる多様なカテゴリに柔軟に対応できない.なぜなら従来の\NERシステムは,カテゴリがあらかじめ定義されたデータセットを用いて構築されるため,\Userにとって関心のあるカテゴリがあらかじめ定義されたデータセットが存在しなければ,それらのスパンは抽出できないからである.各\Userが関心のあるカテゴリを人手でアノテーションすることもできるが,これには膨大なコストと時間がかかってしまう.先行研究\cite{\PaperGraphCut}は,\WSLNERを大規模な\THESAURUSと組み合わせることで\Userの要求に柔軟に対応する\NERを実現する方法を提案した.\WSLNERとは,\Userが関心のあるカテゴリ(以下,\FOCUSCAT)に属する語句のリストを活用し,リストに含まれる語句の出現箇所を擬似的に固有表現と見做すこと(\DictionaryMatch)で\PseudoDataを作成し,この\PseudoDataに基づく学習によって,\FOCUSCATに属する固有表現の抽出を目指す方法である.例えば先の映画好きの例を考えてみる.この場合,大規模な\THESAURUSである\DBpediaから,映画監督\footnote{\url{https://dbpedia.org/ontology/MovieDirector}}・映画スタジオ\footnote{\url{https://dbpedia.org/class/yago/WikicatFilmStudios}}の情報を\FOCUSCATとして活用する.これらカテゴリの\KNOWNTERM(例:スティーブン・スピルバーグ,黒澤明,20世紀フォックス映画,東宝スタジオ)が含まれる文章の\KNOWNTERMのスパンを擬似的な教師データとして活用することで,映画監督や映画スタジオを検出できる\NERモデルを作ることができる.しかし,\PseudoDataには通常の\SupervisedDataとの乖離がある.多義性のある\KNOWNTERMに対して文脈を考慮せずクラスを付与してしまうことでラベル誤りが生じてしまう(\PseudoFalsePositive).他にも,\KNOWNTERMを対象に行われる\DictionaryMatchでは,\THESAURUSには載っていない\UNKNOWNTERMを取り逃してしまう(\PseudoFalseNegative).例えば,映画監督であるがお笑い芸人でもある北野武(ビートたけし)がお笑い芸人として取り扱われている文脈に対しても映画監督としてラベル付けしてしまったり,未知の,すなわち,\THESAURUSには載っていない映画監督や映画スタジオが自動アノテーションから漏れてしまうといった問題が生ずる.弱教師あり学習の先行研究\cite{\PaperBOND,zhu_weaker_2023,peng_distantly_2019}では,この2種類の\PseudoDataの誤りに頑健な学習法を提案してきた.\PseudoFalsePositiveに対しては,擬似正例の各カテゴリに含まれる他の語句と乖離した語句を本来は負例であるとみなす学習法で,その学習における影響を抑制する.例えば,映画監督を\FOCUSCATとして「北野武(ビートたけし)」が含まれる文脈を学習する際に,「ビートたけしは漫才コンビ:ツービートとして活躍したお笑い芸人である。」というようなお笑い芸人として出ている文脈が本来は負例であるとみなして\PseudoFalsePositiveの影響を抑制することができる.\PseudoFalseNegativeに対しては,擬似負例のうち擬似正例に近い語句を本来は正例であるとみなす学習法で,その学習における影響を抑制する.例えば,化学物質名を\FOCUSCATとし,物質名全体は\THESAURUSに載っていなくても,その構成要素は\THESAURUSに載っているような場合(例:4-ブロモ-1,1,1-トリフルオロブタンは\THESAURUSに載っていないが,1,1,1-トリフルオロブタンは\THESAURUSに載っているような場合)の影響を抑制できる.他にも,明らかに\FOCUSCATであると判断できる文脈の場合(例:映画監督を\FOCUSCATとした際に\THESAURUSに載っていない人名が「...はアカデミー監督賞を受賞した。」という文脈に現れる場合)に対して本来は正例であるとみなすことで\PseudoFalseNegativeの影響を抑制することができる.\PseudoFalsePositiveに頑健な学習法は有用だが副作用もある.特に,表層形や文脈が\FOCUSCATの他の語句から乖離しているが\FOCUSCATに含まれる場合に,\FOCUSCATから取り除いてしまうという副作用が生じうる.例えば,出現文脈が\FOCUSCATの他の語句から乖離している例として,\FOCUSCATが哺乳類の際のクジラがあげられる.クジラは哺乳類という人間や犬などの陸上生物が多いカテゴリに属している.しかし,水中で生活しており魚類などと共通の文脈に出現する.そのため,クジラが哺乳類に含まれる他の語句から乖離しているとして哺乳類から除外されてしまう危険性がある.このことは,\FOCUSCATの典型例と乖離した特徴をもつ\FOCUSCATの下位クラスの情報が欠けていることが一因である,と考えられる.例えば,哺乳類を\FOCUSCATとした際のクジラの事例であれば,哺乳類の下位カテゴリであり,クジラやイルカが属す鯨類の情報がカテゴリの判断に必要である,と考えられる.\PseudoFalseNegativeに頑健な学習法も有用だが副作用もある.特に,表層形や文脈が\FOCUSCATの例に類似しているが\FOCUSCATに含まれない場合に,\FOCUSCATに含まれる,と誤って判断してしまうという副作用が生じうる.例えば,表層形が類似している事例として\FOCUSCATを甲殻類としたときのカブトガニを考えることができる.カブトガニはその表層形の類似度によって,本来はクモ・サソリなどと同じ鋏角類であるにも関わらず,エビやカニの属す甲殻類に含まれる,と誤って判断される危険性がある.この副作用は,排他的なクラス,特に\FOCUSCATの持つ特徴と類似する排他的なクラスの情報が欠けていることが一因であると考えられる.例えば,\FOCUSCATを甲殻類とした際のカブトガニの事例であれば,甲殻類の表層形と類似したカブトガニ目やその上位カテゴリであり甲殻類と排他的な鋏角類の情報がカテゴリの判断に必要であると考えられる.以上のように,先行研究の\WSL手法は,\PseudoFalsePositiveや\PseudoFalseNegativeに頑健な学習法を通じて,PrecisionやRecallを\PseudoAnnotationより改善できる.一方で,過小な\FOCUSCATの予測や過剰な\FOCUSCATの予測につながる副作用があり,それらの副作用を抑制するには,\FOCUSCATの下位クラスや,排他的なクラス及びその下位クラスの活用が必要であることを述べてきた.そこで本研究では,\THESAURUSの階層的な分類項目全てを\PseudoDataに活用した\WSLNER手法を提案する.具体的には,\ALLCATを\DictionaryMatchに活用したマルチラベル固有表現抽出の\PseudoDataに基づき,\ALLCATを認識可能な弱教師あり学習モデルを訓練する.その後,この\ALLCATを認識可能な弱教師あり学習モデルで\FOCUSCATを予測させる,という手法である.この提案手法によって,\PseudoDataに追加した\FOCUSCATの下位クラスの情報を活用しながら,過小な\FOCUSCATの予測,という\PseudoFalsePositiveに頑健な学習法の副作用を抑制することを目指す.それとともに,\PseudoDataに追加した排他的なクラスの情報を活用しながら,過剰な\FOCUSCAT予測,という\PseudoFalseNegativeに頑健な学習法の副作用も抑制することを目指す.本論文では,実験を通じて\PROPOSALの優位性を明らかにした.具体的には\DBpedia\cite{\DBpediaPaper},\UMLS\cite{\UMLSPaper}を\PseudoAnnotationに活用し,\CoNLL\cite{\CoNLLPaper},\MedMentions\cite{\MedMentionsPaper}を検証用データセットとして利用した実験を行った.提案手法は\FOCUSCATのみを\PseudoAnnotationに利用するベースラインに比べてF1値において,約5~8\%の改善を達成することができた.さらに本論文では,この提案手法の改善がどれくらいの量の\SupervisedData追加に匹敵するのかを明らかにした.具体的には訓練事例数を制限した\SLとの比較実験から提案手法には\FOCUSCATのみを\PseudoAnnotationに利用するベースラインと比べて140~450文程度の\SupervisedData追加に相当する効果が有ることが分かった.\DBpedia,\UMLSの\PseudoAnnotationへの活用方法も含めて,本論文の実験で利用したコードの全てをGitHubにて公開した\footnote{\url{https://github.com/fracivilization/thesaurus-based-ner}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V28N01-11
\label{sec:intro}テキスト分類\cite{shen-2018}や機械翻訳\cite{qi-2018}など,多くの自然言語処理タスクにおいて単語分散表現は基盤となる言語資源である.しかし,広く利用されているGloVe\cite{pennington-2014}やfastText\cite{bojanowski-2017}などの単語分散表現はモデルサイズが非常に大きく,モバイル機器などメモリ容量が制限された環境での自然言語処理アプリケーションの開発において,大きな問題となっている.例えば,$200$万単語にそれぞれ$300$次元のベクトルを割り当てるfastText\footnote{\url{https://fasttext.cc/docs/en/english-vectors.html}}は,約$2$GBの記憶領域を必要とする.語彙サイズを限定することで単語分散表現のモデルサイズを削減できるが,これはシステムが処理できない未知語を増大させるため,アプリケーションの性能を著しく悪化させてしまう.未知語の発生を避けつつ単語分散表現のモデルサイズを削減するために,文字\cite{pinter-2017,kim-2018}や文字N-gram\cite{zhao-2018,sasaki-2019}の情報から単語分散表現を推定する研究が行われてきた.単語のタイプ数に比べて文字や文字N-gramのタイプ数は著しく少ないため,これらの部分文字列\footnote{本研究では,文字や文字N-gramのことを部分文字列と呼ぶ.}から単語分散表現を高精度に推定できれば,アプリケーションの性能を保持したままモデルサイズを削減できる.これらの先行研究では,図~\ref{fig:reconstruction}に示すように,部分文字列の分散表現から単語の分散表現を構成し,学習済みの単語分散表現を模倣する.これらの手法では,学習済み単語分散表現および部分文字列という対象単語から得られる局所的な情報のみを扱ってきた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1and2\begin{figure}[b]\noindent\begin{minipage}[b]{202pt}\includegraphics{28-1ia10f1.pdf}\caption{部分文字列に基づく単語分散表現の模倣}\label{fig:reconstruction}\end{minipage}\hfill\begin{minipage}[b]{202pt}\includegraphics{28-1ia10f2.pdf}\caption{提案手法における損失計算}\label{fig:loss}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,図~\ref{fig:loss}に示すように,対象単語以外の単語も手がかりとして利用する大域的な訓練によって,単語分散表現の模倣性能を改善する.似た意味を持つ単語同士が似たベクトルを持つという単語分散表現の特性を考慮して,対象単語の学習済み単語分散表現を模倣する通常の訓練に加えて,対象単語と他の単語との類似度分布を模倣する訓練も行うマルチタスク学習を実施する.我々の提案手法は,部分文字列の単位や模倣モデルの構造に依存せず,部分文字列から単語分散表現を模倣する全ての既存手法に容易に適用できる.単語間の意味的類似度推定タスク\cite{faruqui-2014}における評価実験の結果,本手法の適用によって全ての先行研究における単語分散表現の模倣性能が改善した.特に,文字N-gramから単語分散表現を模倣する自己注意機構\cite{sasaki-2019}に本手法を適用することによって,fastTextの$97$\%の品質を保持しつつモデルサイズを$74$MB($30$分の$1$)に削減できた.また,モデルサイズを$12$MB($200$分の$1$)に削減した状態でも,元のfastTextの$87$\%の品質を保つことができた.さらに,テキスト分類タスク\cite{conneau-2018}の評価においても,$12$MBの設定で元のfastTextの$90$\%程度の品質を保持できることを確認した.%==================================================
V14N05-04
本論文では,ランダムな初期値を使ってNon-negativeMatrixFactorization(NMF)による文書クラスタリングを複数回行い,それらの結果をアンサンブルすることで,より精度\footnote{本論文において用いる「(クラスタリングの)精度」とは,クラスタリングの正解率(accuracy)と同義である.つまり,ここでは暗にクラスタリングの正解があることを想定しており,得られた結果がどの程度正解に近いかという尺度の意味で「(クラスタリングの)精度」という用語を用いる.}の高い文書クラスタリングの実現を目指す.複数のクラスタリング結果を統合する部分で,従来のハイパーグラフの代わりに重み付きハイパーグラフを用いることが特徴である.文書クラスタリングは,文書の集合に対して,知的な処理を行う基本的な処理であり,その重要性は明らかである.例えばテキストマイニングの分野では,文書クラスタリングは基本的な構成要素であるし\cite{TextMiningBook},情報検索の分野では,検索結果の概観を視覚化するために検索された文書の集合をクラスタリングする研究が盛んに行われている\cite{hearst96reexamining}\cite{leuski01evaluating}\cite{zeng-learning}\cite{kummamuruwww2004}.文書クラスタリングでは,まずデータとなる文書をベクトルで表現する.通常,bagofwordsのモデルを用い,次にTF-IDFなどによって次元の重みを調整する.このようにして作成されたベクトルは高次元かつスパースになるために,文書クラスタリングではクラスタリング処理を行う前に主成分分析や特異値分解などの次元縮約の手法を用いることが行われる\cite{boley99document}\cite{deerwester90indexing}.次元縮約により高次元のベクトルが構造を保った状態で低次元で表現されるため,クラスタリング処理の速度や精度が向上する.NMFは次元縮約の手法を応用したクラスタリング手法である\cite{nmf}.今,クラスタリング対象の\(m\)次元で表現された\(n\)個の文書を\(m\)行\(n\)列の索引語文書行列\(X\)で表す.目的とするクラスタの数が\(k\)である場合,NMFでは\(X\)を以下のような行列\(U\)と\(V^{T}\)に分解する.そして行列\(V\)がクラスタリング結果に対応する.\[X=UV^{T}\]ここで\(U\)は\(m\)行\(k\)列,\(V\)は\(n\)行\(k\)列である.\(V^{T}\)は\(V\)の転置を表す.また\(U\)と\(V\)の要素は非負である.与えられた\(X\)と\(k\)から,ある繰り返し処理により\(U\)と\(V\)を得ることができる\cite{lee00algorithms}.しかしこの繰り返し処理は局所最適解にしか収束しない.つまりNMFでは,与える初期値によって得られるクラスタリング結果が異なるという問題がある.通常は適当な初期値を与える実験を複数回行い,それらから得た複数個のクラスタリング結果の中で\(X\)と\(UV^{T}\)の差\footnote{差は\(||X-UV^{T}||_{F}\)により測定する.}が最小のもの,つまり\(X\)の分解の精度が最も高いものを選ぶ.しかし分解の精度は,直接的にはクラスタリングの精度を意味してはいないため,最も精度の高いクラスタリング結果を選択できる保証がない.ここではNMFの分解の精度を用いて,複数個のクラスタリング結果から最終的なクラスタリング結果を選ぶのではなく,複数個のクラスタリング結果をアンサンブルさせて,より精度の高いクラスタリング結果を導くアンサンブルクラスタリングを試みる.一般にアンサンブルクラスタリングの処理は2段階に分けられる.まず第1段で複数個のクラスタリング結果を生成し,次の第2段でそれらを組み合わせ,最終的なクラスタリング結果を導く.複数個のクラスタリング結果を生成する手法としては,k-meansの初期値を変化させたり\cite{fred02data},ランダムプロジェクションにより利用する特徴を変化させたり\cite{fern_clustensem03},``weakpartition''を生成する研究などがある\cite{topchy03combining}.また複数個のクラスタリング結果を組み合わせる手法としては,データ間の類似度を新たに構築する手法\cite{fred02data}や,データの表すベクトルを新たに構築する手法\cite{strehl02}などがある.ここでは後者の手法を改良して用いる.論文\cite{strehl02}では,データの表すベクトルを新たに構築するために,複数個のクラスタリング結果から,データセットに対するハイパーグラフを作成する.このハイパーグラフは,データセットが表す行列に相当する.このハイパーグラフで表現されたデータに対してクラスタリングを行い,最終的なクラスタリング結果を得る.ただしこのハイパーグラフではエッジの重みが0か1のバイナリ値である.ハイパーグラフが行列に相当すると考えると,エッジの重みの意味は同じクラスタに属する度合いとなり,バイナリ値で表すよりも非負の実数で表す方がより適切と考えられる.そこで本論文ではハイパーグラフのエッジの重みに非負の実数値を与える.具体的には,NMFのクラスタリング結果が行列\(V\)で得られ,同じクラスタに属する度合いが\(V\)から直接求められることを利用する.またここでは,この実数値の重みを付けたハイパーグラフを重み付きハイパーグラフと呼ぶことにする.実験ではk-means,NMF,通常のハイパーグラフを用いたアンサンブル手法および重み付きハイパーグラフを用いたアンサンブル手法(本手法)の各クラスタリング結果を比較し,本手法の有効性を示す.
V14N03-09
インターネットが普及し,ユビキタス社会が浸透するなか,人間がコンピュータと対話する機会も増加する傾向にある.これまでの対話システムは言語情報のみを扱い,そのパラ言語情報を扱うことは少ないため,人間同士の対話と比較すると,コンピュータとの対話ではコンピュータが得る人間の情報は少ない.本研究では音声の言語表現の特徴と音響的特徴から推定可能な感情を検出するために,感情の程度による言語表現の特徴および音響的変化を分析し,コンピュータと人間とのインタラクションにおける人間の感情および態度表出を捉えることを目指す.それにより,両者の円滑なコミュニケーションを図ることを目的としている.将来の具体的応用対象として考えられる対話を想定し,コールセンターなどへの自動音声応答システムにおける認識性能に対する不満からくる「苛立ち」や,真意が伝わらないことに対する「腹立ち」の表現などに着目して,ユーザの内的状態をその発話の言語表現および音響的な特徴から推定する可能性について検討する.本報告では,感情表現を含む音声データの収録方法および感情情報を付与する主観評価法および言語表現・音響的特徴をパラメータとした決定木による「怒り」の感情の程度を推定する実験手法に関して述べ,今後の分析手法の指針について報告する.
V24N01-06
社会学においては,職業や産業データは性別や年齢などと同様に重要な属性であり,正確を期する必要がある.このため,国勢調査でも行われているように,自由回答で収集したものを研究者自身が職業・産業分類コードに変換する場合が多い\cite{Hara84}.この作業は「職業・産業コーディング」とよばれるが,国内の社会学において標準的に用いられる職業コード(SSM職業小分類コード)は約200個,産業コード(SSM産業大分類コード)は約20個あり\cite{SSM95},分類すべきクラスの数が非常に多く,コード化のルールも複雑なことから,特に大規模調査の場合は多大な労力や時間を要するという深刻な問題を抱えている\cite{Seiyama04}.また,多人数で長期間にわたる作業となるため,コーディング結果における一貫性の問題も指摘されている\cite{Todoroki_et_al13}.そこで,これらの問題を軽減する目的で,職業・産業コーディングを自動化するシステムの開発を行ってきた.最初に開発したシステムは,SSM職業・産業分類コードを決定するルールを生成し,これに基づいて自動コーディングを行った結果をCSV形式のファイルにするもので\cite{Takahashi00},主として大規模調査に利用された\cite{Takahashi02b,Takahashi03,Takahashi_et_al05b}.その後,自動コーディングの精度向上のため,自動化のアルゴリズムを,文書分類において分類性能の高さで評価されている機械学習のサポートベクターマシン(SVM)\cite{Joachims98,Sebastiani02}とルールベース手法を組み合わせた手法に改良した\cite{Takahashi_et_al05a,Takahashi_et_al05c}.また,社会学を取り巻く環境の変化に対応するために,ILOにより定められた国際標準コードに変換するシステムも開発した\cite{Takahashi08,Takahashi11}.さらに,いずれのシステムにも,自動コーディングの結果に対してシステムの確信度を付与する機能を追加した\cite{Takahashi_et_al13a}.この結果,自動化システムは職業・産業コーディングにおける前述の2つの問題解決に大きく貢献するものとして,社会調査分野において評価を得た\cite{Hara13}.自動化システムはまた,職業・産業コーディングの実施方法も変えた.以前は,コーダは調査票を見ながらコーディングを行い,その結果を調査票に書き入れていた.しかし,システムの開発以降,依頼者が作成したデータファイルを開発者が事前に処理し,コーダはその結果付きのファイルを画面に表示してコーディングを行い,結果を入力するようになった.この方法は,自動化システムを利用する場合の標準的な方法となった.現在,自動化システムは整理統合され,東京大学社会科学研究所附属社会調査・データアーカイブ研究センター(CSRDA)から,Webを通じた利用サービスとして試行提供されている\footnote{http://csrda.iss.u-tokyo.ac.jp/joint/autocode/}\cite{Takahashi_et_al14}.利用希望者は,自動コーディングを希望するコードの種類を明記した書類をCSRDAに申請し,受理されれば,所定の形式の入力ファイルを指定された場所にアップロードすることができ,その場所から,CSRDAのシステム運用担当者が処理した結果をダウンロードできる仕組みとなっている.これにより,一般の研究者や研究グループが開発者を通すことなく,自由にシステムを利用することができるようになった.海外においても職業・産業コーディングは実施されており,負担の大きい作業であるとの認識から,コンピュータによる支援方法が検討されている.しかし,単なる単語のマッチング以外のものは,韓国と米国における2例のみである.いずれもルールベース手法が中心で,機械学習は適用されていない.また,以上に述べた自動化システムと大きく異なるのは,職業や産業コードそのものを重要な変数として分析に用いる社会学の研究を支援するものではない点である.本稿では,現在公開中の自動化システム(以下,本システムと略す)について報告する.本システムにおける新規性は次の3つである.\begin{itemize}\item分類精度向上のために,ルールベース手法と機械学習の組み合わせ手法の適用\itemコーダの作業負担軽減のため,第1位に予測された候補に対する確信度を付与\item国内標準コードだけでなく,近年利用が高まっている国際標準コードにも対応\end{itemize}本システムは,CSRDAに置かれたのを機に,だれもが容易に操作することができるように,ユーザーインターフェイスを改良した.これは,システムの運用担当者が社会学研究者であることと,短期間で交代する状況を考慮したためである.以下では,最初に自動化システムのこれまでの変遷について補足説明を行った後,本システムについて述べる.そこでは,実際に本システムを利用する社会学研究者による評価も報告する.また,CSRDAにおける本システムの利用方法についても述べる.
V07N04-05
\label{sec:introduction}様々な状況で利用される機械翻訳システムが直面する現実の文には,システムが持つ言語知識では適切に解析できない様々な言語現象が現れる.このような現象を含む文は,人間にとっても適格でない(が理解できる)絶対的不適格文と,人間にとっては適格であるがシステムの処理能力を越えている相対的不適格文に分けられるが,両者を適切に扱える頑健なシステムが求められている\cite{Matsumoto94}.絶対的不適格現象のうち語句の欠落や主語述語の不一致などの構文レベルの現象へ対処することを目的とした手法としては,部分解析法\cite{Imaichi95}や制約緩和法\cite{Mellish89,KatoTsuneaki95}などがこれまでに提案されている.他方,我々は,相対的不適格文への対処に焦点を当て,機械翻訳システムの翻訳品質の向上を目指している.以降本稿では紛れない限り,相対的不適格文を単に不適格文と呼ぶ.構文レベルの不適格文すなわちシステムの解析能力を越えた構文構造を持つ文を扱うための代表的な手法には,1)対象テキストの分野を限定した専用文法を用いる手法\cite{Aizawa96}や,2)原文を書き換える手法\cite{Kim94,Narita94,Sagawa94,Shirai95,KatoTerumasa97}などがある.また,後者の手法に関連して,原文とそれを人間が書き換えた結果とを比較した差分から原文書き換え規則を学習する手法\cite{Yamaguchi98}も示されている.(1)と(2)の手法の設計方針は,システムの既存部分の変更を避け,新たな処理系を追加するという点で共通しているが,以下の点で異なっている.前者の手法では,システムの既存部分による処理は,可能な場合には,新たに追加した処理系による処理によって代行される.すなわち,新たな処理系による解析(分野依存の専用文法による解析)が成功した場合には,既存の処理系による解析(汎用文法による解析)は実行されない.これに対して後者では,新たに追加した処理系は既存部分の前処理系と位置付けられる.原文書き換えによる手法は,書き換えを構文解析の前に行なうか後に行なうかによって二つに分けられる.構文解析後に行なう場合\cite{Sagawa94,Shirai95}\footnote{白井らは,文献\cite{Shirai98}で,一部の書き換えを構文解析前に行なうように拡張を施しているが,書き換え規則の多くは構文解析後に適用される.}は,構文情報が得られているため,構文解析前すなわち形態素解析後に行なう場合に比べてより翻訳品質の高いシステムが実現できる可能性がある.しかし,実用的な機械翻訳システムにおいて原文書き換えの実行を構文解析終了後まで遅らせることは,処理効率の点では望ましくない.なぜならば,入力文全体を覆う構文構造が生成できず構文解析に失敗すること\footnote{以降本稿では,入力文全体を覆う構文構造が生成できないことを構文解析の失敗と呼ぶ.}が判明するのは構文解析規則をすべて適用し終えた後であるが,実用的な機械翻訳システムでは構文解析規則の規模は非常に大きくなっており,構文解析に要する時間は解析全体に要する時間の大半を占めているため,構文解析後の書き換えは処理の効率化につながりにくいからである.これに対して,構文解析が失敗しないようにあらかじめ原文を書き換えれば,すべての構文解析規則の適用が試みられる可能性は低くなるため,システム全体として効率の良い処理が実現できる.また,構文情報が(ほとんど)得られていない時点で行なう書き換えがどの程度有効であるかを明らかにすることも重要である.このような観点から本稿では,形態素解析で得られる情報と通常よりも簡単な構文解析\footnote{具体的には,\ref{sec:preedit:ruleformat:condition}\,節で述べる手続きによる処理を指す.}で得られる情報に基づいて原文書き換えを構文解析前に行なうことによって翻訳品質と共に翻訳速度を改善する手法を示す.以下,本稿で扱う書き換え対象を\ref{sec:object}\,節で整理する.次に\ref{sec:preedit}\,節で原文書き換え系の処理枠組について説明する.\ref{sec:experiment}\,節では,原文書き換え系を既存の英日機械翻訳システムに組み込み,システムの性能向上にどの程度貢献できるかを実験によって検証する.\ref{sec:relatedworks}\,節では関連研究との比較を行なう.
V06N06-05
本稿は、語彙的結束性(lexicalcohesion)という文章一般に見られる現象に基づき話題の階層構成を認定する手法を提案する。この手法は、任意の大きさの話題を選択的取り出せること、大きな話題と小さな話題との対応関係を認定できること、文書の種類によらない汎用性を持つことの3つの要件を満たすよう考案した手法である。本研究の最終的な目標は、数十頁の文書に対して、1〜2頁程度の要約を自動作成することにある。これは、白書などの長い文書に関し、オンラインで閲覧中の利用者のナビゲートや、簡潔な調査レポートの作成支援などに用いることを意図している\cite{JFJ-V49N6P434}。長い文書に対して簡潔な要約を作成するには、適切な粒度の話題を文書から抽出する技術が必要になる。白書のような数十頁におよぶ報告書の場合、骨子をひとまず把握しておこうとしている利用者にとっては、1/4程度にまとめた通常の要約ではなく、1頁で主要な話題の骨子のみを取り上げた要約の方が利用価値が高い。このように原文に比べて極端に短い要約は、要約に取り込む話題を厳選しないと作成できない。例えば、新聞記事からの重要文抜粋実験\cite{NL-117-17}によれば、それぞれの話題に対して最低3文程度(120〜150文字程度)抜粋しないと内容の把握が難しい\footnote{見出し1文に本文から抜粋した2〜3文を提示すれば、雑談の話題として提供できる程度には理解できた気になれる。}。よって、1,500字程度(A4判1頁程度)の要約を作成するのであれば、要約対象の文書から10個程度以下の主要な話題を厳選して抽出しなければならない。従来の自動要約研究の多くは、新聞の社説や論文など、全体を貫く論旨の流れのはっきりした文章を対象にしてきた(例えば\cite{J78-D-II-N3P511})。あるいは、複数記事をまとめて要約する研究(例えば\cite{NL-114-7})であっても、何らかの一貫した流れ(ストーリーや事件の経過など)に沿う文章を対象にしてきた点に変わりはない。言い換えれば、ひとつの談話の流れに沿った文章を対象に、要約研究が進められてきたといえる。しかし、白書などの長い文書では、文書全体を貫く論旨の流れが存在するとは限らず、ある論旨に沿って記述された複数の文章が、緩やかな関連性の下に並べ置かれていることが多い。このような集合的文書を1頁程度に要約するためには、大局的な話題構成を認定して、要約に取り入れるべき話題を選択/抽出する必要がある。すなわち、原文書の部分を抜粋して要約を作成するのであれば、それぞれの談話の単位(修辞的な文章構造)を要約する技術に加え、個々の談話の単位を包含する大きな話題のまとまりを認定する技術と、要約に取り入れるべき適切な話題のまとまりを選択する技術の2つが必要となる。また、特に長い文書では、大きな話題まとまりの下に談話の単位が並ぶという2レベルの構造だけでなく、大きな話題から従来技術で要約可能な大きさのまとまりまで、色々なレベルで選択できるよう、多層構造の話題のまとまり、すなわち、話題の階層構成が望まれる。談話の単位を包含する大きな話題のまとまりは、文書の論理構造(章や節など)と深く関連するので、その認定を書式解析(例えば\cite{J76-D-II-N9P2042,NLC94-17})に\break\vspace*{-1mm}より行うことも考えられる。しかしながら、書式解析処理は、処理対象を限定すれば容易に実現できるものの、汎用性に問題がある。つまり、書式はある種類の文書における約束事であるため、文書の種類毎に経験的な規則を用意しなければならないという問題点がある。また、同じ章の下に並んでいる節であっても、節間の関連の程度が大きく異なる場合もあり、文書の論理構造と話題の階層構成とは必ずしも一致しない。このような場合にも的確に(大きな)話題のまとまりを認定できる手法が望まれる。そこで、本稿では、書式解析などより一般性の高い語彙的結束性という言語現象に基づき、談話の単位を包含するような話題の階層構成の認定を試みる。語彙的結束性とは、文章中の関連箇所に見られる、同一語彙あるいは関連語彙の出現による結び付きのことであり、\cite{Haliday.M-76}で、英文において文章らしさ(texture)をもたらす要因の1つとして提示されたものである。国語学においても、\cite{Nagano.M-86}が、主語(話題)の連鎖、陳述(表現態度)の連鎖、主要語句の連鎖というよく似た言語現象を、日本語の文章構造をとらえる主要な観点として、文や段落の連接、統括の2つとともにあげている。語彙的結束性に基づき文章構造を認定する手法は、文章中の関連語彙の連鎖を追跡するタイプと、文章中の同一語彙(または関連語彙)の出現密度を測定するタイプの2つに大別される。連鎖追跡タイプの研究には、\cite{CL-V17N1P21}を筆頭に、\cite{NLC93-8,NL-102-4,PNLP-2-P325}などがあり、出現密度測定タイプの研究には、提案手法のベースである\cite{PACL-32-P9}の手法\footnote{\cite{PACL-32-P9}には連鎖追跡タイプの手法も別法として示されている。}や、\cite{NLC93-7,NLC93-63}などがある。また、情報検索の立場から、文書中の要素を元の文書構造とは異なる構造にクラスタリングする研究\cite{HYPERTEXT96-P53}なども、出現密度測定タイプの一種としてとらえられる。これらの研究は、\cite{CL-V17N1P21}中の基礎的な検討と文書分類的研究\cite{HYPERTEXT96-P53}を除けば、話題の転換点だけを求める手法であり、本稿とは異なり、話題の階層構成までは認定対象としていない。また、認定対象の話題のまとまりは、基本的には数段落程度の大きさであり、大きくても新聞の1記事程度である。すなわち、本稿のように複数の記事を包含するようなまとまりを語彙的結束性だけを使って認定することは、試みられていなかった。また、連鎖追跡タイプの語彙的結束性による話題境界の認定技術と、接続詞や文末のモダリティに関わる表現などの手がかりとする文章構造解析技術\cite[など]{NL-78-15,J78-D-II-N3P511,LIS-N31P25}を併用して、大域的な構造の取り扱いを狙った研究\cite{JNLP-V5N1P59}もある。ただし、現時点で提示されているのは、語彙的結束性を修辞的な関係の大域的な制約として用いる手法だけなので、修辞的関係が働く範囲内の文章構造までしか原理的に認定できない\footnote{\cite{JNLP-V5N1P59}では、「話題レベル」の構造の上に、導入・展開・結論という役割に関する「論証レベル」という構造も想定している。実際にこのような機能構造を解析するためには、\cite{LIS-N30P1}が論じているような、分野に依存した類型的構成の知識(スキーマ)などが必要になると考えられる。}。本稿では、同一語彙の繰り返しだけを手がかりにするという単純な手法で、章・節レベルの大きさのまとまりまで認定可能かを確かめることをひとつのテーマとする。また、同一語彙の繰り返しだけを手がかりにする方法で話題の階層関係が認定できるかをもうひとつのテーマとする。以下、\ref{sect:Hearst法}章で\cite{PACL-32-P9}の手法によって章・節レベルの大きな話題の境界位置の認定を試みた実験の結果を示し、問題点を指摘する。次に、指摘した問題点を解決するために考案した提案手法の詳細を\ref{sect:話題構成認定手法}章で説明し、その評価実験を\ref{sect:評価実験}章で報告する。
V28N02-14
ニューラル機械翻訳(NeuralMachineTranslation,以下NMT)では,予め指定した語彙に基づいて計算を行うため,翻訳時の入力文に低頻度語や未知語が現れると翻訳精度が低下する.このような語彙の問題に対処するため,バイトペア符号化(BytePairEncoding,以下BPE)\cite{sennrich-etal-2016-neural}やユニグラム言語モデル\cite{kudo-2018-subword}などによるサブワード分割が現在広く用いられている.BPEによるサブワード分割は事前トークナイズを要すのに対し,ユニグラム言語モデルは生文からサブワード列に直接分割するため,日本語や中国語といった分かち書きされない言語においても形態素解析器を必要としない.BPEやユニグラム言語モデルはどちらもデータ圧縮に基づいたアルゴリズムであり,語彙量の上限を制約としたトークン数の最小化\footnote{語彙量を減らす方法としては文字単位に分割するという方法も考えられるが,文字単位の分割を用いると文全体のトークン数が増える(系列長が長くなる)ため,系列長に依存した計算量が増加する.サブワード分割によって,語彙量の上限を制約として満たす中でトークン数を最小化することで,トレードオフの関係にある語彙量とトークン数(系列長)の問題に対処しているといえる.}を行っている.しかしながら,これらの分割法は対訳関係を考慮せず,各言語ごとにサブワード分割を学習するため,機械翻訳タスクに適したサブワード分割になるとは限らない.例として,日英翻訳において``設計法(designmethod)''と``計測装置(measurementinstrument)''という複合語が訓練データに多数出現する場合を考える.従来のサブワード分割法はデータ圧縮技術に基づきトークン数の最小化を行うため,これらの複合語が1つのサブワード単位に結合される.したがって,これらの訓練データは``計測法''という語の翻訳の学習に寄与しない.本論文では対訳情報からサブワード列を得る新たなサブワード分割法を提案する.提案法は,分かち書きされない言語を含む翻訳の性能を改善するため,ユニグラム言語モデル\cite{kudo-2018-subword}による分割に基づいたサブワード列を得る.具体的に,提案法は,ユニグラム言語モデルによって得られる原言語文と目的言語文それぞれの分割候補から,お互いのトークン数の差が小さくなるサブワード列を選択する方法である.提案法では,ユニグラム言語モデルから得られる原言語文と目的言語文の最尤解を比較し,トークン数が多い言語側のトークン数に近づけるように,より細かい単位のサブワード分割を複数分割候補から選択する.提案法を用いることで,原言語文と目的言語文のトークン数の差が小さくなり,言語間でトークンが1対1に対応付けされやすくなる.そのため,従来のサブワード分割法よりNMTに適した分割が得られることが期待される.提案法では日本語文と英語文のサブワードトークン数を近づけるため,課題例として挙げた``設計法''と``計測装置''という複合語は``設計(design)''と``法(method)'',``計測(measurement)''と``装置(instrument)'',それぞれ2トークンに分解される\footnote{なお,提案法はサブワード辞書自体を変えるものではないことに注意されたい.例えば,課題例の``設計法''の場合,``設計法'',``設計'',``法''のいずれもサブワード辞書内に含まれており,従来法では``設計法''が選択されるのに対して,提案法では``設計''と``法''が選択される.}.これにより,NMTにおいて,``設計''と``法'',``計測''と``装置''というそれぞれのサブワードの訓練データが``計測法''という語の翻訳にも活用できるようになると考えられる.ここで,本手法は原言語文と目的言語文の分割数を比較しながらそれぞれの文を分割するため,原言語文単体では分割ができない.NMTの訓練時には原言語文と目的言語文の分割数を比較するために対訳コーパスを用いることができるが,翻訳時には原言語文に対応する目的言語文が存在しないため,原言語文を分割することができない.そこで提案法では,対訳コーパスを用いてサブワード分割した訓練データの原言語文からLSTMベースのサブワード分割器を予め学習し,翻訳時において訓練時の分割に近い候補を選択することで,訓練時と翻訳時の分割のギャップを小さくして翻訳性能の低下を防ぐ.具体的には,翻訳時に,学習したLSTMベースのサブワード分割器により原言語文のサブワード分割候補をリランキングし,スコアが最大となる分割を選択する.WATAsianScientificPaperExcerptCorpus(以下,ASPEC)\cite{aspec}英日・日英・英中・中英翻訳タスクとWMT14英独・独英翻訳タスクにおいて,従来法と提案法を用いた翻訳性能を比較したところ,TransformerNMTモデルの性能が最大0.81BLEUポイント改善した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V10N03-03
単語の意味を判別し,多義曖昧性を解消する技術(語義曖昧性解消;WordSenseDisambiguation)は,機械翻訳や情報検索,意味・構文解析など,自然言語処理のあらゆる分野において必要である\cite{ide:98}.これは一般に,テキストに現れた単語の語義が辞書などであらかじめ与えられた複数の語義のいずれに該当するかを判定する分類問題である.ただし,曖昧性解消をどのような応用に利用するかに依存して,どのような語義分類を与えるのが適切であるかは異なる.そして,分類の粒度や語義定義の与え方に応じて,最適な分類手法は異なってくることが予想される.それゆえ,具体的な応用に沿った語義曖昧性解消課題を設定して解決手法を研究することは有用である.2001年に開催された語義曖昧性解消国際コンテスト{\scSenseval}-2\footnote{cf.\{\tthttp://www.sle.sharp.co.uk/senseval2/}}\では,このような考え方に基づき,日本語翻訳タスクが実施された.本タスクは,日本語単語(対象語)320語に対して,1語あたり約20の日英対訳用例を収集した翻訳メモリを語義分類の定義と見なし,新たな日本語表現に含まれる対象語の語義を翻訳メモリ中の適切な用例を選択することで分類する課題である\cite{kurohashi:01a}.各対象語の語義分類は,翻訳メモリとして収集された日英の表現対であるが,語義を決定している重要な要因が日本語表現に現れる周辺文脈であるとみなすことにより単言語の語義曖昧性解消課題と捉えることができる.この種の問題は,一般に,正解タグを付与した訓練データを用い,各分類に属する表現例の対象語周辺文脈の性質を機械学習によって獲得することで解決できる.正解タグを付与した訓練データの作成のために,さまざまな全自動/半自動の訓練データ構築手法が提案されてきた\cite{dagan:94,yarowsky:95,karov:98}.しかし,本タスクには,以下のような問題点がある.\begin{itemize}\item翻訳メモリ中には,各語義分類ごとに1つしか正解例が与えられない.また,正解タグを付与した訓練データも(タスクの配布物としては)与えられない.\item翻訳メモリ中の表現は,(人間の感覚で)最低限語義を分別できる程度の,たかだか数語の文脈しか持たない.\item語義分類間の違いがしばしば非常に微妙である.\end{itemize}本タスクでは,上記の問題点のため,正解例を機械的に拡張するための手がかりは乏しく,これを精度よく行うことは難しい.このため,我々は,入力表現を直接的に翻訳メモリの各日本語表現と比較して表現間の類似度を計算し,用例を選択する手法を採用した.我々は,情報抽出や文書分類の分野でよく用いられるベクタ空間モデル(VectorSpaceModel)による文書間比較\cite{salton:83}の手法に着目し,Sch\"utzeによる,目的語の近傍に出現する単語の情報をベクタ(共起ベクタ)に表現して共起ベクタ間の余弦値を類似度の尺度とする手法\cite{schutze:97}を用いた.ベクタ空間モデルでは,通常,ベクタの各次元に文書中の単語の出現(真偽値)や出現頻度を配置する.しかし本タスクへの適用を考えた場合,翻訳メモリの日本語表現中に対象語と共に出現する単語は非常に少ないため,単純に表層的な単語出現情報を用いるだけでは表現の特徴(表現間の差異)をつかみきれない.またデータスパースネスの影響も深刻である.そこで我々は,単語の代わりに対象語周辺の各種素性({\bf文脈素性})の出現を各次元に配置したベクタ({\bf文脈素性ベクタ})を用いることとした.各文脈素性は,対象語周辺文脈を特徴づける要素を表すもので,表現中に出現する内容語の\begin{enumerate}\item[a)]対象語との構文的/位置的関係(構文解析の結果から獲得)\\例:対象語にガ格でかかる,対象語より前にある,任意の位置,\ldots\item[b)]形態的/意味的属性(形態素解析の結果とシソーラスから獲得)\\例:標準形=\hspace*{-.25zw}「子供」,品詞=\hspace*{-.25zw}「名詞」,シソーラス上の意味コード=\hspace*{-.25zw}「名\kern0pt86」,\ldots\end{enumerate}を任意に組み合わせたものである.これは,対象語周辺の単語の出現をさまざまな抽象化のレベルで捉えることを意味する.これにより,文脈素性ベクタは,表現間の微妙な違いを表現すると同時に,適応範囲の広い文脈特徴量となることが期待できる.本稿では,まず\ref{sec:task}~章で{\scSenseval}-2日本語翻訳タスクの特徴について述べるとともに,本タスクを解決するシステムの設計方針について述べる.次に\ref{sec:method}~章で文脈素性ベクタを用いた翻訳選択の手法を説明する.そして\ref{sec:senseval_result}~章で{\scSenseval}-2参加システムの諸元と,コンテスト参加結果を紹介する.\ref{sec:vector_component}~章では,\ref{sec:method}~章で各種文脈素性の翻訳選択性能への寄与について調査した結果を報告し,考察を行う.最後に\ref{sec:conclusion}~章でまとめと今後の課題について述べる.
V28N01-02
\label{sec:introduction}質問応答は,自然言語処理における重要な問題の一つであり,古くから研究が続けられている.特に近年では,SQuAD\shortcite{rajpurkar_squad:_2016,rajpurkar_know_2018},MSMARCO\shortcite{bajaj_ms_2016},RACE\shortcite{lai_race:_2017}といった読解型質問応答の大規模なデータセットが多数提案され,それと同時に,深層ニューラルネットワークを用いた質問応答の手法が数多く提案されている.また,これらのデータセットは,質問応答の研究だけではなく,近年盛んに研究がなされているBERT\shortcite{devlin_bert:_2019}をはじめとする大規模言語モデルの言語理解能力を測るベンチマークとしても利用されている.これらのデータセットが対象とする読解型質問応答のタスクでは,質問文と関連文書の両方が与えられ,システムは関連文書から正解の可能性が高い文字列を抜き出すことによって質問に解答する.すなわち,システムは解答時に知識源となる関連文書をその場で参照することが許されるので,質問に答えるためには文書の「読み方」を学習できれば良く,質問で問われる事実知識そのものをモデリングする必要はない.そのため,読解型質問応答の問題設定は,人間にとっての「持ち込み可能(open-book)試験」に喩えられる.一方,システムが文書を「どう読むか」を問う読解型質問応答とは対照的に,与えられる質問について「何を知っているか」を直接問う\textbf{「クローズドブック質問応答(closed-bookQA)」}と呼ばれるタスクが近年注目されている\shortcite{roberts_how_2020}.クローズドブック質問応答では,現実の「持ち込み不可(closed-book)試験」と同様,解答時に質問文以外の情報を参照することは認められない.したがって,システム(解答者)は事前に出題範囲を十分に学習し,記憶しておくことが要求される.すなわち,クローズドブック質問応答は,あらかじめ重要な情報を知識として記憶し,与えられる質問に対して自らが保持する知識を用いて答えるという,人間の知識を用いた知的活動により近い問題設定となっている.最近では,大規模な言語モデルが事実知識をどれだけ保持しているかをクローズドブック質問応答によって評価する研究がいくつか行われている.既存の研究では,モデルの訓練可能なパラメータの数を多くしたり\shortcite{raffel_exploring_2019},モデルの構造や訓練の目的関数を工夫する\shortcite{ling_learning_2020,fevry_entities_2020}というモデル指向の方法によって,クローズドブック質問応答の性能が向上することが報告されている.特に最先端の研究では,数十億〜数百億の訓練可能なパラメータを持つ超巨大なモデルによる性能が報告されている\shortcite{roberts_how_2020}.これらの研究は,言語モデルが持つことのできる表現力や汎化能力を追究するという面で意義深い反面,モデルの訓練には大規模な計算機資源と多大なエネルギーを必要とするため,誰でも既存研究を再現でき改善を加えられるという状況からは逸脱しつつあることが懸念される\shortcite{strubell_energy_2019}.一方,モデル指向の方法とは対照的に,訓練データを工夫してモデルが持つ知識のカバー率を上げることでクローズドブック質問応答を実現するというデータ指向のアプローチも考えられる.クローズドブック質問応答の実例としてクイズを考えてみると,例えば「ジョージ・ルーカス」が答えとなるクイズ問題は,監督した作品,本人の生い立ち,家族についてなど,複数の異なる角度からの知識が問われることが予想される.しかし,モデルが予習に用いる訓練データには,考えられる多様なクイズ問題の一部しか含まれていない.そのため,訓練データに登場しない問題がテスト時に出題された際には,訓練データのみで訓練されたモデルにとっては多くの場合,解答不可能であると考えられる.このことは,正解が訓練データ中に1回もしくは数回しか出現しない,いわゆるfew-shotの事例では特に問題となる.このような問題に対して,データ指向のアプローチは,より多様な事実知識をより効率的にモデルに教えるために役立てられると考えられる.さらに,モデルの大型化に頼らずにクローズドブック質問応答を実現できれば,関連文書の検索・走査を伴う読解型質問応答システムよりも高速に利用者の質問に解答できるシステムが低コストで実現できる可能性がある.しかしながら,深層ニューラルネットワークを活用したクローズドブック質問応答の研究は歴史が浅く,データ指向のアプローチの有効性については十分に研究がされていない.本稿では,クローズドブック質問応答におけるデータ指向アプローチの有効性を実験的に調査する.具体的には,Wikipediaを知識源とした拡張データを作成し,遠距離教師あり学習によって,元の訓練データには記述されていない事実知識をモデルに教えるために利用する.モデルには事前訓練済み言語モデルのBERT\shortcite{devlin_bert:_2019}を用い,元の訓練データおよび拡張データに対してモデルをファインチューンさせる.実験では,クイズを題材にした質問応答のデータセットであるQuizbowl\shortcite{rodriguez_quizbowl:_2019}とTriviaQA\shortcite{joshi_triviaqa:_2017}を用いて,モデルのクローズドブック質問応答の性能を調査した.モデルが出力した解答の分析から,拡張データを用いて訓練されたモデルが,元の訓練データには記述されていない事実知識を問う問題に対しても正しく解答できたことがわかり,モデルが拡張データから新たな知識を学習し解答に活用できていることを示唆する結果が得られた.テストデータを用いた評価実験では,Quizbowlでは従来の最高性能を更新し,TriviaQAでは既存の強力な系列生成モデル\shortcite{roberts_how_2020}に匹敵する性能をおよそ20分の1のパラメータ数で実現した.以下では,2節でクローズドブック質問応答の関連研究について概観し,3節でタスクの定義およびデータセットについて説明する.4節で本研究の提案手法について述べ,5節で実験設定および実験結果を示す.6節でまとめと今後の展望について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2
V29N04-07
\label{sec:intro}言語と画像という二つの異なるモダリティを橋渡しする技術を確立することは,自然言語処理および画像処理の両分野において重要な目標の一つである.この目標に向けて,これまで複数のマルチモーダルタスクにおいて大きな進歩を遂げてきた.例えば,画像のキャプション生成タスク\cite{lin2014microsoft}や画像の質問応答タスク\cite{antol2015vqa,agrawal2017vqa}は,盛んに研究が行われている代表的なマルチモーダルタスクである\cite{hossain2019comprehensive,kafle2017visual,wu2017visual}.画像のキャプション生成タスクでは,入力画像の内容を短く簡潔な自然言語(キャプション)で記述することを目的とし,画像の質問応答タスクでは,自然言語で問われた画像に関する質問(文)に自然言語で回答することがタスクのゴールである.しかしながら,普段我々人間が目にする実際のマルチモーダル文書\footnote{本研究では,文書に画像が付随するデータをマルチモーダル文書と呼称する.}は,複数文および複数画像から成る場合がある.ニュース記事には取り上げている事件・イベントに関連する写真が含まれるし,料理のレシピには途中の各工程の様子が描かれた画像を載せることがある.また,Wikipedia\footnote{\url{https://www.wikipedia.org/}}の記事には人物,各国の建造物・街並み,電化製品や自動車などの人工物,草花,鉱物,化学物質など,ありとあらゆる物事が詳しく記述され,それらに関連する画像が付随する.この時,文書の適切な位置に画像が配置されることで,画像は我々人間が文書理解することを助けている.言い換えれば,我々人間は,画像と文書内の(多くの場合はその近辺の)テキストの関連性や対応関係を自然に読み取りながら文書を理解している.一方,画像のキャプション生成タスクや質問応答タスクを含む既存の多くのマルチモーダルタスクでは,タスクの定義上1事例が短文と1画像のペアで構成されるため,複数画像の対応関係や,文書レベルの長いテキスト,および,データセットのアノテーションコストの都合上多種多様な視覚的概念を扱っていない.これは,既存のマルチモーダルタスクからでは上述した人間が行う文書理解の仕方を明示的に学習させたり,既存のタスク上で学習されたモデルをそのまま上述した我々が普段目にする多様なマルチモーダル文書に適用できないことを示唆している.この問題に対処するため,我々は実際にWeb上に存在するマルチモーダル文書を対象とした新しいタスク,Image-to-TextMatching(ITeM)を提案する\footnote{本研究の内容の一部はLREC2020に採択されたものである\cite{muraoka-lrec-2020}.}.これにより実応用可能なマルチモーダルシステムを構築するための新たな研究の方向性を切り開くことが本研究の目的である.図~\ref{fig:task_overview}に提案タスクの概要を示す\footnote{\url{https://en.wikipedia.org/w/index.php?title=Headset_(audio)&oldid=899726384}}.このタスクの目標は,ある1つの入力文書と入力画像集合が与えられた時,読者の文書理解を助けるような画像の文書内における配置位置,すなわち,関連度の高い部分テキストを予測することである.このタスクを解くためには,複数文および複数画像を考慮することが要求される.それに加え,このタスクには既存のマルチモーダルタスクでは扱われていない次の3つの技術課題が含まれる.(i)文書レベルの長いテキスト,および,内在する文書構造を考慮すること.(ii)複数の画像を関連づけること.例えば,図~\ref{fig:task_overview}の最初の2つの画像は,対比しながら見ることで視覚的形状の違いを強調させつつ,対応するテキスト(``Bluetooth''セクション)を補完している.(iii)既存のマルチモーダルタスクで扱われる事前に定義された限られた種類の視覚的概念だけでなく,固有名詞を含む幅広いドメインで扱われる多様な語彙知識に対処すること.これらの技術課題を含む提案タスクによって,新聞記事の見出し生成や適切な画像選定,物語からの自動絵本生成,イベント写真からのアルバム生成など,マルチモーダル文書に関する新たな研究や応用を期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics[height=245.6pt,clip]{29-4ia6f1_org.pdf}\end{center}\caption{提案タスクの概要.英語版Wikipedia``Headset(audio)''より引用,一部改変.}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,ITeMタスクを提案するにあたり,我々はWikipediadumpから66,947文書および320,200画像からなる大規模なデータセットを低コストで機械的に構築する.Wikipediaに着目したのは,1つの記事ページを1つのマルチモーダル文書とみなすことができ,また,タスクのゴールである文書内のテキストと画像の対応関係がマークアップファイルに明示的に記述されているためである.それに加え,Wikipediaでは,様々なトピック・事柄について扱われており,さらにWikipediaのセクション構造を擬似的な文書構造(段落構造)とみなすことができる.従って,Wikipediaは上述した3つの技術課題を全て満たす言語資源である.また,構築したデータセットは,既存の単一言語からなるマルチモーダルデータセットと比べ,画像数,文書数,語彙数の観点で大規模であることを\ref{sec:dataset}節で示す.提案タスクの妥当性と難易度を調査するため,過去に既存のマルチモーダルタスクで最高精度を達成した手法(Pythia\cite{jiang2018pythia},OSCAR\cite{li2020oscar})を本タスク向けに改良を行い,評価実験を行う.実験結果から,改良した既存手法はベースラインを大幅に上回り,提案タスクを解くことができる可能性を示したものの,人間の精度に到達するには改良の余地があることも確認された.また,提案タスクを事前学習の一種とみなし,提案タスクで学習させたモデルを既存のマルチモーダルタスクでfine-tuningし,性能評価を行った.その結果,提案タスクで学習を行わなかったモデルとの明らかな差は見られなかった一方で,定量分析および定性分析により,記事内の画像数が多くなるほど,また,画像が分散して配置されている記事ほどタスクが難しくなる傾向にあることや,タスクを解くためには複数画像を同時に考慮したり画像中の物体情報を抽象化しなければならないなど,既存のタスクとは異なる側面の画像理解・言語理解能力を提案タスクによって学習・評価していることが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V09N05-06
「も,さえ,でも$\cdots$」などのとりたて詞による表現は日本語の機能語の中でも特有な一族である.言語学の角度から,この種類の品詞の意味,構文の特徴について,~\cite{teramura91,kinsui00,okutsu86,miyajima95}などの全般的な分析がある.また,日中両言語の対照の角度から,文献~\cite{wu87,ohkouchi77,yamanaka85}のような,個別のとりたて詞に関する分析もある.しかしながら,日中機械翻訳の角度からは,格助詞を対象とする研究はあるが~\cite{ren91a},とりたて詞に関する研究は,見当たらない.とりたて詞は,その意味上と構文上の多様さのために,更には中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,取立て表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文は,言語学の側の文献を参考にしながらとりたて詞に関する日中機械翻訳の方法について考察したものである.すなわち,とりたて詞により取り立てられる部分と述語部の統語的,意味的な特徴によってとりたて詞の意味の曖昧さを解消する方法を示し,さらに同じ意味的な用法でも,対応する中訳語が状況により異なる可能性があることを考慮し,中国語側で取り立てられる部分の統語的,意味的な特徴及び関係する構文特徴によって,訳語を特定するための意味解析を行った.また,とりたて詞に対応する中訳語の位置を,その訳語の文法上の位置の約束と,取り立てられる部分の構文上の成分などから特定する規則を提案した.また,これらの翻訳規則を手作業により評価した.なお,本論文では,とりたて詞として,文献~\cite{kinsui00}が挙げている「も,でも,すら,さえ,まで,だって,だけ,のみ,ばかり,しか,こそ,など,なんか,なんて,なんぞ,くらい,は」の17個のうちの「も」,「さえ」,「でも」の三つを検討の対象とした.論文の構成は次の通りである.第2章ではとりたて表現の特徴と中国語との対応関係を述べ,第3章ではとりたて表現の中国語への翻訳方式とその方式の構成の主要な内容---意味解析と語順規則を説明する.第4章では,「さえ」,「も」,「でも」の翻訳の手順を例文を用いて示す.第5章では,手作業による翻訳の評価実験と問題点の分析について述べ,第6章では論文のまとめを述べる.
V05N04-05
WWWの普及とともに多言語情報検索,とりわけ,クロス言語検索(crosslanguageinformationretrieval,CLIR)に対するニーズが高まっている.CLIRによって,例えば,日本語の検索要求(キュエリ)によって英語ドキュメントの検索が可能となる.CLIRは,キュエリもしくは検索対象となるドキュメントの翻訳が必要となるので,IRよりも複雑な処理が必要となる\cite{hull97}.CLIRの多くは,キュエリを翻訳した後,情報検索を行なう.キュエリの各タームには,訳語としての曖昧性が存在するため,CLIRの精度は単言語でのIRよりも低い.特に日英間では,機械翻訳の訳語選択と同様に,対訳の訳語候補が多いので困難である\cite{yamabana96}.機械翻訳の訳語選択手法として,コンパラブルコーパスでの単語の文内共起頻度に基づいたDoubleMAXimize(DMAX)法が提案されている\cite{yamabana96,doi92,doi93,muraki94}.DMAX法は,ソース言語コーパスにおいて最大の共起頻度を持つ2つの単語に着目し,その2つの単語の訳語候補が複数ある場合,正しい訳語は,コンパラブルなコーパスにおいても最大の共起頻度を有するという事実に基づいた訳語選択手法である.機械翻訳においては,一つの単語は一意に訳されるべきであるが,CLIRにおいては,キュエリのタームは適切な複数のタームに訳される方が精度良く検索できることもある.シソーラスや他のデータベースによって適切に展開されたキュエリのタームは良い検索結果を導くことが報告されている\cite{trec,trec4}.CLIRにおけるキュエリタームの訳語選択の問題を解決するために,DMAX法を一般化したGDMAX法を提案する.GDMAX法では,コンパラブルコーパスを用いてキュエリタームの共起頻度を成分とする共起頻度ベクトルを生成し,入力キュエリと翻訳キュエリの類似度をベクトルとして計算して類似性の高い翻訳キュエリを選択する.本報告では,まず,CLIRにおけるキュエリの翻訳の課題について説明し,次に,GDMAX法によるキュエリタームの翻訳・生成ついて説明する.GDMAX法に関して,TREC6(TextRetrievalConference)の50万件のドキュメントと15の日本語キュエリを用いて実験したので報告する\cite{trec}.
V11N05-03
近年,機械翻訳に関する研究が進み,日本語や英語をはじめとし,韓国語,中国語,フランス語など,主要な言語に関してはある程度実用的なシステムが構築されつつある.その反面,そうした研究の進んでいない言語や,機械翻訳の対象となっていない言語が残されているのも事実である.こうした言語においては,言語現象を学習するためのモノリンガル・コーパスや,翻訳知識を得るためのバイリンガル・コーパスなどが充分に蓄積されておらず,また,翻訳の要である対訳辞書の整備も進んでいないことが多い.そうした,比較的マイナーな言語に関する機械翻訳として,日本語--ウイグル語機械翻訳システム\cite{ogawa}が研究されている.このシステムにおいては,その原型となった日本語形態素解析システム\cite{ogawa2}の日本語辞書が,語彙として約25万語,形態素として約35万語を収録しているのに対して,日本語--ウイグル語対訳辞書\cite{muhtar2003}は語彙数約2万語,形態素数約3.6万語\footnote{漢字表記の語彙に対しては,その読みが別の形態素として登録されるため,語彙数と形態素数に差が生じる.}と少ないため,翻訳可能な文の数が限られてしまうという問題がある.このように,対訳辞書の規模は,そのシステムが処理できる文数と直接関わる重大な要素である.しかしながら,一般に辞書の構築はコストが高く,登録単語数を増やすことは容易ではない.これに対して,人間が翻訳作業をする場合を考えると,翻訳者は知らない単語を対訳辞書で検索するが,その単語が辞書に記載されていない場合,同じ意味の別の表現に言い換えて辞書を引く.本研究では,人間のこの行動を模倣し,対訳辞書に登録されていない自立語を,登録されている単語だけから成る表現に言い換えることにより,訳語の獲得を目指す.これにより,二言語間の言語知識が必要な問題を一言語内で扱える問題にすることができる.言い換えに関する研究は,近年,盛んに進められている\cite{yama01}.これに伴って,言い換えの目的に応じた種々の言い換え獲得手法が提案されている.これらの内,本研究で扱う自立語の言い換えに関するものに注目すると,概ね次の二つの手法に分けることができる.一つは,単語の用法や出現傾向,概念などの類似性を評価し,類似する表現を集める手法である\cite{hindle}\cite{cui}\cite{kasahara}.これらの中には言い換えを獲得することを直接の目的としないものもあるが,集められた類似表現を言い換え可能な語の集合と見做すことができる.もう一つは,国語辞書などにおいて単語の語義を説明している語義文を,その見出し語の意味を保存した言い換えと見做して利用する手法である.これに属する手法としては,語義文から見出し語との同等句を抜き出し,直接言い換える手法\cite{kajichi}\cite{ipsj02}や,2つの単語間の意味の差を,単語の語義文における記述の差異として捉え,言い換えの可否を判定する手法\cite{fuj00}\cite{fujita}が挙げられる.従来,自立語の言い換え処理は,この二つの分類のどちらか一方の手法を適用して言い換えを得る,一段階の処理として扱われてきた.これに対して,Murataら\cite{murata}は,言い換え処理を次の二つのモジュールに分割した.一つは,用意した規則を元に,入力表現を可能な限り変換するモジュールであり,もう一つは,変換された表現の内,言い換えの目的に最も適ったものを選び出す評価モジュールである.ただし,変換のための規則は,言い換えの前後で意味が変わらないものであることを保証する必要がある.処理を分割することによって,評価モジュールにおける評価の観点を変えることが可能となり,様々な言い換え目的に対して,汎用的な言い換え処理モデルを提供できるとしている.しかし,この手法では,あらかじめ変換規則を検証しておく必要があるほか,従来の言い換え獲得処理に関する手法を柔軟に適用できないという問題がある.そこで,本研究では,この言い換え処理の段階分けの考え方をさらに進めて,可能な限り類似表現を収集する{\bf収集段階}と,収集された言い換え候補について,言い換えの目的に適う表現を選び出す{\bf選抜段階}とに分けることを考える.このように分割することにより,各段階において,類似度に基づく手法と語義文に基づく手法とを別々に適用できる.さらに,言い換えの対象となる単語に合わせて,その組み合わせ方を変えることができる.本論文では,収集段階に語義文に基づく手法を,選抜段階に類似度に基づく手法を用い,両者を組み合わせることによって適切な言い換えを獲得する手法について提案する.さらに,獲得した言い換えを日本語--ウイグル語翻訳システムで翻訳し,それを辞書に追加することによる対訳辞書の拡充実験も行った.以下,本論文では,第2章において現在までに研究されている言い換え処理技術について,その概要を述べて整理する.次に第3章において,言い換え処理を収集段階と選抜段階に分割し,それぞれに第2章で述べた従来の研究を適用する手法について提案する.第4章においては,第3章で提案した言い換え手法を用いた実験と,さらに対訳辞書の拡充実験について報告する.最後に,第5章は本論文のまとめである.
V14N01-01
構文解析において,精度と同様,計算効率も,自然言語処理の重要な問題の一つである.構文解析の研究では,精度に議論の重点を置くことが多いが,効率についての研究もまた重要である.特に実用的な自然言語処理のアプリケーションにとっては,そうである.精度を落とすことなく効率を改善することは,とても大きな課題である.本研究の目的は,日本語の係り受け解析(依存構造解析)を行なう効率のよいアルゴリズムを提案し,その効率の良さを理論的,実験的の両面から示すことである.本論文では,日本語係り受け解析の線形時間アルゴリズムを示す.このアルゴリズムの形式的な記述を示し,その時間計算量(timecomplexity)を理論的に論じる.加えて,その効率と精度を京大コーパスVersion2\cite{Kurohashi1998}を使って実験的に評価する.本論文の構成は以下の通りである.第~2節では,日本語の構文的な特徴と典型的な日本語文の解析処理について述べる.第~3節では,英語や日本語の依存構造解析の従来研究について簡単に述べる.その後,第~4節で我々の提案手法を述べる.次に,第~5節で,二つの文節の依存関係を推定するための改良したモデルを述べる.第~6節では実験結果とその考察を記す.最後に,第~7節で本論文での我々の貢献をまとめる.
V29N01-05
対話において人間はしばしば自身の要求や意図を直接的に言及せず,間接発話行為と呼ばれる,言外に意図を含んだ間接的な発話によって表現することがある\cite{searle}.人間は対話相手から間接的な応答を受け取ったとき,これまでの対話履歴などの文脈に基づいて言外の意図を推測できる.図~\ref{figure:example}に,レストランの予約に関する対話における間接的な応答と直接的な応答の例を示す.この例ではオペレータの「Aレストランを予約しますか?」という質問に対してユーザは「予算が少ないのですが」と応答している(図中の「間接的な応答」).この応答は字義通りの意味だけを考慮するとオペレータの質問への直接的な回答にはなっていない.しかし,オペレータは対話履歴を考慮してユーザがAレストランよりも安いレストランを探していると推論し,新たにAレストランよりも安いBレストランを提案している.対話におけるユーザの間接的な発話とそれに示唆された意図(直接的な発話)の関係は,語用論的言い換えの一種である\cite{Fujita-paraphrase}.人間と自然なコミュニケーションを行う対話システムの実現のためには,ユーザの間接的な発話に暗示された意図を推定する語用論的言い換え技術の実現が重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-1ia4f1.pdf}\end{center}\hangcaption{対話における間接的応答と直接的応答の例.これらの応答は字義通りに解釈すると異なる意味を持つが,この対話履歴上においては言い換え可能な関係にある.}\label{figure:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%大規模な対話コーパス\cite{li-etal-2017-dailydialog,MultiWoZ2.0,MultiWoZ2.1}と深層学習技術により,近年では対話応答生成\cite{zhao-etal-2020-learning-simple,zhang-etal-2020-dialogpt}や対話状態追跡\cite{SimpleTOD,minTL}など様々なタスクにおいて高い性能を誇るモデルや手法が提案されている.また,最近では語用論的言い換えに関するコーパスもいくつか存在する\cite{Pragst,Louis}.しかし,\citeA{Pragst}らは人工的に生成したコーパスを用いており,多様性や自然さに欠ける.また,\citeA{Louis}の構築したコーパスではYes/No型かつ一問一答型の質問応答対のみを扱うため,それ以外の間接的発話には対応できない.対話応答生成等の対話システム関連技術の分野においては,ユーザの間接的応答に着目した研究は未だに行われていない.語用論的言い換え技術の対話システムへの適用のためには,より複雑かつ自然な語用論的言い換えを含む対話コーパスの構築が必要である.本研究ではより高度な語用論的言い換え技術の開発のために,$71,498$の間接的な応答と直接的な応答の対からなる,対話履歴付きの英語言い換えコーパスDIRECT(DirectandIndirectREsponsesinConversationalText)\footnote{\url{https://github.com/junya-takayama/DIRECT/}}を構築する.間接的な応答は対話履歴のような文脈を伴うことで初めてその意図が解釈できるような応答である.そこで本コーパスは既存のマルチドメイン・マルチターンのタスク指向対話コーパスMultiWoZ\cite{MultiWoZ2.1}を拡張して作成した.我々はMultiWoZの各ユーザ発話に対してクラウドソーシングを用いて「ユーザ発話をより間接的に言い換えた発話」と「ユーザ発話をより直接的に言い換えた発話」の対を収集する.そのため,DIRECTコーパスには元の発話・間接的な発話・直接的な発話の$3$つ組が収録される.本研究ではDIRECTコーパスを用いて,語用論的言い換えの生成・認識能力を評価するための$3$つのベンチマークタスクを設計する.ベースラインとして,最先端の事前学習済み言語モデルであるBERT\cite{BERT}とBART\cite{BART}を用いた性能調査も行う.また,言い換え生成モデルを用いてユーザの入力発話を事前により直接的に言い換えることで,MultiWoZコーパスにおいて対話応答生成の性能が向上することを確認する.本稿の構成を記す.第~\ref{section:related}~章では本研究の関連研究を紹介する.第~\ref{section:direct_corpus}~章ではDIRECTコーパスの構築方法について述べたのち,データ例や統計的な分析結果を基にコーパスの特徴について説明する.第~\ref{section:benchmark}~章ではDIRECTコーパスを用いた$3$つのベンチマークタスクを導入する.第~\ref{section:response_generation}~章では,語用論的言い換えを考慮した対話応答生成モデルを構築し,その性能を評価する.最後に,本研究のまとめを第~\ref{section:conclusion}~章にて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V02N01-03
本論文では日本語の論説文を対象にした要約文章作成実験システム\G\footnote{\slGeneratorofREcapiturationsofEditorialsandNoticesの略.}(以下\Gと呼ぶ)について述べる.一般に,質の良い文章要約を行うためには,照応,省略,接続的語句,語彙による結束性,主題・話題,焦点など多くの談話現象の処理が必要であり,これらの談話現象は互いに複雑に影響しあっているので,これらの談話現象の一部のみの処理を行って要約を試みても,質の高い要約が得られる可能性は低い.本研究の目的は,以上の見地から現状で解析可能な談話要素をできるだけ多く取り込み,実際に計算機上で動作する実験的な要約作成システムを試作してその効果を検討することである.文章要約については,日本語学あるいは日本語教育の分野でも,現状では定義や手法が確立していない\cite{要約本}.本論文では,文章要約とは,重要度が相対的に低い部分を削除することであるとみなす.一般には,文章中のある部分の「重要度」は文章の種類によって異なるので,要約の方法は,文章の種類によって異なったアプローチを取る必要があると考えられる.本研究では,新聞社説などの,筆者が読者に対して何らかの主張や見解を示す文章(以下,論説文章と呼ぶ)を要約の対象にする.田村ら\cite{田村}は,文章の構造および話題の連鎖を表現する修辞構造ネットワークおよび話題構造を作成することによる要約方式を提案しているが,思考実験に留まっており,その実現には,一般的知識に関するシソーラスの構築や,修辞構造ネットワークの自動作成手法などの困難な問題が残されている.また間瀬らは,「重要文に比較的よく出現する表層的特徴を多種類含んでいる文が真の重要文である」という仮定に基づき,題名語,高頻度名詞,主題(助詞「は」)などのパラメータを総和することによって重要語を決定し,要約文を選択するという統計的手法に基づく要約法を提案している\cite{杉江}.本研究では,要約中で原文章の文をそのまま使用するのではなく,文内で比較的重要度が低いと考えられる連体修飾要素の削減も行った.一方,本手法は文章内の談話構造の利用による文章要約を試みたものであり,\cite{杉江}などの従来の抄録作成に使用されてきた語の頻度に関する情報は,使用しなかった.また,前述の両論文でも使用している文章のタイトル(題名)の情報も,タイトルはそもそも文章の「究極的な要約」であるという立場から,要約処理への使用は循環論的であると考えられるので,本手法では利用しなかった.以下,\ref{システム}節で,\Gのシステム構成を述べる.\ref{要約文選択}節から\ref{段落分け}節で,要約文の選択,一文内で修飾語を削減することによる文長の短縮法,要約文章の段落分け,のシステム各部の詳細を述べる.\ref{評価}節では,アンケート調査に基づき\Gを評価する.\ref{議論}節では,大量の要約文生成で明らかになった問題点や,得られた知見を紹介する.本論文では要約実験対象として日本経済新聞の社説を用いた.論文中の例文,要約例は,[例文\ref{作例から}]〜[例文\ref{作例まで}]を除いてすべて1990年9月と1990年11月の同社説から引用したものである.
V27N04-06
\label{sec:intro}Yahoo!知恵袋に代表されるコミュニティQA(CQA)には日々多くの質問が投稿される.スマートフォンに送信されるプッシュ通知や質問の検索結果画面に表示される見出しは,ユーザが投稿の全文を読むか否かを決定する手がかりとなる.多くのCQAでは,見出しとして質問の先頭部分を表示する.しかし,\Fig{fig:chiebukuro}に例示するように重要箇所は必ずしも質問の先頭に現れるとは限らない.ユーザの的確な判断を助けるためには,質問の重要箇所を見出しに含めることが重要である.そこで,本研究では質問に対する要約課題に取り組む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-4ia5f1.eps}\end{center}\caption{コミュニティQAへの投稿される質問と回答の例}\label{fig:chiebukuro}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿では質問要約課題を抽出型単一文書要約として定式化する.抽出型要約は原文書中の文もしくは単語列をそのまま取り出し要約として提示する手法である.原文書に現れる表現の言い換えを許容する生成型要約とは異なり,非文の出力を比較的抑えられるという観点から安全性が高い.実サービスへの適用を指向し,本研究では質問からもっとも重要な単一文を選択し要約とする設定を扱う.抽出型要約自体は,自然言語処理の分野において長く取り組まれている課題の一つである.古くは単語出現頻度\cite{luhn1958ibm}を用いる文の重要度計算の研究から始まり,グラフに基づく手法\cite{Mihalcea04},トピックに基づく手法\cite{Gong01},素性ベースの機械学習による手法\cite{Naik17},組み合わせ最適化問題として定式化する手法\cite{li2013acl,kikuchi-hirao-takamura-okumura:2014:acl}など多くの手法が提案されている.2016年以降は大規模データを用いたニューラルネットワークに基づく手法が積極的に研究されている\cite{Cheng:2016:ACL,nallapati-EtAl:2017:AAAI}.ニューラルネットワークを用いた要約モデルの学習に必要となる大規模なラベル付きデータは,人手作成するコストが大きい.また,CQAなどにユーザが自由に投稿するテキストに対しては良質なラベルの自動付与が難しい.このようなデータ獲得の問題を軽減するため,本稿ではラベル付きデータに加え質問-回答ペアも用いて学習する半教師あり学習に基づく抽出型質問要約モデルを提案する.\Fig{fig:chiebukuro}の右側に示す回答には,「iPhone」や「WiFi」といった質問中の重要と思われる単語が含まれている.本研究では回答情報が質問中の重要箇所を同定するための手がかりになると考える.人手によるラベルの大規模な獲得は難しいが,質問-回答ペアはCQAから大規模に獲得可能である.提案モデルは文抽出器と回答生成器の2つの部品から構成され,前者はラベル付きデータ,後者はペアデータを用いて学習される.それぞれの部品が質問中の文に対し重要度を出力し,2つの重要度を組み合わせ最終的な文の重要度を得る.提案モデルの設定は従来の半教師あり学習とは異なり,大規模データ側が質問-回答というペア構造を持つ点に特徴がある.このような設定において,どのような学習手法が有効であるかは必ずしも明らかではない.そこで,本研究ではペア構造を持つデータを用いてニューラルネットワークを事前学習する手法,文抽出器および回答生成器をそれぞれ別に学習しスコアを統合する手法,文抽出器および回答生成器を同時学習する手法を提案し比較する.また,人手ラベル付きデータとペアデータのサイズが大きく異なる点も問題となる.これに対処するために,小規模データのオーバーサンプリング,大規模データのアンダーサンプリングおよびDistantSupervisionによる疑似ラベルの大規模データへの付与など,データ不均衡問題を解消する手法も提案する.実験より,(a)文抽出器と回答生成器を同時学習する手法が有効であるが,データ不均衡問題に対処するための適切なサンプリング法が必要となる,(b)ラベル付きコーパスが小規模な場合に,DistantSupervisionに基づく手法を用いた疑似ラベルを用いて学習することで,より良い性能が得られるという2つの知見が得られた.本稿の貢献を以下にまとめる.\begin{itemize}\setlength{\leftskip}{0.2cm}\item質問-回答ペアを活用する半教師あり学習モデルおよびその学習法を提案する.事前学習手法,文抽出器および回答生成器をそれぞれ別に学習し結合する手法,同時学習する手法を提案し,その効果を実験的に検証する.\itemデータサイズの不均衡問題を解消するための手法としてサンプリング手法およびDistantSupervisionによる疑似ラベルの活用による手法を提案し,その有効性を確認する.\item半教師あり学習による質問要約モデルの学習および性能評価に利用可能な4つのデータセットを作成する.具体的には.質問に対し要約に含めるべき文を人手ラベル付けした小規模(775事例)および中規模(12,406事例)データ,100,000件の質問-回答ペアを格納した大規模データ,DistantSupervisionに基づく提案手法により疑似ラベルを付与したデータを作成する.\item実験に用いたデータは公開する\footnote{\url{http://lr-www.pi.titech.ac.jp/~ishigaki/chiebukuro/}}.\end{itemize}以後,本稿では\Sec{sec:frame}で提案モデルについて定式化し,\Sec{sec:data}で実験に用いるデータについて述べる.特に,人手ラベル付きデータのクラウドソーシング(\Sec{sec:pair})やDistantSupervisionによる疑似ラベルを自動付与する提案手法(\Sec{sec:data:distant})について詳述する.\Sec{sec:exp}では実験に用いる比較手法として,提案モデルの学習法(\Sec{sec:exp:proposed}),サンプリング法(\Sec{sec:exp:sampling})および疑似ラベルの活用(\Sec{sec:exp:dist})によるデータ不均衡問題の解消について述べ,\Sec{sec:result}で結果をまとめる.\Sec{sec:related}で他の研究との関連について述べ,最後に\Sec{sec:conc}で今後の方向性として,他の自然言語処理課題への応用可能性について議論する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V10N03-01
\label{sec:intro}語義曖昧性解消(WordSenseDisambiguation,以下WSD)は機械翻訳,情報検索など,自然言語処理の多くの場面で必要となる基礎技術である\cite{ide:98:a}.SENSEVALはWSDのコンテストであり,WSDの共通の評価データを作成し,その上で様々なシステム・手法を比較することによってWSDの研究・技術を向上させることを目的としている.SENSEVALは過去2回行われている.第1回のSENSEVAL~\cite{kilgarriff:00:a}は1998年夏に,第2回のSENSEVAL-2~\cite{senseval2:00:a}は2001年春に行われた.SENSEVAL-2では,9言語を対象に37研究グループが参加した.日本語を対象としたタスクとしては,辞書タスクと翻訳タスクの2つが行われた.辞書タスクでは語の意味の区別(曖昧性)を国語辞典によって定義し,翻訳タスクではこれを訳語選択によって定義した.本論文は,SENSEVAL-2の日本語辞書タスクについて,タスクの概要,データ,コンテストの結果について報告する.まず,日本語辞書タスクの概要について述べる.SENSEVAL-2では,タスクをlexicalsampletaskとallwordstaskに大別している.lexicalsampletaskは特定(数十〜数百)の単語だけをWSDの対象とし,allwordstaskでは評価テキスト中のすべての単語を対象とする.日本語辞書タスクはlexicalsampletaskである.以下,本論文では,評価の対象として選ばれた単語を評価単語と呼び,評価単語の評価データ中での実際の出現を評価インスタンス,または単にインスタンスと呼ぶ.辞書タスクでは,単語の語義を岩波国語辞典~\cite{nisio:94:a}の語義立てによって定義した.参加者は,テキスト中の評価インスタンスに対して,該当する語義を岩波国語辞典の語釈の中から選択し,その語釈に対応したID(以下,語義ID)を提出する.評価テキストは毎日新聞の1994年の新聞記事を用いた.語義を決定する評価単語の数は100と設定した.また,評価単語のそれぞれについて100インスタンスずつ語義を決めるとした.すなわち,評価インスタンスの総数は10,000である.本タスクには3団体,7システムが参加した.本論文の構成は以下の通りである.\ref{sec:data}節では,辞書タスクで用いたデータの概要を述べる.\ref{sec:goldstandard}節では,正解データの作成手順について述べる.また,正解データを作成する際,1つの評価インスタンスに対して二人の作業者が独立に正しい語義を選択したが,そのときの語義の一致率などについても報告する.\ref{sec:contest}節では,参加者のシステムの概要やスコアなどについて述べ,コンテストの結果に関する簡単な考察を行う.最後に\ref{sec:conclusion}節では,本論文のまとめを行う.
V14N03-01
「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,言語の研究においてしばしば自明視され,議論の前提とされる.たとえば「あのー,あなたは失格,なんです」という発言は,単に聞き手の失格(命題情報)を告げるだけのものではない.「失格は,聞き手にとってよくないことだ」という話し手の評価や,「聞き手にとってよくないことを聞き手に告げるのはイヤだ,ためらわれる」といった話し手の感情・態度をこの発言から読みとることは,多くの場合,難しくない.また,このような話し手の評価や感情・態度を早い段階(たとえば冒頭部「あのー」の段階)で読みとることによって,聞き手は,その後に続く,つらい知らせを受け入れる(つまり迅速で正確な情報伝達を実現させる)ための心の準備ができる.さらに「話し手が発話をためらっているのは,自分に気を遣ってのことだ」と意識することは,話し手との人間関係にとってもプラスに働くだろう.これらの観察からすれば,「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,疑問の生じる余地のない,この上なく正しい考えにも見える.だが,本当にそうだろうか?本稿は,話し手の言語行動に関するこの一見常識的な考え(便宜上「『表す』構図」と呼ぶ)が,日常の音声コミュニケーションにおける話し手の実態をうまくとらえられない場合があることを示し,それに代わる新しい構図(『する』構図)を提案するものである.データとして用いるのは,現代日本語の日常会話の音声の記録(謝辞欄に記した3つのプロジェクトによるもの)と,現代日本語の母語話者の内観である.コントロールされていない日常会話の記録をデータとしてとりあげるのは伝統的な言語学者や多くの情報処理研究者にはなじみにくいことかもしれないし,内観の利用も情報処理研究者や会話分析者には奇異に映るかもしれないが,最善のデータをめぐる議論はかんたんには決着がつかない.\pagebreakここでは,両者をデータとして併用している研究は他にも見られる(たとえばChafe1992:234を参照)とだけ述べておく.
V28N04-10
近年,ニューラルネットワークを活用した機械翻訳(ニューラル機械翻訳)\cite{Vaswani:17,Bahdanau:15,Sutskever:14}は著しい精度の向上を実現している.ニューラル機械翻訳は通常,原言語一文を入力して目的言語への翻訳結果を出力するが,さらに翻訳精度を上げるため,翻訳対象の周辺の文を文脈情報として活用する手法が提案されている\cite{Maruf:19,Voita:19,Agrawal:18,Bawden:18,Kuang:18,Laubli:18,Miculicich:18,Tiedemann:17,Wang:17}.本稿では,特に目的言語側の前文を活用したニューラル機械翻訳の改善手法を提案する.文脈情報を用いる手法には原言語側や目的言語側の周辺の文を用いる手法があるが,文脈情報に目的言語側の周辺の文を用いる手法は翻訳精度が下がることが報告されている\cite{Bawden:18}.この翻訳精度の低下は,翻訳モデルの学習時と翻訳時で用いる周辺の文の特徴の異なり(ギャップ)が原因の1つと考えられる.従来研究では,学習時は目的言語側の周辺の文の参照訳を使用し,翻訳時は翻訳モデルによって生成された機械翻訳結果を用いているが,機械翻訳結果には,参照訳には含まれない訳抜け,過剰訳,誤訳などの機械翻訳特有の誤り(機械翻訳誤り)が含まれる可能性がある.また,機械翻訳誤りが無い場合でも,機械翻訳結果は,Translationese(翻訳調)と呼ばれる偏りのある文となっている.\citeA{Toral:19}は,機械翻訳結果が人手翻訳で作られた翻訳文と比較して単純で標準的な翻訳になる傾向があることを示している.学習時と翻訳時でギャップのあるデータを用いることで生じるモデルの偏りは,exposure~biasと呼ばれており\cite{Ranzato:16},翻訳品質の低下に繋がることが報告されている\cite{Zhang:19}.目的言語側の周辺の文の利用において,学習時に参照訳を用い,翻訳時に機械翻訳誤りを含み,翻訳調の特徴を有する機械翻訳結果を用いることは,exposure~biasによる翻訳低下を引き起こすと考えられる.下記は,IWSLT2017で提供されている日英対訳データセット\cite{Cettolo:12}から抽出した例であり,翻訳対象の原言語文,翻訳対象の参照訳,翻訳対象の機械翻訳結果を示している.さらに,文脈情報として,前文の参照訳と機械翻訳結果を示している.機械翻訳結果は,日英対訳データセットをTransformerモデル\cite{Vaswani:17}で学習した機械翻訳器を用いて翻訳した.\begin{description}\setlength{\itemsep}{0pt}\setlength{\parskip}{0pt}\setlength{\itemindent}{-20pt}\setlength{\labelsep}{0pt}\item{\bf前文の参照訳:}{\bfShe}layseggs,{\bfshe}feedsthelarvae--soanantstartsasanegg,thenit'salarva.\item{\bf前文の機械翻訳結果:}Andwhentheygettheireggs,theygettheireggs,andthe{\bfqueen}isthere.\item{\bf翻訳対象の原言語文:}脂肪を吐き出して幼虫を育てます\item{\bf翻訳対象の参照訳:}{\bfShe}feedsthelarvaebyregurgitatingfromherfatreserves.\item{\bf翻訳対象の機械翻訳結果:}{\bfThey}takefatandtheyraisethelarvaeoftheirlarvae.\end{description}翻訳対象の原言語文では主語が省略されており,この文のみで主語を推定することができず参照訳を生成することは困難である.しかし,前文の参照訳,または機械翻訳結果には主語を推定する情報(参照訳には``she'',機械翻訳結果には``queen'')が含まれており,目的言語側の前文を使うことで正しい翻訳ができる可能性がある.一方で,前文の参照訳と機械翻訳結果を比較すると機械翻訳結果には誤訳が含まれており,参照訳と機械翻訳結果との間にギャップがあることが分かる.誤訳のない参照訳のみを文脈情報として学習した翻訳モデルは文脈に含まれる誤訳に頑健でないと考えられ,参照訳と機械翻訳を学習時と翻訳時で別々に用いる手法はexposure~biasによる翻訳精度低下を引き起こす可能性がある.本稿では,スケジュールドサンプリング法\cite{Bengio:15}を参考にして,学習時と翻訳時の目的言語側の前文の特徴のギャップを緩和するための学習データ制御手法を提案する.具体的には,初期の学習では従来手法と同様に文脈情報として目的言語側の前文に参照訳のみを用い,学習が進行するにつれて,段階的に参照訳から機械翻訳結果へ切り替えていく.この処理により,翻訳モデルが機械翻訳誤りに頑健になり,翻訳調の特徴に対応できるようになると期待できる.機械翻訳結果は,対訳データをTransformerモデルで学習した機械翻訳器で生成する.実験では,提案手法を結合ベース文脈考慮型ニューラル機械翻訳\cite{Bawden:18,Tiedemann:17}とマルチエンコーダ文脈考慮型ニューラル機械翻訳\cite{Kim:19,Bawden:18}で実装し,ニュースコーパス\cite{Tanaka:21}を用いた英日・日英機械翻訳タスク,およびIWSLT2017データセット\cite{Cettolo:12}を用いた英日・日英,および英独・独英機械翻訳タスクで評価した.その結果,提案手法が従来手法と比較してBLEUスコア\cite{Papineni:02}により翻訳精度が改善していることを確認した.本稿の構成は以下の通りである.まず,2章で提案手法が前提とする文脈考慮型ニューラル機械翻訳について述べ,3章で提案手法を説明する.4章で提案手法の効果を確認するための翻訳実験の詳細を示し,5章で翻訳実験の結果を示して提案手法の効果を分析する.6章で関連研究について述べ,最後に7章で本稿をまとめる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V30N02-20
固有表現は情報抽出技術の進展に伴った概念の形成以降,定義および抽出技術の確立が進んできた.現在,一般ドメインにおける人名,地名,組織名などについては,大量のトレーニングデータが用意されていれば,深層学習を活用した技術により,かなり高い精度での抽出が可能となっている(岩倉2015).一般ドメインだけでなく,本論文で紹介する化学,医療・薬事,企業情報・金融,機械加工・交通・文学(小説)・食・土産品などの幅広いドメインにおいて固有表現抽出技術の応用が強く求められている.本論文では,このようにドメインに依存した固有表現の定義や抽出技術についての研究動向を調査し,実際に特定ドメインにおける固有表現抽出を試みる技術者の一助となることを目的に現状をまとめた.その際,各研究で使われている技術や手法の詳細を分析するのではなく,どのドメインでどのような対象の抽出が何のために試みられているのかといった,技術応用のあり方を探ることに重点を置いた.現状を調査するにあたり,以下4つの学会大会誌および3つの学会論文誌での発表論文を参照し,その中からドメイン依存の固有表現抽出をテーマとしたものを抽出した.該当したのは,総論文数数千件のうち52件であった.・言語処理学会年次大会(2019年~2022年)・「自然言語処理」(2018年1月~2021年12月)・情報処理学会NL研究会(2018年5月~2021年9月)・情報処理学会論文誌(2018年1月~2021年12月)・人工知能学会全国大会(2018年~2021年)・人工知能学会論文誌(2018年1月~2021年12月)・電子情報通信学会テキストアナリティクス・シンポジウム(2011年7月~2021年11月)%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2
V26N02-08
\label{sec:introduction}述語項構造解析は,様々な自然言語処理アプリケーションの土台となる技術である.本研究が対象とする日本語のような談話指向言語では,文から項が省略されることが多い\cite{kayama2013}.これらの省略された項は,ゼロ代名詞とみなされる.項は述語との係り受け関係があるか否かにより,係り受け関係有りかゼロ照応かに分けられる.ゼロ照応は,項がテキスト中に現れるか否かにより,文脈照応か,外界照応かに分けられる.文脈照応は,項が述語と同一文内に出現するか否かにより,文内照応か,文間照応に更に分けられる.\vspace{0.5\Cvs}{\small例1.1)\メールを\書いて$_{v_1}$\送ったよ$_{v_2}$.\quad読んでね$_{v_3}$.}\vspace{0.5\Cvs}例えば,例~(1.1)は,3つの述語($v_1$,$v_2$,$v_3$)と1つの明示的な項候補(メール)を含んだテキストである.例~(1.1)を述語項構造解析した結果は表~\ref{tab:pasa-result}のようになる.ここで,角括弧で囲まれた要素は外界照応,丸括弧は文内照応,二重丸括弧は文間照応である.$v_1$のヲ格の項である「メール」は,格標識「を」によって明示的に示されており,$v_1$との係り受け関係を持っている.このような名詞は,括弧をつけないで示している.また,ラベル\noneは,述語がその格に対して,項を取らないことを示している.\begin{table}[b]\caption{例(1.1)の述語項構造解析結果}\label{tab:pasa-result}\input{08table01.tex}\end{table}日本語述語項構造解析は,意味役割付与\cite{Zhou-End-2015,He-Deep-2017}タスクと類似しているが,ゼロ代名詞の照応解析と,表~\ref{tab:pasa-result}において角括弧で示されている外界照応の同定まで行う点において異なる.日本語述語項構造解析は,単語が省略されうるという点において,中国語やトルコ語,またロマンス語であるスペイン語,ポルトガル語のようなnull-subject言語におけるゼロ照応解析と類似している\cite{Iida-A-2011,Rello-Elliphant-2012,Chen-Chinese-2016,Yin-Chinese-2017}.過去の日本語述語項構造解析の研究では,形態素及び,構文解析から得られた様々な特徴を利用している\cite{Matsubayashi-Revisiting-2017,Hayashibe-Japanese-2011,Imamura-Predicate-2014,Shibata-Neural-2016,Ouchi-Joint-2015,Yoshikawa-Jointly-2013,Taira-A-2008}.近年のアプローチでは,中間解析を必要としないend-to-endの手法による解析もある\cite{Ouchi-Neural-2017,Matsubayashi-Distance-2018}.本論文は,日本語の文内述語項構造解析を対象とし,以下の2つの貢献をした.第一に,文内述語項構造解析において,外界照応の一部を取り入れるように問題を整理した点である.そのために,本研究では,外界照応を3つのサブカテゴリ,つまり,書き手である外界一人称(\exow),読み手である外界二人称(\exor),その他の外界三人称\footnote{今回使用したコーパスでは「外界一般」とされているが,本論文では,外界一人称,外界二人称と対比させ,外界三人称と呼ぶこととする.}(\exox)に分類する.日本語のような談話指向言語では,2者間で行われる会話の際,外界一人称,外界二人称が省略されることが多い.そのため,文内述語項構造解析においても外界一人称,外界二人称まで解析することは必要であると我々は考えている.例~(1.2)は,サブカテゴリ化の必要性を示している.\vspace{0.5\Cvs}{\small例1.2)\サンドイッチ\食べる$_{v}$}{\small\phantom{例1.2)}\(私は)サンドイッチを食べる./(あなたは)サンドイッチを食べる?}\vspace{0.5\Cvs}外界照応の書き手(\exow)と読み手(\exor)の両方が,動詞「食べる」の項候補であり,どちらを取るかにより文の意味が変わってくる.これら,2つの意味を区別するために外界照応のサブカテゴリ化が必要である.第二に,日本語述語項構造解析に分野適応の技術を導入する.\citeA{Surdeanu-The-2008}と,\citeA{Hajic-The-2009}は訓練データとテストデータの分野(メディア)が異なると,意味役割付与の性能が低下することを報告している.\citeA{Yang-Domain-2015}は,深層学習手法に分野適応を導入することでこの問題に対して取り組んだ.\citeA{Imamura-Predicate-2014}を除いて,日本語述語項構造解析の過去の研究のほとんどが,新聞記事という単一の種類のテキストのみを対象としていたため,分野依存性は問題ではなかった.対話文を解析するために\citeA{Imamura-Predicate-2014}は新聞記事を使って述語項構造解析器を訓練している.また,\citeA{Taira-Business-2014}は,ビジネスメール文を解析するために,新聞記事を使って述語項構造解析器を訓練している.その結果,係り受け関係にある述語項や,同一文内にある述語項の場合は,学習済みモデルを比較的流用できる可能性があるが,外界照応については訓練データが足りず解析精度が低いためモデルを作り直す必要があることを述べている.しかし,その他の種類のメディアのテキストについて,述語項構造解析を行った研究はこれまで行われていない.我々は様々な種類のメディアのテキストを日本語述語項構造解析の対象とするために,現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://pj.ninjal.ac.jp/corpus\_center/bccwj/en/}\cite{Maekawa-2014aa}を使用した.BCCWJには,紙媒体として,新聞記事,書籍,雑誌,白書といったメディアのテキスト,電子媒体として,インターネット上のQAテキスト,ブログテキストといった様々な種類のメディアから集められたテキストを含んでいる.我々は,約200万の単語から構成され,共参照と述語項関係が注釈付けされたBCCWJのコアデータセット(BCCWJ-PAS)を使用した.次章で詳述するが,外界照応の出現分布はメディアによって大きく異なるため,そのテキストのソースメディアを考慮する必要がある.本研究では,リカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)ベースのベースモデルから始め,以下の5種類の分野適応手法を導入し,各手法の有効性を評価\linebreakする.\begin{enumerate}\itemFine-tuning({\ttFT})手法では,まず,訓練データ全体を用いてモデルを学習させる.学習されたパラメータを初期値とし,ターゲット領域のメディアの訓練データを用いて第2段階の学習を行う.\itemFeatureaugmentation({\ttFA})手法では,全体で共有されるネットワークと分野固有のネットワークを同時に訓練する\cite{Kim-Frustratingly-2016}.分野共通の知識は共有のネットワークで,分野固有の知識は分野固有のネットワークで学習されることを期待している.\itemClassprobabilityshift({\ttCPS})手法では,項の種類毎に,項の出現確率の事前分布が分野によって異なることを考慮し,ネットワークが出力する確率にバイアスをかける.\itemVoting({\ttVOT})手法では,上記3つの手法による多数決をとり,出力を決定する.\itemMixture({\ttMIX})手法では,上記(1)から(3)の3つの手法を単一のネットワークに組み合わせる.\end{enumerate}各手法の詳細は,\ref{sec:domain-adaptation}節にて説明する.\subsection{本論文の構成}本論文は次のように構成されている.第~\ref{sec:problem-setting}章では,日本語述語項構造解析における既存研究と本研究の位置付け,コーパスを分析して得られた述語項構造解析の分野依存性について述べる.第~\ref{sec:deep-reccurent-model}章では,本研究において使用するリカレントニューラルネットワークベースのモデルについて詳述する.第~\ref{sec:domain-adaptation}章では,第~\ref{sec:deep-reccurent-model}章で提案したベースラインモデルに対して導入する5種の分野適応手法について詳述する.第~\ref{sec:experiment}章では第~\ref{sec:deep-reccurent-model}章,及び,第~\ref{sec:domain-adaptation}章で説明したベースラインと分野適応を行ったモデルに対しての評価実験結果とその考察を述べる.第~\ref{sec:conclusion}章では,評価実験・考察を踏まえ,今後の方向性を示し結論とする.
V03N04-01
\label{sec:1shou}最近,国文学の分野においても,文学作品のテキストをコンピュータに入力し,研究に活用しようとする動きが盛んである~\cite{dbwest:95}.これは日本語処理可能なパソコンなどの普及により,国文学の研究者が,自分の手でデータを作成する環境が整ってきたことによる.すでに,多くの文学作品が電子化テキストとして作成され,蓄積され,流通され始めてきている.例えば,村上ら~\cite{murakami:89}による語彙索引作成を目的とした幸若舞の研究は,最も初期のものである.これは田島ら~\cite{tazima:82}により,万葉集を始めとする多くの文学作品の電子化テキスト作成の試みに引き継がれている.最近では,内田ら~\cite{utida:92}は情報処理語学文学研究会の活動を通じて,パソコン通信などにより電子化テキストの交換を行っている.また,伊井,伊藤ら~\cite{ii:93,ito:92}による国文学データベースの作成と電子出版活動も注目されている.とくに,源氏物語諸本の8本集成データベースや国文学総合索引の研究成果がある.一方,長瀬~\cite{nagase:90}は源氏物語の和英平行電子化テキストを作成し,オックスフォード大学に登録し公開した.また,出版社による電子化テキストの提供サービスも始まっている~\cite{benseisha:93,iwanami:95}.しかしながら,大きな問題がある.一般に,研究者は自分のためのデータを作っている.そのため,システム,文字コ−ド,外字処理,データの形式や構造などに関しての仕様が,研究者個人に依存している.さらに,蓄積した情報資源の流通をあまり意識していない.すなわち,苦労して蓄積したデータが活用されにくく,また同じ作品の重複入力の問題などが指摘されている.したがって,データ入力の共通基盤の確立と適切な標準化が必要である.とくに,文学作品の電子化テキストを作るためのデータ記述ルールが必要である.現在,人文科学のための定まったデータ記述のルールは無い.SGML:StandardGeneralizedMarkupLanguage~\cite{JIS:94}に基礎をおくTEI:TextEncodingInitiativeなどの活動~\cite{burnard:94}があるが,その成果は未だ実用化に至っていない.とりわけ,人文科学領域の日本語テキストへの適用は,国文学における数例~\cite{hara:95}を除けばほとんど無い.国文学研究資料館において,電子化テキストのデータ記述についての試みがなされてきている~\cite{yasunaga:92,yasunaga:94,yasunaga:95b,kokubun:92}.例えば,日本古典文学大系(岩波書店),噺本大系(東京堂出版)などの全作品の全文データベースの開発が進められている.また,最近では正保版本歌集「二十一代集」を直接翻刻~\footnote{国文学の用語はまとめて,付録\ref{sec:furoku1}で解説している.なお,国文学ではテキストを本文(ホンモン)と言う.以下では本文を用いる.}しながら,データベースに構築している.これらはテキストのデータベース化を指向したものであるが,テキストデータの記述のための基準文法が定められている.この基準文法をKOKIN(KOKubungakuINformation)ルールと呼んでいる.KOKINルールは国文学作品を対象とする電子化テキスト記述用のマークアップ文法である.本稿は,国文学作品テキストのデータ記述文法について述べている.第2章では,電子化テキストの目的と研究対象をまとめ,データ記述の考察上不可欠と考えられる本とテキストの情報構造を分析し,まとめている.第3章では,データ記述のルール化のための基本原則を考察している.作品とテキストの構造記述が必要なこと,及びテキスト表記の記述が必要なことなどをまとめている.第4章では,KOKINルールを3つの基本ルールに分けて定義し,それぞれについて考察している.第5章では,実際のデータ作成とそれに基づくデータベース作成の事例などから,KOKINルールを評価している.研究成果としては,すでに国文学研究資料館において,本文データベースとして試験運用が開始されている.研究者による利用結果からは,文学研究に有用であるとの評価を得,概して評判がよい.最後に,問題点などを整理している.
V13N03-06
\label{sec:intro}意味が近似的に等価な言語表現の異形を\textbf{言い換え}と言う.言い換えの問題,すなわち同じ意味内容を伝達する言語表現がいくつも存在するという問題は,曖昧性の問題,すなわち同じ言語表現が文脈によって異なる意味を持つという問題と同様,自然言語処理における重要な問題である.言い換えの自動生成に関する工学的研究には,言い換えを同一言語間の翻訳とみなし,異言語間機械翻訳(以下,単に機械翻訳)で培われてきた技術を応用する試みが多い.たとえば,構造変換方式による言い換え生成\cite{lavoie:00,takahashi:01:c},コーパスからの同義表現対や変換パターン(以下,合わせて言い換え知識と呼ぶ)獲得\cite{shinyama:03,quirk:04,bannard:05}の諸手法は,機械翻訳向けの手法と本質的にはそれほど違わない.ただし,言い換えは入出力が同一言語であるため,機械翻訳とは異なる性質も備えている.たとえば,平易な文章に変換する,音声合成の前処理として聴き取りやすいように変換するなど,ミドルウェアとしての応用可能性が高いことがあげられる.すなわち,言い換えを生成する過程のどこかに,応用タスクに合わせた言い換え知識の使い分け,および目的適合性を評価する処理が必要になる\cite{inui:04:a}.事例集の位置付けも異なる.翻訳文書は日々生産・蓄積されており,大規模な対訳コーパスが比較的容易に利用可能である.これらは主に,翻訳知識の収集源あるいは統計モデルの学習用データとして用いられている.一方,言い換え関係にある文または文書の対が明示的かつ大規模に蓄えられることはほとんどない.\sec{previous}で述べるように,言い換えの関係にある文の対を収集して\textbf{言い換えコーパス}を構築する試みはいくらか見られるが,我々が知る限り,現在無償で公開されている言い換えコーパスはDolanら\cite{dolan:05}が開発したものしかない\footnote{Web上のニュース記事から抽出した5,801文対に対して2名の評価者が言い換えか否かのラベルを付与したコーパス.\\\uri{http://research.microsoft.com/research/nlp/msr\_paraphrase.htm}}.さらに,言い換え知識の収集源として用いられるようなコーパスはあっても,言い換えと呼べる現象の類型化,個々の種類の言い換えの特性の分析,言い換え生成技術の開発段階における性能評価などの基礎研究への用途を意図して構築された言い換えコーパスはない.我々は,言い換えの実現に必要な情報を実例に基づいて明らかにするため,また言い換え生成技術の定量的評価を主たる目的として言い換えコーパスを構築している.本論文では,このような用途を想定して,\begin{itemize}\itemどのような種類の言い換えを集めるか\itemどのようにしてコーパスのカバレージと質を保証するか\itemどのようにしてコーパス構築にかかる人的コストを減らすか\item言い換え事例をどのように注釈付けて蓄えるか\end{itemize}などの課題について議論する.そして,コーパス構築の方法論,およびこれまでの予備試行において経験的に得られた知見について述べる.以下,\sec{previous}では言い換えコーパス構築の先行研究について述べる.次に,我々が構築している言い換えコーパスの仕様について\sec{aim}で,事例収集手法の詳細を\sec{method}で述べる.予備試行の設定を\sec{trial}で述べ,構築したコーパスの性質について\sec{discussion}で議論する.最後に\sec{conclusion}でまとめる.
V25N05-04
文法誤り訂正(GrammaticalErrorCorrection:GEC)は,言語学習者の書いた文の文法的な誤りを訂正するタスクである.GECは本質的には機械翻訳や自動要約などと同様に生成タスクであるため,与えられた入力に対する出力の正解が1つだけとは限らずその自動評価は難しい.そのため,GECの自動評価は重要な課題であり自動評価尺度に関する研究が多く行われてきた.GECシステムの性能評価には,システムの出力を正解データ(参照文)と比較することにより評価する手法(参照有り手法)が一般的に用いられている.この参照有り手法では,訂正が正しくても参照文に無ければ減点されるため,正確な評価のためには可能な訂正を網羅する必要がある.しかし参照文の作成は人手で行う必要があるためコストが高く,可能な訂正を全て網羅することは現実的ではない.この問題に対処するため,\citeA{Napoles2016}は参照文を使わず訂正文の文法性に基づき訂正を評価する手法を提案した.しかし参照有り手法であるGLEU\cite{Sakaguchi2016}を上回る性能での評価は実現できなかった.そこで本論文では\citeA{Napoles2016}の参照無し手法を拡張し,その評価性能を調べる.具体的には,\citeA{Napoles2016}が用いた文法性の観点に加え,流暢性と意味保存性の3観点を考慮する組み合わせ手法を提案する.流暢性はGECシステムの出力が英文としてどの程度自然であるかという観点であり,意味保存性は訂正前後で文意がどの程度保たれているかという観点である.各評価手法により訂正システムの性能の評価を行ったところ,提案手法が参照有り手法であるGLEUよりも人手評価と高い相関を示した.これに加えて,各自動評価尺度の文単位での評価性能を調べる実験も行った.文単位での評価が適切にできれば,GECシステムの人手による誤り分析に有用であるが文法誤り訂正の自動評価において文単位の性能を調べた研究はこれまでない.そこで,文単位評価の性能を調べる実験を行ったところ,提案した参照無し手法が参照有り手法より高い性能を示した.この結果を受けて,参照無し手法のもうの可能性も調査した.参照無し手法は正解を使わずに与えられた文を評価できるため,複数の訂正候補の中から最も良い訂正文を選択するために本手法が使えると考えられる.このことを実験的に確かめるために複数のGECシステムの出力を参照無しで評価し,最も良いものを採用するアンサンブル手法の誤り訂正性能を調べたところ,アンサンブル前のシステムの性能を上回った.
V05N01-06
\label{sec:introduction}文書検索では,検索対象の文書集合が大きくなるにつれ,高速/高精度な検索が困難になる.例えば,AltaVista~\footnote{{\tthttp://altavista.digital.com}}に代表されるインターネット上のキーワード検索エンジンでは,検索時に入力されるキーワード数が極端に少ないため~\footnote{AltaVistaでは平均2個弱のキーワードしか入力されない},1)望んた文書が検索されない(再現率の問題),2)望まない文書が大量に検索される(適合率の問題),といった問題が生じている.そのため,要求拡張(queryexpansion)~\cite{smeaton:83:a,peat:91:a,schatz:96:a,niwa:97:a},関連度フィードバック(relevancefeedback)~\cite{salton:83:a,salton:90:a}などの手法が提案されてきた.これらの手法はいずれも,要求となるキーワード集合を拡張したり洗練したりすることで,ユーザの検索意図を明確かつ正確なものに導いていく.これに対し,検索時にキーワード集合ではなく文書それ自身を入力し,入力文書と類似する文書を検索する方法が考えられる~\cite{wilbur:94:a}.この検索方法を{\gt文書連想検索}と呼ぶ.文書連想検索が有効なのは,検索要求と関連する文書を我々が既に持っているという状況や,キーワード検索の途中で関連する文書を一つでも見つけたという状況である.また,論文,特許など,我々自身が書いた文書もそのまま検索入力として利用できる.文書連想検索を使うことにより,適切なキーワード集合を選択することなしに,関連する文書を見つけることができる.文書連想検索を実現する際の問題点は,類似文書の検索に時間がかかることである.単純な網羅検索では,検索対象の大きさ$N$に比例した$O(N)$の時間を要する.そこで本論文では,{\gtクラスタ検索}~\cite{salton:83:a}と呼ばれる検索方法を用いる.クラスタ検索では,通常,クラスタリングによりクラスタの二分木をあらかじめ構築しておき~\footnote{クラスタリングにも,対象データ集合を平坦なクラスタ集合に分割する方法(非階層的クラスタリング)もあるが~\cite{anderberg:73:a},本論文では,クラスタの階層的な木構造を構築する方法(階層的クラスタリング)に限る.また,クラスタ木も相互背反な二分木に限る.},その上でトップダウンに二分木検索を行う.よって,検索時間は平均$O(\log_2N)$に抑えられる.ところが,クラスタ検索に関する従来の研究~\cite{croft:80:a,willett:88:a}では,単純な二分木検索では十分な検索精度が得られないという問題があった.その理由の一つは,クラスタリング時と検索時に異なる距離尺度を用いていたことである.ほとんどの研究では,クラスタリングの手法として単一リンク法,Ward法などを用いていたが,これらの手法は,後の検索で使われる尺度(例えば,TF$\cdot$IDF法や確率)とは直接関係のない尺度でクラスタの二分木を構築していく.これに対し本論文では,クラスタリングの対象文書それぞれを自己検索した際の精度を最大化していく確率的クラスタリングを提案する.よって本クラスタリング法は,検索に適した手法であると言える.実際に,クラスタ検索に本クラスタリング法を用いた場合,単純な二分木検索でも十分な検索精度を得ることができる.検索速度が速い点に加え,クラスタ検索には幾つかの利点がある.クラスタ検索が提案されたそもそもの理由は,「密接に関連した文書群は,同じ検索要求に対する関連性も同等に高い」という{\gtクラスタ仮説}~\cite{van-rijsbergen:74:a}である.通常のキーワード検索では,検索要求と単一文書を厳密なキーワード符合に基づいて比較するため,キーワードの表記の異なりにより関連する文書をとり逃すこともあるが,クラスタ検索では,検索要求を意味的にまとまった文書集合(クラスタ仮説で言うところの「密接に関連した文書群」)と比較するため,この問題も起りにくくなる.クラスタ仮説は,特に検索精度の向上という点において実験的に検証されていない仮説であったが,近年,Hearst等により,キーワード検索で検索した文書集合を絞りこむという状況で,その有効性が実証されている~\cite{hearst:96:a}.本論文では,クラスタ検索が検索対象に含まれているノイズの影響を受けにくいこと(ノイズ頑健性)に注目し,本論文で提案するクラスタ検索が網羅検索に比べ優れていることを実証する.以下,\ref{sec:cluster_based_search}~節では,クラスタ検索について説明する.\ref{sec:hbc}~節では,本論文で提案する確率的クラスタリングについて説明する.\ref{sec:experiment}~節では,本論文で提案したクラスタ検索の有効性を調べるために行なった幾つかの実験について述べる.
V06N01-02
一つ一つの単語はしばしば複数の品詞(即ち,品詞の曖昧性)を持ち得る.しかしながら,その単語が一旦文に組み込まれば,持ち得る品詞はその前後の品詞によって唯一に決まる場合が多い.品詞のタグづけはこのような曖昧性を文脈を用いることによって除去することである.品詞タグづけの研究は,特に英語や日本語などにおいて多数行なわれてきた.これらの研究を通じ,これまで主に四つのアプローチ,即ち,ルールベースによるもの~\cite{garside,hindle,brill},HMMやn-gramを用いた確率モデルに基づいたもの~\cite{church,derose,cutting,weischedel,merialdo,schutze},メモリベースのもの~\cite{daelemans:96,marquez},そしてニューラルネットを用いたもの~\cite{nakamura,schmid,ma}が提案された.これらの研究では,大量の訓練データ(例えば\cite{schmid}においては1,000,000個のデータ)を用いれば,そのいずれの手法を用いても,未訓練データへのタグづけを95\%以上の正解率で行なえることを示した.しかしながら,実際,英語や日本語などを除いた数多くの言語(例えば本稿で取り上げたタイ語)に関しては,コーパス自体もまだ整備段階にあるのが現状で,予め大量の訓練データを得るのが困難である.従って,これらの言語にとっては,如何に少ない訓練データで十分実用的で高い正解率の品詞タグづけシステムを構築するかが重要な課題となる.これまで提案された確率モデルやニューラルネットモデルのほとんどはタグづけに長さが固定の文脈を用いるものであり(HMMモデルにおいても状態遷移を定義するのに固定されたn-gramベースのモデルを用いる),入力の各構成部分は同一の影響度を持つものとされていた.しかし,訓練データが少ない場合,タグづけ結果の確信度を高めるために,まずできるだけ長い文脈を用い,訓練データの不足から確定的な答えが出ない場合に順次文脈を短くするといったようにフレキシブルにタグづけすることが必要とされよう.そして,客観的な基準で入力の各構成部分の品詞タグづけへの影響度を計り,その影響度に応じた重みをそれぞれの構成部分に与えればより望ましいであろう.そこで,シンプルで効果的と思われる解決法はマルチモジュールモデルを導入することである.マルチモジュールモデルとは,複数のそれぞれ異なった長さの文脈を入力としたモジュールとそれらの出力を選別するセレクターから構成されるシステムのことである.しかし,このようなシステムを例えば確率モデルやメモリベースモデルで実現しようとすると,それぞれ以下に述べる不具合が生じる.確率モデルは,比較的短い文脈を用いる場合には,必要とされるパラメターの数はそれほど多くならない.しかし,ここで提案しているような複数のモジュールを場合に応じて使い分けるようなシステムでは,ある程度の長さの文脈を用いることが必要となり,確率モデルのパラメターの数が膨大になる.例えば,品詞が50種類ある言語を左右最大三つの単語の情報を文脈としてタグづけを行なう場合,その最長文脈を入力としたn-gramベース確率モデルにおいては,サイズが$50^7=7.8\times10^{11}$のn-gramテーブルを用意しなければならない.一方,IGTreeのようなメモリベースモデル\cite{daelemans:96}においては,品詞タグづけに実際に用いる特徴の数はそのツリーを張るノード(特徴)の範囲内で可変であり,各特徴のタグづけへの影響度もそれらを選択する優先順位で反映される.しかしながら,特徴の数を大きく取った場合,この手法によるタグづけの計算コストが非常にかかってしまうケースが生じる.実際,Daelmansらのモデル~\cite{daelemans:96}においてはノードの数は僅か4に設定されており,実質的に固定長さの文脈を用いていると見てもよい.本稿では,複数のニューラルネットで構成されるマルチニューロタガーを提案する.品詞のタグづけは,長さが固定の文脈を用いるのではなく,最長文脈優先でフレキシブルに行なわれる.個々のニューラルネットの訓練はそれぞれ独立に行なわれるのではなく,短い文脈での訓練結果(訓練で獲得した重み)を長い文脈での訓練の初期値として使う.その結果,訓練時間が大幅に短縮でき,複数のニューラルネットを用いても訓練時間はほとんど変わらない.タグづけにおいては,目標単語自身の影響が最も強く,前後の単語もそれぞれの位置に応じた影響度を持つことを反映させるために,入力の各構成部分は情報量最大を考慮して訓練データから得られるインフォメーションゲイン(略してIGと呼ぶ)を影響度として重み付けられる,その結果,訓練時間が更に大幅に短縮され,タグづけの性能も僅かながら改善される.計算機実験の結果,マルチニューロタガーは,8,322文の小規模タイ語コーパスを訓練に用いることにより,未訓練タイ語データを94\%以上の正解率でタグづけすることができた.この結果は,どの固定長さの文脈を入力としたシングルニューロタガーを用いた場合よりも優れ,マルチニューロタガーはタグづけ過程において動的に適切な長さの文脈を見つけていることを示した.以下,2章では品詞タグづけ問題の定式化,3章ではインフォメーションゲイン(IG)の求め方,4章ではマルチニューロタガーのアーキテクチャ,そして5章では計算機実験の結果について順に述べていく.
V16N05-01
一般的な分野において精度の高い単語分割済みコーパスが利用可能になってきた現在,言語モデルの課題は,言語モデルを利用する分野への適応,すなわち,適応対象分野に特有の単語や表現の統計的振る舞いを的確に捉えることに移ってきている.この際の標準的な方法では,適応対象のコーパスを自動的に単語分割し,単語$n$-gram頻度などが計数される.この際に用いられる自動単語分割器は,一般分野の単語分割済みコーパスから構築されており,分割誤りの混入が避けられない.特に,適切に単語分割される必要がある適応対象分野に特有の単語や表現やその近辺において誤る傾向があり,単語$n$-gram頻度などの信頼性を著しく損なう結果となる.上述の単語分割誤りの問題に対処するため,確率的単語分割コーパスという概念が提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この枠組では,適応対象の生コーパスは,各文字の間に単語境界が存在する確率が付与された確率的単語分割コーパスとみなされ,単語$n$-gram確率が計算される.従来の決定的に自動単語分割された結果を用いるより予測力の高い言語モデルが構築できることが確認されている.また,仮名漢字変換\cite{無限語彙の仮名漢字変換}や音声認識\cite{Unsupervised.Adaptation.Of.A.Stochastic.Language.Model.Using.A.Japanese.Raw.Corpus}においても,従来手法に対する優位性が示されている.確率的単語分割コーパスの初期の論文では,単語境界確率は,自動分割により単語境界と推定された箇所で単語分割の精度$\alpha$(例えば0.95)とし,そうでない箇所で$1-\alpha$とする単純な方法により与えられている\footnote{前後の文字種(漢字,平仮名,片仮名,記号,アラビア数字,西洋文字)によって場合分けし,単語境界確率を学習コーパスから最尤推定しておく方法\cite{生コーパスからの単語N-gram確率の推定}も提案されているが,構築されるモデルの予測力は単語分割の精度を用いる場合よりも有意に低い.後述する実験条件では,文字種を用いる方法によって構築されたモデルと単語分割の精度を用いる方法によって構築されたモデルによるエントロピーはそれぞれ4.723[bit]と3.986[bit]であった.}.実際には,単語境界が存在すると推定される確率は,文脈に応じて幅広い値を取ると考えられる.例えば,学習コーパスからはどちらとも判断できない箇所では1/2に近い値となるべきであるが,既存手法では1に近い$\alpha$か,0に近い$1-\alpha$とする他ない.この問題に加えて,既存の決定的に単語分割する手法よりも計算コスト(計算時間,記憶領域)が高いことが挙げられる.その要因は2つある.1つ目は,期待頻度の計算に要する演算の種類と回数である.通常の手法では,学習コーパスは単語に分割されており,これを先頭から単語毎に順に読み込んで単語辞書を検索して番号に変換し,対応する単語$n$-gram頻度をインクリメントする.単語辞書の検索は,辞書をオートマトンにしておくことで,コーパスの読み込みと比較して僅かなオーバーヘッドで行える\cite{DFAによる形態素解析の高速辞書検索}.これに対して,確率的単語分割コーパスにおいては,全ての連続する$n$個の部分文字列($L$文字)に対して,$L+1$回の浮動小数点数の積を実行して期待頻度を計算し,さらに1回の加算を実行する必要がある(\subref{subsection:EF}参照).2つ目の要因は,学習コーパスのほとんど全ての部分文字列が単語候補になるため,語彙サイズが非常に大きくなることである.この結果,単語$n$-gramの頻度や確率の記憶領域が膨大となり,個人向けの計算機では動作しなくなるなどの重大な制限が発生する.例えば,本論文で実験に用いた44,915文の学習コーパスに出現する句読点を含まない16文字以下の部分文字列は9,379,799種類あった.このうち,期待頻度が0より大きい部分文字列と既存の語彙を加えて重複を除いた結果を語彙とすると,そのサイズは9,383,985語となり,この語彙に対する単語2-gram頻度のハッシュによる記憶容量は10.0~GBとなった.このような時間的あるいは空間的な計算コストにより,確率的単語分割コーパスからの言語モデル構築は実用性が高いとは言えない.このことに加えて,単語クラスタリング\cite{Class-Based.n-gram.Models.of.Natural.Language}や文脈に応じた参照履歴の伸長\cite{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}などのすでに提案されている様々な言語モデルの改良を試みることが困難になっている.本論文では,まず,確率的単語分割コーパスにおける新しい単語境界確率の推定方法を提案する.さらに,確率的単語分割コーパスを通常の決定的に単語に分割されたコーパスにより模擬する方法を提案する.最後に,実験の結果,言語モデルの能力を下げることなく,確率的単語分割コーパスの利用において必要となる計算コストが大幅に削減可能であることを示す.これにより,高い性能の言語モデルを基礎として,既存の言語モデルの改良法を試みることが容易になる.
V17N05-01
label{Chapter:introduction}近年,Webを介したユーザの情報流通が盛んになっている.それに伴い,CGM(ConsumerGeneratedMedia)が広く利用されるようになってきている.CGMのひとつである口コミサイトには個人のユーザから寄せられた大量のレビューが蓄積されている.その中には製品の仕様や数値情報等の客観的な情報に加え,組織や個人に対する評判や,製品またはサービスに関する評判等のレビューの著者による主観的な見解が多く含まれている.また,WeblogもCGMのひとつである.Weblogにはその時々に書き手が関心を持っている事柄についての記述が存在し,その中には評判情報も多数存在している.これらのWeb上の情報源から,評判情報を抽出し,収集することができれば,ユーザはある対象に関する特徴や評価を容易に知ることができ,商品の購入を検討する際などに意思決定支援が可能になる.また,製品を販売する企業にとっても商品開発や企業活動などに消費者の生の声を反映させることができ,消費者・企業の双方にとって,有益であると考えられる.そのため,この考えに沿って,文書中から筆者の主観的な記述を抽出し,解析する試みが行われている.本研究の目的は評判情報抽出タスクに関する研究を推進するにあたって,必要不可欠と考えられる評判情報コーパスを効率的に,かつ精度良く作成すると共に,テキストに現れる評判情報をより精密に捉えることにある.既存研究においても,機械学習手法における学習データや評価データに評判情報コーパスが利用されているが,そのほとんどが独自に作成された物であるために共有されることがなく,コーパスの質に言及しているものは少ない.また,コーパスの作成過程においても評価表現辞書を作成支援に用いるなど,あらかじめ用意された知識を用いているものが多い.本研究においては「注釈者への指示が十分であれば注釈付けについて高い一致が見られる」という仮説が最初に存在した.その仮説を検証するため,注釈者へ作業前の指示を行った場合の注釈揺れの分析と注釈揺れの調査を行う.\ref{sec:予備実験1の結果}節で述べるように,注釈者間の注釈付けの一致率が十分では無いと判断されたが,注釈揺れの主要な原因の一つとして省略された要素の存在があることがわかった.そのため,省略されている要素を注釈者が補完しながら注釈付けを行うことで注釈付けの一致率を向上できるという仮説を立てた.\ref{sec:予備実験2の結果}節で述べるように,この仮説を検証するために行った実験から,省略の補完という手法は,ある程度効果があるものの,十分に有用であったとはいえないという結果が得られた.そこで,たくさんの注釈事例の中から,当該文と類似する事例を検索し提示することが,注釈揺れの削減に効果があるのではないかという仮説を立てた.この仮説に基づき,注釈事例の参照を行いながら注釈付けが可能なツールを試作した.ツールを用いて,注釈事例を参照した場合には,注釈事例を参照しない場合に比べて,高い一致率で注釈付けを行うことが出来ると期待される.また,評判情報のモデルについて,既存研究においては製品の様態と評価を混在した状態で扱っており,評価対象—属性—評価値の3つ組等で評判情報を捉えていた.本研究では,同一の様態に対してレビュアーにより評価が異なる場合にも評判情報を正確に捉えるために,製品の様態と評価を分離して扱うことを考える.そのために,項目—属性—属性値—評価の4つの構成要素からなる評判情報モデルを提案する.なお,本研究で作成する評判情報コーパスの利用目的は次の3つである.\begin{itemize}\item評判情報を構成要素に分けて考え,機械学習手法にて自動抽出するための学習データを作成する\item属性—属性値を表す様態と,その評価の出現を統計的に調査する\item将来的には抽出した評判情報の構成要素の組において,必ずしも評価が明示されていない場合にも,評価極性の自動推定を目指す\end{itemize}上記の手法により10名の注釈者が作成した1万文のコーパスについて,注釈付けされた部分を統計的に分析し,提案した評判情報モデルの特徴について実例により確認する.また,提案モデルを用いることでより正確に評判を捉えられることを示す.
V24N03-06
近年,インターネットなどからテキストとそれに紐づけられた非テキスト情報を大量に得ることができ,画像とそのキャプションや経済の解説記事とその株価チャートなどはwebなどから比較的容易に入手することができる.しかし,テキストと非テキスト情報を対応させる研究の多くは,画像から自然言語を出力する手法\cite{Farhadi:2010:PTS:1888089.1888092,Yang:2011:CSG:2145432.2145484,rohrbach13iccv}のように非テキスト情報から自然言語を出力することを目的としている.Kirosらは非テキスト情報を用いることにより言語モデルの性能向上を示した\cite{icml2014c2_kiros14}.本稿では,非テキスト情報を用いた自動単語分割について述べる.本稿では,日本語の単語分割を題材とする.単語分割は単語の境界が曖昧な言語においてよく用いられる最初の処理であり,英語では品詞推定と同等に重要な処理である.情報源として非テキスト情報とテキストが対応したデータが大量に必要になるため,本研究では将棋のプロの試合から作られた将棋の局面と将棋解説文がペアになったデータ\cite{A.Japanese.Chess.Commentary.Corpus}を用いて実験を行う.似た局面からは類似した解説文が生成されると仮定し,非テキスト情報である将棋の局面からその局面に対応した解説文の部分文字列をニューラルネットワークモデルを用いて予測し,その局面から生成されやすい単語を列挙する.列挙された単語を辞書に追加することで単語分割の精度を向上させる.\begin{figure}[b]\begin{center}\includegraphics{24-3ia6f1.eps}\end{center}\caption{提案手法の概観}\label{fig-overview}\end{figure}本手法は3つのステップから構成される(図\ref{fig-overview}).まず,将棋の局面と単語候補を対応させるために生テキストから単語候補を生成する.単語候補は将棋解説文を擬似確率的分割コーパスを用いて部分単語列に分割することで得られる.次に,生成した単語候補と将棋の局面をニューラルネットワークを用いて対応させることでシンボルグラウンディングを行う.最後にシンボルグラウンディングの結果を用いて将棋解説文専用の辞書を生成し,自動単語分割の手法に取り入れる.本稿の構成は以下の通りである.まず2章で単語の候補を取り出すために確率的単語分割コーパスを用いる手法について述べる.3章で将棋解説文と局面が対応しているデータセットのゲーム解説コーパスについて触れ,シンボルグラウンディングとして単語候補と将棋局面を対応させる手法の説明を行う.4章ではベースラインとなる自動単語分割器について述べたあと,非テキスト情報を用いた単語分割として,シンボルグラウンディングの結果を用いて辞書を生成し,単語分割器を構築する手法を述べる.5章で実験設定と実験結果の評価と考察を行い,6章で本手法と他の単語分割の手法を比較する.最後に7章で本稿をまとめる.
V18N04-02
\label{sec:1}\modified{言語解析器の作成時,タグ付きコーパスを用いて構造推定のための機械学習器を訓練する.しかし,そのコーパスはどのくらい一貫性をもってタグ付けられるものだろうか.一貫性のないコーパスを用いて評価を行うとその評価は信頼できないものとなる.また,一貫性のないコーパスから訓練すると,頑健な学習モデルを利用していたとしても解析器の性能は悪くなる.}本稿では,人間による日本語係り受け関係タグ付け作業に関して,\modified{どのくらい一貫性をもって正しくタグ付け可能かを評価する}新しいゲームアプリケーション``shWiiFitReduceDependencyParsing''(図\ref{fig:swfrdp})を提案する.ゲームのプレーヤーはWiiバランスボードの上に立ち,係り受け解析対象の文を読み,画面中央の文節対に対して\mmodified{2}種類の判断「係らない(SHIFT)」もしくは「係る(REDUCE)」の判断を選択し,体重を左右のどちらかに加重する.\modified{係り受け構造のタグ付けにおける非一貫性は次の3つに由来すると考える.1つ目は,係り受け構造が一意に決まるが,作業者が誤るもの.2つ目は,複数の可能な正しい構造に対して,基準により一意に決めているが,作業者が基準を踏襲できなかったもの.3つめは,複数の可能な正しい構造に対して,基準などが決められていないもの.}\begin{figure}[b]\begin{minipage}[t]{205pt}\includegraphics{18-4ia920f1.eps}\caption{shWiiFitReduceDependencyParsing}\label{fig:swfrdp}\end{minipage}\hfill\raisebox{26pt}[0pt][0pt]{\begin{minipage}[t]{205pt}\includegraphics{18-4ia920f2.eps}\caption{ExampleSentences}\label{fig:examplesentences}\end{minipage}}\end{figure}\modified{ここでは,1つめの非一貫性つまりタグ付けの正確性について検討する.}このゲームアプリケーションを用いて,埋め込み構造に基づくガーデンパス文(図\ref{fig:examplesentences})のタグ付け困難性を評価する心理言語実験を行う.対象となる文は統語的制約のみによりその係り受け構造が一意に決定できる.しかしながら,被験者は動詞の選択選好性によるバイアスにより係り受け構造付与を誤ってしまう傾向があり,本稿ではその傾向を定量的に調査する.また,同じガーデンパス文を,各種係り受け解析器で解析し,現在の係り受け解析モデルの弱点について分析する.人間の統語解析処理については,自己ペースリーディング法・質問法・視線検出法などの手法により心理言語学の分野で調査されてきた\cite{Mazuka1997a,Tokimoto04}.しかしながら,これらの心理言語学で用いられてきた手法は,読む速度を計測したり,文の意味を質問により事後確認したりする手法であり,コーパスに対する係り受けのタグ付けに直接寄与しない.一方,提案する手法では人間の係り受け判断をより直接的に評価し,また\modified{体重加重分布}に基づいて解析速度を追跡することができる.以下,\ref{sec:2}節では日本語係り受け解析手法について概説する.\ref{sec:3}節では用いたガーデンパス文について説明する.\ref{sec:4}節では人間による係り受け解析の調査に用いたゲームについて紹介する.\ref{sec:5}節では実験結果と考察を示し,\ref{sec:6}節にまとめと今後の展開について示す.
V06N04-06
我々が日常行っているような自由な対話では,人はどのようにして対話を進めているのだろうか.人に物を尋ねる,仕事を依頼するなどの明確な目標がある場合には,対話の方針(対話戦略)は比較的たてやすいと思われる.しかしながら,職場や学校での食事やお茶の時間,家庭での団らんの時などのおしゃべり,また様々な相談(合意形成,説得から悩みごと相談まで)では,どのようなが対話戦略が可能なのだろうか.そもそも,そのような対話に「対話戦略」と呼べるようなものは存在し得るのだろうか.このような対話では,個々の参加者が対話の流れを意図的に制御しようとしても,なかなかうまく行かないことが多い.むしろ我々は,対話の流れの中で次々と心に浮かんでくる言葉の断片を発話により共有化して,参加者全員で対話を作り上げているように見える.一見,成り行きに任せてしまっているようにみえるこの特徴こそが,実は対話の本質ではないだろうか.我々は,以下の二つの特徴を対話の見逃してはならない重要な側面と考える.\begin{description}\item[対話の即興性]対話は,相手とのインタラクションの場の中で生まれる営みであり,それぞれの場で要求される行動を採りつつ,自己の目的を実現するという高度の戦略が必要とされる.単純に予め立てておいたプランに従って進行させようとしても,対話は決してうまくいかない.\item[対話の創造性]お互いの持っている情報を交換するだけでは,対話の本来の価値は発揮できない.対話をすることで,1+1から2以上のものを生み出すこと,相手の発話に触発されて新しい考えが浮かび上がり,またそれを相手に伝えることで,今度は相手の思考を触発すること,このような正のフィードバックが重要である.\end{description}\hspace*{-0.5cm}我々は,対話のこの二つの側面,「即興性」と「創造性」をあわせて,{\bf対話の創発性}と呼ぶことにする.一見効率がよいように思えるパック旅行では新しい経験は生まれない.きちっとした計画のない自由な旅行でこそ,新しい経験が生まれ,新しい世界が見えてくるといわれる.対話においても,明確な対話戦略のあるようなタスクでは,なかなか対話の創発性は現れてこないものである.そこで,我々は対話の創発性が観測されるような対話を収集することを狙いとして,単純な対話戦略ではうまく機能しない状況を設定して,そこで行われる対話を調べてみることとした.以下2章では,これまでに作られてきた対話コーパスとの比較で,我々の目的としている対話の特徴を述べる.3章では,我々が行った協調作業実験の詳細を述べる.4章では収録対話のデータ構造と基礎的統計データについて述べる.5章では収録されたデータの予備的な分析として,共話と同意表現の使われ方について述べる.最後に,6章で考察を行う.\vspace{-10mm}\newpage
V04N04-03
アスペクトとは,動きの時間的な局面を問題にして,どの局面をどのように(動きとして,あるいは状態として)とらえるか,ということを表すカテゴリーである.『国語学大辞典』\cite{Kokugo93}で「アスペクト」の項をひくと,\begin{quotation}動詞のあらわす動作が一定時点においてどの過程の部分にあるかをあらわす,動詞の形態論的なカテゴリー.たとえば,「よみはじめる」はよむ動作がはじまることを,「よんでいる」は進行の途中にあることを,「よんでしまう」は動作がおわりまでおこなわれることを,「よんである」は,動作終了後に一定の結果がのこっていることをあらわす.アスペクトは,時間にかかわるカテゴリーであるが,テンスとちがって,はなしの時点との関係は問題にしない.(後略)\end{quotation}とされている.当然のことながら,動詞句の実現するアスペクト的な意味は,動詞の性格と密接に関係する.金田一は,動詞を継続動詞と瞬間動詞にわけ,継続動詞が「している」になると進行態(進行中の意味)となり,瞬間動詞は既然態(結果の状態の意味)になるとした\cite{Kindaiti76}.このほか,結果動詞と非結果動詞,さらに,変化動詞,出現動詞,消滅動詞,設置動詞などと,さまざまな分類がなされてきた.英語においても,Vendlerによるactivities,achievements,accomplishments,statesというような分類\cite{Vendler57},あるいはComrieによるactions,states,processes,eventsのような分類がある\cite{Comrie76}.しかし,近年の研究は,動詞句の分類とそれぞれの意味を記述していく段階から,副詞的成分などの関わりを含め,アスペクト的な意味の決まり方のプロセスを整理する方向へと発展してきている.たとえば,森山は,「結婚している」という句が,通常,結果の状態をあらわすのに対し,「多くの友達が次々と結婚している」といった場合には,繰り返しとしての進行中と解釈されるなどの例を挙げ,最終的なアスペクトの意味が,格成分,副詞などを含めた包括的なレベル(森山氏はこれをアスペクトプロポジションAPと呼んでいる)において決められることを指摘している\cite{森山83,森山88}.本稿では,アスペクト形式\footnote{派生的にとらえられる文法的な形態素を形式と呼ぶ.本稿では,「シ始メル」などの複合動詞も含め,動詞に後続する要素をアスペクト形式とよぶ.}や副詞句の意味を時間軸におけるズーミングや焦点化といった認知的プロセスを表示するものとしてとらえ,動詞句の意味に対する動的な操作であると考える.次節では,これらの概念について,一般的な説明を与える.第3節では,動詞句の意味を素性によって表現し,それに対してアスペクト形式や副詞句が具体的にどのような操作をするかを明らかにする.第4節では,動詞句の意味をコーパスに現れた表層表現から推定し,6種類のクラスに分類する実験の方法と結果および評価を述べる.実験結果の評価は,最も基本的なアスペクトの形態である「シテイル」形の意味を自動的に決定する処理によって行なった.動詞句の分類自体は,客観的に評価することが難しいからである.
V15N02-02
企業内には,計算機で処理できる形での文書が大量に蓄えられている.情報検索,テキストマイニング,情報抽出などのテキスト処理を計算機で行う場合,文書内には,同じ意味の語句(同義語)が多く含まれているので,その処理が必要となる.例えば,日本語の航空分野では,「鳥衝突」を含む文書を検索したい場合,「鳥衝突」とその同義語である「BirdStrike」が同定できなければ,検索語として「鳥衝突」を指定しただけでは,「BirdStrike」を含み「鳥衝突」を含まない文書は検索できない.したがって,同義語の同定を行わないと,処理能力が低下してしまう.特定分野における文書には,専門の表現が多く用いられており,その表現は一般的な文書での表現とは異なっている場合が多い.その中には,分野独特の同義語が多量に含まれている.これらの多くは汎用の辞書に登録されていないので,汎用の辞書を使用することによる同義語の処理は難しい.したがって,その分野の同義語辞書を作成する必要がある.本論文では,このような特定分野における同義語辞書作成支援ツールについて述べる.本論文では,特定分野のひとつとして航空分野を対象とするが,航空分野のマニュアル,補足情報,業務報告書等に使用される名詞に限っても,漢字・ひらがなだけでなく,カタカナ,アルファベットおよびそれらの略語が使用されている.例えば,飛行機のマニュアルの場合,「Flap」を日本語の「高揚力装置」と表現しないで「Flap」と表現し,用語の使用がマニュアルよりも自由なマニュアル以外の文書では,「Flap」や「フラップ」と表現している.また,略語も頻繁に使用され,「滑走路」を「RWY」,「R/W」と表現している.そして,これらの表現が混在している.その理由は,海外から輸入された語句は,漢字で表現するとイメージがつかみ難いものがあるためであり,そのような語句は,英語表現や英語のカタカナ表現が使用される.「Aileron」を「補助翼」というよりは,「Aileron」や「エルロン」と通常表現している.マニュアルの場合は,ある程度,使用語が統一されているが,マニュアル以外のテキストは,語句の使用がより自由で,同義語の種類・数も多くなっている.そして,分野の異なる人間や計算機にとって理解し難いものとなっている.このようなテキストを計算機で処理する場合には,同義語辞書が必要であるが,これらの語句は,前述したように汎用の辞書に載っていない場合が多い.さらに,語句の使用は統制されているものではなく,また,常に新しい語が使用されるので,一度,分野の辞書を作成しても,それを定期的にメンテナンスする必要がある.これを人手だけで行うのは大変な作業である.我々は,同義語の類似度をその周辺に出現する語句の文脈情報により計算することにより同義語辞書を半自動的に作成するツールを開発している~\cite{terada06,terada07}.本論文では,上記の支援ツールを基礎にした計算機支援による同義語辞書作成ツールを提案する.その動作・仕組みは以下の通りである.計算機は,与えられたクエリに対して,意味的に同じ語句(同義語)の候補を提示する.辞書作成者は,クエリをシステムに与えることにより,同義語の候補語をシステムから提示され,その中から同義語を選択して,辞書登録をすることができる.システムは,これまで蓄えられた大量のテキスト情報を参照し,与えられたクエリの文脈と類似する文脈を持つ語句を同義語候補語とする.文脈は,クエリ・同義語の候補語の周辺に出現する語句を使用している.既知の同義語が存在する場合には,これらの同義語を使用して文脈語を同定することにより,システムの精度向上を行った.提案手法は,語句を認識できればよいので,分野・言語を問わないものである.実験は,日本語の航空分野のレポートを使用した.このコーパスには,上述したように多数の同義語が存在し,その多くは汎用の辞書に載っていないものである.評価は,回答の中で正解が上位にある程,評価値が高くなる平均精度を用いて行い,他の手法と比較して満足できる結果が得られた.論文構成は,第2節では関連研究について述べる.第3節では類似度と平均精度について述べるが,その中で文脈情報,類似度,平均精度の定義について説明する.第4節では提案方式の詳細と実験について述べる.コーパス,評価用辞書,特徴ベクトルの定義について説明し,文脈語の種類・頻度,window幅による精度比較について述べる.第5節では,第4節の結果をもとにして,詳細な議論を行う.クエリ・同義語候補語の種類による精度の比較,大域的文脈情報との比較,文脈語の正規化,特異値分解,関連語について述べる.第6節では複合名詞の処理を述べる.複合名詞については,専門用語自動抽出システム~\cite{termextract}が抽出した複合名詞を使用することにより単名詞と同様の処理を行った.第7節では同義語辞書の作成について考察する.第8節では結論と今後の研究課題について述べる.
V20N02-04
文書分類においてNaiveBayes(NB)を利用するのは極めて一般的である.しかし,多項モデルを用いたNB分類器では,クラス間の文書数に大きなばらつきがある場合に,大きく性能が下がるという欠点があった.そのため,\citeA{Rennie}は「クラスに属する文書」ではなく「クラスに属さない文書」,つまり「補集合」を用いることによりNBの欠点を緩和したComplementNaiveBayes(CNB)を提唱した.しかし,CNBはNBと同じ式,つまり事後確率最大化の式から導くことができない.そこで我々は,事後確率最大化の式から導くことのできるNegationNaiveBayes(NNB)を提案し,その性質を他のBayesianアプローチと比較した.その結果,クラスごとの単語数(トークン数)が少なく,なおかつクラス間の文書数に大きなばらつきがある場合には分類正解率がNB,CNBをカイ二乗検定で有意に上回ること,また,これらの条件が特に十分に当てはまる場合には,事前確率を無視したCNBも同検定で有意に上回ることを示す.また,NNBは,Bayes手法以外の手法であるサポートベクターマシン(SVM)よりも,時に優れた結果を示した.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節でBayes手法のテキスト分類の関連研究について紹介する.\ref{Sec:NegationNaiveBayesの導出}節では提案手法であるNNBの導出について述べる.\ref{Sec:実験}節では本研究で用いたデータと実験方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる.
V06N05-03
近年,研究者数の増加,学問分野の専門分化と共に学術情報量が爆発的に増加している.また,研究者が入手できる文献の量も増える一方であり,人間の処理能力の限界から,入手した文献全てに目を通し利用することが益々困難になってきている.このような状況で必要とされるのは,特定の研究分野に関連した情報が整理,統合された文書,すなわちサーベイ論文(レビュー)や専門図書である.サーベイ論文や専門図書を利用することで,特定分野の研究動向を短時間で把握することが可能になる.しかし,論文全体に対するサーベイ論文の占める割合が極端に少ないという指摘がある\cite{Garvey79}.その理由の一つとして,サーベイ論文を作成するという作業がサーベイ論文の作者にとって,時間的にも労力的にも非常にコストを要することが挙げられる.しかし,今後の学術情報量の増加を考えれば,このようなサーベイ論文の需要は益々高まっていくものと思われる.我々はサーベイ論文を複数論文の要約と捉えており,サーベイ論文の自動作成の研究を行っている.本来サーベイ論文とは,多くの論文に提示されている事実や発見を総合化,また問題点を明らかにし,今後更に研究を要する部分を提示したものであると考えられる\cite{Garvey79}.しかし現在の自動要約の技術\footnote{近年の自動要約技術の動向に関しては\cite{奥村98}を参照されたい.}から考えると,このようなサーベイ論文の自動作成は,非常に困難であると思われる.そこで関連する複数の論文中から各論文の重要箇所,論文間の相違点が明示されている箇所を抽出し,それらを部分的に言い替えて読みやすく直した後,並べた文書をサーベイ論文と考え,そのような文書の自動作成を試みる.本稿では,その第1歩として,サーベイ論文作成を支援するシステムを示す.本研究では,サーベイ論文作成支援の際,論文間の{\bf参照情報}に着目する.一般に,ある論文は他の複数の論文と参照関係にあり,また論文中に参照先論文の重要箇所や,参照先論文との関係を記述した箇所(以後,{\bf参照箇所})がある.この参照箇所を読むことで,著者がどのような目的で論文を参照したのか(以後,{\bf参照タイプ})や参照/被参照論文間の相違点が理解できる.論文の参照情報とは,このように論文間の参照・被参照関係だけでなく,参照箇所や参照タイプといった情報まで含めた物を指す.参照情報は特定分野の論文の自動収集や論文間の関係の分析に利用できると考えられる.本稿の構成は以下の通りである.2章では,複数テキスト要約におけるポイントとサーベイ論文作成におけるポイントについて述べ,また関連研究を紹介する.3章では参照箇所と参照タイプについて説明する.また,参照箇所,参照タイプがサーベイ論文作成においてどのように利用できるかについて述べる.4章では,3章で述べた考え方を基にしたサーベイ論文作成支援システムの実現方法について説明する.また,参照箇所の抽出手法,参照タイプの決定手法について述べる.5章ではそれらの手法を用いた実験結果を示す.6章では,作成したサーベイ論文作成支援システムの動作例を示す.
V27N02-08
\label{sec:intro}金融や医療,情報通信などの多くの分野において,様々な形式のデータを取り扱う機会が増えてきている.しかし,大規模で複雑なデータを専門知識のない人が見て解釈することは容易ではなく,専門家であったとしても大規模なデータから重要な情報を読み取るためには時間がかかる.そのため,データの概要を説明する概況テキストを自動的に生成するData-to-Text技術の関心が高まっている\cite{Gatt:2018:SSA:3241691.3241693}.本稿では,日経平均株価の市況コメントを生成するタスクを例として,時系列数値データから多様な特徴を抽出し,データの概要をテキスト化する手法を提案する.本研究では,日経平均株価の市況コメントの自動生成を,時系列株価データから単語系列を生成する系列生成タスクとして考え,機械翻訳や文書要約などの系列生成タスクで広く用いられているエンコーダ・デコーダモデル\cite{sutskever2014sequence}を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia7f1.eps}\end{center}\caption{日経平均株価と市況コメント}\label{fig:news_example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:news_example}に日経平均株価の時系列株価データと市況コメントの例を示す.この例のように,株価の市況コメントなどの時系列数値データの概況テキストでは,「上がる」,「下がる」といった単純な特徴だけが表出されるわけではない.過去のデータの履歴や,テキストが書かれる時間帯によって言及すべき内容は様々である.また,数値の時系列データの場合,時系列中の数値や,過去との差分を計算した値が言及されることが多々ある.例えば,図\ref{fig:news_example}の市況コメントでは,「続落」,「反発」のように価格の履歴を参照する表現(1,3,6),「上げに転じる」のように時系列データの変化を示す表現(2),「始まる」,「前引け」,「午後」,「大引け」などテキストが書かれる時間帯に依存する表現(1,3,4,6)が見られる.また,数値に言及する場合は,価格が直接言及される(3,6)こともあれば,履歴からの差分(3,6)や,切り上げ・切り捨てした値(5)が用いられることもある.本研究では,株価の市況コメントにおけるこれらの特性を踏まえ,データから多様な特徴を自動抽出し,テキスト化するためのエンコード/デコード手法を提案する.まず,「続落」,「上げに転じる」といった時系列株価データの過去の履歴や変化を捉えるために,株価の短期的および長期的な時系列データを使用する.次に,「前引け」,「大引け」といった市況コメントが記述される時間帯に依存する表現を生成するために,デコード時に時刻情報を導入する.加えて,「19,386円」,「100円」といった株価の終値や前日からの変動幅などの数値を市況コメントで言及するために,入力である時系列株価データ中から適切な数値を出力するための演算操作を推定し,計算することで数値の出力を行う.実験では,日経平均株価の時系列株価データと人手で書かれた市況コメントを用いて提案手法の評価を行った.自動評価では,実際の市況コメントと生成テキストの一致度合いを評価するためのBLEU,および,「続落」,「前引け」などの表現を正しく出力できているかを評価するためのF値を使用し,提案手法がベースライン手法に比べて大幅に性能が向上することを確認した.さらに,人手評価では,テキストの流暢性と情報性の観点において,提案手法により株価の市況コメントにおける上記のような多様な特徴を捉えた質の高いテキストを生成できることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V23N01-01
自動要約の入出力は特徴的である.多くの場合,自動要約の入出力はいずれも,自然言語で書かれた,複数の文からなる文章である.自動要約と同様に入出力がともに自然言語である自然言語処理課題として機械翻訳や対話,質問応答が挙げられる.機械翻訳や対話の入出力が基本的にはいずれも文であるのに対して,自動要約や一部の質問応答は基本的には入出力がいずれも文章である点が特徴的である.また形態素解析や係り受け解析などの自然言語解析課題においては,入力は文であるが,これらの出力は品詞列や係り受け構造などの中間表現であり,自然言語ではない.談話構造解析は文章を入力として想定するものの,やはり出力は自然言語ではない.この特徴的な入出力が原因となり,自動要約の誤り分析は容易ではない.自動要約研究の題材として広く用いられるコーパスの多くは数十から数百の入力文書と参照要約\footnote{本稿では,ある文書に対する正しい要約を「参照要約」と呼ぶ.}の組からなるが,入出力が文章であるがために,詳しくは\ref{sc:誤り分析の枠組み}節で述べるが,自動要約の誤りの分析においては考慮しなければならない要素が多い.そのため,数十の入力文書と参照要約の組といった入出力の規模でも,分析には多大な時間を要することになる.人手による詳細な分析を必要としない簡便な自動要約の評価方法としてROUGE\cite{lin04}があるが,ROUGEによる評価では取りこぼされる現象が自動要約課題に存在することも事実であり,詳細な分析が十分になされているとはいいがたい.そのため,何らかの誤りを含むと思われる要約をどのように分析すればよいのかという体系的な方法論は存在せず,したがって自動要約分野の研究者が各々の方法論をもって分析を行っているのが現状と思われる.この状況を鑑み,本稿では,自動要約における誤り分析の枠組みを提案する.まず,要約システムが作成する要約が満たすべき3つの要件を提案する.また,要約システムがこれらの要件を満たせない原因を5つ提案する.3つの要件と5つの原因から,15種類の具体的な誤りが定義され,本稿では,自動要約における誤りはこれらのいずれかに分類される.本稿の構成は以下の通りである.\ref{sc:基本的な前提}節では本稿が置く基本的な前提について説明し,本稿での議論の範囲を明らかにする.\ref{sc:誤り分析の枠組み}節では誤り分析の枠組みを提案し,自動要約の誤りが提案する15種類の誤りのいずれかに分類できることを示す.\ref{sc:分析の実践}節では実際の要約例に含まれる誤りを提案した枠組みに基づいて分析した結果を示す.\ref{sc:分析に基づく要約システムの改良}節では\ref{sc:分析の実践}節で得られた分析の結果に基づいて要約システムを改良し,要約の品質が改善することを示す.\ref{sc:関連研究}節では関連研究について述べる.\ref{sc:おわりに}節では本稿をまとめ,今後の展望について述べる.
V23N04-02
\label{sec:introduction}統計的機械翻訳(StatisticalMachineTranslation,SMT)では,翻訳モデルを用いてフレーズ単位で翻訳を行い,並べ替えモデルを用いてそれらを正しい語順に並べ替えるフレーズベース翻訳(PhraseBasedMachineTranslation)\cite{koehn03phrasebased},構文木の部分木を翻訳に利用する統語ベース翻訳\cite{yamada01syntaxmt}などの翻訳手法が提案されている.一般的に,フレーズベース翻訳は英仏間のような語順が近い言語間では高い翻訳精度を達成できるものの,日英間のような語順が大きく異なる言語間では翻訳精度は十分でない.このような語順が大きく異なる言語対においては,統語ベース翻訳の方がフレーズベース翻訳と比べて高い翻訳精度を達成できることが多い.統語ベース翻訳の中でも,原言語側の構文情報を用いるTree-to-String(T2S)翻訳\cite{liu06treetostring}は,高い翻訳精度と高速な翻訳速度を両立できる手法として知られている.ただし,T2S翻訳は翻訳に際して原言語の構文解析結果を利用するため,翻訳精度は構文解析器の精度に大きく依存する\cite{neubig14acl}.この問題を改善する手法の一つとして,複数の構文木候補の集合である構文森をデコード時に利用するForest-to-String(F2S)翻訳\cite{mi08forestrule}が挙げられる.しかし,F2S翻訳も翻訳精度は構文森を作成した構文解析器の精度に大きく依存し,構文解析器の精度向上が課題となる\cite{neubig14acl}.構文解析器の精度を向上させる手法の一つとして,構文解析器の自己学習が提案されている\cite{mcclosky2006effective}.自己学習では,アノテーションされていない文を既存のモデルを使って構文解析し,自動生成された構文木を学習データとして利用する.これにより,構文解析器は自己学習に使われたデータに対して自動的に適応し,語彙や文法構造の対応範囲が広がり,解析精度が向上する.しかし,自動生成された構文木は多くの誤りを含み,それらが学習データのノイズとなることで自己学習の効果を低減させてしまうという問題が存在する.Katz-Brownら\cite{katzbrown11targetedselftraining}は構文解析器の自己学習をフレーズベース翻訳のための事前並べ替えに適用する手法を提案している.フレーズベース翻訳のための事前並べ替えとは,原言語文の単語を目的言語の語順に近くなるように並べ替えることによって,機械翻訳の精度を向上させる手法である.この手法では,構文解析器を用いて複数の構文木候補を出力し,この構文木候補を用いて事前並べ替えを行う.その後,並べ替え結果を人手で作成された正解並べ替えデータと比較することによって,各出力にスコアを割り振る.これらの並べ替え結果のスコアを基に,構文木候補の中から最も高いスコアを獲得した構文木を選択し,この構文木を自己学習に使用する.このように,学習に用いるデータを選択し,自己学習を行う手法を標的自己学習(TargetedSelf-Training)という.Katz-Brownらの手法では,正解並べ替えデータを用いて,自己学習に使用する構文木を選択することで,誤った並べ替えを行う構文木を取り除くことができ,学習データのノイズを減らすことができる.また,Liuら\cite{liu12emnlp}は,単語アライメントを利用して構文解析器の標的自己学習を行う手法を提案している.一般に,構文木と単語アライメントの一貫性が取れている場合,その構文木は正確な可能性が高い.そのため,この一貫性を基準として構文木を選択し,それらを用いて構文解析器を学習することでより精度が向上することが考えられる.以上の先行研究を基に,本論文では,機械翻訳の自動評価尺度を用いた統語ベース翻訳のための構文解析器の標的自己学習手法を提案する.提案手法は,構文解析器が出力した構文木を基に統語ベース翻訳を行い,その翻訳結果を機械翻訳の自動評価尺度を用いて評価し,この評価値を基にデータを選択し構文解析器の自己学習を行う.統語ベース翻訳では,誤った構文木が与えられた場合,翻訳結果も誤りとなる可能性が高く,翻訳結果を評価することで間接的に構文木の精度を評価することができる.以上に加え,提案手法は大量の対訳コーパスから自己学習に適した文のみを選択し学習を行うことで,自己学習時のノイズを減らす効果がある.Katz-Brownらの手法と比較して,提案手法は事前並べ替えだけでなく統語ベース翻訳にも使用可能なほか,機械翻訳の自動評価尺度に基づいてデータの選択を行うため,対訳以外の人手で作成された正解データを必要としないという利点がある.これにより,既存の対訳コーパスが構文解析器の標的自己学習用学習データとして使用可能になり,構文解析器の精度やF2S翻訳の精度を幅広い分野で向上させることができる.また,既に多く存在する無償で利用可能な対訳コーパスを使用した場合,本手法におけるデータ作成コストはかからない.さらに,Liuらの手法とは異なり,翻訳器を直接利用することができる利点もある.このため,アライメント情報を通して間接的に翻訳結果への影響を計測するLiuらの手法に比べて,直接的に翻訳結果への影響を構文木選択の段階で考慮できる.実験により,提案手法で学習した構文解析器を用いることで,F2S翻訳システムの精度向上と,構文解析器自体の精度向上が確認できた\footnote{本論文では,\textit{IWSLT2015:InternationalWorkshoponSpokenLanguageTranslation}で発表した内容\cite{morishita15iwslt}に加え,翻訳システムの人手評価を実施した結果をまとめた.}.
V08N01-04
情報検索の分野は,欧米において過去数十年の間に,英語を中心とした文書を対象に研究が盛んに進められ,高速な文字列検索アルゴリズムや自動索引づけなどに多くの成果が得られた.これらの技術が基礎となり,大規模な文書集合に対する検索技術,新しい評価技術の向上を目的として,TREC(TextREtrievalConference)\footnote{TRECワークショップホームページ:http://trec.nist.gov}などのコンテストが開催され,新しい技術の開発やこれまでの技術の改良などが活発に行われている.日本においても,情報抽出,検索技術に関する研究が盛んに行われ,数多くの優れた日本語情報検索システムが提案されている.このようなシステムを評価するための日本語テストコレクションの整備も進み\cite{kitani},個々の検索システムを容易に評価できるようになった.さらに,共通のデータベース,プラットフォームにおけるシステム評価の場として,IREX(InformationRetrievalandExtractionExercise)ワークショップ\footnote{IREXワークショップホームページ:http://cs.nyu.edu/cs/projects/proteus/irex/}が開催された.このワークショップには,情報検索(IR)と情報抽出(NE)の各課題に対して数多くのシステムが参加し,全体的な評価を通して様々な議論が行われた.IREXの目標のひとつとして,共通の基準における各検索システムの評価を基にした問題点の共有と,それによるこの分野の飛躍的な進歩,発展がある\cite{sekine99}.一般的に,情報検索システムの性能評価をする際には,提案された手法を利用したシステムと利用していないシステムとの比較を行う.比較する際,一つのシステムからみると,参加した数多くのシステムにおける評価結果の違いから,研究の新しい方向性や発展性が発見できる.しかし,IREXでは,数多くのシステムが参加しているため,ふたつのシステム間の比較実験では実験回数が莫大となり,共通点,相違点の整理が複雑になってしまう.また,他の比較手法として,使用されたシステムとは別の基準システムを作り,比較を行う手法も提案されている\cite{Hull93}.しかし,その場合,システム間の相違点が多くなり,直接的に何が精度向上の原因であるのかをとらえることが難しくなる.したがって,すべての検索システムを対象として,システムの構成要素を評価すると同時に,全体的なシステムの検索精度を評価するようなシステム指向の評価方法が必要となる.このような全体的な評価は,問題点を発見,解決するための議論を進める上で重要な課題であると考えられ,TRECやIREXでは様々な評価が行われている\cite{Lagergren98}\cite{Voorhees98SIGIR}\cite{Matuo99}.本論文では,IREXにおけるIR課題の本試験の結果,および参加した各システムについての,参加者が回答したアンケート結果を参考にして,IR課題におけるシステムの特徴と精度の関連性を独自の統計的な手法を用いて分析する.これまでは,手法を利用したシステムと利用していないシステムとの実験結果を比較することによって,その手法の有効性が評価されていた.これに対し,我々の提案する評価手法は,数多くのシステムにおける検索結果を基にして,システムに用いられた手法との関連性を客観的な相関係数として表し,検索システムに対し有効な手法を明確にしている.このような検索システムに対し有効な手法を示す評価は,これまでTREC7においても行われているが,比較に用いられたすべてのシステムで再現率・適合率曲線の違いがほとんど無い条件の下で行われている\cite{Voorhees98}.この条件において,比較に用いたシステムが利用した手法が示されているが,客観的にその手法が有効かどうかの判断は難しい.その点で,我々の評価手法はどのような再現率・適合率曲線に対しても客観的に有効な手法を示すことができる.さらに,我々の評価手法は,検索結果でのランクの上位に,関連のある文書を数多く検索するための有効な手法を示すことができる.この分析においては,IRシステムのアンケートの中でシステムの性能に大きく影響する次の3点\begin{itemize}\item索引づけ,索引構造\item検索式の生成\item検索モデル,ランクづけ\end{itemize}に注目して,これらの要素を実現するために用いられた手法が検索精度とどの程度関連があるのかを調査する.IREXでは,検索課題\footnote{検索課題の例としては,以下のようなものがある.\\$<$TOPIC$>$\\$<$TOPIC-ID$>$1001$<$/TOPIC-ID$>$\\$<$DESCRIPTION$>$企業合併$<$/DESCRIPTION$>$\\$<$NARRATIVE$>$記事には企業合併成立の発表が述べられており、その合併に参加する企業の名前が認定できる事。また、合併企業の分野、目的など具体的内容のいずれかが認定できる事。企業合併は企業併合、企業統合、企業買収も含む。$<$/NARRATIVE$>$\\$<$/TOPIC$>$}に,検索要求を簡潔に表現したDESCRIPTIONタグと,人間が判断可能な程度の詳細な検索要求の記述をしたNARRATIVEタグが用いられている.通常,WWWサイトなどに存在する検索エンジンに入力される索引語の数は2,3語と少ないために,DESCRIPTIONタグのみを検索実験に考慮する方が実用的である.しかし,DESCRIPTIONタグのみを利用した場合には曖昧さが生じてしまい,人間が可能な限り正確に検索できるという点においては,詳細に書かれているNARRATIVEタグの方が重要な情報であるといえる.実際,TRECなどにおいても,このような検索要求の長さに対する精度への影響が議論され,NARRATIVEタグの使用による精度の違いが分析されている\cite{Voorhees97}\cite{Voorhees98}\cite{Hull96}.このようなことから,IREXにおいても,検索式を作成する際のNARRATIVEタグの使用有無により,検索システムに与える影響が変化するものと考えられる.このことを明らかにするため,検索システムにおけるNARRATIVEタグの利用有無によりshortとlongに分け,それぞれの平均適合率と相関の高いシステムの特徴を調べる.再現率・適合率曲線に対し単回帰分析を行い直線として近似した場合,その切片が大きい時,ランクの上位に適合する文書を検索できる確率が高いと考えられる.また,傾きが平行に近いほど,システムは再現率の増加とともに起こる適合率の減少を抑えることができると考えられる.そこで,検索結果を平均して得られた再現率・適合率曲線に単回帰分析を行い直線として近似し,その切片と傾きがさまざまな手法のなかでどの手法に関連性が強いのかを調べる.また,同様に,shortとlongにおける切片と傾きとの相関が高いシステムの特徴を調べる.これらを分析することにより,本試験に参加したすべてのシステムで,検索質問をshortとlongに分けたそれぞれの場合に対して,傾き,切片から総合的に,どの手法と関連性が強いかを考察する.\vspace*{-0.3cm}
V10N02-02
アンケート調査は,さまざまな社会的問題を解決するために,問題解決に関連する人々あるいは組織に対して同じ質問を行い,質問に対する回答としてデータを収集・解析することによって,問題解決に役立つ情報を引き出していくという一連のプロセスである\cite{arima:87}.質問に対する回答には選択型と自由記述型があるが,一般には回答収集後の解析のコストを避けるために,選択型のアンケートを行うことが多い.したがって,従来は選択型アンケートを行うための予備調査として小規模に実施する,あるいは選択型アンケートの中で調査者が想定できなかった選択項目,例えば選択肢以外の「その他」に相当する回答と位置付けられていた.しかし,近年,インターネットの普及やパブリック・インボルブメントに対する関心の高まりから,想定できる意見を選んでもらうのではなく,回答者の自由な個々の意見を聞くことが重視されている.その結果,自由回答が選択型アンケートと同様に大規模に実施されるようになってきている\cite{voice_report:96}.また,狭義にはアンケート調査によって得られる自由回答とは異なるが,企業のホームページの掲示板やコールセンターなどに寄せられる消費者のメールや意見,地方自治体や政府のホームページに集まる住民からのメールは,自由回答同様に意見集約の対象とみなすことができる\cite{nasukawa:01,yanase:02}.われわれは,これらの意見も自由回答と同様に扱えると考えている.アンケートの自由回答は,このように交通計画や都市計画の分野をはじめ\cite{suga:97,matsuda:98,takata:00},テレビ番組に対する視聴者の印象\cite{hitachi:00}などマーケティング・リサーチ対象としても注目されている.自由回答の解析は,回答の内容にしたがった人手による分類作業(コーディング)と因子分析などによる解析を軸に行われる.コーディングの際に広く一般的に用いられるKJ法は,回答を一件ずつ読んで類似する内容の回答ごとにグルーピングするため,大量のアンケート結果に対しては多大なコストがかかる.作業コストの大きさに加え分類時の判断の主観性についても懸念されている.また,回答を回収しても,解析されないまま終わることが多いことも指摘されている\cite{arima:87}.本研究のねらいは,これらのコーディングの過程にテキスト処理の技術を取り入れることにより,人手作業のコストを軽減し,意見集約の対象データとして,自由回答に記述された意見を活用することである.テキストからの情報抽出や,要約・自動分類などの要素技術が蓄積されてきている言語処理技術を用いれば上記の問題を解決できる可能性がある.テキスト分類は,分類カテゴリを検索質問とみなした場合,情報検索と同じ問題と考えることができる.したがって,テキストと分類カテゴリの類似度計算,テキストに対してもっとも類似しているカテゴリの付与といった自動分類の基本的な手続きにおいて,ベクトル空間モデルを用いた場合\cite{salton:88},確率モデルを用いた場合\cite{robertson:76,iwayama:94},規則に基づくモデルを用いた場合\cite{apte:94}など情報検索の基礎技術を利用できる.言語処理におけるテキスト分類では,新聞記事テキストが対象になることが多い.新聞を対象とする分類の場合,多岐に渡る内容を類似する記事ごとにまとめることが目的となる.新聞記事全体を対象にする場合には経済・社会・政治・スポーツなどの分野に,それらの各分野を対象とする場合には,さらに詳細化した内容に分類される.アンケート調査の自由回答テキストは一般に,上記に挙げた新聞の分野に基づく分類項目よりも,さらに分野に特化したテーマにおいて,そのテーマに対する様々な意見や提案が述べられている\cite{voice_report:96}.同じ設問に対する回答であっても,内容語が必ずしも一定でなく,また,先に述べたとおり設問に対して回答者がどのような意見を持っているのかといった回答者の意図が重要になってくる.しかし,従来の自由回答テキストの処理では,分析・分類対象を表す特徴的キーワードによる研究が主である\cite{suga:97,oosumi:97,li:01}.尚,「意図」という用語については,さまざまな分野で異なった定義がなされている.言語行為論のように発話(回答)の意味を聞き手に対して命令や謝罪といった意図を話者が伝えようとする行為と捉える立場もある\cite{searle:69}.統語論では「表現意図を言語主体が文全体にこめるところの,いわゆる命令・質問・叙述・応答などの内容のこと」と定義され,文の表現形式と対応させている\cite{kokken:60}.また,人工知能や言語処理において対話理解の手法であるプラン認識では,意図は信念と同様話者の心的状態であり,信念と欲求から作られる,「何かをするつもりである」ものとする.このように「意図」の定義はさまざまであるが,本論文での意図は,統語論における意図の考え方に近く「表層の情報から得られる調査者の回答者に対する態度」とする.意図を判定する手がかりになる表現形式があると考え,表層的な情報から意図の抽出および分類が行えると考えている.近年,自然言語処理の分野においても,アンケートの設問に対してどのようなことが回答されているかという観点から,すなわち回答者が何を答えているかという観点から自由回答をデータとして言語処理を行う際の問題点が議論され始めている\cite{lebart:98}.この流れは,従来のような高頻度語や内容語を分析の手がかりとする分類手法では不十分であり,内容だけでなく内容に対して「どのように捉えているか」「どのように考えているか」といった回答者の意図を把握するための分類を行う必要があることを示している.\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip001.eps,width=\columnwidth}\caption{自由回答アンケートからの意図抽出処理アプローチ}\label{fig:figure1}\end{center}\end{figure}以上を踏まえ,本研究では\fig{figure1}に示したように,内容を表す名詞だけでなく,自由回答に現れた文末表現や接続表現に着目し,分析的に研究を進めている\cite{inui:98:a,inui:01:a,inui:01:b}.\cite{inui:01:a}では,文末表現の類型を意味の違いと単純に結びつけずに,回答に対して「てほしい」という表現を加えた文に言い換えることができるかどうかによる判定を導入することによって表層の表現にこだわらず,回答者の要求意図を特定する方法を提案している.また,\cite{inui:01:b}では,人の推論プロセスを規則化することにより,要求意図が明示されていない意見から要求意図を取り出す方法について提案している.同時に,学習を用いた自動分類の可能性についても研究を進めている\cite{inui:98:b,inui:01:c}.このように本研究では,人手による分析・規則作成の手法と統計的手法を並行して進めながら自由回答から回答者の意図を抽出する手法について,より適切な処理を目指している.また,\fig{figure1}の曲線矢印に示すように,それぞれの作業プロセスの結果をフィードバックしている.本論文では回答者の意図を考慮した統計的手法による自動分類についての実験とその結果の考察について報告する.自由回答テキスト約1000文に対し,タグ付与実験によって決めた賛成,反対,要望・提案,事実といった,回答が意図するタグ(以下「意図タグ」と呼ぶ)を各回答文に付与する.これらのデータに対し表層表現の類似性に着目することによって,最大エントロピー法(ME法)を用いた分類実験を行う.分類結果をもとに,自由回答テキストから回答者の意図を抽出し分類するための手がかりとなる表現,および表現間の関係について考察する.
V14N04-04
近年,構文解析は高い精度で行うことができるようになった.構文解析手法は,ルールベースのもの(e.g.,\cite{Kurohashi1994}),統計ベースのもの(e.g.,\cite{Kudo2002})に大別することができるが,どちらの手法も基本的には,形態素の品詞・活用,読点や機能語の情報に基づいて高精度を実現している.例えば,\begin{lingexample}\single{弁当を食べて出発した}{Example::Simple}\end{lingexample}\noindentという文は,「弁当を$\rightarrow$食べて」のように正しく解析できる.これは,「〜を」はほとんどの場合もっとも近い用言に係るという傾向を考慮しているからである.このような品詞や機能語などの情報に基づく係り受け制約・選好を,ルールベースの手法は人手で記述し,統計ベースの手法はタグ付きコーパスから学習している.しかし,どちらの手法も語彙的な選好に関してはほとんど扱うことができない.\begin{lingexample}\label{Example::Undoable1}\head{弁当を出発する前に食べた}\sent{弁当は食べて出発した}\end{lingexample}(2a)では,「弁当を」が\ref{Example::Simple}と同じように扱われ,「弁当を$\rightarrow$出発する」のように誤って解析される.(2b)においては,「〜は」が文末など遠くの文節に係りやすいという傾向に影響されて,やはり「弁当は$\rightarrow$出発した」のように誤って解析されてしまう.これらの場合,「弁当を食べる」のような語彙的選好が学習されていれば正しく解析できると思われる.統計的構文解析器においては多くの場合,語彙情報が素性として考慮されているが,それらが用いている数万文程度の学習コーパスからでは,データスパースネスの影響を顕著に受け,語彙的選好をほとんど学習することができない.さらに,2項関係の語彙的選好が十分に学習されたとしても,次のような例を解析することは難しい.\begin{lingexample}\single{太郎が食べた花子の弁当}{Example::1}\end{lingexample}\noindent「弁当を食べる」「花子が食べる」という語彙的選好を両方とも学習しているとすると,「食べた」の係り先はこれらの情報からでは決定することができない.この例文を正しく解析するには,「食べた」は「太郎が」というガ格をもっており,ヲ格の格要素は被連体修飾詞「弁当」であると認識する必要がある.このように,語彙的選好を述語項構造としてきちんと考慮できれば構文解析のさらなる精度向上が期待できる.述語項構造を明らかにする格解析を実用的に行うためには,語と語の関係を記述した格フレームが不可欠であり,それもカバレージの大きいものが要求される.そのような格フレームとして,大規模ウェブテキストから自動的に構築したものを利用することができる\cite{Kawahara2006}.本稿では,この大規模格フレームに基づく構文・格解析の統合的確率モデルを提案する.本モデルは,格解析を生成的確率モデルで行い,格解析の確率値の高い構文構造を選択するということを行う.構文解析手法として,語彙的選好を明示的に扱うものはこれまでにいくつか提案されてきた.白井らと藤尾らは,数十〜数百万文のコーパスから語の共起確率を推定し利用している\cite{Shirai1998,Fujio1999}.本研究にもっとも関連している研究として,阿辺川らによる構文解析手法がある\cite{Abekawa2006}.阿辺川らは,同じ用言を係り先とする格要素間の従属関係と,格要素・用言間の共起関係を利用した構文解析手法を提案している.これら2つの関係を新聞記事30年分から収集し,PLSIを用いて確率推定を行っている.既存の構文解析器の出力するn-bestの構文木候補に対して,確率モデルに基づくリランキングを適用し,もっとも確率値の高い構文木を選択している.この手法は,PLSIを用いることによって潜在的な意味クラスを導入し,確率を中規模のコーパスから推定している.本研究は,これらの研究に対して次の点で異なる.\begin{itemize}\item明示的に意味,用法が分類された格フレームを用いている.解析時に格フレームを選択することにより,用言の意味的曖昧性を解消し,その意味,用法下において正確な格解析を行うことができる.\item非常に大規模なコーパスから構築された格フレームを用いることによって,用例の出現を汎化せずに用いている.\item阿辺川らの手法のようにn-best解をリランキングするのではなく,構文,格構造を生成する生成モデルを定義している.\end{itemize}
V15N04-04
計算機科学でいう「オントロジー」とは,ある行為者や行為者のコミュニティーに対して存在しうる概念と関係の記述であり「概念」というのは,何らかの目的のために表現したいと思う抽象的で単純化した世界観である(Gruber1992).認知科学では,「概念」について外延的意味(事例集合で定義された意味)と内包的意味(属性の集合から定義された意味)の見方があるとする\cite{Book_02}.我々の認知活動の中で,概念化は,語,文,文脈,動作の仕方,事柄,場面など,様々なレベルで行われている.では,なぜ対象の概念化が必要かというと,河原では,MedinandGoldstone\nocite{book_24}を引用して「概念」の機能を次のように述べている(MedinandGoldstone1990;河原2001)「現在の経験を,あるカテゴリの成員とみなす(分類)ことで,その経験を意味のあるまとまりとして解釈し(理解と説明),そこから将来に何がおきるか(予測)や関連する別の知識(推論)を引き出すことが可能になる(コミュニケーション).その他,複数の概念を表す語を組み合わせて新たな概念を生成したり,新たな概念の記述を生成してから,その記述にあう事例を検索することもできる」.つまり,人間や計算機が効率的に柔軟な活動をするために,概念と,(言語化する・しないにかかわらず)概念の具体化された表現(あるいは事例)の総体である「オントロジー」は重要な役割を担っているといえる.我々が対象とする言語的オントロジー,特に,語彙の概念を体系化したオントロジーは,概念体系や意味体系と呼ばれ10年以上前から人手で構築されてきた(EDR電子化辞書(日本電子化辞書研究所1995)や分類語彙表\cite{book_16}など).その目的は,ある特定のアプリケーションでの利用ではなく,我々の言語知識を体系化することであり,その知識体系を利用して計算機に予測・推論・事例の検索・新たな概念の理解など,深い意味処理をさせることを目的としている.本研究がめざす「形容詞のオントロジー」の目的も,従来の語彙的なオントロジーの目的と同様に,計算機や人間が,形容詞を使って表現する知識の体系化をはかるものである.ここで本研究の「形容詞」とは,形容詞と形容動詞を含むものとする.従来のものと異なる点は,実データからの獲得を図るため,運用の実態を反映したオントロジーを得ようとすることである.人間の内省による分析の場合,概念記述を行う個々人の言語的経験から,概念体系の粒度や概念記述に差異がでてくる.心理実験のように,複数の人が同じタスクをすれば共通の傾向もとれるが,通常のプロジェクトでは同じ個所に多くの人を投入することは不可能である.自動獲得の目的は,できるだけ実際の言語データから言語事実を反映した結果を得ることである.一つ一つのテキストは個々人の記述だが,それを量的に集めれば,複数の人のバリエーションを拾うことができ,結果的に多くの人の言語運用の実態をとることができる.言語データから意味関係を反映した概念体系を捉えられれば,人間の内省によって作られたオントロジーや言語学的知見,意味分類などと比較することは意義があるのではないかと考える.ところで,コーパスからの語彙のクラスタリングや上位下位関係の自動構築などについては,Webの自動アノテーションやインデックス,情報検索など,その目的は様々であるが,そのほとんどが,名詞や動詞を対象にした分類や関係抽出である.形容詞や副詞に関する研究はまだ少ない.しかし,形容詞や副詞が語彙のオントロジーにとって重要でないわけではなく,たとえば,WordNetで形容詞の意味情報が手薄であることを指摘し,イタリア語形容詞の意味情報を導入することで,ヨーロッパの複数言語で共同開発しているEuroWordNetの抽象レベルの高い概念体系(EuroWordNetTopOntology)に変更を加えることを試みている研究がある\cite{Inproc_01}.オントロジーの主要な関係の一つに,類義関係と階層関係がある.形容詞概念を表すような抽象的な名詞の類義関係については,馬らなどの研究がある\cite{Article_21}.しかし,形容詞概念の階層関係については,まだ研究が進んでいない.本研究では,形容詞概念の階層関係に着目し,コーパスから取得した概念から階層を構築する方法と,妥当そうな階層を得るための評価について述べる.本研究で扱う概念数は約365概念であり,それに対しEDR電子化辞書の形容詞の概念数が約2000概念ほどと考えると取り扱うべき概念はさらに増える可能性があるが,本研究は,現時点よりも多くの概念数を扱うために,まず,現段階での概念数で,階層構築とその評価方法について実験および考察を行ったものである.我々は,第2節でオントロジーのタイプの中で本研究がめざすオントロジーについて述べ,第3節で先行研究の言語学的考察から,形容詞の概念を語彙化したような表現があることを述べ,形容詞の概念をコーパスから抽出する.第4節では第3節で抽出したデータをもとに複数の尺度での階層構築と,得られた階層のうち,妥当そうな階層を判別するための条件を述べ,第5節で心理実験によってEDRの形容詞概念階層と比較評価を行う.第6節でオントロジー構築に向けての今後の展望をのべ,第7節でまとめを行う.
V14N02-01
シソーラスは,機械翻訳や情報検索のクエリー拡張,語の曖昧性の解消など,言語処理のさまざまな場面で用いられる.シソーラスは,WordNet\cite{Miller90}やEDR電子化辞書\cite{EDR},日本語語彙大系\cite{goitaikei}など,人手で長い年月をかけて作られたものがよく用いられている\footnote{2003年からはWordNetだけに焦点を当てたInternationalWordNetconferenceも開催されている.}.しかし,こういったシソーラスを作成するのは手間がかかり,また日々現れる新しい語に対応するのも大変である.一方で,シソーラスを自動的に構築する研究が以前から行われている\cite{Crouch92,Grefenstette94}.Webページをはじめとする大規模で多様な文書を扱うには,シソーラスを自動で構築する,もしくは既存のシソーラスを自動で追加修正する手段が有効である.シソーラスの自動構築は,語の関連度の算出と,その関連度を使った関連語の同定という段階に分けられる\cite{Curran02-2}.2語の関連度は,コーパス中の共起頻度を用いて求めることができる\cite{Church90}.これまでの研究では,コーパスとして新聞記事や学術文書が用いられることが多かった.それに対し,近年ではWebをコーパスとして用いる手法が提案されている.Kilgarriffらは,Webをコーパスとして用いるための手法やそれに当たっての調査を詳細に行っている\cite{Kilgarriff03}.佐々木らはWebを用いた関連度の指標を提案している\cite{Sasaki05}.Webには,新聞記事や論文といった従来からある整形された文書のみならず,日記や掲示板,ブログなど,よりユーザの日常生活に関連したテキストも数多く存在している.世界全体で80億ページを超えるWebは,間違いなく現時点で手に入る最大のコーパスであり,今後も増え続けるだろう.Kilgarriffらが議論しているように,Webの文書が代表性を持つのかといった議論はこれからも重要になるが,Webはコーパスとしての大きな可能性を秘めていると著者らは考えている.Webをコーパスとして扱う際にひとつの重要な手段になるのが,検索エンジンである.これまでに多くの研究が検索エンジンを用いて,Web上の文書を収集したり,Webにおける語の頻度情報を得ている\cite{Turney01,Heylighen01}.しかし検索エンジンを用いる手法とコーパスを直接解析する手法には違いがあるため,従来使われてきた計算指標がそのまま有効に働くとは限らない.本論文では,Webを対象とし,検索エンジンを用いて関連語のシソーラスを構築する手法を提案する.特に,検索エンジンを大量に使用すること,統計的な処理を行うこと,スケーラブルなクラスタリング手法を用いていることが特徴である.ただし,類義・同義語に加え,上位・下位語や連想語など,より広い意味である語に関連した語を関連語とする.まず,2章で関連研究について述べる.そして,3章で検索エンジンを用いた関連度の指標を提案し,さらに4章では関連語ネットワークをクラスタリングする手法について紹介する.そして,5章では評価実験を行い,この手法の効果について議論を行う.
V31N04-06
マイクロブログの一種であるX\footnote{\url{https://x.com/}}では,多くのユーザによって日々の生活や世の中の出来事などについてポストと呼ばれるテキストベースの投稿が行われている.テレビやインターネットで中継されるスポーツの試合は,多くのユーザがXにコメントを投稿する出来事の一つであり,試合の状況やプレーへの感情に関するコメントがリアルタイムに投稿される.特に,特定のチームや選手に関する投稿についてはハッシュタグと呼ばれるキーワードと共に投稿されることが多く,Xのユーザーはこのハッシュタグを利用して気になる試合やチーム,選手の情報を収集することができる.しかし,投稿の目的は様々であり,試合に関する投稿の内容は,図\ref{fig:tweet}の左に示すような試合内容の情報を多く含むものから,図\ref{fig:tweet}の右に示すような個人の感情を表しただけのものまで多岐にわたり,これらの投稿から試合経過を瞬時に把握することは容易ではない.そこで,本研究ではサッカーの試合を対象に,試合経過を瞬時に把握することが可能となるよう,試合に関する投稿から試合の速報を生成するシステムの構築に取り組む.\renewcommand{\thefootnote}{}\footnote[2]{\llap{$^{2}$~}\texttt{https://x.com/pbw\_u1tksr/status/1595428151911280640},\\\texttt{https://x.com/dragonbluejays/status/1595428049998483456}}\renewcommand{\thefootnote}{\arabic{footnote}}\addtocounter{footnote}{1}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-4ia5f1.eps}\end{center}\caption{Xに投稿されたサッカーの試合に関する投稿例$^{2}$.}\label{fig:tweet}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,事前学習済み言語モデルをベースとした速報生成システムを提案する.図\ref{fig:exam}に提案システムの概要を示す.このシステムは,特定のサッカーの試合に関係する投稿集合を入力とし,事前学習済みの言語モデルText-to-TextTransferTransformer(T5)\cite{T5}を用いてその試合の速報を生成する.この際,速報は1分ごとに生成し,重要なイベントがなかった時刻については``NaN''を出力するものとする.しかし,単純にモデルを適用するだけでは出現確率の高い``NaN''を適切な頻度よりも多く出力するという問題と同じイベントを指す速報文が複数生成される冗長性の問題という二つの問題が生じる.そこで,速報の生成数を制御するために各時刻において速報を生成するべきかしないべきかを決定する二値分類器,および,冗長性を削減するために直前の速報を活用する機構を導入する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-4ia5f2.pdf}\end{center}\hangcaption{速報生成システムの概要図.図中の「投稿データ」は\#WorldCupや\#Jリーグのようなハッシュタグが含まれていた投稿のテキストを示す.ただし,ハッシュタグは速報生成モデルへの入力前に削除されるため,投稿データに含まれていない.}\label{fig:exam}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V20N03-02
\begin{figure}[b]\begin{center}\includegraphics{20-3ia2f1.eps}\end{center}\caption{情報抽出器作成までの流れ}\end{figure}震災時にツイッターではどのようなことがつぶやかれるのか,どのように用いられるのか,また震災時にツイッターはどのように役立つ可能性があるのか.震災当日から1週間分で1.7億にのぼるツイートに対し,短時間で概観を把握し,今後の震災に活用するためにはどうすればよいかを考えた.全体像を得た上で,将来震災が発生した際に,ツイッターなどのSNSを利用し,いち早く災害の状況把握を行うための,情報(を含むツイート)抽出器を作成することを最終目標とし,その方法を探った.この最終目標に至るまでの流れと,各局面における課題および採用した解決策を図1に示した.図1に課題として箇条書きしたものは,そのまま第3章以降の節見出しとなっている.信号処理や統計学の分野において多用される特異値分解は,例えばベクトルで表現される空間を寄与度の高い軸に回転する数学的な処理であり,値の大きな特異値に対応する軸を選択的に用いる方法は,次元圧縮の一手法としてよく知られている.機械学習において,教師データから特徴量の重みを学習することが可能な場合には,その学習によって重みの最適値が求められるが,教師なしのクラスタリングではこの学習過程が存在しないため,特徴量の重みづけに他の方法が必要となることが予想される.筆者らは,本研究の過程に現れるクラスタリングと分類において,古典的な類義語処理および次元圧縮のひとつとしての文書‐単語行列の特異値分解に加え,特異値の大きさを,特徴量に対する重みとして積極的に用いることを試した.現実のデータに対し,現象の分析や,知見を得るに耐えるクラスタリングを行うには,最終的に``確認・修正''という人手の介在を許さざるを得ない.この過程で,従来からのクラスタリング指標であるエントロピーや純度とは別の観点からも,文書‐単語行列に対して特異値分解や特異値による重みづけをすることに一定の効果があることを筆者らは感じた.クラスタリングに多かれ少なかれ見られるチェイニング現象(3.1.3節で詳細を述べる)を激しく伴うクラスタリング結果は,人手による確認・修正作業に多大な負担をもたらすのだが,このチェイニング現象は特異値分解に加えて特異値で重みづけを行うことで緩和される傾向にあることがわかったのである.そこで本研究では,人手による作業の負担を考慮した作業容易度(Easiness)というクラスタリング指標を提案し,人手による作業にとって好ましいクラスタリング結果とはどういうものか探究しつつ,文書‐単語行列の特異値分解と,特異値分解に加えて特異値で重みづけする提案手法の効果,および,従来の指標には表れない要素を数値化した提案指標の妥当性を検証することとする.以下,第2章では,テキストマイニングにおけるクラスタリング,分類,情報抽出の関連研究を述べる.第3章では,情報抽出器作成までの手順の詳細を,途中に現れた課題とそれに対する解決策とともに述べる.第4章ではクラスタリングの新しい指標として作業容易度(Easiness)を提案し,それを用いて,クラスタリングや分類を行う際に,特異値分解あるいは特異値分解に加えて特異値で特徴量の重みづけを行うことの有効性を検証する.第5章では,「拡散希望」ツイートの1\%サンプリングを全分類して得られた社会現象としての知見と,情報抽出器の抽出精度を上げるために行った試行の詳細およびそれに対する考察を述べる.尚,本論文の新規性は,タイトルにあるように「文書‐単語行列の特異値分解と特異値による重み付けの有効性」を示すことであり,関連する記述は3.1.3節および第4章で行っている.ただし,東日本大震災ビッグデータワークショップに参加して実際の震災時のツイートを解析したこと,すなわち研究用データセットではなく,事後ではあるが,現実のデータを現実の要請に従って解析したこと,によって得られた知見を残すことも本稿執筆の目的の一つであるため,情報抽出器作成の過程全てを記してある.
V21N01-01
\label{intro}\emph{述語項構造解析}の目的は,述語とそれらの項を文の意味的な構成単位として,文章から「誰が何をどうした」という意味的な関係を抽出することである.これは,機械翻訳や自動要約などの自然言語処理の応用において重要なタスクの1つである\cite{Surdeanu:2003:ACL,Wu:EAMT:2009}.\emph{述語}は文の主要部で,他の要素とともに文を構成する\cite{ModernJapaneseGrammar1}.日本語では,述語は品詞によって,形容詞述語・動詞述語・名詞述語の3種類に分けられる.述語が意味をなすためには,補語(主語を含む)が必要であり,それらは\emph{項}と呼ばれる.また,述語と項の意味的関係を表すラベルを\emph{格}と呼ぶ.項は前後文脈から推測できるとき省略\footnote{本稿では,省略を項が述語と直接係り受け関係にないことと定義する.}されることがあり,省略された項を\emph{ゼロ代名詞},ゼロ代名詞が指示する要素を\emph{先行詞}と呼ぶ.この言語現象は\emph{ゼロ照応}と呼ばれ,日本語では項の省略がたびたび起きることから,述語項構造解析はゼロ照応解析としても扱われてきた\cite{Kawahara:2004:JNLP,Sasano:IPSJ:2011}.本稿では,項と述語の\textbf{位置関係}の種類を次の4種類に分類する.述語と同一文内にあり係り受け関係にある項\footnote{ここでの関係は向きを持たない.複数の項が同一の述語と関係を持つこともありうる.},(ゼロ代名詞の先行詞として同一文中に存在する)文内ゼロ,(ゼロ代名詞の先行詞として述語とは異なる文中に存在する)文間ゼロ,および(文章中には存在しない)外界項である.本稿では,それぞれ\emph{INTRA\_D,INTRA\_Z},\emph{INTER},\emph{EXO}と呼ぶ.ある述語がある格にて項を持たないときは,その述語の項は\emph{\rm{ARG}$_{\rm{NULL}}$}だとし,その述語と\emph{\rm{ARG}$_{\rm{NULL}}$}は\emph{NULL}という位置関係にあるとして考える.本稿では,EXOとNULLを総称してNO-ARGと呼ぶ.例えば,\exref{exs-atype}において,「受け取った」と「食べた」のヲ格項「コロッケ」はそれぞれINTRA\_D・INTRA\_Z,「飲んだ」のガ格項「彼女」はINTERで,ニ格項は\emph{\rm{ARG}$_{\rm{NULL}}$}である.\enumsentence{コロッケを受け取った彼女は,急いで食べた.\\($\phi$が)ジュースも飲んだ.}{exs-atype}一般に,項は述語に近いところにあるという特性(近距離特性)を持つ.そのため,これまでの述語項構造解析の研究では,この特性の利用を様々な形で試みてきた.\newcite{Kawahara:2004:JNLP}や\fullciteA{Taira:2008:EMNLP}は項候補と述語の係り受け関係の種類ごとに項へのなりやすさの順序を定義し,その順序に従って項の探索を行った.また,\fullciteA{Iida:2007:TALIP}は述語と同一文内の候補を優先的に探索した.これらの先行研究ではあらかじめ定めておいた項の位置関係に基づく順序に従った探索を行い,項らしいものが見つかれば以降の探索はしない.そのため,異なる位置関係にある候補との「どちらがより項らしいか」という相対的な比較は行えず,述語と項候補の情報から「どのくらい項としてふさわしいか」という絶対的な判断を行わなければならないという問題点がある.そこで,本稿では,項の位置関係ごとに独立に最尤候補を選出した後,それらの中から最尤候補を1つ選出するというモデルを提案する.位置関係ごとに解析モデルを分けることで,柔軟に素性やモデルを設計できるようになる.また,位置関係の優先順序だけでなく,その他の情報(素性)も用いて総合的にどちらがより``項らしい''かが判断できるようになる.本稿の実験では,まず,全ての候補を参照してから解析するモデルと,特定の候補を優先して探索するモデルを比較して,決定的な解析の良し悪しを分析する.また,陽に項の位置関係ごとの比較を行わないモデルや,優先順序に則った決定的な解析モデルと提案モデルを比較して,ガ格・ヲ格ではより高い性能を達成できたことも示す.本稿の構成は以下のようになっている.まず2章で述語項構造解析の先行研究での位置関係と項へのなりやすさの優先順序の扱いについて紹介する.3章では提案手法について詳述し,4章では評価実験の設定について述べる.5章・6章では実験結果の分析を行い,7章でまとめを行う.
V26N03-02
世界的に高齢化が進む中,高齢者の社会からの孤立は特に深刻な課題である.内閣府の調査では,65歳以上の高齢者のうち夫婦または単身で生活している高齢者の割合は56.9\%で,子ども世代と同居している高齢者の割合の39\%に比べて高くなっている\cite{naikakufu1}.また,60歳以上を対象にした「対面だけではなくメールや電話も含めてどのぐらいの頻度で他者と対話するか」という調査では,一人暮らしの高齢者のうち男性では7.5\%,女性では4.9\%が週に1度以下しか他人と会話しないという結果が出ている\cite{naikakufu2}.このような社会的な背景から,高齢者の話し相手となる対話システムの研究が盛んにおこなわれており,高齢者の話を聴く傾聴対話システム\cite{lala2017attentive,sitaoka2017}や,高齢者の孤独を和らげるシステム\cite{sidner2013always}など,話題を限定せずに高齢者と自然に対話できるシステムが提案されている.このような対話システムが人の代わりに高齢者と対話することで,高齢者の孤独を紛らわせることができるかもしれないが,高齢者と他者とのコミュニケーションが不足しているという本質的な課題は解決できない.一方,老年学や老年医学では,高齢者の健康状態の理解やケアのあるべき姿が研究されており,QualityofLife(QOL)という概念が注目されている.QOLとは,高齢者の健康状態を肉体的・精神的・社会的な側面から多面的に評価するための尺度である.高齢者の健康状態をQOLでとらえることにより,肉体的な状態だけでなく高齢者の感情や状況などを評価することで,高齢者に合ったケアが実現できると報告されている\cite{Marja2009QOL,Ylva2001QOL}.また,ICTを活用して高齢者の心身状況を家族や介護士などと共有する仕組みに関する実証も進められている\cite{uchiyama2006}.この研究の中で,内山らは,介護における関係者間のコミュニケーションモデルのあり方について「関係者間にヒエラルキがあると,気後れや遠慮などのために自由な意思に基づくコミュニケーションが阻害される.医療における医者−患者モデルはその典型とされているが,介護にもコンシューマ(利用者)−サービス提供者間,また家庭内でも家族−本人間で必ずしも対等でない関係が存在し,さらに立場の相違からくる見解の相違が存在する.そうした中で納得や信頼を醸成するには,立場の上下のない,水平型のコミュニケーションが必要となる.」と述べている.このことから,高齢者と家族とができるだけ対等な立場で高齢者のQOLを共有することは重要な要素である.高齢者のQOLを共有する方法として,家族から高齢者に対しQOLに関する質問を投げかけるという方法も考えられるが,家族の質問の仕方によっては内山らの指摘する「上下関係」を発生させる可能性がある.そこで我々は,高齢者と離れて住む家族との日常的なコミュニケーションを通じて自然に高齢者のQOLを家族へ伝えることで,高齢者と家族とのコミュニケーションの質の向上と,活性化を実現するようなシステムの構築をすすめている\cite{tokuhisa}.図\ref{dialog1}に,我々が目標とする高齢者と家族との対話例を示す.図\ref{dialog1}(A)の「かわいいね.」は応答としては適切であるが,高齢者のQOLは娘へ伝わらない.一方で図\ref{dialog1}(B)の「でも私は最近肩こりで頭痛がするから無理だわ.」は高齢者のQOLを表出する応答であり,これにより高齢者のQOL(ここでは健康状態が良くないこと)が娘に伝わったことで「大丈夫?連休には帰るから肩もみするね.」というQOLに配慮した娘の発話が誘発されている.\begin{figure}[b]\begin{center}\includegraphics[scale=1.1]{26-3ia2f1.eps}\end{center}\caption{(A)通常の対話と(B)本研究の目標の対話}\label{dialog1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f2.eps}\end{center}\hangcaption{QOL表出発話を誘発するための返信補助システム.「返信候補」から返信を選択すると,「返信メッセージ」に選択した内容が入力される.返信候補の中に高齢者の所望する候補がない場合は,高齢者が自分で返信を記述したり,返信候補を編集することもできる.上記は「かわいいね.」と「折り紙を見つけたら買って送るね.」という返信候補が選択された様子を示している.}\label{system}\end{figure}我々は以前の研究で,家族と高齢者とのメールのやりとりを対象として,\begin{enumerate}\itemQOL表出発話(高齢者のQOLを推定するのに有用な手がかりを含んだ発話)とはどのような特徴を持つ発話か\itemシステムの支援のない状態でQOL表出発話がどのようにやりとりされていて,システムはどんな支援をすべきか\end{enumerate}を分析した\cite{tokuhisa}.その結果,上記の(1)については,高齢者が主体となり高齢者の行動や状態を表す発話が高齢者のQOL表出発話になりやすいことが明らかとなった.また,上記の(2)については,家族からのメールに対する高齢者の返信のうち85.7\%(3,574発話中3,064発話)が家族が主体となる発話(e.g.かわいいね.)で,高齢者が主体となる発話(e.g.私は最近肩こりで頭痛がするから無理だわ.)はわずか6.4\%(3,574発話中229発話)であることが明らかとなった\footnote{なお,家族と高齢者の両方が主体となる発話(e.g.今度一緒にやろう)は3,574発話中69発話であった.本論文では「家族と高齢者の両方が主体となる発話」は,「家族が主体となる発話」や「高齢者が主体となる発話」には含まずに割合を算出している.}.この結果を受けて,高齢者が主体となり自らのQOLを伝達するような返信を生成することを,システムにより補助することを考える.具体的には,図\ref{system}のように,「私もやってみようかな.」「折り紙を見つけたら買って送るね.」「でも私は最近肩こりで頭痛がするから無理だわ.」といった高齢者が主体となるQOL表出発話を応答のヒントとして高齢者に提示することで,高齢者を刺激し,システムの支援のない状態では記述されない高齢者のQOL表出発話を誘発するような返信補助システムを目指している.本システムは,高齢者と家族との過去のコミュニケーションで家族に伝達されていないQOLカテゴリおよび家族が特に知りたがっているQOLカテゴリに関するQOL表出発話を優先的に返信候補として提示することで,高齢者のQOLを家族への伝達を補助する役割を果たすものと想定している.たとえば,過去のコミュニケーションで経済的な情報がやりとりされていない場合は高齢者の経済的な余裕の有無がわかるようなQOL表出発話を返信候補として提示し,家族が高齢者の健康状態を知りたがっている場合には健康状態に関するQOL表出発話を提示する.できるだけ文脈にあった候補を提示することは,システムの支援がない状態では家族に伝えられない高齢者のQOL表出発話を誘発できる可能性が高くなると考える.本研究では,このようなシステムの構築に向けて,QOL表出発話候補の生成を試みる.本論文で述べる貢献は以下の2点である.\begin{enumerate}\item大規模なQOLラベルつき対話コーパスの構築に向けて,高齢者が主体となる高齢者のQOL表出発話を大規模に収集するためのコーパス収集方法を提案する.提案するコーパス収集に関してふたつの予備実験を実施し,a)本論文で提案するコーパス収集の方法の有用性を示すとともに,b)本論文で提案するコーパス収集の方法でも40代・50代のクラウドワーカから模擬的に高齢者の発話を収集できることを示す.\item構築したQOLラベルつき対話コーパスを用いて,QOLラベルにより特定のQOL情報を伝達するように制御しながら,高齢者のQOLを伝達する応答を生成する.これにより,近年提案されている条件付き文生成技術がどの程度適切なQOL表出発話が生成できるか,また返信補助システムの実現に向けて残る技術的な課題は何か,を明らかにする.\end{enumerate}
V09N04-01
近年,Internet上の検索エンジンなど,情報検索システムが広く利用されるようになってきた.システムが提示する検索結果には,文書の表題やURIだけではなく,対応する文書の内容を示す短い要約文書が併せて提示されていることが多い.これは,利用者に対して要約文書を提示することが,原文書が実際に利用者の欲するものかを判断する際に有力な手掛かりとなるためである.この際,情報検索結果文書に対する要約の質の良さは,要約文書-検索質問間の関連性判定と原文書-検索質問間の関連性判定の一致の良さで測ることができよう.しかしながら,現在実用に供されている多くの検索エンジンでは,原文書の最初の数バイトを出力したり,検索要求文に含まれる語の周囲を提示するといった単純な方法が採用されている.このような単純な戦略により生成された要約の品質は関連性判定の観点からみると,十分な品質であるとは言い難い.そのため,多くの場合,利用者はシステムの提示した検索結果が適切なものであるかどうかを原文書を見て判断せざるを得ない.このような状況を改善するためには,関連性判定を重視した,より質の高い自動要約技術が必要となる.自動要約の手法としては,Luhn\cite{Luhn:TheAutomaticCreationOfLiteratureAbstracts}の研究に端を発する重要文抽出法が基本かつ主要な技術であり,依然として様々なシステムで利用されている.これは,文書の中から重要な文を,所望の要約文書の長さになるまで順に選び,それら抽出された文を文書中での出現順に並べて出力することで,要約とする手法である.このとき,文の重要度は,語の重要度,文書中での位置,タイトルや手がかり表現などに基づいて計算している\cite{奥村:テキスト自動要約に関する研究動向,奥村:テキスト自動要約に関する最近の話題}.その中でも,重要文は主要キーワードを多く含むという経験則により,語の重要度に基づく重要文抽出が最も基本的な手法となっている.特に,語の出現頻度は,簡単に求められ,語の重要性と比較的高い相関にあるために語の重みとして広く利用されている.語の出現頻度は個別文書によって決まる性質であるが,一方で,検索文書の要約においては,原文書が検索要求の結果として得られた複数の文書であることを考慮することが要約の品質向上につながる.例えば従来提案されている基本的な考え方として,検索要求中の語の重要度を高くするという「検索質問によるバイアス方式」がある\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}.この手法は直観的であり,かつ,比較的良好に機能するが,検索された文書自身の情報を考慮しないなど幾つかの欠点が存在する.以上の点を踏まえて,本稿では,検索文書集合から得られる情報を語の重みづけに利用し,検索文書の要約に役立てる新しい手法を提案する.検索質問によるバイアス方式とは異なり,我々の手法では語の重みづけにおいて検索質問の情報を陽に利用しない.その代わりに,複数の検索文書の間に存在する類似性の構造を階層的クラスタリングにより抽出し,その構造を適切に説明するか否かに応じて語に重みをつける.文書間の類似性構造を語の重みに写像する方法として,我々は,各クラスタ内での語の確率分布に注目し,情報利得比(InformationGainRatio,IGR)\cite{C4.5-E}と呼ばれる尺度を用いる.そして,この重みと従来提案されている他の重みづけを組み合わせることにより,最終的な語の重みとし,これを用いて各文の重要度を計算する.特に,情報利得比に基づく語の重みづけについては,次のように考えることができる.あるクラスタにおける語の情報量に注目した場合,そのクラスタを部分クラスタに分割した後のその語の持つ情報量の増分(情報利得)が,クラスタの分割自身により得られる情報量に比して大きければ,その語は部分クラスタの構造を決定する際に役立っていると考えられる.その度合を定量化した値が情報利得比である.情報利得比自身は機械学習において属性の品質の尺度として,すでに提案されているものである.また,種々のクラスタリングアルゴリズムの過程からすれば,文書のクラスタ構造の決定に際して,各々の語の確率分布が部分的な要因となっていることは自明である.しかしながら,あるクラスタ構造が確定した時に,ある語がそのクラスタ構造の決定に際して最終的に寄与したか否かに注目し,定量化するという研究は,我々の知る限り従来存在しない.そして,本稿は,その定量化において,情報利得比が利用できることを示すものである.
V19N02-01
\subsection{片仮名語と複合名詞分割}外国語からの借用(borrowing)は,日本語における代表的な語形成の1つとして知られている\cite{Tsujimura06}.特に英語からの借用によって,新造語や専門用語など,多くの言葉が日々日本語に取り込まれている.そうした借用語は,主に片仮名を使って表記されることから片仮名語とも呼ばれる.日本語におけるもう1つの代表的な語形成として,単語の複合(compounding)を挙げることができる\cite{Tsujimura06}.日本語は複合語が豊富な言語として知られており,とりわけ複合名詞にその数が多い.これら2つの語形成は,日本語における片仮名複合語を非常に生産性の高いものとしている.日本語を含めたアジアおよびヨーロッパ系言語においては,複合語を分かち書きせずに表記するものが多数存在する(ドイツ語,オランダ語,韓国語など).そのような言語で記述されたテキストを処理対象とする場合,複合語を単語に分割する処理は,統計的機械翻訳,情報検索,略語認識などを実現する上で重要な基礎技術となる.例えば,統計的機械翻訳システムにおいては,複合語が構成語に分割されていれば,その複合語自体が翻訳表に登録されていなかったとしても,逐語的に翻訳を生成することが可能となる\cite{Koehn03}.情報検索においては,複合語を適切に分割することによって検索精度が向上することがBraschlerらの実験によって示されている\cite{Braschler04}.また,複合語内部の単語境界の情報は,その複合語の省略表現を生成または認識するための手がかりとして広く用いられている\cite{Schwartz03,Okazaki08}.高い精度での複合語分割処理を実現するためには,言語資源を有効的に活用することが重要となる.例えば,Alfonsecaら\citeyear{AlfonsecaCICLing08}は単語辞書を学習器の素性として利用しているが,これが分割精度の向上に寄与することは直感的に明白である.これに加えて,対訳コーパスや対訳辞書といった対訳資源の有用性も,これまでの研究において指摘されている\cite{Brown02,Koehn03,Nakazawa05}.英語表記において複合語は分かち書きされるため,複合語に対応する英訳表現を対訳資源から発見することができれば,その対応関係に基づいて複合語の分割規則を学習することが可能になる.複合語分割処理の精度低下を引き起こす大きな要因は,言語資源に登録されていない未知語の存在である.特に日本語の場合においては,片仮名語が未知語の中の大きな割合を占めていることが,これまでにも多くの研究者によって指摘されている\cite{Brill01,Nakazawa05,Breen09}.冒頭でも述べたように,片仮名語は生産性が非常に高いため,既存の言語資源に登録されていないものが多い.例えばBreen\citeyear{Breen09}らによると,新聞記事から抽出した片仮名語のうち,およそ20\%は既存の言語資源に登録されていなかったことが報告されている.こうした片仮名語から構成される複合名詞は,分割処理を行うことがとりわけ困難となっている\cite{Nakazawa05}.分割が難しい片仮名複合名詞として,例えば「モンスターペアレント」がある.この複合名詞を「モンスター」と「ペアレント」に分割することは一見容易なタスクに見えるが,一般的な形態素解析辞書\footnote{ここではJUMAN辞書ver.~6.0とNAIST-jdicver.~0.6.0を調べた.}には「ペアレント」が登録されていないことから,既存の形態素解析器にとっては困難な処理となっている.実際に,MeCabver.~0.98を用いて解析を行ったところ(解析辞書はNAIST-jdicver.~0.6.0を用いた),正しく分割することはできなかった.\subsection{言い換えと逆翻字の利用}こうした未知語の問題に対処するため,本論文では,大規模なラベルなしテキストを用いることによって,片仮名複合名詞の分割精度を向上させる方法を提案する.近年では特にウェブの発達によって,極めて大量のラベルなしテキストが容易に入手可能となっている.そうしたラベルなしテキストを有効活用することが可能になれば,辞書や対訳コーパスなどの高価で小規模な言語資源に依存した手法と比べ,未知語の問題が大幅に緩和されることが期待できる.これまでにも,ラベルなしテキストを複合名詞分割のために利用する方法はいくつか提案されているが,いずれも十分な精度は実現されていない.こうした関連研究については\ref{sec:prev}節において改めて議論を行う.提案手法の基本的な考え方は,片仮名複合名詞の言い換えを利用するというものである.一般的に,複合名詞は様々な形態・統語構造へと言い換えることが可能であるが,それらの中には,元の複合名詞内の単語境界の場所を強く示唆するものが存在する.そのため,そうした言い換え表現をラベルなしテキストから抽出し,その情報を機械学習の素性として利用することによって,分割精度の向上が可能となる.これと同様のことは,片仮名語から英語への言い換え,すなわち逆翻字に対しても言うことができる.基本的に片仮名語は英語を翻字したものであるため,単語境界が自明な元の英語表現を復元することができれば,その情報を分割処理に利用することが可能となる.提案手法の有効性を検証するための実験を行ったところ,言い換えと逆翻字のいずれを用いた場合においても,それらを用いなかった場合と比較して,F値において統計的に有意な改善が見られた.また,これまでに提案されている複合語分割手法との比較を行ったところ,提案手法の精度はそれらを大幅に上回っていることも確認することができた.これらの実験結果から,片仮名複合名詞の分割処理における,言い換えと逆翻字の有効性を実証的に確認することができた.本論文の構成は以下の通りである.まず\ref{sec:prev}節において,複合名詞分割に関する従来研究,およびその周辺分野における研究状況を概観する.次に\ref{sec:approach}節では,教師あり学習を用いて片仮名複合名詞の分割処理を行う枠組みを説明する.続いて\ref{sec:para}節と\ref{sec:trans}節においては,言い換えと逆翻字を学習素性として使う手法について説明する.\ref{sec:exp}節では分割実験の結果を報告し,それに関する議論を行う.最後に\ref{sec:conclude}節においてまとめを行う.
V02N04-03
形態素解析処理は自然言語処理の基本技術の一つであり,日本語の形態素解析システムも数多く報告されている\cite{yosimura83}\cite{hisamitu90}\cite{nakamura}\cite{miyazaki}\cite{kitani}\cite{hisamitu94a}\cite{maruyama94}\cite{juman}\cite{nagata}.しかし,使用している形態素文法について詳しく説明している文献は少ない.文献\cite{miyazaki}では三浦文法\cite{miura}に基づいた日本語形態素処理用文法を提案しているが,品詞の体系化と品詞間の接続ルールの記述形式の提案のみに留まり,具体的な文法記述や実際の解析システムへの適用にまでは至っていない.公開されている形態素解析システムJUMAN\cite{juman}では,形態素文法は文献\cite{masuoka}に基づくものであった.その他の文献は解析のアルゴリズムや,固有名詞や未知語の特定機能に関する報告で,使用された形態素文法については述べられていない.言語学の分野で提案されている文法を形態素解析に適用する場合の問題点は,品詞分類が細か過ぎる点と,ほとんどの場合,動詞の語尾の変化について全ての体系が与えられていない点である.言語学の分野では文の過剰な受理を避けるように文法を構築することによって,日本語の詳細な文法体系を解明しようとするので,品詞分類が細かくなるのは当然である.しかし,そのために,文法規則も非常に細かくなり,形態素の統一的な扱いも難しくなる.そこで,本文法では,「形態素解析上差し支えない」ことを品詞の選定基準とする.つまり,ある品詞を設定しないが為に,ある文節に関して構文上の性質に曖昧性が生じる場合に,その品詞を設定する.そして,過剰な受理を許容することと引き替えに,できる限り形態素を統一的に扱う.従来の多くの文法では活用という考え方で動詞の語尾変化を説明するが,それらの活用形についての規則は,個々の接尾辞について接尾可能な活用形を列挙するという形になっている.例えばいわゆる学校文法では,「書か」はカ行五段活用動詞「書く」の未然形であり,否定の接尾辞の「ない」や使役の接尾辞の「せる」が接尾する等の規則が与えられる.さらに一段活用動詞には「せる」ではなく「させる」が接尾する等の規則があり,規則が複雑になっている.そのため,それらの複雑な規則を吸収するために活用形を拡張し,「書こう」を意志形としたり,「書いた」を完了形とするような工夫がなされる.しかし,このように場当たり的に活用形を拡張すると活用形の種類が非常に多くなり,整合性を保つための労力が大きくなる.日本語形態素処理における動詞の活用の処理については文献\cite{hisamitu94b,hisamitu94c}に詳しい.そこでは,音韻論的手法\cite{bloch,teramura},活用形展開方式,活用語尾分離方式が紹介され,新たに活用語尾展開方式\footnote{文献\cite{hisamitu94b,hisamitu94c}では,提案方式と呼ばれている.}が提案されている.音韻論的手法は,子音動詞の語幹と屈折接辞を音韻単位に分解し,屈折接辞の音韻変化の規則を用いて,活用を単なる動詞語幹と屈折接辞の接続として捕らえる.しかし,これまでの音韻論的手法では,子音動詞についての知見しか得られていなかったために,子音動詞に接尾する接尾辞と母音動詞に接尾する接尾辞を別々に扱わなければならなかった.また,音韻単位で処理する必要があると考えられているため,文献\cite{hisamitu94b,hisamitu94c}でも,処理の効率が落ちるとされている.一方,活用形展開方式,活用語尾分離方式,活用語尾展開方式は何れも伝統的な学校文法に基づいている.活用形展開方式は,各動詞についてその活用形を全て展開して辞書に登録し,それぞれ接尾辞との接続規則を与えるもので,処理速度の点で有利であるが,登録語数が非常に多くなる上に,接続規則の与え方によっては効率の点でも不利になる可能性がある.活用語尾分離方式は,活用語尾を別の形態素とし,動詞語幹と活用語尾の接続規則および活用語尾と接尾辞の接続規則を与えるもので,動詞の屈折形の解析の際に分割数が多くなり,効率の点で不利である.また,接続規則が非常に複雑になる.活用語尾展開方式は,活用語尾と接尾辞の組み合わせを形態素とし,これらと動詞語幹との接続規則だけを与えるもので,活用語尾分離方式よりも分割数が少なくなり,効率的に有利であるとされている.しかし,活用形展開方式,活用語尾分離方式,活用語尾展開方式の共通の問題点は,活用語尾と接尾辞の接続規則が体系的でない点である.特に活用語尾展開方式では,新しい接尾辞を追加する度に10以上ある動詞の活用の型それぞれに対する形態素の展開形を追加しなければならない.また,「られ」「させ」といったいわゆる派生的な接尾辞に対してはさらに多くの展開形を別々の形態素として登録する必要があるはずである\footnote{この点については文献中には触れられていない.}.そこで本文法では,動詞の語尾変化について体系的に扱うことに成功している派生文法\cite{kiyose}を基にした\footnote{派生文法を基にしたシステムとしては,文献\cite{nisino}で,何らかの方法で分解した動詞の語尾の構造を派生文法に基づいて解析するシステムについて報告されているが,形態素解析システムへの適用は報告されていない.}.派生文法も音韻論的アプローチの文法であるが,従来のものに対して,連続母音と連続子音の縮退,および内的連声\footnote{上記の屈折接辞の音韻変化と同じもの}という考え方を用いて,母音動詞も子音動詞も同様に扱うことができる.しかし,派生文法は音韻論的手法であるため,形態素解析に適用するには,処理を音韻単位で行う必要があるという問題がある.日本語のテキストを処理するような形態素解析システムでは,文字を子音と母音に分けずに日本語の文字でそのまま処理できた方が都合がよい.本研究では,派生文法における動詞語尾の扱いを日本語の文字単位で処理できるように変更する方法を見い出すことができた.すると図らずも従来の活用という考え方に適合する形になることが判明し\footnote{派生文法では日本語における活用の考え方を完全に否定している.},これによって,活用の考えを用いて作られている既存の形態素解析システムに適用することができた.しかも語尾変化についての完全な体系を背後に持つため,新たに認識された語尾変化に対しても活用形を順次増やす必要がなく,対応する形態素を一つだけ辞書に登録すれば済むようになった.事実,「食べれる」といったいわゆる「ら抜き表現」や,「書かす」といった口語的な使役表現などもそれぞれ一つの形態素を追加することで対応できている.このように新しい語尾を簡単に追加できることから,口語的な語尾の形態素を充実させることができ,口語的な文章に対しても高い精度で解析できるようになった.また,「食べさせられますまい」といった複雑な語尾変化も正確に解析できる.本研究で開発された形態素解析文法は,文字表記された日本語のテキストから言語データを抽出することを主な目的として開発されたものである.従って,日本語の漢字仮名混じりの正しい文\footnote{一般の日本人が許容できる範囲で正しいという意味で,正式な日本語という意味ではない.}を文節に区切り,その文節の係り受けの性質を識別することを最優先した解析用の文法となっている.また,形態素の意味的な面を捨象し,過剰な受理を許容することで,形態素の統一的な扱いをすることに重点を置いている.これはあくまで計算機上へのシステムの構築を容易にするためであり,なんらかの言語学的な主張をする意図はない.さらに過剰な受理を許容する意味で,この文法は解析用の文法といえる.生成等に利用するにはこの過剰な受理が障害になる可能性がある.また,誤りを含む文の識別に用いるのにも問題がある.本形態素文法はあくまで正しい文の解析に特化した文法として位置付ける必要がある.本稿では\ref{system}節で形態素の種類とそれらが満たすべき制約の体系を説明し,\ref{verb}節で動詞の語尾の扱いについて述べる.\ref{apply}節では,それを日本語文字単位の形態素解析向きに変更する方法を示す.さらに,\ref{detail}節では個別の問題がある語尾について述べ,最後にこの形態素文法を形態素解析プログラムJUMANに適用した場合の解析性能を評価する.なお,われわれが作成した形態素文法の形態素解析プログラムJUMANへの適用事例は,以下のanonymousftpで入手可能である.但し,評価の際に使用した辞書の一部について配布に制限のあるものは含まれていない.\\camille.is.s.u-tokyo.ac.jp/pub/member/fuchi/juman-fuchi
V12N05-07
\label{sec:hajime}最近、種々の応用を睨んで言い換えの研究がさかんになっている\cite{inui02,acl03}。例えば、語彙的言い換えの研究\cite{yamamoto02}は種々の応用に役立つ。また、機械翻訳の前処理や評価\cite{kanayama03}、情報検索、質問応答、情報抽出の柔軟性を上げること\cite{Fabio03,Shinyama03}、年少者や初心者向けの教科書やマニュアルを読みやすくする、などは直接的に役立つ応用である。似た研究としては聾唖者に理解し易いテキスト言い換えもある\cite{inui-acl03}。また、非母国語話者が理解しやすいように簡易な言い方に言い換えることも有意義である。こういった目的のためには、国語辞典を用いた用言の言い換え\cite{kaji03}や普通名詞の言い換え\cite{fujita00}などが役立つ。一方、要約も言い換えの応用分野として有力である。従来の文書要約は重要文の抽出が主体であった\cite{mani01}。しかし、抽出した文をさらに短縮することを目指す場合には言い換えが役立つ。例えば、\begin{description}\item[例文1:]\hspace{2em}本法案が衆議院本会議で審議が始まった。\\を\item[例文2:]\hspace{2em}本法案、衆議院本会議で審議。\end{description}というような言い換えが考えられる。実際にこの例文2のような短縮された表現はテレビの字幕あるいは列車の字幕ニュースなどでよく見かける。このような応用は文書表示を行う端末の多様化からみても有用さが増してくる。Webページは従来からパソコンの大画面への表示を想定して作られていた。しかし、携帯電話やPDAの普及により100文字程度の小画面への表示を念頭におくテキストも増加している。このような画面へ表示するコンパクトなテキストは多くの場合短縮された表現である。このような短縮を自動的に行うために言い換え表現を収集することは意義深い。新聞記事の場合、重要な文は記事の先頭に現れることが多いという性質を利用して抽出できるが、画面が小さく表示文字数に限りがあること、短い時間で読むことができることなどを考慮すると、さらに縮約が要請される。後に詳しく述べるが、よく使われるのは、上記の例文2に見られる体言止めのような文末の短縮表現である。また、「国会で審議へ」という文末の助詞止めも多く使われる。このような縮約した文末表現は従来から字幕放送で用いられている。しかし、通常の書き言葉の文末である終止形を体言止めや助詞止めに変換する規則は、これまでほとんど手作りであった\cite{ando01}。このような文短縮を目的とした言い換え表現を言語の実際の使用例から自動収集するための言語資源としてWebに配信されている新聞記事と、これに対応した内容を携帯電話向けに発信している新聞記事に注目する。これらは毎日数十記事発信され、長期間にわたって蓄積すれば大量の言語資源となる。すなわち、同じ内容が数十文字程度で構成された携帯端末向けの新聞記事と数百文字程度で構成されているWeb新聞記事が対応付けられれば、ある言語表現とその短縮表現の対応データとして使える。この対応付けコーパスを用いれば、多様な文末表現の縮約のための言い換え表現を機械的な手法で抽出することが可能になる。ここで留意しなければならないのは、この研究で目的としている言い換えは「Web記事の文$\rightarrow$携帯端末向け記事の文」という方向性を持つ点である。実際には、書き手がこの方向で作業しているかどうかは不明である。しかし、縮約のような言い換えによって短縮された記事を作ることは技術的に可能であっても、その逆方向の言い換えは困難である。よって、この方向性を前提として研究を進める。なお、以下では必要に応じて、言い換え操作の対象になるWeb記事の文からの抽出表現を「言い換え元表現」、対応する携帯端末向け記事の文からの抽出表現を「言い換え先表現」と呼ぶ。さて\cite{inui02}は言い換えの研究にいくつかの問題を提起している。それらに対して、この研究ではいかなる解決策を採っているかをまとめることによって、本論文の構成を述べる。\\\noindent\textbf{言い換え事例をどのように集めるか}\\この問題に対しては、1)Web上から得られる言い換え表現獲得のための言語資源としてWeb新聞記事と携帯端末向けの新聞記事を用いること、2)この両記事コーパスを文単位で対応付ける方法の提案と実験的評価、を行って対処している。具体的には\ref{sec:taiou}節において、研究で使用した記事データについて、およびWeb記事と携帯記事の対応付け、さらにそこから文単位での対応付けを行う方法について述べる。このような対応付けコーパスを用いる言い換え事例収集は多くの研究\cite{braz01,sekine01}があるが、本研究での新規性のひとつは対象としている言語資源にある。\\\noindent\textbf{どの表現を言い換えるか}\\この問題は、これまでの言い換え研究の中心課題のひとつであった。特に類似した表現の対をコーパスから探し出すことは重要なテーマで、多くの研究\cite{murata01,torisawa01,terada01}がなされた。我々の場合、\ref{sec:chushutu}節において述べるように、対応付けられた文からなるコーパスを利用してWeb記事文の文末を縮約する携帯端末向け文の文末の言い換え表現を獲得することに的を絞っている。よって、言い換えるべき場所はWeb記事文の文末のうち、本論文で述べる方法で抽出した言い換えにおける言い換え元の表現が出現した場合と限定できる。\\\noindent\textbf{可能な言い換えの網羅的生成と、生成された候補の評価}\\\cite{inui02}では、この問題は上の問題の一部と位置付けられているが、本研究では網羅性の確保はその困難さから諦めた。代わりに文末表現に限定し、どのような範囲の形態素列を切り出せば正しい言い換え表現を抽出できるかという問題に絞って扱う。\ref{sub:webbunmatsu}節で言い換え表現の抽出について説明し、その抽出結果に\ref{sub:junni}節で説明する得点付けを行うことによって正しい言い換え表現を取得する。\ref{sub:filter}節では、その結果の言い換え表現のうち必要な名詞を削りすぎた不適切な言い換えを除去するフィルタリングについて述べる。これらの\ref{sec:chushutu}節に提案する手法の実験評価を\ref{sec:hyouka}節で述べる。\\\noindent\textbf{意味の差、およびその計算法}\\この問題はこの論文では人手での評価に頼った。今後の課題である。\\\noindent\textbf{言い換え知識の共有}\\本論文で述べた言い換え知識は文末表現の縮約に役立つが、これを大きくの研究者、技術者に共有する枠組みについても今後の課題である。
V04N01-03
label{sec:Intro}近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.しかし,話し言葉の特徴である,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.我々は,適格文と不適格文を統一的に扱う{\bf統一モデル}\,(uniformmodel)に基づく話し言葉の解析手法を提案した\cite{伝:言処-投稿中}.そこでは,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べた.統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.我々の手法においては,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理がいずれも,最も{\bf優先度}\,(preference)の大きい依存関係解釈を求めるという形で実現される.そこで,不適格性による依存関係まで考慮した優先度の計算方法を開発することがキーとなる.本稿では,この統一モデルに基づく話し言葉の解析手法で用いるための優先度計算法について述べる.優先度の概念は,これまでにも,適格文の曖昧性を解消し最適な解釈を求める手法の中に取り入れられている.これらは以下の3つのアプローチに大別できる.\begin{description}\item[心理言語学的な知見に基づく手法]人間の構文・意味解析において観察される優先度決定の偏向を利用する.{\bf右結合原理}\cite{Kimball:Cog-2-1-15},{\bf最小結合原理}\cite{Frazier:Cog-6-291},{\bf語彙的選好}\cite{Ford:MRO-82-727}などが利用されている.\item[意味知識・世界知識に基づく手法]意味知識や世界知識を利用する.知識を人手で構築するもの\cite{Wilks:AI-6-53,Hirst:SIA-87,Hobbs:AI-63-69}と既存の辞書などを知識源とするもの\cite{Jensen:CL-13-3-251}がある.\item[コーパスに基づく(corpus-based)手法]優先度計算に必要な情報をコーパスから獲得する.{\bf統計}に基づく手法\cite{Jelinek:IBM-RC16374,Pereira:ACL92-128,Hindle:CL-19-1-103,Resnik:ARPA93}や{\bf用例}に基づく手法\cite{佐藤:人知-6-4-592,Sumita:IEICE-E75-D-4-585,Furuse:COLING92-645}がある.\end{description}本稿では,以下にあげる理由により,コーパスに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item心理言語学的な知見として得られているのは,構造的な選好など一部のものに限られ,特に,話し言葉の不適格性に関しては,ヒューリスティクスとして利用できる知見は得られていない.\item広範囲な意味知識や世界知識を人手で構築するのは困難である.また,世界知識の利用は構文・意味解析の範囲を越える.\itemこれに対し,コーパスからの優先度情報の獲得は,加工されたコーパスからであれば,容易に行なえ,かつ,情報の種類も限定されない.コーパスの加工を自ら行なう必要がある場合でも,知識自身を人手で構築するよりは負担が少ない.\end{enumerate}コーパスに基づく我々の優先度計算法では,依存関係解釈の優先度は,その解釈が学習データ中でどのくらいの頻度で生じているかに応じて与えられる.この際,学習データの希薄性(data-sparseness)の問題を回避するために,解釈の候補と完全に一致する事例だけでなく類似した事例も考慮される.類似性を適当に定義することにより,適格な文法・意味関係の優先度だけでなく,不適格性による依存関係の優先度も,同じ方法で計算できる.以下,まず\ref{sec:Uniform}\,節では,統一モデルに基づく話し言葉の解析手法の概略を説明する.次に\ref{sec:Corpus-based}\,節で,本稿で提案するコーパスに基づく優先度計算法を説明する.\ref{sec:Evaluation}\,節では,本手法を話し言葉の構文・意味解析システム上に実装し,その性能を評価することで本手法の有効性を検討する.最後に,\ref{sec:Conclude}\,節でまとめを述べる.
V31N04-09
%%%%%%%%%%%%%%%%%%%%%%%近年,雑談対話システムの需要は,研究および商業の両分野で高まっている\cite{onishi2014casual,adiwardana2020towards,shuster2022blenderbot}.雑談対話システムはその場限りの話し相手になるだけでなく,ユーザに合わせてパーソナライズしていくことで長期的なパートナーとしての役割も期待されている.さらに,長期的に利用される雑談対話システムは,体調管理\cite{bickmore2005establishing}や認知症検出\cite{luz2018method},カウンセリング\cite{chawla2023social}など継続的な利用が必要なシステムやサービスにも活用できる可能性が高い.ユーザに長く利用される雑談対話システムを構築するためには,ユーザとシステムの良好な関係を築くことが重要である\cite{bickmore2005establishing,richards2014forgetmenot}.人間同士の対話では,対話相手との過去の対話,特に相手から開示された嗜好や経験などの情報を記憶し,対話に活用することが良好かつ親密な関係構築に有効である\cite{hall2019how}.このことから,ユーザとシステムの対話では,ユーザの発話に含まれるユーザ自身に関する情報(\textbf{ユーザ情報}と呼ぶ)をシステムが記憶し,対話に活用する手法がいくつか提案されている.\citeA{tsunomori2019chat}は,過去の対話から得られたユーザ情報を記憶し対話に活用する雑談対話システムを構築した.システム発話にユーザ情報を組み込むことで,ユーザの雑談対話システムへの親しみやすさが向上することを長期的な実験において確認した.しかしながら,この手法では固定的なテンプレートにユーザ情報を埋め込むことでシステム発話を生成しているため,文脈に対して不適切な発話がしばしば生じていた.\citeA{xu2022long}は,より自然な応答を生成するために,対話文脈とユーザ情報を入力とするニューラルベースの発話生成モデルを提案した.この手法では,対話文脈のトピックがユーザ情報と近い(類似している)場合において,ユーザ情報を発話に取り入れる.しかしながら,実世界で利用する上では現在のトピックに近いユーザ情報が常に利用可能であるとは限らないため,システムがユーザ情報を利用できる機会が制限されてしまうという問題がある.我々は,現在の対話文脈との近さに関係なく任意のユーザ情報を自然に対話に活用することで,ユーザと良好な関係を構築するパーソナライズ可能な雑談対話システムの実現を目指す.図\ref{fig:dialogue_sample}は,我々が目指す雑談対話システムの対話例である.システムはユーザとの過去の対話から抽出した任意のユーザ情報を参照し,ユーザ情報とは異なるトピックの対話文脈において自然に発話に取り込んでいる.これを実現するためには,対話文脈との近さが多様なユーザ情報を踏まえた発話からなるコーパスが必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-4ia8f1.pdf}\end{center}\caption{任意のユーザ情報と対話文脈を踏まえたシステム発話の例.}\label{fig:dialogue_sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,パーソナライズ可能な雑談対話システムの実現に向けて,任意のユーザ情報と対話文脈を踏まえた発話からなるSUIコーパス(\textbf{S}ystemutterancebasedon\textbf{U}ser\textbf{I}nformationcorpus)を構築する.SUIコーパスは,$\langle$ユーザ情報,対話文脈,ユーザ情報と対話文脈を踏まえたシステム発話(\textbf{拡張システム発話}と呼ぶ)$\rangle$の三つ組からなる.SUIコーパスを用いて事前学習済み発話生成モデルをFine-tuningすることでベースラインモデルを構築し,任意のユーザ情報と対話文脈を踏まえたシステム発話を生成できるかどうかを評価する.さらに,SUIコーパスを使用して汎用的な大規模言語モデル(LLM)にIn-ContextLearning(文脈内学習;ICL)を行い,ICLにおけるSUIコーパスの有用性を評価する.最後に,発話生成ベースラインモデルをもとに雑談対話システムを構築し,ユーザとのインタラクティブな対話における任意のユーザ情報と対話文脈を踏まえた発話の有用性を評価する.本研究の主な貢献を以下に列挙する.\begin{itemize}\setlength{\itemsep}{1mm}%項目の隙間\setlength{\parskip}{1mm}%段落の隙間\item現在の対話文脈に関係なく,任意のユーザ情報を踏まえたシステム発話からなるSUIコーパスを構築した.本コーパスはGitHub上で公開している\footnote{\Turl{https://github.com/nu-dialogue/sui-corpus}}.\itemSUIコーパスを用いて(a)事前学習済み発話生成モデルに対するFine-tuning,(b)LLMに対するICLを行った.主観評価の結果,SUIコーパスを用いることで,モデルが現在のトピックに関係なく文脈への適切性を保持したまま任意のユーザ情報をシステム発話に取り込むことができることを確認した.\item発話生成ベースラインモデルをもとに雑談対話システムを構築し,ユーザとのインタラクティブな対話における任意のユーザ情報と対話文脈を踏まえた発話の有用性を実験により確認した.\end{itemize}本稿の構成は以下の通りである.\ref{sec:related_work}章では関連研究を紹介する.\ref{sec:sui_corpus}章では,SUIコーパスの構築方法について述べたのち,品質評価や分析結果をもとにコーパスの特徴について述べる.\ref{sec:utterance_generation}章では,SUIコーパスを用いた発話生成ベースラインモデルの構築および評価を行う.\ref{sec:apply_llm}章では,SUIコーパスを用いたICLによるLLMの学習および評価を行う.\ref{sec:dialogue_system}章では,発話生成ベースラインモデルを用いた雑談対話システムの構築および評価を行う.最後に,本研究のまとめと今後の課題を\ref{sec:conclusion}章にて述べる.%%%%%%%%%%%%%%%%%%%%%%%
V30N02-10
固有表現抽出(NamedEntityRecognition;NER)は,テキストから固有表現(NamedEntity;NE)や専門用語を抽出する自然言語処理技術の一つであり,様々な場面で用いられている.たとえば,新材料や新薬の開発,材料を用いた製品開発には化学物質に関する知識が必要不可欠であり,NERは,論文や特許で日々報告される化学物質間の相互関係や化学物質の物性値といった情報を構造化し蓄積するための要素技術の一つとして用いられている.NERに関する研究は古くから盛んに行われている.近年では,ニューラルネットワーク(NeuralNetwork;NN)による手法が主流となっており,再帰的ニューラルネットワーク(RecurrentNeuralNetwork;RNN)と条件付確率場(ConditionalRandomFields;CRF)を組み合わせたBidirectionalLSTM-CRFモデル(BiLSTM-CRFモデル)による手法\cite{huang2015bidirectional}やTransformerによる手法\cite{10.1093/bioinformatics/btz682}が,NERにおいて高い性能を実現している.また,近年では,対象タスクの教師データ(メイン教師データ)とは別の教師データも用いるマルチタスク学習により,複数の教師データから特徴量を同時に学習することでモデルの性能が改善することが報告されている\cite{wang2019multitask,crichton2017neural,khan2020mt,mehmood2020combining,wang2019cross}.特に,バイオ分野のNER(BioNER)においては,複数のタスクを同時に学習する{\multitask}と比較し,対象タスク以外のタスクを補助タスクとして用いる{\auxlearning}を行うことで対象タスクにおいて高い性能を示すことが報告されている\cite{wang2019multitask}.{\auxlearning}では,対象タスクから作成したメインバッチとそれ以外の教師データから作成した補助バッチを用いて学習を行う.学習時に補助バッチでパラメータを更新し,その後メインバッチでパラメータを更新する.この操作を対象タスクのデータに対する損失が収束するまで繰り返し行う.本研究では,先行研究の{\auxlearning}が1種類の補助教師データしか用いなかったのに対し,複数の教師データを補助教師データとして用いる手法({\itM}ultiple{\itU}tilizationof{\itN}ER{\itC}orpora{\itH}elpfulfor{\itA}uxiliary{\itBLES}sing;{\bf{\proposed}})を提案する.提案手法では,複数の補助教師データを用いることで,より多くの単語や文のパタンを学習する.また,複数の補助教師データを扱う際の学習方法や,補助教師データの組み合わせ,学習順について,性能向上の観点で検討する.具体的には,補助教師データ毎の補助学習を順次行うことで,対象タスクのモデルを補助教師データの種類の数だけ再学習する方法({\proposed}-スタック手法)と,全種類の補助教師データを一つの補助学習で用いる方法の2種類の学習手法を提案する.後者の学習方法としては,補助教師データを全て結合させた教師データからランダムにデータ選択して作成したバッチに基づき学習を行う方法({\proposed}-結合手法)と,エポック毎に補助教師データの種類を変えて学習を行う方法({\proposed}-反復手法)を提案する.本研究では,提案手法によるモデルの有効性を計8種類の化学/バイオ/科学技術分野のNERタスクで評価した.評価実験より,各タスクにおいて7種類の補助教師データを用いる提案手法によるモデルは従来手法によるモデルと比べて,F1値の平均が向上することを確認した.そして,提案手法によるモ出るは,従来手法と比較して最も高いF1値を達成した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V12N01-04
省略補完や代用表現の解釈といった対話理解のための対話構造のモデル化と解析は,音声対話を対象にした機械翻訳の分野で特に重要とされている.これに対し,チャット対話を対象とした対話構造のモデル化と解析は,情報抽出やコミュニケーション支援といったチャット対話を言語資源として利用する研究分野においても重要とされている\cite{Khan:02,Kurabayashi:02,Ogura:03}.このような分野では,「現在話されている話題は何か」「誰がどの話題について情報をもっているか」といった情報を獲得することが必要であり,各発言の相互の関係を示す対話構造を同定する必要がある.チャット対話では,表\ref{tbl:chat}のようにメッセージを送受信することで対話が進む.対話は文字データとして記録されるため,そのまま言語資源として利用できる.しかし,チャット対話はその独特の特徴のため,音声対話を対象とした既存の対話構造モデルをそのまま適用することは難しい.まず,表\ref{tbl:chat}の25と27の発言のように,質問と応答のような意味的につながりを持つ発言が隣接しない場合がある.また,質問や応答を構成する発言自体も31と32,33の発言のように区切って送信({\bf区切り送信})される場合がある\cite{Werry:96}.このように,チャット対話の基本単位は音声対話のそれとは異なる.本論文の目的は,チャット対話の発言間の二項関係である継続関係と応答関係を同定する処理を自動化して対話構造を解析する手法を提案し,その実現可能性について論じることである.2節で詳述するように同一話者による発言のまとまりを{\bfムーブ}と呼ぶ.このとき,チャット対話の対話構造を解析する作業は,次の2つの処理に分解できる.\begin{description}\item{\boldmath$継続関係の同定:$}\.同\.一\.話\.者の発言間の継続関係を同定することによってそれらをムーブにまとめる処理.\item{\boldmath$応答関係の同定:$}質問と応答のような\.異\.な\.る\.話\.者のムーブ間の応答関係を同定し,チャット対話全体の対話構造を抽出する処理.\end{description}具体的には,表\ref{tbl:chat}の発言31から33までからなるムーブを構成する発言間の二項関係(例えば,発言31と32及び発言32と33)を継続関係,質問と応答のような異なる話者のムーブ間の二項関係(例えば,発言31から33までからなるムーブと発言34からなるムーブ)を応答関係と定義し,これらの関係に基づいて,発言をまとめあげることで対話構造を解析する.本研究では,この問題をある発言とそれに先行する発言との間に継続関係があるか否か,または応答関係があるか否かの2値分類問題に分解し,コーパスベースの教師あり機械学習を試みた.解析対象はオフラインのチャット対話ログである.
V03N04-05
自然言語処理のための言語リソースとして語彙辞書が最も基本となるが,構文構造の基本となる構成要素は,2文節間あるいは2単語間の係り受け構造である.係り受け関係は,CFG規則の最も単純な形式であるチョムスキ標準形と見なすことができる.通常この関係は共起関係と呼ばれている.本論文は,文法規則というよりは言語データの一種と見なせる共起関係を用いて日本語の係り受け解析を行い,かつ更新,学習機能を取り入れることにより,カナ漢字変換に見られるような操作性の良さを有する簡便な日本語係り受け解析エンジンを提示することを目的とする.これまで共起関係による自然言語解析には,\cite[など]{Yoshida1972,Shirai1986,TsutsumiAndTsutsumi1988,Matsumoto1992}の研究がある.\cite{Yoshida1972}は本論文に最も関係するもので係り受けによる日本語解析の基礎を与えるものである.\cite{Shirai1986}は日本語の共起関係の記述単位として品詞と個別単語との中間に位置すると見なせるクラスター分類で与えるとともに半自動的にインクリメンタルに共起辞書を拡大することを述べている.\cite{TsutsumiAndTsutsumi1988}は英語に関して動詞の格ペアーとして共起関係を捉えている.\cite{Matsumoto1992}は英語構文解析の規則に共起関係を抽出する補強項を付け加へ,2項以上の多項関係を解析時に自動的に抽出している.しかし,いずれのシステムも共起関係だけから実用規模の係り受け解析を構築したものはない.一般に共起関係は\cite{Yoshida1972}を除き係り側の自立語と付属語(機能語)列および受け側の自立語(終止形)で論じられることが多い.その際,係り側の付属語は両方の自立語の表層格(関係子)として考えられている.\cite{Yoshida1972}は二文節間の関係に着目して受け側も自立語と付属語列として考察した.さらに機械処理の観点から,付属語・補助用言・副詞などの語は個々の単語で記述し,他の語は品詞水準で扱った.これを準品詞水準と称している.本論文では,副詞も含めてすべて自立語は品詞で記述し,付属語列はリテラルで表現することにする.品詞に縮退させているためこれを縮退型共起関係あるいは省略して単に共起関係と呼ぶ.本論文では,実際の文章から機械的に抽出した係り受け関係を共起データとし,いわゆる文法規則の類を一切使用せずに係り受け解析システムを構築する.その際,共起関係の構文情報の中に連続性の概念を導入して,これまで文法的には曖昧であるとされていた構造も本質的に曖昧性が解消出来ているのではないが,実際の文章では出現頻度が少ないとか,分野を限定すれば同一文体が続く傾向があるために係り受けパターンを絞り込めるのではないかと予想して開発した.これは最近研究の盛んなコーパスに基づく統計的言語処理の一つの試みにもなる.また単純な形式の共起関係のみを用いて解析を行うため,日本語の係り受け解析で一文ごとに規則に相当する共起関係を学習する機能を持たせることができ,共起関係の更新機能と併用することで従来のものと比較して,柔軟性,拡張性に富んだシステムが得られる.以下,\ref{data-str}章では,構文構造と共起関係のデータ構造を定義する.\ref{new-ana}章では本共起関係を用いた学習機能付き日本語係り受け解析システムを説明する.\ref{eval}章では解析システムの実験結果を示し,評価を行う.
V28N02-11
現在,ニューラルネットワークを用いた機械翻訳(ニューラル機械翻訳)が機械翻訳の主流となっている.注意機構を用いた再帰型ニューラルネットワーク(RecurrentNeuralNetwork;RNN)に基づくニューラル機械翻訳モデルは初期のころから広く使用されてきたモデルであり,原言語文内の単語と目的言語文内の単語間の関係を捉える言語間注意機構を用いることで,従来のRNNベースのニューラル機械翻訳よりも高い精度を実現した\cite{Bahdanau-attention,luong-attention}.また,従来の言語間注意機構に加えて,同じ文中の単語間の関係を捉える自己注意機構を導入したTransformerモデル\cite{transformer}が提案され,RNNや畳み込みニューラルネットワーク(ConvolutionalNeuralNetwork;CNN)を用いた手法と比べて高い精度を実現することから,近年注目されている.ニューラル機械翻訳の性能を改善する手法については様々な研究がなされているが,その内の一つに,上述の言語間注意機構に制約を与える研究がある\cite{supervised-attention,mi-etal-2016-supervised,garg-jointly}.これらの研究では,アライメントツールを用いて原言語文と目的言語文間の単語の対応関係を予め取得し,その対応関係を教師データとして与えて言語間注意機構を学習させることで翻訳性能の向上を実現している.機械翻訳手法の一つとして,原言語文とそれに対応する内容の画像を入力することで翻訳性能の改善を目指すマルチモーダルニューラル機械翻訳\cite{multimodal-shared-task}が提案されている.翻訳時に与えられる画像は,翻訳の曖昧性解消や省略補完の手がかりとして役立つと考えられ,画像を参照することでより質の高い翻訳が実現されることが期待されている.マルチモーダルニューラル機械翻訳のモデルとして,Helclら\cite{helcl-cuni-system}は,CNNによって抽出した画像の特徴量を翻訳に活用するために,文中の単語と画像の領域との対応関係を捉える視覚的注意機構をTransformerモデルのデコーダ内に導入したモデルを提案している.また,Delbrouckら\cite{enc-visual-attention}は,RNNベースのマルチモーダルニューラル機械翻訳モデルのエンコーダに視覚的注意機構を導入したモデルを提案している.しかし,これらの視覚的注意機構は,マルチモーダルニューラル機械翻訳の訓練時に教師なしで自動的に学習が行われている.そのため,本来捉えるべき対応関係を常に捉えられているとは限らない.本稿では,マルチモーダルニューラル機械翻訳の性能改善のために,人手により与えられた文中の単語と画像領域との対応関係に基づいて教師付き学習を行う制約付き視覚的注意機構を提案する.具体的には,原言語文中の単語と画像内のオブジェクトとの対応関係が付与されたデータを教師データとして用いることで,Transformerモデルエンコーダ内の視覚的注意機構を直接学習させることを行う.Multi30kデータセット\cite{multi30k}を用いた英独翻訳および独英翻訳とFlickr30kEntitiesJPデータセット\cite{nakayama-tamura-ninomiya:2020:LREC}を用いた英日翻訳および日英翻訳の評価実験を行い,提案する教師付き視覚的注意機構によってTransformerベースのマルチモーダル機械翻訳モデルの翻訳性能が改善することが確認できた.また,教師付きの言語間注意機構と組み合わせることにより,さらに翻訳性能が改善されることを確認した.本稿の構成は以下の通りである.\ref{sect:Background}節で本研究の背景について述べ,\ref{sect:proposal_method}節で提案手法について説明する.\ref{sect:exp}節では実験について述べ,\ref{sect:analysis}節で実験結果の考察を行う.\ref{sect:related_work}節で関連研究について述べ,最後に\ref{sect:Conclusion}節でまとめと今後の課題について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V19N05-01
オノマトペとは,「ハラハラ」,「ハキハキ」のような擬音語や擬態語の総称である.文章で物事を表現する際に,より印象深く,豊かで臨場感のあるものにするために利用される.日本語特有の表現方法ではなく,様々な言語で同じような表現方法が存在している\addtext{{\cite{Book_03}}}.このようなオノマトペによる表現は,その言語を\addtext{母語}としている人であれば非常に容易に理解することができる.また,オノマトペは音的な情報から印象を伝えるため,ある程度固定した表現もあるが,音の組み合わせにより様々なオノマトペを作ることも可能であり,実際様々なオノマトペが日々創出されている\addtext{{\cite{Book_05,Book_06}}}.そのため,国語辞書などにあえて記載されることは稀なケースであり,また,記載があったとしても,使用されているオノマトペをすべて網羅して記載していることはない\addtext{{\cite{Book_04}}}.そのため,その言語を\addtext{母語}としない人にとっては学習し難い言語表現である.特に,オノマトペを構成する文字が少し異なるだけでまったく異なる印象を与えることも学習・理解の難しさを助長していると考えられる.例えば先の例の「ハラハラ」という危惧を感じる様子を表現するオノマトペの場合,「ハ」を濁音にすると「バラバラ」となり,統一体が部分に分解される様子を表現し,また,半濁音の「パ」にすると「パラパラ」となり,少量しか存在しない様子を表現する.さらに,「ハラハラ」の「ラ」を「キ」にした「ハキハキ」では,物の言い方が明快である様子を表現するオノマトペになる.これらのオノマトペの特徴は,人が学習するときだけでなく,コンピュータで扱う際にも困難を生じさせる.そこで本稿では,オノマトペが表現する印象を推定する手法を提案する.日本語を対象に,オノマトペを構成する文字の種類やパターン,音的な特徴などを手がかりに,そのオノマトペが表現している印象を自動推定する.\addtext{例えば,「チラチラ」というオノマトペの印象を知りたい場合,本手法を用いたシステムに入力すると「少ない」や「軽い」などという形容詞でその印象を表現し出力することができる.}これにより,日本語を\addtext{{母語}}としない人に対して,日本語で表現されたオノマトペの理解の支援に繋がると考えられる.また,機械翻訳や情報検索・推薦の分野でも活用することができると考えられる.
V18N02-03
本稿は,文書,あるいはある観点で集められた文書群が与えられたとき,それについて文書量に依存しない定数—これを本稿では文書定数と定義する—を計算する方式に関する報告である.文書定数は,古くは文書の著者判定を主たる目的として探究された.最も古い代表的なものとして,1940年代に提案されたYuleの$K$がある.現在では,著者判定に対しては,言語モデルや機械学習に基づく方法など,代替となる手法が数多く提案されている.このため,何も文書や文書群をあえて定数という一つの数値に還元して判定を行う必要はない.しかし,文書あるいは文書群がある一貫した特質を持つのであれば,その特質を定数に還元しようとすること自体は,工学上の個別の応用を超えて,より広く計算言語学上の興味深いテーマであると筆者らは考える.文書あるいは文書群に通底する一貫性の種類には,内容や,難易度などさまざまなものが考えられ,言語処理分野では文書分類や,難易度判定としてそれを捉える工学的方法が考案されてきた.文書定数の場合には,もともとの研究の発端が著者判定にあったために著者の語彙量,語彙の偏り度合,あるいは個別文書の複雑さなど,語彙の複雑さを計測し数値化する問題として考えられてきた.一般に,文書の大きさが増すほど,文書の複雑さは増大するが,一方で,漱石の「坊っちゃん」の一部分にはその全体にも通底する固有の特質があると捉えることもできよう.これを定数として表そうとすることは,記号列としての文書に一貫する複雑さのある側面を考えることにつながると考えられる.そして,対象としうる文書は個別作品だけではない.特定の内容の文書群や,特定の言語の文書群でこれらの定数を考えることは,自然言語の記号列の有する特質に光を当てることにはならないか.文書定数を考えることは,本稿でも報告するように,易しい問題ではない.その一つの理由は,自然言語の文書においてhapaxlegomena—頻度が1回きりの単語—が語彙に対して占める割合が比較的大きいことにあろう.たとえば,サイコロであれば,各目の出る確率を推定するのに必要な施行回数は推定することができる.一方で,文書の場合には,さまざまな統計的推定には文書量が常に不十分な状態のままである~\cite{kyo,Baayen}.すなわち,文書定数を考えることは,確かな言語モデルが不在のまま,量が常に足りていない状態のままで定数を考える,という問題として位置付けられよう.次節でまとめるが,文書定数に関する研究は,すでにさまざまなものがあり,単語に注目するものと文字列に注目するものに大別される.近年の研究では,それらのほとんどが文書長に応じて単調変化してしまうことが報告され,その中で,文書定数となる指標は,筆者らの知る範囲では,現在のところ2つしかない.この現状の中で,本稿の意義は以下の4点にまとめることができる.第一に,過去の研究で定数とされているものうちの一つが定数ではないと実験的に示したことである.第二に,過去の提案に加え,近年研究されている言語の大域的特性を捉える複雑系ネットワークや言語エントロピーといった数理的枠組みから,文書の特性を大域的に捉える指標を新たに吟味し,これらがやはり文書定数とならないことを示すことである.以上の意味で,本稿では,新しい文書定数を提案するものではなく,文書定数としては依然として,既に提案されていたもののうち2つのみである,という結論となる.第三に,文書定数に関する研究は,英語を中心として展開し,やや広くても印欧語族についてのみの報告しかない.本稿では,日本語や中国語に関しても実験を行い,過去に提案されてきた文書定数が非印欧語族に対しても定数として成り立つかどうかを論じる.第四に,過去の研究の大半では,短い個別文書に関して定数となるかどうかが調べられてきた.本稿では,数百MBにわたる文書群での実験結果も報告する.
V10N04-02
label{sec:INTRO}音声対話は,人間にとって機械との間のインターフェースとして最も望ましいものである.しかし,音声対話システムが日常にありふれた存在となるためには,人間の使用する曖昧で誤りの多い言葉,いわゆる話し言葉に対応できなければいけない.そのためには,繰り返し,言い淀み,言い直し,助詞落ち,倒置などの不適格性とよばれる現象に対処できる必要がある\cite{YM1992,DY1997}.これらの不適格性の中で特に問題となるのは,言い直しあるいは自己修復と呼ばれている現象である.ユーザの発話中に自己修復が存在した場合,システムはその発話の中から不必要な語を取り除き,受理可能な発話を回復する必要がある.この自己修復に関する研究は,英語に関するものでは,\cite{HD1983,BJ1992,OD1992,NC1993,HP1997,CM1999}などがあり,日本語に関するものでは,\cite{SY1994,KG1994,IM1996,DY1997,NM1998,HP1999}などがある.しかしながらこれらの論文で提案されている手法では,自己修復を捉えるモデルに不十分な点があり,ソフトウェアロボットとの疑似対話コーパス\cite{QDC}に見られるような表現をカバーできない.また,自己修復を検出した後の不要語の除去処理に関しても十分な手法を与えていない.本論文では,日本語の不適格性,特に自己修復に対処するための新しい手法を提案する.この手法では,従来の手法では捉えられなかった自己修復を捉える事ができるように自己修復のモデルを拡張する.そして,表層及び意味レベルでのマッチングを用いた自己修復の解消法を提案する.まず,\ref{sec:ILL_FORMEDNESS}節では不適格性とその中での自己修復の位置づけについて述べる.\ref{sec:PARSER}節では,本論文で用いるパーザと文法について述べる.\ref{sec:SC}節では,本論文で提案する自己修復の処理手法について述べる.そして\ref{sec:EVAL}節では,提案手法をコーパスに対して適用した結果に基づいて考察する.
V28N02-09
単一言語内フレーズアラインメントは自然言語理解における基礎タスクである.本タスクは,与えられた同一言語の$2$文に含まれる言い換えフレーズについて,それらの対応付けを行うことを目的とする.単一言語内フレーズアラインメントの応用は多岐に渡るが,特に関連の深いタスクは言い換え認識\cite{dolan-2005}や含意関係認識\cite{dagan-2005},意味的類似度推定\cite{agirre-2012}などの文対モデリングタスク\cite{lan-2018}である.先行研究\cite{maccartney-2008,yao-2013-b,maharjan-2016,arase-2017,ouyang-2019}では,大規模な言い換え辞書あるいは高品質な構文解析器やチャンカーを利用できることが前提となっており,英語以外の言語への適用は容易ではない.既存手法であるJacana-phrase\cite{yao-2013-b}やSemAligner\cite{maharjan-2016}はWordNet\cite{miller-1995}やPPDB\cite{ganitkevitch-2013}といった大規模な言い換え辞書を使用して素性を抽出している.また,\citeA{arase-2017}や\citeA{ouyang-2019}は,句構造解析器などの高品質な構文解析器を用いてフレーズの構造を獲得している.一方,統計的機械翻訳の分野で研究されてきた対訳フレーズアラインメント手法\cite{marcu-2002,koehn-2003,deng-2005,bansal-2011}の多くは,パラレルコーパスにのみ依存している.対訳フレーズアラインメントの一般的なアプローチでは,最初に単語アラインメントを獲得し,次にヒューリスティクスに基づいてそれらをフレーズ対へ拡張する.ただし,対訳フレーズアラインメントの主な目的はフレーズベース機械翻訳のためのフレーズテーブルの作成であり,抽出したフレーズ対からどの部分集合をアラインメントとして選択するべきかを推定するのは目的の範囲外である.また,大規模な単一言語のパラレル(言い換え)コーパスが充実している言語は限定されているため,単一言語内フレーズアラインメントへの適用は難しい.本研究では,対訳フレーズアラインメント手法の利点を活用したシンプルな単一言語内フレーズアラインメント手法\footnote{提案手法は単一言語内フレーズアラインメントツールSAPPHIREとして一般公開している.\\\url{https://github.com/m-yoshinaka/sapphire}}を提案する.提案手法では,まず訓練済みの単語分散表現を用いて単語アラインメントを獲得し,続いて対訳フレーズアラインメントのヒューリスティクスに基づき単語アラインメントをフレーズ対へ拡張する.そして,獲得したフレーズアラインメントの候補の中から,入力文対において尤もらしいフレーズアラインメントを探索する.既存手法とは異なり,提案手法が必要とする言語資源は単語分散表現を訓練するための生コーパスのみであり\footnote{日本語や中国語のような単語境界が非自明な言語では単語分割が必要であるが,単言語コーパスのみで訓練可能なSentencePiece\cite{kudo-2018}のようなサブワード分割で構わない.},生コーパスは多くの言語で大規模に利用可能である.英語におけるフレーズアラインメントのベンチマーク\cite{brockett-2007}を用いた実験では,提案手法は既存のフレーズアラインメント手法\cite{ouyang-2019}を上回るF値を達成しており,高精度なフレーズアラインメント手法を実現した.また,日本語のデータセットを構築して行った分析では,英語以外の言語へ容易に適用できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V25N05-02
label{introduction}ニューラル機械翻訳\cite{bahdanau2014neural,sutskever2014sequence,cho2014learning}は,ソース言語を数値ベクトルによる分散表現で表し,それをニューラルネットワークを用いて変換して求めた数値ベクトルからターゲット言語の単語列を求めることで翻訳を行う手法である.従来の統計的機械翻訳\cite{koehn2003statistical}では対訳コーパスから求めた変換規則の確率を用いてソース言語の単語やフレーズをターゲット言語への単語やフレーズに変換していたため,フレーズ同士の長い区間でのつながりが十分に反映されていなかった.これに対して,ニューラル機械翻訳では,リカレントニューラルネットワークおよびLSTM(LongShortTermMemory)の利用により,長い区間での単語のつながりが考慮されている.そのため,ニューラル機械翻訳を用いると従来の統計的機械翻訳と比べて流暢な文を生成できるが,訳抜けや繰り返しがあることや,出力結果に未知語(UNK)が含まれる\cite{luong2015addressing,jean2015using}という問題が指摘されている.未知語が含まれる問題に対処するこれまでに提案されている主な手法には以下のものがある.まず,コーパスに前処理を行う方法としては,コーパス中の未知語をすべて未知語トークンに置き換え,位置情報を付け加えて学習を行うPosUNK\cite{luong2015addressing}がある.通常の手法では,語彙制限のために未知語が生じた場合は,ソース言語およびターゲット言語内の未知語を一律に特殊な未知語トークンUNKで置き換える.一方PosUNKにおいては,ソース言語内の未知語はすべてUNKに置き換えるのは同じだが,ターゲット言語の未知語は位置情報を利用して区別する.具体的には,ソース言語を{$f_1$,\ldots,$f_n$}とし,ターゲット言語を{$e_1$,\ldots,$e_m$}として,ソース言語に未知語{$f_i$}が存在したとする.{$f_i$}に対応する未知語{$e_j$}がターゲット言語内に存在した場合は,相対位置{$d=j-i$}を利用して,{$e_j$}を位置情報付き未知語トークンPosUNK{$_d$}に置き換える.ただし,ソース言語に対応する未知語を持たないターゲット言語の未知語は,空集合{$\phi$}に対応するPosUNK{$_\phi$}に置き換える.これにより学習した翻訳機は,未知語を一律にUNKとしてではなく,PosUNK{$_d$}として相対位置付きで推定するため,dを利用して対応するソース言語内の単語を推定することができる.しかしながら,この手法を日英の言語対で実験を行ったところ,効果が低かった(4.3節参照).この手法は,ターゲット言語とソース言語において,単語間の相対位置は同一であると仮定しているため,日英のような文法構造が大幅に異なる言語間では適用が困難であるためと考えられる.また,コーパス中の単語を分割して全体の単語の種類を少なくするBPE(BytePairEncoding)\cite{sennrich2016neural}がある.BPEは頻度の低い単語を複数の文字列に分割することで,単語の頻度を増やし学習しやすくする方法である.この手法も日英の言語対で実験を行ったところ,効果が低かった(4.3節参照).ヨーロッパ言語などの文字の種類が少なく単語の成り立ちが類似する言語間に比べ,日本語と英語では単語の構成が大きく異なり,日本語は文字の種類が多いことが原因だと考えられる.ニューラル機械翻訳のモデルを変更する方法としては,アテンションの計算で単語翻訳確率を考慮する方法\cite{arthur2016incorporating},coverageを導入する方法\cite{tu2016modeling,tu2017context},統計的機械翻訳で作成したフレーズテーブルを組み入れる方法{\cite{stahlberg2016syntactically,khayrallah2017neural,zhang2018guiding}},入力文中の単語が既知語の場合はそのまま処理し,未知語の場合は単語を文字に分解して処理する方法\cite{luong2016achieving}などがあるが,いずれもニューラルネットワークの性能を改善させることが主眼であり,未知語そのものを完全に消去することを目的としていない.ニューラル機械翻訳の出力結果の単語列を統計的機械翻訳を用いて並べ替える手法\cite{skadina2016towards}もあるが,この手法では単語の辞書を作るためだけにニューラル機械翻訳を使っており,最終的な翻訳は統計的機械翻訳で行っている.よってニューラル機械翻訳の利点である単語間の長区間でのつながりを考慮した流暢性が失われてしまう.以上のように従来の手法の多くは,未知語を減少させることはできているが,日英翻訳では翻訳精度の向上が期待できない.そこで本論文では,ニューラルネットワークのモデルや探索方法を変更することなく未知語を減少させ,かつ翻訳精度を向上させる手法を提案する.そのために,アテンションに基づいたニューラル機械翻訳をソース言語に対して適用することで生成されたアテンションを利用する.アテンションは翻訳におけるソース言語の単語とターゲット言語の単語の対応を数値化したもの{\cite{bahdanau2014neural}}で,統計的機械翻訳における2言語間の単語の対応を表す単語アライメント表\cite{koehn2003statistical}と類似したものである.{\cite{hashimoto2016domain}}及び{\cite{freitag2016fast}}では,この性質を利用し,アテンションを元に対応する未知語を推定する手法を提案している.ともに未知語が対応する単語はアテンションが最も高い値を持つ単語だとしている.しかしながら,類似しているとはいえ,アテンションは単語アライメント表そのものではなく,数値の大小と実際のアライメントが一致しない場合も多い.また,言語学的な性質を満たしているとも限らない.本研究では,隣接関係等の,単語間の対応関係の言語学的性質に関するヒューリスティックを利用して,アテンションから単語アライメント表を推定する手法を提案する.そして,その単語アライメント表を利用して未知語を置き換える.これによりニューラル翻訳の利点を生かしたアテンションと言語学的な性質の双方を組み合わせた未知語問題の解決を行う.本論文はアテンションを用いた未知語解決に関する論文\cite{ibe2018}の内容を発展させたものである.ASPECと{\ntcir}の2つのコーパスに提案手法を適用したところ,未知語を完全に除くことができ,BLEU値も上昇させることができた.
V17N05-02
日常の自然言語文には構成性(compositionality)に基づいて意味を扱う事が難しいイディオムや相当数のイディオム的な複数単語からなる表現,また,語の強い結合によって成り立つ決まり文句や決まり文句的な表現が数多く使われている.しかし,現在の自然言語処理(NaturalLanguageProcessing:NLP)ではこれらには必ずしも十分な対応が出来ていない\footnote{イディオム「目を回す」,「水に流す」,決まり文句的表現「引くに引けない」,「何とは無しに」を市販の良く知られた日英翻訳ソフト2種に翻訳させた結果を以下に示す.結果からいずれもこれらの表現を正しく認識していないことが推定される.\begin{tabbing}\hspace{30pt}\=123456789012345678901234567890\=\kill\>彼はそれを聞いて目を回した\>A社;Heturnedhiseyeshearingit.\\\>\>B社;Hehearditandturnedeyes.\\\>私は過去を水に流す\>A社;Ithrowthepastintowater.\\\>\>B社;Ipassthepastinwater.\\\>彼は引くに引けない\>A社;He..pull..isnotclosed.\\\>\>B社;Hecannotpulltopull.\\\>私は何とは無しにそれを見た\>A社;Iregardeditaswhatnothing.\\\>\>B社;..itwas.wasseenverymuch..me..\\\end{tabbing}}.近年,このような特異性のある複数単語からなる表現を複単語表現(Multi-WordExpression:MWE)と名付け,英語の機械処理の立場からその全体像を俯瞰し,対応を考察した論文(Sagetal.2002)が端緒となって,NLPにおけるMWE処理の重要性が広く認識されるようになった.これを受け,(国際)計算言語学会(AssociationforComputationalLinguistics:ACL)は2003年以降,MWEに関するワークショップをほぼ毎年開催しており,活発な議論が行われている.しかし,これまでの研究にはなお,以下の様な基本的な問題点が残っている.\begin{enumerate}[1.]\item複合名詞(NounCompound:NC),動詞・不変化詞構文(Verb-ParticleConstruction:VPC),動詞・名詞構文(VerbNounConstruction:VNC),イディオム(Idiom)など,限られた構文,意味の表現だけを対象とする研究が多い.\item典型的なイディオム,典型的な決まり文句などを対象とする研究が多く,意味的非構成性や要素語の共起に特異性を持つと認められるそれ以外の表現が顧みられていない.\itemコーパスからMWEを自動抽出する研究において,基準となる表現集合が不備なために再現率を的確に検証することが難しい.\end{enumerate}筆者らは,機械翻訳研究(首藤1973)の経験からフレーズベースの訳出が必要であること,一般のNLPにも複数単語からなる特異的な表現を総括的に資源化しておくことが不可欠であることを認識し,現代日本語におけるそれらの候補を収録した辞書の構築を目指してきた.本論文ではその初版の概要を報告する.以後,この辞書をJDMWE(JapaneseDictionaryofMulti-WordExpressions)と呼ぶ.本辞書は上記の問題を解消し,日本語の特異的複単語表現の基準レキシコンを与えることを目標に,主として人の内省によって編纂されている.編纂においては以下の点に留意した.\begin{enumerate}\itemNLPに有効と思われる,出来るだけ広範なMWE候補を体系的に整理・提示すること\footnote{ただし,固有表現(namedentity),頭字語(acronym),混成語(blend),会話調表現,尊敬・丁寧・謙譲表現には現時点では原則として対応していない.他の辞書類やルールによる自動生成等でカバーされることを想定している.}具体的には,イディオム(慣用句),決まり文句(常套句),慣用的な比喩表現,機能動詞結合(一部),支援動詞構文(一部),クランベリー表現,四字熟語,格言,諺,擬音・擬声・擬態語表現,複合語(一部),呼びかけ表現,応答表現等を対象とする.以後,これらの表現および外国語でこれらに相当する表現をMWE(Multi-WordExpression)と総称する.\item異表記,派生形をできるだけ網羅すること\item各MWEに機能情報のほか,構文構造情報を与えることにより,MWEを単語と見なした処理だけではなく,構文的柔軟性(内部修飾可能性)にも対応できるようにすること\end{enumerate}現在の収録MWEは基本形で約104,000表現,記載した異表記,派生形情報をすべて適用して見出しを生成すれば750,000表現程度をカバーしていることになる.本辞書はMWEごとにスロット付きの依存(木)構造を与えた一種のツリーバンク,あるいは,語の組み合わせに特異性があると同時に纏まった意味・談話上の機能を持つ,構造付きn-グラム$(2\leqq\mathrm{n}\leqq18)$データセット(syntacticallyannotatedn-gramdataset)と見なすことが出来る.以下,2.で関連研究を概観し,本研究の位置付けを明らかにする.3.で本辞書に収録した表現について詳しく述べる.4.で辞書形式を簡単に説明し,辞書内容として異表記に関する情報,機能に関する情報,構造に関する情報について順に述べ,例を用いて構造情報と内部修飾句との関係を説明する.5.では既存の大規模日本語n-グラム頻度データとの比較等によって収録表現の統計的性質に基づいた考察を行う.6.で総括と今後の課題を述べてむすびとする.
V09N03-01
決定リストとは統計的なクラス分類器である.自然言語処理の多くは,クラス分類問題として捉えることが可能であり,近年,様々な自然言語処理において,決定リストによる手法の有効性が示されている\cite{Yarowsky:unsupervised,新納:日本語形態素解析,宇津呂:コーパス,白木:複数決定リスト}.特に,語義曖昧性解消問題に対しては,語義曖昧性解消システムの性能を競う競技会であるSenseval-1において,決定リストを階層的に拡張した手法が最も良い成績をあげている\cite{Yarowsky:Hierarchical}.クラス分類器としては,分類精度の点だけでいえば,最近ではサポートベクタマシン\cite{vapnik95nature}やアダブースト\cite{freund99short}といった手法が,その性能の高さから注目を集めている\cite{nagata01text}.しかし,それらの手法は,学習結果が人間にとってブラックボックスなのに対して,決定リストによる手法では,作成された分類器がif-then形式のルールの並びであるために,人間が容易に理解可能であるというメリットがある.学習した決定リストに人間の手を入れることで,性能を向上させることができるとの報告もある\cite{Li:Text}.決定リストを作成する上で最も重要な問題は,ルールの信頼度の算出法である.信頼度を計算するためには,限られた事例から,ルールに関する条件付き確率を計算する必要がある.事例の数が多ければ,確率値を最尤推定法によって頻度の比として推定することにほとんど問題はない.しかし,事例の数が少ない場合,最尤推定法による推定値の誤差は非常に大きくなってしまう.このような問題に対し,決定リストを用いた多くの研究では,事例の数が少ないルールを間引いたり,簡単なスムージングを行なうことによって対処している.しかし,ルールを間引く手法では重要なルールを取りこぼしてしまう危険があり,計算式に適当な数値を足してスムージングを行なう手法では加算する値の設定の理論的な指針がないという問題がある.他方,決定リスト手法の改良として,特徴の種類ごとに異なった信頼度の重み付けを与える手法が提案され,日本語の同音異義語解消の実験によってその有効性が示されている\cite{新納:複合語}.このことは,特徴の種類によって,ルールの信頼度に最尤推定法では考慮することのできない違いが存在することを示唆している.そこで本論文では,ルールの確率値の推定にベイズ統計の手法を利用する.ベイズ統計では,確率変数に関する推定を行なう際に,学習者の持っている事前知識を活用することができる.そのため,適切な事前知識を利用することができれば,最尤推定よりも正確な推定を行なうことができる.また,上記の,証拠の種類による信頼度の違いも,事前分布の違いとして自然に導入することができる.本論文では,語義曖昧性解消の問題を例にとり,ベイズ学習による信頼度の算出が,決定リストの性能を向上させることを示す.本論文の構成は以下の通りである.2章で決定リストによるクラス分類の手法を説明する.3章で,ベイズ学習による確率値の算出法を示す.4章で,他のルールの確率値を利用して事前分布を構成する方法を示す.5章で,決定リストを語義曖昧性解消問題に適用した実験結果を示す.6章で,まとめを行なう.
V25N03-02
\label{introduction}ある二つの文について,それぞれの文がどのような意味を持ち,一方の文と他方の文とがどのような意味的関係にあるかという文間の関連性の評価は,情報検索や文書分類,質問応答などの自然言語処理の基盤を築く重要な技術である.これまでの自然言語処理における文の意味表現の方法は,ベクトル空間モデルが主流である.情報検索においては,単語や文字の出現頻度といった表層的な情報を用いて,統計的機械学習に基づいて文ベクトルを導出する手法が用いられてきた.また,さらに正確な文の意味表現を目指して,単語やフレーズといった構成要素を組み合わせて文の意味を計算するベクトル空間モデル~\cite{Find-similar,mitchell2010composition,DBLP:conf/icml/LeM14}が提案されてきた.近年では,深層学習を用いて高精度で文の意味表現を獲得する手法~\cite{MuellerAAAI2016,hill-cho-korhonen:2016:N16-1}が多く提案されている.これらの手法では,単語ベクトルや文字ベクトルを入力として学習を行い,文ベクトルを獲得しているが,獲得した文ベクトルが否定表現や数量表現などを含む文の意味を正確に表現しているかは自明ではない.たとえば,\textit{Tomdidnotmeetsomeoftheplayers}と\textit{Tomdidnotmeetanyoftheplayers}という文はほとんど単語が共通しており,\textit{some}や\textit{any}といった機能語は通常捨象されるか,ほぼ同じ単語ベクトルとして扱われる.しかし,前者は「\textit{Tom}は選手の何人かとは会わなかった(別の何人かの選手とは会った)」,後者は「\textit{Tom}はどの選手とも会わなかった」という意味を表しており,これらの文の意味の違いを単語や文字からの情報を用いてどのようにして捉えるかが課題となっている.そこで,統語構造を考慮したモデルなど,より高度な意味解析を取り入れたモデルの構築が期待されている.一方で,文の意味を論理式で表現し,論理推論によって高度な意味解析を行う手法~\cite{D16-1242,mineshima2016building,abzianidze:2015:EMNLP,abzianidze:2016:*SEM}は,論理式による意味表現と整合性の高い組合せ範疇文法(CombinatoryCategorialGrammar,CCG)~\cite{Steedman00}による頑健な統語解析の発展に伴い,近年研究が進められている.論理推論を用いた手法は,文ペアに対して一方の文を他方の文が内容的に含意しているかどうかを判定する含意関係認識のタスクで高精度を達成しており,様々な自然言語処理タスクへの応用が期待されている.一方で,論理推論を用いた手法は元来厳密な手法であり,部分的・段階的な含意関係や類似関係を扱うことが困難である.そこで本研究では,機械学習と論理推論とを組み合わせることで,柔軟かつ正確に文の関連性を学習する方法を検討する.具体的には,文の意味を論理式で表現し,2文間の双方向の含意関係について自然演繹による推論を試み,推論の過程と結果を抽出する.このとき,必要に応じて,文間の意味的関係を正しく判定するために必要な語彙知識を公理として追加して推論を試みる.語彙知識の利用によって文間の意味的関係が判定できれば,純粋な論理推論だけでは意味的関係を判定できない文ペアにおいても,部分的な推論過程から文の関連性を示す情報を抽出することが可能となる.抽出した推論の過程と結果に関する情報を用いて,文の関連性を学習する.