id
stringlengths 9
9
| text
stringlengths 304
9.57k
| title
stringclasses 1
value |
---|---|---|
V27N04-02
|
\label{sec:intro}並列構造とは等位接続詞が結びつける句(並列句)から成る構造である.並列句の範囲の解釈には曖昧性があり,しばしば人間にとっても同定することが難しい.例えば,``{\itToshiba'slineofportables,forexample,featurestheT-1000,whichisinthesameweightclass\underline{but}ismuchslower\underline{and}haslessmemory,\underline{and}theT-1600,whichalsousesa286microprocessor,\underline{but}whichweighsalmosttwiceasmuch\underline{and}isthreetimesthesize}.''という文を一目見て,各等位接続詞に対する並列句を全て見つけることは困難である.並列構造の存在は文を長くし,解釈を曖昧にするため,構文解析において誤りの要因となっている.等位接続詞に対する並列句を同定する方法として,先行研究は並列句の二つの性質を利用してきた.(1)類似性-並列句は類似した言語表現となる傾向がある.(2)可換性-並列句を入れ替えても文全体が文法的に適格である.\citeA{ficler-goldberg:2016:EMNLP}は並列句ペアの類似性と可換性の特徴に基づいた計算を行うニューラルネットワークと構文解析器を組み合わせる方法を提案した.\citeA{teranishi-EtAl:2017:IJCNLP}もこれらの二つの特徴を取り入れているが,構文解析の結果を用いずに最高精度の性能を達成している.どちらのアプローチも\citeA{shimbo-hara:2007:EMNLP-CoNLL}や\citeA{hara-EtAl:2009:ACL-IJCNLP}の類似性に基づく手法と比べて高い性能を得ているが,三つ以上の並列句を持つ並列構造や文中の複数の並列構造をうまく取り扱うことができない.特に文中に複数の並列構造が存在する場合には,並列構造の範囲が不整合に重なり合う状況が生じ得るという問題がある.対して,\citeA{hara-EtAl:2009:ACL-IJCNLP}は並列構造の範囲に不整合が生じることなく並列構造を導出できる生成規則を用いている.本論文では,並列構造解析における新しいフレームワークを提案する.このフレームワークでは等位接続詞と語系列上の二つの範囲(スパン)を取るスコア関数を用いる.スコア関数は二つのスパンが並列となる場合に高いスコアを返す働きを持つ.この関数を並列構造の導出規則に基づくCKYアルゴリズムと組み合わせることで,システムは入力文に対する並列構造の集合を範囲の競合なく出力する.このようなスコア関数を得るために,並列構造解析のタスクを等位接続詞の同定,並列句ペアの内側境界の同定,外側境界の同定の三つのサブタスクに分解し,それぞれに異なるニューラルネットワークを用いる.各ニューラルネットワークは並列構造の構成要素に対して局所的に学習を行うが,CKYアルゴリズムによる構文解析時に協調して働く.英語における評価実験の結果,我々のモデルは並列構造を範囲の競合なく導出できることを保証しつつ,\citeA{teranishi-EtAl:2017:IJCNLP}の手法の拡張や先行研究と比較して高い精度を達成していることが示された.本研究の貢献は以下のとおりである.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item並列句ペアに対するスコア関数の学習・適用によって並列構造を解析するというフレームワークを提案した.\item並列構造解析を三つのサブタスクに分解し,CKYアルゴリズムによる構文解析において協調して働くモデルを開発した.\item三つ以上の並列句を含む並列構造や文中の複数の並列構造を範囲の競合なく導出可能なシステムを確立し,既存手法を上回る解析精度を達成した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V26N02-05
|
Twitterに代表されるソーシャルメディアにおいては,辞書に掲載されていない意味で使用されている語がしばしば出現する.例として,Twitterから抜粋した以下の文における単語「鯖」の使われ方に着目する.\quad(1)\space今日、久々に{\bf鯖$_1$}の塩焼き食べたよとても美味しかった\quad(2)\spaceなんで、急に{\bf鯖$_2$}落ちしてるのかと思ったらスマップだったのか(^q^)\noindent文(1)と文(2)には,いずれも鯖という単語が出現しているが,その意味は異なり,文(1)における鯖$_1$は,青魚に分類される魚の鯖を示しているのに対し,文(2)における鯖$_2$は,コンピュータサーバのことを意味している.ここで,「鯖」という語がコンピュータサーバの意味で使用されているのは,「鯖」が「サーバ」と関連した意味を持っているからではなく,単に「鯖」と「サーバ」の読み方が似ているためである.このように,ソーシャルメディアにおいては,既存の意味から派生したと考えられる用法ではなく,鯖のような音から連想される用法,チートを意味する升のような既存の単語に対する当て字などの処理を経て使用されるようになった用法,企業名AppleInc.を意味する林檎など本来の単語を直訳することで使用されるようになった用法などが見られ,これらの用法は一般的な辞書に掲載されていないことが多い.文(2)における鯖$_2$のように,文中のある単語が辞書に掲載されていない意味で使用されていた場合,多くの人は文脈から辞書に載っている用法\footnote{本研究では,一般的な辞書に採録されている単語の用法を一般的,そうでないものを一般的ではないとする.}と異なる用法で使用されていることには気付くことができるが,その意味を特定するためには,なんらかの事前情報が必要であることが多い.特に,インターネットの掲示板では,援助交際や危険ドラッグなどの犯罪に関連する情報は隠語や俗語を用いて表現される傾向にある\cite{yamada}.しかし,全体として,どのような単語が一般的ではない意味で使われているかということを把握することは難しい.本研究では,このような性質を持つ単語の解析の手始めとして,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,ソーシャルメディア中の文に出現する単語の一般的ではない用例の検出に取り組む.ここで,単語の用法が一般的かそうでないかというような情報を多くの語に対し大量にアノテーションするコストは非常に大きいと考えられることから,本研究では教師なし学習の枠組みでこの問題に取り組む.検出の手がかりとして,まず,非一般的用法で使用されている単語は,その単語が一般的用法で使用されている場合と周辺文脈が異なるであろうことに着目する.具体的には,単語の用法を判断する上で基準とするテキスト集合における単語の用法と,着目している文中での用法の差異を計算し,これが大きい場合に非一般的用法と判断する.以下,本稿では単語の用法を判断する上で基準とするテキスト集合のことを学習コーパスと呼ぶ.非一般的用法を適切に検出するためには,学習コーパスとして,一般的用法で使用される場合が多いと考えられるテキスト集合を用いることが重要であると考えられることから,提案手法では,学習コーパスとして,新聞やインターネットを始めとする様々な分野から偏りなくサンプリングされたテキストの集合である均衡コーパスを使用する.また,提案手法における,学習コーパスと評価用データにおける単語の使われ方の差異の計算には,Skip-gramNegativeSampling\cite{Mikolov2013nips}によって学習された単語ベクトルを使用する.
| |
V27N01-01
|
機械学習に基づく言語処理システムは,一般に,訓練に用いたテキストドメインと,実際に運用ないし評価を行うテキストドメインが異なる場合に精度が低下する.この,訓練時と運用・評価時のテキストドメインの異なりによる精度低下を防ぐという課題を,ドメイン適応問題と呼ぶ.以下では,訓練に用いるデータのテキストドメインを適応元ドメイン,運用ないし評価を行うデータのテキストドメインを適応先ドメインと呼ぶ.ドメイン適応が必要になる理由は,端的にいえば,訓練データと評価データが同一分布からのサンプルであるという統計的機械学習の基本的な前提が破られていることにある.このため,最も基本的なドメイン適応手段は,適応先ドメインのアノテーション付きコーパスを訓練データに追加してモデルを訓練しなおすこと,すなわち,いわゆる追加訓練によって,訓練データと評価データの分布を近づけることである.このように,追加訓練という明らかな解決法が存在するドメイン適応問題を,ことさら問題として取り上げるのには主に2つの理由がある.ひとつは工学的あるいは経済的な理由である.我々が言語処理技術を適用したいテキストドメインが多様であるのに対して,既に存在するアノテーション付きデータのドメインは限られており,かつ,ターゲットとなるドメインごとに新たにアノテーションを行うことには大きなコストが必要となる.また,単純な追加訓練を超えるドメイン適応技法の中には,大量に存在する適応先ドメインの生テキストを活用することでアノテーションのコストを抑えることを狙うものもあるが,本稿で取り上げる適応先ドメインの一つである教科書テキストのように,そもそも,生テキストですら大量に存在する訳ではないドメインもある.このため,既存のアノテーション付きデータに比べ相対的に少量しか存在しない適応先ドメインデータをどのように活用するかは,重要な技術課題となる.ドメイン適応問題が重要である2つ目の理由は,単一言語のデータには,明らかにテキストドメインを超えた共通性が存在するという点にある.例えば,教科書テキストを解析したい場合でも,モデルを新聞テキストで訓練することには,当然ある程度の有効性がある.簡単にいえば,「どちらも日本語だから」そのようなことが可能になるわけであり,およそ全てのドメイン適応技術はこの前提に基づいているが,しかし我々は「日本語とは何か」ということの数理的・統計的な表現を知った上でこれを行っている訳では当然ない.逆に言えば,ドメイン適応課題とは,あるタスクの精度向上という目的を通じた間接的な形であれ,「日本語とは何か・日本語テキストに共通するものは何か」の理解に近づくための一つの試みであるといえる.以上の2つの理由のいずれからも,最も基本的なドメイン適応手段である追加訓練が,どのような例に対して有効で,どのような例に対してそうでないのかを知ることには大きな意義がある.それを知るための基本的な方法は,追加訓練によって改善された誤りとそうでないものを一つ一つ観察し分類してゆくことだが,これを通じて,追加訓練によって全体として何が起こっているのかを把握することは必ずしも容易でない.そこで本稿では,追加訓練の効果を俯瞰的に観察・分析するための一手法を提示し,日本語係り受け解析タスクにおける追加訓練を例として,その効果の分析を行った結果を報告する.本研究における分析手法は,追加訓練前後の係り受け誤り例の収集・係り受け誤りの埋め込み・埋め込みのクラスタリングの3つのステップに分けられる.係り受け誤りの埋め込みは,クラスタリングを行うための前処理のステップであり,ニューラルネットに基づく係り受け解析器の内部状態を用いて,係り受け誤りを密な実数ベクトルで表現する.解析器の内部状態を用いることで,データにもとづいて導出された,係り受け解析タスクにおいて重要な特徴を抽出した表現に基づくクラスタリングを行うことができ,いわば,「解析器の視点」からの追加訓練の効果の分析が行えると期待できる.次に,こうして得られた埋め込みをクラスタリングすることで追加訓練の効果を俯瞰的に観察・分析する.具体的には,クラスタリング結果に対していくつかの統計的・定量的分析を行い,高次元の空間の点として表現された誤りの分布と,追加訓練による誤りの解消・発生の様子を観察する.さらに,適応先ドメインごとに,追加訓練の効果が特徴的に表れているクラスタや,効果が見られないクラスタに着目してその内容を観察することで,追加訓練の効果に関わるドメインごとの特徴を分析する.この際,一つ一つの誤り例だけでなく,まずクラスタとしてまとめて観察することで,追加訓練によって改善しやすい誤りや,ドメインごとに発生しやすい誤りを見出すことが容易になると考えられる.さらに,追加訓練の効果やドメイン間の差について,クラスタに含まれる誤りの観察をもとに仮説を立て,コーパス上の統計量にもとづきそれを検証することで,ドメイン適応の有効性に関わるテキストドメインの特徴を把握し,よりよい追加訓練手法のための基礎的な知見を得ることが期待できる.本稿では,適応元ドメインとして新聞記事,適応先ドメインとして理科教科書および特許文書を用いて上記の分析を行った結果を報告する.追加訓練の効果が特に強く認められたクラスタの誤りを詳細に分析した結果,「{$X$}は+{$V_1$}スル+{$N$}は/が/を+{$V_2$}スル」「{$X$}は+{$V_1$}スルと+{$V_2$}スル」(「{$V_k$}スル」は用言,{$N$}は体言)など,どのドメインにも出現する文型に対して,正しい構造の分布がドメイン間で異なることが学習されたためであると分かった.追加訓練が効果を上げる理由としては,大きく分けて,(a)適応元ドメインでは稀な構文が新たに学習されること,および,(b)表層的には類似した文型に対する正しい構文構造(の分布)が,適応元ドメインと適応先ドメインで異なることが学習されることの2つが考えられる.本研究の分析の結果からは,後者が追加訓練の主要な効果であることが示唆される.なお,本研究における分析手法は追加訓練と誤りの収集が可能な解析器であればニューラル解析器に限らず適用することができる.例えば,{\cite{weko_192738_1}}では\eijiSVM\Eijiを用いた解析器である\eijiCaboCha\Eiji{\cite{cabocha}}に対する追加訓練の影響を,ニューラル解析器から得られる埋め込み表現とクラスタリングを用いて分析している.ただし,本稿では誤り収集と埋め込み表現の作成は同じ解析器で行った.以下,\ref{sec:related_works}節で関連研究についてまとめ,\ref{sec:teian}節で分析手法について詳述する.\ref{sec:zikken}節で実験結果を述べ,\ref{sec:owarini}節でまとめと今後の展望を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2
| |
V13N03-04
|
\label{sec:intro}スライドを用いたプレゼンテーションは,意見を人々に伝えるのに大変効果的であり,学会やビジネスといった様々な場面において利用されている.近年,PowerPointやKeynoteといったプレゼンテーションスライドの作成支援をするソフトが開発・整備されてきているが,一からスライドを作成することは依然として大変な作業である.そこで,科学技術論文や新聞記事からプレゼンテーションスライドを自動(または半自動)で生成する手法が研究されている.Utiyamaらは,GDAタグで意味情報・文章構造がタグ付けされた新聞記事を入力としてプレゼンテーションスライドを自動生成している\cite{Utiyama99}.また,安村らは,科学技術論文の\TeXソースを入力として,プレゼンテーション作成を支援するソフトウェアを開発している\cite{Yasumura03j}.しかし,いずれの研究においても,入力テキストに文章構造がタグ付けされている必要があり,入力テキストを用意することにコストがかかってしまう.\begin{figure}[t]\fbox{\begin{minipage}[t]{\hsize}大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通により,一日45万人,ラッシュ時最大1時間12万人の足が奪われた.JR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間については,震災直後から代替バスによる輸送が行われた.国道2号線が開通した1月23日から,同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施された.1月28日からは,国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保された.\end{minipage}}\caption{入力テキストの例}\label{fig:text_example}\end{figure}\begin{figure}[t]\begin{center}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}鉄道の復旧\end{center}\begin{itemize}\item大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通\begin{itemize}\item一日45万人,ラッシュ時最大1時間12万人の足が奪われた\end{itemize}\itemJR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間\begin{itemize}\item震災直後から\begin{itemize}\item代替バスによる輸送\end{itemize}\item国道2号線が開通した1月23日から\begin{itemize}\item同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施\end{itemize}\item1月28日から\begin{itemize}\item国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保\end{itemize}\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\end{center}\caption{自動生成されたスライドの例}\label{fig:slide_example}\end{figure}本稿では,生テキストからスライドを自動生成する手法を提案する.入力テキストの例を図\ref{fig:text_example},それから自動生成されたスライドの例を図\ref{fig:slide_example}\,に示す.本稿で生成するスライドは,入力テキストから抽出したテキストの箇条書きから構成される.箇条書きを使うことによって,テキストの構造を視覚的に訴えることができる.例えば,インデントが同じ要素を並べることで並列/対比関係を表わすことや,インデントを下げることによって詳細な内容を表わすことなどといったことが可能となる.従って,生成するスライドにおいて,箇条書きに適切なインデントを与えるには,入力テキストにおける,対比/並列関係や詳細化関係などといった文または節間の関係を解析する必要がある.本稿では,入力テキストの談話構造を解析し,入力テキストから抽出・整形されたテキストを箇条書きにし,そのインデントを入力テキストの談話構造に基づいて決定することによりスライドを生成する.生成されたスライドは入力テキストに比べて見やすいものにすることができる.特に,テキストに大きな並列や対比の構造があると,見やすいスライドを生成することができる.図\ref{fig:slide_example}\,の例では,「震災直後から」,「国道2号線が開通した1月23日から」,「1月28日から」の対比の関係が解析され,それらが同じインデントで表示されることにより見やすいスライドが生成されている.また,図\ref{fig:slide_example}\,の例の「震災直後から」と「代替バスによる輸送」のように,各文から主題を取り出し,主題部と非主題部を分けて出力することにより,スライドを見やすくしている.特に対比関係の場合,何が対比されているのかが明確になる.本稿で提案するスライド生成の手法の概要を以下に示す.\begin{enumerate}\item入力文をJUMAN/KNPで形態素解析,構文解析,格解析する.\item入力文を談話構造解析の基本単位である節に分割し,表層表現に基づいて談話構造解析を行なう.\item入力文から主題部・非主題部を抽出し,不要部分の削除,文末の整形を行なう.\item談話構造解析結果に基づき,抽出した主題部・非主題部を配置することによりスライドを生成する.\end{enumerate}また,我々の手法は,プレゼンテーションスライドの作成支援を行なうだけでなく,自動プレゼンテーションを生成することができる.すなわち,テキストを入力とし,自動生成したスライドを提示しながら,テキストを音声合成で読み上げることにより,自動でプレゼンテーションを行なう.我々はこのシステムのことを,「text-to-presentationシステム」と呼んでいる(図\ref{fig:presentation_system}).難解な語や長い複合語は音声合成の入力に適しているとはいえないので,Kajiらの言い換え手法\cite{Kaji02,Kaji04}で書き言葉を話し言葉に自動変換してから音声合成に入力することにより,音声合成の不自然さを低減する.\begin{figure*}[t]\begin{center}\includegraphics[scale=0.55]{ttps-j.eps}\caption{text-to-presentationシステム}\label{fig:presentation_system}\end{center}\end{figure*}本稿の構成は以下のようになっている.\ref{sec:ds_analysis}\,章で談話構造解析について述べ,\ref{sec:topic_extract}\,章で入力テキストからスライドに表示するテキストを抽出する方法について述べ,\ref{sec:output_slide}\,章でスライドの生成方法を述べる.そして,\ref{sec:evaluation}\,章で実装したtext-to-presentationシステムと,自動スライド生成の実験の結果を報告する.\ref{sec:related_work}\,章で関連研究について述べ,\ref{sec:conclusion}\,章でまとめとする.
| |
V29N04-02
|
語彙制約付き機械翻訳は,翻訳文に含まれてほしいフレーズが指定された際に,それらのフレーズを含む文を生成するという制約の下で機械翻訳を行うタスクである.近年のニューラル機械翻訳(NeuralMachineTranslation;NMT)の発展\cite{luong-etal-2015-effective,vaswani:2017:NIPS}によって機械翻訳による翻訳文の品質は著しく向上したが,語彙制約付き機械翻訳のような,モデルの出力する翻訳文を人手でコントロールする手法に対するNMTの適用に関してはまだ課題が残されている.図~\ref{fig:task_overview}に語彙制約付き機械翻訳の例を示す.従来の機械翻訳モデルでは指定した語句を用いた翻訳が出来なかったのに対して,語彙制約付き機械翻訳モデルでは与えられた制約語句を反映させた翻訳を実現する.この際の制約語句は人手で与えられることが多い.訳語を指定した翻訳ができることで,法務や特許等における翻訳において非常に重要とされる専門用語や適切な名詞などの翻訳での訳語の一貫性を実現することができる.また,後編集のような人間が修正の指示を与えながら翻訳を行う,インタラクティブな翻訳にも応用可能である.さらに,近年複数のワークショップにおいて語彙制約付き機械翻訳のシェアードタスク\cite{nakazawa-etal-2021-overview,alam-etal-2021-findings}が開催されており,非常に注目を浴びているタスクである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-4ia1f1.pdf}\end{center}\caption{語彙制約付き機械翻訳の例}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%語彙制約を満たすためにNMTモデルの出力をコントロールすることに取り組んだ研究はいくつか提案されており,\citeA{chen2020lexical_leca}に従うとそれらの手法は制約の取り扱い方によってハード制約とソフト制約の2種類に分けることができる.ハード制約による手法は,与えられたすべての制約語句がモデルの出力に含まれることを保証する.従来手法は,ビームサーチによる制約付きデコーディングで全ての制約語句を含む系列の候補を探索することで,このハード制約を満たすことを達成している\cite{hokamp-liu-2017-lexically,post-vilar-2018-fast}.これらの手法はすべての制約を満たすことを保証する一方で,従来のNMTと比べて大きい計算量を必要とする.また,入力される文によっては制約をすべて満たす出力系列の探索に失敗してしまい,従来のNMTよりも翻訳精度が低くなってしまう.一方で,ソフト制約による手法はすべての語彙制約が翻訳文に含まれることを保証しない.従来手法では,NMTモデルへ入力される原言語文を編集や拡張することで出力系列の探索などを用いずに制約語句を出力する方法が試みられている\cite{song-etal-2019-code,chen2020lexical_leca}.\citeA{song-etal-2019-code}はフレーズテーブルを用い,原言語文中の制約語句に対応する部分に対してその制約語句で置換したり挿入したりすることで,モデルの入力系列を編集する手法を提案している.また,\citeA{chen2020lexical_leca}は,原言語文の末尾に制約語句を結合してモデルの入力系列を拡張する手法を提案している.これらの手法は,出力候補を決定する際に探索アルゴリズムを用いないためハード制約の手法に比べて高速に動作する一方で,いくつかの制約語句が出力されない可能性がある.これらの従来手法に対し,我々は与えられた制約がすべて出力に含まれるという制約条件(ハード制約)の下で語彙制約付き機械翻訳の速度と精度を向上するために,翻訳モデルへの入力系列の拡張によって制約付きデコーディングの探索を改善する手法を提案する.本提案手法は,翻訳モデルにおいてソフト制約の下で語彙制約を実現する手法と探索アルゴリズムにおいてハード制約の下で語彙制約を実現する手法を組み合わせた初の試みである.日英および英日翻訳での実験により,提案手法がハード制約を満たした上で,従来手法と比べて少ない計算コストで高い翻訳精度を実現できることを確認した.なお,本手法は,WAT2021RestrictedTranslationTask\cite{nakazawa-etal-2021-overview}の日英/英日翻訳の両方において1位を獲得した.また,従来は人手で作成された語彙制約に対する語彙制約付き機械翻訳が主に研究されてきた.原言語文に対して事前に語彙制約を作成して語彙制約付き機械翻訳を行う場合には,制約語句を辞書などから自動的に抽出することで人手での作成に比べてコストが削減できると考えられる.しかし,自動抽出された制約語句にはノイズとなる語句が含まれることが考えられる.前述の語彙制約付き機械翻訳手法は与えられる制約語句が必ず翻訳文に含まれることを仮定しているため,自動抽出された語彙制約をそのまま用いると翻訳精度が低下することが想定される.そこで本論文では,自動抽出されたノイズを含む語彙制約に対しても語彙制約付き機械翻訳を適用するために,与えられた語彙制約の任意の組み合わせに対する翻訳候補にリランキング手法を用いることで最適な翻訳文を選択する手法を提案する.対訳辞書から自動抽出した語彙制約による日英翻訳での実験により,制約の与えられない一般的な機械翻訳手法に対して翻訳精度が改善できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V31N04-04
|
単語の意味は時代とともに変化することがある.単語の意味変化(以降意味変化と呼ぶ)については,従来は言語学者が手作業で検出と分析を行っていたが,通時コーパスの公開や単語の意味表現の研究の発展により,近年では意味変化の自動的な検出および分析が自然言語処理の分野で注目を集めている.代表的な例として,時間の経過とともに意味が変化した単語をテキストデータから自動的に検出する,意味変化検出というタスクがある\cite{hamilton-etal-2016-diachronic,schlechtweg-etal-2019-wind,giulianelli-etal-2020-analysing,kutuzov-etal-2021-grammatical}.意味変化検出に関する先行研究では,対象の通時コーパスの中で意味が変化した単語・変化していない単語の集合を評価セットとしていた.このとき,手法の性能は,評価セット内の単語を意味変化度合で並べ替えたときに,意味が変化した単語がどの程度上位に含まれるか,という基準で評価されてきた.しかし,意味変化の有無に関する情報だけでは,意味が変化した単語・変化していない単語を全て等しく扱うため,各単語の意味変化の程度を考慮した詳細な評価や分析を行うことはできない.また,先行研究では通時コーパスや評価セットが統一されておらず,さまざまなデータを使って学習と評価を行っていたため,性能を直接比較することは困難である\cite{Kulkarni-etal-2015-Statistically,hamilton-etal-2016-diachronic,yao-2018-dynamic}.この問題に対処するため,\citeA{schlechtweg-etal-2018-diachronic}は,単語の意味変化度合を計算するフレームワークであるDiachronicUsageRelatedness(DURel)を提案した.DURelでは,各対象単語に対して,通時コーパスから得られた用例ペアに人手で付与した意味類似度を用いて,時間経過に伴う意味変化度合を計算する.用例ペアとは,ルールに従ってコーパスから抽出された同一単語の2つの異なる用例を含むものである.このフレームワークに基づいて評価セットを作成することで,意味変化の度合を考慮した,より詳細な評価と分析を行うことが可能となる.DURelが公開されてから,ロシア語や中国語などのさまざまな言語について,DURelを採用した評価用単語セットが作成・公開されている\cite{rodina-kutuzov-2020-rusemshift,giulianelli-etal-2020-analysing,kutuzov-pivovarova-2021-three,chen-etal-2022-lexicon}.最近では,\citeA{schlechtweg-etal-2020-semeval}がDURelフレームワークを拡張し,英語やドイツ語をはじめとする4つの言語の評価用単語セットを作成した.そして,\citeA{schlechtweg-etal-2020-semeval}はデータセットを通時コーパスとあわせて提供して,意味変化検出の共有タスクであるSemEval-2020Task1を開催した.さまざまな言語で通時コーパスの公開・評価用単語セットの作成が進んでいるが,日本語では通時コーパスの作成が進んでいるものの,評価用単語セットは十分にない.\citeA{mabuchi-ogiso-2021-dataset-jp}は近代から現代にかけて意味が変化した単語のリストを作成したが,リスト内の単語の意味がどの程度変化したのか,という意味変化度合は付与されていない.そこで本研究では,DURelフレームワークを用いて,近代から現代における日本語の意味変化度合を算出して,評価用の単語セット\ac{JaSemChange}を構築した.明治時代から平成時代にかけて,日本語は社会的・言語的要因によって大きく変化した\cite{永澤済2010変化パターンからみる近現代漢語の品詞用法,田中佑2015近現代日本語における新たな助数詞の成立と定着}ため,今回は明治・大正時代,昭和時代,平成時代をカバーするコーパスを用いて,単語の意味変化を評価した.このとき,明治・大正時代と平成時代を比較するだけでなく,より短い時間間隔である昭和時代と平成時代でも比較を行い,単語に時期間の意味変化度合を付与した.これにより,異なる時間間隔をもつ時代間で意味変化の検出の性能評価や分析が可能になる.最終的に,我々の評価用単語セットには19単語が含まれており,それぞれの単語の意味変化度合は,最大4人のアノテータが2,280個の用例ペアに対して付与した計5,520個の意味類似度スコアから算出されている.本研究の貢献は以下の通りである.\begin{itemize}\item日本語の通時的な意味変化を研究するための評価用単語セットJaSemChangeを構築した\footnote{この評価用単語セットはGitHubで公開した(\url{https://github.com/tmu-nlp/JapaneseLSCDataset}).著作権の関係上,本研究で使用したコーパスの用例を公開することはできない.その代わり,コーパス検索アプリケーションである中納言\url{https://chunagon.ninjal.ac.jp/}を使ってダウンロードできる各用例のサンプルIDを公開した.}.DURelフレームワークを用いて,4人の専門家を集めてアノテーションを実施することにより,日本語の通時コーパスから抽出した用例を用いて対象単語の意味変化度合を定量化した.\item日本語の近現代語および現代語の非専門家にも同じアノテーションを依頼し,その結果を専門家の結果と比較した.専門家と非専門家の間に一致率の差は見られなかったが,用例ペアを詳しく調査することで,判断が困難な用例ペアに対しては非専門家よりも専門家の方が正確性が高く,専門知識が必要であることを確認できた.\item作成したJaSemChangeで,単語ベクトルを用いた2種類の意味変化の検出手法に対する評価実験を行った.その結果,どちらの手法も単語頻度に基づく手法を上回る性能を示し,手法間の性能差は他の言語の評価データと同じ傾向があることが分かった.また,異なる時間間隔によって,意味変化を検出する難しさが異なることもわかった.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V22N05-02
|
2000年以降の自然言語処理(NLP)の発展の一翼を担ったのはWorldWideWeb(以降,Webとする)である.Webを大規模テキストコーパスと見なし,そこから知識や統計量を抽出することで,形態素解析~\cite{Kaji:2009,sato2015mecabipadicneologd},構文解析~\cite{Kawahara:05},固有表現抽出~\cite{Kazama:07},述語項構造解析~\cite{Komachi:10,Sasano:10},機械翻訳~\cite{Munteanu:06}など,様々なタスクで精度の向上が報告されている.これらは,WebがNLPを高度化した事例と言える.同時に,誰もが発信できるメディアという特性を活かし,Webならではの新しい研究分野も形成された.評判情報抽出~\cite{Pang:2002}がその代表例である.さらに,近年では,TwitterやFacebookなどのソーシャルメディアが爆発的に普及したことで,自然言語処理技術をWebデータに応用し,人間や社会をWebを通して「知ろう」とする試みにも関心が集まっている.ソーシャルメディアのデータには,(1)大規模,(2)即時性,(3)個人の経験や主観に基づく情報など,これまでの言語データには見られなかった特徴がある.例えば,「熱が出たので病院で検査をしてもらったらインフルエンザA型だった」という投稿から,この投稿時点(即時性)で発言者は「インフルエンザに罹った」という個人の経験を抽出し,大規模な投稿の中からこのような情報を集約できれば,インフルエンザの流行状況を調べることができる.このように,NLPでWeb上の情報をセンシングするという研究は,地震検知~\cite{Sakaki:10},疾病サーベイランス~\cite{Culotta:2010}を初めとして,選挙結果予測,株価予測など応用領域が広がっている.大規模なウェブデータに対して自然言語処理技術を適用し,社会の動向を迅速かつ大規模に把握しようという取り組みは,対象とするデータの性質に強く依拠する.そのため,より一般的な他の自然言語処理課題に転用できる知見や要素技術を抽出することが難しい.そこで,ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}ではNLPのWeb応用タスク(WebNLP)を立ち上げ,次のゴールの達成に向けて研究・議論を行った.\begin{enumerate}\itemソーシャルメディア上のテキストの蓄積を自然言語処理の方法論で分析し,人々の行動,意見,感情,状況を把握しようとするとき,現状の自然言語処理技術が抱えている問題を認識すること\item応用事例(例えば疾患状況把握)の誤り事例の分析から,自然言語処理で解くべき一般的な(複数の応用事例にまたがって適用できる)課題を整理すること.ある応用事例の解析精度を向上させるには,その応用における個別の事例・言語現象に対応することが近道かもしれない.しかし,本研究では複数の応用事例に適用できる課題を見出し,その課題を新しいタスクとして切り出すことで,ソーシャルメディア応用の解析技術のモジュール化を目指す.\item(2)で見出した個別の課題に対して,最先端の自然言語処理技術を適用し,新しいタスクに取り組むことで,自然言語処理のソーシャルメディア応用に関する基盤技術を発展させること\end{enumerate}本論文では,NLPによるソーシャルリスニングを実用化した事例の1つである,ツイートからインフルエンザや風邪などの疾患・症状を認識するタスク(第\ref{sec:used-corpus}章)を題材に,現状の自然言語処理技術の問題点を検討する.第\ref{sec:analysis}章では,既存手法の誤りを分析・体系化し,この結果から事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せることを説明する.第\ref{sec:factuality}章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論する.第\ref{sec:subject}章では,疾患・症状を保有する主体を同定するサブタスクに対する取り組みを紹介する.さらに第\ref{sec:factandsub}章では,事実性解析と主体解析を組み合わせた結果を示す.その後,第\ref{sec:relatedworks}章で関連研究を紹介し,最後に,第\ref{sec:conclusion}章で本論文の結論を述べる.
| |
V12N04-03
|
本論文では,構造化された言語資料の検索・閲覧を指向した全文検索システムである『ひまわり』の設計,および,その実現方法を示す。ここで言う「構造化された言語資料」とは,コーパスや辞書のように,言語に関する調査,研究などに利用することを目的として,一定の構造で記述された資料一般を指す。近年,さまざまな言語資料を計算機で利用できるようになってきた。例えば,新聞,雑誌,文学作品などのテキストデータベース(例:『毎日新聞テキストデータベース』\shortcite{mainichi})やコーパス(例:『京都大学テキストコーパス』\shortcite{kyodai_corpus},『太陽コーパス』\shortcite{tanaka2001}),シソーラスなどの辞書的なデータ(例:『分類語彙表』\shortcite{bunrui})がある。また,音声情報や画像情報などのテキスト以外の情報をも含有するコーパス(例:『日本語話し言葉コーパス』\shortcite{maekawa2004}など)も現れている。言語資料には,書名や著者名などの書誌情報や,形態素情報,構文情報といった言語学的な情報が付与されており,言語に関する調査,研究における有力な基礎資料としての役割が期待されている。このような言語資料に対して検索を行うには,二つの「多様性」に対応する必要があると考える。一つは,構造化形式の多様性である。構造化された言語資料は,一般的に固有の形式を持つことが多い。したがって,検索システムは,検索の高速性を維持しつつ,多様な形式を解釈し,言語資料に付与されている書誌情報や,形態素情報や構文情報などの言語学的情報を抽出したり,検索条件として利用したりできる必要がある。もう一つの多様性は,利用目的の多様性である。ここで言う「利用目的の多様性」とは,検索対象の言語資料の種類や利用目的の違いにより,資料に適した検索条件や閲覧形式,さらには検索時に抽出する情報が異なってくることを指す。例えば,辞書を検索する場合は,見出し語や代表表記に対して検索を行い,単一の語の単位で情報を閲覧するのが一般的である。一方,新聞記事の場合は,記事本文やタイトルに含まれる文字列をキーとして,発行年などを制約条件としつつ検索し,前後文脈や記事全体を閲覧するのが一般的であろう。このように,言語資料を対象とした検索システムは,言語資料の性質と利用目的にあった検索式や閲覧形式を柔軟に定義できる必要がある。以上のような背景のもと,構造化された言語資料に対する全文検索システム『ひまわり』の設計と実現を行う。構造化形式の多様性に対しては,現在,広範に利用されているマークアップ言語であるXMLで記述された言語資料を検索対象と想定し,XML文書に対する全文検索機能を実現する。この際,検索対象とすることのできるXML文書の形式は,XML文書全体の構造で規定するのではなく,検索対象の文字列とそれに対して付与されている情報との文書構造上の関係により規定する。また,検索の高速化を図るため,SuffixArray方式など,いくつかの索引を利用する。次に,利用目的の多様性に関しては,検索式と閲覧方式を柔軟に設定できるよう設計する。まず,検索式を柔軟に設定するために,言語資料の検索にとって必要な要素を,検索対象の文字列とそれに対して付与されている情報との構造上の関係に基づいて選定する。一方,閲覧形式については,KWIC表示機能を備えた表形式での閲覧を基本とする。それに付け加えて,フォントサイズやフォント種,文字色などの表示スタイルの変更や音声,画像の閲覧に対応するために,外部の閲覧システムへデータを受け渡す方法を用いる。本論文の構成は,次のようになっている。まず,2節では,『ひまわり』を設計する上で前提となる条件を述べる。3節では,システムの全体的な構造と各部の説明を行う。4節では,言語資料の構造に対する検討を元にした検索方式について詳説する。5節では,『分類語彙表』と『日本語話し言葉コーパス』に本システムを適用し,言語資料と利用目的の多様性に対応できるか定性的に検証するとともに,検索速度の面から定量的な評価も行う。6節で関連研究と本研究とを比較することにより,本研究の位置づけと有用性を確認し,最後に,7節でまとめを行う。
| |
V29N02-08
|
\label{sec:intro}近年,社会的側面から雑談対話システムが注目を集めている\cite{wallace2009anatomy,banchs2012iris,higashinaka-EtAl:2014:Coling,alexa}.雑談対話システムの実装手法としてニューラルネットワークを用いた手法が広く研究されており,有望な結果がいくつか得られている\cite{vinyals2015neural,zhang2018persona,dinan2019second,adiwardana2020humanlike,roller2020recipes}.しかし,これらのシステムの性能はまだ満足できるものではなく,対話破綻が生じるようなシステムのエラーがしばしば見られる.システムのエラーを減らす方法のひとつは,どのような種類のエラーが生じやすいのかを分析し,そのエラーを削減する手立てを考えることである.このような目的において,エラーの類型化は有用である.これまで,タスク指向対話システムにおいてはいくつかのエラー類型が提案されており\cite{dybkjaer1996grice,bernsen1996principles,aberdeen2003,dzikovska2009dealing},システムの性能向上において効果を発揮してきた.雑談対話システムにおいても同様のアプローチがなされてきており,東中らは「理論に基づく類型」と「データに基づく類型」の二つの観点の異なる類型を提案している\cite{higashinaka2015towards,higashinaka2015fatal}\footnote{東中らはこれらをそれぞれトップダウン,ボトムアップと呼んでいるが,本稿ではより適切に内容を表していると考えられる表現である「理論に基づく類型」「データに基づく類型」を採用した.}.しかし,前者の「理論に基づく類型」は,Griceの会話の公準\cite{gri:log}や隣接ペアの概念\cite{schegloff1973opening}など,人どうしの対話を対象とした理論が元になっているため,人とシステムとの対話において生じるエラーと適合しない点が多いという問題点があった.また後者の「データに基づく類型」は,分析に用いたデータのみから引き出されたエラー類型であり,潜在的に生じ得るエラーや未知のシステムで生じる可能性があるエラーがカバーできていないという限界がある.これらの理由から,これらの類型はアノテーションの一致率が低いという問題や,エラーの概念化があまりうまくできていないという問題を抱えている\cite{higashinaka2019improving}.本稿では,雑談対話システムにおける新しい対話破綻の類型を提案する.これまでに提案された二つの類型に基づいて,それぞれの類型の利点と欠点を明らかにしたうえで,統合的な類型を作成した.そして,この統合的な類型の適切性をアノテーションの一致率を用いて評価したところ,Fleissの$\kappa$値が専門作業者間で0.567,クラウドワーカー間で0.488となり,既存の類型よりも高い値となった.\rev{また,アノテーションにおいて判断が困難とされた事例もほとんど見られなかった.}このことから,統合的な類型はエラーの概念化が適切になされており,雑談対話システムの分析に適するものになっているといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V09N01-04
|
\label{sec:intro}これまで,機械学習などの分野を中心として,複数のモデル・システムの出力を混合する手法がいくつか提案され,その効果が報告されている.それらの成果を背景として,近年,統計的手法に基づく自然言語処理においても,複数のモデル・システムの出力を混合する手法を様々な問題に適用することが試みられ,品詞付け~\cite{vanHalteren98a,Brill98a,Abney99a},名詞句等の句のまとめ上げ~\cite{Sang00a,TKudo00ajx},構文解析(前置詞句付加含む)~\cite{Henderson99a,Abney99a,KoInui00aj,Henderson00a}などへの適用事例が報告されている.一般に,複数のモデル・システムの出力を混合することの利点は,単一のモデル・システムでは,全ての現象に対して網羅的かつ高精度に対処できない場合でも,個々のモデル・システムがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデル・システムを実現できるという点にある.本論文では,日本語固有表現抽出の問題に対して,複数のモデルの出力を混合する手法を適用し,個々の固有表現抽出モデルがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデルを実現し,その効果を実験的に検証する.一般に,日本語固有表現抽出においては,前処理として形態素解析を行ない,形態素解析結果の形態素列に対して,人手で構築されたパターンマッチング規則や統計的学習によって得られた固有表現抽出規則を適用することにより,固有表現が抽出される~\cite{IREX99aj}.特に,統計的学習によって得られた固有表現抽出規則を用いる場合には,形態素解析結果の形態素列に対して,一つもしくは複数の形態素をまとめ上げる処理を行ない,同時にまとめ上げられた形態素列がどの種類の固有表現を構成しているかを同定するという手順が一般的である~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Sassano00a,Sassano00bjx,Yamada01ajx}.このとき,実際のまとめ上げの処理は,現在注目している位置にある形態素およびその周囲の形態素の語彙・品詞・文字種などの属性を考慮しながら,現在位置の形態素が固有表現の一部となりうるかどうかを判定することの組合わせによって行なわれる.一方,一般に,複数のモデル・システムの出力を混合する過程は,大きく以下の二つの部分に分けて考えることができる.\begin{enumerate}\item\label{enum:sub1}できるだけ振る舞いの異なる複数のモデル・システムを用意する.(通常,振る舞いの酷似した複数のモデル・システムを用意しても,複数のモデル・システムの出力を混合することによる精度向上は望めないことが予測される.)\item\label{enum:sub2}用意された複数のモデル・システムの出力を混合する方式を選択・設計し,必要であれば学習等を行ない,与えられた現象に対して,用意された複数のモデル・システムの出力を混合することを実現する.\end{enumerate}複数の日本語固有表現抽出モデルの出力を混合するにあたっても,これらの(\ref{enum:sub1})および(\ref{enum:sub2})の過程をどう実現するかを決める必要がある.本論文では,まず,(\ref{enum:sub1})については,統計的学習を用いる固有表現抽出モデルをとりあげ,まとめ上げの処理を行なう際に,現在位置の周囲の形態素を何個まで考慮するかを区別することにより,振る舞いの異なる複数のモデルを学習する.そして,複数のモデルの振る舞いの違いを調査し,なるべく振る舞いが異なり,かつ,適度な性能を保った複数のモデルの混合を行なう.特に,これまでの研究事例~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Yamada01ajx}でやられたように,現在位置の形態素がどれだけの長さの固有表現を構成するのかを全く考慮せずに,常に現在位置の形態素の前後二形態素(または一形態素)ずつまでを考慮して学習を行なうモデル(固定長モデル,\ref{subsubsec:3gram}~節参照)だけではなく,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なうモデル(可変長モデル~\cite{Sassano00a,Sassano00bjx},\ref{subsubsec:vgram}~節参照)も用いて複数モデルの出力の混合を行なう.次に,(\ref{enum:sub2})については,重み付多数決やモデルの切り替えなど,これまで自然言語処理の問題によく適用されてきた混合手法を原理的に包含し得る方法として,stacking法~\cite{Wolpert92a}と呼ばれる方法を用いる.stacking法とは,何らかの学習を用いた複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法である.本論文では,具体的には,複数のモデルによる固有表現抽出結果,およびそれぞれの固有表現がどのモデルにより抽出されたか,固有表現のタイプ,固有表現を構成する形態素の数と品詞などを素性として,各固有表現が正しいか誤っているかを判定する第二段の判定規則を学習し,この正誤判定規則を用いることにより複数モデルの出力の混合を行なう.以下では,まず,\ref{sec:JNE}~節で,本論文の実験で使用したIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX99aj}の日本語固有表現抽出タスクの固有表現データについて簡単に説明する.次に,\ref{sec:NEchunk}~節では,個々の固有表現抽出モデルのベースとなる統計的固有表現抽出モデルについて述べる.本論文では,統計的固有表現抽出モデルとして,最大エントロピー法を用いた日本語固有表現抽出モデル~\cite{Borthwick99aj,Uchimoto00aj}を採用する.最大エントロピー法は,自然言語処理の様々な問題に適用されその性能が実証されているが,日本語固有表現抽出においても高い性能を示しており,IREXワークショップの日本語固有表現抽出タスクにおいても,統計的手法に基づくシステムの中で最も高い成績を達成している~\cite{Uchimoto00aj}.\ref{sec:combi}~節では,複数のモデルの出力の正誤判別を行なう規則を学習することにより,複数モデル出力の混合を行なう手法を説明する.本論文では,正誤判別規則の学習モデルとしては,決定リスト学習を用い,その性能を実験的に評価する.以上の手法を用いて,\ref{sec:experi}~節で,複数の固有表現抽出結果の混合法の実験的評価を行ない,提案手法の有効性を示す.\cite{Uchimoto00aj}にも示されているように,固定長モデルに基づく単一の日本語固有表現抽出モデルの場合は,現在位置の形態素の前後二形態素ずつを考慮して学習を行なう場合が最も性能がよい.また,\ref{sec:experi}~節の結果からわかるように,この,常に前後二形態素ずつを考慮する固定長モデルの性能は,可変長モデルに基づく単一のモデルの性能をも上回っている(なお,\cite{Sassano00bjx}では,最大エントロピー法を学習モデルとして可変長モデルを用いた場合には,常に前後二形態素ずつを考慮する固定長モデルよりも高い性能が得られると報告しているが,この実験結果には誤りがあり,本論文で示す実験結果の方が正しい.).ところが,可変長モデルと,現在位置の形態素の前後二形態素ずつを考慮する固定長モデルとを比較すると,モデルが出力する固有表現の分布がある程度異なっており,実際,これらの二つのモデルの出力を用いて複数モデル出力の混合を行なうと,個々のモデルを上回る性能が達成された.\ref{sec:experi}~節では,これらの実験について詳細に述べ,本論文で提案する混合法が有効であることを示す.
| |
V15N03-04
|
近年,自然言語処理において評価情報処理が注目を集めている\cite{Inui06}.評価情報処理とは,物事に対する評価が記述されたテキストを検索,分類,要約,構造化するような処理の総称であり,国家政治に対する意見集約やマーケティングといった幅広い応用を持っている.具体的な研究事例としては,テキストから特定の商品やサービスに対する評価情報を抽出する処理や,文書や文を評価極性(好評と不評)に応じて分類する処理などが議論されている\cite{Kobayashi05,Pang02,Kudo04,Matsumoto05,Fujimura05,Osashima05,McDonald07}.評価情報処理を行うためには様々な言語資源が必要となる.例えば,評価情報を抽出するためには「良い」「素晴しい」「ひどい」といった評価表現を登録した辞書が不可欠である\cite{Kobayashi05}.また,文書や文を評価極性に応じて分類するためには,評価極性がタグ付けされたコーパスが教師あり学習のトレーニングデータとして使われる\cite{Pang02}.我々は,評価情報処理のために利用する言語資源の一つとして,評価文コーパスの構築に取り組んでいる.ここで言う評価文コーパスとは,何かの評価を述べている文(評価文)とその評価極性を示すタグが対になったデータのことである(表\ref{tab:corpus}).タグは好評と不評の2種類を想定している.大規模な評価文コーパスがあれば,それを評価文分類器のトレーニングデータとして利用することや,そのコーパスから評価表現を獲得することが可能になると考えられる.\begin{table}[b]\caption{評価文コーパスの例.$+$は好評極性,$-$は不評極性を表す.}\label{tab:corpus}\input{04table1.txt}\end{table}\begin{figure}[b]\input{04fig1.txt}\caption{不評文書に好評文が出現するレビュー文書}\label{fig:pang}\end{figure}評価文コーパスを構築するには,単純に考えると以下の2つの方法がある.人手でコーパスを作成する方法と,ウェブ上のレビューデータを活用する方法である.後者は,例えばアマゾン\footnote{http://amazon.com/}のようなサイトを利用するというものである.アマゾンに投稿されているレビューには,そのレビューの評価極性を表すメタデータが付与されている.そのため,メタデータを利用することによって,好評内容のレビューと不評内容のレビューを自動的に収集することができる.しかしながら,このような方法には問題がある.まず,人手でコーパスを作るという方法は,大規模なコーパスを作ることを考えるとコストが問題となる.また,レビューデータを利用する方法には,文単位の評価極性情報を取得しにくいという問題がある.後者の具体例として図\ref{fig:pang}に示すレビュー文書\cite{Pang02}を考える.これは文書全体としては不評内容を述べているが,その中には好評文がいくつも出現している例である.このような文書を扱う場合,文書単位の評価極性だけでなく,文単位の評価極性も把握しておくことが望ましい.しかし,一般的にレビューのメタデータは文書に対して与えられるので,文単位の評価極性の獲得は難しい.さらに,レビューデータを利用した場合には,内容が特定ドメインに偏ってしまうという問題もある.こうした問題を踏まえて,本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案する.基本的なアイデアは「定型文」「箇条書き」「表」といった記述形式を利用するというものである.本手法に必要なのは少数の規則だけであるため,人手をほとんどかけずに大量の評価文を収集することが可能となる.また,評価文書ではなく評価文を収集対象としているため,図\ref{fig:pang}のような問題は緩和される.さらに任意のHTML文書に適用できる方法であるため,様々なドメインの評価文を収集できることが期待される.実験では,提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた.
| |
V03N02-04
|
日本語の理解において省略された部分の指示対象を同定することは必須である.特に,日本語においては主語が頻繁に省略されるため,省略された主語の指示対象同定が重要である.省略された述語の必須格をゼロ代名詞と呼ぶ.主語は多くの場合,述語の必須格であるから,ここでは省略された主語をゼロ主語と呼ぶことにする.ここでは特に,日本語の複文におけるゼロ主語の指示対象同定の問題を扱う.日本語の談話における省略現象については久野の分析\cite{久野:日本文法研究,久野78}以来,言語学や自然言語処理の分野で様々な提案がなされている.この中でも実際の計算モデルという点では,centeringに関連するもの\cite{Kameyama88,WIC90}が重要である.しかし,これらは主として談話についての分析やモデルである.したがって,複文に固有のゼロ主語の指示対象同定という観点からすればきめの粗い点もある\cite{中川動機95,中川ので95}.したがって,本論文では主としてノデ,カラで接続される順接複文について,複文のゼロ主語に固有の問題について扱う.ノデ文については,既に\cite{中川動機95,中川ので95}において,構文的ないしは語用論的な観点から分析している.そこで,ここでは意味論的観点からの分析について述べる.複文は従属節と主節からなるので,主節主語と従属節主語がある.複文の理解に不可欠なゼロ主語の指示対象同定の問題は,2段階に分けて考えるべきである.第一の段階では,主節主語と従属節主語が同じ指示対象を持つかどうか,すなわち共参照関係にあるかどうかの分析である.第二の段階では,第一段階で得られた共参照関係を利用して,実際のゼロ主語の指示対象同定を行なう.このうち,第一の共参照関係の有無は,複文のゼロ主語の扱いにおいて固有の問題であり,本論文ではこの問題について考察していく.さて,主語という概念は一見極めて構文的なものであるが,久野の視点論\cite{久野78}で述べられているように実は語用論的に強い制限を受けるものである.例えば,授受補助動詞ヤル,クレルや,受身文における主語などは視点に関する制約を受けている.このような制約が複文とりわけノデ文においてどのように影響するかについては\cite{中川動機95}で詳しく述べている.ここでは,見方を変えて,意味論的な観点から分析するので,ゼロ主語の問題のうち視点に係わる部分を排除しなければならない.そこで,能動文においては直接主語を扱うが,受身文においては対応する能動文の主語を考察対象とする.また,授受補助動詞の影響については,ここでの意味論的分析と抵触する場合については例外として扱うことにする.なお,ここでの意味論的分析の結果は必ずしも構文的制約のように例外を許さない固いものではない.文脈などの影響により覆されうるものであり,その意味ではデフォールト規則である.ただし,その場合でも文の第一の読みの候補を与える点では実質的に役立つものであろう.さて,この論文での分析の対象とする文は,主として小説に現れる順接複文(一部,週刊誌から採取)である.具体的には以下の週刊誌,小説に記載されていた全ての順接複文を対象とした.\noindent週間朝日1994年6月17日号,6月24日号,7月1日号\noindent三島由紀夫,鹿鳴館,新潮文庫,1984\noindent星新一,ようこそ地球さん,新潮文庫,1992\noindent夏目漱石,三四郎,角川文庫,1951\noindent吉本ばなな,うたかた,福武文庫,1991\noindentカフカ/高橋義孝訳,変身,新潮文庫,1952\noindent宗田理,殺人コンテクスト,角川文庫,1985\noindent宮本輝,優駿(上),新潮文庫,1988\bigskipこのような対象を選んだ理由は,物理的な世界の記述を行なう文ばかりでなく,人間の心理などを記述した文をも分析の対象としたいからである.実際週刊誌よりは小説の方が人間の心理を表現した文が多い傾向がある.ただし,週刊誌においても人間心理を記述した文もあるし,逆に小説でも物理的世界の因果関係を記述した文も多い.次に,分析の方法論について述べる.分析の方法の一方の極は,全て論文著者の言語的直観に基づいて作例を主体にして考察する方法である.ただし,この場合非文性の判断や指示対象に関して客観的なデータであるかどうか疑問が残ってしまう可能性もないではない.もう一方の極は,大規模なコーパスに対して人間の言語的直観に頼らず統計的処理の方法で統計的性質を抽出するものである.後者の方法はいろいろな分野に関する十分な量のデータがあればある程度の結果を出すことは可能であろう.ただし,通常,文は対象領域や(小説,新聞,論文,技術文書などという)ジャンルによって性質を異にする.そこで,コーパスから得られた結果はそのコーパスの採取元になるジャンルに依存した結果になる.これらの問題点に加え,単なる統計的結果だけでは,その結果の応用範囲の可能性や,結果の拡張性などについては何も分からない.そこでここでは,両極の中間を採る.すなわち,まず第一に筆者らが収録した小規模なコーパスに対してその分布状況を調べることにより何らかの傾向を見い出す.次に,このようにして得られた傾向に対して言語学的な説明を試みる.これによって,見い出された傾向の妥当性,応用や拡張の可能性が推測できる.具体的には,従属節と主節の述語の性質を基礎に,主節主語と従属節主語の一致,不一致という共参照関係を調べる.このような述語の性質として,動詞に関しては,IPAL動詞辞書~\cite{IPALverb}にある意味的分類,ヴォイスによる分類,ムード(意志性)による分類を利用する.形容詞,形容動詞に関してはIPAL形容詞辞書~\cite{IPALadj}にある分類,とりわけIPAL形容詞辞書~\cite{IPALadj}にある意味分類のうち心理,感情,感覚を表すものに関しては快不快の素性を,属性の評価に関しては良否の素性を利用する.例えば,\enumsentence{淋しいので,電話をかける.}という文では,従属節に「感情-不快」という性質を与え,主節に「意志的な能動の動詞」という性質を与える.また,主節主語と従属節主語の一致,不一致については人手で判断する.このようにして与える従属節と主節の性質および主語の一致不一致の組合せが実例文においてどのように分布するかを調べ,そこに何か特徴的な分布が見い出されれば,その原因について考察するという方法を採る.
| |
V10N01-01
|
本研究の目的は,情報抽出のサブタスクである固有表現抽出(NamedEntityTask)の難易度の指標を定義することである.情報抽出とは,与えられた文章の集合から,「人事異動」や「会社合併」など,特定の出来事に関する情報を抜き出し,データベースなど予め定められた形式に変換して格納することであり,米国のワークショップMessageUnderstandingConference(MUC)でタスクの定義・評価が行われてきた.固有表現(NamedEntity)とは,情報抽出の要素となる表現のことである.固有表現抽出(NamedEntityTask)はMUC-6\cite{MUC6}において初めて定義され,組織名(Organization),人名(Person),地名(Location),日付表現(Date),時間表現(Time),金額表現(Money),割合表現(Percent)という7種類の表現が抽出すべき対象とされた.これらは,三つに分類されており,前の三つがentitynames(ENAMEX),日付表現・時間表現がtemporalexpressions(TIMEX),金額表現・割合表現がnumberexpressions(NUMEX)となっている.1999年に開かれたIREXワークショップ\cite{IREXproc}では,MUC-6で定義された7つに加えて製品名や法律名などを含む固有物名(Artifact)というクラスが抽出対象として加えられた.固有表現抽出システムの性能は,再現率(Recall)や適合率(Precision),そしてその両者の調和平均であるF-measureといった客観的な指標\footnotemark{}によって評価されてきた.\footnotetext{再現率は,正解データ中の固有表現の数(G)のうち,正しく認識された固有表現表現の数(C)がどれだけであったかを示す.適合率は,固有表現とみなされたものの数(S)のうち,正しく認識された固有表現の数(C)がどれだけであったかを示す.F-measureは,両者の調和平均である.それぞれの評価基準を式で示せば以下のようになる.\begin{quote}再現率(R)=C/G\\適合率(P)=C/S\\F-measure=2PR/(P+R)\end{quote}}しかし,単一システムの出力に対する評価だけでは,あるコーパスに対する固有表現抽出がどのように難しいのか,どのような情報がそのコーパスに対して固有表現抽出を行なう際に有効なのかを知ることは難しい.例えば,あるコーパスについて,あるシステムが固有表現抽出を行い,それらの結果をある指標で評価したとする.得られた評価結果が良いときに,そのシステムが良いシステムなのか,あるいはコーパスが易しいのかを判断することはできない.評価コンテストを行い,単一のシステムでなく複数のシステムが同一のコーパスについて固有表現抽出を行い,それらの結果を同一の指標で評価することで,システムを評価する基準を作成することはできる.しかしながら,異なるコーパスについて,複数の固有表現抽出システムの評価結果を蓄積していくことは大きなコストがかかる.また,継続して評価を行なっていったとしても,評価に参加するシステムは同一であるとは限らない.異なるコーパスについて,個別のシステムとは独立に固有表現抽出の難易度を測る指標があれば,コーパス間の評価,また固有表現抽出システム間の評価がより容易になると考えられる.本研究は,このような指標を定義することを目指すものである.\subsection{固有表現抽出の難易度における前提}異なる分野における情報抽出タスクの難易度を比較することは,複数の分野に適用可能な情報抽出システムを作成するためにも有用であり,実際複数のコーパスに対して情報抽出タスクの難易度を推定する研究が行われてきている.Baggaet.al~\cite{bagga:97}は,MUCで用いられたテストコーパスから意味ネットワークを作成し,それを用いてMUCに参加した情報抽出システムの性能を評価している.固有表現抽出タスクに関しては,Palmeret.al~\cite{palmer:anlp97}がMultilingualEntityTask~\cite{MUC7}で用いられた6カ国語のテストコーパスから,各言語における固有表現抽出技術の性能の下限を推定している.本研究では,固有表現抽出の難易度を,テストコーパス内に現れる固有表現,またはその周囲の表現に基づいて推定する指標を提案する.指標の定義は,「表現の多様性が抽出を難しくする」という考えに基づいている.文章中の固有表現を正しく認識するために必要な知識の量に着目すると,あるクラスに含まれる固有表現の種類が多ければ多いほど,また固有表現の前後の表現の多様性が大きいほど,固有表現を認識するために要求される知識の量は大きくなると考えられる.あらゆるコーパスを統一的に評価できるような,固有表現抽出の真の難易度は,現在存在しないので,今回提案した難易度の指標がどれほど真の難易度に近いのかを評価することはできない.本論文では,先に述べた,「複数のシステムが同一のコーパスについて固有表現抽出を行った結果の評価」を真の難易度の近似と見なし,これと提案した指標とを比較することによって,指標の評価を行うことにする.具体的には,1999年に開かれたIREXワークショップ\cite{IREXproc}で行われた固有表現抽出課題のテストコーパスについて提案した指標の値を求め,それらとIREXワークショップに参加した全システムの結果の平均値との相関を調べ,指標の結果の有効性を検証する.このような指標の評価方法を行うためには,できるだけ性質の異なる数多くのシステムによる結果を得る必要がある.IREXワークショップでは,15システムが参加しており,システムの種類も,明示的なパタンを用いたものやパタンを用いず機械学習を行ったもの,またパタンと機械学習をともに用いたものなどがあり,機械学習の手法も最大エントロピーやHMM,決定木,判別分析などいくつかバラエティがあるので,これらのシステムの結果を難易度を示す指標の評価に用いることには一定の妥当性があると考えている.\subsection{\label{section:IREX_NE}IREXワークショップの固有表現抽出課題}\begin{table}[t]\small\caption{\label{table:preliminary_comparison}IREX固有表現抽出のテストコーパス}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}&予備試験&総合課題&限定課題\\\hline記事数&36&72&20\\単語数&11173&21321&4892\\文字数&20712&39205&8990\\\hline\end{tabular}\end{center}\end{table}IREXワークショップの固有表現抽出課題では,予備試験を含め,3種類のテストコーパスが評価に用いられた.表\ref{table:preliminary_comparison}に各々の記事数,単語数,文字数を示す.単語の切り分けにはJUMAN3.3~\cite{JUMAN33}を用い,単語の切り分けが固有表現の開始位置・終了位置と異なる場合には,その位置でさらに単語を分割した.IREXワークショップに参加した固有表現抽出システムの性能評価はF-measureで示されている.表\ref{table:F-measures}に各課題におけるF-measureの値を示す.本試験の評価値は,IREXワークショップに参加した全15システムの平均値である.一方,予備試験においては,全システムの評価は利用できなかったため,一つのシステム\cite{nobata:irex1}の出力結果を評価した値を用いている.このシステムは,決定木を生成するプログラム\cite{quinlan:93}を用いた固有表現抽出システム\cite{sekine:wvlc98}をIREXワークショップに向けて拡張したものである.IREXでは,8つの固有表現クラスが定義された.表\ref{table:F-measures}から,最初の4つの固有表現クラス(組織名,人名,地名,固有物名)は残り4つの固有表現クラス(日付表現,時間表現,金額表現,割合表現)よりも難しかったことが分かる.以下では,両者を区別して議論したいときには,MUCでの用語に基づき前者の4クラスを「ENAMEXグループ」と呼び,後者の4クラスを「TIMEX-NUMEXグループ」と呼ぶことにする.\begin{table}[t]\small\caption{\label{table:F-measures}IREX固有表現抽出の性能評価}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&55.6&57.3&55.2\\\hline人名&71.3&67.8&68.8\\\hline地名&65.7&69.8&68.1\\\hline固有物名&18.8&25.5&57.9\\\hline日付表現&83.6&86.5&89.4\\\hline時間表現&69.4&83.0&89.8\\\hline金額表現&90.9&86.4&91.4\\\hline割合表現&100.0&86.4&---\\\hline\hline全表現&66.5&69.5&71.7\\\hline\end{tabular}\end{center}\end{table}\subsection{指標の概要}以下,本稿では,まず固有表現内の文字列に基いて,固有表現抽出の難易度を示す指標を提案する.ここで提案する指標は2種類ある.\begin{itemize}\itemFrequencyoftokens:各固有表現クラスの頻度と異なり数を用いた指標(\ref{section:FT}節)\itemTokenindex:固有表現内の個々の表現について,その表現のクラス内における頻度とコーパス全体における頻度を用いた指標(\ref{section:TI}節)\end{itemize}これらの指標の値を示し,それらと実際のシステムの評価結果との相関を調べた結果について述べる.次に,固有表現の周囲の文字列に基いた指標についても,固有表現内の文字列に基いた指標と同様に2種類の指標を定義し,それらの値とシステムの評価結果との相関の度合を示す(\ref{section:CW}節).
| |
V06N04-03
|
現代日本語で「うれしい」「悲しい」「淋しい」「羨ましい」などの感情形容詞を述語とする感情形容詞文には,現在形述語で文が終止した場合,平叙文の際,一人称感情主はよいが二人称,三人称感情主は不適切であるというような,人称の制約現象がある\footnote{本稿で言う「人称」とは,「人称を表す専用のことば」のことではない.ムードと関連する人称の制約にかかわるのは「話し手」か「聞き手」か「それ以外」かという情報である.よって,普通名詞であろうと,固有名詞であろうと,ダイクシス専用の名詞であろうと,言語化されていないものであろうと,それがその文の発話された状況において話し手を指していれば一人称,聞き手を指していれば二人称,それ以外であれば三人称という扱いをする.\\a.太郎は仕事をしなさい.\\b.アイちゃん,ご飯が食べたい.(幼児のアイちゃんの発言)\\a.の「太郎」は二人称,b.の「アイちゃん」は一人称ということである.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(1)]\{わたし/??あなた/??太郎\}はうれしい.\item[(2)]\{わたし/??あなた/??太郎\}は悲しい.\end{itemize}\end{quote}\vspace{0.3cm}このとき,話し手が発話時に文をどのようなものと捉えて述べているかを表す「文のムード」\footnote{文のムードとは,話し手が,文を述べる際,どのような「つもり」であるのかを示す概念である.文を聞き手に対してどのように伝えるか(例えば,命令,質問など)ということと共に,話し手が,発話内容に対してどのように判断しているか(例えば確信,推量,疑念など)も文のムードである.これを「モダリティ」と呼ぶこともあるが,本稿では,こういった文の述べ方に対する概念的区分を,「ムード」と呼び,ムードが具体的に言語化された要素を「モダリティ」と呼ぶ.例えば「明日は晴れるだろう.」という文では,発話内容に対して推量していることを聞き手に伝え述べるというムードを持つのが普通であり,「だろう」は推量を表すモダリティである.}によって,感情形容詞の感情の主体(感情主)が,話し手である一人称でしかありえない場合と,やや不自然さはあるものの文脈によっては,二人称,三人称の感情主をとることが可能な場合がある\cite{東1997,益岡1997}.(3)(4)のように,話し手の発話時の感情を直接的に表現している「感情表出のムード」を持つ「感情表出文」(\cite{益岡1991,益岡1997}で「情意表出型」とされる文の一部)では,感情主は一人称に限定される.「感情表出のムード」とは話し手が発話時の感情を「思わず口にした」ようなものであり,聞き手に対してその発話内容を伝えようというつもりはあってもなくてもよいものである\footnote{感情表出文は,「まあ」「きゃっ」「ふう」など,発話者が自分の内面の感情を聞き手に伝達する意図なく発露する際に用いられる感嘆語と共起することが多いことから,聞き手への伝達を要しないものであることが分かる.\\きゃっ,うれしい.\\ふう,つらい.\\一方,「さあ」「おい」「よお」など,聞き手に何らかの伝達を意図する感嘆語と共起した場合,感情形容詞述語文であっても,感情表出文にはならない.\\さあ,悲しい.\\おい,寂しい.\\ただし,「まあ」などの感嘆語は感情表出文にとって必須ではない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(3)]まあ,うれしい.\item[(4)]ええ憎い,憎らしい・・・・・人の与ひょうを〔木下順二『夕鶴』〕\end{itemize}\end{quote}\vspace{0.3cm}一方,客観的に捉えた発話内容を述べ,聞き手に伝え述べるという「述べ立てのムード」(\cite{仁田1991}第1,2章参照)を持つ「述べ立て文」(\cite{益岡1997}で「演述型」とされる文)における人称の制約は弱い.一般的には,(益岡~1997(:4))で述べられている「人物の内的世界はその人物の私的領域であり,私的領域における事態の真偽を断定的に述べる権利はその人物に専属する.」という語用論的原則により,(5)(6)のような感情を表す形容詞(益岡によれば「私的領域に属する事態を表現する代表的なもの」)を述語にする文において「あなた」「彼女」に関する事態の真偽を断定的に述べることは不適格である\footnote{ここでは,語用論的に不適切であると考えられる文を,\#でマークし,文法的に不適切であることをあらわす*とは区別して用いる.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(5)]夫が病気になったら\{わたし/\#あなた/\#彼女\}はつらい.\item[(6)]海外出張は\{わたし/\#あなた/\#彼女\}には楽しい.\end{itemize}\end{quote}\vspace{0.3cm}しかし,このような語用論的原則は,文脈や文体的条件\footnote{文体的な条件によって人称制約が変わるというのは,小説などにおいて一般的な日常会話と語用論的原則が異なってくることから生じるものである.\cite{金水1989}参照}などにより,その原則に反した発話でも許される場合があるのである.(7)は感情主を数量子化したもの,(8)は小説という文体的条件による.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(7)]海外出張は誰にでも楽しい.\item[(8)]それをこさえるところを見ているのがいつも安吉にはたのしい.(中野重治『むらぎも』)\end{itemize}\end{quote}\vspace{0.3cm}こういった人称制約のタイプを語用論的な人称の制約とする.\cite{東1997}では,前者のように人称が限定されるタイプの人称制約を「必然的人称指定」,後者のように語用論的に限定される人称制約を「語用論的人称制限」と呼び区別した.(益~岡~1997(:2))でも情意表出型と演述型の人称制限の違いを,後者のみが日本語特有の現象と捉え,区別する必要を述べている.しかし,従来の研究においては,その「感情表出(情意表出)のムード」がどのようなものであるかということは明確に規定されておらず,また,どのように感情主が一人称に決定されるのかという人称決定のシステムも描かれてきていない\footnote{(益岡1997(:2))でも「悲しいなあ.」のような「内面の状態を直接に表出する文の場合,感情主が一人称に限られるのは当然のこと」とされている.}.そこで,本稿では,以下の手順で「感情表出文」について明らかにしていく.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(I)]人称の制約が文のムードと関係して生じていることを確認する(2.1)\item[(II)]感情表出文は,そのムードが述語主体を常に一人称に決定するものであることを定義づける.(2.2)\item[(III)]感情表出文として機能し解釈されるためには一語文でなければならないことを主張する.(3)\item[(IV)]感情表出文のムードの性質から(III)を導き出す.(4)\end{itemize}\end{quote}\vspace{0.3cm}また,ここでは,人称制約を受ける部分を「ガ格(主格)」ではなく,「感情主」という意味役割を伴うもので扱う.感情形容詞述語は「感情主」と「感情の対象」(時にはそれは「感情を引き起こす原因」)を意味役割として必要とするが,人称の制約を受ける感情主は,ガ格とニ格とニトッテ格で表される可能性があるからである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(9)]\underline{\{私/\#彼\}は}仕事が楽しい.\end{itemize}\end{quote}\vspace{0.3cm}(9)の「は」によって隠されている格を表わそうとすれば,三つの可能性があるが,どれも意味役割は感情主であり等価である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(10)]a\underline{私が}仕事が楽しいコト\\b\underline{私に}仕事が楽しいコト\\c\underline{私にとって}仕事が楽しいコト\end{itemize}\end{quote}\vspace{0.3cm}また,(10)aにおけるガ格「私が」「仕事が」で,人称の制約がかかるのは,感情主「私が」だけであり,意味役割が感情の対象である「仕事が」には人称の制約がかかることはない.さらに,(9)の主題は,感情主であるため人称の制約があるが,(11)の主題「仕事は」には人称の制約はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(11)]仕事は\{私/\#あなた\}は楽しい.\end{itemize}\end{quote}\vspace{0.3cm}このようなことから,本稿では人称制約に関わる名詞句と述語との関係を意味役割で捉える.
| |
V30N01-02
|
\label{sec:intro}\textbf{UniversalDependencies(UD)}\cite{nivre-etal-2016-universal}は,言語横断的に品詞・形態論情報・依存構造をアノテーションする枠組およびコーパスである.UDプロジェクトの研究目標として,多言語の統語解析器開発,言語横断的な言語処理技術の開発,さらには類型論的な言語分析\cite{de_marneffe_universal_2021}などがあげられている.UDでは,データ構造やアノテーション作業を単純化するため,またくだけた文や特殊な構造に対して頑健な表現を実現するために,句構造(phrasestructure)ではなく,\figref{fig:jp_ud1}のような語の間の依存関係と依存関係ラベルで表現する依存構造を採用している.UDのガイドラインを基に,現代語のみならず,古語・消滅危機言語・クレオール・手話などを含めた100言語以上の依存構造アノテーションデータが構築され,公開されている\footnote{\url{https://universaldependencies.org/}}.2022年8月現在でも,言語横断性を高めるためにUDの基準について活発にGitHub\footnote{\url{https://github.com/UniversalDependencies/docs/issues}}上やワークショップで議論され,ラベルの統廃合が行われながらもアノテーションやガイドラインが更新し続けられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia1f1.pdf}\end{center}\hangcaption{日本語UDの例.「文節係り受け構造」で採用されている単位「文節」(枠で囲んである単位)とは異なり「自立語(内容語)」と「付属語(機能語)」を分解した単語単位をUDでは想定する.UPOSがUDの定義する品詞,XPOSは言語依存の品詞(日本語UDではUnidic品詞.図の例では品詞の詳細を略するときがある.)}\label{fig:jp_ud1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このUDの枠組では,依存構造関係を付与する基本単位として,音韻的な単位や文字・形態素ではない\textbf{構文的な語(syntacticword)}を語として用いることを規定している.英語やフランス語といった空白を用いて分かち書きをする言語においては(縮約形態などを除いて)空白を語の単位認定として用いることが多い.一方,語の境界を空白などで明示しない東アジアの言語においては,どのような単位を構文的な語に規定すべきかという問題があり,これらの言語では,一度語の基本単位を定義してから,UDを構築している.現代中国語\cite{xia2000-chinese-pen-tree,leung-etal-2016-developing}や韓国語のUD\cite{chun-etal-2018-building},トルコ語・古チュルク語\cite{kayadelen-etal-2020-gold,derin-harada-2021-universal}などでも,言語ごとにコーパスや形態素解析などによって語の単位認定を行い,UDの言語資源が構築されている.UDJapanese(日本語UD)Version2.6以降では,その基本単位として\textbf{国語研短単位}(ShortUnitWord,SUW:以下\textbf{短単位})を採用している\cite{_universal_asahara_2019}.短単位は『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{maekawa2014balanced}・『日本語日常会話コーパス』(CEJC)\cite{koiso-EtAl:2022:LREC}をはじめとした形態論情報つきコーパスでも単位として採用されている.短単位に基づく形態素解析用辞書として,約97万語からなるUniDic\cite{den2007unidic}も公開されている.また,170万語規模の単語埋め込みNWJC2vec\cite{Asahara2018NWJC2VecWE}でも短単位が使われており,短単位を基準として言語処理に必要な基本的な言語資源が多く整備されている.この短単位に基づく言語資源の豊富さから,実用上は短単位に基づく処理が好まれる傾向にあった.しかし,グレゴリー・プリングルによるブログ記事\footnote{\url{http://www.cjvlang.com/Spicks/udjapanese.html}}や\citeA{murawaki2019definition}では,単位として短単位を採用している既存のUDJapaneseコーパスは「形態素」単位であり,UDの原則にあげられる「基本単位を構文的な語とする」という点において不適切であることを指摘している.国語研においては,形態論情報に基づいて単位認定し,「可能性に基づく品詞体系」が付与されている短単位とは別に,文節に基づいて単位認定し,「用法に基づく品詞体系」が付与されている\textbf{国語研長単位}(LongUnitWord,LUW:以下\textbf{長単位})を規定している.しかし,長単位に基づくコーパスの構築は,短単位に基づくコーパスの構築より長時間の作業を要する\footnote{これは,短単位と比較すると,自動解析の精度が担保されておらず,長単位のアノテーション修正の作業ができる人材も少ないなどといった理由が挙げられる.}という問題がある.言語資源としては,BCCWJやCEJCには長単位に基づいた形態論情報が付与されているとはいえ,短単位と比べると利用可能な言語資源やツールが少ないため,長単位に基づく依存構造が解析器によって生成できるのかという問題もある.日本語における語の単位認定の検証のためには,実際に短単位のみではなく,長単位に基づく日本語UD言語資源を整備することが必要である.本研究では,長単位に基づく日本語UDの言語資源を整備したので報告する.UD全体と日本語における単位認定について説明しながら,既存の言語資源・解析器によって長単位に基づく日本語UDの構造が生成しやすいかを短単位UDと比較して検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V27N02-05
|
単語,とくに名詞間の意味関係は,含意関係認識\cite{dagan2010}や質問応答\cite{yang2017}などの高度な意味処理を伴う自然言語処理タスクにおいて重要である.語の意味関係知識は,WordNet\cite{fellbaum1998}などの人手で作成された語彙知識ベースに蓄えられており,様々なタスクに利用することができる.しかし,このような人手による語彙知識ベースの拡張には大きなコストがかかり,新語や未知語に対応できず,さらにカバーされているドメインも限られている.この問題を解決するために,大規模コーパスから語の意味関係知識を獲得する方法が研究されている.コーパスからの意味関係知識の獲得には,二語を文中で結びつける単語系列,あるいは依存構造パスなどの関係パタンの利用が有効であることが知られている\cite{hearst-1992-automatic}.たとえば,\textit{Adogisakindofanimals.}という文において,\textit{isakindof}という語の系列から,\textit{dog}が\textit{animal}の下位語であることが識別できる.このように,コーパス中で二語を結びつける単語系列や依存構造パスを特徴として教師あり学習を行う手法が,パタンベースの手法として提案されている\cite{snow2004,shwartz2016improving,shwartz2016path}.また,関係パタンは,知識獲得の手法として,推論規則をコーパスから獲得するためにも用いられている\cite{schoenmackers-etal-2010-learning,tsuchida-etal-2011-toward}.パタンベースの意味関係識別は,意味関係の分類対象となる単語ペアについてコーパス上での十分な共起を必要とする.しかし,たとえ大規模コーパスが扱えたとしても,意味関係を持つ単語ペアが必ずしも十分に共起するとは限らない.文中で共起しなかった単語ペアや共起回数が少なかった単語ペアについては,このアプローチでは分類に有用な関係パタンの特徴が得られず,意味関係を適切に予測することができない.このようなパタンベースの意味関係識別の問題に対処するために,本研究ではニューラルネットワークを用いて,単語ペア$(w_1,w_2)$と,それらを結びつける関係パタン$p$の共起から,単語ペアの埋め込みを教師なし学習する手法を提案する.大規模コーパスから学習したニューラルネットワークの汎化能力を利用することで,コーパス上で十分に共起が得られなかった単語ペアについても,関係パタンとの共起を予測できるような,意味関係識別に有用な特徴が埋め込まれた埋め込みを得ることができる.コーパスから推論規則とその適用を学習して,共起しなかった二つの概念に関する関係性を推論する手法\cite{schoenmackers-etal-2010-learning,tsuchida-etal-2011-toward}も提案されているが,本研究ではニューラルネットワークの教師なし学習を用いて単語ペアの意味関係表現を得ることで,教師あり意味関係識別において,共起が十分に得られなかった単語ペアに関する分類性能を向上させることを目的とする.実験により,この単語ペア埋め込みを,パタンベースの意味関係識別の最先端のモデル\cite{shwartz2016path}に適用することで,4つデータセットにおいて名詞ペアに対する識別性能が向上することがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V14N05-07
|
label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\underline{にあたって},荷物をチェックした.\label{ex:niatatte-F}\itemボールは,壁\underline{にあたって}跳ね返った.\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,本論文では,文\nobreak{}(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現検出は,日本語解析技術の中でも基盤的な技術であり,高カバレージかつ高精度な技術を確立することにより,後段の様々な解析や応用の効果が期待できる.一例として,以下の例文を題材に,機能表現検出の後段の応用として機械翻訳を想定した場合を考える.\begin{example}\item私は,彼の車\underline{について}走った.\label{ex:nitsuite-C}\item私は,自分の夢\underline{について}話した.\label{ex:nitsuite-F}\end{example}\strref{ex:nitsuite-C}では,下線部は内容的用法として働いており,\strref{ex:nitsuite-F}では,下線部は機能的用法として働いており,それぞれ英語に訳すと,\strref{ex:nitsuite-C-e},\strref{ex:nitsuite-F-e}となる.\begin{example}\itemIdrove\underline{\mbox{following}}hiscar.\label{ex:nitsuite-C-e}\itemItalked\underline{about}mydream.\label{ex:nitsuite-F-e}\end{example}下線部に注目すれば分かる通り,英語に訳した場合,内容的用法と機能的用法で対応する英単語が異なっている.このように内容的用法と機能的用法で対応する英単語が異なるので,機能表現検出のタスクは,機械翻訳の精度向上に効果があると考えられる.また,機能表現検出の後段の解析として格解析を想定する.格解析は,用言とそれがとる格要素の関係を記述した格フレームを利用して行われる.\begin{example}\item私は,彼の仕事\underline{について}話す.\label{ex:nitsuite-k}\end{example}「について」という機能表現を含む\strref{ex:nitsuite-k}において,格解析を行う場合,機能表現を考慮しなければ,「仕事」と「話す」の関係を検出することができず,「私は」と「話す」の関係がガ格であることしか,検出できない.それに対して,「について」という機能表現を考慮することができれば,「仕事」と「話す」の関係の機能的な関係を「について」という機能表現が表現していることが検出することができる.このことから,機能表現検出の結果は,格解析の精度向上に効果があると考えられる.さらに,以下の例文を題材にして,機能表現検出の後段の解析としてを係り受け解析を想定する.\begin{example}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-1}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-2}\end{example}\strref{ex:niouzite-1},\strref{ex:niouzite-2}における空白の区切りは,それぞれ,機能表現を考慮していない場合の文節区切り,機能表現を考慮した場合の文節区切りを表している.この例文において,「限度に」という文節の係り先を推定する時,「限度に」という文節が動詞を含む文節に係りやすいという特徴をもっているので,\strref{ex:niouzite-1}の場合,「応じて」という文節に係ってしまう.それに対して,\strref{ex:niouzite-2}では,「に応じて」を機能表現として扱っているので,「限度に」の係り先を正しく推定できる.このようなことから,機能表現のタスクは,格解析の精度向上に効果があると考えられる.本論文では,これら3つの応用研究の内,係り受け解析への機能表現検出の適用方法を考えた.日本語の機能表現として認定すべき表記の一覧については,いくつかの先行研究が存在する.\cite{Morita89aj}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{Matsuyoshi06ajm}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.\cite{日本語複合辞用例データベースの作成と分析}は,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,59種類である.本論文では,この59種類の表現を当面の検討対象とする.まず,既存の解析系について,この59種類の表現に対する取り扱い状況を調査したところ,59種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照.}.59種類の表現の内,形態素解析器JUMAN\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は24種類である.また,形態素解析器ChaSen\cite{chasen-2.3.3}と構文解析器CaboCha\cite{TKudo02aj}の組合わせを用いた場合には,識別される可能性がある表現は20種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器と検出器によって検出される機能表現を考慮した係り受け解析器が必要である.まず,検出器の実現方法を考えた場合,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは容易ではない.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出するアプローチ~\cite{Tsuchiya07aj}をとる.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha\cite{TKudo02bj}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた59表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.次に,機能表現を考慮した係り受け解析器の実現方法としては,既存の解析系であるKNPとCaboChaを利用する方法が考えられる.KNPを利用する場合は,新たに機能表現を考慮した係り受け規則を作成する必要がある.それに対して,CaboChaを利用する場合は,現在使用されている訓練用データ(京都テキストコーパス~\cite{Kurohashi97bj})を機能表現を考慮したものに自動的に変換すればよい.そこで,本論文では,CaboChaの学習を機能表現を考慮した訓練データで行うことによって,機能表現を考慮した係り受け解析器を実現する.訓練データの作成には,訓練の対象となる文の係り受け情報と文に存在する機能表現の情報を利用する.本論文の構成は以下の通りである.\ref{sec:fe}~節で,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べる.\ref{sec:chunker}~節で,機能表現検出をチャンク同定問題として定式化し,SVMを利用した機能表現のチャンキングについて説明し,機能表現検出器の検出性能の評価を行い,この検出器が,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.\ref{sec:係り受け解析}~節では,機能表現検出器によって検出される機能表現を考慮した係り受け解析器について説明を行い,機能表現を考慮した係り受け解析器と従来の係り受け解析器を使った機能表現を考慮した最適な係り受け解析について述べ,実際に機能表現を考慮した係り受け解析の評価を行う.\ref{sec:関連研究}~節では,関連研究について述べ,最後に\ref{sec:結論}~節で結論を述べる.
| |
V32N02-06
|
\label{sec:introduction}人工知能の実現に向けて古くから,知識と推論という要素が不可欠だと考えられてきた\linebreak\cite{Mccarthy1959ProgramsWC,weizenbaum1966eliza,winograd1971procedures,colmerauer1973prolog,shortliffe1976computer,elkan1993building}.知識とは例えば「質量を持つ物体は重力場を発生させる」「地球は質量を持つ」といった,この世界に関する事実を指す.一方で推論とは,複数の事実を組み合わせることで新たな知識を得る思考形態である.例えば上述の2つの事実から「地球は重力場を発生させる」という新たな知識を得る.最近の観察によると,巨大言語モデル(LargeLanguageModel,LLM)は,事前学習時に得た知識により類似の課題を解くことはできる一方で,推論を用いて新規の課題は解くことを苦手とする\cite{hodel2023response,dasgupta2023language,zhang2024careful}.例えば,「有名な算数の問題をそのままの形で出題すれば解けるが,数字や人名を変更すると解けなくなる」\cite{razeghi2022impact,mirzadeh2024gsmsymbolicunderstandinglimitationsmathematical},「(知識カットオフ以前の)過去年度のコーディング試験は解けるが,最新年度の試験は解けない」\cite{melanie2023blog}等である.このような「LLMが推論を苦手とする」という観察結果が,近年多く得られている(\Cref{sec:LLM_does_not_reason}).LLMの推論能力が低い理由として「事前学習コーパス中に高品質な推論サンプルが不足している」ということが疑われる\cite{betz-etal-2021-critical}.事前学習コーパスは主に人間が書いたテキストで構成されている.その中でも,例えばオンライン討論等が推論のサンプルとしての役割を果たす可能性がある.%%%%しかしながら,これら討論には,誤謬やバイアスが散見される\cite{hansson2004fallacies,Cheng:2017ud,guiacsu2018logical}.しかしながら,これら討論には,誤謬やバイアスが散見される(Hansson2004;Chengetal.2017;GuiasuandTindale2018).\nocite{hansson2004fallacies,Cheng:2017ud,guiacsu2018logical}これは,人間が通常,厳密な推論をするのではなく,反射的に物事を考える\cite{kahneman2011thinking,SunsteinHastie2015,Paglieri2017}からである.以上を考えると,LLMの推論能力を向上させる最も直截的な戦略は,「高品質な推論サンプルを用意して,LLMに学習させること」だと考えられる.そこで本研究では,推論の中でも最も基本的な「論理推論」の高品質サンプルを用いた追加学習,すなわち,\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})を提案する(\Cref{fig:ALT_overview}).論理推論サンプルは,与えられた事実群を推論規則に従って組み合わせることで,与えられた仮説を証明(あるいは反証)する過程を示すものである.このようなサンプルを用意するために,ルールベースによる自動生成のアプローチ\cite{clark2020transformers,betz-etal-2021-critical,tafjord-etal-2021-proofwriter}を採用する.ルールベース自動生成は,推論規則に厳密に従ったサンプルを大量に用意できる,というメリットがある.また,一定のランダム性を持たせることで,サンプルに多様性を持たせることも可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f01.eps}\end{center}\hangcaption{\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})は,論理推論サンプルでの学習を通して,LLMの推論能力の向上を目指す.サンプル生成器がまず多段階演繹推論のサンプルを生成し(左),それを英語で書かれたサンプルに変換する(右).LLMは,与えられた\textbf{\colorBlueFacts{事実}}から,与えられた\textbf{\colorVioletHypothesis{仮説}}を導出するために,\textbf{\colorRedLogicalSteps{論理ステップ}}を生成する.サンプル生成器は,\Cref{sec:design_principles}で確立される設計指針に従う.実際に生成されたサンプルを\Cref{appendix:fig:deduction_example,appendix:fig:deduction_example_JFLD}に示す.}\label{fig:ALT_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ルールベース自動生成では,『事前に定義された設計』に従ってサンプルが生成される.よって,このサンプル設計が必然的に,サンプルの品質を大きく決定づける.そこで我々はまず,\textbf{「論理推論サンプルの理想的な設計とは何か」}を議論することから始める(\Cref{sec:design_principles}).まず,論理推論は,「事実の内容」ではなく「事実間の論理的な関係性」のみに着目する思考形態であるため,既知の事実も未知の事実も等しく取り扱うことができる.このことは,既知の事実のみを取り扱う知識とは大きく異なる,論理推論の核心である.そこで,LLMに対してこの論理推論の核心を教えるため,論理推論サンプルも未知の事実での推論を例示すべきである(\Cref{sec:principle_unseen}).次に,LLMに対して,「事実が不十分な場合は,新たな事実を導くことは\underline{できない}」ということを例示するためのサンプルも含めるべきである(\Cref{sec:principle_negatives}).更に,「推論規則」や「論理式を示す同義の言語表現」などはそれぞれ様々なパターンがありうるため,これらを網羅的に含めるべきである(\Cref{sec:principle_deduction_rules,sec:principle_linguistic_diversity}).我々は,これらのポイントを,論理推論サンプルの\textbf{設計指針}としてまとめる.そして,この設計指針に従った論理推論サンプルを自動生成するための手法(プログラム)を開発し,論理推論サンプル10万件から構成される人工論理推論コーパス\textbf{\PLDItalic}(\PLDAbbr)を構築する(\Cref{sec:PLD}).次に,\ALTJPによってLLMの推論能力が向上することを実験により確認する(\Cref{sec:experiments,sec:results_and_discussions_method}).最先端のLLMすなわちLLaMA-3.1(8B/70B)\に対して,\PLDAbbr\での\ALTJPを施すことにより,\numBenchmarks\種類の多様なベンチマークにおいて性能向上を確認した(\Cref{fig:performance_comparison}).また,既存の人工論理推論コーパスに比べて,\PLDAbbrはより大きな性能向上をもたらした.これは,我々が提案する設計指針がLLMの推論を向上させる上で効果的であることを示している.加えて,\ALTJPでは「破滅的忘却を防止する手段を採ること」が極めて重要であることが分かった.これは,「人工論理推論コーパスに含まれる未知の事実を覚えることによって,既存の事実を忘れていってしまう」という事態を防げるからだと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f02.eps}\end{center}\hangcaption{\llamaThreeLargeBaseline\と,それに対して\PLDAbbr上での\ALTJPを施したモデル(+\ALT)の精度.「Benchmarksets」中の「論理推論」「数学」「\dots」はそれぞれが,そのドメインの様々なベンチマークから構成されており(\Cref{appendix:tb:benchmarks}),ここでは平均精度を示す.結果の詳細は\Cref{tb:performance_aggregated,tb:performance_details}に示す.}\label{fig:performance_comparison}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最後に,\ALTJPにより「どのようなタスクが」「なぜ」解けるようになるかを分析する(\Cref{sec:results_and_discussions_tasks}).論理推論タスクでは最大30ポイントという大幅な性能向上が得られた(\Cref{tb:which_task_logical_reasoning}).事例ごとの分析(\Cref{tb:case_study})により,これらの性能向上は,設計指針で意図した「論理の基礎」をLLMが獲得したことによると示唆される.また,驚くべきことに,人工論理推論コーパスのサンプルとは真逆の「結論から事実を予測する」仮説推論タスクでも性能が向上した.数学では最大7ポイントの性能向上が得られた(\Cref{tb:which_task_math}).論理推論は数学の問題を解くための前提知識なので自然である.コーディングでは最大10ポイントの性能向上が得られ,コーディング能力と論理推論能力の関係が示唆される(\Cref{tb:which_task_coding}).自然言語推論(NLI)タスクの性能向上(\Cref{tb:which_task_NLI})は,LLMが事前学習で元々獲得していた常識知識と,\ALTJPから新たに獲得した推論能力を,統合できた可能性を示唆する.その他の様々なタスクでも性能向上が見られた一方で,向上幅は最大2ポイント程度と小さかった(\Cref{tb:which_task_others}).これは,\ALTJPにより得られる推論能力をより効果的に「使いこなし」て多様な問題を解くために,今後の研究が必要であることを示唆する.本研究の貢献を以下にまとめる.\begin{itemize}\item人工論理推論コーパスを用いた\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})を提案し,最先端のLLMの推論能力を向上させられることを確認した.\item論理推論サンプルの確固たる設計指針を確立し,それに基づく人工論理推論コーパス\textbf{\PLDItalic}(\PLDAbbr)を構築した.\PLDAbbr\による性能向上が既存コーパスよりも大きいことを確認し,設計指針の正しさを示した.\item分析により,\ALTJPにより強化されたLLMが,論理推論はもとより,数学やコーディング,NLI等の様々なタスクで性能が向上することを示した.\end{itemize}なお,コーパス・コード・学習済みモデルを公開する\footnote{\url{https://github.com/hitachi-nlp/FLD}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V27N02-02
|
流暢な文の生成を可能にするニューラルネットワークによる系列変換モデル\cite{Sutskever:2014,BahdanauCB14}の発展は,文生成を利用する自然言語処理タスクに大きな恩恵をもたらした.文書要約タスクも例外ではなく,\citeA{D15-1044}以降,系列変換モデルを用いた生成型要約(abstractivesummarization)の研究が盛んに行われており,ヘッドライン生成,単一文書要約ではそれが顕著である.一方,文書の一部を抜き出すことで要約を生成する抽出型要約\footnote{本稿では,文抽出と文圧縮を統合した圧縮型要約(compressivesummarization)も抽出型要約とみなす.}(extractivesummarization)の研究は脈々と続いているものの生成型要約の研究と比較すると数は少なくなってきた.たとえば,2019年開催の第57回AssociationforComputationalLinguistics(ACL)では,抽出型要約手法に関する発表は約5件であったが生成型要約手法に関する発表は約15件であり,生成型要約手法に注目が集まっていることがよくわかる.このように自動要約研究の主流は抽出から生成へと移り変わりつつある.では,抽出型要約は終わってしまった研究,すなわち,継続する価値のない研究なのだろうか?この疑問に答えるためには,抽出型要約手法の上限,つまり抽出型要約でどれほど人間の要約に近づけるかを知る必要がある.抽出型要約手法の上限が十分高い水準にあるのならば,研究を続ける価値があるし,そうでないのならば続ける価値はない.自動要約手法のパラダイムが移りつつあるいまだからこそ,抽出型要約手法の上限を明らかにすることは自動要約研究の今後の発展に大きな意味を持つと考える.本稿では人間が生成した参照要約に対する自動評価スコアを最大化する抽出による要約,すなわち抽出型オラクル要約を上限の要約とみなす.そして,それを得るための整数計画問題による定式化を提案し,自動評価という観点から抽出型要約手法の到達点を調べる.次に,その妥当性をより詳細に検証するため,ピラミッド法\cite{nenkovau:2004:HLTNAACL,Nenkova:2007},DocumentUnderstandingConference(DUC)\footnote{\url{https://duc.nist.gov}}で用いられたQualityQuestions\cite{qqduc06}を用いて内容と言語品質の両側面から人手で評価し,それが人間にとってどの程度良い要約なのかを検証する.TextAnalysisConference(TAC)\footnote{\url{https://tac.nist.gov}}2009/2011のデータセットを用いて,自動評価指標であるROUGE-2\cite{rouge3},BasicElements(BE)\cite{hovy06}に対する文抽出,ElementaryDiscourseUnit(EDU)抽出,根付き部分木抽出の3種の抽出型オラクル要約を生成し,上記の観点でそれらを評価したところ,(1)自動評価スコアはいずれの抽出型オラクル要約も非常に高く,現状のシステム要約のスコアと比較すると差が大きいことがわかった.(2)ピラミッド法による評価結果から,要約の内容評価という点でも優れていることがわかった.(3)しかし,QualityQuestionsによる言語品質評価の結果は,現状の要約システムと大差ない,あるいは劣る結果となった.これらより,抽出型要約手法で重要情報に富んだ要約を生成できることが明らかとなった.つまり,抽出型要約は今後も続けていく価値のある研究であることが示された.その一方,言語品質には改善の余地があることも明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V11N04-04
|
\label{sec:intro}機械翻訳システムの辞書は質,量ともに拡充が進み,最近では200万見出し以上の辞書を持つシステムも実用化されている.ただし,このような大規模辞書にも登録されていない語が現実のテキストに出現することも皆無ではない.辞書がこのように大規模化していることから,辞書に登録されていない語は,コーパスにおいても出現頻度が低い語である可能性が高い.ところで,文同士が対応付けられた対訳コーパスから訳語対を抽出する研究はこれまでに数多く行なわれ\cite{Eijk93,Kupiec93,Dekai94,Smadja96,Ker97,Le99},抽出方法がほぼ確立されたかのように考えられている.しかし,コーパスにおける出現頻度が低い語とその訳語の対を抽出することを目的とした場合,語の出現頻度などの統計情報に基づく方法では抽出が困難であることが指摘されている\cite{Tsuji00}.以上のような状況を考えると,対訳コーパスからの訳語対抽出においては,機械翻訳システムの辞書に登録されていない,出現頻度の低い語を対象とした方法の開発が重要な課題の一つである.しかしながら,現状では,低出現頻度語を対象とした方法の先行研究としては文献\cite{Tsuji01b}などがあるが,検討すべき余地は残されている.すなわち,利用可能な言語情報のうちどのような情報に着目し,それらをどのように組み合わせて利用すれば低出現頻度語の抽出に有効に働くのかを明らかにする必要がある.本研究では,実用化されている英日機械翻訳システムの辞書に登録されていないと考えられ,かつ対訳コーパス\footnote{本研究で用いたコーパスは,文対応の付いた対訳コーパスであるが,機械処理により対応付けられたものであるため,対応付けの誤りが含まれている可能性がある.}において出現頻度が低い複合語とその訳語との対を抽出する方法を提案する.提案方法は,複合語あるいはその訳語候補の内部の情報と,複合語あるいはその訳語候補の外部の情報とを統合的に利用して訳語対候補にスコアを付け,全体スコアが最も高いものから順に必要なだけ訳語対候補を出力する.全体スコアは,複合語あるいはその訳語候補の内部情報と外部情報に基づく各スコアの加重和を計算することによって求めるが,各スコアに対する重みを回帰分析によって決定する\footnote{回帰分析を自然言語処理で利用した研究としては,重要文抽出への適用例\cite{Watanabe96}などがある}.本稿では,英日機械翻訳システムの辞書に登録されていないと考えられる複合語とその訳語候補のうち,機械翻訳文コーパス(後述)における出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを対象として行なった訳語対抽出実験の結果に基づいて,複合語あるいはその訳語候補の内部情報,外部情報に基づく各条件の有効性と,加重和計算式における重みを回帰分析によって決定する方法の有効性を検証する.
| |
V21N03-03
|
日本において,大学入試問題は,学力(知力および知識力)を問う問題として定着している.この大学入試問題を計算機に解かせようという試みが,国立情報学研究所のグランドチャレンジ「ロボットは東大に入れるか」というプロジェクトとして2011年に開始された\cite{Arai2012}.このプロジェクトの中間目標は,2016年までに大学入試センター試験で,東京大学の二次試験に進めるような高得点を取ることである.我々は,このプロジェクトに参画し,2013年度より,大学入試センター試験の『国語』現代文の問題を解くシステムの開発に取り組んでいる.次章で述べるように,『国語』の現代文の設問の過半は,{\bf傍線部問題}とよばれる設問である.船口\cite{Funaguchi}が暗に指摘しているように,『国語』の現代文の「攻略」の中心は,傍線部問題の「攻略」にある.我々の知る限り,大学入試の『国語』の傍線部問題を計算機に解かせる試みは,これまでに存在しない\footnote{CLEF2013では,QA4MREのサブタスクの一つとして,EntranceExamsが実施され,そこでは,センター試験の『英語』の問題が使用された.}.そのため,この種の問題が,計算機にとってどの程度むずかしいものであるかさえ,不明である.このような状況においては,色々な方法を試すまえに,まずは,比較的単純な方法で,どのぐらいの正解率が得られるのかを明らかにしておくことが重要である.本論文では,このような背景に基づいて実施した,表層的な手がかりに基づく解法の定式化・実装・評価について報告する.我々が実装したシステムの性能は,我々の当初の予想を大幅に上回り,「評論」の傍線部問題の約半分を正しく解くことができた.以下,本稿は,次のように構成されている.まず,2章で,大学入試センター試験の『国語』の構成と,それに含まれる傍線部問題について説明する.3章では,我々が採用した定式化について述べ,4章ではその実装について述べる.5章では,実施した実験の結果を示し,その結果について検討する.最後に,6章で結論を述べる.
| |
V32N02-05
|
高性能かつ頑健な言語処理モデルを構築するために,多様な質問応答(QA)タスクにおける訓練,評価,分析が重要である.QAタスクには,抽出型,生成型,多肢選択式など様々なタイプがあり,Multi-hop推論や実世界知識など多くの技術・知識が必要となる.QAタスクを解くモデルとして,様々なQAタスクを統合的に解くUnifiedQA\cite{khashabi-etal-2020-unifiedqa}や,他のタスクと統合的に解くFLAN\cite{wei2022finetuned}などが提案されているが,このような統合的な解析が可能なのは英語だけであり,他の言語では多様なQAデータセットが存在しないので不可能である.本研究では,基本的なQAデータセットであるJSQuAD\cite{kurihara-etal-2022-jglue}やJaQuAD\cite{so2022jaquad},JAQKET\cite{JAQKET}程度しか存在しない日本語に焦点を当てる.我々は,日本語に存在しないQAデータセットの中で重要なものとして,人間の情報欲求から自然に発生する質問からなるNaturalQuestions(NQ)データセット\cite{kwiatkowski-etal-2019-natural}に着目する.\color{black}本論文では,人間の情報欲求から自然に発生する質問を「自然な質問」と呼ぶ.\color{black}SQuAD\cite{rajpurkar-etal-2016-squad}のようなQAデータセットでは,質問をアノテータに作成してもらうため自然な質問ではなく,annotationartifacts\cite{gururangan-etal-2018-annotation}が存在するという問題がある.これに対して,NQでは,検索エンジンにユーザが入力したクエリが用いられており,自然な質問と考えられる.日本語版NQを構築するためにNQを日本語に翻訳するという方法が考えられるが,文法等の違いによる翻訳文の不自然さ,日本との文化の違いが大きな問題となるため,翻訳は用いない.我々は,日本語の検索エンジンのクエリログを利用して,JapaneseNaturalQuestions(JNQ)を構築する.また,より良いNQデータセットを得るために,オリジナルのNQのデータセット仕様を再定義する.なお,クエリログからデータセットを構築するために,NQでは訓練されたアノテータが雇用されていたが,JNQではコストを低減するためにクラウドソーシングで行う.本手法は,クエリログが手に入る言語であれば,どの言語にも適用できるものである.本研究では,JNQに加えて,NQの派生でyes/no質問からなるBoolQ\cite{clark-etal-2019-boolq}の日本語版JapaneseBoolQ(JBoolQ)も構築する.JBoolQの質問文,yes/noanswerは,JNQと同様の方法で収集する.\color{black}また,JNQと同様,より良いデータセットを得るために,オリジナルのBoolQのデータセット仕様を再定義する.\color{black}構築の結果,JNQは16,641質問文,79,276段落からなり,JBoolQは6,467質問文,31,677段落からなるQAデータセットとなった.JNQとJBoolQの例を図~\ref{fig:NQ-example}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{32-2ia4f01.eps}\end{center}\caption{JNQとJBoolQの例}\label{fig:NQ-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,JNQからlonganswer抽出,shortanswer抽出,open-domainNQの3タスク,JBoolQからyes/noanswer識別の1タスクの合計4タスクを定義し,それぞれのベースラインモデルを評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
| |
V04N01-08
|
\label{sec:序論}近年,機械可読な言語データの整備が進んだことや,計算機能力の向上により大規模な言語データの取り扱いが可能になったことから,自然言語処理に用いる様々な知識を言語データから自動的に獲得する研究が盛んに行われている\cite{utsuro95a}.大量の言語データから自動的に獲得した知識は,人手によって得られる知識と比べて,獲得した知識が人間の主観に影響されにくい,知識作成のためのコストが低い,知識の適用範囲が広い,知識に何らかの統計情報を容易に組み込むことができる,といった優れた特徴を持っている.言語データから自動獲得される自然言語処理用知識には様々なものがあるが,その中の1つとして文法がある.文法には様々なクラスがあるが,統語解析の際に最もよく用いられるのは文脈自由文法(ContextFreeGrammar,以下CFGと呼ぶ)であり,一般化LR法,チャート法などのCFGを用いた効率の良い解析手法がいくつも提案されている.ところが,人手によってCFGを作成する場合,作成の際に考慮されなかった言語現象については,それに対応する規則がCFGに含まれていないために解析することができない.これに対して,コーパスから自動的にCFGを抽出することができれば,コーパス内に現れる多様な言語現象を網羅できるだけでなく,人的負担も極めて軽くなる.また,CFGの拡張の1つとして,文法規則に確率を付与した確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFGと呼ぶ)がある\cite{wetherell80a}.PCFGは,生成する複数の解析結果の候補(解析木)に対して,生成確率による順序付けを行うことができるという点でCFGよりも優れている.そこで本論文では,CFGをコーパスから自動抽出し,その後各規則の確率をコーパスから学習することにより最終的にPCFGを獲得する手法を提案する.CFGまたはPCFGをコーパスから自動獲得する研究は過去にもいくつか行われている.文法獲得に利用されるコーパスとしては,例文に対して何の情報も付加されていない平文コーパス,各形態素に品詞が割り当てられたタグ付きコーパス,内部ノードにラベルのない構文木が与えられた括弧付きコーパス,内部ノードのラベルまで与えられた構文木付きコーパスなど,様々なものがある.以下ではまず,文法獲得に関する過去の研究が,どのような種類のコーパスからどのような手法を用いて行われているのかについて簡単に概観する.平文コーパスからの文法規則獲得に関する研究としては清野と辻井によるものがある~\cite{kiyono93a,kiyono94a,kiyono94b}.彼らの方法は,まずコーパスの文を初期のCFGを用いて統語解析し,解析に失敗した際に生成された部分木から,解析に失敗した文の統語解析を成功させるために必要な規則(彼らは仮説と呼んでいる)を見つけ出す.次に,その仮説がコーパスの文の解析を成功させるのにどの程度必要なのかを表わす尤度(Plausibility)を計算し,高い尤度を持つ仮説を新たな規則として文法に加える.彼らは全ての文法規則を獲得することを目的としているわけではなく,最初からある程度正しいCFGを用意し,それを新たな領域に適用する際にその領域に固有の言語現象を取り扱うために必要な規則を自動的に獲得することを目的としている.タグ付きコーパスからCFGを獲得する研究としては森と長尾によるものがある~\cite{mori95a}.彼らは,前後に現われる品詞に無関係に出現する品詞列を独立度の高い品詞列と定義し,コーパスに現われる品詞列の独立度をn-gram統計により評価する.次に,ある一定の閾値以上の独立度を持つ品詞列を規則の右辺として取り出す.また,取り出された品詞列の集合に対して,その前後に現われる品詞の分布傾向を利用してクラスタリングを行い,同一クラスタと判断された品詞列を右辺とする規則の左辺に同一の非終端記号を与える.そして,得られた規則のクラスタの中からコーパス中に最もよく現れるものを選び,それらをCFG規則として採用すると同時に,コーパス中に現われる規則の右辺の品詞列を左辺の非終端記号に置き換える.このような操作を繰り返すことにより,最終的なCFGを獲得すると同時に,コーパスの各例文に構文木を付加することができる.括弧付きコーパスからCFGを獲得する研究としては,まずInside-Outsideアルゴリズムを利用したものが挙げられる.LariとYoungは,与えられた終端記号と非終端記号の集合からそれらを組み合わせてできる全てのチョムスキー標準形のCFG規則を作り,それらの確率をInside-Outsideアルゴリズムによって学習し,確率の低い規則を削除することにより新たなPCFGを獲得する方法を提案した~\cite{lari90a}.この方法では収束性の悪さや計算量の多さが問題となっていたが,この問題を解決するために,PereiraらやSchabesらはInside-Outsideアルゴリズムを部分的に括弧付けされたコーパスに対して適用する方法を提案している~\cite{pereira92a,schabes93b}.しかしながら,局所解は得られるが最適解が得られる保証はない,得られる文法がチョムスキー標準形に限られるなどの問題点も残されている.一方,括弧付きコーパスから日本語のCFGを獲得する研究としては横田らのものがある\cite{yokota96a}.彼らは,Shift-Reduceパーザによる訓練コーパスの例文の統語解析が最も効率良くなるように,コーパスの内部ノードに人工的な非終端記号を割り当てることによりCFGを獲得する方法を提案している.これは組み合わせ最適化問題となり,SimulatedAnnealing法を用いることにより解決を求めている.1000〜7500例文からCFGを獲得し,それを用いた統語解析では15〜47\%の正解率が得られたと報告している.この方法では,CFG獲得の際に統計情報のみを利用し,言語的な知識は用いていない.しかしながら,利用できる言語学的な知識はむしろ積極的に利用した方が,文法を効率良く獲得できると考えられる.構文木付きコーパスから文法を獲得する研究としてはSekineとGrishmanによるものがある~\cite{sekine95a}.彼らは,PennTreeBank~\cite{marcus93a}の中からSまたはNPを根ノードとする部分木を自動的に抽出する.解析の際には,得られた部分木をSまたはNPを左辺とし部分木の葉の列を右辺としたCFG規則に変換し,通常のチャート法により統語解析してから,解析の際に使用した規則を元の部分木に復元する.得られた解析木にはPCFGと同様の生成確率が与えられるが,この際部分木を構成要素としているため若干の文脈依存性を取り扱うことができる.しかしながら,SまたはNPがある記号列に展開されるときの構造としては1種類の部分木しか記述できず,ここでの曖昧性を取り扱うことができないといった問題点がある.また,構文木付きコーパスにおいては,例文に付加された構文木の内部ノードにラベル(非終端記号)が割り当てられているため,通常のCFGならば構文木の枝分れをCFG規則とみなすことにより容易に獲得することができる.大量のコーパスからPCFGを獲得するには,それに要する計算量が少ないことが望ましい.ところが,統語構造情報が明示されていない平文コーパスやタグ付きコーパスを用いる研究においては,それらの推測に要する計算コストが大きいといった問題がある.近年では,日本においてもEDRコーパス~\cite{edr95a}といった大規模な括弧付きコーパスの整備が進んでおり,効率良くCFGを獲得するためにはそのような括弧付きコーパスの統語構造情報を利用することが考えられる.一方,括弧付きコーパスを用いる研究\cite{pereira92a,schabes93b,yokota96a}においては,平文コーパスやタグ付きコーパスと比べて統語構造の情報が利用できるとはいえ,反復アルゴリズムを用いているために文法獲得に要する計算量は多い.本論文では,括弧付きコーパスとしてEDRコーパスを利用し,日本語の言語的特徴を考慮した効率の良いPCFG抽出方法を提案する~\cite{shirai95b,shirai95a}.本論文の構成は以下の通りである.2節では,括弧付きコーパスからPCFGを抽出する具体的な手法について説明する.3節では,抽出した文法を改良する方法について説明する.文法の改良とは,具体的には文法サイズを縮小することと,文法が生成する解析木の数を抑制することを指す.4節では,実際に括弧付きコーパスからPCFGを抽出し,それを用いて統語解析を行う実験について述べる.最後に5節では,この論文のまとめと今後の課題について述べる.
| |
V16N04-04
|
\subsection{本研究の背景}\label{ssec:background}近年,大学では文章能力向上のため,「文章表現」の授業がしばしば行われている.実際に作文することは文章能力向上のために有効であることから,多くの場合,学生に作文課題が課される.しかし,作文を評価する際の教師の負担は大きく,特に,指導する学生数が多いと,個別の学生に対して詳細な指導を行うこと自体が困難になる\footnote{筆者の一人は,1クラス30名程度のクラスを週10コマ担当している.延べ人数にして約300名の学生に対して,毎週添削してフィードバックすることは極めて困難であるため,半期に数回課題を提出させ,添削するに留まっている.}.{\modkまた,講義だけで,個別の指導がない授業形態では,学生も教師の指導意図をつかみにくく,ただ漠然と作文することを繰り返すといった受け身の姿勢になりがちである.}本研究は,上記のような現状に対処するために,大学における作文教育実習で{\modk活用できる}学習者向け作文支援システムを提案するものである.\subsection{既存システムの問題点}\label{ssec:problems}これまでに多くの作文支援システムが提案されてきた.支援手法という観点から既存の手法を分類すると,次のようになる.\begin{enumerate}\def\theenumi{}\item作文中の誤りを指摘する手法\item作文する際の補助情報を提供する手法\item教師の指導を支援する手法\item作文を採点する手法\end{enumerate}(a)の手法は,ワードプロセッサなどのスペルチェッカや文法チェッカとして,広く利用されている.また,より高度な文章推敲や校閲を支援するための手法\cite{umemura2007,笠原健成:20010515}も考案されている.教育分野への適用では,第2言語学習者向けの日本語教育分野での研究が盛んである.例えば,第2言語学習者の誤りを考慮して,文法誤りなどを指摘する手法\cite{chodorow2000,imaeda2003,brockett2006}がある.さらに,(b)の手法としては,文章作成時の辞書引きを支援する手法\cite{takabayashi2004},翻訳時にコーパスから有用な用例を参照する手法\cite{sharoff2006}などがある.これらは,学習者用というよりも,ある程度すでに文章技術を習得している利用者向けの手法である.(c)のアプローチは,学習者を直接支援するのではなく,作文指導を行う教師を支援することにより,間接的に学習者の学習を支援する手法である.この種のアプローチの例としては,教師の添削支援システム\cite{usami2007,sunaoka2006}に関する研究がある.これらの研究では,日本語教育の作文教育において,作文とそれに付随する添削結果をデータベースに蓄積し,教師の誤用分析などを支援する.(d)の手法は,小論文などの文章試験を自動的に採点することを目的に開発されている手法である.代表的なシステムとしては,英語の小論文を自動採点する,ETSのe-rater\cite{burstein1998}がある.また,e-raterを組み込んだオンライン作文評価システムCriterion\footnote{http://criterion.ets.org/}も開発されており,grammar,usage,mechanics,style,organization\&developmentという観点から作文を評価し,誤りの指摘などもあわせて行われる.なお,日本語でも,e-raterの評価基準を踏襲して,石岡らが日本語小論文評価システムJess\cite{ishioka-kameda:2006:COLACL}を構築している.また,井上らがJessをWindows用に移植し,大学において日本語のアカデミックライティング講座への導入を検討している\cite{井上達紀:20050824}.以上の手法のうち,学習者を直接支援対象としうる手法は,(a)(d)である.大学における作文実習に,これらの手法を適用することを考えた場合,次の二つの問題があると考える.\subsubsectionX{問題点1:意味処理が必要となる支援が困難なこと}大学の文章表現では,レポート,論文,手紙,電子メール,履歴書などを題材として,表記・体裁,文法,文章構成(例:テーマに即した文章の書き方,論理的な文章の書き方),要約の方法,敬語の使い方など,広範囲な文章技術を習得対象としている\cite{shoji2007,okimori2007}.それに対して,現状の作文支援システムは,表記・文法に関しては,手法(a)(d)で誤りの指摘が行われているが,意味的な解析が必要となる支援については,部分的に実現されるにとどまっている.例えば,前述のCriterionでは,導入部(introductionmaterial)や結論部(conclusion)などの文章要素を自動的に認識し,それぞれの部分の一般的な記述方法を表示することができる.しかし,現在の自然言語処理技術では,学習者の支援に耐えうるほどの精度で意味解析を行うことは難しい.そのため,作文課題に必要な記述が含まれているか\footnote{例えば,得意料理の作り方を記述する課題では,材料や料理手順に関する記述は必須的な内容であろう.},記述内容の説明が不足していないか,意味的な誤りや矛盾はないか,といった深い意味解析を必要とする支援は困難である.\subsubsectionX{問題点2:教師の指導意図をシステムの動作に十分反映できないこと}{\modk前述のとおり,教師が用意する作文課題には,学術的なものから実社会で役立つものまで様々なものがある.各課題を課す際には,学習者の作文の質を向上させるために,それぞれの目的に応じた到達目標やそれに応じた学習支援を設定する.したがって,}教師が実習で作文システムを利用するには,課題の内容に応じて,教師がシステムの支援内容をコントロールできなければならない.例えば,電子メールの書き方を習得するための課題であれば,電子メールに書かれるべき構成要素(例:本文,結び,signatureなど)が{\modk存在するか,また,}適切な順序で書かれているかを検査し,誤りがあれば,指摘するという支援が考えられる.このような支援を行うためには,電子メールに書かれるべき構成要素とその出現順序を,教師が規則として作文支援システム中で定義できなければならない.現状の作文支援システムの中では,手法(d)の作文採点システムが,作文評価用のパラメータの設定手段を持っている(自動採点システムにおける作文評価手法は\cite{石岡恒憲:20040910}に詳しい).例えば,Windows版Jessの場合は,修辞,論理構成に関する各種パラメータの採点比率,および,内容評価用の学習用文章をユーザが指定できるようになっている.このように,既存の規則のパラメータを設定することは可能である.{\modkしかし,教師が新たな規則を定義できるまでには至っておらず,教師の指導意図をシステムの動作に反映することは難しいのが現状である.}\subsection{本研究の目的}そこで,本研究では,上記の二つの問題を解決するための手法を提案し,作文支援システムとして実現する.まず,問題点1に対しては,「相互教授モデル」を導入する.このモデルでは,学習者,教師,システムが互いの作文知識を教授しあうことにより,学習者の作文技術を向上させる.従来のシステムのように,作文支援システムだけが学習者に作文技術を教授するのではなく,学習者・システム間,学習者同士で作文技術を教授しあうことにより,システム単独では実現できない,深い意味処理が必要で,多様な文章技術に対する支援を可能にする.また,問題点2に対しては,「作文規則」を用いる.この規則は,学習者の作文の構造,および,内容を規定するための規則である.教師は,作文課題に基づいて作文規則を決定する.システムは,作文規則に基づいて,学習者の作文をチェックし,誤りがあれば,それを指摘する.本稿では,作文規則の形式,作文への適用方法について示す.本論文の構成は,次のようになっている.まず,\ref{sec:system_structure}章ではシステムの構成について述べる.\ref{sec:model}章では相互教授モデルの提案を行い,\ref{sec:composition_rule}章では作文規則の定義と作文への適用方法を示す.さらに,提案手法の有効性を検証するために,\ref{sec:experiment}章で提案手法・従来手法による作文実験を行い,\ref{sec:evaluation}章で実験結果を評価・考察する.そして,最後に\ref{sec:conclusion}章でまとめを述べる.}{\mod
| |
V24N03-02
|
label{first}元来から日本は,外来語を受け入れやすい環境にあるといわれており,数多くの外国の言葉を片仮名として表記し,そのまま使用している.近年になり,今まで以上にグローバル化が進展すると共に,外来語が益々増加する中,外来語の発音を片仮名表記にしないケースが見受けられる.特に,英語の場合,外国語の表記をそのまま利用することも増えてきている.また,英単語などの頭文字をつなげて表記する,いわゆる略語もよく利用されるようになっている.例えば,「IC」といった英字略語がそれにあたる.しかし,英字略語は英単語の頭文字から構成される表現であるため,まったく別のことを表現しているにも関わらず,同じ表記になることが多い.先の英字略語「IC」には,「集積回路」という意味や高速道路などの「インターチェンジ」という意味がある.さらには,ある業界では,これらとはまた別の意味で使用されることもある.このように,英字略語は便利な反面,いわゆる一般的な単語よりも非常に多くの意味を有する多義性の問題を持つ.そのため,英字略語が利用されている情報は,すべての人が容易に,また,正確に把握できるとは言い難い.そこで,例えば,新聞記事などでは,記事の中で最初に英字略語が使用される箇所において,括弧書きでその意味を日本語で併記する処理をとっていることが多い.しかし,よく知られている英字略語にはそのような処置がとられていないなど,完全に対処されているわけではない.また,記事中の最初の箇所にのみ上記のような処置がとられており,それ以降はその意味が併記されていないことが多い.そのため,記事の途中から文書を読んだり,関連する記事が複数のページに渡って掲載されている時に先頭のページではない部分から記事を読んだりした場合には,最初にその英字略語が出現した箇所を探さなくてはならず,解読にはひと手間が必要となり,理解の妨げとなる.さらに,一般的な文章の場合では,このように英字略語の意味を併記するという処置をとる方が珍しいと言える.
| |
V17N01-08
|
label{introduction}テキストの評価は,自動要約や機械翻訳などのようなテキストを生成するタスクにおいて手法の評価として用いられるだけでなく,例えば人によって書かれた小論文の自動評価\cite{miltsakaki2004}といったように,それ自体を目的とすることもある.言語処理の分野においては前者のような手法評価の観点からテキスト評価に着目することが多く,例えば自動要約の評価で広く用いられているROUGE\cite{lin2003,lin2004}や機械翻訳で用いられているBLEU\cite{papineni2002}のような評価尺度が存在している.これらの評価手法は特に内容についての評価に重点が置かれている.つまり,評価対象のテキストが含んでいなければならない情報をどの程度含んでいるかということに焦点が当てられている.しかし,実際にはテキストは単に必要な情報を含んでいれば良いというわけではない.テキストには読み手が存在し,その読み手がテキストに書かれた内容を正しく理解できなければ,そのテキストは意味をなさない.読み手の理解を阻害する原因には,難解な語彙の使用,不適切な論理展開や文章の構成などが挙げられる.これらはテキストの内容に関する問題ではなく,テキストそのものに関する問題である.従って,テキストの内容が正しく読み手に伝わるかどうかを考慮するならば,その評価においては内容に関する評価だけでなく,テキストそのものについての評価も重要となる.テキストそのものについての性質のうち,テキスト一貫性\cite{danwa}とは文章の意味的なまとまりの良さであり,例えば因果関係や文章構造などによって示される文同士の繋がりである.意味的なまとまりが悪ければ,テキストの内容を読み手が正確に理解することが困難になると考えられる.このことから一貫性の評価はテキストの内容が正しく伝わることを保証するために必要であると言える.また,テキスト一貫性が評価できるようになると,テキストを生成するシステムにおいて,例えば,一貫性が良くなるように文章を構成したり,一貫性の観点からの複数の出力候補のランク付けが可能となり,出力するテキストの質を高めることができる.テキスト一貫性は局所的な一貫性と大域的な一貫性という2種類のレベルに分類できる.局所的な一貫性とは相前後する2文間における一貫性であり,大域的な一貫性とは文章における話題の遷移の一貫性のことである.一貫性の評価に関しては,この局所的な一貫性と大域的な一貫性の両方についてそれぞれ考えることができるが,局所的な一貫性は大域的な一貫性にとって重要な要素であり,局所的な一貫性の評価の精度の向上が大域的な一貫性の評価に影響すると考えられる.以上のことから,本論文では,テキスト一貫性,特に局所的な一貫性に焦点を当て,この観点からのテキストの評価について述べる.テキストの性質について,テキスト一貫性と並べて論じられるものにテキスト結束性\cite{halliday1976}がある.これは意味的なつながりである一貫性とは異なり,文法的なつながりである.一貫性が文脈に依存しているのに対し,結束性は脱文脈的で規則的な性質である\cite{iori2007}.テキスト結束性に寄与する要素は大きく参照\footnote{代名詞の使用や省略は参照に含まれる.},接続,語彙的結束性\footnote{同じ語の繰り返しは語彙的結束性に含まれる.}に分けられる.これらはテキストの表層において現れる要素である.一貫性は先に述べたように意味のまとまりの良さであり,これに寄与する要素は明示的な形では現れない.一貫性と結束性はどちらもテキストのまとまりに関する性質であり,それぞれが独立ではなく互いに関係している.従って,テキストの表層に現れる,結束性に関係する要素である接続表現や語彙的結束性を一貫性モデルにおいても考慮することで性能の向上が期待できる.2章で述べるように,局所的な一貫性に関する研究はテキスト中の隣接する文間の関係を単語の遷移という観点から捉えているものが多い.その中でもBarzilayら\cite{barzilay2005,barzilay2008}の研究は,この領域における他の研究において多く採用されているentitygridという表現を提案しており,先駆的な研究として注目に値する.しかし,3章で詳述するように,このモデルでは要素の遷移の傾向のみ考慮しており,テキストのまとまりに関係している明示的な特徴はほとんど利用されていない.そこで本論文では4章で詳述するように,一貫性モデルに結束性に関わる要素を組み込むことによって,結束性を考慮に入れた局所的な一貫性モデルを提案する.
| |
V19N05-04
|
感染症の流行は,毎年,百万人を越える患者を出しており,重要な国家的課題となっている\cite{国立感染症研究所2006}.特に,インフルエンザは事前に適切なワクチンを準備することにより,重篤な状態を避けることが可能なため,感染状態の把握は各国における重要なミッションとなっている\cite{Ferguson2005}.この把握は\textbf{インフルエンザ・サーベイランス}と呼ばれ,膨大なコストをかけて調査・集計が行われてきた.本邦においてもインフルエンザが流行したことによって総死亡がどの程度増加したかを示す推定値({\bf超過死亡概念による死者数})は毎年1万人を超えており\cite{大日2003},国立感染症研究所を中心にインフルエンザ・サーベイランスが実施され,その結果はウェブでも閲覧することができる\footnote{https://hasseidoko.mhlw.go.jp/Hasseidoko/Levelmap/flu/index.html}.しかし,これらの従来型の集計方式は,集計に時間がかかり,また,過疎部における収集が困難だという問題が指摘されてきた\footnote{http://sankei.jp.msn.com/life/news/110112/bdy11011222430044-n1.htm}.このような背景のもと,近年,ウェブを用いた感染症サーベイランスに注目が集まっている.これらは現行の調査法と比べて,次のような利点がある.\begin{enumerate}\item{\bf大規模}:例えば,日本語単語「インフルエンザ」を含んだTwitter上での発言は平均1,000発言/日を超えている(2008年11月).このデータのボリュームは,これまでの調査手法,例えば,本邦における医療機関の定点観測の集計を圧倒する大規模な情報収集を可能とする.\item{\bf即時性}:ユーザの情報を直接収集するため,これまでにない早い速度での情報収集が可能である.早期発見が重視される感染症の流行予測においては即時性が極めて重要な性質である.\end{enumerate}以上のように,ウェブを用いた手法は,感染症サーベイランスと相性が高い.ウェブを用いた手法は,ウェブのどのようなサービスを材料にするかで,様々なバリエーションがあるが,本研究では近年急速に広まりつつあるソーシャルメディアのひとつであるTwitterに注目する.しかしながら,実際にTwitterからインフルエンザに関する情報を収集するのは容易ではない.例えば,単語「インフルエンザ」を含む発言を収集すると,以下のような発言を抽出してしまう:\begin{enumerate}\itemカンボジアで鳥インフルエンザのヒト感染例、6歳女児が死亡(インフルエンザに関するニュース)\itemインフルエンザ怖いので予防注射してきました(インフルエンザ予防に関する発言)\itemやっと...インフルエンザが治った!(インフルエンザ完治後の発言)\end{enumerate}上記の例のように,単純な単語の集計では,実際に発言者がインフルエンザにかかっている本人(本稿では,{\bf当事者}と呼ぶ)かどうかが区別されない.本研究では,これを文書分類の一種とみなして,SupportVectorMachine(SVM)\cite{Vapnik1999}を用いた分類器を用いて解決する.さらに,この当事者を区別できたとしても,はたして一般の人々のつぶやきが正確にインフルエンザの流行を反映しているのかという情報の正確性の問題が残る.例えば,インフルエンザにかかった人間が,常にその病態をソーシャルメディアでつぶやくとは限らない.また,つぶやくとしても時間のずれがあるかもしれない.このように,不正確なセンサーとしてソーシャルメディアは機能していると考えられる.この不正確性は医師の診断をベースに集計する従来型のサーベイランスとの大きな違いである.実際に実験結果では,人々は流行前に過敏に反応し,流行後は反応が鈍る傾向があることが確認された.すなわち,ウェブ情報をリソースとした場合,現実の流行よりも前倒しに流行を検出してしまう恐れがある.本研究では,この時間のずれを吸収するために,感染症モデル\cite{Kermack1927}を適応し補正を行う.本論文のポイントは次の2点である:\begin{enumerate}\itemソーシャルメディアの情報はノイズを含んでいる.よって,文章分類手法にてこれを解決する.\itemソーシャルメディアのインフルエンザ報告は不正確である.これにより生じる時間的なずれを補正するためのモデルを提案する.\end{enumerate}本稿の構成は,以下のとおりである.2節では,関連研究を紹介する.3節では,構築したコーパスについて紹介する.4節では,提案する手法/モデルについて説明する.5節では,実験について報告する.6節に結論を述べる.
| |
V30N01-06
|
\label{sec:introduction}深層学習の発展とともに,自然言語処理技術は目覚ましい発展を遂げた.中でも,自然言語文を実数ベクトルとして表現する\textbf{文埋め込み}は,類似文検索,質問応答,機械翻訳といった多様なタスクに応用することができ\cite{SGPT,xu-etal-2020-boosting},より優れた文埋め込みがこれらのタスクにおける性能を広く向上させる可能性があることから,深層学習を用いた自然言語処理の基礎技術として盛んに研究されている.文埋め込みを構成する手法は数多く存在するが,近年では自然言語推論(NaturalLanguageInference;NLI)タスクに基づいて文埋め込みモデルを獲得する手法が主流となっている.NLIタスクは与えられた文のペアに対して,その文ペアの含意関係が「含意」「矛盾」「その他」のうちのどれであるかを予測する分類タスクである.複数の研究がNLIタスクに基づく文埋め込み手法を提案しており\cite{InferSent,SBERT,SimCSE},文埋め込み評価のための標準的なベンチマークタスクで高い性能を達成してきた.しかし,NLIタスクに基づく手法は大規模なNLIデータセットが整備されている言語でしか利用できないという問題がある.実際,NLIタスクに基づく手法として代表的なSentence-BERT(SBERT)\cite{SBERT}は,人手でラベル付けされた約100万文ペアからなるNLIデータセットに基づくが,英語以外の言語ではこのようなデータセットは限られた量しか存在しない.したがって,既存のNLIタスクに基づく文埋め込み手法を英語以外に適用しても,英語と同等の精度は期待できない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia5f1.pdf}\end{center}\caption{Sentence-BERT(左)と提案手法である\textbf{DefSent}(右)の概要図.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究ではこの問題を解決するため,辞書に含まれる単語とその定義文が基本的に同一の意味内容を表すという関係に着目し,辞書の定義文を用いた文埋め込み手法である\textbf{DefSent}を提案する.NLIデータセットと比べて辞書は,はるかに多くの言語において既に整備がされている言語資源であり,辞書の定義文を用いた文埋め込み手法は多くの言語に適用できる可能性が高い.既存研究であるSBERTと,提案手法であるDefSentの概要を図\ref{fig:overview}に示す.本研究で提案する文埋め込み手法はSBERTと同様に,BERT\cite{BERT}やRoBERTa\cite{RoBERTa}といった事前学習済み言語モデルに基づく.これらのモデルに定義文を入力して得られる文埋め込みから,対応する単語を予測できるように事前学習済み言語モデルをfine-tuningする.単語予測というタスクを通して,事前学習済み言語モデルが備える単語埋め込み空間の意味情報を活用することで,文埋め込みを効率的に構成できるようになる.本研究では,2つの方法で提案手法による文埋め込みの有用性を評価した.一つ目は,文埋め込みモデルが捉える文ペアの意味的類似度がどれほど人間評価と近しいかを評価するSemanticTextualSimilarity(STS)タスクによる実験である.STSタスクを用いた評価により,提案手法が大規模なNLIデータセットを用いる既存手法と同等の性能を示すことを確認した.二つ目は,文埋め込みにどのような情報が捉えられているかを評価するソフトウェアのSentEval\cite{SentEval}を用いた評価である.SentEvalを用いた評価により,提案手法が既存手法の性能と同等の性能を示し,種々のタスクに有用な文埋め込みを構成することが確認できた.さらに本研究では,提案手法による文埋め込みの性質が,既存手法と比較してどのように異なるかを分析した.一般的に,機械学習モデルは学習に用いたデータセットやタスクによって異なる振る舞いを示す.文埋め込みモデルも同様に,これらの教師信号に影響を受け,文埋め込み手法ごとに異なる性質の文埋め込みが構成されると考えられる.それぞれの文埋め込みがどのような性質を持っているのか理解することは,よりよい文埋め込み手法の研究のために有益であると考えられる.上記を踏まえ,提案手法であるDefSentと,既存手法として代表的なSBERTを対象とし,STSタスクとSentEvalを用いた文埋め込みの性質分析を行った.最後に,性質の異なる文埋め込みを統合することによって,下流タスクでさらに高い性能を示す文埋め込みを構成できることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V04N03-02
|
\label{sec:introduction}単語の多義性を解消するための技術は,機械翻訳における訳語の選択や仮名漢字変換における同音異義語の選択などに応用できる.そのため,さまざまな手法\cite{Nagao96}が研究されているが,最近の傾向ではコーパスに基づいて多義性を解消するものが多い.コーパスに基づく手法では,単語と単語や語義と語義との共起関係をコーパスから抽出し,抽出した共起関係に基づいて入力単語の語義を決める.しかし,抽出した共起関係のみでは全ての入力には対応できないというスパース性の問題がある.スパース性に対処するための一つの方法は,シソーラスを利用することである.シソーラスを使う従来手法には,クラスベースの手法\cite{Yarowsky92,Resnik92,Nomiyama93,Tanaka95a}や事例ベースの手法\cite{Kurohashi92,Iida95,Fujii96a}がある.クラスベースの手法では,システムに入力された単語(入力単語)の代りに,その上位にある,より抽象的な節点を利用する\footnote{本章では単語と語義と節点とを特には区別しない.}.一方,事例ベースの手法では,このような抽象化は行わない.すなわち,入力単語がコーパスに出現していない場合には,出現している単語(出現単語)のうちで,入力単語に対して,シソーラス上での距離が最短の単語を利用する.ところで,シソーラス上では,2単語間の距離は,それらに共通の上位節点\footnote{「二つの節点に共通の上位節点」といった場合には,共通の上位節点のうちで最も深い節点,すなわち,根から最も遠い節点を指す.}の深さにより決まる.つまり,共通の上位節点の深さが深いほど,2単語間の距離は短くなる.したがって,事例ベースの手法では,シソーラス上における最短距離の出現単語ではなくて,最短距離の出現単語と入力単語とに共通の上位節点を利用しているとも考えられる.こう考えると,どちらの手法も,入力単語よりも抽象度の高い節点を利用している点では,共通である.二つの手法の相違は,上位節点の決め方とその振舞いの解釈である.まず,上位節点の決め方については,クラスベースの手法が,当該の入力単語とは独立に設定した上位節点を利用するのに対して,事例ベースの手法では,入力単語に応じて,それに最短距離の出現単語から動的に決まる上位節点を利用する.次に,上位節点の振舞いについては,クラスベースの手法では,上位節点の振舞いは,その下位にある節点の振舞いを平均化したものである.一方,事例ベースの手法では,上位節点の振舞いは,入力単語と最短距離にある出現単語と同じである.このため,クラスベースの手法では,クラス内にある単語同士の差異を記述できないし,事例ベースの手法では,最短距離にある出現単語の振舞いが入力単語の振舞いと異なる場合には,当該の入力の処理に失敗することになる.これは,一方では平均化により情報が失なわれ\cite{Dagan93},他方では個別化によりノイズに弱くなる\cite{Nomiyama93}という二律排反な状況である.クラスベースの手法でこの状況に対処するためには,クラスの抽象化の度合を下げればよい.しかし,それには大規模なコーパスが必要である.一方,事例ベースの手法では,最短距離の出現単語だけではなくて,適当な距離にある幾つかの出現単語を選び,それらの振舞いを平均化して入力単語の振舞いとすればよい.しかし,幾つ出現単語を選べば良いかの指針は,従来の研究では提案されていない.本稿では,平均化による情報の損失や個別化によるノイズを避けて,適当な抽象度の節点により動詞の多義性を解消する手法を提案する.多義性は,与えられた語義の集合から,尤度が1位の語義を選択することにより解消される.それぞれの語義の尤度は,まず,動詞と係り受け関係にある単語に基づいて計算される.このとき,尤度が1位の語義と2位の語義との尤度差について,その信頼下限\footnote{確率変数の信頼下限というときには,その推定値の信頼下限を意味する.確率変数$X$の(推定値の)信頼下限とは,$X$の期待値を$\langleX\rangle$,分散を$var(X)$とすると$\langleX\rangle-\alpha\sqrt{var(X)}$である.また,信頼上限は$\langleX\rangle+\alpha\sqrt{var(X)}$である.$\alpha$は推定の精度を左右するパラメータであり,$\alpha$が大きいと$X$の値が実際に信頼下限と信頼上限からなる区間にあることが多くなる.}が閾値以下の場合には語義を判定しないで,信頼下限が閾値よりも大きいときにのみ語義を判定する.語義が判定できないときには,シソーラスを一段上った節点を利用して多義性の解消を試みる.この過程を根に至るまで繰り返す.根においても多義性が解消できないときには,その係り受け関係においては語義は判定されない.提案手法の要点は,従来の研究では固定的に選ばれていた上位節点を,入力に応じて統計的に動的に選択するという点である.尤度差の信頼下限は,事例ベースの手法において,「幾つ出現単語を選べば良いか」を決めるための指標と考えることができる.あるいは,クラスベースの手法において,「平均化による情報の損失を最小にするクラス」を,入力に応じて設定するための規準と考えることができる.以下,\ref{sec:model}章では動詞の多義性の解消法について述べ,\ref{sec:experiment}章では提案手法の有効性を実験により示す.実験では,主に,提案手法とクラスベースの手法とを比較する.\ref{sec:discussion}章では提案手法とクラスベースの手法や事例ベースの手法との関係などを述べ,\ref{sec:conclusion}章で結論を述べる.
| |
V09N03-03
|
近年,テキスト自動要約の必要性が高まってきており,自動要約に関する研究が盛んに行なわれてきている\cite{okumura}.要約とは,人間がテキストの内容の理解,取捨選択をより容易にできるようにするために,元のテキストを短く表し直したものをいう.これまでの研究で提案されてきた要約手法は,主に次の3つに分類される.\begin{itemize}\item文書を対象とした,重要文抽出による要約\item文を対象とした,不要個所削除(重要個所抽出)による要約\item文を対象とした,語句の言い換えによる要約\end{itemize}どのような使用目的の要約でも作成できる万能な要約手法は存在しないため,要約の使用目的に応じた手法を選択し,時には複数の手法を併用して要約を作成することが必要となる\cite{yamamoto}.要約技術の応用はいくつか考えられている.例えば,「WWW上の検索エンジンの検索結果を一覧するための要約」を作成する場合には,元の文書にアクセスするかどうかを判断するための手掛りとしての役割から,ユーザに読むことの負担を与えないために,簡潔で自然な文が必要となる.したがって,重要文抽出によって作成した要約結果に対し,必要に応じて不要個所削除と語句の言い換えによる要約手法を用いるという方法が適切であると考えられる.また「ニュース番組の字幕生成,及び文字放送のための要約」を作成する場合には,重要文抽出による要約では文書の自然さが損なわれやすいことと情報の欠落が大きすぎること,そしてテキストをそれほど短くする必要がないことなどから,不要個所削除と語句の言い換えによる要約手法を用いることが適切だと考えられる.このように,要約の使用目的に応じて,それに適した要約手法を用いることで,より効果の高い要約を作成することができる.また,テキストの種類に応じて適切な要約手法もあると考えられる.将来,テキストの種類を自動判別し,ユーザの要求に応じられる要約手法を選択し,テキストを要約するといった要約システムを実現するためには,様々な要約手法が利用可能であることが望まれる.本論文で提案するのは,不要個所削除による要約を実現するための要素技術である,文中の省略可能な連用修飾表現を認定するために必要な知識を獲得する手法である.不要個所省略による要約手法として,山本ら\cite{yamamoto}は,一文ごとの要約ヒューリスティックスに基づいた連体修飾節などの削除を提案している.この手法は,重要文抽出による要約結果をさらに要約するという位置付けで提案されているが,単独で用いることも可能である.若尾ら\cite{wakao}や山崎ら\cite{yamasaki}は,人手で作成された字幕とその元となったニュース原稿とを人手で比較し,それによって作成した言い換え規則を用いた要約手法を提案している.また,加藤ら\cite{kato}は記事ごとに対応のとれたニュース原稿と字幕放送の原稿を用いて,言い換えに関する要約知識を自動獲得する研究を行なっている.ところが,これらの手法には次のような問題点がある.まず,不要箇所の削除や言い換えに関する規則を人手で作成するには多大な労力が掛かり,網羅性などの問題も残ることが挙げられる.また,加藤らが使用したような原文と要約文との対応がとれたコーパスは要約のための言語知識を得る対象として有用であるのは明らかであるが,一般には存在しておらず,入手するのが困難である.また,そのようなコーパスを人手で作成するには多大な作業量が必要であると予想される.このような理由から,本論文では,原文と要約文との対応がとれていない一般のコーパスから,不要個所省略による要約において利用できる言語知識を自動獲得し,獲得した言語知識を用いて要約を行なう手法を提案する.ここで不要箇所の単位として連用修飾表現に注目する.連用修飾表現の中には,いわゆる格要素が含まれている.格要素の省略は日本語の文に頻出する言語現象である.格要素が省略される現象には次の2つの原因がある.\begin{enumerate}\item格要素の必須性・任意性\item文脈の影響\end{enumerate}(1):動詞と共起する格要素には,その動詞と共起することが不可欠である必須格と,そうではない任意格があるとされている\cite{IPAL}.必須格は,主格,目的格,間接目的格など,動詞が表現する事象の内部構造を記述するものであり,任意格は,手段や理由,時間,場所などを記述するものである場合が多い.必須格がないことは読み手に文が不自然であると感じさせる.ただし,必須格でも文脈によって省略可能となる場合があり,任意格についても動詞と共起するのが任意的であるというだけで,文中の任意格が必ず省略可能となるとは限らない.(2):本論文における文脈とは,読み手が当該文を読む直前までに得ている情報のことを指す.文脈の影響により省略可能となるのは,読み手にとって新しい情報を与えない格要素,または文脈から読み手が補完するのが容易な格要素である.なお,文脈から省略可能となるのは格要素だけに限らず,格助詞を持たない連用修飾表現においても,文脈から省略可能となる可能性がある.したがって,上で述べたように必須格の格要素でも,それが読み手にとって旧情報であれば省略可能となる場合があり,任意格の格要素でも,読み手にとって新情報であれば,省略することは重要な情報の欠落につながる場合がある.格要素の必須性・任意性を求めることで,省略可能な格要素を認定する手法として,格フレーム辞書を用いた手法を挙げることができる.現在,利用できる格フレーム辞書としては,IPALの基本動詞辞書\cite{IPAL}や日本語語彙大系\cite{goi}の構文意味辞書といった人手により収集されたものがある.また,格フレームの自動獲得に関する研究も数多く行なわれてきている.例えば,用言とその直前の格要素の組を単位として,コーパスから用例を収集し,それらのクラスタリングを行なうことによって,格フレーム辞書を自動的に構築する手法\cite{kawahara}がある.この手法は,用言と格要素の組合せをコーパスから取得し,頻度情報などを用いて格フレームを生成する.その他には,対訳コーパスからの動詞の格フレーム獲得\cite{utsuro1}等がある.本論文で提案する手法は,格要素も含めた省略可能な連用修飾表現を認定する手法であり,その点が格フレーム生成の研究とは異なる.だが,これらの研究で提案されている手法により獲得した格フレームを用いても,省略可能な格要素の認定が実現可能であると考えられる.しかし,格フレームを用いた格要素の省略には次のような問題点がある.\begin{enumerate}\item格要素以外の省略可能な連用修飾表現に対応できない.例えば,節「そのために必要な措置として二百八十二の指令・規則案を定めた.」の動詞「定めた」に対する連用修飾表現「そのために必要な措置として」は文脈から省略可能だが,格要素ではないので格フレーム辞書では対応できない.特に,我々の調査の結果,格要素ではない連用修飾表現で省略可能な表現は多数(後述の実験では,省略可能な連用修飾表現のうち,約55\%が格要素ではない連用修飾表現であった)存在する.\item格フレーム辞書に記載されていない動詞に関しては,省略可能な格要素が認定できない.\item動詞の必須格,任意格は,その格の格成分によって変化する.例えば,IPAL基本動詞辞書において,動詞「進める」の格フレームに関する記述は表\ref{SUSUMERU}のようになっている.この情報からN3が「大学」である場合のみニ格が必須格になる.このように,たとえ大規模な辞書が構築できたとしても,用例によっては任意格が必須格に変化する場合があり,辞書のような静的な情報では対応できない場合がある.\begin{table}[bt]\begin{center}\caption{動詞「進める」の格フレーム}\label{SUSUMERU}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&文例\\\hline\hline1&N1ガN2ヲ(N3ニ/ヘ)&彼は船を沖へ進めた.\\2&N1ガN2ヲN3ニ&彼は娘を大学に進めた.\\3&N1ガN2ヲ&彼は会の準備を進めている.\\4&N1ガN2ヲ&政府は国の産業を進めている.\\\hline\end{tabular}\end{center}\end{table}\item格要素を省略可能と認定する場合,読み手が当該文を読む直前までに得ている情報から,省略可能と認定できる場合がある.しかし,格フレーム辞書では静的であるため,文脈を考慮した省略可能な格要素の認定ができない.\item認定対象としている連用修飾表現に重要な情報が含まれていれば,任意格であっても,そのような連用修飾表現を省略してしまえば情報欠落が大きくなる.しかし,格フレーム辞書では情報の重要度を考慮して認定することができない.\end{enumerate}そこで,本論文では,対応する要約文,もしくは格フレーム等を用いない省略可能な連用修飾表現の認定を行なう教師なしの手法を提案する.具体的には,省略できる可能性のある連用修飾表現を含む節に対して同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.そのため,格フレームでは対処できない格要素以外の連用修飾表現に対しても省略可能かどうかの判定が可能である.また,ある連用修飾表現が省略可能かどうかの判定の際に,その内容および前後の文脈を考慮して,その連用修飾表現に含まれている情報が以前の文にも含まれている情報である場合には,省略可能と認定されやすくなる.逆に,その情報が以降の文に含まれている場合や,重要な情報が含まれている場合には省略可能と認定されにくくなるような工夫を行なっている.本手法によって抽出された省略可能と認定された連用修飾表現は,その内容および前後の文脈を考慮している上に,格要素以外の連用修飾表現も含まれている.これらは現状の格フレーム辞書にはない知識であり,要約のみならず換言や文生成にも有用であると考える.本研究でコーパスとして想定するのは,形態素情報などの付与されていない一般のコーパスである.したがってCD-ROMなどで提供されている新聞記事のバックナンバーや電子辞書,WWW上で公開されている文書などを利用することができ,コーパスの大規模化も比較的容易に実現可能である.以下,第2章では,本論文で提案する手法を説明する.第3章では,手法を実装して,それによって省略可能と認定される連用修飾表現を示す.第4章では,本手法の性能を評価し,評価結果の考察を示す.第5章では,格フレーム辞書を用いた手法と本手法によって省略可能と認定された連用修飾表現を比較した実験について述べ,実験結果について考察する.
| |
V06N04-01
|
照応関係の理解は,統語的・意味的レベルの問題であるとともに,談話レベルの問題でもあり,照応表現とその先行詞をどのように同定するかは,言語理論にとっても~\cite{sag}~\cite{tsujimura:1996}~\cite{imanishi:1990},工学的な談話理解システムを構築する上でも重要な課題である~\cite{nakaiwa:1996}~\cite{murata:1997a}~\cite{tanaka:1979}.本稿では,日本語の照応表現について,発見的ストラテジー(heuristicstrategy)が照応関係理解のプロセスでどのように関与するのかについて心理言語学的実験を通して考察する.
| |
V07N02-03
|
語彙とは“ある言語に関し(その一定範囲の)あらゆる語を一まとめにして考えた総体”(水谷,1983,p.1)のことである.したがって,日本語なら日本語という特定の1言語に限っても,その内容は一まとめにくくる際の観点をどのように設定するかによって変化しうる.大きく見れば,語彙は時代の進行にそって変化するし,同時代の語彙にも地域,職業,社会階層などによって集団としての差異が存在する.細かく見てゆくならば,個人によっても語彙は違うであろうし,特定の書籍,新聞,雑誌等,言語テキストそれぞれに独自の語彙が存在すると言ってよい.さらに,個人で見ても,その語彙のシステム(心内語彙=mentallexicon)は,発達・学習によって大きく変化し,さらに特定の時点における特定の状況に対応した微妙な調整によって,常に変化しつづけていると考えることができる.こうした語彙の多様性は,ごく簡単に整理すれば,経時的な変動と,それと連動しつつ,表現の主体,内容,形式のバラエティに主に関わる共時的な変動という,縦横の軸からとらえることができる.本研究では,新聞という一般的な言語テキストを対象に,経時的,共時的の両面に関して語彙の系統的な変動を抽出することを試みる.具体的には1991年から1997年までの毎日新聞7年分の電子化テキストを用いて,そこで使われている全文字種の使用状況の変動について,面種と時系列の2つの面から調べる.毎日新聞を対象にしたのは,紙面に含まれる記事の内容が広く,難度も標準的であり,現代日本の一般的な言語表現を観察するのに適していると考えられること,面種等のタグ付けが施されたテキストファイルが利用できること,研究利用条件が整っていて,実際に多くの自然言語処理研究で利用されているため,知見の蓄積があることなどによる.語彙について調べることを目標に掲げる研究で,文字を分析単位としている理由は,日本語の場合,文字が意味情報を多く含んでいて単語レベルに近いこと(特に漢字の場合),単語と違って単位が明確なために処理が容易であること,異なり数(タイプ)が多すぎないので悉皆的な調査も可能であることである.目標と方法の折り合うところとして,文字という単位にまず焦点を当てたのである(電子テキストを用いて,日本語の文字頻度の本格的な計量を行った例としては,横山,笹原,野崎,ロング,1998がある).面種による変動を調べるのは,1種類の新聞の紙面で,どの程度,語彙(本研究では実際には文字)の内容に揺れ(変位)があるかを吟味することをねらいとする.全体で一まとめにして“毎日新聞の語彙”とくくれる語彙の集合を紙面の種類によって下位カテゴリに分割しようとする試みであるとも言える.経済面とスポーツ面とで,使われている語彙に差異があるだろうということ自体は,容易に想像がつくが,本研究では,こうした差異がどの程度まで広範に確認されるかを検討する.テキストのジャンルによる使用語彙の差を分析したものとして,国立国語研究所(1962),Ku\v{c}era\&Francis(1967)を挙げることができる.前者は,1956年に刊行された90の雑誌から抽出した50万語の標本に対して評論・芸文,庶民,実用・通俗科学,生活・婦人,娯楽・趣味の5カテゴリを設定し,後者は1961年にアメリカ合衆国で出版された本,新聞,雑誌等から抽出した100万語のコーパスに報道記事,宗教,恋愛小説等の15カテゴリを設定している.ただし,いずれも対象としているテキストの種類が多岐にわたるだけに語彙の差が検出しやすい条件にあると見ることができるが,カテゴリ間に見られる差についての検討は十分なものではない.本研究の場合,新聞1紙の中でどの程度の内容差を検出できるかを,文字という単位で悉皆的に分析するところに特色がある.語彙の時系列的な変動に関しては,世代,時代といった長い時間幅であれば,様々に研究されているが,7年間という,この種の分析としては短い時間幅で,どのような変動が観察されるかを詳細に分析するところに本研究の独自性がある.本研究では,7年全体での変動としてのトレンドに加えて,循環性のある変動として月次変動(季節変動)も調べる.時系列的な微細な分析は,経済,自然の分野では多くの実例があるものの,言語現象への適用は未開拓である.実際,言語テキストの月単位,年単位でのミクロな分析は,近年の大規模電子コーパスの整備によってようやく現実的なものとなったという段階にあるにすぎない.新聞での用字パタンに時系列な変動が存在すること自体は予想できる.たとえば,“春”という文字は春に,“夏”という文字は夏に多用されそうである.しかし,そもそも,“春”なら“春”の字がある時期に多用されるといっても,実際のパタンがどうであるのか,また,こうした季節変動が他の文字種を含めてどの程度一般的な現象であるのかというのは調べてみなければわからない.時系列変動の中でも,月次変動に関しては,筆者らは既に新聞のカタカナ綴りを対象とした分析(久野,野崎,横山,1998;野崎,久野,横山,1998),新聞の文字を対象とした分析(久野,横山,野崎,1998)を報告している.そこでは,月ごとの頻度プロフィールの相関をベースに,隣接月次の単語・文字の使用パタンが類似したものとなり,12ヵ月がほぼ四季と対応する形でグルーピングできることを示したが,本報告では,個々の文字をターゲットとして時系列的変動の検出を試みる.この時系列変動の調査は,トレンドに関しては,近年における日本語の変化の大きさについて考えるための基礎資料となるという点からも意味が大きい.また,月次変動,季節変動については,日本の場合,風土的に四季の変化が明確であり,その変化をめでる文化をもち,様々な生活の営みが1年の特定時期と結びついているという点から,分析の観点として有効性が高いことが期待される.以下では,面種変動,時系列変動という順序で,分析結果を報告する.実際の分析は,両方を行き来し,重ね合せながら進めたが,面種変動の方が結果が単純であり,また,時系列変動の分析では面種要因を考慮に入れる操作をしているという事情による.
| |
V24N04-02
|
投資家は,資産運用や資金調達のために数多くの資産価格分析を行っている.とりわけ,ファイナンス理論の発展と共に,過去の資産価格情報や決算情報などの数値情報を用いた分析方法は数多く報告されている.しかしながら,投資家にとって,数値情報だけでなく,テキスト情報も重要な意思決定材料である.テキスト情報には数値情報に反映されていない情報が含まれている可能性があり,テキスト情報の分析を通じ,有用な情報を獲得できる可能性がある.そのため近年,これまで数値情報だけでは計測が困難であった情報と資産価格との関連性の解明への期待から,経済ニュースや有価証券報告書,アナリストレポート,インターネットへの投稿内容などのテキスト情報を用いた様々な資産価格分析がなされている\cite{Kearney2014,Loughran2016}.本研究では,これらファイナンス分野及び会計分野の研究に用いるための金融分野に特化した極性辞書の作成を試みる.テキスト情報の分析を行う際には,テキスト内容の極性(ポジティブorネガティブ)を判断する必要がある.極性辞書を用いた手法は,この課題を解くための主流の方法の一つである.極性辞書によるテキスト分析は,キーワードの極性情報を事前に定義し,テキスト内容の極性を判断することで分析が行われる.ファイナンス分野及び会計分野の研究では,極性辞書による分析が標準的な手法となっている.極性辞書が標準的な手法となっている理由の一つとして,どの語句や文が重要であるかが明確であり,先行研究との比較が容易である点が挙げられる.また,金融実務の観点からすると,テキスト情報を利用して資産運用や資金調達をする際には株主や顧客への説明責任が必要であるという事情がある.そのため,内部の仕組みがブラックボックス化してしまう機械学習よりも,重要な語句や文が明確である極性辞書の方が説明が容易であることから,好まれる傾向がある.極性辞書には,GeneralInquirer\footnote{http://www.wjh.harvard.edu/{\textasciitilde}inquirer/}やDICTION\footnote{http://www.dictionsoftware.com/}などの心理学者によって定義された一般的な極性辞書や金融分野に特化したオリジナルの極性辞書\footnote{金融分野に特化した極性辞書として,LoughranandMcDonaldSentimentWordLists(http://www3.nd.edu/\linebreak[2]{\textasciitilde}mcdonald/Word\_Lists.html)がある.}が用いられる.金融分野では,独自の語彙が用いられる傾向があることから,\citeA{Henry2008}や\citeA{Loughran2011}では,金融分野に特化した極性辞書を用いることで分析精度が上がるとの報告がなされている.しかしながら,金融分野に特化した極性辞書を作成するためには,人手によるキーワードの選択と極性の判断が必要であり,評価者の主観が結果に大きく影響するという問題点が存在する.また,価格との関連性の高いキーワードも,年々変化することが想定される.例えば,新たな経済イベントの発生や資産運用の新手法などがあれば,その都度キーワードの極性情報を更新する必要があり,専門家による極性判断を要することとなる.自然言語処理におけるブートストラップ法をはじめとする半教師あり学習を用いる方法はあるものの,これも最初に選択するキーワードによって,分析結果に大きな影響を与えてしまうことなる.そこで,これら問題点に対する解決策の一つとして,本研究では人手による極性判断を介さずに,ニュースデータと株式価格データのみを用いて極性辞書を作成する方法論を提示する.株式価格データを用いて日本語新聞記事を対象に,重要語の抽出を試みた研究報告として,\citeA{Ogawa2001}や\citeA{Chou2008},\citeA{Hirokawa2010}などがあるものの,これらは,株式価格情報からマーケット変動を十分に調節できていない.具体的には,株式固有のリスクを調節できていない.例えば,同じ銘柄であっても時期によって株式が有するリスクプレミアムに違いがあり,リスクに伴う株式価格変動が荒い時期と穏やかな時期があり,株式リターンが一見同じであっても,そこから得られる情報は異なることが広く知られている\cite{Campbell2003}.また,異なる銘柄について同様である.リスクに伴う株式価格変動が荒い銘柄と穏やかな銘柄があり,株式リターンが一見同じであっても,そこから得られる情報は異なることも広く知られている\cite{Campbell2003}.加えて,新聞記事には必ずしも資産価格変動と関連性の高い新鮮な内容のみが記述されているだけではない.本研究では,これら問題点も考慮し,なおかつ,金融市場における資産価格形成と関連性の高いメディアである日経QUICKニュースを用いて,重み付き属性値付きキーワードリスト(以下,本稿では「重み付き属性値付きキーワードリスト」のことを単に「キーワードリスト」と記述する.)の作成を行う.さらに,作成したキーワードリストによってどの時点でのニュース記事を分類できるかを,キーワードリストの作成に用いた日経QUICKニュースと他メディアであるロイターニュースの分類を通じて検証する.次章は,本分析で用いるデータに触れ,3章ではキーワードリストの作成方法,4章ではキーワードリストを用いた分類検証を記す.5章は,まとめである.
| |
V03N04-02
|
label{intro}機械翻訳システムには,少し微妙だが重要な問題として冠詞の問題がある.例えば,\vspace*{5mm}\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称的な使われ方で,英語では``abook''にも``books''にも``thebook''にも訳される.これに対して,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は英語では``thebook''と訳される.冠詞の問題は,多くの場合,名詞句の{\bf指示性}と{\bf数}を明らかにすることによって解決できる.文(\ref{eqn:book_hito})の「本」は総称名詞句で数は未定であり,``abook''にも``books''にも``thebook''にも訳される.また,文(\ref{eqn:book_boku})の「本」は定名詞句でほとんどの場合単数と解釈してよい.よって,英語では``thebook''となる.名詞句の指示性と数は日本語の表層表現から得られることが多い.例えば,文(\ref{eqn:book_hito})では「\.と\.い\.う\.の\.は」という表現から「本」が総称名詞句とわかる.文(\ref{eqn:book_boku})では修飾節「昨日僕が貸した」が限定していることから「本」が定名詞句とわかる.そこで,本研究では名詞句の指示性と数を日本語文中にあるこのような表層表現を手がかりとして推定することを試みた.名詞句の指示性と数の推定は文脈依存性の高い問題であり,本来文脈処理などを行なって解決すべき問題である.しかし,現時点での自然言語処理の技術では文脈処理を他の解析に役立てるところまでは来ていない.また,近年コーパスベースの研究が盛んであるが,指示性と数の正解の情報が付与されているコーパスがなく,タグなしコーパスから指示性と数の問題を解決することはほとんど不可能であるので,コーパスベースでこの問題を解決することはできない.そういう状況の中で,本論文は表層の手がかりを利用するだけでも指示性や数の問題をかなりの程度解決することができることを示すものである.本論文は文献\cite{Murata1993B}を詳しくしたものである.近年,本研究は,文献\cite{Bond1994,Murata1995}などにおいて引用され,具体的に重要性が明らかになりつつある.\cite{Bond1994}においては,日本語から英語への翻訳における数の決定に利用され,また,\cite{Murata1995}においては,同一名詞の指示対象の推定に利用されている.そこで,本論文は本研究を論文としてまとめることにしたものである.以前の文献ではあげられなかった規則も若干付け加えている.
| |
V02N04-04
|
本論文では,話者の対象認識過程に基づく日本語助詞「が」と「は」の意味分類を行ない,これを,一般化LR法に基づいて構文解析するSGLRパーザ(沼崎,田中1991)の上に実装する.さらに,助詞「を」と「に」についても意味分類を行ない,パーザに実装する.そして,これらの意味分類の有用性を実験により確認した結果について述べる.話者の対象認識過程とは,話者が対象を認識し,それを言語として表現する際に,対象を概念化し,対象に対する話者の見方や捉え方,判断等を加える過程のことをいう.本研究の新規性は,次の3点である.1.三浦文法に基づいて,日本語の助詞「が」と「は」の意味規則,及び,「を」と「に」についての意味分類を考案したこと.2.この規則の動作機構をPrologの述語として記述し,日本語DCGの補強項に組み込んだこと.3.その規則をSGLRパーザに載せ,構文解析と意味解析の融合を図り,それにより,構文的曖昧性を著しく削減できることを示したことである.関連する研究としては,(野口,鈴木1990)がある.そこでは,「が」と「は」の用法の分類を,その語用論的機能と,聴者の解釈過程の特徴とによって整理している.本研究との相違は,(野口,鈴木1990)が聴者の解釈過程を考慮した分類であるのに対し,本研究では,話者の対象認識過程を考慮した分類である点,および,本研究がパーザへの実装を行なっているのに対し,(野口,鈴木1990)は,これを行なっていない点である.以後,2章では言語の過程的構造,3章では助詞「が」と「は」の意味分析,4章では助詞「が」と「は」のコア概念について述べる.5章では,助詞「が」と「は」の意味規則,および,助詞「を」と「に」の意味規則について述べる.6章ではパーザの基本的枠組,7章では試作した文法と辞書について述べる.8章ではSGLRパーザの実装について述べ,実験結果を示す.そして,9章では結論を述べる.
| |
V10N04-09
|
日本語のテンス・アスペクトは,助動詞「タ/テイル/テアル/シツツアル/シテイク/…」などを付属させることによって表現される.中国語では「了/着/\kanji{001}(過)/在」などの助字がテンス・アスペクトの標識として用いられるが,テンス・アスペクトを明示的に表示しない場合も多い.言語学の側からの両言語のテンス・アスペクトに関する比較対照の先行研究においては,次のような文献がある.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item\cite{Ryu1987}は両言語の動詞を完成と未完成に分類しながら,「タ」と「了」の意味用法を対比した.\item\cite{Cho1985}は,「了」と「た」の対応関係を描き,その微妙に似通ったり,食い違ったりする原因,理由を探している.\item\cite{Shu1989}は,「タ」と「了」のテンス・アスペクトの性格について論じている.\item\cite{Oh1996}は,「シテイル」形の意味用法を基本にして,日本語動詞の種別に対する中国語の対応方法を考察している.\item\cite{Ryu2000}は,中国語の動詞分類によって,意味用法上で日本語のテンス・アスペクトと中国語のアスペクト助字との対照関係を述べている.\\\end{enumerater}これらの言語学側の先行研究では,日中両言語間のテンス・アスペクト表現の対応の多様性(すなわち曖昧性)を示すと同時に,動詞の時間的な性格や文法特徴の角度から曖昧性を解消する方法も論じている.しかしながらこれらの先行研究では,例えば「回想を表す場合」や「動作が完了或いは実現したことを表す場合」などといった表現での判断基準を用いており,そのまま計算機に導入することは難しい.すなわち,これらの判断基準は人間には了解できても,機械にとっては「どのような場合が回想を表す場合であるのか」「どのような場合が完了あるいは実現したことを表す場合であるのか」は分からない.本論文では,機械翻訳の立場から,日本語のテンス・アスペクト助辞である「タ/ル/テイル/テイタ」に対して,中国語側で中国語のテンス・アスペクト用助字である「了/着/\kanji{001}(過)/在」を付属させるか否かについてのアルゴリズムを考案した.その際,\maru{4}では日本語述語の時間的性格を分析して中国語への対応を論じているが,我々は日中機械翻訳においては対応する中国語の述語はすでに得られていると考えてよいから,中国語の述語の時間的性格も同時に判断の材料としてアルゴリズムに組み込んだ.そのほか両言語における述語のいくつかの文法特徴や共起情報も用いた.以下,第2章で両言語におけるテンス・アスペクト表現の意味用法およびその間の対応関係についてまとめ,第3章で,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムについて述べた.さらに第4章で,作成した翻訳アルゴリズムの評価を手作業で行った結果を説明し,誤った箇所について分析も行った.評価の結果は約8割の正解率であった.
| |
V07N05-04
|
label{sec:introduction}本稿では、人手で記述された文法及び統計情報を用いて日本語の係り受け関係を求める手法について述べる。特に、文法とヒューリスティクスにより文節の係り先の候補を絞った時に構成することができる新しいモデルを提案し、それにより高い係り受けの精度(文節正解率88.6$\%$)が得られることを示す。我々のグループでは、何らかの意味表現を構成できるような高機能な構文解析器を実現することを最終目標とし、HPSG\cite{PollardSag94}の枠組みに基づいた文法を作成している。現状では意味表現の構成こそできていないが、新聞や雑誌などの実世界の文章の殆どに対して構文木を出力できる、被覆率の高い日本語文法SLUNG\cite{Mitsuishi98}を開発した。しかしながら、文法的に可能な構造を列挙するだけでは、曖昧性が大きいため、実用に耐えない。また、今後の課題である意味構造の自動学習のためにも、曖昧性の解消が要求される。本研究では、文法を用いた構文解析の結果の曖昧性解消を目的として、文節単位の係り受け解析によって、最も可能性の高い統語構造を選択できるようにする。また、係り受け解析を行う際に文法を用いることが精度の向上に寄与している。係り受け解析は以下のような手順でなされる。\begin{itemize}\itemまず、文法SLUNGで構文解析し、各文節の係り先の候補を、文法が許す文節に絞る。\item文法により絞った係り先候補が4つ以上存在する場合、それを係り元から見て(1)最も近い文節、(2)二番目に近い文節、(3)最も遠い文節の3つに制限する。これは、上記の三文節のいずれかが正解となる場合が98.6$\%$を占めるという観察に基づいている。この制限により、以下で考える統計モデルにおいて、係り先の候補は常に3つ以下であるとみなせる\footnote{候補が1つの場合は、係り先をその文節に決定できるため、候補が2つまたは3つの時にのみ確率を計算する。}。\item係り元文節がそれぞれの候補に係る確率を、{\bf3つ組/4つ組モデル}を用いて求める。このモデルは、係り元の文節と、2つまたは3つの係り先候補の全てを同時に考慮するという特徴があり、最大エントロピー法\cite{Berger96}を用いて推定される。\item文法が出力するそれぞれの部分木(文節間の係り受けに相当する)に上記の統計値を割り当てて、最も高い優先度が割り当てられた文全体の構文木が選択される。\end{itemize}本研究で用いるモデルと他の研究でのモデルの違いについてであるが、従来の統計モデル\cite{Uchimoto99}\cite{Haruno98}\cite{Fujio99}では、係り元文節$i$・係り先文節$j$に対して、係り元文節の属性$\Phi_i$及び係り先文節の属性$\Psi_{i,j}$(係り元と係り先の文節間の属性を含む)を前件として、係り受けが成立する(Tが出力される)条件付き確率\begin{equation}P(i\rightarrowj)=P(\mbox{T}\mid\Phi_i,\Psi_{i,j})\label{equ:naive0}\end{equation}\refstepcounter{enums}を求めていた。これに対し、本研究で用いる3つ組/4つ組モデルでは、係り元文節$i$の候補$t_n$に関して、$i$の属性を$\Phi_i$、$t_k$及び$i$と$t_k$の文節間の属性を$\Psi_{i,t_k}$とするとき、$\Phi_i$と全ての$t_k$に対する$\Psi_{i,t_k}$を前件として、$n$番目の候補が選ばれる条件付き確率\begin{eqnarray}P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2})&(候補が2つのとき:n=1,2)\label{equ:triplet0}\refstepcounter{enums}\\P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2},\Psi_{i,t_3})&(候補が3つのとき:n=1,2,3)\label{equ:quadruplet0}\end{eqnarray}\refstepcounter{enums}を求める。上記の(\ref{equ:triplet0}),~(\ref{equ:quadruplet0})式をそれぞれ3つ組モデル・4つ組モデルと呼ぶ。なお、ここでの$n$番目の候補とは、表層文中で係り元から数えて$n$番目の文節ではなく、文法的に許される係り先のうち2つまたは3つに絞ったものの中で、係り元から$n$番目に近い文節である。\ref{sec:related}~節では、従来の統計方式の日本語係り受け解析に関する関連研究、本研究で用いる日本語文法、及び最大エントロピー法を紹介する。\ref{sec:ourmodel}~節では、上記で概観した我々の手法を順に詳しく述べる。\ref{sec:result}~節の実験結果で、対照実験の結果とともに3つ組/4つ組モデルの有効性を示す。そして、\ref{sec:observations}~節で、具体的なパラメータの観察や他研究との比較を行う。
| |
V06N07-03
|
GeorgeA.Millerは1956年に人間の短期記憶の容量は7±2程度のチャンク\footnote{チャンクとはある程度まとまった情報を計る,情報の認知単位のこと.}(スロット)しかないこと,つまり,人間は短期的には7±2程度のものしか覚えられないことを提唱した\cite{miller56}.本研究では,京大コーパス\cite{kurohashi_nlp97}を用いて日本語文の各部分において係り先が未決定な文節の個数を数えあげ,その個数がおおよそ7±2程度でおさえられていたことを報告する.この結果は,人間の文の理解過程において係り先が未決定な文節を短期記憶に格納するものであると仮定した場合,京大コーパスではその格納される量がちょうどMillerのいう7±2の上限の9程度でおさえられており,Millerの7±2の提唱と矛盾しないものとなっている.またYngveによって提案されている方法\cite{yngve60}により英語文でも同様な調査を行ない,NP程度のものをまとめて認識すると仮定した場合,必要となる短期記憶の容量が7±2の上限の9程度でおさえられていたことを確認した.近年,タグつきコーパスの増加により,コーパスに基づく機械学習の研究が盛んになっているが\cite{murata:nlken98},タグつきコーパスというものは機械学習の研究のためだけにあるのではなく,本研究のような言語の数量的な調査にも役に立つものである.現在の日本の言語処理研究ではコーパスを機械学習の研究に用いるものがほとんどであるが,本論文のようにコーパスの様々な使い道を考慮するべき時代がきていると思っている.
| |
V20N03-06
|
2011年3月に発生した東日本大震災では,ソーシャルメディアは有益な情報源として大活躍した~\cite{nomura201103}.震災に関する情報源として,ソーシャルメディアを挙げたネットユーザーは18.3\%で,インターネットの新聞社(18.6\%),インターネットの政府・自治体のサイト(23.1\%)と同程度である.ニールセン社の調査~\cite{netrating201103}によると,2011年3月のmixiの利用者は前月比124\%,Twitterは同137\%,Facebook同127\%であり,利用者の大幅な伸びを示した.東日本大震災後のTwitterの利用動向,交換された情報の内容,情報の伝搬・拡散状況などの分析・研究も進められている~\cite{Acar:11,Doan:11,Sakaki:11,Miyabe:11}.Doanら~\cite{Doan:11}は,大震災後のツイートの中で地震,津波,放射能,心配に関するキーワードが多くつぶやかれたと報告している.宮部ら~\cite{Miyabe:11}は,震災発生後のTwitterの地域別の利用動向,情報の伝搬・拡散状況を分析した.Sakakiら~\cite{Sakaki:11}は,地震や計画停電などの緊急事態が発生したときのツイッターの地域別の利用状況を分析・報告している.AcarとMurakiは~\cite{Acar:11},震災後にツイッターで交換された情報の内容を分類(警告,救助要請,状況の報告:自身の安否情報,周りの状況,心配)している.一方で,3月11日の「コスモ石油のコンビナート火災に伴う有害物質の雨」に代表されるように,インターネットやソーシャルメディアがいわゆるデマ情報の流通を加速させたという指摘もある.東日本大震災とそれに関連する福島第一原子力発電所の事故では,多くの国民の生命が脅かされる事態となったため,人間の安全・危険に関する誤情報(例えば「放射性物質から甲状腺を守るにはイソジンを飲め」)が拡散した.東日本大震災に関するデマをまとめたツイート\footnote{https://twitter.com/\#!/jishin\_dema}では,2012年1月時点でも月に十数件のペースでデマ情報が掲載されている.このように,Twitter上の情報の信憑性の確保は,災害発生時だけではなく,平時においても急務である.我々は,誤情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め」)に対してその訂正情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め\ulinej{というのはデマ}」)を提示することで,人間に対してある種のアラートを与え,情報の信憑性判断を支援できるのではないかと考えている.訂正情報に基づく信憑性判断支援に向けて,本論文では以下に挙げる3つの課題に取り組む.\begin{description}\item[東日本大震災時に拡散した誤情報の網羅的な収集:]「○○というのはデマ」「○○という事実は無い」など,誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を自動的に収集する手法を提案する.震災時に拡散した誤情報を人手でまとめたウェブサイトはいくつか存在するが,東日本大震災発生後の大量のツイートデータから誤情報を自動的,かつ網羅的に掘り起こすのは,今回が初めての試みである.評価実験では,まとめサイトから取り出した誤情報のリストを正解データと見なし,提案手法の精度や網羅性に関して議論する.\item[東日本大震災時に拡散した誤情報の発生から収束までの過程の分析:]東日本大震災時の大量のツイートデータから自動抽出された誤情報に対し,誤情報の出現とその拡散状況,その訂正情報の出現とその拡散状況を時系列で可視化することで,誤情報の発生から収束までの過程をモデル化する.\item[誤情報と訂正情報の識別の自動化:]誤情報を訂正している情報を自然言語処理技術で自動的に認識する手法を提案し,その認識精度を報告する.提案手法の失敗解析などを通じて,誤情報と訂正情報を対応づける際の技術的課題を明らかにする.また,本研究の評価に用いたデータは,ツイートIDと\{誤情報拡散,訂正,その他\}のラベルの組として公開を予定しており,誤情報とその訂正情報の拡散に関する研究の基礎データとして,貴重な言語資源になると考えている.\end{description}なお,ツイートのデータとしては,東日本大震災ワークショップ\footnote{https://sites.google.com/site/prj311/}においてTwitterJapan株式会社から提供されていた震災後1週間の全ツイートデータ(179,286,297ツイート)を用いる.本論文の構成は以下の通りである.まず,第2節では誤情報の検出に関する関連研究を概観し,本研究との差異を述べる.第3節では誤情報を網羅的に収集する手法を提案する.第4節では提案手法の評価実験,結果,及びその考察を行う.第5節では,収集した誤情報の一部について,誤情報とその訂正情報の拡散状況の分析を行い,自動処理による訂正情報と誤情報の対応付けの可能性について議論する.最後に,第6節で全体のまとめと今後の課題を述べる.
| |
V30N03-03
|
対話において,対話の参加者の間で共有される知識や信念の情報を共通基盤(または相互信念)と呼ぶ\cite{CLARK1989259,traum94,kopp21}.複雑な内容を伴う対話は,その内容の理解を積み上げていく必要があるため,ユーザとの高度な対話(例えば,教育,議論,交渉などを目的とする対話)が可能なシステムを実現するためには,対話を通じてユーザとともに共通基盤を構築していき,それに基いて対話を行うモデルを確立することが望ましい.対話をモデル化する上で,共通基盤は重要な概念の一つとされてきたが,共通基盤が構築される過程を分析した研究は少なく,その過程は明らかではない\cite{nakano19}.共通基盤を扱った従来の研究では,話者が対話を通じて共同作業を行う課題を設定し,対話や課題に関する情報を記録,分析するというアプローチが取られてきた\cite{benotti21,chandu21}.課題の達成には作業者間で共通基盤を構築する必要があることから,課題の最終的な結果を共通基盤と関連付けて分析することで,対話と共通基盤の関係性が分析されている\cite{anderson91,foster08,he17}.そのため,対話を通じてどのように共通基盤が構築されるかという過程そのものに関する研究は,いくつかの例外を除き行われてきていない.例外として,\citeA{udagawa19}は,共通基盤の構築過程を分析するために,課題に関するオブジェクト,および,対話中に出現する参照表現を人手で結び付けたデータを作成し,参照表現からオブジェクトを推定する研究を行った.また,\citeA{bara21}は,仮想空間上で話者が対話を通じて共同作業を行う課題において,対話相手の信念や行動についてどの程度理解しているかを問う質問をリアルタイムに話者に回答させることで,対話中の共通基盤を記録している.これらの研究では,対話中の共通基盤を手作業で記録する必要があり,高いコストがかかる.また,分析可能な情報は,あらかじめ定義された参照表現や質問の内容に限定される.本論文では,\hl{共同作業を行う対話を対象とし,}課題の中間結果を構築中の共通基盤に相当するものとして自動的に記録することで,共通基盤構築の過程を分析する手法を提案する.課題の中間結果をその時点における共通基盤に相当するものとして記録することで,共通基盤が記録された対話を低いコストで収集でき,対話の各段階における各話者の信念やその共通部分である共通基盤を分析することが可能になる.このために,2名の作業者がテキストチャットを用いて,ランダムに配置されたオブジェクトを共通のレイアウトに配置する課題,{\bf\taskname}(\fig{diagram})を設定した.本課題において,2名の作業者が作成したレイアウトを各作業者の信念とみなし,それらの類似度を利用することで,対話を通じて構築される共通基盤を定量化することが可能である.{\taskname}を用いて984対話を収集し,共通基盤構築の過程を調査した結果,\hl{共通基盤の構築過程にいくつかのパタンが見られ,また,対話相手の発話を肯定したり,話者自信の理解を相手に伝えたりする表現が出現している場合,共通基盤が構築できている傾向にあると考えられる.}さらに,共通基盤を構築可能な対話システム\hl{の実現}に向けて,対話の各段階における共通基盤構築の度合いを推定する実験を実施した結果,対話とレイアウトの双方の情報が推定に有用であることが明らかになった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-3ia2f1.pdf}\end{center}\hangcaption{本研究で提案する{\taskname}.各作業者は自身の図形配置しか参照することができず,相手の図形配置は参照することはできない.}\label{fig:diagram}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文の貢献は以下の3点である.\begin{enumerate}\item対話中の共通基盤を自動的に記録する手法を提案した.提案手法を利用することで,人手によるアノテーションやアンケートへの回答を経ることなく共通基盤が構築される過程を記録することが可能となる.また,提案する共同図形配置課題の対話を984対話収集した共同図形配置コーパスを構築した.\item共通基盤構築の過程を初めて定量的に明らかにした.具体的には,共通基盤構築の過程が複数の典型的なクラスタに分けることができ,また,\hl{対話中に肯定的な評価や共感を示す発話が出現している場合,共通基盤が構築できている傾向にあると考えられる.}\item共通基盤を構築可能な対話システムの実現に向けて,共通基盤構築の度合いを対話と課題の内容から推定する実験を行い,その双方の内容が推定に有用であることを示した.\end{enumerate}%本研究で提案する共同図形配置課題は,共通基盤を記録することを目的として設計されており,その対話の内容は一般的な対話と比較して限定的である.しかしながら,我々の知る限り,共通基盤構築の過程を定量化した試みは本研究が初めてである.共通基盤の構築過程は,相互理解を必要とするあらゆる対話に現れうるため,本研究の知見は共通基盤を扱う対話システムの研究一般において有用だと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V02N01-04
|
文章(文献)の執筆者の推定問題(authorshipproblem),あるいは執筆順序の推定や執筆時期の推定などの問題(Chronology)に対して,文章の内容や成立に関する歴史的事実の考証とは別に,文章から著者の文体の計量的な特徴を抽出し,その統計分析によって問題の解決を試みる研究が多くの人々に注目をあつめつつある.統計分析の手法を用いた文章の著者の推定や執筆の時期の推定などの研究は今世紀の初頭から行なわれていたが,本格的な研究が現れたのは今世紀の中ごろである.研究の全体像を把握するため今世紀の主な研究を表\ref{rri}に示した.\begin{table}[htb]\caption{{\dg著者の推定などの研究のリスト}\label{rri}}\begin{center}\renewcommand{\arraystretch}{}\footnotesize{\begin{tabular}{llll}\hline分析の対象となった文章&用いた情報&用いた情報,手法&研究者\\\hlineShakespeare,Bacon&単語の長さ&モード&Mendenhall,T.C.(1887)\\TheImitationofChrist&文の長さ&平均値,中央値など&Yule,G.U.(1939)\\TheImitationofChrist&語彙量&K特性値&Yule,G.U.(1944)\\Shakespeareetal.&単語の音節数&Shannonエントロピー&Fucks,W.(1952)\\Shakespeareetal.&音節数の接続関係&分散共分散の固有値,&\\&&Shannonエントロピー&Fucks,W.(1954)\\Shakespeareetal.&単語の長さの分布&平均値など&Williams,C.B.(1956)\\プラトンの第七書簡&文の長さ&平均値,中央値など&Wake,W.C(1957)\\WorkofPlato&文末の単語のタイプ&判別分析&Cox,D.R.etal.(1958)\\QuintusCurtiusSnodgrass&&&\\letter&語の長さの分布&$\chi^2$の検定,$t$検定&Brinegar,C.S.(1963)\\新約聖書の中のパウロの書簡&語の使用頻度&$\chi^2$検定&Morton,A.Q.(1965)\\源氏物語の宇治十帖&頁数,和歌数など&U検定,$\chi^2$検定&安本美典(1960)\\Federalistpaper&単語の使用頻度&線形判別分析,確率比&Mosteller,F.etal.(1963)\\由良物語&単語の使用頻度&線形判別分析,確率比&韮沢正(1965)\\ShakespeareandBacon&単語の長さの分布&分布の比較&Williams,C.B.(1975)\\Shakespeare&語彙量&ポアソン分布&Thisted,R.etal.(1976)\\源氏物語&頁数,和歌数等&因子分析&安本美典(1977)\\Shakespeare&単語の出現頻度&ポアソン分布,検定&Thisted,R.etal.(1987)\\紅楼夢&虚詞の使用頻度&主成分,&\\&&クラスターリングなど&Li,X.P.(1987,1989)\\日蓮遺文&品詞の使用率など&$t$検定,主成分,&\\&&クラスターリング&村上征勝他(1992,1994)\\\hline\end{tabular}}\end{center}\end{table}文章の著者の推定や文章の分類などを行なう際,文章に関するどのような著者の特徴を表す情報(特徴情報)を用いるかが問題解決の鍵である.今までの文章の著者の推定や文体の研究では著者の特徴を表す情報としては,単語の長さ,単語の使用頻度,文の長さなどがよく用いられている.日本文に関して,少し詳細に見ると,安本は直喩,声喩,色彩語,文の長さ,会話文,句読点,人格語などの項目を用いて100人の作家の100編の文章を体言型—用言型,修飾型—非修飾型,会話型—文章型に分類することを試み(安本1981,1994),また長編度(頁数),和歌の使用度,直喩の使用度,声喩の使用度,心理描写の数,文の長さ,色彩語の使用度,名詞の使用度,用言の使用度,助詞の使用度,助動詞の使用度,品詞数の12項目の情報を用いて源氏物語の宇治十帖の著者の推定を試みた(安本1958).韮沢は,「にて」,「へ」,「して」,「ど」,「ばかり」,「しも」,「のみ」,「ころ」,「なむ」,「じ」,「ざる」,「つ」,「む」,「あるは」,「されど」,「しかれども」,「いと」,「いかに」などの単語の使用率を用いて,「由良物語」の著者の判定(韮沢1965,1973)を行い,村上らは品詞の接続関係,接尾語などを用いて日蓮遺文の真偽について計量分析を行なっている(村上1985,1988,1994).このように,日本文に関して,文章の著者の推定を試みる研究はいくつかあるが,著者の推定などのための文章に関するどのような情報が有効となるかに関する基礎的な研究はほとんどない状況である.文章に関するどのような要素に著者の特徴が現れるかに関して,外国での研究ではいくつかあるが,それは言語によって異なると考えられるため,外国語での研究成果が日本語の場合もあてはまるのか,もしあてはまらないとすれば日本語の文章ではどのような要素に著者の特徴が現れるかというようなことが文体研究の重要な課題である.筆者は日本語の文章の著者の推定あるいは著者別に文章を分類する基礎的な研究として,文章の中のどのような要素が著者の文体の特徴になるかについて研究を進めている.コンピュータのハードウエアとソフトウエアの発展に伴い,コンピュータを利用することによって文章の中から膨大な情報が抽出できるようになった.しかし,今度はそのような膨大な情報の中からどの情報を用いるべきかという新しい問題が生じた.筆者らは文章の中に使用された読点について計量分析を行ない,読点の前の文字に関する情報で文章を著者別に分類する方法を提案し,この方法は文学作品だけではなく研究論文についても有効であることを実証した(金1993a,b,1994c,d,e).このような日本文に適応した著者の文体の特徴情報の抽出に関する研究は始まったばかりで決して十分とはいえない.ところで,コンピュータで著者の文体の特徴を抽出するためには計算機処理可能な文章のデータベースが必要であるが,そのようなデータベースが入手できなかったため,作成することにした.データベース化したのは井上靖,三島由紀夫,中島敦の短篇小説である.分析に用いた情報の安定性の考察及び用いた短い文章とのバランスをとるため,比較的長い文章はいくつかに分割して用いた.例えば,井上の「恋と死と波と」は二つに,中島の「弟子」は三つに,「李陵」は四つに分割して用いることにした.表\ref{list}に,用いた文章と発表年などを示した.\begin{table}[htb]\caption{{\dg分析に用いた文章のリスト}\label{list}}\begin{center}\small{\begin{tabular}{llccccc}\hline著者&文章名&記号&単語数&出版社&発表の年\\\hline井上靖&結婚記念日&I1&4749&角川文庫&1951\\&石庭&I2&4796&同上&1950\\&死と恋と波と(前半)&I3&4683&同上&1950\\&死と恋と波と(後半)&I4&4386&同上&同上\\&帽子&I5&3724&新潮文庫&1973\\&魔法壜&I6&3624&同上&同上\\&滝へ降りる道&I7&3727&同上&1952\\&晩夏&I8&4269&同上&同上\\三島由紀夫&遠乗会&M1&4984&新潮文庫&1951\\&卵&M2&4004&同上&1955\\&詩を書く少年&M3&4502&同上&1955\\&海と夕焼&M4&3359&同上&1955\\中島敦&山月記&L1&3226&新潮文庫&1942\\&名人伝&L2&3202&同上&1942\\&弟子(前の1/3)&L3&4078&同上&1943\\&弟子(中の1/3)&L4&4092&同上&同上\\&弟子(後の1/3)&L5&3727&同上&同上\\&李陵(前の1/4)&L6&4563&同上&1944\\&李陵(中の1/4)&L7&4561&同上&同上\\&李陵(中の1/4)&L8&4638&同上&同上\\&李陵(後の1/4)&L9&4458&同上&同上\\\hline\end{tabular}}\end{center}\end{table}この3人を選んだのは,OCR(光学読み取り装置)で文章を入力する場合に漢字の認識率が問題になるため,現代文の中で漢字の使用率がわりに高い中島の文章を用いてOCRでの入力テストを行なったのがきっかけであった.中島と同時期の作家として井上,三島を選んだ.データベースは分析に用いる文章をOCRで入力し,読み取りの誤りを訂正し,品詞コードなどを入力して作成した.表\ref{datas}に作成したデータベースの一部分を示した.単語の認定は「広辞苑」に従った.ただし,広辞苑にない複合動詞については複合された全体を1語とした.\begin{table}[htb]\caption{\dgデータベースの例}\label{datas}\begin{center}\footnotesize\renewcommand{\arraystretch}{}\begin{tabular}{l}\hline\\(2)/父(M)は(J)(27)/軍医(M)で(Z),(4)/当時(M)(5)/聯隊(M)の(J)\\(6)/ある(R)(6)/地方(M)の(J)(9)/小都市(M)を(J)(9)/転々と(F)\\(10)/し(D)て(J)(27)/おり(D),(11)/子供(M)を(J)(13)/自分(M)の(J)\\(14)/手許(M)に(J)(27)/置く(D)と(J),(16)/何回(M)も(J)\\(17)/転校させ(D)なけれ(Z)ば(J)(23)/なら(D)なかっ(Z)た(Z)ので(J),\\(19)/そう(F)(20)/し(D)た(Z)(23)/こと(M)から(J)(23)/私(M)を(J)\\(23)/郷里(M)に(J)(24)/置く(D)(25)/気(M)に(J)(26)/なっ(D)た(Z)\\(27)/もの(M)らしかっ(Z)た(Z).\\\\(3)/たとえ(F)(3)/田舎(M)の(J)(11)/小学校(M)でも(J),(7)/まだ(F)\\(6)/同じ(R)(7)/小学校(M)に(J)(14)/落着い(D)て(J)(9)/通わ(D)せ(Z)\\た(Z)(11)/方(M)が(J)(11)/教育上(M)(11)/いい(K)と(J)(13)/考え(D)\\た(Z)の(J)で(Z)(14)/ある(D).\\\\\hline\end{tabular}\end{center}\hspace*{0.8cm}{\footnotesize記号/は文節の境界線で,(数字)は(数字)の直後の文節が係る文節の番号で,(ローマ字)は品詞コードである.}\end{table}
| |
V22N03-03
|
抽出型要約は現在の文書要約研究において最も広く用いられるアプローチである.このアプローチは,文書をある言語単位(文,節,単語など)の集合とみなし,その部分集合を選択することで要約文書を生成する.要約システムに必要とされる側面はいくつかあるが,特に重要なのが,一貫性(coherence)\cite{hobbs85,mann:88}と情報の網羅性が高い要約を生成することと,要約長に対し柔軟に対応できることである.一貫性の高い要約とは,原文書の談話構造(あるいは論理構造)を保持した要約を指す.要約が原文書の談話構造を保持していない場合,原文書の意図と異なる解釈を誘発する文書が生成されてしまうおそれがある.すなわち,原文書と似た談話構造を持つように要約文書を生成することは,要約を生成するために重要な要素である\footnote{原文書は常に一貫性を持った文書であることを仮定している.}.要約文書において談話構造を考慮するために修辞構造理論(RhetoricalStructureTheory;RST)\cite{mann:88}が利用可能である.RSTは文書の大域的な談話構造を木として表現するため,RSTの木構造を損なわぬように原文書中の抽出単位を選択することで,原文書の談話構造を保持した要約文書が生成できる\cite{marcu:98,daume:02,hirao:13}.従来のRSTを抽出型要約に組み込む従来の手法の問題点は,その抽出粒度にある.RSTで扱う文書中の最小単位はElementaryDiscourseUnit(EDU)と呼ばれ,おおよそ節に対応するテキストスパンである.従来手法は,抽出の単位をEDUとして要約の生成を行ってきたが,それが要約において必ずしも最適な単位であるとは限らない\footnote{これについては\ref{sec:unit}節で考察する.}.また,本節で後に説明するように,それなりの長さを持ったテキストスパンを抽出単位とする場合,要約長に対する柔軟性の面でも問題が生じる.情報の網羅性は,文書要約の目的そのものでもある非常に重要な要素である.要約文書は原文書の内容を簡潔にまとめている必要があり,原文書の重要な内容を網羅していることが要求される.近年,抽出型要約において,原文書から重要な抽出単位の部分集合を選択する問題を整数計画問題(IntegerLinearProgramming;ILP)として定式化するアプローチが盛んに研究されている.抽出された部分集合が原文書の情報をなるべく被覆するような目的関数を設定し,最適化問題として解くことで,原文書の情報を網羅した要約文書の生成が可能となる.実際にこれらの手法は要約文書の情報の網羅性の指標となる自動評価手法であるROUGE(Recall-OrientedUnderstudyforGistingEvaluation)\cite{lin:04}値の向上に大いに貢献してきた\cite{mcdonald:07,filatova:04,takamura:09}.RSTを要約に組み込む研究の多くはRSTで定義される修辞構造の構造木をそのまま利用したものが多かった\cite{marcu:98,daume:02}が,Hiraoら\cite{hirao:13}は,RSTの談話構造木をそのまま用いることの問題点を指摘し,EDUの依存構造木(DEP-DT)に変換し,依存構造木の刈り込みにより要約を生成する木制約付きナップサック問題\cite{johnson:83}として要約を定式化した.ILPの導入によって,高い網羅性を持った要約の生成が可能となった一方で,要約手法が持つ要約長に対する柔軟性は,情報の網羅性と密接な関係をもつようになった.文書要約では,要約文書が満たすべき上限の長さを指定することが一般的である.抽出型要約においてよく用いられる抽出単位は文であり,生成された要約の文法性が保証されるという利点がある.しかし,高い圧縮率,すなわち原文書の長さと比較して非常に短い長さの要約文書が求められている場合,文を抽出単位とすると十分な量の情報を要約文書に含めることが出来ず,情報の網羅性が低くなってしまうという問題\footnote{これは上述の通り,RSTに基づくEDUを抽出単位とした手法も同様である.EDUは文よりは細かいとはいえ,固定された抽出単位としてはかなり粗いテキストスパンである.}があった.この問題に対し,文抽出と文圧縮を組み合わせるアプローチが存在する.文圧縮とは,主に単語や句の削除により,対象となる文からより短い文を抽出する手法である.近年,こうした文圧縮技術と文抽出技術を逐次適用するのではなく,それらを同時に行うアプローチ(以降これらを同時モデルとよぶ)が盛んに研究されており,高い情報の網羅性と要約長への柔軟性を持った要約文書の生成が可能となっている.本研究の目的は,文書の談話構造に基づく,情報の網羅性と要約長への高い柔軟性を持った要約手法を開発することである.これまで,文書要約に談話構造を加える試みと,文抽出と文圧縮の同時モデルは,どちらも文書要約において重要な要素であるにもかかわらず,独立に研究されてきた.その大きな要因の一つは,両者の扱う抽出粒度の違いである.前者はEDUであり,後者の抽出粒度は文(圧縮され短くなった文も含む)である.抽出単位を文やEDUというそれなりの長さのテキストスパンにすると,ある要約長制約に対し,選択可能なテキストスパンの組合せは自ずと限られ,情報の網羅性を向上させることが困難な場合がある.我々は,文間の依存関係に基づく木構造と単語間の依存関係に基づく木構造が入れ子となった{\bf入れ子依存木}を提案し,その木構造に基いて要約を生成することでこの問題に取り組む.提案手法について,図\ref{fig:nested_tree}に示す例で説明する.本研究で提案する入れ子依存木は,文書を文間の依存関係で表した{\bf文間依存木}で表現する.文間依存木のノードは文であり,文同士の依存関係をノード間のエッジとして表現する.各文内では,文が単語間の依存関係に基づいた{\bf単語間依存木}で表現されている.単語間依存木のノードは単語であり,単語同士の依存関係をノード間のエッジとして表現する.このように,文間依存木の各ノードを単語間依存木とすることで,入れ子依存木を構築する.そして,この入れ子依存木を刈り込む,つまり単語の削除による要約生成をILPとして定式化する.生成された要約は,文間依存木という観点では必ず文の根付き部分木となっており,その部分木内の各文内,すなわち単語間依存木の観点では単語の部分木となっている.ここで,文間依存木からは必ず木全体の根ノードを含んだ根付き部分木が抽出されているのに対し,単語間依存木はそうでないものも存在することに注意されたい.従来,文圧縮を文書要約に組み込む研究では,単語間依存木の場合も必ず根付き部分木が選択されていたが,限られた長さで重要な情報のみを要約に含めることを考えると,単語の根付き部分木という制約が情報の網羅性の向上の妨げとなる可能性がある.そこで提案手法では,根付きに限らない任意の部分木を抽出するために,部分木の親を文中の任意の単語に設定できるよう拡張を加えた.\begin{figure}[t]\begin{center}\includegraphics{22-3ia3f1.eps}\end{center}\hangcaption{提案手法の概要.原文書は二種類の依存木に基づく入れ子依存木として表現される.提案手法は,文間依存木からは根付き部分木,その各ノードは単語間依存木の部分木となっているように単語を選択することで要約を生成する.}\label{fig:nested_tree}\end{figure}提案手法をRSTDiscourseTreebank\cite{carlson:01}における要約システムの評価セットで従来の同時モデルや木制約付きナップサック問題による要約手法と比較評価したところ,文書要約の自動評価指標であるROUGEにおいて最高精度が得られることを確認した.
| |
V06N02-05
|
自然で自発的な発話を対象とする音声翻訳ないし音声対話システムの構築を目指している.読み上げ文を対象とする音声認識研究においては文が処理単位となっている.また,従来の音声翻訳ないし音声対話システムへの入力は,文節区切りのようなゆっくり丁寧に発話された文を単位とする音声であった\cite{Morimoto96}.ここで,音声翻訳システムや音声対話システム等の音声認識応用システムへの入力となる機械的に自動処理可能な単位を「発話単位」と呼ぶことにすると,自然で自発的な発話を対象とする音声翻訳ないし音声対話システムへの入力としての発話単位は文に限定できない.一方,言語翻訳処理における処理単位は文である.書き言葉を対象とする自然言語処理システムにおける処理単位も一般に文である.話し言葉を対象とする言語翻訳処理における処理単位も文である\cite{Furuse97}.音声対話システムにおける問題解決器のための解釈の処理単位も暗黙の内に文ないし文相当のものを想定していると考えられる.ところで,本稿では文の定義の議論はしない.例えば,文献\cite{Masuoka92}等に文に関する説明がある.また,話し言葉における文は,無音と韻律に代表される表層のレベル,構造のレベル,意味のレベルで特徴付けられると言われるが,計算機処理から見て十分な知見は得られていない\cite{Ishizaki96}.そこで,本稿では文という術語は使わず,翻訳や解釈のための自然言語処理単位という観点から「言語処理単位」と呼ぶことにする.まず,{\bf2}で一つの発話を複数の言語処理単位に分割したり,複数の発話をまとめて一つの言語処理単位に接合する必要があることを,通訳者を介した会話音声データを使って示す.次に,{\bf3}でポーズと細分化された品詞の$N$-gramを使って,発話単位から言語処理単位に変換できることを実験により示す.最後に{\bf4}で全体をまとめ,今後の展望を述べる.
| |
V10N03-07
|
われわれは2001年に行なわれたSENSEVAL2\cite{senseval2}の日本語辞書タスクのコンテストに参加した.このコンテストでは,日本語多義性の解消の問題を扱っており,高い精度で日本語多義性の解消を実現するほどよいとされる.われわれは機械学習手法を用いるアプローチを採用した.機械学習手法としては多くのものを調査した方がよいと考え,予備調査として先行研究\cite{murata_nlc2001_wsd}においてシンプルベイズ法,決定リスト法,サポートベクトルマシン法などの手法を比較検討した.その結果,シンプルベイズ法とサポートベクトルマシン法が比較的よい精度を出したのでその二つの機械学習手法を基本とすることにした.また,学習に用いる素性は,豊富なほどよいと考え,文字列素性,形態素素性,構文素性,共起素性,UDC素性(図書館などで用いられる国際十進分類を利用した素性)と,非常に多くの素性を利用した.コンテストには,シンプルベイズ法,サポートベクトルマシン法,またそれらの組み合わせのシステム二つの合計四つのシステムをコンテストに提出した.その結果,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.また,解析に用いる情報(素性)を変更する追加実験も行ない,各素性の有効性,特徴を調査した.本稿では,これらのシステムの説明と結果を述べる.以降,\ref{sec:imp}節で多義解消の重要性を述べ,\ref{sec:mondai_settei}節で本コンテストの問題設定を述べる.\ref{sec:ml_method}節でわれわれが利用した機械学習手法について述べ,\ref{sec:sosei}節でその機械学習手法で用いる素性について述べ,\ref{sec:experiment}節でその機械学習手法と素性を用いた実験とその考察について述べる.\ref{ref:kanren}節では関連文献について述べる.
| |
V26N03-03
|
\label{sec:intro}本稿では,参照文を用いた文単位での機械翻訳自動評価手法について述べる.文単位での信頼性の高い自動評価によって,機械翻訳システムの細かい改善が可能になる.文単位での機械翻訳の評価手法には,ある機械翻訳システムの翻訳文に対して他のシステムの翻訳文と比較して相対的に評価する手法と,翻訳文の品質を絶対的に評価する手法がある.本研究では,機械翻訳システムの文単位での定性的な分析,つまり,評価対象の機械翻訳システムがどのような文に対してどの程度の品質で翻訳できるのかについての分析を可能にするため,各翻訳文に対して絶対的な自動評価を行う.本研究では,人手評価に近い絶対評価ができる手法を信頼性の高い自動評価であると捉え,その信頼性に基づいて各評価手法の性能比較や分析を行う.機械翻訳に関する国際会議ConferenceonMachineTranslation(WMT)\footnote{https://aclanthology.info/venues/wmt}では,機械翻訳自動評価手法の人手評価との相関を競うMetricsSharedTaskが開催されており,これまでに多くの手法が提案されてきた.しかし,現在のデファクトスタンダードであるBLEU\cite{papineni-2002}をはじめとして,ほとんどの機械翻訳自動評価手法は文字$N$-gramや単語$N$-gramなどの局所的な素性を利用しており,文単位での評価にとっては限定的な情報しか扱えていない.また,大域的な情報を考慮するために文の分散表現を用いた手法も存在するが,人手評価値付きのデータセットなどの比較的少量の教師ありデータのみを用いてモデル全体を学習するため,十分な性能を示せていない.そこで本研究では,局所的な素性に基づく従来手法では扱えない大域的な情報を考慮するために,大規模コーパスによって事前学習された文の分散表現を用いる機械翻訳自動評価手法を提案する.我々の提案手法は,(a)~翻訳文と参照文を独立に符号化する手法と,(b)~翻訳文と参照文を同時に符号化する手法に大別できる.これらの2つの提案手法は,大規模コーパスによって事前学習された文の分散表現を素性として利用し,人手評価値付きのデータセット上で訓練された回帰モデルによって機械翻訳の自動評価を行うという点で共通している.我々はまず,事前学習された文の分散表現を用いた機械翻訳自動評価のための回帰モデルRUSE\footnote{https://github.com/Shi-ma/RUSE}(RegressorUsingSentenceEmbeddings)(図~\ref{fig:ruse_bert}(a))を提案する.WMT-2017MetricsSharedTask\cite{bojar-2017}のデータセットにおける実験の結果,RUSEは文単位の全てのto-English言語対で従来手法よりも高い性能を示した.この結果は,事前学習された文の分散表現が機械翻訳の自動評価にとって有用な素性であることを示す.\begin{figure}[t]\begin{center}\includegraphics[scale=1.1]{26-3ia3f1.eps}\end{center}\caption{各手法の概要.散点部は訓練し,横線部は固定する.}\label{fig:ruse_bert}\end{figure}我々は続いて,文および文対の符号化器であるBERTによる機械翻訳自動評価手法(図~\ref{fig:ruse_bert}(b))を提案する.BERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-2019}は,大規模な生コーパスを用いて双方向言語モデルおよび隣接文推定の事前学習を行った上でタスクに応じた再訓練を行い,多くの自然言語処理タスクで最高性能を更新している.我々は,WMTMetricsSharedTaskの人手評価値付きデータセットを用いて再訓練することで,BERTによる機械翻訳自動評価を可能にした.WMT-2017MetricsSharedTaskのデータセットにおける実験の結果,BERTによる機械翻訳自動評価は文単位の全てのto-English言語対でRUSEを凌ぎ,最高性能を更新した.詳細な分析の結果,RUSEとの主な相違点である事前学習の方法,文対モデリング,符号化器の再訓練の3点が,それぞれBERTによる機械翻訳自動評価における性能改善に貢献していることが明らかになった.本研究の主な貢献は以下の3つである.\begin{itemize}\item事前学習された文の分散表現に基づく機械翻訳自動評価手法RUSEを提案し,事前学習された文の分散表現が機械翻訳の自動評価において有用な素性であることを示した.\item同じく事前学習された文の分散表現に基づくBERTによる機械翻訳の自動評価を行い,WMT-2017MetricsSharedTaskのデータセットを用いる実験において,文単位の全てのto-English言語対で最高性能を更新した.\itemRUSEとBERTによる機械翻訳自動評価の比較に基づく詳細な分析により,BERTの事前学習の方法,文対モデリング,符号化器の再訓練の3点が,それぞれ機械翻訳の自動評価における性能改善に貢献していることを明らかにした.\end{itemize}本稿の構成を示す.2節では,まず機械翻訳の人手評価について説明し,続いて機械翻訳自動評価手法の関連研究について概説する.3節では,事前学習された文の分散表現に基づくRUSEおよびBERTによる機械翻訳の自動評価手法を提案する.4節では,WMTMetricsSharedTaskの人手評価値付きデータセットを用いて,提案手法の評価実験を行う.5節では,訓練データの文対数と性能の関係やfrom-English言語対における性能について分析する.最後に6節で,本研究のまとめを述べる.
| |
V09N01-01
|
\label{はじめに}日本語には語順の入れ替わり,格要素の省略,表層格の非表示などの問題があり,単純な係り受け解析を行っただけでは文の解析として十分とはいえない.例えば,「ドイツ語も話す先生」という文の場合,係り受け構造を解析しただけでは,「ドイツ語」と「話す」,「先生」と「話す」の関係はわからない.このような問題を解決するためには,用言と格要素の関係,例えば,「話す」のガ格やヲ格にどのような単語がくるかを記述した格フレームが必要である.このような格フレームは文脈処理(照応処理,省略処理)においても必須の知識源となる.これまで,重要な用言の典型的な格フレームについては,人手で辞書をつくるということも試みられてきた.しかし,格と同じ振る舞いをする「によって」,「として」などの複合辞があること,「〜が〜に人気だ」のように名詞+判定詞にも格フレームが必要なこと,専門分野ごとに用言に特別な用法があることなどから,カバレージの大きな実用的な辞書をつくるということは大変なことであり,人手による方法には限界がある.そこで,格フレーム辞書をコーパスから自動学習する方法を考える必要がある.しかし,格フレームの学習には膨大なデータが必要となり,現存するタグ付きコーパスはこのような目的からは量的に不十分である.そこで,本論文では,格フレーム辞書をタグ情報が付与されていない大規模コーパス(生コーパス)から自動的に構築する手法を提案する.格フレーム辞書を生コーパスから学習するためには,まず,生コーパスを構文解析しなければならないが,ここで解析誤りが問題となる.しかし,この問題はある程度確信度が高い係り受けだけを学習に用いることでほぼ対処することができる.むしろ問題となるのは用言の用法の多様性である(これはタグ付きコーパスから学習する場合にも問題となる).つまり,同じ表記の用言でも複数の意味,格要素のパターン(用法)をとり,とりうる格や体言が違うことがあるので,用言の用法ごとに格フレームを作成することが必要である.本論文では,これに対処するために,用言とその直前の格要素の組を単位として用例を収集し,それらのクラスタリングを行うという方法を考案した.用言とその直前の格要素の組を単位とするというのは,「なる」や「積む」ではなく,「友達になる」「病気になる」,「荷物を積む」「経験を積む」を単位として収集するということである.用言とその直前の格要素の組を単位として考えると,用言の用法はほとんど一意に決定される.この組み合わせは膨大になるので充分な量のコーパスが必要であるが,本研究では生コーパスから収集するので問題にならない.クラスタリングは,用法に違いはないが,用言の直前の単語が異なるために別の格フレームになってしまう用例をマージする処理である.
| |
V29N01-06
|
\label{sec:intro}自然言語で記述された文を単語の系列に変換する単語分割は,さまざまな自然言語処理タスクにおいて,その性能に影響を与える重要な処理である\cite{peng2015named,peng2016improving,sennrich2016neural,he2017f,pranav20202kenize,bollegala2020language}.従来の自然言語処理では,ルールを用いた単語分割手法\cite{koehn2007moses}や,辞書を用いた単語分割手法\cite{kudo2006mecab,morita2015morphological,tolmachev2018juman,takaoka18sudachi},ニューラルネットワークを用いた教師あり学習による単語分割手法\cite{yang2017neural,cai2017fast,yang2018subword},教師なし単語分割手法\cite{goldwater2006contextual,goldwater2009bayesian,mochihashi2009bayesian,sennrich2016neural,kudo2018sentencepiece}などの,さまざまな方法で単語分割が行われている.また,後段モデルの性能が向上するような適切な単語分割は,後段タスクによって異なることがこれまでの研究から分かっている\cite{xu2008bayesian,chang2008optimizing,nguyen2010nonparametric,domingo2018much,hiraoka2019stochastic,gowda2020finding}.さらに,\citeA{hiraoka2020optimizing}の実験結果から,適切な単語分割が後段モデルの構造にも依存することが示唆されている.これらの研究から,後段タスクや後段モデルに応じて,適切な単語分割を選択することが,後段モデルの性能の向上に繋がると期待される.しかしながら,従来の自然言語処理において単語分割処理は後段モデルとは独立している場合が多く\footnote{固有表現抽出タスクにおいては,単語分割と固有表現抽出をマルチタスク学習として同時に学習することで性能向上が得られると報告されている\cite{peng2016improving}.},さまざまな単語分割を用いて後段モデルを学習し,その性能を評価しなければ,後段モデルに適切な単語分割を決定することができない.可能な単語分割の候補ごとに新たに後段モデルを学習し,評価するという探索方法には多くの時間や計算資源が必要となるため,現実的とは言えない.近年の研究では,後段タスクや後段モデルに基づいて単語分割を最適化する手法\cite{xuanli2020dynamic,hiraoka2020optimizing}が提案されているが,既存手法はいずれも使用用途が特定のタスクに限定されている.\citeA{xuanli2020dynamic}は,機械翻訳などのSequence-to-Sequenceタスクにおいて,学習データを用いて単語分割を最適化するDynamicProgrammingEncoding(DPE)を提案した.しかし,DPEによる単語分割の最適化には学習データのみを利用しており,機械翻訳タスクのための後段モデルであるエンコーダー・デコーダーのパラメータを単語分割の最適化に用いていない.そのため,DPEは後段モデルに応じて単語分割を最適化することはできない.\citeA{hiraoka2020optimizing}は,単語分割を後段タスクに最適化する際に,後段モデルのパラメータを用いるOpTokを提案した.しかしながら,OpTokは入力文の文ベクトルを用いて単語分割の最適化を行うため,文書分類タスクにしか適用することができず,機械翻訳タスクなどの多くの自然言語処理のタスクに応用することはできない.このように,現在の自然言語処理において,さまざまな後段タスクや後段モデルに適用可能な単語分割の最適化手法は存在していない.本稿では,さまざまな自然言語処理タスクに利用可能な,単語分割\footnote{本稿で取り扱う単語分割は厳密にはTokenization(トークン化)であり,分割後のトークンは単語やサブワードになるとは限らない.しかしながら,日本語の自然言語処理の文脈でトークン化ということばが広く浸透しているとは言えないため,わかりやすさのために本稿では文を部分文字列に分割することを単語分割と呼ぶ.}と後段モデルの同時最適化の新たな手法を提案する.提案手法は,複数の単語分割を用いて後段モデルの損失値を計算し,その損失値をもとに後段モデルに適切な単語分割を優先的に選択できるように単語分割器を更新する.提案手法による単語分割器の更新には後段モデルの損失値のみを用いるため,提案手法はさまざまな自然言語処理のタスクやモデルに適用することができる.さらに,提案手法によって単語分割を学習済みの後段モデルに対して最適化することで,後段モデルが学習済みであっても,その性能を向上させることが可能である.本稿では,学習済みの後段モデルに対して単語分割を最適化する処理を後処理としての単語分割の最適化と呼ぶ.このように,提案手法は後段モデルが未学習の場合であっても,学習済みの場合であっても用いることができるため,自然言語処理のさまざまな場面で利用可能な手法である.本研究では複数言語を対象とした文書分類タスクと機械翻訳タスクを用いて実験を行った.実験結果から,文書分類タスクと機械翻訳タスクの双方において,提案手法が既存の単語分割の最適化手法の性能を上回ることを確認した.また,サブワード正則化\cite{kudo2018subword,provilkov2019bpe}を用いて学習を行った後段モデルに対して,後処理として単語分割を最適化することで,その性能の向上を実現できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V22N04-03
|
\label{sect:intro}対訳文中の単語の対応関係を解析する単語アラインメントは,統計的機械翻訳に欠かせない重要な処理の一つであり,研究が盛んに行われている.その中で,生成モデルであるIBMモデル1-5\cite{brown93}やHMMに基づくモデル\cite{vogel96}は最も有名な手法であり,それらを拡張した手法が数多く提案されている\cite{och03,taylor10}.近年では,Yangらが,フィードフォワードニューラルネットワーク(FFNN)の一種である「Context-DependentDeepNeuralNetworkforHMM(CD-DNN-HMM)」\cite{dahl12}をHMMに基づくモデルに適用した手法を提案し,中英アラインメントタスクにおいてIBMモデル4やHMMに基づくモデルよりも高い精度を達成している\cite{yang13}.このFFNN-HMMアラインメントモデルは,単語アラインメントに単純マルコフ性を仮定したモデルであり,アラインメント履歴として,一つ前の単語アラインメント結果を考慮する.一方で,ニューラルネットワーク(NN)の一種にフィードバック結合を持つリカレントニューラルネットワーク(RNN)がある.RNNの隠れ層は再帰的な構造を持ち,自身の信号を次のステップの隠れ層へと伝達する.この再帰的な構造により,過去の入力データの情報を隠れ層で保持できるため,入力データに内在する長距離の依存関係を捉えることができる.このような特長を持つRNNに基づくモデルは,近年,多くのタスクで成果をあげており,FFNNに基づくモデルの性能を凌駕している.例えば,言語モデル\cite{mikolov10,mikolov12,sundermeyer13}や翻訳モデル\cite{auli13,nal13}の構築で効果を発揮している.一方で,単語アラインメントタスクにおいてRNNを活用したモデルは提案されていない.本論文では,単語アラインメントにおいて,過去のアラインメントの情報を保持して活用することは有効であると考え,RNNに基づく単語アラインメントモデルを提案する.前述の通り,従来のFFNNに基づくモデルは,直前のアラインメント履歴しか考慮しない.一方で,RNNに基づくモデルは,隠れ層の再帰的な構造としてアラインメントの情報を埋め込むことで,FFNNに基づくモデルよりも長い,文頭から直前の単語アラインメントの情報,つまり過去のアラインメント履歴全体を考慮できる.NNに基づくモデルの学習には,通常,教師データが必要である.しかし,単語単位の対応関係が付与された対訳文を大量に用意することは容易ではない.この状況に対して,Yangらは,従来の教師なし単語アラインメントモデル(IBMモデル,HMMに基づくモデル)により生成した単語アラインメントを疑似の正解データとして使い,モデルを学習した\cite{yang13}.しかし,この方法では,疑似正解データの作成段階で生み出された,誤った単語アラインメントが正しいアラインメントとして学習されてしまう可能性がある.これらの状況を踏まえて,本論文では,正解の単語アラインメントや疑似の正解データを用意せずにRNNに基づくモデルを学習する教師なし学習法を提案する.本学習法では,Dyerらの教師なし単語アラインメント\cite{dyer11}を拡張し,正しい対訳文における単語対と語彙空間全体における単語対を識別するようにモデルを学習する.具体的には,まず,語彙空間全体からのサンプリングにより偽の対訳文を人工的に生成する.その後,正しい対訳文におけるアラインメントスコアの期待値が,偽の対訳文におけるアラインメントスコアの期待値より高くなるようにモデルを学習する.RNNに基づくモデルは,多くのアラインメントモデルと同様に,方向性(「原言語$\boldsymbol{f}\rightarrow$目的言語$\boldsymbol{e}$」又は「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」)を持ち,各方向のモデルは独立に学習,使用される.ここで,学習される特徴は方向毎に異なり,それらは相補的であるとの考えに基づき,各方向の合意を取るようにモデルを学習することによりアラインメント精度が向上することが示されている(Matusov,Zens,andNey2004;Liang,Taskar,andKlein2006;Gra\c{c}a,Ganchev,andTaskar2008;Ganchev,Gra\c{c}a,andTaskar2008).\nocite{matusov04,liang06,graca08,gancev08}そこで,提案手法においても,「$\boldsymbol{f}\rightarrow\boldsymbol{e}$」と「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」の2つのRNNに基づくモデルの合意を取るようにそれらのモデルを同時に学習する.両方向の合意は,各方向のモデルのwordembeddingが一致するようにモデルを学習することで実現する.具体的には,各方向のwordembeddingの差を表すペナルティ項を目的関数に導入し,その目的関数にしたがってモデルを学習する.この制約により,それぞれのモデルの特定方向への過学習を防ぎ,双方で大域的な最適化が可能となる.提案手法の評価は,日英及び仏英単語アラインメント実験と日英及び中英翻訳実験で行う.評価実験を通じて,前記提案全てを含む「合意制約付き教師なし学習法で学習したRNNに基づくモデル」は,FFNNに基づくモデルやIBMモデル4よりも単語アラインメント精度が高いことを示す.また,機械翻訳実験を通じて,学習データ量が同じ場合には,FFNNに基づくモデルやIBMモデル4を用いた場合よりも高い翻訳精度を実現できることを示す\footnote{実験では,NNに基づくモデルの学習時の計算量を削減するため,学習データの一部を用いた.全学習データから学習したIBMモデル4を用いた場合とは同等の翻訳能であった.}.具体的には,アラインメント精度はFFNNに基づくモデルより最大0.0792(F1値),IBMモデル4より最大0.0703(F1値),翻訳精度はFFNNに基づくモデルより最大0.74\%(BLEU),IBMモデル4より最大0.58\%(BLEU)上回った.また,各提案(RNNの利用,教師なし学習法,合意制約)個別の有効性も検証し,機械翻訳においては一部の設定における精度改善にとどまるが,単語アラインメントにおいては各提案により精度が改善できることを示す.以降,\ref{sect:related}節で従来の単語アラインメントモデルを説明し,\ref{sect:RNN}節でRNNに基づく単語アラインメントモデルを提案する.そして,\ref{sect:learning}節でRNNに基づくモデルの学習法を提案する.\ref{sect:experiment}節では提案手法の評価実験を行い,\ref{sect:discuss}節で提案手法の効果や性質についての考察を行う.最後に,\ref{sect:conclusion}節で本論文のまとめを行う.
| |
V13N01-01
|
\label{はじめに}高精度の機械翻訳システムや言語横断検索システムを構築するためには,大規模な対訳辞書が必要である.特に,専門性の高い文書や時事性の高い文書を扱う場合には,専門用語や新語・造語に関する対訳辞書の有無が翻訳や検索の精度を大きく左右する.人手による対訳辞書の作成はコスト及び時間がかかる作業であり,できるだけ自動化されることが望ましい.このような課題に対処するため,対訳文書から対訳表現を自動的に抽出する手法が数多く提案されている.この中でも,文対応済みの対訳文書から共起頻度に基づいて統計的に対訳表現を自動抽出する手法は,精度が高く,対訳辞書を自動的に作成する方法として有効である\cite[など]{北村97,山本2001,佐藤2002,佐藤2003}.本稿では,その中の一つである\cite{北村97}の手法をベースにし,従来手法の利点である高い抽出精度を保ちつつ,抽出できる対訳表現のカバレッジを向上させるために行った種々の工夫について論じ,その有効性を実験で示す.\begin{description}\item[(A)]文節区切り情報や品詞情報の利用\item[(B)]対訳辞書の利用\item[(C)]複数候補の対訳表現が得られた場合の人手による確認・選択\item[(D)]多対多の対応数を考慮に入れた対応度評価式\item[(E)]対訳文書の分割による漸進的な抽出\end{description}\noindentの5点である.これらを用いることで実用的な対訳表現抽出を行うことができる.(A)は,文節区切り情報や品詞情報を利用することにより,構文的に有り得ない表現が抽出候補にならないようにする.文節区切り情報の有効性は,既存の研究\cite{Yamamoto-Matsumoto:2003}において確かめられているが,彼らは抽出の対象を自立語に限定している.提案手法では,各単語における文節内の位置情報と品詞情報を用いて抽出の対象を制限することで,自立語以外の語も抽出の対象とする.(B),(C)では,共起頻度に基づいた統計的な値のみでは対訳かどうかが判断できない場合,対訳辞書や人手を利用して対訳か否かを判断する手法である.過去の研究\cite{佐藤2003}では,対訳辞書は対訳文書から対訳関係にある単語ペアを見つけるための手がかりとして利用されることが多いが,本提案では,手がかりとするのではなく,統計的に抽出された対訳表現から適切な対訳表現だけを選り出すための材料として利用する.(D)では,原言語と目的言語の単語列間の対応関係の強さを示す尺度である{\bf対応度}の評価式を改良する.対応度の計算には,一般に重み付きDice係数やLog-Likelihoodなどの評価式が用いられるが,我々は従来手法\cite{北村97}の実験結果を分析した結果,Dice係数やLog-Likelihoodの評価式に対して,多対多の対応数を考慮した負の重み付けを行うことが効果的であると判断し,評価式を改良した.(E)は抽出時間に関する課題を解決する.従来手法では10,000文以上からなる対訳文書を抽出対象とする場合,原言語と目的言語単語列の組み合わせが多数生成されるという課題があった.提案手法ではその組み合わせ数を削減するために,対訳文書を一定の単位に分割し,抽出対象とする文書の単位を徐々に増やしていきながら抽出するという方法を採用する.対象とする対訳文を1,000文,2,000文,…,10,000文と徐々に増やす度に,抽出された対訳表現に関わる単語列を除去していく.その結果,対象の文が10,000文に達した時の単語列の組み合わせ数は,直接10,000文を対象にした場合の組み合わせ数より少なくなり,抽出時間を短縮させることができる.以下,\ref{従来}章では,従来手法\cite{北村97}における,原言語単語列と目的言語単語列間の対応度の計算方法と抽出アルゴリズムを説明する.\ref{提案}章では,本稿が提案する種々の工夫を採用した改良手法について述べる.\ref{実験}章では\ref{提案}章に述べた各手法の評価実験を報告し,その結果を考察する.\ref{関連研究}章では関連研究と比較し,\ref{まとめ}章でまとめる.
| |
V12N05-05
|
我々は,人間と自然な会話を行うことができる知的ロボットの開発を目標に研究を行っている.ここで述べている「知的」とは,人間と同じように常識的に物事を理解・判断し,応答・行動できることであるとしている.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念(場所,感覚,知覚,感情など)を会話文章から判断し,適切な応答を実現しコミュニケーションをとっている.本論文では,それらの常識的な判断のうち,時間の表現に着目し研究を行っている.例えば,「もうすっかり葉が散ってしまいましたね」という表現に対して,人間であれば「秋も終わって冬になろうとしている」ことを理解し,「もう少ししたら雪が降りますね」などのように,自然なコミュニケーションとなる返答をする.しかし,これまでの会話・対話の研究においては「おうむ返し」が一般的であり,この場合「どうして葉が散ってしまったのですか」や「どのように葉が散ってしまったのですか」などのように,自然な会話が成立しているとはいえない返答をする.このように,人間と同じように自然な会話を実現するためには,語や語句から時間を連想する機能・システムは必要不可欠であると考える.このようなことを実現するためには,ある語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.これまで,ある概念から様々な概念を連想できるメカニズムを,概念ベース\cite{hirose:02,kojima:02}と関連度計算法\cite{watabe:01}により構成し実現する方法が提案されている.また,この連想メカニズムを利用し,ある名詞から人間が想起する感覚を常識的に判断するシステム\cite{horiguchi:02,watabe:04}について提案されている.そこで本稿では,連想メカニズムを基に,人間が日常生活で使用する時間に関する表現を理解し,適切な判断を実現する方法について提案する.これまでにも,コンピュータに時間を理解させる方法が研究されている.\cite{allen:84}や\cite{mcdermott:82}の時間論理を基に,時間的な関係や因果関係などについての推論,プランニングなどが行われている.また,\cite{tamano:96}では,事象の時間的構造に関する記述形式について提案がなされている.\cite{mizobuchi:99}では,時間表現を意味解釈するために,意味解釈を時点,時点区間などの概念に分類し,これらの分類に対して時間表現に対応する形式表現が定義されている.さらに,形態素列からなる時間表現を形式表現に変換するアルゴリズムが提案されている.このように,これまでの研究は,時間表現の記述形式に着目したものであり,様々な時間表現をある定義に沿って変換し,整理するものである.本研究では,時間表現の変換ではなく,語句からある時間を表現する語を連想することを特徴としている.具体的には,日常的な時間表現に着目し,知識として持っていない未知の表現にも対応できる柔軟なメカニズムの構築を実現している.さらに体言と用言の組合せパターンを一切持たずに語句から時間を推測するなど,時間の観点から,少ない知識を如何に多様に使用するかが本研究の特徴である.
| |
V04N01-06
|
日本語文章における代名詞などの代用表現を含む名詞の指す対象が何であるかを把握することは,対話システムや高品質の機械翻訳システムを実現するために必要である.そこで,我々は用例,表層表現,主題・焦点などの情報を用いて名詞の指示対象を推定する研究を行なった.普通の名詞の指示対象の推定方法はすでに文献\cite{murata_noun_nlp}で述べた.本稿では指示詞・代名詞・ゼロ代名詞の指示対象の推定方法について説明する.代名詞などの指示対象を推定する研究として過去にさまざまなものがあるが\cite{Tanaka1}\cite{kameyama1}\cite{yamamura92_ieice}\cite{takada1}\cite{nakaiwa},これらの研究に対して本研究の新しさは主に次のようなものである.\begin{itemize}\item従来の研究では代名詞などの指示対象の推定の際に意味的制約として意味素性が用いられてきたが,本研究では対照実験を通じて用例を意味素性と同様に用いることができることを示す.一般に意味素性つきの格フレームの方が用例つきの格フレームよりも作成コストがかかるので,用例を意味素性と同様に用いることができることがわかるだけでも有益である.\item連体詞形態指示詞の推定には意味的制約として「AのB」の用例を用いる.\item「この」が代行指示になりにくいという性質を利用して解析を行なう.\item指示詞による後方照応を扱っている.\item物語文中の会話文章の話し手と聞き手を推定することで,その会話文章中の代名詞の指示対象を推定する.\end{itemize}論文の構成は以下の通りである.\ref{wakugumi}節では,本研究の指示対象を推定する枠組について説明する.次に,その枠組で用いる規則について,\ref{sec:sijisi_ana}節,\ref{sec:pro_ana}節,\ref{sec:zero_ana}節で指示詞,代名詞,ゼロ代名詞の順に説明する.\ref{sec:jikken}節では,これらの規則を実際に用いて行なった実験とその考察を述べる.\ref{sec:owari}節で本研究の結論を述べる.
| |
V20N02-07
|
\label{sec:introduction}文字による記述だけでなく,画像も付与された辞書は,教育分野\cite{Popescu:Millet:etc:2006}や言語\linebreak横断検索\cite{Hayashi:Bora:Nagata:2012j}での利用,子供や異なる言語の話者\cite{Suwa:Miyabe:Yoshino:2012j},文字の認識に困難を\linebreak伴うような人とのコミュニケーションを助けるツール\cite{Mihalcea:Leong:2008,Goldberg:Rosin:Zhu:Dyer:2009}の構築に使うことができるなど,様々な潜在的な可能性を持っている.そのため,本稿では,できるだけ広範な語義に対して画像が付与された辞書を構築することを第一目標とする.辞書やシソーラスに画像を付与する研究はこれまでにもいくつか存在する.特に,見出し語を含む検索語を用いて画像検索を行ない,インターネットから画像を獲得する研究は複数存在する.\PN\cite{PicNet}や\IN\cite{ImageNet}といったプロジェクトでは,\WN{}\cite{_Fellbaum:1998}のsynsetに対し,画像検索で獲得した候補画像の中から適切な画像を人手で選択して付与している.\PN{}や\IN{}では,近年発達してきたAmazonMechanicalTurkサービス\footnote{http://www.mturk.com/}を始めとする,データ作成を行なう参加者をインターネット上で募り,大量のデータに対して人手でタグを付与する仕組みを用いて大量の画像の収集とタグ付けを行なっている.これらの手法は,大量のデータを精度良く集めることができるため有望である.しかし,現在は対象synsetが限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\IN{}の場合,HP(http://www.image-net.org/)によると,2010年4月30日時点で,\WN{}の約100,000synsetsのうち,21,841synsetには画像が付与されているとしている.多義性に関する報告はない.}.また,\PN{}や\IN{}では,上位語や同義語にあたる語で検索語を拡張して用いているが,どのような語による拡張がより有効かといった調査は報告されていない.また,\IO{}\cite{Popescu:Millet:etc:2006,Popescu:Millet:etc:2007,Zinger:Millet:etc:2006}でも,\WN{}のsynsetに対してインターネットから獲得した画像を付与している.\IO{}では,不適切な画像を取り除くために,人の顔が含まれるかどうかによる自動的フィルタリングや,画素情報による分類などを用いている.この手法は,自動的に大量のデータを集めることができるため有望である.しかし,\PN{}や\IN{}と同様,現在は対象synsetが具体物などに限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\cite{Popescu:Millet:etc:2007}は実験対象を\WN{}の\textit{placental}配下の1,113synsetsに限定しており,多義性に関する報告はない.}.一方,語の多義性に着目し,多義のある語に対しても語義毎に適切な画像を付与する研究として,\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}や\cite{Fujii:Ishikawa:2005a}がある.\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}では,日本語\WN\footnote{http://nlpwww.nict.go.jp/wn-ja/}のsynsetに対し,OpenClipArtLibrary(\OCAL)\footnote{http://openclipart.org/}から獲得した画像を付与している.彼らは,\OCAL{}と\WN{}の階層構造を比較し,両方の上位階層で同じ語が出現する画像のみを候補として残すことで,多義性に対応している.さらに,候補の画像の中から各synsetの画像として適切な画像を人手で選択している.\OCAL{}は著作権フリーで再配布可能という利点があるが,含まれる画像が限られるため,画像を付与できる語義も限られている.\cite{Fujii:Ishikawa:2005a}では,インターネットから収集した画像を事典検索システム\CL\footnote{http://cyclone.cl.cs.titech.ac.jp/}における語義と対応付ける実験を行なっている.彼らは,辞書の見出し語を検索語として用い,インターネットから候補となる画像とそのリンク元テキストを収集し,テキストの曖昧性解消をおこなうことによって,画像の意味を推定している.これは,多義性に対応できる手法であるが,出現頻度の低い語義の画像収集は困難だという問題がある.なぜなら,見出し語のみを検索語としてインターネット検索を行なった場合,得られる画像のほとんどは,最も出現頻度の高い語義に関連する画像になるからである.例えば,「アーチ」という語には,“上部を弓の形にして支えやすくした建物.”や,“野球で,本塁打.”などの語義があるが,見出し語である「アーチ」を検索語とした場合に得られた画像のうち,上位500画像には後者の語義に対応する画像はない\footnote{Google画像検索の結果(2009年12月実施)}.本稿の第一目標は,できるだけ広範な語義に対して画像が付与された辞書を構築することである.本稿では,基本語データベース\lxd{}\cite{Amano:Kobayashi:2008j}の内容語(一般名詞,サ変名詞,動詞,形容詞類,副詞類)を対象に画像付与を試みる.幅広い語義に画像を付与するため,インターネットから画像検索によって画像を獲得する.また,多義性のある語にも語義毎に適切な画像を付与するため,語義毎に検索語セットを用意する.第二の目標は,画像検索を行なう時に重要な問題である検索語の設定方法についての知見を得ることである.本稿では,作業者が対象語義に画像が付与できるかどうかという判断を行なった後,用意した検索語セットの中から適切な検索語セットを選択・修正して画像検索に用いる.最終的に利用された検索語セットを分析することで知見を得たい.第三の目標は,提案する検索語セットの優先順位,特に,最も優先順位が高い検索語セットをデフォルトの検索語セットとして利用することの妥当性を示すことである.今後の作成・維持コストや,新しい辞書への適用を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.以降,\ref{sec:resource}章では画像付与の対象である\lxd{}について紹介する.\ref{sec:make-query}章では,まず,200語義を対象として行なった予備実験\cite{Fujita:Nagata:2010}を紹介する(\refsec{sec:pre-exp}).その結果を踏まえた上で,画像検索に用いる検索語セットの作成方法を紹介し(\refsec{sec:queryset}),検索語セットの優先順位の決定方法を提案する(\refsec{sec:query-order}).\ref{sec:all-lxd-exp}章では,作成した検索語セットを用いた画像獲得方法,および,評価方法について述べる.\ref{sec:ana-rand-best}章では,第三の目標である提案した優先順位の決定方法の妥当性を示す.\ref{sec:all-lxd-analysis}章では,第二の目標である最終的に利用された検索語に関する分析と,改良点の調査を行なう.ここまでの実験で,第一の目標である\lxd{}の広範な語義に対する画像付与を行ない,\ref{sec:ana-cannot}章では,構築した辞書を用いて画像付与可能/不可能な語義について,意味クラスや品詞などの特徴から分析を行なう.最後に,\ref{sec:conclusion}章で本稿の実験と分析をまとめる.
| |
V15N05-05
|
\label{hajime}共参照解析とは,ある表現が他の表現と同一の対象を指していることを同定する解析のことであり,計算機による自然言語の意味理解を目指す上で重要な技術である.本研究では,日本語文における,同一文章内の表現間の共参照である文章内共参照を解析の対象とする.文章内共参照では,ある表現(照応詞)が文章中の先行する表現(先行詞)と同一の対象を指している場合にそれを認識することが目的となる.共参照における照応詞としては,普通名詞,固有名詞,代名詞の3つが考えられる.英語などの言語では照応詞として代名詞が頻繁に使用されるが,日本語では代名詞の多くはゼロ代名詞として省略されるため,照応詞の多くは普通名詞,固有名詞が占めている.ゼロ代名詞の検出・解析(ゼロ照応解析)も,意味理解を目指すためには欠かすことのできない解析であり,多くの研究が行われている\cite{Seki2002,Kawahara2004a,Iida2006}.ゼロ照応解析は,先行する文中から先行詞を同定するという点では共参照解析と同じであるが,ゼロ代名詞の認識が必要である点,省略されているため照応詞自体に関する情報がない点で異なっており,より応用的なタスクであると言える.本研究では,高精度な照応解析システムを実現するためには,まず基礎的な照応解析である共参照解析の精度向上が重要であると考え,共参照解析の精度向上を目指す.共参照解析の手法としては大きく分けて,人手で作成した規則に基づく手法と,タグ付きコーパスを用いた機械学習に基づく手法がある.英語を対象とした共参照解析では,これらの2手法によりほぼ同程度の精度が得られている\cite{Soon2001,Ng2002a,Zhou2004}.一方,日本語の場合は規則に基づく手法で高い精度が得られる傾向がある\cite{Iida2003,Murata1996b}\footnote{これらの研究では使用しているコーパスが異なるため単純には比較できないものの,新聞記事を対象とした予備実験の結果,規則に基づく手法でより高い精度が得られた.}.日本語において規則に基づく手法で高い精度が得られるのは,普通名詞,固有名詞間の共参照関係が大部分であり,語彙的情報が非常に大きな役割を占めるため,機械学習によって得られる性向が,人手で作成した規則でも十分に反映できているためであると考えられる.そこで本研究では基本的に,人手で設定した規則に基づく共参照解析システムを構築する.照応詞が普通名詞,固有名詞となる場合,照応詞と先行詞の関係は大きく以下のように分類できる.\begin{enumerate}\item照応詞の表記が先行詞の表記に含まれているもの:Ex.大統領官邸=官邸\label{most1}\item同義表現による言い換え:Ex.北大西洋条約機構=NATO\label{most2}\itemその他(クラスとインスタンス,上位語と下位語など):Ex.1995年=前年\label{most3}\end{enumerate}このうち,\ref{most1}は基本的に照応詞が先行詞と一致する場合や,末尾に含まれている場合で,特別な知識がなくても認識が可能である.ただし,末尾が一致する場合すべてが共参照関係にあるわけではなく,精度の高い解析のためには照応詞,先行詞が指すものを解析する必要がある.例えば次のような2文があった場合,いずれの文にも「結果」という語が複数回出現するが,aではそれらが同一の内容を指しているのに対し,bでは異なる内容を指している.\exs{a.&2006FIFAワールドカップ優勝国予想アンケートを行った.\underline{結果}はブラジルがトップだった.アンケート\underline{結果}の詳細はWebで見られる.\label{kekka}\\&b.&先月行なわれた韓国との親善試合の\underline{結果}を受けアンケートを行った.アンケート\underline{結果}から以下のようなことが判明した.}\\これらの違いを正しく解析するためには,a中の「結果」はともに「アンケートの結果」を意味しているのに対し,b中の「結果」は順に「試合の結果」,「アンケートの結果」を意味していることを認識する必要がある.そこで本研究では,係り受け解析,および,自動構築した名詞格フレームに基づく橋渡し指示(bridgingreference)解析により名詞句の関係を解析し,その結果を共参照解析の手掛りとして用いる.2は「北大西洋条約機構」と「NATO」のように,同義表現を用いた言い換えとなっている場合である.同義表現を用いた言い換えとなっている場合,人間が同一性を理解する場合も,事前の知識がないと困難な場合も多い.そこで,同義表現に関する知識を事前にコーパスや国語辞典から自動的に獲得し,獲得した同義表現知識を共参照解析に使用する.\ref{most3}については,シソーラスを用いたり,文脈的な手がかりを用いることによって解決できる場合があると考えられるが,本研究では解析を行なわず,今後の課題とする.
| |
V08N04-04
|
\label{sec:intro}英語と日本語は,英語が名詞文体であり日本語が動詞文体であると言われるように,言語的特徴が著しく異なる言語である.このため,英語の名詞句をそのまま日本語の名詞句に直訳すると,違和感を感じることが少なくない.例えば,文(E\ref{SENT:buying})を実用に供されているある英日機械翻訳システムで処理すると,文(J\ref{SENT:buying})のような翻訳が出力される.\begin{SENT}\sentETheBOJ'sbuyingofnewgovernmentbondsisbannedunderfiscallaw.\sentJ新しい国債のBOJの購入は,会計法の下で禁止される.\label{SENT:buying}\end{SENT}文(E\ref{SENT:buying})において名詞句``TheBOJ'sbuyingofnewgovernmentbonds''が伝える命題的な内容は,「BOJが新しい国債を購入すること」であるが,日本語の名詞句「新しい国債のBOJの購入」をこの意味に理解することは,訳文を注意深く読まなければ難しい.このような問題を解決するためには,英語と日本語の言語的特徴の違いを考慮に入れ,日本語として自然な表現が得られる処理を実現することが重要となる.しかしながら,従来の機械翻訳研究では,主に原文解析の正しさに焦点が当てられており\cite{Narita00},訳文の自然さについてはあまり議論されてこなかった\cite{Yoshimura95,Yamamoto99}.訳文の自然さに関する研究としては,文献\cite{Nagao85,Somers88,Matsuo95}などがある.これらの文献に示されている方法では,直訳すると日本語として不自然になる英語の名詞句を適切に翻訳するための処理が原言語から目的言語への変換過程で行なわれる.ところで,人間による翻訳では,文が表わす命題内容を含む名詞句を日本語に直訳した場合の違和感を解消するために,英語の名詞句を日本語に翻訳する前に,文またはそれに近い形式に言い換えるという処置がとられることがある\cite{Nida73,Anzai83}.本研究では,人間のこの翻訳技法を機械的に模倣し,このような名詞句を前編集の段階で文に近い形式に自動的に書き換えることによって自然な訳文を生成することを試みる.日本語として自然な表現を得るための処理を変換過程で行なう方法に比べて,前編集の段階で行なう方法の利点は,前編集系は特定のシステムの内部に組み込まれていないため,システムへの依存性が低く,実践上の適用範囲が広いことである.実際,対象名詞句が現れる英文を提案手法によって書き換えて既存システムで翻訳し,元の英文の翻訳と比較する実験を行なったところ,我々のシステムだけでなく,市販されている他のシステムにおいても,より自然な翻訳が得られることが確認された.このことは,提案手法が様々なシステムの前編集系として利用可能であることを示している.
| |
V32N01-05
|
大規模言語モデルの生成の質は近年著しく向上し,人間によるものと区別のつかない文章の生成が可能となっている\cite{devlin-etal-2019-bert,brown2020language,touvron2023llama}.一方で,事実と異なる誤りを含む内容も自然な文章として生成してしまう問題が顕在化し\cite{huang2023survey},誤情報の拡散や意思決定への影響といったリスクが増している.言語モデルによる誤情報生成への対策の一つに,モデルが生成した内容に対する確信度推定がある.確信度スコアが高いほど実際に生成内容が正しい確率が高くなるような確信度指標を設計することで,ユーザが出力を信頼するかの判断材料としたり,アプリケーションにおける生成内容の出力制御に用いるというものである.確信度指標としては,単に出力トークンに対する予測尤度を用いるのが素朴な方法であるが,予測尤度と生成内容の正確性は必ずしも対応しない.そのため,生成時に利用可能な他の情報を用いることで,生成内容の正確性をより精度良く推定できる指標が研究されている.生成時に確信度推定に利用できる情報はユーザ,開発者といった立場やモデルの公開レベルによって異なる.モデルの出力テキストのみを参照可能なブラックボックス条件下では,確信度を示す表現を出力テキストに含めさせる\cite{mielke-etal-2022-reducing},複数の生成間の一貫性を見る\cite{manakul-etal-2023-selfcheckgpt}などの方法がある.モデルの内部状態を参照可能な設定では,テキストの埋め込み表現や注意機構の値などを用いる方法や\cite{ren2023outofdistribution,li2023inferencetime},少量の訓練データを用い,学習に基づいて確信度スコアが実際の正答率に近づくよう調整する方法がある\cite{mielke-etal-2022-reducing}.一方,これらの既存研究では,言語モデルの訓練データの利用は想定されていない.これは,大規模言語モデルの多くがAPIアクセスやモデルパラメータの公開のみに留まっており,訓練データそのものにアクセスできるケースが少ない現状を反映していると考えられる.しかしながら,著作権や透明性担保の観点から言語モデルの訓練に使われたデータの開示への要請は高まりつつあり,訓練に用いられたコーパスを検索できる仕組みが提供される例も現れている\cite{piktus2023roots}.また,テキスト生成の質改善においては訓練データの利用が有用であることが既に知られている\cite{Khandelwal-etal-2020-knnlm}.以上のような背景から,本研究では言語モデルの訓練データにアクセス可能な状況を想定し,確信度指標の改善に訓練データの利用が有用であるかを検討する.具体的には,言語モデルの出力に関連のある訓練データ中の事例に基づきモデル出力の確信度を計算する複数の確信度指標を設計し,言語モデルの知識評価ベンチマークであるLAMA(Petronietal.2019)を用いて評価した.関連事例の検索には,訓練データを文脈表現および文分散表現に基づき検索可能なデータストアを構築して用いる方法と,文中のエンティティに基づくテキスト一致検索とを比較検討した.言語モデルとしては,データストアが数TB規模に相当する訓練データで学習可能な中規模モデルのうち,LAMAベンチマークで高い性能を示すBERTモデル\cite{devlin-etal-2019-bert}を使用し,英語Wikipediaを訓練データとして事前学習を行った.なお,本研究において外部の知識源ではなくモデルの訓練データを用いるのは,確信度推定の主目的が,言語モデルが学習した知識に基づいて正確に出力を行えているかを判定することにあるためである.外部の情報源を参照して,言語モデルの知識の範囲外の事柄について真偽を判定することは,本研究の直接的な目的ではない点に注意する.実験から,言語モデルの予測尤度と訓練データ中の関連事例の情報を組み合わせて用いることで,訓練データを用いない場合と比較して確信度指標の性能が向上することを確認した.このことから,モデル出力の確信度推定の観点からも,言語モデル学習に用いた訓練データへのアクセスは有用であることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
| |
V31N02-13
|
自然言語処理の分野では古くから機械翻訳の研究が盛んに行われており,これまで様々な機械翻訳手法が提案されている.近年では,翻訳性能の高さから,ニューラルネットワークに基づく機械翻訳(NeuralMachineTranslation:NMT)が主流になっている.NMTの性能改善を行う研究の流れの一つとして,原言語文や目的言語文中の単語の品詞や文構造などの言語学的素性を活用する試みが行われている.その中で,言語学的素性として,人名や地名,組織名といった特定の表現を表す固有表現(NamedEntity:NE)に着目し,NMTにおいてNE情報を活用する研究が行われている\cite{tag,embed1,replace,embed2,embed3}.NEには複合語が多く存在するため,NEの情報をNMTに与えることで単語のチャンク情報を翻訳に活用できる.また,NEの種類の情報は,多義語を翻訳する際の語義曖昧性解消に役立つことが報告されている\cite{embed1}.NE情報を活用する代表的な方法として,NEの種類と開始/終了情報を含むNEタグを文中のNEの前後に挿入する「タグ付けモデル」\cite{tag}や,NE埋め込みを単語埋め込みに組み込む「埋め込みモデル」\cite{embed1}が提案されている.NE情報を活用するNMTの初期の研究では原言語文中のNEのみが活用されていたが,近年では,原言語文中のNEに加えて目的言語文中のNEの情報も活用することで翻訳性能が改善されており,埋め込みモデルにおいても目的言語文のNE情報が有効であることが報告されている\cite{embed3}.しかし,タグ付けモデルではこれまで目的言語文のNEは活用されていない.そこで本研究では,原言語文のNE情報に加えて目的言語文のNE情報も活用するタグ付けモデルを提案する.提案のタグ付けモデルの概要を図\ref{fig:tag-model}に示す.図\ref{fig:tag-model}のように,提案モデルでは,NEの種類と開始/終了情報を含むNEタグをNEの前後に挿入した原言語文と目的言語文に基づいて翻訳を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-2ia12f1.pdf}\end{center}\caption{提案タグ付けモデルの概要図}\label{fig:tag-model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,機械学習の分野では,推論時に複数のモデルの出力を統合するアンサンブル\cite{Hansen}により性能改善が行われており,機械翻訳においてもアンサンブルの有効性が示されている.例えば,\citeA{ensemble}では,原言語側のNE情報を活用する3つの埋め込みモデル(単語埋め込みとNE埋め込みを加算するモデル,単語埋め込みとNE埋め込みを結合するモデル,ドキュメント単位で翻訳を行うモデル)をアンサンブルするモデルを提案し,翻訳性能を改善している.そこで本研究では,提案のタグ付けモデルの性能を改善させるため,提案タグ付けモデルと埋め込みモデルのアンサンブルにより翻訳を行うNMTモデルも提案する.提案のアンサンブルモデルの概要を図\ref{fig:ensemble-model}に示す.提案アンサンブルモデルではタグ付けモデル及び埋め込みモデルを独立に学習する.そして推論時に,図\ref{fig:ensemble-model}のように,学習した二つのモデルによる出力確率を平均した確率に基づき目的言語文を生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-2ia12f2.pdf}\end{center}\caption{提案アンサンブルモデルの概要図}\label{fig:ensemble-model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%WMT2014の英語とドイツ語間の翻訳タスク\cite{wmt2014}及びWMT2020の英語と日本語間の翻訳タスク\cite{wmt2020}において提案モデルを評価した結果,日英翻訳を除き,提案タグ付けモデルの翻訳性能が従来タグ付けモデルの翻訳性能を上回り,タグ付けモデルにおいて目的言語文のNE情報を活用することで翻訳性能が改善することを確認した.また,全ての言語対において,埋め込みモデルとアンサンブルすることで提案タグ付けモデルの翻訳性能が向上し,提案アンサンブルモデルは従来タグ付けモデルと比較して,英独翻訳では最大0.76ポイント,独英翻訳では最大1.59ポイント,英日翻訳では最大0.96ポイント,日英翻訳では最大0.65ポイントBLEUが上回ることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V29N03-04
|
\label{sec:introduction}\textbf{意志性(volitionality)}はイベントの基本的な属性であり,イベントに何者かの意志的な関与があるかどうかを表す.本研究では特にイベントの主語が表すエンティティがイベントに意志的に関与しているか否かに着目する.例えば,主語のエンティティの観点から見て,「食べる」や「書く」といったイベントはふつう意志的(volitional)であり,「泣く」や「怪我をする」,「怒られる」といったイベントは非意志的(non-volitional)である.イベントの意志性分類は,因果関係知識の類型化\cite{lee-jun-2008-constructing,inui2003kinds,abe-etal-2008-acquiring,abe-etal-2008-two}に用いられてきたほか,条件付きイベント予測\cite{du-etal-2019-modeling},スクリプト抽出\cite{chambers-jurafsky-2008-unsupervised},顧客フィードバック分析\cite{liu-etal-2017-ijcnlp}などへの応用がある.一方,有生性(animacy)は名詞の属性であり,名詞が表すエンティティに人間のような意志的な行為が可能かどうかを表す.本研究ではイベントの主語が表すエンティティがイベントに意志的に関与しているか否かに着目するため,イベントの主語が有生名詞であることはイベントが意志的であることの必要条件となる.この密接な関係に着目し,本研究では\textbf{主語有生性}というイベントの属性を考える.意志性の学習では主語有生性の同時学習が助けになると期待される.意志性を認識する難しさは,言語資源の不足と文脈理解が必要なことにある.意志性は多くの場合,イベントの述語によって同定できる.冒頭の「食べる」や「泣く」などがそうである.しかし,意志的(あるいは非意志的)な行為を表す述語を網羅したリストは存在しない.また,たとえそうした言語資源があったとしても,述語だけではなく,その文脈も考慮しなければ意志性を同定できない場合が存在する.例えば,例~\ref{ex:shawa-o-abiru}と例~\ref{ex:hinan-o-abiru}の述語はどちらも同じ「浴びる」であるが,前者は意志的,後者は非意志的である\footnote{意志的なイベントの例は「V(volitionalの略)」,非意志的なイベントの例は「NV(non-volitionalの略)」を付記して示す.}.\ex.\a.\label{ex:shawa-o-abiru}シャワーを浴びる.$_\text{{(V)}}$\b.\label{ex:hinan-o-abiru}非難を浴びる.$_\text{{(NV)}}$また,例~\ref{ex:iki-o-suru}は非意志的であるが,例~\ref{ex:fukaku-iki-o-suru}は「深く」という副詞を伴うことで意志的となる.\ex.\a.\label{ex:iki-o-suru}息をする.$_\text{{(NV)}}$\b.\label{ex:fukaku-iki-o-suru}深く息をする.$_\text{{(V)}}$文脈理解の問題は言語資源の整備によって解決するのは困難である.あらゆる文脈―述語の項,項への連体修飾,述語への修飾(副詞句)の組み合わせ―に対して意志性のラベルをアノテーションすることは非現実的だからである.この問題に対する有望な解決策は,イベントを構成する語句の意味とそれらの関係性を柔軟に捉えて意志性を認識する分類器を構築することである.そうした柔軟な分類器は深層学習モデルを訓練することで得られると期待されるが,その訓練には通常,大量のラベル付きデータが必要となる.主語有生性の認識についても,意志性の認識と同様の難しさがある.まず,言語資源の不足の問題がある.主語有生性は,たいていの場合,主語の名詞が通常有生名詞(animatenoun)か無生名詞(inanimatenoun)かによって同定できる.有生名詞・無生名詞はConceptNet\cite{10.5555/3298023.3298212}などの知識ベースから一定量のリストが得られるが,網羅的とは言い難い.また,主語有生性の認識においても文脈理解が必要となる場合がある.例えば,例~\ref{ex:shirobai-ga-tometearu}の主語「白バイ」は通常無生名詞であるが,例~\ref{ex:shirobai-ga-oikaketekuru}の主語「白バイ」は警察官の換喩であり,この文脈においては有生名詞である\footnote{主語が有生名詞であるイベントの例は「A(animateの略)」,主語が無生名詞であるイベントの例は「IA(inanimateの略)」を付記して示す.}.\ex.\a.\label{ex:shirobai-ga-tometearu}白バイが停まっている.$_\text{{(IA)}}$\b.\label{ex:shirobai-ga-oikaketekuru}白バイが追いかけてくる.$_\text{{(A)}}$こうした現象に対処するには,やはり柔軟な文脈理解が可能な分類器を構築するのが有望であり,その訓練には大量のラベル付きデータが必要となる.本研究では,イベントの意志性と主語有生性を同時学習する弱教師あり学習手法を提案する.提案手法の概要を図~\ref{fig:overview}に示す.提案手法ではまず,ヒューリスティクスを用いて生コーパス中のイベントにラベルを付与する.意志性のラベルは「わざと」などの意志的な行為を表す副詞(意志的副詞)と「うっかり」などの非意志的な行為を表す副詞(非意志的副詞)を手がかりに付与する.例えば,例~\ref{ex:aete-shijitsu-o-hanasu}は意志的副詞「あえて」が述語に係っているため,意志的であるとみなす.例~\ref{ex:ukkari-keitai-o-otosu}は,非意志的副詞「うっかり」が述語に係っているため,非意志的であるとみなす.\ex.\label{ex:aete-shijitsu-o-hanasu}あえて真実を話す.$_\text{(V)}$\ex.\label{ex:ukkari-keitai-o-otosu}うっかり携帯を落とす.$_\text{(NV)}$主語有生性のラベルは既存の言語資源に登録されている有生名詞・無生名詞を手がかりに付与する.生コーパスの量は際限なく増やすことが可能であるため,この方法で大量のラベル付きデータを低コストで収集することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-3ia3f1.pdf}\end{center}\hangcaption{提案手法の概要.生コーパス中のイベントにヒューリスティクスを用いて意志性・主語有生性のラベルを付与し,意志性・主語有生性それぞれのラベル付きデータセット($\mathcal{D}^l_\text{vol}$・$\mathcal{D}^l_\text{ani}$)とラベルなしデータセット($\mathcal{D}^u_\text{vol}$・$\mathcal{D}^u_\text{ani}$)を得る.その上で,意志性と主語有生性の分類を同時学習する.その際,手がかり語だけに着目した分類に陥ることを防ぐための正則化を導入する.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%例~\ref{ex:aete-shijitsu-o-hanasu},例~\ref{ex:ukkari-keitai-o-otosu}が示唆するように,意志的副詞・非意志的副詞を除いたとしても,多くの場合,イベントの意志性は保持される.これは主語有生性に関しても同様である.しかし,そうでない場合もある.例えば,例~\ref{ex:wazato-kokeru}は意志的であるが,そこから「あえて」を除いた例~\ref{ex:kokeru}は非意志的である.\ex.\a.\label{ex:wazato-kokeru}あえてこける.$_\text{(V)}$\b.\label{ex:kokeru}こける.$_\text{(NV)}$このように,意志的副詞と共起するイベントが必ずしも意志的なイベントであるとは限らない.主語有生性に関してもこうした例が存在する.例えば,例~\ref{ex:shogekiga-hashiru}の主語である「衝撃」は無生名詞であるが,「衝撃」を除いた例~\ref{ex:hashiru}の主語は有生名詞として捉えるのが妥当である.\ex.\a.\label{ex:shogekiga-hashiru}衝撃が走る.$_\text{(IA)}$\b.\label{ex:hashiru}走る.$_\text{(A)}$手がかり語を常に含むラベル付きデータから,手がかり語を含まないラベルなしイベントに汎化する分類器を得るには,原則として手がかり語に頼らず,それと共起するテキストからラベルを予測することを学習しつつ,手がかり語を除くことでラベルが変化する例に関しては,手がかり語と共起するテキストからラベルを予測することを学習しないことが重要である.本研究では,分類器を学習する際にラベル付けの手がかり語だけに着目して分類することを抑制する正則化を導入することで前者の原則を学習しつつ,汎用言語モデル\cite{devlin-etal-2019-bert}が作り出すイベントの汎化ベクトル表現の上で分類器を構築することで,予測のために手がかり語に着目せざるを得ないケースがデータから学習されることを期待する.本研究は,手がかり語に着目した分類を抑制する問題をバイアス削減あるいは教師なしドメイン適応の問題と捉え,その手法を活用する.バイアス削減はデータセット中に存在する特定のバイアスが予測に濫用されることを防ぐ手法である\cite{NIPS2016_a486cd07,zhao-etal-2017-men,zhao-etal-2019-gender,kennedy-etal-2020-contextualizing}.本研究ではヘイトスピーチ認識器の学習において利用されているバイアス削減手法を転用する\cite{kennedy-etal-2020-contextualizing,Jin2020Towards}.ここで提案されているバイアス削減手法は,分類器が「gay」といったヘイトスピーチに特徴的な単語(バイアス)だけに着目した分類に陥ることを抑制し,文脈を考慮した分類を促すものである.本研究では,ラベル付けに用いる手がかり語をバイアスとみなして,単純なバイアス削減手法であるwordremoval(WR),より高度なバイアス削減手法で有効性が知られているsamplingandocclusion(SOC)の2つを利用する.教師なしドメイン適応は,ソースドメインのラベル付きデータとターゲットドメインのラベルなしデータを用いて,ターゲットドメインに汎化するモデルを構築する手法である.本研究の設定は,手がかり語を含むラベル付きデータをソースドメインのデータ,手がかり語を含まないラベルなしデータをターゲットドメインのデータとみなすことで,教師なしドメイン適応の問題として定式化できる.本研究では,深層学習モデルを利用したテキスト分類器の学習において有効性が確認されている教師なしドメイン適応手法adversarialdomainadaptation(ADA)を利用する\cite{JMLR:v17:15-239,pmlr-v37-ganin15,shah-etal-2018-adversarial,Shen_Qu_Zhang_Yu_2018}.ADAでは,ラベル付きデータのもとで分類を学習しつつ,敵対的学習の枠組みで,ラベル付きデータとラベルなしデータが判別できなくなるようにイベントのベクトル表現を学習する.この学習により,ラベル付きデータにだけ現れる手がかり語になるべく頼らない分類が学習されると期待される.提案手法の有効性を確認するため,日本語と英語で実験を行った.分類器の性能を評価するため,各言語についてクラウドソーシングで評価データを新たに構築した.実験を通して,提案手法により,人手でラベル付きデータを構築することなく,イベントの意志性・主語有生性の高精度な分類器を構築できることを示した\footnote{本研究で構築した評価データおよびモデルの実装は公開予定である.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V03N04-04
|
\label{sec:はじめに}照応や省略の問題は,言語学および言語工学の問題として広く研究されている.特に,日本語では,主語が省略される場合が多く,一方,英語では主語が必須であるため,日英機械翻訳において,省略された主語(ゼロ主語)の照応先を同定し,補完することが問題となる.主語を補完せず,受動文に翻訳することも考えられるが,受動文よりは能動文のままの方が望ましい.また,日英機械翻訳の別の問題として,文が長すぎるという問題がある.長い文は,翻訳に失敗することが多く,人手による前処理でも,長文の分割は大きな部分を占めている.この問題に対処する手段として,長文を複数の短文に自動的に分割する自動短文分割がある.しかし,分割された短文には,主語が含まれないことが多く,ここでもゼロ主語の補完の問題が発生する.このような背景の下で,筆者らは,自動短文分割を利用した放送ニュース文の日英機械翻訳システムの中で,ゼロ主語の補完の問題を研究している.その基本的な考え方は確率モデルを用いるものである.ここで述べるゼロ主語の補完の問題は,従来から行われてきた,ゼロ主語の補完の問題とは,完全には一致していない.つまり,従来手法は,初めから異なる文の間で発生するゼロ主語を取り扱っており,ここでの問題は,短文分割によって人工的に生ずるゼロ主語を扱うものである\footnote{例えば,従来手法は,「太郎は食べようとした」「しかし食べられなかった」のように2文からなる表現に対して,後方の文のゼロ主語を考察するものが多い.しかし,ここでは,「太郎は食べようとしたが,食べられなかった」のように元は1文から成る文を2文に自動的に分割した後の表現を扱うので,従来手法の考察範囲とはずれがある.そこで,本稿の手法が従来の問題にそのまま適用できることはない.}.しかし,共通する部分も多いので,まず従来手法に検討を加える.ゼロ主語の補完に対する従来のアプローチは大きく3種類に分類できる.第1の方法は,「焦点」,「Centering」など,言語学における談話理論から得られる知見を利用するものである\cite{Yoshimoto88,Nakagawa92,Nomoto93,Walker94,Takada95,清水95}.この方法は,理論的な基礎づけがあるものの,比較的単純な文が対象であり,放送ニュース文のような複雑な文に適用した例は見あたらない.ニュース文に対するゼロ主語の補完には,従来の談話理論から得られる情報だけでなく,意味的なものなどさまざまな情報を広く考慮する必要がある.第2の方法は,待遇表現など主として文末に現われる情報を利用するものである\cite{Yoshimoto88,堂坂89,鈴木92}.しかし,本方法は対話文には有効であるものの,ニュース文には不適当である.第3の方法は,ゼロ主語のまわりの文脈から得られた各種情報をヒューリスティック規則にまとめるものである\cite{Carbonell88,村田95}.この方法は,確率モデルによる方法と同様,様々な情報が利用できる利点があるが,ヒューリスティック規則の作成や規則適用の優先度の付与を人手で行っており,恣意性がある.これらの従来手法に対して,確率モデルによる方法は,以下のような特徴を持つ.\begin{itemize}\itemゼロ主語の補完に有効な様々な情報を統一的に取り扱うことができる.\itemいったん学習データを作成した後は,自動的にモデルが構築できるので客観的であり,恣意性がない.\item確率モデルは言語工学のみでなく,多くの分野で利用されており,そこで得られた理論的知見や適用事例が利用できる.\end{itemize}確率モデルを用いたゼロ主語補完の方法としては,従来,多次元正規分布が用いられていた\cite{金94}.本稿では,これをいくつかの分布に拡張する.そして,それらの分布を用いたモデルについて,主語補完の精度を評価するとともに,誤った事例について考察を加え今後の課題を明らかにする.以下,\ref{sec:主語補完の方法}章では,主語補完の基本的な手順の説明を行う.\ref{sec:確率モデル}章では,本稿で考察する4種の確率モデルについて述べる.\ref{sec:補完実験}章では,ゼロ主語の補完実験の方法と結果について述べ,誤事例について考察する.
| |
V10N05-03
|
\thispagestyle{empty}計算機の高性能化や記憶容量の大容量化および低価格化にともない,情報のマルチメディア化が急速に進行しており,このような背景のもと,マルチメディア・コンテンツに対する情報検索技術の必要性がますます大きくなってきている.マルチメディア・コンテンツ検索では,マルチメディア情報そのものから得られる特徴量に基づき類似検索を行なうという内容型検索(content-basedretrieval)が近年の主流であるが,多くの場合,複数の特徴量を多次元ベクトルで表現し,ベクトル間の距離によりコンテンツ間の類似性を判定している.たとえば,文書検索の場合には,索引語の重みベクトルで文書や検索質問を表現することができるし\cite{Salton75,Sasaki01},画像の類似検索の場合には,カラーヒストグラム,テクスチャ特徴量,形状特徴量などから成る特徴量ベクトルにより画像コンテンツを表現する\cite{Flickner95,Pentland96}.特徴量ベクトルに基づくコンテンツの類似検索は,検索質問として与えられたベクトルと距離的に近いコンテンツ・データベース中のベクトルを見つけるという最近傍検索(nearestneighborsearch)の問題に帰着することができる.データベース中のベクトルと逐次的に比較する線形探索では,データベースの規模に比例した計算量が必要となるため,データベースが大規模化した際の検索システムの処理効率に深刻な影響を及ぼすことになる.したがって,最近傍検索を効率的に行なうための多次元インデキシング技術の開発が重要な課題として,従来より活発に研究されてきた\cite{Katayama01,Gaede98}.ユークリッド空間における多次元インデキシング手法には,R-tree\cite{Guttman84},SS-tree\cite{White96},SR-tree\cite{Katayama97}などが提案されており,また,より一般の距離空間を対象にしたインデキシング手法としては,VP-tree\cite{Yianilos93},MVP-tree\cite{Bozkaya99},M-tree\cite{Ciaccia97}などが提案されている.これらのインデキシング手法は,多次元空間を階層的に分割することにより,探索範囲を限定することを基本としている.しかし,高次元空間では,ある点の最近点と最遠点との間に距離的な差が生じなくなるという現象が起こるため\cite{Aggarwal01,Beyer99},探索する領域を限定することができず,線形探索に近い計算量が必要になってしまうという問題点がある.高次元空間における上記の問題点に対処するために,近似的な最近傍検索についても研究が進められている.たとえば,ハッシュ法に基づく近似検索手法\cite{Gionis99}や空間充填曲線(space-fillingcurve)を用いて高次元空間の点を索引付けする手法\cite{Liao00,Shepherd99}などが提案されている.我々は,現在,テキストと画像のクロスメディア情報検索に関する研究の一環として,類似画像検索システムを開発しているが\cite{Koizumi02a,Koizumi02b},クロスメディア情報検索では,ユーザとのインタラクションを通じて所望の検索結果を得ることが多々あるため,特徴量ベクトルに基づく最近傍検索の実行回数が必然的に多くなってしまう.このような場合,完全な最近傍検索は必要ではなく,むしろ高速な近似的最近傍検索のほうが望ましい.本稿では,1次元自己組織化マップを用いた,高速な近似的最近傍検索の手法を提案し,提案した手法の有効性を類似画像検索と文書検索という2種類の実験により評価する.最近傍検索を行なう際の一番のボトルネックは,2次記憶上のデータへのアクセスであるが,提案する手法は,次元数がきわめて多い場合でも効率的にディスク・アクセスを行なうことができるという利点を持っている.
| |
V10N01-02
|
自動用語抽出は専門分野のコーパスから専門用語を自動的に抽出する技術として位置付けられる.従来,専門用語の抽出は専門家の人手によらねばならず,大変な人手と時間がかかるためup-to-dateな用語辞書が作れないという問題があった.それを自動化することは意義深いことである.専門用語の多くは複合語,とりわけ複合名詞であることが多い.よって,本論文では名詞(単名詞と複合名詞)を対象として専門用語抽出について検討する.筆者らが専門分野の技術マニュアル文書を解析した経験では多数を占める複合名詞の専門用語は少数の基本的かつこれ以上分割不可能な名詞(これを以後,単名詞と呼ぶ)を組み合わせて形成されている.この状況では当然,複合名詞とその要素である単名詞の関係に着目することになる.専門用語のもうひとつの重要な性質として\cite{KageuraUmino96}によれば,ターム性があげられる.ターム性とは,ある言語的単位の持つ分野固有の概念への関連性の強さである.当然,ターム性は専門文書を書いた専門家の概念に直結していると考えられる.したがって,ターム性をできるだけ直接的に反映する用語抽出法が望まれる.これらの状況を考慮すると,以下のような理由により複合名詞の構造はターム性と深く関係してくることが分かる.第一に,ターム性は通常tf$\times$idfのような統計量で近似されるが,tf$\times$idfといえども表層表現のコーパスでの現われ方を利用した近似表現に過ぎない.やはり書き手の持っている概念を直接には表していない.第二に,単名詞Nが対象分野の重要な概念を表しているなら,書き手はNを頻繁に単独で使うのみならず,新規な概念を表す表現としてNを含む複合名詞を作りだすことも多い.このような理由により,複合名詞と単名詞の関係を利用する用語抽出法の検討が重要であることが理解できる.この方向での初期の研究に\cite{Enguehard95}があり,英語,フランス語のコーパスから用語抽出を試みているが,テストコレクションを用いた精密な評価は報告されていない.中川ら\cite{NakagawaMori98}は,この関係についてのより形式的な扱いを試みている.そこでは,単名詞の前あるいは後に連接して複合名詞を形成する単名詞の種類数を使った複合名詞の重要度スコア付けを提案していた.この考え方自体は\cite{Fung95}が非並行2言語コーパスから対訳を抽出するとき用いたcontextheterogeneityにも共通する.その後,中川らはこのスコア付け方法による用語抽出システムによってNTCIR1のTMREC(用語抽出)タスクに参加し良好な結果を出している.彼らの方法はある単名詞に連接して複合名詞を構成する単名詞の統計的分布を利用する方法の一実現例である.しかし,彼らの方法では頻度情報を利用していない.上記のように複合名詞とそれを構成する単名詞の関係がターム性を捉えるときに重要な要因であるとしても,\cite{NakagawaMori98}が焦点を当てた単名詞に連接する単名詞の種類数だけではなく,彼らが無視したある単名詞に連接する単名詞の頻度の点からも用語抽出の性能を解析してみる必要があると考える.本論文ではこの点を中心に論じ,また複合名詞が独立に,すなわち他の複合名詞の一部としてではない形で,出現する場合の頻度も考慮した場合の用語抽出について論ずる.さらに,有力な用語抽出法であるC-valueによる方法\cite{FrantziAnaniadou96}や語頻度(tf)に基づく方法との比較を通じて,提案する方法により抽出される用語の性質などを調べる.以下,2節では用語抽出技術の背景,3節では単名詞の連接統計情報を一般化した枠組,4節ではNTCIR1TMRECのテストコレクションを用いての実験と評価について述べる.
| |
V12N06-02
|
自由に閲覧することができる電子化文書の数が膨大になるにつれ,その中からユーザが必要とする情報を効率的に探し出すことが困難になってきている.このため,ユーザからの質問に対して明確な回答を自動的に提示する質問応答(QA)技術が注目されている.質問応答に用いる知識を人工言語で記述したUC\cite{thesis:wilensky84}などの質問応答システムでは,十分な記述力をもつ人工言語の設計のむずかしさ,知識ベースの高い作成コストといった問題があった.そこで,大量の電子化文書が利用可能になった1990年代からは,自然言語で記述された文書を質問応答システムの知識として利用しようとする研究が行われている\cite{proc:hammond95}.近年では,TREC\cite{web:TREC}やNTCIR\cite{web:NTCIR}といった評価型ワークショップも行われ,新聞記事やWWW文書などを知識として用いる質問応答システムの研究もさかんである.しかし,これらの研究の多くは事実を問う質問(what型の質問)を対象としていて,方法や対処法を問う質問(how型の質問)を扱うものは\cite{proc:higasa99}\cite{proc:kiyota02}などまだ少ない.これは,事実を問う質問に答えるための知識に比べ,方法や対処法を問う質問に答えるための知識(「こんな場合にはこうする」など)を獲得することがむずかしいからである.日笠らや清田らは,方法や対処法を問う質問に答えるための知識としてFAQ文書やサポート文書が利用できることを示した\cite{proc:higasa99}\cite{proc:kiyota02}.しかしこれらの研究では,FAQ文書やサポート文書がもつ文書構造を利用することを前提としていた.FAQ文書やサポート文書以外の,より多くの文書を知識として利用するためには,文書構造以外の手がかりを利用する方法について研究しなければならない.そこで本研究では最初に,方法や対処法を問う質問(how型の質問)に質問応答システムが答えるための知識を,メーリングリストに投稿されたメールからその質問や説明の中心になる文(重要文)を取り出すことによって獲得する方法について述べる.次に,メーリングリストに投稿されたメールから獲得した知識を用いる質問応答システムについて報告する.作成したシステムは自然な文で表現されたユーザの質問を受けつけ,その構文的な構造と単語の重要度を手がかりに質問文とメールから取り出した重要文とを照合してユーザの質問に答える.最後に,作成したシステムの回答と全文検索システムの検索結果を比較し,メーリングリストに投稿されたメールから方法や対処法を問う質問に答えるための知識を獲得できることを示す.
| |
V14N05-02
|
我々人間は,日常生活において様々な会話の中から必要に応じて情報を取捨選択している.さらに,会話の流れに即して語の意味を適宜解釈し,適切な応答を行っている.人間は語の情報から適切な応答を行うために,様々な連想を行っている\cite{yoshimura2006}.例えば,「車」という語から「タイヤ」,「エンジン」,「事故」,…,といった語を自然に連想する.連想によって,会話の内容を柔軟に拡大させている.このように,柔軟な会話ができる背景には,語の意味や,語と語の関係についての膨大な知識を有しているため,種々の知識から語と語の関連性を判断し,新たな語を連想することができることが挙げられる.実生活における会話では,「車と自動車」,「自動車と自転車」のように,同義性や類似性の高い語と語の関係のみならず,「車と運転」,「赤ちゃんと玩具」,「雨と傘」のように,広い意味での語と語の関連性の評価が必要となる場合が多い.人間とコンピュータ,あるいはコンピュータ同士の会話においても,人間のような柔軟で常識的な応答を行うためには連想機能が重要となる.そのためには,コンピュータに語と語に関する知識を付与し,同義性や類義性のみならず,多様な観点において語と語の関連の強さを定量的に評価する手法が必要となる.これまで,コンピュータにおける会話処理の重要な要素の一つとして,語と語の類似度に関する研究がなされてきた.類似度の研究では,シソーラスなどの知識を用いて,語と語が意味的にどの程度似ているかを評価することを目的としている\cite{kasahara1997}.そのため,会話において未知の語が出現した場合には,既知の知識との類似度を算出し,同義語や類義語に置換することによって語の意味を理解することが可能となる.一方,本論文では,コンピュータとの会話において,「雨が降っていますよ」という文に対し,「雪」,「霧」,…などの「雨」に対する同義語や類義語だけではなく,「雨」や「降る」という語から,人間が自然に想起するような,「傘」,「濡れる」,「天気予報」,…などの語を幅広く想起させ,自然な会話を行うための連想機能を実現することを目的としている.コンピュータがこのような連想をできるならば,「雨が降っていますよ」という文に対して,「それでは傘を持っていきます」という応答を生成することが可能となる.コンピュータの連想機能を実現するために,概念ベースとそれを用いた関連度計算方式が提案されている\cite{kojima2004,watabe2001,watabe2006}.概念ベースでは,語の意味(概念)が,電子化国語辞書から抽出した特徴語(直接意味語・間接意味語)と重みの集合で定義されている.各特徴語(属性)の重みは,概念と概念の関連の強さを定量的に評価するための基本量として定義している.すなわち,概念ベースの構築においては,概念に対する属性をどのように抽出し,各属性に付与する重みをどのように決定するかが重要となる.本論文では,電子化辞書から構築された4万語規模の概念ベースを,電子化された新聞記事等を用いて12万語規模の概念ベースへ拡張する手法について述べている.概念ベースの構築手法については,電子化辞書から見出し語に対する語義説明文から属性を抽出し,属性信頼度に基づく精錬を行う手法が提案されている.しかしながら,この手法には大きく2つの問題点が存在する.第一には,辞書の語義説明文から取得される大部分の属性は,語の狭義の意味を説明する語(直接意味語)であり,間接的に見出し語と関連を持つ広義の意味語(間接意味語)を獲得することが困難である点である.これは,コンピュータに柔軟な連想機能を実現する上で,同義や類義の語以外の連想語を取得する際に大きく影響する.直接意味語と間接意味語について,「自動車」の例を挙げる.\noindent例.自動車\begin{description}\item[直接意味語]車,車輪,原動機,回転,装置,ブレーキ,…\item[間接意味語]渋滞,免許証,事故,便利,交通,信号,保険,レース,…\end{description}第二には,4万語規模の概念ベースでは,幅広い連想を行い,語と語の関連性を定量化する上で語彙が不十分である点である.概念を定義するための属性は,全て概念ベースに定義されている語でなければならないという制約があるため,4万語規模の概念ベースに定義されていない語を,新たな属性として概念に付与するためには,概念ベースの拡張が必須となる.概念ベースの拡張においては,概念に付与すべき属性の抽出手法,並びに,獲得した属性に対する重みの付与手法が必要となる.まず,国語辞書からの概念ベース構築の際に適切に属性を取得することができなかった概念を抽出し,不適切な概念を削除する.属性の抽出手法として,電子化された新聞記事等における共起に基づく手法を提案する.また,重みの付与手法として,属性関連度と概念価値に基づく手法を提案する.このように拡張した概念ベースの有用性を,関連度計算方式を用いた評価実験によって示している.
| |
V25N02-03
|
\label{sec:introduction}難解なテキストの意味を保持したまま平易に書き換えるテキスト平易化は,言語学習者や子どもをはじめとする多くの読者の文章読解を支援する.近年,テキスト平易化を同一言語内の翻訳問題と考え,統計的機械翻訳を用いて入力文から平易な同義文を生成する研究\cite{specia-2010,zhu-2010,coster-2011b,coster-2011a,wubben-2012,stajner-2015a,stajner-2015b,goto-2015}が盛んである.しかし,異言語間の機械翻訳モデルの学習に必要な異言語パラレルコーパスとは異なり,テキスト平易化モデルの学習に必要な単言語パラレルコーパスの構築はコストが高い.これは,日々の生活の中で対訳(異言語パラレル)データが大量に生産および蓄積されるのとは異なり,難解なテキストを平易に書き換えることは自然には行われないためである.そのため,公開されておりテキスト平易化のために自由に利用できるのは,EnglishWikipedia\footnote{http://en.wikipedia.org}とSimpleEnglishWikipedia\footnote{http://simple.wikipedia.org}から構築された英語のパラレルコーパス\cite{zhu-2010,coster-2011a,hwang-2015}のみであるが,SimpleEnglishWikipediaのように平易に書かれた大規模なコーパスは英語以外の多くの言語では利用できない.そこで本研究では,任意の言語でのテキスト平易化を実現することを目指し,生コーパスから難解な文と平易な文の同義な対(テキスト平易化のための疑似パラレルコーパス)を抽出する教師なし手法を提案し,獲得した疑似パラレルコーパスと統計的機械翻訳モデルを用いて英語および日本語でのテキスト平易化を行う.図~\ref{fig:abstract}に示すように,我々が提案するフレームワークでは,リーダビリティ推定と文アライメントの2つのステップによって生コーパスからテキスト平易化のための疑似パラレルコーパスを構築する.大規模な生コーパスには,同一の(あるいは類似した)イベントや事物に対する複数の言及や説明が含まれると期待でき,それらからは同義や類義の関係にある文対を得ることができるだろう.さらに我々はリーダビリティ推定によって難解な文と平易な文を分類するので,生コーパスから難解な文と平易な文の同義な対を抽出することができる.\begin{figure}[t]\begin{center}\includegraphics{25-2ia3f1.eps}\end{center}\caption{疑似パラレルコーパスと統計的機械翻訳モデルを用いたテキスト平易化}\label{fig:abstract}\end{figure}我々は2つの設定で提案手法の効果を検証した.まず先行研究と同様に,難解なテキストと平易なテキストのコンパラブルコーパスからテキスト平易化のためのパラレルコーパスを構築した.我々の提案する文アライメント手法は難解な文と平易な文のアライメント性能を改善し,高品質にテキスト平易化コーパスを構築できた.さらに,我々のコーパスで学習したモデルは従来のコーパスで学習したモデルよりもテキスト平易化の性能も改善できた.次に,コンパラブルコーパスを利用しない設定で,生コーパスのみからテキスト平易化のための疑似パラレルコーパスを構築し,フレーズベースの統計的機械翻訳モデルを用いてテキスト平易化を行った.平易に書かれた大規模コーパスを使用しないにも関わらず,疑似パラレルコーパスで学習したモデルは従来のコーパスで学習したモデルと同等の性能で平易な同義文を生成することができた.本研究の貢献は次の2つである.\begin{itemize}\item単語分散表現のアライメントに基づく文間類似度を用いて,難解な文と平易な文の文アライメントを改善した.\item生コーパスのみから教師なしで擬似パラレルコーパスを自動構築し,これがコンパラブルコーパスから得られる従来のパラレルコーパスと同等に有用であることを確認した.\end{itemize}これまでは,人手で構築された難解な文と平易な文のパラレルコーパス\footnote{https://newsela.com/data/}\cite{xu-2015},平易に書かれた大規模なコーパス(SimpleEnglishWikipedia),文間類似度のラベル付きデータ\footnote{http://ixa2.si.ehu.es/stswiki/index.php/Main\_Page}\cite{agirre-2012,agirre-2013,agirre-2014,agirre-2015},言い換え知識\footnote{https://www.seas.upenn.edu/{\textasciitilde}epavlick/data.html}\cite{ganitkevitch-2013,pavlick-2015,pavlick-2016}などの言語資源が豊富に存在する英語を中心にテキスト平易化の研究が進められてきたが,本研究ではこれらの外部知識を利用することなく生コーパスのみからテキスト平易化のための疑似パラレルコーパスを自動構築し,統計的機械翻訳を用いたテキスト平易化における有用性を確認した.生コーパスは多くの言語で大規模に利用できるので,今後は本研究の成果をもとに多くの言語でテキスト平易化を実現できるだろう.本稿の構成を示す.2節では,関連研究を紹介する.3節では,生コーパスから擬似パラレルコーパスを構築する提案手法を概説する.4節では,テキスト平易化のための文アライメントとして,単語分散表現のアライメントに基づく文間類似度推定手法を提案する.続いて,5節から7節で実験を行う.まず5節では,4節の提案手法を評価し,テキスト平易化のための最良の文アライメント手法を決定する.6節では,3節から5節に基づき,英語の疑似パラレルコーパスを構築し,テキスト平易化を行う.7節では,同様に日本語の疑似パラレルコーパスを構築し,テキスト平易化を行う.最後に8節で,本研究のまとめを述べる.
| |
V12N04-06
|
\label{sec:background}多言語コーパスが整備されていく過程で,ある言語への翻訳が複数の言語に基づいて行われる場合がある.たとえば,聖書の翻訳における日本語訳を考える際に,その原言語として様々な言語が存在する状況に類似している.原言語が英語とフランス語のような場合,それらからの日本語訳には,原言語の影響はほとんどないかもしれない.一方で,原言語として韓国語と英語のような対を考える場合,それらの原言語の違いは,翻訳に多大な影響を及ぼすと予想できる.一般に,ある言語への翻訳が存在する場合,同一内容のものを別の言語から翻訳することは経済的理由から非常に少ない.たとえば,英語から日本語に翻訳された文書が存在する場合,同一内容の文書を韓国語から日本語に翻訳することは極めて稀である.まとまった量の文書を翻訳する場合,その可能性はさらに低くなる.そのため,原言語が異なる同一内容の大規模文書の翻訳は,人為的に作成されない限り入手は困難である.一方で,原言語が翻訳に与える影響は確実に存在し,認識されている.ところが,これまで,原言語が翻訳に与える影響に関して,どのような現象がどの程度生じるのかについて詳細に調査した研究は存在しない.原言語によって生じる違いを詳細に研究することによって,人間と機械の双方にとってよりよい翻訳を得るための知見,知識が得られると考える.そこで,本研究では,日本語と英語の対訳コーパスから日本語と英語を原言語として韓国語コーパスを作成し,翻訳における原言語の影響を考察する.各コーパスは,162,308文から構成される.2つの韓国語コーパスと日英の対訳コーパスの関係を図\ref{fig_relation}に示す.\begin{figure}[tb]\begin{center}\epsfile{file=Relations1.eps,width=7.5cm}\caption{原言語が異なる韓国語コーパス}\label{fig_relation}\end{center}\end{figure}これら2つの韓国語翻訳コーパスは原言語が日本語ならびに英語と大きく異なることから,それぞれ原言語の影響を受けたいくつかの特徴があり,両者は大きく異なる.本論文では,敬語表現,語彙選択,統語的差異,同義表現,表記のゆれ(正書法)の5つの言語現象の観点からそれらの違いを分析する.周知のように英語は比較的固定された語順(SVO)を持ち,主語,目的語などが省略されない.反面,日本語は,述部が文末にくるが,それ以外の要素は,述部に対する関係を助詞などによって示すため,語順が柔軟である.さらに日本語では,文脈上明らかな主語,目的語などは明示されない.これらの点では,韓国語は英語より日本語に非常に近い言語である.このように,日本語と英語は,その構文構造が大きく異なる言語であり,語彙論的な観点からも,単語が与える意味や,その概念なども相当異なる.\begin{exe}\ex\label{k:angry}\gll韓国語:\hg{gyga}\hg{murieihaise}~\hg{hoaga}\hg{naSda.}\\直訳:彼が無礼で腹が立った\\\trans英語:``Hisrudenessannoyed/bothered/upsetme.''\end{exe}たとえば,例(\ref{k:angry})に示した韓国語と英語の2つの文\cite{Lee:1999}は,同じ内容を表しているが,韓国語は複文構造を,英語は単文構造をとっている.これは,英語と日本語の間の翻訳についても言えることであるが,一方の言語において自然な表現を翻訳する場合,目的言語における自然な構文構造が,原言語のそれとは大きく異なる場合がある.しかしながら,翻訳が理想的な状況で行われるとは限らず,原言語の構文構造をそのままに,単語や,句を目的言語の該当表現へ変換することによって翻訳する場合もある.したがって,原言語が日本語と英語のように大きく異なる言語からの韓国語翻訳文は,その原言語に大きく影響されると予想する.構文構造が大きく異なる言語間の翻訳において,目的言語における自然な構文へ翻訳することは,人間にとっても機械にとっても当然負担がかかる.以下に示す日本語と英語から韓国語への翻訳は,原言語の違いが翻訳に与える影響をよく示している.\begin{exe}\ex\begin{xlist}\ex\label{sj_1}このケーブルカーに乗れば,ホテルに行くことができます。(原文)\trans\gll訳:``\hg{qi}\hg{keiqibyrkaryr}\hg{tamien}\hg{hoteirqei}\hg{gar}\hg{su}\hg{'iSsybnida.}''\\この~ケーブルカーに~乗れば~ホテルに~行く~ことが~できます。\\\ex\label{se_1}Thiscablecarwilltakeyoutothehotel.(原文)\trans\gll訳:``\hg{keiqibyrkaga}\hg{hoteirqei}\hg{deirieda}\hg{jur}\hg{gebnida.}''\\ケーブルカーが~ホテルに~連れて~あげる~でしょう。\\\end{xlist}\end{exe}例(\ref{sj_1})の韓国語訳は,和文の構造をそのまま用いて翻訳されている反面,(\ref{se_1})の韓国語訳は英文の構造に影響されている.訳の自然さに関しては,日本語の構造の影響を受けている(\ref{sj_1})が(\ref{se_1})に比べて非常に良い.この例から,より自然な文へ翻訳するために構文構造の大きな変更が必要な場合,そのような変更が行われず,原言語に大きく影響された翻訳が数多く存在していると予想する.原言語の違いが翻訳に差をもたらす事実は,認識されてはいても,これまで詳細に検討されたことはなかった.本研究では,両コーパスの分析を通して翻訳における原言語の影響を計量的に示し,このような異質なコーパスを機械翻訳および他の自然言語処理の分野にどのように応用できるかについて考察する.
| |
V06N03-03
|
label{intro}テキストは単なる文の集まりではなく,テキスト中の各文は互いに何らかの意味的関係を持つ.特に意味的関係の強い文が集まって談話セグメントと呼ばれる単位を形成する.文が互いに意味的関係を持つように,これらの談話セグメント間にも意味的な関係が存在する.テキストの全体的な談話構造はこの談話セグメント間の関係によって形成される.そのため,テキストのセグメント境界を検出するテキストセグメンテーションの研究は,談話構造解析の第一ステップであると考えられる\cite{Grosz:86}.また,最近では,テキストセグメンテーションの研究は情報検索の分野においても応用されている.長いテキスト中には複数のサブトピックが存在しているため,テキスト全体を扱うよりも,テキストをセグメントに分けた方が検索対象として良いと考えられるためである\cite{Callan:94,Salton:93,Hearst:93}.セグメント境界の検出では,テキスト中の表層的な情報が利用されることが多い.表層的な情報は比較的容易に抽出可能であり,特別な領域知識を必要としないので一般的な利用が可能だからである.多様な表層的情報の中で,意味的に類似した単語間の表層的関係である語彙的結束性\cite{Halliday:76}が,これまで多くのテキストセグメンテーションの研究に使用されている\cite{Morris:91,Kozima:93,hearst:94b,okumura:94a,reynar:94}.OkumuraとHonda\cite{okumura:94a}は語彙的結束性の情報だけでは充分ではなく,他の表層的情報を取り入れることによって,テキストセグメンテーションの精度が向上することを報告している.本稿では,複数の表層的手がかりとして,接続詞,照応表現,省略,文のタイプ,語彙的結束性などを使用して日本語テキストのセグメント境界を検出する手法について述べる.セグメント境界の検出では,手がかりから得られるスコアを基に,各文間の境界へのなりやすさ(あるいはなり難さ)を表す文間のスコアを与えることが多い.この手がかりを複数設定し,組み合わせて使用する手法は数多く存在する\cite{McRoy:92}が,各手がかりの出現がセグメント境界の検出に影響する度合が異なるため,各手がかりのスコアをそのまま使用せず,各手がかりの重要度に応じた重みをかけ,重み付きスコアの総和を文間のスコアとする手法が比較的良く用いられる.重み付きスコアの総和を文間のスコアとして使用する手法においては,各手がかりに最適な重み付けを行うことが,検出精度向上にとって重要になる.複数の表層的手がかりを用いてセグメント境界の検出を行う過去の研究\cite{Kurohashi:94,Sumita:92,Cohen:87,Fukumoto1}では,各手がかりの重みは直観あるいは,人手による試行錯誤によって決定される傾向がある.しかし人手による重みの決定はコストが高く,決定された重みを使用することで,必ずしも最適あるいは最適に近い精度が得られるという保証がない.そのため人手による重み付けを避け,少なくとも最適に近い値を得るために,自動的に重みを決定する方が望ましいと考えられる.そこで本研究では,正しいセグメント境界位置の情報が付いた訓練テキストを用意し,統計的手法である重回帰分析を使用することで各表層的手がかりの重要度の重みを自動的に学習する.しかし,重みの自動学習手法では訓練データの数が少ない場合に学習精度が良くならないという問題がある\cite{Akiba:98}.また,訓練データに対してパラメータ(手がかり)の数が多い場合には,学習された値が過適合を起す傾向があるという問題が知られている.学習された重みが訓練データに対し過適合すると,訓練データ以外のテキストに適用した場合には良い精度が得られない.また,考えられる全ての表層的手がかりが,常にセグメンテーションにとって良い手がかりになるとは限らない.そこで,過適合の問題を解消するために,重みの学習と共に使用する手がかりの最適化も行う必要がある.有効な手がかりだけを選択することができれば,良い重みの学習ができ,セグメンテーションの精度が向上すると考えられる.本研究で重みの学習に使用する重回帰分析には,有効なパラメータを選択する手法が既にいくつか開発されている.そこで,本研究ではパラメータ選択手法の一つとして広く利用されているステップワイズ法を使用する.重回帰分析とパラメータ選択手法であるステップワイズ法を使用することにより,有効な手がかりのみを選択し,最適な重みを獲得できると考えられる.我々の主張を要約すると以下のようになる.\begin{itemize}\itemテキストセグメンテーションにおいて,複数の表層的手がかりの組み合わせは有効である.\item重回帰分析とステップワイズ法の使用によってテキストセグメンテーションにとって有効な手がかりの選択と重みの自動的な獲得が可能となる.\end{itemize}上記の主張の有効性を調べるため,いくつかの実験を行う.小規模な実験ではあるが,実験結果から我々のアプローチの有効性を示す.以下,2節では本研究でテキストセグメンテーションに使用する表層的手がかりについて説明する.3節では複数の手がかりの重みを自動的に決定する手法について述べる.4節では自動的に有効な手がかりを選択する手法について述べる.5節では,本研究のアプローチによる実験について記述する.
| |
V09N04-02
|
本稿では,テキスト要約の自動評価手法について述べる.テキスト自動要約に関する研究は,テキスト中の表層的な情報から重要な箇所を判断し重要な部分のみを抽出するLuhn等,Edmundson等の研究\cite{H.P.Luhn.58,H.P.Edmundson.69}に始まり,現在も様々な方法が提案されている\cite{C.D.Paice.90,C.Aone.98}.ここ数年はインターネットの急速な普及に伴って,国内外での研究活動が非常に活発になっている\cite{M.Okumura.99J,I.Mani.00}.テキスト要約の研究において,評価の重要性は言うまでもない.最も信頼性が高いのは要約の経験者が直接要約を見て評価する方法であるが,コストが非常に大きいというデメリットがある.このためより低コストで効率の良い方法として,要約の経験者によって作成された要約を正解とし,正解との一致度を機械的に評価する方法が一般によく用いられる.しかし,要約は観点や戦略などの違いから,同じテキストに対しても複数の要約者から得られる結果は多様であることが知られている\cite{G.J.Rath.61,K.S.Jones.96,H.Jing.98,K.Saito.01J}.要約タスクにおいて唯一の理想的な要約が存在するという前提は現実には成り立たず,それゆえ唯一の正解に基づく評価では,対象の評価結果が正解との相性に影響され易いという問題がある.本稿では,このような従来法の問題点を踏まえ,複数の正解に基づく信頼性の高い評価法の提案を行なう.さらに,正解として用いる要約集合の満たすべき条件について,要約の品質と網羅性の観点から検討を試みる.提案手法は重要文抽出結果を評価することを前提に定式化されているが,手法の基本的アイデアや検討内容の多くはテキスト要約一般に共通するものである.
| |
V28N02-13
|
ユーザから情報を取得することは,対話システムの主要な用途の1つである.初期の研究であるATIS\cite{hemphill1990atis}では,出発地,目的地,希望の日時等,フライト検索に必要な情報を得ることが対話システムの目的であった.近年では,ものやサービスに対するユーザ評価や意見を収集することを目的とするインタビュー対話システムも提案されている\cite{johnston2013spoken}.しかし,対話システムとのやり取りによって,うまくユーザの嗜好や評価を聞き出すことはまだ十分に達成できていない.一方,人同士の会話に目を向けると,会話を通して客の好みをうまく聞き出していることがわかる.例えば,ソムリエは,客の嗜好を捉えて客の好みにあった料理やワインを勧めるが,その際,客の好みの料理や食味などについて質問する他にも,ワインや食べ物について,専門家としての知識を使って話題の幅を広げながら会話をしている.その結果,ユーザに負担をかけることなく,ユーザの嗜好をうまく収集している.また,商品推薦などの個人化されたサービスでは,ユーザの好みや嗜好の情報が必要であるが,アンケートで数多くの質問項目に回答するのはユーザの負担となることが問題となっている\cite{smyth2007case,lam2008addressing}.そのため,システムとの対話を楽しんでもらいながら,ユーザの嗜好を聞き出すことができれば有用性は高い.そこで本研究では,対話を通してユーザの嗜好を獲得する対話システムの実現を目指し,関連する話題を選択し,その話題を展開しながらユーザの料理や材料の好みについて尋ねるインタビュー対話システムを提案する.これを実現するために,本研究では,分野についての大規模な知識を活用することに着目し,大規模知識を利用した関連話題の選択と質問生成に焦点を当てる.これまでの大規模知識ベースを用いた対話システムの研究では,大規模知識ベースを用いて関連エンティティやその属性を推論することにより,ユーザからの質問に対して多様なシステム応答を生成すること\cite{han2015exploiting}や,雑談対話において意味のある返答を生成すること\cite{moon2019opendialkg}が主要な目的であり,ユーザ情報の取得のための質問生成については取り組まれていない.また,\citeA{lee2015conversational}は知識グラフのエンティティ間の関係を話題とみなし,話題どうしの関連の強さを大規模テキストWikipediaに基づき学習し,話題のベクトル表現(本研究では「話題埋め込み表現」と呼ぶ.)を作成している.そして,この話題埋め込み表現を用いて関連話題の選択を行うことを提案している.しかし,話題埋め込み表現を利用し関連話題を選択しても,その話題についての情報が大規模知識に登録されていなければ,応答生成ができないという問題がある.この問題を解決するために,本研究では,知識グラフのベクトル表現(本研究では「知識グラフ埋め込み表現」と呼ぶ.)を利用して,欠損した知識を補完(この手続きを本研究では「知識グラフ補完」と呼ぶ.)したうえで,関連話題を用いた質問を生成する手法を提案する.以上の議論から,本研究では,話題埋め込み表現を用いて関連話題を選択し,知識グラフ埋め込み表現を用いて知識補完を行いながら,大規模知識グラフに基づき,質問を生成することができるインタビュー対話システムを提案・実装することを目的とする.これにより,対話の中で言及される料理について多様な話題を展開しつつ,料理に関するユーザの嗜好を聞き出すための質問生成を実現する.さらに,実装したシステムを用いたユーザスタディを実施し,本研究で提案する質問生成手法の有用性を検証する.本研究の貢献を以下に示す.\noindent(1)話題埋め込み表現を用いて関連話題を選択し,知識グラフ埋め込み表現を用いて欠損している知識の補完を行うことで,多様なバリエーションの関連話題を選択し,それらについての質問を生成する手法を提案する.\noindent(2)上記(1)の提案手法を料理に関するドメインに適用し,提案手法による質問生成機能を搭載した対話システムを実装する.また,実装した対話システムを用いてユーザスタディを実施し,対話文脈の継続効果があることを示すとともに,提案手法により生成された質問の質を調査する.さらに,対話破綻が一定以下に抑えられた場合には,被験者の主観評価において話題の多様性や文脈の継続性が印象付けられることを示す.本論文は,以下のように構成される.\ref{sec:related_works}章では,関連研究について述べ,\ref{sec:tk_embed}章では大規模知識を用いた関連話題の決定と知識補完による質問生成について述べる.\ref{sec:SDS}章では,実装した対話システムについて説明し,\ref{sec:exp_results}章では,評価実験について述べ,質問生成性能について\ref{sec:eval_questions}章,対話生成性能について\ref{sec:eval_dialogues}章で述べる.最後に\ref{sec:conclusion}章では,本研究のまとめと今後の課題を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V21N03-01
|
機械翻訳システムの開発過程では,システムの評価と改良を幾度も繰り返さねばならない.信頼性の高い評価を行うためには,人間による評価を採用することが理想ではあるが,時間的な制約を考えるとこれは困難である.よって,人間と同程度の質を持つ自動評価法,つまり,人間の評価と高い相関を持つ自動評価法を利用して人間の評価を代替することが実用上求められる\footnote{本稿では,100文規模程度のコーパスを用いて翻訳システムの性能を評価すること,つまり,システム間の優劣を比較することを目的とした自動評価法について議論する.}.こうした背景のもと,様々な自動評価法が提案されてきた.BLEU\cite{bleu},NIST\cite{nist},METEOR\cite{meteor},WordErrorRate(WER)\cite{WER}などが広く利用されているが,そのなかでもBLEU\cite{bleu}は,数多くの論文でシステム評価の指標として採用されているだけでなく,評価型ワークショップにおける公式指標としても用いられており,自動評価のデファクトスタンダードとなっている.その理由は,人間による評価との相関が高いと言われていること,計算法がシステム翻訳と参照翻訳(正解翻訳)との間で一致するNグラム(一般的に$\mathrm{N}=4$が用いられる)を数えあげるだけで実装も簡単なことにある.しかし,BLEUのようにNグラムという短い単語列にのみに着目してスコアを決定すると,システム翻訳が参照翻訳のNグラムを局所的に保持しているだけで,その意味が参照翻訳の意味と大きく乖離していようとも高いスコアを与えてしまう.局所的なNグラムは一致しつつも参照翻訳とは異なるような意味を持つ翻訳をシステムが生成するという現象は,翻訳時に大きな語順の入れ替えを必要としない言語間,つまり,構文が似ている言語間の翻訳ではほとんど起こらない.例えば,構文が似ている言語対である英語,仏語の間の翻訳では大きな語順の入れ替えは必要なく,BLEUと人間の評価結果との間の相関も高い\cite{bleu}.一方,日本語と英語のように翻訳時に大きな語順の入れ替えが必要となる言語対を対象とすると,先に示した問題が深刻となる.例えば,Echizen-yaらは日英翻訳において,BLEU\cite{bleu},その変種であるNIST\cite{nist}と人間の評価との間の相関が低いことを報告している\cite{echizenya-wpt09}.文全体の大局的な語順を考慮する自動評価法としては,ROUGE-L\cite{ROUGEL},IMPACT\cite{impact}がある.これらの手法は参照翻訳とシステム翻訳との間で一致する最長共通部分単語列(LongestCommonSubsequence:LCS)に基づき評価スコアを決定する.LCSという文全体での大局的な語順を考慮していることから,英日,日英翻訳システムの評価において,Nグラム一致率に基づく自動評価法よりもより良い評価ができるだろう.しかし,Nグラム一致率に基づく自動評価法と同様,訳語の違いに敏感すぎるという問題がある.後に述べるが,NTCIR-9での特許翻訳タスクにおいては,人間が高い評価を与えるルールベースの翻訳システムに高スコアを与えることができないという問題がある.本稿では日英,英日という翻訳時に大きな語順の入れ替えを必要とする言語対を対象とした翻訳システムの自動評価法を提案する.提案手法の特徴は,Nグラムという文中の局所的な単語の並びに着目するのではなく,文全体における大局的な語順に着目する点と,参照翻訳とシステム翻訳との間で一致しない単語を採点から外し,別途,ペナルティとしてそれをどの程度重要視するかを調整できるようにすることで訳語の違いに対して寛大な評価を行う点にある.より具体的には,システム翻訳と参照翻訳との間の語順の近さを測るため,両者に一致して出現する単語を同定した後,それらの出現順序の近さを順位相関係数を用いて計算し,これに重み付き単語正解率と短い翻訳に対するペナルティを乗じたものを最終的なスコアとする.近年,提案手法と同じく語順の相関に基づいた自動評価法であるLRscoreがBirchらによって独立に提案されている\cite{birch-acl}.LRscoreは,参照翻訳とシステム翻訳との間で一致する単語の語順の近さをKendall距離で表し,それをさらに低レンジでのスコアを下げるために非線形変換した後,短い翻訳に対するペナルティを乗じ,さらにBLEUスコアとの線形補間で評価スコアを決定する.提案手法とLRscoreは特殊な状況下では同一の定式化となるが,研究対象としてきた言語対が異なることから,相関係数と語彙の一致に対する考え方が大きく異なる.提案手法がどの程度人間の評価に近いかを調べるため,NTCIR-7,NTCIR-9の日英,英日,特許翻訳タスク\cite{ntcir7,ntcir9}のデータを用いて検証したところ,翻訳システムの評価という観点から,従来の自動評価法よりも人間の評価に近いことを確認した.以下,2章ではBLEUを例として,Nグラムという局所的な語順に着目してシステムを評価することの問題点,3章ではLCSを用いてシステムを評価することの問題点を指摘する.そして,4章でそれら問題点の解決法として,訳語の違いに寛大,かつ,大局的な語順の相関に基づく自動評価法を提案する.5章で実験の設定を詳述し,6章では実験結果を考察する.最後に7章でまとめ,今後の課題について述べる.
| |
V09N01-05
|
\label{sec:intro}機械翻訳などの多言語間システムの構築において対訳辞書は必要不可欠であり,その品質がシステム全体の性能を左右する.これらに用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には限界があり,品質を向上するためには膨大な労力が必要であること,辞書の記述の一貫性を保つことが困難であることが問題となる.このことからコーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている\cite{gale_91,kaji_96,kitamura_96,fung_97,melamed_97}.本論文では,最大エントロピー法を用いて対訳コーパス上に対訳単語対の確率モデルを推定し,自動的に対訳単語対を抽出する手法を提案する.本論文では対訳関係にある単語の組を対訳単語対と呼ぶ.最大エントロピー法は,与えられた制約の中でエントロピーを最大化するようなモデルを推定するという最大エントロピー原理に基づいており,未知データに対しても確率値をなるべく一様に配分するため,自然言語処理においてしばしば問題となるデータスパースネスに比較的強いという特徴を持っている.このため,構文解析\cite{ratnaparkhi_97,wojciech_98,uchimoto_99},文境界の同定\cite{reynar_97},動詞の下位範疇化モデル\cite{utsuro_97b}などに応用されている.また我々の手法は,既存の対訳辞書を必要とせず,文対応の付いた対訳コーパスさえあれば,対訳コーパスの分野を限定することなく対訳単語対を抽出できるという特徴を持つ.本論文の構成は以下の通りである.\ref{sec:ME_method}節では最大エントロピー法について説明し,\ref{sec:MEdict}節では最大エントロピー法を用いて対訳単語対を抽出する手法を述べる.\ref{sec:experiment_discussion}節では我々が提案した手法の有効性を示すために行った実験の結果とそれに対する考察を述べ,関連研究との比較を行う.\ref{sec:future}節でまとめを述べる.
| |
V20N03-07
|
label{sec:intro}近年,Twitter\footnote{http://twitter.com/}などのマイクロブログが急速に普及している.主に自身の状況や雑記などを短い文章で投稿するマイクロブログは,ユーザの情報発信への敷居が低く,現在,マイクロブログを用いた情報発信が活発に行われている.2011年3月11日に発生した東日本大震災においては,緊急速報や救援物資要請など,リアルタイムに様々な情報を伝える重要な情報インフラの1つとして活用された\cite{Book_Hakusho,Article_Nishitani,Book_Tachiiri}.マイクロブログは,重要な情報インフラとなっている一方で,情報漏洩や流言の拡散などの問題も抱えている.実際に,東日本大震災においても,様々な流言が拡散された\cite{Book_Ogiue}.{\bf流言}については,これまでに多くの研究が多方面からなされている.流言と関連した概念として{\bf噂},{\bf風評},{\bfデマ}といった概念がある.これらの定義の違いについては諸説あり,文献毎にゆれているのが実情である.本研究では,{\bf十分な根拠がなく,その真偽が人々に疑われている情報を流言と定義し,その発生過程(悪意をもった捏造か自然発生か)は問わない}ものとする.よって,最終的に正しい情報であっても,発言した当時に,十分な根拠がない場合は,流言とみなす.本論文では,マイクロブログの問題の1つである,流言に着目する.流言は適切な情報共有を阻害する.特に災害時には,流言が救命のための機会を損失させたり,誤った行動を取らせたりするなど,深刻な問題を引き起こす場合もある.そのため,マイクロブログ上での流言の拡散への対策を検討していく必要があると考えられる.マイクロブログの代表的なツールとして,Twitterがある.Twitterは,投稿する文章(以下,ツイート)が140字以内に制限されていることにより,一般的なブログと比較して情報発信の敷居が低く\cite{Article_Tarumi},またリツイート(RT)という情報拡散機能により,流言が拡散されやすくなっている.実際に,東日本大震災においては,Twitterでは様々な流言が拡散されていたが,同じソーシャルメディアであっても,参加者全員が同じ情報と意識を持ちやすい構造を採用しているmixi\footnote{http://mixi.jp/}やFacebook\footnote{http://www.facebook.com/}では深刻なデマの蔓延が確認されていないという指摘もある\cite{Book_Kobayashi}.マイクロブログ上での流言の拡散への対策を検討するためには,まずマイクロブログ上の流言の特徴を明らかにする必要がある.そこで本論文では,マイクロブログとして,東日本大震災時にも多くの流言が拡散されていたTwitterを材料に,そこから481件の流言テキストを抽出した.さらに,どのような流言が深刻な影響を与えるか,有害性と有用性という観点から被験者による評価を行い,何がその要因となっているか,修辞ユニット分析の観点から考察を行った.その結果,震災時の流言テキストの多くは行動を促す内容や,状況の報告,予測であること,また,情報受信者の行動に影響を与えうる表現を含む情報は,震災時に高い有用性と有害性という全く別の側面を持つ可能性があることが明らかとなった.以下,2章において関連研究について述べる.3章では分析の概要について述べる.4章で分析結果を示し,マイクロブログ上での流言について考察する.5章で将来の展望を述べ,最後に6章で本論文の結論についてまとめる.
| |
V20N02-08
|
label{intro}述語項構造解析は,言語処理分野における挑戦的な研究分野の一つである.この解析は,自然文または自然文による文章から,「誰が,何を,誰に,どうした」というような,基本的な構造情報を抽出する.これらの情報は,文書要約や機械翻訳など,他の応用的な言語処理研究に不可欠なものであり,その他にも幅広い応用が期待されている.図\ref{example1}に,日本語の述語項構造の一例を示す.この例では,「行った」が\textbf{述語}であり,この述語が二つの\emph{項}を持っている.一つは\textbf{ガ格}の「彼」,もう一つは\textbf{ニ格}の「図書館」である.このように,述語とそれに対応する項を抽出し,\textbf{格}と呼ばれるラベルを付与するのが述語項構造解析である.それゆえに,述語項構造解析は,格解析と呼ばれることもある.本稿では,個々の述語—項の間にある関係を\emph{述語項関係},そして,文全体における述語項関係の集合を\emph{述語項構造}と呼ぶことにする.\begin{figure}[b]\begin{center}\includegraphics{20-2ia8f1.eps}\end{center}\caption{日本語述語項構造の例}\label{example1}\end{figure}尚,一般には図\ref{example1}の「昨日」という単語も時間格相当の項の対象となり得るが,本研究の述語項構造解析では限定的な述語項関係を対象としており,「昨日」はその対象としない.この対象の範囲は解析に利用するデータのアノテーション基準に依存する.本研究ではNAISTテキストコーパス~\cite{iida:2007:law}を利用しており,このデータのアノテーションに準拠した述語項関係のみの解析を行う.日本語以外の言語では,意味役割付与と呼ばれる述語項構造解析に相当する解析が行われている.特に英語では,FrameNet~\cite{fillmore:2001:paclic}やPropBank~\cite{palmer:2005:cl}など,意味役割を付与した中規模のコーパスが構築されてきた.さらに近年では,CoNLLSharedTask\footnote{CoNLLSharedTask2004,2005では意味役割付与(SemanticRoleLabeling),同2008,2009では意味論的依存構造解析(SemanticDependencyParsing)のタスクが設定された.}などの評価型ワークショップが意味役割付与をテーマとして複数行われ,盛んに研究されている.日本語の述語項構造解析はいくつかの点で英語の意味役割付与以上に困難であると考えられている.中でも特に大きな問題とされるのが,\emph{ゼロ照応}と呼ばれる現象である.この現象は,述語に対する必須格が省略される現象で,日本語では特にガ格の省略が頻繁に起きる.英語では対象となる述語の項がその述語と同一の文内に出現する上,必須格の述語項関係については,直接係り受け関係(係り受け木上の親子関係)になる場合が多い.ゆえにPropBankではタグ付与の範囲を同一文内に限定しており,解析も相対的に容易になる.ゼロ照応には分類があり,述語に対する項の出現位置によって,\emph{文内ゼロ照応},\emph{文間ゼロ照応},\emph{文章外ゼロ照応(外界照応)}の三つに大別される.述語項関係の種類は,この3種類のゼロ照応に加えて,直接係り受け関係にある場合(以下,「\emph{直接係り受け}」とする),そして同一文節内にある照応(以下,「\emph{同一文節内}」とする)がある.本研究では「直接係り受け」と「文内ゼロ照応」を対象に解析を行うものとする.日本語の述語項構造解析研究では,平ら~\cite{taira:2008:emnlp}や今村ら~\cite{imamura:2009:acl}がNAISTテキストコーパスを用いた研究を行っているが,彼らはいずれも,コーパス中に存在する3種類の格:ガ格,ヲ格,ニ格について,別々のモデルを構築して解析を行っている.また別の視点から見ると,彼らの手法は``述語毎''に解析を行っていると言える.英語における意味役割付与の手法でも,この``述語毎''の解析を行った手法が多い~\cite{toutanova:2008:cl,watanabe:2010:acl}.しかしながら,現実の文書では同じ述語に属する項の間には依存関係があると考えられる.例えば,次の文を考えてみる.\begin{enumerate}\item\textit{ライオン}$_i$が\textit{シマウマ}$_j$を\underline{食べた}$_{ガ:i,ヲ:j}$\end{enumerate}この例文の``食べた''という述語に対し,ガ格とヲ格がともに``ライオン''になることは考えにくいが,ガ格とヲ格を個別に扱う分類器で解析を行った場合,このような矛盾した結果を生んでしまうことがありうる.さらには,ある述語とその項の関係を同定する際に,文内にある他の述語との関係が同定の手がかりになることがある.次の例文を見てみよう.\begin{enumerate}\setcounter{enumi}{1}\itemライオン$_i$に\underline{追いかけ}$_{ガ:i,ヲ:j}$られたシマウマ$_j$が谷底$_k$に\underline{落ちた}$_{ガ:j,二:k}$\end{enumerate}この例文(2)において``ライオン''が項として妥当なものであり,且つ,述語``落ちた''の項が``シマウマ''と``谷底''だけであると仮定すると,``ライオン''はもう一つの述語``追いかける''の項になることが確定する.このように,同一文内に複数の述語が存在し,固有表現などを手がかりとして,項候補が絞り込まれている時には,どの項候補をどの述語に割り当てるべきかという述語間の依存関係を考慮することで,最適な述語—項の配置を得ることができるのである.本研究では日本語の述語項構造解析を扱うが,``文毎''の解析を行う手法を用い,文内に複数ある述語項関係の重要な依存関係を利用できるようにする.このような依存関係を大域的な制約として扱うために,本研究ではMarkovLogicを利用した解析器を提案する.英語の意味役割付与ではMarkovLogicによる手法が提案されており,効果的であることが示されている~\cite{meza:2009:naacl}.これは,MarkovLogicモデルが複数の述語項関係を捉え,その間の依存関係を考慮することにより,文内における論理的矛盾を軽減できるためである.さらに本研究では,述語項構造の要素として不適切な文節を効率的に削減するため,新たな大域的制約を導入する.明らかに不適切な候補を削除することは,適切な述語項構造を抽出するための探索空間を小さくすることができ,項同定を行う述語の推論をより確かなものとする.本稿の実験では,MarkovLogicを用いた日本語述語項構造解析を行い,その大域的制約が効果的に働くことを詳細に示す.従来手法の結果と比較しても,本研究の提案手法は,同等以上の結果を達成していることを示す.また,定性的な分析においても,大域的制約が効果的に働いた事例を紹介する.なお,次章以降,本稿の構成は次のようになる.まず2章では関連研究についてまとめ,3章ではMarkovLogicについて導入の説明を行う.4章では提案手法として構築されるMarkovLogicNetworkについて詳細に述べる.5章は評価実験について述べ,実験結果について考察する.6章はまとめである.
| |
V10N02-01
|
人間は言語表現から各事象間の時間関係を推定し全体的な時間関係を把握する.しかしながら言語表現上には事象間の関係を明示する情報は希薄である.このため事象間の時間構造を理解するには,各事象の時間的な局面を手がかりにする必要がある.動作が保持する時間的な情報に対し,それが動きであるのか状態であるのかなどをカテゴリー分けしたものを動詞の持つアスペクトクラスという.各事象のアスペクトクラスを決定するには,構文上の文法形態といった統語論的な情報を手がかりにすることが考えられる.しかし日本語の助詞「た」や「〜ている」などの情報だけからアスペクトクラスの決定をすることは困難であり,事象が持つ時間的な情報を考察する意味論的な手法に頼る必要がある.本稿では固有の言語に依存せず,すべての事象に共通に存在すると仮定される時間構造を考え,この時間構造のどの部位に着目したかによりアスペクトを決定する.一般にはアスペクトクラスから事象間の時間関係を特定するのは困難とされている.そこで本研究では解析するターゲットの文章を料理のレシピ文とし,レシピ文に特化したアスペクトクラスを定義することにより,事象の時間関係の特定を期待する.レシピ文は機械的に読んだだけでは効率的な調理手順を正しく理解することが困難であること,また料理分野特有の表現や料理動作特有の時間的な特徴を持つという性質があげられる.このような問題を解決するためには,各料理動作が保持している時間的な情報の特定や,複数の料理動作の関係を明確にする必要があると考える.型の分類により進行や完了の関係を見い出し,並行動作関係,終了時や開始時の前後関係,さらに背後に仮定される明に記述されていない事象の発見,導入をめざす.解析結果をタイムマップとして表示し,事象群の進行を二次元的に表示する自動生成システムの構築を目標とする.本稿は本章を含め5章で構成される.次章では,アスペクト理論と料理分野における先行研究を示す.3章では,料理レシピ文における言語表現の分析を行う.この分析より,従来研究によるアスペクトクラス分類の問題点を指摘し,日本語の料理レシピ文に特化したアスペクトクラスを定義する.また隣接する事象間に対して,アスペクトクラス間の関係を分析する.さらにレシピ文の言語省略表現について言及し,省略動作の導入処理を提案する.4章では我々が構築した自動生成システムとその考察を示す.最後に5章では,本研究のまとめと今後の課題について述べる.
| |
V06N01-03
|
\label{sec:introduction}電子化テキストの急増などに伴い,近年,テキストから要点を抜き出す重要文選択技術の必要性が高まってきている.このような要請に現状の技術レベルで応えるためには,表層的な情報を有効に利用することが必要である.これまでに提案されている表層情報に基づく手法では,文の重要度の評価が主に,1)文に占める重要語の割合,2)段落の冒頭,末尾などのテキスト中での文の出現位置,3)事実を述べた文,書き手の見解を述べた文などの文種,4)あらかじめ用意したテンプレートとの類似性などの評価基準のいずれか,またはこれらを組み合わせた基準に基づいて行なわれる\cite{Luhn58,Edmundson69,Kita87,Suzuki88,Mase89,Salton94,Brandow95,Matsuo95,Sato95,Yamamoto95,Watanabe96,Zechner96,FukumotoF97,Nakao97}.本稿では,表層的な情報を手がかりとして文と文のつながりの強さを評価し,その強さに基づいて文の重要度を決定する手法を提案する.提案する手法では文の重要度に関して次の仮定を置く.\begin{enumerate}\item表題はテキスト中で最も重要な文である.\item重要な文とのつながりが強ければ強いほど,その文は重要である.\end{enumerate}表題はテキストの最も重要な情報を伝える表現であるため,それだけで最も簡潔な抄録になりえるが,多くの場合それだけでは情報量が十分でない.従って,不足情報を補う文を選び出すことが必要となるが,そのような文は,表題への直接的なつながりまたは他の文を介しての間接的なつながりが強い文であると考えられる.このような考え方に基づいて,文から表題へのつながりの強さをその文の重要度とする.文と文のつながりの強さを評価するために次の二つの現象に着目する.\begin{enumerate}\item人称代名詞と先行(代)名詞の前方照応\item同一辞書見出し語による語彙的なつながり\end{enumerate}重要文を選択するために文間のつながりを解析する従来の手法としては,1)接続表現を手がかりとして修辞構造を解析し,その結果に基づいて文の重要度を評価する手法\cite{Mase89,Ono94}や,2)本稿と同じく,語彙的なつながりに着目した手法\cite{Hoey91,Collier94,FukumotoJ97,Sasaki93}がある.文と文をつなぐ言語的手段には,照応,代用,省略,接続表現の使用,語彙的なつながりがある\cite{Halliday76,Jelinek95}が,接続表現の使用頻度はあまり高くない\footnote{文献\cite{Halliday76}で調査された七編のテキストでは,照応,代用,省略,接続表現の使用,語彙的なつながりの割合は,それぞれ,32\%,4\%,10\%,12\%,42\%である\cite{Hoey91}.}.このため,前者の手法には,接続表現だけでは文間のつながりを解析するための手がかりとしては十分でないという問題点がある.後者の手法では,使用頻度が比較的高い照応を手がかりとして利用していない.
| |
V09N05-04
|
label{intro}比喩とは,ある概念を他の概念によって説明または強調する修辞的手法の一つであり\cite{Lakoff1986,Yoshiga1990j},様々な分野で研究対象として取り上げられている\cite{Shinohara2000j}.自然言語処理の分野においても,比喩表現はしばしば問題となる.例えば,機械翻訳において,現状のシステムでは意訳や再解釈などの深い処理は行われないため,目的言語に翻訳された比喩表現は,意図した内容と異なった出力となってしまう場合がある\cite{Masui1995j}.``水のような価値''という比喩表現は,日本語では「価値が低い」という意味として理解されるが,言語によっては,「非常に価値が高い」ことを意味する場合がある.これは,``水''が持つ特徴が言語間で異なるからであり,この違いを補正するためには,原言語における「価値が低い」という特徴を保持したまま,対象言語において,同様の特徴を持った言葉を選び出す必要がある.しかし,現状の機械翻訳では,このような,言語間の意味の相違を考慮した処理は不可能である.このような場合,その表現が比喩であるかどうかを判断し,``asworthaswater''や``valuelikeaswater''と直訳されることを防ぐだけでも有効であると思われる.また,李\cite{Yoshiga1990j}によれば,新聞記事などの実用文においても,比喩表現は数多く出現し,その割合は小説や雑誌と大差はない.したがって,自然言語処理の対象を一般的な文書へ拡大し,柔軟な処理を行うたためには,比喩表現の処理は重要である.従来,比喩に関する研究は,心理学の分野において発展してきた.Ortony\cite{ortony79}やGentner\cite{gentner94}をはじめ,多くの比喩理解の理論的モデルが,提案されている.楠見\cite{Kusumi1996jb,Kusumi1996ja}は,心理学的実験手法によって,比喩理解に必要な知識を計測し,いくつかの理論的モデルの検証を行っている.しかしながら,上記で述べたような心理学実験は,被験者に対するアンケートやテストによって知識を得る手法であるため,汎用的な大規模知識ベースを構築するという目的に対しては,被験者数の確保や被験者集団の知識の偏り,個人差の是正の困難さやコストの面で大きな制限がある.比喩理解の過程を計算機上で実現するためには,比喩の理解過程を,なんらかの形でモデル化して扱う必要がある.岩山らは,プロトタイプ理論\cite{rosch75}に基づいて概念を生起確率を持った属性値集合として記述し,比喩を構成するときの特徴の移動を定量化する計算モデルを提案しており\cite{Iwayama1991j},内海も同様の計算モデルを用いて,心理学実験データに基づく知識ベースを用いた比喩理解の実験を行い,人間の判断結果と比較している\cite{Utsumi1997j}.彼らのモデルでは,比喩の理解過程は比喩表現として尤も強調される特徴(顕現特徴)が,たとえる概念(source概念)からたとえられる概念(target概念)へ移動するプロセスとして扱われている.しかしながら,楠見ら\cite{Kusumi1996ja,Iwayama1991j}が指摘するように,比喩理解において,比喩性を有する概念間の共有属性値は必ずしも一つとは限らず,複数の顕現特徴を扱う場合については議論の余地がある.また,彼らも,人手によって知識ベースを構築しており,知識の大規模化,汎用化の問題は解消されていない.そこで,本論文では,テキスト中に出現する比喩表現を認識するために,確率的な尺度を用いた比喩性検出手法を提案する.比喩性を検出するための確率的な尺度として,``顕現性落差"と``意外性"を設定する.``顕現性落差''は,概念対を比較したときに,クローズアップされる顕現特徴の強さをはかる尺度であり,概念の組合せが理解可能である否かの判断に用いる.``顕現性落差''は,確率的な概念記述を用いて,概念の共有属性値集合が持つ冗長度の差で定量化する.``意外性''は,概念の組み合わせがどれほど斬新であるかをはかる尺度であり,概念同士が例示関係であるか否かの判断に用いる.``意外性"は,単語間の意味距離を用いて定量化する.二つの尺度を併用することによって,比喩関係を持つ概念対,すなわち,比喩性の判定が可能となる.二つの尺度を計算するために,コーパス中から抽出した語の共起情報を利用して知識ベースを構築する.以下,2章で,比喩性を検出するための尺度として,``顕現性落差''と``意外性''が利用できることを示し,3章で,``顕現性落差''を,確率的概念記述モデルに基づいて定量化する方法と,計算に用いる知識ベースを,コーパス中の共起関係を利用して構築する方法について述べ,4章で,``意外性''を,単語間の意味距離を利用して定量化する方法と,コーパス中の共起情報に基づく知識ベース構築の方法について説明する.5章では,両尺度を併用した単語対の判別実験と評価を行い,6章で,評価結果について考察する.
| |
V04N01-05
|
\label{sec1}自然言語処理システムにおいては,処理する言語に関する情報をどれほど豊かにそなえているかが,そのシステムの性能に大きな影響を与える.とくに分かち書きをしない日本語では,その形態素解析だけのためにも膨大な量の辞書データをそろえる必要がある.しかし,辞書データの蓄積は,自動的に行うことが困難であり,人手による膨大な時間と労力を必要とする.幸い,最近では公開の辞書データの入手も可能となってきたが,それでもなお,新しい文法体系を試みるような場合には,その辞書を用意するのに手間がかかりすぎて,本題の研究にかかれないことがおきる.本稿では,辞書データがほとんどない状態から始めても,大量の日本語テキストを与えることで,形態素に関する辞書データを自動的に蓄積する方法を与えることを目的とする.具体的には,形態素に関する種々の規則と,統計的知識を利用して,未知の形態素の切出しとその品詞,活用種類,活用形などの推定を行う.推定するたびにその信頼性を評価し,大量のテキストを走査するうちに十分高い信頼性を得るに至ったものを,正しい形態素として辞書に登録する.現在までに,計算機によって自動的に辞書情報を獲得するいくつかの研究が行われてきている\cite{Kokuritu,Suzuki}.また,べた書き日本語文の形態素解析における曖昧さと未知語の問題を統計的手段によって解決しようとする試みもある\cite{Nagata,Simomura}.文献\cite{Nagata}では,品詞のtrigramを用いて言語を統計モデル化し,効率的な2-passN-best探索アルゴリズムを採用している.また,字種のtrigramを利用して未知語処理を行っている.文献\cite{Simomura}では,単語をノードとする木の最小コストパス探索問題として形態素解析をモデル化している.その上で,実際に単語接続確率モデルに基づいてコストを設定し形態素解析を実現している.ここでの研究の目的は,辞書データがほとんどないところから始めても未知語が獲得していける方法を提供することにある.実際に実験システムを構成して,比較的簡易な機構によって目的が達成できることを確認した.本論文の構成は次のようになっている.まず初めに,2章でシステムの概要について述べる.3章,4章では,形態素の連接関係に着目し,形態素と形態素属性を獲得する方法について説明する.5章では,獲得した情報を保管し,十分な信頼性をもつに至ったとき辞書に登録する方式を説明する.最後に,6章で,本手法による実験結果を提示し,まとめを行う.
| |
V13N01-03
|
人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めたり適切な行動を取ることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関連のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.ここで,ある単語に関連のある様々な単語を連想できるためには,単語間の意味的類似性だけでなく,単語間に存在する常識的な関係も含めた単語間の距離を評価できる必要がある.単語間の意味的な類似度の計算や距離計算は,自然言語処理における基本要素技術である.本稿では,単語間の距離計算法を提案している.従来,単語間の距離は,単語同士が意味的にどの程度似ているかを表すものであるとして,「類似度」と呼ばれている.単語の意味的類似性には直接的類似性や間接的類似性があり,また,間接的類似性はさらに細かく分類される\cite{Utsumi}.直接的類似性は辞書的カテゴリの類似であるのに対し,間接的類似性は辞書的カテゴリ以外の類似である.たとえば,「大人」と「子供」は同じ「人」に分類されるため意味的に似ており,類似度は高いはずであるが,「子供」と「おもちゃ」は意味的には似ていないし,同じ分類には含まれないであろうから類似度は低くなるであろう.しかし,実際には「子供」から「おもちゃ」を連想できることから,両者の距離はある程度近いものと思われる.「子供とおもちゃ」のような何らかの関連があるもの同士にも距離を定義できるようにするため,本研究では,単語間の距離のことを「関連度」と呼んでいる.もちろん,関連度には類似度の性質も含まれている.すなわち,直接的類似性が高いものも関連度は大きいと考えられる.本研究では,直接的類似性や間接的類似性を問わず,人間が常識的にイメージする単語間の距離に近いほど,その関連度計算法は優れていると判断する.このような関連度を計算するには,従来用いられてきた単語間の意味的(あるいは分類的)上位下位関係を記述したシソーラス\cite{NTT}などでは困難である.また,ある文書空間内での共起情報を用いれば関連度を計算可能と思われるが,どのような文書空間を用いるべきかが問題となる.本研究では,文書空間として概念ベースを用いる.概念ベースは(後述するが),国語辞書や大量の新聞記事を用いて構築したものであり,仮想的な文書空間と捉えることができる.以下,2章では本研究で用いる概念ベースの構造について述べる.3章では,概念間の関連性の評価法に対する既存研究についてふれ,関連度計算法自体の評価の方法を述べる.4章では,本稿の主題である関連度計算法について従来法を述べ,評価考察を行った後,5,6章で新しい計算法についての提案と評価考察を行う.なお以下では,「単語」を「概念」あるいは「概念表記」と呼ぶ.これは,「単語」と言う言葉はその表記をさす場合とその単語の意味,すなわち,その単語が指し示す概念を表す場合があるため,それらを区別するために,表記を表す場合は「概念表記」,意味を表す場合は「概念」と呼ぶ.ただし,厳密な区別が困難な場合も多いので,その場合は「単語」と呼ぶこととする.
| |
V12N05-02
|
近年,コーパスを利用した機械翻訳の研究においては,翻訳システムに不足している翻訳知識を人手で増強していく際のコストを軽減する目的で,対訳コーパスやコンパラブルコーパス等の多言語コーパスから様々な翻訳知識を獲得する手法の研究が行なわれてきた~\cite{Matsumoto00a}.これまでに研究されてきた翻訳知識獲得の手法は,大きく,対訳コーパスからの獲得手法とコンパラブルコーパスからの獲得手法に分けられる.通常,対訳コーパスからの獲得(例えば,\cite{Gale91a})においては,文の対応の情報を利用することにより,片方の言語におけるタームや表現について,もう一方の言語における訳の候補が比較的少数に絞られるため,翻訳知識の獲得は相対的には容易といえる.ただし,そのような対訳コーパスを人手で整備する必要がある点が短所である.一方,コンパラブルコーパスからの獲得(例えば,\cite{Rapp95a,Fung98a})では,各タームの周囲の文脈の類似性を言語横断して測定することにより,訳語対応の推定が行われる.情報源となるコーパスを用意するコストは小さくて済むが,対訳コーパスと比較すると,片方の言語のコーパス中のタームや表現の訳がもう一方の言語のコーパスに出現する可能性が相対的に低いため,翻訳知識の獲得は相対的に難しく,高性能に翻訳知識獲得を行うのは容易ではない.そこで,本論文では,翻訳知識獲得の目的において,人手で整備された対訳コーパスよりも利用可能性が高く,一般のコンパラブルコーパスよりも翻訳知識の獲得が容易である情報源として,日英二言語で書かれた報道記事に着目する.近年,ウェブ上の日本国内の新聞社などのサイトには,日本語だけでなく英語で書かれた報道記事も掲載されており,これらの英語記事においては,同一時期の日本語記事とほぼ同じ内容の報道が含まれている.これらの日本語および英語の報道記事のページにおいては,最新の情報が日々刻々と更新されており,分野特有の新出語(造語)や言い回しなどの翻訳知識を得るための情報源として,非常に有用である.そこで,本論文では,これらの報道記事のページから日本語および英語など,異なった言語で書かれた文書を収集し,多種多様な分野について,分野固有の人名・地名・組織名などの固有名詞(固有表現)や事象・言い回しなどの翻訳知識を自動または半自動で獲得するというアプローチをとる.本論文のアプローチは,情報源となるコーパスを用意するコストについては,コンパラブルコーパスを用いるアプローチと同等に小さく,しかも同時期の報道記事を用いるため,片方の言語におけるタームや表現の訳がもう一方の言語の記事の方に出現する可能性が高く,翻訳知識の獲得が相対的に容易になるという大きな利点がある.\begin{figure}\begin{center}\epsfile{file=FIG/pic01.ai,scale=0.6}\end{center}\vspace*{-.0cm}\caption{日英関連報道記事からの翻訳知識獲得のプロセス}\label{fig:pic01}\end{figure}本論文の翻訳知識獲得のアプローチにおいて,日英関連報道記事から翻訳知識を獲得するプロセスの一般的な流れを図~\ref{fig:pic01}に示す.まず,翻訳知識獲得のための情報源収集を目的として,同時期に日英二言語で書かれたウェブ上の新聞社やテレビ局のサイトから,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する.この際には,既存の対訳辞書,翻訳ソフトの翻訳知識を利用することにより,日本語記事と英語記事の間の関連性を測定する.そして,取得された関連記事対に対し,内容的に対応する翻訳部分の推定を行い,その推定範囲から二言語間の訳語対応を推定し,訳語対の獲得を行う.ここで,従来のコンパラブルコーパスからの訳語対獲得のアプローチにおいては,原理的には,コンパラブルコーパスに出現する全ての日本語タームおよび英語タームの組を訳語対応の候補としていた.一方,本論文のアプローチでは,予備調査の結果~\cite{Utsuro03b,Horiuchi03aj}をふまえて,関連報道記事の組において共起した日本語ターム,および,英語タームの組を収集し,これを訳語対応の候補としており,この点が特徴的である\footnote{予備調査の結果~\cite{Utsuro03b,Horiuchi03aj}においては,関連報道記事の組において共起した日本語ターム,および,英語タームの組を訳語対応の候補とすることにより,不要な訳語対応の候補を大幅に削減できることが分かっており,本論文のアプローチが適切であることの裏付けとなっている.}.ただし,本論文で述べる手法の範囲では,現在のところ,関連記事中で内容的に対応する翻訳部分の推定は行なっておらず,関連記事対全体から訳語対応を推定している.また,訳語対応を推定する尺度としては,関連記事組における訳語候補の共起を利用する方法を適用し,評価実験を通して,この方法が有効であることを示す.特に,評価実験においては,訳語対応を推定すべき英語タームの出現頻度の分布に応じて,訳語対応推定性能がどのように変化するかを調査し,その相関を評価する.以下,\ref{sec:clir}~節では,翻訳知識獲得のための情報源収集を目的として,言語を横断して,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する処理について述べる.次に,\ref{sec:msr}~節では,関連記事組の集合から訳語対応を推定する手法について述べる.\ref{sec:eval}~節において,実験を通して提案手法の評価を行ない,\ref{sec:related}~節において,関連研究について詳細に述べる.
| |
V21N01-04
|
本稿では語義曖昧性解消(WordSenseDisambiguation,WSD)をタスクとした領域適応の問題が共変量シフトの問題と見なせることを示す.そして共変量シフトの解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決を図る.共変量シフトの解法では確率密度比の算出が鍵となるが,ここではNaiveBayesで利用されるモデルを利用した簡易な算出法を試みた.そして素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う.この手法を本稿の提案手法とする.自然言語処理の多くのタスクにおいて帰納学習手法が利用される.そこではコーパス\(S\)からタスクに応じた訓練データを作成し,その訓練データから分類器を学習する.そしてこの分類器を利用することで当初のタスクを解決する.このとき実際のタスクとなるデータはコーパス\(S\)とは領域が異なるコーパス\(T\)のものであることがしばしば起こる.この場合,コーパス\(S\)(ソース領域)から学習された分類器では,コーパス\(T\)(ターゲット領域)のデータを精度良く解析することができない問題が生じる.これが領域適応の問題であり\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.},近年活発に研究が行われている\cite{da-book}.WSDは文\(\boldsymbol{x}\)内の多義語\(w\)の語義\(c\inC\)を識別する問題である.\(P(c|\boldsymbol{x})\)を文\(\boldsymbol{x}\)内の単語\(w\)の語義が\(c\)である確率とすると,確率統計的には\(\arg\max_{c\inC}P(c|\boldsymbol{x})\)を解く問題といえる.例えば単語\(w=\)「ボタン」には少なくとも\(c_1:\)服のボタン,\(c_2:\)スイッチのボタン,\(c_3:\)花のボタン(牡丹),の3つの語義がある.そして文\(\boldsymbol{x}=\)「シャツのボタンが取れた」が与えられたときに,文中の「ボタン」が\(C=\{c_1,c_2,c_3\}\)内のどれかを識別する.直接的には教師付き学習手法を用いて\(P(c|\boldsymbol{x})\)を推定して解くことになる.WSDの領域適応の問題は,前述したように,教師付き学習手法を利用する際に学習もとのソース領域のコーパス\(S\)と,分類器の適用先であるターゲット領域のコーパス\(T\)が異なる問題である.領域適応ではソース領域\(S\)から\(S\)上の条件付き分布\(P_S(c|\boldsymbol{x})\)は学習できるという設定なので,\(P_S(c|\boldsymbol{x})\)やその他の情報を利用して,ターゲット領域\(T\)上の条件付き分布\(P_T(c|\boldsymbol{x})\)を推定できれば良い.ここで「シャツのボタンが取れた」という文中の「ボタン」の語義は,この文がどのような領域のコーパスに現れても変化するとは考えづらい.つまり\(P_T(c|\boldsymbol{x})\)は領域に依存していないため,\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)が成立していると考えられる.今\(P_S(c|\boldsymbol{x})\)は推定できるので,\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)が成立していれば,\(P_T(c|\boldsymbol{x})\)を推定する必要はないように見える.ただしソース領域だけを使って推定した\(P_S(c|\boldsymbol{x})\)では,実際の識別精度は低い場合が多い.それは\(P_S(\boldsymbol{x})\neP_T(\boldsymbol{x})\)から生じている.\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)だが\(P_S(\boldsymbol{x})\neP_T(\boldsymbol{x})\)という仮定の下で,\(P_T(c|\boldsymbol{x})\)を推定する問題は共変量シフトの問題\cite{shimodaira2000improving,sugiyama-2006-09-05,sugiyama-book}である.本稿ではWSDの領域適応の問題を共変量シフトの問題として捉え,共変量シフトの解法を利用してWSDの領域適応を解決することを試みる.訓練データを\(D=\{(\boldsymbol{x_i},c_i)\}_{i=1}^N\)とする.共変量シフトの標準的な解法では\(P_T(c|\boldsymbol{x})\)に確率モデル\(P(c|\boldsymbol{x};\boldsymbol{\theta})\)を設定し,次に確率密度比\(r(\boldsymbol{x_i})=P_T(\boldsymbol{x_i})/P_S(\boldsymbol{x_i})\)を重みにした以下の対数尤度を最大にする\(\boldsymbol{\theta}\)を求めることで,\(P_T(c|\boldsymbol{x})\)を構築する.\[\sum_{i=1}^{N}r(\boldsymbol{x_i})\logP(c_i|\boldsymbol{x_i};\boldsymbol{\theta})\]また領域適応に対してはDaum{\'e}の手法\cite{daume0}が非常に簡易でありながら,効果が高い手法として知られている.Daum{\'e}の手法は,データの表現を領域適応に効果が出るように拡張し,拡張されたデータを用いてSVM等の学習手法を利用する手法である.ここでは拡張する手法を「素性空間拡張法(FeatureAugmentation)」と呼び,拡張されたデータを用いてSVMなどで識別までを行う手法を「Daum{\'e}の手法」と呼ぶことにする.拡張されたデータに対しては任意の学習手法が利用できる.つまり素性空間拡張法により拡張されたデータに対して,共変量シフトによる解法を利用することも可能である.本稿ではこの手法を提案手法とする.実験では現代日本語書き言葉均衡コーパス(BCCWJコーパス\cite{bccwj})における3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を利用する.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれらのコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.すべての領域である程度の頻度が存在する多義語16単語を対象にして,WSDの領域適応の実験を行う.領域適応としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りが存在する.結果\(16\times6=96\)通りのWSDの領域適応の問題に対して実験を行った.その結果,提案手法はDaum{\'e}の手法と同等以上の正解率を出した.本稿で用いた簡易な確率密度比の算出法であっても共変量シフトの解法を利用する効果が高いことが示された.より正確な確率密度比の推定法を利用したり,SVMを利用するなどの工夫で更なる改善が可能である.また教師なし領域適応へも応用可能である.WSDの領域適応に共変量シフトの解法を利用することは有望であると考えられる.
| |
V15N05-03
|
label{hajime}インターネットの拡大により大量の文書情報が入手可能となった現在において,ユーザが自分の望む情報を手早く手に入れるための要素技術として要約が重要となってきている.近年の自動要約の研究では新聞記事や論説文,議事録,特許文書を対象とするものが多い.こうした文書は論理的な構造を持つため,その文書構造を利用した要約手法が提案され,一定の成果が上げられている\cite{yamamoto1995,hatayama2002}.一方で,より多くの人がインターネットを使うようになり,Web上で多くの文芸作品が公開され,自由に読むことができるようになった.さらに,著作権の切れた文学作品を電子テキスト化し公開している青空文庫\footnote{http://www.aozora.gr.jp}のようなインターネット電子図書館も存在している.こうした背景から電子化された多くの文学作品や物語から好みに応じた,読みたい作品を探す手段としての要約(指示的要約)の必要性があると考えられる.また,近年``あらすじ本''と呼ばれる複数の文学作品のあらすじをまとめて紹介している本が出版されていることから,その内容を簡潔にまとめた原文書の代わりとして機能する要約(報知的要約)まで必要とされていることが伺える.物語の指示的要約には結末を含まず,物語の展開においてある程度重要な箇所を含んでいることが必要とされる.これに対して,重要な箇所の推定は物語全体の構成を把握することが必要である.よって本研究では物語に対して報知的要約を作成する手法の構築を目標とする.これにより同時に指示的要約もカバーすることができると考える.物語は登場人物が遭遇した出来事と登場人物の行動の描写で構成されている.出来事は基本的に時系列順に記述されるため,論説文に見られるような,主張する事柄を中心としてその前後に根拠や前提を配置するといった論理的な構成はほとんど存在しない.さらに,論説文では著者の主張が述べられている箇所が重要であるとされ,“〜する必要がある”や“〜すべきである”といった文末表現を手がかり語として要約作成に利用することができる.しかし,物語ではどの箇所が重要であるかは全体の流れや他の箇所との関係から決定されるため,そのような手がかり語を定義することができない.従って,新聞記事や論説文を対象としているような要約手法では物語の要約に適応しないと考えられる.また,新聞記事の要約では背景となる前提知識を読者が保有しているために文章の繋がりが悪くてもある程度は推測によって補完することができるため,要約中に記事中の重要文がいくつか存在すれば要約として機能する.これに対して物語では背景となる前提知識は物語固有であることが多いため,その要約は対象とする物語の重要な要素を含むだけでなく要約中の整合性まで考慮しなければ要約として十分に機能することができない.整合性とは文書の意味的なまとまりの良さのことであり,本稿では話題間の繋がりの良さのことを示す.本研究では話題の繋がりに焦点を置いた物語要約システムを構築する.物語は登場人物の行動を中心に展開していくことから,まず登場人物を自動抽出して,それを軸に話題にまとまりのある重要箇所(\ref{method}章参照)を取り出す.さらに重要箇所間の繋がりを補完し読みやすさを向上させるために,局所的重要度を測定し重要箇所間の連結を考慮した文抽出を提案する.本手法を評価するために物語9作品を用いた複数人による人手の要約評価を行い,ベースラインとしてtf$\cdot$idfを利用した重要文抽出手法との比較を行う.
| |
V16N01-04
|
label{Chapter:introduction}近年,文書情報に対するアクセス技術として,質問応答が注目されている.質問応答は,利用者が与えた自然言語の質問文に対し,その答を知識源となる大量の文書集合から見つける技術である.利用者が,ある疑問に対する解を知るために質問応答システムを単体で利用する場合には,各解候補のスコアに基づき,解候補群を順序づけて上位から提示することが多い.本稿では,この処理を優先順位型質問応答と呼ぶことにする.この場合は解答として採用するか否かは,利用者の判断に委ねられている.一方,質問応答技術は他の文書処理技術の中で活用されることも期待されている.質問応答の出力を他の文書処理技術の入力として容易に利用可能とするためには,優先順位型質問応答において利用者が行なっていた上記判断を自動的に行なう必要がある.また,「日本三景は何と何と何か」といったように複数の正解が存在する質問が存在することも考慮すべきである.これらのことより,決められた知識源の中から過不足なく与えられた質問の解を見つけ列挙する能力も重要であると考えられる.優先順位型質問応答の用件に加え,この能力を持つ仕組みをリスト型質問応答と呼ぶ\cite{Fukumoto:QAC1}\cite{加藤:リスト型質問応答の特徴付けと評価指標}.本稿では,上記の背景の下,リスト型質問応答を行なうための一手法を提案する.本手法では,優先順位型質問応答により得られた解候補の集合のスコアを基にいくつかのクラスタに分離することを考える.それぞれのクラスタを一つの確率分布とし,各確率分布のパラメタをEMアルゴリズムにより推定し,いくつかの分布に分離する.最後に,それぞれの分布を正解集合のスコアの分布と不正解集合のスコア分布のどちらであるかを判定し,各解候補がいずれの分布に由来するものなのかを推定し,最終的な正解集合を求める.質問応答システムには一般に精度が低くなりがちな質問(以下,「不得意な質問」と記す)が質問の型等に依存して存在するが\footnote{例えば,質問応答システムが採用している固有表現抽出器等のサブシステムの精度に依存する.固有表現抽出において一般に製品名は,人名や地名に比較して抽出精度が低い.},本手法では,複数の分布のパラメタを比較することにより,優先順位型質問応答により正解が適切に見つけられているか否かを判断することも可能である.ここで,正解が適切に見つけられているとは,優先順位型質問応答により正しい解が求められており,その解が上位にある(複数の場合は上位に集まっている)場合を指すこととする.
| |
V07N02-04
|
\label{sec:introduction}固有表現(NE=NamedEntity)抽出は情報抽出における基礎技術として認識されているだけでなく,形態素,構文解析の精度向上にもつながる重要な技術である.米国では1980年代からMUC(MessageUnderstandingConference)\cite{Muc:homepage}のようなコンテストが行なわれ,その技術の向上が図られてきた.日本においても1998年からコンテスト形式のプロジェクト「IREX(InformationRetrievalandExtractionExercise)」が始められ,そのタスクの一つとして固有表現抽出が盛り込まれた.このタスクで固有表現として抽出するのは,「郵政省」のように組織の名称を表すもの,「小渕恵三」のように人名を表すもの,「神戸」のように地名を表すもの,「カローラ」のように固有物の名称を表すものおよび,「9月28日」,「午後3時」,「100万円」,「10\%」のように日付,時間,金銭,割合を表す表現である.このように,固有名詞的表現だけでなく,時間表現,数値表現も抽出の対象としているため,本論文ではそれらをすべてまとめて固有表現と呼ぶ.このような固有表現は多種多様で,次々と新たに生み出されるためそのすべてを辞書に登録しておくことは不可能である.また,同じ表現でも,あるときは地名としてまたあるときは人名として使われるというようにタイプに曖昧性がある.そのため,テキストが与えられたときその中でどの部分がどのタイプの固有表現であるかを同定するのは容易ではない.固有表現を抽出する方法には大きく分けると,人手で作成した規則に基づく方法と学習に基づく方法がある.固有表現の定義は抽出したものを何に応用するかによって異なってくるものであるため,前者の方法では定義が変わるたびに規則を人手で作成し直す必要がありコストがかかる.後者の方法は学習コーパスを作る必要があるが,データスパースネスに強い学習モデルを使えばそれほど大量のコーパスがなくても高い精度が得られる.そこで我々は後者の方法をとることにした.この学習に基づく方法は英語での固有表現抽出の研究でも用いられている.例えば,HMM\cite{Bikel:97,Miller:98},決定木モデル\cite{Cowie:95},ME(最大エントロピー)モデル\cite{Borthwick:98},共起情報\cite{Lin:98},誤り駆動の書き換え規則\cite{Aberdeen:95}などに基づくシステムがある.学習に基づく方法としてMUCのコンテストで最も精度が高かったのはHMMに基づくNymbleという名のシステムである.このシステムは基本的に以下のような手法をとっている.まず学習では,MUCのNEタスクで定義された「PERSON」や「ORGANIZATION」などの固有表現およびそれ以外を表す「NOT-A-NAME」をそれぞれ状態として持つ状態遷移図を用意し,ある状態で,ある単語が入力されたときにどの状態に移るかを状態遷移確率として求める.そして,解析する際には,ビタビアルゴリズムを用いて,入力された単語列が辿り得る状態のパスうち,最適なパスを探索し,順次,辿った状態を出力することで固有表現を抽出する.他の学習手法を用いたシステムも確率の計算方法は違うが同様の手法をとっていることが多い.Borthwickらは,この学習に基づくシステムおよび人手で作成した規則に基づくシステムの中から,それぞれMUCで比較的精度の高かったシステムを選びそれらを学習に基づく方法によって統合することによってより高い精度を得ている\cite{Borthwick:98}.あるデータに対しては人間のパフォーマンスを越えるような結果も得られている\cite{Borthwick_muc:98}.学習に基づく方法は固有表現抽出の研究以外に形態素解析や構文解析においてもよく用いられている\cite{Uchimoto99_jinbun}.学習モデルとしてはMEモデルを用いたものが優れた精度を得ていることが多く\cite{ratnaparkhi:emnlp96,ratnaparkhi:emnlp97,Uchimoto:eacl99},データスパースネスに強いため,我々は固有表現抽出においてもこのMEモデルを用いることにした.さらに後処理として,誤り駆動により獲得した書き換え規則を用いる.この書き換え規則を用いる手法は形態素解析でも用いられている\cite{Brill:95,Hisamitsu:98}.固有表現の定義はIREX固有表現抽出タスク(IREX-NE)の定義\cite{irex:homepage}に基づくものとする.その定義によると,固有表現には「日本」や「国立/公文書/館」(/は形態素の区切りを表す)のように一つあるいは複数の形態素からなるもの,あるいは「在米」の「米」,「兵庫/県内」の「兵庫県」のように形態素単位より短い部分文字列を含むものの2種類がある.前者の固有表現は,固有表現の始まり,中間,終りなどを表すラベルを40個用意し,各々の形態素に対し付与すべきラベルを推定することによって抽出する.ラベルの推定にはMEモデルを用いる.このMEモデルでは学習コーパスで観測される素性と各々の形態素に付与すべきラベルとの関係を学習する.ここで素性とはラベル付与の手がかりとなる情報のことであり,我々の場合,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞の情報のことである.ラベルを推定する際には,入力文を形態素解析し,MEモデルを用いてそれぞれの形態素ごとにそこで観測される素性から各ラベルの尤もらしさを確率として計算し,一文全体における確率の積の値が高くなり,かつラベルとラベルの間の連接規則を満たすように各々の形態素に付与するラベルを決める.一文における最適解の探索にはビタビアルゴリズムを用いる.一方,後者の固有表現のように形態素単位より短い部分文字列を含む固有表現は上記の方法では抽出できないので,MEモデルを用いてラベルを決めた後に書き換え規則を適用することによって抽出する.書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.一つあるいは複数の形態素からなる固有表現についても同様に書き換え規則を適用することは可能であるが,本論文ではMEモデルについてはラベル付けの精度に重点を置き,書き換え規則についてはできるだけ簡便な獲得方法を用いて効果をあげることに重点を置く.本論文ではIREX-NE本試験に用いられたデータに対し我々の手法を適用した結果を示し,さらにいくつかの比較実験からMEモデルにおける素性と精度の関係,学習コーパスの量と精度の関係,さらに簡便な方法を用いて自動獲得した書き換え規則がどの程度精度に貢献するかを明らかにする.
| |
V29N04-08
|
適切な経済政策の運営には,足もとの景気動向をできるだけ迅速かつ正確に把握することが肝要である.ところが,一国のマクロ経済活動の最も重要な指標であるGDP(国内総生産)は,3か月に1度しか観測されない四半期データであり,対象とする四半期の終了から一次速報値の公表までに約6週間を要する.景気の現状判断のための速報性を重視した景気動向指数の一致指数については,より観測頻度の高い月次データである鉱工業生産指数,有効求人倍率,全産業の営業利益,小売業や卸売業の商業販売額等,合計10個の一致系列を統合することで計算されるが,それでも対象とする月から1か月以上公表が遅れてしまう.そこで景気動向指数の採用系列のような数値による伝統的な構造化データに代わり,テキスト情報,位置情報,決済情報,衛星画像情報を含む非構造化データやオルタナティブデータを利用することによって高頻度かつ高精度に足もとの経済活動を把握する,いわゆるナウキャストの試みが近年進められている.特に,直近の新型コロナ感染症拡大に伴う景気後退局面では,位置情報のデータを用いた生産活動のナウキャストやクレジットカード決済情報のデータを用いた消費活動のナウキャストが注目を集めた\cite{Oh-etal-2021,BOJ-2020}.本稿では,テキスト情報のデータを用いた景気動向のナウキャストや将来予測に有用であると考えられるマクロ経済分野の新しい極性辞書(以下,景気単語極性辞書)の構築とその応用可能性に関する技術報告を行う.伝統的なデータでは直接観測することが困難であったマクロ経済の変動要因を,政府や民間のテキストデータから定量化する研究は,当初は英語圏の欧米経済の分析を中心に進められてきた.著名な研究例としては,新聞のニュース記事中の経済政策の不確実性に関する単語の出現頻度を数値化した経済政策の不確実性指数があり,この指数はマクロ経済活動に占める不確実性の波及効果の分析で頻繁に利用されている\cite{Baker-etal-2016}.また,中央銀行の議事録に対してトピックモデルを適用し,様々なマクロ経済現象の中から,特に中央銀行が重視するトピックを抽出することによって金融政策の要因分析を行う試みもある\cite{Hansen-etal-2016}.さらにGDP,インフレ率,失業率等の主要なマクロ経済変数の将来予測についても,伝統的なデータのみを用いる従来の方法に比べて,新聞記事等のテキストデータを活用することで予測力が改善されるという共通認識も広まっている\cite{Kalamara-etal-2022}.これらのマクロ経済分析で用いられたテキストデータの数値化では,計算言語学や自然言語処理等の分野で開発されてきた分析手法や言語資源等が重要な役割を担ってきた.このようにテキストデータを利用した分析は近年のマクロ経済研究に大きく寄与している一方で,多くの研究は英語を対象としたものであり,日本語を対象とした研究の数は相対的に少ない.この理由としては,日本語で記述されたテキストデータの分析を研究対象とするマクロ経済学者が少ないことに加えて,マクロ経済分野に適した日本語の言語資源の不足がある.例えば,前述の\cite{Kalamara-etal-2022}は,英語の新聞ニュース記事を用いた英国マクロ経済の将来予測の分析であるが,複数の極性辞書やルールからテキストデータを指数化することによって予測変数を作成している.このように,英語の分析では評価の定まった辞書やルールが利用できる一方で,マクロ経済分野で確立された日本語の極性辞書は存在しない\footnote{マクロ経済学と隣接したドメインであるファイナンス(金融)分野では\cite{Goshima-Takahashi-2017}や\cite{Ito-etal-2018}が極性辞書を構築している.また,同分野の英語の極性辞書としては\cite{Loughran-etal-2011}が広く用いられている.マクロ経済学は一国全体の財(モノ)やサービスの生産と消費の構造や貨幣の流れを解明し,国民厚生の最大化を目的としたマクロ経済政策を研究する学問分野であるのに対し,ファイナンスは資産価格決定や投資家のポートフォリオ選択,企業の資金調達等のミクロ行動を主に分析対象とする学問分野である.}.さらに,英語の先行研究と同じ一般的な手続きを採用しようとしても,経済分析に適した単語分割やストップワードの除去等の日本語の前処理方法に関する研究の蓄積も十分とはいえない.このような日本語の言語資源の不足は,テキストデータを用いたマクロ経済研究の敷居を高める要因となっている.以上の問題意識から,マクロ経済分野,特に景気動向の現状把握と将来予測に適した日本語の景気単語極性辞書の構築は,テキストデータを用いた経済研究の発展に貢献できると考えられる\footnote{本稿で構築した景気単語極性辞書は株式会社日本経済新聞社のウェブページ(\url{https://nkbb.nikkei.co.jp/alternative/service/dictionary/})から提供されている.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V26N01-05
|
\label{sec:introduction}対話システムがユーザ発話から抽出するべき情報は,背後にあるアプリケーションに依存する.対話システムをデータベース検索のための自然言語インタフェースとして用いる場合,対話システムはデータベースへのクエリを作成するために,ユーザ発話中で検索条件として指定されるデータベースフィールドとその値を抽出する必要がある.データベース検索対話において,ユーザ発話中からこのような情報を抽出する研究はこれまで多くなされてきた.例えば,\citeA{raymond2007generative,Mesnil2015,Liu2016a}は,ATIS(TheAirTravelInformationSystem)コーパス~\cite{Hemphill:1990:ASL:116580.116613,Dahl:1994:ESA:1075812.1075823}を用いて,ユーザ発話からデータベースフィールドの値を抽出する研究を行っている.ATISコーパスはWizard-of-Ozによって収集されたユーザと航空交通情報システムとの対話コーパスであり,各ユーザ発話中の表現には,出発地や到着日などのデータベースフィールドに対応するタグが付与されている.ATISコーパスを用いた研究の課題はタグの付与された情報を発話から精度よく抽出することである.これらの研究の抽出対象である出発地や到着日などの情報はユーザ発話中に明示的に出現し,直接データベースフィールドに対応するため,データベース検索のための明示的な条件となる.一方,実際の対話には,データベースフィールドには直接対応しないものの,クエリを作成するために有用な情報を含む発話が出現し,対話システムがそのような情報を利用することで,より自然で効率的なデータベース検索を行うことが可能になる.例として,不動産業者と不動産を探す客の対話を考える.不動産業者は対話を通じて客が求める不動産の要件を確認し,手元の不動産データベースから客の要件を満たす不動産を絞り込む.このとき,客の家族構成は,物件の広さを絞り込む上で有用な情報であろう.しかし,家族構成は物件の属性ではなく客の属性であるため,通常,不動産データベースには含まれない.客の家族構成のように,データベースフィールドには直接対応しないが,データベース検索を行う上で有用な情報を{\bf非明示的条件}と呼ぶ\cite{Fukunaga2018}.我々は,非明示的条件を「データベースフィールドに明示的に言及しておらず,『xならば一般的にyである』という常識や経験的な知識によってデータベースフィールドと値の組(検索条件)へ変換することができる言語表現」と定義する.例えば,「一人暮らしをします」という言語表現は,物件の属性について明示的に言及していない.しかし,『一人暮らしならば一般的に物件の間取りは1LDK以下である』という常識により,〈間取り$\leq$1LDK〉という検索条件に変換できるため,これは非明示的条件となる.一方,「賃料は9万円を希望します」や「築年数は20年未満が良いです」のような言語表現は,データベースフィールドに明示的に言及しているため,非明示的条件ではない.また,「渋谷で探しています」のようにデータベースフィールドが省略されている場合でも,省略の補完によって【エリア】というデータベースフィールドに明示的に言及する表現に言い換えることが可能である場合は非明示的条件とはみなさない.\citeA{Taylor1968}による情報要求の分類に照らすと,明示的な検索条件は,ユーザ要求をデータベースフィールドとその値という形式に具体化しているため,調整済みの要求(compromisedneed)に対応する.一方,非明示的条件は,ユーザ自身の問題を言語化しているが検索条件の形式に具体化できていないため,形式化された要求(formalisedneed)に対応する.非明示的条件を利用する対話システムを実現するためには,以下の2つの課題が考えられる.\begin{itemize}\item[(1)]非明示的条件を含むユーザ発話を,データベースフィールドとその値の組(検索条件)へ変換する.\item[(2)]ユーザ発話中から,(1)で行った検索条件への変換の根拠となる部分を抽出する.\end{itemize}課題(1)は,非明示的条件を含む発話からデータベースへのクエリを作成するために必要な処理である.図\ref{fig:dial_ex}に示す対話では,客の発話に含まれる「一人暮らし」という文言から,〈間取り$\leq$1LDK〉という検索条件へ変換できる.本論文では,課題(1)を,発話が関連するデータベースフィールドを特定し,そのフィールドの値を抽出するという2段階に分けて考え,第一段階のデータベースフィールドの特定に取り組む.1つのユーザ発話が複数のデータベースフィールドに関連することもあるので,我々はこれを発話のマルチラベル分類問題として定式化する.発話からフィールドの値を抽出する第二段階の処理は,具体的なデータベースの構造や内容が前提となるため,この論文では扱わず,今後の課題とする.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f1.eps}\end{center}\caption{対話と非明示的条件から検索条件への変換の例}\label{fig:dial_ex}\end{figure}課題(2)によって抽出された根拠はデータベースへのクエリに必須ではないが,システムがユーザへの確認発話を生成する際に役立つ.非明示的条件を検索条件へ変換する際に用いるのは常識や経験的な知識であり例外も存在するため,変換結果が常に正しいとは限らない.例えば,不動産検索対話において一人暮らしを考えている客が2LDKの物件を希望することもありうる.したがって,システムの解釈が正しいかどうかをユーザに確認する場合がある.この際,システムが行った解釈の根拠を提示することで,より自然な確認発話を生成することができる.図~\ref{fig:dial_ex}のやり取りにおいて,「一人暮らしをしたいのですが.」というユーザ発話をシステムが〈間取り$\leq$1LDK〉という検索条件へ変換したとする.このとき,単に「間取りは1LDK以下でよろしいですか?」と確認するよりも,「一人暮らしということですので,間取りは1LDK以下でよろしいですか?」とシステムが判断した理由を追加することでより自然な対話となる.また,対話として自然なだけではなく,ユーザがシステムの判断に納得するためにも根拠を提示することは重要である\cite{XAI-Gunning,XAI-Monroe}.このような確認発話を生成する際に,ユーザ発話中の「一人暮らし」という表現を〈間取り$\leq$1LDK〉の根拠として抽出することは有用である.また,非明示的条件を含むユーザ発話が与えられたとき,その非明示的条件に関連するデータベースフィールドについての質問を生成するためにも抽出した根拠を利用できる.例えば,図~\ref{fig:dial_ex}中のユーザ発話を【間取り】というデータベースフィールドへ分類し,その根拠として「一人暮らし」を抽出した場合,「一人暮らしということですが,間取りはいかがなさいますか?」という質問を生成できる.非明示的条件に対応できない対話システムでは,このようなユーザ発話に対して,ユーザ発話を理解できなかったという返答を行うか,まだ埋まっていない検索条件について質問を行うことしかできない.また,根拠を抽出し,蓄積することにより,対話中でどのような非明示的条件が出現しやすいかということを,システムの開発者が知ることができる.仮に,「一人暮らし」や「家族4人」のような客の家族構成の情報が頻繁に出現することがわかれば,システムの開発者は,家族構成に関係する情報をデータベースに新規に追加するという改良を施すことができる.本論文では,データベースフィールドへのマルチラベル分類と同時に,根拠抽出を行う.非明示的条件から検索条件への変換の根拠を各発話に対してアノテーションすることはコストが高いため,教師なし学習によって根拠抽出を行う.本論文の貢献は,データベース検索を行うタスク指向対話において,非明示的条件を含むユーザ発話をデータベースフィールドと値の組(検索条件)へ変換し,同時にその根拠をユーザ発話中から抽出する課題を提案することである.本稿では,この課題の一部であるデータベースフィールドへの分類と根拠抽出を行うために,(1)サポートベクタマシン(SVM),(2)回帰型畳込みニューラルネットワーク(RCNN),(3)注意機構を用いた系列変換による3種類の手法を実装し,その結果を報告する.本論文の構成は以下の通りである.2節では関連研究について述べ,本論文の位置付けを明らかにする.3節では本論文で利用するデータと問題設定について詳述する.4節ではデータベースフィールドへの分類とその根拠抽出手法について述べる.5節では評価実験の結果について述べ,6節で本論文をまとめる.
| |
V08N04-03
|
自然言語をコンピュータで処理するためには,言語学的情報に基づいて構文解析や表層的意味解析を行うだけではなく,われわれが言語理解に用いている一般的な知識,当該分野の背景的知識などの必要な知識(記憶)を整理し,自然言語処理技術として利用可能な形にモデル化することが重要になっている.一般性のある自然言語理解のために,現実世界で成り立つ知識を構造化した知識ベースが必要であり,そのためには人間がどのように言葉を理解しているかを調べる必要があると考えている.初期の知識に関する研究では,人間の記憶モデルの1つとして意味的に関係のある概念をリンクで結んだ意味ネットワーク・モデルが提案されている.CollinsとLoftusは,階層的ネットワークモデル\cite{Collins1969}を改良し,意味的距離の考えを取り入れ活性拡散モデルを提案した\cite{Collins1975}.意味的距離をリンクの長さで表し,概念間の関係の強いものは短いリンクで結んでいる.このモデルによって文の真偽判定に関する心理実験や典型性理論\cite{Rosch1975}について説明した.大規模な知識ベースの例として,電子化辞書があげられる.日本ではコンピュータ用電子化辞書としてEDR電子化辞書が構築されている\cite{Edr1990}.WordNetはGeorgeA.Millerが中心となって構築した電子化シソーラスで,人間の記憶に基づいて心理学的見地から構造化されている\cite{Miller1993}.EDR電子化辞書やWordNetは自然言語処理分野などでもよく参照されている.連想実験は19世紀末から被験者の精神構造の把握など,臨床検査を目的として行なわれている.被験者に刺激語を与えて語を自由に連想させ,連想語の基準の作成・分析などの研究がある.50年代から臨床診断用としてだけでなく,言語心理学などの分野も視野にいれた研究が行なわれている.梅本は210語の刺激語に対し大学生1000人の被験者に自由連想を行ない,連想基準表を作成している\cite{Umemoto1969}.選定された刺激語は,言語学習,言語心理学の研究などに役立つような基本的単語とし,また連想を用いた他の研究との比較可能性の保持も考慮にいれている.しかし連想基準表を発表してから長い年月が経っており,我々が日常的に接する基本的単語も変化している.本研究では小学生が学習する基本語彙の中で名詞を刺激語として連想実験を行い,人間が日常利用している知識を連想概念辞書として構造化した.また刺激語と連想語の2つの概念間の距離の定量化を行なった.従来の電子化辞書は木構造で表現され,概念のつながりは明示されているが距離は定量化されておらず,概念間の枝の数を合計するなどのような木構造の粒度に依存したアドホックなものであった.今後,人間の記憶に関する研究や自然言語処理,情報検索などに応用する際に,概念間の距離を定量化したデータベースが有用になってくると考えている.本論では,まず連想実験の内容,連想実験データ修正の方法,集計結果について述べる.次に実験データから得られる連想語と連想時間,連想順位,連想頻度の3つのパラメータをもとに線形計画法によって刺激語と連想語間の概念間の距離の計算式を決定する.得られた実験データから概念間の距離を計算し連想概念辞書を作成する.連想概念辞書は,刺激語と連想語をノードとした意味ネットワークの構造になっている.次に,連想概念辞書から上位/下位階層をなしている意味ネットワークの一部を抽出,二次元平面で概念を配置してその特徴について調べた.また,既存の電子化辞書であるEDR電子化辞書,WordNetと本論文で提案する連想概念辞書の間で概念間の距離の比較を行ない,連想概念辞書で求めた距離の評価を行なう.
| |
V23N01-03
|
近年Twitterによる人間同士の短文のやりとりを始めとしたインターネット上の大量の会話データから自動知識獲得\cite{Inaba2014}が可能になったことや,高性能な音声認識機能が利用可能なスマートフォン端末を多くの利用者が所有するようになったことで,雑談対話システムへの関心が,研究者・開発者側からも利用者側からも高まっている.対話システムが扱う対話は大きく課題指向対話と非課題指向対話に分けられるが,雑談は非課題指向対話に分類される.課題指向対話との違いについていえば,課題指向対話では対話によって達成する(比較的)明確な達成目標がユーザ側にあり,一般に食事・天気など特定の閉じたドメインの中で対話が完結するのに対し,雑談では,対話をすること自体が目的となり,明確な達成目標がないなかで多様な話題を扱う必要がある.また,課題指向対話では基本的に対話時間(目標達成までの時間)が短い方が望ましいのに対し,雑談ではユーザが望む限り対話を長く楽しめることが望まれる.そのため,適切な応答を返すという点において,雑談対話システムは,課題指向対話とは異なる側面で,様々な技術的困難さを抱える.これまで,雑談対話システムの構築における最も大きな技術的障壁の1つは,多様な話題に対応する知識(応答パターン)を揃えるコストであった.上記のように,この問題はインターネットからの自動獲得によって解消されつつある.また,ユーザを楽しませる目的\cite{Wallace2004,Banchs2012,Wilcock2013}だけであれば,システムがおかしな発言をしてしまうことを逆手にとって,適切な応答を返しつづける技術的な困難さを(ある程度)回避してしまうことも可能である.その一方で,雑談対話には,ユーザを楽しませるという娯楽的な価値だけでなく,ユーザとシステムの間の信頼関係の構築\cite{Bickmore2001}や,ユーザに関する情報(ユーザの好みやユーザの知識の範囲)をシステムが取得することでユーザによりよいサービスを提供することを可能にする\cite{bang2015},遠隔地にいる老齢ユーザの認知・健康状態を測定したり認知症の進行を予防する\cite{Kobayashi2011},グループ内のコミュニケーションを活性化し人間関係を良好にする\cite{Matsuyama2013},といった工学的・社会的価値が存在する.このため,情報爆発,少子高齢化,生活様式の多様化と急激な変化による人間関係の複雑化といった諸問題を抱える現代社会において,雑談対話技術の更なる高精度化,すなわち適切な応答を返しつづける能力の向上が今まで以上に求められている.雑談対話の高精度化のためには,現状の技術の課題をエラー分析によって特定することが必要である.しかしながら,課題指向対話,特に音声対話システムにおける,主に音声誤認識に起因するエラーに関しては一定量の先行研究が存在するが,テキストのレベルでの雑談対話に関するエラーの研究はまだ少なく,エラー分析の根本となる人・機械間の雑談対話データの蓄積もなければ,そのデータに含まれるエラーを分析するための方法論・分類体系も十分でない.雑談対話システムがその内部でエラーを起こせば対話の破綻が起こり,ユーザが円滑に対話を継続することできなくなる.しかし,対話システムは,形態素解析,構文解析,意味解析,談話解析,表現生成など多くの自然言語処理技術の組み合わせによって実現され,かつシステム毎に採用している方式・構成も異なるため,システム内部のエラーを直接分析することは困難であるし,システム間で比較したり,知見を共有することも容易ではない.そこで我々はまず雑談対話の表層に注目し,破綻の類型化に取り組んだ.本論文では,対話破綻研究を目的とした雑談対話コーパスの構築,すなわち人・機械間の雑談対話データの収集と対話破綻のアノテーションについて報告する.そして,構築したコーパスを用いた分析によって得た破綻の分類体系の草案を示し,草案に認められる課題について議論する.以降,\ref{sec:data}節で対話データの収集について説明する.今回,新たに対話データ収集用の雑談対話システムを1つ用意し,1,146対話の雑談対話データを収集した.\ref{sec:annotation1}節及び\ref{sec:annotation2}節では,上記の雑談対話データに対するアノテーションについて述べる.24名のアノテータによる100対話への初期アノテーションについて\ref{sec:annotation1}節で説明し,その結果を踏まえて,残りの1,046対話について,異なりで計22名,各対話約2名のアノテータが行ったアノテーションについて\ref{sec:annotation2}節で説明する.\ref{sec:categorization}節では,\ref{sec:annotation2}節で説明した1,046対話に対するアノテーション結果の分析に基づく,雑談対話における破綻の類型について議論する.\ref{sec:relatedwork}節で関連研究について述べ,\ref{sec:summary}節でまとめ,今後の課題と展開を述べる.
| |
V13N01-06
|
近年,ロボットは様々な性能において躍進を遂げてきた.例えば四足で移動するペット用ロボット,ダンスを踊るロボット,走るロボット,人の顔を認識しいくつかの命令を受理できるロボットなどが挙げられる.それらに共通する未来像は「人と共存する機械」であると言えるだろう.人と共存するためには「会話」という大きなコミュニケーション要素が重要となってくると考えられる.また,ロボットが行う会話には,対人関係を円滑にし,利用者に対する精神的サポートを行うという目的が挙げられる.会話において,まず行われるのが挨拶である.挨拶は会話によるコミュニケーションを円滑にする一端を担っている.コンピュータやロボットに対しても,挨拶を行うことから次に会話が広がり人間とのコミュニケーションが円滑に行われると考える.本研究では会話処理の中でも特に挨拶処理についての仕組みを提案する.挨拶処理は従来テンプレートを適用するのみであり,あまり研究は行われていない.しかし,単に用意されたテンプレートだけを用いると応答が画一化され,設計者の作成した文章のみが出現するという問題点がある.挨拶に限らず,対話システムの多くはテンプレートを用いることが多い.対話システムの一つにEliza\cite{J.Weizenbaum1966}が挙げられる.このシステムは自然言語による対話システムであり,擬人化されたセラピストエージェントによって,カウンセリングを代行させる.Elizaでは相手の応答に対して答えを評価して返すということはせず,過去に発言した内容の一部分だけを覚えてその単語を組み込む.また,話題に関しては数種類のパターンを用意している,聞き手としてのシステムである.また,今日の対話システムに関する研究は,ある一定のタスク(達成目標)を満たすために行われる,タスク指向型対話\cite{douzaka2001}\cite{Kanda2004}\cite{Sugimoto2002}に関するものが多くを占めている.これらはテンプレートとその一部に変数となる予約語を用意しておき,ある条件が満たされるとそれに適当な文章を出力する.この様にある一定の状況下における制約条件の下,相手の応答に応じたテンプレートを導出し,テンプレート内の変数を予約語に変換する研究\cite{douzaka2001}\cite{Kanda2004}\cite{Sugimoto2002}は多数報告されている.しかし,これらはテンプレートの文章数及び予約語数に依って,出現する文章数が決定される.会話文の中でも特に挨拶文は設計者の作成した文章がそのまま使われることが多い.そこで,本稿で提案する挨拶処理システムの文章は,設計者が用意した挨拶知識ベースに存在しない新たな文章も作りだす.このことで多種多様な会話が生み出されると考えられる.
| |
V04N04-05
|
話し言葉や対話における特徴として,旧情報や述語の一部が省略されるなど,断片的で不完全な発話が多く現れるという点をあげることができる.このような断片的あるいは不完全な発話を正しく認識/理解するためには,対話に対する適切なモデルが必要となる.また,話し言葉や対話の音声認識を考えた場合,認識候補の中には統語的にも意味的にも正しいが,対話の文脈の中では不適切な認識候補が存在する場合もある.例えば,文末の述語「〜ですか」と「〜ですが」は,お互いに誤認識されやすいが,対話モデルを用いることにより,このような誤認識を避けられたり,あるいは誤り訂正が可能となることが期待できる.文献\cite{Nagata92,Nagata94}では,発話行為タイプ(IllocutionaryForceType;IFT)のラベルが付いたコーパスから,IFTのマルコフモデルを学習し,このモデルが対話のエントロピーを大きく減少させることを示している.我々は,同様のIFT付きコーパスを用いて,対話構造を表す確率モデルを自動生成する研究を行なった.我々の研究においては,確率的対話モデルの生成に2種類の独立な方法を用いた.最初の方法では,IFT付きコーパスの話者ラベルおよび発話行為タイプの系列を,エルゴードHMM(HiddenMarkovModel)を用いてモデル化した.この方法では,モデルの構造(状態数)をあらかじめ定めておき,次にモデルのパラメータ(状態遷移確率,シンボル出力確率,および初期状態確率分布)を学習データから推定した.2番目の方法では,状態の統合化を繰り返すことにより,最適な状態数を持つモデルを自動的に生成することのできる状態マージング手法を用いた.近年,状態マージング手法に基づく確率モデルの学習アルゴリズムがいくつか提案されているが\cite{Stolcke94a,Stolcke94b},我々はCarrascoらによるALERGIAアルゴリズム\cite{Carrasco94}を用いた.以下では,2節でIFT付きコーパスの概要について説明する.3節でエルゴードHMMによる対話構造のモデル化について述べ,4節で状態マージング手法による対話構造のモデル化について述べる.
| |
V03N04-07
|
自然言語の機械による処理方法の一つに,人間が与えた規則を用いて解析する方法がある.この方法では,一般に知識が複雑になるほど精密な解析ができるが,この複雑化に伴い知識獲得が難しくなるため,解析の対象となる話題を限定することがほぼ必須となる.この点において,人間により与えられた規則にのみ基づく解析は,限界にきているとの見方もある.これに対して,自然言語に関する統計的情報を自然言語処理に利用する研究が盛んに行われている\cite{utsu,kudo,mich}.人間によって与えられた規則を元に解析を行う方法においても,規則の適用される確率を統計的に調べておくことにより良い結果が得られることが多く,統計的な情報を自然言語処理に用いることは処理の効率化に効果があるとみられる.筆者らは既に,統計情報を自然言語処理に利用する方式の一つとして,コーパスに基づいて日本語文法を自動獲得する方法を提案している\cite{yoko2}.この獲得法は,まず構文木情報の付加されたコーパスから多数の文の構文木を作成し,それぞれの節点にランダムに非終端記号を割り当て,その後この割当てをエントロピーにより評価し,エントロピーが最小となるようシミュレーテッド・アニーリング法により割り当てを変更するものである\cite{shan,asai,patr}.この方法を新聞記事の文法の獲得に適用した所,得られた文法は終端記号と非終端記号との間の置き換え規則のエントロピーが比較的高いことがわかった.従って,この獲得法の単位として形態素より長い単位---認知単位---を利用することによりエントロピーを下げれば,パーザの動作効率を高めることができると期待される.本論文ではこのような知見に基づき,形態素より長い単位を人間による知覚実験の結果から定義し,文法の自動獲得に応用した,新しい方法を提案する.
| |
V05N01-05
|
コロケーション(Collocation)の知識は,単語間の共起情報を与える言語学的に重要な知識源であり,機械翻訳をはじめとする自然言語処理において,重要な意味をもっている.コロケーションとは,テキスト中に頻繁に出現する単語の組み合わせであり,言語的あるいは慣用的な表現であることから,様々な形態が考えられる.その例として,``{\itThankyouverymuch}''や``{\itIwouldliketo}''のような単語が連続している表現と,``{\itnotonly〜but(also)〜}''や``{\itnotsomuch〜as〜}''のように単語間にギャップを持つ不連続な表現が存在する.これらの表現はそれを一つのまとまった単位として処理する必要があり,その知識は機械翻訳への適用をはじめとして,音声・文字認識における認識結果の誤り訂正\cite{Omoto96}や,第二外国語を学習する際の手助けとするような言語学習や言語教育の分野にも適用できる\cite{Kita94a,Kita97}.以上のように,コロケーションの収集・整理は言語学的にも機械処理の面からも有益であるため,その収集の仕方は自然言語処理における重要な課題である.しかし,人手による収集では膨大な時間と手間が必要となり,かつコロケーションの定義が曖昧であるためにその網羅性・一貫性にも問題が生じる.これらの点から,コロケーションを自動的に抽出・収集する方法として,相互情報量を用いた方法\cite{Church90},仕事量基準を用いた方法\cite{Kita93,Kita94b},$n$-gramを用いた方法\cite{Nagao94},2つの単語の位置関係の分布を考慮する方法\cite{Smadja93}をはじめとして様々な方法が提案されている\cite{Shinnou94,Shinnou95a,Shinnou95b}.しかし,従来の方法の多くは連続したコロケーションを抽出の対象としており,不連続なコロケーションの抽出に関する研究はごく少数であった\cite{Omoto96,Ikehara95}.本論文では,単語の位置情報に基づき,連続型および不連続型の二種類のコロケーションをコーパスから自動的に抽出する方法を提案する.提案する手法は,コーパス全体からコロケーションを抽出するだけではなく,指定された任意の範囲(たとえば,何番目の文,または何番目から何番目の文の中)にあるコロケーションを同定することができる.また,提案する手法は,言語に依存しない(言語独立の)方法であり,機械翻訳等への様々な活用が期待できる.以下,本論文の第\ref{Sec:extract_abstract}節では,提案する手法の基本的な考え方とその特徴について述べる.本手法では,単語の位置情報をとらえるために,コーパス・データを受理する有限オートマトンを用いるが,第\ref{Sec:alergia_algorithm}節では,我々の用いたオートマトン学習アルゴリズムであるALERGIAアルゴリズムについて概略を述べる.第\ref{Sec:extract_algorithm}節では,第\ref{Sec:extract_abstract}節で述べた考えに基づく位置情報を用いた自動抽出アルゴリズムを提案する.第\ref{Sec:experiment}節では,本手法をATR対話コーパスに適用した結果を示し評価を行う.
| |
V21N02-02
|
平成11年から政府主導で行われた平成の大合併や,平成19年より施行された地方分権改革推進法など,地方政治を重視する取り組みが盛んに行われていたのは記憶に新しい.一方で,有権者の政治離れが深刻な問題となって久しく,平成25年7月21日の第23回参議院議員通常選挙における選挙区選挙では52.61\%の投票率\footnote{http://www.soumu.go.jp/senkyo/senkyo\_s/data/sangiin23/index.html}となり,参議院議員通常選挙において過去3番目に低い値となった.地方政治の場合,平成23年4月の第17回統一地方選挙の投票率は,48.15\%\footnote{http://www.soumu.go.jp/senkyo/senkyo\_s/data/chihou/ichiran.html}であり,さらに低い値となっている.地方政治に対する有権者の政治離れの原因には幾つか考えられるが,その一因に地方議会議員およびその活動の認知度の低さがあげられる.現状では,政治情報を入手するソースとしてテレビや新聞などのマスメディアが占める割合が大きいが,このようなマスメディアに首長以外の地方議会議員が取り上げられることはほとんどない.地方議会議員は国会議員と同様に住民による選挙によって選ばれ,かつ,国政よりも身近な存在であるべきであるにもかかわらず,その活動に関する認知度が低いのは大きな問題であると考える.そこで,住民に提供される地方政治の情報,特に地方議会議員に関する情報量の不足を解決するための方法の一つとして,Web上の情報を有効に利用することを考える.Web上に存在する議員の情報には,議員や政党のホームページ,ニュースサイトの政治ニュース,議員のブログやTwitterなどのSNS,マニフェスト,議会の会議録などがある.このうち会議録には,議員からの一方的な情報発信ではなく,議論や反対意見などのやりとりが含まれ,公の場における各議員の活動や考え方を知ることができる.また,研究対象として会議録を見た場合,会議録は,首長や議員の議論が書き起こされた話し言葉のデータであり,長い年月の議論が記録された通時的なデータであることから,政治学,経済学,言語学,情報工学等の様々な分野における研究対象のデータとして利用されている.例えば,政治学の分野では,平成の大合併前後に行われた市長選挙についての分析を行い,合併を行った市と行わなかった市の違いを当選者の属性から比較した平野\cite{hrn}の研究,合併が地方議会や議員の活動に対して与えた影響を856議員にアンケート調査することで分析を行った森脇\cite{mrwk}の研究などがある.また,経済学の分野では,「小規模自治体の多選首長は合併に消極的」という仮説を検証するために,全国の地方議員,首長の情報を人手で調査した川浦\cite{kwur,kwur2}の研究など,言語学の分野では,「去った○日」という表現(「去る○日」の意)が那覇市の会議録に見られることを指摘した井上\cite{inue},「めっちゃんこ」が名古屋市の会議録に見られることを指摘した山下\footnote{http://dictionary.sanseido-publ.co.jp/wp/2012/07/07/},形態素N-gramを用いて地方議会会議録の地域差を捉える方法について検討した高丸ら\cite{tkmr,tkmr1,tkmr2},発言者の出身地域とオノマトペの使用頻度についての分析を行った平田ら\cite{hrt}などの研究が存在する.情報工学の分野においても,特徴的な表層表現を手掛かりに国会会議録を対象とした自動要約を行った川端ら\cite{kwbt}や山本ら\cite{ymmt}の研究,住民の潜在的な関心を明確化するための能動的質問生成手法を提案した木村ら\cite{kim3}の研究などが存在し,海外でも,会議録中の発言を元にイデオロギーを分類するYuetal.\cite{bei}や,会議録で用いられている語句を可視化するGeodeetal.\cite{bart}などの研究が行われている.これらの研究を行う上で基礎となる会議録のデータであるが,国会の場合,国立国会図書館により会議録サイト\footnote{http://kokkai.ndl.go.jp/}が整備されており,第1回国会(昭和22年)以降のすべての会議録がテキストデータとして公開され,検索システムによって検索を行うことができる.一方で,地方議会会議録の場合,全ての自治体の会議録をまとめているサイトは存在せず,自治体ごとに参照する必要がある.加えて,自治体によりWeb上で公開されている形式が異なることが多いため,統一的に各自治体の会議録を扱おうとすれば収集作業や整形作業に労力がかかる.また,各研究者が重複するデータの電子化作業を個別に行っているといった非効率な状況も招いている.このような背景から,我々は地方政治に関する研究の活性化・学際的応用を目指して,研究者が利用可能な{\bf地方議会会議録コーパス}の構築を行っている.コーパスの構築にあたっては,木村ら\cite{kim1}や乙武ら\cite{ottk}において行われた,北海道の地方議会会議録データの自動収集や加工の技術を参考にし,全国の市町村の議会会議録を対象としたコーパス構築を行うこととした.地方議会会議録コーパスは,Web上で公開されている全国の地方議会会議録を対象として,「いつ」「どの会議で」「どの議員が」「何を発言したのか」を,発言に対して市町村や議会種別,年度や発言者名などの各種情報を付与することで構築し,検索可能な形式で収録する.また,近年,ヨーロッパではVoteMatch\footnote{http://www.votematch.net}と呼ばれる投票支援ツールが多くの利用者を獲得しており\cite{uekm,uekm2,kgm},日本でも「投票ぴったん\footnote{http://www.votematch.jpn.org/}」などの日本語版ボートマッチシステムが利用されていること,さらに平成25年4月19日から公職選挙法が一部改正され\footnote{http://http://www.soumu.go.jp/senkyo/senkyo\_s/naruhodo/naruhodo10.html},インターネットなどを利用した選挙運動のうち一定のものが解禁されたことなどから,我々は,地方議会会議録コーパスを用いて,会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムを最終的な目的としている.さて,地方議会会議録コーパスを構築すると,会議録を文字列や単語で検索することができるようになる.さらに,会議録の書誌情報や議員情報に基づいて簡単な注釈付けを行うことにより,年度や地域をまたいだ比較検討や,地域ごとの表現の差の分析などを行うことが可能となる.その一方で,我々が構築を目指しているシステムは利用者と政治的に近い議員を判断し利用者に提示するものであるため,会議録の書誌情報や発言議員名といった簡単な注釈付けのみでは議員の施策や事業に対する意見の判別を行うことができず不十分である.すなわち,議員の発言の中にある施策や事業に対する意見のように,下位構造が存在し,それらが結び付くことで一つの情報となるものに対しての分析を行うことは,会議録の文字列検索のみでは難しい.政治的な考えの近さは,一般に,施策や事業などへの賛否の一致度合いにより推測できると考えられ,上神ら\cite{uekm,uekm2,kgm}などのボートマッチシステムでも,この考え方に基づいている.さらに,議員の施策や事業に関する賛否の意見には,同じ賛成の立場をとる議員の間でもその賛成の度合いには差が存在している.例えば,「昨年度は○○などの事業に取り組んできた」と発言した議員と,「○○などの事業を行うのもやむを得ない」と発言した議員では,前者の方が既に自らが取り組んでいることを表明していることから,より積極的に賛成であると考えられる.積極的に賛成である議員の方が,消極的に賛成である議員よりも,彼らが賛成する施策や事業の実現に向けて尽力すると考えられるため,当該の施策や事業を実現してほしい利用者には,積極的に賛成である議員の方を提示することが望ましい.また,消極的に反対の意見を示している議員よりも,積極的に反対の意見を示している議員の方が,彼らが反対する施策や事業を廃止することに注力すると考えられるため,反対の立場を取る議員に対しても同様の考えが成り立つ.このように賛否に加えて積極性を考慮して,利用者と近い考えをもつ議員を判断する必要がある.以上の背景から,我々は,比較的簡単な処理により自動的に付与できるタグを地方議会会議録コーパス全体に付与するとともに,上記の政治情報システムの検討のために,会議録の一部に対して,議員の施策・事業に対する賛否とその積極性に関連する情報の注釈付けを行うこととした.本稿ではまず2節で関連研究について述べ,3節では地方議会会議録の収集及び地方議会会議録コーパスの構築について説明する.次に,4節では地方議会会議録コーパスの一部に対して我々が付与したタグの仕様や注釈結果の統計とその分析及び残された課題について述べる.最後に5節でまとめる.
| |
V07N03-02
|
\label{sec:Introduction}自然言語処理は文中の多義の要素の曖昧性を解消する過程といえる.高品質の自然言語処理システムの実現には,辞書中に曖昧性解消のために必要な情報を適切に記述しておくことが必須である.本論文は,どのようにして異なった構文構造から同じ意味表現を生成するか,また,どのようにして意味的に曖昧な文から,それぞれの曖昧性に対応する意味表現を生成するかに焦点を当てて,日本語の連体修飾要素の振る舞いの取り扱いを論ずる.これらの問題の解決に向けて,連体修飾要素の形式的記述法を確立するために,生成的辞書の理論\cite{Pustejovsky95,Bouillon96}を採用し,拡張する\cite{Isahara99}.我々は日本語の連体修飾要素の意味的曖昧性の解消を,「静的な曖昧性解消(staticdisambiguation)」と「動的な曖昧性解消(dynamicdisambiguation)」の二つに分類した.静的な曖昧性解消が辞書中の語彙情報を用いて行えるのに対し,動的な曖昧性解消は,知識表現レベルでの推論を必要とする.本論文は主として,動的な曖昧性解消を論ずる.形容詞を中心とする日本語の連体修飾要素の分類については,語の用法の違いに着目して,IPAL辞書の記述結果から,連体,連用,終止といった用法の分布特性を述べた研究\cite{Hashimoto92j}や,統語構造の分析という観点から連体と連用の対応関係を分析した研究\cite{Okutsu97}などがある.また,連体修飾の意味関係という点からは,松本が分析を行って\cite{matsumoto93j}おり,被修飾名詞の連体修飾節との関係は,単に埋め込み文になるような関係だけではなくて,意味論的語用論的な要因が関係する場合があることを示した.本研究で用いている分類は,それぞれの用法の下での語の意味的なふるまいを分析し,そこで見られる多様な意味関係を体系的に整理したものである\cite{Kanzaki99}.Pustejovskyは,松本が論じたような語用論的な要素など,語の意味が実現する文脈をも語の意味記述として辞書中で形式的に取り扱おうとしている\cite{Pustejovsky95}.この理論を英語やフランス語の形容詞に適用した研究がいくつかなされている\cite{Bouillon96,Bouillon99,Saint98}が,これらは対象が感情を表す形容詞等に限定されている.本研究では,日本語の連体修飾要素を,上に述べたような分類の中に位置づけて,形式的な意味の取り扱いを試みている.
| |
V13N03-07
|
「ある用語を知る」ということは,その用語が何を意味し,どのような概念を表すかを知ることである.それと同時に,その用語が他のどのような用語と関連があるのかを知ることは非常に重要である.特定の専門分野で使われる用語---{\bf専門用語}---は,その分野内で孤立した用語として存在することはない.その分野で使われる他の用語に支えられ,その関連を土台として,はじめて意味を持つ.それらの用語間の関連を把握することは,「その専門分野について知る」ことでもある.例えば,「自然言語処理」について知りたい場合を考えよう.まずは,「自然言語処理」という用語が表す意味,すなわち,「自然言語---人間が使っていることば---を計算機で処理すること」を知ることが,その第一歩となる.それと同時に,「自然言語処理」に関連する用語にはどのような用語があり,それらがどのような意味を持つかを知ることは,「自然言語処理」という分野を知るよい方法である.用語の意味を調べる方法は自明である.百科辞典や専門用語辞典を引くことによって,あるいは,ウェブのサーチエンジン等を利用することによって,比較的容易に達成できる場合が多い.それに対して,ある用語に関連する用語集合を調べる方法は,それほど自明ではない.上記の例の場合,好運にも「自然言語処理」用語集のようなものが見つかれば達成できるが,そのような用語集が多くの専門分野に対して存在するわけではない.関連用語を知ることが専門分野の理解につながるということは,逆に言えば,適切な関連用語集を作成するためには,その分野に関する専門知識が必要であるということである.事実,一つの専門分野が形成され成熟すると,しばしば,その分野の専門用語集・辞典が編纂されるが,その編纂作業は,その分野の専門家によって行なわれるのが普通である.その作業には,かなりの労力と時間が必要であるため,商業的に成立しうる場合にしか専門用語集は作成されないとともに,分野の進展に追従して頻繁に改定されることはまれである.このような現状を補完する形で,色々な分野に対する色々なサイズの私家版的用語集が作られ,ウェブ上に公開されている.このような現象は,相互に関連する専門用語群を知りたいというニーズが存在し,かつ,専門用語集が表す総体---分野---を知る手段として,実際に機能していることを示唆する.関連する専門用語群を集めるという作業は,これまで,その分野の専門家が行なうのが常であったわけであるが,この作業を機械化することはできないであろうか.我々が頭に描くのは,例えば,「自然言語処理」という用語を入力すると,「形態素解析」や「構文解析」,あるいは「機械翻訳」といった,「自然言語処理」の関連用語を出力するシステムである.このようなシステムが実現できれば,ある用語に対する関連用語が容易に得られるようになるだけでなく,その分野で使われる専門用語の集合を収集することが可能になると考えられる.このような背景から,本論文では,与えられた専門用語から,それに関連する専門用語を自動的に収集する方法について検討する.まず,第\ref{chap2}章で,本論文が対象とする問題---{\bf関連用語収集問題}---を定式化し,その解法について検討する.第\ref{sec:system}章では,実際に作成した関連用語収集システムについて述べ,第\ref{chap4}章で,そのシステムを用いて行なった実験とその結果について述べる.第\ref{chap5}章では,関連研究について述べ,最後に,第\ref{chap6}章で,結論を述べる.
| |
V15N01-03
|
日本語文のムードについて,いくつかの体系が提示されている(益岡,田窪1999;仁田1999;加藤,福地1989)\footnote{益岡ら(益岡,田窪1999)および加藤ら(加藤,福地1989)はムードという用語を用いているのに対して,仁田(仁田1999)はモダリティという用語を用いている.彼らによるムードあるいはモダリティの概念規定は表面的には異なるが,本質的には同様であると考えてよい.}.益岡ら(益岡,田窪1999)は,述語の活用形,助動詞,終助詞などの様々な文末の形式を対象にして,「確言」,「命令」,「禁止」,「許可」,「依頼」などからなるムード体系を提示している.仁田(仁田1999)は,述語を有するいわゆる述語文を中心に,日本語のモダリティを提示している.仁田の研究成果は益岡らによって参考にされており,仁田が提示しているモダリティのほとんどは益岡らのムード体系に取り込まれている.加藤ら(加藤,福地1989)は,助動詞的表現(助動詞およびそれに準じる表現)に限定して,各表現が表出するムードを提示している.提示されているムードには,益岡らのムード体系に属するものもあるが,「ふさわしさ」,「継続」など属さないものもある.既知のムード体系がどのような方法によって構成されたかは明確に示されてはいない.また,どのようなテキスト群を分析対象にしてムード体系を構成したかが明確ではない.おそらく,多種多様な文を分析対象にしたとは考えられるが,多種多様な日本語ウェブページに含まれるような文を対象にして,ムード体系を構成しているとは思われない.そのため,情報検索,評判分析(乾,奥村2006),機械翻訳などウェブページを対象にした言語情報処理がますます重要になっていくなか,既知のムード体系は網羅性という点で不十分である可能性が高い.本論文では,多種多様な日本語ウェブページに含まれる文を分析して標準的な既知のムードとともに新しいムードを収集するために用いた系統的方法について詳述し,新しいムードの収集結果を示す.また,収集したムードとその他の既知ムードとの比較を行い,収集できなかったムードは何か,新しく収集したムードのうちすでに提示されているものは何か,を明らかにする.そして,より網羅性のあるムード体系の構成について,ひとつの案を与える.ここで,ムードの収集にあたって本論文で用いる重要な用語について説明を与えておく.文末という用語は,文終了表示記号(句点など)の直前の単語が現れる位置を意味する.文末語という用語は文末に現れる単語を意味する.POSという用語は単語の品詞を意味する.例えば,「我が家へ\ul{ようこそ}。」という文において,文終了表示記号は「。」である.文末は下線部の位置であり,文末語は「ようこそ」であり,そのPOSは感動詞である.また,ムードの概念規定としては益岡ら(益岡,田窪1999)のものを採用する.彼らによれば「話し手が,文をコミュニケーションの道具として使う場合,ある特定の事態の表現だけではなく,その事態や相手に対する話し手の様々な判断・態度が同時に表現される」.この場合,事態や相手に対する話し手の判断・態度がムードである.ただし,本論文ではウェブページに記述された文を対象にすることから,文の書き手も話し手と見なすこととする.例えば,「毎日,研究室に来い.」という文は,相手に対して命令する態度を表現しており,「命令」というムードを表出している.また,「妻にはいつまでも綺麗でいて欲しい.」という文は,「妻がいつまでも綺麗である」という事態の実現を望む態度を表現しており,「願望」というムードを表出している.以下,2節では日本語ウェブページからムードを収集する際の基本的方針について述べる.3節ではムードを収集する具体的方法を与える.4節ではムード収集において分析対象とした文末語の網羅性について議論する.5節ではムードの収集結果を示す.6節では収集したムードと既知ムードとの比較を行う.7節では,より網羅性のあるムード体系の構成について一案を示す.8節では本論文のまとめと今後の課題について述べる.
| |
V21N06-04
|
日本語形態素解析における誤り要因の1つに辞書に含まれない語・表記の存在がある.本論文では形態素解析で使用する辞書に含まれない語・表記をまとめて未知語と呼ぶ.形態素解析における未知語は表\ref{Table::UnknownWordClassification}に示すようにいくつかのタイプに分類することができる.まず,未知語は既知語から派生したものと,既知語と直接関連を持たない純粋な未知語の2つに大きく分けられる.従来の日本語形態素解析における未知語処理に関する研究は,事前に未知語をコーパスから自動獲得する手法\cite{Mori1996s,Murawaki2008}と,未知語を形態素解析時に自動認識する手法\cite{Nagata1999,Uchimoto2001,Asahara2004c,Azuma2006,Nakagawa2007a}の2つに大きく分けることができるが,いずれの場合も網羅的な未知語処理が目的とされる場合が多く,特定の未知語のタイプに特化した処理が行われることは稀であった.\begin{table}[t]\caption{形態素解析における未知語の分類}\label{Table::UnknownWordClassification}\input{04table01.txt}\end{table}しかし,未知語はタイプにより適切な処理方法や解析の難しさは異なっていると考えられる.たとえば既知語から派生した表記であれば,それを純粋な未知語として扱うのではなく既知語と関連付けて解析を行うことで純粋な未知語よりも容易に処理することが可能である.また,一般的に純粋な未知語の処理は,単独の出現から正確に単語境界を推定するのは容易ではないことから,コーパス中の複数の用例を考慮し判断する手法が適していると考えられるが,オノマトペのように語の生成に一定のパターンがある語は,生成パターンを考慮することで形態素解析時に効率的に自動認識することが可能である.さらに,\ref{SEC::RECALL}節で示すように,解析済みブログコーパス\cite{Hashimoto2011}で複数回出現した未知語で,先行手法\cite{Murawaki2008}やWikipediaから得た語彙知識でカバーされないものを分析した結果,既知語から派生した未知表記,および,未知オノマトペに対する処理を行うことで対応できるものは異なり数で88個中27個,出現数で289個中129個存在しており,辞書の拡張などで対応することが難しい未知語の出現数の4割程度を占めていることが分かった.そこで本論文では既知表記から派生した未知表記,および,未知オノマトペに焦点を当て,既知語からの派生ルールと未知オノマトペ認識のためのパターンを形態素解析時に考慮することで,これらの未知語を効率的に解析する手法を提案する.
| |
V29N02-03
|
文法誤り訂正は言語学習者の書いた文法誤りを含む文を文法的に正しい文に訂正するタスクである.これまで文法誤り訂正では主に大規模なデータが存在する英語に焦点を当てて研究が行われており,数多くの有効な手法が提案されている\cite{zhaoetal2019improving,grundkiewiczetal2019neural,kiyonoetal2019empirical,Kaneko2020GEC,omelianchuk-etal-2020-gector,stahlberg-kumar-2021-synthetic}.近年,英語以外のロシア語やチェコ語などの言語においても文法誤り訂正の研究が行われ始めている\cite{rozovskayaroth2019grammar,naplavastraka2019grammatical,katsumata-komachi-2020-stronger,rothe-etal-2021-simple}.しかし,これらの言語の文法誤り訂正モデルを訓練するための人手で訂正を施した学習者データは小規模でしか存在しないという問題がある.小規模なデータしか存在しない問題に対処するために,様々なタスクで多言語のデータを活用する研究が進められている\cite{johnsonetal2017googles,Ruder2019ASO,Dabre2020}.そのような研究の一つに,対象とする言語のモデルの性能向上のために他言語のデータで学習したモデルの知識を用いる転移学習が存在する\cite{zophetal2016transfer}.先行研究においては,このような言語間での転移学習の性能について,言語間での類似度が大きく影響していることが示されている\cite{cotterellheigold2017cross,johnsonetal2017googles,martinez-garcia-etal-2021-evaluating}.例えば,同じ語族に属する言語は類似した文法規則や語彙を共有していることが多く,これらの言語間での類似性が対象となる言語のモデルを学習する際に有効だと考えられている.一方で,これまで文法誤り訂正において多言語の学習者データを用いて言語間での転移学習を試みた研究は少なく,格変化や単語の活用などのような文法誤りに関する知識が言語間で転移可能であるかは明らかになっていない.しかし,ある程度類似した言語,例えば同じ語族に属する言語であるロシア語やチェコ語のような言語間では文法的な正誤が転移可能なのではないかと考えられる.表\ref{tab:example}に示すのは「妹」を示す単語の日本語,ロシア語,チェコ語での格変化の一部である.日本語では主格と属格の変化を単語の変化ではなく,別に助詞を用いることで行っているのに対し,ロシア語とチェコ語は単語の活用で行っていることがわかる.この例はロシア語とチェコ語の格変化の類似性を示しており,このような言語間の類似した文法規則については言語間で転移させることが可能なのではないかと考えられる.そこで我々は,文法誤り訂正において事前学習モデルと多言語の学習者データを用いて,言語間での転移学習を行い,言語間での文法知識の転移が可能であるかを調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{02table01.tex}\caption{チェコ語とロシア語で類似した格変化.}\label{tab:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究の主な貢献は以下の4つである.\begin{itemize}\item文法誤り訂正において事前学習モデルと多言語の学習者データを用い,言語間での転移学習が可能であることを示した.\item転移学習に用いる事前学習モデルの構造が,多言語の学習者データを用いた文法誤り訂正の学習に大きく影響していることを示した.\item文法知識の転移には対象とする言語に近い言語の方が有効であり,言語間で類似した文法項目に関する知識の転移が行われていることを示した.\item言語間で類似した文法項目に関する知識の転移は転移元・転移先の言語のデータのサイズに関わらず起こることを示した.\end{itemize}本稿の構成を示す.2章では,既存の文法誤り訂正の研究や多言語の言語知識を考慮した先行研究について紹介する.3章では,本研究で行う言語間での転移学習を用いた文法誤り訂正の手法についての詳細を述べる.4章では,3章で述べた手法に対して複数の言語間で実験を行い評価する.5章では実験結果について事前学習モデルの構造や誤りタイプごとの訂正性能についての分析,疑似誤りデータによるデータ拡張との比較を行う.最後に6章で,本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
| |
V19N04-03
|
本論文では対象単語の用例集合から,その単語の語義が新語義(辞書に未記載の語義)となっている用例を検出する手法を提案する.新語義の検出は語義曖昧性解消の問題に対する訓練データを作成したり,辞書を構築する際に有用である.また新語義の検出は意味解析の精度を向上させる\cite{erk}.また新語義の用例はしばしば書き誤りとなっているので,誤り検出としても利用できる.新語義検出は一般にWordSenseDisambiguation(WSD)の一種として行う方法,新語義の用例をクラスターとして集めるWordSenseInduction(WSI)のアプローチで行う方法\cite{denkowski},及び新語義の用例を用例集合中の外れ値とみなし,外れ値検出の手法を用いる方法\cite{erk}がある.ここでは外れ値検出の手法のアプローチを取る.ただしデータマイニングで用いられる外れ値検出の手法は教師なしであるが,本タスクの場合,少量の用例に語義のラベルが付いているという教師付きの枠組みで行う方が自然であり,ここでは教師付き外れ値検出の手法を提案する.提案手法は2つの検出手法を組み合わせたものである.第1の手法は代表的な外れ値検出手法であるLocalOutlierFactor(LOF)\cite{lof}を教師付きの枠組みに拡張したものである.第2の手法は,対象単語の用例(データ)の生成モデルを用いたものである.一般に外れ値検出はデータの生成モデルを構築することで解決できる.提案手法では第1の手法と第2の手法の出力の積集合を取ることで,最終の出力を行う.提案手法の有効性を確認するために,SemEval-2の日本語WSDタスク\cite{semeval-2010}のデータを利用した.従来の外れ値検出の手法と比較することで提案手法の有効性を示す.実験を通して,外れ値検出に教師データを利用する効果も確認する.またSVMによるWSDの信頼度を利用した外れ値検出も行い,WSDシステム単独では新語義の検出は困難であることも示す.
| |
V14N02-03
|
従来の中国語構文解析では,文脈自由型句構造文法CFG(ContextFreePhraseStructureGrammar)で文の構造を取り扱うことが一般的となっている.しかし,句構造文法PSG(PhraseStructureGrammar)\footnote[1]{通常,句構造文法という用語は生成文法(変形文法),依存構造文法などと並べれて論じられ,GPSG,HPSG等の単一化文法理論を含む文法記述の枠組み,もしくは形式言語におけるチョムスキーの階層に関する文法記述の枠組みを表す.本論文では,句構造文法という用語を,「文を逐次的に句などの小さい単位に分割し,文を階層的な句構造によって再帰的な構造上の関係に還元して説明する考え方」の意味で用いる.}により構築した文法体系では,規則の衝突による不整合が避けられず,曖昧性は大きな問題となっている.中国語構文解析に関する研究はチョムスキーの文脈自由文法CFGを取り入れて始められた.しかし,中国語には次の特徴があり,CFGで中国語文構造を取り扱うと,曖昧性が顕著である.\begin{itemize}\item文はそのまま主部,述部,目的語になれる\cite{zhu1}.\item動詞や形容詞は英語のような動詞や形容詞の語尾変化などの形態的変化がない\cite{zhu1}.\item動詞など複数の品詞を持つ単語が多く,しかも頻繁に使用される\cite{zhou2}.\end{itemize}そのため,文脈自由文法で記述した規則は再帰性が強く,しかも構文的制限が非常に緩やかであり,文脈自由文法に基づいたパーザを用いて構文解析を行なうと,動詞や形容詞の数が増えるにつれて,曖昧性は爆発的に増大するという問題がある\cite{masterpaper}\cite{yang}.構文解析部の実装に関しては,コーパスに基づく手法と規則に基づく手法とがあるが,中国語処理においては,コーパスに基づく手法が主流となっている\cite{huang}.なかでも,確率文脈自由文法PCFG(ProbabilisticContextFreeGrammar)がよく用いられている\cite{ictprop1}\cite{xiong}\cite{linying}\cite{chenxiaohui}.しかし,確率的手法に基づく解析では,分野依存性が強く,精度上の限界がある.一方,規則に基づく手法では,西欧言語を対象とする解析手法を直接中国語に使用するのは問題があるため,中国語に適応した方法が模索されている段階にある\cite{zhang}.このような中国語構文解析における課題を解決することが中国語処理の発展に必要である.そのため,中国語において,コンピュータにより効率的に処理できる構文解析用の文法体系を構築することは大きな意義がある.本論文では,文構造において述語動詞(または形容詞)を中心とし,すべての構文要素を文のレベルで取り扱う{\bf文構造文法}{\bfSSG}(\underline{S}entence\underline{S}tructure\underline{G}rammar)を提案する.そして,SSGの考え方に基づき中国語におけるSSG文法規則体系を構築し,それを構造化チャートパーザSchart~\cite{schart}上に実装し,評価実験を行った.SSG規則は互いに整合性がよく,品詞情報と文法規則のみで解析の曖昧性を効果的に抑止し,PCFGに基づく構文解析より高い正解率が得られた.
| |
V07N04-12
|
手話言語は,主に手指動作表現により単語を表出するため,手指動作特徴の類似性が意味の類似性を反映している場合がある.例えば,図\ref{amandpm}に示した「午前」と「午後」という日本語ラベルに対応する二つの手話単語の手話表現を比較すると,手の動きが逆方向,すなわち,線対称な関係にあることが分かる.ここで,手話単語の手指動作特徴を手の形,手の位置,手の動きとした場合\cite{Stokoe1976},この単語対は,手の動きに関する手指動作特徴だけが異なる手話の単語対である.また,意味的には対義を構成し,動作特徴の類似性が意味の類似性を反映している単語対と捉えることができる.なお,手指動作特徴の一つだけが異なる単語対を特に,{\gt手話単語の最小対}と呼ぶ\cite{Deuchar1984}.明らかに,図\ref{amandpm}に示した単語対は,手の動きを対立観点とする手話単語の最小対を構成している.\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=gozen.ps,scale=0.4}\end{epsf}\begin{draft}\atari(102.38094,79.09428,1pt)\end{draft}\begin{epsf}\epsfile{file=gogo.ps,scale=0.4}\end{epsf}\begin{draft}\atari(102.38094,79.09428,1pt)\end{draft}\end{center}\caption{手の動きを対立観点とする手話単語の最小対(午前,午後)}\label{amandpm}\end{figure}このように,類似した動作特徴を含む手話の単語対の抽出と収集は,言語学分野における,手話単語の構造と造語法を解明する手がかりとして,重要であるばかりでなく,手話言語を対象とする計算機処理にも有益な知識データの一つとなる.例えば,計算機による手話単語の認識処理においては,認識誤りを生ずる可能性が高い単語対の一つと捉えることができる.一般に,人間の認識過程においても非常に類似している(差異が小さい)二つのオブジェクトを認識する際に,何の情報トリガも無ければ,同一のオブジェクトとして認識してしまう傾向がある.しかし,「このペアは似ているけど違うよ」というような情報トリガが与えられると,認識をより精密に行おうと(差異を検出)する傾向が見られる.一方,手話表現の生成処理においては,ある手話単語の手指動作特徴パラメータの一部を変更することで,別の手話表現を生成できることを意味する.また,日本語と手話単語との対訳電子化辞書システムを核とする学習支援システムの検索処理においては,類似の動作特徴を含む他の手話単語と関連付けて検索できるなど,学習効果の向上に貢献できるものと考える.本論文では,類似した手指動作特徴を含む手話言語の単語対(以後,本論文では,{\gt類似手話単語対}と略記する.)を与えられた単語集合から抽出する方法を提案し,その有効性を検証するために行った実験結果について述べる.本手法の特徴は,市販の手話辞典に記述されている手指動作記述文を手指動作の特徴構造を自然言語文に写像した手指動作パターンの特徴系列と捉え,手指動作記述文間の類似度計算に基づき,類似手話単語対を抽出する点にある.なお,関連する研究として,音声言語\footnote{本論文では,手話言語と対比させる意味で書記言語としての特徴を持つ日本語や英語などを総称して,音声言語と呼ぶことにする.}を対象とした同様なアプローチとして,市販の国語辞典や英語辞書に記述されている語義文(あるいは定義文)の情報を利用した単語間の意味関係や階層関係を抽出する研究\cite[など]{Nakamura1987,Tomiura1991,Tsurumaru1992,Niwa1993}が報告されている.以下,2章では,本研究の対象言語データである手指動作記述文の特徴と,その特徴から導出される特徴ベクトル表現について,3章では,手指動作記述文間の類似性に基づく手話単語間の類似度の計算方法について,4章では,本提案手法の有効性を検証するために行った実験結果を示し,5章で考察を行う.
| |
V10N05-08
|
大量の文書情報の中から必要な部分を抽出するために,自動要約技術などによって文書の量を制御し,短い時間で適確に内容を把握する必要性が高くなってきている.自動要約には,文書中の文を単位とし,なんらかの情報をもとに重要語を定義して各文の重要度を計算する方法がある.たとえば,文書中の出現頻度が高い単語は重要語になる可能性が高いという仮定のもとに,単語の重要度を計算する方法({\ittfidf}法)\cite{salton1989},自立語の個数を考慮して単語の重要度を計算する方法\cite{robertson1997},語彙的連鎖を用い重要度を計算する方法\cite{mochizuki2000}がある.新聞など文書の構造上の特徴から重要文を抽出する方法や,主張,結論,評価などの特別な語を含む文を重要文とする方法など,文書の重要な記述部分を示す語を含む文や,その文に含まれる単語の重要度を他の単語より上げる方法がある\cite{watanabe1996}.その他にも,接続詞,照応関係などから文間・単語間のつながりを解析し要約する方法,文書を意味ネットワーク化して,その上でコネクショニスト・モデルを用いて,接点の活性値の収束値を重要度として計算する要約方法\cite{Hasida1987,Nagao1998}などがある.要約文の表示には文書中の文単位で重要度を計算し,文書中での出現順にあわせて重要な文を提示していくという方法をとるものや,重要な語句・文・パラグラフなどの単位で抽出・表示するものが多い.複数の文を接続詞などでつなげてまったく新しい要約文書を生成するものは少ないが,文脈,文の重要部分,または構造を考慮して,重要文をさらに小さい単位で表示するシステムも出てきている\cite{nomura1999}.システムが抽出した要約文を評価する方法には,人間の被験者の要約と{\ittfidf}法などでシステムが抽出した要約とを再現率/適合率によって比較する方法\cite{Zechner1996},様々な手法で抽出された要約文を利用して,ある種のタスクを行ないその達成率で間接的に評価を行なう方法\cite{mochizukiLREC2000},要約は読み手の観点によって変化することに着目して複数の正解に基づいて評価する方法\cite{ishikawa2002}などがある.本論では,連想概念辞書をもとに,単語と単語の連想関係とその距離情報を使って文書中の単語の重要度を計算し,各文ごとの重要度を求め重要文の抽出を行なう.連想概念辞書は,小学校の学習基本語彙の名詞を刺激語とし,「上位概念」「下位概念」「部分・材料概念」「属性概念」「類義概念」「動作概念」「環境概念」の7つの課題に関して,大量の連想語を収集して構造化すると同時に,刺激語と連想語との距離が定量化されている\cite{Okamoto2001}.連想概念辞書の規模は見出し語が約660語,連想語が延べで約16万語である.単語の重要度の計算は,その単語の連想語もしくはその単語を連想する刺激語が文書中にあれば,二つの単語の距離から得られる値を使用して重要度を計算する.たとえば,「ガラパゴスには巨大な\underline{ゾウガメ}がいる.この\underline{カメ}は,島の中を悠然と歩いている.」のように「ゾウガメ」の上位概念である「カメ」を用いて言い換えている場合,「カメ」「ゾウガメ」の重要度を二つの単語間の距離に基づいて計算する.これによって,表層的に文書中の単語の出現頻度をもとにした重要度の計算では別の単語として処理されるが,本手法では上位/下位概念や部分・材料概念,属性概念,動作概念,環境概念などの連想関係も用いているので関連する単語の重要度を精密に計量することができる.次に人間を被験者として重要文を抽出する実験を行なう.被験者の観点によって抽出される重要文が違ってくる場合があるが,40人の被験者で実験を実施し,多くの被験者が上位に抽出している順番を重視して重要度を決定した.本論文では,既存の重要語抽出法と本手法での抽出結果とを,被験者による実験結果との一致度を比較することによって評価した.
| |
V10N05-06
|
我々はこれまで,多様なテキストを要約することのできる頑健な自動要約システムの開発をめざして,重要文抽出を基にした要約システムを作成・拡張してきた.その過程で,作成したシステムを用いて日本語・英語双方において新聞記事などの書き言葉を対象にした要約評価ワークショップに参加し,良好な評価結果を得た\cite{nobata:tsc2001,sekine:duc2001}.また,日本語の講演録を対象として重要文抽出データを人手によって作成し,そのデータに対して要約システムの実験・評価を行った\cite{nobata:orc2002}.日本語と英語など異なる言語や,書き言葉と話し言葉など異なる性質をもつテキストを要約するためには,どのような点が共通化できてどのような点を個別に対応する必要があるのかを,実際に要約データにあたって要約手法を適用し,その結果を検討する必要がある.本論文の目的は,これまで行ってきた日本語と英語,また書き言葉と話し言葉のデータそれぞれについて,共通の素性を用いた重要文抽出の結果について示すことと,それらのデータ間での各素性の分布がどのように共通しているか,異なるかを示すことである.我々のシステムは,重要文抽出をベースにして自動要約を行っている.これは,文章全体を1〜2割程度縮める要約ではなく文章を大きく縮めて要約するためには,重要文抽出もしくはそれに類する手法を用いることが必要であると考えたためである.重要文抽出は自動要約に用いられる主要な手法の一つである\cite{mani:aats,okumura:nlp1999-07}.文章から重要文を抽出するためには,各文がどの程度重要であるかを示す素性を用意する必要がある.文の位置情報,たとえば文章の先頭にあるものほど重要だとみなす手法は,単純ではあるが現在でも自動要約の主要な手法である.他にも記事中の単語の頻度などの統計的な情報や,文書構造を示す表現などの手がかりなどが用いられている.これらの素性を統合的に用いる手法も研究されており,例えば\cite{edmundson:acm1969}は人手で重み付けの値を与えることによって,\cite{watanabe:coling1996}は回帰分析,\cite{kupiec:sigir1995-s}や\cite{aone:colingacl1998}はベイズの規則,また\cite{nomoto:ipsj1997},\cite{lin:cikm1999}らは決定木学習を用いて複数の情報を統合している.本論文では,これらの論文で示されているように素性を統合的に用いた要約システムの評価結果を示すだけでなく,自動要約に用いられる主な素性の振舞い・素性の組合せによる重要文の分布の違いなどを,性質の異なる3種類の要約データにおいて比較・分析した点に特徴がある.以下では,\ref{section:data}章において各要約データについて説明し,\ref{section:system}章において重要文抽出システムの概要を述べ,\ref{section:evaluation}章において各要約データにシステムを適用した結果の評価を示す.さらに,\ref{section:analysis}章においてシステムが用いた素性の各データにおける分布について考察する.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.