Datasets:
mteb
/

Modalities:
Text
Formats:
parquet
Languages:
Japanese
ArXiv:
Libraries:
Datasets
pandas
License:
Dataset Viewer
Auto-converted to Parquet
id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V27N04-02
\label{sec:intro}並列構造とは等位接続詞が結びつける句(並列句)から成る構造である.並列句の範囲の解釈には曖昧性があり,しばしば人間にとっても同定することが難しい.例えば,``{\itToshiba'slineofportables,forexample,featurestheT-1000,whichisinthesameweightclass\underline{but}ismuchslower\underline{and}haslessmemory,\underline{and}theT-1600,whichalsousesa286microprocessor,\underline{but}whichweighsalmosttwiceasmuch\underline{and}isthreetimesthesize}.''という文を一目見て,各等位接続詞に対する並列句を全て見つけることは困難である.並列構造の存在は文を長くし,解釈を曖昧にするため,構文解析において誤りの要因となっている.等位接続詞に対する並列句を同定する方法として,先行研究は並列句の二つの性質を利用してきた.(1)類似性-並列句は類似した言語表現となる傾向がある.(2)可換性-並列句を入れ替えても文全体が文法的に適格である.\citeA{ficler-goldberg:2016:EMNLP}は並列句ペアの類似性と可換性の特徴に基づいた計算を行うニューラルネットワークと構文解析器を組み合わせる方法を提案した.\citeA{teranishi-EtAl:2017:IJCNLP}もこれらの二つの特徴を取り入れているが,構文解析の結果を用いずに最高精度の性能を達成している.どちらのアプローチも\citeA{shimbo-hara:2007:EMNLP-CoNLL}や\citeA{hara-EtAl:2009:ACL-IJCNLP}の類似性に基づく手法と比べて高い性能を得ているが,三つ以上の並列句を持つ並列構造や文中の複数の並列構造をうまく取り扱うことができない.特に文中に複数の並列構造が存在する場合には,並列構造の範囲が不整合に重なり合う状況が生じ得るという問題がある.対して,\citeA{hara-EtAl:2009:ACL-IJCNLP}は並列構造の範囲に不整合が生じることなく並列構造を導出できる生成規則を用いている.本論文では,並列構造解析における新しいフレームワークを提案する.このフレームワークでは等位接続詞と語系列上の二つの範囲(スパン)を取るスコア関数を用いる.スコア関数は二つのスパンが並列となる場合に高いスコアを返す働きを持つ.この関数を並列構造の導出規則に基づくCKYアルゴリズムと組み合わせることで,システムは入力文に対する並列構造の集合を範囲の競合なく出力する.このようなスコア関数を得るために,並列構造解析のタスクを等位接続詞の同定,並列句ペアの内側境界の同定,外側境界の同定の三つのサブタスクに分解し,それぞれに異なるニューラルネットワークを用いる.各ニューラルネットワークは並列構造の構成要素に対して局所的に学習を行うが,CKYアルゴリズムによる構文解析時に協調して働く.英語における評価実験の結果,我々のモデルは並列構造を範囲の競合なく導出できることを保証しつつ,\citeA{teranishi-EtAl:2017:IJCNLP}の手法の拡張や先行研究と比較して高い精度を達成していることが示された.本研究の貢献は以下のとおりである.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item並列句ペアに対するスコア関数の学習・適用によって並列構造を解析するというフレームワークを提案した.\item並列構造解析を三つのサブタスクに分解し,CKYアルゴリズムによる構文解析において協調して働くモデルを開発した.\item三つ以上の並列句を含む並列構造や文中の複数の並列構造を範囲の競合なく導出可能なシステムを確立し,既存手法を上回る解析精度を達成した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V26N02-05
Twitterに代表されるソーシャルメディアにおいては,辞書に掲載されていない意味で使用されている語がしばしば出現する.例として,Twitterから抜粋した以下の文における単語「鯖」の使われ方に着目する.\quad(1)\space今日、久々に{\bf鯖$_1$}の塩焼き食べたよとても美味しかった\quad(2)\spaceなんで、急に{\bf鯖$_2$}落ちしてるのかと思ったらスマップだったのか(^q^)\noindent文(1)と文(2)には,いずれも鯖という単語が出現しているが,その意味は異なり,文(1)における鯖$_1$は,青魚に分類される魚の鯖を示しているのに対し,文(2)における鯖$_2$は,コンピュータサーバのことを意味している.ここで,「鯖」という語がコンピュータサーバの意味で使用されているのは,「鯖」が「サーバ」と関連した意味を持っているからではなく,単に「鯖」と「サーバ」の読み方が似ているためである.このように,ソーシャルメディアにおいては,既存の意味から派生したと考えられる用法ではなく,鯖のような音から連想される用法,チートを意味する升のような既存の単語に対する当て字などの処理を経て使用されるようになった用法,企業名AppleInc.を意味する林檎など本来の単語を直訳することで使用されるようになった用法などが見られ,これらの用法は一般的な辞書に掲載されていないことが多い.文(2)における鯖$_2$のように,文中のある単語が辞書に掲載されていない意味で使用されていた場合,多くの人は文脈から辞書に載っている用法\footnote{本研究では,一般的な辞書に採録されている単語の用法を一般的,そうでないものを一般的ではないとする.}と異なる用法で使用されていることには気付くことができるが,その意味を特定するためには,なんらかの事前情報が必要であることが多い.特に,インターネットの掲示板では,援助交際や危険ドラッグなどの犯罪に関連する情報は隠語や俗語を用いて表現される傾向にある\cite{yamada}.しかし,全体として,どのような単語が一般的ではない意味で使われているかということを把握することは難しい.本研究では,このような性質を持つ単語の解析の手始めとして,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,ソーシャルメディア中の文に出現する単語の一般的ではない用例の検出に取り組む.ここで,単語の用法が一般的かそうでないかというような情報を多くの語に対し大量にアノテーションするコストは非常に大きいと考えられることから,本研究では教師なし学習の枠組みでこの問題に取り組む.検出の手がかりとして,まず,非一般的用法で使用されている単語は,その単語が一般的用法で使用されている場合と周辺文脈が異なるであろうことに着目する.具体的には,単語の用法を判断する上で基準とするテキスト集合における単語の用法と,着目している文中での用法の差異を計算し,これが大きい場合に非一般的用法と判断する.以下,本稿では単語の用法を判断する上で基準とするテキスト集合のことを学習コーパスと呼ぶ.非一般的用法を適切に検出するためには,学習コーパスとして,一般的用法で使用される場合が多いと考えられるテキスト集合を用いることが重要であると考えられることから,提案手法では,学習コーパスとして,新聞やインターネットを始めとする様々な分野から偏りなくサンプリングされたテキストの集合である均衡コーパスを使用する.また,提案手法における,学習コーパスと評価用データにおける単語の使われ方の差異の計算には,Skip-gramNegativeSampling\cite{Mikolov2013nips}によって学習された単語ベクトルを使用する.
V27N01-01
機械学習に基づく言語処理システムは,一般に,訓練に用いたテキストドメインと,実際に運用ないし評価を行うテキストドメインが異なる場合に精度が低下する.この,訓練時と運用・評価時のテキストドメインの異なりによる精度低下を防ぐという課題を,ドメイン適応問題と呼ぶ.以下では,訓練に用いるデータのテキストドメインを適応元ドメイン,運用ないし評価を行うデータのテキストドメインを適応先ドメインと呼ぶ.ドメイン適応が必要になる理由は,端的にいえば,訓練データと評価データが同一分布からのサンプルであるという統計的機械学習の基本的な前提が破られていることにある.このため,最も基本的なドメイン適応手段は,適応先ドメインのアノテーション付きコーパスを訓練データに追加してモデルを訓練しなおすこと,すなわち,いわゆる追加訓練によって,訓練データと評価データの分布を近づけることである.このように,追加訓練という明らかな解決法が存在するドメイン適応問題を,ことさら問題として取り上げるのには主に2つの理由がある.ひとつは工学的あるいは経済的な理由である.我々が言語処理技術を適用したいテキストドメインが多様であるのに対して,既に存在するアノテーション付きデータのドメインは限られており,かつ,ターゲットとなるドメインごとに新たにアノテーションを行うことには大きなコストが必要となる.また,単純な追加訓練を超えるドメイン適応技法の中には,大量に存在する適応先ドメインの生テキストを活用することでアノテーションのコストを抑えることを狙うものもあるが,本稿で取り上げる適応先ドメインの一つである教科書テキストのように,そもそも,生テキストですら大量に存在する訳ではないドメインもある.このため,既存のアノテーション付きデータに比べ相対的に少量しか存在しない適応先ドメインデータをどのように活用するかは,重要な技術課題となる.ドメイン適応問題が重要である2つ目の理由は,単一言語のデータには,明らかにテキストドメインを超えた共通性が存在するという点にある.例えば,教科書テキストを解析したい場合でも,モデルを新聞テキストで訓練することには,当然ある程度の有効性がある.簡単にいえば,「どちらも日本語だから」そのようなことが可能になるわけであり,およそ全てのドメイン適応技術はこの前提に基づいているが,しかし我々は「日本語とは何か」ということの数理的・統計的な表現を知った上でこれを行っている訳では当然ない.逆に言えば,ドメイン適応課題とは,あるタスクの精度向上という目的を通じた間接的な形であれ,「日本語とは何か・日本語テキストに共通するものは何か」の理解に近づくための一つの試みであるといえる.以上の2つの理由のいずれからも,最も基本的なドメイン適応手段である追加訓練が,どのような例に対して有効で,どのような例に対してそうでないのかを知ることには大きな意義がある.それを知るための基本的な方法は,追加訓練によって改善された誤りとそうでないものを一つ一つ観察し分類してゆくことだが,これを通じて,追加訓練によって全体として何が起こっているのかを把握することは必ずしも容易でない.そこで本稿では,追加訓練の効果を俯瞰的に観察・分析するための一手法を提示し,日本語係り受け解析タスクにおける追加訓練を例として,その効果の分析を行った結果を報告する.本研究における分析手法は,追加訓練前後の係り受け誤り例の収集・係り受け誤りの埋め込み・埋め込みのクラスタリングの3つのステップに分けられる.係り受け誤りの埋め込みは,クラスタリングを行うための前処理のステップであり,ニューラルネットに基づく係り受け解析器の内部状態を用いて,係り受け誤りを密な実数ベクトルで表現する.解析器の内部状態を用いることで,データにもとづいて導出された,係り受け解析タスクにおいて重要な特徴を抽出した表現に基づくクラスタリングを行うことができ,いわば,「解析器の視点」からの追加訓練の効果の分析が行えると期待できる.次に,こうして得られた埋め込みをクラスタリングすることで追加訓練の効果を俯瞰的に観察・分析する.具体的には,クラスタリング結果に対していくつかの統計的・定量的分析を行い,高次元の空間の点として表現された誤りの分布と,追加訓練による誤りの解消・発生の様子を観察する.さらに,適応先ドメインごとに,追加訓練の効果が特徴的に表れているクラスタや,効果が見られないクラスタに着目してその内容を観察することで,追加訓練の効果に関わるドメインごとの特徴を分析する.この際,一つ一つの誤り例だけでなく,まずクラスタとしてまとめて観察することで,追加訓練によって改善しやすい誤りや,ドメインごとに発生しやすい誤りを見出すことが容易になると考えられる.さらに,追加訓練の効果やドメイン間の差について,クラスタに含まれる誤りの観察をもとに仮説を立て,コーパス上の統計量にもとづきそれを検証することで,ドメイン適応の有効性に関わるテキストドメインの特徴を把握し,よりよい追加訓練手法のための基礎的な知見を得ることが期待できる.本稿では,適応元ドメインとして新聞記事,適応先ドメインとして理科教科書および特許文書を用いて上記の分析を行った結果を報告する.追加訓練の効果が特に強く認められたクラスタの誤りを詳細に分析した結果,「{$X$}は+{$V_1$}スル+{$N$}は/が/を+{$V_2$}スル」「{$X$}は+{$V_1$}スルと+{$V_2$}スル」(「{$V_k$}スル」は用言,{$N$}は体言)など,どのドメインにも出現する文型に対して,正しい構造の分布がドメイン間で異なることが学習されたためであると分かった.追加訓練が効果を上げる理由としては,大きく分けて,(a)適応元ドメインでは稀な構文が新たに学習されること,および,(b)表層的には類似した文型に対する正しい構文構造(の分布)が,適応元ドメインと適応先ドメインで異なることが学習されることの2つが考えられる.本研究の分析の結果からは,後者が追加訓練の主要な効果であることが示唆される.なお,本研究における分析手法は追加訓練と誤りの収集が可能な解析器であればニューラル解析器に限らず適用することができる.例えば,{\cite{weko_192738_1}}では\eijiSVM\Eijiを用いた解析器である\eijiCaboCha\Eiji{\cite{cabocha}}に対する追加訓練の影響を,ニューラル解析器から得られる埋め込み表現とクラスタリングを用いて分析している.ただし,本稿では誤り収集と埋め込み表現の作成は同じ解析器で行った.以下,\ref{sec:related_works}節で関連研究についてまとめ,\ref{sec:teian}節で分析手法について詳述する.\ref{sec:zikken}節で実験結果を述べ,\ref{sec:owarini}節でまとめと今後の展望を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2
V13N03-04
\label{sec:intro}スライドを用いたプレゼンテーションは,意見を人々に伝えるのに大変効果的であり,学会やビジネスといった様々な場面において利用されている.近年,PowerPointやKeynoteといったプレゼンテーションスライドの作成支援をするソフトが開発・整備されてきているが,一からスライドを作成することは依然として大変な作業である.そこで,科学技術論文や新聞記事からプレゼンテーションスライドを自動(または半自動)で生成する手法が研究されている.Utiyamaらは,GDAタグで意味情報・文章構造がタグ付けされた新聞記事を入力としてプレゼンテーションスライドを自動生成している\cite{Utiyama99}.また,安村らは,科学技術論文の\TeXソースを入力として,プレゼンテーション作成を支援するソフトウェアを開発している\cite{Yasumura03j}.しかし,いずれの研究においても,入力テキストに文章構造がタグ付けされている必要があり,入力テキストを用意することにコストがかかってしまう.\begin{figure}[t]\fbox{\begin{minipage}[t]{\hsize}大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通により,一日45万人,ラッシュ時最大1時間12万人の足が奪われた.JR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間については,震災直後から代替バスによる輸送が行われた.国道2号線が開通した1月23日から,同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施された.1月28日からは,国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保された.\end{minipage}}\caption{入力テキストの例}\label{fig:text_example}\end{figure}\begin{figure}[t]\begin{center}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}鉄道の復旧\end{center}\begin{itemize}\item大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通\begin{itemize}\item一日45万人,ラッシュ時最大1時間12万人の足が奪われた\end{itemize}\itemJR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間\begin{itemize}\item震災直後から\begin{itemize}\item代替バスによる輸送\end{itemize}\item国道2号線が開通した1月23日から\begin{itemize}\item同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施\end{itemize}\item1月28日から\begin{itemize}\item国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保\end{itemize}\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\end{center}\caption{自動生成されたスライドの例}\label{fig:slide_example}\end{figure}本稿では,生テキストからスライドを自動生成する手法を提案する.入力テキストの例を図\ref{fig:text_example},それから自動生成されたスライドの例を図\ref{fig:slide_example}\,に示す.本稿で生成するスライドは,入力テキストから抽出したテキストの箇条書きから構成される.箇条書きを使うことによって,テキストの構造を視覚的に訴えることができる.例えば,インデントが同じ要素を並べることで並列/対比関係を表わすことや,インデントを下げることによって詳細な内容を表わすことなどといったことが可能となる.従って,生成するスライドにおいて,箇条書きに適切なインデントを与えるには,入力テキストにおける,対比/並列関係や詳細化関係などといった文または節間の関係を解析する必要がある.本稿では,入力テキストの談話構造を解析し,入力テキストから抽出・整形されたテキストを箇条書きにし,そのインデントを入力テキストの談話構造に基づいて決定することによりスライドを生成する.生成されたスライドは入力テキストに比べて見やすいものにすることができる.特に,テキストに大きな並列や対比の構造があると,見やすいスライドを生成することができる.図\ref{fig:slide_example}\,の例では,「震災直後から」,「国道2号線が開通した1月23日から」,「1月28日から」の対比の関係が解析され,それらが同じインデントで表示されることにより見やすいスライドが生成されている.また,図\ref{fig:slide_example}\,の例の「震災直後から」と「代替バスによる輸送」のように,各文から主題を取り出し,主題部と非主題部を分けて出力することにより,スライドを見やすくしている.特に対比関係の場合,何が対比されているのかが明確になる.本稿で提案するスライド生成の手法の概要を以下に示す.\begin{enumerate}\item入力文をJUMAN/KNPで形態素解析,構文解析,格解析する.\item入力文を談話構造解析の基本単位である節に分割し,表層表現に基づいて談話構造解析を行なう.\item入力文から主題部・非主題部を抽出し,不要部分の削除,文末の整形を行なう.\item談話構造解析結果に基づき,抽出した主題部・非主題部を配置することによりスライドを生成する.\end{enumerate}また,我々の手法は,プレゼンテーションスライドの作成支援を行なうだけでなく,自動プレゼンテーションを生成することができる.すなわち,テキストを入力とし,自動生成したスライドを提示しながら,テキストを音声合成で読み上げることにより,自動でプレゼンテーションを行なう.我々はこのシステムのことを,「text-to-presentationシステム」と呼んでいる(図\ref{fig:presentation_system}).難解な語や長い複合語は音声合成の入力に適しているとはいえないので,Kajiらの言い換え手法\cite{Kaji02,Kaji04}で書き言葉を話し言葉に自動変換してから音声合成に入力することにより,音声合成の不自然さを低減する.\begin{figure*}[t]\begin{center}\includegraphics[scale=0.55]{ttps-j.eps}\caption{text-to-presentationシステム}\label{fig:presentation_system}\end{center}\end{figure*}本稿の構成は以下のようになっている.\ref{sec:ds_analysis}\,章で談話構造解析について述べ,\ref{sec:topic_extract}\,章で入力テキストからスライドに表示するテキストを抽出する方法について述べ,\ref{sec:output_slide}\,章でスライドの生成方法を述べる.そして,\ref{sec:evaluation}\,章で実装したtext-to-presentationシステムと,自動スライド生成の実験の結果を報告する.\ref{sec:related_work}\,章で関連研究について述べ,\ref{sec:conclusion}\,章でまとめとする.
V29N04-02
語彙制約付き機械翻訳は,翻訳文に含まれてほしいフレーズが指定された際に,それらのフレーズを含む文を生成するという制約の下で機械翻訳を行うタスクである.近年のニューラル機械翻訳(NeuralMachineTranslation;NMT)の発展\cite{luong-etal-2015-effective,vaswani:2017:NIPS}によって機械翻訳による翻訳文の品質は著しく向上したが,語彙制約付き機械翻訳のような,モデルの出力する翻訳文を人手でコントロールする手法に対するNMTの適用に関してはまだ課題が残されている.図~\ref{fig:task_overview}に語彙制約付き機械翻訳の例を示す.従来の機械翻訳モデルでは指定した語句を用いた翻訳が出来なかったのに対して,語彙制約付き機械翻訳モデルでは与えられた制約語句を反映させた翻訳を実現する.この際の制約語句は人手で与えられることが多い.訳語を指定した翻訳ができることで,法務や特許等における翻訳において非常に重要とされる専門用語や適切な名詞などの翻訳での訳語の一貫性を実現することができる.また,後編集のような人間が修正の指示を与えながら翻訳を行う,インタラクティブな翻訳にも応用可能である.さらに,近年複数のワークショップにおいて語彙制約付き機械翻訳のシェアードタスク\cite{nakazawa-etal-2021-overview,alam-etal-2021-findings}が開催されており,非常に注目を浴びているタスクである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-4ia1f1.pdf}\end{center}\caption{語彙制約付き機械翻訳の例}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%語彙制約を満たすためにNMTモデルの出力をコントロールすることに取り組んだ研究はいくつか提案されており,\citeA{chen2020lexical_leca}に従うとそれらの手法は制約の取り扱い方によってハード制約とソフト制約の2種類に分けることができる.ハード制約による手法は,与えられたすべての制約語句がモデルの出力に含まれることを保証する.従来手法は,ビームサーチによる制約付きデコーディングで全ての制約語句を含む系列の候補を探索することで,このハード制約を満たすことを達成している\cite{hokamp-liu-2017-lexically,post-vilar-2018-fast}.これらの手法はすべての制約を満たすことを保証する一方で,従来のNMTと比べて大きい計算量を必要とする.また,入力される文によっては制約をすべて満たす出力系列の探索に失敗してしまい,従来のNMTよりも翻訳精度が低くなってしまう.一方で,ソフト制約による手法はすべての語彙制約が翻訳文に含まれることを保証しない.従来手法では,NMTモデルへ入力される原言語文を編集や拡張することで出力系列の探索などを用いずに制約語句を出力する方法が試みられている\cite{song-etal-2019-code,chen2020lexical_leca}.\citeA{song-etal-2019-code}はフレーズテーブルを用い,原言語文中の制約語句に対応する部分に対してその制約語句で置換したり挿入したりすることで,モデルの入力系列を編集する手法を提案している.また,\citeA{chen2020lexical_leca}は,原言語文の末尾に制約語句を結合してモデルの入力系列を拡張する手法を提案している.これらの手法は,出力候補を決定する際に探索アルゴリズムを用いないためハード制約の手法に比べて高速に動作する一方で,いくつかの制約語句が出力されない可能性がある.これらの従来手法に対し,我々は与えられた制約がすべて出力に含まれるという制約条件(ハード制約)の下で語彙制約付き機械翻訳の速度と精度を向上するために,翻訳モデルへの入力系列の拡張によって制約付きデコーディングの探索を改善する手法を提案する.本提案手法は,翻訳モデルにおいてソフト制約の下で語彙制約を実現する手法と探索アルゴリズムにおいてハード制約の下で語彙制約を実現する手法を組み合わせた初の試みである.日英および英日翻訳での実験により,提案手法がハード制約を満たした上で,従来手法と比べて少ない計算コストで高い翻訳精度を実現できることを確認した.なお,本手法は,WAT2021RestrictedTranslationTask\cite{nakazawa-etal-2021-overview}の日英/英日翻訳の両方において1位を獲得した.また,従来は人手で作成された語彙制約に対する語彙制約付き機械翻訳が主に研究されてきた.原言語文に対して事前に語彙制約を作成して語彙制約付き機械翻訳を行う場合には,制約語句を辞書などから自動的に抽出することで人手での作成に比べてコストが削減できると考えられる.しかし,自動抽出された制約語句にはノイズとなる語句が含まれることが考えられる.前述の語彙制約付き機械翻訳手法は与えられる制約語句が必ず翻訳文に含まれることを仮定しているため,自動抽出された語彙制約をそのまま用いると翻訳精度が低下することが想定される.そこで本論文では,自動抽出されたノイズを含む語彙制約に対しても語彙制約付き機械翻訳を適用するために,与えられた語彙制約の任意の組み合わせに対する翻訳候補にリランキング手法を用いることで最適な翻訳文を選択する手法を提案する.対訳辞書から自動抽出した語彙制約による日英翻訳での実験により,制約の与えられない一般的な機械翻訳手法に対して翻訳精度が改善できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V31N04-04
単語の意味は時代とともに変化することがある.単語の意味変化(以降意味変化と呼ぶ)については,従来は言語学者が手作業で検出と分析を行っていたが,通時コーパスの公開や単語の意味表現の研究の発展により,近年では意味変化の自動的な検出および分析が自然言語処理の分野で注目を集めている.代表的な例として,時間の経過とともに意味が変化した単語をテキストデータから自動的に検出する,意味変化検出というタスクがある\cite{hamilton-etal-2016-diachronic,schlechtweg-etal-2019-wind,giulianelli-etal-2020-analysing,kutuzov-etal-2021-grammatical}.意味変化検出に関する先行研究では,対象の通時コーパスの中で意味が変化した単語・変化していない単語の集合を評価セットとしていた.このとき,手法の性能は,評価セット内の単語を意味変化度合で並べ替えたときに,意味が変化した単語がどの程度上位に含まれるか,という基準で評価されてきた.しかし,意味変化の有無に関する情報だけでは,意味が変化した単語・変化していない単語を全て等しく扱うため,各単語の意味変化の程度を考慮した詳細な評価や分析を行うことはできない.また,先行研究では通時コーパスや評価セットが統一されておらず,さまざまなデータを使って学習と評価を行っていたため,性能を直接比較することは困難である\cite{Kulkarni-etal-2015-Statistically,hamilton-etal-2016-diachronic,yao-2018-dynamic}.この問題に対処するため,\citeA{schlechtweg-etal-2018-diachronic}は,単語の意味変化度合を計算するフレームワークであるDiachronicUsageRelatedness(DURel)を提案した.DURelでは,各対象単語に対して,通時コーパスから得られた用例ペアに人手で付与した意味類似度を用いて,時間経過に伴う意味変化度合を計算する.用例ペアとは,ルールに従ってコーパスから抽出された同一単語の2つの異なる用例を含むものである.このフレームワークに基づいて評価セットを作成することで,意味変化の度合を考慮した,より詳細な評価と分析を行うことが可能となる.DURelが公開されてから,ロシア語や中国語などのさまざまな言語について,DURelを採用した評価用単語セットが作成・公開されている\cite{rodina-kutuzov-2020-rusemshift,giulianelli-etal-2020-analysing,kutuzov-pivovarova-2021-three,chen-etal-2022-lexicon}.最近では,\citeA{schlechtweg-etal-2020-semeval}がDURelフレームワークを拡張し,英語やドイツ語をはじめとする4つの言語の評価用単語セットを作成した.そして,\citeA{schlechtweg-etal-2020-semeval}はデータセットを通時コーパスとあわせて提供して,意味変化検出の共有タスクであるSemEval-2020Task1を開催した.さまざまな言語で通時コーパスの公開・評価用単語セットの作成が進んでいるが,日本語では通時コーパスの作成が進んでいるものの,評価用単語セットは十分にない.\citeA{mabuchi-ogiso-2021-dataset-jp}は近代から現代にかけて意味が変化した単語のリストを作成したが,リスト内の単語の意味がどの程度変化したのか,という意味変化度合は付与されていない.そこで本研究では,DURelフレームワークを用いて,近代から現代における日本語の意味変化度合を算出して,評価用の単語セット\ac{JaSemChange}を構築した.明治時代から平成時代にかけて,日本語は社会的・言語的要因によって大きく変化した\cite{永澤済2010変化パターンからみる近現代漢語の品詞用法,田中佑2015近現代日本語における新たな助数詞の成立と定着}ため,今回は明治・大正時代,昭和時代,平成時代をカバーするコーパスを用いて,単語の意味変化を評価した.このとき,明治・大正時代と平成時代を比較するだけでなく,より短い時間間隔である昭和時代と平成時代でも比較を行い,単語に時期間の意味変化度合を付与した.これにより,異なる時間間隔をもつ時代間で意味変化の検出の性能評価や分析が可能になる.最終的に,我々の評価用単語セットには19単語が含まれており,それぞれの単語の意味変化度合は,最大4人のアノテータが2,280個の用例ペアに対して付与した計5,520個の意味類似度スコアから算出されている.本研究の貢献は以下の通りである.\begin{itemize}\item日本語の通時的な意味変化を研究するための評価用単語セットJaSemChangeを構築した\footnote{この評価用単語セットはGitHubで公開した(\url{https://github.com/tmu-nlp/JapaneseLSCDataset}).著作権の関係上,本研究で使用したコーパスの用例を公開することはできない.その代わり,コーパス検索アプリケーションである中納言\url{https://chunagon.ninjal.ac.jp/}を使ってダウンロードできる各用例のサンプルIDを公開した.}.DURelフレームワークを用いて,4人の専門家を集めてアノテーションを実施することにより,日本語の通時コーパスから抽出した用例を用いて対象単語の意味変化度合を定量化した.\item日本語の近現代語および現代語の非専門家にも同じアノテーションを依頼し,その結果を専門家の結果と比較した.専門家と非専門家の間に一致率の差は見られなかったが,用例ペアを詳しく調査することで,判断が困難な用例ペアに対しては非専門家よりも専門家の方が正確性が高く,専門知識が必要であることを確認できた.\item作成したJaSemChangeで,単語ベクトルを用いた2種類の意味変化の検出手法に対する評価実験を行った.その結果,どちらの手法も単語頻度に基づく手法を上回る性能を示し,手法間の性能差は他の言語の評価データと同じ傾向があることが分かった.また,異なる時間間隔によって,意味変化を検出する難しさが異なることもわかった.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V22N05-02
2000年以降の自然言語処理(NLP)の発展の一翼を担ったのはWorldWideWeb(以降,Webとする)である.Webを大規模テキストコーパスと見なし,そこから知識や統計量を抽出することで,形態素解析~\cite{Kaji:2009,sato2015mecabipadicneologd},構文解析~\cite{Kawahara:05},固有表現抽出~\cite{Kazama:07},述語項構造解析~\cite{Komachi:10,Sasano:10},機械翻訳~\cite{Munteanu:06}など,様々なタスクで精度の向上が報告されている.これらは,WebがNLPを高度化した事例と言える.同時に,誰もが発信できるメディアという特性を活かし,Webならではの新しい研究分野も形成された.評判情報抽出~\cite{Pang:2002}がその代表例である.さらに,近年では,TwitterやFacebookなどのソーシャルメディアが爆発的に普及したことで,自然言語処理技術をWebデータに応用し,人間や社会をWebを通して「知ろう」とする試みにも関心が集まっている.ソーシャルメディアのデータには,(1)大規模,(2)即時性,(3)個人の経験や主観に基づく情報など,これまでの言語データには見られなかった特徴がある.例えば,「熱が出たので病院で検査をしてもらったらインフルエンザA型だった」という投稿から,この投稿時点(即時性)で発言者は「インフルエンザに罹った」という個人の経験を抽出し,大規模な投稿の中からこのような情報を集約できれば,インフルエンザの流行状況を調べることができる.このように,NLPでWeb上の情報をセンシングするという研究は,地震検知~\cite{Sakaki:10},疾病サーベイランス~\cite{Culotta:2010}を初めとして,選挙結果予測,株価予測など応用領域が広がっている.大規模なウェブデータに対して自然言語処理技術を適用し,社会の動向を迅速かつ大規模に把握しようという取り組みは,対象とするデータの性質に強く依拠する.そのため,より一般的な他の自然言語処理課題に転用できる知見や要素技術を抽出することが難しい.そこで,ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}ではNLPのWeb応用タスク(WebNLP)を立ち上げ,次のゴールの達成に向けて研究・議論を行った.\begin{enumerate}\itemソーシャルメディア上のテキストの蓄積を自然言語処理の方法論で分析し,人々の行動,意見,感情,状況を把握しようとするとき,現状の自然言語処理技術が抱えている問題を認識すること\item応用事例(例えば疾患状況把握)の誤り事例の分析から,自然言語処理で解くべき一般的な(複数の応用事例にまたがって適用できる)課題を整理すること.ある応用事例の解析精度を向上させるには,その応用における個別の事例・言語現象に対応することが近道かもしれない.しかし,本研究では複数の応用事例に適用できる課題を見出し,その課題を新しいタスクとして切り出すことで,ソーシャルメディア応用の解析技術のモジュール化を目指す.\item(2)で見出した個別の課題に対して,最先端の自然言語処理技術を適用し,新しいタスクに取り組むことで,自然言語処理のソーシャルメディア応用に関する基盤技術を発展させること\end{enumerate}本論文では,NLPによるソーシャルリスニングを実用化した事例の1つである,ツイートからインフルエンザや風邪などの疾患・症状を認識するタスク(第\ref{sec:used-corpus}章)を題材に,現状の自然言語処理技術の問題点を検討する.第\ref{sec:analysis}章では,既存手法の誤りを分析・体系化し,この結果から事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せることを説明する.第\ref{sec:factuality}章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論する.第\ref{sec:subject}章では,疾患・症状を保有する主体を同定するサブタスクに対する取り組みを紹介する.さらに第\ref{sec:factandsub}章では,事実性解析と主体解析を組み合わせた結果を示す.その後,第\ref{sec:relatedworks}章で関連研究を紹介し,最後に,第\ref{sec:conclusion}章で本論文の結論を述べる.
V12N04-03
本論文では,構造化された言語資料の検索・閲覧を指向した全文検索システムである『ひまわり』の設計,および,その実現方法を示す。ここで言う「構造化された言語資料」とは,コーパスや辞書のように,言語に関する調査,研究などに利用することを目的として,一定の構造で記述された資料一般を指す。近年,さまざまな言語資料を計算機で利用できるようになってきた。例えば,新聞,雑誌,文学作品などのテキストデータベース(例:『毎日新聞テキストデータベース』\shortcite{mainichi})やコーパス(例:『京都大学テキストコーパス』\shortcite{kyodai_corpus},『太陽コーパス』\shortcite{tanaka2001}),シソーラスなどの辞書的なデータ(例:『分類語彙表』\shortcite{bunrui})がある。また,音声情報や画像情報などのテキスト以外の情報をも含有するコーパス(例:『日本語話し言葉コーパス』\shortcite{maekawa2004}など)も現れている。言語資料には,書名や著者名などの書誌情報や,形態素情報,構文情報といった言語学的な情報が付与されており,言語に関する調査,研究における有力な基礎資料としての役割が期待されている。このような言語資料に対して検索を行うには,二つの「多様性」に対応する必要があると考える。一つは,構造化形式の多様性である。構造化された言語資料は,一般的に固有の形式を持つことが多い。したがって,検索システムは,検索の高速性を維持しつつ,多様な形式を解釈し,言語資料に付与されている書誌情報や,形態素情報や構文情報などの言語学的情報を抽出したり,検索条件として利用したりできる必要がある。もう一つの多様性は,利用目的の多様性である。ここで言う「利用目的の多様性」とは,検索対象の言語資料の種類や利用目的の違いにより,資料に適した検索条件や閲覧形式,さらには検索時に抽出する情報が異なってくることを指す。例えば,辞書を検索する場合は,見出し語や代表表記に対して検索を行い,単一の語の単位で情報を閲覧するのが一般的である。一方,新聞記事の場合は,記事本文やタイトルに含まれる文字列をキーとして,発行年などを制約条件としつつ検索し,前後文脈や記事全体を閲覧するのが一般的であろう。このように,言語資料を対象とした検索システムは,言語資料の性質と利用目的にあった検索式や閲覧形式を柔軟に定義できる必要がある。以上のような背景のもと,構造化された言語資料に対する全文検索システム『ひまわり』の設計と実現を行う。構造化形式の多様性に対しては,現在,広範に利用されているマークアップ言語であるXMLで記述された言語資料を検索対象と想定し,XML文書に対する全文検索機能を実現する。この際,検索対象とすることのできるXML文書の形式は,XML文書全体の構造で規定するのではなく,検索対象の文字列とそれに対して付与されている情報との文書構造上の関係により規定する。また,検索の高速化を図るため,SuffixArray方式など,いくつかの索引を利用する。次に,利用目的の多様性に関しては,検索式と閲覧方式を柔軟に設定できるよう設計する。まず,検索式を柔軟に設定するために,言語資料の検索にとって必要な要素を,検索対象の文字列とそれに対して付与されている情報との構造上の関係に基づいて選定する。一方,閲覧形式については,KWIC表示機能を備えた表形式での閲覧を基本とする。それに付け加えて,フォントサイズやフォント種,文字色などの表示スタイルの変更や音声,画像の閲覧に対応するために,外部の閲覧システムへデータを受け渡す方法を用いる。本論文の構成は,次のようになっている。まず,2節では,『ひまわり』を設計する上で前提となる条件を述べる。3節では,システムの全体的な構造と各部の説明を行う。4節では,言語資料の構造に対する検討を元にした検索方式について詳説する。5節では,『分類語彙表』と『日本語話し言葉コーパス』に本システムを適用し,言語資料と利用目的の多様性に対応できるか定性的に検証するとともに,検索速度の面から定量的な評価も行う。6節で関連研究と本研究とを比較することにより,本研究の位置づけと有用性を確認し,最後に,7節でまとめを行う。
V29N02-08
\label{sec:intro}近年,社会的側面から雑談対話システムが注目を集めている\cite{wallace2009anatomy,banchs2012iris,higashinaka-EtAl:2014:Coling,alexa}.雑談対話システムの実装手法としてニューラルネットワークを用いた手法が広く研究されており,有望な結果がいくつか得られている\cite{vinyals2015neural,zhang2018persona,dinan2019second,adiwardana2020humanlike,roller2020recipes}.しかし,これらのシステムの性能はまだ満足できるものではなく,対話破綻が生じるようなシステムのエラーがしばしば見られる.システムのエラーを減らす方法のひとつは,どのような種類のエラーが生じやすいのかを分析し,そのエラーを削減する手立てを考えることである.このような目的において,エラーの類型化は有用である.これまで,タスク指向対話システムにおいてはいくつかのエラー類型が提案されており\cite{dybkjaer1996grice,bernsen1996principles,aberdeen2003,dzikovska2009dealing},システムの性能向上において効果を発揮してきた.雑談対話システムにおいても同様のアプローチがなされてきており,東中らは「理論に基づく類型」と「データに基づく類型」の二つの観点の異なる類型を提案している\cite{higashinaka2015towards,higashinaka2015fatal}\footnote{東中らはこれらをそれぞれトップダウン,ボトムアップと呼んでいるが,本稿ではより適切に内容を表していると考えられる表現である「理論に基づく類型」「データに基づく類型」を採用した.}.しかし,前者の「理論に基づく類型」は,Griceの会話の公準\cite{gri:log}や隣接ペアの概念\cite{schegloff1973opening}など,人どうしの対話を対象とした理論が元になっているため,人とシステムとの対話において生じるエラーと適合しない点が多いという問題点があった.また後者の「データに基づく類型」は,分析に用いたデータのみから引き出されたエラー類型であり,潜在的に生じ得るエラーや未知のシステムで生じる可能性があるエラーがカバーできていないという限界がある.これらの理由から,これらの類型はアノテーションの一致率が低いという問題や,エラーの概念化があまりうまくできていないという問題を抱えている\cite{higashinaka2019improving}.本稿では,雑談対話システムにおける新しい対話破綻の類型を提案する.これまでに提案された二つの類型に基づいて,それぞれの類型の利点と欠点を明らかにしたうえで,統合的な類型を作成した.そして,この統合的な類型の適切性をアノテーションの一致率を用いて評価したところ,Fleissの$\kappa$値が専門作業者間で0.567,クラウドワーカー間で0.488となり,既存の類型よりも高い値となった.\rev{また,アノテーションにおいて判断が困難とされた事例もほとんど見られなかった.}このことから,統合的な類型はエラーの概念化が適切になされており,雑談対話システムの分析に適するものになっているといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V09N01-04
\label{sec:intro}これまで,機械学習などの分野を中心として,複数のモデル・システムの出力を混合する手法がいくつか提案され,その効果が報告されている.それらの成果を背景として,近年,統計的手法に基づく自然言語処理においても,複数のモデル・システムの出力を混合する手法を様々な問題に適用することが試みられ,品詞付け~\cite{vanHalteren98a,Brill98a,Abney99a},名詞句等の句のまとめ上げ~\cite{Sang00a,TKudo00ajx},構文解析(前置詞句付加含む)~\cite{Henderson99a,Abney99a,KoInui00aj,Henderson00a}などへの適用事例が報告されている.一般に,複数のモデル・システムの出力を混合することの利点は,単一のモデル・システムでは,全ての現象に対して網羅的かつ高精度に対処できない場合でも,個々のモデル・システムがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデル・システムを実現できるという点にある.本論文では,日本語固有表現抽出の問題に対して,複数のモデルの出力を混合する手法を適用し,個々の固有表現抽出モデルがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデルを実現し,その効果を実験的に検証する.一般に,日本語固有表現抽出においては,前処理として形態素解析を行ない,形態素解析結果の形態素列に対して,人手で構築されたパターンマッチング規則や統計的学習によって得られた固有表現抽出規則を適用することにより,固有表現が抽出される~\cite{IREX99aj}.特に,統計的学習によって得られた固有表現抽出規則を用いる場合には,形態素解析結果の形態素列に対して,一つもしくは複数の形態素をまとめ上げる処理を行ない,同時にまとめ上げられた形態素列がどの種類の固有表現を構成しているかを同定するという手順が一般的である~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Sassano00a,Sassano00bjx,Yamada01ajx}.このとき,実際のまとめ上げの処理は,現在注目している位置にある形態素およびその周囲の形態素の語彙・品詞・文字種などの属性を考慮しながら,現在位置の形態素が固有表現の一部となりうるかどうかを判定することの組合わせによって行なわれる.一方,一般に,複数のモデル・システムの出力を混合する過程は,大きく以下の二つの部分に分けて考えることができる.\begin{enumerate}\item\label{enum:sub1}できるだけ振る舞いの異なる複数のモデル・システムを用意する.(通常,振る舞いの酷似した複数のモデル・システムを用意しても,複数のモデル・システムの出力を混合することによる精度向上は望めないことが予測される.)\item\label{enum:sub2}用意された複数のモデル・システムの出力を混合する方式を選択・設計し,必要であれば学習等を行ない,与えられた現象に対して,用意された複数のモデル・システムの出力を混合することを実現する.\end{enumerate}複数の日本語固有表現抽出モデルの出力を混合するにあたっても,これらの(\ref{enum:sub1})および(\ref{enum:sub2})の過程をどう実現するかを決める必要がある.本論文では,まず,(\ref{enum:sub1})については,統計的学習を用いる固有表現抽出モデルをとりあげ,まとめ上げの処理を行なう際に,現在位置の周囲の形態素を何個まで考慮するかを区別することにより,振る舞いの異なる複数のモデルを学習する.そして,複数のモデルの振る舞いの違いを調査し,なるべく振る舞いが異なり,かつ,適度な性能を保った複数のモデルの混合を行なう.特に,これまでの研究事例~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Yamada01ajx}でやられたように,現在位置の形態素がどれだけの長さの固有表現を構成するのかを全く考慮せずに,常に現在位置の形態素の前後二形態素(または一形態素)ずつまでを考慮して学習を行なうモデル(固定長モデル,\ref{subsubsec:3gram}~節参照)だけではなく,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なうモデル(可変長モデル~\cite{Sassano00a,Sassano00bjx},\ref{subsubsec:vgram}~節参照)も用いて複数モデルの出力の混合を行なう.次に,(\ref{enum:sub2})については,重み付多数決やモデルの切り替えなど,これまで自然言語処理の問題によく適用されてきた混合手法を原理的に包含し得る方法として,stacking法~\cite{Wolpert92a}と呼ばれる方法を用いる.stacking法とは,何らかの学習を用いた複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法である.本論文では,具体的には,複数のモデルによる固有表現抽出結果,およびそれぞれの固有表現がどのモデルにより抽出されたか,固有表現のタイプ,固有表現を構成する形態素の数と品詞などを素性として,各固有表現が正しいか誤っているかを判定する第二段の判定規則を学習し,この正誤判定規則を用いることにより複数モデルの出力の混合を行なう.以下では,まず,\ref{sec:JNE}~節で,本論文の実験で使用したIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX99aj}の日本語固有表現抽出タスクの固有表現データについて簡単に説明する.次に,\ref{sec:NEchunk}~節では,個々の固有表現抽出モデルのベースとなる統計的固有表現抽出モデルについて述べる.本論文では,統計的固有表現抽出モデルとして,最大エントロピー法を用いた日本語固有表現抽出モデル~\cite{Borthwick99aj,Uchimoto00aj}を採用する.最大エントロピー法は,自然言語処理の様々な問題に適用されその性能が実証されているが,日本語固有表現抽出においても高い性能を示しており,IREXワークショップの日本語固有表現抽出タスクにおいても,統計的手法に基づくシステムの中で最も高い成績を達成している~\cite{Uchimoto00aj}.\ref{sec:combi}~節では,複数のモデルの出力の正誤判別を行なう規則を学習することにより,複数モデル出力の混合を行なう手法を説明する.本論文では,正誤判別規則の学習モデルとしては,決定リスト学習を用い,その性能を実験的に評価する.以上の手法を用いて,\ref{sec:experi}~節で,複数の固有表現抽出結果の混合法の実験的評価を行ない,提案手法の有効性を示す.\cite{Uchimoto00aj}にも示されているように,固定長モデルに基づく単一の日本語固有表現抽出モデルの場合は,現在位置の形態素の前後二形態素ずつを考慮して学習を行なう場合が最も性能がよい.また,\ref{sec:experi}~節の結果からわかるように,この,常に前後二形態素ずつを考慮する固定長モデルの性能は,可変長モデルに基づく単一のモデルの性能をも上回っている(なお,\cite{Sassano00bjx}では,最大エントロピー法を学習モデルとして可変長モデルを用いた場合には,常に前後二形態素ずつを考慮する固定長モデルよりも高い性能が得られると報告しているが,この実験結果には誤りがあり,本論文で示す実験結果の方が正しい.).ところが,可変長モデルと,現在位置の形態素の前後二形態素ずつを考慮する固定長モデルとを比較すると,モデルが出力する固有表現の分布がある程度異なっており,実際,これらの二つのモデルの出力を用いて複数モデル出力の混合を行なうと,個々のモデルを上回る性能が達成された.\ref{sec:experi}~節では,これらの実験について詳細に述べ,本論文で提案する混合法が有効であることを示す.
V15N03-04
近年,自然言語処理において評価情報処理が注目を集めている\cite{Inui06}.評価情報処理とは,物事に対する評価が記述されたテキストを検索,分類,要約,構造化するような処理の総称であり,国家政治に対する意見集約やマーケティングといった幅広い応用を持っている.具体的な研究事例としては,テキストから特定の商品やサービスに対する評価情報を抽出する処理や,文書や文を評価極性(好評と不評)に応じて分類する処理などが議論されている\cite{Kobayashi05,Pang02,Kudo04,Matsumoto05,Fujimura05,Osashima05,McDonald07}.評価情報処理を行うためには様々な言語資源が必要となる.例えば,評価情報を抽出するためには「良い」「素晴しい」「ひどい」といった評価表現を登録した辞書が不可欠である\cite{Kobayashi05}.また,文書や文を評価極性に応じて分類するためには,評価極性がタグ付けされたコーパスが教師あり学習のトレーニングデータとして使われる\cite{Pang02}.我々は,評価情報処理のために利用する言語資源の一つとして,評価文コーパスの構築に取り組んでいる.ここで言う評価文コーパスとは,何かの評価を述べている文(評価文)とその評価極性を示すタグが対になったデータのことである(表\ref{tab:corpus}).タグは好評と不評の2種類を想定している.大規模な評価文コーパスがあれば,それを評価文分類器のトレーニングデータとして利用することや,そのコーパスから評価表現を獲得することが可能になると考えられる.\begin{table}[b]\caption{評価文コーパスの例.$+$は好評極性,$-$は不評極性を表す.}\label{tab:corpus}\input{04table1.txt}\end{table}\begin{figure}[b]\input{04fig1.txt}\caption{不評文書に好評文が出現するレビュー文書}\label{fig:pang}\end{figure}評価文コーパスを構築するには,単純に考えると以下の2つの方法がある.人手でコーパスを作成する方法と,ウェブ上のレビューデータを活用する方法である.後者は,例えばアマゾン\footnote{http://amazon.com/}のようなサイトを利用するというものである.アマゾンに投稿されているレビューには,そのレビューの評価極性を表すメタデータが付与されている.そのため,メタデータを利用することによって,好評内容のレビューと不評内容のレビューを自動的に収集することができる.しかしながら,このような方法には問題がある.まず,人手でコーパスを作るという方法は,大規模なコーパスを作ることを考えるとコストが問題となる.また,レビューデータを利用する方法には,文単位の評価極性情報を取得しにくいという問題がある.後者の具体例として図\ref{fig:pang}に示すレビュー文書\cite{Pang02}を考える.これは文書全体としては不評内容を述べているが,その中には好評文がいくつも出現している例である.このような文書を扱う場合,文書単位の評価極性だけでなく,文単位の評価極性も把握しておくことが望ましい.しかし,一般的にレビューのメタデータは文書に対して与えられるので,文単位の評価極性の獲得は難しい.さらに,レビューデータを利用した場合には,内容が特定ドメインに偏ってしまうという問題もある.こうした問題を踏まえて,本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案する.基本的なアイデアは「定型文」「箇条書き」「表」といった記述形式を利用するというものである.本手法に必要なのは少数の規則だけであるため,人手をほとんどかけずに大量の評価文を収集することが可能となる.また,評価文書ではなく評価文を収集対象としているため,図\ref{fig:pang}のような問題は緩和される.さらに任意のHTML文書に適用できる方法であるため,様々なドメインの評価文を収集できることが期待される.実験では,提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた.
V03N02-04
日本語の理解において省略された部分の指示対象を同定することは必須である.特に,日本語においては主語が頻繁に省略されるため,省略された主語の指示対象同定が重要である.省略された述語の必須格をゼロ代名詞と呼ぶ.主語は多くの場合,述語の必須格であるから,ここでは省略された主語をゼロ主語と呼ぶことにする.ここでは特に,日本語の複文におけるゼロ主語の指示対象同定の問題を扱う.日本語の談話における省略現象については久野の分析\cite{久野:日本文法研究,久野78}以来,言語学や自然言語処理の分野で様々な提案がなされている.この中でも実際の計算モデルという点では,centeringに関連するもの\cite{Kameyama88,WIC90}が重要である.しかし,これらは主として談話についての分析やモデルである.したがって,複文に固有のゼロ主語の指示対象同定という観点からすればきめの粗い点もある\cite{中川動機95,中川ので95}.したがって,本論文では主としてノデ,カラで接続される順接複文について,複文のゼロ主語に固有の問題について扱う.ノデ文については,既に\cite{中川動機95,中川ので95}において,構文的ないしは語用論的な観点から分析している.そこで,ここでは意味論的観点からの分析について述べる.複文は従属節と主節からなるので,主節主語と従属節主語がある.複文の理解に不可欠なゼロ主語の指示対象同定の問題は,2段階に分けて考えるべきである.第一の段階では,主節主語と従属節主語が同じ指示対象を持つかどうか,すなわち共参照関係にあるかどうかの分析である.第二の段階では,第一段階で得られた共参照関係を利用して,実際のゼロ主語の指示対象同定を行なう.このうち,第一の共参照関係の有無は,複文のゼロ主語の扱いにおいて固有の問題であり,本論文ではこの問題について考察していく.さて,主語という概念は一見極めて構文的なものであるが,久野の視点論\cite{久野78}で述べられているように実は語用論的に強い制限を受けるものである.例えば,授受補助動詞ヤル,クレルや,受身文における主語などは視点に関する制約を受けている.このような制約が複文とりわけノデ文においてどのように影響するかについては\cite{中川動機95}で詳しく述べている.ここでは,見方を変えて,意味論的な観点から分析するので,ゼロ主語の問題のうち視点に係わる部分を排除しなければならない.そこで,能動文においては直接主語を扱うが,受身文においては対応する能動文の主語を考察対象とする.また,授受補助動詞の影響については,ここでの意味論的分析と抵触する場合については例外として扱うことにする.なお,ここでの意味論的分析の結果は必ずしも構文的制約のように例外を許さない固いものではない.文脈などの影響により覆されうるものであり,その意味ではデフォールト規則である.ただし,その場合でも文の第一の読みの候補を与える点では実質的に役立つものであろう.さて,この論文での分析の対象とする文は,主として小説に現れる順接複文(一部,週刊誌から採取)である.具体的には以下の週刊誌,小説に記載されていた全ての順接複文を対象とした.\noindent週間朝日1994年6月17日号,6月24日号,7月1日号\noindent三島由紀夫,鹿鳴館,新潮文庫,1984\noindent星新一,ようこそ地球さん,新潮文庫,1992\noindent夏目漱石,三四郎,角川文庫,1951\noindent吉本ばなな,うたかた,福武文庫,1991\noindentカフカ/高橋義孝訳,変身,新潮文庫,1952\noindent宗田理,殺人コンテクスト,角川文庫,1985\noindent宮本輝,優駿(上),新潮文庫,1988\bigskipこのような対象を選んだ理由は,物理的な世界の記述を行なう文ばかりでなく,人間の心理などを記述した文をも分析の対象としたいからである.実際週刊誌よりは小説の方が人間の心理を表現した文が多い傾向がある.ただし,週刊誌においても人間心理を記述した文もあるし,逆に小説でも物理的世界の因果関係を記述した文も多い.次に,分析の方法論について述べる.分析の方法の一方の極は,全て論文著者の言語的直観に基づいて作例を主体にして考察する方法である.ただし,この場合非文性の判断や指示対象に関して客観的なデータであるかどうか疑問が残ってしまう可能性もないではない.もう一方の極は,大規模なコーパスに対して人間の言語的直観に頼らず統計的処理の方法で統計的性質を抽出するものである.後者の方法はいろいろな分野に関する十分な量のデータがあればある程度の結果を出すことは可能であろう.ただし,通常,文は対象領域や(小説,新聞,論文,技術文書などという)ジャンルによって性質を異にする.そこで,コーパスから得られた結果はそのコーパスの採取元になるジャンルに依存した結果になる.これらの問題点に加え,単なる統計的結果だけでは,その結果の応用範囲の可能性や,結果の拡張性などについては何も分からない.そこでここでは,両極の中間を採る.すなわち,まず第一に筆者らが収録した小規模なコーパスに対してその分布状況を調べることにより何らかの傾向を見い出す.次に,このようにして得られた傾向に対して言語学的な説明を試みる.これによって,見い出された傾向の妥当性,応用や拡張の可能性が推測できる.具体的には,従属節と主節の述語の性質を基礎に,主節主語と従属節主語の一致,不一致という共参照関係を調べる.このような述語の性質として,動詞に関しては,IPAL動詞辞書~\cite{IPALverb}にある意味的分類,ヴォイスによる分類,ムード(意志性)による分類を利用する.形容詞,形容動詞に関してはIPAL形容詞辞書~\cite{IPALadj}にある分類,とりわけIPAL形容詞辞書~\cite{IPALadj}にある意味分類のうち心理,感情,感覚を表すものに関しては快不快の素性を,属性の評価に関しては良否の素性を利用する.例えば,\enumsentence{淋しいので,電話をかける.}という文では,従属節に「感情-不快」という性質を与え,主節に「意志的な能動の動詞」という性質を与える.また,主節主語と従属節主語の一致,不一致については人手で判断する.このようにして与える従属節と主節の性質および主語の一致不一致の組合せが実例文においてどのように分布するかを調べ,そこに何か特徴的な分布が見い出されれば,その原因について考察するという方法を採る.
V10N01-01
本研究の目的は,情報抽出のサブタスクである固有表現抽出(NamedEntityTask)の難易度の指標を定義することである.情報抽出とは,与えられた文章の集合から,「人事異動」や「会社合併」など,特定の出来事に関する情報を抜き出し,データベースなど予め定められた形式に変換して格納することであり,米国のワークショップMessageUnderstandingConference(MUC)でタスクの定義・評価が行われてきた.固有表現(NamedEntity)とは,情報抽出の要素となる表現のことである.固有表現抽出(NamedEntityTask)はMUC-6\cite{MUC6}において初めて定義され,組織名(Organization),人名(Person),地名(Location),日付表現(Date),時間表現(Time),金額表現(Money),割合表現(Percent)という7種類の表現が抽出すべき対象とされた.これらは,三つに分類されており,前の三つがentitynames(ENAMEX),日付表現・時間表現がtemporalexpressions(TIMEX),金額表現・割合表現がnumberexpressions(NUMEX)となっている.1999年に開かれたIREXワークショップ\cite{IREXproc}では,MUC-6で定義された7つに加えて製品名や法律名などを含む固有物名(Artifact)というクラスが抽出対象として加えられた.固有表現抽出システムの性能は,再現率(Recall)や適合率(Precision),そしてその両者の調和平均であるF-measureといった客観的な指標\footnotemark{}によって評価されてきた.\footnotetext{再現率は,正解データ中の固有表現の数(G)のうち,正しく認識された固有表現表現の数(C)がどれだけであったかを示す.適合率は,固有表現とみなされたものの数(S)のうち,正しく認識された固有表現の数(C)がどれだけであったかを示す.F-measureは,両者の調和平均である.それぞれの評価基準を式で示せば以下のようになる.\begin{quote}再現率(R)=C/G\\適合率(P)=C/S\\F-measure=2PR/(P+R)\end{quote}}しかし,単一システムの出力に対する評価だけでは,あるコーパスに対する固有表現抽出がどのように難しいのか,どのような情報がそのコーパスに対して固有表現抽出を行なう際に有効なのかを知ることは難しい.例えば,あるコーパスについて,あるシステムが固有表現抽出を行い,それらの結果をある指標で評価したとする.得られた評価結果が良いときに,そのシステムが良いシステムなのか,あるいはコーパスが易しいのかを判断することはできない.評価コンテストを行い,単一のシステムでなく複数のシステムが同一のコーパスについて固有表現抽出を行い,それらの結果を同一の指標で評価することで,システムを評価する基準を作成することはできる.しかしながら,異なるコーパスについて,複数の固有表現抽出システムの評価結果を蓄積していくことは大きなコストがかかる.また,継続して評価を行なっていったとしても,評価に参加するシステムは同一であるとは限らない.異なるコーパスについて,個別のシステムとは独立に固有表現抽出の難易度を測る指標があれば,コーパス間の評価,また固有表現抽出システム間の評価がより容易になると考えられる.本研究は,このような指標を定義することを目指すものである.\subsection{固有表現抽出の難易度における前提}異なる分野における情報抽出タスクの難易度を比較することは,複数の分野に適用可能な情報抽出システムを作成するためにも有用であり,実際複数のコーパスに対して情報抽出タスクの難易度を推定する研究が行われてきている.Baggaet.al~\cite{bagga:97}は,MUCで用いられたテストコーパスから意味ネットワークを作成し,それを用いてMUCに参加した情報抽出システムの性能を評価している.固有表現抽出タスクに関しては,Palmeret.al~\cite{palmer:anlp97}がMultilingualEntityTask~\cite{MUC7}で用いられた6カ国語のテストコーパスから,各言語における固有表現抽出技術の性能の下限を推定している.本研究では,固有表現抽出の難易度を,テストコーパス内に現れる固有表現,またはその周囲の表現に基づいて推定する指標を提案する.指標の定義は,「表現の多様性が抽出を難しくする」という考えに基づいている.文章中の固有表現を正しく認識するために必要な知識の量に着目すると,あるクラスに含まれる固有表現の種類が多ければ多いほど,また固有表現の前後の表現の多様性が大きいほど,固有表現を認識するために要求される知識の量は大きくなると考えられる.あらゆるコーパスを統一的に評価できるような,固有表現抽出の真の難易度は,現在存在しないので,今回提案した難易度の指標がどれほど真の難易度に近いのかを評価することはできない.本論文では,先に述べた,「複数のシステムが同一のコーパスについて固有表現抽出を行った結果の評価」を真の難易度の近似と見なし,これと提案した指標とを比較することによって,指標の評価を行うことにする.具体的には,1999年に開かれたIREXワークショップ\cite{IREXproc}で行われた固有表現抽出課題のテストコーパスについて提案した指標の値を求め,それらとIREXワークショップに参加した全システムの結果の平均値との相関を調べ,指標の結果の有効性を検証する.このような指標の評価方法を行うためには,できるだけ性質の異なる数多くのシステムによる結果を得る必要がある.IREXワークショップでは,15システムが参加しており,システムの種類も,明示的なパタンを用いたものやパタンを用いず機械学習を行ったもの,またパタンと機械学習をともに用いたものなどがあり,機械学習の手法も最大エントロピーやHMM,決定木,判別分析などいくつかバラエティがあるので,これらのシステムの結果を難易度を示す指標の評価に用いることには一定の妥当性があると考えている.\subsection{\label{section:IREX_NE}IREXワークショップの固有表現抽出課題}\begin{table}[t]\small\caption{\label{table:preliminary_comparison}IREX固有表現抽出のテストコーパス}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}&予備試験&総合課題&限定課題\\\hline記事数&36&72&20\\単語数&11173&21321&4892\\文字数&20712&39205&8990\\\hline\end{tabular}\end{center}\end{table}IREXワークショップの固有表現抽出課題では,予備試験を含め,3種類のテストコーパスが評価に用いられた.表\ref{table:preliminary_comparison}に各々の記事数,単語数,文字数を示す.単語の切り分けにはJUMAN3.3~\cite{JUMAN33}を用い,単語の切り分けが固有表現の開始位置・終了位置と異なる場合には,その位置でさらに単語を分割した.IREXワークショップに参加した固有表現抽出システムの性能評価はF-measureで示されている.表\ref{table:F-measures}に各課題におけるF-measureの値を示す.本試験の評価値は,IREXワークショップに参加した全15システムの平均値である.一方,予備試験においては,全システムの評価は利用できなかったため,一つのシステム\cite{nobata:irex1}の出力結果を評価した値を用いている.このシステムは,決定木を生成するプログラム\cite{quinlan:93}を用いた固有表現抽出システム\cite{sekine:wvlc98}をIREXワークショップに向けて拡張したものである.IREXでは,8つの固有表現クラスが定義された.表\ref{table:F-measures}から,最初の4つの固有表現クラス(組織名,人名,地名,固有物名)は残り4つの固有表現クラス(日付表現,時間表現,金額表現,割合表現)よりも難しかったことが分かる.以下では,両者を区別して議論したいときには,MUCでの用語に基づき前者の4クラスを「ENAMEXグループ」と呼び,後者の4クラスを「TIMEX-NUMEXグループ」と呼ぶことにする.\begin{table}[t]\small\caption{\label{table:F-measures}IREX固有表現抽出の性能評価}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&55.6&57.3&55.2\\\hline人名&71.3&67.8&68.8\\\hline地名&65.7&69.8&68.1\\\hline固有物名&18.8&25.5&57.9\\\hline日付表現&83.6&86.5&89.4\\\hline時間表現&69.4&83.0&89.8\\\hline金額表現&90.9&86.4&91.4\\\hline割合表現&100.0&86.4&---\\\hline\hline全表現&66.5&69.5&71.7\\\hline\end{tabular}\end{center}\end{table}\subsection{指標の概要}以下,本稿では,まず固有表現内の文字列に基いて,固有表現抽出の難易度を示す指標を提案する.ここで提案する指標は2種類ある.\begin{itemize}\itemFrequencyoftokens:各固有表現クラスの頻度と異なり数を用いた指標(\ref{section:FT}節)\itemTokenindex:固有表現内の個々の表現について,その表現のクラス内における頻度とコーパス全体における頻度を用いた指標(\ref{section:TI}節)\end{itemize}これらの指標の値を示し,それらと実際のシステムの評価結果との相関を調べた結果について述べる.次に,固有表現の周囲の文字列に基いた指標についても,固有表現内の文字列に基いた指標と同様に2種類の指標を定義し,それらの値とシステムの評価結果との相関の度合を示す(\ref{section:CW}節).
V06N04-03
現代日本語で「うれしい」「悲しい」「淋しい」「羨ましい」などの感情形容詞を述語とする感情形容詞文には,現在形述語で文が終止した場合,平叙文の際,一人称感情主はよいが二人称,三人称感情主は不適切であるというような,人称の制約現象がある\footnote{本稿で言う「人称」とは,「人称を表す専用のことば」のことではない.ムードと関連する人称の制約にかかわるのは「話し手」か「聞き手」か「それ以外」かという情報である.よって,普通名詞であろうと,固有名詞であろうと,ダイクシス専用の名詞であろうと,言語化されていないものであろうと,それがその文の発話された状況において話し手を指していれば一人称,聞き手を指していれば二人称,それ以外であれば三人称という扱いをする.\\a.太郎は仕事をしなさい.\\b.アイちゃん,ご飯が食べたい.(幼児のアイちゃんの発言)\\a.の「太郎」は二人称,b.の「アイちゃん」は一人称ということである.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(1)]\{わたし/??あなた/??太郎\}はうれしい.\item[(2)]\{わたし/??あなた/??太郎\}は悲しい.\end{itemize}\end{quote}\vspace{0.3cm}このとき,話し手が発話時に文をどのようなものと捉えて述べているかを表す「文のムード」\footnote{文のムードとは,話し手が,文を述べる際,どのような「つもり」であるのかを示す概念である.文を聞き手に対してどのように伝えるか(例えば,命令,質問など)ということと共に,話し手が,発話内容に対してどのように判断しているか(例えば確信,推量,疑念など)も文のムードである.これを「モダリティ」と呼ぶこともあるが,本稿では,こういった文の述べ方に対する概念的区分を,「ムード」と呼び,ムードが具体的に言語化された要素を「モダリティ」と呼ぶ.例えば「明日は晴れるだろう.」という文では,発話内容に対して推量していることを聞き手に伝え述べるというムードを持つのが普通であり,「だろう」は推量を表すモダリティである.}によって,感情形容詞の感情の主体(感情主)が,話し手である一人称でしかありえない場合と,やや不自然さはあるものの文脈によっては,二人称,三人称の感情主をとることが可能な場合がある\cite{東1997,益岡1997}.(3)(4)のように,話し手の発話時の感情を直接的に表現している「感情表出のムード」を持つ「感情表出文」(\cite{益岡1991,益岡1997}で「情意表出型」とされる文の一部)では,感情主は一人称に限定される.「感情表出のムード」とは話し手が発話時の感情を「思わず口にした」ようなものであり,聞き手に対してその発話内容を伝えようというつもりはあってもなくてもよいものである\footnote{感情表出文は,「まあ」「きゃっ」「ふう」など,発話者が自分の内面の感情を聞き手に伝達する意図なく発露する際に用いられる感嘆語と共起することが多いことから,聞き手への伝達を要しないものであることが分かる.\\きゃっ,うれしい.\\ふう,つらい.\\一方,「さあ」「おい」「よお」など,聞き手に何らかの伝達を意図する感嘆語と共起した場合,感情形容詞述語文であっても,感情表出文にはならない.\\さあ,悲しい.\\おい,寂しい.\\ただし,「まあ」などの感嘆語は感情表出文にとって必須ではない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(3)]まあ,うれしい.\item[(4)]ええ憎い,憎らしい・・・・・人の与ひょうを〔木下順二『夕鶴』〕\end{itemize}\end{quote}\vspace{0.3cm}一方,客観的に捉えた発話内容を述べ,聞き手に伝え述べるという「述べ立てのムード」(\cite{仁田1991}第1,2章参照)を持つ「述べ立て文」(\cite{益岡1997}で「演述型」とされる文)における人称の制約は弱い.一般的には,(益岡~1997(:4))で述べられている「人物の内的世界はその人物の私的領域であり,私的領域における事態の真偽を断定的に述べる権利はその人物に専属する.」という語用論的原則により,(5)(6)のような感情を表す形容詞(益岡によれば「私的領域に属する事態を表現する代表的なもの」)を述語にする文において「あなた」「彼女」に関する事態の真偽を断定的に述べることは不適格である\footnote{ここでは,語用論的に不適切であると考えられる文を,\#でマークし,文法的に不適切であることをあらわす*とは区別して用いる.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(5)]夫が病気になったら\{わたし/\#あなた/\#彼女\}はつらい.\item[(6)]海外出張は\{わたし/\#あなた/\#彼女\}には楽しい.\end{itemize}\end{quote}\vspace{0.3cm}しかし,このような語用論的原則は,文脈や文体的条件\footnote{文体的な条件によって人称制約が変わるというのは,小説などにおいて一般的な日常会話と語用論的原則が異なってくることから生じるものである.\cite{金水1989}参照}などにより,その原則に反した発話でも許される場合があるのである.(7)は感情主を数量子化したもの,(8)は小説という文体的条件による.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(7)]海外出張は誰にでも楽しい.\item[(8)]それをこさえるところを見ているのがいつも安吉にはたのしい.(中野重治『むらぎも』)\end{itemize}\end{quote}\vspace{0.3cm}こういった人称制約のタイプを語用論的な人称の制約とする.\cite{東1997}では,前者のように人称が限定されるタイプの人称制約を「必然的人称指定」,後者のように語用論的に限定される人称制約を「語用論的人称制限」と呼び区別した.(益~岡~1997(:2))でも情意表出型と演述型の人称制限の違いを,後者のみが日本語特有の現象と捉え,区別する必要を述べている.しかし,従来の研究においては,その「感情表出(情意表出)のムード」がどのようなものであるかということは明確に規定されておらず,また,どのように感情主が一人称に決定されるのかという人称決定のシステムも描かれてきていない\footnote{(益岡1997(:2))でも「悲しいなあ.」のような「内面の状態を直接に表出する文の場合,感情主が一人称に限られるのは当然のこと」とされている.}.そこで,本稿では,以下の手順で「感情表出文」について明らかにしていく.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(I)]人称の制約が文のムードと関係して生じていることを確認する(2.1)\item[(II)]感情表出文は,そのムードが述語主体を常に一人称に決定するものであることを定義づける.(2.2)\item[(III)]感情表出文として機能し解釈されるためには一語文でなければならないことを主張する.(3)\item[(IV)]感情表出文のムードの性質から(III)を導き出す.(4)\end{itemize}\end{quote}\vspace{0.3cm}また,ここでは,人称制約を受ける部分を「ガ格(主格)」ではなく,「感情主」という意味役割を伴うもので扱う.感情形容詞述語は「感情主」と「感情の対象」(時にはそれは「感情を引き起こす原因」)を意味役割として必要とするが,人称の制約を受ける感情主は,ガ格とニ格とニトッテ格で表される可能性があるからである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(9)]\underline{\{私/\#彼\}は}仕事が楽しい.\end{itemize}\end{quote}\vspace{0.3cm}(9)の「は」によって隠されている格を表わそうとすれば,三つの可能性があるが,どれも意味役割は感情主であり等価である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(10)]a\underline{私が}仕事が楽しいコト\\b\underline{私に}仕事が楽しいコト\\c\underline{私にとって}仕事が楽しいコト\end{itemize}\end{quote}\vspace{0.3cm}また,(10)aにおけるガ格「私が」「仕事が」で,人称の制約がかかるのは,感情主「私が」だけであり,意味役割が感情の対象である「仕事が」には人称の制約がかかることはない.さらに,(9)の主題は,感情主であるため人称の制約があるが,(11)の主題「仕事は」には人称の制約はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(11)]仕事は\{私/\#あなた\}は楽しい.\end{itemize}\end{quote}\vspace{0.3cm}このようなことから,本稿では人称制約に関わる名詞句と述語との関係を意味役割で捉える.
V30N01-02
\label{sec:intro}\textbf{UniversalDependencies(UD)}\cite{nivre-etal-2016-universal}は,言語横断的に品詞・形態論情報・依存構造をアノテーションする枠組およびコーパスである.UDプロジェクトの研究目標として,多言語の統語解析器開発,言語横断的な言語処理技術の開発,さらには類型論的な言語分析\cite{de_marneffe_universal_2021}などがあげられている.UDでは,データ構造やアノテーション作業を単純化するため,またくだけた文や特殊な構造に対して頑健な表現を実現するために,句構造(phrasestructure)ではなく,\figref{fig:jp_ud1}のような語の間の依存関係と依存関係ラベルで表現する依存構造を採用している.UDのガイドラインを基に,現代語のみならず,古語・消滅危機言語・クレオール・手話などを含めた100言語以上の依存構造アノテーションデータが構築され,公開されている\footnote{\url{https://universaldependencies.org/}}.2022年8月現在でも,言語横断性を高めるためにUDの基準について活発にGitHub\footnote{\url{https://github.com/UniversalDependencies/docs/issues}}上やワークショップで議論され,ラベルの統廃合が行われながらもアノテーションやガイドラインが更新し続けられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia1f1.pdf}\end{center}\hangcaption{日本語UDの例.「文節係り受け構造」で採用されている単位「文節」(枠で囲んである単位)とは異なり「自立語(内容語)」と「付属語(機能語)」を分解した単語単位をUDでは想定する.UPOSがUDの定義する品詞,XPOSは言語依存の品詞(日本語UDではUnidic品詞.図の例では品詞の詳細を略するときがある.)}\label{fig:jp_ud1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このUDの枠組では,依存構造関係を付与する基本単位として,音韻的な単位や文字・形態素ではない\textbf{構文的な語(syntacticword)}を語として用いることを規定している.英語やフランス語といった空白を用いて分かち書きをする言語においては(縮約形態などを除いて)空白を語の単位認定として用いることが多い.一方,語の境界を空白などで明示しない東アジアの言語においては,どのような単位を構文的な語に規定すべきかという問題があり,これらの言語では,一度語の基本単位を定義してから,UDを構築している.現代中国語\cite{xia2000-chinese-pen-tree,leung-etal-2016-developing}や韓国語のUD\cite{chun-etal-2018-building},トルコ語・古チュルク語\cite{kayadelen-etal-2020-gold,derin-harada-2021-universal}などでも,言語ごとにコーパスや形態素解析などによって語の単位認定を行い,UDの言語資源が構築されている.UDJapanese(日本語UD)Version2.6以降では,その基本単位として\textbf{国語研短単位}(ShortUnitWord,SUW:以下\textbf{短単位})を採用している\cite{_universal_asahara_2019}.短単位は『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{maekawa2014balanced}・『日本語日常会話コーパス』(CEJC)\cite{koiso-EtAl:2022:LREC}をはじめとした形態論情報つきコーパスでも単位として採用されている.短単位に基づく形態素解析用辞書として,約97万語からなるUniDic\cite{den2007unidic}も公開されている.また,170万語規模の単語埋め込みNWJC2vec\cite{Asahara2018NWJC2VecWE}でも短単位が使われており,短単位を基準として言語処理に必要な基本的な言語資源が多く整備されている.この短単位に基づく言語資源の豊富さから,実用上は短単位に基づく処理が好まれる傾向にあった.しかし,グレゴリー・プリングルによるブログ記事\footnote{\url{http://www.cjvlang.com/Spicks/udjapanese.html}}や\citeA{murawaki2019definition}では,単位として短単位を採用している既存のUDJapaneseコーパスは「形態素」単位であり,UDの原則にあげられる「基本単位を構文的な語とする」という点において不適切であることを指摘している.国語研においては,形態論情報に基づいて単位認定し,「可能性に基づく品詞体系」が付与されている短単位とは別に,文節に基づいて単位認定し,「用法に基づく品詞体系」が付与されている\textbf{国語研長単位}(LongUnitWord,LUW:以下\textbf{長単位})を規定している.しかし,長単位に基づくコーパスの構築は,短単位に基づくコーパスの構築より長時間の作業を要する\footnote{これは,短単位と比較すると,自動解析の精度が担保されておらず,長単位のアノテーション修正の作業ができる人材も少ないなどといった理由が挙げられる.}という問題がある.言語資源としては,BCCWJやCEJCには長単位に基づいた形態論情報が付与されているとはいえ,短単位と比べると利用可能な言語資源やツールが少ないため,長単位に基づく依存構造が解析器によって生成できるのかという問題もある.日本語における語の単位認定の検証のためには,実際に短単位のみではなく,長単位に基づく日本語UD言語資源を整備することが必要である.本研究では,長単位に基づく日本語UDの言語資源を整備したので報告する.UD全体と日本語における単位認定について説明しながら,既存の言語資源・解析器によって長単位に基づく日本語UDの構造が生成しやすいかを短単位UDと比較して検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V27N02-05
単語,とくに名詞間の意味関係は,含意関係認識\cite{dagan2010}や質問応答\cite{yang2017}などの高度な意味処理を伴う自然言語処理タスクにおいて重要である.語の意味関係知識は,WordNet\cite{fellbaum1998}などの人手で作成された語彙知識ベースに蓄えられており,様々なタスクに利用することができる.しかし,このような人手による語彙知識ベースの拡張には大きなコストがかかり,新語や未知語に対応できず,さらにカバーされているドメインも限られている.この問題を解決するために,大規模コーパスから語の意味関係知識を獲得する方法が研究されている.コーパスからの意味関係知識の獲得には,二語を文中で結びつける単語系列,あるいは依存構造パスなどの関係パタンの利用が有効であることが知られている\cite{hearst-1992-automatic}.たとえば,\textit{Adogisakindofanimals.}という文において,\textit{isakindof}という語の系列から,\textit{dog}が\textit{animal}の下位語であることが識別できる.このように,コーパス中で二語を結びつける単語系列や依存構造パスを特徴として教師あり学習を行う手法が,パタンベースの手法として提案されている\cite{snow2004,shwartz2016improving,shwartz2016path}.また,関係パタンは,知識獲得の手法として,推論規則をコーパスから獲得するためにも用いられている\cite{schoenmackers-etal-2010-learning,tsuchida-etal-2011-toward}.パタンベースの意味関係識別は,意味関係の分類対象となる単語ペアについてコーパス上での十分な共起を必要とする.しかし,たとえ大規模コーパスが扱えたとしても,意味関係を持つ単語ペアが必ずしも十分に共起するとは限らない.文中で共起しなかった単語ペアや共起回数が少なかった単語ペアについては,このアプローチでは分類に有用な関係パタンの特徴が得られず,意味関係を適切に予測することができない.このようなパタンベースの意味関係識別の問題に対処するために,本研究ではニューラルネットワークを用いて,単語ペア$(w_1,w_2)$と,それらを結びつける関係パタン$p$の共起から,単語ペアの埋め込みを教師なし学習する手法を提案する.大規模コーパスから学習したニューラルネットワークの汎化能力を利用することで,コーパス上で十分に共起が得られなかった単語ペアについても,関係パタンとの共起を予測できるような,意味関係識別に有用な特徴が埋め込まれた埋め込みを得ることができる.コーパスから推論規則とその適用を学習して,共起しなかった二つの概念に関する関係性を推論する手法\cite{schoenmackers-etal-2010-learning,tsuchida-etal-2011-toward}も提案されているが,本研究ではニューラルネットワークの教師なし学習を用いて単語ペアの意味関係表現を得ることで,教師あり意味関係識別において,共起が十分に得られなかった単語ペアに関する分類性能を向上させることを目的とする.実験により,この単語ペア埋め込みを,パタンベースの意味関係識別の最先端のモデル\cite{shwartz2016path}に適用することで,4つデータセットにおいて名詞ペアに対する識別性能が向上することがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V14N05-07
label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\underline{にあたって},荷物をチェックした.\label{ex:niatatte-F}\itemボールは,壁\underline{にあたって}跳ね返った.\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,本論文では,文\nobreak{}(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現検出は,日本語解析技術の中でも基盤的な技術であり,高カバレージかつ高精度な技術を確立することにより,後段の様々な解析や応用の効果が期待できる.一例として,以下の例文を題材に,機能表現検出の後段の応用として機械翻訳を想定した場合を考える.\begin{example}\item私は,彼の車\underline{について}走った.\label{ex:nitsuite-C}\item私は,自分の夢\underline{について}話した.\label{ex:nitsuite-F}\end{example}\strref{ex:nitsuite-C}では,下線部は内容的用法として働いており,\strref{ex:nitsuite-F}では,下線部は機能的用法として働いており,それぞれ英語に訳すと,\strref{ex:nitsuite-C-e},\strref{ex:nitsuite-F-e}となる.\begin{example}\itemIdrove\underline{\mbox{following}}hiscar.\label{ex:nitsuite-C-e}\itemItalked\underline{about}mydream.\label{ex:nitsuite-F-e}\end{example}下線部に注目すれば分かる通り,英語に訳した場合,内容的用法と機能的用法で対応する英単語が異なっている.このように内容的用法と機能的用法で対応する英単語が異なるので,機能表現検出のタスクは,機械翻訳の精度向上に効果があると考えられる.また,機能表現検出の後段の解析として格解析を想定する.格解析は,用言とそれがとる格要素の関係を記述した格フレームを利用して行われる.\begin{example}\item私は,彼の仕事\underline{について}話す.\label{ex:nitsuite-k}\end{example}「について」という機能表現を含む\strref{ex:nitsuite-k}において,格解析を行う場合,機能表現を考慮しなければ,「仕事」と「話す」の関係を検出することができず,「私は」と「話す」の関係がガ格であることしか,検出できない.それに対して,「について」という機能表現を考慮することができれば,「仕事」と「話す」の関係の機能的な関係を「について」という機能表現が表現していることが検出することができる.このことから,機能表現検出の結果は,格解析の精度向上に効果があると考えられる.さらに,以下の例文を題材にして,機能表現検出の後段の解析としてを係り受け解析を想定する.\begin{example}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-1}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-2}\end{example}\strref{ex:niouzite-1},\strref{ex:niouzite-2}における空白の区切りは,それぞれ,機能表現を考慮していない場合の文節区切り,機能表現を考慮した場合の文節区切りを表している.この例文において,「限度に」という文節の係り先を推定する時,「限度に」という文節が動詞を含む文節に係りやすいという特徴をもっているので,\strref{ex:niouzite-1}の場合,「応じて」という文節に係ってしまう.それに対して,\strref{ex:niouzite-2}では,「に応じて」を機能表現として扱っているので,「限度に」の係り先を正しく推定できる.このようなことから,機能表現のタスクは,格解析の精度向上に効果があると考えられる.本論文では,これら3つの応用研究の内,係り受け解析への機能表現検出の適用方法を考えた.日本語の機能表現として認定すべき表記の一覧については,いくつかの先行研究が存在する.\cite{Morita89aj}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{Matsuyoshi06ajm}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.\cite{日本語複合辞用例データベースの作成と分析}は,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,59種類である.本論文では,この59種類の表現を当面の検討対象とする.まず,既存の解析系について,この59種類の表現に対する取り扱い状況を調査したところ,59種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照.}.59種類の表現の内,形態素解析器JUMAN\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は24種類である.また,形態素解析器ChaSen\cite{chasen-2.3.3}と構文解析器CaboCha\cite{TKudo02aj}の組合わせを用いた場合には,識別される可能性がある表現は20種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器と検出器によって検出される機能表現を考慮した係り受け解析器が必要である.まず,検出器の実現方法を考えた場合,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは容易ではない.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出するアプローチ~\cite{Tsuchiya07aj}をとる.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha\cite{TKudo02bj}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた59表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.次に,機能表現を考慮した係り受け解析器の実現方法としては,既存の解析系であるKNPとCaboChaを利用する方法が考えられる.KNPを利用する場合は,新たに機能表現を考慮した係り受け規則を作成する必要がある.それに対して,CaboChaを利用する場合は,現在使用されている訓練用データ(京都テキストコーパス~\cite{Kurohashi97bj})を機能表現を考慮したものに自動的に変換すればよい.そこで,本論文では,CaboChaの学習を機能表現を考慮した訓練データで行うことによって,機能表現を考慮した係り受け解析器を実現する.訓練データの作成には,訓練の対象となる文の係り受け情報と文に存在する機能表現の情報を利用する.本論文の構成は以下の通りである.\ref{sec:fe}~節で,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べる.\ref{sec:chunker}~節で,機能表現検出をチャンク同定問題として定式化し,SVMを利用した機能表現のチャンキングについて説明し,機能表現検出器の検出性能の評価を行い,この検出器が,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.\ref{sec:係り受け解析}~節では,機能表現検出器によって検出される機能表現を考慮した係り受け解析器について説明を行い,機能表現を考慮した係り受け解析器と従来の係り受け解析器を使った機能表現を考慮した最適な係り受け解析について述べ,実際に機能表現を考慮した係り受け解析の評価を行う.\ref{sec:関連研究}~節では,関連研究について述べ,最後に\ref{sec:結論}~節で結論を述べる.
V32N02-06
\label{sec:introduction}人工知能の実現に向けて古くから,知識と推論という要素が不可欠だと考えられてきた\linebreak\cite{Mccarthy1959ProgramsWC,weizenbaum1966eliza,winograd1971procedures,colmerauer1973prolog,shortliffe1976computer,elkan1993building}.知識とは例えば「質量を持つ物体は重力場を発生させる」「地球は質量を持つ」といった,この世界に関する事実を指す.一方で推論とは,複数の事実を組み合わせることで新たな知識を得る思考形態である.例えば上述の2つの事実から「地球は重力場を発生させる」という新たな知識を得る.最近の観察によると,巨大言語モデル(LargeLanguageModel,LLM)は,事前学習時に得た知識により類似の課題を解くことはできる一方で,推論を用いて新規の課題は解くことを苦手とする\cite{hodel2023response,dasgupta2023language,zhang2024careful}.例えば,「有名な算数の問題をそのままの形で出題すれば解けるが,数字や人名を変更すると解けなくなる」\cite{razeghi2022impact,mirzadeh2024gsmsymbolicunderstandinglimitationsmathematical},「(知識カットオフ以前の)過去年度のコーディング試験は解けるが,最新年度の試験は解けない」\cite{melanie2023blog}等である.このような「LLMが推論を苦手とする」という観察結果が,近年多く得られている(\Cref{sec:LLM_does_not_reason}).LLMの推論能力が低い理由として「事前学習コーパス中に高品質な推論サンプルが不足している」ということが疑われる\cite{betz-etal-2021-critical}.事前学習コーパスは主に人間が書いたテキストで構成されている.その中でも,例えばオンライン討論等が推論のサンプルとしての役割を果たす可能性がある.%%%%しかしながら,これら討論には,誤謬やバイアスが散見される\cite{hansson2004fallacies,Cheng:2017ud,guiacsu2018logical}.しかしながら,これら討論には,誤謬やバイアスが散見される(Hansson2004;Chengetal.2017;GuiasuandTindale2018).\nocite{hansson2004fallacies,Cheng:2017ud,guiacsu2018logical}これは,人間が通常,厳密な推論をするのではなく,反射的に物事を考える\cite{kahneman2011thinking,SunsteinHastie2015,Paglieri2017}からである.以上を考えると,LLMの推論能力を向上させる最も直截的な戦略は,「高品質な推論サンプルを用意して,LLMに学習させること」だと考えられる.そこで本研究では,推論の中でも最も基本的な「論理推論」の高品質サンプルを用いた追加学習,すなわち,\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})を提案する(\Cref{fig:ALT_overview}).論理推論サンプルは,与えられた事実群を推論規則に従って組み合わせることで,与えられた仮説を証明(あるいは反証)する過程を示すものである.このようなサンプルを用意するために,ルールベースによる自動生成のアプローチ\cite{clark2020transformers,betz-etal-2021-critical,tafjord-etal-2021-proofwriter}を採用する.ルールベース自動生成は,推論規則に厳密に従ったサンプルを大量に用意できる,というメリットがある.また,一定のランダム性を持たせることで,サンプルに多様性を持たせることも可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f01.eps}\end{center}\hangcaption{\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})は,論理推論サンプルでの学習を通して,LLMの推論能力の向上を目指す.サンプル生成器がまず多段階演繹推論のサンプルを生成し(左),それを英語で書かれたサンプルに変換する(右).LLMは,与えられた\textbf{\colorBlueFacts{事実}}から,与えられた\textbf{\colorVioletHypothesis{仮説}}を導出するために,\textbf{\colorRedLogicalSteps{論理ステップ}}を生成する.サンプル生成器は,\Cref{sec:design_principles}で確立される設計指針に従う.実際に生成されたサンプルを\Cref{appendix:fig:deduction_example,appendix:fig:deduction_example_JFLD}に示す.}\label{fig:ALT_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ルールベース自動生成では,『事前に定義された設計』に従ってサンプルが生成される.よって,このサンプル設計が必然的に,サンプルの品質を大きく決定づける.そこで我々はまず,\textbf{「論理推論サンプルの理想的な設計とは何か」}を議論することから始める(\Cref{sec:design_principles}).まず,論理推論は,「事実の内容」ではなく「事実間の論理的な関係性」のみに着目する思考形態であるため,既知の事実も未知の事実も等しく取り扱うことができる.このことは,既知の事実のみを取り扱う知識とは大きく異なる,論理推論の核心である.そこで,LLMに対してこの論理推論の核心を教えるため,論理推論サンプルも未知の事実での推論を例示すべきである(\Cref{sec:principle_unseen}).次に,LLMに対して,「事実が不十分な場合は,新たな事実を導くことは\underline{できない}」ということを例示するためのサンプルも含めるべきである(\Cref{sec:principle_negatives}).更に,「推論規則」や「論理式を示す同義の言語表現」などはそれぞれ様々なパターンがありうるため,これらを網羅的に含めるべきである(\Cref{sec:principle_deduction_rules,sec:principle_linguistic_diversity}).我々は,これらのポイントを,論理推論サンプルの\textbf{設計指針}としてまとめる.そして,この設計指針に従った論理推論サンプルを自動生成するための手法(プログラム)を開発し,論理推論サンプル10万件から構成される人工論理推論コーパス\textbf{\PLDItalic}(\PLDAbbr)を構築する(\Cref{sec:PLD}).次に,\ALTJPによってLLMの推論能力が向上することを実験により確認する(\Cref{sec:experiments,sec:results_and_discussions_method}).最先端のLLMすなわちLLaMA-3.1(8B/70B)\に対して,\PLDAbbr\での\ALTJPを施すことにより,\numBenchmarks\種類の多様なベンチマークにおいて性能向上を確認した(\Cref{fig:performance_comparison}).また,既存の人工論理推論コーパスに比べて,\PLDAbbrはより大きな性能向上をもたらした.これは,我々が提案する設計指針がLLMの推論を向上させる上で効果的であることを示している.加えて,\ALTJPでは「破滅的忘却を防止する手段を採ること」が極めて重要であることが分かった.これは,「人工論理推論コーパスに含まれる未知の事実を覚えることによって,既存の事実を忘れていってしまう」という事態を防げるからだと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f02.eps}\end{center}\hangcaption{\llamaThreeLargeBaseline\と,それに対して\PLDAbbr上での\ALTJPを施したモデル(+\ALT)の精度.「Benchmarksets」中の「論理推論」「数学」「\dots」はそれぞれが,そのドメインの様々なベンチマークから構成されており(\Cref{appendix:tb:benchmarks}),ここでは平均精度を示す.結果の詳細は\Cref{tb:performance_aggregated,tb:performance_details}に示す.}\label{fig:performance_comparison}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最後に,\ALTJPにより「どのようなタスクが」「なぜ」解けるようになるかを分析する(\Cref{sec:results_and_discussions_tasks}).論理推論タスクでは最大30ポイントという大幅な性能向上が得られた(\Cref{tb:which_task_logical_reasoning}).事例ごとの分析(\Cref{tb:case_study})により,これらの性能向上は,設計指針で意図した「論理の基礎」をLLMが獲得したことによると示唆される.また,驚くべきことに,人工論理推論コーパスのサンプルとは真逆の「結論から事実を予測する」仮説推論タスクでも性能が向上した.数学では最大7ポイントの性能向上が得られた(\Cref{tb:which_task_math}).論理推論は数学の問題を解くための前提知識なので自然である.コーディングでは最大10ポイントの性能向上が得られ,コーディング能力と論理推論能力の関係が示唆される(\Cref{tb:which_task_coding}).自然言語推論(NLI)タスクの性能向上(\Cref{tb:which_task_NLI})は,LLMが事前学習で元々獲得していた常識知識と,\ALTJPから新たに獲得した推論能力を,統合できた可能性を示唆する.その他の様々なタスクでも性能向上が見られた一方で,向上幅は最大2ポイント程度と小さかった(\Cref{tb:which_task_others}).これは,\ALTJPにより得られる推論能力をより効果的に「使いこなし」て多様な問題を解くために,今後の研究が必要であることを示唆する.本研究の貢献を以下にまとめる.\begin{itemize}\item人工論理推論コーパスを用いた\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})を提案し,最先端のLLMの推論能力を向上させられることを確認した.\item論理推論サンプルの確固たる設計指針を確立し,それに基づく人工論理推論コーパス\textbf{\PLDItalic}(\PLDAbbr)を構築した.\PLDAbbr\による性能向上が既存コーパスよりも大きいことを確認し,設計指針の正しさを示した.\item分析により,\ALTJPにより強化されたLLMが,論理推論はもとより,数学やコーディング,NLI等の様々なタスクで性能が向上することを示した.\end{itemize}なお,コーパス・コード・学習済みモデルを公開する\footnote{\url{https://github.com/hitachi-nlp/FLD}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V27N02-02
流暢な文の生成を可能にするニューラルネットワークによる系列変換モデル\cite{Sutskever:2014,BahdanauCB14}の発展は,文生成を利用する自然言語処理タスクに大きな恩恵をもたらした.文書要約タスクも例外ではなく,\citeA{D15-1044}以降,系列変換モデルを用いた生成型要約(abstractivesummarization)の研究が盛んに行われており,ヘッドライン生成,単一文書要約ではそれが顕著である.一方,文書の一部を抜き出すことで要約を生成する抽出型要約\footnote{本稿では,文抽出と文圧縮を統合した圧縮型要約(compressivesummarization)も抽出型要約とみなす.}(extractivesummarization)の研究は脈々と続いているものの生成型要約の研究と比較すると数は少なくなってきた.たとえば,2019年開催の第57回AssociationforComputationalLinguistics(ACL)では,抽出型要約手法に関する発表は約5件であったが生成型要約手法に関する発表は約15件であり,生成型要約手法に注目が集まっていることがよくわかる.このように自動要約研究の主流は抽出から生成へと移り変わりつつある.では,抽出型要約は終わってしまった研究,すなわち,継続する価値のない研究なのだろうか?この疑問に答えるためには,抽出型要約手法の上限,つまり抽出型要約でどれほど人間の要約に近づけるかを知る必要がある.抽出型要約手法の上限が十分高い水準にあるのならば,研究を続ける価値があるし,そうでないのならば続ける価値はない.自動要約手法のパラダイムが移りつつあるいまだからこそ,抽出型要約手法の上限を明らかにすることは自動要約研究の今後の発展に大きな意味を持つと考える.本稿では人間が生成した参照要約に対する自動評価スコアを最大化する抽出による要約,すなわち抽出型オラクル要約を上限の要約とみなす.そして,それを得るための整数計画問題による定式化を提案し,自動評価という観点から抽出型要約手法の到達点を調べる.次に,その妥当性をより詳細に検証するため,ピラミッド法\cite{nenkovau:2004:HLTNAACL,Nenkova:2007},DocumentUnderstandingConference(DUC)\footnote{\url{https://duc.nist.gov}}で用いられたQualityQuestions\cite{qqduc06}を用いて内容と言語品質の両側面から人手で評価し,それが人間にとってどの程度良い要約なのかを検証する.TextAnalysisConference(TAC)\footnote{\url{https://tac.nist.gov}}2009/2011のデータセットを用いて,自動評価指標であるROUGE-2\cite{rouge3},BasicElements(BE)\cite{hovy06}に対する文抽出,ElementaryDiscourseUnit(EDU)抽出,根付き部分木抽出の3種の抽出型オラクル要約を生成し,上記の観点でそれらを評価したところ,(1)自動評価スコアはいずれの抽出型オラクル要約も非常に高く,現状のシステム要約のスコアと比較すると差が大きいことがわかった.(2)ピラミッド法による評価結果から,要約の内容評価という点でも優れていることがわかった.(3)しかし,QualityQuestionsによる言語品質評価の結果は,現状の要約システムと大差ない,あるいは劣る結果となった.これらより,抽出型要約手法で重要情報に富んだ要約を生成できることが明らかとなった.つまり,抽出型要約は今後も続けていく価値のある研究であることが示された.その一方,言語品質には改善の余地があることも明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V11N04-04
\label{sec:intro}機械翻訳システムの辞書は質,量ともに拡充が進み,最近では200万見出し以上の辞書を持つシステムも実用化されている.ただし,このような大規模辞書にも登録されていない語が現実のテキストに出現することも皆無ではない.辞書がこのように大規模化していることから,辞書に登録されていない語は,コーパスにおいても出現頻度が低い語である可能性が高い.ところで,文同士が対応付けられた対訳コーパスから訳語対を抽出する研究はこれまでに数多く行なわれ\cite{Eijk93,Kupiec93,Dekai94,Smadja96,Ker97,Le99},抽出方法がほぼ確立されたかのように考えられている.しかし,コーパスにおける出現頻度が低い語とその訳語の対を抽出することを目的とした場合,語の出現頻度などの統計情報に基づく方法では抽出が困難であることが指摘されている\cite{Tsuji00}.以上のような状況を考えると,対訳コーパスからの訳語対抽出においては,機械翻訳システムの辞書に登録されていない,出現頻度の低い語を対象とした方法の開発が重要な課題の一つである.しかしながら,現状では,低出現頻度語を対象とした方法の先行研究としては文献\cite{Tsuji01b}などがあるが,検討すべき余地は残されている.すなわち,利用可能な言語情報のうちどのような情報に着目し,それらをどのように組み合わせて利用すれば低出現頻度語の抽出に有効に働くのかを明らかにする必要がある.本研究では,実用化されている英日機械翻訳システムの辞書に登録されていないと考えられ,かつ対訳コーパス\footnote{本研究で用いたコーパスは,文対応の付いた対訳コーパスであるが,機械処理により対応付けられたものであるため,対応付けの誤りが含まれている可能性がある.}において出現頻度が低い複合語とその訳語との対を抽出する方法を提案する.提案方法は,複合語あるいはその訳語候補の内部の情報と,複合語あるいはその訳語候補の外部の情報とを統合的に利用して訳語対候補にスコアを付け,全体スコアが最も高いものから順に必要なだけ訳語対候補を出力する.全体スコアは,複合語あるいはその訳語候補の内部情報と外部情報に基づく各スコアの加重和を計算することによって求めるが,各スコアに対する重みを回帰分析によって決定する\footnote{回帰分析を自然言語処理で利用した研究としては,重要文抽出への適用例\cite{Watanabe96}などがある}.本稿では,英日機械翻訳システムの辞書に登録されていないと考えられる複合語とその訳語候補のうち,機械翻訳文コーパス(後述)における出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを対象として行なった訳語対抽出実験の結果に基づいて,複合語あるいはその訳語候補の内部情報,外部情報に基づく各条件の有効性と,加重和計算式における重みを回帰分析によって決定する方法の有効性を検証する.
V21N03-03
日本において,大学入試問題は,学力(知力および知識力)を問う問題として定着している.この大学入試問題を計算機に解かせようという試みが,国立情報学研究所のグランドチャレンジ「ロボットは東大に入れるか」というプロジェクトとして2011年に開始された\cite{Arai2012}.このプロジェクトの中間目標は,2016年までに大学入試センター試験で,東京大学の二次試験に進めるような高得点を取ることである.我々は,このプロジェクトに参画し,2013年度より,大学入試センター試験の『国語』現代文の問題を解くシステムの開発に取り組んでいる.次章で述べるように,『国語』の現代文の設問の過半は,{\bf傍線部問題}とよばれる設問である.船口\cite{Funaguchi}が暗に指摘しているように,『国語』の現代文の「攻略」の中心は,傍線部問題の「攻略」にある.我々の知る限り,大学入試の『国語』の傍線部問題を計算機に解かせる試みは,これまでに存在しない\footnote{CLEF2013では,QA4MREのサブタスクの一つとして,EntranceExamsが実施され,そこでは,センター試験の『英語』の問題が使用された.}.そのため,この種の問題が,計算機にとってどの程度むずかしいものであるかさえ,不明である.このような状況においては,色々な方法を試すまえに,まずは,比較的単純な方法で,どのぐらいの正解率が得られるのかを明らかにしておくことが重要である.本論文では,このような背景に基づいて実施した,表層的な手がかりに基づく解法の定式化・実装・評価について報告する.我々が実装したシステムの性能は,我々の当初の予想を大幅に上回り,「評論」の傍線部問題の約半分を正しく解くことができた.以下,本稿は,次のように構成されている.まず,2章で,大学入試センター試験の『国語』の構成と,それに含まれる傍線部問題について説明する.3章では,我々が採用した定式化について述べ,4章ではその実装について述べる.5章では,実施した実験の結果を示し,その結果について検討する.最後に,6章で結論を述べる.
V32N02-05
高性能かつ頑健な言語処理モデルを構築するために,多様な質問応答(QA)タスクにおける訓練,評価,分析が重要である.QAタスクには,抽出型,生成型,多肢選択式など様々なタイプがあり,Multi-hop推論や実世界知識など多くの技術・知識が必要となる.QAタスクを解くモデルとして,様々なQAタスクを統合的に解くUnifiedQA\cite{khashabi-etal-2020-unifiedqa}や,他のタスクと統合的に解くFLAN\cite{wei2022finetuned}などが提案されているが,このような統合的な解析が可能なのは英語だけであり,他の言語では多様なQAデータセットが存在しないので不可能である.本研究では,基本的なQAデータセットであるJSQuAD\cite{kurihara-etal-2022-jglue}やJaQuAD\cite{so2022jaquad},JAQKET\cite{JAQKET}程度しか存在しない日本語に焦点を当てる.我々は,日本語に存在しないQAデータセットの中で重要なものとして,人間の情報欲求から自然に発生する質問からなるNaturalQuestions(NQ)データセット\cite{kwiatkowski-etal-2019-natural}に着目する.\color{black}本論文では,人間の情報欲求から自然に発生する質問を「自然な質問」と呼ぶ.\color{black}SQuAD\cite{rajpurkar-etal-2016-squad}のようなQAデータセットでは,質問をアノテータに作成してもらうため自然な質問ではなく,annotationartifacts\cite{gururangan-etal-2018-annotation}が存在するという問題がある.これに対して,NQでは,検索エンジンにユーザが入力したクエリが用いられており,自然な質問と考えられる.日本語版NQを構築するためにNQを日本語に翻訳するという方法が考えられるが,文法等の違いによる翻訳文の不自然さ,日本との文化の違いが大きな問題となるため,翻訳は用いない.我々は,日本語の検索エンジンのクエリログを利用して,JapaneseNaturalQuestions(JNQ)を構築する.また,より良いNQデータセットを得るために,オリジナルのNQのデータセット仕様を再定義する.なお,クエリログからデータセットを構築するために,NQでは訓練されたアノテータが雇用されていたが,JNQではコストを低減するためにクラウドソーシングで行う.本手法は,クエリログが手に入る言語であれば,どの言語にも適用できるものである.本研究では,JNQに加えて,NQの派生でyes/no質問からなるBoolQ\cite{clark-etal-2019-boolq}の日本語版JapaneseBoolQ(JBoolQ)も構築する.JBoolQの質問文,yes/noanswerは,JNQと同様の方法で収集する.\color{black}また,JNQと同様,より良いデータセットを得るために,オリジナルのBoolQのデータセット仕様を再定義する.\color{black}構築の結果,JNQは16,641質問文,79,276段落からなり,JBoolQは6,467質問文,31,677段落からなるQAデータセットとなった.JNQとJBoolQの例を図~\ref{fig:NQ-example}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{32-2ia4f01.eps}\end{center}\caption{JNQとJBoolQの例}\label{fig:NQ-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,JNQからlonganswer抽出,shortanswer抽出,open-domainNQの3タスク,JBoolQからyes/noanswer識別の1タスクの合計4タスクを定義し,それぞれのベースラインモデルを評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V04N01-08
\label{sec:序論}近年,機械可読な言語データの整備が進んだことや,計算機能力の向上により大規模な言語データの取り扱いが可能になったことから,自然言語処理に用いる様々な知識を言語データから自動的に獲得する研究が盛んに行われている\cite{utsuro95a}.大量の言語データから自動的に獲得した知識は,人手によって得られる知識と比べて,獲得した知識が人間の主観に影響されにくい,知識作成のためのコストが低い,知識の適用範囲が広い,知識に何らかの統計情報を容易に組み込むことができる,といった優れた特徴を持っている.言語データから自動獲得される自然言語処理用知識には様々なものがあるが,その中の1つとして文法がある.文法には様々なクラスがあるが,統語解析の際に最もよく用いられるのは文脈自由文法(ContextFreeGrammar,以下CFGと呼ぶ)であり,一般化LR法,チャート法などのCFGを用いた効率の良い解析手法がいくつも提案されている.ところが,人手によってCFGを作成する場合,作成の際に考慮されなかった言語現象については,それに対応する規則がCFGに含まれていないために解析することができない.これに対して,コーパスから自動的にCFGを抽出することができれば,コーパス内に現れる多様な言語現象を網羅できるだけでなく,人的負担も極めて軽くなる.また,CFGの拡張の1つとして,文法規則に確率を付与した確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFGと呼ぶ)がある\cite{wetherell80a}.PCFGは,生成する複数の解析結果の候補(解析木)に対して,生成確率による順序付けを行うことができるという点でCFGよりも優れている.そこで本論文では,CFGをコーパスから自動抽出し,その後各規則の確率をコーパスから学習することにより最終的にPCFGを獲得する手法を提案する.CFGまたはPCFGをコーパスから自動獲得する研究は過去にもいくつか行われている.文法獲得に利用されるコーパスとしては,例文に対して何の情報も付加されていない平文コーパス,各形態素に品詞が割り当てられたタグ付きコーパス,内部ノードにラベルのない構文木が与えられた括弧付きコーパス,内部ノードのラベルまで与えられた構文木付きコーパスなど,様々なものがある.以下ではまず,文法獲得に関する過去の研究が,どのような種類のコーパスからどのような手法を用いて行われているのかについて簡単に概観する.平文コーパスからの文法規則獲得に関する研究としては清野と辻井によるものがある~\cite{kiyono93a,kiyono94a,kiyono94b}.彼らの方法は,まずコーパスの文を初期のCFGを用いて統語解析し,解析に失敗した際に生成された部分木から,解析に失敗した文の統語解析を成功させるために必要な規則(彼らは仮説と呼んでいる)を見つけ出す.次に,その仮説がコーパスの文の解析を成功させるのにどの程度必要なのかを表わす尤度(Plausibility)を計算し,高い尤度を持つ仮説を新たな規則として文法に加える.彼らは全ての文法規則を獲得することを目的としているわけではなく,最初からある程度正しいCFGを用意し,それを新たな領域に適用する際にその領域に固有の言語現象を取り扱うために必要な規則を自動的に獲得することを目的としている.タグ付きコーパスからCFGを獲得する研究としては森と長尾によるものがある~\cite{mori95a}.彼らは,前後に現われる品詞に無関係に出現する品詞列を独立度の高い品詞列と定義し,コーパスに現われる品詞列の独立度をn-gram統計により評価する.次に,ある一定の閾値以上の独立度を持つ品詞列を規則の右辺として取り出す.また,取り出された品詞列の集合に対して,その前後に現われる品詞の分布傾向を利用してクラスタリングを行い,同一クラスタと判断された品詞列を右辺とする規則の左辺に同一の非終端記号を与える.そして,得られた規則のクラスタの中からコーパス中に最もよく現れるものを選び,それらをCFG規則として採用すると同時に,コーパス中に現われる規則の右辺の品詞列を左辺の非終端記号に置き換える.このような操作を繰り返すことにより,最終的なCFGを獲得すると同時に,コーパスの各例文に構文木を付加することができる.括弧付きコーパスからCFGを獲得する研究としては,まずInside-Outsideアルゴリズムを利用したものが挙げられる.LariとYoungは,与えられた終端記号と非終端記号の集合からそれらを組み合わせてできる全てのチョムスキー標準形のCFG規則を作り,それらの確率をInside-Outsideアルゴリズムによって学習し,確率の低い規則を削除することにより新たなPCFGを獲得する方法を提案した~\cite{lari90a}.この方法では収束性の悪さや計算量の多さが問題となっていたが,この問題を解決するために,PereiraらやSchabesらはInside-Outsideアルゴリズムを部分的に括弧付けされたコーパスに対して適用する方法を提案している~\cite{pereira92a,schabes93b}.しかしながら,局所解は得られるが最適解が得られる保証はない,得られる文法がチョムスキー標準形に限られるなどの問題点も残されている.一方,括弧付きコーパスから日本語のCFGを獲得する研究としては横田らのものがある\cite{yokota96a}.彼らは,Shift-Reduceパーザによる訓練コーパスの例文の統語解析が最も効率良くなるように,コーパスの内部ノードに人工的な非終端記号を割り当てることによりCFGを獲得する方法を提案している.これは組み合わせ最適化問題となり,SimulatedAnnealing法を用いることにより解決を求めている.1000〜7500例文からCFGを獲得し,それを用いた統語解析では15〜47\%の正解率が得られたと報告している.この方法では,CFG獲得の際に統計情報のみを利用し,言語的な知識は用いていない.しかしながら,利用できる言語学的な知識はむしろ積極的に利用した方が,文法を効率良く獲得できると考えられる.構文木付きコーパスから文法を獲得する研究としてはSekineとGrishmanによるものがある~\cite{sekine95a}.彼らは,PennTreeBank~\cite{marcus93a}の中からSまたはNPを根ノードとする部分木を自動的に抽出する.解析の際には,得られた部分木をSまたはNPを左辺とし部分木の葉の列を右辺としたCFG規則に変換し,通常のチャート法により統語解析してから,解析の際に使用した規則を元の部分木に復元する.得られた解析木にはPCFGと同様の生成確率が与えられるが,この際部分木を構成要素としているため若干の文脈依存性を取り扱うことができる.しかしながら,SまたはNPがある記号列に展開されるときの構造としては1種類の部分木しか記述できず,ここでの曖昧性を取り扱うことができないといった問題点がある.また,構文木付きコーパスにおいては,例文に付加された構文木の内部ノードにラベル(非終端記号)が割り当てられているため,通常のCFGならば構文木の枝分れをCFG規則とみなすことにより容易に獲得することができる.大量のコーパスからPCFGを獲得するには,それに要する計算量が少ないことが望ましい.ところが,統語構造情報が明示されていない平文コーパスやタグ付きコーパスを用いる研究においては,それらの推測に要する計算コストが大きいといった問題がある.近年では,日本においてもEDRコーパス~\cite{edr95a}といった大規模な括弧付きコーパスの整備が進んでおり,効率良くCFGを獲得するためにはそのような括弧付きコーパスの統語構造情報を利用することが考えられる.一方,括弧付きコーパスを用いる研究\cite{pereira92a,schabes93b,yokota96a}においては,平文コーパスやタグ付きコーパスと比べて統語構造の情報が利用できるとはいえ,反復アルゴリズムを用いているために文法獲得に要する計算量は多い.本論文では,括弧付きコーパスとしてEDRコーパスを利用し,日本語の言語的特徴を考慮した効率の良いPCFG抽出方法を提案する~\cite{shirai95b,shirai95a}.本論文の構成は以下の通りである.2節では,括弧付きコーパスからPCFGを抽出する具体的な手法について説明する.3節では,抽出した文法を改良する方法について説明する.文法の改良とは,具体的には文法サイズを縮小することと,文法が生成する解析木の数を抑制することを指す.4節では,実際に括弧付きコーパスからPCFGを抽出し,それを用いて統語解析を行う実験について述べる.最後に5節では,この論文のまとめと今後の課題について述べる.
V16N04-04
\subsection{本研究の背景}\label{ssec:background}近年,大学では文章能力向上のため,「文章表現」の授業がしばしば行われている.実際に作文することは文章能力向上のために有効であることから,多くの場合,学生に作文課題が課される.しかし,作文を評価する際の教師の負担は大きく,特に,指導する学生数が多いと,個別の学生に対して詳細な指導を行うこと自体が困難になる\footnote{筆者の一人は,1クラス30名程度のクラスを週10コマ担当している.延べ人数にして約300名の学生に対して,毎週添削してフィードバックすることは極めて困難であるため,半期に数回課題を提出させ,添削するに留まっている.}.{\modkまた,講義だけで,個別の指導がない授業形態では,学生も教師の指導意図をつかみにくく,ただ漠然と作文することを繰り返すといった受け身の姿勢になりがちである.}本研究は,上記のような現状に対処するために,大学における作文教育実習で{\modk活用できる}学習者向け作文支援システムを提案するものである.\subsection{既存システムの問題点}\label{ssec:problems}これまでに多くの作文支援システムが提案されてきた.支援手法という観点から既存の手法を分類すると,次のようになる.\begin{enumerate}\def\theenumi{}\item作文中の誤りを指摘する手法\item作文する際の補助情報を提供する手法\item教師の指導を支援する手法\item作文を採点する手法\end{enumerate}(a)の手法は,ワードプロセッサなどのスペルチェッカや文法チェッカとして,広く利用されている.また,より高度な文章推敲や校閲を支援するための手法\cite{umemura2007,笠原健成:20010515}も考案されている.教育分野への適用では,第2言語学習者向けの日本語教育分野での研究が盛んである.例えば,第2言語学習者の誤りを考慮して,文法誤りなどを指摘する手法\cite{chodorow2000,imaeda2003,brockett2006}がある.さらに,(b)の手法としては,文章作成時の辞書引きを支援する手法\cite{takabayashi2004},翻訳時にコーパスから有用な用例を参照する手法\cite{sharoff2006}などがある.これらは,学習者用というよりも,ある程度すでに文章技術を習得している利用者向けの手法である.(c)のアプローチは,学習者を直接支援するのではなく,作文指導を行う教師を支援することにより,間接的に学習者の学習を支援する手法である.この種のアプローチの例としては,教師の添削支援システム\cite{usami2007,sunaoka2006}に関する研究がある.これらの研究では,日本語教育の作文教育において,作文とそれに付随する添削結果をデータベースに蓄積し,教師の誤用分析などを支援する.(d)の手法は,小論文などの文章試験を自動的に採点することを目的に開発されている手法である.代表的なシステムとしては,英語の小論文を自動採点する,ETSのe-rater\cite{burstein1998}がある.また,e-raterを組み込んだオンライン作文評価システムCriterion\footnote{http://criterion.ets.org/}も開発されており,grammar,usage,mechanics,style,organization\&developmentという観点から作文を評価し,誤りの指摘などもあわせて行われる.なお,日本語でも,e-raterの評価基準を踏襲して,石岡らが日本語小論文評価システムJess\cite{ishioka-kameda:2006:COLACL}を構築している.また,井上らがJessをWindows用に移植し,大学において日本語のアカデミックライティング講座への導入を検討している\cite{井上達紀:20050824}.以上の手法のうち,学習者を直接支援対象としうる手法は,(a)(d)である.大学における作文実習に,これらの手法を適用することを考えた場合,次の二つの問題があると考える.\subsubsectionX{問題点1:意味処理が必要となる支援が困難なこと}大学の文章表現では,レポート,論文,手紙,電子メール,履歴書などを題材として,表記・体裁,文法,文章構成(例:テーマに即した文章の書き方,論理的な文章の書き方),要約の方法,敬語の使い方など,広範囲な文章技術を習得対象としている\cite{shoji2007,okimori2007}.それに対して,現状の作文支援システムは,表記・文法に関しては,手法(a)(d)で誤りの指摘が行われているが,意味的な解析が必要となる支援については,部分的に実現されるにとどまっている.例えば,前述のCriterionでは,導入部(introductionmaterial)や結論部(conclusion)などの文章要素を自動的に認識し,それぞれの部分の一般的な記述方法を表示することができる.しかし,現在の自然言語処理技術では,学習者の支援に耐えうるほどの精度で意味解析を行うことは難しい.そのため,作文課題に必要な記述が含まれているか\footnote{例えば,得意料理の作り方を記述する課題では,材料や料理手順に関する記述は必須的な内容であろう.},記述内容の説明が不足していないか,意味的な誤りや矛盾はないか,といった深い意味解析を必要とする支援は困難である.\subsubsectionX{問題点2:教師の指導意図をシステムの動作に十分反映できないこと}{\modk前述のとおり,教師が用意する作文課題には,学術的なものから実社会で役立つものまで様々なものがある.各課題を課す際には,学習者の作文の質を向上させるために,それぞれの目的に応じた到達目標やそれに応じた学習支援を設定する.したがって,}教師が実習で作文システムを利用するには,課題の内容に応じて,教師がシステムの支援内容をコントロールできなければならない.例えば,電子メールの書き方を習得するための課題であれば,電子メールに書かれるべき構成要素(例:本文,結び,signatureなど)が{\modk存在するか,また,}適切な順序で書かれているかを検査し,誤りがあれば,指摘するという支援が考えられる.このような支援を行うためには,電子メールに書かれるべき構成要素とその出現順序を,教師が規則として作文支援システム中で定義できなければならない.現状の作文支援システムの中では,手法(d)の作文採点システムが,作文評価用のパラメータの設定手段を持っている(自動採点システムにおける作文評価手法は\cite{石岡恒憲:20040910}に詳しい).例えば,Windows版Jessの場合は,修辞,論理構成に関する各種パラメータの採点比率,および,内容評価用の学習用文章をユーザが指定できるようになっている.このように,既存の規則のパラメータを設定することは可能である.{\modkしかし,教師が新たな規則を定義できるまでには至っておらず,教師の指導意図をシステムの動作に反映することは難しいのが現状である.}\subsection{本研究の目的}そこで,本研究では,上記の二つの問題を解決するための手法を提案し,作文支援システムとして実現する.まず,問題点1に対しては,「相互教授モデル」を導入する.このモデルでは,学習者,教師,システムが互いの作文知識を教授しあうことにより,学習者の作文技術を向上させる.従来のシステムのように,作文支援システムだけが学習者に作文技術を教授するのではなく,学習者・システム間,学習者同士で作文技術を教授しあうことにより,システム単独では実現できない,深い意味処理が必要で,多様な文章技術に対する支援を可能にする.また,問題点2に対しては,「作文規則」を用いる.この規則は,学習者の作文の構造,および,内容を規定するための規則である.教師は,作文課題に基づいて作文規則を決定する.システムは,作文規則に基づいて,学習者の作文をチェックし,誤りがあれば,それを指摘する.本稿では,作文規則の形式,作文への適用方法について示す.本論文の構成は,次のようになっている.まず,\ref{sec:system_structure}章ではシステムの構成について述べる.\ref{sec:model}章では相互教授モデルの提案を行い,\ref{sec:composition_rule}章では作文規則の定義と作文への適用方法を示す.さらに,提案手法の有効性を検証するために,\ref{sec:experiment}章で提案手法・従来手法による作文実験を行い,\ref{sec:evaluation}章で実験結果を評価・考察する.そして,最後に\ref{sec:conclusion}章でまとめを述べる.}{\mod
V24N03-02
label{first}元来から日本は,外来語を受け入れやすい環境にあるといわれており,数多くの外国の言葉を片仮名として表記し,そのまま使用している.近年になり,今まで以上にグローバル化が進展すると共に,外来語が益々増加する中,外来語の発音を片仮名表記にしないケースが見受けられる.特に,英語の場合,外国語の表記をそのまま利用することも増えてきている.また,英単語などの頭文字をつなげて表記する,いわゆる略語もよく利用されるようになっている.例えば,「IC」といった英字略語がそれにあたる.しかし,英字略語は英単語の頭文字から構成される表現であるため,まったく別のことを表現しているにも関わらず,同じ表記になることが多い.先の英字略語「IC」には,「集積回路」という意味や高速道路などの「インターチェンジ」という意味がある.さらには,ある業界では,これらとはまた別の意味で使用されることもある.このように,英字略語は便利な反面,いわゆる一般的な単語よりも非常に多くの意味を有する多義性の問題を持つ.そのため,英字略語が利用されている情報は,すべての人が容易に,また,正確に把握できるとは言い難い.そこで,例えば,新聞記事などでは,記事の中で最初に英字略語が使用される箇所において,括弧書きでその意味を日本語で併記する処理をとっていることが多い.しかし,よく知られている英字略語にはそのような処置がとられていないなど,完全に対処されているわけではない.また,記事中の最初の箇所にのみ上記のような処置がとられており,それ以降はその意味が併記されていないことが多い.そのため,記事の途中から文書を読んだり,関連する記事が複数のページに渡って掲載されている時に先頭のページではない部分から記事を読んだりした場合には,最初にその英字略語が出現した箇所を探さなくてはならず,解読にはひと手間が必要となり,理解の妨げとなる.さらに,一般的な文章の場合では,このように英字略語の意味を併記するという処置をとる方が珍しいと言える.
V17N01-08
label{introduction}テキストの評価は,自動要約や機械翻訳などのようなテキストを生成するタスクにおいて手法の評価として用いられるだけでなく,例えば人によって書かれた小論文の自動評価\cite{miltsakaki2004}といったように,それ自体を目的とすることもある.言語処理の分野においては前者のような手法評価の観点からテキスト評価に着目することが多く,例えば自動要約の評価で広く用いられているROUGE\cite{lin2003,lin2004}や機械翻訳で用いられているBLEU\cite{papineni2002}のような評価尺度が存在している.これらの評価手法は特に内容についての評価に重点が置かれている.つまり,評価対象のテキストが含んでいなければならない情報をどの程度含んでいるかということに焦点が当てられている.しかし,実際にはテキストは単に必要な情報を含んでいれば良いというわけではない.テキストには読み手が存在し,その読み手がテキストに書かれた内容を正しく理解できなければ,そのテキストは意味をなさない.読み手の理解を阻害する原因には,難解な語彙の使用,不適切な論理展開や文章の構成などが挙げられる.これらはテキストの内容に関する問題ではなく,テキストそのものに関する問題である.従って,テキストの内容が正しく読み手に伝わるかどうかを考慮するならば,その評価においては内容に関する評価だけでなく,テキストそのものについての評価も重要となる.テキストそのものについての性質のうち,テキスト一貫性\cite{danwa}とは文章の意味的なまとまりの良さであり,例えば因果関係や文章構造などによって示される文同士の繋がりである.意味的なまとまりが悪ければ,テキストの内容を読み手が正確に理解することが困難になると考えられる.このことから一貫性の評価はテキストの内容が正しく伝わることを保証するために必要であると言える.また,テキスト一貫性が評価できるようになると,テキストを生成するシステムにおいて,例えば,一貫性が良くなるように文章を構成したり,一貫性の観点からの複数の出力候補のランク付けが可能となり,出力するテキストの質を高めることができる.テキスト一貫性は局所的な一貫性と大域的な一貫性という2種類のレベルに分類できる.局所的な一貫性とは相前後する2文間における一貫性であり,大域的な一貫性とは文章における話題の遷移の一貫性のことである.一貫性の評価に関しては,この局所的な一貫性と大域的な一貫性の両方についてそれぞれ考えることができるが,局所的な一貫性は大域的な一貫性にとって重要な要素であり,局所的な一貫性の評価の精度の向上が大域的な一貫性の評価に影響すると考えられる.以上のことから,本論文では,テキスト一貫性,特に局所的な一貫性に焦点を当て,この観点からのテキストの評価について述べる.テキストの性質について,テキスト一貫性と並べて論じられるものにテキスト結束性\cite{halliday1976}がある.これは意味的なつながりである一貫性とは異なり,文法的なつながりである.一貫性が文脈に依存しているのに対し,結束性は脱文脈的で規則的な性質である\cite{iori2007}.テキスト結束性に寄与する要素は大きく参照\footnote{代名詞の使用や省略は参照に含まれる.},接続,語彙的結束性\footnote{同じ語の繰り返しは語彙的結束性に含まれる.}に分けられる.これらはテキストの表層において現れる要素である.一貫性は先に述べたように意味のまとまりの良さであり,これに寄与する要素は明示的な形では現れない.一貫性と結束性はどちらもテキストのまとまりに関する性質であり,それぞれが独立ではなく互いに関係している.従って,テキストの表層に現れる,結束性に関係する要素である接続表現や語彙的結束性を一貫性モデルにおいても考慮することで性能の向上が期待できる.2章で述べるように,局所的な一貫性に関する研究はテキスト中の隣接する文間の関係を単語の遷移という観点から捉えているものが多い.その中でもBarzilayら\cite{barzilay2005,barzilay2008}の研究は,この領域における他の研究において多く採用されているentitygridという表現を提案しており,先駆的な研究として注目に値する.しかし,3章で詳述するように,このモデルでは要素の遷移の傾向のみ考慮しており,テキストのまとまりに関係している明示的な特徴はほとんど利用されていない.そこで本論文では4章で詳述するように,一貫性モデルに結束性に関わる要素を組み込むことによって,結束性を考慮に入れた局所的な一貫性モデルを提案する.
V19N05-04
感染症の流行は,毎年,百万人を越える患者を出しており,重要な国家的課題となっている\cite{国立感染症研究所2006}.特に,インフルエンザは事前に適切なワクチンを準備することにより,重篤な状態を避けることが可能なため,感染状態の把握は各国における重要なミッションとなっている\cite{Ferguson2005}.この把握は\textbf{インフルエンザ・サーベイランス}と呼ばれ,膨大なコストをかけて調査・集計が行われてきた.本邦においてもインフルエンザが流行したことによって総死亡がどの程度増加したかを示す推定値({\bf超過死亡概念による死者数})は毎年1万人を超えており\cite{大日2003},国立感染症研究所を中心にインフルエンザ・サーベイランスが実施され,その結果はウェブでも閲覧することができる\footnote{https://hasseidoko.mhlw.go.jp/Hasseidoko/Levelmap/flu/index.html}.しかし,これらの従来型の集計方式は,集計に時間がかかり,また,過疎部における収集が困難だという問題が指摘されてきた\footnote{http://sankei.jp.msn.com/life/news/110112/bdy11011222430044-n1.htm}.このような背景のもと,近年,ウェブを用いた感染症サーベイランスに注目が集まっている.これらは現行の調査法と比べて,次のような利点がある.\begin{enumerate}\item{\bf大規模}:例えば,日本語単語「インフルエンザ」を含んだTwitter上での発言は平均1,000発言/日を超えている(2008年11月).このデータのボリュームは,これまでの調査手法,例えば,本邦における医療機関の定点観測の集計を圧倒する大規模な情報収集を可能とする.\item{\bf即時性}:ユーザの情報を直接収集するため,これまでにない早い速度での情報収集が可能である.早期発見が重視される感染症の流行予測においては即時性が極めて重要な性質である.\end{enumerate}以上のように,ウェブを用いた手法は,感染症サーベイランスと相性が高い.ウェブを用いた手法は,ウェブのどのようなサービスを材料にするかで,様々なバリエーションがあるが,本研究では近年急速に広まりつつあるソーシャルメディアのひとつであるTwitterに注目する.しかしながら,実際にTwitterからインフルエンザに関する情報を収集するのは容易ではない.例えば,単語「インフルエンザ」を含む発言を収集すると,以下のような発言を抽出してしまう:\begin{enumerate}\itemカンボジアで鳥インフルエンザのヒト感染例、6歳女児が死亡(インフルエンザに関するニュース)\itemインフルエンザ怖いので予防注射してきました(インフルエンザ予防に関する発言)\itemやっと...インフルエンザが治った!(インフルエンザ完治後の発言)\end{enumerate}上記の例のように,単純な単語の集計では,実際に発言者がインフルエンザにかかっている本人(本稿では,{\bf当事者}と呼ぶ)かどうかが区別されない.本研究では,これを文書分類の一種とみなして,SupportVectorMachine(SVM)\cite{Vapnik1999}を用いた分類器を用いて解決する.さらに,この当事者を区別できたとしても,はたして一般の人々のつぶやきが正確にインフルエンザの流行を反映しているのかという情報の正確性の問題が残る.例えば,インフルエンザにかかった人間が,常にその病態をソーシャルメディアでつぶやくとは限らない.また,つぶやくとしても時間のずれがあるかもしれない.このように,不正確なセンサーとしてソーシャルメディアは機能していると考えられる.この不正確性は医師の診断をベースに集計する従来型のサーベイランスとの大きな違いである.実際に実験結果では,人々は流行前に過敏に反応し,流行後は反応が鈍る傾向があることが確認された.すなわち,ウェブ情報をリソースとした場合,現実の流行よりも前倒しに流行を検出してしまう恐れがある.本研究では,この時間のずれを吸収するために,感染症モデル\cite{Kermack1927}を適応し補正を行う.本論文のポイントは次の2点である:\begin{enumerate}\itemソーシャルメディアの情報はノイズを含んでいる.よって,文章分類手法にてこれを解決する.\itemソーシャルメディアのインフルエンザ報告は不正確である.これにより生じる時間的なずれを補正するためのモデルを提案する.\end{enumerate}本稿の構成は,以下のとおりである.2節では,関連研究を紹介する.3節では,構築したコーパスについて紹介する.4節では,提案する手法/モデルについて説明する.5節では,実験について報告する.6節に結論を述べる.
V30N01-06
\label{sec:introduction}深層学習の発展とともに,自然言語処理技術は目覚ましい発展を遂げた.中でも,自然言語文を実数ベクトルとして表現する\textbf{文埋め込み}は,類似文検索,質問応答,機械翻訳といった多様なタスクに応用することができ\cite{SGPT,xu-etal-2020-boosting},より優れた文埋め込みがこれらのタスクにおける性能を広く向上させる可能性があることから,深層学習を用いた自然言語処理の基礎技術として盛んに研究されている.文埋め込みを構成する手法は数多く存在するが,近年では自然言語推論(NaturalLanguageInference;NLI)タスクに基づいて文埋め込みモデルを獲得する手法が主流となっている.NLIタスクは与えられた文のペアに対して,その文ペアの含意関係が「含意」「矛盾」「その他」のうちのどれであるかを予測する分類タスクである.複数の研究がNLIタスクに基づく文埋め込み手法を提案しており\cite{InferSent,SBERT,SimCSE},文埋め込み評価のための標準的なベンチマークタスクで高い性能を達成してきた.しかし,NLIタスクに基づく手法は大規模なNLIデータセットが整備されている言語でしか利用できないという問題がある.実際,NLIタスクに基づく手法として代表的なSentence-BERT(SBERT)\cite{SBERT}は,人手でラベル付けされた約100万文ペアからなるNLIデータセットに基づくが,英語以外の言語ではこのようなデータセットは限られた量しか存在しない.したがって,既存のNLIタスクに基づく文埋め込み手法を英語以外に適用しても,英語と同等の精度は期待できない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia5f1.pdf}\end{center}\caption{Sentence-BERT(左)と提案手法である\textbf{DefSent}(右)の概要図.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究ではこの問題を解決するため,辞書に含まれる単語とその定義文が基本的に同一の意味内容を表すという関係に着目し,辞書の定義文を用いた文埋め込み手法である\textbf{DefSent}を提案する.NLIデータセットと比べて辞書は,はるかに多くの言語において既に整備がされている言語資源であり,辞書の定義文を用いた文埋め込み手法は多くの言語に適用できる可能性が高い.既存研究であるSBERTと,提案手法であるDefSentの概要を図\ref{fig:overview}に示す.本研究で提案する文埋め込み手法はSBERTと同様に,BERT\cite{BERT}やRoBERTa\cite{RoBERTa}といった事前学習済み言語モデルに基づく.これらのモデルに定義文を入力して得られる文埋め込みから,対応する単語を予測できるように事前学習済み言語モデルをfine-tuningする.単語予測というタスクを通して,事前学習済み言語モデルが備える単語埋め込み空間の意味情報を活用することで,文埋め込みを効率的に構成できるようになる.本研究では,2つの方法で提案手法による文埋め込みの有用性を評価した.一つ目は,文埋め込みモデルが捉える文ペアの意味的類似度がどれほど人間評価と近しいかを評価するSemanticTextualSimilarity(STS)タスクによる実験である.STSタスクを用いた評価により,提案手法が大規模なNLIデータセットを用いる既存手法と同等の性能を示すことを確認した.二つ目は,文埋め込みにどのような情報が捉えられているかを評価するソフトウェアのSentEval\cite{SentEval}を用いた評価である.SentEvalを用いた評価により,提案手法が既存手法の性能と同等の性能を示し,種々のタスクに有用な文埋め込みを構成することが確認できた.さらに本研究では,提案手法による文埋め込みの性質が,既存手法と比較してどのように異なるかを分析した.一般的に,機械学習モデルは学習に用いたデータセットやタスクによって異なる振る舞いを示す.文埋め込みモデルも同様に,これらの教師信号に影響を受け,文埋め込み手法ごとに異なる性質の文埋め込みが構成されると考えられる.それぞれの文埋め込みがどのような性質を持っているのか理解することは,よりよい文埋め込み手法の研究のために有益であると考えられる.上記を踏まえ,提案手法であるDefSentと,既存手法として代表的なSBERTを対象とし,STSタスクとSentEvalを用いた文埋め込みの性質分析を行った.最後に,性質の異なる文埋め込みを統合することによって,下流タスクでさらに高い性能を示す文埋め込みを構成できることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V04N03-02
\label{sec:introduction}単語の多義性を解消するための技術は,機械翻訳における訳語の選択や仮名漢字変換における同音異義語の選択などに応用できる.そのため,さまざまな手法\cite{Nagao96}が研究されているが,最近の傾向ではコーパスに基づいて多義性を解消するものが多い.コーパスに基づく手法では,単語と単語や語義と語義との共起関係をコーパスから抽出し,抽出した共起関係に基づいて入力単語の語義を決める.しかし,抽出した共起関係のみでは全ての入力には対応できないというスパース性の問題がある.スパース性に対処するための一つの方法は,シソーラスを利用することである.シソーラスを使う従来手法には,クラスベースの手法\cite{Yarowsky92,Resnik92,Nomiyama93,Tanaka95a}や事例ベースの手法\cite{Kurohashi92,Iida95,Fujii96a}がある.クラスベースの手法では,システムに入力された単語(入力単語)の代りに,その上位にある,より抽象的な節点を利用する\footnote{本章では単語と語義と節点とを特には区別しない.}.一方,事例ベースの手法では,このような抽象化は行わない.すなわち,入力単語がコーパスに出現していない場合には,出現している単語(出現単語)のうちで,入力単語に対して,シソーラス上での距離が最短の単語を利用する.ところで,シソーラス上では,2単語間の距離は,それらに共通の上位節点\footnote{「二つの節点に共通の上位節点」といった場合には,共通の上位節点のうちで最も深い節点,すなわち,根から最も遠い節点を指す.}の深さにより決まる.つまり,共通の上位節点の深さが深いほど,2単語間の距離は短くなる.したがって,事例ベースの手法では,シソーラス上における最短距離の出現単語ではなくて,最短距離の出現単語と入力単語とに共通の上位節点を利用しているとも考えられる.こう考えると,どちらの手法も,入力単語よりも抽象度の高い節点を利用している点では,共通である.二つの手法の相違は,上位節点の決め方とその振舞いの解釈である.まず,上位節点の決め方については,クラスベースの手法が,当該の入力単語とは独立に設定した上位節点を利用するのに対して,事例ベースの手法では,入力単語に応じて,それに最短距離の出現単語から動的に決まる上位節点を利用する.次に,上位節点の振舞いについては,クラスベースの手法では,上位節点の振舞いは,その下位にある節点の振舞いを平均化したものである.一方,事例ベースの手法では,上位節点の振舞いは,入力単語と最短距離にある出現単語と同じである.このため,クラスベースの手法では,クラス内にある単語同士の差異を記述できないし,事例ベースの手法では,最短距離にある出現単語の振舞いが入力単語の振舞いと異なる場合には,当該の入力の処理に失敗することになる.これは,一方では平均化により情報が失なわれ\cite{Dagan93},他方では個別化によりノイズに弱くなる\cite{Nomiyama93}という二律排反な状況である.クラスベースの手法でこの状況に対処するためには,クラスの抽象化の度合を下げればよい.しかし,それには大規模なコーパスが必要である.一方,事例ベースの手法では,最短距離の出現単語だけではなくて,適当な距離にある幾つかの出現単語を選び,それらの振舞いを平均化して入力単語の振舞いとすればよい.しかし,幾つ出現単語を選べば良いかの指針は,従来の研究では提案されていない.本稿では,平均化による情報の損失や個別化によるノイズを避けて,適当な抽象度の節点により動詞の多義性を解消する手法を提案する.多義性は,与えられた語義の集合から,尤度が1位の語義を選択することにより解消される.それぞれの語義の尤度は,まず,動詞と係り受け関係にある単語に基づいて計算される.このとき,尤度が1位の語義と2位の語義との尤度差について,その信頼下限\footnote{確率変数の信頼下限というときには,その推定値の信頼下限を意味する.確率変数$X$の(推定値の)信頼下限とは,$X$の期待値を$\langleX\rangle$,分散を$var(X)$とすると$\langleX\rangle-\alpha\sqrt{var(X)}$である.また,信頼上限は$\langleX\rangle+\alpha\sqrt{var(X)}$である.$\alpha$は推定の精度を左右するパラメータであり,$\alpha$が大きいと$X$の値が実際に信頼下限と信頼上限からなる区間にあることが多くなる.}が閾値以下の場合には語義を判定しないで,信頼下限が閾値よりも大きいときにのみ語義を判定する.語義が判定できないときには,シソーラスを一段上った節点を利用して多義性の解消を試みる.この過程を根に至るまで繰り返す.根においても多義性が解消できないときには,その係り受け関係においては語義は判定されない.提案手法の要点は,従来の研究では固定的に選ばれていた上位節点を,入力に応じて統計的に動的に選択するという点である.尤度差の信頼下限は,事例ベースの手法において,「幾つ出現単語を選べば良いか」を決めるための指標と考えることができる.あるいは,クラスベースの手法において,「平均化による情報の損失を最小にするクラス」を,入力に応じて設定するための規準と考えることができる.以下,\ref{sec:model}章では動詞の多義性の解消法について述べ,\ref{sec:experiment}章では提案手法の有効性を実験により示す.実験では,主に,提案手法とクラスベースの手法とを比較する.\ref{sec:discussion}章では提案手法とクラスベースの手法や事例ベースの手法との関係などを述べ,\ref{sec:conclusion}章で結論を述べる.
End of preview. Expand in Data Studio

NLPJournalTitleIntroRetrieval.V2

An MTEB dataset
Massive Text Embedding Benchmark

This dataset was created from the Japanese NLP Journal LaTeX Corpus. The titles, abstracts and introductions of the academic papers were shuffled. The goal is to find the corresponding introduction with the given title. This is the V2 dataset (last updated 2025-06-15).

Task category t2t
Domains Academic, Written
Reference https://huggingface.co/datasets/sbintuitions/JMTEB

Source datasets:

How to evaluate on this task

You can evaluate an embedding model on this dataset using the following code:

import mteb

task = mteb.get_task("NLPJournalTitleIntroRetrieval.V2")
evaluator = mteb.MTEB([task])

model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)

To learn more about how to run models on mteb task check out the GitHub repository.

Citation

If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.


@misc{jmteb,
  author = {Li, Shengzhe and Ohagi, Masaya and Ri, Ryokan},
  howpublished = {\url{https://huggingface.co/datasets/sbintuitions/JMTEB}},
  title = {{J}{M}{T}{E}{B}: {J}apanese {M}assive {T}ext {E}mbedding {B}enchmark},
  year = {2024},
}


@article{enevoldsen2025mmtebmassivemultilingualtext,
  title={MMTEB: Massive Multilingual Text Embedding Benchmark},
  author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
  publisher = {arXiv},
  journal={arXiv preprint arXiv:2502.13595},
  year={2025},
  url={https://arxiv.org/abs/2502.13595},
  doi = {10.48550/arXiv.2502.13595},
}

@article{muennighoff2022mteb,
  author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Loïc and Reimers, Nils},
  title = {MTEB: Massive Text Embedding Benchmark},
  publisher = {arXiv},
  journal={arXiv preprint arXiv:2210.07316},
  year = {2022}
  url = {https://arxiv.org/abs/2210.07316},
  doi = {10.48550/ARXIV.2210.07316},
}

Dataset Statistics

Dataset Statistics

The following code contains the descriptive statistics from the task. These can also be obtained using:

import mteb

task = mteb.get_task("NLPJournalTitleIntroRetrieval.V2")

desc_stats = task.metadata.descriptive_stats
{
    "test": {
        "num_samples": 1147,
        "number_of_characters": 1382617,
        "num_documents": 637,
        "min_document_length": 304,
        "average_document_length": 2148.0376766091053,
        "max_document_length": 9565,
        "unique_documents": 637,
        "num_queries": 510,
        "min_query_length": 5,
        "average_query_length": 28.072549019607845,
        "max_query_length": 71,
        "unique_queries": 510,
        "none_queries": 0,
        "num_relevant_docs": 510,
        "min_relevant_docs_per_query": 1,
        "average_relevant_docs_per_query": 1.0,
        "max_relevant_docs_per_query": 1,
        "unique_relevant_docs": 510,
        "num_instructions": null,
        "min_instruction_length": null,
        "average_instruction_length": null,
        "max_instruction_length": null,
        "unique_instructions": null,
        "num_top_ranked": null,
        "min_top_ranked_per_query": null,
        "average_top_ranked_per_query": null,
        "max_top_ranked_per_query": null
    }
}

This dataset card was automatically generated using MTEB

Downloads last month
83