id
stringlengths
9
9
text
stringlengths
18
1.29k
title
stringclasses
1 value
V07N01-03
言語処理の研究には名詞句の指示性の推定という問題がある.名詞句の指示性とは,名詞句の対象への指示の仕方のことで,指示性としては総称名詞句,定名詞句,不定名詞句の三種類が主に設けられている.この指示性は,日英機械翻訳の冠詞生成や同一名詞句の照応解析に役に立つ.名詞句の指示性の先行研究では,表層の手がかり語を利用した規則を利用して解析し,複数の規則が競合した場合は規則により各指示性に得点を付与し合計点の最も大きい指示性を解としていた.この規則に記述している得点は人手で付与しており,人手の介入が大きい方法となっていた.本稿では,この人手で付与していた得点部分を機械学習の手法で自動調節することで,人手のコストを削減することに成功したことについて記述している.
V13N03-03
選好依存文法(PDG:PreferenceDependencyGrammar)は,自然言語の形態素,構文,意味解析を統合的に行う枠組みであり,各レベルの種々の曖昧性を統合的に効率良く保持し,各レベルの知識により優先度を設定し,全体解釈として最適な解を計算する.本稿では,PDGの基本モデルである多レベル圧縮共有データ結合モデルとPDGの概要について述べるとともに,選好依存文法で用いられるヘッド付き統語森,依存森といった言語解釈を統合保持するデータ構造とその構築手法について説明する.また,文の句構造を圧縮共有する統語森と依存構造を圧縮共有する依存森との対応関係において完全性と健全性が成立することを示す.
V25N03-01
本論文では,日本語語義曖昧性解消に存在する問題点を文中のひらがなを漢字に直すかな漢字換言タスクを通して明らかにする.素性について分散表現と自己相互情報量を組み合わせる手法を考案し実験を行った結果,かな漢字換言においてベースラインに比べ約2ポイント高い精度を得ることができた.日本語の語義曖昧性解消タスクを用いた検証においても,PMIを用い文全体から適切な単語を素性として加えることが有効であることを示した.かな漢字換言の利点を活かし,大量の訓練データを用いたときのかな漢字換言の精度の比較を行った結果,非常に大きい訓練データを用いた場合分散表現を用いたどの手法でもほぼ同じ精度を得られることがわかった.その一方で同じ精度を得るために必要な訓練データは指数関数的に増えていくため,少ない訓練データで精度を上げる手法が語義曖昧性解消において重要であることを確認した.また,BCCWJとWikipediaから作成した訓練データとテストデータを相互に使い実験し,各ドメインにあった訓練データを使うことが精度向上において重要であることを確認した.
V25N04-04
本稿では,文法誤り検出のための正誤情報と文法誤りパターンを考慮した単語分散表現の学習手法を提案する.これまでの文法誤り検出で用いられている単語分散表現の学習では文脈だけをモデル化しており,言語学習者に特有の文法誤りを考慮していない.そこで我々は,正誤情報と文法誤りパターンを考慮することで文法誤り検出に特化した単語分散表現を学習する手法を提案する.正誤情報とは,n-gram単語列内のターゲット単語が誤っているのか正しいのかというラベルである.これは単語単位の誤りラベルを元に決定される.誤りパターンとは,学習者が誤りやすい単語の組み合わせである.誤りパターンは大規模な学習者コーパスから単語分散表現の学習のために抽出することが可能である.この手法で学習した単語分散表現で初期化したBidirectionalLongShort-TermMemoryを分類器として使うことで,FirstCertificateinEnglishコーパスに対する文法誤り検出において世界最高精度を達成した.
V14N03-12
我々は,人とのコミュニケーションの仕組みを機器とのインタフェースとして実現することを目標に研究を行っている.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念をもって会話を展開している.このように会話文章から常識的な判断を行い,適切に応答するためには,ある語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.本稿では,ある概念から様々な概念を連想できるメカニズムを基に,人間が行う常識的な判断の一つである感情に関する判断を実現する方法について提案している.「主体語」,「修飾語」,「目的語」,「変化語」の4要素から成るユーザの発話文章から,そのユーザの感情を基本感情10種類,補足感情24種類で判断する手法を提案している.また,本手法を用いた感情判断システムを構築し,その性能を評価した結果,常識的な解の正答率は76.5{\kern0pt}%,非常識ではない解を正答率に含めると88.0{\kern0pt}%であり,提案した処理手法は有効であると言える.
V27N02-06
本研究では,写真付きレシピの作成を容易にするために,写真列を入力としてレシピを生成するという課題と,それを解決する手法を提案する.レシピを正しく生成するためには,モデルは写真を説明する上で欠かせない物体や動作といった重要語と,それを含む表現を生成する必要がある.写真列を入力として文章を出力する類似課題であるVisualstorytellingの手法では,重要語の存在は考慮されていなかった.これに対して,本論文では,検索課題として取り組まれてきた手法を文生成モデルに組み込むことで,モデルは入力写真に適した重要語を過不足なく含む表現の情報を活用しながらレシピを生成する手法を提案する.日本語のレシピを対象に実験を行った結果,本手法を適用することで生成文の自動評価尺度や,写真に適した重要語が生成文中に含まれているかといった評価においてベースラインと比較して性能が向上したことを実験的に確認した.
V06N05-05
著者らは用例提示型の日英翻訳支援システムを開発している.この中には利用者が入力する日本語の表現に類似する表現を検索して,検索結果を含んだ日本語文とその対訳を表示する機能がある.著者らの日本語データベースの文は平均長が88.9文字と長い.このように長い用例を対象に類似検索を行う場合,キーワードによるAND検索は適切ではない.なぜなら用例が長いため1文中に同一キーワードが複数回出現する場合があり,これが原因で不適切な用例を検索しやすくなるからである.これに対して著者らは入力キーワードの語順とその出現位置の間隔を考慮した検索手法を提案する.これによって構文解析を行うことなく構文情報を反映した検索を行うことができる.本稿では従来のAND検索と提案手法を使った評定者による主観評価実験を報告する.この中で,提案手法の有効性が統計的に有意となったことを示す.また,検索時間の増加は1.3倍であった.
V19N03-04
地方自治体が制定する条例(規則も含め,以下例規という)は,章節/条項号という階層を有する,基本的に構造化された文書である.各自治体はそれぞれ別個に各議会等でこの例規を制定するため,複数の自治体が同一の事柄に関する規定(例えば「淫行処罰規定」など)を有している事が多い.この同一の事柄に関する規定の自治体間における異同を明らかにするための比較は,法学教育や法学研究,地方自治体法務,企業法務において実施されている.実務における法の比較では,対応する条項を対とし,それらの条文を左右または上下に並べた条文対応表の作成が主体となっている.これまで条文対応表は手作業で作成されてきたが,対象とする例規の条数や文字数が多い場合の表作成には3時間以上も必要としていた.そのため計算機による条文対応表の作成支援が強く求められているが,本件に関する研究はこれまでに行われていない.そこで我々の研究は,条文対応表を計算機で自動作成することによる条文対応表の作成支援を目的とする.この目的を達成するため,我々は条文対応表を,各条をノードとする二部グラフとしてモデル化し,このモデルに基づき条文対応表を自動作成するために有効な手法の検討を行った.二文書間の類似度を定義する多くの研究がこれまでに報告されている.これらの類似度比較手法より本研究ではベクトル空間モデル,最長共通部分列,及び文字列アライメント(編集コスト可変のレーベンシュタイン距離)に基づく96個の類似尺度の性能を比較した.評価には愛媛県の11の条例とそれに対応する香川県の11の条例を用い,法学者が作成した条文対応表に基づき正解率を求めた.その結果,名詞,副詞,形容詞,動詞,連体詞を対象としたベクトル空間モデルに基づく類似尺度の正解率が85\%と最も高かった.また,文字列アライメントに基づく類似尺度の正解率は最高で81\%,最長共通部分列は最高で75\%であった.本研究は条文対応表の作成支援であるため,推定された対応関係の信頼度,あるいは尤もらしさを提示する事が望ましい.そこで各比較手法で最も正解率の高かったパラメータを用いた合計3つの類似尺度に対して受信者操作特性曲線による評価を行ったが,曲線下面積がいずれも狭くて信頼度の尺度として適さない.そこで,推定された対応関係の類似度を二番目に高い類似度を持つ対応関係の値で割る事による正規化を行ったところ,最長共通部分列の曲線下面積が0.80と最も高く,ベクトル空間モデルの面積は0.79と良好であった.以上の評価結果より,条文対応表の作成支援では条見出しに対して最長共通部分文字列を,条文に対してベクトル空間モデルをそれぞれ適用した類似尺度を併用する事が,そして得られた条文対応関係の信頼度を評価する尺度としては二番目に高い類似度で割った値を用いるとよい事を明らかにした.
V26N01-08
本論文では,ニューラル機械翻訳(NMT)の性能を改善するため,CKYアルゴリズムから着想を得た,畳み込みニューラルネットワーク(CNN)に基づく新しいアテンション構造を提案する.提案のアテンション構造は,CKYテーブルを模倣したCNNを使って,原言語文中の隣接する単語/句の全ての可能な組み合わせを表現する.提案のアテンション構造を組み込んだNMTは,CKYテーブルの各セルに対応するCNNの隠れ状態に対するアテンションスコア(言い換えると,原言語文中の単語の組み合わせに対するアテンションスコア)に基づき目的言語の文を生成する.従来の文構造に基づくNMTは予め構文解析器で解析した文構造を活用するが,提案のアテンション構造を用いるNMTは,原言語文の構文解析を予め行うことなく,原言語の文に潜む構造に対するアライメントを考慮した翻訳を行うことができる.AsianScientificPaperExcerptCorpus(ASPEC)英日翻訳タスクの評価実験により,提案のアテンション構造を用いることで,従来のアテンション構造付きのエンコーダデコーダモデルと比較して,1.43ポイントBLEUスコアが上昇することを示す.さらに,FBISコーパスにおける中英翻訳タスクにおいて,提案手法は,従来のアテンション構造付きのエンコーダデコーダモデルと同等かそれ以上の精度を達成できることを示す.
V07N05-03
音声合成におけるポーズ制御において重要となる局所係り受け解析に関し,決定リストを用いる方法を開発し,ポーズ挿入の正解率をF値で評価したところ90.04\%を得た.本係り受け解析は決定リストを用いているので,使用するメモリの容量と処理速度に関して設定を容易に変更できるという特徴を有している.このため,用途に応じてメモリ容量,計算速度が選択できる.計算速度を重視し,メモリ容量を12Kバイトと小さくした場合,文あたりのポーズ設定処理の時間7msec(PentiumIII450MHz),F値85\%となり,音声合成システムへの実装が現実的であることがわかった.係り受け解析結果に基づくポーズ挿入位置制御規則を作成し,聴取実験によって性能を確認した.その結果,係り受け距離のみに基づく制御で,85\%程度のポーズ挿入位置が挿入適当という結果であった.さらに,句読点や,ポーズの連続などの要因を取り入れて規則の精緻化を行った結果,91\%程度のポーズ挿入位置が挿入適当という結果が得られた.
V14N03-05
日常生活の様々な体験において,その体験の素晴らしさを表現する言葉として,『感動』という言葉がしばしば用いられる.感動とは,『美しいものや素晴らしいことに接して強い印象を受け,心を奪われること』(大辞林\cite{Book_103})であり,体験に対する肯定的な評価であると共に,記憶の定着や感情の喚起を伴った心理状態の大きな変化である.感動を喚起する対象としては,マスメディアが提供するドラマや映画,音楽などの割合が高いとされている\cite{Web_401}.しかし,感動という心理状態の定義については,研究者の中でも曖昧である.\par我々の目的は,放送番組の品質評価,特に音の評価に,『感動』をキーワードとした評価指標を導入するために,感動という心理状態を明確にすることにある.まず,アンケート調査を実施し,感動という言葉で表現される体験と,感動を表現する言葉(以下,感動語)を収集した.次に,感動語同士の一対比較による主観評価実験を行い,感動語から連想される心理状態の類似度を求めた.他の感動語との類似度によって表現される類似度ベクトルの距離に基づいて,感動語の分類を行った.その結果,感情とは,特定の感情そのものではなく,大きく心が動かされたという体験に対して,肯定的な印象を持っているという個々の心理状態の総称であり,感動という心理状態が,感動の対象と感情の種類,感情の動きの組み合わせによって分類できることが分かった.
V30N01-05
%従来の音声認識システムは,入力音声に現れるすべての単語を忠実に再現するように設計されているため,認識精度が高いときでも,人間にとって読みやすい文を出力するとは限らない.これに対して,本研究では,フィラーや言い誤りの削除,句読点や脱落した助詞の挿入,また口語的な表現の修正など,適宜必要な編集を行いながら,音声から直接可読性の高い書き言葉スタイルの文を出力する新しい音声認識のアプローチについて述べる.我々はこのアプローチを単一のニューラルネットワークを用いた音声から書き言葉へのend-to-end変換として定式化する.また,音声に忠実な書き起こしを疑似的に復元し,end-to-endモデルの学習を補助する手法と,句読点位置を手がかりとした新しい音声区分化手法も併せて提案する.700時間の衆議院審議音声を用いた評価実験により,提案手法は音声認識とテキストベースの話し言葉スタイル変換を組み合わせたカスケード型のアプローチより高精度かつ高速に書き言葉を生成できることを示す.さらに,国会会議録作成時に編集者が行う修正作業を分類・整理し,これらについて提案システムの達成度と誤り傾向の分析を行う.
V09N04-03
本論文では,格フレーム辞書を用いて原文の重要語句を抽出し,抽出された語句を再構成することにより要約文を生成する新聞記事要約手法を提案する.この手法に基づいて新聞記事自動要約システムALTLINEを試作し,人手要約との比較により評価を行なった.この結果,提案手法によって人間の要約に匹敵する要約文が生成できることが分かった.
V29N02-06
近年,動詞の意味フレーム推定タスクでは,推定対象の動詞の文脈化単語埋め込みに基づき,動詞全体で一度にクラスタリングを行う手法がいくつか提案されている.しかし,このような手法には大きく2つの欠点が存在する.1つは動詞の表層的な情報を過度に考慮するため,意味の似た異なる動詞の用例をまとめづらいこと,もう1つは同じ動詞の用例がその動詞自身が持つ意味の異なり数以上のクラスタに分割されることである.本論文では,これらの欠点を克服するために,マスクされた単語埋め込みと2段階クラスタリングを用いた動詞の意味フレーム推定手法を提案する.FrameNetを用いた実験を通し,マスクされた単語埋め込みを活用することが動詞の表層的な情報に強く依存したクラスタの構築を抑制し,また,2段階のクラスタリングを行うことで各動詞の用例が属するクラスタの異なり数を適正化できることを示す.
V25N04-02
本研究では,日本で人気のある野球に着目し,Play-by-playデータからイニングの要約文の生成に取り組む.Web上では多くの野球に関する速報が配信されている.戦評は試合終了後にのみ更新され,“待望の先制点を挙げる”のような試合の状況をユーザに伝えるフレーズ(本論文ではGame-changingPhrase;GPと呼ぶ)が含まれているのが特徴であり,読み手は試合の状況を簡単に知ることができる.このような特徴を踏まえ,任意の打席に対して,GPを含む要約文を生成することは,試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であるといえる.そこで,本研究ではPlay-by-playデータからGPを含む要約文の生成に取り組む.また,要約生成手法としてテンプレート型文生成手法とEncoder-Decoderモデルを利用した手法の2つを提案する.
V18N02-06
近年,ブログを対象とした情報アクセス・情報分析技術が盛んに研究されている.我々は,この種の研究の基礎データの提供を目的とし,249記事,4,186文からなる,解析済みブログコーパスを構築した.主な特長は次の4点である.i)文境界のアノテーション.ii)京大コーパス互換の,形態素,係り受け,格・省略・照応,固有表現のアノテーション.iii)評価表現のアノテーション.iv)アノテーションを可視化したHTMLファイルの提供.記事は,大学生81名に「京都観光」「携帯電話」「スポーツ」「グルメ」のいずれかのテーマで執筆してもらうことで収集した.解析済みブログコーパスを構築する際,不明瞭な文境界,括弧表現,誤字,方言,顔文字等,多様な形態素への対応が課題になる.本稿では,本コーパスの全容とともに,いかに上記の課題に対応しつつコーパスを構築したかについて述べる.
V15N03-06
現在,文書の要約をユーザへ提示することで支援を行う自動要約の研究が盛んに行われている.既存研究の多くは語や文に対して重要度を計算し,その重要度に基づいて要約を行うものである.しかし我々人間が要約を行うときには文法などの知識やどのように要約を行ったら良いのかという様々な経験を用いているため,我々は人間が要約に必要だと考える語や文と相関のあるような重要度の設定は難しいと考える.さらに人間が要約を行う際は様々な文の語や文節など織り交ぜて要約を作成するため,文圧縮や文抽出の既存研究ではこのような人間が作成する要約文は作ることができない.そこで本論文ではこれらの問題点を解決し,人間が作成するような要約を得るため用例利用型の要約手法を提案した.この要約手法の基本的なアイデアは人間が作成した要約文(用例)を模倣して文書を要約することである.提案手法は類似用例文の獲得,文節の対応付け,そして文節の組合せの3つの過程から構成される.評価実験では従来法の一つを比較手法として挙げ,自動評価と人手による評価を行った.人手の評価では要約文が読みやすいかという可読性の評価と要約の内容として適切であるかという内容適切性の評価を行った.実験結果では自動評価及び人手による評価共に従来法に比べ,本手法の方が有効であることが確認できた.また本研究で目的としていた複数文の情報を含んだ要約文が作成されたことも確認できた.
V21N02-04
現在,自然言語処理では意味解析の本格的な取り組みが始まりつつある.意味解析の研究には意味関係を付与したコーパスが必要であるが,従来の意味関係のタグ付きコーパスは新聞記事を中心に整備されてきた.しかし,文書には多様なジャンル,文体が存在し,その中には新聞記事では出現しないような言語現象も出現する.本研究では,従来のタグ付け基準では扱われてこなかった現象に対して新たなタグ付け基準を設定した.Webを利用することで多様な文書の書き始めからなる意味関係タグ付きコーパスを構築し,その分析を行った.
V28N04-04
%文章執筆時に発生する誤字などの入力誤りは,解析誤りを誘発するため,入力誤り訂正を行うシステムは重要である.入力誤り訂正システムの実現には,学習データとして多量の入力誤りとその訂正ペアが必要であるが,公開されている十分なサイズを持つ日本語入力誤りデータセットは存在しない.これまで,Wikipediaの編集履歴からフランス語などで入力誤りデータセットが構築されてきた.先行研究の手法は,編集のあった単語の特定を必要とするため,単語分割が必要な日本語に直接の適用はできない.本研究では,Wikipediaの編集履歴から,単語単位ではなく,文字単位の編集を手がかりとして入力誤りの候補を取り出し,それらに対しフィルタリングすることで入力誤りを収集する.この手法で約70万文ペアの大規模なデータセットを構築し,さらに,構築手法を評価した.次に,得られたデータセットを用いて,入力誤り訂正システムを構築する.訂正システムは,事前学習seq2seqモデルを用い,入力誤り訂正のみを学習するシステムと,漢字の読みの推定を同時に学習するシステムを構築した.前者と比較して,後者は漢字の変換誤りの訂正において精度が向上した.また,学習データに疑似入力誤りデータを追加して学習し,その精度変化を見た.最後に,他の校正システムと入力誤り認識精度の比較を行い,本研究のシステムの精度が高いことを確認した.
V22N04-01
本稿は機械学習を用いて関連語・周辺語または説明文書から適切な検索用語を予測する手法を提案する.機械学習には深層学習の一種であるDeepBeliefNetwork(DBN)を用いる.DBNの有効性を確認するために,用例に基づくベースライン手法,多層パーセプトロン(MLP),サポートベクトルマシン(SVM)との比較を行った.学習と評価に用いるデータは手動と自動の2通りの方法でインターネットから収集した.加えて,自動生成した疑似データも用いた.各種機械学習の最適なパラメータはグリッドサーチと交差検証を行うことにより決定した.実験の結果,DBNの予測精度はベースライン手法よりはるかに高くMLPとSVMのいずれよりも高かった.また,手動収集データに自動収集のデータと疑似データを加えて学習することにより予測精度は向上した.さらに,よりノイズの多い学習データを加えてもDBNの予測精度はさらに向上したのに対し,MLPの精度向上は見られなかった.このことから,DBNのほうがMLPよりもノイズの多い学習データを有効利用できることが分かった.
V30N02-17
%単語が持つ意味や用法は時代とともに変わっていく.BERTから獲得した単語ベクトルをグルーピングし,時期ごとの使用率を算出することで意味変化を分析する方法がある.英語の意味変化分析では既にいくつかこの類の手法が導入されているが,日本語への適用はまだない.また,英語での分析では手法ごとの比較が行われていない.そのため,日本語に適用した際の性能や各手法がどのような条件で有効か明らかになっていない.そこで本研究では日本語を対象に,以下の実験を行なった.現代語で事前訓練されたBERTの文脈依存ベクトルに,辞書を使った教師ありのグルーピング手法とクラスタリングを使った教師なしのグルーピング手法を適用し比較した.またBERTを通時的なコーパスでfine-tuningし,BERTの文脈依存ベクトルが捉える通時的な特徴を分析した.比較と分析の結果,充実した辞書がない場合,クラスタリングを使った手法が意味変化を捉えるのに適していることが分かった.さらに,現代語BERTを通時的なコーパスでfine-tuningすることで古い時期特有の表現により適した意味変化の分析が可能になることが分かった.一方で,古い時期に出現しない現代特有の用法がある場合には,意味変化を捉えられないケースも存在した.\renewcommand{\thefootnote}{}\footnote[0]{本研究は言語学会年次大会2021及び,PACLIC2021で発表した内容を拡張したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V09N04-04
検索結果のふるいわけに適した要約生成手法を開発した.多くの要約システムでは重要文選択という手法を採用しているが,この方法による要約は長く複雑な文になりがちである.我々が開発した句表現要約手法は,短い句を列挙することで,そのような長い文を読む際に生じる負荷を軽減する.各句は,(1)係り受け解析により単語間の関係を抽出,(2)係り受け関係からコアになる関係を選択,(3)句に意味のまとまりを持たせるのに必要な関係を付加,(4)このようにして作られたグラフから表層句を生成,という手順で作られる.この手法の効果を評価するため,タスクベース評価法の改良を行った.この方法では,検索が必要になった背景を含めたタスクの詳細まで規定すること,ひとつの要約を10名の評価者で評価して個人差の影響を少なくすることにより,正確性を増している.また,適合性の評価に複数のレベルを設けることで,様々な状況における適合率・再現率の評価を可能にした.この方法で評価したところ,句表現要約が情報検索結果のふるいわけに最も適していることがわかった.この結果は,生成された句が比較的短く,文書中の重要な概念を広くカバーするということから得られたものと考えられる.
V17N02-01
外国語を翻字するときに,日本語や韓国語ではカタカナやハングルなどの表音文字を用いるのに対して,中国語では漢字を用いる.しかし,漢字は表意文字であるため,発音が同じでも漢字によって意味や印象は異なる可能性がある.この問題を解消するために,ユーザが与えた関連語に基づいて翻字に使用する漢字を選択する手法がある.しかしユーザの負担が大きいため,本研究は,翻字対象の関連語をWorldWideWebから自動的に抽出し,中国語への翻字に使用する手法を提案する.評価実験によって提案手法の有効性を示す.
V06N07-02
日本語の長文で一文中に従属節が複数個存在する場合,それらの節の間の係り受け関係を一意に認定することは非常に困難である.また,このことは,日本語の長文を構文解析する際の最大のボトルネックの一つとなっている.本論文では,大量の構文解析済コーパスから,統計的手法により,従属節節末表現の間の係り受け関係を判定する規則を自動抽出する手法を提案する.統計的手法として,決定リストの学習の手法を用いることにより,係り側・受け側の従属節の形態素上の特徴と,二つの従属節のスコープが包含関係にあるか否かの間の因果関係を分析し,この因果関係を考慮して,従属節節末表現の間の係り受け関係判定規則を学習する.また,EDR日本語コーパスから抽出した係り受け情報を用いて,本論文の手法の有効性を実験的に検証した結果について述べる.さらに,推定された従属節間の係り受け関係を,統計的文係り受け解析において利用することにより,統計的文係り受け解析の精度が向上することを示す.
V15N03-05
日常的な会話の中では,新語や固有名詞などシソーラスに定義されていない単語(未知語)が使用される.未知語についての知識がなければ,適切に会話を行うことができない.Webを利用することで,未知語について調べることができる.しかし,Webには膨大な情報が存在するため,必要な情報を効率的に得ることは困難である.未知語に対する適切なシソーラスのノードを提示することによって,未知語の意味を獲得することができる.未知語理解はコーパスなど言語データに依存する研究が多く,対応できない未知語が存在するという問題点がある.本論文では,連想メカニズムを構成する概念ベースと関連度計算,さらにWebを用いて,未知語を概念化することで各ノードとの関連性を評価し,固有名詞を含んだ未知語をシソーラス上の最適なノードへ分類する手法を提案する.
V20N02-06
時間情報表現は,テキスト中に記述される事象の生起時刻を推定するための重要な手がかりである.時間情報表現を含む数値表現の抽出は,固有表現抽出の部分問題として解かれてきた.英語においては,評価型国際会議が開かれ,時間情報表現のテキストからの切り出しだけではなく,曖昧性解消・正規化のための様々な手法が提案されている.さらに,時間情報と事象とを関連づけるアノテーション(タグづけ)基準TimeMLの定義や新聞記事にアノテーションを行ったコーパスTimeBankの整備が進んでいる.一方,日本語においては時間情報処理に必要なアノテーション基準の定義及びコーパスの整備が進んでいない.本稿では,TimeMLの時間情報表現を表す\timexiiiタグに基づいた時間情報のアノテーション基準を日本語向けに再定義し,『現代日本語書き言葉均衡コーパス』(BCCWJ)コアデータの一部にアノテーションを行った.問題点を検討し,今後事象の生起時刻を推定するために必要な課題を考察する.
V06N07-01
本稿では,形態素解析の結果から過分割(正解が分割していないところを形態素解析システムが分割している個所)を検出するための統計的尺度を提案する.もし,形態素解析の結果から過分割を検出できれば,それを利用して形態素解析結果の過分割を訂正する規則を作成できるし,人手修正済みのコーパスで除去しきれていない過分割を発見し取り除くこともできるため,そのような尺度は有用である.本稿で提案する尺度は文字列に関する尺度であり,文字列が分割される確率と分割されない確率との比に基づいていて,分割されにくい文字列ほど大きな値となる.したがって,この値が大きい文字列は過分割されている可能性が高い.本稿の実験では,この尺度を使うことにより,規則に基づく形態素解析システムの解析結果から,高精度で過分割を検出できた.また,人手で修正されたコーパスに残る過分割も検出できた.これらのことは,提案尺度が,形態素解析システムの高精度化に役立つこと,及び,コーパス作成・整備の際の補助ツールとして役立つことを示している.
V25N01-05
高度な人工知能研究のためには,その材料となるデータが必須となる.医療,特に臨床に関わる分野において,人工知能研究の材料となるデータは主に自然言語文を含む電子カルテである.このようなデータを最大限に利用するには,自然言語処理による情報抽出が必須であり,同時に,情報抽出技術を開発するためのコーパスが必要となる.本コーパスの特徴は,45,000テキストという我々の知る限りもっとも大規模なデータを構築した点と,単に用語のアノテーションや用語の標準化を行っただけでなく,当該の疾患が実際に患者に生じたかどうかという事実性をアノテーションした点の2点である.本稿では病名や症状のアノテーションを対象に,この医療コーパス開発についてその詳細を述べる.人工知能研究のための医療コーパス開発について病名や症状のアノテーションを中心にその詳細を述べる.本稿の構成は以下の通りである.まず,アノテーションの基準について,例を交えながら,概念の定義について述べる.次に,実際にアノテーターが作業した際の一致率などの指標を算出し,アノテーションのフィージビリティについて述べる.最後に,構築したコーパスを用いた病名抽出システムについて報告する.本稿のアノテーション仕様は,様々な医療テキストや医療表現をアノテーションする際の参考となるであろう.
V04N04-04
日本語の談話理解を考える際には,文脈,すなわち「会話の流れ」を把握する必要がある.一般的に日本語では,「会話の流れ」を明示する語として,順接・逆接・話題の転換・因果性,などを表す接続(助)詞が用いられることが多い.これらの語は,スケジュール設定など何らかの話題・目的が存在する会話だけではなく,雑談などの場合でも,聞き手が「会話の流れ」を把握するために利用しているものと考えられる.本技術資料では,「だって」や「から」などの接続表現によって,因果関係の前件および後件の関係が談話中で明示されている場合を対象とし,そのような因果関係が談話中で示す特徴について検討する.この検討から,いくつかの観察結果が得られるが,それについて自由会話コーパスを用いた検討を行ない,実際にそのような特徴が成立することを確認した.この結果は,接続表現に依存する前件と後件の順序関係,および前件と後件の隣接性という2項目にまとめることができ,機械的処理による談話理解への足掛かりと考えられる.
V25N05-03
日本語は冠詞のない言語である.日本語名詞句の情報の状態は,テキストに陽に表出せず,限られた文脈情報や世界知識のみに基づく手法では推定することは難しい.情報の状態は情報の新旧や定・不定などの観点で分析される.しかしながら,日本語の言語処理においては,この概念が適切に扱われていない.そこで,\modified{本稿では,まず,日本語名詞句の情報状態について解説する.}次に,読み時間を手がかりとして,名詞句の情報の状態(新旧・定不定)を推定することを検討する.\modified{具体的には}日本語名詞句の情報の状態が文の読み時間にどう影響するかについて調査する.結果,名詞句の\modified{読み手の側}の情報状態(情報)が読み時間に対して影響を与えることを明らかにしたので報告する.
V29N03-06
BERTはfine-tuningすることで様々なNLPタスクに対して高性能な結果を出した事前学習済みモデルであるが,多くのパラメータを調整する必要があるため学習や推論に時間がかかるという問題がある.本論文では日本語構文解析に対して,BERTの一部の層を削除した簡易小型化BERTの利用を提案する.実験では,京都大学ウェブ文書リードコーパスと京都大学テキストコーパスを混合したデータを用いて,京大版のBERTとそこから構築した簡易小型化BERTの正解率と処理時間を比較した.提案する簡易小型化BERTでは,京大版のBERTからの正解率の劣化をウェブコーパスで0.87ポイント,テキストコーパスで0.91ポイントに押さえながら,学習時間は83\%,推論時間はウェブコーパスで65\%,テキストコーパスで85\%まで削減することができた.
V10N04-08
本論文では,大規模テキスト知識ベースに基づく対話的自動質問応答システム「ダイアログナビ」について述べる.本システムは,2002年4月からWWW上で一般公開し,パーソナルコンピュータの利用者を対象としてサービスを行っている.実世界で用いられる質問応答システムにおいては,ユーザ質問の不明確さや曖昧性が大きな問題となる.本システムは,「エラーが発生した」のような漠然とした質問について,対話的に聞き返しを行うことによってユーザが求める答えにナビゲートする.聞き返しの方法としては,頻繁になされる漠然とした質問に対する聞き返しの手順を記述した対話カードを用いる手法と,自動的に聞き返しの選択肢を編集して提示する手法を組み合わせて用いている.また,適切なテキストを正確に検索するために,ユーザ質問のタイプ,同義表現辞書や,日本語の文の係り受け関係などを利用している.
V13N01-05
機械翻訳システムの翻訳品質を改善するためなどに必要な語彙知識を獲得するためには,対訳コーパスにおいて二言語の表現を正しく対応付ける処理と,対応付けられた表現対を辞書に登録するか否かを判定する選別処理の二つが必要である.従来,対応付けに関する研究は数多く行なわれてきたが,辞書登録候補の選別に関する研究はほとんど行なわれていない.本稿では,従来あまり扱われてこなかった選別問題を採り上げ,この問題を機械学習によって解く方法を示す.学習に用いる素性として,二つの表現の間で異なる部分と両者に共通する部分に着目し,差分部分や共通部分を表現する手段として,表記(文字,形態素),品詞,概念識別子を用いる.評価実験の結果,最も高い選別性能(F値)を示す表現方法は文字であることが明らかになった.
V25N01-04
NHKはインターネットサイトNEWSWEBEASYで外国人を対象としたやさしい日本語のニュースを提供している.やさしい日本語のニュースは日本語教師と記者の2名が通常のニュースを共同でやさしく書き換えて制作し,本文にはふりがな,難しい語への辞書といった読解補助情報が付与されている.本稿ではNEWSWEBEASYのやさしい日本語の書き換え原則,および制作の体制とプロセスの概要と課題を説明した後,課題に対処するために開発した2つのエディタを説明する.1つは書き換えを支援する「書き換えエディタ」である.書き換えエディタは先行のシステムと同様に難しい語を指摘し,書き換え候補を提示する機能を持つが,2名以上の共同作業を支援する点,難しい語の指摘機能に学習機能を持つ点,また,候補の提示に書き換え事例を蓄積して利用する点に特徴がある.他の1つは「読解補助情報エディタ」である.読解補助情報エディタは,ふりがなや辞書情報を自動推定する機能,さらに推定誤りの修正結果を学習する機能を持つ.以上のように2つのエディタは,自動学習と用例の利用により,読解補助情報の推定の誤り,やさしい日本語の書き方の方針変更などに日々の運用の中で自律的に対応できるようになっている.本稿では2つのエディタの詳細説明の後,日本語教師および記者を対象に実施したアンケート調査,およびログ解析によりエディタの有効性を示す.
V32N02-09
%暗黙的談話関係認識(IDRR)は,隣接するテキストスパン間の談話関係を識別するタスクである.しかし,IDRRで用いられる談話関係ラベルは粗い表現であり,全ての談話を網羅的に表現できているわけではない.本稿では,隣接するテキストスパン間の接続語とその談話関係ラベルの組み合わせを識別するタスク,談話関係ラベル付き接続語認識(ImplicitSense-labeledConnectiveRecognition,ISCR)を提案する.ISCRは分類タスクとして扱えるが,クラス数の多さ,そしてクラス間のインスタンスの不均等な分布から,従来の分類器で解くことは難しい.そこで本稿では,ISCRをテキスト生成タスクとして扱い,エンコーダ・デコーダモデルを用いて接続語とその談話関係ラベルの両方を生成する.PDTB-3.0,PDTB-2.0において,従来の分類器と2種類の生成法で比較実験から,生成法が有効であることがわかった.\renewcommand{\thefootnote}{}\footnote[0]{本論文は,EMNLP2023の論文集に掲載された論文ImplicitSense-labeledConnectiveRecognitionasTextGeneration\cite{oka-hirao-2023-implicit}の拡張版であり,T5モデルを使ったモデルサイズ別の調査,およびPDTB-2データセットを使った実験,クラス数と分類器の分析が追加で含まれている.2023年NTTコミュニケーション科学基礎研究所でのインターンシップの成果も含む.}\renewcommand{\thefootnote}{\arabic{footnote}}
V17N04-03
CGM(消費者生成メディア)が普及してきたため,そのための言語処理技術が必要になってきた.このような文章データの自然文による検索や翻訳のために,解析精度の向上が求められている.解析誤りの発生原因である,用語の異なり,構文構造の異なりに対処できる処理方式を実現する.この両者への対策として,シソーラスを用いて用語間の意味的な距離を決定する方式を提案する.具体的には,用語の標準化や係り受けの正規化をするシステムを実現し,さらに,付属語を調べて,省略された主語を復元すること,「文節意図」を付与することを試みた.「Yahoo!知恵袋」のデータを用いて解析実験をした結果,シソーラスを用いない場合に比較して約1\%の精度の向上がみられた.システムが用いている辞書の内容について概要を述べる.
V10N02-07
本論文ではフリーの特異値分解ツールSVDPACKCを紹介する.その利用方法を解説し,利用事例として語義判別問題を扱う.近年,情報検索では潜在的意味インデキシング(LatentSemanticIndexing,LSI)が活発に研究されている.LSIでは高次元の索引語ベクトルを低次元の潜在的な概念のベクトルに射影することで,ベクトル空間モデルの問題点である同義語や多義語の問題に対処する.そして概念のベクトルを構築するために,索引語文書行列に対して特異値分解を行う.SVDPACKCは索引語文書行列のような高次元かつスパースな行列に対して特異値分解を行うツールである.またLSIは,高次元の特徴ベクトルを重要度の高い低次元のベクトルに圧縮する技術であり,情報検索以外にも様々な応用が期待される.ここではSVDPACKCの利用事例として語義判別問題を取り上げる.SENSEVAL2の辞書タスクの動詞50単語を対象に実験を行った.LSIに交差検定を合わせて用いることで,最近傍法の精度を向上させることができた.また最近傍法をベースとした手法は,一部の単語に対して決定リストやNaiveBayes以上の正解率が得られることも確認できた.
V31N03-06
%DataAugmentationは,教師あり学習におけるモデルの性能を改善させるために,訓練データを水増しする手法である.DataAugmentationは,ComputerVisionの分野において広く研究・利用されているが,自然言語処理においては未発展であるといえる.本論文では,我々がこれまでに考案した日本語の自然言語処理タスクに用いることができるDataAugmentationの手法を二つ取り上げる.一つは,文に含まれる単語を,BERTのMaskedLanguageModelingを用いて別の単語に置換する手法である.もう一つは,文の係り受け関係が崩れないように文節の順序をシャッフルする手法である.これら2つの手法の概要や変換方法について示した後,各手法がどのようなタスクで効果を発揮するのかについて述べる.
V16N05-04
大規模コーパスから事態表現間の意味的関係の知識の獲得を目的として,実体間関係獲得手法として提案されたEspressoを事態間関係に適用できるように拡張した.この拡張は主に2つの点からなり,(1)知識獲得のために事態表現を定義し,(2)事態間関係に適合するように共起パターンのテンプレートを拡張した.日本語Webコーパスを用いて実験したところ,(a)事態間関係獲得に有用な共起パターンが多数存在し,パターンの学習が有効であることがわかった.また行為—効果関係については5億文Webコーパスから少なくとも5,000種類の事態対を約66\%の精度で獲得することができた.
V18N02-04
本論文では,日本語の文の自動単語分割をある分野に適用する現実的な状況において,精度向上を図るための新しい方法を提案する.提案手法の最大の特徴は,複合語を参照することが可能な点である.複合語とは,内部の単語境界情報がなく,その両端も自動分割器の学習コーパスの作成に用いられた単語分割基準と必ずしも合致しない文字列である.このような複合語は,自然言語処理をある分野に適用する多くの場合に,利用可能な数少ない言語資源である.提案する自動単語分割器は,複合語に加えて単語や単語列を参照することも可能である.これにより,少ない人的コストでさらなる精度向上を図ることが可能である.実験では,これらの辞書を参照する自動単語分割システムを最大エントロピー法を用いて構築し,それぞれの辞書を参照する場合の自動単語分割の精度を比較した.実験の結果,本論文で提案する自動単語分割器は,複合語や単語列を参照することにより,対象分野においてより高い分割精度を実現することが確認された.
V11N05-06
言い換えに関する研究は平易文生成,要約,質問応答と多岐の分野において重要なものであるが,本稿では言い換えの統一的モデルとして,尺度に基づく変形による手法を示し,このモデルによって種々の言い換えを統一的に扱えることを示す.このモデルでは,多様な言い換えの問題の違いを,尺度で表現することで,多様な言い換えを統一的に扱えるようになっている.本稿では具体的にこのモデルで,文内圧縮システム,推敲システム,文章語口語変換システム,RL発音回避システム,質問応答システムを構築できることを示す.本稿の言い換えの統一的モデルは,システムの作成を効率的にしたり,言い換えの原理を容易に理解させたり,多様な新たな言い換えを思いつかせる効果があり,有益なものである.
V04N02-02
本稿では,コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法を提案する.先ずコーパスから動詞の多義解消に必要な情報を抽出する手法について述べる.本手法では,多義を判定しながら意味的なクラスタリングを行なうことで多義解消に必要な情報を抽出する.そこで,表層上は一つの要素である多義語動詞を,多義が持つ各意味がまとまった複数要素であると捉え,これを一つ一つの意味に対応させた要素(仮想動詞べクトルと呼ぶ)に分解した上でクラスタを作成するという手法を用いた.本手法の有効性を検証するため,丹羽らの提案した単語ベクトルを用いた多義語の解消手法と比較実験を行なった結果,14種類の多義語動詞を含む1,226文に対し,丹羽らの手法が平均62.7\%の正解率に対し,本手法では71.1\%の正解率を得た.
V30N02-19
%インタビューは技能者からコツを引き出すための重要な対話形式の1つである.本研究では,料理ドメインにおける技能者からインタビュアーが料理のコツを積極的に引き出そうとしているインタビュー対話を収集したコーパス(CIDC)を構築した.CIDCは,308のインタビュー対話(1対話あたり約13分),約6万4千発話から構成される.対話収集には,ウェブ会議システムを用い,参加者の表情と共有されている料理工程を示す写真を発話音声とともに収録した.また,全ての発話を音声認識によって書き起こし,人手で修正した.なお,技能者とインタビュアーのそれぞれにおいて上級と一般の2つの熟達度の参加者を集めた.CIDCを活用することで,今後,インタビュー対話におけるコツの引き出し方に関する研究が進展することが予想される.
V06N07-05
日本語処理において,単語の同定,すなわち文の単語分割は,最も基本的かつ重要な処理である.本論文では,日本語文字のクラス分類により得られた文字クラスモデルを用いる新しい単語分割手法を提案する.文字クラスモデルでは,推定すべきパラメータ数が文字モデルより少ないという大きな利点があり,文字モデルより頑健な推定を可能とする.したがって,文字クラスモデルを単語分割へ適用した場合,文字モデルよりもさらに頑健な未知語モデルとして機能することが期待できる.文字クラスタリングの基準はモデルの推定に用いるコーパスとは別に用意したコーパスのエントロピーであり,探索方法は貧欲アルゴリズムに基づいている.このため,局所的にではあるが最適な文字のクラス分類がクラスの数をあらかじめ決めることなく得られる.ATR対話データベースを用いて評価実験を行った結果,文字クラスモデルを用いた提案手法の単語分割精度は文字モデルによる精度より高く,特に,文字クラスを予測単位とする可変長$n$-gramクラスモデルではオープンテストにおいて再現率96.38\%,適合率96.23\%の高精度を達成した.
V17N01-01
本稿では,人間による翻訳({\HUM})と機械翻訳システムによる翻訳({\MT})を訓練事例とした機械学習によって構築した識別器を用いて{\MT}の{\FLU}を自動評価する手法について述べる.提案手法では,{\HUM}と{\MT}の{\FLU}の違いを表わす手がかりとして,逐語訳(原文と翻訳文での単語同士の対応)に着目した.{\HUM}と{\MT}における逐語訳の違いを捉えるために,原文と{\HUM}との間,および原文と{\MT}との間で{\align}を行ない,その結果を機械学習のための素性とする.提案手法は,識別器を構築する際に対訳コーパスを必要とするが,評価対象の{\MT}の{\FLU}を評価する際には参照訳を必要としない.さらに,大量の訓練事例に人手で{\FLU}の評価値を付与する必要もない.検証実験の結果,提案手法によってシステムレベルでの自動評価が可能であることが示唆された.また,{\SVM}による機械学習で各素性に付与される重みに基づいて{\MT}に特徴的な素性を特定できるため,このような素性を含む文を観察することによって文レベルでの{\MT}の特徴分析を行なうこともできる.
V28N02-12
%機械学習モデルの挙動の解釈において,各訓練事例がもたらす影響を理解することは重要である.単純にはデータセットから対象の訓練事例を除いて再訓練してモデルの変化を解析することもできるが,必要な計算量が非常に大きくなってしまい,特に膨大なパラメータのニューラルネットワークモデルへの適用が困難であった.本論文では,ニューラルネットワークモデルへの各訓練事例の影響の推定手法として,既存手法に比べて非常に効率的な方法を提案する.提案手法では,各事例の学習時にdropoutを用いて,事例ごとに固有のサブネットワークのパラメータを更新せずに訓練を進めることで,訓練終了後には各訓練事例の影響を受けていないサブネットワークを自由に抽出し,それを影響値の推定に活かすことができる.実験では,提案手法を,文書分類と画像物体認識において,BERTおよびVGGNetに適用し訓練事例への紐付けを行うことで,解釈性の高い形でモデルの予測を解析できることを示した.また,サブネットワークの学習曲線の解析やデータフィルタリングの実験を通して,提案手法が事例間の関係性を適切に捉えていることを定量的に示した.
V26N02-02
本論文では,リーダビリティ評価を目的として,日本語テキストの読み時間と節境界分類の対照分析を行う.日本語母語話者の読み時間データBCCWJ-EyeTrackと節境界情報アノテーションを『現代日本語書き言葉均衡コーパス』上で重ね合わせ,ベイジアン線形混合モデルを用いて節末で,どのように読み時間が変わるかについて検討した.結果,英語などの先行研究で言われている節末で読み時間が長くなるというwrap-upeffectとは反対の結果が得られた.他の結果として,節間の述語項関係が読み時間の短縮に寄与することがわかった.
V18N02-02
本論文では,コサイン係数,ダイス係数,ジャッカード係数,オーバーラップ係数に対し,簡潔かつ高速な類似文字列検索アルゴリズムを提案する.本論文では,文字列を任意の特徴(tri-gramなど)の集合で表現し,類似文字列検索における必要十分条件及び必要条件を導出する.そして,類似文字列検索が転置リストにおける$\tau$オーバーラップ問題として正確に解けることを示す.次に,$\tau$オーバーラップ問題の効率的な解法として,CPMergeアルゴリズムを提案する.CPMergeは,検索クエリ文字列中のシグニチャと呼ばれる特徴と,解候補が枝刈りできる条件に着目し,$\tau$オーバーラップ問題の解候補を絞り込む.さらに,CPMergeアルゴリズムの実装上の工夫について言及する.英語の人名,日本語の単語,生命医学分野の固有表現の3つの大規模文字列データセットを用い,類似文字列検索の性能を評価する.実験では,類似文字列検索の最近の手法であるLocalitySensitiveHashingやDivideSkip等と提案手法を比較し,提案手法が全てのデータセットにおいて,最も高速かつ正確に文字列を検索できることを実証する.また,提案手法による類似文字列検索が高速になる要因について,分析を行う.なお,提案手法をライブラリとして実装したものは,SimStringとしてオープンソースライセンスで公開している.
V31N02-15
%言語生成では,生成文の品質を改善する手法としてモデルが出力した上位$N$個の仮説を再びスコア付けしリランキングする手法が用いられる.リランキング手法は,$N$ベスト出力の中により高品質な仮説が存在することを前提としている.我々はこの前提をより現実的なものに拡張し,$N$ベスト出力の中には部分的に高品質な仮説が存在するが,その仮説は文全体としては不完全な可能性があると仮定する.本研究では$N$ベスト出力に含まれる高品質な断片を統合することで,文全体としても高品質な出力を生成する手法を提案する.具体的には,言語生成モデルの$N$ベスト出力を用いてトークンの正誤予測を行い,誤りと予測されたトークンを負の制約,正しいと予測されたトークンを正の制約として,語彙制約を適用して再度デコードする.これにより,$N$ベスト出力に含まれていた正しいトークンを含みつつ,誤りを避けた文を生成する.言い換え,要約,翻訳,制約付きテキスト生成における評価実験により,言い換えおよび要約において本手法が強力な$N$ベスト出力リランキング手法を上回ることが確認された.\renewcommand{\thefootnote}{}\footnote[0]{本論文の内容の一部は,情報処理学会第$256$回自然言語処理研究発表会の発表論文「系列変換モデルにおける語彙制約を用いた複数出力候補の統合」\cite{miyano-2023keiretu}(c)2023InformationProcessingSocietyofJapanおよびEMNLP$2023$のプロシーディング``Self-Ensembleof$N$-bestGenerationHypothesesbyLexicallyConstrainedDecoding''\cite{miyano-2023selfensemble}(c)$2023$AssociationforComputationalLinguistics(CCBY$4.0$)に基づく.}\renewcommand{\thefootnote}{\arabic{footnote}}
V04N02-03
照応現象の一つに,文章中に現れていないがすでに言及されたことに関係する事物を間接的に指示する間接照応という用法がある.間接照応の研究はこれまで自然言語処理においてあまり行なわれていなかったが,文章の結束性の把握や意味理解において重要な問題である.間接照応の解析を行なうには,二つの名詞間の関係に関する知識として名詞格フレーム辞書が必要となるが,名詞格フレーム辞書はまだ存在していないので,「名詞Aの名詞B」の用例と用言格フレーム辞書を代わりに利用することにした.この方法で,テストサンプルにおいて再現率63\%,適合率68\%の精度で解析できた.このことは,名詞格フレーム辞書が存在しない現在においてもある程度の精度で間接照応の解析ができることを意味している.また,完全な名詞格フレーム辞書が利用できることを仮定した実験も行なったが,この精度はテストサンプルにおいて再現率71\%,適合率82\%であった.また,名詞格フレーム辞書の作成に「名詞Aの名詞B」を利用する方法を示した.
V06N07-06
長文の係り解析の精度向上は,自然言語処理において重要な課題の一つである.我々はすでに,連体形形容詞周りの「が」「の」格に関して,以下の3つのパターンに分類される7つの係りを規定するルールを見つけだした.\begin{itemize}\item前後の名詞のみで係りが決まる.\item前後の名詞と形容詞の関係で係りが決まる.\item形容詞そのものの属性で係りが決まる.\end{itemize}本論文では,形容詞を網羅的に分析できるようにするために,国立国語研究所での形容詞の体系的分類に従い分析対象形容詞を選択しその係りを調べた.それらの形容詞に対し7つのルールの妥当性を検証し拡張する.また,対象形容詞を増やすことにより2つの新たなルールを検出することができた.これら,分類を網羅するように選択した形容詞に対しても約95%の精度で係りを決めることができた.
V31N02-08
%機械による手順書理解は,文章中の手順に関する推論やこれらを元にした作業の自動化に必須である.先行研究では調理分野に焦点を当て,調理レシピの理解の表現としてレシピフローグラフ(recipeflowgraph;r-FG)を提案し,そのアノテーションを作成した.r-FGは手順に関わる表現をノードとし,それらの関係をエッジとする有向非巡回グラフとして定義される.先行研究では,r-FGの自動予測のフレームワークとして,ノード予測とエッジ予測の2段階で行うものが提案されている.一方で,r-FGは調理分野に依存した表現となっており,調理以外の分野には適用されてこなかった.本論文では,一般的な手順書の理解の表現としてwikiHowフローグラフ(wikiHowflowgraph;w-FG)を提案する.w-FGはr-FGと互換性があり,既存のr-FGのアノテーションはw-FGに自動変換可能である.w-FGを用いて一般的な分野の手順書のフローグラフ予測精度を調査するために,wikiHowの記事を基に新たなコーパスであるw-FGコーパスを構築する.実験では,調理分野から対象分野への分野適応を行うことで,ノード予測を75.0\%以上,エッジ予測を61.8\%以上のF値で行えることを示す.\renewcommand{\thefootnote}{}\footnote[0]{本論文は言語処理学会第29回年次大会(白井etal.2023)およびThe8thWorkshoponRepresentationLearningforNLP(RepL4NLP2023)(Shiraietal.2023)で発表した2本の論文を基にしたものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V31N04-03
%表層が大きく異なる言い換えはデータ拡張に有益である一方,その生成は難しいことが知られている.本論文では,デコーダにサンプリングを適用した折り返し翻訳により生成する多様な疑似言い換えから表層が大きく異なる言い換えペアを抽出することで学習コーパスを構築し,所望の言い換えを生成可能なモデルを実現した.さらに意味および表層の類似度を指定するタグを入力文の先頭に付けるというシンプルな仕組みにより,これらの類似度を制御する.対照学習および事前学習済み言語モデルのpre-fine-tuningにおいてデータ拡張を行い,提案手法の有効性を確認した.さらに(1)言い換えの適切な類似度はdownstreamtaskに大きく依存すること,(2)様々な類似度の言い換えが混在するとdownstreamtaskに悪影響を与えることを明らかにした.\renewcommand{\thefootnote}{}\footnote[0]{本論文の内容の一部は,情報処理学会第$256$回自然言語処理研究発表会\cite{ogasa-2023nl}およびThe2024JointInternationalConferenceonComputationalLinguistics,LanguageResourcesandEvaluation:LREC-COLING2024\cite{ogasa-2024-lrec-coling}で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V08N04-02
複数のトピックからなる文章を,それぞれのトピックに切り分けることをテキスト分割と呼ぶ.テキスト分割は,情報検索や要約のための基本技術として有用である.本稿では,分割確率最大化という観点からテキスト分割を定式化した.その定式化の特色の一つは,テキスト内の単語しか,確率推定に利用しないことである.そのため,提案手法は,任意の分野のテキストに対して適用できる.提案手法の有効性は二つの実験により確認された.まず,実験1では,公開データに対して提案手法を適用することにより,提案手法の分割精度が従来手法の分割精度よりも優れていることが示された.次に,実験2では,長い文書の元々の章や節の構造と提案手法による分割結果とを比較した結果,厳密な一致のみを正解とする場合,章には0.37,節には0.34の割合で一致し,±1行のずれを許容する場合,章には0.49,節には0.51の割合で一致した.これらのことは,提案手法が,テキスト分割に対して有効であることを示している.
V22N02-02
自然言語処理において,単語認識(形態素解析や品詞推定など)の次に実用化可能な課題は,ある課題において重要な用語の認識であろう.この際の重要な用語は,一般に単語列であり,多くの応用においてそれらに種別がある.一般的な例は,新聞記事における情報抽出を主たる目的とした固有表現であり,人名や組織名,金額などの7つか8つの種別(固有表現クラス)が定義されている.この重要な用語の定義は,自然言語処理の課題に大きく依存する.我々はこの課題をレシピ(調理手順の文章)に対する用語抽出として,レシピ中に出現する重要な用語を定義し,実際にコーパスに対してアノテーションし,実用的な精度の自動認識器を構築する過程について述べる.その応用として,単純なキーワード照合を超える知的な検索や,映像と言語表現のマッチングによるシンボルグラウンディングを想定している.このような背景の下,本論文では,レシピ用語タグセットの定義と,実際に行ったアノテーションについて議論する.また,レシピ用語の自動認識の結果を提示し,必要となるアノテーション量の見通しを示す.
V21N06-05
日本語において受身文や使役文を能動文に変換する際,格交替が起こる場合がある.本論文では,対応する受身文・使役文と能動文の格の用例や分布の類似性に着目し,Webから自動構築した大規模格フレームと,人手で記述した少数の格の交替パターンを用いることで,受身文・使役文と能動文の表層格の対応付けに関する知識を自動獲得する手法を提案する.さらに,自動獲得した知識を受身文・使役文の能動文への変換における格交替の推定に利用することによりその有用性を示す.
V17N01-04
テキスト分類における特徴抽出とは,分類結果を改善するためにテキストの特徴たる単語または文字列を取捨選択する手続きである.ドキュメントセットのすべての部分文字列の数は,通常は非常に膨大であるため,部分文字列を特徴として使用するとき,この操作は重要な役割を果たす.本研究では,部分文字列の特徴抽出の方法に焦点を当て,反復度と呼ばれる統計量を使って特徴抽出する方法を提案する.反復度は,高確率でドキュメントに二度以上出現する文字列は文書のキーワードであるはずだという仮定に基づく統計量であり,この反復度の性質は,テキスト分類にも有効であると考える.実験では,Zhangら(Zhangetal.2006)によって提案された,条件付確率を用いることで分布が類似した文字列をまとめるという手法(以下,条件付確率の方法と記す)と我々の提案する手法の比較を行う.結果の評価には適合率と再現率に基づくF値を用いることとした.ニュース記事とスパムメールの分類実験の結果,我々の提案する反復度を用いた特徴抽出法を用いると,条件付確率の方法を用いるのに比べて,ニュース記事の分類では分類結果を平均79.65{\%}から平均83.39{\%}に改善し,スパムメールの分類では分類結果を平均90.23{\%}から平均93.15{\%}に改善した.提案手法である反復度を用いる特徴抽出法はZhangらの提案する条件付確率を用いる特徴抽出法に比べて,ニュース分類記事の分類では平均3.74{\%},スパムメールの分類では平均2.93{\%}だけ結果を改善しており,その両方の実験において結果に有意差があることを確認した.また,反復度を用いる特徴抽出方法を用いると,単語を特徴集合とする方法を用いる場合と比べて,ニュース記事の分類では分類の結果を平均83.88{\%}から平均83.39{\%}と平均0.49{\%}低下させることとなったものの,スパムメールの分類では分類の結果を平均92.11{\%}から平均93.15{\%}と平均1.04{\%}改善した.ニュース記事の分類においては反復度を用いる特徴抽出方法と単語を特徴集合とする方法に有意差は本実験では認められず,スパムメールの分類の結果においては有意差があることを確認した.この結果が得られた要因について考察すると,条件付確率の方法を用いたほうは一見しただけでは何の部分文字列かわからないほど短い文字列を抽出する傾向にあることが分かった.これは不特定多数の文字列の一部として出現しやすいことを意味しており,文書の特徴になりえないような文字列がこれを含んでいたとき,分類結果がその文字列の影響を受けることを意味する.それに対して反復度で抽出した部分文字列は短い文字列もあるものの,長い文字列や間に空白が挟まった単語をつなぐ部分文字列も捉えているため,特定のものをさす文字列の部分文字列であるといえる.このような何を指しているのかわかりやすいある程度長い部分文字列と,間に空白を挟んだ単語と単語を結ぶような形の部分文字列が分類結果を改善していると考えられる.
V16N03-04
LR構文解析表(LR表)を作成する際,CFG規則による制約だけでなく品詞(終端記号)間の接続制約も同時に組み込むことによって,LR表中の不要な動作(アクション)を削除することができる.それにより,接続制約に違反する解析結果を受理しないLR表を作成できるだけでなく,LR表のサイズを縮小することも可能であり,構文解析の効率の向上が期待できる.これまでにも接続制約の組み込み手法はいくつか提案されているが,従来手法では,注目する動作の前後に実行され得る動作を局所的に考慮するため,削除しきれない動作が存在する.そこで,本論文では新しい組み込み手法を提案する.提案手法では,初期状態から最終状態までの全体の実行すべき動作列(アクションチェイン)を考慮し,接続制約を組み込む.評価実験の結果,従来手法と比較して,不要な動作をさらに約1.2\%削減でき,構文解析所要時間は約2.4\%短縮できることが分かった.最後に,提案手法の完全性について考察する.
V09N04-05
本稿では,1999年の解説の後を受け,テキスト自動要約に関する,その後の研究動向を概観する.本稿では,その後の動向として,特に最近注目を集めている,以下の3つの話題を中心に紹介する.\begin{enumerate}\item単一テキストを対象にした要約における,より自然な要約作成に向けての動き,\item複数テキストを対象にした要約研究のさらなる活発化,\item要約研究における,要約対象の幅の広がり\end{enumerate}
V29N03-05
%本稿では,BARTモデルに文書の階層構造(文-単語構造)を取り込んだ階層型BART(Hie-BART)を提案する.既存のBARTモデルは,生成型文書要約タスクにおいて高い要約精度を達成しているが,文レベルと単語レベルの情報の相互作用を考慮していない.一方,機械翻訳タスクでは,単語とフレーズ間の関係を把握するMulti-GranularitySelf-Attention(MG-SA)が提案されており,この技術によってニューラル機械翻訳モデルの性能が向上されている.提案手法であるHie-BARTモデルでは,BARTモデルのエンコーダにMG-SAを組み込むことで,文と単語の階層構造を捉える.評価実験の結果,提案手法はCNN/DailyMailデータセットを用いた評価ではROUGE-Lにおいて0.1ポイントの改善が見られた.
V31N02-14
%\renewcommand{\thefootnote}{\fnsymbol{footnote}}時間に関する自然言語推論である時間推論は,テンス・アスペクトなどの様々な時間に関する言語現象が複雑に作用し合うため,挑戦的なタスクである.言語モデルの時間推論能力を評価するためにこれまで様々なデータセットが構築されてきたが,既存の時間推論データセットは主に英語であり,また,一部の言語現象のみに焦点を当てている.そのため,日本語言語モデルが,多様な時間推論に対する汎化能力をどの程度有しているかは非自明である.そこで本研究では,様々な時間推論パターンを含む日本語時間推論ベンチマーク\ours(ControlledJapaneseTemporalInferenceDatasetConsideringAspect)を構築する.\oursの学習データとテストデータは時間推論パターンや時間表現の形式といった問題の属性に基づいて制御できるため,言語モデルの汎化能力についての詳細な分析が可能になる.実験では,分割前の学習データや分割後の学習データの一部を用いて言語モデルを学習し,テストデータ上で評価することで,言語モデルの汎化能力を評価する.実験の結果,識別系言語モデルだけでなく,GPT-4といった最新の生成系言語モデルにとっても\oursは挑戦的なデータセットであり,それらのモデルの汎化能力に改善の余地があることが示された.\footnote[0]{本論文の一部は人工知能学会全国大会(第37回)\cite{jsai2023-sugimoto}およびThe61stAnnualMeetingoftheAssociationforComputationalLinguisticsStudentResearchWorkshop\cite{sugimoto-etal-2023-jamp}で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V18N04-03
本論文では,形態素解析の問題を単語分割と品詞推定に分解し,それぞれの処理で点予測を用いる手法を提案する.点予測とは,分類器の素性として,周囲の単語境界や品詞等の推定値を利用せずに,周囲の文字列の情報のみを利用する方法である.点予測を用いることで,柔軟に言語資源を利用することができる.特に分野適応において,低い人的コストで,高い分野適応性を実現できる.提案手法の評価として,言語資源が豊富な一般分野において,既存手法である条件付き確率場と形態素$n$-gramモデルとの解析精度の比較を行い,同程度の精度を得た.さらに,提案手法の分野適応性を評価するための評価実験を行い,高い分野適応性を示す結果を得た.
V24N01-02
本稿では,子どもに「内容」と「読みやすさ」がぴったりな絵本を見つけるためのシステム「ぴたりえ」を提案する.本システムは,親や保育士,司書など,子どもに絵本を選ぶ大人が利用することを想定している.絵本を読むことは,子どもの言語発達と情操教育の両面で効果が期待できる.しかし,難しさも内容も様々な絵本が数多くある中で,子ども1人1人にとってぴったりな絵本を選ぶのは容易なことではない.そこで,ぴたりえでは,ひらがなの多い絵本のテキストを高精度に解析できる形態素解析や,文字の少ない絵本に対しても精度の高いテキストの難易度推定技術などの言語処理技術により,子どもにぴったりな絵本を探す絵本検索システムを実現する.本稿では,こうした言語処理技術を中心にぴたりえの要素技術を紹介し,各技術の精度が高いことを示す.また,システム全体としても,アンケート評価の結果,ぴたりえで選んだ絵本は「読みやすさ」も「内容」も,5段階評価で平均値が4.44〜4.54と高い評価が得られたことを示す.
V16N04-03
本論文では,まず,eラーニングシステムの研究開発のために構築された英語学習者コーパスについて解説し,次に,このコーパスの分析と,これを用いた英語能力自動測定実験について述べている.本コーパスは,496名の被験者が各々300文の日本語文を英語に翻訳したテキストから構成されており,各被験者の英語の習熟度がTOEICにより測定されている.また,これらに加え,日英バイリンガルによる正解訳も整備されていることから,訳質自動評価の研究に利用することが可能である.このコーパスを用いた応用実験として,BLEU,NIST,WER,PER,METEOR,GTMの6つの翻訳自動評価スコアを用いた実験を行なっている.実験において,各自動評価スコアとTOEICスコアとの相関係数を求めたところ,GTMの相関係数が最も高く,0.74となった.次に,GTMや,英訳結果の文長や単語長などからなる5つのパラメータを説明変数とし,TOEICを目的変数とした重回帰分析を行なった結果,重相関係数は0.76となり,0.02の相関係数の改善が得られた.
V21N03-05
これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている.しかし分野の異なるテキストに対しては,既存の解析モデルで,必ずしも高い解析精度を得られるわけではない.そこで本稿では,既存の言語資源を対象分野の特徴にあわせて自動的に変換する手法を提案する.本稿では,絵本を解析対象とし,既存の言語資源を絵本の特徴にあわせて自動的に変換し,学習に用いることで相当な精度向上が可能であることを示す.学習には既存の形態素解析器の学習機能を用いる.さらに,絵本自体にアノテーションしたデータを学習に用いる実験を行い,提案手法で得られる効果は,絵本自体への約~11,000行,90,000形態素のアノテーションと同程度であることを示す.また,同じ絵本の一部を学習データに追加する場合と,それ以外の場合について,学習曲線や誤り内容の変化を調査し,効果的なアノテーション方法を示す.考察では,絵本の対象年齢と解析精度の関係や,解析精度が向上しにくい語の分析を行い,更なる改良案を示す.また,絵本以外への適用可能性についても考察する.
V07N04-08
本論文では,日本語の語順の傾向をコーパスから学習する手法を提案する.ここで語順とは係り相互間の語順,つまり同じ文節に係っていく文節の順序関係を意味するものとする.我々が提案する手法では,文節内外に含まれるさまざまな情報から語順の傾向を自動学習するモデルを用いる.このモデルによって,それぞれの情報が語順の決定にどの程度寄与するか,また,どのような情報の組み合わせのときにどのような傾向の語順になるかを推測することができる.個々の情報が語順の決定に寄与する度合は最大エントロピー(ME)法によって効率良く学習される.学習されたモデルの性能は,そのモデルを用いて語順を決めるテストを行ない,元の文における語順とどの程度一致するかを調べることによって定量的に評価することができる.正しい語順の情報はテキスト上に保存されているため,学習コーパスは必ずしもタグ付きである必要はなく,生コーパスを既存の解析システムで解析した結果を用いてもよい.本論文ではこのことを実験によって示す.
V13N03-05
本論文では,述語項構造解析の精度向上のために必要となる大規模な項構造タグ付き事例を効率的に作成する方法について議論する.項構造タグ付き事例の効率的な作成方法にはさまざまな方法が考えられるが,本論文では大規模平文コーパスから抽出した表層格パターンの用例集合をクラスタリングし,得られたクラスタに項構造タグを付与することでタグ付与コストを削減する手法を提案する.提案手法では,(i)表層格パターン同士の類似性と(ii)動詞間の類似性という2種類の類似性を利用してクラスタリングを行う.評価実験では,実際に提案手法を用いて8つの動詞の項構造タグ付き事例を作成し,それを用いた項構造解析の実験を行うことによって,提案手法のクラスタリングの性能や,人手でタグ付き事例を作成するコストと項構造解析精度の関係を調査した.
V20N04-03
本論文では,複数文書要約を冗長性制約付きナップサック問題として捉える.この問題に基づく要約モデルは,ナップサック問題に基づく要約モデルに対し,冗長性を削減するための制約を加えることで得られる.この問題はNP困難であり,計算量が大きいことから,高速に求解するための近似解法として,ラグランジュヒューリスティックに基づくデコーディングアルゴリズムを提案する.ROUGEに基づく評価によれば,我々の提案する要約モデルは,モデルの最適解において,最大被覆問題に基づく要約モデルを上回る性能を持つ.要約の速度に関しても評価を行い,我々の提案するデコーディングアルゴリズムは最大被覆問題に基づく要約モデルの最適解と同水準の近似解を,整数計画ソルバーと比べ100倍以上高速に発見できることがわかった.
V13N03-01
用例ベース翻訳は,これまで,経験則にもとづく指標/基準により用例を選択してきた.しかし,経験則に頼った場合,その修正を行うのが困難であり,また,アルゴリズムが不透明になる恐れがある.そこで,本研究では用例ベース翻訳を定式化するための確率モデルを提案する.提案するモデルは,翻訳確率の最も高い用例の組み合わせを探索することで,翻訳文を生成する.さらに,本モデルは用例と入力文のコンテキストの類似度を自然に翻訳確率に取り込む拡張も可能である.実験の結果,本モデルを用いたシステムは,従来の経験則によるシステムの精度を僅かに上回り,用例ベース翻訳の透明性の高いモデル化を実現することに成功した.
V31N01-05
%文書レベル関係抽出(DocRE)は文書中のすべてのエンティティの組の関係を推定するタスクである.エンティティ組の関係推定に十分な手掛かりを含む文の集合を根拠と呼ぶ.根拠は関係抽出の性能を改善できるが,既存研究ではDocREと根拠認識を別々のタスクとしてモデル化していた.本稿では,根拠認識を関係抽出のモデルに統合する手法を提案する.具体的には,エンティティ組のエンコード過程において,根拠に高い重みを配分するように自己注意機構を誘導することにより,根拠に注目した分散表現を得る.さらに,根拠のアノテーションが付与されていないデータに根拠の疑似的な教師信号を付与し,大量の自動ラベル付けデータを活用する方法を提案する.実験結果から,提案手法は文書レベル関係抽出のベンチマークDocRED及びRe-DocREDにおいて,関係抽出と根拠認識の両方で現時点の世界最良性能を達成した.\renewcommand{\thefootnote}{}\footnote[0]{本稿の一部はthe17thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics\cite{Ma:EACL2023}及び言語処理学会第29回年次大会(Ma他2023)\nocite{Ma:JNLP2023}で報告されています.}\renewcommand{\thefootnote}{\arabic{footnote}}
V28N04-05
%話し言葉の機械翻訳では,話し言葉に特有の現象が翻訳精度に悪影響を及ぼすことが知られている.本研究では大学講義翻訳システムにおける日英翻訳の前処理として,日本語の話し言葉から書き言葉への自動変換を行うことにより翻訳精度を向上させる.まず大学講義の書き起こしとそれを書き言葉に変換したもの,対応する英文の3つ組からなるコーパスを構築した.次にそれを用いて話し言葉書き言葉変換モデルと日英翻訳モデルを学習させた.その結果,話し言葉書き言葉変換が日英翻訳の精度を向上させることを示した.また,話し言葉に特有の現象の分類に基づき,どのような現象が翻訳精度にどの程度影響するのかを定量化した.
V27N02-07
%本稿では,原言語文の係り受け木に対する単語間の相対的位置関係をTransformerエンコーダ内のSelfAttentionでエンコードする新たなニューラル機械翻訳モデルを提案する.具体的には,提案モデルでは,原言語文を係り受け解析した結果得られる係り受け木中の2単語間の相対的な深さを埋め込んだベクトルをTransformerエンコーダ内のSelfAttentionに付加する.ASPECの日英及び英日翻訳タスクにおいて,原言語文の係り受け構造を用いない従来のTransformerモデルよりも翻訳精度が高いことを示す.特に,日英翻訳においては0.37ポイントBLEUスコアが上回ることを確認した.
V15N05-07
近年,国際化に伴い,多くの言語を頻繁に切り替えて入力する機会が増えている.既存のテキスト入力システムにおいては,言語が切り替わるたびに,ユーザーが手動で,テキスト入力ソフトウェア(IME)を切り替えなければならない点が,ユーザーにとって負担になっていた.この問題を解決するために,本論文では,多言語を入力する際にユーザーの負担を軽減するシステム,{\name}を提案する.{\name}は,ユーザーが行うキー入力からユーザーが入力しようとしている言語を判別して,IMEの切り替えを自動で行う.これによって,ユーザーがIMEを切り替える操作量が減るため,複数の言語をスムーズに切り替えながら入力することが可能になる.本研究では,隠れマルコフモデルを用いて言語の判別をモデル化し,モデルにおける確率をPPM法を用いて推定することで{\name}を実装し,その有用性を評価した.その結果,人工的なコーパスにおける3言語間の判別において,\accuracy\%の判別精度を得た.また,実際に多言語を含む{\text}を用いて実験したところ,切り替えに必要な操作の数が,既存の手法に比べて\decreaserate\%減少した.
V27N02-03
本稿では,入力される英文を特定の学年に合わせた難易度に平易化する難易度制御の手法を提案する.提案手法では,文と単語の両方の難易度を考慮することで,入力文を目標の難易度の文へ書き換える.文の難易度は既存手法と同様,テキスト平易化モデルの入力として目標の文の難易度ラベルを加えることで考慮する.単語の難易度を考慮するために,本研究では$3$種類の手法を提案する.それぞれ,単語分散表現を拡張して素性として単語難易度を考慮する手法,難解な単語を出力しないハードな語彙制約手法,平易な単語を出力しやすくするソフトな語彙制約手法である.評価実験により,ソフトな語彙制約が有効であることを示す.既存手法は文の難易度のみを考慮しており,省略など構文的な平易化には長けるが,難解な単語をしばしば残す.一方で,提案手法は構文と単語の両方の難易度制御を実現できる.\footnote[0]{本論文の内容の一部は,ACL2019StudentResearchWorkshop\cite{Nishihara2019a},情報処理学会第240回自然言語処理研究会\cite{Nishihara2019b}で報告したものである.}
V03N04-03
\vspace*{-2.18mm}照応要素が同一文内に現れる日本語ゼロ代名詞に対する,語用論的・意味論的制約を用いた照応解析の手法を提案する.本手法は,接続語のタイプ,用言意味属性,様相表現のタイプの3種類の語用論的・意味論的制約に着目して,同一文中に照応要素を持つゼロ代名詞の照応要素を決定するものである.本手法を日英翻訳システムALT-J/E上に実現して,日英翻訳システム評価用例文(3718文)中に含まれる文内照応のゼロ代名詞139件を対象に,解析ルールを整備し,解析精度の評価実験を行なった.その結果,上記3種類の制約条件を用いた場合,それぞれの条件が文内照応解析に有効に働き,対象としたゼロ代名詞が再現率98%,適合率100%の精度で正しく照応要素を決定できることが分かった.本手法を,従来の代表的な手法であるCenteringアルゴリズム(再現率74%,適合率89%)と比べると,再現率,適合率共に十分高い.特に,適合率100%と,認定した照応関係に誤りがないことから,本手法が機械翻訳システムでの実現に適することがわかった.以上の結果,提案した方式の有効性が実証された.今後,さらに多くの文を対象に解析ルールの整備を進めることにより,同一文内照応要素を持つゼロ代名詞の大半を復元し,補完できる見通しとなった.
V26N03-01
本稿では,様々なサービスを有する小型計算機に言葉による命令を受理させる手法について述べる.小型計算機における発話文解析では,サービスのための規定の発話文を必ず受理すること,および,ユーザからの発話文を追加的に学習することを低い計算コストで行うことが要求される.そこで,サービスごとに語義やチャンクを正確に区別するため,サービスごとにパージング結果を格納するアレイを設け,強化学習を用いて発話文解析を進める手法を提案する.実験において自動車旅行を支援する車載器の発話文解析に応用したところ,軽量に動作し,クローズドテストにおいて0.99,オープンテストにおいて0.81という精度で発話文解析が可能であることを確認した.
V10N01-04
本論文では,情報検索のための表記の揺れに寛容な類似尺度を提案する.情報検索において,検索対象となるデータがさまざまな人によって記述されたものであるため,同じ事柄であっても表記が異なり,入力した文字列で意図した情報を得ることができない場合がある.人間ならば,表記が多少異なっていて(表記の揺れがあって)も柔軟に対応し,一致していると判断できるが,計算機はこの柔軟性を備えていない.表記の揺れに対応することができる尺度として編集距離が知られているが,実際にこの尺度を単純に類似尺度に変換したものを用いて情報検索を行ってみたが,性能がでなかった.そこで,本論文では,この単純な類似尺度を情報検索に適した表記の揺れに寛容な類似尺度に拡張することを試み,その結果,この拡張によって検索性能が向上したことを示す.さらに,提案する類似尺度を組み込んだ情報検索システムを構築し,多くの情報検索システムに用いられている一般的な類似尺度と同等以上の検索性能を実現できたことを示す.
V31N01-06
%近年の自然言語処理の研究は,現代語を中心に行われ,多くのタスクで高い性能を達成している.一方,古文やそれに関連するタスクにはほとんど注意が払われてこなかった.漢文は約2000年前の弥生時代に中国から日本に伝えられたと推測されており,それ以降日本文学に多大な影響を与えた.現在においても大学入学共通テストの国語において漢文は200点の内50点を占めている.しかし,中国にある豊富な言語資源に比べ,日本にある漢文の書き下し文資源は非常に少ない.この問題を解決するために,本研究は漢詩文を対象とし,白文と書き下し文からなる漢文訓読データセットを構築する.そして,漢文理解において重要視される返り点付与,書き下し文生成の二つのタスクに対し,言語モデルを用いて精度向上を試みる.また,人間の評価結果と比較することで,最適な自動評価指標について議論する.データセットとコードは\url{https://github.com/nlp-waseda/Kanbun-LM}で公開している.
V09N03-06
本稿では複数の対話エージェントを導入する効率的な情報検索の対話モデルを採用する.情報検索という複雑な対話に対して,万能の対話エージェントを用意することは,現状では困難である.そこで,以下の三つの局面で,対話エージェントを切り替えることによって,ユーザは円滑な情報検索対話を進めることができる.\begin{itemize}\itemドメイン:情報検索を行なうに当たって,ドメインの存在を認識できる.\item対話戦略:同一のドメインにおいても,検索を進める上で,様々な対話戦略が用意されていることを認識できる.\item文脈:条件分岐など,それぞれの文脈に対して対話エージェントを割り当てることによって,検索を容易にする.\end{itemize}上記のように多数の対話エージェントを導入した対話モデルを用いることにより,ユーザは対話の状況をよりたやすく理解できると考えられる.評価実験により,本提案による良好な結果が得られた.
V10N02-05
本稿では,LexicalFunctionalGrammar(LFG)に基づいた実用的な日本語文解析システム構築に向けての日本語LFG文法記述の詳細とシステムの評価について述べる.本稿で述べる日本語LFG文法は,(1)解析対象が口語的・非文法的文であっても解析可能な高いカバー率を持つ,(2)言語学的に精緻な文法規則を持ち豊富な意味情報を含\breakむf-structureを出力可能とする,(3)f-structureの持つ言語普遍性の特徴を活かすため他言語のLFG文法と高い整合性・無矛盾性を保つ,の3点を特徴とする.自然言語の文法記述を完全に体系的・手続き的に進めることは困難であり,本稿で述べる文法記述においても経験的なものに依存する面は大きい.しかしながら,OTマークを利用して段階的に解析を行う手法によって,例外的な文法・語彙規則が解析結果に及ぼす悪影響を減じ,文法の大規模化に伴う記述の見通しの悪さを軽減することが可能となった.さらに,部分解析機能の導入によって,口語的・非文法的文への対処が可能となった.マニュアル文のような文法に則った文と,お客様相談センター文のような口語的な文の両者を対象に解析実験を行い,日本語LFGに基づくシステムとしてはこれまでにない,95\,\%以上の解析カバー率が得られていることを確認した.また,マニュアル文を対象に解析精度測定のための評価実験を行い,係り受けの再現率・適合率共に平均値で約84\,\%,上限値で約92\,\%の値が得られていることが確認できた.
V24N05-04
我々は国語研日本語ウェブコーパスとword2vecを用いて単語の分散表現を構築し,その分散表現のデータをnwjc2vecと名付けて公開している.本稿ではnwjc2vecを紹介し,nwjc2vecの品質を評価するために行った2種類の評価実験の結果を報告する.第一の評価実験では,単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出する.第二の評価実験では,タスクに基づく評価として,nwjc2vecを用いて語義曖昧性解消及び回帰型ニューラルネットワークによる言語モデルの構築を行う.どちらの評価実験においても,新聞記事7年分の記事データから構築した分散表現を用いた場合の結果と比較することで,nwjc2vecが高品質であることを示す.
V07N01-01
ソフトウエアの要求獲得会議では会議参加者の関心のあることをきちんと堀起こすことが重要である.関心のあることを堀起こすためには会議参加者の無意識の部分を知る方法が考えられる.無意識の兆候としては古来から言い直しが挙げられている.言い直しを利用するとしても,言い直しを解釈するやり方は高度の技術を要する.そこで本研究では,言い直しを解釈しないで利用する方法を考えることにする.そこでまず,言い直した語と言い直された語との間でどちらに関心が高いかを調べた.その結果,言い直された語の中にも話し手の関心が高いものが見受けられた.そこで,言い直された語を抽出して,次の会議の話題展開に用いる方法論を考案した.
V05N02-01
日韓機械翻訳を研究している多くの研究者らは両国語の文節単位の語順一致のような類似性を最大に生かすため,直接翻訳方式を採択している.しかし,日本語と韓国語の述部間には,対応する品詞の不一致,局部的な語順の不一致,活用ルールの不一致,時制表現の不一致などが解決しにくい問題として残っている.本稿では述部表現の不一致を解決するため“様相テーブルに基づいた韓国語の生成方法”を提案し,それに対して体系的な評価を行なう.この方法は述部だけを対象にする抽象的で意味記号的な様相資質をテーブル化し,両国語の述部表現のPIVOTとして用いることにより,述部の様相表現の効果的な翻訳を可能とする.朝日新聞と日本語の文法本から抽出した2,338個の例文を対象に述部の翻訳処理を試みた結果,約97.5%が自然に翻訳され,述部翻訳の際,本方法が有効であることが確認できた.
V20N02-01
我々は,Web上の情報信憑性判断を支援するための技術として,調停要約の自動生成に関する研究を行っている.調停要約とは,一見すると互いに対立しているようにみえる二つの言明の組が実際にはある条件や状況の下で両立できる場合に,両立可能となる状況を簡潔に説明している文章をWeb文書から見つける要約である.しかしながら,対立しているようにみえる言明の組は一般に複数存在するため,利用者がどの言明の組を調停要約の対象としているのかを明らかにする必要がある.本論文では,利用者が調停要約の対象となる言明の組を対話的に明確化した状況下で調停要約を生成できるように改善した手法を提案する.また,提案手法は,従来の調停要約生成手法に,逆接,限定,結論などの手掛かり表現が含まれる位置と,調停要約に不要な文の数を考慮することで精度の向上を図る.調停要約コーパスを用いた実験の結果,従来手法と比較して,調停要約として出力されたパッセージの上位10件の適合率が0.050から0.231に向上したことを確認した.
V32N01-04
本研究では,日本語日常会話コーパス(CEJC)をUniversalDependencies形式に変換した日本語話し言葉のツリーバンクUD\_Japanese-CEJCを開発・構築したので,そのデータについて報告する.日本語日常会話コーパスは,日本語の様々な日常会話を収録した大規模な音声言語コーパスであり,単語区切りや品詞のアノテーションが含まれている.我々は,UD\_Japanese-CEJCのために,CEJCの長単位形態論情報と文節係り受け情報を新たにアノテーションした.UD\_Japanese-CEJCは日本語形態論情報と文節ベースの依存構造情報およびCEJCから手作業で整備された変換ルールに従って構築した.構築したUD\_Japanese-CEJCに対して,日本語書き言葉コーパスとの比較やUD依存構造解析精度の評価をおこない,CEJCにおけるUD構築に関する様々な問題点を検討した.\footnote[0]{本論文は,言語処理学会第29回年次大会『UDJapanese-CEJCとその評価』(c)大村・若狭・松田・浅原(CCBY4.0)2023年3月の発表および``UD\_Japanese-CEJC:DependencyRelationAnnotationonCorpusofEverydayJapaneseConversation''Omura,Wakasa,MatsudaandAsahara(c)24thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue,AssociationforComputationalLinguistics(CCBY4.0)2023年9月発表の内容に基づき言語資源の継続的な修正および比較実験の再試行をおこなったものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V24N05-03
日本語二重目的語構文の基本語順に関しては多くの研究が行われてきた.しかし,それらの研究の多くは,人手による用例の分析や,脳活動や読み時間の計測を必要としているため,分析対象とした用例については信頼度の高い分析を行うことができるものの,多くの仮説の網羅的な検証には不向きであった.一方,各語順の出現傾向は,大量のコーパスから大規模に収集することが可能である.そこで本論文では,二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するという仮説に基づき,大規模コーパスを用いた日本語二重目的語構文の基本語順に関する分析を行う.100億文を超える大規模コーパスから収集した用例に基づく分析の結果,動詞により基本語順は異なる,省略されにくい格は動詞の近くに出現する傾向がある,PassタイプとShowタイプといった動詞のタイプは基本語順と関係しない,ニ格名詞が着点を表す場合は有生性を持つ名詞の方が「にを」語順をとりやすい,対象の動詞と高頻度に共起するヲ格名詞およびニ格名詞は動詞の近くに出現しやすい等の結論が示唆された.
V30N03-06
%テキスト平易化の難易度制御は,目標難易度に応じて文を平易化することで,言語学習支援に貢献する技術である.このタスクに対する既存手法には,入力を大幅に言い換える学習が困難である問題と柔軟な文生成が難しい問題がある.提案手法では,平易な出力文に出現させる単語の制約と,出現させない単語の制約を作成し,それらによって難易度を制御しつつテキスト平易化を行う.制約は,文中の各単語に対する編集操作予測,難易度判定,難解な単語の平易な言い換えにより作成する.提案手法は,正・負の制約を用いることで言い換えを促進しつつ,系列変換モデルで柔軟に文を生成するため,既存手法の問題を解決できる.評価実験によって,提案手法が文法性を損なったり,文の意味を大幅に欠落させることなく目標とする難易度に応じたテキスト平易化を実現できることを確認した.\renewcommand{\thefootnote}{}\footnote[0]{本論文の内容の一部は,WorkshoponTextSimplification,Accessibility,andReadability(TSAR-2022)\cite{zetsu-2022}で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V07N04-11
近年の高度情報化の流れにより,自動車にも種々の情報機器が搭載されるようになり,その中で音声認識・合成の必要性が高まっている.本研究は音声合成を行うための日本語解析の中で基本となる,文節まとめあげに関する研究報告である.従来の文節まとめあげは,人手規則による手法と機械学習による手法の二つに大きく分けられる.前者は,長年の努力により非常に高い精度を得られているが,入力データ形式が固定であるために柔軟性に欠け,人手で規則を作成・保守管理するため多大な労力を要し,車載情報機器へ実装するには問題が大きい.また後者は,それらの問題に柔軟に対処できるが,精度を向上させるためにアルゴリズムが複雑化しており,その結果開発期間が延長するなどの問題が生じ,車載情報機器には不向きである.そこで本研究は,決定リストを用いる手法を発展させ,複数の決定リストを順に適用するだけという非常に簡明な文節まとめあげの手法を提案する.決定リストの手法は非常に単純であるが,それだけでは高い精度が得られない.そこで,決定リストを一つではなく複数作成し,それぞれのリストを最適な順序に並べて利用することにより精度向上を図った.この結果,京大コーパスの最初の10000文を学習コーパス,残りの約10000文をテストコーパスとして実験を行ったところ,非常に簡明な手法ながら,99.38\%という高い精度を得られた.
V29N03-09
%本解説論文では,特許を対象とした機械翻訳における種々の課題に対する関連技術の解説を行う.特許に対する機械翻訳は実用的にも学術的にも長い歴史を持つが,ニューラル機械翻訳の登場で新たな段階に進んできたと言える.そうした動向を踏まえ,訳抜け・過剰訳への対策,用語訳の統一,長文対策,低リソース言語対対策,評価,翻訳の高速化・省メモリ化,の6項目に分けて近年の関連技術を紹介し,今後の方向性を論じる.
V10N01-05
近年,インターネットや大容量の磁気デバイスの普及によって,大量の電子化文書が氾濫している.こうした状況を背景として,文書要約技術に対する期待が高まってきている.特に,ある話題に関連する一連の文書集合をまとめて要約することが可能となれば,人間の負担を大きく軽減することができる.そこで本稿では,特定の話題に直接関連する文書集合を対象とし,機械学習手法を用いることによって重要文を抽出する手法を提案する.重要文抽出の手法としては近年,自然言語処理研究の分野でも注目されている機械学習手法の1種であるSupportVectorMachineを用いた手法を提案する.毎日新聞99年1年分より選んだ12話題の文書集合を用意し,それぞれの話題から総文数の10\,\%,30\,\%,50\,\%の要約率に応じて人手により重要文を抽出した正解データセットを異なる被験者により3種作成した.このデータセットを用いて評価実験を行った結果,提案手法の重要文抽出精度は,Lead手法,TF$\cdot$IDF手法よりも高いことがわかった.また,従来より複数文書要約に有効とされる冗長性の削減が,文を単位とした場合には,必ずしも有効でないこともわかった.
V09N02-01
意味解析を用いた情報検索の一手法を提案し,「判例」を検索対象とし日本語文章で記述した「問い合わせ文」を検索質問とした検索システム{\bfJCare}を開発する.本研究では,文章が表す内容を,語が格納されたノードと語間の関係(深層格)を表すアークからなる意味グラフとして捉え,判例文と問い合わせ文の意味グラフ間における位相同型部分の大きさをもとに,文章間の内容類似度を算出する.このとき検索の高速化・精度向上の目的で{\itView}という考え方を導入する.視点({\itView})により意味グラフを分割した{\itView}グラフの類似度を求めることで,内容的に関連性の低い文章間の計算時間,またそこから生まれるノイズを排除する.
V10N04-05
著者らは,既存のウイグル語--日本語辞書を基にして,見出し語数約2万の日本語--ウイグル語辞書を半自動的に作成した.この辞書が日常よく使われる語彙をどの程度含んでいるかなどの特性を調べるために,国立国語研究所の教育基本語彙6,104語のうちのより基本的とされている2,071語,およびEDR日本語テキストコーパスの出現頻度上位2,056語に対し,日本語--ウイグル語辞書の収録率を調査し,いずれについても約80\,\%の収録率であることが分かった.未収録語について,逐一その理由を調べ,判明した種々の理由を整理すると共に,それに基づいて未収録語を分類した.その結果,辞書作成をする時に収録率を上げるために注意すべき点などについていくつかの知見を得ることができた.本論文では,それらについて述べる.
V10N01-03
レレバンスフィードバックは検索者が与えた検索条件を利用してシステムが選択する文書(サンプル文書)について,検索者が必要文書と不要文書を選択し,フィードバックすることで,より正確な文書検索を実現する手法である.レレバンスフィードバックによる検索精度はフィードバックの対象となるサンプル文書の選択方法によって異なる.通常のレレバンスフィードバックでは検索要求との関連が最も強いと推定される文書をサンプルとするレレバンスサンプリングが用いられるが,これに対して必要文書か不要文書かを分類するのが難しい文書をサンプルとするuncertaintyサンプリングが提案され,より高い検索精度が得られると報告されている.しかしいずれのサンプリング手法も複数の類似した文書をサンプルとして選択することがあるため,検索精度が十分に向上しない恐れがあった.本稿ではレレバンスサンプリングおよびuncertaintyサンプリングを改良する手段としてunfamiliarサンプリングを提案する.unfamiliarサンプリングは既存のサンプリング手法において,新たにサンプルとして加える候補と既存のサンプルの文書間距離を評価し,既存サンプルの最近傍であればサンプルから排除する.この処理により,既存サンプルと類似した文書が排除されることにより検索精度が向上される.レレバンスフィードバックを用いた文書検索においては,少数のサンプル文書で高い精度を得ることが重要になる.本稿ではAdaBoostにおいてRocchioフィードバックを弱学習アルゴリズムとして用いる手法を提案し,これをRocchio-Boostと呼ぶ.NPLテストコレクションを用いた実験の結果,unfamiliarサンプリングによるサンプリング手法の改良とRocchio-Boostにより従来のRocchioフィードバックとレレバンスサンプリングに対して平均適合率を6\,\%程度向上できることが分かった.
V30N02-12
%本研究では,文書中の用語間の関係を抽出する文書単位関係抽出において,既存の抽出手法に対して関係間の相互作用を考慮するために,用語を節点,抽出済みの関係候補を辺とする関係グラフを構築し,その関係グラフの辺を編集する逐次的な辺編集モデルを提案する.近年,文書単位関係抽出の研究では,深層学習モデルが利用されている.しかしながら,複数のモデルを組み合わせる方法は明確ではなく,研究ごとに実装方法も異なるため,付加的に新たな観点を導入するのは難しい.そこで,異なる観点として関係間の相互作用を考慮できるように,既存手法で抽出済みの関係候補を編集するタスクを提案する.材料合成手順コーパスにおいて,関係がついていない状態から編集するとF値79.4\%の性能の逐次的な辺編集モデルで,ルールベース抽出器の出力を編集すると,性能は80.5\%から86.6\%に向上した.一方で,時間関係抽出の標準的なベンチマークであるMATRESコーパスで最先端の深層学習モデルの抽出結果を編集して評価した場合では性能は向上しなかった.これらの差を解析したところ,編集するモデル単体で抽出可能な関係と編集前の関係が異なることが性能の向上に寄与する大きな要因であることを明らかにした.%\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部はFindingsoftheAssociationforComputationalLinguistics:ACL-IJCNLP2021\cite{makino-etal-2021-neural}および言語処理学会第27回年次大会\cite{makino-2021-nlp}で報告したものです.}\renewcommand{\thefootnote}{\arabic{footnote}}
V09N01-02
手話は聴覚障害者と健聴者との重要なコミュニケーション手段の1つであり,手話を学習する健聴者の数も年々増加する傾向にある.この様な背景から,近年,手話の学習支援システムや手話通訳システムなどの研究が各所で盛んに行われている.特に,これらの自然言語処理システムの知識辞書となる手話電子化辞書の構築は重要な課題であり,手話側から対応する日本語ラベルを効率良く検索する手段の実現は,日本語と手話との対訳辞書の検索機能として,必要不可欠な要素技術といえる.従来の検索方法の多くは,手話単語の手指動作特徴を検索項目とし,検索条件を詳細に設定する必要があった.そのため,初心者には満足する検索結果を得ることが難しいという問題点が指摘されている.この主な原因の1つは,検索条件の複雑さや検索項目間の類似性から選択ミスが生じやすく,結果として,利用者の要求に適合する検索結果が出力されないという問題点にある.本論文では,市販の手話辞典に記載されている手指動作記述文に着目した検索方法を提案する.本手法の特徴は,検索キーとして入力された手指動作記述文と類似の手指動作記述文を検索辞書から検索し,対応する手話単語の日本語ラベルを利用者に提示する点にある.すなわち,手話単語の検索問題を文献検索問題と捉えたアプローチといえる.実験の結果,本手法の妥当性を示す結果が得られた.一方,実験により明らかになった問題点の1つとして,手指動作記述文で表現された手指動作の一部に曖昧さがあることが分かった.この問題を含め,本手法の問題点と今後の課題について,例を示しながら詳細に議論する.
V31N01-03
%質問応答は,自然言語処理における重要な研究テーマの一つである.近年の深層学習技術の発達と言語資源の充実により,質問応答技術は飛躍的な発展を遂げている.しかし,これらの研究は英語を対象としたものがほとんどであり,現状,日本語での質問応答に関する研究はあまり活発には行われていない.この背景を受けて,我々は日本語での質問応答研究を促進するため,日本語のクイズを題材とした質問応答のコンペティション「AI王」を企画し,これまでに計3回実施してきた.本論文では,日本語の質問応答技術における現在の到達点と課題を明らかにすることを目標として,使用したクイズ問題と提出された質問応答システム,さらに比較対象として大規模言語モデルを用いた分析を行い,その結果を報告する.
V09N05-01
本稿では,SupportVectorMachine(SVM)に基づく一般的なchunk同定手法を提案し,その評価を行う.SVMは従来からある学習モデルと比較して,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することで効率良く素性の組み合わせを考慮しながら分類問題を学習することが可能である.SVMを英語の単名詞句とその他の句の同定問題に適用し,実際のタグ付けデータを用いて解析を行ったところ,従来手法に比べて高い精度を示した.さらに,chunkの表現手法が異なる複数のモデルの重み付き多数決を行うことでさらなる精度向上を示すことができた.
V08N01-07
自然言語処理では,処理の過程で,さまざまな解釈の曖昧さが生じる.この曖昧さを解消するのに必要な知識を記述するため,対象とする表現を部分的な表現の組に還元せず,一体として捉える方法として,言語表現とその解釈の関係を変数とクラスの組からなる構造規則として表現し,学習用標本から半自動的に収集する方法を提案した.この方法は,パターン化された表現の変数部分を表すのに文法属性体系と意味属性体系を使用しており,$N$個の変数を持つ表現パターンに対して,一次元規則から$N$次元規則までの規則と字面からなる例外規則を合わせて$N+1$種類の構造規則が順に生成される点,また,各規則は,その生成過程において,各属性の意味的な包含関係を用いて容易に汎化される点に特徴がある.本方式を「$AのBのC$」の型の名詞句に対する名詞間の係り受け解析規則の生成に適用した結果では,変数部分を意味属性で表現した構造規則の場合,1万件の学習事例から,一次元規則198件,二次元規則1480件,三次元規則136件が得られ,それを使用した係り受け解析では,約$86\%$の解析精度が得られることが分かった.また,変数部分を文法属性で表した規則と意味属性で表した規則を併用する場合は,解析精度は,$1〜2\%$向上することが分かった.この値は,2名詞間の結合強度に還元して評価する方法($72\%$)より約$15\%$高い.この種の名詞句では,人間でも係り先の判定に迷うような事例が$10\%$近く存在することを考慮すると,得られた規則の精度は,人間の解析能力にかなり近い値と言える.
V09N03-02
辞書ベースの自然言語処理システムでは辞書未登録語の問題が避けられない.本稿では訓練コーパスから得た文字の共起情報を利用する手法で辞書未登録語の抽出を実現し,辞書ベースのシステムの精度を向上させた.本稿では形態素解析ツールをアプリケーションとして採用し,処理時に統計情報を動的に利用することによって形態素の切り分けの精度を上げる手法と,統計情報を利用して事前に辞書登録文字列を選別し必要なコスト情報を補って辞書登録を行なう手法との2つのアプローチを提案し,さらにこの2つの手法を組み合わせてそれぞれの欠点を補う手法を提案する.どちらも元のツールの改変を行なうものではなく,統計情報の付加的な利用を半自動的に実現するもので,元のツールでは利用できない辞書未登録語の抽出に対象を絞ることで精度の向上を図る.実験の結果,動的な統計情報の利用のシステムが未知語の認識に,辞書登録システムが切り分け精度の向上に有効であることが示され,2つのシステムを適切に組み合わせることによって訓練コーパスのデータで認識可能な辞書未登録語をほぼ完全に解決できた.さらに複合語の認識も高い精度で実現することができた.
V04N01-01
\vspace*{-1mm}テキストの可能な解釈の中から最良の解釈を効率良く選び出せる機械翻訳システムを実現するために,最良解釈を定義する制約(拘束的条件)と選好(優先的条件)をText-WideGrammar(TWG)として記述し,圧縮共有森(packedsharedforest)上での遅延評価による優先度計算機構によってTWGを解釈実行する.TWGは,形態素,構文構造,意味的親和性,照応関係に関する制約と選好を備えたテキスト文法である.照応関係に関する制約は,陳述縮約に関する規範を主な拠り所としている.TWGによれば,テキストの最良解釈は,形態素に関する選好による評価点が最も高く,構文構造,意味的親和性,照応関係に関する選好による各評価点の重み付き総和が最も高い解釈である.処理機構は,意味解析と照応解析を,構文解析系から受け取った圧縮共有森上で行なう.その際,最良解釈を求めるために必要な処理だけを行ない,それ以外の処理の実行は必要が生じるまで保留することによって無駄な処理を避ける.保留した処理を必要に応じて再開することによって,最良解釈以外の解釈も選び出せる.