id
stringlengths
9
9
text
stringlengths
18
1.29k
title
stringclasses
1 value
V03N03-01
自然言語処理システムに求められている分析性能が向上するにつれて,そのシステムで用いる文法規則や辞書データといった言語知識ベースも複雑化,巨大化してきた.一方,自然言語処理システムを用いる応用分野がますます多様化することが予想され,応用分野ごとに新たな分析性能が要求される.言語知識ベースにおいても追加と修正の作業が発生する.しかし,現状では,その開発には多数の人員と多くの時間を必要とするため,言語知識ベースの再構築は困難な作業である.応用分野に適合するシステムを,より効率的に開発する手段が必要である.そのためには,融通性を持ち容易に修正できる文法規則や辞書データの作成技法と,作成された言語知識ベースの保守性の向上を図る必要がある.この課題は,応用分野の多様化に伴う需要と規模が増大する中でますます重要となっている.この稿では,この技術課題に対して,言語知識ベースのうち,文法規則の系統的な記述の方法を提案し,その方法に従って作成した機械処理を指向した文法規則について述べる.まず,形態素と表層形態の概念区分をした上で,日本語の持つ階層構造に注目した.形態素の述部階層位置との関係から,表層での形態の現れ方を構文構造に結び付ける形態構文論的な文法作成のアプローチを採用し,文法規則の開発手続きを確立した.融通性を持ち容易に修正できることを例証するため,試作した文法規則を新聞の論説文の分析に適用し,分析の出来なかった言語現象を検討した.そして,その言語現象を取り上げて,これを新たな分析性能を満たす要求仕様と見なし,同じ手続きを用いて文法規則を拡張した.この結果,拡張した文法規則の分析性能が漸増していることを確認した.系統的な記述の手続きに従うことによって,文法規則記述の一貫性を維持しながら,その分析性能を向上させることが可能となった.このため工学上,文法規則の開発作業手順に一般性が生じ,開発時間を短縮することができる.試作した文法規則は実際に計算機上に実装している.本稿は機械処理を指向した文法規則記述のノウハウを体系化する試みとして位置づけられる.
V14N03-11
信頼性の高い情緒タグ付きテキスト対話コーパスを実現することを狙い,漫画の対話文を対象に,登場人物の表情を参照する方法によって情緒タグを付与した.また,得られた対話コーパスの信頼性を評価した.通常,言語表現と話者の情緒とは,必ずしも直接的な対応関係を持つとは限らず,多義の存在する場合が多いため,対話文に内包された情緒を言語表現のみによって正しく判定することは難しい.この問題を解決するため,既に,音声の持つ言語外情報を活用する方法が試みられているが,大量の音声データを収集することは容易ではない.そこで,本稿では,漫画に登場する人物の表情が持つ情報に着目し,タグ付与の信頼性向上を図った.具体的には,漫画「ちびまる子ちゃん」10冊の対話文(29,538文)を対象に,1話につき2人のタグ付与作業者が一時的な「表情タグ」と「情緒タグ」を付与した後に,正解とする表情タグと情緒タグを両者が協議して決定するという手順で,コーパスを構築した.決定された正解の情緒タグは16,635個となった.評価結果によれば,付与された一時的な情緒タグの作業者間での「一致率」は78\%で,音声情報を使用した場合(81.75\%)と比べて遜色のない値を示していること,また,最終的に決定した情緒タグに対する作業者以外の者による「同意率」は97\%であることから,タグ付与の安定性が確認された.また,得られたコーパスを「情緒表現性のある文末表現の抽出」に使用したところ,3,164件の文末表現が情緒の共起割合とともに抽出され,自然で情緒的な文末表現が得られたことから,本コーパスに対しての「言語表現と情緒の関係を分析する上での1つの有効性」が示された.以上から,情緒判定において,漫画に登場する人物の表情は,音声に匹敵する言語外情報を持つことが分かり,それを利用したタグ付与方法の信頼性が確認された.
V23N01-05
「ロボットは東大に入れるか」は,大学入試試験問題を計算機で解くという挑戦を通じ,言語処理を含むAI諸技術の再統合と,知的情報処理の新たな課題の発見を目指すプロジェクトである.知的能力の測定を第一目的として設計された入試問題は,AI技術の恰好のベンチマークであるとともに,人間の受験者と機械のエラー傾向を直接比較することが可能である.本稿では,大手予備校主催のセンター試験形式模試を主たる評価データとして,各科目の解答システムのエラーを分析し,高得点へ向けた今後の課題を明らかにするとともに,分野としての言語処理全体における現在の課題を探る.
V06N01-01
機械翻訳では目的言語で必須格となる格の人称と数を補う必要がある。本論文では、省略補完知識の決定木による表現、及び帰納的に機械学習することによって日本語対話文の格要素省略を補完する手法を提案する。本研究では形態素分割され、品詞、省略情報が付与された任意のコーパスとシソーラスのみを用いて行なう。決定木学習には、内容語の意味属性、機能語の出現、言語外情報の3種類の属性を使用する。未学習文に対してテストを行なった結果、ガ、ヲ、ニの三つの格で照応的な省略の補完を十分な精度で行なうことができた。またガ格とニ格に対しては人称と数の補完にも有効であることを確認した。ガ格に関して、処理の有効性を学習量、話題依存性、使用属性との関係の三点から実験し、以下の知見が得られた。(1)当該問題に対する決定木学習量は全体として$10^4\sim10^5$事例で十分である。この時の補完精度の上限は$80\%\sim85\%$と予想される。(2)対話の話題が既知もしくは予測可能な時は、その話題のみのコーパスによる学習が最善である。話題が未知の場合は、可能な限り広範な話題に対して学習するのが最も効果的である。(3)学習量増加に伴い、決定木には機能語などの話題に依存しない属性が多く採用される。
V24N01-04
推薦システムのユーザ体験を高めるために重要な指標の1つが多様性(Diversity)である.多様性は推薦システムが提示するリスト内には様々なコンテンツが含まれるべきという考え方であり,過去の研究では多様性が含まれるリストの方がユーザに好まれるとされている.しかし実際のサービス上で推薦システムを検証したという報告は少なく,サービス上で多様性がユーザにどのような影響を与えるのかは明らかになっていない.本研究では実際にサービスとして提供されているウェブページ推薦システムを分析し,その推薦システムに多様性を導入して比較を行った事例について報告する.まず多様性が導入されていない推薦システムのユーザ行動を分析し,結果としてリストの中位以降に表示するウェブページに課題があることを明らかにした.その上で多様性を導入し,多様性のない既存システムとサービス上でのユーザ行動を比較した.結果として継続率やサービス利用日数が有意に改善していることを示し,従来研究で示されていた多様性を含む推薦リストの方がユーザに好まれるということを実サービス上で示した.そして利用日数が増えるに従ってリスト全体のクリック数が改善していくこと,特にリスト下部のクリック率が多様性のない手法では下がっていくのに対して,多様性のある手法では向上していくことを示した.
V23N02-01
2つの系列が与えられたときに,系列の要素間での対応関係を求めることを系列アラインメントとよぶ.系列アラインメントは,自然言語処理分野においても文書対から対訳関係にある文のペアを獲得する対訳文アラインメント等に広く利用される.既存の系列アラインメント法は,アラインメントの単調性を仮定する方法か,もしくは連続性を考慮せずに非単調なアラインメントを求める方法かのいずれかであった.しかし,法令文書等の対訳文書に対する対訳文アラインメントにおいては,単調性を仮定せず,かつ対応付けの連続性を考慮できる手法が望ましい.本論文では,ある大きさの要素のまとまりを単位として系列の順序が大きく変動する場合にアラインメントを求めるための系列アラインメント法を示す.手法のポイントは,系列アラインメントを求める問題を組合せ最適化問題の一種である集合分割問題として定式化して解くことで,要素のまとまりの発見と対応付けとを同時に行えるようにした点にある.さらに,大規模な整数線形計画問題を解く際に用いられる技法である列生成法を用いることで,高速な求解が可能であることも同時に示す.
V21N02-01
近年,コーパスアノテーションは多様化し,多層アノテーションを統合利用する仕組みが欠かせない.とくに話し言葉コーパスでは,言語・非言語に関する10種類以上もの単位とそれらの相互関係を統合し,複数の単位を組み合わせた複雑な検索を可能にする必要がある.本研究では,このような要請に応えるため,(1)マルチモーダル・マルチチャネルの話し言葉コーパスを表現できる,汎用的なデータベーススキーマを設計し,(2)既存のアノテーションツールで作成された,種々の書式を持つアノテーションを入力とし,汎用的なデータベーススキーマから具現化されたデータベースを構築するツールを開発する.話し言葉の分野では,広く使われている既存のアノテーションツールを有効に利用することが不可欠であり,本研究は,既存のアノテーションツールやコーパス検索ツールを用いたコーパス利用環境を構築する手法を提案する.提案手法は,開発主体の異なる複数の話し言葉コーパスに適用され,運用に供されている.
V31N04-12
%本稿では,日本語ニュース記事の要約支援を目的とする,ドメイン特化事前学習済みモデルを用いた編集支援システムについて報告する.具体的には実社会のシステム要件を整理し,既存技術を組み合わせて開発した編集支援システムを,有用性を評価するための検証項目と共に提示する.第一に,特有の文体を再現する目的で「日経電子版」のニュース記事を用いてT5の事前学習とファインチューニングを行い,学習コーパスのサイズが小さいにもかかわらず,見出しと3行要約の生成タスクで一般的なモデルを上回る性能を確認した.次に,発生し得る幻覚の特徴を明らかにするために,構築したドメイン特化T5の出力を定量的・定性的に分析した.最後に,クリック率を予測するドメイン特化BERTも含め,編集システム全体の有用性を議論した.\renewcommand{\thefootnote}{}\footnote[0]{本稿の一部は,筆者らの既発表文献\cite{石原2022,ishihara2022ctr}をもとに構成した.}\renewcommand{\thefootnote}{\arabic{footnote}}
V06N02-07
我々は,テキスト音声合成システムのポーズ挿入精度向上のために,言語処理部に構文解析処理を導入し,一文全体の係り受け解析結果を利用したポーズ挿入処理を試みた.本稿では,この結果について報告する.テキストを音声に変換して出力する際には,その内容を感覚的,意味的に捉え易くするために,テキスト中の適当な位置に適当な長さのポーズを与える必要がある.ポーズ位置やポーズ長の設定に,対象文の係り受け解析結果が有効な手がかりになるとの知見が得られているが,従来は実施上の都合から,語彙情報の利用や,局所的なテキスト解析による方法が代用されていた.そこで本稿では言語処理部に軽量かつ高速な構文解析系を導入し,一文全体の係り受け解析のシステム上での実現を試みた.ポーズ挿入の生じ易さの指標としてポーズ挿入尤度を設け,係り受け情報に着目したポーズ挿入規則に基づき,全文節境界にポーズ挿入尤度を設定する.尤度の高い境界から基本ポーズ長レベルを設定した後,各境界に対してアクセント結合処理および呼気段落に基づく閾値による調整を行なう.実際にテキスト音声合成システムに実装し,形態素解析と隣接間係り受け処理のみ実装しているテキスト音声合成ソフトウェアパッケージとの比較実験を行なったところ,ポーズ挿入精度の大幅な向上が得られ,その効果を確認することができた.
V17N04-06
音声合成をより使いやすくかつ表現力豊かにするために,我々は階層型音声合成記述言語MSCLを開発した.MSCLは記述という方法によりニュアンスや心情,感情などを合成音声に付加することが可能である.MSCLはS層,I層,P層の3つの階層を有し,初学者から音声学的知識を有する者まで対応可能にする.一方,MSCLのS層が提供する新たなコマンドの作成手法そしてI層に備わる韻律制御コマンドによって生じる聴感上の効果(印象)の検討はMSCLにおける課題となっていた.そこで,本研究はMSCLの課題である韻律制御と印象の関係について実験を通じて見出した,8つの制御規則を提案し,それぞれの主な印象について連想法を通じて分析した.また,制御規則を組み合わせて得られる印象の変化についても分析を行った.さらに,韻律制御コマンドを利用する上での留意点について言及する.音声合成での韻律制御を行うための1つのアプローチを提案する.
V29N02-05
%本論文では,平仮名のみで書かれた日本語文(以下,平仮名文)に対する形態素解析について述べる.平仮名文は,漢字仮名まじり文と比べて,考えられる単語候補が増大するなど,はるかに曖昧性が多いことが知られている.これまでに,平仮名文を主な対象とした形態素解析手法がいくつか開発されているが,その多くが十分な解析精度を得られていない.一部,著名な日本語形態素解析器の漢字仮名まじり文に対する解析精度に匹敵する高い精度を平仮名文に対して達成している従来手法が存在するが,その手法には膨大な解析時間を要するという問題がある.そこで本論文では,平仮名文に対する高精度かつ実用的な速度での解析を目指し,RNN(RecurrentNeuralNetwork)とロジスティック回帰を用いた平仮名文の逐次的な形態素解析手法を提案する.提案手法では,解析の高速化を図るため,単語境界の推定は文字境界ごとに,形態素情報の推定は単語ごとに,文頭から逐次的に実行する.また,解析の高精度化を図るため,各時点において,ロジスティック回帰により局所的な情報に基づいて推定した結果と,RNNにより大域的な情報を考慮して推定した結果とを統合し,単語境界や形態素情報を推定する.評価実験の結果,提案手法は,単語分割と形態素情報のすべての一致を正解とする最も厳しい基準において,前述の従来手法を上回る解析精度を達成しつつ,従来手法と比べて100倍以上の高速化を実現していることを確認した.
V22N05-04
本稿では,日本語述語項構造解析における中心的課題である項の省略を伴う事例の精度改善を目指し,現象の特徴を詳細に分析することを試みた.具体的には,文内に照応先が出現する事例(文内ゼロ照応)に対象を絞り,人手による手がかりアノテーションと統語的・機能的な構造を元にした機械的分類の二種類の方法により事例を類型化し,カテゴリ毎の分布と最先端のシステムによる解析精度を示した.分析から,特に照応先と直接係り関係にある述語Oが対象述語Pと項を共有する事例が全体の58\%存在し,OとPの間の統語的・意味的関係が重要な手がかりであることを数値的に示したほか,手がかりの種類や組み合わせが広い分布を持つこと,各手がかりが独立に確信度を上げる事例だけでなく,局所的な手がかりの連鎖が全体で初めて意味を成す事例が一定数存在することを明らかにした.
V16N01-01
話し言葉の係り受け解析を行なう際の最大の問題は,文境界や引用節・挿入節などの境界が明示されていないことである.本論文では,話し言葉に対して,引用節・挿入節を自動認定するための手法,および自動認定した引用節・挿入節の情報を用いて係り受け解析を改善するための手法を提案する.形態素やポーズの情報などをもとに,SVMを用いたテキストチャンキングによって,引用節・挿入節の始端と終端を決定する.始端を決定する際には,自動推定した係り受けの情報をあわせて利用する.日本語話し言葉コーパス(CSJ)を用いた評価実験により,自動認定した引用節・挿入節の情報を利用することで係り受け解析精度が77.7\%から78.7\%に改善されることを確認し,本手法の有効性を示した.
V31N03-16
%日本語を用いたコミュニケーションにおいて,敬語を正確に使用することは他者と良好な関係を保つ上で重要である.日本語敬語は,動詞の活用などの文法的な側面と,人物間の社会的関係といった文脈的な側面の両方を持つ.そのため,敬語を正確に理解した上で使用することは,計算機システムにとって文法規則の知識と文脈情報の理解の両方が必要となる挑戦的なタスクである.大規模言語モデルは日本語のタスクでも高い性能を見せることが知られているが,それらのモデルが文脈情報に応じて柔軟に敬語の文法規則を適用する能力を評価するためのデータセットは未だ提案されていない.本研究では,文脈情報を踏まえた敬語理解タスクとして,発話文の敬語使用に関する容認性判断タスクと,敬語変換タスクの2つを導入する.導入タスクに合わせて,文の構造や社会的関係を制御可能なテンプレート手法を用いて新規に日本語敬語データセットを構築する.また,既存の日本語敬語コーパスからサンプリングしたデータに追加情報をアノテーションすることで,より自然な文のデータセットを用意する.実験として,2つのデータセットを用いて,GPT-4に代表される大規模言語モデルの敬語理解タスクにおける性能を多角的に評価する.実験の結果,より複雑な統語構造を持つ文においては,モデルの敬語変換性能に改善の余地があることが示唆された.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は,The12thJointConferenceonLexicalandComputationalSemantics(*SEM2023)およびNLP若手の会(YANS)第18回シンポジウムにて報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V24N01-03
計算機による対訳表現抽出を可視化することにより,対訳辞書の構築や翻訳を支援するツールBilingualKWICを開発した.本ツールは,入力されたキーワードに対する対訳表現を自動的に推定し,それらを含む原言語文と対象言語文をそれぞれKWIC形式で表示することにより,ユーザの翻訳作業などを支援する.技術的には,形態素解析などを利用せずに文字列情報だけから対訳を抽出するため,どのような言語対にも適用可能であり,さらには単語以外の表現に対しても対訳を表示することが可能である.また対訳表現をKWIC形式で表示することにより,システムの抽出誤りに対する修正を容易にするだけでなく,派生表現の獲得や複数の対訳表現の比較も可能としている.本稿では,BilingualKWICの特徴と開発経緯について述べる.
V31N03-11
%実世界で人間を支援するロボットにとって,身体世界を含む状況の理解は重要な課題である.特に対話のような言語を用いたインタラクションを通じて人間との協業を行おうとする場合,ロボットの1人称視点の画像等から得られる情報とインタラクション中の情報における参照関係を適切に紐解かねばならない.本研究ではこうした実世界における,マルチモーダル参照解析タスクを提案し,本タスクのための参照タグ付き実世界対話データセット(J-CRe3)を構築する.本データセットには家庭内における主人とそのお手伝いロボットを想定した2者間の実世界対話動画および音声が含まれる.さらに,対話書き起こしテキスト中のメンションに1人称視点動画におけるフレーム内の物体領域が紐付けられている.この紐付けには直接的な参照関係だけでなく,述語と項の関係や橋渡し照応関係も含まれる.既存のテキスト間の照応解析モデルおよび画像のフレーズグラウンディングモデルを組み合わせた実験を行った結果,今回提案するタスクは,テキスト間の解析に比べテキストと物体間の関係解析が非常に困難で挑戦的な課題であることを示した.\renewcommand{\thefootnote}{}\footnote[0]{本論文は,言語処理学会第29回年次大会(NLP2023),言語処理学会第30回年次大会(NLP2024),およびThe2024JointInternationalConferenceonComputationalLinguistics,LanguageResourcesandEvaluation(LREC-COLING2024)で発表した論文(植田他2023;植田他2024;Uedaetal.2024)を和訳し,加筆・修正を行ったものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V26N02-06
「こりゃひでえ」(元の形:「これはひどい」)のような音変化表現は,対話エージェントの発話や小説のセリフの自動生成において,話者であるキャラクタを特徴付けるための強力な手段となると考えられる.音変化表現を発話のキャラクタ付けに利用するために,本研究では,(i)キャラクタの発話に現れる音変化表現を収集し,(ii)それらを基に,音変化表現を人為的に発生させるための知識を整理した.具体的には,収集した音変化表現を現象と生起環境の観点で分類し,137種類のパターンとして整理した.そして,これらのパターンが小説やコミックで用いられる音変化表現の80\%以上をカバーすることを確認した.さらに,(iii)音変化表現がキャラクタらしさを特徴付ける手段になるという仮説を検証するために,小説やコミックにおける発話文の話者(キャラクタ)を推定する実験を行い,音変化表現のパターンの情報を利用することで,推定性能が向上するキャラクタが存在することを確認した.
V22N05-03
事実性は,文中の事象の成否について,著者や登場人物の判断を表す情報である.事実性解析には,機能表現や,文節境界を越えて事実性に影響を与える語とそのスコープなどの4種類の問題が含まれており,性能の向上が容易ではない.本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533文に含まれる3,734事象に適用した結果の誤りを分析した.このとき全ての事象表現について,付随する機能表現に対して人手で意味ラベルを付与した.その結果,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.従属事象の事実性解析では,後続する述語やスコープといった従属事象特有の誤りが多く見られた.それらの要素についてさらなる分析を行い,今後の事実性解析の指針を示した.
V07N03-04
日本語とウイグル語は共に膠着語であり,構文的に類似した点が多い.したがって,日本語からウイグル語への機械翻訳においては,形態素解析によって得られた各単語を逐語翻訳することにより,ある程度の翻訳が可能となる.しかし,従来の日本語文法は動詞が活用することを前提としていたため,ウイグル語への翻訳の前に,動詞の活用処理が必要であった.本論文では,日本語,ウイグル語を共に派生文法で記述することにより,日本語の活用処理を不要とすると同時に,両言語間の形態論的類似点を明確にし,単純でかつ体系的な機械翻訳が可能になることを示す.しかし,日本語とウイグル語との間の文法的差異から,単純な逐語翻訳では不自然な翻訳となる場合がある.本論文では,単語間の接続関係を考慮した訳語置換表を用いることによりこの問題を解決し,より自然な翻訳を実現した.さらに,この手法に基づく日本語--ウイグル語機械翻訳システムを作成した.このシステムでは,日本語形態素解析システムとウイグル語整形システムを,それぞれ独立のモジュールとして構成している.この設計は,他の膠着語間における翻訳にも応用可能であると考えられる.また,実験によりその翻訳精度を評価した.本論文では,特に両言語において文の中心的役割を果たす動詞句の翻訳について述べる.
V02N03-04
本論文では「目を盗む」や「かたずを飲む」などの述語型定型表現をコーパスから自動抽出することを目的に,従来の相互情報量の条件を緩める方向で,名詞動詞間の共起性を測る新たな基準を提案する.概略,名詞,動詞のどちらかを固定して,その単語と共起する集合内の各単語に,どの程度特異な頻度になっているかの数値を与える.この数値は集合内のその単語の頻度の割合と,集合内の単語の種類数から計算される.この数値の上位のものを取り出すことで定型表現の抽出を行う.本手法の特徴は,名詞を固定した場合に抽出できる表現と,動詞を固定した場合に抽出できる表現はほとんど共通のものがなく,しかもどちらの場合も相互情報量による抽出程度の正解率を得られることである.このため,目的の抽出数の半数づつを名詞固定と動詞固定の各々の場合から取り出せば,相互情報量を用いて抽出する場合よりも高い正解率が得られる.
V18N03-03
本稿では,訓練データの自動拡張による語義曖昧性解消の精度向上方法について述べる.評価対象として,SemEval-2010日本語語義曖昧性解消タスクを利用した.本稿では,まず,配布された訓練データのみを利用して学習した場合の結果を紹介する.更に,辞書の例文,配布データ以外のセンスバンク,ラベルなしコーパスなど,さまざまなコーパスを利用して,訓練データの自動拡張を試みた結果を紹介する.本稿では,訓練データの自動獲得により79.5\%の精度を得ることができた.更に,対象語の難易度に基づき,追加する訓練データの上限を制御したところ,最高80.0\%の精度を得ることができた.
V10N01-06
現在入手可能な解析器と言語資源を用いて中国語解析を行った場合にどの程度の精度が得られるかを報告する.解析器としては,サポートベクトルマシン(SupportVectorMachine)を用いたYamChaを使用し,中国語構文木コーパスとしては,最も一般的なPennChineseTreebankを使用した.この両者を組み合わせて,形態素解析と基本句同定解析(basephrasechunking)の2種類の解析実験を行った.形態素解析実験の際には,一般公開されている統計的モデルに基づく形態素解析器MOZとの比較実験も行った.この結果,YamChaによる形態素解析精度は約88\%でMOZよりも4\%以上高いが,実用的には計算時間に問題があることが分かった.また基本句同定解析精度は約93\%であった.
V17N01-03
日本語の形態素解析における未知語問題を解決するために,オンライン未知語獲得という枠組みと,その具体的な実現手法を提案する.オンライン未知語獲得では,形態素解析器と協調して動作する未知語獲得器が,文が解析されるたびに未知語を検出し,その可能な解釈の候補を列挙し,最適な候補を選択する.このうち,列挙は日本語の持つ形態論的制約を利用し,選択は蓄積した複数用例の比較により行う.十分な用例の比較により曖昧性が解消されると,解析器の辞書を直接更新し,獲得された未知語が以降の解析に反映される.実験により,比較的少数の用例から高精度に未知語が獲得され,その結果形態素解析の精度が改善することが示された.
V21N02-09
言語研究において,新しい品詞体系を用いる場合には,既存の辞書やコーパス,解析器では対応できないことが多いため,これらを再構築する必要がある.これらのうち,辞書とコーパスは再利用できることが少なく,新たに構築する場合が多い.一方,解析器は既存のものを改良することで対応できることが多いものの,どのような改良が必要かは明らかになっていない.本論文では,品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,品詞体系の異なる日本語話し言葉コーパス(以下,CSJ)と現代日本語書き言葉均衡コーパス(以下,BCCWJ)を利用して,長単位情報を自動付与した場合に生じる誤りを軽減する方策について述べる.具体的には,CSJを基に構築した長単位解析器をBCCWJへ適用するため,CSJとBCCWJの形態論情報における相違点に応じて,長単位解析器の学習に用いる素性やラベルを改善した.評価実験により提案手法の有効性を示す.
V14N01-05
参照表現とは,特定の物体を他の物体と混同することなく識別する言語表現である.参照表現の生成に関する従来の研究では,対象物体固有の属性と異なる2つの物体間の関係を扱ってきた.しかし外見的特徴の差異が少なく他の物体との関係が対象物体の特定に用を成さない場合,従来の手法では対象物体を特定する自然な参照表現を生成することはできない.この問題に対して我々は知覚的群化を利用した参照表現の生成手法を提案しているが,この手法が扱える状況は強く限定されている.本論文では,我々が提案した手法を拡張し,より一般的な状況に対応できる参照表現の生成手法を提案する.18人の被験者に対する心理実験をおこない,本論文の提案手法を実装したシステムが適切な参照表現を生成できることを確認した.
V30N02-13
%\vspace{-0.75\Cvs}行政の政策や接客業のサービスの質を向上させるためには,市民によるフィードバックの収集/分析と同時に都市の特徴を明らかにするための他の都市との比較が重要となる.しかし,都市によって政策やサービスは異なり,市民の抱える意見も異なるため,機械学習により複数の都市に適応した市民意見の分析を実現することは難しい.本論文では,都市を横断して市民意見を抽出する手法を提案する.実験では,横浜市民,札幌市民,仙台市民のつぶやきを対象として,特定の都市のつぶやきでファインチューニングしたモデルを,評価対象の都市の比較的少量のつぶやきを用いて再度ファインチューニングする手法の有効性を確認した.この際,評価対象の都市の訓練データは,異なる都市のつぶやきで訓練したモデルによる予測の確信度が高いものを選定することが有効であることを明らかにした.
V20N05-02
時間情報抽出は大きく分けて時間情報表現抽出,時間情報正規化,時間的順序関係解析の三つのタスクに分類される.一つ目の時間情報表現抽出は,固有表現・数値表現抽出の部分問題として解かれてきた.二つ目の時間情報正規化は書き換え系により解かれることが多い.三つ目のタスクである時間的順序関係解析は,事象の時間軸上への対応付けと言い換えることができる.\modified{日本語においては時間的順序関係解析のための言語資源が整備されているとは言い難く,アノテーション基準についても研究者で共有されているものはない.本論文では国際標準であるISO-TimeMLを日本語に適応させた時間的順序関係アノテーション基準を示す.我々は『現代日本語書き言葉均衡コーパス』(BCCWJ)の新聞記事の部分集合に対して,動詞・形容詞事象表現にTimeMLの\event\相当タグを付与し,その事象の性質に基づき分類を行った.また,この事象表現と先行研究\cite{小西-2013}により付与されている時間情報表現との間の関係として,TimeMLの\tlink\相当タグを付与した.}\modified{事実に基づき統制可能な時間情報正規化と異なり,事象構造の時間的順序関係の認識は言語受容者間で異なる傾向がある.}このようなレベルのアノテーションにおいては唯一無二の正解データを作ることは無意味である.むしろ,言語受容者がいかに多様な判断を行うかを評価する被験者実験的なアノテーションが求められている.そこで,本研究では三人の作業者によるアノテーションにおける時間的順序関係認識の齟齬の傾向を分析した.アノテーション結果から,時間軸上の相対的な順序関係については一致率が高い一方,時区間の境界については一致率が低いことがわかった.
V31N02-11
%自然言語処理技術を開発する上でシソーラスから得られる意味知識は有用であり,現在までに日本語では単語同士を対象として上位下位関係や同義関係,類義関係等の獲得を目的とした研究が行われている.しかし,既存研究では主に単語間の関係を検出することに注目し,語義を対象とした類義関係の検出は行われていない.この問題に対処するため,本研究では日本語辞書に記述された語義定義文とSentence-BERTを用いた類義判定手法を提案する.単語間の類義関係に着目し,「うまい」の語義「よい。すぐれている。」と「じょうず」の語義「ある物事をする技術がすぐれていること。」の様な単語の語義を対象に類義であるか否かの類義判定を行う.岩波国語辞典の見出し語,語義定義文及び分類語彙表の分類番号を用いて作成した評価データセットを対象として,学習データを用いてfine-tuningした類義判定モデルによる類義判定実験を行った.実験の結果,提案手法におけるSentence-BERTや変更した語義定義文を用いることによって,ベースライン手法よりも効果的に類義判定ができることを示した.
V03N02-02
本稿では,fj.wantedのダイジェストの自動生成を実現する方法について述べる.その中心技術は,ニュース記事からのサマリ抽出法である.この方法は,言わば「斜め読みを模擬した処理」であり,まず,表層的な表現を手がかりとして,42の特徴を抽出し,それらの特徴を用いて,記事のサマリ(カテゴリとサマリ文)を抽出する.ブラインドデータに対する実験において,本方法は,カテゴリ判定正解率81\%,サマリ文抽出正解率76\%という値を示した.抽出されたサマリはカテゴリ毎に整理され,HTML形式のダイジェストとして出力される.このとき,元の記事へのポインタは,ハイパーテキストのリンクとして埋め込まれる.作成されたダイジェストは,WWWのクライアントプログラムによって読むことができる.
V07N04-09
日本語は主語などの要素がしばしば省略されるため,これらの補完は対話処理において重要である.さらに音声対話処理においては,実際に対話を処理する際に入力となるのは音声であり,一部誤りを含んだ音声認識結果が処理対象となるため,言語処理部においても不正確な入力に対する頑健性が要求される.このため,入力の一部に誤りのある状況下における格要素補完問題を考え,以前に提案した決定木を使用した補完手法を改良したモデルを提案する.このモデルは,複数の決定木を使用することで複数解候補を出力し,その中から学習時の終端節点事例数によって解の選好を行なうことで入力誤りに対する頑健性を強化した.音声認識の実誤りと人工的な誤りの2種類で評価実験を行なった結果,提案手法が誤りを含む入力に対し頑健であることを確認した.また人工的な問題に対するシミュレーションの結果,本提案手法は問題非依存であり,入力誤りの多さに応じた決定木の組み合わせでモデルを構成することで有効に機能することが明らかとなった.
V10N02-04
全単語の出現箇所を与える総索引は日本の古典の研究の補助として用いられている.品詞タグ付きコーパスはコンピュータを用いた自然語研究の手段として重要である.しかし日本語古典文に関する品詞タグ付きコーパスは公開されていない.そこで総索引を品詞タグ付きコーパスに変換する方法を検討した.使用した総索引は本文編と索引編とから成り,後者は単語の仮名/漢字表記・品詞情報を見出しとし,その単語の本文での出現行番号のリストを与える.変換機能には活用表の知識のみを保持した.ある単語の部分文字列が他の単語の表記と一致し,両者が同一行に出現することがあり得る問題に対し,一種の最長一致法を用いた.索引の見出しの漢字表記が送り仮名等の仮名文字を含まないため,照合条件を緩める先読み法を用いた.照合失敗部や索引自体の誤りへの対処のため,変換の不完全部分を示す印を出力し人手で検査・修正した.以上の結果,約15万単語の古典文の品詞タグ付きコーパスを得た.
V06N06-04
ニュース原稿を1文ごとにそれぞれ要約する手法について報告する.1文が長く,1記事中の文数の少ないニュース原稿に対して文を抽出単位とする要約手法を用いることは,大きく情報が欠落する可能性があり,適切でない.そこで,本要約手法では修飾部および比較的冗長と考えられる部分を削除することにより,1文ごとの要約を行う.また,1文を部分的に削除する際に構文構造が破壊されることを防ぐため,ニュース文要約に特化した簡易構文解析手法を利用している.字幕文は,画面上を一方的に流されるという性質から,適切な長さに要約されている必要があり,読みやすく,原稿の情報が正確に伝わり,冗長さが解消されている必要がある.このため,被験者32名に対し,本手法による要約文についてのアンケートを行うことにより,自然さ,忠実さ,非冗長さの3つの視点から評価を行った.その結果,理想的な要約を100\%とした場合で,自然さ81.5\%,忠実さ74.3\%,非冗長さ83.3\%という評価値を得た.
V27N01-05
%本論文では『分類語彙表増補改訂版データベース』に対する単語親密度推定手法について述べる.分類語彙表に収録されている96,557項目に対する評定情報をYahoo!クラウドソーシングを用いて収集した.1項目あたり最低16人(異なり3,392人)の研究協力者に,内省に基づいて「知っている」「書く」「読む」「話す」「聞く」の評定情報付与を依頼した.研究協力者の評定情報から単語親密度をベイジアン線形混合モデルにより推定した.また,推定された単語親密度と分類語彙表の語義情報との関連性について調査した.
V28N02-07
%ニューラル機械翻訳(NMT)の登場により,ニュース記事など文体の整った入力に対する翻訳の品質は著しく向上してきた.しかし,ソーシャル・ネットワーキング・サービス(SNS)に代表されるユーザ生成コンテンツ(UGC)を対象としたNMTの翻訳には依然として多くの課題が残されている.異文化・多言語交流の促進に向けた機械翻訳システムの活用には,そうした特異な入力を正確に扱うことのできる翻訳モデルの構築が不可欠である.近年では,UGCにおける翻訳品質の向上に向けたコンペティションが開催されるなどその重要性は広く認知されている.一方で,UGCに起因するどのような要因が機械翻訳システムの出力に悪影響を及ぼすのかは明らかでなく,偏在するユーザコンテンツの翻訳に向けた確かな方向性は依然として定まっていない.そこで本研究では,言語現象に着目した日英機械翻訳システムの頑健性測定データセット\textbf{PheMT}を提案する.特定の言語現象を含む文に特化したデータセットにより,当該表現の翻訳正解率,および正規化に基づく翻訳品質の差分を用いた精緻なエラー分析を可能にする.構築したデータセットを用いた評価により,広く商用に利用される機械翻訳システムを含む,最先端のNMTモデルにおいても十分に扱えない,対処すべき言語現象の存在を明らかにする.
V31N03-04
%日本語のライトノベルでは,登場人物毎に異なる口調(話し方のスタイル)を用い,その口調によってセリフの話者を暗示させる技法がしばしば用いられる.「セリフの書き分け」と呼ばれるこの小説技法は,多くの口調が存在するという日本語の話し言葉の特徴を利用している.この技法が使われる小説では,地の文を主要な手がかりとする話者推定法だけでは,正しい話者を推定することが難しい.本研究では,口調を利用した話者推定を実現するために,以下のことを行った.(1)小説のセリフを,その口調の特徴を埋め込んだベクトル(口調ベクトル)に変換する口調エンコーダを提案した.(2)口調エンコーダを利用して,セリフの話者を自動同定する手法(口調に基づく話者同定)を提案した.(3)この手法の前段に話者候補生成モジュールをつなげた話者推定システムを実装した.このシステムを用いて5つの作品に対して話者推定実験を行い,4つの作品に対してベースラインを上回る結果を得た.\renewcommand{\thefootnote}{}\footnote[0]{本論文は,情報処理学会第253回自然言語処理研究会(石川他2022)と言語処理学会第29回年次大会(石川他2023)を発展させたものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V27N04-08
%談話関係解析は自然言語処理の基盤的な解析の一つであるが,日本語におけるコーパスベースの談話関係解析の研究はほとんどない.本研究では日本語の談話関係解析を実用化するため,日本語の談話関係タグ付きコーパスを構築する.日本語の談話関係タグ付きコーパスでは,談話単位,談話標識,談話関係タグの3項目をアノテーションする.その際,高速にコーパスを構築するため,以下の4つの手法を採用する.(1)Webページの冒頭3文を収集したコーパスにアノテーションする.(2)談話関係タグセットは2階層7種類とする.(3)談話単位と談話標識は自動認識する.(4)熟練のアノテータによる小規模・高品質なものとクラウドソーシングを用いた大規模なものの2種類のアノテーションを実施する.構築したコーパスを分析した結果,クラウドソーシングを用いたものは改善の余地があることが分かった.構築した談話関係タグ付きコーパスを用いて,談話関係解析器を訓練する.実験の結果,タグ付きコーパスが機械学習ベースの解析モデルの学習に有効であることが分かった.また,明示的な談話関係に限れば,本研究で整備した談話標識の自動認識が高精度な解析器として利用可能であることを示した.本研究で構築した日本語談話関係タグ付きコーパスは公開し,談話単位と談話標識の自動認識器は日本語構文・格解析器KNPに実装されている.
V15N05-02
2つの言語に関わる言語横断の言語処理を実現するには,その言語対を対象とする豊富な言語資源が必要である.対訳辞書は,そのような言語資源の中でも特に重要であるが,あらゆる言語対に対して大規模な対訳辞書が利用できるわけではなく,小規模な対訳辞書しか利用できないような言語対も多い.そこで本論文では,ある言語対についての既存の小規模な対訳辞書を,その言語対と中間言語の言語資源を利用して大規模な対訳辞書に拡充する方法を提案する.提案法では,対象となる2つの言語のコーパスから得られた言語の異なる共起ベクトルを,種辞書に基づいて比較して,対象となる2つの言語と中間言語の2種類の対訳辞書を用いて得られた訳語候補を選択する情報として用いる.実際に,小規模なインドネシア語-日本語辞書を,大規模なインドネシア語-英語辞書と英語—日本語辞書に基づいて拡充する実験を行い,拡充された辞書が言語横断情報検索の精度を向上させるのに役立つことを示した.
V15N03-03
あるトピックに関して対話的に行われる一連の情報アクセスを質問応答システムが支援する能力,情報アクセス対話の対話相手として情報を提供するために質問応答システムが持つべき能力を定量的に評価するためのタスクを提案する.このタスクでは,対話の実現の基本となる対話文脈を考慮した質問の解釈,つまり照応解消や省略処理等のいわゆる文脈処理の能力を評価する.本稿では,タスクの設計を示し,その根拠となる調査結果を報告する.提案するタスクは以下の点で新規かつ有益である.対話的情報アクセスを対象として,そこで必要な質問応答技術が効果的に評価できるという課題設定と構成の独自性を持つ.評価尺度については応答の自然性において問題となる回答の質や回答列挙の体系の違いに配慮し,複数の体系を許す多段階評価手法を備えている.システムの文脈処理能力をある程度まで切り離して評価することを可能とする参照用テストセットと呼ぶ枠組みを有している.
V12N03-05
中心化理論(centeringtheory)は,注意の中心,照応,結束性の間の相互作用を説明する談話構造の理論である.しかし,照応現象の背後にあるはずの基本原理を明らかにするものではない.また,中心化理論で重要な役割を担う顕現性(salience)が,客観的に計量可能な尺度として定式化されていないという問題もある.一方,Hasidaら\citeyear{hasida1995,hasida1996}は,ゲーム理論に基づく意図的コミュニケーションのモデルとして意味ゲーム(meaninggame)を提唱し,「照応等の現象はゲーム理論で説明できる」と主張しているが,この主張は実言語データに基づいて検証されていない.われわれは,顕現性を計量可能な尺度として定式化し,中心化理論の2つのルールに対応する意味ゲームに基づく選好を日本語のコーパスを用いて検証した.その結果,中心化理論の予測を越える部分も含めてこれらの選好が成立することがわかった.したがって,基本原理の明確さおよび予測能力の強さゆえに,中心化理論よりも意味ゲームの方が優れた作業仮説であり,この意味において,中心化理論等の照応や焦点に特化した理論は不要と考えられる.
V13N04-03
本論文では,広範な概念クラスの属性語を日本語のWeb文書から獲得する手法を提案する.提案する手法は,Web検索を用いて得られた候補の単語を言語的パターン・HTMLタグ・単語の出現の統計量から計算されるスコアで順位付けする簡単な教師無しの獲得手法である.また,本論文では,獲得された属性語を人手で評価するための{\bf質問解答可能性}に基づく評価手順を提案する.この評価手順に従い22個の概念クラスに関して提案獲得手法を人手で評価し,提案手法により属性語を高精度で獲得可能であること,また,スコアに用いた各手がかりが実際に性能に貢献していることを確認した.
V08N03-02
手話は視覚言語としての側面を持つため,手話単語の語構成(造語法)における特徴の一つとして「写像性」が挙げられる.例えば,日本手話の日本語単語見出し「家」に対する手話表現は,屋根の形を視覚的に写像している.すなわち,手話表現が概念特徴の一部を視覚的に模倣している点である.一般に,概念特徴は定義的特徴と性格的特徴に分類される.ここで,定義的特徴とは,ある概念の定義に不可欠な特徴素の集合であり,性格的特徴とは概念を間接的に特徴付ける特徴素の集まりを指す.例えば,「家」に対する手話表現は,定義的特徴としての特徴素からの写像と捉えることができる.一方,「破産」に対する手話表現は,比喩的な表現「家が潰れる」という概念の間接的な記述,すなわち,性格的特徴を視覚的に写像し「家」の手話表現を提示した後に,両手を付け合わせる表現で定義されている.すなわち,一義的には、双方の単語間に概念の類似性はみられないものの,手指動作特徴の類似性という観点からみると「家」の派生語と捉えることができる.また,日本語との言語接触により,日本語の単語見出しの構成要素を借用した複合表現(例えば,「青森」は「青い」と「森」から成る.)で構成される単語が少なくない.この借用も広義の写像性と捉えることができる.このように,手指動作特徴の類似性により手話単語を分類することは,手指動作特徴が担う概念特徴と造語法との関係を明らかにする重要な手がかりの一つを提供できると考える.また,手話単語を対象とする電子化辞書システムなどにおいては,手指動作特徴を検索キーとする類似検索機構を実現する上での有益な知識データと捉えることができる.本論文では,与えられた手話単語の有限集合を手指動作特徴間の類似性に基づき分類する方法として,市販の手話辞典に記述されている手指動作記述文間の類似性に着目した手法を提案する.本手法の特徴は,手指動作記述文間の類似度を求め,集合の要素間の同値関係により単語集合を同値類に分割する点にある.実験により,提案手法の妥当性を示す結果が得られた.
V09N02-03
{本論文では,コーパスから事象間の一対多関係を推定する問題を考える.これまでにコーパスから事象間の関係を推定することが多く研究されている.一般に,この問題に対する解決法の多くは,コーパスを構成する文書における事象の共起に基づき,暗黙的に事象間の関係は一対一関係であることを想定している.しかし,実際には,事象間の関係は一対多関係である場合があり,この特徴のためにいくつかの工夫が必要である.本論文では,コーパス中の一対多関係を推定するために補完類似度を利用することを提案する.この尺度は本来文字認識システムのために開発され,テンプレートの文字のパターンにオーバーラップしたパターンがある条件で有効であることが知られているが,これまでテキスト処理に利用されたことはなかった.この補完類似度の一対多関係を推定する能力を評価するために,地名(都道府県市郡名)を対象事象とした実験において,平均相互情報量,自己相互情報量,非対称平均相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度との性能比較を行う.実験では,三種類のコーパスを用いる.一つ目は実際に地名間にある一対多関係から合成する人工的なデータ集合である.二つ目も実際の関係から合成するが,誤った関係を導く少量の要素も含むデータ集合である.三つ目は現実の新聞記事コーパスから得られるデータ集合である.これらの評価実験において,補完類似度がもっとも優れており,補完類似度は一対多関係の推定問題に対して有効であることを示す.}
V17N01-07
形態素解析や構文解析など自然言語処理の要素技術は成熟しつつあり,意味解析・談話解析といった,より高次な言語処理の研究が盛んになってきた.特に文の意味理解のためには「誰が」「何を」「誰に」といった要素(項)を同定することが重要である.動詞や形容詞を対象にした項構造解析のことを述語項構造解析と呼ぶが,文中の事態を表す表現は動詞や形容詞の他にも名詞も存在することが知られている.そこで,我々は日本語の名詞を対象とした項構造解析タスクを取り上げ,機械学習を用いた自動的な解析手法を提案する.日本語の事態性名詞には事態を指すか否か曖昧性のある名詞があるため,まず事態性の有無を判定する事態性判別タスクと項同定タスクの2つに分解し,それぞれ大規模なコーパスから抽出した語彙統語パターンを用いた手法と述語・事態性名詞間の項の共有現象に着目した手法を提案する.
V14N01-06
日本語には,複数の語がひとかたまりとなって,全体として1つの機能的な意味を持つ表現が多数存在する.このような表現は機能表現と呼ばれ,日本語文の構造を理解するために非常に重要である.本論文では,形態素を単位とするチャンク同定問題として機能表現検出タスクを定式化し,機械学習手法を適用することにより,機能表現の検出を実現する方法を提案する.SupportVectorMachine(SVM)を用いたチャンカーYamChaを利用して,機能表現の検出器を実装し,実際のタグ付きデータを用いて性能評価を行った.機能表現を構成している形態素の数の情報,機能表現中における形態素の位置情報を素性として参照することにより,F値で約92という高精度の検出器を実現できることを示す.
V08N04-01
{\bf了解}という言語現象が言語行為の分析にとって重要であることが,Austinによって指摘された.しかし了解に関しては,これまで十分な分析が行なわれてこなかった.本論文では,{\bf了解}の語用論的な分析を行った.語用論的な分析をするためにAustinとSearleによる言語行為論の拡張を行い,拡張言語行為論の枠組みを提案した.その枠組みには以下のような特徴がある.\begin{itemize}\item新たに二つの概念要素({\bf隠蔽された命題行為}と{\bf意図})を既存の言語行為論に取り入れている.\item既存の言語行為論における発語媒介行為と発語媒介的効果を,それぞれ,二種類の行為および四種類の効果に分割している.\end{itemize}その結果,拡張言語行為論の枠組みは13の概念要素からなることになった.提案した枠組みに基づいて,了解の代表的表現のひとつである「はい」の意味の多様性を,了解の過程・程度を軸にして語用論的に分析した.分析の結果,{\bf了解の程度}には八つの段階,{\bf了解の過程}には七つの段階があることが明らかになった.
V26N01-03
本稿ではオンライン議論における談話行為を分類するモデルを提案する.提案モデルでは談話行為を分類するために,ニューラルネットワークを用いて議論のパターンを学習する.談話行為の分類において議論のパターンを取り入れる重要性は既存の研究においても確認されているが,対象としている議論に併せたパターン素性を設計する必要があった.提案モデルではパターン素性を用いずに,木構造およびグラフ構造を学習する層を用いて議論のパターンを学習する.提案モデルをRedditの談話行為を分類するタスクで評価したところ,従来手法と比較してAccuracyで1.5\%,$\mathrm{F}_{1}$値で2.2ポイントの性能向上を確認した.また,提案モデル内の木構造学習層およびグラフ構造学習層間の相互作用を確認するため,提案手法の中間層を注意機構を通じて分析した.
V26N02-07
本論文では,従来の文節依存構造(文節係り受け)による構文解析と異なり,解析結果の部分構造が構文の構成素(constituent)と一致し,解析結果から文法機能情報を直接取得できる日本語の構文解析を提案する.提案する構文解析は,単語間の依存構造に基づき,依存構造に付加されたラベル(文法機能タイプ)により格関係や連体修飾節の種別等の統語情報(文法機能情報)を表示する.この特徴により,文節依存構造解析では通常別工程として処理していた述語項構造解析を,単語依存構造解析では構文構造と自然に統合して扱うことが可能になる.京都大学テキストコーパス,現代日本語書き言葉均衡コーパスの一部に対して構築したコーパスを用いた評価実験により,単語依存構造解析は,従来の文節依存構造解析とほぼ同等の精度を保ちつつ,述語項構造情報等の詳細な統語情報を獲得可能であることを報告する.
V17N01-02
地名等の固有名詞は自然言語処理における未知語処理問題の要因の一つであり,これを自動的に認識する手法が盛んに研究されている.本稿では,地名の所属国を自動的に推定することで,未知語としてノイズの原因となる可能性のある地名語句に情報を与えることを目的とする.固有名詞である地名の認識では地名辞書が用いられることが多いが,辞書ベースの手法では,辞書未登録語の問題が避けられない.不特定多数の外国の地名も含めた所属国の推定の実現のため,本稿では,地名辞書や文脈情報を全く使用せず,地名の表層情報のみを利用して,地名の所属国を自動的に判別する手法を提案する.地名については,言語的な類似性や地理的要因によって所属国の判別が困難な場合がある.本稿ではこの点に着目し,所属可能性の低い国の除去による候補の絞込み処理と,所属可能性の高い候補の選択処理との組合せによって,再現率を高く保ったまま適合率の向上を実現した.
V15N02-04
日本語には,「にたいして」や「なければならない」に代表されるような,複数の形態素からなっているが,全体として1つの機能語のように働く複合辞が多く存在する.われわれは,機能語と複合辞を合わせて機能表現と呼ぶ.本論文では,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,日本語機能表現を言い換える手法を提案する.ほとんどの機能表現は,多くの形態的異形を持ち,それぞれの異形は,その文体として,常体,敬体,口語体,堅い文体のいずれかをとる.1つの文章においては,原則として,一貫して1つの文体を使い続けなければならないため,機能表現を言い換える際には,文体を制御する必要がある.また,文章読解支援などの応用においては,難易度の制御は必須である.実装した言い換えシステムは,オープンテストにおいて,入力文節の79\%(496/628)に対して,適切な代替表現を生成した.
V09N03-07
\quadシステムの出力した要約そのものを評価する方法は,一般に内的な評価と呼ばれている.これまでの典型的な内的な評価の方法は,人手で作成した抜粋と要約システムの出力との一致度を,F-measure等の尺度を用いて測ることで行われてきた.しかし,F-measureは,テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価が大きく変化する,という問題点がある.本研究では,この問題点を解消するいくつかの評価方法をとりあげ,その有用性に関する議論を行う.F-measureの問題点を解消する評価方法の1つにutilityに基づく評価があるが,この方法では評価に用いるデータ作成にコストがかかるという問題がある.本研究では,あるテキストに関する複数の要約率のデータを用いることで,疑似的にutilityに基づく評価を実現する方法を提案する.提案する評価方法を,第2回NTCIRワークショップ自動要約タスク(TSC)のデータに適用し,有用性に関する調査を行った結果,提案方法は,F-measureの問題点をある程度改善できることが確認された.次に,F-measureの問題点を解消する他の評価方法の一つであるcontent-basedな評価を取り上げる.content-basedな評価では,指定された要約率の正解要約を一つだけ用意すれば評価可能であるため,utilityに基づく評価に比べ,被験者への負荷が少ない.しかし,この評価方法で2つの要約を比較する場合,どの程度意味があるのかについては,これまで十分な議論がなされていない.そこで,pseudo-utilityに基づく評価と同様にTSCのデータを用い,content-basedな評価の結果を被験者による主観評価の結果と比較した結果,2つの要約がcontent-basedな評価値で0.2以上の開きがあれば,93\%以上の割合で主観評価の結果と一致することが分かった.
V29N03-07
%修辞構造解析ではニューラルネットワークなどの識別器を用いた解析器を教師あり学習により学習する.しかし,現存の最大規模のコーパスであるRST-DTは385文書しかなく,ニューラルネットワークを学習するに十分な量とは言い難い.このような学習データの不足は,クラス数が多く頻度に偏りのある修辞関係ラベルの推定において性能低下の原因となる.そこで,本論文では自動的に修辞構造を付与した疑似正解データセットを利用したニューラル修辞構造解析手法を提案する.疑似正解データセットは複数の解析器により得られた修辞構造木の間で共通する部分木とし,ニューラル修辞構造解析器の事前学習に利用し,人手で作成した正解データを用いて解析器を追加学習する.RST-DTコーパスを用いた実験では,提案手法はOriginalParsevalによる核性と修辞関係の評価においてそれぞれmicro-F1で64.7,54.1を達成した.
V10N04-06
本論文では,機械学習の一手法であるサポートベクタマシンを用いて文対応付き対訳コーパスから対訳表現を抽出する手法を提案する.サポートベクタマシンは従来からある学習モデルに比べて汎化能力が高く過学習しにくいためにデータスパースネスに対して頑健であり,カーネル関数を用いることによって素性の依存関係を自動的に学習することができるという特徴を持つ.本手法では対訳モデルの素性として,対訳辞書による素性,語数による素性,品詞による素性,構成語による素性,近傍に出現する語による素性を使用し,サポートベクタマシンに基づく対訳表現の対応度を用いて対訳表現を抽出する.既存の手法は対訳表現の対応度の計算に単語の共起関係を利用しているためにデータスパースネスに陥りやすく,低頻度の対訳表現の抽出は困難であるのに対して,本手法は,訓練コーパスによって対訳モデルをあらかじめ学習する必要があるが,一旦モデルを学習してしまえば低頻度の対訳表現でも抽出が可能であるという特徴を持つ.
V17N02-02
本論文では,日本語書き言葉を対象とした述語項構造と照応関係のタグ付与について議論する.述語項構造解析や照応解析は形態素・構文解析などの基盤技術と自然言語処理の応用分野とを繋ぐ重要な技術であり,これらの解析のための主要な手法はタグ付与コーパスを用いた学習に基づく手法である.この手法を実現するためには大規模な訓練データが必要となるが,これまでに日本語を対象にした大規模なタグ付きコーパスは存在しなかった.また,既存のコーパス作成に関する研究で導入されているタグ付与の基準は,言語の違いや最終的に出力したい解析結果の粒度が異なるため,そのまま利用することができない.そこで,我々は既存のいくつかのタグ付与の仕様を吟味し,述語項構造と共参照関係のアノテーションを行うためにタグ付与の基準がどうあるべきかについて検討した.本論文ではその結果について報告する.また,京都コーパス第3.0版の記事を対象にタグ付与作業を行った結果とその際に問題となった点について報告する.さらにタグ付与の仕様の改善案を示し,その案にしたがい作業をやり直した結果についても報告する.
V25N02-01
本論文では,ニューラル翻訳モデルで問題となる出力層の時間・空間計算量を,二値符号を用いた予測法により大幅に削減する手法を提案する.提案手法では従来のソフトマックスのように各単語のスコアを直接求めるのではなく,各単語に対応付けられたビット列を予測することにより,間接的に出力単語の確率を求める.これにより,最も効率的な場合で従来法の対数程度まで出力層の計算量を削減可能である.このようなモデルはソフトマックスよりも推定が難しく,単体で適用した場合には翻訳精度の低下を招く.このため,本研究では提案手法の性能を補償するために,従来法との混合モデル,および二値符号に対する誤り訂正手法の適用という2点の改良も提案する.日英・英日翻訳タスクを用いた評価実験により,提案法が従来法と比較して同等程度のBLEUを達成可能であるとともに,出力層に要するメモリを数十分の1に削減し,CPUでの実行速度を5倍から10倍程度に向上可能であることを示す.
V07N05-05
本論文では,我々が現在公開している自然言語解析用ツール「MSLRパーザ・ツールキット」の特徴と機能について述べる.MSLRパーザは,一般化LR法の解析アルゴリズムを拡張し,日本語などの分かち書きされていない文の形態素解析と構文解析を同時に行うツールである.MSLRパーザを用いて解析を行う際には,まずLR表作成器を用いて,文法と接続表からLR表を作成する.このとき,LR表作成器は,接続表に記述された品詞間の接続制約を組み込んだLR表を生成する.このため,接続制約に違反する解析結果を受理しないLR表が作られるだけでなく,LR表の大きさを大幅に縮小することができる.次に,MSLRパーザは,作成されたLR表と辞書を用いて辞書引きによる単語分割と構文解析を同時に行い,その結果として構文木を出力する.さらに,MSLRパーザは,文中の括弧の組によって係り受けに関する部分的な制約が与えられた文を入力とし,その制約を満たす構文木のみを出力する機能を持つ.また,文脈依存性を若干反映した言語モデルのひとつである確率一般化LRモデル(PGLRモデル)を学習し,個々の構文木に対してPGLRモデルに基づく生成確率を計算し,解析結果の優先順位付けを行う機能も持つ.
V29N02-02
%本論文では,言い換えが複数存在する化合物名称の固有表現抽出(NER)の精度を向上するため,NERモデルと化合物名を含む文の言い換えモデルを同時に学習するマルチタスク学習を提案する.提案手法では,longshort-termmemory(LSTM)に基づくエンコーダーおよび単語・文字embeddingパラメータを,NERモデルと言い換えモデルで共有することで,NERモデルにおいて,化合物名の言い換えを捉えることができるようにする.化合物名抽出タスクBioCreativeIVCHEMDNERトラックで評価した結果,本言い換え学習が精度改善に貢献することが確認された.
V11N02-03
講演音声のような話し言葉の書き起こしや音声認識結果には、話し言葉特有の表現が数多く含まれており講演録などのアーカイブとして二次利用しにくいため、文章として適した形態に整形する必要がある。本稿では、統計的機械翻訳の考え方に基づいて講演の書き起こしを整形された文章に自動的に変換する方法を提案する。本研究で扱う処理は、フィラーの削除、句点の挿入、助詞の挿入、書き言葉表現への変換、文体の統一である。これらの処理を統合的に行うようにビームサーチを導入した。実際の講演の書き起こしを用いた定量的な評価により統計的な手法の有効性が示され、句点と助詞の挿入に関して高い精度を得ることができた。
V15N01-04
コンピュータとの人間らしい会話のために,代表的な応答事例を知識として与え,文章の可変部を連想によって変化させることができれば,より柔軟で多種多様な会話ができると考えられる.しかし,機械的な語の組み合わせに起因する一般的に見て不自然な語の組み合わせの応答を生成する恐れがある.本論文では,機械的に作成した応答文の内,名詞と形容語の関係に注目し,違和感の有無の観点からその関係を整理することで,形容語の使い方の知識構造をモデル化する.更に,その知識構造を用いて,合成した会話応答文中の違和感のある組み合わせの語を検出する手法を提案する.本稿の手法を用いることで,形容語の違和感のある使い方の判定に関し,87\%の高い精度を得,有効な手法であることを示した.
V14N04-03
文章推敲に関する従来研究では,主に,タイプミス,構文構造の複雑さ,表記の揺れを指摘する手法など,表記レベルと統語レベルの手法に重点がおかれていた.それに対して,本研究では,読みやすさを向上させるために,説明が不足していて論理展開が読み取りにくいと感じられる箇所を検出する技術を扱う.文章としては情報を正確に伝達するための仕事文(仕事用の文)を対象として,文単位での情報不足を推敲対象とする.この課題は意味処理に踏み込むため,これまで十分研究が行われてこなかった.なお,語用論の「協調の原理」によれば,量の格率と呼ばれる情報不足と情報過多に関する遵守すべき原則がある.このうち情報過多を扱わない理由は,情報過多が,冗長な情報を無視するのに基づく読者の負担を増やすだけであるのに対し,情報不足は理解困難という深刻な事態を招き,重要性が高いためである.実験準備から解析に至る流れは,次の通りである.まず,原文から連体修飾部を欠落させた課題文を生成し,次に,被験者にその箇所に情報不足を感じるかどうかを判定させ正解判定データを作成した.その後,正解判定データの一部から機械学習を行い,残りのデータを機械判定させる.機械判定に用いる主な素性として,修飾部の欠落箇所におけるつながりの滑らかさに関係した語の連鎖に関する統計量を取り上げた.約1,000箇所の判定課題に対し,SVMによる機械学習アルゴリズムを用いた自動判定により正解率を測定した結果,機械判定の正解率として,ベースライン50{\kern0pt}%,上限(人間の評価のバラツキから上限を定義)76{\kern0pt}%に対し,10-foldcrossvalidationで67{\kern0pt}%の正解率を得た.
V10N02-06
従来,ベクトル空間法において,ベクトルの基底数を削減するため,ベクトルの基軸を変換する方法が提案されている.この方法の問題点として,計算量が多く,大規模なデータベースへの適用が困難であることが挙げられる.これに対して,本論文では,特性ベクトルの基底として,単語の代わりに単語の意味属性(「日本語語彙大系」で規定された約2,710種類)を使用する方法を提案する.この方法は,意味属性間の包含関係に基づいた汎化が可能で計算コストもきわめて少なく,容易にベクトルの次元数を圧縮できることが期待される.また,単語の表記上の揺らぎに影響されず,同義語,類義語も考慮されるため,従来の単語を基底とする文書ベクトル空間法に比べて,検索漏れを減少させることが期待される.BMIR-J2の新聞記事検索(文書数約5,000件)に適用した実験結果によれば,提案した方法は,次元数の削減に強い方法であり,検索精度をあまり落とすことなく,文書ベクトルの基底数を300〜600程度まで削減できることが分かった.また,単語を基底とした文書ベクトルの方法と比べて高い再現率が得られることから,キーワード検索におけるKW拡張と同等の効果のあることが分かった.
V06N02-03
本論文では,日本語連続音声認識用のN-gram言語モデルの学習に用いる形態素データを,テキストデータから自動的に生成することを目的として,品詞および可変長形態素列の複合N-gramを用い,日本語テキストデータを自動的に形態素解析する手法を提案する.複合N-gramは,品詞,形態素,形態素列を単位としたN-gramで,少ないデータ量から高い予測精度を持つ言語モデルである.また,品詞から未知語が出現する確率を定式化することにより,未知語の形態素解析を行えるようにモデルの改良を行った.形態素解析実験の結果,複合N-gramの形態素同定率は最高99.17\%で,従来のルールベースによる方法よりも正確に形態素の同定が行えることが判明し,提案手法の有効性を確認した.また,読みまで含めた評価を行った場合でも,最高98.68\%の正解率が得られた.未知語を含む文の形態素解析では,全ての語いが辞書に登録されている場合と比較して0.8\%程度の低下に抑えることができた.
V30N01-04
%高性能な言語理解モデルを開発するためには,言語理解の能力を様々な観点から評価し分析するためのベンチマークが必要である.英語においては,GLUE\cite{wang-etal-2018-glue}が先駆けとして構築されており,中国語版のCLUE\cite{xu-etal-2020-clue}やフランス語版のFLUE\cite{le-etal-2020-flaubert-unsupervised}など,各言語におけるベンチマーク構築も進んでいるが,日本語においてはGLUEのようなベンチマークは存在せず,日本語自然言語処理において大きな問題となっている.本研究では,一般的な日本語言語理解能力を測ることを目的として,翻訳を介することなく,日本語で一から言語理解ベンチマークJGLUEを構築する.JGLUEは文章分類,文ペア分類,QAの3種類のタスクから構成される.本ベンチマークによって日本語における言語理解研究が活性化することを期待する.
V30N02-15
%本論文では,ニューラルネットエンコーダが学習する知識のうち,どのような構造的知識が自然言語のタスクを解くのに転移可能かを調査する.提案するアプローチでは,自然言語の構造を模したいくつかの「人工言語」を用いてエンコーダを訓練し,そのエンコーダの自然言語の下流タスクにおける性能を評価することで,事前学習データに含まれている構造的知識の転移可能性を計測する.実験の結果,転移可能なエンコーダを獲得するにあたって,事前学習のデータ系列中において,統計的依存関係が重要であること,係り受け関係を持つ際に入れ子構造が有用であることなどが明らかとなった.こうした結果は,エンコーダが転移可能な抽象的な知識として,位置を考慮したトークンの文脈依存性があることを示唆している.
V32N01-03
%どのような単語がメタファーとして使われやすいかについて,言語学においていくつかの仮説が存在する.しかし,大規模なコーパスに含まれる,日常的かつ多様なテキスト表現に対してこれらの仮説を検証した研究は少ない.本研究ではWebデータを収集した大規模なコーパスであるCommonCrawlから抽出した文に自動メタファー判別器を適用することによって,メタファーに関する既存の仮説について大規模コーパスに基づく検証と分析を行う.具体的には,動詞メタファーの目的語の具象度,心像度,親密度に関する3つの仮説と,メタファーが含まれる文における感情および主観性に関する2つの仮説の合計五つの仮説を検証する.検証を通じて,これら5つの仮説がすべて成立し,目的語の具象度,心像度,親密度が低い動詞のほうが,メタファーとなりやすいことや,感情,主観性を持つ文の方がメタファーが使われやすいことを示す.\renewcommand{\thefootnote}{}\footnote[0]{本論文は,NAACL2024\cite{Aono2024},および情報処理学会第258回NL研で発表した論文\cite{Aono2023}を基にしたものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V14N01-04
キーワード抽出は情報検索に不可欠な技術の一つである.例えば,検索速度の短縮や検索精度の改善に利用される.既存のキーワード抽出法としては,語の統計情報や文書の構文上の特徴に基づくものなどがある.その中で,辞書を一切用いず,反復度と呼ばれる統計量のみに基づくキーワード抽出法がある.この方法には,文書数に上限があるとき複合語が一般的な語に分割されて,長いキーワードとして抽出できないという問題がある.そこで本論文では,質問拡張のアイデアを利用して複数文書への繰り返し出現という考えを導入する.そして,この考えを元にキーワード抽出法を提案する.結果として,提案したキーワード抽出法のF値は上がった.また,これまでに取れなかったキーワードが取れるようになった.結論として,キーワード抽出における文書拡張の有用性を報告する.
V13N04-02
本論文では,単語リストと生コーパスが利用可能な状況における確率的言語モデルの分野適応について述べる.このような状況の下での一般的な対処は,単語リストを語彙に加えた自動単語分割システムによる生コーパスの自動単語分割の出力文を可能な限り人手で修正し,パラメータ推定に利用することである.しかしながら,文単位での修正では,正確な単語分割が容易でない箇所が含まれることになり,作業効率の著しい低下を招く.加えて,文単位で順に修正していくことが,限られた作業量を割り当てる最良の方法であるかということも疑問である.本論文では,コーパスの修正を単語単位とし,修正箇所を単語リストで与えられる適応分野に特有の単語に集中することを提案する.これにより,上述の困難を回避し,適応分野に特有の単語の統計的な振る舞いを捕捉するという,適応分野のコーパスを利用する本来の目的にのみコーパス修正の作業を集中することが可能となる.実験では,自動単語分割の結果の人手による修正の程度や方法を複数用意し,その結果得られるコーパスから推定された確率的言語モデルの予測力やそれに基づく仮名漢字変換の精度を計算した.この結果,適応分野に特有の語彙の出現箇所に修正のコストを集中することにより,少ない作業量で効率良く確率的言語モデルを分野適応できることが分かった.
V13N03-10
現代の日本社会において,日本語の敬語に関する様々な誤用が指摘されてきている.日本社会における敬語の誤用は,言語によるコミュニケーションを通じた社会的人間関係の構築を妨げる場合がある.敬語の誤用を避けるには,敬語の規範に関する正しい知識の習得が不可欠である.このような知識習得を効率的に行うため,敬語学習を支援する計算機システムの実現が期待される.このような背景の下,我々は日本語発話文に含まれる語形上の誤用,及び運用上の誤用を指摘するシステムを開発した.本システムは,日本語発話文,及び発話内容に関係する人物間の上下関係を表すラベルを入力とし,入力された日本語発話文における誤用の有無,及び誤用が含まれる場合にはその箇所と種類を出力する.発話に関わる人数は最大4名まで取り扱うことができる.正例,及び負例を用いた実験によってシステムの妥当性を検証したところ,一部のケースを除き,本システムが妥当な出力を行うことが確認された.本システムは,特に敬語の初学者に対する学習支援システムとして有用と考えられるが,その他の人々にとっても,文書作成における敬語の語形のケアレスミスをチェックする等の用途として幅広く活用できると考えられる.
V29N04-04
本論文では,生化学分野における一人称の実験映像データセットであるBioVL2データセットを提案する.BioVL2データセットは生化学における4種類の基本的実験に対し,それぞれ8動画撮影した合計32,総時間2.5時間の映像からなるデータセットである.各映像はプロトコルと紐づいており,言語アノテーションとして(1)視覚と言語の対応関係のアノテーション,(2)プロトコル中に現れる物体の矩形アノテーションの2種類のアノテーションを付与している.構築したデータセットの応用例として,本研究では実験映像からプロトコルを自動生成する課題に取り組んだ.定量的,定性的な評価の結果,開発した手法はフレームに映っている物体名をそのままプロトコルとして出力する弱いベースラインと比較して,適切なプロトコルを生成できることを確認した.なお,BioVL2データセットは研究用途に限定してデータセットを公開する予定である\footnote{本論文は\cite{nishimura2021iccvw}で発表したBioVLデータセットの拡張版である.拡張内容については,1節の最終段落を参照されたい.}.
V10N05-02
本稿は,「思い込み応答」戦略を取り入れた大語彙音声対話インタフェースを提案する.この戦略は,人間同士の対話において発話対象が広範囲に及ぶ場合,聞き間違えにくい対象と間違えやすい対象が存在することに着目したもので,聞き間違えやすい対象を誤認識しても利用者にストレスを与えないことを利用している.大語彙として16万種の個人姓に焦点を当て,音声認識精度と語彙網羅率の観点から,聞き間違えてはならない10,000種の思い込み対象を選択できた.更に,思い込みが外れた場合への対応として,思い込みの結果を利用者に応答として提示している時間を利用して,思い込み範囲外の残りの姓を対象とした裏認識処理を並行して進める仕組みを提案した.市販の認識エンジンを利用して,この仕組みと思い込み応答を組み合わせた個人姓確定インタフェースを実装した.思い込み応答は,現状の音声認識技術を用いたインタフェースにおいて,入力対象が大語彙であってもストレスを与えない結果を利用者に提示できる戦略であることを確認した.
V24N01-05
本論文では,ユーザからの自然文による問い合わせを対応するFrequentlyAskedQuestion(FAQ)に分類する文書分類器を用いたFAQ検索手法を提案する.本文書分類器は,問い合わせ中の単語を手掛かりに,対応するFAQを判別する.しかし,FAQの多くは冗長性がないため,FAQを学習データとして文書分類器を作成する方法では,ユーザからの多様な問い合わせに対応するのが難しい.そこで,この問題に対処するために,蓄積されたユーザからの問い合わせ履歴から学習データを自動生成し,文書分類器を作成する.さらに,FAQおよび文書分類用に自動生成した学習データを用いて,通常使われる表層的な手がかりに加えて,本文書分類器の出力を考慮するランキングモデルを学習する.ある企業のコールセンターの4,738件のFAQおよび問い合わせ履歴54万件を用いて本手法を評価した.その結果,提案手法が,pseudo-relevancefeedbackおよび,統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較し,高いランキング性能を示した.
V08N02-03
コンピュータに人間のような常識的判断を行わせるための主要素は,概念ベースおよび概念間の関連性に基づく概念連鎖機能であると考えられる.概念ベースは,自動学習などにより恒常的に拡張・精錬を行わなければならないために,その構造はできるだけ単純なものが望ましい.本論文では,概念間の関連度を評価するための新しい手法を提案している.従来の手法では,概念はその1次属性のベクトルモデルとして表現され,関連度はベクトル間の内積により求められている.そのような従来手法では,各1次属性をカテゴリーに変換しなければならないためシソーラスなどのカテゴリーデータベースが必要となる.提案手法では,関連度をカテゴリーを利用せず概念連鎖により求めている.約4万の概念よりなる概念ベースを用いた実験により,提案手法はベクトル内積を用いる方法に比べ正解率の面でやや優れる上に,概念知識の追加/変更が容易で利用を通じての質の向上が図れることを示した.
V24N01-01
高齢者の認知症や孤独感の軽減に貢献できる対話ロボット開発のため,回想法に基づく傾聴を行う音声対話システムの開発を行った.本システムは,ユーザ発話の音声認識結果に基づき,相槌をうったり,ユーザ発話を繰り返したり,ユーザ発話中の述語の不足格を尋ねたりする応答を生成する.さらに,感情推定結果に基づき,ユーザ発話に対して共感する応答を生成する.本システムの特徴は,音声認識結果に誤りが含まれることを前提とし,音声認識信頼度を考慮して応答を生成する点である.110名の一般被験者に対する評価実験の結果,「印象深い旅行」を話題とした場合で,45.5\%の被験者が2分以上対話を継続できた.また,システムの応答を主観的に評価した結果,約77\%のユーザ発話に対して対話を破綻させることなく応答生成ができた.さらに,被験者へのアンケートの結果,特に高齢の被験者から肯定的な主観評価結果が得られた.
V24N04-04
ドメイン適応は,機械翻訳を実用に使用するときの大きな課題の一つである.本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案する.本稿の方式は,カバレッジが広い(未知語が少ない)コーパス結合モデルと,素性関数の精度がよい単独ドメインモデルを併用する.これらを,機械学習のドメイン適応に用いられている素性空間拡張法の考え方で結合する.従来の機械翻訳における素性空間拡張法は,単一のモデルを用いていたが,本稿の提案方式は,複数のモデルを用いることにより,両者の利点を活かすことが特徴である.実験では,単独ドメインモデルに比べ,翻訳品質が向上または同等を保持した.提案法は,当該ドメインの訓練コーパスが小規模である場合に高い効果を持ち,100万文規模の大規模コーパスを持つドメインへの適応に使用しても,翻訳品質を下げることなく,ドメインによっては品質向上の効果がある.基本的な対数線形モデルでも,モデルの選択と設定を適切に行うことで,最先端品質の適応方式が実現できることを示す.
V30N04-03
%数値を処理できる言語モデルは実用的,科学的のどちらの観点から見ても興味深いものである.そのような言語モデルのより深い理解のためには,「どのような問題が解けるのか」ということだけでなく,「モデル内部でどのような処理が行われているか」という観点も重要である.本研究は単純な数式とその途中結果に着目することで,Transformerモデルが数学的能力を獲得し,複数ステップに及ぶ処理を行っているかを検証する.途中結果の情報が符号化されている箇所を追跡(Tracing)し,符号化されている箇所の状態を操作(Manipulation)してモデルに対して因果的介入を行うという二つの実験を行った結果,内部表現の特定の方向が線形に近い形で途中結果を符号化していること,そしてそのような方向がモデルの推論結果に対して因果的にも関係していることを示す.本手法は数学的な問題に対するモデルの解釈可能性を高めることにも繋がる.\renewcommand{\thefootnote}{}\footnote[0]{本論文は言語処理学会第28回年次大会,The1stWorkshoponMathematicalNaturalLanguageProcessingで発表した論文を基にしたものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V08N03-05
代名詞を含む英文を日本語として適格で自然な文に翻訳するためには,英語の代名詞を日本語の代名詞としてそのまま表現せず,ゼロ代名詞化したり他の表現に置き換えたりする必要がある.ゼロ代名詞化に関しては,人手で記述された規則による方法が既に提案されている.本稿では,1)ゼロ代名詞化に加え,他の表現に置き換えるべき場合も扱い,2)規則を人手で記述するのではなく,決定木学習によって自動的に学習する方法を示す.学習に利用する属性は,ゼロ代名詞化に関してこれまでに解明されている言語学的制約や,ゼロ代名詞の復元に関する工学的研究で着目された手がかりを参考にして選択した.提案手法を我々の英日機械翻訳システムPowerE/Jによる訳文に対して適用したところ,ゼロ代名詞化するか否かの判定を行なう場合の精度が79.9\%,ゼロ代名詞化するか否かに加え他の表現に書き換えるか否かの判定も行なう場合の精度が72.2\%となり,人手で記述された規則の精度に近い精度が得られた.また,選択した属性には,書き換え精度を低下させる属性は含まれておらず,ゼロ代名詞化に関する言語学的制約だけでなく,ゼロ代名詞の復元に関する手がかりも利用できることが明らかになった.
V26N01-01
UniversalDependencies(UD)は,共通のアノテーション方式で多言語の構文構造コーパスを言語横断的に開発するプロジェクトである.2018年6月現在,約60の言語で100以上のコーパスが開発・公開されており,多言語構文解析器の開発,言語横断的な構文モデルの学習,言語間の類型論的比較などさまざまな研究で利用されている.本稿ではUDの日本語適応について述べる.日本語コーパスを開発する際の問題点として品詞情報・格のラベル・句と節の区別について議論する.また,依存構造木では表現が難しい,並列構造の問題についても議論する.最後に現在までに開発したUD準拠の日本語コーパスの現状を報告する.
V31N03-08
%雑談では,感想を述べる発話が対話の盛り上がりに寄与することが知られている.しかし,話題や相手の発話に対して自然かつ共感を得られるような感想の生成は,話題や相手発話の理解に加え,それらから妥当な感想を推論するための常識的知識などの活用が求められるため,挑戦的な課題と言える.我々は,対話の話題に対する実際の人々の感想を外部情報として用いることで,対話文脈に対して適切な感想を生成できる対話システムの実現を目指す.本論文では,適切な感想の選択や,その感想を使った発話の生成をシステムに学習させることが可能な「感想付きニュース雑談コーパス」を構築した.本コーパスには,「話題であるニュース記事」,「ニュース記事に対する人の感想」,「対話」の三つ組みが$1,005$件収録されている.各対話はWizardofOz法で収集され,システム役の話者はSNSに書かれた人の感想を発話に取り入れながら対話している.本コーパスを用いて,人々の感想を外部情報として発話を生成するシステムを学習した結果,従来法に比べて文脈に対して自然な発話ができ,かつ感想を含む発話を多く生成できていることが分かった.加えて,これらのシステムにより生成された発話は,雑談を盛り上げるような発話となっていることが明らかとなった.
V21N02-03
我々は,利用者が信憑性を判断する上で必要となる情報をWeb文書から探し出し,要約・整理して提示する,情報信憑性判断支援のための要約に関する研究を行っている.この研究を行う上で基礎となる分析・評価用のコーパスを,改良を重ねながら3年間で延べ4回構築した.本論文では,人間の要約過程を観察するための情報と,性能を評価するための正解情報の両方を満たすタグセットとタグ付与の方法について述べる.また,全数調査が困難なWeb文書を要約対象とする研究において,タグ付与の対象文書集合をどのように決定するかといった問題に対して,我々がどのように対応したかを述べ,コーパス構築を通して得られた知見を報告する.
V16N04-02
日本語におけるモダリティ形式および推量副詞と文末モダリティ形式との共起についての体系的な研究は自然言語処理の分野において不十分である.さらに,このような情報は日本語教育の分野においても十分カバーされていない.本稿では,コーパス検索ツールSketchEngine(SkE)を利用した日本語の推量副詞とモダリティ形式の遠隔共起の抽出を可能にすることとその日本語教育,特に日本語学習辞典への応用の可能性を示すことを目的とする.そのためにまず,複数のコーパスを分析した結果として,モダリティ形式とそのバリエーションの網羅的なリストを作成した.このモダリティ形式はChaSenでどのように形態素解析されているかを調査し,各モダリティ形式の様々な形態素を新しいモダリティのタグとしてまとめることによって,ChaSenで形態素解析されているJpWaCという大規模ウェブコーパスから抽出した2千万語のサンプルへタグの再付与を行った.最後に,新しくタグ付けされたコーパスをコーパス検索ツールSkEに載せ,「文法関係ファイル」の内容を変更することで,推量副詞と文末モダリティの共起の抽出を可能にした.抽出された共起の結果は93\%以上の精度で高く評価された.得られた結果は言語資源を利用しての日本語教育への応用の一例として,日本語教育における辞書編集をはじめ様々な教育資源の作成のために,あるいは教室における直接的に利用可能となることを示した.
V31N02-16
本研究では,Web上に公開されている国会および地方議会の会議録を収集し,大規模な会議録コーパスを構築した.また,会議録コーパスを用いて,いくつかの派生系を含む日本語の政治ドメインに適応した事前学習済み言語モデルを構築した.政治ドメインのタスクでは,提案モデルは従来のモデルよりも優れた性能を示し,汎用ドメインのタスクでも,提案モデルは従来のモデルに匹敵する性能を示した.また,追加の事前学習によるドメイン適応において,学習ステップ数の増加が性能の向上に影響を大きく与えていることや,最初の事前学習で用いたコーパスも併用することで,非適応ドメインの性能を維持しつつ適応ドメインにおける性能を向上させることが可能であることを示した.\renewcommand{\thefootnote}{}\footnote[0]{本研究の一部は,電子情報通信学会技術研究報告言語理解とコミュニケーション研究会(c)ICICE2023\cite{nagafuchi-2023-nlc}に基づく.}\renewcommand{\thefootnote}{\arabic{footnote}}
V09N01-06
日英機械翻訳において,翻訳が難しいと見られる抽象名詞,「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」の6種類を対象に,文法的用法と意味的用法を分類し,英語表現との対応関係を検討した.具体的には,名詞「の」は,意味的に他の抽象名詞に置き換えられる場合(交替現象)の多いことに着目して,置き換え先となる抽象名詞の種類と置き換え可能となる条件について検討した.次に,置き換え後の5種類の抽象名詞の用法を「語彙的意味の用法」,「文法的意味の用法」に分け,このうち,「文法的意味の用法」を,さらに,「補助動詞的用法」と「非補助動詞的用法」に分類した.さらに,これらの分類を詳細化し,英語表現との対応関係を「日英対応表」にまとめた.交替現象の解析精度と「日英対応表」の精度を調べるため,新聞記事から抽出した抽象名詞の用例に適用した結果では,「の」の交替現象の解析精度は,97%,「日英対応表」の平均カバー率は89%,平均正解率は73%であった.
V14N04-01
本論文では,構文木をクエリとして与え,構文木付きコーパスからクエリと同じ構文木を部分木として含む文を検索する手法を提案する.構文木付きコーパスは,関係データベースに格納する.このような構造検索の過去の研究では,クエリの節点数が増加すると,検索時間が大幅に増加する問題があった.本論文で提案する手法は,節点数が多いクエリを部分木に分割し,漸進的に検索することで検索を効率化する.クエリの分割の単位やその検索順序は,検索対象となるコーパス中の規則の出現頻度をもとに自動的に決定する.本手法の有効性を確認するために7種類のコーパスを用いて評価実験を行ったところ,4種類のコーパスで分割の有効性が確認できた.
V16N02-02
本稿ではデータベース・ソフトウェアの1つであるFileMakerProによる,英語学習教材の自動作成における言語処理技術と教材作成の連携可能性を提案する.著者は,実際の英語の授業でも利用しやすいプリント教材や簡易E-learning教材を出力できるツールを開発し,無料公開している.これらのツールではGUI環境での操作が可能であるため,パソコン利用スキルが限られる一般の英語教員にも利用しやすく,任意の英文素材からPhraseReadingを軸とした精読教材およびClozeテストを利用した学習教材を短時間で作成することができる.
V31N02-09
ソーシャルメディアでの感情分析や感情的かつ共感的な対話システムの構築を目的として,対話における発話の感情認識ERC:EmotionRecognitioninConversationsが注目を集めている.ERCでは,似た内容を示す発話でも一連の発話の内容(文脈)に応じて異なる感情を示すことが知られている.文脈を把握する代表的な手法として,一連の発話を連結し識別モデルに入力する手法がある.この従来手法は,識別対象の発話とその先行文脈(対話)を入力し,識別モデル単体で対象の発話の感情ラベルを予測する特徴を持つ.本研究は,モデル外部のデータベースを活用して従来の識別モデルを補強する方法を提案する.具体的には,識別対象の発話と,意味的に近い発話を訓練セットから検索し,検索した発話(近傍事例)に付与された感情ラベルを基に確率分布を作成して,従来の識別モデルの確率分布と重み付き線形和によって組み合わせる.さらに本手法は,定数による重み付き線形和だけでなく,識別対象の発話ごとに動的に重み係数を変更する方法を提案する.評価実験において,ERCにおける3つのベンチマークデータで,動的に重み係数を変更する提案手法が,従来手法を上回る最高水準の認識性能を示した.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は言語処理学会第29回年次大会(石渡他2023)で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V30N02-07
%自然言語推論は,前提文が真であるとき,仮説文が真ならば含意,偽ならば矛盾,どちらともいえないならば中立であると判定するタスクであり,言語理解の基礎をなすタスクの一つである.数量表現が現れる文間の推論では,論理的含意と推意の間で判定が異なることがある.また否定文や条件文などの文脈に数量表現が現れる推論では,推論の向きが通常の文脈とは反転することが知られている.さらに日本語の数量表現は出現形式が柔軟であり,様々な助数辞の種類や数量表現の用法がある.しかし,これらの意味論的・語用論的特徴に着目したコーパス,及び,数量表現の理解を問うような推論データセットの構築は十分に進められていない.そこで本研究では,既存の日本語ツリーバンクに含まれる文を用いて,助数辞の種類,数量表現の出現形式,用法といった情報を付与したコーパスを構築する.その上で,このコーパスに基づき,日本語数量表現の推論データセットを構築する.また,構築した推論データセットを用いて,事前学習済み言語モデルである日本語BERTモデルが数量表現の理解を必要とする推論をどの程度扱えるかを調査する実験を行った.実験の結果,日本語BERTモデルは,様々な数量表現を含む推論の扱いについて課題があることを確認した.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は言語処理学会第28回年次大会\cite{nlp2022-koyano}およびThe18thJointACL-ISOWorkshoponInteroperableSemanticAnnotation\cite{isa18-koyano}で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V02N01-01
機械翻訳システムを使用して現実の文書を翻訳する場合,通常,翻訳対象文書に合った利用者辞書が必要となる.特に,高品質翻訳を狙った機械翻訳システムでは,各単語に対して,約2,000種以上の分解精度を持つ単語意味属性の付与が必要であると言われており,一般の利用者が,このような精密な情報を付与するのは困難であった.そこで本論文では,利用者が登録したい日本語名詞(複合名詞を含む)と英語訳語を与えるだけで,システムがシステム辞書の知識を応用して,名詞種別を自動的に判定し,それに応じた単語の意味属性を付与する方法を提案する.本方式を,新聞記事102文とソフトウエア設計書105文の翻訳に必要な利用者辞書作成に適用した結果,自動推定方式では,専門家の付与した意味属性よりも多くの属性が付与されるが,40〜80\%の再現率が得られることが分かった.また,人手で作成した利用者辞書を使用する場合と同等の訳文品質が得られることが分かった.以上の結果,利用者辞書作成への単語の登録において,最も熟練度の要求される単語意味属性付与作業を自動化できる見通しとなった.
V10N03-06
本論文では,機械翻訳における訳語選択の手法について述べる.我々のシステムは,入力文と対象単語が与えられたとき,翻訳メモリと呼ばれる対訳用例集合と入力文との類似度を求め,類似度が最大となる用例集合を用いて対象単語の訳語選択を行なう.類似度は,用例に基づく手法と機械学習モデルを用いて計算される.類似度の計算には,文字列の類似性や入力文における対象単語周辺の単語,入力文中の内容語とその訳語候補の対訳コーパスおよび日英の単言語コーパスにおける出現頻度などを考慮する.入力文と対象単語が与えられると,まず用例に基づく手法を適用し,類似した用例が見つからなかった場合に機械学習モデルを適用する.機械学習モデルは複数用意し,クロスバリデーションなどにより単語毎に最適な学習モデルを選択する.本論文では,2001年の春に開催された単語の多義性解消のコンテスト第2回\sc{Senseval}での結果をもとに,提案手法の有効性と,どのような情報が精度向上に有効であったかについて述べる.
V29N01-04
雑談対話応答生成システムの日々の改良が望ましい方向に効いているか継続的に評価するといった用途として,システムを低コストで評価できる自動評価の枠組みの確立が求められている.しかし,BLEUなど,応答生成の自動評価に広く用いられている既存の指標は人間との相関が低いことが報告されている.これは,一つの対話履歴に対し適切な応答が複数存在するという対話の性質に起因する.この性質の影響を受けにくいシステムの評価方法の一つに対話応答選択が考えられる.対話応答選択は,対話履歴に対し適切な応答を応答候補から選ぶタスクである.このタスクではシステムの応答が候補内の発話に限られるため,前述した対話の性質の影響を回避した評価が可能である.一般に対話応答選択では,対話履歴に対する本来の応答(正例)に加え,誤り候補(負例)を無関係な対話データから無作為抽出し応答候補を構成する.しかし,この方法では,正例とかけ離れすぎていて応答として不適切と容易に判別できる発話や,応答として誤りとはいえない発話が負例として候補に混入し,評価の有効性が低下する可能性がある.本論文では,負例を厳選することで不適切な負例の混入を抑制した対話応答選択テストセットの構築方法を提案する.構築したテストセットを用いた対話応答選択によるシステム評価が,BLEUなど既存の広く用いられている自動評価指標と比べ人手評価と強く相関することを報告する.
V06N06-01
本稿では,これまでの(主に領域に依存しない)テキスト自動要約手法を概観する.特に重要箇所の抽出を中心に解説する.また,これまでの手法の問題点を上げるとともに,最近自動要約に関する研究で注目を集めつつある,いくつかのトピックについてもふれる.
V08N03-07
日本語とウイグル語は共に膠着語であり,語順がほぼ同じであるなどの構文的類似性が見られる.そのため,日本語--ウイグル語機械翻訳においては,日本語文を形態素解析した後,逐語訳を行うだけでもある程度の翻訳が可能となる.これは,名詞や動詞などの自立語の文中での役割が助詞,助動詞といった付属語によって示されており,そうした付属語においても,日本語とウイグル語との間で対応関係があるからである.特に名詞に接続する格助詞は,文中での他の語との関係を決めるという,言語構造上重要な機能を持っている.そのため,格助詞を正しく翻訳できなければ,違和感のある翻訳文になるだけでなく,ときには致命的に誤った意味となる翻訳文を生成することがある.そこで,本論文では,日本語--ウイグル語機械翻訳における格助詞の取り扱いについて論じる.まず,計算機用日本語基本動詞辞書IPALを用いて動詞と格助詞の使われ方を調べるとともに,それぞれの格助詞の機能に対応するウイグル語格助詞を決定する.さらに,この調査結果から作成した動詞の格パターンを利用して複数の格助詞の訳語候補の中から,適切な訳語を選択する手法を提案する.また,本提案手法に対する評価実験では,環境問題関連の新聞社説3編の日本語138文を対象にし,我々が本論文で提案するアプローチに基づいて実験を行った.その結果,99.3\%の正解率を得ることができた.
V24N04-01
対話行為の自動推定は自由対話システムにおける重要な要素技術のひとつである.機械学習を用いた既存の対話行為の推定手法では,機械学習に用いる特徴のセットを1つ設定するが,この際に個々の対話行為の特質は十分に考慮されていなかった.機械学習の特徴の中にはある特定の対話行為の分類にしか有効に働かないものもあり,そのような特徴は他の対話行為の分類精度を低下させる要因になりうる.これに対し,本論文では対話行為毎に適切な特徴のセットを設定する.まず,28個の初期の特徴を提案する.次に,対話行為毎に初期特徴セットから有効でない特徴を削除することで最適な特徴セットを獲得する.これを基に,入力発話が対話行為に該当するかを判定する分類器を対話行為毎に学習する.最後に,個々の分類器の判定結果ならびに判定の信頼度から,適切な対話行為をひとつ選択する.評価実験の結果,提案手法は唯一の特徴セットを用いるベースラインと比べてF値が有意に向上したことを確認した.
V08N03-03
統計情報に基づく自然言語処理が盛んになる中で,訓練データとしてのコーパスの影響は非常に大きい.生コーパスをそのまま利用する場合には,コーパスの取得が容易であるため,目的に合ったドメインのコーパスを大量に入手できるという利点がある.しかし,生コーパスは人間の言語の性質上,未登録語や未知の言い回し,非文とされるような文の出現等を多く含むことがほとんどであり,これらが処理の精度の低下を招くという問題がある.特に,口語表現の処理は,電子メールでの利用等利用頻度の高いものであるにも関わらず,十分に研究されているとは言い難い.本稿では,生コーパスに含まれる未知の語句および言い回しに着目し,電子メール文書内に出現する意味のある文字列を自動的に抽出する実験を行なった結果について報告する.本システムは事前に与えられた電子メール文書中の各文字の共起確率を利用して,テストコーパスとして与えられた電子メール文書から意味のある文字列を抽出し出力する.本システムを利用することで,同じテストコーパスを既存の形態素解析ツールで解析した結果未登録語として処理された文字列の69.06\%を抽出することに成功した.
V30N02-18
%本論文では,2020東京オリンピック参加者名簿の翻訳支援の経験を報告する.オリンピック参加者名簿の翻訳は,そのサイズと対象となる国数の点において過酷である.これを軽減するために,人名翻訳支援システム「綴2021」を実装した.このシステムは,既訳辞書と208個の国別翻訳サブシステムから構成され,国別翻訳サブシステムで必要となる各国用モデルは,「袷2019」によって作成される.最終的な翻訳名簿と「綴2021」の翻訳結果を突き合わせたところ,「綴2021」の翻訳結果の採用率は,氏名単位で90.4\%,名前(姓または名)単位で94.0\%であることが判明した.
V12N03-04
本稿では、自動詞の主語が他動詞の目的語となる動詞の交替を対象とし、既存の結合価辞書における交替の選択制限の対応関係の調査や、2言語間の交替の比較などを行なう。更に、これらの調査結果に基づき、交替データを用いて比較的単純な置き換えにより既存の結合価辞書に新しいエントリを追加する方法を提案する。本稿では、交替の片側に対応するエントリから、もう片側のエントリを獲得する。また、本提案手法では2言語の結合価エントリを同時に作成する。作成したエントリは、下位範疇化構造や選択制限、交替情報等の詳細な情報を持っている。本稿の実験の結果、対象とした交替を85.4\%カバーすることができた。また、翻訳評価の結果、本手法で作成したエントリによって、翻訳結果が32\%改善された。
V15N02-01
文書分類の多くのアプリケーションにおいて,分類器が出力するクラスに確信度すなわちクラス所属確率を付与することは有用で,正確な推定値が必要とされる.これまでに提案された推定方法はいずれも2値分類を想定し,推定したいクラスの分類スコア(分類器が出力するスコア)のみを用いている.しかし,文書分類では多値分類が適用されることが多く,その場合は,予測されるクラスはクラスごとに出力された分類スコアの絶対的な大きさではなく相対的な大きさにより決定される.したがって,クラス所属確率は,推定したいクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられるため,推定したいクラス以外の分類スコアも用いて推定する必要があると思われる.本稿は,多値分類における任意のクラスについてのクラス所属確率を,複数の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いて,ロジスティック回帰により高精度に推定する方法を提案する.提案手法を多値分類に拡張したサポートベクターマシンに適用し,性質の異なる2つのデータセットを用いて実験した結果,有効性が示された.また,本稿では,クラス所属確率を推定する別の方法として,各分類スコアを軸として等間隔に区切ってセルを作成する「正解率表」を利用する方法も提案したが,この方法においても複数の分類スコアを用いることは有効であった.提案手法は,分類スコアの組み合わせや分類器の変更に対しても容易に対応できる.
V30N02-04
%本稿では,日本語文法誤り訂正のための誤用タグ付き評価コーパスを構築する.評価コーパスはモデルの性能評価に欠かすことができない.英語文法誤り訂正では様々な評価コーパスの公開により,モデル間の精緻な比較が可能になりコミュニティが発展していった.しかし日本語文法誤り訂正では利用可能な評価コーパスが不足しており,コミュニティの発展を阻害している.本研究ではこの不足を解消するため,日本語文法誤り訂正のための評価コーパスを構築し,一般利用可能な形で公開する.我々は文法誤り訂正において代表的な学習者コーパスLang-8コーパスの日本語学習者文から評価コーパスを作成する.また文法誤り訂正分野の研究者や開発者が使いやすい評価コーパスとするため,評価コーパスの仕様を英語文法誤り訂正で代表的なコーパスやツールに寄せる.最後に作成した評価コーパスで代表的な文法誤り訂正モデルを評価し,今後の日本語文法誤り訂正においてベースラインとなるスコアを報告する.\renewcommand{\thefootnote}{}\footnote[0]{本論文の内容の一部は,言語処理学会第26回年次大会\cite{koyama-etal-2020-nihongo}及びthe12thConferenceonLanguageResourcesandEvaluation\cite{koyama-etal-2020-construction},情報処理学会第253回自然言語処理研究会\cite{koyama-etal-2022-nihongo}で発表したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V28N01-04
%\vspace{-0.5\Cvs}本論文ではシソーラス『分類語彙表』に対する反対語情報付与作業について示す.分類語彙表上では反対語対に対しても同じ分類番号が付与されている.この同じ分類番号が付与されている単語群から反対語対を抽出し,分類作業を行った.まず,人手により反対語候補となる単語対を網羅的に収集した.次に,一般的な日本語話者が反対語と感じるかをクラウドソーシングにより収集し,50\%以上の方が反対語とみなしたものを反対語と定義した.最後に,得られた反対語リストに対して,村木の「対義語」の分類を精緻化したものを付与した.分析にあたっては,反対語認識の非対称性・分類語彙表ラベル・分類・コーパス頻度・単語埋め込みなどの観点から検討を行った.言語学的な分析においては,閉じた反対語対に対してより反対語らしさを感じる傾向が確認された.言語処理的な分析においては,単語埋め込み上で反対語対の置き換え可能性の評定とコサイン類似度に中程度の相関があることが確認された.
V31N02-12
%本研究では,テキスト平易化のための日本語パラレルコーパスを構築し,公開した.本タスクにおける既存の日本語コーパスとしては,非専門家によって構築されたものが訓練に使用されており,専門家によって構築された高品質かつ大規模なものは存在しない.我々は,専門家により平易化された記事に対して人手で文アライメントを行うことで,大規模な文単位のパラレルコーパスを構築した.人手評価の結果,専門家によって平易化されたパラレルコーパスは,非専門家が平易化したものに比べて多様な平易化操作を含んでいることが明らかになった.また,我々の構築したパラレルコーパスは,流暢かつ意味を保持した平易化が行われていることを確認した.
V20N03-04
東日本大震災初期,Twitterに寄せられた膨大なツィートには,緊急性の高い救助要請候補が多数含まれていたものの,他の震災関連ツィートや「善意のリツィート」によって,通報されるべき情報が埋もれてしまった.この様な状況を解消するために,筆者らは2011年3月16日,Twitter上の救助要請情報をテキストフィルタリングで抽出し,類似文を一つにまとめ一覧表示するWebサイトを開発・公開した.本論文では,本サイト技術のみならず,通報支援活動プロジェクト{\tt\#99japan}との具体的な連携・活用事例についても詳述する.なお{\tt\#99japan}は,救助状況の進捗・完了報告を重視するTwitterを用いた活動であると共に,発災2時間後に2ちゃんねる臨時地震板ボランティアらによって立ち上げられたスレッドに由来する.
V09N05-03
この論文で計算するものは,ある文字列を$k$回以上含むドキュメントの総数($df_k$)である.全ての部分文字列に対してこれらの統計量を保存する場合$O(N^2)$の表が必要となり,コーパスの大きさを考えると,この表は実用的でなく,通常の計算機では実際に作ることは難しい.しかし,$k=1$の場合,SuffixArray,文字列のクラス分けを利用して,統計量をクラス毎に保存することで,これを$O(N)$の表にできるという報告がある\cite{DF1}.このクラスは同じ統計量を持つ文字列の集合であり,コーパス内の全ての文字列の統計量はクラス毎に作成した統計量の表から取り出すことができる.しかし,この方法は$k\geq2$の場合には使用できない.我々は,$k\geq2$の場合にも使用でき,表を用いることによって文字列の統計量を計算するアルゴリズムを提案する.本稿では$df_k$の性質を述べた後,単純な計算方法と提案するアルゴリズムとの比較を行う.このアルゴリズムは,前処理として表を作成するために$O(N\logN)$の計算時間と$O(N)$のメモリを使用し,その表を用いて$O(\logN)$時間で文字列の統計量を取り出すことができる.