id
stringlengths 9
9
| text
stringlengths 18
1.29k
| title
stringclasses 1
value |
---|---|---|
V14N01-02
|
英語に比べて語順が自由で省略の多い日本語は,句構造解析には不向きとされ,係り受け解析が一般的となっている.また,係り受けが交差する入れ子破りが起こる表現や二つの品詞性のある語などは,句構造解析による木構造ではうまく扱えない.さらに,現在主流となっている文節構文論(学校文法)に基づく構文解析では構文解析結果が意味と整合性が良くなく,時枝文法風の構文解析の方が解析結果に則って意味がうまく説明できることが指摘されている.本論文では,時枝によって提唱された言語過程説を発展的に継承した三浦の言語モデル(関係意味論に基づく三浦の入れ子構造)とそれらの基づく日本語文法体系(三浦文法)による文法記述と文法規則適用条件の制御によって上記のような日本語構文解析上の問題を解決する方法を提案する.さらに,このような考えに基づき試作した日本語文パーザによって,一対多・多対一の係り受け関係,文中の局所的入れ子構造,入れ子破りの表現,主題の「は」と対照の「は」の扱い,二つの品詞性のある語の扱いにおいて意味的に適切な統語構造が得られることを示した.
| |
V07N05-02
|
自然言語処理において,言語の諸相を見据えた宣言的な文法にもとづく構文解析は必須である.実用的な文法体系を構築するため,我々は最近の主辞駆動句構造文法の成果を実装することにより,NAISTJPSGという単一化にもとづいた日本語句構造文法を構築した.NAISTJPSGでは,日本語の様々な特徴の検討を経て,それらの間の規則性を局所的な制約として記述することで,文法の原理,スキーマおよび素性が設計されている.また,個別言語の現象として,格助詞の分布・サ変動詞構文の意味的局所性・連体修飾節における格を伴った修飾句の係り先について,それらの語彙情報に関心を持って我々は分析した.(i)格助詞が現れるか否かは,言語的対象を説明する素性体系の一部である型階層化された格素性にもとづいて説明できる.(ii)サ変動詞構文は形態的には複雑な構造でありながら意味的には単純な関係を含んでいるが,そのような不整合は語彙記述および単一化といった一般的な機構によって解消される.(iii)連体修飾に関してコーパスを調査することで,いくつかの修飾--被修飾の関係は述語的な形態素を導入することにより削減することができる.
| |
V28N03-08
|
%本稿では,アイヌ民話(ウウェペケ\UI{31FE})の音声認識に関する我々の取り組みについて述べる.まず,2つの博物館から提供されたアイヌ語アーカイブのデータを元に,沙流方言を対象としたアイヌ語音声コーパスを構築した.次に,このコーパスを用いて注意機構モデルに基づく音声認識システムを構成し,音素・音節・ワードピース・単語の4つの認識単位について検討した.その結果,音節単位での音声認識精度が最も高くなることがわかり,話者クローズド条件と話者オープン条件のそれぞれについて,音素認識精度で93.7\%と86.2\%,単語認識精度で78.3\%と61.4\%を実現した.音声認識精度が話者オープン条件において大幅に低下する問題に対して,CycleGANを用いた教師なし話者適応を提案した.これは,学習データ内の話者の音声から認識対象話者の音声への写像をCycleGANに学習させ,学習データ内の音声を全て認識対象話者風の音声に変換するものである.本手法によって最大で相対60.6\%の音素誤り率の改善を得た.さらに,日本語とアイヌ語が混合した音声における言語識別についても検討を行い,音素認識と単語認識を用いた構成で一定の識別性能を達成できることを示した.
| |
V20N05-05
|
単語情報がタグ付けされた本格的な通時コーパスを構築するためには,歴史的な日本語資料の形態素解析が必要とされるが,従来はこれを十分な精度で行うことができなかった.そこで,現代語用のUniDicに語彙の追加を行い,明治時代の文語文と平安時代の仮名文学作品のコーパスを整備することで,「近代文語UniDic」と「中古和文UniDic」を作成した.この辞書によりコーパス構築に利用可能な約96〜97\%での解析が可能になった.この辞書の学習曲線をもとに歴史的資料の形態素解析辞書に必要な訓練用のタグ付きコーパスのサイズを調査した結果,約5万語のコーパスで精度95\%を超える実用的な解析が可能になること,5,000語程度の少量であっても対象テキストの訓練コーパスを用意することが有効であることを確認した.
| |
V14N03-08
|
表現豊かな合成音声への応用を目的として,「喜び」と「悲しみ」の2種類の感情について複数の程度の感情情報を含む音声に対し,基本周波数パターン生成過程モデルに基づく韻律的特徴の分析を行った.分析により得られた各モデルパラメータの生起タイミングおよびその大きさの変化に関して,発話の言語的情報に基づき検討を行った.その結果,基底周波数に関しては,発話内容に依存する傾向の差は特にみられず,「喜び」「悲しみ」とも感情の程度が強くなるに従って,基底周波数は高くなる傾向にあった.文中でのフレーズ指令の生起に関しては,文節境界の枝分かれ種別と,直前のフレーズ指令以降のモーラ数に影響を受けることを確認した.フレーズ指令の大きさ関しては,その生起位置が文頭の場合と文中の場合とで,感情の程度に対する大きさの変化に違いがみられた.また,文中で生起したフレーズ指令は,その境界の枝分かれ種別により,異なる変化の傾向がみられた.アクセント指令の生起タイミングは,感情の有無やその程度の影響はほとんど見られず,アクセント型にのみ依存することが確認された.アクセント指令の大きさに関しては,文頭からの韻律語数に大きな影響を受け,またアクセント型による違いがみられた.
| |
V06N03-06
|
計算機上の文書データの増大に伴い,膨大なデータの中からユーザの求める文書を効率よく索き出す文書検索の重要性が高まっている.伝統的な検索手法では,文書全体を1つのまとまりとして考え検索要求との類似度を計算する.しかし,実際の文書,特に長い文書では様々な話題が存在し,文書中の各部分によって扱われる話題が異なる場合も多く見られる.そのため,最近の文書検索では,ユーザの入力した検索要求と関連の高い文書の一部分を取り出して類似度を計算するパッセージレベルの検索が注目されている.パッセージ検索におけるパッセージとは,文書中で検索要求の内容と強く関連する内容を持つ連続した一部分のことを言う.パッセージ検索では,このパッセージをどのように決定するかが問題となる.良いパッセージを決定するためには,パッセージ自体が意味的なまとまりを形成し,パッセージの位置やサイズが検索要求や文書に応じて柔軟に設定される必要があると考えられる.本稿では,文書中の文脈情報である語彙的連鎖を利用し,検索要求と文書の適切な類似度を計算できるパッセージ決定手法について述べる.また,このパッセージを使用し,検索精度を向上させる検索手法について述べる.
| |
V08N01-03
|
現在,統計的言語モデルの一クラスとして確率文脈自由文法(PCFG)が広く知られている.また,括弧なしコーパスからPCFGを訓練する方法としてInside-Outside(I-O)アルゴリズムが知られてきた.I-OアルゴリズムはPCFG用に効率化を施したEM(expectation-maximization)アルゴリズムだが,依然その計算速度に問題があることが知られている.本論文では,文法構造があらかじめ与えられていることを前提に,訓練過程を構文解析とEM学習に分離した高速EM学習法を提案する.その中間データ構造にパーザが生成するWFST(well-formedsubstringtable)を用いる.例えば,一般化LRパーザを用いると事前コンパイル・ボトムアップ探索による効率性,およびChomsky標準形を要求しないという一般性を引き継ぐことができる.一方EM学習では,WFSTのコンパクトさを利用して効率的なパラメタ推定が行なわれる.推定結果はI-Oアルゴリズムで得られるものと一致する.更に,文脈依存性を取り入れたPCFGの拡張モデルに対する多項式オーダのEM学習法を示す.また,ATR対話コーパスを用いて実験を行ない,訓練時間が大幅に短縮されていることを確認した.
| |
V08N01-01
|
ベクトル空間モデルは情報検索における代表的な検索モデルである.ベクトル空間モデルでは文書を索引語の重みベクトルで表現するが,文書ベクトルは一般に要素数が非常に多く,スパースなベクトルになるため,検索時間の長さや必要なメモリの量が大きな問題となる.本論文では,この問題を解決するため,ベクトル空間モデルにおけるベクトルの次元圧縮を行う手法としてランダム・プロジェクションを用いた検索モデルを提案する.その有効性を評価するために,評価用テストコレクションであるMEDLINEを利用して,検索実験を行った.その結果,ランダム・プロジェクションはLSI(LatentSemanticIndexing)に比べ高速で,かつ同等な検索性能を持つ次元圧縮手法であることが確認された.また,ランダム・プロジェクションで次元圧縮に必要な行列を得るために,球面$k$平均アルゴリズムで得られる概念ベクトルの利用を提案する.同様に検索実験を行った結果,任意のベクトルを用いた検索性能に比べ改善され,概念ベクトルが検索性能の向上に有効であることが確認された.
| |
V28N02-03
|
%近年インターネット上の情報量は指数関数的に増加している.そのため,自動要約システム技術は必要不可欠なものとなってくると思われる.自動要約システムを構築するには要約コーパスが必要となる.しかし,多量の要約コーパスを作成するには人手が必要となりコストがかかってしまう.そこで,本研究では自動要約システムにおけるデータ拡張として,記事に対して,最も重要度の低い文を除去する手法を提案する.本研究では,Pointer-Generatorモデルにおいて提案手法の効果を検証した.また,本研究の比較対象として,文書分類において用いられたデータ拡張手法であるEDA(EasyDataAugmentationTechniques)や,Luhn,LexRankを用いた手法で実験を行った.Pointer-Generatorモデルで用いたコーパスはCNN/DailyMaildatasetであり,トータルで,287,226記事存在する.本研究では,287,226記事の他に,57,000記事,28,000記事において比較実験した.結果は,EDAやLuhn,LexRankを用いた手法では拡張せずに元の記事だけで学習する手法(拡張なし手法)よりも悪くなることがあったが,提案手法は全ての記事数において拡張なし手法よりも良い結果となった.
| |
V28N04-12
|
%本研究では,数値気象予報のシミュレーション結果から天気予報コメントを自動生成するタスクに取り組む.天気予報コメントの生成タスクには,(i)様々な物理量の数値変化を考慮する必要がある,(ii)コメントの配信時刻や対象エリアに依存した表現が使われる,(iii)天気予報コメントにおいて情報の有用性が重要視されている,といった特徴的な課題がある.本研究では,数値気象予報のシミュレーション結果,気象観測値,コメントのメタ情報を入力として,上記の特徴を捉えた上でテキスト化するためのData-to-Textモデルを提案する.また,天気予報コメントにおける情報の有用性の向上のために,晴天や雨などの気象情報を表す「天気ラベル」を予測する内容選択モデルを導入し,予測結果をテキスト生成時に考慮することで有用な情報を明示的に記述できるようにした.実験では,自動評価と人手評価を行い,提案モデルはベースラインに対して情報の有用性の観点で最も優れていることを示した.
| |
V26N01-06
|
統計的機械翻訳において,原言語と目的言語における語順の違いは翻訳精度に大きく影響することが知られている.この問題に対して,翻訳器に入力する前に原言語の語順を並び替える事前並び替え手法が提案されている.先行研究において最高性能を達成しているNakagawaの手法では事前並び替えの学習のために素性テンプレートの設計が必要である.本稿では,データから直接素性ベクトルを学習するRecursiveNeuralNetworkを用いた事前並び替え手法を提案する.英日・英仏・英中の言語対を用いた評価実験の結果,英日翻訳では素性テンプレートの設計を必要とせず,Nakagawaの手法と遜色ない精度を達成した.また実験結果の詳細な分析を行い,事前並び替えに影響を与える要因を分析した.そして近年の機械翻訳において主流となっているニューラル機械翻訳における事前並び替えの効果についても検証した.
| |
V14N03-15
|
本論文では,Web上の評判情報を有益に活用するために,レビューなどの評価文書をポジティブ(おすすめ)とネガティブ(おすすめしない)という極性値に分類する手法を提案する.本手法では,全体評判情報と部分評判情報という2つのレベルで評判情報を捉える.全体評判情報とは評価文書の対象全般に関わる評価表現のことを指し,部分評判情報とは対象の一属性に関する評価表現のことを指す.全体評判情報の極性値は評価文書の極性値と一致すると考えられるため,まず全体評判情報を用いて評価文書を分類し,全体評判情報がない場合は部分評判情報を用いて分類する.これら2つのレベルの評判情報を考慮することで分類精度の向上が期待できる.さらに,これら2つのレベルの評判情報を用いることで,評判情報の信頼性評価の一手法を提案する.ここでは,評価文書の極性値とその中の部分評判情報の極性値が異なる場合にその部分評判情報は信頼性が高いと評価する.映画のレビューを用いた評価実験の結果,ナイーブベイズを用いた分類手法よりも本手法の方が良い結果が得られた.また,提案した評価指標が評価文書の信頼性評価の1つとなりうることを示唆した.
| |
V32N01-02
|
%画像に対する質問応答(VQA:VisualQuestionAnswering)のような画像を参照する会話では指示語の利用により質問に曖昧さが生じる.また,言語によっては質問の中核となる情報を持つ項の省略が行われ,問題はさらに複雑になる.こうした質問の曖昧さが生じる場合,質問の話者は相手と言外に共有している情報,例えば視線(注視)や指差しなど,を前提にしている場合が多い.本研究ではこうした視線情報の参照による質問の曖昧性解消に着目し,注視対象の物体と質問の指示語や省略が対応づいた視線情報付きVQAデータセット(LookVQA)を提案する.本研究ではさらに,本データセットにおける質問応答の精度を高めるため,話者の視線元からの注視対象推定を活用する質問応答モデルを提案する.実験の結果,提案モデルはLookVQAにおける特定の質問タイプに精度良く回答ができ,注視対象推定を用いない既存モデルと比較して優れた性能を達成した.\renewcommand{\thefootnote}{}\footnote[0]{本論文は人工知能学会言語・音声理解と対話処理研究会第99回研究会(稲積他2023)\nocite{inadumi-sigslud},言語処理学会第30回年次大会(稲積他2024)\nocite{inadumi-nlp2024},The2024JointInternationalConferenceonComputationalLinguisticsLanguageResourcesandEvaluation\cite{inadumi-etal-2024-gaze}で発表した論文を拡張・翻訳したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V29N04-06
|
%医学応用のための自然言語処理(医療言語処理)には質の高いアノテーション済みコーパスが必要となる.本研究では,医療言語処理の中でも応用事例の多い固有表現認識と関係抽出を統合的に取り扱う,汎用的な臨床医学テキストアノテーション仕様とその作業ガイドラインの設計について報告する.本仕様では類似の臨床医学テキスト向けアノテーション仕様を統合し,多くの医療言語処理応用に有用な情報をコーディングできる汎用的なエンティティ及び関係を定義した.ガイドラインには医学知識に基づく判断が必要なアノテーションを減らすことで非医療従事者でも作業できる工夫を施し,実行可能性を高めることを目指した.これらの過程では言語処理研究者,医学専門家,アノテーション作業者の三者を交えた反復的な議論プロセスを採用し,実例に基づいて仕様・ガイドラインを整備しつつコーパス規模も拡大させた.本ガイドラインに基づくアノテーションを重篤肺疾患患者の診療録・読影所見3,769件に付与するにあたり,まず半量が済んだ段階で予備的な固有表現・関係抽出モデルを作成し,残りをこのモデルによる自動アノテーションの修正作業に切り替えることで効率化を図ったところ,アノテーションの一貫性も向上した.また最終的なコーパスで訓練した固有表現・関係抽出モデルは実用も期待できる性能に達していることを示した.
| |
V28N02-10
|
%本研究では,返信を伴う会話形式のテキストを対象とした,教師なし抽出型ニューラル要約モデルImplicitQuoteExtractor(IQE)を提案する.引用は投稿やメールに返信する際,言及している箇所を強調するために使われる.高頻度に引用される箇所は重要であるとの仮説の元,我々は引用を要約として抽出するモデルを提案する.ほとんどの返信は明示的な引用を含まない.そのため,引用を直接要約モデルの教師データとして使うことは難しい.しかしながら,明示されていなかったとしても,返信は返信元の文章のある箇所に必ず言及している.返信が投稿のどの箇所に言及しているかは,返信内容から推測できるため,明示的な引用を用いずに,返信のみから本来引用されるべき箇所を推定することが可能である.この箇所を暗黙的引用(Implicitquote)と呼ぶ.提案モデルであるIQEは,返信を用いて暗黙的引用を推定する機構を備える.IQEの学習タスクは,あるテキスト(返信候補)が,ある投稿に対する実際の返信になっているかを判定することである.IQEは,数文を投稿から抽出し,それを返信候補の真偽判定の特徴量とする.IQEは返信候補の真偽判定の性能を向上させるように文抽出のパラメータを学習するため,返信が言及しやすい文を要約として抽出するようになる.我々は本モデルを2つのメールデータセットと1つのソーシャルメディアデータセットで評価し,本モデルが要約タスクに有用であることを示す.更に,提案モデルが引用を抽出できる点,また,提案モデルが従来モデルが抽出できない重要文を抽出可能であるという点を実験によって検証し,それを支持する結果を得た.
| |
V14N05-08
|
参照結束性(referentialcoherence)は,主題の連続性や代名詞化によってもたらされる,文章の滑らかさを表す.では,なぜ参照結束性が高い表現/解釈が選択されるのだろうか.参照結束性の標準的理論であるセンタリング理論は,従来,この行動選択のメカニズムをモデル化していなかった.本研究の目的は以下の2つである.(1)この行動選択原理をゲーム理論でモデル化した仮説\shortcite{hasida1996,siramatu2005nlp}を,複数言語のコーパスで検証すること.(2)ゲーム理論の期待効用という値が選択基準になり得るか確かめ,様々な言語の談話処理で利用可能な表現/解釈の選択機構をモデル化すること.\\そのために本稿では,意味ゲームに基づくセンタリングモデル(MGCM;Meaning-Game-basedCenteringModel)を多言語化した.具体的には,言語依存パラメタの定義を統計的にし,コーパスからのパラメタ獲得を可能にした.本改良により多言語への適用が可能になったので,日本語と英語のコーパスを用いてモデルを検証した.その結果,参照結束性の高い繋がりを持つ発話では,期待効用が高い表現/解釈が選択されているという統計的な証拠を得た.これにより,MGCMの言語をまたぐ一般性,すなわち,「参照結束性はゲーム理論の期待効用原理によって引き起こされている」という仮説の言語一般性が示された.
| |
V06N02-06
|
本研究では大規模コーパスが利用可能な新聞の読み上げ音声の認識のための精度の良い言語モデルの構築を実験的に検討した.N-gram言語モデルの改善を目指し,以下\mbox{の3つの点に注目した}.まずN-gram言語モデルはタスクに依存するので,タスクに関する大量のデータベースを用いて構築される必要があることに注目し,共通の大量データベースによる言語モデルをもとに,同一ジャンルの過去の記事を用いるタスク\mbox{適応化の方法とその有効性を示す}.次に,新聞記事は話題が経時的に変化するので,数日間〜数週間の直前の記事内容で言語モデルの適応化を行\mbox{なう方法とその有効性を}\mbox{示す.最後}に新聞テキストには,使用頻度の高い(特殊)表現や,固定的な言い回しな\mbox{どの表現(以下},定型表現と呼ぶ)が多いことに注目し,複数形態素から成る定型表現を抽出し,\mbox{これを1形態素として捉えた上で},\mbox{N-gram言語モデルを構築する方法を検}討し,有用性を示す.
| |
V10N02-03
|
我々は文章中に現れる比喩表現,その中でも直喩・隠喩的な比喩について,その認識・抽出を目的として研究を進めている.本論文では,``名詞Aのような名詞B''表現について,名詞の意味情報を用いたパターン分類によって比喩性を判定し,比喩表現については喩詞(喩えるもの)と被喩詞(喩えられるもの)とを正確に抽出できるモデルを提案する.この表現には比喩(直喩)とリテラル(例示など)の2つの用法があり,また比喩であっても名詞Bが被喩詞ではない場合がある.我々はそれらを機械的に判定するために,これまでに行ってきた構文パターンやシソーラスを用いて喩詞と被喩詞の候補を抽出する手法を発展させ,名詞Aと名詞Bの意味情報やその関係に従って``名詞Aのような名詞B''表現を6つのパターンに分類し,比喩性を判定し喩詞と被喩詞を特定するモデルを構築した.このモデルを日本語語彙大系の意味情報を利用して実装し,新聞記事データを用いて検証したところ,得られたパターン分類結果(比喩性判定結果)と人間のそれとが一致する割合は,学習データについては82.9\,\%(未知語データを除く),評価用データについては72.7\,\%(同)であり,比喩性判定モデルの全体的な処理の流れは実際の文章中の比喩表現認識に有効であることを示した.また,比喩語という比喩性を決定づける語についてもその効果を示すことができ,モデルへの組み込みの可能性を示唆した.
| |
V31N03-17
|
日本経済新聞社では,経済分野を中心とした新聞記事と日経企業DBを保有している.エンティティリンキングを用いて,新聞記事に出現する企業名を日経企業DBに結び付けることで,特定企業に関する高度な情報抽出への応用に期待ができる.そこで本論文では,新聞記事に出現する企業名と日経企業IDのリンキングを目的とした,日経企業IDリンキングシステムを構築する.具体的には,日本経済新聞の新聞記事に記述される企業名に日経企業IDを付与したデータセットを作成し,企業名抽出モデルと類似度ベースエンティティリンキングモデルから成るパイプラインシステムを実装する.本データセットを用いた評価実験の結果,提案システムは既存システムを上回るリンキング性能を示すことを確認した.さらに,企業IDリンキング特有の技術的困難性を整理し,提案システムの課題について議論する.\footnote[0]{本論文は,言語処理学会第30回年次大会で発表した論文\cite{sawada-etal-2024-anlp}を基にしたものです.}
| |
V15N05-04
|
言葉の意味処理にとってシソーラスは不可欠の資源である.シソーラスは,単語間の上位下位関係という,いわば縦の関連を表現するものである.我々は意味処理技術の深化を目指し,縦の関連に加えて,単語が使用されるドメインという,いわば横の関連を提案する.本研究では基本語を対象に,ドメイン辞書を半自動で構築した.本手法に必要なのは検索エンジンへのアクセスのみで,文書集合や高度に構造化された語彙資源等は必要ない.さらに,基本語ドメイン辞書の応用としてブログ自動分類を行った.各ブログ記事は,記事中の語にドメインとIDF値が付与され,最もIDF値の高いドメインに分類される.基本語ドメイン辞書に無い未知語のドメインは,基本語ドメイン辞書,Wikipedia,検索エンジンを利用して,リアルタイムで推定する.結果として,ブログ分類正解率94.0\%(564/600)と,未知語ドメイン推定正解率76.6\%(383/500)が得られた.
| |
V15N02-03
|
本論文では対訳文アラインメントの全体的な整合性を評価する新たな基準を提案する.この手法は係り受けタイプによる木構造上での距離や,距離スコア関数などの統計的な素性に基づいている.また依存構造木を元にしたアラインメント手法であるため,両言語間の言語構造の違いを適切に吸収することが可能である.さらに本手法により,複数見つかる対応候補の中から適切なものを選択することも可能である.日英新聞記事コーパスでのアラインメント実験により,本手法によるアラインメント精度は他の言語構造の近い言語対での精度と遜色ないことが示された.
| |
V02N04-01
|
本稿では、日本語マニュアル文の理解を行なう際に必要となるゼロ代名詞の照応問題を解決する一つの手がかりとして,マニュアル文の操作手順においてしばしば現れる条件表現の語用論的性質を利用することを提案する.条件表現の前件と後件を動作主の種類と述語の性質により分類するという方法により,実際の例文を調べた結果,後件に関して,1)「と」と「れば」,「たら」と「なら」がそれぞれ同じ分布を示すこと,2)「と」「れば」と「たら」「なら」は相補的な分布になっていること,が分かった.この性質より,動作主に関するゼロ代名詞の照応に利用できる制約ならびにデフォールト規則が得られた.
| |
V05N04-03
|
複合名詞は文書の内容を凝縮できる程の情報を担うことができるため重要語となりやすく,しばしば文書内容を理解する上での鍵となる.このため,複合名詞解析(=その構成要素間の掛かり受け解析)は,機械翻訳にとどまらず,情報抽出や情報検索の高度化にも貢献すると期待されている.しかし,複合名詞は単なる名詞の連鎖に過ぎないため構文上の手掛かりが無く,人手で構成したルールや,シソーラスに記述された概念の共起尤度等を用いて解析する方法が提案されてきた.しかし,新聞記事などの未登録語が頻出する開いた大規模テキストを扱う場合は想定されてこなかったため,そのような場合には頑健性の点で問題が生じる.本論文は,大量の電子化文書が高速に処理可能な昨今の状況を念頭に置き,シソーラス等の予め固定されたデータを用いるのではなく,文書中から直接文字列レベルの共起情報を抽出するだけで,高い精度で複合名詞解析が可能なことを示す.まず,与えられた複合名詞を暫定的に形態素解析し,得られた構成単語の共起情報を複数のテンプレートを用いて抽出する.共起情報を抽出する段階で,語の出現状況から,複合名詞内の短い複合名詞や,誤って過分割された略称等の未登録語を検出すると同時に,これらの共起情報を抽出することにより,未登録語に対する頑健性が達成される.これに加えて,共起情報が不足する場合のヒューリスティクスに関して検討を加え,文書から直接得られる共起情報と若干のルールを併用することにより,高精度な複合名詞解析が達成できた.新聞記事から抽出した長さ5,6,7,8の複合名詞各100個を対象に実験を行った結果,新聞1年分を\break用いて,それぞれ90,86,84,84個の正解が得られた.
| |
V28N04-09
|
%SNS上のユーザ動向調査やフェイクニュース検知を目的に,対話文における各発話の感情認識(EmotionRecognitioninConversations:ERC)が注目を集めている.ERCでは,対話文における各発話の内容に加えて,発話間の関係が話者の感情に大きな影響を与えることが知られている.従来のState-of-the-artを達成した手法は,発話間の関係の中でも特に自己依存と相互依存を,RelationalGraphAttentionNetworks(RGAT)を用いて取得し,当時の世界最高峰の認識精度を得た.しかしながら,RGATモデルは発話の順序情報を利用できない課題がある.そこで本論文は,RGATモデルに発話順序を加える新たな手法\textit{RelationalPositionEncodings}を提案する.提案手法を用いることで,自己依存と相互依存を含む発話間の関係と,発話の順序情報の両方を利用できる.評価実験において,ERCにおける3つのベンチマークデータセットのうち,2つのデータセットで従来手法を上回る認識精度を達成し,世界最高峰の認識精度を達成した.
| |
V11N05-08
|
意味が近似的に等価な言語表現の異形を言い換えと言う.言い換え技術とは,所与の言語表現からその言い換えを生成する言い換え生成技術,および所与の言語表現対が言い換え関係にあるか否かを判定する言い換え認識技術の総称である.これらの技術は,機械翻訳の前編集や読解支援のための文章簡単化,質問応答や複数文書要約など,様々な応用に貢献する応用横断的なミドルウェア技術になると期待されており,近年研究者の関心を集めてきた.本論文では,こうした言い換え技術について,工学的研究を中心に近年の動向を紹介する.具体的には,言い換えの定義や言い換え技術の応用可能性について論じた後,構造変換による言い換え生成,質問応答・複数文書要約のための言い換え認識に関する研究を概観し,最後に言い換え知識の自動獲得に関する最新の研究動向を紹介する.
| |
V15N05-08
|
日本語係り受け解析においては,工藤らの相対的な係りやすさを考慮した日本語係り受け解析モデルが,決定的解析アルゴリズムや文脈自由文法のパージングアルゴリズムに基づく手法を上回る精度を示している.決定的解析手法では係り先候補文節を同時に一つしか考慮しないが,工藤らの相対モデルではすべての係り先候補文節間の選択選好の強さをlog-linearモデルで推定している.これに対し本稿では,同時に対象とする係り先候補文節を二候補に限定し,選択選好を二つの候補同士の対戦からなるトーナメントで直接表現したモデルを提案する.京大コーパスVersion4.0を使用した実験において,提案手法は従来手法を上回る精度を示した.
| |
V10N05-07
|
カスタマサービスとして,ユーザから製品の使用方法等についての質問を受けるコールセンターの需要が増している.ユーザからの質問に的確に応答するためには,次々に開発される新製品の知識が必要となる.応対するオペレータは,過酷な業務のため定着率が低く,企業にとってもレベルの高い人材を継続して維持することは,人件費や教育などのコストがかかり,問題となっている.\\本研究は,ユーザが自ら問題解決できるような,対話的ナビゲーションシステムを実現する基礎技術を開発することにより,コールセンターのオペレータ業務の負荷を軽減することを目的とする.Web上での質問応答システムにおいてユーザが初期に入力する自然言語による状況説明や質問文を分析したところ,20文字以下の質問文が7割を占めていた.一方,コールセンターでは,オペレータが,過去のユーザとのやり取りの結果を,質問と応答の要約文として蓄積している.そこで,本研究では,ユーザが初期に入力する20文字前後の比較的短い質問文を対象とし,その質問文から,コールセンターで蓄積した過去の質問の要約文を引き出し,それに予め付与された応答をそのまま回答する手法を採用する.しかし,ユーザの与える20文字以下の短い質問文と蓄積された要約文との単純なマッチングでは,多数の要約文が引き出されることが多いため,システムからユーザに新たなキータームの入力を促してユーザの意図する適切な要約文に速やかに到達できるような対話的ナビゲーション技術の開発が最も重要な研究課題となっている.対話的ナビゲーションを実現するために,ユーザが初期に入力した質問文中のどのようなタームが最適な要約文の検索に重要であるかを判定する方式として,入力した質問と要約文とのマッチングが成功したものから一定の基準によってタームを変更する方式(サクセスファクタ分析方式と呼ぶ)を開発した.この分析の結果から,主辞を修飾するタームをユーザの質問文に対して対話的に補うことがマッチングの精度に大きく影響し,極めて有効なことを実験的に明らかにした.
| |
V17N01-11
|
従来の情報検索に特化されたシソーラスではなく,構文解析や用語標準化などの自然言語処理を目的とする420,000語規模のシソーラスを開発した.各用語の持つ関係語の数が膨大なため,観点(ファセット)を導入して分類し,探しやすくしたシソーラスである.さらに,差別語,表記の揺れなども区別できる.シソーラスを作成する際の留意点・課題もまとめた.パッケージソフトのカスタマイズ機能およびインターネットや他の辞書との連動機能,用語の標準化などについても紹介した.
| |
V21N05-02
|
本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)の教師なし領域適応の問題に対して,共変量シフト下の学習を試みる.共変量シフト下の学習では確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$を重みとした重み付き学習を行うが,WSDの場合,推定される確率密度比の値が小さくなる傾向がある.ここでは$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求めて,その比を取ることで$w({\bmx})$を推定するが,$P_S({\bmx})$を求める際に,ターゲット領域のコーパスとソース領域のコーパスを合わせたコーパスを,新たにソース領域のコーパス$S$と見なすことで,先の問題に対処する.BCCWJの3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を選び,SemEval-2の日本語WSDタスクのデータを利用して,多義語16種類を対象に,WSDの領域適応の実験を行った.$w({\bmx})$を推定する手法として,$P_T({\bmx})$と$P_S({\bmx})$を求めずに,$w({\bmx})$を直接推定するuLSIFも試みた.また確率密度比を上方修正するために「$p$乗する」「相対確率密度比を取る」という手法も組み合わせて試みた.それらの実験の結果,提案手法の有効性が示された.
| |
V17N01-06
|
行為—効果関係,行為—手段関係のような事態間の関係を大規模コーパスから自動的に獲得する.共起パターンを利用する手法では,事態を表現する述語間で共有される項を認識することが難しいため,述語間で共有される名詞(アンカー)を用いて共有項を獲得し,共起パターンを用いて獲得した所与の関係を満たす述語対と共有項を組み合わせることで,共有項と共に事態間関係を獲得する.このとき2種類の異なるアンカーを用いることで,精度を保ったまま再現率を向上できることを確認した.
| |
V08N04-05
|
韻律には発話が文字化されると失われてしまう情報が含まれているが,そのような情報は発話文の構文解析に有効である可能性がある.我々のグループでは,以前の研究で12種類の韻律的特徴量を取り上げ,それらと係り受け距離の関係を表現する統計モデルを構成した.そして,そのモデルを組み込んだ係り受け解析器を用い,韻律情報が実際に読み上げ文の係り受け解析に有効であることを示した.本研究では新たな特徴量を加えて24種類の韻律的特徴量を取り上げ,有効な特徴量を広い範囲で探索した.また,統計モデルを特徴量の現実の分布によりよく当てはまるように修正した.その結果,ATR503文データベースを用いたオープン実験において,韻律的特徴量を用いることにより,係り受け解析の文正解率が21.2\%向上した.これは,我々のグループの以前の実験における向上率より4.0ポイント高い.特徴量の中でポーズ長はクローズド実験においてもオープン実験においても非常に有効であったが,これと併用したときの,ピッチやパワー,話速等に関連する他の特徴量の有効性はオープン実験においてはあまり明らかでなかった.
| |
V30N02-02
|
%\vspace{-3pt}単語は時期や分野の違いによって異なる意味や用例を持つことがあり,自然言語処理の分野では単語分散表現を用いた検出が行われている.最近では文脈の情報を考慮した単語分散表現を生成できるBERTなどを用いた研究も盛んに行われているが,大規模な計算資源のない言語学者や社会学者などはこのような手法を適用するのが難しい.本稿では,既存の文書間で同時に単語分散表現を学習する手法を拡張して,2つの文書間における単語の意味の違いを検出するタスクに取り組んだ.実験の結果より,我々の手法が英語での実験やSemEval-2020Task1だけでなく,これまで行われていない日本語の実験においても既存手法と同等またはそれ以上の性能を示した.また,各手法が単語分散表現の獲得までにかかる訓練時間の比較を行った結果,提案した手法が既存手法よりも高速に学習できることを示した.さらに,提案した単語分散表現獲得手法を用いて,日本語のデータにおいて意味変化した単語や意味変化の種類,傾向などの網羅的な分析も行った.\renewcommand{\thefootnote}{}\footnote[0]{本稿の一部の内容は,The35thPacificAsiaConferenceonLanguage,InformationandComputation\cite{aida-etal-2021-comprehensive}および言語処理学会第27回年次大会\cite{aida-etal-2021-diachronic}にて発表したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V12N05-08
|
本論文では,現時点で利用可能なモンゴル語の言語資源,特に,名詞・動詞の語幹のリスト,および,名詞・動詞に接続する語尾のリストから,モンゴル語の名詞句・動詞句を生成する手法を提案する.具体的には,名詞・動詞の語幹に語尾が接続する際の音韻論的・形態論的制約を整備し,語幹・語尾の語形変化の規則を作成する.評価実験の結果において,100\%近くの場合について,生成された名詞句・動詞句の中に正しい句候補が含まれるという性能を達成した.さらに,本論文では,この句生成に基づいて,モンゴル語の名詞句・動詞句の形態素解析を行なう手法を提案する.具体的には,まず,既存のモンゴル語辞書から名詞語幹および動詞語幹を人手で抽出する.次に,これらの語幹に対して,モンゴル語名詞句・動詞句生成規則を適用することにより,語幹・語尾の組から句を生成するための語形変化テーブルを作成する.そして,この語形変化テーブルを参照することにより,与えられた名詞句・動詞句を形態素解析して語幹・語尾に分離する.評価実験の結果においては,語形変化テーブルに登録されている句については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれることが確認できた.
| |
V31N03-07
|
%固有表現抽出は,自然言語処理において基本的で重要なタスクである.しかし,大量の教師データを必要とする従来の固有表現抽出は,ユーザーに応じた多様な粒度のカテゴリを抽出するという実社会の需要に柔軟に対応できていない.既知語が出現する文脈を擬似教師データとして利用する弱教師あり固有表現抽出は,大規模なシソーラスと組み合わせることでこの多様なカテゴリの需要に対応できる.弱教師あり固有表現抽出の先行研究は,擬似教師データの誤りに頑健な学習法を提案してきたが,これらの学習法の結果作られたモデルには,関心のあるカテゴリと無関心なカテゴリの境界を超えて予測してしまうという副作用があった.この副作用に対し本研究では,ユーザーの関心のあるカテゴリを含むシソーラスの全カテゴリを擬似教師データ作成に活用する手法を提案し,実験を通じてシソーラスに含まれる総体的な知識の有用性を明らかにした.\renewcommand{\thefootnote}{}\footnote[0]{本論文は言語処理学会年次大会で発表された同一著者による研究\cite{__2023}を主として評価データセットを増やす形で発展させたものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V28N01-11
|
本研究では,学習済み単語分散表現の品質を保持しつつモデルサイズを削減する.先行研究では,部分文字列の分散表現から単語の分散表現を構成し,学習済み単語分散表現を模倣してきた.これにより語彙サイズを削減できるが,品質を保持したまま著しくモデルサイズを削減することは困難であった.本研究では,似た意味を持つ単語同士が似たベクトルを持つという単語分散表現の特性を考慮して,対象単語の学習済み単語分散表現を模倣する通常の訓練に加えて,対象単語と他の単語たちとの類似度分布を模倣する訓練も行うマルチタスク学習を提案する.単語類似度推定の実験では,提案手法は部分文字列から単語分散表現を構成する既存手法の性能を改善し,同等の品質を保持してモデルサイズを$30$分の$1$に削減できた.テキスト分類の実験では,$90$\%の品質を保持してモデルサイズを$200$分の$1$に削減できた.
| |
V14N05-04
|
本論文ではNon-negativeMatrixFactorization(NMF)を利用したアンサンブル文書クラスタリングを提案する.NMFは次元縮約を利用したクラスタリング手法であり,文書クラスタリングのようにデータが高次元かつスパースとなる場合に効果を発揮する.ただしNMFは初期値によって得られるクラスタリング結果が異なるという問題がある.そのために通常は初期値を様々に変えて,複数個得られたクラスタリング結果から,NMFの分解の精度の最もよい結果を選択する.しかしNMFの分解の精度はクラスタリング結果の精度を直接表しているわけではないので,最適な選択が行える保証はない.ここではNMFによるクラスタリングの精度を高めるために,複数個得られたクラスタリング結果をアンサンブルすることを試みる.アンサンブルは,複数個のクラスタリング結果からハイパーグラフを作成し,そのハイパーグラフで表現されたデータをクラスタリングすることで行える.従来,そのハイパーグラフは0か1のバイナリ値が用いられていたが,ここではNMFの結果を用いて,適切な実数値の重みを与えることで改良する.実験ではk-means,NMF,通常のハイパーグラフを用いたアンサンブル手法および重み付きハイパーグラフを用いたアンサンブル手法(本手法)のクラスタリング結果を比較し,本手法の有効性を示す.
| |
V14N03-09
|
音声認識の精度の向上にともなって,コールセンターなどへの自動音声応答システムの導入の要求が高まり,人間がコンピュータと対話する機会も増加する傾向にある.これまでの対話システムは言語情報のみを扱い,そのパラ言語情報を扱うことは少ないため,人間同士の対話と比較すると,コンピュータとの対話ではコンピュータが得る人間の情報は小さい.本研究では音声の音響的特徴と言語表現の特徴から推定可能な「怒り」の感情を検出するために,感情の程度による音響的・言語的変化を分析し,コンピュータと人間とのインタラクションにおける人間の感情を捉えることを目指す.非対面の擬似対話により,認識性能に対する不満からくる「苛立ち」や,クレーム対応時におけるユーザの「腹立ち」の内的感情を表現した怒りの音声を収録し,主観評価により感情の程度を付与した音声データを作成した.本論では,怒りの感情を含むと判定された発話について,つぎの3種の特性,声の高さや強さ等の音響的特徴,言語形態上の語彙使用の特徴,語用論的な特徴である文末表現の特徴に着目し,発話者の感情表現とその言語表現・音響的特徴との定量的な関係を分析し,怒り表現の音声言語の特徴付けを試みた.とくに,接続助詞「けど」,「ので」の主節が現れずに発話が中止する接続助詞中止型において,怒りの程度が高いことを明らかにした.
| |
V24N01-06
|
社会学では,職業や産業は性別や年齢などと同様に重要な変数であるとの認識から,正確を期するために,自由回答で収集したデータを研究者自身によりコードに変換することが多い.これは職業・産業コーディングとよばれるが,大規模調査の場合,膨大な労力と時間がかかる上に,結果における一貫性の問題も存在する.そこで,ルールベース手法と機械学習(SVM)を適用したコーディング自動化システムを開発した.本システムは,国内・国際標準の職業・産業コードを第3位まで予測し,第1位の予測コードには,自動コーディング後に人手によるチェックが必要か否かの目安となる3段階の確信度も付与する.現在,本システムは,東京大学社会科学研究所附属社会調査・データアーカイブ研究センター(CSRDA)からWebによる利用サービスが試行提供されており,研究目的であれば,だれもが指定された形式の入力ファイルをアップロードして,希望するコードに変換された結果ファイルをダウンロードすることができるようになっている.
| |
V07N04-05
|
本稿では,従来の機械翻訳システムの構文解析能力を越える倒置や挿入などを含む文に対して頑健な処理を実現するための一手法として,形態素解析と簡単な構文解析によって得られる情報に基づいて原文を書き換える自動前編集手法を示す.原文書き換え系を既存システムに追加することによって,1)より品質の高い翻訳がシステムの既存部分にほとんど変更を加えることなく得られるようになるだけでなく,2)構文解析の負担が減少するためシステム全体としての効率化が実現できる.実際,提案手法を我々の英日機械翻訳システムPowerE/Jに組み込み,新聞記事を対象として実験を行なったところ,1)書き換え規則が適用された330文の78.8\%にあたる260文の翻訳品質が改善され,2)書き換えを行なった場合の翻訳速度は行なわない場合の速度の1.12倍になった.
| |
V06N06-05
|
語彙的結束性に基づき、文章中の話題の階層的な構成を自動認定する手法を提案する。語の繰り返しだけを手がかりに、文章全体の数分の1程度の大きな話題のまとまりから、段落程度の小さな話題のまとまりまで、話題の大きさ別に認定し、次に、大きな話題に関する境界と小さな話題に関する境界を対応づけることで、話題の階層構成を求める手法である。この手法は、複数の話題に関する文章が混在している集合的な文書の要約作成を目的に考案したものである。白書のような数十頁の報告書の骨子を把握したい利用者にとっては、1/4程度にまとめた通常の要約では長過ぎて役に立たないことがある。また、新聞の連載記事を要約する場合、関連する記事をまとめて要約した方がよい場合なども考えられる。よって、利用目的に応じて適切な粒度の話題を抽出する技術が重要となる。提案手法を使えば、指定した程度の大きさの話題のまとまりを認定できるので、要約の単位として適した大きさの話題のまとまりを抽出し、それぞれを要約することで、粒の揃った話題を含む要約が作成できる。本文では、提案手法の詳細を説明するとともに、長めの報告書と、新聞の連載記事を集めた文書などを対象とした話題構成認定実験により、提案手法の有効性と認定精度を示す。
| |
V28N02-14
|
%本論文ではニューラル機械翻訳のための新たなサブワード分割法を提案する.従来法では対訳関係を考慮せずに各言語ごとにサブワード分割を学習するため,機械翻訳タスクに適したサブワード分割になるとは限らない.本研究は対訳コーパスを用い,原言語文と目的言語文のサブワードトークン数の差がより小さくなるサブワード分割法を提案する.提案法は対訳情報を用いるため,より機械翻訳タスクに適したサブワードが得られると考えられる.従来法と提案法を用いて翻訳性能を比較したところ,WATASPEC英日・日英・英中・中英翻訳タスクとWMT14英独・独英翻訳タスクにおいて,TransformerNMTモデルの性能が最大0.81BLEUポイント改善した.
| |
V10N03-03
|
{\scSenseval}-2日本語翻訳タスクは,日本語単語の語義をその訳語の異なりとして定義・分類し,新たな表現に含まれる日本語単語の語義を判別する課題である.実際の課題としては,語義分類の定義として日英対訳用例を収集した翻訳メモリ(TM)が与えられ,語義の選択はTM中から適切な用例を選択するか,対象となる日本語単語の翻訳結果を示すことで解くことができる.我々は,入力表現の対象語周辺文脈が最も似ているTMの日本語表現を選択する単言語の問題と見なし,本タスクを解くシステムを開発した.対象語周辺文脈の類似度は,対象語周辺文脈を特徴づける要素である「文脈素性」の出現を各次元に配置した「文脈素性ベクタ」を用い,ベクタ空間モデルを用いて計算する.文脈素性は,対象語周辺文脈の特徴を,対象語との構文的/位置的関係と単語の形態的/意味的属性の組で表現したもので,これにより,TM表現間の文脈の違いを詳細に表現できる.{\scSenseval}-2参加システムは,形態素・構文解析器にJUMAN+KNP,シソーラスに日本語彙体系を用い,精度・再現率はともに45.8\,\%を達成した.各素性の有効性について分析した結果,シソーラスから得た意味属性に関する文脈素性が性能に最も寄与しており,係り受けに関する素性は限定的にしか寄与していないことがわかった.
| |
V28N01-02
|
近年の言語モデリング技術の進展に伴い,クローズドブック質問応答と呼ばれる,読解を伴わない質問応答タスクの研究が進められている.既存研究では,モデルの訓練可能なパラメータ数を増大させることや,モデルの構造をより洗練されることに重点が置かれてきた.本研究では,モデルに多様な事実知識を効率的に持たせるために,データ指向のアプローチを選択し,その有効性を検証する.具体的には,事実知識の知識源としてWikipediaを利用した拡張データセットを作成し,モデルの訓練に利用する.実験により,データ拡張を用いて訓練したモデルが,訓練データでは見られなかった質問に正しく答えることができ,モデルが拡張データから新しい知識を学習していることを示唆する結果が得られた.正解率の評価では,Quizbowlの従来の最高性能を更新し,TriviaQAの強力な系列生成モデルに匹敵する性能をおよそ20分の1のパラメータ数で実現した\footnote{本研究の実験に用いたプログラムは\url{https://github.com/cl-tohoku/closed-book-qa}で公開している.}.
| |
V29N04-07
|
%本研究では,複数文および複数画像から成るマルチモーダル文書を理解するシステムの構築を目指し,文書内における画像を意味的に望ましいテキストに割り当てる新たなタスク\textbf{I}mage-to-\textbf{Te}xt\textbf{M}atching(ITeM)を提案する.また,提案タスクのためにWikipediaから機械的に66,947文書および320,200画像からなるデータセットを構築する.提案タスクの妥当性および難易度を検証するため,既存のマルチモーダルタスクで最高精度を達成した2手法を本タスク向けに改良し,評価実験を行う.結果から,ベースラインの精度を大幅に上回ったものの,人間の精度に到達するには改良の余地があることを確認した.また,既存タスクに対する提案タスクの寄与度を検証する実験では顕著な差は見られなかった一方で,詳細な分析により,記事内の画像数が多くなるほど,また,画像が分散して配置される記事ほどタスクが難しくなる傾向にあることや,タスクを解くためには複数画像を同時に考慮したり画像中の物体情報を抽象化しなければならないなど,既存タスクとは異なる側面の画像理解・言語理解能力を提案タスクによって学習・評価できることが示唆された.
| |
V09N05-06
|
「も,さえ,でも$\cdots$」などのとりたて詞による表現は日本語の機能語の中でも特有な一族である.その意味上と構文上の多様さのために,更に中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,とりたて表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文では,とりたて詞により取り立てられる部分と述語部の統語的,意味的な特徴,更に中国語側での取り立てられる部分の統語的意味的な特徴によって,とりたて詞の意味の曖昧さを解消する手順を提案した.また,とりたて詞に対応する中訳語の位置について,訳語の文法上の位置に対する約束と,取り立てられる部分の中国語側での成分などから特定する手順を提案した.またこれらの手順を,「も,さえ,でも」の三つのとりたて詞をそれぞれ含む100文に対して手作業で検証した.正訳率はすべて80\,\%以上となり,本手法の有効性が示された.
| |
V05N04-05
|
クロス言語検索手法GDMAXは,日本語入力から英語ドキュメントの検索を可能にする.GDMAXは,対訳辞書によって入力キュエリから翻訳キュエリ候補を生成し,キュエリからそれぞれの言語のコーパスにおけるキュエリタームの共起頻度を成分とする共起頻度ベクトルを生成する.入力共起頻度ベクトルと翻訳共起頻度ベクトルとの距離によって,翻訳キュエリ候補をランキングし,上位の英語キュエリ集合を検索キュエリとする.この手法によって,一つの対訳だけでなく適切な複数の訳語集合を英語キュエリとして得ることができる.ウォールストリートジャーナルやAP通信など2ギガの英語ドキュメントについて適合率と再現率で評価したところ,理想訳と比べて約62\%の精度を得て,対訳辞書のすべての訳語候補を用いる場合と比べて12\%,機械翻訳による訳語選択と比べて6\%高い精度を得ることができた.
| |
V11N05-03
|
機械翻訳に対する要求の高まりに伴い,日本語や英語,韓国語といった言語の翻訳に関する研究が進み,実用的なシステムが構築されつつある.その一方で,そうした研究があまり進んでいない言語が存在する.こうした言語においては,翻訳の要である対訳辞書の整備も遅れている場合が多い.一般に対訳辞書の構築には高いコストが必要であり,機械翻訳システムを実現する上での障害となっている.しかし,人間が翻訳作業をする場合,対訳辞書に記載がない単語を別の表現に言い換えて辞書を引くことにより,この問題に対処する場合がある.本研究ではこの手法を模倣し,未登録語を登録語に言い換えることにより対訳辞書を拡充することを提案する.本論文では,対訳辞書の拡充に必要な単語の言い換え処理を収集段階と選抜段階の二つに分割し,前者において語義文に基づく手法を,後者において類似度に基づく手法をそれぞれ適用した.また,類似度に基づく手法では,シソーラスにおける概念間の距離に加え,単語を構成する漢字の語義を利用した.これによって,語法や概念が近く意味的にも等価な言い換えを獲得できた.さらに,獲得した言い換えを翻訳システムで翻訳して日本語--ウイグル語対訳辞書への追加を試みたところ,未登録語300語のうち,その68.3\%に対して利用可能な対訳が得られた.
| |
V14N01-01
|
日本語係り受け解析を行なう新しいアルゴリズムを述べる.このアルゴリズムによれば,トップレベルの精度を落とすことなく線形時間で係り受け解析が行なえる.本論文では,アルゴリズムの形式的な記述を行ない,その時間計算量を理論的に議論する.加えて,その効率と精度を京大コーパスVersion2を使って実験的にも評価する.改良された係り関係のモデルと提案手法を組み合わせると,京大コーパスVersion2に対して従来手法よりもよい精度が得られた.
| |
V29N01-05
|
%人間は対話においてしばしば相手の質問や発話に対して間接的な応答をする.例えば,予約サービスにおいてユーザがオペレータに対して「あまり予算がないのですが」と応答した場合,オペレータはその応答には間接的に「もっと安い店を提示してください」という意図が含まれていると解釈できる.大規模な対話コーパスを学習したニューラル対話モデルは流暢な応答を生成する能力を持つが,間接的な応答に焦点を当てたコーパスは存在せず,モデルが人間と同様に間接的な応答を扱うことができるかどうかは明らかではない.本研究では既存の英語対話コーパスであるMultiWoZを拡張し,71,498件の間接的応答と直接的応答の対からなる対話履歴付きパラレルコーパスを構築した.また,間接的な応答を扱う能力を評価するための3つのベンチマークタスクを設計し,最新の事前学習済みモデルの性能を調査した.さらに,ユーザーの間接的な発話を事前に直接的な発話に変換することで対話応答生成の性能が向上することを確認した.\blfootnote{本論文の内容の一部は,情報処理学会第249回自然言語処理研究会\cite{DIRECT_NL}およびFindingsoftheAssociationforComputationalLinguistics:EMNLP2021\cite{DIRECT_EMNLP}で報告したものである.}
| |
V02N01-03
|
日本語文章要約システム\Gについて報告する.一般に,質の良い文章要約を行うためには,ある一つの言語現象だけをとらえた談話解析だけでは不十分である.なぜなら,談話に関わる言語現象は相互に関連しているからである.本研究ではこの観点から,日本語での様々な表層的特徴をできるだけ多く利用して,日本語文章の要約を試みる.本稿では実際に計算機上で試作した論説文要約システム\Gに関して,これで用いられている論説文要約の手法の紹介と,これによって出力された文章の評価を行う.
| |
V27N04-06
|
%本稿は質問を対象とした抽出型要約を扱う.ニューラルネットワークによる抽出型要約モデルの学習には,大規模なラベル付きデータが必要となる.ユーザが自由に記述するYahoo!知恵袋などのコミュニティQA(CQA)に投稿される質問に対しては,ラベル付きデータの獲得が難しい.そこで,本研究ではラベル付きデータが不足する問題を軽減するため,小規模な人手ラベル付きデータに加え,CQAから大量に獲得可能な質問-回答ペアを活用する,半教師あり要約モデルを提案する.また,提案モデルの学習法として,質問-回答ペアを活用した事前学習,同時学習,DistantSupervisionによる疑似ラベルの活用,サンプリング手法などを提案する.従来の半教師あり学習の枠組みでは考慮されてこなかった,質問-回答といったペア構造から,効率的に要約モデルを学習する手法を考察する.実験より,適切なサンプリング法や疑似ラベルを用いた同時学習手法により,特にラベル付きデータが小規模な場合に良い性能を示したことを報告する.
| |
V10N03-01
|
SENSEVALは語義曖昧性解消を対象としたコンテストである.本論文では,第2回SENSEVAL(SENSEVAL-2)における日本語辞書タスクの概要について報告する.日本語辞書タスクでは,語の意味の区別(曖昧性)を岩波国語辞典によって定義した.参加者には,岩波国語辞典,訓練データ,評価データの3つが配布された.訓練データは,3,000個の新聞記事中の単語に正しい語義を付与したコーパスである.一方評価データは,参加者のシステムが語義を選択するべき単語を含んだ新聞記事である.評価単語の種類は,名詞50,動詞50,合わせて100個である.また各評価単語毎に100ずつ語義を選択するとしたため,評価単語の総数は10,000である.正解データは,評価対象となる10,000個の単語について,二名の作業者が独立に正しい語義を付与して作成した.この際,二者の語義が一致した割合は0.863であり,Cohenの$\kappa$は0.657であった.また,二者の語義が一致しなかった場合には,第三者が正しい語義を選んだ.日本語辞書タスクには,3団体7システムが参加した.ベースラインシステムのスコア(正解率)が0.726であるのに対し,一番成績の良かった参加者のシステムのスコアは0.786であった.
| |
V14N03-01
|
「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,言語の研究においてしばしば自明視され,議論の前提とされる.本稿は,話し手の言語行動に関するこの一見常識的な考え(「表す」構図)が,日常の音声コミュニケーションにおける話し手の実態をうまくとらえられない場合があることを示し,それに代わる新しい構図(「する」構図)を提案するものである.現代日本語の日常会話の音声の記録と,現代日本語の母語話者の内観を用いた観察の結果,「表す」構図が以下3点の問題点をはらむことを明らかにする:(i)目的論的性格を持ち,目的を伴わない発話を収容できない;(ii)外部からの観察に基づいており,当事者(話し手)のきもちに肉薄し得ない;(iii)モノ的な言語観に立ち,言語を行動と見ることができない.中心的に扱われるのは,あからさまに儀礼的なフィラー,つっかえ方,りきみである.「話し手は自分のきもちに応じて,フィラー・つっかえ方・声質を使い分けている」という「表す」考えが一見正しく思えるが,実はどのような限界を持つのかを,実際のコミュニケーションから具体的に示す.
| |
V28N04-10
|
本稿では,文脈を考慮したニューラル機械翻訳の精度向上のため,目的言語側の前文の参照訳と機械翻訳結果の両方を文脈情報として用いる手法を提案する.文脈として,原言語側または目的言語側の周辺の文が利用できるが,目的言語側の周辺の文を用いる手法は翻訳精度が下がることが報告されている.目的言語側の文脈を利用したニューラル機械翻訳では,学習時は参照訳を用い,翻訳時は機械翻訳結果を用いるため,参照訳と機械翻訳結果の特徴の異なり(ギャップ)が原因の1つと考えられる.そこで,学習時と翻訳時の目的言語側の文脈情報のギャップを緩和するために,学習時に用いる目的言語側の文脈情報を学習の進行に応じて参照訳から機械翻訳結果へ段階的に切り替えていく手法を提案する.時事通信社のニュースコーパスを用いた英日・日英機械翻訳タスクと,IWSLT2017のTEDトークコーパスを用いた英日・日英,および英独・独英機械翻訳タスクの評価実験により,従来の目的言語側の文脈を利用した機械翻訳モデルと比較して,翻訳精度が向上することを確認した.
| |
V30N02-20
|
%一般ドメインでの固有表現抽出が高い精度を実現するようになった今,研究の目標は化学や医療,金融などさまざまなドメインでの固有表現抽出技術の精緻化へとシフトしている.そこで本論文では,ドメイン依存の固有表現抽出技術応用に関する近年の国内研究動向を報告したい.技術に重点を置いた分析は他文献に譲り,具体的な問題を抱えるさまざまなドメインの読者を念頭に「どのようなドメインでどのような対象に対してどのように固有表現抽出が行われているか」を調査した.4つの学会大会論文および3つの学会論文誌からドメイン依存の固有表現抽出技術に関する論文を調査したところ,該当する論文のうち約半数が,化学ドメインにおける新規商品開発等支援のための化学物質名・化学物質間関係抽出を主題としていた.その他のドメインは,医療,金融,機械加工,文学,食など多岐にわたり,多様な抽出目的・抽出対象を確認できた.技術的には機械学習を使った手法が主流となっており,とくに本論文の調査期間ではBiLSTM-CRFおよびBERTを使う事例が大勢を占めているが,それらを補完する目的で辞書等の言語資源を組み合わせる手法も多く見られている.
| |
V26N02-08
|
本稿では,日本語述語項構造解析に分野適応の技術を導入することを提案する.述語項構造がアノテーション付けされた現代日本語書き言葉均衡コーパス(BCCWJ-PAS)において,メディアの違いにより項の種類の出現頻度が異なることがわかった.特に外界照応においてその傾向は顕著である.過去の日本語述語項構造解析の多くは,新聞記事コーパスを対象にしているために,この傾向には注目していなかった.この問題に取り組むため,まず,RNNベースの述語項構造解析器をベースラインとして使用し,3種類の異なる分野適応技術とその組み合わせを導入した.現代日本語書き言葉均衡コーパス(BCCWJ-PAS)を用いた評価実験では,述語項構造解析には分野依存性があることがわかった.特にガ格とヲ格の解析では,分野適応が日本語述語項構造解析の性能向上に有効であることが確認され,QAテキストの解析においてベースラインと比較しF1値が最大で,{$0.030$}向上した.
| |
V03N04-01
|
国文学作品の電子化テキストのためのデータ記述ルールについて検討した.様々な国文学作品の特徴を整理し,電子化テキストの目的と研究対象をまとめ,必要なデータ記述のための機能や情報構造について考察している.データ記述の基本原則を作品の構造とテキストの構造に分けて考察し,またデータ表記の様相を分析,評価し,ルール化についてまとめている.3つの基本ルールから成るKOKINルールと呼ぶデータ記述文法を定義し,作成した.これは国文学作品を対象とする電子化テキスト記述用のマークアップ文法である.ルールに基づく電子化データを実際に作成し,ルールの構文の正当性やルールの有用性などについて評価している.例えば,電子化データのテキストデータベースやCD-ROMへの登録,SGMLへの変換などを行っている.これらの結果,ルールの有効性が確認され,実用性についても高く評価された.
| |
V13N03-06
|
語彙・構文的言い換えの中には,形態・構文的パターンに基づいて一括りにできるものの,表現を構成する語の統語・意味的な特性に依存して言い換えの可否や言い換え方が決まる現象が少なくない.本論文では,そのような言い換えを語彙構成的言い換えと呼ぶ.たとえば,複合語を構成語に分解するような言い換え,機能動詞構文の言い換え,態や格の交替,種々の動詞交替,語彙的派生などは語彙構成的言い換えの範疇に含まれる.我々は現在,これら語彙構成的言い換えに関わる語の統語・意味的な特性を明らかにするため,および言い換え生成技術の定量的評価のために,個々の言い換えクラスごとに言い換え事例集(言い換えコーパス)を構築している.本論文では,言い換え前後の表現の形態・構文的パターンと既存の言い換え生成システムを用いて言い換え事例を半自動的に収集する手法について述べる.また,日本語の機能動詞構文の言い換え,動詞の自他交替を対象とした予備試行の結果を報告する.
| |
V25N05-04
|
文法誤り訂正の研究開発では,訂正システムの性能を自動評価することは重要であると考えられている.従来の自動評価手法では参照文が必要であるが,参照文は人手で作成しなければならないため,コストが高く網羅性に限界がある.この問題に対処するために,参照文を用いず,文法性の観点によって訂正を評価する参照無し手法が提案されたが,従来の参照有り手法の性能を上回ることはできなかった.そこで本研究では,先行研究で提案された手法を拡張し,参照無し手法の可能性について調査する.具体的には,文法性に加えて流暢性と意味保存性を組み合わせた参照無し手法が,従来の参照有り手法よりも人手評価スコアを正確に予測できることを実験的に示す.また,参照無し手法は文単位でも適切な評価が可能であることと,文法誤り訂正システムに応用可能であることを示す.
| |
V05N01-06
|
本論文では,指定した文書と類似する文書を検索する文書連想検索のための確率的クラスタリングHBC(HierarchicalBayesianClustering)を提案する.文書連想検索を実現する際の問題点は,類似文書の検索に時間がかかることである.単純な網羅検索では,比較対象の大きさ$N$に比例した$O(N)$の検索時間を要する.本論文では,クラスタ検索と呼ばれる検索手法を用いることでこの問題を解決する.クラスタ検索では,通常,クラスタリングによりクラスタの二分木をあらかじめ構築しておき,その上でトップダウンに二分木検索を行うため,検索時間を$O(\log_2N)$に抑えることができる.ところが,従来のクラスタ検索では,検索時に使う距離尺度とクラスタリング時に使う距離尺度が直接関係ないため,単純な二分木検索では十分な検索精度が得られなかった.それに対しHBCは,クラスタリングの対象文書を自己検索した際の精度を最大化するため,検索により適したクラスタリングである.実験では,「現代用語の基礎知識」を用いて,HBCを用いたクラスタ検索がWard法を用いた従来のクラスタ検索よりも優れていることを実証する.また,「WallStreetJournal」を用いて,HBCを用いたクラスタ検索が網羅検索に比べノイズ頑健性に優れていることを実証する.
| |
V06N01-02
|
本稿は最長文脈優先に基づいて長さ可変文脈で品詞タグづけを行うマルチニューロタガーを提案する.マルチニューロタガーはそれぞれ長さの異なる文脈を入力とした複数のニューラルネット(それぞれをシングルニューロタガーと呼ぶ)とそれらの出力を選別する最長文脈優先セレクターで構成される.個々のニューラルネットの訓練はそれぞれ独立に行なわれるのではなく,短い文脈での訓練結果(訓練で獲得した重み)を長い文脈での初期値として使う.その結果,訓練時間が大幅に短縮でき,複数のニューラルネットを用いても訓練時間はほとんど変わらない.タグづけにおいては,目標単語自身の影響が最も強く,前後の単語もそれぞれの位置に応じた影響を与えていることを反映させるために,入力の各構成部分は情報量最大を考慮して訓練データから得られるインフォメーションゲイン(略してIGと呼ぶ)を影響度として重み付けられる.その結果,更に訓練時間が短縮され,タグづけの性能が改善される.計算機実験の結果,マルチニューロタガーは,8,322文の小規模タイ語コーパスを訓練に用いることにより,未訓練タイ語データを94\%以上の正解率でタグづけすることができた.この結果は,固定長さを文脈としたどのシングルニューロタガーを用いた場合よりも優れ,マルチニューロタガーはタグづけ過程において動的に適切な長さの文脈を見つけていることを示した.
| |
V16N05-01
|
言語モデルの分野適応において,適応対象の分野の単語境界情報のない生コーパスの有効な利用方法として,確率的単語分割コーパスとしての利用が提案されている.この枠組では,生コーパス中の各文字間に単語境界が存在する確率を付与し,それを用いて単語$n$-gram確率などが計算される.本論文では,この単語境界確率を最大エントロピー法に基づくモデルによって推定することを提案する.さらに,確率的単語分割コーパスを従来の決定的に単語に分割されたコーパスで模擬する方法を提案し,言語モデルの能力を下げることなく計算コストが大幅に削減できることを示す.
| |
V17N05-01
|
本稿では評判情報関連タスクにおいて必要不可欠と考えられる,評判情報コーパスを人手により効率良く作成する手法について検討し,作成されたコーパスについて基礎的な分析を行う.まず,注釈付けに用いる評判情報モデルとして,項目—属性—属性値—評価の4つ組からなる2層構造モデルを提案する.次に,複数注釈者の人手によるコーパス作成について検討する.その際に,注釈者間の注釈揺れが問題となる.予備実験の結果,注釈者が他の注釈者と相談をせずに独自に注釈付けの判断を行った場合には注釈付けの一致率が十分でないことがわかった.そこで,複数の注釈者間で判断に関する情報を共有するための方法として,注釈事例参照の利用を提案し,注釈事例参照を組み込んだ注釈付け支援ツールの試作を行った.これにより,注釈付けの判断に関する情報を複数の注釈者間で緩やかに共有することができる.評価実験によれば,注釈事例の参照機能が注釈揺れ削減に効果があることがわかった.さらに,上記の手法を用いた評判情報コーパス作成について報告する.また,注釈事例参照の有効性を確認した後,1万文のレビュー文書に対して10名の注釈者が注釈付けを行い,評判情報コーパスを作成した.そして,作成したコーパスについて,評判情報の各構成要素の統計的調査を行った結果,提案した2層構造モデルを用いて評判情報を捉えることが有効であることがわかった.
| |
V24N03-06
|
本稿は,自動単語分割における精度向上を実現するために,非テキスト情報とその説明文に対するシンボルグラウンディングを用いた新しい単語分割法を提案する.本手法は,説明文が付与された非テキスト情報の存在を仮定しており,説明文を擬似確率的単語分割コーパスとすることで,非テキスト情報と分野固有の単語との関係をニューラルネットワークにより学習する.学習されたニューラルネットワークから分野固有の辞書を獲得し,得られた辞書を単語分割のための素性として用いることでより精度の高い自動単語分割を実現する.将棋局面が対応付けされた将棋解説文から成る将棋解説コーパスを用いて実験を行い,シンボルグラウンディングにより得られた辞書を用いることで単語分割の精度が向上することが確認できた.
| |
V18N04-02
|
本稿では係り受け構造情報のタグ付けの一貫性について考える.係り受け構造には,統語的制約により一意に決まる構造と選択選好性によるタグ付け作業者に委ねる構造がある.多くの場合,統語的制約を優先してタグ付けられるが,選択選好性に影響され誤ってタグ付ける例が多々ある.このような事例について誤り傾向の差分を評価するために,ゲームを用いた新しい心理言語実験手法を提案する.埋め込み構造によるガーデンパス文を用いて\mmodified{13}人の被験者で実験を行ったほか,6種類の係り受け解析器を用いて解析誤り傾向の比較を行った.さらに最も誤った種類の文に対し,選択選好性がどのように影響したかについて報告する.
| |
V06N04-06
|
我々が日常行っているおしゃべりのように明確な目標の定まっていない対話では,話者は事前に対話戦略を立てることができない.そのような対話では話者は,その場で断片的に思い付いたことを発話し(即興性),相互に触発されて新しい考えが浮き上がり(創造性),全体で一つの対話を作っていく.我々は,即興性と創造性を備えた対話を創発的な対話と呼び,このような対話を収録し,対話コーパスとして整備することを考えた.対話の収録には,解き方や正解かどうかの判定が明確になっていない課題を二人で協調して解く課題を用い,「画像と音声を用いた対話環境」と「音声だけの対話環境」の2つの条件で実験を行った.収録した対話には,相手の立場を尊重し互いに良い関係を作っていくことを目的とした共話現象や,さまざまな同意表現の使われ方が観察され,これまでのような目的指向対話には見られない特徴のある対話コーパスが得られた.
| |
V04N04-03
|
日本語のアスペクトの研究は,継続相,完成相というような分類とそれぞれの意味を記述していく段階から,副詞的成分などの関わりを含め,アスペクト的な意味の決まり方のプロセスを整理する方向へと発展してきている.本稿では,アスペクト形式や副詞句の意味を時間軸におけるズーミングや焦点化といった認知的プロセスを表示するものとしてとらえ,動詞句の意味に対する動的な操作であると考える.その上で,動詞句の意味をコーパスに現れた表層表現から推定し,素性構造として表現する.実験の結果得られた動詞句の分類を評価するために,最も基本的なアスペクトの形態である「シテイル」形の意味を自動的に決定する処理を行なった.200文における正解率は71\%であった.これらの情報は,動詞句のアスペクト的な意味のあり方の類型を与えるだけではなく,文間の関係をとらえる際の手がかりを提供するものであると考える.
| |
V15N02-02
|
同義語の同定は,情報検索,テキストマイニングなどのテキスト処理を行う上で必要な作業である.同義語辞書を作成することにより,テキスト処理の効率や精度の向上を期待できる.特定分野における文書には,専門の表現が多く用いられており,その中には,分野独特の同義語が多量に含まれている.例えば,日本語の航空分野では,漢字・ひらがなだけでなく,カタカナ,アルファベット,およびそれらの略語が同義語として用いられている.この分野の同義語は,汎用の辞書に登録されていないものが多く,既存の辞書を使用できないので,辞書を新たに作成する必要がある.また,辞書作成後も常に新しい語が発生するので,辞書の定期的な更新が必要となるが,それを人手で行うのは大変な作業である.本論文では,同義語辞書作成を半自動化するシステムを提案する.システムは,クエリが与えられると意味的に同じ候補語を提示する.辞書作成者は,その中から同義語を選択して,辞書登録を行うことができる.候補語のクエリに対する類似度は,同義語の周辺に出現する語の頻度情報を文脈情報とし,その余弦から計算する.文脈情報のみでは十分な精度が得られない場合,既知の同義語を知識としてシステムに与えることにより,文脈語の正規化を行い,精度を向上できることを確認した.実験は,航空分野の日本語のレポートを対象とし,システムの評価には平均精度を用いて行い,満足できる結果が得られた.
| |
V20N02-04
|
本論文は,文書分類のための新手法として,NegationNaiveBayes(NNB)を提案する.NNBは,クラスの補集合を用いるという点ではComplementNaiveBayes(CNB)と等しいが,NaiveBayes(NB)と同じ事後確率最大化の式から導出されるため,事前確率を数学的に正しく考慮している点で異なっている.NNBの有効性を示すため,オークションの商品分類の実験とニュースグループの文書分類の実験を行った.ニュースグループの文書分類では,一文書あたりの単語数(トークン数)を減らした実験と,クラスごとの文書数を不均一にした実験を行い,NNBの性質を考察した.NB,CNB,サポートベクターマシン(SVM)と比較したところ,特に一文書当たりの単語数が減り,クラスごとの文書数が偏る場合において,NNBが他のBayesianアプローチより勝る手法であること,また,時にはSVMを有意に上回り,比較手法中で最も良い分類正解率を示す手法であることが分かった.
| |
V06N05-03
|
\quad本稿では,データベースから関連する論文を自動的に収集し,人間が特定分野のサーベイ論文作成する作業を支援するシステムを示す.本研究では,サーベイ論文作成支援の際,論文の参照情報に着目する.論文の参照情報とは,論文中でその論文と参照先論文との関係について記述されている箇所(参照箇所)から得られる情報のことで,参照先論文の重要点や,参照元と参照先論文間の相違点を明示する有用な情報が得られる.サーベイ論文作成には2つの処理(1)特定分野の論文の収集(2)論文間の相違点の検出が必要であると考えられる.本研究では参照情報を利用することでこれらの処理が部分的に実現可能であることを示す.具体的には,ある論文が他の論文を参照する時の参照の目的を,cuewordを用いて解析し,論文の参照・被参照関係にリンク属性(参照タイプ)を付与する.結果として,参照箇所抽出ではRecall79.6\%,Precision76.3\%の精度が得られた.また,参照タイプ決定では83\%の精度が得られた.これらの参照タイプを利用し,ある特定分野の論文を自動的に収集するのに近い処理が可能になった.また,ユーザに論文間の参照関係を表すグラフ,グラフ中の個々の論文のアブストラクト,論文間の相違点の記述された参照箇所を提示するシステムを構築した.このシステムを利用することで特定分野の論文が自動収集され,また収集された論文集合の論文間の相違点が明らかにされるため,参照情報がサーベイ論文作成の支援に有用であることが示された.
| |
V27N02-08
|
%本稿では,日経平均株価の市況コメントを生成するタスクを例として,時系列数値データの多様な特徴を抽出してテキスト化する手法を提案する.日経平均株価の市況コメントでは価格の変動の特徴だけが表出されるわけではなく,価格の履歴を参照する表現,時系列データの変化を示す表現,テキストが書かれる時間帯に依存する表現が見られる.また,数値に言及する場合は,価格が直接言及されることもあれば,前日からの増減幅やそれらを切り上げ・切り捨てした値などが用いられることもある.本研究では,エンコーダ・デコーダモデルをベースラインとし,上記のような多様な特徴を自動抽出してテキスト化するためのエンコード/デコード手法を探求する.まず,株価の短期的・長期的な変化を捉えるために,エンコーダへの入力として短期的および長期的な時系列株価データを与える.デコード時には,テキストが書かれる時間帯に依存する表現を生成するために,時間帯情報を導入する.また,デコーダが数値に言及する際,数値の演算操作を推定して計算することで株価の数値表現を生成する.実験では,自動評価および情報性・流暢性に関する人手評価を行い,提案手法によって上記の特徴を捉えた質の高い株価の市況コメントの生成が可能になることを示した.
| |
V23N01-01
|
本稿では自動要約システムの誤り分析の枠組みを提案する.この誤り分析の枠組みは,要約が満たすべき3つの要件と誤った要約が生じる5つの原因からなり,要約の誤りをこれらからなる15種類の組み合わせに分類する.また,システム要約において15種類の誤りのうちどの誤りが生じているかを調査する方法もあわせて提案する.提案する誤り分析の枠組みに基づき,本稿ではまず,システム要約を分析した結果を報告する.さらに,分析の結果に基づいて要約システムを改良し,誤り分析の結果として得られる知見を用いてシステムを改良することでシステム要約の品質が改善されることを示す.
| |
V23N04-02
|
構文情報を考慮する機械翻訳手法である統語ベース翻訳では,構文解析器の精度が翻訳精度に大きな影響を与えることが知られている.また,構文解析の精度向上を図る手法の一つとして,構文解析器の出力を学習データとして用いる構文解析器の自己学習が提案されている.しかし,構文解析器が生成する構文木には誤りが存在することから,自動生成された構文木が常に精度向上に寄与するわけではない.そこで本論文では,機械翻訳における自動評価尺度を用いて,このような誤った構文木を学習データから取り除き,自己学習の効果を向上させる手法を提案する.具体的には,解析された$n$-best構文木それぞれを用いて統語ベース翻訳を行い,それぞれの翻訳結果に対し,自動評価尺度でリスコアリングする.この中で,良いスコアを持つ構文木を自己学習に使用することで,構文構造はアノテーションされていないが,対訳が存在するデータを用いて,構文解析・機械翻訳の精度を向上させることができる.実験により,本手法で自己学習したモデルを用いることで,統語ベース翻訳システムの翻訳精度が2つの言語対で有意に向上し,また構文解析自体の精度も有意に向上することが確認できた.
| |
V08N01-04
|
本論文では,IREXワークショップにおける情報検索課題(IR)の本試験の結果,および,参加したすべてのIRシステムについてのアンケートをもとに,平均適合率,再現率・適合率曲線を直線回帰させた傾きと切片がシステムに用いられた手法とどのような相関関係をもっているのかを調査し,それぞれの手法がシステムの性能に与える影響の大きさを示した.その結果,多くの手法について,再現率0.0での適合率の値と適合率の減少量にトレードオフの関係が存在し,検索システムに用いる手法の選択の難しさが現れた.また,NARRATIVEタグの使用有無により,同様に相関関係を調査し,NARRATIVEタグの有効性とシステムの性能に与える影響の大きさを示した.その結果,NARRATIVEタグを利用する場合,それに適した有効な手法を選択することが重要であることが分かった.
| |
V10N02-02
|
自由記述形式のアンケート調査の回答は,選択型回答のアンケートと異なり,回答者の自由な意見を集約できる効果があるため社会的にも注目されている.アンケート調査(質問紙調査法)について研究されてきた社会学・心理学の分野では,アンケートの回答分類はコーディングと呼ばれ,選択型回答・自由回答ともに人手で分析・分類されることが多い.特に自由回答のコーディングには多大なコストがかかるうえに,人の判断による作業は主観的な分類結果を招くという懸念もある.このような背景から,本研究では言語処理の要素技術であるテキスト分類の技術を取り入れアンケート回答の自動分類を行うことで,その結果を自由回答のコーディングに活用するためのコーディング支援を試みた.テキストの分類には,学習アルゴリズムのひとつである最大エントロピー法を用いている.分類にあたり,まずはテキストへのタグ付与実験をもとに意図タグの決定を行った.これらの意図タグを付与した意図タグ付き正解データを作成し,このデータを訓練データとしてN-gram抽出を行い,各タグに特徴的な表現を取り出した.この表現を素性とし,訓練データに対して最大エントロピー法を用いて学習し,分類を行った結果,約8割弱の分類精度が得られた.この手法によって,自由回答テキストに対して回答者の意図を反映した分類を行うことができた.これにより,回答を一件ずつ読みながら類似の内容を持つ回答を探すという,自由回答の人手による分類コストを軽減することができた.また,辞書を用いる形態素解析を使わずに,最大エントロピー法による素性と意図タグの学習を行うことで,「です」「ません」「べき」「必要」「図る」「化」など断片的な情報が意図タグ付与に効果的であることが明らかになった.
| |
V14N04-04
|
本稿では,格フレームに基づき構文・格解析を統合的に行う確率モデルを提案する.格フレームは,ウェブテキスト約5億文から自動的に構築した大規模なものを用いる.確率モデルは,述語項構造を基本単位とし,それを生成する確率であり,格フレームによる語彙的な選好を利用するものである.ウェブのテキストを用いて実験を行い,特に述語項構造に関連する係り受けの精度が向上することを確認した.また,語彙的選好がどの程度用いられているかを調査したところ,60.7\%という高い割合で使われていることがわかり,カバレージの高さを確認することができた.
| |
V15N04-04
|
本研究は,実データに基づいた形容詞の観点からみた概念体系の自動構築をめざし,その一環として,形容詞概念の階層関係構築に焦点を当てたものである.包含関係の尺度によって上位下位関係を求め,その単語間の上位下位関係に基づき概念階層を自動構築した.結果については,カバー率などの表層的な面と,階層の作られ方についての質的な面での評価を行った.階層の質的な面での評価にあたって,概念の継承関係と事例(形容詞)の各概念の成員としての連続性という観点から心理実験を行い,既存の人手によって作られたEDR辞書の階層と比較した.実験手法はScheffeの一対比較法を用いた.その結果,自動構築がよい,あるいは既存の辞書と有意差がないと判断された階層は,全体の43\%となった.抽出した概念数の不足や階層構築の際の問題点など課題も抱えているが,自動生成の階層が既存辞書の階層に対して,その結果の半分弱の階層で問題を提起するという意味で,ベースラインとなる数値と考える.
| |
V14N02-01
|
本論文ではWeb上の情報を利用し,自動的に関連語のシソーラスを構築する手法を提案する.検索エンジンを利用し,$\chi^2$値による語の関連度の指標を用い,従来のWebを用いた関連度の指標の問題点を解決する.また,新しいクラスタリング手法であるNewman法を用いて語のネットワークをクラスタリングすることで,従来手法より適切に関連語を同定する.コーパスおよび既存のシソーラスから生成した関連語正解セットを用い,提案手法の効果についての検証を行う.
| |
V31N04-06
|
%スポーツの試合の放送中,試合に関する多くのコメントがXに投稿されている場合,これらの投稿を読むことで大まかな試合経過の把握が可能である.しかし,投稿の内容は多岐にわたり,これらの投稿から瞬時に試合経過を把握することは容易ではない.そこで,本論文ではサッカーの試合に着目し,試合経過を瞬時に把握できるようにXへの投稿からスポーツ速報を生成するシステムの構築に取り組む.構築するシステムは,大規模言語モデルT5をベースに,特定の試合に関連するXへの投稿を入力し,一定時間毎に速報,あるいは生成しないことを示す``NaN''を生成するモデルを基本とする.しかし,単純なモデルでは速報の生成数が少ないという問題と同じイベントを指す速報文が複数生成される冗長性の問題という二つの問題が生じる.そこで,生成判定器を利用して速報生成数を制御する機構および過去の速報の内容を考慮して冗長性軽減を行う機構を組み込んだモデルを提案する.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は,2023年度人工知能学会全国大会(第37回)\cite{oshika-jsai},および,2023ConferenceonEmpiricalMethodsinNaturalLanguageProcessingで発表したもの\cite{Oshika}である.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V20N03-02
|
東日本大震災ビッグデータワークショップにおいて提供された,震災当日を含めた1週間分のツイートのうち,震災対応の初動期間にあたる震災後72時間を含む4日分のツイッターを解析した.ツイートのクラスタリングによって得られる全体の俯瞰を行ってから目的に応じた分類項目を設定し,その項目に即したツイートを抜き出す抽出器を作成した.一連の作業をよく行うためには,分類項目を設定するために用いられるクラスタリングの性能向上が重要な要素となっている.本研究では,古典的な類義語処理手法である特異値分解をクラスタリングに適用する際に,良く知られている次元圧縮に留まらず,特異値の大きさを特徴量の重みづけの大きさとして活用する手法を提案する.また,クラスタリング結果を人手で修正する作業の容易度を測るための新たな指標を提案し,人手による実作業の効率と比較する実験を行った.その結果,クラスタリングについては,主に作業効率の観点から,特異値による重みづけの有効性と提案する作業指標の妥当性が確認された.分類問題であるターゲットデータ抽出については,学習過程にそもそも重みづけの機構が備わっているにもかかわらず,検出率の向上に若干の効果が見られた.
| |
V21N01-01
|
一般に,項は述語に近いところにあるという特性がある.そのため,従来の述語項構造解析の研究では,候補を述語との位置関係でグループ分けし,あらかじめ求めておいたグループ間の優先順序に従って正解項を探索してきた.しかしながら,その方法には異なるグループに属する候補同士の比較ができないという問題がある.そこで我々は,異なるグループごとに最尤候補を選出し,それらの中から最終的な出力を決めるモデルを提案する.このモデルは優先度の高いグループに属する候補以外も参照することによって最終的な決定を行うことができ,全体的な最適化が可能である.実験では,提案手法は優先順序に従う解析よりも精度が向上することを確認した.
| |
V26N03-02
|
我々は,高齢者のQualityofLife(QOL)を家族に伝えることで,高齢者と離れて住む家族とのコミュニケーションを活性化することを目指している.高齢者のQOL表出発話(高齢者のQOLを推定するのに有用な手がかりを含んだ発話)の生成を補助するシステム構築に向けて,本論文では(1)QOLラベルつき対話コーパスを構築するための方法論を提案し,(2)QOLラベルを用いた特定のQOL情報を伝達する応答の生成について議論する.具体的には,模擬的なワーカを用いることの妥当性を予備実験により示した上で,クラウドソーシングを効果的に利用して高齢者が主体となる高齢者のQOL表出発話を大規模に収集し,QOLラベルつき対話コーパスを構築した.構築したコーパスを用いた応答生成実験により,「着くとすぐに本を読んでいるよ」のような家族の発話に対する高齢者の応答候補として,高齢者のQOLが《健康満足感(positive)》の場合は「今度本を読んであげよう」,《健康満足感(negative)》の場合は「私は新聞を読むのも億劫だよ」など,QOL情報の伝達に役立つ応答が生成されることを確認した.
| |
V09N04-01
|
本稿では,情報検索の結果として得られた文書集合中の各々の文書を要約する一手法を提案する.この場合の要約の質は,検索質問-要約文書間の関連性判定が,検索質問-原文書の間の関連性判定に一致する度合で評価されるので,検索を考慮した要約が必要となる.検索質問により語の重みにバイアスを与え,語の重要度を求める従来手法とは異なり,我々の方法では,検索された文書間の表層的類似性を適切に説明する語に高い重みを付与する.具体的には,検索文書集合に階層的クラスタリングを適用することにより,文書間の類似性構造を抽出するとともに,各クラスタにおける各語の出現確率から,その構造を説明するのに寄与する単語により高い重みを与える.我々は,その重みづけに情報利得比を用いることを提案する.そして,この語の重み付けに基づき重要文抽出方式による検索文書要約システムを実装した.このシステムを評価型情報検索ワークショップであるNTCIR2におけるTextSummarizationChallengeの情報検索タスクにより評価した結果,関連性判定において検索質問バイアス付きTF方式,リード文方式によるベースライン手法ならびに,他参加システムよりも,良好な結果を示した.
| |
V19N02-01
|
日本語を含めた多くの言語において,複合名詞内部の単語境界は空白で分かち書きされない.こうした複合名詞を構成語列へと分割する処理は,多くの自然言語処理の応用において重要な基礎技術となる.日本語の場合,片仮名語は生産性が高く未知語が多いことから,特に片仮名複合名詞の扱いが技術的な問題となる.この問題の解決を図るため,本論文は片仮名複合名詞の言い換えと逆翻字を分割処理に利用する方法を提案する.実験では,言い換えと逆翻字をラベルなしテキストから抽出し,その情報を利用することによって,分割精度が統計的に有意に向上することを確認した.
| |
V02N04-03
|
本稿では,動詞の語尾変化について体系的な扱いが可能な派生文法に基づいて,日本語形態素解析システムのための形態素文法を記述した。但し,派生文法における音韻単位での扱いを日本語の文字単位の扱いに変更する方法を示し,より形態素解析処理に適した形で記述した.さらに,これを実働する形態素解析システムに適用し,EDRコーパスと比較することによって精度を測定した.
| |
V12N05-07
|
本研究では、数十文字程度の長さで携帯端末向けに配信されている新聞記事と数百文字程度の長さのWeb新聞記事の両者を約3年に渡って収集した。こうして収集したコーパスから文末表現の縮約などの言い換え表現の抽出を機械的に行った。まず、Webから収集した携帯向け新聞記事とWeb新聞記事からなるコーパスに対して記事単位の対応付けを行い、次に文単位の対応付けを行った。次に携帯向け記事文の文末の表現を形態素解析を用いて抽出し、その文に対応するWeb新聞記事の文を集める。そしてWeb新聞記事の文の文末から形態素ごとに言い換え先表現を抽出し、それに対して頻度等を用いた得点付け、および必要な名詞を欠落させてしまう不適切な言い換えの除去を行うことにより言い換え表現の抽出精度向上を図った。
| |
V04N01-03
|
\vspace*{-1mm}近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.しかし,話し言葉の特徴である,言い淀み,言い直し,省略などのさまざまな不適格性のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.我々は,適格文と不適格文を統一的に扱う統一モデルに基づく話し言葉の解析手法を提案した.この手法においては,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理がいずれも,最も優先度の大きい依存関係解釈を求めるという形で実現される.本稿では,この解析手法で用いるための優先度計算法について述べる.本手法は,コーパスに基づく手法であり,解釈の優先度はその解釈が学習データ中でどのくらいの頻度で生じているかに応じて与える.この際,学習データの希薄性の問題を回避するために,解釈の候補と完全に一致する事例だけでなく類似した事例も考慮する.本稿では,まず,我々の話し言葉の解析手法の概略を説明し,次に,本手法の詳細を説明した後,本手法を話し言葉の構文・意味解析システム上に実装し,その性能を評価することで本手法の有効性を示す.その結果,オープン試験で,約半数の文に完全に正しい依存構造が与えられることを示す.
| |
V31N04-09
|
%ユーザに長く利用される雑談対話システムを構築するためには,ユーザとシステムが良好な関係を築くことが重要である.我々は,任意のユーザ情報を自然に対話に活用することで,ユーザと良好な関係を構築するパーソナライズ可能な雑談対話システムの実現を目指す.本研究では,パーソナライズ可能な雑談対話システムの実現に向けて,対話文脈への適切性を保持しつつ,現在のトピックに関係なく任意のユーザ情報をシステム発話に取り込むためのコーパスを構築した.構築したコーパスを用いてモデルを学習し,モデルが任意のユーザ情報と対話文脈を踏まえたシステム発話を生成できることを確認した.さらに,学習したモデルをもとに雑談対話システムを構築し,ユーザとのインタラクティブな対話における任意のユーザ情報と対話文脈を踏まえた発話の有用性を確認した.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は,2022年度人工知能学会全国大会およびThe2024JointInternationalConferenceonComputationalLinguistics,LanguageResourcesandEvaluation(LREC-COLING2024)で発表済みのものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V30N02-10
|
%固有表現抽出(NamedEntityRecognition;NER)は,テキストからの知識獲得に用いられる要素技術の一つであり,たとえば,化学物質や医療の知識抽出に用いられている.NERの性能改善のため,対象タスクの教師データとは別の教師データを補助教師データとして用いる{\auxlearning}が提案されている.従来の補助学習では補助教師データとして1種類の教師データしか用いていない.そこで,本研究では,複数種類の教師データを補助教師データとして活用するNERの学習手法({\itM}ultiple{\itU}tilizationof{\itN}ER{\itC}orpora{\itH}elpfulfor{\itA}uxiliary{\itBLES}sing;{\bf{\proposed}})を提案する.具体的には,補助教師データ毎の補助学習を順次行うことで,対象タスクのモデルを補助教師データの種類の数だけ再学習する方法と,全種類の教師データを一つの補助学習で用いる方法の2種類の学習手法を提案する.評価実験では,化学物質名抽出タスクにおいて,7種類の化学/科学技術分野の補助教師データを用いて提案手法で学習したモデルの評価を行った.その結果,提案手法によるモデルはマルチタスク学習や1種類の補助教師データを用いる補助学習手法によるモデルと比べて,7種類のデータセットにおけるF1値のマイクロ平均,マクロ平均ともに高い性能となることを確認した.また,s800のデータセットにおいて従来手法と比較をして最も高いF1値を達成した.\renewcommand{\thefootnote}{}\footnote[0]{本論文は,21stWorkshoponBiomedicalLanguageProcessingで発表した論文\cite{watanabe-etal-2022-auxiliary}の内容に対して,マクネマー検定による検定結果や,ベースラインモデルや提案手法の複数回の性能評価などの追加実験の結果を追記したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V12N01-04
|
本論文では,チャット対話の対話構造を解析する手法を提案し,その実現可能性について論じる.まず,発言間の二項関係である継続関係と応答関係に対話構造を分解し形式化する.継続関係とは,質問やそれに対する応答を構成する同一話者による発言間の関係である(例えば,1つの質問を構成する2つの発言「あなたは」と「学生ですか?」の関係,あるいは1つの応答を構成する2つの発言「はい」と「そうです」の関係).応答関係とは,質問と応答のような異なる話者による発言間の関係である.これらの関係に基き、発言をまとめあげることで対話構造を解析する.本研究では,この問題をある発言とそれに先行する発言との間に継続関係または応答関係があるか否かの2値分類問題に分解し,コーパスベースの教師あり機械学習を試みた.解析対象は,対話構造を付与したコーパスである(2人対話と3人対話の合計69対話,11905発言).本手法による対話構造全体の正解との一致率は,2人対話87.4\%,3人対話84.6\%であった.
| |
V03N04-05
|
実用的な自然言語処理を開発するには大規模な言語資源が必要になる.語彙解析では辞書が共通の言語資源である.一方,構文解析では文法規則が主流になってくる.規則ベースは抽象的で解析時の挙動を理解することは困難であり,規則の規模が大きくなると保守改良が困難になるという課題がある.本論文では実際の文章から縮退型共起関係という2文節間の係り受け関係を品詞と付属語列で表現するデータを抽出し,係り受け解析の唯一の言語資源として利用したシステムを示す.本方式を用いて4000文から抽出した8000の縮退型共起関係データを用いたプロトタイプシステムを構築し,50文の新聞社説で評価実験を行ったところ,80%の係り受けが成功した.本システムの特徴として,規則駆動では困難な構文規則を学習したり拡張することが共起関係によるデータ駆動の良さから実現可能になっていることが挙げられる.
| |
V28N02-11
|
%本稿では,マルチモーダルニューラル機械翻訳(MNMT)のための教師付き視覚的注意機構を提案する.提案手法は,人手で付与された画像内の領域と単語との対応関係を視覚的注意の教師データとして与え,これらの対応関係を制約にして直接視覚的注意機構の学習を行う.教師なしで学習される従来の視覚的注意機構に比べてより正確に単語と画像領域との関係性を捉えることが期待される.実験ではMulti30kデータセットを用いた英独・独英翻訳,Flickr30kEntitiesJPデータセットを用いた英日・日英翻訳を行い,提案する教師付き視覚的注意機構によってTransformerベースのMNMTモデルの性能が改善することが確認できた.また,教師付きの言語間注意機構と組み合わせることにより,さらに性能が改善され,最大でBLEUスコアが1.61ポイント,METEORスコアが1.7ポイント向上することが確認できた.
| |
V19N05-01
|
オノマトペとは,擬音語や擬態語の総称である.文章で物事を表現する際に,より印象深く,豊かで臨場感のあるものにするために利用される.このようなオノマトペによる表現は,その言語を\addtext{母語}としている人であれば非常に容易に理解することができるため,国語辞書などにあえて記載されることは稀なケースである.また,記載があったとしても,使用されているオノマトペをすべて網羅して記載していることはない.そのため,その言語を\addtext{母語}としない人にとっては学習し難い言語表現である.そこで本稿では,オノマトペが表現する印象を推定する手法を提案する.日本語を対象に,オノマトペを構成する文字の種類やパターン,音的な特徴などを手がかりに,そのオノマトペが表現している印象を自動推定する.これにより,日本語を\addtext{母語}としない人に対して,日本語で表現されたオノマトペの理解の支援に繋がると考えられる.結果として,オノマトペの表記内のモーラ系列間の類似度とオノマトペの表記全体の音象徴ベクトルによる類似度を用いた手法が最も良い推定結果となり,\addtext{参考値である人間同士の一致率の8割程度にまで近づくことができた.}
| |
V18N02-03
|
本稿では,文書量に不変な定数を考える.このような定数には,言語や文書の複雑さや冗長性を定量化して捉える計算言語学上の意義がある.これらの指標は既存研究でさまざまなものが提案されてきたが,ほとんどの場合英語を中心とする小規模な文書を対象としてきた.本研究では英語以外のさまざまな言語や,大規模な文書も対象として扱い,主に先行研究において値が文長に依らないとされる3つの指標$K$,$Z$,$\mathit{VM}$と本研究で新たに試みた指標である$H$と$r$の5つの指標に対し,値が一定となるかどうかの実験を行った.結果,値が言語の種類や文長に依らずに一定となる指標は$K$と$\mathit{VM}$の2つの指標であった.なおかつこの2つの指標の値には自然言語とプログラミング言語の間で有意な差が見られ,言語の複雑さや冗長性をある観点で表した指標となっていると考えることができる.
| |
V10N04-02
|
音声対話システムが話し言葉に対応するためには,言い直し,助詞落ち,倒置などの不適格性とよばれる現象に対処する必要がある.これらの不適格性の中で特に問題となるのは,言い直しあるいは自己修復と呼ばれている現象である.しかし,自己修復に関する既存の手法は,自己修復を捉えるモデルと,その修正処理に問題点がある.本論文では,それらの問題点を改善した新しい手法を提案する.そして,提案手法を音声対話コーパスに適用した結果を基に,提案手法の有効性と問題点について考察する.
| |
V28N02-09
|
本研究では,単語分散表現に基づく単一言語内フレーズアラインメント手法を提案する.単一言語内フレーズアラインメントは,同一言語の文対に含まれる言い換えフレーズを対応付けるタスクである.既存手法は大規模な辞書や高品質な構文解析器を使用しており,依存する言語資源の観点から英語以外の言語への拡張が難しい.提案手法は学習済みの単語分散表現のみを用いるため,多くの言語において大規模に利用可能な単言語のコーパスのみに依存する.提案手法では,はじめに単語分散表現に基づいて単語アラインメントを獲得し,次に対訳フレーズアラインメントのヒューリスティクスを用いてフレーズアラインメントの候補を得る.最後に,単語分散表現から構成したフレーズ表現を用いて計算したアラインメントスコアに基づいて,適切なフレーズ対の組み合わせをラティス構造を用いて探索する.英語での評価実験により,既存のフレーズアラインメント手法を上回るF値を達成し,性能の改善を確認した.また,日本語のデータセットを構築して行った分析では,英語以外の言語へ容易に適用できることを確認した.
| |
V25N05-02
|
ニューラル機械翻訳では,従来の統計的機械翻訳に比べ文法的に流暢な文が生成されるが,出力結果に未知語が含まれることがしばしば指摘される.この問題に対処する方法としては,学習コーパス中の低頻度語を分割したり,未知語に位置情報を付け加えるなどの方法があるが,どれも日英翻訳では効果が低い.そこで本論文では,アテンションから構成した単語アライメント表を用いて出力文中の未知語と対応する入力文中の単語を見つけ,その単語を翻訳した単語で未知語を置き換えることで未知語をなくす手法を提案する.本論文の有効性を示すためにASPEC,NTCIR-10の2種類のコーパスを用いて実験を行った結果,本論文で提案する単語アライメント表の構成法を用いると,未知語を全く発生させず,かつ,BLEU値を向上させることができた.
| |
V17N05-02
|
日常の自然言語文には構成性(compositionality)に基づいて意味を扱う事が難しいイディオムやイディオム的な複数単語からなる表現,また,語の強い結合によって成り立つ決まり文句や決まり文句的表現が数多く使われているが,現在の自然言語処理(NaturalLanguageProcessing:NLP)ではこれらに十分な対応が出来ていない.近年,この種の特異性を持つ表現を複単語表現(Multi-WordExpression:MWE)と名付け,NLPの立場から英語のMWE全体を俯瞰・考察した論文(Sagetal.2002)が端緒となって,その重要性が広く認識されるようになった.しかし,その後の活発な研究にも拘わらず,包括的で信頼性のある言語資源を構築するには至っていない.筆者らは,現代日本語を対象とした概念語相当MWE辞書の構築を古くから進めてきており,本論文ではその初版の概要を報告する.本辞書,JDMWE(JapaneseDictionaryofMulti-WordExpressions)は主として人の内省に基づき,以下を目標に編纂されている.\\1.~典型的なイディオムや決まり文句に限定せず,いわば準イディオム,準決まり文\linebreak\phantom{1.~}句的表現の候補も採録すること\\2.~特定の構文構造に限定せず,広範囲かつ体系的に収録すること\\3.~異表記,派生形を網羅すること\\4.~構文構造情報を与え,表現の構文的柔軟性にも対処すること\\\hspace{1zw}現在の収録表現数は基本形で約104,000件であり,記載した異表記,派生形情報を使えば750,000表現程度をカバーする.本辞書は各MWEに依存(木)構造を与えた一種のツリーバンクと見なすことができる.
| |
V09N03-01
|
統計的クラス分類器としての決定リストは,近年自然言語処理における様々な分野でその有効性を示している.決定リストを構成する上で最も重要な問題の一つは,ルールの信頼度の算出法である.決定リストを用いた多くの研究では,最尤推定法と簡単なスムージングにより信頼度を算出しているが,理論的な根拠に欠け推定精度も高くないという問題がある.そこで本論文では,ベイズ学習法を利用してルールの信頼度を算出する手法を示す.さらに,証拠の種類ごとに異なる事前分布を利用することで,より正確な信頼度の推定が可能になり,決定リストの性能が向上することを示す.本手法の有効性を確かめるために,語義曖昧性解消の問題に決定リストを適用して実験を行なった.英語に関してはSenseval-1のデータを用い,日本語に関しては疑似単語を用いた.その結果,ベイズ学習による信頼度推定手法が,ルールの確率値の推定精度を高め,決定リストの分類性能を向上させることを確認した.
| |
V25N03-02
|
文と文がどのような意味的関係にあるかという文間の関連性の計算は,情報検索や文書分類,質問応答などの自然言語処理の基盤を築く重要な技術である.文の意味をベクトルや数値で表現する手法は未だ発展途上であり,自然言語処理分野においては,様々な機械学習による手法が活発に研究されている.これらの手法では,文字や単語を単位としたベクトルを入力として,それらの表層的な出現パターンとその振る舞いを学習することで,文ベクトルを獲得している.しかし,否定表現を含む文など,文の構造的意味を正確に表現できるかは自明ではない.一方で,形式意味論においては,表現力の高い高階論理に基づいて意味の分析を行う研究が発展しているが,文間の関連性のような,連続的な意味的関係を表現することが困難である.そこで本研究では,機械学習と論理推論という二つの手法を組み合わせて文間の関連性を計算する手法を提案する.具体的には,文間の含意関係を高階論理の推論によって判定するシステムの実行過程から,文間の関連性に寄与する特徴を抽出し,文間の関連性を学習する.文間類似度学習と含意関係認識という2つの自然言語処理タスクに関して提案手法の評価を行った結果,推論の過程に関する情報を特徴量に用いることによって,いずれのタスクにおいても精度が向上した.また,含意関係認識用データセットの一つであるSICKデータセットの評価では,最高精度を達成した.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.