id
stringlengths
9
9
text
stringlengths
18
1.29k
title
stringclasses
1 value
V17N04-01
本稿では条件付確率場に基づく固有表現抽出において,新たなドメインにモデルを適応するためのモデル学習コスト—正解データ作成コスト—を低減する2つの学習手法を提案する.本手法では,タグ単位の事後確率をタグ信頼度とみなし,信頼度の低いタグをシステムの解析誤りとして自動的に検出する.そして検出された解析誤りタグのみを修正の対象とするため,文全体の事後確率を利用する場合と比較して,修正が必要である箇所に効率よくコストを注力させることが可能となる.\\第1の学習手法として,能動学習に本手法を適用すると,システム出力の信頼度が低いタグのみを検出して人手修正対象とすることにより,従来手法と比較して修正コストが1/3に低減した.\\また,第2の学習手法として正解固有表現リストを利用したブートストラップ型学習に適用すると,解析誤りとして検出されたタグの上位候補から半自動的に正解タグを発見可能であった.この学習法では,大量のプレーンテキストから,半自動で正解データを作成できるため,更に学習コストを低減させる効果がある.
V19N04-02
本稿では,文章に対する評点と国語教育上扱われる言語的要素についての特徴量から,個々の評価者の文章評価モデルを学習する手法について述べる.また,学習した文章評価モデルにおける素性毎の配分を明示する手法について述べる.評価モデルの学習にはSVRを用いる.SVRの教師データには,「表層」「語」「文体」「係り受け」「文章のまとまり」「モダリティ」「内容」というカテゴリに分けられる様々な素性を用意する.これらには日本の国語科教育において扱われる作文の良悪基準に関わる素性が多く含まれる.なおかつ,全ての素性が評価対象文章に設定される論題のトピックに依存しない汎用的なものである.本手法により,文章の総合的な自動評価,個々の評価者が着目する言語的要素の明示,さらに評点決定に寄与する各要素の重みの定量化が実現された.
V11N02-04
機械翻訳知識を対訳コーパスから自動構築する際,コーパス中に存在する翻訳の多様性に起因して冗長な知識が獲得され,誤訳や曖昧性増大の原因となる.本稿ではこの問題に対し,「機械翻訳に適した対訳文」に制限し,翻訳知識自動構築を試みる.機械翻訳に適した対訳文の指標として直訳性を提案し,これを測定する尺度として対訳対応率を定義した.\\\indentこの対訳対応率に従い,2つの知識構築法を提案する.第一は,翻訳知識構築の前処理としての,直訳性を用いた対訳文フィルタリング,第二は対訳文を直訳部/意訳部に分割し,部分に応じた汎化手法を適用する.これらの効果は,自動構築した知識を用いた機械翻訳による,訳文の品質という観点で評価を行った.その結果,後者の分割構築の場合で約8.6\%の入力文について翻訳品質が向上し,直訳性を用いた機械翻訳知識構築は,翻訳品質向上に有効であることが確認された.
V03N02-03
コンピュータを用いて,文学研究を進めるための検討を行った.これには,研究過程の中核である研究ファイルの組織化が必要で,そのモデルを定義した.モデルは研究過程で利用され,生成される様々な情報資源の構造認識による組織化である.モデルの検証のために,具体的な文学テーマを設定し,その実装を行い,評価した.その試みとして電子本「漱石と倫敦」考の研究開発を進めている.研究者による評価実験では,概して評判がよい.例えば,漱石の作品倫敦塔を読む場合に,各種参照情報を随時に利用できること,メモなどを自由に書き込むことができ,自分の研究環境の整備がコンピュータ上で可能であることが評価されている.さらに,モデルは実際の文学研究に有効であること,とくに教育用ツールとして効果的であるとの評価が得られた.
V13N03-02
本論文では,サポートベクタマシン(SVMs)を使った文書分類において仮想事例(virtualexamples)がどのように性能を改善するかを調べる.ある文書から少量の単語を追加したり削除したりしても,その文書が属するカテゴリは変化しないとの仮定を置いて,文書分類のために仮想事例を作る方法を提案する.提案手法をReuters-21758テストセットコレクションで評価した.実験により,仮想事例はサポートベクタマシンを使った文書分類の性能向上に役立つことが確認できた.特に,学習事例が少量の場合にその効果は顕著であった.
V17N04-07
未知語の問題は,仮名漢字変換における重要な課題の1つである.本論文では,内容の類似したテキストと音声から未知語の読み・文脈情報をコーパスとして自動獲得し,仮名漢字変換の精度向上に利用する手法を提案する.まず,確率的な単語分割によって未知語の候補となる単語をテキストから抽出する.次に,各未知語候補の読みを複数推定して列挙する.その後,テキストに類似した内容の音声を認識させることによって正しい読みを選択する.最後に,音声認識結果を学習コーパスとみなして仮名漢字変換のモデルを構築する.自動収集されたニュース記事とニュース音声を用いた実験では,獲得した未知語の読み・文脈情報を仮名漢字変換のための学習コーパスとして用いることで,精度が向上することを確認した.
V06N06-06
本論文では,重回帰分析にもとづいた文章構造解析を利用した自動抄録手法とその評価,および文章要約への展開について述べる.文章構造の解析は,文章中の様々な特徴をパラメタとした判定式や局所的な言語知識により,文章セグメントの分割統合を進めて構造木を作るものである.得られた文章構造上の各種特徴をもとに,さらに文章抄録の観点から選択されたパラメタを加えて,文抽出のための判定式を作る.本研究では被験者5人にのべ350編の新聞社説の抄録調査を実施し,これを基準に,重回帰分析によりパラメタの重みを決定し判定式を得,また,本方式を評価する.また,自動生成された抄録文に対して,照応情報の欠落による文章の首尾一貫性の低下を避けるための補完や,論旨を損なわない冗長な表現の削除を行なうことで要約文章を生成する手法を紹介する.
V08N01-06
形態素解析は日本語解析の重要な基本技術の一つとして認識されている.形態素解析の形態素とは,単語や接辞など,文法上,最小の単位となる要素のことであり,形態素解析とは,与えられた文を形態素の並びに分解し,それぞれの形態素に対し文法的属性(品詞や活用など)を決定する処理のことである.近年,形態素解析において重要な課題となっているのは,辞書に登録されていない,あるいは学習コーパスに現れないが形態素となり得る単語(未知語)をどのように扱うかということである.この未知語の問題に対処するため,これまで大きく二つの方法がとられてきた.一つは未知語を自動獲得し辞書に登録する方法であり,もう一つは未知語でも解析できるようなモデルを作成する方法である.ここで,前者の方法で獲得した単語を辞書に登録し,後者のモデルにその辞書を利用できるような仕組みを取り入れることができれば,両者の利点を生かすことができると考えられる.本論文では,最大エントロピー(ME)モデルに基づく形態素解析の手法を提案する.この手法では,辞書の情報を学習する機構を容易に組み込めるだけでなく,字種や字種変化などの情報を用いてコーパスから未知語の性質を学習することもできる.我々はこの手法により未知語の問題が克服される可能性が高いと考えている.京大コーパスを用いた実験では,再現率95.80\%,適合率95.09\%の精度が得られた.
V30N04-02
%意味フレーム推定において,文脈化単語埋め込みを用いる手法が高い性能を達成することが報告されている.しかし,汎用的な埋め込み空間は,意味的に類似したフレームの事例が近くに位置しているという人間の直観と必ずしも一致しているわけではないため,事前学習のみに基づく文脈化単語埋め込みを用いる手法の性能には限界がある.そこで,本研究では,意味フレーム推定をコーパス内の一部の動詞についてのラベル付きデータの存在を仮定した教師ありタスクとして取り組み,深層距離学習に基づき文脈化単語埋め込みモデルをfine-tuningすることで高精度な意味フレーム推定を実現する手法を提案する.FrameNetを用いた実験を通し,深層距離学習を適用することで8ポイント以上スコアが向上することを示す.さらに,教師データが極めて少量である場合でも,提案手法が有効であることを示す.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は,The17thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics\cite{yamada-2023-semantic},および言語処理学会第29回年次大会で発表したもの\cite{yamada-nlp2023-semantic}である.}\renewcommand{\thefootnote}{\arabic{footnote}}
V32N02-10
%本研究では,クラウドソーシングを用いて位置情報および経路情報を参照する表現のデータベースを構築し,これらをオープンデータとして公開した.20の地図を刺激として使用し,位置情報については1地図あたり40人に目標点の位置情報を記述させ,800の参照表現を収集した.一方,経路情報については1地図あたり2経路を設定し,1経路あたり40人に2地点間の経路情報を記述させ,1,600の参照表現を収集した.いずれの情報も,地図上のランドマークに基づく相対参照表現のみであるかを判定し,位置情報参照表現では一人称視点・空間内視点・空間内移動・鳥瞰視点の4つに分類,経路情報参照表現では始点・通過地点・終点の情報の有無をラベル付けした.また,各表現のわかりやすさについてアンケート調査を実施し,データとして収集した.\renewcommand{\thefootnote}{}\footnote[0]{本論文は,「地図を刺激に用いた位置情報参照表現の収集」言語処理学会第30回年次大会(NLP2024)大村・川端・小西・浅原・竹内(2024),「地図を刺激に用いた経路情報参照表現の収集」言語処理学会第30回年次大会(NLP2024)川端・大村・小西・浅原・竹内(2024),``CollectionofJapaneseRouteInformationReferenceExpressionsUsingMapsasStimuli'',The4thInternationalCombinedWorkshoponSpatialLanguageUnderstandingandGroundedCommunicationforRobotics,Kawabata,Omura,Konishi,AsaharaandTakeuchi(2024)を元に修正したものである.\\HRI-JPNINJAL位置情報参照表現データベース(HRI-JPNINJALLocationInformationReferenceDatabase:HRI-JPLIREDB):\url{https://github.com/masayu-a/HRI-JP-LIRE-DB}\\HRI-JPNINJAL経路情報参照表現データベース(HRI-JPNINJALRouteInformationReferenceDatabase:HRI-JPRIREDB):\url{https://github.com/masayu-a/HRI-JP-RIRE-DB}}\renewcommand{\thefootnote}{\arabic{footnote}}
V21N03-07
日本語では用言の項が省略されるゼロ照応と呼ばれる現象が頻出する.ゼロ照応は照応先が文章中に明示的に出現する文章内ゼロ照応と,明示的に出現しない外界ゼロ照応に分類でき,従来のゼロ照応解析は主に前者を対象としてきた.近年,Webが社会基盤となり,Web上でのテキストによる情報伝達がますます重要性をましている.そこでは,情報の送り手・受け手である著者・読者が重要な役割をはたすため,Webテキストの言語処理においても著者・読者を正確にとらえることが必要となる.しかし,文脈中で明確な表現(人称代名詞など)で言及されていない著者・読者は,従来の文章内ゼロ照応中心のゼロ照応解析では多くの場合対象外であった.このような背景から,本論文では,外界ゼロ照応および文章の著者・読者を扱うゼロ照応解析モデルを提案する.提案手法では外界ゼロ照応を扱うために,ゼロ代名詞の照応先の候補に外界ゼロ照応に対応する仮想的な談話要素を加える.また,語彙統語パターンを利用することで,文章中で著者や読者に言及している表現を自動的に識別する.実験により,我々の提案手法が外界ゼロ照応解析だけでなく,文章内ゼロ照応解析に対しても有効であることを示す.
V15N01-02
手話は言語でありろう者の母語である.手話と音声言語の間のコミュニケーションには手話通訳が必要となるが,手話通訳士の数は圧倒的に不足している.両言語間のコミュニケーションを支援する技術が期待される.本論文は日本語と手話との間の機械翻訳を目指して,その一つのステップとして,日本語テキストから手話テキストへの機械翻訳を試みたものである.機械翻訳をはじめとする自然言語処理技術はテキストを対象としているが,手話には文字による表現がないため,それらを手話にそのまま適用することができない.我々は言語処理に適した日本手話の表記法を導入することで,音声言語間の翻訳と同様に,日本語テキストから手話テキストへの機械翻訳を試みた.日本語から種々の言語への機械翻訳を目的として開発中のパターン変換型機械翻訳エンジンjawをシステムのベースに用いている.目的言語である手話の内部表現構造を設定し,日本語テキストを手話の表現構造へ変換する翻訳規則と,表現構造から手話テキストを生成する線状化規則を与えることで実験的な翻訳システムを作成した.日本手話のビデオ教材等から例文を抽出し,その翻訳に必要な規則を与えることで,日本語から手話に特徴的な表現を含んだ手話テキストへの翻訳が可能であることを確認するとともに,現状の問題点を分析した.
V10N03-05
本論文では,SENSEVAL2の日本語翻訳タスクに対して帰納論理プログラミング(InductiveLogicProgramming,ILP)を適用する.翻訳タスクは分類問題として定式化できるため,帰納学習の手法を利用して解決できる.しかし翻訳タスクは新たに訓練データを作るのが困難という特異なタスクになっており,単純に確率統計的な帰納学習手法を適用することはできない.TranslationMemoryの例文だけ,つまり少ない訓練データのみを用いて,どのように分類規則を学習すれば良いかが,翻訳タスク解決の1つの鍵である.このために本論文ではILPを用いる.ILPは確率統計的な帰納学習手法にはない特徴を有する.それは背景知識を容易に利用可能である点である.背景知識とは訓練データには明示されない問題固有の知識である.この背景知識によって訓練データが少ない場合の学習が可能となる.ここではILPの実装システムとしてProgol,背景知識として分類語彙表を利用することで,翻訳タスクに対して正解率54.0\,\%を達成した.この値は,付加的な訓練データを用いないSENSEVAL2参加の他システムと比較して優れている.
V16N05-02
人名は検索語として,しばしば検索エンジンに入力される.しかし,この入力された人名に対して,検索エンジンは,いくつかの同姓同名人物についてのWebページを含む長い検索結果のリストを返すだけである.この問題を解決するために,Web検索結果における人名の曖昧性解消を目的とした従来研究の多くは,凝集型クラスタリングを適用している.一方,本研究では,ある種文書に類似した文書をマージする半教師有りクラスタリングを用いる.我々の提案する半教師有りクラスタリングは,種文書を含むクラスタの重心の変動を抑えるという点において,新規性がある.
V21N02-05
「誰がいつどこで何をする」という文に「ない」や「ん」,「ず」などの語が付くと,いわゆる否定文となる.否定文において,否定の働きが及ぶ範囲をスコープと呼び,その中で特に否定される部分を焦点と呼ぶ.否定の焦点が存在する場合,一般にその焦点の箇所を除いた文の命題は成立する.それゆえ,自然言語処理において,否定の焦点が存在するか,および,どの部分が否定の焦点になっているかを自動的に判定する処理は,含意認識や情報抽出などの応用処理の高度化のために必要な技術である.本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し,構築した否定の焦点コーパスについて報告する.否定文において否定の焦点を判断するための基準を提案し,否定の形態素および焦点の部分にアノテーションすべき情報について議論する.否定の焦点の判断には,「は」や「しか」などのとりたて詞や前後の文脈などが手がかりとなるため,これらを明確にアノテーションする.我々は,提案するアノテーション体系に基づいて,楽天トラベルのレビューデータと『現代日本語書き言葉均衡コーパス』内の新聞を対象としてアノテーションコーパスを構築した.本論文では,コーパス内に存在する1,327の否定に対するアノテーション結果を報告する.
V08N03-01
これまで主に検討されてきた文書要約手法は,文集合から重要文を抽出するものである.この方法によれば,段落などを要約した結果として誤りのない文の集合が得られる.しかし,目的によっては更に要約率を上げるため,または段落などの単位での要約が不適当であるときなど,一文毎の簡約が必要となる場合がある.このような文書要約手法では,簡約文が日本語として自然な文であることが重要ppである.そこで本論文では,文の簡約を「原文から,文節重要度と文節間係り受け整合度の総和が最大になる部分文節列を選択する」問題として定式化し,それを解くための効率の良いアルゴリズムを提案する.本稿の定式化では簡約文の評価に文節間の係り受け整合度が用いられていることから,簡約結果は適切な係り受け構造を持つことが期待できる.したがって本手法を用いることにより,自然で正確な簡約文を高速に生成できる可能性がある.このアルゴリズムを実用するには,文節重要度と係り受け整合度の適切な設定が不可欠であるが,本稿ではこれらについては議論せず,アルゴリズムの導出と計算効率,実装法などに重点を置いて報告する.
V21N02-07
『現代日本語書き言葉均衡コーパス』は1億語を超える大規模なコーパスであり,17万ファイル以上のXML文書に短単位・長単位の形態論情報アノテーションが施されている.このコーパスの構築を目的としてアノテーションのためのシステムが開発された.このシステムは,辞書見出しデータベースと,タグ付けされたコーパスとを関連付けて,整合性を保ちつつ多くの作業者が編集していくことを可能にするものである.このシステムは,関係データベースで構築されたサーバ「形態論情報データベース」と,辞書を参照しながらコーパスの修正作業を可能にするコーパス修正用のクライアントツール「大納言」,形態素解析辞書UniDicの見出し語の管理ツール「UniDicExplorer」から成る.本稿はこのデータベースシステムの設計・実装・運用について論ずる.
V27N04-03
論述構造解析は,小論文などの論述文を解析対象とし,節や文といった談話単位の役割(主張,根拠など),談話単位間の関係(支持,反論など)を予測するタスクである.論述文の自動評価や意見の集約などへの応用可能性から,本タスクは注目を集めている.論述構造解析では,談話単位(スパン)が処理の基本単位となるため,スパンに対する特徴ベクトル表現(分散表現)を,どのように計算するかはモデル設計における重要な点である.本研究では,自然言語処理の諸タスクにおけるスパン分散表現の研究を踏まえ,論述構造解析において効果的な談話単位のスパン分散表現の獲得方法を提案する.文章中の機能的な表現(接続表現)と論理的な筋を構成する内容(命題)というそれぞれの粒度で文章の大域的な文脈情報を捉えることが重要であるという仮定に基づき,提案法では各談話単位に複数のレベルの大域的な文脈情報を取り込む.本スパン分散表現を用いることにより,特にこれまでの手法では同定が困難であった複雑な構造をもつ論述文において,解析性能が向上し,複数のベンチマークデータセット上で最高性能を更新した.また,BERTなどの強力な言語モデルから得られる単語分散表現を用いた際にも,既存のスパン分散表現獲得方法では十分な性能が得られないが,提案手法によりスパン分散表現の獲得方法を工夫することで,性能が大きく向上することを報告する.
V14N02-02
本論文では,ウェブを利用した専門用語の訳語推定法について述べる.これまでに行われてきた訳語推定の方法の1つに,パラレルコーパス・コンパラブルコーパスを用いた訳語推定法があるが,既存のコーパスが利用できる分野は極めて限られている.そこで,本論文では,訳を知りたい用語を構成する単語・形態素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成し,単言語コーパスを用いて訳語候補を検証するという手法を採用する.しかしながら,単言語コーパスであっても,研究利用可能なコーパスが整備されている分野は限られている.このため,本論文では,ウェブをコーパスとして用いる.ウェブを訳語候補の検証に利用する場合,サーチエンジンを通してウェブ全体を利用する方法と,訳語推定の前にあらかじめ,ウェブから専門分野コーパスを収集しておく方法が考えられる.本論文では,評価実験を通して,この2つのアプローチを比較し,その得失を論じる.また,訳語候補のスコア関数として多様な関数を定式化し,訳語推定の性能との間の相関を評価する.実験の結果,ウェブから収集した専門分野コーパスを用いた場合,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補の生成を抑える効果が確認され,高い精度を達成できることがわかった.
V20N02-02
ロボットと人間の双方でより円滑なコミュニケーションを行うためには,ロボットにも人間のような会話能力が求められると考える.人間の会話はあいさつや質問応答,提案,雑談など多岐に渡るが,ロボットがこういった会話,例えば何かしらの情報を持った雑談のように能動的な会話を行うには,新聞記事のようなリソース中の表現を会話テンプレートに埋め込むという方法が考えられる.しかし新聞記事中の語と会話に用いられる語の馴染み深さには違いがある.例えば新聞記事中の「貸与する」という語は,会話に用いる場合には「貸す」という表現の方が自然である.つまり,人間にとって違和感のない会話のためのリソースとして新聞記事を用いるには,難解語を平易な表現へ変換する必要があると考える.そこで本稿ではロボットと人間との自然な会話生成を担う技術の一端として,新聞記事中の難解な語を会話表現に見あった平易な表現へと変換する手法を提案する.提案手法では人間が語の変換を行う際の処理になぞらえ,1つの語を別の1語で変換する1語変換および文章で変換する$N$語変換を組み合わせることでより人間にとって自然に感じる変換を行い,その有効性を示した.結果として変換すべき難解語を75.7\%の精度で平易な表現に,81.1\%の精度で正しい意味を保持した表現に変換することが出来た.
V30N02-14
%自然言語推論(NLI)は,2つのテキストの間に成り立つ推論的関係を同定するタスクである.近年,ニューラルモデルに基づくアプローチが高い正答率を達成している.しかし,このアプローチに基づくNLIは,判定結果に至る過程や理由を説明する能力を有していないという問題がある.一方,NLIでは以前より,記号操作に基づくアプローチが提案されてきた.このアプローチは,推論の論理的な過程を明示でき,推論の根拠を示すことができるものの,語の意味的知識や常識的な知識を十分に備えることは容易でなく,高い推論性能の達成は難しいという問題がある.そこで本論文では,タブロー法とニューラルモデルを組み合わせた手法を提案する.タブロー法は,推論規則の適用に基づく論理式の分解,及び,論理式への真偽値割り当てが存在するか否かの検査から構成される.本手法ではこのうち,真偽値割り当ての検査にニューラルモデルを用いる.なお,タブロー法では通常,論理式を操作対象とするのに対し,本手法では依存構造を対象とする.依存構造を用いることにより,ニューラルNLIモデルをタブロー法アルゴリズムに組み込むことが可能となる.提案手法の論理的整合性を検証するために,手法をモデル理論的に定式化し,その理論的性質を明らかにした.また,SNLIコーパスを用いて推論実験を行い,本手法による推論過程の明示可能性を検証した.\renewcommand{\thefootnote}{}\protect\footnote[0]{本論文の内容の一部は,The35thPacificAsiaConferenceonLanguage,InformationandComputation\cite{saji-etal-2021-natural},および,The36thPacificAsiaConferenceonLanguage,InformationandComputationで報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V10N05-01
LR構文解析法で利用するLR解析表のサイズを削減する新規の手法を提案する.提案法は,(1)従来のLR表縮小方法と同時に適用可能,(2)提案法によって作成されたLR表は従来のLR構文解析アルゴリズムでほぼそのまま利用可能,(3)解析結果や解析効率に影響を与えない,といった特徴を持つ.提案法を実際の自然言語処理用文法に適用したところ,元の文法のサイズによって,約60\,\%程度から,25\,\%程度まで,LR表が圧縮されることを確認した.
V02N03-03
機械翻訳システムでは動詞の訳語を選択するために格フレームがよく利用される.格フレームは従来主として人手で記述されていたが,一貫性を保って記述するのが難しいこと,格フレームを部分的に変更した場合に起こる影響が把握しにくいことなどの重大な問題があった.そこでこれらの問題を解決するため,本論文では格フレームを決定木の形で表し(これを格フレーム木と呼ぶ),これを英日の対訳コーパスから統計的な帰納学習プログラムを利用して学習することを提案する.本論文ではまず,この提案によって上記の問題が軽減される根拠を述べた後,本論文で作成した英日対訳コーパスについて述べる.続いて7つの英語動詞について格フレーム木の獲得実験を2つ報告する.最初の実験は,格要素の制約として英語の単語を使う格フレーム木を学習したものである.これにより得られた格フレーム木を観察したところ,人間の直観に近く,かつ直観を越えた非常に精密な訳し分けの情報が得られたことが明らかになった.次に,この格フレームの一般性を高めるために,英語の単語の代わりに意味分類コードを制約として利用する手法を提案し,これに基づいて格フレーム木を学習する実験を行った.得られた格フレーム木で未学習のデータの動詞の訳語を決定する評価を行ったところ,2.4\%ないし32.2\%の誤訳率が達成された.この誤訳率と,先の英語単語を利用した格フレーム木での誤訳率との差は13.6\%ないし55.3\%となり,意味分類コードが有効に機能したことが示された.
V23N01-02
本稿では商品の属性値抽出タスクにおけるエラー分析のひとつの事例研究について報告する.具体的には,属性値辞書を用いた単純な辞書マッチに基づく属性値抽出システムを構築し,人手により属性値がアノテーションされたコーパスに対してシステムを適用することで明らかとなるFalse-positive,False-negative事例の分析を行った.属性値辞書は商品説明文に含まれる表や箇条書きなどの半構造化データを解析することで得られる自動構築したものを用いた.エラー分析は実際のオンラインショッピングサイトで用いられている5つの商品カテゴリから抽出した100商品ページに対して行った.そして分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた.本稿ではエラーカテゴリおよびその実例を示すだけでなく,誤り事例を無くすために必要な処理・データについても検討する.
V06N02-04
日本語テキスト音声合成において,自然で聞きやすい合成音声を出力するためには,読み,アクセント,ポーズ等の読み韻律情報を正しく設定する必要がある.本論文では,複合語等に対しては部分的に深い解析を行うことを特徴とする多段解析法に基づく形態素解析を用いて,読み韻律情報を設定する方法,および,読み韻律情報を設定するために用いる単語辞書情報について述べる.本方式の主な特徴は,形態素解析における読み韻律情報付与に対応した長単位認定,複合語内意味的係り受け情報を用いたアクセント句境界設定,文節間係り受け情報を用いず,複合語内等の局所構造,およびアクセント句境界前後単語の品詞情報等から得られるアクセント句結合力を用いて段階的にポーズを設定する多段階設定法に基づくポーズ設定である.本方式をニュース文章を対象に2名の評価者により評価した結果,クローズ評価で95\%,オープン評価で91\%の精度(評価者2名の平均)で,読み韻律情報を正しく設定でき,その有効性が確認できた.
V21N06-02
従来の紙版の国語辞典はコンパクトにまとめることが優先され,用例の記述は厳選され,必要最小限にとどめられていた.しかし,電子化編集が容易になり,電子化された国語辞典データや種々のコーパスが活用できるようになった今,豊富な用例を増補した電子化版国語辞典の構築が可能になった.そうした電子化版国語辞典は,人にも計算機にも有用性の高いものと期待される.著者らはその用例記述の際に見出し語のもつ文体的特徴を明記する方法を提案し,より利用価値の高い,電子化版の「コーパスベース国語辞典」の構築を目指している.文体的特徴の記述は,語の理解を助け,文章作成時にはその語を用いる判断の指標になり得るため,作文指導や日本語教育,日本語生成処理といった観点からの期待も高い.本論文では,古さを帯びながらも現代語として用いられる「古風な語」を取り上げる.これに注目する理由は,三点ある.一点目は,現代語の中で用いられる「古風な語」は少なくないにも関わらず,「古語」にまぎれ辞書記述に取り上げ損なってしまう危険性のあるものであること.二点目は,その「古風な語」には,文語の活用形をもつなど,その文法的な扱いに注意の必要なものがあること.三点目は,「古さ」という文体的特徴を的確かつ,効果的に用いることができるよう,十分な用法説明が必要な語であるということ,である.そこで,本論文では,これら三点に留意して「古風な語」の用法をその使用実態に即して分析し,その辞書記述を提案する.はじめに,現行国語辞典5種における「古風な語」の扱いを概観する.次に,「古風な語」の使用実態を『現代日本語書き言葉均衡コーパス』に収録される図書館サブコーパスを用いて分析し,「古風な語」の使用を,(1)古典の引用,(2)明治期から戦前まで,(3)時代・歴史小説,(4)現代文脈,に4分類する.そして,その4分類に基づく「コーパスベース国語辞典」の辞書記述方法を提案する.このような辞書記述は例えば,作文指導や日本語教育,日本語生成処理の際の語選択の参考になるものと期待される.
V04N03-04
本論文では,言語のクラスタリングに関する新しい手法を提案する.提案する手法では,まず各言語の言語データから確率的言語モデルを構築し,次に確率的言語モデルの間に導入した距離に基づき,元の言語に対するクラスタリングを実行する.本論文では,以上の手法を$N$-gramモデルの場合について詳しく述べている.また,提案した手法を用いて,ECI多言語コーパス(EuropeanCorpusInitiativeMultilingualCorpus)中の19ヶ国語のテキスト・データから,言語の系統樹を再構築する実験を行った.本実験で得られた結果は,言語学で確立された言語系統樹と非常に似ており,提案した手法の有効性を示すことができた.
V10N04-04
本稿では,国語辞典の見出し語を定義文の主辞で置き換えることによって用言の言い換えを行う方法を提案する.この際,見出し語の多義性解消,定義文中で主辞とともに言い換えに含むべき項の決定,用言の言い換えに伴う格パターンの変換などを行う必要があり,これらを国語辞典の情報だけで行うことは不可能である.そこで,大規模コーパスから格フレームを学習し,見出し語と定義文主辞の格フレームの対応付けを行うことにより,これらの問題を解決する方法を考案した.220文に対する実験の結果,77\,\%の精度で日本語として妥当な用言の言い換えが可能であることがわかった.
V17N02-03
自然言語処理や言語学においてコーパスは重要な役割を果たすが,従来のコーパスは大人の文章を集めたコーパスが中心であり,子供の文章を集めたコーパスは非常に少ない.その理由として,子供のコーパスに特有の様々な難しさが挙げられる.そこで,本論文では,子供のコーパスを構築する際に生じる難しさを整理,分類し,効率良く子供のコーパスを構築する方法を提案する.また,提案方法で実際に構築した「こどもコーパス」についても述べる.提案方法により,81人分(39,269形態素)のコーパスを構築することができ,提案方法の有効性を確認した.この規模は,公開されている日本語書き言葉子供コーパスとしては最大規模である.また,規模に加えて,「こどもコーパス」は作文履歴がトレース可能であるという特徴も有する.
V06N03-04
係り受け解析は日本語文解析の基本的な方法として認識されている.日本語の係り受けは,ほとんどが前方から後方であるため,解析は文末から文頭の方向へ解析を進める事は効率的であり,これまでもルールベースの解析手法ではいくつかの提案がある.また,統計的文解析は英語,日本語等の言語を問わず数多くの提案があり,その有効性が確認されている.本論文では,上記の二つの特徴を兼ね備えた日本語文係り受け解析を提案し,その実験結果を示し,有効性を実証する.システムの精度は,正しい文節解析ができた所から開始した場合,京大コーパスを使用した実験で係り受け正解率が87.2\%,文正解率が40.8\%と高い精度を示している.ビームサーチのビーム幅を調整した実験では,ビーム幅を小さくする事による精度の劣化が認められなかった.実際にビーム幅が1の際に得られた結果の95\%はビーム幅20の時の最良の結果と同一であった.また,N--best文正解率を見た時には,Nが20の時には78.5\%という非常に高い結果を示している.解析速度は,解析アルゴリズムから推測される通り,文節数の2乗に比例し,平均0.03秒(平均文節数10.0),最長文である41文節の文に対しては0.29秒で解析を行なった.
V30N04-05
本研究では,基本イベントに基づく常識推論データセットの構築手法を提案する.具体的には,テキストから「お腹が空いたので,ご飯を食べる」といった蓋然的関係を持つ基本的なイベント表現の組を自動抽出し,クラウドソーシングによる確認を行った後,基本イベント間の蓋然的関係を問う多肢選択式問題を自動生成する.提案手法に従って10万問規模の常識推論データセットを構築し,計算機による解答実験を行った結果,高性能な汎用言語モデルと人間の間に解答精度の開きがあることを示した.また,提案手法の拡張性の高さを利用して疑似問題を大規模に自動生成し,このデータ拡張による常識推論タスクおよび関連タスクでの効果を検証した.実験の結果,蓋然的関係に関する知識を広範に学習させることで,常識推論タスクおよび関連タスクにおいて一定の効果があることを示した.これは,蓋然的関係を推論する能力が自然言語理解において重要であることを示唆している.\footnote[0]{本論文は,The2020ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2020)およびThe29thInternationalConferenceonComputationalLinguistics(COLING2022)で発表した論文\cite{Omura_et_al_2020,Omura_and_Kurohashi_2022}を和訳し,加筆・修正を行ったものである.}
V26N03-04
ヒトの文処理のモデル化としてHaleによりサプライザルが提案されている.サプライザルは文処理の負荷に対する情報量基準に基づいた指標で,当該単語の文脈中の負の対数確率が文処理の困難さをモデル化するとしている.日本語において眼球運動測定を用いて文処理の負荷をモデル化する際に,統語における基本単位である文節単位の読み時間を集計する.一方,単語の文脈中の生起確率は形態素や単語といった単位で評価し,この齟齬が直接的なサプライザルのモデル化を難しくしていた.本論文では,この問題を解決するために単語埋め込みを用いる.skip-gramの単語埋め込みの加法構成性に基づき,文節構成語のベクトルから文節のベクトルを構成し,隣接文節間のベクトルのコサイン類似度を用いて,文脈中の隣接尤度をモデル化できることを確認した.さらに,skip-gramの単語埋め込みに基づいて構成した文節のベクトルのノルムが,日本語の読み時間のモデル化に寄与することを発見した.
V18N02-01
確率的言語モデルは,仮名漢字変換や音声認識などに広く用いられている.パラメータは,コーパスの既存のツールによる処理結果から推定される.精度の高い読み推定ツールは存在しないため,結果として,言語モデルの単位を単語(と品詞の組)とし,仮名漢字モデルを比較的小さい読み付与済みコーパスから推定したり,単語の発音の確率を推定せずに一定値としている.これは,単語の読みの確率を文脈と独立であると仮定していることになり,この仮定に起因する精度低下がある.このような問題を解決するために,本論文では,まず,仮名漢字変換において,単語と読みの組を単位とする言語モデルを利用することを提案する.単語と読みの組を単位とする言語モデルのパラメータは,自動単語分割および自動読み推定の結果から推定される.この処理過程で発生する誤りの問題を回避するために,本論文では,確率的タグ付与を提案する.これらの提案を採用するか否かに応じて複数の仮名漢字変換器を構築し,テストコーパスにおける変換精度を比較した結果,単語と読みの組を言語モデルの単位とし,そのパラメータを確率的に単語分割し,さらに確率的読みを付与したコーパスから推定することで最も高い変換精度となることが分かった.したがって,本論文で提案する単語と読みの組を単位とする言語モデルと,確率的タグ付与コーパスの概念は有用であると結論できる.
V31N01-09
%和文で522/600字コミュニケーションロボットなどの会話エージェントが語りを聴く役割を担うことが期待されている.これらが聴き手として認められるには,語りを傾聴していることを語り手に伝達する機能を備える必要がある.このための明示的な手段は語りに応答することであり,傾聴を示す目的で語りに応答する発話,すなわち傾聴応答の表出が有力である.語りの傾聴では,語り手の発話を受容することが聴き手の基本的な応答方略となる.しかし,語りには,自虐や謙遜などの発話が含まれることがある.この場合,語り手の発話に同意しないことを示す応答,すなわち,不同意応答を確実に表出できることが求められる.本論文では,語りの傾聴において不同意応答を適切に生成することの実現性を示す.そのために,本研究ではまず,時間制約のない環境で語りデータに不同意応答のタイミングと表現をタグ付けする方式を定めた.作成したコーパスを用いて,不同意応答タイミングを網羅的に,不同意応答表現を安定的にタグ付けできることを検証する.続いて,事前学習済みのTransformerベースのモデルに基づく,不同意応答タイミングの検出手法,及び,不同意応答表現への分類手法を実装し,実験により応答コーパスを用いた不同意応答生成の実現性を検証した.
V27N04-07
%日本語の比喩表現の実態把握を目的として,『現代日本語書き言葉均衡コーパス』に基づく指標比喩データベースを構築した.『比喩表現の理論と分類』に掲載されている359種類の比喩指標要素を手掛かりとし,『分類語彙表』に基づいて類義用例を確認しながら指標比喩表現候補を展開し,コアデータ6レジスタ(Yahoo!知恵袋・白書・Yahoo!ブログ・書籍・雑誌・新聞)1,290,060語から人手で822件抽出した.抽出した比喩用例には,喩辞・被喩辞の情報と,その分類語彙表番号を付与したほか,擬人化・擬物化・擬生化・具象化などの種別情報も付与した.さらに提喩・換喩・文脈比喩・慣用表現などの情報も付与した.上記作業は言語学者によったが,非専門家が比喩表現をどのように捉えるかを評価するために,比喩性・新奇性・わかりやすさ・擬人化・具体化(具象化)の5つの観点について,1事例あたり22--77人分(平均33人分)の評定値を付与した.レジスタ毎の相対度数や評定値の分布により,現代日本語の指標比喩表現の使用傾向を確認した.
V01N01-01
テキストや談話を理解するためには,まずその文章構造を理解する必要がある.文章構造に関する従来の多くの研究では,解析に用いられる知識の問題に重点がおかれていた.しかし,量的/質的に十分な計算機用の知識が作成されることはしばらくの間期待できない.本論文では,知識に基づく文理解という処理を行なわずに,表層表現中の種々の情報を用いることにより科学技術文の文章構造を自動的に推定する方法を示す.表層表現中の情報としては,種々の手がかり表現,同一/同義の語/句の出現,2文間の類似性,の3つのものに着目した.実験の結果これらの情報を組み合わせて利用することにより科学技術文の文章構造のかなりの部分が自動的に推定可能であることがわかった.
V04N01-04
英語前置詞句の係り先の曖昧性は文の構造的曖昧性の典型例をなすものである.本論文は,選好規則と電子辞書から得られる様々な情報に基づき,前置詞句の係り先を決定する手法を提案する.最初に,係り先を決める上での概念情報の役割と,それを電子辞書から抽出する方法を述べる.次に,概念情報をはじめ統語情報,語彙情報に基づく前置詞句の係り先を決める選好規則について述べ,選好的曖昧性解消モデルを提案する.このモデルでは選好規則によって一意的に係り先が決まらなかった場合,補助的に確率を使い,コーパスから得られるデータから確率計算をすることにより係り先の決定を行っている.使用頻度の高い12の前置詞句を含む2877文について行った実験では,86.9\%の正解率を得た.これは既存の手法に比べ,2%から5%よい結果となっている.
V19N02-02
本論文ではブートストラップ法を用いた語彙獲得を行う際に,トピック情報を用いることでセマンティックドリフトを緩和し,獲得精度を向上できることを示す.獲得対象とする語を含む文書の大域的情報であるトピック情報を,統計的トピックモデルを用いて推定し,識別モデルを用いたブートストラップ法における3つの過程で利用する.1つ目は識別モデルにおける素性として,2つ目は負例生成の選択基準として,3つ目は学習データの多義性解消のために用いる.実験において,提案手法を用いることでセマンティックドリフトを軽減し,語彙の獲得精度が6.7から28.7\%向上したことを示す.
V14N03-02
「です・ます」は,丁寧語としての用法のみならず場面に応じてさまざまな感情・態度や役割の演出などの表示となる.これは「です・ます」が持つ「話手と聞手の心的距離の表示」という本質と,伝達場面における話手/聞手のあり方とその関係の変化によって生じるものと考えられる.本稿では「です・ます」をはじめ聞手を必須とする言語形式を,コンテクストとは独立して話手/聞手の〈共在〉の場を作り出す「共在マーカー」と位置づけ,コンテクストにおける聞手の条件による「共在性」と組み合わせることで伝達場面の構造をモデル化した.コミュニケーションのプロトタイプとしての〈共在〉の場では,「です・ます」の本質的な機能が働き心的距離「遠」の表示となる.これに対して〈非共在〉の場では,典型的には「です・ます」は出現しない.しかし,〈非共在〉の場合でも共在マーカーが使用されると話手のストラテジーとして疑似的な〈共在〉の場が作り出される.この場合,共在マーカーとしての役割が前面に出ることによって聞手が顕在化し,話手/聞手の関係が生じて「親・近」のニュアンスが生まれる.「です・ます」が表す「やさしい」「わかりやすい」「仲間意識」などの「親・近」の感情・態度は〈非共在〉を〈共在〉にする共在マーカーの役割によって,「卑下」「皮肉」といった「疎・遠」の感情・態度は〈共在〉での心的距離の操作による話手/聞手の関係変化によって説明できる.
V31N02-07
本研究では,目的言語文の難易度を多段階で制御する日英機械翻訳(日英Multi-LevelComplexity-ControllableMachineTranslation:日英MCMT)の実現を目指す.従来のMCMTの研究では英語とスペイン語の言語対を対象にしていたため,日英MCMT用の評価データセットは存在しない.そこで本研究では,多段階の難易度で書かれた英語ニュース記事集合であるNewselaコーパスと日本語への人手翻訳によって日英MCMT用の評価データセットを構築する.また,MCMTは同じ原言語文に対して難易度に応じて異なる目的言語文を出力する必要があるが,従来のMCMTの学習手法は,難易度が付いた対訳文対の単位で学習を行っており,難易度が異なる同一内容の目的言語文間を対比させた学習ができない.そこで本研究では,学習対象の参照文と共に異なる難易度の参照文も使い,学習対象の参照文に対する損失が学習対象以外の難易度の参照文に対する損失よりも小さくなるように学習を行う手法を提案する.本研究で構築した評価データセットを用いた実験により,提案手法は従来手法のマルチタスクモデルよりBLEUが0.94ポイント上回ることを確認した.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は,言語処理学会第28回年次大会\cite{tani1},言語処理学会第29回年次大会(谷他2023)\nocite{tani2}及びThe13thLanguageResourcesandEvaluationConference\cite{tani-etal-2022-benchmark}で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
V27N02-10
%本稿では,情報構造に関係する文法情報がどのように語順に影響を及ぼすのかについて調査するため,『現代日本語書き言葉均衡コーパス』の名詞句に対して情報構造に関わる文法情報のタグを付与したBCCWJ-InfoStrを利用して,名詞句の係り先からの距離(文節数)をベイジアン線形混合モデルによりモデル化した結果を報告する.その結果,日本語の名詞句の語順は,(I)情報状態が旧情報であるものが新情報であるものに先行する,(II)共有性が共有であるものが非共有であるものに先行する,(III)定名詞句が不定名詞句に先行する,(IV)有生名詞句が無生名詞句に先行するという傾向が確認された.これは,機能主義言語学の分野で言及されている「伝達のダイナミズム」・「旧から新への情報の流れ」・「名詞句階層」を支持するものである.
V25N01-03
本稿では,オンラインショッピングサイト出店者に対して書かれたレビュー(以下,店舗レビュー)内の各文を,言及されているアスペクト(例えば,商品の配送や梱包)とその評価極性(肯定,否定)に応じて分類するシステムについて述べる.店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでないため,まず店舗レビュー100件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した.その結果,14種類のアスペクトについて書かれていることがわかった.そして,この調査結果をもとに1,510件の店舗レビューに含まれる5,277文に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文を分類するシステムを開発した.本システムを用いることで,任意のアスペクトについて,その記述を含むレビューへ効率良くアクセスしたり,その評判の時系列変化を調べたりすることが可能になる.
V06N05-01
会話文では,言い直しなどの冗長な表現が含まれ,解析を困難にしている.本論文では,言い直し表現は繰り返し型が多く,また,文節境界に挿入されやすいことに着目して,べた書きで音節標記された会話文を対象に,これを抽出する方法を提案した.提案した方法は,言い直しを含んだべた書き音節列をマルコフ連鎖モデルを用いて文節単位に分割する処理と,それによって得られた文節境界を手がかりに文節間の音節列の類似性を評価して言い直し音節列を抽出する処理の2つの処理から構成される.具体的には,第1の処理では,言い直しの表現を含む文節境界の推定に適した文節境界推定法を提案し,第2の処理では,文節境界の使い方の異なる3つのマッチングの方法を提案した.また,これらの2つの方法を組み合わせたときの言い直し表現の抽出精度を計算によって推定すると共に,その結果を総合的な実験結果と比較して提案した方法の効果を評価した.ATRの「旅行に関する対話文」のコーパス(その内,言い直しは106個所)を用いて実験評価した結果によれば,言い直し表現の抽出精度は第2の処理の方法に強く依存し,再現率を重視する場合は,再現率80.2%(その時,適合率84.2%),また,適合率を重視する場合は,適合率94.9%(その時,再現率52.8%)の精度が得られることが分かった.
V29N04-16
%和文抄録をこちらに記述して下さい.
V04N04-01
本論文は,動詞と主体の属性を用いて,複文中の連接関係を解析するモデルを作成し,評価した結果を述べる.複文中の連接関係の関係的意味は,接続詞,助詞等の接続の表現だけでは決まらず,曖昧性がある.例えば,助詞「て」による連接関係には,「時間的継起」のほかに「方法」,「付帯状態」,「理由」,「目的」,「並列」などがある.これらの関係的意味は,従属節や主節の述語の表している事象の意味タイプ,およびその組み合わせによって決まってくる.従って,動詞と名詞の意味的関係を表すために,動詞と名詞の意味分類を用いた格パターンがあると同様に,従属節と主節の連接関係にも,各々の節を構成する動詞と主体の属性を用いた連接関係パターンが存在すると考えることができる.本論文のモデルでは,従属節と主節の,動詞と主体の属性を用いて,連接関係の関係的意味を推定する.動詞の属性として,意志性,意味分類,慣用的表現,ムード・アスペクト・ヴォイス,主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを用いた.このモデルを,技術文書に適用した結果,95\%の文が正しく解析できた.
V10N04-10
大規模な日英対訳コーパスを作ることを目的として,1989年から2001年までの読売新聞とTheDailyYomiuriとから日英記事対応と文対応とを得た.そのときの方法は,まず,内容が対応する日本語記事と英語記事とを言語横断検索により得て,次に,その対応付けられた日英記事中にある日本語文と英語文とをDPマッチングにより対応付けるというものである.しかし,それにより対応付けられた記事対応や文対応には,間違った対応(ノイズ)が多く含まれる.そのため,我々は,本稿において,そのようなノイズを避けて,正しい対応のみを得るための信頼性の高い尺度を提案し,その信頼性の評価をした.実験の結果,我々の提案した尺度を用いることにより,良質な記事対応や文対応が得られることがわかった.また,その数は,良質な記事対応は約4万7千であり,文対応は,1対1対応が約15万,1対1対応以外が約3万8千であった.これらは,現時点で一般に利用できる日英2言語コーパスとしては最大のものである.
V28N02-05
信頼できる文法誤り訂正の自動評価手法の構築は,文法誤り訂正の研究および開発の発展に有用である.可能な参照文を網羅することが難しいため,先行研究では参照文を用いない自動評価手法が提案されてきた.そのうちの一つは,文法性・流暢性・意味保存性を評価する3つの評価モデルを用いることで,参照文を用いる手法よりも人手評価との高い相関を達成した.しかし,各項目の評価モデルは人手評価には最適化されておらず,改善の余地が残されていた.本研究では,より適切な評価を行える自動評価手法の構築を目的として,各項目の評価モデルを事前学習された文符号化器を用いて人手評価に対して最適化する手法を提案する.また,最適化に理想的である,訂正システムの出力文に対して人手評価が付与されたデータセットの作成を行う.実験の結果,項目ごとの評価モデルおよびそれらを組み合わせた手法の両方で,従来手法と比べて人手評価との相関が向上し,事前学習された文符号化器を用いることおよび訂正文の人手評価に最適化することの両方が貢献していることがわかった.分析の結果,提案手法は従来手法に比べて多くのエラータイプの訂正を正しく評価できていることがわかった.
V07N04-04
動詞を含む連体修飾表現を``$N_1のN_2$''という表現に言い換える手法を提案する.動詞を含む連体修飾節は,各文を短縮する既存の要約手法において,削除対象とされている.ところが,連体修飾節の削除によって,その名詞句の指示対象を同定することが困難になる場合がある.それを表現``$N_1$の$N_2$''に言い換えることで,名詞句の意味を限定し,かつ,字数を削減することが可能である.言い換えは,動詞を削除することによって行う.表現``$N_1のN_2$''では,語$N_1$と$N_2$の意味関係を示す述語が省略されている場合がある.この省略されうる述語を,削除可能な動詞として2種類の方法により定義した.一方では,表現``$N_1のN_2$''の意味構造に対応する動詞を,シソーラスを用いて選択した.また,他方では,ある語から連想される動詞を定義した.ただし,コーパスから,名詞とそれが係る動詞との対を抽出し,共起頻度の高いものを,名詞から動詞が連想可能であると考えた.これらの削除可能な動詞を用いた言い換えを評価したところ,再現率63.8\%,適合率61.4\%との結果を得た.さらに,言い換え可能表現の絞り込みを行うことによって適合率は82.9\%に改善することが可能であることを示す.
V26N04-01
複単語表現(MWE)は統語的または意味的な非構成性を有する複数の単語からなるまとまりである.統語的な依存構造の情報を利用し,かつ意味理解が必要なタスクでは,単語ベースの依存構造よりもMWEを考慮した依存構造,即ちMWEを統語的な単位とする依存構造の方が好ましい.広範囲の連続MWEを依存構造で考慮するために,本稿ではOntonotesコーパスに対して新たに形容詞MWEを注釈し,複合機能語と形容詞MWEの双方を考慮した依存構造コーパスを構築した.また,意味理解が必要なタスクでは句動詞などの非連続な出現を持ちうるMWE(動詞MWE)の認識も重要である.依存構造の情報は動詞MWE認識で有効な特徴量として働くと期待されるため,本稿では連続MWEを考慮した依存構造と動詞MWEの双方を予測する問題に取り組む.前者については以下の3つのモデルを検討する:(a)連続MWE認識と,MWEを考慮した依存構造解析のパイプライン,(b)連続MWEの範囲を依存関係ラベルとして符号化したhead-initialな依存構造を解析するモデル,および(c)連続MWE認識と上記(b)の階層的マルチタスク学習モデルである.実験の結果,連続MWE認識ではパイプラインモデルとマルチタスクモデルがほぼ同等のF値を示し,head-initialな依存構造の解析器を1.7ポイント上回った.動詞MWE認識では系列ラベリングベースの認識器を上述のマルチタスクモデルに組み込むことでF値が1.3ポイント向上した.
V09N01-03
本稿では,音声対話システムがシステム知識として保有するデータベースの内容に依存して,できるだけ短い対話でユーザの必要とする情報を伝達するためのデュアルコスト法と呼ぶ対話制御法を提案する.音声対話システムは,音声認識誤りのために,ユーザ要求内容を確定することを目的とした「確認対話」を実施する必要がある.長い確認対話は対話の円滑な流れを阻害するので,確認対話は簡潔であることが望ましい.ユーザは対話時点でのシステム知識の内容を知らないので,システムが詳しい情報を保有していない事柄に関して詳細な情報を要求する場合が頻繁に起きる.そのような場合にも,従来法ではユーザ発話内容を逐一確認するので,無駄な確認が増えてしまうという問題があった.この問題を解決するために,確認コストと情報伝達コストと呼ぶ2種類のコストを導入する.確認コストは確認対話の長さであり,音声認識率に依存する.情報伝達コストは,確認対話でユーザ要求を確定した後,ユーザに情報を伝達する際のシステム応答の長さであり,システム知識の内容に依存する.デュアルコスト法は,この2つのコストの和を最小化することにより対話を制御する方法であり,従来法が避けることができない無駄な確認対話を回避しながら,短い対話でユーザ要求に応じた情報を伝達することができる.
V12N03-03
ネットワークの普及により,今までは紙面で伝えられていた情報の電子化が進んでいる.本稿では,それら電子化された情報の一つである,製品のスペック情報の抽出について議論する.現在,製品情報を収集し,利用しているポータルサイトが数多く存在するため,膨大なWebページの中から製品のスペック情報を的確に抽出することは,そのようなポータルサイトの自動構築のために大きな意義を持つ.製品のスペック情報は,殆どの場合,表形式で記述されている.Web上の表はHTMLの\verb+<+TABLE\verb+>+タグを用いて記述されるが,\verb+<+TABLE\verb+>+タグは表を記述する以外にも,レイアウトを整えたりする場合に頻繁に用いられる.ある特定の領域においては,\verb+<+TABLE\verb+>+の70\%がレイアウト目的で使われているとの報告もある.そのため,HTML文書中の\verb+<+TABLE\verb+>+タグが表なのか,それとも他の目的で使用されているのかを判別する必要がある.提案手法では,SupportVectorMachines(SVM)を用いて,Webページ中に存在する表領域が製品スペックかどうかの判定を行う.TransductiveSVMを用いて,訓練データの削減についても考察する.パソコン,デジタルカメラ,プリンタの3種類の製品について,実験を行い,それぞれの製品について高い再現率と適合率を得た.訓練データが少ない場合,TransductiveSVMを用いた手法の方が,通常のSVMと比べ,精度が改善されることを確認した.
V09N03-04
日本語では,読み手や聞き手が容易に推測できる語は頻繁に省略される.これらの省略を適切に補完することは,自然言語解析,とりわけ文脈解析において重要である.本論文は,日本語における代表的な省略現象であるゼロ代名詞に焦点を当て,確率モデルを用いた照応解析手法を提案する.本手法では,学習を効率的に行なうため,確率モデルを統語モデルと意味モデルに分解する.統語モデルは,ゼロ代名詞の照応関係が付与されたコーパスから学習する.意味モデルは,照応関係が付与されていない大規模なコーパスを用いて学習を行ない,データスパースネス問題に対処する.さらに本手法では,照応解析処理の精度を高めるために確信度を定量化し,正解としての確信が高いゼロ代名詞のみ選択的に結果を出力することも可能である.新聞記事を対象にした照応解析実験を通して本手法の有効性を示す.
V26N04-02
近年,多くの自然言語処理タスクにおいて単語分散表現が利用されている.しかし,各単語に1つの分散表現を生成するアプローチでは,多義語における各語義が一つの分散表現に集約されてしまい,それらを区別することができない.そのため,先行研究では品詞やトピックごとに異なる分散表現を生成するが,語義を区別するには粒度が粗いという課題がある.そこで,本研究では各単語に対してより粒度の細かい複数の分散表現を生成するための2つの手法を提案する.1つ目は,依存関係にある単語を手がかりとして,予め複数の分散表現を生成しておく手法である.2つ目は,文脈中の全ての単語を考慮して語義に対応する分散表現を動的に生成する双方向言語モデルを利用する手法である.単語間の意味的類似度推定タスクおよび語彙的換言タスクにおける評価実験の結果,より細かい粒度で分散表現を生成する提案手法が先行研究よりも高い性能を発揮することを示した.
V21N01-03
階層的複数ラベル文書分類においては,あらかじめ定義されたラベル階層の利用が中心的な課題となる.本稿では,複数の出力ラベル間の依存関係という,従来研究が用いてこなかった手がかりを利用する手法を提案する.これを実現するために,まずはこのタスクを構造推定問題として定式化し,複数のラベルを同時に出力する大域モデルと,動的計画法による厳密解の探索手法を提案する.次に,ラベル間依存を表現する枝分かれ特徴量を導入する.実験では,ラベル間依存の特徴量の導入により,精度の向上とともに,モデルの大きさの削減が確認された.
V09N05-07
2000年言語処理学会第\6回年次大会プログラムの作成において,言語処理技術を適用し,大会プログラムを自動作成することを試みた.本稿では,第\5回大会のデータを利用して,大会プログラム作成のために行なった一連の実験について説明する.その結果に基づき,実際に第\6回の大会プログラムを作成した手続きについて報告する.大会プログラム作成にキーワード抽出および文書分類の言語処理技術は十分に利用でき,事務手続きの効率化に貢献できることを報告する.また,大会終了後のアンケート調査の結果を示し,参加者からの評価についても報告する.
V20N03-01
本論文では東日本大震災発生時に首都圏で引き起こされた帰宅困難者問題の発生要因や通勤者の帰宅意思決定行動に対して,Twitterにおける各ユーザーの発言内容をもとにその要因を明らかにする.まず,発言データから行動データを抽出することを目的として,Twitterの発言内容から,各ユーザーの帰宅行動をサポートベクターマシンを用いて識別する.次に,ジオタグデータを用いて職場・自宅間距離等を作成するとともに,ツイートデータを用いて外的要因や心理的説明要因を作成する.当日の帰宅意思決定行動をこれらの要因を用いて離散選択モデルによりモデル化する.このモデル化によるシナリオシミュレーションを行った結果,避難所施設・一時滞在場所の有無が待機・宿泊行動を促進すること,地震発生後の家族間の安否確認の可否が徒歩帰宅行動に影響を与える可能性が示された.以上より,今後の災害時における帰宅困難者問題への対策を考察する.
V06N05-02
本論文では,二つの名詞概念からなる比喩表現における顕著な属性を自動的に発見する手法を提案する.まず,概念から連想される属性について調べる連想実験を行い,次に,その結果に基づく属性の束を作ってSD法の実験を行う.そして,SD法実験の評定値をパラメータとして用いるニューラルネットワークを使用して,二つの概念に共通でしかも顕現性の高い属性を抽出する.この手法では多数の属性間の顕現性に関する数値的な順序づけが行われるので,多様な概念の組み合わせを含む「TはVだ」の形の比喩表現に対して適用できる.ここで,Tは被喩辞,Vは喩辞である.本手法を用いたシステムによる実行例を示し,その有効性を検証する.
V20N03-03
本論文では,地震や津波などの災害時に個人からソーシャルメディア上に発信される大量の書き込みから,救援者や被災者が欲している情報を自動的に取得する情報分析システムについて報告する.このシステムでは,質問応答技術により,災害時の被災地の状況や救援状況を俯瞰的に把握し,被災地からの想定外も含めた情報を取得することを目的としている.システムで利用している質問応答処理では構文パターンの含意に基づき質問文を拡張し,ソーシャルメディアへの書き込みに対して地名・場所名を補完することにより,幅広い質問に対応する.さらに,本システムを拡張することにより,被災地からの重要な情報提供が必ずしも救援者へ届かない問題に対応できることについて述べる.NPOや自治体などの救援者が状況把握のための質問を予め登録しておけば,救援を望む被災者がTwitterやBBS等へ書き込んだ時点で,情報を求める側と提供する側の双方に自動的に通知できる.これにより救援者と被災者の双方向のコミュニケーションが担保され,救援活動がより効率的になると期待される.本システムの質問応答性能を我々が用意した300問のテストセットのうち回答が対象データに含まれる192問を用いて評価したところ1質問あたり平均605.8個の回答が得られ,再現率は0.519,適合率は0.608であった.
V20N05-03
本論文では,レビュー文書からクレームが記述された文を自動検出する課題に対して,従来から問題となっていた人手負荷を極力軽減することを指向した次の手続きおよび拡張手法を提案する:(1)評価表現と文脈一貫性に基づく教師データ自動生成の手続き.(2)自動生成された教師データの特性を踏まえたナイーブベイズ・モデルの拡張手法.提案手法では,大量のレビュー生文書の集合と評価表現辞書が準備できれば,クレーム検出規則の作成・維持・管理,あるいは,検出規則を自動学習するために必要となる教師データの作成にかかる人手負荷は全くかからない利点をもつ.評価実験を通して,提案手法によって検出対象文の文脈情報を適切に捉えることで,クレーム文の検出精度を向上させることができること,および,人手によって十分な教師データが作成できない状況においては,提案手法によって大量の教師データを自動生成することで,人手を介在させる場合と同等あるいはそれ以上のクレーム検出精度が達成できることを示した.
V25N05-05
ニューラル機械翻訳(NMT)は入力文の内容の一部が翻訳されない場合があるという問題があるため,NMTの実用には訳出されていない内容を検出できることが重要である.著者らはアテンションの累積確率と出力した目的言語文から入力文を生成する逆翻訳の確率という2種類の確率による,入力文の内容の欠落に対する検出効果を調査した.日英の特許翻訳での訳抜けした内容の検出実験を実施し,アテンションの累積確率と逆翻訳の確率はいずれも効果があり,逆翻訳はアテンションより効果が高く,これらを組み合わせるとさらに検出性能が向上することを確認した.また,訳抜けの検出を機械翻訳結果の人手修正のための文選択に応用した場合に効果があることが分かった.
V20N04-01
大量のテキストから有益な情報を抽出するテキストマイニング技術では,ユーザの苦情や要望を表す述部表現の多様性が大きな問題となる.本稿では,同じ出来事を表している述部表現をまとめ上げるため,「メモリを消費している」と「メモリを食っている」の「消費している」と「食っている」のような述部表現を対象に,異なる2つの述部が同義か否かを認識する同義判定を行う.述部の言語構造分析をもとに,「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」という複数の言語知識を用い,それらを素性とした識別学習で同義判定を行った.実験の結果,既存手法に比べ,高い精度で述部の同義性を判定することが可能になった.
V23N05-05
統計的機械翻訳において,特定の言語対で十分な文量の対訳コーパスが得られない場合,中間言語を用いたピボット翻訳が有効な手法の一つである.複数のピボット翻訳手法が考案されている中でも,特に中間言語を介して2つの翻訳モデルを合成するテーブル合成手法で高い翻訳精度を達成可能と報告されている.ところが,従来のテーブル合成手法では,フレーズ対応推定時に用いた中間言語の情報は消失し,翻訳時には利用できない問題が発生する.本論文では,合成時に用いた中間言語の情報も記憶し,中間言語モデルを追加の情報源として翻訳に利用する新たなテーブル合成手法を提案する.また,国連文書による多言語コーパスを用いた実験により,本手法で評価を行ったすべての言語の組み合わせで従来手法よりも有意に高い翻訳精度が得られた.
V12N05-04
本稿では,前置詞句や等位構造を持つ英語固有表現とそれに対応する日本語表現を対訳コーパスから抽出する方法を提案する.提案方法では,(1)意味的類似性と音韻的類似性の二つの観点から英語固有表現と日本語表現の対を評価し,二種類の類似度を統合して全体としての類似度を求める処理と,(2)前置詞句の係り先や等位構造の範囲が不適格である英語固有表現の抽出を抑制する処理を行なう.読売新聞とTheDailyYomiuriの対訳コーパスを用いて実験を行ない,提案方法の性能と上記のような処理を行なわないベースラインの性能を比較したところ,提案方法で得られたF値0.678がベースラインでのF値0.583を上回り,提案方法の有効性が示された.
V28N01-06
%人間と機械の間の新たなインターフェースとして知的な対話システムの実現が期待されている.知的な対話システムは対話中の話者の内部状態を推測し,その結果に応じて適切に応答を変更する必要がある.本研究では映画推薦対話を具体例として,対話中の話者内部状態のモデル化とその話者内部状態を踏まえて応答を変更する対話システムの構築に取り組む.映画推薦をドメインとした対話システムを構築し,対話収集を行う.収集した対話データの分析に基づき,話者内部状態を話題に関する知識の有無,話題への興味の有無,対話意欲の有無の3つの軸でモデル化する.モデル化した話者内部状態を収集した対話データにアノテートし,これを学習データとして話者内部状態の自動推定を行った結果,高い推定精度を達成した.また,各話者内部状態に応じてシステムの応答を変更するルールを設計する.学習した話者内部状態推定器を用いて各話者内部状態を判定し,対話システムの応答を変更することでシステム発話の自然さが向上することを対話単位での評価と発話単位での評価の両方で確認した.
V16N03-03
事物の数量的側面を表現するとき,数詞の後に連接する語を一般に助数詞と呼ぶ.英語などでは名詞に直接数詞が係って名詞の数が表現されるが,日本語では数詞だけでなく助数詞も併せて用いなければならない.名詞と助数詞の関係を正しく解析するためには,助数詞が本来持つ語彙としての性質と構文中に現れる際の文法的な性質について考慮する必要がある.本稿では,数詞と助数詞の構文を解析するためのLexical-FunctionalGrammar(LFG)の語彙規則と文法規則を提案し,その規則の妥当性と解析能力について検証した.提案した規則によって導出される解析結果(f-structure)と英語,中国語のf-structureをそれぞれ比較することによって,日本語内での整合性と多言語間との整合性を有していることが確認できた.また,精度評価実験の結果,従来のLFG規則に比べて通貨・単位に関する表現では25\%,数量に関する表現では5\%,順序に関する表現では21\%のF値の向上が認められた.
V05N01-02
待遇表現の丁寧さの計算モデルとして,待遇表現に語尾を付加した際の待遇値(待遇表現の丁寧さの度合い)の変化に関する定量的なモデルを提案した.このモデルでは(1)それぞれの待遇表現に対し,その表現が用いられるべき状況が待遇値に関する正規分布として表される,(2)それぞれの語尾に対し,その語尾が付加される待遇表現が用いられるべき状況が待遇値に関する正規分布として表される,というふたつの仮定を立て,待遇表現に語尾を付加した際に得られる情報量を定義した.そして更に,語尾の付加による待遇値の変化量は,付加の際得られる情報量に関する一次式で表すことができる,という仮定を立て,語尾の付加による待遇値の変化量を,語尾が付加される前の待遇表現に対する待遇値の関数として定義した.このモデルの妥当性を検証するため,ふたつの異なった発話状況において用いられる待遇表現のグループそれぞれに対し,語尾の付加による待遇値変化を求める心理実験を行った.その結果,いずれのグループにおいても語尾の付加による待遇値変化は,提案されたモデルによって予測された傾向に従い,モデルの妥当性が支持された.
V26N01-07
テキスト中には過去・現在・未来における様々な事象が記述されており,その内容を理解するためにはテキスト中の時間情報を正確に解釈する必要がある.これまで,事象情報と時間情報を関連付けたコーパスが構築されてきたが,これらは開始と終了が比較的明確な事象に着目したものであった.本研究では,網羅的かつ表現力豊かな時間情報アノテーション基準を導入し,京都大学テキストコーパス中の113文書に対するアノテーションとその分析を行った.同コーパスには既に述語項関係や共参照関係のアノテーションガなされており,本アノテーションと合わせてテキスト中の事象・エンティティ・時間を対象とした統合的な時間情報解析に活用することが可能となった.
V02N02-01
比喩の一種である「駄洒落」は,言語記号(音声)とその記号が表す概念の意味との両方に,比喩を成立させる「根拠(ground)」(比喩における被喩辞(tenor)と喩辞(vehicle)とを結びつける関係)があるという点で,高度な修辞表現に位置づけられる.筆者らは,「併置型」と呼ぶ駄洒落の一種(例「トイレに行っといれ」)を,外国語専攻の大学生54名に筆記によって創作させ,203個を収集した.そしてこのデータに対して,駄洒落理解システムの構築に必要な知見を得るという観点から,「先行喩辞」(例では「トイレ」)と「後続喩辞」(例では「....といれ」)の関係,及び「出現喩辞」(例では「....といれ」)と「復元喩辞」(例では「....ておいで」)の関係に着目し,以下の3つの分析を行った.(1)先行−後続出現喩辞間の音素列は,どれ位の長さの一致が見られるか.(2)先行−後続出現喩辞間の音素の相違にはどのような特徴があるか.(3)出現−復元喩辞間の音素の相違にはどのような特徴があるか.その結果,出現喩辞の音節数は先行と後続とで一致する場合が多いこと,先行−後続出現喩辞間及び出現−復元喩辞間の音素の相違は比較的少なく,相違がある場合もかなり高い規則性があること,などがわかった.以上の知見から,計算機による駄洒落理解手法,即ち出現喩辞と復元喩辞を同定するアルゴリズムを構築できる見通しが得られた.
V07N04-06
字幕生成のためのニュース文要約のような報知的要約では,原文の情報を落とさないことが望まれる.本論文では,このような原文の情報を極力落とさない要約手法の一つとして,重複部削除による要約手法について議論する.テキスト内に,同一の事象を表す部分が再度出現したならば,その部分を削除することによって冗長度を減少させ,情報欠落を可能な限り回避した要約を行う.事象の重複を認定するために,係り受け関係のある2語が一つの事象を表していると仮定し,2語の係り受け関係の重複を事象の重複と認定する.また,2語の係り受け関係を用いて重複部を削除するだけでは,読みやすく,かつ,自然な要約文を生成することができない.そのために考慮すべきいくつかの情報について議論する.以上の方法のうち,実装可能な部分を計算機上に実装し,評価実験を行った.人間による削除箇所と本手法による削除箇所とを比較したところ,再現率81.0\%,適合率85.1\%の結果を得た.
V23N02-02
近年,様々な種類の言語学習者コーパスが収集され,言語教育の調査研究に利用されている.ウェブを利用した言語学習アプリケーションも登場し,膨大な量のコーパスを収集することも可能になってきている.学習者が生み出した文には正用だけでなく誤用も含まれており,それらの大規模な誤用文を言語学や教育などの研究に生かしたいと考えている.日本語教育の現場では,学習者の書いた作文を誤用タイプ別にし,フィードバックに生かしたい需要があるが,大規模な言語学習者コーパスを人手で分類するのは困難であると考えられる.そのような理由から,本研究は機械学習を用いて日本語学習者の誤用文を誤用タイプ別に分類するというタスクに取り組む.本研究は,以下の手順で実験を行った.まず,誤用タイプが付与されていない既存の日本語学習者コーパスに対し,誤用タイプ分類表を設計し,誤用タイプのタグのアノテーションを行った.次に,誤用タイプ分類表の階層構造を利用して自動分類を行う階層的分類モデルを実装した.その結果,誤用タイプの階層構造を利用せず直接多クラス分類を行うベースライン実験より13ポイント高い分類性能を得た.また,誤用タイプ分類のための素性を検討した.機械学習のための素性は,単語の周辺情報,依存構造を利用した場合をベースライン素性として利用した.言語学習者コーパスの特徴として,誤用だけではなく正用も用いることができるため,拡張素性として正用文と誤用文の編集距離,ウェブ上の大規模コーパスから算出した正用箇所と誤用箇所の置換確率を用いた.分類精度が向上した誤用タイプは素性によって異なるが,全ての素性を使用した場合は分類精度がベースラインより6ポイント向上した.
V27N02-12
%本論文では,日本語文を合成するためのドメイン特化言語HaoriBricks3(HB3)について述べる.HB3では,ブリックコードと呼ぶRubyコードで,どのような日本語文を合成するかを記述する.このブリックコードを評価すると,ブリック構造と呼ばれるRubyオブジェクトが生成され,さらに,これに表層文字列化メソッド\texttt{to\_ss}を適用すると,表層文字列が生成される.本論文では,HB3の設計思想,実装のための工夫について説明し,HB3で何ができるのかを示す.
V07N02-01
人間は文書全体を読むことなしに,代表的な単語を見るだけで,<政治>や<スポーツ>などの分野を認知できることから,文書断片内の数少ない単語情報から分野を的確に決定するための分野連想語の構築は重要な研究課題である.しかし,文書から連想語を抽出する場合,複合語の冗長な連想語が多く存在する.本論文では,事前に分野体系が定義され,各分野に文書データが構築されている場合において,複合語の分野連想語を効率的に決定する手法を提案する.本手法では,連想分野を特定する範囲に応じて連想語を五つの水準に分類し,まず複合語以外の単語(短単位語と呼ぶ)の連想語候補を決定し,人手で修正を加える.次に,この短単位語の連想情報を利用して,膨大な数になる複合語の連想語候補を自動的に絞り込む.収集された180分野の学習データ(42メガバイト,15,435ファイル)に対して提案手法を適用した結果,88,782個の候補が8,405個(候補数の約9\%)の連想語に絞り込まれ,再現率0.77以上(平均0.85),適合率0.90以上(平均0.94)の高い抽出精度が得られた.また,連想語を利用した264種類の断片文書の分野決定実験より,複合連想語と短単位連想語による正解率は90\%以上となり,短単位連想語のみの場合より約30\%向上することが分かった.
V20N03-08
災害は被災地住民の健康に多大な影響を及ぼし,その対応に際し保健医療分野に膨大な文書を生じる.そこで,災害時の保健医療活動を支援するため,自然言語処理による各種文書の効率的処理が期待されている.本稿では,保健医療の観点から,そうした情報の特性を被災者,被災者集団,支援者のそれぞれについて整理したうえで,自然言語処理が有効と考えられる諸課題を列挙する.そのうえで,2011年に発生した東日本大震災において筆者らが関わった日本栄養士会支援活動報告,石巻圏合同救護チーム災害カルテ,医療や公衆衛生系メーリングリスト情報の3つの事例を紹介し,「健康危機管理」に自然言語処理が果たしうる貢献について検討する.これらの事例に示されるように,災害時には保健医療に関わる膨大なテキストが発生するものの,保健医療分野の専門家は大量の自由記載文を効率的に処理する手段を有していない.今後,東日本大震災において生じたデータを活用し,保健医療情報における大量の自由記載文を効率的に処理する備えを行っておくことが望ましい.
V17N04-08
現在,機械翻訳システムの分野において,対訳データから自動的に翻訳モデルと言語モデルを獲得し,翻訳を行う統計翻訳が注目されている.翻訳モデルでは,原言語の単語列から目的言語の単語列への翻訳を,フレーズテーブルで管理する.しかしフレーズテーブルはプログラムで自動作成するため,カバー率は高いが信頼性は低いと考えられる.一方,手作業で作成した翻訳対は,信頼性は高いがカバー率は低いと考えられる.そこで,それぞれの長所を生かすために,プログラムで自動作成したフレーズ対に手作業で作成した翻訳対を追加することで翻訳精度が向上すると考えた.実験では,手作業で作成された約13万の翻訳対に翻訳確率を与え,プログラムで自動作成したフレーズテーブルに追加した.翻訳実験の結果,BLEUスコアが,日英翻訳の単文では0.9\%,重複文では0.8\%向上した.また人間による対比較実験を行ったところ,有効性が確認された.以上の結果から,統計翻訳において手作業で作成した翻訳対を追加する提案手法は有効であることが示された.
V17N05-03
現在共有されている日本人の子供の書き言葉コーパスは非常に少ないが,子供の書き言葉コーパスは,日本語の使用実態の年齢別推移の分析や,子供の言葉に特徴的に現れる言語形式の分析,国語教育・日本語教育への活用など日本語研究での利用はもちろんのこと,認知発達,社会学など,さまざまな分野での応用の可能性がある.そこで本研究では,全国4,950校の小学校のWebサイトを調査し,公開されている作文について,各テキストが子供の書いたテキストであることや学年などの情報を確認の上,作文データの収集を行った.収集したテキスト総数は10,006,語数は1,234,961である.本研究では,大人よりも子供の言語使用において豊富で多様な使用が観察されると予想されるオノマトペに着目し,その学年別の使用実態の推移について調査した.その結果,オノマトペの出現率は学年が上がるにつれ減少していくことが確認できた.さらに,社会学的応用例として,子供と父母との関係性について調査し,父母とのやりとりとそれに対する子供の反応との関係性が,母親の場合の方が強いことを示し,本コーパスのさまざまな応用の可能性を示した.
V04N01-07
本稿では,文とその後方に位置する名詞句との照応を,複雑な知識や処理機構を用いず,表層的な情報を用いた簡単な処理によって解析する方法を提案する.文と名詞句の構文構造を支配従属構造で表現し,それらの構造照合を行ない,照合がとれた場合,照応が成立するとみなす.構造照合に用いる規則は,文が名詞句に縮約されるときに観察される現象のうち,主に,用連助詞から体連助詞への変化,情報伝達に必須でない語の削除に着目して定義する.このような簡単な処理によって前方照応がどの程度正しく捉えられるかを検証するための実験を,サ変動詞が主要部である文と,そのサ変動詞の語幹が主要部である名詞句の組を対象として行なった.実験では,新聞記事から抽出した178組のうち133組(74.7\%)について,本手法による判定と人間による判定が一致した.また,構造照合で類似性が最も高いと判断された支配従属構造の組を優先解釈として出力することによって,入力の時点で一組当たり平均3.4通り存在した曖昧性が1.8通りへ絞り込まれた.
V07N04-07
本稿では,日英機械翻訳システムTWINTRANの言語知識(辞書と規則)と翻訳品質の評価結果について述べる.TWINTRANは次のような設計方針に基づくシステムである.1)翻訳対象と翻訳方向を日本語テキストから英語テキストへの翻訳に固定し,日本語の解析知識の記述を,日本語文法だけでなく英語文法も考慮に入れて行なう.2)解釈の曖昧性の解消は,各規則に与えた優先度に基づいて解釈の候補に優劣を付け,候補の中から最も優先度の高い解釈を選択することによって行なう.3)動詞の主語や目的語など日本語では任意的だが英語では義務的である情報を得るために照応解析を行なう.\\NTT機械翻訳機能試験文集を対象として行なったウィンドウテストでは,我々の評価基準で,試験文集の73.1\%の文が合格となり,試験文集全体の平均点も合格点を上回る結果が得られた.
V28N04-07
%固有表現認識は,科学技術論文などのテキストから分野特有の用語を機械的に抽出するタスクである.固有表現認識の従来研究は連続した範囲から成る固有表現のみを解析対象としているが,並列する固有表現の一部が省略された複合的表現が含まれており,これらの固有表現に対して個々の固有表現を抽出することが困難である.本研究では,近年の自然言語処理タスクで広く使用されている学習済み言語モデルを用いて,並列構造の教師データを用いずに並列する句の範囲を同定し,複合化された固有表現を正規化する手法を提案する.GENIATreebankとGENIAtermannotationを用いた評価実験では,教師情報を使用した先行研究と近い解析性能を示し,提案手法によって固有表現認識の精度が向上することを確認した.
V20N05-04
本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)の領域適応に対する手法を提案する.WSDの領域適応の問題は,2つの問題に要約できる.1つは領域間で語義の分布が異なる問題,もう1つは領域の変化によりデータスパースネスが生じる問題である.本論文では上記の点を論じ,前者の問題の対策として学習手法にk~近傍法を補助的に用いること,後者の問題の対策としてトピックモデルを用いることを提案する.具体的にはターゲット領域から構築できるトピックモデルによって,ソース領域の訓練データとターゲット領域のテストデータにトピック素性を追加する.拡張された素性ベクトルからSVMを用いて語義識別を行うが,識別の信頼性が低いものにはk~近傍法の識別結果を用いる.BCCWJコーパスの2つの領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行い,提案手法の有効性を示す.別種の領域間における本手法の有効性の確認,領域の一般性を考慮したトピックモデルをWSDに利用する方法,およびWSDの領域適応に有効なアンサンブル手法を考案することを今後の課題とする.
V14N03-13
近年の情報処理技術の発達に伴い,従来の情報処理の分野ではほとんど取り扱われなかった人間の感性をコンピュータで処理しようとする試みが盛んになってきた.擬人化エージェントや感性ロボットが人のように振舞うためには,人間が表出する感情を認識し,自ら感情を表出することが必要である.我々は,感性ロボットに応用するための感情認識技術について研究している.自然言語会話文からの感情推定を行う試みは,多くの場合,表面的な感情表現のみに絞って行われてきた.しかし,人間の発話時には常に何らかの感情が含まれていると考えられる.そこで,本稿では,感情語と感情生起事象文型パターンに基づいた感情推定手法を提案し,実験システムを構築する.そして,本手法の有効性を調べるため,シナリオ文を対象にその評価実験を行った.
V04N03-05
本論文では,文字連鎖を用いた複合語同音異義語誤りの検出手法とその評価について述べる.ワードプロセッサによって作成された日本語文書には,変換誤りに起因する同音異義語誤りが生じやすい.同音異義語誤りは,同じ読みの単語を誤った単語へと変換してしまう誤りである.このため,推敲支援システムにおいて同音異義語誤りを検出する機能を実現することは重要な課題の1つとなっている.我々は,意味的制約に基づく複合語同音異義語誤りの検出/訂正支援手法を提案した.しかし,この手法においてもいくつかの短所が存在する.本論文では,これらの短所を補うための手法として,文字連鎖を誤り検出知識として用いた複合語同音異義語誤りの検出手法について述べる.文字連鎖は,既存の文書を解析することなしに容易に収集することができる.また,本手法は文字連鎖のみを用いているので,複合語同音異義語誤りに限らず,文字削除誤りなどの別のタイプの誤りに適用することも可能である.さらに本論文では,本手法の有効性を検証するために行った評価実験の結果についても述べ,意味的制約を用いた複合語同音異義語誤り検出/訂正支援手法との比較についても述べる.
V24N02-04
ソーシャルメディア等の崩れた日本語の解析においては,形態素解析辞書に存在しない語が多く出現するため解析誤りが新聞等のテキストに比べ増加する.辞書に存在しない未知語の中でも,既知の辞書語からの派生に関しては,正規形を考慮しながら解析するという表記正規化との同時解析の有効性が確認されている.本研究では,これまで焦点があてられていなかった,文字列の正規化パタン獲得に着目し,アノテーションデータから文字列の正規化パタンを統計的に抽出する.統計的に抽出した文字列正規化パタンと文字種正規化を用いて辞書語の候補を拡張し形態素解析を行った結果,従来法よりも再現率,精度ともに高い解析結果を得ることができた.
V21N02-08
日本語の述語項構造アノテーションコーパスは,これまでにいくつかの研究によって整備され,その結果,日本語の述語項構造解析の研究は飛躍的にその成果を伸ばした.一方で,既存のコーパスのアノテーション作業者間一致率やアノテーション結果の定性的な分析をふまえると,ラベル付与に用いる作業用のガイドラインには未だ改善の余地が大きいと言える.本論文では,より洗練された述語項構造アノテーションのガイドラインを作成することを目的とし,NAISTテキストコーパス(NTC),京都大学テキストコーパス(KTC)のアノテーションガイドラインと実際のラベル付与例を参考に,これらのコーパスの仕様策定,仕様準拠のアノテーションに関わった研究者・アノテータ,仕様の改善に関心のある研究者らの考察をもとにガイドライン策定上の論点をまとめ,現状の問題点や,それらに対する改善策について議論・整理した結果を報告する.また,アノテーションガイドラインを継続的に改善可能とするための方法論についても議論する.
V27N03-04
%本論文では,ニューラル機械翻訳(NMT)の性能を改善するため,原言語側と目的言語側両方の係り受け関係を捉えるdependency-basedself-attentionを組み込んだ新しいTransformerNMTモデルを提案する.Dependency-basedself-attentionはlinguistically-informedself-attention(LISA)から着想を得ており,各単語のアテンションが係り先の単語となるように,Transformerのself-attentionを係り受け関係に基づいた制約を与えて学習させる.LISAは,意味役割付与の性能を改善するため,Transformerエンコーダ向けに設計されているが,本論文ではLISAをTransformerNMTに拡張する.具体的には,デコーダ側のdependency-basedself-attentionを訓練する際に後方の単語に係る係り受け関係をマスクすることで,訓練時と推論時との不整合を解消する.さらに,我々の提案するdependency-basedself-attentionは,bytepairencodingのようなサブワード単位での演算が可能である.AsianScientificPaperExcerptCorpus(ASPEC)の日英・英日翻訳タスクの評価実験により,Dependency-basedself-attentionを組み込んだ提案モデルは,従来のTransformerNMTモデルと比較して,それぞれ1.04ポイント・0.30ポイントBLEUスコアが上昇することを示す.
V09N05-05
自然言語の意味を理解するコンピュータの実現には,入力された語から関連の強い語を導き出す連想システムが必要と考える.本研究の目的はこのような連想システムの主要要素である概念ベースの構築である.我々の開発した連想システムは電子化辞書から作られた概念ベースと,語間の関係の深さを定量化する関連度計算アルゴリズムから構成される.概念ベースでは語の意味を語の持つ意味の特徴を表す語(属性)とその語に対する重要性を表す重みの集合で定義している.本研究においては,概念を概念ベースによって定義される語の連鎖としてモデル化している.機械構築された最初の概念ベースは不適切な属性が多く,重みの信頼性も低い.本稿ではこの機械構築された概念ベースを出発点とし,雑音属性を除去し,より適切な重みを付与するために,属性信頼度の考えに基づく新しい精錬を提案している.さらに,人間の感覚による評価とテストデータの関連度を用いた実験によって提案方式の有効性を示した.
V15N04-03
本論文では,テキストに出現する固有表現の組が意味的な関係を有するか否かを判定する手法,特に異なる文に出現する固有表現の組に有効な手法を提案する.提案手法では,SalientReferentListに基づく文脈的素性を新たに導入し,単語や品詞,係り受けなどの伝統的に利用されている素性と組合わせた.これらの素性はひとつの木構造として表現され,ブースティングに基づく分類アルゴリズムに渡される.実験結果では,提案手法は従来手法より精度11.3\%,再現率14.2\%向上することが確認できた.
V23N05-02
近年の統計的機械翻訳の進展によって特許文翻訳の精度は大きく向上したが,特許文中で特に重要性の高い特許請求項文に対する翻訳精度は依然として低い.特許請求項文は,(1)極めて長い1文から構成される,(2)特殊な文構造を持っている,という2つの特徴を持つサブ言語であるとみなせる.そしてこれらが翻訳精度の低さの原因となっている.本論文では,サブ言語に特有の特徴を処理する枠組みの導入によって,特許請求項の翻訳精度を向上させる手法について述べる.提案手法では,同期文脈自由文法を用いて原言語文が持つサブ言語に特有の文構造を目的言語側の文構造に変換することにより,適切な文構造を持った訳文を生成する.さらに本手法では,文全体ではなく,文を構成する構造部品を翻訳の処理単位とすることにより長文の問題に対処する.英日・日英・中日・日中の4翻訳方向で評価実験を行ったところ,全翻訳方向においてRIBES値が25ポイント以上向上し,本手法によって訳文品質が大幅に改善したことがわかった.英日・日英翻訳ではさらにBLEU値が5ポイント程度,中日・日中では1.5ポイント程度向上した.
V16N01-05
辞書の定義文を基にした上位語情報の抽出手法を提案し,その結果に基づく単語オントロジーの自動生成を試みた.提案するのは再帰的語義展開による情報抽出手法である.本手法では定義文を再帰的に展開し,巨大な単語集合として定義文を再定義する.このとき,定義文中に上位語が含まれるという仮定を利用すれば,非常に多くの単語を上位語候補とすることができる.この手法では上位語となる尤もらしさの指標を得ることができるため,これを利用して多数の候補の中から上位語を効率よく選択できるようになる.本手法を適用した上位語抽出実験では,構文解析を用いた既存手法を上回る精度を示した.更に本論文では,取り出された上位語情報を用いて単語オントロジーの自動生成を試みた.自動生成の手法はまだ完全なものではないが,実験結果は上位語情報の有用性を示すものであり,今後のオントロジー自動生成の可能性を示している.
V16N03-02
近年,コンピュータとネットワークの発達に伴って,個人が扱える情報は膨大なものとなり,その膨大な情報の中から必要な情報を探し出すのは非常に困難となっている.既存の検索システムは基本的には表記のみを活用するため,意味的には同じ内容の検索でもユーザが入力する語によって検索結果が異なってしまう.そのためユーザが適切なキーワードを考えなければならない.そこで本稿では文書の意味を捉えた検索を実現するために単語の関連性にもとづいた文書間の類似性の定量化手法を提案する.具体的には概念ベースを用い単語間の関連性を求め,EarthMover'sDistanceにより文書間の類似度を計算する方法を提案する.また概念ベースに存在しない固有名詞や新語に対して,Web情報をもとに新概念として意味を定義し,概念ベースを自動的に拡張する方法を提案する.これら提案手法をNTCIR3-WEBによって他の手法と比較実験したところ,本手法が他手法に比べ良好な結果が得られた.
V03N02-01
終助詞「よ」「ね」「な」は,書き言葉の文には殆んど用いられないが,日常会話において頻繁に使われており,文全体の解釈に及ぼす影響が大きい.そのため,機械による会話理解には,終助詞の機能の研究は不可欠である.本論文では,代表的な終助詞「よ」「ね」「な」について,階層的記憶モデルによる終助詞の機能を提案する.まず,終助詞「よ」の機能は,文の表す命題が発話以前に記憶中のある階層に存在することを表すことである.次に,終助詞「ね」「な」の機能は,文の表す命題を記憶中に保存する処理をモニターすることである.本稿で提案する機能は,従来の終助詞の機能が説明してきた終助詞「よ」「ね」「な」の用法を全て説明できるだけでなく,従来のものでは説明できなかった終助詞の用法を説明できる.
V02N01-02
我々は,接続助詞「ので」による順接の複文と接続助詞「のに」による逆接の複文を対象とする理解システムを計算機上に構築することを目的とする.この際には,ゼロ代名詞の照応の解析が重要な問題となるが,文献\cite{中川:複文の意味論,COLING94}にあるように,本論文で扱う形式の複文では動機保持者という語用論的役割を新たに定義し用いることにより,従属節と主節それぞれで設定される意味役割や語用論的役割の間の関係を制約として記述することができる.そこで,日本語の複文に対する形態素解析や構文解析の結果を素性構造で記述し,この結果に対して制約論理プログラミングの手法を用いることにより意味および語用論的役割間の制約を解消し,ゼロ代名詞照応などを分析する理解システムを計算機上に構築した.
V19N05-02
本稿では,置換,挿入,削除操作を行う識別的系列変換で日本語学習者作文の助詞誤りを自動訂正する.誤り訂正タスクの場合,難しいのは大規模な学習者作文コーパスを集めることである.この問題を,識別学習の枠組み上で2つの方法を用いて解決を図る.一つは日本語としての正しさを測るため,少量の学習者作文から獲得したn-gram二値素性と,大規模コーパスから獲得した言語モデル確率を併用する.もう一つは学習者作文コーパスへの直接的補強として,自動生成した疑似誤り文を訓練コーパスに追加する.さらに疑似誤り文をソースドメイン,実際の学習者作文をターゲットドメインとしたドメイン適応を行う.実験では,n-gram二値素性と言語モデル確率を併用することで再現率の向上ができ,疑似誤り文をドメイン適応することにより安定した精度向上ができた.
V07N02-07
われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデルを用いている.しかし,このRobertsonの方法では検索のための手がかりとして当然用いるべき位置情報や分野情報などを用いていない.それに対しわれわれは位置情報や分野情報などをも用いる枠組を考案した.IREXのコンテストでは,この枠組に基づくシステムを二つ提出していたが,記事の主題が検索課題に関連している記事のみを正解とするA判定の精度はそれぞれ0.4926と0.4827で,参加した15団体,22システムの中では最もよい精度であった.本論文ではこのシステムの詳細な説明を行なうとともに,種々のパラメータを変更した場合の詳細な対照実験を記述した.この対照実験で位置情報や分野情報の有効性を確かめた.
V07N05-01
係り受け解析は日本語解析の重要な基本技術の一つとして認識されている.依存文法に基づく日本語係り受け解析では,文を文節に分割した後,それぞれの文節がどの文節に係りやすいかを表す係り受け行列を作成し,一文全体が最適な係り受け関係になるようにそれぞれの係り受けを決定する.本論文ではそのうち,係り受け行列の各要素の値を計算するためのモデルについて述べる.アプローチとしては,主にルールベースによる方法と統計的手法の二つのものがあるが,我々は利用可能なコーパスが増加してきたこと,規則の変更に伴うコストなどを考慮して,統計的手法をとっている.統計的手法では行列の各要素の値は確率値として計算される.これまでよく用いられていたモデル(旧モデル)では,その確率値を計算する際に,着目している二つの文節が係るか係らないかということのみを考慮していた.本論文では,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮するモデルを提案する.このモデルをME(最大エントロピー)に基づくモデルとして実装した場合,旧モデルを同じくMEに基づくモデルとして実装した場合に比べて,京大コーパスに対する実験で,全く同じ素性を用いているにもかかわらず係り受け単位で1\%程度高い精度(88\%)が得られた.
V26N01-02
インターネット上のコミュニティQAサイトや学会での質疑応答の場面などにおいて,人々は多くの質問を投げかける.このような場面で用いられる質問には,核となる質問に加え補足的な情報をも付与され,要旨の把握が難しくなることもある.補足的な情報は正確な回答を得るには必要であるが,質問の要旨を素早く把握したいといった状況においては必ずしも必要でない.そこで本稿では,新たなテキスト要約課題として,複数文から構成される質問{テキスト}を単一質問文に要約する“質問要約”を提案する.本研究ではまず,コミュニティ質問応答サイトに投稿される質問から{質問テキスト}−要約対を獲得し,必要な要約手法について抽出型および生成型の観点から分析を行う.また,獲得した{質問テキスト}−要約対を学習データとして抽出型および生成型の要約モデルを構築し,性能を比較する.分析より,抽出型要約手法では要約できない{質問テキスト}の存在を確認した.また要約モデルの比較実験から,従来の要約課題で強いベースライン手法として知られるリード文よりも,先頭の{疑問文を規則を用いて同定し抽出するリード疑問文ベースライン}がより良い性能を示すこと,生成型手法であるエンコーダ・デコーダモデルに基づく要約手法が,ROUGEによる自動評価,人間による評価において良い性能を示すことなどの知見を得た.また,入力中の出現単語を出力に含めるコピー機構を持つエンコーダ・デコーダモデルは,さらに良い性能を示した.
V09N02-02
本論文は,動詞と主体の属性を用いて複文の連接関係の関係的意味を解析し,この関係的意味を用いて連接構造を解析するモデルについて述べる.従来,複文の従属節間の連接構造解析は,接続の表現を階層的に分類し,その階層的な順序関係による方法が用いられてきた.しかし,接続の表現には曖昧性があり,同じ接続の表現でも意味が違うと係り方が違う.このため,本論文では,動詞と主体の属性を用いて,連接関係の意味を求め,この連接関係の関係的意味を,連接関係の距離によって分類する.この分類を用いて連接構造を解析する方法を用いた.動詞の属性として,意志性,アスペクト・ムード・ヴォイス,意味分類などを用いた.主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを採用した.このモデルを実際の用例により評価した結果98.4\%の精度が得られた.接続の表現の階層的分類を使用したモデルに同じ用例を適用したところ97.0\%の精度が得られたので,本論文のモデルを使用することにより誤り率が約半分に改善された.
V03N03-02
本稿では,比喩の理解過程における再解釈の段階について考察した.名詞の意味を確率を利用して表現した.比喩表現の意味は,喩詞の意味に影響された被喩詞の意味である.被喩詞の意味と比喩表現の意味との違いを示す指標として,明瞭性と新奇性とを情報量を用いて定義した.明瞭性が大きい値となるときは,比喩表現において属性に関する不確定さが減少したときである.新奇性が大きい値となるときは,比喩表現が稀な事象を表わすときである.SD法により比喩表現の意味を測定し,明瞭性と新奇性とを求めた.明瞭性が属性の顕著性のパターンに対応する数値であることと,明瞭性と新奇性とが比喩の理解容易性の指標として適当であることとを示した.
V26N01-09
ニューラルネットワークに基づく係り受け解析モデルは,近年の深層学習を利用した言語処理研究の中でも大きな潮流となっている.しかしながら,こうした係り受け解析モデルを中国語などの言語に適用した際には,パイプラインモデルとして同時に用いられる単語分割や品詞タグ付けモデルの無視できない誤りによって性能が伸び悩む問題が存在する.これに対しては,単語分割・品詞タグ付けと係り受け解析の統合モデルを利用し,単語分割と構文木作成とを同時に行うことでその双方の改善が期待される.加えて,中国語においては個々の文字が固有の意味を持ち,構文解析では,文字やその組み合わせである文字列もしくは部分単語の情報が単語単位の情報と並んで本質的な役割を果たすことが期待される.本研究では,ニューラルネットワークに基づいて,単語分割と品詞タグ付け,もしくは単語分割と品詞タグ付け,係り受け解析の統合構文解析を行うモデルを提案する.また,同時に,文字列や部分単語の情報を捉えるために,文字や単語の分散表現に加えて,文字列の分散表現を利用する.
V23N05-03
質問応答システムが高い精度で幅広い質問に解答するためには,大規模な知識ベースが必要である.しかし,整備されている知識ベースの規模は言語により異なり,小規模の知識ベースしか持たない言語で高精度な質問応答を行うためには,機械翻訳を用いて異なる言語の大規模知識ベースを利用して言語横断質問応答を行う必要がある.ところが,このようなシステムでは機械翻訳システムの翻訳精度が質問応答の精度に影響を与える.一般的に,機械翻訳システムは人間が与える評価と相関を持つ評価尺度により精度が評価されている.そのため,この評価尺度による評価値が高くなるように機械翻訳システムは最適化されている.しかし,質問応答に適した翻訳結果は,人間にとって良い翻訳結果と同一とは限らない.つまり,質問応答システムに適した翻訳システムの評価尺度は,人間の直感に相関する評価尺度とは必ずしも合致しないと考えた.そこで本論文では,複数の翻訳手法を用いて言語横断質問応答データセットを作成し,複数の評価尺度を用いてそれぞれの翻訳結果の精度を評価する.そして,作成したデータセットを用いて言語横断質問応答を行い,質問応答精度と翻訳精度との相関を調査する.これにより,質問応答精度に影響を与える翻訳の要因や,質問応答精度と相関が高い評価尺度を明らかにする.さらに,自動評価尺度を用いて翻訳結果のリランキングを行うことによって,言語横断質問応答の精度を改善できることを示す.
V17N01-05
語順や言語構造の大きく異なる言語対間の対訳文をアライメントする際に最も重要なことは,言語の構造情報を利用することと,一対多もしくは多対多の対応が生成できることである.本論文では両言語文の依存構造木上での単語や句の依存関係をモデル化した新しい句アライメント手法を提案する.依存関係モデルは木構造上でのreorderingモデルということができ,非局所的な語順変化を正確に扱うことができる.これは文を単語列として扱う既存の単語アライメント手法にはない利点である.また提案モデルはヒューリスティックなルールを一切用いずに,句となるべき単位の推定を自動的に行うことができる.アライメント実験では,既存の単語アライメント手法と比較して,提案手法にではアライメントの精度をF値で8.5ポイント向上させることができた.