id
stringlengths 9
9
| text
stringlengths 18
1.29k
| title
stringclasses 1
value |
---|---|---|
V14N01-03
|
本稿では,日本語フレームネットを背景に,述語項構造における項の意味役割を推定する統計モデルの定義,および獲得手法を提案する.本モデルの目的は,表層格では区別できない意味の区別である.本モデルは文と述語から述語項構造を同定して意味役割を付与すべき項を抽出し,それらに適切な意味役割を付与する.評価実験の結果,尤度が閾値を超える意味役割のみを付与する条件の下,意味役割を付与すべき項がわかっている文に対して精度77%,再現率68%,また,意味役割を付与すべき項がわかっていない文に対して精度63%,再現率43%で意味役割推定を実現し,本手法の有効性を示した.また,同一の表層格をもつ項に対して,複数の異なる意味役割の付与を実現した.
| |
V30N02-09
|
%大量の訓練データを用いたニューラルモデルは生成型要約タスクにおいて高い性能を達成している.しかしながら,大規模な並列コーパスの構築はコストの観点から容易ではない.これを解決するため,本研究では生成型要約タスクの疑似訓練データを低コストで効果的に構築する手法として\textbf{ExtraPhrase}を提案し,訓練データを拡張する.ExtraPhraseは文圧縮と言い換えの2つのモジュールで疑似訓練データを構築する.文圧縮では入力テキストの主要部分を獲得し,言い換えではその多様な表現を得る.実験を通して,ExtraPhraseは生成型要約タスクの性能を向上させ,逆翻訳や自己学習などの既存の訓練データ拡張手法を上回ることを確認した.また,ExtraPhraseは,学習データが著しく少ない場合でも大きな効果が発揮できることを示した.\renewcommand{\thefootnote}{}\footnote[0]{本論文の内容はNAACLSRW2022に採択されたものを拡張したものである\cite{loem-etal-2022-extraphrase}.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V10N05-05
|
用例ベース翻訳を実現するためには,大量の用例が必要である.本研究は,対訳文を用例として利用できるようにするために,対訳文に対して句アライメントを行なう手法を提案する.従来の句アライメントでは,語アライメントを得てから,その情報をもとに句アライメントに拡張する手法が方式が多かった.本手法では基本句という文節に相当する単位を導入して,基本句間のアライメントを行なう.実験を行なった結果,良好な結果を得た.
| |
V16N01-02
|
本論文では,ベイズ識別と仮説検定に基づいて,英文書の作成者の母語話者/非母語話者の判別を高精度で行う手法を提案する.品詞$n$-gramモデルを言語モデルとし,判別対象の文書の品詞列の生起確率を,母語話者言語モデルにより求めた場合と非母語話者言語モデルにより求めた場合とで比較し,判別を行う.$n$を大きくすると,母語話者/非母語話者固有の特徴をより良く扱うことが可能となり,判別精度の向上が期待できる反面,ゼロ頻度問題およびスパースネスの問題が顕在化し,品詞$n$-gramモデルのパラメタの最尤推定値を信頼することはできくなる.そこで,提案手法では,仮説検定に基づいた方法で両言語モデルにおける生起確率の比を推定する.実験の結果,従来手法を上回る92.5\%の精度で判別できることを確認している.
| |
V21N05-04
|
線形計画問題において変数が整数値を取る制約を持つ整数計画問題は,産業や学術の幅広い分野における現実問題を定式化できる汎用的な最適化問題の1つであり,最近では分枝限定法に様々なアイデアを盛り込んだ高性能な整数計画ソルバーがいくつか公開されている.しかし,整数計画問題では線形式のみを用いて現実問題を記述する必要があるため,数理最適化の専門家ではない利用者にとって現実問題を整数計画問題に定式化することは決して容易な作業ではない.本論文では,数理最適化の専門家ではない利用者が現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説する.
| |
V31N02-06
|
%ニューラル言語モデルの成功を踏まえ,言語モデルの言語獲得について関心が高まっている.既存研究では,主に人間と言語モデルの第一言語獲得に焦点が当てられていたが,本研究では言語モデルの第二言語獲得にスコープを当てた調査を行う.具体的には,人間の第二言語獲得と同様のシナリオでバイリンガル言語モデルを学習し,その言語間転移について言語学的観点から分析する.実験の結果から,第一言語での事前学習は第二言語の言語的汎化を促進し,第一言語となる言語,第二言語学習時の対訳テキストの有無などといった言語間転移の設定が汎化の促進に異なる影響を与えることが示された.これらの知見により,言語モデルの言語間転移について,人間の第二言語獲得との類似点や相違点が多角的に明らかになった.
| |
V30N03-04
|
%医療分野には,電子カルテや退院サマリといった症例テキストが蓄積されており,これらを新たな知識の発見に繋げるために自然言語処理技術を応用する研究が試みられている.しかし,症例テキストには専門的な複合語が頻出するといった解析の難しさがあり,日本語の症例テキストを用いた深い意味解析や,日本語の症例テキスト間の含意関係認識についての研究は発展途上である.そこで本論文では,日本語の高度な意味解析・推論システムccg2lambdaに複合語解析モジュールを追加することで,症例テキストの意味解析と推論を扱える論理推論システムMedc2lを提案する.複合語解析モジュールは(i)症例テキストに含まれる複合語の抽出,(ii)複合語を構成する形態素間の意味的な関係を表す意味現象タグの付与,(iii)意味現象タグに基づく複合語の構文解析,(iv)意味現象タグに基づく複合語の意味解析から構成される.(ii)では(i)で抽出した複合語に対して意味現象タグのアノテーションを行い,系列変換モデルの学習によって構築した複合語意味現象タグ分類モデルを用いる.(iii)では予測された意味現象タグを元に複合語の構造をCFG解析したのちCCG部分木に変換し,(iv)では(iii)のCCG部分木に基づいて高階論理の意味表示を導出する.日本語の症例テキストを用いて推論データセットを構築し,提案システムの評価を行った結果,深層学習による含意関係認識モデルと同等またはそれ以上の性能を示し,とくにnon-entailmentのケースを正しく予測する傾向が見られた.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は2021年度人工知能学会全国大会(第35回)\cite{ishida2021},the18thInternationalWorkshoponLogicandEngineeringofNaturalLanguageSemantics18\cite{ishida_lenls},2022年度人工知能学会全国大会(第36回)\cite{ishida2022}で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V17N04-05
|
発話文を感情ごとに分類したコーパスを構築し,入力文と最も類似度が高い発話文を含むコーパスの感情を推定結果として出力する用例ベースの感情推定手法が提案されている.従来手法ではコーパスを構築する際,発話テキストの収集者が個人個人で発話文の分類先を決定しているため,分類先を決定する基準が個々によってぶれてしまう.これにより,例えば``希望''のコーパスの中に喜びの発話文が混じるといったことが起こり,推定成功率を下げてしまう.本稿ではこの問題を解決するため,コーパスごとにおける入力文の形態素列の出現回数を用いて,入力文とコーパスの類似度を定義する.そしてこの類似度を従来手法に導入した新たな類似度計算式を提案する.これにより,誤って分類されてしまった発話文の影響を緩和することができる.評価実験では従来手法と比べて成功率が\resp{21.5}ポイント向上し,提案手法の有効性が確認できた.
| |
V24N02-01
|
本論文では,分布仮説に基づく同義語獲得を行う際に,周辺単語の様々な属性情報を活用するために,文脈限定Skip-gramモデルを提案する.既存のSkip-gramモデルでは,学習対象となる単語の周辺単語(文脈)を利用して,単語ベクトルを学習する.一方,提案する文脈限定Skip-gramモデルでは,周辺単語を,特定の品詞を持つものや特定の位置に存在するものに限定し,各限定条件に対して単語ベクトルを学習する.したがって,各単語は,様々な限定条件を反映した複数の単語ベクトルを所持する.提案手法では,これら複数種類の単語ベクトル間のコサイン類似度をそれぞれ計算し,それらを,線形サポートベクトルマシンと同義対データを用いた教師あり学習により合成することで,同義語判別器を構成する.提案手法は単純なモデルの線形和として構成されるため,解釈可能性が高い.そのため,周辺単語の様々な単語属性が同義語獲得に与える影響の分析が可能である.また,限定条件の変更も容易であり,拡張可能性も高い.実際のコーパスを用いた実験の結果,多数の文脈限定Skip-gramモデルの組合せを利用することで,単純なSkip-gramモデルに比べて同義語獲得の精度を上げられることがわかった.また,様々な単語属性に関する重みを調査した結果,日本語の言語特性を適切に抽出できていることもわかった.
| |
V19N01-01
|
単語の上位下位関係を自動獲得する研究はこれまで活発に行われてきたが,上位概念の詳細さに関する議論はほとんどなされてこなかった.自動獲得された上位下位関係の中には,例えば\isa{作品}{七人の侍}や\isa{作品}{1Q84}のように,より適切と考えられる上位概念「映画」や「小説」と比べて広範囲な概念をカバーする上位概念(「作品」)が含まれることがある.このような上位概念を検索や質問応答などのタスクにおいて利用すると,より詳細な上位概念を利用する手法と比較して有用でないことが多い.そこで本論文では,自動獲得した上位下位関係を,Wikipediaの情報を利用することでより詳細にする手法を提案する.例えば\isa{作品}{七人の侍}から,\isaFour{作品}{映画監督の作品}{黒澤明の作品}{七人の侍}のように,単語「七人の侍」の上位概念(かつ,単語「作品」の下位概念)として,2種類の中間ノード「黒澤明の作品」,「映画監督の作品」を生成することにより,元の上位下位関係を詳細化する.自動獲得した1,925,676ペアの上位下位関係を対象とした実験では,最も詳細な上位概念となる一つ目の中間ノード(\xmp{黒澤明の作品}など)を重み付き適合率85.3\%で2,719,441個,二つ目の中間ノード(\xmp{映画監督の作品}など)を重み付き適合率78.6\%で6,347,472個生成し,高精度に上位下位関係を詳細化できることを確認した.さらに,生成した上位下位関係が\attval{対象}{属性}{属性値}として解釈できることについても報告する.
| |
V06N02-01
|
日本語では単語の境界があいまいで,活用等のルールに基づいて定義された単位である形態素は必ずしも人が認知している単語単位や発声単位と一致しない.本研究では音声認識への応用を目的として人が潜在意識的にもつ単語単位への分割モデルとその単位を用いた日本語の言語({\itN}-gram)モデルについて考察した.本研究で用いた単語分割モデルは分割確率が2形態素の遷移で決定されるという仮定を置いたモデルで,人が単語境界と考える点で分割した比較的少量のテキストデータと形態素解析による分割結果とを照合することにより,パラメータの推定を行った.そして多量のテキストを同モデルにしたがって分割し,単語単位のセット(語彙)と言語モデルを構築した.新聞3誌とパソコン通信の投稿テキストを用いた実験によれば約44,000語で,出現した単位ののべ94-98\%がカバーでき,1文あたりの単位数は形態素に比べて12\%から19\%少なくなった.一方,新聞とパソコン通信ではモデルに差があるもののその差は単語分割モデル,言語モデル双方とも事象の異なりとして現れ,同一事象に対する確率の差は小さい.このため,新聞・電子会議室の両データから作成した言語モデルはその双方のタスクに対応可能であった.
| |
V09N02-05
|
差分検出を行なうdiffコマンドは言語処理の研究において役に立つ場面が数多く存在する.本稿では,diffを使った言語処理研究の具体的事例として,差分検出,書き換え規則の獲得,データのマージ,最適照合の例を示す.diffコマンドはUNIXで標準でついているため,これを用いることは極めて容易である.本稿は言語処理の研究を行なう上でdiffコマンドが実用的でありかつ有用であることを示すものである.
| |
V28N02-06
|
%本稿では,文法誤り訂正における多様な訂正文の生成手法を提案する.文法的に誤りを含んだ文に対して訂正を行う際,訂正方法は複数存在することがある.しかし,既存の文法誤り訂正モデルは多様な訂正文の生成を考慮していない.また,機械翻訳タスクなどにおいて用いられている既存の多様な出力を得る手法は,文中の全トークンに対して多様性を持たせる手法となっている.そのため,既存の手法を文法誤り訂正に適応した場合,訂正が必要な箇所を考慮せず文全体を強制的に書き換えるため,文法的に誤りを含んだ文の生成を行うか,もしくは,文法的誤りの発生を防ぐために制約を弱め,結果的に多様でない文を生成する恐れがある.そこで我々は,文全体を多様化するのではなく,訂正が必要な箇所を考慮して多様化する手法として,モデルの訓練データに訂正度の情報を付与することで出力の訂正度を制御する手法と,さらに出力を多様化するための誤り箇所を考慮したビームサーチ手法を提案する.実験の結果,既存手法では文法誤り訂正において適切に多様化できないことを明らかにし,一方で,提案手法によりモデルの訂正度が制御可能となり,既存手法よりも文法誤り訂正に適した多様な出力を得ることが可能となった.
| |
V12N01-01
|
構文解析において,多様な言語現象を扱うためには大規模な文法が必要となるが,一般に人手で文法を開発することは困難である.一方,大規模な構文構造付きコーパスから様々な統計情報を取り出し,自然言語処理に利用する研究が多くの成果をあげてきており,構文構造付きコーパスの整備が進んでいる.このコーパスから大規模な文脈自由文法(CFG,以下,文法と略す)を抽出することが考えられる.ところが,コーパスから抽出した文法をそのまま用いた構文解析では多数の解析結果(曖昧性)を作り出すことが避けられないことが問題であり,それが解析精度の悪化や解析時間,使用メモリ量の増大の要因ともなる.効率的な構文解析を行うためには,曖昧性を増大させる要因を分析し,構文解析の段階では曖昧性を極力抑えるよう文法やコーパスを変更する必要がある.本論文では,構文解析で出力される曖昧性を極力抑えた文法を開発するための具体的な方針を提案し,その有効性を実験により明らかにしている.
| |
V04N02-06
|
本稿では,文脈依存の度合いに注目し,重要パラグラフを抽出する手法を提案する.本手法では,Luhnらにより提唱されたキーワード密度方式と同様,「主題と関係の深い語はパラグラフを跨り一貫して出現する」という前提に基づく.我々は,文脈依存の度合,すなわち,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,主題と関係の深い語を抽出し,その語に対し重み付けを行なった.本手法の精度を検証するため人手により抽出したパラグラフと比較した結果,抽出率を30\%とした場合,50記事の抽出総パラグラフ数84に対し75パラグラフが正解であり,正解率は89.2\%に達した.
| |
V31N03-18
|
%SpatialMLやISO-Spaceなど,言語が表現する位置情報を記述する方法が提案されている.これらは固有位置情報や絶対位置情報(東西南北)を記述するのに有効であるが,対話の中で多用される一人称視点の相対位置情報(前後左右)を記述するのには適していない.相対的な参照表現の曖昧性解消をするには,単に1つの有向辺のみによる表現は本質的に不十分で,実体の向きを含んだフレームとしての2つ以上の有向辺を用いる必要がある.一方,空間論理の分野では,DoubleCrossModelは空間論理の分野で3点の相対的な位置情報を表現するために提案された.本研究では,DoubleCrossModelを用いて対話の中の相対的な参照表現を形式化し,アノテーションを行ったので報告する.\renewcommand{\thefootnote}{}\footnote[0]{本論文は,「DoubleCrossModelによる位置情報フレームアノテーション」言語処理学会第29回年次大会(NLP2023)川端・大村・浅原・竹内(2023),``SpatialInformationAnnotationBasedontheDoubleCrossModel'',PacificAsiaConferenceonLanguage,InformationandComputation(PACLIC37),Kawabata,Omura,AsaharaandTakeuchi(2023)を元に修正したものである.本研究では,企業内で作成されたデータについて,部分的に開示できる情報を,応用システム論文として共有するものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V26N02-09
|
本論文では日本語文内・文間ゼロ照応解析モデルを提案する.文間ゼロ照応解析において複数格の同時推定を行う際,複数の文をまたぐ大量の格要素の組合せ候補を取り扱う必要があり,これはゼロ照応解析モデルの訓練,解析に際して重大な障害となる.この問題に対して,我々は格フレームの情報を用いた効果的な解候補削減手法を提案する.提案解候補削減を用いて複数格を同時推定したモデルと解候補削減を用いずにそれぞれの格を独立に推定したモデルを日本語均衡コーパス上で比較し,0.056の精度向上を確認した.また,ローカルアテンション付きRNNを導入することで,文間ゼロ照応解析の精度が上昇することも確認した.
| |
V04N01-02
|
近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.話し言葉の特徴は,言い淀み,言い直し,省略などのさまざまな不適格性である.書き言葉には見られないこれらの現象のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.本稿では,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べる.本手法は,適格文と不適格文を統一的に扱う統一モデルに基づいており,具体的には,係り受け解析の拡張によって実現される.まず,音声対話コーパスからの実例をあげながら統一モデルの必要性を述べ,次に,本手法の詳細を説明した後,その有効性を解析の実例をあげるとともに実験システムの性能を評価することで示す.その結果,さまざまな不適格性を含む複雑な話し言葉の文が,係り受け解析を基本とする本手法によってうまく扱えることを示し,さらに,定量的にも,試験文の約半数に完全に正しい依存構造が与えられることを示す.
| |
V05N03-05
|
\quad本論文では,構文解析の曖昧性解消を行うために,構文的な統計情報と語彙的な統計情報を統合する手法を提案する.我々が提案する統合的確率言語モデルは,構文的優先度などの構文的な統計情報を反映する構文モデルと,単語の出現頻度や単語の共起関係などの語彙的な統計情報を反映する語彙モデルの2つの下位モデルから成る.この統合的確率言語モデルは,構文的な統計情報と語彙的な統計情報を同時に学習する過去の多くのモデルと異なり,両者を個別に学習する点に特徴がある.構文的な統計情報と語彙的な統計情報を独立に取り扱うことにより,それぞれの統計情報を異なる言語資源から独立に学習することができるだけでなく,それぞれの統計情報が曖昧性解消においてどのような効果を果たすのかを容易に分析することができる.この統合的確率言語モデルを評価するために,日本語文の文節の係り受け解析を行った.構文モデルを用いたときの文節の正解率は73.38\%となり,ベースラインに比べて11.70\%向上した.また,構文モデルと語彙モデルを組み合わせることにより,文節の正解率はさらに10.96\%向上し84.34\%となった.この結果,本研究で提案する枠組において,語彙的な統計情報は構文的な統計情報と同程度に曖昧性解消に貢献することを確認した.
| |
V03N03-04
|
本稿では,構文解析を探索問題と捉えた上で,$\A^*$法の探索戦略に従ってチャート法のアジェンダを制御し,最も適切な構文構造から順に必要なだけ生成する構文解析手法を提案する.文脈自由文法形式の費用付き構文規則が与えられたとき,規則に従って生成されうる各部分構造について,その構造に相当する現在状態からその構造を構成要素として持つ全体構造に相当する目標状態までの費用を,構文解析に先立って,$\A^*$法の最適性条件を満たすように推定しておく.従って,構文解析では,競合する構造のうちその生成費用と推定費用の和が最も小さいものから優先的に処理していくと,生成費用の最も小さい全体構造が必ず得られる.また,優先すべき構造は,個々の規則に付与された費用に基づいて定まるので,優先すべき構造をきめ細かく指定でき,優先したい構造の変更も規則の費用を変更するだけで容易に行なえる.費用付き構文規則は,記述力の点で,確率文脈自由文法規則の拡張とみなすことができる.
| |
V32N02-04
|
%大規模言語モデル(LargeLanguageModel;LLM)は言語生成タスクの評価器として用いられている.ところが,ある文章の意味を変えずに語順や構造を変更した文章を作ると,LLMが計算する尤度が大きく変化することがある.そのため,LLM評価器(LLM-as-a-Judge)には,尤度が低い文章を不当に低く,尤度が高い文章を不当に高く評価する\textbf{尤度バイアス}が存在する可能性がある.本研究では,尤度バイアスがLLM評価器の性能を低下させることを明らかにし,Few-shotによるバイアス緩和手法を提案する.実験では,複数のLLMがdata-to-textタスクと文法誤り訂正タスクで尤度バイアスを持つ可能性を示した.また,バイアスの強い事例を特定しFew-shot事例として用いることで,バイアスの緩和に成功した.さらに,尤度バイアスの緩和によってLLM評価器の評価性能(人手評価との順位相関係数)が向上することを確認し,提案手法の有効性を示した.\renewcommand{\thefootnote}{\fnsymbol{footnote}}\footnote[0]{本研究はACL2024Findingsに採択された研究\cite{ohi-etal-2024-likelihood}を再構成・翻訳したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V14N05-03
|
存在文はいかなる言語にも存在し,人間のもっとも原始的な思考の言語表現の一つであって,それぞれの言語で特徴があり言語により異なりが現れてくる.存在表現の意味上と構文上の多様さのために,更に中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,存在表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文では,日中両言語の存在表現における異同について考察し,日中機械翻訳のために,日本語文の構文特徴,対応名詞の属性,中国語文の構文構造などを利用して存在動詞の翻訳規則をまとめ,存在表現の翻訳方法について提案した.これらの翻訳規則を我々の研究室で開発している日中機械翻訳システムJaw/Chineseに組み込んで,翻訳実験を行った.更に手作業による翻訳実験も加えて,この規則を検証し,良好な評価を得た.
| |
V12N03-09
|
本論文では,機械翻訳を介したコミュニケーションにおける利用者の機械翻訳システムへの適応状況を分析し,機械翻訳を介した異言語間コミュニケーション支援の方向性について論ずる.コミュニケーションの目的が明確で,利用者の機械翻訳への適応が期待できる状況において,多言語機械翻訳を介したコミュニケーションを行う時,利用者はどのような適応を行うのか,また,その適応の効果はどの程度のものなのかを明らかにした.適応のための書き換えの方法は翻訳言語ペアに強く依存することが分かった.日本語から英語への翻訳の場合,日本語と英語の概念間の食い違いを補うための語句の置き換えや言語表現習慣の違いを補う主語の補完などが多く観察された.また,日本語や韓国語のように類似の言語では,それらの言語における適応の傾向が似ていることが分かった.日本語から英語への翻訳のための適応は,英訳自体には効果が大きいが,韓国語訳にはほとんど効果がなく,中国語訳への効果もそれほど大きくはないことが分かった.
| |
V06N02-02
|
本論文では,知識に依存しない,\mbox{高い曖昧性削減能力を持つ新しい言語モデルを提案}する.このモデルはsuperwordと呼ぶ文字列の集合の上の$n$-gramとして定義され,従来の単語や文字列の$n$-gramモデルを包含するものになっている.superwordは訓練テキスト中の文字列の再現性のみに基づいて定義される概念であり,Forward-Backwardアルゴリズムによって学習される.実験の結果,superwordに基づくモデルと文字のtrigramモデルを複数融合させたモデルの優位性が示され,形態素解析に基づく方法および高頻度文字列に基づく方法を上回る性能が得られた.
| |
V19N04-01
|
Wikipediaをis-a関係からなる大規模な汎用オントロジーへ再構成した.Wikipediaの記事にはカテゴリが付与され,そのカテゴリは他のカテゴリとリンクして階層構造を作っている.Wikipediaのカテゴリと記事をis-a関係のオントロジーとして利用するためには以下の課題がある.(1)Wikipediaの上位階層は抽象的なカテゴリで構成されており,これをそのまま利用してオントロジーを構成することは適切でない.(2)Wikipediaのカテゴリ間,及びカテゴリと記事間のリンクの意味関係は厳密に定義されていないため,is-a関係でないリンク関係が多く存在する.これに対して我々は(1)を解決するため,上位のカテゴリ階層を新しく定義し,Wikipediaの上位階層を削除して置き換えた.さらに(2)を解決するため,Wikipediaのカテゴリ間,及びカテゴリ記事間のnot-is-a関係のリンクを3つの手法により自動で判定し切り離すことで,Wikipediaのカテゴリと記事の階層をis-a関係のオントロジーとなるように整形した.本論文ではnot-is-a関係を判定するための3つの手法を適用した.これにより,``人'',``組織'',``施設'',``地名'',``地形'',``具体物'',``創作物'',``動植物'',``イベント''の9種類の意味属性を最上位カテゴリとした,1つに統一されたis-a関係のオントロジーを構築した.実験の結果,is-a関係の精度は,カテゴリ間で適合率95.3\%,再現率96.6\%,カテゴリ‐記事間で適合率96.2\%,再現率95.6\%と高精度であった.提案手法により,全カテゴリの84.5\%(約34,000件),全記事の88.6\%(約422,000件)をオントロジー化できた.
| |
V18N03-02
|
本稿では,パラメータ調整を簡略化したブートストラッピング的手法による日本語語義曖昧性解消を提案する.本稿で取り上げるブートストラッピングとは,ラベルなしデータを既存の教師あり学習手法を用いて分類し,その中で信頼度の高いデータをラベル付きデータに加え,この手順を反復することによって分類の性能を向上させる半教師あり学習手法である.従来のブートストラッピングによる語義曖昧性解消においては,プールサイズ,ラベル付きデータに追加するラベルなしデータの事例数,手順の反復回数といったパラメータをタスクに合わせ調整する必要があった.本稿にて提案する手法はヒューリスティックと教師あり学習(最大エントロピー法)によるラベルなしデータの二段階の分類,および学習に用いるラベルなしデータの条件を変えた複数の分類器のアンサンブルに基づく.これにより必要なパラメータ数は一つになり,かつパラメータの変化に対し頑健な語義曖昧性解消を実現する.SemEval-2日本語タスクのデータセットを用いたベースラインの教師あり手法との比較実験の結果,パラメータの変化に対し最高で1.8ポイント,最低でも1.56ポイントの向上が見られ,提案手法の有効性を示せた.
| |
V18N04-01
|
本論文では,日本語コーパス内の命題に書き手の心的態度をアノテーションする基準として階層意味論を検討する.階層意味論とは「命題」と「モダリティ」からなる普遍的な意味構造を規定する概念である.モダリティは心的態度を指す概念として知られているが,既存研究で取り上げられている文法論のモダリティでは対象が文法形式に限定されてしまう.対して階層意味論で定義される「モダリティ」は意味論上の概念であるため形式上の制約が少なく,心的態度を網羅的にアノテーションするという目的により適した概念といえる.ただし,階層意味論で規定される心的態度を母語話者が一貫性を持ってアノテーションできるのか実証的に確認されているとは言い難い.そこで,母語話者に新聞の社説記事に対するアノテーションを実際に行ってもらい,その一貫性を調査した.その結果,4名の間でのFleissの$\kappa$係数は,真偽判断系,価値判断,拘束判断でそれぞれ0.49,0.28,0.70となった.真偽判断系と価値判断は一致度が高いとは言い難いが,真偽判断系に関しては,述語または後続表現の語彙的機能の影響で真偽を読み取ることが困難な命題を取り除くと0.58まで改善した.加えて,語彙,文法形式によって明示的に心的態度が表されていない命題でも0.50,0.28,0.53の値を示した.このことから,心的態度を表す語句,文法形式が明示されていなくてもある程度の一貫性が得られることが伺える.
| |
V24N03-07
|
能動学習は機械学習において,逐次的に選択されたデータに対してのみ正解ラベルを付与してモデルの更新を繰り返すことで,少量のコストで効率的に学習を行う枠組みである.この枠組みを機械翻訳に適用することで,人手翻訳のコストを抑えつつ高精度な翻訳モデルを学習可能である.機械翻訳のための能動学習では,人手翻訳の対象となる文またはフレーズをどのように選択するかが学習効率に大きな影響を与える要因となる.既存研究による代表的な手法として,原言語コーパスの単語$n$-gram頻度に基づき$n$-gramカバレッジを向上させる手法の有効性が知られている.この手法は一方で,フレーズの最大長が制限されることにより,句範疇の断片のみが提示されて,人手翻訳が困難になる場合がある.また,能動学習の過程で選択されるフレーズには,共通の部分単語列が繰り返し出現するため,単語数あたりの精度向上率を損なう問題も考えられる.本研究では原言語コーパスの句構造解析結果を用いて句範疇を保存しつつ,包含関係にある極大長のフレーズのみを人手翻訳の候補とするフレーズ選択手法を提案する.本研究の提案手法の有効性を調査するため,機械翻訳による擬似対訳を用いたシミュレーション実験および専門の翻訳者による人手翻訳と主観評価を用いた実験を実施した.その結果,提案手法によって従来よりも少ない単語数の翻訳で高い翻訳精度を達成できることや,人手翻訳時の対訳の品質向上に有効であることが示された.
| |
V03N01-04
|
日本語文章における名詞の指す対象が何であるかを把握することは,対話システムや高品質の機械翻訳システムを実現するために必要である.そこで,本研究では名詞の指示性と修飾語と所有者の情報を用いて名詞の指示対象を推定する.日本語には冠詞がないことから,二つの名詞が照応関係にあるかどうかを判定することが困難である.これに対して,我々は冠詞にほぼ相当する名詞の指示性を表層表現から推定する研究を行なっており\cite{match},この名詞の指示性を用いて名詞が照応するか否かを判定する.例えば,名詞の指示性が定名詞ならば既出の名詞と照応する可能性があるが,不定名詞ならば既出の名詞と照応しないと判定できる.さらに,名詞の修飾語や所有者の情報を用い,より確実に指示対象の推定を行なう.この結果,学習サンプルにおいて適合率82\%,再現率85\%の精度で,テストサンプルにおいて適合率79\%,再現率77\%の精度で,照応する名詞の指示対象の推定をすることができた.また,対照実験を行なって名詞の指示性や修飾語や所有者を用いることが有効であることを示した.
| |
V03N04-08
|
現在,自然言語処理システムの多くは,処理単位として形態素を用いているが,人間はもっと大きな単位で文を処理していることが既に分かっている.この単位を認知単位と呼ぶ.この知見から,人間の文解析処理は,認知単位の検出処理と,検出した認知単位の取捨選択の2段階に分離できるものと考えられている.本論文では,この考えに基づき,第一段階として状態遷移図を用いて認知単位を検出し,第二段階としてbigramを用いて認知単位を選択する,計二段階からなる文解析法を提案するものである.この方法を用いて誤りを含んだテキストに対し誤り訂正を行う実験を行った結果,形態素を単位としたbigramを用いるよりも良い結果を得ることができた.
| |
V31N04-02
|
%事前学習済み言語モデル(Pre-trainedLanguageModels;PLM)は事前学習時に獲得した言語理解能力や知識によって,既知の事象に対して推論を行うことができる一方,未知の事象に対してはPLMの推論能力のみで解を導き出す必要がある.しかし言語モデルの推論能力のみを評価するには,PLMが事前学習時に記憶した知識と獲得した推論能力を完全に切り分けた分析が必要となり,既存のデータセットで測定するのは,事前学習時の記憶が作用してしまうため困難である.本研究ではPLMの推論能力の分析に,知識グラフ上の既知の関係から欠損している未知の関係を予測するタスクである知識グラフ補完(KnowledgeGraphCompletion;KGC)を対象とする.KGCにおいて埋め込みに基づく従来手法は推論のみから欠損箇所を予測する一方,近年利用されているPLMを用いた手法では事前学習時に記憶したエンティティに関する知識も利用している.そのためKGCは記憶した知識の利用と推論による解決との両側面を有することから,PLMが記憶する知識の影響を測るのに適したタスクである.我々はKGCに対し知識と推論による性能向上を切り分けて測定するための評価方法及びそのためのデータ構築手法を提案する.本研究ではPLMが事前学習時にエンティティに関する知識の記憶により推論を行っている箇所を明らかにし,PLMに備わっている未知の事象に対する推論能力も同時に学習していることを示唆する結果が得られた.\renewcommand{\thefootnote}{}\footnote[0]{本論文は,第257回自然言語処理研究発表会で発表した論文\cite{nl257sakai}およびThe2024ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL2024)で発表した論文\cite{sakai-etal-2024-pre}をもとに和訳と加筆・修正を行ったものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V14N03-03
|
本研究の目的は,これまで言語学的には感動詞,言語心理学的には発話の非流暢性として扱われてきた,フィラーを中心に,情動的感動詞,言い差し(途切れ)といった話し言葉特有の発話要素を,人の内的処理プロセスが音声として外化した「心的マーカ」の一部であると捉え,それらが状況によってどのような影響を受けるかを分析し,対応する内的処理プロセスについて検討することであった.実験的統制のもと,異なる条件(役割や親近性,対面性,課題難易度)が設定され,成人男女56名(18--36歳)に対して,ペアでの協調問題解決である図形説明課題を実施し,対話データが収集された.その結果,1)それぞれの出現率は状況差の影響を受けたこと,2)出現するフィラーの種類別出現率に差があることが示された.これらの結果が先行研究との対比,内的処理プロセスと心的マーカの対応,そして結果の応用可能性という観点から考察される.
| |
V23N05-04
|
文書間類似度は,内容の類似度と表現の類似度の二つの側面を持っている.自動要約や機械翻訳ではシステム出力の内容評価を行うために参照要約(翻訳)との類似度を評価する尺度が提案されている.一方,表現を対照比較するための手段として,形態素(列)を特徴量とする空間上の計量が用いられる.本稿では,さまざまな文書間類似度について,距離・類似度・カーネル・順序尺度・相関係数の観点から,計量間の関係や同値性を論じた.さらに内容の同一性保持を目標として構築したコーパスを用いて,内容の差異と表現の差異それぞれに対する各計量のふるまいを調査し,文書間類似度に基づく自動評価の不安定さを明らかにした.
| |
V22N05-01
|
語義曖昧性解消の誤り分析を行う場合,まずどのような原因からその誤りが生じているかを調べ,誤りの原因を分類しておくことが一般的である.この分類のために,分析対象データに対して分析者7人が独自に設定した誤り原因のタイプを付与したが,各自の分析結果はかなり異なり,それらを議論によって統合することは負荷の高い作業であった.そこでクラスタリングを利用してある程度機械的にそれらを統合することを試み,最終的に9種類の誤り原因として統合した.この9種類の中の主要な3つの誤り原因により,語義曖昧性解消の誤りの9割が生じていることが判明した.またタイプ分類間の類似度を定義することで,統合した誤り原因のタイプ分類が,各自の分析結果を代表していることを示した.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.
| |
V10N03-04
|
本論文では,Nigamらによって提案されたEMアルゴリズムを利用した教師なし学習の手法を,SENSEVAL2の日本語翻訳タスクで出題された名詞の語義の曖昧性解消問題に適用する.この手法は,ラベルなしデータをラベルを欠損値とする観測データ,その観測データを発生させるモデルをNaiveBayesモデル,このモデルの未知パラメータをラベル\(c\)のもとで素性\(f\)が起る条件付き確率\(p(f|c)\)に設定して,EMアルゴリズムを用いる.結果として,モデルの識別精度が向上する.ここでは識別のための素性として,対象単語の前後数単語の原型や表記という簡易なものに設定した.実験では,ラベル付き訓練データのみから学習したNaiveBayesの正解率が58.2\,\%,同データから学習した決定リストの正解率が58.9\,\%(Ibarakiの公式成績)であったのに対し,ラベル付き訓練データの他にラベルなし訓練データを用いた本手法では,61.8\,\%の正解率を得た.また訓練データの一部の不具合を修正することで,NaiveBayesの正解率を62.3\,\%に改善できた.更に本手法によりそれを68.2\,\%に向上させることができた.
| |
V17N04-02
|
サーチエンジンの検索結果などのWebページ集合をクラスタリングする手法として,抽出された各重要語を含むWebページ集合をひとつのクラスタとする手法が広く用いられている.しかし,従来の研究では重要語間の類似度を考慮していないために,類似した話題を表す語句が重要語として抽出されると,話題が類似するクラスタが複数出力されてしまうという欠点がある.そこで本研究では,この問題点を解消するために,単語間の類似度を考慮したWeb文書クラスタリング手法を提案する.本手法は,サーチエンジンが返すタイトルとスニペットの単語分布情報から,互いに類似していない重要語を抽出する.次に,どのクラスタにも属さないWebページをできるだけ減らすために,重要語から直接Webページのクラスタを生成せずに,各重要語に類似したWebページ集合に含まれる単語集合として単語グループを生成し,それらの単語グループのそれぞれに対応するWebページクラスタを生成する.そして,実際に人手で分類した正解データを用いて従来手法(語句間の類似度を考慮しない方法)との比較評価を行い,本手法のほうがクラスタリング性能が高く,かつ類似したクラスタを生成してしまうという従来手法の問題点が解消できることを示す.
| |
V13N03-09
|
インターネットが普及し,一般の個人が手軽に情報発信できる環境が整ってきている.この個人の発信する情報には,ある対象に関するその人の評価等,個人の意見が多く記述される.これらの評価情報を抽出し,整理し,提示することは,対象の提供者である企業や,対象を利用する立場の一般の人々双方にとって利点となる.このため,自然言語処理の分野では,近年急速に評価情報を扱う研究が活発化している.本論文では,このような現状の中,テキストから評価情報を発見,抽出および整理,集約する技術について,その基盤となる研究から最近の研究までを概説する.
| |
V28N02-08
|
%これまでの自然言語処理において単語分割は,後段タスクに依存しない前処理として行われてきた.そのため,単語分割済みのデータを用いて後段タスクを学習し,後段モデル性能を評価するまで単語分割が適切であったかはわからない.この問題を解決するため本稿は後段タスクに応じて適切な単語分割を行うための新たな手法を提案する.本稿で提案する手法(OpTok=\textbf{Op}timizing\textbf{Tok}enization)は後段タスクの学習損失値に基づいて,適切な単語分割の確率が高くなるように更新される.OpTokは文書分類のように文ベクトルを計算に用いるタスクに使用することが可能であり,実験結果より提案手法は感情分析やTextualEntailmentなどの文書分類の性能向上に寄与し,中国語,日本語,英語の三言語に適用可能であることを確認した.さらに,近年注目を集めているBERTに対して提案手法を適用することで,さらなる性能の向上が得られることを確認した.
| |
V04N03-03
|
単語間の意味的類似性に基づく検索(以下,類似検索と呼ぶ)は文書検索技術において,重要な課題の一つである.類似性に関する従来研究では,階層構造が平衡しているシソーラスを使った単語間の類似度が提案され,言語翻訳,文書検索などの応用における有効性が示されている.本論文では,階層構造が平衡していないシソーラスにも適用できる,より一般的な単語間の意味的類似度を提案する.本提案では各単語が担う概念間の最下位共通上位概念が有する下位概念の総数が少ないほど,単語間の類似度が大きくなる.筆者らは,この意味的類似度と大規模シソーラスの一つであるEDRシソーラスを使って,類似検索システムを実装した.さらに,精度を向上させるために,単語の多義解消手法をこの検索システムに導入した.本類似検索システムは,単語間の物理的近さと単語の重要度を用いた拡張論理型の従来システムに基づいている.この従来システムとの比較実験を行ない,意味的類似性と多義解消を用いた提案の類似検索手法によって再現率・適合率が向上したことを確認した.
| |
V20N03-05
|
東日本大震災では安否確認や被災者支援のためにTwitterが活躍したが,一方で多種多様な情報が流通し,混乱を招いた.我々は,情報の信憑性や重要性を評価するには,ツイート空間の論述的な構造を解析・可視化し,情報の「裏」を取ることが大切だと考えている.本稿では,ツイートの返信および非公式\addspan{リツイート}(以下,両者をまとめて返信と略す)に着目し,ツイート間の論述的な関係を認識する手法を提案する.具体的には,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると考え,これらの態度を推定する分類器を教師有り学習で構築する.評価実験では,返信ツイートで表明される態度の推定性能を報告する.さらに,本手法が直接的に返信関係のないツイート間の論述的な関係の推定にも応用できることを示し,ツイート間の含意関係認識に基づくアプローチとの比較を行う.
| |
V21N02-06
|
意見分析の研究が盛んになり,世論調査,評判分析など,多岐にわたる応用が実現されている.意見分析の研究においては,他の言語処理研究と同様に,コーパスの重要性が指摘されている.意見分析研究のコーパスは,応用目的に応じて,対象とする文書ジャンルが変化し,アノテーションすべき意見の情報も変更する.現在,意見分析コーパスは,ニュース,レビュー,ブログなどの文書ジャンルを対象としたものが多い.一方で,対話型の文書ジャンルには焦点が当てられておらず,アノテーションについての明確な方針がない.本稿では,『現代日本語書き言葉均衡コーパス』に含まれるコミュニティQAの文書を対象として,詳細な分類タイプに基づく意見情報ならびに関連した情報のアノテーションを行い,コーパスを作成する.また,複数のアノテーション情報を重ね合わせることにより,コーパス中の質問や回答に現れる意見の特徴を明らかにすることで,ドメインを横断した意見分析や,意見質問の応答技術といった,現在の意見分析研究が直面している難しい課題に対する新たな知見を提供できることを示す.
| |
V06N04-02
|
本稿では,音声を用いて人間と機械が対話をする際の対話過程を,認知プロセスとしてとらえたモデルを提案する.対話システムをインタラクティブに動作させるためには,発話理解から応答生成までを段階的に管理する発話理解・生成機構と,発話列をセグメント化し,焦点および意図と関連付けて構造的にとらえる対話管理機構とが必要である.さらに,入力に音声を用いた音声対話システムでは,音声の誤認識によるエラーを扱う機構を組み込む必要がある.本稿で提案するモデルは,発話理解・生成機構における各段階での処理を具体化し,それらと対話管理機構とのやりとりを規定することによる統合的な認知プロセスモデルとなっている.それらの処理の中に,音声の誤認識によって生じ得るエラーを具体的に記述し,その対処法を網羅的に記述している.このモデルを実装することによって,ある程度のエラーにも対処できる協調的な音声対話システムの実現が期待できる.
| |
V06N05-04
|
表層パタンの照合を行なう構成素境界解析を提案し,構成素境界解析と用例利用型処理を組み合わせた変換主導型機械翻訳の新しい実現手法が多言語話し言葉翻訳に有効であることを示す.構成素境界解析は,変項と構成素境界より成る単純なパタンを用いた統一的な枠組で,多様な表現の構文構造を記述できる.また,構成素境界解析は,チャート法に基づくアルゴリズムで逐次的に入力文の語を読み込み,解析途中で候補を絞り込みながらボトムアップに構文構造を作り上げることにより,効率的な構文解析を可能にする.構成素境界解析の導入により,変換主導型機械翻訳は構文構造の記述力,構文解析での曖昧性爆発といった,頑健性や実時間性の問題を解決することができた.さらに,構成素境界解析と用例利用型処理は単純で言語に依存しない手法であり,多言語話し言葉翻訳へ適用するための汎用性を高めることができた.旅行会話を対象とした日英双方向と日韓双方向の話し言葉翻訳の評価実験の結果により,本論文で提案する変換主導型機械翻訳が,多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳できることを示した.
| |
V05N04-08
|
\quad本技術資料は,現在入手可能な日韓機械翻訳システムを対象に翻訳品質の評価を行い,日韓機械翻訳システムの現状および技術水準を把握,今後の研究方向についてのいくつかの提言を行うことを目的とする.現在,韓国国内で発表,あるいは発売されている日韓機械翻訳システムの中で,入手可能な四つの製品に対してユーザサイドからの翻訳品質の分析と言語学的な解決範囲を把握するための対照言語学的誤謬分析を行う.さらに,\cite{choiandkim}と比較することにより日韓翻訳システムの性能向上の度合いを比較する.これにより,日韓機械翻訳システムの性能向上のための長期・短期課題を考える.本技術資料は,対象にした各々のシステムの優劣のランク付けを目的とするものではないことをあらかじめ断っておく.本技術資料での評価は限られた観点からの分析に基づいたものであるからである.
| |
V06N06-03
|
複数の関連記事に対する要約手法について述べる.記事の第一段落を用いて,その重複部・冗長部を削除することにより複数の関連記事をどの程度要約できるかを明確にすることを目的とする.さらに,重複部・冗長部を特定,削除する処理をヒューリスティックスにより実現する手法を提案する.まず,新聞記事における推量文の一部は重要度が低いと考えられ,これを文末表現ならびに手掛り語で特定し,削除する.次に,詳細な住所の表現は記事の概要を把握するためには不必要であり,これも削除する.さらに,導入部と呼ぶ部分を定義し,導入部内の名詞と動詞が他記事の文に含まれるならば導入部は重複しているとし,削除する.また,頻繁に出現する人名・地名に関する説明語句,括弧を用いた表現について,他記事との重複を調べる.重複している部分は,1つを残し他は削除する.提案手法を計算機に実装し,実験を行った.その結果,27記事群に対して各記事の第一段落を平均要約率82.1\%で要約することができた.さらに,実験結果のうち6記事群を用いて評価者11人に対してアンケートを行い評価した.アンケートの内容は,要約文章において冗長に感じる箇所,ならびに削除部分を含めた元記事において重要と考えられるが削除されている箇所を指摘する,である.アンケート調査の結果,本手法による要約がおおむね自然であることを確認した.また,本手法によって削除された部分がおおむね妥当であることが明らかになった.
| |
V31N02-03
|
%本研究では,系列変換タスクにおいてChatGPTの日本語生成能力を評価する.ChatGPTは対話形式で様々な自然言語処理タスクに対処可能な大規模言語モデルであり,その言語生成能力の高さは英語では様々なタスクにおいて定量的に評価されている.しかし,日本語におけるChatGPTの性能はまだ充分に評価されていない.本論文では,代表的な系列変換タスクである機械翻訳・自動要約・テキスト平易化の各タスクにおいて,既存の教師あり手法と比較しつつChatGPTの日本語生成能力を評価した結果を報告する.実験の結果,ChatGPTはいずれのタスクにおいても自動評価では既存の教師ありモデルの性能を下回ったものの,人手評価では既存の教師ありモデルの性能を上回る傾向にあった.また,出力文を詳細に分析したところ,ChatGPTは全体に高品質な日本語文を出力しているが,各タスクの詳細な要請に一部応えられていないという課題が明らかになった.\renewcommand{\thefootnote}{}\footnote[0]{本論文の内容の一部は,FIT2023第22回情報科学技術フォーラム\cite{tarumoto-2023}で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V19N03-02
|
ソースドメインのデータによって分類器を学習し,ターゲットドメインに適応することを領域適応といい,近年さまざまな手法が研究されている.しかし,語義曖昧性解消(WSD:WordSenseDisambiguation)について領域適応を行った場合,最も効果的な領域適応手法は,ソースデータとターゲットデータの性質により異なる.本稿ではそれらの性質から,WSDの対象単語タイプ,ソースドメインとターゲットドメインの組み合わせに対して,最も効果的な領域適応手法を決定木学習を用いて自動的に選択する手法について述べるとともに,どのような性質が効果的な領域適応手法の決定に影響を与えたかについて考察する.
| |
V20N02-09
|
集合拡張手法の多くはシードインスタンスだけを手掛かりに新たなインスタンスを取得するものであり,対象が複数のカテゴリであっても,各カテゴリのインスタンスの収集を独立に行う.しかし,複数カテゴリを対象にした集合拡張ではカテゴリ間の関係など,シードインスタンスとは別の事前知識も利用できる.本研究ではこのようなカテゴリ間の関係,特に兄弟関係を事前知識として活用した集合拡張手法を提案する.さらに,Wikipediaから半自動で抽出したインスタンスと兄弟関係を事前知識として実験を行い,兄弟関係が集合拡張に有用であることを示す.
| |
V10N05-04
|
本稿では,ニュース記事から無作為抽出した英文を英日機械翻訳システムで翻訳した結果と,これらの英文を人間が翻訳した結果を照らし合わせ,両者の間にどのような違いがあるのかを計量的に分析した.その結果,次のような量的な傾向があることが明らかになった.(1)人間による翻訳に比べ,システムによる翻訳では,英文一文が複数の訳文に分割されにくい傾向が見られる.(2)システムによる翻訳と人間による翻訳の間で訳文の長さの分布に統計的有意差が認められる.(3)用言の連用形と連体形の分布に有意差が認められ,システムによる翻訳のほうが人間による翻訳よりも複雑な構造をした文が多いことが示唆される.(4)体言と用言の分布には有意差は認められない.\\さらに,動詞と名詞に関して比較検討を行ない,システムによる翻訳を人間による翻訳に近づけるために解決すべき課題をいくつか指摘した.
| |
V07N03-03
|
形態素解析処理において,日本語などのわかち書きされない言語と英語などのわかち書きされる言語では,形態素辞書検索のタイミングや辞書検索単位が異なる.本論文ではこれらの言語で共通に利用できる形態素解析の枠組の提案と,それに基づいた多言語形態素解析システムを実装を行った.また,日本語,英語,中国語での解析実験も行った.
| |
V16N02-01
|
がん患者に対する情報提供の適正化のため,がん情報処理を可能にする言語基盤であるがん用語辞書を,医師による人手で作成した.権威あるコーパスとして国立がんセンターのウェブ文書を用い,延べ約2万6千語を収集し,用語候補の集合Cc(CancerTermsCandidate:語彙数10199語)を得た.10種のがん説明用コンテンツを対象としたCcの用語の再現率はそれぞれ約95\%以上であった.次に一般語やがん医学用語との関係と用語集としての整合性から用語選択基準(T1:がんそのものを指す,T2:がんを想起させる用語,T3:T2の関連語,T4:がんに関連しない語のうち,T3までを採用する)を作成し,Ccに対して適用,93.7\%が基準に合致し690語を削除,9509語をがん用語Cとして選択した.選択基準に従って作成した試験用ワードセットを医師に示すことで,用語選択基準を評価した.その結果,T1と(T2,T3,T4)の2つに分割した場合と(T1,T2),(T3,T4)分割した場合で一致係数$\kappa$が約0.6,T1,T2,(T3,T4)の3つに分割した場合は約0.5であり,選択基準を明示せずに単に用語選択を行った場合の$\kappa$値0.4に比べて高値であったことから,本研究で提案するがんとの関連性に基づいた用語選択法の妥当性が示された.さらに,既存の専門用語選択アルゴリズムにより得られた用語集合(HN)と本研究で得られた用語集合(C)を比較したところ,HNでの再現性は80\%以上と高値だが,精度は約60\%であり,本研究のような人手による用語選択の必要性が示された.以上のことから,専門性の高い,がんに関するような用語集合を作成する場合,本研究で行った,信頼性の高いコーパスを用い,専門家の語感を信用して,中心的概念からの距離感を考慮した用語選択を行うことにより,少人数でも妥当性の高い専門用語集合の作成が可能であることが示された.
| |
V07N03-01
|
本論文では,GLR法に基づく痕跡処理の手法を示す.痕跡という考え方は,チョムスキーの痕跡理論で導入されたものである.痕跡とは,文の構成素がその文中の別の位置に移動することによって生じた欠落部分に残されると考えられるものである.構文解析において,解析系が文に含まれる痕跡を検出し,その部分に対応する構成素を補完することができると,痕跡のための特別な文法規則を用意する必要がなくなり,文法規則の数が抑えられる.これによって,文法全体の見通しが良くなり,文法記述者の負担が軽減する.GLR法は効率の良い構文解析法として知られるが,痕跡処理については考慮されていない.本論文では,GLR法に基づいて痕跡処理を実現しようとするときに問題となる点を明らかにし,それに対する解決方法を示す.主たる問題は,ある文法規則中の痕跡の記述が,その痕跡とは関係のない文法規則に基づく解析に影響を与え,誤った痕跡検出を引き起す,というものである.本論文で示す手法では,この問題を状態の構成を工夫することで解決する.
| |
V24N03-05
|
法律文書や技術文書等の専門文書に対する機械翻訳では,翻訳対象のサブ言語に特有の大域的な文構造を適切に捉えて翻訳することが高品質な訳文を得る上で必要不可欠である.本論文では,文内の長距離な並べ替えに焦点を当てることによって,大域的な並べ替えを行うための手法を提案する.提案する大域的並べ替え手法では,アノテートされていない平文学習データを対象として,構文解析を行うことなく大域的な並べ替えモデルを学習する.そして,大域的な並べ替えを従来型の構文解析による並べ替えと併用することによって,高精度な並べ替えを実現する.公開特許公報英文抄録(PatentAbstractsofJapan,PAJ)のサブ言語を対象とした日英翻訳および英日翻訳の評価実験を行ったところ,両言語方向において,大域的な並べ替えと構文に基づく並べ替えを組み合わせることによって翻訳品質向上が達成できることがわかった.
| |
V06N04-04
|
日本語の指示詞の3系列(コソア)は,いずれも直示用法とともに非直示用法を持つ.本稿では「直示」の本質を「談話に先立って話し手がその存在を認識している対象を,話し手が直接指し示すこと」ととらえ,ア系列およびコ系列では直示・非直示用法にわたってこの直示の本質が認められるのに対し,ソ系列はそうではないことを示す.本稿では,ア系列の非直示用法は「記憶指示」,すなわち話し手の出来事記憶内の要素を指し示すものであり,コ系列の非直示用法は「談話主題指示」,すなわち先行文脈の内容を中心的に代表する要素または概念を指し示すものと考える.「記憶指示」も「談話主題指示」も上記の直示の本質を備えている上に,ア系列およびコ系列の狭義直示用法において特徴的な話し手からの遠近の対立も備えているという点は,ア系列およびコ系列の非直示用法がともに直示用法の拡張であることを示唆している.さらにさまざまなソ系列の非直示用法を検討した上で,ソはコ・アとは異なって,本質的に直示の性格が認められないことを論じる.非直示用法のソ系列は話し手が談話に先立って存在を認めている要素を直接指すためには用いられず,主に言語的な表現によって談話に導入された要素を指し示すために用いられる.またソが,「直示」によっては表現できない,分配的解釈や,いわゆる代行用法等の用法を持つことも,ソがアやコと違って非「直示」的であるという主張と合致する.
| |
V20N01-01
|
本論文では,レビュー集合から多数の評価視点が得られる状況において,評価対象間の相対的特徴を考慮した重要度(スコア)に従って評価視点をランキングする課題について述べる.また,レビューはその数だけ書き手が存在することから評価視点の異表記が生じやすく,これがランキングに悪影響を与える.本論文では,評価視点に対してクラスタリングを適用することで異表記問題へ対応する手法を提案する.評価実験を通して,提案したスコア関数がランキング性能の向上に有効であること,およびクラスタリングに基づくランキング補正手法によって,平均適合率(MAP指標)が向上することを確認した.
| |
V16N04-05
|
近年の科学技術の進展にともない,工学知は幾何級数的に増大したが,その一方で,工学教育の現場においては,学生が自分の興味に合わせて講義・演習を選ぶことが非常に困難な状況になっている.また,教員も同様に,講義全体の効率化のために,講義内容の重複や講義の抜けを知る必要があり,総じて,各講義間の関連性を明確にし,カリキュラムの全体像を明らかにすることが求められている.しかし,講義間の関連から全体の構造を明らかにするためには,通常,人手によりあらかじめ講義内容(シラバス)を分析・分類する必要があり,これは大きな人的コストと時間を必要とする.したがって,この作業を可能な限り自動化し,効率的な手法を開発することが非常に重要な課題となる.本稿では,こうした問題に対して,我々のグループで取り組んでいる課題志向別シラバス分類システムについて,評価実験を交えて解説する.また,東京大学工学部の850以上のシラバスを使った評価実験によって,本システムが実用的な課題志向別シラバス分類の自動化に有効であることを示す.
| |
V05N04-07
|
音声対話および音声翻訳システムを実現するためには,自由発話文の音声認識誤り文に対する解析誤りの問題を解決する必要がある.その解決のために,文法以外の制約を積極的に用いて認識誤り文から正しく認識された部分を特定するしくみを新たに導入し,特定された部分,或は,特定されなかった部分を修復しながら,文を解析することが必要となる.本論では,予め学習された話し言葉の表現パターンと入力文における表現パターンとの意味的類似性を用いて,認識結果文から正しく認識された部分を特定する手法を提案する.\\さらに,本正解部分特定法を音声翻訳システムに導入し,音声認識結果の正解部分のみを部分翻訳するシステムを作成した.このシステムを用いて正解部分特定法の効果を評価し,その結果から次の効果を確認した.本正解部分特定法により特定された部分の信頼性は高く,特定した部分の96\%が実際に正解部分であった.また,特定された部分のみを提示することにより,誤り文をそのまま誤った意味に理解してしまう割合を半分以上軽減することができた.さらに,特定された正解部分のみを部分翻訳した結果,従来翻訳できなかった誤り文の約7割に対して,正しいかもしくは部分的に正しく意味を理解できる翻訳結果を得ることができた.
| |
V07N02-02
|
英字新聞記事の見出しは通常の文の表現形式とは異なる特有の形式をしているため,従来の英日機械翻訳システムによる見出しの翻訳の品質はあまり高くない.この問題に対して本研究では,見出しを通常の表現形式に書き換える自動前編集系を既存のシステムに追加することによる解決を目指している.見出しを通常の表現形式に書き換えれば,より品質の高い翻訳が,システムの既存部分にほとんど変更を加えることなく得られる.例えば``SalesupsharplyinJune''という見出しは通常のシステムには受理されない可能性が高いが,``Sales{\itwere}upsharplyinJune''のようにbe動詞``were''を補えば従来のシステムでも適切な翻訳が得られるようになる.本稿では,見出し特有表現の典型例の一つであるbe動詞の省略現象を対象とし,be動詞が省略されている見出しにbe動詞を正しく補うための書き換え規則を,形態素解析と粗い構文解析によって得られる情報に基づいて記述する.この方法を,我々が開発している英日翻訳支援システムPowerE/Jに組み込み,未知データの見出し312件を対象として実験を行なったところ,再現率81.2\%,適合率92.0\%の精度が得られた.
| |
V24N05-01
|
本稿では,将棋の解説文に対する固有表現を題材として,テキスト情報に加えて実世界情報を参照する固有表現認識を提案する.この題材での実世界情報は,固有表現認識の対象となる解説文が言及している将棋の局面である.局面は,盤面上の駒の配置と持ち駒であり,すべての可能な盤面状態がこれによって記述できる.提案手法では,まず各局面の情報をディープニューラルネットワークの学習方法の1つであるstackedauto-encoderを用いて事前学習を行う.次に,事前学習の結果をテキスト情報と組み合わせて固有表現認識モデルを学習する.提案手法を評価するために,条件付き確率場による方法等との比較実験を行った.実験の結果,提案手法は他の手法よりも高い精度を示し,実世界情報を用いることにより固有表現認識の精度向上が可能であることが示された.
| |
V16N03-01
|
本稿では,Wikipediaの記事構造を知識源として,高精度で大量の上位下位関係を自動獲得する手法について述べる.上位下位関係は情報検索やWebディレクトリなど,膨大なWeb文書へのアクセスを容易にする様々な技術への応用が期待されており,これまでにも様々な上位下位関係の抽出手法が開発されてきた.本稿では,Wikipediaの記事構造に含まれる節や箇条書きの見出しから,大量の上位下位関係候補を抽出し,機械学習を用いてフィルタリングすることで高精度の上位下位関係を獲得する手法を開発した.実験では,2007年3月の日本語版Wikipedia2.2~GBから,約77万語を含む約135万対の上位下位関係を精度90\%で獲得することができた.
| |
V07N04-03
|
電子化テキストの増大にともない,テキスト自動要約技術の重要性が高まっている.近年,情報検索システムの普及により,検索結果提示での利用が,要約の利用法として注目されている.要約の利用により,ユーザは,検索結果のテキストが検索要求に適合しているかどうかを,素早く,正確に判定できる.一般に情報検索システムでは,ユーザの関心が検索要求で表わされるため,提示される要約も,元テキストの内容のみから作成されるものより,検索要求を反映して作成されるものの方が良いと考えられる.本稿では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法が,情報検索システムでの利用を想定した,検索要求を考慮した要約作成手法として利用できることを示す.語彙的連鎖の使用により,検索要求に関連するテキスト中のパッセージを要約として抽出できる.我々の手法の有効性を確かめるために,情報検索タスクに基づいた要約の評価方法を採用し,10種類の要約作成手法による実験を行なう.実験結果によって,我々の手法の有効性が支持されることを示す.また,評価実験の過程で観察された,タスクに基づく評価方法に関する問題点や留意すべき点についても分析し,報告する.
| |
V01N01-03
|
従来の構文解析法は十分な精度の解析結果を得ることができず,とくに長い文の解析が困難であった.このことは従来の方式が局所的な解析を基本としていたことに原因があり,これを解決するためには文内のできるだけ広い範囲を同時的に調べることが必要である.我々は,すでに,このような考え方に基づき,長い文の中に多く存在する並列構造が文節列同士の類似性を発見するという手法でうまく検出できることを示した.本論文では,そのようにして検出した並列構造の情報を利用して構文解析を行なう手法を示す.長い日本語文の場合は1文内に複数の並列構造が存在することも多い.そこでまず,文内の並列構造相互間の位置関係を調べ,それらの入れ子構造などを整理する.多くの場合,並列構造の情報を整理した形で利用できれば,文を簡単化した形でとらえることができる.そこで,簡単化した各部分に対して単純な係り受け解析を行ない,その結果を組み合わせることによって文全体の依存構造を求めることが可能となる.各部分の係り受け解析としては,基本的に,係り受け関係の非交差条件を満たした上で各文節が係り得る最も近い文節に係るという優先規則によって決定論的に動作する処理を考えた.150文に対して実験を行なったところ,96\%の文節について正しい係り先を求めることができた.
| |
V18N01-01
|
日本語学習者が産出する名詞$n$,格助詞$c$,動詞$v$から成る不自然な共起表現$\tupple{n,c,v}$の中には,動詞選択の誤りに起因するものがある.本稿では,学習者が入力する共起表現$\tupple{n,c,v}$の$v$に対する適切な代替動詞候補を与える手法を提案する.不自然な共起表現中の動詞(誤用動詞)と自然な共起表現となるように修正した適切な動詞(正用動詞)とは出現環境が類似している傾向にあると考えられる.この仮説に基づき,大規模な母語話者コーパスから得られる統計情報を用いて,$\tupple{n,c}$との共起が自然と言える代替動詞候補を,学習者が入力した共起表現の動詞との出現環境の類似度の降順に提示する.まず,誤用動詞とその正用動詞のデータに基づいてこの仮説を検証し,さらに,同データを用いて提案手法に基づいた共起表現に関する作文支援システムの実用性について検討する.
| |
V19N05-03
|
現在,電子メール,チャット,マイクロブログなどのメディアで,顔文字は日常的に使用されている.顔文字は,言語コミュニケーションで表現できない,ユーザの感情やコミュニケーションの意図を表すのに便利であるが,反面,その種類は膨大であり,場面に合った顔文字を選ぶことは難しい.本研究では,ユーザの顔文字選択支援を目的として,ユーザが入力したテキストに現れる感情,コミュニケーション,動作のタイプ推定を行い,顔文字を推薦する方法を提案する.感情,コミュニケーション,動作のタイプは,{\itTwitter}から収集したコーパスを用いてカテゴリを定義し,推定システムは,$k$-NNに基づき実現した.また,システムが推薦する顔文字がユーザの意図にどの程度適合しているか,5名の被験者により評価した結果,91件のつぶやきに対して66.6\%の顔文字が適切に推定されており,感情カテゴリのみを用いて推薦された結果と比べて,提案手法の顔文字推薦の精度が有意に向上していることがわかった.
| |
V31N04-08
|
%デジタルプラットフォーム上の誹謗中傷に対する社会的関心が高まっており,その性質の理解と対策に向けたデータセットや自動検出の研究が進められている.既存のデータセットでは,誹謗中傷の主観的な性質とクラウドソーシングなど非専門家によるアノテーションを実現するために,タスクを単純化や主観的な判断に依存することで,実際問題との乖離や社会・文化的文脈の考慮不足といった課題があり,社会科学の専門知識を活用しながら,誹謗中傷問題を個々の社会に合わせて調整するアプローチが必要である.そこで本論文では,日本の裁判例を基に誹謗中傷検出に向けた日本語データセットを提案する.我々のデータセットは,オンライン上の発言に対して,名誉権や名誉感情といった法的権利と,その権利に対する裁判所の判断を誹謗中傷のラベルとして利用している.さらに,自動検出手法の検証によって,実際上の問題とのギャップを明らかにし,課題点に対する検討を行っている.この研究は,誹謗中傷の問題に実際の社会問題に即したデータセットの構築により,配慮されたコンテンツモデレーションの実践を目指すとともに,他のドメインからの専門知識の活用に関する議論の基盤を提供することを目指している.\renewcommand{\thefootnote}{}\footnote[0]{この論文は,言語処理学会第29回年次大会発表「権利侵害と不快さの間:日本語人権侵害表現データセット」を拡張したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V05N01-07
|
自然言語では,動詞を省略するということがある.この省略された動詞を復元することは,対話システムや高品質の機械翻訳システムの実現には不可欠なことである.そこで本研究では,この省略された動詞を表層の表現(手がかり語)と用例から補完することを行なう.解析のための規則を作成する際,動詞の省略現象を補完する動詞がテキスト内にあるかいなかなどで分類した.小説を対象にして実験を行なったところ,テストサンプルで再現率84\%,適合率82\%の精度で解析できた.このことは本手法が有効であることを示している.テキスト内に補完すべき動詞がある場合は非常に精度が良かった.それに比べ,テキスト内に補完すべき動詞がない場合はあまり良くなかった.しかし,テキスト内に補完すべき動詞がない場合の問題の難しさから考えると,少しでも解析できるだけでも価値がある.また,コーパスが多くなり,計算機の性能もあがり大規模なコーパスが利用できるようになった際には,本稿で提案した用例を利用する手法は重要になるだろう.
| |
V28N03-09
|
%近年,シンボルグラウンディングや言語生成,自然言語による非言語データの検索など,実世界に紐づいた自然言語処理への注目が高まっている.我々は,将棋のゲーム局面に付随する解説文がこれらの課題の興味深いテストベッドになると考えている.解説者は現在の局面だけでなく過去や未来の指し手に言及しており,これらはゲーム木にグラウンディングされることから,ゲーム木探索アルゴリズムを活用した実世界対応の研究が期待できる.本論文では,我々が構築した,人手による単語分割・固有表現・モダリティ表現・事象の事実性のアノテーションを行った将棋解説文コーパスを説明する.
| |
V31N03-10
|
%本論文では特定の発話者に対する言語モデルの構築手法を提案する.現在,対話エージェントやRPGなどのゲームのセリフにおいて,キャラクタらしい発話が求められている.しかし,特定のキャラクタに特化した言語モデルの構築を行うには,訓練データが不足している.そのため本論文では対象の発話者と同一作品に出てくる別人物の発話を,T5を用いて対象発話者の発話風に変換し,訓練データを増補する.提案手法では,対象の発話者の発話を「タスク」の訓練データ,作中の登場人物たちの発話を「ドメイン」の訓練データとし,DAPT(domainadaptivepretraining)+TAPT(taskadaptivepretraining)の手法でベースの言語モデルとなるGPT-2にfine-tuningを行う.この際,多様な口調をモデルに区別させるために,文頭に発話者の名前を追加する.また,登場人物の発話を人手で一般的な発話に変換することで,発話者らしいキャラクタ性を含んだ文と一般的な文のペアを作成する.さらに,これらの文ペアを用いてT5を学習し,(A)一般的な発話からキャラクタらしい発話への変換モデルと(B)キャラクタらしい発話から一般的な発話への変換モデルを作成する.モデル(A)を使って作った(1)人手で作成した一般的な発話を対象の発話者風に変換した発話集合と,モデル(A)と(B)を使って作った(2)対象の発話者と同一作品の登場人物の発話を対象の発話者風に変換した発話集合を対象発話者の擬似データとして扱う.7名のキャラクタの言語モデルの平均のパープレキシティを評価したところ,GPT-2に対象の発話者の発話のみで訓練を行った場合は27.33であったのに対し,提案手法を利用した場合は21.15となり,性能を向上させることができた.
| |
V25N04-05
|
並列構造解析の主たるタスクは並列する句の範囲を同定することである.並列構造は文の構文・意味の解析において有用な特徴となるが,これまで決定的な解析手法が確立されておらず,現在の最高精度の構文解析器においても誤りを生じさせる主たる要因となっている.既存の並列句範囲の曖昧性解消手法は並列構造の類似性のみの特性や構文解析器の結果に強く依存しているという問題があった.本研究では,近年自然言語解析に広く使用されているリカレントニューラルネットワークを用いて,構文解析の結果を用いずに単語の表層形と品詞情報のみから並列句の類似性と可換性の特徴ベクトルを計算し,並列構造の範囲を予測する手法を提案する.PennTreebankとGENIAコーパスを用いた実験の結果,提案手法によって先行研究を上回る解析精度を得た.
| |
V06N06-02
|
オフィス業務においては,大量の関連情報から,特定のイベントについての経過や状況を把握するために,要約や抄録の生成が求めらている.本論文では,複数の文書から抄録や要約をロバストに生成する手法として,あるイベントに関する時間的経緯を抄録として生成するエピソード抄録と,大量の情報を大局的に把握するための要約文を生成する鳥瞰要約を提案する.エピソード抄録では,あるイベントを表す5W1H(だれが,なにを,いつ,どこで,どうした)が含まれる文書を検索し,そのイベントに関する時間的経緯を抄録として生成する.鳥瞰要約は,文章中の5W1H要素を,シソーラスを用いてそれらの上位概念で置き換えることで,要約文を生成する.新聞記事10,000件とセールスレポート2,500件を対象として適用し,その効果を確認した.
| |
V07N01-04
|
本稿では単語の羅列を意味でソートするといろいろなときに便利であるということについて記述する.また,この単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる.
| |
V11N02-05
|
機械翻訳システムによる翻訳を人間による翻訳に近づけるために取り組むべき課題を明らかにしようという試みの一環として,本稿では,ニュース記事から無作為抽出した英文を英日機械翻訳システムで翻訳した結果と,これらの英文を人間が翻訳した結果を照らし合わせ,両者の間で使用されている動詞の馴染み度の分布に違いがあるかどうかを計量的に分析した.動詞の馴染み度を測る尺度としては,NTTの単語親密度データベースを利用した.分析の結果,機械翻訳システムによる翻訳と人間による翻訳の間で単語親密度の分布に統計的有意差は認められず,使用されている動詞の馴染み度に関しては両者の間で違いがないということが示唆された.従って,格要素などとの共起関係を考えず動詞だけに着目した場合,調査対象とした機械翻訳システムでは動詞の翻訳品質は一定のレベルに達していると判断できる.
| |
V27N02-04
|
%本稿では関係分類における入力トークンの重要性を学習し,不要な情報をマスクするマスク機構を提案する.入力文の依存木上における,注目エンティティ間を結ぶ最短経路上には関係分類において重要な情報がよく存在するため,関係分類の特徴の一つとしてよく利用される.しかし,このヒューリスティックは所有格の\textit{s}のように,最短経路外に重要なトークンが存在するような例外に対してはあてはまらない.そこで本研究では重要なトークンの判別規則を学習する機構を導入しそのような事例に対応する.学習はタスク損失からEnd-to-Endに行われ,追加アノテーションは必要ない.実験の結果,提案手法は最短経路のヒューリスティックを上回る識別性能を記録した.また,提案機構が学習するマスクは最短経路と高い類似度となる一方,所有格の\textit{s}など最短経路外の重要なトークンも利用するよう学習された.\footnote[0]{本論文の一部は,言語処理学会第25回年次大会とNLP若手の会第11,14回シンポジウムで発表したものです.}
| |
V31N03-15
|
%文章中の固有表現の言及を検出し,人名や地名といったクラスへの分類を行う固有表現抽出は自然言語処理の基礎技術である.近年ではより細分化されたクラスへの分類が求められている.固有表現抽出器の構築には一般的に学習データが必要であるが,特に細分化されたクラスを対象とする場合,人手による学習データ作成は非常にコストが高い.先行研究はWikipediaのリンク構造を活用して学習データを自動作成することを提案している.Wikipediaのリンクは固有表現抽出器の学習には不十分であるため,先行研究では,固有表現の先頭を大文字にする等の英語等の特徴を活用してリンクを拡張している.しかし,これらの手法は言語依存であり日本語には適用できない.本研究では,Wikipediaのリンク付与ガイドラインの定義を活用することでリンク拡張を行う手法を提案する.加えて,Wikipedia記事中のエンティティ率を推定する手法を提案し,推定値により学習時に制約をかけることで前者では拡張できないリンクの影響を軽減する.本研究では,拡張固有表現階層の200カテゴリーを対象に実際に日本語の固有表現抽出器を構築する.提案手法の評価のため,ウェブニュース記事に対して人手によるラベル付けで評価データを作成し,実験により先行研究より高品質な固有表現抽出器が学習できることを示した.
| |
V27N02-09
|
%本稿は,イベント表現抽出において,テキスト中のイベント表現の多様性に対応するために,異なるエンコーティングモデル群と,入力毎に信頼度の高いエンコーディングモデルの集合を動的に選択する動的アンサンブル機構からなる新たなアンサンブル法を提案する.サブタスク毎の比較評価により,提案手法を用いたイベント情報抽出が,各エンコーディングモデルやソフト投票法をF1値で上回る事を示す.さらに,NISTTACKBP2016およびKBP2017のイベント表現抽出の公式評価との比較評価を通じて,提案手法の有効性を示す.最後に,提案手法の様々なニューラルネットワークモデルへの適用可能性の議論を通じて,イベント表現検出における提案手法の有用性と課題を考察する.
| |
V26N02-04
|
all-words語義曖昧性解消(以下all-wordsWSD(wordsensedisambiguation))とは文書中のすべての単語の語義ラベルを付与するタスクである.単語の語義は文脈,すなわち周辺の単語によって推定でき,周辺の単語同士が類似している場合中心の単語同士の語義も類似していると考える.そこで本研究では,対象単語とその類義語群から周辺単語の分散表現を作成し,ユークリッド距離を計算することで対象単語の語義を予測した.また,語義の予測結果をもとにコーパスを語義ラベル列に変換し,語義の分散表現を作成した.語義の分散表現を用いて周辺単語ベクトルを作成し直し,再び語義の予測を行った.コーパスには分類語彙表番号がアノテーションされた『現代日本語書き言葉均衡コーパス』(BCCWJ)を利用した.本研究では分類語彙表における分類番号を語義とし,類義語も分類語彙表から取得した.本研究では,提案手法とランダムベースライン,PseudoMostFrequentSense(PMFS),Yarowskyの手法,LDAWNを比較し,提案手法が勝ることを示した.
| |
V03N01-01
|
本論文では,意味解析を主とする自然言語処理システムにおける語の意味の曖昧性解消の処理の効率化を場面に基づく文脈情報を利用して実現する方法を提案する.現在における文脈依存の意味処理では文脈の定義方法と知識の獲得方法が問題とされる.また実装時には意味選択の組合せ爆発による計算量の大きさが問題となる.文脈情報により一部の語に対してでも語義の優先順位づけが有意に行なわれれば,共起関係などを用いて他の語の多義性や構文解析の解空間を早く絞り込むことができる.本論文では,談話内の言語外知識である場面情報を空間的連想による文脈情報と位置付け,画像理解による知識獲得の近似として視覚辞書を利用し,実際の物語文を対象にし評価した結果を示す.場面に関連する各英語名詞に対し独立に平均1.5倍以上の処理速度向上が得られている.また多義性解消率は全く情報がない場合の51\%に比べ本手法では83\%まで上昇する.あわせて場面情報の知識表現の違いによる効果の違いについての考察,手法の限界点,およびシステムに加えて必要とされる場面解析機構についての考察を述べる.
| |
V03N02-05
|
本論文では,まず,表層的情報のみを用いて安定的・高精度に構文解析を行う骨格構造解析の方法について述べる.次に,これを用いて行った8万用例文に対する構文付きコーパスの作成について触れ,骨格構造解析の有効性について述べる.さらに,この構文付きコーパスを対象として構築した類似用例検索システムについて述べる.本システムは,(1)構文的制約(係り受け構造)を指定して検索できるので,単語レベルの検索では検索されてしまうような多くの不適切な用例を絞り込むことができる(2)分類語彙表を利用した意味コード化により,類似用例の検索も可能である(3)インデックスに構文情報を含めることにより,高速な構造検索を実現している(4)ユーザはウインドウ上で,三角表を用いた構文構造のブラウジング,検索パターンの指定などができ,使いやすいインタフェースを実現している,などの特徴がある.
| |
V14N03-04
|
選択肢の選択プロセスは各選択肢の特徴を認知する段階と,それに基づいて取捨選択を行う意思決定の段階,すなわち,「認知する」「決める」の2段階で表現することができる.既存の評判情報研究の多くは「認知する」の情報抽出に焦点を当てているのに対し,本稿では選択行動を意思決定までを含めて包括的に捉え,既存の方法では捉えることが困難だった要素を捉えることを試みる.本稿では「決める」段階をElimination-By-Aspects(EBA)の意思決定モデルに則って選択の過程を通しで捉える方法を述べる.EBAでは,意思決定は,着目している特徴(アスペクト)を各選択肢が持っているか否かによって候補を順に排除していくことで行われるが,本稿では取捨選択方略に基づいて選択肢が排除または残存する様子を記述することで実現する.また,ことばに明示的に表れている情報を単純に扱うだけでは不十分であり,行間を読み取る処理が必要である.さらに,選択または排除されるきっかけの理由を捉えることで,選択肢の相対的な長所・短所を知る方法を示す.
| |
V02N03-01
|
三浦文法は、時枝誠記により提唱され三浦つとむにより発展的に継承された言語過程説に基づく日本語文法である。言語過程説によれば、言語は対象−認識−表現の過程的構造をもち、対象のあり方が話者の認識を通して表現されている。本論文では、三浦文法に基づいて体系化した日本語品詞体系および形態素処理用の文法記述形式を提案し、日本語の形態素処理や構文解析におけるその有効性を論じた。日本語の単語を、対象の種類とその捉え方に着目し、約400通りの階層化された品詞に分類して、きめ細かい品詞体系を作成した。本論文で提案した品詞体系と形態素処理用文法記述形式に基づき、実際に形態素処理用の日本語文法を構築した結果によれば、本文法記述形式により例外的な規則も含めて文法を簡潔に記述できるだけでなく、拡張性の点でも優れていることが分かった。本品詞体系により、三浦の入れ子構造に基づく意味と整合性の良い日本語構文解析が実現できるものと期待される。
| |
V25N01-01
|
本論文では,テキストマイニング技術を用いて,株主招集通知の情報をデータベースに格納する業務の効率化を実現するための応用システムの研究について述べる.効率化したい業務とは,株主招集通知に記載されている議案の開始ページを予測し,その開始ページにおける議案の議案タイトルと議案内容を分類する業務である.本研究では,これらの業務を株主招集通知のテキスト情報を用いて自動的に行うシステムを開発し,実際に運用している.本研究によって実装したシステムと従来の人手による作業の比較実験の結果,作業時間は1/10程度に短縮された.議案分類の手法としては,学習データから抽出した特徴語の重みを用いた分類,多層ニューラルネットワーク(深層学習)を用いた分類,抽出した議案タイトルを用いた分類の三手法を用いた.さらに,各手法の評価を行い,各手法の議案ごとの有効性を確認した.
| |
V30N03-08
|
%本稿では,調理レシピにおいて,調理動作後の物体の視覚的な状態の予測を目指し,VisualRecipeFlow(VRF)データセットを提案する.VRFデータセットは(i)物体の視覚的な状態遷移と(ii)レシピ全体のワークフローに対するアノテーションから成る.視覚的な状態遷移は動作前後の物体の観測を表す画像の組として,ワークフローはレシピフローグラフとして,それぞれ表現する.ここでは,データセットの構築方法,アノテーション手順について順に説明し,アノテータ間のアノテーション一致率を測ることでデータセットの品質を調査する.最後に,動作前後の画像と物体のテキスト情報を用いたマルチモーダルな情報検索の実験を行うことで,各アノテーション要素の重要性について調べる.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は言語処理学会第28回年次大会(白井etal.2022)およびCOLING2022(Shiraietal.2022)で発表した内容を加筆修正したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V07N04-10
|
認識誤りに起因して,音声翻訳の性能(品質)が劣化するという問題がある.認識結果の正解部分のみを翻訳する手法が提案されているが,翻訳されない部分に関する情報は失われてしまう.我々はこの問題を解決するため,次のような手順からなる誤り訂正の手法を提案する.(1)訂正の必要性の判断および誤り部分の特定を行う.(2)認識結果の誤り近傍に関して音韻的に近い用例をテキストデータ中から検索し,訂正候補の生成を行う.(3)訂正候補の妥当性を意味と音韻の両方の観点から判断し,最も妥当なものを選択する.提案手法を音声翻訳システムに組み込み,旅行会話を対象として評価した.認識結果の単語誤り率で$2.3\%$の減少,翻訳率で$5.4\%$の増加が得られ,提案手法の有効性が示された.
| |
V23N03-02
|
仮説推論は,与えられた観測に対する最良の説明を見つける推論の枠組みである.仮説推論は80年代頃から主に人工知能の分野で長らく研究されてきたが,近年,知識獲得技術の成熟に伴い,大規模知識を用いた仮説推論を実世界の問題へ適用するための土壌が徐々に整いつつある.しかしその一方で,大規模な背景知識を用いる際に生じる仮説推論の計算負荷の増大は,重大な問題である.特に言語の意味表示上の依存関係を表すリテラル(本論文では機能リテラルと呼ぶ)が含まれる場合に生じる探索空間の爆発的増大は,実問題への仮説推論の適用において大きな障害となっている.これに対し本論文では,機能リテラルの性質を利用して探索空間の枝刈りを行うことで,効率的に仮説推論の最適解を導く手法を提案する.具体的には,意味的な整合性を欠いた仮説を解空間から除外することで,推論全体の計算効率を向上させる.また,このような枝刈りが,ある条件が満たされる限り本来の最適解を損なわないことを示す.評価実験では,実在の言語処理の問題に対して,大規模背景知識を用いた仮説推論を適用し,その際の既存手法との計算効率の比較を行った.その結果として,提案手法が既存のシステムと比べ,数十〜数百倍ほど効率的に最適解が得られていることが確かめられた.
| |
V25N04-01
|
本稿では『現代日本語書き言葉均衡コーパス』のコアデータに対する文節係り受け・並列構造情報\modified{の}アノテーションについて述べる.統語構造のアノテーションに対して,文節係り受け情報と並列・同格構造\modified{を}分離してアノテーションする方法を提案する.さらに節境界を越える係り受け関係について,節の分類に基づきスコープを決めることでよりアノテーションの精緻化を行う.実作業の工程上の問題などにも言及しながら,アノテーション基準を概説する.また,アノテーションデータの基礎統計量について示す.
| |
V09N03-05
|
本研究では,要約文とその要約文を作成するために使用された表現を含む原文とを自動的に対応付ける手法を用いて,人間が要約文を作成する上で,要約元となった原文をどのように再構成するかを調査した.対応付けに用いた手法は,かかり受け構造の解析結果を利用し,要約文とその対応文との間の対応付けを文節単位で行う.また,要約文1文に対して,要約元文章中の複数文を対応付けすることを許して対応付けが可能である.調査した対象は,複数の作業者が新聞の社説を要約したデータである.このデータに対して,対応付け手法を実際に適用した.対応付けの結果,要約元文章で用いられていなかったり,元文章でかかり受け関係がなかった表現が要約文に用いられていた場合に,それらの表現を構成する文節は未対応となる.そこで,そのような要約文中で未対応になった文節がどのように生成されたかを,計算機でも処理可能な操作を主眼に分類・整理して考察した.その結果,要約原文のかかり受け構造は,要約文においても保存されることが多く,要約文に新しく出現する表現の多くは,複数の原文から1つの要約文を作成する文結合操作と,単文節を中心とした言い換え操作により生成されることがわかった.
| |
V27N01-02
|
%本稿では,世界史に関する大学入試論述問題に対して自動要約手法に基づき解答を自動生成する際の知識源の一つとして世界史用語集に注目し,見出し語と語釈部に分かれている文書データから解答となる文章を作成するために,語釈文における見出し語に照応するゼロ代名詞とその表層格を推定する手法を提案する.本稿の扱うタスクは,先行詞候補が見出し語に限られている一方でそれに照応するゼロ代名詞を複数の候補から一つ選ぶという点,および先行詞である見出し語が文中に存在しないため,照応解析において有効な手掛かりとなる先行詞の文脈情報が全く使えないという点で,従来のゼロ代名詞照応解析とは異なる.世界史用語集を対象とした評価実験を行った結果,KNPを用いた既存のゼロ照応解析を使用した手法に比べ,提案手法が有効であることが確認された.さらに,出現頻度の低い表層格で埋め込まれる場合の精度低下が観察されたため,通常の文から擬似訓練事例を生成する手法を検討した.同事例を使用した結果,ヲ格,ニ格の推定のF値を改善できることが確認された.
| |
V30N04-04
|
本研究では,単一の人物の大規模な対話データを大規模言語モデルと組み合わせることで,対象人物を再現するチャットボット(なりきりAI)を構築した.さらに,構築したチャットボットの公開実験とそのエラー分析を行うことで,現状の到達点と問題を調査した.その結果,構築されたチャットボットは高い自然さとキャラクタらしさを持つことが明らかになった.さらに,対象人物を再現するチャットボットのエラーは,属性に関するエラーと関係に関するエラーに分けられ,また,自己に関するエラーと他者に関するエラーに分けられることが明らかになった.\renewcommand{\thefootnote}{}\footnote[0]{本研究はIWSDS2022の予稿集における``Fine-tuningapre-trainedTransformer-basedencoder-decodermodelwithuser-generatedquestion-answerpairstorealizecharacter-likechatbots'',および,ACL2022の予稿集における``Investigatingperson-specificerrorsinchat-orienteddialoguesystems''をもとに翻訳したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V32N01-06
|
ニューラル機械翻訳(NMT)は柔軟な訳語選択と流暢な訳出により品質の高い翻訳が得られることが多いが,長い入力文に対しては翻訳の品質が低下することがある.この課題に対し,長文を短いセグメントに分割して翻訳し,並べ替えて繋げる分割統治的手法が提案されているものの,NMTでの性能向上は限定的であった.そこで本研究では,文内コンテキストを利用することで長文の翻訳を改善する新しい分割統治的NMTの手法を提案する.提案手法では,(1)構文解析によって同定された節を結ぶ等位接続詞の前後で分割し,(2)分割された各節を,その文内コンテキストを利用できるように調整された節単位翻訳用モデルを用いて翻訳し,(3)翻訳された節を別のsequence-to-sequenceモデルを使用して結合し,文全体の翻訳結果を得る.事前訓練された多言語BARTモデルを使用しASPECを対象にした英日翻訳の実験において,特に41単語以上の長い入力文に対して,提案手法によりベースラインの多言語BARTによるNMTを上回る翻訳精度が得られた.\renewcommand{\thefootnote}{\alph{footnote}}\footnotetext[1]{奈良先端科学技術大学院大学,NaraInstituiteofScienceandTechnology}\footnotetext[2]{奈良女子大学,NaraWomen'sUniversity}\footnotetext[3]{香港中文大学(深\UTF{5733}),TheChineseUniversityofHongKong,Shenzhen}\footnotetext[4]{現所属:株式会社リクルート,Presentaffiliation:RecruitCo.,Ltd.}\footnotetext[5]{現所属:株式会社Tleez,Presentaffiliation:TleezCo.,Ltd.}\renewcommand{\thefootnote}{\arabic{footnote}}\renewcommand{\thefootnote}{}\footnote[0]{本論文の内容の一部は,石川・加納・須藤・中村「文内コンテキストを利用した分割統治ニューラル機械翻訳」言語処理学会第30回年次大会発表論文集pp.2342--2347に基づく.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V25N01-02
|
言語に関する能力を,客観的かつ自動的に把握する需要が高まっている.例えば,近年,日本において認知症は身近なものとなっているが,認知症は,言語能力に何らかの特徴が表出する可能性があることはよく知られている.言語能力を測り,それらの兆候を捉えることができれば,早期発見や療養に役立つ可能性がある.また,現在,多くの留学生が日本語教育機関において日本語を学んでおり,学習者の習熟度に対し,適切な評価を与えることが各教育機関に求められている.しかし,書く能力や話す能力の評価は,主に評価者の主観によって行われており,評価者によって判断に揺れが生じうる.機械によって自動的かつ客観的に言語能力を測定することができれば,評価者による揺れの生じない評価の一つとして活用できる可能性がある.これまでにも,言語能力の測定に関する取り組みはあるものの,いずれも人手を介して測定を行うためコストが高く,気軽に測定することは難しい.そこで本研究では,手軽に言語能力を測定可能なシステム「言秤(コトバカリ)」を提案する.本提案システムでは,(1)音声認識システムの組み込み,および(2)テキストデータから定量的に言語能力を測定する指標の採用を行うことで,従来人手で行っていたテキスト化および言語能力スコアの算出を自動化し,コストの軽減と手軽な測定を実現する.また,「被測定者自身による自己把握・状況改善(用途1)」および「被測定者以外による能力の高低の判断(用途2)」という観点から,言語能力スコア(Type・Token比)算出における音声認識システムの利用可能性について検証を行った.書き起こし結果および音声認識結果から得られる言語能力スコアは異なるため,閾値との比較のような,単純な言語能力スコアの対比による能力の高低の判断(用途2)は難しいことがわかった.また,同一時期に複数回測定し,書き起こし結果および音声認識結果から得られる言語能力スコアの相関を調べたところ,集団としては相関が見られなかった.一方,個人で分けると,相関が見られる発話者と見られない発話者がいることがわかった.相関が見られる発話者については,被測定者の言語能力スコアを継続的に測定し,その変化を観察することによる能力の判断(用途1)や言語能力の現状把握・維持・改善(用途2)ができる可能性が示唆された.
| |
V27N04-05
|
本研究では,日本語の語彙平易化のために,評価用データセット・辞書・実装や評価を支援するツールキットの3種類の言語資源を整備する.我々は既存の小規模な単語難易度辞書をもとに単語難易度の推定器を訓練し,大規模な日本語の単語難易度辞書および難解な単語から平易な単語への言い換え辞書を自動構築する.本研究で構築する評価用データセットを用いた評価実験によって,この辞書に基づく語彙平易化システムが高い性能を達成することを示す.我々のツールキットは,辞書の他,語彙平易化パイプラインにおける主要な手法を実装しており,これらの手法を組み合わせたシステムの構築および構築したシステムの自動評価の機能を提供する.
| |
V14N04-02
|
本論文では,日英特許コーパスを用いて専門用語の対訳辞書を作成する方法について述べる.提案手法は,言語単位としての妥当性と分野による出現の偏りを数値化することで,コーパス中の単語(列)を専門用語として抽出し,和英辞書などの既知の対訳用語セット(seedwordリスト)を介して,コーパスにおける各専門用語の共起パターンを計測し,その類似性が高い用語ペアを対訳として対応付ける.この時,対象となるコーパス間で文脈が類似している対訳のみをseedwordに利用する点が特徴である.本手法を日本語特許抄録とその英訳に適用したところ,専門用語の抽出精度は日本語で90\%,英語で93\%となった.また,訳語対応付けでは,各専門用語の対訳として1位に対応付けられた対訳候補の正解率が53\%(日英)と66\%(英日),10位以内に対応付けられた対訳候補の正解率が83\%(日英)と90\%(英日)と,従来研究と比べて高い精度を得ることができた.本論文ではさらに,PAJの日本語抄録と米国特許抄録を用いた実験を行い,コーパスの違いによる実験結果の違いについても考察する.
| |
V28N01-08
|
文法誤り訂正の既存研究の多くはこれまで主にCoNLL-2014評価データセットを用いた単一コーパス上で文法誤り訂正モデルを評価してきた.しかし,書き手の習熟度やエッセイのトピックなど様々なバリエーションのある入力文が想定される文法誤り訂正タスクにおいて,タスクの難易度は各条件下によって異なるため,単一コーパスによる評価では不十分であると考えられる.そこで本研究では,文法誤り訂正の評価の方法論として,単一コーパス評価は不十分であるという仮説に基づきコーパス横断評価の必要性について調査を行う.具体的には,4種類の手法(LSTM,CNN,Transformer,SMT)を6種類のコーパス(CoNLL-2014,CoNLL-2013,FCE,JFLEG,KJ,BEA-2019)で評価し,各コーパス間でモデル順位にばらつきが生じるかについて検証を行った.評価実験の結果,モデル順位は各コーパスによって大きく変動したため,既存の単一コーパス評価では不十分であることがわかった.また,横断評価はメタ評価方法としてだけではなく,実応用を見据えた場合においても有用であると考えられる.そこで,横断評価の有用性のケーススタディとして,文法誤り訂正の入力に想定される代表的な条件の一つである,書き手の習熟度を評価セグメントとした場合の横断評価について調査を行った.その結果,書き手の習熟度が初中級レベルと上級レベル間ではモデルの性能評価に関して大きな乖離があることがわかった.
| |
V19N03-01
|
適合性フィードバックの手法の多くは,テキストに表層的に出現する単語の情報だけを用いて検索結果をリランキングしている.これに対し,本稿では,テキストに表層的に出現する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用する適合性フィードバックの手法を提案する.提案手法では,まず検索結果に対してLatentDirichletAllocation(LDA)を実行し,各文書に潜在する単語の分布を推定する.ユーザからフィードバックが得られたら,これに対してもLDAを実行し,フィードバックに潜在する単語の分布を推定する.そして,表層的な単語の分布と潜在的な単語の分布の両方を用いてフィードバックと検索結果中の各文書との類似度を算出し,これに基づいて検索結果をリランキングする.実験の結果,$2$文書(合計$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のPrecisionat$10$(P@10)を$27.6\%$改善することが示された.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことが示された(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).
| |
V23N01-04
|
複雑化する機械翻訳システムを比較し,問題点を把握・改善するため,誤り分析が利用される.その手法として,様々なものが提案されているが,多くは単純にシステムの翻訳結果と正解訳の差異に着目して誤りを分類するものであり,人手による分析への活用を目的とするものではなかった.本研究では,人手による誤り分析を効率化する手法として,機械学習の枠組みを導入した誤り箇所選択手法を提案する.学習によって評価の低い訳出と高い訳出を分類するモデルを作成し,評価低下の手がかりを自動的に獲得することで,人手による誤り分析の効率化を図る.実験の結果,提案法を活用することで,人手による誤り分析の効率が向上した.
| |
V06N06-07
|
TVニュース原稿は,新聞記事に比べて1記事中の文数が少なく,1文当たりの文字数も多い.このため,自動要約としての重要文抽出を行うと,文単位で選択が行われる為,情報の欠落が大きい.本論文では,記事中に現れる長文を分割出来る条件を設定し,条件に合う場合は,短い文に分割するという処理(短文分割処理)を行った結果が自動要約の基本的技術にどれだけ影響・効果があるのかを調べた.短文分割は,基本的に,動詞,形容動詞と述語名詞の連用文節を分割の対象とした.また,分割の自動要約に対する影響については,評価の尺度として,各文の重要度による順位付けと文字数圧縮(不要部分削除)を用いた.文順位付けの評価では,テキスト中の各文を人手及びシステムによって,その重要度に応じて順位を付けたものを対象とした.人手により重要と判断された文が,短文分割により分割された場合に,その分割された文は,どのような順位となると判断されるのかを調べた.その結果,短文分割により分割された重要文は,分割後の順位差において「3」以上離れる場合のほうが,順位差が生じない場合,つまり順位差が「1」の場合より多くあり,短文分割の効果が見られた.次に,記事中の重要文だけではなく全部の文を対象として,人手とシステムによる順位付けについて短文分割前後での変化をスペアマンの順位相関関係係数を用いて比較した.その結果,短文分割をすることにより,スペアマンの係数が0.0318〜0.065増加し,文の順位が,人とシステムにおいてより近いものになることが判明した.最後に,文字数圧縮での評価では,不要部分を特定し,文字列を削除または言い換えを行う文字数圧縮処理において,短文分割を行う前後での変化を調査した.短文分割により削除される文字数は増え,文字数圧縮後の文字数を元記事の文字数で割る圧縮率において,2.71%〜2.78%減少することが判明し,短文分割が文字数圧縮に良い効果があることが分かった.
| |
V29N01-07
|
%教師あり要約モデルの研究においては,タイトルを本文の要約とみなし学習データとするのが一般的であるが,これらはノイズ,すなわち不適切な本文−要約ペアを多く含む.本研究では,カリキュラムラーニングを用いてこうしたノイズを含むデータから効率的に要約モデルを学習させる手法を検討する.カリキュラムラーニングは学習データを難易度やノイズの量などを表す指標に従ってソートし,段階的な学習を行うことで性能を向上させる手法であり,ノイズを含むデータの学習にも有効である.本研究の目的の1つは,これまで検証されてこなかったカリキュラムラーニングの要約タスクへの有効性を検証することである.翻訳タスクの先行研究では,ノイズの多いコーパスと少ないコーパスから学習されたモデルでノイズ定量化を行ったが,要約分野にそうしたコーパスは存在しない.本研究のもう1つの目的は,単一コーパスからノイズを定量化してカリキュラムラーニングに適用する手法を提案することである.提案モデルであるAppropriatenessEstimatorは,本文−要約の正しいペアと,ランダムに組み合わせたペアを分類するタスクによって学習され,本文−要約ペアの適切性を計算する.本研究では3つの要約モデルで実験を行い.カリキュラムラーニング及び提案手法が要約モデルの性能を向上させることを示す.
| |
V11N05-07
|
近年,言い換え表現の自動獲得の研究が重要視されつつある.本稿では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することにより,言い換え表現の一種である同義表現を抽出することを試みた.また,同義表現を抽出するための新しい尺度を提案し,その尺度で抽出データをソートした結果の精度は,一般によく行なわれる頻度だけでソートする方法による結果よりも高いことを確認した.この尺度は,他の同義表現の抽出の研究にも利用できる有用なものである.提案手法では,同義表現のみを正解とするとき,上位500個で0.748,ランダムに抽出した500個で0.220の抽出精度であった.また,誤りの多くのものは包含関係や類義関係にある表現であり,それらも正解と判断する場合は,上位500個で0.954,ランダムに抽出した500個で0.722の抽出精度であった.
| |
V14N03-07
|
本研究の目的は,携帯メールによって収集した大学生の書いた授業感想文の感情評価を行い,学習態度を分析することによって,授業改善のための方略を得ることである.感情評価の基準として,興味,意欲,知識,考察の4つのカテゴリを使い感想文を分類した.その結果形態素レベルでは有意な差を見出せなかったが,文脈から分類した結果,成績の良い学生の感想文には意欲と考察が多く,成績の悪い学生の感想文には興味と知識の多いことが示された.さらに成績が良かった学生と悪かった学生から無作為に1名ずつを選び,その感想文を比較した結果,成績の良い学生は授業内容を再構成しているが,成績の悪い学生は教師が教えたままを示していることが明らかになった.以上により授業改善を行うには,学習者の意欲と考察が増すように,学習者が授業内容を再構成するように改善する必要性が示された.
| |
V18N01-02
|
自動要約,照応解析,質問応答,評判分析などの応用では,文章中の文間の役割的関係や話題の推移の解析が必要になりつつある.本研究ではセンタリング理論と対象知識に基づき談話中の話題の移り変わりを意味的に解析し談話構造を生成する手法を提案し,これに基づく談話構造解析システムDIAを開発した.本研究ではセンタリング理論を拡張し文の依存先の決定に用いる.また,語の語意が表す概念の部分/属性関係,上位—下位関係,類似関係といった対象に関する意味的関係をEDR電子辞書中の共起辞書と概念体系辞書から抽出し,文間の接続関係の決定に用いる.談話の中で話題の推移を表すために談話構造木を定義した.談話構造木では,句点で区切られた文をノードとし,各ノードはただ1つの親ノードを持つ.また,文を接続しているアークに9種類の文間接続関係(詳細化,展開,原因—結果,逆接,遷移,転換,並列,例提示,質問—応答)を付与する.談話構造を決定する手法としては,拡張したセンタリング理論を元に各文に対してそれより前にある文に対して親ノードとなる可能性を得点化し,最高点のものを親ノードとする.次に各文ノード間のアークに対して,その接続関係が9種のそれぞれである可能性を評価する経験的なルールを36個定め,最高得点を得た関係ラベルをアークに付与する.評価実験の結果,接続先の特定では82\%,文間接続関係の判定では81\%の精度を実現した.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.