Datasets:
id
stringlengths 9
9
| text
stringlengths 18
1.29k
| title
stringclasses 1
value |
---|---|---|
V27N04-02
|
%並列構造解析とは等位接続詞によって結びつけられる句を同定するタスクである.並列構造は自然言語の曖昧性の主たる要因の一つであり,最高精度の構文解析器であっても誤りを生じさせる.本研究は,句のペアが並列となる場合に高いスコアを出力するようなスコア関数を定義し,解析時にはスコア関数とCKYアルゴリズムを組み合わせた構文解析によって並列構造を導出する.提案手法では並列構造解析を三つのサブタスクに分解し,それぞれのサブタスクを学習した三つのニューラルネットワークによってスコア関数を構成する.提案手法が並列構造を範囲の競合なく導出できることを保証しつつ,既存手法より高い精度で並列構造を同定できることを英語における評価実験により示す.
| |
V26N02-05
|
ソーシャルメディアにおいては,辞書に掲載されているような用法とは全く異なる使われ方がされている単語が存在する.本論文では,ソーシャルメディアにおける単語の一般的ではない用法を検出する手法を提案する.提案手法では,ある単語が一般的ではない使われ方がされていた場合,その周辺単語は一般的な用法として使われた場合の周辺単語と異なるという仮説に基づいて,着目単語とその周辺単語の単語ベクトルを利用し,注目している単語の周辺単語が均衡コーパスにおける一般的な用法の場合の周辺単語とどの程度異なっているかを評価することにより,一般的ではない用法の検出を行う.ソーシャルメディアにおいて一般的ではない用法を持つ40単語を対象に行った実験の結果,均衡コーパスと周辺単語ベクトルを用いる提案手法の有効性を確認できた.また,一般的でない用法の検出においては,単語ベクトルの学習手法,学習された単語ベクトルの扱い方,学習コーパスを適切に選択することが重要であることがわかった.
| |
V27N01-01
|
%本論文では,日本語係り受け解析器に対する追加訓練の効果を複数のドメインにわたって俯瞰的に調べた結果を報告する.この分析のために,適応先ドメインデータを利用した追加訓練の前後それぞれの誤りを収集し,解析器の内部状態から得られる,密な実数値ベクトルで表現された係り受け誤りの埋め込み表現に対してクラスタリングを行った.得られたクラスタに対する定量的・定性的分析を通じて,係り受け誤りの種類や頻度を,複数の適応先ドメインにわたって,包括的に把握することができた.特に,追加訓練の効果が強く見られたクラスタや,効果が薄かったクラスタについて,それらに属する誤りを観察することで,追加訓練に関するドメインごとの特徴に関する仮説を立て,コーパス上の統計量によって検証するという分析の流れが効率化された.分析の結果から,追加訓練の主要な効果は,類似した文型に対する正しい構文構造の分布がドメイン間で異なることを学習することであるという示唆を得た.
| |
V13N03-04
|
本稿では,テキストから要約スライドを自動生成する手法を提案する.本稿で生成するスライドは,入力テキストから抽出したテキストの箇条書きからなる.それらに適切なインデントを与えるには,対比関係や詳細化関係などといった文または節間の関係を解析する必要がある.本手法では,まず,接続詞などの手がかり表現,語連鎖の検出,二文間の類似度の三つの観点を用いてテキストの談話構造を解析する.そして,テキストから主題部・非主題部を抽出・整形し,抽出したテキストのインデントを談話構造に基づいて決定することにより,スライドを生成する.実験を行なったところ,入力テキストよりもかなり見やすいスライドを自動生成できることが確認された.
| |
V29N04-02
|
%語彙制約付き機械翻訳は,翻訳文に含まれてほしいフレーズが指定された際に,それらのフレーズを含む文を生成するという制約の下で機械翻訳を行うタスクである.本論文では翻訳モデルの入力系列の拡張によってビームサーチによる語彙制約付きデコーディングの探索を効率化する手法を提案する.日英および英日翻訳での実験により,提案手法が従来手法と比べて少ない計算コストで高い翻訳精度を実現できることを確認した.また,自動抽出されたノイズの多く含む語彙制約に対しても語彙制約付き機械翻訳手法を適用する手法を提案し,日英翻訳での実験によって一般的な機械翻訳手法と比べて高い精度が達成可能であることを示した.
| |
V31N04-04
|
%時代とともに意味が変化する単語をコーパスから自動的に検出・分析する研究は,自然言語処理の研究者から注目を集めている.英語やドイツ語などの言語では,時期の異なる学習用コーパス(通時コーパス)の公開や評価用単語セットの作成が進んでいるため,盛んに研究が行われているが,日本語では不十分である.そこで本研究では,日本語の評価用単語セットJaSemChangeを作成した.作成にあたり,近代から現代までを扱う3つの通時コーパスを使用し,対象単語の用例ペアをサンプリングした.19個の対象単語に関する合計2,280の用例ペアに対して4人の専門家が意味類似度をアノテーションし,それらを用いて単語の意味変化度合を算出した.その後,本評価セットを用いて,単語ベクトルに基づく意味変化検出手法の性能評価を行った.頻度に基づく手法をベースラインとし,タイプベースとトークンベースの代表的な手法の性能を比較し,それぞれの手法の特徴を議論した.本研究で作成した,意味変化度合が付与された単語セット,および用例ペアに対するアノテーションスコアはGitHubで公開した.\renewcommand{\thefootnote}{}\footnote[0]{本研究はPacificAsiaConferenceonLanguage,InformationandComputation(PACLIC37)及び,言語処理学会第30回年次大会(NLP2024)で発表した内容\cite{ling-etal-2023-construction,凌-etal-2024-拡張}を拡張したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V22N05-02
|
\rule{0pt}{1\Cvs}ソーシャルメディアサービスの普及により,人々や社会の状況を調査する新しいアプローチが開拓された.ひとつの応用事例として,ソーシャルメディアの投稿から疾患・症状の流行を検出する公衆衛生サーベイランスがある.本研究では,自然言語処理技術を応用して,ソーシャルメディアの投稿から風邪やインフルエンザなどの罹患を検出するタスクに取り組んだ.最先端のシステムのエラー分析を通じて,事実性解析と主体解析という重要かつ一般性のあるサブタスクを見い出した.本研究では,これらのサブタスクへの取り組みを行い,罹患検出タスクへの貢献を実証した.
| |
V12N04-03
|
本論文では,構造化された言語資料の検索・閲覧を指向した全文検索システムである『ひまわり』の設計,および,その実現方法を示す。ここで言う「構造化された言語資料」とは,コーパスや辞書のように,言語に関する調査,研究などに利用することを目的として,一定の構造で記述された資料一般を指す。『ひまわり』は,言語資料の構造化形式の多様性と利用目的の多様性に対応した設計がなされている。構造化形式の多様性については,言語資料がXMLで構造化されていることを想定して,XML文書に対する全文検索機能を実現した。全文検索に付け加えて,マークアップされている情報の抽出や抽出された情報に基づく検索結果の制約を行うことも可能である。また,SuffixArrayなどの索引を用いて,検索の高速化を図っている。一方,言語資料に適した検索式と閲覧形式を柔軟に定義できるようにすることにより,利用目的の多様性に対処した。閲覧形式は,KWIC表示機能を備えた表形式での閲覧を基本とし,ルビなどの通常のテキストでは表現できない表示形式や音声,画像に対しては,XSL変換などを介して外部閲覧システムにデータを受け渡す方法を用いる。多様性に対する『ひまわり』の有効性を検証するために,『分類語彙表』,および,『日本語話し言葉コーパス』に『ひまわり』を適用し,定性的な評価を行うとともに,検索速度測定による定量的な評価を行った。
| |
V29N02-08
|
%本稿では,雑談対話システムにおける対話破綻を生じさせる発話の類型を提案する.対話破綻の類型に関して先行研究では,「理論に基づいた類型」と「データに基づいた類型」が提案されてきた.前者は,依拠している人どうしの対話についての理論が,雑談対話システムの対話破綻現象を捉えるのに適さないことが多いという問題点がある.後者は,データを取得したシステムの対話破綻にしか対応できないという限界がある.本稿では,これら二つの類型の問題点をそれぞれが補い合う形で統合し,雑談対話システムにおける対話破綻を生じさせる発話の類型を新しく作成した.対話破綻類型アノテーション実験の結果,この統合的な類型は以前に提案された類型と比較して,Fleissの$\kappa$値において高い一致率を達成し,安定したアノテーションが行えることがわかった.
| |
V09N01-04
|
本論文では,日本語固有表現抽出の問題において,複数のモデルの出力を混合する手法を提案する.一般に,複数のモデル・システムの出力の混合を行なう際には,まず,できるだけ振る舞いの異なる複数のモデル・システムを用意する必要がある.本論文では,最大エントロピー法に基づく統計的学習による固有表現抽出モデルにおいて,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なう可変(文脈)長モデルと,常に現在位置の形態素の前後数形態素ずつまでを考慮して学習を行なう固定(文脈)長モデルとの間のモデルの挙動の違いに注目する.そして,複数のモデルの挙動の違いを調査し,なるべく挙動が異なり,かつ,適度な性能を保った複数のモデルの出力の混合を行なう.次に,混合の方式としては,複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段目の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法(stacking法)を採用する.第二段目の学習器として決定リスト学習を用いて,固定長モデルおよび可変長モデルの出力を混合する実験を行なった結果,最大エントロピー法に基づく固有表現抽出モデルにおいてこれまで得られていた最高の性能を上回る性能が達成された.
| |
V15N03-04
|
本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案する.基本的なアイデアは「定型文」「箇条書き」「表」といった記述形式を利用するというものである.本手法に必要なのは少数の規則だけであるため,人手をほとんどかけずに評価文を収集することが可能である.また,任意のHTML文書に適用できる手法であるため,様々なドメインの評価文を収集できることが期待される.実験では,提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた.
| |
V03N02-04
|
日本語においては主語が頻繁に省略されるため,省略された主語すなわちゼロ主語の指示対象同定が重要である.複文は従属節と主節からなるので,主節主語と従属節主語がある.したがって,複文の理解に不可欠なゼロ主語の指示対象同定の問題は,2段階に分けて考えるべきである.第一の段階では,主節主語と従属節主語が同じ指示対象を持つかどうか,すなわち共参照関係にあるかどうかの分析である.第二の段階では,第一段階で得られた共参照関係を利用して,実際のゼロ主語の指示対象同定を行なう.このうち,第一の共参照関係の有無は,複文のゼロ主語の扱いにおいて固有の問題であり,本論文ではこの第一の問題について主として小説に現れるノデ,カラで接続される順接複文について分析した.分析は,主節および従属節の述語の意味をIPAの動詞形容詞辞書の分類に従って分類し,各々の述語がどのような分類の場合において共参照するかしないかを調べた.この結果,共参照関係の同定に有力であるいくつかのデフォールト規則を見い出した.
| |
V10N01-01
|
本論文では,固有表現抽出の難易度をテストコーパスから評価する指標を提案する.固有表現抽出システムの性能は客観的な指標によって評価される.しかし,システムの出力に対する評価だけでは,あるコーパスに対する固有表現抽出がどのように難しいのか,どのような情報がそのコーパスに対して固有表現抽出を行なう際に有効なのかを知ることは難しい.本論文で提案する指標は,個々のシステムの出力に依存することなく,複数のコーパスについて統一的に適用できる.指標の有効性は固有表現抽出システムの性能評価と比較することで検証される.さらに固有表現のクラス間における難易度の比較や,有用な情報の違いについても議論する.
| |
V06N04-03
|
本稿は,「まあ,嬉しい!」のような発話者が感情を思わず口にした「感情表出文」とはどのようなものか,感情主の制約のあり方と,統語的特徴から分析したものである.\\感情述語の人称制約は2種類のムードに関わる問題である.一つは,「述べ立てのムード」,もう一つは「感情表出のムード」である.前者のムードを持つ「述べ立て文」に生じる人称制約は語用論的なものであり,一人称感情主の場合が多いが,条件が整えば他の人称も可能である.一方,感情主が一人称以外ではあり得ないような人称制約を持つタイプの文がある.これを,感情表出のムードを持つ「感情表出文」と定義した.\\その上で,感情表出文の統語的特徴について検討した結果,感情表出文は,述語が要求する感情主や感情の対象といった意味役割を統語的に分析的な方法では言語化しない,すなわち述語一語文であるという事実を明らかにした.\\一語文では,言語文脈上に意味役割の値を参照することができないため,発話現場に依存して決めるしか方法がなく,感情主は発話現場の発話者,感情の対象は発話時の現場のできごとに自動的に決まる.よって,一語文は感情表出文のムードに適合する.一方,意味役割を言語化した文は,意味役割を発話現場に依存する必要がないため,発話現場に拘束されない.こうしたことから,感情表出文は述語一語文でなければならないと結論づけた.
| |
V30N01-02
|
%UniversalDependencies(UD)は言語横断的に単語の依存構造に基づくツリーバンクを構築するプロジェクトである.全言語で統一した基準により,品詞・依存構造アノテーションデータの構築が100言語以上の言語について進められている.分かち書きをしない言語においては,基本単位となる\textbf{構文的な語(syntacticword)}を規定する必要がある.従前の日本語のUDデータは,形態論に基づく単位である国語研短単位を採用していた.今回,我々は新たに構文的な語に近い単語単位である\textbf{国語研長単位}に基づく日本語UDである\textbf{UD\_Japanese-GSDLUW},\textbf{UD\_Japanese-PUDLUW},\textbf{UD\_Japanese-BCCWJLUW}を構築したので報告する.
| |
V27N02-05
|
%単語間の意味関係識別,特に名詞ペアの識別は,言語理解に用いられるWordNetなどの語彙知識ベースの自動的な拡充にとって重要である.意味関係識別の効果的なアプローチに,対象の単語ペアとコーパス上で共起した,単語ペアを文中で結びつける単語系列,あるいは依存構造パスなどの関係パタンを用いるものがある.関係パタンは意味関係を反映しているため,意味関係識別に重要な特徴である.関係パタンに基づく手法は,対象の単語ペアのコーパス上での共起を必要とするが,単語の出現頻度分布はジフの法則に従うことが知られており,大抵の内容語は低頻度であるため,この要請は大規模コーパスを扱ったとしても必ずしも満たされるわけではない.本研究では,この問題を解決するために,関係パタンの情報を反映した単語ペアの埋め込み表現を,コーパスから教師なし学習する手法を提案する.本手法はニューラルネットワークで単語ペアと関係パタンの共起を汎化することで,コーパス上で十分に共起しなかったペアに対しても,単語ペア埋め込みを通して関係パタンの情報を意味関係識別モデルに提供する.実験により,本手法による単語ペア埋め込みを最先端の関係パタンに基づく手法に適用すると,4つの意味関係識別データセットの名詞ペアについて性能が向上し,適切に共起の問題を緩和できていることがわかった.
| |
V14N05-07
|
日本語には,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ機能表現という表現が存在する.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.そして,この表現が存在することによって,機能表現の検出は困難であり,機能表現を正しく検出できる機能表現検出器が必要とされている.そこで,本論文では,日本語機能表現を機械学習を用いて検出する手法を提案する.提案手法では,SupportVectorMachine(SVM)を用いたチャンカーYamChaを利用して,形態素解析結果を入力とする機能表現検出器を構築する.具体的には,形態素解析によって得られる形態素の情報と,機能表現を構成している形態素の数の情報,機能表現中における形態素の位置情報,機能表現の前後の文脈の情報を学習・解析に使用することにより,F値で約93\%という高精度の検出器を実現した.さらに,本論文では,機能表現検出器の解析結果を入力として,機能表現を考慮した係り受け解析器を提案する.提案手法では,SupportVectorMachine(SVM)に基づく統計的係り受け解析手法を利用して,機能表現を考慮した係り受け解析器を構築する.具体的には,京都テキストコーパスに対して,機能表現の情報を人手で付与し,機能表現の情報を基に文節の区切りや係り先の情報を機能表現を考慮したものに変換した.そして,SVMに基づく統計的係り受け解析の学習・解析ツールCaboChaを用いて,変換したデータを学習し,機能表現を考慮した係り受け解析を実現した.評価実験では,従来の係り受け解析手法よりもよい性能を示すことができた.
| |
V32N02-06
|
%大規模言語モデル(LLM)はその豊富な知識により,様々な既知の課題を解決した.しかしながらLLMは,推論を用いて新規な課題を解くことを苦手とする.我々はこの問題に対して,「ルールベースで生成した人工論理推論サンプルの学習によって,LLMの推論能力を向上させる」というアプローチを提案する.まず,「どのようなサンプルを設計すれば良いか?」という議論から始める.記号論理学や過去の哲学的論考,また近年の先行研究や我々の予備実験から得られている知見を参照しつつ,設計の指針を打ち立てていく.次に,この設計指針に基づき,多様な推論規則からなる深い推論サンプルを大量に自動生成し,人工論理推論コーパス\textbf{\PLDItalic}(\PLDAbbr)を構築する.最後に,\PLDAbbrでの追加学習がLLMの推論能力を向上させられることを確認する.その結果,LLaMA-3.1(8B/70B)に対して,論理推論で最大30ポイント,数学で最大7ポイント,コーディングで最大10ポイント,BBHベンチマーク群で5ポイント,の精度向上を達成した.\renewcommand{\thefootnote}{}\footnote[0]{$^*$EqualContribution}\footnote[0]{$^\dagger$WorkdoneatHitachi}\footnote[0]{本稿は以下の発表を基に構成した:\cite{morishita2023NLP-FLD,morishita2023JSAI-FLD,morishita_2024_NLP_JFLD,morishita_2024_JSAI_FLD_diverse,pmlr-v202-morishita23a,morishita_2024_NeurIPS_FLD_diverse,morishita-etal-2024-jfld}}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V27N02-02
|
%本稿では,抽出型要約手法におけるオラクル要約,すなわち自動評価スコアを最大化する要約を生成するための整数計画問題による定式化を示し,抽出型要約システムが到達可能な自動評価スコアの上限値を明らかにする.そして,オラクル要約の妥当性を検証するため,ピラミッド法とDocumentUnderstandingConference(DUC)で利用されたQualityQuestionsを用いて内容と言語品質の双方の観点から人手評価を行う.文抽出,ElementaryDiscourseUnit(EDU)抽出,根付き部分木抽出の3種の抽出型要約手法を対象とし,TextAnalysisConference(TAC)2009/2011のデータセットを用いてROUGEとBasicElements(BE)を最大化するオラクル要約を生成してそれらを評価した.その結果,抽出型オラクル要約の自動評価のスコア,ピラミッド法による評価スコアは現状の要約システムのスコアよりも明らかに優れていることがわかった.一方,言語品質に関しては現状の要約システムと差がない,あるいは劣る結果となった.これらより,抽出だけでもまだ良い要約を生成できる余地がある一方,言語品質を改善する必要が明らかとなった.
| |
V11N04-04
|
本稿では,機械翻訳システムの辞書に登録されておらず,かつ(対応付け誤りを含む)対訳コーパスにおいて出現頻度が低い複合語を対象として,その訳語を抽出する方法を提案する.提案方法は,複合語あるいはその訳語候補の内部から得られる情報と,複合語あるいはその訳語候補の外部から得られる情報とを統合的に利用して訳語対候補に全体スコアを付ける.全体スコアは,複合語あるいはその訳語候補の二種類の内部情報と二種類の外部情報に基づく各スコアの加重和を計算することによって求めるが,各スコアに対する重みを回帰分析によって決定する.読売新聞とTheDailyYomiuriの対訳コーパスを用いた実験では,全体スコアが最も高い訳語対(のうちの一つ)が正解である割合が86.36\%,全体スコアの上位二位までに正解が含まれる割合が95.08\%という結果が得られ,提案手法の有効性が示された.
| |
V21N03-03
|
大学入試センター試験『国語』の現代文で出題される,いわゆる「傍線部問題」を解く方法を定式化し,実装した.本方法は,問題の本文の一部と5つの選択肢を照合し,表層的に最も類似した選択肢を選ぶことにより問題を解く.実装した方法は,「評論」の「傍線部問題」の半数以上に対して正解を出力した.
| |
V32N02-05
|
%高性能かつ頑健な言語処理モデルを構築するために,多様な質問応答(QA)データセットにおける訓練,評価,分析が重要である.しかし,多様なQAデータセットが存在する言語は英語だけであり,他の言語では少数のQAデータセットしか存在しない.我々は,少数の基本的なQAデータセットしか存在しない日本語を対象とし,人間の情報欲求から自然に発生する質問からなるNaturalQuestions(NQ)の日本語版を構築する.自然な質問を収集するために検索エンジンのクエリログを用い,アノテーションのコストを低減するためにクラウドソーシングを用いて,JapaneseNaturalQuestions(JNQ)を構築した.また,NQの派生でyes/no質問からなるBoolQの日本語版JapaneseBoolQ(JBoolQ)を構築した.どちらのデータセットを構築する際においても,より良いデータセットを得るために,オリジナルのNQもしくはBoolQのデータセット仕様を再定義した.JNQは16,641質問文,JBoolQは6,467質問文からなる.さらに,JNQから3つのタスク,JBoolQから一つのタスクを定義し,それぞれのベースラインモデルを作成し評価した.これらのデータセットにより,日本語におけるQAモデルや言語処理モデルの研究が促進されることが期待される.\renewcommand{\thefootnote}{}\footnote[0]{本論文の内容の一部は,*SEM2024(植松他2024),言語処理学会第30回年次大会(植松他2024)で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V04N01-08
|
\quad本論文では,括弧付きコーパスから確率文脈自由文法を効率良く自動的に抽出する方法を提案する.文法規則の抽出は,日本語の主辞が句の一番最後の要素であるという特徴を利用して,括弧付けによる構文構造の内部ノードに適切な非終端記号を与えることによって行う.また,文法規則の確率は規則のコーパスにおける出現頻度から推定する.さらに,文法サイズの縮小と解析木数の抑制という2つの観点から,抽出した文法を改良するいくつかの方法を提案する.文法サイズの縮小は,文法に含まれる冗長な規則を自動的に削除することによって行う.解析木数の抑制は,(1)同一品詞列に対して右下がりの二分木のみを生成し,(2)``記号''と``助詞''の2つの品詞を細分化し,(3)法や様態を表わす助動詞に対する構造を統一することにより行う.最後に,本手法の評価実験を行った.約180,000の日本語文から確率文脈自由文法の抽出およびその改良を行ったところ,2,219の文法規則を抽出することができた.抽出された文法を用いて20,000文のテスト例文を統語解析したところ,受理率が約92\%となり,適用範囲の広い文法が得られたことを確認した.また,生成確率の上位30位の解析木の評価を行ったところ,括弧付けの再現率が約62\%,括弧付けの適合率が約74\%,文の正解率が約29\%という結果が得られた.
| |
V16N04-04
|
本論文では,学習者向けの作文支援手法として,学習者,教師,システム間で互いに作文に関する知識を教えあう相互教授モデルを提案し,{\modaWebベースの作文支援システムを実現した.}適用対象として,大学の作文教育を想定する.対象とする文章は,レポートなどの,一定の書式と文章構造が規定される文章とする.従来の作文支援システムの問題点として,(a)文章構成や作文の内容に対する支援など,意味処理が必要となる支援が困難であること,(b)教師の指導意図をシステムの動作に反映させる仕組みを持たず,実際の授業で運用しにくいことが挙げられる.相互教授モデルでは,作文の言語的・内容的制約を記述する「作文規則」を用いて,教師からシステムへの指導意図の伝達を可能にした.さらに,学習者による作文へのマークアップ,および,学習者同士の添削を導入し,文章構成や作文の内容に対する支援を含めた作文支援を行う.システムは学習者のマークアップ結果を利用しつつ,作文規則を作文に適用し,誤りを指摘する.{\mod本論文では,提案手法,従来手法による作文実験を行い,相互教授モデルと作文規則の有効性を確認した.}
| |
V24N03-02
|
元来から日本は外来語を受け入れやすい環境にあるといわれており,外来語が益々増加する中,特に,英語の場合,外国語の表記を利用するシーンも増えている.また,英単語など頭文字をつなげて表記する略語も利用されている.しかし,英字略語は別のことを表現しても,表記が同じになる多義性の問題を持っている.そこで,本稿では,英字略語の意味を推定する方法を提案する.提案手法では,英字略語の意味推定を未知語の意味推定とみなし,ある概念から様々な概念を連想する語彙の概念化処理を可能とする概念ベースと,概念化した語彙の意味的な近さを判断できる関連度計算またはEarthMover'sDistanceを用いる.さらに,英字略語ゆえの情報の欠如を,世界で最も収録語数が多いとされているWikipediaを使用することで補完する.これらを用いることで,英字略語の多義性を解消し,英字略語の本来の意味を推定する.提案手法は,129件の新聞記事に対して,最高で80\%近い正答率を示したことに加え,比較方法より良好な結果を得ることができた.
| |
V17N01-08
|
本論文ではentitygridを用いたテキストの局所的な一貫性モデルに対する改善について述べる.entitygridベースの既存モデルに対して,テキスト結束性に寄与する要素である接続関係,参照表現,語彙的結束性,また,より詳細な構文役割の分類を組み込んだモデルを提案し,その性能を検証する.語彙的結束性に関しては,語彙的連鎖を用いたクラスタリングを行う.テキスト中の文の並びに対して,より一貫性のある文の順番の判定と,人手による評価に基づいた要約テキストの比較の2種類の実験を行い,その結果,本論文で提案する要素がentitygridモデルの性能の改善に寄与することが明らかになった.
| |
V19N05-04
|
近年,ウェブの情報を用いて,感染症などの疾病状態を監視するシステムに注目が集まっている.本研究では,ソーシャルメディアを用いたインフルエンザ・サーベイランスに注目する.これまでの多くのシステムは,単純な単語の頻度情報をもとに患者の状態を調査するというものであった.しかし,この方法では,実際に疾患にかかっていない場合の発言を収集してしまう恐れがある.また,そもそも,医療者でない個人の自発的な発言の集計が,必ずしもインフルエンザの流行と一致するとは限らない.本研究では,前者の問題に対応するため,発言者が実際にインフルエンザにかかっているもののみを抽出し集計を行う.後者の問題に対して,発言と流行の時間的なずれを吸収するための感染症モデルを提案する.実験においては,Twitterの発言を材料にしたインフルエンザ流行の推定値は,感染症情報センターの患者数と相関係数0.910という高い相関を示し,その有効性を示した.本研究により,ソーシャルメディア上の情報をそのまま用いるのではなく,文章分類や疾患モデルと組み合わせて用いることで,さらに精度を向上できることが示された.
| |
V30N01-06
|
%自然言語文をベクトルとして表現する文埋め込みは,深層学習を用いた自然言語処理の基礎技術として盛んに研究されており,特に自然言語推論(NaturalLanguageInference;NLI)タスクに基づく文埋め込み手法が成功を収めている.しかし,これらの手法は大規模なNLIデータセットを必要とすることから,そのようなNLIデータが整備された言語以外については高品質な文埋め込みの構築が期待できないという問題がある.本研究ではこの問題を解決するため,NLIデータと比べて多くの言語において整備が行われている言語資源である辞書に着目し,辞書の定義文を用いた文埋め込み手法を提案する.また,標準的なベンチマークを用いた評価実験を通し,提案手法は既存のNLIタスクに基づく文埋め込み手法と同等の性能を実現すること,評価タスクの性質や評価データの抽出方法により性能に差異が見られること,これら2手法を統合することでより高い性能を実現できることを示す.
| |
V04N03-02
|
本稿では,語義の尤度パラメータの標本空間を,シソーラスに沿って動的に拡張することにより,動詞の多義性を解消する手法を提案する.提案手法では,尤度1位の語義と2位の語義とを比較し,尤度差が統計的に有意ならば,1位の語義を選ぶ.有意でなければ,シソーラスに沿って標本空間を一段拡張し,多義性解消を試みる.もし,最大の標本空間でも尤度差が有意でなければ,語義は判定しない.本稿の実験では,EDR日本語コーパスから頻度500以上の動詞74語を抽出し,延べで約89,000の動詞について多義性を解消した.このとき,最頻の語義を常に選ぶ場合の適合率は0.65,判定率は1.00であった.ただし,判定率とは,多義性の解消を試みたなかで,実際に語義が判定された割合である.クラスベースの手法と提案手法とを比較すると,分類語彙表を利用した場合には,適合率は共に0.71であったが,判定率は,クラスベースの手法が0.68,提案手法が0.73であった.EDR概念体系を利用した場合には,適合率は共に0.70であったが,判定率は,クラスベースの手法が0.76,提案手法が0.87であった.両者の判定率を比べると,提案手法の方が統計的に有意に高く,その有効性が示された.
| |
V09N03-03
|
文内要約の一要素技術として,連用修飾表現の省略可能性に関する知識を獲得する手法を提案する.具体的には,省略できる可能性のある連用修飾表現を含む節に対して,同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.また,連用修飾表現の内容および前後の文脈を考慮して,重要な情報が多く含まれている連用修飾表現に対しては省略可能と認定できる可能性を低く,逆に,認定対象としている連用修飾表現に,それより以前の文に存在する情報が含まれている場合に対しては,省略可能と認定できる可能性が高くなるような工夫を施した.本手法によって省略可能と認定された連用修飾表現を評価したところ,適合率78.0\%,再現率67.9\%との結果を得た.また,本手法を,格フレーム辞書によって動詞に対する任意格として記述される格要素を,省略可能な連用修飾表現として認定する手法と比較した.その結果,適合率,再現率ともに比較手法より良好な結果を得ることができ,提案手法の有効性を確認した.
| |
V06N04-01
|
日本語の照応関係理解のプロセスにおいて,どのようなストラテジーが関与しているのかについて,言語心理学的実験を通して考察した.実験1では,自己のペースによる読解課題およびプローブ認識課題を用いて,日本語の主語を表す「が」と主題を表す「は」の違いが照応関係理解に影響を及ぼすかどうかについて調査した.その結果,「は」でマークされた名詞句で読解時間がかかる傾向が見られ,それを照応表現の指示対象として優先する傾向が見られた.また,プローブ認識課題では,主題を表す「は」の影響が見られ,目的語名詞句よりも主語名詞句をプローブ語として呈示した場合の方が判断時間が速い傾向が見られた.このように,主題の影響が見られたことから,「主題割当方略」とでも言うべきストラテジーが利用されていることが分かった.実験2では,英語の実験に基づいて提案されている「主語割当方略」や「平行機能方略」と呼ばれるストラテジーが日本語の照応理解にも利用されるのかどうかについて調査した結果,parallelな構造をもつ文では,平行機能方略が用いられることが分かった.さらに実験3では,これら2つのストラテジーおよびその他のストラテジーと主題割当方略との相互関係について調査を行った.その結果,日本語の照応関係理解のプロセスでは,これらのストラテジー競合する場合,主題割当方略が優先的に利用されることが分かった.このことは,日本語が「主題卓立言語」としての性質を持っていることを示している.
| |
V07N02-03
|
1991年から1997年までの毎日新聞7年分の電子テキスト(約3.4億文字)を対象に,使用されている文字種すべて(5,726;空白文字を除く)について,その出現率(出現頻度)が,面種(e.g.,解説面,スポーツ面,社会面),月次,年次の3つの要因に関して,どの程度まで系統的な変動を示すかを検討した.5,726文字種のうち,16の面種間による出現率の差は69.2\%で,月次による出現率の差は20.3\%で,年次による出現率の差は43.9\%で認められた.低出現率の文字(0.001‰未満)を除いた2,732文字種では,さらに変動は顕著で,面種差は98.4\%で,月次差は33.5\%で,年次差は76.0\%で認められた.このように,紙面の種類と時系列によって,新聞の文字使用が系統的に変動することが,広範に確認された.こうした語彙表現に関わる変動現象は,大量のテキストに基づいて文字や単語の計量を行うような研究ではあまり関心が払われてこなかったが,変動のもつ規則性は,それ自体,精細な分析の対象となりうるものである.
| |
V24N04-02
|
本研究では,金融分野に特化した極性辞書の作成を目的とし,ニュースデータと株式価格データから極性辞書の作成を行う.株式価格情報から単語のポジティブ/ネガティブの情報を獲得するため,ニュース記事が言及している銘柄の株式価格変動を算出する.株式価格変動をニュース記事の教師情報として,教師あり学習を行ったのち,学習器から単語の極性情報を抽出することで,単語に対して重み付き極性値の付与を試みた.そして,作成した極性辞書を用いて,学習に用いたメディアのニュース記事分類と他メディアのニュース記事分類を行うことにより,本研究手法の有効性を検証した.検証の結果,ニュース記事配信日の株式リターンに関して,将来のニュース記事を分類できること,また,異なるメディアのニュース記事も分類できることを示した.一方で,ニュース記事配信日から2営業日以上離れると,ニュース記事分類が困難であることが示された.
| |
V03N04-02
|
日本語を英語に翻訳する時には,日本語にはないが英語では必要な冠詞や数の問題に直面する.この難しい問題を解決するために,われわれは文章における名詞句の指示性と数をそれぞれ三種類に分類した.指示性には総称名詞句,定名詞句,不定名詞句を設け,数には単数,複数,不可算を設けた.この論文では,名詞句の指示性と数がその名詞句の現れる文中の言葉によりかなりの程度推定できることを示した.その推定のための規則は確信度付きのエキスパートシステムの書き換え規則に類する形で,文法書などから得られる知識をもとに経験的に作成した.この方法は,確信度を用いて推定するので,指示性や数のような曖昧な問題には適した方法である.規則を作るのに利用したテキストでの正解率は,指示性で85.5\%,数で89.0\%であった.規則を作るのに利用していないいくつかのテキストでの正解率は平均して指示性で68.9\%,数で85.6\%という結果となった.この指示性と数は冠詞の決定に利用されるのみならず,照応処理,談話解析にも利用されていくと考えられる.
| |
V02N04-04
|
本論文では,話者の対象認識過程に基づく日本語助詞「が」と「は」の意味分類を行ない,これを一般化LR法に基づいて構文解析するSGLRパーザの上に実装し,その有用性を確認した結果について述べる.話者の対象認識過程とは,対象を認識し,それを言語として表現する対象を概念化し,対象に対する話者の見方や捉え方,判断等を識別する過程のことをいう.筆者らは,特に,三浦文法に基づいて考案された日本語の助詞「が」と「は」,及び「を」と「に」についての意味規則を考案し,これを用いてその規則の動作機構をDCGの補強項で実現し,SGLRパーザで実行できるようにしている.実験の結果,意味解析と構文解析の融合に成功し,構文的曖昧性を意味分類により,著しく削減できることがわかった.
| |
V10N04-09
|
本稿では,日本語のテンス・アスペクト表現を中国語に機械翻訳する手法を提案した.具体的には,日本語のテンス・アスペクト表現で主要な役割を果す「タ/ル/テイル/テイタ」を,両言語の文法特徴・共起情報,中国語述語の時間的性格を主要な手がかりとして,中国語のアスペクト助字(了/着/在/\kanji{001})または無標識の$\phi$に翻訳するアルゴリズムを提案した.まず先行研究から両言語におけるテンス・アスペクト表現の意味用法およびその意味用法間の対応関係をまとめた.そして,対応の曖昧さを解決するために,機械翻訳の立場から,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムを提案した.最後に,作成した翻訳アルゴリズムを評価し,約8割正解という良好な結果を得た.
| |
V07N05-04
|
本稿では、日本語係り受け解析のための統計的手法について述べる。この手法は、統計値の計算方法が従来の手法と異なる。従来の手法では、2つの文節間が依存関係にある確率をそれぞれの文節の組に対して計算するが、本研究で提案する「3つ組/4つ組モデル」は、係り元の文節と係り先の文節の候補となる全ての文節に関する情報を確率の条件部として、ある文節が係り先として選択される確率を求める。なお、係り先の候補は、HPSGに基づいた文法及びヒューリスティクスによって高々3つに絞られる。確率の推定には最大エントロピー法を用いており、我々の構文解析器はEDRコーパスに対して文節正解率88.6$\%$という高い解析精度を達成した。
| |
V06N07-03
|
GeorgeA.Millerは人間の短期記憶の容量は7±2程度のスロットしかないことを提唱している.本研究では,京大コーパスを用いて日本語文の各部分において係り先が未決定な文節の個数を数えあげ,その個数がおおよそ7±2の上限9程度でおさえられていたことを報告した.また,英語文でも同様な調査を行ないNP程度のものをまとめて認識すると仮定した場合7±2の上限9程度でおさえられていたことを確認した.これらのことは,文理解における情報の認知単位として日本語で文節,英語ではNP程度のものを仮定すると,Millerの7±2の理論と,言語解析・生成において短期記憶するものは7±2程度ですむというYngveの主張を整合性よく説明できることを意味する.
| |
V20N03-06
|
東日本大震災では,「コスモ石油の爆発で有害物質の雨が降る」などの誤情報の拡散が問題となった.本研究の目的は,東本日大震災後1週間の全ツイートから誤情報を網羅的に抽出し,誤情報の拡散と訂正の過程を分析することである.本稿では,誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を認識する手法を提案する.具体的には,訂正パターンを人手で整備し,訂正パターンにマッチするツイートを抽出する.次に,収集したツイートを内容の類似性に基づいてクラスタリングし,最後に,その中から誤情報を過不足なく説明する1文を選択する.実験では,誤情報を人手でまとめたウェブサイトを正解データとして,評価を行った.また,誤情報とその訂正情報の拡散状況を,時系列で可視化するシステムを構築した.本システムにより,誤情報の出現・普及,訂正情報の出現・普及の過程を分析できる.
| |
V30N03-03
|
%共通基盤を構築可能な対話システムを実現するためには,対話において共通基盤が構築される過程を明らかにすることが重要である.しかしながら,既存研究では対話の結果得られる最終的な成果物のみを共通基盤と関連付けて分析しており,共通基盤が構築される過程は明らかにされていない.本研究では,共同作業を行う対話において,共通基盤構築の過程を明らかにすることを目指し,データ収集手法を提案する.具体的には,課題の中間結果をその時点における共通基盤に相当するものとして,自動的に記録するデータ収集手法を提案する.提案手法を用いて984対話を収集し,共通基盤構築の過程を定量的に調査した結果,共通基盤の構築過程にいくつかのパタンが見られた.また,共感や同意,ポジティブな表現を通じて自身の理解を伝える発話が出現している場合,共通基盤が構築されている傾向にあると考えられる.さらに,対話中の共通基盤構築の度合いを対話や課題の内容から推定する実験を行い,双方の内容が推定に有用なことを示した.\renewcommand{\thefootnote}{}\footnote[0]{本研究はLREC2022の予稿集における``DialogueCollectionforRecordingtheProcessofBuildingCommonGroundinaCollaborativeTask''をもとに翻訳したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V02N01-04
|
文章(テキスト)の執筆者の推定問題などに対して,文章の内容や成立に関する歴史的事実の考証とは別に,文章から著者の文体の計量的な特徴を抽出し,その統計分析によって問題解決を試みる研究が多くの人々の注目をあつめつつある.文章に関するどのような要素に著者の特徴が現れるかについて,欧米文に関してはいくつかの研究の例があるが,それは言語によって異なるとも考えられるため,欧米文に関する研究成果が日本文の場合にもあてはまるかについて実証的な研究が必要である.また,各言語はその言語における著者の特徴を表す独特な要素があることも考えられる.本論文では,今まで明らかにされていない,日本文における動詞の長さの分布に著者の特徴が現れることと,その結果が動詞中の漢語・和語,合成語・非合成語の使用率の影響ではないことを著者3人の計21の文章を用いて明らかにした.計量分析の手法としては,同一著者の文章における動詞の長さの分布間の距離の平均値と,異なる著者の文章における動詞の長さの分布の距離の平均値との差,および距離マトリックスを用いて主成分分析を行うという方法を用いて数量・視覚的文章の分類を試みた.
| |
V22N03-03
|
近年の抽出型要約の多くの手法は,原文書の情報を網羅し,かつ与えられる要約長の制約に柔軟に対応すべく,文抽出と文圧縮を併用した組み合わせ最適化問題として要約を定式化している.つまり,文書から文という文法的な単位を維持するよう単語を抽出することで要約を生成している.従来の手法は非文の生成を避けるため,構文木における単語間の関係を利用して文を圧縮しているものの,文書における大域的な文と文の間の関係,つまり談話構造には着目してこなかった.しかし,談話構造を考慮することは要約の一貫性を保つ上で非常に重要であり,文書の重要箇所の同定にも役立つ.我々は,文書を文間の依存関係,単語間の依存関係をあらわした入れ子依存木とみなし,単語重要度の和が最大となるように木を刈り込むことで要約を生成する手法を提案する.実験の結果,提案手法が要約精度を有意に向上させたことが確認できた.
| |
V06N02-05
|
自然で自発的な発話を対象とする音声翻訳ないし音声対話システムへの入力としての発話は文に限定できない.一方,言語翻訳処理における処理単位は文である.話し言葉における文に関して,計算機処理から見て十分な知見は得られていないので,文の代わりに「言語処理単位」と呼ぶことにする.まず,一つの発話を複数の言語処理単位に分割したり,複数の発話をまとめて一つの言語処理単位に接合する必要があることを,通訳者を介した会話音声データを使って示す.次に,ポーズと細分化された品詞の$N$-gramを使って,発話単位から言語処理単位に変換できることを実験により示す.
| |
V10N03-07
|
本稿では,2001年に行なわれたSENSEVAL2コンテストの日本語辞書タスクでのわれわれの取り組みについて述べる.われわれは機械学習手法を用いるアプローチを採用した.この研究では数多くの機械学習手法と素性を比較検討し用いている.コンテストには,我々は,サポートベクトルマシン法,シンプルベイズ法,またそれらの組み合わせのシステム二つの合計4システムを提出し,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.現在もっとも性能の高いシステムは二つのシンプルベイズ法を組み合わせたシステムであり,その精度は0.793である.また,本稿では素性を変更した実験もいくつか追加で行ない,各素性の有効性,特徴を調査した.その調査結果では文字列素性のみを用いても比較的高い精度が得られるなどの興味深い知見が得られている.また,関連文献も紹介し,今後の多義解消の研究のための有益な情報を提供した.
| |
V26N03-03
|
本稿では,参照文を用いた文単位での機械翻訳自動評価手法について述べる.現在のデファクトスタンダードであるBLEUをはじめとして,多くの従来手法は文字や単語の$N$-gramに基づく素性に頼っており,文単位での評価にとっては限定的な情報しか扱えていない.そこで本研究では,文全体の大域的な情報を考慮するために,事前学習された文の分散表現を用いる機械翻訳自動評価手法を提案する.提案手法では,大規模コーパスによって事前学習された文の符号化器を用いて,翻訳文と参照文の分散表現を得る.そして,翻訳文と参照文の分散表現を入力とする回帰モデルによって,人手でラベル付けされた翻訳品質を推定する.WMT-2017MetricsSharedTaskにおける翻訳品質のラベル付きデータセットを用いた実験の結果,我々の提案手法は文単位の全てのto-English言語対において最高性能を達成した.
| |
V09N01-01
|
本稿では,生コーパスから格フレームを自動的に構築する手法を提案する.格フレームの自動構築における最大の問題は,用言の用法の多様性をどのように扱うかということである.本研究では,用言と直前の格要素の組を単位としてコーパスから格要素と用言の用例を収集することにより,用言の用法の多様性を扱う.さらに,用法に違いはないが,直前の単語が異なるために別の格フレームになっているもののクラスタリングを行う.得られた格フレームを用いて格解析実験を行い,その結果を考察する.
| |
V29N01-06
|
%本稿では,後段モデルと単語分割器を同時に学習することで,後段モデルに適切な単語分割を獲得する新たな手法を提案する.提案手法では,後段モデルを学習する際に得られる教師信号との損失値を用いて単語分割器の学習を行う.これにより,提案手法は損失値が計算できるあらゆる後段モデルに対して制限なく使用することができ,さまざまな自然言語処理のタスクで単語分割の最適化を行うことができる.さらに,提案手法はすでに学習済みの後段モデルに対しても,後処理として単語分割を最適化することで,後段モデルの処理性能を底上げすることができる.そのため,提案手法は自然言語処理のさまざまな場面で利用することが可能である.実験を通して,提案手法が3言語の文書分類タスクで性能の向上に貢献することを確認した.また,8言語対での機械翻訳タスクにおいても,提案手法が性能向上に寄与することを確認した.
| |
V22N04-03
|
本論文では,隠れ層の再帰的な構造により,過去のアラインメント履歴全体を活用するリカレントニューラルネットワーク(RNN)による単語アラインメントモデルを提案する.ニューラルネットワークに基づくモデルでは,従来,教師あり学習が行われてきたが,本論文では,本モデルの学習法として,Dyerらの教師なし単語アラインメント\cite{dyer11}を拡張して人工的に作成した負例を利用する教師なし学習法を提案する.提案モデルは,IBMモデル\cite{brown93}などの多くの従来手法と同様に,各方向で独立にアラインメントを学習するため,両方向を考慮した大域的な学習を行うことができない.そこで,各方向のモデルの合意を取るように同時に学習することで,アラインメントの精度向上を目指す.具体的には,各方向のモデルのwordembeddingの差を表すペナルティ項を目的関数に導入し,両方向でwordembeddingを一致させるようにモデルを学習する.日英及び仏英単語アラインメント実験を通じて,RNNに基づくモデルは,フィードフォワードニューラルネットワークによるモデル\cite{yang13}やIBMモデル4よりも単語アラインメント精度が高いことを示す.さらに,日英及び中英翻訳実験を通じて,これらのベースラインと同等かそれ以上の翻訳精度を達成できることを示す.
| |
V13N01-01
|
高精度の機械翻訳システムや言語横断検索システムを構築するためには,大規模な対訳辞書が必要である.文対応済みの対訳文書に出現する原言語と目的言語の単語列の共起頻度に基づいて対訳表現を自動抽出する試みは,対訳辞書を自動的に作成する方法として精度が高く有効な手法の一つである.本稿はこの手法をベースにし,文節区切り情報や対訳辞書などの言語知識を利用したり,抽出結果を人間が確認する工程を設けたりすることにより,高精度で,かつ,カバレッジの高い対訳表現抽出方法を提案する.また,抽出にかかる時間を削減するために,対訳文書を分割し,抽出対象とする文書量を徐々に増やしながら確からしい対訳表現から段階的に抽出していくという手法についても検討する.8,000文の対訳文書による実験では,従来手法は精度40\%,カバレッジ79\%であったのに対し,言語知識を利用した提案手法では,精度89\%,カバレッジ85\%と向上した.さらに人手による確認工程を設けることにより,精度が96\%,カバレッジが85\%と向上した.また,16,000文の対訳文書による実験では,対訳文書を分割しない方法では抽出時間が約16時間であったのに対し,文書を4分割する方法では,約9時間に短縮されたことを確認した.
| |
V12N05-05
|
我々は,人間と自然な会話を行うことができる知的ロボットの開発を目標に研究を行っている.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念をもって会話を展開している.このように会話文章から常識的な判断を行い,適切に応答するためには,ある語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.本稿では,ある概念から様々な概念を連想できるメカニズムを基に,人間が行う常識的な判断の一つである時間に関する判断を実現する方法について提案している.日常的な時間表現に着目し,基本的な常識知識を事前に与え,知識として持っていない多くの未知の表現にも対応できる柔軟なメカニズムの構築を実現している.結果としては,時間判断システムの正答率が約69.4\%,精度が約81.6\%の割合で人が行う判断結果と一致しており,二段階未知語処理手法を用いた時間判断システムは有効なシステムであるといえる.
| |
V04N01-06
|
日本語文章における代名詞などの代用表現の指す対象が何であるかを把握することは,対話システムや高品質の機械翻訳システムを実現するために必要である.そこで,本研究では用例,表層表現,主題・焦点などの情報を用いて指示詞・代名詞・ゼロ代名詞などの指示対象を推定する.従来の研究では,代名詞などの指示対象の推定の際には意味的制約として意味素性が用いられてきたが,本研究では対照実験を通じて用例を意味素性と同様に用いることができることを示す.また,連体詞形態指示詞の推定に意味的制約として「AのB」の用例を用いるなどの新しい手法を提案する.指示対象を推定する枠組は,以下のとおりである.指示対象の推定に必要な情報をすべて規則にする.この規則により指示対象の候補をあげながら,その候補に得点を与える.得点の合計点が最も高い候補を指示対象とする.この枠組では規則を柔軟に書くことができるという利点がある.この枠組で実際に実験を行なった結果,指示詞・代名詞・ゼロ代名詞の指示対象を学習サンプルにおいて87\%の正解率で,テストサンプルにおいて78\%の正解率で,推定することができた.
| |
V20N02-07
|
既存のテキストのみからなる辞書に対し,インターネット上にある膨大な画像を関連付けることができれば,文字列情報からだけでは得られない,視覚的な情報を利用できるようになり,用途が広がると期待できる.そのため,本稿では,辞書の出来る限り広い語義に対して画像を付与することを考える.作成・維持コストを考えれば,なるべく自動的に画像を付与することが望ましいが,大量の辞書エントリに対して,高い精度で画像を付与することは容易ではない.また,そもそもどういった語義には画像を付与できるのか,あるいはできないのかといった調査が大規模になされた例はなく,画像が付与できる語義を自動的に判別することも困難である.そこで本稿では,まず語義別に画像が付与された辞書を人手で構築することを第一の目標とする.その上で,画像が付与できる語義とできない語義について,品詞や意味クラスとの関連性に着目して分析する.具体的には,名詞,動詞,形容詞,形容動詞,副詞を含む25,481語,39,251語義を対象に画像付与実験と分析を行ない,その結果,全語義の94.0\%は画像付与が可能であること,品詞や意味クラスに応じて画像付与の可否が変わることを示す.また,幅広い語義に適切な画像を付与するため,インターネットから画像検索によって画像を獲得する.検索時に重要となるのが検索語である.本稿の第二の目標は,語義毎に適切な画像を得るための検索語を調査することである.本稿では,複数の検索語の組合せ(以下,検索語セット)の中から最も適切な画像を得られる検索語セットを作業者に選択してもらい,適切な検索語セットがない場合には修正してもらう.こうして最終的に利用された検索語セットを分析し,提案手法の改良点を探る.さらに,検索語セットの優先順位の決定方法も提案,その妥当性を示すことを本稿の第三の目標とする.新しい辞書への適用等を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.提案手法では,対象語義がメジャーな語義かどうかで優先順位を変化させる.実験では,2種類の評価方法を通してその妥当性を示す.
| |
V15N05-05
|
本稿では,自動獲得した知識を用いた日本語共参照解析システムを提案する.日本語における共参照の多くを占める名詞句間の共参照の解析では,語彙的知識が重要となり,中でも同義表現知識が非常に有効となる.そこでまず,大規模なコーパスおよび国語辞典の定義文から同義表現の自動獲得を行い,自動獲得した同義表現を用いた共参照解析システムを構築する.さらに,より精度の高い共参照解析システムの構築のため,自動構築した名詞格フレームを用いた名詞句の関係解析を行い,その結果を共参照解析の手掛りとして使用する.新聞記事およびウェブテキストを用いた実験の結果,同義表現,および,名詞句の関係解析結果を用いることにより,共参照解析の精度は向上し,手法の有効性が確認できた.
| |
V08N04-04
|
英日機械翻訳システムによる翻訳に対して感じる不自然さの原因の一つとして,動詞的意味を含む英語の名詞句がそのまま日本語でも名詞句として訳されているということがある.この不自然さを解消するために本稿では,動詞的意味を含む名詞句を文に近い形式に書き換える自動前編集方法を示す.動詞的意味を含む名詞句のうち,属格名詞とof前置詞句の両方を修飾句として持つ名詞句を主な対象として実験を行なった.提案方法によって書き換えた名詞句を含む文を我々のシステムPowerE/Jで処理し,書き換えを行なわない場合の翻訳と比較したところ,67.3\%の文においてより自然な翻訳が得られた.従来,この不自然さの問題に対しては,システム内部の変換過程で対処されることが多かった.従来の方法に比べて,前編集による方法の利点は,特定のシステムへの依存性が低く,実践上の適用範囲が広いことである.実験を通じて,市販されている幾つかのシステムにおいても,書き換えによってより自然な翻訳が得られることを確認した.
| |
V32N01-05
|
大規模言語モデルの性能向上に伴い,モデルの生成内容の誤りの検知や対策が喫緊の課題となっている.言語モデル生成の誤り検知の手段の一つとして,生成時に得られる情報に基づく出力内容の確信度推定がある.既存の確信度推定手法ではモデルの出力や内部状態が用いられている一方で,言語モデルの訓練データにアクセス可能な設定での確信度推定および評価については十分に検討されていない.本研究では,学習済み言語モデルの出力の確信度推定における訓練データの有用性を検討するため,中規模の言語モデルを学習し,訓練データ全文からなるデータストアを構築し,訓練データに基づく複数の確信度推定方法を検討・評価した.言語モデルの知識評価タスクを用いた実験の結果,モデルが出力する尤度と訓練データにおける関連事例の有無の情報を組み合わせて用いることで,訓練データを用いない場合と比べて確信度推定の精度を改善できることを確認した.
| |
V31N02-13
|
ニューラル機械翻訳(NMT)において,固有表現(NE)の情報を活用することで翻訳性能が改善されている.これまでNEを活用するNMTモデルとして,NEタグを文中に挿入する「タグ付けモデル」と,NE埋め込みを単語埋め込みに加える「埋め込みモデル」が提案されている.埋め込みモデルは,原言語文のNE情報に加えて目的言語文のNE情報を活用することで翻訳性能が改善されている.しかし,従来のタグ付けモデルは原言語文のNE情報しか活用していない.そこで本研究では,原言語文と目的言語文の両方のNE情報を活用するタグ付けモデルを提案する.さらに,このタグ付けモデルの性能を改善するため,埋め込みモデルとのアンサンブルにより翻訳を行うNMTモデルを提案する.提案のアンサンブルモデルでは,タグ付けモデルと埋め込モデルによる出力確率を平均した確率に基づき目的言語文を生成する.WMT2014英独・独英翻訳タスク及びWMT2020英日・日英翻訳タスクで提案モデルを評価した結果,従来のタグ付けモデルと比較して,英独翻訳では最大0.76ポイント,独英翻訳では最大1.59ポイント,英日翻訳では最大0.96ポイント,日英翻訳では最大0.65ポイントBLEUが向上することを確認した.\renewcommand{\thefootnote}{}\footnote[0]{本論文の一部は言語処理学会第28回年次大会\cite{tag2}及び情報処理学会第257回自然言語処理研究会\cite{ensemble2}で報告したものである.}\renewcommand{\thefootnote}{\arabic{footnote}}
| |
V29N03-04
|
%意志性と主語有生性はイベントの基本的な属性であり,密接な関係にある.これらの認識は文脈を考慮したテキスト理解を必要とし,その学習には大量のラベル付きデータを要する.本論文では,人手でラベル付きデータを構築することなく,意志性と主語有生性を同時学習する手法を提案する.提案手法では生コーパス中のイベントにヒューリスティクスを用いてラベルを付与する.意志性のラベルは「わざと」や「うっかり」といった意志性を示す副詞を頼りに付与する.主語有生性のラベルは知識ベースに登録されている有生名詞・無生名詞を頼りに付与する.こうして集めたイベントから手がかり語を含まないイベントに汎化する分類器を構築する.本研究ではこの問題をバイアス削減ないしは教師なしドメイン適応の問題とみなして解く.日本語と英語の実験で,提案手法により,人手でラベル付きデータを構築することなく,意志性・主語有生性の高精度な分類器を構築できることを示した.
| |
V03N04-04
|
主語のない日本語文に対し,確率モデルを用いて自動的にゼロ主語を補完する手法について述べる.これは,日英機械翻訳の前処理としての自動短文分割の後で適用されるものである.確率モデルを用いる方法として,従来(1)多次元正規分布に基づくモデルを利用するものがあった.本稿では,新たに3種類のゼロ主語補完のためのモデルを提案する.それらは,連続分布に対して,(2)正規分布に基づくGram-Charlier展開を多次元に拡張した分布(疑似正規分布)に基づくモデル,離散分布に対しては,(3)1次対数線形分布,(4)2次対数線形分布に基づくモデルである.これら4種の確率モデルについて,補完精度を比較する実験を行った.その結果,(1)〜(4)の精度は,順に,73%,78%,78%,81%であり,2次対数線形分布を用いる方法が最も精度が高かった.また,補完を誤った事例について考察を加えた結果,主語と述語の意味的整合性をより正確に計算する必要があることなどがわかった.
| |
V10N05-03
|
高次元空間における最近傍検索(nearestneighborsearch)は,マルチメディア・コンテンツ検索,データ・マイニング,パターン認識等の分野における重要な研究課題の1つである.高次元空間では,ある点の最近点と最遠点との間に距離的な差が生じなくなるという現象が起こるため,効率的な多次元インデキシング手法を設計することが極度に困難となる.本稿では,1次元自己組織化マップを用いた近似的最近傍検索の手法を提案し,提案した手法の有効性を類似画像検索と文書検索の2種類の実験により評価する.自己組織化マップを用いて,高次元空間での近傍関係をできる限り保ちつつ,高次元データを1次元空間へ配置し,1次元マップから得られる情報で探索範囲を限定することにより,きわめて高速な最近傍検索が可能となる.
| |
V10N01-02
|
本論文では,専門用語を専門分野コーパスから自動抽出する方法の提案と実験的評価を報告する.本論文では名詞(単名詞と複合名詞)を対象として専門用語抽出について検討する.基本的アイデアは,単名詞のバイグラムから得られる単名詞の統計量を利用するという点である.より具体的に言えば,ある単名詞が複合名詞を形成するために連接する名詞の頻度を用いる.この頻度を利用した数種類の複合名詞スコア付け法を提案する.NTCIR1TMRECテストコレクションによって提案方法を実験的に評価した.この結果,スコアの上位の1,400用語候補以内,ならびに,12,000用語候補以上においては,単名詞バイグラムの統計に基づく提案手法が優れていることがわかった.
| |
V12N06-02
|
本研究では最初に,方法や対処法を問う質問(how型の質問)に質問応答システムが答えるための知識を,メーリングリストに投稿されたメールから獲得する方法について述べる.方法や対処法を問う質問に答えるための知識(「こんな場合にはこうする」など)は,メーリングリストに投稿されたメールから質問や説明の中心になる文(重要文)を取り出すことによって獲得する.次に,メーリングリストに投稿されたメールから獲得した知識を用いる質問応答システムについて報告する.作成したシステムは自然な文で表現されたユーザの質問を受けつけ,その構文的な構造と単語の重要度を手がかりに質問文とメールから取り出した重要文とを照合してユーザの質問に答える.作成したシステムの回答と全文検索システムの検索結果を比較し,メーリングリストに投稿されたメールから方法や対処法を問う質問に答えるための知識を獲得できることを示す.
| |
V14N05-02
|
人間は日常会話において,様々な連想を行っている.例えば,「車」という語から「タイヤ」,「エンジン」,「事故」,…,といった語を自然に思い浮かべ,連想によって会話の内容を柔軟に拡大させている.コンピュータ上での連想機能の実現には,概念ベースが重要な役割を果たす.概念ベースでは,言葉の意味(概念)を属性とその重みで定義している.概念ベースの構築方式として,概念(約4万語)とその属性を,電子化国語辞書の語義説明文から抽出する方法が提案されている.しかしながら,定義的な国語辞書から取得される概念や属性の数が少数であり,連想の精度に問題がある.本論文では,電子化国語辞書の語義説明文から構築した概念ベースを核に,電子化新聞等の一般的な記事文から共起情報を基に概念ベースを拡大し,約12万語規模の概念ベースを構築する手法を提案している.概念ベースの拡張においては,まず,国語辞書の各見出し語に対する語義説明文から基本的な概念に対し,信頼性の高い属性を取得する.それらを基に,新聞記事等から抽出した各概念に対する共起語を属性候補として追加する.その後,属性関連度(概念と属性の関連の強さ)により不適切な属性(雑音属性)を除去し,属性の質を向上させている.また,各属性に付与する重み(属性重み)は,概念を属性集合により構成される仮想文書と捉え,文書処理におけるキーワードの重み付与方法($\mathit{tf}\cdot\mathit{idf}$法)の考え方に準拠する方法により求めている.提案手法で構築した概念ベースと国語辞書のみで構築した概念ベースを関連度評価実験により比較評価し,提案手法で構築した概念ベースが精度的に優れていることを示した.
| |
V25N02-03
|
難解なテキストと平易なテキストからなる大規模な単言語パラレルコーパスを用いて,テキスト平易化が活発に研究されている.しかし,英語以外の多くの言語では平易に書かれた大規模なコーパスを利用できないため,テキスト平易化のためのパラレルコーパスを構築するコストが高い.そこで本研究では,テキスト平易化のための大規模な疑似パラレルコーパスを自動構築する教師なし手法を提案する.我々の提案するフレームワークでは,リーダビリティ推定と文アライメントを組み合わせることによって,生コーパスのみからテキスト平易化のための単言語パラレルコーパスを自動構築する.統計的機械翻訳を用いた実験の結果,生コーパスのみを用いて学習した我々のテキスト平易化モデルは,平易に書かれた大規模なコーパスを用いて学習した従来のテキスト平易化モデルと同等の性能で平易な同義文を生成できた.
| |
V12N04-06
|
日英パラレルコーパスにおける日本語と英語それぞれを原言語として翻訳した2つの韓国語コーパスを用いて,原言語が翻訳に及ぼす影響を調べた.コーパスにはATRのBTEC(162,308文)を使った.2つの韓国語コーパスは,日英パラレルコーパスからの翻訳であり,内容は一致している.それにも関らず,韓国語両コーパス間の同一文は3\%以下であり,正書法が統一されていない点を考慮しても,同一または同一とみなせる文は全体の8.3\%程度である.本研究では,両コーパスにおける違いを原言語の影響と予想し,分析した結果を報告する.
| |
V06N03-03
|
一般に、テキストは複数の文から形成されており、文間には何らかの意味的なつながりがある.テキスト中の意味的にまとまったある範囲が,談話セグメントや意味段落と呼ばれる一貫性のある談話の単位を構成する.また,談話セグメント間の関係によってテキスト全体の談話構造が形成される.こうしたことから,セグメント境界の検出は,テキスト構造解析の第一歩であると考えられる.テキスト中には,セグメント境界の検出に利用できる多くの表層的手がかりが存在する.本稿では,複数の表層的手がかりを組み合わせて日本語テキストのセグメント境界を検出する手法について述べる.セグメント境界の検出は,複数の手がかりのスコアを基に各文間のセグメント境界への成り易さあるいは成り難さを表す文間スコアを計算することで行われる.文間のスコアは,各手がかりのスコアに重要度に応じた重みをかけ,この重み付きスコアを足し合わせることにより計算する.本稿では,各手がかりへの重み付けを人手によらず,訓練データを用いた統計的手法により自動的に行う手法について述べる.また複数の手がかりの中で,実際にセグメント境界の検出に有効な手がかりだけを選択することで訓練データへの過適合を避ける手法についても述べる.
| |
V09N04-02
|
本稿では,要約手法として複数の正解に基づく評価法の提案を行なった.従来のテキスト要約の評価方法では唯一の正解を用いるが,テキストによっては観点の異なる正しい要約が複数存在する場合もあり,評価の信頼性が保証されないという問題があった.我々は,自動評価の信頼性を高めるため,特に重要文抽出法に焦点を当てて複数の正解に基づく評価方法を検討した.提案手法では,複数の正解と評価対象の要約を共にベクトルで表現し,複数の正解の線形結合と評価対象の要約との内積の最大値を評価値とする.提案手法の検証のために,NTCIR-2要約データ中の4記事に対して,要約者7名で要約の作成を行なった.正解の要約間の一致度に基づく品質評価の結果,提案手法の評価の正解として用いるのに十分な品質が得られなかったが,要約の比較から,照応関係,結束性等,元テキスト中の構造を損なわないように要約する共通の法則性が見出され,今後要約の正解を作成する上で有用な知見を得た.提案手法の有効性を検証する予備実験として,異なる幾つかの自動要約手法と複数正解との一致度に基づく評価を行なった.正解ごとに評価の高い自動要約手法が異なるという傾向が見られ,複数の正解を用いることで評価対象の要約との相性によらない評価結果を得るという提案手法の前提を裏付ける結果を得た.
| |
V28N02-13
|
会話を通して料理に関するユーザの嗜好を獲得する対話システムの実現に向け,本研究ではグラフ構造を持つ大規模知識Freebaseに基づいて,話題を選択し,質問を生成する手法を提案する.知識グラフのエンティティ間の関係を話題とみなし,話題どうしの関連の強さをWikipediaに基づき学習し,関連話題を選択するとともに,質問生成時に欠損しているエンティティを知識グラフ埋め込みにより予測・補完する.これらにより,話題を幅広く展開しながらユーザの嗜好を質問することが可能になる.提案手法を実装した質問生成機構を組み込んだインタビュー対話システムを作成し,クラウドソーシングにより被験者を募りユーザスタディを行った.その結果,1つの料理から話題を展開した対話を長く継続するという効果を示すとともに,提案手法により生成された質問の質を調査した.さらに,対話破綻が一定以下に抑えられた場合に,被験者の主観評価において,話題の多様性や文脈の継続性が印象づけられることを示した.
| |
V21N03-01
|
効率的に機械翻訳システムを開発していくためには,質の高い自動評価法が必要となる.これまでに様々な自動評価法が提案されてきたが,参照翻訳とシステム翻訳との間で一致するNグラムの割合に基づきスコアを決定するBLEUや最大共通部分単語列の割合に基づきスコアを決定するROUGE-Lなどがよく用いられてきた.しかし,こうした方法にはいつくかの問題がある.ルールベース翻訳(RBMT)の訳を人間は高く評価するが,従来の自動評価法は低く評価する.これは,RBMTが参照翻訳と違う訳語を使うことが多いのが原因である.これら従来の自動評価法は単語が一致しないと大きくスコアが下がるが,人間はそうとは限らない.一方,統計的機械翻訳(SMT)で英日,日英翻訳を行うと,「AなのでB」と訳すべきところを「BなのでA」と訳されがちである.この訳には低いスコアが与えられるべきであるが,Nグラムの一致割合に着目するとあまりスコアは下がらない.こうした問題を解決するため,本稿では,訳語の違いに寛大で,かつ,大局的な語順を考慮した自動評価法を提案する.大局的な語順は順位相関係数で測定し,訳語の違いは,単語適合率で測定するがパラメタでその重みを調整できるようにする.NTCIR-7,NTCIR-9の特許翻訳タスクにおける英日,日英翻訳のデータを用いてメタ評価を行ったところ,提案手法が従来の自動評価法よりも優れていることを確認した.
| |
V09N01-05
|
機械翻訳などの多言語間自然言語処理で用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には一貫性・網羅性などの点で限界があることから対訳コーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている.本論文では,最大エントロピー法を用いて対訳コーパス上に対訳関係の確率モデルを推定し,自動的に対訳単語対を抽出する手法を提案する.素性関数として共起情報を用いるモデルと品詞情報を用いるモデルを定義した.共起情報により対訳関係にある単語の意味を制約し,品詞情報により対訳関係にある単語の品詞を制約する.本手法の有効性を示すために日英対訳コーパスを用いた対訳単語対の抽出実験を行い,本論文で提案した手法が従来の手法よりも精度・再現率において優れた結果となり,また,テストコーパスによる実験では学習コーパスに出現しなかった単語対に関しても学習データに現れたものとほぼ同等の精度・再現率で抽出できることを示した.
| |
V20N03-07
|
マイクロブログの普及により,ユーザは様々な情報を瞬時に取得することができるようになった.一方,マイクロブログでは流言も拡散されやすい.流言は適切な情報共有を阻害し,場合によっては深刻な問題を引き起こす恐れがある.これまで,マイクロブログ上の流言拡散に関する分析は多かったが,ある流言がどのような影響を引き起こすかについての考察はない.本論文では,東日本大震災直後のTwitterを材料とし,どのような流言が深刻な影響を与えるかを,有害性と有用性という観点からの主観評価および修辞ユニット分析により分析した.その結果,震災時の流言テキストの多くは行動を促す内容や,状況の報告,予測であること,また,情報受信者の行動に影響を与えうる表現を含む情報は,震災時に高い有用性と有害性を持つ可能性があることを明らかにした.
| |
V20N02-08
|
本稿ではマルコフロジックを利用した日本語述語項構造解析について述べる.日本語述語項構造解析に関する従来研究の多くは,格毎に独立した解析器を用意し,他の述語項関係との依存関係を無視したまま解析を行っていた.これに対し,本研究では同一文内にある全ての述語項候補を同時に考慮して解析する手法を提案する.この手法は複数の述語項関係の間にある依存関係を考慮した上で,文内における全ての述語項関係の候補から,最適な状態を見つけ出すことができる.さらに,本研究では,述語の項として妥当でないものを削除するための新たな論理的制約を考案し,ゼロ照応も含めて正しい項を効果的に見つけ出すことができるように工夫した.NAISTテキストコーパスにおける実験で,本研究の提案手法は,大規模データを利用せずに,従来手法と同等の結果を達成した.
| |
V10N02-01
|
本稿の目的は日本語の料理レシピ文における各事象の時間構造を特定し,隣接する事象間の時間関係を明確化することである.レシピ文は時間に沿った作業のシーケンスを述べたものであり,事象間の時間関係を示す典型でありながら,常識を排除して機械的に文章を読むと時間関係の復元が困難である問題があげられる.本研究の試みはアスペクト,すなわち各事象の時間的側面に着目し,そこから文章全体の時間関係を再構築することである.本稿ではイベント構造の概念を用いたアスペクト理論を用いることにより,アスペクトクラスを達成相,完成相,完了相,進行相の4つの型に分類する.さらに事象の隣接関係を明確化するために完成相,完了相の細分化を試みる.この細分化により進行や完了の関係,並行動作関係,終了時や開始時の前後動作関係を解析することが可能となった.またアスペクトを補助する情報として副詞句,省略動作,並行関係に着目し,事象の時間的な隣接関係を簡潔に表現することによって,文章全体の時間的な意味を限定した.以上の結果に基づき,料理レシピ文における時間的関係構造の自動生成システムを設計した.
| |
V06N01-03
|
本稿では,表層的な情報を手がかりとして文と文のつながりの強さを評価し,その強さに基づいて重要な文を選び出す手法を提案する.文の重要度の評価に際して,表題はテキスト中で最も重要な文であり,重要な文へのつながりが強い文ほど重要な文であるという仮定を置き,文から表題へのつながりの強さをその文の重要度とする.二つの文のつながりの強さは,人称代名詞による前方照応と,同一辞書見出し語による語彙的なつながりに着目して評価する.平均で29.0文から成る英文テキスト80編を対象とした実験では,文選択率を25\%に設定したとき,従来手法による精度を上回る再現率78.2\%,適合率57.7\%の精度を得,比較的短いテキストに対して提案手法が有効であることを確認した.
| |
V09N05-04
|
本論文では,テキスト中に出現する比喩表現を認識するために,確率的な尺度を用いて,概念(単語)間の比喩性を検出する手法について述べる.比喩性を検出するための確率的な尺度として,``顕現性落差"と``意外性"を設定する.``顕現性落差''は,概念対を比較したときに,クローズアップされる顕現特徴の強さをはかる尺度であり,概念同士が理解可能か否かの判断に用いる.``顕現性落差''は,確率的なプロトタイプ概念記述を用いて,概念の共有属性値集合が持つ冗長度の差で定量化する.``意外性''は,概念の組み合わせがどれほど稀であるかをはかる尺度であり,概念同士が例示関係であるか否かの判断に用いる.``意外性"は,単語間の意味距離を用いて定量化する.二つの尺度を併用することによって,比喩関係を持つ概念対,すなわち,比喩性の判定が可能となる.二つの尺度を計算するために,コーパス中から抽出した語の共起情報を利用して知識ベースを利用する.両尺度を用いた比喩性検出手法を検証するために,1年分の新聞記事コーパスから構築した知識ベースと,比喩関係・例示関係・無意味の各単語対が混在するデータ100組を用いて,単語対の判別実験を行った.その結果,70\%以上の適合率で比喩関係単語対が判別できることがわかり,本手法の有効性が確認できた.
| |
V04N01-05
|
本稿では,大量の未知語の形態素情報の自動的な蓄積手法の研究について述べる.その内容は,形態素の品詞・活用種類・活用形(これをここでの形態素属性とする)の推定及び統計的手段による推定の精度向上と,日本語における形態素の推定である.文章内の語間の連接関係に注目することによって,未知語の形態素属性を推定する.そして,形態素の字種と連接関係の頻度統計を適用することによって,未知語の形態素属性の推定精度を向上させる.また,``分ち書き''されていない日本語においては,形態素の推定が必要になる.特定の品詞(助詞と助動詞)を完全な情報とみなし,形態素を構成する文字種の並び規則から分割の基点をもとめ,すでに登録されている単語にもとづき,形態素推定を行なう.これを形態素属性の推定を行なうプロセスに送ることで,推定結果から形態素であるものが選択される.以上の手法を日本語に対して適用するシステムを構築し,朝日新聞社説6ヶ月分のコーパス中の約240,000形態素を用いて実験を行なった.その結果,活用品詞に対しては90.5\%,その他の品詞に対しては95.2\%,全体の平均としては94.6\%の形態素の推定成功率を得て228,450形態素の形態素属性を推定し,新たにユニークな形態素15,523個を蓄積することができた.
| |
V13N01-03
|
我々人間は曖昧な情報を受け取り適宜に解釈することで,会話を進めたり適切な行動を取ることができる.これは,長年の経験により蓄積された知識から築き上げられた言葉に関する「常識」を持っているからである.人間と自然に会話できる知的なコンピュータの実現には,単語の意味を理解するシステムの構築が必要であると考える.この実現には,ある概念から他の類似の概念ばかりでなく常識的に関連の強い概念を連想する連想メカニズムが不可欠である.そこで本稿では,単語の意味を定義している概念ベースを利用し,概念間の関連の強さをより一般的に評価する関連度計算方式について述べる.これまでの概念ベースの属性集合の一致度合いから概念間の関連性(類似度)を評価する手法を拡張し,概念空間における概念の共起情報を用いる関連度計算で補正する方式を提案する.
| |
V12N05-02
|
近年,ウェブ上の日本国内の新聞社などのサイトにおいては,日本語だけでなく英語で書かれた報道記事も掲載しており,これらの英語記事においては,同一時期の日本語記事とほぼ同じ内容の報道が含まれている.本論文では,これらの報道記事のページから,日本語で書かれた文書および英語で書かれた文書を収集し,多種多様な分野について,分野固有の固有名詞(固有表現)や事象・言い回しなどの翻訳知識を獲得する手法を提案する.本論文の手法には,情報源となるコーパスを用意するコストについては,コンパラブルコーパスを用いた翻訳知識獲得のアプローチと同等に小さく,しかも同時期の報道記事を用いるため,片方の言語におけるタームや表現の訳がもう一方の言語の記事の方に出現する可能性が高く,翻訳知識の獲得が相対的に容易になるという大きな利点がある.翻訳知識獲得においては,まず,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する.そして,関連記事組を用いて二言語間の訳語対応を推定する.訳語対応を推定する尺度としては,関連記事組における訳語候補の共起を利用する方法を適用し,評価実験において文脈ベクトルを用いる方法と比較し,この方法が有効であることを示す.
| |
V21N01-04
|
本稿では語義曖昧性解消(WordSenseDisambiguation,WSD)の領域適応が共変量シフトの問題と見なせることを示し,共変量シフトの解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決を図る.共変量シフトの解法では確率密度比の算出が鍵となるが,ここではNaiveBayesで利用されるモデルを利用した簡易な算出法を試みた.そして素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う.この手法を本稿の提案手法とする.BCCWJコーパスの3つ領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を選び,SemEval-2の日本語WSDタスクのデータを利用して,多義語16種類を対象に,WSDの領域適応の実験を行った.実験の結果,提案手法はDaum{\'e}の手法と同等以上の正解率を出した.本稿で用いた簡易な確率密度比の算出法であっても共変量シフトの解法を利用する効果が高いことが示された.より正確な確率密度比の推定法を利用したり,最大エントロピー法の代わりにSVMを利用するなどの工夫で更なる改善が可能である.また教師なし領域適応へも応用可能である.WSDの領域適応に共変量シフトの解法を利用することは有望であると考えられる.
| |
V15N05-03
|
物語は複数の話題で構成された文書である.内容の理解にはこの展開していく話題を正しく把握しなければならず,そのために原文書の代わりに用いられる要約は特に整合性を重視する必要がある.本稿では整合性として話題の繋がりに着目した物語要約手法を提案する.提案手法では,まず物語を主題に着目した話題単位に分割し,登場人物に着目した重要度によって要約として抽出する話題を決定する.その後,話題間の整合性を保つために,話題間の状況の変化を示す文を補完する.提案手法の有効性を確認するため実際の物語を対象とした被験者の主観的評価による比較実験を行った.整合性を考慮しないtf$\cdot$idfを用いた重要文抽出に比べて,提案手法の方が内容の理解において良好な結果を得ることができた.
| |
V16N01-04
|
本論文では,リスト型質問応答に対する回答群の選択手法を提案する.リスト型質問応答とは,与えられた質問に対し決められた知識源の中から過不足なく解を見つけ列挙するタスクである.提案手法では,既存の質問応答システムが解候補に付与するスコア分布を利用する.解候補を,そのスコアを基にいくつかのクラスタに分離することを考える.すなわち,それぞれのクラスタを一つの確率分布とし,各確率分布のパラメタをEMアルゴリズムにより推定する.そして,それぞれの分布を正解集合を形成するスコア分布と不正解集合を形成するスコア分布のどちらであるかを推定し,正解集合のスコア分布に由来すると推定された解候補群を最終的な回答とする.質問応答システムには一般に不得意な質問が存在するが,提案手法では,複数の分布のパラメタを比較することにより,質問応答システムが正解を適切に見つけられているか否かを判定することも可能である.評価実験によれば,スコア分布を求め,それを利用することがリスト型質問応答に対して有効に働くことがわかった.
| |
V07N02-04
|
本論文では,ME(最大エントロピー)モデルと書き換え規則を用いて固有表現を抽出する手法について述べる.固有表現の定義はIREX固有表現抽出タスク(IREX-NE)の定義に基づくものとする.その定義によると,固有表現には一つあるいは複数の形態素からなるもの,形態素単位より短い部分文字列を含むものの2種類がある.複数の形態素からなる固有表現は,固有表現の始まり,中間,終りなどを表すラベルを40個用意し,各々の形態素に対し付与すべきラベルを推定することによって抽出する.ラベルの推定にはMEモデルを用いる.このMEモデルでは学習コーパスで観測される素性と各々の形態素に付与すべきラベルとの関係を学習する.ここで素性とはラベル付与の手がかりとなる情報のことであり,我々の場合,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞の情報のことである.一方,形態素単位より短い部分文字列を含む固有表現は,MEモデルを用いてラベルを決めた後に書き換え規則を適用することによって抽出する.書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.本論文ではIREX-NE本試験に用いられたデータに対し我々の手法を適用した結果を示し,さらにいくつかの比較実験から書き換え規則と精度,素性と精度,学習コーパスの量と精度の関係を明らかにする.
| |
V29N04-08
|
%本稿では,マクロ経済分野に特化した景気単語極性辞書の構築とその応用例を示す.日本経済新聞の新聞記事コーパスから景気関連の単語の選定し,複数人のエコノミストによるクラスラベルの付与を行った.さらに教師あり学習で収録単語を補完した.また,構築した極性辞書の応用例として,景気動向を迅速に捕捉することが可能な経済ニュース指数を作成した.
| |
V26N01-05
|
本論文は,データベース検索対話においてデータベースフィールドに直接言及しないが,データベースへのクエリを構成する上で有益な情報をユーザ発話から取り出す課題を提案する.このような情報を本論文では非明示的条件と呼ぶ.非明示的条件を解釈し,利用することによって,対話システムはより自然で効率的な対話を行うことができる.本論文では,非明示的条件の解釈を,ユーザ発話をデータベースフィールドに関連付け,同時にその根拠となる発話の断片を抽出する課題として定式化する.この課題を解くために,本論文では,サポートベクタマシン(SVM),回帰型畳込みニューラルネットワーク(RCNN),注意機構を用いた系列変換による3つの手法を実装した.不動産業者と顧客との対話を収集したコーパスを用いた評価の結果,注意機構を用いた系列変換による手法の性能が優れていた.
| |
V08N04-03
|
コンピュータで言語処理を行なうとき,構文解析や意味解析だけでなく人間が持つ一般的な知識や当該分野の背景的知識などの情報が必要になる.本研究では,人間の持つ知識を調べるため連想実験を行ない連想概念辞書として構造化した.連想実験では,小学生の学習基本語彙中の名詞を刺激語とし,刺激語と「上位概念,下位概念,部分・材料,属性,類義語,動作,環境」の7つの課題から連想語を収集する.従来の電子化辞書は木構造で表現され,概念間の距離は階層の枝の数を辿る回数をもとに計算するなど構造に依存したものであったが,連想概念辞書では連想実験から得られるパラメータをもとに,線形計画法によって刺激語と連想語の距離を定量化した.また距離情報を用い,「果物」「野菜」「家具」などの日常頻出語を中心として3〜4階層をなす刺激語の連想語(上位/下位概念)のつながりを調べた.この連想概念辞書とEDR電子化辞書,WordNetの比較を,上位/下位階層をなす概念間の距離を求めることで行なった.連想概念辞書とWordNetは,ある程度近い概念構造を持っており,一方EDRは他の2つとは異なる特徴の構造を持っていることがわかった.
| |
V23N01-03
|
対話システムが扱う対話は大きく課題指向対話と非課題指向対話(雑談対話)に分けられるが,近年Webからの自動知識獲得が可能になったことなどから,雑談対話への関心が高まってきている.課題指向対話におけるエラーに関しては一定量の先行研究が存在するが,雑談対話に関するエラーの研究はまだ少ない.対話システムがエラーを起こせば対話の破綻が起こり,ユーザが円滑に対話を継続することができなくなる.しかし複雑かつ多様な内部構造を持つ対話システムの内部で起きているエラーを直接分析することは容易ではない.そこで我々はまず,音声誤認識の影響を受けないテキストチャットにおける雑談対話の表層に注目し,破綻の類型化に取り組んだ.本論文では,雑談対話における破綻の類型化のために必要な人・機械間の雑談対話コーパスの構築について報告し,コーパスに含まれる破綻について分析・議論する.
| |
V13N01-06
|
会話において,まず行われるのが挨拶である.コンピュータやロボットにおいても挨拶を行うことから次へと会話が広がり人間とのコミュニケーションが円滑に行われる.本研究では会話処理の中でも特に挨拶処理についてのしくみを提案する.挨拶処理は従来テンプレートを適用するのみであり,あまり研究は行われてない.しかし,単に用意されたテンプレートだけを用いると応答が画一化され,設計者の作成した文章のみが出現するという問題点がある.会話文の中でも特に挨拶文は設計者の作成した文章がそのまま使われることが多い.そこで本稿で提案する挨拶処理システムにおける挨拶文は設計者が用意した挨拶知識ベースに存在しない新たな文章も作り出す.人間は言葉に関する汎用的な知識を覚え,その言葉に関する常識を持った上で会話を行っている.これと同じように,挨拶処理において,汎用知識と常識判断にあたる連想知識メカニズムを用いる.挨拶知識ベースにこの連想知識メカニズムを組み合わせて検討することにより,文章を大規模に拡張し,精錬する手法を提案する.
| |
V04N04-05
|
コーパスに基づく確率的言語モデルとして,従来は主に語彙統語論的なモデルが扱われてきた.我々は,より高次の言語情報である対話に対する確率的モデルを,コーパスから自動的に生成するための研究を行った.本研究で用いたコーパスは,ATR対話データベース中の「国際会議参加登録」に関する対話データであり,各発話文には,発話者のラベルおよび陳述・命令・約束などの発話行為タイプが付与されている.本技術資料では,これらのコーパスから,2種類の方法を用いて,確率的な対話モデルを生成する.まず初めに,エルゴードHMM(HiddenMarkovModel)を用いて,コーパス中の話者ラベルおよび発話行為タイプの系列をモデル化した.次に,ALERGIAアルゴリズムと呼ばれる,状態マージング手法に基づいた学習アルゴリズムを用いて,話者ラベルおよび発話行為タイプの系列をモデル化した.エルゴードHMMの場合には,確率モデルの学習に先立ち,モデルの状態数をあらかじめ決めておく必要があるが,ALERGIAアルゴリズムでは,状態の統合化を繰り返すことにより,最適な状態数を持つモデルを自動的に構成することが可能である.エルゴードHMMあるいはALERGIAアルゴリズムを用いることにより,話者の交替や質問・応答・確認といった会話の基本的な構造を確率・統計的にモデル化することができた.また,得られた確率的対話モデルを,情報理論的な観点から評価した.
| |
V03N04-07
|
筆者らは,コーパスに基づいて形態素を基本とした日本語文法を自動獲得する方法を既に提案している.本論文は,この方法における処理単位として,形態素の代わりにより長い単位---認知単位---を用いた新しい方法を提案するものである.認知単位は,人間を被験者とした知覚実験の結果から得られた人間の文解析の単位である.こうした,形態素より長い単位を解析に用いることにより,構文解析における経路数を抑えることができる.しかし,単純に認知単位を辞書に登録して用いるだけでは,未知認知単位の出現確率が高まり,結果として文解析の正解率が低下する.この現象を抑えるため,既知認知単位から未知認知単位を推定する新しい方法を更に取り入れた.この方法で天気概況文コーパスを処理し,得られた文法に基づき構文解析を行った結果,形態素を処理単位とした解析に比べ高い処理効率を得ることができた.
| |
V05N01-05
|
コロケーションの知識は,単語間の共起情報を与える言語学的に重要な知識源であり,機械翻訳をはじめとする自然言語処理において,重要な意味をもっている.本論文では,コーパスからコロケーションを自動的に抽出する新しい手法を提案する.提案する手法では,コーパス中の各単語の位置情報を用いて,任意の文中のコロケーションを連続型・不連続型の別に抽出する.また,提案した自動抽出法を用いて,ATR対話コーパスからコロケーションを抽出する実験を行った.本実験で得られた結果は,連続型・不連続型コロケーションともに重要な表現が抽出されており,提案した抽出法の有効性を示すことができた.
| |
V21N02-02
|
近年,国会や地方議会などの会議録がWeb上に公開されている.会議録は,首長や議員の議論が書き起こされた話し言葉のデータであり,長い年月の議論が記録された通時的なデータであることから,政治学,経済学,言語学,情報工学等の様々な分野において研究の対象とされている.国会会議録を利用した研究は会議録の整備が進んでいることから,多くの分野で行われている.その一方で,地方議会会議録を利用した研究については,各分野で研究が行われているものの,自治体によりWeb上で公開されている形式が異なることが多いため,収集作業や整形作業に労力がかかっている.また,各研究者が重複するデータの電子化作業を個別に行っているといった非効率な状況も招いている.このような背景から,我々は多くの研究者が利用することを目的として,地方議会会議録を収集し,地方議会会議録コーパスを構築した.本稿では,我々が構築した地方議会会議録コーパスについて論ずる.同コーパスは,Web上で公開されている全国の地方議会会議録を対象として,「いつ」「どの会議で」「どの議員が」「何を発言したのか」などの各種情報を付与し,検索可能な形式で収録した.また,我々は会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムを最終的な目的としており,その開発に向けて,分析,評価用のデータ作成のために会議録中の議員の政治的課題に対する賛否とその積極性に関する注釈付けをコーパスの一部に対して行った.本稿では,注釈付けを行った結果についても報告する.
| |
V07N03-02
|
日本語連体修飾要素に関する言語現象を取り扱うことができるような辞書記述を実現するため,生成的辞書理論を用いた連体修飾要素の形式的記述法の検討を行った.問題となる現象の解決法を「静的な曖昧性解消」と「動的な曖昧性解消」に分類した.静的な曖昧性解消は辞書中の語彙情報を用いて行うことができるが,動的な曖昧性解消には知識表現レベルでの推論が必要となる.
| |
V13N03-07
|
本論文で提案する{\em関連用語収集問題}は,与えられた専門用語に対し,それと強く関連する用語集合を求める問題である.この問題を解くためには,ある用語が専門用語であり,かつ,入力用語と強く関連するかどうかを判定する方法が必要となる.本研究では,ウェブのサーチエンジンのヒット数から計算したJaccard係数もしくは$\chi^2$統計量を用いて,この判定を行なう.作成した関連用語収集システムは,候補語収集モジュールと関連用語選択モジュールの2つのモジュールから構成される.候補語収集モジュールは,サーチエンジンを利用して,入力用語が出現するウェブページを収集し,それらのページから関連用語の候補語を収集する.関連用語選択モジュールは,Jaccard係数あるいは$\chi^2$統計量の値に基づき,候補語の中から入力用語に強く関連する用語を選択する.実験により,作成したシステムが入力用語に強く関連する十数語の専門用語を収集できることが確かめられた.
| |
V15N01-03
|
日本語文のムードについて,いくつかの体系が提示されている.しかしながら,既知のムード体系がどのような方法によって構成されたかは明確に示されてはいない.また,多種多様な日本語ウェブページに含まれるような文を対象にして,ムード体系を構成しているとは思われない.したがって,日本語ウェブページを対象にした言語情報処理において,既知のムード体系は網羅性という点で不十分である可能性が高い.本論文では,NTCIRプロジェクトによって収集された11,034,409件の日本語ウェブページに含まれる文を分析して既知のムードとともに新しいムードを収集するための系統的方法について詳述する.その方法の基本的手順は,(1)日本語文をChaSenによって単語に分割し,(2)様々な種類のムードを表出すると予想される文末語に着目し,(3)文末語に手作業でムードを割り当てる,というものである.そして,収集した新しいムードを示し,収集したムードとその他の既知ムードとの比較を行い,収集できなかったムードは何か,新しく収集したムードのうちすでに提示されているものは何か,を明らかにする.比較によって得た知見をもとに,より網羅性を高めるように,拡充したムード体系の構成を提案する.
| |
V21N06-04
|
本論文では,形態素解析で使用する辞書に含まれる語から派生した表記,および,未知オノマトペを対象とした日本語形態素解析における効率的な未知語処理手法を提案する.提案する手法は既知語からの派生ルールと未知オノマトペ認識のためのパターンを利用し対象とする未知語の処理を行う.Webから収集した10万文を対象とした実験の結果,既存の形態素解析システムに提案手法を導入することにより新たに約4,500個の未知語を正しく認識できるのに対し,解析が悪化する箇所は80箇所程度,速度低下は6\%のみであることを確認した.
| |
V29N02-03
|
%本稿では,文法誤り訂正における言語間での転移学習について研究を行う.近年,機械翻訳などのタスクで多言語の訓練データを用いた研究がなされ,言語を越えた知識の活用が行われている一方で,文法誤り訂正では多言語の知識を用いる研究はほとんど行われておらず,文法知識が言語を越えて転移可能であるかは未知の問題である.一方で,類似した言語間には共通の文法項目が存在していることが広く知られており,そのような言語間で共通した文法項目については言語間で転移が可能なのではないかと考えられる.そこで我々は事前学習モデルと多言語の学習者データを用いて文法誤り訂正の学習を行い,言語間での転移学習が文法誤り訂正において可能であるかを調査する.実験の結果,文法誤り訂正において言語間で文法知識の転移が可能であることを示した.また,分析の結果,事前学習モデルの構造が文法知識の転移に対して大きな影響を与えていること,より類似した言語間で共通の文法項目の転移が行われていること,転移元の言語と転移先の言語のデータのサイズに関わらず文法知識の転移が起きていることを確認した.
| |
V19N04-03
|
本論文では対象単語の用例集合から,その単語の語義が新語義(辞書に未記載の語義)となっている用例を検出する手法を提案する.ここでのアプローチの基本は,新語義の用例が用例集合中の外れ値になると考え,データマイニング分野の外れ値検出の手法を利用することである.ただし外れ値検出のタスクは教師なしの枠組みになるが,新語義検出という本タスクの性質を考慮すると,一部のデータ(用例)にラベル(対象単語の語義)が付与されているという枠組みで考える方が適切である.そのため本論文では一部のデータにラベルがついているという教師付きの枠組みで外れ値検出を行う.具体的には2つの手法(教師付きLOFと生成モデル)を用い,それら出力の共通部分(積集合)を最終的な出力とする.この教師付きLOFと生成モデルの積集合を出力する手法を提案手法とする.実験ではSemEval-2日本語WSDタスクのデータを用いて,提案手法の有効性を示した.またWSDのアプローチを単独で利用しただけでは,本タスクの解決が困難であることも示した.
| |
V14N02-03
|
中国語構文解析では,これまで,句構造文法(PhraseStructureGrammar)で文の構造を取り扱ってきた.しかし,句構造文法規則は規則間の衝突による不整合が避けられず,曖昧性は大きな問題となっている.そこで,本論文では述語を中心とし,全ての構文要素を文のレベルで取り扱う文構造文法SSG(\underline{S}entence\underline{S}tructure\underline{G}rammar)を提案し,それに基づき,中国語の文構造文法規則体系を構築した.構築した文法規則をチャート法を拡張した構造化チャートパーザSchart上に実装し,評価実験を行なった.実験により,中国語SSG規則は規則間の整合性がよく,品詞情報と文法規則だけで,解析の曖昧性を効果的に抑止し,確率文脈自由文法(PCFG)に基づく構文解析より高い正解率が得られた.
| |
V07N04-12
|
手話言語は,主に手指動作表現により単語の表出・受容を行う視覚言語としての側面を持つ.そのため,手話単語を構成する手指動作特徴の要素(例えば,手の形,手の位置,手の動き)の一部を変更することで別の手話単語を構成できる特徴がある.特に,手指動作特徴の一つの要素だけが異なる単語対を手話単語の最小対と呼ぶ.また,手指動作特徴の類似性が意味の類似性を反映している場合がある.このように,類似の手指動作特徴を含む手話単語対は意味関係を内包する可能性があるなど,手話単語の分類を行うための重要な手がかりの一つとなると考える,すなわち,類似の動作特徴を含む手話単語対は言語学的に重要であるばかりでなく,手話単語の検索処理や登録・編集処理機能を実現する上でも重要な知識データと捉えることができる.本論文では,類似した手指動作特徴を含む手話単語対を与えられた手話単語の集合から抽出する方法として,市販の手話辞典に記述されている手指動作記述文間の類似性に着目し,この手指動作記述文間の類似性を手話単語間の手指動作特徴の類似性と捉え,手指動作記述文間の類似度計算に基づき最小対を抽出する方法を提案する.実験により,提案手法の妥当性を示す結果が得られた.
| |
V10N05-08
|
大量の文書情報の中から必要な部分を入手するために,自動要約技術などによって文書の量を制御し,短い時間で適確に内容を把握する必要性が高くなってきている.自動要約を行なうには文書中のどの箇所が重要なのかを判断する必要があり,従来の重要文の抽出方法には単語の出現頻度にもとづいた重要語の計算方法などがある.本論では連想概念辞書における,上位/下位概念,属性概念,動作概念などの連想関係を用いて文書中の単語の重要度を計算し重要文を抽出する手法を提案して有効性を示す.連想概念辞書は,小学校の学習基本語彙を刺激語とし大量の連想語を収集して構造化すると同時に,その連想語との距離が定量化されている.また既存の重要語抽出法と本手法での抽出結果とを,人間が行なった要約結果と比較することによって評価した.従来の手法に比べて連想関係を計算に含めることによって要約精度が人間の要約に近く,本手法によって改良されることがわかった.
| |
V10N05-06
|
本論文では,三種類の異なるコーパスに対する我々の自動要約システムの評価と,その要約データの分析結果について述べる.我々は重要文抽出に基いた要約システムを作成し,そのシステムを用いて日本語・英語双方の新聞記事を対象にした要約評価ワークショップに参加し,良好な評価結果を得た.また日本語の講演録を対象として重要文抽出データを人手によって作成し,そのデータに対して要約システムの実験・評価を行った.さらにシステムの評価結果に加えて,重要文抽出に用いられる主な素性の振舞い・素性の組合せによる重要文の分布の違いなどを各々の要約データにおいて分析した結果を示した.
|
This dataset was created from the Japanese NLP Journal LaTeX Corpus. The titles, abstracts and introductions of the academic papers were shuffled. The goal is to find the corresponding abstract with the given title. This is the V2 dataset (last updated 2025-06-15).
Task category | t2t |
Domains | Academic, Written |
Reference | https://huggingface.co/datasets/sbintuitions/JMTEB |
Source datasets:
How to evaluate on this task
You can evaluate an embedding model on this dataset using the following code:
import mteb
task = mteb.get_task("NLPJournalTitleAbsRetrieval.V2")
evaluator = mteb.MTEB([task])
model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)
To learn more about how to run models on mteb
task check out the GitHub repository.
Citation
If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.
@misc{jmteb,
author = {Li, Shengzhe and Ohagi, Masaya and Ri, Ryokan},
howpublished = {\url{https://huggingface.co/datasets/sbintuitions/JMTEB}},
title = {{J}{M}{T}{E}{B}: {J}apanese {M}assive {T}ext {E}mbedding {B}enchmark},
year = {2024},
}
@article{enevoldsen2025mmtebmassivemultilingualtext,
title={MMTEB: Massive Multilingual Text Embedding Benchmark},
author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
publisher = {arXiv},
journal={arXiv preprint arXiv:2502.13595},
year={2025},
url={https://arxiv.org/abs/2502.13595},
doi = {10.48550/arXiv.2502.13595},
}
@article{muennighoff2022mteb,
author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Loïc and Reimers, Nils},
title = {MTEB: Massive Text Embedding Benchmark},
publisher = {arXiv},
journal={arXiv preprint arXiv:2210.07316},
year = {2022}
url = {https://arxiv.org/abs/2210.07316},
doi = {10.48550/ARXIV.2210.07316},
}
Dataset Statistics
Dataset Statistics
The following code contains the descriptive statistics from the task. These can also be obtained using:
import mteb
task = mteb.get_task("NLPJournalTitleAbsRetrieval.V2")
desc_stats = task.metadata.descriptive_stats
{
"test": {
"num_samples": 1147,
"number_of_characters": 308305,
"num_documents": 637,
"min_document_length": 18,
"average_document_length": 461.51962323390893,
"max_document_length": 1290,
"unique_documents": 637,
"num_queries": 510,
"min_query_length": 5,
"average_query_length": 28.072549019607845,
"max_query_length": 71,
"unique_queries": 510,
"none_queries": 0,
"num_relevant_docs": 510,
"min_relevant_docs_per_query": 1,
"average_relevant_docs_per_query": 1.0,
"max_relevant_docs_per_query": 1,
"unique_relevant_docs": 510,
"num_instructions": null,
"min_instruction_length": null,
"average_instruction_length": null,
"max_instruction_length": null,
"unique_instructions": null,
"num_top_ranked": null,
"min_top_ranked_per_query": null,
"average_top_ranked_per_query": null,
"max_top_ranked_per_query": null
}
}
This dataset card was automatically generated using MTEB
- Downloads last month
- 35