Giter VIP home page Giter VIP logo

paper-reading-list's People

Contributors

tma15 avatar

Stargazers

 avatar

Watchers

 avatar  avatar

paper-reading-list's Issues

[ACL21] OTTers: One-turn Topic Transitions for Open-Domain Dialogue

  • pdf
  • ACL 2021 long

概要

オープンドメイン対話システムにおいて、ひとつの発話であるトピックから別のトピックへ自然に遷移する方法の提案。
発話の中にトピックの遷移がある対話データをクラウドソーシングを使って構築。
トピックを遷移するための発話タイプを人手で調査したところ、ひとつの発話でトピックの遷移があるものがもっとも利用されることを確認。
言語モデルを使ってトピック遷移が起きる発話の生成に利用できるかを示した。

スクリーンショット 2022-07-29 11 26 24

トピックはナレッジグラフ上のエンティティとして扱う。既存の対話データに対してエンティティリンキングを適用し、エンティティを抽出。

[ACL18] Personalizing Dialogue Agents: I have a dog, do you have pets too?

  • pdf
  • ACL 2018 long

概要

雑談対話システムは、趣味の志向性がなく、魅力的でないことが多い。プロフィールに基づいて雑談対話システムがより魅力的になることを目指す。システムの性格および対話相手のユーザの性格を考慮した対話データを構築する。対話相手の性格は対話初期ではわからないので、相手が興味を持つ話題を出すことで対話しやすくなるように学習する。対話システムは対話者の性格を予測することに使えることを示す。

[ACL22] NoisyTune: A Little Noise Can Help You Finetune Pretrained Language Models Better

  • pdf
  • ACL 2022 Short

概要

事前学習済みモデルをfine-tuneすると過学習の恐れが高い。
事前学習済みモデルのパラメータに対してノイズを加えた状態からfine-tuneする方法を提案。
いくつかのモデルでGLUEやXTREMEタスクで実験を行い、提案手法はノイズを加えない従来のfine-tuneと比較して一貫して高い精度になった。

スクリーンショット 2022-07-14 13 51 35
スクリーンショット 2022-07-14 13 51 46

関連情報

[SIGIR21] Wizard of Search Engine

  • pdf
  • SIGIR 2021

概要

Conversational Information Seeking (CIS) に関する研究。CISを意図推定、キーフレーズ抽出、対話行為選択、クエリ選択、パッセージ選択、応答生成の6つのサブタスクに分割。ベンチマークデータ (Wizard of Search Engine; WISE) を構築し、モデルを提案する。
WISEを構築するに当たり、既存のウェブ検索エンジンで収集したセッションをもとに2人の作業者が参加して対話を作成する。

スクリーンショット 2022-07-25 16 33 32

[ACL22] Unsupervised Corpus Aware Language Model Pre-training for Dense Passage Retrieval

  • pdf
  • ACL 2022 long

概要

CLSトークンの埋め込みが文全体の情報を考慮するcondenserによる事前学習に対して、他の文書との関係性も考慮する。
具体的には文書中のあるスパンのCLSトークンの埋め込みに対して、同じ文書から取得したスパンのCLSトークンの埋め込みとの類似度が他の文書から取得したスパンのCLSトークンの埋め込みよりも類似度が高くなるようにする。

[ICML22] Dialog Inpainting: Turning Documents into Dialogs

概要

一般的なテキストから2人参加型の対話的質問応答データを生成する研究。
テキストに書かれている文を回答者の発話とみなして、質問者の発話を自動生成するinpainterを提案する。
質問者の発話を生成するために、完全な対話データから、話者の発話をマスクし、元の対話データを復元するようにT5を学習する。
生成したデータWikiDialog、WebDialogを学習データに使うことで、対話的質問応答タスクにおける検索に基づくモデルの精度改善に寄与することがわかった。

スクリーンショット 2022-07-22 10 06 34

inpainterの学習

PublicDialog、TaskMaster、OR-QuAC、QReCCのデータを使って3つのinpainterを学習。
3つのモデルを作成したのはデータソースの違いによる傾向の違いを分析するため。

スクリーンショット 2022-07-22 10 24 16

[NAACL22-Findings] BORT: Back and Denoising Reconstruction for End-to-End Task-Oriented Dialog

  • pdf
  • NAACL Findings 2022

概要

目的志向対話システムに於いては対話システム全体としての精度向上の観点からend-to-endな手法の研究開発が進められている。
既存の学習手法は、正解の対話状態などをもとに対話応答を生成する一方で、推論時には実際に認識した対話状態をもとに対話応答を生成していた。そのため、これらの手法は依然として対話状態の認識誤りなどが影響して対話応答生成の精度低下につながるなど、前段の処理の誤りに弱い。
提案手法は学習時にこのような認識誤りを考慮するため対話状態から発話を生成したり、ノイズを加えた対話応答を復元する。
結果とし
て、ゼロショットや転移学習の設定で高い精度を示した。

スクリーンショット 2022-07-12 13 41 06

スクリーンショット 2022-07-12 13 39 42

[ACL22] Efficient Classification of Long Documents Using Transformers

概要

長い文書をTransformerを使って分類する手法はあるものの比較できるようなベンチマークデータがなかった。
精度に加えて、処理速度やメモリの観点でも比較する。
実験結果では、長い文書を扱うLongformerなどのモデルが、消費メモリ増加や処理速度低下などのデメリットがある割に、先頭から512単語のみを利用する単純なBERTを上回ることができないことが多いこと、またデータによって精度の変動が大きいことを報告。

スクリーンショット 2022-07-12 13 04 24

[NAACL19] Outlier Detection for Improved Data Quality and Diversity in Dialog Systems

概要

多様かつ高品質なデータの作成のための例外検知。例外検知によって、アノテーション誤り、学習事例にあまりふくまれない珍しい事例を見つけることができる。クラウドソーシングを使って、例外検知によって候補として選ばれた事例のアノテーション誤りの修正、また珍しい事例を提示することで多様な事例の作成を支援する。

[EMNLP21] Condenser: a Pre-training Architecture for Dense Retrieval

  • pdf
  • EMNLP 2021 long

概要

Transformerによるテキストのエンコード結果は情報検索には適していなかった。検索のための新しい事前学習手法を提案する。
従来は最終層のCLSトークンのエンコード結果を、そのテキストのエンコード結果とみなしていた。従来の研究によると、Transformerの中間層におけるCLSトークンはNSPタスクを解くためにトークン系列にまんべんなくアテンション確率を付与している。情報検索では文書のいろいろな情報を考慮することが大事なので、最終層のCLSトークンに加えて、中間層のCLSトークンのエンコード結果も合わせてmasked language modelを解く。

fine-tuneのときは通常のTransformerと同様、最終層のCLSトークンのエンコード結果に基づいてテキストの密ベクトルを得る。

[22] DIVE INTO BIG MODEL TRAINING

概要

巨大なニューラルネットワークを学習するためのサマリ。並列化、メモリの節約、モデルを疎にする方法について解説。

[ACL20 Demo] DialoGPT : Large-Scale Generative Pre-training for Conversational Response Generation

  • pdf
  • ACL 2020 Demo

概要

Redditから構築した対話データを学習したGPT (DialogGPT) の報告。
Redditは掲示板のようなサイトでコメントに対して返信がつく。これらの返信を対話とみなす。147M事例を構築。
対話応答を評価するタスクDSTC-7でfine-tuneしたところ最高精度を示した。

関連情報

[EMNLP21] Retrieval Augmentation Reduces Hallucination in Conversation

  • link
  • EMNLP 2021 long

概要

検索を活用したテキスト生成モデルにはRetrieval Augmented Generator (RAG) とFusion-in-Decoder (FiD) がある。RAGは検索とテキスト生成の同時学習ができる一方で、検索結果を多く活用できなかった。FiDは検索結果を多く活用することができる一方で、検索とテキスト生成を個別していた。そこでRAGとFiDを組み合わせる手法を提案する。検索の学習にはRAGを用い、その後、学習済み検索モデルを使ってFiDを学習する。

[ACL22] Internet-Augmented Dialogue Generation

  • link
  • ACL 2022 long

概要

検索を活用したテキスト生成モデル(Fusion-in-Decoder; FiD)の出力するテキストの質は検索モデルの性能に依存する。商用のウェブ検索エンジンで知識を収集することでFiDの精度が改善される。

[SIGIR19] Asking Clarifying Questions in Open-Domain Information-Seeking Conversations

  • pdf
  • SIGIR 2019

概要

ユーザは自身の要望を適切なクエリに変換できないので明確化のために対話システムから質問を出力する。
196のトピックに対して762のファセットをもつTREC Web Track 2009-2012のデータに対して、クラウドソーシングを使って追加でデータを作成。
明確化のための質問の検索や明確化後のユーザの返答をもとにした文書検索に関する実験をおこなった。
実験の結果、提案手法はベースラインよりも高い精度を示した。

スクリーンショット 2022-07-21 10 16 03

データ作成について

  • ワーカに対してトピックに対するファセットの意味を説明。
  • ワーカはトピックをクエリにしてウェブ検索する。得られた結果の先頭3ページを読んでもらいタイトルやスニペットを読んでもらう。
  • 検索結果を読んでも明確化のための質問を思いつかない場合、検索窓で得られる自動補完結果も見てもらう。
  • クエリに対する質問を6つ作成してもらう

[WWW20] Generating Clarifying Questions for Information Retrieval

概要

ウェブ検索におけるクエリの意図を明確にするために質問を生成する研究。
ユーザスタディによって、質問を生成することに価値があることを確認。
明確化のための質問のタクソノミーを作成しテンプレートに対して穴埋めを生成することで質問を生成する手法を提案。
学習データは少ないため提案手法は弱教師あり学習に基づく。
数百からなる検索クエリに対する人手評価の結果、提案手法の有効性を確認した。

スクリーンショット 2022-07-26 10 30 21

[NAACL22 Findings] Target-Guided Dialogue Response Generation Using Commonsense and Data Augmentation

  • pdf
  • NAACL 2022 Findings

概要

知識グラフ (ConceptNet) を使って、ユーザの発話とシステムの発話を自然につなぐための発話を生成する。
ユーザの発話を入力として、最初に知識グラフ上のパスを生成。ユーザの発話および生成したパスを入力にシステムの応答を生成。

スクリーンショット 2022-08-02 8 55 30

タスク

ユーザとシステムの対話文脈cおよびシステム発話tが与えられるので、cとtを自然につなぐようなcとtを生成する。

パスの生成

知識グラフにはConceptNetを用いるが、網羅性が高いわけでもないのでcとtを自然に結ぶような知識があるとは限らない。そこでConceptNetから生成した学習データを使って言語モデルを学習する。言語モデルは2つのエンティティを受け取り、それらを結ぶようなパスを生成する。このようにパスを言語モデルを使って生成するためエンティティやパスは知識グラフにあるものに限定されなくなる。

応答文の生成

まず対話文脈c、システム発話tおよびNLTKを使ってエンティティを抽出。その後、ルールを使ってConceptNetのエンティティと紐付ける。学習時は正解の応答文からもエンティティを抽出する。

最終的に応答文を生成するために、以下のような系列を生成する言語モデルを学習する。

knowledge path [target] target sentence [context] context sentence [response] transition response

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.