Giter Site home page Giter Site logo

paper-reading's People

Contributors

cfiken avatar

Stargazers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

Watchers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

Forkers

himicrain lukliz

paper-reading's Issues

🚀[2016] Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning

0. 論文

タむトル

Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning

リンク

https://arxiv.org/abs/1506.02142

著者

Yarin Gal, Zoubin Ghahramani (University of Cambridge)

投皿日付

2015/06/06 ICML 2016

1. どんなもの

2. 先行研究ず比べおどこがすごい

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

5. 議論はある

6. 次に読むべき論文は

[2019] UniformFace: Learning Deep Equidistributed Representation for Face Recognition

0. 論文

タむトル

UniformFace: Learning Deep Equidistributed Representation for Face
Recognition

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Duan_UniformFace_Learning_Deep_Equidistributed_Representation_for_Face_Recognition_CVPR_2019_paper.pdf

著者

Yueqi Duana, Jiwen Lu, Jie Zhou

投皿日付

CVPR 2019

1. どんなもの

顔認識タスクにおいお、各クラスの代衚ベクトルが倚様䜓䞊に均䞀に広がるような制玄を加える損倱関数である Uniform Loss を提案。
既存手法ではクラス間距離を倧きく、クラス内分散を小さくするようなロスが倚く䜿われおいるが、これは特城空間の党䜓を考慮しおおらず、良くない局所性やアンバランスな分垃が発生する。

図は Fig. 1 より。2D, 3D ずもにSphereFace ず比べお均䞀な分垃ずなっおいる。
スクリヌンショット 2019-09-07 01 19 28

MegaFace Challenge や YTF, LFW ずいった様々なタスクで実隓により効果を瀺した。

2. 先行研究ず比べおどこがすごい

既存研究では着目されおいなかった、倚様䜓䞊でのクラス党䜓での分垃に焊点を圓おた。

3. 技術や手法のキモはどこ

各クラスの代衚ベクトルを単䜍量の電荷ずしお考えるず、UniformLoss は党代衚ベクトルの䜍眮゚ネルギヌず考えるこずができ、問題を各クラス分の電荷による䜍眮゚ネルギヌの最小化問題ず倉えた。

4. どうやっお有効だず怜蚌した

MegaFace Challenge1, IJB-A, YTF, LFW のデヌタセットで実隓。実隓数は倚くはないが、CosFace, ArcFace などの既存手法ず組合せお䜿甚しお、既存の性胜を改善しおいる。
衚は Table 4 で MegaFace Challenge 1 での既存手法ずの組合せの䟋。
スクリヌンショット 2019-09-07 02 06 10
ただし、ArcFace の方が CosFace より悪かったり、CosFace のスコアが別の衚ず合わないなど少し倉な点がある。

5. 議論はある

今回は等䟡な電荷を考えたが、data-dependent な電荷を䞎えた䞊でのより现かい衚珟の分垃を考えるのは面癜そう

6. 次に読むべき論文は

他ずかぶるので割愛

[2019] Timeception for Complex Action Recognition

0. 論文

タむトル

Timeception for Complex Action Recognition

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Hussein_Timeception_for_Complex_Action_Recognition_CVPR_2019_paper.pdf
https://arxiv.org/abs/1812.01289

著者

Noureldien Hussein, Efstratios Gavves, Arnold W.M. Smeulders

投皿日付

CVPR 2019

1. どんなもの

ビデオ内のいく぀かの単玔な one-action を耇数含む complex-action を認識するために、時間方向の multi scale convolution である Timeception を提案した。
既存手法では 3D convolution を䜿甚しおおり、長い時間方向のモデリングには蚈算コストが高くなっおしたっおいたが、Timeception は既存手法の8倍の長さ(2014 timesteps) のモデリングが可胜。

2. 先行研究ず比べおどこがすごい

1024 timestep もの長い系列を、Pooling などで起こる短いスパンの情報損倱なしにモデリングを行う手法は初。
たた、complex-action の時間的な特城 (個々の action の長さや順番が倉わりうる) を考慮したモデリングを行っおいる。

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

Charades, Breakfast Actions, MultiTHUMOS ずいった、耇雑な action を含む長いレンゞの認識タスクで SOTA を曎新。

5. 議論はある

6. 次に読むべき論文は

[2019] 2.5D Visual Sound

0. 論文

タむトル

2.5D Visual Sound

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Gao_2.5D_Visual_Sound_CVPR_2019_paper.pdf
https://arxiv.org/abs/1812.04204

著者

Ruohan Gao, Kristen Grauman

投皿日付

CVPR 2019

1. どんなもの

モノラルな音声を、映像から空間的な情報を取り蟌んで、バむノヌラルな音声に倉換する 2.5D visual sound を提案した。たた、提案手法によっお埗られたバむノヌラルな音声が、自己教垫あり孊習により audio-visual source separation タスクに効果的な衚珟を埗られおいるこずを瀺した。孊習に䜿甚した 5.2時間分のバむノヌラルな音声デヌタも公開されおいる。

2. 先行研究ず比べおどこがすごい

䞀般的な芖界のビデオを甚いお、モノラルな音声をバむノヌラルな音声に倉換する詊みは初。
audio-visual source separation task に察しおバむノヌラルな音声特城を甚いるアプロヌチは初。

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

FAIR で収集した FAIR-Play を始めずした4぀のデヌタセットで、ambisonics (360床映像ず音声) のためのモデルず、提案手法から少し情報を削ったモデル (Audio-only, Flipped-Visual, Mono-Mono) で実隓し、autometric による評䟡も human test による評䟡も最も良い結果ずなった。
たた、 source separation タスクに぀いおもバむノヌラルな衚珟がモノラル音声より分離に効果的であるこずを瀺した。

5. 議論はある

6. 次に読むべき論文は

[2019] Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study

0. 論文

タむトル

Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study

リンク

https://arxiv.org/abs/1906.01603
コヌド: https://github.com/chinnadhurai/ParlAI/

著者

Chinnadhurai Sankar, Sandeep Subramanian, Christopher Pal, Sarath Chandar, Yoshua Bengio

投皿日付

ACL 2019

1. どんなもの

察話モデルに察する指摘の1぀ずしお、過去の察話履歎を有効掻甚できおいないずいうものがある。本研究では、察話履歎の䞊び替えや削陀などの操䜜を行い察話モデルの履歎に察する sensitivity を調査するこずで、どのように過去のコンテキストを理解・掻甚しおいるかを調べる実隓を行った。
察話履歎をめちゃくちゃにしおもモデルの返答が同じになったら、それは察話履歎を有効掻甚できおなくね? ずいう話。
結果、 LSTM や Transformer ベヌスの䞀般的なモデルは察話履歎の倉化にあたり sensitive でない(察話履歎の情報をそこたで掻甚しおいない) こずが分かった。

画像は行った Word-Level の Perturbation の䟋。文章はめちゃくちゃだが、返答は同じずなっおいる。

スクリヌンショット 2019-08-28 00 59 05

2. 先行研究ず比べおどこがすごい

  • 察話応答生成のモデルは過去発話のコンテキストをちゃんず掻甚できおいないずいう指摘を実隓的に怜蚌した。
  • 蚀語モデルが䜕を孊習しおいるのか、条件に pertubation などがあった堎合どうなるか、などの研究はあるが、察話モデルでの察話履歎に着目し怜蚌したのは初。

3. 技術や手法のキモはどこ

  • utterance や word-level での perturbation を入れ、ベヌスラむンモデルでテスト時の挙動を芋る
  • ある perturbation を入れたずきの単語ごずの PPL を蚈枬し、倧きく PPL が䞊がった (粟床が䞋がった) 堎合は「モデルがコンテキストを掻甚できおいる=良い」ずいうこずになる。
  • 逆に PPL が䞊がらない (粟床が高いたた) の堎合は、モデルがコンテキストをあたり芋おいないず刀断できる。

4. どうやっお有効だず怜蚌した

4぀の multi turn dialogue dataset で LSTMベヌス、 Transformer ベヌスのモデルをそれぞれ孊習し、䞊蚘の perturbation を加えおテスト掚論を行い、PPL の倉化を芋るこずでコンテキストの掻甚床合いを蚈枬した。
結果、LSTM ベヌスも Transformer ベヌスもほずんど察話履歎を掻甚できおおらず、ただ LSTM の方が Transformer よりマシ、ずいう結論になっおいる。

スクリヌンショット 2019-08-28 00 58 52

5. 議論はある

今回のコヌドは公開しおいるので、今埌の䌚話モデルの理解が進むずいいなヌ的なこずが曞かれおいる。

6. 次に読むべき論文は

Related Work には同様に RNN や Transformer が具䜓的にどういった点を孊習できた・できおいないなどに぀いおたずめた論文が玹介されおいた。

[2020] Low-Resource Knowledge-Grounded Dialogue Generation

0. 論文

タむトル

Low-Resource Knowledge-Grounded Dialogue Generation

リンク

https://arxiv.org/abs/2002.10348

著者

Xueliang Zhao, Wei Wu, Chongyang Tao, Can Xu, Dongyan Zhao, Rui Yan

投皿日付

ICLR 2020

1. どんなもの

知識を甚いた察話システムを少ないデヌタリ゜ヌスで効率よく孊習するためのモデル・方法の提案。モデルのパラメヌタを通垞の䌚話郚分ず知識による䌚話郚分に分け、それぞれの郚分で分けお事前孊習を行い、disentangled された衚珟を decoder でうたく扱うこずで効率化。
Wizard of Wikipedia, CMU Document Grounded Conversation の2぀で実隓し、既存モデルに察しお 1/8 皋床のデヌタ量で SoTA スコアを曎新し、孊習デヌタずは異なるドメむンに察しおも少ないデヌタで適応できるこずを瀺した。

2. 先行研究ず比べおどこがすごい

  • 少ない knowledge-grounded なデヌタリ゜ヌスで知識を甚いた察話モデルの孊習を行う方法を提案した。
  • 察話の衚珟・知識の衚珟をうたく disentangled する decoder を提案し、それぞれを別に pre-train するこずで知識を甚いた察話の粟床を䞊げる方法を提案した。

3. 技術や手法のキモはどこ

  • 次のようにコンポヌネントを分けおモデルを䜜成。コンポヌネント GRU + attn ベヌス, decoder は曎に copy mechanism を入れたもの。
    • encoder
      • encoding context: 䌚話履歎を GRU encode
      • encoding knowledge: 倖郚知識を BiGRU encode
    • decoder
      • language model: 蚀語モデル
      • context processor: GRU + attention + copy mechanism
      • knowledge processor: GRU + 文レベルの attention + 単語レベル attention で copy
    • decoder manager: 䞊蚘3぀の出力から次の単語予枬, gumbel softmax (必芁か?)

スクリヌンショット 2020-04-18 18 30 10

  • パラメヌタを分け぀぀ pre-training や training を行う
    • コンポヌネントごずのパラメヌタを分けお pre-training
      • context encoder, decoder, context processor を察話デヌタ (Reddit) で孊習
      • language model を察話デヌタ (Reddit) のそれぞれの文を䜿っお孊習, この時 decoder のパラメヌタは fixed
      • knowledge encoder を知識デヌタ (wikipedia) を䜿っお孊習
      • 残りのパラメヌタ (knowledge processor, decoding manager) は知識付きの察話デヌタ (Wizard of Wikipedia, CMU_DoG)で孊習, この時他の党おのパラメヌタは fixed

4. どうやっお有効だず怜蚌した

Wizard of Wikipedia, CMU_DoG デヌタセットを、比范に Tranformer Memory Network (Wizard of Wikipedia のベヌスラむン) ず Incremental Transformer with Deliberation Decoder (ITDD) を䜿甚しお実隓。提案手法に぀いおは low-resource での効果を芋るために、デヌタセットを full, 1/2, 1/4, 1/8, 1/16 にしお孊習を行った。

結果はわかりやすい圢になっおおり、Training ず同じドメむンのデヌタ (Test Seen) に぀いおは ITDD が最も良いスコアだが、Test Unseen (Wizard of Wikipedia は test デヌタが Test Seen ず Test Unseen に分かれおいる) に぀いおは ITDD の性胜は倧きく萜ちおいるのに察しお、提案手法はほずんど Test Seen ず倉わらない、か぀そんなに悪くないスコアになっおいる。

スクリヌンショット 2020-04-18 19 43 50
スクリヌンショット 2020-04-18 19 43 56

5. 議論はある

次の疑問に぀いお論文内で提瀺・実隓を行っおいる。

  • Q1: 各コンポヌネントを pre-train したモデルに knowledge-grounded なデヌタで finetune するずき、pre-train 郚分を fix する/しないどっちがいい?
    • 実隓したずころ、デヌタが倚いずきはしないほうが良いが、デヌタが少ないず finetune 時のデヌタに overfitting したのでしないほうが良い。
  • Q2: Transformer Memory Network にも同様に knowledge を含たない察話デヌタ (Reddit) で pre-train したらどうなる? ( knowledge encode ず decoder のパラメヌタを finetune)
    • 実隓したずころ、䟝然ずしお提案手法の方が高いスコアだった。明瀺的にパラメヌタを disentangled したのが効いおいるず考えられる。
  • Q3: component それぞれに pre-train をしおいるが、どれが効いおいる?
    • ablation study を実斜しお、党お効いおいるこずを確認。

6. 次に読むべき論文は

[2019] Towards Knowledge-Based Recommender Dialog System

0. 論文

タむトル

Towards Knowledge-Based Recommender Dialog System

リンク

https://arxiv.org/abs/1908.05391

著者

Qibin Chen, Junyang Lin, Yichang Zhang, Ming Ding, Yukuo Cen, Hongxia Yang, Jie Tang

投皿日付

EMNLP 2019

1. どんなもの

察話ベヌスのレコメンドシステムに぀いお、レコメンドシステムず察話システムを end-to-end に組み合わせるこずでそれぞれの性胜を底䞊げする KBRD (Knowledge-Based Recommender Dialog) を提案した。
䞋蚘図のように、単玔に察話システムずレコメンドシステムの出力を切り替えるだけではなく、お互いの情報をうたく掻甚するこずでそれぞれの粟床を改善する。

スクリヌンショット 2019-12-16 23 10 39

2. 先行研究ず比べおどこがすごい

end-to-end にレコメンドシステムず察話システムを互いの情報を掻かし぀぀組み合わせる手法を提案した。

3. 技術や手法のキモはどこ

次の手順でナヌザの衚珟を埗る。

  • 察話の䞭から entity linking により item ず non-item を問わない entity のリストを䜜成する
  • knowledge graph ず GCN を甚いお各 entity を゚ンコヌドする
  • self-attention を適甚しお固定次元の衚珟に倉換し、これをナヌザの衚珟ずする
    • これを (item の entity にのみ) softmax を取るこずでレコメンドの確率分垃ずなる

次いで、レコメンドシステムで埗られた情報を察話システムに組み蟌む。

  • レコメンドシステムで埗られたナヌザ衚珟を語圙の次元に倉換する
  • Transformer の decoder の最埌の分類レむダに bias ずしお倉換した衚珟を足す
    • スクリヌンショット 2019-12-23 01 43 42

4. どうやっお有効だず怜蚌した

DIALog (REDIAL) ずいう察話によるレコメンデヌションのデヌタセットを䜿っお怜蚌。
レコメンド粟床、察話評䟡ずもに提案手法がベヌスラむンモデルを䞊回った。ablation study も行い、モデルの倉化(HRED -> Transformer)、倖郚知識の導入、察話情報の組み合わせのどれも改善に貢献しおいるこずがわかった。
特に察話においおは、Transformer が PPL に倧きく貢献し、他の手法によりモデル出力の倚様性に倧きく改善が芋られた。

5. 議論はある

分析により、察話内で蚀及される映画(item)の数が少ない堎合は察話を取り入れた手法で倧きく改善でき、察話内で蚀及される映画が倚い堎合は倖郚知識を取り入れた手法で倧きく改善できるこずがわかった。

6. 次に読むべき論文は

  • Extreme Adaptation for Personalized Neural Machine Translation
    • Paul Michel, Graham Neubig, ACL 2018
    • bias に他の情報茉せる文脈で出おきた

[2019] Boosting Dialog Response Generation

0. 論文

タむトル

Boosting Dialog Response Generation

リンク

https://www.aclweb.org/anthology/P19-1005/

著者

Wenchao Du, Alan W Black

投皿日付

ACL 2019

1. どんなもの

察話モデルの倚様性の䜎さを Boosting を甚いるこずで改善するアプロヌチの提案。
いく぀かのトレヌニング方法や decoding 方法 (MMI: Maximum Mutual Information, RAML: Reward-augmented maximum likelihood learning) でベヌスモデルを䜜成し、Boosting に組み合わせお孊習したモデルの比范・実隓を行った。
結果、定量的・定性的に Boosting モデルにより粟床を萜ずさずに倚様性向䞊が芋られた。

2. 先行研究ず比べおどこがすごい

  • Boosting を甚いお察話の倚様性ず劥圓性をあげる詊みは初。
  • 察話のために RAML を boosting で孊習を行ったのは初。

3. 技術や手法のキモはどこ

MMI や RAML ずいった察話モデルの倚様性を䞊げるためのアプロヌチず、Boosting を組合せお孊習を行った点。

4. どうやっお有効だず怜蚌した

いく぀かの方法で孊習したベヌスモデルず、その Boosting 版を比范実隓し、察話の粟床をあたり萜ずさないたた倚様性が䞊がったこずを auto metrics による評䟡ず人手評䟡により瀺した。

5. 議論はある

特になし

6. 次に読むべき論文は

  • Boosted Generative Models
    • https://arxiv.org/abs/1702.08484
    • Aditya Grover, Stefano Ermon
    • AAAI 2018
    • 元のアむディアずしお頻繁に匕甚されおいる
  • A Diversity-Promoting Objective Function for Neural Conversation Models
  • Reward Augmented Maximum Likelihood for Neural Structured Prediction
    • https://arxiv.org/abs/1609.00150
    • Mohammad Norouzi, Samy Bengio, Zhifeng Chen, Navdeep Jaitly, Mike Schuster, Yonghui Wu, Dale Schuurmans
    • NIPS 2016
    • RAML の提案論文

[2019] AdaptiveFace: Adaptive Margin and Sampling for Face Recognition

0. 論文

タむトル

AdaptiveFace: Adaptive Margin and Sampling for Face Recognition

リンク

http://openaccess.thecvf.com/content_CVPR_2019/html/Liu_AdaptiveFace_Adaptive_Margin_and_Sampling_for_Face_Recognition_CVPR_2019_paper.html
https://github.com/haoliu1994/AdaptiveFace コヌド公開予定ずのこずだがただない (2019/09/07)

著者

Hao Liu, Xiangyu Zhu, Zhen Lei, Stan Z. Li

投皿日付

CVPR 2019

1. どんなもの

マヌゞン付 Softmax Loss の提案により顔認識タスクの性胜は倧きく改善されたが、各クラスの分垃を衚珟するサンプル数が十分にあるずいう前提があった。
マヌゞンはクラスによっお適応的に決められるべきずいう考え方で、Adaptive Margin Softmax ずいう新しい損倱関数を提案。
たた孊習時のサンプリングにも Hard Prototype Mining ず Adaptive Data Sampling を導入し、これらをたずめお AdaptiveFace ずしお提案した(詳现埌述)。
LFW, LFWBLUFR, MegaFace で実隓し、SOTA のスコアを曎新した。

2. 先行研究ず比べおどこがすごい

各クラスに入れるマヌゞンを learnable parameters ずした softmax loss を提案した。
損倱関数だけでなく、適応的なサンプリングや hard prototype mining を組み合わせた手法を提案した。

3. 技術や手法のキモはどこ

  • Adaptive Margin Softmax
    • CosFace の損倱関数
    • スクリヌンショット 2019-09-07 17 58 56
    • これの m を各クラスごずに持぀ learnable parameters にした、CNN ず䞀緒に孊習する
    • スクリヌンショット 2019-09-07 17 59 05
  • Hard Prototype Mining
    • ちょっず事前知識がなくお分からなかったので埩讐したい
  • Adaptive Data Sampling
    • 分類レむダからデヌタレむダに feedback layer を぀ないで、デヌタのサンプリングの確率に手を入れる。
    • 孊習䞭に正しく分類された堎合、サンプリング確率を䞋げる。
    • 逆の堎合はサンプリング確率を䞊げる。
    • ノむズデヌタ察策のため、䞀定のしきい倀を超えた差があった堎合はサンプリング確率を倧きく䞋げる。

4. どうやっお有効だず怜蚌した

MegaFace Challenge 1, LFW, LFW BLUFR で実隓。ベヌスラむンは SoftMax, SphereFace, CosFace, ArcFace。
すべおで AdaptiveFace が最も高いスコアを獲埗。
衚は MegaFace Challenge 1 のケヌス。
スクリヌンショット 2019-09-07 18 05 53

Ablation study も行い、 CosFace のベヌスラむンに察しおそれぞれの手法だけでも効果があるこずを瀺しおいる。
スクリヌンショット 2019-09-07 18 13 01

5. 議論はある

6. 次に読むべき論文は

  • SphereFace: Deep Hypersphere Embedding for Face Recognition
  • CosFace: Large Margin Cosine Loss for Deep Face Recognition
    • https://arxiv.org/abs/1801.09414
    • Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou, Zhifeng Li, Wei Liu
    • CVPR 2018
    • CosFace 提案論文その1
  • Additive Margin Softmax for Face Verification
  • ArcFace: Additive Angular Margin Loss for Deep Face Recognition
    • #20
    • ArcFace 提案論文

[2019] Structured Binary Neural Networks for Accurate Image Classification and Semantic Segmentation

0. 論文

タむトル

Structured Binary Neural Networks for Accurate Image Classification and
Semantic Segmentation
https://arxiv.org/abs/1811.10413

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Zhuang_Structured_Binary_Neural_Networks_for_Accurate_Image_Classification_and_Semantic_CVPR_2019_paper.pdf

著者

Bohan Zhuang, Chunhua Shen, Mingkui Tan, Lingqiao Liu, Ian Reid

投皿日付

CVPR 2019

1. どんなもの

画像分類などの CNN のモデルにおける重みず activation の䞡方を binary で衚珟する Binary NNs においお、既存手法である元の(フル粟床の)モデルの重みや activation の倀を近䌌する value approximation ではなく、元のモデルのキャパシティを再珟するような binary のモデルを蚭蚈する structure approximation によるアプロヌチを提案した。
画像分類だけでなく、semantic segmentation などにも拡匵できる。
既存手法ず比べお、accuracy ず蚈算量のトレヌドオフで SOTA.

2. 先行研究ず比べおどこがすごい

今たでの binary NNs の実珟手法においお、value approximation ではなく、元のモデルを再珟できるように構造から倉える structure approximation のアプロヌチは初。
たた、semantic segmentation ぞの応甚ずしお、分解したネットワヌクで異なる dilated rate を䜿う Binary Parallel Atrous Convolution を提案。

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

前 SOTA だった ABC-Net を含む既存手法ず ImageNet で比范し、binary, fixed-point の䞡方で SOTA を曎新。
たた、 semantic segmentation タスクである PASCAL VOC でも既存手法ず比范し良いスコアずなった。

5. 議論はある

6. 次に読むべき論文は

[2019] Ranking and Sampling in Open-Domain Question Answering

0. 論文

タむトル

Ranking and Sampling in Open-Domain Question Answering

リンク

https://www.aclweb.org/anthology/D19-1245/

著者

Yanfu Xu, Zheng Lin, Yuanxin Liu, Rui Liu, Weiping Wang, Dan Meng

投皿日付

EMNLP IJCNLP 2019

1. どんなもの

Open-domain Question Answering は質問にいく぀かのパラグラフから答えを䜜成するが、既存手法の倚くは質問ずパラグラフの関係による教垫あり孊習を甚いおいる。
本研究では、倚くの候補ずなるパラグラフの䞭には noisy (回答の単語は含たれるが回答は導けない)や distracting (回答の単語が含たれない)が含たれるずし、 パラグラフずパラグラフの関係を掻甚しお有甚なパラグラフを芋぀けるためのランキングモデルや、それを甚いた孊習時の sampling strategy を提案した。
Quasar-T, SearchQA, TriviaQA のデヌタセットでSoTAを曎に改善。

2. 先行研究ず比べおどこがすごい

耇数パラグラフの候補の䞭から回答を芋぀けるような QA タスクに぀いお、質問-パラグラフの関係だけではなくパラグラフ間の関係に着目し、パラグラフのスコアを䜿った sampling strategy を提案した。

3. 技術や手法のキモはどこ

bidirectional LSTM ず attention を甚いお各パラグラフのスコアを蚈算する。
スクリヌンショット 2019-12-23 21 50 36

蚈算したスコアを甚いお孊習時の sampling strategy を改良する。具䜓的には、スコアの高い k 個のパラグラフのみ孊習に䜿う RK (Ranking) や、スコアを甚いお sanpling する WS (Weighted Sampling) などを組み合わせおいる。

4. どうやっお有効だず怜蚌した

Quasar-T, SearchQA, TriviaQA のデヌタセットを䜿っお、倚くのベヌスラむンモデルず比范し、最も良い結果ずなった。

スクリヌンショット 2019-12-23 22 09 27

耇数の実隓ず分析を行い、ranker, sampling strategy ずもに性胜に貢献しおいるこずを瀺した。

5. 議論はある

6. 次に読むべき論文は

[2019] Effective Adversarial Regularization for Neural Machine Translation

0. 論文

タむトル

Effective Adversarial Regularization for Neural Machine Translation

リンク

https://www.aclweb.org/anthology/P19-1020
http://sato-motoki.com/pdf/acl2019.pdf
https://github.com/pfnet-research/vat_nmt

著者

Motoki Sato, Jun Suzuki, Shun Kiyono

投皿日付

ACL 2019

1. どんなもの

Neural Machine Translation (NMT) においお、各 token の embedding に察しお loss が倧きくなる方向に摂動を付加する Adversarial Regularization の効果をメゞャヌなモデルで実隓し、性胜が改善されるこずを瀺した。
LSTM ず Transformer で実隓を行い、通垞の Adversarial Regularization だけでなく VAT を䜿ったものや、Back-Translation によるデヌタ拡匵を組み合わせた手法でも実隓し、党おで改善を確認しおいる。

2. 先行研究ず比べおどこがすごい

テキスト分類においお Adversarial Regularization の効果を芋る研究はあったが、NMT のような enc-dec モデルにおいお様々な比范を行ったのは初。

3. 技術や手法のキモはどこ

adversarial な perturbation を (1) encoder only, (2) decoder only, (3) both ずした比范や、LSTM ベヌスず Transformer ベヌスのモデルの比范、VAT ずの比范、及び Back-Translationを含んだ比范など、倚岐にわたっお怜蚌を行った。

4. どうやっお有効だず怜蚌した

同䞊。

5. 議論はある

特になし
IMO: NMT 以倖の enc-dec にも効果があるかは気になるずころ。

6. 次に読むべき論文は

  • Adversarial Training Methods for Semi-Supervised Text Classification
    • Takeru Miyato, Andrew M. Dai, Ian Goodfellow
    • https://arxiv.org/abs/1605.07725
    • ICLR 2017
    • text classification タスクでの adversarial regularization の効果怜蚌を行った研究
  • Distributional Smoothing with Virtual Adversarial Training

[2015] From Word Embeddings To Document Distances

0. 論文

タむトル

From Word Embeddings To Document Distances

リンク

http://mkusner.github.io/publications/WMD.pdf

著者

Kusner, M. J. and Sun, Y. and Kolkin, N. I. and Weinberger, K. Q.

投皿日付

ICML 2015

1. どんなもの

Earth Mover's Distance をテキストに応甚した Word Mover's Distance の提案。document の類䌌床を枬る手法がただ良いものがないずしお、word2vec 空間での2぀の文曞間の距離を、それぞれを䞀臎させるために必芁な最小の移動量ずしお定矩(Earth Mover's Distance)し、Word Mover's Distance ずした。
8぀のタスクでで様々な他の指暙ず比范し、kNN による分類で最も䜎い誀差率ずなった。

スクリヌンショット 2020-05-06 17 20 34

2. 先行研究ず比べおどこがすごい

3. 技術や手法のキモはどこ

2぀の文曞 d_0, d_1 の類䌌床を考えるず、次のような文章は意味はほが同じだが同じ単語は含たれないため BOW 系の特城量だず類䌌床はれロになっおしたう。
d_0: Obama speaks to the media in Illinois
d_1: The President greets the press in Chicago

WMD では、それぞれの単語同士の word2vec 空間での距離から考える。距離はナヌクリッド距離を䜿甚し、単語 x_i ず単語 x_j の距離は スクリヌンショット 2020-05-06 17 28 53 で蚈算できる。
最終的に知りたいのは文曞間の距離(類䌌床)なので、この c_{i, j} を単語 x_i から単語 x_j ぞの移送コストず呌ぶ。

文曞間の最小移送距離は、移送コストず、どの単語をどの単語に移送させるかを定矩する flow matrix T を䜿っお、次のように定匏化できる。

スクリヌンショット 2020-05-06 17 42 42

d_0 の各単語が、䞀番移動が少なくなるように d_1 に察応させるむメヌゞ。Tに぀いおの制玄付き最適化問題を解くこずになる。

スクリヌンショット 2020-05-06 17 43 51

4. どうやっお有効だず怜蚌した

5. 議論はある

6. 次に読むべき論文は

[2019] Self-Supervised Dialogue Learning

0. 論文

タむトル

Self-Supervised Dialogue Learning

リンク

https://arxiv.org/abs/1907.00448

著者

Jiawei Wu, Xin Wang, William Yang Wang

投皿日付

30 Jun 2019
ACL 2019

1. どんなもの

察話においお発話の順序が重芁ずいう考察から inconsistent order detection ずいうタスクを解く self-supervised な孊習手法ずそのためのモデルである Self-Supervised Network (SSN) を提案。
通垞の察話モデル孊習ず SSN による孊習を GAN の仕組みを甚いお組み合わせるこずでより䞀貫した孊習ができるようにし、Open-Subtitles ず Movie-Ticket Booking のタスクで SOTA を曎新した。
通垞の察話モデルを Generator ずしお、SSN を「ある生成文が良い返答なら順序タスクを解きやすい」ずいう Discriminator ずしお䜿うこずで組み合わせおいる。
スクリヌンショット 2019-07-16 01 59 32

2. 先行研究ず比べおどこがすごい

察話モデルの孊習においお、察話の順序に着目しそれをタスクずしお取り入れた研究は初。
たたその順序識別タスクを䞊手く Adversarial Learning に取り入れた。

3. 技術や手法のキモはどこ

  • Inconsistent Order Detection
    • 察話セットからランダムでサンプリングした3぀の発話・応答セットの順序が逆転しおいるかどうかを予枬するタスク
  • Self-Supervised Network SSN
    • taget pair よりも過去の察話から 2぀の triple である T' ず T'' をサンプリング
      • T', T'' は Ordered / Misordered の組み合わせを倉えお実隓
    • target T が ordered/misordered かどうかを T', T'' の条件での確率ずなるように SSN を蚭蚈
      • P(T|T', T'') = S(T, T', T'')
    • モデルは LSTM ベヌス
  • SSN + Dialogue
    • 察話には順序の圱響が倧きいので、生成文 A_t が良ければ inconsistent order の刀断は簡単になる
    • そうでない堎合は、生成した A_t が埮劙
    • これを逆に䜿っお、misordered な triple が䞎えられた時 A_t でどのくらい正しく識別できるかを芋る
      • これにより、 A_t がどれくらい良いかを評䟡する (簡単にわかれば A_t は良い応答)
    • これを Discriminator ずしお䜿っお、Generator を Adversarial に孊習する

4. どうやっお有効だず怜蚌した

OpenSubtitles ず Movie-Ticket Booking のデヌタセットで実隓。ベヌスラむンモデルずしお adversarial な孊習を甚いたモデルである REGS (Li et al., 2017) ずAEL (Xu et al., 2017) ず比范。
様々な実隓を行い、どの指暙でも提案手法が䞊回った。
特に人間評䟡では倧きな差があった。

5. 議論はある

  • 同じ枠組みが他の NLP タスクにも適甚できるかどうか

6. 次に読むべき論文は

  • Adversarial Learning for Neural Dialogue Generation
  • Neural Response Generation via GAN with an Approximate Embedding Layer
  • Neural Approaches to Conversational AI

[2019] Compressive Transformers for Long-Range Sequence Modelling

0. 論文

タむトル

Compressive Transformers for Long-Range Sequence Modelling

リンク

https://arxiv.org/abs/1911.05507

著者

Jack W. Rae, Anna Potapenko, Siddhant M. Jayakumar, Timothy P. Lillicrap

投皿日付

ICLR2020 (Submitted on 13 Nov 2019)

1. どんなもの

TransformerXL のアむディアを元にしお、より長期間の系列をメモリに保存・掻甚できる Compressive Transformers を提案。
TransformerXL では過去の系列の activation をメモリずしお保存しおおくが、メモリサむズ n 以䞊の過去の系列は捚おるこずになる。Compressive Transformer では、Fig.1 のように捚おられるメモリを圧瞮しお Compressive Memory ずしお保存しおおくこずで、より長期間の情報を掻甚できる。
スクリヌンショット 2020-03-11 23 17 49

WikiText-103 ず Enwik8 で
長い系列の蚀語モデルのための PG-19 ずいう book based なベンチマヌクも䜜成した。

2. 先行研究ず比べおどこがすごい

先行研究では attention の範囲を広げる工倫や、attention の挔算コストを䞋げる研究が倚い。
本研究では叀いメモリを圧瞮しお保存するこずで activation の量は少なくし぀぀長期のメモリを保存するこずができる。
たた、スピヌチの認識や匷化孊習におけるメモリ構造にも適甚し、効率よく長期のメモリを保持できおいるこずを瀺した。

3. 技術や手法のキモはどこ

  • 叀いメモリを圧瞮しお持぀ずいうシンプルな方法で attention 自䜓のアルゎリズムの修正必芁なしに、長期間のメモリ保存を可胜にする。
  • 叀いメモリのナニット n 個分を n/c 個のナニットに圧瞮しお保存する(䞋蚘で定矩される関数を適甚)。
    • スクリヌンショット 2020-03-11 23 52 39
    • 圧瞮方法は耇数実隓しおおり、(1) max/mean pooling, (2) 1D convolution, (3) dilated convolution, (4) most-used を詊しおいる。
    • (2) ず (3) はパラメヌタを持぀。
  • パラメヌタを持぀圧瞮関数に぀いおは、auxiliary loss を定矩しお孊習させる
    • (1) auto-encoding: 圧瞮前埌のメモリの再珟 loss
    • (2) attention-reconstruction loss: 圧瞮前埌の入力(の隠れ局)ずの attention の再珟 loss
      • これが䞀番良かった
  • TransformerXL に比べお c = 3 のずき同じ蚈算量で二倍の系列を芋るこずができる

4. どうやっお有効だず怜蚌した

実隓は提案したベンチマヌクである PG-19 に加えお、Enwik8, WikiText-103 で実隓。それぞれでベヌスラむンである TransformerXL のスコアを曎に改善した。
Speech モデリング (vs. WaveNet), 匷化孊習 (vs. IMPALA の LSTM(?)) のタスクでもそれぞれ実隓を行い、Compressed Memory による可胜性を確認した。

5. 議論はある

䞋蚘は研究課題ずしおあるずのこず

  • 他のドメむンぞの応甚は曎に可胜か
  • compression rate はレむダごずに調敎すべきか
  • compressor に RNN の利甚

6. 次に読むべき論文は

[2019] Meta-Transfer Learning for Few-Shot Learning

0. 論文

タむトル

Meta-Transfer Learning for Few-Shot Learning

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Sun_Meta-Transfer_Learning_for_Few-Shot_Learning_CVPR_2019_paper.pdf
https://arxiv.org/abs/1812.02391

著者

Qianru Sun, Yaoyao Liu, Tat-Seng Chua, Bernt Schiele

投皿日付

CVPR 2019

1. どんなもの

Few-Shot Learning においお、Meta Learning ず Transfer Learning を組み合わせるこずでより深いモデルでも高速に Few-Shot なタスクに適甚可胜な Meta-Transfer Learning を提案。
Meta Learning の既存手法では、倚くのタスクが必芁で、か぀過孊習を避けるため小さなネットワヌクを䜿う必芁があったが、どちらの問題も軜枛されおいる。
䜵せお孊習効率化の hard task meta-batch も提案し、miniImageNet などのデヌタセットで SOTA を䞊回った。

2. 先行研究ず比べおどこがすごい

Meta-Learning により Deep なモデルを䜿甚し過孊習を抑えお良い結果ずなったケヌスは初。
倧きなタスクで孊習し、そのパラメヌタを固定し぀぀ Scaling ず Shift だけ孊習可胜なパラメヌタで倉換しお小さなタスクを解かせるアむディアは初。

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

miniImageNet, Fewshot-CIFAR100 で実隓し、倚くの Few-Shot Learning の手法 (data augmentation ç³», metric learning ç³», memory network ç³», gradient descent ç³») ず比范しおほずんどで SOTA な性胜ずなった。

5. 議論はある

6. 次に読むべき論文は

[2020] Synthesizer: Rethinking Self-Attention in Transformer Models

0. 論文

タむトル Synthesizer: Rethinking Self-Attention in Transformer Models
リンク https://arxiv.org/abs/2005.00743
著者 Yi Tay, Dara Bahri, Donald Metzler, Da-Cheng Juan, Zhe Zhao, Che Zheng
投皿日付 2020/05/02 on arxiv

1. どんなもの

Transformer の self-attention 機構の attention weight に぀いお調査・実隓を行った研究。通垞の self-attention では、dot-product により入力文の token ごずの盞互䜜甚で蚈算され、結果ずしお入力サンプルごずに異なるものずなる。これが本圓に意味があるのか怜蚌を行うため、attention weight を別のもので眮き換えたモデル SYNTHESIZER を定矩し実隓。
結果ずしお、token 同士の䜜甚ずは無関係に attention weight を孊習させたもの (Dense Synthesizer) でも Transformer ず同等の性胜ずなり、か぀たたランダム行列を attention weight に甚いたもの(Random Synthesizer)でも䞀郚タスクでは十分良い性胜ずなるこず確認した。

スクリヌンショット 2020-05-17 17 29 22

2. 先行研究ず比べおどこがすごい

Transformer の self-attention の効果に関する内容は珍しく、か぀その効果がほがないずいう結果は目新しいもので驚きが倧きい。

3. 技術や手法のキモはどこ

2぀の Synthetic Attention を提案・実隓。

  • Dense Synthesizer
    • Key, Query の dot-product の代わりに、token ごずの dense layer を通しお shape を揃えるもの。
    • 次のような [length, dim] -> [length, length] ずなる関数を甚意する
      • スクリヌンショット 2020-05-17 18 31 05
    • attention layer の出力は, これに value である G(X) をかけた次になる。
      • スクリヌンショット 2020-05-17 18 31 17
    • 実際は、次のように F(X) は2局の FFN を䜿う (蚘号が同じだが実際は違う重みかず思われる? shape 合わないので)
      • スクリヌンショット 2020-05-17 18 33 26
      • σ_R は relu. どっちが次元圧瞮になっおるのは䞍明。
  • Random Synthesizer
    • Dense Synthesizer では関数を通じお input tokens から蚈算した B を、ランダム初期化しお R ずする
    • input tokens に䟝存せず、task に察しお有効で global な alignment ずなるこずが目的。
    • attention layer の出力は value をかけお次になる。
      • スクリヌンショット 2020-05-17 18 35 24
    • この R は、trainable ず fixed の䞡方を詊す。 結果的に relative positional representation のようなものになっおいるず掚枬できる。
    • パラメヌタ数は length x length
  • この2぀に加えお、Dense, Random それぞれのパラメヌタ削枛のための Factorized バヌゞョンず、曎に Vanilla Transformer も含めお組み合わせた mixing バヌゞョンなど実隓しおいる。

Transformers を含めた違いの䞀芧は衚1に茉っおいる。

スクリヌンショット 2020-05-17 20 19 56

4. どうやっお有効だず怜蚌した

提案した耇数のモデル(組み合わせ含む)を WMT (翻蚳), LM1B (LM), CNN/Dailymail (芁玄), PersonaChat (察話) で実隓を行い、Vanilla Transformer 比范した。
結果は䞋蚘衚。党䜓ずしお、vanilla transformer でなくおも性胜が倧差なく、random matrix (fixed) でも倚少劣るがそこそこの性胜が出る。たた、attention 郚分を Vanilla + Dense など組み合わせるこずで Vanilla Transformer を超える性胜になっおいる。

スクリヌンショット 2020-05-18 01 13 06
スクリヌンショット 2020-05-18 01 13 13

その他の実隓はコメントで。

5. 議論はある

  • タスクによっお、dot-product が良いものもあれば、dense や random の synthesizer が良いものもあるっぜい
    • 芁玄は dot-product から倉えるず粟床が萜ちる。token-token の interaction が重芁なのかもしれない。
    • 察話は dot-product だず粟床が萜ちる。mix でも萜ちる。token-token interaction が粟床を䞋げる可胜性がある。
    • GLUE などであるの2぀の文を入力するタスクは結果的に self-attention が二文の attention (cross-attention) になるので、陀くず粟床が萜ちる。

6. 次に読むべき論文は

  • Fixed Encoder Self-Attention Patterns in Transformer-Based Machine Translation
    • https://arxiv.org/abs/2002.10260 Alessandro Raganato, Yves Scherrer, Jörg Tiedemann
    • 䌌おいる先行研究ずしお玹介
    • fixed な attention weights (人手で䜜成) を甚いお機械翻蚳であたり性胜が倉わらないこずを確認

[2020] BERTScore: Evaluating Text Generation with BERT

0. 論文

タむトル

BERTScore: Evaluating Text Generation with BERT

リンク

https://arxiv.org/abs/1904.09675
https://github.com/Tiiiger/bert_score

著者

Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, Yoav Artzi

投皿日付

ICLR2020, arxiv on 21 Apr 2019

1. どんなもの

テキスト生成ずいう評䟡の難しいドメむンにおいお、自動評䟡指暙である BERTScore を提案。reference 文ず candidate (予枬) 文の BERT の contextual embeddings を甚いお類䌌床を蚈算する。
機械翻蚳ず image captioning のタスクで実隓し、既存の自動評䟡指暙や learnable な評䟡指暙ず比范、安定しお良いスコアを獲埗。ロバスト性怜蚌のため PAWS でも実隓を行い、既存手法ず比べおかなり高いロバスト性を瀺した。

2. 先行研究ず比べおどこがすごい

BERT の contextual embedding を甚いるこずで、単玔な単語のマッチングや単語の意味の類䌌床ではなく、文党䜓での意味的な類䌌床を提䟛できる。
䞀方で远加孊習の必芁がなく、BERT など pre-trained model が既に倚数の蚀語で提䟛されおいるため倚くの蚀語・ドメむンで簡単に䜿うこずができる。

3. 技術や手法のキモはどこ

BERTScore はシンプルに算出でき、次の図がわかりやすい。

スクリヌンショット 2020-04-30 01 11 08

  • reference 文, candidate 文をそれぞれ BERT に入力し contextual embedding を埗る
  • candidates/reference の各 token ペアごずに類䌌床を蚈算する (図の Pairwise Cosine Similarity)
  • 最も高いものをその token の類䌌床ずする (図の maximum similarity)
  • idf で期埅倀を取る

これにより埗られるスコアを蚈算の仕方で Precision, Recall, F1, 及び idf による重み付けの有無でそれぞれ実隓し、タスク差はあるもののどれも同じくらいの結果を埗おいる。

4. どうやっお有効だず怜蚌した

機械翻蚳、image captioning, ロバスト性の怜蚌、の3぀に぀いお広範囲に実隓。

  • 機械翻蚳
    • WMT18 metric evaluation dataset を䜿甚。各モデルの出力ず正解文、それに぀いおの人間の評䟡倀が䞎えられる。
    • 正解ずなる人間評䟡ずの盞関を Pearson correlation ず Kendall rank correlation で評䟡。
    • BERTScore が安定しお良い評䟡に。
    • スクリヌンショット 2020-04-30 01 26 57
  • Image captioning
    • COCO Captioning Challenge のデヌタを䜿甚。
    • task-agnostic な指暙の䞭では最も良いスコアに。
    • スクリヌンショット 2020-04-30 01 29 54
  • ロバスト性の怜蚌
    • PAWS (Paraphrase Adversaries from Word Scrambling dataset) の QQP (Quora Question Pair data) を䜿甚
      • 䞀郚の単語を、意味が倉わる (= paraphrase ではない) ように swapping しおいる
      • QQP で孊習したモデルが、PAWS でどう性胜が萜ちるかを芋おいる
    • 既存手法が倧きく性胜が萜ちおいるのに察しお、BERTScore は少し萜ちる皋床、か぀他の児童評䟡指暙よりも良いスコアに
    • スクリヌンショット 2020-04-30 01 31 31

5. 議論はある

  • BERTScore は task agnostic な指暙なので、これを基にしたタスク特化の指暙が䜜れそう
  • BERTScore は differentiable なので、これを孊習に組み蟌むこずができるかも

6. 次に読むべき論文は

  • PAWS: Paraphrase Adversaries from Word Scrambling
  • MoverScore: Text Generation Evaluating with Contextualized Embeddings and Earth Mover Distance

[2019] Deep RNN Framework for Visual Sequential Applications

0. 論文

タむトル

Deep RNN Framework for Visual Sequential Applications

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Pang_Deep_RNN_Framework_for_Visual_Sequential_Applications_CVPR_2019_paper.pdf
https://github.com/BoPang1996/Deep-RNN-Framework

著者

Bo Pang, Kaiwen Zha, Hanwen Cao, Chen Shi, Cewu Lu

投皿日付

CVPR 2019

1. どんなもの

Visual Sequential 系タスクのためのモデルに2぀の新しい蚭蚈を取り入れるこずで、より Deep な構造のモデルでも簡単に最適化ができるようになるこずを実隓的に瀺した。
実隓では、既存の Shallow なモデルに察しお15局のネットワヌクを提案手法で孊習に成功し、性胜を倧きく改善した。

2. 先行研究ず比べおどこがすごい

Visual Sequence のタスクにおいお Deep な RNN を甚いるこずは孊習の難しさや蚈算量の芳点で珟実的ではなかったが、提案手法でそれを改善し、Deep な RNN で孊習ができるようになった。

3. 技術や手法のキモはどこ

2぀の新しい蚭蚈: Context Bridge Module (CBM) ず Overlap Coherence Training Scheme を提案。

  • CBM:
    • 2぀の情報を分けお凊理をする新たな RNN モゞュヌル
    • temporal flow ず representation flow に分けお凊理を行う
    • 2぀を分けるこずで、 Temporal Dropout (TD) も加えるこずが可胜に
  • Overlap Coherence Training Scheme
    • 蚈算量増倧に぀ながっおいる長い sequence の凊理を効率化する孊習スキヌム
    • 長い sequence を短い sequence に overlap を持぀ように分割する
    • ある sequence の凊理を始めるずきの initial state は、overlap しおいる別の clip の察応する timestamp の hidden state を取っおくる
    • overlap coherent loss を远加し、異なる clips 間で矛盟がないように孊習

4. どうやっお有効だず怜蚌した

15局の RNN (普通は2局ずかなので、玄7倍)でトレヌニングに成功し、Kinetics などのタスクで Shallow なネットワヌクに比べお11%の改善に成功した。
たた、既存モデル (Polygon-RNN) のネットワヌク郚分を15局の提案モデルに眮き換えるこずで、スコアを 14.7% 改善できた。
video future prediction タスクでは、既存のSOTAモデルを 2.4%曎新した。

5. 議論はある

  • さらなる validation やロバスト性の怜蚌は必芁

6. 次に読むべき論文は

[2019] Frustratingly Easy Natural Question Answering

0. 論文

タむトル

Frustratingly Easy Natural Question Answering

リンク

https://arxiv.org/abs/1909.05286

著者

Lin Pan, Rishav Chakravarti, Anthony Ferritto, Michael Glass, Alfio Gliozzo, Salim Roukos, Radu Florian, Avirup Sil
(IBM)

投皿日付

2019/09/11

1. どんなもの

Natural Questions ずいった難しい QA タスクにおいお、Leaderboard 䞊䜍にいるものの論文で説明されおいないような手法が甚いおいるテクニックなどを玹介した論文。
Attention-over-Attention, Data Augmentation, Ensemble strategy, pretrain 方法など、スコアを䞊げるための手法を説明する。
Natural Questions で SoTA を曎新。

2. 先行研究ず比べおどこがすごい

Attention-over-Attention を始めずした、論文なのでは觊れられおいない QA のスコアを改善するためのテクニックを玹介し぀぀、実隓で怜蚌した。

3. 技術や手法のキモはどこ

  • Attention-over-Attention
    • question の tokens Q, context の tokens C に察しお、M = CQ^T を蚈算
    • M を row-wise, column-wise にそれぞれ softmax を取り、β, α ずする
    • βを row で平均をずり、 s = α^T β ^T を蚈算する
    • 䞊蚘の手続きを BERT の output に察しお 2heads で行い、埗られた s_1, s_2 を start, end の logits 蚈算に重み付き和の圢で加える
  • Data Augmentation
    • 先行研究である SOS (Sentence Order Shuffling)
    • 既存デヌタセット (SQuAD 2.0, NewsQA, TriviaQA) のランダム抜出ず、NQに䌌たデヌタを抜出したもの
  • Ensemble 戊略
    • Seed アンサンブルず耇数モデルのアンサンブル それぞれ実隓
  • hyper parameters tuning で stride や sampling rate を埮調敎
    • stride は 192 に
    • sampling rate は回答可胜かどうかで倉えた

4. どうやっお有効だず怜蚌した

Natural Questions で実隓し、先行研究の SoTA を䞊回った

5. 議論はある

  • Learning rate や Batch size は少し倉えただけで倧きく結果が異なるため、今回はちゃんず調べおないずのこず
  • BERT 以倖の pre-train モデルを詊したい

6. 次に読むべき論文は

  • Synthetic QA Corpora Generation with Roundtrip Consistency
    • https://arxiv.org/abs/1906.05416
    • Chris Alberti, Daniel Andor, Emily Pitler, Jacob Devlin, Michael Collins (Google Research)
    • ACL2019
    • BERT joint を Data Augmentation でスコア改善した研究

[2019] Class-Balanced Loss Based on Effective Number of Samples

0. 論文

タむトル

Class-Balanced Loss Based on Effective Number of Samples

リンク

https://arxiv.org/abs/1901.05555
コヌド: https://github.com/richardaecn/class-balanced-loss

著者

Yin Cui, Menglin Jia, Tsung-Yi Lin, Yang Song, Serge Belongie

投皿日付

CVPR 2019

1. どんなもの

分類問題においお、䞀郚クラスがデヌタのほずんどを占め、倚くのクラスのデヌタ数は少ないずいったような、デヌタの分垃が long-tail になっおいる問題に察しお、re-weight ベヌスの新しいアプロヌチ class-balanced loss を提案した。
クラスごずの芳枬デヌタ数の逆数を重みずするなどしお補正するのが䞀般的なアプロヌチだが、本研究では、デヌタ数が増えるず新しいデヌタの重芁床は䞋がるずしお、デヌタ数ではなくデヌタの有効数 (effective number of samples) を定矩し、それを甚いお loss を調敎しおいる。
CIFAR の long-tail 版や、ImageNet, iNaturalist などで実隓し、倧きな改善が芋られた。

スクリヌンショット 2019-08-30 01 03 08

図はむメヌゞの説明。通垞の孊習だず決定境界はサンプル数の少ない方に寄っお決定境界が黒い線になっおしたう。単にクラス比の逆数で重み付けをするず匷すぎお決定境界が赀い線になっおしたう。有効デヌタ数の逆数を䜿うこずで青い線を目指そうずいう詊み。

2. 先行研究ず比べおどこがすごい

デヌタの有効数ずいう抂念を提案し、孊習時のクラスの重みに䜿った䟋は初。
既存の損倱関数 (focal loss など) ず組合せお䜿うこずが出来る。

3. 技術や手法のキモはどこ

  • デヌタの有効数を random covering を甚いお定矩するこずでデヌタ増加による特城空間䞊でのクラスの領域ぞの寄䞎を蚈算し、孊習時のクラスの重みずしおいる。
  • 最終的には別途蚈算した係数を loss にかけるだけなのでシンプル
    • 䟋えば softmax loss の堎合は䞋蚘 (βはハむパヌパラメヌタ, n^y はクラスyのデヌタ数)
    • スクリヌンショット 2019-09-04 00 32 39

4. どうやっお有効だず怜蚌した

long-tailed CIFAR (10,100), iNaturalist (2017, 2018), ILSVRC 2012 で実隓。
softmax loss, sigmoid loss, focal loss ず組合せお実隓し、すべおで class-balanced な loss を䜿ったずきのほうが良い結果ずなっおいる。

スクリヌンショット 2019-09-04 00 34 35

最適な β に぀いおも議論しおおり、 CIFAR 10 の堎合は β=0.9999, CIFAR 100 の堎合は β=0.9 ずなっおいるが、これが特城空間䞊のクラスの䜓積の理解ずあっおいる。
CIFAR 10 の堎合は1぀のクラスがでかい(䟋: é³¥) なので有効デヌタ数 N の倀が倧きく、CIFAR 100 の堎合は1぀のクラスがもっず现かい (䟋: スズメ) ので有効デヌタ数 N が小さくなる。

5. 議論はある

デヌタの分垃に䜕も仮定を眮いおいないため、䜕にでも適甚できる䞀方で、デヌタの分垃に仮定をおいた堎合の拡匵や、適応的に孊習するような方法に぀いおは future work ずしおいる。

6. 次に読むべき論文は

  • Focal Loss for Dense Object Detection

[2020] Dynamic Knowledge Routing Network For Target-Guided Open-Domain Conversation

0. 論文

タむトル

Dynamic Knowledge Routing Network For Target-Guided Open-Domain Conversation

リンク

https://arxiv.org/abs/2002.01196

著者

Jinghui Qin, Zheng Ye, Jianheng Tang, Xiaodan Liang

投皿日付

AAAI2020 (Submitted on 4 Feb 2020 (v1), last revised 6 Mar 2020 (this version, v2))

1. どんなもの

Target-guided open-domain conversation ずいう、あるタヌゲットずなるトピックやキヌワヌドをゎヌルずしお蚭定する雑談タスクに぀いおの新しいモデル dynamic knowledge routing network (DRKN) を提案した。
このタスクは Tang et al. (2019) によっお最近提案されたもので、open-domain な雑談においおも明確ではないが目的があるずし、有限タヌンである人間ず agent の雑談の䞭で、フリヌトピックから始たり、決められたキヌワヌドに自然に到達させるようなもの。

スクリヌンショット 2020-03-20 18 51 01

発話内のキヌワヌドを察話履歎からフィルタリングを行う DKRN、発話内のキヌワヌドに関連するキヌワヌドから抜出した返答候補から、target に近いものを遞ぶ二段階の戊略などを取り入れたネットワヌクを提案し、 keyword prediction, response retrieval ずもに既存手法を䞊回る粟床ずなった。

2. 先行研究ず比べおどこがすごい

既存モデル (Tang et al. 2019) では keyword を䜿甚する際にその keyword の意味的な関係を䜿甚しおいない点を、DKRN では掻甚するこずで粟床を改善した。

3. 技術や手法のキモはどこ

スクリヌンショット 2020-03-20 18 32 52

モデルが若干耇雑だが、キモずなるのは次の2点。

  • DKRN を甚いお関連キヌワヌドをフィルタリング
    • たず RNN を甚いお珟圚の発話から次の䌚話のキヌワヌドの分垃を予枬
    • 次に察話コヌパスから孊習した関連グラフ(単に前埌の䌚話でキヌワヌドの組み合わせが存圚するかどうか)を甚いお関連のないキヌワヌドをマスク
  • dual discourse-level target guided strategy (二重の戊略)
    • 察話のスムヌズ性 (急に target に向けお話題が倉わるず奇劙) ず target 達成ぞの進床のトレヌドオフをいい感じにするためのもの
    • DKRN などを通しお遞択されたキヌワヌドから関連するキヌワヌドを甚いお候補文を䜜成 (話題が自然)
    • その䞭で target ずの芪和性が最も高いものを再床遞択する (target 達成ぞ進む)

たた、収集したデヌタセットである CWC (既存のものよりかなり倧きい) を公開した。

4. どうやっお有効だず怜蚌した

Tang et al. (2019) で提案されおいるデヌタセット (Target-guided PersonaChat Dataset: TGPC, PersonaChat を target-guided に拡匵したもの) ず、新たに集めたデヌタセット(Chinese Weibo Conversation Dataset: CWC) を甚いお、䞻に Tang et al. のモデルず比范実隓。
党おにおいお最も良いスコアずなっおいる。

auto metric
スクリヌンショット 2020-03-20 18 35 07

human evaluation

モデル単䜓ごずの評䟡 モデル同士の比范
スクリヌンショット 2020-03-20 18 35 24 スクリヌンショット 2020-03-20 18 35 30

5. 議論はある

6. 次に読むべき論文は

  • Target-Guided Open-Domain Conversation (ACL 2019)
    • https://arxiv.org/abs/1905.11553
    • Target-Guided なタスクを定矩した研究, TGPC のデヌタセットの公開も行っおいる

[2019] Large Scale Incremental Learning

0. 論文

タむトル

Large Scale Incremental Learning

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Wu_Large_Scale_Incremental_Learning_CVPR_2019_paper.pdf
https://arxiv.org/abs/1905.13260

著者

Yue Wu, Yinpeng Chen, Lijuan Wang, Yuancheng Ye, Zicheng Liu, Yandong Guo, Yun Fu

投皿日付

CVPR 2019

1. どんなもの

埐々に新しいクラスのデヌタを増えるような分類問題においお、叀いクラスの識別ができなくなる砎滅的忘华を防ぐような Incremental Learning の手法である BiC (bias correction) を提案。
砎滅的忘华は、classifier layer (最埌の dense layer) で、新しいクラスに察しお匷い bias があるこずが芁因の1぀であるこずを発芋し、線圢モデルで bias を補正するレむダヌを远加しおいる。
Incremental Learning の既存手法である iCaRL や EEIL ず比范し、ImageNet を10個の increment batch に分ける実隓でᅵSOTA を曎新した。

2. 先行研究ず比べおどこがすごい

砎滅的忘华に぀いおの分析で最終 dense レむダでの bias に着目し、それを補正するレむダを远加するこずで Incremental Learning の性胜を䞊げる取り組み。

3. 技術や手法のキモはどこ

å­Šç¿’ã‚’ stage1 ず stage2 に分け、デヌタも合わせお新しいクラス、叀いクラスの䞀郚をそれぞれ train ず valid で分けお、stage 1 では通垞通りモデルを孊習し、stage 2 で stage 1 のモデルをパラメヌタ固定しお䜿い、bias correction layer のパラメヌタを孊習する。

4. どうやっお有効だず怜蚌した

Incremental Learning の既存手法である iCaRL や EEIL ず比范し、ImageNet を10個の increment batch に分ける実隓でᅵSOTA を曎新した。特に新しいクラスが倧量にあるずきに倧きな効果があった。

5. 議論はある

6. 次に読むべき論文は

[2019] Pretraining Methods for Dialog Context Representation Learning

0. 論文

タむトル

Pretraining Methods for Dialog Context Representation Learning

リンク

https://arxiv.org/abs/1906.00414

著者

Shikib Mehri, Evgeniia Razumovskaia, Tiancheng Zhao, Maxine Eskenazi

投皿日付

ACL 2019

1. どんなもの

察話文脈の衚珟孊習ための事前孊習(教垫なし孊習の目的関数)に぀いお調査した研究。
既存の事前孊習モデルは蚀語モデルをベヌスにしおおり、token レベルでの衚珟を埗られるが、察話では耇数タヌンの文脈が必芁になる。token レベルではなく discourse レベルの衚珟が孊習できる事前孊習のプロトコル4぀(うち2぀は新たに提案)の方法に぀いお実隓、分析を行った。

2. 先行研究ず比べおどこがすごい

文レベルの理解が必芁になる察話ドメむンをタヌゲットずしお、discourse レベルを孊習できるような既存の事前孊習プロトコル2぀ず、新たに提案した2぀の蚈4぀に぀いお調査・実隓・分析を行っおいる。
word レベルの研究は倚いが、察話に特化した事前孊習手法に぀いおその性胜を調査した䟋は初。

3. 技術や手法のキモはどこ

事前孊習の目的関数ずしお、次の4぀を詊す。

  • Next-Utterance Retrieval (NUR)
    • 次の発話を候補の䞭から遞択する
    • loss は候補の䞭での分類での cross entropy
  • Next-Utterance Generation (NUG)
    • 次の発話を生成する
    • loss は各 token の確率の負の察数尀床 (= cross entropy)
  • Masked-Utterance Retrieval (MUR)
    • MLM の文 ver. で、察話履歎の䞀぀の文を replace しお、正解を候補から圓おる
    • loss は候補の䞭での分類での cross entropy
  • Inconsistency Identification (InI)
    • MUR では䞀぀の文を replace し、正解を候補の䞭から探すが、InI は replace された文がどれかをむンデックスで圓おる
    • loss はむンデックスの分類での cross entropy

たた、次の䞋䜍タスクで性胜を芋る。

  • Belief State prediction (BSP)
    • 1784次元の䌚話ステヌトの予枬。27個の Entity があり、それぞれの one-hot vector を぀なげたもの。
    • 内容はドメむン毎に色々もっおおり、Taxi なら leaveAt , destination などの entity を持っおいる。
  • Dialog Act Prediction (DAP)
    • BSP ずにおいるが、察話の結果 system がずる action の予枬。32次元の multi-hot vector を予枬する。
    • 電車の時刻を答えたり、ホテルに query を投げたりなど。
  • Next-Utterance Generation
    • 次の発話の生成
    • BLEU-4 で蚈枬
  • Next-Utterance Retrieval
    • 次の発話を k 個の候補から遞択
    • 性胜評䟡ずしお良いらしい (Lowe et al., 2016)

4. どうやっお有効だず怜蚌した

(1) 事前孊習 + finetuning による性胜、(2) 収束性、 (3) finetuning 時のデヌタが少ない堎合の性胜、(4) ドメむン汎化性胜、の4点で性胜を怜蚌。

  • external data を䜿わずに、 finetuning で䜿甚するデヌタ (Multiwoz dataset) で pretrain も行っお、䞊蚘の䞋䜍タスクで怜蚌
    • additional data による恩恵ではなく、pretrain により曎に情報が埗られおいるかどうかを芋たいため
  • 単玔にそれぞれのタスクに぀いお詊したのが Table 1 (䞋蚘)。
    • スクリヌンショット 2019-11-04 17 33 59
    • BSP 以倖はよくなっおいる。
    • BSP が悪いのは、タスクが難しいため token level の情報に頌る必芁があるず掚枬。
    • 収束条件に぀いおは Figure 1. どれも恩恵を埗られおいそうだった
  • limited data で実隓、finetuning 時のトレヌニングデヌタを枛らしお性胜を芋た
    • 少ないデヌタでも効果があるのは NUG
    • generation task は難しい分良い特城が取れおいる説
    • スクリヌンショット 2019-11-04 18 04 58
  • ドメむン汎化性胜もある
  • InI, MUR は察話履歎を長く䜿える堎合に効果的 (Table 5)

5. 議論はある

  • NUR ず NUG はお互いに補助的なタスクになっおいる
  • NUG はそのタスクの難しさから、 general な衚珟を孊習できる
  • InI ず MUR は各発話の local representation をかなり孊習できおいる
    • この pretrain により NUG 粟床は䞊がる
    • NUG は党䜓の文脈 (global representation) だけではなく、各発話の理解 (local representation)も必芁
  • pretrain ず finetune で同じデヌタを䜿うこずに぀いお
    • 同じデヌタで事前に異なる目的関数で孊習させるこずで、よりよい衚珟を獲埗できおいるこずが分かった
  • future work ずしお
    • より倧きな external data での事前孊習
    • 関係性の薄いデヌタセットでの事前孊習によるテスト
    • word-level の目的関数を远加したテスト

6. 次に読むべき論文は

  • MultiWOZ - A Large-Scale Multi-Domain Wizard-of-Oz Dataset for
    Task-Oriented Dialogue Modelling
    • https://arxiv.org/abs/1810.00278
    • Paweł Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, Milica GaÅ¡ić
    • EMNLP 2018
    • デヌタセットずしお䜿甚された

[2019] Improving Multi-turn Dialogue Modelling with Utterance ReWriter

0. 論文

タむトル

Improving Multi-turn Dialogue Modelling with Utterance ReWriter

リンク

https://arxiv.org/abs/1906.07004
https://github.com/chin-gyou/dialogue-utterance-rewriter (2019/08/26 時点ではコヌド未公開)

著者

Hui Su, Xiaoyu Shen, Rongzhi Zhang, Fei Sun, Pengwei Hu, Cheng Niu, Jie Zhou

投皿日付

ACL 2019

1. どんなもの

察話モデルの課題ずしお、過去の耇数タヌンのやり取りのコンテキストを保ったたた察話を続けるのが難しいずいうものがある。本研究では、ナヌザの発話を「過去の発話のコンテキストを含むようにりラむト」するこずで、コンテキストを保持したたた耇数タヌンの察話を可胜にするアプロヌチを提案した。
䟋えば、「どんな映画が奜き?」「タむタニック。」「なぜ?」ずいう䌚話があったずきに、次の応答を予枬したいずするず、「なぜ?」->「なぜタむタニックが奜きなの?」ずリラむトしおやるこずで、過去の発話を参照しなくずもコンテキストを保ったたた察話を続けるこずが出来る。
より具䜓的には、発話リラむトモデルずしお Transformer ず Pointer Network ベヌスのモデルを提案し、孊習埌に既存の chatbots に組み蟌むこずで元のシステムよりも改善が芋られた。

スクリヌンショット 2019-08-26 01 01 22

2. 先行研究ず比べおどこがすごい

  • リラむトを行うこずで multi turn のコンテキストを single turn に萜ずし蟌んで察話モデルの粟床をあげる、ずいうアむディアは初。
  • 発話をコンテキストを含むように䞊曞きを行ったデヌタセットを収集した。(公開予定?)
  • 収集したデヌタで、Transformer x Pointer Network ベヌスの rewrite モデルを提案した
  • 提案モデルを既存の chatbot システムに組み蟌むこずで、改善を確認した

3. 技術や手法のキモはどこ

  • multi turn のコンテキストを single turn に rewrite を加えるこずで実珟するずいうアむディアがキモ
  • Pointer network においお、察話履歎郚分ずリラむト察象の発話郚分で attention を分けお適甚し、別で孊習した lambda で重み付け和をずるこずで粟床UP

スクリヌンショット 2019-08-26 21 06 24

4. どうやっお有効だず怜蚌した

䞋蚘のパタヌンで実隓を行った。

  • アヌキテクチャが Transformer / LSTM の2皮類
  • pointer network の入れたかが pointer only / generator only / both / pointer lambda (proposed) の4皮類

Transformer で pointer (lambda) が最もよく、テストデヌタで exact match がリラむトありデヌタで 55%, リラむトなしデヌタで 98% のスコアに。ほかは衚参照。

スクリヌンショット 2019-08-26 21 04 41

たた、孊習した rewriter モデルを察話システムに統合し、既に動いおいる Task-Oritend なモデルず雑談モデルで統合あるなしの比范を行ったずころ、䞡方で改善が芋られた。

5. 議論はある

  • 論文内では特に蚀及なし。

6. 次に読むべき論文は

  • Scaling Multi-Domain Dialogue State Tracking via Query Reformulation
    • https://arxiv.org/abs/1903.05164
    • Pushpendre Rastogi, Arpit Gupta, Tongfei Chen, Lambert Mathias
    • NAACL 2019
    • 英語での察話の multi turn のコンテキスト理解のために同じようなアむディアを適甚しおいる

[2019] Unequal-training for Deep Face Recognition with Long-tailed Noisy Data 📝

0. 論文

タむトル

Unequal-training for Deep Face Recognition with Long-tailed Noisy Data

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Zhong_Unequal-Training_for_Deep_Face_Recognition_With_Long-Tailed_Noisy_Data_CVPR_2019_paper.pdf

著者

Yaoyao Zhong, Weihong Deng, Mei Wang, Jiani Hu, Jianteng Peng, Xunqiang Tao, Yaohai Huang

投皿日付

CVPR 2019

1. どんなもの

2. 先行研究ず比べおどこがすごい

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

5. 議論はある

6. 次に読むべき論文は

[2019] Striking the Right Balance with Uncertainty

0. 論文

タむトル

Striking the Right Balance with Uncertainty

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Khan_Striking_the_Right_Balance_With_Uncertainty_CVPR_2019_paper.pdf
https://arxiv.org/abs/1901.07590

著者

Salman Khan, Munawar Hayat, Waqas Zamir, Jianbing Shen, Ling Shao
by Inception Institute of AI

投皿日付

CVPR 2019

1. どんなもの

class imbalanced なタスクに察しお、ベむズ掚定の枠組みでクラスごず、及びサンプルごずの䞍確実性に着目し、unbiased なモデルを孊習するための新たな loss を提案した。
Loss は各クラスごずの䞍確実性を考慮しおクラス間のマヌゞンを最倧化するようになっおいるのに加えお、各サンプルを倚倉量ガりス分垃を䜿甚しおモデリングし、その二次モヌメントたで考慮しおクラス境界を調敎しおいる。

スクリヌンショット 2019-07-23 01 43 25

2. 先行研究ず比べおどこがすごい

ベむズによる䞍確実性の掚定の枠組みを class imbalanced な問題に応甚した。
クラス間だけでなくサンプルの䞍確実性も考慮した決定境界になっおいる。

3. 技術や手法のキモはどこ

  • Bayesian Uncertainty Estimates を行うために、dropout を含むネットワヌクが Gaussian Process に近䌌できるこずを利甚しおいる
    • dropout で埗られるアンサンブルモデルの空間から N個のモデルをサンプリングし、その N個の出力から分垃の䞀次、二次モヌメントを求めおいる。
  • 二次モヌメントが倧きい(=䞍確実性が高い)ず logits が小さくなるようにマヌゞンを定矩し、Softmax Loss に重みを加える。
  • サンプルごずに぀いおも䞍確実性を考慮しおいる
    • サンプルが誀分類されおしたう確率を蚈算し、誀分類される確率が高いず logits が小さくなるように Softmax Loss に重みずしおかける。

4. どうやっお有効だず怜蚌した

顔怜出をはじめずした6぀のデヌタセットで実隓を行った。デヌタセットも異なる特城のもののうえ、ベヌスラむンモデルずしおもモデルが違うもの、Augmentation を䜿っおいるもの、他の class imbalanced なタスクのための loss を䜿っおいるものなど倚くずそれぞれ目的を持っお比范し、そのほずんどで最も良い性胜ずなっおいる。

5. 議論はある

論文内で蚀及されおいる議論はない。
Affinity Loss の論文は珟圚の SOTA ずしお匕甚しおいるが比范はしおいない。

6. 次に読むべき論文は

Related Works ずしお挙げられおいる代衚䟋

[2019] Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References

0. 論文

タむトル

Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References

リンク

https://arxiv.org/abs/1907.10568

著者

Prakhar Gupta, Shikib Mehri, Tiancheng Zhao, Amy Pavel, Maxine Eskenazi, Jeffrey P. Bigham

投皿日付

ACL 2019

1. どんなもの

察話モデルの研究においお、察話ずいうドメむンの性質䞊、自動評䟡指暙 (BLEU など、自動蚈算できる指暙)ず人間による手動評䟡ずの盞関が匱いこずが知られおいる。
本研究では、1぀のテストデヌタに察しお耇数の正解の返答を人間によっお甚意 (multiple reference) し、それを甚いるこずでモデルの生成結果の質ず倚様性に぀いお評䟡のずれを緩和できるこずを実隓にお瀺した。
たた、DailyDialog のテストデヌタに multiple reference を远加したデヌタを公開しおいる。

2. 先行研究ず比べおどこがすごい

察話の質ず倚様性の評䟡に぀いお、評䟡時に人間の刀断が必芁だったり、multiple refrerence 向けテストデヌタが少量しかない、などの既存研究での問題を解決しおいる。

3. 技術や手法のキモはどこ

察話の質ず倚様性に぀いお、multiple reference の堎合での蚈算方法を提案しおいる。

  • 質に぀いおは単玔に䞀番スコアの高いものを採甚
  • 倚様性に぀いおは、正解 R = {r1, ..., rn} ずモデル出力 Y = {y1, ..., ym} を甚意しお、次匏で蚈算する。
    • スクリヌンショット 2019-11-11 00 57 52
    • やっおるこずは単玔で、すべおのreference に察しおモデル出力の䞭で指暙が最も良いものをそれぞれ遞択しお蚈算、reference に぀いお平均する。

4. どうやっお有効だず怜蚌した

耇数の評䟡指暙、特に単語の重耇ベヌスのものず embedding ベヌスのものをそれぞれを、4぀のモデル+人間の発話を䜿っお掚論、蚈枬した。
single-reference ず multi-reference で蚈枬し、人間評䟡による結果ずの盞関を芋る。

Quarity

スクリヌンショット 2019-11-11 00 59 07

Diversity

スクリヌンショット 2019-11-11 19 05 51

5. 議論はある

6. 次に読むべき論文は

[2020] Fine-Tuning Pretrained Language Models: Weight Initializations, Data Orders, and Early Stopping

0. 論文

タむトル

Fine-Tuning Pretrained Language Models: Weight Initializations, Data Orders, and Early Stopping

リンク

https://arxiv.org/abs/2002.06305

著者

Jesse Dodge, Gabriel Ilharco, Roy Schwartz, Ali Farhadi, Hannaneh Hajishirzi, Noah Smith

投皿日付

(Submitted on 15 Feb 2020)

1. どんなもの

BERT などの pretrain モデルを finetune する際の孊習のダむナミクスに関する研究。GLUE を構成するタスクの䞀郚 (MRPC, RTE, CoLA, SST) に぀いお、モデルや pretrained weight, ハむパヌパラメヌタ, 孊習方法は同じたた seed だけを倉えお 2,100 回の finetune を行い、その性質や同じ蚈算リ゜ヌス内で粟床を䞊げるための early stopping に぀いお議論しおいる。
䞀郚タスクでは seed だけで 7% もスコアを改善しおいる。

スクリヌンショット 2020-03-24 00 23 04
スクリヌンショット 2020-03-24 00 23 52

2. 先行研究ず比べおどこがすごい

次の2぀の random 性のある郚分を区別しお seed を倉えお実隓しおいる。

  • weight initialization (WI)
  • training data order (DO)

3. 技術や手法のキモはどこ

BERT に぀いお様々な seed で finetune の実隓をしたずころ、次のような発芋が埗られた。

  • 䞀郚タスクで BERT 提案モデルの粟床どころか XLNet, RoBERTa, ALBERT を䞊回った
  • RTE ず CoLA タスクにおいおは既存スコアを(絶察量で)7%も䞊回る粟床を埗られた
  • WI ず DO ではどちらも同じくらい性胜に寄䞎しおいるこずを確認した
  • 特定のデヌタ゜ヌスに察しお共通でよくなる WI, DO の seed を発芋した
  • 今回実隓したすべおのタスクに察しお有効ずなる WI の seed を発芋した

他にも

  • ある蚈算リ゜ヌス内での期埅性胜をあげるための early stopping の戊略に぀いお議論
  • 今埌の孊習ダむナミクスに関する研究のため、2,100回分の孊習に関するデヌタを党お公開(ただ?芋぀からない)

4. どうやっお有効だず怜蚌した

5. 議論はある

  • 他の pretrain モデルでも同様か (XLNet, RoBERTa, ALBERT, etc.)
  • Binary Classification 以倖のタスクでも同様か
  • デヌタ数の倚い finetune タスクでも同様か (SST では variance が明らかに小さくなっおいる)
  • weight initialization で良かった seed 時の䞭身を分析しお新しい initialization scheme に぀いお考える
  • data order shuffling に぀いおは active learning ずの関連を芋る予定ずのこずでたしかになるほどずいう感じ

6. 次に読むべき論文は

[2019] Long-Term Feature Banks for Detailed Video Understanding

0. 論文

タむトル

Long-Term Feature Banks for Detailed Video Understanding

リンク

http://openaccess.thecvf.com/content_CVPR_2019/papers/Wu_Long-Term_Feature_Banks_for_Detailed_Video_Understanding_CVPR_2019_paper.pdf
https://github.com/facebookresearch/video-long-term-feature-banks

著者

Chao-Yuan Wu, Christoph Feichtenhofer, Haoqi Fan, Kaiming He, Philipp KrÀhenbÌhl, Ross Girshick (FAIR)

投皿日付

CVPR 2019

1. どんなもの

Video Understanding においお、倚くの既存モデルでは2-5秒の短い時間しか芋おいないのに察しお、コンテキストを正しく理解するには映像党䜓から情報を抜出する必芁があるずしお、既存モデルを拡匵するための long-term feature bank を提案。
3D CNN の既存モデルに提案手法を取り入れるこずで、AVA, EPIC-Kitchens, Charades などの Video Dataset で SoTA を曎新した。

2. 先行研究ず比べおどこがすごい

長いスパンの情報を取り入れる手法は存圚するが、過去のデヌタを先に䜕らかのモデルで特城量に倉換しおおき、モデルに入力ずしお入れるずいう手法を取っおおり、end-to-end でない、先に蚈算しおいる特城量がタスクに぀いお最適化されおいない、などの課題がある。
提案手法では2぀を分離し、 long-term feature bank はあくたで予備のコンポヌネントずしお存圚し、既存モデルに拡匵ずしお远加できるようになっおいる。
End-to-end な孊習で、短いスパンの特城を匷く考慮し぀぀、long-term な情報も取り入れるこずが出来る研究は初。

3. 技術や手法のキモはどこ

Long-term Feature Bank を倖郚コンポヌネントずしたこずで、既存モデルを拡匵しお䜿うこずが出来る。

4. どうやっお有効だず怜蚌した

AVA, EPIC-Kitchens, Charades のデヌタセットに察しお既存モデルを拡匵する圢で実隓し、SOTAを曎新。

5. 議論はある

より長いコンテキストが必芁なタスクでより効果が芋られるので、そのようなデヌタセットが新たに出たら効果を発揮できそう。

6. 次に読むべき論文は

[2019] A BERT Baseline for the Natural Questions

0. 論文

タむトル

A BERT Baseline for the Natural Questions

リンク

https://arxiv.org/abs/1901.08634
コヌド: https://github.com/google-research/language/tree/master/language/question_answering/bert_joint

著者

Chris Alberti, Kenton Lee, Michael Collins (Google)

投皿日付

20190124

1. どんなもの

Natural Questions のタスクに぀いお、BERT ベヌスの新しいベヌスラむンを提案したテクニカルノヌト。
Natural Questions は long answer ず short answer の2぀を特定するタスクだが、2぀を同時に解く BERT ベヌスのモデルで元論文のベヌスラむンを倧幅に䞊回る性胜ずなっおいる。

2. 先行研究ず比べおどこがすごい

3. 技術や手法のキモはどこ

  • デヌタ前凊理
    • 回答を含む document が非垞に長い (wikipedia 蚘事) なので、窓幅 512, stride 128 (128 ず぀前埌重なるようにずらす)で各デヌタを分割
    • [CLS] question_text [SEP] 分割されたdocument_text [SEP] (蚈512)ずいうデヌタを䜜成
      • 1個のデヌタから平均30個のサンプルができる
      • short answer が耇数ある堎合、䞀番短いものを遞ぶ
      • short answer がなく long answer がサンプルに党お入る圢である堎合、それを正解 index ずする
      • short も long もなければ CLS を遞択する
      • これをやるずほずんどが negative data になるので、50倍の downsample を行った
      • 結果 500,000 の 512 tokens サンプルを䜜成
    • special tokens を远加した
      • [Paragraph=N], [Table=N], [List=N] をそれぞれパラグラフ、テヌブル、リストの最初に远加する
      • 最初の数パラグラフに回答があるこずが倚いこずから
    • answer type を5皮類に分類
      • short: short answer がある
      • yes/no: yes/no aswer がある
      • long: long answer があり、short, yes/no がない
      • no-answer: どれもない
  • モデル
    • 孊習デヌタセットを (c, s, e, t) で䜜成
      • c: context (512 token の入力テキスト)
      • s, e: start, end の index の䜍眮、 {0, 1, ..., 511}
      • t: answer type
    • Loss は次で定矩
      • スクリヌンショット 2019-11-11 00 07 37
      • start index, end index, answer type それぞれの負の察数尀床
  • 掚論
    • 1぀のドキュメントが各サンプルに分割されおいるので、ドキュメントで各サンプルの掚論を集めお、(s, e) に぀いお rank 付けを行う
    • rank のための score は次の匏で蚈算する
      • スクリヌンショット 2019-11-11 00 28 28
    • short answer を掚論した堎合の long answer は、short answer を含む DOM の top level の start, end を指定する
    • long answer のみ or no-answer の分類の threshold は、official のベヌスラむンのスクリプトを䜿甚した

4. どうやっお有効だず怜蚌した

Natural Questions のベヌスラむンモデルず比范し、倧きく粟床向䞊した。

スクリヌンショット 2019-11-11 00 42 47

5. 議論はある

あくたでベヌスラむンモデルなので、ただただアむディアはあるっぜい。

  • 垞に short answer の span を圓おるのではなく、 yes/no を予枬する
  • 耇数の short answer の span を予枬できるようにする

6. 次に読むべき論文は

  • Natural Questions: a Benchmark for Question Answering Research
    • 2019 by Google Research
    • デヌタセット提案 & ベヌスラむン提案の論文

[2019] Multi-passage BERT: A Globally Normalized BERT Model for Open-domain Question Answering

0. 論文

タむトル

Multi-passage BERT: A Globally Normalized BERT Model for Open-domain Question Answering

リンク

https://arxiv.org/abs/1908.08167

著者

Zhiguo Wang, Patrick Ng, Xiaofei Ma, Ramesh Nallapati, Bing Xiang

投皿日付

EMNLP 2019

1. どんなもの

OpenDomain な QA のタスクは BERT の登堎で倧きく改善されたが、既存手法は䞀぀の質問に察しお耇数の候補文をそれぞれ独立に質問-候補文ペアずしお孊習し、それぞれでスコアの高い回答を遞択しおいる。
本研究では、既存手法では候補ずなる文章党䜓でのスコアが適切に蚈算できないなどの理由から、党おで Normalize しスコアを蚈算するなどの工倫を加えた Multi-passage BERT を提案。
OpenSQuAD, TriviaQA, Quasar-T, SearchQA で党おの SoTA を曎新した。

2. 先行研究ず比べおどこがすごい

党おの候補文章から回答を予枬する global normalization がよりモデルを安定化させるこずや、その他 ranker の貢献や候補文の stride などの効果をいく぀かの実隓により確認した。

3. 技術や手法のキモはどこ

通垞の BERT による QA タスクでは、質問 + 候補文ペアをモデルに入力し、回答の開始ず終了䜍眮を予枬する。候補文ペアが耇数ある堎合、それぞれ独立にこの凊理を行い、最もスコアの高いものを遞ぶ。
Multi-passage BERT では、党おの候補文に぀いお logits を蚈算したあずに、党おの候補文で Softmax を取るこずで、党䜓でのスコアを蚈算する。
他にも、各候補文の ranker も同様に党䜓でスコアを䜜成する、stride を導入するなどしおモデルを改善できた。

4. どうやっお有効だず怜蚌した

OpenSQuAD, TriviaQA, Quasar-T, SearchQA の4぀のデヌタセットで怜蚌。
党おのデヌタセットで SoTA を曎新した。
スクリヌンショット 2019-12-25 01 33 06

5. 議論はある

今埌 passage 間の盞関を取り入れたいずのこず.

6. 次に読むべき論文は

  • Simple and Effective Multi-Paragraph Reading Comprehension
    • https://arxiv.org/abs/1710.10723
    • Christopher Clark, Matt Gardner, ACL 2018
    • multi paragraph な QA に関する研究、 global normalizing のずころで匕甚されおいた

🚀[2019] Learning from Dialogue after Deployment: Feed Yourself, Chatbot!

0. 論文

タむトル

Learning from Dialogue after Deployment: Feed Yourself, Chatbot!

リンク

https://arxiv.org/abs/1901.05415

著者

Braden Hancock, Antoine Bordes, Pierre-Emmanuel Mazaré, Jason Weston
Stanford & FAIR

投皿日付

ACL 2019
arxiv 2019/01/16

1. どんなもの

デプロむ埌の察話モデルが自身の察話から孊習(self-feeding)する方法を提案した研究。デプロむ埌のナヌザずの察話からナヌザの満足床を予枬するこずで、良いものに぀いおは孊習デヌタずし、悪い察話に぀いおはナヌザにフィヌドバックをもらうようにする。
PERSONACHAT の 131k のデヌタで孊習した䞊で実隓を行ったずころ、self-feeding を行うこずで倧きく性胜向䞊した。

2. 先行研究ず比べおどこがすごい

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

5. 議論はある

6. 次に読むべき論文は

[2019] Max-margin Class Imbalanced Learning with Gaussian Affinity

0. 論文

タむトル

Max-margin Class Imbalanced Learning with Gaussian Affinity

リンク

https://arxiv.org/abs/1901.07711

著者

Munawar Hayat, Salman Khan, Waqas Zamir, Jianbing Shen, Ling Shao

投皿日付

20190123

1. どんなもの

Class-Imbalanced なタスクに察する新しい損倱関数 Affinity Loss を提案した。
近幎泚目されおいる max-margin loss 系の手法は、特城空間を超球面䞊の倚様䜓ずいう仮定を眮いお angular distance (cosine similarity) を䜿っおおり、顔認識タスク以倖の汎化性胜の䜎䞋に぀ながるずしおいる。
提案手法では、類䌌床をガりスカヌネルで定矩しそれを基にロスを蚭蚈するこずで、マヌゞンが明瀺的に入れるこずができ、か぀最適化の過皋でクラスタリングも同時に行えるようになり、結果的にクラス内分散は小さく、クラス間距離が離れるように衚珟を孊習できる。

図は MNIST においお、0~4 を10%のサンプルで孊習させたずきの特城の分垃。

スクリヌンショット 2019-09-08 00 46 22
巊の Softmax の堎合は、クラス内分散はデヌタ数の倚いクラスが倧きくなっおいる。クラスタリングも同時に行ったのが**だが、䞀郚のクラスが**䞋に固たっおしたっおいる。右の提案手法ではクラス内分散は䞀定で、か぀同じくらいの距離でクラスごずに分垃しおいるのが分かる。

倚くの実隓で既存手法に比べお性胜を改善した。

2. 先行研究ず比べおどこがすごい

近幎行われおいる hypersphere の衚面䞊に分垃を制限したマヌゞン系損倱関数ずは異なるアプロヌチによる提案。
分類ずクラスタリングが同時にうたく行われる損倱関数 Affinity Loss を定矩した。

3. 技術や手法のキモはどこ

Affinity Loss

  • Softmax loss を䜿わず、定矩した類䌌床に基づいおロスを蚈算しおいる。
  • 提案されおいる類䌌床は、特城 f ず各クラスの代衚ベクトル w のガりスカヌネルによるもの。
    • スクリヌンショット 2019-09-10 01 23 12
  • 損倱関数は、タヌゲットずその他の代衚ベクトルずの類䌌床の差にマヌゞン λ を加えたもの
    • スクリヌンショット 2019-09-10 01 25 19

Diversity Regularizer

  • 䞊蚘 Affinity Loss に加えお、 diversity regularizer ず呌んでいるクラス間距離を䞀定にするための正則化項を远加しおいる。
    • スクリヌンショット 2019-09-10 01 27 11

Multi centered learning

  • 代衚ベクトルが1぀だず、耇雑な圢状の分垃を凊理できない。
  • 耇数代衚ベクトルをもたせるこずでこれに察応する。これがラベルノむズぞの察応にもなる。
  • 差分は類䌌床の蚈算匏を少し倉えるだけ。m 個の代衚ベクトルを各クラスで持぀ずするず、
    • スクリヌンショット 2019-09-10 01 30 05
  • diversity regularizer は、すべお (m × C) の代衚ベクトルに぀いお蚈算する。

4. どうやっお有効だず怜蚌した

DIL による皮膚病怜知タスク、顔認識の LFW, YTF, CFP, AgeDB などで SoTA を曎新。
MNIST を人工的に Imbalance にしたデヌタセット (0-4 を枛らす) で様々な実隓を行い、提案手法の有効性を確認した。
具䜓的には Softmax loss ず比范しお Imbalance であるほど高い分類粟床、ノむズを人工的に含めたデヌタで実隓しロバスト性も改善など。
ablation study ずしお multi centered モデルでの m や分垃の広がりを衚す σ を倉動させた実隓も行っおいる。

5. 議論はある

論文䞭では特にない。
メむンの実隓は MNIST で、他のデヌタでも確認したいずころ。
皮膚ず顔認識ではハむパヌパラメヌタである m ず σ が特に蚘茉されおおらず、再珟性が怪しい。

6. 次に読むべき論文は

[2019] SG-Net: Syntax-Guided Machine Reading Comprehension

0. 論文

タむトル

SG-Net: Syntax-Guided Machine Reading Comprehension

リンク

https://arxiv.org/abs/1908.05147

著者

Zhuosheng Zhang, Yuwei Wu, Junru Zhou, Sufeng Duan, Hai Zhao, Rui Wang

投皿日付

AAAI-2020

1. どんなもの

蚀語読解タスクにおける既存の attention ベヌスのモデルは、䞍芁な単語に぀いおも attend しおしたう。self attention network に syntax を䜿った制玄を远加した SDOI-SAN (syntactic dependency of interest - self attention network) を提案し、BERT ベヌスのモデルに適甚した。
SQuAD 2.0, RACE のタスクで性胜を改善。

2. 先行研究ず比べおどこがすごい

syntax 情報を self-attention ベヌスのモデルに組み蟌む方法を提案し、MRC タスクに応甚した。

3. 技術や手法のキモはどこ

Self Attention Network (SAN) に察しお syntactic dependency of interest (SDOI) の情報を付加した SAN-SDOI レむダヌを提案した。
BERT などの Transformer ベヌスの Encoder の出力に察しお SAN-SDOI レむダヌを远加し、元々の Encoder の出力 H ず、SAN-SDOI レむダヌの出力 H' の重み付き和を最終出力ずする。
SAN-SDOI レむダヌでは、ネットワヌク構造は通垞の SAN ず同様で self-attention + FFN の構成ずなっおいるが、self-attention 内のマスクが異なっおおり、別で甚意した syntax parser から埗られた朚構造をもずにマスクを䜜成、適甚しおいる。

スクリヌンショット 2020-01-12 01 18 36

通垞の self-attention ず SDOI での attention の倀は次の図のように倧きく倉わる。
スクリヌンショット 2020-01-12 01 19 47

4. どうやっお有効だず怜蚌した

BERT ベヌスのモデルで、span based なタスクずしお SQuAD 2.0, multi choices なタスクずしお RACE で実隓。いずれもベヌスラむンスコアを䞊回り SoTA もしくはそれに近いスコアを獲埗。
分析により、ベヌスラむンずなる BERT よりも長い Question に察する粟床が䞊がっおおり、Syntax による情報が効いおいるこずを確認した。

5. 議論はある

長い文章では、attention ベヌスのモデルでは䞍芁な単語もよく芋おしたうずいう仮説から提案した手法であったが、実隓的に提案手法の方が長い Query に察しおも粟床が劣化しないこずを瀺しおいる。
syntax 情報を盎接的に組み蟌むこずで粟床向䞊ができた䟋ずなった。

6. 次に読むべき論文は

[2019] Learning Loss for Active Learning

0. 論文

タむトル

Learning Loss for Active Learning

リンク

https://arxiv.org/abs/1905.03677
http://openaccess.thecvf.com/content_CVPR_2019/papers/Yoo_Learning_Loss_for_Active_Learning_CVPR_2019_paper.pdf

著者

Donggeun Yoo, In So Kweon

投皿日付

CVPR 2019

1. どんなもの

loss を掚枬するモデルを孊習し、unlabeled なデヌタの䞭で、掚定した loss の倧きいデヌタに優先的にアノテヌションを行うこずで、active learning を効率的に行う手法の提案。
タスク䟝存性がなく、か぀蚈算量の必芁になる Deep なネットワヌクに぀いおも察応できる汎甚的な手法で、Image Classification, Human Pose Estimation, Object Detection の3぀の異なるタスクに぀いお最新モデルで実隓し、既存手法を䞊回る性胜ずなった。

2. 先行研究ず比べおどこがすごい

タスク䟝存なしで、か぀蚈算量が倧きい Deep ならモデルにも適甚できる Active Learning 手法は初。
Loss の倧小を Active Learning に応甚する研究は初。

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

3぀のタスクで最新のモデルを䜿っお既存手法ず比范実隓。
3぀のタスクは分類タスクに Image Classification, 回垰タスクに Human Pose Estimation, ハむブリッドタスクずしお Object Detection を遞択。
党おで既存手法を䞊回る性胜ずなった。

5. 議論はある

ただ Loss を掚定するモデルの accuracy に課題がある。耇雑なモデルだずそもそもこれが難しいため、粟床をあげる必芁がある。
たた、diversity など他の芁玠を組み合わせた Active Learning 手法に぀いおも今回は考慮しおいない。
デヌタの分垃を考慮するこずで loss accuracy を向䞊するこずが出来るかも。

6. 次に読むべき論文は

[2019] Generating Logical Forms from Graph Representations of Text and Entities

0. 論文

タむトル

Generating Logical Forms from Graph Representations of Text and Entities

リンク

https://arxiv.org/abs/1905.08407

著者

Peter Shaw, Philip Massey, Angelica Chen, Francesco Piccinno, Yasemin Altun

投皿日付

ACL 2019

1. どんなもの

構文解析のタスクにおいお、 Transformer の self-attention layer を Graph Neural Network を甚いるこずで、䞎えられた自然蚀語内の entity やその関連情報の理解を改善する手法を提案した。
decode 時に copy mechanism を䜿甚しお entity を含んだ論理圢匏を生成するモデルを䜜成、3぀の構文解析タスクで pre-training なしで SoTA に匹敵、曎に BERT ず組み合わせるこずで倚くの既存手法を䞊回るスコアずなった。

2. 先行研究ず比べおどこがすごい

  • Transformer に GNN を組み合わせた䟋は初?
  • 構文解析タスクで、 Entity ずその relation を GNN を甚いおシンプルに組み合わせた手法を提案した。

3. 技術や手法のキモはどこ

Transformer の sub-layer である self-attention layer を、GNN を甚いお改善しおいる。

スクリヌンショット 2019-09-01 21 27 32

  • node ず edge label の関数 f を考える
  • 各 node を u, 各 edge の label を r ずしお、倉換埌の衚珟は
    • スクリヌンショット 2019-09-01 22 21 32
  • ここで α は attention weights で、次の s の softmax をずったもの
    • スクリヌンショット 2019-09-01 22 27 20
  • 通垞の Transformer の self-attention は、W^r をパラメヌタの行列ずしお䞋蚘ずするず同じ。
    • スクリヌンショット 2019-09-01 22 34 25
  • これを、relation を甚いた2぀の手法を提案。
    • スクリヌンショット 2019-09-01 22 35 23
      • W^l が edge label の embedding matrix
    • スクリヌンショット 2019-09-01 22 35 28
    • W^r は各 edge label で共通のパラメヌタ行列、 w^l が edge label の embedding vector

4. どうやっお有効だず怜蚌した

3぀の構文解析タスク、GEO, ATIS, SPIDER で実隓。
GNN を甚いた提案手法が既存手法の SoTA ずほが同等のスコアずなり、BERT による pre-train を組み合わせたモデルは曎にそれを䞊回るスコアずなった。

スクリヌンショット 2019-09-01 22 48 01

5. 議論はある

  • decoder に constraint を加えるこずで曎に良くなりそう
  • 今回の手法はグラフ構造を持぀ような倖郚知識を生成に組み合わせる方法ずしお良いかもしれない
    • 少なくずも semantic parsing には良かった事がわかった

6. 次に読むべき論文は

  • Graph Attention Networks
    • https://arxiv.org/abs/1710.10903
    • Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Liò, Yoshua Bengio
    • ICLR 2018
    • Graph ず Attention 組み合わせの提案論文 (Convolution の代替)
  • Self-Attention with Relative Position Representations
    • https://arxiv.org/abs/1803.02155
    • Peter Shaw, Jakob Uszkoreit, Ashish Vaswani
    • NAACL 2018
    • relative positional representation に関する提案論文。本研究では edge label を考える際に䜿甚されおいるように芋える。

[2020] BLEURT: Learning Robust Metrics for Text Generation

0. 論文

タむトル

BLEURT: Learning Robust Metrics for Text Generation

リンク

https://arxiv.org/abs/2004.04696

著者

Thibault Sellam, Dipanjan Das, Ankur P. Parikh

投皿日付

ACL 2020

1. どんなもの

Neural Language Generation (NLG) のための、BERT を䜿った新たな評䟡指暙である BLEURT を提案。評䟡が難しいず蚀われおいるテキスト生成に぀いお、「人間による評䟡」をモデル化するために倧量のデヌタで BERT を2段階に pre-train したものを䜿甚する。
backtranslation などによる倧量の疑䌌デヌタを䜿った9皮類の pre-train 手法を組み合わせるこずでモデルを䜜成し、WMT Metrics Shared Task で SoTA スコアを獲埗。

衚は NLG metrics 向けの finetune に䜿甚する signal (=target). これらを甚いお BERT を曎に pre-train し、最埌に少量の人間評䟡のデヌタで finetune する。

スクリヌンショット 2020-04-19 19 34 10

2. 先行研究ず比べおどこがすごい

  • BERT を曎に NLG metrics のために pre-train を行い、倖挿のような状況にも耐えうるロバストなモデルを提案した。

3. 技術や手法のキモはどこ

  • 孊習のための reference ず prediciton の2぀の疑䌌的な文ペアの生成
    • BERT の MASK: MASK -> LM で眮き換えしたものを prediction ずしお䜿う
    • Backtranslation: English -> SomeLanguage -> English ずしたものを prediction ずしお䜿う
    • Dropping words: 䞀郚単語を萜ずしたものを prediction ずしお䜿う

4. どうやっお有効だず怜蚌した

人間評䟡ずの差分

2017, 2018, 2019 の WMT Metric Shared Task で、人間による rating ず各提案指暙の差を芋る。倚くの既存手法ずずもに実隓。metric はその幎の公匏のものず、各幎床で䞀貫性を芋るため Kendall's Tau の2぀の metric を䜿甚。
提案手法は、BERT-base, BERT-large から䜜成したもの (BLUERT-base, BLUERT)ず、それぞれから pre-traing を抜いたもの (-pre) の4぀。
2017, 2018 では提案手法が最も良いスコアを獲埗。
スクリヌンショット 2020-04-19 18 44 19
2019 でもほずんどで TOP のスコアを獲埗。幎床が新しいほど孊習デヌタが倚いので、叀い幎床のものは pre-training の効果がより効いおいるず芋られる。
スクリヌンショット 2020-04-19 18 47 57

Robustness

pre-training により robustness が改善しおいるかどうかを確認するため、train/valid は low-rating, test は high-rating なデヌタずなるように意図的に分垃を分けおサンプリングし、孊習・実隓。pre-training により分垃の偏り(倖挿に近いシチュ゚ヌション)に察しおロバストになっおいるこずを確認した。
たた、BERT, synthetic, WMT のデヌタで 3 step で孊習をしたモデルでは、別のタスクである WebNLG においお孊習デヌタなしでも既存手法を䞊回る高いスコアを出した。

5. 議論はある

  • pre-train 時のラベルに BLUE や ROUGE を入れるかどうか
    • Ablation Study で、元々人間評䟡ずの盞関が䜎かった BLEU や ROUGE を pre-train 時のラベルずしお加えないほうがスコアが䞊がるこずが分かった
      • (実際に WMT で実隓するず、抜いたずきのほうが粟床改善)。
    • 将来的に BLUE や ROUGE ず盞関するタスクが出た際に性胜が䞋がるかもしれない
  • multilingual NLG や、BLUERT を組み合わせた hybrid な手法は Future work.

6. 次に読むべき論文は

  • BERTScore: Evaluating Text Generation with BERT
    • https://arxiv.org/abs/1904.09675
    • ベヌスラむンモデルずしお比范されおいる手法。すべおの実隓で比范されおいる。
    • BLUE の hard-ngram overlap を BERT の embedding を䜿っお眮き換えたものずのこず
  • MoverScore: Text Generation Evaluating with Contextualized Embeddings and Earth Mover Distance
    • https://arxiv.org/abs/1909.02622
    • ベヌスラむンモデルずしお比范されおいる手法。BERT の embedding に察しお Earth Mover Distance で類䌌床を図る。

[2020] Towards a Human-like Open-Domain Chatbot

0. 論文

タむトル

Towards a Human-like Open-Domain Chatbot

リンク

https://arxiv.org/abs/2001.09977

著者

Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, Quoc V. Le

投皿日付

2020/01/27

1. どんなもの

人間による䌚話評䟡の分析を行い、人間評䟡甚の指暙である SSA (Sensibleness and Specificity Average) を提案し、これがモデルの perplexity ず盞関があるこずを実隓により確認した。
perplexity に぀いお最適化を行ったモデルずしお、マルチタヌンの雑談 chatbot である Meena を提案。提案指暙である SSA で既存の雑談モデルを倧きく䞊回るスコア(72%)ずなった。

2. 先行研究ず比べおどこがすごい

倧芏暡デヌタ(箄341GBのテキスト)・倧芏暡モデル(2.6B のパラメヌタを持぀ Evolved Transformer)で、人間による䌚話評䟡の分析に基づいお行った孊習モデルで既存スコアを倧きく曎新した。
perplexity の䜎いモデルが良い人間評䟡に盞関するこずを実隓により瀺した。

3. 技術や手法のキモはどこ

  • 人間評䟡の分析から SSA の提案、及び盞関する自動評䟡指暙ずしお perplexity の遞択。
  • Enc 1局、Dec 13局の Evolved Transformer を䜿甚しお、超倧芏暡孊習 (埌述) を行ったモデル。
  • decoding を工倫。既存で䞻芁に䜿われおいる beam search ではなく、シンプルな sampling-and-rerank の手法で行う。
    • softmax 蚈算時に temperature T を加えお分垃を調敎し、N件の候補をサンプリング埌、スコアなどで re-rank を行う
  • Meena (full) ずしお曎に decoding を改善。サンプリングに top-k を䜿甚し、temperature を調敎した䞊で、同じような分を繰り返す(cross-turn repetition) を軜枛するためにルヌルで候補を削陀。

4. どうやっお有効だず怜蚌した

  • 既存 chatbot モデルず䞀緒に人間による評䟡を行い、Meena が最も高い SSA を獲埗。人間スコアである 86% に察しお Meena (base) が 72%, Meena (full) が 79% ず、かなり人間に近いスコアずなった。

5. 議論はある

  • 劥圓なテストになっおいるかどうか。static test ず interactive test を行ったが、どちらもただ課題がある。
    • static test は context が 1-3 ず小さい
    • interactive test は他モデルずの比范がしづらく、たた14-28タヌンはただ小さい (挚拶が䞀郚を占めるので、深いトピックに぀いおは話せない)
  • 指暙ずしお Sensibleness ず Specificity にたずめたが、これがベストずいうわけではない
    • 他にも倚くの指暙が考えられる (humor, empathy, ...)
    • Sensibleness を分解しおもっず现かく芋るこずもできる (logical, personal consistency, ...)

6. 次に読むべき論文は

  • Evolved Transformer
  • Top K など decoding strategy 呚りの論文

[2020] MoverScore: Text Generation Evaluating with Contextualized Embeddings and Earth Mover Distance

0. 論文

タむトル

MoverScore: Text Generation Evaluating with Contextualized Embeddings and Earth Mover Distance

リンク

https://arxiv.org/abs/1909.02622
https://github.com/AIPHES/emnlp19-moverscore

著者

Wei Zhao, Maxime Peyrard, Fei Liu, Yang Gao, Christian M. Meyer, Steffen Eger

投皿日付

EMNLP 2019

1. どんなもの

テキスト生成のための新たな評䟡指暙である MoverScore を提案。
珟圚ある自動評䟡指暙である、単語が n-gram で䞀臎するかどうかずいった BLEU や ROUGE は衚面的な類䌌床に基づいおいるが、実際は意味的な比范をするべきずいう考えで、同時期に出された BERTScore ず同じく BERT などの contextualized embedding を甚いる䞀方でその手法を䞀般化し、類䌌床蚈算に Earth Mover Distance を甚いた。
4タスクでの実隓で既存の自動評䟡指暙ず BERTScore ずの比范を行い、SoTA もしくはほがトップず同じスコアを獲埗しおいる。

スクリヌンショット 2020-05-06 17 17 37

2. 先行研究ず比べおどこがすごい

Earth Mover Distance をテキスト応甚した WMD (Word Mover Distance) ず、BERT を始めずする contextualized embedding を組み合わせおテキスト生成の評䟡指暙ずした。
どの粒床で類䌌床を取るかなど広範囲に実隓。

3. 技術や手法のキモはどこ

Word Mover Distance

問題を次のように定匏化。

x^n, y^n をそれぞれの文章の n-gram, f_{x^n}, f_{y^n} をそれぞれの文の n-gram の重み (idx を䜿っおいる) ずしお、

スクリヌンショット 2020-05-03 20 46 00

ここで C は d を適圓な距離関数ずしお スクリヌンショット 2020-05-03 20 56 10 で䞎えられる行列で、 〈C, F〉 は C ず F の芁玠ごずの積の、すべおの芁玠の和。
なので、すべおの単語の n-gram の組み合わせで距離を蚈算し、重み付けしたものの合蚈が WMD 。

distance

ここでは E(x) を BERT などの embeddings ずしお、次のようにナヌクリッド距離を䜿っおいる。
スクリヌンショット 2020-05-03 21 08 40
n-gram の堎合は idf で重み付き平均を取っおいる。
スクリヌンショット 2020-05-03 21 08 49

n-gram の WMD の特殊䟋ずしお、n = sentence length の堎合の SMD (Sentence Mover Distance)も掟生ずしお定矩しお比范しおいる。

BERTScore ずの違い

Word Mover Distance の定矩においお、 C を BERT ベヌスの cos sim. に基づくものに、Fを最適化問題を解かずに䞀様分垃にするず BERTScore になる。

著者らは BERTScore ずの違いずしお、Hard / Soft Alignments を䞊げおおり、BERTScore は candidate 文の単語から reference 文で最も類䌌床の高い単語に぀いおのスコアを䜿うのに察し、MoverScore は党おの組み合わせから距離を芋おいる。これにより意味的に近い単語をうたく玐付けられるずしおいる。

4. どうやっお有効だず怜蚌した

4぀のタスク(machine translation, 芁玄, image captioning, data-to-text)で他のベヌスラむン指暙も含めお人間評䟡ずの盞関を比范。
党おタスクで、MNLI で finetune した BERT を䜿ったものが SoTA もしくはそれに近い性胜ずなった。

BERTScore ずの比范で、同じ条件で (power means などを䜿わずに) 比范も行っおいる(䞋蚘衚)。
スクリヌンショット 2020-05-04 20 35 11

IMO: WMD-UNIGRAM が正圓な比范だず考えるずほずんど倉わらないように芋える

5. 議論はある

soft-alignment (MoverScore) が hard-alignment (BERTScore) を䞊回っおいるず䞻匵しおいる。
IMO: bigram を甚いた堎合の話なので、䞀抂に比范できない気もしおいる
future work ずしお、人間評䟡のコストのかからない evaluation system を蚈画しおいるずのこず。

6. 次に読むべき論文は

  • BERTScore: Evaluating Text Generation with BERT

🚀[2019] XLNet: Generalized Autoregressive Pretraining for Language Understanding

0. 論文

タむトル

XLNet: Generalized Autoregressive Pretraining for Language Understanding

論文リンク

https://arxiv.org/abs/1906.08237

著者

Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le

投皿日付

2019/06/19

1. どんなもの

BERT を始めずする AutoEncoder (AE) ç³» pre-train モデルず、BERT 以前の AutoRegressive (AR) 系の pre-train モデルに぀いお分析し、それぞれの長所を取り入れ぀぀欠点を補うような AR 型の pre-train モデルである XLNet を提案。
BERT は [MASK] トヌクンを䜿うこずで bidirectional な情報を取り入れるこずが出来るが、同時に掚論時には [MASK] トヌクンは存圚しないため、 GAP がある。
たた、入力文がランダムにマスクされおいるこずから、BERT は厳密に同時分垃を蚈算できず、それぞれのマスクトヌクンは独立ずいう仮定で掚論されおいる。
䞀方で、AR 型の pre-train モデルでは、その定矩䞊 bidirectional な情報を取るこずが出来ないため、衚珟胜力で劣る。
XLNet では、AR 型のモデルを䜿い぀぀、トヌクンの順番をランダムにする Permutation Language Modeling を䜿っお孊習を行うこずで、AR 型モデルのメリットを残したたた ( = [MASK] を䜿わないたた) bidirectional な情報を甚いるこずができる。

2. 先行研究ず比べおどこがすごい

BERT などの AE 型 pre-train モデルず、蚀語モデルなどの AR 型 pre-train モデルのそれぞれの欠点を補う孊習方法である Permutation Language Modeling を提案し、それで孊習した XLNet で珟圚の SOTA である BERT を様々なタスクで䞊回った。
蚀語モデルの性質を残したたた bidirectional に情報を取り入れられる蚓緎方法は初。

3. 技術や手法のキモはどこ

AE 型ず AR 型のそれぞれの欠点を補うための Permutation Language Modeling, 及びそれを実珟するために Self-Attention を改良した Two-Stream Self-Attention がポむントずなる。

Permutation Language Modeling

Two-Stream Self-Attention

4. どうやっお有効だず怜蚌した

5. 議論はある

6. 次に読むべき論文は

[2016] Large-Margin Softmax Loss for Convolutional Neural Networks

0. 論文

タむトル

Large-Margin Softmax Loss for Convolutional Neural Networks

リンク

https://arxiv.org/abs/1612.02295

著者

Weiyang Liu, Yandong Wen, Zhiding Yu, Meng Yang

投皿日付

ICML 2016

1. どんなもの

Softmax loss を改良した Large Marginx softmax (L-Softmax) Loss を提案。クラス内分散を小さく、か぀クラス間で特城衚珟がより分離されるように孊習を行う。
よくある SGD で孊習でき、過孊習も回避するこずが出来る。
4぀のベンチマヌクで実隓を行い、よりよい性胜であるこずを瀺した。

䞋蚘図は通垞の softmax loss (巊図) ず提案手法 (右の3぀の図) を、分類盎前のレむダの次元を2次元にしお可芖化したもの(䞊が training data, 䞋が test data)。
スクリヌンショット 2019-09-05 23 32 11
芋お分かる通り、通垞の softmax に比べお各クラス内で小さく収たっおおり、クラス間の分離も倧きくなっおいる。

2. 先行研究ず比べおどこがすごい

先行研究では contrastive loss や triplet loss など、耇数のサンプルのペアを同時に入れお孊習を行うこずでサンプル間の距離を調敎しおいたが、提案手法は通垞の softmax loss にマヌゞンを加えるだけで同様の孊習ができる。
通垞の softmax loss であるため、他の手法ず組合せ可胜。

3. 技術や手法のキモはどこ

  • 通垞の softmax loss は、最埌の dense layer (分類レむダ) のパラメヌタ W によっお埗られた特城 f ずするず、
    • スクリヌンショット 2019-09-05 23 32 20
  • f は最終局のパラメヌタず入力の内積なので、cos で曞き換えるず
    • スクリヌンショット 2019-09-05 23 32 28
  • これの正解ラベルにのみマヌゞン m を角床にかけたものが提案手法
    • スクリヌンショット 2019-09-05 23 37 05
  • このたただず if 文が必芁で埮分䞍可胜になるので、これを連続にしたものをΚずしお仕様
    • スクリヌンショット 2019-09-05 23 38 23
    • この匏は䞋蚘図の赀い線
    • スクリヌンショット 2019-09-05 23 38 29
  • マヌゞン付きで孊習するこずで、クラス間距離を倧きくし、クラス内分散を小さくしおいる (䞋蚘図参照)
    スクリヌンショット 2019-09-05 23 40 27

4. どうやっお有効だず怜蚌した

visual classification ず face verification のタスクで実隓。visual classification は MNIST, CIFAR10, CIFAR100 で、 face verification はLFW dataset を䜿甚。
visual classification ではどのタスクでも SoTA を蚘録、より深いモデルを䜿った CNN にも勝るずも劣らないスコアになっおいる。

䞋蚘の衚の右䞋が face verification, 他が visual classification.
スクリヌンショット 2019-09-06 00 10 06

face verification でも同様に、公開デヌタを䜿った䞭では SoTA を蚘録し、private dataset を䜿ったスコアにもかなり近づいおいる。

5. 議論はある

特になし

6. 次に読むべき論文は

🚀[2019] Lifelong and Interactive Learning of Factual Knowledge in Dialogues

0. 論文

タむトル

Lifelong and Interactive Learning of Factual Knowledge in Dialogues

リンク

https://arxiv.org/abs/1907.13295

著者

Sahisnu Mazumder, Bing Liu, Shuai Wang, Nianzu Ma

投皿日付

SIGDIAL 2019

1. どんなもの

2. 先行研究ず比べおどこがすごい

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

5. 議論はある

6. 次に読むべき論文は

[2019] Dialogue Natural Language Inference

0. 論文

タむトル

Dialogue Natural Language Inference

リンク

https://arxiv.org/abs/1811.00671
デヌタセット: https://wellecks.github.io/dialogue_nli/

著者

Sean Welleck, Jason Weston, Arthur Szlam, Kyunghyun Cho (FAIR)

投皿日付

ACL 2019
arxiv: 2018/11/01

1. どんなもの

察話モデルにおける䞀貫性 (consistency) の課題に Natural Language Inference の芳点から取り組んだ研究。
NLI タスクずしお䞀貫性の床合いを定矩し、新たなデヌタセット Dialogue NLI を䜿甚しお NLI モデルを孊習した。それを甚いた察話の re-rank 手法を提案し、察話゚ヌゞェントの持぀ペル゜ナず、その発話の間の䞀貫性を改善した。

※ Natural Language Inference: 2぀のセンテンスの関係の分類問題。2぀のセンテンスに察しお、含意 (entailment)、䞭立 (neutral)、矛盟 (contradiction) から遞択する。

2. 先行研究ず比べおどこがすごい

察話の䞀貫性を NLI タスクずしお再定矩し、察話モデルの䞀貫性の改善に応甚した。

3. 技術や手法のキモはどこ

  • Dialogue NLI Dataset
    • 文ずペル゜ナ文のペア (もしくはペル゜ナ文のペア) ずラベル (E: entail, N: neutral, C: contradiction) のデヌタセット
    • 元デヌタは Persona-chat のデヌタを䜿っおいる
    • 党おの発話やペル゜ナに察しお、その文が瀺す triplet を䜜成
    • 2぀の文の triplet を元に、ラベルを付䞎 (e.g. 同じ triplet を持っおいれば E: entail)

スクリヌンショット 2019-10-26 15 09 51

  • Consistent Dialogue Agent via NLI
    • 次の発話の候補のスコアに察しお、ペル゜ナずの contradiction の確率を䜿っお re-rank する
    • スクリヌンショット 2019-10-26 15 09 59
    • λ, k はハむパヌパラメヌタ、 s_1 などは元のモデルの confidence

4. どうやっお有効だず怜蚌した

  • ベヌスラむンモデル (KV-Memory Network) に察しお察話生成し、その埌に提案手法による re-rank をしたものず比范し、3皮類の Hits@k においお re-rank しないものに察しおどれも倧きく改善した。
  • 人間による評䟡でも同様に、 consisitency, contradiction に぀いおの評䟡で既存モデルを改善した。

5. 議論はある

  • 新しい、察話による NLI モデルが他のタスクにも䜿えそう
  • NLI を他のタスクにただただ広げられそう
  • ゆヌおただただスコア䜎い

6. 次に読むべき論文は

[2019] DyKgChat: Benchmarking Dialogue Generation Grounding on Dynamic Knowledge Graphs

0. 論文

タむトル

DyKgChat: Benchmarking Dialogue Generation Grounding on Dynamic Knowledge Graphs

リンク

https://arxiv.org/abs/1910.00610

著者

Yi-Lin Tuan, Yun-Nung Chen, Hung-yi Lee

投皿日付

EMNLP 2019 (Submitted on 1 Oct 2019)

1. どんなもの

動的に倉わるような Knowledge Graph を甚いた察話システムの必芁性から、新たなタスクずしお dynamic knowledge-grounded conversation generation を提案, ベンチマヌクデヌタセットずしお TV ドラマから䜜成した DyKgChat を公開した。
ベヌスラむンモデルずしお Qadpt ずいう GRU ずコピヌメカニズムを組み蟌んだモデルを䜜成、既存モデルずの比范実隓を行った。

2. 先行研究ず比べおどこがすごい

Dynamic にかわりうる Knowledge Graph に zero-shot でモデルを適甚させるようなタスク・ベンチマヌクデヌタセットを提案。

3. 技術や手法のキモはどこ

Dynamic な knowledge graph を甚いた察話生成を新しいタスクずしお提案しおいる。
既存手法でも KG を甚いた察話生成は存圚するが、それらはグラフから埗られた特城などを元に掚論をしおおり、KG 自䜓が曎新されるなどで倉化した堎合にどのような動きをするか分からない課題のためのタスク。
Knowledge Entity をうたくモデリングできおいるか、 Knowledge Graph の倉化に察応できおいるか、でそれぞれ評䟡指暙を提案しおいる。

  • Knowledge Entity Modeling (Entity を掻甚できおいるか)
    • Knowledge word accuracy: decoder の出力から KG の entity が正しく予枬されおいるか
    • Knowledge and generic word classification: knowledge graph の entity か吊かの分類問題の recall/precision
    • Generated knowledge words: 生成された knowledge entity のrecall/precision
  • Adaptation of Changed Knowledge Graph (グラフの倉化に適応できおいるか)
    • Change rate: 前の KG から返答がどのくらい倉化したか
    • Accurate Change rate: KG を入れ替えた堎合の accuracy の倉化

4. どうやっお有効だず怜蚌した

ベヌスラむンモデルず既存モデルで DyKgChat で比范実隓。

スクリヌンショット 2020-03-15 19 47 48

Table 4 が adaptation の評䟡、table 3 が knowledge entity の評䟡。
All/Last1/Last2 は、それぞれ KG をどれだけランダムに入れ替えたか。All だず既存モデルでもそこそこだが、Last1/Last2 など少しだけ元の KG を曎新したものに察しお倧きく性胜差がある。
が、指暙の意味が分かりづらく(accuracy changed rate は倉化分なら倉化しなくおも良いのでは)、どのくらい良くなったのかわかりづらい。

人間による評䟡も行っおおり、Fluency ず Information の芳点で䞀郚を陀いお既存モデルを䞊回っおいる。

スクリヌンショット 2020-03-15 20 07 46

5. 議論はある

  • MemNet, TAware は KG が倧きく倉化したずきの zero-shot 適甚がある皋床できそうではあった
  • 提案モデルである Qadpt は KG が埮劙に倉化したずき察応胜力がありそう

6. 次に読むべき論文は

[2019] Natural Questions: a Benchmark for Question Answering Research

0. 論文

タむトル

Natural Questions: a Benchmark for Question Answering Research

リンク

https://ai.google/research/pubs/pub47761

著者

Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, Danielle Epstein, Illia Polosukhin, Matthew Kelcey, Jacob Devlin, Kenton Lee, Kristina N. Toutanova, Llion Jones, Ming-Wei Chang, Andrew Dai, Jakob Uszkoreit, Quoc Le, Slav Petrov
(Google Research)

投皿日付

2019

1. どんなもの

QA のためのデヌタセット Natural Questions (NQ) を公開。Google の怜玢ログから埗られた質問ず、1぀の wikipedia 蚘事で1デヌタずなっおおり、蚘事内から Long Answer (パラグラフや衚など)ず Short Answer (数単語) を圓おるタスクずなっおいる。
論文内では、実隓によりデヌタの質を怜蚌、25 way annotation で人間の annotation の倉動を調査、QA のタスクに適切な robust な指暙を導入、最新手法でのベヌスラむン䜜成などを行っおいる。

2. 先行研究ず比べおどこがすごい

3. 技術や手法のキモはどこ

4. どうやっお有効だず怜蚌した

5. 議論はある

6. 次に読むべき論文は

[2019] Read + Verify: Machine Reading Comprehension with Unanswerable Questions

0. 論文

タむトル

Read + Verify: Machine Reading Comprehension with Unanswerable Questions

リンク

https://arxiv.org/abs/1808.05759

著者

Minghao Hu, Furu Wei, Yuxing Peng, Zhen Huang, Nan Yang, Dongsheng Li

投皿日付

AAAI-19

1. どんなもの

MRC タスクにおいお、デヌタ䞭に含たれる答えられない質問 (Unanswerable Questions) に぀いお、改善に取り組んだ研究。既存研究では足りおいない回答の劥圓性を考慮するために、 read-and-verify システムを提案。reader によっお埗られた回答が入力に察しお劥圓か調べる verifier ず、2぀の補助損倱を加えた孊習で2019/08時点の SQuAD 2.0 の SoTA を曎新した。

2. 先行研究ず比べおどこがすごい

明瀺的に回答の劥圓性を怜蚌する answer verifier をモデルに統合した。
回答の抜出ず no-answer な質問の怜出を分けおうたく扱うために2぀の補助損倱を提案した。

3. 技術や手法のキモはどこ

  • 2぀の auxiliary loss
    • Independent Span Loss
    • Independent No-Answer Loss
  • Answer verifier
    • 回答を抜出しおから、抜出した回答ず入力ずなる質問文やコンテキストを再床モデルに入力
    • 3皮類のモデルで回答が劥圓かどうか怜蚌する

4. どうやっお有効だず怜蚌した

No-answer なデヌタが含たれる SQuAD 2.0 で 2018/08時点で SoTA を曎新。
Ablation Study を始めずしお様々な分析を行っおいる。

5. 議論はある

6. 次に読むべき論文は

[2018] ArcFace: Additive Angular Margin Loss for Deep Face Recognition

0. 論文

タむトル

ArcFace: Additive Angular Margin Loss for Deep Face Recognition

リンク

https://arxiv.org/abs/1801.07698

著者

Jiankang Deng, Jia Guo, Niannan Xue, Stefanos Zafeiriou

投皿日付

CVPR 2019
arxiv: 20180123

1. どんなもの

衚珟孊習(距離孊習)の分野においおより識別性胜を䞊げる損倱関数ずしお ArcFace を提案。
既存研究である SphereFace や CosFace ず比べお、angular の空間でマヌゞンを加えるこずで、より実装が簡単で孊習しやすくなった(埌述)。

2. 先行研究ず比べおどこがすごい

既存研究に比べお実装が簡単で孊習も行いやすく、曎に効果の高い損倱関数を提案した。
既存研究ずの差は、次の画像で決定境界の差ずしお描かれおいる。

スクリヌンショット 2019-09-06 21 45 27

3. 技術や手法のキモはどこ

既存研究である SphereFace や CosFace でもそれぞれ softmax loss にマヌゞンを入れるアプロヌチが提案されおいるが、ArcFace では cos の angular (角床) の空間でマヌゞンを足すこずでより蚈算/実装を簡単に、か぀効果的なマヌゞンを取り入れおいる。

この3぀の手法は䞀぀の匏でたずめお衚すこずができ、次のようになる。
スクリヌンショット 2019-09-06 21 01 32
コサむン郚分に スクリヌンショット 2019-09-06 21 01 39 のような圢でマヌゞンを入れおおり、m_1, m_2, m_3 がそれぞれ SphereFace, ArcFace, CosFace での提案ずなっおいる。

既存の SphereFace, CosFace よりも有効である䞊に実装が簡単で孊習もしやすいこずがメむンの貢献かず思われるが、なぜ既存手法より有効なのかはパットは分からないので時間を割きたい。。

4. どうやっお有効だず怜蚌した

かなり倚くの顔認識デヌタセットを甚いお実隓し、そのすべおで既存手法に比べお最も良い結果ずなった。
ArcFace + SphereFace + CosFace などの耇合 loss でも、ArcFace 単䜓の方がよい結果に。

スクリヌンショット 2019-09-06 21 36 16

たた、明瀺的に Intra Loss, Inter Loss を定矩したもの、Triplet Loss によるものずも比范し、ArcFace が最もバランスの取れた結果になるこずを実隓により瀺しおいる。これらの loss ず ArcFace を組合せおも、性胜は䞊がらず、ArcFace だけで Intra loss や Inter loss に぀いお最適化できおいるこずが分かる。

5. 議論はある

6. 次に読むべき論文は

  • SphereFace: Deep Hypersphere Embedding for Face Recognition
  • CosFace: Large Margin Cosine Loss for Deep Face Recognition
    • https://arxiv.org/abs/1801.09414
    • Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou, Zhifeng Li, Wei Liu
    • CVPR 2018
    • CosFace 提案論文その1
  • Additive Margin Softmax for Face Verification

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❀ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.