Counter-Contrastive 学习:训练Language GAN

Publish

2021EMNLP

title

Counter-Contrastive Learning for Language GANs

摘要

生成对抗网络(GANs)在图像合成方面取得了巨大的成功,但在生成自然语言方面存在一定的困难。挑战来自于鉴别器传递的uninformative learning signal。换句话说,糟糕的learning singnal限制了生成结构丰富、语义丰富的语言的学习能力。在本文中,我们提出在语言gan中采用反对比学习(CCL)方法来支持生成器的训练。与标准的GANs采用简单的二元分类器来区分样本的真假相比,我们采用了一种反对比学习信号,通过提高语言合成器的训练

  • (1)把生成样本与真实样本 放在一起(以生成真实的数据)
  • (2)推开真实的样本(以阻碍鉴别的训练)从而防止鉴别器被过度训练。

我们在合成基准和实际基准上评估了我们的方法,并与以前的GAN相比,在对抗序列生成方面产生了具有竞争力的性能。

Solution problem

CCL

Experiment

Conclusion

没代码,不看了。

作者

周江峰

发布于

2022-05-27

更新于

2022-06-22

许可协议

You need to set install_url to use ShareThis. Please set it in _config.yml.
You forgot to set the business or currency_code for Paypal. Please set it in _config.yml.

评论

You forgot to set the shortname for Disqus. Please set it in _config.yml.