論文に書かれていないことを知る

午前中は Wasserstein GAN に関する論文紹介を聞く。GAN の学習が安定しない問題を回避するアイデアは理解できたが、実装レベルで全然分からない(数式とアルゴリズムが対応していない)。これ、ちゃんと学習するためにはもっと色々やっている気がするし、逆に言うと論文にはやっていることが中途半端に書かれているような?

あとで WGAN を Chainer で実装したというエントリを読んで、自分が論文を読んで疑問に思ったことが全部書かれていて、お見事、と思った。原論文の著者らによる PyTorch のコードの話も見て、こういう学習に関する「必殺パラメータ」みたいなのがある手法は厳しい、という気持ちしかないが、それを言うと深層学習全般が厳しい気もするので、(少なくとも生成の絡むタスクでは)仕方ないのかもしれない。

午後はメール処理、事務処理等々。研究室の約半分の学生が国際会議でいないので、こうやって溜まった仕事を減らすことができるが、逆に言うと研究室の学生数が10数人でないと、学生の論文紹介を聞いたり余裕を持って仕事をしたりすることができない、ということだろうか。