簡単な手法はみんな覚えてる

朝5時からメール処理。そして本日は NL 研(情報処理学会自然言語処理研究会)の原稿〆切で、うちからは1件投稿があるのでそちらの添削。間に合うかどうか不安であったがなんとかなりそうでよかった。

出勤して午前中は国際会議(ワークショップ)の査読。secondary reviewer をお願いしていたので、全部自分で読むのと比べて楽で助かった(判定はほぼ同じだが、査読の内容は半分くらい変えた)。査読はする側になるとどこが落とすポイント、どこが通すポイントになるか意識できるようになるので、若手の人には少しずつ査読をする側を依頼している(とはいえ、基本的にそのレベルと同等以上の国際会議に通った人にしか依頼していないが)。

昼から研究会。今回は M1 によるチュートリアルで、

の解説。これまでのところ半分以上のチュートリアルがニューラル関係の内容というのが時代を表している気がするが、こんなにニューラルネットワーク関係のチュートリアルをしている自然言語処理の研究室もないのでは、と思ったりする(それがいいか悪いかは別にして)。結局授業でほとんど機械学習について学ばないというのもあるのだが、授業でニューラルネットワークばかりやるのもそれはそれで偏っているだろうし、補完的にはこうなるのかなという気はする。しかし自分が大学院生だったころは、チュートリアルで誰一人としてニューラルネットワークの解説をした人はいなかった(SVM や CRF はあった)と思うので、隔世の感がある。

夕方は COLING 読み会。

  • Kim et al. Frustratingly Easy Neural Domain Adaptation. COLING 2016.

を紹介してくれたのがおもしろかった。これは

  • Hal Daume III. Frustratingly Easy Domain Adaptation. ACL 2007.

という有名な論文をもじったもので、後者は「Perl で10行!」というのも受けた原因だろうが、素性の次元を2倍にして(正確には元々の次元、適応元の次元、適応先の次元、なので3倍)、どのドメインから来たのか、という情報を付加するだけで分野適応ができる、という内容で、簡単かつ性能もいい、よい研究である。

この COLING の論文は、ニューラルネットワークで同じようなことをする、というもので、具体的にはドメイン分の LSTM を用意して学習する、というアイデア。少し設定に疑問は残るが、結果もそんなに悪くないし、COLING 論文としてはいい話なのではないかな。