朝からACL 読み会。夏休みに一度やっているのだが、最先端の論文リストは毎年ちゃんと眺めた方がよいと思い、インターンシップでいなかった人などを対象に、再度実施することにしたのである。
内容的には深層学習関係が多く、議論も白熱してすばらしかったが、一番おもしろかったのは
- Chen et al. Gated Recursive Neural Network for Chinese Word Segmentation. ACL 2015.
かな(Slideshare)。LSTM に似ているが forgate gate と reset gate の2つしかない Gated Recurrent Unit という別の素子を使ったネットワークを組んでいる。Gated Recursive Neural Network なので、それを再帰的に拡張しているわけであるが、畳み込みニューラルネットワークのようなことをしているようだ。結局やっていることといえば、CRF の素性テンプレートが離散的だったところをニューラルにして連続的にしているところが差分だと思うのだが、性能もそこそこ出ているし、納得感は高い。同じ著者たちが EMNLP にも(ユニットを LSTM に変えただけの?)論文を投稿して採択されているらしいので、両方読んでみないとなんとも言えないかもしれないけど。
1件、やたらと時間のかかった論文紹介があったのだが、論文のアルゴリズムをちゃんと理解して紹介してほしいと思うし、分からない人は理解するためにはどういうところを注意して読めばよいか、ということが分かるようにみんなで論文紹介をしているので、自分以外の人の論文紹介も聞いてほしい(最初は知識が少なすぎて理解できない・興味が持てないという問題があるので、とにかく100本くらいは眺めてほしいのだが……)。逐語訳で英語を日本語にしたら紹介したことになる、と思う人が最初は多いのだが、内容を理解していない人が日本語に逐語訳するくらいなら、用語は英語のまま紹介してくれた方がよいので、内容こそしっかり読むべきである(英語が読めないのはそもそも問題外なので、一定以下の英語力の人はまず英語力を身につけてほしいのだが)。特に秋以降は全員本格的に研究モードになるので、ここで乗り遅れると次の研究シーズンは1年後になってしまうのである。
あと、今回はたまたま [twitter:@shin_kan0] くんが来られないので Skype 参加したい、というのを聞いて、思いつきで Ustream 配信してみたが、iPhone のテザリングでも割と普通に配信できることが分かったのは収穫である(あと、PowerPoint を通すとプロジェクタの色が変になる問題は、Mac の方の設定で直ることもある、ということが判明)。すでに iPhone の通信量が今月 5.5GB になってしまったのでこれ以上は中継できそうにないが、学内のネットワークで配信できるなら、配信できる内容は今後も配信してみたい。(長岡技科大の自然言語処理研究室がこの分野では先人である)